샘 알트만 w.렉스 프리드먼

gibon·2023년 3월 31일
0

AI Safety

ai가 인류에게 해가 될 수 있는 경우를 막기 위해서 샘 알트만은

반복적으로 경험하고
되돌고 빨리 경험하고
일회성 사건에 대해 파악

해야 한다고 했다.

개인적으로 이 때 떠오른 하나의 사례가 있는데,

비행기 기체의 안전을 높여주는 ai가 있다고 하자. 이 ai는 단 한번의 실수로 돌이킬 수 없는 악영향을 미치기 때문에 안전이 가장 중요하다. 이를 담보하기 위해서는 어떻게 해야할까? 기체와 기체의 주변 환경을 시뮬레이션 할 수 있는 디지털 트윈을 구현해 가능한 많은 시나리오를 테스트한다. 또한 각 부위별, 기능별로 ai의 작동 범위를 제한시켜 오작동의 영향을 최소화 시킨다.

'AI’의 존재 범위를 제한시킨다는 점이, 사물에 깃든 정령/도깨비 등과 같은 동양 설화를 생각나게 했다.

사람이 오래 쓴 물건, 정을 준 동물이 자아를 가지게 된다는 것처럼 창발적인 존재를 가정하는 것은 적절하지 않더라도, 특정 범위 내에서 자율학습이 가능한 AI가 인간이 이해하지 못하는 매커니즘을 통해 결과를 내는 것은 충분히 가능하지 않을까?

Fast timelime to AGI, Long takeoff to Super Intelligence

초지능, SuperIntelligence의 위험성에 대해 고려하는 것은 아직도 공상의 범주가 아닌가 싶다.

하지만 샘 알트만같은 전문가가 언급하는 정도면 어느 정도 실현 가능성은 있다는 것 같기도 하고…

일단 인간이 하는 일을 모두 해낼 수 있다는 AGI도 범주에 따라 달리 접근해야 된다고 생각한다.

현실에 대한 접근성은 제한된 채 소프트웨어의 영역에서의 AGI의 경우에는 샘 알트만이 주장한대로 빨리 접할 수록 좋다고 본다.

그러나 현실에 대한 영향력을 가진다면?

스마트홈의 가전 전반에 대한 접근 권한을 가진 AGI, 자동차 운전을 할 수 있는 AGI라도 빨리 접하는 것이 옳을까?

‘반복적인 경험’은 반드시 ‘일회성 사고’를 낼 것이고 그 여파가 되돌이킬 수 없다면?

권한, 시간 효율성, 자원 효율성 등 다양한 요인에 대해서 좀 더 고민하고 AGI의 위험성이든 초지능의 위험성이든 이야기해야 될 것 같다. 1년에 한번 원전 1기의 1년 전기 생산치를 투입해 절대적으로 옳은 예언을 하는 초지능이 나왔다고 해도, 그것이 나를 화장실에서 감전시킬 수 있는 스마트홈 AGI보다는 덜 위험할 것이기 때문이다.

만약 초지능이 구현된다면, 허위정보의 확산을 막기 위해 가장 중요한 것은 그 전까지의 기록의 보안일 것 같다.

단순히 하나의 기록을 위조하는 것이 아니라 연속적이고 연관된 수많은 기록을 한꺼번에 위조할 수 있는 능력을 지니고 있다면, 그것이 거짓임을 밝히기 어려울 뿐 아니라 하나의 일화로 받아들여지기 매우 쉽기 때문이다.

이런 경우 블록체인의 존재가 방어할 수 있을 것 같기도 하다는 생각이 들었다.
하지만 기존의 암호체계를 무너뜨릴 수 있는 초지능이 블록체인을 무력화시키지 못할까?

그리고 만약 수많은 가짜 SNS 계정을 통해 여론을 호도하려 한다면? 현재 트위터블루, WEB3 프로젝트, NFT와 같이 본인이 기존에도 존재한 사람이라는 것을 증명할 수 있는 기술과 서비스들이 중요할 것 같다.

AI는 의식을 가질 수 있는가?

‘감정은 의식이 아니다’라는 샘 알트만의 의견이 인상적이었다.

비영리단체의 통제를 받는 영리기업?

OpenAI는 비영리단체에서 시작해 현재는 자금 모집을 위해 자회사를 두고 있다고 한다.
그러나 주주와 직원이 고정 이익을 받는 것 만을 규정하고 그 이상의 이익을 비영리단체로 전달한다고 하는데, 매우 재미있는 지배구조 같다.

0개의 댓글