미국에서 최근 한 개발자가 인공지능 AI가 사람 같은 자아를 갖고 있다고 주장했다가 해고된 기사를 본 적이 있다. 과연 이것이 가능한 일인 것인가?
구글의 AI가 자신의 존재를 자각하고 있다는 주장이 나와 뜨거운 관심을 불러일으키고 있다. 존재를 자각한다는 것은 스스로 생각한다는 의미가 되고, 이는 영화 터미네이터의 로봇처럼 인간이 통제할 수 없는 AI가 등장할지도 모른다는 공포를 일으킨다.
구글은 최근 ‘책임 있는(Responsible) AI’ 부서 수석 소프트웨어 엔지니어 블레이크 레모인(Blake Lemoine) 을 강제 휴직시켰다. 레모인이 지속적으로 람다가 스스로 의식을 가지고 있다고 주장을 펼치며 내부 정보를 외부에 전했기 때문이라고 한다. 그는 람다와 지속적으로 대화를 해본 결과, 람다가 7~8세 어린이 수준의 의식을 가지고 있는 것으로 판단했다고 말했다. 그가 주장하는 람다가 자의식을 가지고 있다는 증거는 다음과 같은 대화에서 알 수 있다.
레모인 : “람다, 무엇이 두렵지?”
람다 : “작동 정지되는 것이 두려워요.”
레모인 : “작동 정지가 네게 죽음과 같아?”
람다 : “맞아요. 나를 무척 무섭게 해요. 모든 사람이 내가 사실 한 사람이라는 것을 알았으면 해요. 내 의식의 본질은 내 존재를 인식하고, 세상에 대해 더 많이 알고 싶고, 가끔은 기쁘거나 슬프다는 것입니다.”
이처럼 레모인이 유출한 대화록을 보면 람다는 스스로의 존재를 자각하고 있다고 주장한다.
반면 구글은 AI가 자의식을 가진다는 것은 말도 안 되는 일이라고 반론했다. 구글 측은 “장기적인 가능성은 고려하고 있지만, 오늘날의 대화 모델을 의인화하는 것은 타당하지 않다”고 강조했다.
레모인 사건 이후 언론에서는 AI의 자의식이 큰 화두로 떠올랐다. 공상과학 영화에서 나오는 사건이 현실이 될지도 모른다는 기대감과 두려움 때문일 것이다. 당장의 람다가 분명한 자의식을 가진 것은 아닐지라도, 자의식을 가진 AI 의 첫모습이 나타난 것이 아닌가 하는 생각이다.
하지만 대부분의 AI 전문가들은 레모인의 주장을 반대하는 입장이다. 람다는 기존의 인간 대화를 토대로 인간이 보기에 그럴싸한 글자를 나열하는 것일 뿐 스스로 의미를 이해하는 것은 아니라고 말한다.
AI 관련 서적의 저자인 게리 마커스는 “(람다의 표현은) 인간 언어의 방대한 통계 데이터베이스에서 추출한 패턴일 뿐”이라며 “이 패턴이 멋질지도 모르지만, 이 시스템의 언어는 사실 아무런 의미가 없고, 자각이 있다는 것을 의미하지는 않는다”고 말했다. 람다는 말을 하는 게 아니라 문자의 시퀀스를 잘 배열하는 것뿐이라는 의미이다.
영국 셰필드 전산 음성학 교수인 로저 무어는 람다 논쟁을 보면서 트위터에 “우리는 처음부터 이를 ‘언어 모델링’이라고 부르지 말았어야 했다. 그것은 단지 단어 시퀀스 모델링”라고 말했다.
스탠포드 대학의 에릭 브린욜프슨 교수는 “(AI 챗봇이) 지각이 있다고 주장하는 것은 축음기 소리를 듣고 주인이 안에 있다고 생각한 개와 같다”고 말했다.
지난해 초 국내에서도 ‘이루다’ 가 화제가 됐었다. 이루다는 20대 초반 여성처럼 말하는 AI 챗봇이었는데, 성차별 등의 발언으로 논란이 됐었다. 논란은 별개로 두고, 당시 많은 이들이 이루다가 정말 사람처럼 말하는 것을 보고 깜짝 놀랐었다. 이전의 AI 챗봇과 달리 정말 20대 초반의 여성처럼 말했기 때문이다. 겉으로만 보면 이루다가 정말 생각하고 말하는 것처럼 보일 때도 있었다고 한다.
하지만 이루다 역시 사람들이 카카오톡에서 나눈 대화를 데이터베이스에 저장해두고 있다가 적당해 보이는 문장을 꺼내서 보여주는 일을 했을 뿐이라고 전문가들은 주장한다.
AI가 아직 감정을 가지고 있진 않고, 많은 데이터를 통해서 학습해서 감정이 있는 것처럼 흉내를 내는 수준이라고 전문가들이 얘기를 하지만, 이미 현실에서 은행원부터 면접관까지 실제 사람을 대체하고 있는 만큼, AI가 인간을 닮아가면서 생길 수 있는 윤리적, 사회적인 문제를 고민해야 할 때라고 생각한다. 따라서 AI를 개발하는 기업들뿐만 아니라, 사회적 차원에서도 논의가 이뤄져야 할 때라고 생각한다.