OpenAI를 창립하고, 지금의 ChatGPT 를 만든 IIya Sutskever 의 인터뷰 내용 요약입니다. 내용이 좋아서 요약해보았습니다. GPT 개발자라 그런지 내용도 좋지만 언어적 표현도 상당히 좋은것 같아 한번 보시는것 추천드립니다.
https://www.youtube.com/watch?v=Yf1o0TQzry8
다음은 위 인터뷰 내용에 대해 ChatGPT 가 요약한 내용을 정리한것입니다.
본 내용은 Ilya Sutskever 의 AGI 에 대한 인터뷰 내용입니다. Ilya는 OpenAI의 공동 창립자이며, AGI에 대한 전망, 인공지능의 경제적 가치, GPT의 부정적인 사용 등에 대해 논의되었습니다.
Ilya는 AGI가 언제 개발될지에 대해 정확히 예측하기 어렵고, 생각보다 기술 개발자들은 개발 시간을 과소평가한다고 말했습니다. AI 기술이 점차 성숙해지면서 경제적 가치가 점점 높아질 것이라고 말했습니다. 그는 이러한 경제적 가치가 신뢰성 문제 때문에 제한되는 상황이지만, 기술적으로는 이미 성숙한 수준에 도달했다는 견해를 밝혔습니다.
GPT의 부정적인 사용에 대해 Ilya는 아직 그에 대한 충분한 연구가 이루어지지 않았고, 오용되더라도 크게 놀라지 않을 것이라고 말했습니다. 그러나 그는 이러한 부정적인 사용이 발생한다면 대규모 추적이 가능하다는 견해를 밝혔습니다.
Ilya는 AI가 AGI가 나오기 전까지 계속해서 경제적 가치를 창출할 것이며, 이미 지난해에는 많은 경제적 가치가 창출되었다는 견해를 밝혔습니다. 그는 이러한 경제적 가치 창출이 미래에도 계속해서 증가할 것이라고 말했습니다. AI가 경제적 가치를 창출하다가도 언젠가는 AGI가 나오면 그 가치는 사라질 것인가에 대해 Ilya는 이것이 언제 일어날지 예측하기 어렵지만, 현재 AI가 처리하는 작업들이 아직도 신뢰성 문제 때문에 검토가 필요하다는 것을 강조했습니다.
생성 모델 이후에 대해, 강화 학습 및 인간의 역할 등에 대한 내용입니다
Ilya는 생성 모델이 AGI까지 이어질 수 있는 파라다임임에도 불구하고, AGI 패러다임은 과거에 나왔던 모든 아이디어들을 통합하게 될 것이라고 말했습니다. 또한 next token prediction 만으로도 인간의 성능을 뛰어넘을 수 있다고 말했습니다.
Ilya는 현재 대부분의 강화 학습 데이터는 인공지능에서 생성된 데이터라고 말했습니다. 인간은 여전히 보상 함수를 훈련시키는 데 사용되며 RLHF 기술을 사용하여 인간 피드백으로 보상 함수를 훈련시킨 다음, 보상 함수를 사용하여 모델을 훈련시킵니다.
현재 GPT 가 multi-step reasoning 을 잘 못하는것에 대해 multi-step reasoning 에서 가장 큰 문제는 인공지능이 말을 하지 않을 때 생기는 것이며, 이러한 문제를 극복하기 위해 인공지능과 인간이 협력하여 훈련을 해야 한다는 견해를 밝혔습니다.
인터넷에서 이용할 수 있는 데이터 토큰의 유한성, 가장 가치 있는 데이터 소스, 인공지능 모델의 발전과 성능 개선 방향에 관한 것입니다.
Ilya는 언젠가는 토큰이 고갈될 것이라고 생각하지만, 아직까지는 데이터 상황이 좋다고 말합니다. 그는 다양한 데이터 소스들이 모두 가치 있다고 생각하며, 텍스트뿐만 아니라 멀티모달의 발전도 중요하다고 생각합니다. 현재 하드웨어는 큰 제한 요소가 아니라고 생각하며, 모델 개선을 위해 알고리즘 개선을 계속해나갈 필요가 있다고 말합니다.
AI 모델의 alignment 문제에 관해서는 하나의 수학적 정의보다는 다양한 측면에서 alignment를 이해하는 것이 더 효과적일 것이라고 생각합니다. 이를 위해 여러가지 기법들이 필요하며, 이를 통해 더 높은 수준의 alignment가 가능할 것으로 보인다고 합니다.
AGI(인공 일반 지능)와 관련해서는 AGI를 정의하는 것이 애매하다고 생각하며, 여러 가지 기준에 따라 필요한 정확도 수준이 달라질 수 있다고 말합니다. 이를 위해 다양한 접근법이 필요하다고 생각하며, 실질적인 발전을 위해서는 충분한 동기와 아이디어가 필요하다고 생각합니다. Ilya는 인공지능이 도움을 줄 수 있는 다양한 분야에서 활용되고 있으며, 앞으로 더욱 발전할 것이라고 이야기합니다. 그러나 그는 정확한 예측이 어렵고, 예측의 정확도를 높이기 위해서는 충분한 데이터가 필요하다고 말합니다.
인공지능의 발전에 대한 미래적인 전망과 함께 인간과 인공지능의 상호작용에 대해 이야기했습니다.
Ilya는 AGI 이후의 세상에서 인간들이 어떻게 의미를 찾을 수 있을까라는 질문에 대해 고민해본다고 말합니다. 하지만 그는 인공지능이 이 문제를 해결할 수 있는 가능성이 있다고 생각합니다. 인공지능과 상호작용함으로써 인간들은 세상을 더 올바르게 보고 내면적으로 성장할 수 있기 때문입니다. Ilya는 "세상에서 가장 좋은 명상 강사와 대화할 수 있는 것처럼, 인공지능과 상호작용할 수 있다면 그것은 매우 도움이 될 것입니다"라고 말합니다.
그러나 AGI가 인간들의 삶을 크게 변화시키고, 이해하기 어려운 문제들을 해결하는 데 도움을 줄 수 있다는 것을 인정하면서도, 세상이 크게 변화함에 따라 어떻게 기여해야 할지 이해하는 것이 어려워질 수 있다고 말합니다. 이에 따라 인간들 중 일부는 자신의 정신과 이해력을 넓히기 위해 일부분을 AI로 대체할 수도 있다는 것을 예측합니다. Ilya는 "미래를 이해하는 것이 어렵다면, 세상이 더 복잡해질 것이고, 이를 해결하기 위해서는 더 나은 이해력이 필요할 것입니다"라고 말합니다.
Ilya는 3000년이 어떻게 될지는 모른다고 말하면서도, 사람들이 자유롭게 살고 행복하게 살 수 있기를 바라는 바람을 표현합니다. 그러나 세상은 계속해서 변화하고 진화하기 때문에, 우리가 어떻게 인공지능과 상호작용할지, 어떤 의미를 찾을지, 어떤 과제를 해결해 나갈지는 지속적인 고민과 연구가 필요합니다.
딥러닝에 대한 예상이 2015년 당시보다 크게 벗어난 것이 있나에 대해 Ilya는 그렇지 않다며, 딥러닝이 발전할 것이라는 확신은 있었지만, 얼마나 발전할지는 예측할 수 없었다고 합니다.
구글이 자사의 사용자 데이터와 TPU 하드웨어를 활용하여 딥러닝 모델을 훈련할 때, OpenAI와 비교해서 얼마나 우위에 있는지 물었습니다. 이에 대해 Ilya는 TPU와 GPU는 기본적으로 같은 구조를 가지고 있다고 말하며, 하드웨어의 성능은 연산 비용과 전체 시스템 비용에 달려 있다고 답합니다. 그리고 TPUs가 더 비싸다는 생각도 있는 것 같다고 말합니다.
Ilya는 새로운 아이디어는 중요하지만, 딥러닝 모델의 결과를 이해하고 다음 실험을 설계하는 것이 더 중요하다고 말합니다. 딥러닝 모델은 복잡한 시스템이기 때문에 그 결과를 이해하고 다음 실험을 설계하는 것이 매우 중요하다는 것입니다.
대만에서 지진이나 산사태와 같은 재해가 발생하면 AI 생태계가 얼마나 취약한지에 대해 물었습니다. Ilya는 이러한 재해가 발생하면 일시적인 약화가 생길 수 있다고 말하며, 일시적으로 연산 능력이 부족해질 수 있지만, 미래에는 새로운 기술과 시스템이 발전할 것이라고 말합니다.
모델이 커지면서 인퍼런스 비용이 높아질 때, 이를 어떻게 다룰 수 있을지에 대해 논의합니다. 모델이 커지면서 인퍼런스 비용이 급격하게 상승할 가능성이 있는데, 이에 대해서 Ilya는 모델이 더욱 좋아진다면 비용이 비싸더라도 그것이 잘못된건 아니라고 말합니다. 예를 들어 변호사와 상담할 때 시간당 400달러를 지불하는 것이 일반적이듯, 만약 뉴럴 넷이 신뢰성 높은 법률상담을 제공한다면 그것에 400달러를 지불할 의향이 있을 것이라고 말했습니다. 즉, AI가 제공하는 서비스가 가치있다면 인퍼런스 비용이 높아진다고 해도 문제될것이 아니라는 것입니다.
또한, Ilya는 이미 현재에도 다양한 크기의 모델을 제공하고 있으며, 다른 기업들이 가격 경쟁을 하여 GPU 비용만큼만 모델 가격이 결정되는 상황이 발생할 수 있다고 말했습니다. 하지만 모델의 신뢰성과 제어 가능성이 높아진다면, 이러한 상황은 없을것이라 합니다. 또한 모델이 발전하면서 예측할 수 없는 새로운 속성이 등장할 것이며, 모델의 신뢰성과 제어 가능성이 높아진다면 모델의 인퍼런스 비용을 더욱 효율적으로 관리하는 방법이 발견될 것이라고 합니다.
Ilya는 딥러닝 혁명과 관련된 몇 가지 주제에 대해 이야기했습니다. 먼저, 우연성에 대해 논의했는데, 우리가 데이터, GPU 및 transformer를 개발한 것이 정확히 동일한 시기에 발생했다는 것은 놀라운 일이라고 생각할 수 있습니다. 그러나 그는 모든 차원에서의 진보가 서로 뒤섞이며 이러한 발전은 어느 한 가지 요인에서 발생한 것이 아니라, 전반적인 기술 발전의 결과라는 것을 지적합니다.
그러나 특정 선구자들이 탄생하지 않았더라도 딥러닝 혁명은 발생했을 것이라는 결론을 내립니다. GPU와 같은 하드웨어 개발에 대한 예시를 들며, 만약 게임이 발전하지 않았더라면 GPU가 더 늦게 나왔을 수도 있다는 가능성을 제시하며, 이러한 발전은 동일한 기술 발전의 결과물이라는 것을 강조합니다.
또한 학계가 어떻게 실제 능력에 대한 중요한 통찰력을 개발할 수 있는지, 특히 alignment research(인공지능 시스템과 인간의 가치, 목표, 의도 등이 일치하는지 검증하는 과정)에 대해 논의합니다. 그는 학계가 alignment 연구에 대한 노력을 기울일 경우, 이를 통해 의미 있는 기여를 할 수 있다고 언급하며, 이러한 분야에서 학계가 더 많은 노력을 기울일 필요가 있다고 강조합니다.
Ilya는 언어 모델이 원자의 세계에 영향을 미치는 구체적인 단계에 대해 논의합니다. 비트와 원자의 세계 사이에 명확한 구분이 없다는 것을 강조하며, 뉴럴 넷이 원자의 세계에 영향을 미칠 수 있다는 것을 보여주는 예시로, 뉴럴 넷이 물리적인 행동이 필요한 추천을 통해 원자의 세계에 영향을 미치는 경우를 들어 설명합니다.
AI 분야에서의 미래적인 성취에 대해 이야기합니다. Ilya 는 미래의 진전이 이전의 Transformer와 같은 중요성을 가진다면, 그것이 우리가 책에서 이미 알고 있던 것을 구현하고 연결해야 할 것인지 아니면 새로운 발견이 될 것인지 의견을 물어봅니다. 그는 이러한 두 가지 경우 사이에 큰 차이를 보지 않는다고 말합니다. 과거에 진전이 이루어지는 방법 중 하나는 바람직한 속성을 가진 것이 있음을 깨달았지만 우리는 이를 인식하지 못했다는 점입니다. 이것이 진보인가요? 그렇다고 할 수 있습니다. 이 책에서 언급되어 있는 것을 구현하는 것인가요? 그것도 그렇습니다.
그는 "이러한 경우 몇 가지가 발생할 가능성이 높다"며 "하지만 후견적으로는 그것이 큰 진전으로 느껴지지는 않을 것이다"고 말합니다. 모든 사람들이 이제는 "당연히 그럴 수 있다"고 말할 것입니다. Transformer가 특정한 진보로 언급되는 이유는 대부분의 사람들에게는 명백하지 않았기 때문입니다. 그래서 사람들은 그것이 자신들이 알고 있던 것이 아니라고 말할 수 있습니다.
Ilya는 자신의 전 교수님의 새로운 앞서가는 알고리즘에 대한 의견도 나누었습니다. 이는 역전파 없이 신경망을 훈련시키기 위한 시도라며, 만약 뇌가 연결을 학습하는 방법을 이해하려는 동기부여가 있다면 이것이 특히 흥미로울 것이라고 생각합니다. 그러나 좋은 시스템을 설계하기 위해서는 역전파를 사용하지 않을 이유가 없다고 말합니다. 역전파는 유일한 알고리즘입니다.
또한, Ilya는 인간을 인공지능의 예시로 사용하는 것에 대해 이야기합니다. 그는 인간에게서 영감을 받는 것이 좋다고 말하지만, 인간이나 뇌의 비핵심적인 특징에 집착하는 것은 조심해야 한다고 강조합니다. 인공지능 연구에서 인간 지능에 영감을 받을 때,어떤 인간의 행동이 본질적이며, 우리가 그것이 가능하다는 것을 입증하는 것이 중요하다고 말합니다. 이것은 뇌에서 온 인공신경망 자체의 아이디어와 같이 뇌에서 온 아이디어가 극도로 열망의 열망에서 극도로 새로운 결과를 가져왔다는 것을 보여줍니다. 그러나 이것이 어떻게 이루어졌는지, 무엇이 본질인지, 그리고 우리 자신의 기초를 올바르게 이해하는 데 집중해야 한다는 것입니다.
마지막으로 Ilya는 자신이 딥 러닝 혁명에서 선도적인 역할을 하면서 왜 여전히 최고의 연구자 중 하나인지에 대한 질문을 받았습니다. 그는 그것이 인내심 덕분이라고 말합니다. 이것은 필요하지만 충분한 조건은 아닙니다. 여러 가지 요인들이 결합되어야 정말로 무언가를 이해할 수 있습니다. 당신은 정말로 그것을 추구하고 또한 올바른 시각으로 바라볼 수 있어야 합니다. 이 질문에 대해 의미 있는 대답을 내리기는 어렵다고 이야기합니다.