https://www.youtube.com/watch?v=vQF3E-Rmbz4
이 무슨 갑분 영상 회고냐 하면,
매주 있는 주간 회의 때 팀장님이 보여주신
클로드를 사용해서 논문 읽기 방법을 알려줌과 동시에
한번 보면 좋을 것 같아서 추천해주신 영상이라
한 번 진지하게 봤다.
사실 ai engineer 랍시고 gpt 불러서 agent 만들고 깔짝깔짝 테스트 하고 프롬프트 수정하고 좋다는 논문 정리하고 기계처럼 있다가 인사이트 찾는 노력은 사실 안했던 것 같다.
암튼 갑자기 영상을 보다가 왜 글을 쓰게 되었냐 하면
'트랜스포머'를 사용하는 이상 거대 언어 모델의 할루시네이션(Hallucination)을 피할 수 없다는 것이다.
또한 이 할루시네이션은 '버그'가 아니고 '특성' 이라는 것이다.
확률적 생성 방식 으로 훈련 데이터에 없는 새로운 정보를 창작해낼 가능성이 항상 존재한다.그렇다면 대안은?
할루시네이션을 줄이기 위해서는 몇 가지 전략을 사용할 수 있다.
여기서 중요한 점은 할루시네이션은 완전히 없앨 수 없다.
하지만 최소화할 수는 있다는 것이다.
아무튼 논문 효율적으로 읽는 법 보다가 재밌어서 호로록 봤네.
AGI를 바라보는 거나 AI 규제화를 위한 로비가 총기 로비 금액보다 더 넘었다는 거나 슈퍼 엘리트들이 AI를 좌지우지 하고 있다는 거나 정부효율화나 기술의 진보가 사회 문제를 해결할거다. 즉 인류를 해방시킬 거라는 가속주의(accelerationism)도 알게 됐다.
AI 규제가 외교의 부분이다. 라는 부분도 알게 됨
미디어의 초창기에만 할 수 있는 부분이 있듯이 AI 초창기에만 할 수 있는 일이 있다.