이세돌 vs 한돌을 통해 알 수 있는 Nvidia의 큰그림

hur-kyuh-leez·2019년 12월 22일
0

확실히 바둑 인공지능은 이미 인간을 뛰어넘었다.
2016년에 알파고를 통해
이미 알려진 사실이고
지금은 명제가 되었다.

이번 3국에서 이세돌 구단은
NHN 인공지능 한돌에게 졌다.
초기에 우위를 점하고 있었으나
연이는 실수로 결국 패자가 되었다.
근데 혼자만 실수를 한것이 아니다.
인공지능인 한돌도 이세돌 구단 실수이후 바로 "실수"를 했다.
대국이 끝난후 이세돌은 아래와 같은 내용으로 인터뷰를 했다.
https://www.youtube.com/watch?v=cKqapHy_2ik&t=4s

인터뷰 내용중에
'한돌은 아직 별로다.' 라는 뉘앙스를 풍겼다.
그리고 기자가 돌직구로
'왜 한돌이 아직 별로인지' 물어봤을 때?
간단히 비교를 했다.
'중국의 인공지능 절예랑 비교했을 때 별로다.'
그러면 왜 한돌의 모델링이 잘못되었는지 알아보자.

적은 데이터로 원하는 결과를 얻을려면 Transfering Learning이라는 것을 쓰면 된다.
간단히 말하면,
기존 모델링 weight를 transfer하여 상대적으로 적은 개인 데이터를 집어 넣으면 된다.
무슨말인지 딥페이크 보이스 인공지능를 예시로 들겠다.
개인의 딥페이크보이스를 구현하려면 먼저 수많은 음성 데이터를 가지고 트레이닝을 시킨다.
모델은 완성시키고 개인 보이스 데이터를 집어넣는다.
그러면 하나의 인공보이스가 탄생한다.

자세한 예는 이전글인
https://velog.io/@hur-kyuh-leez/5%EC%B4%88-%EC%9D%8C%EC%84%B1%ED%8C%8C%EC%9D%BC%EB%A1%9C-%EB%8B%B9%EC%8B%A0%EC%9D%98-%EB%AA%A9%EC%86%8C%EB%A6%AC%EB%A5%BC-%EB%A7%8C%EB%93%9C%EB%8A%94-%EB%94%A5%ED%8E%98%EC%9D%B4%ED%81%AC
이걸 보기 바란다.

다시 바둑으로 돌아와 보자.
NHN의 한돌은 이상하게 Transfer Learning이 아닌 새롭게 모델링을 했다.
왜냐하면 기존에 있는 바둑 인공지능은 "2점 7집반덤" 이라는 변수를 두고 모델링되지 않았다.
그래서 "2점 7집반덤"과 비슷한 데이터를 찾아서 모델링을 했다.
하지만 데이터가 적었고 처음부터 트레이닝을 시작했다.
이렇게 되면 시간이 무지막지하게 든다.
실제로 1국 인터뷰와 한돌의 아버지 이창률 AI게임 팀장의 이야기를 들어보면 쉽게 새롭게 모델링을 했다는 것을 알 수 있다.
"이창율 AI 팀장은 "머신러닝은 학습량이 많으면 많을수록 성능이 올라가는데, 2점 접바둑뿐 아니라 3점 접바둑도 준비해야 해 학습량이 많지 않았다"며 "전체적으로 학습량이 부족한 영향이 있었던 것으로 생각된다"고 밝혔다."
출처: https://www.msn.com/ko-kr/news/sports/78%EC%88%98-%EC%9D%B4%ED%9B%84-%ED%9D%94%EB%93%A4%EB%A6%B0-%ED%95%9C%EB%8F%8C%E2%80%A6ai%EC%9D%98-%ED%95%99%EC%8A%B5-%EB%B6%80%EC%A1%B1%EC%9D%B8%EA%B0%80-%EC%9D%B4%EC%84%B8%EB%8F%8C%EC%9D%98-%EB%AC%98%EC%88%98%EC%9D%B8%EA%B0%80/ar-BBY76a7

만약 Transfer Learning 했다면
시간적인 여유가 있어야지 정상이였다.
왜냐하면 Transfer Learning은 기존 모델보다
상대적으로 시간이 적게 든다.
시간이 부족했다는 것은...
사실 이해가 되지 않는다.
근데 결과적으로 볼 때 사실 Transfer Learning까지 안했어도 된다. 왜냐하면 일류 프로기사의 접바둑 데이터가 없고 그 이하의 데이터 밖에 없어 퀄리티가 떨어질수 밖에 없다. 실제로 2점 7.5점으로 트레이닝 시키지 않은 기존 인공지능(절예, 릴라제로, 바둑이, AQ....등등)이 훨씬 더 좋은수를 계산을 했다.
물론 정확한 초기 승률을 산정을 하려면 처음부터 모델링을 하는게 맞다.
하지만 초기 승률을 굳이 제대로 산정할 필요 없다는게 이번 한돌 vs 이세돌 대국을 통해 알 수 었었다.

그러면 좀 더 넓은 범위에서 생각해보자,
더 이상 개개인 기업이 모델링을 할 필요 없이
같은 필드의 기업 데이터를 한곳에 모와서 하나의 모델을 만든다.
그리고 그 모델로 각 비즈니스 필드에 적용한다.
그리고 나는 이것은 "theory of everything model(TEM)"이라고 칭하겠다.
소량의 데이터만으로
각회사의 tailoring된 모델을 만들수 있다.
결과적으로는 개개인화된 모델보다 TEM이 더 좋을테지만 개개인회사의 '정치인'인들은 이런걸 좋아할 것이다.
물론 모든건,
standard data collection model이 establish 됐을 때 이야기 이다.

바로 Nvidia는 이것을 노리고 있다.
정말 부럽다.
항상 미국 기업은
세계 모든 기업보다 수십수를 앞써는 것에 모잘라
새롭게 판을 짠다.

profile
벨로그에 생각을 임시로 저장합니다. 틀린건 틀렸다고 해주세요 :) 그래야 논리 학습이 강화됩니다.

0개의 댓글