문제는 거짓 진술이라도 그럴듯하게 답한다라는 것이다.
확률적 모델은 이 문제를 모르지 않을까?
단어 시퀀스의 확률만 계산하기 때문이다.
물론 시퀀스의 확률은 컨텍스트에 따라 달라지긴 한다.
이 확률을 계산하는 데 있어서 NN 기반의 모델이 가미되는 것.
so 라는 단어가 주어지면 다음 단어인 long, so long 이 주어지면 and .. 다음 단어를 잘 예측하냐의 문제이다.
트랜스포머 블록은 무엇을 할까?
모든 칸에 빈칸이 뚫려있을 때보다 채워졌을 때 들어가는 단어들이 다르다.
단어 간의 관계를 사용하는 것이 Self-Attetion 이다.
따라서 언어모델을 학습한다는 것은
들어온 단어에 가중치, 예측하고 실제 단어를 Loss function으로 계산하고 역전파하는 것이다. (자랑하는 '파라미터가 많다'는 가중치 w의 개수를 말하는 것이다.)
여기서 한 문장 내 단어들의 관계를 추가적으로 계산하는 것이 self-attention 이다.
전 단어를 기반으로 다음 단어를 예측하는 것이 Auto-regressive이다. GPT 가 여기에 속하는 것.
Task-oriented vs. Open-domain 🔽
Chain-of-Thought Promting 🔽
질문이 다르면 모델의 정확도를 높일 수 있다, 하는 것이 프롬프팅의 주요 주제다.
점수계산: InstructGPT 🔽
인상깊었던 것 중 하나가 GPT 가 모든 것을 해결해주지 못한다는 것이다. 성능적인 문제점에서가 아니라, 다양한 모델들을 개발하고 연구하는 관점에서 GPT 는 최종의 것도 아니며 그저 지나가고 지나온 모델 중 하나라는 생각이 든다. 대량의 리소스 + 확률 모델이 현재 GPT 가 내세운 전부인데, 이것으로도 어느정도 우리가 원하는 답변을 제공하는 것은 맞으나 여러 도메인의 여러 reasoning 에 문제가 있다는 것이 결론이었다. 적어보면
정리하면, 아직 할 일이 많다는 것!