요즘 chat gpt에 대한 세간의 관심.. 화제.. 가 상당해서 대체 GPT가 뭔지 한번 알아보았다.
GPT란 Generative Pre-trained Transformer이다.
* Generative?
출처 : https://ainote.tistory.com/17
* Pre-trained?
* Transformer?
GPT의 모델 구조는 Transformer(2017년 구글에서 제시된 기계 번역을 위한 언어 모델)의 Decoder구조와 매우 유사하다.(Transformer의 decoder를 살짝 찾아봤는데 어려워서 그냥 그림으로 이해하고 넘어갔다...)
출처 : https://ahnjg.tistory.com/57
➡️ 한 마디로 GPT는 방대한 양의 텍스트 데이터를 학습해서 적절한 문장을 만들어내는 인공지능의 일종이다.