[📖논문 리뷰] GPT-1: Improving Language Understanding by Generative Pre-Training (2018)

Becky's Study Lab·2023년 12월 15일
0

PaperReview

목록 보기
6/22

최근에 Generative model에 대한 강의를 다시 들으면서 GPT 모델을 처음부터 다시 봤다. 그래서 GPT1, 2, 3까지 하나하나 다시 보았고 이렇게 GPT1모델 부터 정리하게 되었다. 간단하게 얘기하자면, GPT-1은 transformer에서 Encoder는 제외하고 Decoder만을 가져와 사용한다(Decoder의 Cross Self Attention 부분은 제거함).

profile
배우고 공부하고 기록하는 것을 멈추지 않는다.

0개의 댓글