# GPT-2
총 3개의 포스트
[논문 리뷰] Improving Language Understanding by Generative Pre-training
자연어 이해는 다양한 task를 포함한다.라벨링되지 않은 데이터는 충분한 반면, 특정 task에 맞게 라벨링된 데이터는 매우 부족하다.그래서 이를 모델이 충분히 성능이 나오도록 학습하는 것이 어렵다.라벨링 되지 않은 corpus에 대한 언어 모델의 생성적(generat
2022년 6월 29일
·
0개의 댓글·
0DialoGPT 논문 요약
paper: (Zhang 2019) DialoGPT: Large-scale generative pre-training for conversational response generationgithub: https://github.com/microsoft/Dial
2021년 4월 13일
·
0개의 댓글·
0