# GPT-2

3개의 포스트

[논문 리뷰] Improving Language Understanding by Generative Pre-training

자연어 이해는 다양한 task를 포함한다.라벨링되지 않은 데이터는 충분한 반면, 특정 task에 맞게 라벨링된 데이터는 매우 부족하다.그래서 이를 모델이 충분히 성능이 나오도록 학습하는 것이 어렵다.라벨링 되지 않은 corpus에 대한 언어 모델의 생성적(generat

2022년 6월 29일
·
0개의 댓글
·

DialoGPT 논문 요약

paper: (Zhang 2019) DialoGPT: Large-scale generative pre-training for conversational response generationgithub: https://github.com/microsoft/Dial

2021년 4월 13일
·
0개의 댓글
·