# SQuAD

3개의 포스트
post-thumbnail

부스트캠프 week7 day2 Self-supervised Pre-training Models

Recent Trends • Transformer model and its self-attention block has become a general-purpose sequence (or set) encoder and decoder in recent NLP applic

2021년 9월 14일
·
0개의 댓글
·
post-thumbnail

Lecture 10 – Question Answering

작성자 : 성신여자대학교 통계학과 정세영

2021년 5월 19일
·
10개의 댓글
·