Open-domain QA 안에 Open-book, Closed-book으로 나뉨
사전 학습으로 대량 지식을 학습했으면, 이미 하나의 knowledge storage 라고 판단

| Open-book QA | Closed-book QA | |
|---|---|---|
| 지식을 찾는 방식 | 대량의 지식 소스를 특정 문서 단위로 나눠 query와 관련된 문서 search | 대량의 지식 소스를 기반으로 학습 된 언어 모델이 그 지식을 기억하고 있다고 가정 / Search 과정 필요 없음 |
| 문제점 | 지식 소스 저장 어려움 / 검색 시간 소요 | 사전 학습된 모델이 얼마나 지식을 잘 기억하고 있는지 중요 |
Closed-book QA as Text-to-Text format
Closed-book QA는 generation based MRC와 유사함
입력 값(질문)과 출력 값(답변)에 대한 설명을 추가함
Text-to-Text format
Input으로 text를 받고, output으로 새로운 text를 생성하는 문제

어떤 task를 수행해야 하는지 질문 앞에 명시
모델은 그에 맞는 task를 수행
이전에는 각 task에 맞는 모델을 각각 만들었다면, 앞에 task를 붙여주면 하나의 모델이 해결
T5
Fine-tuning T5
Experiment Setting
Dataset
Salient Span Masking
Fine-tuning
Quantitive Examples
대부분 Open-book 스타일 모델보다 뛰어난 성능
모델 크기 커질수록 성능 증가
Salient Span Masking이 성능을 크게 향상시킴
Limitations
모델 크기가 커서 계산량이 많고 속도가 느림
모델이 어떤 데이터로 답을 내는지 알 수 없음
참조하는 지식을 추가하거나 제거가 어려움
※ 모든 이미지 및 코드 출처는 네이버 커넥트재단 부스트캠프 AI Tech 5기입니다. ※