NLP의 하위 분야인 NLU를 소개하고 NLU 의 subtask 중 하나인 QA(QQuestion Answering) 에 대해 정리했습니다.
: Natural Language Understanding
기계가 자연어에 대한 Synthetic과 Semenatic Understanding을 보인다면 그 기계는 NLU를 수행하고 있다고 볼 수 있다.
특정 자연어 텍스트를 기계가 올바르게 이해하고 답변하는지 평가하는 Reading Comprehension의 일종이다.
질문에 대해 기계가 답변하는 QA의 형태를 가지고 있다는 점에서 NLU task라고 볼 수 있다.
QA task의 경우 질문에 대한 답이 Input인 지문안에 분명히 존재하기 때문에 평가지표로 Accuracy와 F1 Score를 사용할 수 있다.
: Stanford Question Answering Dataset
QA와 같은 Reading Comprehension 문제의 해결을 위해 스탠포스에서 개발한 대표 Benchmark.
Input은 지문인 Context와 지문 내에서 답을 찾을 수 있는 Question으로 구성된다.
SQuAD 데이터 셋을 통해 QA task를 수행할 경우 기계는 출력값으로 지문(Context) 내에 포함된 질문의 답의 시작과 끝의 인덱스를 반환해야 한다,
T5는 전이학습을 기반으로한 구글에서 개발한 Transformer 기반 Language Model이다.
현 시점에서 QA task에서 가장 높은 성능을 보이는 SOTA 모델의 하나이다.
BERT의 Autoencoding method에 Autoregressive기법을 더해 성능을 개선시킨 언어모델.
T5가 Question Answering에서 좋은 성능을 보이는군요!! 좋은 정보 감사합니다