NLP Evolutionary Tree
2018년도에 Attention Is All You Need가 등장하면서 폭발적으로 성장하게 되었고, 크게 다음 3가지 분야에 대해 발전이 이루어짐.
위 그림에서는 표현되지 않은 RNN, LSTM, GRU 등 NLP 분야의 발전과정에 대해 생략된 파트들은 2018년도 이후와 비교하면 중요도가 비교적 떨어진다고 생각하여 논문의 저자들이 언급한 Glvoe, Word2vec, FastText 등에 대해서만 알고 넘어가도 괜찮다고 생각합니다.
또한, 시기적으로 GPT(OpenAI, 2018.06)도가 먼저 발표되었으나 그렇게 많은 주목(citation 11454)은 받지 못했고, BERT(Google, 2018.10)은 GPT에 비해 많은 주목(Citation 117454)을 받았음.
가짜 뉴스 생성
우려로 완전한 모델은 공개하지 않았으나 현재는 다 공개된 상태.Encoder : 정보를 제한된 벡터 크기로 줄임(데이터 압축).
Decoder : 제한된 벡터를 가지고 정보를 생성(데이터 압축 해제).
대표 모델 : Transformer, BART, T5
Architecture
Encoder만 있는 구조.
대표 모델 : BERT, RoBERTa, ALBERT, ELECTRA
<MASK>
토큰을 예측하는 형태로, Self-Supervised Learning 사용.장점:
문맥의 이해
가 가능하고, 특징을 잘 추출
.<MASK>
토큰을 기반으로 학습하다 보니, 양방향의 정보를 활용할 수 있음.단점:
Decoder만 있는 구조.
대표 모델 : GPT 시리즈
장점(특징):
In-Context Learning
).영어를 한국어로 번역해줘
하나로 Task를 잘하게 됨.단점: