BERT 이후 다양한 LM
XLNet
Relative Positional Encoding
Permutation Language Modeling
RoBERTa
BART
T-5
Meena
Controllable LM
모델의 편향 제어
Plug and Play Language Model (PPLM)
보통 모델들은 다음에 등장할 단어를 확률 분포를 통해 선택
내가 원하는 단어들의 확률이 최대가 되도록 이전 상태의 vector를 수정
수정된 vector를 통해 다음 단어 예측
확률 분포를 사용하기 때문에, 중첩 가능
특정 카테고리에 대한 감정 컨트롤 가능 (범죄 사건에 대해서 부정적 단어 선택 등..)
Multi-model Language Mod
할머니세포
LXMERT
이미지와 자연어를 동시에 학습
Cross-modal reasoning language model
이미지 feature, 자연어 feature가 하나의 모델에 반영
ViLBERT
BERT for vision-and-language
Dall-e