Natural Language Processing
Bag of Words, Word2Vec, GloVe
시퀀스 입력 데이터 학습 방법
단기 기억을 길게 보관할 수 있도록 만든 소자
Sequence to Sequence with Attention, 어텐션의 등장
번역 성능 향상 기법과 번역 성능 지표
Transformer
Byte Pair Encoding
트랜스포머의 Self-Attention으로 모델을 구성하는 방법은 NLP 의 트렌드가 됨