딥러닝에서 word vector의 의미와 word2vec에 대해 알아보자
Word2vec, optimization, co-occurrence matrix, GloVe model of word vectors, evaluating word vectors, word senses에 대해 알아보자
[CS224N] Lecture 3 - Backprop and Neural Networks
Dependency parsing에 대해 알아보자
Neural dependency parsers, graph-based dependency parsers, 그리고 RNN에 대해 알아보자
Train/evaluate RNN, vanishing/exploding gradient problem, LSTM, 그리고 bidirectional LSTM에 대해 알아보자
Machine Translation task, Seq2Seq, Attention에 대해 알아보자
Attention에 대해 알아보자
Self-Attention과 Transformer에 대해 알아보자
Subword modeling, pretraining model(GPT, BERT, T5, GPT-3)에 대해 알아보자