심층학습 자연어 처리 Day1
NLP 개념1
NLP 개념2
NLP 개념3
NLP 개념4
pre-trained 모델을 비교, 설명
기존 seq2seq 모델 input 2개 1) $h_{t-1}$(or context vector:디코터 RNN셀의 첫번째 은닉 상태에 사용됨) 2) $s_{t}$ Attention Mechanism 어텐션의 기본 아이디어는 디코더에서 출력 단어를 예측하는 매 시점(t
transformer 개념 설명