profile
NLP취준생
post-thumbnail

Sequence-to-sequence with attention

boost course의 자연어 처리의 모든 것 강의를 보고 복습차원에서 작성하였습니다.앞선 내용들 까지는 RNN의 구조와 문제점, lstm, gru에 대해서 살펴보았습니다. 이번에서는 이러한 모델들을 가지고 Sequence-to-sequence model을 만들고

2023년 2월 6일
·
0개의 댓글
·
post-thumbnail

LSTM( long short-term memory ) & GRU( Gated recurrent unit )

boost course의 자연어처리의 모든 것을 보고 복습차원에서 작성하였습니다. 앞에서는 RNN과 RNN을 이용한 CHARACTER LEVEL language model에 대해서 살펴보았습니다. CHARACTER LEVEL language model은 위의 그림과

2023년 2월 6일
·
0개의 댓글
·