profile
NLP취준생
post-thumbnail

Sequence-to-sequence with attention

boost course의 자연어 처리의 모든 것 강의를 보고 복습차원에서 작성하였습니다.앞선 내용들 까지는 RNN의 구조와 문제점, lstm, gru에 대해서 살펴보았습니다. 이번에서는 이러한 모델들을 가지고 Sequence-to-sequence model을 만들고

2023년 2월 6일
·
0개의 댓글
·
post-thumbnail

LSTM( long short-term memory ) & GRU( Gated recurrent unit )

boost course의 자연어처리의 모든 것을 보고 복습차원에서 작성하였습니다. 앞에서는 RNN과 RNN을 이용한 CHARACTER LEVEL language model에 대해서 살펴보았습니다. CHARACTER LEVEL language model은 위의 그림과

2023년 2월 6일
·
0개의 댓글
·
post-thumbnail

Recurrent Neural Net

boost course 자연어처리의 모든 것의 강의를 보고 rnn에 대해 정리하였습니다.RNN은 입력과 출력을 시퀀스 단위로 처리하는 모델입니다. 현재 입력값에 대하여 이전 입력값들에 대한 정보를 바탕으로 예측값을 산출한다는 말입니다. 예를들어 I am a studen

2023년 2월 5일
·
0개의 댓글
·