jh1213.log
로그인
jh1213.log
로그인
[NLP] LSTM(Long Short Term Memory)
미남홀란드
·
2022년 12월 20일
팔로우
0
LSTM
NLP
딥러닝
자연어
0
자연어처리
목록 보기
5/7
각 시점에 최적화 되어있는 벡터를 두가지를 만든다.
Forget Gate (망각게이트)
Input Gate
Cell State(Update)
Output Gate
LSTM parameters
Affine 변환묶기
** 4개의 웨이트가 나오기 때문에 RNN 웨이트 계산보다 4배나 더 많게 나온다
미남홀란드
AI engineer
팔로우
이전 포스트
[NLP] RNN 을 쓰면서 쉽게 이해하는 방법?!
다음 포스트
[NLP] GRU, Gated Recurrent Unit
0개의 댓글
댓글 작성