Recurrent Neural Networks

원준식·2022년 10월 9일
0

부스트캠프 ai tech 3주차에 배운 내용을 정리하는 글입니다.



Long Short Term Memory(LSTM)

기본 RNN


LSTM


LSTM 내부

previous cell state: 네트워크 밖으로 나가지 않고 0부터 t까지의 정보를 summarize해줌(컨베이어 벨트)

gate: 컨베이어 벨트에 올리고, 빼고, 조작함

  1. previous cell state, previous hidden state, input 이렇게 3개가 뉴럴 네트워크로 들어옴
  2. 이전 cell state를 얼마나 지울지 정함(forget gate)
  3. previous hidden state와 input을 통해 어떤 값을 올릴지 Ct~\tilde{C_t}(C tilde, candidate)를 정함(input gate)
  4. update된 cell state와 Ct~\tilde{C_t}를 조합해서 새로운 cell state를 만듦(update cell)
  5. 새로운 cell state의 정보를 얼마나 밖으로 빼낼지 정해서 최종적인 출력값이 나옴(output gate)



Gated Recurrent Unit

  • gate가 두 개임(reset gate, update gate)
  • cell state가 없고 hidden state만 있음 → output gate가 필요 없어짐

0개의 댓글