
Problem : Input sequence가 너무 길어지면, parameters가 더 많이 필요함
Feed forward neural net : Neuron 이라는 단위RNN : 입력 벡터, 출력 벡터, 은닉 상태(hidden state)라는 표현 사용

CNN에서는 batch로 묶고 forward한 후, back 하면 동시에 계산되어 weight이 한번에 업데이트 됨RNN은 순서가 있기에 backpropagation도 순서대로 해야한다.



