
ANN과 input, hidden, output layer를 가진다는 점은 동일하지만 RNN은
self-feedback을 하는 과정이 존재한다.
위 과정을 펼쳐보면 다음과 같다.

현재 그림에는 생략되어 있지만 초기 조건이 있어야한다.
각 단계마다 input이 있고 output이 존재하며 모든 실제값과 예측된 output의 loss를 계산하여 backpropagation(경사하강법을 통해 예측값과 실제값의 loss를 최대한으로 줄여주는 과정) 해야한다. 번역이 이 문제 타입에 해당된다.
마지막 단계에서만의 output에 관심이 있으므로 마지막의 실제값과 예측된 output의 loss를 계산하여 backpropagation 해야한다. 시계열 데이터 예측이 이 문제 타입에 해당된다.
하나의 Input이 여러 개의 output을 발생시키고 모든 output과 실제값의 loss를 계산하여 backpropagation 해야한다. 생성이 이 문제 타입에 해당된다.