

시퀀스 모델(Sequence Models)은 순차 데이터(텍스트, 음성, 시계열 등) 를 처리하기 위한 딥러닝 모델을 말한다.
입력 x_t → 은닉 상태 h_t → 출력 y_t
↓
(다음 시점 h_{t+1}로 전달)
(1) 토큰화된 각 단어(토큰)를 RNN 입력으로 전달
(2) 은닉층(hidden layer)에서 처리
(3) 출력층(output layer)으로 예측값 생성
(4) 동시에 은닉 상태 를 다음 단계 입력으로 전달
✅ 각 시점의 은닉 상태 는 다음 시점으로 전달
✅ 은닉 상태 를 이용해 출력 생성
✅ 모든 단계에서 이전 정보가 누적되며 학습
출력층은 은닉 상태를 변환하여 최종 출력을 만드는 부분이다.
| Task | 출력층 필요 여부 | 이유 |
|---|---|---|
| 감정 분석 | ✅ 필요 | 긍정/부정 확률 계산 (sigmoid) |
| 기계 번역 ✅ 필요 단어별 확률 계산 (softmax) | ||
| 개체명 인식 (NER) | ✅ 필요 | 각 단어에 대한 태그 예측 (softmax) |
| 피처 추출 | ❌ 불필요 | 은닉 상태 자체를 사용 |
| 다층 RNN | ❌ 불필요 (중간 층) | 다음 RNN 층으로 은닉 상태 전달 |
입력 문장 → 임베딩 → RNN → 은닉 상태 h_T → Dense(1, sigmoid) → 출력 (긍정 확률 0.91)
"나는" → RNN → 은닉 상태 h1 → 출력층(Dense+Softmax) → "I"
"학교에" → RNN → 은닉 상태 h2 → 출력층(Dense+Softmax) → "go"
"간다" → RNN → 은닉 상태 h3 → 출력층(Dense+Softmax) → "to"
Seq2Seq (Encoder–Decoder) 구조를 이용해 입력 전체 문장을 인코딩 → 번역을 디코딩 함.