

👉 문맥이 긴 문장이나 긴 시계열 데이터는 학습하기 어려움.

RNN의 기울기 소실 문제를 해결하기 위해 고안
핵심 구조: Cell State + 3가지 게이트
(1) Forget Gate → 불필요한 정보는 버림
(2) Input Gate → 새로운 정보를 얼마나 저장할지 결정
(3) Output Gate → 최종적으로 어떤 정보를 출력할지 결정
장점: 장기 의존성 문제 해결 → 문맥을 더 길게 기억 가능, 복잡한 문맥 이해에 효과적
단점: 게이트가 3개라 연산량이 많고, 학습 속도가 느림

LSTM은 성능은 좋지만 구조가 복잡하여 단순화 + 효율성 개선한 구조가 GRU
핵심 구조:
장점:
단점: LSTM보다 세밀한 정보 제어는 어렵다는 평가도 있음