연구 질문 | 결과 |
---|---|
Self-Attention이 시계열 예측에 필수적인가? | ❌ 필수적이지 않음. 제거해도 성능 유지 또는 향상됨. |
Transformer의 구조가 최적화될 여지가 있는가? | ✅ Self-Attention을 Cross-Attention으로 대체하면 효율성과 성능 모두 개선됨. |
모델 효율성(파라미터 수, 연산량 등)은 개선되었는가? | ✅ 기존 Transformer 대비 연산량 절감 및 추론 속도 향상. |
CATS가 기존 모델보다 성능이 뛰어난가? | ✅ SOTA 성능 달성, 특히 장기 예측(Long-term Forecasting)에서 강력함. |
➡ 결론: Self-Attention을 제거하고 Cross-Attention만 사용해도 시계열 예측 성능이 유지되거나 향상되며, 연산 효율성이 크게 개선됨.