TEMPO: Prompt-based Generative Pre-trained Transformer for Time Series Forecasting

Yuri·2024년 5월 29일
0

논문 리뷰

목록 보기
1/7

Introduction

  • 최첨단 딥러닝 모델은 Trend, Seasonal, Residual과 같은 요소들을 고려하지 못하는 경우가 많고, 단순한 모델과의 실험적 비교에서도 성능이 예상하는 바보다 우수하지 못함
  • LLaMA 및 CLIP 등 NLP 및 CV에서 부상하는 파운데이션 모델의 활용은 시계열 예측에서 사전 학습된 모델의 잠재력을 시사함

Methodology

architecture
본 논문에서는 파운데이션 모델로써 LLM을 활용해 Time-series 예측하고, 덧붙여 STL Decomposition과 Prompt Pool을 이용해 예측 성능 향상을 도모함

Workflow

  1. STL Decompsition을 통해 Input Time-series를 Trend, Seasonal, Residual로 분해
  2. RevIN 및 Patching 수행
  3. Patched Time-series와 Prompt Pool의 Key를 코사인 유사도 기반으로 매칭 스코어를 구하여 매칭 Score-matching Process
  4. Top-k Key의 Value를 임베딩된 Patched Time-series와 Concat
  5. 위 단계를 거치며 전처리된 Trend, Seasonal, Residual의 샘플의 Concat하여 베이스라인 LLM에 입력
  6. 예측된 Trend, Seasonal, Residual을 De-nomalization 후 복원

STL Decomposition

  • 복잡한 Time-series를 Trend 및 Seasonal 성분과 같은 의미 있는 성분으로 분해하여 표현하면 최적의 정보를 추출하는 데 도움이 될 수 있음
  • 고정 윈도우 크기를 사용하여 로컬 분해를 수행하며 N-BEAT에 근거하여 학습 가능한 파라미터 도입

Prompts Pool

  • 프롬프트 길이, 프롬프트 크기 및 Top-k 수 등은 하이퍼 파라미터로 결정
  • 유사한 Time-series 들은 동일한 Key로 묶여 해당 Key와 매칭되는 Value와 함께 LLM의 입력으로 제공됨
    • 시간에 따라 변화하는 Time-series에서 동일한 key-value 반복되는 패턴이 나타나면 LLM이 Time-series의 Temporal한 특징을 보다 쉽게 이해할 수 있을 것임
    • 특히 Trend, Seasonal, Residual 마다 이러한 패턴을 추상화하여 특징을 풍부하게 함 Trend, Seasonal, Residual 별 프롬프트 선택 분포
  • Prompt Pool의 key-value pairs 값은 파라미터로 초기 랜덤한 값으로 정해지고 학습됨
    • Key는 일종의 클러스터링의 Centroid와 같은 존재로 비슷한 Time-series를 묶기 위한 기준이 되고, Value는 각 클러스터를 설명하기 위한 정보를 포함하는 역할을 하며 각각 학습되는 것으로 추정

Zero Shot Long-term Result

result_table

  • 파운데이션 모델에 기반한 만큼 Zero Shot 케이스에서 기존 SOTA에 비해 더 우수한 성능을 보임
  • TEMPO와 유사한 기타 파운데이션 모델 기반 Time-series 예측 모델과의 성능 비교는 논문에서 다루지 않는 관계로 별도 확인이 필요함

0개의 댓글