AutoTimes: Autoregressive Time Series Forecasters via Large Language Models

Yuri·2024년 10월 5일
0

논문 리뷰

목록 보기
6/7

Introduction

  • 시계열 도메인에서는 대규모 데이터셋 부족과 사전 학습 기법의 미흡으로 인해 파운데이션 모델 개발이 자연어나 이미지 도메인에 비해 제한적이었음
    autotime_comparison
  • 기존 LLM을 시계열 예측에 활용한 연구들은 대부분 고정된 길이의 시계열만을 다룰 수 있다는 한계가 있었음
  • 본 연구에서는 LLM의 자기회귀적 특성을 활용하여 가변 길이 시계열 예측이 가능한 AutoTimes 모델을 제안함

Methdology

model_architecture

  • 입력 시계열을 일정 길이의 세그먼트(Patch)로 나누고 각 세그먼트에 대해 Series Embedding(SE)과 Text Embedding(TE)을 생성
  • SE와 TE를 결합하여 LLM의 입력으로 사용
  • LLM의 가중치는 고정하고 시계열 토크나이저와 시계열 디토크나이저에 대해서만 다음 토큰(Patch)을 예측하도록 학습

Series Embedding (SE)

  • LLM 앞 뒤에 Linear 레이어로 구성된 TimeSeriesTokenizer와 TimeSeriesDetokenizer 배치
    • TimeSeriesTokenizer: 시계열 세그먼트를 LLM의 Hidden Dimension에 맞게 변환
    • TimeSeriesDetokenizer: LLM의 출력을 다시 시계열 세그먼트로 복원

Text Embedding (TE)

  • 자연어 형태의 각 시계열 세그먼트 타임스탬프 정보를 포함
  • 필요시 세그먼트의 정성적 특징 정보도 추가 가능
  • LLM의 임베딩 모델을 사용하여 텍스트를 임베딩으로 변환

Autoregressive Forecasting

  • GPT-2와 같은 자기회귀 모델을 기반으로 하여 유연한 Lookback 및 Forecasting Length 지원
  • 예측된 세그먼트를 다음 입력으로 사용하여 연속적인 예측 수행

In-context Forecasting

in-context_forecsting_mechanism

  • Context와 예측하고자 하는 지점의 Lookback 데이터를 함께 LLM에 입력으로 전달하여 예측하는 기법
  • 예측 길이를 F라 할 때, 각 시계열 데이터 샘플의 초기 2F 길이를 Context로 사용
  • Lookback만 사용하여 예측하는 Zero-shot 대비 최대 5% 예측 성능 향상

Result

long-term_forecsting_results

  • Autotimes는 가변 길이 예측, Zero-shot, In-context learning 면에서 강점을 보임
  • 백본 LLM의 크기가 증가할 수록 예측 성능 또한 향상되는 경향이 나타남
  • In-context forecasting의 성능 개선이 Context라는 개념에 의한 것인지, 단순히 Lookback 길이가 증가한 데 따른 것인지에 대해서는 고려의 여지가 있음

0개의 댓글