Deep Learning for Time Series Forecasting: Advances and Open Problems

진서연 ·2023년 11월 16일
0

Paper Reading

목록 보기
20/24

리뷰 논문 : STSF/LTSF 등 다양하게 적용될 수 있는 모델을 리뷰함,.

⚡Deep learning, the currently leading field of machine learning, applied to time series forecasting can cope with complex and high-dimensional time series that cannot be usually handled by other machine learning techniques.

Review paper이기 때문에 다양한 시계열 예측 모델에 대한 전반적인 설명을 제공한다. 전반적인 설명이 너무 자세하기 때문에 필요한 설명은 나중에 찾아보는게 좋을 것 같다.

아래에 4가지 문제에 대해서 이야기한다. 앞으로의 시계열 연구에 있어서 좋은 problem definition 수립에 좋을 것 같다.

  1. 대부분의 딥러닝 방법이 시계열 예측에 대한 신뢰구간을 추정할 수 없다. the inability of most deep learning methods, with the exception of Deep Gaussian Process, to estimate a confidence interval for the time series prediction
  2. 점점 더 복잡한 딥러닝 아키텍처! 딥러닝 아키텍처들이 점점 복잡해지기때문에 over-fitting 문제가 발생함. 따라서 강력한 시계열 예측을 위한 딥러닝 아케텍처의 개발이 필요하다. Overffiting 이 점점 더 중요해진다.
  3. Transformer같은 일부 딥러닝 아키텍처에서는 수백만 개의 parameter를 추정해야하며, 이를 위해서는 적절하게 긴 시계열이 필요하다. (현재 Data augmentation 기법들이 제안되지만, 충분하지 않다.)
    1. 이 부분에 대해서는 의문이 듬. Short-term Time Series Forecasting 에서도 해당되는 이야기일까?
  4. 대부분의 모델들이 stationarity한 time series을 가정한다. 하지만, 이런 가정이 위반되면, 시계열에서 concept drift phenomenon이 관찰되며, 시계열 예측 정확도가 급격히 감소한다.
profile
SheoYon.Jhin

0개의 댓글