Time Series Anomaly Detection with Multiresolution Ensemble Decoding
2021 AAAI Conference on Artificial Intelligence (AAAI-21)
RNN based autoencoder with decoder ensembles
기존 RNN을 사용한 autoencoder는 sequential decoding으로 인해 overfitting 및 error accumulation이 발생하기 쉬움
➜ decoding length가 다른 여러 개의 decoder를 사용하는 방법을 적용
Introduction
previous recurrent auto-encoder based anomaly detection methods
➜ privious time steps로 인한 error accumulation 때문에 long time series를 reconstruction 하는데 어려움이 존재할 수 있음
error accumulation : decoder의 input으로 이전 시점의 output이 사용되면서 이전 시점에 존재하던 error가 축적되는 문제
본 논문에서는 reccurent based multi-resolution decoders를 사용한 Multi-Resolution Ensemble Decoding(RAMED)을 제안
RAMED는 각각 다른 time step을 가지는 decoder를 사용하여 다양한 temporal information을 얻음
short decoding length : focus on macro temporal characteristics
trend patterns
seasonality
long decoding length : focus on more detailed local temporal patterns
Trend and Seasonality example
출처 : my notebook
S-RNN(S-RNN review)과 달리 lower-resolution temporal information을 higher resolution decoder에 전달
Contriution
서로 다른 decoding length를 가지는 multiple decoders ensemble
서로 다른 multiresolution temporal information을 융합하기 위한 mechanism
Architecture
Notation
Input time series : X=[x1,x2,...,xT], where xt∈Rd
Output reconstructed time series : Y=[yT,yT−1,...,y1] , where yt∈Rd
Error : e(t)=yt−xt
the number of encoders : L(E)
the number of decoders : L(D)
small noise : ϵδ (ϵ=10−4, random noise δ~N(0,1))
Multiresolution Ensemble Decoding
본 논문에서는 RNN을 사용한 S-RNN과 달리 LSTM을 사용
Encoding process는 S-RNN과 동일
sparsely connected RNN을 사용하는 encoder ensemble 사용
본 논문에서는 총 3개의 encoder 사용
D(k+1)의 information이 D(k)보다 coarse
➜ top decoder의 infromation은 모든 decoder의 것보다 coarse함
가장 macro information을 담당하는 k=L(D)인 decoder의 hidden state ht−1(k)=LSTM(k)([yt(k);ht(k)])와 같음
decoding 시에 보다 coarse한 information을 함께 사용하는 나머지 decoders의 hidden state 아래 식과 같이 계산됨
나머지 decoders의 hidden state는 previous hidden state의 설명은 아래와 같음 D(k)의 hidden state ht+1(k)는 sibiling decoder D(k+1)의 slightly-coarser information h⌈t/τ⌉(k+1)와 관련 있음