1. TCL: Unsupervised Feature Extraction by Time-Contrastive Learning and Nonlinear ICA
(NIPS, 2016, 225회 인용)
Unsupervised nonlinear feature learning, or unsupervsied representation learing
-> 유명한 methods = multi-layer belief nets, Restricted Boltzmann Machines, autoencoders
-> 하지만 이런 모델들은 scalability, theoretical justification이 부족함
더 나은 방법론은 시계열의 temporal 구조를 반영한 것임
-> temporal coherence, slow feature analysis
-> 천천히 변화하는 features를 찾음
2. CPC: Representation Learning with Contrastive Predictive Coding
(2019.01.22, 3121회 인용)
1) Conditional 예측 모델링을 쉽게 하기 위해 latent embedding space로 고차원 데이터를 압축
- 이 latent space에서 강력한 autoregressive model을 사용하여 미래에 많은 steps를 예측함
- 즉, 고차원 데이터 간의 shared information을 인코딩한 mutual information을 얻기 위해 representation을 학습함
2) Noise-Contrastive Estimation에 의존한 loss 함수
- NLP에서 word embedding을 학습하는데 사용된 것과 유사한 방식으로, loss함수에 대해 Noise-Contrastive Estimation에 의존하여 전체 모델이 end-to-end 학습 가능하도록 제안
즉, 정리해보면,
CPC = 미래 관찰 예측 + 확률적 대비 손실 의 결합이라고 볼 수 있음
1) 비선형 인코더 g_enc
2) Autoregressive model g_ar
3. SRL: Unsupervised Scalable Representation Learning for Multivariate Time Series
(NIPS, 2020.01.03, 141회 인용)
4. TST: A TRANSFORMER-BASED FRAMEWORK FOR MULTIVARIATE TIME SERIES REPRESENTATION LEARNING
(KDD, 2020.12.08, 87회 인용)
5. TNC: UNSUPERVISED REPRESENTATION LEARNING FOR TIME SERIES WITH TEMPORAL NEIGHBORHOOD CODING
(ICLR 2021, 2021.06.01,26회 인용)
6. TS-TCC: Time-Series Representation Learning via Temporal and Contextual Contrasting
(IJCAI-21, 2021.06.26, 26회 인용)