vae-gan lstm(수정중)

먕먕·2022년 7월 1일

RVE 논문 개선점으로 gan에 대해 알아보고 있다.
현재 우리 모델은 vae+regressor로 vae에서 encoder만 사용, decoder를 떼고 regressor를 붙여 사용하고 있다.

  • Time Series AD(anomaly detection)
    unsupervised anomaly detection
    NN을 통해 예측 모델을 구축하고, 예측값과 실제값이 threshold 이상으로 다를 때 anomaly 탐지 (주 NN : LSTM, MLP, Support Vector Regression)

AE, VAE : sliding time-window + reconstruction

MAD-GAN : generator와 discriminator에 LSTM 사용
단 GAN은 data를 잠재 공간에 매핑한 이후 사용하기 때문에 이 매핑 네트워크게 의존적이다. 따라서 이 매핑 네트워크를 위해 vae를 사용. 즉 vae의 encoder를 매핑 네트워크로, decoder를 gan의 generator로 사용. --> LSTM-based VAE-GAN

  • encoder : input time series 를 latent space 로 mapping
  • generator(=vae decoder) : latent vector 로부터 input time series를 reconstruct
  • discriminator : time series data 가 input 에서 온건지 generated 된건지 구별

일단 lstm based vae-gan 논문은 코드가 없음
http://jkspe.kspe.or.kr/_common/do.php?a=current&b=22&bidx=2874&aidx=32416
해당 논문도 비슷한 모델을 구현

MNIST 데이터 셋(이미지)에 사용된 vae-gan
https://sh-tsang.medium.com/review-vae-gan-autoencoding-beyond-pixels-using-a-learned-similarity-metric-dc0f8cb74435

https://cybersecurity.springeropen.com/articles/10.1186/s42400-021-00090-w

https://paperswithcode.com/paper/semi-recurrent-cnn-based-vae-gan-for#code


0개의 댓글