RVE 논문 개선점으로 gan에 대해 알아보고 있다.
현재 우리 모델은 vae+regressor로 vae에서 encoder만 사용, decoder를 떼고 regressor를 붙여 사용하고 있다.
AE, VAE : sliding time-window + reconstruction
MAD-GAN : generator와 discriminator에 LSTM 사용
단 GAN은 data를 잠재 공간에 매핑한 이후 사용하기 때문에 이 매핑 네트워크게 의존적이다. 따라서 이 매핑 네트워크를 위해 vae를 사용. 즉 vae의 encoder를 매핑 네트워크로, decoder를 gan의 generator로 사용. --> LSTM-based VAE-GAN
- encoder : input time series 를 latent space 로 mapping
- generator(=vae decoder) : latent vector 로부터 input time series를 reconstruct
- discriminator : time series data 가 input 에서 온건지 generated 된건지 구별
일단 lstm based vae-gan 논문은 코드가 없음
http://jkspe.kspe.or.kr/_common/do.php?a=current&b=22&bidx=2874&aidx=32416
해당 논문도 비슷한 모델을 구현
MNIST 데이터 셋(이미지)에 사용된 vae-gan
https://sh-tsang.medium.com/review-vae-gan-autoencoding-beyond-pixels-using-a-learned-similarity-metric-dc0f8cb74435
https://cybersecurity.springeropen.com/articles/10.1186/s42400-021-00090-w
https://paperswithcode.com/paper/semi-recurrent-cnn-based-vae-gan-for#code