GAN Paper Review

murlocKing·2022년 2월 8일
0

Paper

목록 보기
5/15
post-thumbnail

Summary

본 논문은 두 모델을 동시에 학습하는 생성모델 GAN을 제안한다. generative model G는 data의 분포를 원본 데이터와 비슷하게 만들고, discriminative model D는 샘플이 G보다 원본 데이터에서 나왔을 확률을 계산한다. 두 모델이 서로 적대적으로 동작하여 backpropagation을 통해 학습된다. markov chain과 같은 별다른 트릭을 요구하지 않아 생성모델의 benchmark model로 자리잡게 되었다.

This paper proposes a generative model GAN that learns two models at the same time. The generative model G makes the distribution of data similar to the original data, and the discriminative model D calculates the probability that the sample comes from the original data rather than G. The two models operate adversary to each other and are learned through backpropagation. It has become a benchmark model of the generated model because it does not require any tricks such as markov chain.

Strength

  • markov chain이 사용되지 않는다.
  • backprop을 사용해서 효율적으로 모델을 최적화 한다.
  • 학습 동안, inference가 필요하지 않다.
  • input이 generator의 parameter로 그대로 복사되지 않기 때문에, 통계적인 장점을 가질 수 있다.
  • 생성한 이미지가 정교하다.
  • The generated image is elaborate.
  • Since input is not copied to the parameter of the generator as it is, it may have a statistical advantage.

Weakness

  • p_g(x)에 대한 explicit한 representation이 없다.
  • G를 학습하면서 D또한 반드시 동기화 되어야 한다. 즉 D 없이 G 혼자서 학습되지 말아야 한다.
  • There is no explicit representation for p_g(x).
  • D must also be synchronized while learning G. In other words, G should not be learned alone without D.

Questions

  • minimax game으로 학습을 진행하는데, 여기서 발생하는 불안정성은 어떻게 해결할 수 있을까요?
  • 학습이 완료된 discriminator도 활용할 수 있을까요?
  • How can we solve the instability that occurs here when learning is conducted with minimax game?
  • Can we also use the discriminator that has been learned?

Comments

NLP에서는 vision domain에 비해 GAN이 활발하게 사용되지 않는 것 같은데, 이는 왜 그런지 궁금하다.

profile
재미있는 딥러닝

0개의 댓글