# Discriminator

✨GAN (3)
Deep Convolutional GAN (DCGAN) GAN의 improve된 버전. 그림을 다룰 때는 CNN이 효율적임. 그림을 만드는 데에도 convolution을 쓰면 좋지 않을까? 해서 생겨난 것 Generator는 random logic으로 점점 크기를 키워서 image를 만듦. resolution을 키워가는 것 (transposed convolution). Stride convolution을 쓰면 resolution이 작아졌는데 여기서는 resolution이 커짐. 이런걸 transpose

✨GAN (2)
Image Generation 샘플링하기 쉬운, distribute하기 쉬운 random noise를 뽑아냄. Noise한 벡터를 그림으로 바꿈. 이거 굉장히 어렵겠는데; function으로 따지면 엄청 어려운 function이겠지. 그래서 그걸 neural network으로 구현! Neural network로 generator를 implementation함. 이 parameter를 학습하면 됨! 그런데 sample noise가 하나만 있으면 학습이 안됨. label이 없기 때문임.. 뭐가 어디에 있을 확률을

[DL] GAN
이번 포스팅에서는 GAN의 개념과 모델의 학습 과정에 대해 간단히 정리해보곘습니다. 1. GAN GAN은 실제와 유사한 데이터를 만들어내는 생성 모델입니다. 이제 딥페이크 영상은 많이 익숙하실 것 같습니다. 딥페이크는 기존 이미지들을 활용하여 기존 이미지의 특징을 반영한 이미지를 만들어내는 방식이죠. GAN은 이러한 딥페이크의 기반이 되는 기술입니다. GAN이 작동하는 구조를 한 번 살펴보겠습니다. GAN은 두 가지 모델이 결합된 모델입니다. 하나는 Generator(생성자)라는 모델로 새로운 이미지를 만들어내는 모델입니다. 입력 데이터의 특징을 포착해서 입력 데이터와 동일한 데이터를 만들기 위해 노력하는 모델입니다. 다른 하나는 Discriminator(판별자)입니다. 판별자는 생성자가 만든 이미지가 진

GAN & cGAN 생성모델 개념
⚓ Aiffel Exploration 17 을 참고하여 작성하였습니다. 조건없는 생성 모델 GAN(Unconditional Generative Model) GAN 구조는 Generator 및 Discriminator라 불리는 두 신경망이 minimax game을 통해 서로 경쟁하며 발전합니다. 이를 아래와 같은 식으로 나타낼 수 있으며 Generator는 이 식을 최소화하려, Discriminator는 이 식을 최대화하려 학습합니다. 위 식에서 z는 임의 노이즈를, D와 G는 각각 Discriminator 및 Generator를 의미합니다. 먼저 D의 입장에서 식을 바라봅시다. 실제 이미지를 1, 가짜 이미지를 0으로 두었을 때, DD는 이 식을 최대화해야 하며, 우변의 + 를 기준으로

[Computer Vision] ESRGAN
ESRGAN: Enhanced Super-Resolution Generative Adversarial Networks [Abstract] SRGAN은 single image super-resolution에서 현실적인 질감을 만들어낼 수 있긴 하지만 종종 이상한 인공적인 디테일들도 함께 만들어낸다. 저자는 시각적인 품질을 더욱 향상시키기 위해 SRGAN 네트워크 구조와 adverarial loss, perceptual loss 이 3가지 기본 요소를 연구하였고, 그 결과를 통해 더욱 성능이 향상된 SRGAN 즉, Enhanced SRGAN (ESRGAN)을 제안하게 되었다. 특히, 저자들은 기존 SRGAN에 있던 Batch Normalization을 없앤 Residual-in-Residual Dense Block(RRDB)를 도입했고, relativistic GAN으로부터 아이디어를 얻어 Discrimina