Paper Review for DALL-E (발표자 : 15기 박진수)
기존 I2I translation에서 GAN기반 방법은 image의 contents의 손상이 자주 관찰된다는 문제점이 있다.이미지의 도메인을 translate할 때, 털/눈코입 등의 detail한 특징이 보존되지 않는다.이러한 콘텐츠의 왜곡을 해결하기 위해서 gener
아래 글의 전반적인 내용은 2020년에 발표된 Self-supervised Learning: Generative or Contrastive, Xiao Liu의 논문을 따르고 있습니다. 그래서 2020년 이후의 SSL의 내용은 반영되어 있지 않습니다. 처음 기계학습을 공
기존 I2I translation은 두 가지 문제점을 갖고 있다.image pair의 수집이 어렵다.many such mappings are inherently multimodal \- single input에 대해 다수의 output이 존재할 가능성.기존 genrat
2018년까지 GAN이 가진 근본적인 문제는 불안정한 학습과 긴 학습 시간이었다. 이 두 문제는 GAN이 고해상도의 이미지를 생성하는 것을 힘들게 만들었다. 128\*128 짜리 이미지를 만드는 모델 학습에도 긴 시간이 소요되고, 학습 안정화를 위해 이것저것 신경써야
GAN Dissection에 대한 논문 리뷰입니다. : 15기 박진수
WGAN-GP (1) introduction > $W(\mathbb{P}r, \mathbb{P}g) = \inf{\gamma \in \Pi (\mathbb{P}r, \mathbb{P}g)} \mathbb{E}{(x, y) \sim \gamma} \left [ \lV
다. 복잡하니까 하나씩 보겠다. 생성자(Generator)의 입력값은 정규분포에서 샘플링한 임의의 벡터이다. 이는 학습 과정에서 지속적으로 변화한다. 즉, 매 배치, 매 샘플마다 다른 값을 가진다. 이때 VAE와 달리 실제 이미지에서 추출한 분포가 아니다. 평균과 분산
WGAN(Wasserstein GAN) & CGAN(Conditional Adversarial Nets) : 16기 이예림