# gan

76개의 포스트
post-thumbnail

[2021.09.15] Conditional Generative Model

Conditional Generative Model Translate image given condition

2021년 9월 17일
·
0개의 댓글

GAN과 확률분포

Intro GAN에서 다루고자 하는 모든 데이터는 측정할 때 마다 다른 값을 가지는 확률분포의 랜덤변수이다. 랜덤변수에 대한 확률분포를 안다는 이야기는 데이터에 대한 전부를 이해하고 있는 것과 같다. 다시말해, 확률분포를 알면 그 데이터의 예측 기댓값, 데이터의 분산

2021년 9월 12일
·
0개의 댓글
post-thumbnail

딥러닝 적용 : Generative Adversarial Network (GAN)

👩🏻 GAN(Generative adversarial Network) = 생성적 적대 신경망 경쟁을 통해 배운다는 개념의 인공지능 기술 GAN은 머신러닝 분야에서는 최고 아이디어 (generator VS Descriminator) 🔥DCGAN : CNN구조로

2021년 9월 5일
·
0개의 댓글
post-thumbnail

StyleGAN - 개념 이해

StyleGAN은 PGGAN(Progressive Growing GAN)을 베이스 아키텍처로 몇가지의 기법을 추가로 적용하여 제안된 모델입니다. PGGAN을 토대로 구성되었기 때문에 1024 해상도의 고화질 이미지를 생성 할 수 있습니다.생성 이미지의 특성이 매우 잘

2021년 9월 1일
·
0개의 댓글
post-thumbnail

PGGAN - 논문 핵심 내용

PGGAN 이전의 GAN은 고해상도의 이미지를 생성 할 수 없었습니다.→ 해상도가 높아 질 수록 Discriminator가 가짜와 진짜를 구분하기 쉬워집니다.→ Generated distribution과 Real distribution 사이에 겹치는 구간이 거의 없어지

2021년 9월 1일
·
0개의 댓글
post-thumbnail

PGGAN - 개념 이해

이름 그대로 점진적으로 학습 이미지의 크기를 늘려 나가는 GAN 모델입니다.아래 그림처럼 초기에 4x4 크기의 이미지를 생성하고 판별하는 Generator와 Discriminator를 지정한 Epcoh만큼 학습 한 후, 2배인 8x8 크기의 Layer를 추가하여 생성하

2021년 9월 1일
·
0개의 댓글
post-thumbnail

WGAN-GP - 개념이해

기존 GAN에서 Loss 함수를 개선한 것입니다.WGAN의 논문에는 수학과 증명에 관한 내용이 매우 많은데, 일체 제외하고 추상적으로만 설명 하겠습니다.기존 GAN은 Loss 계산해서 Binary cross Entropy를 사용하는데 이는 Kullback-Leibler

2021년 9월 1일
·
0개의 댓글
post-thumbnail

DCGAN - 코드를 통한 이해

앞서 설명했던 DCGAN의 구조를 코드를 분석하며 설명합니다.Dataset 준비Model 구조 정의TrainEval의 순서로 진행합니다.get_celeba_data Celeb_A 데이터를 다운로드하고, 적절하게 전처리한 dataset을 반환합니다.keras.prepro

2021년 9월 1일
·
0개의 댓글
post-thumbnail

DCGAN - 논문 핵심 내용

DCGAN은 수학적인 접근이나 추론보다는, 무수히 많은 실험을 통해 경험적으로 더 나은 신경망을 제안한 방법입니다. 따라서 수학적인 증명보다는 논문에서 더 나은 구조를 제시한 내용을 바탕으로 설명합니다. 기존의 GAN에 Convolutional Layer를 결합한 구조

2021년 9월 1일
·
0개의 댓글
post-thumbnail

DCGAN - 개념이해

GAN 논문이 발표 된 이후, GAN을 응용한 여러 논문들이 발표되었습니다. 그 중 GAN의 바로 다음 단계라고 할 수 있으며 다른 수많은 GAN의 기초가 된 DCGAN에 대해서 설명합니다.Deep Convolutional Generative Adversarial Ne

2021년 9월 1일
·
0개의 댓글
post-thumbnail

GAN - 코드를 통한 이해(2)

이번 실습에서는 이전과 같은 GAN 모델을 훈련하는데, Dataset으로 MNIST 대신 Celeb_a Dataset을 사용합니다. Large-scale CelebFaces Attributes (CelebA) Dataset스크롤을 내려서 아래 다운로드 목록 중, Ali

2021년 9월 1일
·
0개의 댓글
post-thumbnail

[Computer Vision] StyleGAN

A Style-Based Generator Architecture for Generative Adversarial Networks 논문 리뷰

2021년 9월 1일
·
0개의 댓글
post-thumbnail

논문 읽기 및 구현(2) - DCGAN

이전 글에서 DCGAN의 논문 리뷰를 했다.논문 읽기 및 구현(1) - DCGAN이번에는 직접 DCGAN을 만들어보고 MNIST 데이터셋으로 학습시킨 후에 SimpleGAN과 비교해 볼 것이다.\_\_init\_\_channels_img : 64 x 64 이미지feat

2021년 8월 30일
·
0개의 댓글
post-thumbnail

논문 읽기 및 구현(1) - DCGAN

Introduction 논문 읽기 및 구현(1) - GAN 논문 읽기 및 구현(2) - GAN 이전 글에서 GAN의 이론적 내용과 코드 리뷰를 했다. 이번에는 GAN을 활용한 논문을 리뷰해본다. 가장 기본적인 GAN 논문인 DCGAN - Deep Convoluti

2021년 8월 30일
·
0개의 댓글
post-thumbnail

논문 읽기 및 구현(2)- GAN

2014년 Ian Goodfellow(.et al)은 Generative Adversarial Networks(줄여서 GAN)라는 생성 모델을 훈련하는 방법을 제시했다.이전글 보러가기 논문 읽기 및 구현(1)- GANGAN은 기본적으로 두 개의 다른 신경망(Genera

2021년 8월 19일
·
0개의 댓글

MSG-GAN: Multi-Scale Gradients for Generative Adversarial Networks 논문 정리

논문 링크: HereGAN(Generative Adversarial Networks)은 이미지 합성 테스크에서 좋은 성능을 보이지만, 훈련 불안정성과 하이퍼파라미터에 의한 민감성이 높아 여러 데이터셋에 일반화하기 어렵다는 단점이 있다. GAN의 이런 불안정성에 대한 대

2021년 8월 19일
·
0개의 댓글
post-thumbnail

(2021)Unsupervised Anomaly Segmentation using Image-Semantic Cycle Translation

Unsupervised Anomaly Segmentation using Image-Semantic Cycle Translation 논문 리뷰

2021년 8월 18일
·
0개의 댓글
post-thumbnail

(2017)Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks

Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks 논문 리뷰

2021년 8월 14일
·
0개의 댓글

[Day 10] Boostcamp AI-Tech

2021년 8월 13일 Day 10

2021년 8월 13일
·
0개의 댓글