눈문링크: 링크텍스트
코드링크: 링크텍스트
1-1. 이산확률분포
1-2. 연속확률분포
1-3. 이미지 데이터에 대한 확률 분포
이미지는 다차원 특징 공간의 한 점
통계적인 평균치가 존재
이미지에서의 다양한 특징들이 각각의 확률 변수가 되는 분포
정의: 실존하지 않지만 있을 법한 이미지 생성가능한 모델
특징:
통계적 모델이다
새로운 데이터의 인스턴스를 형성하기 위한 아키텍처이다
목표
이미지 데이터의 분포를 근사하는 모델 G만든다
모델 G가 작동을 잘한다는 것은 원래 이미지들의 분포 모델링 잘함
원래 데이터의 분포 근사 능력 학습
시간이 지나면서 원본 데이터의 분포를 학습
특징
- Generator -- G(z): New data instance
- Discriminator --D(x)= Proability(Real:1 ~ Fake:0)
기댓값 계산 방법
: 모든 데이터를 하나씩 확인하여 식에 대입한 후 평균 계산
Ex~pdata(x)[logD(x)]
: 원본 데이터 분포에서 샘플 x를 뽑아 logD(x)의 기댓값 게산
Ez~pz(z)[log(1-D(G(z)))]
: 노이즈 분포에서 샘플 z를 뽑아서 log(1-D(G(z)))의 기댓값 계산
기댓값 공식
: 모든 사건에 대해 확률을 곱한 후 더해서 계산
*연속확률 변수 공식
GAN 수렴 과정
공식 목표
: Pg->Pdata, D(G(z)) -> 1/2
증명
GAN 알고리즘
for the number of training iterations do
for k steps do
Sample minibatch of m examples from data generating distribution p data(x).
Update the discriminator by ascending its stochastic gradient
end for
end for
Not cherry- picked
Not memorized the training set
Competitive with the better generative models
Images represent sharp