

q(x_t-1|x_t)의 평균을 학습하기 위한 ϵ_t만 학습했었다.



P_theta(x_t-1|x_t) 의 분산을 학습시키기
~β_t / β_t가 어떻게 변화하는지 그린 그래프P_theta(x_t-1|x_t) normal distribution의 variance로써, DDPM에서 증명했습니다.P_theta(x_t-1|x_t)의 평균을 학습시키는 과정이었습니다.
분산까지 학습시켜서 esimation하면 VLB loss, 즉 log-likelihood가 개선될까? 라는 생각을 가질 수 있습니다.v를 출력하도록 학습합니다. v는 아래와 같습니다.
v를 추가했으니, 이를 학습되게 하기 위해서 loss function도 수정해봅시다.

P_theta(x_t-1|x_t) 의 분산까지 학습시키므로써, log-likelihood가 개선되는지 확인해보자!


알파 헷은 아래의 규칙을 따르는게 좋다고 합니다. (아래 그래프 세로축 처럼)

후보군1이 더 좋은 선택지라고 주장한다!

