Ho, J., Jain, A., & Abbeel, P. (2020). Denoising diffusion probabilistic models. Advances in Neural Information Processing Systems, 33, 6840-6851.
😎 기존 Diffusion의 문제점이었던 복잡성을 해소함.
- Fixed Noise Scheduling을 최대한 활용해서
- 파라미터를 간소화하고, 불필요한 연산을 제거해서
Discriminator D와 generator G의 적대적 학습 활용
Generator를 통해 매우 간단한 분포 z를 특정한 패턴을 갖는 분포로 변환
최종적으로 안정적인 학습을 위해서는 Discriminator와 generator가 균형을 띄는 것이 중요함.
(한계점)
학습된 Decoder를 통해 latent variable을 특정한 패턴의 분포로 mapping
Encoder를 모델 구조에 추가해 Latent variable z를 Encoder를 통해 만듦.
최종적으로 Likelihood 를 활용해 를 극대화 하는 것이 중요함.
(한계점)
심층 신경망 기반 확률적 생성 모형 중 하나
잠재 변수(Z) 획득을 위해 변수 변환 공식을 사용함.
(한계점)
학습된 Diffusion model의 조건부 확률 분포 를 통해 특정한 패턴의 분포 학습
생성에 활용되는 조건부 확률 분포 을 학습하기 위해 Diffusion process 를 활용
학습 목적식에서 Regularization term 제외함.
Denoising Process의 목적식 재구성
평균과 분산 각각을 추정해야 했지만, 값들로 분산을 상수화함으로써 식을 간소화함.
'Denoising matching'으로 평균 간소화함.
-> 평균 식에 있는 에서 실질적으로 학습해야 할 대상은 뿐임. (아래 식 참고)
-> 따라서 변형된 로 새롭게 목적함수를 정의하면 아래와 같음.
-> 최종적으로 사용한 식은 coefficient term을 제거한 식임.
Wyatt, J., Leach, A., Schmon, S. M., & Willcocks, C. G. (2022). AnoDDPM: Anomaly Detection With Denoising Diffusion Probabilistic Models Using Simplex Noise. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (pp. 650-656).
😎 DDPM을 unsupervised anomaly detection에 적용함.
- DDPM은 GAN보다 뛰어난 mode converge를 하며, VAE보다 높은 샘플 퀄리티를 가짐.
- 하지만, DDPM은 긴 Markov chain sequences 때문에 시간과 비용 측면에서 단점이 존재함.
- 따라서 본 논문에서는 Partial Diffusion과 Simplex Noise를 통해 기존 한계점을 극복하고 이상 탐지에 적합한 Diffusion 모델을 제안함.
1. Partial Diffusion
2. Simplex Noise
Diffusion은 모든 부분을 잘 복원하는 것이 핵심임.
-> 따라서, 종모양을 띄는 정규분포를 Noise로 사용함.
-> 즉, 빈도가 높은 곳(정상 부분)에 확률적으로 Noise가 많이 들어가지만, 빈도가 낮은 곳(이상 부분)은 Noise를 적게 줘서 정상과 이상 모두를 잘 복원함.
-> 따라서 Gaussian Noise 대신 Simplex Noise를 도입함.
*Simplex Noise
: 빈도가 낮은 곳도 Noise를 동일하게 주는 것
2가지 데이터셋에 대해 실험을 진행함.
- 왼쪽은 MVTec AD leather subset, 오른쪽은 Neurofeedback Skull-Stripped (NFBS)
- 왼쪽은 서로 다른 이미지에 대해 Gaussina과 Simplex를 적용한 것임.
- 오른쪽은 하나의 이미지에 대해 simplex noise 를 다르게 한 것임.
Gaussian 보다 Simplex를 사용한 것이 더 높은 성능을 보임.
정상 125개 -> 100개 train, 25개 test / 비정상 22개 -> 22개 test
-> 적은 데이터셋으로도 학습 가능함
한 번 생성하는 것이 아니라, 여러번 생성해서 평균 낸것이 더 좋지 않을까
컬러 이미지, 3D 이미지에도 도입해보고자 함.
Partial Diffusion
-> 완전히 무너뜨리고 복원하는 것이 아님.
-> 이러한 특징으로, 원본 데이터와 똑같이 복원함.
-> 데이터를 다양하게 생성하는 생성 모델 Diffusion의 장점이 사라짐.
+ 데이터셋마다 몇 번의 Noise를 줘야 하는지 다름.
Simplex Noise
-> 복원 성능 자체가 떨어짐.
-> 복원을 잘하는 생성 모델 Diffusion의 장점이 사라짐.
참고 문헌
https://lilianweng.github.io/posts/2021-07-11-diffusion-models/
https://lv99.tistory.com/57 (GAN 관련)
https://blog.naver.com/PostView.naver?blogId=atelierjpro&logNo=220983485213&redirect=Dlog&widgetTypeCall=true&directAccess=false (VAE 관련)
https://drive.google.com/file/d/17kBC7d3x-GfuEevc9N1fb1FeSKUsZ6vY/view (Diffusion 이미지)
https://calvinyluo.com/2022/08/26/diffusion-tutorial.html (Diffusion 이미지)