2. Background)낮은 온도 샘플링(low temperature sampling)이나 절단(truncation)과 유사한 개념조건부 확산 모델과 비조건부 확산 모델을 동시에 학습하며, (reverse 과정에서 노이즈를 추정하는 딥러닝 네트워크를 말함)null token 을 input 에 할당합니다.라벨이 input에 있는 딥러닝 모델과 라벨이 input에 없는 딥러닝 모델의 예측 사이를 interpolation하는 -> 분류기 없는 가이드를 활용분류기 기울기를 혼합 하기 때문이고, 실제로는 생성된 데이터는 현실성이 떨어질 수도 있다는 우려를 논문에서 제기합니다.이 질문들을 해결하기 위해 우리는 분류기-비의존적 가이던스라는 가이던스 방법을 제안합니다. 이 방법은 분류기를 완전히 배제합니다.
이미지 분류기의 기울기 방향으로 샘플링하는 대신, 분류기-비의존적 가이던스는
조건부 확산 모델의 점수 추정치와 동시에 학습된 비조건부 확산 모델의 점수 추정치를 혼합




2. background를 이해하면, 쉽게 이해할 수 있다.조건부 정보를 랜덤하게 제외시키는 한 줄의 코드 변경만 필요조건부 및 비조건부 점수 추정치를 혼합하는 한 줄의 코드만 추가z_lambda 에서 학습해야 하므로, 기존의 사전 학습된 분류기를 사용할 수 없습니다. 분류기 기울기와 달리, 분류기-비의존적 가이던스 샘플러가 전혀 분류기 기울기와 닮지 않은 방향으로 이동하며, 가이던스가 작동하는 방식에 대한 직관적인 설명에 도달분류기-비의존적 가이던스는 비조건부 점수를 조건부 점수로부터 계산할 수 있습니다. 
분류기-비의존적 가이던스의 잠재적 단점 중 하나는 샘플링 속도 샘플 정확도를 높이는 모든 가이던스 방법은 샘플 다양성을 희생해야 한다는 점에서, sample 다양성을 유지하는 것은 데이터의 특정 부분이 다른 데이터에 비해 덜 나타나는 경우