Recent works have shown that neural networks tend to make high confidence predictions even for completely unrecognizable (Nguyen et al., 2015) or irrelevant inputs (Hendrycks & Gimpel, 2017; Szegedy et al., 2014; Moosavi-Dezfooli et al., 2017) It has been well documented (Amodei et al., 2016) that it is important for classifiers to be aware of uncertainty when shown new kinds of inputs, i.e., out-ofdistribution examples. Therefore, being able to accurately detect out-of-distribution examples can be practically important for visual recognition tasks (Krizhevsky et al., 2012; Farabet et al., 2013; Ji
et al., 2013).
- from ODIN
What the Model Cannot Know => model awareness of its limitations (gpt) / unavailability
Out-of-Distribution Detection: Methods like Maximum Softmax Probability (MSP), ODIN (Out-of-DIstribution detector for Neural networks), and adversarial examples can help detect when an input is out-of-distribution.
novel view synthesis에서 adversarial attack도 가능할까?
Out-of-Distribution Detection: Methods like Maximum Softmax Probability (MSP), ODIN (Out-of-DIstribution detector for Neural networks), and adversarial examples can help detect when an input is out-of-distribution. / uncertainty가 높은 경우도 OOD 상황이라고 할 수는 있지만,,, 보통 uncertainty가 OOD에서 낮게 나오는게 문제긴 함. 닭 달걀
continual setting에서는 현재 GS와 정보차이가 많이 나는 image가 OOD이려나
unavailability?
However, their simple way(BNN, Deep Ensemble, MC Dropout) of quantifying uncertainty by calculating the variance in the output space is not appropriate for identifying out-of-distribution data, particularly on 3D data.
"However, without the knowledge in the unknown scene regions, all these NeRF-based methods are unable to explicitly recognize them and
allocate high uncertainties there"
unobserved를 'density aware'에서 처음 다루긴 했지만, occlusion을 다루지는 않았음.
single forward pass에서 uncertainty를 예측하는 Deep Deterministic Uncertainty가 (비교적) 최근의 uncertainty (혁신적인) 트렌드라고 하더라.
Deep Ensemble, MC Dropout, Bayesian 방식에 비해 OOD Detection을 잘한다는 특징들이 있음.
논문 리스트
- DUQ: Uncertainty Estimation Using a Single Deep Deterministic Neural Network (ICML 2020/463 cite)
- SNGP: Simple and Principled Uncertainty Estimation with
Deterministic Deep Learning via Distance Awareness (NIPS 2020/ 425 cite)
- DDU: Deep Deterministic Uncertainty: A New Simple Baseline (CVPR2023/42 cite/21년 2월 아카이빙..?)
DUQ, DDU는 Yarin Gal 논문임.
인용수만 봐도 좀 처참한듯? 다들 CIFAR10 같은 데이터셋에서 큰 개선이 있었지만 다른 분야로의 확장이 더 많이 연구되지 더 깊이있게는 잘 안하는거 같기두. (태스크별 domain knowledge가 중요한거 같긴함). 물론 저 논문들을 인용한 GS논문은 전혀 없음.
DUQ:
- DUQ는 classification을 학습하면서 각 class의 feature vector (centroids) 들을 저장함. (EMA update)
- 모델을 RBF model(1998, LeCun)으로 설계; 모델의 output (feature vector)와 centroid사이의 distance를 RBF kernel distance로 정의해서 distance를 minimize하게 함.
- 그럼, uncertainty를 output인 feature vector와 가장 가까운 centroid의 distance로 측정가능하며, 기존 방식들(softmax)보다 OOD를 잘 인지한다고 함.
- 추가적으로 input 변화에 대한 민감도(sensitivity)를 보정하기 위해 그래디언트 페널티 (regualrization)을 적용. Feature collapse - OOD sample이 ID feature space로 mapping 되는 현상- 를 보정하기 위해 gradient가 너무 커지거나 작아지지 않도록 하는 normalization
- epistemic aleatoric 둘다 포함하는 uncertainty이며, formal하게 disentangle하기 어렵다고 함. 다만, data point가 feature space상에서 모든 centroid랑 멀다면 epistemic이라고 볼 수 있고(OOD느낌), centroid들 사이에서 여러 centroid와 모두 가깝다면(ambiguaty) aleatoric이라고 볼 수 있음.
SNGP:
DDU
https://stopspoon.tistory.com/78