[ICLR2017]A Baseline For Detecting Misclassified And Out-Of-Distribution Examples In Neural Networks - [2022.07.07]

MA·2022년 7월 6일
0

OOD

목록 보기
2/8

(내용이 틀릴 수 있습니다. 알려주시면 고치도록 하겠습니다.)

이 논문은 OOD의 조상격으로 아마 가장 먼저 소개되는 논문으로 알고 있다. 저자는 새로운 간단한 Baseline을 소개함으로써, OOD 연구가 활발하게 이뤄질 수 있도록 하였다.

해당 논문의 핵심은 probabilities from softmax distribution을 이용하면 misclassified, Out-of-distribution 문제를 쉽게 해결할 수 있다는 점을 얘기한다.

내용은 간단한데, 내가 영어를 너무 못해서 제대로 이해를 못하는 것 같다.

ABSTRACT

본 논문의 저자는 어떤 하나의 example이 주어졌을 때, 그것이 잘못 분류(misclassified)되거나 원래의 훈련 데이터셋의 분포를 따르지 않는다(out-of-distribution)는 것을 탐지하기 위한 문제에 대해서 언급한다.

We present a simple baseline that utilizes probabilities from softmax distributions

이를 해결하기 위한 방법으로, 소프트맥스 분포로부터 나온 확률을 사용한 간단한 베이스라인을 소개한다. (간단.. 이라고.. ?)

옳게 분류된 example들은 maximum softmax probabilities가 잘못 분류된 example들 혹은 out-of-distribution example들에 비해 더 큰 값을 가지는 경향이 있다.

저자들은 computer vision, NLP, automatic speech recognition등 분야에서, 여러가지 task들을 정의함으로써 성능평가를 진행한다. 또한, 본인들이 만든 베이스라인이 이러한 모든 범주를 통틀어 효과적임을 보였다.

마지막으로 이러한 베이스라인이 종종 좋은 성능을 보이며, 미지의 탐지 task의 미래 연구에 대한 방향을 제시한다고 한다.

INTRODUCTION

머신러닝 혹은 딥러닝 분류기(classifier)는 훈련을 하고, 실제 데이터를 통해 테스트를 진행한다. 그런데 이때 문제가 발생할 수 있는데, 실제 데이터는 훈련데이터의 분포와 다를 수 있다는 점이다(실제론 거의 대부분이 다름). 심할땐, 잘못 분류해놓고 confidence가 엄청 높게 분류하는 경우도 생길 수 있다.

More generally and importantly, estimating when a model is in error is of great concern to AI Safety

보통 이러한 high-confidence prediction 문제들은 softmax probailities가 the fast-growing exponential function으로 계산되기 때문이다.

따라서 작은 값이 softmax input(logits)에 더해지더라도 output distribution에 큰 영향을 끼칠 수 있다는 것이다.

예를들어, random Gaussian noise를 MNIST image classifier에 입력으로 넣으면 prediction confidence 혹은 predicted class probability는 91%로 나온다. (실험에서 보여줌) 본 논문의 저자들이 설계한 실험을 통해 이러한 softmax distribution에서 나온 prediction probability들은 confidence에 대해 서투른 직접적인 대응 바르게 사용하지 못하는 것이라고 말한다. (많은 연구들이 증명한다고 함)

그러나, 이 논문에서 저자들은 the prediction probability of incorrect와 out-of-distribution examples가 the prediction probability for correct examples 보다 작다라고 말한다. 그러므로 the prediction probability가 독립적인 관점에서 잘못 작동하더라도, correct or in-sample examples에 대한 prediction probability statistics를 포착하는 것은 때때로 어떤 example이 error 혹은 abnormal인지 탐지하는것에 중요하다. (뭔소리냐 ..) (논문을 제대로 이해를 못하겠다. 일다 여까지

profile
급할수록 돌아가라

0개의 댓글