<Deep Anomaly Detection Without Outlier Exposure>

남연하·2021년 3월 22일

『Outlier exposure : 학습 과정에서 OOD 데이터를 노출시켜 OOD detection 성능을 향상시키는 방법론, 학습시킬 데이터(D_in)에 Outlier Exposure데이터 (D_out_OE = OOD)를 추가하여 fine-tuning 시킴으로써 OOD detection의 성능을 높인다. 』

OOD : Out-of-distribution(학습 데이터의 분포와는 다른 분포를 갖는 데이터)

목적 : Auxiliary data set(보조 데이터셋)을 활용하여 OOD Detection 성능을 높이자.

Outlier Exposure은 기존의 OOD detection 방법들(MSP, BPP, GAN 등)에 독립적으로 추가 가능해서기존 detector 들에 Outlier Exposure를 추가하였을 때 얼마나 성능이 향상되는지를 논문에서 결과로 제시하였다. 뿐만 아니라, 다른 논문들과는 달리 한 분야의 데이터만 이용하지 않고 이미지/ 텍스트 데이터 두 분야에 적용하여 두 분야 중에 어떤 데이터에 더 잘 적용하는지 알 수 있었다.

[장점]
· 방법론이 간단하다. (기존의 OOD detection 방법론에 간단하게 추가할 수 있는 새로운 방법론 제시)
· hyper-parameter에 민감하지 않다
· 모델 output의 calibration이 좋아진다. Calibration : 모델의 결과를 확률 값으로 보는 관점

[문제점 및 한계점]
· Outlier Exposure로 어떤 데이터 셋을 사용하는지에 따라 성능이 크게 달라질 수 있다.
· Gaussian noise나 GAN으로 생성한 sample 등을 활용하는 것은 크게 효과적이지 않다.
위 논문에서는 OOD detection 성능을 높이기 위한 D_out_OE의 데이터 특징에 대해서도 실험을 통해서 제시하였다. 결론 : D_out_OE(OOD data)는 다양하고, D_in과 유사성이 높은 데이터셋을 사용해야 한다.
· OOD data와 학습 데이터가 유사해야 한다 : 논문의 예시와 같이 natural한 이미지를 대상으로 OOD detection을 수행할 때는 유사한 OOD data를 쉽게 구할 수 있지만, 실제로 anomaly detection이많이 필요한 분야에서는 학습 데이터와 유사한 OOD data를 구하기 힘들 수도 있다.
위 논문은 OE가 기존의 OOD 알고리즘들에 추가로 적용이 가능하고, 쉽게 구현이 가능하다고 제안하였고, 실제로 큰 성능 향상이 일어났다는 점에 의미가 있다.

profile
Ewha Electric

0개의 댓글