
왼쪽이 정상, 오른쪽이 비정상 이미지
사전학습 모델을 사용하여 정상 데이터들로만 Global Average Pooling을 추출, Test도 추출하여 비교 (KNN Distance 사용)
정상데이터에 대한 사전학습 모델의 각 layer의 output feature map을 모으고, 각 위치에 대해서 평균, 분산, 공분산 계산. test 시에 들어오는 새로운 데이터의 분포와 거리 비교(mahalanobis)하여 이상치를 판단
Mid-Level feature를 Local patch features로 사용
대부분 이상치 탐지 모델은 High-Level feature를 사용하지만 두 가지 문제점이 존재
(1) 공간적 정보의 손실이 큼 (2) ImageNet classification task에 대한 bias가 많이 존재함

중간 레이어의 몇개의 output을 사용함.
이유 : high level 같은 경우 local한 정보가 너무 사라지고 함축적인 정보가 크고, 보통 imagenet을 기반으로 훈련된 모델을 fine tuning 하기 때문에 마지막 레이어에 그 데이터 셋에 대한 bias가 반영이 되어 있다.
동작 예시


두 결과를 합쳐 GAP 적용
Greedy Search 방법으로 subsampling을 수행 → 정상데이터의 모든 정보를 가지고 있을 필요가 없기 때문. 중복 되거나 유사한 것들이 많아 unique한 정보만 가져오게 하기 위함.
Random Subsampling에 비해 중복된 비중이 적고 정상 feature가 고르게 선택됨






Prev. SOTA: WideResNet50을 backbone으로 사용한 PaDiM
적은 데이터 수에도 기존 방법 대비 높은 성능을 보임
dsba의 세미나 영상을 참고하였습니다.