abstract
contrastive learning 을 위한 좋은 negative sample 선정법?
hard negative sample 이 좋다 (anchor point에서 구분하기 힘든 point들)
intro
contrastive learning 의 image 분야에서 success
구성요소 : positive pairs, negative pairs
negative sampling 방법 제안 + 제안된 방식이 마주친 challenge
1) true distribution 분포가 없다
2) 효율적인 sampling strategy 필요
contributions
1) suggest hard negative sampling method replacing simple uniform random sampling with computationally efficent sampling method
2) performance measure on downstream tasks
setup
embedding 해서 feature 영역으로 보내기
NCE (noise contrastive estimation) objective 수식적으로 표시
Hard negative sampling
무엇이 좋은 negative sample 인가?
1) true negative 를 샘플: x와 다른 label을 가진 샘플 찾자
2) 가장 유용한 negative sample은 embedding이 anchor오 비슷하다고 판단되는 것들이다
unsupervised contrastive learning에서는 supervision이 없으므로 1번을 정확히 만족하기는 불가능하다
제안한 방식의 trade-off
→ 2번에서 hard 할수록 그 대상이 false negative 일 경우 받게 되는 손해가 커지지만 성공할 경우 embedding space 차원에서 가장 많은 학습을 할 수 있다는 의미
proposed method
negative sample을 뽑을 distribution q를 다음과 같이 정의
위에서 설명한 두 principle과 수식 대응
1) h(x) ≠ h(x-) 는 (x, x-) 가 서로다른 latent class에 속할 것을 강제함
2) 파라미터 beta는 x-가 x에 inner product 값으로 얼마나 가까울 것인지 결정함
위의 principle들은 모두 반영했지만 여기서 어떻게 effective sample?
strength
weakness