Abstract
- 대규모 데이터셋을 정확하고 효율적으로 주석을 다는 것은 비용이 많이 들고 어려움.
- coarse 라벨들은 전문가의 지식을 요구하지 않기 때문에 더욱 얻기 쉬움.
- 따라서, 더 미세한 라벨링을 위해 coarse 라벨을 사용하는 Masked Contrastive Learning (MaskCon)을 제안함.
*대조학습에서는 동일한 클래스이 샘플을 부정적인 예로 간주하는 경우가 있음.
-> 이를 자기 지도 대조학습에서는 샘플 간의 관계를 직관적으로 수정하여 사용함
Cosine Similarity of x_i
Empirical risk
Contrastive loss
Benchmark model
: Grafit , Colns , Moco , SupCon
Dataset
: Cifar10, Cifar100, ImageNet 1K, Stanford Cars19
Good Split
Class A : ’airplane’, ’truck’, ’automobile’, ’ship’ Class B : ’horse’, ’dog’, ’bird’, ’
Bad Split
Class A : ’airplane’, ’automobile’, ’bird’, ’cat’ Class B : ’horse’, ’dog’, ’ship’, ’