Contrastive Learning이란?
1. No decoder
2. Contrastive loss(InfoNCE loss)
3. Positive와 Negative sample를 비교하면서 학습을 진행.
4. Augmentation 활용

단일 augmentation을 이용했을 때 성능이 가장 좋지 않았다.
Color + Crop 조합을 이용했을 때 가장 성능이 좋다는 것을 확인할 수 있다.
Color distortion을 사용해야, deep learning의 shortcut학습을 방지할 수 있음을 증명했다.
Training Epoch와 Batch Size가 클수록 성능이 좋다는 것을 확인하였다.
- Computational cost에 대한 한계 존재, negative sample에 대한 의존 성이 높음
Reference
- [SimCLR paper]([2002.05709] A Simple Framework for Contrastive Learning of Visual Representations (arxiv.org))
- [SimCLR github](GitHub - sthalles/SimCLR: PyTorch implementation of SimCLR: A Simple Framework for Contrastive Learning of Visual Representations)