Augmentation Types
Contrastive Learning
Node-Node간의 contrast를 위해 node의 서로 다른 views를 만듦
, : Node의 view (윗첨자: layer)
, : Two stochastic selections independently applied on graph G
H: Neighborhood aggregation function
InfoNCE Loss 도입
cf. 여기서 negative sampling을 진행하지 않고 그래프에 존재하는 모든 노드를 negative sample node로 사용했음에 주의하기!
s: Cosine similarity
: Temperature
Benchmark Datasets: Yelp2018, Amazon-Book, Alibaba-iFashion
Evaluation Metrics: Recall@K, NDCG@K (K=20), all-ranking protocol
Implementation Details: LightGCN 기반으로 세가지 variants, SGL-ND, SGL-ED, SGL-RW를 구현함
Analysis
- 비교적 denser dataset (Yelp2018): SGL-ED
- 비교적 sparser dataset (Amazon-Book, Alibaba-iFashion): SGL-RW , 워낙 interaction이 sparse한데, RW에서는 앞 layer에서 drop된 connection도 뒷 layer에서 복구할 가능성이 있기 때문임
- SGL-ND는 다른 두 variants보다 좀 더 unstable, 노드 자체까지 drop하는거라 high degree node를 drop할때 드라마틱한 변동이 있을 수 있기 때문
- InfoNCE loss를 도입하여 기존에 둘 사이의 차이만 학습하던 supervised BPR loss에 비해 모델의 perception field를 증가시키는 효과를 줌
- Temperature 를 너무 크게 하면 hard negative mining이 제대로 되지 않아서 별로고, 반대로 너무 작게 하면 몇개의 찐 hard negative의 contribution에 온통 치중되기 때문에 InfoNCE loss에서 다양한 negative sample을 사용하는 이점이 없어짐