과 는 다른 구조를 가지지만 같은 computational graph를 가진다.
임베딩 하고 싶은 노드에 색을 지정하여 ordering/identities invariant한 inductive function을 만들 수 있다.
같은 구조 상에서 의 순서가 바뀌어도 동일한 임베딩을 가진다. 즉, 일반화 성능에 도움이 된다.
다른 구조를 가지는 노드는 다른 computational graph를 만든다.
Attacker는 조작은 최소화하면서 target node label prediction의 변화는 최대가 되도록 해야 한다.
Original 그래프의 인접행렬을 , feature 행렬을 라 하고manipulated 그래프의 행렬들을 이라 하자.
GCN은 loss를 최소화하는 를 찾고 target node에 대한 예측 확률이 최대인 클래스를 라 한다.
우리는 조작 후의 예측 클래스가 이전의 예측 클래스와 달라지기를 원한다.
새롭게 예측된 의 예측 확률과 기존에 예측되었던 의 확률의 차이가 라는 가정 하에 최대가 되어야 한다.
하지만, 인접행렬 가 이산적이기 때문에 gradient를 활용한 최적화가 불가능하고 모든 에 대해 GCN이 retrain 되어야 한다는 문제가 있다.