GCNN(Graph Convolutional Neural Networks)의 성장에 따라 이에 대한 설명 가능여부도 중요해짐.
GCNNs를 위한 여러 Explainability Method에 대해 소개하고자 함
Contrastive gradient-bbased saliency maps(CG)
Class Activation Mapping(CAM)
Excitation Backpropagation(EB)
Grad-CAM(Gradient-weighted CAM)
c-EB(Contrastic EB)
3 desirable Properties
Evaluation metrics
Deep CNNs의 등장에 따라 Computer Vision 분야는 엄청난 발전을 하고 있다.
이와 동시에 CNN으로부터 나온 결정에 대한 Explainability, Interpretability가 가려지고 있었음.
→ CNN의 내부에 대한 연구가 활발하게 이루어지고 있다
However, Deep CNNs는 grid structured data(좌표계)에 맞게 디자인되어 있다.
그렇다면 Graph-structured data는? → Convolution operation을 Graph로 확장하여 CNN을 일반화시킬수 있음.
→ Specific Contribution
→ Input , Score for class c before the softmax layer
CAM (Class Activation Mapping)
마지막 Convolution layer 전에 Important하고 Class-specific한 Feature들을 식별
단점
Softmax layer (output layer) 바로 전에 GAP(Global Average Pooling)에 의한 Convolution layer이 필요
→ GAP : 각 Feature Map상의 노드값들의 평균을 뽑아냄
→ 결과값은 크기가 감소된 Feature map
Complex하고 Heterogeneous한 네트워크를 배제 (several Fully-connected layer)
,
→ feature map of the convolutional layer, GAP of
→ Importance of feature k for predicting class c
Grad-CAM(Gradient-weighted CAM)
Excitation Backpropagation
Network를 통한 backward-pass에서의 Nonlinearities를 무시
→ 특정 Class를 예측하는데에 있어 네트워크에 반대하는 증거를 보존하는 Heat-map을 만듬
( if )
Gradient-based heat-maps over nodes n
→
CAM heat-maps
→
Grad-CAM heat-map
→
→ (Class specific weights for class c)
Excitation Backpropagation heat map
→ Calculated via backward passes through the softmax classifier
→
→ Grad-CAM이 가장 잘 맞는다고 결론 내림 (Contrastivity가 가장 중요한 조건이라고 판단)
→ 각 방법이 가지고 있는 특징이 있으니 본인의 방법에 맞게 이용하는것이 중요
ex) large graph를 해석할때에는 c-EB가 가장 좋은 방법