대리 분석은 이름에서 예상할 수 있듯이 본래 기능을 흉내내는 대체재를 만들어 프로토타입이 동작하는지 판단하는 분석 방법이다.
본 글은 XAI 기법 중 LIME에 관한 논문("Why Should I Trust You?": Explaining the Predictions of Any Classifier)을 참고하여 작성하였습니다.
Semantic Association에 관한 짤막한 메모.
CNN 모델에 적용할 수 있는 XAI기법 중 하나인 시각화 기법에 대해 알아보자.
"Interpretable Convolutional Neural Networks"에 대한 논문 리뷰입니다.
Paper: Transformer Interpretability Beyond Attention Visualization
"Adversarial Explanations for Understanding Image Classification Decisions and Improved Neural Network Robustness"에 관해 정리한 글입니다.
"Opportunities and Challenges in Explainable Artificial Intelligence (XAI): A Survey" 논문에 대한 논문 리뷰입니다.
SHAP에 대해 간략하게 정리한 글입니다.
SHAP 실습 – 보스턴 주택 가격에 대한 설명
LRP에 대해 간략히 정리한 글입니다.
Some Notes on Rollout
본 글은 해외의 칼럼 중 XAI가 Autonomous vehicle에 적용되어야 하는 이유에 대해서 주장한 칼럼을 다룬다. 실 생활에서 현 AVs가 어떤 상태인지 알고 싶어서 봤으나, 크게 도움되는 내용은 없었던 것 같다.
여전히, DL(Deep Learning) 분야에서 설명력과 투명성을 제공하는 것은 법률 규제자, 소비자, 서비스 제공자 등에게 중요한 상황이다. 본 논문에서는, XAI의 개념을 다루기 위해 '엔지니어링적 관점'을 취한다.
SHAPley Values를 이용해 설명가능한 객체 감지 모델을 구축하는 방법에 대해 기술한 글입니다.
XAI & Object Detection 관련해 참고할 만한 아이디어와 논문을 정리한 글입니다.
XAI, Object Detection, Vision Transformer 등과 관련된 논문을 정리한 글입니다.
Paper: End-to-End Object Detection with Transformers
논문 "End-to-end object detection for transformer"의 Implementation code입니다.
Paper : Generic Attention-model Explainability for Interpreting Bi-Modal and Encoder-Decoder Transformers. > DETR을 중심으로.
Baselines, Experiments, and Conclusion in "Generic Attention-model Explainability for Interpreting Bi-Modal and Encoder-Decoder Transformers" -
Turning off each head's attention maps of Decoder in DETR : Focusing on raw attention map
Turning off each head's attention maps of Decoder in DETR : Focusing on generic attention-model explainability
End-to-End Object Detection 모델(DETR) 내에서 Feature maps을 생성하는 CNN 기반 Backbone 모델이 최종 성능에 어떻게 기여하는 지에 대해 정리할 글입니다.