# XAI

23개의 포스트
post-thumbnail

[논문리뷰] Interpretable Convolutional Neural Networks

Paper: Interpretable Convolutional Neural Networks

5일 전
·
0개의 댓글
post-thumbnail

[관련연구]Object detection using text

※ Text를 이용해 Image 내의 물체를 탐색하는 연구에 관해 정리한 글이다. 즉, Text(문장, 구, 절, 단어 등)과 Image를 input으로 받아 Output으로 Bounding box를 반환해주는 Text-Object-Detection 연구.

6일 전
·
0개의 댓글
post-thumbnail

[관련연구]VQA - papers with code

※ 본 글은 Video object segmentation에 선행하는 모델로서 작동하는 VQA 모델을 찾기 위해 사용가능한 github code와 paper를 대략적으로 정리한 글입니다. 작성일 : 2021-05-30

6일 전
·
0개의 댓글
post-thumbnail

[연구개요]Semantic Associations

Semantic Association에 관한 짤막한 메모.

7일 전
·
0개의 댓글
post-thumbnail

[모델리뷰]Explainable Object Detection

※ 본 글은 설명가능한 object detection을 다룬 블로그를 참고하여 작성하였습니다. 해당 블로그에서는 AI model의 output을 설명하는 것이 굉장히 흥미롭고, 또 어려운 AI application인 'Detecting objects in imag

2021년 7월 24일
·
0개의 댓글
post-thumbnail

[논문리뷰] Explainable Artificial Intelligence (XAI): An Engineering Perspective

여전히, DL(Deep Learning) 분야에서 설명력과 투명성을 제공하는 것은 법률 규제자, 소비자, 서비스 제공자 등에게 중요한 상황이다. 본 논문에서는, XAI의 개념을 다루기 위해 '엔지니어링적 관점'을 취한다.

2021년 7월 21일
·
0개의 댓글
post-thumbnail

[칼럼리뷰] Explaining Why Explainable AI is Needed For Autonomous Vehicles And especially Self-driving Cars

본 글은 해외의 칼럼 중 XAI가 Autonomous vehicle에 적용되어야 하는 이유에 대해서 주장한 칼럼을 다룬다. 실 생활에서 현 AVs가 어떤 상태인지 알고 싶어서 봤으나, 크게 도움되는 내용은 없었던 것 같다.

2021년 7월 21일
·
0개의 댓글
post-thumbnail

Generating Visual Explanations 읽어보기

논문 링크: Generating Visual Explanations Introduction 저자는 explanations는 왜 어떤 결정이 visual evidence와 일치하는지 정의하는 것이라고 간주한다. explanations는 visual information

2021년 7월 11일
·
0개의 댓글
post-thumbnail

CAM(Class Activation Map) 구현

학부 시절 구현해보았던 CAM. 다시 한 번 구현해보았다. 이게 뭐라고 그렇게 어려워했을까? Learning Deep Features for Discriminative Localization - 논문 링크 C

2021년 6월 10일
·
0개의 댓글
post-thumbnail

[6주차] 논문리뷰: CAM, Grad-CAM, Grad-CAM++

본문에서는 시각화 기법인 CAM, Grad-CAM, Grad-CAM++에 대해 알아보았다.

2021년 5월 26일
·
0개의 댓글
post-thumbnail

[5주차] 논문 리뷰 - Attention is not explanation

작성자 : 투빅스 14기 장예은 Attention의 설명 가능성에 의문을 제기하는 Attention is not explanation 논문과 이를 반박하는 Attention is not not explanation 논문을 소개합니다.

2021년 5월 19일
·
0개의 댓글
post-thumbnail

[4주차] GAN DISSECTION 논문리뷰

작성자: tobigs 12기 이홍정

2021년 5월 11일
·
0개의 댓글

[3주차]LRP(Layer-wise Relevance Propagation)

작성자: 투빅스 15기 김태희

2021년 5월 5일
·
0개의 댓글

[3주차] XAI 트렌드 리뷰논문-앞부분

본 게시글은 Opportunities and Challenges in Explainable Artificial Intelligence (XAI): A Survey 논문의 내용을 정리하고, XAI 연구의 전반적인 동향을 이해하는 것을 목표로 합니다.

2021년 5월 4일
·
0개의 댓글
post-thumbnail

[2주차] SHAP (SHapley Additive exPlanation)

SHAP (SHapley Additive exPlanation)

2021년 4월 28일
·
0개의 댓글
post-thumbnail

[XAI] SHAP (SHapley Additive exPlanation)

Shapley Value, Additive Feature Attribution Method, SHAP

2021년 4월 28일
·
0개의 댓글
post-thumbnail

[1주차] LIME 논문 리뷰 : “Why Should I Trust You? Explaining the Predictions of Any Classifier"

본 글은 XAI 기법 중 LIME에 관한 논문을 참고하여 작성하였습니다. (작성자: 15기 박진수)

2021년 4월 20일
·
0개의 댓글
post-thumbnail

[논문 리뷰] LIME : “Why Should I Trust You? Explaining the Predictions of Any Classifier"

본 글은 XAI 기법 중 LIME에 관한 논문("Why Should I Trust You?": Explaining the Predictions of Any Classifier)을 참고하여 작성하였습니다.

2021년 4월 20일
·
0개의 댓글
post-thumbnail

Explaining Anomalies Detected by Autoencoders Using SHAP

Antwarg, Liat, et al. "Explaining anomalies detected by autoencoders using SHAP."

2021년 4월 19일
·
0개의 댓글
post-thumbnail

[1주차] 대리분석(LIME)

LIME은 복잡한 딥러닝 모델(블랙박스 모델)을 간단한 설명 가능 모델로 모사함으로써 딥러닝 모델의 판단 근거를 설명하는 기법입니다. (작성자 : 15기 박진수)

2021년 4월 13일
·
0개의 댓글