# XAI

62개의 포스트

Understanding Explainable AI (XAI)

(still editing)intro video (link)

2022년 9월 21일
·
0개의 댓글
·
post-thumbnail

[논문 정리] “Why Should I Trust You?” Explaining the Predictions of Any Classifier

이번에 정리할 논문은 LIME(Local Interpretable Model-Agnostic Explanation) 기법을 제안한 “Why Should I Trust You?” Explaining the Predictions of Any Classifier 입니다.

2022년 9월 13일
·
0개의 댓글
·
post-thumbnail

[논문 정리] An Efficient Explanation of Individual Classification using Game Theory

shapely value를 활용하는 SHAP을 깊게 이해하기 위해 읽어본, shapely value 개념 도입했을 때 model explanation에 관한 논문

2022년 9월 4일
·
0개의 댓글
·

XAI | Explainable AI 의 개념과 분류

본 포스팅은 설명가능한 인공지능 (XAI) 의 개념과 분류 방법에 대한 내용을 포함하고 있습니다. Keyword : XAI, CAM, LIME, RISE

2022년 8월 23일
·
0개의 댓글
·
post-thumbnail

[Review] XAI 설명 가능한 인공지능, 인공지능을 해부하다

회사 업무적으로 필요한 내용은 아니었다. 동료 분석가들끼리 고민하는 내용이 상무, 회장 등 임원분들의 이해를 돕게끔 설명하는 과정에서 어려운 부분이 많았다. 예측력보다는 설명력을 요구하는 경우가 많았고, 그러던 도중에 자연스럽게 XAI(설명가능한 인공지능)을 접하게 되었다. 머신러닝, 딥러닝을 진행하다보면 블랙박스(머신러닝 모델의 의사결정 과정을 인간이...

2022년 8월 17일
·
0개의 댓글
·
post-thumbnail

XAI : 설명가능한 AI(eXplainable AI) - (3)

XAI 방법들을 어떻게 비교, 평가하는지 (어떤 설명 방법이 좋은 설명 방법인지)고안된 방법의 문제점은 없는지정량적 비교 및 평가 방법1) 사람들이 직접 설명들을 보고 비교, 평가하는 방법AMT (Amazon Mechanical Turk) test사람들의 투표를 통해

2022년 7월 27일
·
0개의 댓글
·
post-thumbnail

XAI : 설명가능한 AI(eXplainable AI) - (2)

CAM (Class Activation Map)Global average pooling 활용GAP layer이미지 내에서 정답인 동물을 하이라이트하는 모습주어진 맵과 관련이 많다는 모습? ActivationCAM 값들의 평균: 특정 클래스에 대한 분류 정도CAM으로 구

2022년 7월 27일
·
0개의 댓글
·
post-thumbnail

XAI : 설명가능한 AI(eXplainable AI) - (1)

설명가능한 AI (Explainable AI)딥러닝의 문제 : 구조가 복잡하여 설명하기 어려움XAI : 모델을 쉽게 이해하고 사용하기 위한 방안지도학습, 딥러닝 기반 framework들이 딥러닝 적용 : 음성인식, 기계번역에서 큰 효과, ImageNet 데이터셋의 오류

2022년 7월 27일
·
0개의 댓글
·
post-thumbnail

LG AImers - 설명 가능한 AI : Explainable AI(XAI)

딥러닝 학습의 한계점: 대용량 학습 데이터로 부터 학습하는 모델 구조 - 점점 더 복잡해지고 이해하기 어려워짐.모델 & 데이터셋의 오류 색출모델이 얼마나 편향되어 있는지 확인 가능사람이 모델을 쓸 때 그 동작을 이해하고 신뢰할 수 있게 해주는 기계 학습 기술

2022년 7월 17일
·
0개의 댓글
·
post-thumbnail

[XAI] 3. XAI 관련 데이터

Interpretable Machine Learning:A Guide for Making Black Box Models Explainable (2nd ed.)을 읽고 정리한 내용입니다.이 데이터는 워싱턴 D.C.에 있는 Capital-Bikeshare이라는 자전거 대여

2022년 6월 28일
·
0개의 댓글
·
post-thumbnail

[XAI] 2.5 인간 친화적 설명(Human-friendly Explanations)

사람들이 "좋은" 설명이라고 하는 것은 무엇인지, 그리고 해석할 수 있는 인공지능이 담고 있는 의미는 무엇인지 좀 더 자세히 알아보고자 합니다. 인문학에 대한 연구가 이에 대한 답을 찾아내는데 도움이 될 수 있을 것이며, Miller(2017)는 여러 설명 방법론들에

2022년 6월 27일
·
0개의 댓글
·
post-thumbnail

[XAI] 2.4 좋은 설명의 속성(Properties of Explanations)

인공지능 모델에 대해 설명을 하기 위해서는, 설명을 생성하는 알고리즘을 설명하는 방법이 필요합니다. 설명의 유형 중 하나는 1) 대개 하나의 인스턴스의 특성값을 사람이 이해할수 있는 방법으로 특성값의 모델 예측과 연관시키는 것입니다. 다른 유형의 설명은 2) 하나의 데

2022년 6월 27일
·
0개의 댓글
·
post-thumbnail

[XAI] 2.3 해석의 범위(Scope)와 평가(Evaluation)

알고리즘을 통해 모델이 학습을 하며 예측 결과를 도출합니다. 특정한 모델에 대해 투명성(Transparency)와 해석력(Interpretability)의 관점에서 다음과 같은 범위로 평가할 수 있습니다.알고리즘은 어떻게 모델을 생성하는가?알고리즘 투명성(Algorit

2022년 6월 24일
·
0개의 댓글
·
post-thumbnail

[XAI] 2.2 해석 가능 방법론의 분류(Taxonomy)

해석 가능한 인공지능의 방법론은 다양한 기준에서 분류될 수 있습니다. 이 분류는 해석 가능한 방법론의 적용 시점에 따라 구분됩니다. 모델의 종류에 따라 변수를 줄임으로써 복잡도(Complexity)를 제한하는 방식인 사전해석법(Intrinsic)과 학습이 끝난 모델을

2022년 6월 24일
·
0개의 댓글
·

[XAI] 2.1 해석력(Interpretability)의 중요성

만약 인공지능 모델의 성능이 좋다고 하더라도, 우리는 그 모델을 즉시 도입하지 않습니다. 왜 우리가 해당 모델을 신뢰하여야 하는지, 모델은 왜 그러한 의사결정을 내리게 되었는지 한번 더 질문합니다. 이는 단순히 예측 정확도나 분류 정확도만으로는 실제 문제에 인공지능 모

2022년 6월 24일
·
0개의 댓글
·
post-thumbnail

[XAI] 1.2 인공지능 용어 정리

인공지능을 이해하기 위해서 기계 학습에서의 주요 용어들을 정리하겠습니다알고리즘은 기계가 특정한 목표를 달성하기 위해 따르는 규칙의 집합을 의미합니다. 입출력 및 입력에서 출력에 이르기까지 필요한 모든 단계를 정의하는 레시피라고 할 수 있습니다. 알고리즘을 요리에 비유하

2022년 6월 24일
·
0개의 댓글
·
post-thumbnail

[XAI] 1.1 기계학습이란?

머신러닝이란 무엇인가요?기계학습(Machine Learning)이란 '컴퓨터가 데이터를 기반으로 예측이나 행동을 만들고 이를 더 나은 방법으로 개선하는 데 사용하는 일련의 방법론'입니다. 즉 컴퓨터가 원하는 목표대로 짜여진 코드대로 동작하는 것이 아니라 주어진 데이터를

2022년 6월 24일
·
0개의 댓글
·

Class Activation Mapping

수능문제를 풀 때 과목을 넘나들면서 묻는 문제유형이 있다. "글쓴이(화자)의 의도로 올바른 것은?" 다른 사람의 의도를 알고 싶어하는 건 인간의 본능인 것 같다. 요즘은 사람속 뿐만 아니라 흔히들 블랙박스라고 부르는 머신러닝 model의 속도 알고 싶어한다.

2022년 4월 3일
·
0개의 댓글
·

Interpreting Graph Neural Network for NLP with differentiable Edge Masking 논문 리뷰

Abstract 최근 구조적인 Inductive Bias 개념을 NLP 모델에 적용하는 것이 인기가 많아지고 있다. 그런데 그래프의 어떤 부분이 예측에 기여하는지 해석에 대한 부분에는 아직 관심이 연구가 부족한 현황이다. 따라서 본 논문에서는 GNN의 예측을 해석함에 있어서 불필요한 edge를 식별하는 사후 방법에 대해 소개하고자 한다. 본론 본 논...

2022년 2월 13일
·
0개의 댓글
·

"Explainability methods for Graph Convolutional Neural Networks" 논문 리뷰

Abstract GCNN(Graph Convolutional Neural Networks)의 성장에 따라 이에 대한 설명 가능여부도 중요해짐. GCNNs를 위한 여러 Explainability Method에 대해 소개하고자 함 Contrastive gradient-bbased saliency maps(CG) Class Activation M...

2022년 2월 13일
·
0개의 댓글
·