# SHAP

13개의 포스트
post-thumbnail

[논문 정리] “Why Should I Trust You?” Explaining the Predictions of Any Classifier

이번에 정리할 논문은 LIME(Local Interpretable Model-Agnostic Explanation) 기법을 제안한 “Why Should I Trust You?” Explaining the Predictions of Any Classifier 입니다.

2022년 9월 13일
·
0개의 댓글
·
post-thumbnail

[ML] Interpreting ML Model

Permutation Importances / PDP / SHAP

2022년 1월 17일
·
0개의 댓글
·

Project02_Ai_D42

이번 프로젝트는 그 동안 배운 모델을 이용하여 실제 머신러닝 모델을 만들어 예측하는 프로제트였다.문제를 직접 수립하고 데이터 또한 직접 선정하여 프로젝트를 진행했다. 2022년 카타르 월드컵 결과를 예측하는 모델을 이번 프로젝트 주제로 정했다.모델을 적요하기전 EDA과

2022년 1월 13일
·
0개의 댓글
·
post-thumbnail

Shap repo 삽질기

개발했던 deep learning 추천 시스템에 shap(https://github.com/slundberg/shap) 을 적용해보았다.이때 발견했던 해당 레포의 문제점들과, 삽질들, 해결과정을 기록한다.아래 내용은 2021년 9월 29일에 적용해보았던 내용으

2021년 12월 20일
·
1개의 댓글
·
post-thumbnail

Shap으로 deeplearning model 을 진단해보자

학습된 deeplearning 모델에 feature 를 입력하면 output 을 얻어낼 수 있다.그런데 deeplearning 모델 자체만으로는, 무엇때문에, 구체적으로 어떤 feature 때문에 그런 output 이 나왔는지, 그 이유를 알기 힘들다.이것에 대한 해답

2021년 9월 29일
·
0개의 댓글
·
post-thumbnail

[코드리뷰] SHAP - for boston dataset

SHAP 실습 – 보스턴 주택 가격에 대한 설명

2021년 9월 23일
·
0개의 댓글
·
post-thumbnail

[개념정리]SHAP(Shapley Additive exPlanations)

SHAP에 대해 간략하게 정리한 글입니다.

2021년 9월 23일
·
0개의 댓글
·
post-thumbnail

[모델리뷰] eXplainable Object Detection

SHAPley Values를 이용해 설명가능한 객체 감지 모델을 구축하는 방법에 대해 기술한 글입니다.

2021년 7월 24일
·
0개의 댓글
·
post-thumbnail

LightGBM feature importance

Kaggle, Dacon 또는 실제 모델링을 하다보면 feature를 여러개 추가해서 학습을 하게 된다. 이때, feature가 너무 많으면 오히려 학습에 방해되는데 필요없는 feature들은 제거하는 것이 좋다. 이때 어떤 feature를 살리고 버려야 할까?

2021년 7월 18일
·
1개의 댓글
·
post-thumbnail

[2주차] SHAP (SHapley Additive exPlanation)

SHAP (SHapley Additive exPlanation)

2021년 4월 28일
·
0개의 댓글
·

Optimal threshold

Threshold

2021년 4월 23일
·
0개의 댓글
·

PDP, Shap

Interpretable ML examples

2021년 4월 22일
·
0개의 댓글
·
post-thumbnail

Explaining Anomalies Detected by Autoencoders Using SHAP

Antwarg, Liat, et al. "Explaining anomalies detected by autoencoders using SHAP."

2021년 4월 19일
·
0개의 댓글
·