# SHAP

[논문 정리] “Why Should I Trust You?” Explaining the Predictions of Any Classifier
이번에 정리할 논문은 LIME(Local Interpretable Model-Agnostic Explanation) 기법을 제안한 “Why Should I Trust You?” Explaining the Predictions of Any Classifier 입니다.
Project02_Ai_D42
이번 프로젝트는 그 동안 배운 모델을 이용하여 실제 머신러닝 모델을 만들어 예측하는 프로제트였다.문제를 직접 수립하고 데이터 또한 직접 선정하여 프로젝트를 진행했다. 2022년 카타르 월드컵 결과를 예측하는 모델을 이번 프로젝트 주제로 정했다.모델을 적요하기전 EDA과

Shap repo 삽질기
개발했던 deep learning 추천 시스템에 shap(https://github.com/slundberg/shap) 을 적용해보았다.이때 발견했던 해당 레포의 문제점들과, 삽질들, 해결과정을 기록한다.아래 내용은 2021년 9월 29일에 적용해보았던 내용으

Shap으로 deeplearning model 을 진단해보자
학습된 deeplearning 모델에 feature 를 입력하면 output 을 얻어낼 수 있다.그런데 deeplearning 모델 자체만으로는, 무엇때문에, 구체적으로 어떤 feature 때문에 그런 output 이 나왔는지, 그 이유를 알기 힘들다.이것에 대한 해답

[모델리뷰] eXplainable Object Detection
SHAPley Values를 이용해 설명가능한 객체 감지 모델을 구축하는 방법에 대해 기술한 글입니다.
LightGBM feature importance
Kaggle, Dacon 또는 실제 모델링을 하다보면 feature를 여러개 추가해서 학습을 하게 된다. 이때, feature가 너무 많으면 오히려 학습에 방해되는데 필요없는 feature들은 제거하는 것이 좋다. 이때 어떤 feature를 살리고 버려야 할까?

Explaining Anomalies Detected by Autoencoders Using SHAP
Antwarg, Liat, et al. "Explaining anomalies detected by autoencoders using SHAP."