머신러닝 & 딥러닝

XAI, LIME

에멜라 2024. 2. 5. 20:00

https://myeonghak.github.io/xai/XAI-LIME(Local-Interpretable-Model-agnostic-Explanation)-%EC%95%8C%EA%B3%A0%EB%A6%AC%EC%A6%98/

 

[XAI] LIME(Local Interpretable Model-agnostic Explanation) 알고리즘

blackbox 모델을 지역적으로 근사함으로써 설명 가능성을 제공하는 LIME 알고리즘에 대해 살펴봅니다.

myeonghak.github.io

 

https://www.youtube.com/watch?v=d6j6bofhj2M

https://dreamgonfly.github.io/blog/lime/

 

머신러닝 모델의 블랙박스 속을 들여다보기 : LIME | Dreamgonfly's blog

머신 러닝 모델에 대해서 예측의 이유를 설명하는 것은 어렵습니다. 모델이 복잡해질수록 예측의 정확도는 올라가지만, 결과의 해석은 어려워지죠. 그렇기 때문에 많은 머신 러닝 모델들이 블

dreamgonfly.github.io

https://coderzcolumn.com/tutorials/machine-learning/how-to-use-lime-to-understand-sklearn-models-predictions

 

How to Use LIME to Interpret Predictions of ML Models [Python]? by Sunny Solanki

A detailed guide on how to use Python library lime (implements LIME algorithm) to interpret predictions made by Machine Learning (scikit-learn) models. LIME is commonly used to explain black-box as well as white-box ML models. We have explained usage for s

coderzcolumn.com

왜 안될까?