728x90 반응형 SMALL lime3 [eXplainable AI] Basic XAI with LIME for CNN Models LIME LIME 또는 Local Interpretable Model-Agnostic Explanations는 해석 가능한 모델을 사용하여 로컬로 근사함으로써 모든 분류기 또는 회귀자의 예측을 충실하게 설명할 수 있는 알고리즘이다. 특성 값을 조정하여 단일 데이터 샘플을 수정하고 결과적으로 출력에 미치는 영향을 관찰한다. 각 데이터 샘플의 예측을 설명하는 "설명자"의 역할을 수행한다. LIME의 출력은 로컬 해석 가능성의 한 형태인 단일 샘플에 대한 예측에 대한 각 기능의 기여도를 나타내는 일련의 설명이다. Keras에는 mnist 모듈 의 load_data() 메서드를 사용하여 로드할 수 있는 배포의 일부로 mnist 데이터 세트가 있다. 이 메서드는 지도 학습을 위해 정렬된 train 및 test 데.. 2022. 2. 10. [eXplainable AI] XAI method : LIME LIME LIME (Local Interpretable Model-agnostic Explanations)은 블랙박스 ML 모델의 개별 예측을 설명하는 데 쓰이는 해석 가능한 (interpretable) 모델이다. Surrogate Model Surrogate란, 본래 기능을 흉내내는 대체재를 만들어 프로토타입이 동작하는지 판단하는 분석 방법이다. XAI에서도 원래 AI 모델이 너무 복잡하여, 연산적인 제약으로 분석이 불가할 때 유사한 기능을 흉내내는 AI 모델 여러 개를 만들어 분석하는 것을 말한다. 분석해야 하는 모델을 f라고 할 때, 이를 흉내내는 모델 g를 만드는 것이 surrogate 분석이다. 이때 모델 g의 학습 방식은 f와 같을 수도, 다를 수도 있다. 모델 g의 조건 - 모델 f보다 학습.. 2022. 2. 10. [eXplainable AI] Categories of XAI XAI methods based on the data type XAI methods based on model training Post-hoc : 모델이 훈련되고 의사결정 단계에서 이 방법은 의사결정에 대한 설명을 생성한다. Intrinsic : 프로토타입과 같은 개념을 모델링하고 제약하는 추가 레이어는 기계 학습 방법의 아키텍처에 통합된다. 이러한 방식으로, 결정과 동시에 설명이 얻어진다. ◦ XAI methods based on model dependency : Model-dependent / agnostic ◦ XAI methods based on what they tell about the target instance Feature attribution Instance attribution Exa.. 2022. 2. 9. 이전 1 다음 728x90 반응형 LIST