728x90 반응형 SMALL 설명가능한 인공지능6 [eXplainable AI] SHAP SHAP (SHapley Additive exPlanations) SHAP은 1953년 Shapley가 처음으로 제안한 방안으로 게임 이론에 기반하며 모델에서 feature의 중요성에 대한 강력하고 통찰력 있는 해석을 제공한다. 2017년에 Lundberg와 Lee가 LightGBM, XGBoost, GBoost, CatBoost 및 Scikit-learn 트리 모델을 포함한 다양한 기술에 대해 SHAP를 계산할 수 있는 Python 패키지를 개발하였다. 다음 식은 SHAP 수식을 나타낸다. SHAP는 feature들을 추가 및 제거하는 dataset을 만들어 이를 선형 모델로 구성하고 이렇게 구성된 선형 모델의 가중치를 가지고 해석하는 방식으로 ‘특정 변수가 제거’되면 얼마나 예측에 변화를 주는지 살펴.. 2022. 5. 3. [eXplainable AI] Basic XAI with LIME for CNN Models LIME LIME 또는 Local Interpretable Model-Agnostic Explanations는 해석 가능한 모델을 사용하여 로컬로 근사함으로써 모든 분류기 또는 회귀자의 예측을 충실하게 설명할 수 있는 알고리즘이다. 특성 값을 조정하여 단일 데이터 샘플을 수정하고 결과적으로 출력에 미치는 영향을 관찰한다. 각 데이터 샘플의 예측을 설명하는 "설명자"의 역할을 수행한다. LIME의 출력은 로컬 해석 가능성의 한 형태인 단일 샘플에 대한 예측에 대한 각 기능의 기여도를 나타내는 일련의 설명이다. Keras에는 mnist 모듈 의 load_data() 메서드를 사용하여 로드할 수 있는 배포의 일부로 mnist 데이터 세트가 있다. 이 메서드는 지도 학습을 위해 정렬된 train 및 test 데.. 2022. 2. 10. [eXplainable AI] XAI method : LIME LIME LIME (Local Interpretable Model-agnostic Explanations)은 블랙박스 ML 모델의 개별 예측을 설명하는 데 쓰이는 해석 가능한 (interpretable) 모델이다. Surrogate Model Surrogate란, 본래 기능을 흉내내는 대체재를 만들어 프로토타입이 동작하는지 판단하는 분석 방법이다. XAI에서도 원래 AI 모델이 너무 복잡하여, 연산적인 제약으로 분석이 불가할 때 유사한 기능을 흉내내는 AI 모델 여러 개를 만들어 분석하는 것을 말한다. 분석해야 하는 모델을 f라고 할 때, 이를 흉내내는 모델 g를 만드는 것이 surrogate 분석이다. 이때 모델 g의 학습 방식은 f와 같을 수도, 다를 수도 있다. 모델 g의 조건 - 모델 f보다 학습.. 2022. 2. 10. [eXplainable AI] Categories of XAI XAI methods based on the data type XAI methods based on model training Post-hoc : 모델이 훈련되고 의사결정 단계에서 이 방법은 의사결정에 대한 설명을 생성한다. Intrinsic : 프로토타입과 같은 개념을 모델링하고 제약하는 추가 레이어는 기계 학습 방법의 아키텍처에 통합된다. 이러한 방식으로, 결정과 동시에 설명이 얻어진다. ◦ XAI methods based on model dependency : Model-dependent / agnostic ◦ XAI methods based on what they tell about the target instance Feature attribution Instance attribution Exa.. 2022. 2. 9. 설명가능한 인공지능 (XAI; eXplainable AI) 설명가능한 인공지능 (eXplainable AI) 설명가능한 인공지능 (XAI)는 ML 알고리즘으로 작성된 결과와 출력을 인간인 사용자가 이해하고 이를 신뢰할 수 있도록 해주는 일련의 프로세스와 방법론이다. XAI를 사용하면 AI 모델, 이의 예상된 영향 및 잠재적 편향을 기술할 수 있다. 이는 AI 기반 의사결정에서 모델 정확성, 공정성, 투명성 및 최종 결과를 특성화하는 데 유용하다. AI의 책임성과 모델 모니터링을 통해 AI 의사결정 프로세스를 완벽히 이해하는 것이 매우 중요하다. 이를 맹목적으로 신뢰하는 것은 자칫 위험할 수 있다. XAI는 인간이 ML 알고리즘, DL 및 신경망을 이해하고 설명하는 데 있어서 매우 유용하다. ML 모델은 종종 해석이 불가능한 블랙박스로 여겨져 왔다. DL에 사용되.. 2021. 12. 30. [NLP] 설명가능한 인공지능 (Explainable AI, XAI) 설명가능한 인공지능 (XAI) 언어 데이터를 대상으로 한 딥러닝 알고리즘의 예측결과에 대해 인간에게 설명할 수 있는 AI모델 딥러닝의 한계 : 'black box' algorithm, 예측결과가 그렇게 나왔는지 설명 불가능 ML은 기계가 인간 사용자에게 자신의 결정과 조치를 설명할 수 없다는 점에서 제한된다. 따라서 보다 지능적이고 자율적이며 공생적인 시스템을 요구하는 과제에 직면해 있다. 차세대 인공 지능 기계 파트너를 이해하고 적절하게 신뢰하고 효과적으로 관리하려면 설명 가능한 AI, 특히 설명 가능한 기계 학습이 필수적이다. ◦ 높은 수준의 학습 성능(예측 정확도)을 유지하면서 더 설명 가능한 모델 생성 ◦ 인간 사용자가 차세대 인공 지능 파트너를 이해하고 적절하게 신뢰하며 효과적으로 관리할 수 있.. 2021. 12. 14. 이전 1 다음 728x90 반응형 LIST