본문 바로가기
728x90
반응형
SMALL

AI-driven Methodology/XAI (eXplainable AI)15

[eXplainable AI] XAI method : Grad-CAM CAM (Class Activation Mapping) CAM (Class Activation Map)은 CNN을 하는데 있어 이미지의 어떤 부분이 결정에 가장 큰 영향을 주는지에 대해 분석하는 목적으로 시작되었다. 대부분의 Image Classification 모델들은 여러 층의 Convolutional layer을 걸친 뒤 Fully-Connected Layer를 통해서 Classification을 진행하게 된다. 하지만 Convolutional layer는 layer를 거친 뒤에서 spatial information을 보존하지만 Fully-Connected Layer는 flatten 과정을 거치게 되면 spatial information의 손실이 발생하게 된다. 그래서 CAM은 Convolution.. 2022. 2. 10.
[eXplainable AI] Basic XAI with LIME for CNN Models LIME LIME 또는 Local Interpretable Model-Agnostic Explanations는 해석 가능한 모델을 사용하여 로컬로 근사함으로써 모든 분류기 또는 회귀자의 예측을 충실하게 설명할 수 있는 알고리즘이다. 특성 값을 조정하여 단일 데이터 샘플을 수정하고 결과적으로 출력에 미치는 영향을 관찰한다. 각 데이터 샘플의 예측을 설명하는 "설명자"의 역할을 수행한다. LIME의 출력은 로컬 해석 가능성의 한 형태인 단일 샘플에 대한 예측에 대한 각 기능의 기여도를 나타내는 일련의 설명이다. Keras에는 mnist 모듈 의 load_data() 메서드를 사용하여 로드할 수 있는 배포의 일부로 mnist 데이터 세트가 있다. 이 메서드는 지도 학습을 위해 정렬된 train 및 test 데.. 2022. 2. 10.
[eXplainable AI] XAI method : LIME LIME LIME (Local Interpretable Model-agnostic Explanations)은 블랙박스 ML 모델의 개별 예측을 설명하는 데 쓰이는 해석 가능한 (interpretable) 모델이다. Surrogate Model Surrogate란, 본래 기능을 흉내내는 대체재를 만들어 프로토타입이 동작하는지 판단하는 분석 방법이다. XAI에서도 원래 AI 모델이 너무 복잡하여, 연산적인 제약으로 분석이 불가할 때 유사한 기능을 흉내내는 AI 모델 여러 개를 만들어 분석하는 것을 말한다. 분석해야 하는 모델을 f라고 할 때, 이를 흉내내는 모델 g를 만드는 것이 surrogate 분석이다. 이때 모델 g의 학습 방식은 f와 같을 수도, 다를 수도 있다. 모델 g의 조건 - 모델 f보다 학습.. 2022. 2. 10.
[eXplainable AI] Categories of XAI XAI methods based on the data type XAI methods based on model training Post-hoc : 모델이 훈련되고 의사결정 단계에서 이 방법은 의사결정에 대한 설명을 생성한다. Intrinsic : 프로토타입과 같은 개념을 모델링하고 제약하는 추가 레이어는 기계 학습 방법의 아키텍처에 통합된다. 이러한 방식으로, 결정과 동시에 설명이 얻어진다. ◦ XAI methods based on model dependency : Model-dependent / agnostic ◦ XAI methods based on what they tell about the target instance Feature attribution Instance attribution Exa.. 2022. 2. 9.
설명가능한 인공지능 (XAI; eXplainable AI) 설명가능한 인공지능 (eXplainable AI) 설명가능한 인공지능 (XAI)는 ML 알고리즘으로 작성된 결과와 출력을 인간인 사용자가 이해하고 이를 신뢰할 수 있도록 해주는 일련의 프로세스와 방법론이다. XAI를 사용하면 AI 모델, 이의 예상된 영향 및 잠재적 편향을 기술할 수 있다. 이는 AI 기반 의사결정에서 모델 정확성, 공정성, 투명성 및 최종 결과를 특성화하는 데 유용하다. AI의 책임성과 모델 모니터링을 통해 AI 의사결정 프로세스를 완벽히 이해하는 것이 매우 중요하다. 이를 맹목적으로 신뢰하는 것은 자칫 위험할 수 있다. XAI는 인간이 ML 알고리즘, DL 및 신경망을 이해하고 설명하는 데 있어서 매우 유용하다. ML 모델은 종종 해석이 불가능한 블랙박스로 여겨져 왔다. DL에 사용되.. 2021. 12. 30.
728x90
반응형
LIST