아이공의 AI 공부 도전기

PR-106 "Learning to Explain: An Information-Theoretic Perspective on Model Interpretation" Review (2018 ICML)

 

 

 

 

1. Citations & Abstract 읽기

Citations : 2021.12.15 기준 264회

Abstract

모델해석의 방법론으로써 instancewise feature selection을 제안한다. 우리들의 방법은 주어진 예시들로부터 가장 유익한 feature들의 부분집합을 추출하는 함수를 학습하는 것을 기반으로 한다. 이 feature selection은 선택된 feature들과 반응 변수들 사이에서 mutual information을 최대화하는 방향으로 훈련된다. 이 때 주어진 입력에 대한 반응 변수들의 조건부 분포는 설명되어져야하는 모델이다. 우리는 mutual information으로의 효과적인 variational approximation (변동 근사치)를 발전시키고 정량적 척도와 인간 평가를 사용하는 다양한 합성 및 실제 데이터 세트에서 우리들의 모델의 효과성을 보여준다.

 

2. 발표 정리

 

PR-106 Junsung Yoon 발표 영상, 2018.10.01

 

공식 논문 링크

http://proceedings.mlr.press/v80/chen18j/chen18j.pdf

 

Presentation Slide

없음

Contents

하고자 하는 것 : Mutual Information 기반으로 Black box model을 어떻게 잘 설명할 수 있을지에 대한 내용을 담고 있음.

 

Objective

- Maximize the mutual information ($MI$) between selected features($X_S$) and the response variable($Y$).

- Using variational approximation of $MI$

 

Related Works

LIME, DeepLIFT, CAM(PR-047)

 

Mutual Information

$$I(X;Y)=\mathbb{E}_{X,Y}[log \frac{P_{XY}(X,Y)}{P_X(X)P_Y(Y)}]$$

 

Explainer

$$S \sim \mathcal{E} (X)$$

$|S|=k$라는 constraint를 줌

 

Optimization Problem

Mutual Information을 계산하기 위해서는 Joint Dist와 Marginal Dist 모두를 알아야하지만 그것은 불가능하기 때문에 Lower Bound를 활용함.

Variational family for approximation

Lower Bounds of Mutual Information (KL Divergence > 0)

Optimization Problem 변경

기존 원하고자 하던 Optimzation

 

우리가 구하려는 Optimzation

본 논문에서는 Gumbel-softmax trick (PR-071)을 활용

Distribution을 통한 feature selection에서 Softmax에서 Backpropagation이 끊기는 것을 방지하기 위해 (5) VAE에서 활용하는 reparameterization 방법도 있고 (3)처럼 RL Policy Gradient처럼 사용하는 방법도 있음. (우회 Bypass를 통한 미분 업데이트)

 

본 논문에서는 (5)처럼 사용. 단 이 때 Gaussian 대신 Gambel 사용

Optimization Problem으로 1개의 식에서 parameter가 2개로 동시에 업데이트 됨

 

1) X 이미지 -> Black Box Model로 Classification을 우선 진행함

2) X 이미지 -> Explainer에 넣고 어떤 Pixel이 중요한지 뽑음 -> X를 곱해서 중요한 Pixel 외 나머지 제거 -> Variational Approximation을 통해 어떤 이미지인지 뽑음

3) Minimize Loss

4) Backpropagation을 통해 중요한 Pixel을 잘 뽑을 수 있는 Explainer 구성이 가능

 

Experiment

 

낮은 Median Rank가 좋은 것을 의미하는데 L2X 본인들의 모델이 더 좋은 것을 확인할 수 있음.

 

왜 Model이 그렇게 판단했는지 노란색 단어들이 나타냄. 이를 Model Interpretator로 이야기할 수 있다고 말함.

 

LIME은 시간이 오래 걸리지만 L2X가 어떤 feature가 중요한지 빠르게 뽑을 수 있다.

 

 

 

 

 

참조

공식 GitHub

https://github.com/Jianbo-Lab/L2X

 

GitHub - Jianbo-Lab/L2X

Contribute to Jianbo-Lab/L2X development by creating an account on GitHub.

github.com

 

 

공유하기

facebook twitter kakaoTalk kakaostory naver band
loading