모델해석의 방법론으로써 instancewise feature selection을 제안한다. 우리들의 방법은 주어진 예시들로부터 가장 유익한 feature들의 부분집합을 추출하는 함수를 학습하는 것을 기반으로 한다. 이 feature selection은 선택된 feature들과 반응 변수들 사이에서 mutual information을 최대화하는 방향으로 훈련된다. 이 때 주어진 입력에 대한 반응 변수들의 조건부 분포는 설명되어져야하는 모델이다. 우리는 mutual information으로의 효과적인 variational approximation (변동 근사치)를 발전시키고 정량적 척도와 인간 평가를 사용하는 다양한 합성 및 실제 데이터 세트에서 우리들의 모델의 효과성을 보여준다.
http://proceedings.mlr.press/v80/chen18j/chen18j.pdf
없음
하고자 하는 것 : Mutual Information 기반으로 Black box model을 어떻게 잘 설명할 수 있을지에 대한 내용을 담고 있음.
Objective
- Maximize the mutual information ($MI$) between selected features($X_S$) and the response variable($Y$).
- Using variational approximation of $MI$
Related Works
LIME, DeepLIFT, CAM(PR-047)
Mutual Information
$$I(X;Y)=\mathbb{E}_{X,Y}[log \frac{P_{XY}(X,Y)}{P_X(X)P_Y(Y)}]$$
Explainer
$$S \sim \mathcal{E} (X)$$
$|S|=k$라는 constraint를 줌
Optimization Problem
Mutual Information을 계산하기 위해서는 Joint Dist와 Marginal Dist 모두를 알아야하지만 그것은 불가능하기 때문에 Lower Bound를 활용함.
Variational family for approximation
Lower Bounds of Mutual Information (KL Divergence > 0)
Optimization Problem 변경
본 논문에서는 Gumbel-softmax trick (PR-071)을 활용
Distribution을 통한 feature selection에서 Softmax에서 Backpropagation이 끊기는 것을 방지하기 위해 (5) VAE에서 활용하는 reparameterization 방법도 있고 (3)처럼 RL Policy Gradient처럼 사용하는 방법도 있음. (우회 Bypass를 통한 미분 업데이트)
본 논문에서는 (5)처럼 사용. 단 이 때 Gaussian 대신 Gambel 사용
Optimization Problem으로 1개의 식에서 parameter가 2개로 동시에 업데이트 됨
1) X 이미지 -> Black Box Model로 Classification을 우선 진행함
2) X 이미지 -> Explainer에 넣고 어떤 Pixel이 중요한지 뽑음 -> X를 곱해서 중요한 Pixel 외 나머지 제거 -> Variational Approximation을 통해 어떤 이미지인지 뽑음
3) Minimize Loss
4) Backpropagation을 통해 중요한 Pixel을 잘 뽑을 수 있는 Explainer 구성이 가능
Experiment
낮은 Median Rank가 좋은 것을 의미하는데 L2X 본인들의 모델이 더 좋은 것을 확인할 수 있음.
왜 Model이 그렇게 판단했는지 노란색 단어들이 나타냄. 이를 Model Interpretator로 이야기할 수 있다고 말함.
LIME은 시간이 오래 걸리지만 L2X가 어떤 feature가 중요한지 빠르게 뽑을 수 있다.
https://github.com/Jianbo-Lab/L2X