5. 第二回ザッピングセミナー 原聡
“機械学習の説明”の有名な方法:LIME
n Why Should I Trust You?: Explaining the Predictions of
Any Classifier, KDD'16 [Python実装 LIME; R実装 LIME]
• どの特徴が予測に重要だったかを提示する。
• モデルを説明対象データの周辺で線形モデルで近似する。
- 線形モデルの係数の大小で、各特徴の重要度合いを測る。
5
Why Should I Trust You?: Explaining the Predictions of Any Classifierより引用
準備
7. 第二回ザッピングセミナー 原聡
LIMEの応用例
n 画像認識の説明
n モデルのデバッグ
• 狼 vs ハスキーの分類
• 狼画像として、雪背景
のもののみを使用。
→ LIMEにより、モデルが
雪を根拠に狼を認識
していることがわかる。 7
Why Should I Trust You?: Explaining the Predictions of Any Classifier より引用
準備
9. 第二回ザッピングセミナー 原聡
“機械学習の説明”で嘘をつく
n Q. 嘘の説明って何?
A. モデル!の実態を反映していない説明。
n Q. なぜ嘘をつくの?
A. 嘘をつくと得することがあるから。
n Q. どんなときに嘘をつくと得するの?
A. お金が絡むと嘘をつくインセンティブは生まれやすい。
モデル!を過剰によく見せて売り込みたい、とか。
n Q. なぜ嘘の説明の研究するの?あなた悪い人?
A. 良い人のつもり。どんな嘘が技術的に可能か、を知らな
いと対策が考えられない。セキュリティ研究に近い。
9
嘘の説明
10. 第二回ザッピングセミナー 原聡
嘘をついて得する代表例:公平性
n 性別や人種で差別する不公平なモデルは悪いモデル。
• 男性と女性とで基準が異なる学力評価モデル。
• 黒人と白人とで基準が異なるローン審査モデル。
n 大前提:著しく不公平なモデルは使われるべきではない。
n でも、もしも不公平なモデルを使ってるとバレなかったら?
• 特定の性別の学生が高い評価を得やすくなる。
- 特定の性別の学生の士気が上がる(かもしれない)。
- 被差別側の性別の学生が少数派の場合、不満を黙殺しやすい。
• 特定の人種の人がローンを組みやすくなる。
- 人種間で収入格差がある場合、高収入の人種を優遇した方が
金融機関としてはリスクが下がる。
10
嘘の説明
20. 第二回ザッピングセミナー 原聡
結果例
n Adultデータでの結果
• 説明における各特徴の重要度をFairMLツールにより計測
20
正直な説明 偽りの説明
gender
gender
If
else if
else if
else if
else if
else low-income
then high-income
then low-income
then low-income
then low-income
then high-income
capital gain > 7056
marital = single
education = HS-grad
occupation = other
occupation = white-colloar
偽りの説明
【補足】
LIMEでは線形モデルで近似してい
たが、ここではルールリストを採用。
研究1
第二回ザッピングセミナー 原聡
23. 第二回ザッピングセミナー 原聡
今日のまとめ
n Q. 嘘の説明って何?
A. モデル!の実態を反映していない説明。
n Q. なぜ嘘をつくの?
A. 嘘をつくと得することがあるから。
n Q. どんなときに嘘をつくと得するの?
A. お金が絡むと嘘をつくインセンティブは生まれやすい。
モデル!を過剰によく見せて売り込みたい、とか。
n Q. なぜ嘘の説明の研究するの?あなた悪い人?
A. 良い人のつもり。どんな嘘が技術的に可能か、を知らな
いと対策が考えられない。セキュリティ研究に近い。
23