G検定対策 究極カンペをつくろう#11|モデルの解釈性(CAM / Grad-CAM / LIME / Permutation Importance / SHAP / XAI)

G検定対策 究極カンペをつくろう#11|モデルの解釈性(CAM / Grad-CAM / LIME / Permutation Importance / SHAP / XAI) G検定
G検定対策 究極カンペをつくろう#11|モデルの解釈性(CAM / Grad-CAM / LIME / Permutation Importance / SHAP / XAI)

「引用は出典リンク必須・必要最小限」「FAQ全文転載・図表転載は禁止」「社内資料/研修利用は要連絡」

バックナンバーはこちら

はじめに(今回の狙い)

学習目標は次の3つである。

  • モデルの解釈性が必要な背景について理解する
  • 解釈性が必要なユースケースについて理解する
  • 解釈性の向上に寄与する代表的手法について理解する

キーワードは、CAM、Grad-CAM、LIME、Permutation Importance、SHAP、説明可能AI(XAI)である。

動画シリーズ

G検定の究極カンペ関連動画の再生リスト

全体構成(背景→ユースケース→分類軸→代表手法)

本記事の全体構成。背景(なぜ必要か)→ユースケース(どこで必要か)→分類軸(グローバル/ローカル、モデル非依存/依存)→代表手法(CAM・Grad-CAM・LIME・Permutation Importance・SHAP)へと整理して理解する流れを示す図。
図:全体構成(背景→ユースケース→分類軸→代表手法)

背景:なぜ解釈性が必要か

解釈性が必要になる起点は単純である。ディープラーニングは高精度だが、内部の意思決定過程が不透明になりやすい。ここに「高リスク領域での利用」「説明責任」「バイアス・不公平リスク」が重なると、精度だけでは運用が成立しない。つまり、解釈性は「理解のための贅沢品」ではなく、信頼・監査・安全のためのインフラである。

特に高リスク領域では、次の問いに答えられないことが致命傷になる。

  • なぜこの診断になったのか(医療)
  • なぜこの審査結果になったのか(金融)
  • なぜその操作を選んだのか(自動運転)
  • なぜこの応募者を落としたのか(雇用・採用)

この問いに答えられないモデルは、外部説明に失敗するだけでなく、内部改善も遅れる。解釈性の欠如は「説明できない」だけではない。「直せない」「監査に耐えない」「危険を予測できない」へ連鎖するのである。

拡大図(背景ブロック)

ディープラーニングのブラックボックス性に、高リスク領域での利用・法規制/説明責任・バイアス/不公平リスクが重なり、「モデルの解釈性の必要性」へ至る関係を示す図。
図:背景(解釈性が必要になる要因の因果図)

ユースケース:どこで必要か

解釈性が必要になる場面は「外向き」と「内向き」に割れる。外向きは、顧客・医師・審査担当などへの説明である。内向きは、開発・監査・安全担当のための原因究明である。重要なのは、どちらも最終的に信頼と社会的受容性へ接続している点である。

たとえば誤分類が起きたとき、解釈性がなければ「原因不明の不具合」として扱うしかない。逆に解釈性があれば、「実は背景パターンを見ていた」「特定属性に強く引っ張られていた」といった“誤りの形”が見える。これにより、データ収集・前処理・モデル設計・評価軸の見直しまで、改善が一本の線で進む。

拡大図(ユースケースブロック)

「モデルの解釈性の必要性」から、意思決定の説明、モデルのデバッグ/改善、バイアス検知/監査、安全性/リスク評価へ分岐し、最終的に利用者の信頼・社会的受容性につながる流れを示す図。
図:ユースケース(外向き/内向きから信頼へ)

解釈性の観点:グローバル/ローカル

解釈性には「観点」がある。ここを曖昧にすると、手法の暗記がすべて崩れる。観点は2つである。

  • グローバル:モデル全体として何を重視しているか
  • ローカル:この1件について、なぜこの予測になったか

例として住宅価格予測を考える。グローバルでは「駅距離と面積が重要」「築年数は中程度」など、全体傾向が知りたい。ローカルでは「この家が高いのは駅近+広さが効いた」など、個別の根拠が知りたい。G検定は、この切り分けを前提に用語を問うてくるため、先に軸を立てておくべきである。

拡大図(観点ブロック)

グローバル説明(モデル全体の傾向)とローカル説明(個別予測の理由)の2つの観点が、どちらも利用者の信頼につながることを示す図。
図:解釈性の観点(グローバル説明とローカル説明)

手法の性質:モデル非依存/モデル依存

次の分類軸は「どのモデルに使えるか」である。ここも試験では頻出である。

  • モデル非依存(Model-agnostic):中身に触れず、入出力と評価で説明する
  • モデル依存(Model-specific):構造や勾配など内部情報を使って説明する

モデル非依存は汎用性が高い反面、近似や計算コストの問題が出やすい。モデル依存は適用範囲が狭い反面、画像ヒートマップのように直観に刺さりやすい説明が得られる。実務でも試験でも、このトレードオフを言語化できることが強い。

拡大図(性質ブロック)

モデル非依存(入出力から説明する)とモデル依存(構造や勾配など内部情報で説明する)の分類軸を示す図。
図:手法の性質(モデル非依存とモデル依存)

代表的XAI手法:5人を分類軸に刺す

ここまでで「背景→ユースケース→観点→性質」という枠組みが整った。次に、代表手法をこの枠組みに固定する。固定とは、一言定義+(グローバル/ローカル)+(依存/非依存)の3点セットである。

拡大図(XAI→手法ブロック)

説明可能AI(XAI)から、CAM、Grad-CAM、LIME、Permutation Importance、SHAPの5つの代表手法へ整理して示す図。
図:代表的XAI手法(XAIから5手法への整理)

CAM(Class Activation Map)

CAMは、CNNが画像分類をするときに「どの領域がそのクラス判断に効いたか」を可視化する手法である。ヒートマップが画像に重なる形で出るため、説明として直観に乗りやすい。ポイントは、“この1枚”に対してどこを見たのかを示すため、ローカル説明であることだ。

  • 観点:ローカル
  • 性質:モデル依存(主にCNN構造に依存)

Grad-CAM

Grad-CAMは、CAMの考え方を「勾配(Gradient)」で拡張し、より広いCNNに適用しやすくした手法である。ここで覚えるべき芯は、Grad-CAMは「ヒートマップを出す」だけではなく、勾配情報で重み付けして局在化する点である。したがって、CAMと同じくローカル×モデル依存に置く。

  • 観点:ローカル
  • 性質:モデル依存

LIME(Local Interpretable Model-agnostic Explanations)

LIMEは名前の通り「ローカル」かつ「モデル非依存」である。やっていることは、対象サンプルの近傍で入力を少しずつ揺らし、その近傍だけを単純な代理モデル(線形モデルなど)で近似して説明する、という発想である。

重要なのは、LIMEの説明は「モデルの真の内部」を開いているわけではない点である。あくまで局所近傍での近似である。したがって、サンプリングや近傍の定義により説明が揺れることがある。この性質まで含めて「LIMEらしさ」である。

  • 観点:ローカル
  • 性質:モデル非依存

Permutation Importance(特徴量入れ替え重要度)

Permutation Importanceは、特徴量をシャッフル(入れ替え)したときに性能がどれだけ落ちるかで重要度を測る手法である。直観は「その特徴を壊したらどれだけ困るか」である。個別予測の理由というより、モデル全体での重要度を測るため、グローバル説明に置く。

注意点として、特徴量同士が強く相関している場合、入れ替えの影響が単純に読めないことがある。重要度が分散したり、解釈が歪む可能性がある。とはいえ概念は単純で、試験でも実務でも入口として強い。

  • 観点:グローバル
  • 性質:モデル非依存

SHAP(SHapley Additive exPlanations)

SHAPは、ゲーム理論のShapley値に基づき、予測に対する各特徴量の寄与を加法的に分解して説明する枠組みである。1サンプルに対して「この特徴がプラス寄与」「この特徴がマイナス寄与」という形で出せるためローカル説明になる。さらにそれを集計すれば、モデル全体としての傾向(グローバル)も見えてくる。よって、SHAPはローカル&グローバルにまたがる。

ただし強力であるぶん、計算が重くなりやすい。現実の運用では近似や高速化の工夫とセットで語られることが多い。試験ではまず「寄与分解」「両対応」「非依存」を芯として押さえるべきである。

  • 観点:ローカル&グローバル
  • 性質:モデル非依存(思想として)

まとめ:究極カンペ(1枚)に圧縮する

ここまでの要点は、手法を“丸暗記”することではない。背景→ユースケース→分類軸→手法の順で、頭の中に棚を作り、そこへ用語を配置することである。棚ができると、用語が増えても破綻しない。これが「究極カンペ=知識体系」という裏テーマの意味である。

  • 背景:高精度なブラックボックスが、高リスク領域に入ってきたため、説明責任や公平性の要請が強まった
  • ユースケース:説明・デバッグ・監査・安全のすべてが信頼と社会的受容性に接続する
  • 分類軸:グローバル/ローカル、非依存/依存の2軸で代表手法が整理できる
  • 配置:
    • CAM/Grad-CAM=ローカル×モデル依存
    • LIME=ローカル×モデル非依存
    • Permutation Importance=グローバル×モデル非依存
    • SHAP=ローカル&グローバル×モデル非依存

最後に、試験直前に見るべき3行だけ残す。

  • 解釈性は「高リスク×説明責任×バイアス」で必須になる。
  • 手法はまず「グローバル/ローカル」と「非依存/依存」の軸で置く。
  • CAM/Grad-CAM=画像局所、LIME=局所近似、PI=全体重要度、SHAP=寄与分解で両対応。

FAQ

Q1. 「解釈性」と「説明可能AI(XAI)」は同じであるか?

同一ではない。解釈性は「理解できる状態」全般を指す概念である。XAIは、特にブラックボックスモデルに対して事後的に説明を与える技術群として語られることが多い。

Q2. グローバル説明とローカル説明はどう違うのであるか?

グローバルはモデル全体の傾向であり、ローカルは特定入力に対する予測理由である。G検定では、手法がどちら寄りかを即答できると強い。

Q3. CAMとGrad-CAMの違いは何であるか?

どちらも画像の「見ていた領域」を示すが、Grad-CAMは勾配情報を使ってより汎用的に適用しやすい点が核である。

Q4. LIMEとSHAPの違いは何であるか?

LIMEは局所近傍で代理モデルを当てて説明する。SHAPはShapley値に基づき寄与を加法的に分解し、ローカル説明とグローバル傾向の両方に接続しやすい。

Q5. Permutation Importanceの落とし穴は何であるか?

特徴量間の相関が強いと、入れ替えによる性能低下の解釈が単純でなくなる場合がある。


「引用は出典リンク必須・必要最小限」「FAQ全文転載・図表転載は禁止」「社内資料/研修利用は要連絡」

参考文献(個人ブログ、企業ブログは除外/URL併記)


バックナンバーはこちら

深層学習教科書 ディープラーニング G検定(ジェネラリスト)公式テキスト 第3版

Amazon.co.jp: 深層学習教科書 ディープラーニング G検定(ジェネラリスト)公式テキスト 第3版 eBook : 山下 隆義, 猪狩 宇司, 今井 翔太, 巣籠 悠輔, 瀬谷 啓介, 徳田 有美子, 中澤 敏明, 藤本 敬介, 古川 直裕, 松尾 豊, 松嶋 達也, 一般社団法人日本ディープラーニング協会: Kindleストア
Amazon.co.jp: 深層学習教科書 ディープラーニング G検定(ジェネラリスト)公式テキスト 第3版 eBook : 山下 隆義, 猪狩 宇司, 今井 翔太, 巣籠 悠輔, 瀬谷 啓介, 徳田 有美子, 中澤 敏明, 藤本 敬介, ...

徹底攻略ディープラーニングG検定ジェネラリスト問題集 第3版 徹底攻略シリーズ

徹底攻略ディープラーニングG検定ジェネラリスト問題集 第3版 徹底攻略シリーズ | 株式会社スキルアップNeXt 小縣 信也, 株式会社スキルアップNeXt 斉藤 翔汰, 株式会社スキルアップNeXt 森田 大樹, 株式会社スキルアップNeXt 田澤 賢, 株式会社スキルアップNeXt 小宮 寛季, 株式会社スキルアップNeXt 山田 弦太朗, 株式会社スキルアップNeXt 安藤 遼哉, 株式会社ソキウス・ジャパン, 杉山 将 | 工学 | Kindleストア | Amazon
Amazonで株式会社スキルアップNeXt 小縣 信也, 株式会社スキルアップNeXt 斉藤 翔汰, 株式会社スキルアップNeXt 森田 大樹, 株式会社スキルアップNeXt 田澤 賢, 株式会社スキルアップNeXt 小宮 寛季, 株式会社...

ディープラーニングG検定(ジェネラリスト) 法律・倫理テキスト

ディープラーニングG検定(ジェネラリスト) 法律・倫理テキスト | 古川 直裕, 渡邊 道生穂, 柴山 吉報, 一般社団法人 日本ディープラーニング協会 |本 | 通販 | Amazon
Amazonで古川 直裕, 渡邊 道生穂, 柴山 吉報, 一般社団法人 日本ディープラーニング協会のディープラーニングG検定(ジェネラリスト) 法律・倫理テキスト。アマゾンならポイント還元本が多数。古川 直裕, 渡邊 道生穂, 柴山 吉報,...

コメント

タイトルとURLをコピーしました