説明可能なAI[1](せつめいかのうなエーアイ、英語: explainable artificial intelligence、略称XAI)またはAIを説明するための技術[2]は、人工知能 (AI) が導き出した答えに対して、人間が納得できる根拠を示すための技術である[3]。特定の技術やツールを指し示す言葉ではなく、「AIを理解する」という目的のために研究・提案されている技術の総称である[4]。XAIという用語は2017年4月から始まったアメリカ合衆国DARPA主導による研究プロジェクト(XAIプロジェクト)を契機として広く浸透した[1]

背景

編集

2010年代初頭の第三次AIブーム到来によりAIの利活用領域は多方面に広がり、自動運転車病気診断など、影響の大きな、高い信頼性が求められる分野での利用も視野に入れられるようになってきた[5]。一般的なソフトウェアと異なり、機械学習により条件やルールなどを学習させて処理結果を出力するAIでは、人の意思決定に関わる柔軟な対応が求められる複雑な業務に利用ができる反面、柔軟な処理を行うからこそ、その処理結果の根拠を明確に提示できないという課題を持っていた[6]。こうした背景からAI分野において公平性、説明責任、透明性といった倫理性が求められるようになった[6]。ホワイトハウスは2016年10月、米国人工知能研究開発戦略計画を発表し、これを受けてDARPAは翌4月にAI倫理・ガバナンスに関する研究Explainable Learnersプロジェクト(説明可能モデルと説明インタフェース)およびPsychological Model of Explanationプロジェクト(説明の心理学)に着手した[7][8]。DARPAは、人類のパートナーとしてAIを理解し、信頼し、効果的に管理するために、AIが導き出す答えとその過程について説明可能であることが必要不可欠であるとした上で、それぞれの機械学習システムは動作の仕組みやその特徴(長所と短所)を人間が理解するための機能を備えているべきとして、2021年までにXAIの研究を比較検証フェーズまで完了させることを目標としている[9]

3つの原則

編集

2019年に開催された第14回20か国・地域首脳会合で「人間中心のAI社会原則」が承認され、この中でも公平性、説明責任、透明性についての原則が明記された[6]。こうした要求に答えるため、AIによって行われた処理の根拠や透明性を求める声が高まっている[1]

AIの公平性 (Fairness)
機械学習においてAIは学習の前提として例示されたデータを元に処理を獲得する[10]。入力データに偏り(バイアス)があった場合、その出力結果は公平性を欠いたものとなる可能性があるため、AIが公平なサービスを提供できるように入力データにはバイアスの排除が求められる[10]。例として給与査定や人材配置など、人事分野でのAI適用などを検討するケースにおいて公平性が特に求められる[11]
AIの説明責任 (Accountabillity)
学習した過去のデータをインプットとして、未来の推論結果を出力するような場合、誤った答えを出力する可能性がある[12]。こうした事態に、入力データ、出力データ、及び処理内容から、誤りの原因やその責任を明確化できることが求められる[12]。こうした機能は、AIの使用者が悪意をもって問題を引き起こした場合などに、それを明確に示すことで、AIが行った処理自体の潔白を証明するためにも必要となる[12]
AIの透明性 (Transparency)
問題発生時の影響が大きい場面でのAI利用では、AIの出力した結果を採用してよいかどうかを人間が判断する必要が出てくるため、AIの内部処理の情報を使用者が理解できる形で提示できることが求められる[12]

近年のAIにおいて求められる3つの原則に共通して求められる機能が「AIが学習によってどういう処理を獲得したか」「どういう根拠に基づいて出力を決定したか」といった論理を説明できることであり、AIの内部処理が複雑になればなるほど困難な要求事項である[1][13][14]。XAIはこうした処理の複雑さと説明可能性のトレードオフを解消するために提唱される新たな技術である[14]

説明手法

編集

XAIでは説明範囲の違いやその目的によってAIの説明を2つに分類しており、個々の入力データに対する出力という、個別具体的な予測結果に対する説明を局所説明、指定したAIモデルの全般的な振る舞い(特徴)に対する説明を大局説明と定義している[15]。局所説明としては、特徴量を使った説明(例として、画像データを用いて画像検索を行う際の予測を決定づける画像領域を可視化するなど)、判断ルールによる説明、AIの学習に用いたデータを使った説明などがある[16]。2023年、AIモデリングの専門家が改めてAIモデルの透明性を測定する方法を発表した[17]

ビジネスへの転用

編集

米国連邦取引委員会(FTC)が今後説明が不可能なAIについて調査を行う可能性を示唆し、警告を発したことや、EUにおいて2023年に人工知能法が成立する可能性があることなどを背景に、XAIはシリコンバレーにおいて急激に注目を集める分野となっており、スタートアップ企業やクラウド企業による開発競争が激化している[18]

日本においてはNTTデータが判定理由が求められる審査業務への適用などを検討している[19]日立製作所では、企業のDX支援業務にXAI技術を取り入れ、AIの予測結果や判定結果に対する根拠をスピーディーに提供できるシステム作りをNTT東日本と共創していきたいというプレスリリースを2021年9月に発表している[20]。また、2021年10月にはTBSテレビが選挙の開票速報番組においてXAI(富士通のWide Learning)を使用した当落速報予測の根拠を提示する取り組みについて発表した[21]

代表的なXAI技術

編集

LIMEは任意の入力データに対するAIモデルの予測結果について、予測に用いられたデータの特徴を算出する局所説明技術である[22]。2016年にワシントン大学のマルコ・トゥーリオ・リベイロ(Marco Tulio Ribeiro)らによって提唱されたもので、XAIを実現するための代表的な技術のひとつである[23][19]。テーブル、画像、テキストに対応したライブラリが提供されているOSSである[22]

SHAP (SHapley Additive exPlanations) はゲーム理論に基づいて個々のプレイヤーの寄与を算出する仕組み(シャープレイ値)を用いた局所説明技術である[24]。スコット・ランドバーグ(Scott Lundberg)によって2018年にGitHubに公開されたOSSであり、ツリー系アンサンブルモデルディープラーニングモデル、その他の一般的なアルゴリズムにおけるシャープレイ値の算出機能を提供している[25]

Permutation Importance

編集

Permutation ImportanceはAIモデルごとの特徴量の重要度を計算する大局説明技術である[26]。アーロン・フィッシャー(Aaron Fisher)らによって2018年に提案された技術で、要素をランダムに並べ替えてその誤差を計測することで、その要素がどの程度処理結果に寄与しているかを計測するPermutationという手法を用いている[27][28]

Partial Dependence Plot

編集

Partial Dependence Plotは、入力データの変化がAIモデルを通して出力データにどの程度影響を与えるかを説明するために変化量をグラフ化し提供する技術である[29]

Tree Surrogate

編集

Tree Surrogateは表形式データを予測するタイプのAIモデルにたいして適用できる技術で、AIモデルの複雑なI/Oを人間が解釈しやすい別の代理モデル(決定木代理モデル)に当てはめてロジックを説明する技術である[30]

CAMはClass Activation Mappingの略で、畳み込みニューラルネットワークを用いた画像識別の判断理由を説明するための技術[31]。ネットワークアーキテクチャの制限を克服したGrand-CAMも存在しており、Grand-CAMはGAPを使用しない分類モデルにも適用できる[32]

Integrated Gradients

編集

Integrated Gradientsはデータの入力値と出力値の勾配を用いて影響度を算出し、説明するための技術である[33]PyTorchのCaptumライブラリにはIntegrated Gradientsが実装されており、インタフェースなどが整備されている[33]

Attention

編集

回帰型ニューラルネットワークなどの言語系モデルや畳み込みニューラルネットワークなどの画像モデルにおいて特徴量の重要度を算出する技術である[34]

XAIの類型用語

編集

XAIはAIを何らかの観点から理解し説明していくということを目的とした技術であり、論文や文献による異なる言い回し、手法の違いなどによる多数の類型用語が存在しており、代表的な表現としてUnderstandabillity(わかりやすさ)、Intelligibillity(明瞭度)、Predictabillity(予測可能性)、Trustworthiness(信用性)、Reliabillity(確実性)、Transparent AI(透明性のあるAI)、Interpretable AI(解釈可能なAI)、Explainable AI(説明可能なAI)、Accountable AI(説明責任のあるAI)、Fair AI(公正なAI)、Explainable Machine Learning(説明可能な機械学習)などが挙げられる[35][36]

関連項目

編集

脚注

編集
  1. ^ a b c d 一色政彦 (2020年1月27日). “XAI(Explainable AI:説明可能なAI)/解釈可能性(Interpretability)とは?”. atmarkIT. アイティメディア株式会社. 2022年6月30日閲覧。
  2. ^ Explainable AI(XAI)を活用し、業務システムへのAIの適用や継続的な運用・改善を支援する「AI導入・運用支援サービス」を提供開始”. 日立製作所ニュースリリース. 株式会社日立製作所 (2020年1月27日). 2022年6月30日閲覧。
  3. ^ 大坪他 2021, p. 3
  4. ^ 大坪他 2021, p. 40
  5. ^ 大坪他 2021, p. 19
  6. ^ a b c 大坪他 2021, p. 20
  7. ^ デロイト 2020, p. 85
  8. ^ デロイト 2020, p. 94
  9. ^ 田辺 2020, p. 16
  10. ^ a b 大坪他 2021, p. 22
  11. ^ 田辺 2020, p. 18
  12. ^ a b c d 大坪他 2021, p. 23
  13. ^ 大坪他 2021, p. 25
  14. ^ a b 大坪他 2021, p. 37
  15. ^ 大坪他 2021, p. 46
  16. ^ 大坪他 2021, p. 48
  17. ^ A New Stanford Index to Assess the Transparency of Leading AI Models” (英語). A New Stanford Index to Assess the Transparency of Leading AI Models (2023年11月1日). 2023年12月1日閲覧。
  18. ^ ロイター編集部 (2022年4月9日). “アングル:「理由を説明するAI」実用化、ビジネス激変の可能性”. REUTEAS. ロイター. 2022年7月1日閲覧。
  19. ^ a b AIのビジネス適用を後押しする「説明可能なAI技術」”. DATA INSIGHT. 株式会社NTTデータ (2019年7月1日). 2022年7月1日閲覧。
  20. ^ トレンドデータ活用とAIの予測根拠の提示により、納得感のある潜在ニーズ発掘や打ち手の立案を支援”. 日立製作所ニュースリリース. 株式会社日立製作所 (2021年9月9日). 2022年7月1日閲覧。
  21. ^ IT Leaders編集部 (2021年10月26日). “TBSテレビ、開票特別番組の当落速報で“説明可能なAI”を活用、予測の根拠を提示”. IT Leaders. 株式会社インプレス. 2022年7月1日閲覧。
  22. ^ a b 大坪他 2021, p. 66
  23. ^ "Why Should I Trust You?": Explaining the Predictions of Any Classifier”. Accessible arXiv. 2022年7月1日閲覧。
  24. ^ 大坪他 2021, p. 73
  25. ^ 川越雄介 (2021年4月14日). “SHAPを用いて機械学習モデルを説明する”. DataRobotデータサイエンス. DataRobot. 2022年7月1日閲覧。
  26. ^ 大坪他 2021, p. 82
  27. ^ All Models are Wrong, but Many are Useful: Learning a Variable's Importance by Studying an Entire Class of Prediction Models Simultaneously”. Accessible arXiv. 2022年7月1日閲覧。
  28. ^ 緒方良輔 (2019年6月13日). “Permutation Importanceを使ってモデルがどの特徴量から学習したかを定量化する”. DataRobotデータサイエンス. DataRobot. 2022年7月1日閲覧。
  29. ^ 大坪他 2021, p. 91
  30. ^ 大坪他 2021, pp. 92–93
  31. ^ 大坪他 2021, p. 97
  32. ^ 大坪他 2021, p. 99
  33. ^ a b 大坪他 2021, p. 104
  34. ^ 大坪他 2021, p. 109
  35. ^ 大坪他 2021, p. 42
  36. ^ Janssen, Femke M.; Aben, Katja K. H.; Heesterman, Berdine L.; Voorham, Quirinus J. M.; Seegers, Paul A.; Moncada-Torres, Arturo (February 2022). “Using Explainable Machine Learning to Explore the Impact of Synoptic Reporting on Prostate Cancer” (英語). Algorithms 15 (2): 49. doi:10.3390/a15020049. ISSN 1999-4893. 

参考文献

編集