mojiru【もじをもじる】

「mojiru」はこのブログ名。「もじる」は著名な言い回しに似せて表現すること。ブログでは、本・映画・グルメなどのヒット商品や気になったトレンドを文字をもじったりもじらなかったしながら、フォントを使ったり使わなかったりしながら取り上げていく。更新頻度は1日1回が基本です。[もじる使用例]1.吾輩は下戸である。お酒は飲めない。2.太閤がまずしかったから。3.棋士の一二三に惨敗。

XAI(Explainable AI:説明可能なAI)技術解説本

【スポンサーリンク】

実践XAI[説明可能なAI] 機械学習の予測を説明するためのPythonコーディング (impress top gear)

実践XAI[説明可能なAI] 機械学習の予測を説明するためのPythonコーディング

インプレスグループでIT関連メディア事業を展開するインプレスは、Pradeepta Mishra氏著書による、機械学習の結果を意味づける手法を解説した新刊『実践XAI[説明可能なAI] 機械学習の予測を説明するためのPythonコーディング』を2023年6月20日(火)に発売した。

 

Pradeepta Mishra(プラディープタ・ミシュラ)Profile●インドを拠点とする多国籍企業のITサービス兼コンサルティング会社L&T InfotechのAIデータプロダクト部門上席。データサイエンティスト、計算言語学エキスパート、機械学習・深層学習のエキスパートからなる大規模なグループを率いる。以前には、Analytics India Magazineの「India's Top - 40 Under 40 DataScientists」に選出された。また、データサイエンスやAIに関する500以上の技術講演を、さまざまな大学や技術機関、コミュニティなどで行う。


各種モデルのブラックボックスをグラスボックスに『実践XAI[説明可能なAI] 機械学習の予測を説明するためのPythonコーディング』

急速な拡大を見せるChatGPTサービスや、政府の有識者会議「AI戦略会議」の開催など、AIの実用化がますます注目を集めている。
実際の現場にAIを導入する際には、ユーザーがAIの予測を信頼できるかどうかが重要です。そのために予測の根拠についての説明が求められています。しかし、ディープラーニングなどの機械学習のモデルはブラックボックス化されており、個々の予測の根拠が明確ではなく説明が難しい、という技術的な課題があります。本書では、各種モデル全般において予測を解釈・説明するためのXAI(Explainable AI:説明可能なAI)の技術を解説。ブラックボックスをグラスボックス化するための手法を具体的に紹介します。

 

XAI Pythonライブラリで予測の背景を探る『実践XAI[説明可能なAI] 機械学習の予測を説明するためのPythonコーディング』

『実践XAI[説明可能なAI] 機械学習の予測を説明するためのPythonコーディング』で取り上げる機械学習の予測モデルは、線形・非線形モデルのほか、アンサンブルモデル、時系列モデル、自然言語処理、ディープラーニング、コンピュータビジョン。
各種のモデルとデータに対して、XAI PythonライブラリのLIME、SHAP、Skater、ELI5、skope-rulesなどを使ったコーディングを行い、実行結果を見ながら、モデルがなぜそのように予測するのかを探っていく。

『実践XAI[説明可能なAI] 機械学習の予測を説明するためのPythonコーディング』に掲載されたコードと結果を追っていくことで、XAIの手法を具体的に把握することができる。

 

『実践XAI[説明可能なAI] 機械学習の予測を説明するためのPythonコーディング』対象読者

予測結果についての説明力を上げたい人
予測結果の根拠を追跡したい人
データサイエンティスト
機械学習エンジニア(ソフトウェアエンジニア)
データエンジニア
情報系の学生・研究者

 

『実践XAI[説明可能なAI] 機械学習の予測を説明するためのPythonコーディング』紙面イメージ

▼結果に対する各特徴量の影響度合いを確認(第5章 アンサンブルモデルの説明可能性)


▼局所的な説明として各単語の貢献度を可視化(第7章 自然言語処理の説明可能性)※7章は4色で掲載

 

 

『実践XAI[説明可能なAI] 機械学習の予測を説明するためのPythonコーディング』目次

第1章 モデルの説明可能性と解釈可能性

第2章 AIの倫理、偏見、信頼性

第3章 線形モデルの説明可能性

第4章 非線形モデルの説明可能性

第5章 アンサンブルモデルの説明可能性

第6章 時系列モデルの説明可能性

第7章 自然言語処理の説明可能性

第8章 What-Ifシナリオを使ったモデルの公平性

第9章 ディープラーニングモデルの説明可能性

第10章 XAIモデルの反実仮想説明

第11章 機械学習での対比的説明

第12章 予測不変性の特定によるモデル不可知の説明

第13章 ルールベースのエキスパートシステムでのモデルの説明可能性

第14章 コンピュータビジョンでのモデルの説明可能性

 

 

 


『実践XAI[説明可能なAI] 機械学習の予測を説明するためのPythonコーディング』Amazonでの購入はこちら

 


『実践XAI[説明可能なAI] 機械学習の予測を説明するためのPythonコーディング』楽天市場での購入はこちら

 

 


 

©mojiru All Rights Reserved. | プライバシーポリシー