ビジネスを飛躍させるのは、あなたの仕事を知っている AI。
国内外の事例、新たなAIの取り組みをご紹介
説明可能な AI は、AI モデルとその影響および潜在的なバイアスを説明するときに使用されます。これは、AI駆動型の意思決定におけるモデルの精度、公平性、透明性と結果の特徴づけに役立ちます。AIモデルを本番環境で稼働する際に、説明可能なAIは組織の信頼と信用の構築に不可欠となります。また、AIの説明可能性は、組織がAI開発において責任あるアプローチを採用する際にも役立ちます。
AIが高度に進化するにつれて、アルゴリズムが結果を導く仕組みへの理解とリトレースという課題が人間に突きつけられます。計算プロセス全体が、一般的に「ブラックボックス」と呼ばれる、解釈不可能なものへと変化しています。これらのブラックボックス・モデルはデータから直接生成されます。そして、アルゴリズムを作成したエンジニアやデータ科学者であっても、このモデルの中で実際に起きていることも、AI アルゴリズムが特定の結果に到達する仕組みも、説明はおろか理解すらできない状況です。
AI 対応システムが特定の結果を導き出す仕組みを理解することには、多くの利点があります。説明可能性は、システムが期待通りに作動していることを開発者が確信する際に役立つ可能性があり、規制基準を満たすために必要な場合もあり、意思決定に影響を受けた人たちがその結果に異論を唱えたり、変更したりする際に重要な可能性もあります。
組織にとって、AI のモデル監視と説明責任を備え、AI の意思決定プロセスを闇雲に信用せずに、AI の意思決定プロセスを完全に理解することが不可欠です。説明可能な AI は、機械学習(ML)アルゴリズム、ディープラーニング、ニューラル・ネットワークを、人間が理解して説明するのに役立ちます。
ML モデルは、解釈不可能なブラックボックスとして認識されることが多々あります。²ディープラーニングで使用されるニューラル・ネットワークは、人間にとって最も理解し難いものの 1 つです。多くの場合に人種、ジェンダー、年齢、地域に基づいて発生するバイアスは、長い間 AI モデルの学習におけるリスクでした。さらに、実稼働データが訓練データと異なるため、AI モデルのパフォーマンスが逸れたり低下する可能性があります。これにより、このようなアルゴリズムを使用することで生じる事業への影響を測りながら、AI の説明可能性を促進するための継続的なモデルの監視と管理が事業体にとって不可欠となります。また、説明可能な AI はエンドユーザーの信頼、モデルの可監査性、生産的な AI 利用を促進するのにも役立ちます。さらに、実稼働 AI のコンプライアンス、法律、セキュリティー、評判のリスクも軽減します。
説明可能な AI は、責任ある AI を実装する際に重要な要件の 1 つであり、実際の組織における公平性、モデルの説明可能性、説明責任を備えた AI メソッドの大規模な実装のための方法論でもあります。³責任を持って AI を導入するためには、組織は信頼と透明性の上に AI システムを構築して、AI アプリケーションとプロセスに倫理原則を組み込む必要があります。
説明可能な AI と解釈可能な機械学習によって、組織は AI テクノロジーの基礎となる意思決定へのアクセスを増やすことが可能で、調整を行う権限が与えられます。説明可能な AI は、AI が良い決断を下すというエンドユーザーの信頼を勝ち取ることで、製品やサービスのユーザー体験を向上できます。ユーザーの信頼に足りる決断をAIシステムが確信的に提供できるのはいつで、エラーが生じた際に AI システムはどのようにそれを訂正するのでしょうか。⁴
AI が高度に進化していても、AI モデルの結果の正確性を保証するために、ML プロセスの理解とコントロールが相変わらず必要です。ここからは、AI と XAI の相違、AI を XAI に変えるために使用される方法と技術、AI プロセスの解釈と説明の相違について見て行きましょう。
「通常」のAIと説明可能なAIの違いは何でしょうか。XAIは特定の技術と方法を用いて、MLプロセス中に行われた意思決定をすべて追跡でき、説明できるようにします。一方 AI は、ML アルゴリズムを使って結果を導き出すことが多いのですが、AI システムの設計者は、このアルゴリズムが提示された結果をどのように導き出すのかについて完全に理解してるわけではありません。これにより、正確性の確認が難しくなり、コントロール、説明責任、可監査性の喪失が発生します。
XAI手法は主に3つの方法で構成されています。予測精度と追跡可能性は技術要件に対応し、意思決定の理解は人間のニーズに対応します。一方、説明可能な AI は、特に説明可能な機械学習において、将来の兵士たちが、台頭する人工知能マシンのパートナー世代を理解し、適切に信頼し、効率的に管理するために不可欠となるでしょう。
日常業務におけるAI活用の成功を左右する重要な要素が正確性です。シミュレーションを実行し、XAI のアウトプットと学習データセット内の結果を比較することで、予測精度を判断できます。これに最もよく使用される技術が Local Interpretable Model-Agnostic Explanations(LIME)で、ML アルゴリズムで分類子の予測を説明します。
追跡可能性とは、XAIを実現するもう1つの重要な技術のことです。これは、例えば決定方法を制限し、ML ルールと機能のスコープを狭く設定すると達成可能です。XAI の追跡性技術の一例が DeepLIFE(ディープラーニングの重要機能)で、これはニューロンごとの活性化を該当する参照ニューロンと照らし合わせて、活性化されたニューロン間の追跡リンクを表示し、ニューロン間の依存関係までも表示します。
この問題は人が要因となります。AI に懐疑的な人は数多くいますが、AI を効果的に使うとするならば、懐疑的であっても AI を信用する術を学ぶ必要があります。これは AI を使用して仕事をするチームを教育することで達成でき、教育を通して AI が意思決定を行う方法と理由への理解が深まります。
解釈可能性とは、オブザーバーが意思決定の原因を理解できる度合いです。これは人間が AI アウトプットの結果を予測できる成功率で、一方の説明可能性はさらに一歩進んで、AI がどのようにしてその結果に到達したかに注目します。
説明可能な AI と責任ある AI には類似した目標があるのですが、そのアプローチは異なります。説明可能な AI と責任ある AI の大きな違いは以下の通りです。
説明可能な AI を使用すると、事業体はステークホルダーに対して AI モデルの動作の理解を促しながら、モデルのパフォーマンスのトラブルシューティングや改善を実行できます。デプロイメント・ステータス、公平性、品質、ドリフトに関するモデルのインサイトの追跡を通してモデルの動作を調査することが、AIのスケーリングに不可欠です。
継続的なモデルの評価により、モデル予測の比較、モデルリスクの数値化、モデル・パフォーマンスの最適化が強化されます。モデル動作のプラスとマイナスの数値を、説明の生成に使用したデータと共に表示して、モデルの評価をスピードアップします。A データと AI プラットフォームでモデル予測の機能特性を生成でき、これによりインタラクティブなチャートとエクスポート可能な資料と共に、チームはモデル動作を視覚的に調査できるようになります。
実稼働 AI の信頼を構築します。自作の AI モデルを迅速に運用します。AI モデルの解釈可能性と説明可能性を確保します。モデルの透明性とトレーサビリティを向上しながら、モデル評価のプロセスを簡素化します。
モデルを体系的に監視・管理して事業の成果を最適化します。モデルのパフォーマンスを継続的に評価・向上します。継続的な評価を基にモデル開発の労力を微調整します。
自作の AI モデルの説明可能性と透明性を維持します。法規制、コンプライアンス、リスク、その他の要件を管理します。手動の検査とコストの高いエラーの間接費を最小限に抑えます。予期せぬバイアスのリスクを軽減します。
説明可能な AI から期待通りの結果を導き出すには、以下の点に留意しましょう。
公平性とバイアス排除: 公平性を管理・監視します。デプロイメントをスキャンして潜在的なバイアスを見つけます。
モデルのドリフト軽減: 自作モデルを分析し、最も論理的な結果に基づいて推奨事項を作成します。意図した結果からモデルが逸れた際にはアラートを出します。
モデルのリスク管理: モデルのリスクを数値化して軽減します。モデルのパフォーマンスが不適切な場合にアラートを鳴らします。逸脱が続いた際には何が発生したのかを理解します。
ライフサイクルの自動化: 統合されたデータとAIサービスの一部としてモデルを構築、実行、管理します。1つのプラットフォームでツールとプロセスを一元化し、モデルの監視と結果の共有を実行します。機械学習モデルの依存関係を説明します。
マルチクラウド対応:パブリッククラウド、プライベートクラウド、オンプレミスを含むハイブリッドクラウド全体にAIプロジェクトをデプロイします。説明可能なAIで信頼と信用を促します。
EUのAI規制法について、ビジネスに与える影響、準備すべきこと、リスクの軽減方法、規制とイノベーションのバランスを取る方法をご確認ください。
生成AIがもたらす新たな課題、AIモデルおよびMLモデルを制御する必要性、信頼性と透明性を高めた説明可能なAIフレームワークを構築する手順をご紹介します。
生成AIモデル向けの製品ポートフォリオを活用し、コンプライアンスに準拠した倫理的な運用を推進する方法について説明しています。
watsonx.governanceを使ってどのように公平性の確保やドリフトの管理、品質の維持、説明可能性の向上を行うかについて理解を深めます。
IBM watsonx.governanceを使用すれば、生成AIモデルをあらゆる場所から管理したり、クラウドまたはオンプレミスにデプロイしたりできます。
IBMコンサルティングを活用して、EUのAI法に備え、責任あるAIガバナンスに取り組みましょう。
統合されたGRCプラットフォームを利用して、リスクと規制順守の管理を簡素化しましょう。
¹ 「Explainable AI」、The Royal Society、2019年11月28日。
²「Explainable Artificial Intelligence」、Jaime Zornoza氏、2020年4月15日。
³ 「Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI」、『ScienceDirect』誌、2020年6月。
⁴「Understanding Explainable AI」、Ron Schmelzer氏、『Forbes』誌への寄稿、2019年7月23日。
⁵ 「Explainable Artificial Intelligence (XAI)」、Matt Turek博士、米国国防高等研究計画局(DARPA)。
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com