AIハルシネーションとは、大規模言語モデル(LLM)(多くの場合は生成AIチャットボットやコンピューター・ビジョン・ツール)によって、存在しないか人間の観察者には知覚されないパターンやオブジェクトが認識され、理にかなっていないかまったく不正確なアウトプットが作り出される現象です。
一般に、あるユーザーが生成AIツールにリクエストをするにあたって望んでいるのは、プロンプトに対する適正なアウトプット(つまり、質問に対する正しい回答)です。ただし、AIアルゴリズムで生成されるアウトプットが、トレーニング・データに基づいていない、トランスフォーマーで不正確にデコードされる、識別可能なパターンに従っていない、ということもあります。言い換えれば、応答の「ハルシネーション」です。
ハルシネーションという用語は大概の場合、機械でなく人間や動物の脳に関連付けられることから、逆説的に見えるかもしれません。しかし、比喩的な観点から見たハルシネーションでは、こうしたアウトプットが正確な描写なのです。画像認識やパターン認識(アウトプットの外観がまったく超現実的)の場合は特にそうです。
AIハルシネーションとは、人間に雲の上の人物や月の顔が見えることがあるのと同じようなものです。AIの場合、そのような誤った解釈が発生する要因はさまざまで、オーバーフィット、トレーニング・データのバイアス/不正確さ、高度に複雑なモデルなどです。
生成型のオープンソース・テクノロジーの問題を防ごうとすると、課題の多いことがわかります。AIハルシネーションで注目すべき例には、次のようなものがあります。
Googleのチャットボット「Bard」は、ジェイムズ・ウェッブ宇宙望遠鏡が世界で初めて太陽系外の惑星の画像をキャプチャしたと誤った主張をする1。
MicrosoftのチャットAI「Sydney」は、ユーザーと恋愛関係になってBingの従業員をスパイしていたと認める。2
Metaは2022年、Galactica LLMのデモを取り下げました。ユーザーに不正確な情報を提供しており、中には偏見に根ざしたものがあることを受けたものです。3
こうした問題の多くは、それ以降に対処され解決されていますが、たとえ最良の状況であっても、AIツールを使用したことで予期せぬ望ましくない結果を招くことがあることは容易にわかります。
生成AIアシスタントが作業負荷の軽減と生産性の向上にどのように役立つかをご紹介します。
生成AIに関する電子ブックに登録する
AIハルシネーションの結果により、現実世界のアプリケーションに重大な影響が及びます。たとえば、ヘルスケアのAIモデルで良性の皮膚病変が悪性と誤認識されると、無用な医療介入につながることがあります。AIハルシネーションの問題が、誤った情報の拡散に寄与することもあります。たとえば、ニュースボットのハルシネーションにより、ファクトチェックがされていない情報によって、緊急事態発生に関する問い合わせへの応答がされると、たちまち虚偽の情報が広まり、緩和策の妨げになります。機械学習アルゴリズムでのハルシネーションの重大な原因の1つは、インプットのバイアスです。バイアスがかかったデータや代表的でないデータで構成されるデータセットでAIモデルがトレーニングされている場合、そうしたバイアスを反映したパターンや特徴によるハルシネーションが起きます。
AIモデルもまた、敵対的攻撃に対して脆弱です。悪意ある攻撃者が、インプットデータをこっそり細工して、AIモデルのアウトプットを操作するわけです。たとえば、画像認識タスクに、敵対的攻撃が関与したことで画像に少量の特製ノイズが入り、AIの誤分類が引き起こされることある、などです。これは、特にサイバーセキュリティーや自動運転車テクノロジーなど機密性が高い分野で、セキュリティー上の重大な懸念になります。AI研究者は、AIツールを敵対的攻撃から守るためのガードレールを開発し続けています。敵対的学習(モデルのトレーニングで通常の例と敵対的な例を組み合わせるもの)のような技法は、セキュリティの核心部分を強化するものです。しかし、その間もトレーニングとファクトチェックのフェーズでの警戒が最優先です。
AIハルシネーションの影響を軽減する最善の方法は、起きる前に阻止することです。AIモデルを常に最適に機能させるためには、次のような手順を取ります。
生成AIモデルではインプットデータに依存してタスクの実行結果を出すため、トレーニング・データ・セットの品質と関連性次第で、モデルの振る舞いとそのアウトプットの品質が決まります。ハルシネーションを防ぐため、AIモデルのトレーニング・データが多様でバランスが取れており十分に構造化されているようにします。こうすれば、モデルのアウトプットバイアスが最小化し、タスクがよりよく把握され、得られるアウトプットの効力が上がります。
AIモデルの使用に関する制限のほか、モデルをどのように使用するのかを明確にすることが、ハルシネーション軽減の助けとなります。チームでも組織でも、選択したAIシステムの責任と制限を確立するべきです。そうすれば、システムで実行されるタスクの結果の効力が上がり、「ハルシネーションによる」見当外れの結果は最小限に抑えられます。
データ・テンプレートで事前定義済みの形式を得たチームでは、AIモデルから規定のガイドラインに沿うアウトプットが生成される確率が高まります。データ・テンプレートを頼みにすれば、アウトプットの一貫性が確保され、モデルから誤った結果が作り出される確率が低くなります。
AIモデルでは、しばしばハルシネーションが発生します。起こり得る結果に制限をかける制約がないためです。この問題を回避し、結果の全体的な一貫性と精度を向上させるためには、フィルタリング・ツールや明確な確率的しきい値を使用して、AIモデルの境界を定義します。
ハルシネーション防止には、AIモデル使用前のテストを厳密に行うことが不可欠です。また、モデルを継続的に評価することも欠かせません。こうしたプロセスにより、システム全体のパフォーマンスが向上し、ユーザーはデータが古くなったり進化したりするのに応じてモデルを調整したり再トレーニングしたりできます。
AIアウトプットの検証やレビューを人間が行うようにすることが、ハルシネーションを防ぐための最終的なバックストップ策です。人間が監視に関与すれば、AIハルシネーションが発生しても、人間がフィルタリングして修正できるようになります。人間のレビュアーが対象分野の専門知識を提供すれば、AIコンテンツを正確に、かつタスクとの関連性によって評価する能力も高まります。
サード・パーティーのプラットフォーム上に構築された生成AIのための、責任ある透明で説明可能なワークフローを加速します。
AIハルシネーションは、ほとんどの場合望ましくない結果であることは確かなのですが、その一方でさまざまな興味深いユースケースが挙がっており、その創造的な可能性を組織は前向きに活用することができます。たとえば、次のようなことです。
AIハルシネーションは、芸術的創造への斬新なアプローチとなり、芸術家やデザイナーなどのクリエイターは、視覚的に美しく独創的なイメージを生成するためのツールが得られます。人工知能のハルシネーションを機能とする芸術家が、超現実的で夢のような画像を創出すれば、新しい芸術形式やスタイルを生み出すこともできるのです。
AIハルシネーションで、新しいつながりが掘り起こされ、複雑な情報に対する別の見方が得られると、データの可視化が合理化されます。このことは特に、金融のような分野で価値があります。複雑な市場トレンドや財務データが可視化されるので、繊細さが求められる意思決定やリスク分析も促進されます。
AIハルシネーションで、ゲームやVRでの没入型エクスペリエンスも向上します。AIモデルを採用したハルシネーションで仮想環境を生成するゲーム開発者やVR設計者は、ユーザーエクスペリエンスを次のレベルへ引き上げる新しい世界の構想ができるようになります。また、ハルシネーションで、ゲームエクスペリエンスにサプライズ、予測不可能性、斬新さの要素を加えることもできます。
信用が置けて透明性があり説明可能なAIワークフローの実現が速まります。
対話型AIを使用して、あらゆるチャネルや顧客との接点で一貫性のある的確なカスタマー・ケアを実現します。
AI開発者向けの次世代スタジオで、基盤モデルを実験し、機械学習モデルを自動的に構築します。
AIを活用したエンタープライズ検索テクノロジーを使用して、ビジネス・データから重要な答えとインサイトを引き出します。
人間の会話を理解し、顧客体験を向上させる自然言語対応のAIチャットボットを紹介します。
Graniteは、デコーダーのみのTransformer(トランスフォーマー)アーキテクチャーに基づくIBMのLLM基盤モデルの主力シリーズです。Graniteの言語モデルは、インターネット、教育機関、各種規定、法律、金融にまたがり信頼性の高いエンタープライズ・データでトレーニングされています。
AIによる対話を効率化し、その効果を高め、ユーザーを満足させる3つの手法として、要求する情報の抑制、明確な選択肢の提示、コピー・エディティングについて探ります。
堅牢な対話型AIを構築するために必要なスキルを、ヘルプ記事、チュートリアル、動画などを利用して学びます。
チャットボットを迅速かつ簡単に構築するには、ドキュメントとリソースを確認してください。
IBMは、2023 年のGartner Magic Quadrant for Enterprise Conversational AI再びでリーダーとして認められました。
新型コロナウイルス感染症の感染拡大により、ハイパードライブへの仮想エージェント・テクノロジー(VAT)の導入が一気に加速した理由について説明しています。
1 「What Makes A.I. Chatbots Go Wrong?」(ibm.com外部へのリンク)、The New York Times、2023年3月29日。
2 「ChatGTP and the Generative AI Hallucinations」(ibm.com外部へのリンク)、Medium、2023年3月15日。
3 「Why Meta’s latest large language model survived only three days online」(ibm.com外部へのリンク)、MIT Technology Review、2022年11月18日。