Actions / Navigation / close / 20
マイIBM ログイン ニュースレター

AIバイアスとは

2023年12月22日

共同執筆者

James Holdsworth

Content Writer

AIバイアスとは

AIバイアスは、機械学習バイアスまたはアルゴリズム・バイアスとも呼ばれ、元のトレーニング用データまたはAIアルゴリズムを歪める人間のバイアスによって偏った結果が発生することを指します。その結果、歪んだアウトプットや潜在的に有害な結果が発生します。

AIバイアスに対処しないと、組織の成功に影響を与え、人々が経済や社会に参加する能力を妨げる可能性があります。バイアスはAIの精度を低下させ、その結果、AIの可能性も狭められてしまいます。

歪んだ結果を生み出すシステムでは、企業が利益を得る可能性は低くなります。また、AIバイアスから生じる誤った結果は、有色人種、女性、障害者、LGBTQコミュニティー、その他の疎外されたグループに不信感をもたらす可能性があります。

AIの取り組みの基盤となるモデルは、トレーニングに使用された膨大なデータの中に埋もれている可能性のある社会のバイアスも吸収します。社会的不平等を反映し、長年偏っていたままであったデータを収集することは、雇用、警察活動、信用スコアリングなど、さまざまなユースケースにおいて、歴史的に疎外されてきたグループに害を及ぼす可能性があります。『The Wall Street Journal』紙によると、「人工知能の使用が広まるにつれて、企業は依然として蔓延しているバイアスに対処するのに苦労している」と言います。1

ニュースレターを表示しているスマホの画面

The DX Leaders

「The DX Leaders」は日本語でお届けするニュースレターです。AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。

事例とリスク

AIがバイアスによる間違いがあった場合、例えば、あるグループの人々が機会を奪われたり、写真で誤って識別されたり、不当に処罰されたりした場合、この間違いを犯した組織やブランドは評判が落ち、損害を被るでしょう。同時に、こうしたグループの人々や社会全体が、気づかないうちに被害を受ける可能性もあります。ここでは、AIにおける格差とバイアス、そしてそれが引き起こす可能性のある害について、いくつかの注目すべき例を紹介します。

医療の分野では、女性やマイノリティー・グループのデータを過小評価することで、予測AIアルゴリズムが歪める可能性があります。2例えば、コンピューター診断支援(CAD)システムは、黒人の患者に対して白人の患者よりも精度の低い結果を返すことがわかっています。

AIツールは、検索中に履歴書による書類選考を自動化して理想的な候補者を特定するのに役立ちますが、要求される情報と除外される回答によって、グループ間で不均衡な結果が生じる可能性があります。例えば、求人広告に「忍者」という言葉が使われていた場合、それが仕事の要件ではないにもかかわらず、女性よりも男性の応募が多くなる可能性があります。3

画像生成のテストとして、Bloomberg社はAIに5,000枚以上の画像作成をリクエストしたところ、「ディープラーニング・モデルのStable Diffusionを使用すると、世界は白人男性のCEOによってコントロールされており、女性が医者、弁護士、裁判官になることは稀であり、肌の黒い男性は犯罪を犯し、肌の黒い女性はハンバーガーを焼く」という結果を得ました。4独立系研究所であるMidjourney社は、上述の研究と同様に、専門職に就く人々の画像をリクエストすると、結果では若者と年配者の両方が表示されたものの、年配者は常に男性であり、職場での女性の役割に関する性別によるバイアスが浮き彫りとなりました。5刑事司法制度に関わる組織の一部で使用されるAI搭載の予測型取り締まりツールは、本来ならば犯罪が発生する可能性が高い地域を特定するものです。しかし過去の逮捕データに依存している場合が多いため、人種プロファイリングの既存パターンを強めたり、マイノリティーのコミュニティーの不当な標的化を助長する可能性があります。6

AI Academy

AIにおける信頼、透明性、ガバナンス

AIの信頼性は、AIにおいて最も重要なトピックといえるでしょう。また、圧倒されても仕方がないようなトピックでもあります。ハルシネーション、バイアス、リスクなどの問題を解明し、倫理的で、責任ある、公正な方法でAIを導入する手順を紹介します。

バイアスの原因

歪んだ成果は、組織や社会全体に害を及ぼす可能性があります。ここでは、AIバイアスの一般的な種類をいくつか紹介します7

  • アルゴリズム・バイアス:問題や質問が完全に正確でなかったり具体的でなかったり、機械学習アルゴリズムへのフィードバックが解決策の探索に役立たない場合、誤った情報が生じる可能性があります。

  • 認知バイアス:AI テクノロジーには人間によるインプット必要で、人間は間違いを犯す可能性があります。また、気付かないうちに個人的なバイアスが入り込む可能性もあります。これはデータセットまたはモデルの動作に影響を与える可能性があります。


  • 確証バイアス:これは認知バイアスと密接に関連しており、AI がデータ内の既存の信念や傾向に過度に依存している場合に発生します。つまり、既存のバイアスが倍増し、新しいパターンや傾向を識別できなくなります。
  • 除外バイアス:このタイプのバイアスは、使用されるデータから重要なデータが除外されている場合に発生します。多くの場合、これは開発者が新しい重要な要素を見逃していることに起因して起こります

  • 測定バイアス: 測定バイアスは不完全なデータによって発生します。これはほとんどの場合、見落としや準備不足が原因で、データセットに考慮すべきすべての人口が含まれていないことになります。例えば、大学が卒業を成功させる要因を予測しようとし、対象を卒業生のみにした場合、その答えには、中退の原因となる要因が完全に含まれません。
  • 外集団同質性バイアス:これは、自分が知らないことを知らないケースです。人々は、内集団(自分が属する集団)のメンバーをよりよく理解し、外集団のメンバーよりも多様性があると考える傾向があります。その結果、開発者はトレーニング用データ内の多数派グループに属していない個人を区別する能力が低いアルゴリズムを作成し、その結果、人種に対するバイアス、誤分類、誤った回答につながる可能性があります。

  • 偏見バイアス:この種類のバイアスは、ステレオタイプや誤った社会的仮定がアルゴリズムのデータセットに取り込まれることに起因しており、これにより必然的に偏った結果がもたらされます。例えば、AIは、医師は男性のみで看護師はすべて女性であることを示す結果を返す可能性があります。

  • リコール・バイアス:これは、データのラベル付け中に発生し、ラベルが主観的な観察によって一貫して適用されない場合に発生します。

  • サンプル/選択バイアス:これは、機械学習モデルのトレーニングに使用されるデータが十分に大きくない、サンプルを十分に代表していない、またはシステムを十分にトレーニングするには不完全すぎる場合に発生します。AIモデルのトレーニングのために相談を受けたすべての学校教師の学歴がすべて等しい場合、検討対象となる将来の教師もすべて学歴が等しくなければなりません。

  • ステレオタイプ・バイアス:これは、AIシステムが(通常は意図せずに)有害なステレオタイプを強化したときに発生します。例えば、言語翻訳システムは、一部の言語を特定の性別や民族的ステレオタイプに関連付ける可能性があります。調査会社のMcKinsey社は、データセットからバイアスを取り除こうとすることについて、「洗練されていないアプローチでは、データから保護されたクラス(性別や人種など)を排除し、アルゴリズムに偏りをもたらすラベルを削除します。しかし、このアプローチはうまくいかないかもしれません。削除されたラベルがモデルの理解に影響を与え、結果の精度が悪くなる可能性があるからです」と、警告します。8

バイアスを回避するための原則

バイアスの罠を回避するための最初のステップは、最初に一歩下がってAIの取り組みについてよく考えることです。ほとんどすべてのビジネス上の課題と同様に、列車事故が発生してから損害を受けた結果を事後対応するよりも、事前に問題を解決する方がはるかに簡単です。しかし、多くの組織は急いでいるため、「小銭を惜しんで大金を失う」はめになり、多額のコストがかかっています。

AIバイアスを特定して対処するには、AIガバナンス、つまり組織のAI活動を指揮、管理、監視する能力から始まります。実際には、AIガバナンスではAIテクノロジーの責任ある開発と利用を導くための一連の方針、プラクティス、フレームワークを作成します。AIガバナンスがうまくいけば、企業、顧客、従業員、そして社会全体に与えられる恩恵のバランスの確保に役立ちます。

AIガバナンスには、公正性、公平性、包摂性を評価するための手法が取り入れられることがよくあります。反事実的な公正性のようなアプローチは、モデルの意思決定におけるバイアスを特定し、性別、人種、性的指向といったデリケートな属性が含まれた場合でも、公平な結果を保証します。

AIは複雑なので、アルゴリズムがブラックボックス・システムとなり、構築に使われたデータからほとんど知見が得られない場合があります。透明性の実践とテクノロジーは、システムの構築にバイアスのないデータが使用され、結果が公正になることを促進します。顧客情報の保護に取り組む企業は、ブランドの信頼を築き、信頼できるAIシステムを構築できる可能性が高まります。

データの品質をより良いものにするために、「人間が関与する」システムを導入して、オプションを提供したり、人間の判断によって承認できる推奨事項を作成したりするとよいでしょう。

バイアスを回避する方法

以下は、AI プログラムをバイアスのない状態に保つための6つのプロセス・ステップのチェックリストです。

1. 正しい学習モデルを選択する:

  • 教師ありモデルを使用する場合、関係者がトレーニング用データを選択するようにします。利害関係者チームがデータサイエンティストだけではなく多様性を持ち、無意識のバイアスを防ぐためのトレーニングを受けていることが重要です。
  • 教師なしモデルは、バイアスを識別するためにAIのみを使用します。何が偏っているかを認識することをニューラル・ネットワークが学習できるように、偏り防止ツールをニューラル・ネットワークに組み込む必要があります。

2. 適切なデータでトレーニングする: 間違ったデータでトレーニングされた機械学習は間違った結果を生成します。AIに入力されるデータは、検討対象グループの実際の人口統計を再現するために、完全かつバランスが取れている必要があります。

3. バランスの取れたチームを選択する:AIチームの多様性(人種、経済、教育レベル、性別、職務内容など)が高ければ高いほど、バイアスを認識できる可能性が高くなります。バランスの取れたAIチームには、AIビジネス革新者、AI作成者、AI実装者、そしてこの特定のAIプロジェクトにおける消費者の代表者を参加させ、さまざまな人材と視点を含む必要があります。9

4. データ処理を注意深く実行する:企業は、データを処理する際に各ステップでバイアスに注意する必要があります。リスクはデータの選択だけではありません。前処理、中処理、後処理のいずれの段階でも、バイアスが入り込み、AIに取り込まれる可能性があります。

5. 継続的に監視する: モデルは完全でも永続的でもありません。組織全体から収集した実際のデータを使用して継続的に監視およびテストを行うことで、バイアスが害を及ぼす前にそれを特定して修正することができます。さらにバイアスを避けるために、組織は組織内の独立したチームまたは信頼できる第三者による評価を検討する必要があります。

6. インフラストラクチャーの問題を回避する:人やデータの影響とは別に、インフラストラクチャー自体がバイアスの原因となる場合があります。例えば、機械式センサーから収集されたデータを使用すると、センサーが故障している場合に機器自体がバイアスを注入する可能性があります。この種のバイアスは検出が難しい場合があり、賽銭店の電子および技術インフラへの投資が必要です。

関連ソリューション

関連ソリューション

IBM® watsonx.governance

IBM watsonx.governanceを使用すれば、生成AIモデルをあらゆる場所から管理したり、クラウドまたはオンプレミスにデプロイしたりできます。

watsonx.governanceについて
AIガバナンス・コンサルティング・サービス

IBMコンサルティングを活用して、EUのAI法に備え、責任あるAIガバナンスに取り組みましょう。

AIガバナンス・サービスの詳細はこちら
IBM OpenPages

統合されたGRCプラットフォームを利用して、リスクと規制順守の管理を簡素化しましょう。

OpenPagesの詳細はこちら
次のステップ

AIを単一のポートフォリオで統括・管理・監視することで、透明性を高め、責任ある説明可能なAIの導入を加速させます。

watsonx.governanceの詳細はこちら デモを予約
脚注

1 『The Wall Street Journal』紙:Rise of AI Puts Spotlight on Bias in Algorithms

2 Booz Allen Hamilton社:Artificial Intelligence Bias in Healthcare

3 LinkedIn社:Reducing AI Bias — A Guide for HR Leaders

4 Bloomberg社:Humans Are Biased. Generative AI Is Even Worse

5 ニュースサイト「The Conversation US」:Ageism, sexism, classism and more — 7 examples of bias in AI-generated images

6 『Technology Review』誌:Predictive policing is still racist—whatever data it uses

7 Tech Target社:Machine learning bias (AI bias)
 Chapman University AI Hub: Bias in AI 
 AIMultiple: Bias in AI —What it is, Types, Examples & 6 Ways to Fix it in 2023

8 McKinsey社:Tackling bias in artificial intelligence (and in humans)

9 『Forbes』誌:The Problem With Biased AIs (and How To Make AI Better)