ビジネスを飛躍させるのは、あなたの仕事を知っている AI。
国内外の事例、新たなAIの取り組みをご紹介
AIバイアスに対処しないと、組織の成功に影響を与え、人々が経済や社会に参加する能力を妨げる可能性があります。バイアスはAIの精度を低下させ、その結果、AIの可能性も狭められてしまいます。
歪んだ結果を生み出すシステムでは、企業が利益を得る可能性は低くなります。また、AIバイアスから生じる誤った結果は、有色人種、女性、障害者、LGBTQコミュニティー、その他の疎外されたグループに不信感をもたらす可能性があります。
AIの取り組みの基盤となるモデルは、トレーニングに使用された膨大なデータの中に埋もれている可能性のある社会のバイアスも吸収します。社会的不平等を反映し、長年偏っていたままであったデータを収集することは、雇用、警察活動、信用スコアリングなど、さまざまなユースケースにおいて、歴史的に疎外されてきたグループに害を及ぼす可能性があります。『The Wall Street Journal』紙によると、「人工知能の使用が広まるにつれて、企業は依然として蔓延しているバイアスに対処するのに苦労している」と言います。1
AIがバイアスによる間違いがあった場合、例えば、あるグループの人々が機会を奪われたり、写真で誤って識別されたり、不当に処罰されたりした場合、この間違いを犯した組織やブランドは評判が落ち、損害を被るでしょう。同時に、こうしたグループの人々や社会全体が、気づかないうちに被害を受ける可能性もあります。ここでは、AIにおける格差とバイアス、そしてそれが引き起こす可能性のある害について、いくつかの注目すべき例を紹介します。
医療の分野では、女性やマイノリティー・グループのデータを過小評価することで、予測AIアルゴリズムが歪める可能性があります。2例えば、コンピューター診断支援(CAD)システムは、黒人の患者に対して白人の患者よりも精度の低い結果を返すことがわかっています。
AIツールは、検索中に履歴書による書類選考を自動化して理想的な候補者を特定するのに役立ちますが、要求される情報と除外される回答によって、グループ間で不均衡な結果が生じる可能性があります。例えば、求人広告に「忍者」という言葉が使われていた場合、それが仕事の要件ではないにもかかわらず、女性よりも男性の応募が多くなる可能性があります。3
画像生成のテストとして、Bloomberg社はAIに5,000枚以上の画像作成をリクエストしたところ、「ディープラーニング・モデルのStable Diffusionを使用すると、世界は白人男性のCEOによってコントロールされており、女性が医者、弁護士、裁判官になることは稀であり、肌の黒い男性は犯罪を犯し、肌の黒い女性はハンバーガーを焼く」という結果を得ました。4独立系研究所であるMidjourney社は、上述の研究と同様に、専門職に就く人々の画像をリクエストすると、結果では若者と年配者の両方が表示されたものの、年配者は常に男性であり、職場での女性の役割に関する性別によるバイアスが浮き彫りとなりました。5刑事司法制度に関わる組織の一部で使用されるAI搭載の予測型取り締まりツールは、本来ならば犯罪が発生する可能性が高い地域を特定するものです。しかし過去の逮捕データに依存している場合が多いため、人種プロファイリングの既存パターンを強めたり、マイノリティーのコミュニティーの不当な標的化を助長する可能性があります。6
歪んだ成果は、組織や社会全体に害を及ぼす可能性があります。ここでは、AIバイアスの一般的な種類をいくつか紹介します7 。
外集団同質性バイアス:これは、自分が知らないことを知らないケースです。人々は、内集団(自分が属する集団)のメンバーをよりよく理解し、外集団のメンバーよりも多様性があると考える傾向があります。その結果、開発者はトレーニング用データ内の多数派グループに属していない個人を区別する能力が低いアルゴリズムを作成し、その結果、人種に対するバイアス、誤分類、誤った回答につながる可能性があります。
バイアスの罠を回避するための最初のステップは、最初に一歩下がってAIの取り組みについてよく考えることです。ほとんどすべてのビジネス上の課題と同様に、列車事故が発生してから損害を受けた結果を事後対応するよりも、事前に問題を解決する方がはるかに簡単です。しかし、多くの組織は急いでいるため、「小銭を惜しんで大金を失う」はめになり、多額のコストがかかっています。
AIバイアスを特定して対処するには、AIガバナンス、つまり組織のAI活動を指揮、管理、監視する能力から始まります。実際には、AIガバナンスではAIテクノロジーの責任ある開発と利用を導くための一連の方針、プラクティス、フレームワークを作成します。AIガバナンスがうまくいけば、企業、顧客、従業員、そして社会全体に与えられる恩恵のバランスの確保に役立ちます。
AIガバナンスには、公正性、公平性、包摂性を評価するための手法が取り入れられることがよくあります。反事実的な公正性のようなアプローチは、モデルの意思決定におけるバイアスを特定し、性別、人種、性的指向といったデリケートな属性が含まれた場合でも、公平な結果を保証します。
AIは複雑なので、アルゴリズムがブラックボックス・システムとなり、構築に使われたデータからほとんど知見が得られない場合があります。透明性の実践とテクノロジーは、システムの構築にバイアスのないデータが使用され、結果が公正になることを促進します。顧客情報の保護に取り組む企業は、ブランドの信頼を築き、信頼できるAIシステムを構築できる可能性が高まります。
データの品質をより良いものにするために、「人間が関与する」システムを導入して、オプションを提供したり、人間の判断によって承認できる推奨事項を作成したりするとよいでしょう。
以下は、AI プログラムをバイアスのない状態に保つための6つのプロセス・ステップのチェックリストです。
1. 正しい学習モデルを選択する:
2. 適切なデータでトレーニングする: 間違ったデータでトレーニングされた機械学習は間違った結果を生成します。AIに入力されるデータは、検討対象グループの実際の人口統計を再現するために、完全かつバランスが取れている必要があります。
3. バランスの取れたチームを選択する:AIチームの多様性(人種、経済、教育レベル、性別、職務内容など)が高ければ高いほど、バイアスを認識できる可能性が高くなります。バランスの取れたAIチームには、AIビジネス革新者、AI作成者、AI実装者、そしてこの特定のAIプロジェクトにおける消費者の代表者を参加させ、さまざまな人材と視点を含む必要があります。9
4. データ処理を注意深く実行する:企業は、データを処理する際に各ステップでバイアスに注意する必要があります。リスクはデータの選択だけではありません。前処理、中処理、後処理のいずれの段階でも、バイアスが入り込み、AIに取り込まれる可能性があります。
5. 継続的に監視する: モデルは完全でも永続的でもありません。組織全体から収集した実際のデータを使用して継続的に監視およびテストを行うことで、バイアスが害を及ぼす前にそれを特定して修正することができます。さらにバイアスを避けるために、組織は組織内の独立したチームまたは信頼できる第三者による評価を検討する必要があります。
6. インフラストラクチャーの問題を回避する:人やデータの影響とは別に、インフラストラクチャー自体がバイアスの原因となる場合があります。例えば、機械式センサーから収集されたデータを使用すると、センサーが故障している場合に機器自体がバイアスを注入する可能性があります。この種のバイアスは検出が難しい場合があり、賽銭店の電子および技術インフラへの投資が必要です。
EUのAI規制法について、ビジネスに与える影響、準備すべきこと、リスクの軽減方法、規制とイノベーションのバランスを取る方法をご確認ください。
生成AIがもたらす新たな課題、AIモデルおよびMLモデルを制御する必要性、信頼性と透明性を高めた説明可能なAIフレームワークを構築する手順をご紹介します。
生成AIモデル向けの製品ポートフォリオを活用し、コンプライアンスに準拠した倫理的な運用を推進する方法について説明しています。
watsonx.governanceを使ってどのように公平性の確保やドリフトの管理、品質の維持、説明可能性の向上を行うかについて理解を深めます。
IBM watsonx.governanceを使用すれば、生成AIモデルをあらゆる場所から管理したり、クラウドまたはオンプレミスにデプロイしたりできます。
IBMコンサルティングを活用して、EUのAI法に備え、責任あるAIガバナンスに取り組みましょう。
統合されたGRCプラットフォームを利用して、リスクと規制順守の管理を簡素化しましょう。
1 『The Wall Street Journal』紙:Rise of AI Puts Spotlight on Bias in Algorithms
2 Booz Allen Hamilton社:Artificial Intelligence Bias in Healthcare
3 LinkedIn社:Reducing AI Bias — A Guide for HR Leaders
4 Bloomberg社:Humans Are Biased. Generative AI Is Even Worse
5 ニュースサイト「The Conversation US」:Ageism, sexism, classism and more — 7 examples of bias in AI-generated images
6 『Technology Review』誌:Predictive policing is still racist—whatever data it uses
7 Tech Target社:Machine learning bias (AI bias)
Chapman University AI Hub: Bias in AI
AIMultiple: Bias in AI —What it is, Types, Examples & 6 Ways to Fix it in 2023
8 McKinsey社:Tackling bias in artificial intelligence (and in humans)
9 『Forbes』誌:The Problem With Biased AIs (and How To Make AI Better)
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com