IBM Watson Blog

ビジネス向けに責任をもって生成AIを拡張する方法

記事をシェアする:

テキストで検索するだけで、学習効率と生産性を向上させる知識の世界が開く可能性を想像してみてください。記事、エッセイ、電子メールの執筆の支援;要約された研究の照会;アイデアのブレインストーミングと生成;買い物や旅行についてのパーソナライズされたおすすめ情報を含む動的な検索;教育とトレーニングに関する複雑なトピックについての説明など、可能性が広がっています。生成AIを使用すると検索が劇的に変わります。複数の記事へのリンクを提供する代わりに、ユーザーは無数のデータから生成された回答を直接受け取ることになります。それはとても賢い機械と会話しているようなものです。

生成AIとは何か?

生成AIは、ユーザーのプロンプトを取得し、自然言語処理(NLP)を使用して、ほぼすべての質問に対する回答を生成する高度な形式の機械学習アルゴリズムを使用します。膨大な量のインターネット上のデータ、大規模な事前トレーニング、強化学習を使用して、驚くほど人間的なユーザー・トランザクションを可能にします。人間のフィードバックからの強化学習(RLHF:Reinforcement Learning from Human Feedback)が使用され、さまざまなコンテキストや状況に適応し、時間の経過とともにより正確かつ自然になります。生成AIは、マーケティング、顧客サービス、小売、教育などのさまざまなユースケースで分析されています。

ChatGPTが最初でしたが、現在では多くの競合モデルが存在します

ChatGPTは、トランスフォーマーと呼ばれる深層学習アーキテクチャーを使用しており、NLPの分野で大きな進歩をもたらします。OpenAIが主導権を握っている一方、競争は激しくなっています。Precedence Researchによると、世界の生成AI市場規模は2022年に10.79 米ドルと評価され、2023年から2032年の間に27.02%の年平均成長率で成長し、2032年までに約118.06 米ドルに達すると予想されています。これはすべて驚異的なことですが、注意点がないわけではありません。

生成型AIのリスクの高いビジネス

既製の構築済み生成モデルを使用する場合、いくつかの基本的な問題があります。各企業は、価値創造の機会とそれに伴うリスクのバランスを取る必要があります。ビジネスやユースケースにもよりますが、リスク許容度が低い場合、企業は社内で構築するか、信頼できるパートナーと協力する方がより良い結果が得られると考えるでしょう。

既製の生成AIモデルについて考慮すべき懸念事項は次のとおりです:

インターネット・データが公平で正確であるとは限りません

今日の生成AIの中心には、ウィキペディア、Web サイト、記事、画像や音声ファイルなどのソースからの膨大な量のデータが含まれています。生成モデルは基礎となるデータのパターンを照合してコンテンツを作成しますが、制御がなければ虚偽、偏見、オンライン・ハラスメントを促す悪意が存在する可能性があります。このテクノロジーは非常に新しいため、説明責任が欠如し、著作権やロイヤルティなどに関連する風評上・規制上のリスクにさらされる可能性が高くなります。

モデル開発者とすべてのモデルのユースケースの間に断絶が生じる可能性があります

生成モデルの後工程の開発者は、モデルがどのように使用され、他の目的に適応されるかを完全に理解していない可能性があります。これにより、誤った仮定や結果が生じる可能性があり、製品やサービスの選択など、それほど重要ではない意思決定にエラーが関与する場合には問題は大きくありませんが、偏見を含む非倫理的な行為や、監査や罰金につながる可能性のある法規制遵守の問題など、組織が告発される可能性があるビジネスクリティカルな決定に影響を与える場合に致命的です。

訴訟リスクと規制がAIの利用に影響を与えます

訴訟や規制に対する懸念により、大企業による生成AIの利用方法は当初は制限されるでしょう。これは、不完全または不正確なデータやモデルに基づく非倫理的で偏った意思決定に対する許容度が非常に低く、悪影響を与える可能性がある金融サービスやヘルスケアなどの高度に規制された業界に特に当てはまります。

最終的には、生成モデルに関する規制は実態に追いつくでしょうが、企業は、コンプライアンス違反や企業評価の低下、監査や罰金を避けるために、積極的に規制を遵守する必要があります。

責任を持って生成AIを拡張するために今何ができるでしょうか?

AIの洞察の結果がビジネス クリティカルになり、テクノロジーの選択肢が増え続けるにつれて、モデルが透明性のあるプロセスと説明可能な結果で責任を持って動作していることを保証する必要があります。 AIへの取り組みにガバナンスを積極的に組み込む企業は、倫理原則や政府の規制を満たす能力を強化しながら、モデルのリスクをより適切に検出して軽減できます。

最も重要なのは、信頼できるテクノロジーと企業の機能と連携することです。 まずは、IBMがwatsonx.ai新しい生成AIモデルで実現している進歩について詳しくご確認ください。またwatsonx.governanceを前もって導入することで、現在および将来にわたり、説明可能で透明性があり、責任のある AI ワークフローを推進することができます。

watsonx.governanceとは何か?

watsonx.governanceは、AIライフサイクル・ワークフローを運用し、リスクを積極的に検出して軽減し、増大し変化する法律、倫理、規制要件へのコンプライアンスを向上させるために構築された強力なガバナンス、リスク、コンプライアンス(GRC)ツール キットを提供します。カスタマイズ可能なレポート、ダッシュボード、共同作業ツールが分散したチームを結び付け、ステークホルダーの作業効率、生産性、説明責任を向上させます。モデルのメタデータとファクトの自動キャプチャにより、モデルの成果物の透明性・説明可能性を推進しながら、監査へのサポートを提供します。

リスクとコンプライアンスの管理、監視、レポートを支援する統合ガバナンス、リスク、コンプライアンス (GRC) ソリューションであるIBM OpenPagesを使用して、ガバナンスを加速し、組織全体のリスク管理を簡素化します。 watsonx.governance が説明可能で透明性があり、責任のあるAI ワークフローをどのように推進しているか、そして今後の機能強化について詳しくご確認ください。

この記事は英語版ブログ「Enterprises need generative AI tailored to their unique needs, with their own unique data」(2023年6月26日公開)を翻訳したものです。


関連情報

IBMのサービスとソリューション

More IBM Watson Blog stories

データ分析者達の教訓 #18- データの向こうにある社会的背景や因果関係を洞察せよ

Data Science and AI, SPSS Modeler ヒモトク, アナリティクス...

こんにちは。IBM Data&AIでデータサイエンスTech Salesをしている西牧です。 このリレー連載ブログはSPSS Modelerの実際のユーザーで第一線で活躍するデータ分析者に、データ活用を進める上で ...続きを読む


法務・AIリスクのスペシャリスト三保友賀が語る「ダイバーシティー」 | インサイド・PwDA+7(後編)

Data Science and AI, IBM Sustainability Software

日本IBMにて法務、特にAI倫理・リスクのスペシャリストとして、そして同時にLGBTQ+コミュニティー*1やPwDAコミュニティー*2のアライとして積極的に活動している三保友賀さんにお話を伺いました。 前編での法務・AI ...続きを読む


ジェネレートするAI。クリエートする人類 。 | Think Lab Tokyo 宇宙の旅(THE TRIP)

IBM Data and AI, IBM Partner Ecosystem, IBM Sustainability Software

その日、船長ジェフ・ミルズと副船長COSMIC LAB(コズミック・ラブ)は、新宿・歌舞伎町にいた。「THE TRIP -Enter The Black Hole-」(以下、「THE TRIP」)と名付けられた13度目の ...続きを読む