IBMの調査によると、調査対象となった企業の約42%が業務でAIを活用しています。数あるユースケースの中でも、私たちの多くは、質問に答えたり、Eメールや論文の作成などのタスクを支援したりできる自然言語処理AIチャットボットに非常に精通しています。しかし、これらのチャットボットが広く導入されているにもかかわらず、企業は依然としていくつかの課題に直面することがあります。例えば、これらのチャットボットは、目の前にあるクエリーに関連していないかもしれない大規模なデータ・ストアから取得しているため、一貫性のない結果を生み出す可能性があります。
幸いなことに、検索拡張生成(RAG)が、最も正確で最新の情報に基づいて大規模言語モデル(LLM)を基盤とするための有望なソリューションとして登場しました。AIフレームワークとして、RAGは、LLMの情報の内部表現を補完するためにモデルを知識ソースに基づいて作成することで、 LLMが生成する応答の品質を向上させるよう機能します。IBMは、2023年5月に、RAGを提供するAI製品の新しいポートフォリオであるwatsonx™発表しました。
簡単に言うと、RAGを活用することは、モデルに教科書持ち込み可の試験を受けさせるようなものです。なぜなら、すぐに利用できるすべての情報を提示して、チャットボットに質問に答えるように求めるからです。しかし、インフラストラクチャー・レベルではRAGはどのように動作するのでしょうか。Platform-as-a-service(PaaS)サービスを組み合わせることで、RAGは簡単かつ正常に実行でき、LLMを使用している業界の組織で生成AIの成果を実現します。
生成AIを含むエンタープライズ・グレードのAIには、持続可能性が高く、計算集約型とデータ集約型の分散型インフラストラクチャーが必要です。AIはRAGフレームワークの重要なコンポーネントですが、PaaSソリューションなどの他の「要素」もその組み合わせに不可欠です。これらのサービス、特にサーバーレス・サービスおよびストレージ・サービスは、バックグラウンドで勤勉に動作し、データをより簡単に処理および保存できるようにします。これにより、チャットボットからのアウトプットの精度が高まります。
サーバーレス・テクノロジーは、周囲のインフラストラクチャーを管理および保護することにより、RAGが生み出すような計算集約型のワークロードをサポートします。これにより、開発者はコーディングに集中する時間を確保できます。サーバーレス・テクノロジーにより、開発者はサーバーやバックエンド・インフラストラクチャーをプロビジョニングまたは管理することなく、アプリケーション・コードを構築および実行できます。
開発者がLLMやチャットボットにデータをアップロードしているものの、データを適切な形式にしたり、特定のデータ・ポイント向けにフィルタリングしたりするためのデータの前処理方法が分からない場合、IBM® Cloud Code Engineはこれらすべてを行うことができます。このようにして、 AIモデルから正しいアウトプットを得るための全体的なプロセスを容易にします。フルマネージド・サーバーレス・プラットフォームであるIBM Cloud Code Engineは、基盤となるインフラストラクチャーを管理および保護する自動化機能によって、アプリケーションを簡単に拡張することができます。
さらに、開発者がLLMのソースをアップロードする場合は、安全性が高く、回復力があり、耐久性のあるストレージを確保することが重要です。これは、金融サービス、医療、電気通信など、規制の厳しい業界では特に重要です。
例えば、IBM Cloud Object Storageは、大量のデータを保存するためのセキュリティーとデータ耐久性を提供します。改ざん不可能なデータ保持機能と監査制御機能を備えたIBM Cloud Object Storageは、ランサムウェア攻撃によるデータの改ざんや操作からデータを保護し、コンプライアンス要件やビジネス要件を満たすようにすることで、RAGをサポートします。
IBM Code EngineやCloud Object StorageなどのIBMの膨大なテクノロジー・スタックにより、さまざまな業界の組織がRAGをシームレスに利用し、AIをビジネスにより効果的に活用することに集中できます。
RAGが生成AIの成果を可能にするために非常に価値があることを証明しましたが、実際のところはどうなのでしょうか。
スウェーデンの大手法律サービス・プロバイダーであるBlendow Groupは、多様な法律文書を扱い、裁判所の判決から法律、判例に至るまで、これらの文書を分析、要約、評価しています。Blendow Groupは比較的小規模なチームであるため、法的分析を支援するスケーラブルなソリューションを必要としていました。Blendow Groupは、IBM Client EngineeringおよびNEXERと連携して、革新的なAI駆動ツールを作成しました。このツールは、調査と分析を強化し、法的なコンテンツを作成するプロセスを効率化するための包括的な機能を活用し、同時に機密データの機密性を最大限に維持します。
このAIソリューションは、IBM Cloud Object StorageやIBM Code EngineなどのIBMのテクノロジー・スタックを活用して、Blendowの法的文書分析の効率と範囲を広げられるようにカスタマイズされました。
Mawson's Huts Foundationも、RAGを活用してAIの成果を向上させた優れた例です。この財団の使命は、オーストラリアが42%の領有権を主張する南極地域も含め、Mawsonのレガシーを保存し、南極大陸自体とその手付かずの環境を維持することの重要性について子どもやその他の人々に教育することです。
IBM Cloud上で動作するAI搭載の学習プラットフォームであるThe Antarctic Explorerにより、Mawsonは子供たちやその他の人々がどこにいてもブラウザーから南極大陸にアクセスできるようにしています。ユーザーはブラウザー・ベースのインターフェースを介して質問を提出することができます。また、学習プラットフォームはIBM watsonx Assistantが提供するAIを活用した自然言語処理機能を使用して質問を解釈し、適切な回答と関連メディア(動画、画像、文書)を提供します。これらは、IBM Cloud Object Storageに保存されており、そこから取得したものです。
Infrastructure-as-a-Service製品をwatsonxと連携して活用することで、Mawson Huts FoundationとBlendow Groupの両社は、AIモデルに含まれるデータの管理と保管のプロセスを容易にし、AIモデルからより大きな洞察を得ることができます。
生成AIとLLMは、さまざまな業界の組織を変革する大きな可能性を秘めていることが既に証明されています。幅広い人々への教育であれ、法律文書の分析であれ、クラウド内のPaaSソリューションは、RAGの成功とAIモデルの実行に不可欠です。
IBMは、AIワークロードがミッションクリティカルなワークロードのバックボーンを形成し、最終的には最も信頼できるデータを格納および管理するようになると考えています。そのため、それを取り巻くインフラストラクチャーは、設計段階から信頼性が高く、回復力のあるものでなければなりません。IBM Cloudを使用すると、AIを使用しているさまざまな業界の企業が、より高いレベルのレジリエンス、パフォーマンス、セキュリティー、コンプライアンス、および総所有コストを実現できます。IBM Cloud Code EngineとIBM Cloud Object Storageの詳細については、以下をご覧ください。
Red Hat OpenShift on IBM Cloudは、フルマネージドのOpenShiftコンテナ・プラットフォーム(OCP)です。
コンテナ・ソリューションは、セキュリティー、オープンソースのイノベーション、迅速なデプロイメントにより、コンテナ化されたワークロードを実行およびスケールアップします。
IBMのクラウド・コンサルティング・サービスで新しい機能にアクセスし、ビジネスの俊敏性を高めましょう。ハイブリッドクラウド戦略や専門家とのパートナーシップを通じて、ソリューションを共創し、デジタル・トランスフォーメーションを加速させ、パフォーマンスを最適化する方法をご覧ください。