人工知能(AI)とは何か。

2024年8月9日

共同執筆者

Cole Stryker

Editorial Lead, AI Models

Eda Kavlakoglu

Program Manager

AIとは

人工知能(AI)は、コンピューターや機械が人間の学習や理解、問題解決、意思決定、創造性、自律性をシミュレートできるようにするテクノロジーです。

AIを搭載したアプリケーションやデバイスは、物体を観察し、識別することができます。彼らは人間の言語を理解し、反応することができます。彼らは新しい情報や経験から学ぶことができます。ユーザーや専門家に詳細な推奨事項を作成できます。人間の知性や介入(典型的な例として自動運転車)の必要がなく、独立して行動することができます。

しかし、2024年になると、ほとんどのAI研究者や実務家、そしてほとんどのAI関連のヘッドラインは、オリジナルのテキストや画像、動画、その他のコンテンツを作成できる技術である生成AIのブレークスルーに焦点を当てています。生成AIを完全に理解するには、まず、生成AIツールが構築されているテクノロジー、つまり機械学習(ML)とディープラーニング(深層学習)を理解することが重要です。

 

専門家がお届けする最新のAIトレンド

購読ありがとうございます。登録が完了しました。

最も重要で興味をそそるAIニュースに関して厳選されたインサイトをお届けします。週刊Thinkニュースレターにご登録ください。

サブスクリプションは英語で配信されます。すべてのニュースレターに登録解除リンクがあります。サブスクリプションの管理や解除はこちらから。詳しくはIBMプライバシー・ステートメントをご覧ください。

 

機械学習

AIについての簡単な考えは、70年以上にわたって登場した一連の入れ子や派生の概念です。

AI のすぐ下には機械学習があり、これがデータに基づいて予測や決定を行うアルゴリズムをトレーニングしてモデルを作成します。これには、コンピューターが特定のタスク用に明示的にプログラムされなくても、データから学習し、データに基づいた推論を行えるようにする幅広い手法が含まれます。

機械学習の手法やアルゴリズムには、線形回帰論理回帰ディシジョン・ツリーランダム・フォレストサポート・ベクター・マシン(SVM) k近傍法(KNN)クラスタリングなど、さまざまな種類があります。これらのアプローチはそれぞれ、異なる種類の問題やデータに適しています。

しかし、最も人気のあるタイプの機械学習アルゴリズムの1つは、ニューラル・ネットワーク(または人工ニューラル・ネットワーク)と呼ばれます。ニューラル・ネットワークは、人間の脳の構造と機能に基づいてモデル化されています。ニューラル・ネットワークは、相互に接続されたノード(ニューロンに類似)の層で構成されており、これらが連携して複雑なデータを処理・分析します。ニューラル・ネットワークは、大量のデータ内の複雑なパターンと関係を識別するタスクに適しています。

機械学習の最も単純な形式は教師あり学習と呼ばれ、ラベル付けされたデータ・セットを使用してアルゴリズムをトレーニングし、データを分類したり結果を正確に予測したりします。教師あり学習では、人間が各トレーニング例をアウトプット・ラベルと組み合わせます。目標は、モデルがトレーニング用データのインプットとアウトプットの間のマッピングを学習して、新しい未知のデータのラベルを予測できるようにすることです。

ディープラーニング(深層学習)

多層ニューラル・ネットワーク、すなわち「深層ニューラル・ネットワーク」を使用して、人間の脳の複雑な意思決定能力をより真似する機械学習のサブセットであるディープラーニング(深層学習)です。

ディープ・ニューラル・ネットワークには、通常は1つまたは2つしか隠れ層がない古典的な機械学習モデルで使用されるニューラル・ネットワークとは異なり、1つのインプット層に少なくとも3つ、通常は数百の隠れ層と1つのアウトプット層が含まれます。

これらの複数の層により、教師なし学習が可能になります。つまり、大規模でラベル付けされていない非構造化データ・セットからの特徴の抽出を自動化し、データが何を表しているかについて独自の予測が可能になります。

ディープラーニングは人間の介入を必要としないため、非常に大規模な機械学習が可能になります。自然言語処理(NLP)コンピューター・ビジョン、および大量のデータ内の複雑なパターンと関係を迅速かつ正確に識別するその他のタスクに適しています。いくつかの形でのディープラーニングが、今日の私たちの生活にある多くの人工知能(AI)アプリケーションを支えています。

ディープラーニングでは、次のことも可能になります。

  • 半教師あり学習は、ラベル付きデータとラベルなしデータの両方を使用して教師あり学習と教師なし学習を組み合わせ、分類タスクと回帰タスクのAIモデルをトレーニングします。

  • *
  • 自己教師あり学習は、監視信号のラベル付きデータ・セットに依存するのではなく、非構造化データから暗黙的なラベルを生成します。

  • *
  • 強化学習は、隠れたパターンから情報を抽出するのではなく、試行錯誤と報酬関数によって学習します。

  • *
  • 転移学習では、1 つのタスクまたはデータ・セットを通じて得られた知識を使用して、別の関連タスクまたは異なるデータ・セットでのモデルの性能を向上させます。
*

生成AI

生成AIは、「ジェネレーティブAI」とも呼ばれユーザーのプロンプトやリクエストに応じて、長文テキストや高品質の画像、リアルなビデオやオーディオなど、複雑なオリジナル・コンテンツを作成できるディープラーニング・モデルを指します。

大まかに言うと、生成モデルはトレーニング用データの簡略化された表現をエンコードし、その表現からデータを引き出して、元のデータに類似しているが同一ではない新しいデータを作成します。

生成モデルは、数値データを分析するために統計学の分野で長年使用されてきました。しかし、過去10年間でより複雑なデータ型の分析と生成を行うように進化しました。この進化は、次の3種類の洗練されたディープラーニング・モデルの出現と同時に起こりました。

  • 2013年に導入された変分オートエンコーダー(VAE)は、プロンプトや指示に応じて複数のバリエーションのコンテンツを生成できるモデルを可能にしました。

  • *
  • 2014年に初めて登場した拡散モデルで、画像に「ノイズ」を認識できなくなるまで加え、プロンプトに応じてノイズを除去して元の画像を生成します。

  • *
  • Transformer(Transformerモデルとも呼ばれる)は、シーケンス・データでトレーニングされ、コンテンツの拡張シーケンス(文中の単語、画像内の図形、ビデオのフレーム、ソフトウェア・コード内のコマンドなど)を生成します。Transformerは、ChatGPTやGPT-4、Copilot、BERT、Bard、Midjourneyなど、今日メディアで注目されているほとんどの生成AIツールの中核となっています。
*
Mixture of Experts | ポッドキャスト

AIを解読する:1週間のニュースのまとめ

エンジニア、研究者、製品リーダーなど、世界をリードするパネリストがAIに関する最新のニュースとインサイトをお届けします。

生成AIの仕組み

生成AIは一般的に、3つのフェーズで動作します。

  1.  
  2. トレーニング: 基盤モデルの作成。
  3. チューニング:モデルの特定アプリケーションへの適合。
  4. 精度を向上させるための生成・評価、さらなるチューニング
  5. *
 

学習

生成AIの始点は「基盤モデル」です。これは、異なる種類の生成AIアプリケーションの基盤となるディープラーニング・モデルです。

現在最も一般的な基盤モデルは、テキスト生成アプリケーション用に作成された大規模言語モデル(LLM)です。また、画像や動画、音声または音楽生成用の基盤モデルや、複数の種類のコンテンツをサポートするマルチモーダル基盤モデルもあります。

基盤モデルを作成するためには、テラバイトやペタバイト単位のデータ・テキストやインターネット上の画像や動画などの構造化されていないラベルなしの大量の関連する未加工データでディープラーニング・アルゴリズムのトレーニングを行います。このトレーニングにより、数十億のパラメーター からなるニューラル・ネットワーク(データ内のエンティティー、パターン、関係をエンコードされた表現)が生成され、プロンプトに応じて自律的にコンテンツを生成できます。これが基盤モデルです。

このトレーニング・プロセスは計算量が多く、時間と費用もかかります。何千もの画像処理装置(GPU)クラスタを使用して、数週間かけて処理する必要があり、トータルで数百万米ドルの費用がかかります。生成AI開発者は、MetaのLlama-2などのオープンソース基盤モデル・プロジェクトによってこうした手順と費用コストを回避することができます。

チューニング

これを実現するには、モデルを特定のコンテンツ生成タスクに合わせて調整する必要があります。これは、次のようなさまざまな方法で行うことができます。

  • ファインチューニングとは、アプリケーション固有のラベル付けされたデータ(アプリケーションが受け取る可能性のある質問またはプロンプトと、それに対応する正解)をモデルに与えることです。

  • *
  • 人間のフィードバックによる強化学習(RLHF)では、人間のユーザーがモデルのアウトプットの精度や関連性を評価し、モデル自体が自己改善できるようにします。これは、人々がチャットボットやバーチャル・アシスタントに修正を入力または話し返すのと同じくらい簡単なことです。
*

生成、評価、さらなるチューニング

開発者とユーザーは、生成AIアプリのアウトプットを定期的に評価し、たとえ週に1度程度でも、モデルをさらにチューニングして精度や関連性を高めます。(対照的に基盤モデル自体は年に1回、または18カ月に1回しか更新されません。)

生成AIアプリの性能を向上させるもう一つの選択肢は、検索拡張生成(RAG)です。これは、基盤モデルを拡張し、より高い精度や関連性を得るために、訓練データ以外の関連ソースを使用してパラメーターを改良する技術です。

 

AIのメリット

AIはさまざまな業界や用途で多くのメリットをもたらします。最も頻繁に挙げられるメリットには、次のようなものがあります。

  • 反復的なタスクの自動化。
  • データからより多く、より迅速に洞察を得られる
  • *
  • 意思決定の強化
  • *
  • 人為的ミスの減少。
  • 24時間365日の可用性。
  • 物理的リスクの軽減。
*

反復的なタスクのオートメーション

AIは、データ収集や入力、前処理などのデジタル・タスクや、倉庫の在庫ピッキングや製造プロセスなどの物理的なタスクを含む、日常的で反復的で多くの場合退屈なタスクを自動化できます。この自動化により、より価値が高くより創造的な作業に取り組むことが可能になります。

意思決定の強化

AIは、意思決定支援に使用する場合も、完全に自動化された意思決定に使用する場合も、より迅速で正確な予測と信頼性の高いデータ主導の意思決定を可能にします。AIと自動化を組み合わせることで、企業は機会に応じて行動し、危機が発生したときにリアルタイムで人間の介入なしに対応できるようになります。

人為的ミスの減少
 

AIは、プロセスの適切な手順を踏むようユーザーを案内することから、潜在的なエラーが発生する前にフラグを立て、人間の介入なしにプロセスを完全に自動化することまで、さまざまな方法で人的エラーを削減できます。これは、例えばAI誘導型外科用ロボットによって一貫した精度が実現される医療などの業界では特に重要です。

機械学習アルゴリズムは、より多くのデータにさらされ、経験から「学習」するため、精度を継続的に向上させ、エラーをさらに削減できます。

年中無休の可用性と一貫性

AIは常時稼働して24時間利用可能であり、常に一貫した性能を提供します。AIチャットボットやバーチャル・アシスタントなどのツールを使うと、カスタマー・サービスやサポートの人員の需要を軽減できます。材料処理や生産ラインなどの他のアプリケーションでは、AIを使用して反復的な作業や退屈な作業を完了することで、一貫した作業品質と生産量を維持できます。

身体的リスクの軽減

AIを活用することで、動物の管理や爆発物の取り扱い、深層海水、高高度、宇宙空間での作業などの危険な作業を自動化すると、人間の労働者を負傷や最悪の危険にさらす必要がなくなります。自動運転車やその他の乗り物は、まだ完成していませんが、乗客の負傷リスクを軽減できる可能性があります。

AIユースケース

AIの現実世界への応用は数多くあります。ここでは、さまざまな業種・業務のユースケースのほんの一部をご紹介します。

顧客体験、サービス、サポート

企業は、 AI搭載チャットボットとバーチャル・アシスタントを実装して、顧客からの問い合わせやサポート・チケットなどを処理できます。これらのツールは、自然言語処理(NLP)と生成AI 機能を使用して、注文状況や製品の詳細、返品ポリシーに関する顧客の質問を理解し、回答します。

チャットボットとバーチャル・アシスタントは、常時サポートを可能にし、よくある質問(FAQ)に迅速に回答できるようにすることで、オペレーターがより高度なタスクに集中できるようにし、顧客により迅速で一貫性のあるサービスを提供できるようにします。

不正アクセス検知

機械学習やディープラーニングのアルゴリズムは、取引パターンを分析し、不正取引を示す異常な支出やログイン場所などにフラグを立てることが可能です。これにより、組織は潜在的な不正に迅速に対応でき、その影響を抑えることができるため、自社と顧客の安心感が高まります。

パーソナライズされたマーケティング

小売業や銀行その他の顧客と接する企業は、AIを利用してパーソナライズされた顧客体験やマーケティング・キャンペーンを行い、顧客を喜ばせ、売上を向上させ、解約を防げるようになります。ディープラーニング・アルゴリズムは、顧客の購買履歴や行動データに基づいて、顧客が欲しがりそうな商品やサービスを推奨し、さらには個々の顧客にパーソナライズされたコピーや特別オファーをリアルタイムで生成できます。

人事・採用

AI駆動型の採用プラットフォームは、履歴書の審査や候補者と職務記述書の照合、さらにはビデオ分析を使用した事前面接の実施により、採用を合理化できます。これらやその他のツールは、大量の候補者の活動に伴う管理事務作業の量を大幅に削減できます。また、回答時間と採用までの時間を短縮できるため、求職者が就職するかどうかにかかわらず、候補者のエクスペリエンスが向上します。

アプリケーションの開発とモダナイゼーション

生成AIコード生成ツールと自動化ツールで、アプリケーション開発に伴う反復的なコーディング・タスクを効率化し、レガシー・アプリケーションの移行とモダナイゼーション(リフォーマットとリプラットフォーム)を大規模に加速できます。これらのツールを使用すると、タスクを迅速化し、コードの一貫性を確保し、エラーを削減できます。

予知保全

機械学習モデルは、センサーやモノのインターネット(IoT)のデバイス、運用技術(OT)からのデータを分析して、保守が必要な時期を予測し、機器の故障を事前に予測できます。AIを活用した予防保守は、ダウンタイムを防止し、サプライチェーンの問題が収益に影響する前に先手を打てるようにします。

AIの課題とリスク

組織は、最新のAIテクノロジーを活用し、AIが持つ多くのメリットを活用しようと躍起になっています。このような迅速な導入は必要ですが、AIワークフローの導入と維持には課題とリスクが伴います。

データ・リスク

AIシステムは、データ・ポイズニングやデータ改ざん、データ・バイアスまたはデータ侵害につながる可能性のあるサイバー攻撃に対して脆弱かもしれないデータ・セットに依存しています。組織は、開発からトレーニングや導入、導入後まで、AIライフサイクル全体にわたってデータの整合性を保護し、セキュリティーと可用性を実装することで、これらのリスクを軽減できます。

モデル・リスク

脅威アクターは、AIモデルを標的にして、盗難、リバース・エンジニアリング、または不正操作を行う可能性があります。攻撃者は、AIモデルの動作や性能を決定するコア・コンポーネントであるアーキテクチャーや重み、パラメーターを改ざんすることで、モデルの完全性を損なう可能性があります。

オペレーション・リスク

すべてのテクノロジーと同様に、モデルもモデルのドリフトやバイアス、ガバナンス構造の崩壊などの運用リスクの影響を受けます。これらのリスクを放置したままにすると、システム障害や、脅威アクターが悪用できるサイバーセキュリティーの脆弱性が生じる可能性があります。

倫理的・法的リスク

組織がAIシステムの開発と導入において安全性と倫理を優先しない場合、プライバシー侵害を行い、偏った結果を生み出すリスクがあります。例えば、採用の決定に使用される偏ったトレーニング用データは、性別や人種に関する固定観念を強化し、特定の人口統計グループを他のグループよりも優遇するAIモデルを作成する可能性があります。

AI倫理とガバナンス

AI倫理は、リスクや不利な結果を軽減しながら、AIの有益な影響を最適化する方法を研究する学際的な分野です。AI倫理の原則は、AIツールとシステムが安全で倫理的であり続けることを保証できるようにするガードレールで構成されるAIガバナンスのシステムを通じて適用されます。

AIガバナンスには、リスクに対処する監視メカニズムが含まれます。AI関連システムが社会の価値観に沿うように開発・使用されることを確実にするため、AIガバナンスに対する倫理的なアプローチには、AI開発者やユーザー、政策立案者、倫理学者を含む幅広い利害関係者の関与が必要です。

AI倫理と責任あるAIに関連する共通の価値観は次のとおりです。

 
説明可能性と解釈可能性

AIが高度に進化するにつれて、アルゴリズムが結果を導く仕組みへの理解とリトレースという課題が人間に突きつけられます。説明可能なAIとは、アルゴリズムによって生成された結果とアウトプットを人間のユーザーが解釈・理解し、信頼できるようにするための一連のプロセスと方法のことです。

公平性と包括性

機械学習は、その性質上、統計的判別の一形態ですが、特権的な集団を体系的に有利な立場に置き、特定の恵まれない集団を体系的に不利な立場に置くことでさまざまな害をもたらす可能性がある場合、その判別は好ましいものではなくなります。公平性を促進するために、実務家はデータ収集とモデル設計におけるアルゴリズムのバイアスを最小限に抑え、より多様で包括的なチームの構築を試みることができます。

 
堅牢性とセキュリティー

堅牢なAIは、インプットの異常や悪意のある攻撃などの異常な状況を効果的に処理し、意図しない危害の発生を防ぎます。また、明らかになっている脆弱性から保護することで、意図されたまたは意図しない干渉に耐えられるように構築されています。

説明責任と透明性

組織は、AI システムの開発、デプロイメント、 成果に対して明確な責任とガバナンス構造を導入する必要があります。 さらに、ユーザーはAIサービスがどのように機能するかを確認し、 その機能を評価し、その長所と限界を理解できる 必要があります。透明性が高まることにより、AI利用者は、 AIモデルやサービスがどのように構築されたかをより深く理解することができます。

 
プライバシーとコンプライアンス

GDPRを含む多くの規制フレームワークでは、組織が個人情報を処理する際に一定のプライバシー原則を遵守することを義務付けています。個人情報が含まれている可能性のあるAIモデルを保護すること、モデルに入るデータを制御すること、そしてAI倫理をめぐる規制や意識の変化に適応できる適応可能なシステムを構築できることが極めて重要です。

弱いAIと強いAIの違い

AIの使用をさまざまな複雑性と洗練度のレベルで文脈化するために、研究者たちはAIの洗練度を示すいくつかのAIの種類を定義しました。

弱いAI: 「狭いAI」としても知られており、特定のタスクまたは一連のタスクを実行するように設計されたAIシステムを定義します。例としては、AmazonのAlexa、AppleのSiri、ソーシャル・メディアのチャットボット、Teslaが発表する自動運転車などの「スマート」音声アシスタント・アプリが挙げられます。

強い AI : 「人工汎用知能」(AGI)または「汎用 AI」とも呼ばれ、人間の知能と同等かそれ以上のレベルで、幅広いタスクにわたって理解し、学習し、知識を応用する能力を備えています。このレベルのAIは現在理論上のものであり、このレベルの洗練度に匹敵するAIシステムは知られていません。研究者たちは、AGIが可能であるとすれば、計算能力を大幅に向上させる必要があると主張しています。近年のAI開発の進歩にもかかわらず、SFの自己認識AIシステムは依然としてフィクションの領域に留まっています。

AIの歴史

「考える機械」というアイデアは、古代ギリシャにまでさかのぼります。電子コンピューティングの登場以来(この記事で扱ういくつかのトピックと関連している場合)、AIの進化において重要な出来事やマイルストーンとしては、以下が挙げられます。

1950年 1950年: アラン・チューリングが 『Computing Machinery and Intelligence(計算機とインテリジェンス)』を出版。この論文では、第二次世界大戦中にドイツ軍の暗号コードを解読し、「コンピューター・サイエンスの父」と呼ばれることが多いチューリングが、「機械は考えることができるのか」という問いを投げかけています。

そこから彼は、今日「チューリング・テスト」と呼ばれるテストを開発しました。このテストでは、人間の尋問者がコンピューターと人間の文字での応答を区別しようとします。このテストは公開以来多くの精査を受けてきましたが、言語学に基づいているため、依然としてAIの歩みの重要な部分であるだけでなく、哲学分野でも議論され続けている概念です。

1956年 ートマス大学で開催された第1回AI会議で、ジョン・マッカーシーが初めて「人工知能」という言葉を発表しました。(マッカーシーはその後Lisp言語を発明することになります。)その年の後半、アレン・ニューウェル、J・C・ショー、ハーバート・サイモンは、史上初の実行可能なAIソフトウェア・プログラム「Logic Theorist」を開発しました。

1967年
1967
フランク・ローゼンブラットは、試行錯誤しながら学習するニューラル・ネットワークに基づく最初のコンピューター「Mark 1 Perceptron」を構築しました。そのわずか1年後、マービン・ミンスキーとシーモア・パパートは、書籍『Perceptrons(パーセプトロン)』を出版しました。同書は、ニューラル・ネットワークに関する画期的な研究結果であると同時に、しばらくの間、将来のニューラル・ネットワーク研究プロジェクトに反対する議論を引き起こしました。

1980年 バックプロパゲーション・アルゴリズムを使用して自身を訓練するニューラル・ネットワークが AI アプリケーションで広く使用されるようになりました。

1995年 スチュワート・ラッセルとピーター・ノーヴッグは、書籍『Artificial Intelligence: A Modern Approach(人工知能:最新のアプローチ)』を出版しました。これは、AI研究の重要な教科書のひとつとなりました。同書では、合理性と思考と行動に基づいてコンピューター・システムを区別する、AIの4つの潜在的な目標または定義について詳しく掘り下げられています。

1997年 IBMのDeep Blueがチェスの試合(そして再戦)で当時のチェスの世界チャンピオンだったガルリ・カスパロフを破りました。

2004年 ジョン・マッカーシーが論文『What Is Artificial Intelligence?(人工知能とは)』を発表しました。この論文では、よく引用されるAIの定義を提案しています。この頃には、ビッグデータとクラウド・コンピューティングの時代が到来しており、組織はこれまで以上に大きなデータ資産を管理できるようになり、いつの日かAIモデルのトレーニングに使用されるようになるでしょう。

2011年 IBM Watsonが、テレビのクイズ番組「Jeopardy」でチャンピオンであったケン・ジェニングスとブラッド・ラッターを打ち負かしました。またこの頃、データサイエンスが人気の高い分野として台頭し始めています。

2015年
中国企業Baidu社のMinwaスーパーコンピューターは、畳み込みニューラル・ネットワークと呼ばれる特別な種類のディープ・ニューラル・ネットワークを使用して、平均的な人間よりも高い精度で画像を識別して分類します。

2016年
ディープニューラル・ネットワークを活用したDeepMind社のAlphaGoプログラムが、囲碁世界チャンピオンの李世ドルを5試合で破りました。ゲームの進行に伴って膨大な数の手が可能になることを考えると、この勝利は重要です(わずか4つの手で14 兆5000億以上にのぼります)。その後、Google社がDeepMind社を4億米ドルで買収したと伝えられています。

2022年
大規模言語モデル、つまりOpenAIのChatGPTなどの台頭により、AIの性能と企業価値を高める可能性に大きな変化をもたらします。これらの新しい生成AIプラクティスを使用することで、大量のデータでディープラーニングモデルの事前トレーニングが可能になります。

2024年 最新のAIトレンドは、AIルネッサンスが継続していることを示しています。複数の種類のデータをインプットとして受け取ることができるマルチモーダル・モデルは、より豊かで堅牢なエクスペリエンスを提供します。これらのモデルは、コンピューター・ビジョンによる画像認識機能とNLP音声認識機能を統合します。また、小規模モデルも、多数のパラメータを持つ大規模モデルによる成果が逓減する時代において、進歩を遂げています。

関連ソリューション
IBM watsonx.ai

AI開発者向けの次世代エンタープライズ・スタジオであるIBM watsonx.aiを使用して、生成AI、基盤モデル、機械学習機能をトレーニング、検証、チューニング、導入しましょう。わずかなデータとわずかな時間でAIアプリケーションを構築できます。

watsonx.aiをご覧ください。
人工知能ソリューション

業界をリードするIBMのAI専門知識とソリューション製品群を使用すれば、ビジネスにAIを活用できます。

AIソリューションはこちら
AIコンサルティングとサービス

AIの導入で重要なワークフローと業務を再構築し、エクスペリエンス、リアルタイムの意思決定とビジネス価値を最大化します。

AIサービスはこちら
次のステップ

AI開発ライフサイクル全体にわたる機能にワンストップでアクセスできます。使いやすいインターフェース、ワークフロー、業界標準のAPIやSDKを利用して、強力なAIソリューションを構築できます。

watsonx.aiの詳細はこちら デモを予約