watsonx.ai でサポートされる基盤モデル
サードパーティや IBM の基盤モデル IBM watsonx.ai.You で使用することができます。 IBM が提供する基盤モデルモデルを使用して、すぐに使用することができます。また、オンデマンドで基盤モデルデプロイして、組織専用に使用することもできます。
機種の選び方
サポート対象のタスクや言語など、モデルを選択する際に役立つ要因を確認するには、 機種を選ぶ および 基盤モデルベンチマーク をご覧ください。
watsonx.ai で提供されるテキストの埋め込みおよび再ランク付け用の基盤モデルに関する詳細は、 「サポートされているエンコーダーモデル 」を参照してください。
基盤モデル可用性は、データセンターの場所によって異なります。 詳細は 基盤モデル地域的利用可能性 を参照。
デプロイメント別の基盤モデル
デプロイメントによっては、マルチテナントのハードウェア上で基盤モデル直接使用したり、組織で使用するために専用ハードウェア上にモデルを導入したりすることができます。 モデルの展開方法についてさらに詳しく知りたい場合は、 基盤モデル デプロイメント方法 をご覧ください。
すぐに使える基盤モデルを提供
オープン・ソース・モデルおよび IBM 基盤モデルの集合は、 IBM watsonx.aiにデプロイされます。 基盤モデルは、 Prompt Lab またはプログラムで呼び出すことができます。
watsonx.ai における基盤モデル推論のための計量に関する詳細は、 推論基盤モデル課金率 を参照のこと。 様々なクラウドプロバイダーとの IBM watsonx.ai サービス説明の詳細については、こちらをご覧ください:
以下の種類の基盤モデル済み基盤モデルで作業できます:
IBM 基盤モデル
次の表は、 IBM が推論用に提供するサポートされている IBM基盤モデルを示しています。
また、 Hugging Face のようなサードパーティのリポジトリから、 IBM 基盤モデルアクセスすることもできます。 IBM サードパーティのリポジトリから入手した基盤モデル、 によって補償されません。 IBM watsonx.ai からアクセスした IBM 基盤モデル IBM によって補償されます。 IBM の補償に関する契約上の保護については、 IBM Client Relationship Agreement をご参照ください。
| モデル名 | APIモデルID | 入力価格 ( USD/1,000 トークン) |
出力価格 ( USD/1,000 トークン) |
コンテキストウィンドウ (入力トークン+出力トークン) |
詳細情報 |
|---|---|---|---|---|---|
| granite-4-h-small | ibm/granite-4-h-small |
$0.00006 | $0.00025 | 131,072 | - モデルカード - ウェブサイト |
| granite-3-3-8b-instruct | ibm/granite-3-3-8b-instruct |
$0.0002 | $0.0002 | 131,072 | - モデルカード - ウェブサイト |
| granite-3-8b-instruct | ibm/granite-3-8b-instruct |
$0.0002 | $0.0002 | 131,072 | • モデルカード • ウェブサイト • 研究論文 |
| granite-3-2-8b-instruct | ibm/granite-3-2-8b-instruct |
$0.0002 | $0.0002 | 131,072 | • モデルカード • ウェブサイト • 研究論文 |
| granite-8b-code-instruct | ibm/granite-8b-code-instruct |
$0.0006 | $0.0006 | 128,000 | • モデルカード • ウェブサイト • 研究論文 |
| モデル名 | APIモデルID | 入力価格 ( USD/1,000 データポイント) |
出力価格 ( USD/1,000 データポイント) |
文脈の長さ 最小データポイント |
詳細情報 |
|---|---|---|---|---|---|
| granite-ttm-512-96-r2 | ibm/granite-ttm-512-96-r2 |
$0.00013 | $0.00038 | 512 | • モデルカード • ウェブサイト • 研究論文 |
| granite-ttm-1024-96-r2 | ibm/granite-ttm-1024-96-r2 |
$0.00013 | $0.00038 | 1,024 | • モデルカード • ウェブサイト • 研究論文 |
| granite-ttm-1536-96-r2 | ibm/granite-ttm-1536-96-r2 |
$0.00013 | $0.00038 | 1,536 | • モデルカード • ウェブサイト • 研究論文 |
サードパーティ基盤モデル
次の表は、 watsonx.ai で提供されているサポート対象のサードパーティ製基盤モデルの一覧です。
| モデル名 | APIモデルID | プロバイダー | 入力価格 ( USD/1,000 トークン) |
出力価格 ( USD/1,000 トークン) |
コンテキストウィンドウ (入力トークン+出力トークン) |
詳細情報 |
|---|---|---|---|---|---|---|
| allam-1-13b-instruct | sdaia/allam-1-13b-instruct |
国立人工知能センターとサウジアラビアのデータおよび人工知能当局 | $0.0018 | $0.0018 | 4,096 | • モデルカード |
| gpt-oss-120b | openai/gpt-oss-120b |
OpenAI | $0.00015 | $0.0006 | 131,072 | - モデルカード - OpenAI ブログ |
| llama-4-maverick-17b-128e-instruct-fp8 | meta-llama/llama-4-maverick-17b-128e-instruct-fp8 |
Meta | $0.00035 | $0.0014 | 131,072 | • モデルカード • Meta AI ブログ |
| llama-3-3-70b-instruct | meta-llama/llama-3-3-70b-instruct |
Meta | $0.00071 | $0.00071 | 131,072 | • モデルカード • Meta AI ブログ |
| llama-3-2-11b-vision-instruct | meta-llama/llama-3-2-11b-vision-instruct |
Meta | $0.00035 | $0.00035 | 131,072 | • モデルカード • Meta AI ブログ • 研究論文 |
| llama-3-2-90b-vision-instruct | meta-llama/llama-3-2-90b-vision-instruct |
Meta | $0.0020 | $0.0020 | 131,072 | • モデルカード • Meta AI ブログ • 研究論文 |
| llama-guard-3-11b-vision | meta-llama/llama-guard-3-11b-vision |
Meta | $0.00035 | $0.00035 | 131,072 | • モデルカード • Meta AI ブログ • 研究論文 |
| llama-3-405b-instruct | meta-llama/llama-3-405b-instruct |
Meta | $0.0050 | $0.016 | 16,384 | • モデルカード • Meta AI ブログ |
| mistral-large-2512 | mistralai/mistral-large-2512 |
Mistral AI | $0.0006 | $0.0018 | 256,000 | • モデル カード• Mistral Large 3 のブログ記事 |
| mistral-medium-2505 | mistralai/mistral-medium-2505 |
Mistral AI | $0.003 | $0.01 | 131,072 | - モデルカード - ミストラル・ミディアム3のブログ記事 |
| mistral-small-3-1-24b-instruct-2503 | mistralai/mistral-small-3-1-24b-instruct-2503 |
Mistral AI | $0.0001 | $0.0003 | 131,072 | • モデルカード • Mistral 3.1 のブログ投稿 |
| mt0-xxl-13b | bigscience/mt0-xxl |
BigScience | $0.0018 | $0.0018 | 4,096 | • モデルカード • 研究論文 |
オンデマンド基盤モデルを展開
IBM がキュレーションしたモデルセットから基盤モデルを構築し、組織専用に展開することができます。
以下の基盤モデルオンデマンドで展開することができます:
デプロイメント設定のサイズを指定してオンデマンドでモデルをデプロイすることは非推奨です。 GPUのハードウェア構成は、新しいモデルのデプロイメントホスティングモデルの価格計算に使用します。 オンデマンド・デプロイ・モデルのホスティング価格の詳細については、 ジェネレーティブAI 資産請求詳細 をご覧ください。
IBM オンデマ基盤モデルを展開する
次の表は、必要に応じて展開できる IBM 基盤モデルの一覧です。
Hugging Face のようなサードパーティのリポジトリからも、 IBM 基盤モデル入手できる。 IBM サードパーティのリポジトリから入手した基盤モデル、 によって補償されません。 IBM watsonx.ai からアクセスした IBM 基盤モデル IBM によって補償されます。 IBM の補償に関する契約上の保護については、 IBM Client Relationship Agreement をご参照ください。
| モデル名 | デプロイメント構成サイズ |
コンテキストウィンドウ (入力トークン+出力トークン) |
|---|---|---|
| granite-vision-3-3-2b | – | 131,072 |
| granite-3-3-8b-instruct | 小 | 131,072 |
| granite-3-3-2b-instruct | 小 | 131,072 |
| granite-3-2-8b-instruct | 小 | 131,072 |
| granite-3-1-8b-base | 小 | 131,072 |
| granite-8b-japanese | 小 | 4,096 |
| granite-20b-multilingual | 小 | 8,192 |
| granite-13b-chat-v2 | 小 | 8,192 |
| granite-3b-code-instruct | 小 | 128,000 |
| granite-8b-code-instruct | 小 | 128,000 |
| granite-20b-code-instruct | 小 | 8,192 |
| granite-34b-code-instruct | 小 | 8,192 |
| granite-20b-code-base-schema-linking | 小 | 8,192 |
| granite-20b-code-base-sql-gen | 小 | 8,192 |
| granite-3-8b-base | 小 | 4,096 |
サードパーティのオンデマンド基盤モデル
GPUホスティング料金(1時間あたり、米ドル)+ アクセス料金(1時間あたり、米ドル)= 合計料金(1時間あたり、米ドル)
GPU構成の価格の詳細については、 オンデマンドモデルのデプロイにおける時間単位の課金コストを参照してください。
次の表は、必要に応じて展開できるサードパーティの基盤モデルの一覧です。
| モデル名 | プロバイダー | 1時間あたりのアクセス料金(米ドル | デプロイメント構成サイズ |
コンテキストウィンドウ (入力トークン+出力トークン) |
|---|---|---|---|---|
| allam-1-13b-instruct | 国立人工知能センターとサウジアラビアのデータおよび人工知能当局 | – | 小 | 4,096 |
| codellama-34b-instruct-hf | Code Llama | – | 中間 | 16,384 |
| deepseek-r1-distill-llama-8b | DeepSeek AI | – | 小 | 131,072 |
| deepseek-r1-distill-llama-70b | DeepSeek AI | – | 大 | 131,072 |
| eurollm-1-7b-instruct | ユタ・プロジェクト | – | 小 | 4,096 |
| eurollm-9b-instruct | ユタ・プロジェクト | – | 小 | 4,096 |
| gpt-oss-20b | OpenAI | – | – | 131,072 |
| gpt-oss-120b | OpenAI | – | – | 131,072 |
| llama-2-13b-chat | Meta | – | 小 | 4,096 |
| llama-2-70b-chat | Meta | – | 大 | 4,096 |
| llama-3-8b-instruct | Meta | – | 小 | 8,192 |
| llama-3-70b-instruct | Meta | – | 大 | 8,192 |
| llama-3-1-8b | Meta | – | 小 | 131,072 |
| llama-3-1-70b | Meta | – | 大 | 131,072 |
| llama-3-1-8b-instruct | Meta | – | 小 | 131,072 |
| llama-3-1-70b-instruct | Meta | – | 大 | 131,072 |
| llama-3-1-70b-gptq | Meta | – | – | 131,072 |
| llama-3-1-405b-instrcut-fp8 | Meta | – | – | 131,072 |
| llama-3-2-11b-vision-instruct | Meta | – | 小 | 131,072 |
| llama-3-2-90b-vision-instruct | Meta | – | – | 131,072 |
| llama-3-3-70b-instruct | Meta | – | 中間 | 131,072 |
| llama-3-3-70b-instruct-hf | Meta | – | 大 | 131,072 |
| llama-4-maverick-17b-128e-instruct-fp8 | Meta | – | – | 131,072 |
| llama-4-maverick-17b-128e-instruct-int4 | Meta | – | – | 131,072 |
| llama-4-scout-17b-16e-instruct-fp8-dynamic | Meta | – | – | 131,072 |
| codestral-2501 | Meta | $34.30 | – | 65,536 |
| ministral-3b-instruct-2512 | Mistral AI | – | – | 262,144 |
| ministral-8b-instruct-2512 | Mistral AI | – | – | 262,144 |
| ministral-8b-instruct-2410 | Mistral AI | $8.60 | – | 131,072 |
| mistral-large-2512 | Mistral AI | – | – | 256,000 |
| mistral-large-instruct-2407 | Mistral AI | $34.30 | 大 | 131,072 |
| mistral-large-instruct-2411 | Mistral AI | $34.30 | 大 | 131,072 |
| mistral-medium-2505 | Mistral AI | $34.30 | – | 131,072 |
| mistral-medium-2508 | Mistral AI | $34.30 | – | 131,072 |
| mistral-nemo-instruct-2407 | Mistral AI | – | 小 | 131,072 |
| mistral-small-3-1-24b-instruct-2503 | Mistral AI | – | – | 131,072 |
| mistral-small-3-2-24b-instruct-2506 | Mistral AI | – | – | 131,072 |
| mixtral-8x7b-base | Mistral AI | – | 中間 | 32,768 |
| mixtral-8x7b-instruct-v01 | Mistral AI | – | 中間 | 32,768 |
| mt0-xxl-13b | BigScience | – | 小 | 4,096 |
| pixtral-12b | Mistral AI | – | – | 128,000 |
| poro-34b-chat | LumiOpen | – | 中間 | 2,048 |
詳細情報
- IBM 基盤モデル
- サードパーティ基盤モデル
- 各地域のデータセンターで提供されているモデルの一覧については、 基盤モデル地域別入手可能性 をご覧ください。
- 基盤モデル価格については、 ジェネレーティブAI 資産の請求詳細 をご覧ください。
- 価格および速度制限に関する情報は、 watsonx.ai の実行時プランをご覧ください。