ホーム cloud GPUクラウド・サーバー IBM Cloud上のGPU
セキュアで信頼できるスケーラブルなエンタープライズ・クラウド上で、NVIDIA GPUを利用してAIとHPCの取り組みを加速します
GPUを構成する
IBM GPU Cloudサーバー
概要

信頼性が高くセキュアでコスト効率に優れたIBM Cloudインフラストラクチャー上で、生成AI、従来型AI、HPC、視覚化のユースケースのためのNVIDIA GPUをプロビジョニングします。

ユースケース
基盤モデルを使用した生成AI

カスタマー・サービス、デジタルレイバー、アプリケーション・モダナイゼーションなど、さまざまなユースケースに合わせて生成AIモデルをトレーニング、検証、チューニング、デプロイします。

詳細はこちら
従来のAI

AIやMLアルゴリズムを使用して、特定のユーザーのニーズやビジネス要件に基づいた予測と予報を行います。

詳細はこちら
HPCワークロード

GPUのネットワーキングとメモリーの改善により、財務やEDA、ライフサイエンスのワークロードで計算集約型アプリケーションを高速化します。

詳細はこちら
視覚化とゲーム

GPUを使用して、エンジニアリング・シミュレーション、製品設計ワークステーション、ゲーム、3Dモデリング、AR/VRをサポートします。

AIワークフロー向けに最適化されたインフラストラクチャー トレーニング

ハイエンドGPUインフラストラクチャーで長時間実行されるジョブ

10~500以上のハイエンドGPU(ジョブあたり)

推奨GPU:H100、L40S

ファイン・チューニング

下流タスク用のカスタム・データ・セットを使用したモデル・チューニング

1つ以上のミドルエンド~ハイエンドGPU(ジョブごと)

推奨GPU:L40S

推論

レイテンシーとスループットに対する高い感度、常にコストセンシティブ

タスクあたり1つまたは一部のGPU

推奨GPU:L40S、L4

Virtual Servers for VPCのGPUオプション

GPU

VCPUs

RAM

帯域幅

1 x NVIDIA L4 24 GB 

16

80 GB

32 Gbps

2 x NVIDIA L4 24 GB 

32

160 GB

64 Gbps

4 x NVIDIA L4 24 GB

64

320 GB

128 Gbps 

1 x NVIDIA L40S 48 GB

24

120 GB 

48 Gbps

2 x NVIDIA L40S 48 GB 

48

240 GB

96 Gbps 

1 x NVIDIA Tesla V100 16 GB 

8

64 GB 

16 Gbps

1 x NVIDIA Tesla V100 16 GB 

16

128 GB

32 Gbps

2 x NVIDIA Tesla V100 16 GB 

16

128 GB

32 Gbps

2 x NVIDIA Tesla V100 16 GB

32

256 GB

64 Gbps

H100 GPUは近日公開

お見積もり

Red Hat OpenShift上のGPUのオプション*

プロファイル名

GPU

VCPUs

RAM

帯域幅

gx3.16x80.l4

1 x NVIDIA L4 24 GB 

16

80 GB

32 Gbps

gx3.32x160.2l4

2 x NVIDIA L4 24 GB 

32

160 GB

32 Gbps

gx3.64x320.4l4

4 x NVIDIA L4 24 GB

64

320 GB

32 Gbps

お見積もり

Virtual Server for Classic上のGPUオプション*

GPU

VCPUs

RAM

1 x P100

8

60 GB

2 x P100

16

120 GB

お見積もり

Bare Metal Server for Classic上のGPUオプション*

GPU

CPU

コア

RAM

NVIDIA T4

Intel Xeon 8474

96

最大2048 GB

NVIDIA T4

Intel Xeon 8474

48

最大2048 GB

NVIDIA T4

Intel Xeon 8474

64

最大2048 GB

お見積もり
生成AI導入用のハイブリッド・バイ・デザイン・スタック AI支援機能

カスタマー・サービスやデジタルレイバー、アプリケーション・モダナイゼーションのための、すぐに使えるAIアシスタントで生産性を高めましょう。

AIプラットフォーム

ビジネス全体にわたるAIの構築、拡張、管理をすべて1つのプラットフォーム上で行います。

データ・プラットフォーム

グローバル・データ・プラットフォームでデータの障壁を打ち破り、AIを加速します。

ハイブリッドクラウド・プラットフォーム

ハイブリッドクラウド・プラットフォームでAIモデルをどこにでも展開します。

GPUインフラストラクチャー

クラウド:IBM Cloud上のGPU、オンプレミス:IBM Storage Fusion。

お客様事例 IBMとNASA

IBMとNASAは、AIモデルを使用して、気候変動に関して共同で対処しています。

詳細はこちら
CrushBank社

IBM watsonxにより、ヘルプデスクのチケット解決率が1日あたり40%増加しました。

 

詳細はこちら
Blendow Group社

Blendow Group社はIBMと協力して、法的文書の開示手続きと分析に必要な時間を70%短縮しました。

詳細はこちら
参考情報 IBMのクラウドネイティブなAIスーパーコンピューターを大幅に強化 IBMがお客様の基盤モデルの導入を支援する方法 Webセミナー:生成AIとパフォーマンス集約型ワークロードのためのハイブリッドクラウド
使ってみる

VPCおよびRed Hat OpenShift on IBM Cloudの統合ソリューション向けにGPUを構成して、新しいレベルのビジネス・パフォーマンスを実現する方法をご覧ください。

 

 

vGPUを構成する Red Hat OpenShift on IBM CloudでGPUを構成する
次のステップ

IBM Cloud GPUを使用して基盤モデルの能力を最大限に引き出す方法について、お問い合わせください。

脚注

*米国、カナダ、EUのデータセンターには20 TBの帯域幅が含まれます。他のすべてのデータセンターには5 TBの帯域幅が含まれます。新しい料金と特典を他の(現在または将来の)割引と組み合わせることはできません。