ホーム コンピュートとサーバー LinuxONE IBM LinuxONE上のIntegrated Accelerator for AI
データとコロケーションする高性能のAI推論
ブログを読む
成長する植物、分析を行うAI、セキュリティーの盾を描いたイラスト

統合AIアクセラレーターは、IBM® Telumプロセッサーの機能です。これはメモリー一貫性を備えたオンチップ処理ユニットで、他の汎用コアのようにファブリックに直接接続されています。コロケーションによってAIとデータ間のレイテンシーを最小限に抑えることで、AI推論のパフォーマンスを向上させます。

IBM Z®およびLinuxONEシステム用に設計されたIBM Telumチップは、IBM z15®と比較して、ソケットあたり40%以上の1パフォーマンスの向上を誇ります。専用のオンチップAIアクセラレーターを導入し、一貫した低レイテンシーと高スループットの推論能力を保証します。このアクセラレーターは、ソフトウェアのオーケストレーションとライブラリーの複雑さを簡素化します。また、高速化されたAIプロセッサーは、企業におけるAI統合を変革し、ハイブリッドクラウド環境全体で比類のないパフォーマンスでリアルタイムの洞察を提供します。

IBM LinuxONEでAIを活用して事業成長を達成

このWebセミナーでは、さまざまな業界におけるAIの新しいユースケースの実現をIBM LinuxONEがどのように支援できるかを説明します。

特長 Telumは、次世代LinuxONEシステム用の中央プロセッサー・チップです。IBM TelumのAIアクセラレーター・アーキテクチャー、マイクロアーキテクチャー、システム・スタックへの統合、パフォーマンス、パワーについて詳しく紹介します。 LinuxONE向け次世代マイクロプロセッサーについて読む リアルタイムの洞察を強化

アクセラレーターは、他の汎用コアと同様に、メモリー一貫性を維持し、ファブリックに直接接続することで、システムのトランザクション・レートを満たしながら、低遅延の推論をサポートできます。この機能により、企業は優れたパフォーマンスでリアルタイムの洞察を取り入れることができます。

AIワークロードの課題の克服

AIを企業ワークロードに統合すると、プラットフォーム上で実行したときにスループットが低下し、しばしば障害が発生します。しかし、オンチップAIアクセラレーターは高スループットを提供することができ、32チップ・システムの推論能力は200 TFLOPSを超えます2

AIパフォーマンスの向上

TelumチップにはオンチップAIアクセラレーションが内蔵されており、推論の速度とスケールが向上します。ある世界的な銀行の不正アクセス検知モデルにおいて、AIアクセラレーターは汎用コアと比較して22倍の高速化を達成し、1秒間に11万6,000回の推論を行い、レイテンシーはわずか1.1ミリ秒でした。最大32チップまで拡張すると、毎秒350万以上の推論を実行しながら、1.2ミリ秒の低レイテンシーを維持します3

ユースケース 不正アクセス検知

オフプラットフォーム・スコアリング・エンジンに関連するネットワーク遅延と拡張性の制限を克服することで、リアルタイム・トランザクション・スコアリングの課題に対処します。これにより、トランザクションのセキュリティーが大幅に向上し、不正行為から保護されるトランザクションの割合が高くなります。

医用画像

コンピューター・ビジョンとディープラーニングの画像解析モデルを使用して、医療記録を迅速に処理および検証し、保険請求をほぼリアルタイムで検証できるようになります。このアプローチにより、コアの統合が最適化され、処理速度と効率が向上します。

ISVアプリケーション

IBMは、IBM LinuxONE Ecosystemと連携して、ISVが今日のAI、サステナビリティー、サイバーセキュリティーの課題に対するソリューションを提供できるよう支援しています。

金融機関と医療機関向けにカスタマイズされた2つの革新的なソリューションである、リアルタイムの不正防止を実現するClari5 Enterprise Fraud Management on IBM LinuxONE 4 Expressと、高度なAIソリューションを大規模に実現するExponential AIのEnso Decision Intelligence Platform on LinuxONEの詳細をご覧ください。

Clari5

Clari5 Enterprise Fraud Management Solution on IBM LinuxONE 4 Expressは、リアルタイムの不正防止のための堅牢な意思決定エンジンを金融機関に提供します。前例のないスピードと拡張性を実現しながら、トランザクションを監視し、検知し、影響を与え、コンプライアンスを確保し、生産性を向上させるように設計されています。

Exponential AI

Exponential AIのEnso Decision Intelligence Platform on LinuxONEは、ほぼリアルタイムのAIソリューションの構築、トレーニング、オーケストレーション、管理を大規模に行うための最先端の機能を提供します。このプラットフォームは、Exponential AIが開発したインテリジェント・オートメーション・ソリューションを提供することで、主要な国内医療保険支払者が複雑なトランザクションで直面する課題に対処します。

Telumを活用するソフトウェア
モデル開発の強化 TensorFlow

TensorFlowは、モデル開発、トレーニング、推論のための包括的なツールセットを提供する、オープンソースの機械学習フレームワークです。豊富で堅牢なエコシステムを誇り、Linux上で実行するLinuxONE環境と互換性があります。

TensorFlowおよびTensorFlow Servingはこちら

効率的な機械学習 IBM SnapML

IBM SnapMLは、一般的な機械学習モデルの高速トレーニングと推論のために設計されたライブラリーです。IBM Integrated Accelerator for AIを活用して、ランダム・フォレスト、エクストラ・ツリー、勾配ブースティング・マシンの各モデルのパフォーマンスを強化します。AI Toolkit for IBM Z、LinuxONE、およびIBM CloudPak for Dataの一部として提供されています。

IBM Snap Machine Learningはこちら

推論の最適化 トリトン推論サーバー

Triton Inference Serverは、Nvidiaによって開発されたオープンソースのモデル・サーバーで、CPUとGPUの両方のデバイス上でのモデル推論をサポートしています。s390x(Linux on Z)など、さまざまなプラットフォームやアーキテクチャーで広く使用されています。特に、Linux on Z上では、TritonはAIフレームワークを活用して、SIMDアーキテクチャーとIBM Integrated Accelerator for AIの両方を使用し、パフォーマンスを最適化できます。

Triton Inference Serverはこちら
データ・サイエンティストの能力向上 IBM Z Deep Learning Compiler

IBM Z Deep Learning Compilerは、データ・サイエンティストが使い慣れたツールやフレームワークを使用してディープラーニング・モデルを開発できるようにする強力なツールです。これらのモデルは、ミッションクリティカルなデータが存在するLinux on IBM Z上にデプロイできます。このコンパイラーにより、既存のモデルによる新しいTelumプロセッサーのIntegrated Accelerator for AIを素早く簡単に利用できるようになります。

IBM Z Deep Learning Compilerはこちら
ポータブルなモデル・フォーマット
Open Neural Network Exchange

Open Neural Network Exchange(ONNX)は、機械学習モデルを表現するために構築されたオープン・フォーマットです。ONNXは、AI開発者がさまざまなフレームワーク、ツール、ランタイム、コンパイラーでモデルを使用できるようにするために、共通セットの演算子(機械学習モデルおよびディープラーニング・モデルの構成要素)と、共通のファイル形式を定義しています。

ONNXはこちら
統合ソリューション

IBM ZおよびLinuxONEシステム向けにカスタマイズされたシームレスなAI統合ソリューションをご覧ください。

AIパフォーマンスの向上

AI Toolkit for IBM Z and LinuxONEは、IBM Elite Supportによってサポートされる、一般的なオープンソースのAIフレームワークで構成されています。IBM Z Integrated Accelerator for AIを使用するように最適化されており、オープンソースとIBMの非保証AIプログラムの両方のパフォーマンスを大幅に向上させます。

IBM Z and LinuxONE向けのAIツールキットの詳細はこちら
AIワークロードの最適化

AI Bundle for IBM LinuxONEは、最適化されたコア・ソフトウェア・スタックを備えた専用のAIハードウェア・インフラストラクチャーを提供します。Integrated Accelerator for AIを搭載したIBM Telumプロセッサーのパワーを活用することで、企業は大量のワークロードの推論を大規模に実行できます。

AI Bundle for IBM LinuxONEはこちら
データ管理の合理化:

IBM Cloud Pak for Dataは、データ分析、編成、および管理のために設計された統合ソフトウェア・コンポーネントのモジュール・セットです。ハイブリッドクラウド環境に分散したサイロ化されたデータを接続するデータ・ファブリックの構築を支援することで、生産性を高め、複雑さを軽減します。

IBM Cloud Pak for Dataの詳細はこちら Redbookを読む
次のステップ

AI on IBM LinuxONEの詳細について説明いたします。IBM LinuxONEの担当者との30分間の無料相談を予約してください。

LinuxONE上のAIの利用を始める
その他の参考情報 資料 サポート IBM Redbooks サポートとサービス グローバル・ファイナンシング コミュニティー 開発者コミュニティー パートナー 参考情報
脚注

IBM z16上のIBM Telumプロセッサーは、IBM z15プロセッサーと比較して、ソケットあたりのパフォーマンスが40%以上向上します。

免責事項:結果は、IBM TelumプロセッサーとIBM z15プロセッサーが提供する総処理能力のエンジニアリング分析、およびhttps://www.ibm.com/support/pages/ibm-z-large-systems-performance-referenceで公開されているIBM Large System Performance Reference(LSPR)比に基づいたものです。一般使用向けにアクセス可能なプロセッサー・ソケットあたりのコア数は、システム構成によって異なる場合があります。総処理能力は、ワークロード、構成、ソフトウェア・レベルによって異なります。

2 オンチップAIアクセラレーションは、チップ上のすべてのコアで共有される最大5.8 TFLOPSの処理能力を追加するように設計されています

免責事項:結果は、1つのオンチップAIエンジンで実行できる、16ビット精度の1秒あたりの浮動小数点演算(FLOPS)の理論上の最大数です。オンチップAIエンジンは、1チップにつき1つあります。

3 免責事項:パフォーマンス結果は、IBM LinuxONE Emperor 4 LPAR(Ubuntu 20.04(SMTモード)を基盤とする48コア、メモリー128GB)でIBMが実施した推論演算をローカルで実行する内部テストから推察されるものです。テストには、Integrated Accelerator for AIを使用する合成クレジット・カード不正アクセス検知モデル(https://github.com/IBM/ai-on-z-fraud-detection)が使用されました。ベンチマークは、各チップの最初のコアにそれぞれ固定された8つの並列スレッドで実行されました。コアチップ・トポロジーの特定には、lscpuコマンドが使用されました。バッチ・サイズ128の推論演算が使用されました。結果はさまざまです。