Beranda Komputasi dan server LinuxONE Akselerator Terintegrasi untuk AI di IBM LinuxONE
Inferensi AI berkinerja tinggi yang berada di tempat yang sama dengan data Anda
Baca blog
Ilustrasi dengan tanaman yang tumbuh, AI melakukan analitik, dan perisai untuk keamanan

Akselerator AI terintegrasi adalah fitur prosesor IBM® Telum. Akselerator ini adalah unit pemrosesan on-chip yang memiliki memori yang koheren dan terhubung langsung ke sistem seperti inti tujuan umum lainnya. Akselerator AI terintegrasi meningkatkan kinerja inferensi AI dengan meminimalkan latensi antara AI dan data melalui kolokasi.

Chip IBM® Telum, yang dirancang untuk sistem IBM® Z dan LinuxONE, menawarkan peningkatan kinerja lebih dari 40%1 per soket dibandingkan dengan IBM z15. Chip ini memperkenalkan akselerator AI on-chip khusus, yang memastikan kapasitas inferensi latensi rendah dan throughput tinggi yang konsisten. Akselerator ini menyederhanakan orkestrasi perangkat lunak dan kompleksitas pustaka, sementara prosesor AI yang dipercepat mengubah integrasi AI di perusahaan, memberikan insight real-time dengan kinerja yang tak tertandingi di seluruh lingkungan cloud hybrid.

Buka pertumbuhan bisnis dengan AI di IBM LinuxONE

Webinar ini membahas bagaimana IBM LinuxONE dapat membantu Anda membuka contoh penggunaan baru untuk AI di seluruh industri.

Fitur Telum adalah chip prosesor pusat untuk sistem LinuxONE generasi berikutnya. Pelajari lebih lanjut arsitektur akselerator AI, mikroarsitektur, integrasi ke dalam tumpukan sistem, kinerja, dan kekuatan IBM® Telum. Baca tentang mikroprosesor generasi berikutnya untuk LinuxONE Tingkatkan wawasan real-time

Akselerator mempertahankan koherensi memori dan terhubung langsung ke sistem, mirip dengan inti tujuan umum lainnya, yang memungkinkannya mendukung inferensi latensi rendah sekaligus memenuhi tingkat transaksi sistem. Kemampuan ini memberdayakan bisnis untuk menggabungkan insight real-time dengan kinerja yang unggul.

Atasi tantangan beban kerja AI

Integrasi AI ke dalam beban kerja perusahaan sering kali menemui kendala karena throughput yang rendah saat dijalankan pada platform. Namun, akselerator AI on-chip dapat menghasilkan throughput yang tinggi, dengan kapasitas inferensi melebihi 200 TFLOPS dalam sistem 32-chip2.

Meningkatkan kinerja AI

Chip Telum mencakup akselerasi AI on-chip, yang meningkatkan kecepatan dan skala inferensi. Dalam model pendeteksian penipuan bank global, akselerator AI mencapai kecepatan 22x lipat dibandingkan dengan inti tujuan umum, dengan 116 ribu inferensi per detik dan latensi hanya 1,1 milidetik. Menskalakan hingga 32 chip mempertahankan latensi rendah pada 1,2 milidetik sambil melakukan lebih dari 3,5 juta inferensi/detik3.

Contoh penggunaan Deteksi penipuan

Hadapi tantangan penilaian transaksi secara real-time dengan mengatasi latensi jaringan dan keterbatasan skalabilitas yang terkait dengan mesin penilaian di luar platform. Tindakan ini dapat menghasilkan peningkatan yang signifikan dalam keamanan transaksi, dengan persentase yang lebih tinggi dari transaksi yang berhasil diamankan dari penipuan. 

Pencitraan medis

Gunakan visi komputer dan model analisis gambar pembelajaran mendalam untuk memproses dan memvalidasi rekam medis dengan cepat, sehingga memungkinkan verifikasi klaim asuransi yang hampir real-time. Pendekatan ini mengoptimalkan konsolidasi inti, meningkatkan kecepatan dan efisiensi pemrosesan.

Aplikasi ISV

IBM bekerja sama dengan IBM LinuxONE Ecosystem untuk membantu ISV memberikan solusi bagi tantangan AI, keberlanjutan, dan keamanan siber saat ini.

Jelajahi dua solusi inovatif yang disesuaikan untuk institusi keuangan dan kesehatan: Clari5 Enterprise Fraud Management pada IBM LinuxONE 4 Express untuk pencegahan penipuan secara real-time dan Enso Decision Intelligence Platform Exponential AI pada LinuxONE untuk solusi AI yang canggih dalam skala besar.

Clari5

Clari5 Enterprise Fraud Management Solution pada IBM LinuxONE 4 Express memberdayakan lembaga keuangan dengan mesin pengambilan keputusan yang kuat untuk pencegahan penipuan secara real-time. Mesin ini dirancang untuk memantau, mendeteksi, dan memengaruhi transaksi, memastikan kepatuhan dan meningkatkan produktivitas, sekaligus memberikan kecepatan dan skalabilitas di tingkat yang belum pernah ada sebelumnya.

Exponential AI

Platform Enso Decision Intelligence dari Exponential AI di LinuxONE menyediakan kemampuan mutakhir untuk membangun, melatih, mengatur, dan mengelola solusi AI yang hampir real-time dalam skala besar. Platform ini menjawab tantangan yang dihadapi oleh perusahaan asuransi kesehatan nasional terkemuka dalam transaksi yang kompleks, menawarkan solusi Intelligent Automation yang dikembangkan oleh Exponential AI.

Perangkat lunak yang memanfaatkan Telum
Memberdayakan pengembangan model Tensorflow

TensorFlow adalah kerangka kerja machine learning sumber terbuka yang menawarkan seperangkat alat yang komprehensif untuk pengembangan model, pelatihan, dan kesimpulan. TensorFlow menawarkan ekosistem yang kaya dan kuat serta kompatibel dengan lingkungan LinuxONE yang berjalan di Linux.

Jelajahi TensorFlow dan TensorFlow Serving

Machine learning yang efisien IBM SnapML

IBM SnapML adalah pustaka yang dirancang untuk pelatihan kecepatan tinggi dan inferensi model machine learning populer. SnapML memanfaatkan Akselerator Terintegrasi untuk AI dari IBM guna meningkatkan kinerja untuk model Random Forest, Extra Trees, dan Gradient Boosting Machines. Tersedia sebagai bagian dari Toolkit AI untu  IBM® Z dan LinuxONE dan IBM CloudPak for Data.

Jelajahi Machine Learning IBM Snap

Optimalkan inferensi Server Inferensi Triton

Triton Inference Server adalah server model sumber terbuka yang dikembangkan oleh Nvidia yang mendukung inferensi model pada perangkat CPU dan GPU. Server ini banyak digunakan di berbagai platform dan arsitektur, termasuk s390x (Linux on Z). Khusus pada Linux on Z, Triton dapat memanfaatkan kerangka kerja AI untuk menggunakan arsitektur SIMD dan Akselerator Terintegrasi untuk AI dari IBM, yang mengoptimalkan kinerja.

Jelajahi Triton Inference Server
Memberdayakan ilmuwan data Kompiler Pembelajaran Mendalam IBM® Z

IBM Z Deep Learning Compiler adalah alat canggih yang memungkinkan para ilmuwan data mengembangkan model pembelajaran mendalam menggunakan alat dan kerangka kerja yang sudah dikenal. Model ini kemudian dapat diterapkan di Linux on IBM Z, yang menyimpan data yang sangat penting. Kompiler ini memfasilitasi pemanfaatan Akselerator Terintegrasi untuk AI dari prosesor Telum yang baru dengan cepat dan mudah oleh model yang sudah ada.

Jelajahi IBM Z Deep Learning Compiler
Format model portabel
Pertukaran Jaringan Neural Terbuka

Open Neural Network Exchange (ONNX) adalah format terbuka yang dibangun untuk mewakili model machine learning. ONNX menentukan seperangkat operator yang umum—blok bangunan machine learning dan model pembelajaran mendalam—serta format file yang umum untuk memungkinkan pengembang AI menggunakan model dengan berbagai kerangka kerja, alat, waktu proses, dan kompiler.

Jelajahi ONNX
Solusi terintegrasi

Temukan solusi integrasi AI tanpa batas yang disesuaikan untuk sistem IBM Z dan LinuxONE. 

Meningkatkan performa AI

AI Toolkit for IBM Z and LinuxONE terdiri dari berbagai kerangka kerja AI sumber terbuka yang populer, yang didukung oleh IBM Elite Support. Solusi ini dioptimalkan untuk menggunakan Akselerator Terintegrasi untuk AI dari IBM® Z, yang secara signifikan meningkatkan kinerja program AI sumber terbuka dan program AI yang tidak didukung oleh IBM.

Jelajahi AI Toolkit untuk IBM Z dan LinuxONE
Mengoptimalkan beban kerja AI

AI Bundle for IBM LinuxONE menawarkan infrastruktur perangkat keras AI khusus dengan tumpukan perangkat lunak inti yang dioptimalkan. Dengan memanfaatkan kekuatan prosesor IBM® Telum dengan Akselerator Terintegrasi untuk AI, perusahaan dapat melakukan inferensi untuk beban kerja bervolume tinggi dalam skala besar.

Jelajahi AI Bundle for IBM LinuxONE
Menyederhanakan manajemen data:

IBM Cloud Pak for Data adalah seperangkat komponen perangkat lunak terintegrasi modular untuk analisis data, organisasi, dan manajemen. Solusi ini meningkatkan produktivitas dan mengurangi kompleksitas dengan membantu membangun sistem data yang menghubungkan silo data yang didistribusikan di seluruh lingkungan cloud hybrid.

Jelajahi IBM Cloud Pak for Data Baca Redbook
Ambil langkah selanjutnya

Pelajari lebih lanjut AI on IBM LinuxONE dengan menjadwalkan pertemuan 30 menit tanpa biaya dengan perwakilan IBM LinuxONE.

Mulai perjalanan AI Anda di LinuxONE
Cara penelusuran lainnya Dokumentasi Dukungan IBM Redbooks Dukungan dan layanan Pembiayaan global Komunitas Komunitas developer Mitra Resources
Catatan kaki

1 Prosesor IBM® Telum pada IBM z16 memberikan peningkatan kinerja lebih dari 40% per soket dibandingkan prosesor IBM z15.

PENAFIAN: Hasil didasarkan pada analisis teknis dari total kapasitas pemrosesan yang ditawarkan oleh prosesor IBM® Telum dan prosesor IBM z15, serta rasio IBM Large System Performance Reference (LSPR ) yang dipublikasikan di: https://www.ibm.com/support/pages/ibm-z-large-systems-performance-reference. Jumlah inti per soket prosesor yang dapat diakses untuk penggunaan umum bervariasi berdasarkan konfigurasi sistem. Kapasitas pemrosesan total bervariasi berdasarkan beban kerja, konfigurasi, dan tingkat perangkat lunak.

2  Akselerasi AI on-chip dirancang untuk menambah kekuatan pemrosesan hingga 5,8 TFLOPS yang digunakan bersama oleh semua inti pada chip.

PENAFIAN: Hasilnya adalah jumlah teoretis maksimum operasi floating-point per detik (FLOPS) dalam presisi 16-bit yang dapat dieksekusi oleh mesin AI on-chip tunggal. Ada satu mesin AI on-chip per chip.

 PENAFIAN: Hasil kinerja diekstrapolasi dari pengujian internal IBM yang menjalankan operasi inferensi lokal dalam IBM LinuxONE Emperor 4 LPAR dengan 48 inti dan 128 GB memori pada Ubuntu 20.04 (mode SMT) dengan menggunakan model deteksi penipuan kartu kredit sintetis (https://github.com/IBM/ai-on-z-fraud-detection) yang mengeksploitasi Akselerator Terintegrasi untuk AI. Tolok ukur dijalankan dengan 8 thread paralel yang masing-masing disematkan ke core pertama dari chip yang berbeda. Perintah lscpu digunakan untuk mengidentifikasi topologi chip inti. Ukuran batch 128 operasi inferensi digunakan. Hasil bervariasi.