Akselerator AI terintegrasi adalah fitur prosesor IBM® Telum. Akselerator ini adalah unit pemrosesan on-chip yang memiliki memori yang koheren dan terhubung langsung ke sistem seperti inti tujuan umum lainnya. Akselerator AI terintegrasi meningkatkan kinerja inferensi AI dengan meminimalkan latensi antara AI dan data melalui kolokasi.
Chip IBM® Telum, yang dirancang untuk sistem IBM® Z dan LinuxONE, menawarkan peningkatan kinerja lebih dari 40%1 per soket dibandingkan dengan IBM z15. Chip ini memperkenalkan akselerator AI on-chip khusus, yang memastikan kapasitas inferensi latensi rendah dan throughput tinggi yang konsisten. Akselerator ini menyederhanakan orkestrasi perangkat lunak dan kompleksitas pustaka, sementara prosesor AI yang dipercepat mengubah integrasi AI di perusahaan, memberikan insight real-time dengan kinerja yang tak tertandingi di seluruh lingkungan cloud hybrid.
Webinar ini membahas bagaimana IBM LinuxONE dapat membantu Anda membuka contoh penggunaan baru untuk AI di seluruh industri.
IBM bekerja sama dengan IBM LinuxONE Ecosystem untuk membantu ISV memberikan solusi bagi tantangan AI, keberlanjutan, dan keamanan siber saat ini.
Jelajahi dua solusi inovatif yang disesuaikan untuk institusi keuangan dan kesehatan: Clari5 Enterprise Fraud Management pada IBM LinuxONE 4 Express untuk pencegahan penipuan secara real-time dan Enso Decision Intelligence Platform Exponential AI pada LinuxONE untuk solusi AI yang canggih dalam skala besar.
Clari5 Enterprise Fraud Management Solution pada IBM LinuxONE 4 Express memberdayakan lembaga keuangan dengan mesin pengambilan keputusan yang kuat untuk pencegahan penipuan secara real-time. Mesin ini dirancang untuk memantau, mendeteksi, dan memengaruhi transaksi, memastikan kepatuhan dan meningkatkan produktivitas, sekaligus memberikan kecepatan dan skalabilitas di tingkat yang belum pernah ada sebelumnya.
Platform Enso Decision Intelligence dari Exponential AI di LinuxONE menyediakan kemampuan mutakhir untuk membangun, melatih, mengatur, dan mengelola solusi AI yang hampir real-time dalam skala besar. Platform ini menjawab tantangan yang dihadapi oleh perusahaan asuransi kesehatan nasional terkemuka dalam transaksi yang kompleks, menawarkan solusi Intelligent Automation yang dikembangkan oleh Exponential AI.
TensorFlow adalah kerangka kerja machine learning sumber terbuka yang menawarkan seperangkat alat yang komprehensif untuk pengembangan model, pelatihan, dan kesimpulan. TensorFlow menawarkan ekosistem yang kaya dan kuat serta kompatibel dengan lingkungan LinuxONE yang berjalan di Linux.
IBM SnapML adalah pustaka yang dirancang untuk pelatihan kecepatan tinggi dan inferensi model machine learning populer. SnapML memanfaatkan Akselerator Terintegrasi untuk AI dari IBM guna meningkatkan kinerja untuk model Random Forest, Extra Trees, dan Gradient Boosting Machines. Tersedia sebagai bagian dari Toolkit AI untu IBM® Z dan LinuxONE dan IBM CloudPak for Data.
Triton Inference Server adalah server model sumber terbuka yang dikembangkan oleh Nvidia yang mendukung inferensi model pada perangkat CPU dan GPU. Server ini banyak digunakan di berbagai platform dan arsitektur, termasuk s390x (Linux on Z). Khusus pada Linux on Z, Triton dapat memanfaatkan kerangka kerja AI untuk menggunakan arsitektur SIMD dan Akselerator Terintegrasi untuk AI dari IBM, yang mengoptimalkan kinerja.
IBM Z Deep Learning Compiler adalah alat canggih yang memungkinkan para ilmuwan data mengembangkan model pembelajaran mendalam menggunakan alat dan kerangka kerja yang sudah dikenal. Model ini kemudian dapat diterapkan di Linux on IBM Z, yang menyimpan data yang sangat penting. Kompiler ini memfasilitasi pemanfaatan Akselerator Terintegrasi untuk AI dari prosesor Telum yang baru dengan cepat dan mudah oleh model yang sudah ada.
Open Neural Network Exchange (ONNX) adalah format terbuka yang dibangun untuk mewakili model machine learning. ONNX menentukan seperangkat operator yang umum—blok bangunan machine learning dan model pembelajaran mendalam—serta format file yang umum untuk memungkinkan pengembang AI menggunakan model dengan berbagai kerangka kerja, alat, waktu proses, dan kompiler.
1 Prosesor IBM® Telum pada IBM z16 memberikan peningkatan kinerja lebih dari 40% per soket dibandingkan prosesor IBM z15.
PENAFIAN: Hasil didasarkan pada analisis teknis dari total kapasitas pemrosesan yang ditawarkan oleh prosesor IBM® Telum dan prosesor IBM z15, serta rasio IBM Large System Performance Reference (LSPR ) yang dipublikasikan di: https://www.ibm.com/support/pages/ibm-z-large-systems-performance-reference. Jumlah inti per soket prosesor yang dapat diakses untuk penggunaan umum bervariasi berdasarkan konfigurasi sistem. Kapasitas pemrosesan total bervariasi berdasarkan beban kerja, konfigurasi, dan tingkat perangkat lunak.
2 Akselerasi AI on-chip dirancang untuk menambah kekuatan pemrosesan hingga 5,8 TFLOPS yang digunakan bersama oleh semua inti pada chip.
PENAFIAN: Hasilnya adalah jumlah teoretis maksimum operasi floating-point per detik (FLOPS) dalam presisi 16-bit yang dapat dieksekusi oleh mesin AI on-chip tunggal. Ada satu mesin AI on-chip per chip.
PENAFIAN: Hasil kinerja diekstrapolasi dari pengujian internal IBM yang menjalankan operasi inferensi lokal dalam IBM LinuxONE Emperor 4 LPAR dengan 48 inti dan 128 GB memori pada Ubuntu 20.04 (mode SMT) dengan menggunakan model deteksi penipuan kartu kredit sintetis (https://github.com/IBM/ai-on-z-fraud-detection) yang mengeksploitasi Akselerator Terintegrasi untuk AI. Tolok ukur dijalankan dengan 8 thread paralel yang masing-masing disematkan ke core pertama dari chip yang berbeda. Perintah lscpu digunakan untuk mengidentifikasi topologi chip inti. Ukuran batch 128 operasi inferensi digunakan. Hasil bervariasi.