Home Compute e server LinuxONE Acceleratore integrato per l'AI su IBM LinuxONE
Inferenza AI ad alte prestazioni in colocation con i tuoi dati
Leggi il blog
Illustrazione con piante che crescono, AI che esegue analytics e scudo per la sicurezza

L'acceleratore AI integrato è una funzionalità del processore IBM® Telum. È un'unità di elaborazione su chip coerente con la memoria e collegata direttamente al fabric come qualsiasi altro core generico. Aumenta le prestazioni di inferenza dell'AI, riducendo al minimo la latenza tra l'AI e i dati grazie alla colocation.

Il chip IBM Telum, progettato per i sistemi IBM® Z e LinuxONE, vanta oltre il 40%1 di crescita delle prestazioni per socket rispetto a IBM® z15. Introduce un acceleratore AI on-chip dedicato, che garantisce una capacità di inferenza costante a bassa latenza e ad alto rendimento. Questo acceleratore semplifica l'orchestrazione del software e la complessità delle librerie, mentre il processore AI accelerato trasforma l'integrazione dell'AI nelle aziende, fornendo insight in tempo reale con prestazioni senza pari in ambienti hybrid cloud.

Sblocca la crescita del business con l'AI su IBM LinuxONE

Questo webinar illustra come IBM LinuxONE può aiutarti a sbloccare nuovi casi d'uso per l'AI in tutti i settori.

Funzioni Telum è il chip del processore centrale per i sistemi LinuxONE di nuova generazione. Scopri di più su architettura, microarchitettura, integrazione nello stack di sistema, prestazioni e potenza dell'acceleratore AI di IBM Telum. Scopri di più sul microprocessore di nuova generazione per LinuxONE Migliora gli insight in tempo reale

L'acceleratore mantiene la coerenza della memoria e si connette direttamente al fabric, in modo simile ad altri core per uso generico, consentendo di supportare l'inferenza a bassa latenza e soddisfacendo al contempo la velocità di transazione del sistema. Questa funzionalità consente alle aziende di incorporare insight in tempo reale con prestazioni superiori.

Supera le sfide del workload dell'AI

L'integrazione dell'AI nei workload aziendali incontra spesso ostacoli a causa del basso throughput quando viene eseguita sulla piattaforma. Tuttavia, l'acceleratore di AI on-chip è in grado di offrire un rendimento elevato, con capacità di inferenza superiore a 200 TFLOPS in un sistema a 32 chip2.

Migliora le prestazioni dell'AI

Il chip Telum include l'accelerazione AI su chip, aumentando la velocità e la scala dell'inferenza. Nel modello di rilevamento delle frodi di una banca globale, l'acceleratore AI raggiunge un aumento di velocità 22 volte superiore rispetto ai core generici, con 116.000 inferenze al secondo e una latenza di soli 1,1 millisecondi. La scalabilità fino a 32 chip mantiene una bassa latenza a 1,2 millisecondi mentre esegue oltre 3,5 milioni di inferenze al secondo3.

Casi d’uso Rilevazione di frodi

Affronta la sfida della valutazione delle transazioni in tempo reale superando i limiti di latenza di rete e scalabilità associati ai motori di valutazione off-platform. Il risultato sarà un aumento significativo della sicurezza delle transazioni, con una percentuale più elevata di transazioni protette con successo dalle frodi. 

Imaging medico

Usa modelli di analisi delle immagini con computer vision e deep learning per elaborare e convalidare rapidamente le cartelle cliniche, consentendo la verifica quasi in tempo reale delle richieste di risarcimento assicurative. Questo approccio ottimizza il consolidamento dei core, migliorando la velocità di elaborazione e l'efficienza.

Applicazioni ISV

IBM sta lavorando con l'IBM® LinuxONE Ecosystem per aiutare gli ISV a fornire soluzioni per le odierne sfide in materia di AI, sostenibilità e cybersecurity.

Esplora due soluzioni innovative pensate su misura per gli istituti finanziari e sanitari: Clari5 Enterprise Fraud Management su IBM® LinuxONE 4 Express per la prevenzione delle frodi in tempo reale ed Enso Decision Intelligence Platform di Exponential AI su LinuxONE per soluzioni AI avanzate su larga scala.

Clari5

La soluzione Clari5 Enterprise Fraud Management su IBM LinuxONE 4 Express offre agli istituti finanziari un solido motore decisionale per la prevenzione delle frodi in tempo reale. È progettata per monitorare, rilevare e influenzare le transazioni, garantendo la conformità e migliorando la produttività, il tutto offrendo una velocità e una scalabilità senza precedenti.

AI esponenziale

La piattaforma Enso Decision Intelligence di Exponential AI su LinuxONE offre funzionalità all'avanguardia per la creazione, la formazione, l'orchestrazione e la gestione di soluzioni di AI quasi in tempo reale su larga scala. Questa piattaforma affronta le sfide che si presentano ai principali assicuratori sanitari nazionali in transazioni complesse, offrendo soluzioni di automazione intelligente sviluppate da Exponential AI.

Software che sfrutta Telum
Potenzia lo sviluppo di modelli TensorFlow

TensorFlow è un framework di machine learning open source che offre un set completo di strumenti per lo sviluppo di modelli, la formazione e l'inferenza. Vanta un ecosistema ricco e robusto ed è compatibile con gli ambienti LinuxONE in esecuzione su Linux.

Esplora TensorFlow e TensorFlow Serving

Machine learning efficiente IBM SnapML

IBM SnapML è una libreria progettata per la formazione ad alta velocità e l'inferenza di popolari modelli di machine learning. Utilizza IBM Integrated Accelerator for AI per migliorare le prestazioni dei modelli Random Forest, Extra Trees e Gradient Boosting Machines. Disponibile all'interno del Toolkit AI per IBM Z e LinuxONE e di IBM CloudPak for Data.

Esplora IBM® Snap Machine Learning

Ottimizza l'inferenza Server di inferenza Triton

Triton Inference Server è un server di modelli open source sviluppato da Nvidia che supporta l'inferenza dei modelli su dispositivi CPU e GPU. È ampiamente utilizzato su varie piattaforme e architetture, tra cui s390x (Linux on Z). In particolare, su Linux on Z, Triton è in grado di utilizzare i framework AI per utilizzare sia l'architettura SIMD che IBM Integrated Accelerator for AI, ottimizzando le prestazioni.

Esplora Triton Inference Server
Potenzia i data scientist IBM Z Deep Learning Compiler

IBM® Z Deep Learning Compiler è un potente strumento che consente ai data scientist di sviluppare modelli di deep learning utilizzando strumenti e framework familiari. Questi modelli possono quindi essere implementati su Linux on IBM Z, dove risiedono i dati mission-critical. Questo compilatore facilita l'utilizzo rapido e semplice dell'Integrated Accelerator for AI del nuovo processore Telum da parte dei modelli esistenti.

Esplora IBM Z Deep Learning Compiler
Formato modello portatile
Scambio di reti neurali aperte

Open Neural Network Exchange (ONNX) è un formato aperto creato per rappresentare i modelli di machine learning. ONNX definisce un set comune di operatori (gli elementi costitutivi dei modelli di machine learning e deep learning) e un formato di file comune per consentire agli sviluppatori di AI di utilizzare modelli con una varietà di framework, strumenti, tempo di esecuzione e compilatori.

Esplora ONNX
Soluzioni integrate

Scopri soluzioni di integrazione AI perfette su misura per i sistemi IBM Z e LinuxONE. 

Migliora le prestazioni dell'AI

Il Toolkit AI per Z e LinuxONE comprende una gamma di popolari framework di AI open source, supportati da IBM® Elite Support. È ottimizzato per l'utilizzo di IBM® Z Integrated Accelerator for AI, in modo da migliorare notevolmente le prestazioni dei programmi di AI open source e IBM non garantiti.

Esplora AI Toolkit for IBM Z e LinuxONE
Ottimizza i workload dell'AI

Il pacchetto AI per IBM LinuxONE offre un'infrastruttura hardware AI dedicata con uno stack software di base ottimizzato. Sfruttando la potenza del processore IBM Telum con Integrated Accelerator for AI, le aziende possono eseguire l'inferenza per workload ad alto volume su larga scala.

Esplora il pacchetto AI per IBM LinuxONE
Semplificare la gestione dei dati:

IBM Cloud Pak for Data è un set modulare di componenti software integrati progettati per l'analisi, l'organizzazione e la gestione dei dati. Migliora la produttività e riduce la complessità aiutando a creare un data fabric che collega i dati in silos distribuiti in un panorama hybrid cloud.

Scopri IBM Cloud Pak for Data Leggi il Redbook
Fai il passo successivo

Scopri di più sull'AI con IBM LinuxONE programmando un incontro gratuito di 30 minuti con un rappresentante IBM LinuxONE.

Inizia il tuo viaggio verso l'AI su LinuxONE
Continua a esplorare Documentazione Supporto IBM Redbooks Supporto e servizi Global Financing Community Community degli sviluppatori Partner Risorse
Note a piè di pagina

1 Il processore IBM Telum su IBM® z16 offre un aumento delle prestazioni per socket di oltre il 40% rispetto al processore IBM z15.

CLAUSOLA DI ESLCUSIONE DI RESPONSABILITÀ: i risultati si basano sull'analisi ingegneristica della capacità di elaborazione totale offerta dal processore IBM Telum e dal processore IBM z15, nonché sui rapporti IBM Large System Performance Reference (LSPR) pubblicati all'indirizzo:  https://www.ibm.com/support/pages/ibm-z-large-systems-performance-reference. Il numero di core per socket del processore accessibili per uso generale varia in base alla configurazione del sistema. La capacità di elaborazione totale varia in base al workload, alla configurazione e ai livelli software.

2  L'accelerazione AI on-chip è progettata per aggiungere fino a 5,8 TFLOPS di potenza di elaborazione condivisa da tutti i core sul chip.

CLAUSOLA DI ESCLUSIONE DI RESPONSABILITÀ: il risultato è il numero teorico massimo di operazioni in virgola mobile al secondo (FLOPS) con precisione a 16 bit che possono essere eseguite da un singolo motore di AI su chip. Esiste un motore AI on-chip per chip.

3 CLAUSOLA DI ESCLUSIONE DI RESPONSABILITÀ: i risultati delle prestazioni sono estrapolati dai test interni di IBM che eseguono operazioni di inferenza locali in un LPAR IBM LinuxONE Emperor 4 con 48 core e 128 GB di memoria su Ubuntu 20.04 (modalità SMT) utilizzando un modello di rilevamento delle frodi delle carte di credito sintetico (https://github.com/IBM/ai-on-z-fraud-detection) utilizzare l'Integrated Accelerator for AI. Il benchmark è stato eseguito con 8 thread paralleli, ciascuno fissato al primo core di un chip diverso. Per identificare la topologia core-chip, è stato utilizzato il comando lscpu. La dimensione del batch utilizzato era di 128 operazioni di inferenza. I risultati variano.