L'acceleratore AI integrato è una funzionalità del processore IBM® Telum. È un'unità di elaborazione su chip coerente con la memoria e collegata direttamente al fabric come qualsiasi altro core generico. Aumenta le prestazioni di inferenza dell'AI, riducendo al minimo la latenza tra l'AI e i dati grazie alla colocation.
Il chip IBM Telum, progettato per i sistemi IBM® Z e LinuxONE, vanta oltre il 40%1 di crescita delle prestazioni per socket rispetto a IBM® z15. Introduce un acceleratore AI on-chip dedicato, che garantisce una capacità di inferenza costante a bassa latenza e ad alto rendimento. Questo acceleratore semplifica l'orchestrazione del software e la complessità delle librerie, mentre il processore AI accelerato trasforma l'integrazione dell'AI nelle aziende, fornendo insight in tempo reale con prestazioni senza pari in ambienti hybrid cloud.
Questo webinar illustra come IBM LinuxONE può aiutarti a sbloccare nuovi casi d'uso per l'AI in tutti i settori.
IBM sta lavorando con l'IBM® LinuxONE Ecosystem per aiutare gli ISV a fornire soluzioni per le odierne sfide in materia di AI, sostenibilità e cybersecurity.
Esplora due soluzioni innovative pensate su misura per gli istituti finanziari e sanitari: Clari5 Enterprise Fraud Management su IBM® LinuxONE 4 Express per la prevenzione delle frodi in tempo reale ed Enso Decision Intelligence Platform di Exponential AI su LinuxONE per soluzioni AI avanzate su larga scala.
La soluzione Clari5 Enterprise Fraud Management su IBM LinuxONE 4 Express offre agli istituti finanziari un solido motore decisionale per la prevenzione delle frodi in tempo reale. È progettata per monitorare, rilevare e influenzare le transazioni, garantendo la conformità e migliorando la produttività, il tutto offrendo una velocità e una scalabilità senza precedenti.
La piattaforma Enso Decision Intelligence di Exponential AI su LinuxONE offre funzionalità all'avanguardia per la creazione, la formazione, l'orchestrazione e la gestione di soluzioni di AI quasi in tempo reale su larga scala. Questa piattaforma affronta le sfide che si presentano ai principali assicuratori sanitari nazionali in transazioni complesse, offrendo soluzioni di automazione intelligente sviluppate da Exponential AI.
TensorFlow è un framework di machine learning open source che offre un set completo di strumenti per lo sviluppo di modelli, la formazione e l'inferenza. Vanta un ecosistema ricco e robusto ed è compatibile con gli ambienti LinuxONE in esecuzione su Linux.
IBM SnapML è una libreria progettata per la formazione ad alta velocità e l'inferenza di popolari modelli di machine learning. Utilizza IBM Integrated Accelerator for AI per migliorare le prestazioni dei modelli Random Forest, Extra Trees e Gradient Boosting Machines. Disponibile all'interno del Toolkit AI per IBM Z e LinuxONE e di IBM CloudPak for Data.
Triton Inference Server è un server di modelli open source sviluppato da Nvidia che supporta l'inferenza dei modelli su dispositivi CPU e GPU. È ampiamente utilizzato su varie piattaforme e architetture, tra cui s390x (Linux on Z). In particolare, su Linux on Z, Triton è in grado di utilizzare i framework AI per utilizzare sia l'architettura SIMD che IBM Integrated Accelerator for AI, ottimizzando le prestazioni.
IBM® Z Deep Learning Compiler è un potente strumento che consente ai data scientist di sviluppare modelli di deep learning utilizzando strumenti e framework familiari. Questi modelli possono quindi essere implementati su Linux on IBM Z, dove risiedono i dati mission-critical. Questo compilatore facilita l'utilizzo rapido e semplice dell'Integrated Accelerator for AI del nuovo processore Telum da parte dei modelli esistenti.
Open Neural Network Exchange (ONNX) è un formato aperto creato per rappresentare i modelli di machine learning. ONNX definisce un set comune di operatori (gli elementi costitutivi dei modelli di machine learning e deep learning) e un formato di file comune per consentire agli sviluppatori di AI di utilizzare modelli con una varietà di framework, strumenti, tempo di esecuzione e compilatori.
1 Il processore IBM Telum su IBM® z16 offre un aumento delle prestazioni per socket di oltre il 40% rispetto al processore IBM z15.
CLAUSOLA DI ESLCUSIONE DI RESPONSABILITÀ: i risultati si basano sull'analisi ingegneristica della capacità di elaborazione totale offerta dal processore IBM Telum e dal processore IBM z15, nonché sui rapporti IBM Large System Performance Reference (LSPR) pubblicati all'indirizzo: https://www.ibm.com/support/pages/ibm-z-large-systems-performance-reference. Il numero di core per socket del processore accessibili per uso generale varia in base alla configurazione del sistema. La capacità di elaborazione totale varia in base al workload, alla configurazione e ai livelli software.
2 L'accelerazione AI on-chip è progettata per aggiungere fino a 5,8 TFLOPS di potenza di elaborazione condivisa da tutti i core sul chip.
CLAUSOLA DI ESCLUSIONE DI RESPONSABILITÀ: il risultato è il numero teorico massimo di operazioni in virgola mobile al secondo (FLOPS) con precisione a 16 bit che possono essere eseguite da un singolo motore di AI su chip. Esiste un motore AI on-chip per chip.
3 CLAUSOLA DI ESCLUSIONE DI RESPONSABILITÀ: i risultati delle prestazioni sono estrapolati dai test interni di IBM che eseguono operazioni di inferenza locali in un LPAR IBM LinuxONE Emperor 4 con 48 core e 128 GB di memoria su Ubuntu 20.04 (modalità SMT) utilizzando un modello di rilevamento delle frodi delle carte di credito sintetico (https://github.com/IBM/ai-on-z-fraud-detection) utilizzare l'Integrated Accelerator for AI. Il benchmark è stato eseguito con 8 thread paralleli, ciascuno fissato al primo core di un chip diverso. Per identificare la topologia core-chip, è stato utilizzato il comando lscpu. La dimensione del batch utilizzato era di 128 operazioni di inferenza. I risultati variano.