Machine Learning for IBM z/OS (MLz) è una piattaforma di AI transazionale che funziona in modo nativo su IBM® z/OS. Fornisce un'interfaccia utente web (UI), varie API e una dashboard di amministrazione web con una potente suite di strumenti facili da usare per lo sviluppo e la distribuzione di modelli, la gestione degli utenti e l'amministrazione del sistema.
Importa, implementa e monitora con facilità i modelli per ottenere valore da ogni transazione e promuovere nuovi obiettivi per la tua azienda mantenendo al contempo operativi gli SLA.
Per una maggiore flessibilità, Machine Learning for z/OS comprende due edizioni:
Tutte le edizioni di IBM Machine Learning for IBM z/OS possono essere eseguite come soluzione autonoma o essere integrate nella funzionalità di AI aziendale come piattaforma scalabile.
Unisciti a noi per scoprire funzionalità all'avanguardia e applicazioni nel mondo reale nella nostra esclusiva sessione webinar.
Sfrutta la potenza senza precedenti di IBM® z16 e l'AIU Telum con la soluzione software Machine Learning for z/OS per offrire funzionalità di AI transazionale. Elabora fino a 228.000 transazioni con carta di credito CICS z/OS al secondo con un tempo di risposta di 6 ms, ciascuna con un'operazione di inferenza di rilevamento delle frodi all'interno delle transazioni che utilizza un modello di deep learning.1
Co-localizza le applicazioni con richieste di inferenza per ridurre al minimo i ritardi causati da latenza di rete. Questo offre un tempo di risposta fino a 20 volte inferiore e una velocità di trasmissione fino a 19 volte superiore rispetto all'invio delle stesse richieste di inferenza a un server cloud x86 con una latenza media di rete di 60 ms.2
Sfrutta le funzionalità dell'AI affidabile come la spiegabilità e monitora i modelli in tempo reale per rilevare eventuali deviazioni allo scopo di sviluppare e implementare con sicurezza i modelli di AI transazionali su z/OS per le transazioni e i workload mission-critical.
Un'edizione migliorata che offre prestazioni di scoring ottimizzate, una nuova versione dei tempi di esecuzione di machine learning Spark e Python e include anche uno strumento di configurazione guidato dalla GUI e altro ancora.
Una versione light di WMLz che fornisce i servizi essenziali basati sulle API REST per le operazioni di machine learning, comprese le funzionalità di punteggio online su IBM Z.
Esperienza di configurazione
Interfaccia utente guidata
Script, workflow z/OSMF
Database del repository
Db2 for IBM z/OS, integrato (Derby for z/OS)
Db2 per IBM z/OS, integrato (Derby per z/OS)
Scoring engine
Spark, Python, PMML, IBM Snap ML, Watson Core Time Series
Spark, PMML, IBM Snap ML, Watson Core Time Series
Interfaccia di inferenza
Scoring nelle transazioni con interfacce native per CICS e IMS, interfaccia RESTful
Interfaccia RESTful
Gestione del ciclo di vita dei modelli
Interfaccia utente guidata, servizi RESTful
Servizi RESTful
Formati di modelli AI supportati
Spark, Python, PMML, ONNX
Spark, PMML
Accelerazione AI on-chip z16
Modelli ONNX e IBM Snap ML
Modelli ML IBM Snap
Strumento di addestramento dei modelli AI
JupyterHUB integrato
AI affidabile
Esplicabilità e drift detection
Con questa opzione leggera e gratuita puoi provare IBM Machine Learning for z/OS, che consente lo scoring nelle transazioni per i modelli di deep learning. Questa funzionalità può fornire un significativo valore AI in aree aziendali critiche come il rilevamento delle frodi, l'abbandono dei clienti, l'approvazione dei prestiti e le prestazioni operative. Integra modelli di deep learning nelle tue applicazioni transazionali su IBM Z, soprattutto quando i millisecondi sono importanti.
Machine Learning for z/OS utilizza tecnologie proprietarie IBM e open source e richiede prerequisiti hardware e software.
Individua i problemi operativi ed evita incidenti costosi rilevando anomalie sia nei dati di log, sia metrici.
Accedi a una libreria di software open source pertinenti per supportare i workload di AI e apprendimento automatico (ML) di oggi.
Utilizza un sistema operativo altamente sicuro e scalabile per l'esecuzione di applicazioni mission-critical.
Potenzia disponibilità, sicurezza e resilienza, migliorando al contempo prestazioni e risultati aziendali.
Ottieni l'analisi dei dati ad alta velocità per insight in tempo reale sotto il controllo e la sicurezza di IBM Z.
Scopri come l'AI aumenta l'usabilità, migliora le prestazioni operative e mantiene lo stato di salute dei sistemi IBM Db2.
1 DICHIARAZIONE DI NON RESPONSABILITÀ: il risultato delle prestazioni è estrapolato da test interni IBM eseguiti su Workload di transazioni di carte di credito su CICS con operazioni di inferenza su un IBM z16. È stato utilizzato un LPAR z/OS V2R4 configurato con 6 CP e 256 GB di memoria. L'inferenza è stata eseguita con Machine Learning for z/OS 2,4 in esecuzione su WebSphere Application Server Liberty 21.0.0.12, utilizzando un modello sintetico di rilevamento delle frodi con carta di credito (https://github.com/IBM/ai-on-z-fraud-detection) e l'Integrated Accelerator for AI. La funzione di batch del server è stata abilitata su Machine Learning for z/OS con una dimensione di 8 operazioni di inferenza. Il benchmark è stato eseguito con 48 thread che eseguivano operazioni di inferenza. I risultati rappresentano un IBM z16 completamente configurato con 200 CP e 40 TB di storage. I risultati potrebbero variare.
2 DICHIARAZIONE DI NON RESPONSABILITÀ: I risultati sulle prestazioni sono basati su un workload interno IBM di carte di credito su CICS OLTP con rilevamento delle frodi all'interno delle transazioni in esecuzione su IBM z16. Le misurazioni sono state effettuate con e senza l'acceleratore integrato per AI. È stato utilizzato un LPAR z/OS V2R4 configurato con 12 CP, 24 zIIP e 256 GB di memoria. L'inferenza è stata eseguita con Machine Learning for z/OS 2,4 in esecuzione su WebSphere Application Server Liberty 21,0,0,12, utilizzando un modello sintetico di rilevamento delle frodi con carta di credito (https://github.com/IBM/ai-on-z-fraud-detection). La funzione di batch del server è stata abilitata su Machine Learning for z/OS con una dimensione di 8 operazioni di inferenza. I risultati potrebbero variare.