Ridimensiona i carichi di lavoro dell'AI, per tutti i tuoi dati, ovunque
IBM Analytics Engine fornisce agli ambienti Apache Spark un servizio che disaccoppia i livelli di elaborazione e storage per controllare i costi e ottenere analytics su larga scala. Invece di un cluster permanente formato da nodi a doppio uso, IBM Analytics Engine consente agli utenti di archiviare dati a un livello di storage di oggetti come IBM Cloud Object Storage e di attivare cluster di note di elaborazione quando necessario. Per una maggiore flessibilità e prevedibilità dei costi, il consumo basato sull'utilizzo è disponibile per gli ambienti Apache Spark.
Utilizza le istanze solo quando i lavori sono in esecuzione
Paga solo per ciò che utilizzi
Ottimizza le risorse separando elaborazione e storage
Sviluppa uno stack conforme a ODPI con strumenti di data science all'avanguardia con il più ampio ecosistema Apache Spark.
Definisci cluster in base ai requisiti delle tue applicazioni. Scegli il pacchetto software, la versione e la dimensione del cluster appropriati. Utilizzalo fino a quando necessario ed eliminalo non appena l'applicazione completa i lavori.
Configura i cluster con librerie e pacchetti di analytics di terze parti, nonché miglioramenti propri di IBM. Distribuisci carichi di lavoro provenienti dai servizi IBM Cloud, come la machine learning.
Attiva i cluster di sola elaborazione su richiesta. Poiché nessun dato viene memorizzato nel cluster, i cluster non devono mai essere aggiornati.
Esegui il provisioning di più IBM Cloud Object Storage (o altri archivi dati) su richiesta e senza costi aggiuntivi per i cicli di elaborazione non utilizzati.
L'aggiunta e la rimozione dei nodi di dati basati sulla domanda in tempo reale è possibile grazie alle API REST. Inoltre, i costi di spesa generale restano bassi, perché non esistono dati memorizzati nel cluster di elaborazione.
L'utilizzo di un approccio multilivello semplifica maggiormente l'implementazione della sicurezza dei singoli cluster, consentendo, al tempo stesso, di gestire gli accessi ad un livello più granulare.
I cluster vengono attivati per soddisfare le esigenze di lavoro rispetto a quelli che costringono i lavori a rispettare i requisiti di un singolo pacchetto/versione software. Diverse versioni di software multiple possono essere eseguite in cluster differenti.
Se lavori con Apache Spark, ma non sei sicuro della quantità di risorse necessaria, esegui il provisioning di un'istanza Serverless Spark che consuma risorse di elaborazione solo durante l'esecuzione di un'applicazione. Paga solo per ciò di cui hai bisogno.
Raccogli, organizza e analizza i dati su una piattaforma aperta, di dati multicloud e AI.
Scoperta, catalogazione e governance di dati intelligenti e asset analitici per alimentare le applicazioni di intelligenza artificiale
Ottieni il servizio combinato che fornisce un ambiente per lo sviluppo e l'implementazione di applicazioni di analytics avanzate