Skalieren Sie KI-Workloads standortunabhängig für alle Ihre Daten
IBM Analytics Engine bietet Apache Spark-Umgebungen einen Service, der die Rechen- und Speicherebenen entkoppelt, um die Kosten zu kontrollieren und Analysen in großem Umfang durchzuführen. Anstelle eines permanenten Clusters aus Dual-Purpose-Knoten ermöglicht IBM Analytics Engine den Anwendern, Daten in einer Objektspeicherschicht wie IBM Cloud Object Storage zu speichern und bei Bedarf Cluster von Compute Notes zu starten. Für zusätzliche Flexibilität und Kostenvorhersehbarkeit ist der nutzungsbasierte Verbrauch für Apache Spark-Umgebungen verfügbar.
Instanzen nur verwenden, wenn Aufträge ausgeführt werden
Nutzungsbasiertes zahlungsmodell
Optimieren Sie Ressourcen durch die Trennung von Rechenleistung und Speicher
Bauen Sie auf einen ODPi-kompatiblen Stack mit bahnbrechenden Data Science-Tools mit dem breiteren Apache Spark-Ökosystem.
Definieren Sie Cluster basierend auf den Anforderungen Ihrer Anwendung. Wählen Sie das entsprechende Softwarepaket, die Version und die Größe des Clusters aus. Verwenden Sie es so lange wie erforderlich, und löschen Sie es, sobald die Anwendung die Aufträge abgeschlossen hat.
Konfigurieren Sie Cluster mit Analysebibliotheken und -paketen von Drittanbietern sowie IBM-eigenen Erweiterungen. Stellen Sie Workloads aus IBM Cloud-Diensten bereit, beispielsweise maschinelles Lernen.
Richten Sie bei Bedarf reine Rechencluster ein. Da keine Daten im Cluster gespeichert werden, müssen Cluster nie aktualisiert werden.
Stellen Sie bei Bedarf mehr IBM Cloud Object Storage (oder andere Datenspeicher) bereit, ohne zusätzliche Kosten für nicht genutzte Rechenzyklen.
Das Hinzufügen und Entfernen von Datenknoten basierend auf der Live-Anfrage ist über REST-APIs möglich. Außerdem bleiben die Gemeinkosten niedrig, da keine Daten im Rechencluster gespeichert sind.
Die Verwendung eines mehrschichtigen Ansatzes vereinfacht die Implementierung der Sicherheit in den einzelnen Clustern erheblich und ermöglicht gleichzeitig eine Zugriffsverwaltung auf einer detaillierteren Ebene.
Cluster werden hochgefahren, um die Anforderungen des Auftrags zu erfüllen, anstatt zu erzwingen, dass die Aufträge einem einzigen Softwarepaket/einer einzigen Version entsprechen. In verschiedenen Clustern können mehrere verschiedene Softwareversionen ausgeführt werden.
Wenn Sie mit Apache Spark arbeiten, aber nicht sicher sind, wie viel Ressource benötigt wird, stellen Sie eine serverlose Spark-Instanz bereit, die beim Ausführen einer App nur Computeressourcen verbraucht. Sie zahlen nur, was Sie tatsächlich nutzen.
Erfassen, organisieren und analysieren Sie Daten auf einer offenen Multicloud-Daten- und KI-Plattform.
Intelligente Daten- und Analyse-Asset-Erkennung, -Katalogisierung und -Governance zur Unterstützung von KI-Anwendungen
Holen Sie sich den kombinierten Service, der eine Umgebung für die Entwicklung und Bereitstellung erweiterter Analyseanwendungen bietet