IBM® watsonx-Modelle sind für Unternehmen konzipiert und gezielt für bestimmte Geschäftsbereiche und Anwendungsfälle optimiert. Über das KI-Studio IBM® watsonx.ai bieten wir eine Auswahl an kostengünstigen Foundation Models, die von IBM entwickelt wurden und auf Unternehmen ausgerichtet sind, sowie Open-Source-Modelle und Modelle von Drittanbietern. So möchten wir Kunden und Partnern dabei helfen, künstliche Intelligenz (KI) schneller und mit minimalem Risiko zu skalieren und zu operationalisieren. Sie können die KI-Modelle überall dort bereitstellen, wo sich Ihre Workloads befinden, sowohl On-Premises als auch in der Hybrid Cloud.
IBM verfolgt einen differenzierten Ansatz zur Bereitstellung von auf Unternehmen ausgerichteten Foundation Models:
Mit der Foundation-Model-Bibliothek von IBM watsonx haben Sie die Wahl und die Flexibilität, sich für das Modell zu entscheiden, das am besten zu Ihren geschäftlichen Anforderungen, regionalen Interessen und Risikoprofilen passt. Dabei umfasst die Bibliothek sowohl proprietäre Modelle als auch Open-Source- und Drittanbieter-Modelle.
Bei IBM Granite handelt es sich um eine Reihe führender Foundation Models, die auf großen Sprachmodellen und einer reinen Decoder-Transformer-Architektur basieren. Granite-Sprachmodelle werden anhand von vertrauenswürdigen Unternehmensdaten aus den Bereichen Internet, Wissenschaft, Coding, Recht und Finanzen trainiert.
Die Modelle überzeugen durch eine kontinuierliche verbesserte Leistung bei gängigen Anwendungsfällen wie Inhaltserstellung, Zusammenfassung, Klassifizierung, Erkenntnisgewinnung und Retrieval Augmented Generation (RAG).
Probieren Sie watsonx.ai kostenlos aus
Erfahren Sie, wie Granite-Modelle trainiert und welche Datenquellen verwendet wurden
IBM Granite wurde anhand von unternehmensrelevanten Inhalten trainiert und erfüllt die strengen Kriterien für Data Governance, gesetzliche Vorschriften und Risiken, die durch den IBM AI Ethics Code und das Chief Privacy Office definiert und durchgesetzt werden.
Höhere Genauigkeit für gezielte Unternehmensbereiche wie Finanzen und Anwendungsfälle wie RAG, erreicht durch Chat-Feinabstimmung und Techniken zur Modellanpassung.
Ein preisgünstiges Modell mit geringerem Infrastrukturbedarf, IP-Haftungsfreistellung und einem benutzerfreundlichen Toolkit für die Modellanpassung und Anwendungsintegration.
Entscheiden Sie sich für ein generatives Foundation Model, das Ihren Anforderungen am besten entspricht. Erstellen Sie eine übersichtliche Liste von Modellen für Ihren Anwendungsfall. Testen Sie diese Modelle anschließend systematisch mit Prompt-Engineering-Techniken, um festzustellen, welche durchgängig die gewünschten Ergebnisse liefern.
granite-13b-chat
IBM
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion und RAG.
8192
0,0006
granite-13b-instruct
IBM
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion und RAG.
8192
0,0006
granite-20b-multilingual
IBM
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion, Übersetzung und RAG in französischer, deutscher, portugiesischer, spanischer und englischer Sprache.
8190
0,0006
llama-2-70b-chat
Meta
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion und RAG.
4096
0,0018
llama-2-13b-chat
Meta
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion und RAG. Verfügbar für Prompt-Tuning.
4096
0,0006
codellama-34b-instruct
Meta
Aufgabenspezifisches Modell für Code durch Generieren und Übersetzen von Code aus einer Eingabeaufforderung in natürlicher Sprache.
4096
0,0018
mixtral-8x7b-instruct
Mistral AI
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion, RAG und Code-Programmierung.
32768
0,0006
granite-8b-japanese
IBM
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion, Übersetzung und RAG in japanischer Sprache.
4096
0,0006
flan-t5-xl-3b
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion und RAG. Verfügbar für Prompt-Tuning.
4096
0,0006
flan-t5-xxl-11b
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion und RAG.
4096
0,0018
flan-ul2-20b
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion und RAG.
4096
0,005
elyza-japanese-llama-2-7b-instruct
ELYZA
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, RAG, Klassifizierung, Generierung, Extraktion und Übersetzung.
4096
0,0018
mt0-xxl-13b
BigScience
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung und Generierung.
4096
0,0018
Unternehmen freuen sich über die Aussicht, Foundation Models und ML mit ihren eigenen Daten an einem zentralen Ort nutzen und damit generative KI-Workloads beschleunigen zu können.
IBM engagiert sich für die Erstellung, den Einsatz und die Nutzung von KI-Modellen, die Innovationen unternehmensweit auf verantwortungsvolle Weise vorantreiben. Die KI- und Datenplattform watsonx von IBM umfasst einen durchgängigen Prozess zum Erstellen und Testen von Foundation Models und generativer KI. Bei den von IBM entwickelten Modellen suchen wir nach Duplikaten und entfernen diese. Außerdem setzen wir URL-Blocklisten, Filter für anstößige Inhalte und Dokumentenqualität, Satzsplitting und Tokenisierungstechniken ein – und das alles vor dem Training der Modelle.
Während des Datentrainings versuchen wir, Abweichungen in den Modellergebnissen zu vermeiden und verwenden eine überwachte Feinabstimmung, damit die Anweisungen besser befolgt werden können. Auf diese Weise kann das Modell zur Erledigung von Unternehmensaufgaben mittels Prompt Engineering eingesetzt werden. Wir entwickeln die Granite-Modelle in mehrere Richtungen weiter und arbeiten an weiteren Modalitäten, branchenspezifischen Inhalten und weiteren Datenkommentaren für das Training. Gleichzeitig stellen wir regelmäßige, fortlaufende Datenschutzmaßnahmen für die von IBM entwickelten Modelle bereit.
Angesichts der sich schnell weiterentwickelnden Landschaft der generativen KI-Technologie müssen wir unsere Prozesse durchweg kontinuierlich anpassen und verbessern. IBM legt großen Wert auf eine sorgfältige Entwicklung und Tests seiner Foundation Models. Deshalb bietet das Unternehmen für alle von IBM entwickelten Modelle eine standardmäßige vertragliche Haftungsfreistellung für geistiges Eigentum, wie sie auch für IBM Hardware- und Softwareprodukte gilt.
Im Gegensatz zu einigen anderen Anbietern von Large Language Models und gemäß dem Standardkonzept von IBM für Haftungsfreistellungen fordert IBM von seinen Kunden keine Entschädigung für die Nutzung der von IBM entwickelten Modelle durch den Kunden. Darüber hinaus legt IBM keine Obergrenze für seine Haftungsverpflichtung für die von IBM entwickelten Modelle fest und bleibt damit seinem Ansatz in Bezug auf die Haftungspflicht treu.
Folgende aktuelle watsonx Modelle unterliegen diesem Schutz:
(1) Slate-Familie mit reinen Encoder-Modellen.
(2) Granite-Familie mit reinen Decoder-Modellen.
Inferenzpreise beziehen sich auf pro 1.000 Token (1 Ressourceneinheit). Eingabe- und Abschluss-Token werden zum gleichen Tarif berechnet. 1.000 Token entsprechen üblicherweise etwa 750 Wörtern.
Nicht alle Modelle sind in allen Regionen verfügbar. Weitere Informationen finden Sie in unserer Dokumentation.
Die Kontextlänge ist in Token ausgedrückt.
Die Aussagen von IBM zu den Plänen, der Ausrichtung und der Absicht des Unternehmens können ohne Vorankündigung und nach alleinigem Ermessen von IBM geändert oder zurückgezogen werden. Weitere Informationen finden Sie unter Preisgestaltung. Sofern unter „Preise für Software" nicht anders angegeben, beziehen sich alle Merkmale, Funktionalitäten und möglichen Updates ausschließlich auf SaaS. IBM gibt keine Zusicherung, dass SaaS und die Software-Features und Funktionalitäten identisch sind.