Startseite topics Generative KI Was ist generative KI? 
Entdecken Sie generative KI mit watsonx.ai Abonnieren Sie KI-Updates
Eine Illustration mit Plus- und Minus-Symbolen, die generative KI darstellt

Veröffentlicht: 22. März 2024
Mitwirkende: Cole Stryker, Mark Scapicchio

Was ist generative KI?

Generative KI, manchmal auch als Gen AI bezeichnet, ist künstliche Intelligenz (KI), die als Antwort auf den Prompt oder die Anfrage eines Benutzers Originalinhalte wie Text, Bilder, Video, Audio oder Softwarecode generiert.

Generative KI basiert auf hochentwickelten Modellen für maschinelles Lernen, sogenannten Deep-Learning-Modellen. Dabei handelt es sich um Algorithmen, welche die Lern- und Entscheidungsprozesse des menschlichen Gehirns simulieren. Diese Modelle erkennen und kodieren die Muster und Beziehungen in riesigen Datenmengen und nutzen diese Informationen dann, um die Eingaben oder Fragen der Benutzer in natürlicher Sprache zu verstehen und darauf mit relevanten neuen Inhalten zu antworten.

KI ist bereits seit einem Jahrzehnt ein heiß diskutiertes Thema im Technologiebereich. Aber die generative KI – und insbesondere die Einführung von ChatGPT im Jahr 2022 – haben das Thema KI weltweit in die Schlagzeilen gebracht und einen beispiellosen Anstieg der KI-Innovation und -Akzeptanz ausgelöst. Generative KI ermöglicht enorme Produktivitätsgewinne für Einzelpersonen und Unternehmen gleichermaßen. Und obwohl generative KI auch mit äußerst konkreten Herausforderungen und Risiken verbunden ist, sind Unternehmen entschlossen, zu untersuchen, wie die Technologie ihre internen Workflows verbessern und ihre Produkte und Services optimieren kann. Laut einer Studie der Unternehmensberatungsfirma McKinsey nutzt ein Drittel der Unternehmen bereits regelmäßig generative KI in mindestens einem Geschäftsbereich.¹ Der Branchenanalyst Gartner geht zudem davon aus, dass bis 2026 mehr als 80 % der Unternehmen generative KI-Anwendungen einsetzen oder Anwendungsprogrammierschnittstellen (APIs) für generative KI nutzen werden.2

 

Generative KI und ML für Unternehmen

Erfahren Sie, wie Sie generative KI und maschinelles Lernen sicher in Ihr Unternehmen integrieren können.

Ähnliche Inhalte

Registrieren Sie sich, um den Leitfaden zu Foundation Models zu lesen

So funktioniert generative KI

Generative KI umfasst im Grunde drei Phasen: 

  • Training, um ein Foundation Model zu entwickeln, das als Basis für verschiedene Anwendungen generativer KI dienen kann.

  • Optimierung, um das Foundation Model an eine bestimmte Anwendung für generative KI anzupassen.

  • Generierung, Evaluierung und Neuabstimmung, um den Output der Gen-AI-Anwendung zu bewerten und deren Qualität und Genauigkeit kontinuierlich zu verbessern.
Training

Generative KI beginnt mit einem Foundation Model. Dabei handelt es sich um ein Deep-Learning-Modell, das als Grundlage für mehrere verschiedene Arten von generativen KI-Anwendungen dient. Die gängigsten Foundation Models sind heute große Sprachmodelle (Large Language Models, LLMs), die für Anwendungen zur Textgenerierung entwickelt wurden. Es gibt aber auch Foundation Models für die Generierung von Bildern, Videos und Sound sowie Musik. Darüber hinaus gibt es multimodale Foundation Models, die verschiedene Arten der Inhaltsgenerierung unterstützen.

Für die Erstellung eines Foundation Models trainieren die Experten einen Deep-Learning-Algorithmus anhand von riesigen Mengen an unstrukturierten, nicht gekennzeichneten Rohdaten. Das können zum Beispiel Terabytes an Daten sein, die aus dem Internet oder einer anderen riesigen Datenquelle stammen. Während des Trainings führt der Algorithmus Millionen von sogenannten „Fill in the Blank“-Übungen durch und wertet die Ergebnisse aus. Dabei versucht er, das nächste Element in einer Sequenz vorherzusagen, z. B. das nächste Wort in einem Satz, das nächste Element in einem Bild oder den nächsten Befehl in einer Codezeile. Dabei passt sich der Algorithmus ständig an, um die Differenz zwischen seinen Vorhersagen und den tatsächlichen Daten (oder dem „richtigen“ Ergebnis) zu minimieren.

Das Ergebnis dieses Trainings ist ein neuronales Netz von Parametern– also kodierte Repräsentationen der Entitäten, Muster und Beziehungen in den Daten –, die Inhalte automatisch als Reaktion auf Eingaben oder Prompts generieren können.

Dieser Trainingsprozess ist rechenintensiv, zeitaufwändig und teuer: Dafür sind Tausende von geclusterten GPUs (Graphics Processing Units) und wochenlange Verarbeitung erforderlich, was alles Millionen von Dollar kostet. Projekte für Foundation-Models auf Open-Source-Basis wie Llama-2 von Meta ermöglichen es Entwicklern von generativer KI, diesen Schritt und die damit verbundenen Kosten zu vermeiden.

Optimierung

Metaphorisch ausgedrückt, ist ein Foundation Model ein Generalist: Das heißt, es weiß eine Menge über viele Arten von Inhalten, kann aber oft bestimmte Arten von Outputs nicht so genau oder zuverlässig generieren wie gewünscht. Damit dies möglich ist, muss das Modell auf eine bestimmte Aufgabe der Inhaltserstellung abgestimmt werden. Dafür gibt es verschiedene Möglichkeiten.

Feinabstimmung

Bei der Feinabstimmung wird das Modell mit Daten gespeist, die für die Anwendung zur Inhaltsgenerierung spezifisch sind. Dabei handelt es sich um Fragen oder Prompts, die die Anwendung wahrscheinlich erhalten wird, und die entsprechenden richtigen Antworten im gewünschten Format. Wenn ein Entwicklungsteam beispielsweise versucht, einen Chatbot für den Kundenservice zu entwickeln, erstellt es Hunderte oder Tausende von Dokumenten, die gekennzeichnete Fragen an den Kundenservice samt der richtigen Antworten enthalten. Das Modell wird dann mit diesen Dokumenten „gefüttert“.

Der Arbeitsaufwand bei der Feinabstimmung ist sehr hoch. Entwickler beauftragen oft externe Unternehmen mit dieser Aufgabe, da diese über eine große Anzahl von Mitarbeitern für die Kennzeichnung von Daten verfügen.

Reinforcement Learning mit menschlichem Feedback (RLHF)

Beim RLHF werten menschliche Benutzer generierte Inhalte aus. Diese Antworten verwendet das Modell dann zur Aktualisierung der Ergebnisse, um höhere Genauigkeit oder mehr Relevanz zu erzielen. Beim RLHF werden häufig unterschiedliche Ergebnisse als Antwort auf denselben Prompt „bewertet“. Manchmal ist es aber auch so einfach, dass Menschen einem Chatbot oder einem virtuellen Assistenten antworten und seinen Output korrigieren.

Generierung, Evaluierung, mehr Optimierung

Entwickler und Benutzer bewerten kontinuierlich die Outputs ihrer Apps für generative KI und passen das Modell weiter an – manchmal sogar einmal pro Woche –, um die Genauigkeit oder Relevanz zu erhöhen. (Im Gegensatz dazu wird das Foundation Model selbst viel seltener aktualisiert, vielleicht einmal pro Jahr oder alle 18 Monate).

Eine weitere Option zur Verbesserung der Leistung einer Gen-AI-App ist Retrieval Augmented Generation (RAG). RAG ist ein Framework zur Erweiterung des Foundation Models, um relevante Quellen außerhalb der Trainingsdaten zu nutzen und so die Parameter oder Darstellungen im ursprünglichen Modell zu ergänzen und zu optimieren. RAG kann sicherstellen, dass eine generative KI-App immer Zugriff auf die aktuellsten Informationen hat. Als Bonus sind die zusätzlichen Quellen, auf die über RAG zugegriffen wird, für die Benutzer in einer Weise transparent, wie es das Wissen im ursprünglichen Foundation Model nicht ist. 

 

Modellarchitekturen der generativen KI und ihre bisherige Entwicklung

Wirklich generative KI-Modelle – also Deep-Learning-Modelle, die bei Bedarf eigenständig Inhalte erstellen können – haben sich in den letzten zwölf Jahren kontinuierlich weiterentwickelt. Zu den wichtigsten Modellarchitekturen in diesem Zeitraum gehören:

  • Variational Autoencoder (VAEs), die zu einem Durchbruch in der Bilderkennung, der Verarbeitung natürlicher Sprache und der Erkennung von Anomalien geführt haben.
     

  • Generative Adversarial Networks (GANs) und Diffusionsmodelle, die die Genauigkeit früherer Anwendungen verbessert und einige der ersten KI-Lösungen für die fotorealistische Bildgenerierung ermöglicht haben.
     

  • Transformer mit der Deep-Learning-Modellarchitektur, auf der heute die wichtigsten Foundation Models und Lösungen für generative KI basieren.

Variational Autoencoder (VAEs)

Ein Autoencoder ist ein Deep-Learning-Modell, das aus zwei verbundenen neuronalen Netzen besteht: Eines kodiert (oder komprimiert) eine große Menge unstrukturierter, nicht gekennzeichneter Trainingsdaten in Parameter, und ein anderes dekodiert diese Parameter, um den Inhalt zu rekonstruieren. Technisch gesehen können Autoencoder neue Inhalte generieren, aber sie sind eher für die Komprimierung von Daten zur Speicherung oder Übertragung und die Dekomprimierung zur Verwendung geeignet als für die Generierung hochwertiger Inhalte.

Variational Autoencoder (VAEs) wurden 2013 eingeführt und können Daten wie ein Autoencoder kodieren, aber mehrere neue Variationen des Inhalts dekodieren. Durch das Training eines VAE, Variationen in Richtung eines bestimmten Ziels zu generieren, kann es mit der Zeit präzisere, zuverlässigere Inhalte finden. Zu den frühen VAE-Anwendungen gehörten die Erkennung von Anomalien (z. B. bei der medizinischen Bildanalyse) und die Generierung natürlicher Sprache.

Generative Adversarial Networks (GANs)

GANs, die 2014 eingeführt wurden, bestehen ebenfalls aus zwei neuronalen Netzen: einem Generator, der neue Inhalte erzeugt, und einem Diskriminator, der die Genauigkeit und Qualität der erzeugten Daten bewertet. Diese gegensätzlichen Algorithmen regen das Modell dazu an, immer hochwertigere Outputs zu erzeugen.

GANs werden häufig zur Generierung von Bildern und Videos verwendet, können aber in verschiedenen Bereichen hochwertige, realistische Inhalte generieren. Sie haben sich bei Aufgaben wie der Stilübertragung (Änderung des Stils eines Bildes, zum Beispiel von einem Foto zu einer Bleistiftskizze) und der Datenerweiterung (Erstellung neuer, synthetischer Daten, um die Größe und Vielfalt eines Trainingsdatensatzes zu erhöhen) als besonders erfolgreich erwiesen.

Diffusionsmodelle

Diffusionsmodelle, die ebenfalls 2014 eingeführt wurden, funktionieren, indem sie zuerst Rauschen zu den Trainingsdaten hinzufügen, bis es zufällig und nicht mehr erkennbar ist, und dann den Algorithmus so trainieren, dass er das Rauschen iterativ diffundiert, um einen gewünschten Output zu erzielen.

Diffusionsmodelle benötigen mehr Zeit zum Trainieren als VAEs oder GANs, ermöglichen aber letztendlich eine differenziertere Kontrolle über den Output, insbesondere für Tools zur Generierung hochwertiger Bilder. DALL-E, das Bildgenerierungstool von Open AI, basiert auf einem Diffusionsmodell.

Transformer

Die erstmals in einem Artikel von Ashish Vaswani und anderen aus dem Jahr 2017 dokumentierten Transformer sind eine Weiterentwicklung des Encoder-Decoder-Paradigmas und ermöglichen einen großen Fortschritt bei der Art und Weise, wie Foundation Models trainiert werden, sowie bei der Qualität und Bandbreite der Inhalte, die sie produzieren können. Diese Modelle bilden den Kern der meisten der heutigen generativen KI-Tools, die derzeit für Schlagzeilen sorgen, darunter ChatGPT und GPT-4, Copilot, BERT, Bard und Midjourney, um nur einige zu nennen.

Transformer verwenden ein Konzept namens Aufmerksamkeit (also das Bestimmen und Fokussieren auf das Wichtigste in den Daten einer Sequenz), um Folgendes zu erreichen:

  • die gleichzeitige Verarbeitung ganzer Sequenzen von Daten, z. B. von Sätzen statt einzelner Wörter
     

  • Erfassung des Kontexts der Daten innerhalb der Sequenz
     

  • Kodierung der Trainingsdaten in Einbettungen (auch Hyperparameter genannt), welche die Daten und ihren Kontext darstellen.

Transformers ermöglichen nicht nur ein schnelleres Training, sondern zeichnen sich auch durch die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) und das Verstehen natürlicher Sprache (Natural Language Understanding, NLU) aus und können längere Datensequenzen mit höherer Genauigkeit und Qualität als andere umfassende Modelle für generative KI generieren. Sie können also nicht nur Antworten auf Fragen ausgeben, sondern auch Gedichte, Artikel oder Paper generieren. Transformer-Modelle können auch für die Verwendung von Tools (z. B. Tabellenkalkulationsprogramme, HTML, Zeichenprogramme) trainiert oder abgestimmt werden, um Inhalte in einem bestimmten Format auszugeben.
 

Was kann generative KI erschaffen?

Generative KI kann viele Arten von Inhalten in vielen verschiedenen Bereichen erschaffen. 

Text

Generative Modelle, insbesondere solche, die auf Transformern basieren, können kohärenten Text generieren, der für den jeweiligen Kontext relevant ist – von Anweisungen und Dokumentationen bis hin zu Broschüren, E-Mails, Website-Texten, Blogs, Artikeln, Berichten, Papers und sogar kreativem Schreiben. Sie können auch sich wiederholende oder mühsame Schreibaufgaben erledigen (z. B. das Verfassen von Zusammenfassungen von Dokumenten oder Meta-Beschreibungen von Webseiten), wodurch Autoren mehr Zeit für kreativere, wertvollere Aufgaben bekommen.

Bilder und Videos

Mit Bildgenerierungen wie DALL-E, Midjourney und Stable Diffusion können realistische Bilder oder Originalkunstwerke erstellt und Stilübertragungen, Bild-zu-Bild-Übersetzungen und andere Aufgaben zur Bildbearbeitung oder Bildverbesserung durchgeführt werden. Neue, auf generativer KI basierende Videotools können Animationen aus Textanweisungen erstellen und Spezialeffekte schneller und kostengünstiger auf bestehende Videos anwenden als andere Methoden.

Sound, Sprache und Musik

Generative Modelle können natürlich klingende Sprach- und Audioinhalte für sprachgesteuerte KI-Chatbots und digitale Assistenten, Hörbucherzählungen und andere Anwendungen synthetisieren. Mit derselben Technologie lässt sich auch Originalmusik erzeugen, die die Struktur und den Klang professioneller Kompositionen nachahmt.

Softwarecode

Generative KI kann Originalcode generieren, Code-Snippets automatisch vervollständigen, zwischen Programmiersprachen übersetzen und die Funktionalität von Code zusammenfassen. So können Entwickler schnell Prototypen erstellen, Anwendungen überarbeiten und debuggen und gleichzeitig eine Oberfläche in natürlicher Sprache für Codierungsaufgaben nutzen.

Design und Kunst

Generative KI-Modelle können einzigartige Kunst- und Designarbeiten erzeugen oder beim Grafikdesign helfen. Zu den Anwendungen gehören die dynamische Generierung von Umgebungen, Figuren oder Avataren sowie Spezialeffekte für virtuelle Simulationen und Videospiele.

Simulationen und synthetische Daten

Generative KI-Modelle können so geschult werden, dass sie synthetische Daten oder synthetische Strukturen basierend auf echten oder synthetischen Daten generieren. Generative KI wird beispielsweise in der Arzneimittelforschung eingesetzt, um molekulare Strukturen mit bestimmten gewünschten Eigenschaften zu erzeugen, was der Entwicklung neuer pharmazeutischer Wirkstoffe zugutekommt.

Vorteile von generativer KI

Der offensichtliche, auf alle Bereiche zutreffende Vorteil der generativen KI ist die höhere Effizienz. Da sie bei Bedarf Inhalte und Antworten generieren kann, hat generative KI das Potenzial, arbeitsintensive Aufgaben zu beschleunigen oder zu automatisieren, Kosten zu senken und Mitarbeitern Zeit für höherwertige Aufgaben zu geben.

Generative KI bietet jedoch noch weitere Vorteile für Einzelpersonen und Unternehmen.

Verbesserte Kreativität

Tools der generativen KI können die Kreativität durch automatisiertes Brainstorming anregen, indem sie mehrere neue Versionen von Inhalten generieren. Diese Variationen können auch als Ausgangspunkte oder Referenzen dienen, die Autoren, Künstlern, Designern und anderen Kreativen helfen, kreative Blockaden zu überwinden.

Verbesserte (und schnellere) Entscheidungsfindung

Generative KI zeichnet sich durch die Analyse großer Datensätze, die Identifizierung von Mustern und die Gewinnung aussagekräftiger Erkenntnisse aus. Anschließend werden auf der Grundlage dieser Erkenntnisse Hypothesen und Empfehlungen erstellt, die Führungskräfte, Analysten, Forscher und andere Fachleute dabei unterstützen, intelligentere, datengestützte Entscheidungen zu treffen.

Dynamische Personalisierung

In Anwendungen wie Empfehlungssystemen und der Erstellung von Inhalten kann generative KI die Vorlieben und die Historie der Benutzer analysieren und anschließend anhand dessen personalisierte Inhalte in Echtzeit erstellen, was zu einem maßgeschneiderten und ansprechenden Benutzererlebnis führt.

Ständige Verfügbarkeit

Generative KI ist kontinuierlich in Betrieb, wird nie müde und bietet rund um die Uhr Verfügbarkeit zur Erledigung von Aufgaben wie den Kundensupport per Chatbot und automatisierte Antworten.

Anwendungsfälle für generative KI

Im Folgenden finden Sie eine Auswahl an Anwendungsfällen für generative KI in Unternehmen. Wenn sich die Technologie weiterentwickelt und Unternehmen diese Tools in ihre Workflows einbinden, werden noch viele weitere hinzukommen. 

Customer Experience

Marketingunternehmen können mit generativen KI-Tools bei der Erstellung von Texten für Blogbeiträgen, Webseiten, Werbematerialien, E-Mails und mehr Zeit sparen und bessere Inhalte produzieren. Generative KI-Lösungen können aber auch hochgradig personalisierte Marketingtexte und Visuals in Echtzeit erstellen, basierend darauf, wann, wo und für wen die Anzeige ausgespielt wird. Generative KI wird außerdem Chatbots der nächsten Generation und virtuelle Agenten unterstützen, die personalisierte Antworten geben und sogar Aktionen im Namen des Kunden einleiten können – ein bedeutender Fortschritt im Vergleich zur vorherigen Generation von dialogorientierten KI-Modellen, die auf begrenzteren Daten für sehr spezifische Aufgaben trainiert wurden.

Softwareentwicklung und Anwendungsmodernisierung

Tools zur Codegenerierung können den Prozess der Erstellung von neuem Code automatisieren und beschleunigen. Die Code-Generierung hat auch das Potenzial, die Anwendungsmodernisierung drastisch zu beschleunigen, indem ein Großteil der sich wiederholenden Codierung automatisiert wird, die für die Modernisierung von veralteten Anwendungen für Hybrid-Cloud-Umgebungen erforderlich ist.

Digitale Arbeit

Generative KI kann schnell Verträge, Rechnungen und andere digitale oder physische Dokumente erstellen oder überarbeiten. So können sich die Mitarbeiter, die diese Dokumente nutzen oder für deren Verwaltung verantwortlich sind, auf wichtigere Aufgaben konzentrieren. Damit lassen sich die Workflows in praktisch jedem Unternehmensbereich beschleunigen, einschließlich Personalwesen, Recht, Beschaffung und Finanzen.

Wissenschaft, Technik und Forschung

Generative KI-Modelle können Wissenschaftlern und Ingenieuren helfen, neue Lösungen für komplexe Probleme vorzuschlagen. Im Gesundheitswesen können generative Modelle zum Beispiel dazu verwendet werden, medizinische Bilder für das Training und Testen medizinischer Bildgebungssysteme zu synthetisieren.

Herausforderungen, Einschränkungen und Risiken

Generative KI hat in relativ kurzer Zeit bemerkenswerte Fortschritte erzielt, stellt Entwickler, Benutzer und die breite Öffentlichkeit aber immer noch vor große Herausforderungen und Risiken. Nachfolgend finden Sie einige der größten Probleme und wie sie angegangen werden. 

„Halluzinationen“ und andere ungenaue Outputs

Eine KI-Halluzination ist ein Output generativer KI, der unsinnig oder komplett falsch ist – aber allzu oft völlig plausibel erscheint. Das klassische Beispiel hierfür ist ein Anwalt, der zur Vorbereitung eines viel beachteten Falles ein KI-Tool zur Recherche einsetzte. Das Tool „produzierte“ daraufhin mehrere Beispielfälle, komplett mit Zitaten und Quellenangaben, die jedoch völlig frei erfunden waren (Link befindet sich außerhalb von ibm.com).

Einige Anwender betrachten Halluzinationen als unvermeidliche Folge der Abwägung zwischen der Genauigkeit eines Modells und seinen kreativen Fähigkeiten. Entwickler können jedoch vorbeugende Maßnahmen, sogenannte Verhaltensregeln, einführen, die das Modell auf relevante oder vertrauenswürdige Datenquellen beschränken. Eine kontinuierliche Bewertung und Abstimmung kann ebenfalls dazu beitragen, Halluzinationen und Ungenauigkeiten zu reduzieren.

Inkonsistente Outputs

Weil generative KI-Modelle variabel bzw. wahrscheinlichkeitsbasiert sind, können die gleichen Eingaben zu leicht oder erheblich unterschiedlichen Outputs führen. Dies kann bei bestimmten Anwendungen unerwünscht sein, z. B. bei Chatbots für den Kundenservice, wo einheitliche Ergebnisse erwartet oder gewünscht werden. Durch Prompt Engineering – also die iterative Verbesserung oder Kombination von Prompts – können Benutzer Prompts erhalten, die konsistent die gewünschten Ergebnisse ihrer generativen KI-Anwendungen liefern.

Bias

Es kann passieren, dass generative Modelle gesellschaftliche Vorurteile (Bias) lernen, die ihren Ursprung in den Trainingsdaten haben – oder in den gekennzeichneten Daten, externen Datenquellen oder menschlichen Bewertern, die mit der Abstimmung des Modells beauftragt werden – und infolgedessen voreingenommene, unfaire oder beleidigende Inhalte generieren. Um voreingenommene Outputs ihrer Modelle zu verhindern, müssen die Entwickler vielfältige Trainingsdaten verwenden, Richtlinien zur Vermeidung von Bias während des Trainings und der Abstimmung festlegen und die Outputs des Modells kontinuierlich auf Bias und Genauigkeit überprüfen.

Mehr über KI-Bias erfahren
Mangelnde Erklärbarkeit und fehlende Metriken

Viele Modelle der generativen KI sind „Blackbox“-Modelle, d. h. es kann schwierig oder unmöglich sein, ihre Entscheidungsprozesse nachzuvollziehen. Selbst die Ingenieure oder Data Scientists, die den zugrundeliegenden Algorithmus entwickeln, haben Schwierigkeiten zu verstehen oder zu erklären, was genau im Algorithmus vor sich geht und wie er zu einem bestimmten Ergebnis kommt. Praktiken und Techniken für Explainable AI (erklärbare KI) können Experten und Benutzern helfen, die Prozesse und Outputs generativer Modelle zu verstehen und ihnen zu vertrauen.

Auch das Bewerten und Vergleichen der Qualität generierter Inhalte kann eine Herausforderung sein. Herkömmliche Bewertungsmetriken erfassen möglicherweise nicht die differenzierten Aspekte von Kreativität, Kohärenz oder Relevanz. Die Entwicklung robuster und zuverlässiger Bewertungsmethoden für generative KI ist nach wie vor ein Forschungsgebiet, das aktiv weiterverfolgt wird.

Bedrohungen für Sicherheit, Datenschutz und geistiges Eigentum

Generative KI-Modelle können genutzt werden, um überzeugende Phishing-E-Mails, gefälschte Identitäten oder andere bösartige Inhalte zu generieren, die Benutzer zu Aktionen verleiten können, welche die Sicherheit und den Datenschutz gefährden. Entwickler und Benutzer müssen darauf achten, dass die Daten, die in das Modell eingegeben werden (und zwar sowohl während der Optimierung als auch als Teil eines Prompts), nicht ihr eigenes geistiges Eigentum oder Informationen offenlegen, die von anderen Unternehmen als geistiges Eigentum geschützt sind. Und sie müssen die Outputs auf neue Inhalte überwachen, die ihr eigenes geistiges Eigentum offenlegen oder den Schutz des geistigen Eigentums anderer verletzen.

Deepfakes

Deepfakes sind von der künstlichen Intelligenz generierte oder manipulierte Bilder, Videos oder Audiodateien, die erstellt werden, um Menschen vorzutäuschen, dass sie jemanden sehen, beobachten oder hören, der etwas tut oder sagt, was diese Person jedoch nie getan oder gesagt hat. Sie sind eines der beängstigendsten Beispiele dafür, wie die Möglichkeiten der generativen KI in böswilliger Absicht eingesetzt werden können.

Die meisten Menschen sind mit Deepfakes vertraut, die erstellt werden, um die Reputation zu schädigen oder Fehlinformationen zu verbreiten. In jüngster Zeit haben Cyberkriminelle Deepfakes allerdings auch als Teil von Cyberangriffen (z. B. gefälschte Stimmen bei Voice-Phishing-Scams) oder Finanzbetrug eingesetzt.

Forscher arbeiten intensiv an KI-Modellen, die Deepfakes mit höherer Genauigkeit erkennen können. In der Zwischenzeit können die Aufklärung der Benutzer und Best Practices (z. B. kein unbestätigtes oder ungeprüftes umstrittenes Material zu teilen) dazu beitragen, den Schaden zu begrenzen, den Deepfakes anrichten können.

Eine kurze Geschichte der generativen KI

Der Begriff „generative KI“ ist in den 2020er-Jahren explosionsartig ins öffentliche Bewusstsein gerückt, wobei die generative KI jedoch bereits seit Jahrzehnten Teil unseres Lebens ist. Die heutige Technologie der generativen KI basiert auf Durchbrüchen im Bereich des maschinellen Lernens, die bis ins frühe 20. Jahrhundert zurückreichen. Die folgenden Daten geben einen kurzen – nicht vollständigen – Überblick über die Geschichte der generativen KI:

  • 1964: Der MIT-Informatiker Joseph Weizenbaum entwickelt ELIZA, eine textbasierte Anwendung zur Verarbeitung natürlicher Sprache. ELIZA war im Grunde der erste Chatbot (damals noch „Chatterbot“ genannt), der mithilfe von Pattern-Matching-Skripten auf Eingaben in natürlicher Sprache mit empathischen Textantworten reagierte.
     

  • 1999: Nvidia veröffentlicht GeoForce, die erste grafische Verarbeitungseinheit (Graphical Processing Unit, GPU). GPUs wurden ursprünglich entwickelt, um flüssig laufende Grafiken für Videospiele ohne Ruckeln bereitzustellen. Inzwischen sind sie die Defacto-Plattform für die Entwicklung von KI-Modellen und das Mining von Kryptowährungen geworden.
     

  • 2004: Die Autovervollständigung von Google taucht zum ersten Mal auf und generiert mögliche nächste Wörter oder Phrasen, wenn Benutzer ihre Suchbegriffe eingeben. Das relativ moderne Beispiel für generative KI basiert auf einer Markov-Kette, einem mathematischen Modell, das 1906 entwickelt wurde.
     

  • 2013: Die ersten Variational Autoencoder (VAEs) werden eingeführt.
     

  • 2014: Die ersten Generative Adversarial Networks (GANs) und Diffusionsmodelle werden eingeführt.
     

  • 2017: Ashish Vaswani, ein Team bei Google Brain und eine Gruppe der Universität Toronto veröffentlichen „Attention is All You Need“, ein Paper, das die Prinzipien von Transformer-Modellen dokumentiert, die allgemein als die leistungsstärksten Foundation Models und Tools für generative KI gelten, die heute entwickelt werden.
     

  • 2019–2020: OpenAI führt seine großen Sprachmodelle GPT (Generative Pretrained Transformer), GPT-2 und GPT-3 ein.

  • 2022: OpenAI stellt ChatGPT vor, ein Frontend für GPT-3, das komplexe, kohärente und kontextbezogene Sätze und langformatige Inhalte als Antwort auf den Prompt des Endbenutzers generiert.

Mit der zunehmenden Bekanntheit und Popularität von ChatGPT öffneten sich die Schleusen für Entwicklungen und Produktveröffentlichungen im Bereich der generativen KI in rasantem Tempo. Dazu gehören die Releases von Google Bard (jetzt Gemini), Microsoft Copilot, IBM watsonx.ai und Metas Open-Source-Sprachmodell Llama-2.

Weiterführende Lösungen
IBM® watsonx.ai

Trainieren, prüfen, optimieren und implementieren Sie generative KI, Foundation Models und maschinelles Lernen problemlos und erstellen Sie KI-Anwendungen in einem Bruchteil der Zeit und mit einem Bruchteil der Daten. IBM watsonx.ai vereint neue generative KI-Funktionen, die auf Foundation Models und traditionellem maschinellen Lernen basieren, in einem leistungsstarken Studio, das den gesamten KI-Lebenszyklus abdeckt. 

Entdecken Sie IBM watson.ai Testen Sie watson.ai kostenlos
IBM® watsonx Assistant

Bieten Sie Kunden bei jeder Interaktion, Call-Center-Agenten, die Hilfe benötigen, und sogar Mitarbeitern, die Informationen brauchen, außergewöhnliche Erfahrungen. Skalieren Sie Antworten in natürlicher Sprache, die auf Unternehmensinhalten basieren, um ergebnisorientierte Interaktionen und schnelle, präzise Antworten zu ermöglichen.

IBM® watsonx Assistant kennenlernen
KI-Lösungen

Gestalten Sie die Zukunft Ihres Unternehmens mit KI-Lösungen, denen Sie vertrauen können Mit seiner unvergleichlichen Erfahrung bei der Lösung der größten Geschäftsprobleme der Welt kann IBM Sie bei jedem Schritt Ihrer KI-Journey unterstützen.

Erkunden Sie KI-Lösungen
Ressourcen IBM AI Academy

Unser neues Flaggschiff KI für Unternehmen, die AI Academy, vermittelt Führungskräften das nötige Wissen, um die KI-Investitionen zu priorisieren, die ihr Wachstum beschleunigen können.

Generative KI

Unsere datengestützte Forschung zeigt auf, wie Unternehmen Chancen auf dem sich entwickelnden, expandierenden Gebiet der generativen KI erkennen und nutzen können.

Der CEO-Leitfaden zu generativer KI

So können CEOs den Wert, den generative KI schaffen kann, gegen die erforderlichen Investitionen und die damit verbundenen Risiken abwägen.

Praktische Anwendung von generativer KI

Erfahren Sie mehr über die grundlegenden Konzepte und bauen Sie Ihre Fähigkeiten mit praktischen Übungen, Kursen, angeleiteten Projekten, Tests und mehr aus.

So wählen Sie das richtige Foundation Model

Die Wahl des falschen Modells kann erhebliche Auswirkungen auf Ihr Geschäft haben. Erfahren Sie, wie Sie das für Ihren Anwendungsfall am besten geeignete Modell richtig dimensionieren.

Was ist Deep Learning?

Mit Deep Learning können Systeme Daten clustern und Vorhersagen mit unglaublicher Genauigkeit treffen.

Machen Sie den nächsten Schritt

Trainieren, validieren, optimieren und implementieren Sie generative KI, Foundation Models und maschinelle Lernfunktionen mit IBM watsonx.ai, einem Studio der nächsten Generation für AI Builder in Unternehmen. Erstellen Sie KI-Anwendungen mit einem Bruchteil der Zeit und Daten.

watsonx.ai erkunden Buchen Sie eine Live-Demo
Fußnoten

The state of AI in 2023: Generative AI’s breakout year (Link befindet sich außerhalb von ibm.com), McKinsey, 1. August 2023

Laut Gartner werden bis 2026 mehr als 80 % der Unternehmen generative KI-APIs nutzen oder generative KI-gestützte Anwendungen einsetzen, (Link befindet sich außerhalb von ibm.com), Gartner, 11. Oktober 2023