Startseite topics natural language processing Was ist NLP (Verarbeitung natürlicher Sprache)? 
Erfahren Sie mehr über die NLP-Lösungen von IBM Abonnieren Sie Updates rund ums Thema KI
Robotergesicht, das menschliche Gespräche verarbeitet und daraus lernt

Aktualisiert: 6. Juni 2024
Mitwirkender: Jim Holdsworth

Was ist NLP?

Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) ist ein Teilgebiet der Informatik und künstlichen Intelligenz (KI), das maschinelles Lernen nutzt, damit Computer die menschliche Sprache verstehen und mit ihr kommunizieren können. 

NLP ermöglicht es Computern und digitalen Geräten, Text und Sprache zu erkennen, zu verstehen und zu generieren, indem Computerlinguistik – die regelbasierte Modellierung der menschlichen Sprache – mit statistischer Modellierung, maschinellem Lernen (ML) und Deep Learning kombiniert wird. 

Die NLP-Forschung hat das Zeitalter der generativen KI ermöglicht, von den Kommunikationsfähigkeiten großer Sprachmodelle (Large Language Models, LLMs) bis hin zur Fähigkeit von Bildgenerierungsmodellen, Anfragen zu verstehen. NLP gehört für viele bereits zum Alltag. Es unterstützt Suchmaschinen und wird beim Prompting von Chatbots für den Kundenservice mit gesprochenen Befehlen verwendet, für sprachgesteuerte GPS-Systeme und digitale Assistenten auf Smartphones verwendet.

Auch in Unternehmenslösungen, die dabei helfen, Geschäftsabläufe zu rationalisieren und zu automatisieren, die Produktivität der Mitarbeiter zu steigern und unternehmenskritische Geschäftsprozesse zu vereinfachen, spielt NLP eine immer größere Rolle.

So wählen Sie das richtige Foundation Model für die KI

Nutzen Sie dieses Framework zur Modellauswahl, um das am besten geeignete Modell auszuwählen und dabei Ihre Leistungsanforderungen mit den Kosten, Risiken und Bereitstellungsanforderungen in Einklang zu bringen.

Ähnliche Inhalte

Registrieren Sie sich für das Whitepaper über KI-Governance

Der Vorteil von NLP

Ein System zur Verarbeitung natürlicher Sprache kann schnell und effizient arbeiten: Nachdem die NLP-Modelle ordnungsgemäß trainiert wurden, kann es administrative Aufgaben übernehmen, wodurch Mitarbeiter mehr Zeit für produktivere Arbeit haben. Folgende Vorteile sind möglich:

Schnellere Aufdeckung von Erkenntnissen: Unternehmen können verborgene Muster, Trends und Beziehungen zwischen verschiedenen Inhalten finden. Die Abfrage von Textdaten unterstützt umfassendere Erkenntnisse und Analysen, die eine fundiertere Entscheidungsfindung ermöglichen und neue Geschäftsideen zutage fördern.

Größere Budgeteinsparungen: Angesichts der enormen Menge an unstrukturierten Textdaten kann NLP verwendet werden, um die Erfassung, Verarbeitung und Organisation von Informationen mit weniger manuellem Aufwand zu automatisieren.

Schneller Zugriff auf Unternehmensdaten: Ein Unternehmen kann eine Wissensdatenbank mit betrieblichen Informationen aufbauen, die über die KI-Suche effizient abgerufen werden können. Vertriebsmitarbeitern kann NLP helfen, schnell relevante Informationen zu finden, um den Kundenservice zu verbessern und Verkäufe abzuschließen.

Herausforderungen von NLP

NLP-Modelle sind nicht perfekt und werden es wahrscheinlich auch nie sein, genauso wie die menschliche Sprache anfällig für Fehler ist. Risiken können Folgendes umfassen:

Verzerrtes Training:  Wie bei jeder KI-Funktion führen verzerrte Daten, die beim Training verwendet werden, zu einer Verzerrung der Antworten. Je vielfältiger die Nutzer einer NLP-Funktion sind, desto bedeutender wird dieses Risiko, z. B. bei Regierungsdiensten, im Gesundheitswesen und bei Interaktionen im Personalwesen. Trainingsdatensätze aus dem Internet sind beispielsweise anfällig für Verzerrungen.

Fehlinterpretation: Wie bei der Programmierung besteht das Risiko von Garbage In, Garbage Out (GIGO, wörtlich übersetzt „Müll rein, Müll raus“), d. h. die Qualität der Eingabe bestimmt die Qualität der Ausgabe. NLP-Lösungen können verwirrt werden, wenn die gesprochene Eingabe in einem obskuren Dialekt, genuschelt, zu sehr mit Slang, Homonymen, falscher Grammatik, Idiomen, Fragmenten, falscher Aussprache, Kontraktionen oder mit zu viel Hintergrundgeräuschen aufgezeichnet wurde.

Neues Vokabular: Es werden ständig neue Wörter erfunden oder importiert. Die Konventionen der Grammatik können sich weiterentwickeln oder absichtlich missachtet werden. In diesen Fällen kann NLP entweder eine Vermutung anstellen oder zugeben, dass es unsicher ist – so oder so führt dies zu einer Komplikation.

Tonfall: Wenn Menschen sprechen, kann ihre verbale Ausdrucksweise oder sogar ihre Körpersprache eine ganz andere Bedeutung haben als die Worte allein. Übertreibungen für einen bestimmten Effekt, die Betonung von Wörtern zur Darstellung ihrer Bedeutung oder Sarkasmus können von NLP missverstanden werden, was die semantische Analyse erschwert und weniger zuverlässig macht.

Die menschliche Sprache ist voller Mehrdeutigkeiten, die es Programmierern unglaublich schwierig machen, Software zu schreiben, die die beabsichtigte Bedeutung von Text- oder Sprachdaten genau bestimmt. Es kann Jahre dauern, bis Menschen die menschliche Sprache lernen – und viele hören nie auf zu lernen. Aber dann müssen die Programmierer den auf natürlicher Sprache basierenden Anwendungen beibringen, Unregelmäßigkeiten zu erkennen und zu verstehen, damit ihre Anwendungen genau und sinnvoll eingesetzt werden können.

So funktioniert NLP

NLP kombiniert die Leistungsfähigkeit der Computerlinguistik mit Algorithmen des maschinellen Lernens und Deep Learning. Computerlinguistik ist ein Fachbereich der Linguistik, der Datenwissenschaft zur Analyse von Sprache und Gesprochenem einsetzt. Sie umfasst zwei Hauptarten der Analyse: die syntaktische Analyse und die semantische Analyse. Die syntaktische Analyse bestimmt die Bedeutung eines Wortes, einer Phrase oder eines Satzes, indem sie die Syntax der Wörter analysiert und die vorprogrammierten Regeln der Grammatik anwendet. Die semantische Analyse verwendet die syntaktische Ausgabe, um die Bedeutung der Wörter zu ermitteln und ihre Bedeutung innerhalb der Satzstruktur zu interpretieren. 

Das Parsen von Wörtern kann auf zwei Arten erfolgen. Beim Dependency Parsing werden die Beziehungen zwischen den Wörtern untersucht, z. B. die Identifizierung von Substantiven und Verben, während beim Constituency Parsing ein Parse-Baum (oder Syntaxbaum) erstellt wird: eine verwurzelte und geordnete Darstellung der syntaktischen Struktur des Satzes oder der Wortfolge. Die daraus resultierenden Parse-Bäume bilden die Grundlage für die Funktionen von Language Translators und Spracherkennung. Im Idealfall macht diese Analyse die Ausgabe – entweder Text oder Sprache – sowohl für NLP-Modelle als auch für Menschen verständlich.

Insbesondere selbstüberwachtes Lernen (Self-supervised Learning, SSL) ist zur Unterstützung von NLP nützlich, da NLP große Mengen an gekennzeichneten Daten benötigt, um modernste Modelle der künstlichen Intelligenz (KI) zu trainieren. Da diese gekennzeichneten Datensätze eine zeitaufwändige Annotation erfordern – ein Prozess, der die manuelle Kennzeichnung durch Menschen beinhaltet – kann es äußerst schwierig sein, genügend Daten zu sammeln. Selbstüberwachte Ansätze können zeit- und kosteneffizienter sein, da sie das manuelle Kennzeichnen von Trainingsdaten teilweise oder vollständig ersetzen.

Zu den drei verschiedenen NLP-Ansätzen gehören:

Regelbasiertes NLP: Die ersten NLP-Anwendungen waren einfache Wenn-Dann-Decision-Trees, für die man vorprogrammierte Regeln benötigte. Sie sind nur in der Lage, Antworten auf bestimmte Prompts zu geben, wie zum Beispiel die Originalversion von Moviefone. Da es im regelbasierten NLP weder maschinelles Lernen noch KI-Fähigkeiten gibt, ist diese Funktion stark eingeschränkt und nicht skalierbar.

Statistisches NLP: Das später entwickelte statistische NLP extrahiert, klassifiziert und kennzeichnet automatisch Elemente von Text- und Sprachdaten und weist dann jeder möglichen Bedeutung dieser Elemente eine statistische Wahrscheinlichkeit zu. Dies beruht auf maschinellem Lernen und ermöglicht eine ausgeklügelte Aufschlüsselung der Linguistik, wie z. B. Part-of-Speech-Tagging.

Statistisches NLP führte die wesentliche Technik ein, Sprachelemente – wie Wörter und grammatikalische Regeln – auf einer Vektordarstellung abzubilden, sodass Sprache mithilfe mathematischer (statistischer) Methoden, einschließlich Regression oder Markov-Modellen, modelliert werden kann. Dies beeinflusste frühe NLP-Entwicklungen wie Rechtschreibprüfungen und T9-Textnachrichten (Text auf 9 Tasten, zur Verwendung auf Tonwahltelefonen).

Deep Learning NLP: In letzter Zeit haben sich Deep-Learning-Modelle zur vorherrschenden Methode des NLP entwickelt, indem sie riesige Mengen an unstrukturierten Rohdaten – sowohl Text als auch Sprache – nutzen, um immer genauer zu werden. Deep Learning kann als eine Weiterentwicklung des statistischen NLP betrachtet werden, mit dem Unterschied, dass es neuronale Netzmodelle verwendet. Es gibt mehrere Unterkategorien von Modellen:

  • Sequence-to-Sequence (seq2seq)-Modelle: Sie basieren auf wiederkehrenden neuronalen Netzen (RNN) und werden meist für die maschinelle Übersetzung verwendet, indem sie einen Satz aus einer Sprache (z. B. Deutsch) in einen Satz aus einer anderen Sprache (z. B. Englisch) umwandeln.

  • Transformer-Modelle: Sie verwenden die Tokenisierung der Sprache (die Position jedes Tokens – Wörter oder Teilwörter) und Selbstaufmerksamkeit (Erfassung von Abhängigkeiten und Beziehungen), um die Beziehung verschiedener Sprachteile zueinander zu berechnen. Transformer-Modelle können durch selbstüberwachtes Lernen effizient auf riesigen Textdatenbanken trainiert werden. Ein Meilenstein bei den Transformer-Modellen waren Googles bidirektionale Encoder-Repräsentationen von Transformern (BERT), die zur Grundlage der Funktionsweise der Google-Suchmaschine wurden und es bis heute sind.

  • Autoregressive Modelle: Diese Art von Transformer-Modell wird speziell trainiert, um das nächste Wort in einer Sequenz vorherzusagen, was einen enormen Fortschritt in der Fähigkeit zur Textgenerierung darstellt. Beispiele für autoregressive LLMs sind GPT, Llama, Claude und das Open-Source-Programm Mistral.

  • Foundation Models: Vorgefertigte und kuratierte Foundation Models können die Einführung eines NLP-Projekts beschleunigen und das Vertrauen in seine Arbeit stärken. Die IBM Granite Foundation Models sind beispielsweise branchenübergreifend anwendbar. Sie unterstützen NLP-Aufgaben wie die Generierung von Inhalten und die Gewinnung von Erkenntnissen. Darüber hinaus erleichtern sie Retrieval Augmented Generation, ein Framework zur Verbesserung der Antwortqualität durch die Verknüpfung des Modells mit externen Wissensquellen. Die Modelle führen auch Named Entity Recognition durch, bei der Schlüsselinformationen in einem Text identifiziert und extrahiert werden.

Weitere Informationen zu den Nuancen zwischen verschiedenen Technologien und ihren Lernansätzen finden Sie unter „KI vs. maschinelles Lernen vs. Deep Learning vs. neuronale Netze: Was ist der Unterschied?

NLP-Aufgaben

Verschiedene NLP-Aufgaben helfen typischerweise dabei, menschliche Text- und Sprachdaten so zu verarbeiten, dass der Computer das, was er aufnimmt, verstehen kann. Einige dieser Aufgaben umfassen:


Linguistische Aufgaben

  • Ko-Referenzauflösung ist die Aufgabe, zu ermitteln, ob und wann sich zwei Wörter auf dieselbe Entität beziehen. Das häufigste Beispiel ist die Bestimmung der Person oder des Objekts, auf das sich ein bestimmtes Pronomen bezieht (z. B. „sie“ = „Maria“). Aber es kann auch darum gehen, eine Metapher oder eine Redewendung im Text zu identifizieren (z. B. wenn mit dem Begriff „Bär“ kein Tier, sondern eine große und behaarte Person gemeint ist).

  • Named Entity Recognition (NER) identifiziert Wörter oder Phrasen als nützliche Entitäten. NER identifiziert „London“ als Ort oder „Maria“ als den Namen einer Person.

  • Part-of-Speech-Tagging, auch grammatikalisches Tagging genannt, ist der Prozess, bei dem die Wortart eines Wortes oder Textstücks basierend auf seiner Verwendung und seinem Kontext bestimmt wird. Beispielsweise wird „lachen“ in „Wir lachen über den Witz“ vom Part-of-Speech-Tagging als Verb und in „Marias Lachen ist so schön“ als Substantiv identifiziert.

  • Die Begriffsklärung der Wortbedeutung ist die Auswahl einer Bedeutung für ein Wort mit mehreren möglichen Bedeutungen. Dabei wird ein Prozess der semantischen Analyse verwendet, um das Wort im Kontext zu untersuchen. Die Begriffsklärung der Wortbedeutung hilft zum Beispiel dabei, die Bedeutung des Verbs „schlagen“ im Satz „den Takt schlagen“ (vorgeben) vs. „jemanden schlagen“ (jemanden körperlich angreifen) zu unterscheiden. Um herauszufinden, was der englische Satz „I will be merry when I marry Mary“ („Ich werde fröhlich sein, wenn ich Mary heirate“) bedeutet, ist ein ausgeklügeltes NLP-System erforderlich.

 

Benutzerunterstützende Aufgaben

  • Spracherkennung, auch bekannt als Speech-to-Text, ist die Aufgabe, Sprachdaten zuverlässig in Textdaten umzuwandeln. Spracherkennung ist für jede Anwendung erforderlich, die Sprachbefehlen folgt oder gesprochene Fragen beantwortet. Was die Spracherkennung zu einer besonderen Herausforderung macht, ist die Art und Weise, wie Menschen sprechen – schnell, Wörter aneinander reihend, mit unterschiedlicher Betonung und Intonation.

  • Die Generierung natürlicher Sprache (Natural Language Generation, NLG) kann als das Gegenteil von Spracherkennung oder Speech to Text beschrieben werden: Bei NLG geht es darum, strukturierte Informationen in eine umgangssprachliche menschliche Sprache zu übertragen. Ohne NLG hätten Computer kaum eine Chance, den Turing-Test zu bestehen, bei dem ein Computer versucht, eine menschliche Konversation nachzuahmen. Dialogorientierte Agenten wie Amazons Alexa und Apples Siri machen dies bereits gut und unterstützen Kunden in Echtzeit.

  • Natural Language Understanding (NLU) ist eine Untergruppe von NLP, die sich auf die Analyse der Bedeutung von Sätzen konzentriert. NLU ermöglicht es Software, ähnliche Bedeutungen in verschiedenen Sätzen zu finden oder Wörter mit unterschiedlichen Bedeutungen zu verarbeiten.

  • Die Stimmungsanalyse versucht, subjektive Eigenschaften– Berechtigungen, Emotionen, Sarkasmus, Verwirrung oder Verdacht – aus Texten zu extrahieren. Dies wird häufig verwendet, um die Kommunikation an das System oder die Person weiterzuleiten, die am wahrscheinlichsten die nächste Antwort geben wird.

Im Blogbeitrag „NLP vs. NLU vs. NLG: die Unterschiede zwischen drei Konzepten der Verarbeitung natürlicher Sprache“ erfahren Sie mehr über den Zusammenhang zwischen diesen Konzepten.

Jetzt verfügbar: IBM® watsonx.ai

Das völlig neue Enterprise Studio verbindet traditionelles maschinelles Lernen mit neuen, auf Foundation Models basierenden generativen KI-Funktionen.

NLP-Anwendungsfälle in verschiedenen Unternehmen

Unternehmen können NLP einsetzen, um Kommunikation zu verarbeiten, die E-Mail, SMS, Audio, Video, Newsfeeds und soziale Medien umfasst. NLP ist die treibende Kraft hinter KI in vielen modernen Anwendungen in der realen Welt. Hier sind einige Beispiele:

  • Kundenbetreuung: Unternehmen können Chatbots oder virtuelle Assistenten einsetzen, um schnell auf benutzerdefinierte Fragen und Anfragen zu reagieren. Wenn Fragen für den Chatbot oder virtuellen Assistenten zu schwierig werden, leitet das NLP-System den Kunden an einen menschlichen Kundenservicemitarbeiter weiter.

    Virtuelle Agenten wie IBM watsonx Assistant, Siri von Apple und Alexa von Amazon verwenden Spracherkennung, um Muster in Sprachbefehlen zu erkennen und natürliche Sprache zu generieren, um mit entsprechenden Aktionen oder hilfreichen Kommentaren zu antworten. Chatbots reagieren auf getippte Texteingaben. Die besten Chatbots lernen auch, kontextbezogene Hinweise auf menschliche Anfragen zu erkennen und nutzen diese, um mit der Zeit noch bessere Antworten oder Optionen anzubieten.

    Die nächste Verbesserung für diese Anwendungen ist die Beantwortung von Fragen, d. h. die Fähigkeit, auf unsere Fragen – ob erwartet oder nicht – mit relevanten und hilfreichen Antworten in eigenen Worten zu antworten. Diese Automatisierungen tragen dazu bei, die Kosten zu senken, den Mitarbeitern Zeit für redundante Anfragen zu ersparen und die Kundenzufriedenheit zu verbessern.

    Nicht alle Chatbots werden von KI gesteuert, aber hochmoderne Chatbots verwenden zunehmend Techniken der dialogorientierten KI, einschließlich NLP, um die Fragen der Benutzer zu verstehen und die Antworten darauf zu automatisieren.

  • FAQ: Nicht jeder möchte lesen, um eine Antwort zu finden. Zum Glück kann NLP die FAQs verbessern: Wenn der Benutzer eine Frage stellt, sucht die NLP-Funktion unter den verfügbaren Antworten nach der besten Übereinstimmung und zeigt sie auf dem Bildschirm des Benutzers. Viele Kundenfragen erfolgen nach dem Muster „Wer/Was/Wann/Wo“, sodass diese Funktion den Mitarbeitern die wiederholte Beantwortung derselben Routinefragen ersparen kann.

  • Grammatikkorrektur: Die Regeln der Grammatik können in Textverarbeitungs- oder anderen Programmen angewendet werden, in denen die NLP-Funktion darauf trainiert wird, falsche Grammatik zu erkennen und korrigierte Formulierungen vorzuschlagen.

  • Maschinelle Übersetzung: Google Translate ist ein Beispiel für eine weit verbreitete NLP-Technologie. Eine wirklich nützliche maschinelle Übersetzung umfasst mehr als das Ersetzen von Wörtern in einer Sprache durch die Wörter einer anderen. Eine effektive Übersetzung muss die Bedeutung und den Ton der Eingabesprache genau erfassen und sie in Text mit derselben Bedeutung und der gewünschten Wirkung in der Ausgabesprache übersetzen.

    Tools für maschinelle Übersetzungen werden immer genauer. Eine Möglichkeit, ein maschinelles Übersetzungstool zu testen, besteht darin, Text in eine Sprache und dann zurück in das Original zu übersetzen. Hier ist ein oft zitiertes klassisches Beispiel: Früher ergab die Übersetzung von „Der Geist willig, aber das Fleisch ist schwach“ aus dem Englischen ins Russische und zurück „Der Wodka ist gut, aber das Fleisch ist faul“. Kürzlich lautete ein treffenderes Ergebnis „Der Geist begehrt es, aber das Fleisch ist schwach.“ Google Translate kann nun das Englische ins Russische und das Russische wieder zurück ins Englische übersetzen und gibt das Original zurück: „Der Geist ist willig, aber das Fleisch ist schwach.“       
  • Schwärzung von personenbezogenen Daten: NLP-Modelle können darauf trainiert werden, persönliche Informationen in Dokumenten, die Personen identifizieren könnten, schnell zu finden. Branchen, die mit großen Mengen sensibler Daten umgehen – beispielsweise Unternehmen aus dem Finanz-, Gesundheits-, Versicherungs- und Rechtswesen – können schnell Versionen erstellen, bei denen die personenbezogenen Daten entfernt wurden.

  • Stimmungsanalyse: Nach einer Schulung in der branchen- oder geschäftsspezifischen Sprache kann ein NLP-Modell eingehenden Text schnell nach Schlüsselwörtern und Phrasen durchsuchen, um die Stimmung eines Kunden in Echtzeit als positiv, neutral oder negativ einzuschätzen. Die Stimmung der eingehenden Kommunikation kann dabei helfen, zu bestimmen, wie mit ihr umgegangen wird. Und die eingehende Kommunikation muss nicht live sein: NLP kann auch zur Analyse von Kundenfeedback oder Call-Center-Aufzeichnungen verwendet werden.

    Eine weitere Option ist eine NLP-API, die nachträgliche Textanalysen möglich macht. NLP kann verwertbare Datenerkenntnisse aus Social-Media-Beiträgen, Antworten oder Bewertungen aufdecken, um Verhaltensweisen und Emotionen als Reaktion auf Produkte, Werbeaktionen und Veranstaltungen zu extrahieren. Informationsunternehmen können die Stimmungsanalyse in Produktdesigns, Werbekampagnen und mehr einsetzen.

  • Spam-Erkennung: Viele Menschen denken bei Spam-Erkennung vielleicht nicht an eine NLP-Lösung, aber die besten Technologien zur Spam-Erkennung nutzen die Textklassifizierungsfähigkeiten von NLP, um E-Mails nach sprachlichen Merkmalen zu durchsuchen, die häufig auf Spam oder Phishing hinweisen. Zu diesen Indikatoren gehören die übermäßige Verwendung von Finanzbegriffen, charakteristische schlechte Grammatik, bedrohliche Sprache, unangemessene Dringlichkeit und falsch geschriebene Firmennamen.

  • Textgenerierung: NLP hilft dabei, das „Generative“ in die generative KI zu integrieren. Mithilfe von NLP sind Computer in der Lage, Texte oder Sprache zu generieren, die so natürlich und realistisch klingen, dass sie mit menschlicher Kommunikation verwechselt werden können. Die generierte Sprache kann zum Erstellen erster Entwürfe von Blogs, Computercode, Briefen, Memos oder Tweets verwendet werden. Bei einem System für Unternehmen könnte die Qualität der generierten Sprache ausreichen, um in Echtzeit für Funktionen zur automatischen Vervollständigung, Chatbots oder virtuelle Assistenten verwendet zu werden.

    Fortschritte im Bereich NLP treiben die Argumentationsprozesse hinter generativen KI-Systemen an und eröffnen weitere Möglichkeiten. Microsoft® Copilot ist ein KI-Assistent, der entwickelt wurde, um die Produktivität und Kreativität der Mitarbeiter bei täglichen Aufgaben zu steigern. Er arbeitet bereits in Tools, die täglich verwendet werden.  

  • Textzusammenfassung: Die Textzusammenfassung nutzt NLP-Techniken, um riesige Mengen digitaler Texte zu verarbeiten und Zusammenfassungen und Synopsen für Indizes, Forschungsdatenbanken oder vielbeschäftigte Leser zu erstellen, die keine Zeit haben, den gesamten Text zu lesen. Die besten Anwendungen zur Textzusammenfassung nutzen semantische Schlussfolgerungen und die Generierung natürlicher Sprache (NLG), um den Zusammenfassungen nützlichen Kontext und Schlussfolgerungen hinzuzufügen.



NLP-Anwendungsfälle nach Branche
  • Finanzen: Bei Finanzgeschäften können Nanosekunden den Unterschied zwischen Erfolg und Misserfolg ausmachen, wenn es um den Zugriff auf Daten oder den Abschluss von Geschäften geht. NLP kann die Auswertung von Informationen aus Jahresabschlüssen, Geschäfts- und Aufsichtsberichten, Pressemitteilungen und sogar sozialen Medien beschleunigen.
  • Gesundheitswesen: Neue medizinische Erkenntnisse und Durchbrüche können schneller erzielt werden, als viele medizinische Fachkräfte mithalten können. NLP- und KI-basierte Tools können dazu beitragen, die Analyse von Krankenakten und medizinischen Forschungsarbeiten zu beschleunigen und so besser informierte medizinische Entscheidungen zu ermöglichen oder bei der Erkennung oder sogar Prävention von Krankheiten zu helfen.
  • Versicherungen: NLP kann Forderungen analysieren, um nach Mustern zu suchen, die Problembereiche identifizieren und Ineffizienzen bei der Bearbeitung von Forderungen aufdecken können, wodurch die Bearbeitung optimiert und der Aufwand der Mitarbeiter verringert werden kann.

  • Rechtliches: Bei fast jedem Rechtsfall ist es erforderlich, Unmengen von Unterlagen, Hintergrundinformationen und rechtlichen Präzedenzfällen zu prüfen. NLP kann dabei helfen, die juristische Recherche zu automatisieren, indem es bei der Organisation von Informationen hilft, die Überprüfung beschleunigt und sicherstellt, dass alle relevanten Details für die Prüfung erfasst werden.
Erste Schritte mit NLP

Python und das Natural Language Toolkit (NLTK)

Die Programmiersprache Python bietet eine Vielzahl von Tools und Bibliotheken für die Durchführung von bestimmten NLP-Aufgaben. Viele davon befinden sich im Natural Language Toolkit (NLTK), einer Open-Source-Sammlung von Bibliotheken, Programmen und Bildungsressourcen zum Erstellen von NLP-Programmen.

Das NLTK enthält Bibliotheken für viele NLP-Aufgaben und -Teilaufgaben wie Satzparsing, Wortsegmentierung, Stemming und Lemmatisierung (Methoden zum Kürzen von Wörtern auf ihre Wurzeln) und Tokenisierung (zum Zerlegen von Phrasen, Sätzen, Absätzen und Passagen in Token, die dem Computer helfen, den Text besser zu verstehen). Außerdem enthält es Bibliotheken für die Implementierung von Funktionen wie semantisches Schlussfolgern (Semantic Reasoning), d. h. die Fähigkeit, logische Schlussfolgerungen auf der Grundlage von aus dem Text extrahierten Fakten zu ziehen.

Mit NLTK können Unternehmen das Ergebnis des Part-of-Speech-Tagging sehen. Das Taggen von Wörtern scheint nicht kompliziert zu sein, aber da Wörter, je nachdem, wo sie verwendet werden, unterschiedliche Bedeutungen haben können, ist der Prozess kompliziert.

Generative KI-Plattformen

Unternehmen können die Leistung von NLP in ihre digitalen Lösungen integrieren, indem sie benutzerfreundliche generative KI-Plattformen wie IBM Watson NLP Library for Embed nutzen, eine containerisierte Bibliothek, die IBM Partnern mehr KI-Fähigkeiten bietet. Entwickler können darauf zugreifen und sie in ihre Anwendungen in der Umgebung ihrer Wahl integrieren, um unternehmenstaugliche Lösungen mit robusten KI-Modellen, umfassender Sprachabdeckung und skalierbarer Container-Orchestrierung zu erstellen.

Zu den weiteren Optionen gehört das KI-Studio von IBM® watsonx.ai, das mehrere Optionen zur Erstellung von Modellkonfigurationen bietet, die eine Reihe von NLP-Aufgaben unterstützen, darunter die Beantwortung von Fragen, die Generierung und Zusammenfassung von Inhalten sowie die Klassifizierung und Extraktion von Text. Integrationen können auch weitere NLP-Funktionen ermöglichen. Mit watsonx und Hugging Face können KI-Entwickler zum Beispiel vortrainierte Modelle verwenden, um eine Reihe von NLP-Aufgaben zu unterstützen.

Weiterführende Lösungen
Watson-Lösungen zur Verarbeitung natürlicher Sprache

Steigern Sie den Geschäftswert der künstlichen Intelligenz mit einem leistungsstarken und flexiblen Portfolio aus Bibliotheken, Diensten und Anwendungen.

Erkunden Sie die Verarbeitung natürlicher Sprache
Watson Natural Language Processing Library for Embed 

Nutzen Sie leistungsstarke KI für natürliche Sprache in kommerzielle Anwendungen mit einer Container-Bibliothek, die IBM Partner mit mehr Flexibilität unterstützt.

Entdecken Sie die Watson Natural Language Processing Library for Embed
Ressourcen Erkunden Sie Granite LLM von IBM

Granite ist die führende Serie der IBM LLM-Foundation-Models, die auf einer reinen Decoder-Transformer-Architektur basieren. Granite-Sprachmodelle werden anhand von vertrauenswürdigen Unternehmensdaten aus den Bereichen Internet, Wissenschaft, Coding, Recht und Finanzen trainiert.

Kostenloses, praxisnahes Lernen für generative KI-Technologien

Lernen Sie die grundlegenden Konzepte für KI und generative KI kennen, einschließlich Prompt Engineering, große Sprachmodelle und die besten Open-Source-Projekte.

Verarbeitung natürlicher Sprache mit Watson

Erfahren Sie in diesem NLP-Erklärvideo mehr über verschiedene NLP-Anwendungsfälle.

Erweitern Sie Ihre Anwendungen mit der integrierbaren KI von IBM

Besuchen Sie die Website von IBM Developer, um Zugang zu Blogs, Artikeln, Newslettern und mehr zu erhalten. Werden Sie IBM Partner und integrieren Sie die integrierbare KI von IBM Watson noch heute in Ihre kommerziellen Lösungen. Verwenden Sie IBM Watson NLP Library for Embed in Ihren Lösungen.

Watson versteht die Sprache Ihres Unternehmens

Erleben Sie, wie Rob Thomas, GM von IBM Data and AI, NLP-Experten und Kunden einlädt, um zu zeigen, wie NLP-Technologien das Geschäft in verschiedenen Branchen optimieren.

Erste Schritte mit Natural Language Understanding

Erfahren Sie mehr über die Natural Language Understanding-API mit Beispielanfragen und Links zu weiteren Ressourcen.

Machen Sie den nächsten Schritt

Trainieren, validieren, optimieren und implementieren Sie generative KI, Foundation Models und maschinelle Lernfunktionen mit IBM watsonx.ai, einem Studio der nächsten Generation für AI Builder in Unternehmen. Erstellen Sie KI-Anwendungen mit einem Bruchteil der Zeit und Daten.

watsonx.ai erkunden Buchen Sie eine Live-Demo