Was sind AI Agents?

Was sind AI Agents?

Ein AI Agent ist ein System, das autonom Aufgaben ausführt, indem es mit verfügbaren Tools Workflows entwirft.

AI Agents können eine Vielzahl von Funktionen umfassen, die über die Verarbeitung natürlicher Sprache hinausgehen, einschließlich der Entscheidungsfindung, Problemlösung, der Interaktion mit externen Umgebungen und der Ausführung von Handlungen.

AI Agents lösen komplexe Aufgaben in Unternehmensanwendungen, darunter Software-Design, IT-Automatisierung, Codegenerierung und dialogorientierten Assistenten. Sie verwenden die fortschrittlichen Techniken der Verarbeitung natürlicher Sprache großer Sprachmodelle (LLMs), um Benutzereingaben zu verstehen und Schritt für Schritt darauf zu reagieren und zu bestimmen, wann externe Tools herangezogen werden müssen.

So funktionieren AI Agents

Das Herzstück von AI Agents sind Large Language Models (LLMs). Aus diesem Grund werden AI Agents oft als LLM-Agenten bezeichnet. Herkömmliche LLMs, wie IBM® Granite-Modelle, erstellen ihre Antworten auf der Grundlage der Daten, die zu ihrem Training verwendet wurden, und sind an Wissens- und Argumentationsbeschränkungen gebunden. Im Gegensatz dazu nutzt die Agententechnologie Tool-Aufrufe im Backend, um aktuelle Informationen zu erhalten, Workflows zu optimieren und eigenständig Teilaufgaben zu erstellen und so komplexe Ziele zu erreichen.

Dabei lernt der autonome Agent, sich im Laufe der Zeit an die Erwartungen der Benutzer anzupassen. Die Fähigkeit des Agenten, vergangene Interaktionen zu speichern und zukünftige Aktionen zu planen, fördert eine personalisierte Erfahrung und umfassende Antworten.1 Dieser Tool-Aufruf kann ohne menschliches Eingreifen erfolgen und erweitert die Möglichkeiten für reale Anwendungen dieser KI-Systeme. Diese drei Phasen oder agentische Komponenten definieren, wie Agenten arbeiten:

Zielinitialisierung und -planung

Obwohl KI-Agenten in ihren Entscheidungsprozessen autonom sind, benötigen sie Ziele und vorgegebene Regeln, die von Menschen definiert werden.2 Es gibt drei Haupteinflussfaktoren auf das Verhalten autonomer Agenten:

  • Das Entwicklerteam, das das agentische KI-System entwirft und trainiert. 
  • Das Team, das den Agenten bereitstellt und dem Benutzer Zugriff darauf gewährt.
  • Der Benutzer, der dem KI-Agenten spezifische Ziele vorgibt und verfügbare Tools zur Verwendung festlegt.

Ausgehend von den Zielen des Benutzers und den verfügbaren Werkzeugen des Agenten führt der KI-Agent dann eine Aufgabenzerlegung durch, um die Leistung zu verbessern.3 Im Wesentlichen erstellt der Agent einen Plan mit spezifischen Aufgaben und Teilaufgaben, um das komplexe Ziel zu erreichen.

Für einfache Aufgaben ist eine Planung nicht notwendig. Stattdessen kann ein Agent seine Antworten iterativ überdenken und verbessern, ohne die nächsten Schritte zu planen.

Argumentation mit verfügbaren Tools

AI Agents stützen ihre Aktionen auf die Informationen, die sie wahrnehmen. Allerdings fehlt ihnen oft das erforderliche Wissen, um alle Teilaufgaben eines komplexen Ziels zu bewältigen. Um diese Lücke zu schließen, greifen sie auf verfügbare Tools wie externe Datensätze, Websuchen, APIs und sogar andere Agenten zurück.

Sobald die fehlenden Informationen gesammelt sind, aktualisiert der Agent seine Wissensdatenbank und greift auf agentisches Denken zurück. Dieser Prozess beinhaltet die kontinuierliche Neubewertung des Aktionsplans und Selbstkorrekturen, was eine fundiertere und anpassungsfähigere Entscheidungsfindung ermöglicht.

Um diesen Prozess zu veranschaulichen, stellen wir uns einen Benutzer vor, der seinen Urlaub plant. Der Benutzer beauftragt einen KI-Agenten mit der Vorhersage, welche Woche im nächsten Jahr voraussichtlich das beste Wetter für seinen Surftrip in Griechenland bieten wird. 

Da das LLM-Modell, das den Kern des Agenten bildet, nicht auf Wetterverhältnisse spezialisiert ist, kann es sich nicht ausschließlich auf sein internes Wissen stützen. Daher sammelt der Agent Informationen aus einer externen Datenbank, die tägliche Wetterberichte für Griechenland aus den letzten Jahren enthält.

Trotz dieser neuen Informationen kann der Agent immer noch nicht die optimalen Wetterbedingungen zum Surfen bestimmen, daher wird die nächste Teilaufgabe erstellt. Für diese Teilaufgabe kommuniziert der Agent mit einem externen Agenten, der auf Surfen spezialisiert ist. Nehmen wir an, dass der Agent auf diese Weise erfährt, dass hohe Gezeiten und sonniges Wetter mit wenig bis gar keinem Regen die besten Surfbedingungen bieten.

Der Agent kann nun die Informationen, die er von seinen Tools gelernt hat, kombinieren, um Muster zu erkennen. Er kann vorhersagen, in welcher Woche des nächsten Jahres in Griechenland voraussichtlich hohe Gezeiten, sonniges Wetter und eine geringe Regenwahrscheinlichkeit herrschen werden. Diese Ergebnisse werden dann dem Benutzer präsentiert. Dank dieses Informationsaustauschs zwischen den Tools sind KI-Agenten allgemeiner einsetzbar als herkömmliche KI-Modelle.3

Lernen und Reflexion

AI Agents verwenden Feedback-Mechanismen, wie andere KI-Agenten und Human-in-the-Loop (HITL), um die Genauigkeit ihrer Antworten zu verbessern. Kehren wir zu unserem vorherigen Surfbeispiel zurück, um diesen Prozess zu veranschaulichen. Nachdem der Agent seine Antwort an den Benutzer formuliert hat, speichert er die gelernten Informationen zusammen mit dem Feedback des Benutzers, um seine Leistung zu verbessern und sich an die Präferenzen des Benutzers für zukünftige Ziele anzupassen.

Wenn andere Agenten eingesetzt wurden, um das Ziel zu erreichen, kann auch deren Feedback verwendet werden. Feedback mehrerer Agenten kann besonders nützlich sein, um die Zeit zu minimieren, die menschliche Benutzer damit verbringen, Anweisungen zu geben. Benutzer können jedoch auch während der Aktionen und internen Überlegungen des Agenten Feedback geben, um die Ergebnisse besser auf das angestrebte Ziel abzustimmen.2

Feedback-Mechanismen verbessern das Denkvermögen und die Genauigkeit des KI-Agenten, was gemeinhin als iterative Verfeinerung bezeichnet wird.3 Um die Wiederholung derselben Fehler zu vermeiden, können KI-Agenten auch Daten über Lösungen für frühere Hindernisse in einer Wissensdatenbank speichern.

Die neuesten KI-Trends, präsentiert von Experten

Erhalten Sie kuratierte Einblicke in die wichtigsten – und faszinierendsten – KI-Neuheiten. Abonnieren Sie unseren wöchentlichen Think-Newsletter. Weitere Informationen in der IBM Datenschutzerklärung.

Vielen Dank! Sie haben ein Abonnement abgeschlossen.

Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.

Agentenbasierte versus nicht-agentenbasierte intelligente Chatbots

KI-Chatbots verwenden dialogorientierte KI-Techniken wie Natural Language Processing (NLP), um Benutzerfragen zu verstehen und automatisierte Antworten zu geben. Diese Chatbots sind eine Modalität, während die Agenten-Technologie ein technologisches Framework ist.

Nicht-agentenbasierte KI-Chatbots sind Chatbots ohne verfügbare Tools, Gedächtnis oder Denkvermögen. Sie können nur kurzfristige Ziele erreichen und nicht im Voraus planen. Wie wir sie kennen, benötigen nicht-agentenbasierte Chatbots eine kontinuierliche Benutzereingabe, um zu antworten.

Sie können Antworten auf allgemeine Aufforderungen geben, die höchstwahrscheinlich mit den Erwartungen des Benutzers übereinstimmen, schneiden jedoch bei Fragen, die für den Benutzer und seine Daten spezifisch sind, schlecht ab. Da diese Chatbots kein Gedächtnis haben, können sie nicht aus ihren Fehlern lernen, wenn ihre Antworten unbefriedigend sind.

Im Gegensatz dazu lernen agentenbasierte KI-Chatbots im Laufe der Zeit, sich an die Erwartungen der Benutzer anzupassen und bieten eine personalisierte Erfahrung sowie umfassende Antworten. Sie können komplexe Aufgaben erledigen, indem sie Teilaufgaben ohne menschliches Eingreifen erstellen und verschiedene Pläne in Betracht ziehen. Diese Pläne können bei Bedarf auch selbst korrigiert und aktualisiert werden. Agentische KI-Chatbots bewerten im Gegensatz zu nicht-agentischen Chatbots ihre Tools und nutzen ihre verfügbaren Ressourcen, um Informationslücken zu schließen.

AI Academy

KI-Experte werden

Erlangen Sie das nötige Wissen, um KI-Investitionen zu priorisieren, die das Unternehmenswachstum vorantreiben. Starten Sie noch heute mit unserer kostenlosen AI Academy und gestalten Sie die Zukunft der KI in Ihrem Unternehmen.

Denkparadigmen

Es gibt keine Standardarchitektur für die Erstellung von KI-Agenten. Mehrere Paradigmen existieren zur Lösung mehrstufiger Probleme.

ReAct (Reasoning and Action)

Mit dem ReAct-Paradigma können wir Agenten anweisen, nach jeder durchgeführten Aktion und bei jeder Tool-Reaktion „nachzudenken“ und zu planen, um zu entscheiden, welches Tool als nächstes verwendet werden soll. Diese Think-Act-Observe-Schleifen werden verwendet, um Probleme Schritt für Schritt zu lösen und Antworten durch einen iterativen Entscheidungsprozess zu verbessern.

Durch die Struktur des Prompts können die Agenten angewiesen werden, langsam zu denken und jeden „Gedanken“ anzuzeigen.4 Das verbale Denken des Agenten vermittelt Erkenntnisse darüber, wie Antworten formuliert werden. In diesem Framework aktualisieren die Agenten ihren Kontext kontinuierlich mit neuen Überlegungen. Dieser Ansatz kann als eine Form des Gedankenketten-Promptings interpretiert werden.

ReWOO (Reasoning WithOut Observation)

Die ReWOO-Methode eliminiert im Gegensatz zu ReAct die Abhängigkeit von Tool-Outputs für die Maßnahmenplanung. Stattdessen planen die Agenten im Voraus. Die redundante Verwendung von Tools wird vermieden, indem bei der ersten Aufforderung durch den Benutzer vorweggenommen wird, welche Tools verwendet werden sollen. Dieser Ansatz ist aus einer auf den Menschen ausgerichteten Perspektive erwünscht, da der Benutzer den Plan bestätigen kann, bevor er ausgeführt wird.

Der ReWOO-Workflow besteht aus drei Modulen. Im Planungsmodul antizipiert der Agent seine nächsten Schritte anhand der Aufforderung eines Benutzers. Der nächste Schritt besteht darin, die durch den Aufruf dieser Tools erzeugten Outputs zu sammeln. Schließlich koppelt der Agent den ursprünglichen Plan mit den Outputs des Tools, um eine Antwort zu formulieren. Diese vorausschauende Planung kann die Token-Nutzung und die Rechenkomplexität sowie die Auswirkungen eines zwischenzeitlichen Ausfalls des Tools erheblich reduzieren.5

Arten von AI Agents

AI Agents können so entwickelt werden, dass sie über unterschiedliche Fähigkeitsstufen verfügen. Ein einfacher Agent kann für einfache Ziele bevorzugt werden, um unnötige Rechenkomplexität zu begrenzen. Es gibt 5 Haupttypen von Agenten, in der Reihenfolge vom einfachsten bis zum fortgeschrittensten:

1. Einfache Reflexagenten

Einfache Reflexagenten sind die einfachste Form von Agenten, die ihre Handlungen auf Wahrnehmung gründen. Diese Agenten haben kein Gedächtnis und interagieren nicht mit anderen Agenten, wenn Informationen fehlen. Sie funktionieren nach einer Reihe von sogenannten Reflexen oder Regeln. Dieses Verhalten bedeutet, dass der Agent darauf vorprogrammiert ist, Aktionen auszuführen, die bestimmten Bedingungen entsprechen.

Trifft der Agent auf eine Situation, für die er nicht vorbereitet ist, kann er nicht angemessen reagieren. Die Agenten sind in Umgebungen effektiv, die vollständig beobachtbar sind und Zugang zu allen notwendigen Informationen gewähren.6

Beispiel: Wenn es 20 Uhr ist, ist die Heizung aktiviert – zum Beispiel ein Thermostat, der die Heizung jede Nacht zu einer bestimmten Zeit einschaltet.

Illustration eines einfachen Reaktionsagentendiagramms Diagramm eines einfachen Reflexagenten

2. Modellbasierte Reflexagenten

Modellbasierte Reflexagenten nutzen sowohl ihre aktuelle Wahrnehmung als auch ihr Gedächtnis, um ein internes Modell der Welt aufrechtzuerhalten. Wenn der Agent neue Informationen erhält, wird das Modell aktualisiert. Die Handlungen des Agenten hängen von seinem Modell, seinen Reflexen, früheren Wahrnehmungen und seinem aktuellen Zustand ab.

Diese Agenten können im Gegensatz zu einfachen Reflexagenten Informationen im Gedächtnis ablegen und in teilweise beobachtbaren und sich verändernden Umgebungen operieren. Sie sind jedoch immer noch durch ihre Regeln eingeschränkt.6

Beispiel: Ein Roboterstaubsauger. Während er einen schmutzigen Raum reinigt, erkennt er Hindernisse wie Möbel und passt sich diesen an. Der Roboter speichert auch ein Modell der Bereiche, die er bereits gereinigt hat, um nicht in einer Schleife wiederholter Reinigung zu geraten.

Illustration des modellbasierten Reaktionsagentendiagramms Diagramm eines modellbasierten Reflexagenten

3. Zielbasierte Agenten

Zielbasierte Agenten haben ein internes Modell der Welt und verfügen zudem über ein Ziel oder eine Reihe von Zielen. Diese Agenten suchen nach Aktionssequenzen, die ihr Ziel erreichen, und planen diese Aktionen, bevor sie sie ausführen. Diese Suche und Planung verbessern ihre Effektivität im Vergleich zu einfachen und modellbasierten Reflexagenten.7

Beispiel: Ein Navigationssystem, das Ihnen den schnellsten Weg zum Ziel empfiehlt. Das Modell berücksichtigt verschiedene Routen, die zu Ihrem Ziel führen. In diesem Beispiel gibt die Bedingungs-Aktions-Regel des Agenten an, dass er die schnellere Route empfiehlt, sobald eine schnellere gefunden wird.

Illustration des zielbasierten Agentendiagramms Diagramm eines zielbasierten Agenten

4. Nutzenbasierte Agenten

Nutzenbasierte Agenten wählen die Abfolge von Aktionen aus, die sowohl das Ziel erreichen als auch den Nutzen oder die Belohnung maximieren. Der Nutzen wird durch eine Nutzwertfunktion berechnet. Diese Funktion weist jedem Szenario einen Nutzwert zu, der als Metrik die Nützlichkeit einer Handlung oder, vereinfacht gesagt, wie „zufrieden“ der Agent mit dieser Handlung ist, misst.

Zu den Kriterien können Faktoren wie der Fortschritt in Richtung des Ziels, der Zeitaufwand oder die Komplexität der Berechnungen gehören. Der Agent wählt dann die Aktionen aus, die den erwarteten Nutzen maximieren. Solche Agenten sind nützlich, wenn mehrere Szenarien ein gewünschtes Ziel erreichen und das optimale ausgewählt werden muss.7

Beispiel: Ein Navigationssystem, das die Route zu Ihrem Ziel optimiert, indem es den Kraftstoffverbrauch minimiert und die Zeit im Verkehr sowie die Kosten für Mautgebühren reduziert. Dieser Agent misst den Nutzen anhand dieser Kriterien, um die günstigste Route auszuwählen.

Illustration des dienstprogrammbasierten Agentendiagramms Diagramm eines nutzenbasierten Agenten

5. Lernende Agenten

Lernende Agenten verfügen über die gleichen Funktionen wie die anderen Agententypen, zeichnen sich jedoch durch ihre Lernfähigkeit aus. Neue Erfahrungen werden autonom zu ihrer anfänglichen Wissensbasis hinzugefügt. Dieses Lernen verbessert die Fähigkeit des Agenten, in unbekannten Umgebungen zu agieren. Lernende Agenten können sowohl nutzen- als auch zielbasiert in ihrem Denken sein und bestehen aus vier Hauptelementen:7

  • Lernen: Dieser Prozess verbessert das Wissen des Agenten, indem er durch seine Vorgaben und Sensoren aus der Umgebung lernt.
  • Kritiker: Diese Komponente gibt dem Agenten Feedback, ob die Qualität seiner Antworten dem Leistungsstandard entspricht.
  • Leistung: Dieses Element ist für die Auswahl von Aktionen basierend auf dem Lernen verantwortlich.
  • Problemgenerator: Dieses Modul erstellt verschiedene Vorschläge für durchzuführende Aktionen.

Beispiel: Personalisierte Produktempfehlungen auf E-Commerce-Websites. Diese Agenten verfolgen die Aktivitäten und Präferenzen der Benutzer in ihrem Gedächtnis. Diese Informationen werden verwendet, um dem Benutzer bestimmte Produkte und Dienstleistungen zu empfehlen. Der Zyklus wiederholt sich jedes Mal, wenn neue Empfehlungen gemacht werden. Die Aktivität des Benutzers wird zu Lernzwecken fortlaufend gespeichert, wodurch sich die Genauigkeit des Agenten im Laufe der Zeit verbessert.

Diagramm eines lernenden Agenten Diagramm eines lernenden Agenten

Anwendungsfälle von AI Agents

Customer Experience

KI-Agenten können in Websites und Apps integriert werden, um die Customer Experience zu verbessern, indem sie als virtuelle Assistenten dienen, psychologische Unterstützung bieten, Vorstellungsgespräche simulieren und andere damit verbundene Aufgaben übernehmen.Es gibt viele No-Code-Vorlagen für die Implementierung durch die Benutzer, was die Erstellung dieser KI-Agenten noch einfacher macht.

Gesundheitswesen

KI-Agenten können für verschiedene reale Anwendungen im Gesundheitswesen eingesetzt werden. Multiagentensysteme sind nützlich zur Problemlösung in solchen Umgebungen. Von der Behandlungsplanung für Patienten in der Notaufnahme bis hin zur Verwaltung von Arzneimittelprozessen sparen diese Systeme Zeit und Mühe von medizinischen Fachkräften für dringendere Aufgaben.9

Notfallmaßnahmen

Im Falle einer Naturkatastrophe können KI-Agenten mithilfe von Deep-Learning-Algorithmen die Informationen von Benutzern auf Social-Media-Websites abrufen, die gerettet werden müssen. Die Standorte dieser Benutzer können auf Karten verzeichnet werden, um Rettungsdienste dabei zu unterstützen, mehr Menschen in kürzerer Zeit zu retten. Daher können KI-Agenten für das menschliche Leben sowohl bei alltäglichen, sich wiederholenden Aufgaben als auch in lebensrettenden Situationen von großem Nutzen sein.10

Finanzen und Lieferkette

Agenten können so konzipiert werden, dass sie Finanzdaten in Echtzeit analysieren, zukünftige Markttrends vorhersagen und das Lieferkettenmanagement optimieren. Die Anpassbarkeit autonomer KI-Agenten ermöglicht uns personalisierte Ausgaben für unsere einzigartigen Daten. Bei der Arbeit mit Finanzdaten ist es wichtig, Sicherheitsmaßnahmen für den Datenschutz durchzusetzen.

Vorteile von AI Agents

Aufgabenautomatisierung

Mit den kontinuierlichen Fortschritten in den Bereichen generative KI und Machine Learning wächst das Interesse an der Optimierung von Workflows durch KI, auch bekannt als intelligente Automatisierung. KI-Agenten sind KI-Tools, die komplexe Aufgaben automatisieren können, die ansonsten menschliche Ressourcen erfordern würden. Diese Veränderung bedeutet, dass Ziele kostengünstig, schnell und in großem Maßstab erreicht werden können. Diese Fortschritte bedeuten wiederum, dass menschliche Mitarbeiter dem KI-Assistenten keine Anweisungen mehr bei der Erstellung und Ausführung seiner Aufgaben geben müssen.

Höhere Leistung

Multiagenten-Frameworks übertreffen in der Regel einzelne Agenten.11 Das liegt daran, dass mit einer größeren Anzahl an Handlungsplänen die Fähigkeit der Agenten, zu lernen und ihre Vorgehensweise zu „überdenken“, verbessert wird.

Ein AI Agent der Wissen und Feedback von anderen AI Agents einbezieht, die auf verwandte Bereiche spezialisiert sind, kann für die Informationssynthese nützlich sein. Diese Zusammenarbeit im Backend von AI Agents und die Fähigkeit, Informationslücken zu schließen, sind einzigartig für agentenbasierte Frameworks und machen sie zu einem leistungsstarken Werkzeug und einem bedeutenden Fortschritt in der künstlichen Intelligenz.

Qualität der Antworten

AI Agents liefern Antworten, die umfassender, präziser und besser auf den Benutzer zugeschnitten sind als herkömmliche KI-Modelle. Diese Anpassungsfähigkeit ist für uns als Nutzer wichtig, da qualitativ hochwertigere Antworten in der Regel zu einer besseren Customer Experience führen. Wie bereits beschrieben, wird diese Funktion durch den Austausch von Informationen mit anderen Agenten, die Nutzung externer Tools und die Aktualisierung ihres Gedächtnisses ermöglicht. Diese Verhaltensweisen entwickeln sich von selbst und sind nicht vorprogrammiert.12

Risiken und Einschränkungen

Abhängigkeiten von mehreren Agenten

Komplexe Aufgaben erfordern oft das Wissen mehrerer KI Agents. Bei der Orchestrierung dieser Multiagenten-Frameworks besteht das Risiko von Fehlfunktionen. Systeme mit mehreren Agenten, die auf denselben Foundation Models aufgebaut sind, können gemeinsame Schwachstellen aufweisen. Solche Schwachstellen können zu einem systemweiten Ausfall aller beteiligten Agenten führen oder die Anfälligkeit für schädliche Angriffe erhöhen.13 Dies unterstreicht die Bedeutung der Data Governance für die Erstellung von Foundation Models und gründlichen Trainings- und Testprozessen.

Unendliche Feedbackschleifen

Der Komfort des automatisierten Denkens für menschliche Nutzer, die durch KI Agents ermöglicht wird, birgt jedoch auch Risiken. Agenten, die keinen umfassenden Plan erstellen oder ihre Ergebnisse reflektieren können, können wiederholt dieselben Tools aufrufen und in unendlichen Feedback-Schleifen enden. Um diese Redundanzen zu vermeiden, kann ein gewisses Maß an Echtzeit-Überwachung durch Menschen hilfreich sein.13

Rechnerische Komplexität

Die Entwicklung von KI Agents von Grund auf ist sowohl zeitaufwändig als auch rechenintensiv. Die Ressourcen, die zum Training eines leistungsstarken Agenten erforderlich sind, können erheblich sein. Außerdem können die Agenten je nach Komplexität der Aufgabe mehrere Tage für die Erledigung von Aufgaben benötigen.12

Datenschutz

Bei unsachgemäßer Handhabung kann die Integration von KI Agents in Geschäftsprozesse und Kundenmanagementsysteme zu ernsthaften Sicherheitsproblemen führen. Stellen Sie sich beispielsweise vor, KI-Agenten leiten den Softwareentwicklungsprozess, bringen Co-Piloten im Bereich der Programmierung auf die nächste Stufe oder legen Preise für Kunden fest – ohne jegliche menschliche Aufsicht oder Kontrollmechanismen. Die Ergebnisse solcher Szenarien könnten aufgrund des experimentellen und oft unvorhersehbaren Verhaltens von agentischer KI nachteilig sein.

Daher ist es für KI-Anbieter wie IBM, Microsoft und OpenAI wichtig, proaktiv zu bleiben. Sie müssen umfangreiche Sicherheitsprotokolle implementieren, um zu gewährleisten, dass sensible Mitarbeiter- und Kundendaten sicher gespeichert werden. Verantwortungsbewusste Einsatzpraktiken sind entscheidend, um Risiken zu minimieren und das Vertrauen in diese sich schnell entwickelnden Technologien aufrechtzuerhalten.

Best Practices

Aktivitätsprotokolle

Um das Problem der Abhängigkeiten zwischen mehreren Agenten zu lösen, können die Entwickler den Benutzern Zugang zu Protokollen der Agenten-Aktionen gewähren.14 Die Maßnahmen können die Verwendung externer Tools umfassen und die zur Erreichung des Ziels eingesetzten externen Agenten beschreiben. Diese Transparenz gewährt den Benutzern Einblick in den iterativen Entscheidungsprozess, bietet die Möglichkeit, Fehler zu entdecken und fördert Vertrauen.

Unterbrechung

Es wird empfohlen, zu verhindern, dass autonome KI Agents über übermäßig lange Zeiträume laufen. Dies gilt insbesondere bei unbeabsichtigten unendlichen Feedbackschleifen, Änderungen beim Zugriff auf bestimmte Tools oder Fehlfunktionen aufgrund von Designfehlern. Eine Möglichkeit, dieses Ziel zu erreichen, ist die Implementierung von Unterbrechbarkeit.

Die Aufrechterhaltung der Kontrolle über diese Entscheidung erfordert, dass menschliche Benutzer die Möglichkeit haben, eine Abfolge von Aktionen oder den gesamten Vorgang kontrolliert zu unterbrechen. Die Entscheidung, ob und wann ein KI-Agent unterbrochen werden soll, erfordert sorgfältiges Vorgehen, da Abbrüche manchmal mehr Schaden als Nutzen anrichten können. Es könnte beispielsweise sicherer sein, einen fehlerhaften Agenten in einem lebensbedrohlichen Notfall weiterlaufen zu lassen, anstatt ihn vollständig abzuschalten.5

Eindeutige Agenten-Identifikatoren

Um das Risiko zu mindern, dass Agentensysteme für böswillige Zwecke verwendet werden, können eindeutige Identifikatoren implementiert werden. Wenn diese Identifikatoren für den Zugriff von Agenten auf externe Systeme erforderlich wären, wäre es einfacher, die Herkunft der Entwickler, Bereitsteller und Benutzer des Agenten zurückzuverfolgen.

Dieser Ansatz fügt eine wesentliche Ebene der Verantwortlichkeit hinzu. Rückverfolgbarkeit hilft dabei, Verantwortliche zu identifizieren, wenn ein Agent böswillige Nutzung oder unbeabsichtigten Schaden verursacht. Letztendlich würde diese Art von Sicherheitsvorkehrung ein sichereres Betriebsumfeld für KI-Agenten schaffen.

Menschliche Überwachung

Um den Lernprozess von AI Agents zu unterstützen, insbesondere in den frühen Phasen in einer neuen Umgebung, kann es hilfreich sein, ein gewisses Maß an menschlicher Aufsicht zu gewährleisten. Auf Grundlage dieser Vorgaben kann der KI-Agent seine Leistung mit dem erwarteten Standard vergleichen und Anpassungen vornehmen. Diese Form des Feedbacks verbessert die Anpassungsfähigkeit des Agenten an die Präferenzen des Benutzers.5

Abgesehen von dieser Sicherheitsmaßnahme empfiehlt es sich, die Zustimmung eines Menschen einzuholen, bevor ein KI-Agent äußerst schwerwiegende Maßnahmen ergreift. Beispielsweise sollten Aktionen wie das Versenden von Massen-E-Mails oder der Handel mit Finanzprodukten eine menschliche Genehmigung erfordern.7 Für solche Bereiche mit hohem Risiko wird ein gewisses Maß an menschlicher Überwachung empfohlen.

Weiterführende Lösungen
KI-Agenten für Unternehmen

Entwickeln, implementieren und verwalten Sie leistungsstarke KI-Assistenten und -Agenten, die Workflows und Prozesse mit generativer KI automatisieren.

    Entdecken Sie watsonx Orchestrate
    IBM KI-Agenten-Lösungen

    Gestalten Sie die Zukunft Ihres Unternehmens mit KI-Lösungen, denen Sie vertrauen können.

    KI-Agenten-Lösungen erkunden
    IBM Consulting KI-Dienstleistungen

    Die KI-Services von IBM Consulting unterstützen Sie dabei, die Art und Weise, wie Unternehmen mit KI arbeiten, neu zu denken.

    Erkunden Sie die Services im Bereich der künstlichen Intelligenz
    Machen Sie den nächsten Schritt

    Ganz gleich, ob Sie vorgefertigte Apps und Skills anpassen oder mithilfe eines KI-Studios eigene Agentenservices erstellen und bereitstellen möchten, die IBM watsonx-Plattform bietet Ihnen alles, was Sie brauchen.

    Entdecken Sie watsonx Orchestrate watsonx.ai erkunden
    Fußnoten

    1 Andrew Zhao, Daniel Huang, Quentin Xu, Matthieu Lin, Yong-Jin Liu und Gao Huang, „Expel: LLM agents are experiential learners“, Proceedings of the AAAI conference on artificial intelligence, Band 38, Nr. 17, S. 19632–19642, 2024, https://ojs.aaai.org/index.php/AAAI/article/view/29936\
    2 Yonadov Shavit, Sandhini Agarwal, Miles Brundage, Steven Adler, Cullen O’Keefe, Rosie Campbell, Teddy Lee, Pamela Mishkin, Tyna Eloundou, Alan Hickey, Katarina Slama, Lama Ahmad, Paul McMillan, Alex Beutel, Alexandre Passos und David G. Robinson, „Practices for governing agentic AI Systems“, OpenAI, 2023, https://arxiv.org/pdf/2401.13138v3
    3 Tula Masterman, Sandi Besen, Mason Sawtell und Alex Chao, „The landscape of emerging AI agent architectures for reasoning, planning and tool calling: A Survey“, arXiv preprint, 2024, https://arxiv.org/abs/2404.11584
    4 Gautier Dagan, Frank Keller und Alex Lascarides, „Dynamic planning with an LLM“, arXiv preprint, 2023 https://arxiv.org/abs/2308.06391
    5 Binfeng Xu, Zhiyuan Peng, Bowen Lei, Subhabrata Mukherjee, Yuchen Liu und Dongkuan Xu, „ReWOO: Decoupling reasoning from observations for efficient augmented language models“, arXiv preprint, 2023 https://arxiv.org/abs/2305.18323
    6 Sebastian Schmid, Daniel Schraudner und Andreas Harth, „Performance comparison of simple reflex agents using stigmergy with model-based agents in self-organizing transportation.“ IEEE International conference on autonomic computing and self-organizing systems companion, S. 93–98, 2021, https://ieeexplore.ieee.org/document/9599196
    7 Veselka Sasheva Petrova-Dimitrova, „Classifications of intelligence agents and their applications“, Fundamental sciences and applications, Band 28, Nr. 1, 2022.
    8 Lei Wang, Chen Ma, Xueyang Feng, Zeyu Zhang, Hao Yang, Jingsen Zhang, Zhiyuan Chen, Jiakai Tang, Xu Chen, Yankai Lin, Wayne Xin Zhao, Zhewei Wei und Jirong Wen, „A survey on large language model based autonomous agents“, Frontiers of computer science, Band 18, Nr. 6, 2024, https://link.springer.com/article/10.1007/s11704-024-40231-1
    9 Jaya R. Haleema, Haleema, N. C. S. N. Narayana, „Enhancing a traditional health care system of an organization for better service with agent technology by ensuring confidentiality of patients’ medical information“, Cybernetics and information technologies, Band 12, Nr. 3, S.140–156, 2013, https://sciendo.com/article/10.2478/cait-2013-0031
    10 Jingwei Huang, Wael Khallouli, Ghaith Rabadi und Mamadou Seck, „Intelligent agent for hurricane emergency identification and text information extraction from streaming social media big data“, International journal of critical infrastructures, Band 19, Nr. 2, S. 124–139, 2023, https://arxiv.org/abs/2106.07114
    11 Junyou Li, Qin Zhang, Yangbin Yu, Qiang Fu und Deheng Ye. „More agents is all you need.“ arXiv Preprint, 2024, https://arxiv.org/abs/2402.05120
    12 Joon Sung Park, Joseph O'Brien, Carrie Jun Cai, Meredith Ringel Morris, Percy Liang und Michael S. Bernstein, „Generative agents: Interactive simulacra of human behavior“, Proceedings of the 36th annual ACM symposium on user interface software and technology, S. 1–22, 2023, https://dl.acm.org/doi/10.1145/3586183.3606763
    13 Alan Chan, Carson Ezell, Max Kaufmann, Kevin Wei, Lewis Hammond, Herbie Bradley, Emma Bluemke, Nitarshan Rajkumar, David Krueger, Noam Kolt, Lennart Heim und Markus Anderljung, „Visibility into AI agents“, The 2024 ACM Conference on fairness, accountability and transparency, S. 958–973, 2024, https://arxiv.org/abs/2401.13138
    14 Devjeet Roy, Xuchao Zhang, Rashi Bhave, Chetan Bansal, Pedro Las-Casas, Rodrigo Fonseca und Saravan Rajmohan, „Exploring LLM-based agents for root cause analysis“, arXiv preprint, 2024, https://arxiv.org/abs/2403.04123