Veröffentlicht: 18. Januar 2024
Verfasser: Jim Holdsworth
Die Modelldrift bezieht sich auf die Verschlechterung der Modellleistung aufgrund von Änderungen der Daten oder Änderungen der Beziehungen zwischen Ein- und Ausgabevariablen. Modelldrift – auch bekannt als Modellzerfall – kann sich negativ auf die Modellleistung auswirken und zu fehlerhaften Entscheidungen und schlechten Vorhersagen führen.
Um Drift zu erkennen und abzumildern, können Unternehmen die Leistung ihrer Daten- und KI-Plattform überwachen und verwalten. Die Leistung des Modells mag zunächst gut sein, aber wenn sie im Laufe der Zeit nicht ordnungsgemäß überwacht wird, kann selbst das am besten trainierte, unvoreingenommenste KI-Modell von seinen ursprünglichen Parametern „abweichen“ und nach der Implementierung zu unerwünschten Ergebnissen führen.
Wenn das Training eines KI-Modells nicht mit den eingehenden Daten übereinstimmt, kann es diese Daten nicht genau interpretieren oder diese Live-Daten verwenden, um zuverlässig genaue Vorhersagen zu treffen. Wird Drift nicht schnell erkannt und abgemildert, kann sie sich weiter ausbreiten und den Betrieb noch stärker beeinträchtigen.
Modelle, die auf der Grundlage historischer Daten erstellt werden, stagnieren schnell. In vielen Fällen kommen ständig neue Datenpunkte hinzu – neue Variationen, neue Muster, neue Trends – die in den alten, historischen Daten nicht erfasst werden.
Erfahren Sie mehr über die Hindernisse bei der Einführung von KI, insbesondere über das Fehlen von Lösungen für KI-Governance und -Risikomanagement.
Registrieren Sie sich, um den Leitfaden zu Foundation Models zu lesen
Die Welt ist in ständigem Wandel begriffen, und da sich die Daten ständig ändern, müssen auch die Modelle, mit denen man sich ein Bild von der Welt machen kann, ständig überprüft und aktualisiert werden. Im Folgenden werden drei Arten von Modelldrift beschrieben, die jeweils eine andere Ursache haben.
Die erste ist die Konzeptdrift, die auftritt, wenn es zu einer Verschiebung zwischen den Eingabevariablen und der Zielvariablen kommt und der Algorithmus anfängt, falsche Antworten zu liefern, weil die Definitionen nicht mehr gültig sind. Die Verschiebung der unabhängigen Variablen kann in verschiedenen Zeiträumen auftreten:
Die Konzeptdrift taucht regelmäßig auf und verschwindet wieder, z. B. aufgrund der Saisonalität des Kaufverhaltens als Reaktion auf Wetterveränderungen. In winterlichen Klimazonen steigt der Absatz von Schneeschaufeln und Schneefräsen normalerweise im Spätherbst und frühen Winter. Es müssen auch geografische Anpassungen im Hinblick auf erwartete Schneefälle vorgenommen werden.
Eine unerwartete Entwicklung kann zu neuen Kaufmustern führen. Ein Beispiel ist der plötzliche Presserummel um ChatGPT, der zu einer erhöhten Nachfrage nach KI-Hardware- und Softwareprodukten führte und den Aktienwert von KI-bezogenen Unternehmen in die Höhe trieb. Ein Prognosemodell, das vor der Veröffentlichung dieser Nachrichten trainiert wurde, konnte diese Ergebnisse nicht vorhersagen. Ein weiteres Beispiel ist der Ausbruch der Covid-19-Pandemie, der ebenfalls zu plötzlichen Verhaltensänderungen führte: Die Verkäufe von Spielen und Trainingsgeräten stiegen sprunghaft an, während Restaurants und Hotels deutlich weniger Besucher verzeichneten.
Einige Abweichungen erfolgen allmählich oder in einem erwarteten Tempo. Beispielsweise haben Spammer und Hacker im Laufe der Jahre eine Vielzahl von Tools und Tricks verwendet. Mit der Verbesserung von Schutzsoftware und Spamfiltern haben auch böswillige Akteure ihre Tools entsprechend angepasst. Jede KI, die zum Schutz digitaler Interaktionen entwickelt wird, muss mit der Entwicklung Schritt halten; ein statisches Modell würde bald nutzlos sein.
An zweiter Stelle steht die Datendrift, bei der sich die zugrunde liegende Datenverteilung der Eingabedaten geändert hat. Im Einzelhandel kann der Verkauf eines Produkts durch die Einführung eines anderen neuen Produkts oder die Einstellung eines Konkurrenzprodukts beeinträchtigt werden. Es kann auch sein, dass eine Website, die zunächst von jungen Menschen, dann aber auch von älteren Menschen angenommen wird, in ihrem ursprüngliche Modell, das auf dem Nutzungsverhalten der jüngeren Nutzer basiert, bei den älteren Nutzern nicht so gut funktioniert.
Die dritte Variante entsteht durch eine vorgelagerte Datenänderung, die auftritt, wenn es eine Änderung in der Datenpipeline gibt. Zum Beispiel könnten vorgelagerte Daten in eine andere Währung geändert werden, z. B. USD statt Euro, oder Messungen in Meilen statt Kilometern oder Temperaturen in Fahrenheit statt Celsius. Eine solche Änderung würde ein Modell durcheinanderbringen, das nicht darauf ausgelegt ist, die geänderte Beschriftung der Daten zu berücksichtigen.
Damit Unternehmen Modelldrift erkennen und korrigieren können, sollten sie Folgendes berücksichtigen.
Die Genauigkeit eines KI-Modells kann sich innerhalb von Tagen nach der Bereitstellung verschlechtern, da sich die Produktionsdaten von den Schulungsdaten des Modells unterscheiden. Dies kann zu falschen Vorhersagen und erheblichen Risiken führen. Unternehmen sollten ein KI-Programm und Überwachungstools verwenden, die automatisch erkennen, wenn die Genauigkeit eines Modells unter einen voreingestellten Schwellenwert abfällt (oder abweicht). Ein solches Programm zur Erkennung von Modelldrift sollte auch nachverfolgen, welche Transaktionen die Abweichung verursacht haben, sodass diese neu gekennzeichnet und zum erneuten Trainieren des Modells verwendet werden können, um seine Vorhersagekraft während der Laufzeit wiederherzustellen.
Es gibt zwei Möglichkeiten, Drift zu messen. Zum einen statistisch: hier werden statistische Metriken verwendet. Diese Messung lässt sich oft einfacher implementieren, da die meisten Metriken in der Regel bereits im Unternehmen verwendet werden. Zum anderen modellbasiert. Hier misst man die Ähnlichkeit zwischen einem Punkt oder Gruppen von Punkten mit der Referenzbasislinie.
Unternehmen sollten ihre KI-Modelle während des gesamten Lebenszyklus regelmäßig testen. Diese Tests umfassen idealerweise:
Einer Studie von Forrester Total Economic Impact zufolge „können [Unternehmen] durch die Entwicklung, Ausführung und Verwaltung von Modellen in einer einheitlichen Daten- und KI-Umgebung sicherstellen, dass die KI-Modelle überall fair, erklärbar und konform bleiben. Dieser End-to-End-KI-Ansatz ermöglicht es einem Unternehmen auch, Modellabweichungen und -verzerrungen zu erkennen und zu korrigieren und das Modellrisiko zu verwalten, wenn sich ein KI-Modell in der Produktion befindet.“
Eine bewährte Methode besteht darin, alle Modelle von einem zentralen Dashboard aus zu verwalten. Ein integrierter Ansatz kann einem Unternehmen dabei helfen, Kennzahlen kontinuierlich zu verfolgen und Teams darauf aufmerksam zu machen, wenn Genauigkeit und Datenkonsistenz aufgrund von Entwicklung, Validierung und Bereitstellung abweichen. Eine zentralisierte, ganzheitliche Ansicht kann Unternehmen dabei helfen, Silos aufzubrechen und für mehr Transparenz in der gesamten Datenherkunft zu sorgen.
Driftszenarien und deren Ausmaß lassen sich mit Hilfe eines KI-Modells, das Produktions- und Trainingsdaten sowie Modellvorhersagen in Echtzeit vergleicht, erkennen. Auf diese Weise kann Drift schnell festgestellt und sofort mit dem erneuten Training begonnen werden. Diese Erkennung ist iterativ, so wie es maschinelle Lernvorgänge (MLOps) auch sind.
Eine zeitbasierte Analyse ist hilfreich, um zu sehen, wie Drift entstand und wann sie auftrat. Wenn zum Beispiel wöchentlich Kontrollen durchgeführt werden, können Sie sehen, wie sich die Drift von Tag zu Tag entwickelt hat. Auch die Analyse von Zeitreihen kann hilfreich sein, um zu ermitteln, ob die Abweichung allmählich oder plötzlich erfolgte.
Verwenden Sie einen neuen Trainingsdatensatz, dem neuere und relevantere Beispiele hinzugefügt wurden. Ziel ist es, Ihre großen Sprachmodelle (LLM) schnell und korrekt wieder in die Produktion zu bringen. Wenn das erneute Trainieren des Modells das Problem nicht löst, ist möglicherweise ein neues Modell erforderlich.
Statt ein Modell mit Chargendaten zu trainieren, können Unternehmen ein „Online-Lernen“ praktizieren, indem sie ihre Modelle für maschinelles Lernen (ML) mit den neuesten realen Daten aktualisieren, sobald diese verfügbar sind.
Es kann vorkommen, dass ein Modell abweicht, weil sich die zum Trainieren des Modells verwendeten Daten erheblich von den tatsächlich verwendeten Produktionsdaten unterscheiden. Wenn in einem medizinischen Anwendungsfall im Training hochauflösende Scans verwendet werden, vor Ort aber nur Scans mit niedriger Auflösung verfügbar sind, sind die Ergebnisse falsch.
Beschleunigen Sie verantwortungsvolle, transparente und erklärbare KI-Workflows sowohl für generative KI als auch Modelle für maschinelles Lernen.
Verfolgen Sie die Modellleistung. Erhalten Sie Warnmeldungen, wenn die Modellgenauigkeit und Datenkonsistenz abweicht.
Verschaffen Sie sich mit Data-Governance-Strategien einen Wettbewerbsvorteil.
Nutzen Sie die Erkenntnisse von CDOs und führenden Datenwissenschaftlern, um eine vertrauenswürdige Datenstrategie zu entwickeln, die das Umsatzwachstum beschleunigt.
Erfahren Sie von Experten, wie Ihr Unternehmen Datenqualität, KI-Leistung und Vertrauen steigern kann.