Startseite topics Algorithmen für maschinelles Lernen Was ist ein Algorithmus für maschinelles Lernen?
Starten Sie Ihre kostenlose Testversion von watsonx.ai
Ein neuronales Netz

Ein Algorithmus für maschinelles Lernen ist eine Reihe von Regeln oder Prozessen, die von einem KI-System verwendet werden, um Aufgaben auszuführen – meistens, um neue Datenerkenntnisse und -muster zu entdecken oder um Ausgabewerte aus einem gegebenen Satz von Eingabevariablen vorherzusagen. Algorithmen ermöglichen es dem maschinellen Lernen (ML) zu lernen.

Branchenanalysten sind sich über die Bedeutung des maschinellen Lernens und der zugrunde liegenden Algorithmen einig. Forrester: „Fortschritte bei den Algorithmen des maschinellen Lernens bringen Präzision und Tiefe in die Analyse von Marketingdaten, die Vermarktern helfen zu verstehen, wie Marketingdetails – wie Plattform, Kreativität, Call-to-Action oder Messaging – die Marketingleistung beeinflussen.1“ Gartner stellt fest, dass „maschinelles Lernen der Kern vieler erfolgreicher KI-Anwendungen ist, was ihre enorme Zugkraft auf dem Markt fördert.2

In den meisten Fällen liefert das Training von ML-Algorithmen mit mehr Daten genauere Antworten als das Training mit weniger Daten. Mithilfe statistischer Methoden werden Algorithmen darauf trainiert, Klassifizierungen zu ermitteln oder Vorhersagen zu treffen und wichtige Erkenntnisse in Data-Mining-Projekten zu gewinnen. Diese Erkenntnisse können anschließend Ihre Entscheidungsfindung verbessern, um wichtige Wachstumskennzahlen zu steigern.

Zu den Anwendungsfällen für Algorithmen des maschinellen Lernens gehört die Fähigkeit, Daten zu analysieren, um Trends zu erkennen und Probleme vorherzusagen, bevor sie auftreten.3 Fortschrittlichere KI kann einen personalisierteren Support ermöglichen, Reaktionszeiten verkürzen, Spracherkennung bieten und die Kundenzufriedenheit verbessern. Zu den Branchen, die besonders von Algorithmen des maschinellen Lernens profitieren, um  aus riesigen Datenmengen neue Inhalte zu erstellen, gehören das Lieferkettenmanagement, Transport und Logistik, der Einzelhandel und die Fertigung4 – sie alle nutzen generative KI, um Aufgaben zu automatisieren, die Effizienz zu steigern und selbst Anfängern wertvolle Erkenntnisse zu vermitteln.

Jetzt verfügbar: watsonx

Mit der IBM KI- und Datenplattform der nächsten Generation können Sie die Leistung von KI in Ihrem Unternehmen erheblich steigern.

Ähnliche Inhalte

IBM Newsletter abonnieren

Deep Learning

Deep Learning ist eine spezifische Anwendung der fortgeschrittenen Funktionen von Algorithmen des maschinellen Lernens. Der Unterschied besteht darin, wie jeder Algorithmus lernt. „Deep“ Modelle für maschinelles Lernen können Ihre markierten Datensätze, auch bekannt als überwachtes Lernen, verwenden, um ihren Algorithmus zu informieren, aber sie benötigen nicht unbedingt markierte Daten. Deep Learning kann unstrukturierte Daten in ihrer Rohform (wie Text oder Bilder) aufnehmen und automatisch die Merkmale ermitteln, die verschiedene Datenkategorien voneinander unterscheiden. Dadurch entfällt ein Teil des erforderlichen menschlichen Eingreifens und ermöglicht die Nutzung größerer Datensätze.

Die einfachste Art, über künstliche Intelligenz, maschinelles Lernen, Deep Learning und neuronale Netze nachzudenken, ist, sie als eine Reihe von KI-Systemen vom größten zum kleinsten zu betrachten, von denen jedes das nächste umfasst. Künstliche Intelligenz (KI) ist das übergreifende System. Maschinelles Lernen ist eine Teilmenge der KI. Deep Learning ist ein Unterfeld des maschinellen Lernens, und neuronale Netze bilden das Rückgrat von Deep-Learning-Algorithmen. Die Anzahl der Knotenschichten bzw. die Tiefe der neuronalen Netze unterscheidet ein einzelnes neuronales Netz von einem Deep-Learning-Algorithmus, der mehr als drei Schichten haben muss.

So funktionieren Algorithmen für maschinelles Lernen

In einem Artikel der UC Berkeley wird das Lernsystem eines Algorithmus für maschinelles Lernen in drei Hauptteile unterteilt.5

  1. Ein Entscheidungsprozess: Im Allgemeinen werden Algorithmen des maschinellen Lernens verwendet, um eine Vorhersage oder Klassifizierung zu treffen. Basierend auf einigen Eingabedaten, die gekennzeichnet oder nicht gekennzeichnet werden können, erzeugt Ihr Algorithmus eine Schätzung über ein Muster in den Daten.

  2. Fehlerfunktion: Bei einer Fehlerfunktion wird die Vorhersage des Modells ausgewertet. Wenn es bekannte Beispiele gibt, kann eine Fehlerfunktion einen Vergleich durchführen, um die Genauigkeit des Modells zu beurteilen.

3.    Ein Modelloptimierungsprozess: Wenn das Modell besser an die Datenpunkte im Trainingssatz angepasst werden kann, werden die Gewichtungen angepasst, um die Abweichung zwischen dem bekannten Beispiel und der Modellschätzung zu reduzieren. Der Algorithmus wiederholt diesen „Bewertungs- und Optimierungs“-Prozess und aktualisiert die Gewichte selbstständig, bis eine bestimmte Genauigkeitsschwelle erreicht ist.  

Insbesondere beim überwachten Lernen wird eine Trainingsmenge verwendet, um Modelle   so zu trainieren, dass sie die gewünschte Ausgabe liefern. Dieser Trainings-Datensatz enthält Eingaben und korrekte Ausgaben, mit denen das Modell im Laufe der Zeit lernen kann. Der Algorithmus misst seine Genauigkeit durch die Verlustfunktion und passt sich so lange an, bis der Fehler ausreichend minimiert wurde.

Arten von Algorithmen für maschinelles Lernen

Es gibt vier Arten von Algorithmen für maschinelles Lernen: überwacht, unbeaufsichtigt, halbüberwacht und Verstärkung.  Abhängig von Ihrem Budget, dem Bedarf an Geschwindigkeit und Präzision hat jede Art und jede Variante ihre eigenen Vorteile. Fortgeschrittene Algorithmen des maschinellen Lernens erfordern mehrere Technologien – darunter Deep Learning, neuronale Netze und die Verarbeitung natürlicher Sprache – und sind in der Lage, sowohl unbeaufsichtigtes als auch beaufsichtigtes Lernen zu nutzen.6 Im Folgenden sind die beliebtesten und am häufigsten verwendeten Algorithmen aufgeführt.

Überwachte Lernalgorithmen

Überwachtes Lernen kann bei Data Mining in zwei Arten von Problemen unterteilt werden: Klassifizierung und Regression.

  • Klassifizierung verwendet einen Algorithmus, um Testdaten präzise bestimmten Kategorien zuzuweisen. Sie erkennt bestimmte Entitäten innerhalb des Datensatzes und versucht, einige Schlussfolgerungen darüber zu ziehen, wie diese Entitäten gekennzeichnet oder definiert werden sollen. Übliche Klassifikationsalgorithmen sind lineare Klassifikatoren, Support Vector Machines (SVM), Entscheidungsbäume, K-Nearest Neighbor und Random Forest, die im Folgenden näher beschrieben werden.
  • Regression dient dazu, die Beziehung zwischen abhängigen und unabhängigen Variablen zu verstehen. Dies wird häufig verwendet, um Prognosen zu erstellen, beispielsweise den Umsatz eines bestimmten Unternehmens. Lineare Regression, logistische Regression und polynomiale Regression sind beliebte Regressionsalgorithmen.

In überwachten maschinellen Lernprozessen werden verschiedene Algorithmen und Berechnungstechniken verwendet, die häufig mithilfe von Programmen wie Python berechnet werden. Überwachte Lernalgorithmen:

  • AdaBoost oder Gradient Boosting: Diese Technik wird auch adaptives Boosting7 genannt und steigert einen leistungsschwachen Regressionsalgorithmus, indem sie ihn mit schwächeren kombiniert, um einen stärkeren Algorithmus zu erstellen, der zu weniger Fehlern führt. Boosting kombiniert die Prognoseleistung mehrerer Basisschätzer.
  • Künstliche neuronale Netze: Auch bekannt als ANNs, neuronale Netze oder simulierte neuronale Netze (SNNs), sind eine Teilmenge maschineller Lerntechniken und der Kern von Deep-Learning-Algorithmen. Der Lernalgorithmus erkennt Muster in den Eingabedaten mit Hilfe von Bausteinen, den so genannten Neuronen, die den Neuronen im menschlichen Gehirn nachempfunden sind und mit der Zeit trainiert und verändert werden. (Mehr unter „neuronale Netzwerke“.)
  • Entscheidungsbaumalgorithmen: Entscheidungsbäume werden sowohl zur Vorhersage numerischer Werte (Regressionsprobleme) als auch zur Klassifizierung von Daten in Kategorien verwendet und verwenden eine verzweigte Folge verknüpfter Entscheidungen, die mit einem Baumdiagramm dargestellt werden können. Einer der Vorteile von Entscheidungsbäumen ist, dass sie im Gegensatz zur Blackbox eines neuronalen Netzes leicht zu validieren und zu überprüfen sind.
  • Verringerung der Dimensionalität: Wenn ein ausgewählter Datensatz eine hohe Anzahl von Merkmalen aufweist7 , weist er eine hohe Dimensionalität auf. Die Dimensionalitätsreduzierung verringert dann die Anzahl der Merkmale, so dass nur die aussagekräftigsten Erkenntnisse oder Informationen übrig bleiben. Ein Beispiel ist die Hauptkomponentenanalyse.
  • K-Nearest Neighbor: Dieser nicht parametrische Algorithmus, auch KNN genannt, klassifiziert Datenpunkte basierend auf ihrer Nähe und Zuordnung zu anderen verfügbaren Daten. Es wird davon ausgegangen, dass ähnliche Datenpunkte nahe beieinander gefunden werden können. Daher wird versucht, den Abstand zwischen Datenpunkten zu berechnen, in der Regel durch die euklidische Entfernung, und dann wird eine Kategorie basierend auf der häufigsten Kategorie oder dem häufigsten Durchschnitt zugewiesen. 
  • Logistische Regression: Während die lineare Regression eingesetzt wird, wenn abhängige Variablen kontinuierlich sind, wird die logistische Regression gewählt, wenn die abhängige Variable kategorisch ist, d. h. es gibt binäre Ausgaben, wie „wahr“ und „falsch“ oder „ja“ und „nein“. Beide Regressionsmodelle versuchen zwar, Beziehungen zwischen Dateneingaben zu verstehen, aber die logistische Regression wird hauptsächlich verwendet, um binäre Klassifizierungsprobleme wie Spam-Erkennung zu lösen.
  • Neuronale Netze: Neuronale Netze werden in erster Linie für Deep-Learning-Algorithmen eingesetzt und verarbeiten die eingegebenen Trainingsdaten, indem sie die Vernetzung des menschlichen Gehirns durch Knotenschichten nachahmen. Jeder Knoten besteht aus Eingaben, Gewichtungen, einem Bias (Schwellenwert) und einer Ausgabe. Wenn dieser Ausgabewert einen bestimmten Schwellenwert überschreitet, wird der Knoten „ausgelöst“ oder aktiviert und Daten an die nächste Schicht im Netz übergeben. Neuronale Netze lernen aus Anpassungen basierend auf der Verlustfunktion durch den Prozess des Gradientenabstiegs. Wenn die Kostenfunktion bei oder nahe Null liegt, können Sie sich auf die Genauigkeit des Modells verlassen.
  • Naïve Bayes: Dieser Ansatz setzt das Prinzip der konditionalen Unabhängigkeit der Klasse aus dem Bayes Theorem ein. Das bedeutet, dass das Vorhandensein eines Merkmals keinen Einfluss auf das Vorhandensein eines anderen Merkmals in Bezug auf die Wahrscheinlichkeit eines bestimmten Ergebnisses hat, und dass jeder Prädiktor die gleiche Wirkung auf das Ergebnis hat. Es gibt drei Arten von Naïve Bayes Klassifizierungen: Multinomial Naïve Bayes, Bernoulli Naïve Bayes und Gaussian Naïve Bayes. Diese Technik wird hauptsächlich in Textklassifizierungs-, Spam-Identifikations- und Empfehlungssystemen verwendet.
  • Random Forests: In einem Random Forest prognostiziert der Algorithmus für maschinelles Lernen einen Wert oder eine Kategorie, indem die Ergebnisse aus einer Reihe von Entscheidungsbäumen kombiniert werden. Der „Forest“ bezieht sich auf nicht korrelierte Entscheidungsbäume, die zusammengesetzt sind, um Varianzen zu reduzieren und genauere Vorhersagen zu ermöglichen.
  • Support Vector Machines (SVM): Dieser Algorithmus kann sowohl für die Datenklassifizierung als auch für die Regression verwendet werden, in der Regel jedoch für Klassifikationsprobleme, bei denen eine Hyperebene konstruiert wird, bei der der Abstand zwischen zwei Klassen von Datenpunkten maximal ist. Diese Hyperplane wird als Entscheidungsgrenze bezeichnet und trennt die Klassen von Datenpunkten (z. B. Orangen vs. Äpfel) auf beiden Seiten der Ebene.
Unüberwachte Lernalgorithmen

Im Gegensatz zu überwachtem Lernen verwendet unüberwachtes Lernen nicht gekennzeichnete Daten. Aus diesen Daten erkennt der Algorithmus Muster, die bei der Lösung von Clustering- oder Zuordnungsproblemen helfen. Dies ist besonders nützlich, wenn Fachexperten sich über gemeinsame Eigenschaften innerhalb eines Datensatzes nicht sicher sind. Gemeinsame Clustering-Algorithmen sind hierarchische, K-Means-, Gauß'sche Mischungsmodelle und Dimensionalitätsreduzierungsmethoden wie PCA und t-SNE.

  • Clustering: Diese Algorithmen können Muster in Daten identifizieren, damit sie gruppiert werden können. Algorithmen können Data Scientists helfen, indem sie Unterschiede zwischen Datenelementen identifizieren, die Menschen übersehen haben.
  • Hierarchische Cluster-Bildung: Damit werden Daten in einen Baum von Clustern gruppiert8. Hierarchische Cluster-Bildung beginnt mit der Verarbeitung jedes Datenpunktes als separater Cluster. Anschließend werden die folgenden Schritte wiederholt ausgeführt: 1) Identifizieren der beiden Cluster, die am nächsten beieinander liegen können, und 2) Zusammenführen der beiden maximal vergleichbaren Cluster. Diese Schritte werden fortgesetzt, bis alle Cluster zusammengeführt sind.
  • K-Means-Clustering: Dies identifiziert Gruppen innerhalb von Daten ohne die Bezeichnung9  in verschiedenen Clustern, indem Gruppen von Daten gefunden werden, die einander ähnlich sind. Der Name „K-Means“ stammt von den $k$-Schwerpunkten, die es zur Definition von Clustern verwendet. Ein Punkt wird einem bestimmten Cluster zugewiesen, wenn er näher am Schwerpunkt dieses Clusters liegt als an jedem anderen Schwerpunkt.

Halbüberwachte Lernalgorithmen

In diesem Fall findet das Lernen statt, wenn nur ein Teil der gegebenen Eingabedaten gekennzeichnet wurde – was dem Algorithmus einen gewissen „Vorsprung“ verschafft. Dieser Ansatz kann das Beste aus beiden Welten kombinieren10 – verbesserte Genauigkeit im Zusammenhang mit überwachtem maschinellem Lernen und die Möglichkeit, kosteneffiziente unmarkierte Daten zu nutzen, wie im Fall des unüberwachten maschinellen Lernens.

Verstärkungsalgorithmen

In diesem Fall werden die Algorithmen so trainiert, wie Menschen lernen – durch Belohnungen und Strafen –, die von einem Reinforcement-Learning-Agenten11 gemessen und verfolgt werden, der ein allgemeines Verständnis für die Wahrscheinlichkeit hat, den Punktestand erfolgreich nach oben oder nach unten zu verschieben. Durch Versuch und Irrtum lernt der Agent, Maßnahmen zu ergreifen, die im Laufe der Zeit zu den günstigsten Ergebnissen führen. Reinforcement Learning wird häufig in den Bereichen Ressourcenmanagement, Robotertechnik und Videospiele eingesetzt12 .

Weiterführende Lösungen
Deep Learning

Entwerfen Sie komplexe neuronale Netze. Experimentieren Sie im großen Maßstab, um optimierte Lernmodelle in IBM Watson Studio bereitzustellen.

Deep Learning erkunden

Vorhersageanalysen

Analysieren Sie Daten und erstellen Sie Analysen und Vorhersagemodelle für zukünftige Ergebnisse. Entdecken Sie Risiken und Chancen für Ihr Unternehmen.

Entdecken Sie prädiktive Analysen

Erstellen Sie Apps mit natürlicher Sprachverarbeitung

NLP ist KI, die die Sprache Ihres Unternehmens spricht. Erstellen Sie mit IBM Watson Discovery Lösungen, die innerhalb von drei Jahren einen ROI von 383 % erzielen.

Entdecken Sie das Erstellen von Apps mit NLP
Ressourcen Kostenloses, praxisnahes Lernen für generative KI-Technologien

Lernen Sie die grundlegenden Konzepte für KI und generative KI kennen, einschließlich Prompt Engineering, große Sprachmodelle und die besten Open-Source-Projekte.

Magic Quadrant für dialogorientierte KI-Plattformen für Unternehmen, 2023

IBM wurde im Gartner® Magic Quadrant 2023 für dialogorientierte KI-Unternehmensplattformen erneut als „führend“ ausgezeichnet.

Gartner Magic Quadrant für Data Science and Plattformen für maschinelles Lernen

Lernen Sie die Tools kennen, die Unternehmen zur effizienten Ausführung und Verwaltung von KI-Modellen verwenden, und geben Sie ihren Data Scientists Technologien an die Hand, mit denen sie ihre datengestützte Entscheidungsfindung optimieren können.

Maschinelles Lernen für Dummies

Entdecken Sie, wie Sie durch maschinelles Lernen kontinuierlich aus Daten lernen und die Zukunft vorhersagen können.

Wie man verantwortungsvolle KI im großen Maßstab aufbaut

Vier Strategien zur Skalierung von KI mit einer starken Datengrundlage.

KI im Unternehmen, 2021: Erschließung von Chancen durch Daten

Die KI-Technologie hat sich in den letzten Jahrzehnten rasant weiterentwickelt. Erfahren Sie, wie Unternehmen KI heute implementieren.

Take the next step

Build an AI strategy for your business on one collaborative AI and data platform—IBM watsonx. Train, validate, tune and deploy AI models to help you scale and accelerate the impact of AI with trusted data across your business.

Explore watsonx Book a live demo