Einfach ausgedrückt, ist Überapproximation das Gegenteil von Unterapproximation und tritt auf, wenn das Modell übermäßig trainiert wurde oder zu komplex ist, was zu hohen Fehlerraten bei Testdaten führt. Die übermäßige Anpassung eines Modells ist häufiger als die nicht ausreichende Anpassung. Unterapproximation tritt normalerweise dann auf, wenn Überapproximation durch einen sogenannten „Early Stopping"-Prozess verhindert werden soll.
Wenn nicht ausreichendes Training oder fehlende Komplexität zu Unterapproximation führt, wäre eine logische Strategie, um dies zu vermeiden, eine Verlängerung der Trainingsdauer oder die Aufnahme relevanterer Eingaben. Wenn Sie jedoch das Modell übermäßig trainieren oder diesem zu viele Merkmale hinzufügen, kann es zu einer übermäßigen Anpassung kommen, was zu niedriger Verzerrung, aber hoher Varianz führt (Verzerrung-Varianz-Zielkonflikt). In diesem Szenario stimmt das statistische Modell zu genau mit seinen Trainingsdaten überein, sodass es nicht in der Lage ist, neue Datenpunkte gut zu verallgemeinern. Es ist wichtig zu beachten, dass einige Arten von Modellen anfälliger für Überapproximation sein können als andere, wie z. B. Entscheidungsstrukturen oder KNN.
Es kann schwieriger sein, Überapproximation zu erkennen als Unterapproximation, weil bei einem übermäßig angepassten Modell im Gegensatz zu einem nicht ausreichend angepassten Modell die Trainingsdaten hohe Genauigkeit aufweisen. Zur Beurteilung der Genauigkeit eines Algorithmus wird normalerweise ein Verfahren mit der Bezeichnung k-fache Kreuzvalidierung verwendet.
Bei der k-fachen Kreuzvalidierung werden Daten in k gleich große Untergruppen aufgeteilt, die auch „Folds" (Teilmengen) genannt werden. Eine der k-Teilmengen fungiert als Testmenge, auch bekannt als Holdout-Menge oder Validierungsmenge, und die restlichen Teilmengen trainieren das Modell. Dieser Prozess wiederholt sich, bis jede der Teilmengen als Holdout-Menge verwendet wurde. Nach jeder Auswertung wird ein Ergebnis festgehalten und wenn alle Iterationen abgeschlossen sind, werden die Ergebnisse gemittelt, um die Leistung des Gesamtmodells zu beurteilen.
Das ideale Szenario beim Anpassen eines Modells besteht darin, das Gleichgewicht zwischen Überapproximation und Unterapproximation zu finden. Wenn dieses „Optimum" zwischen beidem ermittelt wird, können Modelle für maschinelles Lernen genaue Prognosen erstellen.