Ensemble Learning unterstreicht die Überzeugung von der kollektiven Intelligenz. Das heißt, dass die Entscheidungsfindung einer größeren Gruppe in der Regel besser ist als die eines Einzelnen. Ähnlich bezieht sich das Ensemble-Lernen auf eine Gruppe (oder ein Ensemble) von Basis-Lernern oder -Modellen, die zusammen eine bessere Endprognose erzielen.
Ein einzelnes Modell, das auch als Basis- oder schwacher Lerner bezeichnet wird, kann aufgrund einer hohen Varianz oder einer großen Verzerrung individuell nicht gut abschneiden. Wenn jedoch schwache Lerner zusammengefasst werden, können sie einen starken Lerner bilden, weil ihre Kombination die Verzerrung oder Varianz reduziert, was wiederum zu einer besseren Modellleistung führt.
Ensemble-Methoden verwenden häufig Decision Trees zur Veranschaulichung. Wenn dieser Algorithmus nicht bereinigt wurde, kann er zu einer Überanpassung neigen und eine hohe Varianz und eine geringe Abweichung aufweisen. Umgekehrt kann er auch zu einer Unteranpassung mit geringer Varianz und hoher Verzerrung neigen, wenn er sehr klein ist. Dies gilt z. B. für einen Entscheidungsstumpf, also einen Decision Tree mit einer Ebene.
Bedenken Sie, dass ein Algorithmus, der sich in Bezug auf seinen Trainingssatz durch eine Über- oder Unteranpassung auszeichnet, nicht gut auf neue Datensätze verallgemeinert werden kann. Daher werden Ensemble-Methoden verwendet, um diesem Verhalten entgegenzuwirken und eine Verallgemeinerung des Modells auf neue Datensätze zu ermöglichen. Obwohl Decision Trees eine hohe Varianz oder eine hohe Verzerrung aufweisen können, ist dies nicht die einzige Modellierungstechnik, die das Ensemble Learning für die Suche nach dem „Sweet Spot“ innerhalb des Kompromisses zwischen Verzerrung und Varianz nutzt.