El aprendizaje conjunto da crédito a la idea de la "sabiduría de las multitudes", que sugiere que la toma de decisiones de un grupo más amplio de personas suele ser mejor que la de un experto individual. Del mismo modo, el aprendizaje conjunto se refiere a un grupo de aprendices base, o modelos, que trabajan colectivamente para lograr una mejor predicción final.
Un modelo único, también conocido como modelo básico o de aprendizaje débil, puede no funcionar bien individualmente debido al alta varianza o al alto sesgo. Sin embargo, cuando se agregan aprendices débiles, pueden formar un aprendiz fuerte, ya que su combinación reduce el sesgo o la varianza, lo que produce un mejor rendimiento del modelo.
Los métodos de conjunto suelen emplear árboles de decisión a modo de ilustración. Este algoritmo puede ser propenso a sobreajuste, mostrando una alta varianza y un sesgo bajo, cuando no se podó. Por el contrario, también puede prestarse a un ajuste insuficiente, con baja varianza y alto sesgo, cuando es muy pequeño, como un muñón de decisión, que es un decision tree de un nivel.
Recuerde que cuando un algoritmo se ajusta en exceso o en defecto a su conjunto de entrenamiento, no puede generalizar bien nuevos conjuntos de datos, por lo que los métodos de conjunto se emplean para contrarrestar este comportamiento y permitir la generalización del modelo a nuevos conjuntos de datos. Aunque los decision trees pueden presentar una varianza o un sesgo elevados, cabe señalar que no es la única técnica de modelado que aprovecha el aprendizaje por conjuntos para encontrar el "punto óptimo" dentro del equilibrio entre sesgo y varianza.