Bagging, también conocido como Bootstrapping, es el método de aprendizaje por conjuntos que se emplea comúnmente para reducir la varianza dentro de un conjunto de datos ruidoso.
En el bagging, se selecciona una muestra aleatoria de datos en un conjunto de entrenamiento con reemplazo, lo que significa que los puntos de datos individuales se pueden elegir más de una vez. Después de generar varias muestras de datos, estos modelos débiles se entrenan de manera independiente. Dependiendo del tipo de tarea (regresión o clasificación, por ejemplo), el promedio o la mayoría de esas predicciones arrojan una estimación más precisa.
Nótese que el algoritmo de bosque aleatorio se considera una extensión del método bagging, que emplea tanto el bagging como la aleatoriedad de características para crear un bosque de decision trees no correlacionados.
El aprendizaje conjunto da crédito a la idea de la "sabiduría de las multitudes", que sugiere que la toma de decisiones de un grupo más amplio de personas suele ser mejor que la de un experto individual. Del mismo modo, el aprendizaje conjunto se refiere a un grupo de aprendices base, o modelos, que trabajan colectivamente para lograr una mejor predicción final.
Un modelo único, también conocido como modelo básico o de aprendizaje débil, puede no funcionar bien individualmente debido al alta varianza o al alto sesgo. Sin embargo, cuando se agregan aprendices débiles, pueden formar un aprendiz fuerte, ya que su combinación reduce el sesgo o la varianza, lo que produce un mejor rendimiento del modelo.
Los métodos de conjunto suelen emplear decision trees a modo de ilustración. Este algoritmo puede ser propenso al sobreajuste, mostrando una alta varianza y un sesgo bajo, cuando no se podó. Por el contrario, también puede prestarse a un ajuste insuficiente, con baja varianza y alto sesgo, cuando es muy pequeño, como un muñón de decisión, que es un decision tree de un nivel.
Recuerde que cuando un algoritmo se ajusta en exceso o en defecto a su conjunto de entrenamiento, no puede generalizar bien nuevos conjuntos de datos, por lo que los métodos de conjunto se emplean para contrarrestar este comportamiento y permitir la generalización del modelo a nuevos conjuntos de datos. Aunque los decision trees pueden presentar una varianza o un sesgo elevados, cabe señalar que no es la única técnica de modelado que aprovecha el aprendizaje por conjuntos para encontrar el "punto óptimo" dentro del equilibrio entre sesgo y varianza.
El bagging y el boosting son dos tipos principales de métodos de aprendizaje por conjuntos. Como se destaca en este estudio (el enlace se encuentra fuera de ibm.com), la principal diferencia entre estos métodos de aprendizaje es cómo se capacitan.
En bagging, los aprendices débiles se capacitan en paralelo, pero en boosting, aprenden secuencialmente. Esto significa que se construye una serie de modelos y con cada nueva iteración del modelo, se incrementan los pesos de los datos mal clasificados en el modelo anterior.
Esta redistribución de pesos ayuda al algoritmo a identificar los parámetros en los que debe centrarse para mejorar su rendimiento. AdaBoost, que significa “algoritmo de refuerzo adaptativo”, es uno de los algoritmos de refuerzo más populares, ya que fue uno de los primeros de su tipo. Otros tipos de algoritmos de impulso incluyen XGBoost, GradientBoost y BrownBoost.
Otra diferencia en la que se diferencian el bagging y el boosting son los escenarios en los que se utilizan. Por ejemplo, los métodos de bagging se utilizan típicamente para aprendices débiles que exhiben alta varianza y sesgo bajo, mientras que los métodos de boosting se utilizan cuando se observa baja varianza y sesgo alto.
Conecte e integre sus sistemas para preparar su infraestructura para la IA.
Regístrese para obtener la guía sobre modernización de aplicaciones
En 1996, Leo Breiman (el enlace se encuentra fuera de ibm.com) introdujo el algoritmo de bagging, que consta de tres pasos básicos:
Hay varios beneficios y retos clave que presenta el método bagging cuando se emplea para problemas de clasificación o regression. Los principales beneficios del bagging son:
Los desafíos clave del bagging incluyen:
La técnica de bagging se emplea en muchas industrias, ya que ofrece insights tanto para el valor del mundo real como para perspectivas interesantes, como en los GRAMMY Debates with Watson. Los casos de uso clave incluyen:
Emplee el analytics predictivo para ayudar a descubrir patrones de datos, obtener precisión predictiva y mejorar la toma de decisiones.
Cree y amplíe la IA de confianza en cualquier nube. Automatice el ciclo de vida de la IA para ModelOps.