Découvrez les algorithmes de boosting et comment ils peuvent améliorer la puissance prédictive de vos initiatives d'exploration des données.
Le boosting est une méthode d'apprentissage ensembliste qui combine un ensemble d'apprenants faibles en un apprenant fort, afin de réduire les erreurs d'apprentissage. Dans le boosting, un échantillon aléatoire de données est sélectionné, doté d'un modèle, puis entraîné séquentiellement, c'est-à-dire que chaque modèle tente de compenser les faiblesses de son prédécesseur. À chaque itération, les règles faibles de chaque classificateur individuel sont combinées pour former une seule règle de prédiction forte.
Avant de continuer, explorons plus largement la catégorie de l'apprentissage ensembliste, en mettant en évidence deux des méthodes les plus connues : le bagging et le boosting.
Apprentissage ensembliste
L'apprentissage ensembliste donne du crédit à l'idée de la « sagesse des foules », qui suggère que la prise de décision d'un grand groupe de personnes est généralement meilleure que celle d'un spécialiste. De même, l'apprentissage ensembliste fait référence à un groupe (ou ensemble) d'apprenants de base, ou modèles, qui travaillent collectivement pour obtenir une prédiction finale de meilleure qualité. Un modèle unique, également appelé base ou apprenant faible, peut ne pas être performant individuellement en raison d'une variance élevée ou d'un biais important. Cependant, lorsque les apprenants faibles sont agrégés, ils peuvent former un apprenant fort, car leur combinaison réduit le biais ou la variance, ce qui permet au modèle d'être plus performant.
Les méthodes ensemblistes sont fréquemment illustrées à l'aide d'arbres de décision, car cet algorithme peut être sujet à un ajustement excessif (variance élevée et faible biais) lorsqu'il n'a pas été élagué, et il peut également se prêter à un ajustement insuffisant (variance faible et biais élevé) lorsqu'il est très petit, comme une souche de décision, qui est un arbre de décision à un seul niveau. Notez que lorsqu'un algorithme s'adapte trop ou pas assez à son ensemble de données d'apprentissage, il ne peut pas bien permettre la généralisation en nouveaux ensembles de données. Les méthodes ensemblistes sont donc utilisées pour contrecarrer ce comportement et permettre la généralisation du modèle à de nouveaux ensembles de données. Si les arbres de décision peuvent présenter une variance ou un biais élevé, il convient de noter que ce n'est pas la seule technique de modélisation qui exploite l'apprentissage ensembliste pour trouver le « point idéal » dans le compromis biais-variance.
Bagging et boosting
Le bagging et le boosting sont les deux principaux types de méthode d'apprentissage ensembliste. Comme le souligne cette étude (PDF, 242 Ko) (lien externe à ibm.com), la principale différence entre ces méthodes d'apprentissage réside dans la manière dont elles sont entraînées. Dans le bagging, les apprenants faibles sont entraînés en parallèle, alors que dans le boosting, ils apprennent de manière séquentielle. Cela signifie qu'une série de modèles est construite et qu'à chaque nouvelle itération du modèle, les poids des données mal classifiées dans le modèle précédent sont augmentés. Cette redistribution des poids permet à l'algorithme d'identifier les paramètres sur lesquels il doit se concentrer pour améliorer ses performances. AdaBoost, qui signifie « algorithme de boosting adaptatif », est l'un des algorithmes de boosting les plus utilisés, car il a été l'un des premiers de son genre. XGBoost, GradientBoost et BrownBoost sont les autres algorithmes de boosting.
Une autre différence entre le bagging et le boosting réside dans la manière dont ils sont utilisés. Par exemple, les méthodes de bagging sont généralement utilisées sur des apprenants faibles qui présentent une variance élevée et un faible biais, tandis que les méthodes de boosting sont utilisées lorsque la variance est faible et le biais élevé. Alors que le bagging peut être utilisé pour éviter le surajustement, les méthodes de boosting peuvent être plus sujettes à ce dernier (lien externe à ibm.com), bien que cela dépende vraiment de l'ensemble de données. Cependant, l'ajustement des paramètres peut éviter ce problème.
Par conséquent, le bagging et le boosting ont également des applications différentes dans le monde réel. Le bagging est utilisé pour les processus d'approbation de prêts et la génomique statistique, tandis que le boosting intervient davantage dans les applications de reconnaissance d'images et les moteurs de recherche.
SPSS Modeler
Les méthodes de boosting sont axées sur la combinaison itérative d'apprenants faibles pour créer un apprenant fort capable de prédire des résultats plus précis. Pour rappel, un apprenant faible classifie les données légèrement mieux que la supposition aléatoire. Cette approche peut fournir de très bons résultats pour les problèmes de prédiction et peut même surpasser les réseaux neuronaux et les machines à vecteurs de support pour des tâches telles que la recherche d'images (PDF, 1,9 Mo) (lien externe à ibm.com).
Les algorithmes de boosting peuvent différer dans la façon dont ils créent et agrègent les apprenants faibles pendant le processus séquentiel. Les trois types de méthode de boosting les plus courants sont les suivants :
Avantages et défis du boosting
La méthode de boosting présente un certain nombre d'avantages et de défis majeurs lorsqu'elle est utilisée pour des problèmes de classification ou de régression.
Principaux avantages du boosting :
Principaux défis du boosting :
Les algorithmes de boosting sont bien adaptés aux projets d'intelligence artificielle dans un large éventail de secteurs d'activité, notamment les suivants :
Soins de santé : le boosting vise à réduire les erreurs dans les prédictions de données médicales, telles que la prédiction des facteurs de risque cardiovasculaire et les taux de survie des patients atteints de cancer. Par exemple, des recherches (lien externe à ibm.com) montrent que les méthodes ensemblistes améliorent considérablement la précision de l'identification des patients qui pourraient bénéficier d'un traitement préventif des maladies cardiovasculaires, tout en évitant le traitement inutile des autres. De même, une autre étude (lien externe à IBM) a révélé que l'application du boosting à de multiples plateformes génomiques peut améliorer la prédiction du délai de survie au cancer.
Informatique : les arbres de régression auxquels est appliqué le boosting de gradient sont utilisés dans les moteurs de recherche pour classer des pages, tandis que l'algorithme de boosting Viola-Jones est utilisé pour la recherche d'images. Comme l'a noté Cornell (lien externe à ibm.com), les classificateurs renforcés permettent d'arrêter les calculs plus tôt lorsque la direction d'une prédiction est claire. Cela signifie qu'un moteur de recherche peut arrêter l'évaluation des pages moins bien classées, tandis que les analyseurs d'images ne prennent en compte que les images qui contiennent effectivement l'objet recherché.
Finance : le boosting est utilisé avec des modèles d'apprentissage en profondeur pour automatiser des tâches essentielles, notamment la détection des fraudes, l'analyse des prix, etc. Par exemple, les méthodes de boosting dans la détection des fraudes par carte de crédit et l'analyse des prix des produits financiers (lien externe à ibm.com) améliorent la précision de l'analyse des ensembles de données massives, afin de réduire les pertes financières.
Boostez votre retour sur investissements et réduisez le délai de rentabilisation à l'aide d'un outil de science des données intuitif, fonctionnant par glisser-déposer.
Hybrides. Ouvertes. Résilientes. Votre plateforme et votre partenaire pour la transformation numérique.
Logiciel cloud hybride optimisé par l'IA.