Le machine learning (ML) est une branche de l’intelligence artificielle (IA) qui vise à permettre aux ordinateurs et aux machines d’imiter la façon dont les humains apprennent, d’effectuer des tâches de manière autonome et d’améliorer leur performance et leur précision à mesure qu’ils gagnent en expérience et qu’ils sont exposés à de nouvelles données.
L’UC Berkeley décompose le système d’apprentissage d’un algorithme de machine learning en trois parties principales.
Newsletter sectorielle
Obtenez des informations sur les actualités les plus importantes et les plus intrigantes en matière d’intelligence artificielle. Abonnez-vous à notre newsletter hebdomadaire Think. Lire la Déclaration de confidentialité d’IBM.
Vous recevrez votre abonnement en anglais. Vous trouverez un lien de désabonnement dans chaque newsletter. Vous pouvez gérer vos abonnements ou vous désabonner ici. Consultez la Déclaration de confidentialité d’IBM pour plus d’informations.
L’apprentissage profond et le machine learning ayant tendance à être utilisés de manière interchangeable, il est bon de noter les nuances qui existent entre les deux. Le machine learning, l’apprentissage profond et les réseaux neuronaux sont tous des sous-domaines de l’intelligence artificielle. Cependant, les réseaux neuronaux sont en fait un sous-domaine du machine learning, tandis que l’apprentissage profond est un sous-domaine des réseaux neuronaux.
La différence entre le deep learning et le machine learning réside dans la manière dont chaque algorithme apprend. Le machine learning « profond » (ou deep learning) peut s’appuyer sur des jeux de données étiquetés, ce que l’on appelle également l’apprentissage supervisé, pour informer son algorithme, mais ce n’est pas une obligation. Le processus d’apprentissage profond peut ingérer des données non structurées sous leur forme brute (comme du texte ou des images) et déterminer automatiquement l’ensemble des caractéristiques qui distinguent différentes catégories de données les unes des autres. Cela permet d’éliminer une partie de l’intervention humaine nécessaire et d’utiliser des ensembles de données plus volumineux. On peut considérer le deep learning comme un « machine learning évolutif », comme le souligne Lex Fridman lors de ce cours magistral au MIT1.
Le machine learning classique, ou « non profond », nécessite davantage l’intervention humaine pour l’apprentissage. Les experts humains déterminent le jeu des fonctionnalités pour comprendre les différences entre les entrées de données, ce qui nécessite généralement des données plus structurées pour l’apprentissage.
Les réseaux neuronaux, ou réseaux de neurones artificiels (ANN), sont constitués de couches de nœuds contenant une couche d’entrée, une ou plusieurs couches cachées et une couche de sortie. Chaque nœud, ou neurone artificiel, se connecte à un autre et possède un poids et un seuil associés. Si la valeur de sortie d’un nœud individuel est supérieure à la valeur de seuil spécifiée, ce nœud est activé, envoyant les données à la couche suivante du réseau. Dans le cas contraire, aucune donnée n’est transmise à la couche suivante à la couche suivante. Le terme « profond » dans l’apprentissage profond fait simplement référence à la profondeur des couches d’un réseau neuronal. Un réseau neuronal composé de plus de trois couches, qui incluraient les entrées et les sorties, peut être considéré comme un algorithme d’apprentissage profond ou un réseau neuronal profond. Un réseau neuronal qui ne comporte que trois couches n’est qu’un réseau neuronal de base.
On attribue au deep learning et aux réseaux neuronaux l’accélération des progrès dans des domaines tels que la vision par ordinateur, le traitement automatique du langage naturel (NLP) et la reconnaissance vocale.
Voir l’article de blog « IA, machine learning, apprentissage profond et réseaux neuronaux : quelles différences ? » pour un examen plus profond des liens entre ces différents concepts.
Les modèles de machine learning se répartissent en trois catégories principales.
L’apprentissage supervisé, également connu sous le nom de machine learning supervisé, se définit par l’utilisation de jeux de données étiquetés pour entraîner des algorithmes à classer des données ou à prédire des résultats avec précision. À mesure que les données d’entrée alimentent le modèle, ce dernier y applique des pondérations jusqu’à obtenir le bon ajustement. Cette étape intervient dans le cadre du processus de validation croisée pour s’assurer que le modèle évite tout surajustement ou sous-ajustement. L’apprentissage supervisé permet aux entreprises de résoudre divers problèmes concrets à grande échelle, comme le classement des spams dans un dossier autre que la boîte de réception. Parmi les méthodes utilisées dans l’apprentissage supervisé, citons les réseaux neuronaux, les classificateurs Bayes naïfs, la régression linéaire, la régression logistique, la forêt d’arbres décisionnels et les algorithmes SVM (machine à vecteurs de support).
L’apprentissage non supervisé, également connu sous le nom de machine learning non supervisé, utilise des algorithmes de machine learning pour analyser et regrouper des jeux de données non étiquetées (sous-ensembles appelés clusters). Ces algorithmes découvrent des modèles ou des groupes de données cachés sans intervention humaine.
La capacité de l’apprentissage non supervisé à découvrir des similitudes et des différences dans les informations le rend idéal pour l’analyse exploratoire des données, les stratégies de vente croisée, la segmentation de la clientèle et la reconnaissance d’images et de formes. Il permet également de réduire le nombre de caractéristiques dans un modèle, avec la réduction de dimensionnalité. L’analyse en composantes principales (ACP) et la décomposition en valeurs singulières (SVD) sont deux approches courantes utilisées à cet effet. Parmi les autres algorithmes utilisés dans l’apprentissage non supervisé, citons les réseaux neuronaux, le clustering k-means ou partitionnement en k-moyennes et le regroupement probabiliste.
L’apprentissage semi-supervisé offre un juste milieu entre l’apprentissage supervisé et l’apprentissage non supervisé. Pendant l’entraînement, il utilise un jeu de données étiqueté plus petit pour guider la classification et l’extraction des caractéristiques à partir d’un jeu de données non étiqueté plus volumineux. L’apprentissage semi-supervisé peut être utile lorsque les données étiquetées sont insuffisantes pour un algorithme d’apprentissage supervisé. Ce type d’apprentissage constitue également une bonne alternative quand l’étiquetage d’un volume suffisant de données est trop coûteux.
Pour une analyse approfondie des différences entre ces approches, consultez « Apprentissage supervisé et non supervisé : quelle est la différence ? »
L’apprentissage par renforcement est un modèle de machine learning similaire à l’apprentissage supervisé, à la différence que l’algorithme n’est pas entraîné sur des données d’échantillon. Ce modèle apprend au fur et à mesure en procédant par essais et erreurs. Une séquence de résultats positifs sera renforcée afin d’élaborer la meilleure recommandation ou politique pour un problème donné.
Le système IBM Watson qui a remporté le concours Jeopardy! en 2011 en est un bon exemple. Le système utilisait l’apprentissage par renforcement pour savoir quand tenter de répondre (ou de poser une question), quelle case sélectionner sur le tableau et combien miser, en particulier sur les doubles quotidiens.
Un certain nombre d’algorithmes de machine learning sont couramment utilisés. Notamment :
Les réseaux neuronaux simulent le fonctionnement du cerveau humain, avec un très grand nombre de nœuds de traitement reliés entre eux. Les réseaux neuronaux sont efficaces pour reconnaître des schémas dans les données et ils jouent un rôle important dans des applications telles que la traduction en langage naturel, la reconnaissance d’images, la reconnaissance vocale et la création d’images.
Cet algorithme est utilisé pour prédire des valeurs numériques, en se basant sur les relations linéaires entre les différentes valeurs. Cette technique peut par exemple être utilisée pour prédire les prix de l’immobilier en fonction des données historiques de la région.
Cet algorithme d’apprentissage supervisé effectue des prédictions sur des variables nominales de réponse, comme les réponses aux questions de type « oui/non ». Il peut notamment être utilisé pour la classification du spam et le contrôle qualité sur une ligne de production.
En utilisant l’apprentissage non supervisé, les algorithmes de clustering peuvent identifier des schémas dans les données, permettant de les regrouper. Les ordinateurs peuvent aider les data scientists à identifier les différences entre des éléments de données que les humains n’auraient pas remarquées.
Les decision trees peuvent être utilisés à la fois pour prédire des valeurs numériques (régression) et classer les données en catégories. Ils utilisent une séquence ramifiée de décisions reliées entre elles, qui peut être représentée par un diagramme arborescent. Les decision trees ont l’avantage d’être faciles à valider et à auditer, contrairement à la boîte noire des réseaux neuronaux.
Dans une forêt d’arbres décisionnels, l’algorithme de machine learning prédit une valeur ou une catégorie en combinant les résultats d’un certain nombre de decision trees.
Selon vos exigences en termes de budget, de vitesse et de niveau de précision, chaque type d’algorithme (supervisé, non supervisé, semi-supervisé ou renforcé) présente ses avantages et ses inconvénients.
Par exemple, les algorithmes de decision trees sont utilisés à la fois pour prédire des valeurs numériques (problèmes de régression) et pour classer les données en catégories. Les decision trees utilisent une séquence ramifiée de décisions reliées entre elles, qui peut être représentée par un diagramme arborescent. L’un de leurs principaux avantages, c’est qu’ils sont plus faciles à valider et à auditer qu’un réseau neuronal. La mauvaise nouvelle, c’est qu’ils peuvent être plus instables que les autres prédicteurs de décision.
Dans l’ensemble, le machine learning présente de nombreux avantages dont les entreprises peuvent tirer parti pour gagner en efficacité, notamment le machine learning, qui identifie des schémas et des tendances dans d’énormes volumes de données, que les humains n’auraient peut-être pas pu détecter du tout. Et cette analyse nécessite peu d’intervention humaine : il suffit d’introduire le jeu de données qui vous intéresse et de laisser le système de machine learning assembler et affiner ses propres algorithmes, qui s’amélioreront continuellement grâce aux données entrées au fil du temps. Plus le modèle aura d’interactions avec les clients et les utilisateurs, plus il apprendra et plus l’expérience des consommateurs sera personnalisée.
Par contre, le machine learning nécessite de grands jeux de données d’entraînement précis et non biaisés. La règle d’or est la suivante : de mauvaises informations sont synonymes de mauvaises conclusions. La collecte de données suffisantes et la mise en place d’un système suffisamment robuste pour les traiter peuvent également épuiser les ressources.
L’apprentissage automatique peut également être sujet à des erreurs, en fonction de l’entrée. Avec un échantillon trop petit, le système pourrait produire un algorithme parfaitement logique qui serait complètement faux ou trompeur. Pour éviter de gaspiller du budget ou de déplaire aux clients, les organisations ne devraient agir en fonction des réponses que lorsque la confiance dans les résultats est élevée.
Voici quelques exemples de machine learning que vous pourriez rencontrer tous les jours :
Reconnaissance vocale : elle est également connue sous le nom de reconnaissance automatique de la parole (ASR), de reconnaissance de la parole par ordinateur ou de speech-to-text. Il s’agit d’une fonctionnalité qui utilise le traitement automatique du langage naturel (NLP) pour traiter la parole humaine dans un format écrit. De nombreux appareils mobiles intègrent la reconnaissance vocale dans leur système pour effectuer des recherches vocales (comme Siri) ou améliorez l’accessibilité pour envoyer des SMS.
Service client : les chatbots en ligne sont en train de remplacer les agents humains tout au long du parcours client, modifiant notre vision de l’engagement client sur les sites web et les plateformes de réseaux sociaux. Les chatbots répondent aux questions fréquemment posées (FAQ) sur des sujets tels que l’expédition, ou ils fournissent des conseils personnalisés, en faisant de la vente croisée de produits ou en suggérant des tailles pour les utilisateurs par exemple. Parmi les exemples, citons les agents conversationnels sur les sites de commerce électronique, les bots de messagerie, qui utilisent Slack et Facebook Messenger, ainsi que les tâches habituellement effectuées par les assistants virtuels et les assistants vocaux.
Vision par ordinateur : cette technologie d’IA permet aux ordinateurs d’extraire des informations significatives à partir d’images numériques, de vidéos et d’autres données visuelles, puis de prendre les mesures appropriées. Optimisée par les réseaux neuronaux convolutifs, la vision par ordinateur trouve des applications dans le marquage des photos sur les réseaux sociaux, l’imagerie radiologique dans le domaine de la santé et les voitures autonomes dans le secteur automobile.
Moteurs de recommandation : en utilisant les données sur les comportements de consommation passés, les algorithmes d’IA peuvent permettre de découvrir des tendances de données qui peuvent être utilisées pour définir des stratégies de vente croisée plus efficaces. Les moteurs de recommandation sont utilisés par les détaillants en ligne pour faire des recommandations de produits pertinentes aux clients pendant le processus de paiement.
Automatisation robotisée des processus (RPA) : également connue sous le nom de robotique logicielle, la RPA utilise des technologies d’automatisation intelligente pour effectuer des tâches manuelles répétitives.
Trading automatique : conçues pour optimiser les portefeuilles d’actions, les plateformes de négociation à haute fréquence optimisées par l’IA effectuent des milliers, voire des millions de transactions par jour sans aucune intervention humaine.
Détection des fraudes : les banques et autres institutions financières peuvent utiliser le machine learning pour repérer les transactions suspectes. L’apprentissage supervisé permet d’entraîner un modèle à l’aide d’informations relatives à des transactions frauduleuses connues. La détection des anomalies permet d’identifier des transactions qui semblent atypiques et nécessitent un examen plus approfondi.
À mesure que la technologie du machine learning s’est développée, elle nous a certainement facilité la vie. Cependant, la mise en œuvre du machine learning dans les entreprises a également soulevé un certain nombre de préoccupations éthiques concernant les technologies d’IA. En voici quelques-uns :
Bien que ce sujet suscite beaucoup d’attention du public, de nombreux chercheurs ne sont pas préoccupés par l’idée que l’IA surpasse l’intelligence humaine dans un avenir proche. La singularité technologique est également appelée IA forte ou superintelligence. Le philosophe Nick Bostrum définit la superintelligence comme « toute intelligence qui surpasse largement les meilleurs cerveaux humains dans pratiquement tous les domaines, y compris la créativité scientifique, la sagesse générale et les compétences sociales ».
Malgré le fait que la superintelligence n’est pas imminente dans la société, l’idée de celle-ci soulève des questions intéressantes lorsque nous envisageons l’utilisation de systèmes autonomes, comme les voitures autonomes. Il est irréaliste de penser qu’une voiture autonome n’aura jamais d’accident, mais qui est responsable dans de telles circonstances ? Devons-nous continuer à développer des véhicules autonomes, ou devons-nous limiter cette technologie aux véhicules semi-autonomes qui aident les gens à conduire en toute sécurité ? Cette question fait toujours l’objet de débats, mais il s’agit là de débats éthiques qui se produisent inévitablement au fur et à mesure que de nouvelles technologies d’IA innovantes se développent.
Bien que la perception de l’intelligence artificielle dans le public soit largement axée sur les pertes d’emplois, cette préoccupation devrait probablement être reformulée. Avec chaque nouvelle technologie disruptive, nous constatons que la demande du marché pour des rôles professionnels spécifiques évolue. Par exemple, dans l’industrie automobile, de nombreux fabricants, comme GM, se concentrent sur la production de véhicules électriques pour s’aligner sur les initiatives écologiques. Le secteur de l’énergie ne disparaît pas, mais la source d’énergie passe d’une économie de carburant à une source d’énergie électrique.
De la même manière, l’intelligence artificielle déplacera la demande d’emploi vers d’autres domaines. Des personnes devront être en mesure de gérer les systèmes d’IA. Dans les secteurs les plus susceptibles d’être touchés par l’évolution de la demande d’emploi, comme le service client, il faudra encore des personnes capables de résoudre des problèmes plus complexes. Le plus grand défi de l’intelligence artificielle et de son effet sur le marché du travail sera d’aider les gens à s’adapter aux nouveaux rôles qui sont en demande.
La confidentialité des données est généralement abordée dans le contexte de la confidentialité, de la protection et de la sécurité des données. Ces dernières années, ces préoccupations ont permis aux décideurs politiques de faire plus de progrès. Par exemple, en 2016, la législation RGPD a été créée pour protéger les données personnelles des personnes de l’Union européenne et de l’Espace économique européen, donnant aux individus plus de contrôle sur leurs données. Aux États-Unis, les États ont élaboré des politiques, comme la loi sur la protection des données personnelles du consommateur en Californie (CCPA), qui a été introduite en 2018 et oblige les entreprises à informer les consommateurs de la collecte de leurs données. De telles législations ont contraint les entreprises à repenser la façon dont elles stockent et utilisent les données personnelles (PII). Par conséquent, les investissements dans la sécurité sont devenus une priorité croissante pour les entreprises qui cherchent à éliminer les vulnérabilités et les possibilités de surveillance, de piratage et de cyberattaques.
Les phénomènes de biais et de discrimination dans un certain nombre de systèmes de machine learning soulèvent de nombreuses questions éthiques concernant l’utilisation de l’intelligence artificielle. Comment pouvons-nous nous prémunir contre les biais et la discrimination lorsque les données d’apprentissage elles-mêmes peuvent être générées par des processus humains biaisés ? Alors que les entreprises ont généralement de bonnes intentions lorsqu’elles mettent en place des initiatives d’automatisation, Reuters2 met en évidence certaines des conséquences imprévues de l’intégration de l’IA dans les pratiques de recrutement. Dans ses efforts pour automatiser et simplifier un processus, Amazon a involontairement discriminé les candidats sur la base de leur sexe pour des postes techniques, et l’entreprise a finalement dû abandonner le projet. La Harvard Business Review3 a soulevé d’autres questions importantes sur l’utilisation de l’IA dans les pratiques de recrutement, telles que les données que vous devriez pouvoir utiliser lors de l’évaluation d’un candidat pour un poste.
Les préjugés et la discrimination ne se limitent pas non plus à la fonction des ressources humaines. On les trouve dans de nombreuses applications, des logiciels de reconnaissance faciale aux algorithmes de réseaux sociaux.
De plus en plus conscientes des risques liés à l’IA, les entreprises sont également devenues plus actives dans le débat sur l’éthique et les valeurs de l’IA. Par exemple, IBM a mis fin à ses produits de reconnaissance faciale et d’analyse à usage général. Le PDG d’IBM, Arvind Krishna, a écrit : « IBM s’oppose fermement et ne tolérera aucune utilisation de toute technologie, y compris la technologie de reconnaissance faciale proposée par d’autres fournisseurs, à des fins de surveillance de masse, de profilage racial, de violations des droits et libertés de l’homme fondamentaux, ou à toute fin qui n’est pas conforme à nos valeurs et à nos principes de confiance et de transparence. »
Comme aucune législation significative ne réglemente les pratiques d’IA, il n’existe pas de véritable mécanisme d’application garantissant une pratique éthique de l’IA. Ce qui incite actuellement les entreprises à faire preuve d’une certaine éthique, ce sont les répercussions négatives d’un système d’IA non éthique sur leurs résultats. Pour remédier à ce problème, une collaboration entre spécialistes de l’éthique et chercheurs a donné lieu à des cadres éthiques destinés à régir le développement et la distribution des modèles d’IA dans la société. Elles ne servent toutefois pour le moment que de guides. Certaines recherches4 montrent que des responsabilités morcelées alliées à un manque de prévoyance quant aux conséquences potentielles peuvent faire du tort à la société.
La sélection d’une plateforme peut être un processus difficile, car le mauvais système peut augmenter les coûts ou limiter l’utilisation d’autres outils ou technologies précieux. Lorsque vous examinez plusieurs fournisseurs pour sélectionner une plateforme d’IA, il y a souvent une tendance à penser que plus de fonctionnalités = un meilleur système. C’est peut-être le cas, mais les examinateurs devraient commencer par réfléchir à ce que la plateforme d’AI apportera à leur organisation. Quelles sont les capacités de machine learning à fournir et quelles fonctionnalités sont importantes pour les mettre en œuvre ? Une fonctionnalité manquante pouvait réduire à néant l’utilité de tout un système. Voici quelques fonctionnalités à prendre en compte.
Capacités MLOps. Le système est-il doté des fonctionnalités suivantes ?
Capacités d’IA générative. Le système est-il doté des fonctionnalités suivantes ?
Apprenez des concepts fondamentaux et développez vos compétences grâce à des ateliers pratiques, à des cours, à des projets guidés, à des essais et à d’autres ressources.
Découvrez comment intégrer en toute confiance l’IA générative et le machine learning dans votre entreprise.
Vous voulez obtenir un meilleur retour sur vos investissements dans l’IA ? Découvrez comment la mise à l’échelle de l’IA générative dans des domaines clés favorise le changement en aidant vos meilleurs éléments à créer et à fournir de nouvelles solutions innovantes.
Découvrez comment choisir le modèle de fondation d’IA le mieux adapté à votre cas d’utilisation.
Entraînez, validez, réglez et déployez une IA générative, des modèles de fondation et des capacités de machine learning avec IBM watsonx.ai, un studio d’entreprise nouvelle génération pour les générateurs d’IA. Créez des applications d’IA en peu de temps et avec moins de données.
Mettez l’IA au service de votre entreprise en vous appuyant sur l’expertise de pointe d’IBM dans le domaine de l’IA et sur son portefeuille de solutions.
Réinventez les workflows et les opérations critiques en ajoutant l’IA pour optimiser les expériences, la prise de décision et la valeur métier en temps réel.
1 Vidéo du cours magistral Deep Learning Basics: Introduction and Overview
2 Insight - Amazon scraps secret AI recruiting tool that showed bias against women, Reuters, 10 octobre 2018
3 The Legal and Ethical Implications of Using AI in Hiring, Harvard Business Review, 25 avril 2019
4 The Ethics of AI Ethics, An Evaluation of Guidelines, Dr Thilo Hagendorff
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com