Accueil les sujets Machine Learning Qu’est-ce que le machine learning (ML) ?
Découvrir la solution de machine learning d’IBM S’abonner aux actualités de l’IA
Illustration montrant des ressources introduites dans une machine
Machine learning vs apprentissage profond vs réseaux neuronaux

L’apprentissage profond et le machine learning ayant tendance à être utilisés de manière interchangeable, il est bon de noter les nuances existant entre les deux. Le machine learning, l’apprentissage profond et les réseaux neuronaux sont tous des sous-domaines de l’intelligence artificielle. Cependant, les réseaux neuronaux sont en fait un sous-domaine du machine learning, tandis que l’apprentissage profond est un sous-domaine des réseaux neuronaux.

La différence entre le deep learning et le machine learning réside dans la manière dont chaque algorithme apprend. Le machine learning « profond » (ou deep learning) peut s’appuyer sur des jeux de données étiquetés, également connus sous le nom d’apprentissage supervisé, pour informer son algorithme, mais il n’a pas nécessairement besoin de ce jeu de données. Le processus d’apprentissage profond peut ingérer des données non structurées sous leur forme brute (comme du texte ou des images) et déterminer automatiquement l’ensemble des fonctionnalités qui distinguent différentes catégories de données les unes des autres. Cela permet d’éliminer une partie de l’intervention humaine nécessaire et d’utiliser des ensembles de données plus volumineux. On peut considérer le deep learning comme un « machine learning évolutif », comme le note Lex Fridman dans cette conférence du MIT (lien externe à ibm.com).

Le machine learning classique, ou « non profond », nécessite davantage l’intervention humaine pour l’apprentissage. Les experts humains déterminent le jeu des fonctionnalités pour comprendre les différences entre les entrées de données, ce qui nécessite généralement des données plus structurées pour l’apprentissage.

Les réseaux neuronaux, ou réseaux de neurones artificiels (ANN), sont constitués de couches de nœuds contenant une couche d’entrée, une ou plusieurs couches cachées et une couche de sortie. Chaque nœud, ou neurone artificiel, se connecte à un autre et possède un poids et un seuil associés. Si la sortie d’un nœud individuel est supérieure à la valeur de seuil spécifiée, ce nœud est activé, envoyant les données à la couche suivante du réseau. Dans le cas contraire, aucune donnée n’est transmise à la couche suivante à la couche suivante. Le terme « profond » dans l’apprentissage profond fait simplement référence à la profondeur des couches d’un réseau neuronal. Un réseau neuronal composé de plus de trois couches, qui incluraient les entrées et les sorties, peut être considéré comme un algorithme d’apprentissage profond ou un réseau neuronal profond. Un réseau neuronal qui ne comporte que trois couches n’est qu’un réseau neuronal de base.

On attribue au deep learning et aux réseaux neuronaux l’accélération des progrès dans des domaines tels que la vision par ordinateur, le traitement automatique du langage naturel et la reconnaissance vocale.

Voir l’article de blog « IA, machine learning, apprentissage profond et réseaux neuronaux : quelles différences ? » pour un examen plus profond des liens entre ces différents concepts.

Contenu connexe

Découvrir la démo interactive de watsonx.ai

Télécharger « Le machine learning pour les nuls »

Découvrir Gen AI pour les développeurs

Méthodes de machine learning

Les modèles de machine learning se répartissent en trois catégories principales.

Machine learning supervisé            

L’apprentissage supervisé, également connu sous le nom de machine learning supervisé, est défini par l’utilisation de jeux de données étiquetés pour entraîner des algorithmes à classer les données ou à prédire les résultats avec précision. Au fur et à mesure que les données d’entrée sont introduites dans le modèle, celui-ci ajuste ses pondérations jusqu’à ce qu’elles soient ajustées de manière appropriée. Cela se produit dans le cadre du processus de validation croisée pour s’assurer que le modèle évite le sur-ajustement ou le sous-ajustement. L’apprentissage supervisé permet aux entreprises de résoudre divers problèmes à l’échelle, comme le classement du courrier indésirable dans un dossier autre que leur boîte de réception. Parmi les méthodes utilisées dans l’apprentissage supervisé, citons les réseaux neuronaux, le bayes naïfs, la régression linéaire, la régression logistique, la forêt aléatoire et la machine à vecteurs de support (SVM).

Machine learning non supervisé

L’apprentissage non supervisé, également connu sous le nom de machine learning non supervisé, utilise des algorithmes de machine learning pour analyser et regrouper des jeux de données non étiquetées (sous-ensembles appelés clusters). Ces algorithmes découvrent des modèles ou des groupes de données cachés sans intervention humaine. La capacité de cette méthode à découvrir des similitudes et des différences dans les informations la rend idéale pour l’analyse exploratoire des données, les stratégies de vente croisée, la segmentation des clients et la reconnaissance d’images et de modèles. Elle permet également de réduire le nombre de fonctionnalités dans un modèle grâce au processus de réduction de la dimensionnalité. L’analyse en composantes principales (ACP) et la décomposition en valeurs singulières (SVD) sont deux approches courantes à cet effet. Parmi les autres algorithmes utilisés dans l’apprentissage non supervisé, citons les réseaux neuronaux, le partitionnement en k-moyennes et les méthodes de partitionnement probabilistes.

Apprentissage semi-supervisé 

L’apprentissage semi-supervisé offre un juste milieu entre l’apprentissage supervisé et l’apprentissage non supervisé. Pendant la formation, il utilise un jeu de données étiquetées plus petit pour guider la classification et l’extraction de fonctionnalités à partir d’un jeu de données plus grand et non étiqueté. L’apprentissage semi-supervisé peut résoudre le problème du manque de données étiquetées pour un algorithme d’apprentissage supervisé. Cela aide également s’il est trop coûteux d’étiqueter suffisamment de données. 

Pour une analyse approfondie des différences entre ces approches, consultez « Apprentissage supervisé et non supervisé : quelle est la différence ? »

Machine learning par renforcement

Le machine learning par renforcement est un modèle de machine learning similaire à l’apprentissage supervisé, mais l’algorithme n’est pas entraîné à l’aide d’exemples de données. Ce modèle apprend au fur et à mesure en procédant par essais et erreurs. Une séquence de résultats positifs sera renforcée afin d’élaborer la meilleure recommandation ou politique pour un problème donné.

Le système IBM Watson qui a remporté le concours Jeopardy! en 2011 en est un bon exemple. Le système utilisait l’apprentissage par renforcement pour savoir quand tenter de répondre (ou de poser une question), quelle case sélectionner sur le tableau et combien miser, en particulier sur les doubles quotidiens.

En savoir plus sur l’apprentissage par renforcement      

Algorithmes de machine learning courants

Un certain nombre d’algorithmes de machine learning sont couramment utilisés. On trouve notamment :

  • Réseaux neuronaux : les réseaux neuronaux simulent le fonctionnement du cerveau humain, avec un grand nombre de nœuds de traitement liés. Les réseaux neuronaux sont efficaces pour reconnaître des modèles et jouent un rôle important dans des applications telles que la traduction en langage naturel, la reconnaissance d’images, la reconnaissance vocale et la création d’images.
  • Régression linéaire : cet algorithme permet de prédire des valeurs numériques, en fonction d’une relation linéaire entre différentes valeurs. Par exemple, la technique pourrait être utilisée pour prévoir les prix de l’immobilier sur la base de données historiques de la région.
  • Régression logistique : cet algorithme d’apprentissage supervisé effectue des prédictions pour les variables de réponse catégorielles, telles que les réponses « oui/non » aux questions. Il peut notamment être utilisé pour la classification du spam et le contrôle qualité sur une ligne de production.
  • Partitionnement : grâce à l’apprentissage non supervisé, les algorithmes de partitionnement peuvent identifier des modèles dans les données afin de les regrouper. Les ordinateurs aident les data scientists à identifier les différences entre des éléments de données que les humains n’ont pas remarquées.
  • Decision trees : les decision trees peuvent être utilisés à la fois pour prédire des valeurs numériques (régression) et classer les données en catégories. Les decision trees utilisent une séquence ramifiée de décisions liées qui peut être représentée par un diagramme arborescent. Les decision trees ont l’avantage d’être faciles à valider et à auditer, contrairement à la boîte noire des réseaux neuronaux.
  • Forêt d’arbres décisionnels : cet algorithme de machine learning prédit une valeur ou une catégorie en combinant les résultats d’un certain nombre de decision trees.
Avantages et inconvénients des algorithmes de machine learning 

Selon vos exigences en termes de budget, de vitesse et de niveau de précision, chaque type d’algorithme (supervisé, non supervisé, semi-supervisé ou renforcé) présente ses avantages et ses inconvénients. Par exemple, les algorithmes de decision trees sont utilisés à la fois pour prédire des valeurs numériques (problèmes de régression) et pour classer les données en catégories. Les decision trees utilisent une séquence ramifiée de décisions liées qui peut être représentée par un diagramme arborescent. L’un de leurs principaux avantages est qu’ils sont plus faciles à valider et à auditer qu’un réseau neuronal. La mauvaise nouvelle, c’est qu’ils peuvent être plus instables que les autres prédicteurs de décision. 

Dans l’ensemble, le machine learning présente de nombreux avantages dont les entreprises peuvent tirer parti pour gagner en efficacité, notamment le machine learning, qui identifie des modèles et des tendances dans d’énormes volumes de données que les humains pourraient ne pas détecter du tout. Et cette analyse nécessite peu d’intervention humaine : il suffit d’introduire le jeu de données qui vous intéresse et de laisser le système de machine learning assembler et affiner ses propres algorithmes, qui s’amélioreront continuellement grâce à la saisie de plus en plus de données au fil du temps. Les clients et les utilisateurs peuvent profiter d’une expérience plus personnalisée à mesure que le modèle en apprend davantage à chaque expérience avec cette personne.

En revanche, le machine learning nécessite de grands jeux de données d’entraînement précis et impartiaux. GIGO est le facteur déterminant : garbage in / garbage out. La collecte de données suffisantes et la mise en place d’un système suffisamment robuste pour les faire fonctionner peuvent également épuiser les ressources. L’apprentissage automatique peut également être sujet à des erreurs, en fonction de l’entrée. Avec un échantillon trop petit, le système pourrait produire un algorithme parfaitement logique qui serait complètement faux ou trompeur. Pour éviter de gaspiller du budget ou de déplaire aux clients, les organisations ne devraient agir en fonction des réponses que lorsque la confiance dans les résultats est élevée.

Cas d’utilisation réels du machine learning

Voici quelques exemples de machine learning que vous pourriez rencontrer tous les jours :

Reconnaissance vocale : elle est également connue sous le nom de reconnaissance automatique de la parole (ASR), de reconnaissance de la parole par ordinateur ou de speech-to-text. Il s’agit d’une fonctionnalité qui utilise le traitement automatique du langage naturel (NLP) pour traiter la parole humaine dans un format écrit. De nombreux appareils mobiles intègrent la reconnaissance vocale dans leur système pour effectuer des recherches vocales (comme Siri) ou améliorez l’accessibilité pour envoyer des SMS.

Service client : les chatbots en ligne remplacent les agents humains tout au long du parcours client, modifiant notre façon d’envisager l’engagement client sur les sites web et les plateformes de réseaux sociaux. Les chatbots répondent aux questions fréquemment posées (FAQ) sur des sujets tels que l’expédition ou fournissent des conseils personnalisés, en faisant de la vente croisée de produits ou en suggérant des tailles pour les utilisateurs. Parmi les exemples, citons les agents conversationnels sur les sites de commerce électronique, les bots de messagerie, qui utilisent Slack et Facebook Messenger, ainsi que les tâches habituellement effectuées par les assistants virtuels et les assistants vocaux.

Vision par ordinateur : cette technologie d’IA permet aux ordinateurs d’extraire des informations significatives à partir d’images numériques, de vidéos et d’autres données visuelles, puis de prendre les mesures appropriées. Optimisée par les réseaux neuronaux convolutifs, la vision par ordinateur trouve des applications dans le marquage des photos dans les réseaux sociaux, l’imagerie radiologique dans le secteur de la santé et les voitures autonomes dans le secteur automobile. 

Moteurs de recommandation : en utilisant les données sur les comportements de consommation passés, les algorithmes d’IA peuvent permettre de découvrir des tendances de données qui peuvent être utilisées pour définir des stratégies de vente croisée plus efficaces. Les moteurs de recommandation sont utilisés par les détaillants en ligne pour faire des recommandations de produits pertinentes aux clients pendant le processus de paiement.

Automatisation robotisée des processus (RPA) : également connue sous le nom de robotique logicielle, la RPA utilise des technologies d’automatisation intelligente pour effectuer des tâches manuelles répétitives.

Trading automatique : conçues pour optimiser les portefeuilles d’actions, les plateformes de négociation à haute fréquence optimisées par l’IA effectuent des milliers, voire des millions de transactions par jour sans aucune intervention humaine.

Détection des fraudes : les banques et autres institutions financières peuvent utiliser le machine learning pour repérer les transactions suspectes. L’apprentissage supervisé permet d’entraîner un modèle à l’aide d’informations relatives à des transactions frauduleuses connues. La détection des anomalies permet d’identifier des transactions qui semblent atypiques et nécessitent un examen plus approfondi.

Les défis du machine learning

À mesure que la technologie du machine learning s’est développée, elle nous a certainement facilité la vie. Cependant, la mise en œuvre du machine learning dans les entreprises a également soulevé un certain nombre de préoccupations éthiques concernant les technologies d’IA. En voici quelques-unes :

Singularité technologique

Bien que ce sujet suscite beaucoup d’attention du public, de nombreux chercheurs ne sont pas préoccupés par l’idée que l’IA surpasse l’intelligence humaine dans un avenir proche. La singularité technologique est également appelée IA forte ou superintelligence. Le philosophe Nick Bostrum définit la superintelligence comme « toute intelligence qui surpasse largement les meilleurs cerveaux humains dans pratiquement tous les domaines, y compris la créativité scientifique, la sagesse générale et les compétences sociales ». Malgré le fait que la superintelligence n’est pas imminente dans la société, l’idée de celle-ci soulève des questions intéressantes lorsque nous envisageons l’utilisation de systèmes autonomes, comme les voitures autonomes. Il est irréaliste de penser qu’une voiture autonome n’aura jamais d’accident, mais qui est responsable dans de telles circonstances ? Devons-nous continuer à développer des véhicules autonomes, ou devons-nous limiter cette technologie aux véhicules semi-autonomes qui aident les gens à conduire en toute sécurité ? Cette question fait toujours l’objet de débats, mais c’est le genre de débats éthiques qui se produisent au fur et à mesure que de nouvelles technologies IA innovantes se développent.

Impact de l’IA sur les emplois

Bien que la perception de l’intelligence artificielle dans le public soit largement axée sur les pertes d’emplois, cette préoccupation devrait probablement être reformulée. Avec chaque nouvelle technologie disruptive, nous constatons que la demande du marché pour des rôles professionnels spécifiques évolue. Par exemple, dans l’industrie automobile, de nombreux fabricants, comme GM, se concentrent sur la production de véhicules électriques pour s’aligner sur les initiatives écologiques. Le secteur de l’énergie ne disparaît pas, mais la source d’énergie passe d’une économie de carburant à une source d’énergie électrique.

De la même manière, l’intelligence artificielle déplacera la demande d’emploi vers d’autres domaines. Des personnes devront être en mesure de gérer les systèmes d’IA. Dans les secteurs les plus susceptibles d’être touchés par l’évolution de la demande d’emploi, comme le service client, il faudra encore des personnes capables de résoudre des problèmes plus complexes. Le plus grand défi de l’intelligence artificielle et de son effet sur le marché du travail sera d’aider les gens à s’adapter aux nouveaux rôles qui sont en demande.

Confidentialité

La confidentialité des données est généralement abordée dans le contexte de la confidentialité, de la protection et de la sécurité des données. Ces dernières années, ces préoccupations ont permis aux décideurs politiques de faire plus de progrès. Par exemple, en 2016, la législation RGPD a été créée pour protéger les données personnelles des personnes de l’Union européenne et de l’Espace économique européen, donnant aux individus plus de contrôle sur leurs données. Aux États-Unis, les États ont élaboré des politiques, comme la loi sur la protection des données personnelles du consommateur en Californie (CCPA), qui a été introduite en 2018 et oblige les entreprises à informer les consommateurs de la collecte de leurs données. De telles législations ont contraint les entreprises à repenser la façon dont elles stockent et utilisent les données personnelles (PII). Par conséquent, les investissements dans la sécurité sont devenus une priorité croissante pour les entreprises qui cherchent à éliminer les vulnérabilités et les possibilités de surveillance, de piratage et de cyberattaques.

Préjugés et discrimination

Les cas de préjugés et de discrimination dans un certain nombre de systèmes de machine learning ont soulevé de nombreuses questions éthiques concernant l’utilisation de l’intelligence artificielle. Comment pouvons-nous nous prémunir contre les préjugés et la discrimination lorsque les données de formation elles-mêmes peuvent être générées par des processus humains biaisés ? Alors que les entreprises ont généralement de bonnes intentions dans leurs efforts d’automatisation, Reuters (lien externe à ibm.com) souligne certaines des conséquences imprévues de l’intégration de l’IA dans les pratiques de recrutement. Dans ses efforts pour automatiser et simplifier un processus, Amazon a involontairement discriminé les candidats en fonction de leur sexe pour les postes techniques et l’entreprise a finalement dû abandonner le projet. Harvard Business Review (lien externe à ibm.com) a soulevé d’autres questions pointues sur l’utilisation de l’IA dans les pratiques de recrutement, telles que les données que vous devriez pouvoir utiliser lors de l’évaluation d’un candidat pour un poste.

Les préjugés et la discrimination ne se limitent pas non plus à la fonction des ressources humaines. On les trouve dans de nombreuses applications, des logiciels de reconnaissance faciale aux algorithmes de réseaux sociaux.

De plus en plus conscientes des risques liés à l’IA, les entreprises sont également devenues plus actives dans le débat sur l’éthique et les valeurs de l’IA. Par exemple, IBM a mis fin à ses produits de reconnaissance faciale et d’analyse à usage général. Le PDG d’IBM, Arvind Krishna, a écrit : « IBM s’oppose fermement et ne tolérera aucune utilisation de toute technologie, y compris la technologie de reconnaissance faciale proposée par d’autres fournisseurs, à des fins de surveillance de masse, de profilage racial, de violations des droits et libertés de l’homme fondamentaux, ou à toute fin qui n’est pas conforme à nos valeurs et à nos principes de confiance et de transparence. »

Responsabilité

Comme il n’existe pas de législation significative pour réglementer les pratiques d’IA, il n’y a pas de véritable mécanisme d’application pour garantir une pratique éthique de l’IA. Ce qui incite actuellement les entreprises à être éthiques, ce sont les répercussions négatives d’un système d’IA non éthique sur leurs résultats. Pour combler cette lacune, des cadres éthiques sont apparus dans le cadre d’une collaboration entre spécialistes de l’éthique et chercheurs afin de régir la construction et la distribution de modèles IA au sein de la société. Toutefois, pour l’instant, elles ne servent que de guide. Certaines recherches (lien externe à ibm.com) montrent que la combinaison d’une responsabilité répartie et d’un manque de prévoyance quant aux conséquences potentielles n’est pas propice à la prévention des dommages causés à la société.

En savoir plus sur la position d’IBM en matière d’éthique de l’IA

Comment choisir la bonne plateforme d’IA pour le machine learning 

La sélection d’une plateforme peut être un processus difficile, car le mauvais système peut augmenter les coûts ou limiter l’utilisation d’autres outils ou technologies précieux. Lorsque vous examinez plusieurs fournisseurs pour sélectionner une plateforme d’IA, il y a souvent une tendance à penser que plus de fonctionnalités = un meilleur système. C’est peut-être le cas, mais les examinateurs devraient commencer par réfléchir à ce que la plateforme d’AI apportera à leur organisation. Quelles sont les capacités de machine learning à fournir et quelles fonctionnalités sont importantes pour les mettre en œuvre ? Une fonctionnalité manquante pouvait réduire à néant l’utilité de tout un système. Voici quelques fonctionnalités à prendre en compte.

  • Capacités MLOps. Le système est-il doté des fonctionnalités suivantes ?
    • Une interface unifiée pour faciliter la gestion.
    • Outils de machine learning automatisés pour une création de modèles plus rapide avec des fonctionnalités low code et no code.
    • Optimisation des décisions pour rationaliser la sélection et le déploiement des modèles d’optimisation.
    • Modélisation visuelle pour combiner la science visuelle des données avec des bibliothèques open source et des interfaces basées sur des blocs-notes dans un studio unifié de données et d’IA.
    • Développement automatisé permettant aux débutants de démarrer rapidement et aux data scientists plus avancés d’expérimenter.
    • Générateur de données synthétiques comme alternative ou complément aux données du monde réel lorsque les données du monde réel ne sont pas facilement disponibles.
       
  • Capacités d’IA générative. Le système est-il doté des fonctionnalités suivantes ?
    • Générateur de contenu capable de générer du texte, des images et d’autres contenus en fonction des données sur lesquelles il a été formé.
    • Classification automatisée pour lire et classer les entrées écrites, comme l’évaluation et le tri des plaintes des clients ou l’examen de leurs commentaires.
    • Générateur de synthèse capable de transformer un texte dense en un résumé de haute qualité, de capturer les points clés des rapports financiers et de générer des transcriptions de réunions.
    • Fonctionnalité d’extraction de données permettant de trier des détails complexes et d’extraire rapidement les informations nécessaires à partir de documents volumineux.
Ressources Apprentissage pratique gratuit pour les technologies d’IA générative

Découvrez les concepts fondamentaux de l’IA et de l’IA générative, notamment le prompt engineering, les grands modèles de langage et les meilleurs projets open source.

L’IA au sein de l’entreprise, 2021 : libérer les opportunités grâce aux données

La technologie de l’IA a rapidement évolué au cours des deux dernières décennies. Découvrez comment les entreprises d’aujourd’hui mettent en œuvre l’IA.

Gartner Magic Quadrant for Data Science and Machine Learning Platforms

Découvrez les outils que les entreprises utilisent pour exécuter et gérer efficacement les modèles IA et équiper leurs data scientists des technologies qui les aident à optimiser leur prise de décision fondée sur les données.

EBook Le machine learning pour les nuls

Découvrez comment les projets de machine learning vous aident à apprendre en permanence des données et à anticiper l’avenir.

Magic Quadrant 2023 consacré aux plateformes d’IA conversationnelle d’entreprise

IBM a de nouveau été reconnu comme un leader dans le Magic Quadrant 2023 de Gartner consacré aux plateformes d’IA conversationnelle d’entreprise.

Modèles pour le machine learning

Découvrez les idées qui sous-tendent les modèles de machine learning et certains algorithmes clés utilisés pour chacun d’entre eux.

Passer à l’étape suivante

Entraînez, validez, réglez et déployez une IA générative, des modèles de fondation et des capacités de machine learning avec IBM watsonx.ai, un studio professionnel de nouvelle génération pour les générateurs d’IA. Créez des applications d’IA en peu de temps et avec moins de données.

Découvrir watsonx.ai Réserver une démo en direct