Accueil
Thèmes
Intelligence artificielle
Dernière mise à jour : 16 août 2024
Contributeurs : Cole Stryker, Eda Kavlakoglu
L’intelligence artificielle (IA) est une technologie qui permet aux ordinateurs et aux machines de simuler l’apprentissage, la compréhension, la résolution de problèmes, la prise de décision, la créativité et l’autonomie de l’être humain.
Les applications et les appareils équipés d’une IA peuvent voir et identifier les objets. Ils sont capables de comprendre le langage humain et d’y répondre. Ils peuvent tirer des enseignements de nouvelles informations et de nouvelles expériences. Ils peuvent formuler des recommandations détaillées aux utilisateurs et aux experts. Ils peuvent agir indépendamment, remplaçant ainsi l’intelligence ou l’intervention humaine (un exemple classique étant la voiture autonome).
Mais en 2024, la plupart des chercheurs et professionnels de l’IA, de même que les actualités sur ce thème, se concentrent sur les avancées de l’IA générative, une technologie capable de générer du texte, des images, des vidéos et d’autres contenus originaux. Pour bien comprendre l’IA générative, il est important de commencer par les technologies sur lesquelles sont construits les outils d’IA générative : le machine learning (ML) et l’apprentissage profond.
Découvrez comment bien choisir votre approche pour préparer vos jeux de données et employer vos modèles d’IA.
L’IA peut se définir comme une série de concepts imbriqués ou dérivés qui sont apparus au cours des 70 dernières années :
Directement issu de l’IA, nous avons le machine learning, qui consiste à créer des modèles en entraînant un algorithme à générer des prédictions ou à prendre des décisions sur la base de données. Il englobe un large éventail de techniques qui permettent aux ordinateurs d’apprendre et de faire des inférences basées sur les données sans être explicitement programmés pour des tâches spécifiques.
Il existe de nombreuses techniques ou algorithmes de machine learning, notamment la régression linéaire, la régression logistique, les decision trees, les forêts aléatoires, les machines à vecteurs de support (SVM), les k plus proches voisins (KNN), le clustering et autres méthodes. Chacune de ces approches est adaptée à différents types de problèmes et de données.
Parmi les techniques de machine learning utilisées, l’une des plus connues est le neural network (ou réseau neuronal artificiel). Les neural networks sont calqués sur la structure et le fonctionnement du cerveau humain. Ils sont constitués de couches de nœuds interconnectés (analogues aux neurones) qui fonctionnent ensemble pour traiter et analyser des données complexes. Les neural networks sont bien adaptés aux tâches qui impliquent l’identification des schémas et des relations complexes dans de grandes quantités de données.
La forme la plus simple de machine learning est l’apprentissage supervisé, qui consiste à utiliser des ensembles de données étiquetées pour entraîner des algorithmes afin de classer les données ou de prédire les résultats avec précision. Dans le cadre de l’apprentissage supervisé, des humains associent chaque exemple d’entraînement à une étiquette de sortie. L’objectif est d’apprendre au modèle à reconnaître les correspondances entre les entrées et les sorties des données d’entraînement afin qu’il puisse prédire les étiquettes des nouvelles données qu’il n’a pas encore rencontrées.
Le deep learning est une sous-catégorie du machine learning qui utilise des neural networks multicouches, appelés réseaux neuronaux profonds, qui simulent plus étroitement le pouvoir de décision complexe du cerveau humain.
Les réseaux neuronaux profonds comprennent une couche d’entrée, au moins trois, mais généralement des centaines de couches cachées, et une couche de sortie, contrairement aux neural networks utilisés dans les modèles classiques de machine learning qui ne comportent généralement qu’une ou deux couches cachées.
Ces couches multiples permettent un apprentissage non supervisé : elles peuvent automatiser l’extraction de caractéristiques à partir de vastes ensembles de données non étiquetées et non structurées, et faire leurs propres prédictions à partir des représentations de ces données.
L’apprentissage profond ne nécessitant pas d’intervention humaine, il permet de déployer le machine learning à grande échelle. Il est bien adapté au traitement automatique du langage naturel (NLP), à la vision par ordinateur et à d’autres tâches qui impliquent l’identification rapide et précise de modèles et de relations complexes dans de grandes quantités de données. Une forme ou une autre de deep learning alimente aujourd’hui la plupart des applications d’IA dans notre vie quotidienne.
L’apprentissage profond permet également :
L’IA générative, ou « Gen AI », fait référence aux modèles de deep learning capables de créer un contenu original complexe (texte long, images, vidéos ou audio réalistes et de haute qualité, etc.) en réponse aux prompts ou aux requêtes d’un utilisateur.
De manière générale, les modèles génératifs codent une représentation simplifiée de leurs données d’entraînement, puis s’appuient sur cette représentation pour produire un résultat similaire, mais non identique au modèle initial.
Les modèles génératifs sont utilisés depuis des années dans les statistiques pour analyser les données numériques. Ils ont ensuite évolué au cours de la dernière décennie de manière à pouvoir analyser et générer des types de données plus complexes. Cette évolution a coïncidé avec l’émergence de trois types de modèles de deep learning sophistiqués :
De manière générale, l’IA générative opère selon trois phases :
L’IA générative commence par un « modèle de fondation », un modèle d’apprentissage profond qui sert de base à plusieurs types différents d’applications d’IA générative.
Les modèles de fondation les plus courants actuellement sont les grands modèles de langage (LLM), créés pour les applications de génération de texte. Mais il existe également des modèles de fondation pour la génération d’images, de vidéos, d’audio ou de musique, ainsi que des modèles de fondation multimodaux qui prennent en charge plusieurs types de contenu.
Pour créer un modèle de fondation, les spécialistes entraînent un algorithme d’apprentissage profond sur d’énormes volumes de données pertinentes brutes, non structurées et non étiquetées, souvent des téraoctets ou des pétaoctets de données, issues de contenus textuels, d’images ou de vidéos provenant d’Internet. L’entraînement génère un neural network de milliards de paramètres, c’est-à-dire des représentations codées d’entités, de schémas et de relations dans les données, capable de générer du contenu de manière autonome en réponse aux prompts. C’est ainsi que se construit un modèle de fondation.
Ce processus d’entraînement exige une grande puissance de calcul, il est onéreux et prend du temps. Il demande des milliers d’unités de traitement graphique (GPU) en cluster et des semaines de traitement, ce qui coûte généralement des millions de dollars. Les projets de modèles de fondation open source, comme Llama-2 de Meta, permettent aux développeurs d’IA générative d’éviter cette étape et les coûts associés.
Ensuite, le modèle doit être adapté à une tâche spécifique de génération de contenu. Pour ce faire, diverses méthodes sont employées, notamment :
Les développeurs et les utilisateurs évaluent fréquemment les résultats de leurs applications d’IA générative et perfectionnent le modèle, parfois jusqu‘à une fois par semaine, pour augmenter la précision ou la pertinence. Le modèle de fondation est mis à jour beaucoup moins souvent, généralement tous les ans ou tous les 18 mois.
Une autre option permettant d’améliorer les performances d’une application d’IA générative est la génération augmentée de récupération (RAG), une technique qui étend le modèle de fondation en utilisant des sources pertinentes externes aux données d’entraînement afin d’affiner les paramètres et d’améliorer la précision et la pertinence.
L’IA offre de nombreux avantages dans divers secteurs et applications. Voici les plus souvent cités :
L’IA peut automatiser les tâches routinières, répétitives et souvent fastidieuses, y compris les tâches numériques telles que la collecte de données, la saisie et le prétraitement, et les tâches physiques telles que les processus de stockage et de fabrication en entrepôt. Cette automatisation permet de se concentrer sur des activités plus créatives et à plus forte valeur.
Qu’elle soit employée comme aide à la décision ou pour automatiser entièrement le processus décisionnel, l’IA permet des prédictions plus rapides et plus précises, ainsi que des décisions fiables et fondées sur les données. Combinée à l’automatisation, l’IA permet aux entreprises d’agir sur les opportunités et de répondre aux crises lorsqu’elles surviennent, en temps réel et sans intervention humaine.
L’IA peut réduire les erreurs humaines de différentes manières, qu’il s’agisse de guider les utilisateurs tout au long des étapes d’un processus, de signaler les erreurs potentielles avant qu’elles ne se produisent ou d’automatiser entièrement les processus sans intervention humaine. Ces capacités sont particulièrement importantes dans des secteurs comme la santé où, par exemple, la robotique chirurgicale pilotée par l’IA assure une précision constante.
Les algorithmes de machine learning peuvent améliorer leur précision et réduire les erreurs en continu lorsqu’ils sont exposés à davantage de données pour « apprendre » par l’expérience.
Active et disponible en permanence, l’IA offre des performances constantes. Des outils tels que les chatbots IA ou les assistants virtuels peuvent alléger les besoins en personnel du service client ou de l’assistance. Dans d’autres applications comme le traitement des matériaux ou les lignes de production, l’IA contribue à assurer la qualité des opérations et des niveaux de production constants en exécutant les tâches répétitives et laborieuses.
En automatisant les tâches dangereuses, telles que le contrôle des animaux, la manipulation des explosifs, l’exécution de tâches en eau profonde, en haute altitude ou dans l’espace, l’IA réduit les risques d’accidents et de blessures parmi le personnel. Bien qu’encore en cours de développement, les voitures autonomes et autres véhicules de ce type permettent de réduire le risque de blessures des passagers.
Les applications concrètes de l’IA sont nombreuses. Voici quelques exemples de cas d’utilisation dans divers secteurs d’activité qui montrent son potentiel :
Les entreprises peuvent mettre en œuvre des chatbots et des assistants virtuels alimentés par l’IA pour traiter les demandes des clients, les tickets d’assistance et autres activités. Ces outils utilisent des capacités de traitement automatique du langage naturel (NLP) et d’IA générative pour comprendre les questions des clients concernant l’état des commandes, les détails des produits et les politiques de retour, et y répondre.
Les chatbots et les assistants virtuels permettent de proposer une assistance permanente, accélèrent les délais de réponses aux questions fréquemment posées (FAQ), libèrent les agents humains au bénéfice de tâches plus importantes et offrent aux clients un service plus rapide et plus cohérent.
Les algorithmes de machine learning et d’apprentissage profond peuvent analyser les modèles de transaction et signaler les anomalies, telles que des dépenses inhabituelles ou des emplacements de connexion pouvant indiquer des transactions frauduleuses. Les organisations peuvent ainsi réagir plus rapidement aux fraudes potentielles et en limiter l’impact, ce qui leur procure, ainsi qu’à leurs clients, une plus grande tranquillité d’esprit.
Les détaillants, les banques et d’autres entreprises en contact avec les clients peuvent utiliser l’IA pour créer des expériences client personnalisées et des campagnes marketing attractives qui améliorent les ventes et préviennent l’attrition. En s’appuyant sur les données issues de l’historique et des comportements d’achat des clients, les algorithmes de deep learning peuvent recommander des produits et des services susceptibles de les intéresser, et même générer des textes personnalisés et des offres spéciales en temps réel.
Les plateformes de recrutement pilotées par l’IA peuvent rationaliser le recrutement en se chargeant de la présélection des CV, de la mise en correspondance des candidats avec les descriptions de poste, voire des entretiens préliminaires par analyse vidéo. Ces outils et d’autres peuvent réduire considérablement la montagne de paperasse administrative liée au traitement d’un grand nombre de candidatures. Ils permettent également de réduire les temps de réponse et les délais d’embauche, améliorant ainsi l’expérience des candidats, qu’ils obtiennent le poste ou non.
Les outils de génération de code et d’automatisation de l’IA générative peuvent rationaliser les tâches répétitive de codage associées au développement d’applications, et accélérer la migration et la modernisation (reformatage et replatforming) à grande échelle des applications existantes. Ces outils accélèrent les tâches, garantissent la cohérence du code et réduisent les erreurs.
Les modèles de machine learning peuvent analyser les données des capteurs, des appareils de l’Internet des objets (IdO) et de la technologie opérationnelle (OT) pour prévoir à quel moment une maintenance sera nécessaire et prédire les pannes des équipements avant qu’elles ne se produisent. La maintenance préventive alimentée par l’IA permet d’éviter les temps d’arrêt et d’anticiper les perturbations de la chaîne d’approvisionnement avant qu’elles n’affectent les résultats.
Les organisations se démènent pour tirer parti des dernières technologies d’IA et capitaliser sur leurs nombreux avantages. Ces efforts sont justifiés, mais l’adoption et la gestion des workflows d’IA ne sont pas sans risques et présentent certaines difficultés.
Les systèmes d’IA s’appuient sur des ensembles de données qui peuvent être vulnérables à l’empoisonnement des données, à la falsification des données, à la partialité des données ou aux cyberattaques à l’origine de violations de données. Pour atténuer ces risques, les organisations doivent protéger l’intégrité des données en assurant leur sécurité et leur disponibilité tout au long du cycle de vie de l’IA, du développement et de l’entraînement jusqu’au déploiement et après le déploiement.
Les acteurs de la menace peuvent cibler les modèles d’IA à des fins de vol, d’ingénierie inverse ou de manipulation non autorisée. Les pirates peuvent compromettre l’intégrité d’un modèle en altérant son architecture, ses poids ou ses paramètres, les composants clés qui déterminent le comportement, la précision et les performances d’un modèle.
Comme toutes les technologies, les modèles sont sujets aux risques opérationnels tels que la dérive de modèle, les biais et les dégradations de la structure de gouvernance. S’ils ne sont pas pris en compte, ces risques peuvent entraîner des défaillances du système et des vulnérabilités de cybersécurité que les acteurs de la menace peuvent exploiter.
À défaut de privilégier la sécurité et l’éthique lors du développement et du déploiement de systèmes d’IA, les organisations risquent de porter atteinte à la vie privée et de produire des résultats biaisés. Par exemple, les données d’entraînement biaisées utilisées pour les décisions d’embauche peuvent renforcer les stéréotypes sexistes ou raciaux et créer des modèles IA qui favorisent certains groupes démographiques par rapport à d’autres.
L’éthique de l’IA est un domaine pluridisciplinaire qui étudie comment optimiser l’impact bénéfique de l’IA tout en réduisant ses risques et ses effets indésirables. Les principes d’éthique de l’IA sont appliqués en faisant appel à un système de gouvernance de l’IA composé de garde-fous qui permettent de garantir la sécurité et l’éthique des outils et systèmes d’IA.
La gouvernance de l’IA englobe des mécanismes de surveillance des risques. Une approche éthique de la gouvernance de l’IA implique un large éventail de parties prenantes, dont des développeurs, utilisateurs, décideurs politiques et éthiciens. Tous contribuent à garantir un développement et une utilisation de systèmes liés à l’IA respectueux des valeurs de la société.
Voici les valeurs communes associées à l’éthique de l’IA et à l’IA responsable :
A mesure que l’IA se perfectionne, la tâche consistant à comprendre et à retracer comment l’algorithme est parvenu à tel ou tel résultat se complique. Pour y parvenir, l’IA explicable fournit un ensemble de processus et de méthodes qui permettent aux utilisateurs humains d’interpréter, de comprendre et d’évaluer la fiabilité des résultats produits par les algorithmes.
Bien que le machine learning soit, de par sa nature même, une forme de discrimination statistique, celle-ci devient répréhensible lorsqu’elle place des groupes privilégiés dans une situation d’avantage systématique et d’autres moins privilégiés dans une situation de désavantage systématique, ce qui peut entraîner divers préjudices. Pour favoriser l’équité, les professionnels peuvent tenter de minimiser les biais algorithmiques dans la collecte des données et la conception des modèles, et de constituer des équipes plus diversifiées et inclusives.
L’IA robuste gère efficacement les conditions exceptionnelles, telles que les anomalies en entrée ou les attaques malveillantes, sans causer de dommages non intentionnels. Elle est également conçue pour résister aux interférences intentionnelles et non intentionnelles en protégeant contre les vulnérabilités exposées.
Les organisations doivent mettre en place des structures claires de responsabilités et de gouvernance pour le développement, le déploiement et les résultats des systèmes d’IA.
De plus, les utilisateurs doivent être en mesure de voir comment fonctionne un service d’IA, d’en évaluer les fonctionnalités et de comprendre ses forces et ses limites. Une transparence accrue permet aux consommateurs d’IA de mieux comprendre comment le modèle ou le service d’IA a été élaboré.
De nombreux cadres réglementaires, y compris le RGPD, exigent que les organisations respectent certains principes de confidentialité lors du traitement d’informations personnelles. Il est essentiel de pouvoir protéger les modèles IA susceptibles de contenir des informations personnelles, de contrôler les données initiales qui alimentent le modèle et de créer des systèmes adaptables capables de suivre l’évolution des réglementations et du positionnement à l’égard de l’éthique de l’IA.
Afin de contextualiser l’utilisation de l’IA à différents niveaux de complexité et de sophistication, les chercheurs ont défini plusieurs types d’IA qui se réfèrent à leur niveau de sophistication :
IA faible : également connue sous le nom d’« IA étroite », elle définit les systèmes d’IA conçus pour effectuer une tâche spécifique ou un ensemble de tâches. Il peut s’agir par exemple d’applications d’assistants vocaux « intelligents » comme Alexa d’Amazon ou Siri d’Apple, d’un chatbot sur les réseaux sociaux ou des véhicules autonomes annoncés par Tesla.
IA forte : également appelée « intelligence artificielle générale » (IAG) ou « IA générale », elle possède la capacité de comprendre, d’apprendre et d’appliquer des connaissances à un large éventail de tâches à un niveau égal ou supérieur à l’intelligence humaine. Cependant, ce niveau d’IA est actuellement théorique et aucun système d’IA connu n’atteint ce niveau de sophistication. Par ailleurs, les chercheurs affirment que, si l’IAG est possible, elle nécessitera une augmentation considérable de la puissance de calcul. Quoi qu’il en soit, malgré les récents progrès de son développement, l’IA consciente d’elle-même relève jusqu’à présent du domaine de la science-fiction.
L’idée d’une « machine qui pense » remonte à la Grèce antique. Mais depuis l’avènement de l’informatique (et par rapport à certains des sujets abordés dans cet article), les événements et les étapes importants de l’évolution de l’intelligence artificielle sont :
Le studio d’IA IBM watsonx.ai fait partie de la plateforme d’IA et de données IBM watsonx qui rassemble de nouvelles capacités d’IA générative, alimentées par des modèles de fondation et de machine learning (ML) traditionnel dans un puissant studio couvrant le cycle de vie de l’IA.
Mettez l’IA au service de votre entreprise grâce à l’expertise de pointe d’IBM en matière d’IA et à son portefeuille de solutions.
Réinventez les workflows et les opérations critiques en ajoutant l’IA pour optimiser les expériences, la prise de décision et la valeur métier en temps réel.
L’IA révolutionne la cybersécurité en analysant d’énormes volumes de données sur les risques afin de réduire les temps de réponse et de renforcer la sécurité des opérations, même quand les ressources se font rares.
Dirigé par des leaders d’opinion IBM, le programme a pour but d’aider les chefs d’entreprise à acquérir les connaissances nécessaires qui leur permettront d’orienter leurs investissements IA vers les opportunités les plus prometteuses.
Accédez à notre catalogue complet de plus de 100 cours en ligne en achetant dès aujourd’hui un abonnement de formation numérique individuel ou multi-utilisateurs qui vous permettra d’étendre vos compétences sur certains de nos produits à un prix avantageux.
IBM watsonx Assistant reçoit le prix Customer Choice de Gartner dans son rapport Peer Insights Voice of the Customer 2023 consacré aux plateformes d’IA conversationnelle pour les entreprises.
Découvrez comment le machine learning peut prédire la demande et réduire les coûts.
2024 s‘annonce comme une année déterminante pour l’avenir de l’IA, les chercheurs et les entreprises cherchant à établir comment intégrer de façon concrète ce saut technologique dans notre vie quotidienne.
Entré en vigueur le 1er août 2024, le règlement de l’Union européenne sur l’IA est l’une des premières réglementations en matière d’intelligence artificielle à être adoptée dans l’un des plus grands marchés du monde. Quels seront les changements pour les entreprises ?