My IBM Se connecter S’abonner

Qu’est-ce que l’intelligence artificielle (IA) ?

9 août 2024

Auteurs

Cole Stryker

Editorial Lead, AI Models

Gather

Eda Kavlakoglu

Program Manager

Qu’est-ce que l’IA ? 

L’intelligence artificielle (IA) est une technologie qui permet aux ordinateurs et aux machines de simuler l’apprentissage, la compréhension, la résolution de problèmes, la prise de décision, la créativité et l’autonomie de l’être humain.

Les applications et les appareils assistés par l’IA peuvent voir et identifier les objets. Ils sont capables de comprendre le langage humain et d’y répondre. Ils peuvent tirer des enseignements de nouvelles informations et de nouvelles expériences. Ils peuvent formuler des recommandations détaillées aux utilisateurs et aux experts. Ils peuvent agir indépendamment, remplaçant ainsi l’intelligence ou l’intervention humaine (un exemple classique étant la voiture autonome). 

Mais en 2024, la plupart des chercheurs et professionnels de l’IA, de même que les actualités sur ce thème, se concentrent sur les avancées de l’IA générative, une technologie capable de générer du texte, des images, des vidéos et d’autres contenus originaux. Pour bien comprendre l’IA générative, il est important de commencer par les technologies sur lesquelles sont construits les outils d’IA générative : le machine learning (ML) et l’apprentissage profond.

 

Les dernières tendances en matière d’IA, vues par des experts

Obtenez des informations sur les actualités les plus importantes et les plus intrigantes en matière d’intelligence artificielle. Abonnez-vous à notre newsletter hebdomadaire Think. Lire la Déclaration de confidentialité d’IBM.

Merci ! Vous êtes abonné(e).

Vous recevrez votre abonnement en anglais. Vous trouverez un lien de désabonnement dans chaque newsletter. Vous pouvez gérer vos abonnements ou vous désabonner ici. Consultez la Déclaration de confidentialité d’IBM pour plus d’informations.

Machine learning

L’IA peut se définir comme une série de concepts imbriqués ou dérivés qui sont apparus au cours des 70 dernières années :

Directement issu de l’IA, nous avons le machine learning, qui consiste à créer des modèles en entraînant un algorithme à générer des prédictions ou à prendre des décisions sur la base de données. Il englobe un large éventail de techniques qui permettent aux ordinateurs d’apprendre et de faire des inférences basées sur les données sans être explicitement programmés pour des tâches spécifiques.

Il existe de nombreuses techniques ou algorithmes de machine learning, notamment la régression linéaire, la régression logistique, les decision trees, les forêts aléatoires, les machines à vecteurs de support (SVM), les k plus proches voisins (KNN) et le clustering. Chacune de ces approches est adaptée à différents types de problèmes et de données.

Parmi les techniques de machine learning utilisées, l’une des plus connues est le réseau neuronal (ou réseau neuronal artificiel). Les réseaux neuronaux sont calqués sur la structure et le fonctionnement du cerveau humain. Ils sont constitués de couches de nœuds interconnectés (analogues aux neurones) qui fonctionnent ensemble pour traiter et analyser des données complexes. Les réseaux neuronaux sont bien adaptés aux tâches qui impliquent l’identification des schémas et des relations complexes dans de grandes quantités de données.

La forme la plus simple de machine learning est l’apprentissage supervisé, qui consiste à utiliser des ensembles de données étiquetées pour entraîner des algorithmes afin de classer les données ou de prédire les résultats avec précision. Dans le cadre de l’apprentissage supervisé, des humains associent chaque exemple d’entraînement à une étiquette de sortie. L’objectif est d’apprendre au modèle à reconnaître les correspondances entre les entrées et les sorties des données d’entraînement afin qu’il puisse prédire les étiquettes des nouvelles données qu’il n’a pas encore rencontrées.

Apprentissage en profondeur

L’apprentissage profond est une sous-catégorie du machine learning qui utilise des réseaux neuronaux multicouches, appelés réseaux neuronaux profonds, qui simulent plus étroitement le pouvoir de décision complexe du cerveau humain.

Les réseaux neuronaux profonds comprennent une couche d’entrée, au moins trois, mais généralement des centaines de couches cachées, et une couche de sortie, contrairement aux réseaux neuronaux utilisés dans les modèles classiques de machine learning qui ne comportent généralement qu’une ou deux couches cachées.

Ces couches multiples permettent un apprentissage non supervisé : elles peuvent automatiser l’extraction de caractéristiques à partir de vastes jeux de données non étiquetées et non structurées, et faire leurs propres prédictions à partir des représentations de ces données.

L’apprentissage profond ne nécessitant pas d’intervention humaine, il permet de déployer le machine learning à grande échelle. Il est bien adapté au traitement automatique du langage naturel (NLP), à la vision par ordinateur et à d’autres tâches qui impliquent l’identification rapide et précise de modèles et de relations complexes dans de grandes quantités de données. Une forme ou une autre d’apprentissage profond alimente aujourd’hui la plupart des applications d’IA dans notre vie quotidienne.

L’apprentissage profond permet également :

  •  
  • L’apprentissage semi-supervisé, qui combine l’apprentissage supervisé et non supervisé en utilisant à la fois des données étiquetées et non étiquetées pour entraîner des modèles d’IA à des tâches de classification et de régression.

  •  
  • L’apprentissage autosupervisé, qui génère des étiquettes implicites à partir de données non structurées, plutôt que de s’appuyer sur des jeux de données étiquetées pour les signaux de supervision.

  •  
  • L’apprentissage par renforcement, qui apprend par essai-erreur et par fonction de récompense plutôt que par l’extraction d’informations à partir de schémas cachés.

  •  
  • L’apprentissage par transfert, dans lequel les connaissances acquises dans le cadre d’une tâche ou d’un jeu de données sont utilisées pour améliorer les performances du modèle dans une autre tâche connexe ou un ensemble de données différent.
 

IA générative

L’IA générative, ou « Gen AI », fait référence aux modèles d’apprentissage profond capables de créer un contenu original complexe (texte long, images, vidéos ou audio réalistes et de haute qualité, etc.) en réponse aux prompts ou aux requêtes d’un utilisateur.

De manière générale, les modèles génératifs codent une représentation simplifiée de leurs données d’entraînement, puis s’appuient sur cette représentation pour produire un résultat similaire, mais non identique au modèle initial.

Les modèles génératifs sont utilisés depuis des années dans les statistiques pour analyser les données numériques. Ils ont ensuite évolué au cours de la dernière décennie de manière à pouvoir analyser et générer des types de données plus complexes. Cette évolution a coïncidé avec l’émergence de trois types de modèles d’apprentissage profond sophistiqués :

  • Les autoencodeurs variationnels ou VAE, introduits en 2013, qui ont permis de créer des modèles capables de générer de multiples variantes de contenu en réponse à un prompt ou à une instruction.

  • Les modèles de diffusion, apparus pour la première fois en 2014, qui ajoutent du « bruit » aux images jusqu’à les rendre méconnaissables, puis suppriment le bruit pour générer des images originales en réponse aux instructions.

  • Lestransformeurs (également appelés modèles de transformation), qui sont entraînés sur des données séquencées pour générer des séquences étendues de contenu (telles que des mots dans des phrases, des formes dans une image, des images d’une vidéo ou des commandes dans un code logiciel). Les transformeurs sont au cœur de la plupart des outils d’IA générative qui font l’actualité aujourd’hui, tels que ChatGPT et GPT-4, Copilot, BERT, Bard et Midjourney.

 

Groupe d’experts | Podcast

Décryptage de l’IA : Tour d’horizon hebdomadaire

Rejoignez notre panel d’ingénieurs, de chercheurs, de chefs de produits et autres spécialistes de premier plan pour connaître l’essentiel de l'actualité et des dernières tendances dans le domaine de l’IA.

Fonctionnement de l’IA générative

En général, l’IA générative opère en trois phases :

  1.  La phase d’entraînement pour créer un modèle de fondation.
  2. La phase de réglage pour adapter le modèle à une application spécifique.
  3. La phase de génération, d’évaluation et de nouveau réglage pour améliorer la précision.

 

Entraînement

L’IA générative commence par un « modèle de fondation », un modèle d’apprentissage profond qui sert de base à plusieurs types différents d’applications d’IA générative.

Les modèles de fondation les plus courants actuellement sont les grands modèles de langage (LLM), créés pour les applications de génération de texte. Mais il existe également des modèles de fondation pour la génération d’images, de vidéos, d’audio ou de musique, ainsi que des modèles de fondation multimodaux qui prennent en charge plusieurs types de contenu.

Pour créer un modèle de fondation, les spécialistes entraînent un algorithme d’apprentissage profond sur d’énormes volumes de données pertinentes brutes, non structurées et non étiquetées, souvent des téraoctets ou des pétaoctets de données, issues de contenus textuels, d’images ou de vidéos provenant d’Internet. L’entraînement génère un réseau neuronal de milliards de paramètres, c’est-à-dire des représentations codées d’entités, de schémas et de relations dans les données, capable de générer du contenu de manière autonome en réponse aux prompts. C’est ainsi que se construit un modèle de fondation.

Ce processus d’entraînement exige une grande puissance de calcul ; il est onéreux et chronophage. Il demande des milliers d’unités de traitement graphique (GPU) en cluster et des semaines de traitement, ce qui coûte généralement des millions de dollars. Les projets de modèles de fondation open source, comme Llama-2 de Meta, permettent aux développeurs d’IA générative d’éviter cette étape et les coûts associés.

Ajustement

Ensuite, le modèle doit être adapté à une tâche spécifique de génération de contenu. Pour ce faire, diverses méthodes sont employées, notamment :

  • Le réglage fin, qui consiste à fournir au modèle des données étiquetées spécifiques à l’application, c’est-à-dire des questions ou des prompts que l’application est susceptible de recevoir, ainsi que les réponses correctes correspondantes dans le format souhaité.

  • L’apprentissage par renforcement à partir des commentaires humains (RLHF), dans lequel les utilisateurs évaluent l’exactitude ou la pertinence des résultats du modèle afin qu’il puisse s’améliorer de lui-même. Il peut s’agir simplement de demander à des personnes de saisir des corrections ou de répondre à un chatbot ou à un assistant virtuel.

 

Génération, évaluation et nouveau réglage

Les développeurs et les utilisateurs évaluent fréquemment les résultats de leurs applications d’IA générative et perfectionnent le modèle, parfois jusqu‘à une fois par semaine, pour augmenter la précision ou la pertinence. Le modèle de fondation est mis à jour beaucoup moins souvent, généralement tous les ans ou tous les 18 mois.

Une autre option permettant d’améliorer les performances d’une application d’IA générative est la génération augmentée de récupération (RAG), une technique qui étend le modèle de fondation en utilisant des sources pertinentes externes aux données d’entraînement afin d’affiner les paramètres et d’améliorer la précision et la pertinence.

 

Avantages de l’IA 

L’IA offre de nombreux avantages dans divers secteurs et applications. Voici les plus souvent cités :

  •  
  • Automatisation des tâches répétitives
  • Informations issues des données plus nombreuses et plus rapides
  • Amélioration de la prise de décision
  • Moins d’erreurs humaines
  • Disponibilité 24 h sur 24, 7 jours sur 7
  • Réduction des risques physiques
 

Automatisation des tâches répétitives

L’IA peut automatiser les tâches routinières, répétitives et souvent fastidieuses, y compris les tâches numériques telles que la collecte de données, la saisie et le prétraitement, et les tâches physiques telles que les processus de stockage et de fabrication en entrepôt. Cette automatisation permet de se concentrer sur des activités plus créatives et à plus forte valeur.

Prise de décision améliorée

Qu’elle soit employée comme aide à la décision ou pour automatiser entièrement le processus décisionnel, l’IA permet des prédictions plus rapides et plus précises, ainsi que des décisions fiables et fondées sur les données. Combinée à l’automatisation, l’IA permet aux entreprises d’agir sur les opportunités et de répondre aux crises lorsqu’elles surviennent, en temps réel et sans intervention humaine.

Moins d’erreurs humaines
 

L’IA peut réduire les erreurs humaines de différentes manières, qu’il s’agisse de guider les utilisateurs tout au long des étapes d’un processus, de signaler les erreurs potentielles avant qu’elles ne se produisent ou d’automatiser entièrement les processus sans intervention humaine. Ces capacités sont particulièrement importantes dans des secteurs comme la santé où, par exemple, la robotique chirurgicale pilotée par l’IA assure une précision constante.

Les algorithmes de machine learning peuvent améliorer leur précision et réduire les erreurs en continu lorsqu’ils sont exposés à davantage de données pour « apprendre » par l’expérience.

Disponibilité et cohérence 24 heures sur 24

Active et disponible en permanence, l’IA offre des performances constantes. Des outils tels que les chatbots d’IA ou les assistants virtuels peuvent alléger les besoins en personnel du service client ou du support. Dans d’autres applications comme le traitement des matériaux ou les lignes de production, l’IA contribue à assurer la qualité des opérations et des niveaux de production constants en exécutant les tâches répétitives et laborieuses.

Réduction des risques physiques

En automatisant les tâches dangereuses, telles que le contrôle des animaux, la manipulation des explosifs, l’exécution de tâches en eau profonde, en haute altitude ou dans l’espace, l’IA réduit les risques d’accidents et de blessures parmi le personnel. Bien qu’encore en cours de développement, les voitures autonomes et autres véhicules de ce type permettent de réduire le risque de blessures des passagers.

Cas d’utilisation de l’IA 

Les applications concrètes de l’IA sont nombreuses. Voici quelques exemples de cas d’utilisation dans divers secteurs d’activité qui montrent son potentiel :

Expérience client, service client et support client

Les entreprises peuvent mettre en œuvre des chatbots et des assistants virtuels alimentés par l’IA pour traiter les demandes des clients, les tickets d’assistance et autres activités. Ces outils utilisent des capacités de traitement automatique du langage naturel (NLP) et d’IA générative pour comprendre les questions des clients concernant l’état des commandes, les détails des produits et les politiques de retour, et y répondre.

Les chatbots et les assistants virtuels permettent de proposer une assistance permanente, accélèrent les délais de réponses aux questions fréquemment posées (FAQ), libèrent les agents humains au bénéfice de tâches plus importantes et offrent aux clients un service plus rapide et plus cohérent.

Détection des fraudes

Les algorithmes de machine learning et d’apprentissage profond peuvent analyser les modèles de transaction et signaler les anomalies, telles que des dépenses inhabituelles ou des emplacements de connexion pouvant indiquer des transactions frauduleuses. Les organisations peuvent ainsi réagir plus rapidement aux fraudes potentielles et en limiter l’impact, ce qui leur procure, ainsi qu’à leurs clients, une plus grande tranquillité d’esprit.

Marketing personnalisé

Les détaillants, les banques et d’autres entreprises en contact avec les clients peuvent utiliser l’IA pour créer des expériences client personnalisées et des campagnes marketing attractives qui améliorent les ventes et préviennent l’attrition. En s’appuyant sur les données issues de l’historique et des comportements d’achat des clients, les algorithmes d’apprentissage profond peuvent recommander des produits et des services susceptibles de les intéresser, et même générer des textes personnalisés et des offres spéciales en temps réel.

Ressources humaines et recrutement

Les plateformes de recrutement pilotées par l’IA peuvent rationaliser les embauches en se chargeant de la présélection des CV, de la mise en correspondance des candidats avec les descriptions de poste, voire des entretiens préliminaires par analyse vidéo. Ces outils peuvent réduire considérablement la montagne de paperasse administrative liée au traitement d’un grand nombre de candidatures. Ils permettent également de réduire les temps de réponse et les délais de recrutement, améliorant ainsi l’expérience des candidats, qu’ils obtiennent le poste ou non.

Développement et modernisation d’applications

Les outils de génération de code et d’automatisation de l’IA générative peuvent rationaliser les tâches répétitive de codage associées au développement d’applications, et accélérer la migration et la modernisation (reformatage et replatforming) à grande échelle des applications existantes. Ces outils accélèrent les tâches, garantissent la cohérence du code et réduisent les erreurs.

Maintenance prédictive

Les modèles de machine learning peuvent analyser les données des capteurs, des appareils de l’Internet des objets (IdO) et de la technologie opérationnelle (OT) pour prévoir à quel moment une maintenance sera nécessaire et prédire les pannes des équipements avant qu’elles ne se produisent. La maintenance préventive alimentée par l’IA permet d’éviter les temps d’arrêt et d’anticiper les perturbations de la chaîne d’approvisionnement avant qu’elles n’affectent les résultats.

Défis et risques liés à l’IA 

Les organisations se démènent pour tirer parti des dernières technologies d’IA et capitaliser sur leurs nombreux avantages. Ces efforts sont justifiés, mais l’adoption et la gestion des workflows d’IA ne sont pas sans risques et présentent certaines difficultés.

Risques liés aux données

Les systèmes d’IA s’appuient sur des jeux de données qui peuvent être vulnérables à certains risques (empoisonnement, falsification et partialité des données) ou aux cyberattaques qui sont à l’origine de violations de données. Pour atténuer ces risques, les organisations doivent protéger l’intégrité des données en assurant leur sécurité et leur disponibilité tout au long du cycle de vie de l’IA, du développement et de l’entraînement jusqu’au déploiement et après celui-ci.

Risques liés aux modèles

Les acteurs malveillants peuvent cibler les modèles d’IA pour les voler, faire de l’ingénierie inverse ou les manipuler sans autorisation. Les pirates peuvent compromettre l’intégrité d’un modèle en altérant son architecture, ses poids ou ses paramètres, les composants clés qui déterminent son comportement, sa précision et ses performances.

Risques opérationnels

Comme toutes les technologies, les modèles sont sujets aux risques opérationnels tels que la dérive de modèle, les biais et les dégradations de la structure de gouvernance. S’ils ne sont pas pris en compte, ces risques peuvent entraîner des défaillances du système et des vulnérabilités de cybersécurité que les acteurs malveillants peuvent exploiter.

Risques éthiques et juridiques

À défaut de privilégier la sécurité et l’éthique lors du développement et du déploiement de systèmes d’IA, les organisations risquent de porter atteinte à la vie privée et de produire des résultats biaisés. Par exemple, les données d’entraînement biaisées utilisées pour les décisions d’embauche peuvent renforcer les stéréotypes sexistes ou raciaux et créer des modèles d’IA qui favorisent certains groupes démographiques par rapport à d’autres.

Éthique et gouvernance de l’IA 

L’éthique de l’IA est un domaine pluridisciplinaire qui étudie comment optimiser l’impact bénéfique de l’IA tout en réduisant ses risques et ses effets indésirables. Les principes d’éthique de l’IA sont appliqués en faisant appel à un système de gouvernance de l’IA composé de garde-fous qui permettent de garantir la sécurité et l’éthique des outils et systèmes d’IA.

La gouvernance de l’IA englobe des mécanismes de surveillance des risques. Une approche éthique de la gouvernance de l’IA implique un large éventail de parties prenantes, dont des développeurs, utilisateurs, décideurs politiques et éthiciens. Tous contribuent à garantir un développement et une utilisation de systèmes liés à l’IA respectueux des valeurs de la société.

Voici les valeurs communes associées à l’éthique de l’IA et à l’IA responsable :

 
Explicabilité et interprétabilité

À mesure que l’IA se perfectionne, la tâche consistant à comprendre et à retracer comment l’algorithme est parvenu à tel ou tel résultat se complique. Pour y parvenir, l’IA explicable fournit un ensemble de processus et de méthodes qui permettent aux utilisateurs humains d’interpréter, de comprendre et d’évaluer la fiabilité des résultats produits par les algorithmes.

Équité et inclusion

Bien que le machine learning soit, de par sa nature même, une forme de discrimination statistique, celle-ci devient répréhensible lorsqu’elle place des groupes privilégiés dans une situation d’avantage systématique et d’autres moins privilégiés dans une situation de désavantage systématique, ce qui peut entraîner divers préjudices. Pour favoriser l’équité, les professionnels peuvent tenter de minimiser les biais algorithmiques dans la collecte des données et la conception des modèles, et constituer des équipes plus diversifiées et inclusives.

 
Robustesse et sécurité

L’IA robuste gère efficacement les conditions exceptionnelles, telles que les anomalies en entrée ou les attaques malveillantes, sans causer de dommages non intentionnels. Elle est également conçue pour résister aux interférences intentionnelles et non intentionnelles en protégeant contre les vulnérabilités exposées.

Responsabilité et transparence

Les organisations doivent mettre en place des structures claires de responsabilités et de gouvernance pour le développement, le déploiement et les résultats des systèmes d’IA. De plus, les utilisateurs doivent être en mesure de voir comment fonctionne un service d’IA, d’en évaluer les fonctionnalités et de comprendre ses forces et ses limites. Une transparence accrue permet aux consommateurs d’IA de mieux comprendre comment le modèle ou le service d’IA a été élaboré.

 
Confidentialité et conformité

De nombreux cadres réglementaires, y compris le RGPD, exigent que les organisations respectent certains principes de confidentialité lors du traitement d’informations personnelles. Il est essentiel de pouvoir protéger les modèles d’IA susceptibles de contenir des informations personnelles, de contrôler les données initiales qui alimentent le modèle et de créer des systèmes adaptables capables de suivre l’évolution des réglementations et du positionnement à l’égard de l’éthique de l’IA.

IA faible et IA forte 

Afin de contextualiser l’utilisation de l’IA à différents niveaux de complexité et de sophistication, les chercheurs ont défini plusieurs types d’IA qui se réfèrent à leur niveau de sophistication :

IA faible: également connue sous le nom d’« IA étroite », elle définit les systèmes d’IA conçus pour effectuer une tâche spécifique ou un ensemble de tâches. Il peut s’agir par exemple d’applications d’assistants vocaux « intelligents » comme Alexa d’Amazon ou Siri d’Apple, d’un chatbot sur les réseaux sociaux ou des véhicules autonomes annoncés par Tesla.

IA forte  : également appelée « intelligence artificielle générale » (IAG) ou « IA générale », elle possède la capacité de comprendre, d’apprendre et d’appliquer des connaissances à un large éventail de tâches à un niveau égal ou supérieur à l’intelligence humaine. Cependant, ce niveau d’IA est actuellement théorique et aucun système d’IA connu n’atteint ce niveau de sophistication. Par ailleurs, les chercheurs affirment que, si l’IAG est possible, elle nécessitera une augmentation considérable de la puissance de calcul. Quoi qu’il en soit, malgré les récents progrès de son développement, l’IA consciente d’elle-même relève jusqu’à présent du domaine de la science-fiction. 

Histoire de l’IA 

L’idée d’une « machine qui pense » remonte à la Grèce antique. Mais depuis l’avènement du calcul électronique (et d‘autres avancées abordées dans cet article), l‘IA ne cesse d‘évoluer, comme le montrent les événements qui ont jalonné son histoire :

1950
Alan Turing publie Computing Machinery and Intelligence. Dans cet article, M. Turing, célèbre pour avoir déchiffré le code allemand ENIGMA pendant la Seconde Guerre mondiale et souvent qualifié de « père de l’informatique », pose la question suivante : « Les machines peuvent-elles penser ? »

Il propose ensuite un test, devenu célèbre sous le nom de « test de Turing », dans lequel un interrogateur humain tente de différencier la réponse textuelle d’un ordinateur de celle d’un être humain. Bien que ce test ait fait l’objet de nombreuses études depuis sa publication, il demeure un aspect important de l’histoire et de la philosophie de l’IA en raison de son articulation autour des concepts de la linguistique.

1956
John McCarthy invente le terme « intelligence artificielle » lors de la toute première conférence sur l’IA au Dartmouth College. (McCarthy a par la suite inventé le langage Lisp.) Plus tard dans l’année, Allen Newell, JC Shaw et Herbert Simon créent Logic Theorist, le tout premier programme informatique d’IA opérationnel.

1967
Frank Rosenblatt construit le Mark 1 Perceptron, le premier ordinateur basé sur un réseau neuronal qui « apprend » par essais et erreurs. Un an plus tard, Marvin Minsky et Seymour Papert publient un ouvrage intitulé « Perceptrons », qui devient à la fois la référence en matière de réseaux neuronaux et, du moins pendant un certain temps, un argument contre les initiatives de recherche dans ce domaine.

1980
Les réseaux neuronaux, qui utilisent un algorithme de rétropropagation pour s’entraîner, sont de plus en plus utilisés dans les applications d’IA.

1995
Stuart Russell et Peter Norvig publient « Artificial Intelligence: A Modern Approach », devenu l’un des ouvrages de référence sur l’intelligence artificielle. Ils y explorent quatre objectifs ou définitions possibles de l’IA, qui différencient les systèmes informatiques en fonction de leur rationalité et de leur capacité de réflexion par rapport à leur capacité d’action. 

1997
Deep Blue d’IBM bat Garry Kasparov, le champion du monde d’échecs, lors d’une première partie et le match revanche.

2004
John McCarthy rédige un article intitulé, « What Is Artificial Intelligence? », et propose une définition de l’IA souvent citée. À ce moment-là, l’ère du big data et du cloud computing est en marche, permettant aux organisations de gérer des parcs de données toujours plus vastes, qui seront un jour utilisés pour entraîner des modèles d’IA. 

2011
IBM Watson bat Ken Jennings et Brad Rutter, les champions du jeu télévisé Jeopardy! C’est également à cette époque que la discipline de la science des données commence à se faire connaître.

2015
Le superordinateur Minwa de Baidu utilise un réseau neuronal convolutif pour identifier et catégoriser les images avec un taux de précision supérieur à celui d’un individu lambda. 

2016
Le programme AlphaGo de DeepMind, alimenté par un réseau neuronal profond, bat Lee Sodol, le champion du monde de Go, dans un match en cinq manches. La victoire est significative compte tenu du nombre considérable de mouvements possibles à mesure de la progression du jeu (plus de 14,5 billions après seulement quatre coups). Plus tard, Google rachète DeepMind pour un montant estimé à 400 millions de dollars.

2022
L’essor des grands modèles de langage ou LLM, tels que ChatGPT d’OpenAI, marque un tournant dans les performances de l’IA et son potentiel à créer de la valeur pour les entreprises. Ces nouvelles pratiques d’IA générative permettent désormais de pré-entraîner les modèles d’apprentissage profond sur de grandes quantités de données.

2024
Les dernières tendances de l’IA vont dans le sens d’un essor continu dans ce domaine. Les modèles multimodaux capables de prendre en compte plusieurs types de données offrent des expériences plus riches et plus robustes. Ces modèles rassemblent des capacités de vision par ordinateur, de reconnaissance d’images et de reconnaissance vocale par traitement automatique du langage naturel (NLP). Les modèles plus petits font également des progrès, à une époque où les rendements des modèles massifs comportant un grand nombre de paramètres ont plutôt tendance à diminuer.

Solutions connexes

Solutions connexes

IBM watsonx.ai

Entraînez, validez, réglez et déployez une IA générative, des modèles de fondation et des capacités de machine learning avec IBM watsonx.ai, un studio d’entreprise nouvelle génération pour les générateurs d’IA. Créez des applications d’IA en peu de temps et avec moins de données.

Découvrir watsonx.ai
Solutions d’intelligence artificielle

Mettez l’IA au service de votre entreprise grâce à l’expertise de pointe d’IBM en matière d’IA et à son portefeuille de solutions.

Découvrir les solutions d’IA
Conseils et services en matière d’IA

Réinventez les workflows et les opérations critiques en ajoutant l’IA pour optimiser les expériences, la prise de décision et la valeur métier en temps réel.

Découvrir les services d’IA
Passez à l’étape suivante

Bénéficiez d’un accès centralisé aux fonctionnalités couvrant le cycle de développement de l’IA. Produisez des solutions IA puissantes offrant des interfaces conviviales, des workflows et un accès à des API et SDK conformes aux normes du secteur.

Découvrir watsonx.ai Réserver une démo en direct