Accueil

Thèmes

Intelligence artificielle

Qu’est-ce que l’intelligence artificielle (IA) ?
Découvrir les solutions d’IA d’IBM S’abonner à notre newsletter sur l’IA
Collage de pictogrammes associant nuages, diagramme circulaire et graphiques

Dernière mise à jour : 16 août 2024
Contributeurs : Cole Stryker, Eda Kavlakoglu

Qu’est-ce que l’IA ? 

L’intelligence artificielle (IA) est une technologie qui permet aux ordinateurs et aux machines de simuler l’apprentissage, la compréhension, la résolution de problèmes, la prise de décision, la créativité et l’autonomie de l’être humain.

Les applications et les appareils équipés d’une IA peuvent voir et identifier les objets. Ils sont capables de comprendre le langage humain et d’y répondre. Ils peuvent tirer des enseignements de nouvelles informations et de nouvelles expériences. Ils peuvent formuler des recommandations détaillées aux utilisateurs et aux experts. Ils peuvent agir indépendamment, remplaçant ainsi l’intelligence ou l’intervention humaine (un exemple classique étant la voiture autonome). 

Mais en 2024, la plupart des chercheurs et professionnels de l’IA, de même que les actualités sur ce thème, se concentrent sur les avancées de l’IA générative, une technologie capable de générer du texte, des images, des vidéos et d’autres contenus originaux. Pour bien comprendre l’IA générative, il est important de commencer par les technologies sur lesquelles sont construits les outils d’IA générative : le machine learning (ML) et l’apprentissage profond.

Choisir le bon modèle de fondation

Découvrez comment bien choisir votre approche pour préparer vos jeux de données et employer vos modèles d’IA.

Podcast IA : le futur sera-t-il génératif ? Explorez les horizons infinis de cette révolution inéluctable qu'est l'IA, avec le Dr. Luc Julia, l'un des pères de l'assistant Siri d'Apple, et David Sebaoun, expert en intelligence artificielle chez IBM Consulting.
Machine learning

L’IA peut se définir comme une série de concepts imbriqués ou dérivés qui sont apparus au cours des 70 dernières années :
 

Directement issu de l’IA, nous avons le machine learning, qui consiste à créer des modèles en entraînant un algorithme à générer des prédictions ou à prendre des décisions sur la base de données. Il englobe un large éventail de techniques qui permettent aux ordinateurs d’apprendre et de faire des inférences basées sur les données sans être explicitement programmés pour des tâches spécifiques. 

Il existe de nombreuses techniques ou algorithmes de machine learning, notamment la régression linéaire, la régression logistique, les decision trees, les forêts aléatoires, les machines à vecteurs de support (SVM), les k plus proches voisins (KNN), le clustering et autres méthodes. Chacune de ces approches est adaptée à différents types de problèmes et de données.

Parmi les techniques de machine learning utilisées, l’une des plus connues est le neural network (ou réseau neuronal artificiel). Les neural networks sont calqués sur la structure et le fonctionnement du cerveau humain. Ils sont constitués de couches de nœuds interconnectés (analogues aux neurones) qui fonctionnent ensemble pour traiter et analyser des données complexes. Les neural networks sont bien adaptés aux tâches qui impliquent l’identification des schémas et des relations complexes dans de grandes quantités de données.

La forme la plus simple de machine learning est l’apprentissage supervisé, qui consiste à utiliser des ensembles de données étiquetées pour entraîner des algorithmes afin de classer les données ou de prédire les résultats avec précision. Dans le cadre de l’apprentissage supervisé, des humains associent chaque exemple d’entraînement à une étiquette de sortie. L’objectif est d’apprendre au modèle à reconnaître les correspondances entre les entrées et les sorties des données d’entraînement afin qu’il puisse prédire les étiquettes des nouvelles données qu’il n’a pas encore rencontrées.
 

Contenu connexe Obtenir le guide sur les modèles de fondation
Apprentissage en profondeur

Le deep learning est une sous-catégorie du machine learning qui utilise des neural networks multicouches, appelés réseaux neuronaux profonds, qui simulent plus étroitement le pouvoir de décision complexe du cerveau humain.

Les réseaux neuronaux profonds comprennent une couche d’entrée, au moins trois, mais généralement des centaines de couches cachées, et une couche de sortie, contrairement aux neural networks utilisés dans les modèles classiques de machine learning qui ne comportent généralement qu’une ou deux couches cachées.

Ces couches multiples permettent un apprentissage non supervisé : elles peuvent automatiser l’extraction de caractéristiques à partir de vastes ensembles de données non étiquetées et non structurées, et faire leurs propres prédictions à partir des représentations de ces données.

L’apprentissage profond ne nécessitant pas d’intervention humaine, il permet de déployer le machine learning à grande échelle. Il est bien adapté au traitement automatique du langage naturel (NLP), à la vision par ordinateur et à d’autres tâches qui impliquent l’identification rapide et précise de modèles et de relations complexes dans de grandes quantités de données. Une forme ou une autre de deep learning alimente aujourd’hui la plupart des applications d’IA dans notre vie quotidienne.
 

L’apprentissage profond permet également :

  • L’apprentissage semi-supervisé, qui combine l’apprentissage supervisé et non supervisé en utilisant à la fois des données étiquetées et non étiquetées pour entraîner des modèles IA à des tâches de classification et de régression.

  • L’apprentissage autosupervisé, qui génère des étiquettes implicites à partir de données non structurées, plutôt que de s’appuyer sur des ensembles de données étiquetées pour les signaux de supervision.

  • L’apprentissage par renforcement, qui apprend par essai-erreur et récompense plutôt qu’en extrayant des informations à partir de modèles cachés.

  • L’apprentissage par transfert, dans lequel les connaissances acquises dans le cadre d’une tâche ou d’un ensemble de données sont utilisées pour améliorer les performances du modèle dans une autre tâche connexe ou un ensemble de données différent.
IA générative

L’IA générative, ou « Gen AI », fait référence aux modèles de deep learning capables de créer un contenu original complexe (texte long, images, vidéos ou audio réalistes et de haute qualité, etc.) en réponse aux prompts ou aux requêtes d’un utilisateur.

De manière générale, les modèles génératifs codent une représentation simplifiée de leurs données d’entraînement, puis s’appuient sur cette représentation pour produire un résultat similaire, mais non identique au modèle initial.

Les modèles génératifs sont utilisés depuis des années dans les statistiques pour analyser les données numériques. Ils ont ensuite évolué au cours de la dernière décennie de manière à pouvoir analyser et générer des types de données plus complexes. Cette évolution a coïncidé avec l’émergence de trois types de modèles de deep learning sophistiqués :

  • Les autoencodeurs variationnels ou VAE, introduits en 2013, qui ont permis de créer des modèles capables de générer de multiples variantes de contenu en réponse à un prompt ou à une instruction.

  • Les modèles de diffusion, apparus pour la première fois en 2014, qui ajoutent du « bruit » aux images jusqu’à les rendre méconnaissables, puis suppriment le bruit pour générer des images originales en réponse aux instructions.

  • Les transformeurs (également appelés modèles de transformation), qui sont entraînés sur des données séquencées pour générer des séquences étendues de contenu (telles que des mots dans des phrases, des formes dans une image, des images d’une vidéo ou des commandes dans du code logiciel). Les transformeurs sont au cœur de la plupart des outils d’IA générative qui font l’actualité aujourd’hui, tels que ChatGPT et GPT-4, Copilot, BERT, Bard et Midjourney. 
Fonctionnement de l’IA générative

De manière générale, l’IA générative opère selon trois phases :

  1. La phase d’entraînement pour créer un modèle de fondation
  2. La phase de réglage pour adapter le modèle à une application spécifique.
  3. La phase de génération, d’évaluation et de nouveau réglage pour améliorer la précision

Entraînement
 

L’IA générative commence par un « modèle de fondation », un modèle d’apprentissage profond qui sert de base à plusieurs types différents d’applications d’IA générative.

Les modèles de fondation les plus courants actuellement sont les grands modèles de langage (LLM), créés pour les applications de génération de texte. Mais il existe également des modèles de fondation pour la génération d’images, de vidéos, d’audio ou de musique, ainsi que des modèles de fondation multimodaux qui prennent en charge plusieurs types de contenu.

Pour créer un modèle de fondation, les spécialistes entraînent un algorithme d’apprentissage profond sur d’énormes volumes de données pertinentes brutes, non structurées et non étiquetées, souvent des téraoctets ou des pétaoctets de données, issues de contenus textuels, d’images ou de vidéos provenant d’Internet. L’entraînement génère un neural network de milliards de paramètres, c’est-à-dire des représentations codées d’entités, de schémas et de relations dans les données, capable de générer du contenu de manière autonome en réponse aux prompts. C’est ainsi que se construit un modèle de fondation.

Ce processus d’entraînement exige une grande puissance de calcul, il est onéreux et prend du temps. Il demande des milliers d’unités de traitement graphique (GPU) en cluster et des semaines de traitement, ce qui coûte généralement des millions de dollars. Les projets de modèles de fondation open source, comme Llama-2 de Meta, permettent aux développeurs d’IA générative d’éviter cette étape et les coûts associés.

Réglage
 

Ensuite, le modèle doit être adapté à une tâche spécifique de génération de contenu. Pour ce faire, diverses méthodes sont employées, notamment :

  • Le réglage fin, qui consiste à fournir au modèle des données étiquetées spécifiques à l’application, c’est-à-dire des questions ou des prompts que l’application est susceptible de recevoir, ainsi que les réponses correctes correspondantes dans le format souhaité.

  • L’apprentissage par renforcement à partir des commentaires humains (RLHF), dans lequel les utilisateurs évaluent l’exactitude ou la pertinence des résultats du modèle afin qu’il puisse s’améliorer de lui-même. Il peut s’agir simplement de demander à des personnes de saisir des corrections ou de répondre à un chatbot ou à un assistant virtuel.

Génération, évaluation et nouveau réglage
   

Les développeurs et les utilisateurs évaluent fréquemment les résultats de leurs applications d’IA générative et perfectionnent le modèle, parfois jusqu‘à une fois par semaine, pour augmenter la précision ou la pertinence. Le modèle de fondation est mis à jour beaucoup moins souvent, généralement tous les ans ou tous les 18 mois.

Une autre option permettant d’améliorer les performances d’une application d’IA générative est la génération augmentée de récupération (RAG), une technique qui étend le modèle de fondation en utilisant des sources pertinentes externes aux données d’entraînement afin d’affiner les paramètres et d’améliorer la précision et la pertinence.

En savoir plus sur l’IA générative
Avantages de l’IA 

L’IA offre de nombreux avantages dans divers secteurs et applications. Voici les plus souvent cités :

  • Automatisation des tâches répétitives
  • Informations issues des données plus nombreuses et plus rapides
  • Amélioration de la prise de décision
  • Moins d’erreurs humaines
  • Disponibilité 7 jours sur 7
  • Réduction des risques physiques

 

 

Automatisation des tâches répétitives
 

L’IA peut automatiser les tâches routinières, répétitives et souvent fastidieuses, y compris les tâches numériques telles que la collecte de données, la saisie et le prétraitement, et les tâches physiques telles que les processus de stockage et de fabrication en entrepôt. Cette automatisation permet de se concentrer sur des activités plus créatives et à plus forte valeur.

 

Amélioration de la prise de décision
 

Qu’elle soit employée comme aide à la décision ou pour automatiser entièrement le processus décisionnel, l’IA permet des prédictions plus rapides et plus précises, ainsi que des décisions fiables et fondées sur les données. Combinée à l’automatisation, l’IA permet aux entreprises d’agir sur les opportunités et de répondre aux crises lorsqu’elles surviennent, en temps réel et sans intervention humaine.

 

Moins d’erreurs humaines
 

L’IA peut réduire les erreurs humaines de différentes manières, qu’il s’agisse de guider les utilisateurs tout au long des étapes d’un processus, de signaler les erreurs potentielles avant qu’elles ne se produisent ou d’automatiser entièrement les processus sans intervention humaine. Ces capacités sont particulièrement importantes dans des secteurs comme la santé où, par exemple, la robotique chirurgicale pilotée par l’IA assure une précision constante.

Les algorithmes de machine learning peuvent améliorer leur précision et réduire les erreurs en continu lorsqu’ils sont exposés à davantage de données pour « apprendre » par l’expérience.

 

Disponibilité et cohérence 24 heures sur 24
 

Active et disponible en permanence, l’IA offre des performances constantes. Des outils tels que les chatbots IA ou les assistants virtuels peuvent alléger les besoins en personnel du service client ou de l’assistance. Dans d’autres applications comme le traitement des matériaux ou les lignes de production, l’IA contribue à assurer la qualité des opérations et des niveaux de production constants en exécutant les tâches répétitives et laborieuses.

 

Réduction des risques physiques
 

En automatisant les tâches dangereuses, telles que le contrôle des animaux, la manipulation des explosifs, l’exécution de tâches en eau profonde, en haute altitude ou dans l’espace, l’IA réduit les risques d’accidents et de blessures parmi le personnel. Bien qu’encore en cours de développement, les voitures autonomes et autres véhicules de ce type permettent de réduire le risque de blessures des passagers.

 

Cas d’utilisation de l’IA 

Les applications concrètes de l’IA sont nombreuses. Voici quelques exemples de cas d’utilisation dans divers secteurs d’activité qui montrent son potentiel :

 

Expérience client, service client et support client
 

Les entreprises peuvent mettre en œuvre des chatbots et des assistants virtuels alimentés par l’IA pour traiter les demandes des clients, les tickets d’assistance et autres activités. Ces outils utilisent des capacités de traitement automatique du langage naturel (NLP) et d’IA générative pour comprendre les questions des clients concernant l’état des commandes, les détails des produits et les politiques de retour, et y répondre.

Les chatbots et les assistants virtuels permettent de proposer une assistance permanente, accélèrent les délais de réponses aux questions fréquemment posées (FAQ), libèrent les agents humains au bénéfice de tâches plus importantes et offrent aux clients un service plus rapide et plus cohérent.

 

 

Détection des fraudes
 

Les algorithmes de machine learning et d’apprentissage profond peuvent analyser les modèles de transaction et signaler les anomalies, telles que des dépenses inhabituelles ou des emplacements de connexion pouvant indiquer des transactions frauduleuses. Les organisations peuvent ainsi réagir plus rapidement aux fraudes potentielles et en limiter l’impact, ce qui leur procure, ainsi qu’à leurs clients, une plus grande tranquillité d’esprit.

 

 

Marketing personnalisé
 

Les détaillants, les banques et d’autres entreprises en contact avec les clients peuvent utiliser l’IA pour créer des expériences client personnalisées et des campagnes marketing attractives qui améliorent les ventes et préviennent l’attrition. En s’appuyant sur les données issues de l’historique et des comportements d’achat des clients, les algorithmes de deep learning peuvent recommander des produits et des services susceptibles de les intéresser, et même générer des textes personnalisés et des offres spéciales en temps réel.

 

Ressources humaines et recrutement
 

Les plateformes de recrutement pilotées par l’IA peuvent rationaliser le recrutement en se chargeant de la présélection des CV, de la mise en correspondance des candidats avec les descriptions de poste, voire des entretiens préliminaires par analyse vidéo. Ces outils et d’autres peuvent réduire considérablement la montagne de paperasse administrative liée au traitement d’un grand nombre de candidatures. Ils permettent également de réduire les temps de réponse et les délais d’embauche, améliorant ainsi l’expérience des candidats, qu’ils obtiennent le poste ou non.

 

Développement et modernisation des applications
 

Les outils de génération de code et d’automatisation de l’IA générative peuvent rationaliser les tâches répétitive de codage associées au développement d’applications, et accélérer la migration et la modernisation (reformatage et replatforming) à grande échelle des applications existantes. Ces outils accélèrent les tâches, garantissent la cohérence du code et réduisent les erreurs.

 

 

Maintenance prédictive
 

Les modèles de machine learning peuvent analyser les données des capteurs, des appareils de l’Internet des objets (IdO) et de la technologie opérationnelle (OT) pour prévoir à quel moment une maintenance sera nécessaire et prédire les pannes des équipements avant qu’elles ne se produisent. La maintenance préventive alimentée par l’IA permet d’éviter les temps d’arrêt et d’anticiper les perturbations de la chaîne d’approvisionnement avant qu’elles n’affectent les résultats.

 

Défis et risques liés à l’IA 

Les organisations se démènent pour tirer parti des dernières technologies d’IA et capitaliser sur leurs nombreux avantages. Ces efforts sont justifiés, mais l’adoption et la gestion des workflows d’IA ne sont pas sans risques et présentent certaines difficultés. 

 

Risques liés aux données
 

Les systèmes d’IA s’appuient sur des ensembles de données qui peuvent être vulnérables à l’empoisonnement des données, à la falsification des données, à la partialité des données ou aux cyberattaques à l’origine de violations de données. Pour atténuer ces risques, les organisations doivent protéger l’intégrité des données en assurant leur sécurité et leur disponibilité tout au long du cycle de vie de l’IA, du développement et de l’entraînement jusqu’au déploiement et après le déploiement.

 

 

Risques de modèle
 

Les acteurs de la menace peuvent cibler les modèles d’IA à des fins de vol, d’ingénierie inverse ou de manipulation non autorisée. Les pirates peuvent compromettre l’intégrité d’un modèle en altérant son architecture, ses poids ou ses paramètres, les composants clés qui déterminent le comportement, la précision et les performances d’un modèle.

 

Risques opérationnels
   

Comme toutes les technologies, les modèles sont sujets aux risques opérationnels tels que la dérive de modèle, les biais et les dégradations de la structure de gouvernance. S’ils ne sont pas pris en compte, ces risques peuvent entraîner des défaillances du système et des vulnérabilités de cybersécurité que les acteurs de la menace peuvent exploiter.

 

Éthique et risques juridiques
 

À défaut de privilégier la sécurité et l’éthique lors du développement et du déploiement de systèmes d’IA, les organisations risquent de porter atteinte à la vie privée et de produire des résultats biaisés. Par exemple, les données d’entraînement biaisées utilisées pour les décisions d’embauche peuvent renforcer les stéréotypes sexistes ou raciaux et créer des modèles IA qui favorisent certains groupes démographiques par rapport à d’autres.
 

En savoir plus sur les risques de l’IA
Éthique et gouvernance de l’IA 

L’éthique de l’IA est un domaine pluridisciplinaire qui étudie comment optimiser l’impact bénéfique de l’IA tout en réduisant ses risques et ses effets indésirables. Les principes d’éthique de l’IA sont appliqués en faisant appel à un système de gouvernance de l’IA composé de garde-fous qui permettent de garantir la sécurité et l’éthique des outils et systèmes d’IA.  

La gouvernance de l’IA englobe des mécanismes de surveillance des risques. Une approche éthique de la gouvernance de l’IA implique un large éventail de parties prenantes, dont des développeurs, utilisateurs, décideurs politiques et éthiciens. Tous contribuent à garantir un développement et une utilisation de systèmes liés à l’IA respectueux des valeurs de la société.

Voici les valeurs communes associées à l’éthique de l’IA et à l’IA responsable :

Explicabilité et interprétabilité

A mesure que l’IA se perfectionne, la tâche consistant à comprendre et à retracer comment l’algorithme est parvenu à tel ou tel résultat se complique. Pour y parvenir, l’IA explicable fournit un ensemble de processus et de méthodes qui permettent aux utilisateurs humains d’interpréter, de comprendre et d’évaluer la fiabilité des résultats produits par les algorithmes.

Équité et inclusion

Bien que le machine learning soit, de par sa nature même, une forme de discrimination statistique, celle-ci devient répréhensible lorsqu’elle place des groupes privilégiés dans une situation d’avantage systématique et d’autres moins privilégiés dans une situation de désavantage systématique, ce qui peut entraîner divers préjudices. Pour favoriser l’équité, les professionnels peuvent tenter de minimiser les biais algorithmiques dans la collecte des données et la conception des modèles, et de constituer des équipes plus diversifiées et inclusives.

Robustesse et sécurité

L’IA robuste gère efficacement les conditions exceptionnelles, telles que les anomalies en entrée ou les attaques malveillantes, sans causer de dommages non intentionnels. Elle est également conçue pour résister aux interférences intentionnelles et non intentionnelles en protégeant contre les vulnérabilités exposées.

Responsabilité et transparence

Les organisations doivent mettre en place des structures claires de responsabilités et de gouvernance pour le développement, le déploiement et les résultats des systèmes d’IA. De plus, les utilisateurs doivent être en mesure de voir comment fonctionne un service d’IA, d’en évaluer les fonctionnalités et de comprendre ses forces et ses limites. Une transparence accrue permet aux consommateurs d’IA de mieux comprendre comment le modèle ou le service d’IA a été élaboré.

Confidentialité et conformité

De nombreux cadres réglementaires, y compris le RGPD, exigent que les organisations respectent certains principes de confidentialité lors du traitement d’informations personnelles. Il est essentiel de pouvoir protéger les modèles IA susceptibles de contenir des informations personnelles, de contrôler les données initiales qui alimentent le modèle et de créer des systèmes adaptables capables de suivre l’évolution des réglementations et du positionnement à l’égard de l’éthique de l’IA.

IA faible et IA forte 

Afin de contextualiser l’utilisation de l’IA à différents niveaux de complexité et de sophistication, les chercheurs ont défini plusieurs types d’IA qui se réfèrent à leur niveau de sophistication :

IA faible : également connue sous le nom d’« IA étroite », elle définit les systèmes d’IA conçus pour effectuer une tâche spécifique ou un ensemble de tâches. Il peut s’agir par exemple d’applications d’assistants vocaux « intelligents » comme Alexa d’Amazon ou Siri d’Apple, d’un chatbot sur les réseaux sociaux ou des véhicules autonomes annoncés par Tesla. 

IA forte : également appelée « intelligence artificielle générale » (IAG) ou « IA générale », elle possède la capacité de comprendre, d’apprendre et d’appliquer des connaissances à un large éventail de tâches à un niveau égal ou supérieur à l’intelligence humaine. Cependant, ce niveau d’IA est actuellement théorique et aucun système d’IA connu n’atteint ce niveau de sophistication. Par ailleurs, les chercheurs affirment que, si l’IAG est possible, elle nécessitera une augmentation considérable de la puissance de calcul. Quoi qu’il en soit, malgré les récents progrès de son développement, l’IA consciente d’elle-même relève jusqu’à présent du domaine de la science-fiction. 

Histoire de l’IA 

L’idée d’une « machine qui pense » remonte à la Grèce antique. Mais depuis l’avènement de l’informatique (et par rapport à certains des sujets abordés dans cet article), les événements et les étapes importants de l’évolution de l’intelligence artificielle sont :

  • 1950 : Alan Turing publie Computing Machinery and Intelligence (lien externe à ibm.com)Dans cet article, Turing, célèbre pour avoir déchiffré le code allemand ENIGMA pendant la Seconde Guerre mondiale et souvent qualifié de « père de l’informatique », pose la question suivante : « Les machines peuvent-elles penser ? »  Il propose ensuite un test, désormais connu sous le célèbre nom de « test de Turing », dans lequel un interrogateur humain tente de différencier la réponse textuelle d’un ordinateur de celle d’un être humain. Bien que ce test ait fait l’objet d’un examen approfondi depuis sa publication, il reste un aspect important de l’histoire de l’IA ainsi qu’un concept permanent de la philosophie puisqu’il utilise des idées autour de la linguistique.
  • 1956 : John McCarthy invente le terme « intelligence artificielle » lors de la toute première conférence sur l’IA au Dartmouth College (il inventera par la suite le langage Lisp). Plus tard cette même année, Allen Newell, J.C. Shaw et Herbert Simon créent le Logic Theorist, le tout premier programme logiciel d’IA en fonctionnement.
  • 1967 : Frank Rosenblatt construit le Mark 1 Perceptron, le premier ordinateur basé sur un réseau neuronal qui « apprend » par essais et erreurs. Un an plus tard, Marvin Minsky et Seymour Papert publient un ouvrage intitulé Perceptrons, qui devient à la fois l’ouvrage de référence sur les réseaux neuronaux et, du moins pendant un certain temps, un argument contre les projets de recherche sur les réseaux neuronaux.
  • Années 1980 : les réseaux neuronaux qui utilisent un algorithme de rétropropagation pour s’entraîner sont largement utilisés dans des applications d’intelligence artificielle.
  • 1995 : Stuart Russell et Peter Norvig ont ensuite publié Intelligence artificielle : une approche moderne (lien externe à ibm.com), devenu l’un des principaux manuels d’étude de l’intelligence artificielle. Ils y explorent quatre objectifs ou définitions potentiels de l’IA, qui différencient les systèmes informatiques sur la base de la rationalité et de la pensée par rapport à l’action.

  • 1997 : Deep Blue d’IBM bat Garry Kasparov, le champion du monde d’échecs lors d’un match d’échecs (et un match revanche).

  • 2004 : John McCarthy écrit un article intitulé Qu’est-ce que l’intelligence artificielle ? (lien externe à ibm.com) et propose une définition souvent citée de l’IA.
  • 2011 : IBM watsonx bat Ken Jennings et Brad Rutter, les champions de Jeopardy !
  • 2015 : le superordinateur Minwa de Baidu utilise un type particulier de réseau neuronal profond appelé réseau neuronal convolutif pour identifier et catégoriser les images avec un taux de précision supérieur à celui de l’humain lambda.
  • 2016 : le programme AlphaGo de DeepMind, alimenté par un réseau neuronal profond, bat Lee Sodol, le champion du monde de Go, dans un match de cinq parties. La victoire est significative compte tenu du nombre considérable de mouvements possibles à mesure que le jeu progresse (plus de 14,5 billions après seulement quatre mouvements !). Plus tard, Google a racheté DeepMind pour un montant estimé à 400 millions de dollars.
  • 2023 : Une augmentation des grands modèles de langage, ou LLM, tels que ChatGPT, entraîne un
    changement important dans les performances de l’IA et dans son potentiel à générer de la valeur pour l’entreprise. Avec ces nouvelles pratiques d’IA générative, les modèles de deep learning peuvent être pré-entraînés sur de grandes quantités de données brutes, non étiquetées.

 

Produits et solutions connexes
IBM watsonx.ai

Le studio d’IA IBM watsonx.ai fait partie de la plateforme d’IA et de données IBM watsonx qui rassemble de nouvelles capacités d’IA générative, alimentées par des modèles de fondation et de machine learning (ML) traditionnel dans un puissant studio couvrant le cycle de vie de l’IA. 

Découvrir watsonx.ai
Solutions d’IA

Mettez l’IA au service de votre entreprise grâce à l’expertise de pointe d’IBM en matière d’IA et à son portefeuille de solutions.

Découvrir les solutions d’IA
IA appliquée au service client

Transformez une assistance standard en expérience exceptionnelle en offrant à vos clients une prise en charge personnalisée instantanée et précise, partout et à tout moment, grâce à l’IA conversationnelle.

 

Découvrir l’IA pour le service client
Services d’IA

Réinventez les workflows et les opérations critiques en ajoutant l’IA pour optimiser les expériences, la prise de décision et la valeur métier en temps réel.

Découvrir les services d’IA
L’IA pour la cyber-sécurité

L’IA révolutionne la cybersécurité en analysant d’énormes volumes de données sur les risques afin de réduire les temps de réponse et de renforcer la sécurité des opérations, même quand les ressources se font rares.

Découvrir AI for cybersecurity
Ressources AI Academy

Dirigé par des leaders d’opinion IBM, le programme a pour but d’aider les chefs d’entreprise à acquérir les connaissances nécessaires qui leur permettront d’orienter leurs investissements IA vers les opportunités les plus prometteuses.

Économisez jusqu’à 70 % avec notre abonnement de formation numérique

Accédez à notre catalogue complet de plus de 100 cours en ligne en achetant dès aujourd’hui un abonnement de formation numérique individuel ou multi-utilisateurs qui vous permettra d’étendre vos compétences sur certains de nos produits à un prix avantageux.

Gartner Peer Insights Customers Choice 2023

IBM watsonx Assistant reçoit le prix Customer Choice de Gartner dans son rapport Peer Insights Voice of the Customer 2023 consacré aux plateformes d’IA conversationnelle pour les entreprises.

Stratégie d’approvisionnement optimisée par l’IA

Découvrez comment le machine learning peut prédire la demande et réduire les coûts.

Les principales tendances de l’IA en 2024

2024 s‘annonce comme une année déterminante pour l’avenir de l’IA, les chercheurs et les entreprises cherchant à établir comment intégrer de façon concrète ce saut technologique dans notre vie quotidienne.

Les changements introduits dès à présent par le règlement européen sur l’IA

Entré en vigueur le 1er août 2024, le règlement de l’Union européenne sur l’IA est l’une des premières réglementations en matière d’intelligence artificielle à être adoptée dans l’un des plus grands marchés du monde. Quels seront les changements pour les entreprises ?

Passer à l’étape suivante

Entraînez, validez, réglez et déployez une IA générative, des modèles de fondation et des capacités de machine learning avec IBM watsonx.ai, un studio professionnel de nouvelle génération pour les générateurs d’IA. Créez des applications d’IA en peu de temps et avec moins de données.

Découvrir watsonx.ai Réserver une démo en direct