Accueil les sujets Qu'est-ce que l'intelligence artificielle (IA) ? Qu’est-ce que l’intelligence artificielle (IA) ?
Découvrir les solutions d’IA d’IBM S’abonner aux mises à jour sur l’IA
Illustration de la façon dont l’IA permet aux ordinateurs de penser comme des humains, des applications interconnectées et un impact sur la vie moderne
Qu’est-ce que l’IA ? 

Les technologies d’intelligence artificielle, ou IA, permettent aux ordinateurs et aux machines de simuler l’intelligence humaine et ses capacités de résolution des problèmes.

Seule ou combinée à d’autres technologies (par exemple, des capteurs, la robotique, la géolocalisation), l’IA est capable d’effectuer des tâches qui nécessiteraient autrement une intelligence ou une intervention humaine. Les assistants numériques, le guidage GPS, les véhicules autonomes et les outils d’IA générative (comme Chat GPT d’Open AI) ne sont que quelques exemples de l’IA dans l’actualité et dans notre vie quotidiennes.

En tant que domaine informatique, l’intelligence artificielle englobe le machine learning et l’apprentissage profond (avec lesquels elle est souvent mentionnée). Ces disciplines impliquent le développement d’algorithmes d’IA, calqués sur les processus décisionnels du cerveau humain, qui peuvent « apprendre » à partir des données disponibles et établir des classifications ou des prévisions de plus en plus précises au fil du temps.

L’intelligence artificielle a fait l’objet de nombreux cycles d’engouement, mais même pour les sceptiques, la sortie de ChatGPT semble marquer un tournant. La dernière fois que l’IA générative a pris une telle ampleur, des progrès ont été enregistrés dans le domaine de la vision par ordinateur, mais aujourd’hui, c’est le traitement automatique du langage naturel (NLP) qui a fait un bond en avant. Aujourd’hui, l’IA générative peut apprendre et synthétiser non seulement le langage, mais aussi d’autres types de données, notamment les images, les vidéos, le code logiciel et même les structures moléculaires.

Les applications de l’IA se développent de jour en jour. Mais à mesure que le battage médiatique autour de l’utilisation des outils de l’IA dans les entreprises prend de l’ampleur, les discussions sur l’éthique de l’IA et l’IA responsable revêtent une importance cruciale. Pour en savoir plus sur la position d’IBM sur ces questions, veuillez lire l’article Renforcer la confiance dans l’IA.

Pourquoi la gouvernance de l’IA est un impératif stratégique pour la mise à l’échelle de l’IA d’entreprise

Découvrez les obstacles à l’adoption de l’IA, en particulier le manque de solutions de gouvernance de l’IA et de gestion des risques.

Contenu connexe

Obtenir le guide sur les modèles de fondation

Types d’intelligence artificielle : IA faible et IA forte

L’IA faible, également appelée IA étroite (Narrow AI) ou Intelligence artificielle étroite (ANI, Artificial Narrow Intelligence), est une IA entraînée et ciblée pour effectuer des tâches spécifiques. Elle est à l’origine de la plus grande partie de l’IA qui nous entoure aujourd’hui. Le terme « étroite » conviendrait peut-être mieux à ce type d’IA, car elle est tout sauf faible. En effet, elle rend possible des applications très robustes telles que Siri d’Apple, Alexa d’Amazon, watsonx™ d’IBM ou encore les véhicules autonomes.

L’IA forte se compose de l’intelligence artificielle générale (AGI) et de la superintelligence artificielle (ASI). L’AGI, ou IA générale, est une forme théorique d’IA dans laquelle une machine aurait une intelligence égale à celle des humains. Elle serait consciente d’elle-même et aurait la capacité de résoudre des problèmes, d’apprendre et de planifier l’avenir. L’ASI, également appelée superintelligence, dépasserait l’intelligence et les capacités du cerveau humain. Bien que l’IA forte soit encore entièrement théorique et qu’aucun exemple pratique ne soit utilisé aujourd’hui, cela ne signifie pas que les chercheurs en IA ne sont pas en train d’explorer son développement. En attendant, les meilleurs exemples d’IA forte se trouvent peut-être dans la science-fiction, comme HAL, l’assistant informatique surhumain et malhonnête dans 2001 : L’Odyssée de l’espace.

Deep learning et machine learning

Le machine learning et l’apprentissage profond sont des sous-disciplines de l’IA et l’apprentissage profond est une sous-discipline du machine learning.

Les algorithmes de machine learning et d’apprentissage profond utilisent tous deux les réseaux neuronaux pour « apprendre » à partir d’énormes quantités de données. Ces réseaux neuronaux sont des structures programmatiques calquées sur les processus décisionnels du cerveau humain. Ils sont constitués de couches de nœuds interconnectés qui extraient les fonctionnalités des données et font des prédictions sur ce que représentent les données.

Le machine learning et l’apprentissage profond diffèrent par les types de réseaux neuronaux qu’ils utilisent et par la quantité d’intervention humaine impliquée. Les algorithmes classiques de machine learning utilisent des réseaux neuronaux avec une couche d’entrée, une ou deux couches « cachées » et une couche de sortie. En général, ces algorithmes sont limités à l’apprentissage supervisé : les données doivent être structurées ou étiquetées par des experts humains pour permettre à l’algorithme d’extraire des fonctionnalités des données.

Les algorithmes d’apprentissage profond utilisent des réseaux neuronaux profonds, c’est-à-dire des réseaux composés d’une couche d’entrée, de trois couches cachées ou plus (mais généralement de centaines) et d’une mise en page de sortie. Ces couches multiples permettent un apprentissage non supervisé : elles automatisent l’extraction de caractéristiques à partir de vastes ensembles de données non étiquetées et non structurées. Parce qu’il ne nécessite pas d’intervention humaine, l’apprentissage profond permet essentiellement le machine learning à l’échelle.

 

L’essor des modèles génératifs

L’IA générative fait référence aux modèles de deep learning qui peuvent prendre des données brutes (comme l’intégralité de Wikipédia ou l’ensemble des œuvres de Rembrandt) et « apprendre » à générer des résultats statistiquement probables lorsqu’on leur demande de le faire. À un niveau élevé, les modèles génératifs codent une représentation simplifiée de leurs données d’apprentissage et s’en servent pour créer un travail similaire, sans être identique, aux données d’origine.

Les modèles génératifs sont utilisés depuis des années dans les statistiques pour analyser les données numériques. L’essor du deep learning a toutefois permis de les étendre aux images, à la parole et à d’autres types de données complexes. Les autoencodeurs variationnels (VAE), introduits en 2013, font partie de la première catégorie de modèles d’IA à avoir réussi ce croisement. Les VAE ont été les premiers modèles de deep learning à être largement utilisés pour générer des images et des discours réalistes.

« Les VAE ont ouvert la voie à une modélisation générative approfondie en facilitant la mise à l’échelle des modèles », explique Akash Srivastava, expert en IA générative au MIT-IBM Watson AI Lab. Une grande partie de ce que nous considérons aujourd’hui comme l’IA générative a commencé ici. »

Les premiers exemples de modèles, notamment GPT-3, BERT ou DALL-E 2, ont montré ce qui est possible. Le futur, ce sont des modèles formés sur un large ensemble de données non étiquetées qui peuvent être utilisées pour différentes tâches, avec un minimum d’ajustements. Les systèmes qui exécutent des tâches spécifiques dans un seul domaine cèdent la place à de vastes systèmes d’IA qui apprennent de manière plus générale et fonctionnent dans plusieurs domaines et problèmes. Les modèles de fondation, formés sur de vastes jeux de données non étiquetées et adaptés à toute une série de cas d’utilisation, sont à l’origine de cette évolution.

Quant à l’avenir de l’IA, en ce qui concerne l’IA générative, on prévoit que les modèles de fondation accéléreront considérablement l’adoption de l’IA au sein des entreprises. La réduction des exigences en matière d’étiquetage facilitera grandement la tâche des entreprises, et l’automatisation hautement précise et efficace optimisée par l’IA qu’ils permettent signifiera que de plus en plus d’entreprises pourront déployer l’IA dans un plus grand nombre de situations critiques. Pour IBM, l’espoir est que la puissance de calcul des modèles de fondation puisse finalement être apportée à chaque entreprise dans un environnement cloud-hybride sans friction.

Découvrir les modèles de base dans watsonx.ai

Cas d’utilisation de l’intelligence artificielle

Il existe aujourd’hui de nombreux cas d’utilisation des systèmes d’IA dans le monde réel. Voici quelques exemples les plus courants :

reconnaissance vocale

Également connue sous le nom de reconnaissance automatique de la parole (ASR), de reconnaissance de la parole par ordinateur ou de speech-to-text, la reconnaissance vocale utilise la PNL pour traiter la parole humaine dans un format écrit. De nombreux appareils mobiles intègrent la reconnaissance vocale dans leurs systèmes pour effectuer des recherches vocales (Siri, par exemple) ou offrir une plus grande accessibilité pour l’envoi de SMS en anglais ou dans de nombreuses langues largement utilisées. Découvrez comment Don Johnston a utilisé IBM Watson Text to Speech pour améliorer l’accessibilité en classe grâce à notre étude de cas.

Centre de support

Les agents conversationnels et les chatbots en ligne remplacent les agents humains tout au long du parcours client. Ils répondent aux questions fréquemment posées (FAQ) sur des sujets tels que l’expédition, ou fournissent des conseils personnalisés, en faisant de la vente croisée de produits ou en suggérant des tailles pour les utilisateurs, ce qui transforme notre façon d’envisager l’engagement client sur les sites web et les plateformes de réseaux sociaux. Parmi les exemples, on trouve les bots de messagerie sur les sites de commerce électronique avec des agents conversationnels, les applications de messagerie, telles que Slack et Facebook Messenger, et les tâches habituellement effectuées par les assistants virtuels et les assistants vocauxDécouvrez comment Autodesk Inc. a utilisé IBM Watsonx Assistant pour accélérer les temps de réponse des clients de 99 % grâce à notre étude de cas.

Vision par ordinateur

Cette technologie d’IA permet aux ordinateurs et aux systèmes d’extraire des informations significatives des images numériques, des vidéos et d’autres entrées visuelles et de prendre des mesures en fonction de ces entrées. Cette capacité à fournir des recommandations la distingue des tâches de reconnaissance d’images. Optimisée par les réseaux neuronaux convolutifs, la vision par ordinateur trouve des applications dans le marquage des photos dans les réseaux sociaux, l’imagerie radiologique dans le secteur de la santé et les voitures autonomes dans le secteur automobile. Découvrez comment ProMare a utilisé IBM Maximo pour donner une nouvelle orientation à la recherche océanique dans notre étude de cas.

Chaîne d'approvisionnement

La robotique adaptative agit sur les informations des appareils de l’Internet des objets (IdO) et sur les données structurées et non structurées pour prendre des décisions autonomes. Les outils de NLP peuvent comprendre la parole humaine et réagir à ce qu’on leur dit. L’analytique prédictive s’applique à la réactivité à la demande, à l’optimisation des stocks et des réseaux, à la maintenance préventive et à la fabrication numérique. Les algorithmes de recherche et de reconnaissance de modèles, qui ne sont plus seulement prédictifs, mais hiérarchiques, analysent les données en temps réel, aidant les chaînes d’approvisionnement à réagir à l’intelligence augmentée générée par les machines, tout en offrant une visibilité et une transparence instantanées. Découvrez comment Hendrickson a utilisé IBM Sterling pour alimenter les transactions en temps réel grâce à notre étude de cas.

Prévisions météorologiques

Les modèles météorologiques sur lesquels les radiodiffuseurs s’appuient pour établir des prévisions précises sont constitués d’algorithmes complexes exécutés sur des superordinateurs. Les techniques de machine learning améliorent ces modèles en les rendant plus applicables et plus précis. Découvrez comment Emnotion a utilisé IBM Cloud pour permettre aux entreprises sensibles aux conditions météorologiques de prendre des décisions plus proactives et fondées sur des données grâce à notre étude de cas.

Détection des anomalies

Les modèles IA peuvent passer au peigne fin de grandes quantités de données historiques et découvrir des points de données atypiques au sein d’un jeu de données. La détection de ces anomalies peut révéler des équipements défectueux, des erreurs humaines ou des failles dans les mécanismes de sécurité. Découvrez comment Netox a utilisé IBM QRadar pour protéger les entreprises numériques contre les cybermenaces grâce à notre étude de cas.

Histoire de l’intelligence artificielle : dates et noms clés

L’idée d’une « machine qui pense » remonte à la Grèce antique. Mais depuis l’avènement de l’informatique (et par rapport à certains des sujets abordés dans cet article), les événements et les étapes importants de l’évolution de l’intelligence artificielle sont :

  • 1950 : Alan Turing publie Computing Machinery and Intelligence (lien externe à ibm.com)Dans cet article, Turing, célèbre pour avoir déchiffré le code allemand ENIGMA pendant la Seconde Guerre mondiale et souvent qualifié de « père de l’informatique », pose la question suivante : « Les machines peuvent-elles penser ? »  Il propose ensuite un test, désormais connu sous le célèbre nom de « test de Turing », dans lequel un interrogateur humain tente de différencier la réponse textuelle d’un ordinateur de celle d’un être humain. Bien que ce test ait fait l’objet d’un examen approfondi depuis sa publication, il reste un aspect important de l’histoire de l’IA ainsi qu’un concept permanent de la philosophie puisqu’il utilise des idées autour de la linguistique.
  • 1956 : John McCarthy invente le terme « intelligence artificielle » lors de la toute première conférence sur l’IA au Dartmouth College (il inventera par la suite le langage Lisp). Plus tard cette même année, Allen Newell, J.C. Shaw et Herbert Simon créent le Logic Theorist, le tout premier programme logiciel d’IA en fonctionnement.
  • 1967 : Frank Rosenblatt construit le Mark 1 Perceptron, le premier ordinateur basé sur un réseau neuronal qui « apprend » par essais et erreurs. Un an plus tard, Marvin Minsky et Seymour Papert publient un ouvrage intitulé Perceptrons, qui devient à la fois l’ouvrage de référence sur les réseaux neuronaux et, du moins pendant un certain temps, un argument contre les projets de recherche sur les réseaux neuronaux.
  • Années 1980 : les réseaux neuronaux qui utilisent un algorithme de rétropropagation pour s’entraîner sont largement utilisés dans des applications d’intelligence artificielle.
  • 1995 : Stuart Russell et Peter Norvig ont ensuite publié Intelligence artificielle : une approche moderne (lien externe à ibm.com), devenu l’un des principaux manuels d’étude de l’intelligence artificielle. Ils y explorent quatre objectifs ou définitions potentiels de l’IA, qui différencient les systèmes informatiques sur la base de la rationalité et de la pensée par rapport à l’action.

  • 1997 : Deep Blue d’IBM bat Garry Kasparov, le champion du monde d’échecs lors d’un match d’échecs (et un match revanche).

  • 2004 : John McCarthy écrit un article intitulé Qu’est-ce que l’intelligence artificielle ? (lien externe à ibm.com) et propose une définition souvent citée de l’IA.
  • 2011 : IBM watsonx bat Ken Jennings et Brad Rutter, les champions de Jeopardy !
  • 2015 : le superordinateur Minwa de Baidu utilise un type particulier de réseau neuronal profond appelé réseau neuronal convolutif pour identifier et catégoriser les images avec un taux de précision supérieur à celui de l’humain lambda.
  • 2016 : le programme AlphaGo de DeepMind, alimenté par un réseau neuronal profond, bat Lee Sodol, le champion du monde de Go, dans un match de cinq parties. La victoire est significative compte tenu du nombre considérable de mouvements possibles à mesure que le jeu progresse (plus de 14,5 billions après seulement quatre mouvements !). Plus tard, Google a racheté DeepMind pour un montant estimé à 400 millions de dollars.
  • 2023 : Une augmentation des grands modèles de langage, ou LLM, tels que ChatGPT, entraîne un
    changement important dans les performances de l’IA et dans son potentiel à générer de la valeur pour l’entreprise. Avec ces nouvelles pratiques d’IA générative, les modèles de deep learning peuvent être pré-entraînés sur de grandes quantités de données brutes, non étiquetées.

 

Solutions connexes
Solutions d’intelligence artificielle (IA)

Mettez l’IA au service de votre entreprise grâce à l’expertise de pointe d’IBM en matière d’IA et à son portefeuille de solutions.

Découvrir les solutions d’IA
Services d’IA

Réinventez les workflows et les opérations critiques en ajoutant l’IA pour optimiser les expériences, la prise de décision et la valeur métier en temps réel.

Découvrir les services d’IA
L’IA pour la cyber-sécurité

L’IA révolutionne la cybersécurité en analysant d’énormes volumes de données sur les risques afin de réduire les temps de réponse et de renforcer la sécurité des opérations, même quand les ressources se font rares.

Découvrir AI for cybersecurity
Ressources Choisir le bon modèle de fondation

Apprenez à utiliser le cadre des exigences de sélection de modèle pour sélectionner le modèle de fondation adapté aux besoins de votre entreprise.

Économisez jusqu’à 70 % avec notre abonnement de formation numérique

Accédez à notre catalogue complet de plus de 100 cours en ligne en achetant dès aujourd’hui un abonnement de formation numérique individuel ou multi-utilisateurs qui vous permettra d’étendre vos compétences sur certains de nos produits à un prix avantageux.

Gartner Peer Insights Customers Choice 2023

IBM watsonx Assistant reconnu Customers’ Choice dans le rapport Gartner Peer Insights Voice of the Customer 2023 consacré aux plateformes d’IA conversationnelle pour les entreprises

Stratégie d’approvisionnement optimisée par l’IA

Découvrez comment le machine learning peut prédire la demande et réduire les coûts.

Passer à l’étape suivante

Entraînez, validez, réglez et déployez une IA générative, des modèles de fondation et des capacités de machine learning avec IBM watsonx.ai, un studio professionnel de nouvelle génération pour les générateurs d’IA. Créez des applications d’IA en peu de temps et avec moins de données.

Découvrir watsonx.ai Réserver une démo en direct