Accueil
Thèmes
IA générative
Publication : 22 mars 2024
Contributeurs : Cole Stryker, Mark Scapicchio
L’IA générative, parfois appelée « gen AI », est une intelligence artificielle (IA) capable de créer des contenus originaux (texte, images, vidéo, audio et/ou code logiciel) en réponse à l’invite ou à la requête d’un utilisateur.
L’IA générative s’appuie sur des modèles sophistiqués de machine learning, appelés modèles d’apprentissage profond ou deep learning, c’est-à-dire des algorithmes qui simulent les processus d’apprentissage et de prise de décision du cerveau humain. Ces modèles identifient et codent les schémas et les relations dans d’énormes quantités de données, puis utilisent ces informations pour comprendre les requêtes ou les questions en langage naturel des utilisateurs et y répondre avec un nouveau contenu pertinent.
Si l’IA a été un sujet technologique brûlant au cours de la dernière décennie, l’IA générative, et plus particulièrement l’arrivée de ChatGPT en 2022, a fait la une des journaux du monde entier et lancé une vague d’innovation et d’adoption de l’IA sans précédent. L’IA générative offre des avantages considérables en matière de productivité aux utilisateurs et aux organisations. Malgré les défis et les risques bien réels qu’elle présente, les entreprises vont de l’avant en explorant comment cette technologie peut améliorer leurs workflows internes et enrichir leurs produits et services. Selon une étude du cabinet de conseil en gestion McKinsey, un tiers des organisations utilisent déjà régulièrement l’IA générative dans au moins une fonction de l’entreprise.¹ L’analyste Gartner prévoit que plus de 80 % des entreprises auront déployé des applications d’IA générative ou utilisé des interfaces de programmation d’applications (API) d’IA générative d’ici 2026.2
Découvrez comment intégrer en toute confiance l’IA générative et le machine learning dans votre entreprise.
Dans la plupart des cas, l’IA générative opère en trois phases :
L’IA générative commence par un modèle de fondation, un modèle de deep learning qui sert de base à plusieurs types d’applications d’IA générative. Les modèles de fondation les plus courants aujourd’hui sont les grands modèles de langage (LLM), créés pour les applications de génération de texte. Il existe également des modèles de fondation pour la génération d’images, de vidéos, de sons et de musique, ainsi que des modèles de fondation multimodaux, qui peuvent prendre en charge plusieurs types de génération de contenus.
Pour créer un modèle de fondation, les spécialistes entraînent un algorithme de deep learning sur d’énormes volumes de données brutes, non structurées et non étiquetées, par exemple des téraoctets de données provenant d’Internet ou d’une autre source volumineuse de données. Durant la phase d’entraînement, l’algorithme effectue et évalue des millions d’exercices de « remplissage des blancs », en essayant de prédire l’élément suivant d’une séquence (par exemple le mot suivant d’une phrase, l’élément suivant d’une image, la commande suivante d’une ligne de code) et en s’ajustant continuellement pour minimiser la différence entre ses prédictions et les données réelles (ou le résultat correct).
Le résultat de cet entraînement est un réseau neuronal de paramètres, c’est-à-dire des représentations codées des entités, des schémas et des relations dans les données, qui peuvent générer des contenus de manière autonome en réponse aux entrées ou aux invites.
Ce processus d’entraînement est gourmand en ressources informatiques, long et coûteux : il nécessite des milliers d’unités de traitement graphique (GPU) en cluster et des semaines de traitement, le tout représentant des millions de dollars d’investissement. Les projets de modèles de fondation open source, tels que Llama-2 de Meta, permettent aux développeurs d’IA générative d’éviter cette étape et les coûts induits.
Un modèle de fondation est d’une certaine manière généraliste : il connaît beaucoup de types de contenus, mais se révèle souvent incapable de générer des types de sorties spécifiques avec la précision ou la fidélité souhaitée. Pour cela, le modèle doit être adapté à une tâche de génération de contenu spécifique. Il existe différents moyens de le faire.
Le réglage fin consiste à fournir au modèle des données étiquetées spécifiques à l’application de génération de contenu, soit des questions ou des invites que l’application est susceptible de recevoir, ainsi que les réponses correctes correspondantes dans le format souhaité. Par exemple, si une équipe de développement se prépare à créer un chatbot de service client, elle créera des centaines ou des milliers de documents contenant des questions étiquetées et des réponses correctes ayant trait à ce domaine, puis intègrera ces documents dans le modèle.
Le réglage fin demande beaucoup de travail. Les développeurs confient souvent cette tâche à des entreprises disposant d’effectifs importants pour l’étiquetage des données.
Avec la technique du RLHF (« Reinforcement learning from human feedback », ou apprentissage par renforcement à partir des commentaires humains), les utilisateurs réagissent, au moyen d’évaluations, au contenu généré pour mettre à jour le modèle afin d’en améliorer la précision et la pertinence. Le RLHF implique souvent que les gens « notent » différentes sorties en réponse à une même invite. Il s’agit généralement d’un processus très simple qui demande aux personnes de corriger la sortie par saisie manuelle ou de répondre à un chatbot ou à un assistant virtuel.
Les développeurs et les utilisateurs évaluent régulièrement les résultats de leurs applications d’IA générative et procèdent à de nouveaux réglages du modèle, souvent une fois par semaine, pour en vérifier la précision et la pertinence. (Un modèle de fondation est mis à jour beaucoup moins fréquemment, généralement tous les ans ou tous les 18 mois.)
Enfin, la génération augmentée par récupération (« Retrieval Augmented Generation » ou RAG) est une autre technique employée pour améliorer les performances d’une application d’IA générative. La RAG est un cadre permettant d’étendre le modèle de fondation en utilisant des sources pertinentes externes aux données d’entraînement, le but étant de compléter et d’affiner les paramètres ou les représentations du modèle original. Avec la RAG, une application d’IA générative a toujours accès aux informations les plus récentes. En outre, les sources supplémentaires auxquelles la RAG permet d’accéder sont connues des utilisateurs, ce qui n’est pas le cas des ressources contenues dans le modèle de fondation original.
Les modèles d’IA véritablement générative, c’est-à-dire les modèles de deep learning capables de créer de manière autonome des contenus à la demande, ont évolué au cours de ces dix dernières années. La période a été marquée par les percées suivantes dans l’architecture des modèles :
Les auto-encodeurs variationnels (« Variational autoencoders » ou VAE), qui ont permis des avancées en matière de reconnaissance d’images, de traitement automatique du langage naturel et de détection des anomalies.
Les réseaux antagonistes génératifs (« Generative adversarial networks » ou GAN) et les modèles de diffusion, qui ont amélioré la précision des applications précédentes et permis l’émergence des premières solutions d’IA pour la génération d’images photoréalistes.
Les transformateurs, l’architecture de modèle de deep learning qui sous-tend les principaux modèles de fondation et solutions d’IA générative d’aujourd’hui.
Un auto-encodeur est un modèle de deep learning comprenant deux réseaux neuronaux connectés : un qui code (ou compresse) une énorme quantité de données d’entraînement non structurées et non étiquetées en paramètres, l’autre qui décode ces paramètres pour reconstruire le contenu. Techniquement, les auto-encodeurs peuvent générer de nouveaux contenus, mais ils sont plus utiles pour compresser des données à des fins de stockage ou de transfert et les décompresser avant de les utiliser que pour générer des contenus de haute qualité.
Introduits en 2013, les auto-encodeurs variationnels (VAE) peuvent encoder les données de la même manière qu’un auto-encodeur, mais ils sont capables de décoder plusieurs nouvelles variantes du contenu. En entraînant un VAE à générer des variantes dans un but défini, il peut se concentrer sur un contenu plus précis et plus fidèle au fil du temps. Les premières applications de VAE comprenaient la détection d’anomalies (par exemple, l’analyse d’images médicales) et la génération de langage naturel.
Les GAN, introduits en 2014, comprennent eux aussi deux réseaux neuronaux : un générateur qui produit de nouveaux contenus, et un discriminateur qui évalue la précision et la qualité des données générées. Ces algorithmes antagonistes incitent le modèle à générer des résultats de qualité croissante.
Les GAN sont couramment utilisés pour la génération d’images et de vidéos, et sont capables de générer des contenus ultra-réalistes et de haute qualité dans divers domaines. Ils se sont révélés particulièrement efficaces dans des tâches comme le transfert de style (modification du type de l’image, par exemple d’une photo à un croquis au crayon) et l’augmentation des données (création de nouvelles données synthétiques pour augmenter la taille et la diversité d’un ensemble de données d’entraînement).
Également introduits en 2014, les modèles de diffusion consistent d’abord à ajouter du bruit aux données d’entraînement de façon à les rendre aléatoires et incompréhensibles, puis à entraîner l’algorithme à diffuser le bruit de manière itérative afin de révéler une sortie souhaitée.
Les modèles de diffusion ont un entraînement plus long que les VAE ou les GAN, mais offrent un contrôle plus fin de la sortie, en particulier pour les outils de génération d’images de haute qualité. DALL-E, l’outil de génération d’images d’Open AI, est piloté par un modèle de diffusion.
Documentés pour la première fois dans un article publié en 2017 par Ashish Vaswani et d’autres auteurs, les transformateurs, en faisant évoluer le paradigme encodeur-décodeur, représentent une avancée majeure dans la manière dont les modèles de fondation sont entraînés, ainsi que dans la qualité et la gamme de contenus qu’ils peuvent produire. Ces modèles sont au cœur de la plupart des outils d’IA générative en vogue aujourd’hui, notamment ChatGPT et GPT-4, Copilot, BERT, Bard et Midjourney, pour n’en citer que quelques-uns.
Les transformateurs utilisent un concept appelé l’attention pour déterminer ce qui est le plus important dans les données d’une séquence et se concentrer dessus, le but étant :
traiter des séquences entières de données simultanément, par exemple, des phrases au lieu de mots individuels ;
capturer le contexte des données dans la séquence ;
D’encoder les données d’entraînement dans des intégrations (également appelées hyperparamètres) qui représentent les données et leur contexte.
En plus d’accélérer l’entraînement, les transformateurs excellent dans le traitement automatique du langage naturel (NLP) et la compréhension du langage naturel (NLU). Bien plus que de simples réponses aux questions, ils sont capables de générer de plus longues séquences de données, comme des poèmes, des articles ou des documents, avec plus de précision et une meilleure qualité que les autres modèles profonds d’IA générative. Les modèles transformateurs peuvent aussi être entraînés ou réglés pour utiliser des outils tels que les feuilles de calcul, le HTML ou un programme de dessin, le but étant de générer des contenus dans un format particulier.
L’IA générative permet de créer de nombreux types de contenu dans différents domaines.
Les modèles génératifs, en particulier ceux basés sur des transformateurs, peuvent générer des textes cohérents et contextuellement pertinents (instructions, documentation, brochures, e-mails, textes de sites web, blogs, articles, rapports, documents, voire écriture créative). Ils peuvent également effectuer des tâches d’écriture répétitives ou fastidieuses (par exemple, la rédaction de synthèses de documents ou de méta descriptions de pages web), libérant ainsi du temps pour des tâches plus créatives et à plus forte valeur.
Les outils de génération d’images comme DALL-E, Midjourney et Stable Diffusion sont capables de créer des images hyperréalistes ou des œuvres d’art originales, et d’effectuer des transferts de style, des transpositions image à image et d’autres tâches d’édition ou d’amélioration d’images. Les nouveaux outils vidéo d’IA générative peuvent créer des animations à partir de messages texte et appliquer des effets spéciaux à des vidéos existantes plus rapidement et à moindre coût que les autres méthodes.
Les modèles génératifs peuvent synthétiser des contenus vocaux et audio avec une intonation naturelle pour les chatbots basés sur l’IA et les assistants numériques à commande vocale, la narration de livres audio et d’autres applications. La même technologie peut générer de la musique originale qui imite la structure et le son des compositions professionnelles.
L’IA générative peut générer du code original, compléter automatiquement des extraits de code, effectuer une conversion entre différents langages de programmation et résumer les fonctionnalités du code. Elle permet aux développeurs de créer rapidement des prototypes, de remanier et de déboguer des applications tout en offrant une interface en langage naturel pour les tâches de codage.
Les modèles d’IA générative peuvent générer des œuvres d’art et de design uniques, ou aider à la conception graphique. Les applications comprennent la génération dynamique d’environnements, de personnages ou d’avatars, ainsi que des effets spéciaux pour les simulations virtuelles et les jeux vidéo.
Les modèles d’IA générative peuvent être entraînés à générer des données synthétiques ou des structures synthétiques basées sur des données réelles ou synthétiques. Par exemple, l’IA générative est appliquée à la découverte de médicaments pour générer des structures moléculaires présentant les propriétés souhaitées, ce qui facilite la conception de nouveaux composés pharmaceutiques.
L’avantage évident et fondamental de l’IA générative est sa plus grande efficacité. En étant capable de générer des contenus et des réponses à la demande, l’IA générative a le potentiel d’accélérer ou d’automatiser les tâches fastidieuses, de réduire les coûts et de libérer du temps pour des activités à plus forte valeur.
L’IA générative offre cependant d’autres avantages aux particuliers et aux organisations.
Les outils d’IA générative peuvent stimuler la créativité par le biais d’un brainstorming automatisé qui produit de multiples versions inédites d’un contenu. Ces variantes peuvent également servir de points de départ ou de références pour aider les écrivains, les artistes, les designers et d’autres créateurs à surmonter les blocages créatifs.
L’IA générative excelle dans l’analyse de grands ensembles de données, l’identification de schémas et l’extraction d’informations pertinentes, puis dans la génération d’hypothèses et de recommandations basées sur ces informations pour aider les décideurs, les analystes, les chercheurs et d’autres professionnels à prendre des décisions plus intelligentes, fondées sur des données.
Dans des applications telles que les systèmes de recommandation et dans la création de contenus, l’IA générative peut analyser les préférences et l’historique des utilisateurs pour générer des contenus personnalisés en temps réel, ce qui permet d’offrir une expérience utilisateur plus personnalisée et plus attrayante.
L’IA générative fonctionne en continu sans fatigue, offrant une disponibilité 24 heures sur 24 pour des tâches comme les chatbots de support client et les réponses automatisées.
Voici quelques-uns des cas d’utilisation de l’IA générative pour les entreprises. Nous devrions en voir apparaître beaucoup plus à mesure que la technologie se développe et que les organisations intègrent ces outils dans leurs workflows.
Les agences de marketing peuvent gagner du temps et améliorer leur production de contenus en utilisant des outils d’IA générative pour rédiger des textes destinés aux articles de blog, aux pages web, aux documents, aux e-mails et à d’autres supports. Les solutions d’IA générative peuvent aussi produire en temps réel des textes et des visuels marketing hautement personnalisés en fonction du moment, du lieu et de l’audience ciblée par le message publicitaire diffusé. En alimentant les chatbots de nouvelle génération et des agents virtuels capables de donner des réponses personnalisées, voire de lancer des actions au nom du client, ces solutions constituent une avancée significative par rapport à la génération précédente de modèles d’IA conversationnelle entraînés sur des données plus limitées pour des tâches très spécifiques.
Les outils de génération de code peuvent automatiser et accélérer le processus d’écriture de nouveau code. La génération de code peut également accélérer considérablement la modernisation des applications en automatisant une grande partie du codage répétitif nécessaire à la modernisation des applications existantes pour les environnements de cloud hybride.
L’IA générative peut rapidement rédiger ou réviser des contrats, des factures, des reçus et d’autres documents « papier » ou physiques afin que les employés qui l’utilisent ou la gèrent puissent se concentrer sur des tâches à plus forte valeur. Les workflows sont ainsi accélérés dans quasiment tous les domaines de l’entreprise, notamment les ressources humaines, les services juridiques, les achats et les finances.
Les modèles d’IA générative peuvent aider les scientifiques et les ingénieurs à proposer des solutions nouvelles à des problèmes complexes. Dans le domaine de la santé, par exemple, les modèles génératifs permettent de synthétiser des images médicales afin d’entraîner et de tester les systèmes d’imagerie.
L’IA générative a enregistré des avancées remarquables en relativement peu de temps, mais elle présente encore des défis et des risques importants pour les développeurs, les utilisateurs et le grand public. Voici quelques-uns des cas les plus sérieux, et la manière dont ils sont résolus.
Dans le domaine de l’intelligence artificielle, une hallucination est un résultat d’IA générative absurde ou totalement erroné, mais qui semble souvent tout à fait plausible. L’exemple classique est celui d’un avocat qui s’est servi d’un outil d’IA générative pour effectuer des recherches en préparation d’une affaire très médiatisée. L’outil a « produit » plusieurs cas avec des citations et des références entièrement fictives (lien externe à ibm.com).
Certains spécialistes considèrent les hallucinations comme une conséquence inévitable de l’équilibre entre la précision d’un modèle et ses capacités créatives. Les développeurs peuvent toutefois mettre en place des mesures préventives, appelées garde-fous, qui veillent à ce que le modèle ne soit exposé qu’à des sources de données pertinentes et fiables. Une évaluation et un réglage continus contribuent également à réduire les hallucinations et les inexactitudes.
En raison de la nature variationnelle ou probabiliste des modèles d’IA générative, les mêmes entrées peuvent produire des sorties légèrement ou notablement différentes. Cela peut être indésirable dans certaines applications, telles que les chatbots de service client, où des résultats cohérents sont attendus ou souhaités. Grâce au prompt engineering, qui consiste à affiner ou à combiner les invites de manière itérative, les utilisateurs peuvent obtenir des invites qui fournissent systématiquement les résultats attendus de leurs applications d’IA générative.
Les modèles génératifs sont capables d’apprendre les préjugés sociétaux présents dans les données d’entraînement (ou encore dans les données étiquetées, les sources de données externes ou les évaluateurs humains qui règlent le modèle) et générer en conséquence un contenu biaisé, injuste ou offensant. Pour éviter les résultats biaisés de leurs modèles, les développeurs doivent veiller à la diversité des données d’entraînement, établir des consignes pour éviter les biais pendant la phase d’entraînement et de réglage, et évaluer en permanence les résultats du modèle pour en vérifier les dérives et l’exactitude.
De nombreux modèles d’IA générative sont des modèles de type « boîte noire », c’est-à-dire qu’il peut être difficile voire impossible de comprendre leurs processus décisionnels. Même les ingénieurs ou les data scientists qui créent l’algorithme sous-jacent ne sont pas en mesure de comprendre ou d’expliquer ce qui se passe exactement à l’intérieur et comment parvenir à un résultat spécifique. Les pratiques et les techniques d’IA explicable peuvent aider les spécialistes et les utilisateurs à comprendre les processus et les sorties des modèles génératifs et à leur faire confiance.
L’évaluation et la comparaison de la qualité du contenu généré peuvent aussi s’avérer complexes. Les mesures d’évaluation conventionnelles ne permettent pas de capturer les nuances inhérentes à la créativité, à la cohérence ou à la pertinence. Le développement de méthodes d’évaluation robustes et fiables de l’IA générative demeure un domaine de recherche actif.
Les modèles d’IA générative peuvent être exploités pour générer des e-mails convaincants de phishing, de fausses identités ou d’autres contenus malveillants qui incitent les utilisateurs à faire des choses potentiellement dangereuses pour la sécurité et la confidentialité des données. Les développeurs et les utilisateurs doivent veiller à ce que les données intégrées au modèle (pendant le réglage ou à l’occasion d’une invite) n’exposent pas leur propre propriété intellectuelle ou toute information protégée à ce titre par d’autres organisations. Ils doivent également surveiller les résultats pour rechercher les nouveaux contenus qui exposent leur propriété intellectuelle ou qui enfreignent les droits de propriété intellectuelle d’autrui.
Les deepfakes sont des images, des vidéos ou des sons générés ou manipulés par l’IA, créés pour convaincre que ce que l’on voit, regarde ou entend quelqu’un dire ou faire est réel alors que tout est faux. Ils font partie des exemples les plus inquiétants de l’exploitation de la puissance de l’IA générative à des fins malveillantes.
Les deepfakes créés pour nuire à la réputation de quelqu’un ou diffuser de la désinformation sont bien connus. Plus récemment, des cybercriminels ont déployé des deepfakes dans le cadre de cyberattaques (par exemple, de fausses voix dans des escroqueries par phishing vocal) ou de stratagèmes de fraude financière.
Les chercheurs s’emploient activement à mettre au point des modèles d’IA capables de détecter les deepfakes avec une plus grande précision. D’ici là, la formation des utilisateurs et l’adoption des bonnes pratiques (par exemple, ne pas partager de document suspect non vérifié) peuvent aider à limiter les dégâts causés par les deepfakes.
Le terme « IA générative » est apparu dans la conscience publique dans les années 2020, alors qu’elle fait partie de nos vies depuis des décennies et que sa technologie actuelle s’appuie sur les percées du machine learning, qui remontent au début du 20e siècle. Voici quelques dates historiques qui ont marqué l’évolution de l’IA générative :
1964 : Joseph Weizenbaum, informaticien au MIT, développe ELIZA, une application de traitement automatique du langage naturel basée sur du texte. Tout premier agent conversationnel (appelé « chatterbot » à l’époque), ELIZA utilisait des scripts de correspondance de schémas pour répondre aux entrées saisies en langage naturel par des réponses textuelles empathiques.
1999 : Nvidia distribue GeoForce, la première unité de traitement graphique. Développés à l’origine pour fournir des animations fluides pour les jeux vidéo, les GPU sont devenus la plateforme de facto pour le développement des modèles d’IA et le minage des cryptomonnaies.
2004 : la fonctionnalité d’autocomplétion de Google apparaît pour la première fois, générant des mots ou des phrases suivants potentiels lorsque les utilisateurs saisissent leurs termes de recherche. La technologie relativement moderne de l’IA générative est basée sur une chaîne de Markov, un modèle mathématique développé en 1906.
2013 : Apparition des premiers auto-encodeurs variationnels (VAE).
2014 : Apparition des premiers réseaux antagonistes génératifs (GAN) et des modèles de diffusion.
2017 : Ashish Vaswani, une équipe de Google Brain et un groupe de l’Université de Toronto publient « Attention is All You Need », un article qui documente les principes des modèles de transformation, largement reconnus comme la base des modèles de fondation et des outils d’IA générative les plus puissants développés aujourd’hui.
2019-2020 : OpenAI déploie ses grands modèles de langage GPT (Generative Pretrained Transformer), GPT-2 et GPT-3.
2022 : OpenAI présente ChatGPT, une interface front-end pour GPT-3 qui génère des phrases complexes, cohérentes et contextuelles et des contenus longs en réponse aux invites de l’utilisateur final.
Par sa notoriété et sa popularité, ChatGPT a ouvert les vannes. Les solutions d’IA générative et les lancements de produits se sont succédé à un rythme effréné, dont Google Bard (maintenant Gemini), Microsoft Copilot, IBM watsonx.ai, et le grand modèle de langage open source Llama-2 de Meta.
Entraînez, validez, réglez et déployez facilement l’IA générative, des modèles de fondation et des fonctionnalités de machine learning, et créez rapidement des applications d’IA avec seulement une fraction des données disponibles. IBM watsonx.ai rassemble de nouvelles capacités d’IA générative, alimentées par des modèles de fondation et un machine learning conventionnel, dans un studio puissant couvrant l’intégralité du cycle de vie de l’IA.
Offrez une expérience d’exception aux clients à chaque interaction, aux agents des centres d’appels qui ont besoin d’aide, et même aux employés qui ont besoin d’informations. Générez des réponses en langage naturel exactes et rapides, fondées sur le contenu de votre entreprise, pour favoriser une interaction axée sur les résultats.
Construisez l’avenir de votre entreprise avec des solutions d’IA de confiance. Grâce à son expérience inégalée dans la résolution d’enjeux stratégiques parmi les plus complexes au monde, IBM peut vous aider dans votre transition vers l’IA, quel que soit votre parcours.
Notre nouvelle expérience pédagogique phare en matière d’IA pour les entreprises, AI Academy, aide les chefs d’entreprise à acquérir les connaissances nécessaires pour donner la priorité aux investissements dans l’IA qui peuvent stimuler la croissance.
Notre étude fondée sur les données aide les entreprises à identifier et à exploiter les opportunités qu’offre le domaine de l’IA générative en plein essor et en constante évolution.
L’IA générative pour les PDG : trouver l’équilibre entre la création de valeur, l’investissement exigé et les risques induits.
Apprenez les concepts fondamentaux et développez vos compétences grâce à des ateliers pratiques, à des cours, à des projets guidés, à des essais et à d’autres ressources.
Un mauvais choix de modèle peut avoir de lourdes conséquences pour votre entreprise. Découvrez comment choisir le modèle le mieux adapté à votre cas d’utilisation.
Le deep learning permet aux systèmes de regrouper les données et de faire des prédictions d’une précision exceptionnelle.
1 The state of AI in 2023: Generative AI’s breakout year (lien externe à ibm.com), McKinsey, le 1er août 2023
2 Selon Gartner, plus de 80 % des entreprises auront utilisé des API d’IA générative ou déployé des applications intégrant l’IA générative d’ici 2026 (lien externe à ibm.com), Gartner, le 11 octobre 2023