Accueil

Think

Thèmes

Agents d'AI

Qu'est-ce qu'un agent d'intelligence artificielle ?
Découvrir la solution d'agents d’IA d’IBM S’inscrire pour recevoir les dernières informations sur l’IA
Illustration montrant un client interagissant avec un chatbot du service client.

Date de publication : 3 juillet 2024
Contributrice : Anna Gutowska

Qu'est-ce qu'un agent d'intelligence artificielle ?

Un agent d'intelligence artificielle (IA) désigne un système ou un programme capable d'exécuter des tâches de manière autonome pour le compte d'un utilisateur ou d'un autre système, en concevant son workflow et en utilisant les outils disponibles.

Les agents d'IA peuvent offrir un large éventail de fonctionnalités au-delà du traitement automatique du langage naturel, comme la prise de décision, la résolution de problèmes, l'interaction avec des environnements externes et l'exécution d'actions.

Ces agents peuvent être déployés dans diverses applications pour résoudre des tâches complexes dans différents contextes d'entreprise, que ce soit pour la conception de logiciels, l'automatisation informatique, les outils de génération de code ou les assistants conversationnels. Ils utilisent les techniques avancées de traitement automatique du langage naturel des grands modèles de langage (LLM) pour comprendre et répondre aux entrées utilisateur, étape par étape, et déterminer quand utiliser des outils externes.

Choisir le bon modèle de fondation

Utilisez ce cadre de sélection de modèles pour choisir le modèle le plus approprié tout en équilibrant vos exigences de performance avec les coûts, les risques et les besoins de déploiement.

Contenu connexe Créer un agent LangChain AI en Python avec watsonx Qu'est-ce qu'un système multi-agents ?
Comment fonctionnent les agents d'intelligence artificielle ?

Les grands modèles linguistiques (LLM) sont au cœur des agents d'IA. C'est pourquoi ces agents sont souvent appelés agents LLM.Les LLM traditionnels, tels que les modèles IBM Granite, produisent des réponses basées sur les données utilisées pour leur entraînement, mais ils sont limités en termes de connaissances et de capacités de raisonnement. En revanche, la technologie d'agents utilise l'appel d'outils en arrière-plan pour obtenir des informations actualisées, optimiser les workflows et créer des sous-tâches de manière autonome afin d'atteindre des objectifs complexes.

Dans ce processus, l'agent autonome apprend à s'adapter aux attentes de l'utilisateur au fil du temps. La capacité de l'agent à mémoriser les interactions passées et à planifier des actions futures favorise une expérience personnalisée et des réponses complètes.1 Cet appel d'outils peut se faire sans intervention humaine, élargissant ainsi les possibilités d'application réelle de ces systèmes d'IA. L'approche adoptée par les agents d'IA pour atteindre les objectifs fixés par les utilisateurs comprend les trois étapes suivantes :

Initialisation et planification des objectifs

Bien que les agents d'IA soient autonomes dans leurs processus de prise de décision, ils ont besoin d'objectifs et d'environnements définis par les humains.2Le comportement des agents autonomes est influencé par trois facteurs principaux :

  • L'équipe de développeurs qui conçoit et entraîne le système d'IA agentielle.
  • L'équipe qui déploie l'agent et permet à l'utilisateur d'y accéder.
  • L'utilisateur, qui fournit à l'agent des objectifs spécifiques à atteindre et définit les outils disponibles.

En fonction des objectifs de l'utilisateur et des outils disponibles, l'agent d'IA procède à la décomposition des tâches pour améliorer ses performances.3Essentiellement, l'agent crée un plan de tâches et de sous-tâches spécifiques pour atteindre des objectifs complexes.

Pour les tâches simples, la planification n'est pas nécessaire ; l'agent peut plutôt itérativement améliorer ses réponses sans planifier ses prochaines étapes.

Raisonnement à l'aide des outils disponibles

Les agents d'intelligence artificielle fondent leurs actions sur les informations qu'ils perçoivent. Souvent, les agents d'intelligence artificielle ne disposent pas de la base de connaissances complète nécessaire pour s'attaquer à toutes les sous-tâches d'un objectif complexe. Pour remédier à cette situation, les agents d'IA utilisent les outils dont ils disposent. Ces outils peuvent inclure des ensembles de données externes, des recherches sur le web, des API, et même d'autres agents. Après avoir récupéré les informations manquantes via ces outils, l'agent peut mettre à jour sa base de connaissances. Cela signifie qu'à chaque étape, l'agent réévalue son plan d'action et s'autocorrige.  

Pour illustrer ce processus, imaginons un utilisateur qui planifie ses vacances. L'utilisateur demande à un agent d'intelligence artificielle de prédire quelle semaine de l'année prochaine aura probablement les meilleures conditions météorologiques pour son voyage de surf en Grèce. Comme le modèle LLM au cœur de l'agent n'est pas spécialisé dans les modèles météorologiques, l'agent recueille des informations auprès d'une base de données externe composée de rapports météorologiques quotidiens pour la Grèce sur les dernières années.

Même après l'acquisition de ces nouvelles informations, l'agent n'est toujours pas capable de déterminer les conditions météorologiques optimales pour le surf. Par conséquent, une nouvelle sous-tâche est créée. Pour cette sous-tâche, l'agent communique avec un agent externe spécialisé dans le surf. Disons qu'en procédant ainsi, l'agent apprend que les marées hautes et le temps ensoleillé avec peu ou pas de pluie sont idéaux pour le surf.

L'agent peut alors combiner les informations apprises grâce à ses outils pour identifier des modèles et prédire quelle semaine de l'année prochaine en Grèce aura des marées hautes, un temps ensoleillé et un faible risque de pluie. Ces résultats sont ensuite présentés à l'utilisateur. Ce partage d'informations entre outils est ce qui permet aux agents d'IA d'être plus polyvalents que les modèles d'IA traditionnels.3

Apprentissage et réflexion

Les agents d'IA utilisent des mécanismes de retour d'information, tels que d'autres agents d'IA ou l'interaction humaine suivant le principe du human-in-the-loop (HITL), pour améliorer la précision de leurs réponses. Reprenons l'exemple de surf pour l'illustrer. Après avoir formulé sa réponse à l'utilisateur, l'agent stocke les informations apprises ainsi que les retours de l'utilisateur pour améliorer ses performances et s'adapter aux préférences de ce dernier lors de futurs objectifs.

Si d'autres agents ont été utilisés pour atteindre l'objectif, leurs retours peuvent également être intégrés. Le retour d'information de plusieurs agents peut être particulièrement utile pour minimiser le temps que les utilisateurs humains consacrent à donner des instructions. Cependant, les utilisateurs peuvent également fournir des retours tout au long des actions et du raisonnement interne de l'agent pour mieux aligner les résultats sur l'objectif fixé.2 

Les mécanismes de retour d'information améliorent le raisonnement et la précision des agents d'IA, processus communément appelé raffinement itératif.3 Pour éviter de répéter les mêmes erreurs, les agents d'IA peuvent également stocker des données sur les solutions trouvées face à des obstacles précédents dans une base de connaissances.

Chatbots d'IA agentiels ou non agentiels

Les chatbots d'IA utilisent des techniques d'IA conversationnelle telles que le traitement automatique du langage naturel (NLP) pour comprendre les questions des utilisateurs et automatiser les réponses. Ces chatbots sont une modalité, tandis que l'agentivité est un cadre technologique. 

Les chatbots d'IA non agentiels sont ceux qui ne disposent ni d'outils, ni de mémoire, ni de capacités de raisonnement. Ils ne peuvent atteindre que des objectifs à court terme et ne sont pas capables de planifier à l'avance. Tels que nous les connaissons, les chatbots non agentiels nécessitent une intervention continue de l'utilisateur pour répondre. Ils peuvent produire des réponses à des questions courantes qui sont susceptibles de correspondre aux attentes de l'utilisateur, mais leurs performances sont insuffisantes face à des questions spécifiques à l'utilisateur ou à ses données. Étant donné que ces chatbots n'ont pas de mémoire, ils ne peuvent pas apprendre de leurs erreurs si leurs réponses sont insatisfaisantes.

En revanche, les chatbots d'IA agentiels apprennent à s'adapter aux attentes des utilisateurs au fil du temps, offrant ainsi une expérience plus personnalisée et des réponses plus complètes. Ils peuvent accomplir des tâches complexes en créant des sous-tâches sans intervention humaine et en élaborant différents plans. Ces plans peuvent également être autocorrigés et mis à jour si nécessaire. Contrairement aux chatbots non agentiels, les chatbots d'IA agentiels évaluent leurs outils et utilisent les ressources disponibles pour combler les lacunes en matière d'information. 

Paradigmes de raisonnement

Il n'existe pas d'architecture standard pour la création d'agents d'IA. Différents paradigmes existent pour résoudre des problèmes à plusieurs étapes. 

ReAct (raisonnement et action)

Avec ce paradigme, les agents sont instruits pour « réfléchir » et planifier après chaque action réalisée et chaque réponse obtenue d'un outil afin de décider quel outil utiliser ensuite. Ces boucles de réflexion, d'action et d'observation sont utilisées pour résoudre des problèmes étape par étape et améliorer les réponses de manière itérative.

Grâce à la structure des invites, les agents peuvent être instruits pour raisonner lentement et exposer chaque « pensée ».4 Le raisonnement verbal de l'agent permet de comprendre comment les réponses sont formulées. Dans ce cadre, les agents actualisent en permanence leur contexte en intégrant de nouveaux raisonnements, ce qui peut être interprété comme une forme d'incitation par chaîne de pensée (CoT)

ReWOO (Raisonnement Sans Observation)

La méthode ReWOO, contrairement à ReAct, supprime la dépendance aux résultats des outils pour la planification des actions. Les agents planifient en amont, évitant ainsi une utilisation redondante des outils en anticipant ceux qu'il faudra utiliser dès la réception de l'invite initiale de l'utilisateur.  Cela est souhaitable du point de vue de l'utilisateur, car celui-ci peut confirmer le plan avant qu'il ne soit exécuté.

Le workflow de ReWOO se compose de trois modules : Dans le module de planification, l'agent anticipe ses prochaines étapes à partir de l'invite de l'utilisateur. L'étape suivante consiste à collecter les résultats des outils. Enfin, l'agent associe le plan initial aux résultats des outils pour formuler une réponse. Cette planification anticipée peut réduire considérablement l'utilisation des jetons et la complexité informatique, tout en minimisant les impacts d'une éventuelle défaillance intermédiaire des outils.

Types d'agents d'intelligence artificielle

Les agents d'intelligence artificielle peuvent être développés pour avoir différents niveaux de capacités. Un agent simple peut être préféré pour des objectifs simples afin de limiter la complexité informatique inutile. Dans l'ordre du plus simple au plus avancé, il existe cinq principaux types d'agents :

1. Agents réflexes simples

Les agents réflexes simples sont la forme d'agent la plus basique qui fonde ses actions sur la perception actuelle. Ces agents ne possèdent ni mémoire ni interaction avec d'autres agents lorsqu'il leur manque des informations. Ils fonctionnent sur la base de règles ou de réflexes préprogrammés. Cela signifie que l'agent exécute des actions en fonction de certaines conditions définies à l'avance.

Si l'agent rencontre une situation pour laquelle il n'est pas programmé, il ne peut pas réagir de manière appropriée. Ces agents ne sont efficaces que dans des environnements entièrement observables, où toutes les informations nécessaires sont disponibles.6

Exemple : un thermostat qui active le chauffage à une heure précise chaque soir. La règle condition-action est : s'il est 20 heures, alors le chauffage est activé.

Agents réflexes basés sur un modèle

Les agents réflexes basés sur un modèle utilisent à la fois leur perception actuelle et leur mémoire pour maintenir un modèle interne du monde. À mesure que l'agent reçoit de nouvelles informations, ce modèle est mis à jour. Les actions de l'agent dépendent de ce modèle, de ses réflexes, des perceptions antérieures et de son état actuel.

Contrairement aux agents réflexes simples, ces agents peuvent stocker des informations en mémoire et opérer dans des environnements partiellement observables et dynamiques. Cependant, ils restent limités par leur ensemble de règles.6

Exemple : un aspirateur robot. Lorsqu'il nettoie une pièce, il détecte les obstacles comme les meubles et s'ajuste en conséquence. Le robot stocke également un modèle des zones déjà nettoyées pour éviter de repasser aux mêmes endroits. 

3. Agents basés sur des objectifs

Les agents basés sur des objectifs possèdent un modèle interne du monde ainsi qu'un ou plusieurs objectifs. Ces agents recherchent des séquences d'actions pour atteindre leurs objectifs et planifient ces actions avant de les exécuter. Cette recherche et cette planification améliorent leur efficacité par rapport aux agents réflexes simples et aux agents basés sur un modèle.7

Exemple : un système de navigation qui recommande l'itinéraire le plus rapide pour atteindre votre destination. Le modèle prend en compte différents itinéraires permettant d'atteindre votre destination, ou en d'autres termes, votre objectif. Dans cet exemple, la règle condition-action de l'agent stipule que si un itinéraire plus rapide est trouvé, l'agent le recommande à la place.

4. Agents basés sur l'utilité

Les agents basés sur l'utilité sélectionnent la séquence d'actions qui permet d'atteindre l'objectif tout en maximisant l'utilité ou la récompense. L'utilité est calculée à l'aide d'une fonction d'utilité. Cette fonction attribue une valeur d'utilité, un indicateur mesurant l'utilité d'une action ou le degré de satisfaction de l'agent, à chaque scénario en fonction d'un ensemble de critères fixes.

Les critères peuvent inclure des facteurs tels que la progression vers l'objectif, le temps requis ou la complexité informatique. L'agent sélectionne ensuite les actions qui maximisent l'utilité attendue. Ces agents sont donc utiles dans les cas où plusieurs scénarios permettent d'atteindre un objectif souhaité et où il faut en sélectionner un optimal.7

Exemple : un système de navigation qui recommande l'itinéraire vers votre destination en optimisant l'efficacité énergétique et en minimisant le temps passé dans les embouteillages et le coût des péages. Cet agent mesure l'utilité à travers cet ensemble de critères pour sélectionner l'itinéraire le plus favorable.

5. Agents apprenants

Les agents apprenants possèdent les mêmes capacités que les autres types d'agents, mais leur particularité réside dans leur capacité d'apprentissage. De nouvelles expériences sont ajoutées à leur base de connaissances initiale de manière autonome. Cet apprentissage améliore la capacité de l'agent à opérer dans des environnements peu familiers. Le raisonnement des agents apprenants peut être basé sur l'utilité ou sur un objectif, et ils se composent de quatre éléments principaux :7

  • Apprentissage : améliore les connaissances de l'agent en apprenant de l'environnement par le biais de ses préceptes et capteurs.
  • Critique : cette fonction fournit un retour à l'agent sur la qualité de ses réponses par rapport à la norme de performance.
  • Performance :  cet élément est responsable de la sélection des actions à partir de l'apprentissage acquis.
  • Générateur de problème : il crée diverses propositions d'actions à entreprendre.

Exemple : recommandations personnalisées sur les sites de commerce électronique. Ces agents enregistrent l'activité et les préférences de l'utilisateur dans leur mémoire. Ces informations sont utilisées pour recommander certains produits et services à l'utilisateur. Le cycle se répète à chaque fois que de nouvelles recommandations sont faites. L'activité de l'utilisateur est continuellement stockée pour améliorer l'apprentissage, ce qui permet à l'agent d'affiner ses recommandations au fil du temps. 

Cas d'utilisation des agents d'intelligence artificielle
Expérience client

Les agents d'IA peuvent être intégrés dans des sites web et des applications pour améliorer l'expérience client, en servant d'assistants virtuels, en fournissant un soutien en matière de santé mentale, en simulant des entretiens, et pour d'autres tâches connexes.8Il existe de nombreux modèles no-code permettant aux utilisateurs de créer facilement ces agents d'IA. 

Soins de santé

Les agents d'intelligence artificielle peuvent également être utilisés dans diverses applications dans le secteur de la santé. Les systèmes multi-agents peuvent être particulièrement utiles pour la résolution de problèmes dans ces environnements. Qu'il s'agisse de la planification des traitements des patients dans les services d'urgence ou de la gestion des processus médicamenteux, ces systèmes permettent aux professionnels de la santé de consacrer leur temps et leurs efforts à des tâches plus urgentes.9

Réponse aux situations d'urgence

En cas de catastrophe naturelle, les agents d'IA peuvent utiliser des algorithmes d'apprentissage profond pour récupérer les informations des utilisateurs sur les réseaux sociaux ayant besoin d'être secourus. La localisation de ces utilisateurs peut être cartographiée pour aider les services de secours à sauver davantage de personnes en moins de temps. Ainsi, les agents d'IA peuvent considérablement améliorer la vie humaine, tant dans les tâches quotidiennes que dans des situations de sauvetage.10

Avantages des agents d’IA

Automatisation des tâches

Avec les progrès continus de l'IA générative, l'optimisation des workflows grâce à l'IA, ou l'automatisation intelligente, suscite un intérêt croissant. Les agents d'IA sont des outils capables d'automatiser des tâches complexes qui nécessiteraient autrement des ressources humaines. Cela permet d'atteindre des objectifs à moindre coût, rapidement et à grande échelle. Grâce à ces avancées, les agents humains n'ont plus besoin de fournir des instructions à l'assistant d'IA pour qu'il crée et gère ses tâches. 

Performances accrues

Les cadres multi-agents ont tendance à surpasser les agents uniques.11En effet, plus un agent dispose de plans d'action, plus il peut apprendre et réfléchir. Un agent d'IA qui intègre les connaissances et les retours d'autres agents d'IA spécialisés dans des domaines connexes peut être utile pour la synthèse d'informations. Cette collaboration en arrière-plan entre agents d'IA, ainsi que leur capacité à combler les lacunes en matière d'information, est propre aux cadres agentiques, en faisant un outil puissant et une avancée majeure dans l'intelligence artificielle.

Qualité des réponses

Les agents d'IA fournissent des réponses plus complètes, précises et personnalisées que les modèles d'IA traditionnels. C'est un élément essentiel pour nous, en tant qu'utilisateurs, car des réponses de meilleure qualité améliorent généralement l'expérience client. Comme décrit précédemment, cela est possible grâce à l'échange d'informations avec d'autres agents, à l'utilisation d'outils externes et à la mise à jour de leur flux de mémoire. Ces comportements émergent d'eux-mêmes et ne sont pas préprogrammés.12

Risques et limites

Dépendances multi-agents

Certaines tâches complexes nécessitent les connaissances de plusieurs agents d'IA. Lors de la mise en œuvre de ces cadres multi-agents, il existe un risque de dysfonctionnement. Les systèmes multi-agents construits sur les mêmes modèles de fondation peuvent rencontrer des écueils communs. Ces faiblesses pourraient entraîner une défaillance de l'ensemble du système pour tous les agents concernés ou exposer des vulnérabilités face à des attaques adverses.13Cela souligne l'importance d'une bonne gouvernance des données dans la conception des modèles de fondation ainsi que des processus rigoureux de formation et de test.

Boucles de rétroaction infinies

La commodité du raisonnement autonome pour les utilisateurs humains utilisant des agents d'IA s'accompagne également de risques. Les agents qui ne parviennent pas à établir un plan complet ou à analyser leurs résultats peuvent se retrouver à utiliser les mêmes outils à plusieurs reprises, entraînant des boucles de rétroaction infinies. Pour éviter ces redondances, un certain niveau de surveillance humaine en temps réel peut être requis.13

Complexité informatique

Créer des agents d’IA à partir de zéro prend du temps et peut également être très coûteux en termes de ressources informatiques. Les ressources nécessaires à la formation d'un agent performant peuvent être considérables. De plus, en fonction de la complexité de la tâche, les agents peuvent mettre plusieurs jours à la terminer.12

Bonnes pratiques

Journaux d’activité 

Pour répondre aux préoccupations liées aux dépendances multi-agents, les développeurs peuvent donner aux utilisateurs un accès à un journal des actions de l'agent.14 Ces actions peuvent inclure l'utilisation d'outils externes et décrire les agents externes utilisés pour atteindre l'objectif. Cette transparence permet aux utilisateurs de mieux comprendre le processus de prise de décision itératif, de détecter d'éventuelles erreurs et d'instaurer un climat de confiance.

Interruption

Il est recommandé d'empêcher les agents d'IA de fonctionner pendant des périodes trop longues. Cela est particulièrement important dans les cas de boucles de rétroaction infinies involontaires, de changements d'accès à certains outils ou de dysfonctionnements liés à des défauts de conception. L'une des solutions consiste à mettre en œuvre al capacité d'interruption.

Pour garder le contrôle, il faut permettre aux utilisateurs humains d'interrompre une séquence d'actions ou l'opération entière de manière contrôlée. Le choix de savoir si et quand interrompre un agent d'IA nécessite réflexion, car certaines interruptions peuvent causer plus de tort que de bien. Par exemple, il peut être plus sûr de laisser un agent défectueux continuer à fonctionner en cas d'urgence vitale plutôt que de l'arrêter complètement.5

Identifiants uniques pour les agents

Pour réduire le risque d'utilisation malveillante des systèmes d'agents, des identifiants uniques peuvent être utilisés.14 Si ces identifiants étaient requis pour que les agents accèdent à des systèmes externes, il serait plus facile de retracer l'origine des développeurs, des déployeurs et des utilisateurs de l'agent. Cela serait particulièrement utile en cas d'utilisation malveillante ou de dommages involontaires causés par l'agent. Ce niveau de responsabilité permettrait de créer un environnement plus sûr pour le fonctionnement de ces agents d'IA.

Supervision humaine

Pour faciliter le processus d'apprentissage des agents d'IA, notamment dans leurs premières phases d'intégration dans un nouvel environnement, il peut être utile de fournir un retour d'information humain de manière occasionnelle. Cela permet à l'agent de comparer ses performances aux standards attendus et de s'ajuster en conséquence. Cette forme de feedback aide à améliorer l'adaptabilité de l'agent aux préférences des utilisateurs.5

Il est également préférable de demander une validation humaine avant qu'un agent d'IA ne prenne des actions à fort impact. Par exemple, l'envoi d'e-mails en masse ou le trading financier devraient nécessiter une confirmation humaine.7 Un certain niveau de surveillance humaine est recommandé dans ces domaines à haut risque.

Produits et solutions connexes
IBM watsonx AI

Utilisez IBM watsonx AI, un studio d’entreprise nouvelle génération destiné aux entreprises qui permet aux générateurs d’IA puissent entraîner, valider, ajuster et déployer des modèles d’intelligence artificielle en tant que plateforme de développement permettant de créer des agents d’IA.

Découvrir watsonx AI Essayez watsonx AI

IBM watsonx Assistant

Utilisez IBM watsonx Assistant, un chatbot d'IA de niveau entreprise, équipé de capacités génératives permettant de produire des réponses précises et conversationnelles. 

Découvrez watsonx Assistant Essayez watsonx Assistant

IBM watsonx Code Assistant

Optimisez la productivité des développeurs grâce à l’utilisation d’IBM watsonx Code Assistant, alimenté par les modèles de fondation IBM Granite. Les fonctionnalités incluent la génération de code, la mise en correspondance et la modernisation.

Découvrir watsonx Code Assistant Essayez watsonx Code Assistant

IBM watsonx Orchestrate

Allégez la charge de travail et améliorez la productivité à l’aide des assistants d’IA générative avec IBM watsonx Orchestrate, alimenté par des LLM. 

Explorez watsonx Orchestrate Essayer watsonx Orchestrate

IBM Consulting Advantage

Nous utilisons IBM Consulting Advantage, notre plateforme d’engagement alimentée par l’IA, qui renforce notre expertise avec des agents, des assistants et des actifs d’IA générative spécialement conçus, pour fournir des solutions à grande échelle et accélérer la création de valeur pour les clients.

Découvrir IBM Consulting Advantage Access

Ressources connexes Créer un agent LangChain AI en Python avec watsonx

Utilisez le package LangChain Python pour créer un agent d'IA en Python avec watsonx et des outils personnalisés.

Qu'est-ce qu'un système multi-agents ?

Un système multi-agents (MAS) est composé de plusieurs agents d'intelligence artificielle (IA) travaillant ensemble pour accomplir des tâches au nom d'un utilisateur ou d'un autre système.

Entraîner un agent logiciel à se comporter de manière rationnelle grâce à l'apprentissage par renforcement

Utilisez cette technique de machine learning pour identifier des actions à partir d'états dans un environnement.

Assistants virtuels d’IA générative pour entreprise : IBM watsonx

Créez des assistants IA qui permettent aux utilisateurs de réaliser des tâches sans avoir besoin de connaissances spécialisées.

Développement de logiciels augmentés par l'IA avec des agents (assistants)

Les agents, également appelés assistants, sont des versions spécialisées de LLM, préconfigurées et ajustées avec précision pour soutenir des rôles spécifiques.

Qu’est-ce qu’un agent conversationnel ?

Un agent conversationnel combine le traitement automatique du langage naturel, la recherche intelligente et l'automatisation robotisée des processus (RPA) dans une interface utilisateur conversationnelle, généralement sous forme de chatbot.

Passer à l’étape suivante

Entraînez, validez, réglez et déployez une IA générative, des modèles de fondation et des capacités de machine learning avec IBM watsonx.ai, un studio professionnel de nouvelle génération pour les générateurs d’IA. Créez des applications d’IA en peu de temps et avec moins de données.

Découvrir watsonx.ai Réserver une démo en direct
Notes de bas de page

1 Andrew Zhao, Daniel Huang, Quentin Xu, Matthieu Lin, Yong-Jin Liu, and Gao Huang, « Expel: Llm agents are experiential learners, » Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 38, No. 17, pp. 19632-19642, 2024, https://ojs.aaai.org/index.php/AAAI/article/view/29936 (lien externe à ibm.com).

Yonadov Shavit, Sandhini Agarwal, Miles Brundage, Steven Adler, Cullen O’Keefe, Rosie Campbell, Teddy Lee, Pamela Mishkin, Tyna Eloundou, Alan Hickey, Katarina Slama, Lama Ahmad, Paul McMillan, Alex Beutel, Alexandre Passos and David G. Robinson, « Practices for Governing Agentic AI Systems, » OpenAI, 2023, https://arxiv.org/pdf/2401.13138v3 (lien externe à ibm.com).

3 Tula Masterman, Sandi Besen, Mason Sawtell, Alex Chao, « The Landscape of Emerging AI AgentArchitectures for Reasoning, Planning, and Tool Calling: A Survey, » arXiv preprint, 2024, https://arxiv.org/abs/2404.11584 (link resides outside of ibm.com).

4 Gautier Dagan, Frank Keller, and Alex Lascarides, « Dynamic Planning with a LLM, » arXiv preprint, 2023. https://arxiv.org/abs/2308.06391 (lien externe à ibm.com).

Binfeng Xu, Zhiyuan Peng, Bowen Lei, Subhabrata Mukherjee, Yuchen Liu, and Dongkuan Xu, « ReWOO: Decoupling Reasoning from Observations for Efficient Augmented Language Models, » arXiv preprint, 2023, https://arxiv.org/abs/2305.18323 (lien externe à ibm.com).

6 Sebastian Schmid, Daniel Schraudner, and Andreas Harth, « Performance comparison of simple reflex agents using stigmergy with model-based agents in self-organizing transportation. » IEEE International Conference on Autonomic Computing and Self-Organizing Systems Companion, pp. 93-98, 2021, https://ieeexplore.ieee.org/document/9599196 (lien externe à ibm.com).

7 Veselka Sasheva Petrova-Dimitrova, « Classifications of intelligence agents and their applications, » Fundamental Sciences and Applications, Vol. 28, No. 1, 2022.

8 Lei Wang, Chen Ma, Xueyang Feng, Zeyu Zhang, Hao Yang, Jingsen Zhang, Zhiyuan Chen, Jiakai Tang, Xu Chen, Yankai Lin, Wayne Xin Zhao, Zhewei Wei, and Jirong Wen, « A survey on large language model based autonomous agents, » Frontiers of Computer Science, Vol. 18, No. 6, 2024, https://link.springer.com/article/10.1007/s11704-024-40231-1 (lien externe à ibm.com).

Jaya R. Haleema, Haleema, N. C. S. N. Narayana, « Enhancing a Traditional Health Care System of an Organization for Better Service with Agent Technology by Ensuring Confidentiality of Patients’ Medical Information, » Cybernetics and Information Technologies, Vol. 12, No. 3, pp.140-156, 2013, https://sciendo.com/article/10.2478/cait-2013-0031.

10 Jingwei Huang, Wael Khallouli, Ghaith Rabadi, Mamadou Seck, « Intelligent Agent for Hurricane Emergency Identification and Text Information Extraction from Streaming Social Media Big Data, » International Journal of Critical Infrastructures, Vol. 19, No. 2, pp. 124-139, 2023, https://arxiv.org/abs/2106.07114.

11 Junyou Li, Qin Zhang, Yangbin Yu, Qiang Fu, and Deheng Ye. « More agents is all you need. » arXiv preprint, 2024, https://arxiv.org/abs/2402.05120.

12 Joon Sung Park, Joseph O'Brien, Carrie Jun Cai, Meredith Ringel Morris, Percy Liang, and Michael S. Bernstein, « Generative agents: Interactive simulacra of human behavior, » Proceedings of the 36th Annual ACM Symposium on User Interface software and Technology, pp. 1-22, 2023, https://dl.acm.org/doi/10.1145/3586183.3606763.

13 Alan Chan, Carson Ezell, Max Kaufmann, Kevin Wei, Lewis Hammond, Herbie Bradley, Emma Bluemke, Nitarshan Rajkumar, David Krueger, Noam Kolt, Lennart Heim and Markus Anderljung, « Visibility into AI Agents, » The 2024 ACM Conference on Fairness, Accountability, and Transparency, pp. 958-973, 2024, https://arxiv.org/abs/2401.13138.

14 Devjeet Roy, Xuchao Zhang, Rashi Bhave, Chetan Bansal, Pedro Las-Casas, Rodrigo Fonseca, and Saravan Rajmohan, « Exploring LLM-based Agents for Root Cause Analysis, » arXiv preprint, 2024,  https://arxiv.org/abs/2403.04123.