¿Qué son los agentes de IA?

Autores

Anna Gutowska

AI Engineer, Developer Advocate

IBM

¿Qué son los agentes de IA?

Un agente de inteligencia artificial (IA) es un sistema que realiza tareas de forma autónoma mediante el diseño de flujos de trabajo con las herramientas disponibles.

Los agentes de IA pueden abarcar una amplia gama de funciones más allá del procesamiento del lenguaje natural, incluyendo la toma de decisiones, la resolución de problemas, la interacción con entornos externos y la realización de acciones.

Los agentes de IA resuelven tareas complejas en aplicaciones empresariales, incluido el diseño de software, la automatización de TI, la generación de código y la asistencia conversacional. Utilizan las técnicas avanzadas de procesamiento del lenguaje natural de los modelos de lenguaje de gran tamaño (LLM) para comprender y responder a las entradas de los usuarios paso a paso y determinar cuándo recurrir a herramientas externas.

Cómo funcionan los agentes de IA

En el núcleo de los agentes de IA se encuentran los modelos de lenguaje de gran tamaño (LLM). Por este motivo, los agentes de IA suelen denominarse agentes LLM. Los LLM tradicionales, como los modelos de IBM®  Granite, producen sus respuestas basándose en los datos utilizados para entrenarlos y están limitados por sus conocimientos y su razonamiento. En contraste, la tecnología agéntica utiliza herramientas de llamada en el backend para obtener información actualizada, optimizar los flujos de trabajo y crear subtareas de forma autónoma para alcanzar objetivos complejos.

En este proceso, el agente autónomo aprende a adaptarse a las expectativas de los usuarios a lo largo del tiempo. La capacidad del agente para almacenar interacciones pasadas en la memoria y planificar acciones futuras fomenta una experiencia personalizada y respuestas integrales1. Esta llamada a las herramientas puede lograrse sin intervención humana y amplía las posibilidades de aplicación de estos sistemas de IA en el mundo real. Estas tres etapas o componentes agénticos definen cómo operan los agentes:

Inicialización y planificación de objetivos

Aunque los agentes de IA son autónomos en sus procesos de toma de decisiones, requieren objetivos y reglas predefinidas definidas por humanos2. Hay tres factores principales que influyen en el comportamiento de los agentes autónomos:

  • El equipo de desarrolladores que diseña y entrena el sistema de IA agéntica. 
  • El equipo que implementa el agente y proporciona al usuario acceso a él.
  • El usuario que proporciona al agente de IA objetivos específicos que cumplir y establece las herramientas disponibles para su uso.

Dados los objetivos del usuario y las herramientas disponibles del agente, el agente de IA realiza entonces la descomposición de tareas para mejorar el rendimiento.3 Básicamente, el agente crea un plan de tareas y subtareas específicas para lograr el objetivo complejo.

Para tareas sencillas, la planificación no es imprescindible. En cambio, un agente puede reflexionar iterativamente sobre sus respuestas y mejorarlas sin planificar sus próximos pasos.

Razonamiento con las herramientas disponibles

Los agentes de IA basan sus acciones en la información que perciben. Sin embargo, a menudo carecen de los conocimientos necesarios para abordar todas las subtareas de un objetivo complejo. Para cerrar esta brecha, recurren a las herramientas disponibles, como conjuntos de datos externos, búsquedas web, API e incluso otros agentes.

Una vez recopilada la información que falta, el agente actualiza su base de conocimientos y se involucra en el razonamiento agéntico. Este proceso implica reevaluar continuamente su plan de acción y hacer autocorrecciones, lo que permite una toma de decisiones más informada y adaptable.

Para ayudar a ilustrar este proceso, imaginemos a un usuario planeando sus vacaciones. El usuario encarga a un agente de IA que prediga qué semana del año que viene tendrá probablemente el mejor tiempo para su viaje de surf a Grecia. 

Dado que el modelo LLM en el núcleo del agente no se especializa en patrones meteorológicos, no puede basarse únicamente en su conocimiento interno. Por lo tanto, el agente recopila información de una base de datos externa que contiene informes meteorológicos diarios para Grecia durante los últimos años.

A pesar de adquirir esta nueva información, el agente sigue sin poder determinar las condiciones meteorológicas óptimas para navegar, por lo que se crea la siguiente subtarea. Para esta subtarea, el agente se comunica con un agente externo especializado en navegación. Digamos que, al hacerlo, el agente se entera de que las mareas altas y el tiempo soleado con poca o ninguna lluvia proporcionan las mejores condiciones para surfear.

El agente ahora puede combinar la información que ha aprendido de sus herramientas para identificar patrones, y predecir en qué semana del año siguiente en Grecia es más probable que haya mareas altas, tiempo soleado y pocas probabilidades de lluvia. Estos hallazgos se presentan al usuario. Este intercambio de información entre herramientas es lo que permite a los agentes de IA ser más generales que los modelos de IA tradicionales3.

Aprendizaje y reflexión

Los agentes de IA utilizan mecanismos de feedback, como otros agentes de IA y "human-in-the-loop" (HITL), para mejorar la precisión de sus respuestas. Volvamos a nuestro ejemplo de navegación anterior para resaltar este proceso. Tras formular su respuesta, el agente almacena la información aprendida junto con el feedback del usuario para mejorar su rendimiento y ajustarse a sus preferencias en futuras interacciones.

Si se han utilizado otros agentes para alcanzar el objetivo, su feedback podría ser utilizado también. El feedback multiagente puede ser especialmente útil para reducir el tiempo que los usuarios humanos dedican a dar indicaciones. Sin embargo, los usuarios también pueden proporcionar comentarios a lo largo de las acciones del agente y su razonamiento interno para ajustar mejor los resultados al objetivo deseado2.

Los mecanismos de feedback mejoran el razonamiento y la precisión del agente de IA, lo que suele denominarse refinamiento iterativo.3 Para evitar repetir los mismos errores, los agentes de IA también pueden almacenar datos sobre soluciones a obstáculos anteriores en una base de conocimientos.

Las últimas tendencias en IA, presentadas por expertos

Obtenga conocimientos organizados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM.

¡Gracias! Está suscrito.

Su suscripción se enviará en inglés. Encontrará un enlace para darse de baja en cada boletín. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.

Chatbots de IA agenética vs. a no agenética

Los chatbots de IA utilizan técnicas de IA conversacional, como el procesamiento del lenguaje natural (PLN), para comprender las preguntas de los usuarios y automatizar las respuestas. Estos chatbots son una modalidad y la agencia es un marco tecnológico.

Los chatbots de IA no agénticos son aquellos que no tienen herramientas, memoria ni razonamiento disponibles. Solo pueden alcanzar objetivos a corto plazo y no pueden planificar con antelación. Tal como los conocemos, los chatbots no agénticos requieren una entrada continua del usuario para responder.

Pueden producir respuestas a instrucciones comunes que muy probablemente se ajusten a las expectativas del usuario, pero obtienen malos resultados en preguntas exclusivas del usuario y sus datos. Como estos chatbots no tienen memoria, no pueden aprender de sus errores si sus respuestas no son satisfactorias.

Por el contrario, los chatbots de IA agéntica aprenden a adaptarse a las expectativas de los usuarios con el tiempo, proporcionando una experiencia más personalizada y respuestas integrales. Pueden completar tareas complejas creando subtareas sin intervención humana y considerando diferentes planes. Estos planes también pueden autocorregirse y actualizarse según sea necesario. Los chatbots de IA agéntica, a diferencia de los no agénticos, evalúan sus herramientas y utilizan sus recursos disponibles para completar las lagunas de información.

AI Academy

Conviértase en un experto en IA

Obtenga los conocimientos necesarios para priorizar las inversiones en IA que impulsan el crecimiento empresarial. Dé sus primeros pasos hoy mismo con nuestra AI Academy gratuita y lidere el futuro de la IA en su organización.

Paradigmas de razonamiento

No existe una arquitectura estándar para crear agentes de IA. Existen varios paradigmas para resolver problemas de varios pasos.

ReAct (razonamiento y acción)

Con el paradigma ReAct, podemos instruir a los agentes para que "piensen" y planifiquen después de cada acción realizada y con cada respuesta de herramienta para decidir qué herramienta utilizar a continuación. Estos bucles pensar-actuar-observar se utilizan para resolver problemas paso a paso y mejorar iterativamente las respuestas.

A través de la estructura rápida, se les puede indicar a los agentes que razonen despacio y que muestren cada "pensamiento"4. El razonamiento verbal del agente da una idea de cómo se formulan las respuestas. En este marco, los agentes actualizan continuamente su contexto con nuevos razonamientos. Este enfoque puede interpretarse como una forma de incitación a la cadena de pensamientos.

ReWOO (razonamiento sin observación)

El método ReWoo, a diferencia de ReAct, elimina la dependencia de los resultados de las herramientas para planificar las acciones. En cambio, los agentes planifican con antelación. El uso redundante de herramientas se evita anticipando cuáles usar al recibir la primera solicitud del usuario. Este enfoque es deseable desde una perspectiva centrada en el ser humano porque el usuario puede confirmar el plan antes de que se ejecute.

El flujo de trabajo ReWOO se compone de tres módulos. En el módulo de planificación, el agente anticipa sus próximos pasos según las instrucciones del usuario. La siguiente etapa implica recopilar los resultados producidos al llamar a estas herramientas. Por último, el agente empareja el plan inicial con los outputs de la herramienta para formular una respuesta. Esta planificación anticipada puede reducir en gran medida el uso de token y la complejidad computacional, así como las repercusiones de los fallos de las herramientas intermedias5.

Tipos de agentes de IA

Los agentes de IA pueden desarrollarse para tener distintos niveles de capacidades. Un agente sencillo podría ser preferible para objetivos sencillos para limitar la complejidad computacional innecesaria. En orden de más sencillo a más avanzado, existen cinco tipos principales de agentes:

1. Agentes reflejos simples

Los agentes reflejos simples son la forma de agente más simple que basa las acciones en la percepción. Este agente no tiene memoria ni interactúa con otros agentes si le falta información. Estos agentes funcionan con arreglo a un conjunto de los llamados reflejos o reglas. Este comportamiento significa que el agente está preprogramado para realizar acciones que corresponden al cumplimiento de ciertas condiciones.

Si el agente se encuentra con una situación para la que no está preparado, no puede responder adecuadamente. Los agentes son eficaces en entornos totalmente observables que permitan acceder a toda la información necesaria6.

Ejemplo: si son las 20:00, la calefacción está activada; por ejemplo, un termostato que enciende el sistema de calefacción a una hora determinada todas las noches.

Ilustración del diagrama de agente reflejo simple Diagrama de agente reflejo simple

2. Agentes reflejos basados en modelos

Los agentes reflejos basados en modelos utilizan tanto su percepción actual como su memoria para mantener un modelo interno del mundo. A medida que el agente sigue recibiendo nueva información, el modelo se actualiza. Las acciones del agente dependen de su modelo, reflejos, preceptos previos y estado actual.

Estos agentes, a diferencia de los agentes reflejos simples, pueden almacenar información en la memoria y operar en entornos parcialmente observables y cambiantes. Sin embargo, siguen estando limitados por su conjunto de normas.6

Ejemplo: un robot aspirador. Mientras limpia una habitación sucia, detecta obstáculos como muebles y se ajusta a su alrededor. El robot también almacena un modelo de las áreas que ya ha limpiado para no quedarse atascado en un bucle de limpieza repetida.

Ilustración del diagrama de agente reflejo basado en modelos Diagrama de agente reflejo basado en modelos

3. Agentes basados en objetivos

Los agentes basados en objetivos tienen un modelo interno del mundo y también un objetivo o conjunto de objetivos. Estos agentes buscan secuencias de acción que alcancen su objetivo y planifican estas acciones antes de actuar sobre ellas. Esta búsqueda y planificación mejoran su eficacia en comparación con los agentes reflejos simples y basados en modelos.7

Ejemplo: un sistema de navegación que recomienda la ruta más rápida a su destino. El modelo considera varias rutas que llegan a su destino, o lo que es lo mismo, a su objetivo. En este ejemplo, la regla de condición-acción del agente establece que si se encuentra una ruta más rápida, el agente recomienda esa en su lugar.

Ilustración del diagrama de agente basado en objetivos Diagrama de agente basado en objetivos

4. Agentes basados en la utilidad

Los agentes basados en la utilidad seleccionan la secuencia de acciones que alcanzan el objetivo y también maximizan la utilidad o la recompensa. Los servicios se calculan a través de una función de servicios. Esta función asigna un valor de servicios, una métrica que mide la utilidad de una acción o lo "feliz" que hace al agente, a cada escenario en función de un conjunto de criterios fijos.

Los criterios pueden incluir factores como la progresión hacia el objetivo, los requisitos de tiempo o la complejidad computacional. Luego, el agente selecciona las acciones que maximizan la utilidad esperada. Por lo tanto, estos agentes son útiles en los casos en los que múltiples escenarios alcanzan un objetivo deseado y debe seleccionarse el óptimo7.

Ejemplo: un sistema de navegación que le recomiende la ruta a su destino que optimice el consumo de combustible y minimice el tiempo empleado en el tráfico y el coste de los peajes. Este agente mide la utilidad a través de este conjunto de criterios para seleccionar la ruta más favorable.

Ilustración del diagrama de agente basado en servicios Diagrama de agente basado en la utilidad

5. Agentes de aprendizaje

Los agentes de aprendizaje tienen las mismas capacidades que los otros tipos de agentes, pero son únicos en su capacidad de aprender. Se añaden nuevas experiencias a su base de conocimientos inicial, que se produce de forma autónoma. Este aprendizaje mejora la capacidad del agente para operar en entornos desconocidos. Los agentes de aprendizaje pueden basarse en servicios o en objetivos en su razonamiento y se componen de cuatro elementos principales:7

  • Aprendizaje: este proceso mejora el conocimiento del agente aprendiendo del entorno a través de sus preceptos y sensores.
  • Crítico: este componente proporciona feedback al agente sobre si la calidad de sus respuestas cumple con el estándar de rendimiento.
  • Rendimiento: este elemento se encarga de seleccionar las acciones tras el aprendizaje.
  • Generador de problemas: este módulo crea varias propuestas de acciones a tomar.

Ejemplo: recomendaciones personalizadas en sitios de comercio electrónico. Estos agentes rastrean en su memoria la actividad y las preferencias del usuario. Esta información se utiliza para recomendar ciertos productos y servicios al usuario. El ciclo se repite cada vez que se hacen nuevas recomendaciones. La actividad del usuario se almacena continuamente con fines de aprendizaje. Al hacerlo, el agente mejora su precisión con el tiempo.

Diagrama del agente de aprendizaje Diagrama del agente de aprendizaje

Casos de uso de agentes de IA

Experiencia del cliente

Los agentes de IA pueden integrarse en sitios web y aplicaciones para mejorar la experiencia del cliente actuando como asistentes virtuales, proporcionando apoyo de salud mental, simulando entrevistas y otras tareas relacionadas.Hay muchas plantillas no-code para la implementación por parte del usuario, lo que facilita el proceso de creación de estos agentes de IA.

Atención médica

Los agentes de IA se pueden utilizar para diversas aplicaciones sanitarias del mundo real. Los sistemas multiagente pueden ser útiles para resolver problemas en dichos entornos. Desde la planificación del tratamiento de los pacientes del servicio de urgencias hasta la gestión de los procesos farmacológicos, estos sistemas ahorran tiempo y esfuerzo a los profesionales médicos en tareas más urgentes9.

Respuesta de emergencia

Si se produce un desastre natural, los agentes de IA pueden utilizar algoritmos de deep learning para recuperar la información de los usuarios de las redes sociales que necesitan rescate. Las ubicaciones de estos usuarios se pueden mapear para ayudar a los servicios de rescate a salvar a más personas en menos tiempo. Por lo tanto, los agentes de IA pueden tener un gran beneficio en la vida humana tanto en tareas mundanas y repetitivas como en situaciones que salvan vidas10.

Finanzas y cadena de suministro

Los agentes pueden diseñarse para analizar datos financieros en tiempo real, anticiparse a las tendencias futuras del mercado y optimizar la gestión de la cadena de suministro. La personalización de los agentes autónomos de IA nos proporciona resultados personalizados para nuestros datos únicos. Cuando se trabaja con datos financieros, es importante aplicar medidas de seguridad para la protección de datos.

Beneficios de los agentes de IA

Automatización de tareas

Con los continuos avances en IA generativa y machine learning, existe un creciente interés en la optimización del flujo de trabajo a través de la IA o automatización inteligente. Los agentes de IA son herramientas de IA que pueden automatizar tareas complejas que de otro modo requerirían recursos humanos. Este cambio se traduce en objetivos que se alcanzan de forma económica, rápida y a escala. En consecuencia, estos avances implican que los agentes humanos no necesitan dar indicaciones al asistente de IA para crear y navegar por sus tareas.

Mayor rendimiento

Los marcos multiagente tienden a superar a los agentes singulares11 .Esto se debe a que cuantos más planes de acción estén disponibles para un agente, mayor será el aprendizaje y la reflexión.

Un agente de IA que incorpore los conocimientos y el feedback de otros agentes de IA especializados en áreas relacionadas puede resultar útil para la síntesis de la información. Esta colaboración en segundo plano de los agentes de IA y la capacidad de rellenar lagunas de información son exclusivas de los marcos agénticos, lo que los convierte en una herramienta poderosa y un avance significativo en inteligencia artificial.

Calidad de las respuestas

Los agentes de IA proporcionan respuestas más completas, precisas y personalizadas para el usuario que los modelos tradicionales de IA. Esta adaptabilidad es importante para nosotros como usuarios porque las respuestas de mayor calidad suelen ofrecer una mejor experiencia del cliente. Como se ha descrito anteriormente, esta capacidad es posible mediante el intercambio de información con otros agentes, a través de herramientas y la actualización de su flujo de memoria. Estos comportamientos surgen por sí solos y no están preprogramados12.

Riesgos y limitaciones

Dependencias multiagente

Ciertas tareas complejas requieren el conocimiento de múltiples agentes de IA. La orquestación de estos marcos multiagente conlleva un riesgo de mal funcionamiento. Los sistemas multiagente creados sobre los mismos modelos fundacionales pueden experimentar dificultades compartidas. Estas debilidades pueden provocar un fallo en todo el sistema de todos los agentes implicados o exponer la vulnerabilidad a ataques adversos13. Esto pone de relieve la importancia del gobierno de datos en la creación de modelos fundacionales y procesos exhaustivos de formación y pruebas.

Bucles de feedback infinitos

La conveniencia del razonamiento de no intervención para los usuarios humanos habilitado por los agentes de IA también conlleva sus riesgos. Los agentes que no pueden crear un plan integral o reflexionar sobre sus hallazgos, pueden encontrarse llamando repetidamente a las mismas herramientas, provocando bucles de feedback infinitos. Para evitar estas redundancias, podría utilizarse algún nivel de monitorización humana en tiempo real13.

Complejidad computacional

Crear agentes de IA desde cero lleva mucho tiempo y también puede resultar muy caro desde el punto de vista informático. Los recursos necesarios para formar a un agente de alto rendimiento pueden ser amplios. Además, dependiendo de la complejidad de la tarea, los agentes pueden tardar varios días en completar las tareas12.

Protección de datos

Si se gestiona mal, la integración de los agentes de IA con los procesos empresariales y los sistemas de gestión de clientes puede plantear serios problemas de seguridad. Por ejemplo, imagina que los agentes de IA lideran el proceso de desarrollo de software, llevan los copilotos de codificación al siguiente nivel o determinan los precios para los clientes, sin supervisión humana ni medidas de seguridad. Los resultados de estos escenarios pueden ser perjudiciales debido al comportamiento experimental y, a menudo, impredecible de la IA agéntica.

Por lo tanto, es esencial que los proveedores de IA como IBM, Microsoft y OpenAI sigan siendo proactivos. Deben implementar amplios protocolos de seguridad para garantizar que los datos confidenciales de empleados y clientes se almacenen de forma segura. Las prácticas de implementación responsable son clave para minimizar el riesgo y mantener la confianza en estas tecnologías en rápida evolución.

Buenas prácticas

Registros de actividad

Para abordar las preocupaciones de las dependencias de varios agentes, los desarrolladores pueden proporcionar a los usuarios acceso a un registro de las acciones de los agentes14. Las acciones pueden incluir el uso de herramientas externas y describir los agentes externos utilizados para alcanzar el objetivo. Esta transparencia permite a los usuarios conocer el proceso iterativo de toma de decisiones, ofrece la oportunidad de descubrir errores y genera confianza.

Interrupción

Se recomienda evitar que los agentes de IA autónomos se ejecuten durante períodos de tiempo demasiado largos. En particular, en casos de bucles de feedback infinitos no intencionados, cambios en el acceso a ciertas herramientas o mal funcionamiento debido a fallos de diseño. Una forma de lograr este objetivo es implementar la interrumpibilidad.

Mantener el control de esta decisión implica permitir a los usuarios humanos la opción de interrumpir con gracia una secuencia de acciones o toda la operación. Elegir si interrumpir a un agente de IA y cuándo hacerlo requiere cierta reflexión, ya que algunas terminaciones pueden causar más daño que beneficio. Por ejemplo, podría ser más seguro permitir que un agente defectuoso siga prestando asistencia en una emergencia potencialmente mortal que apagarlo completamente5.

Identificadores únicos de agente

Para mitigar el riesgo de que los sistemas agentivos se utilicen con fines maliciosos, se pueden implementar identificadores únicos. Si estos identificadores fueran necesarios para que los agentes accedieran a sistemas externos, sería más fácil rastrear el origen de los desarrolladores, implementadores y usuarios del agente.

Este enfoque añade una capa esencial de responsabilidad. La trazabilidad ayuda a identificar a las partes responsables cuando un agente causa un uso malicioso o un daño involuntario. En última instancia, este tipo de salvaguarda fomentaría un entorno operativo más seguro para los agentes de IA.

Supervisión humana

Para ayudar en el proceso de aprendizaje de los agentes de IA, especialmente en sus primeras etapas en un nuevo entorno, puede ser útil proporcionar cierto nivel de supervisión humana. Así, basándose en esta orientación, el agente de IA puede comparar su rendimiento con el estándar esperado y realizar ajustes. Este tipo de feedback es útil para mejorar la adaptabilidad del agente a las preferencias del usuario5.

Además de esta salvaguarda, es una buena práctica requerir la aprobación humana antes de que un agente de IA tome medidas de gran impacto. Por ejemplo, las acciones que van desde el envío masivo de correos electrónicos hasta el comercio financiero deben requerir confirmación humana7. Se recomienda cierto nivel de monitorización humana para estos dominios de alto riesgo.

Soluciones relacionadas
Agentes de IA para empresas

Cree, implemente y gestione potentes asistentes y agentes de IA que automaticen flujos de trabajo y procesos con IA generativa.

    Explore watsonx Orchestrate
    Soluciones de agente de IA de IBM

    Construya el futuro de su empresa con soluciones de IA en las que puede confiar.

    Explore las soluciones de los agentes de IA
    Servicios de IA de IBM Consulting

    Los servicios de IA de IBM Consulting ayudan a reinventar la forma de trabajar de las empresas usando IA para la transformación.

    Explore los servicios de inteligencia artificial
    Dé el siguiente paso

    Tanto si opta por personalizar las aplicaciones y habilidades prediseñadas como si prefiere crear e implementar servicios agentivos personalizados mediante un estudio de IA, la plataforma IBM watsonx le ofrece todo lo que necesita.

    Explore watsonx Orchestrate Explore watsonx.ai
    Notas a pie de página

    1 Andrew Zhao, Daniel Huang, Quentin Xu, Matthieu Lin, Yong-Jin Liu y Gao Huang. "Expel: LLM agents are experiential learners". Proceedings of the AAAI conference on artificial intelligence. Vol. 38. N.º 17. Págs. 19632-19642. 2024. https://ojs.aaai.org/index.php/AAAI/article/view/29936\
    2 Yonadov Shavit, Sandhini Agarwal, Miles Brundage, Steven Adler, Cullen O’Keefe, Rosie Campbell, Teddy Lee, Pamela Mishkin, Tyna Eloundou, Alan Hickey, Katarina Slama, Lama Ahmad, Paul McMillan, Alex Beutel, Alexandre Passos y David G. Robinson. “Practices for governing agentic AI Systems”. OpenAI. 2023. https://arxiv.org/pdf/2401.13138v3
    3 Tula Masterman, Sandi Besen, Mason Sawtell y Alex Chao. “The landscape of emerging AI agent architectures for reasoning, planning and tool calling: A Survey”. Preimpresión de arXiv. 2024. https://arxiv.org/abs/2404.11584
    4 Gautier Dagan, Frank Keller y Alex Lascarides. "Dynamic planning with an LLM". Preimpresión de arXiv. 2023. https://arxiv.org/abs/2308.06391
    5 Binfeng Xu, Zhiyuan Peng, Bowen Lei, Subhabrata Mukherjee, Yuchen Liu y Dongkuan Xu. "ReWOO: Decoupling reasoning from observations for efficient augmented language models". Preimpresión de arXiv. 2023. https://arxiv.org/abs/2305.18323
    6 Sebastian Schmid, Daniel Schraudner y Andreas Harth. "C"Performance comparison of simple reflex agents using stigmergy with model-based agents in self-organizing transportation". IEEE International conference on autonomic computing and self-organizing systems companion. Págs. 93–98. 2021. https://ieeexplore.ieee.org/document/9599196
    7 Veselka Sasheva Petrova-Dimitrova. “Classifications of intelligence agents and their applications”. Fundamental sciences and applications. Vol. 28. N.º 1. 2022.
    8 Lei Wang, Chen Ma, Xueyang Feng, Zeyu Zhang, Hao Yang, Jingsen Zhang, Zhiyuan Chen, Jiakai Tang, Xu Chen, Yankai Lin, Wayne Xin Zhao, Zhewei Wei y Jirong Wen. “A survey on large language model based autonomous agents”. Frontiers of computer science. Vol. 18. N.º 6. 2024. https://link.springer.com/article/10.1007/s11704-024-40231-1
    9 Jaya R. Haleema, Haleema, N. C. S. N. Narayana. “Enhancing a traditional health care system of an organization for better service with agent technology by ensuring confidentiality of patients’ medical information”. Cybernetics and information technologies. Vol. 12. N.º 3. Págs. 140-156. 2013. https://sciendo.com/article/10.2478/cait-2013-0031
    10 Jingwei Huang, Wael Khallouli, Ghaith Rabadi y Mamadou Seck. “Intelligent agent for hurricane emergency identification and text information extraction from streaming social media big data”. International journal of critical infrastructures. Vol. 19. N.º 2. Págs. 124–139. 2023. https://arxiv.org/abs/2106.07114
    11 Junyou Li, Qin Zhang, Yangbin Yu, Qiang Fu y Deheng Ye. "More agents is all you need". Preimpresión de arXiv. 2024. https://arxiv.org/abs/2402.05120
    12 Joon Sung Park, Joseph O'Brien, Carrie Jun Cai, Meredith Ringel Morris, Percy Liang y Michael S. Bernstein. "Generative agents: Interactive simulacra of human behavior". Proceedings of the 36th annual ACM symposium on user interface software and technology. Págs. 1–22. 2023. https://dl.acm.org/doi/10.1145/3586183.3606763
    13 Alan Chan, Carson Ezell, Max Kaufmann, Kevin Wei, Lewis Hammond, Herbie Bradley, Emma Bluemke, Nitarshan Rajkumar, David Krueger, Noam Kolt, Lennart Heim y Markus Anderljung. “Visibility into AI agents”. The 2024 ACM Conference on fairness, accountability and transparency. Págs. 958–973. 2024. https://arxiv.org/abs/2401.13138
    14 Devjeet Roy, Xuchao Zhang, Rashi Bhave, Chetan Bansal, Pedro Las-Casas, Rodrigo Fonseca y Saravan Rajmohan. "Exploring LLM-based agent for root cause analysis". Preimpresión de arXiv. 2024. https://arxiv.org/abs/2403.04123