Los agentes de IA basan sus acciones en la información que perciben. Sin embargo, a menudo carecen de los conocimientos necesarios para abordar todas las subtareas de un objetivo complejo. Para cerrar esta brecha, recurren a las herramientas disponibles, como conjuntos de datos externos, búsquedas web, API e incluso otros agentes.
Una vez recopilada la información que falta, el agente actualiza su base de conocimientos y se involucra en el razonamiento agéntico. Este proceso implica reevaluar continuamente su plan de acción y hacer autocorrecciones, lo que permite una toma de decisiones más informada y adaptable.
Para ayudar a ilustrar este proceso, imaginemos a un usuario planeando sus vacaciones. El usuario encarga a un agente de IA que prediga qué semana del año que viene tendrá probablemente el mejor tiempo para su viaje de surf a Grecia.
Dado que el modelo LLM en el núcleo del agente no se especializa en patrones meteorológicos, no puede basarse únicamente en su conocimiento interno. Por lo tanto, el agente recopila información de una base de datos externa que contiene informes meteorológicos diarios para Grecia durante los últimos años.
A pesar de adquirir esta nueva información, el agente sigue sin poder determinar las condiciones meteorológicas óptimas para navegar, por lo que se crea la siguiente subtarea. Para esta subtarea, el agente se comunica con un agente externo especializado en navegación. Digamos que, al hacerlo, el agente se entera de que las mareas altas y el tiempo soleado con poca o ninguna lluvia proporcionan las mejores condiciones para surfear.
El agente ahora puede combinar la información que ha aprendido de sus herramientas para identificar patrones, y predecir en qué semana del año siguiente en Grecia es más probable que haya mareas altas, tiempo soleado y pocas probabilidades de lluvia. Estos hallazgos se presentan al usuario. Este intercambio de información entre herramientas es lo que permite a los agentes de IA ser más generales que los modelos de IA tradicionales3.