Início

Think

Tópicos

Agentes de IA

O que são agentes de IA?
Explore a solução de agentes de IA da IBM Inscreva-se para receber atualizações sobre IA
Ilustração mostrando cliente interagindo com chatbot para atendimento ao cliente

Publicado em: 3 de julho de 2024
Colaboradora: Anna Gutowska

O que são agentes de IA?

Um agente de inteligência artificial (IA) se refere a um sistema ou programa capaz de executar tarefas de forma autônoma em nome de um usuário ou outro sistema, projetando seu fluxo de trabalho e utilizando as ferramentas disponíveis.

Os agentes de IA podem abranger uma ampla variedade de funcionalidades além do processamento de linguagem natural, inclusive a tomada de decisões, resolução de problemas, interação com ambientes externos e execução de ações.

Esses agentes podem ser implementados em várias aplicações para resolver tarefas complexas em vários contextos corporativos, desde o design de software e a automação de TI até ferramentas de geração de código e assistentes de conversação. Eles fazem uso de técnicas avançadas de processamento de linguagem natural de grandes modelos de linguagem (LLMs) para compreender e responder aos inputs do usuário passo a passo e determinar quando recorrer a ferramentas externas.

Como escolher os modelos de base de IA corretos

Use esta estrutura de seleção de framework para escolher o modelo mais apropriado e, ao mesmo tempo, equilibrar seus requisitos de desempenho com custo, riscos e necessidades de implementação.

Conteúdo relacionado Crie um agente de IA LangChain em Python com o watsonx O que é um sistema multiagentes?
Como funcionam os agentes de IA

No cerne dos agentes de IA estão os grandes modelos de linguagem (LLMs). Por esse motivo, os agentes de IA costumam ser chamados de agentes LLM. Os LLMs tradicionais, como os modelos IBM® Granite, produzem suas respostas com base nos dados usados para treiná-los e possuem limitações de conhecimento e raciocínio. Em contrapartida, a tecnologia agêntica usa solicitações de ferramentas no back-end para receber informações atualizadas, otimizar o fluxo de trabalho e criar subtarefas de modo autônomo para atingir objetivos complexos.

Nesse processo, o agente autônomo aprende a se adaptar às expectativas do usuário ao longo do tempo. A capacidade do agente de armazenar interações passadas na memória e planejar ações futuras estimula uma experiência personalizada e respostas abrangentes.1 Essas solicitações de ferramentas podem ser realizadas sem intervenção humana e ampliam as possibilidades de aplicações desses sistemas de IA no mundo real. A abordagem que os agentes de IA adotam para atingir os objetivos definidos pelos usuários é composta por estas três fases:

Inicialização e planejamento de objetivos

Embora os agentes de IA sejam autônomos em seus processos de tomada de decisão, eles exigem objetivos e ambientes definidos por humanos.2 Há três influências principais no comportamento dos agentes autônomos: 

  • A equipe de desenvolvedores que projeta e treina o sistema de IA do agente. 
  • A equipe que implementa o agente e fornece ao usuário acesso a ele.
  • O usuário que fornece ao agente de IA objetivos específicos a serem alcançados e estabelece as ferramentas disponíveis a serem utilizadas.

Com base nos objetivos do usuário e nas ferramentas disponíveis, o agente de IA executa a decomposição da tarefa para melhorar o desempenho.3 Essencialmente, o agente cria um plano de tarefas e subtarefas específicas para atingir o objetivo complexo.

No caso de tarefas simples, o planejamento não é uma etapa necessária. Em vez disso, o agente pode refletir iterativamente sobre as respostas e melhorá-las sem planejar os próximos passos.

Raciocínio utilizando as ferramentas disponíveis

Os agentes de IA baseiam suas ações nas informações que percebem. Muitas vezes, eles não têm a base de conhecimento completa necessária para lidar com todas as subtarefas dentro de um objetivo complexo. Para corrigir isso, os agentes de IA utilizam as ferramentas disponíveis. Essas ferramentas podem incluir conjuntos de dados externos, pesquisas na web, APIs e até mesmo outros agentes. Depois que as informações ausentes forem recuperadas dessas ferramentas, o agente poderá atualizar sua base de dados de conhecimento. Isso significa que, a cada etapa do processo, o agente reavalia seu plano de ação e se autocorrige.  

Para ajudar a ilustrar esse processo, imagine um usuário planejando as férias. O usuário encarrega um agente de IA de prever qual semana do próximo ano provavelmente terá o melhor clima para sua viagem de surfe na Grécia. Como o modelo de LLM que compõe o agente não é especializado em padrões climáticos, o agente reúne informações de um banco de dados externo composto por boletins meteorológicos diários da Grécia nos últimos anos.

Apesar de adquirir essas novas informações, o agente ainda não consegue determinar as condições climáticas ideais para surfar e, portanto, a próxima subtarefa é criada. Para essa subtarefa, o agente se comunica com um agente externo especializado na prática de surfe. Digamos que, ao fazer isso, o agente aprenda que as marés altas e o tempo ensolarado com pouca ou nenhuma chuva proporcionam as melhores condições para a prática de surfe.

Com isso, o agente pode combinar as informações que aprendeu com suas ferramentas para identificar padrões. Ele pode prever qual semana do próximo ano na Grécia provavelmente terá marés altas, tempo ensolarado e pouca chance de chuva. Essas descobertas são então apresentadas ao usuário. Esse compartilhamento de informações entre as ferramentas é o que permite que os agentes de IA sejam mais versáteis do que os modelos tradicionais de IA.3

Aprendizado e reflexão

Os agentes de IA utilizam mecanismos de feedback, como outros agentes de IA e a interação humana (human-in-the-loop, HITL), para melhorar a precisão de suas respostas. Vamos voltar ao nosso exemplo anterior do surfe para salientar essa questão. Depois que o agente forma sua resposta ao usuário, ele armazena as informações aprendidas junto com o feedback do usuário para melhorar o desempenho e se ajustar às preferências do usuário para objetivos futuros.

Se outros agentes forem usados para alcançar o objetivo, o feedback deles também poderá ser usado. O feedback de vários agentes pode ser especialmente útil para minimizar o tempo que os usuários humanos gastam fornecendo orientações. No entanto, os usuários também podem fornecer feedback em relação às ações e ao raciocínio interno do agente para alinhar melhor os resultados com o objetivo pretendido.

Os mecanismos de feedback melhoram o raciocínio e a precisão do agente de IA, o que é comumente conhecido como refinamento iterativo.3 Para evitar repetir os mesmos erros, os agentes de IA também podem armazenar dados sobre as soluções aos obstáculos anteriores em uma base de conhecimento.

Chatbots IA agênticos versus não agênticos

Os chatbots de IA utilizam técnicas de IA conversacional, como processamento de linguagem natural (NLP), para entender as perguntas dos usuários e automatizar as respostas. Esses chatbots são uma modalidade, enquanto a agência é uma estrutura tecnológica. 

Os chatbots IA não agênticos são aqueles que não têm ferramentas, memória e raciocínio disponíveis. Elas só conseguem atingir objetivos de curto prazo e não conseguem planejar com antecedência. Da forma como os conhecemos, os chatbots não agênticos exigem o input contínuo do usuário para responderem. Eles podem produzir respostas a comandos comuns que provavelmente se alinham às expectativas do usuário, mas têm um desempenho ruim em perguntas exclusivas do usuário e de seus dados. Como esses chatbots não têm memória, eles não aprendem com os erros se suas respostas forem insatisfatórias.

Em contrapartida, os chatbots IA agênticos aprendem a se adaptar às expectativas do usuário ao longo do tempo, proporcionando uma experiência mais personalizada e respostas mais abrangentes. Eles podem concluir tarefas complexas criando subtarefas sem intervenção humana e considerando planos diferentes. Esses planos também podem ser corrigidos e atualizados automaticamente conforme necessário. Os chatbots IA agênticos, diferentemente dos não agênticos, avaliam suas ferramentas e usam os recursos disponíveis para preencher as lacunas de informações. 

Paradigmas de raciocínio

Não há uma arquitetura padrão para a criação de agentes de IA. Existem vários paradigmas para resolver problemas de várias etapas. 

ReAct (raciocínio e ação) 

Com esse paradigma, podemos instruir os agentes a “pensar” e planejar após cada ação executada e com cada resposta da ferramenta para decidir qual ferramenta usar em seguida. Esses ciclos do tipo pensar-agir-observar são usados para resolver problemas passo a passo e melhorar iterativamente as respostas.

Por meio da estrutura de comandos, os agentes podem ser instruídos a raciocinar lentamente e exibir cada “pensamento”.4 O raciocínio verbal do agente fornece um insight sobre como as respostas são formuladas. Nesse framework, os agentes atualizam continuamente seu contexto com novos raciocínios. Isso pode ser interpretado como uma forma de instruções por linha de pensamento

ReWOO (raciocínio sem observação)

O método ReWOO, diferentemente do ReAct, elimina a dependência dos resultados das ferramentas para o planejamento de ações. Em vez disso, os agentes planejam com antecedência. O uso redundante de ferramentas é evitado ao antecipar quais ferramentas usar ao receber o comando inicial do usuário.  Isso é desejável de uma perspectiva centrada no ser humano, pois o usuário pode confirmar o plano antes que ele seja executado.

O fluxo de trabalho do ReWOO é composto por três módulos. No módulo de planejamento, o agente antecipa suas próximas etapas com base em um comando do usuário. A próxima etapa envolve a coleta dos resultados produzidos ao solicitar essas ferramentas. Por último, o agente combina o plano inicial com os resultados das ferramentas para formular uma resposta. Esse planejamento antecipado pode reduzir consideravelmente o uso de tokens e a complexidade computacional, bem como as repercussões da falha de ferramentas intermediárias.

Tipos de agentes de IA

Os agentes de IA podem ser desenvolvidos para ter níveis variáveis de capacidades. Um agente simples pode ser preferível para objetivos diretos para limitar a complexidade computacional desnecessária. Da ordem do mais simples para o mais avançado, existem cinco tipos principais de agentes:

1. Agentes de reflexo simples

Agentes de reflexo simples são a forma de agente mais simples, que baseia as ações em sua percepção atual. Esse agente não contém memória nem interage com outros agentes se estiver faltando informação. Esses agentes funcionam com base em um conjunto dos chamados reflexos ou regras. Isso significa que o agente é pré-programado para executar ações que correspondem ao cumprimento de determinadas condições.

Se o agente se deparar com uma situação para a qual não está preparado, ele não conseguirá responder da maneira adequada. Os agentes só são eficazes em ambientes que são totalmente observáveis e que concedem acesso a todas as informações necessárias.6

Exemplo: um termostato que liga o sistema de aquecimento em um horário definido todas as noites. A regra de condição-ação aqui é, por exemplo, que se for 20h, o aquecimento estará ativado.

2. Agentes de reflexo baseados em modelos

Agentes de reflexos baseados em modelos usam tanto a percepção quanto a memória atuais para manter um modelo interno do mundo. Conforme o agente continua a receber novas informações, o modelo é atualizado. As ações do agente dependem de seu modelo, reflexos, preceitos anteriores e estado atual.

Esses agentes, diferentemente dos agentes de reflexo simples, podem armazenar informações na memória e operar em ambientes que são parcialmente observáveis e mutáveis. Entretanto, eles ainda são limitadas pelo seu conjunto de regras.6

Exemplo: um robô aspirador de pó. Ao limpar um quarto sujo, ele detecta obstáculos, como móveis, e se ajusta em torno deles. O robô também armazena um modelo das áreas que já limpou para não ficar preso em um ciclo de limpeza repetido. 

3. Agentes baseados em objetivos

Os agentes baseados em objetivos possuem um modelo interno do mundo e também um objetivo ou conjunto de objetivos. Esses agentes procuram sequências de ação que atinjam seu objetivo e planejam essas ações antes de agir. Essa busca e planejamento melhoram sua eficácia quando comparados com agentes de reflexo simples e baseados em modelos.7

Exemplo: um sistema de navegação que recomenda a rota mais rápida até seu destino. O modelo considera várias rotas que chegam ao destino, ou seja, seu objetivo. Nesse exemplo, a regra de condição-ação do agente afirma que, se uma rota mais rápida for encontrada, o agente a recomendará.

4. Agentes baseados em utilidade

Agentes baseados em utilidade selecionam a sequência de ações que atingem o objetivo e também maximizam a utilidade ou a recompensa. A utilidade é calculada por meio de uma função de utilidade. Essa função atribui um valor de utilidade, uma métrica que considera a utilidade de uma ação ou o quão “satisfeito” ela deixará o agente, a cada cenário com base em um conjunto de critérios fixos.

Os critérios podem incluir fatores como progressão em direção ao objetivo, requisitos de tempo ou complexidade computacional. Em seguida, o agente seleciona as ações que maximizam a utilidade esperada. Portanto, esses agentes são úteis nos casos em que vários cenários atingem um objetivo desejado e um cenário ideal deve ser selecionado.7

Exemplo: um sistema de navegação que recomenda a rota até o destino que otimiza a eficiência do combustível e minimiza o tempo gasto no trânsito e o custo dos pedágios. Esse agente mede a utilidade por meio desse conjunto de critérios para selecionar a rota mais favorável.

5. Agentes de aprendizagem

Os agentes de aprendizagem têm os mesmos recursos que os outros tipos de agentes, mas são únicos em sua capacidade de aprender. Novas experiências são adicionadas à base de conhecimento inicial, o que ocorre de forma autônoma. Esse aprendizado aprimora a capacidade do agente de operar em ambientes desconhecidos. Os agentes de aprendizagem podem ser baseados na utilidade ou em objetivos em seu raciocínio e são compostos por quatro elementos principais:7

  • Aprendizado: aprimora o conhecimento do agente ao aprender com o ambiente por meio de seus preceitos e sensores.
  • Crítica: fornece feedback ao agente sobre se a qualidade de suas respostas atende ao padrão de desempenho.
  • Desempenho: esse elemento é responsável por selecionar as ações após o aprendizado.
  • Gerador de problemas: cria várias propostas de ações a serem tomadas. 

Exemplo: recomendações personalizadas em sites de comércio eletrônico. Esses agentes monitoram as atividades e as preferências do usuário na memória. Essas informações são usadas para recomendar determinados produtos e serviços ao usuário. O ciclo se repete sempre que novas recomendações são feitas. A atividade do usuário é armazenada continuamente para fins de aprendizado. Ao fazer isso, o agente melhora sua precisão ao longo do tempo. 

Casos de uso de agentes de IA
Experiência do cliente

Os agentes de IA podem ser integrados a sites e aplicativos para aprimorar a experiência do cliente, atuando como assistentes virtuais, fornecendo apoio à saúde mental, simulando entrevistas e outras tarefas relacionadas.Há muitos modelos no-code para implementação no usuário, o que facilita ainda mais o processo de criação desses agentes de IA. 

Setor de saúde

Os agentes de IA podem ser usados para várias aplicações de assistência médica no mundo real. Os sistemas multiagentes podem ser particularmente úteis para a resolução de problemas nesses ambientes. Do planejamento do tratamento para pacientes no departamento de emergência à gestão de processos de medicamentos, esses sistemas economizam tempo e esforço dos profissionais médicos para tarefas mais urgentes.9

Resposta a emergências

Em caso de desastres naturais, os agentes de IA podem usar algoritmos de deep learning para acessar as informações de usuários que precisam de resgate em sites de redes sociais. A localização desses usuários pode ser mapeada para que os serviços de resgate possam salvar mais pessoas em menos tempo. Portanto, os agentes de IA beneficiam muito a vida das pessoas tanto em tarefas rotineiras quanto em situações onde há vidas em risco.10

Benefícios dos agentes de IA

Automação de tarefas

Com os avanços contínuos na IA generativa, há um interesse crescente na otimização do fluxo de trabalho usando IA ou automação inteligente. Agentes de IA são ferramentas de IA capazes de automatizar tarefas complexas que, de outra forma, exigiriam recursos humanos. Isso se traduz em objetivos que podem ser alcançados de forma barata, rápida e em escala. Por sua vez, esses avanços significam que os agentes humanos não precisam fornecer instruções ao assistente de IA para criar e se orientar nas tarefas. 

Melhor desempenho

Os frameworks de vários agentes tendem a superar os agentes únicos.11 Isso ocorre porque quanto mais planos de ação estão disponíveis para um agente, mais aprendizado e reflexão ocorrem. Um agente de IA que incorpora conhecimento e feedback de outros agentes de IA especializados em áreas relacionadas pode ser útil para a síntese de informações. Essa colaboração de back-end de agentes de IA e a capacidade de preencher lacunas de informações são exclusivas dos frameworks agênticos, tornando-as uma ferramenta eficiente e um avanço significativo na inteligência artificial.

Qualidade das respostas

Os agentes de IA fornecem respostas mais abrangentes, precisas e personalizadas ao usuário do que os modelos de IA tradicionais. Isso é importantíssimo para nós como usuários, pois respostas de maior qualidade normalmente proporcionam uma melhor experiência ao cliente. Conforme descrito anteriormente, isso é possível por meio da troca de informações com outros agentes, do uso de ferramentas externas e da atualização do fluxo de memória. Esses comportamentos surgem por conta própria e não são pré-programados.12

Riscos e limitações

Dependências de vários agentes

Certas tarefas complexas exigem o conhecimento de vários agentes de IA. Ao implementar esses frameworks de vários agentes, há risco de mau funcionamento. Sistemas multiagentes construídos sobre os mesmos modelos de base podem apresentar armadilhas compartilhadas. Essas debilidades podem causar uma falha em todo o sistema de todos os agentes envolvidos ou expor a vulnerabilidade a ataques adversos.13 Isso destaca a importância da governança de dados na criação de modelos de base e processos completos de treinamento e teste.

Ciclos de feedback infinitos

A conveniência do raciocínio sem intervenção para usuários humanos que usam agentes de IA também tem seus riscos. Os agentes que não conseguem criar um plano abrangente nem refletir sobre suas descobertas podem dar conta de que precisam recorrer repetidamente às mesmas ferramentas, invocando ciclos de feedback infinitos. Para evitar essas redundâncias, pode ser usado algum grau de monitoramento humano em tempo real.13

Complexidade computacional

A criação de agentes de IA a partir do zero é um processo demorado e também pode ser muito caro do ponto de vista computacional. Os recursos necessários para treinar um agente de alto desempenho podem ser elevados. Além disso, dependendo da complexidade da tarefa, os agentes podem levar vários dias para concluí-la.12

Melhores práticas

Logs de atividades 

Para lidar com as preocupações das dependências de vários agentes, os desenvolvedores podem fornecer aos usuários acesso a um log de ações dos agentes.14 As ações podem incluir o uso de ferramentas externas e descrever os agentes externos utilizados para atingir o objetivo. Essa transparência traz insights aos usuários sobre o processo de tomada de decisão iterativo, oferece a oportunidade de descobrir erros e gera confiança.

Interrupção

É recomendável evitar que agentes de IA funcionem por períodos excessivamente longos. Isso é válido particularmente em casos de ciclos de feedback infinitos não intencionais, alterações no acesso a determinadas ferramentas ou mau funcionamento devido a falhas de projeto. Uma maneira de fazer isso é implementar a capacidade de interrupção.

Para manter o controle desse processo, é necessário permitir que usuários humanos tenham a opção de interromper uma sequência de ações ou toda a operação. A decisão sobre se e quando interromper um agente de IA exige certo cuidado, pois algumas interrupções podem trazer mais danos do que benefícios. Por exemplo, pode ser mais seguro permitir que um agente defeituoso continue ajudando em uma emergência com risco à vida do que desligá-lo completamente.5

Identificadores exclusivos de agentes

Para reduzir o risco de sistemas agênticos serem usados de forma mal-intencionada, é possível usar identificadores exclusivos.14 Quando esses identificadores são exigidos para os agentes acessarem sistemas externos, fica mais fácil rastrear a origem dos desenvolvedores, implementadores e usuário do agente. Isso é particularmente útil no caso de usos mal-intencionados ou danos não intencionais causados pelo agente. Esse nível de imputabilidade proporciona um ambiente mais seguro para a operação desses agentes de IA.

Supervisão humana

Para auxiliar no processo de aprendizagem dos agentes de IA, sobretudo nas fases iniciais em um novo ambiente, pode ser útil fornecer feedback humano ocasional. Isso permite que o agente de IA compare seu desempenho com o padrão esperado e se ajuste de maneira adequada. Essa forma de feedback é útil para melhorar a adaptabilidade do agente às preferências do usuário.

Além disso, é recomendável exigir a aprovação humana antes que um agente de IA tome ações altamente impactantes. Por exemplo, ações que vão desde o envio de e-mails em massa até a negociação financeira devem exigir confirmação humana.7 Nesses domínios de alto risco, certo nível de monitoramento humano é recomendado.

Produtos e soluções relacionados
IBM watsonx AI

Utilize o IBM watsonx AI, um estúdio empresarial de última geração para construtores de IA treinarem, validarem, ajustarem e implementarem modelos de IA, como uma plataforma de desenvolvimento que permite a construção de agentes de IA.

Explore o watsonx AI Experimente o watsonx AI

IBM watsonx Assistant

Utilize o IBM watsonx Assistant, um chatbot IA de nível empresarial munido de habilidades generativas para produzir respostas precisas e conversacionais. 

Explore o watsonx Assistant Experimente o watsonx Assistant

IBM watsonx Code Assistant

Aumente a produtividade dos desenvolvedores com o uso do IBM watsonx Code Assistant baseado em modelos de base IBM Granite. Ele conta com recursos como modernização, correspondência e geração de código.

Explorar o watsonx Code Assistant Experimente o watsonx Code Assistant

IBM watsonx Orchestrate

Alivie a carga de trabalho e aumente a produtividade usando assistentes de IA generativa com o IBM watsonx Orchestrate, alimentado por LLMs. 

Explore o watsonx Orchestrate Experimente o watsonx Orchestrate

Vantagem da IBM Consulting

Usamos o IBM Consulting Advantage, nossa plataforma de engajamento impulsionada por IA, que turbina nossa experiência com agentes, assistentes e ativos de IA generativa criados para fornecer soluções em escala e acelerar o time to value para os clientes.

Explore o IBM Consulting Advantage Access

Recursos relacionados Crie um agente de IA LangChain em Python com o watsonx

Utilize o pacote LangChain Python para criar um agente de IA em Python usando o watsonx com ferramentas personalizadas.

O que é um sistema multiagentes?

Um sistema multiagentes (MAS) consiste em vários agentes de inteligência artificial (IA) trabalhando coletivamente para executar tarefas em nome de um usuário ou de outro sistema.

Treinar um agente de software para se comportar racionalmente com aprendizagem por reforço

Use essa técnica de aprendizado de máquina para identificar ações para determinadas situações em um ambiente.

Assistentes virtuais de IA generativa para empresas: IBM watsonx

Crie assistentes de IA que permitem que as pessoas trabalhem sem conhecimento especializado.

Desenvolvimento de software aprimorado por IA com agentes (assistentes)

Os agentes, também conhecidos como assistentes, são versões especializadas de LLMs que são pré-projetadas e ajustadas para permitir funções específicas.

O que é um agente virtual?

Um agente virtual combina processamento de linguagem natural, pesquisa inteligente e automação robótica de processos (RPA) em uma interface de usuário de conversação, geralmente um chatbot.

Dê o próximo passo

Treine, valide, ajuste e implemente IA generativa, modelos de base e recursos de aprendizado de máquina com o IBM® watsonx.ai, um estúdio empresarial de última geração para construtores de IA. Crie aplicações de IA em menos tempo com menos dados.

Explore o watsonx.ai Agende uma demonstração em tempo real
Notas de rodapé

1 Andrew Zhao, Daniel Huang, Quentin Xu, Matthieu Lin, Yong-Jin Liu e Gao Huang, “Expel: Llm agents are experiential learners”, Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 38, N.º 17, pp. 19632-19642, 2024, https://ojs.aai.org/index.php/AAAI/article/view/29936 (link externo ao site ibm.com).

Yonadov Shavit, Sandhini Agarwal, Miles Brundage, Steven Adler, Cullen O’Keefe, Rosie Campbell, Teddy Lee, Pamela Mishkin, Tyna Eloundou, Alan Hickey, Katarina Slama, Lama Ahmad, Paul McMillan, Alex Beutel, Alexandre Passos e David G. Robinson, “Practices for Governing Agentic AI Systems”, OpenAI, 2023, https://arxiv.org/pdf/2401.13138v3 (link externo ao site ibm.com).

3 Tula Masterman, Sandi Besen, Mason Sawtell, Alex Chao, “The Landscape of Emerging AI AgentArchitectures for Reasoning, Planning, and Tool Calling: A Survey”, pré-publicação na arXiv, 2024, https://arxiv.org/abs/2404.11584 (link externo ao site ibm.com).

4 Gautier Dagan, Frank Keller e Alex Lascarides, “Dynamic Planning with a LLM”, arXiv preprint, 2023. https://arxiv.org/abs/2308.06391 (link externo ao site ibm.com).

Binfeng Xu, Zhiyuan Peng, Bowen Lei, Subhabrata Mukherjee, Yuchen Liu e Dongkuan Xu, “ReWOO: Decoupling Reasoning from Observations for Efficient Augmented Language Models”, pré-publicação na arXiv, 2023, https://arxiv.org/abs/2305.18323 (link externo ao site ibm.com).

6 Sebastian Schmid, Daniel Schraudner e Andreas Harth, “Performance comparison of simple reflex agents using stigmergy with model-based agents in self-organizing transportation”. IEEE International Conference on Autonomic Computing and Self-Organizing Systems Companion, pp. 93-98, 2021, https://ieeexplore.ieee.org/document/9599196 (link externo ao site ibm.com).

7 Veselka Sasheva Petrova-Dimitrova, “Classifications of intelligence agents and their applications,” Fundamental Sciences and Applications, Vol. 28, N.º 1, 2022.

8 Lei Wang, Chen Ma, Xueyang Feng, Zeyu Zhang, Hao Yang, Jingsen Zhang, Zhiyuan Chen, Jiakai Tang, Xu Chen, Yankai Lin, Wayne Xin Zhao, Zhewei Wei e Jirong Wen, “A survey on large language model based autonomous agents”, Frontiers of Computer Science, Vol. 18, N.º 6, 2024, https://link.springer.com/article/10.1007/s11704-024-40231-1 (link externo ao site ibm.com).

Jaya R. Haleema, Haleema, N. C. S. N. Narayana, “Enhancing a Traditional Health Care System of an Organization for Better Service with Agent Technology by Ensuring Confidentiality of Patients’ Medical Information”, Cybernetics and Information Technologies, Vol. 12, N.º 3, pp. 140-156, 2013, https://sciendo.com/article/10.2478/cait-2013-0031.

10 Jingwei Huang, Wael Khallouli, Ghaith Rabadi, Mamadou Seck, “Intelligent Agent for Hurricane Emergency Identification and Text Information Extraction from Streaming Social Media Big Data”, International Journal of Critical Infrastructures, Vol. 19, N.º 2, pp. 124-139, 2023, https://arxiv.org/abs/2106.07114.

11 Junyou Li, Qin Zhang, Yangbin Yu, Qiang Fu, and Deheng Ye. “More agents is all you need”. Pré-publicação na arXiv, 2024, https://arxiv.org/abs/2402.05120.

12 Joon Sung Park, Joseph O'Brien, Carrie Jun Cai, Meredith Ringel Morris, Percy Liang e Michael S. Bernstein, “Generative agents: Interactive simulacra of human behavior”, Proceedings of the 36th Annual ACM Symposium on User Interface software and Technology, pp. 1-22, 2023, https://dl.acm.org/doi/10.1145/3586183.3606763.

13 Alan Chan, Carson Ezell, Max Kaufmann, Kevin Wei, Lewis Hammond, Herbie Bradley, Emma Bluemke, Nitarshan Rajkumar, David Krueger, Noam Kolt, Lennart Heim e Markus Anderljung, “Visibility into AI Agents”, The 2024 ACM Conference on Fairness, Accountability, and Transparency, pp. 958-973, 2024, https://arxiv.org/abs/2401.13138.

14 Devjeet Roy, Xuchao Zhang, Rashi Bhave, Chetan Bansal, Pedro Las-Casas, Rodrigo Fonseca e Saravan Rajmohan, “Exploring LLM-based Agents for Root Cause Analysis”, pré-publicação na arXiv, 2024,  https://arxiv.org/abs/2403.04123.