My IBM Log in Inscreva-se

O que são agentes de IA?

3 de julho de 2024

Autores

Anna Gutowska

AI Engineer, Developer Advocate

O que são agentes de IA?

Um agente de IA é um sistema que utiliza inteligência artificial para executar tarefas de maneira autônoma e atingir um objetivo determinado através da coleta e uso de dados. Um agente de IA é capaz de interagir com o seu ambiente operacional e ser treinado para tarefas específicas.

Os agentes de IA fazem uso de técnicas avançadas de processamento de linguagem natural de grandes modelos de linguagem (LLMs) para compreender e responder aos inputs do usuário passo a passo e determinar quando recorrer a ferramentas externas.

Eles podem abranger uma ampla variedade de funcionalidades além do processamento de linguagem natural (NLP), incluindo a tomada de decisões, resolução de problemas, interação com ambientes externos e execução de ações. Os agentes de IA são capazes de resolver tarefas complexas em vários contextos corporativos, desde o design de software e a automação de TI até ferramentas de geração de código e assistentes de conversação.

Como funcionam agentes de IA generativa?

No centro dos agentes de IA estão os grandes modelos de linguagem (LLMs) usados na IA generativa.

Por esse motivo, os agentes de IA são frequentemente chamados de agentes LLM. Os LLMs tradicionais, como os modelos IBM® Granite, produzem suas respostas com base nos dados utilizados para treiná-los e têm limitações de conhecimento e raciocínio. Por outro lado, a tecnologia dos agentes de inteligência artificial utiliza ferramentas que chamam o back-end para obter informações atualizadas, otimizar o fluxo de trabalho e criar sub-atividades com autonomia para atingir objetivos complexos.

Nesse processo, o agente autônomo aprende a se adaptar às expectativas do usuário com o passar do tempo.

A capacidade do agente de armazenar interações passadas na memória e planejar ações futuras estimula uma experiência personalizada e respostas abrangentes.1 Essas solicitações de ferramentas podem ser realizadas sem intervenção humana e ampliam as possibilidades de aplicações desses sistemas de IA no mundo real. A abordagem que os agentes de IA adotam para atingir os objetivos definidos pelos usuários é composta por estas três fases:

Inicialização e planejamento de objetivos

Embora os agentes de IA sejam autônomos em seus processos de tomada de decisão, exigem objetivos e ambientes definidos por humanos.2 Há três influências principais no comportamento dos agentes autônomos: 

  • A equipe de desenvolvedores que projeta e treina o sistema de IA do agente.

  • A equipe que implementa o agente e concede ao usuário o acesso ao mesmo.

  • O usuário que informa ao agente de IA objetivos específicos a serem alcançados e estabelece as ferramentas disponíveis a serem utilizadas.

Com base nos objetivos do usuário e nas ferramentas disponíveis, o agente de IA executa a decomposição da tarefa para melhorar o desempenho.3 Essencialmente, o agente cria um plano de tarefas e subtarefas específicas para atingir o objetivo complexo.

No caso de tarefas simples, o planejamento não é uma etapa necessária. Em vez disso, o agente pode refletir de forma iterativa sobre as respostas e melhorá-las sem planejar os próximos passos.

Raciocínio utilizando as ferramentas disponíveis

Os agentes de IA baseiam suas ações nas informações que percebem.

Muitas vezes eles não têm a base de conhecimento completa necessária para lidar com todas as subtarefas dentro de um objetivo complexo. Para corrigir isso, os agentes de IA utilizam as ferramentas disponíveis. Essas ferramentas podem incluir conjuntos de dados externos, pesquisas na web, APIs e até mesmo outros agentes.

Depois que as informações ausentes forem recuperadas dessas ferramentas, o agente poderá atualizar sua base de dados de conhecimento. Isso significa que, a cada etapa do processo, o agente reavalia seu plano de ação e se autocorrige.

Para ajudar a ilustrar esse processo, imagine um usuário planejando as férias. O usuário encarrega um agente de IA de prever qual semana do próximo ano provavelmente terá o melhor clima para sua viagem de surfe na Grécia. Como o modelo de LLM que compõe o agente não é especializado em padrões climáticos, o agente reúne informações de um banco de dados externo composto por boletins meteorológicos diários da Grécia nos últimos anos.

Apesar de adquirir essas novas informações, o agente ainda não consegue determinar as condições climáticas ideais para surfar e portanto a próxima subtarefa é criada. Para essa subtarefa, o agente se comunica com um agente externo especializado na prática de surfe. Digamos que, ao fazer isso, o agente aprenda que as marés altas e o tempo ensolarado com pouca ou nenhuma chuva proporcionam as melhores condições para a prática de surfe.

Com isso, o agente pode combinar as informações que aprendeu com suas ferramentas para identificar padrões. Ele pode prever qual semana do próximo ano na Grécia provavelmente terá marés altas, tempo ensolarado e pouca chance de chuva. Essas descobertas são então apresentadas ao usuário. Esse compartilhamento de informações entre as ferramentas é o que permite que os agentes de IA sejam mais versáteis do que os modelos tradicionais de IA.3    

Aprendizado e reflexão

Os agentes de IA utilizam mecanismos de feedback, como outros agentes de IA e a interação humana (human-in-the-loop, HITL), para melhorar a precisão de suas respostas.

Vamos voltar ao nosso exemplo anterior do surfe para salientar essa questão. Depois que o agente forma sua resposta ao usuário, ele armazena as informações aprendidas junto com o feedback do usuário para melhorar o desempenho e se ajustar às preferências do usuário para objetivos futuros.

Se outros agentes forem utilizados para alcançar o objetivo, o feedback deles também poderá ser usado. O feedback de vários agentes pode ser especialmente útil para minimizar o tempo que os usuários humanos gastam dando orientações. No entanto, os usuários também podem enviar feedback em relação às ações e ao raciocínio interno do agente para alinhar melhor os resultados com o objetivo pretendido.2

Os mecanismos de feedback melhoram o raciocínio e a precisão do agente de IA, o que é comumente conhecido como refinamento iterativo.3 Para evitar repetir os mesmos erros, os agentes de IA também podem armazenar dados sobre as soluções aos obstáculos anteriores em uma base de conhecimento.

As mais recentes tendências em IA, trazidas a você por especialistas

Agradecemos a você! Você se inscreveu.

Receba insights selecionados sobre as notícias mais importantes (e intrigantes) sobre IA. Inscreva-se no nosso boletim informativo semanal Think. Consulte a Declaração de privacidade da IBM.

Sua assinatura será entregue em inglês. Você encontrará um link para cancelar a assinatura em cada boletim informativo. Você pode gerenciar suas assinaturas ou cancelar a assinatura aqui. Consulte nossa Declaração de privacidade da IBM para obter mais informações.

Diferença entre chatbot com e sem tecnologia de agente de IA

Chatbots IA utilizam técnicas de IA conversacional, como processamento de linguagem natural (NLP), para entender as perguntas do usuário e automatizar as respostas. Esses chatbots são uma modalidade, enquanto agência é uma estrutura tecnológica. 

 

Chatbots de IA não agênticos

 

Os chatbots IA não agênticos são aqueles que não têm ferramentas, memória e raciocínio disponíveis. 

Eles só conseguem atingir objetivos de curto prazo e não conseguem planejar com antecedência. Da forma como os conhecemos, os chatbots não agênticos exigem o input contínuo do usuário para responderem. Eles podem produzir respostas a comandos comuns que provavelmente se alinham às expectativas do usuário, mas têm um desempenho ruim em perguntas exclusivas do usuário e de seus dados.

Como esses chatbots não têm memória, eles não aprendem com os erros se suas respostas forem insatisfatórias.

 

Chatbots de IA agênticos

 

Em contrapartida, os chatbots IA agênticos aprendem a se adaptar às expectativas do usuário ao longo do tempo, proporcionando uma experiência mais personalizada e respostas mais abrangentes.

Eles podem concluir tarefas complexas criando subtarefas sem intervenção humana e considerando planos diferentes. Esses planos também podem ser corrigidos e atualizados automaticamente conforme necessário. 

Os chatbots IA agênticos, diferentemente dos não agênticos, avaliam suas ferramentas e usam os recursos disponíveis para preencher as lacunas de informações. 

Mistura de Especialistas | Podcast

Decodificando a IA: resumo semanal das notícias

Junte-se a nosso renomado painel de engenheiros, pesquisadores, líderes de produtos e outros enquanto filtram as informações sobre IA para trazerem a você as mais recentes notícias e insights sobre IA.

Paradigmas de raciocínio

Não há uma arquitetura padrão para a criação de agentes de IA. Há vários paradigmas para resolver problemas de várias etapas.

ReAct (raciocínio e ação)

Com esse paradigma, podemos instruir os agentes a “pensar” e planejar após cada ação executada e com cada resposta da ferramenta para decidir qual ferramenta usar em seguida. Esses ciclos do tipo pensar-agir-observar são usados para resolver problemas passo a passo e melhorar iterativamente as respostas.

Por meio da estrutura de comandos, os agentes podem ser instruídos a raciocinar lentamente e exibir cada “pensamento”. O raciocínio verbal do agente apresenta informações sobre como as respostas são formuladas. Nessa estrutura, os agentes atualizam continuamente seu contexto com novos raciocínios. Isso pode ser interpretado como uma forma de instruções por linha de pensamento.

ReWOO (raciocínio sem observação)

O método ReWOO, diferentemente do ReAct, elimina a dependência dos resultados das ferramentas para o planejamento de ações.

Em vez disso, os agentes planejam com antecedência. O uso redundante de ferramentas é evitado ao antecipar quais ferramentas devem usar quando recebem o comando inicial do usuário. Isso é desejável de uma perspectiva voltada para o ser humano, pois o usuário pode confirmar o plano antes que ele seja executado.

O fluxo de trabalho do ReWOO é composto por três módulos.No módulo de planejamento, o agente antecipa suas próximas etapas com base em um comando do usuário.

A próxima etapa envolve a coleta dos resultados produzidos ao solicitar essas ferramentas. Por último, o agente combina o plano inicial com os resultados das ferramentas para formular uma resposta.Esse planejamento antecipado pode reduzir consideravelmente o uso de tokens e a complexidade computacional, bem como as repercussões da falha de ferramentas intermediárias.5

Tipos de agentes de IA

Os agentes de IA podem ser desenvolvidos para terem níveis variáveis de capacidades. Um agente simples pode ser preferível para objetivos diretos para limitar a complexidade computacional desnecessária. Da ordem do mais simples para o mais avançado, há cinco tipos principais de agentes:

  1. Agentes de reflexo simples
  2. Agentes de reflexo baseados em modelos
  3. Agentes baseados em objetivos
  4. Agentes baseados em utilidade
  5. Agentes de aprendizagem

1. Agentes de reflexo simples

Agentes de reflexo simples são a forma de agente mais simples, que baseia as ações em sua percepção atual.

Esse agente não contém memória nem interage com outros agentes se estiver faltando informação. Esses agentes funcionam com base em um conjunto dos chamados reflexos ou regras.Isso significa que o agente é pré-programado para executar ações que correspondem ao cumprimento de determinadas condições.

Se o agente se deparar com uma situação para a qual não está preparado, ele não conseguirá responder da maneira adequada. Os agentes só são eficazes em ambientes que são totalmente observáveis e que concedem acesso a todas as informações necessárias.6

Exemplo: um termostato que liga o sistema de aquecimento em um horário definido todas as noites. A regra de condição-ação aqui é, por exemplo, que se for 20h, o aquecimento estará ativado.

2. Agentes de reflexo baseados em modelos

Agentes de reflexos baseados em modelos utilizam tanto a percepção quanto a memória atuais para manter um modelo interno do mundo.

O modelo é atualizado à medida que o agente continua recebendo novas informações. As ações do agente dependem do modelo, reflexos, preceitos anteriores e estado atual.

Esses agentes, ao contrário dos agentes de reflexo simples, podem armazenar informações na memória e operar em ambientes parcialmente observáveis e mutáveis. Entretanto, ainda são limitadas pelo seu conjunto de regras.6

Exemplo: um robô aspirador de pó. Ao limpar um quarto sujo, detecta obstáculos, como móveis, e se orienta em torno deles. O robô também armazena um modelo das áreas que já limpou para não ficar preso em um ciclo repetido de limpeza.

3. Agentes baseados em objetivos

Os agentes baseados em objetivos contam com um modelo interno do mundo e também um objetivo ou conjunto de objetivos.

Esses agentes procuram sequências de ação que atinjam seu objetivo e planejam essas ações antes de agir. Essa busca e planejamento melhoram sua eficácia quando comparados com agentes de reflexo simples e baseados em modelos.7

Exemplo: um sistema de navegação que recomenda a rota mais rápida até seu destino. O modelo considera várias rotas que chegam ao destino, ou seja, seu objetivo. Nesse exemplo, a regra de condição-ação do agente afirma que, se uma rota mais rápida for encontrada, o agente a recomendará.

4. Agentes baseados em utilidade

Agentes baseados em utilidade selecionam a sequência de ações que atingem o objetivo e também maximizam a utilidade ou a recompensa.

A utilidade é calculada por meio de uma função de utilidade. Essa função atribui um valor de utilidade, uma métrica que considera a utilidade de uma ação ou o quão “satisfeito” ela deixará o agente, a cada cenário com base em um conjunto de critérios fixos.

Os critérios podem incluir fatores como progressão em direção ao objetivo, requisitos de tempo ou complexidade computacional. Em seguida, o agente seleciona as ações que maximizam a utilidade esperada. Portanto esses agentes são úteis nos casos em que vários cenários atingem um objetivo desejado e um cenário ideal deve ser selecionado.7

Exemplo: um sistema de navegação que recomenda a rota até o destino que otimiza a eficiência do combustível e minimiza o tempo gasto no trânsito e o custo dos pedágios. Esse agente mede a utilidade por meio desse conjunto de critérios para selecionar a rota mais favorável.

5. Agentes de aprendizagem

Os agentes de aprendizado têm os mesmos recursos que os outros tipos de agentes, mas são únicos em sua capacidade de aprender.

Novas experiências são adicionadas à base de conhecimento inicial, o que ocorre de forma autônoma. Esse aprendizado aprimora a capacidade do agente de operar em ambientes desconhecidos. Os agentes de aprendizado podem ser baseados na utilidade ou em objetivos em seu raciocínio e são compostos por quatro elementos principais:7

  • Aprendizado: aprimora o conhecimento do agente aprendendo com o ambiente por meio de suas regras e seus sensores.

  • Crítica: isso apresenta uma informação ao agente sobre se a qualidade de suas respostas atende ao padrão de desempenho.

  • Desempenho: esse elemento é responsável pela seleção das ações após o aprendizado.

  • Gerador de problemas: cria várias propostas de ações a serem tomadas.

Exemplo: recomendações personalizadas em sites de comércio eletrônico. Esses agentes monitoram as atividades e as preferências do usuário na memória. Essas informações são usadas para recomendar determinados produtos e serviços ao usuário. O ciclo se repete sempre que novas recomendações são feitas. A atividade do usuário é armazenada continuamente para fins de aprendizado. Ao fazer isso, o agente melhora sua precisão ao longo do tempo.

Casos de uso de agentes de IA

Experiência do cliente

Os agentes de IA podem ser integrados a sites e aplicativos para aprimorar a experiência do cliente, atuando como assistentes virtuais, oferecendo apoio à saúde mental, simulando entrevistas e outras tarefas relacionadas.Há muitos modelos no-code para implementação no usuário, o que facilita ainda mais o processo de criação desses agentes de IA. 

Setor de saúde

Os agentes de IA podem ser utilizados para várias aplicações de assistência médica no mundo real.

Os sistemas multiagentes podem ser particularmente úteis para a resolução de problemas nesses ambientes. Do planejamento do tratamento para pacientes no departamento de emergência à gestão de processos de medicamentos, esses sistemas economizam tempo e esforço dos profissionais médicos para tarefas mais urgentes.9

Resposta a emergências

Em casos de desastres naturais, os agentes de IA podem usar algoritmos de deep learning para acessar as informações de usuários que precisam de resgate em sites de redes sociais.

A localização desses usuários pode ser mapeada para os serviços de resgate conseguirem salvar mais pessoas em menos tempo. Portanto os agentes de IA beneficiam muito a vida das pessoas tanto em tarefas rotineiras quanto em situações onde há vidas em risco. 10

Benefícios dos agentes de IA

Automação de tarefas

Com os avanços constantes da IA generativa, há um interesse cada vez maior na otimização do fluxo de trabalho com IA ou automação inteligente.

Os agentes de IA são ferramentas de IA capazes de automatizar tarefas complexas que, de outra forma, exigiriam recursos humanos. Isso se traduz em metas alcançadas com baixo custo, rapidez e escala. Por sua vez, esses avanços significam que os agentes humanos não precisam orientar o assistente de IA para criar e navegar em suas tarefas.

Melhor desempenho

Os frameworks de vários agentes tendem a superar os agentes únicos.11 Isso ocorre porque quanto mais planos de ação houver disponíveis para um agente, mais aprendizado e reflexão haverá. Um agente de IA que incorpora conhecimento e feedback de outros agentes de IA especializados em áreas relacionadas pode ser útil para a síntese de informações.

Essa colaboração de back-end de agentes de IA e a possibilidade de preencher lacunas de informações são exclusivas dos frameworks agênticos, tornando-os uma ferramenta eficiente e um avanço considerável na inteligência artificial.

Qualidade das respostas

Os agentes de IA apresentam respostas mais abrangentes, precisas e personalizadas ao usuário do que os modelos de IA tradicionais.

Isso é importantíssimo para nós como usuários, pois respostas de maior qualidade normalmente proporcionam melhor experiência ao cliente. Conforme descrito anteriormente, isso é possível por meio da troca de informações com outros agentes, do uso de ferramentas externas e da atualização do fluxo de memória. Esses comportamentos surgem por conta própria e não são programados previamente.12

Riscos e limitações dos agentes de IA

Dependências de vários agentes

Certas tarefas complexas exigem o conhecimento de vários agentes de IA. Na implementação desses frameworks de vários agentes, há risco de mau funcionamento.

Sistemas multiagentes construídos sobre os mesmos modelos de base podem apresentar armadilhas compartilhadas. Essas debilidades podem causar uma falha em todo o sistema de todos os agentes envolvidos ou expor a vulnerabilidade a ataques adversos.13 Isso destaca a importância da governança de dados na criação de modelos de base e em processos completos de treinamento e teste.

Ciclos infinitos de feedback

A conveniência do raciocínio sem intervenção para usuários humanos que utilizam agentes de IA também tem seus riscos.

Os agentes que não conseguem criar um plano abrangente nem refletir sobre suas descobertas podem dar conta de que precisam recorrer repetidas vezes às mesmas ferramentas, invocando ciclos de feedback infinitos. Para evitar essas redundâncias, pode ser utilizado algum grau de monitoramento humano em tempo real.13

Complexidade computacional

A criação de agentes de IA a partir do zero é um processo demorado e também pode ser muito caro do ponto de vista computacional. Os recursos necessários para treinar um agente de alto desempenho podem ser elevados. Além disso, dependendo da complexidade da tarefa, os agentes podem levar vários dias para concluí-la.12

Melhores práticas

Logs de atividades 

Para lidar com as preocupações das dependências de vários agentes, os desenvolvedores podem conceder aos usuários o acesso a um log de ações dos agentes. 14

As ações podem incluir o uso de ferramentas externas e descrever os agentes externos utilizados para atingir o objetivo. Essa transparência traz insights aos usuários sobre o processo de tomada de decisão iterativo, oferece a oportunidade de descobrir erros e gera confiança.

Interrupção

É recomendável evitar que agentes de IA funcionem por períodos excessivamente longos. Isso é válido particularmente em casos de ciclos de feedback infinitos não intencionais, alterações no acesso a determinadas ferramentas ou mau funcionamento devido a falhas de projeto. Uma maneira de fazer isso é implementar a capacidade de interrupção.

Para manter o controle desse processo é necessário permitir que usuários humanos tenham a opção de interromper uma sequência de ações ou toda a operação. A decisão sobre se e quando interromper um agente de IA exige certo cuidado, pois algumas interrupções podem trazer mais danos do que benefícios. Por exemplo, pode ser mais seguro permitir que um agente defeituoso continue ajudando em uma emergência com risco à vida do que desligá-lo completamente.5

Identificadores exclusivos de agentes

Para reduzir o risco de sistemas agênticos serem utilizados de forma mal-intencionada, é possível usar identificadores exclusivos.14

Quando esses identificadores são exigidos para os agentes acessarem sistemas externos, fica mais fácil rastrear a origem dos desenvolvedores, implementadores e usuário do agente. Isso é particularmente útil no caso de usos mal-intencionados ou danos não intencionais causados pelo agente. Esse nível de imputabilidade proporciona um ambiente mais seguro para a operação desses agentes de IA.

Supervisão humana

Para ajudar no processo de aprendizado dos agentes de IA, sobretudo nas primeiras etapas em um novo ambiente, pode ser útil enviar informações humanas ocasionalmente. Isso permite que o agente de IA compare seu desempenho com o padrão esperado e se ajuste corretamente. Essa forma de feedback é útil para melhorar a adaptabilidade do agente às preferências do usuário.5

Além disso, é recomendável exigir a aprovação humana antes que um agente de IA tome ações altamente impactantes. Por exemplo, ações que vão desde o envio de e-mails em massa até a negociação financeira devem exigir confirmação humana.7 Nesses domínios de alto risco recomenda-se certo nível de monitoramento humano.

Soluções relacionadas

Soluções relacionadas

IBM watsonx.ai

Treine, valide, ajuste e implemente recursos de IA generativa, modelos de base e recursos de aprendizado de máquina com o IBM watsonx.ai, um estúdio empresarial de última geração para construtores de IA. Crie aplicações de IA em uma fração do tempo com uma fração dos dados.

Conheça o watsonx.ai
Soluções de inteligência artificial

Use a IA a serviço de sua empresa com a experiência e o portfólio de soluções líder do setor da IBM à sua disposição.

Explore as soluções de IA
Consultoria e serviços em IA

Reinvente os fluxos de trabalho e operações críticos adicionando IA para maximizar experiências, tomadas de decisão em tempo real e valor de negócios.

Explore os serviços de IA
Dê o próximo passo

Obtenha acesso completo aos recursos que abrangem o ciclo de vida do desenvolvimento da IA. Produza soluções poderosas de IA com interfaces fáceis de usar, fluxos de trabalhos e acesso a APIs e SDKs padrão do setor.

Explore o watsonx.ai Agende uma demonstração em tempo real
Notas de rodapé

1 Andrew Zhao, Daniel Huang, Quentin Xu, Matthieu Lin, Yong-Jin Liu, and Gao Huang, "Expel: Llm agents are experiential learners," Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 38, No. 17, pp. 19632-19642, 2024, https://ojs.aaai.org/index.php/AAAI/article/view/29936.

Yonadov Shavit, Sandhini Agarwal, Miles Brundage, Steven Adler, Cullen O’Keefe, Rosie Campbell, Teddy Lee, Pamela Mishkin, Tyna Eloundou, Alan Hickey, Katarina Slama, Lama Ahmad, Paul McMillan, Alex Beutel, Alexandre Passos and David G. Robinson, “Practices for Governing Agentic AI Systems,” OpenAI, 2023, https://arxiv.org/pdf/2401.13138v3.

3 Tula Masterman, Sandi Besen, Mason Sawtell, Alex Chao, “The Landscape of Emerging AI AgentArchitectures for Reasoning, Planning, and Tool Calling: A Survey,” arXiv preprint, 2024, https://arxiv.org/abs/2404.11584.

4 Gautier Dagan, Frank Keller e Alex Lascarides, “Dynamic Planning with a LLM”, arXiv preprint, 2023. https://arxiv.org/abs/2308.06391.

5 Binfeng Xu, Zhiyuan Peng, Bowen Lei, Subhabrata Mukherjee, Yuchen Liu e Dongkuan Xu, “ReWOO: Decoupling Reasoning from Observations for Efficient Augmented Language Models”, pré-publicação na arXiv, 2023, https://arxiv.org/abs/2305.18323.

6 Sebastian Schmid, Daniel Schraudner e Andreas Harth, “Performance comparison of simple reflex agents using stigmergy with model-based agents in self-organizing transportation”. IEEE International Conference on Autonomic Computing and Self-Organizing Systems Companion, pp. 93-98, 2021, https://ieeexplore.ieee.org/document/9599196.

7 Veselka Sasheva Petrova-Dimitrova, “Classifications of intelligence agents and their applications,” Fundamental Sciences and Applications, Vol. 28, N.º 1, 2022.

8 Lei Wang, Chen Ma, Xueyang Feng, Zeyu Zhang, Hao Yang, Jingsen Zhang, Zhiyuan Chen, Jiakai Tang, Xu Chen, Yankai Lin, Wayne Xin Zhao, Zhewei Wei, and Jirong Wen, “A survey on large language model based autonomous agents,” Frontiers of Computer Science, Vol. 18, No. 6, 2024, https://link.springer.com/article/10.1007/s11704-024-40231-1.

Jaya R. Haleema, Haleema, N. C. S. N. Narayana, “Enhancing a Traditional Health Care System of an Organization for Better Service with Agent Technology by Ensuring Confidentiality of Patients’ Medical Information,” Cybernetics and Information Technologies, Vol. 12, No. 3, pp.140-156, 2013, https://sciendo.com/article/10.2478/cait-2013-0031.

10 Jingwei Huang, Wael Khallouli, Ghaith Rabadi, Mamadou Seck, “Intelligent Agent for Hurricane Emergency Identification and Text Information Extraction from Streaming Social Media Big Data,” International Journal of Critical Infrastructures, Vol. 19, No. 2, pp. 124-139, 2023, https://arxiv.org/abs/2106.07114.

11 Junyou Li, Qin Zhang, Yangbin Yu, Qiang Fu, and Deheng Ye. "More agents is all you need." arXiv preprint, 2024, https://arxiv.org/abs/2402.05120.

12 Joon Sung Park, Joseph O'Brien, Carrie Jun Cai, Meredith Ringel Morris, Percy Liang, and Michael S. Bernstein, "Generative agents: Interactive simulacra of human behavior," Proceedings of the 36th Annual ACM Symposium on User Interface software and Technology, pp. 1-22, 2023, https://dl.acm.org/doi/10.1145/3586183.3606763.

13 Alan Chan, Carson Ezell, Max Kaufmann, Kevin Wei, Lewis Hammond, Herbie Bradley, Emma Bluemke, Nitarshan Rajkumar, David Krueger, Noam Kolt, Lennart Heim and Markus Anderljung, “Visibility into AI Agents,” The 2024 ACM Conference on Fairness, Accountability, and Transparency, pp. 958-973, 2024, https://arxiv.org/abs/2401.13138.

14 Devjeet Roy, Xuchao Zhang, Rashi Bhave, Chetan Bansal, Pedro Las-Casas, Rodrigo Fonseca, and Saravan Rajmohan, "Exploring LLM-based Agents for Root Cause Analysis," arXiv preprint, 2024, https://arxiv.org/abs/2403.04123.