Home
Think
Argomenti
Agenti AI
Data di pubblicazione: 3 Luglio 2024
Collaboratrice: Anna Gutowska
Un agente di intelligenza artificiale (AI) si riferisce a un sistema o programma in grado di eseguire autonomamente attività per conto di un utente o di un altro sistema progettandone il workflow e utilizzando gli strumenti disponibili.
Gli agenti AI possono comprendere un'ampia gamma di funzionalità oltre all'elaborazione del linguaggio naturale, tra cui il processo decisionale, la risoluzione dei problemi, l'interazione con ambienti esterni e l'esecuzione di azioni.
Questi agenti possono essere implementati in varie applicazioni per risolvere attività complesse in vari contesti aziendali, dalla progettazione di software e automazione IT agli strumenti di generazione di codice e agli assistenti conversazionali. Usano le tecniche avanzate di elaborazione del linguaggio naturale dei modelli linguistici di grandi dimensioni (LLM) per comprendere e rispondere passo dopo passo agli input degli utenti e determinare quando ricorrere a strumenti esterni.
Utilizza questo framework di selezione del modello per scegliere il modello più appropriato bilanciando i requisiti di prestazioni con costi, rischi ed esigenze di implementazione.
Il fulcro degli agenti AI sono i modelli linguistici di grandi dimensioni (LLM). Per questo motivo, gli agenti AI vengono spesso definiti agenti LLM. Gli LLM tradizionali, come i modelli IBM Granite™, producono le loro risposte in base ai dati utilizzati per addestrarli e sono limitati da limiti di conoscenza e ragionamento. Al contrario, la tecnologia agente utilizza la chiamata degli strumenti sul backend per ottenere informazioni aggiornate, ottimizzare il workflow e creare attività secondarie in modo autonomo per raggiungere obiettivi complessi.
In questo processo, l'agente autonomo impara ad adattarsi alle aspettative dell'utente nel tempo. La capacità dell'agente di memorizzare le interazioni passate e pianificare le azioni future incoraggia un'esperienza personalizzata e risposte complete.1 Questa chiamata di strumenti può essere ottenuta senza l'intervento umano e amplia le possibilità di applicazioni nel mondo reale di questi sistemi AI. L'approccio che gli agenti AI adottano per raggiungere gli obiettivi fissati dagli utenti è composto da queste tre fasi:
Sebbene gli agenti AI siano autonomi nei loro processi decisionali, necessitano di obiettivi e ambienti definiti dall'uomo.2 Ci sono tre influenze principali sul comportamento degli agenti autonomi:
Dati gli obiettivi dell'utente e gli strumenti disponibili dell'agente, l'agente AI esegue la decomposizione delle attività per migliorare le prestazioni.3 In sostanza, l'agente crea un piano di attività primarie e secondarie specifiche per raggiungere l'obiettivo complesso.
Per le attività semplici, la pianificazione non è un passaggio necessario. Invece, un agente può riflettere iterativamente sulle sue risposte e migliorarle senza pianificare i suoi prossimi passi.
Gli agenti AI basano le loro azioni sulle informazioni che percepiscono. Spesso, gli agenti AI non dispongono della base di conoscenza completa necessaria per affrontare tutte le attività secondarie all'interno di un obiettivo complesso. Per rimediare a questo, gli agenti AI utilizzano gli strumenti a loro disposizione. Questi strumenti possono includere set di dati esterni, ricerche sul web, API e persino altri agenti. Dopo aver recuperato le informazioni mancanti da questi strumenti, l'agente può aggiornare la propria base di conoscenza. Ciò significa che ad ogni passo del percorso, l'agente rivaluta il suo piano d'azione e si autocorregge.
Per illustrare questo processo, immagina un utente che pianifica la propria vacanza. L'utente incarica un agente AI di prevedere quale settimana del prossimo anno avrà probabilmente il tempo migliore per il proprio viaggio di surf in Grecia. Poiché il modello LLM al centro dell'agente non è specializzato in modelli meteorologici, l'agente raccoglie informazioni da un database esterno composto da bollettini meteorologici giornalieri per la Grecia negli ultimi anni.
Nonostante abbia acquisito queste nuove informazioni, l'agente non è ancora in grado di determinare le condizioni meteorologiche ottimali per il surf e quindi viene creata l'attività secondaria successiva. Per questa attività secondaria, l'agente comunica con un agente esterno specializzato nel surf. Supponiamo che così facendo, l'agente apprenda che l'alta marea e il tempo soleggiato con poca o nessuna pioggia offrono le migliori condizioni per il surf.
L'agente può ora combinare le informazioni apprese dai suoi strumenti per identificare degli schemi. Può prevedere in quale settimana dell'anno prossimo in Grecia ci saranno probabilmente alte maree, tempo soleggiato e scarse probabilità di pioggia. Questi risultati vengono poi presentati all'utente. Questa condivisione di informazioni tra strumenti è ciò che consente agli agenti AI di essere più generici rispetto ai modelli AI tradizionali.3
Gli agenti AI utilizzano meccanismi di feedback, come altri agenti AI e human-in-the-loop (HITL), per migliorare l'accuratezza delle loro risposte. Torniamo al nostro precedente esempio di surf per evidenziare questo aspetto. Dopo che l'agente ha formulato la sua risposta all'utente, l'agente memorizza le informazioni apprese insieme al feedback dell'utente per migliorare le prestazioni e adattarsi alle preferenze dell'utente per gli obiettivi futuri.
Se sono stati utilizzati altri agenti per raggiungere l'obiettivo, è possibile utilizzare anche il loro feedback. Il feedback multiagente può essere particolarmente utile per ridurre al minimo il tempo che gli utenti umani dedicano a fornire indicazioni. Tuttavia, gli utenti possono anche fornire un feedback sulle azioni e sul ragionamento interno dell'agente per allineare meglio i risultati all'obiettivo prefissato.2
I meccanismi di feedback migliorano il ragionamento e l'accuratezza dell'agente AI, il che viene comunemente definito perfezionamento iterativo.3 Per evitare di ripetere gli stessi errori, gli agenti AI possono anche memorizzare i dati sulle soluzioni agli ostacoli precedenti in una base di conoscenza.
Gli AI chatbot utilizzano tecniche di AI conversazionale come l'elaborazione del linguaggio naturale (NLP) per comprendere le domande degli utenti e automatizzare le risposte. Questi chatbot sono una modalità mentre l'agenzia è un framework tecnologico.
Gli AI chatbot non agenti sono quelli senza strumenti, memoria e ragionamento disponibili. Possono raggiungere solo obiettivi a breve termine e non possono pianificare in anticipo. Per come li conosciamo, i chatbot non agenti richiedono un input continuo da parte dell'utente per rispondere. Possono fornire risposte a richieste comuni che molto probabilmente sono in linea con le aspettative degli utenti ma ottengono scarsi risultati sulle domande specifiche dell'utente e dei suoi dati. Poiché questi chatbot non hanno memoria, non possono imparare dai loro errori se le loro risposte sono insoddisfacenti.
Al contrario, gli AI chatbot agenti imparano ad adattarsi alle aspettative degli utenti nel tempo, fornendo un'esperienza più personalizzata e risposte complete. Possono completare attività complesse creando attività secondarie senza l'intervento umano e considerando piani diversi. Questi piani possono anche essere corretti e aggiornati in base alle esigenze. Gli AI chatbot agenti, a differenza di quelli non agenti, valutano i loro strumenti e utilizzano le risorse disponibili per colmare le lacune informative.
Non esiste un'architettura standard per la costruzione di agenti AI. Esistono diversi paradigmi per risolvere problemi a più fasi.
ReAct (Reasoning and Action)
Con questo paradigma, possiamo istruire gli agenti a "pensare" e pianificare dopo ogni azione intrapresa e con ogni risposta dello strumento per decidere quale strumento utilizzare successivamente. Questi cicli Think-Act-Observe vengono utilizzati per risolvere i problemi passo dopo passo e migliorare iterativamente le risposte.
Attraverso la struttura dei prompt, gli agenti possono essere istruiti a ragionare lentamente e a visualizzare ogni "pensiero".4 Il ragionamento verbale dell'agente fornisce insight su come vengono formulate le risposte. In questo framework, gli agenti aggiornano continuamente il loro contesto con nuovi ragionamenti. Questo può essere interpretato come una forma di chain-of-thought prompting.
ReWOO (Reasoning WithOut Observation)
Il metodo ReWOO, a differenza di ReAct, elimina la dipendenza dagli output degli strumenti per la pianificazione delle azioni. Gli agenti, invece, pianificano in anticipo. L'utilizzo di strumenti ridondanti viene evitato anticipando quali strumenti utilizzare al momento del prompt iniziale da parte dell'utente. Ciò è auspicabile da una prospettiva incentrata sull'uomo poiché l'utente può confermare il piano prima che venga eseguito.
Il workflow ReWOO è composto da tre moduli. Nel modulo di pianificazione, l'agente anticipa i suoi prossimi passi in base al suggerimento dell'utente. La fase successiva prevede la raccolta degli output prodotti chiamando questi strumenti. Infine, l'agente abbina il piano iniziale con gli output dello strumento per formulare una risposta. Questa pianificazione anticipata può ridurre notevolmente l'utilizzo dei token e la complessità computazionale, nonché le ripercussioni di un guasto intermedio dello strumento.5
Gli agenti AI possono essere sviluppati con diversi livelli di funzionalità. Un agente semplice può essere preferito per obiettivi semplici per limitare la complessità computazionale non necessaria. Esistono 5 tipi principali di agenti, dal più semplice al più avanzato:
Gli agenti con riflessi semplici sono la forma di agente più semplice che basa le azioni sulla percezione attuale. Questo agente non detiene alcuna memoria, né interagisce con altri agenti se mancano informazioni. Questi agenti agiscono in base a una serie di cosiddetti riflessi o regole. Ciò significa che l'agente è preprogrammato per eseguire azioni che corrispondono al soddisfacimento di determinate condizioni.
Se l'agente incontra una situazione per la quale non è preparato, non può rispondere in modo appropriato. Gli agenti sono efficaci solo in ambienti completamente osservabili che garantiscono l'accesso a tutte le informazioni necessarie.6
Esempio: un termostato che accende l'impianto di riscaldamento a un'ora prestabilita ogni notte. La regola della condizione-azione qui è, ad esempio, se sono le 20:00, il riscaldamento viene attivato.
Gli agenti con riflessi basati su modelli utilizzano sia la loro percezione attuale che la memoria per mantenere un modello interno del mondo. Man mano che l'agente continua a ricevere nuove informazioni, il modello viene aggiornato. Le azioni dell'agente dipendono dal suo modello, dai riflessi, dai precetti precedenti e dallo stato attuale.
Questi agenti, a differenza degli agenti con riflessi semplici, possono memorizzare informazioni e possono operare in ambienti parzialmente osservabili e mutevoli. Tuttavia, sono ancora limitati dal loro insieme di regole.6
Esempio: un robot aspirapolvere. Mentre pulisce una stanza sporca, rileva ostacoli come i mobili e si regola intorno ad essi. Il robot memorizza anche un modello delle aree che ha già pulito per non rimanere bloccato in un ciclo di pulizia ripetuta.
Gli agenti basati su obiettivo hanno un modello interno del mondo e anche un obiettivo o un insieme di obiettivi. Questi agenti cercano sequenze di azioni che raggiungano il loro obiettivo e pianificano queste azioni prima di agire su di esse. Questa ricerca e pianificazione migliorano la loro efficacia rispetto agli agenti con riflessi semplici e basati su modello.7
Esempio: un sistema di navigazione che consiglia il percorso più veloce per raggiungere la destinazione. Il modello considera vari percorsi che raggiungono la sua destinazione o, in altre parole, il suo obiettivo. In questo esempio, la regola della condizione-azione dell'agente afferma che se viene trovato un percorso più rapido, l'agente consiglia invece quello.
Gli agenti basati su utilità selezionano la sequenza di azioni che raggiungono l'obiettivo e massimizzano anche l'utilità o la ricompensa. L'utilità viene calcolata utilizzando una funzione di utilità. Questa funzione assegna un valore di utilità, ovvero una metrica che misura l'utilità di un'azione o quanto "felice" renderà l'agente, a ogni scenario in base a una serie di criteri fissi.
I criteri possono includere fattori quali la progressione verso l'obiettivo, i requisiti di tempo o la complessità computazionale. L'agente seleziona quindi le azioni che massimizzano l'utilità prevista. Quindi, questi agenti sono utili nei casi in cui più scenari raggiungono un obiettivo desiderato e bisogna selezionarne uno ottimale.7
Esempio: un sistema di navigazione che consiglia il percorso verso la sua destinazione che ottimizza l'efficienza del carburante e riduce al minimo il tempo trascorso nel traffico e il costo dei pedaggi. Questo agente misura l'utilità attraverso questa serie di criteri per selezionare il percorso più favorevole.
Gli agenti che apprendono hanno le stesse funzionalità degli altri tipi di agenti, ma sono unici nella loro capacità di apprendere. Le nuove esperienze vengono aggiunte alla loro base di conoscenza iniziale e ciò avviene in modo autonomo. Questo apprendimento migliora la capacità dell'agente di operare in ambienti non familiari. Gli agenti che apprendono possono essere basati su utilità o su obiettivo nel loro ragionamento e sono composti da quattro elementi principali:7
Esempio: consigli personalizzati su siti di e-commerce. Questi agenti tengono traccia dell'attività e delle preferenze dell'utente nella loro memoria. Queste informazioni vengono utilizzate per consigliare determinati prodotti e servizi all'utente. Il ciclo si ripete ogni volta che vengono formulate nuove raccomandazioni. L'attività dell'utente viene continuamente memorizzata a scopo di apprendimento. In tal modo, l'agente migliora la sua precisione nel tempo.
Gli agenti AI possono essere integrati nei siti web e nelle app per migliorare l'esperienza del cliente, fungendo da assistenti virtuali, fornendo supporto per la salute mentale, simulando colloqui e altri compiti correlati.8 Ci sono molti modelli no-code per l'implementazione da parte dell'utente, che rendono il processo di creazione di questi agenti AI ancora più semplice.
Gli agenti AI possono essere utilizzati per varie applicazioni sanitarie nel mondo reale. I sistemi multiagente possono essere particolarmente utili per la risoluzione dei problemi in tali contesti. Dalla pianificazione del trattamento dei pazienti nel reparto di emergenza alla gestione dei processi farmacologici, questi sistemi fanno risparmiare tempo e fatica ai professionisti del settore medico, che possono dedicarsi a compiti più urgenti.9
In caso di disastri naturali, gli agenti AI possono utilizzare algoritmi di deep learning per recuperare le informazioni degli utenti sui siti di social media che necessitano di salvataggio. Le posizioni di questi utenti possono essere mappate per aiutare i servizi di soccorso a salvare più persone in meno tempo. Pertanto, gli agenti AI possono essere di grande utilità per la vita umana, sia nei compiti banali che nelle situazioni di salvataggio.10
Automazione delle attività
Con i continui progressi dell'AI generativa, c'è un interesse crescente per l'ottimizzazione del workflow tramite l'AI, o l'automazione intelligente. Gli agenti AI sono strumenti AI in grado di automatizzare attività complesse che altrimenti richiederebbero risorse umane. Ciò si traduce nel raggiungimento degli obiettivi in modo rapido, economico e su larga scala. A loro volta, questi progressi significano che gli agenti umani non devono fornire indicazioni all'assistente AI per creare e svolgere le sue attività.
Maggiori prestazioni
I framework multiagente tendono a superare gli agenti singoli.11 Questo perché più piani d'azione sono disponibili per un agente, più si verificano apprendimento e riflessione. Un agente AI che incorpora la conoscenza e il feedback di altri agenti AI specializzati in aree correlate può essere utile per la sintesi delle informazioni. Questa collaborazione backend tra agenti AI e la capacità di colmare le lacune informative sono uniche per i framework agenti, il che li rende uno strumento potente e un significativo progresso nell'intelligenza artificiale.
Qualità delle risposte
Gli agenti AI forniscono risposte più complete, accurate e personalizzate per l'utente rispetto ai modelli AI tradizionali. Questo è estremamente importante per noi come utenti poiché risposte di qualità superiore in genere offrono una migliore esperienza del cliente. Come descritto in precedenza, ciò è reso possibile attraverso lo scambio di informazioni con altri agenti, l'utilizzo di strumenti esterni e l'aggiornamento del loro flusso di memoria. Questi comportamenti emergono da soli e non sono preprogrammati.12
Dipendenze multiagente
Per svolgere determinati compiti complessi è necessaria la conoscenza di più agenti AI. Quando si implementano questi framework multiagente, esiste il rischio di malfunzionamento. I sistemi multiagente basati sugli stessi foundation model possono presentare insidie comuni. Tali debolezze potrebbero causare un guasto a livello di sistema di tutti gli agenti coinvolti o esporre la vulnerabilità ad attacchi avversi.13 Ciò evidenzia l'importanza della governance dei dati nella creazione di foundation model e di processi di addestramento e test approfonditi.
Cicli di feedback infiniti
Anche la comodità del ragionamento pratico per gli utenti umani che utilizzano agenti AI comporta dei rischi. Gli agenti che non sono in grado di creare un piano completo o riflettere sulle loro scoperte, potrebbero ritrovarsi a chiamare ripetutamente gli stessi strumenti, invocando infiniti cicli di feedback. Per evitare queste ridondanze, può essere utilizzato un certo livello di monitoraggio umano in tempo reale.13
Complessità computazionale
Costruire agenti AI da zero richiede molto tempo e può essere anche molto costoso dal punto di vista computazionale. Le risorse necessarie per formare un agente ad alte prestazioni possono essere ingenti. Inoltre, a seconda della complessità dell'attività, gli agenti possono impiegare diversi giorni per completare le attività.12
Log delle attività
Per risolvere i problemi delle dipendenze multiagente, gli sviluppatori possono fornire agli utenti l'accesso a un log delle azioni degli agenti.14 Le azioni possono includere l'uso di strumenti esterni e descrivere gli agenti esterni utilizzati per raggiungere l'obiettivo. Questa trasparenza garantisce agli utenti insight sul processo decisionale iterativo, offre l'opportunità di scoprire errori e crea fiducia.
Interruzione
Si raccomanda di evitare che gli agenti AI rimangano in funzione per periodi di tempo eccessivamente lunghi. In particolare, nei casi di cicli di feedback infiniti non voluti, di cambiamenti nell'accesso a determinati strumenti o di malfunzionamenti dovuti a difetti di progettazione. Un modo per raggiungere questo obiettivo è implementare l'interrompibilità.
Mantenere il controllo di ciò implica consentire agli utenti umani la possibilità di interrompere tranquillamente una sequenza di azioni o l'intera operazione. Scegliere se e quando interrompere un agente AI richiede una certa ponderazione, poiché alcune interruzioni possono causare più danni che benefici. Per esempio, potrebbe essere più sicuro permettere a un agente difettoso di continuare a fornire assistenza in un'emergenza pericolosa per la vita, piuttosto che spegnerlo completamente.5
Identificatori univoci degli agenti
Per mitigare il rischio che i sistemi agenti vengano utilizzati per un uso dannoso, è possibile utilizzare identificatori univoci.14 Se questi identificatori dovessero essere necessari agli agenti per accedere ai sistemi esterni, sarebbe più facile rintracciare l'origine degli sviluppatori, dei distributori e dell'utente dell'agente. Ciò sarebbe particolarmente utile in caso di uso doloso o danno involontario arrecato dall'agente. Questo livello di responsabilità fornirebbe un ambiente più sicuro per l'operatività di questi agenti AI.
Supervisione umana
Per assistere il processo di apprendimento degli agenti AI, soprattutto nelle fasi iniziali in un nuovo ambiente, può essere utile fornire un feedback umano occasionale. Ciò consente all'agente AI di confrontare le sue prestazioni con lo standard previsto e di regolarsi di conseguenza. Questa forma di feedback è utile per migliorare l'adattabilità dell'agente alle preferenze dell'utente.5
A parte questo, una best practice è quella di richiedere l'approvazione umana prima che un agente AI intraprenda azioni di grande impatto. Ad esempio, le azioni che vanno dall'invio di e-mail di massa al trading finanziario dovrebbero richiedere una conferma umana.7 Si raccomanda un certo livello di monitoraggio umano per tali domini ad alto rischio.
Usa IBM watsonx AI, uno studio aziendale di nuova generazione per builder AI per addestrare, convalidare, adattare e implementare modelli AI, come piattaforma di sviluppo in grado di supportare la creazione di agenti AI.
Usa IBM watsonx Assistant, un AI chatbot di livello aziendale, dotato di capacità generative per produrre risposte accurate e conversazionali.
Aumenta la produttività degli sviluppatori attraverso l'uso di IBM watsonx Code Assistant basato sui foundation model IBM Granite. Le funzioni includono la generazione, la corrispondenza e la modernizzazione del codice.
Riduci il workload e migliora la produttività utilizzando assistenti di AI generativa con IBM Watsonx Orchestrate, con tecnologia LLM.
Utilizziamo IBM Consulting Advantage, la nostra piattaforma di interazione basata sull'AI che potenzia la nostra esperienza con agenti, assistenti e asset di gen AI appositamente progettati, per fornire soluzioni su larga scala e realizzare un time to value più rapido per i clienti.
Utilizza il pacchetto Python LangChain per creare un agente AI in Python utilizzando watsonx con strumenti personalizzati.
Un sistema multiagente (MAS) è costituito da più agenti di intelligenza artificiale (AI) che lavorano collettivamente per eseguire attività per conto di un utente o di un altro sistema.
Usa questa tecnica di machine learning per identificare le azioni per gli stati all'interno di un ambiente.
Crea assistenti AI che consentano alle persone di lavorare senza conoscenze specialistiche.
Gli agenti, noti anche come assistenti, sono versioni specializzate degli LLM, predisposti e ottimizzati per supportare ruoli specifici.
Un agente virtuale combina l'elaborazione del linguaggio naturale, la ricerca intelligente e la Robotic Process Automation (RPA) in un'interfaccia utente conversazionale, tipicamente un chatbot.
1 Andrew Zhao, Daniel Huang, Quentin Xu, Matthieu Lin, Yong-Jin Liu, and Gao Huang, "Expel: Llm agents are experiential learners", Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 38, N. 17, pagg. 19632-19642, 2024, https://ojs.aaai.org/index.php/AAAI/article/view/29936 (link esterno a ibm.com).
2 Yonadov Shavit, Sandhini Agarwal, Miles Brundage, Steven Adler, Cullen O’Keefe, Rosie Campbell, Teddy Lee, Pamela Mishkin, Tyna Eloundou, Alan Hickey, Katarina Slama, Lama Ahmad, Paul McMillan, Alex Beutel, Alexandre Passos and David G. Robinson, "Practices for Governing Agentic AI Systems", OpenAI, 2023, https://arxiv.org/pdf/2401.13138v3 (link esterno a ibm.com).
3 Tula Masterman, Sandi Besen, Mason Sawtell, Alex Chao, "The Landscape of Emerging AI AgentArchitectures for Reasoning, Planning, and Tool Calling: A Survey", arXiv preprint, 2024, https://arxiv.org/abs/2404.11584 (link esterno a ibm.com).
4 Gautier Dagan, Frank Keller, and Alex Lascarides, "Dynamic Planning with a LLM", arXiv preprint, 2023. https://arxiv.org/abs/2308.06391 (link esterno a ibm.com).
5 Binfeng Xu, Zhiyuan Peng, Bowen Lei, Subhabrata Mukherjee, Yuchen Liu, and Dongkuan Xu, "ReWOO: Decoupling Reasoning from Observations for Efficient Augmented Language Models", arXiv preprint, 2023, https://arxiv.org/abs/2305.18323 (link esterno a ibm.com).
6 Sebastian Schmid, Daniel Schraudner, and Andreas Harth, "Performance comparison of simple reflex agents using stigmergy with model-based agents in self-organizing transportation". IEEE International Conference on Autonomic Computing and Self-Organizing Systems Companion, pagg. 93-98, 2021, https://ieeexplore.ieee.org/document/9599196 (link esterno a ibm.com).
7 Veselka Sasheva Petrova-Dimitrova, "Classifications of intelligence agents and their applications", Fundamental Sciences and Applications, Vol. 28, N. 1, 2022.
8 Lei Wang, Chen Ma, Xueyang Feng, Zeyu Zhang, Hao Yang, Jingsen Zhang, Zhiyuan Chen, Jiakai Tang, Xu Chen, Yankai Lin, Wayne Xin Zhao, Zhewei Wei, and Jirong Wen, "A survey on large language model based autonomous agents", Frontiers of Computer Science, Vol. 18, N. 6, 2024, https://link.springer.com/article/10.1007/s11704-024-40231-1 (link esterno a ibm.com).
9 Jaya R. Haleema, Haleema, N. C. S. N. Narayana, "Enhancing a Traditional Health Care System of an Organization for Better Service with Agent Technology by Ensuring Confidentiality of Patients' Medical Information", Cybernetics and Information Technologies, Vol. 12, N. 3, pagg. 140-156, 2013, https://sciendo.com/article/10.2478/cait-2013-0031.
10 Jingwei Huang, Wael Khallouli, Ghaith Rabadi, Mamadou Seck, "Intelligent Agent for Hurricane Emergency Identification and Text Information Extraction from Streaming Social Media Big Data", International Journal of Critical Infrastructures, Vol. 19, N. 2, pagg. 124-139, 2023, https://arxiv.org/abs/2106.07114.
11 Junyou Li, Qin Zhang, Yangbin Yu, Qiang Fu, and Deheng Ye. "More agents is all you need". arXiv preprint, 2024, https://arxiv.org/abs/2402.05120.
12 Joon Sung Park, Joseph O'Brien, Carrie Jun Cai, Meredith Ringel Morris, Percy Liang, and Michael S. Bernstein, "Generative agents: Interactive simulacra of human behavior", Proceedings of the 36th Annual ACM Symposium on User Interface software and Technology, pagg. 1-22, 2023, https://dl.acm.org/doi/10.1145/3586183.3606763.
13 Alan Chan, Carson Ezell, Max Kaufmann, Kevin Wei, Lewis Hammond, Herbie Bradley, Emma Bluemke, Nitarshan Rajkumar, David Krueger, Noam Kolt, Lennart Heim and Markus Anderljung, "Visibility into AI Agents", The 2024 ACM Conference on Fairness, Accountability, and Transparency, pagg. 958-973, 2024, https://arxiv.org/abs/2401.13138.
14 Devjeet Roy, Xuchao Zhang, Rashi Bhave, Chetan Bansal, Pedro Las-Casas, Rodrigo Fonseca, and Saravan Rajmohan, "Exploring LLM-based Agents for Root Cause Analysis", arXiv preprint, 2024, https://arxiv.org/abs/2403.04123.