Un agente di intelligenza artificiale (AI) si riferisce a un sistema o programma in grado di eseguire autonomamente attività per conto di un utente o di un altro sistema progettandone il workflow e utilizzando gli strumenti disponibili.
Gli agenti AI possono includere un'ampia gamma di funzionalità oltre all'elaborazione del linguaggio naturale, tra cui il processo decisionale, la risoluzione dei problemi, l'interazione con ambienti esterni e l'esecuzione di azioni.
Questi agenti possono essere implementati in varie applicazioni per gestire compiti complessi in vari contesti aziendali, dalla progettazione di software e automazione IT agli strumenti di generazione di codice e agli assistenti conversazionali. Usano le tecniche avanzate di elaborazione del linguaggio naturale dei modelli linguistici di grandi dimensioni (LLM) per comprendere e rispondere passo dopo passo agli input degli utenti e stabilire quando ricorrere a strumenti esterni.
Il fulcro degli agenti AI sono i modelli linguistici di grandi dimensioni (LLM).Per questo motivo, gli agenti AI vengono spesso definiti agenti LLM. Gli LLM tradizionali, come i modelli IBM® Granite, producono le loro risposte in base ai dati utilizzati per addestrarli e sono limitati da limiti di conoscenza e ragionamento. Al contrario, la tecnologia basata su agenti utilizza la chiamata degli strumenti sul backend per ottenere informazioni aggiornate, ottimizzare il workflow e creare sotto-compiti in modo autonomo per raggiungere obiettivi complessi.
In questo processo, l'agente autonomo impara ad adattarsi alle aspettative dell'utente nel tempo. La capacità dell'agente di memorizzare le interazioni passate e pianificare le azioni future incoraggia un'esperienza personalizzata e risposte complete.1 Questa chiamata di strumenti può essere ottenuta senza l'intervento umano e amplia le possibilità di applicazioni nel mondo reale di questi sistemi AI. L'approccio che gli agenti AI adottano per raggiungere gli obiettivi fissati dagli utenti è composto da queste tre fasi:
Sebbene gli agenti AI siano autonomi nei loro processi decisionali, necessitano di obiettivi e ambienti definiti dall'uomo.2 Ci sono tre influenze principali sul comportamento degli agenti autonomi:
Dati gli obiettivi dell'utente e gli strumenti disponibili per l'agente, l'agente AI esegue una scomposizione dei compiti per migliorare le prestazioni.3 In sostanza, l'agente crea un piano con compiti specifici e sotto-compiti per raggiungere l'obiettivo complesso.
Per le attività semplici, la pianificazione non è un passaggio necessario. Invece, un agente può riflettere iterativamente sulle sue risposte e migliorarle senza pianificare i suoi prossimi passi.
Gli agenti AI basano le loro azioni sulle informazioni che percepiscono. Spesso, gli agenti AI non dispongono della base di conoscenza completa necessaria per gestire tutti i compiti secondari all'interno di un obiettivo complesso. Per rimediare a questo, gli agenti AI utilizzano gli strumenti a loro disposizione. Questi strumenti possono includere set di dati esterni, ricerche sul web, API e persino altri agenti. Dopo aver recuperato le informazioni mancanti da questi strumenti, l'agente può aggiornare la propria base di conoscenza. Ciò significa che ad ogni passo del percorso, l'agente rivaluta il suo piano d'azione e si autocorregge.
Per illustrare questo processo, immagina un utente che sta pianificando la sua vacanza. L'utente incarica un agente AI di prevedere quale settimana dell'anno prossimo avrà probabilmente il miglior clima per il suo viaggio di surf in Grecia. Poiché il modello LLM al cuore dell'agente non è specializzato nei modelli meteorologici, l'agente raccoglie informazioni da un database esterno composto da report meteo giornalieri sulla Grecia negli ultimi anni.
Nonostante abbia acquisito queste nuove informazioni, l'agente non è ancora in grado di determinare le condizioni meteorologiche ottimali per il surf e quindi viene creato il sotto-compito successivo. Per questo sotto-compito, l'agente comunica con un agente esterno specializzato nel surf. Supponiamo che così facendo, l'agente apprenda che l'alta marea e il tempo soleggiato con poca o nessuna pioggia offrono le migliori condizioni per il surf.
L'agente può ora combinare le informazioni apprese dai suoi strumenti per identificare degli schemi. Può prevedere in quale settimana dell'anno prossimo in Grecia ci saranno probabilmente alte maree, tempo soleggiato e scarse probabilità di pioggia. Questi risultati vengono poi presentati all'utente. Questa condivisione di informazioni tra strumenti è ciò che consente agli agenti AI di avere una più ampia applicazione rispetto ai modelli AI tradizionali.3
Gli agenti AI utilizzano meccanismi di feedback, come altri agenti AI e human-in-the-loop (HITL), per migliorare l'accuratezza delle loro risposte. Torniamo al nostro precedente esempio di surf per evidenziare questo aspetto. Dopo che l'agente ha formulato la sua risposta all'utente, l'agente memorizza le informazioni apprese insieme al feedback dell'utente per migliorare le prestazioni e adattarsi alle preferenze dell'utente per gli obiettivi futuri.
Se sono stati utilizzati altri agenti per raggiungere l'obiettivo, è possibile utilizzare anche il loro feedback. Il feedback multiagente può essere particolarmente utile per ridurre al minimo il tempo che gli utenti umani dedicano a fornire indicazioni. Tuttavia, gli utenti possono anche fornire un feedback sulle azioni e sul ragionamento interno dell'agente per allineare meglio i risultati all'obiettivo prefissato.2
I meccanismi di feedback migliorano il ragionamento e l'accuratezza dell'agente AI, il che viene comunemente definito perfezionamento iterativo.3 Per evitare di ripetere gli stessi errori, gli agenti AI possono anche memorizzare i dati sulle soluzioni agli ostacoli precedenti in una base di conoscenza.
Newsletter di settore
Ricevi insight selezionati sulle notizie più importanti e interessanti sull'AI. Iscriviti alla nostra newsletter settimanale Think. Leggi l'Informativa sulla privacy IBM.
L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.
I chatbot AI utilizzano tecniche di AI conversazionale come l'elaborazione del linguaggio naturale (NLP) per comprendere le domande degli utenti e automatizzare le risposte ad esse. Questi chatbot sono una modalità mentre l'agenzia è un framework tecnologico.
Gli AI chatbot non agenti sono quelli che non dispongono di strumenti, memoria e ragionamento. Possono raggiungere solo obiettivi a breve termine e non sono in grado di pianificare in anticipo. Per come li conosciamo, i chatbot non agenti richiedono un input continuo da parte dell'utente per rispondere. Possono fornire risposte a richieste comuni che molto probabilmente sono in linea con le aspettative degli utenti ma offrono scarsi risultati su domande specifiche dell'utente e dei suoi dati. Poiché questi chatbot non hanno memoria, non possono imparare dai loro errori se le loro risposte sono insufficienti.
Al contrario, gli AI chatbot agenti imparano ad adattarsi alle aspettative degli utenti nel tempo, fornendo un'esperienza più personalizzata e risposte complete. Possono completare compiti complessi creando sotto-compiti senza l'intervento umano e considerando piani diversi. Questi piani possono anche essere corretti e aggiornati in base alle esigenze. Gli AI chatbot agenti, a differenza di quelli non agenti, valutano i loro strumenti e utilizzano le risorse disponibili per colmare le lacune informative.
Non esiste un'architettura standard per la creazione di agenti AI. Esistono diversi paradigmi per risolvere problemi in più fasi.
Con questo paradigma, possiamo istruire gli agenti a "pensare" e pianificare dopo ogni azione intrapresa e con ogni risposta dello strumento per decidere quale strumento utilizzare successivamente. Questi cicli Think-Act-Observe vengono utilizzati per risolvere i problemi passo dopo passo e migliorare iterativamente le risposte.
Attraverso la struttura dei prompt, gli agenti possono essere istruiti a ragionare lentamente e a visualizzare ogni "pensiero".4 Il ragionamento verbale dell'agente fornisce insight su come vengono formulate le risposte. In questo framework, gli agenti aggiornano continuamente il loro contesto con nuovi ragionamenti. Questo può essere interpretato come una forma di chain-of-thought prompting.
Il metodo ReWOO, a differenza di ReAct, elimina la dipendenza dagli output degli strumenti per la pianificazione delle azioni. Gli agenti, invece, pianificano in anticipo. L'utilizzo di strumenti ridondanti viene evitato anticipando quali strumenti utilizzare al momento del prompt iniziale da parte dell'utente. Ciò è auspicabile da una prospettiva incentrata sull'uomo poiché l'utente può confermare il piano prima che venga eseguito.
Il workflow ReWOO è composto da tre moduli. Nel modulo di pianificazione, l'agente anticipa i suoi prossimi passi in base al suggerimento dell'utente. La fase successiva prevede la raccolta degli output prodotti chiamando questi strumenti. Infine, l'agente abbina il piano iniziale con gli output dello strumento per formulare una risposta. Questa pianificazione anticipata può ridurre notevolmente l'utilizzo dei token e la complessità computazionale, nonché le ripercussioni di un guasto intermedio dello strumento.5
Gli agenti AI possono essere sviluppati con diversi livelli di funzionalità. Un agente semplice può essere preferito per obiettivi semplici per limitare la complessità computazionale non necessaria. Esistono 5 tipi principali di agenti, dal più semplice al più avanzato:
Gli agenti con riflessi semplici sono la forma di agente più semplice che basa le azioni sulla percezione attuale. Questo agente non detiene alcuna memoria, né interagisce con altri agenti se mancano informazioni. Questi agenti agiscono in base a una serie di cosiddetti riflessi o regole. Ciò significa che l'agente è pre-programmato per eseguire azioni che corrispondono al soddisfacimento di determinate condizioni.
Se l'agente incontra una situazione per la quale non è preparato, non può rispondere in modo appropriato. Gli agenti sono efficaci solo in ambienti completamente osservabili che garantiscono l'accesso a tutte le informazioni necessarie.6
Esempio: un termostato che accende l'impianto di riscaldamento a un'ora prestabilita ogni notte. La regola della condizione-azione è, ad esempio, che se sono le 20:00, il riscaldamento si attiva.
Gli agenti con riflessi basati su modelli utilizzano sia la loro percezione attuale che la memoria per mantenere un modello interno del mondo. Man mano che l'agente continua a ricevere nuove informazioni, il modello viene aggiornato. Le azioni dell'agente dipendono dal suo modello, dai riflessi, dai precetti precedenti e dallo stato attuale.
Questi agenti, a differenza degli agenti con riflessi semplici, possono memorizzare informazioni e possono operare in ambienti parzialmente osservabili e mutevoli. Tuttavia, sono ancora limitati dal loro insieme di regole.6
Esempio: un robot aspirapolvere. Mentre pulisce una stanza sporca, rileva ostacoli come i mobili e si adatta a essi. Il robot memorizza anche un modello delle aree che ha già pulito per non rimanere bloccato in un ciclo di pulizia ripetuta.
Gli agenti basati su obiettivi hanno un modello interno del mondo e anche un obiettivo o un insieme di obiettivi. Questi agenti cercano sequenze di azioni per raggiungere il loro obiettivo e pianificano queste azioni prima di agire su di esse. Questa ricerca e pianificazione migliorano la loro efficacia rispetto agli agenti con riflessi semplici e basati su modello.7
Esempio: un sistema di navigazione che consiglia il percorso più veloce per raggiungere la destinazione. Il modello considera vari percorsi che raggiungono la destinazione prevista o, in altre parole, l'obiettivo. In questo esempio, la regola condizione-azione dell'agente stabilisce che se viene trovato un percorso più veloce, l'agente lo consiglia al suo posto.
Gli agenti basati sull’utilità selezionano la sequenza di azioni che raggiunge l’obiettivo e massimizza anche l’utilità o la ricompensa. L’utilità viene calcolata utilizzando una funzione di utilità. Questa funzione assegna un valore di utilità, una metrica che misura l’utilità di un’azione o quanto "felice" renderà l’agente, a ciascun scenario in base a un insieme di criteri fissi.
I criteri possono includere fattori quali la progressione verso l'obiettivo, i requisiti di tempo o la complessità computazionale. L'agente seleziona quindi le azioni che massimizzano l'utilità prevista. Pertanto, questi agenti sono utili nei casi in cui più scenari raggiungono un obiettivo desiderato e bisogna selezionarne uno ottimale.7
Esempio: un sistema di navigazione che consiglia il percorso verso la destinazione prevista che ottimizza l'efficienza del carburante e riduce al minimo il tempo trascorso nel traffico e il costo dei pedaggi. Questo agente misura l'utilità attraverso questa serie di criteri per selezionare il percorso più favorevole.
Gli agenti di apprendimento possiedono le stesse capacità degli altri tipi di agenti, ma si distinguono per la loro capacità di apprendere. Le nuove esperienze vengono aggiunte alla loro base di conoscenza iniziale, un processo che avviene in modo autonomo. Questo apprendimento migliora la capacità dell’agente di operare in ambienti sconosciuti. Gli agenti di apprendimento possono essere basati sull’utilità o sugli obiettivi nel loro ragionamento e sono composti da quattro elementi principali:7
Esempio: consigli personalizzati su siti di e-commerce. Questi agenti tengono traccia dell'attività e delle preferenze dell'utente nella loro memoria. Queste informazioni vengono utilizzate per consigliare determinati prodotti e servizi all'utente. Il ciclo si ripete ogni volta che vengono formulate nuove raccomandazioni. L'attività dell'utente viene continuamente memorizzata a scopo di apprendimento. In tal modo, l'agente migliora la sua precisione nel tempo.
Gli agenti AI possono essere integrati nei siti web e nelle app per migliorare l'esperienza del cliente, fungendo da assistenti virtuali, fornendo supporto per la salute mentale, simulando colloqui e altri compiti correlati.8 Ci sono molti modelli no-code per l'implementazione da parte dell'utente, che rendono il processo di creazione di questi agenti AI ancora più semplice.
Gli agenti AI possono essere utilizzati per varie applicazioni sanitarie nel mondo reale. I sistemi multiagente possono essere particolarmente utili per la risoluzione dei problemi in tali contesti. Dalla pianificazione del trattamento dei pazienti al pronto soccorso alla gestione dei processi farmacologici, questi sistemi fanno risparmiare tempo e fatica ai professionisti del settore medico, che possono dedicarsi a compiti più urgenti.9
In caso di disastri naturali, gli agenti AI possono utilizzare algoritmi di deep learning per recuperare le informazioni degli utenti sui siti di social media che necessitano di soccorso. Le posizioni di questi utenti possono essere mappate per aiutare i servizi di soccorso a salvare più persone in meno tempo. Pertanto, gli agenti AI possono essere di grande utilità per la vita umana, sia nei compiti più banali che nelle situazioni in cui c'è in ballo il salvataggio di vite umane.10
Con i continui progressi nell'AI generativa, c'è un crescente interesse verso l'ottimizzazione del workflow tramite l'AI, o automazione intelligente. Gli agenti AI sono strumenti di AI in grado di automatizzare attività complesse che altrimenti richiederebbero risorse umane. Ciò consente di raggiungere obiettivi in modo economico, rapido e su larga scala. A loro volta, questi progressi fanno sì che gli agenti umani non debbano fornire indicazioni all'assistente AI per la creazione e la gestione dei suoi compiti.
I framework multiagente tendono ad avere prestazioni superiori a quelle degli agenti singoli.11 Questo perché più piani d'azione sono disponibili per un agente, più processi di apprendimento e riflessione si verificano. Un agente AI che incorpora la conoscenza e il feedback di altri agenti AI specializzati in aree correlate può essere utile per la sintesi delle informazioni. Questa collaborazione nel backend tra agenti AI e la capacità di colmare le lacune nelle informazioni sono caratteristiche uniche dei framework di agenti, il che li rende uno strumento potente e un avanzamento significativo nell'intelligenza artificiale.
Gli agenti AI forniscono risposte più complete, accurate e personalizzate per l'utente rispetto ai modelli AI tradizionali. Questo è molto importante per gli utenti poiché risposte di qualità superiore in genere consentono un'esperienza migliore. Come descritto in precedenza, ciò è reso possibile dallo scambio di informazioni con altri agenti, l'utilizzo di strumenti esterni e l'aggiornamento del loro flusso di memoria. Questi comportamenti emergono autonomamente e non sono pre-programmati.12
Per svolgere determinati compiti complessi è necessaria la conoscenza di più agenti AI. Quando si implementano questi framework multiagente, esiste il rischio di malfunzionamento. I sistemi multiagente basati sugli stessi foundation model possono presentare insidie comuni. Tali debolezze potrebbero causare un malfunzionamento a livello di sistema di tutti gli agenti coinvolti o renderli vulnerabili ad attacchi dannosi. 13 Ciò evidenzia l'importanza della governance dei dati nella creazione dei foundation model e la necessità di processi di addestramento e test approfonditi.
La comodità del ragionamento automatico per gli utenti umani che utilizzano agenti AI comporta anche dei rischi. Gli agenti che non sono in grado di creare un piano completo o di riflettere sui loro risultati potrebbero ritrovarsi a chiamare ripetutamente gli stessi strumenti, generando loop di feedback infiniti. Per evitare queste ridondanze, potrebbe essere necessario un certo livello di monitoraggio umano in tempo reale.13
Creare agenti AI da zero richiede molto tempo e può essere anche molto costoso dal punto di vista computazionale. Le risorse necessarie per addestrare un agente ad alte prestazioni possono essere ingenti. Inoltre, a seconda della complessità del compito, gli agenti possono impiegare diversi giorni per completarlo.12
Per risolvere i problemi delle dipendenze multiagente, gli sviluppatori possono fornire agli utenti l'accesso a un log delle azioni degli agenti.14 Le azioni possono includere l'uso di strumenti esterni e descrivere gli agenti esterni utilizzati per raggiungere l'obiettivo. Questa trasparenza garantisce agli utenti insight sul processo decisionale iterativo, offre l'opportunità di rilevare errori e promuove la fiducia.
Si consiglia di evitare che gli agenti AI rimangano in funzione per periodi di tempo eccessivamente lunghi. In particolare, nei casi di cicli di feedback infiniti non voluti, di cambiamenti nell'accesso a determinati strumenti o di malfunzionamenti dovuti a difetti di progettazione. Un modo per raggiungere questo obiettivo è implementare l'interrompibilità.
Mantenere il controllo di ciò implica consentire agli utenti umani la possibilità di interrompere tranquillamente una sequenza di azioni o l'intera operazione. Scegliere se e quando interrompere un agente AI richiede una certa ponderazione, poiché alcune interruzioni possono causare più danni che benefici. Per esempio, può essere più sicuro consentire a un agente difettoso di continuare a fornire assistenza in un'emergenza critica, piuttosto che spegnerlo completamente.5
Per mitigare il rischio che i sistemi di agenti vengano utilizzati con cattive intenzioni, è possibile utilizzare identificatori univoci.14 Se questi identificatori fossero richiesti affinché gli agenti possano accedere a sistemi esterni, sarebbe più facile risalire all'origine degli sviluppatori, dei responsabili del loro impiego e degli utenti. Ciò sarebbe particolarmente utile in caso di uso improprio o danno involontario arrecato dall'agente. Questo livello di responsabilità fornirebbe un ambiente più sicuro per l'operatività di questi agenti AI.
Per facilitare il processo di apprendimento degli agenti AI, soprattutto nelle fasi iniziali in un nuovo ambiente, può essere utile fornire un feedback umano occasionale. Ciò consente all'agente AI di confrontare le sue prestazioni con lo standard previsto e di regolarsi di conseguenza. Questa forma di feedback è utile per migliorare l'adattabilità dell'agente alle preferenze dell'utente.5
Oltre a ciò, una best practice è quella di richiedere l'approvazione umana prima che un agente AI intraprenda azioni di grande impatto. Ad esempio, le azioni che vanno dall'invio di e-mail di massa al trading finanziario dovrebbero richiedere una conferma umana.7 Per questi settori ad alto rischio si raccomanda un certo livello di monitoraggio umano.
Abbiamo intervistato 2.000 organizzazioni in merito alle loro iniziative di AI per scoprire cosa funziona, cosa non funziona e come giocare d’anticipo.
IBM Granite è la nostra famiglia di modelli AI aperti, efficienti e affidabili, su misura per le aziende e ottimizzati per scalare le applicazioni di AI. Esplora le opzioni di linguaggio, codice, serie temporali e guardrail.
Accedi al nostro catalogo completo di oltre 100 corsi online acquistando oggi stesso un abbonamento individuale o multiutente che ti consentirà di ampliare le tue competenze su una gamma di prodotti a un prezzo contenuto.
Condotto dai migliori leader di pensiero di IBM, il programma di studi è stato progettato per aiutare i dirigenti aziendali ad acquisire le conoscenze necessarie per dare priorità agli investimenti in AI che possono favorire la crescita.
1 Andrew Zhao, Daniel Huang, Quentin Xu, Matthieu Lin, Yong-Jin Liu e Gao Huang, "Expel: Llm agents are experiential learners", Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 38, n. 17, pagg. 19632-19642, 2024, https://ojs.aaai.org/index.php/AAAI/article/view/29936 (link esterno a ibm.com).
2 Yonadov Shavit, Sandhini Agarwal, Miles Brundage, Steven Adler, Cullen O’Keefe, Rosie Campbell, Teddy Lee, Pamela Mishkin, Tyna Eloundou, Alan Hickey, Katarina Slama, Lama Ahmad, Paul McMillan, Alex Beutel, Alexandre Passos e David G. Robinson, "Practices for Governing Agentic AI Systems", OpenAI, 2023, https://arxiv.org/pdf/2401.13138v3 (link esterno a ibm.com).
3 Tula Masterman, Sandi Besen, Mason Sawtell, Alex Chao, "The Landscape of Emerging AI AgentArchitectures for Reasoning, Planning, and Tool Calling: A Survey", arXiv preprint, 2024, https://arxiv.org/abs/2404.11584 (link esterno a ibm.com).
4 Gautier Dagan, Frank Keller e Alex Lascarides, "Dynamic Planning with a LLM", arXiv preprint, 2023. https://arxiv.org/abs/2308.06391 (link esterno a ibm.com).
5 Binfeng Xu, Zhiyuan Peng, Bowen Lei, Subhabrata Mukherjee, Yuchen Liu e Dongkuan Xu, "ReWOO: Decoupling Reasoning from Observations for Efficient Augmented Language Models", arXiv preprint, 2023, https://arxiv.org/abs/2305.18323 (link esterno a ibm.com).
6 Sebastian Schmid, Daniel Schraudner, e Andreas Harth, "Performance comparison of simple reflex agents using stigmergy with model-based agents in self-organizing transportation". IEEE International Conference on Autonomic Computing and Self-Organizing Systems Companion, pagg. 93-98, 2021, https://ieeexplore.ieee.org/document/9599196 (link esterno a ibm.com).
7 Veselka Sasheva Petrova-Dimitrova, "Classifications of intelligence agents and their applications", Fundamental Sciences and Applications, Vol. 28, n. 1, 2022.
8 Lei Wang, Chen Ma, Xueyang Feng, Zeyu Zhang, Hao Yang, Jingsen Zhang, Zhiyuan Chen, Jiakai Tang, Xu Chen, Yankai Lin, Wayne Xin Zhao, Zhewei Wei e Jirong Wen, "A survey on large language model based autonomous agents", Frontiers of Computer Science, Vol. 18, n. 6, 2024, https://link.springer.com/article/10.1007/s11704-024-40231-1 (link esterno a ibm.com).
9 Jaya R. Haleema, Haleema, N. C. S. N. Narayana, "Enhancing a Traditional Health Care System of an Organization for Better Service with Agent Technology by Ensuring Confidentiality of Patients’ Medical Information", Cybernetics and Information Technologies, Vol. 12, n. 3, pagg. 140-156, 2013, https://sciendo.com/article/10.2478/cait-2013-0031.
10 Jingwei Huang, Wael Khallouli, Ghaith Rabadi, Mamadou Seck, "Intelligent Agent for Hurricane Emergency Identification and Text Information Extraction from Streaming Social Media Big Data", International Journal of Critical Infrastructures, Vol. 19, n. 2, pagg. 124-139, 2023, https://arxiv.org/abs/2106.07114.
11 Junyou Li, Qin Zhang, Yangbin Yu, Qiang Fu e Deheng Ye. "More agents is all you need". arXiv preprint, 2024, https://arxiv.org/abs/2402.05120.
12 Joon Sung Park, Joseph O'Brien, Carrie Jun Cai, Meredith Ringel Morris, Percy Liang e Michael S. Bernstein, "Generative agents: Interactive simulacra of human behavior", Proceedings of the 36th Annual ACM Symposium on User Interface software and Technology, pagg. 1-22, 2023, https://dl.acm.org/doi/10.1145/3586183.3606763.
13 Alan Chan, Carson Ezell, Max Kaufmann, Kevin Wei, Lewis Hammond, Herbie Bradley, Emma Bluemke, Nitarshan Rajkumar, David Krueger, Noam Kolt, Lennart Heim e Markus Anderljung, "Visibility into AI Agents", The 2024 ACM Conference on Fairness, Accountability, and Transparency, pagg. 958-973, 2024, https://arxiv.org/abs/2401.13138.
14 Devjeet Roy, Xuchao Zhang, Rashi Bhave, Chetan Bansal, Pedro Las-Casas, Rodrigo Fonseca e Saravan Rajmohan, "Exploring LLM-based Agents for Root Cause Analysis", arXiv preprint, 2024, https://arxiv.org/abs/2403.04123.