Il Chain of Thought (CoT) rispecchia il ragionamento umano, facilitando la risoluzione sistematica dei problemi attraverso una serie coerente di deduzioni logiche.
Il chain of thought prompting è un approccio all'intelligenza artificiale che simula processi di ragionamento simili a quelli umani delineando compiti complessi in una sequenza di passaggi logici verso una risoluzione finale. Questa metodologia riflette un aspetto fondamentale dell'intelligenza umana, offrendo un meccanismo strutturato per la risoluzione dei problemi. In altre parole, il CoT si basa sulla strategia cognitiva di scomporre problemi elaborati in pensieri intermedi gestibili che portano in sequenza a una risposta conclusiva.1
Se pensiamo al concatenamento dei prompt, è una forma più rudimentale di CoT prompting, in cui l'AI viene sollecitata a generare risposte in base a un determinato contesto o domanda. Al contrario, il CoT prompting va oltre la semplice generazione di risposte coerenti e pertinenti, richiedendo all'AI di costruire da zero un'intera argomentazione logica, comprese le premesse e una conclusione. Mentre il concatenamento dei prompt si concentra sul perfezionamento delle risposte individuali, il CoT prompting mira a creare un'argomentazione completa e logicamente coerente, ampliando così i limiti delle funzionalità di risoluzione dei problemi dell'AI.
Se a un'AI viene chiesto "Di che colore è il cielo?", l'AI genererà una risposta semplice e diretta, come "Il cielo è blu." Tuttavia, se le venisse chiesto di spiegare perché il cielo è blu utilizzando il CoT prompting, l'AI definirebbe prima cosa significa "blu" (un colore primario), quindi dedurrebbe che il cielo appare blu a causa dell'assorbimento di altri colori da parte dell'atmosfera. Questa risposta dimostra la capacità dell'AI di costruire un argomento logico.
Il chain of thought prompting utilizza i modelli linguistici di grandi dimensioni (LLM) per articolare una successione di fasi di ragionamento, guidando il modello verso la generazione di catene di ragionamento analoghe per compiti nuovi. Ciò viene ottenuto attraverso prompt basati su esempi che illustrano il processo di ragionamento, migliorando così la capacità del modello di affrontare sfide di ragionamento complesse.2 Comprendiamo il flusso di questa tecnica di prompting affrontando il classico problema di parole matematiche: risolvere un'equazione polinomiale.
Il chain of thought (CoT) prompting può aiutare in modo significativo nella risoluzione delle equazioni polinomiali guidando un modello linguistico di grandi dimensioni (LLM) a seguire una serie di passaggi logici, scomponendo il processo di risoluzione del problema.2 Esaminiamo come il CoT prompting può gestire un'equazione polinomiale.
Considera l'esempio della risoluzione di un'equazione quadratica.
Prompt di input: risolvi l'equazione quadratica: x2 - 5x + 6 = 0
Quando diamo questo prompt alla chat di IBM watsonx.ai, possiamo vedere la seguente conversazione tra domanda umana e risposta dell'assistenza AI.
Il chain of thought (CoT) prompting si è evoluto in varie varianti innovative, ognuna personalizzata per affrontare sfide specifiche e migliorare le funzionalità di ragionamento del modello in modi unici. Questi adattamenti non solo estendono l'applicabilità del CoT in diversi domini, ma perfezionano anche il processo di risoluzione dei problemi del modello.3
La variante zero-shot del chain of thought utilizza le conoscenze intrinseche all'interno dei modelli per affrontare i problemi senza esempi specifici precedenti o perfezionamenti per il compito da svolgere. Questo approccio è particolarmente utile quando si tratta di tipi di problemi nuovi o diversi in cui potrebbero non essere disponibili dati di addestramento personalizzati.4 Questo approccio può utilizzare le proprietà della generazione di prompt standard e della generazione di prompt few-shot.
Per esempio, quando si affronta la domanda "Qual è la capitale di un paese che confina con la Francia e ha una bandiera bianca e rossa?", un modello che utilizza il CoT zero-shot attingerebbe alle sue conoscenze geografiche e di bandiera incorporate per dedurre i passaggi che portano alla Svizzera come risposta, nonostante non sia stato addestrato esplicitamente a questo tipo di domande.
Il chain of thought automatico (Auto-CoT) mira a ridurre al minimo lo sforzo manuale nella creazione dei prompt automatizzando la generazione e la selezione di percorsi di ragionamento efficaci. Questa variante migliora la scalabilità e l'accessibilità dei prompt CoT per una gamma più ampia di attività e utenti.5, 8
Per esempio, per risolvere un problema matematico come "Se compri 5 mele e ne hai già 3, quante ne hai in totale?", un sistema Auto-CoT potrebbe generare automaticamente dei passaggi intermedi, come "Inizia con 3 mele" e "Aggiungi 5 mele alle 3 esistenti," culminando in "Mele totali = 8", semplificando il processo di ragionamento senza l'intervento umano.
Il chain of thought multimodale estende il framework CoT per incorporare input provenienti da varie modalità, come testo e immagini, consentendo al modello di elaborare e integrare diversi tipi di informazioni per compiti di ragionamento complessi.6
Per esempio, quando viene presentata un'immagine di una spiaggia affollata e viene chiesto: "È probabile che questa spiaggia sia popolare in estate?", un modello che impiega il CoT multimodale potrebbe analizzare gli indizi visivi (tra cui l'occupazione della spiaggia, le condizioni meteorologiche e altro ancora) insieme alla sua comprensione testuale della popolarità stagionale per elaborare una risposta dettagliata, come: "La spiaggia è affollata, il che indica un'alta popolarità, che probabilmente aumenterà ulteriormente in estate".
Queste varianti del chain of thought prompting non solo mostrano la flessibilità e l'adattabilità dell'approccio CoT, ma suggeriscono anche l'enorme potenziale di sviluppi futuri delle funzionalità di ragionamento e risoluzione dei problemi dell'AI.
Il CoT prompting è una tecnica potente per migliorare le prestazioni dei modelli linguistici di grandi dimensioni (LLM) su compiti di ragionamento complessi, che offre benefici significativi in vari domini come una maggiore precisione, trasparenza e capacità di ragionamento in più fasi. Tuttavia, è essenziale considerare i suoi limiti, tra cui la necessità di prompt di alta qualità, l'aumento dei costi computazionali, la suscettibilità agli attacchi avversari e le sfide nella valutazione dei miglioramenti qualitativi nel ragionamento o nella comprensione. Risolvendo queste limitazioni, ricercatori e professionisti possono garantire un'implementazione responsabile ed efficace del CoT prompting in diverse applicazioni.10
Gli utenti possono beneficiare di una serie di vantaggi all'interno del chain of thought prompting. Alcuni di questi includono:
L'evoluzione del chain of thought (CoT) è una testimonianza dei progressi sinergici in diversi domini, in particolare nell'elaborazione del linguaggio naturale (NLP), nel machine learning e nel fiorente campo dell'AI generativa. Questi progressi non solo hanno spinto il CoT in prima linea nella risoluzione di problemi complessi, ma hanno anche sottolineato la sua utilità in una vasta gamma di applicazioni. Qui, approfondiamo gli sviluppi chiave, integrando i termini specificati per tracciare un quadro completo dei progressi del CoT.
Le innovazioni nel prompt engineering hanno migliorato significativamente la comprensione e l'interazione dei modelli con il prompt originale, portando a percorsi di ragionamento più sfumati e contestualmente allineati. Questo sviluppo è stato fondamentale per perfezionare l'efficacia del CoT.2
L'integrazione nelle attività di ragionamento simbolico e nelle attività di ragionamento logico ha migliorato la capacità dei modelli di pensiero astratto e deduzione, segnando un salto significativo nell'affrontare le sfide basate sulla logica con il CoT.7
Ad esempio, il ragionamento simbolico consiste nel risolvere equazioni matematiche, come 2 + 3 = 5. In questo caso, il problema viene scomposto nelle sue parti costitutive (addizione e numeri) e il modello deduce la risposta corretta in base alle conoscenze apprese e alle regole di inferenza. Il ragionamento logico, invece, consiste nel trarre conclusioni da premesse o ipotesi, come: "Tutti gli uccelli possono volare e un pinguino è un uccello". Il modello determinerebbe quindi che un pinguino può volare in base alle informazioni fornite. L'integrazione del CoT prompting nelle attività di ragionamento simbolico e logico ha permesso agli LLM di dimostrare una migliore capacità di pensiero astratto e di deduzione, consentendo loro di affrontare problemi più complessi e diversificati.
L'applicazione dell'AI generativa e delle architetture trasformative ha rivoluzionato il CoT, consentendo la generazione di percorsi di ragionamento sofisticati che mostrano creatività e profondità. Questa sinergia ha ampliato l'applicabilità del CoT, influenzando sia il dominio accademico che quello pratico.9
I progressi che consentono ai modelli più piccoli di impegnarsi efficacemente nel ragionamento CoT hanno democratizzato l'accesso a sofisticate funzionalità di ragionamento. L'attenzione all'autoconsistenza all'interno del CoT garantisce la solidità logica dei percorsi generati, migliorando l'affidabilità delle conclusioni tratte dai modelli.11
L'integrazione del CoT nei chatbot e lo sfruttamento di tecniche di NLP all'avanguardia hanno trasformato l'AI conversazionale, consentendo ai chatbot di condurre interazioni più complesse che richiedono un livello più profondo di comprensione e competenza nella risoluzione dei problemi.12
Questi progressi rappresentano collettivamente un balzo in avanti nelle funzionalità del CoT e l'importanza dell'integrazione di chatbot e modelli CoT, evidenziando il loro potenziale per rivoluzionare i processi decisionali e di risoluzione dei problemi basati sull'AI. Combinando le capacità conversazionali dei chatbot con le funzionalità di ragionamento avanzate dei modelli CoT, possiamo creare sistemi AI più sofisticati ed efficaci in grado di gestire una gamma più ampia di compiti e applicazioni.
Inoltre, l'integrazione di varie applicazioni e modelli CoT può migliorare l'esperienza complessiva dell'utente, consentendo ai sistemi AI di comprendere e rispondere meglio alle esigenze e alle preferenze degli utenti. Integrando le tecniche di elaborazione del linguaggio naturale (NLP) nei modelli CoT, possiamo consentire ai chatbot di comprendere e rispondere agli input degli utenti in un modo più umano, creando esperienze di conversazione più coinvolgenti, intuitive ed efficaci.
La metodologia del chain of thought (CoT), con la sua capacità di scomporre problemi complessi in passaggi di ragionamento comprensibili, ha trovato applicazioni in una vasta gamma di campi. Questi casi d'uso non solo dimostrano la versatilità del CoT, ma anche il suo potenziale nel trasformare il modo in cui i sistemi affrontano le attività decisionali e di risoluzione dei problemi. Di seguito, esploriamo diversi casi d'uso importanti in cui il CoT è stato applicato in modo efficace.
I chatbot avanzati utilizzano il CoT per comprendere e rispondere meglio alle domande dei clienti. Suddividendo il problema di un cliente in parti più piccole e gestibili, i chatbot possono fornire risposte più accurate e utili, migliorando la soddisfazione del cliente e riducendo la necessità di intervento umano.
I ricercatori utilizzano il CoT per strutturare il loro processo di pensiero nella risoluzione di problemi scientifici complessi, facilitando l'innovazione. Questo approccio strutturato può accelerare il processo di scoperta e consentire la formulazione di nuove ipotesi.
Nella creazione di contenuti, il CoT aiuta a generare schemi o riepiloghi strutturati organizzando logicamente pensieri e informazioni, migliorando la coerenza e la qualità dei contenuti scritti.
Il CoT è fondamentale nelle piattaforme di tecnologia educativa, in quanto aiuta a generare spiegazioni dettagliate per problemi complessi. Ciò è particolarmente prezioso in materie come la matematica e le scienze, dove la comprensione del processo è cruciale quanto la risposta finale. I sistemi basati sul CoT possono guidare gli studenti attraverso procedure di risoluzione dei problemi, migliorandone la comprensione e la memorizzazione.
Il CoT è fondamentale per chiarire il ragionamento che sta dietro alle decisioni basate sull'AI, soprattutto negli scenari che richiedono considerazioni etiche. Fornendo un percorso di ragionamento trasparente, il CoT assicura che le decisioni dell'AI siano in linea con gli standard etici e le norme sociali.
Questi casi d'uso sottolineano il potenziale trasformativo del CoT in diversi settori, offrendo uno sguardo sulla sua capacità di ridefinire la risoluzione dei problemi e i processi decisionali. Man mano che il CoT continua ad evolversi, si prevede che le sue applicazioni si espandano, integrando ulteriormente questa metodologia nel tessuto dei progressi tecnologici e sociali.
La sollecitazione della chain of thought rappresenta un salto in avanti nella capacità dell'AI di intraprendere compiti di ragionamento complessi, emulando i processi cognitivi umani. Illustrando le fasi intermedie del ragionamento, il CoT non solo amplifica l'acume di risoluzione dei problemi degli LLM, ma migliora anche la trasparenza e l'interpretabilità. Nonostante le limitazioni intrinseche, le esplorazioni in corso sulle varianti e le applicazioni della CoT continuano ad ampliare le capacità di ragionamento dei modelli AI, preannunciando futuri miglioramenti delle funzionalità cognitive dell'AI.
Addestra, convalida, adatta e implementa le funzionalità di AI generativa, foundation model e machine learning con IBM watsonx.ai, uno studio aziendale di nuova generazione per builder AI. Crea applicazioni AI in tempi ridotti e con una minima quantità di dati.
Metti l'AI al servizio della tua azienda grazie all'esperienza leader di settore e alla gamma di soluzioni di IBM nel campo dell'AI.
Reinventa i flussi di lavoro e le operazioni critiche aggiungendo l'AI per massimizzare le esperienze, il processo decisionale in tempo reale e il valore di business.
Scopri come i CEO possono trovare il giusto equilibrio tra il valore che l’AI generativa può creare, gli investimenti che richiede e i rischi che introduce.
Impara i concetti fondamentali e sviluppa le tue competenze con laboratori pratici, corsi, progetti guidati, prove e molto altro.
Scopri come incorporare in tutta sicurezza l’AI generativa e il machine learning nella tua azienda.
Vuoi ottenere un ritorno migliore sui tuoi investimenti nell’AI? Scopri come lo scaling della GenAI in settori chiave può favorire il cambiamento, aiutando le tue menti migliori a creare e fornire nuove soluzioni innovative.
1 Boshi Wang, S. M. (2022). Towards Understanding Chain-of-Thought Prompting: An Empirical Study of What Matters. 2717-2739, https://doi.org/10.48550/arXiv.2212.10001.
2Jason Wei, X. W. (2022). Chain of Thought Prompting Elicits Reasoning in Large Language Models. 36th Conference on Neural Information Processing Systems (NeurIPS 2022).
3Zheng Chu, J. C. (2023). A Survey of Chain of Thought Reasoning: Advances, Frontiers and Future. ArXiv, abs/2309.15402.
4Omar Shaikh, H. Z. (dicembre 2022). On Second Thought, Let’s Not Think Step by Step! Bias and Toxicity in Zero-Shot Reasoning. ArXiv, abs/2212.08061. https://doi.org/10.48550/arXiv.2212.08061.
5Zhuosheng Zhang, A. Z. (2022). Automatic Chain of Thought Prompting in Large Language Models. ArXiv, abs/2210.03493. https://doi.org/10.48550/arXiv.2210.03493.
6Zhuosheng Zhang, A. Z. (2023). Multimodal Chain-of-Thought Reasoning in Language Models. ArXiv, abs/2302.00923. https://doi.org/10.48550/arXiv.2302.00923.
7Yao, Z. L. (2023). Beyond Chain-of-Thought, Effective Graph-of-Thought Reasoning in Large Language Models. ArXiv, abs/2305.16582. https://doi.org/10.48550/arXiv.2305.16582.
8Kashun Shum, S. D. (2023). Automatic Prompt Augmentation and Selection with Chain-of-Thought from Labeled Data. ArXiv, abs/2302.12822. https://doi.org/10.48550/arXiv.2302.12822.
9A Vaswani, N. S. (2017). L'attenzione è tutto ciò di cui hai bisogno. Advances in neural information processing systems.
10Zhengyan Zhang, Y. G. (2021). CPM-2: Large-scale Cost-effective Pre-trained Language Models. AI Open, 2, 216-224.
11L Zheng, N. G. (2021). When does pretraining help? assessing self-supervised learning for law and the casehold dataset of 53,000+ legal holdings. In Proceedings of the eighteenth international conference on artificial intelligence and law , 159-168.
12S Roller, E. D. (2020). Recipes for building an open-domain chatbot. arXiv preprint arXiv:2004.13637 .
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com