My IBM Accedi Iscriviti

Che cos'è il Chain of Thought (CoT)?

12 agosto 2024

Autori

Vrunda Gadesha

AI Advocate | Technical Content Author

Eda Kavlakoglu

Program Manager

Il Chain of Thought (CoT) rispecchia il ragionamento umano, facilitando la risoluzione sistematica dei problemi attraverso una serie coerente di deduzioni logiche.

Il chain of thought prompting è un approccio all'intelligenza artificiale che simula processi di ragionamento simili a quelli umani delineando compiti complessi in una sequenza di passaggi logici verso una risoluzione finale. Questa metodologia riflette un aspetto fondamentale dell'intelligenza umana, offrendo un meccanismo strutturato per la risoluzione dei problemi. In altre parole, il CoT si basa sulla strategia cognitiva di scomporre problemi elaborati in pensieri intermedi gestibili che portano in sequenza a una risposta conclusiva.1

Differenza tra concatenamento dei prompt e chain of thought (CoT)

Se pensiamo al concatenamento dei prompt, è una forma più rudimentale di CoT prompting, in cui l'AI viene sollecitata a generare risposte in base a un determinato contesto o domanda. Al contrario, il CoT prompting va oltre la semplice generazione di risposte coerenti e pertinenti, richiedendo all'AI di costruire da zero un'intera argomentazione logica, comprese le premesse e una conclusione. Mentre il concatenamento dei prompt si concentra sul perfezionamento delle risposte individuali, il CoT prompting mira a creare un'argomentazione completa e logicamente coerente, ampliando così i limiti delle funzionalità di risoluzione dei problemi dell'AI.

Se a un'AI viene chiesto "Di che colore è il cielo?", l'AI genererà una risposta semplice e diretta, come "Il cielo è blu." Tuttavia, se le venisse chiesto di spiegare perché il cielo è blu utilizzando il CoT prompting, l'AI definirebbe prima cosa significa "blu" (un colore primario), quindi dedurrebbe che il cielo appare blu a causa dell'assorbimento di altri colori da parte dell'atmosfera. Questa risposta dimostra la capacità dell'AI di costruire un argomento logico.

Come funziona il chain of thought prompting?

Il chain of thought prompting utilizza i modelli linguistici di grandi dimensioni (LLM) per articolare una successione di fasi di ragionamento, guidando il modello verso la generazione di catene di ragionamento analoghe per compiti nuovi. Ciò viene ottenuto attraverso prompt basati su esempi che illustrano il processo di ragionamento, migliorando così la capacità del modello di affrontare sfide di ragionamento complesse.2 Comprendiamo il flusso di questa tecnica di prompting affrontando il classico problema di parole matematiche: risolvere un'equazione polinomiale.

Esempio: come funziona il chain of thought prompting per risolvere equazioni polinomiali?

Il chain of thought (CoT) prompting può aiutare in modo significativo nella risoluzione delle equazioni polinomiali guidando un modello linguistico di grandi dimensioni (LLM) a seguire una serie di passaggi logici, scomponendo il processo di risoluzione del problema.2 Esaminiamo come il CoT prompting può gestire un'equazione polinomiale.

Considera l'esempio della risoluzione di un'equazione quadratica.

Prompt di input: risolvi l'equazione quadratica: x2 - 5x + 6 = 0

Quando diamo questo prompt alla chat di IBM watsonx.ai, possiamo vedere la seguente conversazione tra domanda umana e risposta dell'assistenza AI.

Per generare questo tipo di output, i fondamenti del CoT funzionano come illustrato nell'immagine seguente. La risposta finale del chain of thought sarà: "Le soluzioni all'equazione x2 − 5x + 6 = 0 sono x = 3 e x = 2"

Varianti del chain of thought

Il chain of thought (CoT) prompting si è evoluto in varie varianti innovative, ognuna personalizzata per affrontare sfide specifiche e migliorare le funzionalità di ragionamento del modello in modi unici. Questi adattamenti non solo estendono l'applicabilità del CoT in diversi domini, ma perfezionano anche il processo di risoluzione dei problemi del modello.3

Chain of thought zero-shot

La variante zero-shot del chain of thought utilizza le conoscenze intrinseche all'interno dei modelli per affrontare i problemi senza esempi specifici precedenti o perfezionamenti per il compito da svolgere. Questo approccio è particolarmente utile quando si tratta di tipi di problemi nuovi o diversi in cui potrebbero non essere disponibili dati di addestramento personalizzati.4 Questo approccio può utilizzare le proprietà della generazione di prompt standard e della generazione di prompt few-shot.

Per esempio, quando si affronta la domanda "Qual è la capitale di un paese che confina con la Francia e ha una bandiera bianca e rossa?", un modello che utilizza il CoT zero-shot attingerebbe alle sue conoscenze geografiche e di bandiera incorporate per dedurre i passaggi che portano alla Svizzera come risposta, nonostante non sia stato addestrato esplicitamente a questo tipo di domande.

Chain of thought automatico

Il chain of thought automatico (Auto-CoT) mira a ridurre al minimo lo sforzo manuale nella creazione dei prompt automatizzando la generazione e la selezione di percorsi di ragionamento efficaci. Questa variante migliora la scalabilità e l'accessibilità dei prompt CoT per una gamma più ampia di attività e utenti.5, 8

Per esempio, per risolvere un problema matematico come "Se compri 5 mele e ne hai già 3, quante ne hai in totale?", un sistema Auto-CoT potrebbe generare automaticamente dei passaggi intermedi, come "Inizia con 3 mele" e "Aggiungi 5 mele alle 3 esistenti," culminando in "Mele totali = 8", semplificando il processo di ragionamento senza l'intervento umano.

Chain of thought multimodale

Il chain of thought multimodale estende il framework CoT per incorporare input provenienti da varie modalità, come testo e immagini, consentendo al modello di elaborare e integrare diversi tipi di informazioni per compiti di ragionamento complessi.6

Per esempio, quando viene presentata un'immagine di una spiaggia affollata e viene chiesto: "È probabile che questa spiaggia sia popolare in estate?", un modello che impiega il CoT multimodale potrebbe analizzare gli indizi visivi (tra cui l'occupazione della spiaggia, le condizioni meteorologiche e altro ancora) insieme alla sua comprensione testuale della popolarità stagionale per elaborare una risposta dettagliata, come: "La spiaggia è affollata, il che indica un'alta popolarità, che probabilmente aumenterà ulteriormente in estate".

Queste varianti del chain of thought prompting non solo mostrano la flessibilità e l'adattabilità dell'approccio CoT, ma suggeriscono anche l'enorme potenziale di sviluppi futuri delle funzionalità di ragionamento e risoluzione dei problemi dell'AI.

Design 3D di palline che rotolano su una pista

Le ultime notizie e insight sull'AI 


Scopri notizie e insight selezionati da esperti in materia di AI, cloud e molto altro nella newsletter settimanale Think. 

Vantaggi e limitazioni

Il CoT prompting è una tecnica potente per migliorare le prestazioni dei modelli linguistici di grandi dimensioni (LLM) su compiti di ragionamento complessi, che offre benefici significativi in vari domini come una maggiore precisione, trasparenza e capacità di ragionamento in più fasi. Tuttavia, è essenziale considerare i suoi limiti, tra cui la necessità di prompt di alta qualità, l'aumento dei costi computazionali, la suscettibilità agli attacchi avversari e le sfide nella valutazione dei miglioramenti qualitativi nel ragionamento o nella comprensione. Risolvendo queste limitazioni, ricercatori e professionisti possono garantire un'implementazione responsabile ed efficace del CoT prompting in diverse applicazioni.10

Vantaggi del chain of thought prompting

Gli utenti possono beneficiare di una serie di vantaggi all'interno del chain of thought prompting. Alcuni di questi includono:

  • Output rapidi migliorati: il CoT prompting migliora le prestazioni degli LLM su attività di ragionamento complesse suddividendole in passaggi più semplici e logici.
  • Trasparenza e comprensione: la generazione di fasi di ragionamento intermedie offre trasparenza sul modo in cui il modello giunge alle sue conclusioni, rendendo il processo decisionale più comprensibile per gli utenti.
  • Ragionamento in più fasi: affrontando sistematicamente ogni componente di un problema, il CoT prompting spesso porta a risposte più accurate e affidabili, in particolare nelle attività che richiedono un ragionamento in più fasi. Il ragionamento in più fasi si riferisce alla capacità di eseguire operazioni logiche complesse suddividendole in passaggi sequenziali più piccoli. Questa abilità cognitiva è essenziale per risolvere problemi complessi, prendere decisioni e comprendere le relazioni di causa-effetto. 
  • Attenzione ai dettagli: il modello di spiegazione dettagliata è simile ai metodi di insegnamento che incoraggiano la comprensione attraverso suddivisioni dettagliate, rendendo il CoT prompting utile nei contesti educativi.
  • Diversità: il CoT può essere applicato a un'ampia gamma di compiti, tra cui, a titolo esemplificativo ma non esaustivo, il ragionamento aritmetico, il ragionamento di buon senso e la risoluzione di problemi complessi, dimostrando la sua flessibilità.

Limitazioni del chain of thought prompting

Ecco alcune limitazioni incontrate durante l'adozione del chain of thought.
  • Controllo di qualità: l'efficacia del CoT prompting dipende in larga misura dalla qualità dei prompt forniti, che richiedono esempi accuratamente realizzati per guidare il modello in modo accurato.
  • Elevata potenza di calcolo: la generazione e l'elaborazione di più fasi di ragionamento richiede più potenza e tempo di calcolo rispetto alla generazione di prompt standard in un solo passaggio. Quindi questa tecnica è più costosa da adottare da qualsiasi organizzazione.
  • Fuorviante concettualmente: c'è il rischio di generare percorsi di ragionamento plausibili ma errati, che portino a conclusioni fuorvianti o false.
  • Costoso e laborioso: la progettazione di prompt CoT efficaci può essere più complessa e laboriosa e richiede una profonda comprensione del dominio del problema e delle funzionalità del modello.
  • Overfitting dei modelli: esiste il rischio potenziale che i modelli si adattino eccessivamente allo stile o al modello di ragionamento nei prompt, il che potrebbe ridurre le loro capacità di generalizzazione su vari compiti.
  • Valutazione e convalida: sebbene il CoT possa migliorare l'interpretabilità e l'accuratezza, misurare i miglioramenti qualitativi nel ragionamento o nella comprensione può essere difficile. Ciò è dovuto alla complessità intrinseca della cognizione umana e alla natura soggettiva della valutazione delle espressioni linguistiche. Tuttavia, è possibile utilizzare diversi approcci per valutare l'efficacia del CoT prompting. Ad esempio, confrontando le risposte del modello con quelle di un modello di base o di esperti umani è possibile ottenere insight sui relativi miglioramenti delle prestazioni. Inoltre, l'analisi delle fasi di ragionamento intermedie generate dall'LLM può offrire preziosi insight sul processo decisionale, anche se è difficile misurare direttamente i miglioramenti nel ragionamento o nella comprensione.
Mixture of Experts | Podcast

Decoding AI: Weekly News Roundup

Unisciti al nostro gruppo di livello mondiale di ingegneri, ricercatori, leader di prodotto e molti altri mentre si fanno strada nell'enorme quantità di informazioni sull'AI per darti le ultime notizie e gli ultimi insight sull'argomento.

Progressi nel chain of thought

L'evoluzione del chain of thought (CoT) è una testimonianza dei progressi sinergici in diversi domini, in particolare nell'elaborazione del linguaggio naturale (NLP), nel machine learning e nel fiorente campo dell'AI generativa. Questi progressi non solo hanno spinto il CoT in prima linea nella risoluzione di problemi complessi, ma hanno anche sottolineato la sua utilità in una vasta gamma di applicazioni. Qui, approfondiamo gli sviluppi chiave, integrando i termini specificati per tracciare un quadro completo dei progressi del CoT.

Prompt Engineering e prompt originale

Le innovazioni nel prompt engineering hanno migliorato significativamente la comprensione e l'interazione dei modelli con il prompt originale, portando a percorsi di ragionamento più sfumati e contestualmente allineati. Questo sviluppo è stato fondamentale per perfezionare l'efficacia del CoT.2

Ragionamento simbolico e ragionamento logico

L'integrazione nelle attività di ragionamento simbolico e nelle attività di ragionamento logico ha migliorato la capacità dei modelli di pensiero astratto e deduzione, segnando un salto significativo nell'affrontare le sfide basate sulla logica con il CoT.7

Ad esempio, il ragionamento simbolico consiste nel risolvere equazioni matematiche, come 2 + 3 = 5. In questo caso, il problema viene scomposto nelle sue parti costitutive (addizione e numeri) e il modello deduce la risposta corretta in base alle conoscenze apprese e alle regole di inferenza. Il ragionamento logico, invece, consiste nel trarre conclusioni da premesse o ipotesi, come: "Tutti gli uccelli possono volare e un pinguino è un uccello". Il modello determinerebbe quindi che un pinguino può volare in base alle informazioni fornite. L'integrazione del CoT prompting nelle attività di ragionamento simbolico e logico ha permesso agli LLM di dimostrare una migliore capacità di pensiero astratto e di deduzione, consentendo loro di affrontare problemi più complessi e diversificati.

Creatività migliorata

L'applicazione dell'AI generativa e delle architetture trasformative ha rivoluzionato il CoT, consentendo la generazione di percorsi di ragionamento sofisticati che mostrano creatività e profondità. Questa sinergia ha ampliato l'applicabilità del CoT, influenzando sia il dominio accademico che quello pratico.9

Modelli più piccoli e autoconsistenza

I progressi che consentono ai modelli più piccoli di impegnarsi efficacemente nel ragionamento CoT hanno democratizzato l'accesso a sofisticate funzionalità di ragionamento. L'attenzione all'autoconsistenza all'interno del CoT garantisce la solidità logica dei percorsi generati, migliorando l'affidabilità delle conclusioni tratte dai modelli.11

Assistente AI

L'integrazione del CoT nei chatbot e lo sfruttamento di tecniche di NLP all'avanguardia hanno trasformato l'AI conversazionale, consentendo ai chatbot di condurre interazioni più complesse che richiedono un livello più profondo di comprensione e competenza nella risoluzione dei problemi.12

Questi progressi rappresentano collettivamente un balzo in avanti nelle funzionalità del CoT e l'importanza dell'integrazione di chatbot e modelli CoT, evidenziando il loro potenziale per rivoluzionare i processi decisionali e di risoluzione dei problemi basati sull'AI. Combinando le capacità conversazionali dei chatbot con le funzionalità di ragionamento avanzate dei modelli CoT, possiamo creare sistemi AI più sofisticati ed efficaci in grado di gestire una gamma più ampia di compiti e applicazioni.

Inoltre, l'integrazione di varie applicazioni e modelli CoT può migliorare l'esperienza complessiva dell'utente, consentendo ai sistemi AI di comprendere e rispondere meglio alle esigenze e alle preferenze degli utenti. Integrando le tecniche di elaborazione del linguaggio naturale (NLP) nei modelli CoT, possiamo consentire ai chatbot di comprendere e rispondere agli input degli utenti in un modo più umano, creando esperienze di conversazione più coinvolgenti, intuitive ed efficaci.

Casi d'uso per il chain of thought

La metodologia del chain of thought (CoT), con la sua capacità di scomporre problemi complessi in passaggi di ragionamento comprensibili, ha trovato applicazioni in una vasta gamma di campi. Questi casi d'uso non solo dimostrano la versatilità del CoT, ma anche il suo potenziale nel trasformare il modo in cui i sistemi affrontano le attività decisionali e di risoluzione dei problemi. Di seguito, esploriamo diversi casi d'uso importanti in cui il CoT è stato applicato in modo efficace.

Customer service chatbot

I chatbot avanzati utilizzano il CoT per comprendere e rispondere meglio alle domande dei clienti. Suddividendo il problema di un cliente in parti più piccole e gestibili, i chatbot possono fornire risposte più accurate e utili, migliorando la soddisfazione del cliente e riducendo la necessità di intervento umano.

Ricerca e innovazione

I ricercatori utilizzano il CoT per strutturare il loro processo di pensiero nella risoluzione di problemi scientifici complessi, facilitando l'innovazione. Questo approccio strutturato può accelerare il processo di scoperta e consentire la formulazione di nuove ipotesi.

Creazione e riepilogo dei contenuti

Nella creazione di contenuti, il CoT aiuta a generare schemi o riepiloghi strutturati organizzando logicamente pensieri e informazioni, migliorando la coerenza e la qualità dei contenuti scritti.

Formazione e apprendimento

Il CoT è fondamentale nelle piattaforme di tecnologia educativa, in quanto aiuta a generare spiegazioni dettagliate per problemi complessi. Ciò è particolarmente prezioso in materie come la matematica e le scienze, dove la comprensione del processo è cruciale quanto la risposta finale. I sistemi basati sul CoT possono guidare gli studenti attraverso procedure di risoluzione dei problemi, migliorandone la comprensione e la memorizzazione.

Etica e processo decisionale dell'AI

Il CoT è fondamentale per chiarire il ragionamento che sta dietro alle decisioni basate sull'AI, soprattutto negli scenari che richiedono considerazioni etiche. Fornendo un percorso di ragionamento trasparente, il CoT assicura che le decisioni dell'AI siano in linea con gli standard etici e le norme sociali.

Questi casi d'uso sottolineano il potenziale trasformativo del CoT in diversi settori, offrendo uno sguardo sulla sua capacità di ridefinire la risoluzione dei problemi e i processi decisionali. Man mano che il CoT continua ad evolversi, si prevede che le sue applicazioni si espandano, integrando ulteriormente questa metodologia nel tessuto dei progressi tecnologici e sociali.

La sollecitazione della chain of thought rappresenta un salto in avanti nella capacità dell'AI di intraprendere compiti di ragionamento complessi, emulando i processi cognitivi umani. Illustrando le fasi intermedie del ragionamento, il CoT non solo amplifica l'acume di risoluzione dei problemi degli LLM, ma migliora anche la trasparenza e l'interpretabilità. Nonostante le limitazioni intrinseche, le esplorazioni in corso sulle varianti e le applicazioni della CoT continuano ad ampliare le capacità di ragionamento dei modelli AI, preannunciando futuri miglioramenti delle funzionalità cognitive dell'AI.

Soluzioni correlate

Soluzioni correlate

IBM watsonx.ai

Addestra, convalida, adatta e implementa le funzionalità di AI generativa, foundation model e machine learning con IBM watsonx.ai, uno studio aziendale di nuova generazione per builder AI. Crea applicazioni AI in tempi ridotti e con una minima quantità di dati.

Scopri watsonx.ai
Soluzioni di intelligenza artificiale

Metti l'AI al servizio della tua azienda grazie all'esperienza leader di settore e alla gamma di soluzioni di IBM nel campo dell'AI.

Esplora le soluzioni AI
Servizi AI

Reinventa i flussi di lavoro e le operazioni critiche aggiungendo l'AI per massimizzare le esperienze, il processo decisionale in tempo reale e il valore di business.

Esplora i servizi AI
Fai il passo successivo

Ottieni l'accesso completo a funzionalità che coprono l'intero ciclo di vita dello sviluppo dell'AI. Crea soluzioni AI all'avanguardia con interfacce intuitive, workflow e accesso alle API e agli SDK standard di settore.

Esplora watsonx.ai Prenota una demo live
Note a piè di pagina

1 Boshi Wang, S. M. (2022). Towards Understanding Chain-of-Thought Prompting: An Empirical Study of What Matters. 2717-2739, https://doi.org/10.48550/arXiv.2212.10001.

2Jason Wei, X. W. (2022). Chain of Thought Prompting Elicits Reasoning in Large Language Models. 36th Conference on Neural Information Processing Systems (NeurIPS 2022).

3Zheng Chu, J. C. (2023). A Survey of Chain of Thought Reasoning: Advances, Frontiers and Future. ArXiv, abs/2309.15402.

4Omar Shaikh, H. Z. (dicembre 2022). On Second Thought, Let’s Not Think Step by Step! Bias and Toxicity in Zero-Shot Reasoning. ArXiv, abs/2212.08061. https://doi.org/10.48550/arXiv.2212.08061.

5Zhuosheng Zhang, A. Z. (2022). Automatic Chain of Thought Prompting in Large Language Models. ArXiv, abs/2210.03493. https://doi.org/10.48550/arXiv.2210.03493.

6Zhuosheng Zhang, A. Z. (2023). Multimodal Chain-of-Thought Reasoning in Language Models. ArXiv, abs/2302.00923. https://doi.org/10.48550/arXiv.2302.00923.

7Yao, Z. L. (2023). Beyond Chain-of-Thought, Effective Graph-of-Thought Reasoning in Large Language Models. ArXiv, abs/2305.16582. https://doi.org/10.48550/arXiv.2305.16582.

8Kashun Shum, S. D. (2023). Automatic Prompt Augmentation and Selection with Chain-of-Thought from Labeled Data. ArXiv, abs/2302.12822. https://doi.org/10.48550/arXiv.2302.12822.

9A Vaswani, N. S. (2017). L'attenzione è tutto ciò di cui hai bisogno. Advances in neural information processing systems.

10Zhengyan Zhang, Y. G. (2021). CPM-2: Large-scale Cost-effective Pre-trained Language Models. AI Open, 2, 216-224.

11L Zheng, N. G. (2021). When does pretraining help? assessing self-supervised learning for law and the casehold dataset of 53,000+ legal holdings. In Proceedings of the eighteenth international conference on artificial intelligence and law , 159-168.

12S Roller, E. D. (2020). Recipes for building an open-domain chatbot. arXiv preprint arXiv:2004.13637 .