My IBM Accedi Iscriviti

Cos'è l'intelligenza artificiale (AI)?

9 agosto 2024

Autori

Cole Stryker

Editorial Lead, AI Models

Gather

Eda Kavlakoglu

Program Manager

Che cos'è l'AI? 

L'intelligenza artificiale (AI) è una tecnologia che consente ai computer e alle macchine di simulare l'apprendimento umano, la comprensione, la risoluzione dei problemi, il processo decisionale, la creatività e l'autonomia.

Le applicazioni e i dispositivi dotati di AI possono vedere e identificare gli oggetti. Sono in grado di comprendere e rispondere al linguaggio umano. Possono imparare da nuove informazioni ed esperienze. Possono fornire raccomandazioni dettagliate agli utenti e agli esperti. Possono agire in modo indipendente, senza la necessità dell'intelligenza o dell'intervento umano (un classico esempio è un'auto a guida autonoma).

Ma nel 2024, la maggior parte dei ricercatori e dei professionisti dell'AI, e la maggior parte dei titoli dei giornali dedicati all'intelligenza artificiale, si concentrano sulle scoperte dell'AI generativa (gen AI), una tecnologia in grado di creare testi, immagini, video e altri contenuti originali. Per comprendere appieno l'AI generativa, è importante prima capire le tecnologie su cui si basa: il machine learning (ML) e il deep learning.

Le ultime tendenze in materia di AI, proposte da esperti

Ricevi insight selezionati sulle notizie più importanti e interessanti sull'AI. Iscriviti alla nostra newsletter settimanale Think. Leggi l'Informativa sulla privacy IBM.

Grazie per aver effettuato l'iscrizione!

L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.

Apprendimento automatico

Un modo semplice di pensare all'AI è come a una serie di concetti annidati o derivati emersi in più di 70 anni:

Direttamente sotto l'AI, troviamo l'apprendimento automatico. Questo prevede la creazione di modelli tramite l'addestramento di un algoritmo capace di fare previsioni o prendere decisioni basate sui dati. Comprende un'ampia gamma di tecniche che consentono ai computer di apprendere e fare deduzioni basate sui dati senza essere esplicitamente programmati per compiti specifici.

Esistono molti tipi di tecniche o algoritmi di machine learning, tra cui la regressione lineare, la regressione logistica, gli alberi decisionali, la foresta casuale, le macchine a vettori di supporto (SVM), il k-nearest neighbor (KNN), il clustering e altri ancora. Ognuno di questi approcci è adatto a diversi tipi di problemi e di dati.

Ma uno dei tipi più popolari di algoritmo di machine learning è la rete neurale (o rete neurale artificiale). Le reti neurali sono modellate sulla struttura e sulla funzione del cervello umano. Una rete neurale è costituita da strati di nodi interconnessi (analoghi ai neuroni) che lavorano insieme per elaborare e analizzare dati complessi. Le reti neurali sono adatte per attività che comportano l'identificazione di modelli e relazioni complesse in grandi quantità di dati.

La forma più semplice di apprendimento automatico è chiamata apprendimento supervisionato, che prevede l'uso di set di dati etichettati per addestrare algoritmi a classificare i dati o a prevedere i risultati in modo accurato. Nell'apprendimento supervisionato, gli esseri umani abbinano a ogni esempio di addestramento un'etichetta di output. L'obiettivo è che il modello apprenda la mappatura tra input e output nei dati di addestramento, in modo da poter prevedere le etichette di nuovi dati non visualizzati.

Deep Learning

Il deep learning è un sottoinsieme del machine learning che utilizza reti neurali multistrato, dette reti neurali profonde, che simulano in modo più accurato il complesso potere decisionale del cervello umano.

Le reti neuronali profonde includono un livello di input, almeno tre (ma di solito centinaia) di livelli nascosti, e un livello di output, a differenza delle neural network utilizzate nei modelli classici di machine learning, che di solito hanno solo uno o due livelli nascosti.

Questi livelli multipli consentono l'apprendimento non supervisionato: possono automatizzare l'estrazione di funzioni da set di dati di grandi dimensioni, non etichettati e non strutturati, e fare le proprie previsioni su ciò che rappresentano i dati.

Poiché il deep learning non richiede l'intervento umano, consente l'apprendimento automatico su vasta scala. È adatto all'elaborazione del linguaggio naturale (NLP), alla computer vision e ad altri compiti che comportano l'identificazione rapida e accurata di modelli e relazioni complesse in grandi quantità di dati. Una qualche forma di deep learning alimenta la maggior parte delle applicazioni di intelligenza artificiale (AI) che utilizziamo nella nostra vita quotidiana.

Il deep learning consente inoltre:

  • Apprendimento semi-supervisionato, che combina l'apprendimento supervisionato e non supervisionato utilizzando dati etichettati e non etichettati per addestrare modelli AI per attività di classificazione e regressione.

  • Apprendimento auto-supervisionato, che genera etichette implicite da dati non strutturati, piuttosto che basarsi su set di dati etichettati per i segnali di supervisione.

  • Apprendimento per rinforzo, che apprende per tentativi ed errori e funzioni di ricompensa anziché estraendo informazioni da schemi nascosti.

  • L'apprendimento per trasferimento, in cui le conoscenze acquisite tramite un'attività o un set di dati vengono utilizzate per migliorare le prestazioni del modello su un'altra attività correlata o su un set di dati diverso.

Generative AI

L'AI generativa, talvolta chiamata "gen AI", si riferisce a modelli di deep learning in grado di creare contenuti originali complessi, come testi lunghi, immagini di alta qualità, video o audio realistici e altro, in risposta al suggerimento o alla richiesta di un utente.

A un livello superiore, i modelli generativi codificano una rappresentazione semplificata dei loro dati di addestramento e poi vi attingono per creare nuovi risultati simili, ma non identici, ai dati originali.

I modelli generativi sono stati utilizzati per anni in statistica per analizzare dati numerici. Ma, nell'ultimo decennio, si sono evoluti per analizzare e generare tipologie di dati più complesse. Questa evoluzione ha coinciso con l'emergere di tre sofisticati tipi di modelli di deep learning:

  • Gli autoencoder variazionali o VAE, introdotti nel 2013, hanno permesso di creare modelli in grado di generare molteplici variazioni di contenuto in risposta a un prompt o a un'istruzione.

  • I modelli di diffusione, visti per la prima volta nel 2014, che aggiungono "rumore" alle immagini fino a renderle irriconoscibili, e poi rimuovono il rumore per generare immagini originali in risposta ai prompt.

  • Trasformatori (chiamati anche modelli di trasformatori), addestrati su dati sequenziati per generare sequenze estese di contenuti (come parole in frasi, forme in un'immagine, fotogrammi di un video o comandi nel codice software). I trasformatori sono alla base della maggior parte degli strumenti di AI generativa di oggi, tra cui ChatGPT e GPT-4, Copilot, BERT, Bard e Midjourney.
Mixture of Experts | Podcast

Decoding AI: Weekly News Roundup

Unisciti al nostro gruppo di livello mondiale di ingegneri, ricercatori, leader di prodotto e molti altri mentre si fanno strada nell'enorme quantità di informazioni sull'AI per darti le ultime notizie e gli ultimi insight sull'argomento.

Come funziona l'AI generativa

In generale, l'AI generativa opera in tre fasi:

  1. Addestramento, per creare un foundation model.
  2. Ottimizzazione, in questa fase il modello viene adattato a una specifica applicazione.
  3. Generazione, valutazione e ulteriore messa a punto, per migliorare la precisione.

Formazione

L'AI generativa parte da un "foundation model", un modello di deep learning che funge da base per diversi tipi di applicazioni di AI generativa.

I modelli di base più comuni oggi sono i modelli linguistici di grandi dimensioni (LM), creati per applicazioni di generazione di testo. Ma esistono anche foundation model per la generazione di immagini, video, suoni o musica e modelli di base multimodali in grado di supportare diversi tipi di contenuti.

Per creare un foundation model, i professionisti addestrano un algoritmo di deep learning su enormi volumi di dati grezzi, rilevanti, non strutturati e non etichettati, come terabyte o petabyte di testo, immagini o video dal web. L'addestramento produce una rete neurale di miliardi di parametri, ovvero rappresentazioni codificate di entità, pattern e relazioni nei dati, in grado di generare contenuti in modo autonomo in risposta ai prompt. Questo è il foundation model.

Questo processo di formazione è intenso in termini di calcolo, richiede tempo ed è costoso. Esso richiede infatti migliaia di unità di elaborazione grafica (GPU) in cluster e settimane di elaborazione e il costo si misura solitamente in milioni di dollari. I progetti di foundation model open source, come Llama-2 di Meta, permettono agli sviluppatori di gen AI di evitare questo passaggio e i relativi costi.

Ottimizzazione

Successivamente, il modello deve essere ottimizzato secondo un'attività di generazione di contenuti specifica. È possibile farlo in vari modi, tra cui:

  • La messa a punto, che comporta l'alimentazione del modello con dati etichettati specifici dell'applicazione (domande o prompt che l'applicazione probabilmente riceverà) e le corrispondenti risposte corrette nel formato desiderato.

  • Apprendimento per rinforzo con feedback umano (RLHF), in cui gli utenti umani valutano l'accuratezza o la pertinenza dei risultati del modello in modo che quest'ultimo possa migliorarsi autonomamente. Ad esempio, far digitare o suggerire oralmente correzioni a un chatbot o a un assistente virtuale.

Generazione, valutazione e ulteriore messa a punto

Gli sviluppatori e gli utenti valutano regolarmente i risultati delle loro app di AI generativa e ne ottimizzano ulteriormente il modello, anche una volta alla settimana, per una maggiore precisione o pertinenza. Il foundation model, invece, viene aggiornato molto meno frequentemente, forse ogni anno o 18 mesi.

Un'altra opzione per migliorare le prestazioni di un'app di gen AI è la retrieval augmented generation (RAG), una tecnica che consente di estendere il foundation model all'utilizzo di fonti pertinenti al di fuori dei dati di addestramento per perfezionare i parametri per una maggiore precisione o pertinenza.

I vantaggi dell'AI 

L'AI offre numerosi vantaggi in diversi settori e applicazioni. Ecco alcuni dei benefici più frequentemente citati:

  • automazione delle attività ripetitive;
  • Insight più dettagliati e più rapidi dai dati.
  • Miglioramento a livello di processi decisionali.
  • Riduzione degli errori umani.
  • Disponibilità 24 ore su 24, 7 giorni su 7.
  • riduzione dei rischi fisici.

Automazione di attività ripetitive

L'AI può automatizzare attività di routine, ripetitive e spesso noiose, comprese quelle digitali come la raccolta, l'inserimento e la pre-elaborazione dei dati, e quelle fisiche come la raccolta delle scorte di magazzino e i processi di produzione. Questo tipo di automazione permette di dedicarsi a lavori di maggior valore e più creativi.

Processi decisionali migliori

Sia che venga utilizzata per il supporto decisionale o per un processo decisionale completamente automatizzato, l'AI consente previsioni più rapide e accurate e  decisioni affidabili e basate sui dati. Combinata con l'automazione, l'AI consente alle aziende di cogliere le opportunità e rispondere alle crisi nel momento in cui emergono, in tempo reale e senza l'intervento umano.

Riduzione degli errori umani

L'AI può ridurre gli errori umani in diversi modi: guidando le persone nelle fasi corrette di un processo, segnalando potenziali errori prima che si verifichino e automatizzando completamente i processi senza intervento umano. Questo è particolarmente importante in settori come quello sanitario dove, ad esempio, la robotica chirurgica guidata dall'AI consente una precisione costante.

Gli algoritmi di machine learning possono migliorare continuamente la loro precisione e ridurre ulteriormente gli errori man mano che sono esposti a più dati e "imparano" dall'esperienza.

Disponibilità e coerenza 24 ore su 24

L'AI è sempre attiva, disponibile 24 ore su 24 e offre prestazioni costanti ogni volta. Strumenti come gli AI chatbot o gli assistenti virtuali possono alleggerire le richieste di personale per il servizio clienti o l'assistenza. In altre applicazioni, come la lavorazione dei materiali o le linee di produzione, l'AI può aiutare a mantenere costanti la qualità del lavoro e i livelli di output quando viene utilizzata per completare attività ripetitive o noiose.

Riduzione dei rischi fisici

Automatizzando i lavori pericolosi, come il controllo degli animali, la manipolazione di esplosivi, operazioni in acque oceaniche profonde, ad alta quota o nello spazio esterno, l'AI può consentire di non dover mettere più i lavoratori umani a rischio di lesioni o conseguenze peggiori. Anche se non sono ancora state perfezionate, le auto a guida autonoma e altri veicoli possono ridurre il rischio di lesioni ai passeggeri.

Casi d'uso dell'AI 

Le applicazioni dell'AI nel mondo reale sono molteplici. Ecco solo un piccolo esempio di casi d'uso in vari settori per illustrarne il potenziale:

Esperienza, assistenza e supporto del cliente

Le aziende possono implementare chatbot e assistenti virtuali basati sull'AI per gestire le richieste dei clienti, i ticket di supporto e altro ancora. Questi strumenti utilizzano l'elaborazione del linguaggio naturale (NLP) e le funzionalità di AI generativa per comprendere e rispondere alle domande dei clienti sullo stato degli ordini, sui dettagli del prodotto e sulle politiche di reso.

I chatbot e gli assistenti virtuali offrono assistenza sempre attiva, forniscono risposte più rapide alle domande frequenti (FAQ), consentono agli agenti umani di concentrarsi su attività di livello superiore e offrono ai clienti un servizio più rapido e coerente.

Rilevamento delle frodi

Gli algoritmi di machine learning e deep learning possono analizzare i modelli di transazione e segnalare anomalie, come spese insolite o posizioni di accesso, che indicano transazioni fraudolente. Ciò consente alle organizzazioni di rispondere più rapidamente a potenziali frodi e di limitarne l'impatto, offrendo a se stesse e ai clienti una maggiore tranquillità.

Marketing personalizzato

I rivenditori, le banche e altre aziende che trattano direttamente con i clienti possono utilizzare l'AI per creare esperienze del cliente e campagne di marketing personalizzate che soddisfino i clienti, migliorino le vendite e prevengano il tasso di abbandono. Sulla base dei dati relativi alla cronologia degli acquisti e ai comportamenti dei clienti, gli algoritmi di deep learning possono consigliare prodotti e servizi che i clienti potrebbero desiderare e persino generare testi personalizzati e offerte speciali per singoli clienti in tempo reale.

Risorse umane e recruiting

Le piattaforme di reclutamento basate sull'AI possono semplificare le assunzioni esaminando i curricula, abbinando i candidati alle descrizioni dei lavori e persino conducendo colloqui preliminari utilizzando l'analisi video. Questi e altri strumenti possono ridurre drasticamente la montagna di scartoffie amministrative che comporta la selezione di un gran numero di candidati. Possono, inoltre, ridurre i tempi di risposta e di assunzione, migliorando l'esperienza dei candidati, indipendentemente dal fatto che ottengano il lavoro.

Sviluppo e modernizzazione di applicazioni

Gli strumenti di generazione di codice di AI generativa e gli strumenti di automazione possono snellire le attività di codifica ripetitive relative allo sviluppo delle applicazioni e accelerare la migrazione e la modernizzazione (riformattazione e replatorming) delle applicazioni legacy su larga scala. Questi strumenti possono accelerare le attività, aiutare a garantire la coerenza del codice e ridurre gli errori.

Manutenzione predittiva

I modelli di machine learning possono analizzare i dati provenienti da sensori, dispositivi Internet of Things (IoT) e tecnologia operativa (OT) per stabilire quando sarà necessaria la manutenzione e prevedere i malfunzionamenti delle attrezzature prima che si verifichino. La manutenzione preventiva basata su AI aiuta a prevenire i tempi di inattività e consente di anticipare i problemi della supply chain prima che si ripercuotano sui profitti.

Sfide e rischi dell’intelligenza artificiale 

Le organizzazioni si stanno adoperando per utilizzare al meglio le più recenti tecnologie di AI e capitalizzare i suoi numerosi benefici. Questa rapida adozione è necessaria, ma l'utilizzo e il mantenimento dei workflow dell'AI comportano sfide e rischi

.

Rischi relativi ai dati

I sistemi di AI si basano su set di dati potenzialmente vulnerabili al data poisoning, al data tampering, alla distorsione dei dati o agli attacchi informatici che possono comportare violazioni dei dati. Le organizzazioni possono mitigare questi rischi proteggendo l'integrità dei dati e implementando la sicurezza e la disponibilità durante l'intero ciclo di vita dell'AI, dallo sviluppo alla formazione e alla distribuzione e alla postdistribuzione.

Rischi relativi al modello

Rischi operativi

Come tutte le tecnologie, i modelli sono suscettibili a rischi operativi come la deriva dei modelli, le distorsioni e le interruzioni nella struttura di governance. Se non affrontati, questi rischi possono portare a malfunzionamenti del sistema e vulnerabilità della cybersecurity di cui gli autori delle minacce potrebbero approfittare.

Rischi etici e legali

Se le organizzazioni non danno priorità alla sicurezza e all'etica durante lo sviluppo e l'implementazione dei sistemi AI, rischiano di commettere delle violazioni della privacy e di generare risultati distorti. Ad esempio, i dati di addestramento distorti utilizzati per le decisioni relative alle assunzioni potrebbero rafforzare gli stereotipi di genere o razziali e creare modelli AI che favoriscono alcuni gruppi demografici rispetto ad altri.

Etica e governance dell'AI 

L'etica dell'AI è un campo multidisciplinare che studia come ottimizzare l'impatto benefico dell'intelligenza artificiale riducendo i rischi e gli esiti avversi. I principi dell'etica dell'AI sono applicati attraverso un sistema di governance dell'AI costituito da barriere che aiutano a garantire che gli strumenti e i sistemi di intelligenza artificiale rimangano sicuri ed etici.

La governance dell'AI comprende meccanismi di supervisione atti a gestire i rischi. Un approccio etico alla governance dell'AI richiede il coinvolgimento di un'ampia gamma di stakeholder, tra cui sviluppatori, utenti, responsabili politici ed etici, al fine di garantire che i sistemi legati all'AI siano sviluppati e utilizzati in linea con i valori della società.

Ecco i valori comuni associati all'etica dell'AI e all'AI responsabile:

Spiegabilità e interpretabilità

Con l'avanzare della tecnologia AI, per gli esseri umani diventa sempre più difficile comprendere e risalire al modo in cui l'algoritmo ha ottenuto un determinato risultato. L'AI spiegabile è un insieme di processi e metodi che consente agli utenti umani di interpretare, comprendere e considerare affidabili i risultati e gli output creati dagli algoritmi.

Equità e inclusione

Sebbene l'apprendimento automatico, per sua natura, sia una forma di discriminazione statistica, la discriminazione diventa discutibile quando pone gruppi privilegiati in vantaggio sistematico e alcuni gruppi non privilegiati in svantaggio sistematico, causando potenzialmente vari danni. Per favorire l'equità, i professionisti possono cercare di ridurre al minimo i bias algoritmici nella raccolta dei dati e nella progettazione dei modelli e creare team più diversificati e inclusivi.

Robustezza e sicurezza

Un'AI solida gestisce in modo efficace condizioni eccezionali, come anomalie nell'input o attacchi maligni, senza causare danni involontari. È inoltre sviluppata per resistere alle interferenze intenzionali e non intenzionali proteggendo dalle vulnerabilità esposte.

Responsabilità e trasparenza

Le organizzazioni devono implementare responsabilità e governance chiare strutture per lo sviluppo, l'implementazione e i risultati dei sistemi AI. Inoltre, gli utenti dovrebbero essere in grado di vedere come funziona un servizio AI, valutarne la funzionalità, comprenderne i punti di forza e le limitazioni. Una maggiore trasparenza fornisce informazioni agli utenti dell'AI affinché possano comprendere meglio come è stato creato il modello o il servizio AI.

Privacy e conformità

Molti framework, tra cui il GDPR, impongono alle organizzazioni di rispettare determinati principi sulla privacy durante il trattamento dei dati personali. È fondamentale essere in grado di proteggere i modelli AI che potrebbero contenere informazioni personali, di controllare quali dati vengono inseriti nel modello e di sviluppare sistemi adattabili che possano adattarsi ai cambiamenti della normativa e dell'atteggiamento nei confronti dell'etica dell'AI.

AI debole e AI forte 

Al fine di contestualizzare l'uso dell'AI a vari livelli di complessità e sofisticazione, i ricercatori hanno definito diversi tipi di AI che si riferiscono al suo livello di sofisticazione:

AI debole: nota anche come “AI ristretta”, definisce i sistemi AI progettati per eseguire un compito specifico o una serie di compiti. Gli esempi potrebbero includere app «intelligenti» per l'assistente vocale, come Alexa di Amazon, Siri di Apple, un chatbot sui social media o i veicoli autonomi promessi da Tesla.

AI forte: nota anche come "intelligenza artificiale generale" (AGI) o "AI generale", possiede la capacità di comprendere, apprendere e applicare le conoscenze in un'ampia gamma di attività a un livello pari o superiore all'intelligenza umana. Questo livello di intelligenza artificiale è attualmente teorico e nessun sistema di AI conosciuto si avvicina a questo livello di sofisticazione. I ricercatori sostengono che, se l'AGI è possibile, richiede un forte aumento della potenza di calcolo. Nonostante i recenti progressi nello sviluppo dell'AI, i sistemi di intelligenza artificiale autocoscienti della fantascienza rimangono saldamente in questo ambito.

Storia dell'AI 

L'idea di una "macchina che pensa" risale all'antica Grecia. Dall'avvento dell'informatica elettronica (e relativamente ad alcuni degli argomenti trattati in questo articolo), gli eventi chiave nell'evoluzione dell'AI sono i seguenti:

1950 Alan Turing pubblica Computing Machinery and Intelligence. Turing, famoso per aver decifrato il codice tedesco ENIGMA durante la seconda guerra mondiale e spesso definito il "padre dell'informatica", in questo articolo pone la seguente domanda: "Le macchine possono pensare?"

Da lì, offre un test, ora noto come "Test di Turing", in cui un interrogatore umano cerca di distinguere una risposta testuale umana da quella del computer. Sebbene questo test sia stato sottoposto a molti controlli dopo la sua pubblicazione, rimane una parte importante della storia dell'AI, nonché un concetto attuale nel campo della filosofia, in quanto si avvale delle teorie della linguistica.

1956 John McCarthy conia il termine “intelligenza artificiale” in occasione della prima conferenza sull’AI al Dartmouth College. (McCarthy avrebbe inventato successivamente il linguaggio LISP.) Più tardi, nello stesso anno, Allen Newell, JC Shaw e Herbert Simon creano Logic Theorist, il primo programma informatico di intelligenza artificiale funzionante.

1967 Frank Rosenblatt costruisce il Mark 1 Perceptron, il primo computer basato su una rete neurale che "impara" per tentativi ed errori. Appena un anno dopo, Marvin Minsky e Seymour Papert pubblicano un libro intitolato Perceptrons, che diventa sia l'opera fondamentale sulle reti neurali sia, almeno per un po', un argomento contro le future iniziative di ricerca sulle reti neurali.

1980 Le reti neurali, che utilizzano un algoritmo di backpropagation per addestrarsi, sono diventate ampiamente utilizzate nelle applicazioni di AI.

1995 Stuart Russell e Peter Norvig pubblicano Intelligenza Artificiale: Un Approccio Moderno, che diventa uno dei principali libri di testo nello studio dell'AI. In esso si approfondiscono quattro potenziali obiettivi o definizioni di AI, che differenziano i sistemi informatici sulla base della razionalità e del pensiero rispetto all'azione.

1997 Deep Blue di IBM batte l'allora campione del mondo di scacchi Garry Kasparov in una partita a scacchi (e rivincita).

2004 John McCarthy scrive un articolo, What Is Artificial Intelligence? e propone una definizione di AI spesso citata. A questo punto, è iniziata l'era dei big data e del cloud computing, che consentirà alle organizzazioni di gestire un patrimonio di dati sempre più ampio, che un giorno verrà utilizzato per addestrare modelli AI.

2011 IBM Watson batte i campioni Ken Jennings e Brad Rutter a Jeopardy! Inoltre, in questo periodo, data science inizia a emergere come disciplina popolare.

2015 il supercomputer Minwa di Baidu utilizza un tipo speciale di rete neurale profonda, chiamata rete neurale convolutiva, per identificare e categorizzare le immagini con un tasso di accuratezza superiore alla media umana.

2016 Il programma AlphaGo di DeepMind, alimentato da una rete neurale profonda, batte Lee Sodol, il campione del mondo di Go, in un incontro di cinque partite. La vittoria è significativa considerando il numero enorme di mosse possibili nel corso del gioco (oltre 14,5 trilioni dopo soli quattro mosse). Successivamente, Google ha acquistato DeepMind per una cifra stimata di 400 milioni di dollari.

2022 Un aumento dei modelli linguistici di grandi dimensioni o LLM, come ChatGPT di OpenAI, crea un enorme cambiamento nelle prestazioni dell'AI e del suo potenziale di generare valore aziendale. Con queste nuove pratiche di AI generativa, è possibile pre-addestrare i modelli di deep learning su grandi quantità di dati.

2024 Le ultime tendenze dell'AI indicano una continua rinascita dell'AI. I modelli multimodali in grado di accettare più tipi di dati come input offrono esperienze più ricche e affidabili. Questi modelli combinano funzionalità di computer vision, riconoscimento delle immagini e riconoscimento vocale NLP. Anche i modelli più piccoli stanno facendo passi da gigante in un'epoca di rendimenti decrescenti con modelli massicci con un numero elevato di parametri.

Soluzioni correlate

Soluzioni correlate

IBM watsonx.ai

Addestra, convalida, adatta e implementa le funzionalità di AI generativa, foundation model e machine learning con IBM watsonx.ai, uno studio aziendale di nuova generazione per builder AI. Crea applicazioni AI in tempi ridotti e una minima quantità di dati.

Scopri watsonx.ai
Soluzioni di intelligenza artificiale

Metti l'AI al servizio della tua azienda con l'esperienza leader di settore e il portfolio di soluzioni di IBM nel campo dell'AI.

Esplora le soluzioni AI
Consulenza e servizi sull'AI

Reinventa i flussi di lavoro e le operazioni critiche aggiungendo l'AI per massimizzare le esperienze, il processo decisionale in tempo reale e il valore di business.

Esplora i servizi AI
Fai il passo successivo

Ottieni l'accesso completo a funzionalità che coprono l'intero ciclo di vita dello sviluppo dell'AI. Crea soluzioni AI all'avanguardia con interfacce intuitive, workflow e accesso alle API e agli SDK standard di settore.

Esplora watsonx.ai Prenota una demo live