L'intelligenza artificiale (AI) è una tecnologia che consente ai computer e alle macchine di simulare l'apprendimento umano, la comprensione, la risoluzione dei problemi, il processo decisionale, la creatività e l'autonomia.
Le applicazioni e i dispositivi dotati di AI possono vedere e identificare gli oggetti. Sono in grado di comprendere e rispondere al linguaggio umano. Possono imparare da nuove informazioni ed esperienze. Possono fornire raccomandazioni dettagliate agli utenti e agli esperti. Possono agire in modo indipendente, senza la necessità dell'intelligenza o dell'intervento umano (un classico esempio è un'auto a guida autonoma).
Ma nel 2024, la maggior parte dei ricercatori e dei professionisti dell'AI, e la maggior parte dei titoli dei giornali dedicati all'intelligenza artificiale, si concentrano sulle scoperte dell'AI generativa (gen AI), una tecnologia in grado di creare testi, immagini, video e altri contenuti originali. Per comprendere appieno l'AI generativa, è importante prima capire le tecnologie su cui si basa: il machine learning (ML) e il deep learning.
Newsletter di settore
Ricevi insight selezionati sulle notizie più importanti e interessanti sull'AI. Iscriviti alla nostra newsletter settimanale Think. Leggi l'Informativa sulla privacy IBM.
L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.
Un modo semplice di pensare all'AI è come a una serie di concetti annidati o derivati emersi in più di 70 anni:
Direttamente sotto l'AI, troviamo l'apprendimento automatico. Questo prevede la creazione di modelli tramite l'addestramento di un algoritmo capace di fare previsioni o prendere decisioni basate sui dati. Comprende un'ampia gamma di tecniche che consentono ai computer di apprendere e fare deduzioni basate sui dati senza essere esplicitamente programmati per compiti specifici.
Esistono molti tipi di tecniche o algoritmi di machine learning, tra cui la regressione lineare, la regressione logistica, gli alberi decisionali, la foresta casuale, le macchine a vettori di supporto (SVM), il k-nearest neighbor (KNN), il clustering e altri ancora. Ognuno di questi approcci è adatto a diversi tipi di problemi e di dati.
Ma uno dei tipi più popolari di algoritmo di machine learning è la rete neurale (o rete neurale artificiale). Le reti neurali sono modellate sulla struttura e sulla funzione del cervello umano. Una rete neurale è costituita da strati di nodi interconnessi (analoghi ai neuroni) che lavorano insieme per elaborare e analizzare dati complessi. Le reti neurali sono adatte per attività che comportano l'identificazione di modelli e relazioni complesse in grandi quantità di dati.
La forma più semplice di apprendimento automatico è chiamata apprendimento supervisionato, che prevede l'uso di set di dati etichettati per addestrare algoritmi a classificare i dati o a prevedere i risultati in modo accurato. Nell'apprendimento supervisionato, gli esseri umani abbinano a ogni esempio di addestramento un'etichetta di output. L'obiettivo è che il modello apprenda la mappatura tra input e output nei dati di addestramento, in modo da poter prevedere le etichette di nuovi dati non visualizzati.
Il deep learning è un sottoinsieme del machine learning che utilizza reti neurali multistrato, dette reti neurali profonde, che simulano in modo più accurato il complesso potere decisionale del cervello umano.
Le reti neuronali profonde includono un livello di input, almeno tre (ma di solito centinaia) di livelli nascosti, e un livello di output, a differenza delle neural network utilizzate nei modelli classici di machine learning, che di solito hanno solo uno o due livelli nascosti.
Questi livelli multipli consentono l'apprendimento non supervisionato: possono automatizzare l'estrazione di funzioni da set di dati di grandi dimensioni, non etichettati e non strutturati, e fare le proprie previsioni su ciò che rappresentano i dati.
Poiché il deep learning non richiede l'intervento umano, consente l'apprendimento automatico su vasta scala. È adatto all'elaborazione del linguaggio naturale (NLP), alla computer vision e ad altri compiti che comportano l'identificazione rapida e accurata di modelli e relazioni complesse in grandi quantità di dati. Una qualche forma di deep learning alimenta la maggior parte delle applicazioni di intelligenza artificiale (AI) che utilizziamo nella nostra vita quotidiana.
Il deep learning consente inoltre:
L'AI generativa, talvolta chiamata "gen AI", si riferisce a modelli di deep learning in grado di creare contenuti originali complessi, come testi lunghi, immagini di alta qualità, video o audio realistici e altro, in risposta al suggerimento o alla richiesta di un utente.
A un livello superiore, i modelli generativi codificano una rappresentazione semplificata dei loro dati di addestramento e poi vi attingono per creare nuovi risultati simili, ma non identici, ai dati originali.
I modelli generativi sono stati utilizzati per anni in statistica per analizzare dati numerici. Ma, nell'ultimo decennio, si sono evoluti per analizzare e generare tipologie di dati più complesse. Questa evoluzione ha coinciso con l'emergere di tre sofisticati tipi di modelli di deep learning:
In generale, l'AI generativa opera in tre fasi:
L'AI generativa parte da un "foundation model", un modello di deep learning che funge da base per diversi tipi di applicazioni di AI generativa.
I modelli di base più comuni oggi sono i modelli linguistici di grandi dimensioni (LM), creati per applicazioni di generazione di testo. Ma esistono anche foundation model per la generazione di immagini, video, suoni o musica e modelli di base multimodali in grado di supportare diversi tipi di contenuti.
Per creare un foundation model, i professionisti addestrano un algoritmo di deep learning su enormi volumi di dati grezzi, rilevanti, non strutturati e non etichettati, come terabyte o petabyte di testo, immagini o video dal web. L'addestramento produce una rete neurale di miliardi di parametri, ovvero rappresentazioni codificate di entità, pattern e relazioni nei dati, in grado di generare contenuti in modo autonomo in risposta ai prompt. Questo è il foundation model.
Questo processo di formazione è intenso in termini di calcolo, richiede tempo ed è costoso. Esso richiede infatti migliaia di unità di elaborazione grafica (GPU) in cluster e settimane di elaborazione e il costo si misura solitamente in milioni di dollari. I progetti di foundation model open source, come Llama-2 di Meta, permettono agli sviluppatori di gen AI di evitare questo passaggio e i relativi costi.
Successivamente, il modello deve essere ottimizzato secondo un'attività di generazione di contenuti specifica. È possibile farlo in vari modi, tra cui:
Gli sviluppatori e gli utenti valutano regolarmente i risultati delle loro app di AI generativa e ne ottimizzano ulteriormente il modello, anche una volta alla settimana, per una maggiore precisione o pertinenza. Il foundation model, invece, viene aggiornato molto meno frequentemente, forse ogni anno o 18 mesi.
Un'altra opzione per migliorare le prestazioni di un'app di gen AI è la retrieval augmented generation (RAG), una tecnica che consente di estendere il foundation model all'utilizzo di fonti pertinenti al di fuori dei dati di addestramento per perfezionare i parametri per una maggiore precisione o pertinenza.
L'AI offre numerosi vantaggi in diversi settori e applicazioni. Ecco alcuni dei benefici più frequentemente citati:
L'AI può automatizzare attività di routine, ripetitive e spesso noiose, comprese quelle digitali come la raccolta, l'inserimento e la pre-elaborazione dei dati, e quelle fisiche come la raccolta delle scorte di magazzino e i processi di produzione. Questo tipo di automazione permette di dedicarsi a lavori di maggior valore e più creativi.
Sia che venga utilizzata per il supporto decisionale o per un processo decisionale completamente automatizzato, l'AI consente previsioni più rapide e accurate e decisioni affidabili e basate sui dati. Combinata con l'automazione, l'AI consente alle aziende di cogliere le opportunità e rispondere alle crisi nel momento in cui emergono, in tempo reale e senza l'intervento umano.
L'AI può ridurre gli errori umani in diversi modi: guidando le persone nelle fasi corrette di un processo, segnalando potenziali errori prima che si verifichino e automatizzando completamente i processi senza intervento umano. Questo è particolarmente importante in settori come quello sanitario dove, ad esempio, la robotica chirurgica guidata dall'AI consente una precisione costante.
Gli algoritmi di machine learning possono migliorare continuamente la loro precisione e ridurre ulteriormente gli errori man mano che sono esposti a più dati e "imparano" dall'esperienza.
L'AI è sempre attiva, disponibile 24 ore su 24 e offre prestazioni costanti ogni volta. Strumenti come gli AI chatbot o gli assistenti virtuali possono alleggerire le richieste di personale per il servizio clienti o l'assistenza. In altre applicazioni, come la lavorazione dei materiali o le linee di produzione, l'AI può aiutare a mantenere costanti la qualità del lavoro e i livelli di output quando viene utilizzata per completare attività ripetitive o noiose.
Automatizzando i lavori pericolosi, come il controllo degli animali, la manipolazione di esplosivi, operazioni in acque oceaniche profonde, ad alta quota o nello spazio esterno, l'AI può consentire di non dover mettere più i lavoratori umani a rischio di lesioni o conseguenze peggiori. Anche se non sono ancora state perfezionate, le auto a guida autonoma e altri veicoli possono ridurre il rischio di lesioni ai passeggeri.
Le applicazioni dell'AI nel mondo reale sono molteplici. Ecco solo un piccolo esempio di casi d'uso in vari settori per illustrarne il potenziale:
Le aziende possono implementare chatbot e assistenti virtuali basati sull'AI per gestire le richieste dei clienti, i ticket di supporto e altro ancora. Questi strumenti utilizzano l'elaborazione del linguaggio naturale (NLP) e le funzionalità di AI generativa per comprendere e rispondere alle domande dei clienti sullo stato degli ordini, sui dettagli del prodotto e sulle politiche di reso.
I chatbot e gli assistenti virtuali offrono assistenza sempre attiva, forniscono risposte più rapide alle domande frequenti (FAQ), consentono agli agenti umani di concentrarsi su attività di livello superiore e offrono ai clienti un servizio più rapido e coerente.
Gli algoritmi di machine learning e deep learning possono analizzare i modelli di transazione e segnalare anomalie, come spese insolite o posizioni di accesso, che indicano transazioni fraudolente. Ciò consente alle organizzazioni di rispondere più rapidamente a potenziali frodi e di limitarne l'impatto, offrendo a se stesse e ai clienti una maggiore tranquillità.
I rivenditori, le banche e altre aziende che trattano direttamente con i clienti possono utilizzare l'AI per creare esperienze del cliente e campagne di marketing personalizzate che soddisfino i clienti, migliorino le vendite e prevengano il tasso di abbandono. Sulla base dei dati relativi alla cronologia degli acquisti e ai comportamenti dei clienti, gli algoritmi di deep learning possono consigliare prodotti e servizi che i clienti potrebbero desiderare e persino generare testi personalizzati e offerte speciali per singoli clienti in tempo reale.
Le piattaforme di reclutamento basate sull'AI possono semplificare le assunzioni esaminando i curricula, abbinando i candidati alle descrizioni dei lavori e persino conducendo colloqui preliminari utilizzando l'analisi video. Questi e altri strumenti possono ridurre drasticamente la montagna di scartoffie amministrative che comporta la selezione di un gran numero di candidati. Possono, inoltre, ridurre i tempi di risposta e di assunzione, migliorando l'esperienza dei candidati, indipendentemente dal fatto che ottengano il lavoro.
Gli strumenti di generazione di codice di AI generativa e gli strumenti di automazione possono snellire le attività di codifica ripetitive relative allo sviluppo delle applicazioni e accelerare la migrazione e la modernizzazione (riformattazione e replatorming) delle applicazioni legacy su larga scala. Questi strumenti possono accelerare le attività, aiutare a garantire la coerenza del codice e ridurre gli errori.
I modelli di machine learning possono analizzare i dati provenienti da sensori, dispositivi Internet of Things (IoT) e tecnologia operativa (OT) per stabilire quando sarà necessaria la manutenzione e prevedere i malfunzionamenti delle attrezzature prima che si verifichino. La manutenzione preventiva basata su AI aiuta a prevenire i tempi di inattività e consente di anticipare i problemi della supply chain prima che si ripercuotano sui profitti.
Le organizzazioni si stanno adoperando per utilizzare al meglio le più recenti tecnologie di AI e capitalizzare i suoi numerosi benefici. Questa rapida adozione è necessaria, ma l'utilizzo e il mantenimento dei workflow dell'AI comportano sfide e rischi
.I sistemi di AI si basano su set di dati potenzialmente vulnerabili al data poisoning, al data tampering, alla distorsione dei dati o agli attacchi informatici che possono comportare violazioni dei dati. Le organizzazioni possono mitigare questi rischi proteggendo l'integrità dei dati e implementando la sicurezza e la disponibilità durante l'intero ciclo di vita dell'AI, dallo sviluppo alla formazione e alla distribuzione e alla postdistribuzione.
Come tutte le tecnologie, i modelli sono suscettibili a rischi operativi come la deriva dei modelli, le distorsioni e le interruzioni nella struttura di governance. Se non affrontati, questi rischi possono portare a malfunzionamenti del sistema e vulnerabilità della cybersecurity di cui gli autori delle minacce potrebbero approfittare.
Se le organizzazioni non danno priorità alla sicurezza e all'etica durante lo sviluppo e l'implementazione dei sistemi AI, rischiano di commettere delle violazioni della privacy e di generare risultati distorti. Ad esempio, i dati di addestramento distorti utilizzati per le decisioni relative alle assunzioni potrebbero rafforzare gli stereotipi di genere o razziali e creare modelli AI che favoriscono alcuni gruppi demografici rispetto ad altri.
L'etica dell'AI è un campo multidisciplinare che studia come ottimizzare l'impatto benefico dell'intelligenza artificiale riducendo i rischi e gli esiti avversi. I principi dell'etica dell'AI sono applicati attraverso un sistema di governance dell'AI costituito da barriere che aiutano a garantire che gli strumenti e i sistemi di intelligenza artificiale rimangano sicuri ed etici.
La governance dell'AI comprende meccanismi di supervisione atti a gestire i rischi. Un approccio etico alla governance dell'AI richiede il coinvolgimento di un'ampia gamma di stakeholder, tra cui sviluppatori, utenti, responsabili politici ed etici, al fine di garantire che i sistemi legati all'AI siano sviluppati e utilizzati in linea con i valori della società.
Ecco i valori comuni associati all'etica dell'AI e all'AI responsabile:
Con l'avanzare della tecnologia AI, per gli esseri umani diventa sempre più difficile comprendere e risalire al modo in cui l'algoritmo ha ottenuto un determinato risultato. L'AI spiegabile è un insieme di processi e metodi che consente agli utenti umani di interpretare, comprendere e considerare affidabili i risultati e gli output creati dagli algoritmi.
Sebbene l'apprendimento automatico, per sua natura, sia una forma di discriminazione statistica, la discriminazione diventa discutibile quando pone gruppi privilegiati in vantaggio sistematico e alcuni gruppi non privilegiati in svantaggio sistematico, causando potenzialmente vari danni. Per favorire l'equità, i professionisti possono cercare di ridurre al minimo i bias algoritmici nella raccolta dei dati e nella progettazione dei modelli e creare team più diversificati e inclusivi.
Un'AI solida gestisce in modo efficace condizioni eccezionali, come anomalie nell'input o attacchi maligni, senza causare danni involontari. È inoltre sviluppata per resistere alle interferenze intenzionali e non intenzionali proteggendo dalle vulnerabilità esposte.
Le organizzazioni devono implementare responsabilità e governance chiare
strutture per lo sviluppo, l'implementazione e i risultati dei sistemi AI.
Inoltre, gli utenti dovrebbero essere in grado di vedere come funziona un servizio AI,
valutarne la funzionalità, comprenderne i punti di forza e
le limitazioni. Una maggiore trasparenza fornisce informazioni agli utenti dell'AI
affinché possano comprendere meglio come è stato creato il modello o il servizio AI.
Molti framework, tra cui il GDPR, impongono alle organizzazioni di rispettare determinati principi sulla privacy durante il trattamento dei dati personali. È fondamentale essere in grado di proteggere i modelli AI che potrebbero contenere informazioni personali, di controllare quali dati vengono inseriti nel modello e di sviluppare sistemi adattabili che possano adattarsi ai cambiamenti della normativa e dell'atteggiamento nei confronti dell'etica dell'AI.
Al fine di contestualizzare l'uso dell'AI a vari livelli di complessità e sofisticazione, i ricercatori hanno definito diversi tipi di AI che si riferiscono al suo livello di sofisticazione:
AI debole: nota anche come “AI ristretta”, definisce i sistemi AI progettati per eseguire un compito specifico o una serie di compiti. Gli esempi potrebbero includere app «intelligenti» per l'assistente vocale, come Alexa di Amazon, Siri di Apple, un chatbot sui social media o i veicoli autonomi promessi da Tesla.
AI forte: nota anche come "intelligenza artificiale generale" (AGI) o "AI generale", possiede la capacità di comprendere, apprendere e applicare le conoscenze in un'ampia gamma di attività a un livello pari o superiore all'intelligenza umana. Questo livello di intelligenza artificiale è attualmente teorico e nessun sistema di AI conosciuto si avvicina a questo livello di sofisticazione. I ricercatori sostengono che, se l'AGI è possibile, richiede un forte aumento della potenza di calcolo. Nonostante i recenti progressi nello sviluppo dell'AI, i sistemi di intelligenza artificiale autocoscienti della fantascienza rimangono saldamente in questo ambito.
L'idea di una "macchina che pensa" risale all'antica Grecia. Dall'avvento dell'informatica elettronica (e relativamente ad alcuni degli argomenti trattati in questo articolo), gli eventi chiave nell'evoluzione dell'AI sono i seguenti:
1950 Alan Turing pubblica Computing Machinery and Intelligence. Turing, famoso per aver decifrato il codice tedesco ENIGMA durante la seconda guerra mondiale e spesso definito il "padre dell'informatica", in questo articolo pone la seguente domanda: "Le macchine possono pensare?"
Da lì, offre un test, ora noto come "Test di Turing", in cui un interrogatore umano cerca di distinguere una risposta testuale umana da quella del computer. Sebbene questo test sia stato sottoposto a molti controlli dopo la sua pubblicazione, rimane una parte importante della storia dell'AI, nonché un concetto attuale nel campo della filosofia, in quanto si avvale delle teorie della linguistica.
1956 John McCarthy conia il termine “intelligenza artificiale” in occasione della prima conferenza sull’AI al Dartmouth College. (McCarthy avrebbe inventato successivamente il linguaggio LISP.) Più tardi, nello stesso anno, Allen Newell, JC Shaw e Herbert Simon creano Logic Theorist, il primo programma informatico di intelligenza artificiale funzionante.
1967 Frank Rosenblatt costruisce il Mark 1 Perceptron, il primo computer basato su una rete neurale che "impara" per tentativi ed errori. Appena un anno dopo, Marvin Minsky e Seymour Papert pubblicano un libro intitolato Perceptrons, che diventa sia l'opera fondamentale sulle reti neurali sia, almeno per un po', un argomento contro le future iniziative di ricerca sulle reti neurali.
1980 Le reti neurali, che utilizzano un algoritmo di backpropagation per addestrarsi, sono diventate ampiamente utilizzate nelle applicazioni di AI.
1995 Stuart Russell e Peter Norvig pubblicano Intelligenza Artificiale: Un Approccio Moderno, che diventa uno dei principali libri di testo nello studio dell'AI. In esso si approfondiscono quattro potenziali obiettivi o definizioni di AI, che differenziano i sistemi informatici sulla base della razionalità e del pensiero rispetto all'azione.
1997 Deep Blue di IBM batte l'allora campione del mondo di scacchi Garry Kasparov in una partita a scacchi (e rivincita).
2004 John McCarthy scrive un articolo, What Is Artificial Intelligence? e propone una definizione di AI spesso citata. A questo punto, è iniziata l'era dei big data e del cloud computing, che consentirà alle organizzazioni di gestire un patrimonio di dati sempre più ampio, che un giorno verrà utilizzato per addestrare modelli AI.
2011 IBM Watson batte i campioni Ken Jennings e Brad Rutter a Jeopardy! Inoltre, in questo periodo, data science inizia a emergere come disciplina popolare.
2015 il supercomputer Minwa di Baidu utilizza un tipo speciale di rete neurale profonda, chiamata rete neurale convolutiva, per identificare e categorizzare le immagini con un tasso di accuratezza superiore alla media umana.
2016 Il programma AlphaGo di DeepMind, alimentato da una rete neurale profonda, batte Lee Sodol, il campione del mondo di Go, in un incontro di cinque partite. La vittoria è significativa considerando il numero enorme di mosse possibili nel corso del gioco (oltre 14,5 trilioni dopo soli quattro mosse). Successivamente, Google ha acquistato DeepMind per una cifra stimata di 400 milioni di dollari.
2022 Un aumento dei modelli linguistici di grandi dimensioni o LLM, come ChatGPT di OpenAI, crea un enorme cambiamento nelle prestazioni dell'AI e del suo potenziale di generare valore aziendale. Con queste nuove pratiche di AI generativa, è possibile pre-addestrare i modelli di deep learning su grandi quantità di dati.
2024 Le ultime tendenze dell'AI indicano una continua rinascita dell'AI. I modelli multimodali in grado di accettare più tipi di dati come input offrono esperienze più ricche e affidabili. Questi modelli combinano funzionalità di computer vision, riconoscimento delle immagini e riconoscimento vocale NLP. Anche i modelli più piccoli stanno facendo passi da gigante in un'epoca di rendimenti decrescenti con modelli massicci con un numero elevato di parametri.
Abbiamo intervistato 2.000 organizzazioni in merito alle loro iniziative di AI per scoprire cosa funziona, cosa non funziona e come giocare d’anticipo.
IBM Granite è la nostra famiglia di modelli AI aperti, efficienti e affidabili, su misura per le aziende e ottimizzati per scalare le applicazioni di AI. Esplora le opzioni di linguaggio, codice, serie temporali e guardrail.
Accedi al nostro catalogo completo di oltre 100 corsi online acquistando oggi stesso un abbonamento individuale o multiutente che ti consentirà di ampliare le tue competenze su una gamma di prodotti a un prezzo contenuto.
Condotto dai migliori leader di pensiero di IBM, il programma di studi è stato progettato per aiutare i dirigenti aziendali ad acquisire le conoscenze necessarie per dare priorità agli investimenti in AI che possono favorire la crescita.
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com