Le informazioni accurate sono la linfa vitale delle aziende moderne. Le aziende fanno affidamento sulle informazioni per prendere decisioni aziendali d'importanza chiave su tutto, dalla gestione della supply chain al marketing dei prodotti.
Sebbene l'intelligenza artificiale (AI) possa migliorare il processo-decisionale basato sui dati, può anche ostacolarlo. I contenuti generati dall'AI possono essere pieni di errori, dalle notizie false alle pessime consulenze legali, fino alle ricette della pizza con la colla di Elmer quale ingrediente principale.1
Arriveremo mai a un punto in cui situazioni così complicate apparterranno al passato? Anche se gli appassionati di AI vorrebbero credere il contrario, la risposta è: probabilmente no.
Secondo Matt Candy di IBM, i modelli di AI generativa (gen AI) saranno sempre soggetti all'inavvertita produzione un po' di misinformazione. "In virtù del fatto che queste cose sono di natura predittiva, ovvero prevedono e indovinano quale sarà la parola successiva, ci sarà sempre un certo rischio in tal senso", afferma Candy, Global Managing Partner for Generative AI di IBM Consulting.
Candy aggiunge che nemmeno i modelli tradizionali di machine learning (ML) sono immuni dalla produzione di misinformazione. "Questi modelli sono macchine statistiche che, di fatto, cercano di prevedere un qualche tipo di risultato, quindi possono ancora prevedere una risposta o un risultato errati".
Tuttavia, la buona notizia è che ci sono diverse azioni che le aziende possono intraprendere per ridurre le probabilità che i propri sistemi AI producano e diffondano informazioni errate.
Se queste azioni non prevengono tutti i casi di disinformazione generata dall'AI, le aziende possono anche implementare misure di sicurezza per rilevare la misinformazione prima che causi danni.
Prima di prendere in esame come le aziende possono proteggersi dalla misinformazione generata dall'AI, è importante analizzare più da vicino la misinformazione e i concetti correlati. Questi concetti sono in gran parte antecedenti all'attuale uso diffuso dell'AI negli ecosistemi informativi, tuttavia l'influenza dell'AI su questi fenomeni è notevole.
La misinformazione è un'informazione falsa. Alcune definizioni affermano anche che la disinformazione non è creata di proposito per ingannare gli altri, quanto piuttosto è causata da errori.
Nel caso della misinformazione generata dall'AI, gli esempi potrebbero includere modelli linguistici di grandi dimensioni (LLM) che producono output imprecisi o privi di senso e immagini generate dall'AI con rappresentazioni non realistiche o imprecise (come "persone vere" con troppe braccia).
Le allucinazioni dell'AI sono una causa comune di misinformazione generata dall'AI. Le allucinazioni dell'AI si verificano quando gli algoritmi di AI producono output che non si basano su dati di addestramento, vengono decodificati in modo errato dal trasformatore o non seguono alcun pattern identificabile.
"Nelle allucinazioni, il modello AI cerca di assicurarsi che il linguaggio sia fluente, ma cerca anche di mettere insieme diverse fonti di informazione", spiega Kush Varshney, IBM Fellow di IBM Research. "Anche noi umani, quando proviamo a fare più cose contemporaneamente, possiamo sbagliare. Questo accade anche con il modello AI, che perde traccia delle informazioni mentre cerca di rendere fluente il linguaggio, e viceversa".
La disinformazione è talvolta considerata un tipo di misinformazione, ma si distingue in quanto si tratta di contenuti falsi volutamente creati per ingannare il destinatario. Gli esempi includono le teorie del complotto e, più recentemente, materiali audio e video falsi.
Casi importanti di disinformazione resi possibili dai bot e da altri strumenti di AI si sono verificati nel periodo precedente le elezioni presidenziali americane del 2024. Tra questi, un robocall che impersonava la voce dell'allora presidente e candidato democratico Joe Biden e la diffusione di immagini che trasmettevano il falso supporto, da parte di personaggi famosi, per il presidente repubblicano Donald Trump.2,3
Gli strumenti per rilevare i deepfake generati dall'AI e altri contenuti ingannevoli e di disinformazione hanno dato risultati contrastanti, anche se l'ultima generazione di rilevatori di testi AI si è dimostrata più efficace rispetto alle versioni precedenti.4,5 Nel frattempo, piattaforme di social media come TikTok e Facebook hanno iniziato a etichettare i contenuti generati dall'AI.6
A differenza della misinformazione e della disinformazione, la malinformazione è un'informazione potenzialmente dannosa basata sulla realtà e sui fatti. La malinformazione è dannosa perché viene divulgata per danneggiare altri, come persone o aziende.
Ad esempio, la condivisione di informazioni riservate senza autorizzazione rientra nell'ambito della malinformazione, una pratica che è stata amplificata dall'AI. Gli scammer possono utilizzare strumenti di AI generativa per creare e-mail di phishing sofisticate ed efficaci che possano aiutarli a ottenere e diffondere informazioni riservate.
Anche se potrebbe essere impossibile garantire che tutti gli output dell'AI siano completamente privi di errori, ci sono misure che le aziende possono adottare per ridurre notevolmente la probabilità che i loro sistemi di AI producano informazioni imprecise o completamente inventate.
I dati di alta qualità sono critici per le prestazioni del modello AI. I modelli dovrebbero essere addestrati su dati diversi, equilibrati e ben strutturati per ridurre al minimo le possibilità di bias e allucinazioni. Le aziende tecnologiche e gli sviluppatori di AI possono migliorare la qualità dei dati di addestramento utilizzando strumenti di preparazione e filtraggio dei dati per rimuovere i dati di bassa qualità e i contenuti che incitano all'odio, inclusa la malinformazione.
Uno degli strumenti più diffusi per ridurre la probabilità di allucinazioni dell'AI è la retrieval-augmented generation (RAG). La RAG è un'architettura che collega i modelli di AI generativa a fonti di dati esterne, come i dati organizzativi di un'azienda, le riviste accademiche e i set di dati specializzati. Accedendo a tali informazioni, gli AI chatbot e altri strumenti possono produrre contenuti più accurati e specifici per il dominio.
Sebbene le applicazioni LLM rivolte ai consumatori in ChatGPT di OpenAI abbiano catturato l'attenzione del pubblico, le aziende spesso trovano modelli AI più piccoli e specializzati per soddisfare meglio le proprie esigenze, pur essendo meno vulnerabili alle allucinazioni.
"Abbiamo questi grandi modelli di frontiera addestrati sulla maggior quantità di dati possibile", afferma Candy. "Ma se pensiamo alla maggior parte dei casi d'uso aziendali, non necessitiamo di un modello addestrato sull'intera opera di Shakespeare, su Reddit e su ogni altro dato disponibile pubblicamente".
Poiché i modelli più piccoli hanno finestre di contesto più ristrette e utilizzano meno parametri, il loro rischio di allucinazioni diminuisce. "C'è meno possibilità che le cose si confondano", aggiunge Varshney.
Nell'evitare i danni causati dalla misinformazione generata dall'AI, le misure per mitigare le allucinazioni sono solo un tassello del puzzle. Le aziende dovrebbero disporre anche di strategie e strumenti per rilevare eventuali allucinazioni e output imprecisi che riescono a sfuggire.
Le principali piattaforme di governance dell'AI e i foundation model ora includono la funzionalità di rilevamento delle allucinazioni. IBM watsonx.governance e l'ultima versione di Granite Guardian di IBM (IBM Granite Guardian 3.1, parte della famiglia di modelli linguistici Granite di IBM progettati per le aziende), valutano entrambe le prestazioni dei modelli di AI generativa su metriche come la pertinenza delle risposte e la "veridicità".
"La chiamano veridicità, ovvero l'opposto dell'allucinazione", spiega Varshney. "Quando una risposta è fedele ai documenti originali, non è un'allucinazione." Granite Guardian 3.1 offre anche funzionalità per rilevare l'uso e l'output controproducenti dell'AI, come jailbreaking, profanità e pregiudizi sociali.
Nonostante gli strumenti di governance dell'AI, gli esseri umani hanno ancora un ruolo chiave da svolgere nella prevenzione della diffusione della misinformazione generata dall'AI. Quando le aziende implementano sistemi di AI, dovrebbero valutare dove stabilire punti di controllo che consentano la supervisione umana, afferma Candy. "Dobbiamo impegnarci a stabilire i punti del processo in cui ci sono interazione umana, controlli umani e processi decisionali umani".
Secondo Candy, questo processo decisionale umano è particolarmente importante con l'avvento di potenti agenti AI che possono affrontare compiti sempre più sofisticati.
Ad esempio, sebbene un'azienda di scienze biologiche potrebbe utilizzare più agenti AI per fare ricerche e scrivere rapporti di conformità sullo sviluppo di nuovi farmaci, l'azienda assegnerebbe comunque a un dipendente umano il compito di rileggere e verificare le informazioni contenute nei rapporti prima di inviarli a un ente governativo.
"In definitiva, ci sarà ancora un essere umano nel ciclo di questo processo, incaricato di controllare e convalidare", afferma Candy. “Non sottovaluterei l’importanza del fattore umano”.
1 “Google promised a better search experience — now it’s telling us to put glue on our pizza.” The Verge. 23 maggio 2024.
2 “A New Orleans magician says a Democratic operative paid him to make the fake Biden robocall.” NBC News. 23 febbraio 2024.
3 “Fake celebrity endorsements become latest weapon in misinformation wars, sowing confusion ahead of 2024 election.” CNN. 22 agosto 2024.
4, 6 “Using AI to detect AI-generated deepfakes can work for audio — but not always. ” NPR. 5 aprile 2024.
5 “Robustness of generative AI detection: adversarial attacks on black-box neural text detectors.” International Journal of Speech Technology. 16 ottobre 2024.
Gestisci i modelli di AI generativa da qualsiasi luogo ed effettua l'implementazione sul cloud o on-premise con IBM watsonx.governance.
Sblocca il pieno potenziale dell'AI e scopri come la governance dell'AI può aiutare ad aumentare la fiducia dei tuoi dipendenti nell'AI, accelerare l'adozione e l'innovazione e migliorare la fiducia dei clienti.
Preparati alla legge europea sull'AI e definisci un approccio di governance dell'AI responsabile con l'aiuto di IBM Consulting.