Misinformazione dell'AI: come ridurre l'esposizione e il rischio per la tua azienda

Una persona in piedi vicino a un edificio mentre guarda il tablet

Autori

Alice Gomstyn

Staff Writer

IBM Think

Alexandra Jonker

Staff Editor

IBM Think

Le informazioni accurate sono la linfa vitale delle aziende moderne. Le aziende fanno affidamento sulle informazioni per prendere decisioni aziendali d'importanza chiave su tutto, dalla gestione della supply chain al marketing dei prodotti.

Sebbene l'intelligenza artificiale (AI) possa migliorare il processo-decisionale basato sui dati, può anche ostacolarlo. I contenuti generati dall'AI possono essere pieni di errori, dalle notizie false alle pessime consulenze legali, fino alle ricette della pizza con la colla di Elmer quale ingrediente principale.1

Arriveremo mai a un punto in cui situazioni così complicate apparterranno al passato? Anche se gli appassionati di AI vorrebbero credere il contrario, la risposta è: probabilmente no.

Secondo Matt Candy di IBM, i modelli di AI generativa (gen AI) saranno sempre soggetti all'inavvertita produzione un po' di misinformazione. "In virtù del fatto che queste cose sono di natura predittiva, ovvero prevedono e indovinano quale sarà la parola successiva, ci sarà sempre un certo rischio in tal senso", afferma Candy, Global Managing Partner for Generative AI di IBM Consulting.

Candy aggiunge che nemmeno i modelli tradizionali di machine learning (ML) sono immuni dalla produzione di misinformazione. "Questi modelli sono macchine statistiche che, di fatto, cercano di prevedere un qualche tipo di risultato, quindi possono ancora prevedere una risposta o un risultato errati".

Tuttavia, la buona notizia è che ci sono diverse azioni che le aziende possono intraprendere per ridurre le probabilità che i propri sistemi AI producano e diffondano informazioni errate.

Se queste azioni non prevengono tutti i casi di disinformazione generata dall'AI, le aziende possono anche implementare misure di sicurezza per rilevare la misinformazione prima che causi danni.

Design 3D di palline che rotolano su una pista

Le ultime notizie e insight sull'AI


Scopri notizie e insight selezionati da esperti in materia di AI, cloud e molto altro nella newsletter settimanale Think. 

Comprendere la misinformazione

Prima di prendere in esame come le aziende possono proteggersi dalla misinformazione generata dall'AI, è importante analizzare più da vicino la misinformazione e i concetti correlati. Questi concetti sono in gran parte antecedenti all'attuale uso diffuso dell'AI negli ecosistemi informativi, tuttavia l'influenza dell'AI su questi fenomeni è notevole.

Misinformazione

La misinformazione è un'informazione falsa. Alcune definizioni affermano anche che la disinformazione non è creata di proposito per ingannare gli altri, quanto piuttosto è causata da errori.

Nel caso della misinformazione generata dall'AI, gli esempi potrebbero includere modelli linguistici di grandi dimensioni (LLM) che producono output imprecisi o privi di senso e immagini generate dall'AI con rappresentazioni non realistiche o imprecise (come "persone vere" con troppe braccia).

Le allucinazioni dell'AI sono una causa comune di misinformazione generata dall'AI. Le allucinazioni dell'AI si verificano quando gli algoritmi di AI producono output che non si basano su dati di addestramento, vengono decodificati in modo errato dal trasformatore o non seguono alcun pattern identificabile.

"Nelle allucinazioni, il modello AI cerca di assicurarsi che il linguaggio sia fluente, ma cerca anche di mettere insieme diverse fonti di informazione", spiega Kush Varshney, IBM Fellow di IBM Research. "Anche noi umani, quando proviamo a fare più cose contemporaneamente, possiamo sbagliare. Questo accade anche con il modello AI, che perde traccia delle informazioni mentre cerca di rendere fluente il linguaggio, e viceversa".

Disinformazione

La disinformazione è talvolta considerata un tipo di misinformazione, ma si distingue in quanto si tratta di contenuti falsi volutamente creati per ingannare il destinatario. Gli esempi includono le teorie del complotto e, più recentemente, materiali audio e video falsi.

Casi importanti di disinformazione resi possibili dai bot e da altri strumenti di AI si sono verificati nel periodo precedente le elezioni presidenziali americane del 2024. Tra questi, un robocall che impersonava la voce dell'allora presidente e candidato democratico Joe Biden e la diffusione di immagini che trasmettevano il falso supporto, da parte di personaggi famosi, per il presidente repubblicano Donald Trump.2,3

Gli strumenti per rilevare i deepfake generati dall'AI e altri contenuti ingannevoli e di disinformazione hanno dato risultati contrastanti, anche se l'ultima generazione di rilevatori di testi AI si è dimostrata più efficace rispetto alle versioni precedenti.4,5 Nel frattempo, piattaforme di social media come TikTok e Facebook hanno iniziato a etichettare i contenuti generati dall'AI.6

Malinformazione

A differenza della misinformazione e della disinformazione, la malinformazione è un'informazione potenzialmente dannosa basata sulla realtà e sui fatti. La malinformazione è dannosa perché viene divulgata per danneggiare altri, come persone o aziende.

Ad esempio, la condivisione di informazioni riservate senza autorizzazione rientra nell'ambito della malinformazione, una pratica che è stata amplificata dall'AI. Gli scammer possono utilizzare strumenti di AI generativa per creare e-mail di phishing sofisticate ed efficaci che possano aiutarli a ottenere e diffondere informazioni riservate.

Ridurre alla fonte la misinformazione generata dall'AI

Anche se potrebbe essere impossibile garantire che tutti gli output dell'AI siano completamente privi di errori, ci sono misure che le aziende possono adottare per ridurre notevolmente la probabilità che i loro sistemi di AI producano informazioni imprecise o completamente inventate.

  • Garantire la qualità dei dati
  • Implementare la retrieval-augmented generation (RAG)
  • Utilizzare modelli di AI generativa più piccoli

Garantire la qualità dei dati

I dati di alta qualità sono critici per le prestazioni del modello AI. I modelli dovrebbero essere addestrati su dati diversi, equilibrati e ben strutturati per ridurre al minimo le possibilità di bias e allucinazioni. Le aziende tecnologiche e gli sviluppatori di AI possono migliorare la qualità dei dati di addestramento utilizzando strumenti di preparazione e filtraggio dei dati per rimuovere i dati di bassa qualità e i contenuti che incitano all'odio, inclusa la malinformazione.

Implementare la retrieval-augmented generation (RAG)

Uno degli strumenti più diffusi per ridurre la probabilità di allucinazioni dell'AI è la retrieval-augmented generation (RAG). La RAG è un'architettura che collega i modelli di AI generativa a fonti di dati esterne, come i dati organizzativi di un'azienda, le riviste accademiche e i set di dati specializzati. Accedendo a tali informazioni, gli AI chatbot e altri strumenti possono produrre contenuti più accurati e specifici per il dominio.

Utilizzare modelli di AI generativa più piccoli

Sebbene le applicazioni LLM rivolte ai consumatori in ChatGPT di OpenAI abbiano catturato l'attenzione del pubblico, le aziende spesso trovano modelli AI più piccoli e specializzati per soddisfare meglio le proprie esigenze, pur essendo meno vulnerabili alle allucinazioni.

"Abbiamo questi grandi modelli di frontiera addestrati sulla maggior quantità di dati possibile", afferma Candy. "Ma se pensiamo alla maggior parte dei casi d'uso aziendali, non necessitiamo di un modello addestrato sull'intera opera di Shakespeare, su Reddit e su ogni altro dato disponibile pubblicamente".

Poiché i modelli più piccoli hanno finestre di contesto più ristrette e utilizzano meno parametri, il loro rischio di allucinazioni diminuisce. "C'è meno possibilità che le cose si confondano", aggiunge Varshney.

AI Academy

Fiducia, trasparenza e governance in tema di AI

La fiducia nell'AI è senza dubbio il tema più importante per quanto concerne l'AI. Comprensibilmente, si tratta anche di un tema di estrema complessità. Analizzeremo pertanto aspetti quali le allucinazioni, i bias e i rischi, condividendo spunti e suggerimenti per un'adozione dell'AI che sia etica, responsabile ed equa.

Segnalare la misinformazione dell'AI prima che faccia danni

Nell'evitare i danni causati dalla misinformazione generata dall'AI, le misure per mitigare le allucinazioni sono solo un tassello del puzzle. Le aziende dovrebbero disporre anche di strategie e strumenti per rilevare eventuali allucinazioni e output imprecisi che riescono a sfuggire.

Strumenti di rilevamento delle allucinazioni dell'AI

Le principali piattaforme di governance dell'AI e i foundation model ora includono la funzionalità di rilevamento delle allucinazioni. IBM watsonx.governance e l'ultima versione di Granite Guardian di IBM (IBM Granite Guardian 3.1, parte della famiglia di modelli linguistici Granite di IBM progettati per le aziende), valutano entrambe le prestazioni dei modelli di AI generativa su metriche come la pertinenza delle risposte e la "veridicità".

"La chiamano veridicità, ovvero l'opposto dell'allucinazione", spiega Varshney. "Quando una risposta è fedele ai documenti originali, non è un'allucinazione." Granite Guardian 3.1 offre anche funzionalità per rilevare l'uso e l'output controproducenti dell'AI, come jailbreaking, profanità e pregiudizi sociali.

Supervisione e interazione umana

Nonostante gli strumenti di governance dell'AI, gli esseri umani hanno ancora un ruolo chiave da svolgere nella prevenzione della diffusione della misinformazione generata dall'AI. Quando le aziende implementano sistemi di AI, dovrebbero valutare dove stabilire punti di controllo che consentano la supervisione umana, afferma Candy. "Dobbiamo impegnarci a stabilire i punti del processo in cui ci sono interazione umana, controlli umani e processi decisionali umani".

Secondo Candy, questo processo decisionale umano è particolarmente importante con l'avvento di potenti agenti AI che possono affrontare compiti sempre più sofisticati.

Ad esempio, sebbene un'azienda di scienze biologiche potrebbe utilizzare più agenti AI per fare ricerche e scrivere rapporti di conformità sullo sviluppo di nuovi farmaci, l'azienda assegnerebbe comunque a un dipendente umano il compito di rileggere e verificare le informazioni contenute nei rapporti prima di inviarli a un ente governativo.

"In definitiva, ci sarà ancora un essere umano nel ciclo di questo processo, incaricato di controllare e convalidare", afferma Candy. “Non sottovaluterei l’importanza del fattore umano”.

Soluzioni correlate
IBM watsonx.governance™

Gestisci i modelli di AI generativa da qualsiasi luogo ed effettua l'implementazione sul cloud o on-premise con IBM watsonx.governance.

Scopri watsonx.governance
Soluzioni e servizi di governance dell'AI

Sblocca il pieno potenziale dell'AI e scopri come la governance dell'AI può aiutare ad aumentare la fiducia dei tuoi dipendenti nell'AI, accelerare l'adozione e l'innovazione e migliorare la fiducia dei clienti.

Esplora le soluzioni di governance dell'AI
Servizi di consulenza sulla governance dell'AI

Preparati alla legge europea sull'AI e definisci un approccio di governance dell'AI responsabile con l'aiuto di IBM Consulting.

Esplora i servizi di governance per l'AI
Prossimi passi

Indirizza, gestisci e monitora l'AI con un singolo portfolio per sviluppare un'AI responsabile, trasparente e spiegabile.

Esplora watsonx.governance Prenota una demo live