La governance dell'AI si riferisce ai processi, agli standard e alle misure di sicurezza che contribuiscono a garantire che i sistemi e gli strumenti di AI siano sicuri ed etici. I framework di governance dell'AI orientano la ricerca, lo sviluppo e le applicazioni di AI per garantire sicurezza, equità e rispetto dei diritti umani.
Una governance efficace dell'AI include meccanismi di supervisione che trattano rischi quali distorsioni, violazioni della privacy e uso improprio, promuovendo al contempo l'innovazione e aumentando la fiducia. Un approccio etico alla governance dell'AI richiede il coinvolgimento di un'ampia gamma di stakeholder, tra cui sviluppatori di AI, utenti, responsabili politici ed etici, in modo da garantire che i sistemi legati all'AI siano sviluppati e utilizzati in linea con i valori della società.
La governance dell’AI affronta i difetti intrinseci derivanti dall’elemento umano nella creazione e nella gestione dell’AI. Poiché l'AI è un prodotto di codice altamente ingegnerizzato e di machine learning (ML) creato da persone, è suscettibile di pregiudizi ed errori umani che possono provocare discriminazioni e altri danni agli individui.
La governance fornisce un approccio strutturato per mitigare questi potenziali rischi. Un simile approccio può includere solide politiche, normative e governance dei dati in materia di AI. Queste aiutano a garantire che gli algoritmi di machine learning siano monitorati, valutati e aggiornati per prevenire decisioni errate o dannose e che i set di dati siano ben addestrati e gestiti.
La governance mira anche a stabilire la supervisione necessaria per allineare i comportamenti dell’AI agli standard etici e alle aspettative della società e per evitare potenziali impatti negativi.
La governance dell'AI è fondamentale per raggiungere uno stato di conformità, fiducia ed efficienza nello sviluppo e nell'applicazione delle tecnologie di AI. Con la crescente integrazione dell'AI nelle operazioni organizzative e governative, il suo potenziale di impatto negativo è diventato più visibile.
Eventi di grande risonanza, come l'incidente del chatbot Tay, in cui un chatbot AI di Microsoft ha appreso comportamenti tossici dalle interazioni pubbliche sui social media, e i giudizi distorti del software COMPAS, hanno messo in evidenza la necessità di una solida governance per prevenire danni e mantenere la fiducia del pubblico.
Questi casi dimostrano che, senza una corretta supervisione, l'AI può causare significativi danni sociali ed etici e sottolineano l'importanza della governance nella gestione dei rischi associati all'AI di livello avanzato. Fornendo linee guida e framework, la governance dell'AI mira a equilibrare l'innovazione tecnologica con la sicurezza, garantendo che i sistemi di AI non violino la dignità o i diritti umani.
Un processo decisionale trasparente e la spiegabilità sono fondamentali anche per garantire che i sistemi di AI siano utilizzati in modo responsabile, oltre che per creare fiducia. I sistemi di AI prendono continuamente decisioni, ad esempio su quali annunci mostrare o se approvare un prestito o meno. È essenziale comprendere i processi decisionali dei sistemi di AI per ritenerli responsabili delle loro decisioni e garantire che vengano prese in modo equo ed etico.
La governance dell’AI, inoltre, non consiste solo nel garantire la conformità una tantum, ma anche nel sostenere gli standard etici nel tempo. I modelli AI possono essere soggetti a derive che provocano cambiamenti nella qualità e nell'affidabilità dell'output. Le attuali tendenze nella governance stanno andando oltre la semplice conformità legale per garantire la responsabilità sociale dell’AI, tutelandola così da danni finanziari, legali e reputazionali, promuovendo al tempo stesso la crescita responsabile della tecnologia.
Un esempio di governance dell’AI è l'insieme di politiche, framework e pratiche che organizzazioni e governi implementano per garantire un uso responsabile delle tecnologie di AI. Questi esempi dimostrano in che modo viene attuata la governance dell'AI in contesti diversi:
Il Regolamento generale sulla protezione dei dati (GDPR): il GDPR è un esempio di governance dell’AI, in particolare nel contesto della protezione dei dati personali e della privacy. Sebbene il GDPR non sia esclusivamente incentrato sull'AI, molte delle sue disposizioni sono perfettamente applicabili ai sistemi di AI, in particolare quelli che si occupano del trattamento dei dati personali degli individui all'interno dell'Unione Europea.
I principi dell’Organizzazione per la cooperazione e lo sviluppo economico (OCSE): i principi sull'AI dell'OCSE, adottati da oltre 40 paesi, si riferiscono alla gestione responsabile di un’AI affidabile, includendo la trasparenza, l’equità e la responsabilità nei sistemi di AI.
Comitati aziendali per l'etica dell'AI: molte aziende hanno istituito consigli o comitati etici per supervisionare le iniziative di AI e garantire che siano allineate agli standard etici e ai valori sociali. Ad esempio, dal 2019, l'AI Ethics Council di IBM ha esaminato nuovi prodotti e servizi di AI per garantire che siano in linea con i principi di IBM in materia di AI. Questi comitati includono spesso team interfunzionali con background legale, tecnico e politico.
In un’organizzazione di livello enterprise, il CEO e la leadership senior hanno la responsabilità ultima di garantire che la propria organizzazione applichi una solida governance dell’AI durante tutto il suo ciclo di vita. I consulenti legali e generali sono fondamentali nel valutare e mitigare i rischi legali, garantendo che le applicazioni di AI siano conformi alle leggi e ai regolamenti pertinenti.
I team di audit sono essenziali per convalidare l’integrità dei dati dei sistemi di AI e confermare che i sistemi funzionano come previsto senza introdurre errori o distorsioni. Il CFO supervisiona le implicazioni finanziarie, gestisce i costi associati alle iniziative di AI e mitiga i rischi finanziari.
Tuttavia, la responsabilità della governance dell’AI non spetta a un singolo individuo o dipartimento; è una responsabilità collettiva in cui ogni leader deve dare priorità alla responsabilità e garantire che i sistemi di AI siano utilizzati in modo responsabile ed etico in tutta l’organizzazione.
Il CEO e la leadership senior sono responsabili della definizione del tono e della cultura generali dell’organizzazione. Quando si dà priorità alla governance responsabile dell’AI, si invia a tutti i dipendenti un messaggio chiaro secondo cui ognuno è tenuto a utilizzare l’AI in modo responsabile ed etico. Il CEO e i dirigenti senior possono anche investire nella formazione dei dipendenti sulla governance dell'AI, sviluppare attivamente politiche e procedure interne e creare una cultura di comunicazione e collaborazione aperta.
La governance dell'AI è essenziale per gestire i rapidi progressi delle tecnologie AI, in particolare con l'emergere dell'AI generativa. L’AI generativa, che include tecnologie in grado di creare nuovi contenuti e soluzioni, come testo, immagini e codice, ha un vasto potenziale in molti casi d’uso.
Dal miglioramento dei processi creativi nel design e nei media all’automazione delle attività nello sviluppo di software, l’AI generativa sta trasformando il modo in cui operano le industrie. Tuttavia, la sua ampia applicabilità rende necessaria la creazione di una solida governance dell’AI.
È fondamentale che le organizzazioni seguano i principi per una governance responsabile dell’AI per salvaguardare se stesse e i propri clienti. Questi principi, che possono guidarle nello sviluppo e nell'applicazione etica delle tecnologie AI, comprendono:
Alla fine del 2023, la Casa Bianca ha emesso un ordine esecutivo per contribuire a garantire la sicurezza dell’AI. Questa strategia d'insieme fornisce un framework per la definizione di nuovi standard per gestire i rischi insiti nelle tecnologie AI. I nuovi standard per la sicurezza dell'AI del governo statunitense esemplificano il modo in cui i governi affrontano questo tema estremamente delicato.
Sebbene le normative e le forze di mercato standardizzino molti parametri di governance, le organizzazioni devono ancora determinare come bilanciare al meglio le misure per il proprio business. La misurazione dell’efficacia della governance dell'AI può variare a seconda dell’organizzazione, e ciascuna organizzazione deve decidere a quali aree di interesse dare priorità. Con aree quali la qualità dei dati, la sicurezza dei modelli, l'analisi del rapporto costo-valore, il monitoraggio delle distorsioni, la responsabilità individuale, l'auditing continuo e l'adattabilità a seconda del settore dell'organizzazione, la decisione non può essere unica per tutti.
La governance dell’AI non definisce dei "livelli" universalmente standardizzati come nel caso, ad esempio, dei livelli di risposta alle minacce alla cybersecurity. La governance dell'AI offre invece approcci strutturati e framework sviluppati da varie entità che le organizzazioni possono adottare o adattare alle proprie esigenze specifiche.
Le organizzazioni possono utilizzare diversi framework e linee guida per sviluppare le proprie pratiche di governance. Alcuni dei framework più utilizzati sono il NIST AI Risk Management Framework, i Principi dell'OCSE sull'intelligenza artificiale e le Linee guida etiche per un'AI affidabile della Commissione europea. Questi framework forniscono indicazioni in merito a una serie di aspetti, tra cui trasparenza, responsabilità, equità, privacy e sicurezza.
I livelli di governance possono variare a seconda delle dimensioni dell'organizzazione, della complessità dei sistemi AI in uso e del contesto normativo in cui opera l'organizzazione.
Di seguito, una panoramica di questi approcci:
Si tratta dell'approccio meno intensivo alla governance, basato sui valori e sui principi dell'organizzazione. Potrebbe prevedere alcuni processi informali, come comitati di revisione etica o comitati interni, ma non una struttura o un framework formale per la governance dell’AI.
Si tratta di un passo avanti rispetto alla governance informale e comporta lo sviluppo di politiche e procedure specifiche per lo sviluppo e l'utilizzo dell'AI. Questo tipo di governance viene spesso sviluppato in risposta a sfide o rischi specifici e potrebbe non essere completo o sistematico.
Si tratta del più alto livello di governance e prevede lo sviluppo di un framework completo di governance dell'AI. Questo framework riflette i valori e i principi dell'organizzazione e si allinea alle leggi e ai regolamenti pertinenti. I framework di governance formali includono tipicamente processi di valutazione del rischio, revisione etica e supervisione.
Il concetto di governance dell'AI diventa sempre più vitale man mano che l'automazione, guidata dall'AI, diventa prevalente in settori che vanno dalla sanità e dalla finanza ai trasporti e ai servizi pubblici. Le funzionalità di automazione dell'AI possono migliorare significativamente l'efficienza, i processi decisionali e l'innovazione, ma introducono anche sfide legate alla responsabilità, alla trasparenza e alle considerazioni etiche.
La governance dell’AI implica la creazione di solide strutture di controllo contenenti politiche, linee guida e framework per affrontare queste sfide. Si tratta di istituire meccanismi per monitorare e valutare continuamente i sistemi di AI, assicurandone la conformità alle norme etiche e alle disposizioni di legge stabilite.
Le strutture di governance efficaci nell'ambito dell'AI sono multidisciplinari e coinvolgono stakeholder di vari settori, tra cui la tecnologia, la legge, l'etica e l'economia. Man mano che i sistemi di AI diventano più sofisticati e integrati in aspetti critici della società, il ruolo della governance dell'AI nel guidare e plasmare la traiettoria dello sviluppo dell'AI e il suo impatto sociale diventa sempre più cruciale.
Le best practice in merito alla governance dell'AI comportano un approccio che va oltre la semplice conformità e che comprende un sistema più solido per il monitoraggio e la gestione delle applicazioni di AI. Per le aziende di livello enterprise, la soluzione di governance dell'AI deve consentire un'ampia supervisione e controllo sui sistemi di AI. Ecco un esempio di roadmap da considerare:
Dashboard visiva: utilizza una dashboard che fornisca aggiornamenti in tempo reale sull'integrità e sullo stato dei sistemi di AI e che offra una panoramica chiara per valutazioni rapide.
Metriche del punteggio di integrità: implementa un punteggio di integrità complessivo per i modelli di AI utilizzando metriche intuitive e di facile comprensione per semplificare il monitoraggio.
Monitoraggio automatizzato: utilizza sistemi di rilevamento automatico per distorsioni, derive, prestazioni e anomalie per garantire che i modelli funzionino in modo corretto ed etico.
Avvisi sulle prestazioni: imposta avvisi che si attivano quando un modello si discosta dai suoi parametri prestazionali predefiniti, consentendo interventi tempestivi.
Metriche personalizzate: definisci metriche personalizzate in linea con gli indicatori chiave di prestazione (KPI) e le soglie dell'organizzazione per contribuire a garantire che i risultati dell'AI contribuiscano agli obiettivi aziendali.
Tracce di controllo: mantieni registri e tracce di controllo facilmente accessibili per la responsabilità e per facilitare le revisioni delle decisioni e dei comportamenti dei sistemi di AI.
Compatibilità degli strumenti open source: scegli gli strumenti open source compatibili con varie piattaforme di sviluppo di machine learning per trarre vantaggio dalla flessibilità e dal supporto della community.
Integrazione perfetta: garantisci che la piattaforma di governance dell’AI si integri senza soluzione di continuità con l’infrastruttura esistente, inclusi database ed ecosistemi software, per evitare i silo e consentire workflow efficienti.
Aderendo a queste pratiche, le organizzazioni possono stabilire un solido framework di governance dell’AI che supporti lo sviluppo, l’implementazione e la gestione responsabile dell’AI, contribuendo a garantire che i sistemi di intelligenza artificiale siano conformi e allineati con gli standard etici e gli obiettivi aziendali.
Diversi paesi hanno adottato pratiche di governance e normative in materia di AI per prevenire pregiudizi e discriminazioni. È importante ricordare che la normativa è sempre in evoluzione e le organizzazioni che gestiscono sistemi complessi di AI sono tenute a tenere sotto controllo l'evoluzione dei framework normativi locali.
L'Artificial Intelligence Act dell'Unione Europea, noto anche come EU AI Act o AI Act, è una legge che regolamenta lo sviluppo o l'uso dell'intelligenza artificiale (AI) nell'Unione Europea (EU). La legge adotta un approccio alla regolamentazione basato sul rischio, applicando regole diverse alle AI in base al rischio che rappresentano.
Considerato il primo quadro normativo completo al mondo per l'AI, l'EU AI Act proibisce alcuni usi dell'AI in modo definitivo e implementa rigidi requisiti di governance, gestione del rischio e trasparenza per altri.
L'atto crea anche regole per modelli AI generici, come IBM® Granite e il foundation model open source Llama 3 di Meta. Le sanzioni possono variare da 7,5 milioni di EUR, o l'1,5% del fatturato annuo globale, a 35 milioni di EUR, o il 7% del fatturato annuo mondiale, a seconda del tipo di violazione della conformità.
SR-11-7 è lo standard normativo di governance dei modelli degli Stati Uniti per una governance efficace e solida dei modelli nel settore bancario.1 La normativa prevede che i funzionari delle banche applichino iniziative di gestione del rischio dei modelli a livello aziendale e mantengano un inventario dei modelli implementati per l'uso, in fase di sviluppo per l'implementazione o recentemente ritirati.
I leader delle istituzioni devono inoltre dimostrare che i loro modelli abbiano raggiunto lo scopo commerciale che si proponevano, che siano aggiornati e non abbiano subito derive. Lo sviluppo e la convalida dei modelli devono consentire a chiunque non abbia familiarità con un modello di comprenderne le operazioni, i limiti e i presupposti chiave.
La direttiva canadese sul processo decisionale automatizzato descrive in che modo il governo di questo paese utilizza l'AI per guidare le decisioni in diversi dipartimenti.2 La direttiva utilizza un sistema di scoring per valutare l'intervento umano, la revisione tra pari, il monitoraggio e la pianificazione di emergenza necessari per uno strumento di AI creato per servire i cittadini.
Le organizzazioni che creano soluzioni di AI con un punteggio elevato devono condurre due revisioni tra pari indipendenti, offrire un avviso pubblico in un linguaggio semplice, sviluppare un sistema di sicurezza per l’intervento umano e stabilire corsi di formazione ricorrenti per il sistema. Poiché la Direttiva canadese sul processo decisionale automatizzato costituisce una guida per lo sviluppo dell'AI nel paese, il regolamento non influisce direttamente sulle aziende come fa la SR 11-7 negli Stati Uniti.
Nell'aprile 2021, la Commissione europea ha presentato il suo pacchetto sull'AI, che comprende le dichiarazioni sulla promozione di un approccio europeo all'eccellenza e alla fiducia e una proposta di framework sull'AI.3
In base alle dichiarazioni, anche se la maggior parte dei sistemi di AI rientra nella categoria "rischio minimo", i sistemi di AI identificati come "rischio elevato" dovranno essere conformi ai requisiti più severi e i sistemi ritenuti "rischio inaccettabile" saranno vietati. Le organizzazioni dovranno prestare molta attenzione a queste regole, pena il rischio di sanzioni.
Nel 2023, la Cina ha emanato le sue misure provvisorie per l'amministrazione dei servizi di intelligenza artificiale generativa. Secondo questa legge, la fornitura e l'uso di servizi di AI generativa devono "rispettare i diritti e gli interessi legittimi degli altri" e sono tenuti a "non mettere in pericolo la salute fisica e mentale degli altri e a non violare i diritti di immagine, i diritti alla reputazione, i diritti all'onore, i diritti alla privacy e i diritti sulle informazioni personali degli altri".
Anche altri paesi della regione Asia-Pacifico hanno pubblicato diversi principi e linee guida per regolare l'utilizzo dell’AI. Nel 2019, il governo federale di Singapore ha pubblicato un framework con linee guida per affrontare le questioni di etica dell'AI nel settore privato. Di recente, nel maggio 2024, è stato emanato anche un framework di governance per l'AI generativa. Anche l'India, il Giappone, la Corea del Sud e la Thailandia stanno esplorando linee guida e normative per la governance dell'AI.3
Impara come l’AI Act dell’UE influenzerà le imprese, come prepararti, come mitigare i rischi e come bilanciare regolamentazione e innovazione.
Scopri le nuove sfide dell’AI generativa, la necessità di governare i modelli AI e machine learning (ML) e le fasi per creare un framework AI affidabile, trasparente e spiegabile.
Scopri come promuovere pratiche etiche e conformi con un portfolio di prodotti AI per modelli di AI generativa.
Acquisisci una comprensione più approfondita su come garantire l’equità, gestire la deriva, mantenere la qualità e migliorare la spiegabilità con watsonx.governance.
Gestisci i modelli di AI generativa da qualsiasi luogo ed effettua l'implementazione sul cloud o on-premise con IBM watsonx.governance.
Preparati alla legge europea sull'AI e definisci un approccio di governance dell'AI responsabile con l'aiuto di IBM Consulting.
Semplifica il modo di gestire il rischio e la conformità normativa con una piattaforma GRC unificata.
1 "SR 11-7: Guidance on model risk management"., Board of Governors of the Federal Reserve System Washington, D.C., Division of Banking Supervision and Regulation, 4 aprile 2011.
2 "Canada's new federal directive makes ethical AI a national issue". Digital, 8 marzo 2019.
3 "Asia-Pacific regulations keep pace with rapid evolution of artificial intelligence technology", Sidley, 16 agosto 2024.