My IBM Accedi Iscriviti

Cos'è la governance dell'AI?

10 ottobre 2024

Autori

Tim Mucci

Writer, Gather

Cole Stryker

Editorial Lead, AI Models, Gather

Cos'è la governance dell'AI?

La governance dell'AI si riferisce ai processi, agli standard e alle misure di sicurezza che contribuiscono a garantire che i sistemi e gli strumenti di AI siano sicuri ed etici. I framework di governance dell'AI orientano la ricerca, lo sviluppo e le applicazioni di AI per garantire sicurezza, equità e rispetto dei diritti umani.

Una governance efficace dell'AI include meccanismi di supervisione che trattano rischi quali distorsioni, violazioni della privacy e uso improprio, promuovendo al contempo l'innovazione e aumentando la fiducia. Un approccio etico alla governance dell'AI richiede il coinvolgimento di un'ampia gamma di stakeholder, tra cui sviluppatori di AI, utenti, responsabili politici ed etici, in modo da garantire che i sistemi legati all'AI siano sviluppati e utilizzati in linea con i valori della società.

La governance dell’AI affronta i difetti intrinseci derivanti dall’elemento umano nella creazione e nella gestione dell’AI. Poiché l'AI è un prodotto di codice altamente ingegnerizzato e di machine learning (ML) creato da persone, è suscettibile di pregiudizi ed errori umani che possono provocare discriminazioni e altri danni agli individui.

La governance fornisce un approccio strutturato per mitigare questi potenziali rischi. Un simile approccio può includere solide politiche, normative e governance dei dati in materia di AI. Queste aiutano a garantire che gli algoritmi di machine learning siano monitorati, valutati e aggiornati per prevenire decisioni errate o dannose e che i set di dati siano ben addestrati e gestiti.

La governance mira anche a stabilire la supervisione necessaria per allineare i comportamenti dell’AI agli standard etici e alle aspettative della società e per evitare potenziali impatti negativi.

Design 3D di palline che rotolano su una pista

Le ultime notizie e insight sull'AI 


Scopri notizie e insight selezionati da esperti in materia di AI, cloud e molto altro nella newsletter settimanale Think. 

Perché la governance dell'AI è importante?

La governance dell'AI è fondamentale per raggiungere uno stato di conformità, fiducia ed efficienza nello sviluppo e nell'applicazione delle tecnologie di AI. Con la crescente integrazione dell'AI nelle operazioni organizzative e governative, il suo potenziale di impatto negativo è diventato più visibile.

Eventi di grande risonanza, come l'incidente del chatbot Tay, in cui un chatbot AI di Microsoft ha appreso comportamenti tossici dalle interazioni pubbliche sui social media, e i giudizi distorti del software COMPAS, hanno messo in evidenza la necessità di una solida governance per prevenire danni e mantenere la fiducia del pubblico.

Questi casi dimostrano che, senza una corretta supervisione, l'AI può causare significativi danni sociali ed etici e sottolineano l'importanza della governance nella gestione dei rischi associati all'AI di livello avanzato. Fornendo linee guida e framework, la governance dell'AI mira a equilibrare l'innovazione tecnologica con la sicurezza, garantendo che i sistemi di AI non violino la dignità o i diritti umani.

Un processo decisionale trasparente e la spiegabilità sono fondamentali anche per garantire che i sistemi di AI siano utilizzati in modo responsabile, oltre che per creare fiducia. I sistemi di AI prendono continuamente decisioni, ad esempio su quali annunci mostrare o se approvare un prestito o meno. È essenziale comprendere i processi decisionali dei sistemi di AI per ritenerli responsabili delle loro decisioni e garantire che vengano prese in modo equo ed etico.

La governance dell’AI, inoltre, non consiste solo nel garantire la conformità una tantum, ma anche nel sostenere gli standard etici nel tempo. I modelli AI possono essere soggetti a derive che provocano cambiamenti nella qualità e nell'affidabilità dell'output. Le attuali tendenze nella governance stanno andando oltre la semplice conformità legale per garantire la responsabilità sociale dell’AI, tutelandola così da danni finanziari, legali e reputazionali, promuovendo al tempo stesso la crescita responsabile della tecnologia.

AI Academy

Fiducia, trasparenza e governance in tema di AI

La fiducia nell’AI è senza dubbio il tema più importante per quanto concerne l'AI. Comprensibilmente, si tratta anche di un tema di estrema complessità. Analizzeremo pertanto aspetti quali le allucinazioni, i bias e i rischi, condividendo spunti e suggerimenti per un'adozione dell'AI che sia etica, responsabile ed equa.

Esempi di governance dell'AI

Un esempio di governance dell’AI è l'insieme di politiche, framework e pratiche che organizzazioni e governi implementano per garantire un uso responsabile delle tecnologie di AI. Questi esempi dimostrano in che modo viene attuata la governance dell'AI in contesti diversi:

Il Regolamento generale sulla protezione dei dati (GDPR): il GDPR è un esempio di governance dell’AI, in particolare nel contesto della protezione dei dati personali e della privacy. Sebbene il GDPR non sia esclusivamente incentrato sull'AI, molte delle sue disposizioni sono perfettamente applicabili ai sistemi di AI, in particolare quelli che si occupano del trattamento dei dati personali degli individui all'interno dell'Unione Europea.

I principi dell’Organizzazione per la cooperazione e lo sviluppo economico (OCSE): i principi sull'AI dell'OCSE, adottati da oltre 40 paesi, si riferiscono alla gestione responsabile di un’AI affidabile, includendo la trasparenza, l’equità e la responsabilità nei sistemi di AI.

Comitati aziendali per l'etica dell'AI: molte aziende hanno istituito consigli o comitati etici per supervisionare le iniziative di AI e garantire che siano allineate agli standard etici e ai valori sociali. Ad esempio, dal 2019, l'AI Ethics Council di IBM ha esaminato nuovi prodotti e servizi di AI per garantire che siano in linea con i principi di IBM in materia di AI. Questi comitati includono spesso team interfunzionali con background legale, tecnico e politico.  

Chi supervisiona la governance responsabile dell'AI?

In un’organizzazione di livello enterprise, il CEO e la leadership senior hanno la responsabilità ultima di garantire che la propria organizzazione applichi una solida governance dell’AI durante tutto il suo ciclo di vita. I consulenti legali e generali sono fondamentali nel valutare e mitigare i rischi legali, garantendo che le applicazioni di AI siano conformi alle leggi e ai regolamenti pertinenti. 

I team di audit sono essenziali per convalidare l’integrità dei dati dei sistemi di AI e confermare che i sistemi funzionano come previsto senza introdurre errori o distorsioni. Il CFO supervisiona le implicazioni finanziarie, gestisce i costi associati alle iniziative di AI e mitiga i rischi finanziari. 

Tuttavia, la responsabilità della governance dell’AI non spetta a un singolo individuo o dipartimento; è una responsabilità collettiva in cui ogni leader deve dare priorità alla responsabilità e garantire che i sistemi di AI siano utilizzati in modo responsabile ed etico in tutta l’organizzazione.

Il CEO e la leadership senior sono responsabili della definizione del tono e della cultura generali dell’organizzazione. Quando si dà priorità alla governance responsabile dell’AI, si invia a tutti i dipendenti un messaggio chiaro secondo cui ognuno è tenuto a utilizzare l’AI in modo responsabile ed etico. Il CEO e i dirigenti senior possono anche investire nella formazione dei dipendenti sulla governance dell'AI, sviluppare attivamente politiche e procedure interne e creare una cultura di comunicazione e collaborazione aperta.

Principi e standard per una governance responsabile dell'AI

La governance dell'AI è essenziale per gestire i rapidi progressi delle tecnologie AI, in particolare con l'emergere dell'AI generativa. L’AI generativa, che include tecnologie in grado di creare nuovi contenuti e soluzioni, come testo, immagini e codice, ha un vasto potenziale in molti casi d’uso.

Dal miglioramento dei processi creativi nel design e nei media all’automazione delle attività nello sviluppo di software, l’AI generativa sta trasformando il modo in cui operano le industrie. Tuttavia, la sua ampia applicabilità rende necessaria la creazione di una solida governance dell’AI.

È fondamentale che le organizzazioni seguano i principi per una governance responsabile dell’AI per salvaguardare se stesse e i propri clienti. Questi principi, che possono guidarle nello sviluppo e nell'applicazione etica delle tecnologie AI, comprendono:

  • Empatia: le organizzazioni devono comprendere le implicazioni sociali dell'AI, non solo gli aspetti tecnologici e finanziari. Devono prevedere e gestire l'impatto dell'AI su tutti gli stakeholder.

  • Controllo dei bias: è essenziale esaminare rigorosamente i dati di addestramento per evitare di incorporare distorsioni del mondo reale negli algoritmi di AI, contribuendo a garantire processi decisionali giusti e imparziali.

  • Trasparenza: è necessario assicurarsi che gli algoritmi di AI operino, e prendano decisioni, in modo chiaro e aperto e le organizzazioni devono prepararsi a spiegare la logica e il ragionamento alla base dei risultati basati sull'AI.

  • Responsabilità: le organizzazioni devono definire standard elevati e aderirvi in modo proattivo per gestire i cambiamenti significativi che l’AI può apportare, assumendosi la responsabilità del loro impatto.

Alla fine del 2023, la Casa Bianca ha emesso un ordine esecutivo per contribuire a garantire la sicurezza dell’AI. Questa strategia d'insieme fornisce un framework per la definizione di nuovi standard per gestire i rischi insiti nelle tecnologie AI. I nuovi standard per la sicurezza dell'AI del governo statunitense esemplificano il modo in cui i governi affrontano questo tema estremamente delicato.

  • Sicurezza dell’AI: impone agli sviluppatori di potenti sistemi di AI di condividere i risultati dei test di sicurezza e le informazioni critiche con il governo degli Stati Uniti. Richiede lo sviluppo di standard, strumenti e test per contribuire a garantire che i sistemi di AI siano sicuri e affidabili​.

  • Tutela della privacy: dà priorità allo sviluppo e all'utilizzo di tecniche di tutela della privacy e rafforza la ricerca e le tecnologie a tutela della privacy. Definisce inoltre le linee guida per le agenzie federali per valutare l'efficacia delle tecniche di tutela della privacy.
  • Equità e diritti civili: impedisce all’AI di esacerbare discriminazioni e pregiudizi in vari settori. Include indicazioni per i locatori e i programmi federali, affronta il problema della discriminazione algoritmica e aiuta a garantire l'equità nel sistema di giustizia penale​.

  • Protezione dei consumatori, dei pazienti e degli studenti: contribuisce a promuovere l'AI responsabile nell'assistenza sanitaria e nell'istruzione, ad esempio sviluppando farmaci salvavita e sostenendo strumenti formativi basati sull'AI.

  • Sostegno ai lavoratori: sviluppa principi per mitigare gli effetti dannosi dell'AI sui luoghi di lavoro, affrontando anche il problema della perdita di posti di lavoro e dell'equità sul posto di lavoro​.
  • Promozione dell'innovazione e della concorrenza: catalizza la ricerca sull'AI negli Stati Uniti, incoraggia un ecosistema di AI equo e competitivo e facilita l'ingresso negli Stati Uniti di professionisti qualificati nel campo dell'AI.​

  • Leadership globale nell'AI: amplia la collaborazione internazionale sull’AI e promuove lo sviluppo e l’implementazione di standard vitali di AI con partner internazionali​.

  • Utilizzo dell’AI da parte del governo: aiuta a garantire un’implementazione responsabile dell’AI da parte del governo emanando linee guida per l’uso dell’AI da parte delle agenzie, migliorando il reperimento dell'AI e accelerando l’assunzione di professionisti nel campo dell’AI.

Sebbene le normative e le forze di mercato standardizzino molti parametri di governance, le organizzazioni devono ancora determinare come bilanciare al meglio le misure per il proprio business. La misurazione dell’efficacia della governance dell'AI può variare a seconda dell’organizzazione, e ciascuna organizzazione deve decidere a quali aree di interesse dare priorità. Con aree quali la qualità dei dati, la sicurezza dei modelli, l'analisi del rapporto costo-valore, il monitoraggio delle distorsioni, la responsabilità individuale, l'auditing continuo e l'adattabilità a seconda del settore dell'organizzazione, la decisione non può essere unica per tutti.

Livelli di governance dell'AI

La governance dell’AI non definisce dei "livelli" universalmente standardizzati come nel caso, ad esempio, dei livelli di risposta alle minacce alla cybersecurity. La governance dell'AI offre invece approcci strutturati e framework sviluppati da varie entità che le organizzazioni possono adottare o adattare alle proprie esigenze specifiche.

Le organizzazioni possono utilizzare diversi framework e linee guida per sviluppare le proprie pratiche di governance. Alcuni dei framework più utilizzati sono il NIST AI Risk Management Framework, i Principi dell'OCSE sull'intelligenza artificiale e le Linee guida etiche per un'AI affidabile della Commissione europea. Questi framework forniscono indicazioni in merito a una serie di aspetti, tra cui trasparenza, responsabilità, equità, privacy e sicurezza.

I livelli di governance possono variare a seconda delle dimensioni dell'organizzazione, della complessità dei sistemi AI in uso e del contesto normativo in cui opera l'organizzazione.

Di seguito, una panoramica di questi approcci:

Governance informale

Si tratta dell'approccio meno intensivo alla governance, basato sui valori e sui principi dell'organizzazione. Potrebbe prevedere alcuni processi informali, come comitati di revisione etica o comitati interni, ma non una struttura o un framework formale per la governance dell’AI.

Governance ad hoc

Si tratta di un passo avanti rispetto alla governance informale e comporta lo sviluppo di politiche e procedure specifiche per lo sviluppo e l'utilizzo dell'AI. Questo tipo di governance viene spesso sviluppato in risposta a sfide o rischi specifici e potrebbe non essere completo o sistematico.

Governance formale

Si tratta del più alto livello di governance e prevede lo sviluppo di un framework completo di governance dell'AI. Questo framework riflette i valori e i principi dell'organizzazione e si allinea alle leggi e ai regolamenti pertinenti. I framework di governance formali includono tipicamente processi di valutazione del rischio, revisione etica e supervisione.

Come le organizzazioni stanno implementando la governance dell'AI

Il concetto di governance dell'AI diventa sempre più vitale man mano che l'automazione, guidata dall'AI, diventa prevalente in settori che vanno dalla sanità e dalla finanza ai trasporti e ai servizi pubblici. Le funzionalità di automazione dell'AI possono migliorare significativamente l'efficienza, i processi decisionali e l'innovazione, ma introducono anche sfide legate alla responsabilità, alla trasparenza e alle considerazioni etiche.

La governance dell’AI implica la creazione di solide strutture di controllo contenenti politiche, linee guida e framework per affrontare queste sfide. Si tratta di istituire meccanismi per monitorare e valutare continuamente i sistemi di AI, assicurandone la conformità alle norme etiche e alle disposizioni di legge stabilite.

Le strutture di governance efficaci nell'ambito dell'AI sono multidisciplinari e coinvolgono stakeholder di vari settori, tra cui la tecnologia, la legge, l'etica e l'economia. Man mano che i sistemi di AI diventano più sofisticati e integrati in aspetti critici della società, il ruolo della governance dell'AI nel guidare e plasmare la traiettoria dello sviluppo dell'AI e il suo impatto sociale diventa sempre più cruciale.

Le best practice in merito alla governance dell'AI comportano un approccio che va oltre la semplice conformità e che comprende un sistema più solido per il monitoraggio e la gestione delle applicazioni di AI. Per le aziende di livello enterprise, la soluzione di governance dell'AI deve consentire un'ampia supervisione e controllo sui sistemi di AI. Ecco un esempio di roadmap da considerare:

  1. Dashboard visiva: utilizza una dashboard che fornisca aggiornamenti in tempo reale sull'integrità e sullo stato dei sistemi di AI e che offra una panoramica chiara per valutazioni rapide.
     

  2. Metriche del punteggio di integrità: implementa un punteggio di integrità complessivo per i modelli di AI utilizzando metriche intuitive e di facile comprensione per semplificare il monitoraggio.
     

  3. Monitoraggio automatizzato: utilizza sistemi di rilevamento automatico per distorsioni, derive, prestazioni e anomalie per garantire che i modelli funzionino in modo corretto ed etico.
     

  4. Avvisi sulle prestazioni: imposta avvisi che si attivano quando un modello si discosta dai suoi parametri prestazionali predefiniti, consentendo interventi tempestivi.
     

  5. Metriche personalizzate: definisci metriche personalizzate in linea con gli indicatori chiave di prestazione (KPI) e le soglie dell'organizzazione per contribuire a garantire che i risultati dell'AI contribuiscano agli obiettivi aziendali.
     

  6. Tracce di controllo: mantieni registri e tracce di controllo facilmente accessibili per la responsabilità e per facilitare le revisioni delle decisioni e dei comportamenti dei sistemi di AI.
     

  7. Compatibilità degli strumenti open source: scegli gli strumenti open source compatibili con varie piattaforme di sviluppo di machine learning per trarre vantaggio dalla flessibilità e dal supporto della community.
     

  8. Integrazione perfetta: garantisci che la piattaforma di governance dell’AI si integri senza soluzione di continuità con l’infrastruttura esistente, inclusi database ed ecosistemi software, per evitare i silo e consentire workflow efficienti.
     

Aderendo a queste pratiche, le organizzazioni possono stabilire un solido framework di governance dell’AI che supporti lo sviluppo, l’implementazione e la gestione responsabile dell’AI, contribuendo a garantire che i sistemi di intelligenza artificiale siano conformi e allineati con gli standard etici e gli obiettivi aziendali.

Quali normative richiedono la governance dell'AI?

Diversi paesi hanno adottato pratiche di governance e normative in materia di AI per prevenire pregiudizi e discriminazioni. È importante ricordare che la normativa è sempre in evoluzione e le organizzazioni che gestiscono sistemi complessi di AI sono tenute a tenere sotto controllo l'evoluzione dei framework normativi locali.

L'EU AI Act

L'Artificial Intelligence Act dell'Unione Europea, noto anche come EU AI Act o AI Act, è una legge che regolamenta lo sviluppo o l'uso dell'intelligenza artificiale (AI) nell'Unione Europea (EU). La legge adotta un approccio alla regolamentazione basato sul rischio, applicando regole diverse alle AI in base al rischio che rappresentano.

Considerato il primo quadro normativo completo al mondo per l'AI, l'EU AI Act proibisce alcuni usi dell'AI in modo definitivo e implementa rigidi requisiti di governance, gestione del rischio e trasparenza per altri.

L'atto crea anche regole per modelli AI generici, come IBM® Granite e il foundation model open source Llama 3 di Meta. Le sanzioni possono variare da 7,5 milioni di EUR, o l'1,5% del fatturato annuo globale, a 35 milioni di EUR, o il 7% del fatturato annuo mondiale, a seconda del tipo di violazione della conformità.

L'SR-11-7 degli Stati Uniti

SR-11-7 è lo standard normativo di governance dei modelli degli Stati Uniti per una governance efficace e solida dei modelli nel settore bancario.La normativa prevede che i funzionari delle banche applichino iniziative di gestione del rischio dei modelli a livello aziendale e mantengano un inventario dei modelli implementati per l'uso, in fase di sviluppo per l'implementazione o recentemente ritirati.

I leader delle istituzioni devono inoltre dimostrare che i loro modelli abbiano raggiunto lo scopo commerciale che si proponevano, che siano aggiornati e non abbiano subito derive. Lo sviluppo e la convalida dei modelli devono consentire a chiunque non abbia familiarità con un modello di comprenderne le operazioni, i limiti e i presupposti chiave.

Direttiva canadese sul processo decisionale automatizzato

La direttiva canadese sul processo decisionale automatizzato descrive in che modo il governo di questo paese utilizza l'AI per guidare le decisioni in diversi dipartimenti.2 La direttiva utilizza un sistema di scoring per valutare l'intervento umano, la revisione tra pari, il monitoraggio e la pianificazione di emergenza necessari per uno strumento di AI creato per servire i cittadini.

Le organizzazioni che creano soluzioni di AI con un punteggio elevato devono condurre due revisioni tra pari indipendenti, offrire un avviso pubblico in un linguaggio semplice, sviluppare un sistema di sicurezza per l’intervento umano e stabilire corsi di formazione ricorrenti per il sistema. Poiché la Direttiva canadese sul processo decisionale automatizzato costituisce una guida per lo sviluppo dell'AI nel paese, il regolamento non influisce direttamente sulle aziende come fa la SR 11-7 negli Stati Uniti.

L’evoluzione delle normative europee sull’AI

Nell'aprile 2021, la Commissione europea ha presentato il suo pacchetto sull'AI, che comprende le dichiarazioni sulla promozione di un approccio europeo all'eccellenza e alla fiducia e una proposta di framework sull'AI.3

In base alle dichiarazioni, anche se la maggior parte dei sistemi di AI rientra nella categoria "rischio minimo", i sistemi di AI identificati come "rischio elevato" dovranno essere conformi ai requisiti più severi e i sistemi ritenuti "rischio inaccettabile" saranno vietati. Le organizzazioni dovranno prestare molta attenzione a queste regole, pena il rischio di sanzioni.

    Normative e linee guida per la governance dell'AI nella regione Asia-Pacifico

    Nel 2023, la Cina ha emanato le sue misure provvisorie per l'amministrazione dei servizi di intelligenza artificiale generativa. Secondo questa legge, la fornitura e l'uso di servizi di AI generativa devono "rispettare i diritti e gli interessi legittimi degli altri" e sono tenuti a "non mettere in pericolo la salute fisica e mentale degli altri e a non violare i diritti di immagine, i diritti alla reputazione, i diritti all'onore, i diritti alla privacy e i diritti sulle informazioni personali degli altri".

    Anche altri paesi della regione Asia-Pacifico hanno pubblicato diversi principi e linee guida per regolare l'utilizzo dell’AI. Nel 2019, il governo federale di Singapore ha pubblicato un framework con linee guida per affrontare le questioni di etica dell'AI nel settore privato. Di recente, nel maggio 2024, è stato emanato anche un framework di governance per l'AI generativa. Anche l'India, il Giappone, la Corea del Sud e la Thailandia stanno esplorando linee guida e normative per la governance dell'AI.3

    Soluzioni correlate

    Soluzioni correlate

    IBM watsonx.governance™

    Gestisci i modelli di AI generativa da qualsiasi luogo ed effettua l'implementazione sul cloud o on-premise con IBM watsonx.governance.

    Scopri watsonx.governance
    Servizi di consulenza sulla governance dell'AI

    Preparati alla legge europea sull'AI e definisci un approccio di governance dell'AI responsabile con l'aiuto di IBM Consulting.

    Esplora i servizi di governance per l'AI
    IBM OpenPages

    Semplifica il modo di gestire il rischio e la conformità normativa con una piattaforma GRC unificata.

    Esplora OpenPages
    Fai il passo successivo

    Indirizza, gestisci e monitora la tua AI con un singolo portfolio per sviluppare un'AI responsabile, trasparente e spiegabile.

    Esplora watsonx.governance Prenota una demo live
    Note a piè di pagina

    1 "SR 11-7: Guidance on model risk management"., Board of Governors of the Federal Reserve System Washington, D.C., Division of Banking Supervision and Regulation, 4 aprile 2011. 

    2 "Canada's new federal directive makes ethical AI a national issue". Digital, 8 marzo 2019.

    3 "Asia-Pacific regulations keep pace with rapid evolution of artificial intelligence technology", Sidley, 16 agosto 2024.