Home topics Governance dell'AI Cos'è la governance dell'AI?
Esplora IBM watsonx.governance
Grafica isometrica di una scatola nera collegata a vari endpoint rappresentati da cubi ombreggiati in modo diverso e da un laptop, la scatola nera ha un'apertura nella parte superiore e i cubi fluttuano al di fuori

Data di pubblicazione: 28 novembre 2023
Autori: Tim Mucci, Cole Stryker

Cos'è la governance dell'AI?

La governance dell'intelligenza artificiale (AI) si riferisce ai guardrail che garantiscono che gli strumenti e i sistemi di AI siano e rimangano sicuri ed etici. Stabilisce i framework, le regole e gli standard che indirizzano la ricerca, lo sviluppo e l'applicazione dell'AI per garantire sicurezza, equità e rispetto dei diritti umani.

 

La governance dell'AI comprende meccanismi di supervisione che si occupano di rischi quali distorsione, violazione della privacy e uso improprio promuovendo innovazione e fiducia. Un approccio etico alla governance dell'AI richiede il coinvolgimento di un'ampia gamma di stakeholder, tra cui sviluppatori di AI, utenti, responsabili politici ed etici, in modo da garantire che i sistemi legati all'AI siano sviluppati e utilizzati in linea con i valori della società.

La governance dell’AI affronta i difetti intrinseci derivanti dall’elemento umano nella creazione e nella gestione dell’AI. Poiché l’AI è un prodotto di codice altamente ingegnerizzato e di machine learning creato da persone, è suscettibile a pregiudizi ed errori umani. La governance fornisce un approccio strutturato per mitigare questi rischi, garantendo che gli algoritmi di machine learning siano monitorati, valutati e aggiornati per prevenire decisioni errate o dannose. 

Le soluzioni di AI devono essere sviluppate e utilizzate in modo responsabile ed etico. Questo significa affrontare i rischi associati all'AI: distorsioni, discriminazione e danni alle persone. La governance affronta questi rischi attraverso solide politiche in materia di AI, regolamentazione, governance dei dati e set di dati ben addestrati e mantenuti.

La governance mira a stabilire la supervisione necessaria per allineare i comportamenti dell’AI agli standard etici e alle aspettative della società e per evitare potenziali impatti negativi.

Guarda IBM watsonx.governance in azione

Scopri in che modo watsonx.governance può rafforzare la tua capacità di mitigare i rischi, gestire i requisiti normativi e affrontare i problemi etici.

Contenuti correlati

Governance dell'AI: garantire che l'AI sia trasparente, conforme e affidabile

IBM AI Governance: automatizza la governance per garantire un'intelligenza artificiale responsabile, trasparente e spiegabile

Perché la governance dell'AI è importante?

La governance dell'AI è essenziale per raggiungere uno stato di conformità, fiducia ed efficienza nello sviluppo e nell'applicazione delle tecnologie di AI. Con la crescente integrazione dell'AI nelle operazioni organizzative e governative, il suo potenziale impatto negativo è diventato più visibile. Passi falsi importanti come l'incidente del chatbot Tay (link esterno a ibm.com), in cui un chatbot di AI di Microsoft ha appreso comportamenti tossici dalle interazioni pubbliche sui social media e le decisioni di condanna distorte del software COMPAS (link esterno a ibm.com) hanno evidenziato la necessità di una solida governance per prevenire i danni e mantenere la fiducia del pubblico.

Questi casi dimostrano che, senza una corretta supervisione, l'AI può causare significativi danni sociali ed etici e sottolineano l'importanza della governance nella gestione dei rischi associati all'AI di livello avanzato. Fornendo linee guida e framework, la governance dell'AI mira a equilibrare l'innovazione tecnologica con la sicurezza, garantendo che i sistemi di AI non violino la dignità o i diritti umani.

Un processo decisionale trasparente e la spiegabilità sono fondamentali per garantire che i sistemi di AI siano utilizzati in modo responsabile. I sistemi di AI prendono continuamente decisioni, ad esempio su quali annunci mostrare o se approvare un prestito o meno. È essenziale comprendere i processi decisionali dei sistemi di AI per ritenerli responsabili delle loro decisioni e garantire che vengano prese in modo equo ed etico.

La governance dell’AI, inoltre, non consiste solo nel garantire la conformità una tantum, ma anche nel sostenere gli standard etici nel tempo. I modelli di AI possono essere soggetti a derive che provocano cambiamenti nella qualità e nell'affidabilità dell'output. Le attuali tendenze nella governance stanno andando oltre la semplice conformità legale per garantire la responsabilità sociale dell’AI, tutelandola così da danni finanziari, legali e reputazionali, promuovendo al tempo stesso la crescita responsabile della tecnologia.

Esempi di governance dell'AI

Un esempio di governance dell’AI è l'insieme di politiche, framework e pratiche che organizzazioni e governi implementano per garantire un uso responsabile delle tecnologie di AI. Questi esempi dimostrano in che modo viene attuata la governance dell'Ai in contesti diversi:

Il Regolamento generale sulla protezione dei dati (GDPR): un esempio di governance dell’AI, in particolare nel contesto della protezione dei dati personali e della privacy. Sebbene il GDPR non sia esclusivamente incentrato sull'AI, molte delle sue disposizioni sono perfettamente applicabili ai sistemi di AI, in particolare quelli che si occupano del trattamento dei dati personali di individui all'interno dell'Unione Europea.

I principi dell’Organizzazione per la cooperazione e lo sviluppo economico (OCSE): adottati da oltre 40 paesi, si riferiscono alla gestione responsabile di un’AI affidabile, includendo la trasparenza, l’equità e la responsabilità nei sistemi di AI.

Comitati aziendali per l'etica dell'AI: molte aziende hanno istituito consigli o comitati etici per supervisionare le iniziative di AI e garantire che siano allineate agli standard etici e ai valori sociali. Ad esempio, IBM ha lanciato un AI Ethics Council per esaminare i nuovi prodotti e servizi AI e garantire che siano in linea con i principi AI di IBM. Questi comitati includono spesso team interfunzionali con background legale, tecnico e politico.

Chi supervisiona la governance responsabile dell'AI?

In un’organizzazione di livello enterprise, il CEO e la leadership senior hanno la responsabilità ultima di garantire che la propria organizzazione applichi una solida governance dell’AI durante tutto il suo ciclo di vita. I consulenti legali e generali sono fondamentali nel valutare e mitigare i rischi legali, garantendo che le applicazioni di AI siano conformi alle leggi e ai regolamenti pertinenti. I team di audit sono essenziali per convalidare l’integrità dei dati dei sistemi di AI e confermare che i sistemi funzionano come previsto senza introdurre errori o distorsioni. Il CFO supervisiona le implicazioni finanziarie, gestisce i costi associati alle iniziative di AI e mitiga i rischi finanziari. 

Tuttavia, la responsabilità della governance dell’AI non spetta a un singolo individuo o dipartimento; è una responsabilità collettiva in cui ogni leader deve dare priorità alla responsabilità e garantire che i sistemi di AI siano utilizzati in modo responsabile ed etico in tutta l’organizzazione. Il CEO e la leadership senior sono responsabili della definizione del tono e della cultura generali dell’organizzazione. Quando si dà priorità alla governance responsabile dell’AI, si invia a tutti i dipendenti un messaggio chiaro secondo cui ognuno è tenuto a utilizzare l’AI in modo responsabile ed etico. Il CEO e i dirigenti senior possono anche investire nella formazione dei dipendenti sulla governance dell'AI, sviluppare attivamente politiche e procedure interne e creare una cultura di comunicazione e collaborazione aperta.

Principi di una governance responsabile dell'AI

La governance dell'AI è essenziale per gestire i rapidi progressi delle tecnologie AI, in particolare con l'emergere dell'AI generativa. L’AI generativa, che include tecnologie in grado di creare nuovi contenuti e soluzioni, come testo, immagini e codice, ha un vasto potenziale in molti casi d’uso. Dal miglioramento dei processi creativi nel design e nei media all’automazione delle attività nello sviluppo di software, l’AI generativa sta trasformando il modo in cui operano le industrie. Tuttavia, la sua ampia applicabilità rende necessaria la creazione di una solida governance dell’AI.

È fondamentale che le organizzazioni seguano i principi per una governance responsabile dell’AI per salvaguardare se stesse e i propri clienti. I principi che possono guidarle nello sviluppo e nell'applicazione etica delle tecnologie di AI sono i seguenti:

  • Empatia: le organizzazioni devono comprendere le implicazioni sociali dell'AI, non solo gli aspetti tecnologici e finanziari. Devono prevedere e gestire l'impatto dell'AI su tutti gli stakeholder.

  • Controllo dei bias: è essenziale esaminare rigorosamente i dati di addestramento per evitare di incorporare distorsioni del mondo reale negli algoritmi di AI, garantendo decisioni giuste e imparziali.

  • Trasparenza: è necessario assicurarsi che gli algoritmi di AI operino, e prendano decisioni, in modo chiaro e aperto e le organizzazioni devono prepararsi a spiegare la logica e il ragionamento alla base dei risultati basati sull'AI.

  • Responsabilità: le organizzazioni devono definire standard elevati e aderirvi in modo proattivo per gestire i cambiamenti significativi che l’AI può apportare, assumendosi la responsabilità del loro impatto.

Alla fine del 2023, la Casa Bianca ha emesso un ordine esecutivo per garantire la sicurezza dell’AI. Questa strategia d'insieme fornisce un framework per la definizione di nuovi standard per gestire i rischi insiti nelle tecnologie AI. I nuovi standard per la sicurezza dell'AI del governo statunitense esemplificano il modo in cui i governi affrontano questo tema estremamente delicato.

  • Sicurezza dell’AI: impone agli sviluppatori di potenti sistemi di AI di condividere i risultati dei test di sicurezza e le informazioni critiche con il governo degli Stati Uniti. Richiede lo sviluppo di standard, strumenti e test per garantire che i sistemi di AI siano sicuri e affidabili​.

  • Tutela della privacy: dà priorità allo sviluppo e all'utilizzo di tecniche di tutela della privacy e rafforza la ricerca e le tecnologie a tutela della privacy. Definisce inoltre le linee guida per le agenzie federali per valutare l'efficacia delle tecniche di tutela della privacy.

  • Equità e diritti civili: impedisce all’AI di esacerbare discriminazioni e pregiudizi in vari settori. Include indicazioni per i locatori e i programmi federali, affronta il problema della discriminazione algoritmica e garantisce l'equità nel sistema di giustizia penale​.

  • Protezione dei consumatori, dei pazienti e degli studenti: contribuisce a promuovere l'AI responsabile nell'assistenza sanitaria e nell'istruzione, ad esempio sviluppando farmaci salvavita e sostenendo strumenti formativi basati sull'AI​.

  • Sostegno ai lavoratori: sviluppa principi per mitigare gli effetti dannosi dell'AI sui luoghi di lavoro, affrontando anche il problema della perdita di posti di lavoro e dell'equità sul posto di lavoro​.

  • Promozione dell'innovazione e della concorrenza: catalizza la ricerca sull'AI negli Stati Uniti, incoraggia un ecosistema di AI equo e competitivo e facilita l'ingresso negli Stati Uniti di professionisti qualificati nel campo dell'AI.​

  • Leadership globale nell’AI: amplia la collaborazione internazionale sull’AI e promuove lo sviluppo e l’implementazione di standard vitali di AI con partner internazionali​.

  • Utilizzo dell’AI da parte del governo: garantisce un’implementazione responsabile dell’AI da parte del governo emanando linee guida per l’uso dell’AI da parte delle agenzie, migliorando il reperimento dell'AI e accelerando l’assunzione di professionisti nel campo dell’AI.

     

  • Sebbene le normative e le forze di mercato standardizzino molti parametri di governance, le organizzazioni devono ancora determinare come bilanciare al meglio le misure per il proprio business. La misurazione dell’efficacia della governance dell’AI può variare a seconda dell’organizzazione, e ciascuna organizzazione deve decidere a quali aree di interesse dare priorità. Con aree quali la qualità dei dati, la sicurezza dei modelli, l'analisi del rapporto costo-valore, il monitoraggio delle distorsioni, la responsabilità individuale, l'auditing continuo e l'adattabilità a seconda del settore dell'organizzazione, la decisione non può essere unica per tutti: catalizza la ricerca sull'AI negli Stati Uniti, incoraggia un ecosistema AI equo e competitivo e facilita l'ingresso negli Stati Uniti di professionisti qualificati nel campo dell'AI.​

Livelli di governance dell'AI

La governance dell’AI non definisce dei "livelli" universalmente standardizzati come nel caso, ad esempio, dei livelli di risposta alle minacce nella cybersecurity. La governance dell'AI offre invece approcci strutturati e framework sviluppati da varie entità che le organizzazioni possono adottare o adattare alle proprie esigenze specifiche.

Le organizzazioni possono utilizzare diversi framework e linee guida per sviluppare le proprie pratiche di governance. Alcuni dei framework più utilizzati sono il NIST AI Risk Management Framework, i Principi dell'OCSE sull'intelligenza artificiale e le Linee guida etiche per un'AI affidabile della Commissione europea. Questi framework forniscono indicazioni in merito a una serie di aspetti, tra cui trasparenza, responsabilità, equità, privacy e sicurezza.

I livelli di governance possono variare a seconda delle dimensioni dell'organizzazione, della complessità dei sistemi AI in uso e del contesto normativo in cui opera l'organizzazione.

Di seguito, una panoramica di questi approcci:

Governance informale

Si tratta dell'approccio meno intensivo alla governance, basato sui valori e sui principi dell'organizzazione. Potrebbe prevedere alcuni processi informali, come comitati di revisione etica o comitati interni, ma non una struttura o un framework formale per la governance dell’AI.

Governance ad hoc

Si tratta di un passo avanti rispetto alla governance informale e comporta lo sviluppo di politiche e procedure specifiche per lo sviluppo e l'utilizzo dell'AI. Questo tipo di governance viene spesso sviluppato in risposta a sfide o rischi specifici e potrebbe non essere completo o sistematico.

Governance formale

Si tratta del più alto livello di governance e prevede lo sviluppo di un framework completo di governance dell'AI. Questo framework riflette i valori e i principi dell'organizzazione e si allinea alle leggi e ai regolamenti pertinenti. I framework di governance formali includono tipicamente processi di valutazione del rischio, revisione etica e supervisione.

Come le organizzazioni stanno implementando la governance dell'AI

Il concetto di governance dell'AI diventa sempre più vitale man mano che l'automazione, guidata dall'AI, diventa prevalente in settori che vanno dalla sanità e dalla finanza ai trasporti e ai servizi pubblici. Le funzionalità di automazione dell'AI possono migliorare significativamente l'efficienza, i processi decisionali e l'innovazione, ma introducono anche sfide legate alla responsabilità, alla trasparenza e alle considerazioni etiche.

La governance dell’AI implica la creazione di solide strutture di controllo contenenti politiche, linee guida e framework per affrontare queste sfide. Si tratta di istituire meccanismi per monitorare e valutare continuamente i sistemi di AI, assicurandone la conformità alle norme etiche e alle disposizioni di legge stabilite.

Le strutture di governance efficaci nell'ambito dell'AI sono multidisciplinari e coinvolgono stakeholder di vari settori, tra cui la tecnologia, la legge, l'etica e l'economia. Man mano che i sistemi di AI diventano più sofisticati e integrati in aspetti critici della società, il ruolo della governance dell'AI nel guidare e plasmare la traiettoria dello sviluppo dell'AI e il suo impatto sociale diventa sempre più cruciale.

Le best practice in merito alla governance dell'AI comportano un approccio che va oltre la semplice conformità e che comprende un sistema più solido per il monitoraggio e la gestione delle applicazioni di AI. Per le aziende di livello enterprise, la soluzione di governance dell'AI deve consentire un'ampia supervisione e controllo sui sistemi di AI. Ecco un esempio di roadmap da considerare:

  1. Dashboard visiva: utilizza una dashboard che fornisca aggiornamenti in tempo reale sull'integrità e sullo stato dei sistemi di AI e che offra una panoramica chiara per valutazioni rapide.

  2. Metriche del punteggio di integrità: implementa un punteggio di integrità complessivo per i modelli di AI utilizzando metriche intuitive e di facile comprensione per semplificare il monitoraggio.

  3. Monitoraggio automatizzato: utilizza sistemi di rilevamento automatico per distorsioni, derive, prestazioni e anomalie per garantire che i modelli funzionino in modo corretto ed etico.

  4. Avvisi sulle prestazioni: imposta avvisi che si attivano quando un modello si discosta dai suoi parametri prestazionali predefiniti, consentendo interventi tempestivi.

  5. Metriche personalizzate: definisci metriche personalizzate in linea con gli indicatori chiave di prestazione (KPI) e le soglie dell'organizzazione per garantire che i risultati dell'AI contribuiscano agli obiettivi aziendali.

  6. Tracce di controllo: mantieni registri e tracce di controllo facilmente accessibili per la responsabilità e per facilitare le revisioni delle decisioni e dei comportamenti dei sistemi di AI.

  7. Compatibilità degli strumenti open source: scegli gli strumenti open-source compatibili con varie piattaforme di sviluppo di machine learning per trarre vantaggio dalla flessibilità e dal supporto della community.

  8. Integrazione perfetta: garantisci che la piattaforma di governance dell’AI si integri senza soluzione di continuità con l’infrastruttura esistente, inclusi database ed ecosistemi software, per evitare i silo e consentire workflow efficienti.

Aderendo a queste pratiche, le organizzazioni possono stabilire un solido framework di governance dell’AI che supporti lo sviluppo, l’implementazione e la gestione responsabile dell’AI, garantendo che i sistemi di intelligenza artificiale siano conformi e allineati con gli standard etici e gli obiettivi aziendali.

Quali normative richiedono la governance dell'AI?

Numerosi paesi hanno adottato pratiche e normative in materia di governance dell’AI per prevenire pregiudizi e discriminazioni. Di seguito sono riportati solo alcuni esempi. È importante ricordare che la normativa è sempre in evoluzione e le organizzazioni che gestiscono sistemi complessi di AI sono tenute a tenere sotto controllo l'evoluzione dei framework locali.

SR-11-7 degli Stati Uniti

SR-11-71 è lo standard normativo di governance dei modelli degli Stati Uniti per una governance efficace e solida dei modelli nel settore bancario. La normativa prevede che i funzionari delle banche applichino iniziative di gestione del rischio dei modelli a livello aziendale e mantengano un inventario dei modelli implementati per l'uso, in fase di sviluppo per l'implementazione o recentemente ritirati. I leader delle istituzioni devono inoltre dimostrare che i loro modelli abbiano raggiunto lo scopo commerciale che si proponevano, che siano aggiornati e non abbiano subito derive. Lo sviluppo e la convalida dei modelli devono consentire a chiunque non abbia familiarità con un modello di comprenderne le operazioni, i limiti e i presupposti chiave.

Direttiva canadese sul processo decisionale automatizzato

La direttiva canadese sul processo decisionale automatizzato2 descrive in che modo il governo di questo paese utilizza l'AI per guidare le decisioni in diversi dipartimenti. La direttiva utilizza un sistema di scoring per valutare l'intervento umano, la revisione tra pari, il monitoraggio e la pianificazione di emergenza necessari per uno strumento di AI creato per servire i cittadini. Le organizzazioni che creano soluzioni di AI con un punteggio elevato devono condurre due revisioni tra pari indipendenti, offrire un avviso pubblico in un linguaggio semplice, sviluppare un sistema di sicurezza per l’intervento umano e stabilire corsi di formazione ricorrenti per il sistema. Poiché la Direttiva canadese sul processo decisionale automatizzato costituisce una guida per lo sviluppo dell'AI nel paese, il regolamento non influisce direttamente sulle aziende come fa la SR 11-7 negli Stati Uniti

L’evoluzione delle normative europee sull’AI

Nell'aprile 2021, la Commissione europea ha presentato il suo pacchetto sull'AI3, che comprende le dichiarazioni sulla promozione di un approccio europeo all'eccellenza e alla fiducia e una proposta di framework sull'AI. In base alle dichiarazioni, anche se la maggior parte dei sistemi di AI rientrerà nella categoria "rischio minimo", i sistemi di AI identificati come "rischio elevato" dovranno essere conformi ai requisiti più severi e i sistemi ritenuti "rischio inaccettabile" saranno vietati. Le organizzazioni dovranno prestare molta attenzione a queste regole, pena il rischio di sanzioni.

    Linee guida per la governance dell'AI nella regione Asia-Pacifico

    Nella regione Asia-Pacifico, i paesi hanno pubblicato diversi principi e linee guida per regolare l'utilizzo dell’AI. Nel 2019, il governo federale di Singapore ha pubblicato un framework con linee guida per affrontare le questioni di etica dell'AI nel settore privato. Il quadro strategico indiano sull'AI raccomanda la creazione di un centro per studiare come affrontare le questioni legate all'etica dell'AI, alla privacy e altro ancora. Anche Cina, Giappone, Corea del Sud, Australia e Nuova Zelanda stanno esplorando delle linee guida per la governance dell’AI.4

    Soluzioni correlate
    watsonx

    Implementa e integra facilmente l'AI nell'intera azienda, gestisci tutte le fonti di dati e accelera i workflow di AI responsabile, tutto su un'unica piattaforma.

    Scopri watsonx

    IBM OpenPages

    Semplifica la governance dei dati, la gestione del rischio e la conformità normativa con IBM OpenPages: una piattaforma GRC unificata altamente scalabile e basata sulla tecnologia AI.

    Esplora OpenPages

    Risorse correlate Crea un workflow responsabile per l'AI

    Il nostro ultimo eBook illustra gli elementi fondamentali della governance dell'AI e condivide un framework dettagliato di governance dell'AI che puoi applicare alla tua organizzazione.

    3 motivi fondamentali per cui la tua organizzazione ha bisogno di un'AI responsabile

    Esplora il potenziale trasformativo dell'AI responsabile per la tua organizzazione e scopri quali sono i fattori cruciali per l'adozione di pratiche etiche di AI.

    La tua AI è affidabile?

    Partecipa alla discussione sul motivo per cui le aziende devono dare priorità alla governance dell'AI per implementare un'AI responsabile.

    Cos'è l'etica dell'IA?

    L'etica dell'AI è un campo multidisciplinare che studia come ottimizzare l'impatto benefico dell'AI riducendo al contempo i rischi e gli esiti negativi. Scopri di più sull'approccio di IBM all'etica dell'AI.

    Che cos'è l'AI spiegabile?

    L'AI spiegabile riveste un ruolo centrale nelle organizzazioni per instaurare fiducia e sicurezza nel momento in cui si inseriscono in produzione i modelli di AI.

    Che cos'è la governance dei dati?

    Scopri come la governance dei dati garantisce alle aziende di ottenere il massimo dai propri asset di dati.

    Fasi successive

    Accelera workflow AI responsabili, trasparenti e spiegabili. Dirigi, gestisci e monitora le attività di AI della tua organizzazione per rafforzare la tua capacità di mitigare i rischi.

    Esplora IBM watsonx.governance
    Note a piè di pagina

    1. “SR 11-7: Guidance on Model Risk Management”. Board of Governors of the Federal Reserve System Washington, D.C., Division of Banking Supervision and Regulation, 4 aprile 2011. 

    2. “Canada's New Federal Directive Makes Ethical AI a National Issue”. Digital, 8 marzo 2019.

    3. "A European approach to artificial intelligence". Commissione Europea, 14 dicembre 2023

    4. “Wrestling With AI Governance Around The World”. Forbes, 27 marzo 2019.