Home
topics
AI responsabile
Data di pubblicazione: 6 febbraio 2024
Collaboratore: Cole Stryker
L'intelligenza artificiale (AI) responsabile è un insieme di principi che aiutano a guidare la progettazione, lo sviluppo, l'implementazione e l'uso dell'AI, creando fiducia nelle soluzioni AI che hanno il potenziale per potenziare le organizzazioni e i loro stakeholder. L'AI responsabile implica la considerazione di un impatto sociale più ampio dei sistemi di AI e delle misure necessarie per allineare queste tecnologie ai valori, agli standard giuridici e ai principi etici degli stakeholder. L'AI responsabile mira a incorporare tali principi etici nelle applicazioni e nei workflow dell'AI, per mitigare i rischi e i risultati negativi associati al suo utilizzo, massimizzando i risultati positivi.
Questo articolo mira a fornire una visione generale dell'AI responsabile. Per maggiori informazioni sul punto di vista specifico di IBM, consulta la nostra pagina sull'etica dell'AI.
L'adozione diffusa del machine learning negli anni 2010, alimentata dai progressi nei big data e nella potenza di calcolo, ha portato nuove sfide etiche, come le distorsioni, la trasparenza e l'uso dei dati personali. L'etica dell'AI è emersa come disciplina distinta durante questo periodo, poiché le aziende tecnologiche e gli istituti di ricerca sull'AI hanno cercato di gestire in modo proattivo e responsabile i loro sforzi in materia di AI.
Secondo una ricerca di Accenture: "Solo il 35% dei consumatori globali si fida del modo in cui la tecnologia AI viene implementata dalle organizzazioni. E il 77% ritiene che le organizzazioni debbano essere ritenute responsabili per l'uso improprio dell'AI"1. In questa atmosfera, gli sviluppatori di AI sono incoraggiati ad allineare i loro sforzi con un framework etico di AI solida e coerente.
Ciò vale in particolare per i nuovi tipi di AI generativa che ora vengono rapidamente adottati dalle imprese. I principi dell'AI responsabile possono aiutare gli utenti a sfruttare tutto il potenziale di questi strumenti, riducendo al minimo i risultati indesiderati.
L'AI deve essere affidabile e, affinché gli stakeholder si fidino, deve essere trasparente. Le aziende tecnologiche devono essere chiare su chi addestra i loro sistemi AI, con quali dati e, soprattutto, cosa è stato inserito nelle raccomandazioni per gli algoritmi. Se vogliamo utilizzare l'AI per prendere decisioni importanti, deve essere spiegabile.
Accelera workflow AI responsabili, trasparenti e spiegabili.
IBM ha sviluppato un framework per chiarire questi principi. Diamo un'occhiata alle proprietà che costituiscono i "Pilastri della fiducia". Nel loro insieme, queste proprietà rispondono alla domanda: "Quali requisiti sarebbero necessari per fidarsi dell'output di un modello AI?" L'AI affidabile è un must strategico ed etico per IBM, ma questi pilastri possono essere utilizzati da qualsiasi azienda come guida per il proprio impegno nell'AI.
I modelli di machine learning come le reti neurali stanno raggiungendo una precisione impressionante in varie attività. Ma la spiegabilità e l'interpretabilità sono sempre più essenziali per lo sviluppo di un'AI affidabile. Tre principi costituiscono l'approccio di IBM alla spiegabilità.
L'accuratezza è una componente chiave di un impiego efficace dell'AI nelle operazioni quotidiane. Attraverso l'esecuzione di simulazioni e il confronto tra l'output dell'AI e i risultati del dataset di addestramento, è possibile determinare l'accuratezza delle previsioni. La tecnica più utilizzata per questo è la Local Interpretable Model-Agnostic Explanations (LIME), che spiega la previsione dei classificatori con l'algoritmo di machine learning.
La tracciabilità è una proprietà dell'AI che indica se consente agli utenti di tenere traccia delle sue previsioni e dei suoi processi. Implica la documentazione dei dati e il modo in cui vengono elaborati dai modelli. La tracciabilità è un'altra tecnica chiave per raggiungere la spiegabilità, e si ottiene, ad esempio, limitando il modo in cui si possono prendere decisioni e definendo un ambito più ristretto per regole e funzioni del machine learning.
Questo è il fattore umano. I professionisti devono essere in grado di capire come e perché l'AI trae conclusioni. Ciò si ottiene attraverso la formazione continua.
I modelli di machine learning sono sempre più utilizzati per informare il processo decisionale ad alto rischio che riguarda le persone. Sebbene l'apprendimento automatico, per sua natura, sia una forma di discriminazione statistica, la discriminazione diventa discutibile quando pone gruppi privilegiati in vantaggio sistematico e alcuni gruppi non privilegiati in svantaggio sistematico, causando potenzialmente vari danni. Le distorsioni nei dati di addestramento, dovute a pregiudizi nelle etichette oppure a sotto/sovra campionamento, producono modelli con distorsioni indesiderate.
Dati diversificati e rappresentativi
Assicurati che i dati di addestramento utilizzati per costruire i modelli AI siano diversificati e rappresentativi della popolazione che si intende servire. Includi gli input di dati provenienti da vari gruppi demografici per evitare sottorappresentazioni o distorsioni. Controlla e valuta regolarmente i dati di addestramento per individuare eventuali distorsioni. Utilizza strumenti e metodi per identificare e correggere le distorsioni nel set di dati prima di addestrare il modello.
Algoritmi consapevoli delle distorsioni
Incorpora le metriche di equità nel processo di sviluppo per valutare in che modo i diversi sottogruppi sono influenzati dalle previsioni del modello. Monitora e riduci al minimo le disparità nei risultati tra i vari gruppi demografici. Applica vincoli nell'algoritmo per garantire che il modello aderisca a criteri di equità predefiniti durante l'addestramento e la distribuzione.
Tecniche di mitigazione delle distorsioni
Applica tecniche come il ricampionamento, la riponderazione e l'addestramento antagonistico per mitigare le distorsioni nelle previsioni del modello.
Team di sviluppo diversificati
Riunisci team interdisciplinari e diversificati coinvolti nello sviluppo dell'AI. Team diversificati possono offrire prospettive diverse, aiutando a identificare e correggere distorsioni che possono essere trascurate da team omogenei.
Comitati di revisione etica dell'AI
Istituisci commissioni o comitati di revisione per valutare i potenziali pregiudizi e le implicazioni etiche dei progetti di AI. Questi comitati possono fornire indicazioni su considerazioni etiche durante tutto il ciclo di vita dello sviluppo.
L'AI robusta gestisce in modo efficace condizioni eccezionali, come anomalie nell'input o attacchi dannosi, senza causare danni involontari. È inoltre costruita per resistere alle interferenze intenzionali e non intenzionali proteggendo dalle vulnerabilità esposte. La nostra maggiore dipendenza da questi modelli e il valore che rappresentano come accumulo di conoscenze riservate e proprietarie sono a rischio crescente di attacco. Questi modelli presentano rischi per la sicurezza unici che devono essere presi in considerazione e mitigati.
Gli utenti devono poter vedere come funziona il servizio, valutarne la funzionalità e comprenderne i punti di forza e i limiti. Una maggiore trasparenza fornisce informazioni ai consumatori di AI per comprendere meglio come è stato creato il modello o il servizio AI. Questo aiuta un utente del modello a determinare se è appropriato per un determinato caso d'uso o a valutare come un'AI abbia prodotto conclusioni imprecise o distorte.
Molti framework normativi, tra cui il GDPR, impongono alle organizzazioni di attenersi a determinati principi di privacy quando elaborano le informazioni personali. Una terza parte malintenzionata che abbia accesso a un modello ML addestrato, anche senza accedere ai dati di addestramento stessi, può comunque rivelare informazioni personali sensibili sulle persone i cui dati sono stati utilizzati per addestrare il modello. È fondamentale essere in grado di proteggere i modelli AI che possono contenere informazioni personali e controllare quali dati vengono inseriti nel modello.
L'implementazione delle pratiche di AI responsabile a livello aziendale comporta un approccio olistico, end-to-end, che affronta le varie fasi dello sviluppo e dell'implementazione dell'AI.
Sviluppa una serie di principi di AI responsabile in linea con i valori e gli obiettivi dell'azienda. Consideriamo gli aspetti chiave descritti sopra nei "Pilastri di fiducia". Tali principi possono essere sviluppati e mantenuti da un team dedicato all'etica dell'AI interfunzionale con rappresentanti di diversi dipartimenti, tra cui specialisti di AI, esperti di etica, esperti legali e leader aziendali.
Conduci programmi di formazione per educare i dipendenti, gli stakeholder e i responsabili delle decisioni sulle pratiche di AI responsabile. Ciò include la comprensione delle potenziali distorsioni, le considerazioni etiche e l'importanza di incorporare un'AI responsabile nelle operazioni aziendali.
Incorpora pratiche di AI responsabile in tutta la pipeline del suo sviluppo, dalla raccolta dei dati e dall'addestramento dei modelli all'implementazione e al monitoraggio continuo. Utilizzare tecniche per affrontare e mitigare le distorsioni nei sistemi di AI. Valutare regolarmente l'equità dei modelli, in particolare per quanto riguarda attributi sensibili come etnia, genere o stato socioeconomico. Dare priorità alla trasparenza rendendo spiegabili i sistemi di AI. Fornisci una documentazione chiara su fonti di dati, algoritmi e processi decisionali. Gli utenti e gli stakeholder devono essere in grado di capire come i sistemi di AI prendono le decisioni.
Stabilisci solide pratiche e misure di sicurezza per la governance dei dati e dell'AI per proteggere la privacy degli utenti finali e i dati sensibili. Comunicare in modo chiaro le politiche di utilizzo dei dati, ottenere il consenso informato e rispettare le normative sulla protezione dei dati.
Integra i meccanismi per la supervisione umana nei processi decisionali critici. Definisci chiare linee di responsabilità per garantire che le parti responsabili siano identificate e possano essere ritenute responsabili dei risultati dei sistemi AI. Stabilisci un monitoraggio continuo dei sistemi AI per identificare e affrontare le preoccupazioni etiche, i pregiudizi o i problemi che possono sorgere nel tempo. Verifica regolarmente i modelli AI per valutare la conformità alle linee guida etiche.
Promuovi la collaborazione con organizzazioni esterne, istituti di ricerca e gruppi open source che lavorano sull'AI responsabile. Rimani al corrente degli ultimi sviluppi nelle pratiche e nelle iniziative di AI responsabile e contribuisci agli sforzi di tutto il settore.
L'approccio multidisciplinare e multidimensionale di IBM all'AI affidabile.
Crea workflow AI responsabili, trasparenti e spiegabili.
IBM Consulting aiuta a integrare una governance dell'AI responsabile nel tessuto aziendale.
IBM ha definito pubblicamente il suo approccio multidisciplinare e multidimensionale all'etica dell'AI, basato sui principi di fiducia e trasparenza.
Per oltre un secolo, IBM ha guadagnato la fiducia dei propri clienti gestendo in modo responsabile i loro dati più preziosi e ha lavorato per guadagnarsi la fiducia della società introducendo nel mondo nuove e potenti tecnologie in modo responsabile e con uno scopo chiaro.
L'AI spiegabile (XAI) è un insieme di processi e metodi che consentono agli utenti umani di comprendere e considerare affidabili i risultati e gli output generati mediante algoritmi di machine learning.
1 Technology Vision 2022 (link esterno a ibm.com), Accenture, 2022.