Home topics Etica AI Cos'è l'etica dell'AI?
L'etica dell'AI guida i data scientist e i ricercatori nella creazione di sistemi di AI che rispondano a principi etici e siano vantaggiosi per la società nel suo insieme
Iscriviti alla newsletter di IBM
aurora circolare
Cos'è l'etica dell'AI?

Questo articolo mira a fornire una panoramica completa del mercato dell'etica dell'AI nel settore oggi. Per saperne di più sul punto di vista di IBM, consulta la nostra pagina sull'etica dell'AI qui.

L'etica è un insieme di principi morali che ci aiuta a discernere tra giusto e sbagliato. L'etica dell'AI è un insieme di linee guida che fornisce consigli sulla progettazione e sui risultati dell'AI. Gli esseri umani sono dotati di tutti i tipi di pregiudizi cognitivi, come i pregiudizi di conferma o di preferenza degli eventi recenti rispetto a quelli passati (il cosiddetto "recency bias"), che si manifestano nei nostri comportamenti e, di conseguenza, nei nostri dati. Poiché i dati sono la base di tutti gli algoritmi di machine learning, è importante per noi strutturare gli esperimenti e gli algoritmi tenendone conto, poiché l'AI ha il potenziale di amplificare e ampliare questi pregiudizi umani a una velocità senza precedenti.

Con l'emergere dei big data, le aziende hanno rivolto maggiore attenzione alla promozione dell'automazione e di un processo decisionale basato sui dati in tutte le loro organizzazioni. Sebbene l'intenzione sia di solito, se non sempre, quella di migliorare i risultati di business, le aziende stanno sperimentando conseguenze impreviste in alcune delle loro applicazioni di AI, in particolare a causa di una scarsa progettazione della ricerca iniziale e di set di dati distorti.

Poiché sono venuti alla luce casi di risultati non corretti, sono emerse nuove linee guida, principalmente dalle comunità di ricerca e di data science, per rispondere alle preoccupazioni sull'etica dell'AI. Anche le aziende leader nel campo dell'AI hanno dimostrato un interesse personale nel plasmare queste linee guida, in quanto esse stesse hanno iniziato a sperimentare alcune delle conseguenze del mancato rispetto degli standard etici all'interno dei loro prodotti. Una mancanza di attenzione in quest'area può risultare in un'esposizione reputazionale, normativa e legale, con il risultato di costose sanzioni. Come per tutti i progressi tecnologici, l'innovazione tende a superare la normativa governativa nei nuovi campi emergenti. Man mano che l'esperienza appropriata si sviluppa all'interno del settore governativo, possiamo aspettarci più protocolli AI da seguire per le aziende, permettendo loro di evitare qualsiasi violazione dei diritti umani e delle libertà civili.

Vieni a conoscere watsonx.ai

Moltiplica la potenza dell'AI per la tua azienda con la piattaforma di dati e di AI di prossima generazione di IBM

Fai progredire l'etica dell'AI oggi stesso

Leggi di più su come puoi mettere in pratica i principi etici dell'AI. (326 KB)

Stabilire i principi per l'etica dell'AI

Mentre si sviluppano regole e protocolli per gestire l'uso dell'AI, la comunità accademica si è avvalsa del Rapporto Belmont (PDF, 121 KB - link esterno a ibm.com) come mezzo per orientare l'etica nella ricerca sperimentale e nello sviluppo algoritmico. Ci sono tre principi fondamentali emersi dal Rapporto Belmont che servono come guida per la progettazione di esperimenti e algoritmi, che sono:

  1. Rispetto per le persone: questo principio riconosce l'autonomia degli individui e stabilisce che i ricercatori devono proteggere gli individui con un'autonomia ridotta, che potrebbe essere dovuta a una varietà di circostanze come una malattia, una disabilità mentale o restrizioni fondate sull'età. Questo principio tocca principalmente l'idea di consenso. Gli individui dovrebbero essere consapevoli dei potenziali rischi e benefici di qualsiasi esperimento di cui fanno parte, e dovrebbero essere in grado di scegliere di partecipare o ritirarsi in qualsiasi momento prima e durante l'esperimento.
  2. Beneficenza: questo principio riprende una pagina dell'etica sanitaria, dove i medici fanno il giuramento di "non nuocere". Questa idea può essere facilmente applicata all'AI, dove gli algoritmi possono amplificare i pregiudizi relativi alla razza, al sesso, alle inclinazioni politiche, eccetera, nonostante l'intenzione di fare del bene e migliorare un dato sistema.
  3. Giustizia: questo principio tratta questioni come la congruità e l'equità e la parità. Chi dovrebbe trarre vantaggio dalla sperimentazione e dal machine learning? Il Rapporto Belmont offre cinque modi per ripartire oneri e benefici, che sono:
    • Pari condivisione
    • Esigenza individuale
    • Sforzo individuale
    • Contributo sociale
    • Merito
Link correlati

Etica dell'AI di IBM

Le principali preoccupazioni dell'AI oggi

Ci sono una serie di questioni che sono in prima linea nelle conversazioni etiche che circondano le tecnologie AI. Citiamone qualcuna:

 

Singolarità tecnologica


Anche se questo argomento attira molta attenzione pubblica, molti ricercatori non sono preoccupati dall'idea che l'AI possa superare l'intelligenza umana in un futuro prossimo o immediato. Viene indicata anche come superintelligenza, che Nick Bostrum definisce come "qualsiasi intelletto che supera di gran lunga i migliori cervelli umani praticamente in ogni campo, compresa la creatività scientifica, la saggezza generale e le abilità sociali". Nonostante il fatto che la strong AI e la superintelligenza non siano imminenti nella società, la loro idea solleva alcune domande interessanti quando consideriamo l'uso di sistemi autonomi, come le auto a guida autonoma. Non è realistico pensare che un'auto a guida autonoma non verrà mai coinvolta in un incidente automobilistico; ma, in tali circostanze, chi è responsabile e chi ne risponde? Dovremmo continuare a dedicarci ai veicoli autonomi o limitiamo l'integrazione di questa tecnologia per creare solo veicoli semiautonomi che promuovono la sicurezza tra i conducenti? Non si è arrivati ancora a una conclusione, sull'argomento, ma questi sono i tipi di dibattiti che stanno accompagnando lo sviluppo di nuove e innovative tecnologie di AI.

 

Impatto dell'AI sui posti di lavoro


La percezione dell'opinione pubblica riguardo l'AI è incentrata in larga misura sulla perdita di posti di lavoro, ma questa preoccupazione dovrebbe probabilmente essere riformulata. Come sappiamo, ogni nuova e dirompente tecnologia è accompagnata da una variazione nella domanda di mercato di specifici profili occupazionali. Ad esempio, se guardiamo al settore dell'automotive, noteremo che molti produttori, come la GM, si stanno orientando in misura crescente verso la produzione di veicoli elettrici per allinearsi alle iniziative ecologiche. L'industria energetica non sta scomparendo, ma la fonte di energia si sta spostando da un'economia basata sul carburante ad una basata sull'elettricità. Si dovrebbe guardare all'AI in un modo analogo, in uno scenario in cui l'AI sposterà la domanda di lavori verso altre aree. Sarà necessaria la disponibilità di persone che contribuiscano a gestire questi sistemi, mentre i dati crescono e cambiano ogni giorno. Continueranno a essere necessarie delle risorse per occuparsi dei problemi più complessi nei settori che saranno con maggiore probabilità interessati dai mutamenti nella domanda di lavori, come il servizio clienti. L'aspetto importante dell'AI e il suo effetto sul mercato del lavoro sarà quello di aiutare le persone a eseguire la transizione a queste nuove aree della domanda di mercato.

 

Privacy


La privacy tende a essere discussa nel contesto della privacy, protezione e sicurezza dei dati, e queste preoccupazioni hanno consentito ai responsabili delle politiche di realizzare ulteriori progressi in materia, negli ultimi anni. Ad esempio, nel 2016, è stata creata la legislazione GDPR per proteggere i dati personali dei cittadini dell'Unione europea e dello Spazio economico europeo, dando alle persone un maggior controllo sui loro dati. Negli Stati Uniti, i singoli Stati stanno sviluppando delle politiche, quali il CCPA (California Consumer Privacy Act), che impongono alle aziende di informare i consumatori della raccolta dei loro dati. Questa recente legislazione ha costretto le aziende a riformulare il modo in cui archiviano e usano dati identificabili a livello personale (PII, personally identifiable data). Di conseguenza, gli investimenti nella sicurezza sono diventati una priorità crescente per le aziende nel loro sforzo di eliminare qualsiasi vulnerabilità e opportunità di sorveglianza, hacking e attacchi informatici.

 

Pregiudizi e discriminazione


Casi di pregiudizio e discriminazione in diversi sistemi intelligenti hanno sollevato molte questioni etiche riguardanti l'uso dell'AI. Come possiamo tutelarci dal pregiudizio e dalla discriminazione quando l'addestramento dei dati stesso può prestarsi al pregiudizio? Sebbene le aziende abbiano di solito buone intenzioni nei loro sforzi di automazione, Reuters (link esterno a ibm.com) evidenzia alcune delle conseguenze impreviste dell'integrazione dell'AI nelle pratiche di assunzione. Nel suo sforzo di automatizzare e semplificare un processo, Amazon ha involontariamente introdotto un pregiudizio che colpiva i potenziali candidati ai ruoli tecnici disponibili in base al loro sesso e, alla fine, ha dovuto abbandonare il progetto. Mentre vengono alla luce eventi del genere, la Harvard Business Review (link esterno a ibm.com) ha sollevato altre domande specifiche sull'utilizzo dell'AI nelle procedure di assunzione, ad esempio chiedendosi quali dati si dovrebbe essere in grado di utilizzare quando si valuta un candidato per un ruolo.

Pregiudizi e discriminazione non sono limitati solo alla funzione delle risorse umane; si possono trovare in diverse applicazioni, dal software di riconoscimento facciale agli algoritmi dei social media.

La crescente consapevolezza dei rischi correlati all'AI ha spinto le aziende a partecipare in modo più attivo alla discussione sull'etica e i valori dell'AI. Ad esempio, l'anno scorso, l'amministratore delegato di IBM Arvind Krishna ha decretato l'abbandono dei prodotti di analisi e riconoscimento facciale a uso generico di IBM, sottolineando che "IBM si oppone con fermezza e non giustificherà l'utilizzo di qualsiasi tecnologia, compresa quella di riconoscimento facciale offerta da altri vendor, per la sorveglianza di massa, la profilazione razziale, le violazioni dei diritti e delle libertà umane di base o per qualsiasi scopo che non sia coerente con i nostri valori e i principi di fiducia e trasparenza"

.

Responsabilità


Dato che non esiste una legislazione significativa per regolamentare le prassi di AI, non esiste un vero meccanismo di implementazione per garantire che sia praticata un'AI etica. Gli attuali incentivi per le aziende a rispettare queste linee guida sono le ripercussioni negative di un sistema di AI non etica sui loro utili. Per colmare questa lacuna, sono emersi dei framework etici come parte di una collaborazione tra eticisti e ricercatori per governare la creazione e distribuzione di modelli di AI all'interno della società. Tuttavia, al momento, questi servono solo per fornire un orientamento e la ricerca (link esterno a ibm.com) (PDF, 1 MB) mostra che la combinazione di responsabilità distribuita e mancanza di lungimiranza nelle potenziali conseguenze non è necessariamente favorevole a prevenire danni alla società.

Come stabilire un'etica dell'AI

Dal momento che l'AI non ha dato vita a macchine morali, i team hanno iniziato ad assemblare framework e concetti per affrontare alcune delle attuali preoccupazioni etiche e modellare il futuro del lavoro nel campo. Mentre ogni giorno nuovi argomenti vengono inclusi in queste linee guida, c'è un certo consenso intorno alla necessità di implementare quanto segue:

  • Governance: le aziende possono sfruttare la loro struttura organizzativa esistente per aiutare a gestire un'AI etica. Se un'azienda sta raccogliendo dati, probabilmente ha già stabilito un sistema di governance per facilitare la standardizzazione dei dati e la garanzia di qualità. I team interni di regolamentazione e legali stanno probabilmente già collaborando con i team di governance per garantire la conformità con gli enti governativi, e quindi espandere la portata di questo team per includere un'AI etica è un'estensione naturale delle sue attuali priorità. Questo team può anche gestire la consapevolezza organizzativa e incentivare le parti interessate ad agire in conformità con i valori aziendali e gli standard etici.  
  • Spiegabilità: i modelli di machine learning, in particolare i modelli di deep learning, sono spesso chiamati "modelli a scatola nera" perché di solito non è chiaro come un modello arriva a una determinata decisione. Secondo questa ricerca (link esterno a ibm.com) (PDF, 1,9 MB), la spiegabilità cerca di eliminare questa ambiguità intorno all'assemblaggio del modello e ai risultati del modello generando una "spiegazione comprensibile all'uomo che esprime la logica della macchina".  Questo tipo di trasparenza è importante per suscitare fiducia verso i sistemi di AI per garantire che gli individui capiscano perché un modello sta arrivando ad una determinata decisione. Se riusciamo a capire meglio il perché, saremo meglio attrezzati per evitare i rischi dell'AI, come i pregiudizi e la discriminazione.  

Raggiungere un'AI etica sarà senza dubbio importante per il suo successo. Tuttavia, è importante notare che ha un enorme potenziale di impatto sulla società per il bene. Abbiamo iniziato a vedere questo nella sua integrazione in aree della sanità, come la radiologia. Questa conversazione sull'etica dell'AI serve a garantire che, nel nostro tentativo di sfruttare questa tecnologia per il bene, valutiamo adeguatamente il suo potenziale di danno all'interno del suo design.

Organizzazioni di AI etica

Poiché gli standard etici non sono la preoccupazione principale degli ingegneri e dei data scientist nel settore privato, sono emerse diverse organizzazioni per promuovere la condotta etica nel campo dell'AI. Per coloro che cercano maggiori informazioni, le seguenti organizzazioni e progetti forniscono risorse sull'implementazione dell'AI etica:

  • AlgorithmWatch: questa no-profit si concentra su un algoritmo e un processo decisionale spiegabili e tracciabili nei programmi di AI. Fai clic qui (link esterno a ibm.com) per ulteriori informazioni.
  • AI Now Institute: questa no-profit presso la New York University indaga le implicazioni sociali dell'AI. Fai clic qui (link esterno a ibm.com) per ulteriori informazioni.
  • DARPA: la Defense Advanced Research Projects Agency (link esterno a ibm.com) del Dipartimento della Difesa degli Stati Uniti si concentra sulla promozione dell'AI spiegabile e della ricerca sull'AI.
  • CHAI: il Center for Human-Compatible Artificial Intelligence (link esterno a ibm.com) è una cooperazione di vari istituti e università per promuovere un'AI affidabile e sistemi benefici dimostrabili.
  • NASCAI: la National Security Commission on Artificial Intelligence (link esterno a ibm.com) è una commissione indipendente "che considera i metodi e i mezzi necessari per far progredire lo sviluppo dell'AI, del machine learning e delle tecnologie associate per affrontare in modo completo le esigenze di sicurezza nazionale e di difesa degli Stati Uniti".
Il punto di vista di IBM sull'etica dell'AI

IBM ha anche stabilito il proprio punto di vista sull'etica dell'AI, creando dei principi di fiducia e trasparenza per aiutare i clienti a capire che posto occupano i suoi valori nella conversazione intorno all'AI. IBM ha tre principi fondamentali che dettano il suo approccio ai dati e all'AI, che sono:

  1. Lo scopo dell'AI è quello di supportare l'intelligenza umana. Questo significa che non cerchiamo di sostituire l'intelligenza umana con l'AI, ma di supportarla. Poiché ogni nuova innovazione tecnologica comporta cambiamenti nella domanda e nell'offerta di particolari ruoli lavorativi, IBM si impegna a sostenere i lavoratori in questa transizione investendo in iniziative globali per promuovere la formazione delle competenze intorno a questa tecnologia.
  2. Dati e insight appartengono al loro autore. I clienti IBM possono stare tranquilli che loro, e solo loro, sono proprietari dei loro dati. IBM non ha fornito e non fornirà al governo l'accesso ai dati dei clienti per qualsiasi programma di sorveglianza, e rimane impegnata a proteggere la privacy dei suoi clienti.
  3. I sistemi AI devono essere trasparenti e spiegabili. IBM ritiene che le aziende tecnologiche devono essere chiare su chi addestra i loro sistemi AI, quali dati sono stati utilizzati in tale formazione e, soprattutto, cosa è stato inserito nelle raccomandazioni degli algoritmi.

IBM ha anche sviluppato una serie di aree di attenzione per guidare l'adozione responsabile delle tecnologie AI. Questi aspetti comprendono:

  • Spiegabilità: un sistema AI dovrebbe essere trasparente, in particolare su ciò che è stato inserito nelle raccomandazioni del suo algoritmo, in quanto rilevante per una varietà di parti interessate e per una varietà di motivi.
  • Equità: ci si riferisce all'equo trattamento di individui, o gruppi di individui, da parte di un sistema di AI. Se calibrata correttamente, l'AI può assistere gli umani nel fare scelte più giuste, contrastando i pregiudizi umani e promuovendo l'inclusività.
  • Solidità: i sistemi alimentati dall'AI devono essere attivamente difesi dagli attacchi avversari, riducendo al minimo i rischi di sicurezza e garantendo la fiducia nei risultati del sistema.
  • Trasparenza: per rafforzare la fiducia, gli utenti devono essere in grado di vedere come funziona il servizio, valutare la sua funzionalità e comprendere i suoi punti di forza e i suoi limiti.
  • Privacy: i sistemi di AI devono dare priorità e salvaguardare la privacy dei consumatori e i diritti sui dati e fornire garanzie esplicite agli utenti su come i loro dati personali saranno utilizzati e protetti.

Questi principi e aree di interesse costituiscono il fondamento del nostro approccio all'etica dell'AI. Per saperne di più sulle opinioni di IBM sull'etica e l'AI, leggi qui.

 

Etica dell'AI e IBM

IBM cerca di garantire che i suoi prodotti siano costruiti e utilizzati tenendo conto di linee guida e principi etici. Uno dei prodotti che IBM offre ai suoi clienti è IBM Watson Studio, che migliora la supervisione e il rispetto delle norme etiche dell'AI.

IBM Watson Studio su IBM Cloud Pak for Data aiuta a monitorare e gestire modelli per far funzionare un'AI affidabile. Un'organizzazione può visualizzare e tracciare i modelli AI in produzione, convalidare e testare i modelli per mitigare i rischi normativi e aumentare la visibilità del ciclo di vita dell'AI. Registrati per un IBMid e crea il tuo account IBM gratuito oggi stesso.

Per saperne di più sul punto di vista di IBM sull'etica dell'AI, leggi qui.

 

Soluzioni correlate
IBM Watson Studio

Costruisci, esegui e gestisci i modelli di AI. Prepara dati e crea modelli su qualsiasi cloud utilizzando codice open source o modellazione visiva. Prevedi e ottimizza i tuoi risultati.

Esplora Watson Studio
IBM® Cloud Pak for Data

Cloud Pak for Data è una piattaforma di dati aperta ed estensibile che fornisce una struttura di dati per rendere tutti i dati disponibili per l'AI e l'analytics, su qualsiasi cloud.

Esplora IBM® Cloud Pak for Data
Etica dell'AI di IBM

L'approccio multidisciplinare e multidimensionale di IBM all'AI affidabile

Esplora l'etica dell'AI di IBM
Passa alla fase successiva

IBM cerca di garantire che i suoi prodotti siano costruiti e utilizzati tenendo conto di linee guida e principi etici. Uno dei prodotti che IBM offre ai suoi clienti è IBM Watson Studio, che migliora la supervisione e il rispetto delle norme etiche dell'AI. IBM Watson Studio su IBM Cloud Pak for Data aiuta a monitorare e gestire modelli per far funzionare un'AI affidabile. Un'organizzazione può visualizzare e tracciare i modelli AI in produzione, convalidare e testare i modelli per mitigare i rischi normativi e aumentare la visibilità del ciclo di vita dell'AI.

Scopri di più su IBM Watson Studio