Questo articolo mira a fornire una panoramica completa del mercato dell'etica dell'AI nel settore oggi. Per saperne di più sul punto di vista di IBM, consulta la nostra pagina sull'etica dell'AI qui.
L'etica è un insieme di principi morali che ci aiuta a discernere tra giusto e sbagliato. L'etica dell'AI è un insieme di linee guida che fornisce consigli sulla progettazione e sui risultati dell'AI. Gli esseri umani sono dotati di tutti i tipi di pregiudizi cognitivi, come i pregiudizi di conferma o di preferenza degli eventi recenti rispetto a quelli passati (il cosiddetto "recency bias"), che si manifestano nei nostri comportamenti e, di conseguenza, nei nostri dati. Poiché i dati sono la base di tutti gli algoritmi di machine learning, è importante per noi strutturare gli esperimenti e gli algoritmi tenendone conto, poiché l'AI ha il potenziale di amplificare e ampliare questi pregiudizi umani a una velocità senza precedenti.
Con l'emergere dei big data, le aziende hanno rivolto maggiore attenzione alla promozione dell'automazione e di un processo decisionale basato sui dati in tutte le loro organizzazioni. Sebbene l'intenzione sia di solito, se non sempre, quella di migliorare i risultati di business, le aziende stanno sperimentando conseguenze impreviste in alcune delle loro applicazioni di AI, in particolare a causa di una scarsa progettazione della ricerca iniziale e di set di dati distorti.
Poiché sono venuti alla luce casi di risultati non corretti, sono emerse nuove linee guida, principalmente dalle comunità di ricerca e di data science, per rispondere alle preoccupazioni sull'etica dell'AI. Anche le aziende leader nel campo dell'AI hanno dimostrato un interesse personale nel plasmare queste linee guida, in quanto esse stesse hanno iniziato a sperimentare alcune delle conseguenze del mancato rispetto degli standard etici all'interno dei loro prodotti. Una mancanza di attenzione in quest'area può risultare in un'esposizione reputazionale, normativa e legale, con il risultato di costose sanzioni. Come per tutti i progressi tecnologici, l'innovazione tende a superare la normativa governativa nei nuovi campi emergenti. Man mano che l'esperienza appropriata si sviluppa all'interno del settore governativo, possiamo aspettarci più protocolli AI da seguire per le aziende, permettendo loro di evitare qualsiasi violazione dei diritti umani e delle libertà civili.
Moltiplica la potenza dell'AI per la tua azienda con la piattaforma di dati e di AI di prossima generazione di IBM
Leggi di più su come puoi mettere in pratica i principi etici dell'AI. (326 KB)
Mentre si sviluppano regole e protocolli per gestire l'uso dell'AI, la comunità accademica si è avvalsa del Rapporto Belmont (PDF, 121 KB - link esterno a ibm.com) come mezzo per orientare l'etica nella ricerca sperimentale e nello sviluppo algoritmico. Ci sono tre principi fondamentali emersi dal Rapporto Belmont che servono come guida per la progettazione di esperimenti e algoritmi, che sono:
Etica dell'AI di IBM
Ci sono una serie di questioni che sono in prima linea nelle conversazioni etiche che circondano le tecnologie AI. Citiamone qualcuna:
Anche se questo argomento attira molta attenzione pubblica, molti ricercatori non sono preoccupati dall'idea che l'AI possa superare l'intelligenza umana in un futuro prossimo o immediato. Viene indicata anche come superintelligenza, che Nick Bostrum definisce come "qualsiasi intelletto che supera di gran lunga i migliori cervelli umani praticamente in ogni campo, compresa la creatività scientifica, la saggezza generale e le abilità sociali". Nonostante il fatto che la strong AI e la superintelligenza non siano imminenti nella società, la loro idea solleva alcune domande interessanti quando consideriamo l'uso di sistemi autonomi, come le auto a guida autonoma. Non è realistico pensare che un'auto a guida autonoma non verrà mai coinvolta in un incidente automobilistico; ma, in tali circostanze, chi è responsabile e chi ne risponde? Dovremmo continuare a dedicarci ai veicoli autonomi o limitiamo l'integrazione di questa tecnologia per creare solo veicoli semiautonomi che promuovono la sicurezza tra i conducenti? Non si è arrivati ancora a una conclusione, sull'argomento, ma questi sono i tipi di dibattiti che stanno accompagnando lo sviluppo di nuove e innovative tecnologie di AI.
La percezione dell'opinione pubblica riguardo l'AI è incentrata in larga misura sulla perdita di posti di lavoro, ma questa preoccupazione dovrebbe probabilmente essere riformulata. Come sappiamo, ogni nuova e dirompente tecnologia è accompagnata da una variazione nella domanda di mercato di specifici profili occupazionali. Ad esempio, se guardiamo al settore dell'automotive, noteremo che molti produttori, come la GM, si stanno orientando in misura crescente verso la produzione di veicoli elettrici per allinearsi alle iniziative ecologiche. L'industria energetica non sta scomparendo, ma la fonte di energia si sta spostando da un'economia basata sul carburante ad una basata sull'elettricità. Si dovrebbe guardare all'AI in un modo analogo, in uno scenario in cui l'AI sposterà la domanda di lavori verso altre aree. Sarà necessaria la disponibilità di persone che contribuiscano a gestire questi sistemi, mentre i dati crescono e cambiano ogni giorno. Continueranno a essere necessarie delle risorse per occuparsi dei problemi più complessi nei settori che saranno con maggiore probabilità interessati dai mutamenti nella domanda di lavori, come il servizio clienti. L'aspetto importante dell'AI e il suo effetto sul mercato del lavoro sarà quello di aiutare le persone a eseguire la transizione a queste nuove aree della domanda di mercato.
La privacy tende a essere discussa nel contesto della privacy, protezione e sicurezza dei dati, e queste preoccupazioni hanno consentito ai responsabili delle politiche di realizzare ulteriori progressi in materia, negli ultimi anni. Ad esempio, nel 2016, è stata creata la legislazione GDPR per proteggere i dati personali dei cittadini dell'Unione europea e dello Spazio economico europeo, dando alle persone un maggior controllo sui loro dati. Negli Stati Uniti, i singoli Stati stanno sviluppando delle politiche, quali il CCPA (California Consumer Privacy Act), che impongono alle aziende di informare i consumatori della raccolta dei loro dati. Questa recente legislazione ha costretto le aziende a riformulare il modo in cui archiviano e usano dati identificabili a livello personale (PII, personally identifiable data). Di conseguenza, gli investimenti nella sicurezza sono diventati una priorità crescente per le aziende nel loro sforzo di eliminare qualsiasi vulnerabilità e opportunità di sorveglianza, hacking e attacchi informatici.
Casi di pregiudizio e discriminazione in diversi sistemi intelligenti hanno sollevato molte questioni etiche riguardanti l'uso dell'AI. Come possiamo tutelarci dal pregiudizio e dalla discriminazione quando l'addestramento dei dati stesso può prestarsi al pregiudizio? Sebbene le aziende abbiano di solito buone intenzioni nei loro sforzi di automazione, Reuters (link esterno a ibm.com) evidenzia alcune delle conseguenze impreviste dell'integrazione dell'AI nelle pratiche di assunzione. Nel suo sforzo di automatizzare e semplificare un processo, Amazon ha involontariamente introdotto un pregiudizio che colpiva i potenziali candidati ai ruoli tecnici disponibili in base al loro sesso e, alla fine, ha dovuto abbandonare il progetto. Mentre vengono alla luce eventi del genere, la Harvard Business Review (link esterno a ibm.com) ha sollevato altre domande specifiche sull'utilizzo dell'AI nelle procedure di assunzione, ad esempio chiedendosi quali dati si dovrebbe essere in grado di utilizzare quando si valuta un candidato per un ruolo.
Pregiudizi e discriminazione non sono limitati solo alla funzione delle risorse umane; si possono trovare in diverse applicazioni, dal software di riconoscimento facciale agli algoritmi dei social media.
La crescente consapevolezza dei rischi correlati all'AI ha spinto le aziende a partecipare in modo più attivo alla discussione sull'etica e i valori dell'AI. Ad esempio, l'anno scorso, l'amministratore delegato di IBM Arvind Krishna ha decretato l'abbandono dei prodotti di analisi e riconoscimento facciale a uso generico di IBM, sottolineando che "IBM si oppone con fermezza e non giustificherà l'utilizzo di qualsiasi tecnologia, compresa quella di riconoscimento facciale offerta da altri vendor, per la sorveglianza di massa, la profilazione razziale, le violazioni dei diritti e delle libertà umane di base o per qualsiasi scopo che non sia coerente con i nostri valori e i principi di fiducia e trasparenza"
.
Dato che non esiste una legislazione significativa per regolamentare le prassi di AI, non esiste un vero meccanismo di implementazione per garantire che sia praticata un'AI etica. Gli attuali incentivi per le aziende a rispettare queste linee guida sono le ripercussioni negative di un sistema di AI non etica sui loro utili. Per colmare questa lacuna, sono emersi dei framework etici come parte di una collaborazione tra eticisti e ricercatori per governare la creazione e distribuzione di modelli di AI all'interno della società. Tuttavia, al momento, questi servono solo per fornire un orientamento e la ricerca (link esterno a ibm.com) (PDF, 1 MB) mostra che la combinazione di responsabilità distribuita e mancanza di lungimiranza nelle potenziali conseguenze non è necessariamente favorevole a prevenire danni alla società.
Dal momento che l'AI non ha dato vita a macchine morali, i team hanno iniziato ad assemblare framework e concetti per affrontare alcune delle attuali preoccupazioni etiche e modellare il futuro del lavoro nel campo. Mentre ogni giorno nuovi argomenti vengono inclusi in queste linee guida, c'è un certo consenso intorno alla necessità di implementare quanto segue:
Raggiungere un'AI etica sarà senza dubbio importante per il suo successo. Tuttavia, è importante notare che ha un enorme potenziale di impatto sulla società per il bene. Abbiamo iniziato a vedere questo nella sua integrazione in aree della sanità, come la radiologia. Questa conversazione sull'etica dell'AI serve a garantire che, nel nostro tentativo di sfruttare questa tecnologia per il bene, valutiamo adeguatamente il suo potenziale di danno all'interno del suo design.
Poiché gli standard etici non sono la preoccupazione principale degli ingegneri e dei data scientist nel settore privato, sono emerse diverse organizzazioni per promuovere la condotta etica nel campo dell'AI. Per coloro che cercano maggiori informazioni, le seguenti organizzazioni e progetti forniscono risorse sull'implementazione dell'AI etica:
IBM ha anche stabilito il proprio punto di vista sull'etica dell'AI, creando dei principi di fiducia e trasparenza per aiutare i clienti a capire che posto occupano i suoi valori nella conversazione intorno all'AI. IBM ha tre principi fondamentali che dettano il suo approccio ai dati e all'AI, che sono:
IBM ha anche sviluppato una serie di aree di attenzione per guidare l'adozione responsabile delle tecnologie AI. Questi aspetti comprendono:
Questi principi e aree di interesse costituiscono il fondamento del nostro approccio all'etica dell'AI. Per saperne di più sulle opinioni di IBM sull'etica e l'AI, leggi qui.
IBM cerca di garantire che i suoi prodotti siano costruiti e utilizzati tenendo conto di linee guida e principi etici. Uno dei prodotti che IBM offre ai suoi clienti è IBM Watson Studio, che migliora la supervisione e il rispetto delle norme etiche dell'AI.
IBM Watson Studio su IBM Cloud Pak for Data aiuta a monitorare e gestire modelli per far funzionare un'AI affidabile. Un'organizzazione può visualizzare e tracciare i modelli AI in produzione, convalidare e testare i modelli per mitigare i rischi normativi e aumentare la visibilità del ciclo di vita dell'AI. Registrati per un IBMid e crea il tuo account IBM gratuito oggi stesso.
Per saperne di più sul punto di vista di IBM sull'etica dell'AI, leggi qui.
Costruisci, esegui e gestisci i modelli di AI. Prepara dati e crea modelli su qualsiasi cloud utilizzando codice open source o modellazione visiva. Prevedi e ottimizza i tuoi risultati.
Cloud Pak for Data è una piattaforma di dati aperta ed estensibile che fornisce una struttura di dati per rendere tutti i dati disponibili per l'AI e l'analytics, su qualsiasi cloud.
L'approccio multidisciplinare e multidimensionale di IBM all'AI affidabile