L'etica è un insieme di principi morali che ci aiutano a distinguere tra giusto e sbagliato. L'etica dell'AI è un campo multidisciplinare che studia come ottimizzare l'impatto benefico dell'AI riducendo al contempo i rischi e gli esiti negativi.
Esempi di questioni etiche in materia di AI sono la responsabilità e la privacy dei dati, l'equità, la spiegabilità, la solidità, la trasparenza, la sostenibilità ambientale, l'inclusione, l'agire morale, l'allineamento dei valori, la responsabilità, la fiducia e l'uso improprio della tecnologia. Questo articolo si propone di fornire una visione completa dell'etica dell'AI nel settore attuale. Per maggiori informazioni sul punto di vista di IBM, consulta la nostra pagina sull'etica dell'AI qui.
Con l'emergere dei big data, le aziende si sono concentrate maggiormente sulla promozione dell'automazione e del processo decisionale basato sui dati in tutte le loro organizzazioni. Sebbene l'intento sia solitamente, se non sempre, quello di migliorare i risultati aziendali, le aziende stanno riscontrando conseguenze impreviste in alcune applicazioni di AI, in particolare a causa di una progettazione della ricerca iniziale scadente e di set di dati distorti.
Con l'emergere di casi di risultati ingiusti, sono emerse nuove linee guida, principalmente dalle comunità della ricerca e della data science, per affrontare le preoccupazioni relative all'etica dell'AI. Anche le aziende leader nel campo dell'AI sono interessate alla definizione di queste linee guida, in quanto hanno iniziato a sperimentare alcune delle conseguenze derivanti dal mancato rispetto degli standard etici nei loro prodotti. La mancanza di diligenza in questo settore può comportare un danno a livello reputazionale, normativo e legale, con conseguenti pesanti sanzioni. Come per tutti i progressi tecnologici, nei nuovi campi emergenti l'innovazione tende a superare la regolamentazione governativa. Con lo sviluppo di competenze adeguate all'interno del settore pubblico, possiamo aspettarci che le aziende seguano un maggior numero di protocolli sull'AI, che consentano loro di evitare qualsiasi violazione dei diritti umani e delle libertà civili.
Accelera workflow responsabili, trasparenti e spiegabili per l'AI generativa costruita su piattaforme di terze parti.
Registrati per ricevere l'ebook sugli storage dei dati AI
Scopri come utilizzare i database giusti per le applicazioni, l'analytics e l'AI generativa
Mentre si sviluppano regole e protocolli per gestire l'uso dell'AI, la comunità accademica ha fatto leva sul Belmont Report (link esterno a ibm.com) come mezzo per guidare l'etica nell'ambito della ricerca sperimentale e dello sviluppo algoritmico. Dal Belmont Report emergono tre principi fondamentali che servono da guida per la progettazione di esperimenti e algoritmi:
Etica dell'AI IBM
Cinque passaggi per l'implementazione di pratiche di sicurezza algoritmiche
Ci sono una serie di questioni che sono in prima linea nelle conversazioni etiche che riguardano le tecnologie AI nel mondo reale. Alcune di queste includono:
Il rilascio di ChatGPT nel 2022 ha segnato un vero punto di svolta per l'intelligenza artificiale. Le capacità del chatbot di OpenAI, dalla scrittura di note legali al debug del codice, hanno aperto una nuova costellazione di possibilità su ciò che l'AI può fare e su come può essere applicata in quasi tutti i settori. ChatGPT e altri strumenti simili si basano su foundation model, modelli AI che possono essere adattati a un'ampia gamma di attività a valle. I foundation model sono in genere modelli generativi su larga scala, costituiti da miliardi di parametri, che vengono addestrati su dati non etichettati utilizzando l'auto-supervisione. Questa consente ai foundation model di applicare rapidamente ciò che hanno appreso in un contesto a un altro, il che li rende altamente adattabili e in grado di eseguire un'ampia varietà di attività diverse. Tuttavia, ci sono molti potenziali problemi e preoccupazioni etiche intorno ai foundation model che sono comunemente riconosciuti nell'industria tecnologica, come i bias, la generazione di contenuti falsi, la mancanza di spiegabilità, l'uso improprio e l'impatto sociale. Molte di queste questioni sono rilevanti per l'AI in generale, ma assumono una nuova urgenza alla luce della potenza e della disponibilità dei foundation model.
Sebbene questo argomento generi molta attenzione pubblica, molti ricercatori non sono preoccupati dall'idea che l'AI superi l'intelligenza umana nel prossimo futuro. Questo fenomeno è anche definito superintelligenza, che Nick Bostrum definisce come "qualsiasi intelletto che superi di gran lunga i migliori cervelli umani praticamente in ogni campo, tra cui la creatività scientifica, la saggezza generale e le abilità sociali". Nonostante la Strong AI e la superintelligenza non siano imminenti nella società, la sua idea solleva alcune domande interessanti quando consideriamo l'uso di sistemi autonomi, come le auto a guida autonoma. È irrealistico pensare che un'auto senza conducente non avrà mai un incidente, ma chi sarebbe responsabile in tali circostanze? Dovremmo sviluppare comunque veicoli autonomi o limitare l'integrazione di questa tecnologia per creare solo veicoli semi-autonomi che promuovano la sicurezza dei conducenti? Su questo ancora non c'è un verdetto, ma questi sono i tipi di dibattiti etici che si verificano con lo sviluppo di tecnologie di AI innovative.
Sebbene la percezione pubblica dell'intelligenza artificiale sia incentrata sulla perdita di posti di lavoro, questa preoccupazione dovrebbe essere riformulata. Come ogni nuova tecnologia dirompente, vedremo che la domanda di mercato per specifiche posizioni lavorative cambierà. Guardiamo ad esempio al settore automobilistico, dove molti produttori, come GM, si stanno concentrando sulla produzione di veicoli elettrici per allinearsi alle iniziative ecologiche. Il settore energetico non scomparirà, ma le fonti di energia si stanno spostando dal risparmio di carburante all'energia elettrica. L'intelligenza artificiale dovrebbe essere vista in modo simile, ovvero destinata a reindirizzare la domanda di posti di lavoro verso altri settori. Ci sarà bisogno di persone che aiutino a gestire questi sistemi man mano che i dati crescono e cambiano ogni giorno. Ci sarà ancora bisogno di persone che aiutino ad affrontare problemi più complessi all'interno dei settori che, con più probabilità, saranno interessati dai cambiamenti della domanda di lavoro, come il servizio clienti. L'aspetto importante dell'intelligenza artificiale e il suo effetto sul mercato del lavoro aiuteranno le persone a passare a queste nuove aree di domanda del mercato.
La privacy tende a essere discussa nel contesto della privacy, della protezione e della sicurezza dei dati e queste preoccupazioni hanno permesso ai responsabili politici di fare più passi avanti in questo senso negli ultimi anni. Ad esempio, nel 2016 è stata creata la normativa GDPR a tutela dei dati personali dei residenti dell'Unione Europea e dello Spazio Economico Europeo, offrendo agli utenti un maggiore controllo sui propri dati. Negli Stati Uniti, i singoli stati stanno sviluppando politiche come il California Consumer Privacy Act (CCPA), che richiede alle aziende di informare i consumatori sulla raccolta dei loro dati. Questa legislazione recente ha costretto le aziende a ripensare il modo in cui archiviano e utilizzano i dati di identificazione personale (PII). Di conseguenza, gli investimenti nella sicurezza sono diventati una priorità crescente per le aziende che desiderano eliminare qualsiasi vulnerabilità e opportunità di sorveglianza, hacking e attacchi informatici.
I casi di bias e discriminazioni in numerosi sistemi intelligenti hanno sollevato molte questioni etiche riguardanti l'uso dell’intelligenza artificiale. Come possiamo proteggerci da distorsioni e discriminazioni quando i set di dati di addestramento possono prestarsi a pregiudizi? Anche se, in genere, le aziende hanno buone intenzioni per i loro sforzi di automazione, possono verificarsi conseguenze impreviste nell'integrazione dell'AI nelle pratiche di assunzione. Nel tentativo di automatizzare e semplificare un processo, Amazon ha involontariamente discriminato i potenziali candidati (link esterno a ibm.com) in base al genere per ruoli tecnici aperti, e alla fine l'azienda ha dovuto eliminare il progetto. Man mano che emergono eventi come questi, la Harvard Business Review (link esterno a ibm.com) ha sollevato altre domande puntuali sull'uso dell'AI nelle pratiche di assunzione, ad esempio quali dati dovrebbe poter utilizzare per valutare un candidato per un ruolo.
I bias e le discriminazioni non si limitano alla funzione delle risorse umane: possono essere trovati in una serie di applicazioni, dai software di riconoscimento facciale agli algoritmi dei social media.
Man mano che le aziende sono diventate più consapevoli dei rischi dell'AI, sono anche diventate più attive nella discussione sull'etica e sui valori dell'AI. Ad esempio, lo scorso anno il CEO di IBM Arvind Krishna ha spiegato che IBM ha abbandonato i suoi prodotti di riconoscimento facciale e analisi per uso generale, specificando che: "IBM si oppone fermamente all'uso di qualsiasi tecnologia, compresa quella di riconoscimento facciale offerta da altri fornitori, per la sorveglianza di massa, la profilazione razziale, le violazioni dei diritti umani e delle libertà fondamentali, o qualsiasi scopo che non sia coerente con i nostri valori e i nostri principi di fiducia e trasparenza".
Non esiste una legislazione universale e globale che regoli le pratiche di AI, ma molti paesi e stati stanno lavorando per svilupparle e implementarle a livello locale. Alcune norme sull'AI sono già in vigore oggi, e molte altre saranno introdotte presto. Per colmare il divario, sono emersi appositi framework nell'ambito di una collaborazione tra esperti di etica e ricercatori per governare la costruzione e la distribuzione dei modelli AI all'interno della società. Tuttavia, al momento, questi servono solo da guida e la ricerca (link esterno a ibm.com) mostra che la combinazione di responsabilità distribuita e mancanza di previsione delle potenziali conseguenze non è necessariamente favorevole a prevenire i danni alla società.
L'intelligenza artificiale funziona in base a come viene progettata, sviluppata, addestrata, messa a punto e utilizzata, e l'etica dell'AI consiste nello stabilire un ecosistema di standard etici e di guardrail in tutte le fasi del ciclo di vita di un sistema di AI.
Organizzazioni, governi e ricercatori hanno iniziato a mettere insieme dei framework per affrontare le attuali preoccupazioni etiche dell'AI e plasmare il futuro del lavoro in questo campo. Sebbene ogni giorno venga introdotta una maggiore struttura in queste linee guida, esiste un certo consenso circa l'inserimento di quanto segue:
La governance è l'atto di un'organizzazione di supervisionare il ciclo di vita dell'AI attraverso politiche e processi interni, personale e sistemi. La governance aiuta a garantire che i sistemi di AI funzionino secondo i principi e i valori dell'organizzazione, come si aspettano gli stakeholder e come richiesto dalle normative pertinenti. Un programma di governance di successo dovrebbe:
definire i ruoli e le responsabilità delle persone che lavorano con l'AI.
educare tutte le persone coinvolte nel ciclo di vita dell'AI sulla creazione responsabile dell'AI.
stabilire processi per la creazione, la gestione, il monitoraggio e la comunicazione dell'AI e dei rischi connessi.
sfruttare gli strumenti per migliorare le prestazioni e l'affidabilità dell'AI durante il suo intero ciclo di vita.
Un AI Ethics Board è un meccanismo di governance particolarmente efficace. In IBM, l'AI Ethics Board è composto da diversi leader provenienti dall'intera azienda. Fornisce una governance centralizzata, un processo di revisione e un processo decisionale per le politiche e le pratiche etiche di IBM. Scopri di più sull'AI Ethics Board di IBM.
L'approccio di un'organizzazione all'etica dell'AI può essere guidato da principi che possono essere applicati ai prodotti, alle politiche, ai processi e alle pratiche di tutta l'organizzazione per contribuire a rendere l'AI affidabile. Questi principi dovrebbero essere strutturati e supportati da aree di interesse, come la spiegabilità o l'equità, intorno alle quali è possibile sviluppare standard e allineare le pratiche.
Quando l'AI è costruita con l'etica al centro, è in grado di avere un enorme potenziale di impatto positivo sulla società. Abbiamo iniziato a riscontrarlo nell'integrazione in alcune aree dell'assistenza sanitaria, come la radiologia. La conversazione sull'etica dell'AI è importante anche per valutare e mitigare in modo appropriato i possibili rischi legati ai suoi usi, a partire dalla fase di progettazione.
Poiché gli standard etici non sono la principale preoccupazione degli ingegneri e dei data scientist del settore privato, sono nate diverse organizzazioni per promuovere una condotta etica nel campo dell'intelligenza artificiale. Per chi cerca maggiori informazioni, le seguenti organizzazioni e progetti forniscono risorse per promuovere l'etica dell'AI:
IBM ha anche stabilito il proprio punto di vista sull'etica dell'AI, creando Principi di fiducia e trasparenza per aiutare i clienti a comprendere quali sono i suoi valori all'interno della conversazione sull'AI. IBM ha consolidato tre principi fondamentali che dettano il suo approccio allo sviluppo di dati e AI, che sono:
IBM ha inoltre sviluppato cinque pilastri per guidare l'adozione responsabile delle tecnologie di AI. Eccone alcune:
Questi principi e aree di interesse costituiscono la base del nostro approccio all'etica dell'AI. Per maggiori informazioni sul punto di vista di IBM in merito all'etica e all'intelligenza artificiale, leggi qui.
L'approccio multidisciplinare e multidimensionale di IBM all'AI affidabile
Costruisci, esegui e gestisci i modelli AI. Prepara i dati e crea modelli su qualsiasi cloud utilizzando codice open source o modellazione visiva. Prevedi e ottimizza i risultati.
Crea workflow AI responsabili, trasparenti e spiegabili.