Home topics L'etica dell'AI Che cos'è l'etica dell'AI?
Esplora la soluzione di etica dell'AI di IBM Iscriviti per ricevere gli aggiornamenti sull'AI
Illustrazione con collage di pittogrammi di cloud, grafici a torta, pittogrammi grafici su quanto segue
Che cos'è l'etica dell'AI?

L'etica è un insieme di principi morali che ci aiutano a distinguere tra giusto e sbagliato. L'etica dell'AI è un campo multidisciplinare che studia come ottimizzare l'impatto benefico dell'AI riducendo al contempo i rischi e gli esiti negativi.

Esempi di questioni etiche in materia di AI sono la responsabilità e la privacy dei dati, l'equità, la spiegabilità, la solidità, la trasparenza, la sostenibilità ambientale, l'inclusione, l'agire morale, l'allineamento dei valori, la responsabilità, la fiducia e l'uso improprio della tecnologia. Questo articolo si propone di fornire una visione completa dell'etica dell'AI nel settore attuale. Per maggiori informazioni sul punto di vista di IBM, consulta la nostra pagina sull'etica dell'AI qui.

Con l'emergere dei big data, le aziende si sono concentrate maggiormente sulla promozione dell'automazione e del processo decisionale basato sui dati in tutte le loro organizzazioni. Sebbene l'intento sia solitamente, se non sempre, quello di migliorare i risultati aziendali, le aziende stanno riscontrando conseguenze impreviste in alcune applicazioni di AI, in particolare a causa di una progettazione della ricerca iniziale scadente e di set di dati distorti.

Con l'emergere di casi di risultati ingiusti, sono emerse nuove linee guida, principalmente dalle comunità della ricerca e della data science, per affrontare le preoccupazioni relative all'etica dell'AI. Anche le aziende leader nel campo dell'AI sono interessate alla definizione di queste linee guida, in quanto hanno iniziato a sperimentare alcune delle conseguenze derivanti dal mancato rispetto degli standard etici nei loro prodotti. La mancanza di diligenza in questo settore può comportare un danno a livello reputazionale, normativo e legale, con conseguenti pesanti sanzioni. Come per tutti i progressi tecnologici, nei nuovi campi emergenti l'innovazione tende a superare la regolamentazione governativa. Con lo sviluppo di competenze adeguate all'interno del settore pubblico, possiamo aspettarci che le aziende seguano un maggior numero di protocolli sull'AI, che consentano loro di evitare qualsiasi violazione dei diritti umani e delle libertà civili.

Ora disponibile: watsonx.governance

Accelera workflow responsabili, trasparenti e spiegabili per l'AI generativa costruita su piattaforme di terze parti.

Contenuti correlati Ebook

Registrati per ricevere l'ebook sugli storage dei dati AI

Guida

Scopri come utilizzare i database giusti per le applicazioni, l'analytics e l'AI generativa

Stabilire i principi per l'etica dell'AI

Mentre si sviluppano regole e protocolli per gestire l'uso dell'AI, la comunità accademica ha fatto leva sul Belmont Report (link esterno a ibm.com) come mezzo per guidare l'etica nell'ambito della ricerca sperimentale e dello sviluppo algoritmico. Dal Belmont Report emergono tre principi fondamentali che servono da guida per la progettazione di esperimenti e algoritmi:

  1. Rispetto delle persone: questo principio riconosce l'autonomia delle persone e sostiene l'aspettativa che i ricercatori proteggano le persone con un'autonomia ridotta, che potrebbe essere dovuta a una serie di circostanze come malattie, disabilità mentali, età. Questo principio tocca principalmente l'idea di consenso. Gli individui dovrebbero essere consapevoli dei potenziali rischi e benefici di qualsiasi esperimento di cui fanno parte e dovrebbero essere in grado di scegliere di partecipare o rinunciare in qualsiasi momento prima e durante l'esperimento.
  2. Beneficenza: questo principio prende spunto dall'etica sanitaria, dove i medici fanno il giuramento di "non nuocere". Questa idea può essere facilmente applicata all'intelligenza artificiale, dove gli algoritmi possono amplificare i pregiudizi su razza, genere, tendenze politiche, ecc., nonostante l'intenzione di fare del bene e migliorare un determinato sistema.
  3. Giustizia: questo principio affronta questioni quali l'equità e l'uguaglianza. Chi dovrebbe trarre vantaggio dalla sperimentazione e dal machine learning? Il Belmont Report offre cinque modi per distribuire oneri e vantaggi, ovvero:
    • Equa ripartizione
    • Esigenza individuale
    • Impegno individuale
    • Contributo sociale
    • Merito
Link correlati

Etica dell'AI IBM

Cinque passaggi per l'implementazione di pratiche di sicurezza algoritmiche

I principali problemi dell'AI di oggi

Ci sono una serie di questioni che sono in prima linea nelle conversazioni etiche che riguardano le tecnologie AI nel mondo reale. Alcune di queste includono:

Foundation model e AI generativa

Il rilascio di ChatGPT nel 2022 ha segnato un vero punto di svolta per l'intelligenza artificiale. Le capacità del chatbot di OpenAI, dalla scrittura di note legali al debug del codice, hanno aperto una nuova costellazione di possibilità su ciò che l'AI può fare e su come può essere applicata in quasi tutti i settori. ChatGPT e altri strumenti simili si basano su foundation model, modelli AI che possono essere adattati a un'ampia gamma di attività a valle. I foundation model sono in genere modelli generativi su larga scala, costituiti da miliardi di parametri, che vengono addestrati su dati non etichettati utilizzando l'auto-supervisione. Questa consente ai foundation model di applicare rapidamente ciò che hanno appreso in un contesto a un altro, il che li rende altamente adattabili e in grado di eseguire un'ampia varietà di attività diverse. Tuttavia, ci sono molti potenziali problemi e preoccupazioni etiche intorno ai foundation model che sono comunemente riconosciuti nell'industria tecnologica, come i bias, la generazione di contenuti falsi, la mancanza di spiegabilità, l'uso improprio e l'impatto sociale. Molte di queste questioni sono rilevanti per l'AI in generale, ma assumono una nuova urgenza alla luce della potenza e della disponibilità dei foundation model.

Singolarità tecnologica

Sebbene questo argomento generi molta attenzione pubblica, molti ricercatori non sono preoccupati dall'idea che l'AI superi l'intelligenza umana nel prossimo futuro. Questo fenomeno è anche definito superintelligenza, che Nick Bostrum definisce come "qualsiasi intelletto che superi di gran lunga i migliori cervelli umani praticamente in ogni campo, tra cui la creatività scientifica, la saggezza generale e le abilità sociali". Nonostante la Strong AI e la superintelligenza non siano imminenti nella società, la sua idea solleva alcune domande interessanti quando consideriamo l'uso di sistemi autonomi, come le auto a guida autonoma. È irrealistico pensare che un'auto senza conducente non avrà mai un incidente, ma chi sarebbe responsabile in tali circostanze? Dovremmo sviluppare comunque veicoli autonomi o limitare l'integrazione di questa tecnologia per creare solo veicoli semi-autonomi che promuovano la sicurezza dei conducenti? Su questo ancora non c'è un verdetto, ma questi sono i tipi di dibattiti etici che si verificano con lo sviluppo di tecnologie di AI innovative.

Impatto dell'AI sui posti di lavoro

Sebbene la percezione pubblica dell'intelligenza artificiale sia incentrata sulla perdita di posti di lavoro, questa preoccupazione dovrebbe essere riformulata. Come ogni nuova tecnologia dirompente, vedremo che la domanda di mercato per specifiche posizioni lavorative cambierà. Guardiamo ad esempio al settore automobilistico, dove molti produttori, come GM, si stanno concentrando sulla produzione di veicoli elettrici per allinearsi alle iniziative ecologiche. Il settore energetico non scomparirà, ma le fonti di energia si stanno spostando dal risparmio di carburante all'energia elettrica. L'intelligenza artificiale dovrebbe essere vista in modo simile, ovvero destinata a reindirizzare la domanda di posti di lavoro verso altri settori. Ci sarà bisogno di persone che aiutino a gestire questi sistemi man mano che i dati crescono e cambiano ogni giorno. Ci sarà ancora bisogno di persone che aiutino ad affrontare problemi più complessi all'interno dei settori che, con più probabilità, saranno interessati dai cambiamenti della domanda di lavoro, come il servizio clienti. L'aspetto importante dell'intelligenza artificiale e il suo effetto sul mercato del lavoro aiuteranno le persone a passare a queste nuove aree di domanda del mercato.

Privacy

La privacy tende a essere discussa nel contesto della privacy, della protezione e della sicurezza dei dati e queste preoccupazioni hanno permesso ai responsabili politici di fare più passi avanti in questo senso negli ultimi anni. Ad esempio, nel 2016 è stata creata la normativa GDPR a tutela dei dati personali dei residenti dell'Unione Europea e dello Spazio Economico Europeo, offrendo agli utenti un maggiore controllo sui propri dati. Negli Stati Uniti, i singoli stati stanno sviluppando politiche come il California Consumer Privacy Act (CCPA), che richiede alle aziende di informare i consumatori sulla raccolta dei loro dati. Questa legislazione recente ha costretto le aziende a ripensare il modo in cui archiviano e utilizzano i dati di identificazione personale (PII). Di conseguenza, gli investimenti nella sicurezza sono diventati una priorità crescente per le aziende che desiderano eliminare qualsiasi vulnerabilità e opportunità di sorveglianza, hacking e attacchi informatici.

Bias e discriminazioni

I casi di bias e discriminazioni in numerosi sistemi intelligenti hanno sollevato molte questioni etiche riguardanti l'uso dell’intelligenza artificiale. Come possiamo proteggerci da distorsioni e discriminazioni quando i set di dati di addestramento possono prestarsi a pregiudizi? Anche se, in genere, le aziende hanno buone intenzioni per i loro sforzi di automazione, possono verificarsi conseguenze impreviste nell'integrazione dell'AI nelle pratiche di assunzione. Nel tentativo di automatizzare e semplificare un processo, Amazon ha involontariamente discriminato i potenziali candidati (link esterno a ibm.com) in base al genere per ruoli tecnici aperti, e alla fine l'azienda ha dovuto eliminare il progetto. Man mano che emergono eventi come questi, la Harvard Business Review (link esterno a ibm.com) ha sollevato altre domande puntuali sull'uso dell'AI nelle pratiche di assunzione, ad esempio quali dati dovrebbe poter utilizzare per valutare un candidato per un ruolo.

I bias e le discriminazioni non si limitano alla funzione delle risorse umane: possono essere trovati in una serie di applicazioni, dai software di riconoscimento facciale agli algoritmi dei social media.

Man mano che le aziende sono diventate più consapevoli dei rischi dell'AI, sono anche diventate più attive nella discussione sull'etica e sui valori dell'AI. Ad esempio, lo scorso anno il CEO di IBM Arvind Krishna ha spiegato che IBM ha abbandonato i suoi prodotti di riconoscimento facciale e analisi per uso generale, specificando che: "IBM si oppone fermamente all'uso di qualsiasi tecnologia, compresa quella di riconoscimento facciale offerta da altri fornitori, per la sorveglianza di massa, la profilazione razziale, le violazioni dei diritti umani e delle libertà fondamentali, o qualsiasi scopo che non sia coerente con i nostri valori e i nostri principi di fiducia e trasparenza".

Responsabilità

Non esiste una legislazione universale e globale che regoli le pratiche di AI, ma molti paesi e stati stanno lavorando per svilupparle e implementarle a livello locale. Alcune norme sull'AI sono già in vigore oggi, e molte altre saranno introdotte presto. Per colmare il divario, sono emersi appositi framework nell'ambito di una collaborazione tra esperti di etica e ricercatori per governare la costruzione e la distribuzione dei modelli AI all'interno della società. Tuttavia, al momento, questi servono solo da guida e la ricerca (link esterno a ibm.com) mostra che la combinazione di responsabilità distribuita e mancanza di previsione delle potenziali conseguenze non è necessariamente favorevole a prevenire i danni alla società.

Come definire l'etica dell'AI

L'intelligenza artificiale funziona in base a come viene progettata, sviluppata, addestrata, messa a punto e utilizzata, e l'etica dell'AI consiste nello stabilire un ecosistema di standard etici e di guardrail in tutte le fasi del ciclo di vita di un sistema di AI.

Organizzazioni, governi e ricercatori hanno iniziato a mettere insieme dei framework per affrontare le attuali preoccupazioni etiche dell'AI e plasmare il futuro del lavoro in questo campo. Sebbene ogni giorno venga introdotta una maggiore struttura in queste linee guida, esiste un certo consenso circa l'inserimento di quanto segue:

Governance

La governance è l'atto di un'organizzazione di supervisionare il ciclo di vita dell'AI attraverso politiche e processi interni, personale e sistemi. La governance aiuta a garantire che i sistemi di AI funzionino secondo i principi e i valori dell'organizzazione, come si aspettano gli stakeholder e come richiesto dalle normative pertinenti. Un programma di governance di successo dovrebbe:

  • definire i ruoli e le responsabilità delle persone che lavorano con l'AI.

  • educare tutte le persone coinvolte nel ciclo di vita dell'AI sulla creazione responsabile dell'AI.

  • stabilire processi per la creazione, la gestione, il monitoraggio e la comunicazione dell'AI e dei rischi connessi.

  • sfruttare gli strumenti per migliorare le prestazioni e l'affidabilità dell'AI durante il suo intero ciclo di vita.

Un AI Ethics Board è un meccanismo di governance particolarmente efficace. In IBM, l'AI Ethics Board è composto da diversi leader provenienti dall'intera azienda. Fornisce una governance centralizzata, un processo di revisione e un processo decisionale per le politiche e le pratiche etiche di IBM. Scopri di più sull'AI Ethics Board di IBM.

Principi e aree di interesse

L'approccio di un'organizzazione all'etica dell'AI può essere guidato da principi che possono essere applicati ai prodotti, alle politiche, ai processi e alle pratiche di tutta l'organizzazione per contribuire a rendere l'AI affidabile. Questi principi dovrebbero essere strutturati e supportati da aree di interesse, come la spiegabilità o l'equità, intorno alle quali è possibile sviluppare standard e allineare le pratiche.

Quando l'AI è costruita con l'etica al centro, è in grado di avere un enorme potenziale di impatto positivo sulla società. Abbiamo iniziato a riscontrarlo nell'integrazione in alcune aree dell'assistenza sanitaria, come la radiologia. La conversazione sull'etica dell'AI è importante anche per valutare e mitigare in modo appropriato i possibili rischi legati ai suoi usi, a partire dalla fase di progettazione.

Organizzazioni che promuovono l'etica dell'AI

Poiché gli standard etici non sono la principale preoccupazione degli ingegneri e dei data scientist del settore privato, sono nate diverse organizzazioni per promuovere una condotta etica nel campo dell'intelligenza artificiale. Per chi cerca maggiori informazioni, le seguenti organizzazioni e progetti forniscono risorse per promuovere l'etica dell'AI:

  • AlgorithmWatch: questa organizzazione senza scopo di lucro si concentra su algoritmi e processi decisionali spiegabili e tracciabili nei programmi di AI. Per maggiori informazioni, fai clic qui (link esterno a ibm.com).
  • AI Now Institute: questa organizzazione no profit della New York University studia le implicazioni sociali dell'intelligenza artificiale. Per maggiori informazioni, fai clic qui (link esterno a ibm.com).
  • DARPA: La Defense Advanced Research Projects Agency (link esterno al ibm.com) del Dipartimento della Difesa degli Stati Uniti si concentra sulla promozione dell'AI spiegabile e della ricerca sull'AI.
  • CHAI: Il Center for Human-Compatible Artificial Intelligence (link esterno a ibm.com) è una cooperazione di vari istituti e università che promuove un'intelligenza artificiale affidabile e sistemi vantaggiosi.
  • NASCAI: la National Security Commission on Artificial Intelligence (link esterno a ibm.com) è una commissione indipendente "che considera i metodi e i mezzi necessari per promuovere lo sviluppo dell'intelligenza artificiale, del machine learning e delle tecnologie associate per rispondere in modo completo alle esigenze di sicurezza e difesa nazionali degli Stati Uniti".
Il punto di vista di IBM sull'etica dell'AI

IBM ha anche stabilito il proprio punto di vista sull'etica dell'AI, creando Principi di fiducia e trasparenza per aiutare i clienti a comprendere quali sono i suoi valori all'interno della conversazione sull'AI. IBM ha consolidato tre principi fondamentali che dettano il suo approccio allo sviluppo di dati e AI, che sono:

  1. Lo scopo dell'intelligenza artificiale è potenziare l'intelligenza umana. Ciò significa che non si cerca di sostituire l'intelligenza umana con l'intelligenza artificiale, ma di supportarla. Poiché ogni nuova innovazione tecnologica comporta cambiamenti nell'offerta e nella domanda di particolari ruoli lavorativi, IBM si impegna a sostenere i lavoratori in questa transizione investendo in iniziative globali per promuovere la formazione delle competenze su questa tecnologia.
  2. I dati e gli insight appartengono ai loro creatori. I clienti IBM possono essere certi di essere gli unici proprietari dei loro dati. IBM non ha fornito e non fornirà al governo l'accesso ai dati dei clienti per alcun programma di sorveglianza e si impegna a proteggere la privacy dei propri clienti.
  3. I sistemi AI devono essere trasparenti e spiegabili. IBM ritiene che le aziende tecnologiche debbano essere chiare su chi addestra i loro sistemi AI, con quali dati e, soprattutto, cosa è stato inserito nelle raccomandazioni dei loro algoritmi.

IBM ha inoltre sviluppato cinque pilastri per guidare l'adozione responsabile delle tecnologie di AI. Eccone alcune:

  • Spiegabilità: un sistema AI dovrebbe essere trasparente, in particolare per quanto riguarda le raccomandazioni del suo algoritmo, in quanto rilevanti per una varietà di stakeholder con una varietà di obiettivi.
  • Equità: si riferisce al trattamento equo di individui, o gruppi di individui, da parte di un sistema AI. Se adeguatamente calibrata, l'AI può aiutare gli esseri umani a fare scelte più eque, contrastare i pregiudizi e promuovere l'inclusività.
  • Solidità: i sistemi basati sull'AI devono essere difesi attivamente dagli attacchi avversari, riducendo al minimo i rischi per la sicurezza e promuovendo la fiducia nei risultati del sistema.
  • Trasparenza: per rafforzare la fiducia, gli utenti devono poter vedere come funziona il servizio, valutarne la funzionalità e comprenderne i punti di forza e i limiti.
  • Privacy: i sistemi AI devono dare priorità e salvaguardare la privacy e i diritti dei dati dei consumatori e fornire garanzie esplicite agli utenti su come i loro dati personali verranno utilizzati e protetti.

Questi principi e aree di interesse costituiscono la base del nostro approccio all'etica dell'AI. Per maggiori informazioni sul punto di vista di IBM in merito all'etica e all'intelligenza artificiale, leggi qui.

 

Soluzioni correlate
Etica dell'AI in IBM

L'approccio multidisciplinare e multidimensionale di IBM all'AI affidabile

Esplora l'etica dell'AI in IBM
IBM Watson Studio

Costruisci, esegui e gestisci i modelli AI. Prepara i dati e crea modelli su qualsiasi cloud utilizzando codice open source o modellazione visiva. Prevedi e ottimizza i risultati.

Esplora Watson Studio
IBM watsonx.governance

Crea workflow AI responsabili, trasparenti e spiegabili.

Esplora IBM watsonx.governance
Fai il passo successivo

Accelera i workflow di AI responsabili, trasparenti e spiegabili attraverso il ciclo di vita dei modelli generativi e di apprendimento automatico. Assimila, gestisci e monitora le attività di AI della tua organizzazione per gestire meglio le crescenti normative in materia di AI e rilevare e ridurre i rischi.

Esplora watsonx.governance Prenota una demo live