Il machine learning (ML) è una branca dell'intelligenza artificiale (AI) che si propone di consentire a computer e macchine di imitare il modo in cui gli esseri umani apprendono, di eseguire compiti in modo autonomo e di migliorare le proprie prestazioni e la propria precisione attraverso l'esperienza e l'esposizione a una maggiore quantità di dati.
UC Berkeley suddivide il sistema di apprendimento di un algoritmo di apprendimento automatico in tre parti principali.
Newsletter di settore
Ricevi insight selezionati sulle notizie più importanti e interessanti sull'AI. Iscriviti alla nostra newsletter settimanale Think. Leggi l'Informativa sulla privacy IBM.
L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.
Poiché i termini deep learning e machine learning tendono a essere usati in modo intercambiabile, vale la pena di notare le sfumature che li differenziano. Machine learning, deep learning e reti neurali sono tutti sottoinsiemi dell'intelligenza artificiale. Tuttavia, le reti neurali sono in realtà un sottoinsieme del machine learning, mentre il deep learning è un sottoinsieme delle reti neurali.
La differenza tra deep learning e machine learning riguarda il modo in cui ciascun algoritmo apprende. Il machine learning "profondo" (deep) utilizza i dataset etichettati, noti anche come apprendimento supervisionato, per informarne l'algoritmo, ma non richiede necessariamente un set di dati etichettato. Il processo di deep learning inserisce dati non strutturati nella loro forma grezza (come testo o immagini) e può determinare automaticamente l'insieme di caratteristiche che distinguono le diverse categorie di dati l'una dall'altra. Ciò elimina parte dell’intervento umano richiesto e consente l'uso di grandi quantità di dati. Come sottolinea Lex Fridman in questa lezione al MIT1, si può pensare al deep learning come a un "machine learning scalabile".
Il machine learning classico, o "non profondo", dipende maggiormente dall'intervento umano. Gli esperti umani determinano il set di caratteristiche per comprendere le differenze tra gli input di dati, che in genere richiedono dati più strutturati per l'apprendimento.
Le reti neurali, o reti neurali artificiali (ANN), sono costituite da livelli di nodi contenenti uno o più livelli di input, uno o più livelli nascosti e uno strato di output. Ciascun nodo, o neurone artificiale, si connette a un altro e ha un peso e una soglia associati. Se l'output di qualsiasi singolo nodo è al di sopra del valore di soglia specificato, tale nodo viene attivato, inviando i dati allo strato successivo della rete. In caso contrario, da quel nodo non viene passato alcun dato al livello successivo della rete. Il termine "profondo (deep)" nel deep learning si riferisce solo al numero dei livelli di una rete neurale. Una rete neurale composta da più di tre livelli, che includerebbero gli input e l'output, può essere considerata un algoritmo di deep learning o una rete neurale. Una rete neurale che ha solo tre livelli è solo una rete neurale di base.
Al deep learning e alle reti neurali viene riconosciuto il merito di avere accelerato i progressi in settori quali computer vision, elaborazione del linguaggio naturale (NLP) e riconoscimento vocale.
Leggi il post sul blog "AI, machine learning, deep learning e reti neurali: Qual è la differenza?" per un'analisi più approfondita di come si relazionano i diversi concetti.
I modelli di machine learning rientrano in tre categorie primarie.
L'apprendimento supervisionato, noto anche come machine learning supervisionato, è definito dall'uso di set di dati etichettati per addestrare algoritmi che classificano i dati o prevedono i risultati in modo accurato. Via via che i dati di input vengono inseriti nel modello, il modello regola i suoi pesi fino a quando non è adattato in modo corretto. Questo avviene nell'ambito del processo di convalida incrociata per garantire che il modello eviti l'overfitting o l'underfitting. L'apprendimento supervisionato aiuta le organizzazioni a risolvere una serie di problemi reali su larga scala, come la classificazione dello spam in una cartella separata dalla posta in arrivo. Alcuni metodi usati nell'apprendimento supervisionato includono reti neurali, Naïve Bayes, regressione lineare, regressione logistica, random forest e macchina vettoriale di supporto (SVM).
L'Apprendimento non supervisionato, noto anche come machine learning non supervisionato, utilizza algoritmi di apprendimento automatico per analizzare e raggruppare dataset non etichettati (sottoinsiemi chiamati cluster). Questi algoritmi scoprono modelli nascosti o raggruppamenti di dati senza la necessità dell'intervento umano.
La capacità di apprendimento non supervisionato di scoprire somiglianze e differenze nelle informazioni lo rende ideale per l'analisi esplorativa dei dati, le strategie di cross-selling, la segmentazione dei clienti e il riconoscimento di immagini e modelli. Viene utilizzato anche per ridurre il numero di caratteristiche in un modello attraverso il processo di riduzione della dimensionalità. L'analisi dei componenti principali (PCA) e la scomposizione dei valori singolari (SVD) sono due approcci comuni. Altri algoritmi utilizzati nell'apprendimento non supervisionato includono reti neurali, k-means clustering e metodi di clustering probabilistico.
L'apprendimento semi-supervisionato offre una via di mezzo tra l'apprendimento supervisionato e quello non supervisionato. Durante l'addestramento, utilizza un piccolo set di dati etichettati per guidare la classificazione e l'estrazione di caratteristiche da un set di dati più grande e non etichettato. L'apprendimento semi-supervisionato può risolvere il problema della scarsità di dati etichettati per un algoritmo di apprendimento supervisionato. È utile anche se costa troppo etichettare una quantità sufficiente di dati.
Per un approfondimento delle differenze tra questi approcci, consulta "Apprendimento supervisionato e non supervisionato: qual è la differenza?"
L'apprendimento per rinforzo è un modello di machine learning simile all'apprendimento supervisionato, dove però l'algoritmo non viene addestrato utilizzando dati campione. Questo modello apprende per tentativi ed errori via via che procede. Una sequenza di risultati positivi sarà rafforzata per sviluppare la migliore raccomandazione o policy per un determinato problema.
Il sistema IBM Watson che ha vinto la sfida Jeopardy! nel 2011 ne è un buon esempio. Il sistema ha utilizzato l'apprendimento di rinforzo per capire quando tentare di rispondere (o di fare una domanda, a seconda), quale quadrato selezionare sul tabellone e quanto puntare, soprattutto per i lascia o raddoppia.
Vengono comunemente utilizzati numerosi algoritmi di apprendimento automatico, tra cui:
Le reti neurali simulano il funzionamento del cervello umano, con un numero enorme di nodi di elaborazione collegati. Sono in grado di riconoscere i modelli e svolgono un ruolo importante in applicazioni come la traduzione del linguaggio naturale, il riconoscimento delle immagini, il riconoscimento vocale e la creazione di immagini.
Questo algoritmo viene utilizzato per prevedere valori numerici basandosi su una relazione lineare tra valori diversi. Ad esempio, questa tecnica potrebbe essere utilizzata per prevedere i prezzi delle case sulla base dei dati storici della zona.
Questo algoritmo di apprendimento supervisionato effettua previsioni per variabili di risposta categoriali, come le risposte "sì/no" alle domande. Può essere utilizzato per applicazioni come la classificazione dello spam e il controllo qualità in uno stabilimento produttivo.
Utilizzando l'apprendimento non supervisionato, gli algoritmi di clustering possono identificare pattern nei dati, così da poterli raggruppare. I computer possono aiutare i data scientist identificando le differenze tra gli elementi di dati che gli esseri umani hanno trascurato.
I decision tree possono essere utilizzati sia per la previsione di valori numerici (regressione) che per la classificazione dei dati in categorie. I decision tree utilizzano una sequenza di ramificazione di decisioni collegate che può essere rappresentata con un diagramma ad albero. Uno dei vantaggi dei decision tree è che sono facili da convalidare e verificare, a differenza della black box della rete neurale.
In una random forest, l'algoritmo di machine learning prevede un valore o una categoria combinando i risultati di una serie di decision tree.
A seconda del tuo budget, della velocità e della precisione richieste, ogni tipo di algoritmo, supervisionato, non supervisionato, semi-supervisionato o rinforzato, presenta vantaggi e svantaggi.
Ad esempio, gli algoritmi dei decision tree vengono utilizzati sia per prevedere valori numerici (problemi di regressione) che per classificare i dati in categorie. I decision tree utilizzano una sequenza di ramificazione di decisioni collegate che possono essere rappresentate con un diagramma ad albero. Uno dei principali vantaggi dei decision tree è che sono più facili da convalidare e controllare rispetto a una rete neurale. La brutta notizia è che possono essere meno stabili rispetto ad altri predittori delle decisioni.
Nel complesso, ci sono molti vantaggi nell'apprendimento automatico che le aziende possono utilizzare per ottenere nuove efficienze. Tra questi c'è il machine learning, che identifica modelli e tendenze in enormi volumi di dati che gli esseri umani potrebbero non individuare affatto. Questa analisi richiede poco intervento umano: basta inserire il set di dati d'interesse e lasciare che il sistema di apprendimento automatico assembli e perfezioni i propri algoritmi, che miglioreranno continuamente con l'inserimento di più dati nel corso del tempo. Clienti e utenti possono ottenere un'esperienza più personalizzata, poiché il modello impara di più ad ogni esperienza con quella persona.
Il rovescio della medaglia è che il machine learning richiede set di dati di addestramento di grandi dimensioni, accurati e imparziali. Il fattore operativo è il GIGO: garbage in/garbage out. Anche la raccolta di dati sufficienti e la disponibilità di un sistema abbastanza robusto per poterli eseguire potrebbero comportare un dispendio di risorse.
Il machine learning può anche essere soggetto a errori, a seconda dell'input. Con un campione troppo piccolo, il sistema può produrre un algoritmo perfettamente logico ma completamente sbagliato o fuorviante. Per evitare di sprecare budget o di scontentare i clienti, le organizzazioni devono agire in base alle risposte solo quando c'è un'elevata fiducia nell'output.
Ecco alcuni esempi di machine learning che potresti incontrare ogni giorno:
Riconoscimento vocale: è anche noto come riconoscimento vocale automatico (ASR), riconoscimento vocale computerizzato o speech-to-text, ed è una funzionalità che utilizza l'elaborazione del linguaggio naturale (NLP) per tradurre il discorso umano in un formato scritto. Molti dispositivi mobili incorporano il riconoscimento vocale nei loro sistemi per condurre ricerche vocali, ad esempio Siri, oppure migliorano l'accessibilità per gli SMS.
Servizio clienti: i chatbot online stanno sostituendo gli agenti umani lungo il percorso del cliente, trasformando il nostro modo di pensare al coinvolgimento dei clienti sui siti web e sulle piattaforme social. I chatbot rispondono alle domande frequenti (FAQ) su argomenti come le spedizioni, oppure forniscono consigli personalizzati, cross-selling di prodotti o suggerimenti di taglie per gli utenti. Alcuni esempi includono gli agenti virtuali sui siti di e-commerce, bot di messaggistica, Slack e Facebook Messenger e attività solitamente eseguite da assistenti virtuali e assistenti vocali.
Computer vision: questa tecnologia AI consente ai computer di ottenere informazioni significative da immagini digitali, video e altri input visivi, per poi intraprendere le azioni più adeguate. Grazie alle reti neurali convoluzionali, la computer vision trova applicazione nel tagging delle foto sui social media, nell'imaging radiologico nel settore sanitario e nelle auto a guida autonoma nel settore automobilistico.
Motori di raccomandazione: utilizzando i dati sul comportamento d'acquisto, gli algoritmi di AI possono aiutare a scoprire le tendenze dei dati che possono essere utilizzate per sviluppare strategie di cross-selling più efficaci. I motori di raccomandazione vengono utilizzati dai rivenditori online per fornire consigli pertinenti sui prodotti ai clienti durante il processo di checkout.
Robotic Process Automation (RPA): nota anche come robotica del software, l'RPA utilizza tecnologie di automazione intelligenti per eseguire attività manuali ripetitive.
Trading azionario automatizzato: progettate per ottimizzare i portfolio azionari, le piattaforme di trading ad alta frequenza basate sull’AI effettuano migliaia o addirittura milioni di operazioni al giorno senza l'intervento umano.
Rilevamento delle frodi: le banche e altri istituti finanziari possono utilizzare l'apprendimento automatico per individuare le transazioni sospette. L'apprendimento supervisionato può addestrare un modello utilizzando informazioni sulle transazioni fraudolente note. Il rilevamento delle anomalie può identificare le transazioni apparentemente atipiche e meritano ulteriori indagini.
Lo sviluppo della tecnologia di machine learning ha certamente semplificato la nostra vita. Tuttavia, la sua implementazione nelle aziende ha anche sollevato una serie di preoccupazioni etiche sulle tecnologie di AI. Alcune di queste includono:
Sebbene questo argomento generi molta attenzione pubblica, molti ricercatori non sono preoccupati dall'idea che l'AI superi l'intelligenza umana nel prossimo futuro. La singolarità tecnologica è anche indicata come AI forte o superintelligenza. Il filosofo Nick Bostrum definisce la superintelligenza come "qualsiasi intelletto che supera notevolmente i migliori cervelli umani praticamente in ogni campo, tra cui creatività scientifica, saggezza generale e competenze sociali".
Nonostante la superintelligenza non sia imminente nella società, la sua idea solleva alcune domande interessanti quando consideriamo l'uso di sistemi autonomi, come le auto a guida autonoma. È irrealistico pensare che un'auto senza conducente non avrebbe mai un incidente, ma chi sarebbe responsabile in tali circostanze? Dobbiamo sviluppare comunque veicoli autonomi oppure è meglio limitare questa tecnologia ai veicoli semi-autonomi che aiutano le persone a guidare in sicurezza? Su questo ancora non c'è un verdetto, ma questi sono i tipi di dibattiti etici che si verificano con lo sviluppo di tecnologie di AI innovative.
Sebbene la percezione pubblica dell'intelligenza artificiale sia incentrata sulla perdita di posti di lavoro, questa preoccupazione dovrebbe essere riformulata. Come ogni nuova tecnologia dirompente, vedremo che la domanda di mercato per specifiche posizioni lavorative cambierà. Guardiamo ad esempio al settore automobilistico, dove molti produttori, come GM, si stanno concentrando sulla produzione di veicoli elettrici per allinearsi alle iniziative ecologiche. Il settore energetico non scomparirà, ma le fonti di energia si stanno spostando dal risparmio di carburante all'energia elettrica.
Allo stesso modo, l'intelligenza artificiale reindirizzerà la domanda di posti di lavoro verso altri settori. Ci sarà bisogno di persone che aiutino a gestire i sistemi di AI di persone che si occupino di problemi più complessi all'interno dei settori che, con più probabilità, saranno interessati dai cambiamenti della domanda di lavoro, ad esempio il servizio clienti. La sfida più grande dell'intelligenza artificiale e il suo effetto sul mercato del lavoro sarà aiutare le persone a passare a nuovi ruoli richiesti.
La privacy tende a essere discussa nel contesto della privacy, della protezione e della sicurezza dei dati. Queste preoccupazioni hanno consentito ai politici di compiere ulteriori passi avanti negli ultimi anni. Ad esempio, nel 2016 è stata creata la normativa GDPR a tutela dei dati personali dei residenti dell'Unione Europea e dello Spazio Economico Europeo, offrendo agli utenti un maggiore controllo sui propri dati. Negli Stati Uniti, anche i singoli stati stanno sviluppando normative simili, come il California Consumer Privacy Act (CCPA), introdotto nel 2018, che richiede alle aziende di informare i consumatori sulla raccolta dei loro dati. Una legislazione come questa ha costretto le aziende a riconsiderare il modo in cui archiviano e utilizzano le informazioni di identificazione personale (PII). Di conseguenza, gli investimenti nella sicurezza sono diventati una priorità crescente per le aziende che desiderano eliminare qualsiasi vulnerabilità e opportunità di sorveglianza, hacking e attacchi informatici.
I casi di bias e discriminazione in numerosi sistemi di apprendimento automatico hanno sollevato molte questioni etiche riguardanti l'uso dell’intelligenza artificiale. Come possiamo proteggerci da bias e discriminazioni quando i dati di addestramento stessi possono essere generati da processi umani distorti? Sebbene le aziende abbiano solitamente a buone intenzioni nei loro tentativi di automazione, Reuters2 evidenzia alcune delle conseguenze impreviste dell'integrazione dell'AI nelle pratiche di assunzione. Nel tentativo di automatizzare e semplificare un processo, Amazon ha involontariamente discriminato i candidati in base al sesso per ruoli tecnici e, alla fine, l'azienda ha dovuto abbandonare il progetto. Harvard Business Review3 ha sollevato altre questioni specifiche sull'uso dell'AI nelle pratiche di assunzione, ad esempio quali dati si dovrebbero utilizzare quando si valuta un candidato per un ruolo.
I bias e le discriminazioni non si limitano alla funzione delle risorse umane: possono essere trovati in una serie di applicazioni, dai software di riconoscimento facciale agli algoritmi dei social media.
Man mano che le aziende sono diventate più consapevoli dei rischi dell'AI, sono anche diventate più attive nella discussione sull'etica e sui valori dell'AI. Ad esempio, IBM ha abbandonato i suoi prodotti di riconoscimento facciale e analisi per uso generale. Arvind Krishna, CEO di IBM, ha scritto: "IBM si oppone fermamente e non condonerà l'uso di qualsiasi tecnologia, compresa quella di riconoscimento facciale offerta da altri fornitori, per la sorveglianza di massa, la profilazione razziale, le violazioni dei diritti umani e delle libertà fondamentali, o qualsiasi scopo che non sia coerente con i nostri valori e i nostri Principi di fiducia e trasparenza."
Poiché non esiste una legislazione significativa che regolamenti le pratiche dell'AI, non esiste un vero meccanismo per garantire che venga praticata l'AI etica. Gli incentivi che attualmente spingono le aziende a comportarsi in modo etico sono le ripercussioni negative sui profitti generate da sistema AI non etico. Per colmare questo divario sono emersi framework etici nell'ambito di una collaborazione tra esperti di etica e ricercatori, con l'obiettivo di governare la costruzione e la distribuzione dei modelli AI all'interno della società. Tuttavia, questi framework fungono attualmente solo da guida. Alcune ricerche4 dimostrano che la combinazione di responsabilità distribuita e mancanza di lungimiranza in merito alle potenziali conseguenze non contribuisce a prevenire eventuali danni alla società.
La selezione di una piattaforma può essere un processo impegnativo, poiché un sistema sbagliato può aumentare i costi o limitare l'uso di altri strumenti o tecnologie preziosi. Quando si controllano più fornitori per selezionare una piattaforma di AI, spesso si tende a pensare che più funzioni equivalgano a un sistema migliore. Forse è così, ma chi svolge questa analisi dovrebbe pensare a ciò che la piattaforma di AI può fare per l'organizzazione. Quali funzionalità di machine learning devono essere fornite e quali funzionalità sono importanti per realizzarle? Una funzione mancante può condannare l'integrità di un intero sistema. Ecco alcune caratteristiche da considerare.
Funzionalità MLOps. Il sistema ha:
Funzionalità di AI generativa. Il sistema ha:
Impara i concetti fondamentali e sviluppa le tue competenze con laboratori pratici, corsi, progetti guidati, prove e molto altro.
Scopri come incorporare in tutta sicurezza l’AI generativa e il machine learning nella tua azienda.
Vuoi ottenere un ritorno migliore sui tuoi investimenti nell’AI? Scopri come lo scaling della GenAI in settori chiave può favorire il cambiamento, aiutando le tue menti migliori a creare e fornire nuove soluzioni innovative.
Scopri come scegliere il foundation model di AI più adatto al tuo caso d’uso.
Addestra, convalida, adatta e implementa le funzionalità di AI generativa, foundation model e machine learning con IBM watsonx.ai, uno studio aziendale di nuova generazione per builder AI. Crea applicazioni AI in tempi ridotti e con una minima quantità di dati.
Metti l'AI al servizio della tua azienda grazie all'esperienza leader di settore e alla gamma di soluzioni di IBM nel campo dell'AI.
Reinventa i flussi di lavoro e le operazioni critiche aggiungendo l'AI per massimizzare le esperienze, il processo decisionale in tempo reale e il valore di business.
1 Deep Learning Basics: Introduction and Overview
2 Insight - Amazon scraps secret AI recruiting tool that showed bias against women, Reuters, 10 ottobre 2018
3 The Legal and Ethical Implications of Using AI in Hiring, Harvard Business Review, 25 aprile 2019
4 The Ethics of AI Ethics, An Evaluation of Guidelines, Dr. Thilo Hagendorff