Home topics Che cos'è AutoML? Che cos'è AutoML?
Scopri in che modo AutoML può aiutarti a costruire soluzioni di AI ripetibili e spiegabili
Iscriviti alla newsletter di IBM
Sfondo sfumato nero e blu
Cos'è AutoML?

AutoML (Automated Machine Learning) è diventato, negli ultimi anni, un argomento di tendenza nel settore e nella ricerca accademica sull'AI. AutoML mostra un grande potenziale nella fornitura di soluzioni per l'AI nei settori regolamentati finalizzate all'offerta di risultati spiegabili e riproducibili. AutoML consente un maggiore accesso allo sviluppo dell'AI a coloro che non hanno il background teorico attualmente necessario per un ruolo nella data science

Ogni fase nell'attuale pipeline di prototipi della data science, come la pre-elaborazione dei dati, la progettazione delle caratteristiche e l'ottimizzazione degli iperparametri, deve essere eseguita manualmente da esperti di machine learning. In confronto, l'adozione di AutoML consente un processo di sviluppo più semplice con cui poche righe di codice possono generare il codice necessario per iniziare a sviluppare un modello di machine learning. 

Si può pensare ad AutoML - indipendentemente dal fatto che crei classificatori o addestri regressioni - come a un concetto di ricerca generalizzato, con algoritmi di ricerca specializzati per trovare le soluzioni ottimali per ogni elemento componente della pipeline di ML. Nel creare un sistema che consente l'automazione di sole tre parti fondamentali dell'automazione - progettazione delle caratteristiche, ottimizzazione degli iperparametri e ricerca dell'architettura neurale - AutoML promette un futuro in cui un machine learning democratizzato è una realtà. 

Vieni a conoscere watsonx.ai

Addestrare, convalidare, ottimizzare e distribuire basi e modelli di machine learning, con facilità

Tipi di AutoML

In una pipeline di data science, un team di data science deve seguire una procedura articolata in molti passaggi per creare un modello predittivo. Anche i team esperti di data scientist e specialisti di ML possono trarre vantaggio della maggiore velocità e trasparenza offerta da AutoML. Un data scientist deve partire da un'ipotesi, raccogliere il corretto set di dati, provare qualche visualizzazione dei dati, progettare funzioni extra per sfruttare tutto il segnale disponibile, addestrare un modello con iperparametri (link esterno a IBM) e, per un deep learning che sia all'avanguardia, deve progettare l'architettura ottimale per una DNN (Deep Neural Network), possibilmente su una GPU, se a sua disposizione.

 

Progettazione automatizzata delle caratteristiche


Una caratteristica dei dati è una parte dei dati di input per un modello di machine learning e la progettazione delle caratteristiche si riferisce al processo di trasformazione in cui un data scientist ricava nuove informazioni dai dati esistenti. La progettazione delle caratteristiche è uno dei processi chiave che aggiungono valore in un flusso di lavoro di ML, e delle caratteristiche valide fanno la differenza tra un modello con prestazioni accettabili e un modello con prestazioni eccezionali. Queste trasformazioni matematiche dei dati non elaborati vengono lette nel modello e fungono da fulcro del processo di machine learning. La progettazione automatizzata delle caratteristiche (automated feature engineering, AFE) (PDF 1,7 MB) (link esterno a IBM) è il processo di esplorazione dell'ambito delle possibili combinazioni di caratteristiche in modo meccanico piuttosto che manuale.

La progettazione manuale delle caratteristiche è una moderna alchimia che ha un grande costo in termini di tempo: la creazione di una singola caratteristica può spesso richiedere ore e il numero di caratteristiche richieste per un punteggio minimo di accuratezza, per non parlare di una base di accuratezza a livello di produzione, può essere nell'ordine delle centinaia. Automatizzando l'esplorazione di uno spazio di caratteristiche, AutoML riduce il tempo che un team di data science dedica a questa fase da giorni a minuti.

Ridurre le ore di intervento manuale da parte di un data scientist non è l'unico vantaggio della progettazione delle caratteristiche automatizzata. Le caratteristiche generate sono spesso chiaramente interpretabili. In settori strettamente regolamentati come l'assistenza sanitaria o la finanza, questa spiegabilità (link esterno a IBM) è importante perché abbassa le barriere all'adozione dell'AI attraverso l'interpretabilità. Inoltre, un data scientist o un analista trae vantaggio della chiarezza di queste caratteristiche perché rendono i modelli di alta qualità più interessanti e utilizzabili. Le caratteristiche generate automaticamente hanno anche il potenziale di trovare nuovi KPI da monitorare e su cui agire per un'organizzazione. Una volta che un data scientist ha completato la progettazione delle caratteristiche, deve ottimizzare i propri modelli con una selezione strategica delle caratteristiche.

 

Ottimizzazione automatizzata degli iperparametri


Gli iperparametri sono una parte degli algoritmi di machine learning meglio comprensibili paragonandoli a delle leve per ottimizzare le prestazioni del modello, anche se spesso le regolazioni incrementali hanno un impatto fuori misura. Nella modellazione di data science in piccola scala, gli iperparametri possono essere impostati manualmente e ottimizzati con facilità mediante prova ed errore.

Per le applicazioni di deep learning, il numero di iperparametri cresce in modo esponenziale, il che pone la loro ottimizzazione al di là delle capacità di un team di data science di realizzarla in modo manuale e tempestivo. L'ottimizzazione automatizzata degli iperparametri (hyperparameter optimization, HPO) (link esterno a IBM) solleva i team dalla grande responsabilità di esplorare e ottimizzare gli iperparametri nell'intero spazio degli eventi e consente invece loro di iterare e sperimentare su caratteristiche e modelli.

Un altro punto a favore dell'automazione del processo di machine learning è che ora i data scientist possono concentrarsi sul perché della creazione del modello piuttosto che sul come.Considerando le quantità estremamente grandi di dati disponibili per molte aziende e il numero enorme di domande a cui si può rispondere con questi dati, un team di analisti può prestare attenzione a quali aspetti del modello devono essere ottimizzati, come il classico problema di ridurre al minimo i falsi negativi nei test medici.

NAS (Neural Architecture Search)


Il processo più complesso e che richiede più tempo nel deep learning è la creazione dell'architettura neurale. I team di data science trascorrono molto tempo a selezionare i livelli appropriati e i tassi di apprendimento che alla fine sono spesso solo per i pesi nel modello, come in molti modelli linguistici. La ricerca dell'architettura neurale (Neural Architecture Search, NAS) (link esterno a IBM) è stata descritta come "l'utilizzo delle reti neurali per progettare le reti neurali" ed è una delle aree più ovvie in cui il ML può trarre vantaggio dall'automazione.

Le ricerche NAS iniziano con una scelta su quali architetture provare. Il risultato di NAS è determinato dalla metrica rispetto alla quale viene giudicata ciascuna architettura. Ci sono diversi algoritmi comuni da utilizzare in una ricerca di architettura neurale. Se il numero potenziale di architetture è piccolo, le scelte per l'esecuzione di test possono essere fatte in modo casuale. Gli approcci basati sul gradiente, in cui lo spazio di ricerca discreto viene trasformato in una rappresentazione continua, hanno dimostrato di essere molto efficaci. I team di data science possono anche provare algoritmi evolutivi in cui le architetture vengono valutate a caso e le modifiche vengono applicate lentamente, propagando le architetture secondarie che hanno più successo ed eliminando quelle che non ne hanno.

Le NAS sono uno degli elementi chiave di AutoML che promettono di democratizzare l'AI. Queste ricerche, però, spesso hanno un'impronta di carbonio molto alta. Un esame di questi compromessi non è ancora stata eseguita e l'ottimizzazione per il costo ecologico è un'area di ricerca in corso negli approcci NAS.

Link correlati

Data science

Apprendimento automatico

AutoAI

Strategie per utilizzare AutoML

AutoML (Automated Machine Learning) sembra essere una panacea di soluzionismo tecnico che un'organizzazione può utilizzare per sostituire i costosi data scientist, ma in realtà il suo utilizzo richiede strategie intelligenti per un'organizzazione. I data scientist ricoprono ruoli essenziali per progettare esperimenti, tradurre i risultati in esiti di business e gestire l'intero ciclo di vita dei loro modelli di machine learning. Quindi, come possono i team interfunzionali fare uso di AutoML per ottimizzare l'uso del tempo e ridurre il tempo per realizzare valore dai loro modelli?

Il flusso di lavoro ottimale per l'inclusione delle API di AutoML è quello che le utilizza per parallelizzare i carichi di lavoro e ridurre il tempo dedicato ad attività manuali intensive. Invece di dedicare giorni all'ottimizzazione degli iperparametri, un data scientist potrebbe invece automatizzare questo processo su più tipi di modelli contemporaneamente e poi successivamente testare quale modello ha avuto le migliori prestazioni.  

Inoltre, ci sono funzioni di AutoML che consentono ai membri del team di diversi livelli di competenze di contribuire ora alla pipeline di data science. Un analista dati senza esperienza in Python potrebbe utilizzare un kit di strumenti, come AutoAI su Watson Studio, per addestrare un modello predittivo utilizzando i dati che può estrarre lui stesso tramite query. Utilizzando AutoML, un analista dati può ora pre-elaborare i dati, creare una pipeline di machine learning e produrre un modello completamente addestrato da utilizzare per convalidare le proprie ipotesi senza richiedere l'attenzione di un intero team di data science.

AutoML e IBM Research

I ricercatori e gli sviluppatori IBM contribuiscono alla crescita e allo sviluppo di AutoML. Lo sviluppo continuo del prodotto con AutoAI su IBM Watson e il lavoro dei ricercatori IBM su Lale (link esterno a IBM), una libreria di data science automatizzata open-source, sono solo alcuni dei modi in cui IBM aiuta a creare la prossima generazione di approcci all'AI. Sebbene Lale sia un progetto open source, è in effetti il fulcro di molte delle funzionalità di AutoAI. 

Per i team di data science che lavorano con Python come fulcro del loro stack di ML, Lale offre una libreria semi-automatizzata che si integra perfettamente all'interno delle pipeline scikit-learn (link esterno a IBM), diverse da auto-sklearn (link esterno a IBM) o da una libreria come TPOT (link esterno a IBM). Lale va oltre scikit-learn con automazione, controlli di correttezza e interoperabilità. Pur essendo basato sul paradigma scikit-learn, ha un numero crescente di trasformatori e operatori provenienti da altre librerie Python e da librerie in linguaggi come Java ed R. 

Soluzioni correlate
AutoAI

Crea e addestra velocemente modelli predittivi di alta qualità. Semplifica la gestione del ciclo di vita dell'AI.

Esplora l'AutoAI
IBM Watson Studio

Crea e scala AI affidabile su qualsiasi cloud. Automatizza il ciclo di vita dell'AI per ModelOps.

Scopri di più su IBM® Watson Studio
Passa alla fase successiva

Watson Studio e AutoAI aiutano i team di data science ad automatizzare rapidamente l'intero ciclo di vita di AI/ML. I team possono ridurre il loro time-to-market con le loro funzionalità predittive iniziando con una serie di prototipi per i modelli di machine learning. AutoAI in Watson Studio semplifica la progettazione automatizzata delle caratteristiche, l'ottimizzazione automatizzata degli iperparametri e la selezione del modello di machine learning. Aiuta i tuoi team di data scientist e di analytics a valutare le loro ipotesi rapidamente che, una volta certificata la validità dei loro modelli, potranno già eseguirne l'implementazione per l'utilizzo in contesti di controllo di qualità o di produzione.  

Scopri IBM Watson Studio