Home topics GPU Che cos'è un'unità di elaborazione grafica (GPU)?
Esplora IBM watsonx.ai
Rappresentazioni grafiche in blu, nero e bianco di diverse icone tra cui montagne, ruscelli e notte


Pubblicato: 26 febbraio 2024
Autori: Mesh Flinders, Ian Smalley

Che cos'è un'unità di elaborazione grafica (GPU)?

Un'unità di elaborazione grafica, nota anche come unità di elaborazione grafica o GPU, è un circuito elettronico progettato per velocizzare la grafica del computer e l'elaborazione delle immagini su vari dispositivi, tra cui schede video, schede madre, telefoni cellulari e computer personali (PC).

Eseguendo rapidamente calcoli matematici, una GPU riduce il tempo necessario affinché un computer esegua più programmi e questo lo rende un fattore di abilitazione essenziale delle tecnologie emergenti e future come  machine learning (ML)intelligenza artificiale (AI) e blockchain.

Prima dell'invenzione delle GPU negli anni '90, i controller grafici nei PC e nei controller per videogiochi si basavano sull'unità di elaborazione centrale (CPU) di un computer per eseguire le attività. Fin dai primi anni '50, le CPU erano i processori più importanti in un computer, seguendo tutte le istruzioni necessarie per eseguire i programmi, come la logica, il controllo e l'input/output (I/O). Con l'avvento dei giochi personali e della progettazione assistita da computer (CAD) negli anni '90, tuttavia, al settore serviva un modo più veloce ed efficiente per combinare i pixel in un breve lasso di tempo.

Nel 2007, Nvidia ha creato CUDA (Compute Unified Device Architecture), un software che ha fornito agli sviluppatori l'accesso diretto alle capacità di calcolo parallelo delle GPU, consentendo loro di utilizzare la tecnologia GPU per una gamma più ampia di funzioni rispetto al passato. Negli anni 2010, la tecnologia GPU ha acquisito ancora più funzionalità, forse in modo più significativo il ray-tracing (la generazione di immagini al computer tracciando la direzione della luce da una telecamera) e i tensor core (progettati per consentire il deep learning).

Grazie a questi progressi, le GPU hanno svolto un ruolo importante nell'accelerazione dell'AI e nei processori di deep learning, contribuendo ad accelerare lo sviluppo di applicazioni AI e di Apprendimento automatico (ML). Oggi, oltre ad alimentare le console di gioco e i software di editing, le GPU alimentano funzioni di elaborazione all'avanguardia fondamentali per molte aziende.

 

Soluzioni GPU IBM® Cloud per workload AI e HPC

I progressi della tecnologia GPU e la crescente domanda di AI e HPC hanno cambiato il modo in cui i settori estraggono valore dai loro dati e spingono le prestazioni IT a nuovi livelli.

Contenuti correlati

Iscriviti alla newsletter IBM

Quali sono i diversi tipi di GPU?

Esistono tre tipi di GPU, GPU discrete, GPU integrate e GPU virtuali:  

Discrete: le GPU discrete, o dGPU, sono processori grafici separati dalla CPU di un dispositivo, in cui le informazioni vengono acquisite ed elaborate, consentendo al computer di funzionare. Le GPU discrete sono normalmente utilizzate in applicazioni avanzate con requisiti speciali, come l'editing video, la creazione di contenuti o i giochi di fascia alta . Si tratta di chip distinti con connettori a schede di circuiti separati, che di solito vengono collegati alla CPU tramite uno slot express. Una delle GPU discrete più utilizzate è il marchio Intel Arc, creato per il settore dei giochi per PC.  

Integrata: una GPU integrata, o iGPU, è integrata nell'infrastruttura di un computer o di un dispositivo e in genere è inserita accanto alla CPU. Progettate negli anni 2010 da Intel, le GPU integrate sono diventate sempre più popolari, in quanto produttori come MSI, ASUS e Nvidia si sono accorti della potenza della combinazione delle GPU con le CPU, piuttosto che richiedere agli utenti di aggiungere autonomamente le GPU tramite uno slot PCI express. Oggi rimangono una scelta popolare per gli utenti di laptop, i gamer e altri che eseguono programmi ad alta intensità di calcolo sui propri PC.  

Virtuale: le GPU virtuali hanno le stesse funzionalità delle GPU discrete o integrate, ma senza l'hardware. Si tratta semplicemente di una versione basata su software di un GPU creata per un'istanza cloud e può essere utilizzata per eseguire gli stessi workload. Inoltre, poiché non dispongono di hardware, sono più semplici ed economici da mantenere rispetto alle loro controparti fisiche. 

 

Casi d'uso moderni della GPU

Nel temo, le GPU si sono sviluppate, i miglioramenti tecnici le hanno rese più programmabili e sono state scoperte altre funzionalità. In particolare, la loro capacità di dividere le attività in più di un processore, noto come elaborazione parallela, li ha resi indispensabili per un'ampia gamma di applicazioni, come il gioco per PC, l'high performance computing(HPC), le workstation di rendering 3D, il data center computing e molti altri. Ecco alcune delle applicazioni più importanti e moderne della tecnologia GPU:

 

Intelligenza artificiale

L'AI e le sue numerose applicazioni sarebbero probabilmente impossibili senza la tecnologia GPU. La capacità delle GPU di risolvere problemi altamente tecnici in modo più rapido ed efficiente rispetto alle CPU tradizionali le rende indispensabili. Le GPU alimentano molte delle principali applicazioni di AI, come il supercomputer AI cloud-native di IBM, Velache richiede elevate velocità per poter formare set di dati sempre più grandi. I modelli di AI si addestrano e vengono eseguiti sulle GPU dei data center, in genere gestite dalle aziende che conducono ricerche scientifiche o altre attività ad alta intensità di calcolo.

Machine learning (ML) e deep learning (DL)

Il machine learning, o Apprendimento automatico (ML), si riferisce a una disciplina specifica dell'AI relativa all'uso di dati e algoritmi per imitare il modo in cui gli esseri umani imparano. Il deep learning, o DL, è un sottoinsieme del machine learning (Apprendimento automatico (ML)) che utilizza reti neurali per simulare il processo decisionale del cervello umano. La tecnologia GPU è fondamentale per entrambe le aree di avanzamento tecnologico.

Per quanto riguarda machine learning (ML) e DL, le GPU potenziano la capacità dei modelli di ordinare enormi set di dati e di fare inferenze in modo simile agli esseri umani. Le GPU migliorano in modo specifico le aree di memoria e ottimizzazione perché possono eseguire molti calcoli simultanei contemporaneamente. Inoltre, le GPU utilizzate per machine learning (ML) e DL utilizzano meno risorse rispetto alle CPU, senza un calo di potenza o precisione.

Blockchain

Blockchain, il popolare registro utilizzato per registrare le transazioni e tenere traccia degli asset nelle reti aziendali, fa molto affidamento sulla tecnologia GPU, soprattutto quando si tratta di un passaggio noto come "prova di lavoro". In molte blockchain ampiamente utilizzate, come le criptovalute, la fase di prova del lavoro è vitale per la convalida di una transazione, consentendone l'aggiunta alla blockchain.

Gaming

Il settore dei giochi ha sfruttato per la prima volta la potenza delle GPU negli anni 1990 per migliorare l'esperienza di gioco complessiva con maggiore velocità e precisione grafica. Oggi, i giochi personali richiedono un'elevata intensità di calcolo a causa di scenari iperreali, interazioni in tempo reale e mondi di gioco vasti e coinvolgenti. Le tendenze nei giochi come la realtà virtuale (VR), le frequenze di aggiornamento più elevate e gli schermi a risoluzione più elevata dipendono tutte dalle GPU per fornire rapidamente la grafica in ambienti di elaborazione sempre più impegnativi.

Video editing

Tradizionalmente, i lunghi tempi di rendering sono stati un grosso ostacolo nelle applicazioni software di editing consumer e professionali. Da quando sono state inventate, le GPU hanno ridotto costantemente i tempi di elaborazione e le risorse di calcolo nei prodotti di editing video più diffusi, come Final Cut Pro e Adobe Premiere. Oggi, le GPU dotate di elaborazione parallela e AI integrata accelerano notevolmente le funzionalità di modifica per qualsiasi cosa, dalle suite di editing professionali alle app per smartphone.

Creazione di contenuto

I miglioramenti dell'elaborazione, nelle prestazioni e della qualità grafica hanno reso le GPU una parte essenziale della trasformazione del settore della creazione di contenuti. Oggi, i creatori di contenuti dotati di una scheda grafica ad alte prestazioni e di Internet ad alta velocità possono generare contenuti realistici, aumentarli con l'AI e il machine learning, quindi modificarli e trasmetterli a un pubblico dal vivo più velocemente che mai. Tutto questo grazie, in gran parte, ai progressi della tecnologia delle GPU.

Visualizzazione e simulazione

Le GPU sono molto richieste in diversi settori per migliorare l'esperienza e le funzionalità di formazione di applicazioni professionali complesse, tra cui procedure dettagliate sui prodotti, disegni CAD e immagini mediche e sismiche/geofisiche. Le GPU sono fondamentali nelle visualizzazioni avanzate utilizzate nella formazione professionale di vigili del fuoco, astronauti, insegnanti e altri con animazione 3D, AI e di machine learning (ML), rendering avanzato ed esperienze di realtà virtuale (VR) e realtà aumentata (AR) iperrealistiche.

Inoltre, ingegneri e climatologi utilizzano applicazioni di simulazione basate su GPU per prevedere le condizioni meteorologiche, la fluidodinamica, l'astrofisica e il comportamento dei veicoli in determinate condizioni. Una delle GPU più potenti disponibili per questi scopi è il chip Nvidia geforce RTX, costruito principalmente per la visualizzazione scientifica e l'esplorazione energetica.

Come funziona una GPU?

Le GPU odierne utilizzano molti multiprocessori per gestire tutte le diverse parti del compito loro assegnato. 

Una GPU dispone di una propria memoria ad accesso rapido (RAM), un tipo specifico di memoria elettronica utilizzata per memorizzare codice e dati a cui il chip può accedere e che può modificare in base alle esigenze. Le GPU avanzate in genere dispongono di RAM appositamente progettata per contenere i grandi volumi di dati necessari per attività ad alta intensità di calcolo come l'editing grafico, i giochi o i casi d'uso AI/ML.

Due tipi popolari di memoria GPU sono la Graphics Double Data Rate 6 Synchronous Dynamic Random-Access Memory (GDDR6) e la GDDR6X, una generazione successiva. GDDR6X consuma il 15% in meno di energia per bit trasferito rispetto a GDDR6, ma il suo consumo energetico complessivo è maggiore poiché GDDR6X è più veloce. Le iGPU possono essere integrate nella CPU di un computer o inserite in uno slot accanto ad essa e collegate tramite una porta PCI express. 

Qual è la differenza tra una GPU e una CPU?

Le CPU e le GPU condividono un design simile, incluso un numero simile di core e transistor per le attività di elaborazione, ma le CPU sono più generiche nelle loro funzioni rispetto alle GPU. Le GPU tendono a concentrarsi su un'attività di calcolo singola e specifica, come l'elaborazione grafica o il machine learning.

Le CPU sono il cuore e il cervello di un sistema informatico o di un dispositivo. Ricevono istruzioni o richieste generali relative a un'attività da un programma o da un'applicazione software. Una GPU, d'altra parte, ha un compito più specifico, normalmente l'elaborazione rapida di immagini e video ad alta risoluzione. Per svolgere il loro compito, le GPU eseguono costantemente complessi calcoli matematici necessari per il rendering della grafica o altre funzioni ad alta intensità di calcolo.

Una delle maggiori differenze tra le CPU e le GPU è che le CPU tendono a utilizzare un numero minore di core e a eseguire i loro compiti in ordine lineare, mentre le GPU hanno centinaia, o addirittura migliaia, di core, consentendo l'elaborazione parallela che guida le loro funzionalità di elaborazione fulminee.

Le prime GPU sono state costruite per accelerare il rendering della grafica 3D, facendo apparire le scene di film e videogiochi più realistiche e coinvolgenti. Il primo chip GPU, il GeForce di Nvidia, è stato rilasciato nel 1999 ed è stato subito seguito da un rapido periodo di crescita che ha visto le funzionalità della GPU espandersi in altre aree grazie alle loro funzionalità di elaborazione parallela ad alta velocità.

L'elaborazione parallela, o calcolo parallelo, è un tipo di calcolo che si affida a due o più processori per realizzare sottoinsiemi diversi di un compito di calcolo complessivo. Prima delle GPU, i computer di vecchia generazione potevano eseguire solo un programma alla volta, spesso impiegando ore per completare un’attività. La funzione di elaborazione parallela delle GPU esegue molti calcoli o attività contemporaneamente e questo le rende più veloci ed efficienti rispetto alle CPU dei computer di vecchia generazione. 

Soluzioni correlate
Server cloud GPU

Accedi a uno dei processi di selezione dei server più flessibili del settore con una perfetta integrazione nell'architettura, nelle API e nelle applicazioni IBM Cloud e in una rete di data center distribuita a livello globale.

Prova i server cloud IBM GPU

IBM watsonx

Implementa e integra facilmente l'AI in tutta l'azienda, gestisci tutte le fonti di dati e accelera i workflow di AI responsabile—tutto su un'unica piattaforma.

Scopri IBM® watsonx

Soluzioni di storage AI NVIDIA

Potenzia i risultati dell'AI con più dati e un accesso globale accelerato che consente di superare le barriere di accesso ai dati e creare nuove dinamiche di storage per le soluzioni AI NVIDIA. 

Scopri la differenza con le soluzioni di AI storage NVIDIA

Soluzioni di calcolo ad alte prestazioni

Scopri le soluzioni HPC per l'hybrid cloud di IBM con un portafoglio completo di soluzioni integrate di calcolo ad alte prestazioni (HPC) per l'hybrid cloud.

Affronta sfide su larga scala e ad alta intensità di calcolo

IBM Cloud Bare Metal Servers

Scopri la potenza degli IBM® Cloud Bare Metal Servers dedicati single-tenant, che possono essere distribuiti e gestiti come cloud service.

Provisioning IBM Cloud Bare Metal Servers

Risorse Che cos'è una GPU?

Scopri di più sulle unità di elaborazione grafica (GPU) e sul motivo per cui sono così importanti per le aziende che stanno valutando nuovi approcci per gestire i workload (video e testo).

Potenziare il supercomputer AI cloud-native di IBM

Ti presentiamo Vela, un supercomputer AI in IBM Cloud creato per implementare in modo più efficiente i workflow AI, dalla pre-elaborazione dei dati e dall'addestramento dei modelli all'incubazione di nuovi prodotti.

Che cos'è il machine learning?

Scopri la storia del machine learning (ML) insieme a importanti definizioni, applicazioni e preoccupazioni aziendali.

Che cos'è l'intelligenza artificiale?

Scopri di più sull'intelligenza artificiale (AI), una tecnologia che consente a computer e dispositivi digitali di imparare, leggere, scrivere, parlare, vedere, creare, giocare, analizzare e formulare consigli come gli umani.

Cos'è la tecnologia blockchain?

Scopri la potenza della blockchain, un libro mastro condiviso e immutabile che agevola il processo di registrazione delle transazioni e di monitoraggio degli asset in una rete aziendale.

La nuova offerta GPU di IBM nel cloud

Scopri come IBM sta aiutando i clienti a implementare i foundation model e i workload AI con una nuova offerta GPU su IBM Cloud.

Fasi successive

Sperimenta uno studio aziendale di prossima generazione per builder AI per addestrare, convalidare, adattare e implementare modelli AI. La piattaforma IBM® watsonx.ai è una piattaforma di AI e dati che riunisce nuove funzionalità di AI generativa, alimentate da foundation model e machine learning tradizionale.

Esplora IBM watsonx.ai