Home topics HPC Che cos'è l'high-performance computing (HPC)?
Esplora la soluzione HPC di IBM Abbonati per ricevere gli aggiornamenti cloud
Illustrazione che mostra come il computing ad alta potenza utilizza potenti processori per elaborare enormi quantità di dati in tempo reale
Che cos'è l'HPC?

L'HPC (High Performance Computing) è una tecnologia che utilizza cluster di potenti processori che lavorano in parallelo per elaborare enormi set di dati multidimensionali, noti anche come big data, e risolvere problemi complessi a velocità estremamente elevate. L'HPC risolve alcuni dei problemi informatici più complessi di oggi in tempo reale.

I sistemi HPC funzionano in genere a velocità oltre un milione di volte superiori rispetto ai più veloci sistemi desktop, laptop o server di base.

Per decenni, i supercomputer, ovvero computer appositamente costruiti che incorporano milioni di processori o core di processori, sono stati fondamentali per il calcolo ad alte prestazioni. I supercomputer sono ancora con noi: in questo documento, il supercomputer più veloce è il Frontier (link esterno a ibm.com), con una velocità di elaborazione di 1,102 exaflops o quintilioni di operazioni a virgola mobile al secondo (flops). Oggi, tuttavia, sempre più organizzazioni eseguono servizi HPC su cluster di server ad alta velocità, ospitati on-premise o nel cloud.

I carichi di lavoro HPC rivelano nuove importanti informazioni che migliorano la conoscenza umana e creano importanti vantaggi competitivi. Ad esempio, l'HPC sequenzia il DNA, automatizza il trading azionario ed esegue algoritmi e simulazioni di intelligenza artificiale (AI), come quelli che consentono l'automatizzazione della guida autonoma, che analizzano terabyte di streaming di dati da sensori IoT, radar e sistemi GPS in tempo reale per prendere decisioni in una frazione di secondo.

Ottieni flessibilità sul posto di lavoro con DaaS

Scopri in che modo il Desktop as a Service (DaaS) consente alle aziende di raggiungere lo stesso livello di prestazioni e sicurezza della distribuzione delle applicazioni on-premise.

Contenuti correlati

Registrati per la guida sulla modernizzazione delle app

Come funziona l'HPC?

Un sistema di elaborazione standard risolve i problemi principalmente utilizzando il calcolo seriale: suddivide il workload in una sequenza di attività, quindi le esegue una dopo l'altra sullo stesso processore.

Al contrario, l'HPC utilizza:

Elaborazione parallela massiva

Il parallel computing esegue più attività contemporaneamente su più server o processori. L'elaborazione parallela massiva è il parallel computing che utilizza da decine di migliaia a milioni di processori o core di processore.

Cluster di computer (chiamati anche cluster HPC)

Un cluster HPC è costituito da più server ad alta velocità collegati in rete, con uno scheduler centralizzato che gestisce il carico di lavoro di elaborazione parallela. I computer, chiamati nodi, utilizzano CPU multi-core ad alte prestazioni o, più probabile attualmente, GPU, che sono adatte per calcoli matematici rigorosi, modelli di apprendimento automatico e attività ad alta intensità grafica. Un singolo cluster HPC può includere 100.000 o più nodi.

Componenti ad alte prestazioni

Tutte le altre risorse di elaborazione in un cluster HPC, come rete, memoria, storage e file system, sono ad alta velocità e ad alto throughput. Sono anche componenti a bassa latenza in grado di tenere il passo con i nodi e ottimizzare la potenza di calcolo e le prestazioni del cluster.

HPC e cloud computing

Fino a dieci anni fa, l'elevato costo dell'HPC, che comportava il possesso o il leasing di un supercomputer o la creazione e l'hosting di un cluster HPC in un data center on-premise, lo rendeva fuori portata per la maggior parte delle organizzazioni.

Oggi l'HPC nel cloud, talvolta chiamato HPC-as-a-Service o HPCaaS, offre alle aziende un modo molto più veloce, più scalabile e più conveniente di sfruttare l'HPC. L'HPCaaS include in genere l'accesso ai cluster e all'infrastruttura HPC ospitati nel data center di un provider di servizi cloud, oltre a funzionalità di rete (come AI e analytics dei dati) e competenze HPC.

Oggi, le tendenze convergenti guidano l'HPC nel cloud sono tre:

Aumento della domanda

Le organizzazioni di tutti i settori stanno diventando sempre più dipendenti dalle informazioni in tempo reale e dal vantaggio competitivo che deriva dalla risoluzione dei problemi complessi che solo le applicazioni HPC possono apportare. Ad esempio, il rilevamento delle frodi con le carte di credito, su cui tutti noi facciamo affidamento e che la maggior parte di noi ha sperimentato almeno una volta nella vita, si affida sempre più all'HPC per identificare più rapidamente le frodi e ridurre i fastidiosi falsi positivi, anche se l'attività di frode si espande e le tattiche dei truffatori cambiano costantemente.

Prevalenza di reti RDMA a bassa latenza e throughput più elevato

L'accesso diretto alla memoria remota (RDMA) consente a un computer in rete di accedere alla memoria di un altro senza coinvolgere il sistema operativo di uno dei due o interromperne l'elaborazione, riducendo al minimo la latenza e massimizzando la velocità effettiva. I fabric RDMA emergenti ad alte prestazioni, tra cui InfiniBand, l'architettura dell'interfaccia virtuale e RDMA su ethernet convergente, stanno essenzialmente rendendo possibile l'HPC basato sul cloud.

Ampia disponibilità HPCaaS su cloud pubblico e privato

Oggi tutti i principali provider di servizi di cloud pubblico offrono servizi HPC. E, mentre alcune organizzazioni continuano a eseguire carichi di lavoro HPC altamente regolamentati o sensibili on-premise, molte stanno adottando o migrando verso servizi HPC su cloud privato offerti da fornitori di hardware e soluzioni.

Casi d'uso dell'HPC

Le applicazioni HPC sono diventate sinonimo di app AI in generale e di app di machine learning e deep learning in particolare. Oggi, infatti, la maggior parte dei sistemi HPC vengono creati pensando a questi workload. Queste applicazioni HPC stanno guidando l'innovazione continua nei settori di:

Sanità, genomica e scienze della vita

Il primo tentativo di sequenziare un genoma umano ha richiesto 13 anni. Oggi, i sistemi HPC possono svolgere lo stesso lavoro in meno di un giorno. Altre applicazioni dell'HPC nel settore sanitario e delle scienze della vita includono la scoperta e la progettazione di farmaci, la diagnosi rapida del cancro e la modellazione molecolare.

Servizi finanziari

Oltre al trading automatizzato e al rilevamento delle frodi, l'HPC alimenta le applicazioni della simulazione Monte Carlo e di altri metodi di analisi del rischio.

Governo e difesa

Due casi d'uso in crescita dell'HPC in questo settore sono le previsioni meteorologiche e la modellazione climatica, che comportano l'elaborazione di grandi quantità di dati meteorologici storici e milioni di cambiamenti giornalieri nei punti dati relativi al clima. Altre applicazioni governative e di difesa includono la ricerca energetica e il lavoro di intelligence.

Energy & utilities

In alcuni casi che si sovrappongono al governo e alla difesa, le applicazioni HPC legate all'energia includono il trattamento dei dati sismici, la simulazione e la modellazione dei bacini idrici, l'analisi geospaziale, la simulazione dei venti e la mappatura del terreno.

Soluzioni correlate
High-performance computing su IBM Cloud

Sia che il tuo carico di lavoro richieda un ambiente cloud ibrido o che debba essere contenuto nel cloud, IBM Cloud dispone degli strumenti di high-performance computing necessari per soddisfare le tue esigenze. 

Scopri l'HPC su IBM Cloud
Infrastruttura AI

Per affrontare le sfide di oggi e prepararti per il futuro, hai bisogno di un software AI di IBM che si integri con la tua infrastruttura e la tua strategia di dati.

Scopri le soluzioni infrastrutturali AI
Gestione del carico di lavoro HPC

Il portfolio delle suite IBM Spectrum LSF ridefinisce la virtualizzazione dei cluster e la gestione dei workload fornendo un sistema integrato per gli ambienti HPC mission-critical. 

Esplora le suite IBM Spectrum LSF
Sistemi di quantum computing

IBM è attualmente l'unica azienda che offre l'intero stack di tecnologia quantistica con l'hardware, i sistemi integrati e i servizi cloud più avanzati.

Esplora i sistemi di quantum computing
Risorse Cos'è il supercomputing?

Il supercomputing è una forma di calcolo ad alte prestazioni che determina o calcola utilizzando un potente computer (supercomputer) riducendo il tempo complessivo per la risoluzione.

La roadmap di IBM per la costruzione di un ecosistema di software quantistico aperto

L'informatica quantistica sta per innescare un cambiamento di paradigma. Il software che si basa su questa tecnologia nascente, basata sulle leggi fisiche della natura, potrebbe presto rivoluzionare l'informatica per sempre.

Fai il passo successivo

IBM offre un portafoglio completo di soluzioni integrate di high-performance computing (HPC) per il cloud ibrido, che offre la flessibilità di gestire workload ad alta intensità di calcolo on-premise o nel cloud. 

Esplora le soluzioni HPC