Home topics Data center hyperscale Cos'è un data center hyperscale?
Esplora IBM Storage Scale Iscriviti per ricevere aggiornamenti in materia di cloud
Illustrazione con collage di pittogrammi di monitor del computer, server, nuvole, punti

Data di pubblicazione: 21 marzo 2024
Autori: Phill Powell, Ian Smalley

Cos'è un data center hyperscale?

Un data center hyperscale è un data center di grandi dimensioni che offre una scalabilità estrema ed è progettato per workload su larga scala con un'infrastruttura di rete ottimizzata, connettività di rete semplificata e una latenza ridotta al minimo.

A causa della domanda sempre crescente di data storage, i data center hyperscale sono ampiamente utilizzati a livello globale per numerosi fornitori e per un'ampia varietà di scopi che includono l'intelligenza artificiale (AI), l'automazione, data analytics, data storage, il trattamento dei dati e altre attività di big data computing.

"Data center hyperscale" o "hyperscaler"?

Vale la pena dedicare un momento a chiarire questi termini e le eventuali ambiguità che possono presentare. Questi due termini sono spesso usati in modo intercambiabile, causando confusione.

 Il termine "hyperscaler" viene spesso utilizzato per indicare i data center hyperscale. Tuttavia, il termine "hyperscaler" ha già un significato consolidato ed è altrettanto spesso usato per riferirsi ai provider di cloud service (CSP) come AWS e altre aziende che offrono servizi di data center hyperscale.

Poiché lo stesso termine può essere utilizzato per indicare sia un tipo di data center che le aziende specializzate nell'hyperscale computing e che forniscono tali data center, possono crearsi dei fraintendimenti (ad esempio, "l'hyperscaler ha creato l'hyperscaler"). Di conseguenza, qui parleremo di data center hyperscale e faremo riferimento ai provider di cloud service (CSP) utilizzando per ciascuno il proprio termine univoco, evitando il termine più generico "hyperscaler".

Ancora più storage con una piattaforma dati globale

Tutto ciò che c'è da sapere sulla Global Data Platform di IBM, progettata per consentire a chiunque di accedere a qualsiasi cosa, ovunque.

Contenuti correlati

Iscriviti alla newsletter IBM

Come funzionano i data center hyperscale?

I data center (di ogni dimensione) possono far risalire le loro origini all'importante concetto di virtualizzazione. La virtualizzazione utilizza il software per creare un livello di astrazione sull'hardware del computer che consente la divisione dei componenti hardware di un singolo computer in più virtual machines (VM). Ogni VM esegue il proprio sistema operativo e si comporta come un computer indipendente, anche se viene eseguita solo su una parte dell'effettivo hardware del computer sottostante. In questo modo, la virtualizzazione consente il cloud computing.

Un data center hyperscale si differenzia principalmente dai data center tradizionali in virtù delle sue dimensioni. Un data center hyperscale richiede un sito fisico sufficientemente grande da ospitare tutta l'attrezzatura associata, inclusi almeno 5.000 server e probabilmente chilometri di apparecchiature di connessione. Pertanto, i data center hyperscale possono facilmente occupare migliaia di metri quadrati di spazio.

La ridondanza è un altro aspetto importante dei data center hyperscale e consiste semplicemente nel fornire misure e/o dispositivi di backup che possano intervenire automaticamente in caso di guasto all'attrezzatura o di interruzione dell'alimentazione. La ridondanza è particolarmente importante per i data center hyperscale, perché questi sistemi vengono spesso eseguiti automaticamente, in background, 24 ore su 24 e con una scarsa supervisione diretta.

Data center hyperscale: considerazioni iniziali

Un'organizzazione che intende gestire un data center hyperscale dovrà prendere diverse decisioni per determinare la migliore linea d'azione da seguire. La prima domanda da porsi potrebbe essere: “Dovremmo costruire o prendere in affitto?” La costruzione di un data center, anche modesto, comporta un investimento di una certa entità. La costruzione di un data center hyperscale richiede un impegno finanziario ancora maggiore.

Molte aziende scelgono di seguire un'altra strada scegliendo un data center in colocation, ovvero un data center i cui proprietari affittano strutture e spazio server ad altre aziende. L'attrattiva di questo metodo è chiaramente evidente: affittare uno spazio per l'hardware richiede un investimento significativamente inferiore rispetto alla costruzione di un'intera struttura per ospitare l'attrezzatura, almeno per quanto riguarda la spesa iniziale.

Confrontando le due opzioni di base, è chiaro che ognuna presenta vantaggi e svantaggi. La costruzione di un data center hyperscale è in genere costosa e laboriosa, ma in questo caso le strutture hyperscale sono costruite su misura per l'azienda, con tutti gli aspetti regolabili opportunamente ottimizzati.

L'affitto di uno spazio in un data center in colocation, invece, offre più opzioni di mobilità e richiede investimenti infinitamente inferiori. Ma è molto improbabile che un data center in colocation sia progettato secondo le specifiche ideali di un certo cliente.

 Alcune organizzazioni sono alla ricerca di un'altra opzione, che garantisca loro la possibilità di crescere senza dover acquistare ulteriori e costose apparecchiature di storage per il proprio sistema basato sul cloud privato. Per molte di queste aziende, la risposta giusta comporta la migrazione da un sistema privato e il trasferimento delle operazioni in un ambiente di cloud pubblico, come quello delle app Software-as-a-Service (SaaS)  come Microsoft 365 o Google Suite.

Esistono altre varianti come i data center modulari, che sono strutture pre-ingegnerizzate progettate per essere utilizzate come data center. Non solo i data center modulari sono pre-ingegnerizzati, ma sono anche preconnessi e dotati della necessaria attrezzatura di raffreddamento. I data center modulari sono ideali per le organizzazioni che desiderano sperimentare le funzionalità dei data center in modo limitato prima di effettuare ingenti investimenti, nonché per le aziende che devono implementare rapidamente una soluzione di data center affidabile.

Storia dell'hyperscale

I data center vengono utilizzati fin dagli anni '40, quando un singolo, mastodontico computer riempiva interi reparti. Man mano che i computer sono diventati più efficienti in termini di dimensioni nel corso degli anni, anche lo spazio fisico on-premise loro assegnato si è evoluto. Successivamente, negli anni '90, si è assistito alla prima esplosione dei microcomputer, che hanno ridotto radicalmente le dimensioni necessarie per le operazioni IT. Poco tempo dopo, le "sale server" sono diventate i "data center".

Per quanto riguarda i progressi più importanti, quello che è considerato il primo data center hyperscale è stato lanciato nel 2006 da Google a The Dalles, OR (vicino a Portland). Questa struttura hyperscale occupa attualmente uno spazio di 120.000 metri quadrati e impiega uno staff di circa 200 operatori di data center. Abbiamo utilizzato il termine "attualmente" perché Google prevede di ampliare questo "campus energetico" con un progetto di espansione da 600 milioni di dollari che aggiungerà un quinto edificio di 27.000 metri quadrati. A dimostrazione del suo ulteriore impegno nei confronti di questa tecnologia, Google ora gestisce 14 strutture di data center negli Stati Uniti, oltre a 6 in Europa, 3 in Asia e 1 in Cile.

Al momento, le strutture hyperscale più grandi del mondo (link esterno a ibm.com) si trovano nella regione cinese della Mongolia Interna. È qui che China Telecom gestisce un data center hyperscale di circa 1 milione di metri quadrati. In altre parole, il data center più grande ha le dimensioni di 165 campi da football americano regolamentari, tutti uniti in uno spazio largo come 11 e lungo come 15 campi da football. Non sorprende che questo enorme data center hyperscale (la cui costruzione è costata 3 miliardi di dollari) sia dotato di tutto ciò di cui ha bisogno dal punto di vista funzionale e vanti persino strutture residenziali per gli operatori di data center hyperscale che vi lavorano.

Le tre principali aziende hyperscale

Classificare le principali aziende hyperscale può essere problematico. Innanzitutto, c'è la questione relativamente semplice di definire quali criteri utilizzare. In teoria, ci si potrebbe concentrare sul numero di data center hyperscale posseduti o costruiti, ma questo non è un modo del tutto accurato di giudicare la fornitura di cloud service da parte di un'azienda, dal momento che numerose aziende (tra cui Apple) affittano alcuni dei data center che utilizzano da altri fornitori di servizi.

Rimane quindi un solo mezzo di confronto valido: la percentuale della quota di mercato. Questo è in definitiva il miglior indicatore di quali aziende hyperscale stiano realmente guidando il mercato. In realtà, anche questo metodo è leggermente imperfetto, perché il mercato dell'hyperscale computing non è mai statico, ma sempre in continua evoluzione.

Tuttavia, le tendenze in atto indicano che un gruppo di tre provider di hyperscale ha attualmente una solida posizione nel segmento più ampio di questo mercato:

AWS (Amazon Web Services)

Attualmente, AWS è il più grande provider di cloud service hyperscale, con una quota di mercato AWS (link esterno a ibm.com) di circa il 32%. AWS opera in 32 regioni cloud e 102 zone di disponibilità, con uno spazio totale di 3,1 milioni di metri quadrati. AWS è nota per le sue competenze in materia di automazione, gestione dei database e data analytics.

Microsoft Azure

La popolare piattaforma hyperscale di Microsoft Azure attualmente detiene circa il 23% (link esterno a ibm.com) del mercato hyperscale. Azure opera in 62 regioni cloud, con 120 zone di disponibilità. Non sorprende che Microsoft Azure funzioni particolarmente bene in combinazione con il software Microsoft per i data center aziendali.

GCP (Google Cloud Platform)

Conosciuto originariamente e principalmente per la sua vasta esperienza nella gestione dei dati, Google Cloud controlla circa il 10% (link esterno a ibm.com) del mercato hyperscale e opera in 39 regioni cloud, con 118 zone di disponibilità. Oltre alla gestione e al trattamento dei dati, GCP attrae le aziende per i suoi punti di forza nell'intelligenza artificiale (AI) e nell'analytics di livello avanzato.

Aziende hyperscale di livello secondario

Numerosi altri fornitori operano in questo stesso mercato in una fascia secondaria di quote di mercato.

  • Alibaba Cloud: sebbene non sia grande come AWS o altri importanti provider, Alibaba possiede una solida quota di mercato hyperscale all'interno della regione Asia-Pacifico. Le sue offerte più importanti includono prodotti legati all'infrastruttura e servizi di AI.

  • Apple: Apple utilizza un modello ibrido per i suoi cloud service. Apple possiede otto data center negli Stati Uniti, in Europa e in Cina, con l'intenzione di costruirne altri. Inoltre, Apple ha accordi di leasing pluriennali per i servizi di cloud computing di provider come AWS e GCP.

  • IBM Cloud: da tempo sinonimo di espansione tecnologica, IBM Cloud vanta una profonda esperienza nel lavoro con data center aziendali e nella fornitura di servizi in un'ampia gamma di aree correlate. Ultimamente, il lavoro pionieristico dell'azienda con l'AI le sta conferendo nuova visibilità.

  • Meta Platforms: Meta Platforms, la società madre dietro piattaforme online popolari come Facebook e Instagram, gestisce 21 data center hyperscale in tutto il mondo il cui spazio totale supera i 4,6 milioni di metri quadrati.

  • Oracle Cloud Infrastructure (OCI): OCI si è posizionata come un'alternativa a basso costo ad AWS, offrendo servizi simili a un prezzo notevolmente ridotto. OCI consente la creazione di app cloud-native e offre una facile migrazione dei workload mission-critical.

Consumo energetico dei data center hyperscale

Il consumo di energia è il problema più urgente che riguarda i data center hyperscale. L'enorme potenza di calcolo necessaria per far funzionare i data center hyperscale richiede un'enorme quantità di energia elettrica. Come l’ascesa delle criptovalute e del mining di bitcoin, i data center su larga scala rappresentano uno sviluppo tecnologico abbastanza recente la cui fame di energia straordinariamente grande li pone almeno in qualche modo in contrasto con gli obiettivi di sostenibilità ecologica (sebbene alcune aziende stiano trovando modi per mitigare o addirittura eliminare tali problemi).

Oltre alle migliaia di server di computer costantemente in funzione, è necessario considerare anche le esigenze di energia dell'attrezzatura di alimentazione e di rete (come trasformatori e router), oltre ai sistemi di raffreddamento di fondamentale importanza che impediscono all'hardware di raggiungere situazioni di sovraccarico termico. Senza contare i costi di costruzione e gestione di una struttura enorme per contenere questo alveare di attività.

Ecco perché l'efficienza energetica è essenziale per una gestione efficace dei data center hyperscale. Se un unico server non funziona al massimo dell'efficienza, può essere considerato un problema trascurabile. Ma se una struttura hyperscale contiene migliaia di server che non funzionano in modo efficiente, il problema sarà molto più grande e costoso.

A seconda delle dimensioni, i data center hyperscale possono richiedere megawatt o addirittura gigawatt di potenza. La variabilità tra i data center hyperscale è tale che può essere difficile stabilire un consumo medio di energia. Queste linee guida sulle diverse dimensioni dei data center non sono definizioni ufficiali, ma sono state definite in modo informale nel corso del tempo e possono aiutare la nostra comprensione generale di queste strutture:

  • Micro data center: il più piccolo data center riconosciuto è generalmente utilizzato da singole aziende o per uffici remoti. I micro data center di solito hanno una capacità pari o inferiore a 10 server rack, l'equivalente di una capacità totale di circa 140 server. I micro data center occupano in genere uno spazio inferiore a 460 metri quadrati. Consumo di energia: inferiore a 100-150 kW.

  • Data center di piccole dimensioni: i data center di piccole dimensioni richiedono in genere tra 460 e 1.800 metri quadrati di spazio e possono ospitare da 500 a 2.000 server. Consumo di energia: 1–5 MW.

  • Data center di medie dimensioni: un data center in loco di medie dimensioni ha in genere tra 2.000 e 5.000 server. Analogamente, la sua metratura può variare da 1.800 a 9.000 metri quadrati. Consumo di energia: Circa 100 MW.

  • Data center hyperscale: secondo la definizione di IDC di hyperscaler (link esterno a ibm.com), per essere considerata un vero data center hyperscale, una struttura deve contenere almeno 5.000 server e occupare uno spazio fisico di almeno 900 metri quadrati. Consumo di energia: oltre 100 MW.

Problemi di approvvigionamento energetico e area geografica

L'enorme fabbisogno energetico richiesto dai problemi legati ai dati hyperscale presenta degli interrogativi di carattere geografico per le aziende che desiderano allocare investimenti significativi in questo tipo di infrastruttura.

L'energia può essere più o meno costosa in base alle diverse aree geografiche e le aziende spesso guardano ai paesi o alle zone non sviluppati o sottosviluppati come potenziali siti di costruzione per i data center hyperscale, perché il prezzo dell'elettricità è inferiore all'interno di quelle economie.

Ma questo è solo uno dei criteri da considerare. Trovare un'area con una fonte energetica conveniente è fondamentale, così come osservare la sostenibilità locale. Lo stesso vale per l'individuazione di un sito che non sia soggetto a condizioni meteorologiche costantemente avverse, che potrebbero mettere a rischio le funzioni mission-critical di un'azienda a causa di interruzioni di corrente e tempo di inattività.

Le aziende stanno cercando di bilanciare le loro iniziative aziendali con gli obiettivi di sostenibilità, in modo che i data center hyperscale siano convenienti da gestire e lascino un'impronta di carbonio quanto più piccola possibile. La spinta a ridurre il consumo di energia sta portando le aziende a orientarsi verso soluzioni di energia rinnovabile per alimentare i propri data center hyperscale. La maggior parte delle grandi aziende che si occupano di hyperscale computing ha studiato o sta esplorando le opzioni di energia rinnovabile, come l'energia solare ed eolica, per compensare il considerevole consumo di energia.

In alcuni casi, i provider di cloud service si sono persino impegnati a garantire la sostenibilità completa dei loro data center. Il caso più eclatante è quello di Apple (link esterno a ibm.com), che dal 2014 supporta la sostenibilità con azioni effettivamente costruttive. In quel momento, infatti, l'azienda ha imposto che tutti i suoi data center fossero alimentati completamente tramite energia rinnovabile. Ormai da un decennio, tutti i data center di Apple funzionano con varie combinazioni di celle a combustibile a biogas, energia idroelettrica, solare ed eolica.

Tendenze recenti e sviluppi futuri dei data center hyperscale

Il boom dei dati non accenna a fermarsi. In effetti, diverse prove mostrano che sta ancora aumentando.

Più dati da diverse origini

Non c'è mai stato un momento in cui sono stati prodotti, registrati e studiati più dati di oggi. La tecnologia ha raggiunto un traguardo in cui anche i gadget più semplici sono progettati in modo così ingegnoso da generare dati autonomamente e trasmetterli per scopi di archiviazione e analisi, tramite l'Internet of Things (IoT).

Lo storage triplicherà nei prossimi anni

I risultati annunciati nell'ottobre 2023 dal think tank Synergy Research Group (che si occupa di ricerche quantitative e analisi di mercato) dimostrano che i progressi dell'AI contribuiranno a far crescere la capacità dei data center hyperscale e che, da qui al 2028, la capacità media dei data center hyperscale (link esterno a ibm.com) sarà più che triplicata.

Effetto secondario su altri settori

La creazione di data center hyperscale stimola altri settori, come quello della produzione (considerando le migliaia di rack di server che devono essere costruiti). Un altro settore è quello immobiliare: per ospitare queste mega strutture vengono acquistati e venduti enormi appezzamenti di terreno non edificato. A beneficiarne è anche il settore edile.

Il mercato è vittima dei "dolori della crescita"

Un report di Newmark del 2024 (link esterno a ibm.com) ha analizzato la situazione attuale che interessa il mercato statunitense, il più grande consumatore al mondo di data center e data center hyperscale. Newmark ha scoperto che la domanda di nuovi data center negli Stati Uniti supera di gran lunga gli attuali livelli di capacità, soprattutto all’interno e nei dintorni delle principali città statunitensi.

Il consumo energetico raddoppierà entro il 2030

I progressi tecnologici introdotti dall'AI e dal machine learning richiederanno quantità di energia sempre crescenti. Nello stesso report del 2024, Newmark ha previsto che l'energia necessaria ai data center nel 2030 (link esterno a ibm.com) sarà quasi raddoppiata, rispetto ai 17 MW del 2022. Secondo Newmark, l'utilizzo totale dei data center raggiungerà i 35 GW.

Soluzioni correlate
IBM Storage Scale

Scopri il modo più semplice per distribuire IBM Storage Scale con prestazioni e capacità che vanno da 1 a oltre 1000 nodi.

Esplora IBM Storage Scale

Soluzioni IBM storage area network (SAN)

Aggiorna l'infrastruttura di storage con gli switch SAN IBM di tipo b e di tipo c e riduci il costo totale di proprietà.

Esplora le soluzioni IBM storage area network (SAN)

IBM Consulting Cloud Accelerator

Dai un impulso all'adozione della piattaforma IBM Cloud con un acceleratore che supporta un'ampia gamma di app e landing zone.

Esplora IBM Consulting Cloud Accelerator
IBM Storage

Bilancia entrambi i lati dell'equazione del data storage utilizzando il software IBM (come IBM FlashSystem) e le soluzioni hardware IBM.

Esplora IBM Storage

Risorse Cos'è l'hyperscale?

L'hyperscale consiste in un'architettura e distributed computing environment progettato per fornire una scalabilità estrema con lo scopo di gestire workload su larga scala.

Che cos'è una storage area network (SAN)?

Una storage area network (SAN) è una rete dedicata adattata a un ambiente specifico, che combina server, sistemi di storage, switch di rete, software e servizi.

Cos'è un data center?

Un data center è una stanza fisica, un edificio o una struttura che ospita un'infrastruttura IT per la creazione, l'esecuzione e la distribuzione di applicazioni e servizi e per l'archiviazione e la gestione dei dati associati a tali applicazioni e servizi.

Che cos'è il data storage?

"Data storage" si riferisce alla registrazione e conservazione di informazioni digitali su supporti magnetici, ottici o meccanici per operazioni in corso o future.

Cos'è lo storage a oggetti?

L'object storage è un'architettura di archiviazione dati ideale per memorizzare, archiviare, eseguire il backup e gestire elevati volumi di dati statici non strutturati in modo affidabile, efficiente e conveniente.

Che cos'è l'infrastruttura IT?

"Infrastruttura IT" si riferisce all'insieme dei componenti necessari per il funzionamento e la gestione dei servizi IT e degli ambienti IT aziendali.

Fai il passo successivo

I data center hyperscale stanno portando il concetto di storage verso livelli di produttività totalmente nuovi e si stanno dimostrando un potente alleato per le applicazioni di AI e machine learning. Scopri come utilizzare queste nuove potenti funzionalità per il tuo business con IBM Storage Scale.

Esplora IBM Storage Scale