Home topics Data Center Cos'è un data center?
Esplora i data center di IBM Abbonati per ricevere gli aggiornamenti cloud
Illustrazione con collage di pittogrammi di monitor del computer, server, nuvole, punti
Cos'è un data center?

Un data center è una stanza fisica, un edificio o una struttura che ospita un'infrastruttura IT per la creazione, l'esecuzione e la distribuzione di applicazioni e servizi e per l'archiviazione e la gestione dei dati associati a tali applicazioni e servizi.

Negli ultimi anni, i data center si sono evoluti da strutture on-premise, private e strettamente controllate contenenti l'infrastruttura IT tradizionale per l'uso esclusivo di un'azienda, a strutture o reti di strutture remote di proprietà di provider di servizi cloud che ospitano infrastrutture IT virtualizzate per l'uso condiviso di più aziende e clienti.

La modernizzazione strategica delle app guida la trasformazione digitale

La modernizzazione strategica delle applicazioni è una chiave per il successo della trasformazione, in grado di aumentare i ricavi annuali e ridurre i costi di manutenzione e gestione.

Contenuti correlati

Registrati per ricevere la guida sull'hybrid cloud

Tipi di data center

Esistono diversi tipi di strutture di data center, e una singola azienda può utilizzarne più di uno, a seconda dei workload e delle esigenze aziendali.

Data center aziendali (on-premise)

In questo modello di data center, tutta l'infrastruttura IT e i dati sono ospitati in locale. Molte aziende scelgono i data center on-premise perché ritengono di avere un maggiore controllo sulla sicurezza delle informazioni e di poter rispettare più facilmente normative come il Regolamento generale sulla protezione dei dati (GDPR) dell'Unione Europea o l'Health Insurance Portability and Accountability Act (HIPAA) degli Stati Uniti. In un data center aziendale, l'azienda è responsabile di tutte le attività di distribuzione, monitoraggio e gestione.

Data center su cloud pubblico

I data center su cloud (chiamati anche data center di cloud computing) ospitano le risorse dell'infrastruttura IT per l'uso condiviso da parte di più clienti, da decine a milioni di clienti, tramite una connessione internet.

Molti dei più grandi data center cloud, chiamati data center hyperscale, sono gestiti dai principali provider di servizi cloud, come Amazon Web Services (AWS), Google Cloud Platform, IBM Cloud, Microsoft Azure e Oracle Cloud Infrastructure. La maggior parte dei principali provider di cloud esegue infatti diversi data center hyperscale in tutto il mondo. In genere, i provider di servizi cloud mantengono data center più piccoli e periferici, situati più vicino ai clienti cloud (e ai loro clienti). Per i workload in tempo reale e ad alta intensità di dati, come l'analytics dei big data, l'intelligenza artificiale (AI) e le applicazioni di content delivery, i data center all'edge aiutano a ridurre al minimo la latenza, migliorando le prestazioni complessive delle applicazioni e l'esperienza del cliente.

Data center gestiti e strutture di colocation

I data center gestiti e le strutture di colocation sono opzioni per le organizzazioni che non dispongono dello spazio, del personale o delle competenze per implementare e gestire la propria infrastruttura IT on-premise, in tutto o in parte, ma che preferiscono non ospitare tale infrastruttura utilizzando le risorse condivise di un data center su cloud pubblico.

In un data center gestito, l'azienda cliente noleggia server dedicati, storage e hardware di rete dal provider del data center, mentre il provider gestisce l'amministrazione, il monitoraggio e la gestione per l'azienda del cliente.

In una struttura di colocation, l'azienda cliente possiede tutta l'infrastruttura e affitta uno spazio dedicato per ospitarla all'interno della struttura. Nel modello di colocation tradizionale, l'azienda cliente ha accesso esclusivo all'hardware e piena responsabilità della sua gestione; il che è ideale per la privacy e la sicurezza ma spesso poco pratico, in particolare in caso di interruzioni o emergenze. Oggi, la maggior parte dei fornitori di colocation offre servizi di gestione e monitoraggio per i clienti che li desiderano.

I data center gestiti e le strutture di colocation vengono spesso utilizzati per ospitare tecnologie di backup remoto dei dati e disaster recovery per le piccole e medie imprese (PMI).

Architettura del data center

La maggior parte dei data center moderni, anche quelli interni on-premise, si sono evoluti dall'architettura IT tradizionale, in cui ogni applicazione o workload viene eseguito sul proprio hardware dedicato, passando all'architettura cloud, in cui le risorse hardware fisiche (CPU, storage, rete) sono virtualizzate. La virtualizzazione consente di astrarre queste risorse dai limiti fisici e di raggrupparle in capacità che possono essere allocate in più applicazioni e workload in qualsiasi quantità siano richieste.

La virtualizzazione abilita inoltre l'infrastruttura definita dal software (SDI), un'infrastruttura che può essere fornita, configurata, eseguita, mantenuta e "ridotta" in modo programmatico, senza intervento umano.

La combinazione di architettura cloud e SDI offre numerosi vantaggi ai data center e ai loro utenti, tra cui:

  • Utilizzo ottimale delle risorse di elaborazione, storage e rete. La virtualizzazione consente alle aziende o ai cloud di servire il maggior numero di utenti possibile utilizzando il minor numero di hardware e con la minor capacità inutilizzata o inattiva.
     

  • Distribuzione rapida di applicazioni e servizi. Per l'automazione SDI rende il provisioning di una nuova infrastruttura basterà semplicemente fare una richiesta tramite un portale self-service.
     

  • Scalabilità. L'infrastruttura IT virtualizzata è molto più facile da scalare rispetto a quella tradizionale. Anche le aziende che utilizzano i data center on-premise possono aggiungere capacità su richiesta trasferendo i workload nel cloud quando necessario.
     

  • Varietà di servizi e soluzioni di data center. Le aziende e i cloud possono offrire agli utenti un'ampia gamma di modi per utilizzare e distribuire l'IT, il tutto dalla stessa infrastruttura. Le scelte vengono effettuate in base alle esigenze del workload e includono IaaS (Infrastructure-as-a-Service), PaaS (Platform-as-a-Service)SaaS (Software-as-a-Service). Questi servizi possono essere offerti in un data center privato o come soluzioni cloud in un ambiente di cloud privatocloud pubblicocloud ibridomulticloud.
     

  • Sviluppo cloud-native. La containerizzazione e l'elaborazione serverless, insieme a un solido ecosistema open source, abilitano e accelerano i cicli DevOps e la modernizzazione delle applicazioni, oltre a consentire lo sviluppo delle app con distribuzione ovunque.

Componenti dell'infrastruttura di data center

Server

I server sono computer potenti che offrono applicazioni, servizi e dati ai dispositivi degli utenti finali. I server dei data center sono disponibili in diversi fattori di forma:

  • I server montati su rack sono server autonomi larghi e piatti, delle dimensioni di una scatola di pizza, progettati per essere impilati l'uno sull'altro in un rack, per risparmiare spazio (rispetto a un server tower o desktop). Ogni server montato su rack ha il suo alimentatore, le sue ventole di raffreddamento, i suoi commutatori di rete e le sue porte, oltre a processori, memoria e storage.
     

  • I blade server sono progettati per risparmiare ancora più spazio. Ogni blade contiene processori, controller di rete, memoria e talvolta storage. Sono realizzati per adattarsi a uno chassis che ospita più blade e contiene l'alimentatore, la gestione della rete e altre risorse per tutti i blade del chassis.
     

  • I mainframe sono computer ad alte prestazioni con più processori in grado di svolgere il lavoro di un'intera stanza di server montati su rack o blade server. I mainframe, i primi computer virtualizzabili, possono elaborare miliardi di calcoli e transazioni in tempo reale.

La scelta del fattore di forma dipende da molti elementi, tra cui lo spazio disponibile nel data center, i workload eseguiti sui server, la potenza disponibile e il costo.

Sistemi di storage

La maggior parte dei server include alcune funzionalità di storage locale, denominato DAS (Direct-Attached Storage), per consentire ai dati utilizzati più di frequente (dati hot) di rimanere vicino alla CPU.

Altre due configurazioni di storage nei data center sono NAS (network-attached storage) e SAN (storage area network).

Il NAS fornisce data storage e accesso ai dati a più server tramite una connessione ethernet standard. Il dispositivo NAS è in genere un server dedicato con più supporti di storage: hard disk drive (HDD) e/o solid-state drive (SSD).

Come il NAS, un SAN consente l'archiviazione condivisa, ma il SAN utilizza una rete separata per i dati ed è costituito da una combinazione più complessa di più server di archiviazione, server di applicazioni e software di gestione dello storage.

Un singolo data center può utilizzare tutte e tre le configurazioni di storage (DAS, NAS e SAN), nonché i tipi di file storageblock storage e object storage .

SAN

La rete del data center, composta da vari tipi di commutatori, router e fibra ottica, trasporta il traffico di rete attraverso i vari server (chiamato traffico est/ovest) e tra i server e i client (chiamato traffico nord/sud).

Come indicato in precedenza, i servizi di rete di un data center sono in genere virtualizzati. Ciò consente di creare reti di overlay definite dal software, costruite sull'infrastruttura fisica della rete, per soddisfare controlli di sicurezza specifici o accordi sul livello di servizio (SLA).

Gestione dell'alimentazione e dei cavi

I data center devono essere sempre attivi, a tutti i livelli. La maggior parte è dotata di una doppia alimentazione. I gruppi statici di continuità (UPS) alimentati a batteria proteggono da sbalzi di tensione e brevi interruzioni di corrente. Se si verifica un'interruzione di corrente più grave, questi potenti generatori possono entrare in funzione.

Con migliaia di server collegati da vari cavi, la loro gestione è un importante problema di progettazione dei data center. Se i cavi sono troppo vicini l'uno all'altro, possono provocare comunicazioni incrociate che possono influire negativamente sulla velocità di trasferimento dei dati e sulla trasmissione dei segnali. Inoltre, se troppi cavi sono impacchettati tutti insieme, possono generare calore eccessivo. La costruzione e l'espansione dei data center devono tenere conto delle normative edilizie e degli standard di settore per garantire che il cablaggio sia efficiente e sicuro.

Ridondanza e disaster recovery

I tempi di inattività dei data center sono costosi sia per i provider di data center che per i loro clienti, e gli operatori e gli architetti dei data center fanno di tutto per aumentare la resilienza dei loro sistemi. Queste misure includono tutto, dagli array ridondanti di dischi indipendenti (RAID) alla protezione contro la perdita o la corruzione dei dati in caso di guasti ai supporti di storage, fino all'infrastruttura di raffreddamento del data center di backup che mantiene i server in funzione a temperature ottimali, anche in caso di guasto del sistema di raffreddamento primario.

Molti grandi provider dispongono di data center ubicati in regioni geograficamente separate, in modo che se in una si verifica un disastro naturale o uno sconvolgimento politico, sia possibile eseguire il failover delle operazioni in un'altra per garantire servizi ininterrotti.

L'Uptime Institute (link esterno a ibm.com) utilizza un sistema a quattro livelli per valutare la ridondanza e la resilienza dei data center:

  • Livello I: fornisce componenti di capacità di ridondanza di base, come gruppi statici di continuità (UPS) e raffreddamento 24 ore su 24, 7 giorni su 7, per supportare le operazioni IT per un ambiente di ufficio e oltre.
     

  • Livello II: aggiunge ulteriori sottosistemi di alimentazione e raffreddamento ridondanti, come generatori e dispositivi di accumulo dell'energia, per una maggiore sicurezza contro le interruzioni.
     

  • Livello III: aggiunge componenti ridondanti come elemento di differenziazione chiave da altri data center. Le strutture di livello III non devono essere arrestate in caso di manutenzione o sostituzione delle apparecchiature.
     

  • Livello IV: aggiunge tolleranza ai guasti implementando diversi componenti di capacità ridondanti indipendenti e fisicamente isolati, in modo che il guasto di un'apparecchiatura non abbia alcun impatto sulle operazioni IT.

Controlli ambientali

I data center devono essere progettati e attrezzati per controllare i fattori ambientali, solitamente correlati, che possono danneggiare o distruggere l'hardware e portare a tempi di inattività costosi o addirittura catastrofici.

Temperatura: la maggior parte dei data center utilizza una combinazione di raffreddamento ad aria e raffreddamento a liquido per mantenere i server e gli altri hardware in funzione negli intervalli di temperatura corretti. Il raffreddamento ad aria è fondamentalmente l'aria condizionata, in particolare il condizionamento dell'aria in sale computer (CRAC) destinato all'intera sala server o a specifiche file o rack di server. Le tecnologie di raffreddamento a liquido pompano il liquido direttamente ai processori o, in alcuni casi, immergono i server nel liquido di raffreddamento. I provider di data center si rivolgono sempre più al raffreddamento a liquido per ottenere una maggiore efficienza energetica e sostenibilità, in quanto richiede meno elettricità e meno acqua rispetto al raffreddamento ad aria.

Umidità: un'umidità troppo elevata può causare la formazione di ruggine. Un livello di umidità troppo basso può aumentare il rischio di picchi di elettricità statica (vedere sotto). Le attrezzature di controllo dell'umidità comprendono i suddetti sistemi CRAC, una ventilazione adeguata e sensori di umidità.

Elettricità statica: bastano appena 25 volt di elettricità per danneggiare le apparecchiature o danneggiare i dati. Le strutture di data center sono dotate di apparecchiature per monitorare l'elettricità statica e scaricarla in modo sicuro.

Incendio: per ovvie ragioni, i data center devono essere dotati di apparecchiature antincendio che devono essere testate regolarmente.

 

 

 

 

Soluzioni correlate
Sistemi e soluzioni per infrastrutture convergenti

Le moderne soluzioni di infrastrutture convergenti (CI) combinano server, storage e networking in un'unica piattaforma integrata.

Esplora i sistemi e le soluzioni di infrastruttura convergente
Data center globali

Scopri i data center IBM Cloud, situati in tutto il mondo per aiutarti a soddisfare rapidamente i requisiti geografici.

Esplora i data center globali
IBM Cloud

IBM Cloud with Red Hat offre il massimo della sicurezza sul mercato, della scalabilità aziendale e dell'innovazione aperta per sfruttare tutto il potenziale di cloud e AI.

Esplora IBM Cloud
Risorse Posizione, posizione, posizione

Scopri l'importanza della sicurezza e della privacy dei tuoi dati nel cloud.

Fai il passo successivo

Semplifica la gestione dei dati e dell'infrastruttura con IBM Storage FlashSystem, una soluzione di all flash storage ad alte prestazioni che semplifica l'amministrazione e la complessità operativa in ambienti on-premise, di cloud ibrido, virtualizzati e containerizzati.

    Esplora Storage FlashSystem Fai un tour