Accueil les sujets Centres de données Qu’est-ce qu’un centre de données ?
Découvrir les centres de données IBM S’abonner aux mises à jour sur le cloud
Illustration avec collage de pictogrammes représentant un écran d’ordinateur, un serveur, des nuages et des points
Qu’est-ce qu’un centre de données ?

Un centre de données est un espace physique (une salle, un bâtiment ou une installation) qui héberge l’infrastructure informatique utilisée pour la création, l’exécution et la mise à disposition des applications et des services, mais aussi pour le stockage et la gestion des données associées.

Les centres de données ont évolué ces dernières années. Les installations privées et étroitement contrôlées, abritant une infrastructure informatique traditionnelle affectée à l’usage exclusif d’une entreprise, ont été délaissées au profit d’installations ou de réseaux d’installations appartenant aux fournisseurs de services cloud et hébergeant une infrastructure informatique virtualisée, dont l’usage est partagé entre plusieurs entreprises et clients.

La modernisation stratégique des applications favorise la transformation numérique

La modernisation stratégique des applications est une des clés d’une transformation réussie, qui peut permettre d’augmenter le chiffre d’affaires annuel et de réduire les coûts de maintenance et d’exploitation.

Contenu connexe

Obtenir le guide sur le cloud hybride

Types de centres de données

Il existe différents types de centres de données, qu’une même entreprise peut utiliser en parallèle, selon ses workloads et ses besoins.

Centres de données d’entreprise (sur site)

Avec ce modèle de centre de données, l’infrastructure informatique et les données sont intégralement hébergées sur site. Bon nombre d’entreprises choisissent d’avoir leur propre centre de données sur site, car elles estiment avoir plus de contrôle sur la sécurité des informations et pouvoir facilement se conformer à des exigences telles que le Règlement général sur la protection des données (RGPD) de l’Union européenne ou la loi HIPAA américaine (Health Insurance Portability and Accountability Act). Les entreprises disposant de leur propre centre de données assurent elles-mêmes les tâches de déploiement, de surveillance et de gestion.

Centres de données dans le cloud public

Les centres de données cloud (également appelés centres de données cloud computing) hébergent les ressources d’infrastructure informatique utilisées par des dizaines, voire des millions de clients, grâce à une connexion Internet.

La plupart des méga centres de données cloud, appelés également « centres de données hyperscale », sont gérés par les principaux fournisseurs de services cloud tels qu’Amazon Web Services (AWS), Google Cloud Platform, IBM Cloud, Microsoft Azure et Oracle Cloud Infrastructure. En fait, la plupart des principaux fournisseurs de cloud gèrent plusieurs centres de données hyperscale dans le monde. En règle générale, les fournisseurs de services cloud disposent de centres de données edge (ou périphériques) plus petits, situés plus près de leurs clients cloud (et des clients de ces derniers). Particulièrement intéressants pour la gestion en temps réel des workloads à forte intensité de données comme les applications analytiques, d’intelligence artificielle (IA) et de diffusion de contenu, les centres de données edge permettent de minimiser la latence, d’améliorer la performance, ainsi que l’expérience client.

Centres de données gérés et centres de données en colocation

Les centres de données gérés et les installations en colocation s’adressent aux entreprises dont l’espace, le personnel et les compétences s’avèrent insuffisants pour déployer et gérer tout ou partie de leur infrastructure informatique sur site, et qui préfèrent ne pas faire appel aux ressources partagées d’un centre de données cloud public.

Les entreprises qui optent pour un centre de données géré louent leurs serveurs, leur matériel de stockage et de mise en réseau auprès du fournisseur, qui se charge d’en assurer l’administration, la surveillance et la gestion.

Dans le cas de la colocation, l’entreprise cliente est propriétaire de l’infrastructure utilisée et loue un espace dédié au sein de l’installation pour pouvoir l’héberger. Avec le modèle de colocation traditionnel, l’accès au matériel est exclusivement réservé à l’entreprise cliente, qui est entièrement responsable de sa gestion. Idéale en termes de confidentialité et de sécurité, cette approche peut s’avérer toutefois peu pratique, surtout en cas de panne ou d’urgence. De nos jours, la plupart des fournisseurs proposent d’assortir leur offre de colocation de services de gestion et de surveillance.

Les centres de données gérés et les installations en colocation sont souvent utilisés pour héberger les solutions de sauvegarde des données et de reprise après sinistre à distance employées par les petites et moyennes entreprises (PME).

Architecture des centres de données

La plupart des centres de données modernes, y compris les centres de données internes sur site, sont passés d’une architecture informatique traditionnelle, où chaque application ou workload s’exécute sur son propre matériel, à une architecture cloud dont les ressources matérielles (processeurs, stockage, réseau) sont virtualisées. La virtualisation permet d’abstraire ces ressources physiques afin de les répartir sur plusieurs applications et workloads dans les quantités requises.

La virtualisation permet également la mise en place d’une infrastructure définie par logiciel (SDI), c’est-à-dire une infrastructure qui peut être approvisionnée, configurée, exécutée, maintenue et « arrêtée » par programmation, sans intervention humaine.

Associer architecture cloud et SDI apporte de nombreux avantages aux centres de données et à leurs utilisateurs. En voici quelques-uns :

  • Une utilisation optimale des ressources de calcul, de stockage et de mise en réseau. La virtualisation permet aux entreprises et aux fournisseurs de cloud de servir le plus grand nombre d’utilisateurs avec le moins de matériel et le moins de capacité inutilisée ou dormante possible.
     

  • Un déploiement rapide des applications et des services. Grâce à l’automatisation SDI, le provisionnement d’une nouvelle infrastructure se fait par simple demande sur un portail en libre-service.
     

  • Évolutivité. Les infrastructures informatiques virtualisées sont beaucoup plus évolutives que les infrastructures traditionnelles. Même les entreprises qui utilisent des centres de données sur site peuvent augmenter leur capacité à la demande, en transférant leurs workloads vers le cloud lorsque cela s’avère nécessaire.
     

  • Un large éventail de services et de solutions de centres de données. Les entreprises et les fournisseurs de cloud sont en mesure de proposer diverses options pour la consommation et la mise à disposition informatique, le tout à partir d’une seule et même infrastructure. Selon les exigences de leurs workloads, les utilisateurs peuvent opter pour une infrastructure à la demande (IaaS), une plateforme à la demande (PaaS) ou encore un logiciel à la demande (SaaS). Ces services peuvent être proposés dans un centre de données privé, ou sous forme de solutions cloud dans un environnement de cloud privécloud publiccloud hybride ou multicloud .
     

  • Développement cloud natif. Associer conteneurisation, informatique sans serveur et écosystème open source robuste permet une approche DevOps, dont les cycles sont accélérés, la modernisation des applications, ainsi que la création d’applications de type « développer une seule fois, déployer partout ».

Composants de l’infrastructure d’un centre de données

Serveurs

Les serveurs sont des ordinateurs puissants qui permettent de livrer applications, services et données sur les appareils des utilisateurs finaux. Les serveurs de centre de données se présentent sous plusieurs formes :

  • Les serveurs rack sont des serveurs autonomes larges et compacts (de la taille d’une petite boîte à pizza), conçus pour être empilés les uns sur les autres dans une armoire. Il permettent un gain de place par rapport aux tours ou encore aux serveurs de bureau). Chaque serveur monté en rack présente sa propre alimentation, ses propres ventilateurs de refroidissement, commutateurs réseau et ports, ainsi que le processeur, la mémoire et le stockage habituels.
     

  • Les serveurs lames sont conçus pour permettre de gagner encore plus de place. Assorties de processeurs, de contrôleurs de réseau, de mémoire et parfois de stockage, les lames s’intègrent dans un châssis qui fournit l’alimentation électrique, la gestion de réseau et toute autre ressource nécessaire à leur bon fonctionnement.
     

  • Dotés de plusieurs processeurs, les mainframes sont des ordinateurs haute performance capables d’assurer le travail de toute une salle de serveurs rack ou lames. Ces ordinateurs, qui sont les premiers à pouvoir être virtualisés, sont capables de traiter des milliards de calculs et de transactions en temps réel.

Le choix du format dépend de nombreux facteurs comme l’espace disponible dans le centre de données, les workloads à exécuter sur les serveurs, la puissance disponible et le coût.

Systèmes de stockage

La plupart des serveurs comportent une fonctionnalité de stockage local, appelée disque en attachement direct (DAS), pour permettre de conserver les données les plus utilisées (données chaudes) à proximité du processeur.

Deux autres types de configurations de stockage sont possibles pour un centre de données : le stockage en réseau (NAS) et le storage area network (SAN).

Le NAS assure le stockage et l’accès aux données sur plusieurs serveurs grâce à une connexion Ethernet standard. Le périphérique NAS est généralement un serveur dédié qui comporte plusieurs supports de stockage : disques durs (HDD) et/ou disques SSD (solid state drive).

Tout comme le NAS, le SAN permet un stockage partagé, mais il s’installe sur un réseau indépendant pour séparer la gestion des données, et associe de manière plus complexe serveurs de stockage, d’applications et logiciels de gestion du stockage.

Un seul et même centre de données peut comporter les trois configurations (DAS, NAS et SAN) et différents types de stockage : file storage, block storage et object storage.

Réseau

Composé de différents types de commutateurs, de routeurs et de fibres optiques, le réseau du centre de données achemine le trafic réseau entre les différents serveurs (trafic est/ouest), mais aussi entre les serveurs et les clients (trafic nord/sud).

Comme mentionné plus haut, les services de réseau des centres de données sont généralement virtualisés. Cela permet de créer des réseaux superposés définis par logiciel, qui s’appuient sur l’infrastructure physique du réseau pour répondre à des contrôles de sécurité ou à des accords de niveau de service (SLA) bien précis.

Alimentation et gestion des câbles

Les centres de données doivent être toujours opérationnels, et ce à tous les niveaux. La plupart des serveurs sont équipés de deux blocs d’alimentation. Dotées d’une batterie, les alimentations sans interruption (UPS) protègent contre les surtensions et permettent de pallier les brèves pannes de courant. De puissants générateurs peuvent prendre le relais en cas de panne prolongée.

Sachant que des milliers de serveurs sont connectés par le biais de différents câbles, la gestion de ces derniers est une préoccupation majeure lors de la conception des centres de données. Placer les câbles trop près les uns des autres peut provoquer une diaphonie et affecter les taux de transfert des données, ainsi que la transmission du signal. En outre, regrouper un trop grand nombre de câbles peuvent générer une chaleur excessive. Pour assurer l’efficacité et la sécurité du câblage, il est impératif de respecter les règles applicables à la construction et l’agrandissement des centres de données, ainsi que les normes sectorielles.

Redondance et reprise après incident

Les temps d'arrêt des centres de données sont coûteux pour les fournisseurs de centres de données et pour leurs clients, et les opérateurs et architectes de centres de données se donnent beaucoup de mal pour accroître la résilience de leurs systèmes. Ces mesures vont des réseaux redondants de disques indépendants (RAID), qui protègent contre la perte ou la corruption des données en cas de défaillance des supports de stockage, à l'infrastructure de refroidissement de sauvegarde du centre de données, qui permet aux serveurs de fonctionner à des températures optimales, même en cas de défaillance du système de refroidissement principal.

De nombreux grands fournisseurs de centres de données disposent de centres de données situés dans des régions géographiquement distinctes, de sorte qu'en cas de catastrophe naturelle ou de perturbation politique dans une région, les opérations peuvent être transférées dans une autre région pour assurer des services ininterrompus.

L' Uptime Institute (lien externe à ibm.com) utilise un système à quatre niveaux pour évaluer la redondance et la résilience des centres de données :

  • Niveau I : fournit des composants de capacité redondante de base, tels qu’une alimentation sans interruption (UPS) et un refroidissement 24 h/24 et 7 j/7, pour prendre en charge les opérations informatiques dans un bureau ou au-delà.
     

  • Niveau II : ajoute des sous-systèmes d’alimentation et de refroidissement redondants supplémentaires, tels que des générateurs et des dispositifs de stockage d’énergie, pour une meilleure sécurité contre les interruptions.
     

  • Niveau III : ajoute des composants redondants, ce qui constitue un facteur de différenciation clé par rapport aux autres centres de données. Les installations de niveau III ne nécessitent aucun arrêt lorsque l’équipement doit être entretenu ou remplacé.
     

  • Niveau IV : renforce la tolérance aux pannes en implémentant plusieurs composants de capacité redondante indépendants et physiquement isolés, de sorte que lorsqu’un équipement tombe en panne, il n’y a aucun impact sur les opérations informatiques.

Contrôles environnementaux

Les centres de données doivent être conçus et équipés pour contrôler les facteurs environnementaux - dont la plupart sont interdépendants - qui peuvent endommager ou détruire le matériel et entraîner des temps d'arrêt coûteux ou catastrophiques.

Température : La plupart des centres de données utilisent une combinaison de refroidissement par air et par liquide pour maintenir les serveurs et autres matériels dans les plages de température appropriées. Le refroidissement par air consiste essentiellement à climatiser, et plus précisément à climatiser une salle d'ordinateurs (CRAC) en ciblant l'ensemble de la salle des serveurs, ou des rangées ou racks de serveurs spécifiques. Les technologies de refroidissement liquide pompent le liquide directement vers les processeurs ou, dans certains cas, immergent les serveurs dans le liquide de refroidissement. Les fournisseurs de centres de données se tournent de plus en plus vers le refroidissement liquide pour des raisons d'efficacité énergétique et de durabilité - il nécessite moins d'électricité et moins d'eau que le refroidissement par air.

Humidité : un taux d'humidité élevé peut faire rouiller l'équipement ; un taux d'humidité faible peut augmenter le risque de surtensions dues à l'électricité statique (voir ci-dessous). L'équipement de contrôle de l'humidité comprend les systèmes CRAC susmentionnés, une ventilation adéquate et des capteurs d'humidité.

Électricité statique : il suffit d'une décharge d'électricité statique de 25 volts pour endommager l'équipement ou corrompre les données. Les centres de données sont équipés de matériel permettant de contrôler l'électricité statique et de la décharger en toute sécurité.

Incendie : pour des raisons évidentes, les centres de données doivent être équipés de dispositifs de prévention des incendies, qui doivent être testés régulièrement.

 

 

 

 

Solutions connexes
Systèmes et solutions d’infrastructure convergente

Les solutions modernes d'infrastructure convergente (CI) combinent les serveurs, le stockage et le réseau en une seule plateforme intégrée.

Découvrir les systèmes et les solutions d’infrastructure convergente
Centres de données mondiaux

Découvrez les centres de données IBM Cloud implantés aux quatre coins du monde pour vous aider à répondre rapidement à des exigences géographiques spécifiques.

Explorez les centres de données mondiaux
IBM Cloud

IBM Cloud with Red Hat offre une sécurité, une évolutivité d’entreprise et une innovation ouverte de pointe pour libérer tout le potentiel du cloud et de l’IA.

Explorer IBM Cloud
Ressources L'emplacement, l'emplacement, l'emplacement

Découvrez l’importance de la sécurité et de la confidentialité de vos données dans le cloud.

Passer à l’étape suivante

Simplifiez la gestion des données et de l’infrastructure avec IBM Storage FlashSystem, une solution de stockage 100 % flash hautes performances qui rationalise l’administration et la complexité opérationnelle dans les environnements sur site, cloud hybride, virtualisés et conteneurisés.

    Découvrir le stockage FlashSystem Visite guidée