Startseite topics Rechenzentren Was ist ein Rechenzentrum?
Entdecken Sie die Rechenzentren von IBM Abonnieren Sie Cloud-Updates
Illustration mit Collage aus Piktogrammen von Computermonitor, Server, Wolken, Punkten
Was ist ein Rechenzentrum?

Ein Rechenzentrum ist ein physischer Raum, ein Gebäude oder eine Einrichtung, in der die IT-Infrastruktur zum Erstellen, Ausführen und Bereitstellen von Anwendungen und Diensten sowie zum Speichern und Verwalten der mit diesen Anwendungen und Diensten verbundenen Daten untergebracht ist.

Rechenzentren haben sich in den letzten Jahren von privaten, streng kontrollierten Einrichtungen vor Ort, in denen herkömmliche IT-Infrastrukturen für die ausschließliche Nutzung durch ein Unternehmen untergebracht waren, zu entfernten Einrichtungen oder Netzwerken von Einrichtungen im Besitz von Cloud-Service-Anbietern entwickelt, in denen virtualisierte IT-Infrastrukturen für die gemeinsame Nutzung durch mehrere Unternehmen und Kunden untergebracht sind.

Strategische App-Modernisierung bringt digitale Transformation voran

Die strategische Modernisierung von Anwendungen ist ein Schlüssel zum Transformationserfolg, der den Jahresumsatz steigern und die Wartungs- und Betriebskosten senken kann.

Ähnliche Inhalte

Registrieren und Leitfaden zur Hybrid Cloud lesen

Typen von Rechenzentren

Es gibt verschiedene Arten von Rechenzentren, und ein einzelnes Unternehmen kann je nach Workload und Geschäftsanforderungen mehr als einen Typ nutzen.

Unternehmensrechenzentren (vor Ort).

In diesem Rechenzentrumsmodell werden alle IT-Infrastruktur und -Daten lokal gehostet. Viele Unternehmen entscheiden sich für ein eigenes Rechenzentrum vor Ort, da sie der Meinung sind, dass sie mehr Kontrolle über die Informationssicherheit haben und die Einhaltung von Vorschriften wie der EU-Datenschutz-Grundverordnung (DSGVO) oder dem U.S. Health Insurance Portability and Accountability Act (HIPAA) einfacher gestalten können. In einem Unternehmensrechenzentrum ist das Unternehmen für alle Bereitstellungs-, Überwachungs- und Verwaltungsaufgaben verantwortlich.

Öffentliche Cloud-Rechenzentren

Cloud-Rechenzentren (auch Cloud-Computing-Rechenzentren genannt) beherbergen IT-Infrastrukturressourcen, die von mehreren Kunden – von Dutzenden bis hin zu Millionen von Kunden – über eine Internetverbindung gemeinsam genutzt werden können.

Viele der größten Cloud-Rechenzentren – sogenannte Hyperscale-Rechenzentren – werden von großen Cloud-Service-Providern wie Amazon Web Services (AWS), Google Cloud Platform, IBM Cloud, Microsoft Azure und Oracle Cloud Infrastructure betrieben. Tatsächlich betreiben die meisten führenden Cloud-Anbieter mehrere Hyperscale-Rechenzentren auf der ganzen Welt. Typischerweise unterhalten Cloud-Service-Provider kleinere Edge-Rechenzentren, die näher an den Cloud-Kunden (und den Kunden der Cloud-Kunden) liegen. Für datenintensive Workloads in Echtzeit wie Big-Data-Analysen, künstliche Intelligenz (KI) und Anwendungen zur Content-Bereitstellung können Edge-Rechenzentren die Latenz minimieren und so die Gesamtleistung der Anwendungen und die Customer Experience verbessern.

Verwaltete Rechenzentren und Colocation-Einrichtungen

Verwaltete Rechenzentren und Colocation-Einrichtungen sind Optionen für Unternehmen, die nicht über den Platz, das Personal oder das Fachwissen verfügen, um einen Teil oder die gesamte IT-Infrastruktur vor Ort bereitzustellen und zu verwalten, es aber vorziehen, diese Infrastruktur nicht mit den gemeinsam genutzten Ressourcen eines öffentlichen Cloud-Rechenzentrums zu hosten.

In einem verwalteten Rechenzentrum mietet das Kundenunternehmen dedizierte Server, Speicher- und Netzwerkhardware vom Rechenzentrumsanbieter, der Rechenzentrumsanbieter wiederum die Verwaltung, Überwachung und das Management für das Kundenunternehmen übernimmt.

In einer Colocation-Einrichtung besitzt das Kundenunternehmen die gesamte Infrastruktur und mietet einen dedizierten Platz, um diese innerhalb der Einrichtung unterzubringen. Beim traditionellen Colocation-Modell hat das Kundenunternehmen den alleinigen Zugriff auf die Hardware und trägt die volle Verantwortung für deren Verwaltung. Dies ist ideal für Datenschutz und Sicherheit, aber häufig unpraktisch, insbesondere bei Ausfällen oder Notfällen. Heute bieten die meisten Colocation-Anbieter den Kunden auf Wunsch Verwaltungs- und Überwachungsdienste an.

Verwaltete Rechenzentren und Colocation-Einrichtungen werden häufig zur Unterbringung von Remote-Datensicherungs- und Disaster-Recovery-Technologie für kleine und mittlere Unternehmen (KMUs) genutzt.

Architektur des Rechenzentrums

Die meisten modernen Rechenzentren – sogar interne Rechenzentren vor Ort – haben sich von der traditionellen IT-Architektur, bei der jede Anwendung oder Workload auf ihrer eigenen dedizierten Hardware ausgeführt wird, zu einer Cloud-Architektur entwickelt, bei der physische Hardware-Ressourcen – CPUs, Speicher, Netzwerk – virtualisiert sind. Dank Virtualisierung können diese Ressourcen von ihren physikalischen Grenzen abstrahiert und nach Kapazität gepoolt werden, die über mehrere Anwendungen und Workloads hinweg zugewiesen werden kann, je nachdem, welche Menge sie benötigen.

Virtualisierung ermöglicht auch eine softwaredefinierte Infrastruktur (SDI) — eine Infrastruktur, die programmgesteuert ohne menschliches Eingreifen bereitgestellt, konfiguriert, ausgeführt, gewartet und „ausgegliedert“ werden kann.

Die Kombination aus Cloud-Architektur und SDI bietet viele Vorteile für Rechenzentren und ihre Benutzer, zum Beispiel:

  • Die optimale Nutzung von Rechen-, Speicher- und Netzwerkressourcen. Die Virtualisierung ermöglicht es Unternehmen oder Clouds, die meisten Nutzer mit der geringsten Hardware und der geringsten ungenutzten Kapazität zu bedienen.
     

  • Schnelle Bereitstellung von Anwendungen und Services. Die SDI-Automatisierung macht die Bereitstellung neuer Infrastruktur so einfach wie eine Anfrage über ein Self-Service-Portal.
     

  • Skalierbarkeit. Virtualisierte IT-Infrastrukturen lassen sich viel einfacher skalieren als herkömmliche IT-Infrastrukturen. Sogar Unternehmen, die Rechenzentren vor Ort nutzen, können bei Bedarf Kapazitäten hinzufügen, indem sie Workloads gegebenenfalls in die Cloud verlagern.
     

  • Vielfältige Dienstleistungen und Lösungen für Rechenzentren. Unternehmen und Clouds können den Nutzern eine Reihe von Möglichkeiten bieten, IT zu nutzen und bereitzustellen, und das alles über dieselbe Infrastruktur. Die Entscheidungen werden auf der Grundlage der Workload-Anforderungen getroffen und umfassen Infrastructure as a Service (IaaS)Platform as a Service (PaaS) und Software as a Service (SaaS). Diese Dienste können in einem privaten Rechenzentrum oder als Cloud-Lösungen in einer Private Cloud-, Public Cloud -, Hybrid Cloud - oder Multi-Cloud-Umgebung angeboten werden.
     

  • Cloudnative Entwicklung. Containerisierung und serverloses Computing sowie ein robustes Open-Source-Ökosystem ermöglichen und beschleunigen DevOps-Zyklen und die Modernisierung von Anwendungen und ermöglichen die einmalige Entwicklung und Bereitstellung von Apps überall.

Komponenten der Rechenzentrumsinfrastruktur

Server

Server sind leistungsstarke Computer, die Anwendungen, Services und Daten auf Endbenutzergeräten bereitstellen. Rechenzentrumsserver gibt es in verschiedenen Formfaktoren:

  • Rackmount-Server sind breite, flache Standalone-Server — so groß wie eine kleine Pizzaschachtel — die so konzipiert sind, dass sie platzsparend in einem Rack übereinander gestapelt werden können (im Gegensatz zu einem Tower- oder Desktop-Server). Jeder Rackmount-Server hat seine eigene Stromversorgung, Kühlventilatoren, Netzwerk-Switches und Anschlüsse sowie den üblichen Prozessor, Arbeitsspeicher und Speicher.
     

  • Blade-Server sind so konzipiert, dass sie noch mehr Platz sparen. Jedes Blade enthält Prozessoren, Netzwerkcontroller und Speicherplatz. Es passt in ein Gehäuse, das mehrere Blades und die Stromversorgung, Netzwerkverwaltung und andere Ressourcen für alle Blades im Gehäuse enthält.
     

  • Mainframes sind hochleistungsfähige Computer mit mehreren Prozessoren, die die Arbeit eines ganzen Rackmount- oder Blade-Servers erledigen können. Die ersten virtuellen Computer, Mainframes, können Milliarden von Berechnungen und Transaktionen in Echtzeit verarbeiten.

Die Wahl des Formfaktors hängt von vielen Faktoren ab, darunter dem verfügbaren Platz im Rechenzentrum, den auf den Servern ausgeführten Workloads, der verfügbaren Leistung und den Kosten.

Speichersysteme

Die meisten Server verfügen über eine lokale Speicherfunktion – einen sogenannten Direct-Attached Storage (DAS) – damit die am häufigsten verwendeten Daten (Hot Data) in der Nähe der CPU verbleiben können.

Zwei weitere Speicherkonfigurationen für Rechenzentren umfassen Network Attached Storage (NAS) und ein Storage Area Network (SAN).

NAS bietet Datenspeicher und Datenzugriff auf mehrere Server über eine Standard-Ethernetverbindung. Das NAS-Gerät ist in der Regel ein dedizierter Server mit mehreren Speichermedien – Festplattenlaufwerke (HDDs) und/oder Solid-State-Drive (SSDs).

Wie NAS ermöglicht ein SAN die gemeinsame Nutzung von Speicherplatz, aber ein SAN verwendet ein separates Netzwerk für die Daten und besteht aus einer komplexeren Mischung aus mehreren Speicherservern, Anwendungsservern und Speicherverwaltungssoftware.

Ein einziges Rechenzentrum kann alle drei Speicherkonfigurationen – DAS, NAS und SAN – sowie File StorageBlock Storage und Object Storage verwenden.

Netzwerk

Das Rechenzentrumsnetzwerk, das aus verschiedenen Arten von Switches, Routern und Glasfasern besteht, leitet den Netzwerkverkehr über die Server (als Ost-/Westverkehr bezeichnet) und zu/von den Servern zu den Kunden (sogenannter Nord-/Südverkehr).

Wie bereits erwähnt, werden die Netzwerkdienste eines Rechenzentrums in der Regel virtualisiert. Dies ermöglicht die Erstellung softwaredefinierter Overlay-Netzwerke, die auf der physischen Infrastruktur des Netzwerks aufbauen, um bestimmte Sicherheitskontrollen oder Service Level Agreements (SLAs) zu erfüllen.

Stromversorgung und Kabelführung

Rechenzentren müssen auf allen Ebenen ständig verfügbar sein. Die meisten Server verfügen über duale Stromversorgungen. Batteriebetriebene unterbrechungsfreie Stromversorgungen (USV) schützen vor Überspannungen und kurzen Stromausfällen. Leistungsstarke Generatoren können bei einem schwereren Stromausfall anspringen.

Da tausende von Servern über verschiedene Kabel miteinander verbunden sind, ist das Kabelmanagement ein wichtiger Aspekt bei der Gestaltung von Rechenzentren. Wenn die Kabel zu nahe beieinander liegen, kann es zu Übersprechen kommen, was sich negativ auf die Datenübertragungsraten und die Signalübertragung auswirken kann. Wenn zu viele Kabel zusammengepackt sind, können sie außerdem übermäßige Wärme erzeugen. Beim Bau und der Erweiterung von Rechenzentren müssen Bauvorschriften und Branchenstandards berücksichtigt werden, um eine effiziente und sichere Verkabelung zu gewährleisten.

Redundanz und Notfallwiederherstellung

Ausfallzeiten von Rechenzentren sind für Anbieter und ihre Kunden kostspielig, und Rechenzentrumsbetreiber und -architekten unternehmen große Anstrengungen, um die Ausfallsicherheit ihrer Systeme zu erhöhen. Diese Maßnahmen umfassen alles von redundanten Arrays unabhängiger Festplatten (RAIDs) zum Schutz vor Datenverlust oder -beschädigung bei Ausfällen von Speichermedien bis hin zu einer Backup-Kühlinfrastruktur für Rechenzentren, die Server bei optimalen Temperaturen laufen lässt, selbst wenn das primäre Kühlsystem ausfällt.

Viele große Rechenzentrumsanbieter betreiben Rechenzentren in geografisch unterschiedlichen Regionen, so dass im Falle einer Naturkatastrophe oder einer politischen Unruhe in einer Region der Betrieb in eine andere Region verlagert werden kann, um unterbrechungsfreie Dienste zu gewährleisten.

Das Uptime Institute (Link befindet sich außerhalb von ibm.com) verwendet ein vierstufiges System, um die Redundanz und Ausfallsicherheit von Rechenzentren zu bewerten:

  • Ebene I –Bietet grundlegende Redundanzkapazitätskomponenten wie unterbrechungsfreie Stromversorgung (USV) und Kühlung rund um die Uhr, um den IT-Betrieb für eine Büroumgebung oder darüber hinaus zu unterstützen.
     

  • Ebene II –Fügt zusätzliche redundante Stromversorgungs- und Kühlungssubsysteme wie Generatoren und Energiespeicher hinzu, um die Sicherheit bei Unterbrechungen zu verbessern.
     

  • Ebene III –Fügt redundante Komponenten als Hauptunterscheidungsmerkmal von anderen Rechenzentren hinzu. Einrichtungen der Ebene III erfordern keine Abschaltung, wenn die Ausrüstung gewartet oder ausgetauscht werden muss.
     

  • Tier IV —Erhöht die Fehlertoleranz durch die Implementierung mehrerer unabhängiger, physisch isolierter redundanter Kapazitätskomponenten, sodass der Ausfall eines Geräts keine Auswirkungen auf den IT-Betrieb hat.

Umweltkontrollen

Rechenzentren müssen so konzipiert und ausgestattet sein, dass sie Umgebungsfaktoren - von denen die meisten miteinander verbunden sind - kontrollieren können, die die Hardware beschädigen oder zerstören und zu teuren oder katastrophalen Ausfallzeiten führen können.

Temperatur: Die meisten Rechenzentren nutzen eine Kombination aus Luftkühlung und Flüssigkühlung, um Server und andere Hardware in den richtigen Temperaturbereichen zu betreiben. Die Luftkühlung ist im Grunde eine Klimaanlage – insbesondere eine Klimaanlage im Computerraum, die auf den gesamten Serverraum oder bestimmte Reihen oder Racks von Servern ausgerichtet ist. Flüssige Kühlungstechnologien pumpen Flüssigkeiten direkt an Prozessoren oder tauchen sie in einigen Fällen in Kühlmittel ein. Betreiber von Rechenzentren entscheiden sich zunehmend für die Flüssigkühlung, um die Energieeffizienz und Nachhaltigkeit zu steigern. Dies erfordert weniger Strom und weniger Wasser als Luftkühlung.

Luftfeuchtigkeit: Hohe Luftfeuchtigkeit kann dazu führen, dass die Geräte rosten, geringe Luftfeuchtigkeit kann die Gefahr statischer Elektrizitätsstöße erhöhen (siehe unten). Zu den Geräten zur Feuchtigkeitskontrolle gehören die oben genannten CRAC-Systeme, eine angemessene Belüftung und Feuchtigkeitssensoren.

Statische Elektrizität: Bereits 25 Volt statische Entladung können Geräte oder Daten beschädigen. Rechenzentren sind mit Geräten ausgestattet, um die statische Elektrizität zu überwachen und sicher abzuleiten.

Feuer: Aus offensichtlichen Gründen müssen Rechenzentren mit Brandschutzausrüstung ausgestattet sein, die regelmäßig getestet werden muss.

 

 

 

 

Weiterführende Lösungen
Konvergente Infrastruktursysteme und -lösungen

Moderne CI-Lösungen (Converged Infrastructure, konvergente Infrastruktur) kombinieren Server, Speicher und Netzwerke in einer integrierten Plattform.

Entdecken Sie konvergente Infrastruktursysteme und -lösungen
Globale Rechenzentren

Lesen Sie mehr über die IBM Cloud Data Center auf der ganzen Welt, die Ihnen bei der schnellen Erfüllung geografischer Anforderungen helfen.

Entdecken Sie globale Rechenzentren
IBM Cloud

IBM Cloud mit Red Hat bietet marktführende Sicherheit, Skalierbarkeit für Unternehmen und offene Innovation, um das volle Potenzial von Cloud und KI zu erschließen.

IBM Cloud entdecken
Ressourcen Standort, Standort, Standort

Erfahren Sie mehr über die Bedeutung der Sicherheit und des Datenschutzes Ihrer Daten in der Cloud.

Machen Sie den nächsten Schritt

Vereinfachen Sie das Daten- und Infrastrukturmanagement mit IBM Storage FlashSystem, einer hochleistungsfähigen All-Flash-Speicherlösung, die die Verwaltung und den Betrieb in On-Premises-, Hybrid Cloud-, virtualisierten und Container-Umgebungen optimiert.

    FlashSystem-Speicher entdecken Mehr erfahren