Virtualisierung ist eine Technologie, die die Erstellung virtueller Umgebungen aus einer einzigen physischen Maschine ermöglicht und so eine effizientere Nutzung der Ressourcen durch deren Verteilung auf verschiedene Rechenumgebungen erlaubt.
Mit Software erzeugt die Virtualisierung eine Abstraktionsschicht über Computerhardware, indem sie die Komponenten eines einzelnen Systems wie Prozessoren, Speicher, Netzwerke und Speicher in mehrere virtuelle Maschinen (VMs) aufteilt. Jede VM betreibt ihr eigenes Betriebssystem (BS) und verhält sich wie ein separater physischer Computer, obwohl sie dieselbe zugrunde liegende Hardware nutzt.
Heute ist Virtualisierung ein grundlegender Bestandteil der IT-Architektur von Unternehmen und ein wichtiger Faktor für Cloud Computing. Sie ermöglicht es Cloud-Service-Providern (CSPs) wie IBM Cloud, Microsoft Azure, Google Cloud und Amazon Web Services (AWS), ihre IT-Infrastruktur optimal zu nutzen, um skalierbare Ressourcen bereitzustellen. Für Unternehmen bedeutet dies, dass sie nur die benötigten Rechenressourcen erwerben und diese dann kostengünstig skalieren können, wenn ihre Workloads steigen, wodurch sie ihre Investitionen maximieren können.
Research Newsletter
Entdecken Sie mit dem monatlichen Future Forward Newsletter neue Forschungsergebnisse von IBM Experten in den Bereichen KI, Quantum, Hybrid Cloud und mehr. Weitere Informationen in der IBM Datenschutzerklärung.
Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.
Das Aufkommen der Virtualisierungstechnologie reicht bis ins Jahr 1964 zurück, als IBM CP-40, ein Timesharing-Forschungsprojekt für das IBM System/360, startete. CP-40 entwickelte sich später zu CP-67, das letztlich Unix beeinflusste, eines der ersten Multi-User-Timesharing-Betriebssysteme, das den Weg für moderne Virtualisierungstechnologien wie virtuelle Maschinen bereitete. 1972 kündigte IBM sein erstes offizielles virtuelles Maschinenprodukt, VM/370, für das System/370 an.
1998 entwickelte VMware ein x86-Betriebssystem, das es ermöglichte, eine einzelne Maschine in mehrere virtuelle Maschinen zu segmentieren, von denen jede ihr eigenes Betriebssystem ausführte. 1999 führte VMware Workstation 1.0 ein, das erste kommerzielle Produkt, mit dem Benutzer mehrere Betriebssysteme als virtuelle Maschinen auf einem einzigen PC ausführen konnten. Dieses Produkt ist bei Softwareentwicklern sehr beliebt, da es das Testen und Entwickeln von Anwendungen in verschiedenen Betriebssystemumgebungen erleichtert.
Laut einer Prognose von The Business Research Company wird der Markt für Virtualisierung von 85,83 Milliarden US-Dollar im Jahr 2024 auf 100,19 Milliarden US-Dollar im Jahr 2025 anwachsen, was einer durchschnittlichen jährlichen Wachstumsrate (CAGR) von 16,7 % entspricht.1
Fortschritte bei Edge Computing, Containerisierung, der Einführung von Hybrid Cloud und Multicloud sowie ein zunehmender Fokus auf Sicherheit und Compliance treiben dieses Wachstum voran. Zu den weiteren aufkommenden Trends, die zum Marktplatz der Virtualisierung beitragen, gehören die Integration des Internets der Dinge (IoT), der künstlichen Intelligenz (KI) und des maschinellen Lernens (ML).
Virtualisierung bietet zahlreiche Vorteile sowohl für lokale als auch cloudbasierte Rechenzentren, die IT-Betrieb unterstützen, darunter die folgenden:
Vor der Virtualisierung ordnete das IT-Personal jedem Anwendungsserver eine dedizierte physische Zentraleinheit (CPU) zu und richtete für jede Anwendung einen separaten Server ein. Dieser Ansatz, der eine Anwendung und ein Betriebssystem pro Computer bevorzugte, wurde aufgrund seiner Zuverlässigkeit gewählt. Allerdings waren die einzelnen physischen Server oft nicht voll ausgelastet.
Im Gegensatz dazu ermöglicht die Servervirtualisierung die Ausführung mehrerer Anwendungen, jede mit eigener VM und eigenem Betriebssystem, auf einem einzigen physischen Server (typischerweise einem X86 Server), ohne Einbußen bei der Zuverlässigkeit. Diese Funktion maximiert die Auslastung der Rechenkapazität der physischen Hardware und optimiert die Ressourcennutzung.
Durch den Ersatz physischer Computer durch softwaredefinierte VMs wird die Verwaltung und Durchsetzung von Richtlinien über Software einfacher. Dies ermöglicht die Erstellung eines automatisierten IT-Servicemanagement-Workflows. Mithilfe automatisierter Bereitstellungs- und Konfigurationstools können Administratoren beispielsweise virtuelle Maschinen und Anwendungen als Dienste in Softwarevorlagen definieren, die sie ohne manuelle Einrichtung konsistent bereitstellen können.
Darüber hinaus können Virtualisierungs-Sicherheitsrichtlinien Sicherheitskonfigurationen basierend auf der Rolle der virtuellen Maschine erzwingen. Diese Richtlinien können auch die Ressourceneffizienz erhöhen, indem sie ungenutzte virtuelle Maschinen stilllegen und so Platz und Rechenleistung sparen.
Betriebssystem- und Anwendungsabstürze können zu Ausfallzeiten führen und die Produktivität der Benutzer beeinträchtigen. Virtualisierung ermöglicht es Administratoren, mehrere redundante VMs parallel zu betreiben und bei Problemen zwischen ihnen umzuschalten. Der Betrieb mehrerer redundanter physischer Server wäre weitaus kostspieliger.
Die Einrichtung der Hardware für jede Anwendung kann zeitaufwändig sein. Wenn die Hardware jedoch bereits vorhanden ist, geht die Bereitstellung virtueller Maschinen zur Ausführung der Anwendung deutlich schneller. VM-Management-Software kann diesen Prozess nun automatisieren und so die Workflows optimieren.
Virtualisierung optimiert die Notfallwiederherstellung, indem sie eine schnelle Wiederherstellung von Diensten mit minimaler Ausfallzeit ermöglicht. Da virtuelle Maschinen leicht verschoben, repliziert oder gesichert werden können, ist die Wiederherstellung von Systemen zu einem betriebsbereiten Zustand schneller und effizienter als bei herkömmlichen physischen Servern.
Virtualisierung hilft, die Kosten für Hardwareanschaffung, Wartung und Energieverbrauch zu reduzieren. Die Konsolidierung physischer Server in virtuelle Maschinen reduziert den Bedarf an zusätzlicher Hardware und spart sowohl Kapital- als auch Betriebskosten.
Eine ausführlichere Betrachtung der Vorteile der Virtualisierung finden Sie unter „5 Vorteile der Virtualisierung“.
Virtualisierung basiert auf mehreren Schlüsselkomponenten zur Erstellung und Verwaltung virtueller Umgebungen. Jede spielt eine entscheidende Rolle bei der effektiven Ressourcenzuteilung, sodass mehrere VMs gleichzeitig ohne Störungen laufen können.
Die physische Maschine, auch „Host-Computer“ genannt, ist die Hardware (z. B. Server oder Computer), die CPU-, Arbeitsspeicher-, Speicher- und Netzwerkressourcen für die virtuellen Maschinen bereitstellt.
Eine virtuelle Maschine (VM) ist eine virtuelle Umgebung, die einen physischen Computer in Softwareform simuliert. VMs werden in der Regel als Gäste bezeichnet, wobei ein oder mehrere „Gast”-Maschinen auf einem Host-Computer ausgeführt werden.
Virtuelle Maschinen bestehen typischerweise aus mehreren Dateien, darunter die Konfiguration, der Speicher für die virtuelle Festplatte und weitere Abhängigkeiten. Durch die gemeinsame Nutzung von Systemressourcen zwischen virtuellen Maschinen bietet Virtualisierung bedarfsgerechte Skalierbarkeit, Effizienz und Kosteneinsparungen.
Ein Hypervisor ist die Softwareebene, die VMs koordiniert. Sie dient als Schnittstelle zwischen der VM und der zugrunde liegenden physischen Hardware und stellt sicher, dass jeder Zugang zu den physischen Ressourcen hat, die sie zur Ausführung benötigt. Sie stellt auch sicher, dass sich die VMs nicht gegenseitig stören, indem sie sich gegenseitig auf den Speicherplatz oder die Rechenzyklen auswirken.
Es gibt zwei Arten von Hypervisoren:
Typ-2-Hypervisoren werden als Anwendung auf einem bestehenden Betriebssystem ausgeführt. Sie werden am häufigsten auf Endgeräten verwendet, um alternative Betriebssysteme auszuführen, und bringen einen Leistungsaufwand mit sich, da sie das Host-Betriebssystem nutzen müssen, um auf die zugrunde liegenden Hardwareressourcen zuzugreifen und diese zu koordinieren.
Neben der Servervirtualisierung können viele verschiedene Arten von IT-Infrastrukturen virtualisiert werden, was insbesondere IT-Managern und dem gesamten Unternehmen erhebliche Vorteile bringt. Diese Arten der Virtualisierung umfassen Folgendes:
Mit der Desktop-Virtualisierung können Sie mehrere Desktop-Betriebssysteme ausführen, jedes auf einer eigenen VM auf demselben Computer.
Es gibt zwei Arten der Desktop-Virtualisierung:
Weitere Informationen zu virtuellen Desktops finden Sie unter „Was ist Desktop-as-a-Service (DaaS)?“
Bei der Netzwerk-Virtualisierung wird Software eingesetzt, um eine „Sicht“ des Netzwerks zu erstellen, die ein Administrator zur Verwaltung des Netzwerks von einer einzigen Konsole aus nutzen kann. Sie abstrahiert Hardwareelemente und -funktionen (z. B. Verbindungen, Switches, Router) und abstrahiert sie in Software, die auf einem Hypervisor läuft. Der virtuelle Netzwerkadministrator kann diese Elemente anpassen und steuern, ohne die zugrunde liegenden physischen Komponenten zu berühren, was die Netzwerkverwaltung erheblich vereinfacht.
Zu den Arten der Netzwerk-Virtualisierung gehören:
Durch die Speichervirtualisierung können alle Speichergeräte im Netzwerk, unabhängig davon, ob sie auf einzelnen Servern oder eigenständigen Speichereinheiten installiert sind, als ein einziges Speichergerät aufgerufen und verwaltet werden. Konkret konsolidiert die Speichervirtualisierung alle Speicherblöcke in einem einzigen gemeinsamen Pool, aus dem sie bei Bedarf jeder VM im Netzwerk zugewiesen werden können. Speichervirtualisierung erleichtert die Bereitstellung von Speicher für VMs und nutzt den gesamten verfügbaren Speicher im Netzwerk maximal aus.
Cloud-Service-Provider setzen auf Speichervirtualisierung, um Cloud-Speicherdienste wie Block Storage, Object Storage und File Storage anzubieten.
Moderne Unternehmen speichern Daten mehrerer Anwendungen durch die Verwendung verschiedener Dateiformate an zahlreichen Orten, von der Cloud bis hin zu lokalen Hardware- und Softwaresystemen. Durch Datenvirtualisierung kann jede Anwendung auf all diese Daten zugreifen, unabhängig von Quelle, Format oder Standort.
Datenvirtualisierungstools schaffen eine Softwareebene zwischen den Anwendungen, die auf die Daten zugreifen, und den Systemen, die sie speichern. Die Ebene übersetzt die Datenanfrage oder Abfrage einer Anwendung nach Bedarf und liefert Ergebnisse, die sich über mehrere Systeme erstrecken können. Datenvirtualisierung kann bei der Beseitigung von Datensilos helfen, wenn andere Arten der Integration nicht möglich, erwünscht oder nicht erschwinglich sind.
Anwendungsvirtualisierung führt Anwendungssoftware aus, ohne sie direkt auf dem Betriebssystem des Benutzers zu installieren. Diese Technologie unterscheidet sich von der vollständigen Desktop-Virtualisierung dadurch, dass nur die Anwendung in einer virtuellen Umgebung ausgeführt wird, das Betriebssystem auf dem Gerät des Endbenutzers läuft wie gewohnt weiter.
Es gibt drei Arten der Anwendungsvirtualisierung:
Durch die Virtualisierung von Rechenzentren wird der größte Teil der Hardware eines Rechenzentrums in Software abstrahiert, wodurch ein Administrator ein einzelnes physisches Rechenzentrum effektiv in mehrere virtuelle Rechenzentren für verschiedene Kunden aufteilen kann.
Jeder Client kann auf seine eigene Infrastructure-as-a-Service (IaaS) zugreifen, die auf derselben zugrunde liegenden physischen Hardware ausgeführt wird. Virtuelle Rechenzentren bieten einen einfachen Einstieg in die Cloud-basierte Datenverarbeitung und ermöglichen es Unternehmen, schnell eine komplette Rechenzentrumsumgebung einzurichten, ohne Infrastrukturhardware kaufen zu müssen.
Die Virtualisierung der zentralen Recheneinheit (CPU) ist die grundlegende Technologie, die Hypervisoren, virtuelle Maschinen und verschiedene Betriebssysteme ermöglicht. Sie ermöglicht die Aufteilung einer einzelnen CPU in mehrere virtuelle CPUs zur Verwendung durch mehrere VMs.
Anfangs war die CPU-Virtualisierung vollständig softwaredefiniert, doch viele der heutigen Prozessoren verfügen über erweiterte Befehlssätze, die die CPU-Virtualisierung unterstützen, was die VM-Leistung verbessert.
Eine Grafikverarbeitungseinheit (GPU) ist ein spezieller Multi-Core-Prozessor, der die Gesamtrechenleistung verbessert, indem er schwere grafische oder mathematische Verarbeitung übernimmt. Durch die GPU-Virtualisierung können mehrere VMs die gesamte oder einen Teil der Rechenleistung einer einzelnen GPU nutzen, um Videos, KI und andere grafik- oder rechenintensive Anwendungen schneller auszuführen.
Die beiden wichtigsten Arten von GPUs in virtualisierten Umgebungen sind:
Linux enthält einen eigenen Hypervisor, die kernelbasierte virtuelle Maschine (KVM), die die Virtualisierungsprozessorerweiterungen von Intel und AMD unterstützt, um x86-basierte VMs innerhalb eines Linux-Host-Betriebssystems zu erstellen.
Als Open-Source-Betriebssystem ist Linux hochgradig anpassbar. Sie können VMs erstellen, auf denen für bestimmte Workloads angepasste Linux-Versionen oder für sensiblere Anwendungen sicherheitsoptimierte Versionen ausgeführt werden.
Durch die Virtualisierung von Servern, Speicher und anderen physischen Rechenzentrumsressourcen können Cloud-Computing-Anbieter ihren Kunden eine Reihe von Dienstleistungen anbieten, darunter die folgenden:
Um mehr über diese Cloud-Service-Modelle zu erfahren, besuchen Sie unsere Themenseite: „IaaS vs. PaaS vs. SaaS“.
Servervirtualisierung bildet einen kompletten Computer in Hardware nach, auf dem dann ein komplettes Betriebssystem ausgeführt wird. Das Betriebssystem läuft mit einer Anwendung. Das ist zwar effizienter als gar keine Virtualisierung, aber es werden trotzdem unnötige Codezeilen und Dienste für jede Anwendung dupliziert, die Sie ausführen möchten.
Container verfolgen einen alternativen Ansatz. Sie teilen sich einen zugrunde liegenden Betriebssystemkernel, auf dem lediglich die Anwendung und ihre Abhängigkeiten, wie Softwarebibliotheken und Umgebungsvariablen, ausgeführt werden. Durch diese Funktion werden Container kleiner und lassen sich schneller bereitstellen.
Lesen Sie den Blogbeitrag „Container vs. VMs: Was ist der Unterschied?“ für einen genaueren Vergleich.
Dieses Video mit dem Titel „Containerisierung erklärt“ erläutert die Grundlagen der Containerisierung und vergleicht sie mit der Virtualisierung mittels VMs.
Virtualisierung bietet zahlreiche Sicherheitsvorteile. Beispielsweise können mit Malware infizierte VMs auf einen Zeitpunkt (einen sogenannten Snapshot) zurückgesetzt werden, an dem die VM nicht infiziert und stabil war; sie können auch leichter gelöscht und neu erstellt werden. Ein nicht-virtualisiertes Betriebssystem kann nicht immer desinfiziert werden, da Malware oft tief in die Komponenten des Betriebssystems integriert ist und über System-Rollbacks hinaus bestehen bleibt.
Sicherheitsfunktionen zum Schutz von VMs und ihrer zugrundeliegenden physischen Hardware umfassen Zugriffskontrollen, regelmäßige Updates, Netzwerksegmentierung und Verschlüsselung. Darüber hinaus bieten softwarebasierte Sicherheitslösungen Überwachungstools für virtuelle Maschinen, die die Einhaltung von Vorschriften gewährleisten, eine Erkennung in Echtzeit ermöglichen und vieles mehr.
Zahlreiche Unternehmen bieten spezialisierte Virtualisierungslösungen an, die auf verschiedene Anwendungsfälle zugeschnitten sind, darunter Server-, Desktop- und Anwendungsvirtualisierung. Nachfolgend sind einige der bekanntesten Lösungen auf dem Marktplatz aufgeführt:
Red Hat OpenShift on IBM Cloud ist eine vollständig verwaltete OpenShift Container Platform (OCP).
Mit IBM Spectrum Virtualize erhalten Sie eine sichere, zuverlässige und effiziente Speichervirtualisierung für VMware-Umgebungen.
Finden Sie die richtige Cloud-Infrastrukturlösung für Ihre Geschäftsanforderungen und skalieren Sie Ressourcen nach Bedarf.