Startseite topics HPC Was ist High-Performance Computing (HPC)?
Entdecken Sie die HPC-Lösung von IBM Abonnieren Sie Cloud-Updates
Abbildung, die zeigt, wie beim High-Power-Computing leistungsstarke Prozessoren eingesetzt werden, um riesige Datenmengen in Echtzeit zu verarbeiten
Was ist HPC?

High-Performance-Computing (HPC) ist eine Technologie, die Cluster leistungsstarker, parallel arbeitender Prozessoren verwendet, um massive mehrdimensionale Datensätze zu verarbeiten, auch bekannt als Big Data, und komplexe Probleme mit extrem hohen Geschwindigkeiten zu lösen. HPC löst einige der komplexesten Computerprobleme von heute in Echtzeit.

HPC-Systeme laufen in der Regel mehr als eine Million Mal schneller als die schnellsten handelsüblichen Desktop-, Laptop- oder Serversysteme.

Supercomputer – speziell angefertigte Computer mit Millionen von Prozessoren oder Prozessorkernen – waren jahrzehntelang der Schlüssel zum Hochleistungsrechnen. Supercomputer gibt es immer noch. Während der Entstehung dieses Artikels war der schnellste Supercomputer der Frontier (Link führt außerhalb von ibm.com) aus den USA mit einer Verarbeitungsgeschwindigkeit von 1,102 Exaflops oder Trillionen Gleitkommaoperationen pro Sekunde (Flops). Doch heute betreiben immer mehr Unternehmen HPC-Dienste auf Clustern aus Hochgeschwindigkeitsservern, die vor Ort oder in der Cloud gehostet werden.

HPC-Workloads bringen wichtige neue Erkenntnisse ans Licht, die das menschliche Wissen voranbringen und erhebliche Wettbewerbsvorteile schaffen. HPC sequenziert beispielsweise DNA, automatisiert den Aktienhandel und führt Algorithmen und Simulationen für die künstliche Intelligenz (KI) aus — etwa solche, die selbstfahrende Autos ermöglichen —, die Terabytes an Daten analysieren, die von IoT-Sensoren, Radar- und GPS-Systemen in Echtzeit gestreamt werden, um Entscheidungen in Sekundenbruchteilen zu treffen.

Flexibilität am Arbeitsplatz mit DaaS

Lesen Sie, wie Unternehmen mit Desktop-as-a-Service (DaaS) das gleiche Maß an Leistung und Sicherheit erreichen können wie bei der lokalen Bereitstellung der Anwendungen.

Ähnliche Inhalte

Jetzt für den Leitfaden zur App-Modernisierung registrieren

Wie funktioniert HPC?

Ein Standard-Computersystem löst Probleme hauptsächlich durch serielle Datenverarbeitung — es teilt die Arbeitslast in eine Abfolge von Aufgaben auf und führt die Aufgaben dann nacheinander auf demselben Prozessor aus.

Im Gegensatz dazu verwendet HPC:

Massiv paralleles Computing

Beim parallelen Computing werden mehrere Aufgaben gleichzeitig auf mehreren Computerservern oder Prozessoren ausgeführt. Massiv paralleles Computing ist paralleles Computing, bei dem Zehntausende bis Millionen von Prozessoren oder Prozessorkernen verwendet werden.

Computer-Cluster (auch HPC-Cluster genannt)

Ein HPC-Cluster besteht aus mehreren miteinander vernetzten Hochgeschwindigkeitsservern mit einem zentralen Scheduler, der die parallele Rechenlast verwaltet. Die als Knoten bezeichneten Computer verwenden entweder leistungsstarke Multi-Core-CPUs oder - was heute wahrscheinlicher ist - GPUs, die sich gut für strenge mathematische Berechnungen, maschinelle Lernmodelle und grafikintensive Aufgaben eignen. Ein einzelner HPC-Cluster kann 100.000 oder mehr Knoten umfassen.

Leistungsstarke Komponenten

Alle anderen Computing-Ressourcen in einem HPC-Cluster – wie Netzwerke, Arbeitsspeicher, Speicher und Dateisysteme – sind Hochgeschwindigkeits- und Hochdurchsatzressourcen. Es gibt auch Komponenten mit geringer Latenz, die mit den Knoten Schritt halten und die Rechenleistung und -leistung des Clusters optimieren können.

HPC und Cloud Computing

Noch vor einem Jahrzehnt war HPC aufgrund der hohen Kosten für den Besitz oder das Leasing eines Supercomputers oder den Bau und das Hosting eines HPC-Clusters in einem lokalen Rechenzentrum für die meisten Unternehmen undenkbar.

Heute bietet HPC in der Cloud – manchmal auch als HPC as a Service oder HPCaaS bezeichnet – eine deutlich schnellere, skalierbarere und kostengünstigere Möglichkeit für Unternehmen, die Vorteile von HPC zu nutzen. HPCaaS umfasst in der Regel den Zugriff auf HPC-Cluster und Infrastruktur, die im Rechenzentrum eines Cloud-Service-Anbieters gehostet werden, sowie Netzwerkfunktionen (wie KI und Datenanalyse) und HPC-Know-how.

Heute treiben drei konvergierende Trends HPC in der Cloud voran:

Steigende Nachfrage

Unternehmen in allen Branchen sind zunehmend auf Echtzeit-Einblicke und Wettbewerbsvorteile angewiesen, die sich aus der Lösung komplexer Probleme ergeben, die nur HPC-Apps lösen können. Beispielsweise stützt sich die Erkennung von Kreditkartenbetrug – auf die wir uns alle verlassen und die die meisten von uns schon einmal erlebt haben – zunehmend auf HPC, um Betrugsfälle schneller zu erkennen und lästige Fehlalarme zu reduzieren, selbst wenn die Betrugsaktivitäten zunehmen und sich die Taktiken der Betrüger ständig ändern.

Verbreitung von RDMA-Netzwerken mit geringerer Latenz und höherem Durchsatz

Mithilfe von RDMA (Remote Direct Memory Access) kann ein vernetzter Computer auf den Speicher eines anderen vernetzten Computers zugreifen, ohne das Betriebssystem einer der Computer zu beeinträchtigen oder die Verarbeitung der beiden Computer zu unterbrechen. Dies trägt dazu bei, die Latenz zu minimieren und den Durchsatz zu maximieren. Neue hochleistungsfähige RDMA-Strukturen – darunter InfiniBand, virtuelle Schnittstellenarchitektur und RDMA über konvergentes Ethernet – machen Cloud-basiertes HPC grundsätzlich möglich.

Weit verbreitete HPCaaS-Verfügbarkeit in Public und Private Clouds

Heute bietet jeder führende Public-Cloud-Dienstleister HPC-Dienste an. Und während einige Unternehmen weiterhin stark regulierte oder sensible HPC-Workloads vor Ort ausführen, übernehmen viele von ihnen die von Hardware- und Lösungsanbietern angebotenen Private-Cloud-HPC-Dienste oder migrieren zu diesen.

HPC-Anwendungsfälle

HPC-Anwendungen sind zum Synonym für KI-Anwendungen im Allgemeinen und für Anwendungen zum maschinellen Lernen und Deep Learning im Besonderen geworden. Heutzutage werden die meisten HPC-Systeme für diese Workloads entwickelt. Diese HPC-Anwendungen treiben kontinuierliche Innovationen voran, zum Beispiel im:

Gesundheitswesen, Genomik und Biowissenschaften

Der erste Versuch, ein menschliches Genom zu sequenzieren, dauerte 13 Jahre. Heute können HPC-Systeme diese Aufgabe in weniger als einem Tag erledigen. Weitere HPC-Anwendungen im Gesundheitswesen und in den Biowissenschaften sind die Entdeckung und Entwicklung von Arzneimitteln, die schnelle Krebsdiagnose und die molekulare Modellierung.

Finanzdienstleistungen

Neben dem automatisierten Handel und der Betrugserkennung unterstützt HPC auch Anwendungen in der Monte-Carlo-Simulation und anderen Risikoanalysemethoden.

Regierung und Verteidigung

Zwei wachsende HPC-Anwendungsfälle in diesem Bereich sind Wettervorhersagen und Klimamodellierung, die beide die Verarbeitung großer Mengen historischer meteorologischer Daten und Millionen von täglichen Änderungen klimabezogener Datenpunkte beinhalten. Weitere Anwendungen für Behörden und Verteidigungsdienste sind Energieforschung und Geheimdienstarbeit.

Energie

In einigen Fällen, die sich mit dem Bereich Regierung und Verteidigung überschneiden, umfassen energiebezogene HPC-Anwendungen seismische Datenverarbeitung, Reservoirsimulation und -modellierung, Geoanalytik, Windsimulation und Geländekartierung.

Weiterführende Lösungen
Hochleistungs-Computing in der IBM Cloud

Ganz gleich, ob Ihr Workload eine Hybrid-Cloud-Umgebung oder eine Umgebung in der Cloud erfordert, IBM Cloud verfügt über die Hochleistungs-Computing-Tools, die Ihren Anforderungen entsprechen. 

Entdecken Sie HPC in der IBM Cloud
KI-Infrastruktur

Um den heutigen Herausforderungen zu begegnen und sich auf die Zukunft vorzubereiten, benötigen Sie eine IBM KI-Software, die sich in Ihre Infrastruktur und Datenstrategie integrieren lässt.

Entdecken Sie KI-Infrastrukturlösungen
HPC-Workload-Management

Das IBM Spectrum LSF Suites Portfolio definiert Cluster-Virtualisierung und Workload-Management neu, indem es ein integriertes System für geschäftskritische HPC-Umgebungen bereitstellt. 

Informieren Sie sich über HPC-Datenverarbeitungsserver und -speicher
Quantencomputing-Systeme

IBM ist derzeit das einzige Unternehmen, das den vollständigen Quantum-Technologie-Stack mit der fortschrittlichsten Hardware, integrierten Systemen und Cloud-Diensten anbietet.

Entdecken Sie Quantencomputing-Systeme
Ressourcen Geschichte des Supercomputing bei IBM

IBM kann auf eine lange Geschichte im Bereich des Supercomputing zurückblicken und gilt als Pionier auf diesem Gebiet, mit Highlights wie dem Apollo-Programm, Deep Blue, Watson und anderen.

Fahrplan für den Aufbau eines offenen Quantensoftware-Ökosystems

Das Quantencomputing steht kurz davor, einen Paradigmenwechsel herbeizuführen. Software, die auf dieser neu entstehenden, in den physikalischen Gesetzen der Natur wurzelnden Technologie beruht, könnte schon bald die Datenverarbeitung für immer revolutionieren.

Machen Sie den nächsten Schritt

IBM bietet ein vollständiges Portfolio an integrierten High-Performance Computing (HPC) Lösungen für die Hybrid Cloud, die Ihnen die Flexibilität bieten, rechenintensive Workloads vor Ort oder in der Cloud zu verwalten. 

HPC-Lösungen erkunden