Startseite Themen GPU Was ist eine Grafikverarbeitungseinheit (GPU)?
Entdecken sie IBM watsonx.ai
Grafische Darstellungen verschiedener Symbole in Blau, Schwarz und Weiß, darunter Berge, Bäche und Nacht


Veröffentlicht: 26. Februar 2024
Mitwirkende: Mesh Flinders, Ian Smalley

Was ist eine Grafikverarbeitungseinheit (GPU)?

Eine Grafikverarbeitungseinheit, auch als Graphics Processing Unit oder GPU bekannt, ist eine elektronische Schaltung, die entwickelt wurde, um Computergrafik und Bildverarbeitung auf einer Vielzahl von Geräten zu beschleunigen, einschließlich Grafikkarten, Motherboards, Mobiltelefonen und Personalcomputern (PCs).

Durch die schnelle Ausführung mathematischer Berechnungen verkürzt ein Grafikprozessor die Zeit, die ein Computer für die Ausführung mehrerer Programme benötigt, und ist damit ein wichtiger Wegbereiter für neue und zukünftige Technologien wie Maschinelles Lernen (ML), Künstliche Intelligenz (KI) und Blockchain.

Vor der Erfindung der GPUs in den 1990er Jahren waren die Grafikcontroller in PCs und Videospiel-Controllern auf die Zentraleinheit (CPU) eines Computers angewiesen, um Aufgaben auszuführen. Seit den frühen 1950er Jahren sind CPUs die wichtigsten Prozessoren in einem Computer. Sie führen alle Befehle aus, die für die Ausführung von Programmen erforderlich sind, z. B. Logik, Steuerung und Eingabe/Ausgabe (E/A). Mit dem Aufkommen von Personal Gaming und computergestütztem Design (CAD) in den 1990er Jahren brauchte die Industrie jedoch eine schnellere, effizientere Methode, um Pixel in kurzer Zeit zu kombinieren.

Im Jahr 2007 entwickelte Nvidia CUDA (Compute Unified Device Architecture), eine Software, die Entwicklern direkten Zugriff auf die parallelen Berechnungsfähigkeiten von GPUs ermöglichte und sie in die Lage versetzte, die GPU-Technologie für eine breitere Palette von Funktionen als zuvor zu nutzen. In den 2010er Jahren wurde die GPU-Technologie noch leistungsfähiger, vor allem durch Raytracing (die Erzeugung von Computerbildern durch Nachverfolgung der Richtung des Lichts von einer Kamera) und Tensorkerne (entworfen für Deep Learning).

Aufgrund dieser Fortschritte haben GPUs eine wichtige Rolle bei der KI-Beschleunigung und bei Deep-Learning-Prozessoren gespielt und dazu beigetragen, die Entwicklung von KI- und ML-Anwendungen zu beschleunigen. Heutzutage treiben GPUs nicht nur Spielkonsolen und Bearbeitungssoftware an, sondern auch modernste Rechenfunktionen, die für viele Unternehmen von entscheidender Bedeutung sind.

 

IBM Cloud GPU-Lösungen für KI- und HPC-Workloads

Die Fortschritte in der GPU-Technologie und die wachsende Nachfrage nach KI und HPC haben die Art und Weise verändert, wie die Industrie Werte aus ihren Daten gewinnt und die IT-Leistung in neue Höhen treibt.

Ähnliche Inhalte

IBM Newsletter abonnieren

Welche verschiedenen Arten von GPUs gibt es?

Es gibt drei Arten von GPUs: diskrete GPUs, integrierte GPUs und virtuelle GPUs:  

Diskret: Diskrete GPUs oder dGPUs sind Grafikprozessoren, die von der CPU eines Geräts getrennt sind. Dort werden die Informationen aufgenommen und verarbeitet, so dass ein Computer funktionieren kann. Diskrete GPUs werden in der Regel in fortschrittlichen Anwendungen mit besonderen Anforderungen wie Videobearbeitung, Inhaltserstellung oder High-End-Gaming eingesetzt. Dabei handelt es sich um separate Chips mit Anschlüssen zu separaten Leiterplatten, die normalerweise über einen Express-Steckplatz mit der CPU verbunden sind. Eine der am weitesten verbreiteten diskreten GPUs ist die Marke Intel Arc, die für die PC-Gaming-Branche entwickelt wurde.  

Integriert: Eine integrierte GPU oder iGPU ist in die Infrastruktur eines Computers oder Geräts integriert und wird in der Regel neben der CPU eingesetzt. Integrierte GPUs wurden in den 2010er Jahren von Intel entwickelt und erfreuten sich zunehmender Beliebtheit, da Hersteller wie MSI, ASUS und Nvidia erkannten, wie leistungsfähig die Kombination von GPUs mit CPUs ist, anstatt dass Benutzer selbst GPUs über einen PCI-Express-Steckplatz hinzufügen müssen. Auch heute noch sind sie eine beliebte Wahl für Laptop-Benutzer, Gamer und andere, die rechenintensive Programme auf ihren PCs ausführen.  

Virtuell: Virtuelle GPUs haben dieselben Funktionen wie separate oder integrierte GPUs, aber ohne die Hardware. Sie sind einfach eine softwarebasierte Version einer GPU, die für eine Cloud-Instanz entwickelt wurde und zur Ausführung derselben Workloads verwendet werden kann. Da sie keine Hardware haben, sind sie außerdem einfacher und billiger zu warten als ihre physischen Gegenstücke. 

 

Moderne GPU-Anwendungsfälle

Im Laufe der Zeit wurden die GPUs durch technische Verbesserungen immer programmierbarer, und es wurden immer mehr Fähigkeiten entdeckt. Insbesondere ihre Fähigkeit, Aufgaben auf mehr als einen Prozessor aufzuteilen – bekannt als Parallelverarbeitung – hat sie für eine Vielzahl von Anwendungen, wie z. B. PC-Gaming, unverzichtbar gemacht, High Performance Computing (HPC), 3D-Rendering-Workstations, Data-Center-Computing und viele andere. Werfen wir einen genaueren Blick auf einige der wichtigsten, modernen Anwendungen der GPU-Technologie:

 

Künstliche Intelligenz

KI und ihre vielen Anwendungen wären ohne GPU-Technologie wohl unmöglich. Die Fähigkeit von GPUs, hochtechnische Probleme schneller und effizienter zu lösen als herkömmliche CPUs, macht sie unverzichtbar. GPUs treiben viele führende KI-Anwendungen an, wie z. B. IBMs cloudnativen KI-Supercomputer Veladie hohe Geschwindigkeiten erfordern, um mit immer größeren Datensätzen zu trainieren. KI-Modelle werden auf GPUs von Rechenzentren trainiert und ausgeführt, die in der Regel von Unternehmen betrieben werden, die wissenschaftliche Forschung oder andere rechenintensive Aufgaben durchführen.

Maschinelles Lernen (ML) und Deep Learning (DL)

Maschinelles Lernen, oder ML, bezieht sich auf eine spezielle Disziplin der KI, die sich mit der Verwendung von Daten und Algorithmen befasst, um die Art und Weise zu imitieren, wie Menschen lernen.Deep Learning, oder DL, ist eine Untergruppe von ML, die neuronale Netzwerke verwendet, um den Entscheidungsprozess des menschlichen Gehirns zu simulieren. Die GPU-Technologie ist für beide Bereiche des technologischen Fortschritts entscheidend.

Wenn es um ML und DL geht, unterstützen GPUs die Fähigkeit der Modelle, riesige Datensätze zu sortieren und daraus Schlüsse zu ziehen, ähnlich wie ein Mensch. GPUs verbessern insbesondere die Bereiche Speicher und Optimierung, da sie viele gleichzeitige Berechnungen durchführen können. Außerdem verbrauchen GPUs, die in ML und DL eingesetzt werden, weniger Ressourcen als CPUs, ohne dass dies zu Lasten der Leistung oder Genauigkeit geht.

Blockchain

Blockchain, das populäre Hauptbuch, das zur Aufzeichnung von Transaktionen und zur Verfolgung von Vermögenswerten in Geschäftsnetzwerken verwendet wird, stützt sich stark auf die GPU-Technologie, insbesondere wenn es um einen Schritt geht, der als „Ausführungsnachweis“ (Proof of Work) bezeichnet wird. In vielen weit verbreiteten Blockchains, wie z. B. Kryptowährungen, ist der Schritt des Arbeitsnachweises entscheidend für die Validierung einer Transaktion, sodass sie der Blockchain hinzugefügt werden kann.

Gaming

Die Gaming-Branche nutzte erstmals in den 1990er Jahren die Leistungsfähigkeit von GPUs, um das gesamte Spielerlebnis durch mehr Geschwindigkeit und grafische Genauigkeit zu verbessern. Heutzutage ist das Personal Gaming aufgrund von hyperrealen Szenarien, Echtzeit-Interaktionen und riesigen, immersiven Gaming-Welten sehr rechenintensiv. Trends im Gaming-Bereich wie Virtual Reality (VR), höhere Bildwiederholraten und höher aufgelöste Bildschirme hängen alle von GPUs ab, um Grafiken in immer anspruchsvolleren Rechenumgebungen schnell zu liefern.

Videobearbeitung

Traditionell waren lange Rendering-Zeiten ein großes Hindernis bei der Verwendung von Consumer- und professioneller Bearbeitungssoftware. Seit ihrer Erfindung haben die GPUs die Verarbeitungszeiten und Rechenressourcen in beliebten Videobearbeitungsprodukten wie Final Cut Pro und Adobe Premiere stetig reduziert. Heutzutage können GPUs, die mit paralleler Verarbeitung und integrierter KI ausgestattet sind, die Bearbeitungsmöglichkeiten für alles, von professionellen Bearbeitungssuiten bis hin zu Smartphone-Apps, dramatisch beschleunigen.

Erstellung von Inhalten

Verbesserungen bei der Verarbeitung, der Leistung und der Grafikqualität haben GPUs zu einem wesentlichen Bestandteil des Wandels in der Content-Creation-Industrie gemacht. Heute können Autoren, die mit einer leistungsstarken Grafikkarte und Hochgeschwindigkeitsinternet ausgestattet sind, schneller als je zuvor realistische Inhalte erstellen, diese mit KI und maschinellem Lernen anreichern und dann bearbeiten und an ein Live-Publikum streamen. All das ist zum großen Teil den Fortschritten in der GPU-Technologie zu verdanken.

Visualisierung und Simulation

GPUs sind in vielen Branchen sehr gefragt, um das Erlebnis und die Schulungsmöglichkeiten komplexer, professioneller Anwendungen zu verbessern, z. B. bei Produktpräsentationen, CAD-Zeichnungen und medizinischen und seismischen/geophysikalischen Darstellungen. GPUs sind von entscheidender Bedeutung für fortschrittliche Visualisierungen, die bei der Berufsausbildung von Feuerwehrleuten, Astronauten, Schullehrern und anderen mit 3D-Animation, KI und ML, fortschrittlichem Rendering und hyperrealistischen Virtual Reality (VR)- und Augmented Reality (AR)-Erlebnissen eingesetzt werden.

Darüber hinaus nutzen Ingenieure und Klimawissenschaftler Simulationsanwendungen, die von GPUs betrieben werden, um Wetterbedingungen, Flüssigkeitsdynamik, Astrophysik und das Verhalten von Fahrzeugen unter bestimmten Bedingungen vorherzusagen. Eine der leistungsstärksten verfügbaren GPUs für diese Zwecke ist der Nvidia GeForce RTX-Chip, der hauptsächlich für die wissenschaftliche Visualisierung und Energieexploration entwickelt wurde.

Wie funktioniert ein CMS?

Heutige GPUs verwenden viele Multiprozessoren, um all die verschiedenen Teile der ihnen übertragenen Aufgabe zu erledigen. 

Eine GPU verfügt über einen eigenen Schnellzugriffsspeicher (RAM) – eine spezielle Art von elektronischem Speicher, in dem Code und Daten gespeichert werden, auf die der Chip zugreifen und die er bei Bedarf ändern kann. Moderne GPUs verfügen in der Regel über einen Arbeitsspeicher, der speziell für die großen Datenmengen ausgelegt ist, die für rechenintensive Aufgaben wie Grafikbearbeitung, Spiele oder KI/ML-Anwendungsfälle benötigt werden.

Zwei beliebte Arten von GPU-Speicher sind Graphics Double Data Rate 6 Synchronous Dynamic Random-Access Memory (GDDR6) und GDDR6X, eine spätere Generation. GDDR6X verbraucht 15 % weniger Strom pro übertragenem Bit als GDDR6, aber der Gesamtstromverbrauch ist höher, da GDDR6X schneller ist. iGPUs können entweder in die CPU eines Computers integriert oder in einen Steckplatz neben der CPU eingesetzt und über einen PCI-Express-Anschluss angeschlossen werden. 

Worin liegt der Unterschied zwischen einer GPU und einer CPU?

CPUs und GPUs haben ein ähnliches Design, einschließlich einer ähnlichen Anzahl von Kernen und Transistoren für Verarbeitungsaufgaben, aber CPUs sind in ihren Funktionen allgemeiner einsetzbar als GPUs. GPUs konzentrieren sich in der Regel auf eine einzelne, spezifische Rechenaufgabe wie Grafikverarbeitung oder maschinelles Lernen.

CPUs sind das Herz und Gehirn eines Computersystems oder Geräts. Sie erhalten allgemeine Anweisungen oder Anfragen zu einer Aufgabe von einem Programm oder einer Softwareanwendung. Eine GPU hingegen hat eine spezifischere Aufgabe – in der Regel die schnelle Verarbeitung von hochauflösenden Bildern und Videos. Um ihre Aufgabe zu erfüllen, führen GPUs ständig komplexe mathematische Berechnungen durch, die zum Rendern von Grafiken oder anderen rechenintensiven Funktionen erforderlich sind.

Einer der größten Unterschiede zwischen CPUs und GPUs besteht darin, dass CPUs tendenziell weniger Kerne verwenden und ihre Aufgaben in einer linearen Reihenfolge ausführen, während GPUs Hunderte oder sogar Tausende von Kernen haben, was die parallele Verarbeitung ermöglicht, die ihre blitzschnellen Verarbeitungsfunktionen vorantreibt.

Die ersten GPUs wurden entwickelt, um das Rendern von 3D-Grafiken zu beschleunigen und Film- und Videospielszenen realistischer und ansprechender erscheinen zu lassen. Der erste GPU-Chip, der GeForce von Nvidia, wurde 1999 auf den Markt gebracht, und es folgte schnell eine rasante Wachstumsphase, in der die GPU-Fähigkeiten aufgrund ihrer Hochgeschwindigkeits-Parallelverarbeitung auf andere Bereiche ausgeweitet wurden.

Parallelverarbeitung oder paralleles Rechnen ist eine Art der Datenverarbeitung, die auf zwei oder mehr Prozessoren beruht, um verschiedene Teilmengen einer gesamten Rechenaufgabe zu erledigen. Vor GPUs konnten Computer der älteren Generation jeweils nur ein Programm ausführen, wobei die Erledigung einer Aufgabe oft Stunden dauerte. Die Parallelverarbeitungsfunktion von GPUs führt viele Berechnungen oder Aufgaben gleichzeitig aus und ist damit schneller und effizienter als CPUs in älteren Computern. 

Weiterführende Lösungen
GPU-Cloud-Server

Greifen Sie mit nahtloser Integration in Ihre IBM Cloud-Architektur, -APIs und -Anwendungen und einem global verteilten Netzwerk von Rechenzentren auf einen der flexibelsten Serverauswahlprozesse der Branche zu.

Testen Sie IBM GPU-Cloud-Server

IBM watsonx

Auf nur einer Plattform können Sie KI in Ihrem Unternehmen bereitstellen und integrieren, alle Datenquellen verwalten und verantwortungsvolle KI-Workflows beschleunigen.

Entdecken sie IBM watsonx

NVIDIA KI-Speicherlösungen

Beschleunigen Sie die KI-Ergebnisse mit mehr Daten und einem beschleunigten globalen Zugriff, der es Ihnen ermöglicht, die Grenzen des Datenzugriffs zu durchbrechen und eine neue Speicherdynamik für NVIDIA KI-Lösungen zu schaffen. 

Erleben Sie den Unterschied mit KI-Speicherlösungen von NVIDIA

High-Performance-Computing-Lösungen

Entdecken Sie die HPC-Lösungen für die Hybrid Cloud von IBM mit einem kompletten Portfolio integrierter High-Performance-Computing-Lösungen (HPC) für die Hybrid Cloud.

Bewältigen Sie große, rechenintensive Herausforderungen

IBM Cloud Bare Metal Servers

Erleben Sie die Leistungsfähigkeit von IBM Cloud Bare Metal Servern, dedizierten Servern für Einzelmieter, die als Cloud-Services bereitgestellt und verwaltet werden können.

Bereitstellung von IBM Cloud Bare Metal Servers

Ressourcen Was ist eine GPU?

Erfahren Sie mehr über Grafikprozessoren (GPUs) und warum sie für Unternehmen, die neue Ansätze zur Bewältigung ihrer Workloads (Video und Text) in Betracht ziehen, so wichtig sind.

Der cloudnative KI-Supercomputer von IBM wird optimiert

Lernen Sie Vela kennen, einen KI-Supercomputer in der IBM Cloud, der entwickelt wurde, um KI-Workflows von der Datenvorverarbeitung und dem Modelltraining bis hin zur Inkubation neuer Produkte effizienter zu gestalten.

Was ist maschinelles Lernen?

Erfahren Sie mehr über die Geschichte des maschinellen Lernens (ML) sowie wichtige Definitionen, Anwendungen und geschäftliche Belange.

Was ist künstliche Intelligenz?

Erfahren Sie mehr über künstliche Intelligenz (KI), eine Technologie, die es Computern und digitalen Geräten ermöglicht, wie Menschen zu lernen, zu lesen, zu schreiben, zu sprechen, zu sehen, zu kreieren, zu spielen, zu analysieren und Empfehlungen abzugeben.

Was ist Blockchain-Technologie?

Entdecken Sie die Leistungsfähigkeit von Blockchain, einem gemeinsam genutzten, unveränderlichen Hauptbuch, das die Aufzeichnung von Transaktionen und die Verfolgung von Assets in einem Geschäftsnetzwerk erleichtert.

IBMs neues GPU-Angebot in der Cloud

Erfahren Sie, wie IBM Kunden bei der Bereitstellung von Foundation Models und KI-Workloads mit einem neuen GPU-Angebot in der IBM Cloud unterstützt.

Machen Sie den nächsten Schritt

Erleben Sie ein Unternehmensstudio der nächsten Generation für KI-Entwickler zum Trainieren, Validieren, Optimieren und Bereitstellen von KI-Modellen. Die IBM watsonx.ai-Plattform ist eine KI- und Datenplattform, die neue generative KI-Funktionen zusammenführt, die auf Foundation Models und traditionellem maschinellem Lernen basieren.

Entdecken sie IBM watsonx.ai