Accueil Thèmes Processeur graphique (GPU) Qu'est-ce qu'un processeur graphique (GPU) ?
Découvrir IBM watsonx.ai
Illustrations en bleu, noir et blanc de diverses icônes, dont des montagnes, des cours d'eau et la nuit


Publication : 2 février 2024
Contributeurs : Mesh Flinders, Ian Smalley

Qu'est-ce qu'un processeur graphique (GPU) ?

Un processeur graphique, aussi connu sous le nom d'unité de traitement graphique (GPU), est un circuit électronique conçu pour accélérer l'affichage et le traitement d'images sur divers appareils, tels que les cartes graphiques, les cartes mères, les téléphones portables et les ordinateurs personnels (PC).

En effectuant des calculs mathématiques à grande vitesse, un GPU réduit le temps nécessaire à un ordinateur pour exécuter plusieurs programmes, ce qui le rend indispensable pour les technologies émergentes et futures telles que le Machine Learning (ML)l'intelligence artificielle (IA) et la blockchain.

Avant l'invention des GPU dans les années 1990, les contrôleurs graphiques des PC et des consoles de jeux vidéo s'appuyaient sur l'unité centrale de traitement (CPU) de l'ordinateur pour exécuter des tâches. À partir du début des années 1950, les CPU étaient les processeurs les plus importants d'un ordinateur, exécutant toutes les instructions nécessaires à l'exécution des programmes, telles que la logique, le contrôle et les entrées/sorties (E/S). Cependant, avec l'essor des jeux vidéo et de la conception assistée par ordinateur (CAO) dans les années 1990, l'industrie avait besoin d'un moyen plus rapide et plus efficace de combiner les pixels en un court laps de temps.

En 2007, Nvidia a développé CUDA (Compute Unified Device Architecture), un logiciel qui donnait aux développeurs un accès direct aux capacités de calcul parallèle des GPU, leur permettant d'utiliser la technologie GPU pour un éventail plus large de fonctions qu'auparavant. Dans les années 2010, la technologie GPU a acquis encore plus de capacités, notamment le ray tracing (la génération d'images informatiques en suivant la direction de la lumière d'une caméra) et les cœurs tensoriels (conçus pour permettre l'apprentissage profond).

Grâce à ces progrès, les GPU ont joué un rôle crucial dans l'accélération de l'IA et des processeurs d'apprentissage profond, contribuant à accélérer le développement des applications d'IA et de ML. Aujourd'hui, en plus d'alimenter les consoles de jeux et les logiciels de montage, les GPU permettent des fonctions de calcul de pointe essentielles à de nombreuses entreprises.

 

IBM Cloud GPU Solutions pour les charges de travail IA et HPC

Les progrès de la technologie GPU et la demande croissante en matière d'IA et de calcul haute performance (HPC) ont transformé la façon dont les industries exploitent leurs données et repoussent les limites des performances informatiques.

Contenu connexe

Abonnez-vous à la newsletter IBM

Quels sont les différents types de GPU ?

Il existe trois principaux types de GPU : les GPU discrets, les GPU intégrés et les GPU virtuels :  

GPU discrets : les GPU discrets, également appelés dGPU, sont des processeurs graphiques distincts du CPU d'un appareil, la partie de l'ordinateur qui traite les informations et permet au système de fonctionner. Les dGPU sont généralement utilisés dans des applications exigeantes nécessitant des capacités graphiques puissantes, telles que le montage vidéo, la création de contenu ou les jeux haut de gamme. Il s'agit de puces distinctes dotées de connecteurs pour des cartes de circuit imprimé séparées, habituellement reliées au CPU via un emplacement PCI Express dédié. La marque Intel Arc, conçue pour le marché des jeux PC, est un exemple courant de GPU discret.  

GPU intégrés : un GPU intégré, ou iGPU, est directement intégré à la carte mère d'un ordinateur ou d'un appareil, généralement à proximité du CPU. Popularisés par Intel dans les années 2010, les iGPU ont gagné en importance, car les fabricants comme MSI, ASUS et Nvidia ont reconnu l'intérêt de combiner les GPU et les CPU sur une même carte mère, évitant ainsi aux utilisateurs d'installer eux-mêmes un GPU via un port PCI Express. De nos jours, les iGPU restent un choix populaire pour les utilisateurs d'ordinateurs portables, les joueurs occasionnels et ceux qui exécutent des programmes nécessitant un minimum de ressources graphiques sur leurs PC.  

GPU virtuels : les GPU virtuels offrent les mêmes fonctionnalités que les GPU discrets ou intégrés, mais sans le matériel physique. Il s'agit essentiellement d'une version logicielle d'un GPU conçue pour fonctionner sur une instance cloud et capable d'exécuter les mêmes charges de travail. En outre, comme ils ne nécessitent pas de matériel dédié, les GPU virtuels sont plus simples et moins onéreux à entretenir que leurs homologues physiques. 

 

Cas d'utilisation modernes des GPU

À mesure que les GPU ont évolué, les améliorations techniques les ont rendus plus programmables et ont permis de découvrir de nouvelles fonctionnalités. Plus précisément, leur capacité à diviser les tâches entre plusieurs processeurs, ce que l'on appelle le traitement parallèle, les a rendus indispensables à un large éventail d'applications, telles que le jeu sur PC, le calcul haute performance (HPC), les stations de travail de rendu 3D, le calcul en centre de données et bien d'autres. Voici un aperçu plus détaillé de certaines des applications modernes les plus importantes de la technologie GPU :

 

Intelligence artificielle

L'IA et ses nombreuses applications seraient probablement impossibles sans la technologie GPU. La capacité des GPU à résoudre des problèmes techniques complexes plus rapidement et plus efficacement que les CPU traditionnels les rend indispensables. Les GPU alimentent de nombreuses applications d'IA de pointe, telles que Vela, le supercalculateur d'IA cloud natif d'IBM, qui nécessite des vitesses élevées pour s'entraîner sur des ensembles de données de plus en plus volumineux. Les modèles d'IA s'entraînent et s'exécutent sur des GPU de centres de données, généralement exploités par des entreprises menant des recherches scientifiques ou d'autres tâches intensives en calcul.

Machine learning (ML) et apprentissage profond (DL)

Le machine learning, ou ML, fait référence à une discipline spécifique de l’IA concernée par l’utilisation des données et des algorithmes pour imiter la façon dont les humains apprennent. Le deep learning (DL), ou apprentissage profond, est un sous-ensemble du ML qui utilise les réseaux neuronaux pour simuler le processus de prise de décision du cerveau humain. La technologie GPU est essentielle pour les deux domaines du progrès technologique.

En ce qui concerne le ML et le DL, les GPU permettent aux modèles de trier des ensembles de données énormes et d'en tirer des inférences de manière similaire à celle des humains. Les GPU améliorent particulièrement la mémoire et l'optimisation, car ils peuvent effectuer de nombreux calculs simultanés. De plus, les GPU utilisés dans le machine learning et l'apprentissage profond consomment moins de ressources que les CPU, sans pour autant perdre en puissance ou en précision.

Blockchain

La blockchain, le célèbre registre utilisé pour enregistrer les transactions et suivre les actifs dans les réseaux professionnels, dépend fortement de la technologie GPU, en particulier lorsqu'il s'agit de l'étape appelée « preuve de travail ».  Dans de nombreuses blockchains largement utilisées, telles que les cryptomonnaies, l'étape de la preuve de travail est vitale pour valider une transaction, car elle permet de l'ajouter à la blockchain.

Jeu vidéo

L'industrie du jeu vidéo a été la première à exploiter la puissance des GPU dans les années 1990 pour améliorer l'expérience de jeu globale en offrant plus de vitesse et de précision graphique. Les jeux vidéo actuels sont très gourmands en ressources informatiques en raison des scénarios hyperréalistes, des interactions en temps réel et des vastes mondes immersifs. Les tendances du jeu telles que la réalité virtuelle (VR), les taux de rafraîchissement plus élevés et les écrans haute résolution dépendent toutes des GPU pour fournir des graphismes rapides dans des environnements informatiques de plus en plus exigeants.

Montage vidéo

Traditionnellement, les longs temps de rendu ont été un obstacle majeur dans les logiciels de montage grand public et professionnel. Depuis leur invention, les GPU ont progressivement réduit les temps de traitement et les ressources de calcul dans les produits de montage vidéo populaires comme Final Cut Pro et Adobe Premiere. De nos jours, les GPU équipés de traitement parallèle et d'intelligence artificielle intégrée accélèrent considérablement les capacités de montage, des suites de montage professionnelles aux applications pour smartphones.

Création de contenu

Les améliorations en matière de traitement, de performances et de qualité graphique ont fait des GPU un élément essentiel de la transformation du secteur de la création de contenu. À l'ère actuelle, les créateurs de contenu équipés d'une carte graphique performante et d'un accès internet haut débit peuvent générer du contenu réaliste, l'enrichir grâce à l'IA et au machine learning, puis le monter et le diffuser en continu à un public en direct plus rapidement que jamais. Tout cela grâce, en grande partie, aux progrès de la technologie GPU.

Visualisation et simulation

Les GPU sont très demandés dans de nombreux secteurs pour améliorer l'expérience et les capacités de formation d'applications professionnelles complexes, notamment les visites virtuelles de produits, les dessins CAO, ainsi que l'imagerie médicale et sismique/géophysique. Les GPU sont essentiels pour les visualisations avancées utilisées dans la formation professionnelle des pompiers, des astronautes, des enseignants et d'autres professionnels, grâce à l'animation 3D, à l'IA et au ML, au rendu avancé et aux expériences de réalité virtuelle (RV) et de réalité augmentée (RA) hyperréalistes.

De plus, les ingénieurs et les climatologues utilisent des applications de simulation alimentées par des GPU pour prévoir les conditions météorologiques, la dynamique des fluides, l'astrophysique et le comportement des véhicules dans certaines conditions. Pour ces applications, l'un des GPU les plus puissants disponibles est la puce Nvidia GeForce RTX, conçue principalement pour la visualisation scientifique et l'exploration énergétique.

Comment fonctionne un GPU ?

Les GPU d'aujourd'hui utilisent de nombreux multiprocesseurs pour gérer toutes les différentes parties de la tâche qui leur est confiée. 

Un GPU possède sa propre mémoire à accès rapide (RAM), un type spécifique de mémoire électronique utilisée pour stocker du code et des données auxquels la puce peut accéder et qu'elle peut modifier selon ses besoins. Les GPU avancés disposent généralement d'une RAM spécialement conçue pour contenir les volumes importants de données nécessaires aux tâches gourmandes en calcul, telles que l'édition graphique, les jeux vidéo ou les applications d'IA/ML.

Deux types de mémoire GPU couramment utilisés sont la GDDR6 (Graphics Double Data Rate 6 Synchronous Dynamic Random-Access Memory) et la GDDR6X, une version plus récente. La GDDR6X consomme 15 % moins d'énergie par bit transféré que la GDDR6, mais sa consommation totale d'énergie est plus élevée, car la GDDR6X est plus rapide. Les iGPU peuvent être intégrés au CPU d'un ordinateur ou insérés dans un emplacement à côté de celui-ci et connectés via un port PCI Express. 

Quelle est la différence entre un GPU et un CPU ?

Les CPU et les GPU partagent une conception similaire, y compris un nombre similaire de cœurs et de transistors pour le traitement des tâches, mais les CPU ont des fonctions plus universelles que les GPU. Les GPU ont tendance à se concentrer sur une tâche de calcul unique et spécifique, comme le traitement graphique ou le machine learning.

Les CPU sont le cœur et le cerveau d'un système informatique ou d'un appareil. Ils reçoivent des instructions générales ou des demandes concernant une tâche d'un programme ou d'une application logicielle. Un GPU, en revanche, a une tâche plus spécifique, impliquant généralement le traitement rapide d'images et de vidéos haute résolution. Pour accomplir leur tâche, les GPU effectuent constamment des calculs mathématiques complexes nécessaires au rendu des graphismes ou à d'autres fonctions gourmandes en calcul.

L'une des principales différences entre les CPU et les GPU est que les CPU utilisent généralement moins de cœurs et exécutent leurs tâches dans un ordre linéaire, tandis que les GPU ont des centaines, voire des milliers de cœurs, ce qui permet le traitement parallèle qui est à la base de leurs capacités de traitement ultra-rapides.

Les premiers GPU ont été conçus pour accélérer le rendu des graphismes 3D, rendant les scènes de films et de jeux vidéo plus réalistes et attrayantes. La première puce GPU, la GeForce de Nvidia, a été lancée en 1999, et a été suivie d'une période de croissance rapide qui a vu les capacités des GPU s'étendre à d'autres domaines grâce à leurs capacités de traitement parallèle à haute vitesse.

Le traitement parallèle, ou calcul parallèle, est un type de calcul qui repose sur deux processeurs ou plus pour accomplir différentes sous-tâches d'une tâche informatique globale. Avant l'avènement des GPU, les ordinateurs d'ancienne génération ne pouvaient exécuter qu'un seul programme à la fois, et plusieurs heures étaient nécessaires pour terminer une tâche. La capacité des GPU à effectuer de nombreux calculs ou tâches simultanément grâce au traitement parallèle les rend plus rapides et plus efficaces que les CPU des anciens ordinateurs. 

Solutions connexes
Serveurs cloud GPU

Accédez à l'un des processus de sélection de serveurs les plus flexibles du secteur, avec une intégration transparente à votre architecture, à vos API et à vos applications IBM Cloud, ainsi qu'à un réseau de centres de données répartis dans le monde entier.

Essayez les serveurs cloud GPU d'IBM

IBM watsonx

Déployez et intégrez facilement l’IA au sein de votre entreprise, gérez toutes vos sources de données et accélérez la mise en place de workflows d’IA responsables, le tout sur une seule et même plateforme.

Découvrez IBM watsonx

Solutions de stockage NVIDIA pour l’IA

Optimisez les résultats de l'IA avec davantage de données et un accès mondial accéléré, vous permettant de surmonter les obstacles d'accès aux données et d'innover dans la gestion du stockage pour les solutions d'IA NVIDIA. 

Découvrez comment les solutions de stockage IA de NVIDIA font la différence

Solutions de calcul haute performance

Découvrez les solutions HPC en cloud hybride d'IBM avec un portefeuille complet de solutions de calcul haute performance (HPC) intégrées pour le cloud hybride.

Affrontez les défis informatiques d'envergure et à forte intensité de ressources

IBM Cloud Bare Metal Servers

Découvrez la puissance des IBM Cloud Bare Metal Servers, des serveurs spécialisés à locataire unique qui peuvent être déployés et gérés en tant que services cloud.

Provisionnez IBM Cloud Bare Metal Servers

Ressources Qu'est-ce qu'un GPU ?

Découvrez les processeurs graphiques (GPU) et pourquoi ils sont si critiques pour les entreprises qui envisagent de nouvelles approches pour s'attaquer à leurs charges de travail (vidéo et texte).

Optimisation du supercalculateur d’IA cloud natif d’IBM

Découvrez Vela, un supercalculateur d’IA dans IBM Cloud, conçu pour déployer plus efficacement les workflows d’IA, du prétraitement des données et de l’entraînement des modèles à l’incubation de nouveaux produits.

Qu’est-ce que le machine learning ?

Découvrez l'histoire du machine learning (ML) ainsi que les principales définitions, applications et préoccupations commerciales.

Qu’est-ce que l’intelligence artificielle ?

En savoir plus sur l'intelligence artificielle (IA), une technologie qui permet aux ordinateurs et aux appareils numériques d'apprendre, de lire, d'écrire, de parler, de voir, de créer, de jouer, d'analyser et de faire des recommandations comme les humains.

Qu’est-ce que la technologie blockchain ?

Découvrez la puissance de la blockchain, un registre partagé et immuable qui facilite le processus d’enregistrement des transactions et de suivi des actifs dans un réseau d’entreprise.

Nouvelle offre GPU d'IBM dans le cloud

Découvrez comment IBM aide ses clients à déployer des modèles de fondation et des charges de travail basées sur l'IA grâce à une nouvelle offre GPU sur IBM Cloud.

Passez à l’étape suivante

Découvrez un studio d'entreprise de nouvelle génération destiné aux générateurs d'IA pour entraîner, valider, ajuster et déployer des modèles IA. La plateforme IBM watsonx.ai est une plateforme d'IA et de données qui réunit de nouvelles capacités d'IA générative, alimentées par des modèles de fondation et le machine learning traditionnel.

Découvrir IBM watsonx.ai