Inicio Topics GPU ¿Qué es una unidad de procesamiento gráfico (GPU)?
Explore IBM® watsonx.ai
Representaciones gráficas en azul, blanco y negro de varios iconos, como montañas, arroyos y noche.


Publicado: 26 de febrero de 2024
Colaboradores: Mesh Flinders, Ian Smalley

¿Qué es una unidad de procesamiento gráfico (GPU)?

Una unidad de procesamiento gráfico, también conocida como GPU, es un circuito electrónico diseñado para acelerar el procesamiento de imágenes y gráficos informáticos en diversos dispositivos, como tarjetas de vídeo, placas base, teléfonos móviles y ordenadores personales (PC).

Al realizar cálculos matemáticos rápido, una GPU reduce la cantidad de tiempo necesario para que un ordenador ejecute múltiples programas, lo que la convierte en un habilitador esencial de tecnologías emergentes y futuras como el machine learning (ML), la inteligencia artificial (IA) y el blockchain.

Antes de la invención de las GPU en la década de 1990, los controladores gráficos en los PC y en los controladores de videojuegos dependían de la unidad central de procesamiento (CPU) de una computadora para ejecutar tareas. Desde principios de la década de 1950, las CPU eran los procesadores más importantes de un ordenador, que ejecutaban todas las instrucciones necesarias para ejecutar programas, como la lógica, el control y la entrada/salida (E/S). Sin embargo, con la llegada de los juegos personales y el diseño asistido por ordenador (CAD) en la década de 1990, la industria necesitaba una forma más rápida y eficaz de combinar píxeles en poco tiempo.

En 2007, Nvidia creó CUDA (Arquitectura Unificada de Dispositivos de Cómputo), un software que dio a los desarrolladores acceso directo a las capacidades de cálculo paralelo de las GPU, lo que les permitió utilizar la tecnología de GPU para una gama más amplia de funciones que antes. En la década de 2010, la tecnología de GPU ganó aún más capacidades, quizás la más significativa el trazado de rayos (la generación de imágenes informáticas trazando la dirección de la luz desde una cámara) y los núcleos tensoriales (diseñados para permitir el deep learning).

Debido a estos avances, las GPU han desempeñado un papel importante en la aceleración de la IA y los procesadores de aprendizaje profundo, lo que ayuda a acelerar el desarrollo de aplicaciones de IA y ML. Hoy en día, además de alimentar las consolas de juegos y el software de edición, las GPU impulsan funciones informáticas de vanguardia cruciales para muchas empresas.

 

Soluciones de GPU de IBM Cloud para cargas de trabajo de IA y HPC

Los avances en la tecnología de GPU y la creciente demanda de IA y HPC han cambiado la forma en que los sectores extraen valor de sus datos y llevan el rendimiento de TI a nuevas alturas.

Contenido relacionado

Suscríbase al boletín de IBM

¿Cuáles son los diferentes tipos de GPU?

Existen tres tipos de GPU, GPU discretas, GPU integradas y GPU virtuales:  

Discretas: las GPU discretas, o dGPU, son procesadores gráficos que están separados de la CPU del dispositivo, donde se recoge y procesa la información, lo que permite que el ordenador funcione. Las GPU discretas se utilizan normalmente en aplicaciones avanzadas con requisitos especiales, como la edición de vídeo, la creación de contenidos o los juegos de alta gama. Son chips distintos con conectores a placas de circuitos independientes que suelen acoplarse a la CPU mediante una ranura exprés. Una de las GPU discretas más utilizadas es la marca Intel Arc, que fue creada para la industria de los juegos de PC.  

Integradas: Las GPU integradas, o iGPU, están integrada en la infraestructura de un ordenador o dispositivo y, por lo general, se coloca junto a la CPU. Diseñadas en la década de 2010 por Intel, las GPU integradas se volvieron más populares a medida que fabricantes como MSI, ASUS y Nvidia se dieron cuenta del poder de combinar GPU con CPU en lugar de requerir que los usuarios agreguen GPU a través de una ranura PCI Express ellos mismos. Hoy en día, siguen siendo una opción popular para los usuarios de ordenadores portátiles, los jugadores y otras personas que ejecutan programas de computación intensiva en sus PC.  

Virtuales: Las GPU virtuales tienen las mismas capacidades que las GPU discretas o integradas, pero sin el hardware. No son más que una versión basada en software de una GPU creada para una instancia en la nube y pueden utilizarse para ejecutar las mismas cargas de trabajo. Además, al no tener hardware, su mantenimiento es más sencillo y barato que el de sus homólogos físicos. 

 

Casos de uso de GPU modernos

A medida que las GPU se desarrollaron con el tiempo, las mejoras técnicas las hicieron más programables y se descubrieron más capacidades. Específicamente, su capacidad para dividir tareas en más de un procesador, lo que se conoce como procesamiento paralelo, las ha hecho indispensables para una amplia gama de aplicaciones, como juegos de PC, computación de alto rendimiento (HPC), estaciones de trabajo de renderizado 3D, computación de centros de datos y muchas otras. A continuación, se muestran algunas de las aplicaciones más importantes y modernas de la tecnología GPU:

 

Inteligencia artificial

Podría decirse que la IA y sus numerosas aplicaciones serían imposibles sin la tecnología de GPU. La capacidad de las GPU para resolver problemas altamente técnicos de forma más rápida y eficaz que las CPU tradicionales las hace indispensables. Las GPU impulsan muchas de las principales aplicaciones de IA, como el superordenador de IA Velade IBM, nativo de la nubeque requieren altas velocidades para entrenarse en conjuntos de datos cada vez más grandes. Los modelos de IA se entrenan y funcionan en GPU de centros de datos, normalmente operadas por empresas que realizan investigaciones científicas u otras tareas intensivas de computación.

Machine learning (ML) y deep learning (DL)

El aprendizaje automático, o ML, se refiere a una disciplina específica de la IA que se ocupa del uso de datos y algoritmos para imitar la forma en que aprenden los humanos. El aprendizaje profundo, o DL, es un subconjunto del aprendizaje automático que utiliza redes neuronales para simular el proceso de toma de decisiones del cerebro humano. La tecnología de GPU es crucial para ambas áreas de avance tecnológico.

Cuando se trata de ML y DL, las GPU potencian la capacidad de los modelos para clasificar conjuntos de datos masivos y hacer inferencias a partir de ellos de manera similar a los humanos. Las GPU mejoran específicamente las áreas de memoria y optimización porque pueden realizar muchos cálculos simultáneos a la vez. Además, las GPU utilizadas en ML y DL utilizan menos recursos que las CPU sin una caída en la potencia o la precisión.

Blockchain

Blockchain, el popular libro de contabilidad utilizado para registrar transacciones y rastrear activos en redes comerciales, depende en gran medida de la tecnología GPU, especialmente cuando se trata de un paso llamado "prueba de trabajo". En muchos blockchains muy utilizados, como las criptomonedas, el paso de prueba de trabajo es vital para la validación de una transacción, lo que permite agregarla a la cadena de bloques.

Gaming

La industria del videojuego aprovechó por primera vez la potencia de las GPU en la década de 1990 para mejorar la experiencia de juego en general con más velocidad y precisión gráfica. Hoy en día, los juegos personales exigen un uso intensivo de la informática debido a los escenarios hiperrealistas, las interacciones en tiempo real y los vastos mundos inmersivos de los juegos. Las tendencias en los juegos, como la realidad virtual (VR), las frecuencias de actualización más altas y las pantallas de mayor resolución, dependen de las GPU para ofrecer rápidamente gráficos en entornos informáticos cada vez más exigentes.

Edición de video

Tradicionalmente, los largos tiempos de renderizado han supuesto un gran obstáculo tanto en las aplicaciones de software de edición de consumo como en las profesionales. Desde su invención, las GPU han reducido constantemente los tiempos de procesamiento y los recursos informáticos en productos de edición de video populares como Final Cut Pro y Adobe Premiere. Hoy en día, las GPU equipadas con procesamiento paralelo e IA incorporada aceleran drásticamente las capacidades de edición para todo, desde suites de edición profesionales hasta aplicaciones para teléfonos inteligentes.

Creación de contenido

Las mejoras en el procesamiento, el rendimiento y la calidad de los gráficos han convertido a las GPU en una parte esencial de la transformación de la industria de la creación de contenido.  Hoy en día, los creadores de contenido que cuentan con una tarjeta gráfica de alto rendimiento e Internet de alta velocidad pueden generar contenido realista, aumentarlo con IA y machine learning, y luego editarlo y transmitirlo a un público en vivo más rápido que nunca. Todo gracias en gran parte a los avances en la tecnología de GPU.

Visualización y simulación

Las GPU tienen una gran demanda en muchos sectores para mejorar la experiencia y las capacidades de formación de aplicaciones profesionales y complejas, como tutoriales de productos, dibujos CAD e imágenes médicas y sísmicas/geofísicas. Las GPU son cruciales en las visualizaciones avanzadas que se utilizan en la formación profesional de bomberos, astronautas, profesores de escuela y otras personas con animación 3D, IA y aprendizaje automático, renderizado avanzado y experiencias hiperrealistas de realidad virtual (RV) y realidad aumentada (RA).

Además, los ingenieros y científicos del clima utilizan aplicaciones de simulación impulsadas por GPU para predecir las condiciones meteorológicas, la dinámica de fluidos, la astrofísica y el funcionamiento de los vehículos en determinadas condiciones. Una de las GPU más potentes disponibles para estos fines es el chip Nvidia geforce RTX, construido principalmente para la visualización científica y la exploración de energía.

¿Cómo funciona una GPU?

Las GPU de hoy en día utilizan muchos multiprocesadores para manejar todas las diferentes partes de la tarea que se les ha asignado. 

Una GPU dispone de su propia memoria de acceso rápido (RAM), un tipo específico de memoria electrónica que se utiliza para almacenar código y datos a los que el chip puede acceder y alterar según sus necesidades. Las GPU avanzadas suelen disponer de una memoria RAM específicamente diseñada para albergar los grandes volúmenes de datos necesarios para tareas de cálculo intensivo como la edición de gráficos, los juegos o los casos de uso de IA/ML.

Los dos tipos de memoria para GPU más conocidos son la memoria dinámica de acceso aleatorio síncrona de doble velocidad de datos 6 para gráficos (GDDR6) y la  GDDR6X, una generación posterior. GDDR6X consume un 15 % menos de energía por bit transferido que GDDR6, pero su consumo total de energía es mayor, ya que GDDR6X es más rápido. Las iGPU pueden integrarse en la CPU de un ordenador o insertarse en una ranura junto a ella y conectarse a través de un puerto PCI express. 

¿Cuál es la diferencia entre una GPU y una CPU?

Las CPU y las GPU comparten un diseño similar, que incluye un número similar de núcleos y transistores para las tareas de procesamiento, pero las CPU son más polivalentes en sus funciones que las GPU. Las GPU tienden a centrarse en una tarea informática concreta y específica, como el procesamiento de gráficos o el machine learning.

Las CPU son el corazón y el cerebro de un sistema o dispositivo informático. Reciben instrucciones generales o solicitudes con respecto a una tarea de un programa o aplicación de software. En cambio, una GPU tiene una tarea más específica, normalmente el procesamiento rápido de imágenes y vídeos de alta resolución. Para llevar a cabo su tarea, las GPU realizan constantemente cálculos matemáticos complejos necesarios para renderizar gráficos u otras funciones de cálculo intensivo.

Una de las mayores diferencias entre las CPU y las GPU es que las CPU suelen utilizar menos núcleos y realizar sus tareas en orden lineal, mientras que las GPU tienen cientos, incluso miles, de núcleos, lo que permite el procesamiento paralelo que impulsa su capacidad de procesamiento ultrarrápido.

Las primeras GPU se construyeron para acelerar el renderizado de gráficos en 3D, haciendo que las escenas de películas y videojuegos parecieran más realistas y atractivas. El primer chip de GPU, el GeForce de Nvidia, se lanzó en 1999, y le siguió rápidamente por un rápido período de crecimiento que vio cómo las capacidades de la GPU se expandían a otras áreas debido a sus capacidades de procesamiento paralelo de alta velocidad.

El procesamiento paralelo, o computación paralela, es un tipo de computación que se basa en dos o más procesadores para realizar diferentes subconjuntos de una tarea informática general. Antes de las GPU, los ordenadores de generaciones anteriores solo podían ejecutar un programa a la vez, y solían tardar horas en completar una tarea. La función de procesamiento paralelo de las GPU realiza muchos cálculos o tareas simultáneamente, lo que las hace más rápidas y eficientes que las CPU de los ordenadores más antiguos. 

Soluciones relacionadas
Servidores en la nube GPU

Acceda a uno de los procesos de selección de servidores más flexibles del sector con una integración perfecta en su arquitectura de IBM Cloud, API y aplicaciones, y una red de centros de datos distribuida globalmente.

Pruebe los servidores en la nube GPU de IBM

IBM watsonx

Implemente e integre de manera sencilla la IA en su empresa, gestione todas las fuentes de datos y acelere los flujos de trabajo de la IA de forma responsable, todo en una sola plataforma.

Descubra IBM watsonx

Soluciones de almacenamiento NVIDIA AI

Acelere los resultados de IA con más datos y un acceso global acelerado que le permita romper las barreras de acceso a los datos y crear nuevas dinámicas de almacenamiento para las soluciones de IA de NVIDIA. 

Vea la diferencia con las soluciones de almacenamiento de IA de NVIDIA

Soluciones de computación de alto rendimiento

Descubra las soluciones de HPC de nube híbrida de IBM con una cartera completa de soluciones integradas de computación de alto rendimiento (HPC) para la nube híbrida.

Afronte desafíos a gran escala que requieren un uso intensivo de la computación

IBM Cloud Bare Metal Servers

Sea testigo de la potencia de IBM Cloud Bare Metal Servers, servidores dedicados de inquilino único que pueden implementarse y gestionarse como servicios cloud.

Aprovisionamiento de IBM Cloud Bare Metal Servers

Recursos ¿Qué es una GPU?

Obtenga información sobre las unidades de procesamiento gráfico (GPU) y por qué son tan cruciales para las empresas que están considerando nuevos enfoques para abordar sus cargas de trabajo (vídeo y texto).

Potenciar el superordenador de la IA nativa de la nube de IBM

Conozca a Vela, un superordenador de IA en IBM Cloud creado para implementar flujos de trabajo de IA de manera más eficiente, desde el preprocesamiento de datos y el entrenamiento de modelos hasta la incubación de nuevos productos.

¿Qué es el machine learning (ML) o aprendizaje automático?

Conozca la historia del machine learning (ML) junto con definiciones, aplicaciones e inquietudes comerciales importantes.

¿Qué es la inteligencia artificial?

Más información sobre la inteligencia artificial (IA), una tecnología que permite a los ordenadores y dispositivos digitales aprender, leer, escribir, hablar, ver, crear, jugar, analizar y hacer recomendaciones como los humanos.

¿Qué es la tecnología blockchain?

Descubra el poder del blockchain, un libro de contabilidad compartido e inmutable que facilita el proceso de registro de transacciones y seguimiento de activos en una red empresarial.

La nueva oferta de GPU de IBM en la nube

Descubra cómo IBM ayuda a los clientes a implementar modelos fundacionales y cargas de trabajo de IA con una nueva oferta de GPU en IBM Cloud.

Dé el siguiente paso

Experimente un estudio empresarial de nueva generación para que los creadores de IA entrenen, validen, ajusten e implementen modelos de IA. La plataforma IBM watsonx.ai es una plataforma de IA y datos que reúne nuevas capacidades de IA generativa, impulsadas por modelos fundacionales y machine learning tradicional.

Explore IBM® watsonx.ai