Inicio topics GPU ¿Qué es una unidad de procesamiento gráfico (GPU)?
Explore IBM watsonx.ai
Representaciones gráficas en azul, blanco y negro de varios iconos, como montañas, arroyos y la noche


Fecha de publicación: 26 de febrero de 2024
Colaboradores: Mesh Flinders, Ian Smalley

¿Qué es una unidad de procesamiento gráfico (GPU)?

Una unidad de procesamiento gráfico, también conocida como unidad de procesamiento de gráficos o GPU, es un circuito electrónico diseñado para acelerar el procesamiento por computadora de gráficos e imágenes en una variedad de dispositivos, incluidas las tarjetas de video, placas base, teléfonos móviles y computadoras personales.

Al realizar cálculos matemáticos rápidamente, una GPU reduce la cantidad de tiempo necesario para que una computadora ejecute múltiples programas, lo que la convierte en un habilitador esencial de tecnologías emergentes y futuras como el aprendizaje automático (ML)la inteligencia artificial (IA) y blockchain.

Antes de la invención de las GPU en la década de 1990, los controladores gráficos en las computadoras personales y en los controladores de juegos de video dependían de la unidad central de procesamiento (CPU) de una computadora para ejecutar tareas. Desde principios de la década de 1950, las CPU eran los procesadores más importantes de una computadora, ya que realizaban todas las instrucciones necesarias para ejecutar programas, como lógica, control y entrada/salida (E/S). Sin embargo, con la llegada de los juegos personales y el diseño asistido por computadora (CAD) en la década de 1990, la industria necesitaba una forma más rápida y eficiente de combinar pixeles en poco tiempo.

En 2007, Nvidia creó CUDA (Arquitectura unificada de dispositivos de cálculo), un software que brindaba a los desarrolladores un atajo a las capacidades de cálculo paralelo de las GPU, lo que les permitía usar la tecnología de GPU para una gama más amplia de funciones que antes. En la década de 2010, la tecnología de GPU adquirió aún más capacidades, quizás el más significativo fue el trazado de rayos (la generación de imágenes de computadora al rastrear la dirección de la luz de una cámara) y los núcleos tensoriales (diseñados para permitir el aprendizaje profundo).

Debido a estos avances, las GPU desempeñaron un papel importante en la agilización de la IA y los procesadores de aprendizaje profundo, lo que ayudó a acelerar el desarrollo de aplicaciones de IA y ML. Hoy en día, además de impulsar las consolas de juegos y el software de edición, las GPU potencian funciones informáticas de vanguardia críticas para muchas empresas.

 

Soluciones IBM Cloud GPU para cargas de trabajo de IA y HPC

Los avances en la tecnología de GPU y la creciente demanda de la IA y la computación de alto rendimiento (HPC, por sus siglas en inglés) cambiaron la forma en que las industrias extraen valor de sus datos y llevan el rendimiento de TI a nuevas alturas.

Contenido relacionado

Suscríbase al boletín de IBM

¿Cuáles son los diferentes tipos de GPU?

Existen tres tipos de GPU: las GPU discretas, las GPU integradas y las GPU virtuales:  

Discretas: Las GPU discretas, o dGPU, son procesadores gráficos que están separados de la CPU de un dispositivo, donde la información se toma y procesa, lo que permite que una computadora funcione. Las GPU discretas se emplean normalmente en aplicaciones avanzadas con requisitos especiales, como la edición de video, la creación de contenido o los juegos de alta gama. Son chips distintos con conectores para placas de circuitos separadas que generalmente se conectan a la CPU mediante una ranura rápida. Una de las GPU discretas más empleadas es la marca Intel Arc, creada para el sector de los juegos de computadora.  

Integradas: Una GPU integrada, o iGPU, está integrada en la infraestructura de una computadora o dispositivo y, por lo general, se coloca junto a la CPU. Diseñadas en la década de 2010 por Intel, las GPU integradas se hicieron más populares a medida que fabricantes como MSI, ASUS y Nvidia notaron el poder de combinar las GPU con las CPU en lugar de requerir que los usuarios agregaran las GPU a través de una ranura para PCI Express. Hoy en día, siguen siendo una opción popular para los usuarios de computadoras portátiles, jugadores y otras personas que ejecutan programas de uso informático intensivo en sus computadoras.  

Virtuales: Las GPU virtuales tienen las mismas capacidades que las GPU discretas o integradas, pero sin el hardware. Son simplemente una versión basada en software de una GPU creada para una instancia en la nube y se pueden emplear para ejecutar las mismas cargas de trabajo. Además, como no tienen hardware, su mantenimiento es más sencillo y económico en comparación con sus contrapartes físicos. 

 

Casos de uso de GPU modernas

A medida que las GPU se fueron desarrollando con el tiempo, las mejoras técnicas las hicieron más programables y se descubrieron más capacidades. Específicamente, su capacidad para dividir tareas en más de un procesador (conocido como procesamiento paralelo) las hizo indispensables para una amplia gama de aplicaciones, como juegos de computadora, computación de alto rendimiento (HPC), estaciones de trabajo de representación 3D, computación decentros de datos y muchas otras. He aquí un vistazo más de cerca a algunas de las aplicaciones más importantes y modernas de la tecnología de GPU:

 

Inteligencia artificial

Podría decirse que la IA y sus muchas aplicaciones serían imposibles sin la tecnología de GPU. La capacidad de las GPU para resolver problemas altamente técnicos de manera más rápida y eficiente que las CPU tradicionales las hace indispensables. Las GPU impulsan muchas aplicaciones de IA líderes, como la supercomputadora de IA nativa de la nube de IBM, Velaque requiere altas velocidades para entrenar con conjuntos de datos cada vez más grandes. Los modelos de IA se entrenan y ejecutan en GPU de centros de datos, generalmente operadas por empresas que realizan investigaciones científicas u otras tareas de uso informático intensivo.

Aprendizaje automático (ML) y aprendizaje profundo (DL)

El aprendizaje automático, o ML, se refiere a una disciplina específica de la IA relacionada con el uso de datos y algoritmos para imitar la forma en que aprenden los humanos. El aprendizaje profundo, o DL, es un subconjunto de ML que emplea redes neuronales para simular el proceso de toma de decisiones del cerebro humano. La tecnología de GPU es fundamental para ambas áreas de avance tecnológico.

Cuando se trata de ML y DL, las GPU potencian la capacidad de los modelos para clasificar conjuntos de datos masivos y hacer inferencias a partir de ellos de manera similar a los humanos. Las GPU mejoran específicamente las áreas de memoria y optimización porque pueden realizar muchos cálculos simultáneos a la vez. Además, las GPU empleadas en ML y DL emplean menos recursos que las CPU sin disminuir la potencia o la precisión.

Blockchain

Blockchain, el popular libro de contabilidad empleado para registrar transacciones y rastrear activos en redes empresariales, depende en gran medida de la tecnología de GPU, especialmente cuando se trata de un paso llamado “prueba de trabajo”. En muchas blockchain de uso amplio, como las criptomonedas, el paso de prueba de trabajo es fundamental para validar una transacción, lo que permite agregarla a la blockchain.

Dispositivo de juegos

La industria de los videojuegos aprovechó por primera vez la potencia de las GPU en la década de 1990 para mejorar la experiencia general de juego con más velocidad y precisión gráfica. En la actualidad, los juegos personales requieren una gran cantidad de recursos informáticos debido a escenarios hiperrealistas, interacciones en tiempo real y mundos vastos e inmersivos en el juego. Las tendencias en videojuegos como la realidad virtual (VR), las frecuencias de actualización más altas y las pantallas de mayor resolución dependen de las GPU para presentar gráficos rápidamente en entornos informáticos cada vez más exigentes.

Edición de video

Tradicionalmente, los largos tiempos de representación fueron un gran obstáculo en las aplicaciones de software de edición tanto para el consumidor como para las profesionales. Desde su invención, las GPU han reducido constantemente los tiempos de procesamiento y los recursos informáticos en productos de edición de video populares como Final Cut Pro y Adobe Premiere. Actualmente, las GPU equipadas con procesamiento paralelo e IA incorporada aceleran significativamente las capacidades de edición para todo, desde suites de edición profesionales hasta aplicaciones para teléfonos inteligentes.

Creación de contenido

Las mejoras en el procesamiento, el rendimiento y la calidad de los gráficos convirtieron a las GPU en una parte vital de la transformación de la industria de creación de contenido. Hoy en día, los creadores de contenido equipados con una tarjeta gráfica de alto rendimiento e Internet de alta velocidad pueden generar contenido realista, mejorarlo con IA y aprendizaje automático, y luego editarlo y transmitirlo a una audiencia en tiempo real más rápido que nunca. Todo gracias en gran medida a los avances en la tecnología de GPU.

Visualización y simulación

Las GPU tienen una gran demanda en muchas industrias para mejorar la experiencia y las capacidades de entrenamiento de aplicaciones profesionales complejas, como los tutoriales de productos, los dibujos de CAD y las imágenes médicas y sísmicas/geofísicas. Las GPU son fundamentales para las visualizaciones avanzadas que se emplean en el entrenamiento profesional de bomberos, astronautas, maestros y otros profesionales con animación 3D, IA y ML, representación avanzada y experiencias de realidad virtual (VR) y realidad aumentada (AR) hiperrealistas.

Además, los ingenieros y científicos del clima emplean aplicaciones de simulación impulsadas por GPU para predecir las condiciones meteorológicas, la dinámica de fluidos, la astrofísica y cómo se comportarán los vehículos en determinadas condiciones. Una de las GPU más potentes disponible para estos fines es el chip Nvidia geforce RTX, creado principalmente para la visualización científica y la exploración energética.

¿Cómo funciona una GPU?

Las GPU actuales emplean muchos multiprocesadores para manejar las distintas partes de la tarea que se les encomendó. 

Una GPU tiene su propia memoria de acceso rápido (RAM), un tipo específico de memoria electrónica que se emplea para almacenar códigos y datos a los que el chip puede acceder y modificar según sea necesario. Las GPU avanzadas suelen tener RAM que se creó específicamente para contener grandes volúmenes de datos necesarios para tareas de uso informático intensivo, como edición de gráficos, videojuegos o casos de uso de IA/ML.

Dos tipos populares de memoria GPU son Graphics Double Data Rate 6 Synchronous Dynamic Random-Access Memory (GDDR6) y GDDR6X, una generación posterior. GDDR6X consume un 15 % menos de energía por bit transferido que GDDR6, pero su consumo total de energía es mayor, ya que GDDR6X es más rápida. Las iGPU se pueden integrar en la CPU de una computadora o insertar en una ranura junto a ella y conectarse a través de un puerto PCI Express. 

¿Cuál es la diferencia entre una GPU y una CPU?

Las CPU y las GPU comparten un diseño similar, que incluye un número parecido de núcleos y transistores para las tareas de procesamiento, pero las CPU son más polivalentes en sus funciones que las GPU. Las GPU tienden a centrarse en una tarea informática singular y específica, como el procesamiento de gráficos o el aprendizaje automático.

Las CPU son el corazón y el cerebro de un sistema o dispositivo informático. Reciben instrucciones generales o solicitudes relacionadas con una tarea de un programa o aplicación de software. Por otro lado, una GPU tiene una tarea más específica, que generalmente implica el procesamiento rápido de imágenes y videos de alta resolución. Para llevar a cabo su tarea, las GPU realizan constantemente cálculos matemáticos complejos necesarios para representar gráficos u otras funciones de uso informático intensivo.

Una de las mayores diferencias entre las CPU y las GPU es que las CPU tienden a usar menos núcleos y realizan sus tareas en un orden lineal, mientras que las GPU tienen cientos (incluso miles) de núcleos, lo que permite el procesamiento paralelo que impulsa sus capacidades de procesamiento ultrarrápidas.

Las primeras GPU se crearon para acelerar la representación de gráficos en 3D, lo que hacía que las escenas de las películas y los videojuegos parecieran más realistas y atractivas. El primer chip GPU, GeForce de Nvidia, se lanzó en 1999 y fue seguido por un rápido periodo de crecimiento en el que las capacidades de la GPU se expandieron a otras áreas debido a sus capacidades de procesamiento paralelo de alta velocidad.

El procesamiento paralelo, o computación paralela, es un tipo de computación que se basa en dos o más procesadores para realizar diferentes subconjuntos de una tarea informática general. Antes de las GPU, las computadoras de generaciones anteriores solo podían ejecutar un programa a la vez, lo que a menudo hacía que completar una tarea tardara horas. La función de procesamiento paralelo de las GPU realiza muchos cálculos o tareas simultáneamente, lo que las hace más rápidas y eficientes que las CPU de las computadoras más antiguas. 

Soluciones relacionadas
Servidores en la nube de GPU

Acceda a uno de los procesos de selección de servidores más flexibles de la industria con una integración perfecta en su arquitectura, API y aplicaciones de IBM Cloud, y una red de centros de datos distribuida a nivel mundial.

Pruebe IBM GPU Cloud Servers

IBM watsonx

Despliegue e integre de manera sencilla la IA en toda su empresa, gestione todas las fuentes de datos y acelere los flujos de trabajo responsables de la IA, todo en una sola plataforma.

Descubra IBM watsonx

Soluciones de almacenamiento para IA de NVIDIA

Impulse los resultados de la IA con más datos y un acceso global acelerado que le permita romper las barreras de acceso a los datos y crear nuevas dinámicas de almacenamiento para las soluciones de IA de NVIDIA. 

Vea la diferencia con las soluciones de almacenamiento de IA de NVIDIA

Soluciones de computación de alto rendimiento

Descubra las soluciones de HPC de nube híbrida de IBM con un completo portfolio de soluciones integradas de computación de alto rendimiento (HPC) para nube híbrida.

Afronte desafíos a gran escala y de uso informático intensivo

IBM Cloud Bare Metal Servers

Sea testigo del poder de IBM Cloud Bare Metal Servers, servidores dedicados de inquilino único que se pueden implementar y gestionar como servicios en la nube.

Aprovisione IBM Cloud Bare Metal Servers

Recursos ¿Qué es una GPU?

Obtenga información sobre las unidades de procesamiento gráfico (GPU, por sus siglas en inglés) y por qué son tan importantes para las empresas que consideran nuevos enfoques para abordar sus cargas de trabajo (video y texto).

Potenciando la supercomputadora de IA nativa de la nube de IBM

Conozca a Vela, una supercomputadora de IA en IBM Cloud creada para implementar de manera más eficiente flujos de trabajo de IA, desde el preprocesamiento de datos y el entrenamiento de modelos hasta la incubación de nuevos productos.

¿Qué es el aprendizaje automático?

Conozca la historia del aprendizaje automático (ML) además de definiciones importantes, aplicaciones e inquietudes comerciales.

¿Qué es la inteligencia artificial?

Obtenga más información sobre la inteligencia artificial (IA), una tecnología que permite a las computadoras y dispositivos digitales aprender, leer, escribir, hablar, ver, crear, jugar, analizar y hacer recomendaciones como los humanos.

¿Qué es la tecnología blockchain?

Descubra el poder de blockchain, un libro mayor compartido e inmutable que facilita el proceso de registro de transacciones y seguimiento de activos en una red empresarial.

La nueva oferta de GPU de IBM en la nube

Descubra cómo IBM está ayudando a los clientes a implementar modelos fundacionales y cargas de trabajo de IA con una nueva oferta de GPU en IBM Cloud.

Dé el siguiente paso

Experiance, un estudio empresarial de próxima generación para que los creadores de IA entrenen, validen, ajusten e implementen modelos de IA. La plataforma IBM watsonx.ai es una plataforma de IA y datos que reúne nuevas capacidades de IA generativa, impulsadas por modelos fundacionales y aprendizaje automático tradicional.

Explore IBM watsonx.ai