Início topics GPU O que é uma unidade de processamento gráfico (GPU)?
Explore o IBM Watsonx.ai
Representações gráficas em azul, preto e branco de vários ícones, incluindo montanhas, riachos e noite


Publicado: 26 de fevereiro de 2024
Com a contribuição de: Mesh Flinders, Ian Smalley

O que é uma unidade de processamento gráfico (GPU)?

Uma unidade de processamento gráfico, também conhecida como GPU, é um circuito eletrônico projetado para acelerar o processamento de imagens e gráficos de computador em uma variedade de dispositivos, incluindo placas de vídeo, placas-mãe, telefones celulares e computadores pessoais (PCs).

Ao realizar cálculos matemáticos rapidamente, a GPU reduz o tempo necessário para um computador executar vários programas, tornando-a um facilitador essencial de tecnologias emergentes e futuras, como aprendizado de máquina (ML)inteligência artificial (IA) e blockchain.

Antes da invenção das GPUs na década de 1990, as placas de vídeo dos PCs e os controles dos videogames dependiam da unidade de processamento central (CPU) do computador para executar tarefas. Desde o início da década de 1950, as CPUs eram os processadores mais importantes do computador, executando todas as instruções necessárias para executar programas, como lógica, controle e entrada/saída (E/S). No entanto, com o advento dos jogos pessoais e do design auxiliado por computador (CAD) na década de 1990, o setor precisava de uma maneira mais rápida e eficiente de combinar pixels em um curto período de tempo.

Em 2007, a Nvidia criou o CUDA (Compute Unified Device Architecture), um software que deu aos desenvolvedores acesso direto às habilidades de computação paralela das GPUs, capacitando-os a usar a tecnologia de GPU para uma gama maior de funções do que antes. Na década de 2010, a tecnologia de GPU ganhou ainda mais recursos, talvez principalmente o traçado de raio (a geração de imagens de computador rastreando a direção da luz de uma câmera) e núcleos tensores (projetados para permitir o aprendizado profundo).

Devido a esses avanços, as GPUs têm desempenhado papéis importantes na aceleração de IA e nos processadores de deep learning, ajudando a acelerar o desenvolvimento de aplicações de IA e ML. Atualmente, além de servir de base para consoles de jogos e softwares de edição, as GPUs possibilitam funções de computação de ponta essenciais para muitas empresas.

 

Soluções de GPU do IBM® Cloud para cargas de trabalho de IA e HPC

Os avanços na tecnologia GPU e a crescente demanda por IA e HPC mudaram a forma como os setores extraem valor de seus dados e alçam o desempenho da TI a novos patamares.

Conteúdo relacionado

Assine a newsletter da IBM

Quais são os diferentes tipos de GPUs?

Existem três tipos de GPUs: GPUs discretas, GPUs integradas e GPUs virtuais:  

Discretas: as GPUs discretas, ou dGPUs, são processadores gráficos separados da CPU do dispositivo, onde as informações são coletadas e processadas, permitindo que o computador funcione. As GPUs discretas são normalmente usadas em aplicações avançadas com requisitos especiais, como edição de vídeo, criação de conteúdo ou jogos de alta qualidade. São chips distintos com conectores para placas de circuito separadas geralmente conectadas à CPU por meio de um slot PCI express. Uma das GPUs discretas mais usadas é a marca Intel Arc, que foi criada para o setor de jogos para PC.  

Integradas: Uma GPU integrada, ou iGPU, é integrada à infraestrutura de um computador ou dispositivo e normalmente é encaixada ao lado da CPU. Projetadas na década de 2010 pela Intel, as GPUs integradas tornaram-se mais populares à medida que fabricantes como MSI, ASUS e Nvidia perceberam o poder da combinação das GPUs com CPUs, em vez de exigir que os próprios usuários adicionassem GPUs por meio de um slot PCI Express. Hoje, elas continuam sendo uma escolha popular para usuários de notebooks, jogadores e outros usuários que executam programas de computação intensiva em seus PCs.  

Virtuais: as GPUs virtuais têm os mesmos recursos que as GPUs discretas ou integradas, mas sem o hardware. Elas são simplesmente uma versão baseada em software de uma GPU criada para uma instância de nuvem e podem ser usadas para executar as mesmas cargas de trabalho. Além disso, como não têm hardware, são mais simples e mais baratas de manter do que as GPUs físicas. 

 

Casos de uso modernos das GPUs

À medida que as GPUs se desenvolveram ao longo do tempo, melhorias técnicas as tornaram mais programáveis e mais recursos foram descobertos. Especificamente, sua capacidade de dividir tarefas em mais de um processador — conhecida como processamento paralelo — as tornou indispensáveis para uma ampla gama de aplicações, como jogos para PC, computação de alto desempenho (HPC), estações de trabalho de renderização 3D, computação dedata center e muitas outras. Veja a seguir uma visão mais detalhada de algumas das aplicações mais importantes e modernas da tecnologia GPU:

 

Inteligência artificial

A IA e suas muitas aplicações seriam impossíveis, segundo alguns, sem a tecnologia de GPU. A capacidade das GPUs de resolver problemas altamente técnicos de forma mais rápida e eficiente do que as CPUs tradicionais as torna indispensáveis. As GPUs servem de base para muitas dos principais aplicações de IA, como o supercomputador de IA nativo da nuvem Velada IBM, que exigem altas velocidades para fazer treinamento com base em conjuntos de dados cada vez maiores. Os modelos de IA treinam e são executados em GPUs de data centers, normalmente operados por empresas que realizam pesquisas científicas ou outras tarefas de computação intensiva.

Aprendizado de máquina (ML) e deep learning (DL)

O aprendizado de máquina, ou ML, refere-se a uma disciplina específica da IA relacionada com o uso de dados e algoritmos para imitar a forma como os humanos aprendem. O deep learning, ou DL, é um subconjunto de ML que usa redes neurais para simular o processo de tomada de decisão do cérebro humano. A tecnologia GPU é fundamental para ambas as áreas do avanço tecnológico.

Quando se trata de ML e DL, as GPUs sustentam a capacidade dos modelos de classificar conjuntos de dados imensos e fazer inferências a partir deles de maneira semelhante aos humanos. As GPUs aprimoram especificamente as áreas de memória e otimização porque podem realizar muitos cálculos simultâneos de uma só vez. Além disso, as GPUs usadas em ML e DL usam menos recursos do que CPUs sem quedas de potência ou na precisão.

Blockchain

Blockchain, o popular livro razão usado para registrar transações e rastrear ativos em redes de negócios, depende fortemente da tecnologia GPU, especialmente quando se trata de uma etapa chamada "prova de trabalho". Em muitas blockchains amplamente usadas, como as criptomoedas, a etapa de prova de trabalho é vital para a validação da transação, permitindo que ela seja adicionada à blockchain.

Jogos

A indústria de jogos aproveitou pela primeira vez o poder das GPUs na década de 1990 para melhorar a experiência geral dos jogos com mais velocidade e precisão gráfica. Hoje, os jogos pessoais são altamente intensivos em computação por causa dos cenários hiper-realistas, das interações em tempo real e dos mundos vastos e imersivos dos jogos. Tendências de jogos como realidade virtual (VR), taxas de atualização mais altas e telas com resoluções mais altas dependem das GPUs para fornecer gráficos rapidamente em ambientes de computação cada vez mais exigentes.

Edição de vídeo

Tradicionalmente, os longos tempos de renderização têm sido um grande empecilho nas aplicações de software de edição para consumidores e profissionais. Desde sua invenção, as GPUs reduziram constantemente os tempos de processamento e os recursos de computação em produtos populares de edição de vídeo, como Final Cut Pro e Adobe Premiere. Hoje, as GPUs equipadas com processamento paralelo e IA integrada aceleram drasticamente os recursos de edição em toda parte, desde os pacotes de edição profissionais até os aplicativos para smartphones.

Criação de conteúdo

As melhorias no processamento, no desempenho e na qualidade dos gráficos tornaram as GPUs uma parte essencial da transformação do setor de criação de conteúdo. Hoje, os criadores de conteúdo equipados com placas de vídeo de alto desempenho e internet de alta velocidade podem gerar conteúdos realistas, aprimorá-los com IA e aprendizado de máquina e, em seguida, editá-los e transmiti-los para um público ao vivo mais rápido do que nunca. Tudo isso graças, em grande parte, aos avanços na tecnologia das GPUs.

Visualização e simulação

As GPUs estão em alta demanda em muitos setores para aprimorar a experiência e os recursos de treinamento de aplicações profissionais complexas, incluindo instruções passo a passo de produtos, desenhos CAD e imagens médicas e sísmicas/geofísicas. As GPUs são essenciais nas visualizações avançadas usadas no treinamento profissional de bombeiros, astronautas, professores e outros com animação 3D, IA e ML, renderização avançada e experiências hiper-realistas de realidade virtual (VR) e realidade aumentada (AR).

Além disso, engenheiros e cientistas climáticos usam aplicativos de simulação com GPUs para prever condições climáticas, dinâmica de fluidos, astrofísica e como os veículos se comportarão sob determinadas condições. Uma das GPUs mais poderosas disponíveis para esses fins é o chip Nvidia geforce RTX, criado principalmente para visualização científica e exploração de energia.

Como funciona uma GPU?

As GPUs de hoje utilizam muitos multiprocessadores para lidar com todas as diferentes partes da tarefa que receberam. 

A GPU tem sua própria memória de acesso rápido (RAM), um tipo específico de memória eletrônica usada para armazenar código e dados que o chip pode acessar e alterar conforme necessário. As GPUs avançadas normalmente têm memórias RAM especificamente criadas para manter os grandes volumes de dados necessários para tarefas de computação intensiva, como edição de gráficos, jogos ou casos de uso de IA/ML.

Dois tipos populares de memória das GPUs são a memória gráfica de acesso aleatório dinâmico síncrono de taxa de dados dupla 6 (GDDR6) e a GDDR6X, uma geração posterior. A GDDR6X consome 15% menos energia por bit transferido do que o GDDR6, mas seu consumo geral de energia é maior, pois a GDDR6X é mais rápida. As iGPUs podem ser integradas à CPU do computador ou inseridas em um slot ao lado dela e conectadas por meio de uma porta PCI Express. 

Qual é a diferença entre uma GPU e uma CPU?

CPUs e GPUs compartilham um design semelhante, incluindo um número semelhante de núcleos e transistores para tarefas de processamento, mas as funções das CPUs têm um uso mais geral do que as GPUs. As GPUs tendem a ser focadas em uma tarefa de computação única e específica, como processamento gráfico ou aprendizado de máquina.

A CPU é o coração e o cérebro de um sistema ou dispositivo de computador. Ela recebe instruções ou solicitações gerais relacionadas a tarefas de programas ou aplicações de software. A GPU, por outro lado, tem uma tarefa mais específica — que normalmente envolve o processamento rápido de imagens e vídeos de alta resolução. Para cumprir sua tarefa, as GPUs realizam constantemente cálculos matemáticos complexos necessários para renderizar gráficos ou outras funções de computação intensiva.

Uma das maiores diferenças entre CPUs e GPUs é que as CPUs tendem a usar menos núcleos e executar suas tarefas em uma ordem linear, enquanto as GPUs têm centenas, até milhares, de núcleos, permitindo um processamento paralelo que permite recursos de processamento ultrarrápidos.

As primeiras GPUs foram criadas para acelerar a renderização de gráficos 3D, tornando as cenas de filmes e videogames mais realistas e envolventes. O primeiro chip GPU, o GeForce da Nvidia, foi lançado em 1999, e foi rapidamente seguido por um rápido período de crescimento e expansão dos recursos da GPU para outras áreas, devido aos seus recursos de processamento paralelo de alta velocidade.

Processamento paralelo, ou computação paralela, é um tipo de computação que depende de dois ou mais processadores para realizar diferentes subconjuntos de uma tarefa de computação geral. Antes das GPUs, os computadores de gerações mais antigas só podiam executar um programa por vez, muitas vezes levando horas para concluir uma tarefa. A função de processamento paralelo das GPUs executa muitos cálculos ou tarefas simultaneamente, tornando-as mais rápidas e eficientes do que as CPUs dos computadores mais antigos. 

Soluções relacionadas
Servidores de nuvem com GPU

Acesse um dos processos de seleção de servidores mais flexíveis do setor, com integração perfeita à arquitetura, APIs e aplicações do IBM Cloud e a uma rede de data centers distribuída globalmente.

Experimente os servidores em nuvem com GPU da IBM

IBM watsonx

Implemente e incorpore com facilidade a IA na sua empresa, gerencie todas as fontes de dados e acelere fluxos de trabalho de IA responsáveis, tudo em uma única plataforma.

Descubra o IBM® watsonx

Soluções de armazenamento NVIDIA AI

Turbine os resultados de IA com mais dados e um acesso global acelerado que permite quebrar barreiras de acesso a dados e criar uma nova dinâmica de armazenamento para as soluções de IA da NVIDIA. 

Veja a diferença com as soluções de armazenamento para IA da NVIDIA

Soluções de computação de alto desempenho

Descubra soluções HPC de nuvem híbrida da IBM com um portfólio completo de soluções integradas de computação de alto desempenho (HPC) para nuvem híbrida.

Enfrente desafios de computação intensiva em grande escala

IBM Cloud Bare Metal Servers

Testemunhe o poder do IBM® Cloud Bare Metal Servers, servidores dedicados de locatário único que podem ser implementados e gerenciados como serviços de nuvem.

Fornecimento dos IBM Cloud Bare Metal Servers

Recursos O que é uma GPU?

Saiba mais sobre as unidades de processamento gráfico (GPUs) e por que elas são tão essenciais para as empresas que estão considerando novas abordagens para lidar com suas cargas de trabalho (vídeo e texto).

Turbinando o supercomputador de IA nativo da nuvem da IBM

Conheça o Vela, o supercomputador de IA da IBM Cloud criado para implementar fluxos de trabalho de IA com mais eficiência, desde o pré-processamento de dados e treinamento de modelos até a incubação de novos produtos.

O que é aprendizado de máquina?

Saiba mais sobre a história do aprendizado de máquina (ML), juntamente com definições, aplicações e questões comerciais importantes.

O que é inteligência artificial?

Saiba mais sobre inteligência artificial (IA), uma tecnologia que permite que computadores e dispositivos digitais aprendam, leiam, escrevam, falem, vejam, criem, joguem, analisem e façam recomendações como humanos.

O que é tecnologia blockchain?

Descubra o poder da blockchain, um livro-razão compartilhado e imutável que facilita o processo de registro de transações e rastreamento de ativos em uma rede comercial.

A nova oferta de GPU na nuvem da IBM

Descubra como a IBM está ajudando os clientes a implementar modelos de base e cargas de trabalho de IA com a nova oferta de GPU da IBM Cloud.

Dê o próximo passo

Conheça um estúdio empresarial de última geração para construtores de IA treinarem, validarem, ajustarem e implementarem modelos de IA. A plataforma IBM® watsonx.ai é uma plataforma de IA e dados que reúne novas capacidades de IA generativa, com o suporte de modelos de base e aprendizado de máquina tradicional.

Explore o IBM Watsonx.ai