그래픽 처리 장치(GPU)는 다양한 장치에서 컴퓨터 그래픽 및 이미지 처리 속도를 높이도록 설계된 전자 회로입니다. 이러한 장치에는 비디오 카드, 시스템 보드, 휴대폰, 개인용 컴퓨터(PC)가 포함됩니다.
GPU는 수학적 계산을 빠르게 수행함으로써 컴퓨터가 여러 프로그램을 실행하는 데 필요한 시간을 단축합니다. 따라서 머신 러닝(ML),인공 지능(AI) 및 블록체인과 같은 신흥 및 미래 기술의 필수 원동력이 됩니다.
1990년대 GPU가 발명되기 전까지 PC와 비디오 게임 컨트롤러의 그래픽 컨트롤러는 컴퓨터의 중앙 처리 장치(CPU)에 의존하여 작업을 실행했습니다. 1950년대 초부터 CPU는 논리, 제어 및 입출력(I/O)과 같은 프로그램 실행에 필요한 모든 명령을 실행하며 컴퓨터에서 가장 중요한 프로세서로 자리매김했습니다.
하지만 1990년대 개인 게임과 컴퓨터 지원 설계(CAD)의 등장으로, 업계는 픽셀을 빠르게 결합할 수 있는 더 빠르고 효율적인 방법이 필요했습니다.
2007년, Nvidia는 CUDA(Compute Unified Device Architecture)를 개발하였으며, 이는 개발자에게 GPU의 병렬 계산 능력에 직접 액세스할 수 있는 소프트웨어 플랫폼이자 애플리케이션 프로그래밍 인터페이스(API)로, 이전보다 더 다양한 기능을 위해 GPU 기술을 활용할 수 있도록 했습니다.
2010년대에 들어서면서 GPU 기술은 훨씬 더 많은 기능을 갖추게 되었는데, 아마도 그 중 가장 중요한 것은 카메라에서 나오는 빛의 방향을 추적하여 컴퓨터 이미지를 생성하는 기술인 레이 트레이싱, 딥 러닝을 가능하게 하도록 설계된 텐서 코어일 것입니다.
이러한 발전 덕분에 GPU는 AI 가속 및 딥러닝 프로세서에서 중요한 역할을 수행하며 AI 및 ML 애플리케이션의 개발 속도를 높이는 데 기여하고 있습니다. 오늘날 GPU는 게임 콘솔과 편집 소프트웨어를 구동하는 것 외에도 많은 기업에서 꼭 필요로 하는 최첨단 컴퓨팅 기능을 지원합니다.
GPU에는 칩이 필요에 따라 액세스하고 변경할 수 있는 코드와 데이터를 저장하는 데 사용되는 전자 메모리인 자체 고속 액세스 메모리(RAM)가 있습니다. 고급 GPU에는 일반적으로 그래픽 편집, 게임 또는 AI/ML 사용 사례와 같은 컴퓨팅 집약적인 작업에 필요한 대량의 데이터를 저장하도록 설계된 RAM이 있습니다.
널리 사용되는 GPU 메모리는 두 가지 종류가 있는데, Graphics Double Data Rate 6 Synchronous Dynamic Random-Access Memory (GDDR6)와 그 이후 세대인 GDDR6X입니다. GDDR6X는 사용되는 비트당 전력 소비량이 GDDR6보다 15% 적지만, GDDR6X가 더 빠르기 때문에 전체 전력 소비량은 더 높습니다. iGPU는 컴퓨터의 CPU에 통합하거나 슬롯에 삽입하고 PCI 익스프레스 포트를 통해 연결할 수 있습니다.
CPU와 GPU는 비슷한 수의 코어와 작업 처리를 위한 트랜지스터를 포함하여 비슷한 설계를 공유하지만, CPU가 GPU보다 일반적인 기능을 수행합니다. GPU는 그래픽 처리 또는 머신 러닝과 같은 특정한 단일 컴퓨팅 작업에 집중하는 경향이 있습니다.
CPU는 컴퓨터 시스템이나 장치의 심장이자 두뇌입니다. 프로그램이나 소프트웨어 애플리케이션으로부터 작업과 관련된 일반적인 지침 또는 요청을 수신합니다. 그리고 GPU는 일반적으로 고해상도 이미지와 동영상을 빠르게 처리하는 것처럼 더 구체적인 작업을 수행합니다. GPU는 작업을 수행하기 위해 그래픽 렌더링 또는 기타 컴퓨팅 집약적인 기능에 필요한 복잡한 수학적 계산을 지속적으로 수행합니다.
가장 큰 차이점 중 하나는 CPU가 더 적은 코어를 사용하고 선형적인 순서로 작업을 수행하는 경향이 있다는 것입니다. 하지만 GPU는 수백 개, 심지어 수천 개의 코어를 갖추고 있어 병렬 처리를 가능하게 하고, 이를 통해 빠른 처리 능력을 발휘합니다.
최초의 GPU는 3D 그래픽 렌더링 속도를 높여 영화와 비디오 게임의 장면을 더욱 사실적이고 몰입감 있게 보이도록 제작되었습니다. 최초의 GPU 칩인 Nvidia의 GeForce는 1999년에 출시되었으며, 고속 병렬 처리 기능으로 인해 GPU 기능이 다른 영역으로 확장되는 등 빠르게 성장했습니다.
병렬 프로세싱 또는 병렬 컴퓨팅은 전체 컴퓨팅 작업의 서로 다른 하위 집합을 수행하기 위해 둘 이상의 프로세서를 사용하는 컴퓨팅의 한 종류입니다.
GPU 이전의 구세대 컴퓨터는 한 번에 하나의 프로그램만 실행할 수 있었기 때문에 작업을 완료하는 데 몇 시간씩 걸리는 경우가 많았습니다. GPU의 병렬 처리 기능은 많은 계산 또는 작업을 동시에 수행하므로 구형 컴퓨터의 CPU보다 빠르고 효율적입니다.
GPU에는 다음과 같이 세 가지 유형이 있습니다.
개별 GPU(dGPU)는 장치의 CPU와 분리된 그래픽 프로세서로, 여기에서 정보를 받아들이고 처리하여 컴퓨터가 작동할 수 있도록 합니다. 개별 GPU는 일반적으로 편집, 콘텐츠 제작 또는 고사양 게임과 같은 특별한 요구 사항을 가진 고급 애플리케이션에 사용됩니다. 이는 회로 기판을 분리하는 커넥터가 있는 독립적인 칩으로, 익스프레스 슬롯을 사용하여 CPU에 연결됩니다.
가장 널리 사용되는 개별 GPU 중 하나는 PC 게임 산업을 위해 제작된 Intel Arc 브랜드입니다.
통합 GPU(iGPU)는 컴퓨터나 장치의 인프라에 내장되어 있으며, 일반적으로 CPU 옆에 슬롯으로 장착됩니다. 2010년대에 Intel이 설계한 통합 GPU는 MSI, ASUS, Nvidia와 같은 제조업체들이 사용자가 직접 PCI 익스프레스 슬롯에 GPU를 추가하는 대신 CPU와 GPU를 결합하는 방식에 주목하면서 더욱 인기를 얻게 되었습니다. 이는 노트북 사용자, 게이머, 그리고 PC에서 계산 집약적인 프로그램을 실행하는 다른 사용자들 사이에서 여전히 인기 있는 옵션입니다.
가상 GPU(vGPU)는 개별 GPU나 통합 GPU와 동일한 기능을 제공하지만 하드웨어는 포함되지 않습니다. 이는 클라우드 인스턴스를 위해 구축된 소프트웨어 기반의 GPU 버전으로, 동일한 워크로드를 실행하는 데 사용할 수 있습니다. 또한 하드웨어가 없기 때문에 물리적인 제품보다 유지 관리가 더 쉽고 관리 비용이 저렴합니다.
클라우드 GPU는 클라우드 서비스 제공업체(CSP)가 가상 GPU에 액세스하는 것을 말합니다. 최근 몇 년 동안 클라우드 컴퓨팅의 가속화와 AI/ML 기반 애플리케이션의 채택 증가로 인해 클라우드 기반 GPU 서비스 시장이 성장했습니다. Fortune Business Insights의 보고서에 따르면, GPU 서비스(GPUaaS) 시장은 2023년에 32억 3천만 달러의 가치가 있었으며, 2024년에는 43억 1천만 달러로 성장하고 2032년까지 498억 4천만 달러에 이를 것으로 예상됩니다.1
Google Cloud Platform, Amazon Web Services(AWS), Microsoft, IBM Cloud를 포함한 많은 CSP는 최적화된 작업 부하 성능을 위한 확장 가능한 GPU 서비스에 온디맨드로 액세스할 수 있는 서비스를 제공합니다. CSP는 데이터 센터에서 사용자가 필요한 만큼만 지불하는 가상화된 GPU 리소스를 제공합니다. 클라우드 기반 인프라를 구동하기 위해 Nvidia, AMD, Intel과 같은 최고의 GPU 제조업체의 GPU 하드웨어를 사용하는 경우가 많습니다.
클라우드 기반 GPU 제품은 일반적으로 사전 구성과 함께 제공되며 쉽게 배포할 수 있습니다. 이러한 기능을 통해 조직은 물리적 GPU와 관련된 사전 비용과 유지 관리 비용을 피할 수 있습니다. 또한, 기업들이 고급 컴퓨팅 작업(예: 콘텐츠 제작, 이미지 생성)을 수행하기 위해 생성형 AI 워크로드를 통합하고자 하면서 클라우드 기반 GPU가 제공하는 확장성과 비용 효율성은 기업 비즈니스에 매우 중요해졌습니다.
GPU 벤치마크는 다양한 조건에서 GPU 성능을 평가하는 프로세스를 제공합니다. 이러한 전문 소프트웨어 툴을 통해 사용자(예: 게이머, 3D 아티스트, 시스템 개발자)는 GPU에 대한 인사이트를 얻고 병목 현상, 지연 시간 및 다른 소프트웨어 및 하드웨어와의 호환성과 같은 성능 문제를 해결할 수 있습니다.
GPU 벤치마크에는 합성 벤치마크와 실제 벤치마크라는 두 가지 주요 유형이 있습니다. 합성 벤치마크는 표준화된 환경에서 GPU의 원시 성능을 테스트합니다. 실제 벤치마크는 특정 애플리케이션에서 GPU의 성능을 테스트합니다.
GPU 벤치마킹 툴은 속도, 프레임 속도 및 메모리 대역폭과 같은 성능 메트릭을 확인합니다. 또한 사용자가 특정 요구 사항에 따라 성능을 최적화할 수 있도록 열 효율성과 전력 사용량을 검토합니다. 일부 GPU 벤치마크 플랫폼에는 솔리드 스테이트 드라이브(SSD)가 GPU와 얼마나 잘 상호 작용하는지 측정하는 테스트도 통합되어 있습니다.
시간이 지나면서 GPU가 발전함에 따라 기술적 개선 덕분에 더 많은 프로그래밍이 가능해졌고, 더 많은 기능이 발견되었습니다. 특히, 여러 프로세서에 작업을 분할할 수 있는 능력(병렬 처리) 덕분에 PC 게임, 고성능 컴퓨팅(HPC), 3D 렌더링 워크스테이션, 데이터 센터 컴퓨팅 등 다양한 분야에서 필수적인 존재가 되었습니다.
다음은 GPU 기술의 가장 중요한 최신 응용 분야에 대해 자세히 살펴보겠습니다.
AI와 그 다양한 애플리케이션은 GPU 컴퓨팅 없이는 아마 불가능했을 것입니다.고도의 기술적 문제를 기존 CPU보다 더 빠르고 효율적으로 해결할 수 있는 GPU의 능력은 필수 불가결한 요소입니다. GPU는 많은 슈퍼컴퓨터의 중요한 구성 요소이며, 특히 AI 슈퍼컴퓨터에서 필수적입니다.
GPU는 IBM의 클라우드 네이티브 AI 슈퍼컴퓨터 Vela와 같이 점점 더 큰 데이터 세트를 학습하기 위해 빠른 속도가 필요한 많은 주요 AI 애플리케이션을 지원합니다. AI 모델은 일반적으로 과학 연구 또는 기타 컴퓨팅 집약적인 작업을 수행하는 기업에서 운영하는 데이터 센터 GPU에서 학습하고 실행합니다.
머신 러닝(ML)은 데이터와 알고리즘을 사용하여 인간이 학습하는 방식을 모방하는 AI의 특정 분야를 말합니다 딥 러닝(DL)은 인간 뇌의 의사 결정 과정을 시뮬레이션하기 위해 신경망을 사용하는 머신 러닝의 하위 분야입니다.GPU 기술은 두 가지 기술 발전 분야 모두에 매우 중요합니다.
ML과 DL의 경우, GPU는 방대한 데이터 세트를 분류하고 인간과 유사한 방식으로 추론하는 모델의 능력을 강화합니다. GPU는 한 번에 많은 계산을 동시에 수행할 수 있기 때문에 특히 메모리와 최적화 영역이 향상됩니다. 또한, ML과 DL에서 사용되는 GPU는 CPU보다 적은 자원을 사용하면서도 성능이나 정확도에 손실이 없습니다.
블록체인, 즉 거래를 기록하고 비즈니스 네트워크에서 자산을 추적하는 원장은 특히 "작업 증명"이라고 불리는 단계에서 GPU 기술에 크게 의존합니다.암호화폐와 같은 많은 널리 사용되는 블록체인에서는 작업 증명 단계가 거래의 검증에 필수적이며, 이를 통해 거래가 블록체인에 추가될 수 있습니다.
게임 산업은 1990년대에 처음으로 GPU의 성능을 활용하여 더 빠른 속도와 더 우수한 그래픽 정확도로 전반적인 게임 경험을 개선했습니다. 오늘날 개인용 게임은 초현실적인 시나리오, 실시간 상호 작용 및 방대하고 몰입감 넘치는 게임 내 세계를 구현하여 컴퓨팅 집약도가 매우 높습니다.
가상 현실(VR), 더 높은 재생률, 더 높은 해상도 화면과 같은 게임 트렌드는 모두 더 높은 컴퓨팅 환경에서 그래픽을 빠르게 제공하기 위해 GPU에 의존합니다. 게임용 GPU에는 AMD Radeon, Intel Arc, Nvidia GeForce RTX 등이 포함됩니다.
전통적으로 긴 렌더링 시간은 소비자 및 전문 편집 소프트웨어 애플리케이션에서 큰 장애물이었습니다. GPU는 개발 이후 Final Cut Pro 및 Adobe Premiere와 같은 비디오 편집 제품의 처리 시간과 컴퓨팅 리소스를 꾸준히 줄여왔습니다.
오늘날 병렬 처리 및 내장 AI를 탑재한 GPU는 전문 편집 제품군부터 스마트폰 앱에 이르기까지 모든 편집 기능의 속도를 획기적으로 높여줍니다.
처리, 성능 및 그래픽 품질의 향상은 GPU가 콘텐츠 생성 산업을 혁신하는 데 필수적인 요소가 되도록 만들었습니다. 오늘날 최고 성능의 그래픽 카드와 고속 인터넷을 갖춘 콘텐츠 제작자들은 GPU 기술의 발전 덕분에 현실감 있는 콘텐츠를 생성하고, 이를 AI와 머신 러닝으로 증강한 후, 더 빠르게 편집하고 실시간으로 스트리밍할 수 있습니다.
HPC 시스템에서 GPU는 병렬 처리 능력을 사용하여 신약 개발, 에너지 생산, 천체 물리학과 같은 분야에서 복잡한 수학적 계산 및 대규모 데이터 분석과 같은 계산 집약적인 작업을 가속화합니다.
GPU는 다양한 산업 분야에서 제품 워크스루, CAD 도면, 의료 및 지진/지구 물리학 이미징을 포함한 복잡하고 전문적인 애플리케이션의 경험과 교육 기능을 향상시키기 위해 많이 찾고 있습니다. GPU는 3D 애니메이션, AI 및 ML, 고급 렌더링, 초현실적인 가상 현실(VR) 및 증강 현실(AR) 경험을 통해 소방관, 우주 비행사, 교사 등 전문가들의 훈련에 중요한 역할을 합니다.
또한 엔지니어와 기후 과학자는 GPU로 구동되는 시뮬레이션 애플리케이션을 사용하여 기상 조건, 유체 역학, 천체 물리학을 예측하고, 특정 조건에서 차량이 어떻게 작동할지도 예측합니다. Nvidia RTX는 과학적 시각화 및 에너지 탐사에 사용되는 가장 강력한 GPU 중 하나입니다.
AI 및 생성형 AI 애플리케이션이 확산됨에 따라 다른 두 가지 특수 처리 장치를 살펴보고 GPU와 어떻게 비교되는지 살펴볼 필요가 있습니다. 오늘날의 엔터프라이즈 기업은 특정 요구 사항에 따라 CPU, GPU, FPGA의 세 가지 유형의 프로세서를 모두 사용합니다.
신경 처리 장치(NPU)는 인간 뇌의 처리 기능을 모방하도록 설계된 특수한 컴퓨터 마이크로프로세서입니다. AI 가속기, AI 칩 또는 딥 러닝 프로세서라고도 하는 NPU는 AI 신경망, 딥 러닝 및 머신 러닝의 속도를 높이기 위해 구축된 하드웨어 가속기입니다.
NPU와 GPU는 모두 시스템의 CPU를 향상시키지만 눈에 띄는 차이점이 있습니다. GPU에는 그래픽 렌더링과 게임에 필요한 빠르고 정밀한 컴퓨팅 작업을 수행하는 수천 개의 코어가 포함되어 있습니다. NPU는 낮은 전력 소비와 지연 시간으로 데이터 흐름과 메모리 계층 구조를 실시간으로 우선시하여 AI 및 생성형 AI 워크로드를 가속화하도록 설계되었습니다.
고성능 GPU는 사용 가능한 메모리가 많은 다중 코어에서 많은 양의 계산을 처리할 수 있기 때문에 딥 러닝 또는 AI 애플리케이션에 매우 적합합니다. 필드 프로그래머블 게이트 어레 (FPGA)는 다양한 기능에 맞게 재프로그래밍할 수 있는 다목적 유형의 집적 회로입니다. FPGA는 GPU에 비해 유연성과 비용 효율성을 제공하여 의료 영상 및 엣지 컴퓨팅과 같이 지연 시간이 짧은 딥 러닝 애플리케이션에서 더 나은 성능을 제공할 수 있습니다.
모든 링크는 IBM 외부에 있습니다.
1 GPU as a Service Market Size, Share & Industry Analysis, Fortune Business Insights, Fortune Business Insights, 2024년 12월 9일
IBM Consulting Advantage 플랫폼으로 구동되는 IBM 클라우드 서비스를 사용하여 하이브리드 클라우드로의 여정을 가속화하고 비용 효율성을 높이며, 생산성과 지속 가능성을 높이고 시장 출시 시간을 단축할 수 있습니다.
IBM의 전용 서버 호스팅은 맞춤형 옵션을 통해 미션 크리티컬 워크로드에 대해 완전한 격리, 제어 및 보안을 제공합니다.
IBM Cloud Virtual Server for VPC는 IBM Cloud Virtual Private Cloud를 기반으로 구축된 Intel x86, IBM Z, IBM LinuxONE 가상 서버 제품군입니다.