Beranda Topics GPU Apa itu unit pemrosesan grafis (GPU)?
Jelajahi IBM watsonx.ai
Penggambaran grafis dalam warna biru, hitam dan putih dari berbagai ikon termasuk gunung, sungai, dan malam


Diterbitkan: 26 Februari 2024
Kontributor: Mesh Flinders, Ian Smalley

Apa itu unit pemrosesan grafis (GPU)?

Unit pemrosesan grafis, juga dikenal sebagai unit pemrosesan grafis atau GPU, adalah sirkuit elektronik yang dirancang untuk mempercepat grafis komputer dan pemrosesan gambar pada berbagai perangkat, termasuk kartu video, motherboard, ponsel dan komputer pribadi (PC).

Dengan melakukan penghitungan matematis secara cepat, GPU mengurangi jumlah waktu yang dibutuhkan komputer untuk menjalankan banyak program, menjadikannya pendukung penting bagi teknologi baru dan masa depan seperti machine learning (ML)kecerdasan buatan (AI), dan blockchain.

Sebelum penemuan GPU pada tahun 1990an, pengontrol grafis di PC dan pengontrol video game bergantung pada unit pemrosesan pusat (CPU) komputer, untuk menjalankan tugas. Sejak awal tahun 1950-an, CPU adalah prosesor terpenting dalam komputer, yang menjalankan semua instruksi yang diperlukan untuk menjalankan program, seperti logika, pengendalian, dan input/output (I/O). Namun, dengan munculnya permainan personal dan desain berbantuan komputer (CAD) pada tahun 1990-an, industri memerlukan cara yang lebih cepat dan efisien untuk menggabungkan piksel dalam waktu singkat.

Pada tahun 2007, Nvidia membangun CUDA (Compute Unified Device Architecture), perangkat lunak yang memberikan akses langsung ke kemampuan komputasi paralel GPU kepada para pengembang, sehingga mereka dapat menggunakan teknologi GPU untuk fungsi yang lebih luas daripada sebelumnya. Pada tahun 2010-an, teknologi GPU mendapatkan kemampuan yang lebih besar lagi, mungkin yang paling signifikan adalah ray tracing (pembuatan gambar komputer dengan menelusuri arah cahaya dari kamera) dan tensor core (yang didesain untuk memungkinkan pembelajaran mendalam).

Karena kemajuan ini, GPU telah memainkan peran penting dalam akselerasi AI dan prosesor pembelajaran mendalam, membantu mempercepat pengembangan aplikasi AI dan ML. Saat ini, selain memberi daya pada konsol game dan perangkat lunak pengeditan, GPU memberi daya pada fungsi komputasi canggih yang sangat penting bagi banyak perusahaan.

 

Solusi GPU IBM Cloud untuk Beban Kerja AI dan HPC

Kemajuan dalam teknologi GPU dan meningkatnya permintaan untuk AI dan HPC telah mengubah cara industri mengekstraksi nilai dari data mereka dan mendorong kinerja TI ke tingkat yang lebih tinggi.

Konten terkait

Berlangganan buletin IBM

Apa saja jenis GPU yang berbeda?

Ada tiga jenis GPU, GPU diskrit, GPU terintegrasi dan GPU virtual:  

Diskrit: GPU diskrit, atau dGPU, adalah prosesor grafis yang terpisah dari CPU perangkat, di mana informasi diambil dan diproses, sehingga komputer dapat berfungsi. GPU diskrit biasanya digunakan pada aplikasi tingkat lanjut dengan persyaratan khusus, seperti pengeditan video, pembuatan konten, atau game kelas atas. Mereka adalah chip yang berbeda dengan konektor ke papan sirkuit terpisah yang biasanya dipasang ke CPU menggunakan slot ekspres. Salah satu GPU diskrit yang paling banyak digunakan adalah merek Intel Arc, yang dibangun untuk industri game PC.  

Terintegrasi: GPU terintegrasi, atau iGPU, terpasang di dalam infrastruktur komputer atau perangkat dan biasanya ditempatkan di sebelah CPU. Dirancang pada tahun 2010-an oleh Intel, GPU terintegrasi menjadi lebih populer karena produsen seperti MSI, ASUS, dan Nvidia menyadari kekuatan menggabungkan GPU dengan CPU daripada mengharuskan pengguna untuk menambahkan GPU melalui slot PCI express sendiri. Saat ini, mereka tetap menjadi pilihan populer bagi pengguna laptop, gamer, dan orang lain yang menjalankan program komputasi intensif di PC mereka.  

Virtual: GPU virtual memiliki kemampuan yang sama dengan GPU diskrit atau terintegrasi, tetapi tanpa perangkat keras. Mereka hanyalah versi berbasis perangkat lunak dari GPU yang dibangun untuk instance cloud dan dapat digunakan untuk menjalankan beban kerja yang sama. Juga, karena tidak memiliki perangkat keras, mereka lebih sederhana dan lebih murah untuk dirawat daripada yang berbentuk fisik. 

 

Contoh penggunaan GPU modern

Seiring berkembangnya GPU dari waktu ke waktu, peningkatan teknis membuatnya lebih dapat diprogram, dan lebih banyak kemampuan ditemukan. Secara khusus, kemampuan mereka untuk membagi tugas di lebih dari satu prosesor—dikenal sebagai pemrosesan paralel—menjadikannya sangat diperlukan untuk berbagai aplikasi, seperti game PC, komputasi kinerja tinggi (HPC), workstation rendering 3D, komputasi pusat data, dan banyak lagi yang lain. Berikut adalah detail beberapa aplikasi teknologi GPU yang paling penting dan modern:

 

Kecerdasan Buatan

AI dan banyak aplikasinya mungkin tidak akan terjadi tanpa teknologi GPU. Kemampuan GPU untuk menyelesaikan masalah yang sangat teknis dengan lebih cepat dan efisien dibandingkan CPU tradisional menjadikannya sangat diperlukan. GPU mendukung banyak aplikasi AI terkemuka, seperti superkomputer AI cloud native IBM Velayang memerlukan kecepatan tinggi untuk melatih kumpulan data yang semakin besar. Model AI dilatih dan dijalankan pada GPU pusat data, yang biasanya dioperasikan oleh perusahaan yang melakukan penelitian ilmiah atau tugas komputasi intensif lainnya.

Machine learning (ML) dan pembelajaran mendalam (DL)

Machine learning, atau ML, mengacu pada disiplin khusus AI yang berkaitan dengan penggunaan data dan algoritme untuk meniru cara manusia belajar. Pembelajaran mendalam, atau DL, adalah subset dari ML yang menggunakan jaringan neural untuk mensimulasikan proses pengambilan keputusan di otak manusia. Teknologi GPU sangat penting untuk kedua bidang kemajuan teknologi.

Terkait ML dan DL, GPU mendukung kemampuan model untuk memilah kumpulan data yang sangat besar dan membuat kesimpulan dari kumpulan data tersebut dengan cara yang mirip dengan manusia. GPU secara khusus meningkatkan area memori dan optimalisasi karena dapat melakukan banyak perhitungan simultan sekaligus. Selain itu, GPU yang digunakan dalam ML dan DL menggunakan sumber daya yang lebih sedikit dibandingkan CPU tanpa penurunan daya atau akurasi.

Blockchain

Blockchain, buku besar populer yang digunakan untuk mencatat transaksi dan melacak aset dalam jaringan bisnis, sangat bergantung pada teknologi GPU , terutama dalam hal langkah yang disebut "bukti kerja." Di banyak blockchain yang banyak digunakan, seperti mata uang kripto, bukti langkah kerja sangat penting untuk validasi transaksi, yang memungkinkannya ditambahkan ke blockchain.

Bermain Game

Industri game pertama kali memanfaatkan kekuatan GPU pada tahun 1990-an untuk meningkatkan pengalaman bermain game secara keseluruhan dengan kecepatan dan akurasi grafis yang lebih tinggi. Saat ini, game pribadi sangat intensif komputasi karena skenario hiper nyata, interaksi real-time, dan dunia dalam game yang luas dan imersif. Tren dalam game seperti virtual reality (VR), kecepatan refresh yang lebih tinggi, dan layar beresolusi lebih tinggi, semuanya bergantung pada GPU untuk menghadirkan grafis dengan cepat dalam lingkungan komputasi yang semakin menuntut.

Pengeditan video

Secara tradisional, waktu render yang lama telah menjadi penghalang besar dalam aplikasi perangkat lunak pengeditan konsumen dan profesional. Sejak penemuannya, GPU terus mengurangi waktu pemrosesan dan sumber daya komputasi dalam produk pengeditan video populer seperti Final Cut Pro dan Adobe Premiere. Saat ini, GPU yang dilengkapi dengan pemrosesan paralel dan AI bawaan secara dramatis mempercepat kemampuan pengeditan untuk semua hal, mulai dari rangkaian pengeditan profesional hingga aplikasi ponsel cerdas.

Pembuatan konten

Peningkatan dalam pemrosesan, performa, dan kualitas grafis telah menjadikan GPU sebagai bagian penting dari transformasi industri pembuatan konten. Saat ini, pembuat konten yang dilengkapi dengan kartu grafis berkinerja tinggi dan internet berkecepatan tinggi dapat menghasilkan konten yang realistis, menambahnya dengan AI dan machine learning, lalu mengedit dan menayangkannya secara langsung kepada audiens lebih cepat dari sebelumnya. Hampir semuanya berkat kemajuan teknologi GPU.

Visualisasi dan simulasi

GPU sangat diminati di banyak industri untuk meningkatkan pengalaman dan kemampuan pelatihan aplikasi profesional yang kompleks, termasuk penelusuran produk, gambar CAD, serta pencitraan medis dan seismik/geofisika. GPU sangat penting dalam visualisasi tingkat lanjut yang digunakan dalam pelatihan profesional petugas pemadam kebakaran, astronot, guru sekolah, dan lainnya dengan animasi 3D, AI dan ML, rendering tingkat lanjut, dan pengalaman realitas virtual (VR) dan augmented reality (AR) yang hiperrealistis.

Selain itu, para insinyur dan ilmuwan iklim menggunakan aplikasi simulasi yang didukung oleh GPU untuk memprediksi kondisi cuaca, dinamika fluida, astrofisika, dan bagaimana perilaku kendaraan dalam kondisi tertentu. Salah satu GPU paling kuat yang tersedia untuk tujuan ini adalah chip Nvidia geforce RTX, yang dibuat terutama untuk visualisasi ilmiah dan eksplorasi energi.

Bagaimana cara kerja GPU?

GPU saat ini menggunakan banyak multiprosesor untuk menangani semua bagian berbeda dari tugas yang telah diberikan kepada mereka. 

GPU memiliki memori akses cepat (RAM) sendiri—jenis memori elektronik khusus yang digunakan untuk menyimpan kode dan data yang dapat diakses dan diubah oleh chip sesuai kebutuhan. GPU tingkat lanjut biasanya memiliki RAM yang dibuat khusus untuk menampung volume data besar yang diperlukan untuk tugas-tugas komputasi intensif seperti pengeditan grafis, game, atau contoh penggunaan AI/ML.

Dua jenis memori GPU yang populer adalah Graphics Double Data Rate 6 Synchronous Dynamic Random-Access Memory (GDDR6) dan GDDR6X, generasi yang lebih baru. GDDR6X mengkonsumsi daya 15% lebih sedikit per bit yang ditransfer daripada GDDR6, tetapi konsumsi daya keseluruhannya lebih tinggi karena GDDR6X lebih cepat. iGPU dapat diintegrasikan ke dalam CPU komputer atau dimasukkan ke dalam slot di sampingnya dan dihubungkan melalui port PCI express. 

Apa perbedaan antara GPU dan CPU?

CPU dan GPU memiliki desain yang serupa, termasuk jumlah inti dan transistor yang sama untuk tugas pemrosesan, tetapi CPU lebih umum dalam fungsinya daripada GPU. GPU cenderung berfokus pada tugas komputasi tunggal dan spesifik, seperti pemrosesan grafis atau machine learning.

CPU adalah jantung dan otak dari sistem komputer atau perangkat. Mereka menerima instruksi umum atau permintaan mengenai tugas dari program atau aplikasi perangkat lunak. Sebaliknya, GPU memiliki tugas yang lebih spesifik, yang biasanya melibatkan pemrosesan gambar dan video beresolusi tinggi secara cepat. Untuk menyelesaikan tugasnya, GPU secara konstan melakukan kalkulasi matematis kompleks yang diperlukan untuk merender grafis atau fungsi komputasi intensif lainnya.

Salah satu perbedaan terbesar antara CPU dan GPU adalah CPU cenderung menggunakan lebih sedikit inti dan melakukan tugasnya dalam urutan linier, sedangkan GPU memiliki ratusan, bahkan ribuan, inti, sehingga memungkinkan pemrosesan paralel yang mendorong kemampuan pemrosesan secepat kilat.

GPU pertama dibuat untuk mempercepat rendering grafis 3D, membuat adegan film dan video game tampak lebih realistis dan menarik. Chip GPU pertama, GeForce dari Nvidia, dirilis pada tahun 1999, dan segera diikuti oleh periode pertumbuhan pesat yang membuat kemampuan GPU berkembang ke area lain karena kemampuan pemrosesan paralel berkecepatan tinggi.

Pemrosesan paralel, atau komputasi paralel, adalah jenis komputasi yang mengandalkan dua atau lebih prosesor untuk menyelesaikan subset yang berbeda dari keseluruhan tugas komputasi. Sebelum GPU, komputer generasi yang lebih tua hanya dapat menjalankan satu program pada satu waktu, seringkali membutuhkan waktu berjam-jam untuk menyelesaikan tugas. Fungsi pemrosesan paralel GPU melakukan banyak perhitungan atau tugas secara bersamaan, membuatnya lebih cepat dan lebih efisien daripada CPU di komputer lama. 

Solusi terkait
Server cloud GPU

Akses salah satu proses pemilihan server yang paling fleksibel di industri ini dengan integrasi tanpa batas ke dalam arsitektur IBM Cloud, API, dan aplikasi Anda, serta jaringan pusat data yang terdistribusi secara global.

Coba server cloud GPU IBM

IBM watsonx

Terapkan dan sematkan AI dengan mudah di seluruh bisnis Anda, kelola semua sumber data, dan percepat alur kerja AI yang bertanggung jawab—semuanya dalam satu platform

Temukan IBM watsonx

Solusi penyimpanan AI NVIDIA

Tingkatkan hasil AI dengan lebih banyak data dan akses global yang dipercepat yang memungkinkan Anda untuk mematahkan hambatan akses data dan menciptakan dinamika penyimpanan baru untuk solusi AI NVIDIA. 

Lihat perbedaannya dengan solusi penyimpanan AI NVIDIA

Solusi komputasi berkinerja tinggi

Temukan solusi HPC cloud hybrid dari IBM dengan portofolio lengkap solusi komputasi kinerja tinggi (HPC) terintegrasi untuk cloud hybrid.

Atasi tantangan skala besar dan intensif komputasi

IBM Cloud Bare Metal Servers

Saksikan kekuatan IBM Cloud Bare Metal Servers, server khusus penyewa tunggal yang dapat digunakan dan dikelola sebagai layanan cloud.

Penyediaan IBM Cloud Bare Metal Servers

Sumber daya Apa itu GPU?

Pelajari tentang unit pemrosesan grafis (GPU) dan mengapa unit ini sangat penting bagi perusahaan yang sedang mempertimbangkan pendekatan baru untuk menangani beban kerja mereka (video dan teks).

Mengisi daya superkomputer AI cloud native IBM

Temui Vela, superkomputer AI di IBM Cloud yang dibangun untuk menerapkan alur kerja AI secara lebih efisien mulai dari pra-pemrosesan data dan pelatihan model hingga inkubasi produk baru.

Apa yang dimaksud dengan machine learning?

Pelajari tentang sejarah machine learning (ML) beserta definisi, aplikasi, dan masalah bisnis yang penting.

Apa yang dimaksud dengan kecerdasan buatan?

Pelajari lebih lanjut tentang kecerdasan buatan (AI), sebuah teknologi yang memungkinkan komputer dan perangkat digital untuk belajar, membaca, menulis, berbicara, melihat, membuat, bermain, menganalisis, dan membuat rekomendasi seperti manusia.

Apa itu teknologi blockchain?

Temukan kekuatan blockchain, buku besar bersama yang tidak dapat diubah yang memfasilitasi proses pencatatan transaksi dan pelacakan aset dalam jaringan bisnis.

Penawaran GPU baru IBM di cloud

Cari tahu bagaimana IBM membantu klien menerapkan model dasar dan beban kerja AI dengan penawaran GPU baru di IBM Cloud.

Ambil langkah selanjutnya

Experiance, studio perusahaan generasi berikutnya bagi para pembangun AI untuk melatih, memvalidasi, menyetel, dan menerapkan model-model AI Platform IBM watsonx.ai adalah platform AI dan data yang menyatukan kemampuan-kemampuan AI generatif yang baru, yang ditenagai oleh model-model dasar dan machine learning tradisional.

Jelajahi IBM watsonx.ai