Beranda
Think
Topik
Chip AI
Diterbitkan: 6 Juni 2024
Kontributor: Mesh Flinders, Ian Smalley
Chip kecerdasan buatan (AI) adalah microchip komputer yang dirancang khusus yang digunakan dalam pengembangan sistem AI. Tidak seperti jenis chip lainnya, chip AI sering kali dibuat khusus untuk menangani tugas-tugas AI, seperti machine learning (ML), analisis data, dan pemrosesan bahasa alami (NLP).
Dari kemenangan Jeopardy! IBM Watson hingga peluncuran ChatGPT oleh OpenAI untuk mobil tanpa pengemudi dan AI generatif, potensi AI tampak tidak terbatas saat ini, dan sebagian besar perusahaan teknologi besar, termasuk Google, IBM, Intel, Apple dan Microsoft semuanya terlibat secara mendalam dalam teknologi ini.
Tetapi seiring dengan peningkatan kompleksitas masalah yang ditangani AI, begitu pula tuntutan pada pemrosesan dan kecepatan komputasi. Chip AI dirancang untuk memenuhi tuntutan algoritma AI yang sangat canggih dan mengaktifkan fungsi AI inti yang tidak mungkin dilakukan pada unit pemrosesan pusat tradisional (CPU).
Istilah 'chip AI' luas dan mencakup banyak jenis chip yang dirancang untuk lingkungan komputasi yang menuntut yang diperlukan oleh tugas-tugas AI. Contoh chip AI yang populer termasuk unit pemrosesan grafis (GPU), field programmable gate arrays (FPGA), dan sirkuit terintegrasi khusus aplikasi (ASIC). Meskipun beberapa chip ini tidak harus dirancang khusus untuk AI, chip ini dirancang untuk aplikasi tingkat lanjut dan banyak dari kemampuannya yang berlaku untuk beban kerja AI.
Seiring dengan semakin pentingnya AI generatif, kunci untuk meningkatkan dampak AI terletak pada penggunaan hybrid cloud untuk mendorong hasil bisnis.
Industri AI berkembang dengan pesat, dengan terobosan dalam ML dan AI generatif dalam berita hampir setiap hari. Seiring perkembangan teknologi AI, chip AI menjadi penting dalam menciptakan solusi AI dalam skala besar. Misalnya, memberikan aplikasi AI modern seperti pengenalan wajah atau analisis data skala besar menggunakan CPU tradisional—atau bahkan chip AI dari beberapa tahun yang lalu—akan menghabiskan biaya lebih tinggi secara eksponensial. Chip AI modern lebih unggul daripada pendahulunya dalam 4 hal penting: lebih cepat, berkinerja lebih tinggi, lebih fleksibel, dan lebih efisien.
Chip AI menggunakan metode komputasi yang berbeda dan lebih cepat daripada chip generasi sebelumnya. Pemrosesan paralel, juga dikenal sebagai komputasi paralel, adalah proses membagi masalah atau tugas yang besar dan kompleks menjadi tugas yang lebih kecil dan lebih sederhana. Sementara chip lama menggunakan proses yang disebut pemrosesan sekuensial (berpindah dari satu perhitungan ke perhitungan berikutnya), chip AI melakukan ribuan, jutaan-bahkan miliaranperhitungan sekaligus. Kemampuan ini memungkinkan chip AI untuk menangani masalah besar dan kompleks dengan membaginya menjadi masalah yang lebih kecil dan menyelesaikannya pada saat yang sama, sehingga secara eksponensial meningkatkan kecepatannya.
Chip AI jauh lebih dapat disesuaikan daripada rekan-rekannya dan dapat dibuat untuk fungsi AI atau model pelatihan tertentu. Chip ASIC AI, misalnya, sangat kecil dan sangat mudah diprogram dan telah digunakan dalam berbagai aplikasi, mulai dari ponsel hingga Satellite pertahanan. Tidak seperti CPU tradisional, chip AI dibuat untuk memenuhi persyaratan dan permintaan komputasi tugas-tugas AI pada umumnya, sebuah fitur yang telah membantu mendorong kemajuan dan inovasi yang cepat dalam industri AI.
Chip AI modern membutuhkan lebih sedikit energi daripada generasi sebelumnya. Hal ini sebagian besar disebabkan oleh peningkatan teknologi chip yang memungkinkan chip AI mendistribusikan tugasnya secara lebih efisien daripada chip lama. Fitur chip modern seperti aritmatika presisi rendah memungkinkan chip AI memecahkan masalah dengan lebih sedikit transistor dan, oleh karena itu, konsumsi energi lebih sedikit. Perbaikan ramah lingkungan ini dapat membantu mengurangi jejak karbon dari operasi yang membutuhkan banyak sumber daya seperti pusat data.
Karena chip AI dibuat khusus, seringkali dengan tugas yang sangat spesifik, mereka memberikan hasil yang lebih akurat saat melakukan tugas inti seperti pemrosesan bahasa alami (NLP) atau analisis data. Tingkat presisi ini semakin diperlukan karena teknologi AI diterapkan di bidang-bidang yang membutuhkan kecepatan dan keakuratan, seperti kedokteran.
Meskipun ada banyak kualitas yang membuat chip AI sangat penting untuk kemajuan teknologi AI, ada juga tantangan yang dihadapi dalam pengadopsian perangkat keras yang canggih ini secara luas:
Menurut The Economist, pembuat chip di pulau Taiwan memproduksi lebih dari 60% semikonduktor dunia dan lebih dari 90% chip tercanggih. Sayangnya, kekurangan yang kritis dan situasi geopolitik yang rapuh menghambat pertumbuhan.1
Nvidia, perusahaan perangkat keras dan perangkat lunak AI terbesar di dunia, hampir secara eksklusif mengandalkan Taiwan Semiconductor Manufacturing Corporation (TSMC) untuk chip AI tercanggihnya. Perjuangan Taiwan untuk tetap independen dari Tiongkok masih berlangsung, dan beberapa analis berspekulasi bahwa invasi Tiongkok ke pulau itu dapat menutup kemampuan TSMC untuk membuat chip AI sepenuhnya.
Ketika pengembang membangun model AI yang lebih besar dan lebih kuat, tuntutan komputasi meningkat lebih cepat daripada kemajuan dalam desain chip AI. Perbaikan dalam perangkat keras AI akan datang, dengan perusahaan menjelajahi bidang-bidang seperti komputasi dalam memori dan kinerja dan fabrikasi yang ditingkatkan algoritma AI untuk meningkatkan efisiensi algoritmik chip, tetapi mereka tidak bergerak secepat peningkatan permintaan komputasi aplikasi AI.
Seiring meningkatnya tuntutan kinerja, chip AI meningkat dalam ukuran dan membutuhkan jumlah energi yang lebih besar untuk berfungsi. Chip AI modern yang canggih membutuhkan daya ratusan watt per chip, jumlah energi yang sulit untuk diarahkan ke ruang kecil. Kemajuan yang signifikan dalam arsitektur jaringan pengiriman daya (PDN) diperlukan untuk memberi daya pada chip AI atau kinerjanya akan terpengaruh.
Istilah chip AI mengacu pada unit sirkuit terpadu yang dibuat dari semikonduktor (biasanya silikon) dan transistor. Transistor adalah bahan semikonduktor yang dihubungkan ke sirkuit elektronik. Ketika arus listrik dikirim melalui sirkuit dan dinyalakan dan dimatikan, ia membuat sinyal yang dapat dibaca oleh perangkat digital sebagai satu atau nol.
Pada perangkat modern, seperti chip AI, sinyal hidup dan mati berganti miliaran kali per detik, yang memungkinkan sirkuit menyelesaikan perhitungan rumit menggunakan kode biner untuk merepresentasikan berbagai jenis informasi dan data.
Chip dapat memiliki fungsi yang berbeda; misalnya, chip memori biasanya menyimpan dan mengambil data, sedangkan chip logika melakukan operasi kompleks yang memungkinkan pemrosesan data. Chip AI adalah chip logika, memproses volume besar data yang dibutuhkan untuk beban kerja AI.
Transistor mereka biasanya lebih kecil dan lebih efisien daripada chip standar, memberi mereka kemampuan pemrosesan yang lebih cepat dan jejak energi yang lebih kecil.
Pemrosesan paralel
Mungkin tidak ada fitur lain dari chip AI yang lebih penting untuk beban kerja AI daripada fitur pemrosesan paralel yang mempercepat pemecahan algoritma pembelajaran yang kompleks. Tidak seperti chip serba guna tanpa kemampuan pemrosesan paralel, chip AI dapat melakukan banyak komputasi sekaligus, memungkinkannya menyelesaikan tugas dalam beberapa menit atau detik yang akan memakan waktu lebih lama dari chip standar.
Karena jumlah dan kompleksitas komputasi yang terlibat dalam pelatihan model AI, kemampuan pemrosesan paralel chip AI sangat penting untuk efektivitas dan skalabilitas teknologi.
Ada beberapa jenis chip AI yang berbeda dalam desain dan tujuan:
GPU
Unit pemrosesan grafis (GPU) adalah sirkuit elektronik yang dirancang untuk mempercepat grafik komputer dan pemrosesan gambar pada berbagai perangkat, termasuk kartu video, papan sistem, ponsel dan komputer pribadi (PC).
Meskipun awalnya dibangun untuk tujuan grafis, chip GPU telah menjadi sangat diperlukan dalam pelatihan model AI karena kemampuan pemrosesan paralelnya. Pengembang biasanya menghubungkan beberapa GPU ke sistem AI yang sama sehingga mereka dapat memanfaatkan kekuatan pemrosesan yang lebih besar.
FPGA
Field programmable gate array (FPGA) adalah chip AI yang dibuat khusus dan dapat diprogram yang memerlukan pengetahuan pemrograman ulang yang terspesialisasi. Tidak seperti chip AI lainnya, yang sering kali dibuat khusus untuk aplikasi tertentu, FPGA memiliki desain unik yang menampilkan serangkaian blok logika yang saling berhubungan dan dapat dikonfigurasi. FPGA dapat diprogram ulang pada tingkat perangkat keras, memungkinkan tingkat penyesuaian yang lebih tinggi.
NPU
Unit pemrosesan neural (NPU) adalah chip AI yang dibuat khusus untuk pembelajaran mendalam dan jaringan neural serta volume data yang besar yang dibutuhkan oleh beban kerja ini. NPU dapat memproses data dalam jumlah besar lebih cepat daripada chip lain dan melakukan berbagai tugas AI seperti pengenalan gambar dan kemampuan NLP untuk aplikasi populer seperti ChatGPT.
ASIC
Sirkuit terpadu spesifik aplikasi (ASIC) adalah chip yang dibuat khusus untuk aplikasi AI dan tidak dapat diprogram ulang seperti FPGA. Akan tetapi, karena mereka dibangun dengan tujuan tunggal, sering kali untuk mempercepat beban kerja AI, mereka biasanya memiliki kinerja yang lebih unggul daripada rekan-rekan mereka yang lebih umum.
Sebagai bagian penting dari perangkat keras dalam desain dan implementasi salah satu teknologi dengan pertumbuhan tercepat di planet ini, contoh penggunaan chip AI menjangkau berbagai benua dan industri. Dari smartphone dan laptop hingga aplikasi AI yang lebih mutakhir seperti robotika, mobil tanpa pengemudi, dan satelit, chip AI dengan cepat menjadi komponen penting di semua jenis industri. Beberapa aplikasi yang lebih populer meliputi:
Kemampuan chip AI untuk menangkap dan memproses data dalam jumlah besar dalam waktu yang hampir real-time membuatnya sangat diperlukan untuk pengembangan kendaraan otonom. Melalui pemrosesan paralel, mereka dapat menginterpretasikan data dari kamera dan sensor dan memprosesnya sehingga kendaraan dapat bereaksi terhadap lingkungannya dengan cara yang mirip dengan otak manusia. Misalnya, ketika mobil tanpa pengemudi tiba di lampu lalu lintas, chip AI menggunakan pemrosesan paralel untuk mendeteksi warna lampu, posisi mobil lain di persimpangan, dan informasi lain yang penting untuk pengoperasian yang aman.
Komputasi edge—kerangka kerja komputasi yang membawa aplikasi perusahaan dan daya komputasi tambahan lebih dekat ke sumber data seperti perangkat Internet of Things (IoT) dan server edge lokal—dapat menggunakan kemampuan AI dengan chip AI dan menjalankan tugas ML pada perangkat edge. Dengan chip AI, algoritma AI dapat memproses data di tepi jaringan, dengan atau tanpa koneksi internet, dalam hitungan milidetik. Edge AI memungkinkan data diproses di tempat yang dihasilkan daripada di cloud, mengurangi latensi dan membuat aplikasi lebih hemat energi.
Kemampuan chip AI untuk mempercepat ML dan algoritma pembelajaran mendalam membantu meningkatkan pengembangan model bahasa besar (LLM), kategori model AI dasar yang dilatih pada volume besar data yang dapat memahami dan menghasilkan bahasa alami. Pemrosesan paralel chip AI membantu LLM mempercepat operasi di jaringan neural, meningkatkan kinerja aplikasi AI seperti AI generatif dan chatbot.
Kemampuan ML dan visi komputer chip AI menjadikannya aset penting dalam pengembangan robotika. Dari penjaga keamanan hingga teman pribadi, robot yang disempurnakan dengan AI mengubah dunia tempat kita tinggal, melakukan tugas yang lebih kompleks setiap hari. Chip AI berada di garis depan teknologi ini, membantu robot mendeteksi dan bereaksi terhadap perubahan di lingkungan mereka dengan kecepatan dan kehalusan yang sama seperti manusia.
Temukan insight dan dapatkan hasil yang dapat ditindaklanjuti dan tepercaya tanpa memerlukan pemindahan data. Terapkan AI dan machine learning ke data perusahaan Anda yang paling berharga di IBM® Z menggunakan kerangka kerja dan alat sumber terbuka.
IBM LinuxONE adalah server Linux kelas perusahaan yang menyatukan keahlian IBM dalam membangun sistem enterprise dengan keterbukaan sistem operasi Linux.
Pelajari lebih lanjut tentang kecerdasan buatan atau AI, teknologi yang memungkinkan komputer dan mesin untuk mensimulasikan kecerdasan manusia dan kemampuan memecahkan masalah.
Temukan mainframe, server data yang dirancang untuk memproses hingga 1 triliun transaksi web setiap hari dengan tingkat keamanan dan keandalan tertinggi.
Cari tahu lebih lanjut tentang infrastruktur teknologi informasi atau infrastruktur TI, komponen gabungan yang diperlukan untuk operasi dan manajemen layanan TI perusahaan dan lingkungan TI.
Jelajahi dunia central processing unit (CPU), komponen fungsional utama komputer yang menjalankan sistem operasi dan aplikasi serta mengelola berbagai operasi.
Pelajari lebih lanjut tentang AI generatif, terkadang disebut gen AI, kecerdasan buatan (AI) yang dapat membuat konten orisinal, seperti teks, gambar, video, audio, atau kode perangkat lunak, sebagai respons terhadap permintaan atau permintaan pengguna.
Ketahui lebih lanjut tentang unit pemrosesan grafis, juga dikenal sebagai GPU, sirkuit elektronik yang dirancang untuk mempercepat pemrosesan grafis komputer dan gambar pada berbagai perangkat.
1 “Taiwan’s dominance of the chip industry makes it more important”, The Economist, 6 Maret, 2023.