Beranda

Think

Topik

Chip AI

Apa itu chip AI?
Jelajahi AI di IBM Z Daftar untuk mendapatkan pembaruan AI
Ilustrasi lingkaran kecil, formasi seperti awan, persegi panjang, garis

Diterbitkan: 6 Juni 2024
Kontributor: Mesh Flinders, Ian Smalley

Apa itu chip AI?

Chip kecerdasan buatan (AI) adalah microchip komputer yang dirancang khusus yang digunakan dalam pengembangan sistem AI. Tidak seperti jenis chip lainnya, chip AI sering kali dibuat khusus untuk menangani tugas-tugas AI, seperti machine learning (ML), analisis data, dan pemrosesan bahasa alami (NLP)

 

Dari kemenangan Jeopardy! IBM Watson hingga peluncuran ChatGPT oleh OpenAI untuk mobil tanpa pengemudi dan AI generatif, potensi AI tampak tidak terbatas saat ini, dan sebagian besar perusahaan teknologi besar, termasuk Google, IBM, Intel, Apple dan Microsoft semuanya terlibat secara mendalam dalam teknologi ini.

Tetapi seiring dengan peningkatan kompleksitas masalah yang ditangani AI, begitu pula tuntutan pada pemrosesan dan kecepatan komputasi. Chip AI dirancang untuk memenuhi tuntutan algoritma AI yang sangat canggih dan mengaktifkan fungsi AI inti yang tidak mungkin dilakukan pada unit pemrosesan pusat tradisional (CPU).

Istilah 'chip AI' luas dan mencakup banyak jenis chip yang dirancang untuk lingkungan komputasi yang menuntut yang diperlukan oleh tugas-tugas AI. Contoh chip AI yang populer termasuk unit pemrosesan grafis (GPU)field programmable gate arrays (FPGA), dan sirkuit terintegrasi khusus aplikasi (ASIC). Meskipun beberapa chip ini tidak harus dirancang khusus untuk AI, chip ini dirancang untuk aplikasi tingkat lanjut dan banyak dari kemampuannya yang berlaku untuk beban kerja AI. 

Memaksimalkan nilai hybrid cloud di era AI generatif

Seiring dengan semakin pentingnya AI generatif, kunci untuk meningkatkan dampak AI terletak pada penggunaan hybrid cloud untuk mendorong hasil bisnis.

Konten terkait Berlangganan Buletin Think
Mengapa chip AI penting?

Industri AI berkembang dengan pesat, dengan terobosan dalam ML dan AI generatif dalam berita hampir setiap hari. Seiring perkembangan teknologi AI, chip AI menjadi penting dalam menciptakan solusi AI dalam skala besar. Misalnya, memberikan aplikasi AI modern seperti pengenalan wajah atau analisis data skala besar menggunakan CPU tradisional—atau bahkan chip AI dari beberapa tahun yang lalu—akan menghabiskan biaya lebih tinggi secara eksponensial. Chip AI modern lebih unggul daripada pendahulunya dalam 4 hal penting: lebih cepat, berkinerja lebih tinggi, lebih fleksibel, dan lebih efisien.

Kecepatan

Chip AI menggunakan metode komputasi yang berbeda dan lebih cepat daripada chip generasi sebelumnya. Pemrosesan paralel, juga dikenal sebagai komputasi paralel, adalah proses membagi masalah atau tugas yang besar dan kompleks menjadi tugas yang lebih kecil dan lebih sederhana. Sementara chip lama menggunakan proses yang disebut pemrosesan sekuensial (berpindah dari satu perhitungan ke perhitungan berikutnya), chip AI melakukan ribuan, jutaan-bahkan miliaranperhitungan sekaligus. Kemampuan ini memungkinkan chip AI untuk menangani masalah besar dan kompleks dengan membaginya menjadi masalah yang lebih kecil dan menyelesaikannya pada saat yang sama, sehingga secara eksponensial meningkatkan kecepatannya. 

Fleksibilitas

Chip AI jauh lebih dapat disesuaikan daripada rekan-rekannya dan dapat dibuat untuk fungsi AI atau model pelatihan tertentu. Chip ASIC AI, misalnya, sangat kecil dan sangat mudah diprogram dan telah digunakan dalam berbagai aplikasi, mulai dari ponsel hingga Satellite pertahanan. Tidak seperti CPU tradisional, chip AI dibuat untuk memenuhi persyaratan dan permintaan komputasi tugas-tugas AI pada umumnya, sebuah fitur yang telah membantu mendorong kemajuan dan inovasi yang cepat dalam industri AI.

Efisiensi

Chip AI modern membutuhkan lebih sedikit energi daripada generasi sebelumnya. Hal ini sebagian besar disebabkan oleh peningkatan teknologi chip yang memungkinkan chip AI mendistribusikan tugasnya secara lebih efisien daripada chip lama. Fitur chip modern seperti aritmatika presisi rendah memungkinkan chip AI memecahkan masalah dengan lebih sedikit transistor dan, oleh karena itu, konsumsi energi lebih sedikit. Perbaikan ramah lingkungan ini dapat membantu mengurangi jejak karbon dari operasi yang membutuhkan banyak sumber daya seperti pusat data.  

Kinerja

Karena chip AI dibuat khusus, seringkali dengan tugas yang sangat spesifik, mereka memberikan hasil yang lebih akurat saat melakukan tugas inti seperti pemrosesan bahasa alami (NLP) atau analisis data. Tingkat presisi ini semakin diperlukan karena teknologi AI diterapkan di bidang-bidang yang membutuhkan kecepatan dan keakuratan, seperti kedokteran.

Tantangan yang dihadapi teknologi chip AI

Meskipun ada banyak kualitas yang membuat chip AI sangat penting untuk kemajuan teknologi AI, ada juga tantangan yang dihadapi dalam pengadopsian perangkat keras yang canggih ini secara luas:

 

Rantai pasokan yang bergantung pada Taiwan

Menurut The Economist, pembuat chip di pulau Taiwan memproduksi lebih dari 60% semikonduktor dunia dan lebih dari 90% chip tercanggih. Sayangnya, kekurangan yang kritis dan situasi geopolitik yang rapuh menghambat pertumbuhan.1 

Nvidia, perusahaan perangkat keras dan perangkat lunak AI terbesar di dunia, hampir secara eksklusif mengandalkan Taiwan Semiconductor Manufacturing Corporation (TSMC) untuk chip AI tercanggihnya. Perjuangan Taiwan untuk tetap independen dari Tiongkok masih berlangsung, dan beberapa analis berspekulasi bahwa invasi Tiongkok ke pulau itu dapat menutup kemampuan TSMC untuk membuat chip AI sepenuhnya.

 

Kecepatan inovasi

Ketika pengembang membangun model AI yang lebih besar dan lebih kuat, tuntutan komputasi meningkat lebih cepat daripada kemajuan dalam desain chip AI. Perbaikan dalam perangkat keras AI akan datang, dengan perusahaan menjelajahi bidang-bidang seperti komputasi dalam memori dan kinerja dan fabrikasi yang ditingkatkan algoritma AI untuk meningkatkan efisiensi algoritmik chip, tetapi mereka tidak bergerak secepat peningkatan permintaan komputasi aplikasi AI. 

Persyaratan daya

Seiring meningkatnya tuntutan kinerja, chip AI meningkat dalam ukuran dan membutuhkan jumlah energi yang lebih besar untuk berfungsi. Chip AI modern yang canggih membutuhkan daya ratusan watt per chip, jumlah energi yang sulit untuk diarahkan ke ruang kecil. Kemajuan yang signifikan dalam arsitektur jaringan pengiriman daya (PDN) diperlukan untuk memberi daya pada chip AI atau kinerjanya akan terpengaruh.

Bagaimana cara kerja chip AI?

 

 

Istilah chip AI mengacu pada unit sirkuit terpadu yang dibuat dari semikonduktor (biasanya silikon) dan transistor. Transistor adalah bahan semikonduktor yang dihubungkan ke sirkuit elektronik. Ketika arus listrik dikirim melalui sirkuit dan dinyalakan dan dimatikan, ia membuat sinyal yang dapat dibaca oleh perangkat digital sebagai satu atau nol.

Pada perangkat modern, seperti chip AI, sinyal hidup dan mati berganti miliaran kali per detik, yang memungkinkan sirkuit menyelesaikan perhitungan rumit menggunakan kode biner untuk merepresentasikan berbagai jenis informasi dan data.

Chip dapat memiliki fungsi yang berbeda; misalnya, chip memori biasanya menyimpan dan mengambil data, sedangkan chip logika melakukan operasi kompleks yang memungkinkan pemrosesan data. Chip AI adalah chip logika, memproses volume besar data yang dibutuhkan untuk beban kerja AI.

Transistor mereka biasanya lebih kecil dan lebih efisien daripada chip standar, memberi mereka kemampuan pemrosesan yang lebih cepat dan jejak energi yang lebih kecil.

Pemrosesan paralel

Mungkin tidak ada fitur lain dari chip AI yang lebih penting untuk beban kerja AI daripada fitur pemrosesan paralel yang mempercepat pemecahan algoritma pembelajaran yang kompleks. Tidak seperti chip serba guna tanpa kemampuan pemrosesan paralel, chip AI dapat melakukan banyak komputasi sekaligus, memungkinkannya menyelesaikan tugas dalam beberapa menit atau detik yang akan memakan waktu lebih lama dari chip standar.

Karena jumlah dan kompleksitas komputasi yang terlibat dalam pelatihan model AI, kemampuan pemrosesan paralel chip AI sangat penting untuk efektivitas dan skalabilitas teknologi.

Jenis-jenis chip AI

Ada beberapa jenis chip AI yang berbeda dalam desain dan tujuan:

GPU

Unit pemrosesan grafis (GPU) adalah sirkuit elektronik yang dirancang untuk mempercepat grafik komputer dan pemrosesan gambar pada berbagai perangkat, termasuk kartu video, papan sistem, ponsel dan komputer pribadi (PC).

Meskipun awalnya dibangun untuk tujuan grafis, chip GPU telah menjadi sangat diperlukan dalam pelatihan model AI karena kemampuan pemrosesan paralelnya. Pengembang biasanya menghubungkan beberapa GPU ke sistem AI yang sama sehingga mereka dapat memanfaatkan kekuatan pemrosesan yang lebih besar.

FPGA

Field programmable gate array (FPGA) adalah chip AI yang dibuat khusus dan dapat diprogram yang memerlukan pengetahuan pemrograman ulang yang terspesialisasi. Tidak seperti chip AI lainnya, yang sering kali dibuat khusus untuk aplikasi tertentu, FPGA memiliki desain unik yang menampilkan serangkaian blok logika yang saling berhubungan dan dapat dikonfigurasi. FPGA dapat diprogram ulang pada tingkat perangkat keras, memungkinkan tingkat penyesuaian yang lebih tinggi. 

NPU

Unit pemrosesan neural (NPU) adalah chip AI yang dibuat khusus untuk pembelajaran mendalam dan jaringan neural serta volume data yang besar yang dibutuhkan oleh beban kerja ini. NPU dapat memproses data dalam jumlah besar lebih cepat daripada chip lain dan melakukan berbagai tugas AI seperti pengenalan gambar dan kemampuan NLP untuk aplikasi populer seperti ChatGPT.

ASIC

Sirkuit terpadu spesifik aplikasi (ASIC) adalah chip yang dibuat khusus untuk aplikasi AI dan tidak dapat diprogram ulang seperti FPGA. Akan tetapi, karena mereka dibangun dengan tujuan tunggal, sering kali untuk mempercepat beban kerja AI, mereka biasanya memiliki kinerja yang lebih unggul daripada rekan-rekan mereka yang lebih umum. 

Contoh penggunaan chip AI

Sebagai bagian penting dari perangkat keras dalam desain dan implementasi salah satu teknologi dengan pertumbuhan tercepat di planet ini, contoh penggunaan chip AI menjangkau berbagai benua dan industri. Dari smartphone dan laptop hingga aplikasi AI yang lebih mutakhir seperti robotika, mobil tanpa pengemudi, dan satelit, chip AI dengan cepat menjadi komponen penting di semua jenis industri. Beberapa aplikasi yang lebih populer meliputi:

Kendaraan otonom

Kemampuan chip AI untuk menangkap dan memproses data dalam jumlah besar dalam waktu yang hampir real-time membuatnya sangat diperlukan untuk pengembangan kendaraan otonom. Melalui pemrosesan paralel, mereka dapat menginterpretasikan data dari kamera dan sensor dan memprosesnya sehingga kendaraan dapat bereaksi terhadap lingkungannya dengan cara yang mirip dengan otak manusia. Misalnya, ketika mobil tanpa pengemudi tiba di lampu lalu lintas, chip AI menggunakan pemrosesan paralel untuk mendeteksi warna lampu, posisi mobil lain di persimpangan, dan informasi lain yang penting untuk pengoperasian yang aman.

Komputasi edge dan edge AI

Komputasi edge—kerangka kerja komputasi yang membawa aplikasi perusahaan dan daya komputasi tambahan lebih dekat ke sumber data seperti perangkat Internet of Things (IoT) dan server edge lokal—dapat menggunakan kemampuan AI dengan chip AI dan menjalankan tugas ML pada perangkat edge. Dengan chip AI, algoritma AI dapat memproses data di tepi jaringan, dengan atau tanpa koneksi internet, dalam hitungan milidetik. Edge AI memungkinkan data diproses di tempat yang dihasilkan daripada di cloud, mengurangi latensi dan membuat aplikasi lebih hemat energi.

Model bahasa besar

Kemampuan chip AI untuk mempercepat ML dan algoritma pembelajaran mendalam membantu meningkatkan pengembangan model bahasa besar (LLM), kategori model AI dasar yang dilatih pada volume besar data yang dapat memahami dan menghasilkan bahasa alami. Pemrosesan paralel chip AI membantu LLM mempercepat operasi di jaringan neural, meningkatkan kinerja aplikasi AI seperti AI generatif dan chatbot. 

Robotika

Kemampuan ML dan visi komputer chip AI menjadikannya aset penting dalam pengembangan robotika. Dari penjaga keamanan hingga teman pribadi, robot yang disempurnakan dengan AI mengubah dunia tempat kita tinggal, melakukan tugas yang lebih kompleks setiap hari. Chip AI berada di garis depan teknologi ini, membantu robot mendeteksi dan bereaksi terhadap perubahan di lingkungan mereka dengan kecepatan dan kehalusan yang sama seperti manusia.

Solusi terkait
AI di IBM Z

Temukan insight dan dapatkan hasil yang dapat ditindaklanjuti dan tepercaya tanpa memerlukan pemindahan data. Terapkan AI dan machine learning ke data perusahaan Anda yang paling berharga di IBM® Z menggunakan kerangka kerja dan alat sumber terbuka.

Pelajari lebih lanjut AI di IBM Z

IBM LinuxONE

IBM LinuxONE adalah server Linux kelas perusahaan yang menyatukan keahlian IBM dalam membangun sistem enterprise dengan keterbukaan sistem operasi Linux.

Temukan IBM LinuxONE

IBM Power

IBM Power adalah kelompok server yang didasarkan pada prosesor IBM Power dan mampu menjalankan IBM AIXIBM i, dan Linux.

Cari tahu lebih lanjut tentang IBM Power

Sumber daya Apa yang dimaksud dengan kecerdasan buatan?

Pelajari lebih lanjut tentang kecerdasan buatan atau AI, teknologi yang memungkinkan komputer dan mesin untuk mensimulasikan kecerdasan manusia dan kemampuan memecahkan masalah.

Apa itu mainframe?

Temukan mainframe, server data yang dirancang untuk memproses hingga 1 triliun transaksi web setiap hari dengan tingkat keamanan dan keandalan tertinggi.

Apa yang dimaksud dengan infrastruktur TI?

Cari tahu lebih lanjut tentang infrastruktur teknologi informasi atau infrastruktur TI, komponen gabungan yang diperlukan untuk operasi dan manajemen layanan TI perusahaan dan lingkungan TI.

Apa itu unit pemrosesan pusat (CPU)?

Jelajahi dunia central processing unit (CPU), komponen fungsional utama komputer yang menjalankan sistem operasi dan aplikasi serta mengelola berbagai operasi.

Apa itu AI generatif?

Pelajari lebih lanjut tentang AI generatif, terkadang disebut gen AI, kecerdasan buatan (AI) yang dapat membuat konten orisinal, seperti teks, gambar, video, audio, atau kode perangkat lunak, sebagai respons terhadap permintaan atau permintaan pengguna.

Apa itu unit pemrosesan grafis (GPU)?

Ketahui lebih lanjut tentang unit pemrosesan grafis, juga dikenal sebagai GPU, sirkuit elektronik yang dirancang untuk mempercepat pemrosesan grafis komputer dan gambar pada berbagai perangkat.

Ambil langkah selanjutnya

Latih, validasi, lakukan tuning, dan terapkan AI generatif, model dasar, dan kemampuan machine learning dengan IBM watsonx.ai, studio perusahaan generasi berikutnya untuk pembangun AI. Bangun aplikasi AI dalam waktu singkat, dengan sedikit data.

Jelajahi watsonx.ai Pesan demo langsung
Catatan kaki