Beranda Page Title Apa itu Jaringan Neural? Apa itu jaringan neural?
Jelajahi solusi jaringan neural IBM Berlangganan pembaruan tentang topik AI
Wajah AI memproses informasi dan belajar meniru manusia.
Apa itu jaringan neural?

Jaringan neural adalah program atau model machine learning yang membuat keputusan dengan cara yang mirip dengan otak manusia, dengan menggunakan proses yang meniru cara neuron biologis bekerja sama untuk mengidentifikasi fenomena, mempertimbangkan pilihan, dan sampai pada kesimpulan.

Setiap jaringan neural terdiri dari lapisan node, atau neuron buatan, lapisan input, satu atau lebih lapisan tersembunyi, dan lapisan output. Tiap node saling terhubung satu sama lain serta memiliki bobot dan ambang batas yang terkait. Jika output dari setiap node individu berada di atas nilai ambang batas yang ditentukan, node itu diaktifkan, data dikirim ke lapisan jaringan berikutnya. Jika tidak, tidak ada data yang diteruskan ke lapisan jaringan berikutnya.

Jaringan neural mengandalkan data pelatihan untuk mempelajari dan meningkatkan akurasinya dari waktu ke waktu. Setelah mereka disesuaikan untuk akurasi, mereka adalah alat yang ampuh dalam ilmu komputer dan kecerdasan buatan, memungkinkan kita untuk mengklasifikasikan dan mengelompokkan data dengan kecepatan tinggi. Tugas dalam pengenalan suara atau pengenalan gambar dapat memakan waktu beberapa menit dibandingkan berjam-jam jika dibandingkan dengan identifikasi manual oleh pakar manusia. Salah satu contoh paling terkenal dari jaringan neural adalah algoritma pencarian Google.

Jaringan neural kadang disebut jaringan neural buatan (ANN) atau jaringan neural simulasi (SNN). Mereka adalah bagian dari machine learning, dan di jantung model pembelajaran mendalam.

Bangun alur kerja AI yang bertanggung jawab dengan tata kelola AI

Pelajari blok bangunan dan praktik terbaik untuk membantu tim Anda mempercepat AI yang bertanggung jawab.

Konten terkait

Daftar untuk buku elektronik tentang AI generatif

Bagaimana cara kerja jaringan neural?

Pikirkan setiap node individu sebagai model regresi linier nya sendiri, terdiri dari data input, bobot, bias (atau ambang batas), dan output. Rumusnya akan terlihat seperti ini:

∑wixi + bias = w1x1 + w2x2 + w3x3 + bias

output = f(x) = 1 if ∑w1x1 + b>= 0; 0 if ∑w1x1 + b < 0

Setelah lapisan input ditentukan, bobot ditetapkan. Bobot ini membantu menentukan pentingnya variabel tertentu, dengan bobot yang lebih besar berkontribusi lebih signifikan terhadap hasil dibandingkan dengan input lainnya. Semua input kemudian dikalikan dengan bobotnya masing-masing dan kemudian dijumlahkan. Setelah itu, hasil dilewatkan melalui fungsi aktivasi, yang menentukan hasil. Jika nilai hasil tersebut melebihi ambang batas yang diberikan, maka akan "menembak" atau mengaktifkan node, meneruskan data ke lapisan berikutnya dalam jaringan. Hal ini mengakibatkan hasil dari satu node menjadi input dari node berikutnya. Proses meneruskan data dari satu lapisan ke lapisan berikutnya mendefinisikan jaringan neural ini sebagai jaringan feedforward.

Mari kita uraikan seperti apa satu node tunggal menggunakan nilai biner. Kita dapat menerapkan konsep ini pada contoh yang lebih nyata, seperti apakah Anda harus berselancar (Ya: 1, Tidak: 0). Keputusan untuk pergi atau tidak pergi adalah hasil prediksi kita, atau y-hat. Mari kita asumsikan bahwa ada tiga faktor yang mempengaruhi pengambilan keputusan Anda:

  1. Apakah ombaknya bagus? (Ya: 1, Tidak: 0)
  2. Apakah line-up kosong? (Ya: 1, Tidak: 0)
  3. Apakah ada serangan hiu baru-baru ini? (Ya: 0, Tidak: 1)

Kemudian, mari kita asumsikan yang berikut, memberi kita input berikut:

  • X1 = 1, karena ombak besar
  • X2 = 0, karena tidak ada kerumunan
  • X3 = 1, karena belum ada serangan hiu baru-baru ini

Sekarang, kita perlu menetapkan beberapa bobot untuk menentukan pentingnya. Bobot yang lebih besar menandakan bahwa variabel tertentu lebih penting untuk keputusan atau hasil.

  • W1 = 5, karena gelombang besar tidak sering muncul
  • W2 = 2, karena Anda terbiasa dengan keramaian
  • W3 = 4, karena Anda takut pada hiu

Akhirnya, kita juga akan mengasumsikan nilai ambang 3, yang akan diterjemahkan ke nilai bias 3. Dengan semua input yang berbeda, kita dapat mulai memasukkan nilai ke dalam rumus untuk mendapatkan hasil yang diinginkan.

Y-hat = (1*5) + (0*2) + (1*4) – 3 = 6

Jika kita menggunakan fungsi aktivasi dari awal bagian ini, kita dapat menentukan bahwa hasil dari node ini adalah 1, karena 6 lebih besar dari 0. Dalam contoh ini, Anda akan berselancar, namun jika kita menyesuaikan bobot atau ambang batasnya, kita dapat memperoleh hasil yang berbeda dari model tersebut. Saat kita mengamati satu keputusan, seperti contoh di atas, kita dapat melihat bagaimana jaringan neural dapat membuat keputusan yang semakin kompleks tergantung pada hasil dari keputusan atau lapisan sebelumnya.

Pada contoh di atas, kita menggunakan perceptron untuk mengilustrasikan beberapa matematika yang berperan di sini, tetapi jaringan neural memanfaatkan neuron sigmoid, yang dibedakan dengan nilai antara 0 dan 1. Karena jaringan neural berperilaku mirip dengan pohon keputusan, mengalirkan data dari satu node ke node lainnya, dengan nilai x antara 0 dan 1 akan mengurangi dampak dari setiap perubahan variabel tunggal pada hasil node tertentu, dan selanjutnya, hasil dari jaringan neural.

Saat kami mulai memikirkan contoh penggunaan yang lebih praktis untuk jaringan neural, seperti pengenalan atau klasifikasi gambar, kami akan memanfaatkan pembelajaran yang diawasi, atau kumpulan data berlabel, untuk melatih algoritme. Saat melatih model, kami ingin mengevaluasi keakuratannya menggunakan fungsi biaya (atau kerugian). Hal ini juga biasa disebut dengan mean squared error (MSE). Dalam persamaan di bawah ini,

  • i mewakili indeks sampel,
  • y-hat adalah hasil yang diprediksi,
  • y adalah nilai sebenarnya, dan
  • m adalah jumlah sampel.

= =1/2 ∑129_(=1)^▒( ̂^(() )−^(() ) )^2

Pada akhirnya, tujuannya adalah untuk meminimalkan fungsi biaya kami untuk memastikan kebenaran kesesuaian untuk setiap pengamatan yang diberikan. Ketika model menyesuaikan bobot dan biasnya, ia menggunakan fungsi biaya dan pembelajaran penguatan untuk mencapai titik konvergensi, atau minimum lokal. Proses di mana algoritma menyesuaikan bobotnya adalah melalui penurunan gradien, memungkinkan model untuk menentukan arah yang harus diambil untuk mengurangi kesalahan (atau meminimalkan fungsi biaya). Dengan setiap contoh pelatihan, parameter model menyesuaikan untuk menyatu secara bertahap di nilai minimal.  

Lihat artikel IBM Developer ini untuk penjelasan lebih mendalam tentang konsep kuantitatif yang terlibat dalam jaringan neural.

Sebagian besar jaringan neural mendalam bersifat feedforward, artinya mereka mengalir dalam satu arah saja, dari input ke hasil. Namun, Anda juga dapat melatih model Anda melalui propagasi balik; yaitu, bergerak ke arah yang berlawanan dari hasil ke input. Propagasi balik memungkinkan kita untuk menghitung dan mengaitkan kesalahan yang terkait dengan setiap neuron, sehingga kita dapat menyesuaikan dan mencocokkan parameter model dengan tepat.

Sekarang tersedia: watsonx.ai

Studio perusahaan baru yang menyatukan machine learning tradisional dengan kemampuan AI generatif baru yang didukung oleh model dasar.

jenis neural networks

Jaringan neural dapat diklasifikasikan ke dalam berbagai jenis, yang digunakan untuk tujuan yang berbeda. Meskipun ini bukan daftar jenis yang komprehensif, di bawah ini akan mewakili jenis jaringan neural yang paling umum yang akan Anda temui untuk contoh penggunaannya yang umum:

Perceptron adalah jaringan neural tertua, yang dibuat oleh Frank Rosenblatt pada tahun 1958.

Jaringan neural feedforward, atau multi-layer perceptron (MLP), adalah hal yang menjadi fokus utama kami dalam artikel ini. Mereka terdiri dari lapisan input, lapisan tersembunyi atau lapisan, dan lapisan hasil. Meskipun jaringan saraf ini juga sering disebut sebagai MLP, penting untuk dicatat bahwa jaringan neural ini sebenarnya terdiri dari neuron sigmoid, bukan perceptron, karena sebagian besar masalah di dunia nyata bersifat nonlinier. Data biasanya dimasukkan ke dalam model ini untuk melatih mereka, dan mereka adalah dasar untuk visi komputer, pemrosesan bahasa alami, dan jaringan neural lainnya.

Jaringan neural konvolusional (CNN) mirip dengan jaringan feedforward, tetapi biasanya digunakan untuk pengenalan gambar, pengenalan pola, dan/atau visi komputer. Jaringan ini memanfaatkan prinsip-prinsip dari aljabar linier, khususnya perkalian matriks, untuk mengidentifikasi pola dalam sebuah gambar.

Jaringan neural berulang (RNN) diidentifikasi oleh loop umpan baliknya. Algoritme pembelajaran ini terutama dimanfaatkan ketika menggunakan data deret waktu untuk membuat prediksi tentang hasil di masa depan, seperti prediksi pasar saham atau prakiraan penjualan.

 

Jaringan neural vs. pembelajaran mendalam

Pembelajaran Mendalam dan jaringan neural cenderung digunakan secara bergantian dalam percakapan, yang dapat membingungkan. Sebagai hasilnya, perlu dicatat bahwa "mendalam" dalam pembelajaran mendalam hanya mengacu pada kedalaman lapisan dalam jaringan neural. Jaringan neural yang terdiri dari lebih dari tiga lapisan, yang akan mencakup input dan hasil, dapat dianggap sebagai algoritme pembelajaran mendalam. Jaringan neural yang hanya memiliki dua atau tiga lapisan hanyalah jaringan neural dasar.

Untuk mempelajari lebih lanjut tentang perbedaan antara jaringan neural dan bentuk kecerdasan buatan lainnya, seperti machine learning, silakan baca postingan blog “AI vs Machine Learning vs Pembelajaran Mendalam vs Jaringan Neural: Apa Perbedaannya?

Sejarah jaringan neural

Sejarah jaringan neural lebih panjang dari yang dipikirkan kebanyakan orang. Sementara gagasan "mesin yang berpikir" dapat ditelusuri hingga ke Yunani Kuno, kami akan fokus pada peristiwa-peristiwa penting yang mengarah pada evolusi pemikiran di sekitar jaringan neural, yang telah surut dan mengalir dalam popularitas selama bertahun-tahun:

1943: Warren S. McCulloch dan Walter Pitts menerbitkan “Kalkulus logis dari ide-ide yang ada dalam aktivitas saraf (tautan berada di luar ibm.com)” Penelitian ini berupaya memahami bagaimana otak manusia dapat menghasilkan pola kompleks melalui sel-sel otak atau neuron yang terhubung. Salah satu gagasan utama yang dihasilkan dari karya ini adalah perbandingan neuron dengan ambang biner dengan logika Boolean (yaitu, pernyataan 0/1 atau benar/salah).   

1958: Frank Rosenblatt berjasa atas pengembangan perceptron, yang didokumentasikan dalam penelitiannya, "The Perceptron: Sebuah Model Probabilistik untuk Penyimpanan dan Organisasi Informasi di Otak" (tautan berada di luar ibm.com). Dia membawa pekerjaan McCulloch dan Pitt selangkah lebih jauh dengan memperkenalkan bobot ke persamaan. Dengan memanfaatkan IBM 704, Rosenblatt mampu membuat komputer mempelajari cara membedakan kartu yang ditandai di sebelah kiri dan kartu yang ditandai di sebelah kanan.

1974: Meskipun banyak peneliti yang berkontribusi pada ide propagasi balik, Paul Werbos adalah orang pertama di Amerika Serikat yang mencatat penerapan propragasi balik dalam jaringan syaraf dalam tesis PhD-nya (tautan berada di luar ibm.com).

1989: Yann LeCun menerbitkan sebuah makalah (tautan berada di luar ibm.com) yang mengilustrasikan bagaimana penggunaan batasan dalam propagasi balik dan integrasinya ke dalam arsitektur jaringan neural tiruan dapat digunakan untuk melatih algoritma. Penelitian ini berhasil memanfaatkan jaringan neural untuk mengenali digit kode pos yang ditulis tangan yang disediakan oleh U.S. Postal Service.

Solusi terkait
Solusi pembelajaran mendalam

Merancang jaringan saraf yang kompleks. Bereksperimen dalam skala besar untuk menerapkan model pembelajaran yang dioptimalkan dalam IBM Watson Studio.

Jelajahi solusi pembelajaran mendalam
IBM Watson Studio

Bangun dan skalakan AI tepercaya di cloud apa pun. Otomatiskan siklus hidup AI untuk ModelOps.

Jelajahi IBM Watson Studio
watsonx.ai

Ambil langkah selanjutnya untuk mulai mengoperasionalkan dan menskalakan AI generatif dan machine learning untuk bisnis.

Jelajahi watsonx.ai
Sumber daya AI di perusahaan, 2021: Melepaskan peluang melalui data

Daftarkan diri Anda untuk mendapatkan buku elektronik kami untuk mendapatkan insight tentang peluang, tantangan, dan pelajaran yang dapat dipetik dari penerapan AI ke dalam bisnis.

AI vs. pembelajaran mesin vs. pembelajaran mendalam vs. jaringan neural: Apa bedanya?

Istilah-istilah ini sering digunakan secara bergantian, tetapi perbedaan apa yang membuat masing-masing teknologi unik?

Jaringan neural dari awal

Dapatkan pemahaman mendalam tentang jaringan neural, fungsi dasarnya dan dasar-dasar untuk membangunnya.

Ambil langkah selanjutnya

Latih, validasi, lakukan tuning, dan terapkan AI generatif, model dasar, dan kemampuan machine learning dengan IBM watsonx.ai, studio perusahaan generasi berikutnya untuk pembangun AI. Bangun aplikasi AI dalam waktu singkat, dengan sedikit data.

Jelajahi watsonx.ai Pesan demo langsung