Beranda
Topics
model AI
Model AI adalah program yang telah dilatih pada sekumpulan data untuk mengenali pola tertentu atau membuat keputusan tertentu tanpa campur tangan manusia lebih lanjut. Model kecerdasan buatan menerapkan algoritma yang berbeda untuk input data yang relevan untuk mencapai tugas, atau output, yang telah diprogram untuk mereka.
Sederhananya, model AI ditentukan oleh kemampuannya untuk membuat keputusan atau prediksi secara otonom, alih-alih mensimulasikan kecerdasan manusia. Di antara model AI pertama yang sukses adalah program bermain dam dan catur di awal tahun 1950-an: model ini memungkinkan program untuk melakukan gerakan sebagai respons langsung terhadap lawan manusia, ketimbang mengikuti serangkaian gerakan yang sudah ditentukan sebelumnya.
Jenis model AI yang berbeda lebih cocok untuk tugas-tugas tertentu, atau domain, yang mana logika pengambilan keputusannya paling berguna atau relevan. Sistem yang kompleks sering kali menggunakan beberapa model secara bersamaan, menggunakan teknik pembelajaran ensemble seperti bagging, boosting , atau stacking.
Seiring dengan pertumbuhan alat AI yang semakin kompleks dan serbaguna, alat ini membutuhkan jumlah data dan daya komputasi yang semakin menantang untuk dilatih dan dijalankan. Sebagai tanggapan, sistem yang dirancang untuk menjalankan tugas-tugas spesifik dalam satu domain memberi jalan kepada model dasar, yang telah dilatih sebelumnya pada kumpulan data yang besar dan tidak berlabel dan mampu melakukan beragam aplikasi. Model dasar serbaguna ini kemudian dapat disesuaikan untuk tugas-tugas tertentu.
Meskipun kedua istilah tersebut sering digunakan secara bergantian dalam konteks ini, mereka tidak berarti hal yang sama.
Secara sederhana, model AI digunakan untuk membuat prediksi atau keputusan dan algoritma adalah logika yang digunakan untuk mengoperasikan model AI tersebut.
Studio perusahaan generasi berikutnya bagi pembangun AI untuk melatih, memvalidasi, menyetel, dan menerapkan model AI.
Model AI dapat mengotomatiskan pengambilan keputusan, tetapi hanya model yang mampu melakukan machine learning (ML) yang dapat mengoptimalkan kinerjanya secara otonom dari waktu ke waktu.
Kendati semua model ML adalah AI, tidak semua AI melibatkan ML. Model AI yang paling dasar adalah serangkaian pernyataan jika-maka-lalu, dengan aturan yang diprogram secara eksplisit oleh ilmuwan data. Model-model seperti ini disebut juga mesin aturan, sistem pakar, grafik pengetahuan, atau AI simbolik.
Model machine learning menggunakan AI statistik dan bukan AI simbolis. Sementara model AI berbasis aturan harus diprogram secara eksplisit, model ML "dilatih" dengan menerapkan kerangka kerja matematis mereka ke kumpulan data sampel yang titik-titik datanya berfungsi sebagai dasar untuk prediksi dunia nyata di masa depan.
Teknik model ML secara umum dapat dibagi menjadi tiga kategori: pembelajaran yang diawasi, pembelajaran yang tidak diawasi , dan pembelajaran penguatan.
Pembelajaran mendalam adalah bagian dari pembelajaran tanpa pengawasan yang telah berkembang lebih jauh dengan struktur neural networks yang mencoba meniru struktur otak manusia. Beberapa lapisan node yang saling terhubung secara progresif menyerap data, mengekstrak fitur-fitur utama, mengidentifikasi hubungan, dan menyempurnakan keputusan dalam proses yang disebut propagasi maju. Proses lain yang disebut propagasi balik menerapkan model yang menghitung kesalahan dan menyesuaikan bobot dan bias sistem. Sebagian besar aplikasi AI canggih, seperti model bahasa besar (LLM) yang mendukung chatbot modern, memanfaatkan pembelajaran mendalam. Solusi ini membutuhkan sumber daya komputasi yang luar biasa.
Salah satu cara untuk membedakan model machine learning adalah dengan metodologi fundamentalnya: sebagian besar dapat dikategorikan sebagai generatif atau diskriminatif. Perbedaannya terletak pada bagaimana keduanya memodelkan data dalam ruang tertentu.
Model generatif
Algoritma generatif, yang biasanya memerlukan pembelajaran tanpa pengawasan, memodelkan distribusi titik data, yang bertujuan untuk memprediksi probabilitas bersama P(x,y) dari titik data tertentu yang muncul di ruang tertentu. Model visi komputer generatif dengan demikian dapat mengidentifikasi korelasi seperti “hal-hal yang terlihat seperti mobil biasanya memiliki empat roda” atau “mata tidak mungkin muncul di atas alis.”
Prediksi ini dapat memberikan informasi mengenai pembuatan outputs yang dianggap sangat mungkin oleh model. Misalnya, model generatif yang dilatih pada data teks dapat mendukung saran ejaan dan pelengkapan otomatis; pada tingkat yang paling rumit, model ini dapat menghasilkan teks yang sepenuhnya baru. Pada hakikatnya, ketika mengeluarkan teks, LLM telah menghitung probabilitas tinggi dari rangkaian kata tersebut yang akan dirangkai sebagai respons terhadap perintah yang diberikan.
Contoh penggunaan umum lainnya untuk model generatif termasuk sintesis gambar, komposisi musik, transfer gaya, dan terjemahan bahasa.
Contoh model generatif meliputi:
Model diskriminatif
Algoritma
diskriminatif, yang biasanya menggunakan pembelajaran yang diawasi, memodelkan batas-batas antara kelas-kelas data (atau "batas-batas keputusan"), yang bertujuan untuk memprediksi probabilitas bersyarat P(y|x) dari titik data tertentu (x) yang masuk ke dalam kelas (y) tertentu. Model visi komputer diskriminatif dapat mempelajari perbedaan antara "mobil" dan "bukan mobil" dengan melihat beberapa perbedaan utama (seperti "jika tidak memiliki roda, itu bukan mobil"), yang memungkinkannya untuk mengabaikan banyak korelasi yang harus diperhitungkan oleh model generatif. Model diskriminatif dengan demikian cenderung membutuhkan daya komputasi yang lebih sedikit.
Model diskriminatif, tentu saja, sangat cocok untuk tugas klasifikasi seperti analisis sentimen—tetapi model ini memiliki banyak kegunaan. Sebagai contoh, model decision trees dan hutan acak memecah proses pengambilan keputusan yang kompleks menjadi serangkaian node, di mana setiap "daun" mewakili keputusan klasifikasi yang potensial.
Contoh penggunaan
Meskipun model diskriminatif atau generatif
secara umum dapat mengungguli satu sama lain untuk contoh penggunaan dunia nyata tertentu, banyak tugas yang dapat dicapai dengan kedua jenis model tersebut. Misalnya, model diskriminatif memiliki banyak kegunaan dalam pemrosesan bahasa alami (NLP) dan sering mengungguli AI generatif untuk tugas-tugas seperti terjemahan mesin (yang memerlukan pembuatan teks terjemahan).
Demikian pula, model generatif dapat digunakan untuk klasifikasi menggunakan teorema Bayes. Daripada menentukan di sisi mana dari batas keputusan sebuah instans berada (seperti yang dilakukan oleh model diskriminatif), model generatif dapat menentukan probabilitas dari setiap kelas yang menghasilkan instans dan memilih salah satu yang memiliki probabilitas yang lebih tinggi.
Banyak sistem AI menggunakan keduanya secara bersamaan. Dalam jaringan permusuhan generatif, misalnya, model generatif menghasilkan data sampel dan model diskriminatif menentukan apakah data itu “nyata” atau “palsu.” Hasil dari model diskriminatif digunakan untuk melatih model generatif hingga diskriminator tidak dapat lagi membedakan data yang dihasilkan “palsu”.
Cara lain untuk mengkategorikan model adalah berdasarkan sifat tugas yang digunakan. Sebagian besar algoritma model AI klasik melakukan klasifikasi atau regression. Beberapa cocok untuk keduanya, dan sebagian besar model dasar memanfaatkan kedua jenis fungsi.
Terminologi ini, kadang-kadang, bisa membingungkan. Misalnya, regresi adalah model diskriminatif yang digunakan untuk klasifikasi.
Model Regression
Model Regression memprediksi nilai kontinu (seperti harga, usia, ukuran, atau waktu). Mereka terutama digunakan untuk menentukan hubungan antara satu atau lebih variabel independen (x) dan variabel dependen (y): diberikan x, prediksi nilai y.
Model klasifikasi
Model klasifikasi memprediksi nilai diskrit . Dengan demikian, mereka terutama digunakan untuk menentukan label yang sesuai atau untuk mengkategorikan (yaitu, mengklasifikasikan). Ini bisa berupa klasifikasi biner—seperti "ya atau tidak," "terima atau tolak"—atau klasifikasi multi-kelas (seperti mesin rekomendasi yang menyarankan Produk A, B, C, atau D).
Algoritma klasifikasi memiliki beragam kegunaan, mulai dari kategorisasi langsung hingga mengotomatiskan ekstraksi fitur dalam jaringan pembelajaran mendalam hingga kemajuan perawatan kesehatan seperti klasifikasi gambar diagnostik dalam radiologi.
Contoh umum meliputi:
“Pembelajaran” dalam machine learning dicapai dengan model pelatihan pada kumpulan data sampel. Tren dan korelasi probabilistik yang terlihat dalam kumpulan data sampel tersebut kemudian diterapkan pada kinerja fungsi sistem.
Dalam pembelajaran yang diawasi dan semi diawasi, data pelatihan ini harus diberi label dengan cermat oleh para ilmuwan data untuk mengoptimalkan hasil. Dengan ekstraksi fitur yang tepat, pembelajaran yang diawasi membutuhkan jumlah data pelatihan yang lebih rendah secara keseluruhan daripada pembelajaran yang tidak diawasi.
Idealnya, model ML dilatih dengan data dunia nyata. Hal ini, secara intuitif, paling baik memastikan bahwa model mencerminkan keadaan dunia nyata yang dirancang untuk dianalisis atau direplikasi. Namun, hanya mengandalkan data dunia nyata tidak selalu memungkinkan, praktis atau optimal.
Meningkatkan ukuran dan kompleksitas model
Makin banyak parameter yang dimiliki model, makin banyak data yang dibutuhkan untuk melatihnya. Seiring bertambahnya ukuran model pembelajaran mendalam, memperoleh data ini menjadi makin sulit. Hal ini terutama terlihat pada LLM: baik GPT-3 Open-AI dan sumber terbuka BLOOM memiliki lebih dari 175 miliar parameter.
Terlepas dari kemudahannya, menggunakan data yang tersedia untuk umum dapat memunculkan masalah regulasi, seperti ketika data harus dianonimkan, serta masalah kepraktisan. Sebagai contoh, model bahasa yang dilatih di utas media sosial dapat "mempelajari" kebiasaan atau ketidakakuratan yang tidak ideal untuk digunakan oleh perusahaan.
Data sintetis menawarkan solusi alternatif: sekumpulan data nyata yang lebih kecil digunakan untuk menghasilkan data pelatihan yang sangat mirip dengan data asli dan menghindari masalah privasi.
Menghilangkan bias
Model ML yang dilatih pada data dunia nyata pasti akan menyerap bias masyarakat yang akan tercermin dalam data tersebut. Jika tidak dihilangkan, bias semacam itu akan melanggengkan dan memperburuk ketidakadilan di bidang apa pun yang diinformasikan oleh model-model tersebut, seperti perawatan kesehatan atau perekrutan. Penelitian ilmu data telah menghasilkan algoritma seperti FairIJ dan teknik penyempurnaan model seperti FairReprogram untuk mengatasi ketidaksetaraan yang melekat pada data.
Overfitting dan underfitting
Overfitting terjadi ketika model ML terlalu cocok dengan data pelatihan, menyebabkan informasi yang tidak relevan (atau “kebisingan”) dalam kumpulan data sampel memengaruhi kinerja model. Underfitting adalah kebalikannya: pelatihan yang tidak tepat atau tidak memadai.
Juga disebut sebagai model basis atau model yang sudah dilatih sebelumnya, model dasar adalah model pembelajaran mendalam yang sudah dilatih sebelumnya pada kumpulan data berskala besar untuk mempelajari fitur dan pola umum. Mereka berfungsi sebagai titik awal untuk disempurnakan atau disesuaikan untuk aplikasi AI yang lebih spesifik.
Daripada membangun model dari awal, pengembang dapat mengubah lapisan Neural Networks, menyesuaikan parameter, atau mengadaptasi arsitektur agar sesuai dengan kebutuhan spesifik domain. Ditambah dengan keluasan dan kedalaman pengetahuan dan keahlian dalam model yang besar dan telah terbukti, hal ini menghemat waktu dan sumber daya yang signifikan dalam pelatihan model. Model dasar dengan demikian memungkinkan pengembangan dan penerapan sistem AI yang lebih cepat.
Fine-tuning pada model yang sudah terlatih untuk tugas-tugas khusus baru-baru ini telah memberi peluang munculnya teknik prompt-tuning, yang memperkenalkan isyarat front-end pada model untuk memandu model menuju jenis keputusan atau prediksi yang diinginkan.
Menurut David Cox, salah satu direktur MIT-IBM Watson AI Lab, penerapan ulang model pembelajaran mendalam yang terlatih (ketimbang melatih atau melatih ulang model baru) dapat memangkas penggunaan komputer dan energi lebih dari 1.000 kali lipat, sehingga menghemat biaya yang signifikan1.
Jelajahi model dasar di watsonx.AI
Pengujian tingkat lanjut sangat penting untuk pengoptimalan, karena hal ini mengukur apakah suatu model sudah terlatih dengan baik untuk mencapai tugas yang diharapkan. Model dan tugas yang berbeda cocok untuk metrik dan metodologi yang berbeda.
Validasi silang
Menguji kinerja model memerlukan kelompok kontrol untuk menilainya, karena menguji model dengan data yang sama dengan data yang dilatih dapat menyebabkan overfitting. Dalam validasi silang, sebagian data pelatihan disisihkan atau dilakukan sampling ulang untuk membuat grup kontrol. Variannya meliputi metode yang tidak lengkap seperti k-fold, holdout, dan monte carlo cross-validation atau metode yang lengkap seperti leave-p-out cross-validation.
Metrik model klasifikasi
Metrik umum ini menggabungkan nilai hasil diskrit seperti true positive (TP), true negative (TN), false positive (FP), dan false negative (FN).
Metriks Regression model2
Karena algoritma Regression memprediksi nilai kontinu, bukan nilai diskrit, algoritma ini diukur dengan metrik yang berbeda, di mana "N" mewakili jumlah observasi. Berikut ini adalah metrik umum yang digunakan untuk mengevaluasi model regression.
Untuk menerapkan dan menjalankan model AI, dibutuhkan perangkat komputasi atau server dengan daya pemrosesan dan kapasitas penyimpanan yang memadai. Kegagalan dalam merencanakan pipeline AI dan sumber daya komputasi secara memadai dapat mengakibatkan prototipe yang berhasil menjadi gagal melampaui fase proof-of-concept.
Lipat gandakan kekuatan AI dengan platform AI dan data generasi berikutnya. IBM watsonx adalah portofolio alat, aplikasi, dan solusi siap bisnis, yang dirancang untuk mengurangi biaya dan rintangan adopsi AI sambil mengoptimalkan hasil dan penggunaan AI yang bertanggung jawab.
Mengoperasikan AI di seluruh bisnis Anda untuk memberikan manfaat dengan cepat dan etis. Portofolio produk AI dan solusi analitik kelas bisnis kami yang lengkap dirancang untuk mengurangi rintangan adopsi AI dan membangun fondasi data yang tepat, sekaligus mengoptimalkan hasil dan penggunaan yang bertanggung jawab.
Menata ulang cara Anda bekerja dengan AI: tim global kami yang beragam dan terdiri dari lebih dari 20.000 pakar AI dapat membantu Anda dengan cepat dan percaya diri dalam merancang dan meningkatkan skala AI serta otomatisasi di seluruh bisnis Anda, bekerja di seluruh teknologi IBM watsonx kami sendiri dan ekosistem mitra yang terbuka untuk menghadirkan model AI apa pun, di cloud mana pun, yang dipandu oleh etika dan kepercayaan.
Granite adalah seri unggulan IBM dari model dasar LLM berdasarkan arsitektur transformator khusus dekoder. Model bahasa Granite dilatih pada data perusahaan tepercaya yang mencakup data internet, akademis, kode, hukum, dan keuangan.
Jelajahi pusat terpusat kami untuk penelitian AI, mulai dari prinsip-prinsip dasar hingga penelitian yang sedang berkembang hingga isu-isu penting dan kemajuan.
Pelajari bagaimana IBM mengembangkan model dasar generatif yang dapat dipercaya, hemat energi, dan portabel.
Kursus pemula: dalam dua jam, pelajari dasar-dasar AI dan bangun serta uji model machine learning pertama Anda menggunakan Python dan scikit-learn.
Buka kekuatan AI generatif dengan watsonx.ai dan PyTorch. Kelola siklus hidup model ML Anda di lingkungan studio yang aman.
Bisnis menyadari bahwa mereka tidak dapat menskalakan AI generatif dengan model dasar yang tidak dapat mereka percayai. Unduh kutipan untuk mempelajari mengapa IBM, dengan 'model Granite' andalan yang disebut Strong Performer.
1 "What is prompt tuning?", IBM Research, 15 Februari 2023.
2 "Machine learning model evaluation" (tautan berada di luar ibm.com), Geeksforgeeks.org, 2022.