Model generatif adalah model machine learning yang dirancang untuk membuat data baru yang mirip dengan data pelatihannya. Model kecerdasan buatan (AI) generatif mempelajari pola dan distribusi data pelatihan, lalu menerapkan pemahaman tersebut untuk menghasilkan konten baru sebagai respons terhadap data masukan baru.
Tindakan pembuatan konten inilah yang memisahkan model AI generatif dari jenis AI lainnya. Model generatif adalah model tindak lanjut neural networks yang meniru struktur otak manusia dan menerapkan algoritma machine learning untuk memproses data pelatihan dan membuat hasil baru.
Model AI generatif dan pengembangnya terutama mendorong zeitgeist AI beberapa tahun terakhir. Model generatif terus menerima sebagian besar liputan berita terkait AI dan menarik perhatian dan investasi yang signifikan.
AI Generatif adalah jenis AI yang menggunakan model canggih untuk menghasilkan konten baru sesuai dengan input prompt. Model generatif adalah program komputer yang menggunakan data dan algoritma untuk memfasilitasi praktik AI generatif. Contoh penggunaan AI generatif meliputi peringkasan teks, pembuatan teks dan pembuatan gambar, serta pemodelan 3D dan pembuatan audio.
Model generatif bekerja dengan mengidentifikasi pola dan distribusi dalam kumpulan data mereka dan kemudian menerapkan temuan-temuan tersebut untuk menghasilkan data baru berdasarkan input dari pengguna. Proses pelatihan mengajarkan model untuk mengenali distribusi probabilitas bersama dari fitur-fitur dalam kumpulan data. Selanjutnya, model menggunakan hal yang telah dipelajari untuk membuat sampel data baru yang mirip dengan kumpulan data.
Model generatif biasanya dilatih dengan teknik pembelajaran tanpa pengawasan yaitu ketika mereka diberi banyak data tanpa label dan memilah-milahnya sendiri. Model-model tersebut mencari tahu distribusi data, yang merupakan cara mereka mengembangkan logika internal yang kemudian digunakan untuk membuat data baru.
Selama pelatihan, model menerapkan fungsi kerugian untuk mengukur kesenjangan antara hasil dunia nyata dan prediksi model. Tujuan pelatihan adalah untuk meminimalkan fungsi kerugian, membawa hasil yang diperoleh sedekat mungkin dengan kenyataan.
Pembuatan konten adalah proses probabilistik. Model generatif tidak mengetahui sesuatu dengan cara yang sama seperti manusia. Sebaliknya, model generatif menggunakan persamaan matematika yang rumit untuk memprediksi hasil yang paling mungkin berdasarkan aturan yang dipelajari selama pelatihan.
Model generatif berusaha menghasilkan data baru dari kelas tertentu. Model diskriminatif memisahkan item ke dalam kelompok yang sudah diketahui, sementara model pengelompokan mencari cara untuk mengelompokkan item dalam kumpulan data. Model prediktif membuat estimasi tentang kejadian atau keadaan di masa depan berdasarkan data historis.
Model diskriminatif digunakan dalam pembelajaran yang diawasi di mana label atau categories data diketahui. Banyak model diskriminatif adalah pengklasifikasi yang mencoba mengidentifikasi hubungan antara fitur dan label dan kemudian menetapkan label kelas ke data baru berdasarkan probabilitas bersyarat dari label tersebut.
Sebagai contoh, model diskriminatif yang dilatih untuk membedakan antara gambar ikan dan burung dapat menebak apakah gambar tersebut lebih cenderung merupakan ikan atau burung. Pengenalan gambar, suatu jenis klasifikasi dalam machine learning adalah aplikasi umum untuk model diskriminatif.
Meskipun model generatif dan model diskriminatif memiliki perbedaan yang jelas, keduanya sering kali bekerja beriringan, seperti dalam jaringan adversial generatif (GAN).
Model pengelompokan digunakan dalam tugas pembelajaran tanpa pengawasan untuk mengelompokkan catatan dalam kumpulan data ke dalam kelompok-kelompok. Model pengelompokan ini juga dapat mengidentifikasi item serupa dan mempelajari hal yang membedakan item tersebut dari grup lain dalam kumpulan data.
Model pengelompokan tidak memiliki pengetahuan sebelumnya tentang item dalam kumpulan data, termasuk pengetahuan tentang berapa banyak kelompok yang mungkin ada. Seorang peneliti pasar dapat menggunakan model pengelompokan untuk mengidentifikasi persona pembeli dalam demografi target mereka.
Model prediktif memproses data historis untuk membuat prediksi tentang kejadian pada masa depan dengan menggunakan machine learning dan analisis statistik. Model ini sering digunakan untuk membantu para pemimpin bisnis membuat keputusan berbasis data. Model prediktif juga mendukung layanan teks prediktif, perangkat lunak pengenalan wajah, deteksi penipuan, dan solusi manajemen rantai pasokan.
Model generatif diberikan data tanpa label selama pelatihan. Mereka merekayasa balik kriteria kategorisasi. Dengan label tertentu, apa saja fitur yang menyebabkan titik data menerima label tersebut? Model generatif ingin memprediksi fitur-fitur dari sebuah label dan kemudian menggunakan fitur-fitur tersebut untuk menghasilkan contoh baru dari data tersebut.
Model generatif yang dilatih untuk menghasilkan gambar hewan dapat mencoba membuat gambar ikan berdasarkan apa yang menurutnya membuat ikan berbeda dari hewan lain. Pembuatan gambar adalah contoh penggunaan yang sering terjadi pada model generatif.
Ada banyak jenis model generatif, masing-masing dengan arsitekturnya sendiri yang menentukan: struktur model yang mengatur cara kerjanya. Model generatif dalam adalah subtipe dari model generatif yang menggunakan struktur neural network pembelajaran mendalam—neural networks dalam—untuk memahami hubungan yang rumit dan beragam antara titik-titik data dalam kumpulan data.
Model autoregresif memprediksi titik data berikutnya dalam urutan berdasarkan instans data sebelumnya. Transformator unggul dalam pemrosesan bahasa alami (NLP) karena kemampuannya yang ditingkatkan untuk memproses konteks.
Model difusi membuat data baru dengan menambahkan noise secara bertahap ke dalam kumpulan data, kemudian mencari cara untuk menghilangkan noise dan membuat hasil baru.
Jaringan adversial generatif (GAN) memasangkan model diskriminatif dan generatif secara bersamaan dalam sebuah kompetisi, dengan tujuan agar generator dapat menciptakan hasil yang mengelabui diskriminator.
Autoencoder variasional (VAE) memampatkan data input dengan encoder, kemudian membalikkan proses dengan decoder untuk membuat data baru yang serupa.
Model berbasis aliran mempelajari hubungan antara distribusi data sederhana dan kompleks melalui operasi matematika yang dapat dibalik.
Model autoregresif memprediksi item berikutnya dalam suatu urutan berdasarkan item sebelumnya. Model ini menilai komponen-komponen dalam urutan untuk menentukan korelasi probabilistik di antara komponen tersebut, kemudian menggunakan informasi tersebut untuk mengidentifikasi komponen baru yang kemungkinan besar akan menyusul.
Autoregresi adalah jenis regresi linieryang merupakan teknik statistik yang memprediksi nilai sebuah variabel berdasarkan nilai satu atau lebih variabel. Autoregresi mempersempit fokus ke variabel target tetapi mempertimbangkan nilainya dari waktu ke waktu. Autoregresi juga berbeda dari regresi logistik karena memprediksi nilai yang ditentukan, sedangkan regresi logistik menghasilkan persentase peluang terjadinya peristiwa tertentu.
Model autoregresif mengambil bentuk neural networks berulang (recurrent neural networks atau RNN) atau arsitektur transformator.
Pertama kali muncul pada tahun 20171, model transformator dengan cepat mengalahkan RNN, yang sampai saat itu merupakan bentuk utama dari model autoregresif. Trnasformator mengatasi beberapa kelemahan RNN yang mencolok. RNN kesulitan untuk menangkap ketergantungan jarak jauh—hubungan antara item jarak jauh dalam suatu urutan—dan tidak efisien secara komputasi karena memproses item secara berurutan, 1 per 1.
Transformator memperkenalkan 2 inovasi yang melampaui arsitektur RNN dan menjadikannya standar de facto untuk model bahasa besar (LLM) dalam AI generatif:
Pemrosesan paralel: Transformator memproses semua item dalam urutan secara bersamaan, sehingga meningkatkan efisiensi dibandingkan RNN berurutan. Transformator dapat dilatih dalam waktu yang jauh lebih singkat, terutama dengan kumpulan data skala besar yang diperlukan untuk kinerja LLM teratas.
Mekanisme perhatian diri: Transformator dapat mempertimbangkan kepentingan relatif dari semua item dalam suatu urutan ketika memproses item. Perhatian diri memungkinkan transformator untuk menangkap hubungan utama antara item yang jauh dalam suatu rangkaian, memungkinkan pemahaman kontekstual yang tidak dimiliki oleh RNN. Kemampuan untuk memproses konteks di seluruh rangkaian input yang besar membuat transformator unggul dalam tugas-tugas NLP seperti pembuatan teks dan penerjemahan bahasa.
Dari 3 jenis model transformator—encoder, decoder, dan encoder-decoder—2 yang terakhir mengandung komponen autoregresif. Decoder adalah komponen generatif dan menggunakan autoregresi untuk menghasilkan token yang diinformasikan oleh token yang dihasilkan sebelumnya.
Model autoregresif, khususnya transformator, digunakan secara luas saat ini. Banyak mode AI generatif terkemuka, termasuk GPT dan GPT-4o dari OpenAI, Claude Anthropic, Llama Meta, Gemini Google, dan Granite dari IBM.
Contoh penggunaan model autoregresif meliputi:
Pemrosesan bahasa alami: Transformator dapat memproses kueri bahasa alami yang kompleks dan merespons secara percakapan dengan pembuatan teks otomatis, menjadikannya ideal untuk digunakan sebagai chatbot. Misalnya, ChatGPT adalah implementasi chatbot OpenAI dari model generatif GPT mereka. Aplikasi NLP lainnya termasuk analisis sentimen, pengenalan suara, aplikasi text-to-speech (TTS), dan ringkasan dokumen.
Dukungan pengodean: Kemampuan autoregresif yang sama yang memungkinkan transformator unggul dalam pembuatan teks juga memungkinkannya untuk melakukan debug kode dan menghasilkan potongan kode.
Peramalan deret waktu: Autoregresi dapat dengan mudah diterapkan pada forecasting deret waktu, di mana model memprediksi nilai masa depan berdasarkan tren sebelumnya. Peramalan forecasting sering diterapkan pada pemodelan keuangan, prediksi pasar dan perkiraan cuaca.
Pembelajaran penguatan: Transformator telah mulai digunakan dalam pembelajaran penguatanyaitu teknik pelatihan machine learning yang mengajarkan pengambilan keputusan secara otonom. Transformator juga diterapkan pada tugas klasifikasi.
Model difusi secara bertahap mengaburkan atau menyebarkan data input dengan menambahkan noise, kemudian memperbaiki kekacauan yang mereka buat menjadi data baru yang serupa. Mereka menghasilkan data baru dengan belajar menyempurnakan kebisingan menjadi data yang mirip dengan kumpulan data pelatihan mereka. Model difusi bekerja melalui proses 3 tahap:
Langkah 1: Difusi: Selama pelatihan, model secara bertahap memperkenalkan noise pada inputnya sampai input tersebut tidak dapat dikenali lagi. Model ini menambahkan sejumlah kecil noise Gaussian pada data di setiap langkah dalam proses matematis yang dikenal sebagai rantai Markov.
Bayangkan proses difusi ketika seorang gitaris secara perlahan-lahan menaikkan kenop penguatan pada amplifier mereka sampai suara gitar mereka menjadi dinding statis murni. Beginilah cara gitaris rock mendapatkan suara yang terdistorsi dalam musik mereka, meskipun biasanya tidak sampai sejauh ini.
Langkah 2: Pembelajaran: Model ini menelusuri evolusi dari data yang sekarang telah dihancurkan untuk memahami bagaimana data tersebut diubah melalui proses noising. Model difusi mengulangi proses ini pada setiap tahap kebisingan.
Langkah 3: Membalikkan difusi: Dengan memahami bagaimana noise mengubah data, model difusi belajar untuk membalikkan proses noise dan merekonstruksi data input. Tujuan dari difusi balik adalah untuk melakukan perjalanan mundur melalui rantai Markov, menghilangkan noise Gaussian sampai hanya data murni yang tersisa. Gitaris dari Langkah 1 telah menerima teguran keras dari rekan-rekan band mereka dan mengembalikan perolehan ke tingkat yang dapat diterima.
Langkah 1 dan 2 diterapkan untuk melatih model difusi. Setelah pelatihan, model difusi menghasilkan data dengan menyebarkan terbalik noise acak untuk “menemukan” data yang diminta oleh prompt pengguna.
Sering digunakan untuk menghasilkan gambar, model difusi juga memiliki contoh penggunaan lain yang menonjol. Aplikasi model difusi meliputi:
Pembuatan gambar: Model difusi mendukung pembuatan gambar arus utama dan alat sintesis gambar seperti Midvoyage, Stable Diffusion dan DALL-E 2 OpenAI. Model-model ini menghasilkan gambar sebagai respons terhadap prompt pengguna. Model difusi dapat menghasilkan gambar realistis berkualitas tinggi, termasuk gambar wajah manusia.
Kantor Hak Cipta AS memutuskan pada tahun 2023 bahwa gambar yang dihasilkan AI tidak berhak atas perlindungan hak cipta. Sementara itu, berbagai tuntutan hukum yang sedang berlangsung2 pada akhirnya akan menentukan apakah gambar yang dihasilkan oleh AI dianggap sebagai pelanggaran hak cipta.
Inpainting dan outpainting: Inpainting adalah proses menambah atau menghapus konten di dalam gambar, sedangkan outpainting memperluas gambar melampaui batas aslinya.
Pemodelan 3D: DreamFusion dari Google dan Magic3D dari NVIDIA adalah model difusi yang membuat model 3D dari input teks.
Riset pasar: Model difusi menunjukkan bagaimana sesuatu berkembang dari waktu ke waktu, sehingga berguna untuk memahami bagaimana konsumen bereaksi terhadap suatu produk.
Deteksi anomali: Karena mereka dapat mempelajari bagaimana data berubah dari waktu ke waktu, model difusi dapat mengidentifikasi ketika titik data tidak sesuai dengan tren yang ada. Aplikasi deteksi anomali meliputi keamanan siber, pencegahan penipuan, dan deteksi penyakit.
Diperkenalkan pada tahun 2014, generative adversarial networks (GAN) adalah salah satu jenis model AI yang paling awal yang memasangkan 2 model secara bersamaan dalam sebuah kontes. Model generatif menciptakan hasil yang harus dianggap asli atau palsu oleh model pembeda. Tujuan dari kompetisi ini adalah agar generator menghasilkan konten yang dianggap asli ketika dinilai oleh model pembeda.
Jika pembuatnya adalah pemalsu karya seni, pembedanya adalah autentikator karya seni. Seorang pedagang seni mungkin memperoleh karya seni palsu dan mencoba menjualnya ke museum, tetapi tidak sebelum karya seni tersebut lolos autentikasi. Karena pemalsu menjadi lebih baik dalam meniru maestro besar, autentikator mungkin kesulitan deteksi pemalsuan berikutnya. Tak lama kemudian, museum tersebut menyelenggarakan pameran penuh karya seni palsu.
Proses pelatihan yang sama yang membuat hasil yang realistis juga dapat mengakibatkan mode collapse: ketika generator tidak menggunakan sebagian data pelatihannya dan membatasi diri pada rentang jenis sampel yang sempit. GAN, serta model difusi dan transformator, membutuhkan kumpulan data pelatihan yang sangat besar untuk kinerja yang efektif.
Kedua jaringan dalam GAN sering kali adalah convolutional neural networks (CNN), tipe awal neural networks yang terkenal dengan kinerjanya yang kuat dalam tugas visi komputer.
GAN digunakan terutama di bidang visi komputer dan tugas-tugas lain yang berhubungan dengan grafis.
Visi komputer: Visi komputer adalah penggunaan machine learning untuk memproses informasi dari gambar. Tugas visi komputer yang umum meliputi deteksi dan klasifikasi objek, pengenalan wajah, terjemahan bahasa isyarat, dan pelacakan objek.
Penambahan data: Penambahan data—penggunaan data yang sudah ada sebelumnya untuk membuat lebih banyak sampel data—dapat meningkatkan kinerja visi komputer lebih jauh lagi dengan CNN. Proses ini berbeda dengan data sintetis karena proses ini mengembangkan data nyata, dan bukan menghasilkan sesuatu dari awal.
Variational autoencoder (VAE) mengompresi data input, kemudian memperluas atau mendekode kompresi tersebut untuk menghasilkan data baru yang serupa. VAE mempelajari distribusi kumpulan data pelatihan dan menerapkan ekspektasi tersebut saat menghasilkan data baru dari sampel yang dikodekan. Seperti semua autoencoder, VAE terdiri dari 2 komponen: encoder dan decoder.
Tugas encoder adalah mempelajari variabel laten dalam kumpulan data. Variabel laten tidak dapat diamati secara langsung tetapi berperan penting dalam distribusi data. Ruang laten adalah nama kolektif untuk semua variabel laten dalam kumpulan data. Encoder memodelkan ruang laten dengan cara yang menangkap informasi yang diperlukan untuk merekonstruksi data secara akurat. Semua variabel lainnya dihilangkan.
Decoder mengambil representasi data yang terkompresi, yang dikenal sebagai kemacetan, dan mengekstrapolasinya kembali ke bentuk asli data. Dekoder yang efektif membuat hasil yang mirip dengan data pra-kompresi asli.
VAE mengalami kesulitan dalam tugas pembuatan gambar dibandingkan dengan model difusi dan GAN, tetapi unggul dalam bidang lainnya.
Pembuatan gambar: VAE dapat digunakan dalam pembuatan gambar, meskipun dengan aplikasi pembuatan gambar utama, model difusi telah banyak menggantikannya. Dibandingkan dengan penghasil gambar lainnya, VAE cenderung menghasilkan gambar yang lebih buram, karena "rata-rata" ruang laten.
Genomik: VAE membantu ahli genetika dalam menghitung nilai pembibitan—nilai yang diproyeksikan akan diberikan oleh seekor hewan kepada keturunannya—serta menetapkan skor risiko penyakit.
Deteksi anomali: VAE lebih murah dan lebih mudah dilatih daripada GAN dan diffuser, menjadikannya pilihan yang menarik untuk tugas deteksi anomali. Data yang dibuat ulang dibandingkan dengan data asli untuk mengisolasi kejadian yang menyimpang dari distribusi yang diproyeksikan.
Imputasi data: VAE dapat menghasilkan data baru untuk menggantikan data yang hilang dan memulihkan file yang rusak. Contohnya termasuk membersihkan file audio dan menghilangkan suara video serta pencitraan medis. Meskipun VAE cenderung menghasilkan gambar buram dari awal, namun dapat memulihkan gambar buram yang sudah ada sebelumnya dengan melakukan denoising pada gambar.
Pembelajaran semi-performa: VAE membantu melatih pengklasifikasi dengan menangkap distribusi data dalam kumpulan data dengan pelabelan yang tidak lengkap. VAE juga dapat melakukan augmentasi data untuk menghasilkan sampel pelatihan tambahan untuk pengklasifikasi.
Model berbasis aliran mempelajari distribusi data melalui serangkaian transformasi matematis yang dapat dibalik atau reversibel. Data dapat berkembang tanpa kehilangan melalui pipa ini, yang dikenal sebagai aliran normalisasi, di kedua arah. Sementara VAE dan GAN membuat estimasi distribusi data, model berbasis aliran secara eksplisit mempelajari fungsi kepadatan probabilitas untuk kumpulan data.
Dalam kumpulan data yang diberikan, fungsi kepadatan probabilitas menggambarkan bagaimana data didistribusikan. Aliran normalisasi berkembang dari distribusi sederhana ke distribusi yang kompleks hingga fungsi kepadatan probabilitas variabel target diidentifikasi.
Model berbasis aliran dapat menghasilkan sampel data baru yang mempertahankan sifat statistik yang sama dengan kumpulan data awal. Seperti semua pemodelan generatif, proses ini didasarkan pada konsep penarikan sampel dari data pelatihan dan menerapkan matematika statistik yang kompleks untuk membuat hasil yang serupa dan baru.
Model berbasis aliran sangat cocok untuk kasus-kasus di mana penilaian distribusi data yang akurat adalah yang terpenting.
Pembuatan gambar: Model berbasis aliran membuat gambar dengan menjalankan noise yang diambil sampelnya secara acak melalui aliran normalisasi untuk menghasilkan gambar yang bersih. PixelCNN adalah model pembangkit gambar tahun 2016 yang menerapkan autoregresi pada rangkaian transformasi, memodelkan gambar piksel demi piksel.
Estimasi kepadatan yang akurat: Estimasi densitas adalah tantangan dalam mengidentifikasi fungsi densitas probabilitas dari suatu kumpulan data berdasarkan data yang dapat diamati. Kendati model berbasis aliran dapat secara akurat merepresentasikan distribusi data yang kompleks, model ini sulit untuk menangkap ketergantungan jarak jauh jika dibandingkan dengan transformator.
Pembuatan grafik molekuler: Model berbasis aliran telah menemukan penggunaan dalam pembuatan grafik molekuler, di mana struktur molekul baru dimodelkan sebagai grafik oleh model AI generatif. Pembuatan grafik molekuler adalah alat penting dalam membantu ilmuwan dan insinyur dalam penemuan obat dan bahan baru.
Proses yang sama yang sering kali menghasilkan hasil yang mengesankan juga yang menyebabkan model generatif berhalusinasiyaitu ketika model tersebut menghasilkan informasi yang salah atau menyesatkan. Halusinasi atau konfabulasi terjadi ketika model melihat pola dalam kumpulan data pelatihan mereka yang tidak ada di dunia nyata.
Misalnya, saat meminta ChatGPT-4o mini dengan pertanyaan “Di episode Seinfeld yang mana Kramer pergi ke Bangladesh?” akan muncul jawaban berikut:
Kramer pergi ke Bangladesh dalam episode berjudul "The Little Jerry", yang merupakan episode ke-145 dari Seinfeld.. Ini adalah [sic] episode ke-145 dari acara ini, dan awalnya ditayangkan selama musim ke-8. Dalam episode ini, Kramer terlibat dalam rencana untuk mengimpor mainan dari Bangladesh.
Sementara The Little Jerry adalah episode ke-145 dari Seinfeld dan ditayangkan selama Musim 8, episode ini menampilkan Kramer yang membeli dan melatih seekor ayam jantan—Little Jerry yang memiliki nama asli. Mendorong chatbot dengan pertanyaan yang sama mengembalikan halusinasi kedua yang berbeda:
Kramer pergi ke Bangladesh dalam episode berjudul " The Maldives, " yang merupakan episode ke-18 Musim 9. Dalam episode ini, ia mencoba memulai kehidupan baru setelah perjalanannya, dan alur cerita berkisar pada gagasan untuk menjadi seorang "nelayan Bangladesh".
Pada kenyataannya, episode 18 dari musim ke-9 Seinfeld adalah The Frogger, dan di dalamnya, Kramer hanya pergi sejauh kantor polisi. Tidak ada episode Seinfeld yang berjudul The Maldives, dan tidak ada satu pun episode selama acara ini berlangsung yang menampilkan Kramer pergi ke Bangladesh.
Sama seperti model autoregresif seperti GPT yang dikenal berhalusinasi dengan fakta yang dibuat-buat, jenis model lain dapat berhalusinasi dengan caranya sendiri. Model difusi yang digunakan untuk pembuatan gambar terkadang menggambarkan objek dunia nyata dengan cara yang tidak sesuai dengan kenyataan.
Meskipun belum mungkin untuk sepenuhnya menghilangkan kemungkinan model AI generatif berhalusinasi, praktik terbaik untuk mitigasi halusinasi meliputi:
Prompt yang jelas: Semakin eksplisit/jelas prompt pengguna, semakin terfokus pula jawaban AI. Berikan AI ruang dalam prompt untuk menjawab secara terperinci.
Arah yang terfokus: Memberikan peran yang jelas kepada AI dan memerintahkannya untuk memberikan informasi yang benar dan dapat diverifikasi dapat membantu memastikan jawabannya lebih mencerminkan kenyataan.
Data berkualitas tinggi: Semakin baru dan relevan data pelatihan model AI, semakin rendah kemungkinan jawabannya akan bias.
Verifikasi manusia: Hasil yang diberikan AI tidak boleh digunakan tanpa diverifikasi terlebih dahulu oleh manusia yang berpengetahuan luas.
RAG dan penyempurnaan: Menggunakan RAG untuk menambah AI dengan data yang kredibel dan menyempurnakan model untuk menjadi lebih spesifik untuk domain tertentu, keduanya efektif dalam mengurangi halusinasi.
1. Attention Is All You Need, Vaswani et al, 2 Agustus 2023
2. Artists Score Major Win in Copyright Case Against AI Art Generators, Winston Cho, The Hollywood Reporter, 13 Agustus 2024
3. Diffusion-GAN: Training GANs with Diffusion, Wang et al, 25 Agustus 2023
Pelajari bagaimana CEO dapat menyeimbangkan nilai generatif AI yang dapat diciptakan dengan investasi yang dibutuhkan dan risiko yang ditimbulkannya.
Belajar konsep dasar dan bangun keterampilan Anda dengan laboratorium praktis, kursus, proyek terpandu, uji coba, dan lainnya.
Pelajari cara menggabungkan AI generatif dan machine learning dengan percaya diri ke dalam bisnis Anda.
Ingin mendapatkan laba yang lebih baik atas investasi AI Anda? Pelajari bagaimana meningkatkan AI gen di berbagai bidang utama mendorong perubahan dengan membantu para pemikir terbaik Anda membangun dan memberikan solusi baru yang inovatif.
Latih, validasi, lakukan tuning, dan terapkan AI generatif, model dasar, dan kemampuan machine learning dengan IBM watsonx.ai, studio perusahaan generasi berikutnya untuk pembangun AI. Bangun aplikasi AI dalam waktu singkat, dengan sedikit data.
Gunakan AI di bisnis Anda dalam perpaduan antara keahlian AI terdepan di industri dari IBM dan portofolio solusi Anda.
Temukan kembali alur kerja dan operasi yang penting dengan menambahkan AI untuk memaksimalkan pengalaman, pengambilan keputusan secara real-time, dan nilai bisnis.