Beranda Page Title penyematan kata Apa itu penyematan kata?
Jelajahi platform AI kami Berlangganan pembaruan AI
Ilustrasi dengan kolase piktogram awan, diagram lingkaran, piktogram grafik

Diterbitkan: 23 Januari 2024
Kontributor: Joel Barnard

Apa itu penyematan kata?

Penyematan kata adalah cara merepresentasikan kata sebagai vektor dalam ruang multidimensi, dengan jarak dan arah antar vektor mencerminkan kesamaan dan hubungan di antara kata-kata yang terkait.

Pengembangan penyematan untuk merepresentasikan teks telah berperan besar dalam memajukan aplikasi pemrosesan bahasa alami (NLP) dan machine learning (ML). Penyematan kata telah menjadi bagian integral dari tugas-tugas seperti klasifikasi teks, analisis sentimen, terjemahan mesin, dan banyak lagi.

Metode tradisional untuk merepresentasikan kata dengan cara yang dapat dipahami mesin, seperti pengkodean one-hot, merepresentasikan setiap kata sebagai vektor yang jarang dengan dimensi yang sama dengan ukuran kosakata. Di sini, hanya satu elemen vektor yang berstatus "hot" (disetel ke 1) untuk menunjukkan keberadaan kata itu. Meskipun sederhana, pendekatan ini memiliki kekurangan yang berupa dimensi, kurangnya informasi semantik, dan tidak menangkap hubungan antar kata.

Penyematan kata, di sisi lain, adalah vektor padat dengan nilai kontinu yang dilatih menggunakan teknik machine learning, sering kali didasarkan pada neural network. Idenya adalah untuk mempelajari representasi yang mengkodekan makna semantik dan hubungan antar kata. Penyematan kata dilatih dengan memaparkan model ke sejumlah besar data teks dan menyesuaikan representasi vektor berdasarkan konteks kemunculan kata.

Salah satu metode populer untuk melatih penyematan kata adalah Word2Vec, yang menggunakan neural network untuk memprediksi kata-kata di sekitar kata target dalam konteks tertentu. Pendekatan lain yang banyak digunakan adalah GloVe (Global Vectors for Word Representation), yang memanfaatkan statistik global untuk membuat penyematan.

Penyematan kata telah terbukti sangat berguna untuk tugas-tugas NLP, karena memungkinkan algoritma machine learning untuk memahami dan memproses hubungan semantik antar kata dengan cara yang lebih spesifik dibandingkan dengan metode tradisional.

Mengapa tata kelola AI adalah keharusan bisnis untuk meningkatkan AI perusahaan

Pelajari hambatan adopsi AI, terutama kurangnya tata kelola AI dan solusi manajemen risiko.

Konten terkait

Daftar untuk mendapatkan panduan tentang model pondasi

Cara penggunaan penyematan kata

Penyematan kata digunakan dalam berbagai tugas NLP untuk meningkatkan representasi kata dan menangkap hubungan semantik, termasuk:

Klasifikasi teks

Penyematan kata sering digunakan sebagai fitur dalam tugas klasifikasi teks, seperti analisis sentimen, deteksi spam, dan pengkategorian topik.

Named Entity Recognition (NER)

Untuk mengidentifikasi dan mengklasifikasikan entitas secara akurat (misalnya, nama orang, organisasi, lokasi) dalam teks, penyematan kata membantu model memahami konteks dan hubungan antara kata-kata.

terjemahan mesin

Dalam sistem penerjemahan mesin, penyematan kata membantu merepresentasikan kata dengan cara yang terbebas dari pengaruh bahasa, sehingga model dapat lebih memahami hubungan semantik antar kata dalam bahasa sumber dan bahasa target.

Pencarian informasi

Dalam sistem pencarian informasi, penyematan kata dapat memungkinkan pencocokan yang lebih akurat antara pertanyaan pengguna dengan dokumen yang relevan, yang meningkatkan keefektifan mesin pencari dan sistem rekomendasi.

Menjawab pertanyaan

Penyematan kata berkontribusi pada keberhasilan sistem penjawab pertanyaan dengan meningkatkan pemahaman konteks dari pertanyaan yang diajukan dan jawaban yang ditemukan.

Kesamaan dan pengelompokan semantik

Penyematan kata memungkinkan pengukuran kemiripan semantik antara kata atau dokumen untuk tugas-tugas seperti mengelompokkan artikel terkait, menemukan dokumen serupa, atau merekomendasikan item serupa berdasarkan konten tekstualnya.

Pembuatan teks

Dalam tugas pembuatan teks, seperti pemodelan bahasa dan autoencoder, penyematan kata sering kali digunakan untuk mewakili teks input dan menghasilkan rangkaian output yang koheren dan relevan secara kontekstual.

Kesamaan dan analogi

Penyematan kata dapat digunakan untuk melakukan tugas kemiripan kata (misalnya, menemukan kata yang mirip dengan kata yang diberikan) dan tugas analogi kata (misalnya, "raja" sebanding dengan "ratu" seperti halnya "pria" sebanding dengan "wanita").

Model pelatihan sebelumnya

Penyematan kata yang telah dilatih sebelumnya berfungsi sebagai dasar untuk melatih model representasi bahasa yang lebih canggih, seperti BERT (Bidirectional Encoder Representations from Transformers) dan GPT (Generative Pre-trained Transformer).

Sejarah singkat penyematan kata

Pada tahun 2000-an, para peneliti mulai mengeksplorasi model bahasa neural (NLM), yang menggunakan neural network untuk memodelkan hubungan antar kata dalam ruang yang berkesinambungan. Model-model awal ini menjadi dasar untuk pengembangan penyematan kata mendatang.

Bengio dkk. (2003) memperkenalkan feedforward neural network untuk pemodelan bahasa. Model-model ini mampu menangkap representasi kata yang terdistribusi, tetapi kemampuannya terbatas dalam menangani kosakata yang besar.

Para peneliti, termasuk Mnih dan Hinton (2009), mengeksplorasi model-model probabilistik untuk mempelajari representasi kata yang terdistribusi. Model-model ini berfokus pada menangkap hubungan semantik antar kata dan merupakan langkah penting menuju terciptanya penyematan kata.

Model Word2Vec, yang diperkenalkan oleh Tomas Mikolov dan rekan-rekannya di Google pada tahun 2013, menandai sebuah terobosan yang signifikan. Word2Vec memanfaatkan dua model, Continuous Bag of Words (CBOW) dan Continuous Skip-gram, yang secara efisien mempelajari penyematan kata dari korpus besar dan telah diadopsi secara luas karena kesederhanaan dan keefektifannya.

GloVe (Global Vectors for Word Representation), yang diperkenalkan oleh Pennington dkk. pada tahun 2014, didasarkan pada ide menggunakan statistik global (frekuensi kemunculan kata) untuk mempelajari representasi vektor untuk kata-kata. Ini telah digunakan dalam berbagai aplikasi NLP dan dikenal karena kemampuannya untuk menangkap hubungan semantik.

Saat ini, dengan meningkatnya pembelajaran mendalam, lapisan penyematan telah menjadi komponen standar arsitektur neural network untuk tugas-tugas NLP. Penyematan sekarang digunakan tidak hanya untuk kata-kata tetapi juga untuk entitas, frasa, dan unit linguistik lainnya. Dalam kebanyakan kasus, penyematan kata telah memungkinkan model bahasa seperti neural network berulang (RNN), jaringan long short-term memory (LSTM), Embeddings from Language Models (ELMO), BERT, ALBERT (BERT ringan), dan GPT untuk berkembang dengan kecepatan yang sangat tinggi. 

Cara penyematan kata dibuat

Tujuan utama dari penyematan kata adalah untuk merepresentasikan kata-kata dengan cara yang dapat menangkap hubungan semantik dan informasi kontekstualnya. Vektor-vektor ini merupakan representasi numerik dalam ruang vektor kontinu, tempat posisi relatif vektor mencerminkan kemiripan semantik dan hubungan antar kata.

Alasan vektor digunakan untuk merepresentasikan kata adalah karena sebagian besar algoritma machine learning, termasuk neural network, tidak mampu memproses teks biasa dalam bentuk mentahnya. Mereka membutuhkan angka sebagai input untuk melakukan tugas apa pun.

Proses pembuatan penyematan kata melibatkan pelatihan model pada korpus teks yang besar (misalnya, Wikipedia atau Google News). Korpus diproses sebelumnya dengan mengubah teks menjadi kata-kata, menghapus kata-kata penghambat dan tanda baca, serta melakukan tugas-tugas pembersihan teks lainnya.

Jendela konteks geser diterapkan pada teks, dan untuk setiap kata target, kata-kata di sekitar jendela dianggap sebagai kata konteks. Model penyematan kata dilatih untuk memprediksi kata target berdasarkan konteks kata atau sebaliknya.

Hal ini memungkinkan model untuk menangkap pola linguistik yang beragam dan menetapkan setiap kata sebagai vektor unik, yang mewakili posisi kata dalam ruang vektor yang kontinu. Kata-kata yang memiliki arti yang sama diposisikan berdekatan satu sama lain, dan jarak serta arah antara vektor mengkodekan tingkat kemiripan.

Proses pelatihan melibatkan penyesuaian parameter model penyematan untuk meminimalkan perbedaan antara kata yang diprediksi dan kata yang sebenarnya dalam konteks.

Berikut adalah contoh penyematan kata yang disederhanakan untuk korpus yang sangat kecil (6 kata), dengan setiap kata direpresentasikan sebagai vektor 3 dimensi:

    kucing          [0,2, -0,4, 0,7]
    anjing         [0,6, 0,1, 0,5]
    apel      [0,8, -0,2, -0,3]
    jeruk   [0,7, -0,1, -0,6]
    senang     [-0,5, 0,9, 0,2]
    sedih         [0,4, -0,7, -0,5]

Dalam contoh ini, setiap kata (misalnya, "kucing", "anjing", "apel") dikaitkan dengan vektor unik. Nilai-nilai dalam vektor mewakili posisi kata dalam ruang vektor 3 dimensi kontinu. Kata-kata dengan arti atau konteks yang sama diharapkan memiliki representasi vektor yang serupa. Misalnya, vektor untuk "kucing" dan "anjing" berdekatan, mencerminkan hubungan semantik mereka. Demikian juga, vektor untuk "senang" dan "sedih" memiliki arah yang berlawanan, menunjukkan makna yang kontras.

Contoh di atas sangat disederhanakan untuk tujuan ilustrasi. Penyematan kata yang sebenarnya biasanya memiliki ratusan dimensi untuk menangkap hubungan yang lebih rumit dan perbedaan makna.

Aspek dasar penyematan kata

Penyematan kata telah menjadi alat yang fundamental dalam NLP, memberikan dasar untuk memahami dan merepresentasikan bahasa dengan cara yang selaras dengan semantik yang mendasari kata dan frasa.

Di bawah ini adalah beberapa konsep utama dan pengembangan yang telah membuat penggunaan penyematan kata menjadi teknik yang andal dalam membantu memajukan NLP.

Hipotesis Distribusi

Hipotesis Distribusi menyatakan bahwa kata-kata dengan makna yang sama cenderung muncul dalam konteks yang sama. Konsep ini menjadi dasar dari banyak model penyematan kata, karena bertujuan untuk menangkap hubungan semantik dengan menganalisis pola kemunculan kata yang bersamaan.

Pengurangan dimensi

Tidak seperti pengkodean one-hot tradisional, penyematan kata adalah vektor padat dengan dimensi yang lebih rendah. Hal ini mengurangi kompleksitas komputasi dan kebutuhan memori, sehingga cocok untuk aplikasi NLP berskala besar.

Representasi semantik

Penyematan kata menangkap hubungan semantik antara kata-kata, memungkinkan model untuk memahami dan merepresentasikan kata-kata dalam ruang vektor kontinu tempat kata-kata yang mirip berdekatan satu sama lain. Representasi semantik ini memungkinkan pemahaman bahasa yang lebih spesifik.

Informasi kontekstual

Penyematan kata menangkap informasi kontekstual dengan mempertimbangkan kata-kata yang muncul bersamaan dalam konteks tertentu. Hal ini membantu model memahami arti kata berdasarkan kata-kata di sekitarnya, sehingga menghasilkan representasi frasa dan kalimat yang lebih baik.

Generalisasi

Penyematan kata dapat digeneralisasi dengan baik pada kata-kata yang belum ditemui atau kata-kata langka karena mereka belajar merepresentasikan kata-kata berdasarkan konteksnya. Hal ini sangat menguntungkan ketika bekerja dengan kosakata yang beragam dan terus berkembang.

Dua pendekatan untuk penyematan kata

Metode penyematan berbasis frekuensi dan berbasis prediksi mewakili dua kategori pendekatan yang luas dalam konteks penyematan kata. Metode-metode ini utamanya berbeda dalam cara mereka menghasilkan representasi vektor untuk kata-kata.

Penyematan berbasis frekuensi

Penyematan berbasis frekuensi mengacu pada representasi kata yang berasal dari frekuensi kata-kata dalam korpus. Penyematan ini didasarkan pada gagasan bahwa tingkat kepentingan atau signifikansi sebuah kata dapat disimpulkan dari seberapa sering kata tersebut muncul dalam teks.

Salah satu contoh penyematan berbasis frekuensi adalah Term Frequency-Inverse Document Frequency (TF-IDF). TF-IDF dirancang untuk menyoroti kata-kata yang sering muncul di dalam dokumen tertentu dan relatif jarang muncul di seluruh korpus, sehingga membantu mengidentifikasi istilah-istilah yang penting untuk dokumen tertentu.

Skor TF-IDF untuk istilah (kata) dalam dokumen dihitung menggunakan rumus berikut:

    TF-IDF (t,d,D) = TF(t,d) x IDF(t, D)

Aplikasi TF-IDF meliputi pengambilan informasi, pemeringkatan dokumen, peringkasan teks, dan penambangan teks.

Meskipun penyematan berbasis frekuensi bersifat langsung dan mudah dipahami, tetapi tidak memiliki kedalaman informasi semantik dan kesadaran konteks yang disediakan oleh penyematan berbasis prediksi yang lebih canggih.

Penyematan berbasis prediksi

Penyematan berbasis prediksi adalah representasi kata yang berasal dari model yang dilatih untuk memprediksi aspek tertentu dari konteks kata atau kata-kata yang berdekatan. Tidak seperti penyematan berbasis frekuensi yang berfokus pada seberapa sering kata muncul, penyematan berbasis prediksi menangkap hubungan semantik dan informasi kontekstual, sehingga memberikan representasi yang lebih kaya akan makna kata.

Penyematan berbasis prediksi dapat membedakan sinonim dan menangani polisemi (arti ganda dari sebuah kata) dengan lebih efektif. Sifat ruang vektor dari penyematan berbasis prediksi memungkinkan tugas-tugas seperti mengukur kemiripan kata dan memecahkan analogi. Penyematan berbasis prediksi juga dapat menggeneralisasi dengan baik kata-kata yang belum ditemui atau konteks, sehingga membuatnya andal dalam menangani istilah di luar kosakata.

Metode berbasis prediksi, terutama yang seperti Word2Vec dan GloVe (dibahas di bawah), telah menjadi dominan di bidang penyematan kata karena kemampuannya untuk menangkap makna semantik yang kaya dan menggeneralisasi dengan baik untuk berbagai tugas NLP.

Word2Vec

Dikembangkan oleh tim peneliti di Google, termasuk Tomas Mikolov, pada tahun 2013, Word2Vec (Word to Vector) telah menjadi teknik dasar untuk mempelajari penyematan kata dalam model pemrosesan bahasa alami (NLP) dan machine learning.

Word2Vec terdiri dari dua model utama untuk menghasilkan representasi vektor: Continuous Bag of Words (CBOW) dan Continuous Skip-gram.

Dalam konteks Word2Vec, model Continuous Bag of Words (CBOW) bertujuan untuk memprediksi kata target berdasarkan kata konteks di sekitarnya dalam jendela tertentu. Sistem ini menggunakan kata-kata konteks untuk memprediksi kata target, dan penyematan yang dipelajari menangkap hubungan semantik antar kata.

Sebaliknya, model Continuous Skip-gram mengambil kata target sebagai input dan berusaha memprediksi kata konteks di sekitarnya.

Bagaimana model dilatih

Saat menerima urutan kata dalam sebuah kalimat, model CBOW mengambil sejumlah kata konteks (kata-kata di sekitar kata target) sebagai input. Setiap kata konteks direpresentasikan sebagai penyematan (vektor) melalui lapisan penyematan bersama. Penyematan ini dipelajari selama proses latihan.

Penyematan kata konteks individu dikumpulkan, biasanya dengan menjumlahkan atau merata-ratakannya. Representasi agregat ini berfungsi sebagai input ke lapisan berikutnya.

Representasi agregat kemudian digunakan untuk memprediksi kata target menggunakan fungsi aktivasi softmax. Model ini dilatih untuk meminimalkan perbedaan antara distribusi probabilitas yang diprediksi atas kosakata dan distribusi aktual (representasi one-hot encoded) untuk kata target.

Model CBOW dilatih dengan menyesuaikan bobot lapisan penyematan berdasarkan kemampuannya memprediksi kata target secara akurat.

Model Continuous Skip-gram menggunakan data latihan untuk memprediksi kata konteks berdasarkan penyematan kata target. Secara khusus, sistem ini menghasilkan distribusi probabilitas atas kosakata, yang mengindikasikan kemungkinan setiap kata berada dalam konteks yang diberikan oleh kata target.

Tujuan latihan adalah untuk memaksimalkan kemungkinan kata-kata konteks aktual yang diberikan kata target. Hal ini melibatkan penyesuaian bobot lapisan penyematan untuk meminimalkan perbedaan antara probabilitas yang diprediksi dan distribusi kata-kata konteks yang sebenarnya. Model ini juga memungkinkan ukuran jendela konteks yang fleksibel. Hal ini dapat disesuaikan berdasarkan persyaratan khusus dari tugas, memungkinkan pengguna untuk menangkap hubungan konteks lokal dan global.

Model Skip-gram pada dasarnya adalah "melompati" dari kata target untuk memprediksi konteksnya, yang membuatnya sangat efektif dalam menangkap hubungan semantik dan kemiripan antar kata.

Keuntungan dan keterbatasan

Kedua model yang digunakan oleh Word2Vec memiliki kelebihan dan keterbatasan masing-masing. Skip-gram bekerja dengan baik saat menangani sejumlah besar data teks dan terbukti mampu merepresentasikan kata-kata yang langka dengan baik. CBOW, di sisi lain, lebih cepat dan memiliki representasi yang lebih baik untuk kata-kata yang lebih sering muncul.

Terkait keterbatasannya, Word2Vec mungkin tidak secara efektif menangani polisemi, saat satu kata memiliki banyak arti. Model tersebut mungkin merata-ratakan atau mencampur representasi indera yang berbeda dari kata yang bersifat polisemi. Word2Vec juga memperlakukan kata-kata sebagai unit atom dan tidak menangkap informasi subkata.

Upaya mengatasi beberapa keterbatasan ini telah menjadi motivasi untuk pengembangan model yang lebih canggih, seperti FastText, GloVe, dan model berbasis transformator (dibahas di bawah), yang bertujuan untuk mengatasi beberapa kekurangan Word2Vec.

GloVe

GloVe (Global Vectors for Word Representation) adalah model penyematan kata yang dirancang untuk menangkap informasi statistik global tentang pola kemunculan kata secara bersamaan dalam korpus.

Diperkenalkan oleh Jeffrey Pennington, Richard Socher, dan Christopher D. Manning pada tahun 2014, model GloVe berbeda dari Word2Vec karena menekankan penggunaan informasi global alih-alih hanya berfokus pada konteks lokal.

GloVe didasarkan pada gagasan bahwa statistik global kemunculan kata yang bersamaan di seluruh korpus sangat penting untuk menangkap semantik kata. Ini mempertimbangkan seberapa sering kata-kata muncul bersama satu sama lain di seluruh kumpulan data, bukan hanya dalam konteks lokal kata-kata individual.

Model ini bertujuan untuk meminimalkan perbedaan antara probabilitas kemunculan bersama yang diprediksi dan probabilitas aktual yang berasal dari statistik korpus.

GloVe efisien secara komputasi dibandingkan dengan beberapa metode lain, karena mengandalkan statistik global dan menggunakan teknik faktorisasi matriks untuk mempelajari vektor kata. Model dapat dilatih pada korpus besar tanpa memerlukan sumber daya komputasi yang luas.

GloVe memperkenalkan bobot skalar untuk pasangan kata guna mengontrol pengaruh pasangan kata yang berbeda pada proses pelatihan. Bobot ini membantu mengurangi dampak pasangan kata yang sangat sering atau jarang pada penyematan yang dipelajari.

Mekanisme latihan

Tidak seperti model Word2Vec (CBOW dan Skip-gram), yang berfokus pada prediksi kata konteks yang diberikan kata target atau sebaliknya, GloVe menggunakan pendekatan yang berbeda yang melibatkan pengoptimalan vektor kata berdasarkan probabilitas kemunculan bersama. Proses latihan dirancang untuk mempelajari penyematan yang secara efektif menangkap hubungan semantik antar kata.

Langkah pertama adalah membangun matriks kemunculan bersama yang mewakili seberapa sering kata-kata muncul bersama dalam korpus.

Langkah selanjutnya adalah merumuskan fungsi objektif yang menggambarkan hubungan antara vektor kata dan probabilitas kemunculan bersama.

Fungsi tujuan dioptimalkan menggunakan penurunan gradien atau algoritma pengoptimalan lainnya. Tujuannya adalah menyesuaikan vektor kata dan bias untuk meminimalkan perbedaan kuadrat antara probabilitas kemunculan bersama logaritmik yang diprediksi dan yang sebenarnya.

Aplikasi dan contoh penggunaan

Pengguna dapat mengunduh penyematan GLove yang telah dilatih sebelumnya dan melakukan tuning untuk aplikasi tertentu atau menggunakannya secara langsung.

Penyematan GloVe banyak digunakan dalam tugas-tugas NLP, seperti klasifikasi teks, analisis sentimen, penerjemahan mesin, dan banyak lagi.

GloVe unggul dalam skenario ketika menangkap hubungan semantik global, memahami konteks keseluruhan kata, dan memanfaatkan statistik kemunculan bersama sangat penting untuk keberhasilan tugas pemrosesan bahasa alami.

Di luar Word2Vec dan GloVe

Keberhasilan Word2Vec dan GloVe telah menginspirasi penelitian lebih lanjut untuk model representasi bahasa yang lebih canggih, seperti FastText, BERT, dan GPT. Model ini memanfaatkan penyematan subkata, mekanisme atensi, dan transformator agar dapat menangani penyematan dimensi yang lebih tinggi secara efektif.

Penyematan subkata

Penyematan subkata, seperti FastText, merepresentasikan kata sebagai kombinasi unit subkata, sehingga memberikan fleksibilitas yang lebih besar dan mampu menangani kata-kata yang langka atau di luar kosakata. Penyematan subkata meningkatkan keandalan dan cakupan penyematan kata.

Tidak seperti GloVe, FastText menyematkan kata-kata dengan memperlakukan setiap kata sebagai terdiri dari karakter n-gram, bukan keseluruhan kata. Fitur ini memungkinkannya tidak hanya mempelajari kata-kata langka, tetapi juga kata-kata di luar kosakata.

Mekanisme atensi dan transformator

Mekanisme atensi dan model transformator mempertimbangkan informasi kontekstual dan hubungan dua arah antar kata, yang mengarah ke representasi bahasa yang lebih canggih.

Mekanisme atensi diperkenalkan untuk meningkatkan kemampuan neural network untuk berfokus pada bagian tertentu dari urutan input ketika membuat prediksi. Alih-alih memberikan perlakuan yang sama pada semua bagian input, mekanisme atensi mendorong model agar secara selektif memperhatikan bagian yang relevan dari input.

Transformator telah menjadi tulang punggung dari berbagai model mutakhir dalam NLP, termasuk di antaranya BERT, GPT, dan T5 (Text-to-Text Transfer Transformer). Mereka unggul dalam tugas-tugas seperti pemodelan bahasa, terjemahan mesin, pembuatan teks, dan penjawaban pertanyaan.

Transformator menggunakan mekanisme atensi mandiri untuk menangkap hubungan antara kata yang berbeda dalam suatu urutan. Mekanisme ini memungkinkan setiap kata untuk memperhatikan semua kata lain dalam urutan, menangkap dependensi jarak jauh.

Transformator memungkinkan lebih banyak pemahaman paralel selama latihan dibandingkan dengan RNN dan efisien secara komputasi.

Solusi terkait
IBM Natural Language Understanding

IBM Watson Natural Language Understanding menggunakan pembelajaran mendalam untuk mengekstrak makna dan metadata dari data teks yang tidak terstruktur. Gali data Anda menggunakan analisis teks untuk mengekstrak kategori, klasifikasi, entitas, kata kunci, sentimen, emosi, relasi, dan sintaksis.

Jelajahi NLU

IBM watsonx

Lipat gandakan kekuatan AI dengan platform AI dan data generasi berikutnya. IBM watsonx adalah portofolio alat, aplikasi, dan solusi siap bisnis, yang dirancang untuk mengurangi biaya dan rintangan adopsi AI sambil mengoptimalkan hasil dan penggunaan AI yang bertanggung jawab.

Jelajahi watsonx

Solusi IBM AI

Mengoperasikan AI di seluruh bisnis Anda untuk memberikan manfaat dengan cepat dan etis. Portofolio produk AI dan solusi analitik kelas bisnis kami yang lengkap dirancang untuk mengurangi rintangan adopsi AI dan membangun fondasi data yang tepat, sekaligus mengoptimalkan hasil dan penggunaan yang bertanggung jawab.

Jelajahi solusi AI
Resources Apa yang dimaksud dengan machine learning?

Dapatkan insight tentang bagaimana ML memanfaatkan data dan algoritme, contoh penggunaannya, dan hal-hal terkait untuk memberdayakan penggunaan teknologi yang bertanggung jawab dan inovatif.

AI vs. pembelajaran mesin vs. pembelajaran mendalam vs. jaringan neural: Apa bedanya?

Meski AI, ML, pembelajaran mendalam, dan neural network adalah teknologi yang berkaitan, istilah-istilah ini sering digunakan secara bergantian. Postingan blog ini akan mengklarifikasi beberapa ambiguitas.

Panduan pemula untuk Python

Python adalah bahasa pemrograman yang biasa digunakan dengan penyematan. Panduan ini akan memperkenalkan Anda pada beberapa konsep dasar yang perlu Anda ketahui untuk memulai dengan bahasa pemrograman yang sederhana ini.

Ambil langkah selanjutnya

Latih, validasi, lakukan tuning, dan terapkan AI generatif, model dasar, dan kemampuan machine learning dengan IBM watsonx.ai, studio perusahaan generasi berikutnya untuk pembangun AI. Bangun aplikasi AI dalam waktu singkat, dengan sedikit data.

Jelajahi watsonx.ai Pesan demo langsung