Beranda Topics eu ai act Apa yang dimaksud dengan Undang-Undang Kecerdasan Buatan Uni Eropa (EU AI Act)?
Jelajahi solusi tata kelola AI IBM Berlangganan pembaruan AI
Diagram abstrak Decision Tree

Diterbitkan: 8 April 2024
Kontributor: Matt Kosinski

Apa itu Undang-Undang AI UE?

Undang-Undang Kecerdasan Buatan Uni Eropa, atau Undang-Undang AI UE, adalah undang-undang yang mengatur pengembangan dan penggunaan kecerdasan buatan di Uni Eropa (UE). Undang-undang ini mengambil pendekatan berbasis risiko terhadap regulasi, menerapkan aturan yang berbeda untuk sistem AI sesuai dengan ancaman yang mereka timbulkan terhadap kesehatan, keselamatan, dan hak asasi manusia.

Dianggap sebagai kerangka kerja regulasi komprehensif pertama di dunia untuk aplikasi AI, UU AI UE melarang beberapa penggunaan AI secara langsung dan menerapkan standar keamanan dan transparansi yang ketat untuk yang lainnya.

Undang-undang ini juga menciptakan aturan yang ditargetkan untuk merancang, melatih, dan menerapkan model kecerdasan buatan untuk tujuan umum, seperti model dasar yang mendukung ChatGPT dan Google Gemini.

Denda atas ketidakpatuhan dapat mencapai EUR 35.000.000 atau 7% dari pendapatan tahunan perusahaan di seluruh dunia, mana saja yang lebih tinggi.

Dengan cara yang sama seperti Peraturan Perlindungan Data Umum (GDPR) UE yang mengilhami negara-negara lain untuk mengadopsi undang-undang privasi data, para pakar mengantisipasi Undang-Undang AI UE akan memacu pengembangan tata kelola AI dan standar etika yang lebih kuat di seluruh dunia.

Apa arti Undang-Undang AI UE bagi Anda dan bagaimana cara untuk menyiapkan diri
Konten terkait

Mendaftar untuk mendapatkan laporan IDC

Untuk siapa Undang-Undang AI UE berlaku?

Undang-Undang AI UE berlaku untuk penyedia, penyebar, importir, dan distributor sistem dan model AI di UE.

Undang-undang ini mendefinisikan sistem AI sebagai sistem yang dapat, dengan tingkat otonomi tertentu, memproses input untuk menghasilkan output yang memengaruhi manusia dan lingkungan. Output yang berpengaruh ini mencakup hal-hal seperti prediksi, keputusan, dan konten. 

Dalam bahasa undang-undang, model AI terutama mengacu pada AI tujuan umum (GPAI) yang dapat diadaptasi untuk membangun berbagai sistem AI. Misalnya, model bahasa besar GPT-4 adalah model AI. Chatbot ChatGPT yang dibangun di atas GPT-4 adalah sistem AI.

Istilah penting lainnya dalam UU ini:

  • Penyedia adalah orang dan organisasi yang membuat sistem dan model AI.

  • Deployer adalah orang dan organisasi yang menggunakan alat AI. Misalnya, organisasi yang membeli dan menggunakan chatbot AI untuk menangani pertanyaan layanan pelanggan akan disebut sebagai deployer.

  • Importir adalah orang dan organisasi yang membawa sistem dan model AI dari luar Eropa ke pasar UE.
Aplikasi di luar UE

Undang-Undang AI UE berlaku untuk orang dan organisasi di luar Eropa jika alat AI mereka, atau hasil dari alat tersebut, digunakan di UE. 

Sebagai contoh, katakanlah sebuah perusahaan di Uni Eropa mengirimkan data pelanggan ke pihak ketiga di luar Uni Eropa, dan pihak ketiga tersebut menggunakan AI untuk memproses data pelanggan dan mengirimkan hasilnya kembali ke perusahaan. Karena perusahaan menggunakan output dari sistem AI pihak ketiga di dalam UE, maka pihak ketiga tersebut terikat oleh Undang-Undang AI UE. 

Penyedia di luar UE yang menawarkan layanan AI di UE harus menunjuk perwakilan resmi di UE untuk mengoordinasikan upaya kepatuhan atas nama mereka.

Pengecualian

Meskipun undang-undang ini memiliki jangkauan yang luas, beberapa penggunaan AI dikecualikan. Ini termasuk:

  • Penggunaan pribadi murni

  • Model dan sistem yang dikembangkan semata-mata untuk militer dan pertahanan nasional

  • Model dan sistem yang hanya digunakan untuk penelitian dan pengembangan

  • Model AI gratis, sumber terbuka, dan berisiko rendah yang membagikan parameter dan arsitekturnya secara publik dikecualikan dari sebagian besar aturan AI Act, namun tidak semua. (Lihat "Aturan model AI untuk tujuan umum (GPAI)" di bawah untuk informasi lebih lanjut.)
Pelajari bagaimana platform AI dan data IBM watsonx membantu organisasi membangun aplikasi AI yang bertanggung jawab dan memenuhi kepatuhan
Pelajari bagaimana platform AI dan data IBM watsonx membantu organisasi membangun aplikasi AI yang bertanggung jawab dan memenuhi kepatuhan
Persyaratan apa yang diberlakukan oleh Undang-Undang AI UE?

Undang-Undang AI UE berisi sejumlah aturan yang dimaksudkan untuk mendukung penggunaan dan pengembangan AI yang bertanggung jawab. Beberapa ketentuan yang paling penting termasuk larangan terhadap AI yang berbahaya, standar untuk mengembangkan dan menerapkan AI berisiko tinggi, kewajiban transparansi, dan aturan untuk model tujuan umum. 

Perlu dicatat bahwa banyak detail yang lebih baik dari EU AI Act seputar implementasi masih sedang diselesaikan. Misalnya, undang-undang tersebut mencatat bahwa Komisi Eropa akan merilis panduan lebih lanjut tentang persyaratan seperti rencana pemantauan pasca-pasar dan ringkasan data pelatihan. 

Peraturan AI berbasis risiko

Undang-Undang AI Uni Eropa memilah sistem AI ke dalam beberapa kategori berdasarkan tingkat risiko. Risiko di sini mengacu pada kemungkinan dan tingkat keparahan potensi bahaya yang dapat ditimbulkan oleh AI terhadap kesehatan, keselamatan, atau hak asasi manusia. 

Secara umum, undang-undang tersebut membahas empat kategori risiko AI:

·       Risiko yang tidak dapat diterima

·       Risiko tinggi

·       Risiko terbatas

·       Risiko minimal

Risiko yang tidak dapat diterima

Aplikasi AI yang menimbulkan tingkat risiko yang tidak dapat diterima dilarang. Undang-Undang AI UE secara eksplisit mencantumkan semua praktik AI yang dilarang, yang meliputi:

  • Sistem yang dengan sengaja memanipulasi orang untuk membuat pilihan berbahaya yang tidak akan mereka lakukan.

  • Sistem yang mengeksploitasi usia, disabilitas, atau status sosial atau ekonomi seseorang untuk memengaruhi perilaku mereka secara material. 

  • Sistem kategorisasi biometrik yang menggunakan data biometrik untuk menyimpulkan informasi pribadi yang sensitif, seperti ras, orientasi seksual, atau opini politik.

  • Sistem penilaian sosial yang menggunakan perilaku dan karakteristik yang tidak relevan atau tidak penting untuk mendorong perlakuan yang merugikan orang lain.

  • Sistem identifikasi biometrik jarak jauh secara real-time yang digunakan di tempat umum untuk tujuan penegakan hukum. Ada beberapa pengecualian sempit di sini, seperti menggunakan alat ini dalam pencarian yang ditargetkan untuk korban kejahatan serius tertentu.

  • Sistem pemolisian prediktif yang membuat profil orang untuk mengevaluasi kemungkinan mereka melakukan kejahatan. 

  • Basis data pengenalan wajah yang melakukan penggalian tanpa target dari gambar internet atau CCTV.

  • Alat pengenalan emosi yang digunakan di sekolah atau tempat kerja, kecuali jika alat ini digunakan untuk tujuan medis atau keselamatan.

Komisi Eropa berhak untuk meninjau kembali dan mengubah daftar ini, sehingga ada kemungkinan lebih banyak lagi penggunaan AI yang akan dilarang di masa depan.

Berisiko tinggi

Sebagian besar tindakan berkaitan dengan sistem AI berisiko tinggi. Ada dua cara agar sistem dianggap berisiko tinggi berdasarkan Undang-Undang AI UE: jika digunakan dalam produk yang diatur atau secara eksplisit disebut berisiko tinggi. 

Produk di beberapa sektor, seperti mainan, peralatan radio, dan peralatan medis, sudah diatur oleh undang-undang Uni Eropa yang sudah ada sebelumnya. Setiap sistem AI yang berfungsi sebagai komponen keselamatan dari produk yang diatur ini, atau yang bertindak sebagai produk yang diatur itu sendiri, secara otomatis dianggap berisiko tinggi. 

Undang-undang tersebut juga mencantumkan penggunaan AI tertentu yang selalu dianggap berisiko tinggi. Ini termasuk:

  • Sistem biometrik apa pun yang tidak secara tegas dilarang oleh Undang-Undang AI UE atau undang-undang UE atau negara anggota lainnya, kecuali sistem yang memverifikasi identitas seseorang (misalnya, menggunakan pemindai sidik jari untuk memberi seseorang akses ke aplikasi perbankan).

  • Sistem yang digunakan sebagai komponen keselamatan untuk infrastruktur penting, seperti pasokan air, gas, dan listrik.

  • Sistem yang digunakan dalam pelatihan pendidikan dan kejuruan, termasuk sistem yang memantau kinerja siswa, mendeteksi kecurangan, dan penerimaan langsung.

  • Sistem yang digunakan di lingkungan kerja, seperti yang digunakan untuk merekrut kandidat, mengevaluasi pelamar, dan membuat keputusan promosi.

  • Sistem yang digunakan untuk menentukan akses ke layanan swasta atau publik yang penting, termasuk sistem yang menilai kelayakan untuk tunjangan publik dan mengevaluasi nilai kredit. Ini tidak termasuk sistem yang digunakan untuk mendeteksi penipuan keuangan.

  • Sistem yang digunakan untuk penegakan hukum, seperti poligraf berkemampuan AI dan analisis bukti.

  • Sistem yang digunakan untuk migrasi dan kontrol perbatasan, seperti sistem yang memproses aplikasi visa. Ini tidak termasuk sistem yang memverifikasi dokumen perjalanan.

  • Sistem yang digunakan dalam proses peradilan dan demokrasi, seperti sistem yang secara langsung memengaruhi hasil pemilu.

  • Pembuatan profil—memproses data pribadi secara otomatis untuk mengevaluasi atau memprediksi beberapa aspek kehidupan seseorang, seperti preferensi produk mereka—selalu berisiko tinggi.

Seperti daftar AI yang dilarang, Komisi Eropa dapat memperbarui daftar ini di masa mendatang.

Penyedia sistem berisiko tinggi harus mengikuti aturan ini:

  • Menerapkan sistem manajemen risiko berkelanjutan untuk memantau AI dan memastikan kepatuhan sepanjang siklus hidupnya. Penyedia diharapkan untuk mengurangi risiko yang ditimbulkan oleh penggunaan yang dimaksudkan dan penyalahgunaan yang dapat diperkirakan dari sistem mereka.

  • Terapkan standar tata kelola data yang ketat untuk memastikan bahwa data pelatihan dan pengujian dikumpulkan, ditangani, dan dilindungi dengan benar. Data juga harus berkualitas tinggi, relevan dengan tujuan sistem, dan bebas dari bias.

  • Memelihara dokumentasi teknis yang komprehensif mengenai spesifikasi desain sistem, kemampuan, batasan, dan upaya kepatuhan terhadap peraturan.

  • Menerapkan log peristiwa otomatis di alat AI untuk membantu melacak operasi sistem, melacak hasil, dan mengidentifikasi risiko dan insiden serius.

  • Menyediakan informasi yang dibutuhkan oleh para pengguna sistem AI untuk mematuhi peraturan, termasuk instruksi yang jelas tentang cara menggunakan sistem, menafsirkan hasil, dan memitigasi risiko.

  • Merancang sistem untuk mendukung dan memungkinkan pengawasan manusia, seperti dengan menyediakan antarmuka yang memungkinkan pengguna untuk memantau, menimpa, dan mengintervensi operasi sistem.

  • Memastikan bahwa sistem AI cukup akurat, kuat, dan aman. Ini dapat mencakup membuat sistem cadangan, merancang algoritma untuk menghindari bias, dan menerapkan kontrol keamanan siber yang sesuai.

Jika sistem AI termasuk dalam salah satu kategori berisiko tinggi namun tidak menimbulkan ancaman signifikan terhadap kesehatan, keselamatan, atau hak-hak, penyedia layanan dapat mengesampingkan persyaratan ini. Penyedia harus mendokumentasikan bukti bahwa sistem tersebut tidak menimbulkan risiko, dan regulator dapat menghukum organisasi yang salah mengklasifikasikan sistem.

Pelajari bagaimana watsonx.governance membantu organisasi memitigasi risiko, mengelola kebijakan, dan memenuhi persyaratan kepatuhan dengan alur kerja AI yang dapat dijelaskan
Risiko terbatas

Sistem AI dengan risiko terbatas adalah sistem yang memenuhi kewajiban transparansi tertentu—aturan yang harus diikuti oleh jenis AI tertentu terlepas dari tingkat risikonya. Aturan-aturan ini meliputi:

  • Sistem AI harus menginformasikan dengan jelas kepada pengguna ketika mereka berinteraksi dengan kecerdasan buatan. Misalnya, chatbot harus memberi tahu orang-orang bahwa itu adalah chatbot.

  • Organisasi harus memberi tahu orang-orang setiap kali mereka menggunakan sistem pengenalan emosi atau kategorisasi biometrik. Setiap data pribadi yang dikumpulkan melalui sistem ini harus ditangani sesuai dengan GDPR. 

  • Sistem AI generatif yang membuat teks, gambar, atau konten lainnya harus menggunakan tanda air atau sinyal lain yang dapat dibaca mesin untuk menandai konten tersebut sebagai konten yang dibuat oleh AI. 

  • Deployer harus dengan jelas memberi label deepfake dan mengomunikasikan fakta ini kepada audiens.

  • Deployer yang menggunakan AI untuk menghasilkan teks tentang hal-hal yang menyangkut kepentingan publik, seperti artikel berita, harus melabeli teks tersebut sebagai teks yang dihasilkan oleh AI , kecuali jika ada editor manusia yang mengulas dan bertanggung jawab atas teks tersebut.
Risiko minimal

Kategori risiko minimal (terkadang disebut 'kategori risiko minimal atau tanpa risiko') mencakup alat AI yang tidak berinteraksi langsung dengan manusia atau yang memiliki dampak material yang sangat kecil ketika berinteraksi. Contohnya termasuk filter spam email dan AI dalam video game. Banyak penggunaan AI umum saat ini termasuk dalam kategori ini. 

Sebagian besar peraturan UU AI tidak berlaku untuk AI dengan risiko minimal (meskipun beberapa mungkin perlu memenuhi kewajiban transparansi yang tercantum di atas).

Pelajari bagaimana watsonx.governance membantu organisasi memitigasi risiko, mengelola kebijakan, dan memenuhi persyaratan kepatuhan dengan alur kerja AI yang dapat dijelaskan
Aturan untuk model AI tujuan umum (GPAI)

Karena model GPAI sangat mudah beradaptasi, mungkin sulit untuk mengkategorikannya sesuai dengan tingkat risiko. Karena alasan ini, Undang-Undang AI UE menciptakan seperangkat aturan terpisah secara eksplisit untuk GPAI.

Semua penyedia model GPAI harus:

  • Menjaga dokumentasi teknis terbaru yang menjelaskan, antara lain, desain model, pengujian, dan proses pelatihan.

  • Memberikan deployer model mereka, seperti organisasi yang membangun sistem AI di atasnya, dengan informasi yang mereka butuhkan untuk menggunakan model secara bertanggung jawab. Informasi ini mencakup kemampuan, keterbatasan, dan tujuan yang dimaksudkan model.

  • Menetapkan kebijakan untuk mematuhi undang-undang hak cipta UE.

  • Menulis dan menyediakan ringkasan terperinci dari kumpulan data pelatihan untuk umum.

Sebagian besar model GPAI open-source gratis dikecualikan dari dua persyaratan pertama. Mereka hanya perlu mengikuti undang-undang hak cipta dan berbagi ringkasan data pelatihan.

Aturan untuk model GPAI yang menimbulkan risiko sistemik

Undang-Undang AI UE menganggap beberapa model GPAI menimbulkan risiko sistemik. Risiko sistemik adalah potensi suatu model untuk menyebabkan kerusakan serius dan luas terhadap kesehatan, keselamatan, atau hak-hak dasar masyarakat. 

Di bawah undang-undang tersebut, model dikatakan menimbulkan risiko sistemik jika memiliki "kemampuan berdampak tinggi". Pada dasarnya, ini berarti kemampuan model ini menyamai atau melampaui kemampuan GPAI paling canggih yang tersedia pada saat itu. 

Undang-undang tersebut menggunakan sumber daya pelatihan sebagai kriteria utama untuk mengidentifikasi risiko sistemik. Jika jumlah kumulatif daya komputasi yang digunakan untuk melatih model lebih besar dari 1025 floating point operations (FLOP), maka model tersebut dianggap memiliki kemampuan berdampak tinggi dan menimbulkan risiko sistemik. 

Komisi Eropa juga dapat mengklasifikasikan sebuah model sebagai risiko sistemik jika mereka menentukan bahwa model tersebut memiliki dampak yang setara dengan kemampuan berisiko tinggi tersebut, meskipun tidak memenuhi ambang batas FLOPs. 

Model GPAI yang menimbulkan risiko sistemik—termasuk model sumber terbuka dan gratis—harus memenuhi semua persyaratan sebelumnya ditambah beberapa kewajiban tambahan:

  • Melakukan evaluasi model terstandarisasi, termasuk pengujian adversarial, untuk mengidentifikasi dan memitigasi risiko sistemik.

  • Mendokumentasikan dan melaporkan insiden serius ke Kantor AI UE dan regulator tingkat negara yang relevan.

  • Menerapkan kontrol keamanan yang memadai untuk melindungi model dan infrastruktur fisiknya.

Penyedia model GPAI dapat mencapai kepatuhan dengan mengadopsi kode praktik sukarela, yang saat ini sedang disusun oleh Kantor AI Uni Eropa. Kode tersebut diharapkan selesai dalam waktu sembilan bulan setelah tindakan tersebut berlaku. Penyedia yang tidak mengadopsi kode ini harus membuktikan kepatuhan mereka dengan cara lain. 

Persyaratan tambahan

Penyedia, penyebar, importir, dan distributor secara umum bertanggung jawab untuk memastikan produk AI yang mereka buat, gunakan, atau edarkan sudah sesuai. Mereka harus mendokumentasikan bukti kepatuhan mereka dan membagikannya dengan pihak berwenang atas permintaan. Mereka juga harus berbagi informasi dan bekerja sama satu sama lain untuk memastikan bahwa setiap organisasi dalam rantai pasokan AI dapat mematuhi Undang-Undang AI UE.

Penyedia dan deployer juga harus memastikan bahwa anggota staf atau pihak lain yang bekerja dengan AI atas nama organisasi memiliki literasi AI yang diperlukan untuk menangani AI secara bertanggung jawab.

Di luar persyaratan umum ini, masing-masing pihak mempunyai kewajiban spesifiknya sendiri.

Kewajiban untuk penyedia
  • Merancang sistem dan model AI untuk memenuhi persyaratan yang relevan.

  • Kirimkan produk AI baru yang berisiko tinggi kepada pihak yang berwenang untuk penilaian kesesuaian sebelum dipasarkan. Penilaian kesesuaian adalah evaluasi pihak ketiga atas kepatuhan produk dengan Undang-Undang AI UE. 

  • Jika penyedia melakukan perubahan substansial pada produk AI yang mengubah tujuan atau memengaruhi status kepatuhannya, penyedia harus menyerahkan kembali produk tersebut untuk dinilai.

  • Mendaftarkan produk AI berisiko tinggi ke basis data tingkat Uni Eropa.

  • Menerapkan rencana pemantauan pasca-pasar untuk melacak kinerja AI dan memastikan kepatuhan yang berkelanjutan selama siklus hidup sistem.

  • Melaporkan insiden AI yang serius—seperti kematian, gangguan infrastruktur penting, dan pelanggaran hak-hak dasar—kepada otoritas negara anggota dan mengambil tindakan korektif yang diperlukan. 
Kewajiban untuk penyebar
  • Menggunakan sistem AI untuk tujuan yang dimaksudkan dan seperti yang diinstruksikan oleh penyedia.

  • Memastikan bahwa sistem yang berisiko tinggi memiliki pengawasan manusia yang tepat.

  • Menginformasikan kepada penyedia, distributor, pihak berwenang, dan pihak terkait lainnya tentang insiden AI yang serius.

  • Menyimpan log sistem AI selama setidaknya enam bulan atau lebih, tergantung pada undang-undang negara anggota.

  • Deployer yang menggunakan sistem AI berisiko tinggi untuk menyediakan layanan penting—seperti lembaga keuangan, badan pemerintah, dan lembaga penegak hukum—harus melakukan penilaian dampak hak asasi manusia sebelum menggunakan AI untuk pertama kalinya.
Kewajiban bagi importir dan distributor

Importir dan distributor harus memastikan bahwa sistem dan model AI yang mereka edarkan mematuhi Undang-Undang AI UE. 

Importir atau distributor dianggap sebagai penyedia AI jika mereka mencantumkan nama atau merek dagangnya sendiri pada suatu produk atau melakukan perubahan substansial pada produk tersebut. Dalam hal ini, importir atau distributor harus memikul semua tanggung jawab penyedia yang diuraikan dalam undang-undang.

Pelajari bagaimana IBM OpenPages dapat menyederhanakan tata kelola data dan kepatuhan terhadap peraturan
Bagaimana Undang-Undang AI UE ditegakkan?

Penegakan undang-undang tersebut akan dibagi antara beberapa badan yang berbeda.

Di tingkat Uni Eropa, Komisi Eropa telah membentuk Kantor AI untuk membantu mengoordinasikan penerapan yang konsisten dari undang-undang tersebut di seluruh negara anggota. Kantor AI juga akan secara langsung menegakkan peraturan GPAI, dengan kemampuan untuk mendenda organisasi dan memaksa tindakan perbaikan. 

Masing-masing negara anggota akan menunjuk otoritas kompeten nasional untuk menegakkan semua peraturan non-GPAI. Undang-undang ini mengharuskan setiap negara untuk membentuk dua otoritas yang berbeda: otoritas pengawasan pasar dan otoritas pemberitahuan.

Otoritas pengawasan pasar memastikan bahwa organisasi mematuhi Undang-Undang AI UE. Mereka dapat mendengar keluhan dari konsumen, menyelidiki pelanggaran, dan mendenda organisasi.

Otoritas pemberitahuan mengawasi pihak ketiga yang melakukan penilaian kesesuaian untuk produk AI berisiko tinggi baru.

Sanksi Undang-Undang AI UE

Jika melakukan praktik AI yang dilarang, organisasi dapat didenda hingga EUR 35.000.000 atau 7% dari omset di seluruh dunia, mana saja yang lebih tinggi.

Untuk pelanggaran lainnya, termasuk pelanggaran aturan GPAI, organisasi dapat didenda hingga EUR 15.000.000 atau 3% dari omset di seluruh dunia, mana saja yang lebih tinggi.

Karena memberikan informasi yang tidak benar atau menyesatkan kepada pihak berwenang, organisasi dapat didenda hingga EUR 7.500.000 atau 1% dari omset, mana yang lebih tinggi.

Khususnya, Undang-Undang AI UE memiliki aturan yang berbeda untuk mendenda startup dan organisasi kecil lainnya. Untuk bisnis ini, denda yang dikenakan adalah yang lebih rendah dari dua jumlah yang mungkin. Hal ini sejalan dengan upaya umum undang-undang untuk memastikan bahwa persyaratan tidak terlalu berat sehingga mengunci bisnis yang lebih kecil dari pasar AI.

Kapan Undang-Undang AI UE berlaku?

Parlemen Eropa menyetujui Undang-Undang AI UE pada 13 Maret 2024. Dewan Eropa akan menyelesaikan putaran terakhir pemeriksaan, dan undang-undang tersebut akan mulai berlaku 20 hari setelah publikasi di Jurnal Resmi Uni Eropa. Pengamat memperkirakan ini akan terjadi pada Mei 2024.

Undang-undang ini baru akan berlaku sepenuhnya tahun 2026, dengan ketentuan berbeda yang berlaku secara bertahap dari waktu ke waktu:

  • Pada enam bulan, larangan pada sistem berisiko yang tidak dapat diterima akan berlaku.

  • Dalam 12 bulan, aturan AI untuk tujuan umum akan berlaku untuk GPAI baru. Model GPAI yang sudah ada di pasaran memiliki waktu 24 bulan untuk mematuhinya.

  • Pada bulan ke-24, aturan untuk sistem AI berisiko tinggi akan diberlakukan.
Solusi terkait
watsonx

Terapkan dan sematkan AI dengan mudah di seluruh bisnis Anda, kelola semua sumber data, dan percepat alur kerja AI yang bertanggung jawab—semuanya dalam satu platform

Jelajahi watsonx

IBM OpenPages

Menyederhanakan tata kelola data, manajemen risiko, dan kepatuhan terhadap peraturan dengan IBM OpenPages — platform GRC yang sangat dapat ditingkatkan, didukung AI, dan terpadu.

Jelajahi OpenPages

Sumber daya Membangun alur kerja AI yang bertanggung jawab

Buku elektronik terbaru kami menguraikan fondasi utama tata kelola AI dan membagikan kerangka kerja tata kelola AI terperinci yang dapat Anda terapkan di organisasi Anda.

3 alasan mengapa organisasi Anda membutuhkan AI yang bertanggung jawab

Jelajahi potensi transformatif AI yang Bertanggung Jawab untuk organisasi Anda dan pelajari tentang faktor pendorong penting di balik penerapan praktik AI yang etis.

Apakah AI Anda dapat dipercaya?

Bergabunglah dalam diskusi tentang mengapa bisnis perlu memprioritaskan tata kelola AI untuk menerapkan AI yang bertanggung jawab.

Apa yang dimaksud dengan tata kelola data?

Pelajari bagaimana tata kelola data memastikan perusahaan mendapatkan hasil maksimal dari aset data mereka.

Apa yang dimaksud dengan Explainable AI?

AI yang dapat dijelaskan sangat penting bagi organisasi dalam membangun kepercayaan dan keyakinan saat menerapkan model AI ke dalam produksi.

Apa itu etika AI?

Etika AI adalah bidang multidisiplin yang mempelajari cara mengoptimalkan dampak menguntungkan dari AI sekaligus mengurangi risiko dan hasil yang merugikan. Baca tentang pendekatan IBM terhadap etika AI.

Ambil langkah selanjutnya

Mempercepat alur kerja AI yang bertanggung jawab, transparan, dan dapat dijelaskan di seluruh siklus hidup untuk model machine learning dan generatif. Mengarahkan, mengelola, dan memantau aktivitas AI organisasi Anda untuk mengelola peraturan AI yang berkembang dengan lebih baik serta mendeteksi dan memitigasi risiko.

Jelajahi watsonx.governance Pesan demo langsung