Undang-Undang Kecerdasan Buatan Eropa mendorong tingkat baru pengawasan manusia dan kepatuhan terhadap peraturan untuk kecerdasan buatan (AI) di Uni Eropa. Mirip dengan GDPR untuk privasi, Undang-Undang AI UE memiliki potensi untuk mengatur aspek peraturan AI yang akan datang di seluruh dunia.
Pada awal tahun 2024, Parlemen Eropa yang terdiri dari 27 negara anggota, dengan suara bulat mendukung Undang-Undang AI UE. Undang-undang ini sekarang sedang dalam tahap akhir proses legislasi dan diharapkan akan diluncurkan secara bertahap pada paruh kedua tahun 2024. Memahami ketentuan Undang-Undang AI UE (tautan berada di luar ibm.com) dan bersiap untuk kepatuhan sangat penting bagi organisasi mana pun yang mengembangkan, menerapkan, atau menggunakan AI — atau berencana melakukannya.
Undang-Undang AI bertujuan untuk "memperkuat posisi Eropa sebagai pusat keunggulan global dalam bidang AI dari laboratorium hingga pasar, memastikan bahwa AI di Eropa menghormati nilai-nilai dan aturan yang ditetapkan, dan memanfaatkan potensi AI untuk keperluan industri".
— Berita Parlemen Eropa (tautan berada di luar ibm.com)
Fokus utama dari UU AI UE adalah untuk memperkuat kepatuhan terhadap peraturan di bidang manajemen risiko, perlindungan data, sistem manajemen mutu, transparansi, pengawasan manusia, akurasi, ketahanan, dan keamanan siber. UU ini bertujuan untuk mendorong transparansi dan akuntabilitas dalam cara sistem AI dikembangkan dan digunakan, membantu memastikan bahwa produk AI yang ditempatkan di pasar aman untuk digunakan oleh individu.
UU AI Uni Eropa bertujuan untuk menjawab tantangan mengembangkan dan menerapkan AI secara bertanggung jawab di seluruh industri, termasuk industri yang memiliki regulasi yang ketat seperti perawatan kesehatan, keuangan, dan energi. Untuk industri yang menyediakan layanan esensial bagi klien seperti asuransi, perbankan, dan retail, undang-undang mewajibkan penggunaan penilaian dampak hak asasi manusia yang memperinci bagaimana penggunaan AI akan memengaruhi hak-hak pelanggan.
Undang-Undang AI UE mengharuskan model AI tujuan umum, termasuk sistem AI generatif seperti bahasa besar (LLM) dan model dasar, mematuhi sistem klasifikasi berdasarkan jenjang risiko sistematis. Jenjang risiko yang lebih tinggi memiliki persyaratan transparansi yang lebih besar termasuk evaluasi model, dokumentasi, dan pelaporan. Jenjang ini juga melibatkan penilaian dan mitigasi risiko sistem, pelaporan insiden serius, dan memberikan perlindungan terhadap keamanan siber. Selain itu, persyaratan transparansi ini mencakup pemeliharaan dokumentasi teknis terbaru, menyediakan ringkasan konten yang digunakan untuk pelatihan model, dan mematuhi undang-undang hak cipta Eropa.
Undang-undang AI UE mengikuti pendekatan berbasis risiko, menggunakan tingkatan untuk mengklasifikasikan tingkat risiko yang ditimbulkan oleh sistem AI terhadap kesehatan, keselamatan, atau hak dasar individu. Tiga tingkatan tersebut adalah:
UU AI UE juga memberlakukan aturan tentang bagaimana pelanggan diberitahu ketika menggunakan chatbot atau ketika sistem pengenalan emosi digunakan. Ada persyaratan tambahan untuk melabeli deep fakes dan mengidentifikasi kapan konten AI generatif digunakan di media.
Kegagalan dalam mematuhi Undang-Undang AI UE dapat menimbulkan biaya yang mahal (tautan berada di luar ibm.com):
7,5 juta euro atau 1,5% dari total omset tahunan perusahaan di seluruh dunia (mana saja yang lebih tinggi) untuk penyediaan informasi yang tidak benar. 15 juta euro atau 3% dari total omset tahunan perusahaan di seluruh dunia (mana saja yang lebih tinggi) untuk pelanggaran kewajiban UU AI UE.
— VentureBeat
European AI Act saat ini merupakan kerangka hukum paling komprehensif untuk peraturan AI. Pemerintah di seluruh dunia memperhatikan dan secara aktif mendiskusikan cara mengatur teknologi AI untuk memastikan warga negara, bisnis, dan lembaga pemerintah mereka terlindungi dari potensi risiko. Selain itu, para pemangku kepentingan mulai dari dewan perusahaan hingga konsumen mulai memprioritaskan kepercayaan, transparansi, keadilan, dan akuntabilitas dalam hal AI.
IBM watsonx.governance membantu Anda mempercepat alur kerja AI yang bertanggung jawab, transparan, dan dapat dijelaskan
IBM watsonx.governance memungkinkan Anda mempercepat tata kelola AI Anda, mengarahkan, mengelola, dan memantau aktivitas AI organisasi Anda. Ini menggunakan otomatisasi perangkat lunak untuk memperkuat kemampuan Anda dalam memitigasi risiko, mengelola persyaratan kebijakan, dan mengatur siklus hidup untuk model AI generatif dan machine learning prediktif (ML).
watsonx.governance membantu mendorong transparansi model, kejelasan, dan dokumentasi di 3 bidang utama:
Klien bertanggung jawab untuk memastikan kepatuhan terhadap hukum dan peraturan yang berlaku. IBM tidak memberikan nasihat hukum atau menyatakan atau menjamin bahwa layanan atau produknya akan memastikan bahwa klien mematuhi hukum atau peraturan apa pun.