Mempersiapkan Undang-Undang AI UE: Mendapatkan tata kelola yang benar

8 Februari 2024

Bacaan 4 menit

Undang-Undang Kecerdasan Buatan Eropa mendorong tingkat baru pengawasan manusia dan kepatuhan terhadap peraturan untuk kecerdasan buatan (AI) di Uni Eropa. Mirip dengan GDPR untuk privasi, Undang-Undang AI UE memiliki potensi untuk mengatur aspek peraturan AI yang akan datang di seluruh dunia.

Pada awal tahun 2024, Parlemen Eropa yang terdiri dari 27 negara anggota, dengan suara bulat mendukung Undang-Undang AI UE. Undang-undang ini sekarang sedang dalam tahap akhir proses legislasi dan diharapkan akan diluncurkan secara bertahap pada paruh kedua tahun 2024. Memahami ketentuan Undang-Undang AI UE (tautan berada di luar ibm.com) dan bersiap untuk kepatuhan sangat penting bagi organisasi mana pun yang mengembangkan, menerapkan, atau menggunakan AI — atau berencana melakukannya.

Undang-Undang AI bertujuan untuk "memperkuat posisi Eropa sebagai pusat keunggulan global dalam bidang AI dari laboratorium hingga pasar, memastikan bahwa AI di Eropa menghormati nilai-nilai dan aturan yang ditetapkan, dan memanfaatkan potensi AI untuk keperluan industri".

Berita Parlemen Eropa (tautan berada di luar ibm.com)

Undang-Undang AI Uni Eropa secara singkat

Fokus utama dari UU AI UE adalah untuk memperkuat kepatuhan terhadap peraturan di bidang manajemen risiko, perlindungan data, sistem manajemen mutu, transparansi, pengawasan manusia, akurasi, ketahanan, dan keamanan siber. UU ini bertujuan untuk mendorong transparansi dan akuntabilitas dalam cara sistem AI dikembangkan dan digunakan, membantu memastikan bahwa produk AI yang ditempatkan di pasar aman untuk digunakan oleh individu.

UU AI Uni Eropa bertujuan untuk menjawab tantangan mengembangkan dan menerapkan AI secara bertanggung jawab di seluruh industri, termasuk industri yang memiliki regulasi yang ketat seperti perawatan kesehatan, keuangan, dan energi. Untuk industri yang menyediakan layanan esensial bagi klien seperti asuransi, perbankan, dan retail, undang-undang mewajibkan penggunaan penilaian dampak hak asasi manusia yang memperinci bagaimana penggunaan AI akan memengaruhi hak-hak pelanggan.

Landasan UU AI Uni Eropa: Perlindungan untuk mencegah risiko yang tidak dapat diterima

Undang-Undang AI UE mengharuskan model AI tujuan umum, termasuk sistem AI generatif seperti bahasa besar (LLM) dan model dasar, mematuhi sistem klasifikasi berdasarkan jenjang risiko sistematis. Jenjang risiko yang lebih tinggi memiliki persyaratan transparansi yang lebih besar termasuk evaluasi model, dokumentasi, dan pelaporan. Jenjang ini juga melibatkan penilaian dan mitigasi risiko sistem, pelaporan insiden serius, dan memberikan perlindungan terhadap keamanan siber. Selain itu, persyaratan transparansi ini mencakup pemeliharaan dokumentasi teknis terbaru, menyediakan ringkasan konten yang digunakan untuk pelatihan model, dan mematuhi undang-undang hak cipta Eropa.

Undang-undang AI UE mengikuti pendekatan berbasis risiko, menggunakan tingkatan untuk mengklasifikasikan tingkat risiko yang ditimbulkan oleh sistem AI terhadap kesehatan, keselamatan, atau hak dasar individu. Tiga tingkatan tersebut adalah:

  • Sistem berisiko rendah seperti filter spam atau video game hanya memiliki sedikit persyaratan di bawah undang-undang ini selain kewajiban transparansi. 
  • Sistem AI berisiko tinggi seperti kendaraan otonom, perangkat medis, dan infrastruktur penting (air, gas, listrik, dll.) mengharuskan pengembang dan pengguna untuk mematuhi persyaratan peraturan tambahan:
    • Menerapkan manajemen risiko, memberikan akurasi, ketangguhan, dan kerangka kerja untuk akuntabilitas yang mencakup pengawasan oleh manusia
    • Memenuhi persyaratan transparansi yang disediakan untuk pengguna, pencatatan, dan dokumentasi teknis
  • Sistem yang dilarang dengan sedikit pengecualian adalah sistem yang memiliki risiko yang tidak dapat diterima seperti penilaian sosial, pengenalan wajah, pengenalan emosi, dan sistem identifikasi biometrik jarak jauh di ruang publik.

UU AI UE juga memberlakukan aturan tentang bagaimana pelanggan diberitahu ketika menggunakan chatbot atau ketika sistem pengenalan emosi digunakan. Ada persyaratan tambahan untuk melabeli deep fakes dan mengidentifikasi kapan konten AI generatif digunakan di media.

Kegagalan dalam mematuhi Undang-Undang AI UE dapat menimbulkan biaya yang mahal (tautan berada di luar ibm.com):

7,5 juta euro atau 1,5% dari total omset tahunan perusahaan di seluruh dunia (mana saja yang lebih tinggi) untuk penyediaan informasi yang tidak benar. 15 juta euro atau 3% dari total omset tahunan perusahaan di seluruh dunia (mana saja yang lebih tinggi) untuk pelanggaran kewajiban UU AI UE.

— VentureBeat

European AI Act saat ini merupakan kerangka hukum paling komprehensif untuk peraturan AI. Pemerintah di seluruh dunia memperhatikan dan secara aktif mendiskusikan cara mengatur teknologi AI untuk memastikan warga negara, bisnis, dan lembaga pemerintah mereka terlindungi dari potensi risiko. Selain itu, para pemangku kepentingan mulai dari dewan perusahaan hingga konsumen mulai memprioritaskan kepercayaan, transparansi, keadilan, dan akuntabilitas dalam hal AI.

Bersiap untuk peraturan mendatang dengan IBM

IBM watsonx.governance membantu Anda mempercepat alur kerja AI yang bertanggung jawab, transparan, dan dapat dijelaskan

IBM watsonx.governance memungkinkan Anda mempercepat tata kelola AI Anda, mengarahkan, mengelola, dan memantau aktivitas AI organisasi Anda. Ini menggunakan otomatisasi perangkat lunak untuk memperkuat kemampuan Anda dalam memitigasi risiko, mengelola persyaratan kebijakan, dan mengatur siklus hidup untuk model AI generatif dan machine learning prediktif (ML).

watsonx.governance membantu mendorong transparansi model, kejelasan, dan dokumentasi di 3 bidang utama:

  • Kepatuhan membantu mengelola transparansi AI dan mengatasi kepatuhan terhadap kebijakan dan standar. Hubungkan data ke kontrol risiko utama dan gunakan lembar fakta untuk mengotomatiskan pengambilan dan pelaporan metadata model untuk mendukung penyelidikan dan audit.
  • Manajemen risiko menetapkan ambang batas risiko, membantu mendeteksi dan memitigasi risiko model AI secara proaktif. Memantau kewajaran, penyimpangan, bias, kinerja terhadap metrik evaluasi, contoh bahasa toksik, dan untuk perlindungan informasi identitas pribadi (PII). Dapatkan insight tentang risiko organisasi dengan dasbor dan laporan berbasis pengguna.
  • Tata kelola siklus hidup —membantu mengatur AI generatif dan model machine learning prediktif di seluruh siklus hidup menggunakan alur kerja dan persetujuan yang terintegrasi, Memantau status contoh penggunaan, permintaan perubahan dalam proses, tantangan, masalah, dan tugas yang diberikan.

Klien bertanggung jawab untuk memastikan kepatuhan terhadap hukum dan peraturan yang berlaku. IBM tidak memberikan nasihat hukum atau menyatakan atau menjamin bahwa layanan atau produknya akan memastikan bahwa klien mematuhi hukum atau peraturan apa pun.

 

Penulis

Heather Gentile

Director of watsonx.governance Product Management, IBM Data and AI Software