Etika adalah seperangkat prinsip moral yang membantu kita membedakan antara benar dan salah. Etika AI adalah bidang multidisiplin yang mempelajari cara mengoptimalkan dampak menguntungkan dari AI sekaligus mengurangi risiko dan hasil yang merugikan.
Contoh masalah etika AI meliputi tanggung jawab data dan privasi, keadilan, kejelasan, ketahanan, transparansi, keberlanjutan lingkungan, inklusi, agensi moral, keselarasan nilai, akuntabilitas, kepercayaan, dan penyalahgunaan teknologi. Artikel ini bertujuan untuk memberikan pandangan pasar yang komprehensif tentang etika AI di industri saat ini. Untuk mempelajari lebih lanjut tentang sudut pandang IBM, lihat halaman etika AI kami di sini.
Dengan munculnya big data, perusahaan telah meningkatkan fokus mereka untuk mendorong otomatisasi dan pengambilan keputusan berbasis data di seluruh organisasi mereka. Meskipun niatnya biasanya, jika tidak selalu, untuk meningkatkan hasil bisnis, perusahaan mengalami konsekuensi yang tidak terduga dalam beberapa aplikasi AI mereka, terutama karena desain penelitian yang buruk di awal dan kumpulan data yang bias.
Seiring dengan terungkapnya kasus-kasus hasil yang tidak adil, pedoman baru telah muncul, terutama dari komunitas penelitian dan ilmu data, untuk mengatasi kekhawatiran seputar etika AI. Perusahaan-perusahaan terkemuka di bidang AI juga telah menaruh perhatian dalam membentuk pedoman ini, karena mereka sendiri telah mulai mengalami beberapa konsekuensi karena gagal menegakkan standar etika dalam produk mereka. Kurangnya ketekunan dalam bidang ini dapat mengakibatkan eksposur reputasi, peraturan, dan hukum, yang berakibat pada denda yang mahal. Seperti semua kemajuan teknologi, inovasi cenderung melampaui peraturan pemerintah di bidang baru yang sedang berkembang. Seiring dengan berkembangnya keahlian yang tepat dalam industri pemerintah, kita dapat mengharapkan lebih banyak protokol AI yang dapat diikuti oleh perusahaan, yang memungkinkan mereka untuk menghindari pelanggaran hak asasi manusia dan kebebasan sipil.
Mempercepat alur kerja untuk AI generatif yang bertanggung jawab, transparan, dan dapat dijelaskan yang dibangun di platform pihak ketiga.
Daftar untuk mendapatkan buku elektronik di penyimpanan data AI
Pelajari cara memanfaatkan basis data yang tepat untuk aplikasi, analitik, dan AI generatif
Sementara aturan dan protokol dikembangkan untuk mengelola penggunaan AI, komunitas akademik telah memanfaatkan Laporan Belmont (tautan berada di luar ibm.com) sebagai sarana untuk memandu etika dalam penelitian eksperimental dan pengembangan algoritma. Ada tiga prinsip utama yang dihasilkan dari Laporan Belmont yang berfungsi sebagai panduan untuk eksperimen dan desain algoritma, yaitu:
Etika AI IBM
Lima langkah untuk menerapkan praktik keamanan algoritma
Ada sejumlah persoalan yang menjadi yang terdepan dalam perbincangan etika seputar teknologi AI di dunia nyata. Beberapa di antaranya termasuk:
Rilis ChatGPT pada tahun 2022 menandai titik infleksi sejati untuk kecerdasan buatan. Kemampuan chatbot OpenAI—mulai dari menulis ringkasan hukum hingga melakukan debug kode—membuka konstelasi kemungkinan baru tentang apa yang dapat dilakukan AI dan bagaimana AI dapat diterapkan di hampir semua industri. ChatGPT dan alat serupa dibangun di atas model dasar, model AI yang dapat diadaptasi untuk berbagai tugas hilir. Model dasar biasanya merupakan model generatif berskala besar, terdiri dari miliaran parameter, yang dilatih pada data yang tidak berlabel dengan menggunakan pengawasan mandiri. Hal ini memungkinkan model dasar untuk dengan cepat menerapkan apa yang telah mereka pelajari dalam satu konteks ke konteks lainnya, membuat mereka sangat mudah beradaptasi dan mampu melakukan berbagai macam tugas yang berbeda. Namun, ada banyak masalah potensial dan masalah etika seputar model dasar yang umumnya dikenal di industri teknologi, seperti bias, pembuatan konten palsu, kurangnya penjelasan, penyalahgunaan, dan dampak sosial. Banyak dari persoalan ini relevan dengan AI secara umum, tetapi memiliki urgensi baru mengingat kekuatan dan ketersediaan model dasar.
Meskipun topik ini menarik banyak perhatian publik, banyak peneliti yang tidak khawatir dengan gagasan AI yang melampaui kecerdasan manusia dalam waktu dekat. Hal ini juga disebut sebagai kecerdasan super, yang didefinisikan oleh Nick Bostrum sebagai “kecerdasan apa pun yang jauh mengungguli otak manusia terbaik di hampir setiap bidang, termasuk kreativitas ilmiah, kebijaksanaan umum, dan keterampilan sosial.” Terlepas dari kenyataan bahwa AI yang tangguh dan kecerdasan super tidak akan segera hadir di masyarakat, gagasan tentang hal ini menimbulkan beberapa pertanyaan menarik ketika kita mempertimbangkan penggunaan sistem otonom, seperti mobil tanpa pengemudi. Tidak realistis jika kita berpikir bahwa mobil tanpa pengemudi tidak akan pernah mengalami kecelakaan, tetapi siapa yang bertanggung jawab dan mempunyai liabilitas dalam situasi seperti itu? Haruskah kita tetap mengejar kendaraan otonom, atau kita batasi integrasi teknologi ini untuk hanya menciptakan kendaraan semi-otonom yang mengutamakan keselamatan pengemudi? Juri masih belum memutuskan, tetapi ini adalah jenis perdebatan etis yang terjadi seiring dengan berkembangnya teknologi AI yang baru dan inovatif.
Meskipun banyak persepsi publik tentang kecerdasan buatan berpusat pada hilangnya pekerjaan, kekhawatiran ini mungkin harus diluruskan. Dengan setiap teknologi baru yang disruptif, kami melihat bahwa permintaan pasar untuk peran pekerjaan tertentu bergeser. Sebagai contoh, ketika kita melihat industri otomotif, banyak produsen, seperti GM, beralih untuk fokus pada produksi kendaraan listrik untuk menyelaraskan dengan inisiatif ramah lingkungan. Industri energi tidak akan hilang, tetapi sumber energi bergeser dari penghematan bahan bakar ke listrik. Kecerdasan buatan harus dilihat dengan cara yang sama, yaitu kecerdasan buatan akan mengalihkan permintaan pekerjaan ke bidang lain. Perlu ada individu untuk membantu mengelola sistem ini karena data bertumbuh dan berubah setiap hari. Masih akan ada sumber daya yang dibutuhkan untuk mengatasi masalah yang lebih kompleks di dalam industri yang kemungkinan besar akan terpengaruh oleh pergeseran permintaan pekerjaan, seperti layanan pelanggan. Aspek penting dari kecerdasan buatan dan pengaruhnya pada pasar kerja akan membantu individu bertransisi ke area permintaan pasar yang baru ini.
Privasi cenderung dibahas dalam konteks privasi data, perlindungan data, dan keamanan data, dan kekhawatiran ini telah memungkinkan para pembuat kebijakan untuk membuat lebih banyak langkah dalam beberapa tahun terakhir. Sebagai contoh, pada tahun 2016, undang-undang GDPR dibuat untuk melindungi data pribadi orang-orang di Uni Eropa dan Wilayah Ekonomi Eropa, sehingga memberikan kontrol lebih besar kepada individu atas data mereka. Di Amerika Serikat, setiap negara bagian mengembangkan kebijakan, seperti California Consumer Privacy Act (CCPA), yang mewajibkan perusahaan untuk memberi tahu konsumen tentang pengumpulan data mereka. Undang-undang baru-baru ini telah memaksa perusahaan untuk memikirkan kembali bagaimana mereka menyimpan dan menggunakan data identifikasi pribadi (PII). Akibatnya, investasi dalam keamanan telah menjadi prioritas yang makin meningkat bagi bisnis karena mereka berusaha menghilangkan kerentanan dan peluang untuk pengawasan, peretasan, dan serangan siber.
Contoh-contoh bias dan diskriminasi di sejumlah sistem yang cerdas telah menimbulkan banyak pertanyaan etis mengenai penggunaan kecerdasan buatan. Bagaimana kita dapat melindungi dari bias dan diskriminasi ketika kumpulan data pelatihan dapat menyebabkan bias? Meskipun perusahaan biasanya memiliki niat yang baik dalam upaya otomatisasi mereka, ada konsekuensi yang tidak terduga dalam memasukkan AI ke dalam praktik perekrutan. Dalam upaya mereka untuk mengotomatiskan dan menyederhanakan proses, Amazon secara tidak sengaja mempunyai bias terhadap calon pekerjaan potensial (tautan berada di luar ibm.com) berdasarkan jenis kelamin untuk lowongan teknis, dan mereka akhirnya harus membatalkan proyek itu. Seiring dengan munculnya kejadian-kejadian seperti ini, Harvard Business Review (tautan berada di luar ibm.com) telah mengajukan pertanyaan-pertanyaan penting lainnya seputar penggunaan AI dalam praktik perekrutan, seperti data apa saja yang dapat Anda gunakan saat mengevaluasi kandidat untuk suatu jabatan.
Bias dan diskriminasi juga tidak terbatas pada fungsi sumber daya manusia; hal ini dapat ditemukan di sejumlah aplikasi mulai dari perangkat lunak pengenal wajah hingga algoritma media sosial.
Seiring dengan makin sadarnya perusahaan akan risiko yang ditimbulkan oleh AI, mereka juga menjadi lebih aktif dalam diskusi seputar etika dan nilai-nilai AI. Sebagai contoh, tahun lalu, CEO IBM Arvind Krishna menyampaikan bahwa IBM telah menghentikan produk pengenalan dan analisis wajah IBM untuk keperluan umum, dengan menekankan bahwa "IBM dengan tegas menentang dan tidak akan mendukung penggunaan teknologi apa pun, termasuk teknologi pengenalan wajah yang ditawarkan oleh vendor lain, untuk pengawasan massal, pembuatan profil rasial, pelanggaran terhadap hak asasi dan kebebasan dasar manusia, atau tujuan apa pun yang tidak sesuai dengan nilai-nilai dan Prinsip Kepercayaan dan Transparansi kami."
Tidak ada undang-undang universal dan menyeluruh yang mengatur praktik AI, tetapi banyak negara dan negara bagian bekerja untuk mengembangkan dan menerapkannya secara lokal. Beberapa bagian dari regulasi AI ada saat ini, dengan lebih banyak lagi yang akan datang. Untuk mengisi kesenjangan tersebut, kerangka kerja etika telah muncul sebagai bagian dari kolaborasi antara ahli etika dan peneliti untuk mengatur konstruksi dan distribusi model AI di masyarakat. Namun, saat ini, kerangka kerja ini hanya berfungsi untuk membimbing, dan penelitian (tautan berada di luar ibm.com) menunjukkan bahwa kombinasi tanggung jawab yang terdistribusi dan kurangnya pandangan ke depan terhadap konsekuensi potensial belum tentu kondusif untuk mencegah bahaya bagi masyarakat.
Kecerdasan buatan bekerja sesuai dengan bagaimana ia dirancang, dikembangkan, dilatih, disetel, dan digunakan, dan etika AI adalah tentang membangun ekosistem standar etika dan pagar pembatas di seluruh fase siklus hidup sistem AI.
Organisasi, pemerintah, dan peneliti telah mulai menyusun kerangka kerja untuk mengatasi masalah etika AI saat ini dan membentuk masa depan upaya di bidang ini. Meskipun lebih banyak struktur yang dimasukkan ke dalam pedoman ini setiap harinya, ada beberapa konsensus untuk memasukkan hal-hal berikut ini:
Tata kelola adalah tindakan organisasi dalam mengawasi siklus hidup AI melalui kebijakan dan proses internal, staf, dan sistem. Tata kelola membantu memastikan bahwa sistem AI beroperasi sesuai dengan prinsip dan nilai yang diinginkan oleh organisasi, sesuai dengan harapan para pemangku kepentingan, dan sesuai dengan peraturan yang relevan. Program tata kelola yang sukses akan:
menentukan peran dan tanggung jawab orang yang bekerja dengan AI.
mengedukasi semua orang yang terlibat dalam siklus hidup AI tentang membangun AI dengan cara yang bertanggung jawab.
menetapkan proses untuk membangun, mengelola, memantau, dan berkomunikasi tentang risiko AI dan AI.
memanfaatkan alat untuk meningkatkan kinerja dan kepercayaan AI di seluruh siklus hidup AI.
Dewan Etika AI adalah mekanisme tata kelola yang sangat efektif. Di IBM, Dewan Etika AI terdiri dari berbagai pemimpin dari seluruh bisnis. Dewan ini menyediakan proses tata kelola, peninjauan, dan pengambilan keputusan terpusat untuk kebijakan dan praktik etika IBM. Pelajari lebih lanjut tentang Dewan Etika AI IBM.
Pendekatan organisasi terhadap etika AI dapat dipandu oleh prinsip-prinsip yang dapat diterapkan pada produk, kebijakan, proses, dan praktik di seluruh organisasi untuk membantu mewujudkan AI yang dapat dipercaya. Prinsip-prinsip ini harus disusun di sekitar dan didukung oleh area fokus, seperti kejelasan atau keadilan, yang mana standar dapat dikembangkan dan praktik-praktik dapat diselaraskan.
Ketika dibangun dengan etika pada bagian intinya, AI mampu memiliki potensi luar biasa untuk berdampak pada masyarakat untuk kebaikan. Kami mulai melihat ini dalam integrasinya ke bidang perawatan kesehatan, seperti radiologi. Pembicaraan seputar etika AI juga penting untuk menilai dan memitigasi risiko yang mungkin terjadi terkait penggunaan AI secara tepat, sejak tahap desain.
Karena standar etika bukanlah perhatian utama para insinyur data dan ilmuwan data di sektor swasta, sejumlah organisasi telah muncul untuk mempromosikan perilaku etis di bidang kecerdasan buatan. Bagi mereka yang mencari informasi lebih lanjut, organisasi dan proyek berikut menyediakan sumber daya untuk menegakkan etika AI:
IBM juga telah menetapkan sudut pandangnya sendiri tentang etika AI, menciptakan Prinsip Kepercayaan dan Transparansi untuk membantu klien memahami letak nilai-nilainya dalam percakapan seputar AI. IBM memiliki tiga prinsip inti yang menentukan pendekatannya terhadap pengembangan data dan AI, yaitu:
IBM juga telah mengembangkan lima pilar untuk memandu adopsi teknologi AI yang bertanggung jawab. Lima pilar ini adalah:
Prinsip dan area fokus ini membentuk dasar pendekatan kami terhadap etika AI. Untuk mempelajari lebih lanjut tentang pandangan IBM seputar etika dan kecerdasan buatan, baca selengkapnya di sini.
Pendekatan multidisiplin dan multidimensi IBM terhadap AI yang dapat dipercaya
Membangun, menjalankan, dan mengelola model AI. Siapkan data dan buat model di cloud apa pun menggunakan kode sumber terbuka atau pemodelan visual. Memprediksi dan mengoptimalkan hasil Anda.
Bangun alur kerja AI yang bertanggung jawab, transparan, dan dapat dijelaskan.