وثيقة حقوق الذكاء الاصطناعي هي إطار عمل نشرته حكومة الولايات المتحدة للمساعدة على حماية الحقوق المدنية للأمريكيين في عصر الذكاء الاصطناعي.
طرح مكتب البيت الأبيض لسياسة العلوم والتكنولوجيا (OSTP) وثيقة حقوق الذكاء الاصطناعي في أكتوبر 2022 في وثيقة بعنوان "مخطط لوثيقة حقوق الذكاء الاصطناعي: جعل الأنظمة الآلية تعمل لصالح الشعب الأمريكي". وقد وضعت وثيقة حقوق الذكاء الاصطناعي، التي يُشار إليها أيضًا باسم المخطط، بعد التشاور مع العديد من الأكاديميين ومجموعات حقوق الإنسان والمنظمات غير الربحية والشركات في القطاع الخاص.
تهدف وثيقة حقوق الذكاء الاصطناعي إلى دعم تطوير السياسات والممارسات التي تحمي الحقوق المدنية وتعزز القيم الديمقراطية في نشر الأنظمة الآلية وإدارتها. ولتحقيق ذلك، يحدد المخطط خمسة مبادئ للتخفيف من المخاطر المحتملة، مثل التمييز الخوارزمي. كما يعالج قضايا الوصول إلى الموارد أو الخدمات الحيوية التي يمكن أن تنتج عن نشر الذكاء الاصطناعي في مجالات مثل الرعاية الصحية والخدمات المالية وغيرها الكثير.
تتكون وثيقة حقوق الذكاء الاصطناعي من خمسة مبادئ أساسية للمساعدة على توجيه تصميم أنظمة الذكاء الاصطناعي واستخدامها ونشرها. تُراعى اعتبارات محددة في كل مبدأ، حيث تأخذ في الحسبان المواقف المختلفة التي يمكن أن تتعرض فيها الحقوق المدنية للأشخاص - مثل حرية التعبير أو حقوق التصويت أو الخصوصية - للخطر.
على الرغم من أن المخطط غير ملزم ولا يفرض الامتثال للمبادئ الأساسية، فإنه يهدف إلى توجيه قرارات السياسة المتعلقة بالذكاء الاصطناعي حيث لا يوفر القانون أو السياسة القائمة بالفعل إرشادات.
تنطبق وثيقة حقوق الذكاء الاصطناعي على الأنظمة المؤتمتة إذا كان لديها القدرة على التأثير بشكل كبير في حقوق الشعب الأمريكي أو فرصه أو وصوله إلى الموارد أو الخدمات الحيوية. تشمل أنواع الأنظمة المؤتمتة التي يحتمل أن تندرج في نطاق وثيقة حقوق الذكاء الاصطناعي، على سبيل المثال لا الحصر، تلك التي يمكن أن تؤثر في التالي:
الحقوق المدنية والحريات والخصوصية: يشمل ذلك الأنظمة المتعلقة بالكلام (على سبيل المثال، أدوات الإشراف الآلي على المحتوى)؛ وخوارزميات نظام المراقبة والأدلة الجنائية (على سبيل المثال، أجهزة قراءة لوحات السيارات الآلية)؛ والأنظمة المتعلقة بالتصويت (على سبيل المثال، أدوات مطابقة التوقيعات)؛ والأنظمة التي لها تأثير محتمل في الخصوصية (على سبيل المثال، أنظمة استهداف الإعلانات).
تكافؤ الفرص: يشمل ذلك الأنظمة المتعلقة بالتعليم (على سبيل المثال، برمجيات الكشف عن السرقة الأدبية)؛ والأنظمة المتعلقة بالإسكان (على سبيل المثال، خوارزميات فحص المستأجرين)؛ والأنظمة المتعلقة بالتوظيف (على سبيل المثال، خوارزميات التوظيف أو إنهاء الخدمة).
الوصول إلى الموارد والخدمات الحيوية: يشمل ذلك تقنيات الصحة والتأمين الصحي (على سبيل المثال، أدوات التشخيص بمساعدة الذكاء الاصطناعي)؛ وخوارزميات الأنظمة المالية (على سبيل المثال، أنظمة التصنيف الائتماني)؛ والأنظمة التي تؤثر في سلامة المجتمعات (على سبيل المثال، ضوابط الشبكة الكهربائية)؛ والأنظمة المتعلقة بالحصول على المزايا أو الخدمات أو فرض العقوبات (على سبيل المثال، خوارزميات الكشف عن الاحتيال).
تتزايد حالات استخدام الذكاء الاصطناعي مع ازدياد تطور تقنيات مثل التعلم الآلي (ML) ومعالجة اللغات الطبيعية (NLP). في إحدى الدراسات التي أجرتها شركة Ernst and Young، قال 90% من المشاركين إنهم يستخدمون الذكاء الاصطناعي في العمل.1 ومع ذلك، فإن اعتماد الذكاء الاصطناعي على نطاق واسع يسبب أيضًا تحديات أخلاقية جديدة تتعلق بالشفافية والتحيز وخصوصية البيانات.على سبيل المثال:
لمواجهة هذه التحديات، يحتاج مطورو الذكاء الاصطناعي إلى أدلة وأطر أخلاقية مبنية على الاستخدام المسؤول للذكاء الاصطناعي. الذكاء الاصطناعي المسؤول هو مجموعة من المبادئ المستخدمة لتوجيه تصميم الذكاء الاصطناعي وتطويره ونشره واستخدامه. وهو يأخذ في الحسبان التأثير المجتمعي الأوسع لأنظمة الذكاء الاصطناعي والتدابير المطلوبة لمواءمة الذكاء الاصطناعي مع قيم الأطراف المعنية والمعايير القانونية والمبادئ الأخلاقية.
يسعى المخطط إلى تحديد أفضل ممارسات الذكاء الاصطناعي المسؤول في إطار عمل شامل حتى يتمكن المجتمع من الاستفادة من الإمكانات الكاملة لأدوات الذكاء الاصطناعي من دون المساس بالحريات المدنية الأساسية للأفراد.
تتألف وثيقة حقوق الذكاء الاصطناعي من خمسة مبادئ مصممة مع مراعاة الحقوق المدنية للشعب الأمريكي. تتضمن المبادئ الخمسة ما يأتي:
ينص هذا المبدأ على أن الأشخاص "يجب حمايتهم من أنظمة الذكاء الاصطناعي غير الآمنة أو غير الفعالة". وللتوافق مع هذا المبدأ، يقترح المخطط أن يعمل المطورون جنبًا إلى جنب مع المجتمعات المتنوعة والأطراف المعنية وخبراء المجال للنظر في مخاطر نظام الذكاء الاصطناعي. كما يقترح المبدأ أيضًا أن تخضع الأنظمة لاختبارات ما قبل النشر، وتحديد المخاطر وتخفيفها، والمراقبة المستمرة لتحسين السلامة والفعالية. ووفقًا للمخطط، يجب نشر نتائج أي تقييمات وتقارير مستقلة تؤكد أن النظام آمن وفعال كلما أمكن ذلك.
ينص هذا المبدأ على أن الأشخاص "يجب ألا يتعرضوا للتمييز من قِبل الخوارزميات، ويجب استخدام الأنظمة وتصميمها بطريقة عادلة". وفقًا لوثيقة حقوق الذكاء الاصطناعي، يحدث التمييز الخوارزمي عندما تؤثر الأنظمة المؤتمتة سلبًا في الأشخاص على أساس خصائص مثل العرق والتوجه الجنسي وحالة الإعاقة وغيرها من الخصائص التي يحميها القانون. ولمعالجة ذلك، يقترح المبدأ أن يستخدم منشئو الأنظمة الآلية تدابير مثل تقييمات الإنصاف والبيانات التمثيلية واختبار التباين لحماية الأفراد والمجتمعات المعرضة للخطر. كما يشجع المبدأ أيضًا على إجراء عمليات تدقيق مستقلة ومن طرف ثالث.
ينص هذا المبدأ على أن الأشخاص "يجب حمايتهم من ممارسات البيانات المسيئة من خلال وسائل حماية مدمجة"، و"يجب أن يكون لهم سلطة على كيفية استخدام البيانات المتعلقة بهم". وللتوافق مع هذا المبدأ، يقترح المخطط أن يحمي مطورو الذكاء الاصطناعي المستخدمين وخصوصيتهم من خلال خيارات التصميم التي تساعد على ضمان أن يكون جمع معلومات التعريف الشخصية (PII) ضروريًا للغاية. كما يقترح المبدأ أيضًا أن يحافظ المطورون على أن تكون طلبات الإذن والموافقة مختصرة ومفهومة وأن يحترموا القرارات المتعلقة باستخدام البيانات والوصول إليها ونقلها وحذفها.
يلزم توفير حماية وقيود معززة للمعلومات الحساسة مثل تلك المتعلقة بالعمل والصحة والعدالة الجنائية وغيرها. ينص المخطط أيضًا على ضرورة إخضاع تقنية المراقبة لرقابة مشددة لحماية خصوصية المواطنين وحرياتهم المدنية.
ينص هذا المبدأ على أن الأشخاص "يجب أن يعرفوا أن النظام الآلي يُستخدم وأن يفهموا كيف ولماذا يساهم في النتائج التي تؤثر فيهم".وتنص وثيقة حقوق الذكاء الاصطناعي على أنه يجب على مصممي الأنظمة المؤتمتة ومطوريها وناشريها استخدام لغة واضحة وسهلة الفهم، من بين أمور أخرى، لشرح وظيفة النظام والدور الذي تلعبه الأتمتة. علاوة على ذلك، يشير المبدأ إلى أن الأنظمة المؤتمتة يجب أن تقدم إشعارًا عند استخدامها وتفسيرات واضحة لكيفية وسبب مساهمتها في النتائج التي تؤثر في الأفراد.
ينص هذا المبدأ على أن الأشخاص "يجب أن يكونوا قادرين على الانسحاب، عند الاقتضاء، وأن يكون لديهم إمكانية الوصول إلى شخص يمكنه النظر بسرعة في المشكلات التي يواجهونها ومعالجتها". ووفقًا للمخطط، ينبغي أن يستند تحديد ما هو "مناسب" إلى "التوقعات المعقولة" في السياق المحدد، وينبغي أن يركز على ضمان إمكانية الوصول على نطاق واسع والحماية من الضرر المحتمل.يقترح المخطط أن أولئك الذين يتطلعون إلى التوافق مع هذا المبدأ يجب أن يجعلوا الاعتبارات الإنسانية وتقديم الحلول من خلال خطة احتياطية وتصعيدية يمكن الوصول إليها وفي الوقت المناسب، خاصةً عندما يفشل النظام الآلي أو ينتج عنه خطأ أو عندما يريد شخص ما الطعن في تأثيره.
نُشر ملحق تقني، بعنوان "من المبادئ إلى التطبيق"، إلى جانب المخطط. وهو يقدم أمثلة وخطوات يمكن للحكومات والصناعات والمجتمعات اتخاذها لتضمين المبادئ الخمسة في السياسة أو الممارسة أو التصميم التقني للأنظمة الآلية.
تشرح وثيقة حقوق الذكاء الاصطناعي وملحقها التقني سبب أهمية كل مبدأ وما ينبغي توقعه من الأنظمة المؤتمتة وكيف يمكن تطبيق كل مبدأ عمليًا. والأمثلة المقدمة ليست نقدًا أو تأييدًا، بل تهدف إلى إلهام المؤسسات لدمج ضمانات السلامة في عمليات الذكاء الاصطناعي واتخاذ القرارات الخاصة بها.
بعد نشرها في واشنطن العاصمة، ربما تكون وثيقة حقوق الذكاء الاصطناعي قد ألهمت جزئيًا العديد من الوكالات الفيدرالية لتبني مبادئ توجيهية لاستخدامها المسؤول للذكاء الاصطناعي. حتى تاريخ كتابة هذا المقال، لدى 12 وكالة حكومية أمريكية - بما في ذلك وزارة التجارة (DOC) والمعهد الوطني للمعايير والتكنولوجيا (NIST) - متطلبات خاصة بالذكاء الاصطناعي تشمل القانون والسياسة والأمن القومي.
في 30 أكتوبر 2023، أصدرت إدارة بايدن أمرًا تنفيذيًا لوضع معايير جديدة للذكاء الاصطناعي الآمن والموثوق به والجدير بالثقة. وفي بيان صحفي نُشر بعد ستة أشهر، أعلنت وزارة الدفاع الأمريكية عن عدة خطط لتنفيذ الأمر التنفيذي.4
على مستوى الولاية، يبدو أن صانعي السياسات يعملون على مواءمة التشريعات الجديدة مع المخطط من حيث بعض النواحي. في عام 2021، اعتمدت نيويورك قانونًا يتضمن متطلبات لأصحاب العمل بما في ذلك الإخطار عند استخدام تقنيات الذكاء الاصطناعي في عملية التوظيف. ولدى العديد من الولايات الآن متطلبات تتعلق باستخدام تقنية التعرف على الوجوه في أجهزة إنفاذ القانون. وفي الآونة الأخيرة، اقترح مجلس الحقوق المدنية في كاليفورنيا تعديلات على قانون التوظيف والإسكان العادل (FEHA) التي توائم بين القانون ووثيقة حقوق الذكاء الاصطناعي.
أما خارج الولايات المتحدة، فقد وضعت 34 دولة إستراتيجيات وطنية خاصة بالذكاء الاصطناعي حتى تاريخ كتابة هذا المقال.5 والجدير بالذكر أن قانون الذكاء الاصطناعي في الاتحاد الأوروبي (قانون الاتحاد الأوروبي للذكاء الاصطناعي) يحكم تطوير الذكاء الاصطناعي أو استخدامه في الاتحاد الأوروبي. ويتبع القانون نهجًا قائمًا على المخاطر في التنظيم، حيث يطبق قواعد مختلفة على الذكاء الاصطناعي وفقًا للمخاطر التي يشكلها.
إن بعض وسائل الحماية المقترحة في وثيقة حقوق الذكاء الاصطناعي مطلوبة بالفعل بموجب الدستور الأمريكي أو موجودة بموجب القوانين الأمريكية الحالية. على سبيل المثال، المراقبة الحكومية المذكورة في مبدأ "خصوصية البيانات" تخضع بالفعل لمتطلبات قانونية وإشراف قضائي، في حين أن قوانين الحقوق المدنية موجودة لحماية الشعب الأمريكي من التمييز.
من الأمثلة على معايير الذكاء الاصطناعي الأخرى التي يتوافق معها المخطط:
قد تُعتمد سياسات وممارسات جديدة للمساعدة على ضمان تنفيذ الحماية المذكورة في وثيقة حقوق الذكاء الاصطناعي. يقر المخطط أنه في بعض الحالات، قد تكون الاستثناءات من المبادئ ضرورية للمساعدة على ضمان الامتثال للتشريعات القائمة أو التوافق مع الجوانب العملية لحالة استخدام محددة أو تحقيق التوازن بين المصالح العامة المتنافسة. على سبيل المثال، تُشجَع جهات إنفاذ القانون والوكالات الحكومية الأخرى على اتباع المبادئ التوجيهية المنصوص عليها في وثيقة حقوق الذكاء الاصطناعي. ومع ذلك، لحماية حقوق الأشخاص وخصوصيتهم، قد يحتاجون إلى استخدام أساليب بديلة.
استشرافًا للمستقبل، قد تؤدي وثيقة حقوق الذكاء الاصطناعي دورًا رئيسيًا في التأثير في الموجة التالية من السياسات مع تبني دول العالم نهجًا أكثر شمولية للذكاء الاصطناعي المسؤول.
1 كيف يمكن للمؤسسات أن تمنع تزايد استخدام الذكاء الاصطناعي من التسبب في القلق، Ernst & Young، ديسمبر 2023.
2 الذكاء الاصطناعي يعرّض الأبرياء لخطر السجن، Innocence Project، سانفورد، 14 فبراير 2024.
3 الهلوسة الاصطناعية في ChatGPT: الآثار المترتبة على الكتابة العلمية، المكتبة الوطنية للطب، Muacevic، Adler، 19 فبراير 2023.
4 وزارة التجارة تعلن عن إجراءات جديدة لتنفيذ الأمر التنفيذي للرئيس بايدن بشأن الذكاء الاصطناعي، وزارة التجارة الأمريكية، 29 إبريل 2024.
5 تحليل عنقودي للإستراتيجيات الوطنية للذكاء الاصطناعي، Brookings، Denford، Dawson، Desouza، 13 ديسمبر 2023.
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com, openliberty.io