My IBM Log in اشترك

ما وثيقة حقوق الذكاء الاصطناعي؟

27 سبتمبر 2024

المؤلفين

Alexandra Jonker

Editorial Content Lead

ما وثيقة حقوق الذكاء الاصطناعي؟

وثيقة حقوق الذكاء الاصطناعي هي إطار عمل نشرته حكومة الولايات المتحدة للمساعدة على حماية الحقوق المدنية للأمريكيين في عصر الذكاء الاصطناعي.

طرح مكتب البيت الأبيض لسياسة العلوم والتكنولوجيا (OSTP) وثيقة حقوق الذكاء الاصطناعي في أكتوبر 2022 في وثيقة بعنوان "مخطط لوثيقة حقوق الذكاء الاصطناعي: جعل الأنظمة الآلية تعمل لصالح الشعب الأمريكي". وقد وضعت وثيقة حقوق الذكاء الاصطناعي، التي يُشار إليها أيضًا باسم المخطط، بعد التشاور مع العديد من الأكاديميين ومجموعات حقوق الإنسان والمنظمات غير الربحية والشركات في القطاع الخاص.

تهدف وثيقة حقوق الذكاء الاصطناعي إلى دعم تطوير السياسات والممارسات التي تحمي الحقوق المدنية وتعزز القيم الديمقراطية في نشر الأنظمة الآلية وإدارتها. ولتحقيق ذلك، يحدد المخطط خمسة مبادئ للتخفيف من المخاطر المحتملة، مثل التمييز الخوارزمي. كما يعالج قضايا الوصول إلى الموارد أو الخدمات الحيوية التي يمكن أن تنتج عن نشر الذكاء الاصطناعي في مجالات مثل الرعاية الصحية والخدمات المالية وغيرها الكثير.

تتكون وثيقة حقوق الذكاء الاصطناعي من خمسة مبادئ أساسية للمساعدة على توجيه تصميم أنظمة الذكاء الاصطناعي واستخدامها ونشرها. تُراعى اعتبارات محددة في كل مبدأ، حيث تأخذ في الحسبان المواقف المختلفة التي يمكن أن تتعرض فيها الحقوق المدنية للأشخاص - مثل حرية التعبير أو حقوق التصويت أو الخصوصية - للخطر.

على الرغم من أن المخطط غير ملزم ولا يفرض الامتثال للمبادئ الأساسية، فإنه يهدف إلى توجيه قرارات السياسة المتعلقة بالذكاء الاصطناعي حيث لا يوفر القانون أو السياسة القائمة بالفعل إرشادات.

تصميم ثلاثي الأبعاد لكرات تتدحرج على مسار

أحدث الأخبار والرؤى حول الذكاء الاصطناعي 


تتوفر معارف وأخبار منسقة بمهارة حول الذكاء الاصطناعي والسحابة وغيرها في نشرة Think الإخبارية الأسبوعية. 

ما أنظمة الذكاء الاصطناعي التي تنطبق عليها وثيقة حقوق الذكاء الاصطناعي؟

تنطبق وثيقة حقوق الذكاء الاصطناعي على الأنظمة المؤتمتة إذا كان لديها القدرة على التأثير بشكل كبير في حقوق الشعب الأمريكي أو فرصه أو وصوله إلى الموارد أو الخدمات الحيوية. تشمل أنواع الأنظمة المؤتمتة التي يحتمل أن تندرج في نطاق وثيقة حقوق الذكاء الاصطناعي، على سبيل المثال لا الحصر، تلك التي يمكن أن تؤثر في التالي:

الحقوق المدنية والحريات والخصوصية: يشمل ذلك الأنظمة المتعلقة بالكلام (على سبيل المثال، أدوات الإشراف الآلي على المحتوى)؛ وخوارزميات نظام المراقبة والأدلة الجنائية (على سبيل المثال، أجهزة قراءة لوحات السيارات الآلية)؛ والأنظمة المتعلقة بالتصويت (على سبيل المثال، أدوات مطابقة التوقيعات)؛ والأنظمة التي لها تأثير محتمل في الخصوصية (على سبيل المثال، أنظمة استهداف الإعلانات).

تكافؤ الفرص: يشمل ذلك الأنظمة المتعلقة بالتعليم (على سبيل المثال، برمجيات الكشف عن السرقة الأدبية)؛ والأنظمة المتعلقة بالإسكان (على سبيل المثال، خوارزميات فحص المستأجرين)؛ والأنظمة المتعلقة بالتوظيف (على سبيل المثال، خوارزميات التوظيف أو إنهاء الخدمة).

الوصول إلى الموارد والخدمات الحيوية: يشمل ذلك تقنيات الصحة والتأمين الصحي (على سبيل المثال، أدوات التشخيص بمساعدة الذكاء الاصطناعي)؛ وخوارزميات الأنظمة المالية (على سبيل المثال، أنظمة التصنيف الائتماني)؛ والأنظمة التي تؤثر في سلامة المجتمعات (على سبيل المثال، ضوابط الشبكة الكهربائية)؛ والأنظمة المتعلقة بالحصول على المزايا أو الخدمات أو فرض العقوبات (على سبيل المثال، خوارزميات الكشف عن الاحتيال).

ما أهمية وثيقة حقوق الذكاء الاصطناعي؟

تتزايد حالات استخدام الذكاء الاصطناعي مع ازدياد تطور تقنيات مثل التعلم الآلي (ML) ومعالجة اللغات الطبيعية (NLP). في إحدى الدراسات التي أجرتها شركة Ernst and Young، قال 90% من المشاركين إنهم يستخدمون الذكاء الاصطناعي في العمل.1 ومع ذلك، فإن اعتماد الذكاء الاصطناعي على نطاق واسع يسبب أيضًا تحديات أخلاقية جديدة تتعلق بالشفافية والتحيز وخصوصية البيانات.على سبيل المثال:

  • يمكن أن تكون برامج التعرف على الوجوه (FRS) المستخدمة في إنفاذ القانون عرضة للتحيز. وقد أكد باحثون بالفعل العديد من حالات الخطأ في التعرف على الهوية بسبب الذكاء الاصطناعي، ومعظمها تتعلق بأشخاص من ذوي البشرة السمراء اتهموا ظلمًا.2

  • تحدث هلاوس الذكاء الاصطناعي عندما يتصور النظام الآلي نمطًا ما بشكل خاطئ وينتج استجابة غير منطقية أو غير دقيقة. في إحدى الحالات، طلب الباحثون في إحدى المرات من برنامج ChatGPT تقديم معلومات عن كيفية تطور مرضين. قدم الذكاء الاصطناعي ورقة بحثية شاملة مع اقتباسات ومعرفات PubMed. وبعد التدقيق في الحقائق، وجد الباحثون أن الأوراق البحثية مفبركة، وأن المعرفات مُستعارة من أوراق بحثية أخرى.3

  • في دراسة أجرتها  IBM على كبار المدراء التنفيذيين، تبين أن 24% فقط من مشاريع الذكاء الاصطناعي التوليدي الحالية تحتوي على مكون لتأمين المبادرات. في الواقع، قال ما يقرب من 70% من المشاركين في الدراسة إن الابتكار له الأسبقية على الأمان.

لمواجهة هذه التحديات، يحتاج مطورو الذكاء الاصطناعي إلى أدلة وأطر أخلاقية مبنية على الاستخدام المسؤول للذكاء الاصطناعي. الذكاء الاصطناعي المسؤول هو مجموعة من المبادئ المستخدمة لتوجيه تصميم الذكاء الاصطناعي وتطويره ونشره واستخدامه. وهو يأخذ في الحسبان التأثير المجتمعي الأوسع لأنظمة الذكاء الاصطناعي والتدابير المطلوبة لمواءمة الذكاء الاصطناعي مع قيم الأطراف المعنية والمعايير القانونية والمبادئ الأخلاقية.

يسعى المخطط إلى تحديد أفضل ممارسات الذكاء الاصطناعي المسؤول في إطار عمل شامل حتى يتمكن المجتمع من الاستفادة من الإمكانات الكاملة لأدوات الذكاء الاصطناعي من دون المساس بالحريات المدنية الأساسية للأفراد.

المبادئ الخمسة لوثيقة حقوق الذكاء الاصطناعي

تتألف وثيقة حقوق الذكاء الاصطناعي من خمسة مبادئ مصممة مع مراعاة الحقوق المدنية للشعب الأمريكي. تتضمن المبادئ الخمسة ما يأتي:

  • أنظمة آمنة وفعالة
  • الحماية من التمييز الخوارزمي
  • خصوصية البيانات
  • الإشعار والشرح
  • البدائل البشرية والمراعاة وخطة احتياطية

أنظمة آمنة وفعالة

ينص هذا المبدأ على أن الأشخاص "يجب حمايتهم من أنظمة الذكاء الاصطناعي غير الآمنة أو غير الفعالة". وللتوافق مع هذا المبدأ، يقترح المخطط أن يعمل المطورون جنبًا إلى جنب مع المجتمعات المتنوعة والأطراف المعنية وخبراء المجال للنظر في مخاطر نظام الذكاء الاصطناعي. كما يقترح المبدأ أيضًا أن تخضع الأنظمة لاختبارات ما قبل النشر، وتحديد المخاطر وتخفيفها، والمراقبة المستمرة لتحسين السلامة والفعالية. ووفقًا للمخطط، يجب نشر نتائج أي تقييمات وتقارير مستقلة تؤكد أن النظام آمن وفعال كلما أمكن ذلك.

الحماية من التمييز الخوارزمي

ينص هذا المبدأ على أن الأشخاص "يجب ألا يتعرضوا للتمييز من قِبل الخوارزميات، ويجب استخدام الأنظمة وتصميمها بطريقة عادلة". وفقًا لوثيقة حقوق الذكاء الاصطناعي، يحدث التمييز الخوارزمي عندما تؤثر الأنظمة المؤتمتة سلبًا في الأشخاص على أساس خصائص مثل العرق والتوجه الجنسي وحالة الإعاقة وغيرها من الخصائص التي يحميها القانون. ولمعالجة ذلك، يقترح المبدأ أن يستخدم منشئو الأنظمة الآلية تدابير مثل تقييمات الإنصاف والبيانات التمثيلية واختبار التباين لحماية الأفراد والمجتمعات المعرضة للخطر. كما يشجع المبدأ أيضًا على إجراء عمليات تدقيق مستقلة ومن طرف ثالث.

خصوصية البيانات

ينص هذا المبدأ على أن الأشخاص "يجب حمايتهم من ممارسات البيانات المسيئة من خلال وسائل حماية مدمجة"، و"يجب أن يكون لهم سلطة على كيفية استخدام البيانات المتعلقة بهم". وللتوافق مع هذا المبدأ، يقترح المخطط أن يحمي مطورو الذكاء الاصطناعي المستخدمين وخصوصيتهم من خلال خيارات التصميم التي تساعد على ضمان أن يكون جمع معلومات التعريف الشخصية (PII) ضروريًا للغاية. كما يقترح المبدأ أيضًا أن يحافظ المطورون على أن تكون طلبات الإذن والموافقة مختصرة ومفهومة وأن يحترموا القرارات المتعلقة باستخدام البيانات والوصول إليها ونقلها وحذفها.

يلزم توفير حماية وقيود معززة للمعلومات الحساسة مثل تلك المتعلقة بالعمل والصحة والعدالة الجنائية وغيرها. ينص المخطط أيضًا على ضرورة إخضاع تقنية المراقبة لرقابة مشددة لحماية خصوصية المواطنين وحرياتهم المدنية.

الإشعار والشرح

ينص هذا المبدأ على أن الأشخاص "يجب أن يعرفوا أن النظام الآلي يُستخدم وأن يفهموا كيف ولماذا يساهم في النتائج التي تؤثر فيهم".وتنص وثيقة حقوق الذكاء الاصطناعي على أنه يجب على مصممي الأنظمة المؤتمتة ومطوريها وناشريها استخدام لغة واضحة وسهلة الفهم، من بين أمور أخرى، لشرح وظيفة النظام والدور الذي تلعبه الأتمتة. علاوة على ذلك، يشير المبدأ إلى أن الأنظمة المؤتمتة يجب أن تقدم إشعارًا عند استخدامها وتفسيرات واضحة لكيفية وسبب مساهمتها في النتائج التي تؤثر في الأفراد.

البدائل البشرية والمراعاة وخطة احتياطية

ينص هذا المبدأ على أن الأشخاص "يجب أن يكونوا قادرين على الانسحاب، عند الاقتضاء، وأن يكون لديهم إمكانية الوصول إلى شخص يمكنه النظر بسرعة في المشكلات التي يواجهونها ومعالجتها". ووفقًا للمخطط، ينبغي أن يستند تحديد ما هو "مناسب" إلى "التوقعات المعقولة" في السياق المحدد، وينبغي أن يركز على ضمان إمكانية الوصول على نطاق واسع والحماية من الضرر المحتمل.يقترح المخطط أن أولئك الذين يتطلعون إلى التوافق مع هذا المبدأ يجب أن يجعلوا الاعتبارات الإنسانية وتقديم الحلول من خلال خطة احتياطية وتصعيدية يمكن الوصول إليها وفي الوقت المناسب، خاصةً عندما يفشل النظام الآلي أو ينتج عنه خطأ أو عندما يريد شخص ما الطعن في تأثيره.

"من المبادئ إلى التطبيق"

نُشر ملحق تقني، بعنوان "من المبادئ إلى التطبيق"، إلى جانب المخطط. وهو يقدم أمثلة وخطوات يمكن للحكومات والصناعات والمجتمعات اتخاذها لتضمين المبادئ الخمسة في السياسة أو الممارسة أو التصميم التقني للأنظمة الآلية.

تشرح وثيقة حقوق الذكاء الاصطناعي وملحقها التقني سبب أهمية كل مبدأ وما ينبغي توقعه من الأنظمة المؤتمتة وكيف يمكن تطبيق كل مبدأ عمليًا. والأمثلة المقدمة ليست نقدًا أو تأييدًا، بل تهدف إلى إلهام المؤسسات لدمج ضمانات السلامة في عمليات الذكاء الاصطناعي واتخاذ القرارات الخاصة بها.

ما التأثير الذي أحدثته وثيقة حقوق الذكاء الاصطناعي؟

بعد نشرها في واشنطن العاصمة، ربما تكون وثيقة حقوق الذكاء الاصطناعي قد ألهمت جزئيًا العديد من الوكالات الفيدرالية لتبني مبادئ توجيهية لاستخدامها المسؤول للذكاء الاصطناعي. حتى تاريخ كتابة هذا المقال، لدى 12 وكالة حكومية أمريكية - بما في ذلك وزارة التجارة (DOC) والمعهد الوطني للمعايير والتكنولوجيا (NIST) - متطلبات خاصة بالذكاء الاصطناعي تشمل القانون والسياسة والأمن القومي.

في 30 أكتوبر 2023، أصدرت إدارة بايدن أمرًا تنفيذيًا لوضع معايير جديدة للذكاء الاصطناعي الآمن والموثوق به والجدير بالثقة. وفي بيان صحفي نُشر بعد ستة أشهر، أعلنت وزارة الدفاع الأمريكية عن عدة خطط لتنفيذ الأمر التنفيذي.4

على مستوى الولاية، يبدو أن صانعي السياسات يعملون على مواءمة التشريعات الجديدة مع المخطط من حيث بعض النواحي. في عام 2021، اعتمدت نيويورك قانونًا يتضمن متطلبات لأصحاب العمل بما في ذلك الإخطار عند استخدام تقنيات الذكاء الاصطناعي في عملية التوظيف. ولدى العديد من الولايات الآن متطلبات تتعلق باستخدام تقنية التعرف على الوجوه في أجهزة إنفاذ القانون. وفي الآونة الأخيرة، اقترح مجلس الحقوق المدنية في كاليفورنيا تعديلات على قانون التوظيف والإسكان العادل (FEHA) التي توائم بين القانون ووثيقة حقوق الذكاء الاصطناعي.

أما خارج الولايات المتحدة، فقد وضعت 34 دولة إستراتيجيات وطنية خاصة بالذكاء الاصطناعي حتى تاريخ كتابة هذا المقال.5 والجدير بالذكر أن قانون الذكاء الاصطناعي في الاتحاد الأوروبي (قانون الاتحاد الأوروبي للذكاء الاصطناعي) يحكم تطوير الذكاء الاصطناعي أو استخدامه في الاتحاد الأوروبي. ويتبع القانون نهجًا قائمًا على المخاطر في التنظيم، حيث يطبق قواعد مختلفة على الذكاء الاصطناعي وفقًا للمخاطر التي يشكلها.

كيف تتفاعل وثيقة حقوق الذكاء الاصطناعي مع السياسات القائمة؟

إن بعض وسائل الحماية المقترحة في وثيقة حقوق الذكاء الاصطناعي مطلوبة بالفعل بموجب الدستور الأمريكي أو موجودة بموجب القوانين الأمريكية الحالية. على سبيل المثال، المراقبة الحكومية المذكورة في مبدأ "خصوصية البيانات" تخضع بالفعل لمتطلبات قانونية وإشراف قضائي، في حين أن قوانين الحقوق المدنية موجودة لحماية الشعب الأمريكي من التمييز.

من الأمثلة على معايير الذكاء الاصطناعي الأخرى التي يتوافق معها المخطط:

  • توصية منظمة التعاون الاقتصادي والتنمية (OECD) لعام 2019 بشأن الذكاء الاصطناعي. يتضمن ذلك مبادئ للإدارة المسؤولة للذكاء الاصطناعي الجدير بالثقة التي اعتمدتها الولايات المتحدة.

  • الأمر التنفيذي رقم 13960 بشأن تعزيز استخدام الذكاء الاصطناعي الجدير بالثقة في الحكومة الفيدرالية. يحدد هذا الأمر المبادئ التي تحكم استخدام الحكومة الفيدرالية للذكاء الاصطناعي.

  • الأمر التنفيذي رقم 13985 بشأن تعزيز المساواة العرقية ودعم المجتمعات المهمشة من خلال الحكومة الفيدرالية.

قد تُعتمد سياسات وممارسات جديدة للمساعدة على ضمان تنفيذ الحماية المذكورة في وثيقة حقوق الذكاء الاصطناعي. يقر المخطط أنه في بعض الحالات، قد تكون الاستثناءات من المبادئ ضرورية للمساعدة على ضمان الامتثال للتشريعات القائمة أو التوافق مع الجوانب العملية لحالة استخدام محددة أو تحقيق التوازن بين المصالح العامة المتنافسة. على سبيل المثال، تُشجَع جهات إنفاذ القانون والوكالات الحكومية الأخرى على اتباع المبادئ التوجيهية المنصوص عليها في وثيقة حقوق الذكاء الاصطناعي. ومع ذلك، لحماية حقوق الأشخاص وخصوصيتهم، قد يحتاجون إلى استخدام أساليب بديلة.

استشرافًا للمستقبل، قد تؤدي وثيقة حقوق الذكاء الاصطناعي دورًا رئيسيًا في التأثير في الموجة التالية من السياسات مع تبني دول العالم نهجًا أكثر شمولية للذكاء الاصطناعي المسؤول.