الصفحة الرئيسية
الموضوعات
قانون الذكاء الاصطناعي للاتحاد الأوروبي
تاريخ التحديث: 20 سبتمبر 2024
المساهمان: Matt Kosinski وMark Scapicchio
قانون الذكاء الاصطناعي الصادر عن الاتحاد الأوروبي، والمعروف أيضًا باسم EU AI Act أو قانون الذكاء الاصطناعي، هو قانون يُنظم عملية تطوير الذكاء الاصطناعي (AI) و/أو استخدامه في الاتحاد الأوروبي (EU). يتبع القانون نهجًا قائمًا على المخاطر في التنظيم، ويطبق قواعد مختلفة على الذكاء الاصطناعي وفقًا للمخاطر التي يشكلها.
يُعد قانون الذكاء الاصطناعي الصادر عن الاتحاد الأوروبي أول إطار عمل تنظيمي شامل في العالم للذكاء الاصطناعي، حيث يحظر القانون بعض حالات استخدام الذكاء الاصطناعي بشكل صريح، ويطبق متطلبات صارمة للحوكمة وإدارة المخاطر والشفافية على البعض الآخر.
يحدد القانون أيضًا بعض القواعد لنماذج الذكاء الاصطناعي عامة الأغراض، مثل نموذج الأساس مفتوح المصدر "Granite" التابع لشركة IBM ونموذج "Llama 3" التابع لشركة Meta.
يمكن أن تتراوح العقوبات بين 7.5 ملايين يورو أو 1.5% من حجم المبيعات السنوي في جميع أنحاء العالم إلى 35 مليون يورو أو 7% من حجم المبيعات السنوي في جميع أنحاء العالم، اعتمادًا على نوع عدم الامتثال.
وبالطريقة نفسها التي يمكن أن تُلهم بها للائحة العامة لحماية البيانات (GDPR) الصادرة عن الاتحاد الأوروبي الدول الأخرى لتبني قوانين خصوصية البيانات، يتوقع الخبراء أن يحفز قانون الذكاء الاصطناعي للاتحاد الأوروبي عملية تطوير معايير حوكمة الذكاء الاصطناعي والأخلاقيات في جميع أنحاء العالم.
ينطبق قانون الذكاء الاصطناعي للاتحاد الأوروبي على العديد من المشغلين في سلسلة قيمة الذكاء الاصطناعي، مثل مقدمي الخدمات والناشرين والمستوردين والموزعين ومصنعي المنتجات والممثلين المعتمدين). وتجدر الإشارة إلى تعريفات مقدمي الخدمات والناشرين والمستوردين في ظل قانون الذكاء الاصطناعي للاتحاد الأوروبي.
مقدمو الخدمات هم الأشخاص أو المؤسسات التي تطور نظام الذكاء الاصطناعي أو نموذج الذكاء الاصطناعي عام الأغراض (GPAI)، أو التي تُطوره نيابةً عنها، والتي تطرحه في السوق أو توفر نظام الذكاء الاصطناعي كخدمة تحت اسمها أو علامتها التجارية.
يُعرّف القانون بشكل عام نظام الذكاء الاصطناعي على أنه نظام يمكنه، بمستوى معين من الذاتية، معالجة المدخلات لاستنتاج كيفية إنشاء المخرجات (مثل التنبؤات والتوصيات والقرارات والمحتوى) التي يمكن أن تؤثر في البيئات الفعلية أو الافتراضية. ويُعرّف نماذج الذكاء الاصطناعي عامة الأغراض على أنها نماذج الذكاء الاصطناعي التي تُظهر عمومية كبيرة، وتتمكن من أداء مجموعة واسعة من المهام المتميزة بكفاءة، ويمكن دمجها في مجموعة متنوعة من أنظمة أو تطبيقات الذكاء الاصطناعي النهائية. على سبيل المثال، إذا كان نموذج الأساس GPAI؛ فروبوت المحادثة أو أداة الذكاء الاصطناعي التوليدي المبنية على هذا النموذج ستكون بمثابة نظام من أنظمة الذكاء الاصطناعي.
الناشرون هم أشخاص أو مؤسسات تستخدم أنظمة الذكاء الاصطناعي. على سبيل المثال، المؤسسة التي تستخدم روبوت المحادثة المدعوم بالذكاء الاصطناعي التابع لجهة خارجية للتعامل مع استفسارات خدمة العملاء ستكون من الناشرين.
المستوردون هم الأشخاص والمؤسسات الموجودة أو القائمة في دول الاتحاد الأوروبي التي تجلب أنظمة الذكاء الاصطناعي التابعة لشخص أو شركة منشأة خارج دول الاتحاد الأوروبي إلى سوق الاتحاد الأوروبي.
ينطبق قانون الذكاء الاصطناعي للاتحاد الأوروبي أيضًا على مقدمي الخدمات والناشرين خارج دول الاتحاد الأوروبي، في حال استُخدم الذكاء الاصطناعي التابع لهم أو مخرجات الذكاء الاصطناعي داخل الاتحاد الأوروبي.
على سبيل المثال، لنفترض أن شركة ما في الاتحاد الأوروبي تُرسل البيانات إلى مقدم خدمات ذكاء اصطناعي من خارج الاتحاد الأوروبي، والذي بدوره يستخدم الذكاء الاصطناعي لمعالجة البيانات، ثم يُرسل المخرجات مرة أخرى إلى الشركة في الاتحاد الأوروبي من أجل استخدامها. فنظرًا إلى استخدام مخرجات نظام الذكاء الاصطناعي الخاص بمقدم الخدمات في الاتحاد الأوروبي، فإن مقدم الخدمات ملزم بقانون الذكاء الاصطناعي الصادر عن الاتحاد الأوروبي.
يتعين على مقدمي الخدمات خارج الاتحاد الأوروبي الذين يقدمون خدمات الذكاء الاصطناعي داخل الاتحاد الأوروبي تعيين ممثلين معتمدين في الاتحاد الأوروبي من أجل تنسيق جهود الامتثال نيابة عنهم.
في حين أن القانون له نطاق واسع، إلا أن بعض حالات استخدام الذكاء الاصطناعي مستثناة من القانون. تُعد حالات الاستخدام الشخصية البحتة للذكاء الاصطناعي، ونماذج الذكاء الاصطناعي، والأنظمة المستخدمة في البحث العلمي والتطوير فقط من الأمثلة على حالات استخدام الذكاء الاصطناعي المستثناة.
ينظم قانون الذكاء الاصطناعي للاتحاد الأوروبي أنظمة الذكاء الاصطناعي وفقًا لمستوى المخاطر. وتشير المخاطر هنا إلى احتمالية وقوع الضرر ومدى شدته. وتتضمن أهم الأحكام ما يلي:
أنظمة الذكاء الاصطناعي التي لا تندرج ضمن إحدى فئات المخاطر في قانون الاتحاد الأوروبي للذكاء الاصطناعي لا ينطبق عليها متطلبات القانون (وغالبًا ما يُطلق عليها فئة "الحد الأدنى من المخاطر")، على الرغم من أن بعضها قد يحتاج إلى الالتزام الشفافية والامتثال للقوانين الأخرى السارية. يمكن أن تشمل الأمثلة عوامل تصفية البريد الإلكتروني العشوائي وألعاب الفيديو. تندرج العديد من حالات استخدام الذكاء الاصطناعي الشائعة في الوقت الحالي ضمن هذه الفئة.
ومن الجدير بالذكر أن العديد من التفاصيل الدقيقة المتعلقة بتنفيذ قانون الاتحاد الأوروبي للذكاء الاصطناعي لا تزال قيد التسوية. على سبيل المثال، يشير القانون إلى أن مفوضية الاتحاد الأوروبي ستصدر مزيدًا من الإرشادات بشأن المتطلبات مثل خطط المراقبة بعد البيع وملخصات بيانات التدريب.
ينص قانون الاتحاد الأوروبي للذكاء الاصطناعي صراحةً على بعض ممارسات الذكاء الاصطناعي المحظورة التي تُعد من الممارسات التي تُشكل مستوى غير مقبول من المخاطر. على سبيل المثال، وفقًا للقانون، يُعد تطوير أو استخدام نظام ذكاء اصطناعي يتلاعب عمدًا بالأشخاص لحملهم على اتخاذ خيارات ضارة ما كانوا ليتخذوها لولا ذلك من الممارسات التي تُشكل خطرًا غير مقبول على المستخدمين، وهو من ممارسات الذكاء الاصطناعي المحظورة.
يمكن أن تعدل مفوضية الاتحاد الأوروبي قائمة الممارسات المحظورة في القانون، لذا يحتمل أن تُحظر المزيد من ممارسات الذكاء الاصطناعي في المستقبل.
تتضمن قائمة جزئية لممارسات الذكاء الاصطناعي المحظورة في وقت نشر هذه المقالة ما يلي:
تُعد أنظمة الذكاء الاصطناعي عالية المخاطر بموجب قانون الاتحاد الأوروبي للذكاء الاصطناعي إذا كانت منتجًا أو عنصرًا من عناصر السلامة في منتج ما يخضع لقوانين الاتحاد الأوروبي المحددة المشار إليها في القانون، مثل قوانين سلامة الألعاب وقوانين الأجهزة الطبية التشخيصية في المختبرات.
ينص القانون أيضًا على حالات استخدام محددة تُعد عادةً عالية المخاطر، بما في ذلك أنظمة الذكاء الاصطناعي المستخدمة فيما يلي:
بالنسبة إلى الأنظمة المدرجة في هذه القائمة، قد يكون هناك استثناء إذا كان نظام الذكاء الاصطناعي لا يُشكل تهديدًا كبيرًا على صحة الأفراد أو سلامتهم أو حقوقهم. يحدد القانون المعايير، التي ينبغي استيفاء واحد أو أكثر منها، قبل تطبيق أي استثناء (على سبيل المثال، عندما يكون الهدف من نظام الذكاء الاصطناعي أداء مهمة إجرائية محدودة). في حال الاعتماد على هذا الاستثناء، يتعين على مقدم الخدمة توثيق تقييم يفيد بأن النظام ليس عالي المخاطر، ويمكن أن يطلب المنظمون الاطلاع على هذا التقييم. لا ينطبق الاستثناء على أنظمة الذكاء الاصطناعي التي تعالج البيانات الشخصية تلقائيًا لتقييم أو التنبؤ ببعض جوانب حياة الشخص، مثل تفضيلات المنتجات (تحديد السمات)، والتي تُعد دائمًا عالية المخاطر.
كما هو الحال مع قائمة ممارسات الذكاء الاصطناعي المحظورة، قد تُحدث مفوضية الاتحاد الأوروبي قائمة أنظمة الذكاء الاصطناعي عالية المخاطر في المستقبل.
ينبغي أن تُلبي أنظمة الذكاء الاصطناعي عالية المخاطر متطلبات محددة. تشمل بعض الأمثلة ما يلي:
وثمّة مزيد من الالتزامات الإضافية التي تتعلق بالشفافية لأنواع محددة من الذكاء الاصطناعي. على سبيل المثال:
نسلط الضوء أدناه على بعض الالتزامات المفروضة على المشغلين الرئيسيين لأنظمة الذكاء الاصطناعي عالية المخاطر في سلسلة قيمة الذكاء الاصطناعي - المزودين والناشرين.
يتعين على مقدمي خدمات أنظمة الذكاء الاصطناعي عالية المخاطر الامتثال للمتطلبات التي تشمل ما يلي:
سيكون على ناشري أنظمة الذكاء الاصطناعي عالية المخاطر التزامات تشمل ما يلي:
يحدد قانون الاتحاد الأوروبي للذكاء الاصطناعي قواعد منفصلة لنماذج الذكاء الاصطناعي ذات الأغراض العامة (GPAI). سيكون على مقدمي خدمات نماذج الذكاء الاصطناعي ذات الأغراض العامة التزامات تشمل ما يلي:
في حال تصنيف أحد نماذج الذكاء الاصطناعي ذات الأغراض العامة على أنه يُشكل خطرًا نظاميًا، فسيكون على مقدمي الخدمات التزامات إضافية. المخاطر النظامية هي مخاطر خاصة بالإمكانات عالية التأثير لنماذج الذكاء الاصطناعي ذات الأغراض العامة التي لها تأثير كبير في سوق الاتحاد الأوروبي بسبب انتشارها أو بسبب الآثار السلبية الفعلية أو المتوقعة بشكل كبير على الصحة العامة أو السلامة أو الأمن العام أو الحقوق الأساسية أو المجتمع ككل، والتي يمكن أن تنتشر على نطاق واسع عبر سلسلة القيم. يستخدم القانون موارد التدريب كأحد المعايير لتحديد المخاطر النظامية - إذا كان المجموع التراكمي لقوة الحوسبة المستخدمة لتدريب نموذج أكثر من 10 ^ 25 من عمليات الفاصلة العشرية (FLOPs)، فمن المفترض أن تكون إمكاناتها عالية التأثير وتُشكل خطرًا نظاميًا.يمكن أن تُصنف مفوضية الاتحاد الأوروبي أيضًا نموذجًا على أنه يُشكل خطرًا نظاميًا.
سيكون على مقدمي خدمات نماذج الذكاء الاصطناعي ذات الأغراض العامة التي تُشكل خطرًا نظاميًا، بما في ذلك النماذج المجانية مفتوحة المصدر، بعض الالتزامات الإضافية، مثل ما يلي:
في حال عدم الامتثال لممارسات الذكاء الاصطناعي المحظورة، يمكن أن تتكبّد المؤسسات غرامات يصل قدرها إلى 35000000 يورو أو 7% من حجم المبيعات السنوي في جميع أنحاء العالم، أيهما أكثر.
في حالات الانتهاك الأخرى، بما في ذلك عدم الامتثال لمتطلبات أنظمة الذكاء الاصطناعي عالية المخاطر، يمكن أن تتكبد المؤسسات غرامة تصل إلى 15000000 يورو أو 3% من حجم المبيعات السنوي في جميع أنحاء العالم، أيهما أكثر.
يمكن أن يؤدي تقديم معلومات غير صحيحة أو ناقصة أو مضللة إلى السلطات إلى تكبد المؤسسات غرامة تصل إلى 7500000 يورو أو 1% من حجم المبيعات السنوي في جميع أنحاء العالم، أيهما أكثر.
وتجدر الإشارة إلى أن قانون الاتحاد الأوروبي للذكاء الاصطناعي يحدد قواعد مختلفة لتغريم الشركات الناشئة وغيرها من المؤسسات الصغيرة والمتوسطة الحجم. بالنسبة إلى هذه الشركات، تكون الغرامة أقل المبلغين المحتملين المحددين أعلاه.
دخل القانون حيز التنفيذ في 1 أغسطس 2024، مع دخول أحكام مختلفة من القانون حيز التنفيذ على مراحل. ومن أهم التواريخ ما يلي:
يمكنك بكل سهولة نشر الذكاء الاصطناعي ودمجه في عملك وإدارة كل مصادر البيانات وتسريع مهام سير عمل الذكاء الاصطناعي المسؤول—وكل ذلك من منصة واحدة.
يمكنك تبسيط حوكمة البيانات وإدارة المخاطر والامتثال التنظيمي باستخدام IBM OpenPages - وهي منصة GRC موحدة وقابلة للتوسع بدرجة كبيرة ومدعومة بالذكاء الاصطناعي.
يوضح كتابنا الإلكتروني الأخير اللبنات الأساسية لحوكمة الذكاء الاصطناعي ويشارك إطار عمل تفصيليًا لحوكمة الذكاء الاصطناعي يمكنك تطبيقه في مؤسستك.
استكشف الإمكانات التحويلية التي يوفرها الذكاء الاصطناعي المسؤول لمؤسستك وتعرّف على الدوافع الحاسمة وراء تبني ممارسات الذكاء الاصطناعي الأخلاقي.
انضم إلى مناقشة حول سبب حاجة الشركات إلى إعطاء الأولوية لحوكمة الذكاء الاصطناعي من أجل نشر الذكاء الاصطناعي المسؤول.
تعرّف على كيفية ضمان إدارة البيانات حصول الشركات على أقصى استفادة من أصول بياناتها.
يُعد الذكاء الاصطناعي القابل للتفسير أمرًا بالغ الأهمية للمؤسسات من أجل بناء الثقة والاطمئنان عند دخول نماذج الذكاء الاصطناعي في مرحلة الإنتاج.
يُعد مجال أخلاقيات الذكاء الاصطناعي مجالاً متعدد التخصصات، يدرس كيفية تعزيز التأثير النافع للذكاء الاصطناعي مع تقليل مخاطره ونتائجه السلبية. تعرّف على نهج شركة IBM في مجال أخلاقيات الذكاء الاصطناعي.
العميل مسؤول عن ضمان الامتثال لجميع القوانين واللوائح المعمول بها. لا تقدم شركة IBM مشورة قانونية، ولا تتعهد ولا تضمن قدرة خدماتها أو منتجاتها على إلزام العميل بالامتثال لأي قانون أو لائحة.