حساب IBM الخاص بي تسجيل الدخول اشترك

الصفحة الرئيسية

الموضوعات

قانون الذكاء الاصطناعي للاتحاد الأوروبي

ما قانون الذكاء الاصطناعي الصادر عن الاتحاد الأوروبي؟

ما قانون الذكاء الاصطناعي الصادر عن الاتحاد الأوروبي؟

استكشف حل حوكمة الذكاء الاصطناعي المقدم من IBM سجل للتعرف على تحديثات الذكاء الاصطناعي
رسم تخطيطي مجرد لشجرة قرارات

تاريخ التحديث: 20 سبتمبر 2024
المساهمان: Matt Kosinski وMark Scapicchio

ما قانون الذكاء الاصطناعي للاتحاد الأوروبي؟

ما قانون الذكاء الاصطناعي للاتحاد الأوروبي؟

قانون الذكاء الاصطناعي الصادر عن الاتحاد الأوروبي، والمعروف أيضًا باسم EU AI Act أو قانون الذكاء الاصطناعي، هو قانون يُنظم عملية تطوير الذكاء الاصطناعي (AI) و/أو استخدامه في الاتحاد الأوروبي (EU). يتبع القانون نهجًا قائمًا على المخاطر في التنظيم، ويطبق قواعد مختلفة على الذكاء الاصطناعي وفقًا للمخاطر التي يشكلها.

يُعد قانون الذكاء الاصطناعي الصادر عن الاتحاد الأوروبي أول إطار عمل تنظيمي شامل في العالم للذكاء الاصطناعي، حيث يحظر القانون بعض حالات استخدام الذكاء الاصطناعي بشكل صريح، ويطبق متطلبات صارمة للحوكمة وإدارة المخاطر والشفافية على البعض الآخر.

يحدد القانون أيضًا بعض القواعد لنماذج الذكاء الاصطناعي عامة الأغراض، مثل نموذج الأساس مفتوح المصدر "Granite" التابع لشركة IBM ونموذج "Llama 3" التابع لشركة Meta.

يمكن أن تتراوح العقوبات بين 7.5 ملايين يورو أو 1.5% من حجم المبيعات السنوي في جميع أنحاء العالم إلى 35 مليون يورو أو 7% من حجم المبيعات السنوي في جميع أنحاء العالم، اعتمادًا على نوع عدم الامتثال.

وبالطريقة نفسها التي يمكن أن تُلهم بها للائحة العامة لحماية البيانات (GDPR) الصادرة عن الاتحاد الأوروبي الدول الأخرى لتبني قوانين خصوصية البيانات، يتوقع الخبراء أن يحفز قانون الذكاء الاصطناعي للاتحاد الأوروبي عملية تطوير معايير حوكمة الذكاء الاصطناعي والأخلاقيات في جميع أنحاء العالم.

ماذا يعني قانون الذكاء الاصطناعي للاتحاد الأوروبي بالنسبة إليك وكيفية الاستعداد.
محتوى ذو صلة سجِّل للحصول على تقرير IDC
مَن ينطبق عليه قانون الذكاء الاصطناعي للاتحاد الأوروبي؟

مَن ينطبق عليه قانون الذكاء الاصطناعي للاتحاد الأوروبي؟

ينطبق قانون الذكاء الاصطناعي للاتحاد الأوروبي على العديد من المشغلين في سلسلة قيمة الذكاء الاصطناعي، مثل مقدمي الخدمات والناشرين والمستوردين والموزعين ومصنعي المنتجات والممثلين المعتمدين). وتجدر الإشارة إلى تعريفات مقدمي الخدمات والناشرين والمستوردين في ظل قانون الذكاء الاصطناعي للاتحاد الأوروبي.

مقدمو الخدمات

مقدمو الخدمات هم الأشخاص أو المؤسسات التي تطور نظام الذكاء الاصطناعي أو نموذج الذكاء الاصطناعي عام الأغراض (GPAI)، أو التي تُطوره نيابةً عنها، والتي تطرحه في السوق أو توفر نظام الذكاء الاصطناعي كخدمة تحت اسمها أو علامتها التجارية.

يُعرّف القانون بشكل عام نظام الذكاء الاصطناعي على أنه نظام يمكنه، بمستوى معين من الذاتية، معالجة المدخلات لاستنتاج كيفية إنشاء المخرجات (مثل التنبؤات والتوصيات والقرارات والمحتوى) التي يمكن أن تؤثر في البيئات الفعلية أو الافتراضية. ويُعرّف نماذج الذكاء الاصطناعي عامة الأغراض على أنها نماذج الذكاء الاصطناعي التي تُظهر عمومية كبيرة، وتتمكن من أداء مجموعة واسعة من المهام المتميزة بكفاءة، ويمكن دمجها في مجموعة متنوعة من أنظمة أو تطبيقات الذكاء الاصطناعي النهائية. على سبيل المثال، إذا كان نموذج الأساس GPAI؛ فروبوت المحادثة أو أداة الذكاء الاصطناعي التوليدي المبنية على هذا النموذج ستكون بمثابة نظام من أنظمة الذكاء الاصطناعي.

الناشرون

الناشرون هم أشخاص أو مؤسسات تستخدم أنظمة الذكاء الاصطناعي. على سبيل المثال، المؤسسة التي تستخدم روبوت المحادثة المدعوم بالذكاء الاصطناعي التابع لجهة خارجية للتعامل مع استفسارات خدمة العملاء ستكون من الناشرين.

المستوردون

المستوردون هم الأشخاص والمؤسسات الموجودة أو القائمة في دول الاتحاد الأوروبي التي تجلب أنظمة الذكاء الاصطناعي التابعة لشخص أو شركة منشأة خارج دول الاتحاد الأوروبي إلى سوق الاتحاد الأوروبي.

تطبيق القانون خارج الاتحاد الأوروبي

ينطبق قانون الذكاء الاصطناعي للاتحاد الأوروبي أيضًا على مقدمي الخدمات والناشرين خارج دول الاتحاد الأوروبي، في حال استُخدم الذكاء الاصطناعي التابع لهم أو مخرجات الذكاء الاصطناعي داخل الاتحاد الأوروبي.

على سبيل المثال، لنفترض أن شركة ما في الاتحاد الأوروبي تُرسل البيانات إلى مقدم خدمات ذكاء اصطناعي من خارج الاتحاد الأوروبي، والذي بدوره يستخدم الذكاء الاصطناعي لمعالجة البيانات، ثم يُرسل المخرجات مرة أخرى إلى الشركة في الاتحاد الأوروبي من أجل استخدامها. فنظرًا إلى استخدام مخرجات نظام الذكاء الاصطناعي الخاص بمقدم الخدمات في الاتحاد الأوروبي، فإن مقدم الخدمات ملزم بقانون الذكاء الاصطناعي الصادر عن الاتحاد الأوروبي.

يتعين على مقدمي الخدمات خارج الاتحاد الأوروبي الذين يقدمون خدمات الذكاء الاصطناعي داخل الاتحاد الأوروبي تعيين ممثلين معتمدين في الاتحاد الأوروبي من أجل تنسيق جهود الامتثال نيابة عنهم.

الاستثناءات

في حين أن القانون له نطاق واسع، إلا أن بعض حالات استخدام الذكاء الاصطناعي مستثناة من القانون. تُعد حالات الاستخدام الشخصية البحتة للذكاء الاصطناعي، ونماذج الذكاء الاصطناعي، والأنظمة المستخدمة في البحث العلمي والتطوير فقط من الأمثلة على حالات استخدام الذكاء الاصطناعي المستثناة.

تعرّف على كيفية مساعدة منصة الذكاء الاصطناعي والبيانات ™IBM® watsonx للمؤسسات على تطوير حلول الذكاء الاصطناعي المخصصة وتوسيع نطاقها وإدارتها
ما المتطلبات التي يفرضها قانون الذكاء الاصطناعي للاتحاد الأوروبي؟

ما المتطلبات التي يفرضها قانون الذكاء الاصطناعي للاتحاد الأوروبي؟

ينظم قانون الذكاء الاصطناعي للاتحاد الأوروبي أنظمة الذكاء الاصطناعي وفقًا لمستوى المخاطر. وتشير المخاطر هنا إلى احتمالية وقوع الضرر ومدى شدته. وتتضمن أهم الأحكام ما يلي:

  • حظر بعض ممارسات الذكاء الاصطناعي التي يُعتقد أنها تشكل مخاطر غير مقبولة،

  • المعايير الخاصة بتطوير أنظمة الذكاء الاصطناعي عالية المخاطر ونشرها،

  • قواعد نماذج الذكاء الاصطناعي عامة الأغراض (GPAI).

أنظمة الذكاء الاصطناعي التي لا تندرج ضمن إحدى فئات المخاطر في قانون الاتحاد الأوروبي للذكاء الاصطناعي لا ينطبق عليها متطلبات القانون (وغالبًا ما يُطلق عليها فئة "الحد الأدنى من المخاطر")، على الرغم من أن بعضها قد يحتاج إلى الالتزام الشفافية والامتثال للقوانين الأخرى السارية.  يمكن أن تشمل الأمثلة عوامل تصفية البريد الإلكتروني العشوائي وألعاب الفيديو. تندرج العديد من حالات استخدام الذكاء الاصطناعي الشائعة في الوقت الحالي ضمن هذه الفئة. 

ومن الجدير بالذكر أن العديد من التفاصيل الدقيقة المتعلقة بتنفيذ قانون الاتحاد الأوروبي للذكاء الاصطناعي لا تزال قيد التسوية. على سبيل المثال، يشير القانون إلى أن مفوضية الاتحاد الأوروبي ستصدر مزيدًا من الإرشادات بشأن المتطلبات مثل خطط المراقبة بعد البيع وملخصات بيانات التدريب.

ممارسات الذكاء الاصطناعي المحظورة

ممارسات الذكاء الاصطناعي المحظورة

ينص قانون الاتحاد الأوروبي للذكاء الاصطناعي صراحةً على بعض ممارسات الذكاء الاصطناعي المحظورة التي تُعد من الممارسات التي تُشكل مستوى غير مقبول من المخاطر. على سبيل المثال، وفقًا للقانون، يُعد تطوير أو استخدام نظام ذكاء اصطناعي يتلاعب عمدًا بالأشخاص لحملهم على اتخاذ خيارات ضارة ما كانوا ليتخذوها لولا ذلك من الممارسات التي تُشكل خطرًا غير مقبول على المستخدمين، وهو من ممارسات الذكاء الاصطناعي المحظورة.

يمكن أن تعدل مفوضية الاتحاد الأوروبي قائمة الممارسات المحظورة في القانون، لذا يحتمل أن تُحظر المزيد من ممارسات الذكاء الاصطناعي في المستقبل.

  تتضمن قائمة جزئية لممارسات الذكاء الاصطناعي المحظورة في وقت نشر هذه المقالة ما يلي:

  • أنظمة التصنيف الاجتماعي - وهي الأنظمة التي تُقيّم الأفراد أو تصنفهم بناءً على سلوكهم الاجتماعي - ما يؤدي إلى معاملة مجحفة أو مهينة في ظروف اجتماعية لا علاقة لها بجمع البيانات الأصلية وغير مبررة أو غير متناسبة مع خطورة السلوك

  • أنظمة التعرف على المشاعر في أماكن العمل وفي المؤسسات التعليمية، باستثناء الحالات التي تستخدم فيها هذه الأدوات لأغراض طبية أو لأغراض السلامة

  • استخدام الذكاء الاصطناعي لاستغلال نقاط ضعف الأشخاص (على سبيل المثال نقاط الضعف بسبب السن أو الإعاقة)

  • الجمع غير الموجّه لصور الوجه من الإنترنت أو كاميرات المراقبة (CCTV) من أجل قواعد بيانات التعرف على الوجه

  • أنظمة تحديد الهوية البيومترية التي تحدد هوية الأفراد بناءً على خصائص حساسة

  • التطبيقات الخاصة بالشرطة التنبئية

  • استخدام سلطات إنفاذ القانون لأنظمة تحديد الهوية البيومترية عن بُعد في الوقت الفعلي في الأماكن العامة (إلا إذا كان هناك استثناء، ويلزم عمومًا الحصول على إذن مسبق من سلطة قضائية أو إدارية مستقلة).
معايير الذكاء الاصطناعي عالي المخاطر

معايير الذكاء الاصطناعي عالي المخاطر

تُعد أنظمة الذكاء الاصطناعي عالية المخاطر بموجب قانون الاتحاد الأوروبي للذكاء الاصطناعي إذا كانت منتجًا أو عنصرًا من عناصر السلامة في منتج ما يخضع لقوانين الاتحاد الأوروبي المحددة المشار إليها في القانون، مثل قوانين سلامة الألعاب وقوانين الأجهزة الطبية التشخيصية في المختبرات.

ينص القانون أيضًا على حالات استخدام محددة تُعد عادةً عالية المخاطر، بما في ذلك أنظمة الذكاء الاصطناعي المستخدمة فيما يلي:

  • في مجالات التوظيف، مثل تلك المستخدمة لتوظيف المرشحين، وتقييم المتقدمين للوظائف، واتخاذ قرارات الترقية

  • في بعض الأجهزة الطبية

  • في بعض مجالات التعليم والتدريب المهني

  • في العمليات القضائية والديمقراطية مثل الأنظمة التي تهدف إلى التأثير في نتائج الانتخابات

  • تحديد صلاحيات الوصول إلى الخدمات الأساسية الخاصة أو العامة، بما في ذلك الأنظمة التي تُقيّم الأهلية للحصول على الاستحقاقات العامة وتُقيّم درجات الائتمان.

  • في إدارة البنية التحتية الحيوية (مثل إمدادات المياه والغاز والكهرباء وما إلى ذلك)

  • في أي نظام تحديد هوية بيومترية غير محظور، باستثناء الأنظمة التي يكون الغرض الوحيد منها هو التحقق من هوية الشخص (على سبيل المثال، استخدام ماسح بصمات الأصابع لمنح شخص ما إذن الوصول إلى تطبيق مصرفي).

بالنسبة إلى الأنظمة المدرجة في هذه القائمة، قد يكون هناك استثناء إذا كان نظام الذكاء الاصطناعي لا يُشكل تهديدًا كبيرًا على صحة الأفراد أو سلامتهم أو حقوقهم. يحدد القانون المعايير، التي ينبغي استيفاء واحد أو أكثر منها، قبل تطبيق أي استثناء (على سبيل المثال، عندما يكون الهدف من نظام الذكاء الاصطناعي أداء مهمة إجرائية محدودة). في حال الاعتماد على هذا الاستثناء، يتعين على مقدم الخدمة توثيق تقييم يفيد بأن النظام ليس عالي المخاطر، ويمكن أن يطلب المنظمون الاطلاع على هذا التقييم. لا ينطبق الاستثناء على أنظمة الذكاء الاصطناعي التي تعالج البيانات الشخصية تلقائيًا لتقييم أو التنبؤ ببعض جوانب حياة الشخص، مثل تفضيلات المنتجات (تحديد السمات)، والتي تُعد دائمًا عالية المخاطر.

كما هو الحال مع قائمة ممارسات الذكاء الاصطناعي المحظورة، قد تُحدث مفوضية الاتحاد الأوروبي قائمة أنظمة الذكاء الاصطناعي عالية المخاطر في المستقبل.

متطلبات أنظمة الذكاء الاصطناعي عالية المخاطر

 

ينبغي أن تُلبي أنظمة الذكاء الاصطناعي عالية المخاطر متطلبات محددة. تشمل بعض الأمثلة ما يلي:

  • تطوير نظام إدارة دائمة للمخاطر من أجل مراقبة الذكاء الاصطناعي طوال دورة عمله. على سبيل المثال، من المتوقع أن يحد مقدمو الخدمات من المخاطر المتوقعة بشكل كبير التي يُشكلها الاستخدام المزمع لأنظمتهم.

  • تبني ممارسات صارمة لحوكمة البيانات من أجل ضمان استيفاء بيانات التدريب والتحقق من الصحة والاختبار لمعايير الجودة المحددة. على سبيل المثال، ينبغي أن تكون هناك حوكمة لعملية جمع البيانات ومصادر البيانات، كما ينبغي أن تكون هناك تدابير لمنع التحيزات والحد منها.

  • الاحتفاظ بوثائق تقنية شاملة تتضمن معلومات محددة بما في ذلك مواصفات تصميم النظام، والإمكانات، والقيود، وجهود الامتثال التنظيمي.

وثمّة مزيد من الالتزامات الإضافية التي تتعلق بالشفافية لأنواع محددة من الذكاء الاصطناعي. على سبيل المثال:

  • ينبغي تصميم أنظمة الذكاء الاصطناعي الهادفة للتفاعل المباشر مع الأفراد بحيث تُخطر المستخدمين بأنهم يتفاعلون مع نظام ذكاء اصطناعي، ما لم يكن ذلك واضحًا للفرد من السياق. على سبيل المثال، ينبغي تصميم روبوت المحادثة بحيث يُخطر المستخدمين بأنه روبوت محادثة.

  • ينبغي أن تستخدم أنظمة الذكاء الاصطناعي التي تُنشئ عبارات نصية أو صورًا أو أي محتوى آخر تنسيقات قابلة للقراءة آليًا لتحديد المخرجات كمخرجات منشأة أو معالجة بالذكاء الاصطناعي. يشمل ذلك، على سبيل المثال، الذكاء الاصطناعي الذي يُنشئ الصور والمقاطع المزيفة — وهي الصور أو مقاطع الفيديو المعدلة لإظهار شخص يفعل أمرًا أو يقول شيئًا لم يفعله أو لم يقله.

 

التزامات مشغلي أنظمة الذكاء الاصطناعي عالية المخاطر

نسلط الضوء أدناه على بعض الالتزامات المفروضة على المشغلين الرئيسيين لأنظمة الذكاء الاصطناعي عالية المخاطر في سلسلة قيمة الذكاء الاصطناعي - المزودين والناشرين.

التزامات مقدمي خدمات أنظمة الذكاء الاصطناعي عالية المخاطر

يتعين على مقدمي خدمات أنظمة الذكاء الاصطناعي عالية المخاطر الامتثال للمتطلبات التي تشمل ما يلي:

  • ضمان امتثال أنظمة الذكاء الاصطناعي عالية المخاطر لمتطلبات أنظمة الذكاء الاصطناعي عالية المخاطر الموضحة في القانون. على سبيل المثال، تطوير نظام إدارة دائمة للمخاطر.

  • استخدام نظام لإدارة الجودة.

  • تنفيذ خطط المراقبة بعد البيع بهدف رصد أداء نظام الذكاء الاصطناعي وتقييم امتثاله الدائم على مدار دورة حياة النظام.
التزامات ناشري أنظمة الذكاء الاصطناعي عالية المخاطر

سيكون على ناشري أنظمة الذكاء الاصطناعي عالية المخاطر التزامات تشمل ما يلي:

  • اتخاذ التدابير التقنية والتنظيمية المناسبة لضمان استخدام هذه الأنظمة وفقًا لتعليمات استخدامها.

  • الاحتفاظ بسجلات نظام الذكاء الاصطناعي المنشأة تلقائيًا، إلى الحد الذي تكون فيه تلك السجلات تحت سيطرتهم، لفترة محددة.

  • بالنسبة إلى الناشرين الذين يستخدمون أنظمة الذكاء الاصطناعي عالية المخاطر لتقديم خدمات أساسية معينة – مثل الهيئات الحكومية أو المؤسسات الخاصة التي تُقدم خدمات عامة - إجراء تقييمات لمدى التأثير في الحقوق الأساسية قبل استخدام بعض أنظمة الذكاء الاصطناعي عالية المخاطر للمرة الأولى.
قواعد نماذج الذكاء الاصطناعي ذات الأغراض العامة (GPAI)

قواعد نماذج الذكاء الاصطناعي ذات الأغراض العامة (GPAI)

يحدد قانون الاتحاد الأوروبي للذكاء الاصطناعي قواعد منفصلة لنماذج الذكاء الاصطناعي ذات الأغراض العامة (GPAI). سيكون على مقدمي خدمات نماذج الذكاء الاصطناعي ذات الأغراض العامة التزامات تشمل ما يلي:

  • وضع سياسات لاحترام قوانين حقوق النشر في الاتحاد الأوروبي.

  • كتابة ملخصات مفصلة لمجموعات بيانات التدريب وإتاحتها للجمهور.

في حال تصنيف أحد نماذج الذكاء الاصطناعي ذات الأغراض العامة على أنه يُشكل خطرًا نظاميًا، فسيكون على مقدمي الخدمات التزامات إضافية.  المخاطر النظامية هي مخاطر خاصة بالإمكانات عالية التأثير لنماذج الذكاء الاصطناعي ذات الأغراض العامة التي لها تأثير كبير في سوق الاتحاد الأوروبي بسبب انتشارها أو بسبب الآثار السلبية الفعلية أو المتوقعة بشكل كبير على الصحة العامة أو السلامة أو الأمن العام أو الحقوق الأساسية أو المجتمع ككل، والتي يمكن أن تنتشر على نطاق واسع عبر سلسلة القيم. يستخدم القانون موارد التدريب كأحد المعايير لتحديد المخاطر النظامية - إذا كان المجموع التراكمي لقوة الحوسبة المستخدمة لتدريب نموذج أكثر من 10 ^ 25 من عمليات الفاصلة العشرية (FLOPs)، فمن المفترض أن تكون إمكاناتها عالية التأثير وتُشكل خطرًا نظاميًا.يمكن أن تُصنف مفوضية الاتحاد الأوروبي أيضًا نموذجًا على أنه يُشكل خطرًا نظاميًا. 

سيكون على مقدمي خدمات نماذج الذكاء الاصطناعي ذات الأغراض العامة التي تُشكل خطرًا نظاميًا، بما في ذلك النماذج المجانية مفتوحة المصدر، بعض الالتزامات الإضافية، مثل ما يلي:

  • توثيق الحوادث الخطيرة وإبلاغ مكتب الاتحاد الأوروبي للذكاء الاصطناعي والجهات التنظيمية المحلية المعنية عنها.

  • تطبيق تدابير أمن إلكتروني كافية لحماية النموذج وبنيته التحتية المادية.
غرامات قانون الاتحاد الأوروبي للذكاء الاصطناعي

غرامات قانون الاتحاد الأوروبي للذكاء الاصطناعي

في حال عدم الامتثال لممارسات الذكاء الاصطناعي المحظورة، يمكن أن تتكبّد المؤسسات غرامات يصل قدرها إلى 35000000 يورو أو 7% من حجم المبيعات السنوي في جميع أنحاء العالم، أيهما أكثر.

في حالات الانتهاك الأخرى، بما في ذلك عدم الامتثال لمتطلبات أنظمة الذكاء الاصطناعي عالية المخاطر، يمكن أن تتكبد المؤسسات غرامة تصل إلى 15000000 يورو أو 3% من حجم المبيعات السنوي في جميع أنحاء العالم، أيهما أكثر.

يمكن أن يؤدي تقديم معلومات غير صحيحة أو ناقصة أو مضللة إلى السلطات إلى تكبد المؤسسات غرامة تصل إلى 7500000 يورو أو 1% من حجم المبيعات السنوي في جميع أنحاء العالم، أيهما أكثر.

وتجدر الإشارة إلى أن قانون الاتحاد الأوروبي للذكاء الاصطناعي يحدد قواعد مختلفة لتغريم الشركات الناشئة وغيرها من المؤسسات الصغيرة والمتوسطة الحجم. بالنسبة إلى هذه الشركات، تكون الغرامة أقل المبلغين المحتملين المحددين أعلاه.

متى دخل قانون الاتحاد الأوروبي للذكاء الاصطناعي حيز التنفيذ؟

متى دخل قانون الاتحاد الأوروبي للذكاء الاصطناعي حيز التنفيذ؟

دخل القانون حيز التنفيذ في 1 أغسطس 2024، مع دخول أحكام مختلفة من القانون حيز التنفيذ على مراحل. ومن أهم التواريخ ما يلي:

  • بدايةً من 2 فبراير 2025، سيدخل حظر ممارسات الذكاء الاصطناعي المحظورة حيز التنفيذ.

  • بدايةً من 2 أغسطس 2025، ستُطبق قواعد الذكاء الاصطناعي عام الأغراض على نماذج الذكاء الاصطناعي ذات الأغراض العامة الجديدة. سيُمنح مقدمو خدمات نماذج الذكاء الاصطناعي ذات الأغراض العامة المطروحة في السوق قبل 2 أغسطس 2025 مهلة حتى 2 أغسطس 2027 لتحقيق الامتثال.

  • بدايةً من 2 أغسطس 2026، ستدخل قواعد أنظمة الذكاء الاصطناعي عالية المخاطر حيز التنفيذ.

  • بدايةً من 2 أغسطس 2027، ستُطبق القواعد الخاصة بأنظمة الذكاء الاصطناعي التي هي منتجات أو عنصر من عناصر سلامة المنتجات الخاضعة لقوانين الاتحاد الأوروبي المحددة.
حلول ذات صلة

حلول ذات صلة

watsonx

يمكنك بكل سهولة نشر الذكاء الاصطناعي ودمجه في عملك وإدارة كل مصادر البيانات وتسريع مهام سير عمل الذكاء الاصطناعي المسؤول—وكل ذلك من منصة واحدة.

اكتشف watsonx

®IBM OpenPages

يمكنك تبسيط حوكمة البيانات وإدارة المخاطر والامتثال التنظيمي باستخدام IBM OpenPages - وهي منصة GRC موحدة وقابلة للتوسع بدرجة كبيرة ومدعومة بالذكاء الاصطناعي.

استكشف ®OpenPages

الموارد

الموارد

إنشاء سير عمل ذكاء اصطناعي مسؤول

يوضح كتابنا الإلكتروني الأخير اللبنات الأساسية لحوكمة الذكاء الاصطناعي ويشارك إطار عمل تفصيليًا لحوكمة الذكاء الاصطناعي يمكنك تطبيقه في مؤسستك.

أهم 3 أسباب لاحتياج مؤسستك إلى الذكاء الاصطناعي المسؤول

استكشف الإمكانات التحويلية التي يوفرها الذكاء الاصطناعي المسؤول لمؤسستك وتعرّف على الدوافع الحاسمة وراء تبني ممارسات الذكاء الاصطناعي الأخلاقي.

هل الذكاء الاصطناعي لديك جدير بالثقة؟

انضم إلى مناقشة حول سبب حاجة الشركات إلى إعطاء الأولوية لحوكمة الذكاء الاصطناعي من أجل نشر الذكاء الاصطناعي المسؤول.

ما المقصود بإدارة البيانات؟

تعرّف على كيفية ضمان إدارة البيانات حصول الشركات على أقصى استفادة من أصول بياناتها.

ما المقصود بالذكاء الاصطناعي القابل للتفسير؟

يُعد الذكاء الاصطناعي القابل للتفسير أمرًا بالغ الأهمية للمؤسسات من أجل بناء الثقة والاطمئنان عند دخول نماذج الذكاء الاصطناعي في مرحلة الإنتاج.

ما المقصود بأخلاقيات الذكاء الاصطناعي؟

يُعد مجال أخلاقيات الذكاء الاصطناعي مجالاً متعدد التخصصات، يدرس كيفية تعزيز التأثير النافع للذكاء الاصطناعي مع تقليل مخاطره ونتائجه السلبية. تعرّف على نهج شركة IBM في مجال أخلاقيات الذكاء الاصطناعي.

العميل مسؤول عن ضمان الامتثال لجميع القوانين واللوائح المعمول بها. لا تقدم شركة IBM مشورة قانونية، ولا تتعهد ولا تضمن قدرة خدماتها أو منتجاتها على إلزام العميل بالامتثال لأي قانون أو لائحة.