تتعرض الشركات لمخاطر جسيمة تضر بسمعة علاماتها التجارية إذا كانت نماذج الذكاء الاصطناعي متحيزة أو غير قابلة للتفسير. كما يمكن أن تتعرض لعمليات التدقيق الحكومية وتتكبد غرامات بالملايين في حال فشلها في الالتزام بمتطلبات الامتثال المعقدة والمتغيرة. كل هذه المشاكل يمكن أن يكون لها تأثير مدمر في المساهمين وعلاقات العملاء.
تعرّف على نماذج الذكاء الاصطناعي لديك وثق بها
تُشكل نماذج الصندوق الأسود التي تفتقر إلى الإجراءات الشفافة مصدر قلق متزايدًا للأطراف المعنية في مجال الذكاء الاصطناعي. هذه النماذج تُبنى وتُنشر لكنها تفتقر إلى الشفافية. فليس من السهل دائمًا—حتى على عالم البيانات—تتبع كيفية وسبب اتخاذ النموذج للقرارات. ومع ظهور اللوائح التنظيمية، مثل قانون مدينة نيويورك الذي ينظم كيفية استخدام الذكاء الاصطناعي في عملية التوظيف وقانون الذكاء الاصطناعي المقترح من الاتحاد الأوروبي، يجب أن تصبح الشركات أكثر حذرًا وسرعة.
حوكمة الذكاء الاصطناعي هي العملية الشاملة التي تتضمن توجيه أنشطة الذكاء الاصطناعي وإدارتها ومراقبتها عبر عمليات الأعمال. لذا يجب أن يتعاون قادة البيانات مع مديري شؤون المخاطر ومديري قسم الامتثال وغيرهم من الأطراف المعنية الرئيسية منذ انطلاق مشروع الذكاء الاصطناعي لوضع إطار عمل لحوكمة الذكاء الاصطناعي. وينبغي أن يحدد إطار العمل هذا أفضل الممارسات التي يجب أن تتبعها الشركة في عمليات تطوير ونشر وإدارة نماذج الذكاء الاصطناعي وحتى التخلص من الصندوق الأسود.
تتبع النماذج من البداية إلى النهاية
تضع حوكمة الذكاء الاصطناعي حواجز حماية في كل مرحلة من مراحل دورة حياة الذكاء الاصطناعي والتعلم الآلي، بما في ذلك جمع البيانات وبناء النماذج ونشرها وإدارتها ومراقبتها. وتؤدي حواجز الحماية هذه إلى عمليات أكثر شفافية وتوفر نتائج يمكن تفسيرها للأطراف المعنية الرئيسية والعملاء. يساعدك تطبيق حوكمة الذكاء الاصطناعي منذ البداية على تحسين عملية إدارة المخاطر والسمعة والالتزام بالمبادئ الأخلاقية واللوائح الحكومية وتجنب مخالفتها.
لجأت إحدى شركات البيع بالتجزئة الكبرى في الولايات المتحدة إلى IBM لمساعدتها على معالجة مشكلات النزاهة في استخدام الأدوات وأنظمة التوظيف التي تفرز المرشحين للوظائف. لقد كان مهمًا لهذه الشركة أن ترسخ مبادئ النزاهة والثقة، بما في ذلك القدرة على تحديد مواضع التحيز وتفسير قرارات الذكاء الاصطناعي ونماذج التعلم الآلي (ML) المستخدمة في عملية التوظيف. استخدمت الشركة نظام IBM Cloud Pak® for Data لإدارة النماذج المدعومة بالذكاء الاصطناعي باستمرار من أجل تحقيق الدقة والنزاهة. والآن، تراقب الشركة التحيز في عمليات التوظيف وتحد منه بشكل استباقي.
اعرض عملك
تطبق شركة IBM هي الأخرى هذا النهج داخليًا. يقول إليوك: "إذا كانت هناك لائحة معينة تتطلب الشفافية أو التفسير، فإننا نتأكد من أن الخوارزمية أو عملية تقييم التأثير توضح تلك التفاصيل حتى نتمكن من التحول بسرعة نحو الامتثال المستمر للوائح الجديدة بدلاً من المساس بالأعمال."
ومع انتقال الذكاء الاصطناعي من مرحلة التجريب إلى المرحلة المؤثرة في الأعمال، تدرك المؤسسات الحاجة إلى تطبيق حوكمة الذكاء الاصطناعي بشكل استباقي لتعزيز استخدام الذكاء الاصطناعي الشفاف والقابل للتفسير. ويمكن أن يؤدي عدم وجود حواجز حماية في أثناء استخدام الذكاء الاصطناعي إلى عرقلة مشاريع الذكاء الاصطناعي وتثبيط عملية الابتكار.