My IBM Log in

تقديم إطار عمل IBM لتأمين الذكاء الاصطناعي التوليدي

25 يناير 2024

قراءة لمدة 7 دقائق

مع تزايد الاستثمار في الذكاء الاصطناعي التوليدي، لا تزال العديد من المؤسسات غير مستعدة لمواجهة مخاطر الأمن الإلكتروني المرتبطة به.

وكما هو الحال مع أي تقنية جديدة، من الأهمية بمكان أن ندرك المخاطر الأمنية الجديدة المصاحبة للذكاء الاصطناعي، لأن الجهات الفاعلة الخبيثة ستسعى بلا شك لاستغلال أي ثغرة لتحقيق أهدافها. في الواقع، وفقًا لمعهد Institute for Business Value، يعتقد 96٪ من المديرين التنفيذيين أن تبنّي الذكاء الاصطناعي التوليدي يزيد من احتمالية حدوث اختراق أمني في مؤسساتهم في غضون السنوات الثلاث المقبلة.

مع استيعاب نماذج الذكاء الاصطناعي لكميات هائلة من البيانات القيّمة والحساسة في مجموعات تدريبها، إلى جانب قيام قادة الأعمال بدراسة كيفية تحسين هذه النماذج للعمليات والمخرجات الأساسية، أصبحت المخاطر مرتفعة للغاية. لا تستطيع المؤسسات تحمل تكاليف إدخال الذكاء الاصطناعي غير الآمن إلى بيئاتها التشغيلية.

إطار عمل IBM لتأمين الذكاء الاصطناعي التوليدي

في هذه المدونة، نقدم إطار عمل IBM لتأمين الذكاء الاصطناعي التوليدي. يساعد هذا الإطار العملاء، والشركاء، والمنظمات في جميع أنحاء العالم على فهم الهجمات الأكثر شيوعًا على الذكاء الاصطناعي، وتحديد الاستراتيجيات الدفاعية الأكثر أهمية لتأمين مبادرات الذكاء الاصطناعي التوليدي بسرعة وكفاءة.

من الضروري تأمين الذكاء الاصطناعي في كل مرحلة من دورة حياته، بما في ذلك أثناء استيعاب البيانات ومعالجتها، وتطوير النماذج وتدريبها، واستدلال النماذج واستخدامها. لذلك، تحتاج المؤسسات إلى تأمين البيانات، والنموذج، واستخدامات النموذج. يجب عليها أيضًا تأمين البنية التحتية التي يتم تطوير نماذج الذكاء الاصطناعي وتشغيلها عليها. وأخيرًا، يجب عليها إرساء مبادئ إدارة الذكاء الاصطناعي ومراقبة الإنصاف، والتحيز، والانحراف بمرور الوقت.

فيما يلي نوضح المخاطر في كل مرحلة من دورة حياة الذكاء الاصطناعي، وكيفية حمايته من الهجمات الأساسية المحددة.

تأمين البيانات

خلال مرحلة استيعاب البيانات ومعالجتها، لا يقتصر الأمر على جمع كميات هائلة من البيانات لتدريب نموذج الذكاء الاصطناعي، بل يشمل أيضًا إتاحة الوصول إلى العديد من المستخدمين، مثل علماء البيانات، والمهندسين، والمطورين، وغيرهم. هناك مخاطر متأصلة عند تجميع البيانات في مكان واحد ومنح الأطراف المعنية المختلفين — ومعظمهم لا يمتلك خبرة أمنية — إمكانية الوصول إليها.

تخيل ما يمكن أن يحدث إذا تم الكشف عن الملكية الفكرية (IP) الحيوية للمؤسسة بسبب سوء التعامل مع بيانات التدريب، مما قد يشكل تهديدًا وجوديًا للأعمال. استخدام كميات هائلة من البيانات لتدريب نموذج ذكاء اصطناعي يتطلب تقييم المخاطر المرتبطة بمعلومات التعريف الشخصية (PII)، والمخاوف المتعلقة بالخصوصية، وغيرها من المعلومات الحساسة، ومن ثم تطبيق الضوابط الأمنية المناسبة لحماية تلك البيانات.

إجراءات الحماية والدفاعات ضد الهجمات المحتملة

الهدف الرئيسي خلال مرحلة استيعاب البيانات هو مجموعات البيانات الأساسية، حيث يُعتبر النقل غير المصرح للبيانات هو أحد أبرز الأساليب الذي يسعى المهاجمون لاستخدامه للوصول إلى معلومات قيّمة يمكنهم تحقيق عوائد مادية منها. يبحث المهاجمون دائمًا عن المسار الأقل مقاومة، وتعد مجموعات البيانات الأساسية بمثابة هدف واضح يوفر عوائد عالية.

يجب ألا تقلل المؤسسات من أهمية أساسيات أمن البيانات — بل يجب أن تكون من أولوياتها القصوى. في حال تطبيق هذه الأساسيات تطبيقًا صحيحًا، يمكن أن يكون لها تأثير كبير على الوضع الأمني للمؤسسة. يتضمن ذلك التركيز على اكتشاف البيانات وتصنيفها، وتشفير البيانات أثناء التخزين (at rest) وأثناء النقل (in transit)، بالإضافة إلى إدارة المفاتيح من خلال منصات أمن البيانات مثل IBM Security® Guardium®. "يعني هذا أيضًا التركيز على أساسيات إدارة الهوية والوصول، التي يتم تعزيزها من خلال حلول مثل IBM Security® Verify، مما يساعد على ضمان عدم حصول أي كيان منفرد على وصول غير مقيد إلى نموذج الذكاء الاصطناعي." "وأخيرًا، يجب على المؤسسات تعزيز الوعي الأمني لدى علماء البيانات والباحثين والتأكد من أن فرق الأمان تعمل بشكل وثيق مع هذه الفرق لضمان وجود ضوابط أمنية مناسبة."

تأمين النموذج

أثناء تطوير النموذج، يتم بناء التطبيقات بطرق جديدة، وغالبًا ما يتضمن ذلك إدخال ثغرات أمنية جديدة يمكن أن يستغلها المهاجمون كنقاط دخول إلى البيئة، ومن ثم إلى نماذج الذكاء الاصطناعي الخاصة بك. نظرًا لأن المؤسسات تواجه صعوبات طويلة الأمد في إدارة الثغرات الأمنية الموجودة في بيئاتها، فإن هذا الخطر يمتد أيضًا إلى الذكاء الاصطناعي.

يبدأ تطوير تطبيقات الذكاء الاصطناعي عادةً باستخدام فِرَق علم البيانات نماذج التعلم آلي مفتوحة المصدر ومدربة مسبقًا من مستودعات النماذج على الإنترنت، التي غالبًا ما تفتقر إلى ضوابط أمنية شاملة. ومع ذلك، فإن القيمة التي تقدمها هذه النماذج للمؤسسات، مثل تقليل الوقت والجهد المطلوبين لتبني الذكاء الاصطناعي التوليدي بشكل كبير، غالبًا ما تفوق هذه المخاطر، مما ينقل المخاطر الأمنية إلى المؤسسة.إن قلة التدابير الأمنية حول نماذج التعلم الآلي، إلى جانب البيانات الحساسة المتزايدة التي تتعرض لها هذه النماذج، يعني أن الهجمات التي تستهدف هذه النماذج تنطوي على احتمالية تدميرية عالية.

إجراءات الحماية والدفاعات ضد الهجمات المحتملة

تُعتبر هجمات سلسلة التوريد من الأساليب الرئيسية للهجمات خلال تطوير النماذج، وذلك نتيجة للاعتماد المكثف على نماذج التعلم الآلي مفتوحة المصدر المدربة مسبقًا من مستودعات النماذج الإلكترونية لتسريع عمليات التطوير.يتمتع المهاجمون بنفس إمكانية الوصول إلى هذه المستودعات عبر الإنترنت، ويتمكنون من زرع برامج ضارة أو أبواب خلفية داخلها. بمجرد رفعها مرة أخرى إلى المستودع، يمكن أن تصبح نقطة دخول لأي شخص يقوم بتنزيل النموذج المصاب. إذا أصيبت هذه النماذج، فقد يكون من الصعب للغاية اكتشافها. يجب على المؤسسات توخي الحذر الشديد بشأن المكان الذي تستخدم فيه النماذج ومدى موثوقية المصدر.

هجمات واجهة برمجة التطبيقات (API) تشكل مصدر قلق آخر. تعتمد المؤسسات التي تفتقر إلى الموارد أو الخبرة اللازمة لبناء نماذجها اللغوية الكبيرة (LLMs) على واجهات برمجة التطبيقات (APIs) للاستفادة من إمكانيات النماذج الجاهزة والمدربة مسبقًا.يدرك المهاجمون أن هذا النموذج سيكون الوسيلة الأساسية لاستهلاك النماذج اللغوية الكبيرة (LLMs)، وسيسعون لاستهداف واجهات API لاستغلال البيانات المنقولة عبرها.

قد يحاول المخترقون أيضًا استغلال وكلاء النماذج اللغوية الكبيرة (LLM agents) أو المكونات الإضافية (plug-ins) التي تمتلك أذونات مفرطة، مما يمكنهم من الوصول إلى وظائف غير مقيدة أو أنظمة متصلة قادرة على تنفيذ عمليات حساسة ضمن مهام سير العمل الخاصة بالأعمال. إذا تمكن المخترق من اختراق الامتيازات الممنوحة لوكلاء الذكاء الاصطناعي، فقد يكون الضرر مدمرا.

ينبغي أن تركز المنظمات على ما يلي:

تأمين الاستخدام

أثناء عملية الاستدلال والاستخدام المباشر، يمكن للمخترقين التلاعب بالموجهات لاختراق الضوابط الأمنية ودفع النماذج إلى سلوك غير مرغوب فيه، من خلال توليد استجابات غير مسموح بها لموجهات ضارة تتضمن معلومات متحيزة، زائفة، أو ضارة أخرى، مما قد يؤدي إلى الإضرار بسمعة المؤسسة. قد يحاول المخترقون أيضًا التلاعب بالنموذج وتحليل مدخلات ومخرجات النموذج لتدريب نموذج بديل يحاكي سلوك النموذج المستهدف، مما يؤدي فعليًا إلى "سرقة" قدراته ويكبد المؤسسة خسارة في ميزتها التنافسية.

إجراءات الحماية والدفاعات ضد الهجمات المحتملة

أنواع الهجمات المثيرة للقلق في هذه المرحلة من منظومة الذكاء الاصطناعي: حقن الموجهات: حيث يستخدم المخترقون موجهات خبيثة لاختراق النماذج، والحصول على وصول غير مصرح به، أو سرقة البيانات الحساسة، أو إدخال تحيز في المخرجات. هناك مصدر قلق آخر يتعلق بنموذج هجوم لحجب الخدمة، حيث يقوم المخترقون بإغراق النموذج اللغوي الكبير (LLM) بمدخلات زائدة تؤدي إلى تدهور جودة الخدمة وزيادة تكاليف الموارد. يجب على المؤسسات أيضًا الاستعداد لسرقة النماذج والدفاع عنها، حيث يقوم المخترقون بصياغة مدخلات مخصصة لجمع مخرجات النموذج لتدريب نموذج بديل يحاكي سلوك النموذج المستهدف.

تشمل أفضل ممارساتنا مراقبة المدخلات الضارة، مثل حقن الموجِّهات، والمخرجات التي تحتوي على بيانات حساسة أو محتوى غير لائق، بالإضافة إلى تنفيذ دفاعات جديدة قادرة على اكتشاف الهجمات الخاصة بالذكاء الاصطناعي والاستجابة لها، مثل تسميم البيانات وخداع النماذج واستنساخ النماذج. دخلت إلى السوق حلول جديدة متخصصة في حماية الذكاء الاصطناعي تحت اسم الكشف عن هجمات التعلم الآلي والاستجابة لها (MLDR). يمكن دمج التنبيهات الصادرة عن هذه الحلول في حلول عمليات الأمن، مثل IBM Security® QRadar®، مما يمكّن فرق مركز عمليات الأمن (SOC) من تنفيذ خطط استجابة بسرعة، تشمل حظر الوصول، أو عزل النماذج المخترقة، أو فصلها عن الأنظمة.

تأمين البنية التحتية

يُعد تأمين البنية التحتية أحد أول خطوط الدفاع ضد الهجمات السيبرانية. يجب على المؤسسات الاستفادة من خبراتها الحالية لتحسين معايير الأمان، والخصوصية، والامتثال عبر البيئات الموزعة التي تستضيف أنظمة الذكاء الاصطناعي. ومن الضروري تعزيز أمن الشبكات، والتحكم في الوصول، وتشفير البيانات، وكشف التسلل ومنعه في بيئات الذكاء الاصطناعي. كما يجب عليهم التفكير في الاستثمار في دفاعات أمنية متقدمة مصممة خصيصا لحماية أنظمة الذكاء الاصطناعي.

إرساء الحوكمة

تقدم IBM حلولًا متكاملة لأمن الذكاء الاصطناعي إلى جانب إدارة العمليات التشغيلية. تقود IBM القطاع في مجال حوكمة الذكاء الاصطناعي لضمان الوصول إلى نماذج ذكاء اصطناعي موثوقة. مع تزايد اعتماد المؤسسات على الذكاء الاصطناعي لأتمتة عمليات الأعمال، من الضروري التأكد من أن أنظمة الذكاء الاصطناعي تعمل كما هو متوقع ولا تنحرف عن أهدافها التشغيلية. لذلك، تُعد الضوابط التشغيلية جزءًا أساسيًا من أي استراتيجية فعالة للذكاء الاصطناعي. أي انحراف تشغيلي عن الغرض المصمم له النموذج قد يُحدث مستوى من المخاطر يعادل المخاطر التي قد تنشأ عند تعرض البنية التحتية للاختراق.

الريادة في الذكاء الاصطناعي المسؤول

تتمتع IBM بتاريخ طويل من الثقة والالتزام العميق بتطوير ذكاء اصطناعي آمن وأخلاقي يحترم الخصوصية والحوكمة. هذه المبادئ تشكل الركيزة الأساسية لحلولنا القائمة على الذكاء الاصطناعي، ولهذا ندرك أن كيفية بناء وتدريب نماذج الذكاء الاصطناعي أمر بالغ الأهمية لتحقيق نتائج ناجحة ومسؤولة.

تُعد جودة البيانات ودورة حياة البيانات وحماية البيانات عبر نماذج أساسنا من أهم أولوياتنا. في شركة IBM، نطبّق ضوابط قوية وعمليات دقيقة عبر أثناء مرحلة تدريب نماذجنا، حيث ندربها على بيانات منسقة بعناية لتحقيق دقة البيانات واكتمالها وتتبع مصدرها، مع تقليل مخاطر هلوسة النموذج.

يتجلى التزامنا من خلال تقديم  IBM®watsonx.governance، وهو منتج مصمم لمساعدة الشركات التي تستخدم نماذج الذكاء الاصطناعي الكبيرة على ضمان نتائج غير متحيزة، ودقيقة من الناحية الواقعية، وقابلة للتفسير.

لقد أنشأنا أيضًا عمليات منظمة لمعالجة شفافية البيانات وضمان إمكانية التتبع الكامل لعملائنا، مع القدرة على عرض مصادر بياناتنا. لقد أعربنا مؤخرًا عن التزامنا بالشفافية والذكاء الاصطناعي المسؤول من خلال نشر تفاصيل مجموعات بيانات التدريب لنماذج Granite. توفر IBM أيضًا تعويضًا عن حقوق الملكية الفكرية (حماية تعاقدية) لنماذج الأساس الخاصة بها.

تواصل شركة IBM إثبات وتعزيز التزامها بنشر الذكاء الاصطناعي بشكل فعال ومسؤول، من خلال صندوق استثمار بقيمة 500 مليون دولار أمريكي للذكاء الاصطناعي المؤسسي، ليس فقط لدفع عجلة الابتكار، ولكن أيضًا للاستثمار في القدرات التي تساهم في تأمين الذكاء الاصطناعي وبناء حلول مسؤولة تلبي الاحتياجات المتطورة للعملاء.

لمزيد من المعلومات حول كيفية تبني المؤسسات للذكاء الاصطناعي التوليدي بشكل آمن، تفضل بزيارة:

المؤسس

Ryan Dougherty

Program Director

Emerging Security Technology, IBM Security