الشبكة العصبية هي برنامج أو نموذج تعلُّم آلي يتخذ القرارات بطريقة مشابهة للدماغ البشري، وذلك باستخدام العمليات التي تحاكي الطريقة التي تعمل بها الخلايا العصبية البيولوجية معًا لتحديد الظواهر وموازنة الخيارات والوصول إلى الاستنتاجات.
تتكون كل الشبكات العصبية من طبقات من العُقد، أو الخلايا العصبية الاصطناعية - طبقة إدخال، وطبقة مخفية واحدة أو أكثر، وطبقة إخراج. كل عقدة تتصل بأخرى ويكون لها وزن وحد خاصان بها. إذا كان ناتج أي عقدة فردية أعلى من قيمة الحد المحدد، تُنشط تلك العقدة، وتُرسل البيانات إلى الطبقة التالية من الشبكة. وإلا فلن تمر أي بيانات إلى الطبقة التالية من الشبكة.
تعتمد الشبكات العصبية على بيانات التدريب للتعلم وتحسين دقتها بمرور الوقت. بمجرد ضبط دقتها ضبطًا دقيقًا، فإنها تصبح أدوات فائقة الإمكانات في مجال علوم الكمبيوتر والذكاء الاصطناعي، ما يسمح لنا بتصنيف البيانات وتجميعها بسرعة فائقة. يمكن أن تستغرق مهام التعرف على الكلام أو التعرف على الصور دقائق مقارنةً بساعات عند إجراء الخبراء عملية التعرف يدويًا. تُعد خوارزمية بحث Google واحدة من أشهر الأمثلة على الشبكة العصبية.
تُسمى الشبكات العصبية أحيانًا بالشبكات العصبية الاصطناعية (ANNs) أو الشبكات العصبية المحاكاة (SNNs). وهي فرع من فروع التعلم الآلي، وتُشكل جوهر نماذج التعلم العميق.
فكر في كل عقدة على حدة كنموذج انحدار خطي خاص بها، يتكون من بيانات الإدخال، والأوزان، والتحيز (أو الحد)، والإخراج.ستظهر المعادلة بالشكل التالي تقريبًا:
∑wixi + التحيز = w1x1 + w2x2 + w3x3 + نتيجة
التحيز = f(x) = 1 if ∑w1x1 + b>= 0; 0 if ∑w1x1 + b < 0
بمجرد تحديد طبقة الإدخال، تُخصص الأوزان. تساعد هذه الأوزان على تحديد أهمية أي متغير محدد، حيث تسهم الأوزان الأكبر بشكل ملحوظ في المخرجات مقارنةً بالمدخلات الأخرى. تُضرب بعد ذلك جميع المدخلات في أوزانها الخاصة ثم تُجمع. بعد ذلك، يمر الإخراج من خلال دالة التنشيط، والتي تحدد الإخراج. إذا تجاوز هذا الإخراج حدًا معينًا، فإنه "يُطلق" (أو يُنشط) العقدة، ما يؤدي إلى تمرير البيانات إلى الطبقة التالية في الشبكة. يؤدي هذا إلى أن يكون إخراج إحدى العُقد مدخلاً للعقدة التالية. تحدد عملية تمرير البيانات من طبقة إلى أخرى هذه الشبكة العصبية على أنها شبكة تغذية أمامية.
لنحلل كيف يمكن أن تبدو عقدة واحدة باستخدام القيم الثنائية. يمكننا تطبيق هذا المفهوم على مثال أكثر واقعية، مثل ما إذا كان عليك الذهاب لركوب الأمواج (نعم: 1، لا: 0). قرار الذهاب من عدمه هو النتيجة المتوقعة لدينا، أو ما يُسمى y-hat. لنفترض أن هناك ثلاثة عوامل تؤثر في عملية اتخاذ القرار:
ثم لنفترض ما يلي، مع وجود المدخلات التالية:
الآن، نحتاج إلى تخصيص بعض الأوزان لتحديد مدى الأهمية. تشير الأوزان الأكبر إلى أن متغيرات معينة ذات أهمية أكبر في القرار أو النتيجة.
وأخيرًا، سنفترض أيضًا أن قيمة الحد هي 3، وهو ما سيُترجم إلى قيمة تحيز تساوي –3. مع جميع المدخلات المختلفة، يمكننا البدء بالتعويض بالقيم في المعادلة للحصول على النتيجة المرجوة.
Y-hat = (1*5) + (0*2) + (1*4) – 3 = 6
إذا استخدمنا دالة التنشيط منذ بداية هذه العملية، فيمكننا تحديد أن ناتج هذه العقدة سيكون 1، نظرًا إلى أن 6 أكبر من 0. في هذه الحالة، ستذهب لركوب الأمواج؛ ولكن إذا غيرنا الأوزان أو الحد، فيمكننا الحصول على نتائج مختلفة من النموذج. عندما نلاحظ قرارًا واحدًا، كما في المثال أعلاه، يمكننا أن نرى كيف يمكن للشبكة العصبية اتخاذ قرارات معقدة بشكل متزايد اعتمادًا على مخرجات القرارات أو الطبقات السابقة.
في المثال أعلاه، استخدمنا الشبكات العصبية الإدراكية (البيرسيبترون) لتوضيح بعض العمليات الحسابية المستخدمة هنا، ولكن الشبكات العصبية تستفيد من الشبكات العصبية السينيّة، والتي تتميز بقيمها التي تتراوح بين 0 و1. ونظرًا إلى أن الشبكات العصبية تعمل بشكل مشابه لأشجار القرار، حيث تدفق البيانات من عقدة إلى أخرى، فإن تراوح قيم x بين 0 و1 سيقلل من تأثير أي تغيير في متغير واحد في مخرجات أي عقدة، ومن ثَم، مخرجات الشبكة العصبية.
بالنظر إلى المزيد من حالات الاستخدام العملية للشبكات العصبية، مثل التعرف على الصور أو التصنيف، فإننا سنستفيد من التعلم الموجّه، أو مجموعات البيانات المصنفة، لتدريب الخوارزمية. في أثناء تدريب النموذج، سنحتاج إلى تقييم مدى دقته باستخدام دالة التكلفة (أو الخسارة). يُشار إلى ذلك عادةً باسم متوسط الخطأ التربيعي (MSE). في المعادلة أدناه،
𝐶𝑜𝑠𝑡 𝐹𝑢𝑛𝑐𝑡𝑖𝑜𝑛= 𝑀𝑆𝐸=1/2𝑚 ∑129_(𝑖=1)^𝑚▒(𝑦 ̂^((𝑖) )−𝑦^((𝑖) ) )^2
في النهاية، الهدف هو تقليل دالة التكلفة لضمان صحة ملاءمة أي ملاحظة. بينما يُعدل النموذج أوزانه وانحيازاته، فإنه يستخدم دالة التكلفة والتعلم التعزيزي للوصول إلى نقطة التقارب أو الحد الأدنى المحلي. تُجرى هذه العملية التي تُعدل الخوارزمية فيها أوزانها من خلال التدرج الاشتقاقي، ما يسمح للنموذج بتحديد الاتجاه الذي ينبغي اتخاذه لتقليل الأخطاء (أو تقليل دالة التكلفة). مع كل مثال تدريبي، تتكيف معلمات النموذج لتتقارب تدريجيًا عند الحد الأدنى.
راجع مقالة IBM Developer هذه للحصول على شرح أكثر تفصيلاً للمفاهيم الكمّية المتضمنة في الشبكات العصبية.
معظم الشبكات العصبية العميقة هي شبكات أمامية التغذية، ما يعني أنها تتدفق في اتجاه واحد فقط، من المدخلات إلى المخرجات. ومع ذلك، يمكنك أيضًا تدريب نموذجك من خلال الانتشار العكسي؛ أي، الانتقال في الاتجاه المعاكس من المخرجات إلى المدخلات. يساعد الانتشار العكسي على حساب الأخطاء المرتبطة بكل خلية عصبية وتحديدها، ما يسمح لنا بضبط معلمات النموذج (النماذج) وملاءمتها بشكل مناسب.
يمكن تصنيف الشبكات العصبية إلى أنواع مختلفة، تُستخدم لأغراض مختلفة. على الرغم من أن هذه ليست قائمة شاملة للأنواع، إلا إن الأنواع التالية تمثل أكثر أنواع الشبكات العصبية شيوعًا التي ستصادفها في حالات الاستخدام الشائعة:
الشبكة العصبية الإدراكية (البيرسيبترون) هي أقدم شبكة عصبية، أنشأها Frank Rosenblatt في عام 1958.
الشبكات العصبية أمامية التغذية، أو الشبكة العصبية الإدراكية متعددة الطبقات (MLPs)، هي ما نركز عليه بشكل أساسي في هذه المقالة. وهي تتألف من طبقة إدخال وطبقة أو طبقات مخفية وطبقة إخراج. وعلى الرغم من أن هذه الشبكات العصبية يُشار إليها عادةً باسم الشبكات العصبية الإدراكية متعددة الطبقات (MLPs)، إلا إنه من المهم ملاحظة أنها تتكون في الواقع من الشبكات العصبية السينيّة وليس من الشبكات العصبية الإدراكية، حيث إن معظم المشاكل على أرض الواقع غير خطية. تُدخل البيانات عادةً في هذه النماذج للتدريب، وهي تشكل الأساس للرؤية الحاسوبية، ومعالجة اللغة الطبيعية، والشبكات العصبية الأخرى.
الشبكات العصبية الترشيحية (CNNs) تشبه شبكات التغذية الأمامية، ولكنها تُستخدم عادةً للتعرف على الصور، والتعرف على الأنماط، و/أو الرؤية الحاسوبية. تعتمد هذه الشبكات على مبادئ الجبر الخطي، وخاصةً ضرب المصفوفات، لتحديد الأنماط داخل الصور.
يمكن التعرف على الشبكات العصبية التكرارية (RNNs) من خلال حلقات إعادة التغذية. تُستخدم خوارزميات التعلم هذه بشكل أساسي عند استخدام بيانات السلاسل الزمنية لإجراء عمليات تنبؤ بشأن النتائج المستقبلية، مثل توقعات البورصة أو توقعات المبيعات.
التعلم العميق والشبكات العصبية غالبًا ما يستخدمان بشكل متبادل في المحادثات، ما قد يؤدي إلى ظهور لبس. نتيجة لذلك، تجدر الإشارة إلى أن كلمة "العميق" في التعلم العميق تشير فقط إلى عمق الطبقات في الشبكة العصبية. يمكن أن تُعد الشبكة العصبية التي تتكون من أكثر من ثلاث طبقات—والتي ستكون شاملة للمدخلات والمخرجات—خوارزمية تعلم عميق. الشبكة العصبية التي تحتوي على طبقتين أو ثلاث طبقات فقط هي مجرد شبكة عصبية عادية.
لمعرفة المزيد حول أوجه الاختلاف بين الشبكات العصبية ونماذج الذكاء الاصطناعي الأخرى، مثل التعلم الآلي، يُرجى قراءة منشور المدونة "مقارنة بين الذكاء الاصطناعي والتعلم الآلي والتعلم العميق والشبكات العصبية: ما الفرق بينهم؟".
الشبكات العصبية تضرب بجذورها في التاريخ إلى أبعد مما يعتقد معظم الناس. وفي حين أنه يمكن أن يُنسب الفضل في فكرة "الآلة التي تفكر" إلى قدماء الإغريق، إلا إننا سنركز على الأحداث الرئيسية التي أدت إلى تطور فكرة الشبكات العصبية، والتي شهدت ارتفاعًا وانخفاضًا في شعبيتها على مر السنين:
عام 1943: نشر Warren S. McCulloch وWalter Pitts "حسابًا منطقيًا للأفكار الكامنة في النشاط العصبي (الرابط ينقلك خارج موقع ibm.com)" كان الهدف من هذا البحث هو فهم كيفية إنتاج الدماغ البشري للأنماط المعقدة من خلال الخلايا الدماغية المتصلة أو الخلايا العصبية. وكانت إحدى الأفكار الرئيسية التي نتجت عن هذا العمل هي مقارنة الخلايا العصبية ذات الحد الثنائي بالمنطق البولياني (أي 0/1 أو عبارات صحيحة / خاطئة).
عام 1958: يعود الفضل إلى Frank Rosenblatt في تطوير الشبكة العصبية الإدراكية (البيرسيبترون)، وهو ما وثقه في بحثه "البيرسيبترون: نموذج احتمالي لتخزين المعلومات وتنظيمها في الدماغ" (الرابط ينقلك خارج موقع ibm.com). ويُضيف على عمل McCulloch وPitt من خلال إدخال الأوزان إلى المعادلة. وبالاستفادة من حاسوب IBM 704، تمكن Rosenblatt من جعل الحاسوب يتعلم كيفية التمييز بين البطاقات المميزة على اليسار والبطاقات المميزة على اليمين.
عام 1974: بينما أسهم العديد من الباحثين في فكرة الانتشار العكسي، كان Paul Werbos أول شخص في الولايات المتحدة أشار إلى تطبيقه داخل الشبكات العصبية ضمن رسالة الدكتوراه الخاصة به (الرابط ينقلك خارج موقع ibm.com).
عام 1989: نشر Yann LeCun ورقة بحثية (الرابط ينقلك خارج موقع ibm.com) توضح كيفية الاستفادة من قصور الانتشار العكسي ودمجه في الشبكة العصبية بهدف تدريب الخوارزميات. وقد نجح هذا البحث في استخدام شبكة عصبية للتعرف على أرقام الرمز البريدي المكتوبة بخط اليد والمقدمة من دائرة البريد الأمريكية.
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com