شرح التعلم العميق (Deep Learning) وأهم الخوارزميات الشائعة

التعلم العميق

الملخص

اكتسب التعلم العميق (Deep Learning) شعبية كبيرة في مجال الحوسبة العلمية، وتستخدم خوارزمياته على نطاق واسع في الصناعات التي تحل المشكلات المعقدة. تستخدم جميع خوارزميات التعلم العميق أنواعًا مختلفة من الشبكات العصبية (neural network) لأداء مهام محددة. التعلم العميق هو أسلوب تعلم آلي (machine learning) يعلم أجهزة الكمبيوتر أن تفعل ما هو طبيعي للبشر: التعلم بالقدوة.

التعلم العميق هو تقنية أساسية وراء السيارات ذاتية القيادة، مما يمكّنها من التعرف على علامة التوقف، أو تمييز المشاة عن عمود الإنارة. إنه مفتاح التحكم الصوتي في الأجهزة الاستهلاكية مثل الهواتف والأجهزة اللوحية وأجهزة التلفزيون ومكبرات الصوت بدون استخدام اليدين. يحظى التعلم العميق بالكثير من الاهتمام مؤخرًا ولسبب وجيه. إنها تحقق نتائج لم تكن ممكنة من قبل.

في التعلم العميق، يتعلم نموذج الكمبيوتر أداء مهام التصنيف مباشرة من الصور أو النص أو الصوت. يمكن لنماذج التعلم العميق أن تحقق دقة عالية، وتتجاوز أحيانًا مستوى الأداء البشري. يتم تدريب النماذج باستخدام مجموعة كبيرة من البيانات المسمى (labeled data) وبنى الشبكات العصبية (neural network architecture) التي تحتوي على طبقات عديدة.

ما هو التعلم العميق (deep learning)؟

يستخدم التعلم العميق الشبكات العصبية الاصطناعية لإجراء عمليات حسابية معقدة على كميات كبيرة من البيانات. إنه نوع من التعلم الآلي يعمل على أساس بنية ووظيفة الدماغ البشري.

تقوم خوارزميات التعلم العميق بتدريب الآلات من خلال التعلم من الأمثلة. عادةً ما تستخدم الصناعات مثل الرعاية الصحية والتجارة الإلكترونية والترفيه والإعلان التعلم العميق.

تعريف الشبكات العصبية (Neural Networks)

تتكون الشبكة العصبية مثل الدماغ البشري من خلايا عصبية اصطناعية (artificial neuron)، تُعرف أيضًا باسم العقد (node). هذه العقد مكدسة بجانب بعضها البعض في ثلاث طبقات:

  1. طبقة الإدخال أو داخلية (Input Layer)
  2. الطبقة (الطبقات) المخفية (Hidden Layer)
  3. طبقة الإخراج أو خارجية (Output Layer)
التعلم العميق

توفر البيانات لكل عقدة (node) معلومات في شكل مدخلات (inputs). تضاعف العقدة المدخلات بأوزان عشوائية وتحسبها وتضيف انحيازًا (bias). أخيرًا، يتم تطبيق الدالات غير الخطية، والمعروفة أيضًا باسم دالات التفعيل (activation functions)، لتحديد أي خلية عصبية (neuron) يجب إطلاقها.

كيف تعمل خوارزميات التعلم العميق (deep learning algorithms)؟

بينما تتميز خوارزميات التعلم العميق بتمثيلات التعلم الذاتي (self-learning)، فإنها تعتمد على الشبكات العصبية الاصطناعية (ANN) التي تعكس الطريقة التي يحسب بها الدماغ المعلومات. مثل الكثير من آلات التدريب على التعلم الذاتي، يحدث هذا على مستويات متعددة، باستخدام الخوارزميات لبناء النماذج.

تستفيد نماذج التعلم العميق من عدة خوارزميات. بينما لا تعتبر شبكة واحدة مثالية، إلا أن بعض الخوارزميات مناسبة بشكل أفضل لأداء مهام محددة. لاختيار المناسب منها، من الجيد اكتساب فهم قوي لجميع الخوارزميات الأساسية.

أنواع الخوارزميات المستخدمة في التعلم العميق

فيما يلي قائمة بأفضل 10 خوارزميات التعلم العميق الأكثر شيوعًا:

  1. الشبكات العصبية التلافيفية (CNNs)
  2. شبكات الذاكرة طويلة المدى (LSTMs)
  3. الشبكات العصبية المتكررة (RNNs)
  4. شبكات الخصومة التوليدية (GANs)
  5. شبكات وظيفة الأساس الشعاعي (RBFNs)
  6. بيرسيبترون متعدد الطبقات (MLPs)
  7. خرائط التنظيم الذاتي (SOMs)
  8. شبكات المعتقدات العميقة (DBNs)
  9. آلات Boltzmann المقيدة (RBMs)
  10. أجهزة التشفير التلقائي (Autoencoders)

تعمل خوارزميات التعلم العميق مع أي نوع من البيانات تقريبًا وتتطلب كميات كبيرة من قوة الحوسبة والمعلومات لحل المشكلات المعقدة. الآن، دعونا، نتعمق، في أفضل 10 خوارزميات التعلم العميق.

1. الشبكات العصبية التلافيفية (CNNs)

تتكون شبكات CNN، المعروفة أيضًا باسم ConvNets، من طبقات متعددة وتستخدم بشكل أساسي لمعالجة الصور واكتشاف الأشياء. طور يان ليكون أول شبكة CNN في عام 1988 عندما أطلق عليها اسم LeNet. تم استخدامه للتعرف على الأحرف مثل الرموز البريدية والأرقام.

تُستخدم شبكات CNN على نطاق واسع لتحديد صور الأقمار الصناعية ومعالجة الصور الطبية وتوقع السلاسل الزمنية واكتشاف الحالات الشاذة.

كيف تعمل شبكات CNN؟

تحتوي شبكات CNN على طبقات متعددة تقوم بتجهیز واستخراج الخصائص من البيانات:

طبقة التفاف (convolutional layer): CNN لديها طبقة التفاف بها عدة مرشحات لأداء عملية الالتفاف.

الوحدة الخطية المصححة (ReLU): لدى CNN طبقة ReLU لإجراء عمليات على العناصر. الناتج هو خريطة معالم مصححة.

طبقة التجميع (pooling layer): تغذي خريطة المعالم المصححة بعد ذلك طبقة التجميع. التجميع هو عملية أخذ عينات لأسفل تعمل على تقليل أبعاد خريطة المعالم. تقوم طبقة التجميع بعد ذلك بتحويل المصفوفات ثنائية الأبعاد الناتجة من خريطة المعالم المجمعة إلى متجه خطي واحد طويل ومستمر عن طريق تسويته.

طبقة متصلة بالكامل (fully connected layer): تتشكل طبقة متصلة بالكامل عندما يتم تغذية المصفوفة المسطحة من طبقة التجميع كمدخلات، والتي تصنف الصور وتحددها.

فيما يلي مثال على صورة تمت معالجتها عبر CNN.

التعلم العميق وأهم الخوارزميات الشائعة

2. شبكات الذاكرة طويلة المدى (LSTMs)

LSTMs هي نوع من الشبكات العصبية المتكررة (RNN) التي يمكنها تعلم وحفظ التبعيات طويلة المدى. استدعاء المعلومات السابقة لفترات طويلة هو السلوك الافتراضي. تحتفظ LSTMs بالمعلومات بمرور الوقت. إنها مفيدة في تنبؤ السلاسل الزمنية (time-series prediction) لأنها تتذكر المدخلات السابقة. تمتلك LSTMs بنية تشبه السلسلة حيث تتواصل أربع طبقات متفاعلة بطريقة فريدة. إلى جانب تنبؤات السلاسل الزمنية، تُستخدم LSTM عادةً للتعرف على الكلام وتكوين الموسيقى والتطوير الصيدلاني.

كيف تعمل LSTM؟

  • أولاً، سینسی الأجزاء غير ذات الصلة بالحالة السابقة.
  • بعد ذلك، يقوم بتحديث قيم حالة الخلية بشكل انتقائي.
  • أخيرًا، إخراج أجزاء معينة من حالة الخلية.

يوجد أدناه رسم تخطيطي لكيفية عمل LSTM:

3. الشبكات العصبية المتكررة (RNNs)

تحتوي RNN على اتصالات تشكل دورات موجهة، والتي تسمح بتغذية المخرجات من LSTM كمدخلات إلى المرحلة الحالية.

يصبح الإخراج من LSTM مدخلاً إلى المرحلة الحالية ويمكنه حفظ المدخلات السابقة بسبب ذاكرته الداخلية. تُستخدم RNNs بشكل شائع لتسميات الصور، وتحليل السلاسل الزمنية، ومعالجة اللغة الطبيعية، والتعرف على خط اليد، والترجمة الآلية.

تبدو RNN غير المطوية كما يلي:

التعلم العميق وأهم الخوارزميات الشائعة

كيف تعمل RNNs؟

  • الإخراج في الوقت t-1 يغذي المدخلات في الوقت t.
  • وبالمثل ، فإن الخرج في الوقت t يغذي المدخل في الوقت t+1.
  • يمكن لـ RNNs معالجة المدخلات بأي طول.
  • حسابات الحساب للمعلومات التاريخية، وحجم النموذج لا يزيد مع حجم الإدخال.

فيما يلي مثال على كيفية عمل خصیصة الإكمال التلقائي من Google:

4. شبكات الخصومة التوليدية (GANs)

شبكات GAN هي خوارزميات التعلم العميق التوليدية التي تنشئ حالات بيانات جديدة تشبه بيانات التدريب. يحتوي GAN على مكونين: مولد (generator) يتعلم إنشاء بيانات مزيفة، ومميز (discriminator) يتعلم من تلك المعلومات الخاطئة.

زاد استخدام شبكات GAN على مدار فترة زمنية. يمكن استخدامها لتحسين الصور الفلكية ومحاكاة عدسة الجاذبية لأبحاث المادة المظلمة. يستخدم مطورو ألعاب الفيديو شبكات GAN لترقية التركيبات منخفضة الدقة وثنائية الأبعاد في ألعاب الفيديو القديمة عن طريق إعادة إنشائها بدقة 4k أو دقة أعلى من خلال التدريب على الصور.

تساعد شبكات GAN في إنشاء صور واقعية وشخصيات كرتونية، وإنشاء صور فوتوغرافية لوجوه بشرية، وتقديم كائنات ثلاثية الأبعاد.

كيف تعمل شبكات GAN؟

  • يتعلم المُميِّز (discriminator) التمييز بين البيانات المزيفة للمُنشئ وبيانات العينة الحقيقية. أثناء التدريب الأولي، يُنتج المولد بيانات مزيفة، وسرعان ما يتعلم المميّز أن يقول إنها خاطئة.
  • يرسل GAN النتائج إلى المولد والمميز لتحديث النموذج.

يوجد أدناه رسم تخطيطي لكيفية عمل شبكات GAN:

5. شبكات وظيفة الأساس الشعاعي (RBFNs)

RBFNs هي أنواع خاصة من الشبكات العصبية المغذية التي تستخدم وظائف الأساس الشعاعي كدالة التفعیل. لديهم طبقة إدخال وطبقة مخفية وطبقة إخراج وتستخدم في الغالب للتصنيف والانحدار وتنبؤ السلاسل الزمنية.

كيف تعمل RBFNs؟

  • تقوم RBFNs بإجراء التصنيف عن طريق قياس تشابه المدخلات مع أمثلة من مجموعة التدريب.
  • تمتلك RBFNs متجه إدخال يغذي طبقة الإدخال. لديها طبقة من الخلايا العصبية RBF.
  • تبحث الدالة عن المجموع المرجح (weighted sum) للمدخلات، وتحتوي طبقة الإخراج على عقدة واحدة لكل فئة أو فئة من البيانات.
  • تحتوي الخلايا العصبية في الطبقة المخفية على دالات النقل الغاوسي (Gaussian transfer) والتي لها نواتج تتناسب عكسياً مع المسافة من مركز العصبون.
  • ناتج الشبكة عبارة عن مزيج خطي من دالات  الأساس الشعاعي (radial-basis function) للإدخال ومعلمات الخلايا العصبية.

شاهد هذا المثال لـ RBFN:

6. بيرسيبترون متعدد الطبقات (MLPs)

تعد MLP مكانًا ممتازًا لبدء التعرف على تقنية التعلم العميق.

تنتمي MLP إلى فئة الشبكات العصبية الأمامية (feedforward neural networks) ذات الطبقات المتعددة من الإدراك الحسي التي لها وظائف التنشيط. تتكون MLP من طبقة إدخال وطبقة إخراج متصلة بالكامل. لديها نفس العدد من طبقات الإدخال والإخراج ولكن قد يكون لديها طبقات مخفية متعددة ويمكن استخدامها لبناء برامج التعرف على الكلام والتعرف على الصور والترجمة الآلية.

كيف تعمل MLP؟

  • تقوم MLP بتغذية البيانات إلى طبقة الإدخال الخاصة بالشبكة. تتصل طبقات الخلايا العصبية في رسم بياني بحيث تمر الإشارة في اتجاه واحد.
  • تحسب MLP الإدخال بالأوزان الموجودة بين طبقة الإدخال والطبقات المخفية.
  • تستخدم MLP دالات التفعیل لتحديد العقد التي يتم إطلاقها. تتضمن دالات التفعیل ReLUs والوظائف sigmoid و tanh.
  • تقوم MLP بتدريب النموذج على فهم الارتباط ومعرفة التبعيات بين المتغيرات المستقلة والمستهدفة من مجموعة بيانات التدريب.

يوجد أدناه مثال علی MLP. يحسب الرسم البياني الأوزان والتحيز ويطبق دالات التفعیل المناسبة لتصنيف صور القطط والكلاب.

7. خرائط التنظيم الذاتي (SOMs)

اخترع البروفيسور تيوفو كوهونين SOMs، والتي تتيح تصور البيانات لتقليل أبعاد البيانات من خلال الشبكات العصبية الاصطناعية ذاتية التنظيم. يتم إنشاء SOMs لمساعدة المستخدمين على فهم هذه المعلومات عالية الأبعاد.

كيف تعمل SOM؟

  • تقوم SOM بتهيئة الأوزان لكل عقدة واختيار متجه عشوائيًا من بيانات التدريب.
  • تقوم SOM بفحص كل عقدة للعثور على الأوزان التي تكون على الأرجح متجه الإدخال. تسمى العقدة الفائزة أفضل وحدة مطابقة (BMU).
  • يكتشف SOM حي BMU، ويقل عدد الجيران بمرور الوقت.
  • تمنح SOM وزنًا فائزًا لمتجه العينة. كلما اقتربت العقدة من BMU، كلما تغير وزنها.
  • كلما كان الجار بعيدًا عن BMU، قل ما يتعلمه. كرر SOM الخطوة الثانية للتكرار N.

أدناه، انظر رسمًا تخطيطيًا لمتجه الإدخال بألوان مختلفة. يتم تغذية هذه البيانات إلى SOM، والتي تقوم بعد ذلك بتحويل البيانات إلى قيم ثنائية الأبعاد RGB. أخيرًا، يفصل ويصنف الألوان المختلفة.

التعلم العميق وأهم الخوارزميات الشائعة

8. شبكات المعتقدات العميقة (DBNs)

DBNs هي نماذج توليدية (generative models) تتكون من طبقات متعددة من المتغيرات العشوائية والكامنة. المتغيرات الكامنة (latent variables) لها قيم ثنائية وتسمى غالبًا الوحدات المخفية. DBNs عبارة عن كومة من آلات Boltzmann مع وصلات بين الطبقات، وتتواصل كل طبقة RBM مع كل من الطبقات السابقة واللاحقة. تُستخدم شبكات المعتقد العمیق (DBNs) للتعرف على الصور والتعرف على الفيديو وبيانات التقاط الحركة.

كيف تعمل DBN؟

  • خوارزميات التعلم الجشع (Greedy learning algorithms) تدرب DBN.
  • تستخدم خوارزمية التعلم الجشع نهج طبقة تلو الأخرى لتعلم الأوزان التوليدية التنازلية. تقوم DBN بتشغيل خطوات أخذ عينات جيبس على الطبقتين المخفيتين العلويتين.
  • ترسم هذه المرحلة عينة من RBM التي تحددها الطبقتان المخفيتان العلويتان.
  • سحب عينة DBN من الوحدات المرئية باستخدام ممر واحد لأخذ العينات من الأسلاف من خلال بقية النموذج.
  • تعلم DBN أنه يمكن الاستدلال على قيم المتغيرات الكامنة في كل طبقة من خلال تمرير واحد من أسفل إلى أعلى.

فيما يلي مثال على بنية DBN:

9. آلات Boltzmann المقيدة (RBMs)

طورها جيفري هينتون، RBMs هي شبكات عصبية عشوائية يمكن أن تتعلم من توزيع الاحتمالات على مجموعة من المدخلات.

تُستخدم خوارزمية التعلم العميق هذه لتقليل الأبعاد والتصنيف والانحدار والتصفية التعاونية وتعلم الميزات ونمذجة الموضوع. تشكل البلوک القائمة على النتائج اللبنات الأساسية ل DBN

  • الوحدات مرئية (Visible units)
  • الوحدات المخفية (Hidden units)

كل وحدة مرئية متصلة بجميع الوحدات المخفية. تحتوي RBM على وحدة تحيز (bias) متصلة بجميع الوحدات المرئية والوحدات المخفية، ولا تحتوي على عقد إخراج.

كيف تعمل RBM؟

يتكون RBM من مرحلتين: التمرير الأمامي (forward pass) والتمرير الخلفي (backward pass).

  • تقبل RBM المدخلات وترجمتها إلى مجموعة من الأرقام التي تشفر المدخلات في التمرير الأمامي.
  • تجمع RBM بين كل مدخلات ووزن فردي وتحيز شامل واحد. تقوم الخوارزمية بتمرير الإخراج إلى الطبقة المخفية.
  • في التمرير الخلفي، تأخذ RBM تلك المجموعة من الأرقام وترجمتها لتشكيل المدخلات المعاد بناؤها.
  • تجمع RBM كل دالۀ تفعیل مع الوزن الفردي والتحيز الكلي وتمرير الإخراج إلى الطبقة المرئية لإعادة البناء.
  • في الطبقة المرئية، يقارن RBM إعادة الإعمار مع المدخلات الأصلية لتحليل جودة النتيجة.

يوجد أدناه رسم تخطيطي لكيفية عمل RBM:

التعلم العميق وأهم الخوارزميات الشائعة

10. أجهزة التشفير التلقائي (Autoencoders)

تعد أجهزة التشفير التلقائي (Autoencoders) نوعًا محددًا من الشبكة العصبية الأمامية (feedforward neural network) التي يكون فيها المدخلات والمخرجات متطابقة. صمم جيفري هينتون أجهزة التشفير التلقائي في الثمانينيات لحل مشاكل التعلم دون ألإشراف (unsupervised learning). هم شبكات عصبية مدربة تقوم بتكرار البيانات من طبقة الإدخال إلى طبقة الإخراج. تُستخدم أجهزة التشفير التلقائية لأهداف معینه مثل اكتشاف المستحضرات الصيدلانية وتوقع الشعبية ومعالجة الصور.

كيف تعمل أجهزة التشفير التلقائي (Autoencoders)؟

يتكون جهاز التشفير التلقائي من ثلاثة مكونات رئيسية: المشفر (encoder)، والرمز (code)، ووحدة فك التشفير (decoder).

  • تم تصميم أجهزة التشفير التلقائي لتلقي مدخلات وتحويلها إلى تمثيل مختلف. ثم تحاول إعادة بناء المدخلات الأصلية بأكبر قدر ممكن من الدقة.
  • عندما لا تكون صورة الرقم مرئية بوضوح ، فإنها تتغذى على شبكة عصبية للتشفير التلقائي.
  • تقوم أجهزة التشفير التلقائي أولاً بترميز الصورة، ثم تقليل حجم الإدخال إلى تمثيل أصغر.
  • أخيرًا، يقوم برنامج التشفير التلقائي بفك تشفير الصورة لإنشاء الصورة المعاد بناؤها.

توضح الصورة التالية كيفية عمل أجهزة التشفير التلقائي:

المصادر

المصدر الأول
المصدر الثانی

منشور ذات صلة
تقنیة تحليل التمييز الخطي 5 Minutes

تقنیة التحليل التمييزي الخطي (Linear Discriminant Analysis) تنفیذها في البایثون

حسن خنفري

يتم استخدام تحليل التمييز الخطي (LDA) لنمذجة الاختلافات في المجموعات، بعبارة اخرى، لفصل فئتين أو أكثر. ويتم استخدامه لإبراز الخصائص في مساحة ذات أبعاد أعلى في مساحة ذات أبعاد أقل.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

السلة