جولة في خوارزميات التعلم الآلي

machine learning

سنقوم في هذا المقال، بجولة للتعرف على أكثر خوارزميات التعلم الآلي الأكثر شعبية. من المفيد القيام بجولة في الخوارزميات الرئيسية في الميدان للتعرف على الطرق المتاحة.

هناك العديد من الخوارزميات التي يمكن أن تشعر بالإرهاق عندما يتم طرح أسماء الخوارزميات ويتوقع منك فقط معرفة ماهيتها ومناسبها.

أريد أن أعطيك طريقتين للتفكير في الخوارزميات التي قد تصادفك في هذا المجال.

  • الأول هو تجميع الخوارزميات حسب أسلوب التعلم.
  • والثاني هو تجميع الخوارزميات حسب تشابهها في الشكل أو الوظيفة (مثل تجميع الحيوانات المتشابهة معًا).

سوف نركز ـفي هذا المنشورـ على الطريقة الثانية.

غالبًا ما يتم تجميع الخوارزميات حسب التشابه من حيث وظيفتها (كيف تعمل). على سبيل المثال، الأساليب المستندة إلى الأشجار، والأساليب المستوحاة من الشبكة العصبية.

أعتقد أن هذه هي الطريقة الأكثر فائدة لتجميع الخوارزميات والتي سنستخدمها هنا. هذه طريقة تجميع مفيدة، لكنها ليست مثالية. لا تزال هناك خوارزميات يمكن أن تتناسب بسهولة مع فئات متعددة مثل Learning Vector Quantization وهي طريقة مستوحاة من الشبكة العصبية وطريقة قائمة على المثيل (instance-based method). هناك أيضًا فئات لها نفس الاسم تصف المشكلة وفئة الخوارزمية مثل الانحدار والعنقودي.

يمكننا التعامل مع هذه الحالات من خلال سرد الخوارزميات مرتين أو عن طريق اختيار المجموعة التي هي “الأفضل” بشكل شخصي. يعجبني النهج الأخير المتمثل في عدم تكرار الخوارزميات لإبقاء الأمور بسيطة.

في هذا القسم، ندرج العديد من خوارزميات التعلم الآلي الشائعة المجتمعة بالطريقة التي نعتقد أنها الأكثر سهولة.

نقترح علیك قراءة ما هو التعلم الآلي و ما هي استخداماته؟

قائمة خوارزميات تعلم الآلة الشائعة

فيما يلي قائمة خوارزميات التعلم الآلي شائعة الاستخدام. يمكن تطبيق هذه الخوارزميات على أي مشكلة للبيانات تقريبًا:

  1. الانحدارالخطي (Linear Regression)
  2. الانحدار اللوجستي (Logistic Regression)
  3. شجرة القرار (Decision Tree)
  4. شعاع الدعم الآلي (SVM)
  5. بایز ساذج (Naive Bayes)
  6. K أقرب الجيران (KNN)
  7. الخوارزمية التصنيفية (K-means)
  8. الغابة العشوائية (Random Forest)
  9. خوارزميات تقلیل الأبعاد (Dimensionality Reduction Algorithms)
  10. خوارزميات تعزيز التدرج (Gradient Boosting algorithms)
    1. GBM
    2. XGBoost
    3. LightGBM
    4. CatBoost

الانحدارالخطي (Linear Regression)

يتم استخدامه لتقدير القيم الحقيقية (تكلفة المنازل، عدد المكالمات، إجمالي المبيعات وما إلى ذلك) بناءً على المتغير (المتغيرات) المستمر. هنا، نؤسس علاقة بين المتغيرات المستقلة والتابعة من خلال تركيب أفضل خط. يُعرف هذا الخط الأكثر ملاءمة باسم خط الانحدار ويتم تمثيله بمعادلة خطية Y = a * X + b.

أفضل طريقة لفهم الانحدار الخطي هي استعادة تجربة الطفولة هذه. دعنا نقول، أنت تطلب من طفل في الصف الخامس ترتيب الناس في فصله عن طريق زيادة ترتيب الوزن، دون أن تطلب منهم أوزانهم. تعتقد ماذا سيفعله الطفل؟ من المحتمل أن ينظر (يحلل بصريًا) في ارتفاع وبناء الأشخاص ويرتبهم باستخدام مجموعة من هذه البارامترات المرئية. هذا هو الانحدار الخطي في الحياة الحقيقية! لقد اكتشف الطفل بالفعل أن الطول والبناء سيكونان مرتبطين بالوزن من خلال علاقة تبدو مثل المعادلة أعلاه.

في هذه المعادلة:

Y- المتغير التابع (Dependent Variable)

a – المنحدر (Slope)

X – المتغیر المستقل (Independent variable)

b – نقطه التقاطع (Intercept)

يتم اشتقاق المعاملين a و b بناءً على تقليل مجموع الفرق التربيعي للمسافة بين نقاط البيانات وخط الانحدار.

انظر إلى المثال أدناه. حددنا هنا أفضل خط ملائم له بالمعادلة الخطية 13.9+x0.2811. الآن باستخدام هذه المعادلة، يمكننا إيجاد الوزن، بمعرفة ارتفاع الشخص.

يتكون الانحدار الخطي بشكل أساسي من نوعين: الانحدار الخطي البسيط والانحدار الخطي المتعدد. يتميز الانحدار الخطي البسيط بمتغير مستقل واحد. ويتميز الانحدار الخطي المتعدد (كما يوحي الاسم) بمتغيرات مستقلة متعددة (أكثر من 1). أثناء العثور على أفضل خط ملائم، يمكنك أن تتلاءم مع انحدار متعدد الحدود أو منحني الخطوط. تُعرف هذه باسم الانحدار متعدد الحدود أو المنحني.

الانحدار اللوجستي (Logistic Regression)

إنها خوارزمية تصنيف تُستخدم عندما يكون متغير الاستجابة فئويًا. فكرة الانحدار اللوجستي هي عبارة عن إيجاد علاقة بين الخَصائِص واحتمال نتيجة معينة.

على سبيل المثال عندما يتعين علينا التنبؤ بما إذا كان الطالب قد نجح أو فشل في أحد الاختبارات عندما يتم إعطاء عدد الساعات التي قضاها في الدراسة کخصیصة، فإن متغير الاستجابة له قيمتان، النجاح والفشل.

شجرة القرار (Decision Tree)

أشجار القرار هي نوع من التعلم الآلي بالإشراف (أي تشرح ماهية الإدخال وما هو الإخراج المقابل في بيانات التدريب)، إذ يتم تقسيم البيانات باستمرار وفقًا لمعامل معين. يمكن تفسير الشجرة من خلال كيانين، وهما عقد القرار والأوراق. فالأوراق هي القرارات أو النتائج النهائية. و عقد القرار هو المكان الذي يتم فيه تقسيم البيانات.

جولة في خوارزميات التعلم الآلي

يمكن شرح مثال لشجرة القرار باستخدام الشجرة الثنائية أعلاه. لنفترض أنك تريد أن توقع ما إذا كان الشخص لائقًا بالنظر إلى معلوماته مثل العمر وعادات الأكل والنشاط البدني، وما إلى ذلك. نقاط اتخاذ القرار هنا هي أسئلة مثل “ما هو العمر؟”، “هل يمارس الرياضة؟”، “هل يأكل الكثير من البيتزا”؟ والأوراق، هي نتائج مثل “مناسبة” أو “غير مناسبة”. في هذه الحالة كانت هذه مسألة تصنيف ثنائي (نعم! لا مشكلة نوع).

شعاع الدعم الآلي (SVM)

إنها طريقة تصنيف. في هذه الخوارزمية، نرسم كل عنصر بيانات كنقطة في الفضاء ذي البعد n (إذ n هو عدد الخصائص التي لديك) مع قيمة كل خصیصة هي قيمة إحداثيات معينة.

على سبيل المثال، إذا كان لدينا خصائص فقط مثل الطول وطول الشعر للفرد، فسنقوم أولاً برسم هذين المتغيرين في مساحة ثنائية الأبعاد، إذ تحتوي كل نقطة على إحداثيين (تُعرف هذه الإحداثيات باسم شعاع الدعم).

سنجد الآن، خطًا يقسم البيانات بين مجموعتي بيانات مصنفتين بشكل مختلف. سيكون هذا الخط بحيث تكون المسافات من أقرب نقطة في كل من المجموعتين الأبعد.

في المثال الموضح أعلاه، الخط الذي يقسم البيانات إلى مجموعتين مختلفتين التصنيف هو الخط الأسود، لأن أقرب نقطتين هما الأبعد عن الخط. هذا الخط هو مصنفنا. بعد ذلك، بناءً على مكان وصول بيانات الاختبار على جانبي الخط، هذا هو التصنيف الذي يمكننا تصنيف البيانات الجديدة عليه.

بایز ساذج (Naive Bayes)

إنها تقنية تصنيف تعتمد على نظرية بايز مع افتراض الاستقلال بين المتنبئين. بعبارات بسيطة، يفترض مصنف Naive Bayes أن وجود خصیصة معينة في الفئة لا علاقة لها بوجود أي خصیصة أخرى. على سبيل المثال، يمكن اعتبار الفاكهة على أنها تفاحة إذا كانت حمراء ودائرية وقطرها حوالي 3 بوصات. حتى إذا كانت هذه الخصائص تعتمد على بعضها أو على وجود خصائص أخرى، فإن مصنف Naive Bayes سوف يأخذ في الاعتبار كل هذه الخصائص للمساهمة بشكل مستقل في احتمال أن تكون هذه الفاكهة تفاحة. نموذج بايز الساذج سهل البناء ومفيد خاصة لمجموعات البيانات الكبيرة جدًا. إلى جانب البساطة، من المعروف أن Naive Bayes تفوق في الأداء حتى على أساليب التصنيف المعقدة للغاية.

K أقرب الجيران (KNN)

يمكن استخدامه لكل من مسائل التصنيف والانحدار. ومع ذلك، فإنه يستخدم على نطاق واسع في مسائل التصنيف في الصناعة. کي أقرب الجيران عبارة عن خوارزمية بسيطة تخزن جميع الحالات المتاحة وتصنف الحالات الجديدة بأغلبية أصوات جيرانها. الحالة التي يتم تخصيصها للفئة هي الأكثر شيوعًا بين کي أقرب الجيران والتي يتم قياسها بواسطة دالة المسافة. يمكن أن تكون دالة المسافة هذه إقليدية، ومانهاتن، ومينكوفسكي، ومسافة هامينغ. يتم استخدام أول ثلاثه دالات للدالة المستمرة والرابعة (هامينج) للمتغيرات الفئوية. إذا كانت 1=k، فسيتم تعيين الحالة ببساطة إلى فئة أقرب الجيران لها. في بعض الأحيان، تبين أن اختيار K يمثل تحديًا أثناء إجراء نمذجة kNN.

يمكن بسهولة ربط KNN بحياتنا الحقيقية. إذا كنت تريد التعرف على شخص ليس لديك معلومات عنه، فقد ترغب في التعرف على أصدقائه المقربين والدوائر التي ينتقل إليها والوصول إلى معلوماته/ معلوماتها.

الخوارزمية التصنيفية (K-means)

إنه نوع من الخوارزمية التعلم بالإشراف والتي تحل مشكلة التجميع. يتبع الإجراء طريقة بسيطة وسهلة لتصنيف مجموعة بيانات معينة من خلال عدد معين من المجموعات (افترض k مجموعات). نقاط البيانات داخل الكتلة متجانسة وغير متجانسة لمجموعات النظراء.

الطريقة التي تعني بها الخوارزمية التصنيفيةهي كما يلي:

  1. تحدید عدد المجموعات K.
  2. قم بتهيئة النقط الوسطى عن طريق خلط مجموعة البيانات أولاً، ثم اختيار نقاط بيانات K بشكل عشوائي للنقط الوسطى بدون استبدال.
  3. استمر في التكرار حتى لا يكون هناك تغيير في النقط الوسطى. بعبارة أخرى، لن يتغير تخصيص نقاط البيانات إلى المجموعات.

الغابة العشوائية (Random Forest)

Random Forest هو مصطلح علامة تجارية لمجموعة من أشجار القرار. في Random Forest، لدينا مجموعة من أشجار القرار (المعروفة باسم “الغابة”). لتصنيف شيء جديد بناءً على الخصائص، تعطي كل شجرة تصنيفًا ونقول الشجرة “أصوات” لتلك الفئة. تختار الغابة التصنيف الحاصل على أكبر عدد من الأصوات (على جميع الأشجار في الغابة).

تُزرع كل شجرة وتنمو على النحو التالي:

  1. إذا كان عدد الحالات في مجموعة التدريب هو N، فسيتم أخذ عينة من الحالات N عشوائيًا ولكن مع الاستبدال. ستكون هذه العينة هي مجموعة التدريب لنمو الشجرة.
  2. في حالة وجود متغيرات إدخال M، يتم تحديد رقم m << M، إذ يتم اختيار متغيرات m في كل عقدة عشوائيًا من M ويتم استخدام أفضل تقسيم على هذه m لتقسيم العقدة. تظل قيمة m ثابتة أثناء نمو الغابة.
  3. تُزرع وتنمو كل شجرة إلى أقصى حد ممكن. لا يوجد تقليما ما.

خوارزميات تقلیل الأبعاد (Dimensionality Reduction Algorithms)

في مشاكل تصنيف التعلم الآلي، غالبًا ما يكون هناك العديد من العوامل التي يتم على أساسها التصنيف النهائي. هذه العوامل هي في الأساس متغيرات تسمى الخصائص. كلما زاد عدد الخصائص، زاد صعوبة تصور مجموعة التدريب ثم العمل عليها. في بعض الأحيان، ترتبط معظم هذه الخصائص ببعضها، وبالتالي فهي زائدة عن الحاجة. هذا هو المكان الذي تدخل فيه خوارزميات تقليل الأبعاد. تقليل الأبعاد هو عملية تقليل عدد المتغيرات العشوائية قيد الدراسة، من خلال الحصول على مجموعة من المتغيرات الرئيسية. يمكن تقسيمها إلى اختيار الخصیصة واستخراجها.

خوارزميات تعزيز التدرج (Gradient Boosting algorithms)

تعزيز التدرج هو نوع من تعزيز التعلم الآلي. يعتمد على الحدس القائل بأن أفضل نموذج تالٍ ممكن، عند دمجه مع النماذج السابقة، يقلل من خطأ التنبؤ الكلي. الفكرة الأساسية هي تحديد النتائج المستهدفة لهذا النموذج التالي لتقليل الخطأ. كيف يتم حساب الأهداف؟ تعتمد النتيجة المستهدفة لكل حالة في البيانات على مدى تأثير التغيير في تنبؤ هذه الحالة على خطأ التنبؤ الكلي:

  1. إذا تسبب تغيير طفيف في التنبؤ بإحدى القضايا في انخفاض كبير في الخطأ، فإن النتيجة المستهدفة التالية للحالة تكون ذات قيمة عالية. تنبؤات النموذج الجديد القريبة من أهدافه ستقلل من الخطأ.
  2. إذا كان التغيير الطفيف في التنبؤ بحالة ما لا يسبب أي تغيير في الخطأ، فإن النتيجة المستهدفة التالية للحالة هي صفر. لا يؤدي تغيير هذا التوقع إلى تقليل الخطأ.

المصدر الأول

المصدر الثاني

المصدر الثالث

المصدر الرابع

المصدر الخامس

المصدر السادس

المصدر السابع

منشور ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

السلة