لتنفيذ شبكة عصبية في بايثون، سنستخدم مكتبة TensorFlow. TensorFlow هي مكتبة برمجيات مفتوحة المصدر لتدفق البيانات والبرمجة.
الكاتب: حسن خنفري
الطبقة الكثيفة (dense layer) هي طبقة مرتبطة ارتباطًا وثيقًا بطبقتها السابقة مما يعني أن الخلايا العصبية للطبقة متصلة بكل خلية عصبية في الطبقة السابقة.
يتكون LSTM من أربع شبكات عصبية والعديد من كتل الذاكرة المعروفة (chain structure). تتكون وحدة LSTM التقليدية من خلية وبوابة إدخال (input gate) وبوابة إخراج (output gate) وبوابة نسيان (forget gate).
تم تطوير GoogleNet بواسطة فريق بحث Google، وهي عبارة عن شبكة تلافيفية عميقة و22 طبقة عمیقة (deep layers) لتصنيف الصور (image classification).
DenseNet لديها حاجة أقل للطبقات العريضة لأن الطبقات متصلة بكثافة يكون هناك القليل من التكرار في الخصائص المكتسبة. تشترك جميع طبقات الكتلة الكثيفة نفسها في معرفة جماعية.
يتكون نموذج ResNet-50 من 5 مراحل لكل منها كتلة التفاف (convolutional) وهوية (identity). تحتوي كل كتلة التفاف على 3 طبقات التفاف ولكل كتلة هوية أيضًا 3 طبقات التفاف.
ResNet50 هو نموذج يتم استخدامه كثيرًا في التعلم العميق، ولكن مع وجود أكثر من 25 مليون بارامتر (parameter)، فهو يمثل الجانب الأكبر للاستخدام على الأجهزة المحمولة.
VGG16 عبارة عن بنية شبكة عصبية التلافيفية (CNN) تم استخدامها للفوز بمنافسة ILSVR (Imagenet) في عام 2014. تعتبر واحدة من نماذج الهندسة المعمارية الممتازة حتى الآن.
SMOTE هي تقنية over-sampling تركز على توليد بيانات جدولية تركيبية. الفكرة العامة لـ SMOTE هي توليد بيانات تركيبية (synthetic data) بين كل عينة من فئة الأقلية و”k” أقرب جيرانها.
صور MNIST هي 28 × 28 بكسل وهي أصغر مما تتوقعه LeNet-5 32 × 32 بكسل. حل سهل لذلك هو مجرد حشو الصور بالأصفار لجعل حجم صور MNIST يصل إلى 32 × 32 بكسل.