Improvement the Back propagation Technique

Abstract

Abstract
Error backpropagation neural network (EBP) used training algorithm for feedforward artificial neural networks (FFANNs). The main problem with the EBP algorithm that it is very slow and the converge to the optimal solution is not guaranteed. This problem leads to search for improvements to speed up this algorithm. In this research we use several methods to speed up the EBP algorithm. A many layer neural network was designed for building pattern compression system, encoding and recognition. We also used many methods to speed up this algorithm (EBP) and comparison between them.

الملخص
تستخدم خوارزمية انتشار الخطأ خلفاً في الشبكات العصبية الاصطناعية ذات التغذية الأمامية. والمشكلة الموجودة في خوارزمية الشبكة العصبية ذات الانتشار العكسي هي أن بطء الاقتراب والوصول إلى الحل الأمثل ليس أكيدا،وقد أدت هذه المشكلة إلى البحث عن تحسينات لتسريع هذه الخوارزمية. استخدم في هذا البحث العديد من الطرائق لتسريع خوارزمية الشبكة العصبية ذات الانتشار العكسي للتوصل إلى احسن خوارزمية لتسريع عمل الشبكة وتم تصميم شبكات عصبية ذات انتشار عكسي ومحتوية على عدد من الطبقات لتمييز النماذج وتنفيذ جميع الطرق المحسنة للشبكة على هذه التطبيقات وإجراء المقارنة بينها.