TY - JOUR ID - TI - Solving Linear Equations Using Matrix Splitting for Iterative Discrete-Time Methods in Neural Networks حل المعادلات الخطية باستخدام تقييم المصفوفة لطرق تقييم الوقت المتقطع بواسطة الشبكات العصبية AU - Essa I. Essa عيسى إبراهيم عيسى PY - 2007 VL - 2 IS - 3 SP - 79 EP - 87 JO - Kirkuk Journal of Science مجلة كركوك للعلوم SN - 30054788 30054796 AB - The material presented in this paper is the foundation for neural network architectures that can perform (Solving linear equations using matrix splitting for iterative discrete-time methods in neural networks).As announced a neural network consists of many inter connected processing elements (neurons or nodes), I can begins with the presentation of a particular neural network is dependent on the training phase (specifically the training data used). Matrix splitting solved in several preprocessing methods. Many times it’s necessary to processes the training data to extract important features from the data can be used to train the network instead of the “raw” data. The preprocessing of the training data can therefore, improve the performance of the neural network. Then, the convergence is achieved using the Richardson and Gauss-Seidel methods, respectively. The same termination criterion was used for both these methods in order to properly compare all the results we see that the SOR iterative method gives the best results, that is, the fastest convergence. Comparing the SOR results with the next-best results (Gauss-Seidel, ); we see that the SOR method is about 10 times faster.

أن المادة التي قدمت في هذا البحث هي من اساسيات (معمارية الشبكة العصبية) التي تكون حلا لـ(المعادلات الخطية بأستخدام المصفوفة لطرق تقسيم الوقت المتقطع بواسطة الشبكة العصبية), وكما هو معروف فان الشبكة العصبية تتكون من العديد من العناصر المترابطة الداخلية(عقد أو عصبونات) ويمكن عرض جزءاً لهذه الشبكة العصبية اعتماداً على طور التدريب (المحدد لتدريب البيانات المستخدمة),وتقسيم المصفوفة يحل بعدة معالجت أولية متعددة.ومن الضروري معالجة هذه الطرق من خلال استخلاص الخصائص المهمة للبيانات المستخدمة لتدريب الشبكة عليها بدلاً من أستخدام البيانات على هيئة "سطر". وهذه المعالجة الأولية لها يمكن أن تحسن أداء الشبكة العصبية والتقارب المنجز بطريقتي(Richardson and Ganss Seidel)على التوالي بنفس معيار الانهاء المستخدم لكلا الطريقتين, وبمقارنة جميع النتائج ظهر أن طريقة (SOR)المكررة تعطي نتائج ذات تقارب أفضل وأسرع. وبمقارنة نتائج (SOR)مع (نتائج القادم – أفضل )لـ) (Gauss-Seidel ترى ان طريقة الـ(SOR)اسرع بعشر مرات. ER -