Multilayer neural networks
- 17. تنتشرإشاراتالمدخالتx1,x2,x3,…,xnخاللالشبكةمن
اليسارإلياليمين،وتنتشرإشاراتالخطأe1,e2,…,e3من
اليمينإلياليسار.ويرمزإليwijإليوزناالرتباطبين
العصبونiفيطبقةالمدخالتوالعصبونjفيالطبقةالمخبأة,
والرمزwjkللوزنبينالعصبونjفيالطبقةالمخبأة،
والعصبونkفيطبقةالمخرجات.
وفيانتشارشاراتالخطأ،نبدأعندطبقةالمخرجات،ونعمل
للخلفإليالطبقةالمخبأة.وتعرفإشارةالخطأعندمخرجات
العصبونkفيالتكرارpكمايلي:
ek(p) = Ydk(p) –Yk(p) where p=1,2,3,…
17Dr gafar zen alabdeen salh (2011)
- 18. وتجديدالوزنيكونعليالنحوالتالي:
Wjk (p+1)= wjk(p) +∆Wjk (p)
∆Wjk (p)= α×yj(p) ×δk(p)
حيثδk(p)العصبون عند الخطأ انحدار أو ميلkطبقة في
التكرار عند المخرجاتp
الميل هو ما:
انحدار يتحدداوالخطأ ميلبانهدالة مشتقةاسالتنشيطf
العصبون مخرجات عند الخطأ في مضروبة.ع نحصل لذلكلي
مايليللعصبونkالمخرجات طبقة في:
δk(p)= F '[XK(P)] × ek(p)
حيثXK(P)للعصبون الموزونة المدخالت صافيkالتكرار في
p
18Dr gafar zen alabdeen salh (2011)
- 21. يمكننا المخبأة للطبقة الوزن تصحيح لحسابتطبيقةنفس
المخرجات لطبقة المعادلة:
Wij (p+1)= Wij (p) +∆ Wij (p)
∆ Wij (p) = α×Xi(p) ×δj(p)
حيثتمثلδj(p)ميلاوانحدارالخطأعندالعصبونjفي
الطبقةالمخبأة:
حيثIعددالعصبوناتفيطبقةالمخرجات
21
I
k
jkkjjj pwppypyp
1
)()()](1[)()(
Dr gafar zen alabdeen salh (2011)
- 22. nالمدخالت طبقة في العصبونات عدد
للخلف االنتشار تدريب خوارزمية أالن ونستخلص
22
)(
1
1
)(
pjx
e
p
j
y
j
n
i
pijwpixp
j
X
1
)()()(
Dr gafar zen alabdeen salh (2011)
- 29. e= yd,5 –y5 =0-0.5097=-0.5097
تدريب التالية الخطوة وتكوناالوزان.لتجديداالوزان،
شبكتنا في العتبة ومستوياتفانناالخطأ ننشرeطبقة من
للخلف المخرجاتاليطبقةالمدخالت.
اوال“ميل نحسب ،اوللعصبون الخطأ انحدار5طبقة في
المخرجات:
δ5= y5×[1-y5] × e=0.5097*(1-0.5097)*(-0.5097)=-0.1274
بافتراض الوزن تصحيحات ذلك بعد نحدد ثمانم معلمةعدل
التعلمα=0.1
29Dr gafar zen alabdeen salh (2011)
- 30. للعصبون الخطأ انحدارات أو ميول ذلك بعد نحسب3,4في
المخبأة الطبقة:
δ3= y3×[1-y3] × δ5×w35 =0.5250*(1-0.5250)*(-0.1274)*(-
1.2)=0.0381
δ4= y4×[1-y4] × δ5×w45 =0.8808*(1- 0.8808)*(-0.1274)*1.1=-
0.0147
األوزان تصحيحات ذلك بعد نحدد:
30Dr gafar zen alabdeen salh (2011)
- 31. ∆ W13= α×X1×δ3 = 0.1×1×0.038=0.0038
∆ W23= α×X2×δ3 = 0.1×1×0.038=0.0038
∆ θ3= α×(-1)×δ3 = 0.1×(-1) ×0.038=-0.0038
∆ W14= α×X1×δ4 = 0.1×1×(-0.0147)=-0.0015
∆ W24= α×X2×δ4 =0.1×1×(-0.0147)=-0.0015
∆ θ4= α×(-1)×δ4=0.1×(-1)×(-0.0147)=0.0015
31Dr gafar zen alabdeen salh (2011)
- 32. واخيرا“نجددكلاالوزان،ومستوياتالعتبهفيشبكتنا:
W13= W13 +∆ W13 = 0.5+0.0038=0.5038
W14= W14 +∆ W14 = 0.9-0.0015=0.8985
W23= W23 +∆ W23 = 0.4+0.0038=0.4038
W24= W24 +∆ W24 = 1.0-0.0015=0.9985
W35= W35 +∆ W35 = -1.2-0.0067=-0.2067
W45= W45 +∆ W45 = 1.1-0.0112=1.0888
θ3= θ3 +∆ θ3 = 0.8-0.0038=0.7962
θ4= θ4 +∆ θ4 = -0.1+0.0015=-0.0985
θ5= θ5 +∆ θ5 = 0.3+0.0127=0.3127
32Dr gafar zen alabdeen salh (2011)
- 35. الذكية النظم دليل
The End.
Thank you for your patience!
Dr gafar zen alabdeen salh
(2011)
35