More Related Content Similar to Neural networks
Similar to Neural networks (8) More from Zahra Sadeghi (13) Neural networks1. صادقی زهرا
1
Multi-layer perceptron
MLPِک است ًزٍى چٌذیي اس ُساد ِضثک یکperceptronضکل .ضًَذ هی ًُاهیذ1یک ،perceptron
ّز ،ًوَد ِهالحظ تَاى هی ضکل رٍی اس ِْک عَر ّواى .دّذ هی ًوایص راPerceptronیک ِهحاسث ِت
ّز سپس .تاضذ هی ّا ٍرٍدی رٍی خغی ی ُضذ دار ٍسى تزکیة یک ایجاد تا ٍرٍدی چٌذیي اس ٍاحذ خزٍجی
لز غیزخغی تاتغ یک تحت خزٍجیّز خزٍجی ٍالغ در .گیزد هی ارperceptronهی ِهحاسث سیز صَرت ِت
:ضَد
)(
1
n
i
iim wxy
اس هٌظَر ،تاال فزهَل درx،ٍرٍدیwٍ ،ّا ٍسى تزدار ،ساسی فؼال تاتغ(activation function)هی
ًَع اس یا تاتغ ایي ،هؼوَال .تاضذsigmoid.تاضذ هی ّیپزتَلیک تاًژاًت ًَع اس یا ٍ
x
e
xsigmoid
1
1
)(
xx
xx
ee
ee
x
)tanh(
شکل1پرسپترون نمایش )
2. صادقی زهرا
2
چٌذ تزکیة اسperceptronػصثی ِضثک یکMLPضکل در .ضَد هی ایجاد2ِضثک یکMLPًوایص
ّز .است ُضذ ُدادMLPِالی ٍ ،هیاًی یا هخفی ِالی ،ٍرٍدی ِالی :اس ػثارتٌذ ِک تاضذ هی ِالی ِس ضاهل
ػصثی ِضثک .خزٍجیMLPتَاتغ تخویي لذرت ٍالغ در .تاضذ هی غیزخغی ّای ًگاضت یادگیزی ِت لادر
.تاضذ هی آى تَدى ِالی چٌذ ٍ ساسی فؼال تَاتغ تَدى خغی غیز در ػصثی ِضثک ایي غیزخغی
شکل2ن )الیه چند پرسپترون مایش
Back-propagation vs. full-propagation method
رٍش اس ُاستفاد ُرا یک ،ّا ِالی اس یک ّز ٍسى تزدارّای یادگیزی تزایsteepest descentتا .تاضذ هی
است هثٌا ایي تز ِک تزد کار ِت ػصثی ّای ِضثک یادگیزی تزای تَاى هی رٍش ٍد ،ُایذ ایي اس ُاستفادَارّستٌذ
ّذف تاتغ یک هٌظَر تذیي .ضَد هی هٌتمل اٍل ِالی ِت آخز ِالی اس ٍ ضَد هی هٌتمل ِضثک کل در خغا ِک
تزاساسsum of square errorٍد ِت .تاضذ هی خغا ایي کل ًوَدى ٌِکوی ،کلی ّذف ٍ ضَد هی تؼزیف
:کزد هٌتطز ِضثک در را ُضذ ایجاد خغای تَاى هی صَرتon-lineٍoff-lineیادگیزی در .on-lineیا
3. صادقی زهرا
3
standard mode،گیزد هی صَرت ِلحظ ّواى در ٍرٍدی ُداد ّز خغای تزاساس ّا ٍسى ساسی تٌْگام
رٍش در ِآًک حالoff-lineیاbatch modeاس گذر تار ّز در ٍرٍدی ّای ُداد ِّو اسای ِت خغاّا هجوَع
.گیزد هی صَرت ِهزتث یک ،ّا ُداد کل رٍی
صَرت ِتساسی تٌْگام ِرٍاتغ ریاضیon-lineّواى یاback-propagation:تاضذ هی سیز صَرت ِت
2
1
2
1
)( qqq
N
q
q
N
q
q
tySSESSEeSSEJ
im
q
imim
w
SSE
ww
mj
q
mjmj
u
SSE
uu
ساسی تٌْگام رٍاتظ ،ّوچٌیيoff-lineّواى یاfull-propagation:تَد خَاّذ سیز رٍاتظ تا هغاتك
im
imim
w
SSE
ww
mj
mjmj
u
SSE
uu
اس هٌظَر فَق رٍاتظ درّا جَاب یافتي ٍ یادگیزی سزػت در هستمیوی تاثیز ِک تاضذ هی یادگیزی ضزیة
ِّزچ .داردیادگیزی سهاى ،ًِتیج در است؛ تز کَچک َجستج فضای در حزکت ّای گام ،تاضذ تز کَچک
ّای جَاب یافتي احتوال اها ،ضَد هی تز عَالًیoptimalِّزچ ،ِهطات عَر ِت .ضَد هی تیطتزتز تشرگ
در افتادى اهکاى ًِتیج در ٍ است تاالتز حزکت سزػت ،تاضذlocal min.رٍد هی تاالتز
.کٌین هی ُاستفاد سیز رٍاتظ اس فَق ّای هطتك ِهحاسث تزای ،ّوچٌیي
)()(
)(2)(
00
11 1
2
00
00
0
00
00
0
00
00
M
m
mjmm
jm
j
M
m
mjmj
N
q jm
q
jq
j
q
j
jm
N
q
C
j
q
j
q
j
uzgz
u
y
uzgy
u
y
ty
u
SSE
tySSE
4. صادقی زهرا
4
Q
q
J
j
n
i
imii
M
m
mjmjm
q
j
q
j
mi
n
i
imii
mi
m
M
m
mjmjm
mi
m
M
m
mjm
mi
M
m
mjm
mi
q
j
N
q
C
j
N
q
C
j mi
q
jq
j
q
j
mi
q
j
q
j
wxgxuzguty
w
SSE
wxgx
w
z
uzgu
w
z
uzg
w
uz
w
y
w
y
ty
w
SSE
tySSE
1 1 000
00
0
1 1 1 1
2
)()()(2)(
)()(.
)(
)(2)(
000
00
00
00
0
0
00
0
0000
0000
،تاال رٍاتظ درNٍ ،ٍرٍدی ّای ُداد کل تؼذادC.تاضذ هی خزٍجی ّای ِالی تؼذاد
Conjugate gradient method
ساسی ٌِتْی رٍشconjugate gradient:کٌذ هی کار سیز رٍاتظ هثٌای تز
iiii pxx 1
)( 00 xfp
1 iiii pgp
)( ii xfg
1
i
i
i
g
g
،تاال رٍاتظ درx، ساسی ٌِتْی پاراهتزfٍ ٌِّشی تاتغٍتخَاّین اگز .تاضٌذ هی تغثیمی یادگیزی ضزایة
ػصثی ِضثک در ٍسًی تزدارّای ساسی تٌْگام تزای رٍش ایي اسMLPتزدار ،کٌین ُاستفادxتزدار تاwتاتغ ٍ ،
ساسی ٌِتْیfٌِّشی تاتغ تاSSEٍد در را فَق هؼادالت تَاى هی ،ّوچٌیي .ضًَذ هی جایگشیيحالتoffline
ٍonline:تزد کار ِت
1-Conjugate gradientرٍش ِتon-line
5. صادقی زهرا
5
1
1
0
0
wi
wi
wi
wiwiwiwi
im
q
wi
wim
q
w
wiimim
g
g
pgp
w
SSE
g
w
SSE
p
pww
2-Conjugate gradientرٍش ِتoff-line
1
1
0
0
wi
wi
wi
wiwiwiwi
im
wi
wim
w
wiimim
g
g
pgp
w
SSE
g
w
SSE
p
pww
ها نرون تعداد تاثیر
لذرت ٍ رٍد هی تاالتز ػصثی ِضثک پذیزی اًؼغاف لذرت ،ضَد تیطتز ّا ًزٍى تؼذاد ِّزچgeneralization
اگز .یاتذ هی افشایص ًیش ِهسال حل سهاى ٍ هحاسثات حجن ٍ پیچیذگی ،هماتل در اها .ضَد هی تیطتز ِضثک
پ ٍ غیزخغی ّای تاتغ تا هسائل حل ِت لادر ِضثک ،تاضذ کن ّا ًزٍى تؼذادِگزچ .داضت ًخَاّذ را ُیچیذ
تاػث ،ضَد تیطتز حذی اس اگز ،تزد هی تاال را ُپیچیذ ّای ًگاضت ٍ تَاتغ تخویي لذرت ّا ًزٍى تؼذاد افشایص
.ضذ خَاّذ ِضثک کارایی افت
میانی های الیه تعداد تاثیر
پیچیذگی تا تَاتؼی تخویي لذرت تزدى تاال ٍ پاراهتزّاست تؼذاد کزدى کن ،تیطتز ّای ِالی تؼذاد ُاًگیش
هَجَد پاراهتزّای تؼذاد ،تاضذ ِداضت ٍجَد هیاًی ِالی یک ِک ٌّگاهی در .تاالتزاستLMMn هی
6. صادقی زهرا
6
.تاضذn،ٍرٍدی ّای ُداد ّای ٍیژگی تؼذادMّا ًزٍى تؼذادٍ ،هیاًی ِالی درLخزٍجی ِالی ّای ًزٍى تؼذاد
پاراهتزّا تؼذاد ،هیاًی ِالی یک افشایص تا .تاضذ هیLMMMMn 2211.ضَد هی1Mًزٍى تؼذاد
ٍ اٍل ِالی ّای2M.تاضذ هی دٍم ِالی ّای ًزٍى تؼذاد
تؼذ تزدى تاال تزای ضزط ٍد:است السم هیاًی ّای ِالی اد
1).تاضذ ِالی یک لثلی ِاسضثک کوتز ِالی یک اس تیص تا جذیذ ِضثک در ّا ًزٍى کل تؼذاد هجوَع
2)کل تؼذاد هجوَعweight.تاضذ ِالی یک لثلی ِضثک اس کوتز ِالی یک اس تیص تا جذیذ ِضثک در ّا
a)Back-propagation method
رٍش اس ،ٍسى تزدارّای یادگیزی تزای ،لسوت ایي درback-propagationُضذ ُداد لثال آى ضزح ِک
ّای ًزٍى تؼذاد .تاضذ هی هیاًی ِالی یک تا ساختاری دارای ُضذ ساسی ُپیاد ػصثی ِضثک .ضَد هی ُاستفاد
یؼٌی ٍیژگی اتؼاد تؼذاد ِت ،هیاًی ِالی16ٍخز ِالی ّای ًزٍى تؼذاد ٍ ًزٍىیؼٌی ّا کالس تؼذاد ِت ،جی11
.است ُضذ اًتخاب ًزٍى
اسای ِت یادگیزی رًٍذ111ُداد تٌذی ِدست اس حاصل خغای ًوَدار .است ِگزفت لزار تزرسی هَرد ،تکزار تار
ّایtestٍtrainهمادیز ًوَدار ٍCCRّای ضکل در تکزار تار ّز اسای ِت ُآهذ دست ِت3ٍ4ُداد ًوایص
.است ُضذ
7. صادقی زهرا
7
شکل3-روش از حاصل خطای نمودارback-propagation
ضکل در ِک عَر ّواى3ّای ُداد خغای ،ضَد هی ِهالحظtestٍtrainتذیْی .است ِیافت کاّص تذریج ِت
ّای ُداد ِت هزتَط خغای ِک استtrainّای ُداد اسtestّای ُداد ِتَسیل ِضثک کل ِک چزا ،است کوتز
train.اًذ ُضذ ِیافت تخصص ّا ُداد ایي ِت ًسثت ِضثک پاراهتزّای تٌاتزایي ٍ است ُضذ ُداد آهَسش
8. صادقی زهرا
8
شکل4-مقادیر نمودارCCRروش برایback-propagation
ضکل اس4همادیز تزرسی تاCCRرٍش تٌذی ِدست صحت ِک دریافت تَاى هیback-propagationِت
ّای ُداد تزای ،صحت ایي .تاضذ هی تاالیی هیشاىtrainّای ُداد اس تیطتزtestاست آى دلیل ِت ِک تاضذ هی
ّای ُداد تا ِضثک پاراهتزّای ِکtrain.اًذ ِیافت آهَسش
کالسیفایز ،تْتز ارسیاتی تزایMLPکالسیفایز تا راBayesianرٍش اس ِکKNN estimatorهی ُاستفاد
جذٍل در کالسیفایز ٍد ایي ًتایج .کٌین هی ِهمایس ،کٌذ1.است ُضذ ُداد ًطاى
جدول1-کالسیفایر مقایسهMLPیادگیری باback-propagationکالسیفایر وBayesianگر تخمین باKNN
KNN estimator with Bayesian
classifier
MLP with back -س propagation
learning
CCR 96.627 91.194
9. صادقی زهرا
9
b)Full-propagation algorithm
رٍش اس ،ٍسى تزدارّای یادگیزی تزای ،لسوت ایي درfull-propagationُاستفاد ُضذ ُداد لثال آى ضزح ِک
ِالی ّای ًزٍى تؼذاد .تاضذ هی هیاًی ِالی یک تا ساختاری دارای ُضذ ساسی ُپیاد ػصثی ِضثک .ضَد هی
یؼٌی ٍیژگی اتؼاد تؼذاد ِت ،هیاًی16یؼٌی ّا کالس تؼذاد ِت ،خزٍجی ِالی ّای ًزٍى تؼذاد ٍ ًزٍى11ًزٍى
.است ُضذ اًتخاب
اسای ِت یادگیزی رًٍذ111ُداد تٌذی ِدست اس حاصل خغای ًوَدار .است ِگزفت لزار تزرسی هَرد ،تکزار تار
ّایtestٍtrainهمادیز ًوَدار ٍCCRّای ضکل در تکزار تار ّز اسای ِت ُآهذ دست ِت5ٍ6ُداد ًوایص
.است ُضذ
شکل5-روش از حاصل خطای نمودارfull-propagation
ّضکل رٍی اس ِک عَر واى5رٍش اس حاصل خغای ،ضَد هی ُدیذfull-propagationکاّطی رًٍذ ًیش
رٍش اس کوتز کاّص ایي همذار اها .داردback-propagation.تاضذ هی
10. صادقی زهرا
10
شکل6-مقادیر نمودارCCRروش برایfull-propagation
ّای ضکل ِهمایس اس4ٍ6رٍش صحت ِگزچ ِک دریافت تَاى هیfull-propagationاها ،تاالست ًیش
همذارCCRرٍش اس آىback-propagation.تاضذ هی کوتز
جذٍل در2همادیز ،CCRرٍش ٍد ّوگزایی سهاى هذت ٍback-propagationٍfull-propagationتا
.اًذ ُضذ ِهمایس تیشیي کالسیفایز
جدول2-کالسی مقایسهفایرMLPیادگیری باback-propagationوfull-propagationکالسیفایر وBayesianبا
گر تخمینKNN
KNN estimator with
Bayesian classifier
MLP with back-
propagation learning
MLP with full-
propagation learning
CCR_test 96.627 91.194 78.149
Run-Time 1121.8 49.849 62.287
11. صادقی زهرا
11
جذٍل اس2سى تخویي تا تیشیي کالسیفایز سزػت ِایٌک ٍجَد تا ِک ضَد هی ِهالحظKNNاها ،تاضذ هی پاییي
کالسیفایز اس تاالتز تسیار آى صحتMLPرٍش ِک ضَد هی ِهالحظ ،ّوچٌیي .تاضذ هیback-
propagationرٍش ِت ًسثتfull propagationتزای تیطتزی سهاى هذتایي دلیل .دارد السم ّوگزایی
رٍش ِک است آى اهزfull-propagationحال ،گیزد هی ًظز در را ّا ًًَِو ی ِّو اس حاصل خغای کل
رٍش ِآًکback-propagationرٍش ،تٌاتزایي .دّذ هی اًجام را ساسی تٌْگام ًًَِو ّز خغای تزهثٌای
full-propagationتاال ّوگزایی سزػت هَارد تیطتز دررٍش ِک آًجا اس .دارد تزیfull-propagationِت
.است کٌذ ٍ یکٌَاخت آى یادگیزی ی ِپزٍس ،ساسد هی تٌْگام را پاراهتزّا خغاّا هجوَع کوک
c)Conjugate Gradient method
رٍش اس ،ٍسى تزدارّای یادگیزی تزای ،لسوت ایي درConjugate Gradientُضذ ُداد لثال آى ضزح ِک
.ضَد هی ُاستفادلثلی ّای رٍش تزخالف ،رٍش ایيدر ِآًک جای ِتتز گام ضیة تٌذتزیي جْتدرجْت ،دارد
است ُضذ آى تز سزیغ ّوگزایی تاػث ِک کٌذ هی حزکت گزادیاى هشدٍجرٍش ایي تا ِراتغ در ِک هطکلی اها .
تاال آى هحاسثات حجن ِک است ایي دارد ٍجَدهتاضذ ی.یک تا ساختاری دارای ُضذ ساسی ُپیاد ػصثی ِضثک
یؼٌی ٍیژگی اتؼاد تؼذاد ِت ،هیاًی ِالی ّای ًزٍى تؼذاد .تاضذ هی هیاًی ِالی16ِالی ّای ًزٍى تؼذاد ٍ ًزٍى
یؼٌی ّا کالس تؼذاد ِت ،خزٍجی11.است ُضذ اًتخاب ًزٍى
اسای ِت یادگیزی رًٍذ111ُداد تٌذی ِدست اس حاصل خغای ًوَدار .است ِگزفت لزار تزرسی هَرد ،تکزار تار
ّایtestٍtrainهمادیز ًوَدار ٍCCRّای ضکل در تکزار تار ّز اسای ِت ُآهذ دست ِت7ٍ8ُداد ًوایص
.است ُضذ
12. صادقی زهرا
12
شکل7-روش از حاصل خطای نمودارconjugate gradient
ّای ضکل ِهمایس اس3،5ٍ ،7رٍش اس حاصل خغای ِک دریافت تَاى هیconjugate gradientاس کوتز
رٍشfull-propagationرٍش حذ در تمزیثا ٍback-propagation.تاضذ هی
13. صادقی زهرا
13
شکل8-مقادیر نمودارCCRروش برایconjugate gradient
ّای ضکل ِهمایس اس4،6ٍ ،8دریافت تَاى هیرٍش صحت ِکconjugate gradientرٍش ٍد اس کوتز
دیگزback-propagationٍfull-propagation.تاضذ هی
جدول3-یادگیری های روش مقایسهMLP
MLP with back-
propagation learning
MLP with full-
propagation learning
Conjugate gradient
CCR_test 91.194 78.149 89.373
Train_time 29.702 22.767 696.42
Test_time 20.003 40.406 10.123
جذٍل اس ِک عَر ّواى3رٍش صحت ،دریافت تَاى هیconjugate gradientاسfull-propagation
اس ٍ ،تیطتزback-propagationرٍش در تست سهاى ،ٍجَد ایي تا .است کوتز ًاچیشی همذار ِت
14. صادقی زهرا
14
conjugate gradientاس یکی ایي ٍ است کوتز تسیار دیگز رٍش ٍد استزیي هْنِک است رٍش ایي هشایای
.تاضذ هی تاال ّوگزایی سزػت دارای
dمیانی الیه های نرون تعداد تاثیر )
.ضذ ُداد تَضیح لثال پاراهتز ایي تاثیز ی ُدرتارهی ساختاری پاراهتز یک ،ّا ًزٍى تؼذاد پاراهتز ِک آًجا اس
ِهسال ضَد تشرگ خیلی پاراهتز ایي ُاًذاس اگز .تاضذ هی ٌِپزّشی آى تؼییي ،تاضذover parametrization
دّذ هی رخرٍد هی تاال خغا ٍرا آى تذریج ِت ٍ کٌین هی ضزٍع کَچک همذار یک اس پاراهتز ایي تؼییي تزای .
تشرگتزاتز ِاٍلی ّای ًزٍى تؼذاد اس ،هٌظَر تذیي .کٌین هی4را ّا ًزٍى تؼذاد ٍ این ُکزد ضزٍع4تا4تا
تغییزات ٍ این ُداد افشایصCCRضکل .این ًُوَد تزرسی را9همذارCCRرا هختلف ّای ًزٍى تؼذاد ِت هزتَط
.دّذ هی ًطاى
شکل9-در میانی الیه های نرون تعداد تاثیرCCR
15. صادقی زهرا
15
ضکل رٍی اس ِک عَر ّواى9تؼذاد تا ّا ًزٍى تؼذاد افشایص تا ،دیذ تَاى هی21صحت ،هیاًی ِالی در ًزٍى
اسای ِت ٍلی ،است ِرفت تاال تٌذی ِدست24کاّص ًزٍىCCRرخذاد دلیل ِت ِهسال ایي .است ُآهذ ٍجَد ِت
ُپذیذover parameterization.تاضذ هی
eدا با بندی دسته تاثیر )یافته بعد کاهش های ده
ػصثی ِضثک ، ،لسوت ایي درMLPرٍش کوک ِت راconjugate gradientتوزیي اس ِک ّایی ُداد تا4
ِتَسیلfeature conditioning.دّین هی آهَسش تَدًذ ِیافت تؼذ کاّص
ّای ًزٍى تؼذاد .تاضذ هی هیاًی ِالی یک تا ساختاری دارای ُضذ ساسی ُپیاد ػصثی ِضثکتا تزاتز ،هیاًی ِالی
9یؼٌی ّا کالس تؼذاد ِت ،خزٍجی ِالی ّای ًزٍى تؼذاد ٍ ًزٍى11.است ُضذ اًتخاب ًزٍى
اسای ِت یادگیزی رًٍذ111ُداد تٌذی ِدست اس حاصل خغای ًوَدار .است ِگزفت لزار تزرسی هَرد ،تکزار تار
ّایtestٍtrainهمادیز ًوَدار ٍCCRِت ُآهذ دست ِتّای ضکل در تکزار تار ّز اسای11ٍ11ًوایص
.است ُضذ ُداد
16. صادقی زهرا
16
شکل10-روش از حاصل خطای نمودارconjugate gradientیافته بعد کاهش های داده با
شکل11-مقادیر نمودارCCRروش برایconjugate gradientیافته بعد کاهش های داده با
اس لثل تٌذی ِدست اس حاصل ًتایج کارایی هیاى ِهمایسfeature conditioningّای ُ(داد16تؼذ ٍ )تؼذی
ّای ُ(داد آى اس7همذار ٍ اجزا سهاى لحاػ اس )تؼذیCCRجذٍل در4.است ُآهذ
جدول4–انجام از بعد و قبل بندی دسته کارایی مقایسهfeature conditioningال یک شبکه دریه
#neurons in
hidden layer
Train_timeTest_timeCCR
16393.48.0386.23916 features
919.88521.88280.9557 combined features
جذٍل رٍی اس4همذار ِک است ُضذ تاػث ِیافت تؼذ کاّص ّای ُداد اس ُاستفاد ِک دیذ تَاى هیCCRکوی
ّای ًزٍى تؼذاد ِک است هشیت ایي دارای ِیافت تؼذ کاّص ّای ُداد اس ُاستفاد ،ٍجَد ایي تا .یاتذ کاّص
17. صادقی زهرا
17
حجن ٍ ًُوَد تز ُساد تسیار را ػصثی ِضثک ساختار ًِتیج در ٍ است ُضذ ِگزفت کار ِت هیاًی ِالی در کوتزی
ک ّای ُداد آهَسش سهاى ،ّوچٌیي .است ُآٍرد پاییي را هحاسثاتاصلی ّای ُداد اس کوتز تسیار ِیافت تؼذ اّص
ضکل رٍی اس ،ٍُػال ِت .تاضذ هی11ِرفت تاال تسیار حالت ایي در ّوگزایی سزػت ِک کزد ِهالحظ تَاى هی
حذٍد اس تؼذ ِک عَری ِت ،است11.است ُآهذ دست ِت ٌِتْی تمزیثا همذار تکزار تار
f)کال سایر با عصبی شبکه کالسیفایر مقایسهسیفایرها
کالسیفایز کارایی خَاّین هی لسوت ایي درMLPکالسیفایزّای تا را یادگیزی رٍش تْتزیي تا ِالی یکSVM
خغی کالسیفایز ٍ ،هتفاٍت کزًل ِس تاk(k-1)/2رٍش تْتزیي گفت تَاى هی کلی عَر ِت .کٌین هی ِهمایس
رٍش ،ُضذ تزرسی رٍش ِس تیي اس یادگیزیback-propagationهیدر کالسیفایزّا ایي ی ِهمایس .تاضذ
جذٍل5.است ُآهذ
جدول5کالسیفایر مقایسهMLPباSVMوk(k-1)/2
SVM Linear classifier
k(k-1)/2
MLP with back-
propagation learningMLP
kernel
RBF
kernel
Poly
kernel
CCR 93.4030 98.15 97.34 71.22 91.194
Train_time 5.6275 9.2138 7.8718 4.6880 29.702
Test_time 0.7005 0.8884 0.3797 0.7660 20.003
جذٍل اس5سهاى اها دارد خَتی ًسثتا کارایی ِگزچ ػصثی ّای ِضثک اس ُاستفاد ِک گزفت ًِتیج تَاى هی
.است تاالتز دیگز هَارد ِت ًسثت آى تست ٍ آهَسش
g)ها الیه تعداد تاثیر
اس لثل ٍرٍدی ّای ُداد رٍی را ِالی ٍد ػصثی ِضثک اس ُاستماد لسوت ایي درfeature conditioningٍ
ضذ ُداد تَضیح لثال ِک ّایی ضزط ّا ِالی اس یک ّز ّای ًزٍى تؼذاد اًتخاب تزای .کٌین هی ِهمایس آى اس تؼذ
جذٍل در ُضذ حاصل ًتایج .گیزین هی ًظز در را6.اًذ ُضذ ِهمایس
18. صادقی زهرا
18
جدول6–انجام از بعد و قبل بندی دسته کارایی مقایسهfeature conditioningالیه دو شبکه در
#neurons
in 2’nd
hidden
layer
#neurons in
1’st hidden
layer
Train_timeTest_timeCCR
131229.70220.00391.19416 features
9834.23220.05387.5827 combined
features
جذٍل اس ٍ ضذ ُداد تَضیح لثال ِک عَر ّواى6همذار ِگزچ ،است هؼلَمCCRکاّص ّای ُداد تا تٌذی ِدست
سزػت ٍ ّستٌذ ًیاس کوتزی ّای ًزٍى تؼذاد ِک است ایي آى هشیت اها ،یاتذ هی کاّص کوی ِیافت تؼذ
ا ِرفت تاال هحاسثات ٍ ساختار پیچیذگی کاّص ػلت ِت آى ّوگزایی.ست