Professional Documents
Culture Documents
الباب الثالث-2 - التحليل الإحصائى بإستخدام الشبكات العصبية…
الباب الثالث-2 - التحليل الإحصائى بإستخدام الشبكات العصبية…
ﺃﻭﻻﹰ :ﺍﻟﻤﻘﺩﻤﺔ
ﺜﺎﻟﺜﺎﹰ :ﺍﻟﻬﻴﻜل ﺍﻟﻌﺎﻡ ﻟﺘﺸﻐﻴل ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﻭﺍﻟﻤﻜﻭﻨﺎﺕ ﺍﻷﺴﺎﺴﻴﺔ ﻟﺩﺍﻟﺔ ﺍﻟﺘﺸﻐﻴل.
ﻤﺤﻤـﺩ ﻋﻠـﻰ ﺍﻟـﺸﺭﻗﺎﻭﻯ" ،ﺍﻟـﺫﻜﺎﺀ ﺍﻻﺼـﻁﻨﺎﻋﻰ ﻭﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ" ،ﻤﺭﻜﺯ ﺍﻟﺫﻜﺎﺀ )(1
- ٤٨ -
(٥ﺘﻨﺘﻬـﻰ ﺍﻟﻠﻴﻔﺔ ﺍﻟﻌﺼﺒﻴﺔ ﻟﻠﻤﺨﺭﺝ ﺒﻤﺸﺒﻙ ﺍﻟﺘﻭﺼﻴل Synapseﻭﺍﻟﺫﻯ ﻴﺭﺒﻁ
ﺒـﻴﻥ ﺍﻟﻠـﻴﻔﺔ ﺍﻟﻌـﺼﺒﻴﺔ ﻟﻠﻤﺨﺭﺝ ﻤﻊ ﺍﻟﻠﻴﻔﺔ ﺍﻟﻌﺼﺒﻴﺔ ﻟﻠﻤﺩﺨل ﻟﻨﻴﺭﻭﻥ ﺁﺨﺭ
ﺒﺎﺴـﺘﺨﺩﺍﻡ ﺍﻟﺘﺭﺍﺒﻁ ﺍﻟﻜﻴﻤﻴﺎﺌﻰ Chemical Couplingﺤﻴﺙ ﻴﻘﻭﻡ ﺍﻟﻤﺸﺒﻙ
ﺒـﺈﻁﻼﻕ ﻤﻭﺍﺩ ﻜﻴﻤﻴﺎﺌﻴﺔ ﺘﺴﻤﻰ ﺍﻟﻤﺭﺴﻼﺕ ﺍﻟﻌﺼﺒﻴﺔ Neurotransmitter
ﻭﺫﻟـﻙ ﻋـﻨﺩﻤﺎ ﻴـﺭﺘﻔﻊ ﺠﻬﺩﻩ ﻨﺘﻴﺠﺔ ﻟﻠﻨﺒﻀﺔ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻟﺨﺎﺭﺠﺔ ﻤﻥ ﺍﻟﻠﻴﻔﺔ
ﺍﻟﻌﺼﺒﻴﺔ ﻟﻠﻤﺨﺭﺝ.
(٦ﻴﻘـﻭﻡ ﺍﻟﻤﺸﺒﻙ ﺒﺈﻁﻼﻕ ﺍﻟﻤﺭﺴﻼﺕ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻟﺘﻰ ﺘﻨﺘﺸﺭ ﻜﻴﻤﻴﺎﺌﻴﺎ ﻤﻥ ﺨﻼل
ﺍﻟﻔﺠـﻭﺓ ﺒﻴـﻨﻪ ﻭﺒﻴﻥ ﺍﻟﻠﻴﻔﺔ ﺍﻟﻌﺼﺒﻴﺔ ﻟﻤﺩﺨل ﻨﻴﺭﻭﻥ ﺁﺨﺭ ﺤﻴﺙ ﺘﻘﻭﻡ ﺒﺘﻐﻴﻴﺭ
ﺍﻟﺠﻬﺩ ﻟﻬﺎ ﻭﺘﻨﺸﻴﻁﻬﺎ ﻟﻴﺼﺒﺢ ﻫﺫﺍ ﺍﻟﺠﻬﺩ ﺃﺤﺩ ﺍﻟﻤﺩﺍﺨل ﻟﻠﻨﻴﺭﻭﻥ ﺍﻷﺨﻴﺭ.
(٧ﻭﻴﻭﻀﺢ ﺍﻟﺸﻜل ﺍﻟﺘﺎﻟﻰ ﺍﻟﺠﻬﺩ ﻋﻨﺩ ﺍﻟﻤﺩﺨل ﻜﺩﺍﻟﺔ ﻓﻰ ﺍﻟﺯﻤﻥ:
ﺍﻟﻤﺭﺴﻼﺕ ﺍﻟﻌﺼﺒﻴﺔ
ﺍﻟﻤﺴﺘﻘﺒﻼﺕ
- ٤٩ -
ﻭﺒﺎﻟﺘﺎﻟـﻰ ﻴﻤﻜﻥ ﺍﻋﺘﺒﺎﺭ ﺍﻟﻨﻴﺭﻭﻥ ﻜﻌﻨﺼﺭ ﻤﻌﺎﻟﺠﺔ ﻤﺴﺘﻘل Processing Element
ﻭﺃﻥ ﻫـﺫﻩ ﺍﻟﻤﻌﺎﻟﺠـﺎﺕ ﺍﻟﻤﺴﺘﻘﻠﺔ ﺘﻌﻤل ﻋﻠﻰ ﺍﻟﺘﻭﺍﺯﻯ ﻭﺃﻥ ﻋﻤﻠﻴﺔ ﺍﻟﺘﻌﻠﻡ ﻤﺎ ﻫﻰ ﺇﻻ
ﻀـﺒﻁ ﻟﻘـﻴﻡ ﺍﻷﻭﺯﺍﻥ ﻋﻨﺩ ﺍﻟﻤﺩﺍﺨل ﻟﻬﺫﻩ ﺍﻟﻤﻌﺎﻟﺠﺎﺕ ﻭﺍﻟﺘﻰ ﺘﺘﻡ ﻋﻠﻰ ﻋﺩﺓ ﺩﻭﺭﺍﺕ
ﺘﻌﺭﻑ ﺒﺩﻭﺭﺍﺕ ﺍﻟﺘﻌﻠﻡ ﺇﻟﻰ ﺃﻥ ﻴﺘﻡ ﺍﻟﻀﺒﻁ ﺍﻟﻨﻬﺎﺌﻰ ﺍﻟﻤﻁﻠﻭﺏ.
ﻭﻗـﺩ ﺘـﻡ ﺘﻁﻭﻴـﺭ ﻨﻤﻭﺫﺝ ﻋﻨﺼﺭ ﺤﺴﺎﺒﻰ Processing Elementﻤﻜﺎﻓﺊ ﻟﻬﺫﺍ
ﺍﻟﻨﻴـﺭﻭﻥ ﻭﺍﻟﺫﻯ ﻴﻤﺜل ﻋﻨﺼﺭ ﺍﻟﻤﻌﺎﻟﺠﺔ ﺍﻟﺫﻯ ﻴﻘﻭﻡ ﺒﻌﻤل ﻤﺤﺎﻜﺎﺓ ﻟﻠﻨﻴﺭﻭﻥ ﺍﻟﻁﺒﻴﻌﻰ
ﻤـﻥ ﺘﺠﻤـﻴﻊ ﻟﻺﺸـﺎﺭﺍﺕ ﺍﻟﻤﺭﺠﺤﺔ ﻋﻨﺩ ﺍﻟﻤﺩﺨل ﺜﻡ ﻤﻘﺎﺭﻨﺔ ﺍﻟﻤﺠﻤﻭﻉ ﺒﻘﻴﻤﺔ ﺤﺩﻴﺔ
)(1
ﺤﻴﺙ ﻴﻌﻁﻰ ﻋﻨﺼﺭ ﺍﻟﻤﻌﺎﻟﺠﺔ ﻨﺒﻀﺘﻪ ﻓﻰ ﺍﻟﻤﺨﺭﺝ ﺇﺫﺍ ﺯﺍﺩ ﺩﺍﺨﻠـﻴﺔ Threshold
ﺍﻟﻤﺠﻤـﻭﻉ ﻋـﻥ ﺍﻟﻘﻴﻤﺔ ﺍﻟﺤﺩﻴﺔ ﻭﻻ ﻴﻌﻁﻰ ﺃﻯ ﻨﺒﻀﺎﺕ ﺇﺫﺍ ﻜﺎﻨﺕ ﺃﻗل ﻤﻨﻬﺎ .ﻭﻗﺩ ﺘﻡ
)(2
ﺍﺴﺘﺨﺩﺍﻡ ﻋﻨﺎﺼﺭ ﺍﻟﻤﻌﺎﻟﺠﺔ ﻫﺫﻩ ﻓﻰ ﺒﻨﺎﺀ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻻﺼﻁﻨﺎﻋﻴﺔ.
ﺍﻟﻤﺩﺨل Output
Σ F
ﺍﻟﻤﺨﺭﺝ
)(1
Schal Koff, Robert J., “Artificial Neural Networks”, McGrw-Hill
Cmopanies, Inc, 1997.
)(2
Waner Brad and MISRA Manavendra, “Understanding Neural
Networks as Statistical Tools”, American Statistician, November,
Vol. 50, N. 4, 1996.
- ٥٠ -
)(1
ﺍﻟـﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻹﺼﻁﻨﺎﻋﻴﺔ ﺇﻤﺎ ﺃﻥ ﺘﻜﻭﻥ ﺸﺒﻜﺔ ﻤﻜﻭﻨﺔ ﻤﻥ ﻁﺒﻘﺘﻴﻥ ﺫﺍﺕ ﺘﻐﺫﻴﺔ
ﻓـﻰ ﺍﻻﺘﺠـﺎﻩ ﺍﻷﻤﺎﻤـﻰ ) (Feed Forwardﻭﺸﺒﻜﺔ ﻤﻜﻭﻨــﺔ ﻤﻥ ﻁﺒﻘﺘﻴﻥ ﻓﻰ
ﺍﻻﺘﺠﺎﻩ ﺍﻷﻤـﺎﻤﻰ ﻭﺍﻟﻌـﻜﺴﻰ)(Feed Backward - Feed Forward
(Lateral ﻭﺸـﺒﻜﺔ ﻤﻜـﻭﻨﺔ ﻤﻥ ﻁﺒﻘــﺔ ﻭﺍﺤــﺩﺓ ﺫﺍﺕ ﺘﻐﺫﻴﺔ ﻋﻜﺴﻴﺔ ﺠﺎﻨﺒﻴﺔ
) Feed Backﻭﺍﻟﺸﺒﻜﺔ ﺍﻟﻤﺘﻌﺩﺩﺓ ﺍﻟﻁﺒﻘﺎﺕ ).(Multi layer
ﺸـﺒﻜﺔ ﻤﻜـﻭﻨﺔ ﻤﻥ
ﺍﻟﻤﺨﺭﺝ output
B1 B2 B3 ﻁﺒﻘﺘـﻴﻥ ﺫﺍﺕ ﺘﻐﺫﻴﺔ ﻓﻰ
ﺍﻻﺘﺠﺎﻩ ﺍﻷﻤﺎﻤﻰ
A1 A2 A3 ).(Feed Forward
input ﺍﻟﻤﺩﺨل
- ٥١ -
output ﺍﻟﻤﺨﺭﺝ ﺸـﺒﻜﺔ ﻤﻜـﻭﻨﺔ ﻤﻥ
- ٥٢ -
-٢ﺃﻓـﻀل ﻤـﻥ ﺍﻟﻁﺭﻕ ﺍﻹﺤﺼﺎﺌﻴﺔ ﺍﻟﺘﻘﻠﻴﺩﻴﺔ ﻓﻲ ﺤﺎﻟﺔ ﺍﻟﺒﻴﺎﻨﺎﺕ ﺍﻟﻐﻴﺭ ﺨﻁﻴﺔ ﻭﻓﻲ
ﺤﺎﻟﺔ ﺍﻟﻤﺸﺎﻜل ﺍﻟﻤﻌﻘﺩﺓ.
-٣ﺍﻟـﺸﺒﻜﺎﺕ ﺍﻟﻌـﺼﺒﻴﺔ ﺘﻌﺘﺒﺭ ﺃﺩﺍﺓ ﻤﺭﻨﺔ ﺤﻴﺙ ﻟﻬﺎ ﺍﻟﻘﺩﺭﺓ ﻋﻠﻰ ﺍﻟﺘﻌﻠﻡ ﺒﺴﺭﻋﺔ ﻋﻥ
ﻁﺭﻴﻕ ﺍﻟﺘﺩﺭﻴﺏ.
-٤ﻗﺩﺭﺘﻬﺎ ﻋﻠﻰ ﺍﻟﺘﻜﻴﻑ ﻤﻊ ﺍﻟﻤﻌﻠﻭﻤﺎﺕ ﺍﻟﻤﺘﻐﻴﺭﺓ.
ﻭﻴﻤﻜﻥ ﺘﻘﺴﻴﻡ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﺨﺎﺼﺔ ﺒﺎﻟﺨﻼﻴﺎ ﺍﻟﻌﺼﺒﻴﺔ ﺇﻟﻰ ﺜﻼﺜﺔ ﺃﻨﻭﺍﻉ ﻫﻰ):(1
ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻟﺘﻨﺒﺅﻴﺔ. (١
(٢ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻟﺘﺒﻭﻴﺒﻴﺔ.
(٣ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻟﻤﺭﺘﺒﻁﺔ ﺒﺎﻟﺤﻠﻭل ﺍﻟﻤﺜﻠﻰ.
Prediction Networks
ﻭﺘﺴﺘﺨﺩﻡ ﻫﺫﻩ ﺍﻟﺨﻼﻴﺎ ﻓﻰ ﺍﻟﺘﻨﺒﺅ ﺒﻘﻴﻤﺔ ﺇﺤﺩﻯ ﺍﻟﻅﻭﺍﻫﺭ ﺍﻋﺘﻤﺎﺩﺍﹰ ﻋﻠﻰ ﺍﻟﻘﻴﻤﺔ ﺍﻟﻤﺤﺩﺩﺓ
ﻟﻅﻭﺍﻫﺭ ﺃﺨﺭﻯ ﻤﺭﺘﺒﻁﺔ ﺒﻬﺎ ﻭﻜﻤﺜﺎل ﻋﻠﻰ ﻫﺫﺍ ﺍﻟﺸﻜل ﻤﻥ ﺍﻟﺨﻼﻴﺎ ﻴﺘﻡ ﺇﺩﺨﺎل ﺒﻌﺽ
ﺍﻟﻤـﺩﺨﻼﺕ ﻤـﺜل ﺍﻷﺭﺒﺎﺡ ﺍﻟﺤﺎﻟﻴﺔ ﺍﻟﺘﻰ ﺘﺤﻘﻘﻬﺎ ﺍﻟﻤﻨﻅﻤﺔ ﻭﺒﻴﺎﻨﺎﺕ ﺍﻟﻨﻤﻭ ﺍﻻﻗﺘﺼﺎﺩﻯ
ﻟﻠـﺸﺭﻜﺔ ﻭﺒـﻴﺎﻨﺎﺕ ﺍﻟﻨﻤﻭ ﺍﻟﺨﺎﺼﺔ ﺒﺎﻟﺼﻨﺎﻋﺔ ﻭﺒﻴﺎﻨﺎﺕ ﺍﻗﺘﺼﺎﺩﻴﺔ ﻋﺎﻤﺔ ﻭﺫﻟﻙ ﻟﻠﺘﻨﺒﺅ
ﺒﺎﻷﺭﺒﺎﺡ ﻭﺍﻟﺩﺨﻭل ﺍﻟﻤﺴﺘﻘﺒﻠﻴﺔ ﻟﻠﺸﺭﻜﺔ ،ﻭﺘﺴﺘﺨﺩﻡ ﻤﺜل ﻫﺫﻩ ﺍﻟﺨﻼﻴﺎ ﻭﺘﻜﻭﻥ ﻤﻔﻴﺩﺓ ﻓﻰ
ﺤﺎﻻﺕ ﺍﻟﺘﻨﺒﺅ ﻓﻰ ﺃﺴﻭﺍﻕ ﺭﺃﺱ ﺍﻟﻤﺎل.
Classification Networks
ﻭﺘـﺴﺘﺨﺩﻡ ﻫﺫﻩ ﺍﻟﺨﻼﻴﺎ ﻟﺘﺒﻭﻴﺏ ﺃﺤﺩ ﺍﻟﺒﻨﻭﺩ ﻭﺘﺤﺩﻴﺩ ﺍﻟﻤﺠﻤﻭﻋﺔ ﺍﻟﺘﻰ ﻴﻨﺘﻤﻰ ﺇﻟﻴﻬﺎ ﻫﺫﺍ
ﺍﻟﺒـﻨﺩ ﻭﻜﻤـﺜﺎل ﻋﻠـﻰ ﻫـﺫﺍ ﺍﻟﺸﻜل ﻤﻥ ﺍﻟﺸﺒﻜﺎﺕ ﺍﺴﺘﺨﺩﺍﻡ ﺍﻟﺒﻴﺎﻨﺎﺕ ﺍﻟﻤﺎﻟﻴﺔ ﻟﻠﻭﺤﺩﺓ
ﺍﻻﻗﺘﺼﺎﺩﻴﺔ ﻟﻤﻌﺭﻓﺔ ﻫل ﺘﺼﻨﻑ ﺍﻟﻭﺤﺩﺓ ﻀﻤﻥ ﺍﻟﻭﺤﺩﺍﺕ ﺍﻟﺘﻰ ﺘﻌﺎﻨﻰ ﻤﻥ ﻋﺴﺭ ﻤﺎﻟﻰ
ﺃﻡ ﺘﺼﻨﻑ ﻤﻥ ﻀﻤﻥ ﺍﻟﻭﺤﺩﺍﺕ ﺍﻟﺘﻰ ﻻ ﺘﻌﺎﻨﻰ ﻋﺴﺭ ﻤﺎﻟﻰ.
ﻁﻠﻌـﺕ ﻋـﺒﺩ ﺍﻟﻌﻅـﻴﻡ ﻤﺘﻭﻟـﻰ " :ﺍﺴﺘﺨﺩﺍﻡ ﻨﻤﻭﺫﺝ ﺘﻘﻨﻴﺎﺕ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﻓﻰ ﺍﻟﺘﻨﺒﺅ )(1
ﺒﺎﺴـﺘﻤﺭﺍﺭ ﺍﻟـﻭﺤﺩﺓ ﺍﻟﻤﺤﺎﺴـﺒﻴﺔ ﺒﺎﻟﺘﻁﺒﻴﻕ ﻋﻠﻰ ﺸﺭﻜﺎﺕ ﻗﻁﺎﻉ ﺍﻷﻋﻤﺎل ﺍﻟﻌﺎﻡ ﺍﻟﻤﺼﺭﻯ"،
ﺍﻟﻤﺠﻠﺔ ﺍﻟﻌﻠﻤﻴﺔ ﻟﻠﺘﺠﺎﺭﺓ ﻭﺍﻟﺘﻤﻭﻴل ،ﻜﻠﻴﺔ ﺍﻟﺘﺠﺎﺭﺓ ﺠﺎﻤﻌﺔ ﻁﻨﻁﺎ.١٩٩٩ ،
- ٥٣ -
ﻭﻤـﻥ ﺃﻤﺜﻠـﺘﻬﺎ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﺨﺎﺼﺔ ﺒﺎﻟﺘﻭﺯﻴﻊ ﺍﻷﻤﺜل ﻟﻠﻤﻭﺍﺭﺩ ﺒﻤﺎ ﻴﺤﻘﻕ ﺃﻗﺼﻰ ﺃﺭﺒﺎﺡ
ﻤﻤﻜﻨﺔ ﻭﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﺨﺎﺼﺔ ﺒﺎﺴﺘﻐﻼل ﺍﻟﻤﻭﺍﺭﺩ ﺍﻟﻨﺎﺩﺭﺓ.
ﺘﻌـﺘﻤﺩ ﻓﻜـﺭﺓ ﺍﻟﺨﻼﻴـﺎ ﺍﻟﻌﺼﺒﻴﺔ ﻓﻰ ﺘﻨﻔﻴﺫﻫﺎ ﺒﻭﺍﺴﻁﺔ ﺍﻟﻜﻤﺒﻴﻭﺘﺭ ﻋﻠﻰ ﻤﺤﺎﻜﺎﺓ ﺍﻟﻤﺦ
ﺍﻟﺒـﺸﺭﻯ .ﻭﺍﻟـﺸﺒﻜﺔ ﺍﻟﻌـﺼﺒﻴﺔ ﻟﻠﺒﺭﻨﺎﻤﺞ ﻫﻰ ﻤﺠﻤﻭﻋﺔ ﻤﻥ ﺍﻟﻤﻭﺼﻼﺕ ﺍﻟﻤﺘﺼﻠﺔ
ﺒﺒﻌـﻀﻬﺎ ﺍﻟـﺒﻌﺽ ﻭﺍﻟﺘـﻰ ﺘﻨﻅﻡ ﻋﻤﻠﻴﺔ ﺇﻨﺴﻴﺎﺏ ﺍﻟﻤﻌﻠﻭﻤﺎﺕ ﺩﺍﺨل ﺍﻟﺸﺒﻜﺔ ﻭﺘﻌﻤل
ﺍﻟـﺸﺒﻜﺔ ﺒﻤﺤﺎﻜـﺎﺓ ﺍﻟﻌﻘـل ﺍﻟﺒﺸﺭﻯ ﺤﻴﺙ ﺍﻨﻬﺎ ﺘﺤﺘﻭﻯ ﻋﻠﻰ ﺍﻟﻤﺌﺎﺕ ﺃﻭ ﺍﻵﻻﻑ ﻤﻥ
ﺨﻼﻴـﺎ ﺍﻟﺘـﺸﻐﻴل ﻭﻴـﺘﻡ ﺘﺭﺘﻴﺏ ﻫﺫﻩ ﺍﻟﺨﻼﻴﺎ ﻓﻰ ﺸﻜل ﻁﺒﻘﺎﺕ ،Layersﻓﺎﻟﺸﺒﻜﺎﺕ
ﺍﻟﻌـﺼﺒﻴﺔ ﺍﻻﺼﻁﻨﺎﻋﻴﺔ ﻫﻰ ﻨﻭﻉ ﻤﻥ ﺍﻟﺤﺎﺴﺒﺎﺕ ﺍﻵﻟﻴﺔ ﻏﻴﺭ ﺍﻟﺘﻘﻠﻴﺩﻴﺔ ﻭﺍﻟﺘﻰ ﺘﺤﺎﻭل
ﺘﻘﻠـﻴﺩ ﻤﻬـﺎﺭﺍﺕ ﺍﻟﻌﻤـل ﺍﻟﺒﺸﺭﻯ ﻓﻰ ﺍﻜﺘﺴﺎﺏ ﻭﺘﻨﻅﻴﻡ ﺍﻟﻤﻌﻠﻭﻤﺎﺕ ﻭﺍﻟﻤﻔﺎﻫﻴﻡ ﻭﻫﻰ
ﺘـﺘﻜﻭﻥ ﻤـﻥ ﻤـﺼﻔﻭﻓﺔ ﻤﻥ ﺍﻟﻤﻌﺎﻟﺠﺎﺕ ﺍﻟﺒﺴﻴﻁﺔ ﺃﻭ ﺍﻟﺨﻼﻴﺎ ﻤﻊ ﻭﺠﻭﺩ ﻋﻼﻗﺎﺕ ﺃﻭ
ﺍﺭﺘـﺒﺎﻁﺎﺕ ﺃﻯ ﺃﻨﻬـﺎ ﻋﺒﺎﺭﺓ ﻋﻥ ﻤﺠﻤﻭﻋﺔ ﻤﻥ ﺍﻟﺤﺎﺴﺒﺎﺕ ﺍﻵﻟﻴﺔ ﺍﻟﻤﺘﻭﺍﺯﻴﺔ ﻭﺘﺨﺘﻠﻑ
ﺍﻟـﺸﺒﻜﺎﺕ ﺍﻟﻌـﺼﺒﻴﺔ ﻋـﻥ ﺍﻟﺤﺎﺴـﺒﺎﺕ ﺍﻵﻟـﻴﺔ ﺍﻟﻌﺎﺩﻴﺔ ﻓﻰ ﻁﺭﻴﻘﺔ ﺘﻤﺜﻴل ﺍﻟﺒﻴﺎﻨﺎﺕ
ﻭﺍﻟﻤﻌﻠﻭﻤﺎﺕ ﺤﻴﺙ ﺃﻨﻬﺎ ﺘﻘﻭﻡ ﺒﺫﻟﻙ ﻋﻥ ﻁﺭﻴﻕ ﺍﻟﺨﻼﻴﺎ ﺍﻟﻌﺼﺒﻴﺔ ﺒﺩﻻﹰ ﻤﻥ ﺘﺨﺯﻴﻥ ﻫﺫﻩ
ﺍﻟﺒـﻴﺎﻨﺎﺕ ﻓﻰ ﺍﻟﺫﺍﻜﺭﺓ ﻜﻤﺎ ﻓﻰ ﺍﻟﺤﺎﺴﺒﺎﺕ ﺍﻵﻟﻴﺔ ﻭﻗﻭﺓ ﺍﻟﻌﻼﻗﺎﺕ ﺒﻴﻥ ﺍﻟﺨﻼﻴﺎ ﺍﻟﻌﺼﺒﻴﺔ
ﺘـﺴﻤﻰ ﺃﻭﺯﺍﻥ ﻭﻫﻰ ﻤﺜل ﻤﻌﺎﻤل ﺍﻻﺭﺘﺒﺎﻁ ﻓﻰ ﺍﻻﺤﺼﺎﺀ ﺍﻟﺘﻘﻠﻴﺩﻴﺔ ﻭﻗﻴﻤﺔ ﻤﺨﺭﺠﺎﺕ
)(1
ﺃﻯ ﺨﻠﻴﺔ ﺘﺴﻤﻰ ﺤﺎﻟﺔ ﺍﻟﻨﺸﺎﻁ ﻭﺘﻌﺘﻤﺩ ﺃﺴﺎﺴﺎﹰ ﻋﻠﻰ ﺍﻟﻨﺸﺎﻁ ﺍﻟﻤﻐﺫﻯ ﻟﻬﺫﻩ ﺍﻟﺨﻠﻴﺔ.
ﺸـﻌﺒﺎﻥ ﻴﻭﺴـﻑ ﻤﺒﺎﺭﺯ" :ﺘﻘﻴﻴﻡ ﻭﺘﺼﻨﻴﻑ ﺍﻟﻘﻭﺍﺌﻡ ﺍﻟﻤﺎﻟﻴﺔ ﻟﻠﺸﺭﻜﺎﺕ ﺒﻬﺩﻑ ﺇﻋﺎﺩﺓ ﻫﻨﺩﺴﺔ ﻋﻤﻠﻴﺎﺘﻬﺎ )(1
ﻤﺎﻟـﻴﺎﹰ ﺒﺎﺴـﺘﺨﺩﺍﻡ ﺍﻟـﺸﺒﻜﺎﺕ ﺍﻟﻌـﺼﺒﻴﺔ ﺍﻻﺼﻁﻨﺎﻋﻴﺔ ،ﻤﺠﻠﺔ ﺍﻟﺩﺭﺍﺴﺎﺕ ﺍﻟﻤﺎﻟﻴﺔ ﻭﺍﻟﺘﺠﺎﺭﻴﺔ ،ﻜﻠﻴﺔ
ﺍﻟﺘﺠﺎﺭﺓ ﺠﺎﻤﻌﺔ ﺍﻟﻘﺎﻫﺭﺓ ،ﻓﺭﻉ ﺒﻨﻰ ﺴﻭﻴﻑ ،ﺍﻟﻌﺩﺩ ﺍﻟﺜﺎﻟﺙ ،١٩٩٦ﺹ .١٥٩
- ٥٤ -
ﻭﻴﻭﻀﺢ ﺍﻟﺸﻜل ﺍﻟﺘﺎﻟﻰ ﻭﺤﺩﺓ ﺍﻟﺘﺸﻐﻴل ﻓﻰ ﺍﻟﺨﻠﻴﺔ ﺍﻟﻌﺼﺒﻴﺔ:
ﻤﺨﺭﺠﺎﺕ
ﻗﻭﺍﻋﺩ ﻭﻅﺎﺌﻑ
ﻤﻌﺭﻓﺔ ﺘﺤﻭﻴل
ﺃﻭﺯﺍﻥ
ﺘﻐﺫﻴﺔ ﺒﺎﻟﻤﻌﻠﻭﻤﺎﺕ
ﺍﻟﺘﺭﺠﻴﺢ
Output layer
Hidden layer
Input layer
Input Data
ﺸﻜل ﺭﻗﻡ ) :(٨-٣ﺍﻟﺸﻜل ﺍﻟﻬﻴﻜﻠﻰ ﻟﻠﺨﻠﻴﺔ ﺍﻟﻌﺼﺒﻴﺔ
- ٥٥ -
ﻤﻥ ﺍﻟﺸﻜل ﺍﻟﺴﺎﺒﻕ ﻴﺘﻀﺢ ﻤﺎ ﻴﻠﻰ :
-١ﺃﻥ ﻋﻤﻠـﻴﺎﺕ ﺍﻟﺘﺸﻐﻴل ﺘﺘﻡ ﺩﺍﺨل ﻁﺒﻘﺎﺕ ﺍﻟﺘﺸﻐﻴل ﻭﺍﻟﺘﻰ ﺘﺤﺼل ﻋﻠﻰ
ﺍﻟﻤﻌﻠﻭﻤﺎﺕ ﻤﻥ ﻁﺒﻘﺎﺕ ﺍﻹﺩﺨﺎل ﺍﻟﺴﺎﺒﻘﺔ ﻟﻬﺎ ﻭﺘﻌﺩ ﺍﻟﻤﺨﺭﺠﺎﺕ ﺍﻟﺨﺎﺼﺔ
ﺒﻬـﺎ ﺇﻟـﻰ ﻁـﺒﻘﺎﺕ ﺍﻹﺨـﺭﺍﺝ ﻭﻴﺭﺒﻁ ﻤﺎ ﺒﻴﻥ ﺍﻷﻨﻭﺍﻉ ﺍﻟﻤﺨﺘﻠﻔﺔ ﻟﻬﺫﻩ
ﺍﻟﻁﺒﻘﺎﺕ ﻤﺠﻤﻭﻋﺔ ﻤﻥ ﺍﻟﻤﻭﺼﻼﺕ ﻭﺃﻟﻴﺎﻑ ﺍﻟﺘﺸﻐﻴل.
-٢ﺘﺼﻨﻑ ﺍﻟﻁﺒﻘﺎﺕ ﺇﻟﻰ ﺜﻼﺙ ﻤﺠﻤﻭﻋﺎﺕ ﺭﺌﻴﺴﻴﺔ ﻭﻫﻰ :
-٣ﻁﺒﻘﺎﺕ ﺍﻟﻤﺩﺨﻼﺕ.
-٤ﻁﺒﻘﺎﺕ ﺍﻟﺘﺸﻐﻴل.
-٥ﻁﺒﻘﺎﺕ ﺍﻟﻤﺨﺭﺠﺎﺕ.
ﻭﺘﺘﻜﻭﻥ ﻜل ﻤﺠﻤﻭﻋﺔ ﻤﻥ ﺍﻟﻤﺠﻤﻭﻋﺎﺕ ﺍﻟﺴﺎﺒﻘﺔ ﻤﻥ ﻋﺩﺓ ﻤﺠﻤﻭﻋﺎﺕ ﻓﺭﻋﻴﺔ
ﻴﺨﺘﻠﻑ ﻋﺩﺩﻫﺎ ﺤﺴﺏ ﻅﺭﻭﻑ ﺍﻟﺘﺸﻐﻴل.
-٦ﺩﺍﺨـل ﻜـل ﻁﺒﻘﺔ ﻤﻥ ﺍﻟﻁﺒﻘﺎﺕ ﺍﻟﺴﺎﺒﻘﺔ ﻤﺠﻤﻭﻋﺔ ﻤﻥ ﻗﻭﺍﻋﺩ ﺍﻟﻤﻌﺭﻓﺔ
ﺍﻟﺘﻰ ﺘﻌﻤل ﺒﻤﺜﺎﺒﺔ ﺍﻟﻤﻨﻅﻡ ﻟﻌﻤﻠﻴﺔ ﺍﻟﺘﺸﻐﻴل ﻭﺍﺘﺨﺎﺫ ﺍﻟﻘﺭﺍﺭ ﺩﺍﺨل ﺍﻟﺸﺒﻜﺔ.
ﺃﻭﻻﹰ :ﺍﻟﻬﻴﻜل ﺍﻟﻌﺎﻡ ﻟﺘﺸﻐﻴل ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ :
ﻴـﺘﻜﻭﻥ ﺍﻟﻬﻴﻜل ﺍﻟﻌﺎﻡ ﻟﺘﺸﻐﻴل ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﻤﻥ ﺍﻟﻌﻨﺎﺼﺭ ﺍﻟﺨﺎﺼﺔ ﺒﺎﻻﺘﺼﺎﻻﺕ
ﻭﺍﻟﺠﺯﺀ ﺍﻟﺨﺎﺹ ﺒﺎﻻﺘﺼﺎل ﺒﻴﻥ ﻫﺫﻩ ﺍﻟﻌﻨﺎﺼﺭ.
)(1
ﺍﻟﻤﻨﻁﻘﺔ ﺍﻟﺨﺎﺼﺔ ﺒﺎﻟﺘﺸﻐﻴل ﺍﻟﺘﻰ ﺘﻘﻭﻡ ﺒﺘﺠﻤﻴﻊ ﻭﻤﺯﺝ ﻋﺩﺓ ﻭﻴﻭﻀـﺢ ﺍﻟﺸﻜل ﺍﻟﺘﺎﻟﻰ
ﻤـﺩﺨﻼﺕ ﺒﺎﺴـﺘﺨﺩﺍﻡ ﻨﻤـﻭﺫﺝ ﺍﻷﻭﺯﺍﻥ ﺍﻟﻤﺨﺘﺎﺭ .ﻭﻫﺫﻩ ﺍﻷﻭﺯﺍﻥ ﺘﺒﻴﻥ ﻤﺩﻯ ﻓﺎﻋﻠﻴﺔ
ﺍﻻﺘﺼﺎل ﺒﻴﻥ ﺍﻟﻤﺩﺨﻼﺕ ﻭﻤﻨﻁﻘﺔ ﺍﻟﺘﺸﻐﻴل.،
- ٥٦ -
ﺸﻜل ﺭﻗﻡ ) :(٩-٣ﺍﻟﻬﻴﻜل ﺍﻟﻌﺎﻡ ﻟﻠﺠﺯﺀ ﺍﻟﺘﺸﻐﻴﻠﻰ ﻟﻠﺸﺒﻜﺔ ﺍﻟﻌﺼﺒﻴﺔ
- ٥٧ -
Weights
ﻭﻫـﻰ ﺍﻟﻤـﺴﺌﻭﻟﺔ ﻋـﻥ ﺘﺤﺩﻴﺩ ﻗﻭﺓ ﺍﻟﺭﻭﺍﺒﻁ ﻭﺍﻟﻌﻼﻗﺎﺕ ﻤﺎ ﺒﻴﻥ ﻋﻨﺎﺼﺭ ﺍﻟﻤﺩﺨﻼﺕ
ﻭﻭﺤﺩﺍﺕ ﺍﻟﺘﺸﻐﻴل.
Transfer function
ﻭﻫـﻰ ﻋـﺒﺎﺭﺓ ﻋـﻥ ﻤﻌﺎﺩﻟـﺔ ﺭﻴﺎﻀﻴﺔ ﺘﺤﺩﺩ ﻨﻭﻋﻴﺔ ﺍﻟﻤﺨﺭﺠﺎﺕ ﺍﻟﺨﺎﺼﺔ ﺒﻌﻨﺎﺼﺭ
ﺍﻟﺘﺸﻐﻴل ﻤﻊ ﺍﻷﺨﺫ ﻓﻰ ﺍﻻﻋﺘﺒﺎﺭ ﻨﻭﻋﻴﺔ ﺍﻟﻤﺩﺨﻼﺕ ﻭﺍﻷﻭﺯﺍﻥ ﺍﻟﺘﺭﺠﻴﺤﻴﺔ.
Learning law
ﻭﻫـﻰ ﻋـﺒﺎﺭﺓ ﻋﻥ ﻤﻌﺎﺩﻟﺔ ﺭﻴﺎﻀﻴﺔ ﺘﻘﻭﻡ ﺒﻌﻤل ﺘﻌﺩﻴﻼﺕ ﻋﻠﻰ ﺍﻷﻭﺯﺍﻥ ﺍﻟﺘﺭﺠﻴﺤﻴﺔ
ﺍﻋـﺘﻤﺎﺩﺍﹰ ﻋﻠـﻰ ﻗـﻴﻤﺔ ﺍﻟﻤـﺩﺨﻼﺕ ﻭﻓـﻰ ﺒﻌـﺽ ﺍﻷﺤﻴﺎﻥ ﻋﻠﻰ ﺍﻟﺘﻐﺫﻴﺔ ﺍﻟﺨﻠﻔﻴﺔ
.Feedback valueﻭﻴﻤﻜـﻥ ﻟﻘـﻭﺍﻋﺩ ﺍﻟﻤﻌـﺭﻓﺔ ﻟﺸﺒﻜﺎﺕ ﺍﻟﺨﻼﻴﺎ ﺍﻟﻌﺼﺒﻴﺔ ﺇﻨﺘﺎﺝ
ﺍﻟﻤﺯﻴﺩ ﻤﻥ ﺍﻟﻤﺨﺭﺠﺎﺕ ﺍﻟﻤﺭﻏﻭﺒﺔ ﻜﻠﻤﺎ ﺯﺍﺩ ﺤﺠﻡ ﺍﻟﻤﺩﺨﻼﺕ ﺩﺍﺨل ﺍﻟﺸﺒﻜﺔ.
ﻭﺘﺄﺨﺫ ﻁﺭﻴﻘﺔ ﻋﻤل ﺍﻟﺸﺒﻜﺔ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻟﺨﻁﻭﺍﺕ ﺍﻟﺘﺎﻟﻴﺔ:
ﺃﻭﻻﹰ :ﺇﺩﺨﺎل ﻤﺩﺨﻼﺕ ﺍﻟﻁﺒﻘﺎﺕ ﺇﻟﻰ ﺍﻟﺒﺭﻨﺎﻤﺞ ﺍﻟﻤﺴﺘﺨﺩﻡ.
ﺜﺎﻨﻴﺎﹰ :ﺍﺨﺘﻴﺎﺭ ﻋﺸﻭﺍﺌﻰ ﻟﻠﻘﻴﻡ ﺍﻻﺒﺘﺩﺍﺌﻴﺔ ﻟﻸﻭﺯﺍﻥ ﺍﻟﻨﺴﺒﻴﺔ ﺒﻴﻥ ﻋﻘﺩ ﺍﻻﺘﺼﺎل
ﺒﺎﻟﺸﺒﻜﺔ ﺃﻭ ﻤﻥ ﺨﻼل ﺘﻁﺒﻴﻕ ﺒﻌﺽ ﺍﻷﺴﺎﻟﻴﺏ ﺍﻟﺨﺎﺼﺔ ﻓﻰ ﺍﺨﺘﻴﺎﺭ
ﻫﺫﻩ ﺍﻟﻘﻴﻡ ﺍﻻﺒﺘﺩﺍﺌﻴﺔ.
ﺜﺎﻟﺜﺎﹰ :ﺇﺠﺭﺍﺀ ﻋﺩﺓ ﻋﻤﻠﻴﺎﺕ ﺤﺴﺎﺒﻴﺔ ﻋﻠﻰ ﺍﻟﻌﻴﻨﺔ ﺍﻟﻤﺩﺨﻠﺔ ﻭﺫﻟﻙ ﻤﻥ ﺨﻼل
ﺨﻁﻭﺘـﻴﻥ ﻤﺘﺘﺎﻟﻴﺘـﻴﻥ ﺃﻭﻟﻬﻤﺎ ﺃﻤﺎﻤﻴﺔ Forwardﻭﺍﻷﺨﺭﻯ ﺨﻠﻔﻴﺔ
.Backward
ﻭﻓـﻰ ﺍﻟﺨﻁﻭﺓ ﺍﻷﻤﺎﻤﻴﺔ ﻴﻘﻭﻡ ﺍﻟﻨﻅﺎﻡ ﺒﺤﺴﺎﺏ ﻤﺨﺭﺠﺎﺕ ﺍﻟﺸﺒﻜﺔ ﻟﻠﺒﻴﺎﻨﺎﺕ ﺍﻟﻤﺩﺨﻠﺔ ﺜﻡ
ﻴـﺘﻡ ﻤﻘﺎﺭﻨـﺔ ﺍﻟﻤﺨﺭﺠﺎﺕ ﻤﻊ ﺍﻟﻤﺨﺭﺠﺎﺕ ﺍﻟﻤﺭﻏﻭﺒﺔ ﺃﻭ ﺍﻟﻤﺴﺘﻬﺩﻓﺔ ﻤﻥ ﺍﻟﺸﺒﻜﺔ ﻭﻓﻰ
ﺍﻟـﻨﻬﺎﻴﺔ ﻴﺤـﺴﺏ ﺍﻟﺨﻁﺄ ﺍﻟﻨﺎﺘﺞ ﻋﻥ ﺍﻟﻤﻘﺎﺭﻨﺔ ﺃﻤﺎ ﻓﻰ ﺍﻟﺨﻁﻭﺓ ﺍﻟﺨﻠﻔﻴﺔ ﻓﺘﻘﻭﻡ ﺍﻟﺸﺒﻜﺔ
ﺒﺘﻌﺩﻴل ﺍﻷﻭﺯﺍﻥ ﺍﻟﻨﺴﺒﻴﺔ ﻟﻌﻘﺩ ﺍﻻﺘﺼﺎل ﺒﻴﻥ ﻋﻨﺎﺼﺭ ﺍﻟﻤﻌﺎﻟﺠﺔ ﺍﻟﻤﻜﻭﻨﺔ ﻟﻠﺸﺒﻜﺔ ﺒﻬﺩﻑ
ﺘـﺼﻐﻴﺭ ﺍﻟﺨﻁـﺄ ﺍﻟﻜﻠﻰ ﻭﺘﻘﻭﻡ ﺍﻟﺸﺒﻜﺔ ﺒﺘﻜﺭﺍﺭ ﺍﻟﺨﻁﻭﺍﺕ ﺍﻟﺴﺎﺒﻘﺔ ﻋﺩﺓ ﻤﺭﺍﺕ ﻟﺠﻤﻴﻊ
- ٥٨ -
ﻋﻴـﻨﺎﺕ ﺍﻟﺒـﻴﺎﻨﺎﺕ ﺍﻟﻤﺩﺨﻠﻪ ﻟﻬﺫﻩ ﺍﻟﺸﺒﻜﺔ ﻭﺘﺴﻤﻰ ﻤﺭﺤﻠﺔ ﺍﻟﺘﻘﺩﻴﻡ ﺍﻟﻭﺍﺤﺩﺓ ﺍﻟﺘﻰ ﺘﻀﻡ
ﺠﻤـﻴﻊ ﺍﻟﺨﻁﻭﺍﺕ ﺍﻷﻤﺎﻤﻴﺔ ﻭﺍﻟﺨﻠﻔﻴﺔ ﻟﺠﻤﻴﻊ ﺍﻟﻌﻴﻨﺎﺕ ﺒﺎﻟﺩﻭﺭﺓ Epochﻭﺘﻤﺭ ﺍﻟﺸﺒﻜﺔ
ﺒﻌـﺩﺓ ﺩﻭﺭﺍﺕ ﺇﻟﻰ ﺃﻥ ﺘﺼل ﺇﻟﻰ ﺃﻗل ﻤﺠﻤﻭﻉ ﻤﺭﺒﻌﺎﺕ ﻟﻠﺨﻁﺄ ﺍﻟﻨﺎﺘﺞ ﻋﻥ ﺍﻟﻔﺭﻕ ﻤﺎ
ﺒﻴﻥ ﺍﻟﻤﺨﺭﺠﺎﺕ ﺍﻟﻨﻬﺎﺌﻴﺔ ﻟﻠﺸﺒﻜﺔ ﻭﺍﻟﻤﺨﺭﺠﺎﺕ ﺍﻟﻤﺴﺘﻬﺩﻓﺔ.
McCulloch & Pitts Mathematical Model
ﻟﻭﻀـﻊ ﻨﻤﻭﺫﺝ ﺭﻴﺎﻀﻰ ﻟﻁﺭﻴﻘﺔ ﻋﻤل ﺍﻟﺨﻠﻴﺔ ﺍﻟﻌﺼﺒﻴﺔ ﻻﺒﺩ ﻤﻥ ﺍﺘﺨﺎﺫ ﺍﻻﻋﺘﺒﺎﺭﺍﺕ
ﺍﻵﺘﻴﺔ):(1
-١ﺃﻥ ﻴﻜـﻭﻥ ﻗـﻴﻤﺔ ﺍﻟﻤﺨـﺭﺠﺎﺕ ﻤﻥ ﺍﻟﻨﻴﺭﻭﻥ ﺇﻤﺎ ﺍﻟﺼـﻔﺭ ) (Offﺃﻭ
ﺍﻟﻭﺍﺤـﺩ ).(On
-٢ﺘﻌـﺘﻤﺩ ﻗﻴﻤﺔ ﻤﺨﺭﺠﺎﺕ ﺍﻟﻨﻴﺭﻭﻥ ﻋﻠﻰ ﻗﻴﻤﺔ ﺍﻟﻤﺩﺨﻼﺕ ﺤﻴﺙ ﺘﻜﻭﻥ ﻗﻴﻤﺔ
ﺍﻟﻤﺨـﺭﺝ ﻭﺍﺤـﺩ ﺇﺫﺍ ﺯﺍﺩ ﺍﻟﻤﺠﻤﻭﻉ ﺍﻟﻤﺭﺠﺢ Weighted Sumﻟﻬﺫﻩ
ﺍﻟﻤـﺩﺍﺨل ﻋﻥ ﻗﻴﻤﺔ ﺤﺩﻴﺔ Threshold Valueﻭﻴﻅل ﺍﻟﻤﺨﺭﺝ ﺼﻔﺭ
ﺇﺫﺍ ﻟﻡ ﻴﺼـل ﺍﻟﻤﺠﻤﻭﻉ ﺇﻟﻰ ﺍﻟﻘﻴﻤﺔ ﺍﻟﺤﺩﻴﺔ ﺍﻟﻤﻨﺎﺴﺒﺔ.
(١ﺍﻟﻤـﺩﺨـل :ﺒﻔـﺭﺽ ﺃﻥ ﻗﻴﻡ ﻤﺨﺎﺭﺝ ﺍﻟﻨﻴﺭﻭﻨﺎﺕ ﺍﻟﺴﺎﺒﻘﺔ ﻟﻠﻨﻴﺭﻭﻥ ﺍﻟﺤﺎﻟﻰ ﻫﻰ
ﺍﻟﻘـﻴﻡ ) (x1, x2, .........., xnﺤﻴﺙ ﺘﻘﻭﻡ ﺍﻟﻤﺸﺎﺒﻙ Synapseﺒﻨﻘل ﻨﺴﺒﺔ ﻤﻥ
ﻫﺫﻩ ﺍﻟﻘﻴﻤﺔ ﺇﻟﻰ ﺍﻟﻠﻴﻑ ﺍﻟﻌﺼﺒﻰ ﻟﻠﻤﺩﺨل ﻤﻥ ﺨﻼل ﺍﻟﻔﺠﻭﺍﺕ ﺒﺤﻴﺙ ﺘﺨﺘﻠﻑ ﻫﺫﻩ
ﺍﻟﻨﺴﺏ ﻤﻥ ﻓﺠﻭﺓ ﻷﺨﺭﻯ ﻋﻠﻰ ﺤﺴﺏ ﻁﺒﻴﻌﺔ ﻜل ﻓﺠﻭﺓ ﻭﺒﺘﻤﺜﻴل ﺫﻟﻙ ﺭﻴﺎﻀﻴﺎ:
ﺒﻔﺭﺽ ﺃﻥ ﺍﻷﻭﺯﺍﻥ weightﺘﺄﺨﺫ ﺍﻟﺸﻜل ).(w1, ......wn
ﻭﺒﺫﻟﻙ ﻴﻜﻭﻥ ﺍﻟﺠﺯﺀ ﺍﻟﻤﻨﻘﻭل ﺇﻟﻰ ﺍﻟﻤﺩﺨل ﻤﻥ ﻜل ﻓﺭﻉ ﻫﻭ ).(wx
)(1
Warner Brad and Misra Manavendra, Op.
- ٥٩ -
(٢ﺠﺴﻡ ﺍﻟﺨﻠﻴﺔ :ﻋﻨﺼﺭ ﺍﻟﻤﻌﺎﻟﺠﺔ :Processing Element
ﻴﻘﻭﻡ ﺒﻌﻤل ﺍﻵﺘﻰ:
ﺃ -ﻋﻤﻠﻴﺔ ﺠﻤﻊ ﻟﻠﻤﺩﺍﺨل ﺍﻟﻤﺭﺠﺤﺔ ).(weighted sum
…… Total input = w1x1 + w2x2 + w3x3 +
i=n
= Σ w i xi )(27
i=1
ﺏ -ﻤﻘﺎﺭﻨـﺔ ﻫﺫﺍ ﺍﻟﻤﺠﻤﻭﻉ ﺒﻘﻴﻤﺔ ﺤﺩﻴﺔ ﻟﺩﺍﻟﺔ ﻤﻌﺭﻭﻓﺔ ﺒﺩﺍﻟﺔ Heavisideﻓﺈﺫﺍ
ﻜﺎﻥ ﺍﻟﻤﺠﻤﻭﻉ ﻟﻠﻤﺩﺍﺨل ﺍﻟﻤﺭﺠﺤﺔ ﺃﻜﺒﺭ ﻤﻥ ﺃﻭ ﻴﺴﺎﻭﻯ ﺍﻟﺩﺍﻟﺔ ﻓﺈﻥ ﺍﻟﻤﺨﺭﺝ ﺴﻭﻑ
ﻴﻜﻭﻥ ) (١ﻭﺇﺫﺍ ﻜﺎﻥ ﺍﻟﻤﺠﻤﻭﻉ ﺃﻗل ﻓﺈﻥ ﻨﺎﺘﺞ ﺍﻟﻤﺨﺭﺝ ﻴﺼﺒﺢ )ﺼﻔﺭﺍ(.
(٣ﺍﻟﻤﺨـﺭﺝ :Output
ﻴﻜﻭﻥ ﺍﻟﻤﺨﺭﺝ ﻟﻠﻨﻤﻭﺫﺝ ﺍﻟﺭﻴﺎﻀﻰ ﺇﻤﺎ ﺍﻟﻭﺍﺤﺩ ﺃﻭ ﺍﻟﺼﻔﺭ.
i=n
) Y = f ( Σ w i xi )(28
i=1
ﻴﻌﺘﺒـﺭ ﻫﺫﺍ ﺍﻟﻨﻤﻭﺫﺝ ﻭﺍﻟﺫﻯ ﺘﻡ ﺍﺘﺨﺎﺫﻩ ﺃﺴﺎﺴﺎ ﻟﺒﻨﺎﺀ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻻﺼﻁﻨﺎﻋﻴﺔ
ﻨﻤـﻭﺫﺝ ﺤـﺴﺎﺒﻰ ﻓﻘﻁ ﻭﻟﻴﺱ ﻨﺴﺨﺔ ﻤﻤﺎ ﻴﺤﺩﺙ ﻓﻰ ﺍﻟﻤﺦ ﺍﻹﻨﺴﺎﻨﻰ ،ﻭﻤﻥ ﻤﻤﻴﺯﺍﺘﻪ،
ﺴﻬﻭﻟﺔ ﺘﻨﻔﻴﺫﻩ ﻋﻠﻰ ﺍﻟﺤﺎﺴﺒﺎﺕ.
- ٦٠ -
ﻭﻗﺩ ﺘﻡ ﺇﻁﻼﻕ ﺍﺴﻡ ﻋﻨﺼﺭ ﺍﻹﺩﺭﺍﻙ ) (Perceptionsﻋﻠﻰ ﻫﺫﺍ ﺍﻟﻨﻤﻭﺫﺝ.
X1
W1
X2
W2
X3 F
W3
… Σ Output
…
Xn
Wn Bias
θ = W o Xo
ﺍﻟﻘﻴﻤﺔ ﺍﻻﻨﺤﻴﺎﺯﻴﺔ
ﺸﻜل ﺭﻗﻡ ) :(١٠-٣ﺍﻟﻨﻤﻭﺫﺝ ﺍﻟﺤﺴﺎﺒﻰ ﻟﻌﻨﺼﺭ ﺍﻹﺩﺭﺍﻙ Perception
ﻭﺘـﺘﻡ ﻋﻤﻠـﻴﺔ ﺍﻟـﺘﻌﻠﻡ ﻟﻠـﺸﺒﻜﺎﺕ ﺍﻟﻌـﺼﺒﻴﺔ ﻋـﻥ ﻁﺭﻴﻕ ﻨﻤﻭﺫﺝ ﺭﻴﺎﻀﻰ ﻟﻠﺘﻌﻠﻡ
ﻟﻠـﺸﺒﻜﺎﺕ ﺍﻟﻌـﺼﺒﻴﺔ ﺤـﻴﺙ ﻴﻌﺘﺒـﺭ ﺩﻭﻨﺎﻟـﺩ ﻫﻴﺏ ﺃﻭل ﻤﻥ ﻭﻀﻊ ﻨﻅﺭﻴﺔ ﺍﻟﺘﻌﻠﻡ
)(1
ﻭﺫﻟـﻙ ﺒﺘﻁﻭﻴـﺭ ﻨﻅﺎﻡ ﺭﻴﺎﻀﻰ ﻟﻠﺘﻌﻠﻡ ﻟﻠﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﻴﺴﻤﻰ ﺍﻟﺘﻌﻠﻴﻡ ﺍﻟﻬﻴﺒﻴﺎﻨﻰ
) (Hebbian Learningﻭﻫﺫﻩ ﺍﻟﻨﻅﺭﻴﺔ ﺘﻨﺹ ﻋﻠﻰ ﺃﻥ:
ﺘﺅﺜـﺭ ﺤﺎﻟﺔ ﺍﻟﻨﺸﺎﻁ ﺍﻟﺴﺎﺒﻘﺔ ﻟﻠﻤﺸﺎﺒﻙ Synapseﻋﻨﺩ ﺇﻋﺎﺩﺓ ﺘﻨﺸﻴﻁﻬﺎ ﻓﺘﺯﺩﺍﺩ ﻜﻔﺎﺀﺓ
ﺍﻟﺘﻭﺼـﻴل ﺃﻭ ﺍﻟﺸﺩﺓ ﻟﻬﺫﻩ ﺍﻟﻤﺸﺎﺒﻙ ﺇﺫﺍ ﺍﺴﺘﻘﺒﻠﺕ ﻨﺒﻀﺔ ﺠﺩﻴﺩﺓ ﻤﻼﺤﻘﺔ ﻟﻨﺒﻀﺔ ﺃﺨﺭﻯ
ﺴﺎﺒﻘﺔ.
ﻭﺘﺘﻡ ﻋﻤﻠﻴﺔ ﺍﻟﺘﻌﻠﻴﻡ ﻟﻠﺸﺒﻜﺔ ﻜﻤﺎ ﻴﻠﻰ:
-١ﺍﻻﺨﺘﻴﺎﺭ ﺍﻟﻌﺸﻭﺍﺌﻰ ﻟﻸﻭﺯﺍﻥ Random Selection Weightsﻭﺍﻟﻘﻴﻡ
ﺍﻟﺤﺩﻴﺔ .Threshold
-٢ﻭﻀﻊ ﻗﻴﻡ ﻟﻠﻤﺩﺍﺨل .Present inputs
-٣ﺤـﺴﺎﺏ ﺍﻟﻤﺨـﺭﺝ ﺍﻟﺤﻘﻴﻘـﻰ Actualﻭﺫﻟـﻙ ﺒﻁـﺭﺡ ﺍﻟﻘﻴﻤﺔ ﺍﻟﺤﺩﻴﺔ
Thresholdﻤﻥ ﺍﻟﻤﺠﻤﻭﻉ ﺍﻟﻤﺭﺠﺢ ﻟﻠﻤﺩﺍﺨل .Weighted Sum
)(1
Hassaun Mohamed H., “Fundamentals of Artificial Neural
Network”, Massachusetts Institute of Technology, Cambridge, 1999.
- ٦١ -
-٤ﻴﺘﻡ ﺘﻐﻴﻴﺭ ﺍﻷﻭﺯﺍﻥ ﻤﺭﺓ ﺃﺨﺭﻯ ﻓﻰ ﺍﺘﺠﺎﻩ ﺍﻟﺘﻌﺭﻑ ﻟﻠﻌﻤل ﻋﻠﻰ ﺘﻘﻠﻴل ﺍﻟﺨﻁﺄ.
-٥ﻭﻀﻊ ﻗﻴﻡ ﺃﺨﺭﻯ ﻟﻠﻤﺩﺍﺨل ﻭﺘﻜﺭﺍﺭ ﺍﻟﺨﻁﻭﺍﺕ ﺍﻟﺴﺎﺒﻘﺔ.
Perceptron learning Algorithm
)(1
ﻴﻤﻜﻥ ﺍﻟﺤﺼﻭل ﻋﻠﻰ ﺒﺭﻨﺎﻤﺞ ﻟﻠﺘﻌﻠﻴﻡ ﻜﻤﺎ ﻴﻠﻰ:
-١ﺍﻟﺒﺩﺀ ﻓﻰ ﻋﻤﻠﻴﺔ ﺘﺤﺩﻴﺩ ﺍﻷﻭﺯﺍﻥ ﻭﺍﻟﻘﻴﻡ ﺍﻟﺤﺩﻴﺔ
ﻨﻔﺭﺽ ﺃﻥ ﻋﺩﺩ ﺍﻟﻤﺩﺍﺨل ) (nﻭﻫﻰ )(x1 , x2 , x3 , ….. , xn
-٢ﻴﺘﻡ ﺇﺨﺘﻴﺎﺭ ﻗﻴﻤﺔ ) xo = (1ﺩﺍﺌﻤﺎﹰ ﻭﻗﻴﻤﺔ ﺍﻟﻭﺯﻥ (wo) = ﺤﻴﺙ
ﻫﻰ ﺍﻟﻘﻴﻤﺔ ﺍﻻﻨﺤﻴﺎﺯﻴﺔ.
-٣ﻴـﺘﻡ ﺍﻻﺨﺘﻴﺎﺭ ﻭﺍﻟﺘﺤﺩﻴﺩ ﺍﻟﻌﺸﻭﺍﺌﻰ ﻟﻘﻴﻡ ﺍﻷﻭﺯﺍﻥ ﻋﻨﺩ ﺍﻟﻤﺩﺍﺨل ﻋﻨﺩ
ﺯﻤﻥ ﻤﻌﻴﻥ ) (tﻜﻤﺎ ﻴﻠﻰ:
)w1(t) , w2 (t) , w3 (t) , ….. wi (t) , … wn (t
-٤ﻴﺘﻡ ﺍﻻﺨﺘﻴﺎﺭ ﻭﺍﻟﺘﺤﺩﻴﺩ ﺍﻟﻌﺸﻭﺍﺌﻰ ﻟﻠﻘﻴﻤﺔ ﺍﻟﺤﺩﻴﺔ.
ﺘﺤﺩﻴﺩ ﻗﻴﻡ ﺍﻟﻤﺩﺍﺨل )x1 (t) , x2 (t) , x3 (t) , xi (t) , …. , xn(t
ﻭﻜﺫﻟﻙ ﻗﻴﻤﺔ ﺍﻟﻤﺨﺭﺝ ﺍﻟﻤﻁﻠﻭﺏ ﺃﻭ ﺍﻟﻤﺭﻏﻭﺏ ).d (t) = (desired
ﺤﺴﺎﺏ ﺍﻟﻤﺨﺭﺝ ﺍﻟﺤﻘﻴﻘﻰ ﻜﻤﺎ ﻴﻠﻰ :
in
( Y (t) = f
io
) )wi(t) xi (t )(30
ﻀﺒﻁ ﺍﻷﻭﺯﺍﻥ ﻜﻤﺎ ﻴﻠﻰ :
-١ﺍﻟﺤﺎﻟﺔ ﺍﻟﻤﻨﻀﺒﻁﺔ
)wi (t + 1) = wi (t )(31
- ٦٢ -
-٢ﺇﺫﺍ ﻜـﺎﻥ ﺍﻟﻤﺨﺭﺝ ﺼﻔﺭ ﻭﻴﺠﺏ ﺃﻥ ﻴﻜﻭﻥ ﻭﺍﺤﺩ ﻟﻠﺘﻌﺭﻑ ﻋﻠﻰ ﺸﻜل
ﻤﻌﻴﻥ ﻴﺠﺏ ﺍﻟﻭﺼﻭل ﺇﻟﻰ ﺍﻟﺸﺭﻁ ﺍﻟﺘﺎﻟﻰ.
)wi (t + 1) = wi (t) + xi (t )(32
-٣ﺇﺫﺍ ﻜﺎﻥ ﺍﻟﻤﺨﺭﺝ ﻭﺍﺤﺩ ﻭﻴﺠﺏ ﺃﻥ ﻴﻜﻭﻥ ﺼﻔﺭ ﻟﻠﺘﻌﺭﻑ ﻋﻠﻰ ﺸﻜل
ﺁﺨﺭ ﻴﺠﺏ ﺍﻟﻭﺼﻭل ﺇﻟﻰ ﺍﻟﺸﺭﻁ ﺍﻟﺘﺎﻟﻰ:
)wi (t + 1) = wi (t) - xi (t )(33
ﻟﻘﺩ ﺘﻡ ﺘﻁﻭﻴﺭ ﻫﺫﺍ ﺍﻷﺴﻠﻭﺏ ﻟﻠﺘﻌﻠﻡ ﺒﻌﺩ ﺫﻟﻙ ﻜﻤﺎ ﻴﻠﻰ :
ﻴـﺘﻡ ﺇﺠـﺭﺍﺀ ﺍﻟـﺘﻌﺩﻴل ﺍﻷﻭل ﻓﻰ ﻋﻤﻠﻴﺔ ﻀﺒﻁ ﺍﻷﻭﺯﺍﻥ ﻭﺫﻟﻙ ﻓﻰ ﺍﻟﺨﻁﻭﺓ
ﺍﻟﺭﺍﺒﻌﺔ ﻜﻤﺎ ﻴﻠﻰ:
-١ﺍﻟﺤﺎﻟﺔ ﺍﻟﻤﻨﻀﺒﻁﺔ
)wi (t + 1) = wi (t )(34
-٢ﺇﺫﺍ ﻜﺎﻥ ﺍﻟﻤﺨﺭﺝ ﺼﻔﺭ ﻭﻴﺠﺏ ﺃﻥ ﻴﻜﻭﻥ ﻭﺍﺤﺩ ﻟﻠﺘﻌﺭﻑ ﻋﻠﻰ ﺸﻜل
ﻤﻌﻴﻥ ﻴﺠﺏ ﺍﻟﻭﺼﻭل ﺇﻟﻰ ﺍﻟﺸﺭﻁ ﺍﻟﺘﺎﻟﻰ :
)wi (t + 1) = wi (t) + xi (t )(35
-٣ﺇﺫﺍ ﻜﺎﻥ ﺍﻟﻤﺨﺭﺝ ﻭﺍﺤﺩ ﻭﻴﺠﺏ ﺃﻥ ﻴﻜﻭﻥ ﺼﻔﺭ ﻭﺫﻟﻙ ﻟﻠﺘﻌﺭﻑ ﻋﻠﻰ
ﺸﻜل ﺁﺨﺭ ﻴﺠﺏ ﺍﻟﻭﺼﻭل ﺇﻟﻰ ﺍﻟﺸﺭﻁ ﺍﻟﺘﺎﻟﻰ :
)wi (t + 1) = wi (t) - xi (t )(36
ﺤﻴﺙ ﻴﻜﻭﻥ ﺍﻟﺤﺩ ) (ﻤﻭﺠﺒﺎﹰ ﻭﻴﻨﺤﺼﺭ ﺒﻴﻥ ﺍﻟﺼﻔﺭ ﻭﺍﻟﻭﺍﺤﺩ ﺍﻟﺼﺤﻴﺢ
ﻭﻴﺴﺘﺨﺩﻡ ﻟﻠﺘﺤﻜﻡ ﻓﻰ ﻤﻌﺩل ﺍﻹﻨﻀﺒﺎﻁ.
(Widrow - Hoff delta rule)
ﻟﻘـﺩ ﻗﺎﻡ widrow & Hoffﺒﺘﻌﺩﻴل ﺍﻷﺴﻠﻭﺏ ﺍﻟﺴﺎﺒﻕ ﺒﻬﺩﻑ ﺃﻥ ﻴﻜﻭﻥ ﺍﻻﻨﻀﺒﺎﻁ
ﻓـﻰ ﺘﻌـﺩﻴل ﺍﻷﻭﺯﺍﻥ ﺒﻘﺩﺭ ﻜﺒﻴﺭ ﺇﺫﺍ ﻜﺎﻥ ﺍﻟﻔﺭﻕ ﺒﻴﻥ ﺍﻟﻤﺨﺭﺝ ﺍﻟﻤﻁﻠﻭﺏ ﻭﺍﻟﺤﻘﻴﻘﻰ
ﻜﺒﻴـﺭﺍﹰ ﻭﻴﻜـﻭﻥ ﺼﻐﻴﺭﺍﹰ ﺇﺫﺍ ﻜﺎﻥ ﺍﻟﻔﺭﻕ ﺼﻐﻴﺭﺍﹰ ﻭﺫﻟﻙ ﺒﺎﻗﺘﺭﺍﺡ ﺩﺍﻟﺔ ﺩﻟﺘﺎ ﻟﻠﺘﻌﻠﻡ ﻜﻤﺎ
ﻴﻠﻰ :
- ٦٣ -
ﻴﻌـﺭﻑ ﺍﻟﻔﺭﻕ ﺒﻴﻥ ﺍﻟﻤﺠﻤﻭﻉ ﺍﻟﻤﺭﺠﺢ ﻭﺍﻟﻤﺨﺭﺝ ﺍﻟﻤﻁﻠﻭﺏ ﻋﻠﻰ ﺃﻨﻪ ﺩﺍﻟﺔ ﺍﻟﺨﻁﺄ ﻜﻤﺎ
ﻴﻠﻰ:
) = d (t) - y (t )(37
ﻭﺒـﺫﻟﻙ ﺘﻜـﻭﻥ +1 = ﺼـﺤﻴﺤﻴﺎﹰ ﺇﺫﺍ ﻜـﺎﻥ ﺍﻟﻤﺨﺭﺝ ﺍﻟﻤﻁﻠﻭﺏ ﻭﺍﺤﺩﺍﹰ ﻭﻜﺎﻥ
ﺍﻟﻤﺠﻤـﻭﻉ ﺍﻟﻤـﺭﺠﺢ ﻴـﺴﺎﻭﻯ ﺍﻟـﺼﻔﺭ ﻭﺘﺼﺒﺢ ﺍﻟﻘﻴﻤﺔ -1 = ﺇﺫﺍ ﻜﺎﻥ ﺍﻟﻤﺨﺭﺝ
= ﺼﻔﺭ ﻓﻰ ﺤﺎﻟﺔ ﺍﻟﻤﻁﻠﻭﺏ ﺼﻔﺭﺍﹰ ﻭﺍﻟﻤﺠﻤﻭﻉ ﺍﻟﻤﺭﺠﺢ ﻴﺴﺎﻭﻯ ﺍﻟﻭﺤﺩﻩ ﻭﺘﺼﺒﺢ
ﺍﻟﺘـﺴﺎﻭﻯ ﺃﻭ ﺍﻟﺘﻌﺭﻑ ﺍﻟﻜﺎﻤل ﻭﻴﺼﺒﺢ ﺍﺠﺭﺍﺀ ﺍﻟﺘﻌﺩﻴل ﻓﻰ ﻋﻤﻠﻴﺔ ﻀﺒﻁ ﺍﻷﻭﺯﺍﻥ ﻜﻤﺎ
ﻓﻰ ﺍﻟﺨﻁﻭﺓ ﺍﻟﺭﺍﺒﻌﺔ ﺍﻟﻤﻌﺩﻟﺔ ﺜﺎﻨﻴﺎﹰ ﻜﻤﺎ ﻴﻠﻰ:
ﻴﺘﻡ ﺇﺠﺭﺍﺀ ﺍﻟﻀﺒﻁ ﺍﻟﻤﻌﺩل ﻟﻸﻭﺯﺍﻥ ﻜﻤﺎ ﻴﻠﻰ:
ﺍﻟﺤﺎﻟﺔ ﺍﻟﻤﻨﻀﺒﻁﺔ :
= d (t) - y (t) = 0 )(38
)wi (t + 1) = wi (t) + xi (t )(39
d (t) = + 1 ﻭﻓﻰ ﺤﺎﻟﺔ ﺍﻟﺘﻌﺭﻑ ﻋﻠﻰ ﺍﻟﺸﻜل ﺍﻷﻭل ﻓﺈﻥ
d (t) = 0 ﻭﻓﻰ ﺤﺎﻟﺔ ﺍﻟﺘﻌﺭﻑ ﻋﻠﻰ ﺍﻟﺸﻜل ﺍﻟﺜﺎﻨﻰ ﻓﺈﻥ
ﻭﻟﻘـﺩ ﺃﻁﻠـﻕ ) (widrowﻋﻠﻰ ﻫﺫﺍ ﺍﻟﻨﻭﻉ ﻤﻥ ﺍﻷﺴﻠﻭﺏ ﺍﻟﻨﻴﺭﻭﻥ ﺍﻟﺨﻁﻰ
ﺍﻻﻨﻀﺒﺎﻁﻰ )(Adaptive linear neurons ADA LINE
Vectorial Analogy for learning Mechanism
ﻴﻤﻜـﻥ ﺍﺴـﺘﺨﺩﺍﻡ ﺍﻟﺘﻤﺜـﻴل ﺒﺎﻟﻤﺘﺠﻬﺎﺕ ﻓﻰ ﺘﻔﻬﻡ ﻤﻴﻜﺎﻨﻴﻜﻴﺔ ﺍﻟﺘﻌﻠﻴﻡ ﻟﻌﻨﺼﺭ ﺍﻹﺩﺭﺍﻙ
)(1
ﺍﻟﺒﺴﻴﻁ ﻜﻤﺎ ﻴﻠﻰ:
ﺒﻔﺭﺽ ﺃﻨﻪ ﻴﻤﻜﻥ ﺘﻤﺜﻴل ﺍﻟﻤﺩﺨﻼﺕ ﻟﻠﻨﻴﺭﻭﻥ ﻓﻰ ﺸﻜل ﻤﺘﺠﻪ :
)x = (x0 , x1 , x2 , …. , xn )(40
ﻭﺍﻨﻪ ﻴﻤﻜﻥ ﻜﺘﺎﺒﺔ ﺍﻷﻭﺯﺍﻥ ﻓﻰ ﺸﻜل ﻤﺘﺠﻪ ﺁﺨﺭ :
- ٦٤ -
)w = (w0 , w1 , w2 , w3 , …. , wn )(41
ﻭﺒﺫﻟﻙ ﻴﻤﻜﻥ ﺍﻟﺤﺼﻭل ﻋﻠﻰ ﺍﻟﻤﺠﻤﻭﻉ ﺍﻟﻤﺭﺠﺢ ﻓﻰ ﺸﻜل ﺤﺎﺼل ﺍﻟﻀﺭﺏ ﺍﻟﻨﻘﻁﻰ ﻟﻤﺘﺠﻬﻴﻥ
= Dot Product
io
wi xi = w . x )(42
Multilayer Model
ﺇﻥ ﻨﻤـﻭﺫﺝ ﺍﻟﻨﻴﺭﻭﻥ ﺫﻭ ﺍﻟﻁﺒﻘﺔ ﺍﻟﻭﺍﺤﺩﺓ ﻻ ﻴﻤﻜﻥ ﺃﻥ ﻴﻌﻁﻰ ﺍﻟﺤل ﻟﻠﻤﺸﺎﻜل ﺍﻟﺘﻰ ﻻ
ﻴﻤﻜﻥ ﻓﺼﻠﻬﺎ ﺒﺨﻁ ﻤﺴﺘﻘﻴﻡ ﻭﺍﺤﺩ .ﻭﺒﺎﻟﺘﺎﻟﻰ ﻨﻠﺠﺄ ﺇﻟﻰ ﺍﻟﺸﺒﻜﺔ ﺍﻟﺜﻨﺎﺌﻴﺔ ﺍﻟﻁﺒﻘﺎﺕ ﻟﻠﻔﺼل
ﺒﻴﻥ ﺍﻟﺒﺼﻤﺎﺕ ،ﻭﻟﻜﻥ ﻫﻨﺎﻙ ﺴﻠﺒﻴﺎﺕ ﻤﻥ ﺃﻫﻤﻬﺎ ﺃﻥ ﺍﻟﻌﻨﺼﺭ ﺍﻟﺜﺎﻟﺙ ﻓﻰ ﺍﻟﻁﺒﻘﺔ ﺍﻟﺜﺎﻨﻴﺔ
ﻴﻜـﻭﻥ ﻏﻴـﺭ ﻗـﺎﺩﺭ ﻋﻠﻰ ﺍﻟﺘﻤﻴﻴﺯ ﺒﻴﻥ ﺃﻯ ﻤﻥ ﺍﻟﻤﺩﺍﺨل ﺍﻟﻨﺸﻁﺔ ﻋﻨﺩ ﺍﻟﻤﺩﺨل ﻨﻅﺭﺍ
ﻻﻨﻌﺯﺍﻟﻬﺎ ﻭﺒﺎﻟﺘﺎﻟﻰ ﻻ ﻴﻤﻜﻥ ﻋﻤل ﺍﻹﺠﺭﺍﺀ ﺍﻟﺼﺤﻴﺢ ﻟﻀﺒﻁ ﺍﻷﻭﺯﺍﻥ ،ﻜﻤﺎ ﺃﻥ ﺍﻟﺩﺍﻟﺔ
ﺍﻟﺤﺩﻴـﺔ ﻻ ﺘـﺴﺎﻋﺩ ﻋﻠـﻰ ﺍﻟﻤﻌﺭﻓﺔ ﺍﻟﺤﻘﻴﻘﻴﺔ ﻭﺍﻟﺘﻔﺭﻗﺔ ﻟﺤﺎﻟﺔ ﺍﻟﻤﺩﺍﺨل ﻭﻜﻴﻔﻴﺔ ﻀﺒﻁ
ﺍﻷﻭﺯﺍﻥ ﻭﻟﻠﺘﻐﻠﺏ ﻋﻠﻰ ﻫﺫﻩ ﺍﻟﻤﺸﻜﻠﺔ ،ﻜﺎﻥ ﻻﺒﺩ ﻤﻥ ﺍﺴﺘﺨﺩﺍﻡ ﺩﺍﻟﺔ ﺤﺩﻴﺔ ﻻ ﺨﻁﻴﺔ ﻟﻬﺎ
ﻤـﻴل ﺜﺎﺒـﺕ ﺃﻭ ﻤـﻴل ﻴﺘﻐﻴـﺭ ﺒﺒﻁﺀ ﺤﻴﺙ ﻴﺴﺎﻋﺩ ﻫﺫﺍ ﺍﻟﻤﻴل ﻋﻠﻰ ﺍﻟﺘﻔﺭﻗﺔ ﺒﻴﻥ ﻗﻴﻡ
ﺍﻷﻭﺯﺍﻥ ،ﺩﺍﻟـﺔ ﺤﺩﻴـﺔ ﺫﺍﺕ ﻤـﻴل ﺜﺎﺒﺕ ﻭﺩﺍﻟﺔ ﻤﻘﻁﻌﻴﺔ )(Sigmoid Function
ﻤﺘﻐﻴﺭﺓ ﺍﻟﻤﻴل ﺸﻜل ﺍﻟﺤﺭﻑ ).(S
ﻭﻫﺫﺍ ﺍﻟﺘﻁﻭﻴﺭ ﻫﻭ ﺍﻷﺴﺎﺱ ﻓﻰ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﻤﺘﻌﺩﺩﺓ ﺍﻟﻁﺒﻘﺎﺕ.
1
O O
ﺸﻜل ﺭﻗﻡ ) :(١١-٣ﺍﻟﺩﻭﺍل ﺍﻟﺤﺩﻴﺔ ) (Aﺩﺍﻟﺔ ﺤﺩﻴﺔ ﻟﻬﺎ ﻤﻴل ﺜﺎﺒﺕ
) (Bﺩﺍﻟﺔ ﺤﺩﻴﺔ ﻤﻘﻁﻌﻴﺔ ﺫﺍﺕ ﻤﻴل ﻤﺘﻐﻴﺭ
- ٦٥ -
ﻭﻴﺘﻜﻭﻥ ﺍﻟﻨﻤﻭﺫﺝ ﻤﺘﻌﺩﺩ ﺍﻟﻁﺒﻘﺎﺕ ﻤﻥ ﺜﻼﺜﺔ ﻁﺒﻘﺎﺕ ﻫﻰ):(1
-١ﻁﺒﻘﺔ ﺍﻟﻤﺩﺨلInput Layer :
ﻭﺍﻟﺘﻰ ﺘﻌﻤل ﻋﻨﺎﺼﺭﻫﺎ ﺍﻟﺤﺴﺎﺒﻴﺔ ﻋﻠﻰ ﺘﻭﺯﻴﻊ ﺍﻟﻘﻴﻡ ﺍﻟﻤﺩﺨﻠﺔ ﻭﻻ ﺘﻘﻭﻡ ﺒﺈﺠﺭﺍﺀ
ﻋﻤﻠﻴﺔ ﺍﻟﺠﻤﻊ ﺍﻟﻤﺭﺠﺢ.
-٢ﺍﻟﻁﺒﻘﺔ ﺍﻟﻤﺨﺘﻔﻴﺔHidden Layer :
ﻭﻫـﻰ ﺍﻟﻁﺒﻘﺔ ﺍﻟﺘﻰ ﺘﻘﻊ ﺒﻴﻥ ﻁﺒﻘﺔ ﺍﻟﻤﺩﺨل ﻭﻁﺒﻘﺔ ﺍﻟﻤﺨﺭﺝ ﻭﺘﻘﻭﻡ ﻋﻨﺎﺼﺭﻫﺎ
ﺍﻟﺤﺴﺎﺒﻴﺔ ﺒﺈﺠﺭﺍﺀ ﻋﻤﻠﻴﺔ ﺍﻟﺠﻤﻊ ﺍﻟﻤﺭﺠﺢ .Weighted Sum
ﻭﺘﻁﺒـﻴـﻕ ﺍﻟﻘـﻴـﻡ ﺍﻟﺤﺩﻴــﺔ ﻭﺫﻟـﻙ ﺒﺎﺴـﺘﺨﺩﺍﻡ ﺍﻟﺩﺍﻟﺔ ﺍﻟﺤﺩﻴﺔ ﺍﻟﻤﻘﻁﻌﻴﺔ
Sigmoid Function
-٣ﻁﺒﻘﺔ ﺍﻟﻤﺨﺭﺝOutput Layer :
ﻭﻫـﻰ ﺍﻟﻁـﺒﻘﺔ ﺍﻟﺘـﻰ ﺘﻘﻊ ﻋﻨﺩ ﺍﻟﻤﺨﺭﺝ ﻭﺘﻘﻭﻡ ﻋﻨﺎﺼﺭﻫﺎ ﺍﻟﺤﺴﺎﺒﻴﺔ ﺒﺈﺠﺭﺍﺀ
ﻋﻤﻠﻴﺔ ﺍﻟﺠﻤﻊ ﺍﻟﻤﺭﺠﺢ Weighted Sumﻭﻭﻀﻊ ﻭﺘﻁﺒﻴـﻕ ﺍﻟﻘﻴﻡ ﺍﻟﺤﺩﻴـﺔ
ﻟﻺﺜﺎﺭﺓ ﻭﺫﻟﻙ ﺒﺎﺴﺘﺨﺩﺍﻡ ﺍﻟﺩﺍﻟﺔ ﺍﻟﺤﺩﻴﺔ ﺍﻟﻤﻘﻁﻌﻴﺔ Sigmoid Functionﻤﺜل
ﺍﻟﻁﺒﻘﺔ ﺍﻟﻤﺨﺘﻔﻴﺔ.
ﻭﺤـﻴﺙ ﺘـﻡ ﺍﻟﺘﻌﺩﻴل ﺒﺈﻀﺎﻓﺔ ﻁﺒﻘﺔ ﻤﺨﺘﻔﻴﺔ ﺒﻴﻥ ﻁﺒﻘﺔ ﺍﻟﻤﺩﺨل ﻭﺍﻟﻤﺨﺭﺝ ﻭﺍﺴﺘﺨﺩﺍﻡ ﺍﻟﺩﺍﻟﺔ
ﺍﻟﺤﺩﻴﺔ ﺍﻟﻤﻘﻁﻌﻴـﺔ Sigmoid Functionﻭﺍﻟﺘﻰ ﺘﺤﻤـل ﺍﻟﺨـﻭﺍﺹ ﺍﻟﻼ ﺨﻁﻴﺔ ﻭﺒﺎﻟﺘﺎﻟﻰ
ﻓـﺈﻥ ﻫـﻨـﺎﻙ ﻁﺭﻴﻘﺔ ﺃﺨﺭﻯ ﻟﻠﺘﻌﻠﻴﻡ ﺘﻜﻭﻥ ﻗﺎﺩﺭﺓ ﻋﻠﻰ ﺍﻟﺘﻔﺎﻋل ﺒﻴﻥ ﺍﻟﻁﺒﻘﺎﺕ ﺍﻟﺜﻼﺜﺔ ﻤﺜل
ﻗﺎﻋﺩﺓ ﺍﻻﻨﺘﺸﺎﺭ ﺍﻟﺨﻠﻔﻰ ) (2) .(Back Propagation Ruleﻭﺘﻜﻭﻥ ﻜﻤﺎ ﻴﻠﻰ :
)(1
David G, “Neural Networks An Introductory Guide for Social
Scientists”, SAGE Publications, London, Thousand Oaks, New
Delhi, 1999.
)(2
Yu Chen-Kuan “Using Back Propagation Neural Network to
Forecast the Production Values of the Machinery Industry in
Taiwan”, Journal of American Academy of Business, Cambridge,
Vol. 9, No. 1, March, 2006.
- ٦٦ -
Back-propagation
ﻫـﻭ ﺃﺴـﻠﻭﺏ ﻟﺘﻌﻠﻴﻡ ﺍﻟﺸﺒﻜﺎﺕ ﻤﺘﻌﺩﺩﺓ ﺍﻟﻁﺒﻘﺎﺕ ﻭﻴﺘﻤﻴﺯ ﺃﺴﻠﻭﺏ ﺍﻻﻨﺘﺸﺎﺭ ﺍﻟﺨﻠﻔﻲ ﺒﻤﺎ
ﻴﻠﻲ :
-١ﺍﻋﺘﻤﺎﺩﻩ ﻋﻠﻰ ﺃﺴﺎﺱ ﺭﻴﺎﻀﻲ ﻗﻭﻱ.
-٢ﻴﺴﻤﺢ ﺒﺘﻌﺩﻴل ﺍﻟﻌﻼﻗﺎﺕ ﻭﺘﻐﻴﻴﺭ ﺍﻷﻭﺯﺍﻥ ﻓﻲ ﺍﻟﻁﺒﻘﺎﺕ ﺍﻟﻤﺨﺘﻠﻔﺔ ﻟﻠﺸﺒﻜﺔ ﻋﻠﻰ
ﺤـﺴﺏ ﻤﻘﺎﺭﻨـﺔ ﺍﻟﻤﺨـﺭﺠﺎﺕ ﺍﻟﺤﻘﻴﻘﻴﺔ ﺍﻟﻤﻁﻠﻭﺒﺔ ﻭﻴﺨﻔﺽ ﺍﻟﺨﻁﺄ ﻋﻨﺩ ﻜل
ﺘﺩﺭﻴﺏ ﻟﻠﺸﺒﻜﺔ ﻭﺍﻟﺘﺩﺭﻴﺏ ﻴﻜﻭﻥ ﺃﻤﺎﻤﻲ ﻟﺘﻘﺩﻴﺭ ﺍﻟﺨﻁﺄ ﺜﻡ ﻴﺘﺒﻌﻪ ﺘﺩﺭﻴﺏ ﺨﻠﻔﻲ
ﻟﺘﻌﺩﻴل ﺍﻷﻭﺯﺍﻥ.
-٣ﻴﺘﻡ ﺘﻁﺒﻴﻘﻪ ﻓﻲ ﻤﺠﺎﻻﺕ ﻋﻠﻤﻴﺔ ﻤﺨﺘﻠﻔﺔ.
-٤ﺍﻟﻘﺩﺭﺓ ﺍﻟﻌﺎﻟﻴﺔ ﻋﻠﻰ ﺼﻴﺎﻏﺔ ﺍﻟﻌﻼﻗﺎﺕ ﺍﻟﺭﻴﺎﻀﻴﺔ ﺍﻟﻐﻴﺭ ﺨﻁﻴﺔ ﺍﻟﻤﻌﻘﺩﺓ.
-٥ﻻ ﻴﺤﺘﺎﺝ ﺇﻟﻰ ﻨﻤﺎﺫﺝ ﺍﻓﺘﺭﺍﻀﻴﺔ ﻤﺴﺒﻘﺔ ﻟﺘﻤﺜﻴل ﺍﻟﺒﻴﺎﻨﺎﺕ.
ﻭﻓﻴﻤﺎ ﻴﻠﻲ ﺨﻁﻭﺍﺕ ﺃﺴﻠﻭﺏ ﺍﻻﻨﺘﺸﺎﺭ ﺍﻟﺨﻠﻔﻲ :
-١ﺘﻘـﻭﻡ ﺍﻟـﺸﺒﻜﺔ ﻏﻴـﺭ ﺍﻟﻤﺩﺭﺒـﺔ ﺒﻌﻤل ﺍﻟﺤﺴﺎﺒﺎﺕ ﺍﻟﻼﺯﻤﺔ ﻟﻠﺠﻤﻊ ﺍﻟﻤﺭﺠﺢ
ﻭﺘﻁﺒـﻴﻕ ﺍﻟﺩﺍﻟـﺔ ﺍﻟﺤﺩﻴﺔ ﻭﺤﺴﺎﺏ ﻗﻴﻤﺔ ﺍﻟﻤﺨﺭﺝ ﻭﺒﺎﻟﺘﺎﻟﻰ ﻨﺤﺼل ﻋﻠﻰ ﻗﻴﻡ
ﻋﺸﻭﺍﺌﻴﺔ ﻟﻠﺨﺭﺝ ﻤﻥ ﺍﻟﺸﺒﻜﺔ.
-٢ﻴﺘﻡ ﺤﺴﺎﺏ ﺩﺍﻟﺔ ﺍﻟﺨﻁﺄ ﺒﻴﻥ ﻗﻴﻡ ﺍﻟﻤﺨﺭﺝ ﺍﻟﻌﺸﻭﺍﺌﻴﺔ ﺍﻟﺘﻰ ﺘﻡ ﺍﻟﺤﺼﻭل ﻋﻠﻴﻬﺎ
ﻭﺍﻟﺘﻰ ﺘﻤﺜل ﺍﻟﻤﺨﺭﺝ ﺍﻟﺤﻘﻴﻘﻰ ﻭﻗﻴﻡ ﺍﻟﻤﺨﺭﺝ ﺍﻟﻤﻌﻴﻥ ﺍﻟﻤﻁﻠﻭﺏ.
-٣ﻟﺘﻘﻠـﻴل ﻗـﻴﻡ ﺩﺍﻟﺔ ﺍﻟﺨﻁﺄ ﻨﻘﻭﻡ ﺒﺘﻌﺩﻴل ﺍﻷﻭﺯﺍﻥ ﻓﻰ ﻁﺒﻘﺔ ﺍﻟﻤﺨﺭﺝ ﺃﻭﻻﹰ ﻓﻰ
ﺍﺘﺠـﺎﻩ ﺘﻘﻠﻴل ﺍﻟﺨﻁﺄ ﺜﻡ ﻨﻘل ﻫﺫﺍ ﺍﻟﺨﻁﺄ ﺇﻟﻰ ﺍﻟﻁﺒﻘﺔ ﺍﻟﺴﺎﺒﻘﺔ ﻭﺘﻌﺩﻴل ﺍﻷﻭﺯﺍﻥ
ﻋﻨﺩ ﻤﺩﺍﺨل ﻫﺫﻩ ﺍﻟﻁﺒﻘﺔ ﻭﺤﺴﺎﺏ ﻗﻴﻡ ﺍﻟﻤﺨﺭﺝ ﻤﺭﺓ ﺜﺎﻨﻴﺔ ﻟﻠﺸﺒﻜﺔ ﻓﻰ ﺍﻟﻭﻀﻊ
ﺍﻟﺠﺩﻴـﺩ ﻭﺤـﺴﺎﺏ ﺩﺍﻟـﺔ ﺍﻟﺨﻁـﺄ ﻤـﺭﺓ ﺃﺨﺭﻯ ﻤﺴﺘﺨﺩﻤﺎ ﺍﻟﻤﺨﺭﺝ ﺍﻟﺠﺩﻴﺩ
ﻭﺍﻟﻤﺨﺭﺝ ﺍﻟﻤﻁﻠﻭﺏ ﻭﺘﻌﺩﻴل ﺍﻷﻭﺯﺍﻥ ﻤﺭﺓ ﺃﺨﺭﻯ ﻓﻰ ﻁﺒﻘﺔ ﺍﻟﻤﺨﺭﺝ ﺜﻡ ﻨﻘل
ﻫﺫﺍ ﺍﻟﺨﻁﺄ ﺍﻟﺠﺩﻴﺩ ﺇﻟﻰ ﺍﻟﻁﺒﻘﺔ ﺍﻟﺘﻰ ﻗﺒﻠﻬﺎ ﻭﻫﻜﺫﺍ.
- ٦٧ -
-٤ﻴـﺘﻡ ﺘﻜﺭﺍﺭ ﺍﻟﺘﻌﻠﻴﻡ ﻋﺩﺓ ﻤﺭﺍﺕ ﺤﺘﻰ ﺘﺘﻼﺸﻰ ﺩﺍﻟﺔ ﺍﻟﺨﻁﺄ ﻭﻴﺼﺒﺢ ﺍﻟﻤﺨﺭﺝ
ﺍﻟﻤﺤﺴﻭﺏ ﻫﻭ ﺍﻟﻤﺨﺭﺝ ﺍﻟﻤﻁﻠﻭﺏ ﻭﺒﺫﻟﻙ ﺘﺘﻌﻠﻡ ﺍﻟﺸﺒﻜﺔ .ﻭﺘﻌﺘﺒﺭ ﻋﺩﺩ ﻤﺭﺍﺕ
ﺍﻟﺘﻜﺭﺍﺭ ﻫﻰ ﺍﻟﻤﻘﻴﺎﺱ ﻟﺘﻌﻠﻡ ﺍﻟﺸﺒﻜﺔ.
)(1
ﻭﻴﺘﻡ ﺘﻤﺜﻴل ﻁﺭﻴﻘﺔ ﺍﻻﻨﺘﺸﺎﺭ ﺍﻟﺨﻠﻔﻰ ﺭﻴﺎﻀﻴﺎ ﻜﻤﺎ ﻴﻠﻰ:
-١ﺒﻔﺭﺽ ﺃﻥ ﻫﻨﺎﻙ ﺸﺒﻜﺔ ﺜﻼﺜﻴﺔ ﺍﻟﻁﺒﻘﺎﺕ.
-٢ﺃﻥ ﺍﻟﻌﻨﺎﺼﺭ i, jﻋﻨﺎﺼﺭ ﺩﺍﺨل ﺍﻟﺸﺒﻜﺔ.
-٣ﺍﻟﻭﺯﻥ ﺒﻴﻥ ﺍﻟﻌﻨﺼﺭﻴﻥ .Wij
-٤ﺍﻟﻤﺨﺭﺝ ﺍﻟﺤﻘﻴﻘﻰ ﻋﻨﺩ ﻤﺨﺭﺝ ﺍﻟﻌﻨﺼﺭ jﻫﻭ .OPj
-٥ﺍﻟﻤﺨﺭﺝ ﺍﻟﻤﻁﻠﻭﺏ ﻋﻨﺩ ﻤﺨﺭﺝ ﺍﻟﻌﻨﺼﺭ ) (jﻫﻭ .tpj
-٦ﺍﻟﺨﻁﺄ ﺍﻟﻜﻠﻰ .Ep
-٧ﺒﻔـﺭﺽ ﺃﻥ ﺩﺍﻟـﺔ ﺍﻟﺨﻁـﺄ ﺘﺘﻨﺎﺴـﺏ ﻤﻊ ﻤﺭﺒﻊ ﺍﻟﻔﺭﻕ ﺒﻴﻥ ﺍﻟﻤﺨﺭﺝ
ﺍﻟﺤﻘﻴﻘﻰ ﻭﺍﻟﻤﺨﺭﺝ ﺍﻟﻤﻁﻠﻭﺏ.
1
EP ( tp j - OPj ) 2 )(43
2 j
ﻭﻴﻤﻜﻥ ﺤﺴـﺎﺏ ﺩﺍﻟﺔ ﺍﻟﺘﻨﺸﻴـﻁ ) (net pjﻓﻰ ﺍﻟﻌﻨﺼـﺭ ) (jﻭﺍﻟﺘﻰ ﺘﻌﺘﺒﺭ
ﻤﺠﻤﻭﻉ ﺤﺎﺼل ﻀﺭﺏ ﺍﻟﻭﺯﻥ ﻓﻰ ﻗﻴﻤﺔ ﺍﻟﺩﺨل.
net p j Σ w ij op i )(44
j
- ٦٨ -
-٨ﻭﻴﻤﻜـﻥ ﻜـﺘﺎﺒﺔ ﺍﻟﺘﻐﻴﻴﺭ ﻓﻰ ﺍﻟﺨﻁﺄ ﺍﻟﻜﻠﻰ ﺒﺩﻻﻟﺔ ﺍﻟﺘﻐﻴﺭ ﻓﻰ ﺍﻷﻭﺯﺍﻥ
ﻜﻤـﺎ ﻴﻠﻰ):(1
Ep Ep net p j
)(46
w ij net p j w i j
ﻭﻴﻤﻜـﻥ ﺘﻌـﺩﻴل ﺍﻟﺤﺩ ﺍﻟﺜﺎﻨﻰ ﻤﻥ ﺍﻟﻤﻌﺎﺩﻟﺔ ) (46ﻭﺍﻟﺫﻯ ﻴﺸﻤل ﺍﻟﺘﻐﻴﺭ ﻓﻰ
ﺍﻟﺩﺍﻟﺔ ﺍﻟﺤﺩﻴﺔ ﺍﻟﻤﻘﻁﻌﻴﺔ ﺒﺩﻻﻟﺔ ﺍﻟﺘﻐﻴﺭ ﻓﻰ ﺍﻷﻭﺯﺍﻥ.
ﻟﻴﺼﺒﺢ ﺍﻟﻤﺨﺭﺝ ﺍﻟﻔﻌﻠﻰ Opiﻤﻥ ﺍﻟﻌﻨﺼﺭ ) (iﻜﻤﺎ ﻴﻠﻰ:
net p j
Wkj O pk )(47
w ij w ij k
Wkj
= Σ Op k Op i )(48
k w ij
Wkj
)(49 ﺤﻴﺙ ﺃﻥ ﺍﻟﻘﻴﻤﺔ
w ij
ﻓﻰ ﺠﻤﻴﻊ ﺍﻷﺤﻭﺍل ﻤﺎ ﻋﺩﺍ ﻋﻨﺩ .k = i
ﻓﺈﻥ ﻗﻴﻤﺘﻬﺎ ﺘﺴﺎﻭﻯ ﺍﻟﻭﺤﺩﺓ pj
-٩ﺒﻔـﺭﺽ ﺃﻥ ﺍﻟﺘﻐﻴـﺭ ﻓﻰ ﺍﻟﺨﻁﺄ ﻜﺩﺍﻟﺔ ﻓﻰ ﺍﻟﺘﻐﻴﺭ ﻓﻰ ﻤﺩﺍﺨل ﺍﻟﺸﺒﻜﺔ
ﻟﻠﻌﻨﺼﺭ jﻜﻤﺎ ﻴﻠﻰ:
Ep
pj )(50
net p j
ﻭﺒﺎﻟـﺘﻌﻭﻴﺽ ﻓـﻰ ﺍﻟﻤﻌﺎﺩﻟـﺔ ) (46ﻴﺼﺒﺢ ﺍﻟﺘﻐﻴﺭ ﻓﻰ ﺍﻟﺨﻁﺄ ﺍﻟﻜﻠﻰ ﺒﺩﻻﻟﺔ
ﺍﻟﺘﻐﻴﺭ ﻓﻰ ﺍﻷﻭﺯﺍﻥ ﻜﻤﺎ ﻴﻠﻰ:
Ep
p j Opi )(51
w ij
)(1
Warner Brad and MISRA Manovendra, Op.
- ٦٩ -
ﻭﻴﺼﺒﺢ ﺘﻘﻠﻴل ﺍﻟﺨﻁﺄ Epﻫﻭ ﻤﺤﺎﻭﻟﺔ ﺘﻘﻠﻴل ﺍﻷﻭﺯﺍﻥ ﺒﻘﻴﻡ ﺘﺘﻨﺎﺴﺏ ﻤﻊ δpj
Opiواﻟﺘﻰ ﯾﻤﻜﻦ ﻛﺘﺎﺑﺘﮭﺎ ﻓﻰ اﻟﺸﻜﻞ:
pWij p j Opi )(52
ﺣﯿﺚ أن اﻟﻤﻌﺎﻣﻞ 0 < η < 1ھﻮ اﻟﺬى ﯾﺘﺤﻜﻢ ﻓﻰ ﻣﻌﺪل اﻻﻧﻀﺒﺎط.
-١٠ﻭﻟﺘﺤﺩﻴﺩ ﻗﻴﻤﺔ ﺍﻟﺘﻐﻴــﺭ δpjﻓ ﻰ داﻟﺔ اﻟﺨﻄﺄ ﻟﻜﻞ ﻋﻨﺼﺮ ﯾﻤﻜﻦ ﺗﺤﺪﯾﺪ
ﻛﯿﻔﯿﺔ ﺗﻌﺪﯾﻞ داﻟﺔ اﻟﺨﻄﺄ اﻟﻜﻠﯿﺔ Epﻛﻤﺎ ﯾﻠﻰ:
Ep Ep Op j
p j )(53
net p j Op j net p j
- ٧٠ -
Ep
Σ Σ Wik op i )(58
k net p k Op j i
Σ δ pk W jk )(59
k
ﻭﺘﻌﻁـﻰ ﻫـﺫﻩ ﺍﻟﻤﻌﺎﺩﻟـﺔ ﻤﻘﺩﺍﺭ ﺍﻟﺘﻐﻴﺭ ﻓﻰ ﺩﺍﻟﺔ ﺍﻟﺨﻁﺄ ﺒﺎﻟﻨﺴﺒﺔ ﻟﻠﺘﻐﻴﺭ ﺍﻟﺤﺎﺩﺙ ﻓﻰ
ﺍﻷﻭﺯﺍﻥ ﻟﻠـﺸﺒﻜﺔ δpjﻭﻤﻌـﺘﻤﺩﺓ ﻋﻠﻰ ﺍﻟﺨﻁﺄ ﻓﻰ ﺍﻟﻁﺒﻘﺔ ﺍﻟﺴﺎﺒﻘﺔ δpkﻭﺍﻟﺘﻰ ﺘﺴﺎﻋﺩ
ﻋﻠﻰ ﺘﻐﻴﻴﺭ ﺩﺍﻟﺔ ﺍﻟﺨﻁﺄ ﻓﻰ ﺍﻻﺘﺠﺎﻩ ﺇﻟﻰ ﺘﻘﻠﻴﻠﻪ ﻭﺫﻟﻙ ﻜﻤﺎ ﻴﻠﻰ:
(١ﻴﺘﻡ ﺤﺴﺎﺏ ﻤﻘﺩﺍﺭ ﺍﻟﺨﻁﺄ δpjﻟﻌﻨﺎﺼﺭ ﺍﻟﻁﺒﻘﺔ ﺍﻷﺨﻴﺭﺓ )ﻁﺒﻘﺔ ﺍﻟﻤﺨﺭﺝ(
ﺃﻭﻻﹰ ﻭﺫﻟﻙ ﺒﺎﺴﺘﺨﺩﺍﻡ ﺍﻟﻤﻌﺎﺩﻟﺔ ﺭﻗﻡ ) (56ﻓﻰ ﺍﻟﺸﻜل:
) δp j f j ( net p j ) ( tp j - Op j )(61
ﺍﺴﺘﺨﺩﺍﻡ ﻅﺎﻫﺭﺓ ﺍﻻﻨﺘﺸﺎﺭ ﺍﻟﺨﻠﻔﻰ ) (Back Propagationﻭﺫﻟﻙ (٢
ﺒﺘﻤﺭﻴـﺭ ﺍﻟﺨﻁﺄ ﺇﻟﻰ ﻋﻨﺼﺭ ﺍﻟﻁﺒﻘﺔ ﺍﻟﻤﺨﺘﻔﻴﺔ ﻭﺤﺴﺎﺏ ﺍﻷﻭﺯﺍﻥ ﻭﺘﻐﻴﻴﺭ
ﺍﻟﻘﻴﻡ ﻟﻬﺎ ﺒﺎﺴﺘﺨﺩﺍﻡ ﺍﻟﻤﻌﺎﺩﻟﺔ ) (60ﻭﺘﻜﻭﻥ ﻋﻠﻰ ﺍﻟﺸﻜل ﺍﻟﺘﺎﻟﻰ:
- ٧١ -
Back Propagation
ﻴـﺘﻡ ﺫﻟﻙ ﺒﺎﺴﺘﺨﺩﺍﻡ ﺩﺍﻟﺔ ﺤﺩﻴﺔ ﻤﻘﻁﻌﻴﺔ Sigmoid Threshold Functionﻭﻴﺘﻡ
)(1
ﺍﺘﺒﺎﻉ ﺍﻟﺨﻁﻭﺍﺕ ﺍﻟﺘﺎﻟﻴﺔ:
-١ﺒـﺩﺀ ﺍﻟﺘﻨـﺸﻴﻁ ﻟﻸﻭﺯﺍﻥ ﻭﺍﻟﻘﻴﻡ ﺍﻟﺤﺩﻴﺔ ﻭﻴﺘﻡ ﺫﻟﻙ ﺒﺎﺨﺘﻴﺎﺭ ﻗﻴﻡ ﻋﺸﻭﺍﺌﻴﺔ
ﺼﻐﻴﺭﺓ ﻟﻸﻭﺯﺍﻥ ﻭﺍﻟﻘﻴﻡ ﺍﻟﺤﺩﻴﺔ.
-٢ﺘﺤﺩﻴـﺩ ﻗـﻴﻡ ﺍﻟﻤﺩﺨل Inputﻭﺍﻟﻘﻴﻡ ﺍﻟﻤﻁﻠﻭﺒﺔ ﻋﻨﺩ ﺍﻟﻤﺨﺭﺝ desired
outputﻜﻤﺎ ﻴﻠﻰ:
ﻭﻀﻊ ﻗﻴﻡ ﺍﻟﻤﺩﺨل Xpﻓﻰ ﺍﻟﺸﻜل ﺍﻟﺘﺎﻟﻰ: )ﺃ(
Xp = x1 + x2 + x3 + ……… + xn-1 )(63
ﺤﻴﺙ ﺍﻟﺭﻗﻡ ) (nﻫﻭ ﻋﺩﺩ ﺍﻟﻌﻘﺩ ﻓﻰ ﻁﺒﻘﺔ ﺍﻟﻤﺩﺨل )(input nodes
ﻭﻀﻊ ﻗﻴﻤﺔ WOﻟﺘﻤﺜل ﺍﻟﻘﻴﻤﺔ ﺍﻻﻨﺤﻴﺎﺯﻴﺔ – θ )ﺏ(
ﻭﻀﻊ ﻗﻴﻤﺔ XOﻟﺘﻜﻭﻥ = ﺍﻟﻭﺍﺤﺩ ﺍﻟﺼﺤﻴﺢ. )ﺝ(
ﻭﻀﻊ ﻗﻴﻡ ﺍﻟﻤﺨﺭﺝ ﺍﻟﻤﻁﻠﻭﺏ Tpﺒﺎﻟﺼﻭﺭﺓ ﺍﻟﺘﺎﻟﻴﺔ: )ﺩ(
Tp = t0 + t1 + t2 + t3 + ………… + tm-1 )(64
ﺤﻴﺙ ﺍﻟﺭﻗﻡ ) (mﻫﻭ ﻋﺩﺩ ﺍﻟﻌﻘﺩ ﻓﻰ ﻁﺒﻘﺔ ﺍﻟﻤﺨﺭﺝ ).(output nodes
ﻭﻀﻊ ﺠﻤﻴﻊ ﻋﻨﺎﺼﺭ Tpﻤﺴﺎﻭﻴﺔ ﻟﻠﺼﻔﺭ ﻓﻴﻤﺎ ﻋﺩﺍ ﻋﻨﺼﺭ )ﻫـ(
ﻭﺍﺤﺩ ﻴﺴﺎﻭﻯ ﺍﻟﻭﺍﺤﺩ ﺍﻟﺼﺤﻴﺢ ﻭﺍﻟﺫﻯ ﻴﻘﺎﺒل ﺍﻟﻤﻁﻠﻭﺏ.
-٣ﺤﺴﺎﺏ ﺍﻟﻤﺨﺭﺝ ﺍﻟﻔﻌﻠﻰ Actualﻟﻜل ﻁﺒﻘﺔ ﻜﻤﺎ ﻴﻠﻰ:
)ﺃ( ﺤـﺴﺎﺏ ﻗﻴﻤﺔ ﺍﻟﻤﺨﺭﺝ Ypjﻟﻠﻁﺒﻘﺔ ﺍﻷﻭﻟﻰ ﻤﻥ ﻨﺎﺤﻴﺔ ﺍﻟﻤﺩﺨل
ﻓﻰ ﺍﻟﺸﻜل:
n
] Yp j = f [ Σ w i x i )(65
i=0
- ٧٢ -
)ﺏ( ﻴـﺘﻡ ﺍﺘﺨﺎﺫ ﻗﻴﻤﺔ ﺍﻟﻤﺨﺭﺝ Ypjﻟﻬﺫﻩ ﺍﻟﻁﺒﻘﺔ ﻜﻘﻴﻡ ﻟﻤﺩﺨل ﺍﻟﻁﺒﻘﺔ
ﺍﻟﺘـﻰ ﺘﻠـﻴﻬﺎ ﻭﻴﺘﻡ ﺘﻜﺭﺍﺭ ﺍﻟﻌﻤﻠﻴﺔ ﺤﺘﻰ ﻨﺼل ﻟﻠﻁﺒﻘﺔ ﺍﻷﺨﻴﺭﺓ
ﺤﻴﺙ ﺘﻜﻭﻥ ﻗﻴﻤﺔ ﺍﻟﻤﺨﺭﺝ ﻫﻭ .Opj
-٤ﻀﺒﻁ ﺍﻷﻭﺯﺍﻥ ):(Weights Adaptation
ﻭﻴـﺘﻡ ﺫﻟﻙ ﻓﻰ ﺍﻻﺘﺠﺎﻩ ﺍﻟﻌﻜﺴﻰ ﻤﻥ )ﻁﺒﻘﺔ ﺍﻟﻤﺨﺭﺝ ﺇﻟﻰ ﻁﺒﻘﺔ ﺍﻟﻤﺩﺨل( ﻜﻤﺎ
ﻴﻠﻰ:
ﻴﺠﺭﻯ ﺒﺩﺀ ﺘﻌﺩﻴل ﺍﻷﻭﺯﺍﻥ ﻜﻤﺎ ﻴﻠﻰ:
Wij (t+1) = wij (t) + ηδpj Opj )(66
ﺤـﻴﺙ ﺃﻥ ) wij (tﺘﻤـﺜل ﺍﻷﻭﺯﺍﻥ ﻤﻥ ﺍﻟﻌﻘﺩﺓ ﺃﻭ
ﺍﻟﻌﻨﺼﺭ iﺇﻟﻰ ﺍﻟﻌﻨﺼﺭ jﻋﻨﺩ ﺍﻟﺯﻤﻥ ).(t
(η)ﻫـﻭ ﻤﻌﺎﻤـل ﺍﻟﻜﺴﺏ δpj ،ﻫﻭ ﻤﻘﺩﺍﺭ ﺍﻟﺨﻁﺄ
ﻋﻨﺩ ﺍﻟﻌﻨﺼﺭ jﻭﺒﺫﻟﻙ ﻴﺼﺒﺢ ﺍﻟﺨﻁﺄ ﻟﻌﻨﺎﺼﺭ ﻁﺒﻘﺔ ﺍﻟﻤﺨﺭﺝ ﻜﻤﺎ ﻴﻠﻰ:
)δpj = K opj (1- Opj) (tpj – Opj )(67
ﻭﻟﻠﻁﺒﻘﺔ ﺍﻟﻤﺨﺘﻔﻴﺔ ﻜﻤﺎ ﻴﻠﻰ:
δpj = K opj (1- Opj) + Σ δpk wjk )(68
k
ﻫﻨﺎﻙ ﻤﻌﺎﻴﻴﺭ ﺇﺤﺼﺎﺌﻴﺔ ﻴﻤﻜﻥ ﺍﺴﺘﺨﺩﺍﻤﻬﺎ ﻟﻘﻴﺎﺱ ﺃﺩﺍﺀ ﺍﻟﺸﺒﻜﺔ ﺍﻟﻌﺼﺒﻴﺔ ﻟﻤﺠﻤﻭﻋﺔ ﻤﻥ
ﺍﻟﺒﻴﺎﻨﺎﺕ ﻭﻫﻰ ﻜﻤﺎ ﻴﻠﻰ:
:MSE )(١
ﻤﺘﻭﺴﻁ ﻤﺭﺒﻊ ﺍﻟﺨﻁﺄ ﻭﻴﻜﻭﻥ ﻋﻠﻰ ﺍﻟﺼﻭﺭﺓ
P N
d ij y ij
2
= MSE
j 0 i0
ﺤﻴﺙ :
= Pﻋﺩﺩ ﻋﻨﺎﺼﺭ ﺍﻟﺘﺸﻐﻴل ﻓﻰ ﻁﺒﻘﺔ ﺍﻟﻤﺨﺭﺝ.
- ٧٣ -
= Nﻋﺩﺩ ﺍﻟﻨﻤﺎﺫﺝ ﻓﻰ ﻤﺠﻤﻭﻋﺔ ﺍﻟﺒﻴﺎﻨﺎﺕ.
= yijﻤﺨﺭﺝ ﺍﻟﺸﺒﻜﺔ ﻟﻨﻤﻭﺫﺝ ﺍﻟﺒﻴﺎﻨﺎﺕ iﻋﻨﺩ ﻋﻨﺎﺼﺭ ﺍﻟﺘﺸﻐﻴل .j
= dijﺍﻟﻤﺨﺭﺝ ﺍﻟﻤﻁﻠﻭﺏ ﻟﻠﻨﻤﻭﺫﺝ iﻋﻨﺩ ﻋﻨﺎﺼﺭ ﺍﻟﺘﺸﻐﻴل .j
:NMSE )(٢
ﻤﺘﻭﺴﻁ ﻤﺭﺒﻊ ﺍﻟﺨﻁﺄ ﺍﻟﻁﺒﻴﻌﻰ ﻭﻴﺘﻡ ﺘﻌﺭﻴﻔﻪ ﻋﻠﻰ ﺍﻟﺼﻭﺭﺓ ﺍﻟﺘﺎﻟﻴﺔ:
PN * MSE
= NMSE
2
P N N
d ij2 d ij2
j 0 i 0 i 0
:% Error )(٣
ﻨﺴﺒﺔ ﺍﻟﺨﻁﺄ ﻴﻜﻭﻥ ﻋﻠﻰ ﺍﻟﺼﻭﺭﺓ ﺍﻟﺘﺎﻟﻴﺔ:
- ٧٤ -
: AIC )(٤
Akaike’s information criteria ﻤﻌﻴﺎﺭ
ﻭﻴﺴﺘﺨﺩﻡ ﻟﻘﻴﺎﺱ ﺍﻟﺘﻜﻠﻔﺔ ﻤﺎ ﺒﻴﻥ ﺃﺩﺍﺀ ﺍﻟﺘﺩﺭﻴﺏ ﻭﺤﺠﻡ ﺍﻟﺸﺒﻜﺔ ﻭﺍﻟﻬﺩﻑ ﻴﻜﻭﻥ ﻤﺤﺎﻭﻟﺔ
ﺘﻘﻠﻴل ﻫﺫﺍ ﺍﻟﺤﺩ ﻹﻨﺘﺎﺝ ﺸﺒﻜﺔ ﻴﻤﻜﻥ ﺃﻥ ﺘﻜﻭﻥ ﻟﻬﺎ ﺘﻌﻤﻴﻡ ﺃﻓﻀل.
AIC (K) = N Ln (MSE) + 2K
ﺤﻴﺙ :
= Kﻋﺩﺩ ﺍﻷﻭﺯﺍﻥ ﻓﻰ ﺍﻟﺸﺒﻜﺔ.
:MDL )(٥
ﻤﻌﻴﺎﺭ )Rissanen’s minimum description length (MDL
ﻭﻫﻭ ﻤﺸﺎﺒﻪ ﻟﻤﻌﻴﺎﺭ AICﻓﻰ ﻤﺤﺎﻭﻟﺔ ﺭﺒﻁ ﺨﻁﺄ ﺍﻟﻨﻤﻭﺫﺝ ﻤﻊ ﻋﺩﺩ ﺩﺭﺠﺎﺕ ﺍﻟﺤﺭﻴﺔ
ﻟﺘﺤﺩﻴﺩ ﻤﺴﺘﻭﻯ ﺍﻟﺘﻌﻤﻴﻡ ﻓﻰ ﺍﻟﺸﺒﻜﺔ ﻭﺃﻥ ﺍﻟﻬﺩﻑ ﻫﻭ ﻤﺤﺎﻭﻟﺔ ﺘﻘﻠﻴل ﻫﺫﺍ ﺍﻟﺤﺩ.
)MDL (K) = N ln (MSE) + 0.5 K ln (N
Sensitivity Analyses
ﺘﺤﻠﻴل ﺍﻟﺤﺴﺎﺴﻴﺔ ﻫﻭ ﺃﺴﻠﻭﺏ ﻴﻌﻤل ﻋﻠﻰ ﺇﻟﻘﺎﺀ ﺍﻟﻀﻭﺀ ﻋﻠﻰ ﺍﻟﻌﻼﻗﺎﺕ ﺒﻴﻥ ﺍﻟﻤﺩﺨﻼﺕ
ﻭﺍﻟﻤﺨـﺭﺠﺎﺕ ﻟﻠـﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﺤﻴﺙ ﺃﻨﻪ ﻴﻌﻤل ﻋﻠﻰ ﺇﻴﺠﺎﺩ ﻭﺍﺴﺘﺒﻌﺎﺩ ﺍﻟﻤﺩﺨﻼﺕ
ﺍﻟﻐﻴـﺭ ﻤﻨﺎﺴﺒﺔ ﻭﺒﺎﻟﺘﺎﻟﻲ ﻴﺅﺩﻱ ﺇﻟﻰ ﺘﻘﻠﻴل ﺘﻜﻠﻔﺔ ﺘﺠﻤﻴﻊ ﺍﻟﺒﻴﺎﻨﺎﺕ ،ﻜﻤﺎ ﺃﻨﻪ ﻓﻲ ﺒﻌﺽ
ﺍﻷﺤـﻴﺎﻥ ﻴﺅﺩﻱ ﺇﻟﻰ ﺭﻓﻊ ﺃﺩﺍﺀ ﺍﻟﺸﺒﻜﺔ ﺍﻟﻌﺼﺒﻴﺔ ﻭﻴﺘﻡ ﺘﻁﺒﻴﻕ ﺘﺤﻠﻴل ﺍﻟﺤﺴﺎﺴﻴﺔ ﻋﻠﻰ
ﺍﻟـﺸﺒﻜﺔ ﺍﻟﺘـﻲ ﺘﻡ ﺘﺩﺭﻴﺒﻬﺎ ﻟﻤﻌﺭﻓﺔ ﺘﺄﺜﻴﺭ ﻜل ﻤﺩﺨل ﻤﻥ ﻤﺩﺨﻼﺘﻬﺎ ﻋﻠﻰ ﺍﻟﻤﺨﺭﺠﺎﺕ
ﻭﺒﺎﻟﺘﺎﻟـﻲ ﻴﻭﻓﺭ ﻫﺫﺍ ﺍﻷﺴﻠﻭﺏ ﻤﻌﻠﻭﻤﺎﺕ ﻋﻥ ﺨﺭﻴﻁﺔ ﺍﻟﻤﺩﺨﻼﺕ ﺍﻷﻜﺜﺭ ﻤﻌﻨﻭﻴﺔ ﻤﻊ
ﺍﺴـﺘﺒﻌﺎﺩ ﺍﻟﻤﺩﺨﻼﺕ ﺍﻷﺨﺭﻯ ﻤﻤﺎ ﻴﻘﻠل ﻤﻥ ﺤﺠﻡ ﺍﻟﺸﺒﻜﺔ ﻭﻤﻥ ﺘﺭﻜﻴﺒﻬﺎ ﺍﻟﻤﻌﻘﺩ ﻭﻴﻘﻠل
ﺃﻴـﻀﺎﹰ ﻤـﻥ ﻋـﺩﺩ ﻤـﺭﺍﺕ ﺍﻟﺘﺩﺭﻴﺏ ﻭﺍﻟﻔﻜﺭﺓ ﺍﻷﺴﺎﺴﻴﺔ ﻟﻬﺫﺍ ﺍﻷﺴﻠﻭﺏ ﻫﻭ ﺇﺩﺨﺎل
ﺍﻟﻤﺩﺨﻼﺕ ﺒﻘﻴﻡ ﻤﺨﺘﻠﻔﺔ ﺼﻐﻴﺭﺓ ﻤﻭﺠﺒﺔ ﻭﺴﺎﻟﺒﺔ ﺒﺤﻴﺙ ﻴﻜﻭﻥ ﺍﻟﺘﺄﺜﻴﺭ ﺍﻟﻤﻨﺎﻅﺭ ﻟﻬﺎ ﻓﻲ
ﺍﻟﻤﺨﺭﺠﺎﺕ ﻫﻭ ﺒﻴﺎﻨﺎﺕ ﺍﻟﺤﺴﺎﺴﻴﺔ.
- ٧٥ -
ﺇﻥ ﻫـﻨﺎﻙ ﺍﻟﻌﺩﻴـﺩ ﻤﻥ ﺍﻟﻁﺭﻕ ﺍﻹﺤﺼﺎﺌﻴﺔ ﻟﻠﺘﻨﺒﺅ ﺒﺎﻟﻤﺴﺘﻘﺒل ﺇﻻ ﺃﻨﻪ ﺤﺩﺙ ﺘﻐﻴﻴﺭﺍﺕ
ﺠﺩﻴـﺩﺓ ﻋﻠـﻰ ﻫـﺫﻩ ﺍﻟﻁﺭﻕ ﺍﻟﺘﻘﻠﻴﺩﻴﺔ ﻭﺫﻟﻙ ﺒﺎﺴﺘﺨﺩﺍﻡ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﻭﺒﺎﻟﺭﻏﻡ
ﻤـﻥ ﺍﻷﺩﺍﺀ ﺍﻟﺠـﻴﺩ ﻟﻠﻁـﺭﻕ ﺍﻟﺘﻘﻠـﻴﺩﻴﺔ ﻟﻠﺴﻼﺴل ﺍﻟﺯﻤﻨﻴﺔ ﻓﻰ ﻋﻤﻠﻴﺔ ﺍﻟﺘﻨﺒﺅ ﺇﻻ ﺃﻥ
ﻫﻨﺎﻙ ﻗﻴﻭﺩ ﻋﻠﻰ ﻜﺜﻴﺭ ﻤﻨﻬﺎ ﺤﻴﺙ ﺃﻨﻪ ﺒﺩﻭﻥ ﺍﻟﺨﺒﺭﺓ ﻤﻥ ﺍﻟﻤﻤﻜﻥ ﻓﻘﺩ ﺍﻟﺘﻭﺼﻴﻑ ﻟﻠﺩﺍﻟﺔ
ﻤـﻥ ﺍﻟﻌﻼﻗـﺔ ﺒﻴﻥ ﺍﻟﻤﺘﻐﻴﺭﺍﺕ ﺍﻟﺘﺎﺒﻌﺔ ﻭﺍﻟﻤﻔﺴﺭﺓ ﻭﺃﻴﻀﺎﹰ ﺍﻟﻔﺸل ﻓﻰ ﻋﻤل ﺍﻟﺘﺤﻭﻴﻼﺕ
ﺍﻟﻬﺎﻤـﺔ ﻟﻠﺒﻴﺎﻨﺎﺕ ﻭﺃﻴﻀﺎﹰ ﻓﺈﻥ ﺍﻟﻤﺨﺭﺠﺎﺕ ) (Outliersﻴﻤﻜﻥ ﺃﻥ ﺘﺅﺩﻯ ﺇﻟﻰ ﺘﻘﺩﻴﺭﺍﺕ
ﻤﺘﺤﻴـﺯﺓ ﻟﻤﻌﻠﻤـﺎﺕ ﺍﻟﻨﻤﻭﺫﺝ ﻭﺃﻴﻀﺎﹰ ﻨﻤﺎﺫﺝ ﺍﻟﺴﻼﺴل ﺍﻟﺯﻤﻨﻴﺔ ﻏﺎﻟﺒﺎﹰ ﻤﺎ ﺘﻜﻭﻥ ﺨﻁﻴﺔ
ﻭﺒﺎﻟﺘﺎﻟـﻰ ﻻ ﻴﻤﻜﻨﻬﺎ ﺍﻟﺘﺤﻜﻡ ﻓﻰ ﺍﻟﺴﻠﻭﻙ ﺍﻟﻐﻴﺭ ﺨﻁﻰ ﻭﻴﻌﺘﻘﺩ ﺍﻟﻜﺜﻴﺭﻭﻥ ﺃﻥ ﺍﻟﺸﺒﻜﺎﺕ
ﺍﻟﻌـﺼﺒﻴﺔ ﺘﻜـﻭﻥ ﻗﺎﺩﺭﺓ ﻋﻠﻰ ﺤل ﻫﺫﻩ ﺍﻟﻘﻴﻭﺩ ﻋﻠﻰ ﺍﻟﺴﻼﺴل ﺍﻟﺯﻤﻨﻴﺔ ﺃﻭ ﻋﻠﻰ ﺍﻷﻗل
ﺘﻌﻤل ﻋﻠﻰ ﺘﻘﻠﻴﻠﻬﺎ.
ﻭﻫﺫﻩ ﺍﻟﻘﻴﻭﺩ ﻋﻠﻰ ﺍﻟﺴﻼﺴل ﺍﻟﺯﻤﻨﻴﺔ ﺍﻟﺘﻘﻠﻴﺩﻴﺔ ﺘﺭﺠﻊ ﺇﻟﻰ ﺍﻟﻁﺭﻴﻘﺔ ﺍﻟﺘﻰ ﻴﺘﻡ ﺒﻬﺎ ﺘﻘﺩﻴﺭ
ﻫﺫﻩ ﺍﻟﻨﻤﺎﺫﺝ ﺤﻴﺙ ﻴﻨﻘﺼﻬﺎ ﺍﻟﺘﻔﺎﻋل ﺍﻟﺒﺸﺭﻯ ﻭﺃﻴﻀﺎﹰ ﻻ ﻴﺤﺩﺙ ﻟﻬﺎ ﺯﻴﺎﺩﺓ ﺘﻌﻠﻡ ﺒﻭﺠﻭﺩ
ﺒـﻴﺎﻨﺎﺕ ﺠﺩﻴﺩﺓ ﻭﻟﻜﻥ ﻴﺠﺏ ﺇﻋﺎﺩﺓ ﺍﻟﺘﻘﻴﻴﻡ ﻓﻴﻬﺎ ﺩﻭﺭﻴﺎﹰ ﻭﺒﺎﻟﺘﺎﻟﻰ ﻓﺈﻥ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ
ﻴﻤﻜـﻨﻬﺎ ﺤـل ﻫـﺫﻩ ﺍﻟﻤﺸﺎﻜل ﻭﻫﺫﻩ ﺍﻟﻤﺸﻜﻼﺕ ﺩﻓﻌﺕ ﺇﻟﻰ ﺘﻘﻴﻴﻡ ﺍﺴﺘﺨﺩﺍﻡ ﺍﻟﺸﺒﻜﺎﺕ
ﺍﻟﻌـﺼﺒﻴﺔ ﻤـﻊ ﺍﻟـﺴﻼﺴل ﺍﻟﺯﻤﻨﻴﺔ ﻓﻰ ﻋﻤﻠﻴﺔ ﺍﻟﺘﻨﺒﺅ ﻭﺃﻴﻀﺎﹰ ﻓﺈﻥ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ
ﺘﻜـﻭﻥ ﻏﻴﺭ ﺨﻁﻴﺔ ﻓﻬﻰ ﺘﻘﻭﻡ ﺒﺘﻘﺩﻴﺭ ﺍﻟﺩﻭﺍل ﺍﻟﻐﻴﺭ ﺨﻁﻴﺔ ﺠﻴﺩﺍﹰ ﻭﺘﺴﺘﺨﺭﺝ ﻋﻨﺎﺼﺭ
ﻏﻴـﺭ ﺨﻁـﻴﺔ ﻤﺘﺒﻘﻴﺔ ﻭﺒﺎﻟﺘﺎﻟﻰ ﻓﺈﻥ ﺍﻷﺩﺍﺀ ﺍﻷﻓﻀل ﻟﻠﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﻋﻥ ﺍﻟﺴﻼﺴل
ﺍﻟـﺯﻤﻨﻴﺔ ﺍﻟﺘﻘﻠـﻴﺩﻴﺔ ﻴﺭﺠﻊ ﺇﻟﻰ ﻗﺩﺭﺘﻬﺎ ﻋﻠﻰ ﺍﻟﺘﺤﻜﻡ ﻓﻰ ﺍﻟﻌﻤﻠﻴﺎﺕ ﺍﻟﻐﻴﺭ ﻤﺘﺼﻠﺔ ﻜﻤﺎ
ﺘﻌﻤـل ﺍﻟـﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﺒﻜﻔﺎﺀﺓ ﺃﻋﻠﻰ ﻋﻨﺩﻤﺎ ﻴﻜﻭﻥ ﻫﻨﺎﻙ ﻋﺩﺩ ﻨﻘﺎﻁ ﻤﻥ ﺍﻟﺒﻴﺎﻨﺎﺕ
ﺍﻟﺘﺎﺭﻴﺨﻴﺔ.
ﻭﺃﻴـﻀﺎﹰ ﻋـﻨﺩ ﺍﺨﺘﻴﺎﺭ ﺍﻟﻤﻌﻤﺎﺭﻴﺔ ﺍﻟﻤﻨﺎﺴﺒﺔ ﻟﻠﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﻓﻬﺫﺍ ﻴﺅﺩﻯ ﺇﻟﻰ ﺘﻜﻭﻥ
ﻨﻤـﻭﺫﺝ ﻨﺎﺠﺢ ﻟﻠﺸﺒﻜﺔ ﺍﻟﻌﺼﺒﻴﺔ ﻭﻴﻌﺘﺒﺭ ﺃﺴﻠﻭﺏ ﺍﻻﻨﺘﺸﺎﺭ ﺍﻟﺨﻠﻔﻰ ﻟﻠﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ
ﻫـﻭ ﺍﻷﺴﻠﻭﺏ ﺍﻟﺸﺎﺌﻊ ﻓﻰ ﻤﺠﺎل ﺘﻨﺒﺅﺍﺕ ﺍﻟﺴﻼﺴل ﺍﻟﺯﻤﻨﻴﺔ ﻭﺫﻟﻙ ﻴﺭﺠﻊ ﺇﻟﻰ ﺴﻬﻭﻟﺔ
- ٧٦ -
ﺒـﻨﺎﺌﻪ ﻭﺍﻟﻘـﺩﺭﺓ ﻋﻠـﻰ ﺤل ﺍﻟﻤﺸﻜﻼﺕ ،ﻭﻋﻨﺩ ﺍﻟﺘﻨﺒﺅ ﺒﺴﻼﺴل ﺯﻤﻨﻴﺔ ﺇﺤﺼﺎﺌﻴﺔ ﻓﺈﻥ
ﻤﺩﺨﻼﺕ ﺃﺴﻠﻭﺏ ﺍﻻﻨﺘﺸﺎﺭ ﺍﻟﺨﻠﻔﻰ ﺘﻜﻭﻥ ﻤﺸﺎﻫﺩﺍﺕ ﻤﺎﻀﻴﺔ ﺫﺍﺕ ﻓﺘﺭﺓ ﺘﺄﺨﻴﺭ Past,
Laggedﻟﻠـﺴﻼﺴل ﺍﻟـﺯﻤﻨﻴﺔ ﻭﺍﻟﻤﺨـﺭﺠﺎﺕ ﻫـﻰ ﺍﻟﻘﻴﻡ ﺍﻟﻤﺴﺘﻘﺒﻠﻴﺔ ،ﻭﻋﻨﺩ ﺘﻁﺒﻴﻕ
ﺘﻜﻨﻭﻟﻭﺠـﻴﺎ ﺍﻟـﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻻﺼﻁﻨﺎﻋﻴﺔ ﻋﻠﻰ ﺍﻟﺴﻼﺴل ﺍﻟﺯﻤﻨﻴﺔ ﻓﺈﻥ ﻋﺩﺩ ﻋﻘﺩ
ﺍﻟﻤـﺩﺨﻼﺕ Input Nodesﺃﻯ ﺭﺘﺒﺔ ﺤﺩﻭﺩ ﺍﻻﻨﺤﺩﺍﺭ ﺍﻟﺫﺍﺘﻰ ﺘﺅﺜﺭ ﺒﺸﺩﺓ ﻋﻠﻰ ﺃﺩﺍﺀ
ﺍﻟﺘﻨﺒﺅ.
ﻭﺃﻴـﻀﺎﹰ ﻓـﺈﻥ ﻫﻨﺎﻙ ﺃﻫﻤﻴﺔ ﻟﻌﺩﺩ ﻋﻘﺩ ﺍﻟﻤﺩﺨﻼﺕ ﻓﻰ ﺘﺤﺩﻴﺩ ﺒﻨﺎﺌﻴﺔ ﻨﻤﻭﺫﺝ ﺍﻻﻨﺤﺩﺍﺭ
ﺍﻟﺫﺍﺘﻰ ﺨﻼل ﺍﻟﺴﻼﺴل ﺍﻟﺯﻤﻨﻴﺔ ﺤﺘﻰ ﺃﻨﻬﺎ ﺘﺼﻑ ﺒﺩﻗﺔ ﺍﻻﺭﺘﺒﺎﻁ ﺒﻴﻥ ﺍﻟﻤﺸﺎﻫﺩﺍﺕ ﺫﺍﺕ
ﻓﺘﺭﺍﺕ ﺍﻟﺘﺄﺨﻴﺭ ﻭﺒﻴﻥ ﺍﻟﻘﻴﻡ ﺍﻟﻤﺴﺘﻘﺒﻠﻴﺔ.
- ٧٧ -
ﺘﻨﺎﻭل ﺍﻟﺒﺎﺏ ﺍﻟﺜﺎﻟﺙ ﺍﻟﺘﺤﻠﻴل ﺍﻹﺤﺼﺎﺌﻲ ﻟﻠﺴﻼﺴل ﺍﻟﺯﻤﻨﻴﺔ ﺒﺎﺴﺘﺨﺩﺍﻡ ﺃﺴﻠﻭﺏ ﺒﻭﻜﺱ
– ﺠﻴﻨﻜﻨﺯ ﺤﻴﺙ ﺘﻨﺎﻭل ﺘﻌﺭﻴﻑ ﺍﻟﺴﻼﺴل ﺍﻟﺯﻤﻨﻴﺔ ﻭﺃﻫﻤﻴﺘﻬﺎ ﻭﺃﻨﻭﺍﻋﻬﺎ ﻭﺍﻷﺴﺱ
ﺍﻟﻌﺎﻤﺔ ﻟﻠﺘﺤﻠﻴل ﺍﻹﺤﺼﺎﺌﻲ ﻟﻬﺎ.
ﻜﻤﺎ ﺘﻨﺎﻭل ﺃﻴﻀﺎﹰ ﺍﻟﺘﺤﻠﻴل ﺍﻹﺤﺼﺎﺌﻲ ﻟﻠﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻻﺼﻁﻨﺎﻋﻴﺔ ﺤﻴﺙ ﺘﻨﺎﻭل
ﻓﻜﺭﺓ ﻋﻤل ﺍﻟﺸﺒﻜﺎﺕ ﻭﻜﻴﻔﻴﺔ ﻤﺤﺎﻜﺎﺘﻬﺎ ﻟﻌﻤل ﺍﻟﻤﺦ ﺍﻟﺒﺸﺭﻱ ﻭﺍﻟﻤﻜﻭﻨﺎﺕ ﺍﻷﺴﺎﺴﻴﺔ
ﻟﺩﺍﻟﺔ ﺍﻟﺘﺸﻐﻴل ﻭﺃﻴﻀﺎﹰ ﻋﺭﺽ ﻟﻠﻨﻤﺎﺫﺝ ﺍﻟﺭﻴﺎﻀﻴﺔ ﺍﻟﻤﺨﺘﻠﻔﺔ ﻟﻁﺭﻴﻘﺔ ﻋﻤل ﺍﻟﺨﻠﻴﺔ
Back ﺍﻟﻌﺼﺒﻴﺔ ،ﻜﻤﺎ ﺘﻨﺎﻭل ﺃﻴﻀﺎﹰ ﺘﻭﻀﻴﺢ ﻷﺴﻠﻭﺏ ﺍﻻﻨﺘﺸﺎﺭ ﺍﻟﺨﻠﻘﻲ
Propagationﻜﺄﺴﻠﻭﺏ ﻟﺘﻌﻠﻴﻡ ﺍﻟﺸﺒﻜﺎﺕ ﻤﺘﻌﺩﺩﺓ ﺍﻟﻁﺒﻘﺎﺕ ﺜﻡ ﺘﻭﻀﻴﺢ ﻤﻘﺎﻴﻴﺱ
ﺍﻷﺩﺍﺀ ﻟﻠﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﻭﺘﺤﻠﻴل ﺍﻟﺤﺴﺎﺴﻴﺔ ﻭﻜﻴﻔﻴﺔ ﺍﺴﺘﺨﺩﺍﻤﻪ ﻓﻲ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ
ﻭﺃﺨﻴﺭﺍﹰ ﺍﺴﺘﺨﺩﺍﻤﺎﺕ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﻓﻲ ﺍﻟﺴﻼﺴل ﺍﻟﺯﻤﻨﻴﺔ ﻭﺍﻟﺒﺎﺏ ﺍﻟﺘﺎﻟﻲ ﺴﻭﻑ
ﻴﺘﻨﺎﻭل ﺍﻟﺘﻁﺒﻴﻕ ﺍﻟﻌﻤﻠﻲ ﻷﺴﻠﻭﺏ ﺘﺤﻠﻴل ﺍﻟﺴﻼﺴل ﺍﻟﺯﻤﻨﻴﺔ ﻤﻊ ﻭﺒﺩﻭﻥ ﺍﻟﻤﺘﻐﻴﺭﺍﺕ
ﺍﻟﻤﻔﺴﺭﺓ ﻭﺃﻴﻀﺎﹰ ﺍﻟﺘﻁﺒﻴﻕ ﺍﻟﻌﻤﻠﻲ ﻷﺴﻠﻭﺏ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ.
- ٧٨ -