Download as pdf or txt
Download as pdf or txt
You are on page 1of 32

‫‪‬‬

‫ﺃﻭﻻﹰ ‪ :‬ﺍﻟﻤﻘﺩﻤﺔ‬

‫ﺜﺎﻨﻴﺎﹰ ‪ :‬ﻓﻜﺭﺓ ﻋﻤل ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ‬

‫ﺜﺎﻟﺜﺎﹰ ‪ :‬ﺍﻟﻬﻴﻜل ﺍﻟﻌﺎﻡ ﻟﺘﺸﻐﻴل ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﻭﺍﻟﻤﻜﻭﻨﺎﺕ ﺍﻷﺴﺎﺴﻴﺔ ﻟﺩﺍﻟﺔ ﺍﻟﺘﺸﻐﻴل‪.‬‬

‫ﺭﺍﺒﻌﺎﹰ ‪ :‬ﺍﻟﻨﻤﺎﺫﺝ ﺍﻟﺭﻴﺎﻀﻴﺔ ﻟﻁﺭﻴﻘﺔ ﻋﻤل ﺍﻟﺨﻠﻴﺔ ﺍﻟﻌﺼﺒﻴﺔ‪.‬‬

‫ﺨﺎﻤﺴﺎﹰ ‪ :‬ﺍﻟﻨﻤﻭﺫﺝ ﻤﺘﻌﺩﺩ ﺍﻟﻁﺒﻘﺎﺕ ﻭﺃﺴﻠﻭﺏ ﺍﻻﻨﺘﺸﺎﺭ ﺍﻟﺨﻠﻔﻰ‪.‬‬

‫ﺴﺎﺩﺴﺎﹰ ‪ :‬ﻤﻘﺎﻴﻴﺱ ﺍﻷﺩﺍﺀ ﻟﻠﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ‪.‬‬

‫ﺴﺎﺒﻌﺎﹰ ‪ :‬ﺍﺴﺘﺨﺩﺍﻡ ﺃﺴﻠﻭﺏ ﺘﺤﻠﻴل ﺍﻟﺤﺴﺎﺴﻴﺔ ﻤﻊ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ‪.‬‬

‫ﺜﺎﻤﻨﺎﹰ ‪ :‬ﺍﺴﺘﺨﺩﺍﻡ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﻓﻰ ﺍﻟﺴﻼﺴل ﺍﻟﺯﻤﻨﻴﺔ‪.‬‬


‫‪‬‬
‫‪‬‬
‫ﺘﻌﺘﺒـﺭ ﺘﻘﻨـﻴﺎﺕ ﺍﻟـﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﺃﺤﺩ ﻓﺭﻭﻉ ﺍﻟﺫﻜﺎﺀ ﺍﻻﺼﻁﻨﺎﻋﻰ‪ ،‬ﺍﻟﺫﻯ ﺃﺤﺩﺙ‬
‫ﺘﻁـﻭﺭ‪‬ﺍ ﻓـﻰ ﻁﺭﻴﻘﺔ ﻤﻴﻜﻨﺔ ﺍﻟﻔﻜﺭ ﺍﻟﺒﺸﺭﻯ‪ .‬ﻭﺘﹸﺒﻨﻰ ﻓﻜﺭﺓ ﺘﻘﻨﻴﺎﺕ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ‬
‫ﻋﻠـﻰ ﻤﺤﺎﻭﻟﺔ ﻤﺤﺎﻜﺎﺓ ﻋﻤل ﺍﻟﻤﺦ ﺍﻟﺒﺸﺭﻯ ﻭﻫﻰ ﻋﺒﺎﺭﺓ ﻋﻥ ﻤﺠﻤﻭﻋﺔ ﻤﻥ ﺍﻟﻭﺴﺎﺌل‬
‫ﺍﻟﺭﻴﺎﻀـﻴﺔ ﺍﻟﺘـﻰ ﺘﻘﻭﻡ ﺒﺄﺩﻕ ﺍﻟﻭﻅﺎﺌﻑ ﺒﻨﻔﺱ ﺇﺠﺭﺍﺀﺍﺕ ﺍﻟﻨﻅﺎﻡ ﺍﻟﺒﻴﻭﻟﻭﺠﻰ ﻟﻺﻨﺴﺎﻥ‪.‬‬
‫ﻭﺘﺤـﺘﻭﻯ ﺍﻟـﺸﺒﻜﺔ ﺍﻟﻌﺼﺒﻴﺔ ﻓﻰ ﺍﻹﻨﺴﺎﻥ ﻋﻠﻰ ﺒﻼﻴﻴﻥ ﺍﻟﺨﻼﻴﺎ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻟﻨﻴﻭﺭﻭﻨﺎﺕ‬
‫ﻭﻫـﺫﻩ ﺍﻟﺨﻼﻴـﺎ ﺍﻟﻌﺼﺒﻴﺔ ﻤﺘﺼﻠﺔ ﻤﻊ ﺒﻌﻀﻬﺎ ﺍﻟﺒﻌﺽ ﺤﻴﺙ ﺘﻘﻭﻡ ﺍﻷﻟﻴﺎﻑ ﺍﻟﻌﺼﺒﻴﺔ‬
‫ﻟﻤـﺩﺍﺨل ﻫـﺫﻩ ﺍﻟﺨﻼﻴـﺎ ﺒﺎﺴﺘﻘﺒﺎل ﻭﺤﻤل ﺍﻟﻨﺒﻀﺎﺕ ﺍﻟﺘﻰ ﺘﺭﺴﻠﻬﺎ ﺍﻟﻤﺨﺎﺭﺝ ﻭﻴﻜﻭﻥ‬
‫)‪(1‬‬
‫ﺍﻟﺘﺭﻜﻴﺏ ﺍﻟﻤﺒﺴﻁ ﻟﻠﻭﺤﺩﺓ ﺍﻟﻌﺼﺒﻴﺔ ﻭﻫﻰ ﺍﻟﻨﻴﺭﻭﻥ ‪ Neuron‬ﻜﻤﺎ ﻴﻠﻰ‪:‬‬
‫‪ (١‬ﺠﺴﻡ ﺍﻟﺨﻠﻴﺔ ‪.Soma‬‬
‫‪ (٢‬ﺍﻷﻟـﻴﺎﻑ ﺍﻟﻌـﺼﺒﻴﺔ ﺍﻟﻤﺘـﺼﻠﺔ ﺒﺠﺴﻡ ﺍﻟﻨﻴﺭﻭﻥ ﻋﻨﺩ ﺍﻟﻤﺩﺨل ﻭﺍﻟﺘﻰ ﺘﻌﺭﻑ‬
‫ﺒﺎﻷﻟﻴﺎﻑ ﺍﻟﻌﺼﺒﻴﺔ ﻟﻠﻤﺩﺨل ‪.Dendrites‬‬
‫‪ (٣‬ﻴﻘـﻭﻡ ﺠﺴﻡ ﺍﻟﺨﻠﻴﺔ ﺒﻌﻤل ﻋﻤﻠﻴﺔ ﻜﻴﻤﺎﺌﻴﺔ ﻤﻌﻘﺩﺓ ﻴﻤﻜﻥ ﺍﻋﺘﺒﺎﺭﻫﺎ ﻤﻥ ﺍﻟﻨﺎﺤﻴﺔ‬
‫ﺍﻟﻜﻬﺭﺒﻴﺔ ﺍﻟﻤﺠﻤﻭﻉ ﺍﻟﻜﻠﻰ ﻟﻘﻴﻡ ﺍﻟﻨﺒﻀﺎﺕ ﻋﻨﺩ ﺍﻟﻤﺩﺨل‪.‬‬
‫‪ (٤‬ﻴﺘـﺼل ﺒﺠـﺴﻡ ﺍﻟﺨﻠـﻴﺔ ﻟﻴﻔﺔ ﻋﺼﺒﻴﺔ ﻭﺍﺤﺩﺓ ﻋﻨﺩ ﺍﻟﻤﺨﺭﺝ ﺘﹸﻌﺭﻑ ﺒﺎﻟﻠﻴﻔﺔ‬
‫ﺍﻟﻌـﺼﺒﻴﺔ ﻟﻠﻤﺨـﺭﺝ ‪ .Axon‬ﻭﻫـﻰ ﻨـﺸﻁﺔ ﻜﻬﺭﺒﺎﺌﻴ‪‬ﺎ ﻭﺘﻌﺘﺒﺭ ﻻ ﺨﻁﻴﺔ‬
‫ﺍﻟﺘـﺼﺭﻑ ﻭﺘﻌﻁﻰ ﻨﺒﻀﺔ ﻜﻬﺭﺒﺎﺌﻴﺔ ﺫﺍﺕ ﻤﺩﻯ ﺯﻤﻨﻰ ﻴﺒﻠﻎ ﻭﺍﺤﺩ ﻤﻠﻠﻰ ﺜﺎﻨﻴﺔ‬
‫ﺘﹸﻌﺭﻑ ﺒﻨﺒﻀﺔ ﺠﻬﺩ ﺍﻟﻌﻤل )‪ .Action Potential(2‬ﻭﺫﻟﻙ ﺇﺫﺍ ﺍﺭﺘﻔﻊ ﺍﻟﺠﻬﺩ‬
‫ﺍﻟﺩﺍﺨﻠﻰ ﻟﺠﺴﻡ ﺍﻟﻨﻴﺭﻭﻥ ﻋﻥ ﻗﻴﻤﺔ ﺍﻟﺠﻬﺩ ﺍﻟﺤﺩﻯ ﺍﻟﻤﻌﻴﻥ ﻭﺫﻟﻙ ﻨﺘﻴﺠﺔ ﻟﻌﻤﻠﻴﺔ‬
‫ﺍﻟﺠﻤﻊ ﺍﻟﻠﺤﻅﻰ ﻟﻠﻨﺒﻀﺎﺕ ﺍﻵﺘﻴﺔ ﻤﻥ ﺍﻷﻟﻴﺎﻑ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻟﻤﺘﺼﻠﺔ ﺒﺎﻟﻤﺩﺨل‪.‬‬

‫ﻤﺤﻤـﺩ ﻋﻠـﻰ ﺍﻟـﺸﺭﻗﺎﻭﻯ‪" ،‬ﺍﻟـﺫﻜﺎﺀ ﺍﻻﺼـﻁﻨﺎﻋﻰ ﻭﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ"‪ ،‬ﻤﺭﻜﺯ ﺍﻟﺫﻜﺎﺀ‬ ‫)‪(1‬‬

‫ﺍﻻﺼﻁﻨﺎﻋﻰ ﻟﻠﺤﺎﺴﺒﺎﺕ ‪ ،‬ﺒﺩﻭﻥ ﻨﺎﺸﺭ ‪ ،‬ﺒﺩﻭﻥ ﺴﻨﺔ‪.‬‬


‫)‪(2‬‬
‫‪Gurney Kevin, “Computers and Symbols versus Nets and‬‬
‫‪Neurons”, UCL Press limited, UK, 2003.‬‬

‫‪- ٤٨ -‬‬
‫‪ (٥‬ﺘﻨﺘﻬـﻰ ﺍﻟﻠﻴﻔﺔ ﺍﻟﻌﺼﺒﻴﺔ ﻟﻠﻤﺨﺭﺝ ﺒﻤﺸﺒﻙ ﺍﻟﺘﻭﺼﻴل ‪ Synapse‬ﻭﺍﻟﺫﻯ ﻴﺭﺒﻁ‬
‫ﺒـﻴﻥ ﺍﻟﻠـﻴﻔﺔ ﺍﻟﻌـﺼﺒﻴﺔ ﻟﻠﻤﺨﺭﺝ ﻤﻊ ﺍﻟﻠﻴﻔﺔ ﺍﻟﻌﺼﺒﻴﺔ ﻟﻠﻤﺩﺨل ﻟﻨﻴﺭﻭﻥ ﺁﺨﺭ‬
‫ﺒﺎﺴـﺘﺨﺩﺍﻡ ﺍﻟﺘﺭﺍﺒﻁ ﺍﻟﻜﻴﻤﻴﺎﺌﻰ ‪ Chemical Coupling‬ﺤﻴﺙ ﻴﻘﻭﻡ ﺍﻟﻤﺸﺒﻙ‬
‫ﺒـﺈﻁﻼﻕ ﻤﻭﺍﺩ ﻜﻴﻤﻴﺎﺌﻴﺔ ﺘﺴﻤﻰ ﺍﻟﻤﺭﺴﻼﺕ ﺍﻟﻌﺼﺒﻴﺔ ‪Neurotransmitter‬‬
‫ﻭﺫﻟـﻙ ﻋـﻨﺩﻤﺎ ﻴـﺭﺘﻔﻊ ﺠﻬﺩﻩ ﻨﺘﻴﺠﺔ ﻟﻠﻨﺒﻀﺔ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻟﺨﺎﺭﺠﺔ ﻤﻥ ﺍﻟﻠﻴﻔﺔ‬
‫ﺍﻟﻌﺼﺒﻴﺔ ﻟﻠﻤﺨﺭﺝ‪.‬‬
‫‪ (٦‬ﻴﻘـﻭﻡ ﺍﻟﻤﺸﺒﻙ ﺒﺈﻁﻼﻕ ﺍﻟﻤﺭﺴﻼﺕ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻟﺘﻰ ﺘﻨﺘﺸﺭ ﻜﻴﻤﻴﺎﺌﻴ‪‬ﺎ ﻤﻥ ﺨﻼل‬
‫ﺍﻟﻔﺠـﻭﺓ ﺒﻴـﻨﻪ ﻭﺒﻴﻥ ﺍﻟﻠﻴﻔﺔ ﺍﻟﻌﺼﺒﻴﺔ ﻟﻤﺩﺨل ﻨﻴﺭﻭﻥ ﺁﺨﺭ ﺤﻴﺙ ﺘﻘﻭﻡ ﺒﺘﻐﻴﻴﺭ‬
‫ﺍﻟﺠﻬﺩ ﻟﻬﺎ ﻭﺘﻨﺸﻴﻁﻬﺎ ﻟﻴﺼﺒﺢ ﻫﺫﺍ ﺍﻟﺠﻬﺩ ﺃﺤﺩ ﺍﻟﻤﺩﺍﺨل ﻟﻠﻨﻴﺭﻭﻥ ﺍﻷﺨﻴﺭ‪.‬‬
‫‪ (٧‬ﻭﻴﻭﻀﺢ ﺍﻟﺸﻜل ﺍﻟﺘﺎﻟﻰ ﺍﻟﺠﻬﺩ ﻋﻨﺩ ﺍﻟﻤﺩﺨل ﻜﺩﺍﻟﺔ ﻓﻰ ﺍﻟﺯﻤﻥ‪:‬‬

‫ﻤﺸﺒﻙ ﺍﻟﺘﻭﺼﻴل ‪Synapse‬‬


‫ﺍﻟﻠﻴﻔﺔ‬
‫ﺍﻟﻠﻴﻔﺔ ﺍﻟﻌﺼﺒﻴﺔ ﻟﻠﻤﺨﺭﺝ )‪(Axon‬‬ ‫ﺍﻟﻌﺼﺒﻴﺔ‬
‫ﻟﻠﻤﺩﺨل‬
‫‪Dendrites‬‬

‫ﺍﻟﻤﺭﺴﻼﺕ ﺍﻟﻌﺼﺒﻴﺔ‬
‫ﺍﻟﻤﺴﺘﻘﺒﻼﺕ‬

‫ﺸﻜل ﺭﻗﻡ )‪ :(١ – ٣‬ﺍﻟﺠﻬﺩ ﻋﻨﺩ ﺍﻟﻤﺩﺨل ﻜﺩﺍﻟﺔ ﻓﻲ ﺍﻟﺯﻤﻥ‬


‫ﻭﻴﻭﻀـﺢ ﺍﻟـﺸﻜل ﺍﻟﺴﺎﺒﻕ ﺃﻥ ﺍﻟﻤﺸﺒﻙ ﻴﻘﻭﻡ ﺒﺈﻁﻼﻕ ﺍﻟﻤﺭﺴﻼﺕ ﺍﻟﻌﺼﺒﻴﺔ ‪Neuro-‬‬
‫‪ transmitters‬ﺇﻟـﻰ ﺍﻟﻤـﺴﺘﻘﺒﻼﺕ ﺍﻟﻤﻨﺘـﺸﺭﺓ ‪ Receptors‬ﻋﻠﻰ ﺍﻟﻠﻴﻔﺔ ﺍﻟﻌﺼﺒﻴﺔ‬
‫ﺍﻷﺨـﺭﻯ ﻭﺍﻟﺘـﻰ ﺘﻌﻤـل ﻜﺒﻭﺍﺒﺎﺕ ﻭﺒﺫﻟﻙ ﻴﺘﺤﺩﺩ ﺍﻻﺭﺘﺒﺎﻁ ﺒﻌﺩﺩ ﺍﻟﺒﻭﺍﺒﺎﺕ ﺍﻟﻤﺴﺘﻘﺒﻠﺔ‬
‫ﺍﻟﻨـﺸﻁﺔ‪ .‬ﻭﻴﻤﻜـﻥ ﺍﻟﻘﻭل ﺃﻥ ﻗﻴﻤﺔ ﺍﻻﺭﺘﺒﺎﻁ ﺍﻟﻤﺅﺜﺭ‪ Effective Coupling‬ﻟﻜل‬
‫ﻤـﺸﺒﻙ ﺘﺨـﺘﻠﻑ ﻤـﻥ ﻓﺠﻭﺓ ﻷﺨﺭﻯ ﻭﺃﻥ ﻋﻤﻠﻴﺔ ﻀﺒﻁ ﺍﻟﻘﻴﻡ ﺍﻟﻤﺨﺘﻠﻔﺔ ﺍﻟﺘﻰ ﺘﻌﻁﻰ‬
‫ﺍﻻﺘـﺼﺎل ﺍﻟﻤﻁﻠﻭﺏ ﻫﻰ ﺒﻤﺜﺎﺒﺔ ﺘﺤﺩﻴﺩ ﺍﻷﻭﺯﺍﻥ ﺭﻴﺎﻀﻴ‪‬ﺎ ‪.Weight Adjustment‬‬

‫‪- ٤٩ -‬‬
‫ﻭﺒﺎﻟﺘﺎﻟـﻰ ﻴﻤﻜﻥ ﺍﻋﺘﺒﺎﺭ ﺍﻟﻨﻴﺭﻭﻥ ﻜﻌﻨﺼﺭ ﻤﻌﺎﻟﺠﺔ ﻤﺴﺘﻘل ‪Processing Element‬‬
‫ﻭﺃﻥ ﻫـﺫﻩ ﺍﻟﻤﻌﺎﻟﺠـﺎﺕ ﺍﻟﻤﺴﺘﻘﻠﺔ ﺘﻌﻤل ﻋﻠﻰ ﺍﻟﺘﻭﺍﺯﻯ ﻭﺃﻥ ﻋﻤﻠﻴﺔ ﺍﻟﺘﻌﻠﻡ ﻤﺎ ﻫﻰ ﺇﻻ‬
‫ﻀـﺒﻁ ﻟﻘـﻴﻡ ﺍﻷﻭﺯﺍﻥ ﻋﻨﺩ ﺍﻟﻤﺩﺍﺨل ﻟﻬﺫﻩ ﺍﻟﻤﻌﺎﻟﺠﺎﺕ ﻭﺍﻟﺘﻰ ﺘﺘﻡ ﻋﻠﻰ ﻋﺩﺓ ﺩﻭﺭﺍﺕ‬
‫ﺘﻌﺭﻑ ﺒﺩﻭﺭﺍﺕ ﺍﻟﺘﻌﻠﻡ ﺇﻟﻰ ﺃﻥ ﻴﺘﻡ ﺍﻟﻀﺒﻁ ﺍﻟﻨﻬﺎﺌﻰ ﺍﻟﻤﻁﻠﻭﺏ‪.‬‬
‫ﻭﻗـﺩ ﺘـﻡ ﺘﻁﻭﻴـﺭ ﻨﻤﻭﺫﺝ ﻋﻨﺼﺭ ﺤﺴﺎﺒﻰ ‪ Processing Element‬ﻤﻜﺎﻓﺊ ﻟﻬﺫﺍ‬
‫ﺍﻟﻨﻴـﺭﻭﻥ ﻭﺍﻟﺫﻯ ﻴﻤﺜل ﻋﻨﺼﺭ ﺍﻟﻤﻌﺎﻟﺠﺔ ﺍﻟﺫﻯ ﻴﻘﻭﻡ ﺒﻌﻤل ﻤﺤﺎﻜﺎﺓ ﻟﻠﻨﻴﺭﻭﻥ ﺍﻟﻁﺒﻴﻌﻰ‬
‫ﻤـﻥ ﺘﺠﻤـﻴﻊ ﻟﻺﺸـﺎﺭﺍﺕ ﺍﻟﻤﺭﺠﺤﺔ ﻋﻨﺩ ﺍﻟﻤﺩﺨل ﺜﻡ ﻤﻘﺎﺭﻨﺔ ﺍﻟﻤﺠﻤﻭﻉ ﺒﻘﻴﻤﺔ ﺤﺩﻴﺔ‬
‫)‪(1‬‬
‫ﺤﻴﺙ ﻴﻌﻁﻰ ﻋﻨﺼﺭ ﺍﻟﻤﻌﺎﻟﺠﺔ ﻨﺒﻀﺘﻪ ﻓﻰ ﺍﻟﻤﺨﺭﺝ ﺇﺫﺍ ﺯﺍﺩ‬ ‫ﺩﺍﺨﻠـﻴﺔ ‪Threshold‬‬
‫ﺍﻟﻤﺠﻤـﻭﻉ ﻋـﻥ ﺍﻟﻘﻴﻤﺔ ﺍﻟﺤﺩﻴﺔ ﻭﻻ ﻴﻌﻁﻰ ﺃﻯ ﻨﺒﻀﺎﺕ ﺇﺫﺍ ﻜﺎﻨﺕ ﺃﻗل ﻤﻨﻬﺎ‪ .‬ﻭﻗﺩ ﺘﻡ‬
‫)‪(2‬‬
‫ﺍﺴﺘﺨﺩﺍﻡ ﻋﻨﺎﺼﺭ ﺍﻟﻤﻌﺎﻟﺠﺔ ﻫﺫﻩ ﻓﻰ ﺒﻨﺎﺀ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻻﺼﻁﻨﺎﻋﻴﺔ‪.‬‬

‫ﺍﻟﻤﺩﺨل‬ ‫‪Output‬‬
‫‪Σ F‬‬
‫ﺍﻟﻤﺨﺭﺝ‬

‫ﺍﻟﻤﺠﻤﻭﻉ‬ ‫ﺩﺍﻟﺔ ﺤﺩﻴﺔ‬

‫ﺸﻜل ﺭﻗﻡ )‪ :(٢ – ٣‬ﻋﻨﺼﺭ ﻤﻌﺎﻟﺠﺔ ‪Processing Element‬‬


‫ﻭﺘﺸﺘﺭﻙ ﻤﻌﻅﻡ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻻﺼﻁﻨﺎﻋﻴﺔ ﻓﻴﻤﺎ ﻴﻠﻰ‪:‬‬
‫ﺍﻟﺘﻤﺜﻴل ﺍﻟﻤﻭﺯﻉ ‪Distributed Representation‬‬ ‫‪-١‬‬
‫‪Local Processing‬‬ ‫ﺍﻟﻤﻌﺎﻟﺠﺔ ﺍﻟﻤﺤﻠﻴﺔ‬ ‫‪-٢‬‬
‫‪Non-Linear Processing‬‬ ‫ﺍﻟﻤﻌﺎﻟﺠﺔ ﺍﻟﻼ ﺨﻁﻴﺔ‬ ‫‪-٣‬‬

‫)‪(1‬‬
‫‪Schal Koff, Robert J., “Artificial Neural Networks”, McGrw-Hill‬‬
‫‪Cmopanies, Inc, 1997.‬‬
‫)‪(2‬‬
‫‪Waner Brad and MISRA Manavendra, “Understanding Neural‬‬
‫‪Networks as Statistical Tools”, American Statistician, November,‬‬
‫‪Vol. 50, N. 4, 1996.‬‬

‫‪- ٥٠ -‬‬
‫)‪(1‬‬
‫‪‬‬
‫ﺍﻟـﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻹﺼﻁﻨﺎﻋﻴﺔ ﺇﻤﺎ ﺃﻥ ﺘﻜﻭﻥ ﺸﺒﻜﺔ ﻤﻜﻭﻨﺔ ﻤﻥ ﻁﺒﻘﺘﻴﻥ ﺫﺍﺕ ﺘﻐﺫﻴﺔ‬
‫ﻓـﻰ ﺍﻻﺘﺠـﺎﻩ ﺍﻷﻤﺎﻤـﻰ )‪ (Feed Forward‬ﻭﺸﺒﻜﺔ ﻤﻜﻭﻨــﺔ ﻤﻥ ﻁﺒﻘﺘﻴﻥ ﻓﻰ‬
‫ﺍﻻﺘﺠﺎﻩ ﺍﻷﻤـﺎﻤﻰ ﻭﺍﻟﻌـﻜﺴﻰ)‪(Feed Backward - Feed Forward‬‬
‫‪(Lateral‬‬ ‫ﻭﺸـﺒﻜﺔ ﻤﻜـﻭﻨﺔ ﻤﻥ ﻁﺒﻘــﺔ ﻭﺍﺤــﺩﺓ ﺫﺍﺕ ﺘﻐﺫﻴﺔ ﻋﻜﺴﻴﺔ ﺠﺎﻨﺒﻴﺔ‬
‫)‪ Feed Back‬ﻭﺍﻟﺸﺒﻜﺔ ﺍﻟﻤﺘﻌﺩﺩﺓ ﺍﻟﻁﺒﻘﺎﺕ )‪.(Multi layer‬‬
‫‪ ‬ﺸـﺒﻜﺔ ﻤﻜـﻭﻨﺔ ﻤﻥ‬
‫ﺍﻟﻤﺨﺭﺝ‬ ‫‪output‬‬
‫‪B1‬‬ ‫‪B2‬‬ ‫‪B3‬‬ ‫ﻁﺒﻘﺘـﻴﻥ ﺫﺍﺕ ﺘﻐﺫﻴﺔ ﻓﻰ‬
‫ﺍﻻﺘﺠﺎﻩ ﺍﻷﻤﺎﻤﻰ‬
‫‪A1‬‬ ‫‪A2‬‬ ‫‪A3‬‬ ‫)‪.(Feed Forward‬‬

‫‪input‬‬ ‫ﺍﻟﻤﺩﺨل‬

‫ﺸﻜل ﺭﻗﻡ )‪ :(٣– ٣‬ﺸﺒﻜﺔ ﺫﺍﺕ ﻁﺒﻘﺘﻴﻥ ﺫﺍﺕ ﺘﻐﺫﻴﺔ‬


‫ﻓﻲ ﺍﻻﺘﺠﺎﻩ ﺍﻷﻤﺎﻤﻲ‬
‫‪ ‬ﺸـﺒﻜﺔ ﻤﻜـﻭﻨﺔ ﻤﻥ‬
‫‪output‬‬ ‫ﺍﻟﻤﺨﺭﺝ‬ ‫ﻁﺒﻘﺘـﻴﻥ ﺫﺍﺕ ﺘﻐﺫﻴﺔ ﻓﻰ‬
‫‪B1‬‬ ‫‪B2‬‬ ‫‪B3‬‬ ‫ﺍﻻﺘﺠـــﺎﻩ ﺍﻷﻤﺎﻤـــﻰ‬
‫ﻭﺍﻟﻌﻜـــﺴﻰ ‪(Feed‬‬
‫‪A1‬‬ ‫‪A2‬‬ ‫‪A3‬‬ ‫‪Forward Feed‬‬
‫ﺍﻟﻤﺩﺨل‬ ‫)‪. Backward‬‬
‫ﺸﻜل ﺭﻗﻡ )‪ :(٤– ٣‬ﺸﺒﻜﺔ ﺫﺍﺕ ﻁﺒﻘﺘﻴﻥ ﺫﺍﺕ ﺘﻐﺫﻴﺔ‬
‫ﻓﻲ ﺍﻻﺘﺠﺎﻩ ﺍﻷﻤﺎﻤﻲ ﻭﺍﻟﻌﻜﺴﻲ‬

‫ﻤﺤﻤﺩ ﻋﻠﻰ ﺍﻟﺸﺭﻗﺎﻭﻯ ‪ ،‬ﻤﺭﺠﻊ ﺴﺒﻕ ﺫﻜﺭﻩ‪.‬‬ ‫)‪(1‬‬

‫‪- ٥١ -‬‬
‫‪output‬‬ ‫ﺍﻟﻤﺨﺭﺝ‬ ‫‪ ‬ﺸـﺒﻜﺔ ﻤﻜـﻭﻨﺔ ﻤﻥ‬

‫‪A1‬‬ ‫‪A2‬‬ ‫‪A3‬‬ ‫‪A4‬‬ ‫ﻁـﺒﻘﺔ ﻭﺍﺤﺩﺓ ﺫﺍﺕ ﺘﻐﺫﻴﺔ‬


‫ﻋﻜـــﺴﻴﺔ ﺠﺎﻨﺒـــﻴﺔ‬
‫‪input‬‬ ‫ﺍﻟﻤﺩﺨل‬ ‫)‪(Lateral Feed Back‬‬
‫ﺍﻟﻤﺩﺨل‬ ‫ﺍﻟﻤﺨﺭﺝ‬

‫ﺸﻜل ﺭﻗﻡ )‪ :(٥– ٣‬ﺸﺒﻜﺔ ﺫﺍﺕ ﻁﺒﻘﺔ ﻭﺍﺤﺩﺓ ﺫﺍﺕ‬


‫ﺘﻐﺫﻴﺔ ﻋﻜﺴﻴﺔ ﺠﺎﻨﺒﻴﺔ‬
‫‪ ‬ﺸﺒﻜﺔ ﻤﻜﻭﻨﺔ‬
‫ﻤﻥ ﻋﺩﺓ ﻁﺒﻘﺎﺕ‬
‫)‪(Multi layer‬‬

‫ﻁﺒﻘﺔ ﺍﻟﻤﺩﺨل‬ ‫ﺍﻟﻁﺒﻘﺔ ﺍﻟﻤﺨﺘﻔﻴﺔ‬ ‫ﻁﺒﻘﺔ ﺍﻟﻤﺨﺭﺝ‬


‫‪Input layer‬‬ ‫‪Hidden layer‬‬ ‫‪Output layer‬‬

‫ﺸﻜل ﺭﻗﻡ )‪ :(٦– ٣‬ﺸﺒﻜﺔ ﻤﺘﻌﺩﺩﺓ ﺍﻟﻁﺒﻘﺎﺕ‬


‫‪‬‬
‫ﻫـﻨﺎﻙ ﺍﻟﻌﺩﻴﺩ ﻤﻥ ﺍﻷﻨﻭﺍﻉ ﻟﺸﺒﻜﺎﺕ ﺍﻟﺨﻼﻴﺎ ﺍﻟﻌﺼﺒﻴﺔ ﻭﻜل ﻤﻨﻬﺎ ﻴﺨﺩﻡ ﻨﻭﻉ ﻤﻌﻴﻥ ﻤﻥ‬
‫ﺃﻨـﻭﺍﻉ ﺍﻟﻤـﺸﺎﻜل ﻭﺒﺎﻟﺘﺎﻟﻰ ﻴﻤﻜﻥ ﺍﻟﻘﻭل ﺃﻥ ﺃﻨﻭﺍﻉ ﻤﺨﺘﻠﻔﺔ ﻤﻥ ﺍﻟﻤﺸﺎﻜل ﻴﻤﻜﻥ ﺤﻠﻬﺎ‬
‫ﺒﺎﻻﻋـﺘﻤﺎﺩ ﻋﻠـﻰ ﺃﻨـﻭﺍﻉ ﻤﺨـﺘﻠﻔﺔ ﻤﻥ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﺒﺩﻻﹰ ﻤﻥ ﺍﻻﻋﺘﻤﺎﺩ ﻋﻠﻰ‬
‫ﺍﻷﺴﺎﻟﻴﺏ ﺍﻟﺘﻘﻠﻴﺩﻴﺔ ﻭﺫﻟﻙ ﻷﻥ ﺃﺴﻠﻭﺏ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﻴﺘﻤﻴﺯ ﺒﻤﺎ ﻴﻠﻲ ‪:‬‬
‫‪ -١‬ﻻ ﺘﺤـﺘﺎﺝ ﺇﻟـﻰ ﺍﻓﺘﺭﺍﻀـﺎﺕ ﻤﺴﺒﻘﺔ ﻋﻥ ﺸﻜل ﻭﺘﻭﺯﻴﻊ ﺍﻟﺒﻴﺎﻨﺎﺕ ﻟﺘﻘﻭﻡ ﺒﻌﻤﻠﻴﺔ‬
‫ﺍﻟﺘﺤﻠـﻴل ﺤـﻴﺙ ﺃﻥ ﺍﻟﺘﺤﻠﻴل ﺍﻹﺤﺼﺎﺌﻲ ﺍﻟﺠﻴﺩ ﻴﺤﺘﺎﺝ ﺇﻟﻰ ﺍﻓﺘﺭﺍﺽ ﺸﻜل ﻤﻌﻴﻥ‬
‫ﻟﻠﺒﻴﺎﻨﺎﺕ ﺜﻡ ﺍﺨﺘﺒﺎﺭ ﺼﻼﺤﻴﺘﻪ ﺜﻡ ﺍﻓﺘﺭﺍﺽ ﺸﻜل ﺁﺨﺭ ﺜﻡ ﺍﺨﺘﺒﺎﺭ ﺼﻼﺤﻴﺘﻪ ﺤﺘﻰ‬
‫ﺍﻟﻭﺼﻭل ﺇﻟﻰ ﺍﻟﺸﻜل ﺍﻟﺼﺤﻴﺢ ‪ ،‬ﻭﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﻟﻬﺎ ﺍﻟﻘﺩﺭﺓ ﻓﻲ ﺍﻟﺘﻌﺎﻤل ﻤﻊ‬
‫ﺍﻟﺒﻴﺎﻨﺎﺕ ﺍﻟﻐﻴﺭ ﻤﻜﺘﻤﻠﺔ ﻭﺍﻟﻐﻴﺭ ﺠﻴﺩﺓ‪.‬‬

‫‪- ٥٢ -‬‬
‫‪ -٢‬ﺃﻓـﻀل ﻤـﻥ ﺍﻟﻁﺭﻕ ﺍﻹﺤﺼﺎﺌﻴﺔ ﺍﻟﺘﻘﻠﻴﺩﻴﺔ ﻓﻲ ﺤﺎﻟﺔ ﺍﻟﺒﻴﺎﻨﺎﺕ ﺍﻟﻐﻴﺭ ﺨﻁﻴﺔ ﻭﻓﻲ‬
‫ﺤﺎﻟﺔ ﺍﻟﻤﺸﺎﻜل ﺍﻟﻤﻌﻘﺩﺓ‪.‬‬
‫‪ -٣‬ﺍﻟـﺸﺒﻜﺎﺕ ﺍﻟﻌـﺼﺒﻴﺔ ﺘﻌﺘﺒﺭ ﺃﺩﺍﺓ ﻤﺭﻨﺔ ﺤﻴﺙ ﻟﻬﺎ ﺍﻟﻘﺩﺭﺓ ﻋﻠﻰ ﺍﻟﺘﻌﻠﻡ ﺒﺴﺭﻋﺔ ﻋﻥ‬
‫ﻁﺭﻴﻕ ﺍﻟﺘﺩﺭﻴﺏ‪.‬‬
‫‪ -٤‬ﻗﺩﺭﺘﻬﺎ ﻋﻠﻰ ﺍﻟﺘﻜﻴﻑ ﻤﻊ ﺍﻟﻤﻌﻠﻭﻤﺎﺕ ﺍﻟﻤﺘﻐﻴﺭﺓ‪.‬‬
‫ﻭﻴﻤﻜﻥ ﺘﻘﺴﻴﻡ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﺨﺎﺼﺔ ﺒﺎﻟﺨﻼﻴﺎ ﺍﻟﻌﺼﺒﻴﺔ ﺇﻟﻰ ﺜﻼﺜﺔ ﺃﻨﻭﺍﻉ ﻫﻰ)‪:(1‬‬
‫ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻟﺘﻨﺒﺅﻴﺔ‪.‬‬ ‫‪(١‬‬
‫‪ (٢‬ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻟﺘﺒﻭﻴﺒﻴﺔ‪.‬‬
‫‪ (٣‬ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻟﻤﺭﺘﺒﻁﺔ ﺒﺎﻟﺤﻠﻭل ﺍﻟﻤﺜﻠﻰ‪.‬‬
‫‪Prediction Networks‬‬
‫ﻭﺘﺴﺘﺨﺩﻡ ﻫﺫﻩ ﺍﻟﺨﻼﻴﺎ ﻓﻰ ﺍﻟﺘﻨﺒﺅ ﺒﻘﻴﻤﺔ ﺇﺤﺩﻯ ﺍﻟﻅﻭﺍﻫﺭ ﺍﻋﺘﻤﺎﺩﺍﹰ ﻋﻠﻰ ﺍﻟﻘﻴﻤﺔ ﺍﻟﻤﺤﺩﺩﺓ‬
‫ﻟﻅﻭﺍﻫﺭ ﺃﺨﺭﻯ ﻤﺭﺘﺒﻁﺔ ﺒﻬﺎ ﻭﻜﻤﺜﺎل ﻋﻠﻰ ﻫﺫﺍ ﺍﻟﺸﻜل ﻤﻥ ﺍﻟﺨﻼﻴﺎ ﻴﺘﻡ ﺇﺩﺨﺎل ﺒﻌﺽ‬
‫ﺍﻟﻤـﺩﺨﻼﺕ ﻤـﺜل ﺍﻷﺭﺒﺎﺡ ﺍﻟﺤﺎﻟﻴﺔ ﺍﻟﺘﻰ ﺘﺤﻘﻘﻬﺎ ﺍﻟﻤﻨﻅﻤﺔ ﻭﺒﻴﺎﻨﺎﺕ ﺍﻟﻨﻤﻭ ﺍﻻﻗﺘﺼﺎﺩﻯ‬
‫ﻟﻠـﺸﺭﻜﺔ ﻭﺒـﻴﺎﻨﺎﺕ ﺍﻟﻨﻤﻭ ﺍﻟﺨﺎﺼﺔ ﺒﺎﻟﺼﻨﺎﻋﺔ ﻭﺒﻴﺎﻨﺎﺕ ﺍﻗﺘﺼﺎﺩﻴﺔ ﻋﺎﻤﺔ ﻭﺫﻟﻙ ﻟﻠﺘﻨﺒﺅ‬
‫ﺒﺎﻷﺭﺒﺎﺡ ﻭﺍﻟﺩﺨﻭل ﺍﻟﻤﺴﺘﻘﺒﻠﻴﺔ ﻟﻠﺸﺭﻜﺔ‪ ،‬ﻭﺘﺴﺘﺨﺩﻡ ﻤﺜل ﻫﺫﻩ ﺍﻟﺨﻼﻴﺎ ﻭﺘﻜﻭﻥ ﻤﻔﻴﺩﺓ ﻓﻰ‬
‫ﺤﺎﻻﺕ ﺍﻟﺘﻨﺒﺅ ﻓﻰ ﺃﺴﻭﺍﻕ ﺭﺃﺱ ﺍﻟﻤﺎل‪.‬‬
‫‪Classification Networks‬‬
‫ﻭﺘـﺴﺘﺨﺩﻡ ﻫﺫﻩ ﺍﻟﺨﻼﻴﺎ ﻟﺘﺒﻭﻴﺏ ﺃﺤﺩ ﺍﻟﺒﻨﻭﺩ ﻭﺘﺤﺩﻴﺩ ﺍﻟﻤﺠﻤﻭﻋﺔ ﺍﻟﺘﻰ ﻴﻨﺘﻤﻰ ﺇﻟﻴﻬﺎ ﻫﺫﺍ‬
‫ﺍﻟﺒـﻨﺩ ﻭﻜﻤـﺜﺎل ﻋﻠـﻰ ﻫـﺫﺍ ﺍﻟﺸﻜل ﻤﻥ ﺍﻟﺸﺒﻜﺎﺕ ﺍﺴﺘﺨﺩﺍﻡ ﺍﻟﺒﻴﺎﻨﺎﺕ ﺍﻟﻤﺎﻟﻴﺔ ﻟﻠﻭﺤﺩﺓ‬
‫ﺍﻻﻗﺘﺼﺎﺩﻴﺔ ﻟﻤﻌﺭﻓﺔ ﻫل ﺘﺼﻨﻑ ﺍﻟﻭﺤﺩﺓ ﻀﻤﻥ ﺍﻟﻭﺤﺩﺍﺕ ﺍﻟﺘﻰ ﺘﻌﺎﻨﻰ ﻤﻥ ﻋﺴﺭ ﻤﺎﻟﻰ‬
‫ﺃﻡ ﺘﺼﻨﻑ ﻤﻥ ﻀﻤﻥ ﺍﻟﻭﺤﺩﺍﺕ ﺍﻟﺘﻰ ﻻ ﺘﻌﺎﻨﻰ ﻋﺴﺭ ﻤﺎﻟﻰ‪.‬‬

‫ﻁﻠﻌـﺕ ﻋـﺒﺩ ﺍﻟﻌﻅـﻴﻡ ﻤﺘﻭﻟـﻰ ‪" :‬ﺍﺴﺘﺨﺩﺍﻡ ﻨﻤﻭﺫﺝ ﺘﻘﻨﻴﺎﺕ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﻓﻰ ﺍﻟﺘﻨﺒﺅ‬ ‫)‪(1‬‬

‫ﺒﺎﺴـﺘﻤﺭﺍﺭ ﺍﻟـﻭﺤﺩﺓ ﺍﻟﻤﺤﺎﺴـﺒﻴﺔ ﺒﺎﻟﺘﻁﺒﻴﻕ ﻋﻠﻰ ﺸﺭﻜﺎﺕ ﻗﻁﺎﻉ ﺍﻷﻋﻤﺎل ﺍﻟﻌﺎﻡ ﺍﻟﻤﺼﺭﻯ"‪،‬‬
‫ﺍﻟﻤﺠﻠﺔ ﺍﻟﻌﻠﻤﻴﺔ ﻟﻠﺘﺠﺎﺭﺓ ﻭﺍﻟﺘﻤﻭﻴل‪ ،‬ﻜﻠﻴﺔ ﺍﻟﺘﺠﺎﺭﺓ ﺠﺎﻤﻌﺔ ﻁﻨﻁﺎ‪.١٩٩٩ ،‬‬

‫‪- ٥٣ -‬‬
‫‪‬‬
‫ﻭﻤـﻥ ﺃﻤﺜﻠـﺘﻬﺎ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﺨﺎﺼﺔ ﺒﺎﻟﺘﻭﺯﻴﻊ ﺍﻷﻤﺜل ﻟﻠﻤﻭﺍﺭﺩ ﺒﻤﺎ ﻴﺤﻘﻕ ﺃﻗﺼﻰ ﺃﺭﺒﺎﺡ‬
‫ﻤﻤﻜﻨﺔ ﻭﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﺨﺎﺼﺔ ﺒﺎﺴﺘﻐﻼل ﺍﻟﻤﻭﺍﺭﺩ ﺍﻟﻨﺎﺩﺭﺓ‪.‬‬
‫‪‬‬
‫ﺘﻌـﺘﻤﺩ ﻓﻜـﺭﺓ ﺍﻟﺨﻼﻴـﺎ ﺍﻟﻌﺼﺒﻴﺔ ﻓﻰ ﺘﻨﻔﻴﺫﻫﺎ ﺒﻭﺍﺴﻁﺔ ﺍﻟﻜﻤﺒﻴﻭﺘﺭ ﻋﻠﻰ ﻤﺤﺎﻜﺎﺓ ﺍﻟﻤﺦ‬
‫ﺍﻟﺒـﺸﺭﻯ‪ .‬ﻭﺍﻟـﺸﺒﻜﺔ ﺍﻟﻌـﺼﺒﻴﺔ ﻟﻠﺒﺭﻨﺎﻤﺞ ﻫﻰ ﻤﺠﻤﻭﻋﺔ ﻤﻥ ﺍﻟﻤﻭﺼﻼﺕ ﺍﻟﻤﺘﺼﻠﺔ‬
‫ﺒﺒﻌـﻀﻬﺎ ﺍﻟـﺒﻌﺽ ﻭﺍﻟﺘـﻰ ﺘﻨﻅﻡ ﻋﻤﻠﻴﺔ ﺇﻨﺴﻴﺎﺏ ﺍﻟﻤﻌﻠﻭﻤﺎﺕ ﺩﺍﺨل ﺍﻟﺸﺒﻜﺔ ﻭﺘﻌﻤل‬
‫ﺍﻟـﺸﺒﻜﺔ ﺒﻤﺤﺎﻜـﺎﺓ ﺍﻟﻌﻘـل ﺍﻟﺒﺸﺭﻯ ﺤﻴﺙ ﺍﻨﻬﺎ ﺘﺤﺘﻭﻯ ﻋﻠﻰ ﺍﻟﻤﺌﺎﺕ ﺃﻭ ﺍﻵﻻﻑ ﻤﻥ‬
‫ﺨﻼﻴـﺎ ﺍﻟﺘـﺸﻐﻴل ﻭﻴـﺘﻡ ﺘﺭﺘﻴﺏ ﻫﺫﻩ ﺍﻟﺨﻼﻴﺎ ﻓﻰ ﺸﻜل ﻁﺒﻘﺎﺕ ‪ ،Layers‬ﻓﺎﻟﺸﺒﻜﺎﺕ‬
‫ﺍﻟﻌـﺼﺒﻴﺔ ﺍﻻﺼﻁﻨﺎﻋﻴﺔ ﻫﻰ ﻨﻭﻉ ﻤﻥ ﺍﻟﺤﺎﺴﺒﺎﺕ ﺍﻵﻟﻴﺔ ﻏﻴﺭ ﺍﻟﺘﻘﻠﻴﺩﻴﺔ ﻭﺍﻟﺘﻰ ﺘﺤﺎﻭل‬
‫ﺘﻘﻠـﻴﺩ ﻤﻬـﺎﺭﺍﺕ ﺍﻟﻌﻤـل ﺍﻟﺒﺸﺭﻯ ﻓﻰ ﺍﻜﺘﺴﺎﺏ ﻭﺘﻨﻅﻴﻡ ﺍﻟﻤﻌﻠﻭﻤﺎﺕ ﻭﺍﻟﻤﻔﺎﻫﻴﻡ ﻭﻫﻰ‬
‫ﺘـﺘﻜﻭﻥ ﻤـﻥ ﻤـﺼﻔﻭﻓﺔ ﻤﻥ ﺍﻟﻤﻌﺎﻟﺠﺎﺕ ﺍﻟﺒﺴﻴﻁﺔ ﺃﻭ ﺍﻟﺨﻼﻴﺎ ﻤﻊ ﻭﺠﻭﺩ ﻋﻼﻗﺎﺕ ﺃﻭ‬
‫ﺍﺭﺘـﺒﺎﻁﺎﺕ ﺃﻯ ﺃﻨﻬـﺎ ﻋﺒﺎﺭﺓ ﻋﻥ ﻤﺠﻤﻭﻋﺔ ﻤﻥ ﺍﻟﺤﺎﺴﺒﺎﺕ ﺍﻵﻟﻴﺔ ﺍﻟﻤﺘﻭﺍﺯﻴﺔ ﻭﺘﺨﺘﻠﻑ‬
‫ﺍﻟـﺸﺒﻜﺎﺕ ﺍﻟﻌـﺼﺒﻴﺔ ﻋـﻥ ﺍﻟﺤﺎﺴـﺒﺎﺕ ﺍﻵﻟـﻴﺔ ﺍﻟﻌﺎﺩﻴﺔ ﻓﻰ ﻁﺭﻴﻘﺔ ﺘﻤﺜﻴل ﺍﻟﺒﻴﺎﻨﺎﺕ‬
‫ﻭﺍﻟﻤﻌﻠﻭﻤﺎﺕ ﺤﻴﺙ ﺃﻨﻬﺎ ﺘﻘﻭﻡ ﺒﺫﻟﻙ ﻋﻥ ﻁﺭﻴﻕ ﺍﻟﺨﻼﻴﺎ ﺍﻟﻌﺼﺒﻴﺔ ﺒﺩﻻﹰ ﻤﻥ ﺘﺨﺯﻴﻥ ﻫﺫﻩ‬
‫ﺍﻟﺒـﻴﺎﻨﺎﺕ ﻓﻰ ﺍﻟﺫﺍﻜﺭﺓ ﻜﻤﺎ ﻓﻰ ﺍﻟﺤﺎﺴﺒﺎﺕ ﺍﻵﻟﻴﺔ ﻭﻗﻭﺓ ﺍﻟﻌﻼﻗﺎﺕ ﺒﻴﻥ ﺍﻟﺨﻼﻴﺎ ﺍﻟﻌﺼﺒﻴﺔ‬
‫ﺘـﺴﻤﻰ ﺃﻭﺯﺍﻥ ﻭﻫﻰ ﻤﺜل ﻤﻌﺎﻤل ﺍﻻﺭﺘﺒﺎﻁ ﻓﻰ ﺍﻻﺤﺼﺎﺀ ﺍﻟﺘﻘﻠﻴﺩﻴﺔ ﻭﻗﻴﻤﺔ ﻤﺨﺭﺠﺎﺕ‬
‫)‪(1‬‬
‫ﺃﻯ ﺨﻠﻴﺔ ﺘﺴﻤﻰ ﺤﺎﻟﺔ ﺍﻟﻨﺸﺎﻁ ﻭﺘﻌﺘﻤﺩ ﺃﺴﺎﺴﺎﹰ ﻋﻠﻰ ﺍﻟﻨﺸﺎﻁ ﺍﻟﻤﻐﺫﻯ ﻟﻬﺫﻩ ﺍﻟﺨﻠﻴﺔ‪.‬‬

‫ﺸـﻌﺒﺎﻥ ﻴﻭﺴـﻑ ﻤﺒﺎﺭﺯ‪" :‬ﺘﻘﻴﻴﻡ ﻭﺘﺼﻨﻴﻑ ﺍﻟﻘﻭﺍﺌﻡ ﺍﻟﻤﺎﻟﻴﺔ ﻟﻠﺸﺭﻜﺎﺕ ﺒﻬﺩﻑ ﺇﻋﺎﺩﺓ ﻫﻨﺩﺴﺔ ﻋﻤﻠﻴﺎﺘﻬﺎ‬ ‫)‪(1‬‬

‫ﻤﺎﻟـﻴﺎﹰ ﺒﺎﺴـﺘﺨﺩﺍﻡ ﺍﻟـﺸﺒﻜﺎﺕ ﺍﻟﻌـﺼﺒﻴﺔ ﺍﻻﺼﻁﻨﺎﻋﻴﺔ‪ ،‬ﻤﺠﻠﺔ ﺍﻟﺩﺭﺍﺴﺎﺕ ﺍﻟﻤﺎﻟﻴﺔ ﻭﺍﻟﺘﺠﺎﺭﻴﺔ‪ ،‬ﻜﻠﻴﺔ‬
‫ﺍﻟﺘﺠﺎﺭﺓ ﺠﺎﻤﻌﺔ ﺍﻟﻘﺎﻫﺭﺓ‪ ،‬ﻓﺭﻉ ﺒﻨﻰ ﺴﻭﻴﻑ‪ ،‬ﺍﻟﻌﺩﺩ ﺍﻟﺜﺎﻟﺙ ‪ ،١٩٩٦‬ﺹ ‪.١٥٩‬‬

‫‪- ٥٤ -‬‬
‫ﻭﻴﻭﻀﺢ ﺍﻟﺸﻜل ﺍﻟﺘﺎﻟﻰ ﻭﺤﺩﺓ ﺍﻟﺘﺸﻐﻴل ﻓﻰ ﺍﻟﺨﻠﻴﺔ ﺍﻟﻌﺼﺒﻴﺔ‪:‬‬
‫ﻤﺨﺭﺠﺎﺕ‬

‫ﻗﻭﺍﻋﺩ‬ ‫ﻭﻅﺎﺌﻑ‬
‫ﻤﻌﺭﻓﺔ‬ ‫ﺘﺤﻭﻴل‬
‫ﺃﻭﺯﺍﻥ‬
‫ﺘﻐﺫﻴﺔ ﺒﺎﻟﻤﻌﻠﻭﻤﺎﺕ‬
‫ﺍﻟﺘﺭﺠﻴﺢ‬

‫‪w1‬‬ ‫‪W2‬‬ ‫‪W3‬‬ ‫‪W4‬‬ ‫‪W5‬‬ ‫‪W7‬‬ ‫‪W8‬‬


‫ﺍﻟﻤﺩﺨﻼﺕ‬
‫ﺷﻜﻞ رﻗﻢ )‪ :(٧ – ٣‬وﺣﺪة اﻟﺘﺸﻐﯿﻞ ﻓﻰ اﻟﺨﻠﯿﺔ اﻟﻌﺼﺒﯿﺔ‬
‫واﻟ ﺸﻜﻞ اﻟﺘﺎﻟ ﻰ ﯾﻮﺿ ﺢ ﻛ ﯿﻒ ﺗﻘ ﻮم وﺣ ﺪات اﻟﺘ ﺸﻐﯿﻞ اﻟﻤﺨ ﺘﻠﻔﺔ واﻟﻤﺘ ﺮاﺑﻄﺔ ﺑﺎﻟﺘ ﺮاﺑﻂ‬
‫واﻻﺗﺼﺎل ﻓﯿﻤﺎ ﺑﯿﻨﮭﺎ ﻟﺘﻜﻮﯾﻦ ﺷﻜﻞ اﻟﺨﻠﯿﺔ اﻟﻌﺼﺒﯿﺔ ‪:‬‬
‫اﻟ ﺸﻜﻞ اﻟﺘﺎﻟ ﻲ ﯾﻮﺿ ﺢ ﻛﯿﻔ ﯿﺔ اﻻﺗ ﺼﺎل ﺑ ﯿﻦ وﺣ ﺪات اﻟﺘ ﺸﻐﯿﻞ اﻟﻤﺨ ﺘﻠﻔﺔ ﻟ ﺘﻜﻮﯾﻦ ﺷ ﻜﻞ‬
‫اﻟﺨﻠﯿﺔ اﻟﻌﺼﺒﯿﺔ‬
‫‪Output‬‬

‫‪Output layer‬‬

‫‪Hidden layer‬‬

‫‪Input layer‬‬

‫‪Input Data‬‬
‫ﺸﻜل ﺭﻗﻡ )‪ :(٨-٣‬ﺍﻟﺸﻜل ﺍﻟﻬﻴﻜﻠﻰ ﻟﻠﺨﻠﻴﺔ ﺍﻟﻌﺼﺒﻴﺔ‬

‫‪- ٥٥ -‬‬
‫ﻤﻥ ﺍﻟﺸﻜل ﺍﻟﺴﺎﺒﻕ ﻴﺘﻀﺢ ﻤﺎ ﻴﻠﻰ ‪:‬‬
‫‪ -١‬ﺃﻥ ﻋﻤﻠـﻴﺎﺕ ﺍﻟﺘﺸﻐﻴل ﺘﺘﻡ ﺩﺍﺨل ﻁﺒﻘﺎﺕ ﺍﻟﺘﺸﻐﻴل ﻭﺍﻟﺘﻰ ﺘﺤﺼل ﻋﻠﻰ‬
‫ﺍﻟﻤﻌﻠﻭﻤﺎﺕ ﻤﻥ ﻁﺒﻘﺎﺕ ﺍﻹﺩﺨﺎل ﺍﻟﺴﺎﺒﻘﺔ ﻟﻬﺎ ﻭﺘﻌﺩ ﺍﻟﻤﺨﺭﺠﺎﺕ ﺍﻟﺨﺎﺼﺔ‬
‫ﺒﻬـﺎ ﺇﻟـﻰ ﻁـﺒﻘﺎﺕ ﺍﻹﺨـﺭﺍﺝ ﻭﻴﺭﺒﻁ ﻤﺎ ﺒﻴﻥ ﺍﻷﻨﻭﺍﻉ ﺍﻟﻤﺨﺘﻠﻔﺔ ﻟﻬﺫﻩ‬
‫ﺍﻟﻁﺒﻘﺎﺕ ﻤﺠﻤﻭﻋﺔ ﻤﻥ ﺍﻟﻤﻭﺼﻼﺕ ﻭﺃﻟﻴﺎﻑ ﺍﻟﺘﺸﻐﻴل‪.‬‬
‫‪ -٢‬ﺘﺼﻨﻑ ﺍﻟﻁﺒﻘﺎﺕ ﺇﻟﻰ ﺜﻼﺙ ﻤﺠﻤﻭﻋﺎﺕ ﺭﺌﻴﺴﻴﺔ ﻭﻫﻰ ‪:‬‬
‫‪ -٣‬ﻁﺒﻘﺎﺕ ﺍﻟﻤﺩﺨﻼﺕ‪.‬‬
‫‪ -٤‬ﻁﺒﻘﺎﺕ ﺍﻟﺘﺸﻐﻴل‪.‬‬
‫‪ -٥‬ﻁﺒﻘﺎﺕ ﺍﻟﻤﺨﺭﺠﺎﺕ‪.‬‬
‫ﻭﺘﺘﻜﻭﻥ ﻜل ﻤﺠﻤﻭﻋﺔ ﻤﻥ ﺍﻟﻤﺠﻤﻭﻋﺎﺕ ﺍﻟﺴﺎﺒﻘﺔ ﻤﻥ ﻋﺩﺓ ﻤﺠﻤﻭﻋﺎﺕ ﻓﺭﻋﻴﺔ‬
‫ﻴﺨﺘﻠﻑ ﻋﺩﺩﻫﺎ ﺤﺴﺏ ﻅﺭﻭﻑ ﺍﻟﺘﺸﻐﻴل‪.‬‬
‫‪ -٦‬ﺩﺍﺨـل ﻜـل ﻁﺒﻘﺔ ﻤﻥ ﺍﻟﻁﺒﻘﺎﺕ ﺍﻟﺴﺎﺒﻘﺔ ﻤﺠﻤﻭﻋﺔ ﻤﻥ ﻗﻭﺍﻋﺩ ﺍﻟﻤﻌﺭﻓﺔ‬
‫ﺍﻟﺘﻰ ﺘﻌﻤل ﺒﻤﺜﺎﺒﺔ ﺍﻟﻤﻨﻅﻡ ﻟﻌﻤﻠﻴﺔ ﺍﻟﺘﺸﻐﻴل ﻭﺍﺘﺨﺎﺫ ﺍﻟﻘﺭﺍﺭ ﺩﺍﺨل ﺍﻟﺸﺒﻜﺔ‪.‬‬
‫‪‬‬
‫ﺃﻭﻻﹰ‪ :‬ﺍﻟﻬﻴﻜل ﺍﻟﻌﺎﻡ ﻟﺘﺸﻐﻴل ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ‪:‬‬
‫ﻴـﺘﻜﻭﻥ ﺍﻟﻬﻴﻜل ﺍﻟﻌﺎﻡ ﻟﺘﺸﻐﻴل ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﻤﻥ ﺍﻟﻌﻨﺎﺼﺭ ﺍﻟﺨﺎﺼﺔ ﺒﺎﻻﺘﺼﺎﻻﺕ‬
‫ﻭﺍﻟﺠﺯﺀ ﺍﻟﺨﺎﺹ ﺒﺎﻻﺘﺼﺎل ﺒﻴﻥ ﻫﺫﻩ ﺍﻟﻌﻨﺎﺼﺭ‪.‬‬
‫)‪(1‬‬
‫ﺍﻟﻤﻨﻁﻘﺔ ﺍﻟﺨﺎﺼﺔ ﺒﺎﻟﺘﺸﻐﻴل ﺍﻟﺘﻰ ﺘﻘﻭﻡ ﺒﺘﺠﻤﻴﻊ ﻭﻤﺯﺝ ﻋﺩﺓ‬ ‫ﻭﻴﻭﻀـﺢ ﺍﻟﺸﻜل ﺍﻟﺘﺎﻟﻰ‬
‫ﻤـﺩﺨﻼﺕ ﺒﺎﺴـﺘﺨﺩﺍﻡ ﻨﻤـﻭﺫﺝ ﺍﻷﻭﺯﺍﻥ ﺍﻟﻤﺨﺘﺎﺭ‪ .‬ﻭﻫﺫﻩ ﺍﻷﻭﺯﺍﻥ ﺘﺒﻴﻥ ﻤﺩﻯ ﻓﺎﻋﻠﻴﺔ‬
‫ﺍﻻﺘﺼﺎل ﺒﻴﻥ ﺍﻟﻤﺩﺨﻼﺕ ﻭﻤﻨﻁﻘﺔ ﺍﻟﺘﺸﻐﻴل‪.،‬‬

‫ﻁﻠﻌﺕ ﻋﺒﺩ ﺍﻟﻌﻅﻴﻡ ﻤﺘﻭﻟﻰ ‪ ،‬ﻤﺭﺠﻊ ﺴﺒﻕ ﺫﻜﺭﻩ‪.‬‬ ‫)‪(1‬‬

‫‪- ٥٦ -‬‬
‫ﺸﻜل ﺭﻗﻡ )‪ :(٩-٣‬ﺍﻟﻬﻴﻜل ﺍﻟﻌﺎﻡ ﻟﻠﺠﺯﺀ ﺍﻟﺘﺸﻐﻴﻠﻰ ﻟﻠﺸﺒﻜﺔ ﺍﻟﻌﺼﺒﻴﺔ‬

‫ﻭﻴـﺘﻡ ﺤـﺴﺎﺏ ﺍﻟﻤﺠﻤﻭﻉ ﺍﻟﻤﺭﺠﺢ ‪ weighted sum‬ﻟﻘﻴﻡ ﺍﻟﻤﺩﺨﻼﺕ ﺜﻡ ﻴﺘﻡ ﺘﺤﻭﻴﻠﻪ‬


‫ﻤـﻥ ﺨﻼل ﺩﺍﻟﺔ ﻏﻴﺭ ﺨﻁﻴﺔ ﻴﻁﻠﻕ ﻋﻠﻴﻬﺎ ﺩﺍﻟﺔ ﺍﻟﺘﺤﻭﻴل ﻟﻠﺤﺼﻭل ﻋﻠﻰ ﺍﻟﻤﺨﺭﺠﺎﺕ‬
‫ﻤﻥ ﻋﻨﺎﺼﺭ ﺍﻟﺘﺸﻐﻴل‪.‬‬
‫ﻭﻜل ﻤﺩﺨل ﻤﻥ ﺍﻟﻤﺩﺨﻼﺕ ﺇﻤﺎ ﺃﻥ ﻴﺄﺨﺫ ﻗﻴﻤﺎﹰ ﻤﻭﺠﺒﺔ ﻓﻴﻜﻭﻥ ﻤﻨﺸﻁﺎﹰ ‪ Exatatory‬ﺃﻭ‬
‫ﻴﺄﺨﺫ ﻗﻴﻤﺎﹰ ﺴﺎﻟﺒﺔ ﻓﻴﻜﻭﻥ ﻏﻴﺭ ﻤﻨﺸﻁ ‪.Inhibitory‬‬
‫ﺜﺎﻨﻴﺎﹰ ‪ :‬ﺍﻟﻤﻜﻭﻨﺎﺕ ﺍﻷﺴﺎﺴﻴﺔ ﻟﺩﺍﻟﺔ ﺍﻟﺘﺸﻐﻴل ﻟﻠﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ‪:‬‬
‫‪ -٢‬ﺍﻟﺭﻭﺍﺒﻁ‪.‬‬ ‫‪ -١‬ﻋﻨﺎﺼﺭ ﺍﻟﺘﺸﻐﻴل‪.‬‬
‫‪ -٤‬ﺩﺍﻟﺔ ﺍﻟﺘﺤﻭﻴل‪.‬‬ ‫‪ -٣‬ﺍﻷﻭﺯﺍﻥ‪.‬‬
‫‪ -٥‬ﻗﻭﺍﻋﺩ ﺍﻟﺘﻌﻠﻴﻡ‪.‬‬
‫‪Process Elements‬‬
‫ﻭﻫﻰ ﺘﻌﺒﺭ ﻋﻥ ﺍﻟﺨﻼﻴﺎ ﺍﻟﺩﻤﺎﻏﻴﺔ ﻓﻰ ﺍﻟﻤﺦ ﺍﻹﻨﺴﺎﻨﻰ ﻭﻴﻁﻠﻕ ﻋﻠﻴﻬﺎ ‪. Neurade‬‬
‫‪Connection‬‬
‫ﻭﺘﻌﺒـﺭ ﻋـﻥ ﺍﻟﻭﺼﻼﺕ ﻭﺍﻷﺠﺯﺍﺀ ﺍﻟﺘﻰ ﺘﺭﺒﻁ ﻤﺎ ﺒﻴﻥ ﺍﻟﺨﻼﻴﺎ ﺍﻟﺩﻤﺎﻏﻴﺔ ﺩﺍﺨل ﺍﻟﻤﺦ‬
‫ﺍﻹﻨـﺴﺎﻨﻰ ﻭﺘﻘـﻭﻡ ﻫﺫﻩ ﺍﻟﺭﻭﺍﺒﻁ ﺒﺈﻋﻁﺎﺀ ﺇﺸﺎﺭﺍﺕ ﻭﺴﻁﻴﺔ ﻤﺎ ﺒﻴﻥ ﺨﻼﻴﺎ ﻭﻋﻨﺎﺼﺭ‬
‫ﺍﻟﺘﺸﻐﻴل‪.‬‬

‫‪- ٥٧ -‬‬
‫‪Weights‬‬
‫ﻭﻫـﻰ ﺍﻟﻤـﺴﺌﻭﻟﺔ ﻋـﻥ ﺘﺤﺩﻴﺩ ﻗﻭﺓ ﺍﻟﺭﻭﺍﺒﻁ ﻭﺍﻟﻌﻼﻗﺎﺕ ﻤﺎ ﺒﻴﻥ ﻋﻨﺎﺼﺭ ﺍﻟﻤﺩﺨﻼﺕ‬
‫ﻭﻭﺤﺩﺍﺕ ﺍﻟﺘﺸﻐﻴل‪.‬‬
‫‪Transfer function‬‬
‫ﻭﻫـﻰ ﻋـﺒﺎﺭﺓ ﻋـﻥ ﻤﻌﺎﺩﻟـﺔ ﺭﻴﺎﻀﻴﺔ ﺘﺤﺩﺩ ﻨﻭﻋﻴﺔ ﺍﻟﻤﺨﺭﺠﺎﺕ ﺍﻟﺨﺎﺼﺔ ﺒﻌﻨﺎﺼﺭ‬
‫ﺍﻟﺘﺸﻐﻴل ﻤﻊ ﺍﻷﺨﺫ ﻓﻰ ﺍﻻﻋﺘﺒﺎﺭ ﻨﻭﻋﻴﺔ ﺍﻟﻤﺩﺨﻼﺕ ﻭﺍﻷﻭﺯﺍﻥ ﺍﻟﺘﺭﺠﻴﺤﻴﺔ‪.‬‬
‫‪Learning law‬‬
‫ﻭﻫـﻰ ﻋـﺒﺎﺭﺓ ﻋﻥ ﻤﻌﺎﺩﻟﺔ ﺭﻴﺎﻀﻴﺔ ﺘﻘﻭﻡ ﺒﻌﻤل ﺘﻌﺩﻴﻼﺕ ﻋﻠﻰ ﺍﻷﻭﺯﺍﻥ ﺍﻟﺘﺭﺠﻴﺤﻴﺔ‬
‫ﺍﻋـﺘﻤﺎﺩﺍﹰ ﻋﻠـﻰ ﻗـﻴﻤﺔ ﺍﻟﻤـﺩﺨﻼﺕ ﻭﻓـﻰ ﺒﻌـﺽ ﺍﻷﺤﻴﺎﻥ ﻋﻠﻰ ﺍﻟﺘﻐﺫﻴﺔ ﺍﻟﺨﻠﻔﻴﺔ‬
‫‪ .Feedback value‬ﻭﻴﻤﻜـﻥ ﻟﻘـﻭﺍﻋﺩ ﺍﻟﻤﻌـﺭﻓﺔ ﻟﺸﺒﻜﺎﺕ ﺍﻟﺨﻼﻴﺎ ﺍﻟﻌﺼﺒﻴﺔ ﺇﻨﺘﺎﺝ‬
‫ﺍﻟﻤﺯﻴﺩ ﻤﻥ ﺍﻟﻤﺨﺭﺠﺎﺕ ﺍﻟﻤﺭﻏﻭﺒﺔ ﻜﻠﻤﺎ ﺯﺍﺩ ﺤﺠﻡ ﺍﻟﻤﺩﺨﻼﺕ ﺩﺍﺨل ﺍﻟﺸﺒﻜﺔ‪.‬‬
‫ﻭﺘﺄﺨﺫ ﻁﺭﻴﻘﺔ ﻋﻤل ﺍﻟﺸﺒﻜﺔ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻟﺨﻁﻭﺍﺕ ﺍﻟﺘﺎﻟﻴﺔ‪:‬‬
‫ﺃﻭﻻﹰ ‪ :‬ﺇﺩﺨﺎل ﻤﺩﺨﻼﺕ ﺍﻟﻁﺒﻘﺎﺕ ﺇﻟﻰ ﺍﻟﺒﺭﻨﺎﻤﺞ ﺍﻟﻤﺴﺘﺨﺩﻡ‪.‬‬
‫ﺜﺎﻨﻴﺎﹰ ‪ :‬ﺍﺨﺘﻴﺎﺭ ﻋﺸﻭﺍﺌﻰ ﻟﻠﻘﻴﻡ ﺍﻻﺒﺘﺩﺍﺌﻴﺔ ﻟﻸﻭﺯﺍﻥ ﺍﻟﻨﺴﺒﻴﺔ ﺒﻴﻥ ﻋﻘﺩ ﺍﻻﺘﺼﺎل‬
‫ﺒﺎﻟﺸﺒﻜﺔ ﺃﻭ ﻤﻥ ﺨﻼل ﺘﻁﺒﻴﻕ ﺒﻌﺽ ﺍﻷﺴﺎﻟﻴﺏ ﺍﻟﺨﺎﺼﺔ ﻓﻰ ﺍﺨﺘﻴﺎﺭ‬
‫ﻫﺫﻩ ﺍﻟﻘﻴﻡ ﺍﻻﺒﺘﺩﺍﺌﻴﺔ‪.‬‬
‫ﺜﺎﻟﺜﺎﹰ ‪ :‬ﺇﺠﺭﺍﺀ ﻋﺩﺓ ﻋﻤﻠﻴﺎﺕ ﺤﺴﺎﺒﻴﺔ ﻋﻠﻰ ﺍﻟﻌﻴﻨﺔ ﺍﻟﻤﺩﺨﻠﺔ ﻭﺫﻟﻙ ﻤﻥ ﺨﻼل‬
‫ﺨﻁﻭﺘـﻴﻥ ﻤﺘﺘﺎﻟﻴﺘـﻴﻥ ﺃﻭﻟﻬﻤﺎ ﺃﻤﺎﻤﻴﺔ ‪ Forward‬ﻭﺍﻷﺨﺭﻯ ﺨﻠﻔﻴﺔ‬
‫‪.Backward‬‬
‫ﻭﻓـﻰ ﺍﻟﺨﻁﻭﺓ ﺍﻷﻤﺎﻤﻴﺔ ﻴﻘﻭﻡ ﺍﻟﻨﻅﺎﻡ ﺒﺤﺴﺎﺏ ﻤﺨﺭﺠﺎﺕ ﺍﻟﺸﺒﻜﺔ ﻟﻠﺒﻴﺎﻨﺎﺕ ﺍﻟﻤﺩﺨﻠﺔ ﺜﻡ‬
‫ﻴـﺘﻡ ﻤﻘﺎﺭﻨـﺔ ﺍﻟﻤﺨﺭﺠﺎﺕ ﻤﻊ ﺍﻟﻤﺨﺭﺠﺎﺕ ﺍﻟﻤﺭﻏﻭﺒﺔ ﺃﻭ ﺍﻟﻤﺴﺘﻬﺩﻓﺔ ﻤﻥ ﺍﻟﺸﺒﻜﺔ ﻭﻓﻰ‬
‫ﺍﻟـﻨﻬﺎﻴﺔ ﻴﺤـﺴﺏ ﺍﻟﺨﻁﺄ ﺍﻟﻨﺎﺘﺞ ﻋﻥ ﺍﻟﻤﻘﺎﺭﻨﺔ ﺃﻤﺎ ﻓﻰ ﺍﻟﺨﻁﻭﺓ ﺍﻟﺨﻠﻔﻴﺔ ﻓﺘﻘﻭﻡ ﺍﻟﺸﺒﻜﺔ‬
‫ﺒﺘﻌﺩﻴل ﺍﻷﻭﺯﺍﻥ ﺍﻟﻨﺴﺒﻴﺔ ﻟﻌﻘﺩ ﺍﻻﺘﺼﺎل ﺒﻴﻥ ﻋﻨﺎﺼﺭ ﺍﻟﻤﻌﺎﻟﺠﺔ ﺍﻟﻤﻜﻭﻨﺔ ﻟﻠﺸﺒﻜﺔ ﺒﻬﺩﻑ‬
‫ﺘـﺼﻐﻴﺭ ﺍﻟﺨﻁـﺄ ﺍﻟﻜﻠﻰ ﻭﺘﻘﻭﻡ ﺍﻟﺸﺒﻜﺔ ﺒﺘﻜﺭﺍﺭ ﺍﻟﺨﻁﻭﺍﺕ ﺍﻟﺴﺎﺒﻘﺔ ﻋﺩﺓ ﻤﺭﺍﺕ ﻟﺠﻤﻴﻊ‬

‫‪- ٥٨ -‬‬
‫ﻋﻴـﻨﺎﺕ ﺍﻟﺒـﻴﺎﻨﺎﺕ ﺍﻟﻤﺩﺨﻠﻪ ﻟﻬﺫﻩ ﺍﻟﺸﺒﻜﺔ ﻭﺘﺴﻤﻰ ﻤﺭﺤﻠﺔ ﺍﻟﺘﻘﺩﻴﻡ ﺍﻟﻭﺍﺤﺩﺓ ﺍﻟﺘﻰ ﺘﻀﻡ‬
‫ﺠﻤـﻴﻊ ﺍﻟﺨﻁﻭﺍﺕ ﺍﻷﻤﺎﻤﻴﺔ ﻭﺍﻟﺨﻠﻔﻴﺔ ﻟﺠﻤﻴﻊ ﺍﻟﻌﻴﻨﺎﺕ ﺒﺎﻟﺩﻭﺭﺓ ‪ Epoch‬ﻭﺘﻤﺭ ﺍﻟﺸﺒﻜﺔ‬
‫ﺒﻌـﺩﺓ ﺩﻭﺭﺍﺕ ﺇﻟﻰ ﺃﻥ ﺘﺼل ﺇﻟﻰ ﺃﻗل ﻤﺠﻤﻭﻉ ﻤﺭﺒﻌﺎﺕ ﻟﻠﺨﻁﺄ ﺍﻟﻨﺎﺘﺞ ﻋﻥ ﺍﻟﻔﺭﻕ ﻤﺎ‬
‫ﺒﻴﻥ ﺍﻟﻤﺨﺭﺠﺎﺕ ﺍﻟﻨﻬﺎﺌﻴﺔ ﻟﻠﺸﺒﻜﺔ ﻭﺍﻟﻤﺨﺭﺠﺎﺕ ﺍﻟﻤﺴﺘﻬﺩﻓﺔ‪.‬‬
‫‪‬‬
‫‪‬‬
‫‪McCulloch & Pitts Mathematical Model‬‬
‫ﻟﻭﻀـﻊ ﻨﻤﻭﺫﺝ ﺭﻴﺎﻀﻰ ﻟﻁﺭﻴﻘﺔ ﻋﻤل ﺍﻟﺨﻠﻴﺔ ﺍﻟﻌﺼﺒﻴﺔ ﻻﺒﺩ ﻤﻥ ﺍﺘﺨﺎﺫ ﺍﻻﻋﺘﺒﺎﺭﺍﺕ‬
‫ﺍﻵﺘﻴﺔ)‪:(1‬‬
‫‪ -١‬ﺃﻥ ﻴﻜـﻭﻥ ﻗـﻴﻤﺔ ﺍﻟﻤﺨـﺭﺠﺎﺕ ﻤﻥ ﺍﻟﻨﻴﺭﻭﻥ ﺇﻤﺎ ﺍﻟﺼـﻔﺭ )‪ (Off‬ﺃﻭ‬
‫ﺍﻟﻭﺍﺤـﺩ )‪.(On‬‬
‫‪ -٢‬ﺘﻌـﺘﻤﺩ ﻗﻴﻤﺔ ﻤﺨﺭﺠﺎﺕ ﺍﻟﻨﻴﺭﻭﻥ ﻋﻠﻰ ﻗﻴﻤﺔ ﺍﻟﻤﺩﺨﻼﺕ ﺤﻴﺙ ﺘﻜﻭﻥ ﻗﻴﻤﺔ‬
‫ﺍﻟﻤﺨـﺭﺝ ﻭﺍﺤـﺩ ﺇﺫﺍ ﺯﺍﺩ ﺍﻟﻤﺠﻤﻭﻉ ﺍﻟﻤﺭﺠﺢ ‪ Weighted Sum‬ﻟﻬﺫﻩ‬
‫ﺍﻟﻤـﺩﺍﺨل ﻋﻥ ﻗﻴﻤﺔ ﺤﺩﻴﺔ ‪ Threshold Value‬ﻭﻴﻅل ﺍﻟﻤﺨﺭﺝ ﺼﻔﺭ‬
‫ﺇﺫﺍ ﻟﻡ ﻴﺼـل ﺍﻟﻤﺠﻤﻭﻉ ﺇﻟﻰ ﺍﻟﻘﻴﻤﺔ ﺍﻟﺤﺩﻴﺔ ﺍﻟﻤﻨﺎﺴﺒﺔ‪.‬‬
‫‪‬‬
‫‪ (١‬ﺍﻟﻤـﺩﺨـل‪ :‬ﺒﻔـﺭﺽ ﺃﻥ ﻗﻴﻡ ﻤﺨﺎﺭﺝ ﺍﻟﻨﻴﺭﻭﻨﺎﺕ ﺍﻟﺴﺎﺒﻘﺔ ﻟﻠﻨﻴﺭﻭﻥ ﺍﻟﺤﺎﻟﻰ ﻫﻰ‬
‫ﺍﻟﻘـﻴﻡ )‪ (x1, x2, .........., xn‬ﺤﻴﺙ ﺘﻘﻭﻡ ﺍﻟﻤﺸﺎﺒﻙ ‪ Synapse‬ﺒﻨﻘل ﻨﺴﺒﺔ ﻤﻥ‬
‫ﻫﺫﻩ ﺍﻟﻘﻴﻤﺔ ﺇﻟﻰ ﺍﻟﻠﻴﻑ ﺍﻟﻌﺼﺒﻰ ﻟﻠﻤﺩﺨل ﻤﻥ ﺨﻼل ﺍﻟﻔﺠﻭﺍﺕ ﺒﺤﻴﺙ ﺘﺨﺘﻠﻑ ﻫﺫﻩ‬
‫ﺍﻟﻨﺴﺏ ﻤﻥ ﻓﺠﻭﺓ ﻷﺨﺭﻯ ﻋﻠﻰ ﺤﺴﺏ ﻁﺒﻴﻌﺔ ﻜل ﻓﺠﻭﺓ ﻭﺒﺘﻤﺜﻴل ﺫﻟﻙ ﺭﻴﺎﻀﻴ‪‬ﺎ‪:‬‬
‫ﺒﻔﺭﺽ ﺃﻥ ﺍﻷﻭﺯﺍﻥ ‪ weight‬ﺘﺄﺨﺫ ﺍﻟﺸﻜل )‪.(w1, ......wn‬‬
‫ﻭﺒﺫﻟﻙ ﻴﻜﻭﻥ ﺍﻟﺠﺯﺀ ﺍﻟﻤﻨﻘﻭل ﺇﻟﻰ ﺍﻟﻤﺩﺨل ﻤﻥ ﻜل ﻓﺭﻉ ﻫﻭ )‪.(wx‬‬

‫)‪(1‬‬
‫‪Warner Brad and Misra Manavendra, Op.‬‬

‫‪- ٥٩ -‬‬
‫‪ (٢‬ﺠﺴﻡ ﺍﻟﺨﻠﻴﺔ‪ :‬ﻋﻨﺼﺭ ﺍﻟﻤﻌﺎﻟﺠﺔ ‪:Processing Element‬‬
‫ﻴﻘﻭﻡ ﺒﻌﻤل ﺍﻵﺘﻰ‪:‬‬
‫ﺃ‪ -‬ﻋﻤﻠﻴﺔ ﺠﻤﻊ ﻟﻠﻤﺩﺍﺨل ﺍﻟﻤﺭﺠﺤﺔ )‪.(weighted sum‬‬
‫…… ‪Total input = w1x1 + w2x2 + w3x3 +‬‬
‫‪i=n‬‬
‫‪= Σ w i xi‬‬ ‫)‪(27‬‬
‫‪i=1‬‬

‫ﺏ‪ -‬ﻤﻘﺎﺭﻨـﺔ ﻫﺫﺍ ﺍﻟﻤﺠﻤﻭﻉ ﺒﻘﻴﻤﺔ ﺤﺩﻴﺔ ﻟﺩﺍﻟﺔ ﻤﻌﺭﻭﻓﺔ ﺒﺩﺍﻟﺔ ‪ Heaviside‬ﻓﺈﺫﺍ‬
‫ﻜﺎﻥ ﺍﻟﻤﺠﻤﻭﻉ ﻟﻠﻤﺩﺍﺨل ﺍﻟﻤﺭﺠﺤﺔ ﺃﻜﺒﺭ ﻤﻥ ﺃﻭ ﻴﺴﺎﻭﻯ ﺍﻟﺩﺍﻟﺔ ﻓﺈﻥ ﺍﻟﻤﺨﺭﺝ ﺴﻭﻑ‬
‫ﻴﻜﻭﻥ )‪ (١‬ﻭﺇﺫﺍ ﻜﺎﻥ ﺍﻟﻤﺠﻤﻭﻉ ﺃﻗل ﻓﺈﻥ ﻨﺎﺘﺞ ﺍﻟﻤﺨﺭﺝ ﻴﺼﺒﺢ )ﺼﻔﺭ‪‬ﺍ(‪.‬‬
‫‪ (٣‬ﺍﻟﻤﺨـﺭﺝ ‪:Output‬‬
‫ﻴﻜﻭﻥ ﺍﻟﻤﺨﺭﺝ ﻟﻠﻨﻤﻭﺫﺝ ﺍﻟﺭﻴﺎﻀﻰ ﺇﻤﺎ ﺍﻟﻭﺍﺤﺩ ﺃﻭ ﺍﻟﺼﻔﺭ‪.‬‬
‫‪i=n‬‬
‫) ‪Y = f ( Σ w i xi‬‬ ‫)‪(28‬‬
‫‪i=1‬‬

‫‪:Biased Model ‬‬


‫ﻴـﺘﻡ ﻭﻀـــﻊ ﻗﻴﻤﺔ ﺍﻨﺤﻴﺎﺯﻴﺔ ) ‪ ( θ‬ﻟﻨﻤﻭﺫﺝ ﺍﻟﻨﻴﺭﻭﻥ ﺒﺤﻴﺙ ﺘﻤﺜل ﺍﻟﻘﻴﻤﺔ )‪(woxo‬‬
‫ﻭﺍﻟﺘـﻰ ﺘﺠﻌل ﺍﻟﻨﻴﺭﻭﻥ ﺩﺍﺌﻤ‪‬ﺎ ﻨﺸﻁﹰﺎ )ﺍﻟﻤﺨﺭﺝ ﻴﺴﺎﻭﻯ ﻭﺍﺤﺩ ﻓﻰ ﺤﺎﻟﺔ ﻋﺩﻡ ﻭﺠﻭﺩ ﻗﻴﻡ‬
‫ﺍﻟﻤﺩﺍﺨل ﺍﻟﻤﺭﺠﺤﺔ(‪.‬‬
‫ﻭﻴـﺘﻡ ﻁـﺭﺡ ﻫـﺫﻩ ﺍﻟﻘﻴﻤﺔ ﻤﻥ ﺍﻟﻤﺠﻤﻭﻉ ﺍﻟﻤﺭﺠﺢ ﻟﻠﻤﺩﺨل ﻭﻴﻘﺎﺭﻥ ﺍﻟﺒﺎﻗﻰ ﻓﺈﺫﺍ ﻜﺎﻥ‬
‫ﻤﻭﺠـﺒ‪‬ﺎ ﻓـﺈﻥ ﻗﻴﻤﺔ ﺍﻟﻤﺨﺭﺝ ﺘﻜﻭﻥ ﻭﺍﺤﺩ‪‬ﺍ ﻭﺇﺫﺍ ﻜﺎﻥ ﺍﻟﺒﺎﻗﻰ ﺴﺎﻟﺒ‪‬ﺎ ﻓﺈﻥ ﺍﻟﻤﺨﺭﺝ ﻴﻜﻭﻥ‬
‫ﺼﻔﺭ‪‬ﺍ ﻭﺘﺼﺒﺢ ﺍﻟﻨﺘﻴﺠﺔ ﻜﻤﺎ ﻴﻠﻰ‪:‬‬
‫‪i=n‬‬
‫) ‪Y = f ( Σ wixi - θ‬‬ ‫)‪(29‬‬
‫‪i=1‬‬

‫ﻴ‪‬ﻌﺘﺒـﺭ ﻫﺫﺍ ﺍﻟﻨﻤﻭﺫﺝ ﻭﺍﻟﺫﻯ ﺘﻡ ﺍﺘﺨﺎﺫﻩ ﺃﺴﺎﺴ‪‬ﺎ ﻟﺒﻨﺎﺀ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻻﺼﻁﻨﺎﻋﻴﺔ‬
‫ﻨﻤـﻭﺫﺝ ﺤـﺴﺎﺒﻰ ﻓﻘﻁ ﻭﻟﻴﺱ ﻨﺴﺨﺔ ﻤﻤﺎ ﻴﺤﺩﺙ ﻓﻰ ﺍﻟﻤﺦ ﺍﻹﻨﺴﺎﻨﻰ‪ ،‬ﻭﻤﻥ ﻤﻤﻴﺯﺍﺘﻪ‪،‬‬
‫ﺴﻬﻭﻟﺔ ﺘﻨﻔﻴﺫﻩ ﻋﻠﻰ ﺍﻟﺤﺎﺴﺒﺎﺕ‪.‬‬

‫‪- ٦٠ -‬‬
‫ﻭﻗﺩ ﺘﻡ ﺇﻁﻼﻕ ﺍﺴﻡ ﻋﻨﺼﺭ ﺍﻹﺩﺭﺍﻙ )‪ (Perceptions‬ﻋﻠﻰ ﻫﺫﺍ ﺍﻟﻨﻤﻭﺫﺝ‪.‬‬
‫‪X1‬‬
‫‪W1‬‬
‫‪X2‬‬
‫‪W2‬‬
‫‪X3‬‬ ‫‪F‬‬
‫‪W3‬‬
‫…‬ ‫‪Σ‬‬ ‫‪Output‬‬
‫…‬
‫‪Xn‬‬
‫‪Wn‬‬ ‫‪Bias‬‬
‫‪θ = W o Xo‬‬
‫ﺍﻟﻘﻴﻤﺔ ﺍﻻﻨﺤﻴﺎﺯﻴﺔ‬
‫ﺸﻜل ﺭﻗﻡ )‪ :(١٠-٣‬ﺍﻟﻨﻤﻭﺫﺝ ﺍﻟﺤﺴﺎﺒﻰ ﻟﻌﻨﺼﺭ ﺍﻹﺩﺭﺍﻙ ‪Perception‬‬
‫ﻭﺘـﺘﻡ ﻋﻤﻠـﻴﺔ ﺍﻟـﺘﻌﻠﻡ ﻟﻠـﺸﺒﻜﺎﺕ ﺍﻟﻌـﺼﺒﻴﺔ ﻋـﻥ ﻁﺭﻴﻕ ﻨﻤﻭﺫﺝ ﺭﻴﺎﻀﻰ ﻟﻠﺘﻌﻠﻡ‬
‫ﻟﻠـﺸﺒﻜﺎﺕ ﺍﻟﻌـﺼﺒﻴﺔ ﺤـﻴﺙ ﻴﻌﺘﺒـﺭ ﺩﻭﻨﺎﻟـﺩ ﻫﻴﺏ ﺃﻭل ﻤﻥ ﻭﻀﻊ ﻨﻅﺭﻴﺔ ﺍﻟﺘﻌﻠﻡ‬
‫)‪(1‬‬
‫ﻭﺫﻟـﻙ ﺒﺘﻁﻭﻴـﺭ ﻨﻅﺎﻡ ﺭﻴﺎﻀﻰ ﻟﻠﺘﻌﻠﻡ ﻟﻠﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﻴﺴﻤﻰ ﺍﻟﺘﻌﻠﻴﻡ ﺍﻟﻬﻴﺒﻴﺎﻨﻰ‬
‫)‪ (Hebbian Learning‬ﻭﻫﺫﻩ ﺍﻟﻨﻅﺭﻴﺔ ﺘﻨﺹ ﻋﻠﻰ ﺃﻥ‪:‬‬
‫ﺘﺅﺜـﺭ ﺤﺎﻟﺔ ﺍﻟﻨﺸﺎﻁ ﺍﻟﺴﺎﺒﻘﺔ ﻟﻠﻤﺸﺎﺒﻙ ‪ Synapse‬ﻋﻨﺩ ﺇﻋﺎﺩﺓ ﺘﻨﺸﻴﻁﻬﺎ ﻓﺘﺯﺩﺍﺩ ﻜﻔﺎﺀﺓ‬
‫ﺍﻟﺘﻭﺼـﻴل ﺃﻭ ﺍﻟﺸﺩﺓ ﻟﻬﺫﻩ ﺍﻟﻤﺸﺎﺒﻙ ﺇﺫﺍ ﺍﺴﺘﻘﺒﻠﺕ ﻨﺒﻀﺔ ﺠﺩﻴﺩﺓ ﻤﻼﺤﻘﺔ ﻟﻨﺒﻀﺔ ﺃﺨﺭﻯ‬
‫ﺴﺎﺒﻘﺔ‪.‬‬
‫ﻭﺘﺘﻡ ﻋﻤﻠﻴﺔ ﺍﻟﺘﻌﻠﻴﻡ ﻟﻠﺸﺒﻜﺔ ﻜﻤﺎ ﻴﻠﻰ‪:‬‬
‫‪ -١‬ﺍﻻﺨﺘﻴﺎﺭ ﺍﻟﻌﺸﻭﺍﺌﻰ ﻟﻸﻭﺯﺍﻥ ‪ Random Selection Weights‬ﻭﺍﻟﻘﻴﻡ‬
‫ﺍﻟﺤﺩﻴﺔ ‪.Threshold‬‬
‫‪ -٢‬ﻭﻀﻊ ﻗﻴﻡ ﻟﻠﻤﺩﺍﺨل ‪.Present inputs‬‬
‫‪ -٣‬ﺤـﺴﺎﺏ ﺍﻟﻤﺨـﺭﺝ ﺍﻟﺤﻘﻴﻘـﻰ ‪ Actual‬ﻭﺫﻟـﻙ ﺒﻁـﺭﺡ ﺍﻟﻘﻴﻤﺔ ﺍﻟﺤﺩﻴﺔ‬
‫‪ Threshold‬ﻤﻥ ﺍﻟﻤﺠﻤﻭﻉ ﺍﻟﻤﺭﺠﺢ ﻟﻠﻤﺩﺍﺨل ‪.Weighted Sum‬‬

‫)‪(1‬‬
‫‪Hassaun Mohamed H., “Fundamentals of Artificial Neural‬‬
‫‪Network”, Massachusetts Institute of Technology, Cambridge, 1999.‬‬

‫‪- ٦١ -‬‬
‫‪ -٤‬ﻴﺘﻡ ﺘﻐﻴﻴﺭ ﺍﻷﻭﺯﺍﻥ ﻤﺭﺓ ﺃﺨﺭﻯ ﻓﻰ ﺍﺘﺠﺎﻩ ﺍﻟﺘﻌﺭﻑ ﻟﻠﻌﻤل ﻋﻠﻰ ﺘﻘﻠﻴل ﺍﻟﺨﻁﺄ‪.‬‬
‫‪ -٥‬ﻭﻀﻊ ﻗﻴﻡ ﺃﺨﺭﻯ ﻟﻠﻤﺩﺍﺨل ﻭﺘﻜﺭﺍﺭ ﺍﻟﺨﻁﻭﺍﺕ ﺍﻟﺴﺎﺒﻘﺔ‪.‬‬
‫‪Perceptron learning Algorithm‬‬
‫)‪(1‬‬
‫ﻴﻤﻜﻥ ﺍﻟﺤﺼﻭل ﻋﻠﻰ ﺒﺭﻨﺎﻤﺞ ﻟﻠﺘﻌﻠﻴﻡ ﻜﻤﺎ ﻴﻠﻰ‪:‬‬
‫‪‬‬
‫‪ -١‬ﺍﻟﺒﺩﺀ ﻓﻰ ﻋﻤﻠﻴﺔ ﺘﺤﺩﻴﺩ ﺍﻷﻭﺯﺍﻥ ﻭﺍﻟﻘﻴﻡ ﺍﻟﺤﺩﻴﺔ‬
‫ﻨﻔﺭﺽ ﺃﻥ ﻋﺩﺩ ﺍﻟﻤﺩﺍﺨل )‪ (n‬ﻭﻫﻰ )‪(x1 , x2 , x3 , ….. , xn‬‬
‫‪ -٢‬ﻴﺘﻡ ﺇﺨﺘﻴﺎﺭ ﻗﻴﻤﺔ )‪ xo = (1‬ﺩﺍﺌﻤﺎﹰ ﻭﻗﻴﻤﺔ ﺍﻟﻭﺯﻥ ‪ (wo) = ‬ﺤﻴﺙ‬
‫‪ ‬ﻫﻰ ﺍﻟﻘﻴﻤﺔ ﺍﻻﻨﺤﻴﺎﺯﻴﺔ‪.‬‬
‫‪ -٣‬ﻴـﺘﻡ ﺍﻻﺨﺘﻴﺎﺭ ﻭﺍﻟﺘﺤﺩﻴﺩ ﺍﻟﻌﺸﻭﺍﺌﻰ ﻟﻘﻴﻡ ﺍﻷﻭﺯﺍﻥ ﻋﻨﺩ ﺍﻟﻤﺩﺍﺨل ﻋﻨﺩ‬
‫ﺯﻤﻥ ﻤﻌﻴﻥ )‪ (t‬ﻜﻤﺎ ﻴﻠﻰ‪:‬‬
‫)‪w1(t) , w2 (t) , w3 (t) , ….. wi (t) , … wn (t‬‬
‫‪ -٤‬ﻴﺘﻡ ﺍﻻﺨﺘﻴﺎﺭ ﻭﺍﻟﺘﺤﺩﻴﺩ ﺍﻟﻌﺸﻭﺍﺌﻰ ﻟﻠﻘﻴﻤﺔ ﺍﻟﺤﺩﻴﺔ‪.‬‬
‫‪‬‬
‫ﺘﺤﺩﻴﺩ ﻗﻴﻡ ﺍﻟﻤﺩﺍﺨل )‪x1 (t) , x2 (t) , x3 (t) , xi (t) , …. , xn(t‬‬
‫ﻭﻜﺫﻟﻙ ﻗﻴﻤﺔ ﺍﻟﻤﺨﺭﺝ ﺍﻟﻤﻁﻠﻭﺏ ﺃﻭ ﺍﻟﻤﺭﻏﻭﺏ )‪.d (t) = (desired‬‬
‫‪‬‬
‫ﺤﺴﺎﺏ ﺍﻟﻤﺨﺭﺝ ﺍﻟﺤﻘﻴﻘﻰ ﻜﻤﺎ ﻴﻠﻰ ‪:‬‬
‫‪in‬‬
‫( ‪Y (t) = f‬‬ ‫‪‬‬
‫‪io‬‬
‫) )‪wi(t) xi (t‬‬ ‫)‪(30‬‬

‫‪‬‬
‫ﻀﺒﻁ ﺍﻷﻭﺯﺍﻥ ﻜﻤﺎ ﻴﻠﻰ ‪:‬‬
‫‪ -١‬ﺍﻟﺤﺎﻟﺔ ﺍﻟﻤﻨﻀﺒﻁﺔ‬
‫)‪wi (t + 1) = wi (t‬‬ ‫)‪(31‬‬

‫ﻤﺤﻤﺩ ﻋﻠﻰ ﺍﻟﺸﺭﻗﺎﻭﻯ‪ ،‬ﻤﺭﺠﻊ ﺴﺒﻕ ﺫﻜﺭﻩ‪.‬‬ ‫)‪(1‬‬

‫‪- ٦٢ -‬‬
‫‪ -٢‬ﺇﺫﺍ ﻜـﺎﻥ ﺍﻟﻤﺨﺭﺝ ﺼﻔﺭ ﻭﻴﺠﺏ ﺃﻥ ﻴﻜﻭﻥ ﻭﺍﺤﺩ ﻟﻠﺘﻌﺭﻑ ﻋﻠﻰ ﺸﻜل‬
‫ﻤﻌﻴﻥ ﻴﺠﺏ ﺍﻟﻭﺼﻭل ﺇﻟﻰ ﺍﻟﺸﺭﻁ ﺍﻟﺘﺎﻟﻰ‪.‬‬
‫)‪wi (t + 1) = wi (t) + xi (t‬‬ ‫)‪(32‬‬
‫‪ -٣‬ﺇﺫﺍ ﻜﺎﻥ ﺍﻟﻤﺨﺭﺝ ﻭﺍﺤﺩ ﻭﻴﺠﺏ ﺃﻥ ﻴﻜﻭﻥ ﺼﻔﺭ ﻟﻠﺘﻌﺭﻑ ﻋﻠﻰ ﺸﻜل‬
‫ﺁﺨﺭ ﻴﺠﺏ ﺍﻟﻭﺼﻭل ﺇﻟﻰ ﺍﻟﺸﺭﻁ ﺍﻟﺘﺎﻟﻰ‪:‬‬
‫)‪wi (t + 1) = wi (t) - xi (t‬‬ ‫)‪(33‬‬
‫‪‬‬
‫ﻟﻘﺩ ﺘﻡ ﺘﻁﻭﻴﺭ ﻫﺫﺍ ﺍﻷﺴﻠﻭﺏ ﻟﻠﺘﻌﻠﻡ ﺒﻌﺩ ﺫﻟﻙ ﻜﻤﺎ ﻴﻠﻰ ‪:‬‬
‫ﻴـﺘﻡ ﺇﺠـﺭﺍﺀ ﺍﻟـﺘﻌﺩﻴل ﺍﻷﻭل ﻓﻰ ﻋﻤﻠﻴﺔ ﻀﺒﻁ ﺍﻷﻭﺯﺍﻥ ﻭﺫﻟﻙ ﻓﻰ ﺍﻟﺨﻁﻭﺓ‬
‫ﺍﻟﺭﺍﺒﻌﺔ ﻜﻤﺎ ﻴﻠﻰ‪:‬‬
‫‪ -١‬ﺍﻟﺤﺎﻟﺔ ﺍﻟﻤﻨﻀﺒﻁﺔ‬
‫)‪wi (t + 1) = wi (t‬‬ ‫)‪(34‬‬
‫‪ -٢‬ﺇﺫﺍ ﻜﺎﻥ ﺍﻟﻤﺨﺭﺝ ﺼﻔﺭ ﻭﻴﺠﺏ ﺃﻥ ﻴﻜﻭﻥ ﻭﺍﺤﺩ ﻟﻠﺘﻌﺭﻑ ﻋﻠﻰ ﺸﻜل‬
‫ﻤﻌﻴﻥ ﻴﺠﺏ ﺍﻟﻭﺼﻭل ﺇﻟﻰ ﺍﻟﺸﺭﻁ ﺍﻟﺘﺎﻟﻰ ‪:‬‬
‫)‪wi (t + 1) = wi (t) +  xi (t‬‬ ‫)‪(35‬‬
‫‪ -٣‬ﺇﺫﺍ ﻜﺎﻥ ﺍﻟﻤﺨﺭﺝ ﻭﺍﺤﺩ ﻭﻴﺠﺏ ﺃﻥ ﻴﻜﻭﻥ ﺼﻔﺭ ﻭﺫﻟﻙ ﻟﻠﺘﻌﺭﻑ ﻋﻠﻰ‬
‫ﺸﻜل ﺁﺨﺭ ﻴﺠﺏ ﺍﻟﻭﺼﻭل ﺇﻟﻰ ﺍﻟﺸﺭﻁ ﺍﻟﺘﺎﻟﻰ ‪:‬‬
‫)‪wi (t + 1) = wi (t) -  xi (t‬‬ ‫)‪(36‬‬
‫ﺤﻴﺙ ﻴﻜﻭﻥ ﺍﻟﺤﺩ )‪ (‬ﻤﻭﺠﺒﺎﹰ ﻭﻴﻨﺤﺼﺭ ﺒﻴﻥ ﺍﻟﺼﻔﺭ ﻭﺍﻟﻭﺍﺤﺩ ﺍﻟﺼﺤﻴﺢ‬
‫ﻭﻴﺴﺘﺨﺩﻡ ﻟﻠﺘﺤﻜﻡ ﻓﻰ ﻤﻌﺩل ﺍﻹﻨﻀﺒﺎﻁ‪.‬‬
‫‪(Widrow - Hoff delta rule)‬‬
‫ﻟﻘـﺩ ﻗﺎﻡ ‪ widrow & Hoff‬ﺒﺘﻌﺩﻴل ﺍﻷﺴﻠﻭﺏ ﺍﻟﺴﺎﺒﻕ ﺒﻬﺩﻑ ﺃﻥ ﻴﻜﻭﻥ ﺍﻻﻨﻀﺒﺎﻁ‬
‫ﻓـﻰ ﺘﻌـﺩﻴل ﺍﻷﻭﺯﺍﻥ ﺒﻘﺩﺭ ﻜﺒﻴﺭ ﺇﺫﺍ ﻜﺎﻥ ﺍﻟﻔﺭﻕ ﺒﻴﻥ ﺍﻟﻤﺨﺭﺝ ﺍﻟﻤﻁﻠﻭﺏ ﻭﺍﻟﺤﻘﻴﻘﻰ‬
‫ﻜﺒﻴـﺭﺍﹰ ﻭﻴﻜـﻭﻥ ﺼﻐﻴﺭﺍﹰ ﺇﺫﺍ ﻜﺎﻥ ﺍﻟﻔﺭﻕ ﺼﻐﻴﺭﺍﹰ ﻭﺫﻟﻙ ﺒﺎﻗﺘﺭﺍﺡ ﺩﺍﻟﺔ ﺩﻟﺘﺎ ﻟﻠﺘﻌﻠﻡ ﻜﻤﺎ‬
‫ﻴﻠﻰ ‪:‬‬

‫‪- ٦٣ -‬‬
‫ﻴﻌـﺭﻑ ﺍﻟﻔﺭﻕ ﺒﻴﻥ ﺍﻟﻤﺠﻤﻭﻉ ﺍﻟﻤﺭﺠﺢ ﻭﺍﻟﻤﺨﺭﺝ ﺍﻟﻤﻁﻠﻭﺏ ﻋﻠﻰ ﺃﻨﻪ ﺩﺍﻟﺔ ﺍﻟﺨﻁﺄ ﻜﻤﺎ‬
‫ﻴﻠﻰ‪:‬‬
‫)‪ = d (t) - y (t‬‬ ‫)‪(37‬‬
‫ﻭﺒـﺫﻟﻙ ﺘﻜـﻭﻥ ‪ +1 = ‬ﺼـﺤﻴﺤﻴﺎﹰ ﺇﺫﺍ ﻜـﺎﻥ ﺍﻟﻤﺨﺭﺝ ﺍﻟﻤﻁﻠﻭﺏ ﻭﺍﺤﺩﺍﹰ ﻭﻜﺎﻥ‬
‫ﺍﻟﻤﺠﻤـﻭﻉ ﺍﻟﻤـﺭﺠﺢ ﻴـﺴﺎﻭﻯ ﺍﻟـﺼﻔﺭ ﻭﺘﺼﺒﺢ ﺍﻟﻘﻴﻤﺔ ‪ -1 = ‬ﺇﺫﺍ ﻜﺎﻥ ﺍﻟﻤﺨﺭﺝ‬
‫‪ = ‬ﺼﻔﺭ ﻓﻰ ﺤﺎﻟﺔ‬ ‫ﺍﻟﻤﻁﻠﻭﺏ ﺼﻔﺭﺍﹰ ﻭﺍﻟﻤﺠﻤﻭﻉ ﺍﻟﻤﺭﺠﺢ ﻴﺴﺎﻭﻯ ﺍﻟﻭﺤﺩﻩ ﻭﺘﺼﺒﺢ‬
‫ﺍﻟﺘـﺴﺎﻭﻯ ﺃﻭ ﺍﻟﺘﻌﺭﻑ ﺍﻟﻜﺎﻤل ﻭﻴﺼﺒﺢ ﺍﺠﺭﺍﺀ ﺍﻟﺘﻌﺩﻴل ﻓﻰ ﻋﻤﻠﻴﺔ ﻀﺒﻁ ﺍﻷﻭﺯﺍﻥ ﻜﻤﺎ‬
‫ﻓﻰ ﺍﻟﺨﻁﻭﺓ ﺍﻟﺭﺍﺒﻌﺔ ﺍﻟﻤﻌﺩﻟﺔ ﺜﺎﻨﻴﺎﹰ ﻜﻤﺎ ﻴﻠﻰ‪:‬‬
‫‪‬‬
‫ﻴﺘﻡ ﺇﺠﺭﺍﺀ ﺍﻟﻀﺒﻁ ﺍﻟﻤﻌﺩل ﻟﻸﻭﺯﺍﻥ ﻜﻤﺎ ﻴﻠﻰ‪:‬‬
‫ﺍﻟﺤﺎﻟﺔ ﺍﻟﻤﻨﻀﺒﻁﺔ ‪:‬‬
‫‪ = d (t) - y (t) = 0‬‬ ‫)‪(38‬‬
‫)‪wi (t + 1) = wi (t) +   xi (t‬‬ ‫)‪(39‬‬
‫‪d (t) = + 1‬‬ ‫ﻭﻓﻰ ﺤﺎﻟﺔ ﺍﻟﺘﻌﺭﻑ ﻋﻠﻰ ﺍﻟﺸﻜل ﺍﻷﻭل ﻓﺈﻥ‬
‫‪d (t) = 0‬‬ ‫ﻭﻓﻰ ﺤﺎﻟﺔ ﺍﻟﺘﻌﺭﻑ ﻋﻠﻰ ﺍﻟﺸﻜل ﺍﻟﺜﺎﻨﻰ ﻓﺈﻥ‬
‫ﻭﻟﻘـﺩ ﺃﻁﻠـﻕ )‪ (widrow‬ﻋﻠﻰ ﻫﺫﺍ ﺍﻟﻨﻭﻉ ﻤﻥ ﺍﻷﺴﻠﻭﺏ ﺍﻟﻨﻴﺭﻭﻥ ﺍﻟﺨﻁﻰ‬
‫ﺍﻻﻨﻀﺒﺎﻁﻰ )‪(Adaptive linear neurons ADA LINE‬‬
‫‪Vectorial Analogy for learning Mechanism‬‬
‫ﻴﻤﻜـﻥ ﺍﺴـﺘﺨﺩﺍﻡ ﺍﻟﺘﻤﺜـﻴل ﺒﺎﻟﻤﺘﺠﻬﺎﺕ ﻓﻰ ﺘﻔﻬﻡ ﻤﻴﻜﺎﻨﻴﻜﻴﺔ ﺍﻟﺘﻌﻠﻴﻡ ﻟﻌﻨﺼﺭ ﺍﻹﺩﺭﺍﻙ‬
‫)‪(1‬‬
‫ﺍﻟﺒﺴﻴﻁ ﻜﻤﺎ ﻴﻠﻰ‪:‬‬
‫ﺒﻔﺭﺽ ﺃﻨﻪ ﻴﻤﻜﻥ ﺘﻤﺜﻴل ﺍﻟﻤﺩﺨﻼﺕ ﻟﻠﻨﻴﺭﻭﻥ ﻓﻰ ﺸﻜل ﻤﺘﺠﻪ ‪:‬‬
‫)‪x = (x0 , x1 , x2 , …. , xn‬‬ ‫)‪(40‬‬
‫ﻭﺍﻨﻪ ﻴﻤﻜﻥ ﻜﺘﺎﺒﺔ ﺍﻷﻭﺯﺍﻥ ﻓﻰ ﺸﻜل ﻤﺘﺠﻪ ﺁﺨﺭ ‪:‬‬

‫ﻤﺤﻤﺩ ﻋﻠﻰ ﺍﻟﺸﺭﻗﺎﻭﻯ‪ ،‬ﻤﺭﺠﻊ ﺴﺒﻕ ﺫﻜﺭﻩ‪.‬‬ ‫)‪(1‬‬

‫‪- ٦٤ -‬‬
‫)‪w = (w0 , w1 , w2 , w3 , …. , wn‬‬ ‫)‪(41‬‬
‫ﻭﺒﺫﻟﻙ ﻴﻤﻜﻥ ﺍﻟﺤﺼﻭل ﻋﻠﻰ ﺍﻟﻤﺠﻤﻭﻉ ﺍﻟﻤﺭﺠﺢ ﻓﻰ ﺸﻜل ﺤﺎﺼل ﺍﻟﻀﺭﺏ ﺍﻟﻨﻘﻁﻰ ﻟﻤﺘﺠﻬﻴﻥ‬
‫‪‬‬
‫= ‪Dot Product‬‬ ‫‪‬‬
‫‪io‬‬
‫‪wi xi = w . x‬‬ ‫)‪(42‬‬
‫‪ Multilayer Model ‬‬
‫ﺇﻥ ﻨﻤـﻭﺫﺝ ﺍﻟﻨﻴﺭﻭﻥ ﺫﻭ ﺍﻟﻁﺒﻘﺔ ﺍﻟﻭﺍﺤﺩﺓ ﻻ ﻴﻤﻜﻥ ﺃﻥ ﻴﻌﻁﻰ ﺍﻟﺤل ﻟﻠﻤﺸﺎﻜل ﺍﻟﺘﻰ ﻻ‬
‫ﻴﻤﻜﻥ ﻓﺼﻠﻬﺎ ﺒﺨﻁ ﻤﺴﺘﻘﻴﻡ ﻭﺍﺤﺩ‪ .‬ﻭﺒﺎﻟﺘﺎﻟﻰ ﻨﻠﺠﺄ ﺇﻟﻰ ﺍﻟﺸﺒﻜﺔ ﺍﻟﺜﻨﺎﺌﻴﺔ ﺍﻟﻁﺒﻘﺎﺕ ﻟﻠﻔﺼل‬
‫ﺒﻴﻥ ﺍﻟﺒﺼﻤﺎﺕ‪ ،‬ﻭﻟﻜﻥ ﻫﻨﺎﻙ ﺴﻠﺒﻴﺎﺕ ﻤﻥ ﺃﻫﻤﻬﺎ ﺃﻥ ﺍﻟﻌﻨﺼﺭ ﺍﻟﺜﺎﻟﺙ ﻓﻰ ﺍﻟﻁﺒﻘﺔ ﺍﻟﺜﺎﻨﻴﺔ‬
‫ﻴﻜـﻭﻥ ﻏﻴـﺭ ﻗـﺎﺩﺭ ﻋﻠﻰ ﺍﻟﺘﻤﻴﻴﺯ ﺒﻴﻥ ﺃﻯ ﻤﻥ ﺍﻟﻤﺩﺍﺨل ﺍﻟﻨﺸﻁﺔ ﻋﻨﺩ ﺍﻟﻤﺩﺨل ﻨﻅﺭ‪‬ﺍ‬
‫ﻻﻨﻌﺯﺍﻟﻬﺎ ﻭﺒﺎﻟﺘﺎﻟﻰ ﻻ ﻴﻤﻜﻥ ﻋﻤل ﺍﻹﺠﺭﺍﺀ ﺍﻟﺼﺤﻴﺢ ﻟﻀﺒﻁ ﺍﻷﻭﺯﺍﻥ‪ ،‬ﻜﻤﺎ ﺃﻥ ﺍﻟﺩﺍﻟﺔ‬
‫ﺍﻟﺤﺩﻴـﺔ ﻻ ﺘـﺴﺎﻋﺩ ﻋﻠـﻰ ﺍﻟﻤﻌﺭﻓﺔ ﺍﻟﺤﻘﻴﻘﻴﺔ ﻭﺍﻟﺘﻔﺭﻗﺔ ﻟﺤﺎﻟﺔ ﺍﻟﻤﺩﺍﺨل ﻭﻜﻴﻔﻴﺔ ﻀﺒﻁ‬
‫ﺍﻷﻭﺯﺍﻥ ﻭﻟﻠﺘﻐﻠﺏ ﻋﻠﻰ ﻫﺫﻩ ﺍﻟﻤﺸﻜﻠﺔ‪ ،‬ﻜﺎﻥ ﻻﺒﺩ ﻤﻥ ﺍﺴﺘﺨﺩﺍﻡ ﺩﺍﻟﺔ ﺤﺩﻴﺔ ﻻ ﺨﻁﻴﺔ ﻟﻬﺎ‬
‫ﻤـﻴل ﺜﺎﺒـﺕ ﺃﻭ ﻤـﻴل ﻴﺘﻐﻴـﺭ ﺒﺒﻁﺀ ﺤﻴﺙ ﻴﺴﺎﻋﺩ ﻫﺫﺍ ﺍﻟﻤﻴل ﻋﻠﻰ ﺍﻟﺘﻔﺭﻗﺔ ﺒﻴﻥ ﻗﻴﻡ‬
‫ﺍﻷﻭﺯﺍﻥ‪ ،‬ﺩﺍﻟـﺔ ﺤﺩﻴـﺔ ﺫﺍﺕ ﻤـﻴل ﺜﺎﺒﺕ ﻭﺩﺍﻟﺔ ﻤﻘﻁﻌﻴﺔ )‪(Sigmoid Function‬‬
‫ﻤﺘﻐﻴﺭﺓ ﺍﻟﻤﻴل ﺸﻜل ﺍﻟﺤﺭﻑ )‪.(S‬‬
‫ﻭﻫﺫﺍ ﺍﻟﺘﻁﻭﻴﺭ ﻫﻭ ﺍﻷﺴﺎﺱ ﻓﻰ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﻤﺘﻌﺩﺩﺓ ﺍﻟﻁﺒﻘﺎﺕ‪.‬‬

‫‪1‬‬

‫‪1‬‬ ‫‪A‬‬ ‫‪B‬‬

‫‪O‬‬ ‫‪O‬‬
‫ﺸﻜل ﺭﻗﻡ )‪ :(١١-٣‬ﺍﻟﺩﻭﺍل ﺍﻟﺤﺩﻴﺔ )‪ (A‬ﺩﺍﻟﺔ ﺤﺩﻴﺔ ﻟﻬﺎ ﻤﻴل ﺜﺎﺒﺕ‬
‫)‪ (B‬ﺩﺍﻟﺔ ﺤﺩﻴﺔ ﻤﻘﻁﻌﻴﺔ ﺫﺍﺕ ﻤﻴل ﻤﺘﻐﻴﺭ‬

‫‪- ٦٥ -‬‬
‫ﻭﻴﺘﻜﻭﻥ ﺍﻟﻨﻤﻭﺫﺝ ﻤﺘﻌﺩﺩ ﺍﻟﻁﺒﻘﺎﺕ ﻤﻥ ﺜﻼﺜﺔ ﻁﺒﻘﺎﺕ ﻫﻰ)‪:(1‬‬
‫‪ -١‬ﻁﺒﻘﺔ ﺍﻟﻤﺩﺨل‪Input Layer :‬‬
‫ﻭﺍﻟﺘﻰ ﺘﻌﻤل ﻋﻨﺎﺼﺭﻫﺎ ﺍﻟﺤﺴﺎﺒﻴﺔ ﻋﻠﻰ ﺘﻭﺯﻴﻊ ﺍﻟﻘﻴﻡ ﺍﻟﻤﺩﺨﻠﺔ ﻭﻻ ﺘﻘﻭﻡ ﺒﺈﺠﺭﺍﺀ‬
‫ﻋﻤﻠﻴﺔ ﺍﻟﺠﻤﻊ ﺍﻟﻤﺭﺠﺢ‪.‬‬
‫‪ -٢‬ﺍﻟﻁﺒﻘﺔ ﺍﻟﻤﺨﺘﻔﻴﺔ‪Hidden Layer :‬‬
‫ﻭﻫـﻰ ﺍﻟﻁﺒﻘﺔ ﺍﻟﺘﻰ ﺘﻘﻊ ﺒﻴﻥ ﻁﺒﻘﺔ ﺍﻟﻤﺩﺨل ﻭﻁﺒﻘﺔ ﺍﻟﻤﺨﺭﺝ ﻭﺘﻘﻭﻡ ﻋﻨﺎﺼﺭﻫﺎ‬
‫ﺍﻟﺤﺴﺎﺒﻴﺔ ﺒﺈﺠﺭﺍﺀ ﻋﻤﻠﻴﺔ ﺍﻟﺠﻤﻊ ﺍﻟﻤﺭﺠﺢ ‪.Weighted Sum‬‬
‫ﻭﺘﻁﺒـﻴـﻕ ﺍﻟﻘـﻴـﻡ ﺍﻟﺤﺩﻴــﺔ ﻭﺫﻟـﻙ ﺒﺎﺴـﺘﺨﺩﺍﻡ ﺍﻟﺩﺍﻟﺔ ﺍﻟﺤﺩﻴﺔ ﺍﻟﻤﻘﻁﻌﻴﺔ‬
‫‪Sigmoid Function‬‬
‫‪ -٣‬ﻁﺒﻘﺔ ﺍﻟﻤﺨﺭﺝ‪Output Layer :‬‬
‫ﻭﻫـﻰ ﺍﻟﻁـﺒﻘﺔ ﺍﻟﺘـﻰ ﺘﻘﻊ ﻋﻨﺩ ﺍﻟﻤﺨﺭﺝ ﻭﺘﻘﻭﻡ ﻋﻨﺎﺼﺭﻫﺎ ﺍﻟﺤﺴﺎﺒﻴﺔ ﺒﺈﺠﺭﺍﺀ‬
‫ﻋﻤﻠﻴﺔ ﺍﻟﺠﻤﻊ ﺍﻟﻤﺭﺠﺢ ‪ Weighted Sum‬ﻭﻭﻀﻊ ﻭﺘﻁﺒﻴـﻕ ﺍﻟﻘﻴﻡ ﺍﻟﺤﺩﻴـﺔ‬
‫ﻟﻺﺜﺎﺭﺓ ﻭﺫﻟﻙ ﺒﺎﺴﺘﺨﺩﺍﻡ ﺍﻟﺩﺍﻟﺔ ﺍﻟﺤﺩﻴﺔ ﺍﻟﻤﻘﻁﻌﻴﺔ ‪ Sigmoid Function‬ﻤﺜل‬
‫ﺍﻟﻁﺒﻘﺔ ﺍﻟﻤﺨﺘﻔﻴﺔ‪.‬‬
‫ﻭﺤـﻴﺙ ﺘـﻡ ﺍﻟﺘﻌﺩﻴل ﺒﺈﻀﺎﻓﺔ ﻁﺒﻘﺔ ﻤﺨﺘﻔﻴﺔ ﺒﻴﻥ ﻁﺒﻘﺔ ﺍﻟﻤﺩﺨل ﻭﺍﻟﻤﺨﺭﺝ ﻭﺍﺴﺘﺨﺩﺍﻡ ﺍﻟﺩﺍﻟﺔ‬
‫ﺍﻟﺤﺩﻴﺔ ﺍﻟﻤﻘﻁﻌﻴـﺔ ‪ Sigmoid Function‬ﻭﺍﻟﺘﻰ ﺘﺤﻤـل ﺍﻟﺨـﻭﺍﺹ ﺍﻟﻼ ﺨﻁﻴﺔ ﻭﺒﺎﻟﺘﺎﻟﻰ‬
‫ﻓـﺈﻥ ﻫـﻨـﺎﻙ ﻁﺭﻴﻘﺔ ﺃﺨﺭﻯ ﻟﻠﺘﻌﻠﻴﻡ ﺘﻜﻭﻥ ﻗﺎﺩﺭﺓ ﻋﻠﻰ ﺍﻟﺘﻔﺎﻋل ﺒﻴﻥ ﺍﻟﻁﺒﻘﺎﺕ ﺍﻟﺜﻼﺜﺔ ﻤﺜل‬
‫ﻗﺎﻋﺩﺓ ﺍﻻﻨﺘﺸﺎﺭ ﺍﻟﺨﻠﻔﻰ )‪ (2) .(Back Propagation Rule‬ﻭﺘﻜﻭﻥ ﻜﻤﺎ ﻴﻠﻰ ‪:‬‬

‫)‪(1‬‬
‫‪David G, “Neural Networks An Introductory Guide for Social‬‬
‫‪Scientists”, SAGE Publications, London, Thousand Oaks, New‬‬
‫‪Delhi, 1999.‬‬
‫)‪(2‬‬
‫‪Yu Chen-Kuan “Using Back Propagation Neural Network to‬‬
‫‪Forecast the Production Values of the Machinery Industry in‬‬
‫‪Taiwan”, Journal of American Academy of Business, Cambridge,‬‬
‫‪Vol. 9, No. 1, March, 2006.‬‬

‫‪- ٦٦ -‬‬
‫‪Back-propagation‬‬
‫ﻫـﻭ ﺃﺴـﻠﻭﺏ ﻟﺘﻌﻠﻴﻡ ﺍﻟﺸﺒﻜﺎﺕ ﻤﺘﻌﺩﺩﺓ ﺍﻟﻁﺒﻘﺎﺕ ﻭﻴﺘﻤﻴﺯ ﺃﺴﻠﻭﺏ ﺍﻻﻨﺘﺸﺎﺭ ﺍﻟﺨﻠﻔﻲ ﺒﻤﺎ‬
‫ﻴﻠﻲ ‪:‬‬
‫‪ -١‬ﺍﻋﺘﻤﺎﺩﻩ ﻋﻠﻰ ﺃﺴﺎﺱ ﺭﻴﺎﻀﻲ ﻗﻭﻱ‪.‬‬
‫‪ -٢‬ﻴﺴﻤﺢ ﺒﺘﻌﺩﻴل ﺍﻟﻌﻼﻗﺎﺕ ﻭﺘﻐﻴﻴﺭ ﺍﻷﻭﺯﺍﻥ ﻓﻲ ﺍﻟﻁﺒﻘﺎﺕ ﺍﻟﻤﺨﺘﻠﻔﺔ ﻟﻠﺸﺒﻜﺔ ﻋﻠﻰ‬
‫ﺤـﺴﺏ ﻤﻘﺎﺭﻨـﺔ ﺍﻟﻤﺨـﺭﺠﺎﺕ ﺍﻟﺤﻘﻴﻘﻴﺔ ﺍﻟﻤﻁﻠﻭﺒﺔ ﻭﻴﺨﻔﺽ ﺍﻟﺨﻁﺄ ﻋﻨﺩ ﻜل‬
‫ﺘﺩﺭﻴﺏ ﻟﻠﺸﺒﻜﺔ ﻭﺍﻟﺘﺩﺭﻴﺏ ﻴﻜﻭﻥ ﺃﻤﺎﻤﻲ ﻟﺘﻘﺩﻴﺭ ﺍﻟﺨﻁﺄ ﺜﻡ ﻴﺘﺒﻌﻪ ﺘﺩﺭﻴﺏ ﺨﻠﻔﻲ‬
‫ﻟﺘﻌﺩﻴل ﺍﻷﻭﺯﺍﻥ‪.‬‬
‫‪ -٣‬ﻴﺘﻡ ﺘﻁﺒﻴﻘﻪ ﻓﻲ ﻤﺠﺎﻻﺕ ﻋﻠﻤﻴﺔ ﻤﺨﺘﻠﻔﺔ‪.‬‬
‫‪ -٤‬ﺍﻟﻘﺩﺭﺓ ﺍﻟﻌﺎﻟﻴﺔ ﻋﻠﻰ ﺼﻴﺎﻏﺔ ﺍﻟﻌﻼﻗﺎﺕ ﺍﻟﺭﻴﺎﻀﻴﺔ ﺍﻟﻐﻴﺭ ﺨﻁﻴﺔ ﺍﻟﻤﻌﻘﺩﺓ‪.‬‬
‫‪ -٥‬ﻻ ﻴﺤﺘﺎﺝ ﺇﻟﻰ ﻨﻤﺎﺫﺝ ﺍﻓﺘﺭﺍﻀﻴﺔ ﻤﺴﺒﻘﺔ ﻟﺘﻤﺜﻴل ﺍﻟﺒﻴﺎﻨﺎﺕ‪.‬‬
‫ﻭﻓﻴﻤﺎ ﻴﻠﻲ ﺨﻁﻭﺍﺕ ﺃﺴﻠﻭﺏ ﺍﻻﻨﺘﺸﺎﺭ ﺍﻟﺨﻠﻔﻲ ‪:‬‬
‫‪ -١‬ﺘﻘـﻭﻡ ﺍﻟـﺸﺒﻜﺔ ﻏﻴـﺭ ﺍﻟﻤﺩﺭﺒـﺔ ﺒﻌﻤل ﺍﻟﺤﺴﺎﺒﺎﺕ ﺍﻟﻼﺯﻤﺔ ﻟﻠﺠﻤﻊ ﺍﻟﻤﺭﺠﺢ‬
‫ﻭﺘﻁﺒـﻴﻕ ﺍﻟﺩﺍﻟـﺔ ﺍﻟﺤﺩﻴﺔ ﻭﺤﺴﺎﺏ ﻗﻴﻤﺔ ﺍﻟﻤﺨﺭﺝ ﻭﺒﺎﻟﺘﺎﻟﻰ ﻨﺤﺼل ﻋﻠﻰ ﻗﻴﻡ‬
‫ﻋﺸﻭﺍﺌﻴﺔ ﻟﻠﺨﺭﺝ ﻤﻥ ﺍﻟﺸﺒﻜﺔ‪.‬‬
‫‪ -٢‬ﻴﺘﻡ ﺤﺴﺎﺏ ﺩﺍﻟﺔ ﺍﻟﺨﻁﺄ ﺒﻴﻥ ﻗﻴﻡ ﺍﻟﻤﺨﺭﺝ ﺍﻟﻌﺸﻭﺍﺌﻴﺔ ﺍﻟﺘﻰ ﺘﻡ ﺍﻟﺤﺼﻭل ﻋﻠﻴﻬﺎ‬
‫ﻭﺍﻟﺘﻰ ﺘﻤﺜل ﺍﻟﻤﺨﺭﺝ ﺍﻟﺤﻘﻴﻘﻰ ﻭﻗﻴﻡ ﺍﻟﻤﺨﺭﺝ ﺍﻟﻤﻌﻴﻥ ﺍﻟﻤﻁﻠﻭﺏ‪.‬‬
‫‪ -٣‬ﻟﺘﻘﻠـﻴل ﻗـﻴﻡ ﺩﺍﻟﺔ ﺍﻟﺨﻁﺄ ﻨﻘﻭﻡ ﺒﺘﻌﺩﻴل ﺍﻷﻭﺯﺍﻥ ﻓﻰ ﻁﺒﻘﺔ ﺍﻟﻤﺨﺭﺝ ﺃﻭﻻﹰ ﻓﻰ‬
‫ﺍﺘﺠـﺎﻩ ﺘﻘﻠﻴل ﺍﻟﺨﻁﺄ ﺜﻡ ﻨﻘل ﻫﺫﺍ ﺍﻟﺨﻁﺄ ﺇﻟﻰ ﺍﻟﻁﺒﻘﺔ ﺍﻟﺴﺎﺒﻘﺔ ﻭﺘﻌﺩﻴل ﺍﻷﻭﺯﺍﻥ‬
‫ﻋﻨﺩ ﻤﺩﺍﺨل ﻫﺫﻩ ﺍﻟﻁﺒﻘﺔ ﻭﺤﺴﺎﺏ ﻗﻴﻡ ﺍﻟﻤﺨﺭﺝ ﻤﺭﺓ ﺜﺎﻨﻴﺔ ﻟﻠﺸﺒﻜﺔ ﻓﻰ ﺍﻟﻭﻀﻊ‬
‫ﺍﻟﺠﺩﻴـﺩ ﻭﺤـﺴﺎﺏ ﺩﺍﻟـﺔ ﺍﻟﺨﻁـﺄ ﻤـﺭﺓ ﺃﺨﺭﻯ ﻤﺴﺘﺨﺩﻤ‪‬ﺎ ﺍﻟﻤﺨﺭﺝ ﺍﻟﺠﺩﻴﺩ‬
‫ﻭﺍﻟﻤﺨﺭﺝ ﺍﻟﻤﻁﻠﻭﺏ ﻭﺘﻌﺩﻴل ﺍﻷﻭﺯﺍﻥ ﻤﺭﺓ ﺃﺨﺭﻯ ﻓﻰ ﻁﺒﻘﺔ ﺍﻟﻤﺨﺭﺝ ﺜﻡ ﻨﻘل‬
‫ﻫﺫﺍ ﺍﻟﺨﻁﺄ ﺍﻟﺠﺩﻴﺩ ﺇﻟﻰ ﺍﻟﻁﺒﻘﺔ ﺍﻟﺘﻰ ﻗﺒﻠﻬﺎ ﻭﻫﻜﺫﺍ‪.‬‬

‫‪- ٦٧ -‬‬
‫‪ -٤‬ﻴـﺘﻡ ﺘﻜﺭﺍﺭ ﺍﻟﺘﻌﻠﻴﻡ ﻋﺩﺓ ﻤﺭﺍﺕ ﺤﺘﻰ ﺘﺘﻼﺸﻰ ﺩﺍﻟﺔ ﺍﻟﺨﻁﺄ ﻭﻴﺼﺒﺢ ﺍﻟﻤﺨﺭﺝ‬
‫ﺍﻟﻤﺤﺴﻭﺏ ﻫﻭ ﺍﻟﻤﺨﺭﺝ ﺍﻟﻤﻁﻠﻭﺏ ﻭﺒﺫﻟﻙ ﺘﺘﻌﻠﻡ ﺍﻟﺸﺒﻜﺔ‪ .‬ﻭﺘﻌﺘﺒﺭ ﻋﺩﺩ ﻤﺭﺍﺕ‬
‫ﺍﻟﺘﻜﺭﺍﺭ ﻫﻰ ﺍﻟﻤﻘﻴﺎﺱ ﻟﺘﻌﻠﻡ ﺍﻟﺸﺒﻜﺔ‪.‬‬
‫)‪(1‬‬
‫ﻭﻴﺘﻡ ﺘﻤﺜﻴل ﻁﺭﻴﻘﺔ ﺍﻻﻨﺘﺸﺎﺭ ﺍﻟﺨﻠﻔﻰ ﺭﻴﺎﻀﻴ‪‬ﺎ ﻜﻤﺎ ﻴﻠﻰ‪:‬‬
‫‪ -١‬ﺒﻔﺭﺽ ﺃﻥ ﻫﻨﺎﻙ ﺸﺒﻜﺔ ﺜﻼﺜﻴﺔ ﺍﻟﻁﺒﻘﺎﺕ‪.‬‬
‫‪ -٢‬ﺃﻥ ﺍﻟﻌﻨﺎﺼﺭ ‪ i, j‬ﻋﻨﺎﺼﺭ ﺩﺍﺨل ﺍﻟﺸﺒﻜﺔ‪.‬‬
‫‪ -٣‬ﺍﻟﻭﺯﻥ ﺒﻴﻥ ﺍﻟﻌﻨﺼﺭﻴﻥ ‪.Wij‬‬
‫‪ -٤‬ﺍﻟﻤﺨﺭﺝ ﺍﻟﺤﻘﻴﻘﻰ ﻋﻨﺩ ﻤﺨﺭﺝ ﺍﻟﻌﻨﺼﺭ ‪ j‬ﻫﻭ ‪.OPj‬‬
‫‪ -٥‬ﺍﻟﻤﺨﺭﺝ ﺍﻟﻤﻁﻠﻭﺏ ﻋﻨﺩ ﻤﺨﺭﺝ ﺍﻟﻌﻨﺼﺭ )‪ (j‬ﻫﻭ ‪.tpj‬‬
‫‪ -٦‬ﺍﻟﺨﻁﺄ ﺍﻟﻜﻠﻰ ‪.Ep‬‬
‫‪ -٧‬ﺒﻔـﺭﺽ ﺃﻥ ﺩﺍﻟـﺔ ﺍﻟﺨﻁـﺄ ﺘﺘﻨﺎﺴـﺏ ﻤﻊ ﻤﺭﺒﻊ ﺍﻟﻔﺭﻕ ﺒﻴﻥ ﺍﻟﻤﺨﺭﺝ‬
‫ﺍﻟﺤﻘﻴﻘﻰ ﻭﺍﻟﻤﺨﺭﺝ ﺍﻟﻤﻁﻠﻭﺏ‪.‬‬
‫‪1‬‬
‫‪EP ‬‬ ‫‪‬‬ ‫‪( tp j - OPj ) 2‬‬ ‫)‪(43‬‬
‫‪2 j‬‬
‫ﻭﻴﻤﻜﻥ ﺤﺴـﺎﺏ ﺩﺍﻟﺔ ﺍﻟﺘﻨﺸﻴـﻁ )‪ (net pj‬ﻓﻰ ﺍﻟﻌﻨﺼـﺭ )‪ (j‬ﻭﺍﻟﺘﻰ ﺘﻌﺘﺒﺭ‬
‫ﻤﺠﻤﻭﻉ ﺤﺎﺼل ﻀﺭﺏ ﺍﻟﻭﺯﻥ ﻓﻰ ﻗﻴﻤﺔ ﺍﻟﺩﺨل‪.‬‬
‫‪net p j  Σ w ij op i‬‬ ‫)‪(44‬‬
‫‪j‬‬

‫ﺤﻴﺙ ‪ opi‬ﻫﻰ ﺍﻟﻤﺨﺭﺝ ﺍﻟﻔﻌﻠﻰ ﻤﻥ ﺍﻟﻌﻨﺼﺭ ﺃﻭ ﺍﻟﻨﻴﺭﻭﻥ ‪ i‬ﻭﻴﻜﻭﻥ ﺍﻟﻤﺨﺭﺝ‬


‫ﺍﻟﻔﻌﻠـﻰ ‪ opj‬ﻤـﻥ ﺍﻟﻌﻨﺼﺭ )‪ (j‬ﻫﻭ ﺤﺎﺼل ﻀﺭﺏ ﺍﻟﻤﺠﻤﻭﻉ ﺍﻟﻤﺭﺠﺢ ﻓﻰ‬
‫ﺍﻟﺩﺍﻟﺔ ﺍﻟﺤﺩﻴﺔ ﺍﻟﻤﻘﻁﻌﻴﺔ )‪ (Fj‬ﻜﻤﺎ ﻴﻠﻰ‪:‬‬
‫) ‪Op j  f ( net p j‬‬ ‫)‪(45‬‬

‫ﻤﺤﻤﺩ ﻋﻠﻰ ﺍﻟﺸﺭﻗﺎﻭﻯ‪ ،‬ﻤﺭﺠﻊ ﺴﺒﻕ ﺫﻜﺭﻩ‪.‬‬ ‫)‪(1‬‬

‫‪- ٦٨ -‬‬
‫‪ -٨‬ﻭﻴﻤﻜـﻥ ﻜـﺘﺎﺒﺔ ﺍﻟﺘﻐﻴﻴﺭ ﻓﻰ ﺍﻟﺨﻁﺄ ﺍﻟﻜﻠﻰ ﺒﺩﻻﻟﺔ ﺍﻟﺘﻐﻴﺭ ﻓﻰ ﺍﻷﻭﺯﺍﻥ‬
‫ﻜﻤـﺎ ﻴﻠﻰ)‪:(1‬‬
‫‪ Ep‬‬ ‫‪ Ep  net p j‬‬
‫‪‬‬ ‫)‪(46‬‬
‫‪ w ij  net p j  w i j‬‬
‫ﻭﻴﻤﻜـﻥ ﺘﻌـﺩﻴل ﺍﻟﺤﺩ ﺍﻟﺜﺎﻨﻰ ﻤﻥ ﺍﻟﻤﻌﺎﺩﻟﺔ )‪ (46‬ﻭﺍﻟﺫﻯ ﻴﺸﻤل ﺍﻟﺘﻐﻴﺭ ﻓﻰ‬
‫ﺍﻟﺩﺍﻟﺔ ﺍﻟﺤﺩﻴﺔ ﺍﻟﻤﻘﻁﻌﻴﺔ ﺒﺩﻻﻟﺔ ﺍﻟﺘﻐﻴﺭ ﻓﻰ ﺍﻷﻭﺯﺍﻥ‪.‬‬
‫ﻟﻴﺼﺒﺢ ﺍﻟﻤﺨﺭﺝ ﺍﻟﻔﻌﻠﻰ ‪ Opi‬ﻤﻥ ﺍﻟﻌﻨﺼﺭ )‪ (i‬ﻜﻤﺎ ﻴﻠﻰ‪:‬‬
‫‪ net p j‬‬ ‫‪‬‬
‫‪‬‬ ‫‪ Wkj O pk‬‬ ‫)‪(47‬‬
‫‪ w ij  w ij k‬‬
‫‪ Wkj‬‬
‫‪= Σ‬‬ ‫‪Op k  Op i‬‬ ‫)‪(48‬‬
‫‪k‬‬ ‫‪ w ij‬‬
‫‪ Wkj‬‬
‫‪‬‬ ‫)‪(49‬‬ ‫ﺤﻴﺙ ﺃﻥ ﺍﻟﻘﻴﻤﺔ‬
‫‪ w ij‬‬
‫ﻓﻰ ﺠﻤﻴﻊ ﺍﻷﺤﻭﺍل ﻤﺎ ﻋﺩﺍ ﻋﻨﺩ ‪.k = i‬‬
‫ﻓﺈﻥ ﻗﻴﻤﺘﻬﺎ ﺘﺴﺎﻭﻯ ﺍﻟﻭﺤﺩﺓ ‪pj‬‬
‫‪ -٩‬ﺒﻔـﺭﺽ ﺃﻥ ﺍﻟﺘﻐﻴـﺭ ﻓﻰ ﺍﻟﺨﻁﺄ ﻜﺩﺍﻟﺔ ﻓﻰ ﺍﻟﺘﻐﻴﺭ ﻓﻰ ﻤﺩﺍﺨل ﺍﻟﺸﺒﻜﺔ‬
‫ﻟﻠﻌﻨﺼﺭ ‪ j‬ﻜﻤﺎ ﻴﻠﻰ‪:‬‬
‫‪ Ep‬‬
‫‪  pj‬‬ ‫)‪(50‬‬
‫‪ net p j‬‬
‫ﻭﺒﺎﻟـﺘﻌﻭﻴﺽ ﻓـﻰ ﺍﻟﻤﻌﺎﺩﻟـﺔ )‪ (46‬ﻴﺼﺒﺢ ﺍﻟﺘﻐﻴﺭ ﻓﻰ ﺍﻟﺨﻁﺄ ﺍﻟﻜﻠﻰ ﺒﺩﻻﻟﺔ‬
‫ﺍﻟﺘﻐﻴﺭ ﻓﻰ ﺍﻷﻭﺯﺍﻥ ﻜﻤﺎ ﻴﻠﻰ‪:‬‬
‫‪ Ep‬‬
‫‪ p j Opi‬‬ ‫)‪(51‬‬
‫‪ w ij‬‬

‫)‪(1‬‬
‫‪Warner Brad and MISRA Manovendra, Op.‬‬

‫‪- ٦٩ -‬‬
‫ﻭﻴﺼﺒﺢ ﺘﻘﻠﻴل ﺍﻟﺨﻁﺄ ‪ Ep‬ﻫﻭ ﻤﺤﺎﻭﻟﺔ ﺘﻘﻠﻴل ﺍﻷﻭﺯﺍﻥ ﺒﻘﻴﻡ ﺘﺘﻨﺎﺴﺏ ﻤﻊ ‪δpj‬‬
‫‪ Opi‬واﻟﺘﻰ ﯾﻤﻜﻦ ﻛﺘﺎﺑﺘﮭﺎ ﻓﻰ اﻟﺸﻜﻞ‪:‬‬
‫‪ pWij   p j Opi‬‬ ‫)‪(52‬‬
‫ﺣﯿﺚ أن اﻟﻤﻌﺎﻣﻞ ‪ 0 < η < 1‬ھﻮ اﻟﺬى ﯾﺘﺤﻜﻢ ﻓﻰ ﻣﻌﺪل اﻻﻧﻀﺒﺎط‪.‬‬
‫‪ -١٠‬ﻭﻟﺘﺤﺩﻴﺩ ﻗﻴﻤﺔ ﺍﻟﺘﻐﻴــﺭ ‪ δpj‬ﻓ ﻰ داﻟﺔ اﻟﺨﻄﺄ ﻟﻜﻞ ﻋﻨﺼﺮ ﯾﻤﻜﻦ ﺗﺤﺪﯾﺪ‬
‫ﻛﯿﻔﯿﺔ ﺗﻌﺪﯾﻞ داﻟﺔ اﻟﺨﻄﺄ اﻟﻜﻠﯿﺔ ‪ Ep‬ﻛﻤﺎ ﯾﻠﻰ‪:‬‬
‫‪ Ep‬‬ ‫‪ Ep  Op j‬‬
‫‪p j ‬‬ ‫‪‬‬ ‫)‪(53‬‬
‫‪ net p j  Op j  net p j‬‬

‫ﺤﻴﺙ ﻴﻤﺜل ﺍﻟﺠﺯﺀ ﺍﻷﻭل ﻤﻥ ﺍﻟﻤﻌﺎﺩﻟﺔ )‪ (53‬ﻤﻥ ﺍﻟﻁﺭﻑ ﺍﻷﻴﻤﻥ ﻤﺎ ﻴﻠﻰ‪:‬‬


‫‪ Ep‬‬
‫) ‪ - (tp j - Op j‬‬ ‫)‪(54‬‬
‫‪ Op j‬‬

‫ﻭﻴﻤﺜل ﺍﻟﺠﺯﺀ ﺍﻟﺜﺎﻨﻰ ﻤﻥ ﺍﻟﻤﻌﺎﺩﻟﺔ )‪ (53‬ﻓﻰ ﺍﻟﻁﺭﻑ ﺍﻷﻴﻤﻥ ﻤﺎ ﻴﻠﻰ‪:‬‬


‫‪ Op j‬‬
‫) ‪ f j ( net p j‬‬ ‫)‪(55‬‬
‫‪ net p j‬‬
‫ﻭﺒﺫﻟﻙ ﺘﺼﺒﺢ ﻗﻴﻤﺔ ﺩﻟﺘﺎ ‪ δpj‬ﻜﻤﺎ ﻴﻠﻰ‪:‬‬
‫) ‪δ p j  f j ( net p j ) ( tp j - op j‬‬ ‫)‪(56‬‬

‫ﻭﺍﻟﺘـﻰ ﺘﻌﻁـﻰ ﻤﻘـﺩﺍﺭ ﺍﻟﺘﻐﻴﺭ ﺒﻴﻥ ﺍﻟﻘﻴﻡ ﺍﻟﻤﻁﻠﻭﺒﺔ )‪ (Target‬ﻭﺍﻟﻘﻴــﻡ‬


‫ﺍﻟﻔﻌﻠﻴﺔ )‪ (Actual‬ﻋﻨﺩ ﻁﺒﻘﺔ ﺍﻟﻤﺨﺭﺝ‪.‬‬
‫‪ -١١‬ﺇﺫﺍ ﻓﺭﻀﻨﺎ ﺃﻥ ﺍﻟﻌﻨﺼﺭ )‪ (j‬ﻤﻭﺠﻭﺩ ﻓﻰ ﺍﻟﻁﺒﻘﺔ ﺍﻟﻤﺨﺘﻔﻴﺔ ﻭﻟﻴﺱ ﻓﻰ‬
‫ﻁﺒﻘﺔ ﺍﻟﻤﺨﺭﺝ ﻓﺈﻨﻪ ﻴﻤﻜﻥ ﻜﺘﺎﺒﺔ ﻤﺎ ﻴﻠﻰ‪:‬‬
‫‪ Ep‬‬ ‫‪ Ep  net p k‬‬
‫‪Σ‬‬ ‫)‪(57‬‬
‫‪ Op j k  net p k  Op j‬‬

‫‪- ٧٠ -‬‬
‫‪ Ep‬‬ ‫‪‬‬
‫‪Σ‬‬ ‫‪Σ Wik op i‬‬ ‫)‪(58‬‬
‫‪k‬‬ ‫‪ net p k  Op j i‬‬
‫‪ Σ δ pk W jk‬‬ ‫)‪(59‬‬
‫‪k‬‬

‫ﻭﺒﺎﺴـﺘﺨﺩﺍﻡ ﺍﻟﻤﻌـﺎﺩﻻﺕ ‪ 50 ، 48 ، 44‬ﻭﺒﺎﻟﺘﻌﻭﻴﺽ ﻓﻰ ﺍﻟﻤﻌﺎﺩﻟﺔ )‪(53‬‬


‫ﺒﺎﺴﺘﺨﺩﺍﻡ ﺍﻟﻤﻌﺎﺩﻟﺔ )‪ (59‬ﻴﻤﻜﻥ ﺍﻟﺤﺼﻭل ﻋﻠﻰ‪:‬‬
‫‪δp j  f j ( net p j )  Σ δ pk W jk‬‬ ‫)‪(60‬‬
‫‪k‬‬

‫ﻭﺘﻌﻁـﻰ ﻫـﺫﻩ ﺍﻟﻤﻌﺎﺩﻟـﺔ ﻤﻘﺩﺍﺭ ﺍﻟﺘﻐﻴﺭ ﻓﻰ ﺩﺍﻟﺔ ﺍﻟﺨﻁﺄ ﺒﺎﻟﻨﺴﺒﺔ ﻟﻠﺘﻐﻴﺭ ﺍﻟﺤﺎﺩﺙ ﻓﻰ‬
‫ﺍﻷﻭﺯﺍﻥ ﻟﻠـﺸﺒﻜﺔ ‪ δpj‬ﻭﻤﻌـﺘﻤﺩﺓ ﻋﻠﻰ ﺍﻟﺨﻁﺄ ﻓﻰ ﺍﻟﻁﺒﻘﺔ ﺍﻟﺴﺎﺒﻘﺔ ‪ δpk‬ﻭﺍﻟﺘﻰ ﺘﺴﺎﻋﺩ‬
‫ﻋﻠﻰ ﺘﻐﻴﻴﺭ ﺩﺍﻟﺔ ﺍﻟﺨﻁﺄ ﻓﻰ ﺍﻻﺘﺠﺎﻩ ﺇﻟﻰ ﺘﻘﻠﻴﻠﻪ ﻭﺫﻟﻙ ﻜﻤﺎ ﻴﻠﻰ‪:‬‬
‫‪ (١‬ﻴﺘﻡ ﺤﺴﺎﺏ ﻤﻘﺩﺍﺭ ﺍﻟﺨﻁﺄ ‪ δpj‬ﻟﻌﻨﺎﺼﺭ ﺍﻟﻁﺒﻘﺔ ﺍﻷﺨﻴﺭﺓ )ﻁﺒﻘﺔ ﺍﻟﻤﺨﺭﺝ(‬
‫ﺃﻭﻻﹰ ﻭﺫﻟﻙ ﺒﺎﺴﺘﺨﺩﺍﻡ ﺍﻟﻤﻌﺎﺩﻟﺔ ﺭﻗﻡ )‪ (56‬ﻓﻰ ﺍﻟﺸﻜل‪:‬‬
‫) ‪δp j  f j ( net p j ) ( tp j - Op j‬‬ ‫)‪(61‬‬
‫ﺍﺴﺘﺨﺩﺍﻡ ﻅﺎﻫﺭﺓ ﺍﻻﻨﺘﺸﺎﺭ ﺍﻟﺨﻠﻔﻰ )‪ (Back Propagation‬ﻭﺫﻟﻙ‬ ‫‪(٢‬‬
‫ﺒﺘﻤﺭﻴـﺭ ﺍﻟﺨﻁﺄ ﺇﻟﻰ ﻋﻨﺼﺭ ﺍﻟﻁﺒﻘﺔ ﺍﻟﻤﺨﺘﻔﻴﺔ ﻭﺤﺴﺎﺏ ﺍﻷﻭﺯﺍﻥ ﻭﺘﻐﻴﻴﺭ‬
‫ﺍﻟﻘﻴﻡ ﻟﻬﺎ ﺒﺎﺴﺘﺨﺩﺍﻡ ﺍﻟﻤﻌﺎﺩﻟﺔ )‪ (60‬ﻭﺘﻜﻭﻥ ﻋﻠﻰ ﺍﻟﺸﻜل ﺍﻟﺘﺎﻟﻰ‪:‬‬

‫‪δp j  f j ( net p j ) Σ δ pk W jk‬‬ ‫)‪(62‬‬


‫‪k‬‬

‫ﻭﺒﺎﺴـﺘﺨﺩﺍﻡ ﺍﻟﻤﻌﺎﺩﻟﺘـﻴﻥ ﺍﻟـﺴﺎﺒﻘﺘﻴﻥ ﻴﻤﻜﻥ ﺘﻌﻠﻴﻡ ﺍﻟﺸﺒﻜﺔ ﺍﻟﻤﺘﻌﺩﺩﺓ‬ ‫‪(٣‬‬


‫ﺍﻟﻁﺒﻘﺎﺕ ﺒﺄﺴﻠﻭﺏ ﺍﻻﻨﺘﺸﺎﺭ ﺍﻟﺨﻠﻔﻰ‪.‬‬
‫ﻭﻓـﻴﻤﺎ ﻴﻠﻰ ﻋﺭﺽ ﻟﻁﺭﻴﻘﺔ ﺘﻌﻠﻴﻡ ﺍﻟﻨﻤﻭﺫﺝ ﻤﺘﻌﺩﺩ ﺍﻟﻁﺒﻘﺎﺕ ﺒﺎﺴﺘﺨﺩﺍﻡ ﻗﺎﻋﺩﺓ ﺍﻻﻨﺘﺸﺎﺭ‬
‫ﺍﻟﺨﻠﻔﻰ ﻜﻤﺎ ﻴﻠﻰ‪:‬‬

‫‪- ٧١ -‬‬
‫‪‬‬
‫‪Back Propagation‬‬
‫ﻴـﺘﻡ ﺫﻟﻙ ﺒﺎﺴﺘﺨﺩﺍﻡ ﺩﺍﻟﺔ ﺤﺩﻴﺔ ﻤﻘﻁﻌﻴﺔ ‪ Sigmoid Threshold Function‬ﻭﻴﺘﻡ‬
‫)‪(1‬‬
‫ﺍﺘﺒﺎﻉ ﺍﻟﺨﻁﻭﺍﺕ ﺍﻟﺘﺎﻟﻴﺔ‪:‬‬
‫‪ -١‬ﺒـﺩﺀ ﺍﻟﺘﻨـﺸﻴﻁ ﻟﻸﻭﺯﺍﻥ ﻭﺍﻟﻘﻴﻡ ﺍﻟﺤﺩﻴﺔ ﻭﻴﺘﻡ ﺫﻟﻙ ﺒﺎﺨﺘﻴﺎﺭ ﻗﻴﻡ ﻋﺸﻭﺍﺌﻴﺔ‬
‫ﺼﻐﻴﺭﺓ ﻟﻸﻭﺯﺍﻥ ﻭﺍﻟﻘﻴﻡ ﺍﻟﺤﺩﻴﺔ‪.‬‬
‫‪ -٢‬ﺘﺤﺩﻴـﺩ ﻗـﻴﻡ ﺍﻟﻤﺩﺨل ‪ Input‬ﻭﺍﻟﻘﻴﻡ ﺍﻟﻤﻁﻠﻭﺒﺔ ﻋﻨﺩ ﺍﻟﻤﺨﺭﺝ ‪desired‬‬
‫‪ output‬ﻜﻤﺎ ﻴﻠﻰ‪:‬‬
‫ﻭﻀﻊ ﻗﻴﻡ ﺍﻟﻤﺩﺨل ‪ Xp‬ﻓﻰ ﺍﻟﺸﻜل ﺍﻟﺘﺎﻟﻰ‪:‬‬ ‫)ﺃ(‬
‫‪Xp = x1 + x2 + x3 + ……… + xn-1‬‬ ‫)‪(63‬‬
‫ﺤﻴﺙ ﺍﻟﺭﻗﻡ )‪ (n‬ﻫﻭ ﻋﺩﺩ ﺍﻟﻌﻘﺩ ﻓﻰ ﻁﺒﻘﺔ ﺍﻟﻤﺩﺨل )‪(input nodes‬‬
‫ﻭﻀﻊ ﻗﻴﻤﺔ ‪ WO‬ﻟﺘﻤﺜل ﺍﻟﻘﻴﻤﺔ ﺍﻻﻨﺤﻴﺎﺯﻴﺔ ‪– θ‬‬ ‫)ﺏ(‬
‫ﻭﻀﻊ ﻗﻴﻤﺔ ‪ XO‬ﻟﺘﻜﻭﻥ = ﺍﻟﻭﺍﺤﺩ ﺍﻟﺼﺤﻴﺢ‪.‬‬ ‫)ﺝ(‬
‫ﻭﻀﻊ ﻗﻴﻡ ﺍﻟﻤﺨﺭﺝ ﺍﻟﻤﻁﻠﻭﺏ ‪ Tp‬ﺒﺎﻟﺼﻭﺭﺓ ﺍﻟﺘﺎﻟﻴﺔ‪:‬‬ ‫)ﺩ(‬
‫‪Tp = t0 + t1 + t2 + t3 + ………… + tm-1‬‬ ‫)‪(64‬‬
‫ﺤﻴﺙ ﺍﻟﺭﻗﻡ )‪ (m‬ﻫﻭ ﻋﺩﺩ ﺍﻟﻌﻘﺩ ﻓﻰ ﻁﺒﻘﺔ ﺍﻟﻤﺨﺭﺝ )‪.(output nodes‬‬
‫ﻭﻀﻊ ﺠﻤﻴﻊ ﻋﻨﺎﺼﺭ ‪ Tp‬ﻤﺴﺎﻭﻴﺔ ﻟﻠﺼﻔﺭ ﻓﻴﻤﺎ ﻋﺩﺍ ﻋﻨﺼﺭ‬ ‫)ﻫـ(‬
‫ﻭﺍﺤﺩ ﻴﺴﺎﻭﻯ ﺍﻟﻭﺍﺤﺩ ﺍﻟﺼﺤﻴﺢ ﻭﺍﻟﺫﻯ ﻴﻘﺎﺒل ﺍﻟﻤﻁﻠﻭﺏ‪.‬‬
‫‪ -٣‬ﺤﺴﺎﺏ ﺍﻟﻤﺨﺭﺝ ﺍﻟﻔﻌﻠﻰ ‪ Actual‬ﻟﻜل ﻁﺒﻘﺔ ﻜﻤﺎ ﻴﻠﻰ‪:‬‬
‫)ﺃ( ﺤـﺴﺎﺏ ﻗﻴﻤﺔ ﺍﻟﻤﺨﺭﺝ ‪ Ypj‬ﻟﻠﻁﺒﻘﺔ ﺍﻷﻭﻟﻰ ﻤﻥ ﻨﺎﺤﻴﺔ ﺍﻟﻤﺩﺨل‬
‫ﻓﻰ ﺍﻟﺸﻜل‪:‬‬
‫‪n‬‬
‫] ‪Yp j = f [ Σ w i x i‬‬ ‫)‪(65‬‬
‫‪i=0‬‬

‫ﻤﺤﻤﺩ ﻋﻠﻰ ﺍﻟﺸﺭﻗﺎﻭﻯ‪ ،‬ﻤﺭﺠﻊ ﺴﺒﻕ ﺫﻜﺭﻩ‪.‬‬ ‫)‪(1‬‬

‫‪- ٧٢ -‬‬
‫)ﺏ( ﻴـﺘﻡ ﺍﺘﺨﺎﺫ ﻗﻴﻤﺔ ﺍﻟﻤﺨﺭﺝ ‪ Ypj‬ﻟﻬﺫﻩ ﺍﻟﻁﺒﻘﺔ ﻜﻘﻴﻡ ﻟﻤﺩﺨل ﺍﻟﻁﺒﻘﺔ‬
‫ﺍﻟﺘـﻰ ﺘﻠـﻴﻬﺎ ﻭﻴﺘﻡ ﺘﻜﺭﺍﺭ ﺍﻟﻌﻤﻠﻴﺔ ﺤﺘﻰ ﻨﺼل ﻟﻠﻁﺒﻘﺔ ﺍﻷﺨﻴﺭﺓ‬
‫ﺤﻴﺙ ﺘﻜﻭﻥ ﻗﻴﻤﺔ ﺍﻟﻤﺨﺭﺝ ﻫﻭ ‪.Opj‬‬
‫‪ -٤‬ﻀﺒﻁ ﺍﻷﻭﺯﺍﻥ )‪:(Weights Adaptation‬‬
‫ﻭﻴـﺘﻡ ﺫﻟﻙ ﻓﻰ ﺍﻻﺘﺠﺎﻩ ﺍﻟﻌﻜﺴﻰ ﻤﻥ )ﻁﺒﻘﺔ ﺍﻟﻤﺨﺭﺝ ﺇﻟﻰ ﻁﺒﻘﺔ ﺍﻟﻤﺩﺨل( ﻜﻤﺎ‬
‫ﻴﻠﻰ‪:‬‬
‫‪ ‬ﻴﺠﺭﻯ ﺒﺩﺀ ﺘﻌﺩﻴل ﺍﻷﻭﺯﺍﻥ ﻜﻤﺎ ﻴﻠﻰ‪:‬‬
‫‪Wij (t+1) = wij (t) + ηδpj Opj‬‬ ‫)‪(66‬‬
‫‪‬ﺤـﻴﺙ ﺃﻥ )‪ wij (t‬ﺘﻤـﺜل ﺍﻷﻭﺯﺍﻥ ﻤﻥ ﺍﻟﻌﻘﺩﺓ ﺃﻭ‬ ‫‪‬‬
‫ﺍﻟﻌﻨﺼﺭ ‪ i‬ﺇﻟﻰ ﺍﻟﻌﻨﺼﺭ ‪ j‬ﻋﻨﺩ ﺍﻟﺯﻤﻥ )‪.(t‬‬
‫‪ (η)‬ﻫـﻭ ﻤﻌﺎﻤـل ﺍﻟﻜﺴﺏ‪ δpj ،‬ﻫﻭ ﻤﻘﺩﺍﺭ ﺍﻟﺨﻁﺄ‬ ‫‪‬‬
‫ﻋﻨﺩ ﺍﻟﻌﻨﺼﺭ ‪ j‬ﻭﺒﺫﻟﻙ ﻴﺼﺒﺢ ﺍﻟﺨﻁﺄ ﻟﻌﻨﺎﺼﺭ ﻁﺒﻘﺔ ﺍﻟﻤﺨﺭﺝ ﻜﻤﺎ ﻴﻠﻰ‪:‬‬
‫)‪δpj = K opj (1- Opj) (tpj – Opj‬‬ ‫)‪(67‬‬
‫‪‬ﻭﻟﻠﻁﺒﻘﺔ ﺍﻟﻤﺨﺘﻔﻴﺔ ﻜﻤﺎ ﻴﻠﻰ‪:‬‬ ‫‪‬‬
‫‪δpj = K opj (1- Opj) + Σ δpk wjk‬‬ ‫)‪(68‬‬
‫‪k‬‬

‫‪‬‬
‫ﻫﻨﺎﻙ ﻤﻌﺎﻴﻴﺭ ﺇﺤﺼﺎﺌﻴﺔ ﻴﻤﻜﻥ ﺍﺴﺘﺨﺩﺍﻤﻬﺎ ﻟﻘﻴﺎﺱ ﺃﺩﺍﺀ ﺍﻟﺸﺒﻜﺔ ﺍﻟﻌﺼﺒﻴﺔ ﻟﻤﺠﻤﻭﻋﺔ ﻤﻥ‬
‫ﺍﻟﺒﻴﺎﻨﺎﺕ ﻭﻫﻰ ﻜﻤﺎ ﻴﻠﻰ‪:‬‬
‫‪:MSE‬‬ ‫)‪(١‬‬
‫ﻤﺘﻭﺴﻁ ﻤﺭﺒﻊ ﺍﻟﺨﻁﺄ ﻭﻴﻜﻭﻥ ﻋﻠﻰ ﺍﻟﺼﻭﺭﺓ‬
‫‪P‬‬ ‫‪N‬‬
‫‪  d ij  y ij ‬‬
‫‪2‬‬
‫= ‪MSE‬‬
‫‪j 0‬‬ ‫‪i0‬‬

‫ﺤﻴﺙ ‪:‬‬
‫‪ = P‬ﻋﺩﺩ ﻋﻨﺎﺼﺭ ﺍﻟﺘﺸﻐﻴل ﻓﻰ ﻁﺒﻘﺔ ﺍﻟﻤﺨﺭﺝ‪.‬‬

‫‪- ٧٣ -‬‬
‫‪ = N‬ﻋﺩﺩ ﺍﻟﻨﻤﺎﺫﺝ ﻓﻰ ﻤﺠﻤﻭﻋﺔ ﺍﻟﺒﻴﺎﻨﺎﺕ‪.‬‬
‫‪ = yij‬ﻤﺨﺭﺝ ﺍﻟﺸﺒﻜﺔ ﻟﻨﻤﻭﺫﺝ ﺍﻟﺒﻴﺎﻨﺎﺕ ‪ i‬ﻋﻨﺩ ﻋﻨﺎﺼﺭ ﺍﻟﺘﺸﻐﻴل ‪.j‬‬
‫‪ = dij‬ﺍﻟﻤﺨﺭﺝ ﺍﻟﻤﻁﻠﻭﺏ ﻟﻠﻨﻤﻭﺫﺝ ‪ i‬ﻋﻨﺩ ﻋﻨﺎﺼﺭ ﺍﻟﺘﺸﻐﻴل ‪.j‬‬
‫‪:NMSE‬‬ ‫)‪(٢‬‬
‫ﻤﺘﻭﺴﻁ ﻤﺭﺒﻊ ﺍﻟﺨﻁﺄ ﺍﻟﻁﺒﻴﻌﻰ ﻭﻴﺘﻡ ﺘﻌﺭﻴﻔﻪ ﻋﻠﻰ ﺍﻟﺼﻭﺭﺓ ﺍﻟﺘﺎﻟﻴﺔ‪:‬‬
‫‪PN * MSE‬‬
‫= ‪NMSE‬‬
‫‪2‬‬
‫‪P‬‬ ‫‪N‬‬ ‫‪ N‬‬ ‫‪‬‬
‫‪  d ij2    d ij2 ‬‬
‫‪j 0 i  0‬‬ ‫‪i  0 ‬‬
‫‪:% Error‬‬ ‫)‪(٣‬‬
‫ﻨﺴﺒﺔ ﺍﻟﺨﻁﺄ ﻴﻜﻭﻥ ﻋﻠﻰ ﺍﻟﺼﻭﺭﺓ ﺍﻟﺘﺎﻟﻴﺔ‪:‬‬

‫‪100 P N‬‬ ‫‪dyij  dd ij‬‬


‫= ‪% Error‬‬ ‫‪ ‬‬
‫‪NP j  0 i  0‬‬ ‫‪dd ij‬‬
‫ﺤﻴﺙ ‪:‬‬
‫‪ = dyij‬ﻤﺨﺭﺝ ﺍﻟﺸﺒﻜﺔ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻟﻐﻴﺭ ﻁﺒﻴﻌﻰ ﻤﻥ ﻨﻤﻭﺫﺝ ﺍﻟﺒﻴﺎﻨﺎﺕ‬
‫‪ i‬ﻋﻨﺩ ﻋﻨﺼﺭ ﺍﻟﺘﺸﻐﻴل ‪.j‬‬
‫‪ = ddij‬ﺍﻟﻤﺨـﺭﺝ ﺍﻟﻤﻁﻠﻭﺏ ﺍﻟﻐﻴﺭ ﻁﺒﻴﻌﻰ ﻟﻨﻤﻭﺫﺝ ﺍﻟﺒﻴﺎﻨﺎﺕ ‪ i‬ﻋﻨﺩ‬
‫ﻋﻨﺼﺭ ﺍﻟﺘﺸﻐﻴل ‪.j‬‬
‫ﻤـﻊ ﻤﻼﺤﻅـﺔ ﺃﻥ ﻫﺫﻩ ﺍﻟﻘﻴﻡ ﻴﻤﻜﻥ ﺒﺴﻬﻭﻟﺔ ﺃﻥ ﺘﻜﻭﻥ ﻗﻴﻤﺔ ﻏﻴﺭ ﻤﺭﺸﺩﺓ ﺃﻭ‬
‫ﻏﻴﺭ ﺤﻘﻴﻘﻴﺔ ﻭﻜﻤﺜﺎل ﺇﺫﺍ ﺍﻓﺘﺭﻀﻨﺎ ﺃﻥ ﻤﺨﺭﺝ ﺍﻟﺒﻴﺎﻨﺎﺕ ﻴﻜﻭﻥ ﻤﺎ ﺒﻴﻥ ﺍﻟﺼﻔﺭ‬
‫ﺇﻟﻰ ‪.١٠٠‬‬
‫ﻭﻟﻤﺜﺎل ﻭﺍﺤﺩ ﻓﺈﻥ ﺍﻟﻤﺨﺭﺝ ﺍﻟﻤﻁﻠﻭﺏ ﻴﻜﻭﻥ ‪ ٠,١‬ﻭﺍﻟﺤﻘﻴﻘﻰ ‪.٠,٢‬‬
‫ﻭﺤﺘـﻰ ﻋـﻨﺩﻤﺎ ﺘﻜﻭﻥ ﺍﻟﻘﻴﻤﺘﻴﻥ ﻤﺘﻘﺎﺭﺒﺘﻴﻥ‪ ،‬ﻓﺈﻥ ﻨﺴﺒﺔ ﺍﻟﺨﻁﺄ ﻟﻬﺫﺍ ﺍﻟﻨﻤﻭﺫﺝ‬
‫ﻴﻜﻭﻥ ‪.١٠٠‬‬

‫‪- ٧٤ -‬‬
‫‪: AIC‬‬ ‫)‪(٤‬‬
‫‪Akaike’s information criteria‬‬ ‫ﻤﻌﻴﺎﺭ‬
‫ﻭﻴﺴﺘﺨﺩﻡ ﻟﻘﻴﺎﺱ ﺍﻟﺘﻜﻠﻔﺔ ﻤﺎ ﺒﻴﻥ ﺃﺩﺍﺀ ﺍﻟﺘﺩﺭﻴﺏ ﻭﺤﺠﻡ ﺍﻟﺸﺒﻜﺔ ﻭﺍﻟﻬﺩﻑ ﻴﻜﻭﻥ ﻤﺤﺎﻭﻟﺔ‬
‫ﺘﻘﻠﻴل ﻫﺫﺍ ﺍﻟﺤﺩ ﻹﻨﺘﺎﺝ ﺸﺒﻜﺔ ﻴﻤﻜﻥ ﺃﻥ ﺘﻜﻭﻥ ﻟﻬﺎ ﺘﻌﻤﻴﻡ ﺃﻓﻀل‪.‬‬
‫‪AIC (K) = N Ln (MSE) + 2K‬‬
‫ﺤﻴﺙ ‪:‬‬
‫‪ = K‬ﻋﺩﺩ ﺍﻷﻭﺯﺍﻥ ﻓﻰ ﺍﻟﺸﺒﻜﺔ‪.‬‬
‫‪:MDL‬‬ ‫)‪(٥‬‬
‫ﻤﻌﻴﺎﺭ )‪Rissanen’s minimum description length (MDL‬‬
‫ﻭﻫﻭ ﻤﺸﺎﺒﻪ ﻟﻤﻌﻴﺎﺭ ‪ AIC‬ﻓﻰ ﻤﺤﺎﻭﻟﺔ ﺭﺒﻁ ﺨﻁﺄ ﺍﻟﻨﻤﻭﺫﺝ ﻤﻊ ﻋﺩﺩ ﺩﺭﺠﺎﺕ ﺍﻟﺤﺭﻴﺔ‬
‫ﻟﺘﺤﺩﻴﺩ ﻤﺴﺘﻭﻯ ﺍﻟﺘﻌﻤﻴﻡ ﻓﻰ ﺍﻟﺸﺒﻜﺔ ﻭﺃﻥ ﺍﻟﻬﺩﻑ ﻫﻭ ﻤﺤﺎﻭﻟﺔ ﺘﻘﻠﻴل ﻫﺫﺍ ﺍﻟﺤﺩ‪.‬‬
‫)‪MDL (K) = N ln (MSE) + 0.5 K ln (N‬‬
‫‪Sensitivity Analyses‬‬
‫‪‬‬
‫ﺘﺤﻠﻴل ﺍﻟﺤﺴﺎﺴﻴﺔ ﻫﻭ ﺃﺴﻠﻭﺏ ﻴﻌﻤل ﻋﻠﻰ ﺇﻟﻘﺎﺀ ﺍﻟﻀﻭﺀ ﻋﻠﻰ ﺍﻟﻌﻼﻗﺎﺕ ﺒﻴﻥ ﺍﻟﻤﺩﺨﻼﺕ‬
‫ﻭﺍﻟﻤﺨـﺭﺠﺎﺕ ﻟﻠـﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﺤﻴﺙ ﺃﻨﻪ ﻴﻌﻤل ﻋﻠﻰ ﺇﻴﺠﺎﺩ ﻭﺍﺴﺘﺒﻌﺎﺩ ﺍﻟﻤﺩﺨﻼﺕ‬
‫ﺍﻟﻐﻴـﺭ ﻤﻨﺎﺴﺒﺔ ﻭﺒﺎﻟﺘﺎﻟﻲ ﻴﺅﺩﻱ ﺇﻟﻰ ﺘﻘﻠﻴل ﺘﻜﻠﻔﺔ ﺘﺠﻤﻴﻊ ﺍﻟﺒﻴﺎﻨﺎﺕ ‪ ،‬ﻜﻤﺎ ﺃﻨﻪ ﻓﻲ ﺒﻌﺽ‬
‫ﺍﻷﺤـﻴﺎﻥ ﻴﺅﺩﻱ ﺇﻟﻰ ﺭﻓﻊ ﺃﺩﺍﺀ ﺍﻟﺸﺒﻜﺔ ﺍﻟﻌﺼﺒﻴﺔ ﻭﻴﺘﻡ ﺘﻁﺒﻴﻕ ﺘﺤﻠﻴل ﺍﻟﺤﺴﺎﺴﻴﺔ ﻋﻠﻰ‬
‫ﺍﻟـﺸﺒﻜﺔ ﺍﻟﺘـﻲ ﺘﻡ ﺘﺩﺭﻴﺒﻬﺎ ﻟﻤﻌﺭﻓﺔ ﺘﺄﺜﻴﺭ ﻜل ﻤﺩﺨل ﻤﻥ ﻤﺩﺨﻼﺘﻬﺎ ﻋﻠﻰ ﺍﻟﻤﺨﺭﺠﺎﺕ‬
‫ﻭﺒﺎﻟﺘﺎﻟـﻲ ﻴﻭﻓﺭ ﻫﺫﺍ ﺍﻷﺴﻠﻭﺏ ﻤﻌﻠﻭﻤﺎﺕ ﻋﻥ ﺨﺭﻴﻁﺔ ﺍﻟﻤﺩﺨﻼﺕ ﺍﻷﻜﺜﺭ ﻤﻌﻨﻭﻴﺔ ﻤﻊ‬
‫ﺍﺴـﺘﺒﻌﺎﺩ ﺍﻟﻤﺩﺨﻼﺕ ﺍﻷﺨﺭﻯ ﻤﻤﺎ ﻴﻘﻠل ﻤﻥ ﺤﺠﻡ ﺍﻟﺸﺒﻜﺔ ﻭﻤﻥ ﺘﺭﻜﻴﺒﻬﺎ ﺍﻟﻤﻌﻘﺩ ﻭﻴﻘﻠل‬
‫ﺃﻴـﻀﺎﹰ ﻤـﻥ ﻋـﺩﺩ ﻤـﺭﺍﺕ ﺍﻟﺘﺩﺭﻴﺏ ﻭﺍﻟﻔﻜﺭﺓ ﺍﻷﺴﺎﺴﻴﺔ ﻟﻬﺫﺍ ﺍﻷﺴﻠﻭﺏ ﻫﻭ ﺇﺩﺨﺎل‬
‫ﺍﻟﻤﺩﺨﻼﺕ ﺒﻘﻴﻡ ﻤﺨﺘﻠﻔﺔ ﺼﻐﻴﺭﺓ ﻤﻭﺠﺒﺔ ﻭﺴﺎﻟﺒﺔ ﺒﺤﻴﺙ ﻴﻜﻭﻥ ﺍﻟﺘﺄﺜﻴﺭ ﺍﻟﻤﻨﺎﻅﺭ ﻟﻬﺎ ﻓﻲ‬
‫ﺍﻟﻤﺨﺭﺠﺎﺕ ﻫﻭ ﺒﻴﺎﻨﺎﺕ ﺍﻟﺤﺴﺎﺴﻴﺔ‪.‬‬

‫‪- ٧٥ -‬‬
‫‪‬‬
‫ﺇﻥ ﻫـﻨﺎﻙ ﺍﻟﻌﺩﻴـﺩ ﻤﻥ ﺍﻟﻁﺭﻕ ﺍﻹﺤﺼﺎﺌﻴﺔ ﻟﻠﺘﻨﺒﺅ ﺒﺎﻟﻤﺴﺘﻘﺒل ﺇﻻ ﺃﻨﻪ ﺤﺩﺙ ﺘﻐﻴﻴﺭﺍﺕ‬
‫ﺠﺩﻴـﺩﺓ ﻋﻠـﻰ ﻫـﺫﻩ ﺍﻟﻁﺭﻕ ﺍﻟﺘﻘﻠﻴﺩﻴﺔ ﻭﺫﻟﻙ ﺒﺎﺴﺘﺨﺩﺍﻡ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﻭﺒﺎﻟﺭﻏﻡ‬
‫ﻤـﻥ ﺍﻷﺩﺍﺀ ﺍﻟﺠـﻴﺩ ﻟﻠﻁـﺭﻕ ﺍﻟﺘﻘﻠـﻴﺩﻴﺔ ﻟﻠﺴﻼﺴل ﺍﻟﺯﻤﻨﻴﺔ ﻓﻰ ﻋﻤﻠﻴﺔ ﺍﻟﺘﻨﺒﺅ ﺇﻻ ﺃﻥ‬
‫ﻫﻨﺎﻙ ﻗﻴﻭﺩ ﻋﻠﻰ ﻜﺜﻴﺭ ﻤﻨﻬﺎ ﺤﻴﺙ ﺃﻨﻪ ﺒﺩﻭﻥ ﺍﻟﺨﺒﺭﺓ ﻤﻥ ﺍﻟﻤﻤﻜﻥ ﻓﻘﺩ ﺍﻟﺘﻭﺼﻴﻑ ﻟﻠﺩﺍﻟﺔ‬
‫ﻤـﻥ ﺍﻟﻌﻼﻗـﺔ ﺒﻴﻥ ﺍﻟﻤﺘﻐﻴﺭﺍﺕ ﺍﻟﺘﺎﺒﻌﺔ ﻭﺍﻟﻤﻔﺴﺭﺓ ﻭﺃﻴﻀﺎﹰ ﺍﻟﻔﺸل ﻓﻰ ﻋﻤل ﺍﻟﺘﺤﻭﻴﻼﺕ‬
‫ﺍﻟﻬﺎﻤـﺔ ﻟﻠﺒﻴﺎﻨﺎﺕ ﻭﺃﻴﻀﺎﹰ ﻓﺈﻥ ﺍﻟﻤﺨﺭﺠﺎﺕ )‪ (Outliers‬ﻴﻤﻜﻥ ﺃﻥ ﺘﺅﺩﻯ ﺇﻟﻰ ﺘﻘﺩﻴﺭﺍﺕ‬
‫ﻤﺘﺤﻴـﺯﺓ ﻟﻤﻌﻠﻤـﺎﺕ ﺍﻟﻨﻤﻭﺫﺝ ﻭﺃﻴﻀﺎﹰ ﻨﻤﺎﺫﺝ ﺍﻟﺴﻼﺴل ﺍﻟﺯﻤﻨﻴﺔ ﻏﺎﻟﺒﺎﹰ ﻤﺎ ﺘﻜﻭﻥ ﺨﻁﻴﺔ‬
‫ﻭﺒﺎﻟﺘﺎﻟـﻰ ﻻ ﻴﻤﻜﻨﻬﺎ ﺍﻟﺘﺤﻜﻡ ﻓﻰ ﺍﻟﺴﻠﻭﻙ ﺍﻟﻐﻴﺭ ﺨﻁﻰ ﻭﻴﻌﺘﻘﺩ ﺍﻟﻜﺜﻴﺭﻭﻥ ﺃﻥ ﺍﻟﺸﺒﻜﺎﺕ‬
‫ﺍﻟﻌـﺼﺒﻴﺔ ﺘﻜـﻭﻥ ﻗﺎﺩﺭﺓ ﻋﻠﻰ ﺤل ﻫﺫﻩ ﺍﻟﻘﻴﻭﺩ ﻋﻠﻰ ﺍﻟﺴﻼﺴل ﺍﻟﺯﻤﻨﻴﺔ ﺃﻭ ﻋﻠﻰ ﺍﻷﻗل‬
‫ﺘﻌﻤل ﻋﻠﻰ ﺘﻘﻠﻴﻠﻬﺎ‪.‬‬
‫ﻭﻫﺫﻩ ﺍﻟﻘﻴﻭﺩ ﻋﻠﻰ ﺍﻟﺴﻼﺴل ﺍﻟﺯﻤﻨﻴﺔ ﺍﻟﺘﻘﻠﻴﺩﻴﺔ ﺘﺭﺠﻊ ﺇﻟﻰ ﺍﻟﻁﺭﻴﻘﺔ ﺍﻟﺘﻰ ﻴﺘﻡ ﺒﻬﺎ ﺘﻘﺩﻴﺭ‬
‫ﻫﺫﻩ ﺍﻟﻨﻤﺎﺫﺝ ﺤﻴﺙ ﻴﻨﻘﺼﻬﺎ ﺍﻟﺘﻔﺎﻋل ﺍﻟﺒﺸﺭﻯ ﻭﺃﻴﻀﺎﹰ ﻻ ﻴﺤﺩﺙ ﻟﻬﺎ ﺯﻴﺎﺩﺓ ﺘﻌﻠﻡ ﺒﻭﺠﻭﺩ‬
‫ﺒـﻴﺎﻨﺎﺕ ﺠﺩﻴﺩﺓ ﻭﻟﻜﻥ ﻴﺠﺏ ﺇﻋﺎﺩﺓ ﺍﻟﺘﻘﻴﻴﻡ ﻓﻴﻬﺎ ﺩﻭﺭﻴﺎﹰ ﻭﺒﺎﻟﺘﺎﻟﻰ ﻓﺈﻥ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ‬
‫ﻴﻤﻜـﻨﻬﺎ ﺤـل ﻫـﺫﻩ ﺍﻟﻤﺸﺎﻜل ﻭﻫﺫﻩ ﺍﻟﻤﺸﻜﻼﺕ ﺩﻓﻌﺕ ﺇﻟﻰ ﺘﻘﻴﻴﻡ ﺍﺴﺘﺨﺩﺍﻡ ﺍﻟﺸﺒﻜﺎﺕ‬
‫ﺍﻟﻌـﺼﺒﻴﺔ ﻤـﻊ ﺍﻟـﺴﻼﺴل ﺍﻟﺯﻤﻨﻴﺔ ﻓﻰ ﻋﻤﻠﻴﺔ ﺍﻟﺘﻨﺒﺅ ﻭﺃﻴﻀﺎﹰ ﻓﺈﻥ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ‬
‫ﺘﻜـﻭﻥ ﻏﻴﺭ ﺨﻁﻴﺔ ﻓﻬﻰ ﺘﻘﻭﻡ ﺒﺘﻘﺩﻴﺭ ﺍﻟﺩﻭﺍل ﺍﻟﻐﻴﺭ ﺨﻁﻴﺔ ﺠﻴﺩﺍﹰ ﻭﺘﺴﺘﺨﺭﺝ ﻋﻨﺎﺼﺭ‬
‫ﻏﻴـﺭ ﺨﻁـﻴﺔ ﻤﺘﺒﻘﻴﺔ ﻭﺒﺎﻟﺘﺎﻟﻰ ﻓﺈﻥ ﺍﻷﺩﺍﺀ ﺍﻷﻓﻀل ﻟﻠﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﻋﻥ ﺍﻟﺴﻼﺴل‬
‫ﺍﻟـﺯﻤﻨﻴﺔ ﺍﻟﺘﻘﻠـﻴﺩﻴﺔ ﻴﺭﺠﻊ ﺇﻟﻰ ﻗﺩﺭﺘﻬﺎ ﻋﻠﻰ ﺍﻟﺘﺤﻜﻡ ﻓﻰ ﺍﻟﻌﻤﻠﻴﺎﺕ ﺍﻟﻐﻴﺭ ﻤﺘﺼﻠﺔ ﻜﻤﺎ‬
‫ﺘﻌﻤـل ﺍﻟـﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﺒﻜﻔﺎﺀﺓ ﺃﻋﻠﻰ ﻋﻨﺩﻤﺎ ﻴﻜﻭﻥ ﻫﻨﺎﻙ ﻋﺩﺩ ﻨﻘﺎﻁ ﻤﻥ ﺍﻟﺒﻴﺎﻨﺎﺕ‬
‫ﺍﻟﺘﺎﺭﻴﺨﻴﺔ‪.‬‬
‫ﻭﺃﻴـﻀﺎﹰ ﻋـﻨﺩ ﺍﺨﺘﻴﺎﺭ ﺍﻟﻤﻌﻤﺎﺭﻴﺔ ﺍﻟﻤﻨﺎﺴﺒﺔ ﻟﻠﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﻓﻬﺫﺍ ﻴﺅﺩﻯ ﺇﻟﻰ ﺘﻜﻭﻥ‬
‫ﻨﻤـﻭﺫﺝ ﻨﺎﺠﺢ ﻟﻠﺸﺒﻜﺔ ﺍﻟﻌﺼﺒﻴﺔ ﻭﻴﻌﺘﺒﺭ ﺃﺴﻠﻭﺏ ﺍﻻﻨﺘﺸﺎﺭ ﺍﻟﺨﻠﻔﻰ ﻟﻠﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ‬
‫ﻫـﻭ ﺍﻷﺴﻠﻭﺏ ﺍﻟﺸﺎﺌﻊ ﻓﻰ ﻤﺠﺎل ﺘﻨﺒﺅﺍﺕ ﺍﻟﺴﻼﺴل ﺍﻟﺯﻤﻨﻴﺔ ﻭﺫﻟﻙ ﻴﺭﺠﻊ ﺇﻟﻰ ﺴﻬﻭﻟﺔ‬

‫‪- ٧٦ -‬‬
‫ﺒـﻨﺎﺌﻪ ﻭﺍﻟﻘـﺩﺭﺓ ﻋﻠـﻰ ﺤل ﺍﻟﻤﺸﻜﻼﺕ‪ ،‬ﻭﻋﻨﺩ ﺍﻟﺘﻨﺒﺅ ﺒﺴﻼﺴل ﺯﻤﻨﻴﺔ ﺇﺤﺼﺎﺌﻴﺔ ﻓﺈﻥ‬
‫ﻤﺩﺨﻼﺕ ﺃﺴﻠﻭﺏ ﺍﻻﻨﺘﺸﺎﺭ ﺍﻟﺨﻠﻔﻰ ﺘﻜﻭﻥ ﻤﺸﺎﻫﺩﺍﺕ ﻤﺎﻀﻴﺔ ﺫﺍﺕ ﻓﺘﺭﺓ ﺘﺄﺨﻴﺭ ‪Past,‬‬
‫‪ Lagged‬ﻟﻠـﺴﻼﺴل ﺍﻟـﺯﻤﻨﻴﺔ ﻭﺍﻟﻤﺨـﺭﺠﺎﺕ ﻫـﻰ ﺍﻟﻘﻴﻡ ﺍﻟﻤﺴﺘﻘﺒﻠﻴﺔ‪ ،‬ﻭﻋﻨﺩ ﺘﻁﺒﻴﻕ‬
‫ﺘﻜﻨﻭﻟﻭﺠـﻴﺎ ﺍﻟـﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻻﺼﻁﻨﺎﻋﻴﺔ ﻋﻠﻰ ﺍﻟﺴﻼﺴل ﺍﻟﺯﻤﻨﻴﺔ ﻓﺈﻥ ﻋﺩﺩ ﻋﻘﺩ‬
‫ﺍﻟﻤـﺩﺨﻼﺕ ‪ Input Nodes‬ﺃﻯ ﺭﺘﺒﺔ ﺤﺩﻭﺩ ﺍﻻﻨﺤﺩﺍﺭ ﺍﻟﺫﺍﺘﻰ ﺘﺅﺜﺭ ﺒﺸﺩﺓ ﻋﻠﻰ ﺃﺩﺍﺀ‬
‫ﺍﻟﺘﻨﺒﺅ‪.‬‬
‫ﻭﺃﻴـﻀﺎﹰ ﻓـﺈﻥ ﻫﻨﺎﻙ ﺃﻫﻤﻴﺔ ﻟﻌﺩﺩ ﻋﻘﺩ ﺍﻟﻤﺩﺨﻼﺕ ﻓﻰ ﺘﺤﺩﻴﺩ ﺒﻨﺎﺌﻴﺔ ﻨﻤﻭﺫﺝ ﺍﻻﻨﺤﺩﺍﺭ‬
‫ﺍﻟﺫﺍﺘﻰ ﺨﻼل ﺍﻟﺴﻼﺴل ﺍﻟﺯﻤﻨﻴﺔ ﺤﺘﻰ ﺃﻨﻬﺎ ﺘﺼﻑ ﺒﺩﻗﺔ ﺍﻻﺭﺘﺒﺎﻁ ﺒﻴﻥ ﺍﻟﻤﺸﺎﻫﺩﺍﺕ ﺫﺍﺕ‬
‫ﻓﺘﺭﺍﺕ ﺍﻟﺘﺄﺨﻴﺭ ﻭﺒﻴﻥ ﺍﻟﻘﻴﻡ ﺍﻟﻤﺴﺘﻘﺒﻠﻴﺔ‪.‬‬

‫‪- ٧٧ -‬‬
‫‪‬‬
‫ﺘﻨﺎﻭل ﺍﻟﺒﺎﺏ ﺍﻟﺜﺎﻟﺙ ﺍﻟﺘﺤﻠﻴل ﺍﻹﺤﺼﺎﺌﻲ ﻟﻠﺴﻼﺴل ﺍﻟﺯﻤﻨﻴﺔ ﺒﺎﺴﺘﺨﺩﺍﻡ ﺃﺴﻠﻭﺏ ﺒﻭﻜﺱ‬
‫– ﺠﻴﻨﻜﻨﺯ ﺤﻴﺙ ﺘﻨﺎﻭل ﺘﻌﺭﻴﻑ ﺍﻟﺴﻼﺴل ﺍﻟﺯﻤﻨﻴﺔ ﻭﺃﻫﻤﻴﺘﻬﺎ ﻭﺃﻨﻭﺍﻋﻬﺎ ﻭﺍﻷﺴﺱ‬
‫ﺍﻟﻌﺎﻤﺔ ﻟﻠﺘﺤﻠﻴل ﺍﻹﺤﺼﺎﺌﻲ ﻟﻬﺎ‪.‬‬
‫ﻜﻤﺎ ﺘﻨﺎﻭل ﺃﻴﻀﺎﹰ ﺍﻟﺘﺤﻠﻴل ﺍﻹﺤﺼﺎﺌﻲ ﻟﻠﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﺍﻻﺼﻁﻨﺎﻋﻴﺔ ﺤﻴﺙ ﺘﻨﺎﻭل‬
‫ﻓﻜﺭﺓ ﻋﻤل ﺍﻟﺸﺒﻜﺎﺕ ﻭﻜﻴﻔﻴﺔ ﻤﺤﺎﻜﺎﺘﻬﺎ ﻟﻌﻤل ﺍﻟﻤﺦ ﺍﻟﺒﺸﺭﻱ ﻭﺍﻟﻤﻜﻭﻨﺎﺕ ﺍﻷﺴﺎﺴﻴﺔ‬
‫ﻟﺩﺍﻟﺔ ﺍﻟﺘﺸﻐﻴل ﻭﺃﻴﻀﺎﹰ ﻋﺭﺽ ﻟﻠﻨﻤﺎﺫﺝ ﺍﻟﺭﻴﺎﻀﻴﺔ ﺍﻟﻤﺨﺘﻠﻔﺔ ﻟﻁﺭﻴﻘﺔ ﻋﻤل ﺍﻟﺨﻠﻴﺔ‬
‫‪Back‬‬ ‫ﺍﻟﻌﺼﺒﻴﺔ ‪ ،‬ﻜﻤﺎ ﺘﻨﺎﻭل ﺃﻴﻀﺎﹰ ﺘﻭﻀﻴﺢ ﻷﺴﻠﻭﺏ ﺍﻻﻨﺘﺸﺎﺭ ﺍﻟﺨﻠﻘﻲ‬
‫‪ Propagation‬ﻜﺄﺴﻠﻭﺏ ﻟﺘﻌﻠﻴﻡ ﺍﻟﺸﺒﻜﺎﺕ ﻤﺘﻌﺩﺩﺓ ﺍﻟﻁﺒﻘﺎﺕ ﺜﻡ ﺘﻭﻀﻴﺢ ﻤﻘﺎﻴﻴﺱ‬
‫ﺍﻷﺩﺍﺀ ﻟﻠﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﻭﺘﺤﻠﻴل ﺍﻟﺤﺴﺎﺴﻴﺔ ﻭﻜﻴﻔﻴﺔ ﺍﺴﺘﺨﺩﺍﻤﻪ ﻓﻲ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ‬
‫ﻭﺃﺨﻴﺭﺍﹰ ﺍﺴﺘﺨﺩﺍﻤﺎﺕ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ ﻓﻲ ﺍﻟﺴﻼﺴل ﺍﻟﺯﻤﻨﻴﺔ ﻭﺍﻟﺒﺎﺏ ﺍﻟﺘﺎﻟﻲ ﺴﻭﻑ‬
‫ﻴﺘﻨﺎﻭل ﺍﻟﺘﻁﺒﻴﻕ ﺍﻟﻌﻤﻠﻲ ﻷﺴﻠﻭﺏ ﺘﺤﻠﻴل ﺍﻟﺴﻼﺴل ﺍﻟﺯﻤﻨﻴﺔ ﻤﻊ ﻭﺒﺩﻭﻥ ﺍﻟﻤﺘﻐﻴﺭﺍﺕ‬
‫ﺍﻟﻤﻔﺴﺭﺓ ﻭﺃﻴﻀﺎﹰ ﺍﻟﺘﻁﺒﻴﻕ ﺍﻟﻌﻤﻠﻲ ﻷﺴﻠﻭﺏ ﺍﻟﺸﺒﻜﺎﺕ ﺍﻟﻌﺼﺒﻴﺔ‪.‬‬

‫‪- ٧٨ -‬‬

You might also like