Professional Documents
Culture Documents
Neural
Neural
Neural
2
3
5
اﮔﺮ اﯾﻦ ﻣﺪل ﺳﺎده را ﺑﺎ ﺳﻠﻮل ﻋﺼﺒﯽ ﺑﯿﻮﻟﻮژﯾﮑﯽ ﮐﻪ ﭘﯿﺶ از اﯾﻦ ﺷﺮح دادﯾﻢ ﻣﻘﺎﯾﺴﻪ ﮐﻨﯿﻢ ،وزن w
ﻣﻄﺎﺑﻘﺖ دارد ﺑﺎ ﺳﯿﻨﺎﭘﺲ ،ﺑﺪﻧﻪ ﺳﻠﻮل ﺑﻪ وﺳﯿﻠﻪ ﻋﻤﻞ ﺟﻤﻊ و ﺗﺎﺑﻊ اﻧﺘﻘﺎل ﺑﯿﺎن ﺷﺪه و ﺧﺮوﺟﯽ
ﺳﻠﻮل ﻋﺼﺒﯽ ﯾﺎ ﻫﻤﺎن aﻧﻤﺎﯾﺎﻧﮕﺮ ﺳﯿﮕﻨﺎل آﮐﺴﻮن اﺳﺖ .ﻋﻤﻮﻣﺎً ﯾﮏ ﺳﻠﻮل ﻋﺼﺒﯽ ﺑﯿﺶ از ﯾﮏ
ورودي دارد .ﻫﺮ ﮐﺪام از ورودي ﻫﺎي ﻣﺠﺰا در وزن ﻣﺘﻨﺎﻇﺮ ﺧﻮد ﺿﺮب ﻣﯽ ﺷﻮﻧﺪ .ﺑﻨﺎﺑﺮاﯾﻦ ﻣﯽ
ﺗﻮان ورودي ﻫﺎ را ﺑﻪ ﺻﻮرت ﺑﺮدار pو وزن ﻫﺎ را ﺑﻪ ﺻﻮرت ﻣﺎﺗﺮﯾﺲ Wﺗﻌﺮﯾﻒ ﻧﻤﻮد.
6
ﺷﺒﮑﻪ ﻫﺎي ﻋﺼﺒﯽ از ﻋﻨﺎﺻﺮي ﻣﺒﺘﻨﯽ ﺑﺮ ﻋﺼﺐ ﺑﯿﻮﻟﻮژﯾﮑﯽ ﻣﮏ ﮐﻠﻮچ و ﺑﯿﺘﺲ ) (1943ﺗﺸﮑﯿﻞ ﺷﺪه
اﻧﺪ .اﯾﻦ ﻋﺼﺐ داراي ورودﯾﻬﺎي ﻣﺤﺮك Eو ورودﯾﻬﺎي ﺑﺎز دارﻧﺪه Iو ﺧﺮوﺟﯽ Yﻣﯽ ﺑﺎﺷﺪ .در
ﺻﻮرﺗﯿﮑﻪ ﻣﺠﻤﻮع ورودﯾﻬﺎي ﻣﺤﺮك ﺑﺰرﮔﺘﺮ از ﺣﺪ اﺳﺘﺎﻧﻪ Tﺑﺎﺷﺪ اﻧﮕﺎه ﺧﺮوﺟﯽ ﻓﻌﺎل ﯾﺎ ﺑﺮاﺑﺮ1
ﻣﯿﺸﻮد ،در ﺻﻮرﺗﯿﮑﻪ ﺣﺘﯽ ﯾﮏ ورودي ﺑﺎز دارﻧﺪه ﻓﻌﺎل ﺑﺎﺷﺪ ﺧﻮﺟﯽ ﺻﻔﺮ ﻣﯽ ﺷﻮد.
9
10
در ﺳﺎﻟﻬﺎي ﺑﻌﺪ در ﻣﺪل ﻣﮏ ﮐﻠﻮچ و ﺑﯿﺘﺲ اﺻﻼﺣﺎﺗﯽ ﺻﻮرت ﮔﺮﻓﺖ.ﯾﮑﯽ از اﯾﻦ اﺻﻼﺣﺎت ﺗﺨﺼﯿﺺ اوزان
ﺑﻪ ورودﯾﻬﺎ اﺳﺖ ،ﮐﻪ ﺗﻮﺳﻂ وﯾﺪر وﻫﻮف ﺗﺤﺖ ﻋﻨﻮان ادﻻﯾﻦ اﻧﺠﺎم ﺷﺪ .در ادﻻﯾﻦ ﻫﺮ ورودي Xداراي
وزن Wاﺳﺖ .ورودﯾﻬﺎ داراي ﻣﻘﺎدﯾﺮ -1,+1ﺑﻮده و وزﻧﻬﺎ اﻋﺪاد ﺣﻘﯿﻘﯽ ﻣﺜﺒﺖ ﯾﺎ ﻣﻨﻔﯽ ﻣﯿﺒﺎﺷﻨﺪ.
Net Input=∑WiXi
در اﯾﻦ ﺷﺒﮑﻪ ورودي اﺿﺎﻓﯽ X0ﺑﺎ ﻣﻘﺪار +1و وزن W0ﺑﻌﻨﻮان ﻣﻘﺪار ﺟﺒﺮاﻧﯽ اﯾﺠﺎد ﮔﺮدﯾﺪ.
ﻣﻘﺪار Net Inputﺗﻮﺳﻂ ﯾﮏ ﺗﺎﺑﻊ اﻧﺘﻘﺎل ﺳﺨﺖ ﻣﺤﺪود ﺑﻪ ﺧﺮوﺟﯽ Yﺗﺒﺪﯾﻞ ﻣﯿﺸﻮد.
وزﻧﻬﺎ ﺑﺎﯾﺪ ﺑﮕﻮﻧﻪ اي ﺗﻌﺪﯾﻞ ﺷﻮﻧﺪ ﮐﻪ ﻣﺠﻤﻮﻋﻪ اي ازﻣﺜﺎﻟﻬﺎ از ﮐﻼﺳﯽ ﯾﮑﺴﺎن ﺧﺮوﺟﯽ
ﯾﮑﺴﺎن ﺗﻮﻟﯿﺪ ﮐﻨﺪ
12
ﺗﺎﮐﻨﻮن ﻣﺪل ﻫﺎي ﻣﺨﺘﻠﻒ ﺑﺎ ﺳﺎﺧﺘﺎر و اﻟﮕﻮرﯾﺘﻢ ﻫﺎي ﻣﺘﻨﻮﻋﯽ از ﺷﺒﮑﻪ ﻫﺎي ﻋﺼﺒﯽ
اراﺋﻪ ﺷﺪه اﺳﺖ و ﻫﺮ ﭼﻨﺪ اﯾﻦ ﻣﺪل ﻫﺎ ﺑﺎ ﯾﮑﺪﯾﮕﺮ ﺗﻔﺎوت دارﻧﺪ ،اﻣﺎ ﺗﻤﺎم اﯾﻦ ﻣﺪل ﻫﺎ
ﯾﮏ ﻫﺪف ﻣﺸﺘﺮك را دﻧﺒﺎل ﻣﯽ ﮐﻨﻨﺪ .ﺑﻪ ﻃﻮر ﮐﻠﯽ ﺳﻠﻮل ﻫﺎي ﻋﺼﺒﯽ ﮐﻪ ﺗﺸﮑﯿﻞ
دﻫﻨﺪه ﯾﮏ ﺷﺒﮑﻪ ﻋﺼﺒﯽ ﻣﯽ ﺑﺎﺷﻨﺪ ﻣﺎﺷﯿﻦ ﻫﺎي ﻣﺤﺎﺳﺒﺎﺗﯽ ﻫﺴﺘﻨﺪ ،ﮐﻪ از اﺟﺰاي
ﺳﺎده)ﺳﻠﻮل( و زﻧﺠﯿﺮه اي ﺗﺸﮑﯿﻞ ﻣﯽ ﺷﻮﻧﺪ و داراي ﺧﻮاص زﯾﺮﻧﺪ:
13
ﻗﺎﺑﻠﯿﺖ ﯾﺎدﮔﯿﺮي ﯾﻌﻨﯽ ﺗﻮاﻧﺎﯾﯽ ﺗﻨﻈﯿﻢ ﭘﺎراﻣﺘﺮﻫﺎي ﺷﺒﮑﻪ ﻋﺼﺒﯽ .ﺑﺮاي اﯾﻦ ﻣﻨﻈﻮر
ﻧﻤﻮﻧﻪ ﻫﺎي اوﻟﯿﻪ را ﺑﻪ ﺷﺒﮑﻪ اﻋﻤﺎل ﻣﯽ ﮐﻨﻨﺪ ﺷﺒﮑﻪ ،ﭘﺎراﻣﺘﺮﻫﺎ را ﺑﺮ اﺳﺎس اﯾﻦ ﻧﻤﻮﻧﻪ
ﻫﺎ ﺗﻨﻈﯿﻢ ﻣﯽ ﮐﻨﺪ .اﮔﺮ ﻧﻤﻮﻧﻪ ﻫﺎي ﺟﺪﯾﺪ ﺑﻪ اﯾﻦ ﺷﺒﮑﻪ ﮐﻪ ﺑﻪ اﯾﻦ ﻃﺮﯾﻖ آﻣﻮزش
دﯾﺪه ،اﻋﻤﺎل ﺷﻮد ،ﺧﺮوﺟﯽ ﻣﻨﺎﺳﺐ را ﺑﺎ درﺻﺪ ﺧﻄﺎي ﮐﻮﭼﮏ ﻣﯽ ﺗﻮان ﺑﺪﺳﺖ آورد.
ﺑﺎ اﯾﻦ ﺗﺮﺗﯿﺐ ﺷﺒﮑﻪ ﻫﺎي ﻋﺼﺒﯽ ﻣﯽ ﺗﻮاﻧﻨﺪ ﺑﺎ ﺗﻐﯿﯿﺮ ﺷﺮاﯾﻂ ﺑﻪ ﺻﻮرت ﻫﻮﺷﻤﻨﺪاﻧﻪ،
ﺧﻮد را ﺗﻄﺒﯿﻖ ﯾﺎ اﺻﻼح ﻧﻤﺎﯾﺪ.
14
15
16
17
18
19
20
21
ﺗﻮاﺑﻊ اﻧﺘﻘﺎل
ﺧﺮوﺟﯽ واﻗﻌﯽ ﺑﻪ ﺗﺎﺑﻊ اﻧﺘﻘﺎل وﯾﮋه اي ﮐﻪ اﻧﺘﺨﺎب ﺷﺪه ﺑﺴﺘﮕﯽ دارد و ﺑﺎﯾﺪ ﻣﻌﯿﺎر ﻫﺎي
ﻣﻮرد ﻧﻈﺮ ﻣﺴﺌﻠﻪ اي ﮐﻪ ﺳﻠﻮل ﻋﺼﺒﯽ ﺑﺮاي ﺣﻞ آن اﺳﺘﻔﺎده ﻣﯽ ﺷﻮد را ،ﺑﺮآورده ﮐﻨﺪ.
ﺳﻪ ﻧﻮع از ﭘﺮﮐﺎرﺑﺮد ﺗﺮﯾﻦ آﻧﻬﺎ ﻋﺒﺎرﺗﻨﺪ از:
22
purelin(n) = n
tansig(n) = 2/(1+exp(-2n))-1
tribas(n) = 1 - abs(n), if -1 <= n <= 1
= 0, otherwise
25 radbas(n) = exp(-n^2)
ﻣﻌﻤﺎري ﺷﺒﮑﻪ ﺑﻪ وﺿﻌﯿﺖ ﻧﺴﺒﯽ ﺳﻠﻮﻟﻬﺎ در ﺷﺒﮑﻪ ﮔﻔﺘﻪ ﻣﯽ ﺷﻮد .ﺷﺒﮑﻪ ﻫﺎي ﻋﺼﺒﯽ ﺑﺮ اﺳﺎس ﺗﻮﭘﻮﻟﻮژي
ﺑﻪ دوﮔﺮوه ﺷﺒﮑﻪ ﻫﺎي ﭘﯿﺶ ﺧﻮر وﭘﺲ ﺧﻮر ﺗﻘﺴﯿﻢ ﻣﯽ ﺷﻮﻧﺪ در ﺷﺒﮑﻪ ﻫﺎي ﭘﯿﺸﺨﻮر ارﺗﺒﺎﻃﺎت ﯾﮏ ﻃﺮﻓﻪ
ﺑﻮده و اﺗﺼﺎﻻت ﺑﯿﻦ ﻧﺮوﻧﻬﺎ ﺑﮕﻮﻧﻪ اي اﺳﺖ ﮐﻪ ﺳﯿﮕﻨﺎﻟﻬﺎ از ﯾﮏ ﻻﯾﻪ ﺑﻪ ﻻﯾﻪ ﺑﻌﺪي ﺣﺮﮐﺖ ﻣﯽ ﻧﻤﺎﯾﻨﺪ .در
اﯾﻦ ﺷﺒﮑﻪ ﻫﺎ ﻫﺮ ﮔﺮه ﻓﻘﻂ ﺑﻪ ﮔﺮه ﺑﻌﺪي ﺳﯿﮕﻨﺎل ﻣﻨﺘﻘﻞ ﻧﻤﻮده و در ان ﺣﻠﻘﻪ ﺑﺎز ﺧﻮر وﺟﻮد ﻧﺪارد .ﻣﻌﺮوف
ﺗﺮﯾﻦ اﯾﻦ ﺷﺒﮑﻪ ﻫﺎ ﭘﺮﺳﭙﺘﺮون ﯾﮏ ﻻﯾﻪ و ﺟﻨﺪ ﻻﯾﻪ اﺳﺖ.
در ﺷﺒﮑﻪ ﻫﺎي ﭘﺲ ﺧﻮر ارﺗﺒﺎﻃﺎت
26
در ﯾﮏ ﺷﺒﮑﻪ ﭼﻨﺪ ﻻﯾﻪ ،ﻫﺮ ﻻﯾﻪ ﻣﺎﺗﺮﯾﺲ وزن Wوﯾﮋه ﺧﻮد ،ﺑﺮدار ﺑﺎﯾﺎس b
ﺧﻮد ،ﯾﮏ ﺑﺮدار ورودي nﻣﺮﺑﻮط ﺑﻪ ﺧﻮد و ﯾﮏ ﺑﺮدار ﺧﺮوﺟﯽ aوﯾﮋه ﺧﻮد را
دارد .ﻻﯾﻪ ﻫﺎي ﻣﺨﺘﻠﻒ ﻣﯽ ﺗﻮاﻧﻨﺪ ﺗﻌﺪاد ﻧﺮون ﻫﺎي ﻣﺘﻔﺎوﺗﯽ داﺷﺘﻪ ﺑﺎﺷﻨﺪ .ﻻﯾﻪ
اي ﮐﻪ ﺧﺮوﺟﯽ آن ،ﺧﺮوﺟﯽ ﺷﺒﮑﻪ اﺳﺖ ،ﯾﮏ ﻻﯾﻪ ﺧﺮوﺟﯽ ﻧﺎﻣﯿﺪه ﻣﯽ ﺷﻮد.
ﻻﯾﻪ ﻫﺎي دﯾﮕﺮ ،ﻻﯾﻪ ﻫﺎي ﭘﻨﻬﺎن ﻧﺎم دارﻧﺪ .ﺷﺒﮑﻪ ﻫﺎي ﭼﻨﺪ ﻻﯾﻪ ﻗﺪرﺗﻤﻨﺪ ﺗﺮ از
ﺷﺒﮑﻪ ﻫﺎي ﺗﮏ ﻻﯾﻪ ﻫﺴﺘﻨﺪ .ﺑﺮاي ﻧﻤﻮﻧﻪ ،ﯾﮏ ﺷﺒﮑﻪ دو ﻻﯾﻪ ﮐﻪ ﺷﺎﻣﻞ ﯾﮏ
ﻻﯾﻪ اول ﺳﯿﮕﻤﻮﺋﯿﺪ و ﯾﮏ ﻻﯾﻪ دوم ﺧﻄﯽ ﻣﯽ ﺑﺎﺷﺪ ،ﻣﯽ ﺗﻮاﻧﺪ ﺑﻪ ﻣﻨﻈﻮر ﺗﻘﺮﯾﺐ
اﮐﺜﺮ ﺗﻮاﺑﻊ اﺧﺘﯿﺎري آﻣﻮزش داده ﺷﻮد .ﺑﯿﺸﺘﺮ ﺷﺒﮑﻪ ﻫﺎي ﮐﺎرﺑﺮدي ﺗﻨﻬﺎ دو ﯾﺎ
ﺳﻪ ﻻﯾﻪ دارﻧﺪ.
28
x2 o12
n12 f12
x3 1
n f 21 1
2 o
1
29
w11 1 F 1
n 1
1 o11 neuron 2
w12 ∑ 1
w13 1
w 10
x1 1
w11( 2 ) n12
F12
o12
x
x2
0
∑
x3 w21 1 w12( 2 ) w 102
1 F
2
n 2 o 02
w22 ∑
o 12
w23 w 120
x 10
1
neuron 2
30
y R ( n2 )
( n0 )
x R 2 2 1 1
F w F wx
ﯾﺎدﮔﯿﺮي ﺗﻘﻮﯾﺘﯽ
Reinforcement Learning
Network is only provided with a grade, or score, which indicates network performance
32
ورودﯾﻬﺎ از ﯾﮏ ﻣﺠﻤﻮﻋﻪ اﻧﺘﺨﺎب ﺷﻮﻧﺪ ﺑﮕﻮﻧﻪ اي ﮐﻪ ﭘﺎﺳﺦ ﻣﻄﻠﻮب ﺳﯿﺴﺘﻢ ﺑﻪ اﯾﻦ ورودﯾﻬﺎ
ﻣﺸﺨﺺ ﺑﺎﺷﺪ.
ﭘﺎﺳﺦ اﯾﺠﺎد ﺷﺪه ﺑﺎ ﯾﮏ اﻟﮕﻮي ﭘﺎﺳﺦ ﻣﻄﻠﻮب ﻣﻘﺎﯾﺴﻪ و ﺧﻄﺎي ﻣﻮﺟﻮد )اﻧﺤﺮاف ﭘﺎﺳﺦ
اﯾﺠﺎد ﺷﺪه و ﭘﺎﺳﺦ ﻣﻄﻠﻮب ( ﻣﺤﺎﺳﺒﻪ ﺷﻮد.
][W]=[X]'.[Y
33
اﯾﻦ ﺷﯿﻮه ﻗﺎﻋﻪ دﻟﺘﺎ ﯾﺎﮐﻤﺘﺮﯾﻦ ﻣﺮﺑﻊ ﻣﯿﺎﻧﮕﯿﻦ ) (LMSﻧﺎم ﮔﺮﻓﺖ .در اﯾﻦ ﻗﺎﻧﻮن ﻣﺮﺑﻊ ﺧﻄﺎﻫﺎي
ﺑﯿﻦ ﺧﺮوﺟﯽ ﻣﻄﻠﻮب dو ﺧﺮوﺟﯽ واﻗﻌﯽ yﮐﻤﯿﻨﻪ ﻣﯿﺸﻮد.
Net(y) =∑WiXi
)∆=d-Net(y
∆wi= η∆xi
Wi(t+1)=wi(t)+ ∆wi
)η: learning rate (e.g., 0.1
34
ﻓﺮﻣﻮل ﻣﯿﺎﻧﮕﯿﻦ ﻣﺮﺑﻊ ﺧﻄﺎ ﯾﮏ ﻋﺒﺎرت درﺟﻪ دوم ﻣﯽ ﺑﺎﺷﺪ ﮐﻪ ﯾﮏ ﻧﻘﻄﻪ MINﺑﻬﯿﻨﻪ دارد .ﯾﮏ راه ﺑﺮاي
ﺑﺪﺳﺖ اوردن ﻧﻘﻄﻪ ﺑﻬﯿﻨﻪ اﺳﺘﻔﺎده از روش ﮔﺮادﯾﺎن ﮐﺎﻫﺸﯽ ) (gradient descentاﺳﺖ .ﮐﻪ در ان
ﺗﻌﺪﯾﻼت ﭘﺎراﻣﺘﺮﻫﺎ ﻣﺘﻨﺎﺳﺐ ﺑﺎ ﻣﻨﻔﯽ ﻣﺸﺘﻖ ﺗﺎﺑﻊ ﺧﻄﺎ ﻣﯽ ﺑﺎﺷﺪ.
)E(W
E
w i k
wi
w1
w2
35
p 1
ep ﺗﻌﺪاداﻟﮕﻮﻫﺎي اﻣﻮزش ﻣﻮﺟﻮدP
E
p
2
ep p
p d p N et p
n
N et p
i 0
(wi xi ) p
p n
[d p ( w i xi ) p ]2
p 1 i 0
E
p
36
E
wi k
wi
p p
E 1 e p 1 e p p
wi
p
p 1 wi
p
p 1
.
p w i
e p
2 p
p
p p N et p
.
wi N et p wi
p
1
N et p
N et p
x ip
wi
37
ﻗﺒﻞ از ﺑﮑﺎر ﮔﯿﺮي ﻓﺎﻋﺪه دﻟﺘﺎ ﺳﻪ ﻧﮑﺘﻪ ﺑﺎﯾﺪ ﻣﺪ ﻧﻈﺮ ﻗﺮار ﮔﯿﺮد
ﺗﺼﻤﯿﻢ ﮔﯿﺮي ﺷﻮد و ﻣﻘﺎدﯾﺮي ﮐﻮﭼﮏ ﺑﺮاي آن در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﻮد. در ﻣﻮرد ﻣﻘﺪار ﺛﺎﺑﺖ (١
38
Y X1 X 2
0 .1, w 0 0 .1 2 , w 1 0 .4 , w 2 0 .6 5
x0 x1 x2 w0 w1 w2 net d x0 x1 x2
1 1 1 0.12 0.4 0.65 1.17 1 0.02 0.02 0.02
1 1 1 0.12 0.4 0.65 0.13 1 0.11 0.11 0.11
1 1 1 0.12 0.4 0.65 0.37 1 0.14 0.14 0.14
1 1 1 0.12 0.4 0.65 0.93 1 0.19 0.19 0.19
0.14 0.04 0.46
0.04 0.01 0.12
39
x0 x1 x2 w0 w1 w2 net d x0 x1 x2
1 1 1 0.16 0.41 0.53 1.1 1 0.01 0.01 0.01
1 1 1 0.16 0.41 0.53 0.04 1 0.1 0.1 0.1
1 1 1 0.16 0.41 0.53 0.28 1 0.13 0.13 0.13
1 1 1 0.16 0.41 0.53 0.78 1 0.18 0.18 0.18
0.14 0.04 0.44
0.04 0.01 0.11
40
x0 x1 x2 w0 w1 w2 net d x 0 x1 x 2
1 1 1 0.5 0.5 0.5 0.5 1 0.5 0.5 0.5
1 1 1 0.5 0.5 0.5 1.5 1 0.5 0.5 0.5
1 1 1 0.5 0.5 0.5 0.5 1 0.5 0.5 0.5
1 1 1 0.5 0.5 0.5 0.5 1 0.5 0.5 0.5
0 0 0
0 0 0
41
x0 x1 x2 w0 w1 w2 net d x0 x1 x2
1 1 1 0.12 0.4 0.65 1.17 1 0.02 0.02 0.02
1 1 1 0.1 0.38 0.62 0.15 1 0.12 0.12 0.12
1 1 1 0.22 0.5 0.51 0.23 1 0.12 0.12 0.12
1 1 1 0.1 0.62 0.39 0.91 1 0.19 0.19 0.19
0.17 0.03 0.45
0.04 0.01 0.12
42
x1 w1
x2
w2 Σ }{1 or 0
wn w0
xn
X0=1
43
44
45
0 .4 x1 0 .15 x 2 0 .3 2
46
48
n
N et wx
i0
i i 0 .4 x1 0.15 x 2 0 .3 2 0
0 .4 x1 0 .15 x 2 0 .3 2
49
+ +
- -
50
1
2
n
-1 net1 wi xi x1 x2 x1 x2
-1
i 1
n
net2 wi xi 2 x1 x2 x2 x1 2
i 1
n
52
net wi xi 1 y1 y2 y2 y1 1
i 1
x2
x1
Smooth regions
+1 -2
1.5 ٠٫۵
+1
x1 x2 XOR
+1
0 0 0
0 1 1
+1 1 0 1
٠٫۵ +1 1 1 0
+1
٠٫۵
+1
-1
1.5
+1
55
1
a
1 e net g
g
ﻣﻄﺎﺑﻖ اﯾﻦ ﻋﺒﺎرت ،ورودي اﯾﻦ ﺗﺎﺑﻊ اﻧﺘﻘﺎل ﻣﯽ ﺗﻮاﻧﺪ ﻫﺮ ﻣﻘﺪاري ﺑﯿﻦ ﻣﻨﻔﯽ ﺑﯿﻨﻬﺎﯾﺖ
ﺗﺎ ﻣﺜﺒﺖ ﺑﯿﻨﻬﺎﯾﺖ ﺑﺎﺷﺪ در ﺣﺎﻟﯿﮑﻪ ﺧﺮوﺟﯽ آن در ﺑﺎزه ﺻﻔﺮ و 1ﻣﺤﺪود ﺷﺪه اﺳﺖ.
56
57
2
ep p
p d p net p
e p (d p net p )2
1
yp n et .k
58 1 e
Print to PDF without this message by purchasing novaPDF (http://www.novapdf.com/)
ﺗﻐﯿﯿﺮ ﻗﺎﻧﻮن دﻟﺘﺎ
ﺟﺎﯾﮕﺰﯾﻨﯽ ﺗﺎﺑﻊ اﻧﺘﻘﺎل ﺳﯿﮕﻤﻮﺋﯿﺪ ﺑﺠﺎي ﻣﺤﺪود ﮐﻨﻨﺪه ﺳﺨﺖ
n
n et p (w x )
i0
i i p
e p 2p
p d p N et p
n
N et p (w x )
i0
i i p
p n
1
E [d p ( w i xi ) p ]2
p p 1 i0
59
p p
E 1 e p 1 e p y p
wi
p
p 1 w i
p
.
p 1 y p w i
p
E 1 y p
wi
p
2( d
p 1
p y p ).
wi
p
E 2 y p net p
wi
p
(d
p 1
p y p ).
net p
.
wi
p
E 2
wi
p
(d
p 1
p y p ). y p (1 y p ). x p
60
• ﻣﻘﺎدﯾﺮ ﺧﺮوﺟﯿﻬﺎي ﻣﺤﺎﺳﺒﻪ ﺷﺪه ﺑﺎ اﻧﭽﻪ در ﻧﻈﺮ اﺳﺖ )ﻫﺪف( ﻣﺘﻔﺎوت اﺳﺖ.
• ﺧﻄﺎي ﻫﺮ ﻧﺮون ﮐﻪ ﻋﺒﺎرت اﺳﺖ از ﺗﻔﺎﺿﻞ ﺑﯿﻦ ﻫﺪف و ﻣﻘﺪار ﺑﺴﺖ اﻣﺪه و ﺑﺮاي
ﺗﻐﯿﯿﺮ اوزان در ﺟﻬﺖ ﮐﺎﻫﺶ ﺧﻄﺎ ﺑﮑﺎر ﮔﺮﻓﺘﻪ ﻣﯽ ﺷﻮد .ﺑﻪ ﺑﯿﺎن دﯾﮕﺮ ﺧﺮوﺟﯽ ﻫﺮ
ﻧﺮون ﺑﻪ ﻫﺪف ﻧﺰدﯾﮑﺘﺮ ﻣﯽ ﮔﺮدد )ﻣﺴﯿﺮ ﻣﻌﮑﻮس(.
• اﯾﻦ ﻓﺮاﯾﻨﺪ ﺗﺎ زﻣﺎﻧﯿﮑﻪ ﺧﻄﺎ ﺣﺪاﻗﻞ ﮔﺮدد ،اداﻣﻪ ﻣﯽ ﯾﺎﺑﺪ.
61
e1 e
Backpropagation part
62
در ﺷﮑﻞ ﺑﺎﻻ اﺗﺼﺎﻻت ﺑﯿﻦ دو ﻧﺮون ﻻﯾﻪ ﺧﺮوﺟﯽ وﯾﮏ ﻧﺮون ﻻﯾﻪ ﭘﻨﻬﺎن ﻧﺸﺎن داده ﺷﺪه
اﺳﺖ.
اﺗﺼﺎل ﺑﯿﻦ ﻧﺮون ) Aﻧﺮون ﻻﯾﻪ ﭘﻨﻬﺎن( و ﻧﺮون ) Bﻧﺮون ﻻﯾﻪ ﺧﺮوﺟﯽ( داراي وزن WAB
ﻧﯿﺰ ﻧﺸﺎن داده ﺷﺪه اﺳﺖ. اﺳﺖ .در اﯾﻦ ﺷﮑﻞ ﺷﮑﻞ اﺗﺼﺎﻻت ﺑﯿﻦ ﻧﺮوﻧﻬﺎي Aو Cﺑﺎ وزنWAC
اﻟﮕﻮرﯾﺘﻢ ﻣﺤﺎﺳﺒﻪ در ﺻﻔﺤﻪ ﺑﻌﺪ اراﺋﻪ ﮔﺮدﯾﺪه اﺳﺖ.
63
وزن ﻗﺪﯾﻢ ﻣﯽ ﺑﺎﺷﺪ .ﺗﻮﺟﻪ داﺷﺘﻪ وزن ﺟﺪﯾﺪ )آﻣﻮزش دﯾﺪه( و ﮐﻪ در ان
ﺑﺎﺷﯿﺪ ﮐﻪ ﺧﺮوﺟﯽ ﻣﺮﺑﻮط ﺑﻪ ﻧﺮون ﻣﺘﺼﻞ )ﻧﺮون ( Aﻣﯽ ﺑﺎﺷﺪ.
64
-5ﺑﺎ ﺑﺪﺳﺖ اوردن اوزان ﺧﻄﺎي ﻻﯾﻪ ﭘﻨﻬﺎن ﻣﯽ ﺗﻮان ﻫﻤﺎﻧﻨﺪ ﮔﺎم 3ﺟﻬﺖ
ﺗﻐﯿﯿﺮ اوزان ﻻﯾﻪ ﭘﻨﻬﺎن اﻗﺪام ﻧﻤﻮد.
65