Professional Documents
Culture Documents
Fast Ica
Fast Ica
ﺑﺎزﺷﻨﺎﺳﯽ اﻟﮕﻮ
اﺳﺘﺎد :
دﮐﺘﺮ ﺣﺴﯿﻨﯽ
ﮐﺎوه ﭘﺮﺗﻮ
930623056
ﭼﮑﯿﺪه
ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪﻫﺎي ﻣﺴﺘﻘﻞ ICA1ﯾﮏ روش ﭘﺮدازش ﺳﯿﮕﻨﺎل آﻣﺎري ﻣﯽ ﺑﺎﺷﺪ ﮐﻪ در زﻣﯿﻨﻪ ﻫﺎي ﻋﻤﻠﯽ ﻣﺨﺘﻠﻔﯽ
ﻫﻤﭽﻮن ﺟﺪاﺳﺎزي ﺳﯿﮕﻨﺎل ﻫﺎي در ﻫﻢ آﻣﯿﺨﺘﻪ ﮐﻪ اﻃﻼﻋﺎت اوﻟﯿﻪ اي در ﻣﻮرد آﻧﻬﺎ ﻧﺪارﯾﻢ ﯾﺎ ﻫﻤﺎن ﺗﻔﮑﯿﮏ ﮐﻮر
ﻣﻨﺎﺑﻊ ) (BSS2ﻣﺜﻞ ﺻﺪاي ﺿﺒﻂ ﺷﺪه در ﯾﮏ ﻣﺤﯿﻂ ﺷﻠﻮغ ﯾﺎ ﺗﺼﻮﯾﺮ ﺗﺮﮐﯿﺐ ﺷﺪه از ﭼﻨﺪ ﺗﺼﻮﯾﺮ ،ﭘﺮدازش
ﭼﻨﺪﯾﻦ ﮔﻮﻧﻪ از اﻃﻼﻋﺎت و ﻫﻤﭽﻨﯿﻦ اﺳﺘﺨﺮاج وﯾﮋﮔﯽ ﮐﺎرﺑﺮد دارد .ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ﺑﻪ روش ﺳﺮﯾﻊ
Fast ICAﯾﮑﯽ از ﺗﮑﻨﯿﮏ ﻫﺎي ﮐﺎرآﻣﺪ از روش ﻫﺎي ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ﻣﯿﺒﺎﺷﺪ .ﻣﻌﯿﺎر اﻧﺠﺎم ﮐﺎر در
ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ﺑﺮ ﻣﺒﻨﺎي اﻧﺪازه ﮔﯿﺮي ﻣﯿﺰان ﻏﯿﺮ ﮔﺎوﺳﯽ ﺑﻮدن ﺗﻮزﯾﻊ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ﯾﺎﻓﺘﻪ ﺷﺪه
ﻣﯿﺒﺎﺷﺪ .
1
Independent Component Analysis
2
Blind Source Seperation
ﻓﻬﺮﺳﺖ ﻣﻄﺎﻟﺐ
ﯾﮏ ﻣﺤﯿﻂ ﺷﻠﻮغ ﺑﺎ ﻣﯿﮑﺮوﻓﻦ ﯾﺎ ﺳﻨﺴﻮرﻫﺎي ﮔﯿﺮﻧﺪه ﺗﻌﺒﯿﻪ ﺷﺪه را در ﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ ﮐﻪ در آن ﭼﻨﺪﯾﻦ ﻧﻔﺮ ﺑﻪ ﻃﻮر ﻫﻢ زﻣﺎن
در ﺣﺎل ﺻﺤﺒﺖ ﺑﺎ ﯾﮑﺪﯾﮕﺮ ﻣﯽ ﺑﺎﺷﻨﺪ .اﯾﻦ وﺿﻌﯿﺖ ﺑﻪ ﻋﻨﻮان ﻣﺴﺌﻠﻪ ﻣﻬﻤﺎﻧﯽ ﺷﻠﻮغ ٣ﺷﻨﺎﺧﺘﻪ ﺷﺪه اﺳﺖ ﮐﻪ ﻣﻐﺰ اﻧﺴﺎن
ﺑﻪ راﺣﺘﯽ ﻣﯽ ﺗﻮاﻧﺪ ﺑﺎ ﺗﻤﺮﮐﺰ ﺑﺮ روي ﺳﯿﮕﻨﺎل ﻣﺮﺑﻮط ﺑﻪ اﻧﺴﺎن ،آن را از دﯾﮕﺮ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻮﺟﻮد ﺟﺪا ﺳﺎزد .اﻣﺎ اﯾﻦ
ﻣﺴﺌﻠﻪ در ﺑﺮرﺳﯽ ﻫﺎي ﻋﻠﻤﯽ ﺑﺮ ﻟﺰوم ﺑﺮرﺳﯽ ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﮐﻮر ﻣﻨﺎﺑﻊ ) (BSSﺗﺎﮐﯿﺪ ﻣﯽ ﮐﻨﺪ ،BSS .ﯾﮑﯽ از روش
ﻫﺎي ﺑﺴﯿﺎر ﻣﻬﻢ در ﭘﺮدازش ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﺨﺘﻠﻒ ﻣﯽ ﺑﺎﺷﺪ ﮐﻪ ﺑﺮاي ﺑﺎزﯾﺎﺑﯽ ﻣﺠﻤﻮﻋﻪ اي از ﻣﻨﺎﺑﻊ ﻣﺴﺘﻘﻞ ﻧﺎﻣﺸﺨﺺ ﮐﻪ
ﺑﻪ وﺳﯿﻠﻪ ﯾﮏ ﺳﯿﺴﺘﻢ ﺗﺮﮐﯿﺐ ﻧﺎﺷﻨﺎﺧﺘﻪ ﻣﺨﻠﻮط ﻣﯽ ﺷﻮﻧﺪ ،ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار ﻣﯽ ﮔﯿﺮد .ﺑﻪ دﻟﯿﻞ ﻧﺒﻮد اﻃﻼﻋﺎت ﮐﺎﻓﯽ در
ﻣﻮرد ﺳﯿﮕﻨﺎل ﻫﺎي اوﻟﯿﻪ و ﺳﯿﺴﺘﻢ ﺗﺮﮐﯿﺐ ،ﺗﻔﮑﯿﮏ ﺑﺮ اﯾﻦ اﺳﺎس ﺗﻨﻬﺎ ﺑﺮ ﭘﺎﯾﻪ ﻣﺸﺎﻫﺪه ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﺸﺎﻫﺪه اي اﻧﺠﺎم
ﻣﯽ ﮔﯿﺮد .ﯾﮑﯽ از روش ﻫﺎي ﻣﻮرد اﺳﺘﻔﺎده در ﺗﻔﮑﯿﮏ ﮐﻮر ﻣﻨﺎﺑﻊ ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ) (ICAﻣﯽ ﺑﺎﺷﺪ .
روﺷﻬﺎ و اﻟﮕﻮرﯾﺘﻢ ﻫﺎي زﯾﺎدي ﺑﺮاي اﻧﺠﺎم ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ وﺟﻮد دارد اﻣﺎ در اﯾﻦ ﺗﺤﻘﯿﻖ ﺑﻪ ﻋﻠﺖ
ﺧﺼﻮﺻﯿﺎت اﻟﮕﻮرﯾﺘﻢ ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ﺑﻪ روش ﺳﺮﯾﻊ (Fast ICA)4ﮐﻪ ﻋﺒﺎرﺗﻨﺪ از :
اﺳﺘﻔﺎده از آن ﺑﻪ ﻋﻠﺖ ﻋﺪم ﻧﯿﺎز ﺑﻪ اﻧﺪازه ﮔﺎم در ﻣﻘﺎﯾﺴﻪ ﺑﺎ اﻟﮕﻮرﯾﺘﻢ ﻫﺎي ﻣﺒﺘﻨﯽ ﺑﺮ ﮔﺮادﯾﺎن آﺳﺎن اﺳﺖ.
ﻫﻤﮕﺮاﯾﯽ ﺳﺮﯾﻌﯽ دارد ﮐﻪ ﺗﻮﺳﻂ ﺷﺒﯿﻪ ﺳﺎزي ﻫﺎ و آزﻣﺎﯾﺸﺎت ﺑﺮ روي داده ﻫﺎي واﻗﻌﯽ ﺗﺎﯾﯿﺪ ﺷﺪه اﺳﺖ.
ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ﯾﮏ ﺑﻪ ﯾﮏ ﺗﺨﻤﯿﻦ زده ﻣﯽ ﺷﻮﻧﺪ ﮐﻪ ﺑﺎﻋﺚ ﮐﺎﻫﺶ ﺑﺎر ﻣﺤﺎﺳﺒﺎﺗﯽ ﻣﯽ ﺷﻮد.
اﯾﻦ روش ﻣﺰاﯾﺎي زﯾﺎدي ﺑﺮ روش ﻫﺎي ﻣﺒﺘﻨﯽ ﺑﺮ اﻟﮕﻮرﯾﺘﻢ ﻫﺎي ﻋﺼﺒﯽ دارد .ﻣﺎﻧﻨﺪ :ﻗﺎﺑﻠﯿﺖ اﺟﺮا ﺑﺼﻮرت
ﻣﻮازي ،ﺗﻮزﯾﻊ ﺷﺪه ﺑﻮدن ،ﺳﺎدﮔﯽ ﻣﺤﺎﺳﺒﺎت و ﻧﯿﺎز ﺑﻪ ﻓﻀﺎي ﮐﻢ ﺣﺎﻓﻈﻪ.
ﺑﻪ ﺗﺸﺮﯾﺢ اﯾﻦ اﻟﮕﻮرﯾﺘﻢ در اﯾﻦ ﺗﺤﻘﯿﻖ ﭘﺮداﺧﺘﻪ ﻣﯽ ﺷﻮد .
.1,2ﻫﺪف و ﺣﻮزه وﺳﻌﺖ ﺗﺤﻘﯿﻖ :
در اﯾﻦ ﺗﺤﻘﯿﻖ ﺑﻪ ﻣﺴﺌﻠﻪ ﺟﺪاﺳﺎزي ﺳﯿﮕﻨﺎل ﻫﺎي در ﻫﻢ آﻣﯿﺨﺘﻪ ﮐﻪ اﻃﻼﻋﺎت اوﻟﯿﻪ اي در ﻣﻮرد آﻧﻬﺎ ﻧﺪارﯾﻢ (BSS)5ﺑﺎ
اﺳﺘﻔﺎده از روش ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ﺑﻪ روش ﺳﺮﯾﻊ Fast ICA6ﻣﯽ ﭘﺮدازﯾﻢ .در ﻣﺴﺎﺋﻞ اﯾﻦ ﭼﻨﯿﻨﯽ ﺑﻪ اﯾﻦ
ﺧﺎﻃﺮ ﮐﻪ ﻫﺮ ﮔﯿﺮﻧﺪه ﺑﻪ ﺻﻮرت ﻫﻤﺰﻣﺎن ﺳﯿﮕﻨﺎل ﻫﺎي ﻧﺎﺷﯽ از ﭼﻨﺪﯾﻦ ﻣﻨﺒﻊ ﺗﻮﻟﯿﺪ ﮐﻨﻨﺪه ﺳﯿﮕﻨﺎل را ﺑﻪ ﺻﻮرت ﻫﻤﺰﻣﺎن
درﯾﺎﻓﺖ ﻣﯽ ﮐﻨﺪ و در ﻧﺘﯿﺠﻪ در ﺧﺮوﺟﯽ ﮔﯿﺮﻧﺪه ﺗﺮﮐﯿﺒﯽ از ورودي ﻫﺎي ﻣﺨﺘﻠﻒ را دارﯾﻢ ،از ﻣﺠﻤﻮﻋﻪ از ﮔﯿﺮﻧﺪه ﻫﺎ در
3
Cocktail party problem
4
Fast Independent Component Analysis
5
Blind Source Sepration
6
Fast Independent Component Analysis
1
ﻣﺴﺎﺋﻞ اﯾﻦ ﭼﻨﯿﻨﯽ ﺟﻬﺖ ﭘﺮدازش و ﺑﺎزﯾﺎﺑﯽ ﺗﮏ ﺗﮏ ﺳﯿﮕﻨﺎﻟﻬﺎ اﺳﺘﻔﺎده ﻣﯽ ﮐﻨﯿﻢ .وﺟﻮد ﻋﺒﺎرت ﮐﻮر در اﯾﻦ ﻣﺴﺎﯾﻞ ﺑﯿﺎﻧﮕﺮ
اﯾﻦ ﻣﻄﻠﺐ اﺳﺖ ﮐﻪ ﻫﯿﭻ اﻃﻼﻋﺎت ﺻﺮﯾﺢ و روﺷﻨﯽ در ﻣﻮرد ﻣﻨﺎﺑﻊ و ﻧﺤﻮه ﺗﺮﮐﯿﺐ ﺷﺪن ﺳﯿﮕﻨﺎﻟﻬﺎي واﺻﻠﻪ ﺑﻪ ﮔﯿﺮﻧﺪه ﻫﺎ
ﻧﺪارﯾﻢ .در روش ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ﺑﺎ ﻓﺮض اﺳﺘﻘﻼل آﻣﺎري ﻣﻨﺎﺑﻊ از ﯾﮑﺪﯾﮕﺮ ﺳﻌﯽ ﻣﯽ ﻧﻤﺎﺋﯿﻢ ﺗﺎ اﯾﻦ ﻋﺪم وﺟﻮد
اﻃﻼﻋﺎت در ﻣﻮرد ﻣﻨﺎﺑﻊ را ﺟﺒﺮان ﻧﻤﺎﺋﯿﻢ و ﺑﻪ ﺳﺎده ﺳﺎزي ﻣﺴﺌﻠﻪ ﮐﻤﮏ ﮐﻨﯿﻢ .ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ در زﻣﯿﻨﻪ ﻫﺎي
ﻣﺨﺘﻠﻒ ﺷﺎﻣﻞ ﻣﺨﺎﺑﺮات ،ﭘﺰﺷﮑﯽ ،ﭘﺮدازش ﺻﻮت و ﺗﺼﻮﯾﺮ ﮐﺎرﺑﺮد دارد .اﻟﮕﻮرﯾﺘﻢ ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ﺑﻪ روش ﺳﺮﯾﻊ
ﻣﻮﺟﺐ ﺑﻬﺒﻮد ﺳﺮﻋﺖ ﭘﺮدازش در ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ﮔﺮدﯾﺪه اﺳﺖ..
در اﯾﻦ ﺗﺤﻘﯿﻖ ﭘﺲ از ﻣﻌﺮﻓﯽ ﺟﺪاﺳﺎزي ﻣﻨﺎﺑﻊ ﮐﻮر وروش ﻫﺎي ﻣﺨﺘﻠﻒ آن در ﻣﻮرد روش Fast ICAﺑﺮرﺳﯽ ﻫﺎي ﻻزم
را اﻧﺠﺎم داده و ﺑﻪ ﺗﺸﺮﯾﺢ اﻟﮕﻮرﯾﺘﻢ آن ﻣﯽ ﭘﺮدازﯾﻢ .
2
.2ﺟﺪاﺳﺎزي ﮐﻮر ﻣﻨﺎﺑﻊ
ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﻣﻨﺎﺑﻊ در اﺑﺘﺪا در ﺣﺪود ﺳﻪ دﻫﻪ ﭘﯿﺶ در ﻃﯽ ﮔﻔﺘﮕﻮي ﻋﻠﻤﯽ ﯾﮏ ﺗﯿﻢ ﭘﺰﺷﮑﯽ ﮐﻪ ﺑﺮ روي
ﺳﯿﺴﺘﻢ ﻋﺼﺒﯽ ﻣﻮﺟﻮدات زﻧﺪه ﻣﻄﺎﻟﻌﻪ ﻣﯽ ﮐﺮدﻧﺪ ،ﻣﻄﺮح ﮔﺮدﯾﺪ .داﻧﺸﻤﻨﺪان اﯾﻦ ﺗﯿﻢ در ﺣﯿﻦ ﺑﺮرﺳﯽ ﭼﮕﻮﻧﮕﯽ
ﮐﺪ ﮐﺮدن ﺣﺮﮐﺎت اﻋﺼﺎب ﺗﺤﺮﯾﮏ ﺷﺪه ﺑﺮ اﺛﺮ ﺗﺤﺮﯾﮑﺎت دروﻧﯽ اﻋﻀﺎ ﺑﺪن ،ﻣﺘﻮﺟﻪ ﺷﺪﻧﺪ ﮐﻪ اﻧﺘﻘﺎل اﻃﻼﻋﺎﺗﯽ
ﻣﺎﻧﻨﺪ ﺳﺮﻋﺖ و ﻣﮑﺎن ﻣﻔﺼﻞ ﮐﻪ ﻣﻮﺟﺐ ﺣﺮﮐﺖ ﻣﻨﺎﺳﺐ آن ﻣﻔﺼﻞ ﻣﯽ ﺷﻮد ،ﺗﻮﺳﻂ دو ﺳﯿﮕﻨﺎل ﻋﺼﺒﯽ ﺑﻪ ﻃﻮر
ﻣﺠﺰا ﺑﻪ ﻣﻐﺰ ﺻﻮرت ﻣﯽ ﮔﯿﺮد .اﻃﻼﻋﺎت رﺳﯿﺪه ﺗﻮﺳﻂ اﯾﻦ ﺳﯿﮕﻨﺎل ﻫﺎ در ﻣﻐﺰ ،ﺗﺮﮐﯿﺒﯽ از ﻣﮑﺎن و ﺳﺮﻋﺖ زاوﯾﻪ
اي ﻣﻔﺼﻞ ﻣﯽ ﺑﺎﺷﺪ ﮐﻪ ﻣﻐﺰ ﺗﻮاﻧﺎﯾﯽ ﺟﺪا ﮐﺮدن اﯾﻦ اﻃﻼﻋﺎت را ﺑﺎ ﺗﺸﺨﯿﺺ ﺳﯿﺴﺘﻢ ﻣﻌﮑﻮس ﺗﺮﮐﯿﺐ ﺗﻨﻬﺎ ﺑﺎ
ﻣﺸﺎﻫﺪه اﯾﻦ ﺳﯿﮕﻨﺎل ﻫﺎي ﻋﺼﺒﯽ دارا ﻣﯽ ﺑﺎﺷﺪ .در ﻧﺘﯿﺠﻪ اﯾﻦ ﻣﺸﺎﻫﺪات ،ﺗﺤﻘﯿﻘﺎت ﺑﺮ روي ﺑﺮرﺳﯽ ﻣﺴﺌﻠﻪ
ﺗﻔﮑﯿﮏ ﮐﻮر ﻣﻨﺎﺑﻊ اداﻣﻪ ﯾﺎﻓﺖ و ﭼﻨﺪﯾﻦ ﻣﺪل و ﻓﺮﺿﯿﻪ ﻣﻄﺮح ﮔﺮدﯾﺪ ﺗﺎ ﺑﺘﻮان ﺗﻨﻬﺎ ﺑﺎ در اﺧﺘﯿﺎر داﺷﺘﻦ ﺳﯿﮕﻨﺎل
ﻫﺎي ﺗﺮﮐﯿﺒﯽ ﺑﻪ ﺳﯿﮕﻨﺎل ﻫﺎي اوﻟﯿﻪ دﺳﺖ ﭘﯿﺪا ﮐﺮد .ﺑﺪﯾﻦ ﮔﻮﻧﻪ ﻣﺤﺎﺳﺒﺎت ،ﻓﺮﺿﯿﺎت و ﻣﻔﺎﻫﯿﻢ اﯾﻦ روش ﺟﺪاﺳﺎزي
ﻣﻮرد ﺗﻮﺟﻪ ﻗﺮار ﮔﺮﻓﺖ .ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻣﺜﺎل ﺑﯿﺎن ﺷﺪه ،ﻣﺴﺌﻠﻪ BSSﺑﻪ اﯾﻦ ﺻﻮرت ﻗﺎﺑﻞ ﺑﯿﺎن ﻣﯽ ﺑﺎﺷﺪ :ﺳﯿﮕﻨﺎل
ﻫﺎي اوﻟﯿﻪ S 1 t , S 2 t , ... , S N t ﮐﻪ ﺗﻮﺳﻂ Nﻣﻨﺒﻊ ﻣﺨﺘﻠﻒ ﺗﻮﻟﯿﺪ ﻣﯽ ﺷﻮﻧﺪ در ﻣﺤﯿﻂ ﺑﻪ دﻻﯾﻞ ﻣﺨﺘﻠﻒ
ﺑﺎ ﺳﯿﮕﻨﺎل ﻫﺎي دﯾﮕﺮ ﺗﺮﮐﯿﺐ ﺷﺪه و Mﺳﻨﺴﻮر ﺗﻌﺒﯿﻪ ﺷﺪه در ﻣﺤﯿﻂ ﺳﯿﮕﻨﺎل ﻫﺎي ﺗﺮﮐﯿﺒﯽ
X 1 t , X 2 t , ... , X N t را درﯾﺎﻓﺖ ﺧﻮاﻫﻨﺪ ﮐﺮد.
7
.2,1ﻋﻠﺖ ﺑﻪ ﮐﺎر ﺑﺮدن اﺻﻄﻼح ﮐﻮر
ﻫﻤﺎﻧﻄﻮر ﮐﻪ در ﺑﺨﺶ ﻗﺒﻞ ﺑﯿﺎن ﺷﺪه اﺳﺖ ،ﺗﻔﮑﯿﮏ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ ﺑﺎﯾﺪ ﺗﻨﻬﺎ ﺑﺎ ﺗﮑﯿﻪ ﺑﺮ ﻣﺸﺎﻫﺪه ﺳﯿﮕﻨﺎل
ﻫﺎي ﺗﺮﮐﯿﺒﯽ ﺑﺪون اﻃﻼع از ﻣﺎﻫﯿﺖ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ اوﻟﯿﻪ و ﻫﻤﭽﻨﯿﻦ ﻋﻠﺖ و ﯾﺎ ﻧﺤﻮه ﺗﺮﮐﯿﺐ آﻧﻬﺎ ﺑﺎﺷﺪ .اﯾﻦ
ﻓﺮﺿﯿﺎت ﺑﺮ ﻟﺰوم ﺑﻪ ﮐﺎرﺑﺮدن واژه ﮐﻮر ﺗﺎﮐﯿﺪ ﻣﯽ ﮐﻨﺪ .در ﻣﻘﺎﺑﻞ روش ﺗﻔﮑﯿﮏ ﮐﻮر ﻣﻨﺎﺑﻊ ،روش ﺗﻔﮑﯿﮏ ﻏﯿﺮ ﮐﻮر
ﻣﻨﺎﺑﻊ ﻧﯿﺰ وﺟﻮد دارد ﮐﻪ در آن اﻃﻼﻋﺎت اوﻟﯿﻪ اي در ﻣﻮرد ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ در دﺳﺘﺮس ﻣﯽ ﺑﺎﺷﺪ .ﺑﺮاي ﻣﺜﺎل
در ﺑﻌﻀﯽ از ﻣﻮارد ﺗﻔﮑﯿﮏ ،ﺗﻮزﯾﻊ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ و ﯾﺎ ﺗﻌﺪادي از ﻣﻨﺎﺑﻊ از ﭘﯿﺶ ﻣﺸﺨﺺ ﺷﺪه ﻣﯽ ﺑﺎﺷﺪ ﮐﻪ
در اﯾﻦ ﺻﻮرت اﻃﻼع از ﻣﺎﻫﯿﺖ ﻣﻨﺎﺑﻊ اوﻟﯿﻪ ﻣﺴﺘﻘﻞ ،ﺟﺪاﺳﺎزي آﻧﻬﺎ را از روي ﺳﯿﮕﻨﺎل ﻫﺎي ﺗﺮﮐﯿﺒﯽ ﺑﻪ ﻣﺮاﺗﺐ
7
Blind
3
ﺳﺎده ﺗﺮ ﻣﯽ ﺳﺎزد .روش ﺗﻔﮑﯿﮏ ﻏﯿﺮ ﮐﻮر ﻣﺎﻧﻨﺪ ﺗﻔﮑﯿﮏ ﮐﻮر ﻣﺪل ﻫﺎ و ﭘﯿﺶ ﻓﺮض ﻫﺎي ﻣﺨﺼﻮص ﺑﻪ ﺧﻮد را
دارد ﮐﻪ ﺣﻞ اﯾﻦ روش ﻫﺎ را ﺑﺎز ﻫﻢ ﺳﺎده ﺗﺮ ﻣﯽ ﺳﺎزد.
در ﺣﺎﻟﺖ ﮐﻠﯽ ﭼﻬﺎر ﻣﺪل اﺳﺎﺳﯽ ﺑﺮاي ﻣﺴﺌﻠﻪ BSSﻗﺎﺑﻞ ﺗﻌﺮﯾﻒ اﺳﺖ:
8
اﻟﻒ( ﺗﺮﮐﯿﺐ ﺧﻄﯽ ﻟﺤﻈﻪ اي
9
ب( ﺗﺮﮐﯿﺐ ﺧﻄﯽ ﺗﻠﻔﯿﻘﯽ ) ﭘﯿﭽﯿﺪه(
ج( ﺗﺮﮐﯿﺐ ﻏﯿﺮ ﺧﻄﯽ (PNL)10
در ﻣﺤﯿﻂ ﺑﺎ ﯾﮑﺪﯾﮕﺮ ﺗﺮﮐﯿﺐ ﺷﻮﻧﺪ ،دو ﺳﻨﺴﻮر ﮔﯿﺮﻧﺪه ﻣﻮﺟﻮد ﺳﯿﮕﻨﺎل ﻫﺎي X 1 t و X 2 t را درﯾﺎﻓﺖ
ﺧﻮاﻫﻨﺪ ﮐﺮد و ﺧﻮاﻫﯿﻢ داﺷﺖ:
ﭼﮕﻮﻧﮕﯽ ﺗﺮﮐﯿﺐ ﻣﺎﺗﺮﯾﺴﯽ ﺳﯿﮕﻨﺎل ﻫﺎي اوﻟﯿﻪ ﺑﺎ ﻣﺎﺗﺮﯾﺲ ﺗﺮﮐﯿﺐ ﮐﻨﻨﺪه در ﺷﮑﻞ 1-1ﻧﻤﺎﯾﺶ داده ﺷﺪه اﺳﺖ.
ﮐﻪ در آن S S 1 t S 2 t و X X 1 t X 2 t ﺳﯿﮕﻨﺎل ﻣﻨﺒﻊ و ﺳﯿﮕﻨﺎل ﺗﺮﮐﯿﺐ ﺷﺪه دو ﺑﻌﺪي
T T
8
Linear instantaneous
9
Linear convolutive
10
Post nonlinear
11
Convolutive post nonlinear
4
a a
ﺑﺎ دراﯾﻪ ﻫﺎي اﺳﮑﺎﻟﺮ واﺑﺴﺘﻪ ﺑﻪ ﻓﺎﺻﻠﻪ ﺳﯿﮕﻨﺎل ﺗﺮﮐﯿﺒﯽ 2 2 ﻫﺴﺘﻨﺪ .ﻫﻤﭽﻨﯿﻦ A 11 12 ﯾﮏ ﻣﺎﺗﺮﯾﺲ
a 21 a 22
از ﺳﻨﺴﻮر ﮔﯿﺮﻧﺪه ﻣﯽ ﺑﺎﺷﺪ
ﮔﯿﺮﻧﺪه در ﻫﺮ ﻟﺤﻈﻪ ﺗﺮﮐﯿﺐ ﺧﻄﯽ از ﻣﻨﺎﺑﻊ را ﺿﺒﻂ ﻣﯽ ﮐﻨﺪ .ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ اوﻟﯿﻪ را ﻣﯽ ﺗﻮان ﺑﺎ ﯾﺎﻓﺘﻦ
ﻣﺎﺗﺮﯾﺲ ﺟﺪاﺳﺎز Wﺑﺎ اﺳﺘﻔﺎده از راﺑﻄﻪ زﯾﺮ ﺗﺨﻤﯿﻦ زد:
ﺑﻪ ﻣﻨﻈﻮر ﺣﻞ ﻣﺴﺌﻠﻪ BSSاﻟﮕﻮرﯾﺘﻢ ﻫﺎي ﻣﺘﻨﻮﻋﯽ ﭘﯿﺸﻨﻬﺎد ﺷﺪه اﺳﺖ ﮐﻪ اﺧﺘﻼف ﻣﯿﺎن اﯾﻦ روش ﻫﺎ ﺑﺮاﺳﺎس
اﻧﺪازه ﮔﯿﺮي ﻣﯿﺰان اﺳﺘﻘﻼل ﻣﯿﺎن ﻣﻮﻟﻔﻪ ﻫﺎي ﺧﺮوﺟﯽ ﺷﺎن ﻣﯽ ﺑﺎﺷﺪ .در اداﻣﻪ ﺑﻪ ﻃﻮر ﻣﺨﺘﺼﺮ ﺑﻌﻀﯽ از اﯾﻦ
روش ﻫﺎ ﻣﻮرد ﺑﺮرﺳﯽ ﻗﺮار ﻣﯽ ﮔﯿﺮد:
اوﻟﯿﻦ روش ﺑﺮرﺳﯽ ﺷﺪه ﺑﺮاي ،BSSآﻧﺎﻟﯿﺰ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ (ICA)12ﻣﯽ ﺑﺎﺷﺪ .ﻫﺪف در اﯾﻦ روش
ﯾﺎﻓﺘﻦ ﻧﻤﺎﯾﺸﯽ ﺧﻄﯽ از داده ﻫﺎي ﻏﯿﺮﮔﻮﺳﯽ ﺑﺎ اﺳﺘﻔﺎده از ﭘﺎراﻣﺘﺮﻫﺎﯾﯽ ﻣﺎﻧﻨﺪ ﮐﺸﯿﺪﮔﯽ )ﮐﺮﺗﻮﺳﯿﺲ(،13
ﻣﯽ ﺑﺎﺷﺪ .ﺗﺨﻤﯿﻦ ﻣﻮﻟﻔﻪ ﻫﺎي 16
و ﻣﺎﺗﺮﯾﺲ ﻫﻤﺒﺴﺘﮕﯽ 15
آﻧﺘﺮوﭘﯽ ﻣﻨﻔﯽ )ﻧﮕﻨﺘﺮوﭘﯽ( ،14آﻧﺘﺮوﭘﯽ
ﻏﯿﺮﮔﻮﺳﯽ ﺳﯿﮕﻨﺎل ﺑﻪ اﯾﻦ ﻋﻠﺖ اﺳﺖ ﮐﻪ اﯾﻦ داده ﻫﺎ ﺗﺎ ﺣﺪ ﻣﻤﮑﻦ از اﺳﺘﻘﻼل آﻣﺎري ﺑﺮﺧﻮردار ﻫﺴﺘﻨﺪ.
روش ICAﺑﺮاﺳﺎس اﻓﺰاﯾﺶ ﻏﯿﺮ ﮔﻮﺳﯽ ﺑﻮدن اﺳﺖ .در اﯾﻦ روش ﻣﺎﺗﺮﯾﺲ Wدر ﺟﻬﺖ ﮐﺎﻫﺶ ﮔﻮﺳﯽ
ﮐﺮدن Xﮐﻪ ﺑﺎ ﭘﺎراﻣﺘﺮﻫﺎي ﮐﺮﺗﻮﺳﯿﺲ ﯾﺎ ﻧﮕﻨﺘﺮوﭘﯽ اﻧﺪازه ﮔﯿﺮي ﻣﯽ ﺷﻮد ،ﺑﻪ روز ﻣﯽ ﮔﺮدد.
12
Independent component analysis
13
Kurtosis
14
Negentropy
15
Entropy
16
Correlation Matrix
5
ﺷﮑﻞ -1-1ﻧﻤﺎﯾﺸﯽ از ﺛﺒﺖ ﺧﻄﯽ ﻟﺤﻈﻪ اي ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ ﺗﻮﺳﻂ ﻣﯿﮑﺮوﻓﻮن ﻫﺎي ﮔﯿﺮﻧﺪه
در اﯾﻦ روش ﻣﺴﺌﻠﻪ ﯾﺎﻓﺘﻦ ﻣﻮﻟﻔﻪ ﻫﺎي ﺧﺮوﺟﯽ ﻣﯽ ﺑﺎﺷﺪ ﮐﻪ ﮐﺎﻫﺶ اﻃﻼﻋﺎت ﻣﺘﻘﺎﺑﻞ و ﯾﺎ اﻓﺰاﯾﺶ
اﺳﺘﻘﻼل ﻣﯿﺎن آﻧﻬﺎ ﺗﻀﻤﯿﻦ ﺷﺪه ﺑﺎﺷﺪ.
اﻓﺰاﯾﺶ ﺗﺸﺎﺑﻪ:
در روش اﻓﺰاﯾﺶ ﺗﺸﺎﺑﻪ (INFOMAX)18ﯾﺎ ،ML19ﻫﺪف اﻓﺰاﯾﺶ اﻃﻼﻋﺎت ﻣﯿﺎن ﺳﯿﮕﻨﺎل ﻫﺎي ورودي
و ﺧﺮوﺟﯽ ﻣﯽ ﺑﺎﺷﺪ.
ﺑﻪ ﺟﺎي اﺳﮑﺎﻟﺮ ﺑﻮدن، A ب( ﺗﺮﮐﯿﺐ ﺧﻄﯽ ﺗﻠﻔﯿﻘﯽ)ﭘﯿﭽﯿﺪه( :20در اﯾﻦ ﻣﺪل دراﯾﻪ ﻫﺎي ﻣﺎﺗﺮﯾﺲ ﺗﺮﮐﯿﺐ ﮐﻨﻨﺪه
ﻣﺎﻧﻨﺪ ﺣﺎﻟﺖ ﺗﺮﮐﯿﺐ ﺧﻄﯽ ﻟﺤﻈﻪ اي ،ﺷﺎﻣﻞ ﺿﺮاﯾﺐ ﻓﯿﻠﺘﺮﻫﺎي ﺧﻄﯽ ﻧﺎﻣﺘﻐﯿﺮ ﺑﺎ زﻣﺎن (LTI)21ﻣﯽ ﺑﺎﺷﻨﺪ .ﯾﻌﻨﯽ
ﺑﺪﺳﺖ ﻣﯽ آﯾﺪ ﮐﻪ ﺑﺎﻋﺚ ﻣﯽ ﺷﻮد ﻣﺎﺗﺮﯾﺲ A ﺳﯿﮕﻨﺎل ﻫﺎي ﺗﺮﮐﯿﺒﯽ از ﺣﺎﺻﻞ ﮐﺎﻧﻮﻟﻮﺷﻦ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ و
اﯾﻨﮕﻮﻧﻪ ﺗﺮﮐﯿﺐ ﻫﺎ ﭘﯿﭽﯿﺪه ﺗﺮ ﺑﻮده و ﺑﻪ ﻣﺮاﺗﺐ ﺑﺮاي ﺟﺪاﺳﺎزي ﺳﯿﮕﻨﺎ ل ﻫﺎي ﻣﺨﻠﻮط ﺑﻪ روش ﻫﺎي ﭘﯿﭽﯿﺪه ﺗﺮي
ﻧﯿﺎز داﺷﺘﻪ ﺑﺎﺷﻨﺪ:
17
Mutual Information
18
Information Maximization
19
Maximum likelihood
20
Convolutive linear
21
Linear time invariant filter
6
در اﯾﻦ ﻣﺪل ﺗﺎﺧﯿﺮﻫﺎي ﻣﻨﺎﺑﻊ اوﻟﯿﻪ در ﻣﺴﯿﺮﻫﺎي ﻣﺘﻔﺎوت رﺳﯿﺪن ﺑﻪ ﺳﻨﺴﻮرﻫﺎي ﺗﻌﺒﯿﻪ ﺷﺪه در ﻣﺤﯿﻂ ،در ﭘﺎﺳﺦ
ج( ﺗﺮﮐﯿﺐ ﻏﯿﺮﺧﻄﯽ :اﯾﻦ ﻣﺪل ﻣﺎﻧﻨﺪ ﺣﺎﻟﺖ ﺗﺮﮐﯿﺐ ﺧﻄﯽ ﻟﺤﻈﻪ اي ﺑﻮده ﺑﺎ اﯾﻦ ﺗﻔﺎوت ﮐﻪ ﺑﺎ ﺳﻨﺴﻮرﻫﺎي ﻏﯿﺮﺧﻄﯽ
روﺑﺮو ﻫﺴﺘﯿﻢ .در اﯾﻦ ﻣﺪل ﻧﯿﺰ ﻣﯽ ﺗﻮان ﺑﺎ ﮐﺎﻫﺶ واﺑﺴﺘﮕﯽ ﺧﺮوﺟﯽ ﻫﺎ ﺑﻪ ﻣﻨﺎﺑﻊ اﺻﻠﯽ دﺳﺖ ﭘﯿﺪا ﮐﺮد.
د( ﺗﺮﮐﯿﺐ ﻫﺎي ﻏﯿﺮ ﺧﻄﯽ ﺗﻠﻔﯿﻘﯽ :اﯾﻦ ﻣﺪل ﻋﻤﻮﻣﯽ ﺗﺮﯾﻦ ﻣﺪل ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﮐﻮر ﻣﯽ ﺑﺎﺷﺪ .در اﯾﻦ ﺣﺎﻟﺖ
ﻋﻼه ﺑﺮ اﯾﻨﮑﻪ ﺳﻨﺴﻮرﻫﺎ ﻏﯿﺮﺧﻄﯽ ﻫﺴﺘﻨﺪ ﺑﻠﮑﻪ ﺗﺮﮐﯿﺐ ﺳﯿﮕﻨﺎل ﻫﺎ ﻧﯿﺰ ﺑﻪ ﺻﻮرت ﺗﻠﻔﯿﻘﯽ اﻧﺠﺎم ﻣﯽ ﺷﻮد .ﯾﻌﻨﯽ
اﻋﺪاد اﺳﮑﺎﻟﺮ ﻧﺒﻮده ﺑﻠﮑﻪ ﺷﺎﻣﻞ ﺿﺮاﯾﺐ ﻓﯿﻠﺘﺮ LTIﺧﻮاﻫﺪ ﺑﻮد. A دراﯾﻪ ﻫﺎي ﻣﺎﺗﺮﯾﺲ ﺗﺮﮐﯿﺐ ﮐﻨﻨﺪه
اﺳﺘﻔﺎده از ﻫﺮ ﯾﮏ از ﻣﺪل ﻫﺎ و ﺣﺎﻻت ذﮐﺮ ﺷﺪه ﺑﻪ ﺷﺮاﯾﻂ ﻣﺴﺌﻠﻪ و ﻣﺤﯿﻄﯽ ﮐﻪ ﺗﺮﮐﯿﺐ ﺳﯿﮕﻨﺎل ﻫﺎي اوﻟﯿﻪ در
آن ﺻﻮرت ﻣﯽ ﮔﯿﺮد ﺑﺴﺘﮕﯽ دارد .در ﻫﺮ ﺻﻮرت ﻓﺮﺿﯿﺎت اوﻟﯿﻪ اي در ﻫﺮ ﻣﺪل وﺟﻮد دارد ﮐﻪ اﺳﺘﻔﺎده از آن
ﻣﺪل ﺑﺮاي ﺣﻞ ﻣﺴﺌﻠﻪ را ﺳﺎده ﺗﺮ ﻣﯽ ﺳﺎزد.
ﺑﺮاي ﺗﻌﺪاد Nﻣﻨﺒﻊ اﺻﻠﯽ و Mﮔﯿﺮﻧﺪه ،ﺳﻪ ﺣﺎﻟﺖ را ﻣﯽ ﺗﻮان ﺑﺮرﺳﯽ ﮐﺮد :
ﯾﮑﯽ از ﻧﮑﺎت اﺳﺎﺳﯽ ﮐﻪ در ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﮐﻮر ﻧﻘﺶ ﻣﻬﻤﯽ را ﺑﺎزي ﻣﯽ ﮐﻨﺪ ،ﻣﯿﻨﯿﻤﻢ ﻣﻘﺪار ﻧﺴﺒﺖ ﺗﻌﺪاد
ﺳﻨﺴﻮرﻫﺎ ﺑﻪ ﺗﻌﺪاد ﻣﻨﺎﺑﻊ ﻣﯽ ﺑﺎﺷﺪ .در اﮐﺜﺮ ﻣﺴﺎﺋﻞ ﺟﺪاﺳﺎزي ﻓﺮض ﻣﯽ ﺷﻮد ﮐﻪ ﺗﻌﺪاد ﺳﻨﺴﻮرﻫﺎ ﺑﯿﺸﺘﺮ و ﯾﺎ
ﻣﺴﺎوي ﺗﻌﺪاد ﻣﻨﺎﺑﻊ ﻣﯽ ﺑﺎﺷﺪ .ﻫﻤﭽﻨﯿﻦ در اﺑﺘﺪاي اﻟﮕﻮرﯾﺘﻢ ﺗﻌﺪاد ﻣﻨﺎﺑﻊ ﻣﺸﺨﺺ ﻣﯽ ﺑﺎﺷﺪ و ﯾﺎ در ﺣﯿﻦ اﺟﺮاي
اﻟﮕﻮرﯾﺘﻢ ﺗﺨﻤﯿﻦ زده ﻣﯽ ﺷﻮد .اﯾﻦ ﻓﺮﺿﯿﺎت در آﺳﺎن ﺳﺎﺧﺘﻦ ﺷﯿﻮه ﺣﻞ ﻣﺴﺌﻠﻪ ﻧﻘﺶ ﺑﻪ ﺳﺰاﯾﯽ ﺧﻮاﻫﻨﺪ داﺷﺖ.
ﺑﺮاي ﺣﺎﻟﺘﯽ ﮐﻪ ﺗﻌﺪاد ﺳﻨﺴﻮرﻫﺎ ﺑﺰرﮔﺘﺮ و ﯾﺎ ﻣﺴﺎوي ﺗﻌﺪاد ﻣﻨﺎﺑﻊ اوﻟﯿﻪ ﻣﯽ ﺑﺎﺷﺪ ﻣﺴﺌﻠﻪ ﺑﻪ راﺣﺘﯽ ﺑﺮاي ﻫﺮ ﯾﮏ
از ﻣﺪل ﻫﺎي ذﮐﺮ ﺷﺪه ﻗﺎﺑﻞ ﺣﻞ اﺳﺖ .در وﺿﻌﯿﺘﯽ ﮐﻪ ﺗﻌﺪاد ﺳﻨﺴﻮرﻫﺎ از ﺗﻌﺪاد ﻣﻨﺎﺑﻊ ﮐﻤﺘﺮ ﺑﺎﺷﺪ ﻣﺴﺌﻠﻪ ﭘﯿﭽﯿﺪه
ﺗﺮ ﺧﻮاﻫﺪ ﺑﻮد .ﺑﺮرﺳﯽ ﻫﺎي اﻧﺠﺎم ﺷﺪه ﻧﺸﺎن ﻣﯽ دﻫﺪ ﮐﻪ در اﯾﻦ ﺷﺮاﯾﻂ ﻧﯿﺰ ﻣﺴﺌﻠﻪ ﻗﺎﺑﻞ ﺣﻞ اﺳﺖ.
7
ﺷﺮاﯾﻂ ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﮐﻮر ﻣﻨﺎﺑﻊ .2,4
ﺷﺮاﯾﻂ اﺳﺎﺳﯽ ﮐﻪ ﺑﺎﯾﺪ در ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﮐﻮر رﻋﺎﯾﺖ ﺷﻮد ﺑﻪ ﺻﻮرت زﯾﺮ ﻣﯽ ﺑﺎﺷﺪ:
ﻣﻨﺎﺑﻊ ورودي ﺑﺎﯾﺪ ﺑﻪ ﻃﻮر ﻣﺘﻘﺎﺑﻞ اﺳﺘﻘﻼل آﻣﺎري داﺷﺘﻪ ﺑﺎﺷﻨﺪ.
ﺣﺪاﮐﺜﺮ ﯾﮑﯽ از ﻣﻨﺎﺑﻊ ﺑﺎﯾﺪ ﺗﻮزﯾﻊ ﮔﻮﺳﯿﻦ داﺷﺘﻪ ﺑﺎﺷﺪ.
ﻣﺎﺗﺮﯾﺲ ﺗﺮﮐﯿﺐ و ﺗﻔﮑﯿﮏ Aو Bﻫﺮ دو ﺑﺎﯾﺪ ﺗﻮاﺑﻌﯽ ﺧﻄﯽ ﺑﺎﺷﻨﺪ.
ﻣﺴﺎﻟﻪ BSSﺑﻪ ﻋﻨﻮان ﻣﺒﺤﺚ ﺟﺪﯾﺪي در ﭘﺮدازش ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﺨﺘﻠﻒ ﺗﺎﮐﻨﻮن در ﮐﺎرﺑﺮدﻫﺎي ﻣﺨﺘﻠﻔﯽ ﻣﻮرد
اﺳﺘﻔﺎده ﻗﺮار ﮔﺮﻓﺘﻪ اﺳﺖ .از آن ﺟﻤﻠﻪ ﻣﯽ ﺗﻮان ﺑﻪ ﮐﺎرﺑﺮدﻫﺎي زﯾﺮ اﺷﺎره ﮐﺮد:
اﺳﺘﻔﺎده در Watermarking
ﭼﻨﺪﯾﻦ ﭘﯿﭽﯿﺪﮔﯽ ذاﺗﯽ در ﻣﺪل ﺣﻞ ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﮐﻮر ﻣﻨﺎﺑﻊ وﺟﻮد دارد:
(1ﻧﻤﯽ ﺗﻮان داﻣﻨﻪ ﺳﯿﮕﻨﺎل ﻫﺎي اوﻟﯿﻪ را ﺗﺨﻤﯿﻦ زد زﯾﺮا وارﯾﺎﻧﺲ ﯾﺎ اﻧﺮژي ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ﺑﺪﺳﺖ آﻣﺪه ﻗﺎﺑﻞ
ﺗﺸﺨﯿﺺ ﻧﯿﺴﺖ .ﻋﻠﺖ اﯾﻦ ﻣﺴﺌﻠﻪ اﯾﻦ اﺳﺖ ﮐﻪ ﺗﻔﮑﯿﮏ در ﻣﻮرد ﻣﻘﺎدﯾﺮ ﻣﺎﺗﺮﯾﺲ ﺗﺮﮐﯿﺐ Aو ﺳﯿﮕﻨﺎل ﻫﺎي اوﻟﯿﻪ
8
Sﺑﻪ ﺻﻮرت ﮐﻮر اﻧﺠﺎم ﻣﯽ ﺷﻮد و ﻫﺮ ﺿﺮﯾﺐ ﻋﺪدي iﻣﺮﺑﻮط ﺑﻪ ﯾﮑﯽ از ﻣﻨﺎﺑﻊ s iﻣﯽ ﺗﻮاﻧﺪ ﺑﺎ ﺗﻘﺴﯿﻢ ﺳﺘﻮن
iدر Aﺑﻪ ﺻﻮرت زﯾﺮ ﺳﺎده ﻣﯽ ﺷﻮد:
x ( i
1
) )( i s i )(4-1
i i
در ﻧﺘﯿﺠﻪ ﻣﻤﮑﻦ اﺳﺖ ﻣﻘﺎدﯾﺮ ﺛﺎﺑﺘﯽ ﺑﻪ اﺷﺘﺒﺎه ﺑﺮاي داﻣﻨﻪ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﺴﺘﻘﻞ ﺗﺨﻤﯿﻨﯽ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﻮد.
ﺑﻨﺎﺑﺮاﯾﻦ ﻣﻨﺎﺳﺐ ﺗﺮﯾﻦ راه ﻣﻤﮑﻦ اﯾﻦ اﺳﺖ ﮐﻪ ﻣﻘﺪار وارﯾﺎﻧﺲ واﺣﺪ E{S i 2 } 1ﺑﺮاي ﻣﺘﻐﯿﺮﻫﺎي ﺗﺼﺎدﻓﯽ ﺑﯿﺎن
ﺷﻮد.
(2ﺑﺮﭼﺴﺐ و ﯾﺎ ﺗﺮﺗﯿﺐ ﻣﻮﻟﻔﻪ ﻫﺎي اﺳﺘﺨﺮاج ﺷﺪه از اﻟﮕﻮرﯾﺘﻢ ﻧﺴﺒﺖ ﺑﻪ ﺳﯿﮕﻨﺎل ﻫﺎي اوﻟﯿﻪ ﻣﺸﺨﺺ ﻧﯿﺴﺖ.
ﯾﻌﻨﯽ ﻫﺮ ﺟﺎﯾﮕﺸﺘﯽ از ﺳﯿﮕﻨﺎل ﻫﺎي ﺧﺮوﺟﯽ ﺑﺮاي ﯾﮏ راه ﺣﻞ ﻣﺴﺌﻠﻪ ،ﻣﻨﺎﺳﺐ و ﻗﺎﺑﻞ ﻗﺒﻮل اﺳﺖ .ﻫﻤﭽﻨﯿﻦ
ﺗﺸﺨﯿﺺ ﺗﺮﺗﯿﺐ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ ﺗﻨﻬﺎ ﺑﺎ ﻓﺮض ﺑﺪﺳﺖ آوردن اﺳﺘﻘﻼل ﻏﯿﺮ ﻣﻤﮑﻦ اﺳﺖ ،زﯾﺮا ﺗﻮزﯾﻊ ﺳﯿﮕﻨﺎل
ﻫﺎ و ﻫﻤﭽﻨﯿﻦ ﺗﺎﺑﻊ ﺗﺮﮐﯿﺒﯽ آن ﻫﺎ ﻧﺎﻣﺸﺨﺺ اﺳﺖ .ﺑﻨﺎﺑﺮاﯾﻦ ﻫﺮ ﺧﺮوﺟﯽ ﺷﺎﻣﻞ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ ﺗﺨﻤﯿﻨﯽ ﺑﻪ
ﻋﻨﻮان ﺟﻮاب ﺣﻞ ﻣﺴﺌﻠﻪ ﭘﺬﯾﺮﻓﺘﻪ ﻣﯽ ﺷﻮد و ﻧﻤﯽ ﺗﻮان ﺗﺮﺗﯿﺐ ﺳﯿﮕﻨﺎل ﻫﺎي ﺗﻔﮑﯿﮏ ﺷﺪه ﺧﺮوﺟﯽ را ﺗﻌﯿﯿﻦ
ﻧﻤﻮد زﯾﺮا ﺑﺎ ﻫﺮ ﺑﺎر اﺟﺮاي اﻟﮕﻮرﯾﺘﻢ ﺟﺪاﺳﺎزي ﺑﺎ ﯾﮏ ﺗﺮﺗﯿﺐ ﻣﺘﻔﺎوت ﺑﺮﺧﻮرد ﺧﻮاﻫﯿﻢ ﮐﺮد.
(3ﺑﺮاي ﺗﻌﯿﯿﻦ ﺧﺮوﺟﯽ ﻫﺎي ﻣﺴﺘﻘﻞ ﺑﻪ ﻓﺮﺿﯿﺎت ﺑﯿﺸﺘﺮي ﻧﯿﺎز ﻣﯽ ﺑﺎﺷﺪ .در ﻏﯿﺮ اﯾﻦ ﺻﻮرت در ﻋﻤﻞ ﻣﺴﺌﻠﻪ ﺑﺎ
ﻣﺸﮑﻼﺗﯽ ﻣﻮاﺟﻪ ﻣﯽ ﺷﻮد:
ﺣﻀﻮر ﻧﻮﯾﺰ ﻣﻌﻤﻮﻻ ﺑﻪ ﻃﻮر ﮔﺴﺘﺮده اي ﻋﻤﻠﮑﺮد ﺑﯿﺸﺘﺮ روش ﻫﺎي ﺗﻔﮑﯿﮏ ﻣﻮﺟﻮد را ﺗﺤﺖ ﺷﻌﺎع ﻗﺮار
ﻣﯽ دﻫﺪ.
اﻏﻠﺐ ﺗﻌﺪاد ﻣﻨﺎﺑﻊ ﻧﺎﻣﺸﺨﺺ اﺳﺖ و اﺣﺘﻤﺎﻷ در ﺣﯿﻦ اﺟﺮاي اﻟﮕﻮرﯾﺘﻢ ﺗﻐﯿﯿﺮ ﺧﻮاﻫﺪ ﮐﺮد.
ﺑﯿﺸﺘﺮ اﻟﮕﻮرﯾﺘﻢ ﻫﺎ و روش ﻫﺎي اراﺋﻪ ﺷﺪه ﺗﺎﮐﻨﻮن ﻧﺮخ ﻫﻤﮕﺮاﯾﯽ ﮐﻨﺪ ﻋﻼوه ﺑﺮ ﭘﯿﭽﯿﺪﮔﯽ ﻣﺤﺎﺳﺒﺎﺗﯽ
ﺑﺎﻻﯾﯽ دارﻧﺪ ﮐﻪ اﺳﺘﻔﺎده از آن ﻫﺎ را در ﮐﺎرﺑﺮدﻫﺎي ﻋﻤﻠﯽ ﺑﺎ ﻣﺸﮑﻞ ﻣﻮاﺟﻪ ﻣﯽ ﺳﺎزد.
ﺑﻨﺎﺑﺮاﯾﻦ ﻫﺮ روش ﻋﻤﻠﯽ ﺑﺎﯾﺪ در ﻣﻘﺎﺑﻞ ﻧﻮﯾﺰ ﺟﻤﻊ ﺷﻮﻧﺪه ﻣﻘﺎوم ﺑﺎﺷﺪ .ﻫﻤﭽﻨﯿﻦ ﺑﺎﯾﺪ ﺗﻮان اﺿﺎﻓﻪ و ﯾﺎ ﮐﻢ ﮐﺮدن
ﯾﮏ ﻣﻨﺒﻊ را داﺷﺘﻪ ﺑﺎﺷﺪ و ﺑﻪ ﻃﻮر ﻣﻮﺛﺮ و ﺳﺎده اي ﻗﺎﺑﻞ اﺟﺮا ﺑﺎﺷﺪ.
در اﯾﻦ ﺑﺨﺶ ﻣﺪل ﻫﺎ ،ﻓﺮﺿﯿﺎت و ﺷﺮاﯾﻂ ﻣﺴﺌﻠﻪ BSSﺑﺮاي درك ﻣﻨﺎﺳﺐ ﻣﻔﺎﻫﯿﻢ آن ﻣﻮرد ﺑﺮﺳﯽ ﻗﺮار ﮔﺮﻓﺖ.
ﻫﻤﭽﻨﯿﻦ ﭘﯿﭽﯿﺪﮔﯽ ﻫﺎي ﻣﻮﺟﻮد در اﯾﻦ ﻣﺴﺌﻠﻪ ﺑﯿﺎن ﮔﺮدﯾﺪ .ﻫﻤﭽﻨﯿﻦ ﻋﻠﺖ اﻧﺠﺎم روش BSSﺑﺎ ذﮐﺮ ﮐﺎرﺑﺮدﻫﺎي
9
آن ﻣﻮرد ﻣﻄﺎﻟﻌﻪ ﻗﺮار ﮔﺮﻓﺖ در اداﻣﻪ ﺑﻪ ﺑﺮﺧﯽ از روش ﻫﺎي اﺳﺎﺳﯽ ﺣﻞ ﻣﺴﺌﻠﻪ BSSﻣﺎﻧﻨﺪ اﻟﮕﻮرﯾﺘﻢ ﻫﺎي آﻧﺎﻟﯿﺰ
ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ) ،FastICA ، (ICAﻣﺎﮐﺰﯾﻤﻢ ﮐﺮﺗﻮﺳﯿﺲ INFOMAX ،و آﻧﺎﻟﯿﺰ ﻣﻮﻟﻔﻪ ﻫﺎي اﺳﺎﺳﯽ
ﭘﺮداﺧﺘﻪ ﻣﯽ ﺷﻮد.
از آﻧﺠﺎﯾﯿﮑﻪ ﻓﺮض اﺳﺎس در ﺣﻞ ﻣﺴﺌﻠﻪ BSSاﺳﺘﻘﻼل ﺗﺎ ﺣﺪ ﻣﻤﮑﻦ ﻣﻮﻟﻔﻪ ﻫﺎي ﺳﯿﮕﻨﺎل ﻫﺎي ﺧﺮوﺟﯽ اﻟﮕﻮرﯾﺘﻢ
ﻣﯽ ﺑﺎﺷﺪ ،در اﯾﻦ ﺑﺨﺶ ﻗﺒﻞ از ﺑﺮرﺳﯽ روش ﻫﺎ و اﻟﮕﻮرﯾﺘﻢ ﻫﺎي ﻣﻄﺮح ﺷﺪه ﺑﺮاي ﺣﻞ ﻣﺴﺌﻠﻪ BSSﺑﻪ آﺷﻨﺎﯾﯽ
ﺑﺎ اﺻﻄﻼﺣﺎﺗﯽ در اﯾﻦ ﻣﻮرد ﻣﺎﻧﻨﺪ ﮐﺮﺗﻮﺳﯿﺲ ،آﻧﺘﺮوﭘﯽ ،ﻧﮕﻨﺘﺮوﭘﯽ ،اﻃﻼﻋﺎت ﻣﺘﻘﺎﺑﻞ ،ﻣﺎﺗﺮﯾﺲ ﻫﻤﺒﺴﺘﮕﯽ و ﻏﯿﺮه
ﻣﯽ ﭘﺮدازﯾﻢ .ﻫﻤﭽﻨﯿﻦ ﭘﯿﺶ ﭘﺮدازش ﻫﺎي ﻻزم ﺑﺮاي ﺣﻞ اﯾﻦ ﻣﺴﺌﻠﻪ ﻣﻮرد ﺑﺮرﺳﯽ ﻗﺮار ﻣﯽ ﮔﯿﺮد.
ﯾﮑﯽ از ﻓﺮﺿﯿﺎت اﺳﺎﺳﯽ ﻣﺴﺌﻠﻪ BSSاﯾﻦ اﺳﺖ ﮐﻪ ﺳﯿﮕﻨﺎل ﻫﺎي اوﻟﯿﻪ ﺑﺎﯾﺪ از اﺳﺘﻘﻼل آﻣﺎري ﻧﺴﺒﺖ ﺑﻪ ﯾﮑﺪﯾﮕﺮ
ﺑﺮﺧﻮردار ﺑﺎﺷﻨﺪ .ﯾﻌﻨﯽ ﻫﺮ ﯾﮏ از ﻣﻨﺎﺑﻊ ﻓﯿﺰﯾﮑﯽ ﻣﺠﺰاﯾﯽ ﺗﻮﻟﯿﺪ ﺷﻮﻧﺪ .ﺑﺮاي ﺗﻮﺿﯿﺤﺎت ﺑﯿﺸﺘﺮ دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ
اﺳﮑﺎﻟﺮ x 1و x 2را در ﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ .اﮔﺮ p x 1 , x 2 ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺗﻮام اﯾﻦ دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺑﺎﺷﺪ،
ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ اول از راﺑﻄﻪ زﯾﺮ ﺑﺪﺳﺖ ﻣﯽ آﯾﺪ:
ﻫﻤﭽﻨﯿﻦ ﺑﺮاي ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ دوم ﺧﻮاﻫﯿﻢ داﺷﺖ:
از آﻧﺠﺎﯾﯿﮑﻪ ﺑﺮاي اﯾﻦ ﻣﺘﻐﯿﺮﻫﺎي ﺗﺼﺎدﻓﯽ دارﯾﻢ p(x 1 )dx 1 1و ، p(x 2 )dx 2 1ﺑﻨﺎﺑﺮاﯾﻦ در ﺻﻮرﺗﯽ اﯾﻦ
دو ﻣﺘﻐﯿﺮ ﻣﺴﺘﻘﻞ ﺧﻮاﻫﻨﺪ ﺑﻮد ﮐﻪ اﮔﺮ و ﺗﻨﻬﺎ اﮔﺮ ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺗﻮام آﻧﻬﺎ ﺑﺮاﺑﺮ ﺑﺎ ﺣﺎﺻﻞ ﺿﺮب ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ
اﺣﺘﻤﺎل ﻫﺮ ﯾﮏ از آن ﻫﺎ ﺷﻮد .ﯾﻌﻨﯽ:
10
p x 1 , x 2 p 1 x 1 .p 2 x 2 )(7-1
p x 1 , x 2 p x 1 .p x 2 p x 1 p x 1 , x 2 dx 2 p x 1 p x 2 dx 2
p x 1 p x 2 dx 2 p x 1 )(8-1
1
در واﻗﻊ ﺗﻮاﻧﺎﯾﯽ ﺑﺮﺧﯽ از روش ﻫﺎي ﺟﺪاﺳﺎزي ﺳﯿﮕﻨﺎل ﻫﺎ ﻣﺎﻧﻨﺪ ICAﺑﻪ اﯾﻦ ﻣﺴﺌﻠﻪ واﺑﺴﺘﻪ اﺳﺖ ﮐﻪ ﺗﻤﺎﻣﯽ
ﺳﯿﮕﻨﺎل ﻫﺎ ﺑﺎﯾﺪ از ﻣﻨﺎﺑﻊ ﻓﯿﺰﯾﮑﯽ ﻣﺠﺰا ﺗﻮﻟﯿﺪ ﺷﻮﻧﺪ و ﻣﺴﺘﻘﻞ از ﯾﮑﺪﯾﮕﺮ ﺑﺎﺷﻨﺪ .ﯾﻌﻨﯽ داﺷﺘﻦ اﻃﻼﻋﺎﺗﯽ از ﯾﮏ
ﺳﯿﮕﻨﺎل ،اﻃﻼﻋﺎﺗﯽ از ﺳﯿﮕﻨﺎل ﻫﺎي دﯾﮕﺮ را در اﺧﺘﯿﺎر ﻧﻤﯽ ﮔﺬارد.
دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ x 1و x 2ﻧﺎﻫﻤﺒﺴﺘﻪ ﺧﻮاﻫﻨﺪ ﺑﻮد اﮔﺮ ﻣﻘﺪار ﮐﻮوارﯾﺎﻧﺲ آن ﻫﺎ ﺑﺮاﺑﺮ ﺑﺎ ﺻﻔﺮ ﺑﺎﺷﺪ .ﯾﻌﻨﯽ:
)(9-1
Cov x 1 , x 2 E x 1 , x 2 E x 1 E x 2 0
ﻣﯽ ﺗﻮان ﮔﻔﺖ ﮐﻪ اﮔﺮ دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﻧﺎﻫﻤﺒﺴﺘﻪ ﺑﺎﺷﻨﺪ ،ﻣﺴﺘﻘﻞ ﻧﯿﺴﺘﻨﺪ اﻣﺎ اﮔﺮ اﺳﺘﻘﻼل داﺷﺘﻪ ﺑﺎﺷﻨﺪ،
ﻧﺎﻫﻤﺒﺴﺘﻪ ﺧﻮاﻫﻨﺪ ﺑﻮد.
ﺗﻘﺴﯿﻢ ﻣﻨﺎﺑﻊ ﺑﻪ دو ﻗﺴﻤﺖ زﯾﺮ ﮔﻮﺳﯿﻦ و ﻓﻮق ﮔﻮﺳﯿﻦ ﺑﺴﯿﺎر ﺣﺎﺋﺰ اﻫﻤﯿﺖ اﺳﺖ ،ﭼﻮن ﻗﺎﺑﻠﯿﺖ ﺗﻔﮑﯿﮏ ﺑﺴﯿﺎري
از اﻟﮕﻮرﯾﺘﻢ ﻫﺎي ﺗﻔﮑﯿﮏ ﻣﻨﺎﺑﻊ ﺑﻪ اﯾﻦ ﻣﺴﺌﻠﻪ ﺑﺴﺘﮕﯽ دارد .در ﺑﻪ ﮐﺎر ﮔﯿﺮي روش ،ICAﺗﻮزﯾﻊ ﺳﯿﮕﻨﺎل ﻣﻨﺎﺑﻊ
ﻧﺒﺎﯾﺪ ﮔﻮﺳﯽ ﺑﺎﺷﺪ و اﯾﻦ اﻣﺮ ﺑﺮاي روش ICAﯾﮏ ﻣﺤﺪودﯾﺖ اﺳﺎﺳﯽ ﺑﻪ ﺷﻤﺎر ﻣﯽ آﯾﺪ .ﺑﺮاي درك ﺑﻬﺘﺮ ﻋﻠﺖ
اﯾﻦ ﻋﺪم وﺟﻮد ﻣﺘﻐﯿﺮﻫﺎي ﮔﻮﺳﯽ ،ﻻزم اﺳﺖ در اﺑﺘﺪا ﺑﺎ ﺑﺮﺧﯽ ﻣﻔﺎﻫﯿﻢ ﻗﺎﺑﻞ ﺗﻮﺟﻪ ﮐﻪ در زﯾﺮ ﺑﻪ آﻧﻬﺎ اﺷﺎره ﺷﺪه
اﺳﺖ آﺷﻨﺎ ﺷﻮﯾﻢ.
22
Gaussian
11
23
ﮐﻮﻣﻮﻻن .2,9
ﮐﻪ ﺑﺴﻂ ﻟﮕﺎرﯾﺘﻤﯽ اﯾﻦ ﺗﺎﺑﻊ ﺑﺮاﺳﺎس ﺳﺮي ﺗﯿﻠﻮر ﺑﻪ ﺻﻮرت زﯾﺮ ﻣﯽ ﺑﺎﺷﺪ:
log f t k 1 t k 2
t2 tr
... k r ...
)(11-1
2 !r
ﮐﻪ ﺑﻪ ﻫﺮ ﯾﮏ از ﺛﺎﺑﺖ ﻫﺎي k rﮐﻮﻣﯿﻮﻟﻨﺖ ﮔﻔﺘﻪ ﻣﯽ ﺷﻮد .ﮐﺎﻣﯿﻮﻟﻨﺖ ﻫﺎي اول ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ اﺳﮑﺎﻟﺮ ﺑ ﻪ
ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽ ﺷﻮد:
k 1 E x , k 2 E x 2 , k 3 E x 3 , k 4 E x 4 3 E x 2
2
)(12-1
ﮐﻪ E x mean x ﻣﯿﺎﻧﮕﯿﻦ ﻣﺘﻐﯿﺮﻫﺎي ﺗﺼﺎدﻓﯽ اﺳﺖ .ﺑﻪ ﮐﺎﻣﯿﻮﻟﻨﺖ ﻣﺮﺗﺒﻪ ﭼﻬﺎرم ﮐﻪ ﻣﻌﯿﺎري اﺳﺎﺳﯽ ﺗﻌﯿﯿﻦ
ﮐﻨﻨﺪه وﯾﮋﮔﯽ ﻫﺎي آﻣﺎري ﺳﯿﮕﻨﺎل ﻫﺎ ﻣﯽ ﺑﺎﺷﺪ ،ﮐﺸﯿﺪﮔﯽ )ﮐﺮﺗﻮﺳﯿﺲ( ﮔﻔﺘﻪ ﻣﯽ ﺷﻮد.
24
ﻣﯿﺰان اﻧﺤﺮاف ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺳﯿﮕﻨﺎل ﻫﺎ )ﭼﻮﻟﮕﯽ( .2,10
ﻣﯿﺰان اﻧﺤﺮاف ﯾﺎ ارﯾﺐ ﺑﻮدن ﺗﻮزﯾﻊ ﺳﯿﮕﻨﺎل ﻫﺎ ﻣﻌﯿﺎري ﺑﺮاي ﺳﻨﺠﺶ ﻋﺪم ﺗﻘﺎرن ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﯾﮏ ﻣﺘﻐﯿﺮ
ﺗﺼﺎدﻓﯽ ﻣﯽ ﺑﺎﺷﺪ ﮐﻪ ﻃﺒﻖ ﻣﻌﺎدﻟﻪ زﯾﺮ ﻣﺤﺎﺳﺒﻪ ﻣﯽ ﮔﺮدد:
s
k3 )(13-1
3
ﮐﻪ E x 2 E xاﻧﺤﺮاف ﻣﻌﯿﺎر ﻣﺘﻐﯿﺮﻫﺎي ﺗﺼﺎدﻓﯽ اﺳﺖ .در واﻗﻊ اﯾﻦ ﻣﻌﯿﺎر ﻧﺮﻣﺎﻟﯿﺰه ﺷﺪه ي ﮐﺎﻣﯿﻮﻟﻨﺖ
2
ﺳﻮم ﺳﯿﮕﻨﺎل ﻣﯽ ﺑﺎﺷﺪ .در اﯾﻦ راﺑﻄﻪ σاﻧﺤﺮاف ﻣﻌﯿﺎر ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺧﻮاﻫﺪ ﺑﻮد .ﺑﺎ اﺳﺘﻔﺎده از اﯾﻦ راﺑﻄﻪ اﮔﺮ
PDFﺳﯿﮕﻨﺎﻟﯽ ﻣﺘﻘﺎرن ﺑﺎﺷﺪ ﺣﺎﺻﻞ ﻋﺒﺎرت ﺑﺎﻻ ﺻﻔﺮ ﺷﺪه ،در ﻏﯿﺮ اﯾﻦ ﺻﻮرت ،ﻣﺜﺒﺖ ﺷﺪن ﯾﺎ ﻣﻨﻔﯽ ﺷﺪن آن
ﺣﺎﮐﯽ از ﺗﻤﺎﯾﻞ PDFﺳﯿﮕﻨﺎل ﺑﻪ راﺳﺖ ﯾﺎ ﭼﭗ ﻣﯽ ﺑﺎﺷﺪ.
23
Cumulant
24
Skewness
12
ﮐﻮﻣﻮﻻن ﻣﺮﺗﺒﻪ ﭼﻬﺎر ﯾﺎ ﮐﺸﯿﺪﮔﯽ )ﮐﺮﺗﻮﺳﯿﺲ( .2,11
ﮐﻮﻣﻮﻻن ﻣﺮﺗﺒﻪ ﭼﻬﺎرم ﯾﺎ ﮐﺮﺗﻮﺳﯿﺲ ﯾﮑﯽ از ﻣﻌﯿﺎرﻫﺎي اﺻﻠﯽ راﯾﺞ ﺑﺮاي ﺳﻨﺠﺶ ﻣﯿﺰان ﮔﻮﺳﯽ ﺑﻮدن ﺗﻮزﯾﻊ ﯾﮏ
ﺳﯿﮕﻨﺎل ﻣﯽ ﺑﺎﺷﺪ .ﻗﺎﺑﻞ اﺛﺒﺎت اﺳﺖ ﮐﻪ ﻣﻘﺪار ﮐﺮﺗﻮﺳﯿﺲ ﺻﻔﺮ ﺑﺮاي ﻣﺘﻐﯿﺮي ﮐﻪ از ﺗﻮزﯾﻊ ﮔﻮﺳﯽ ﺑﺮﺧﻮردار اﺳﺖ
اﺧﺘﺼﺎص ﻣﯽ ﯾﺎﺑﺪ .در واﻗﻊ ﻫﺮ ﭼﻪ ﻗﺪرﻣﻄﻠﻖ ﮐﺮﺗﻮﺳﯿﺲ ﺑﻪ ﺻﻔﺮ ﻧﺰدﯾﮑﺘﺮ ﺑﺎﺷﺪ ،آن ﻣﺘﻐﯿﺮ ﮔﻮﺳﯽ ﺗﺮ اﺳﺖ.
اﺻﻄﻼﺣﺎ ﺑﻪ ﻣﺘﻐﯿﺮي ﮐﻪ داراي ﮐﺮﺗﻮﺳﯿﺲ ﻣﺜﺒﺖ اﺳﺖ ﻓﻮق ﮔﻮﺳﯿﻦ 25و ﻣﺘﻐﯿﺮي ﮐﻪ داراي ﮐﺮﺗﻮﺳﯿﺲ ﻣﻨﻔﯽ
اﺳﺖ زﯾﺮ ﮔﻮﺳﯿﻦ 26ﮔﻔﺘﻪ ﻣﯽ ﺷﻮد .ﺑﺮاي ﻣﺜﺎل ﺳﯿﮕﻨﺎل ﻫﺎي دﯾﺠﯿﺘﺎﻟﯽ ﻣﺨﺎﺑﺮاﺗﯽ اﻏﻠﺐ زﯾﺮﮔﻮﺳﯿﻦ و ﺳﯿﮕﻨﺎل
ﻫﺎي ﺻﻮﺗﯽ ﺳﯿﮕﻨﺎل ﻫﺎﯾﯽ ﻓﻮق ﮔﻮﺳﯿﻦ ﻣﯽ ﺑﺎﺷﻨﺪ .ﻣﻌﻤﻮﻻ از راﺑﻄﻪ ﻧﺮﻣﺎﻟﯿﺰه ﺷﺪه ﺟﻬﺖ ﻣﺤﺎﺳﺒﻪ ﮐﺮﺗﻮﺳﯿﺲ
اﺳﺘﻔﺎده ﻣﯽ ﺷﻮد ﮐﻪ در اﯾﻦ ﺻﻮرت ﻣﻌﯿﺎر ﮔﻮﺳﯽ ﺑﻮدن ﻋﺪد 3ﺧﻮاﻫﺪ ﺑﻮد .ﺑﺪان ﻣﻌﻨﯽ ﮐﻪ ﺳﯿﮕﻨﺎل ﻫﺎي ﮔﻮﺳﯽ
28
داراي ﮐﻮﺗﻮﺳﯿﺲ 3ﺧﻮاﻫﻨﺪ ﺑﻮد و ﺳﯿﮕﻨﺎل ﻫﺎي ﻓﻮق ﮔﻮﺳﯿﻦ 27ﮐﺮﺗﻮﺳﯿﺲ ﺑﯿﺸﺘﺮ و ﺳﯿﮕﻨﺎل ﻫﺎي زﯾﺮ ﮔﻮﺳﯿﻦ
ﮐﺮﺗﻮﺳﯿﺲ ﮐﻤﺘﺮ از 3ﺧﻮاﻫﻨﺪ داﺷﺖ:
راﺑﻄﻪ ﺑﺎﻻ در ﺻﻮرت ﺻﻔﺮ ﺑﻮدن ﻣﻘﺪار ﻣﯿﺎﻧﮕﯿﻦ ﺳﯿﮕﻨﺎل ﻫﺎ ﺑﺮاي ﺑﺪﺳﺖ آوردن ﮐﺮﺗﻮﺳﯿﺲ ﺑﺮﻗﺮار ﺧﻮاﻫﺪ ﺑﻮد.
ﻓﺮض ﺻﻔﺮ ﺑﻮدن ﻣﯿﺎﻧﮕﯿﻦ ﺳﯿﮕﻨﺎل ﻫﺎ ﻣﺤﺎﺳﺒﻪ ﮐﺮﺗﻮﺳﯿﺲ را ﺑﻪ ﻣﺮاﺗﺐ ﺳﺎده ﺗﺮ ﻣﯽ ﺳﺎزد .ﺑﻄﻮرﯾﮑﻪ در ﺻﻮرت
ﻋﺪم ﺑﺮﻗﺮاري اﯾﻦ ﺷﺮط ﻣﻌﺎدﻟﻪ ﮐﺮﺗﻮﺳﯿﺲ ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﺒﺪﯾﻞ ﺧﻮاﻫﺪ ﺷﺪ :
E x 4 3 E x 2
2 2
12 E x E x 2 4E x E x3 6 E x
4
)(15-1
Kurt x k 4 2
2
2
3 E x 2 E x 2
E x 2
25
Leptokurtic
26
Platkurtic
27
Supergaussian
28
Subgaussian
13
ﺳﯿﮕﻨﺎل ﻫﺎي ﮔﻮﺳﯽ داراي ﺗﻮزﯾﻊ زﻧﮕﻮﻟﻪ اي ﯾﺎ ﻧﺮﻣﺎل ،29ﺳﯿﮕﻨﺎل ﻫﺎي زﯾﺮ ﮔﻮﺳﯿﻦ داراي ﺗﻮزﯾﻊ ﯾﮑﻨﻮاﺧﺖ و
ﺳﯿﮕﻨﺎل ﻫﺎي ﻓﻮق ﮔﻮﺳﯿﻦ داراي ﭘﯿﮏ ﺗﯿﺰﺗﺮي در ﻣﺮﮐﺰ و دﻣﯽ ﻃﻮﻻﻧﯽ ﺗﺮ ﻧﺴﺒﺖ ﺑﻪ ﺳﯿﮕﻨﺎل ﻫﺎي ﮔﻮﺳﯽ ﺧﻮاﻫﻨﺪ
ﺑﻮد.
ﺑﺎﯾﺪ ﺗﻮﺟﻪ داﺷﺖ ﮐﻪ داﺷﺘﻦ اﻃﻼﻋﺎت ﻣﺮﺗﺒﻪ ﺑﺎﻻ ﺑﺮاي ﺗﺨﻤﯿﻦ ﻣﺪل ﺗﻔﮑﯿﮏ ﮐﻮر اﻟﺰاﻣﯽ اﺳﺖ و اﯾﻦ ﻣﺴﺌﻠﻪ در
ﺻﻮرﺗﯽ اﺳﺖ ﮐﻪ ﮐﻮﻣﻮﻻن ﻫﺎي ﻣﺮﺗﺒﻪ ﺑﺎﻻﺗﺮ از دو ﺑﺮاي ﺗﻮزﯾﻊ ﻫﺎي ﮔﻮﺳﯽ ﺻﻔﺮ اﺳﺖ .ﺑﻨﺎﺑﺮاﯾﻦ ﺣﺪاﮐﺜﺮ ﯾﮑﯽ از
ﻣﻨﺎﺑﻊ اوﻟﯿﻪ در ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﮐﻮر ﺑﺎﯾﺪ ﺑﻪ ﺻﻮرت ﮔﻮﺳﯽ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﻮد.
آﻧﺘﺮوﭘﯽ .2,12
ﯾﮑﯽ از ﻣﻔﺎﻫﯿﻢ ﻣﻬﻢ ﺗﺌﻮري اﻃﻼﻋﺎت 30ﮐﻪ ﻣﯽ ﺗﻮاﻧﺪ ﻣﻌﯿﺎر ﻣﻬﻤﯽ ﺑﺮاي ﺗﻌﯿﯿﻦ ﻣﯿﺰان اﻃﻼﻋﺎت ﻣﻮﺟﻮد در ﻣﺘﻐﯿﺮﻫﺎ
ﺑﺎﺷﺪ ،آﻧﺘﺮوﭘﯽ اﺳﺖ .در واﻗﻊ آﻧﺘﺮوﭘﯽ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﻣﻌﯿﺎري ﺑﺮاي ﺗﻌﯿﯿﻦ ﻣﯿﺰان ﺗﺼﺎدﻓﯽ ﺑﻮدن ﻣﻮﻟﻔﻪ ﻫﺎي
ﯾﮏ ﻣﺘﻐﯿﺮ اﺳﺖ .ﺑﻄﻮرﯾﮑﻪ ﻫﺮﭼﻪ ﯾﮏ ﺑﺮدار ﺗﺼﺎدﻓﯽ ﻏﯿﺮ ﻗﺎﺑﻞ ﭘﯿﺶ ﺑﯿﻨﯽ ﺗﺮ ﺑﺎﺷﺪ ،آﻧﺘﺮوﭘﯽ آن ﺑﯿﺸﺘﺮ ﺧﻮاﻫﺪ ﺑﻮد.
ﺑﺮ ﻃﺒﻖ اﺻﻮل ﺗﺌﻮري اﻃﻼﻋﺎت ﻣﯽ ﺗﻮان ﻧﺸﺎن داد ﮐﻪ در ﻣﯿﺎن ﻫﻤﻪ ﻣﺘﻐﯿﺮﻫﺎي ﺗﺼﺎدﻓﯽ ﺑﺎ وارﯾﺎﻧﺲ واﺣﺪ،
ﺑﺰرﮔﺘﺮﯾﻦ آﻧﺘﺮوﭘﯽ ﻣﺘﻌﻠﻖ ﺑﻪ ﻣﺘﻐﯿﺮﻫﺎي ﮔﻮﺳﯽ ﻣﯽ ﺑﺎﺷﺪ .آﻧﺘﺮوﭘﯽ ﺗﻔﺎﺿﻠﯽ 31ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ xﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ
اﺣﺘﻤﺎل p x ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽ ﺷﻮد:
ﺑﻪ ﻣﻨﻈﻮر ﺑﺪﺳﺖ آوردن آﻧﺘﺮوﭘﯽ ﺑﯿﻦ دو ﺟﻔﺖ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ x 1و x 2ﺑﺎ داﺷﺘﻦ p x, y ﺑﻪ ﻋﻨﻮان ﺗﺎﺑﻊ
ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺗﻮام اﯾﻦ دو ﻣﺘﻐﯿﺮ ،آﻧﺘﺮوﭘﯽ ﻣﺸﺘﺮك ﺑﯿﻦ دو ﻣﺘﻐﯿﺮ را ﺧﻮاﻫﯿﻢ داﺷﺖ :
H x 1 , x 2 p x 1 , x 2 log p x 1 , x 2 E log p x 1 , x 2 )(17-1
x1 x 2
29
Normal
30
Information theory
31
Differential entropy
14
آﻧﺘﺮوﭘﯽ ﻣﻨﻔﯽ )ﻧﮕﻨﺘﺮوﭘﯽ( .2,13
ﯾﮑﯽ دﯾﮕﺮ از ﻣﻌﯿﺎرﻫﺎي ﻣﻮرد اﺳﺘﻔﺎده ﺑﺮاي ﺗﻌﯿﯿﻦ ﻣﯿﺰان ﮔﻮﺳﯽ ﺑﻮدن ﯾﮏ ﺳﯿﮕﻨﺎل ،ﻧﮕﻨﺘﺮوﭘﯽ ﻣﯽ ﺑﺎﺷﺪ .ﻣﺤﺎﺳﺒﻪ
ﻧﮕﻨﺘﺮوﭘﯽ ﺑﺮاي ﺗﻌﯿﯿﻦ ﻣﯿﺰان ﮔﻮﺳﯽ ﺑﻮدن ﺳﯿﮕﻨﺎل ﺑﺮ ﺣﺴﺐ آﻧﺘﺮوﭘﯽ ﺗﻔﺎﺿﻠﯽ ﺧﻮاﻫﺪ ﺑﻮد .ﻧﮕﻨﺘﺮوﭘﯽ ﻫﻤﯿﺸﻪ ﻏﯿﺮ
ﻣﻨﻔﯽ ﺷﺪه و ﺗﻨﻬﺎ در ﺻﻮرت ﮔﻮﺳﯽ ﺑﻮدن ﺗﻮزﯾﻊ xﺻﻔﺮ ﺧﻮاﻫﺪ ﺷﺪ .ﻧﮕﻨﺘﺮوﭘﯽ ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽ ﺷﻮد :
ﮐﻪ x Gaussianﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﻮﺳﯽ ﺑﺎ ﻣﺎﺗﺮﯾﺲ ﻫﻤﺒﺴﺘﮕﯽ ﺑﺮاﺑﺮ ﺑﺎ ﻣﺎﺗﺮﯾﺲ ﻫﻤﺒﺴﺘﮕﯽ xاﺳﺖ .ﺑﺮ ﻃﺒﻖ اﯾﻦ
راﺑﻄﻪ ،ﻧﮕﻨﺘﺮوﭘﯽ ﺑﺮاي ﻣﺘﻐﯿﺮﻫﺎي ﮔﻮﺳﯽ ﺻﻔﺮ و ﺑﺮاي ﺳﺎﯾﺮ ﺗﻮزﯾﻊ ﺳﯿﮕﻨﺎل ﻫﺎ ﻣﻘﺪاري ﻣﺜﺒﺖ ﻣﯽ ﺑﺎﺷﺪ .ﺑﻨﺎﺑﺮاﯾﻦ
ﻣﺘﻐﯿﺮ ﮔﻮﺳﯽ از ﺑﺰرﮔﺘﺮﯾﻦ آﻧﺘﺮوﭘﯽ ﺑﺮﺧﻮردار اﺳﺖ .اﺳﺘﻔﺎده از راﺑﻄﻪ ) (18-1ﺟﻬﺖ ﻣﺤﺎﺳﺒﻪ ﻧﮕﻨﺘﺮوﭘﯽ ﻋﻤﻼ
دﺷﻮار اﺳﺖ زﯾﺮا ﺑﺮاي ﻣﺤﺎﺳﺒﻪ آن ﻧﯿﺎز ﺑﻪ ﺗﺨﻤﯿﻦ PDFﺳﯿﮕﻨﺎل از روش ﻫﺎي ﺗﻘﺮﯾﺒﯽ ﻣﯽ ﺑﺎﺷﺪ ﮐﻪ ﺑﺎ ﻣﺸﮑﻼﺗﯽ
ﻫﻤﺮاه ﺧﻮاﻫﺪ ﺑﻮد .ﺑﻨﺎﺑﺮاﯾﻦ ﺑﺎﯾﺪ از روش ﺳﺎده ﺗﺮي ﺟﻬﺖ ﺗﺨﻤﯿﻦ ﻧﮕﻨﺘﺮوﭘﯽ اﺳﺘﻔﺎده ﮐﺮد .ﯾﮑﯽ از روش ﻫﺎي
ﺗﺨﻤﯿﻦ ﻧﮕﻨﺘﺮوﭘﯽ اﺳﺘﻔﺎده از ﻣﻤﺎن ﻫﺎ و ﮐﻮﻣﻮﻻن ﻫﺎي ﻣﺮاﺗﺐ ﺑﺎﻻ ﻣﯽ ﺑﺎﺷﺪ .ﺑﻄﻮر ﻣﺜﺎل ﻣﯽ ﺗﻮان ﺗﻘﺮﯾﺐ زﯾﺮ را
در ﻧﻈﺮ ﮔﺮﻓﺖ :
Jx
1 2 1
E x 3 Kurt x
2 )(19-1
12 48
اﻃﻼﻋﺎت ﻣﺘﻘﺎﺑﻞ Iﺑﯿﻦ mﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ i 1,2,...,mﺑﺎ اﺳﺘﻔﺎده از ﻣﻔﻬﻮم آﻧﺘﺮوﭘﯽ ﻣﻌﯿﺎري ﺟﻬﺖ اﻧﺪازه
ﮔﯿﺮي واﺑﺴﺘﮕﯽ ﺑﯿﻦ ﻣﺘﻐﯿﺮﻫﺎي ﺗﺼﺎدﻓﯽ ﻣﯽ ﺑﺎﺷﺪ و ﺑﻪ ﺻﻮرت زﯾﺮ ﻗﺎﺑﻞ ﺗﻌﺮﯾﻒ اﺳﺖ:
m
I x 1 , x 2 ,...x m H x i H x )(20-1
i 1
15
32
ﻗﻀﯿﻪ ﺣﺪ ﻣﺮﮐﺰي .2,15
ﻗﻀﯿﻪ ﺣﺪ ﻣﺮﮐﺰي ﯾﮑﯽ از ﻣﻬﻢ ﺗﺮﯾﻦ و ﮐﺎرﺑﺮدي ﺗﺮﯾﻦ ﻗﻀﺎﯾﺎﯾﯽ اﺳﺖ ﮐﻪ ﺑﻪ ﺣﻞ ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﮐﻮر ﮐﻤﮏ ﻣﯽ
ﮐﻨﺪ .ﺑﺮ ﻃﺒﻖ اﯾﻦ ﻗﻀﯿﻪ ﺗﺮﮐﯿﺐ ﭼﻨﺪﯾﻦ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ داراي ﺗﻮزﯾﻌﯽ ﺧﻮاﻫﺪ ﺑﻮد ﮐﻪ ﻧﺴﺒﺖ ﺑﻪ ﻫﺮ ﯾﮏ از
ﻣﺘﻐﯿﺮﻫﺎي اوﻟﯿﻪ ﺑﻪ ﺗﻮزﯾﻊ ﮔﻮﺳﯽ ﻧﺰدﯾﮏ ﺗﺮ اﺳﺖ .
ﻧﺘﯿﺠﻪ دﯾﮕﺮي ﮐﻪ از اﯾﻦ ﻗﻀﯿﻪ ﺑﺪﺳﺖ ﻣﯽ آﯾﺪ اﯾﻦ اﺳﺖ ﮐﻪ ﺗﺮﮐﯿﺐ ﯾﺎ ﻣﺠﻤﻮع ﭼﻨﺪ ﺳﯿﮕﻨﺎل ﮔﻮﺳﯽ ﺑﺎز ﻫﻢ
ﮔﻮﺳﯽ ﺧﻮاﻫﺪ ﺑﻮد .در ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﮐﻮر ،اﯾﻦ ﻣﺤﺪودﯾﺖ وﺟﻮد دارد ﮐﻪ ﺣﺪاﮐﺜﺮ ﯾﮑﯽ از ﻣﻨﺎﺑﻊ اوﻟﯿﻪ ﻣﯽ ﺗﻮاﻧﺪ
ﺗﻮزﯾﻊ ﮔﻮﺳﯿﻦ داﺷﺘﻪ ﺑﺎﺷﺪ و ﺑﻘﯿﻪ ﻣﻨﺎﺑﻊ ﺑﺎﯾﺪ ﻓﻮق ﮔﻮﺳﯿﻦ ﯾﺎ زﯾﺮﮔﻮﺳﯿﻦ ﺑﺎﺷﺪ .اﯾﻦ ﻣﺴﺌﻠﻪ ﺑﻪ اﯾﻦ ﻋﻠﺖ اﺳﺖ ﮐﻪ
ﮐﻮﻣﻮﻻن ﻫﺎي ﻣﺮﺗﺒﻪ ﺑﯿﺸﺘﺮ از دو ﺑﺮاي ﺳﯿﮕﻨﺎل ﻫﺎي ﺑﺎ ﺗﻮزﯾﻊ ﮔﻮﺳﯽ ،ﺻﻔﺮ اﺳﺖ .زﯾﺮا ﻣﯿﺰان ارﯾﺐ ﺑﻮدن ﺳﯿﮕﻨﺎل
ﻫﺎي ﮔﻮﺳﯽ ﺑﻪ ﻋﻠﺖ ﺗﻘﺎرن ﺻﻔﺮ اﺳﺖ و اﯾﻦ ﻣﺴﺌﻠﻪ ﺑﺎﻋﺚ ﻣﯽ ﺷﻮد ﮐﻪ ﮐﺮﺗﻮﺳﯿﺲ اﯾﻦ ﺳﯿﮕﻨﺎل ﻫﺎ ﻧﯿﺰ ﺻﻔﺮ ﺑﺎﺷﺪ.
در اﯾﻦ ﺻﻮرت اﻃﻼﻋﺎت ﮐﻮﻣﻮﻻن ﻫﺎي ﻣﺮﺗﺒﻪ ﺑﺎﻻ ﮐﻪ ﺑﺮاي ﺗﺨﻤﯿﻦ ﺳﯿﮕﻨﺎل ﻫﺎي ﮐﻮر ﺿﺮوري اﺳﺖ از ﺑﯿﻦ ﻣﯽ
رود و ﻣﺤﺎﺳﺒﺎت ﺑﺮ ﻣﺒﻨﺎي اﺳﺘﻘﻼل ﺳﯿﮕﻨﺎل ﻫﺎ در روش ﻫﺎي ﻣﺨﺘﻠﻒ ﺑﺎ ﻣﺸﮑﻞ ﻣﻮاﺟﻪ ﻣﯽ ﺷﻮد.
ﺑﻪ ﻣﻨﻈﻮر اﻧﺠﺎم ﻋﻤﻞ ﺗﻔﮑﯿﮏ و ﺗﻌﯿﯿﻦ اﯾﻦ ﻣﺴﺌﻠﻪ ﮐﻪ آﯾﺎ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﺸﺎﻫﺪه اي ﻗﺎﺑﻞ ﺟﺪاﺷﺪن ﻫﺴﺘﻨﺪ ﯾﺎ ﻧﻪ،
ﺑﺎﯾﺪ ﺷﺮاﯾﻄﯽ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﻮد .ﺗﻔﮑﯿﮏ ﭘﺬﯾﺮي در ﺣﺎﻟﺖ ﮐﻠﯽ ﺑﻪ دو ﺻﻮرت در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﻣﯽ ﺷﻮد :
ﻣﻨﺎﺑﻊ ﻏﯿﺮ ﻫﻤﺒﺴﺘﻪ S iﻗﺎﺑﻞ ﺟﺪاﺳﺎزي ﻫﺴﺘﻨﺪ اﮔﺮ ﺳﯿﮕﻨﺎل ﻫﺎي S i , i 1,..., nﻏﯿﺮﻫﻤﺒﺴﺘﻪ ﺑﺎﺷﻨﺪ و
ﺑﻪ ازاي 0داﺷﺘﻪ ﺑﺎﺷﯿﻢ:
ﻣﻨﺎﺑﻊ ﻣﺴﺘﻘﻞ S iﻗﺎﺑﻞ ﺟﺪاﺳﺎزي ﻫﺴﺘﻨﺪ اﮔﺮ ﺳﯿﮕﻨﺎل ﻫﺎي S i , i 1,..., nﺑﻪ ﻃﻮر ﻣﺘﻘﺎﺑﻞ ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ
و ﺑﻪ ازاي 0داﺷﺘﻪ ﺑﺎﺷﯿﻢ:
32
Central limit theorem
16
ﭘﯿﺶ ﭘﺮدازش ﻫﺎي ﻻزم ﺑﺮاي ﺣﻞ ﻣﺴﺌﻠﻪ BSS .2,17
ﺑﻪ ﻣﻨﻈﻮر ﺳﺎده ﺳﺎزي اﻟﮕﻮرﯾﺘﻢ ﻫﺎي ﺟﺪاﺳﺎزي ﻣﻨﺎﺑﻊ ﮐﻪ ﺑﻪ ﺻﻮرت ﮐﻮر اﻧﺠﺎم ﻣﯽ ﺷﻮﻧﺪ ،اﻧﺠﺎم ﯾﮏ ﺳﺮي ﭘﯿﺶ
ﭘﺮدازش ﻫﺎ ﺿﺮوري و ﻣﻔﯿﺪ ﻣﯽ ﺑﺎﺷﺪ .اﯾﻦ ﭘﯿﺶ ﭘﺮدازش ﻫﺎ ﺑﺎ ﮐﺎﻫﺶ ﭘﺎراﻣﺘﺮﻫﺎي ﻣﺠﻬﻮل از ﭘﯿﭽﯿﺪﮔﯽ ﻣﺴﺌﻠﻪ
ﻣﯽ ﮐﺎﻫﻨﺪ و در ﻧﺘﯿﺠﻪ ﺳﺮﯾﻊ ﺗﺮ ﺑﻪ ﺑﻬﺘﺮﯾﻦ و ﺑﻬﯿﻨﻪ ﺗﺮﯾﻦ ﺟﻮاب ﻫﻤﮕﺮا ﻣﯽ ﺷﻮﻧﺪ .در واﻗﻊ ﺑﻠﻮك دﯾﺎﮔﺮام ﮐﻠﯽ
ﺳﯿﺴﺘﻢ ﺗﺮﮐﯿﺐ و ﺗﻔﮑﯿﮏ ﮐﻮر ﺑﻪ ﺻﻮرت ﺷﮑﻞ 3-1ﻣﯽ ﺑﺎﺷﺪ.
A B
ﺳﯿﺴﺘﻢ ﺗﺮﮐﯿﺐ ﭘﯿﺶ ﭘﺮدازش ﺳﯿﺴﺘﻢ ﺑﺎزﯾﺎﺑﯽ
S x W Y
ﻧﺎﺷﻨﺎﺧﺘﻪ ﺳﯿﮕﻨﺎل ﻫﺎي ﺗﺸﺨﯿﺺ ﻣﺪل ﺳﯿﮕﻨﺎل ﻫﺎي
ﺳﯿﮕﻨﺎل ﻫﺎ ﺗﺮﮐﯿﺒﯽ ﺗﺮﮐﯿﺐ ﻣﻨﺒﻊ
33
ﻣﺮﮐﺰي ﺳﺎزي .2,18
ﯾﮑﯽ از اﺻﻠﯽ ﺗﺮﯾﻦ ﭘﯿﺶ ﭘﺮدازش ﻫﺎي ﻻزم ﺑﺮاي ﺣﻞ ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﮐﻮر ﻣﻨﺎﺑﻊ ،ﻣﺮﮐﺰي ﺳﺎزي ﺳﯿﮕﻨﺎل ﻫﺎي
ﺗﺮﮐﯿﺒﯽ ﻗﺎﺑﻞ ﻣﺸﺎﻫﺪه ﻣﯽ ﺑﺎﺷﺪ .در اﯾﻦ ﭘﯿﺶ ﭘﺮدازش ﻣﻘﺪار ﻣﯿﺎﻧﮕﯿﻦ ﺳﯿﮕﻨﺎل ﻫﺎي ﺗﺮﮐﯿﺒﯽ } ، m E{xاز ﻫﺮ
ﺳﯿﮕﻨﺎل ﮐﻢ ﻣﯽ ﺷﻮد .ﺑﻪ ﻃﻮرﯾﮑﻪ ﺳﯿﮕﻨﺎل ﻫﺎي ﺗﺮﮐﯿﺒﯽ ﺟﺪﯾﺪ xﺑﺎ ﻣﯿﺎﻧﮕﯿﻦ ﺻﻔﺮ ﺑﺪﺳﺖ ﻣﯽ آﯾﻨﺪ .ﺑﺎ اﻧﺠﺎم اﯾﻦ
ﻣﺮﺣﻠﻪ ﻓﺮض ﺑﺮ اﯾﻦ ﺧﻮاﻫﺪ ﺑﻮد ﮐﻪ ﻣﻨﺎﺑﻊ اﺻﻠﯽ داراي ﻣﯿﺎﻧﮕﯿﻦ ﺻﻔﺮ ﻣﯽ ﺑﺎﺷﻨﺪ .اﯾﻦ ﻋﻤﻞ ﺑﺪان ﻋﻠﺖ اﺳﺖ ﮐﻪ
در ﺣﺎﻟﺖ ﮐﻠﯽ ﻣﻌﯿﺎر ﮐﺮﺗﻮﺳﯿﺲ از راﺑﻄﻪ زﯾﺮ ﺑﺪﺳﺖ ﻣﯽ آﯾﺪ:
2
Kurt x
E x 4 3 E x 2
2
12 E x E x 2 4E x E x3 6 E x
4
33
Centering
17
ﻓﺮض ﺻﻔﺮ ﺑﻮدن ﻣﯿﺎﻧﮕﯿﻦ ﺳﯿﮕﻨﺎل ﻫﺎ ﻣﺤﺎﺳﺒﻪ ﮐﺮﺗﻮﺳﯿﺲ را ﺑﻪ ﻣﺮاﺗﺐ ﺳﺎده ﺗﺮ ﻣﯽ ﮐﻨﺪ ﺑﻄﻮرﯾﮑﻪ در ﺻﻮرت
اﻧﺠﺎم اﯾﻦ ﻣﺮﺣﻠﻪ راﺑﻄﻪ ﻗﺒﻞ ﺑﻪ ﺻﻮرت زﯾﺮ ﺳﺎده ﻣﯽ ﺷﻮد:
در اﻧﺘﻬﺎي اﻟﮕﻮرﯾﺘﻢ و ﺑﻌﺪ از ﺗﺨﻤﯿﻦ ﻣﺎﺗﺮﯾ ﺲ ﺟﺪاﺳﺎز ،ﺑﺮاي ﺷﺒﯿﻪ ﮐﺮدن ﺳﯿﮕﻨﺎل ﻫﺎي ﺗﺨﻤﯿﻦ زده ﺷﺪه ﺑﻪ
ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ اﺻﻠﯽ ،ﻣﻘﺪار A-1mﺑﻪ اﯾﻦ ﻣﻨﺎﺑﻊ اﺿﺎﻓﻪ ﻣﯽ ﺷﻮد ﺗﺎ ﮐﻢ ﮐﺮدن ﻣﻘﺪار ﻣﯿﺎﻧﮕﯿﻦ در ﻣﺮﺣﻠﻪ
ﭘﯿﺶ ﭘﺮدازش ﺟﺒﺮان ﮔﺮدد .
34
ﺳﻔﯿﺪﺳﺎزي .2,19
ﯾﮑﯽ دﯾﮕﺮ از ﭘﯿﺶ ﭘﺮدازش ﻫﺎي ﻣﻔﯿﺪ در اﻟﮕﻮرﯾﺘﻢ ﻫﺎي ﺗﻔﮑﯿﮏ ﮐﻮر ،ﺳﻔﯿﺪﺳﺎزي ﯾﺎ ﮐﺮوي ﺳﺎزي ﺳﯿﮕﻨﺎل ﻫﺎي
ﺗﺮﮐﯿﺒﯽ داده اﺳﺖ ﮐﻪ ﺑﻌﺪ از ﻋﻤﻞ ﻣﺮﮐﺰي ﺳﺎزي اﻧﺠﺎم ﻣﯽ ﺷﻮد .در اﯾﻦ ﻣﺮﺣﻠﻪ ﺳﯿﮕﻨﺎل ﻫﺎي ﺗﺮﮐﯿﺒﯽ ﻃﯽ ﯾﮏ
اﻧﺘﻘﺎل ﺧﻄﯽ ﺑﻪ ﺳﯿﮕﻨﺎل ﻫﺎي ﺳﻔﯿﺪ ﺷﺪه اي ﺗﺒﺪﯾﻞ ﻣﯽ ﺷﻮﻧﺪ ﮐﻪ اﺟﺰاي آن ﻏﯿﺮ ﻫﻤﺒﺴﺘﻪ و داراي وارﯾﺎﻧﺲ
واﺣﺪ ﻣﯽ ﺑﺎﺷﻨﺪ .ﯾﻌﻨﯽ ﻣﺎﺗﺮﯾﺲ ﮐﻮارﯾﺎﻧﺲ ﺳﯿﮕﻨﺎل ﻫﺎي ﺳﻔﯿﺪ ﺷﺪه xﻣﺎﺗﺮﯾﺴﯽ واﺣﺪ اﺳﺖ :
T I
E x.x )(25-1
ﯾﮑﯽ از روش ﻫﺎي ﻣﺘﺪاول ﺑﺮاي اﻧﺠﺎم اﯾﻦ ﻣﺮﺣﻠﻪ ﺗﺠﺰﯾﻪ ﺑﺮدارﻫﺎي وﯾﮋه ) (EVDﻣﺎﺗﺮﯾﺲ ﮐﻮارﯾﺎﻧﺲ ﻣﯽ ﺑﺎﺷﺪ،
E{x.xو Dﻣﺎﺗﺮﯾﺲ ﻗﻄﺮي ﻣﻘﺎدﯾﺮ وﯾﮋه
E{x.xﮐﻪ Eﻣﺎﺗﺮﯾﺲ ارﺗﻮﮔﻮﻧﺎل ﺑﺮدار وﯾﮋه } T
ﯾﻌﻨﯽ T } EDE T
34
Whitening
18
اﯾﻦ ﺑﺪان ﻣﻌﻨﯽ اﺳﺖ ﮐﻪ ﻣﺎﺗﺮﯾﺲ ﺗﺮﮐﯿﺐ ﮐﻨﻨﺪه ﺟﺪﯾﺪ ﻣﺘﻌﺎﻣﺪ ﺧﻮاﻫﺪ ﺑﻮد و ﻧﺸﺎن ﻣﯽ دﻫﺪ ﮐﻪ ﺳﻔﯿﺪﮐﺮدن
ﻣﻮﺟﺐ ﮐﺎﻫﺶ ﺗﻌﺪاد ﭘﺎراﻣﺘﺮﻫﺎﯾﯽ ﻣﯽ ﺷﻮد ﮐﻪ ﻻزم اﺳﺖ ﺗﺨﻤﯿﻦ زده ﺷﻮد .ﯾﻌﻨﯽ ﺑﻪ ﺟﺎي ﺟﺴﺘﺠﻮي n 2ﭘﺎراﻣﺘﺮ
درﺟﻪ آزادي اﺳﺖ ﺗﺨﻤﯿﻦ زده ﺷﻮد .روﺷﯽ دﯾﮕﺮي ﮐﻪ ﺑﻪ ﻣﻨﻈﻮر n(n 1) 2 ﮐﺎﻓﯽ اﺳﺖ ﻣﺎﺗﺮﯾﺲ Aﮐﻪ داراي
x ﺳﻔﯿﺪﺳﺎزي ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار ﻣﯽ ﮔﯿﺮد ،آﻧﺎﻟﯿﺰ ﻣﻮﻟﻔﻪ ﻫﺎي اﺳﺎﺳﯽ ) (PCAﻣﯽ ﺑﺎﺷﺪ .در اﯾﻦ روش ﺳﯿﮕﻨﺎل
ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽ ﺷﻮد:
E x.xو
ﮐﻪ در آن diag 1 ,..., m ﻣﺎﺗﺮﯾﺲ ﻗﻄﺮي ﺑﺎ ﻣﻘﺎدﯾﺮ وﯾﮋه ﻣﺎﺗﺮﯾﺲ ﮐﻮوارﯾﺎﻧﺲ داده T
Vﻧﯿﺰ ﻣﺎﺗﺮﯾﺴﯽ ﺑﺎ ﺑﺮدارﻫﺎي وﯾﮋه ﻧﻈﯿﺮ ﺑﻪ ﻧﻈﯿﺮ در ﺳﺘﻮن ﻫﺎﯾﺶ ﻣﯽ ﺑﺎﺷﺪ .از ﺟﺎﯾﮕﺬاري راﺑﻄﻪ ) (1-1در )- 1
(28دارﯾﻢ:
اﮔﺮ ، W B 1ﺳﯿﮕﻨﺎل ﻫﺎي ﺑﺎزﯾﺎﺑﯽ ﺷﺪه sﺑﺎ دﻗﺖ ﺑﺎﻻﯾﯽ ﻫﻤﺎن ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ اﺻﻠﯽ ﺧﻮاﻫﻨﺪ ﺑﻮد.
ﻣﻮﻓﻘﯿﺖ ICAﺑﺮاي ﺑﺎزﯾﺎﺑﯽ ﻣﺠﻤﻮﻋﻪ اي از داده ﻫﺎ ﺑﻄﻮر ذاﺗﯽ واﺑﺴﺘﻪ ﺑﻪ ﻋﻤﻠﮑﺮد ﺑﻌﻀﯽ از ﻣﺮاﺣﻞ ﭘﯿﺶ ﭘﺮدازش
ﮐﺎرﺑﺮدي ﻣﯽ ﺑﺎﺷﺪ .ﺑﺮاي ﻣﺜﺎل اﮔﺮ داده ﻫﺎ ﺷﺎﻣﻞ ﺳﯿﮕﻨﺎل ﻫﺎي زﻣﺎﻧﯽ ﺑﺎﺷﻨﺪ اﺳﺘﻔﺎده از ﻓﯿﻠﺘﺮﻫﺎي ﻣﯿﺎن ﮔﺬر
ﺑﺴﯿﺎر ﻣﻔﯿﺪ ﻣﯽ ﺑﺎﺷﺪ .در اﯾﻦ ﻣﺴﺌﻠﻪ اﮔﺮ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﺸﺎﻫﺪه اي ) x i (tﺑﺮاي ﺑﺪﺳﺖ آوردن ﺳﯿﮕﻨﺎل ﻫﺎي
19
ﻣﺸﺎﻫﺪه اي ﺟﺪﯾﺪ ﺑﺮاي ﻣﺜﺎل ) x i (tﺑﻄﻮر ﺧﻄﯽ ﻓﯿﻠﺘﺮ ﺷﻮﻧﺪ ،ﻣﺪل ICAﻣﺎﺗﺮﯾﺲ ﺗﺮﮐﯿﺐ Aرا ﺑﺮاي اﯾﻦ دو
ﻣﻮرد ﯾﮑﺴﺎن در ﻧﻈﺮ ﻣﯽ ﮔﯿﺮد .اﯾﻦ وﺿﻌﯿﺖ ﺑﺎ در ﻧﻈﺮ ﮔﺮﻓﺘﻦ ﻣﺎﺗﺮﯾﺲ Xو Sﮐﻪ ﺑﻪ ﺗﺮﺗﯿﺐ ﺷﺎﻣﻞ ﺳﯿﮕﻨﺎل
ﻫﺎي ﻣﺸﺎﻫﺪه اي ) x(1),..., x(nو ﻣﻨﺎﺑﻊ اﺻﻠﯽ ) s(1),...,s(nﺑﻄﻮر ﺳﺘﻮﻧﯽ ﻣﯽ ﺑﺎﺷﻨﺪ ﺑﻪ ﺻﻮرت زﯾﺮ در ﻧﻈﺮ
ﮔﺮﻓﺘﻪ ﻣﯽ ﺷﻮد:
X AS )(32-1
ﺣﺎل ﺑﺎ ﻓﯿﻠﺘﺮ ﮐﺮدن زﻣﺎﻧﯽ Xاز ﻃﺮف راﺳﺖ ﺑﺎ اﺳﺘﻔﺎده از ﻣﺎﺗﺮﯾﺲ Mﺧﻮاﻫﯿﻢ داﺷﺖ:
20
.3ﺑﺮرﺳﯽ اﻟﮕﻮرﯾﺘﻢ ﻫﺎ و روش ﻫﺎي آﻧﺎﻟﯿﺰ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ
ﻣﻔﺎﻫﯿﻢ اﺳﺎﺳﯽ ﻣﺎﻧﻨﺪ راﺑﻄﻪ ﻣﯿﺎن ﻧﻮع ﺗﻮزﯾﻊ ﻣﻨﺎﺑﻊ اوﻟﯿﻪ ،ﻗﻀﯿﻪ ﺣﺪ ﻣﺮﮐﺰي و وﯾﮋﮔﯽ ﻫﺎي ﻻزم ﺑﺮاي اﺳﺘﻘﻼل
ﻣﻨﺎﺑﻊ ﺗﻮﺟﯿﻪ ﻣﻨﺎﺳﺒﯽ ﺑﺮاي اراﺋﻪ روش ﻫﺎي ﻣﺨﺘﻠﻒ ﺑﻪ ﻣﻨﻈﻮر ﺑﺪﺳﺖ آوردن ﻧﺎﻫﻤﺒﺴﺘﮕﯽ ﺑﯿﺸﯿﻨﻪ ﻣﯿﺎن ﺳﯿﮕﻨﺎل
ﻫﺎي ﺧﺮوﺟﯽ ﻫﺮ اﻟﮕﻮرﯾﺘﻢ ﺟﺪاﺳﺎزي ﻣﻨﺎﺑﻊ ﻣﯽ ﺑﺎﺷﺪ .در اداﻣﻪ ﺑﺎ ﺗﻌﺪادي از اﯾﻦ اﻟﮕﻮرﯾﺘﻢ ﻫﺎي ﻣﻄﺮح ﺑﺮاي ﺣﻞ
ﻣﺴﺌﻠﻪ BSSﻣﺎﻧﻨﺪ اﻟﮕﻮرﯾﺘﻢ ﻫﺎي ،FastICAﻣﺎﮐﺰﯾﻤﻢ ﮐﺮﺗﻮﺳﯿﺲ ،ﻣﺎﮐﺰﯾﻤﻢ ﺷﺒﺎﻫﺖ Infomax ،و آﻧﺎﻟﯿﺰ ﻣﻮﻟﻔﻪ
ﻫﺎي اﺳﺎﺳﯽ آﺷﻨﺎ ﻣﯽ ﺷﻮﯾﻢ.
ﯾﮑﯽ از روش ﻫﺎي اﺳﺎﺳﯽ ﺗﺨﻤﯿﻦ ﭘﺎراﻣﺘﺮﻫﺎ ،ﺗﺨﻤﯿﻦ ﻣﺎﮐﺰﯾﻤﻢ ﮐﺮﺗﻮﺳﯿﺲ ﻣﯽ ﺑﺎﺷﺪ ﮐﻪ از آن ﺑﺮاي ﺗﻔﮑﯿﮏ
ﺳﯿﮕﻨﺎل ﻫﺎي ﻓﻮق ﮔﻮﺳﯿﻦ و ﯾﺎ زﯾﺮ ﮔﻮﺳﯿﻦ اﺳﺘﻔﺎده ﻣﯽ ﺷﻮد .اﯾﻦ اﻟﮕﻮرﯾﺘﻢ ﻗﺎدر ﺑﻪ ﺟﺪاﺳﺎزي ﺳﯿﮕﻨﺎل ﻫﺎي
ﻓﻮق ﮔﻮﺳﯿﻦ از زﯾﺮ ﮔﻮﺳﯿﻦ و ﯾﺎ ﺑﺎﻟﻌﮑﺲ ﻧﻤﯽ ﺑﺎﺷﺪ .در اﯾﻦ روش ﺗﺎﺑﻊ ﻫﺰﯾﻨﻪ ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻧﻮع ﺳﯿﮕﻨﺎل ﻫﺎي اوﻟﯿﻪ
ﺑﻪ ﻣﻨﻈﻮر اﻓﺰاﯾﺶ و ﯾﺎ ﮐﺎﻫﺶ ﮐﺮﺗﻮﺳﯿﺲ ﺳﯿﮕﻨﺎل ﻫﺎي ﺗﺨﻤﯿﻨﯽ اﻧﺘﺨﺎب ﻣﯽ ﺷﻮد .ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻗﻀﯿﻪ ﺣﺪ ﻣﺮﮐﺰي
در اﯾﻦ اﻟﮕﻮرﯾﺘﻢ ﻣﻌﯿﺎري ﺑﺮاي ﺗﻌﯿﯿﻦ ﻣﯿﺰان ﮔﻮﺳﯽ ﺑﻮدن ﺳﯿﮕﻨﺎل ﻫﺎ ﺑﺎ ﻣﻌﯿﺎر ﮐﺮﺗﻮﺳﯿﺲ ﮐﻪ ﻣﻬﻤﺘﺮﯾﻦ ﻣﯿﺰان
ﺗﻌﯿﯿﻦ ﮔﻮﺳﯽ ﺑﻮدن ﻫﺮ ﺳﯿﮕﻨﺎل اﺳﺖ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﻣﯽ ﺷﻮد ﮐﻪ ﺑﺎ اﺳﺘﻔﺎده از آن ﻣﯽ ﺗﻮان ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ
را ﺑﺎ دﻗﺖ ﻣﻄﻠﻮﺑﯽ ﺗﺨﻤﯿﻦ زد .دو ﺳﯿﮕﻨﺎل u 1و u 2را ﺑﺎ ﮐﺮﺗﻮﺳﯿﺲ k uدر ﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ ﮐﻪ ﺗﺮﮐﯿﺐ آن ﻫﺎ
w au 1 bu 2داراي ﮐﺮﺗﻮﺳﯿﺲ k wاﺳﺖ .ﺑﺮ ﻃﺒﻖ ﻗﻀﯿﻪ ﺣﺪ ﻣﺮﮐﺰي ﺑﺮاي ﺳﯿﮕﻨﺎل ﻫﺎ دارﯾﻢ ﮐﻪ k wﻧﺴﺒﺖ
ﺑﻪ k uﺑﻪ ﮐﺮﺗﻮﺳﯿﺲ ﺳﯿﮕﻨﺎل ﮔﻮﺳﯽ ﯾﻌﻨﯽ 3ﻧﺰدﯾﮏ ﺗﺮ اﺳﺖ .ﺑﻨﺎﺑﺮاﯾﻦ رواﺑﻂ زﯾﺮ را ﺧﻮاﻫﯿﻢ داﺷﺖ:
ﺑﺮاي ﺳﯿﮕﻨﺎل ﻫﺎي ﺻﻮﺗﯽ و ﻣﺨﺎﺑﺮاﺗﯽ ﮐﻪ ﻓﻮق ﮔﻮﺳﯿﻦ ﻣﯽ ﺑﺎﺷﻨﺪ ﺣﺎﻟﺖ اول و ﺑﺮاي ﺗﺼﺎوﯾﺮ و ﺳﯿﮕﻨﺎل ﻫﺎي
رﯾﺎﺿﯽ ﺣﺎﻟﺖ دوم ﺑﺮﻗﺮار اﺳﺖ .ﺑﺮاي ﺗﻌﯿﯿﻦ ﻣﺎﺗﺮﯾﺲ ﺗﺮﮐﯿﺐ ﮐﻨﻨﺪه ﻣﻨﺎﺳﺐ از ﻣﻌﺎدﻟﻪ ﺑﻪ روز رﺳﺎﻧﯽ زﯾﺮ اﺳﺘﻔﺎده
ﻣﯽ ﺷﻮد:
21
ﮐﻪ ﭘﺎراﻣﺘﺮ ﺑﺮوز رﺳﺎﻧﯽ اﺳﺖ و W k y W ﮔﺮادﯾﺎن ﮐﺮﺗﻮﺳﯿﺲ ﺳﯿﮕﻨﺎل ﺧﺮوﺟﯽ yاﺳﺖ .ﺑﺮاي ﻧﻤﻮﻧﻪ
ﺑﺮوز رﺳﺎﻧﯽ Wﺑﺮاي دو ﻣﻨﺒﻊ ﺑﻪ ﺻﻮرت زﯾﺮ اﺳﺖ:
i 4 W i1 x 1 W 2i x 2
3
)(3-3
x Nx NA
s Bs )(7-3
B
ﮐﻪ در آن ﻫﻤﺎﻧﻄﻮر ﮐﻪ ﺗﻌﺮﯾﻒ ﮔﺮدﯾﺪ N ED 1 2 E Tو Bﻣﺎﺗﺮﯾﺲ اورﺗﻮﻧﺮﻣﺎل 35ﻣﯽ ﺑﺎﺷﺪ .ﺑﻨﺎﺑﺮاﯾﻦ ﺑﺎ ادﻏﺎم
راﺑﻄﻪ ﺑﺎﻻ و ﺧﺼﻮﺻﯿﺖ ﺗﻌﺮﯾﻒ ﺷﺪه ﺑﺮاي ﮐﺮﺗﻮﺳﯿﺲ ﺧﻮاﻫﯿﻢ داﺷﺖ:
T N )(8-3
Kurt W T x Kurt
W Bs Kurt Z T s z i41Kurt s i
i 1
ZT
اﯾﻦ راﺑﻄﻪ ﻧﺸﺎن ﻣﯽ دﻫﺪ ﮐﻪ در ﺣﺎﻟﺖ ﮐﻠﯽ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ اوﻟﯿﻪ ﻧﺒﺎﯾﺪ ﺗﻮزﯾﻊ ﮔﻮﺳﯽ داﺷﺘﻪ ﺑﺎﺷﻨﺪ زﯾﺮا در
اﯾﻦ ﺻﻮرت ﮐﺮﺗﻮﺳﯿﺲ ﻫﺮ ﯾﮏ ﺻﻔﺮ ﺧﻮاﻫﺪ ﺑﻮد و ﺟﻮاﺑﯽ ﺑﺮاي ﺣﻞ ﻣﺴﺌﻠﻪ ﺑﺪﺳﺖ ﻧﻤﯽ آﯾﺪ .راﺑﻄﻪ ﺑﺎﻻ در ﺷﺮاﯾﻄﯽ
35
Orthonormal
22
ﮐﻪ W Z 1ﺑﺎﺷﺪ در Z e jداراي ﻣﯿﻨﯿﻤﻢ و ﻣﺎﮐﺰﯾﻤﻢ ﻣﺤﻠﯽ ﺧﻮاﻫﺪ ﺑﻮد ﯾﻌﻨﯽ ﺗﻨﻬﺎ ﺟﻮاب ﻣﻮﻟﻔﻪ اي
ﺧﻮاﻫﺪ ﺑﻮد ﮐﻪ داراي ﻣﻘﺪار 1اﺳﺖ .در ﻧﺘﯿﺠﻪ ﺑﺮدار وزن ﻣﻌﺎدل ،ﺑﺮاﺑﺮ ﺧﻮاﻫﺪ ﺑﻮد ﺑﺎ W Bz Be j b j
ﮐﻪ ﺳﺘﻮن ﻫﺎي ﻣﺎﺗﺮﯾﺲ ﻣﺘﻌﺎﻣﺪ ﺟﺪاﺳﺎز Bرا ﺑﺪﺳﺖ ﻣﯽ دﻫﺪ و در ﻧﻬﺎﯾﺖ ﯾﮑﯽ از ﻣﻨﺎﺑﻊ اوﻟﯿﻪ ﺑﺪﺳﺖ ﺧﻮاﻫﺪ
آﻣﺪ:
s W Tx b i x
T
)(9-3
ﺗﺎﺑﻊ ﻫﺰﯾﻨﻪ اي ﮐﻪ ﺑﺮاي اﻟﮕﻮرﯾﺘﻢ ﻣﺎﮐﺰﯾﻤﻢ ﮐﺮﺗﻮﺳﯿﺲ ﻣﯽ ﺗﻮان در ﻧﻈﺮ ﮔﺮﻓﺖ ﺑﺮ اﺳﺎس اﻓﺰاﯾﺶ و ﯾﺎ ﮐﺎﻫﺶ
ﺗﺪرﯾﺠﯽ ﻣﻘﺪار ) Kurt(W T xﻣﯽ ﺑﺎﺷﺪ .اﯾﻦ ﺗﺎﺑﻊ ﺑﻪ ﺻﻮرت زﯾﺮ ﻗﺎﺑﻞ ﺗﻌﺮﯾﻒ اﺳﺖ:
2
Kurt(W T x) E (W T x) 4 3 E (W T x) 2 E (W T x) 4 3 W
4
)(10-3
ﮐﻪ ﻫﺪف در آن ﯾﺎﻓﺘﻦ ﻣﺎﺗﺮﯾﺲ ﺟﺪاﺳﺎز Wاﺳﺖ .ﻫﻤﭽﻨﯿﻦ ﺑﺮاي در ﻧﻈﺮ ﮔﺮﻓﺘﻦ ﺷﺮط اﻧﺪازه ﺑﯿﺎن ﺷﺪه در اﯾﻦ
ﺑﺨﺶ ﻣﯽ ﺗﻮان آن را ﺑﻪ ﺗﺎﺑﻊ ﻫﺪف ﺗﻌﺮﯾﻒ ﺷﺪه اﺿﺎﻓﻪ ﮐﺮد.
در ﻧﺘﯿﺠﻪ ﺗﺎﺑﻊ ﻫﺪف در ﻫﺮ ﻟﺤﻈﻪ ﺑﻪ ﺻﻮرت زﯾﺮ ﻗﺎﺑﻞ ﺗﻌﺮﯾﻒ اﺳﺖ:
]))W(t 1) W(t) (t) [x(t)(W(t) T x(t)) 3 -3 W(t) 2 W(t)+f( W(t) 2 W(t )(12-3
ﺑﺨﺶ آﺧﺮ در اﯾﻦ راﺑﻄﻪ ﻧﻤﺎﯾﺎﻧﮕﺮ ﻧﺮم ﻓﺮﺑﻨﯿﻮﺳﯽ 36اﻧﺪازه ﻣﺎﺗﺮﯾﺲ Wاﺳﺖ و ﻧﯿﺰ ) (tﭘﺎراﻣﺘﺮي ﺑﺮاي ﺗﻌﯿﯿﻦ
ﻧﺮخ ﯾﺎدﮔﯿﺮي اﻟﮕﻮرﯾﺘﻢ ﻣﯽ ﺑﺎﺷﺪ .ﻫﻤﭽﻨﯿﻦ ﺑﺎ ﻗﺮار دادن ﻋﻼﻣﺖ ﻫﺎي ﻣﺜﺒﺖ و ﻣﻨﻔﯽ ،راﺑﻄﻪ ﺑﻪ ﺗﺮﺗﯿﺐ ﻣﯽ ﺗﻮاﻧﺪ
ﻣﻘﺎدﯾﺮ ﻣﺎﮐﺰﯾﻤﻢ و ﻣﯿﻨﯿﻤﻢ ﻣﺤﻠﯽ را ﺑﺪﺳﺖ آورد .از رواﺑﻂ ﺑﯿﺎن ﺷﺪه ﻧﺘﯿﺠﻪ ﻣﯽ ﺷﻮد ﮐﻪ اﻟﮕﻮرﯾﺘﻢ ﻣﺎﮐﺰﯾﻤﻢ
ﮐﺮﺗﻮﺳﯿﺲ داراي ﺳﺮﻋﺖ ﻫﻤﮕﺮاﯾﯽ ﮐﻤﯽ ﻣﯽ ﺑﺎﺷﺪ .ﻫﻤﭽﻨﯿﻦ ﺣﻞ ﻣﺴﺌﻠﻪ ﺑﻪ ﻃﻮر ﻣﺤﺴﻮﺳﯽ ﺑﻪ اﻧﺘﺨﺎب ﭘﺎراﻣﺘﺮ
) (tواﺑﺴﺘﻪ اﺳﺖ ﮐﻪ اﻟﮕﻮرﯾﺘﻢ را ﺗﺤﺖ ﺗﺎﺛﯿﺮ ﻗﺮار ﻣﯽ دﻫﺪ.
36
Frobenius-norm
23
37
ﺗﺨﻤﯿﻦ ﻣﺎﮐﺰﯾﻤﻢ ﺷﺒﺎﻫﺖ .3,2
ﯾﮏ روش ﻣﺘﺪال ﺑﺮاي ﺗﺨﻤﯿﻦ ﻣﺪل ICAروش ﺗﺨﻤﯿﻦ ﻣﺎﮐﺰﯾﻤﻢ ﺷﺒﺎﻫﺖ ﻣﯽ ﺑﺎﺷﺪ ﮐﻪ اﺻﻮل آن ﺑﻪ روش
Infomaxﺷﺒﺎﻫﺖ زﯾﺎدي دارد .ﻫﻤﭽﻨﯿﻦ ﻗﺎﺑﻞ اﺛﺒﺎت اﺳﺖ ﮐﻪ اﯾﻦ روش ﺑﻪ ﻃﻮر ذاﺗﯽ ﻣﻌﺎدل ﺑﺎ اﻟﮕﻮرﯾﺘﻢ ﻫﺎي
ﻣﺒﺘﻨﯽ ﺑﺮ ﮐﺎﻫﺶ اﻃﻼﻋﺎت ﻣﺘﻘﺎﺑﻞ ﻣﯽ ﺑﺎﺷﺪ .ﭘﺎراﻣﺘﺮ ﺷﺒﺎﻫ ﺖ ﮐﻪ اﻟﮕﻮرﯾﺘﻢ ﺑﺮ ﻣﺒﻨﺎي آن ﭘﺎﯾﻪ رﯾﺰي ﻣﯽ ﺷﻮد ،ﺑﻪ
ﺻﻮرت ﯾﮏ راﺑﻄﻪ رﯾﺎﺿﯽ ﻗﺎﺑﻞ ﺑﯿﺎن ﻣﯽ ﺑﺎﺷﺪ .در ﺻﻮرﺗﯽ ﮐﻪ ﻣﺎﺗﺮﯾﺲ ﺟﺪاﺳﺎز A 1ﺑﻪ ﺻﻮرت
W (W 1 ,..., W n ) Tﺑﺎﺷﺪ ،ﻣﻌﯿﺎر ﺷﺒﺎﻫﺖ را ﺑﻪ ﺻﻮرت زﯾﺮ ﺧﻮاﻫﯿﻢ داﺷﺖ:
T n
L log f i (W iT x(t)) T log det W )(13-3
t 1 i 1
ﮐﻪ در آن f iﺗﻮاﺑﻊ ﭼﮕﺎﻟﯽ ﻣﻨﺎﺑﻊ اوﻟﯿﻪ s iو x(t), t 1,...,Tﻣﻨﺎﺑﻊ ﻣﺸﺎﻫﺪه اي ﻣﯽ ﺑﺎﺷﻨﺪ .ﺑﺨﺶ log det W
از ﻗﻮاﻧﯿﻦ ﮐﻼﺳﯿﮑﯽ ﺗﺒﺪﯾﻼت ﺧﻄﯽ ﻣﺘﻐﯿﺮﻫﺎي ﺗﺼﺎدﻓﯽ و ﭼﮕﺎﻟﯽ ﺷﺎن ﺑﺪﺳﺖ ﻣﯽ آﯾﺪ ﮐﻪ ﺑﯿﺎن ﻣﯽ ﮐﻨﺪ در ﺣﺎﻟﺖ
ﮐﻠﯽ ﺑﺮاي ﻫﺮ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ xﺑﺎ ﭼﮕﺎﻟﯽ p xو ﺑﺮاي ﻫﺮ ﻣﺎﺗﺮﯾﺲ ، Wﭼﮕﺎﻟﯽ y Wxاز راﺑﻄﻪ
p x (Wx) det Wﺑﺪﺳﺖ ﻣﯽ آﯾﺪ.
ﺗﺎﺑﻊ ﻣﻘﺎﯾﺴﻪ دﯾﮕﺮي ﮐﻪ از ﻧﻘﻄﻪ ﻧﻈﺮ ﯾﮏ ﺷﺒﮑﻪ ﻋﺼﺒﯽ اﺳﺘﻨﺘﺎج ﻣﯽ ﺷﻮد روش Infomaxﻣﯽ ﺑﺎﺷﺪ .اﯾﻦ روش
ﺑﺮاﺳﺎس ﻣﺎﮐﺰﯾﻤﻢ ﺳﺎزي آﻧﺘﺮوﭘﯽ ﺧﺮوﺟﯽ و ﯾﺎ ﺟﺮﯾﺎن اﻃﻼﻋﺎت در ﯾﮏ ﺷﺒﮑﻪ ﻋﺼﺒﯽ ﺑﺎ ﺧﺮوﺟﯽ ﻫﺎي ﻏﯿﺮ ﺧﻄﯽ
ﭘﺎﯾﻪ رﯾﺰي ﺷﺪه اﺳﺖ .ﯾﮏ ﺷﺒﮑﻪ ﻋﺼﺒﯽ ﺧﻮد ﺳﺎﻣﺎﻧﺪه ﺑﺎ اوزان ﻗﺎﺑﻞ ﺗﻨﻈﯿﻢ را در ﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ ﮐﻪ ﺑﺮاي اﯾﻦ ﺷﺒﮑﻪ
ﻣﯽ ﺗﻮان ﯾﮏ ﺗﺎﺑﻊ اﻧﺘﻘﺎل ﻏﯿﺮ ﺧﻄﯽ ﺑﺮاي اﻓﺰاﯾﺶ اﻧﺘﻘﺎل ﻣﻨﺎﺳﺐ اﻃﻼﻋﺎت از ورودي ﺑﻪ ﺧﺮوﺟﯽ ﺷﺒﮑﻪ در ﻧﻈﺮ
ﮔﺮﻓﺖ .اﻟﮕﻮرﯾﺘﻢ ﯾﺎدﮔﯿﺮي روش Infomaxﯾﮏ ﻗﺎﻧﻮن ﯾﺎدﮔﯿﺮي ﺑﺮاي ﺷﺒﮑﻪ ﻋﺼﺒﯽ ﺧﻮد ﺳﺎﻣﺎﻧﺪه ﺑﺮاي اﻓﺰاﯾﺶ
اﻃﻼﻋﺎت اﻧﺘﻘﺎﻟﯽ در ﻧﻈﺮ ﻣﯽ ﮔﯿﺮد .ﻣﻘﺎدﯾﺮ ورودي در اﯾﻦ ﺷﺒﮑﻪ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﺸﺎﻫﺪه اي ) x(tدر ﻫﺮ ﻟﺤﻈﻪ
ﻣﯽ ﺑﺎﺷﺪ و ﯾﺎدﮔﯿﺮي در آن ﺑﻪ ﺻﻮرﺗﯽ اﺳﺖ ﮐﻪ در ﻫﺮ ﻟﺤﻈﻪ ﻣﻘﺎدﯾﺮ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺎﺑﻊ اﺻﻠﯽ ﻫﺮ ﺧﺮوﺟﯽ )y(t
ﺑﺎ اﻧﺘﻘﺎل ﻣﺎﮐﺰﯾﻤﻢ اﻃﻼﻋﺎت از ورودي ﺑﻪ ﺧﺮوﺟﯽ ﺑﺪﺳﺖ ﻣﯽ آﯾﻨﺪ .اﯾﻦ در ﺻﻮرﺗﯽ اﺳﺖ ﮐﻪ ﻧﺒﺎﯾﺪ ﻫﯿﭻ ﮔﻮﻧﻪ
واﺑﺴﺘﮕﯽ اي ﺑﯿﻦ ورودي و ﺧﺮوﺟﯽ ،ﻫﻤﺎﻧﻨﺪ اﺳﺘﻘﻼل ﻣﯿﺎن ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ اﺻﻠﯽ در ﻫﺮ ﻟﺤﻈﻪ وﺟﻮد داﺷﺘﻪ
37
Maximum likelihood
24
ﺑﺎﺷﺪ .ﻓﺮض ﮐﻨﯿﺪ ﮐﻪ xورودي ﺷﺒﮑﻪ ﻋﺼﺒﯽ ﺑﺎﺷﺪ ﮐﻪ ﺧﺮوﺟﯽ ﻫﺎﯾﺶ داراي ﻓﺮم ) i (W iTﻫﺴﺘﻨﺪ i ،ﻣﯽ
ﺗﻮاﻧﺪ ﻣﺠﻤﻮﻋﻪ اي از ﺗﻮاﺑﻊ ﻏﯿﺮ ﺧﻄﯽ اﺳﮑﺎﻟﺮ و W fﺑﺮدار وزن ﻧﻮرون ﻫﺎ ﺑﺎﺷﺪ .ﻫﺪف در اﯾﻦ اﻟﮕﻮرﯾﺘﻢ ﻣﺎﮐﺰﯾﻤﻢ
ﺳﺎزي ﻗﺎﻧﻮن ﯾﺎدﮔﯿﺮي آﻧﺘﺮوﭘﯽ ﺧﺮوﺟﯽ ﻫﺎ اﺳﺖ:
اﮔﺮ iﺑﻪ درﺳﺘﯽ اﻧﺘﺨﺎب ﺷﻮد اﯾﻦ روال ﺑﻪ درﺳﺘﯽ ﻗﺎدر ﺑﻪ ﺗﺨﻤﯿﻦ ﻣﺪل ICAﺧﻮاﻫﺪ ﺑﻮد .در واﻗﻊ ﺛﺎﺑﺖ ﺷﺪه
اﺳﺖ ﮐﻪ ﻧﺘﺎﯾﺞ ﺷﮕﻔﺖ اﻧﮕﯿﺰ اﺻﻮل ﻣﺎﮐﺰﯾﻤﻢ ﺳﺎزي آﻧﺘﺮوﭘﯽ ﺷﺒﮑﻪ ﯾﺎ روش Infomaxﻣﻌﺎدل ﺑﺎ ﺗﺨﻤﯿﻦ ﻣﺎﮐﺰﯾﻤﻢ
ﺷﺒﺎﻫﺖ ﻣﯽ ﺑﺎﺷﺪ .در اﯾﻦ ﻣﻌﺎدل ﺳﺎزي ﻧﯿﺎز اﺳﺖ ﮐﻪ از iﻫﺎي ﻏﯿﺮ ﺧﻄﯽ اﺳﺘﻔﺎده ﺷﻮد ﮐﻪ ﺑﻪ ﻋﻨﻮان ﺗﺎﺑﻊ
ﺗﻮزﯾﻊ ﮐﻮﻣﻮﻻن ﻣﺘﻨﺎﻇﺮ ﺑﺎ ﭼﮕﺎﻟﯽ ﻫﺎي f iﯾﻌﻨﯽ ) 'i (.) f i (.در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﻣﯽ ﺷﻮد.
38
آﻧﺎﻟﯿﺰ ﻣﻮﻟﻔﻪ ﻫﺎي اﺳﺎﺳﯽ .3,4
در اﯾﻦ ﺑﺨﺶ ﺑﻪ ﻣﻌﺮﻓﯽ اﺻﻮل آﻧﺎﻟﯿﺰ ﻣﻮﻟﻔﻪ ﻫﺎي اﺳﺎﺳﯽ ) (PCAﻣﯽ ﭘﺮدازﯾﻢ .اﯾﻦ ﺗﮑﻨﯿﮏ ﻣﻔﯿﺪ آﻣﺎري ﮐﺎرﺑﺮدﻫﺎي
زﯾﺎدي در زﻣﯿﻨﻪ ﻫﺎي ﺗﺸﺨﯿﺺ ﭼﻬﺮه ،ﻓﺸﺮده ﺳﺎزي ﺗﺼﻮﯾﺮ ،ﺟﺪاﺳﺎزي ﺳﯿﮕﻨﺎل ﻫﺎ در اﻃﻼﻋﺎت ﻧﻮﯾﺰي دارد .اﯾﻦ
ﺗﺒﺪﯾﻞ ﮐﻪ ﺑﺎ ﻧﺎم آﻧﺎﻟﯿﺰ ﺑﺮدارﻫﺎي وﯾﮋه ﻧﯿﺰ ﺷﻨﺎﺧﺘﻪ ﻣﯽ ﺷﻮد ،ﺗﺒﺪﯾﻠﯽ ﺑﻬﯿﻨﻪ در اﻣﻮر ﻓﺸﺮده ﺳﺎزي و ﮐﺎﻫﺶ ﺑﻌﺪ
اﺳﺖ و ﺧﻄﺎي ﻣﯿﺎﻧﮕﯿﻦ ﻣﺮﺑﻌﺎت ﺣﺎﺻﻞ از ﻓﺸﺮده ﺳﺎزي را ﮐﻤﯿﻨﻪ ﻣﯽ ﮐﻨﺪ .ﻫﺮ ﭼﻨﺪ اﯾﻦ ﺗﺒﺪﯾﻞ ﺑﻪ ﻋﻠﺖ واﺑﺴﺘﻪ
ﺑﻮدن ﺑﻪ داده ﻫﺎي ورودي ،ﺟﺎي ﺧﻮد را در اﻟﮕﻮرﯾﺘﻢ ﻫﺎي ﮐﺎرﺑﺮدي و ﻋﻤﻠﯽ ﺑﻪ ﺗﺒﺪﯾﻼت ﺟﺪﯾﺪﺗﺮي داده اﺳﺖ ،
اﻣﺎ در ﺻﻮرت ﮐﺎﻓﯽ ﺑﻮدن داده ﻫﺎي ورودي ﻣﯽ ﺗﻮاﻧﺪ ﺗﺒﺪﯾﻞ ﺑﻬﯿﻨﻪ را اﻧﺠﺎم دﻫﺪ .آﻧﺎﻟﯿﺰ اﺟﺰاي اﺻﻠﯽ ﯾﮏ روش
اﺧﺘﯿﺎري ﭼﻨﺪ ﻣﺘﻐﯿﺮي اﺳﺖ ﮐﻪ در اﻧﺘﺨﺎب ﯾﮏ ﯾﺎ ﺗﻌﺪاد ﻣﺤﺪودي از ﻣﺘﻐﯿﺮﻫﺎ از ﻣﯿﺎن داده ﻫﺎ در ﯾﮏ ﻣﺠﻤﻮﻋﻪ
ﮐﻤﮏ ﻣﯽ ﮐﻨﺪ .ﻗﺒﻞ از اﯾﻦ ﮐﻪ از آﻧﺎﻟﯿﺰ اﺟﺰا اﺻﻠﯽ ﺗﻮﺻﯿﻔﯽ ﺑﻪ دﺳﺖ آورﯾﻢ ،اﺑﺘﺪا ﺑﻪ ﻣﻌﺮﻓﯽ ﻣﻔﺎﻫﯿﻤﯽ رﯾﺎﺿﯽ
ﮐﻪ در آﻧﺎﻟﯿﺰ اﺟﺰا اﺻﻠﯽ اﺳﺘﻔﺎده ﻣﯽ ﺷﻮد ،ﻣﯽ ﭘﺮدازﯾﻢ.
38
Principal components analysis
25
39
ﮐﻮوارﯾﺎﻧﺲ .3,5
ﮐﻮوارﯾﺎﻧﺲ ﯾﺎ ﻫﻢ ﭘﺮاﺷﯽ در ﻧﻈﺮﻳﻪ ﺍﺣﺘﻤﺎﻻﺕ ،ﻣﯿﺰان ﺗﻐﯿﯿﺮات ﻫﻤﺎﻫﻨﮓ دو ﻣﺘﻐﻴﺮ ﺗﺼﺎﺩﻓﻲ اﺳﺖ .ﺑﺮاي ﻣﺘﻐﯿﺮﻫﺎي
ﺗﺼﺎدﻓﯽ Xو Yﮐﻪ ﺍﻣﻴﺪ ﺭﻳﺎﺿﻲ آﻧﻬﺎ E(X) و E(Y) اﺳﺖ ،ﮐﻮوارﯾﺎﻧﺲ ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽﺷﻮد:
ﭼﻨﺎﻧﮑﻪ دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﻏﻴﺮ ﻫﻤﺒﺴﺘﻪ ﺑﺎﺷﻨﺪ ،ﮐﻮوارﯾﺎﻧﺲ آﻧﻬﺎ ﺻﻔﺮ ﺧﻮاﻫﺪ ﺑﻮد.
اﮔﺮ دو ﻣﺘﻐﯿﺮ ﯾﮑﯽ ﺑﺎﺷﻨﺪ ﮐﻮوارﯾﺎﻧﺲ ﺑﺮاﺑﺮ ﻭﺍﺭﻳﺎﻧﺲ ﺧﻮاﻫﺪ ﺷﺪ.
ﮐﻮارﯾﺎﻧﺲ در ﺗﺤﻠﯿﻞ آﻣﺎري ﻣﺠﻤﻮﻋﻪ داده ﻫﺎﯾﯽ ﺑﮑﺎر ﻣﯽ رود ﮐﻪ ﺑﯿﺶ از ﯾﮏ ﺑﻌﺪ دارﻧﺪ و ﺑﺎﯾﺪ ارﺗﺒﺎﻃﯽ
ﮐﻪ ﺑﯿﻦ ﺑﻌﺪ ﻫﺎ وﺟﻮد دارد ﺑﺪﺳﺖ آﯾﺪ .ﺑﻨﺎﺑﺮاﯾﻦ ﮐﻮوارﯾﺎﻧﺲ ﻫﻤﯿﺸﻪ ﺑﯿﻦ دو ﺑﻌﺪ ﯾﺎ ﺑﯿﺸﺘﺮ اﻧﺪازه ﮔﯿﺮي
ﻣﯽ ﺷﻮد.
از آن ﺟﺎ ﮐﻪ ارزش ﮐﻮوراﯾﺎﻧﺲ ﺑﯿﻦ ﻫﺮ دو ﺑﻌﺪ در ﻣﺠﻤﻮﻋﻪ اﻃﻼﻋﺎت ﻣﺤﺎﺳﺒﻪ ﻣﯽ ﺷﻮد ،اﯾﻦ ﺗﮑﻨﯿﮏ اﻏﻠﺐ ﺑﺮاي
ﭘﯿﺪا ﮐﺮدن ارﺗﺒﺎط ﺑﯿﻦ ﺑﻌﺪﻫﺎ در اﺑﻌﺎد ﺑﺰرگ ﻣﺠﻤﻮﻋﻪ اﻃﻼﻋﺎت ﮐﻪ ﺗﺠﺴﻢ آن ﻣﺸﮑﻞ اﺳﺖ اﺳﺘﻔﺎده ﻣﯽ ﮔﺮدد.
!n
ﮐﻮوراﯾﺎﻧﺲ ﻣﺘﻔﺎوت را ﻣﺤﺎﺳﺒﻪ ﻧﻤﻮد .ﯾﮏ روش ﻣﻔﯿﺪ 2
ﺑﺮاي ﯾﮏ ﻣﺠﻤﻮﻋﻪ اﻃﻼﻋﺎت nﺑﻌﺪي ﻣﯽ ﺗﻮان
(n )! 2
ﺑﺮاي ﺑﻪ دﺳﺖ آوردن ﮐﻮوارﯾﺎﻧﺲ ﺑﯿﻦ ﻫﻤﻪ اﺑﻌﺎد اﯾﻦ اﺳﺖ ﮐﻪ آن ﻫﺎ را ﻣﺤﺎﺳﺒﻪ ﮐﺮده و در ﯾﮏ ﻣﺎﺗﺮﯾﺲ ﻗﺮار
داد .اﯾﻦ ﻣﺎﺗﺮﯾﺲ ﺑﺮاي ﯾﮏ ﻣﺠﻤﻮﻋﻪ از داده ﻫﺎ ﺑﺎ nﺑﻌﺪ ﺑﻪ ﺻﻮرت زﯾﺮ ﺧﻮاﻫﺪ ﺑﻮد:
39
Covariance
26
ﮐﻪ C nnﯾﮏ ﻣﺎﺗﺮﯾﺲ ﺑﺎ nﺳﻄﺮ و ﺳﺘﻮن و ﺑﻌﺪ Xاﺳﺖ .ﺑﻨﺎﺑﺮاﯾﻦ ﺑﺎ ﻣﺠﻤﻮﻋﻪ اﻃﻼﻋﺎت ، nﯾﮏ ﻣﺎﺗﺮﯾﺲ ﻣﺮﺑﻌﯽ
دارﯾﻢ ﮐﻪ ﻫﺮ ﻋﻨﺼﺮ ﻣﺎﺗﺮﯾﺲ ﻧﺘﯿﺠﻪ اي از ﻣﺤﺎﺳﺒﻪ ﮐﻮوارﯾﺎﻧﺲ ﺑﯿﻦ دو ﺑﻌﺪ ﻣﺠﺰا ﻣﯽ ﺑﺎﺷﺪ.
ﻓﺮض ﮐﻨﯿﺪ X (X 1 , X 2 ,..., X P ) Tﯾﮏ ﺑﺮدار ﺗﺼﺎدﻓﯽ ﺑﺎ ﻣﺎﺗﺮﯾﺲ ﮐﻮارﯾﺎﻧﺲ ﻣﻌﯿﻦ ﻧﺎﻣﻨﻔﯽ و
1 2 ... P 0ﻣﻘﺎدﯾﺮ وﯾﮋه ﻣﺎﺗﺮﯾﺲ ﮐﻮارﯾﺎﻧﺲ ﺑﺎﺷﺪ .ﻫﻤﭽﻨﯿﻦ a 1 , a 2 ,..., a Pﺑﺮدارﻫﺎي وﯾﮋه ﻣﺘﻌﺎﻣﺪ
ﻣﺘﻨﺎﻇﺮ ﺑﺎ 1 , 2 ,..., Pﺑﺎﺷﻨﺪ .ﻣﺘﻐﯿﺮﻫﺎي Y 1 , Y 2 ,..., Y Pﺗﻌﺮﯾﻒ ﺷﺪه در زﯾﺮ را ﺑﺮدارﻫﺎي اﺳﺎﺳﯽ ﮔﻮﯾﻨﺪ.
Y 1 a 11X 1 a 21X 2 ... a P1 X P
Y 2 a 12 X 1 a 22 X 2 ... a P 2 X P
.
)(18-3
.
Y P a 1P X 1 a 2 P X 2 ... a PP X P
i ، Y iاﻣﯿﻦ ﻣﻮﻟﻔﻪ اﺻﻠﯽ ﻧﺎم دارد .ﺑﺮدار Y (Y1 , Y 2 ,..., Y P ) Tﻧﯿﺰ ﺑﺮدارﻫﺎي اﺳﺎﺳﯽ ﻧﺎم دارﻧﺪ .ﺑﻪ روﺷﯽ دﯾﮕﺮ
ﻧﯿﺰ ﻣﯽ ﺗﻮان ﻣﻘﺎدﯾﺮ وﯾﮋه و ﺑﺮدارﻫﺎي وﯾﮋه ﯾﮏ ﻣﺎﺗﺮﯾﺲ ﮐﻮارﯾﺎﻧﺲ Cرا ﻣﺤﺎﺳﺒﻪ ﻧﻤﻮد:
در اﯾﻦ راﺑﻄﻪ V ،ﻣﺎﺗﺮﯾﺲ ﺑﺮدارﻫﺎي وﯾﮋه و Dﻣﺎﺗﺮﯾﺴﯽ ﻗﻄﺮي اﺳﺖ ﮐﻪ دراﯾﻪﻫﺎي ﻗﻄﺮ آن ﻣﻘﺎدﯾﺮ وﯾﮋه ﻫﺴﺘﻨﺪ.
آﻧﭽﻨﺎن ﮐﻪ ﻣﺸﺨﺺ اﺳﺖ ،ﻫﺮ ﻣﻘﺪار وﯾﮋه ﻣﺘﻨﺎﻇﺮ ﺑﺎ ﯾﮏ ﺑﺮدار وﯾﮋه اﺳﺖ .ﺑﻪ اﯾﻦ ﻣﻌﻨﺎ ﮐﻪ ﻣﺎﺗﺮﯾﺲ Vﻣﺎﺗﺮﯾﺴﯽ
N Nﺑﺎ ﺳﺘﻮن ﻫﺎي ﻣﻌﺎدل ﺑﺎ ﺑﺮدارﻫﺎي وﯾﮋه ﻣﯽﺑﺎﺷﺪ .ﺑﺮدار وﯾﮋه V iدر ﺳﺘﻮن iام ﻗﺮار دارد و ﻣﻘﺪار وﯾﮋه i
ام ﯾﻌﻨﯽ دراﯾﻪ i C i,iﻣﺘﻨﺎﻇﺮ ﺑﺎ آن اﺳﺖ .ﺑﺎﯾﺪ ﺗﻮﺟﻪ داﺷﺖ ﮐﻪ ﺑﺎزﭼﯿﻨﯽ ﺑﺮدارﻫﺎي وﯾﮋه ﺑﺮ اﺳﺎس اﻧﺪازه
ﻣﻘﺎدﯾﺮ وﯾﮋه ﻣﺘﻨﺎﻇﺮ ﺑﺎ آن ﻫﺎ ﺻﻮرت ﻣﯽﮔﯿﺮد .ﯾﻌﻨﯽ ﺑﺮ اﺳﺎس ﺗﺮﺗﯿﺐ ﮐﺎﻫﺸﯽ ﻣﻘﺎدﯾﺮ وﯾﮋه ،ﺑﺮدارﻫﺎي وﯾﮋه ﺑﺎزﭼﯿﻨﯽ
ﻣﯽﺷﻮﻧﺪ:
27
اﻟﮕﻮرﯾﺘﻢ آﻧﺎﻟﯿﺰ ﻣﻮﻟﻔﻪ ﻫﺎي اﺳﺎﺳﯽ .3,7
ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي اﺻﻠﯽ ﯾﮑﯽ از اﻧﻮاع روش ﻫﺎي ﺗﺤﻠﯿﻞ داده ﻫﺎي ﭼﻨﺪ ﻣﺘﻐﯿﺮه اﺳﺖ ﮐﻪ ﻫﺪف اﺻﻠﯽ آن ﺗﻘﻠﯿﻞ
ﺑﻌﺪ ﻣﺴﺎﻟﻪ ﻣﻮرد ﻣﻄﺎﻟﻌﻪ ﻣﯽ ﺑﺎﺷﺪ .ﺑﺎ اﺳﺘﻔﺎده از ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي اﺻﻠﯽ ﻣﯽ ﺗﻮان ﺗﻌﺪاد زﯾﺎدي از ﻣﺘﻐﯿﺮ ﺗﻮﺿﯿﺤﯽ
ﻫﻤﺒﺴﺘﻪ را ﺑﺎ ﺗﻌﺪاد ﻣﺤﺪودي ﻣﺘﻐﯿﺮ ﺗﻮﺿﯿﺤﯽ ﺟﺪﯾﺪ ﮐﻪ ﻣﻮﻟﻔﻪ ﻫﺎي اﺻﻠﯽ ﻧﺎﻣﯿﺪه ﻣﯽ ﺷﻮﻧﺪ و ﻧﺎﻫﻤﺒﺴﺘﻪ اﻧﺪ،
ﺟﺎﯾﮕﺰﯾﻦ ﻧﻤﻮد .ﺑﻪ اﯾﻦ ﺗﺮﺗﯿﺐ ﻧﻪ ﺗﻨﻬﺎ ﺑﻌﺪ ﻣﺴﺎﻟﻪ ﺗﻘﻠﯿﻞ ﻣﯽ ﯾﺎﺑﺪ ﺑﻠﮑﻪ ﻣﺴﺎﻟﻪ ﭼﻨﺪ ﻫﻤﺨﻄﯽ ﭘﯿﺶ ﻧﻤﯽ آﯾﺪ .از آن
ﺟﺎ ﮐﻪ در اﻃﻼﻋﺎت ﺑﺎ اﺑﻌﺎد ﺑﺎﻻ ،ﯾﺎﻓﺘﻦ ﻧﻘﺸﻪ و ﯾﺎ ﻃﺮح ﺧﺎﺻﯽ در داده ﻫﺎ ﻣﻌﻤﻮﻻ ﺑﻪ ﺳﺨﺘﯽ اﻧﺠﺎم ﻣﯽ ﮔﯿﺮد ،ﻣﯽ
ﺗﻮان ﺑﺎ اﺳﺘﻔﺎده از آﻧﺎﻟﯿﺰ ﻣﻮﻟﻔﻪ ﻫﺎي اﺻﻠﯽ ارﺗﺒﺎط ﺑﯿﻦ داده ﻫﺎ را ﮐﺸﻒ ﮐﺮد .در واﻗﻊ ﺗﺤﻠﯿﻞ اﺟﺰاي اﺻﻠﯽ ﯾﮏ
اﺑﺰار ﻧﯿﺮوﻣﻨﺪ ﺑﺮاي آﻧﺎﻟﯿﺰ اﻃﻼﻋﺎت اﺳﺖ .ﻣﺰﯾﺖ اﺻﻠﯽ دﯾﮕﺮ آﻧﺎﻟﯿﺰ اﺟﺰاي اﺻﻠﯽ اﯾﻦ اﺳﺖ ﮐﻪ اﻟﮕﻮ در داده ﻫﺎ ﯾﮏ
ﺑﺎر ﭘﯿﺪا ﻣﯽ ﺷﻮد و اﯾﻦ اﻃﻼﻋﺎت ﺑﺎ ﮐﺎﻫﺶ ﺗﻌﺪاد اﺑﻌﺎد ،ﺑﺪون از دﺳﺖ رﻓﺘﻦ اﻃﻼﻋﺎت زﯾﺎد ﻓﺸﺮده ﻣﯽ ﮔﺮدﻧﺪ.
ﻫﺪف آﻧﺎﻟﯿﺰ اﺟﺰاي اﺻﻠﯽ ﺧﻼﺻﻪ ﮐﺮدن داده ﻫﺎ اﺳﺖ و اﻏﻠﺐ ﺑﻪ ﻋﻨﻮان ﯾﮏ وﺳﯿﻠﻪ دﺳﺘﻪ ﺑﻨﺪي ﮐﻨﻨﺪه اﻃﻼﻋﺎت
ﻣﻮرد ﺗﻮﺟﻪ ﻗﺮار ﻧﻤﯽ ﮔﯿﺮد .ﺑﻠﻮك دﯾﺎﮔﺮام ﻣﺮﺑﻮط ﺑﻪ اﯾﻦ اﻟﮕﻮرﯾﺘﻢ ﺑﻪ ﻣﻨﻈﻮر اﺟﺮاي آﻧﺎﻟﯿﺰ اﺟﺰاي اﺻﻠﯽ در ﯾﮏ
ﻣﺠﻤﻮﻋﻪ داده در ﺷﮑﻞ 4-1ﻧﺸﺎن داده ﺷﺪه اﺳﺖ .در ﻣﺮﺣﻠﻪ ﻣﺘﺮاﮐﻢ ﺳﺎزي داده ﻫﺎ و ﮐﺎﻫﺶ اﺑﻌﺎد ،ﺑﺎﯾﺪ ﺑﻪ اﯾﻦ
ﻧﮑﺘﻪ ﺗﻮﺟﻪ ﮐﺮد ﮐﻪ ﺑﺮدارﻫﺎي ﻣﺸﺨﺼﻪ ارزش ﻫﺎي ﮐﺎﻣﻼ ﻣﺘﻔﺎوﺗﯽ دارﻧﺪ .در واﻗﻊ ﺑﺮدار ﻣﺸﺨﺼﻪ ﺑﺎ ﺑﺰرﮔﺘﺮﯾﻦ
ﻣﻘﺪار وﯾﮋه ،ﺟﺰ اﺳﺎﺳﯽ ﻣﺠﻤﻮﻋﻪ داده ﻫﺎ ﺧﻮاﻫﺪ ﺑﻮد .اﮔﺮ از ﺗﻌﺪادي از اﯾﻦ ﻣﻘﺎدﯾﺮ وﯾﮋه ﺻﺮﻓﻨﻈﺮ ﺷﻮد ،ﺳﺮاﻧﺠﺎم
ﻣﺠﻤﻮﻋﻪ داده ﻫﺎ اﺑﻌﺎد ﮐﻤﺘﺮي ﻧﺴﺒﺖ ﺑﻪ داده ﻫﺎي اﺻﻠﯽ ﭘﯿﺪا ﺧﻮاﻫﻨﺪ ﮐﺮد .ﺑﺮاي ﻣﺜﺎل اﮔﺮ اﺑﻌﺎد اﺻﻠﯽ داده ﻫﺎ
nﺑﻌﺪي ﺑﺎﺷﺪ ،ﺑﻨﺎﺑﺮاﯾﻦ ﺑﺎﯾﺪ nﺑﺮدار ﻣﺸﺨﺼﻪ و ﻣﻘﺪار وﯾﮋه ﻣﺤﺎﺳﺒﻪ ﺷﻮد و اﮔﺮ pﺑﺮدار ﻣﺸﺨﺼﻪ اول اﻧﺘﺨﺎب
ﮔﺮدد ،ﺳﺮاﻧﺠﺎم ﻣﺠﻤﻮﻋﻪ داده ﻫﺎي ﺗﻨﻬﺎ pﺑﻌﺪ ﺧﻮاﻫﻨﺪ داﺷﺖ .ﺣﺎل ﺑﺎﯾﺪ ﻣﺠﻤﻮﻋﻪ داده ﻫﺎي ﺟﺪﯾﺪ ﺑﻪ ﻓﺮم ﯾﮏ
ﺑﺮدار وﯾﮋﮔﯽ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﻮﻧﺪ .اﯾﻦ ﺑﺮدار از ﺑﺮدار ﻫﺎي ﻣﺸﺨﺼﻪ اي ﮐﻪ ﺑﺎﻗﯽ ﻣﺎﻧﺪه اﻧﺪ ،ﺳﺎﺧﺘﻪ ﺷﺪه اﺳﺖ.
ﺷﮑﻞ دﻫﯽ اﯾﻦ ﻣﺎﺗﺮﯾﺲ ﺑﺎ ﺑﺮدارﻫﺎي ﻣﺸﺨﺼﻪ ﺑﺎ ارزش ﺗﺮ ،در ﺳﺘﻮن ﻫﺎﯾﯽ ﺑﻪ ﺗﺮﺗﯿﺐ زﯾﺮ ﺧﻮاﻫﺪ ﺑﻮد:
در ﻣﺮﺣﻠﻪ ﻧﻬﺎﯾﯽ ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي اﺳﺎﺳﯽ ،ﻫﺪف ﻧﻤﺎﯾﺶ داده ﻫﺎ ﺑﻪ ﺷﮑﻞ ﯾﮏ ﺑﺮدار وﯾﮋﮔﯽ ﻣﯽ ﺑﺎﺷﺪ .در اﺑﺘﺪا
ﺗﺮاﻧﻬﺎده ﺑﺮدار وﯾﮋﮔﯽ را ﺑﻪ دﺳﺖ آورده و آن را در ﺗﺮاﻧﻬﺎده ﻣﺠﻤﻮﻋﻪ داده ﻫﺎي اﺻﻠﯽ ﺿﺮب ﻣﯽ ﮔﺮدد.
ﺷﺮوع
ﭘﺎﯾﺎن
ﺷﮑﻞ -4-1ﺑﻠﻮك دﯾﺎﮔﺮام روش آﻧﺎﻟﯿﺰ ﻣﻮﻟﻔﻪ ﻫﺎي اﺳﺎﺳﯽ ﺑﺮاي ﺟﺪاﺳﺎزي ﺳﯿﮕﻨﺎل ﻫﺎي ﺗﺮﮐﯿﺒﯽ
از ﺳﺎده ﺗﺮﯾﻦ و اﺳﺎﺳﯽ ﺗﺮﯾﻦ روش ﻫﺎي در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﺪه ﺑﺮاي ﺣﻞ ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﮐﻮر ﻣﻨﺎﺑﻊ ،اﻟﮕﻮرﯾﺘﻢ آﻧﺎﻟﯿﺰ
ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ) (ICAﻣﯽ ﺑﺎﺷﺪ ﮐﻪ ﻫﺪف در آن ﯾﺎﻓﺘﻦ ﻣﻮﻟﻔﻪ ﻫﺎﯾﯽ از ﺳﯿﮕﻨﺎل ﻫﺎ اﺳﺖ ﮐﻪ ﺑﯿﺸﺘﺮﯾﻦ
اﺳﺘﻘﻼل آﻣﺎري را دارا ﻫﺴﺘﻨﺪ.
ﻫﺪف در ICAﯾﺎﻓﺘﻦ ﻧﻤﺎﯾﺸﯽ ﺧﻄﯽ از داده ﻫﺎي ﻏﯿﺮ ﮔﻮﺳﯽ ﻣﯽ ﺑﺎﺷﺪ ﺗﺎ ﻣﻮﻟﻔﻪ ﻫﺎي ﺗﺨﻤﯿﻨﯽ ﺑﻄﻮر آﻣﺎري
ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ و ﯾﺎ ﺗﺎ ﺣﺪ ﻣﻤﮑﻦ اﺳﺘﻘﻼل وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ .اﯾﻦ روش ﺑﺮاﺳﺎس اﻓﺰاﯾﺶ ﻣﯿﺰان ﻏﯿﺮﮔﻮﺳﯽ ﺑﻮدن
29
ﺳﯿﮕﻨﺎل ﺑﻨﺎ ﺷﺪه اﺳﺖ .در اﯾﻦ روش ﻣﺎﺗﺮﯾﺲ ﺟﺪاﺳﺎز Wدر ﺟﻬﺖ ﮐﺎﻫﺶ ﮔﻮﺳﯽ ﮐﺮدن ﺳﯿﮕﻨﺎل ﻫﺎي ﺗﺮﮐﯿﺒﯽ
Xﺑﻪ روز ﻣﯽ ﺷﻮد .ﻣﯿﺰان ﮔﻮﺳﯽ ﺑﻮدن ﯾﮏ ﺳﯿﮕﻨﺎل ﺑﺎ ﭘﺎراﻣﺘﺮﻫﺎي ﮐﺮﺗﻮﺳﯿﺲ و ﯾﺎ آﻧﺘﺮوﭘﯽ اﻧﺪازه ﮔﯿﺮي ﻣﯽ
ﺷﻮد ﮐﻪ اﯾﻦ ﻣﻌﯿﺎرﻫﺎ ﺑﻪ ﺻﻮرت ﺗﻘﺮﯾﺒﯽ ﺑﺪﺳﺖ ﻣﯽ آﯾﻨﺪ .ﺿﺮاﯾﺐ ﻣﺎﺗﺮﯾﺲ ﺟﺪاﺳﺎز ﺑﺎ اﺳﺘﻔﺎده از رواﺑﻂ زﯾﺮ ﺑﻪ روز
ﻣﯽ ﺷﻮﻧﺪ:
y x*W
)Y tanh(y
)) )H ((1/ N) *sum(sum(Y)) 0.5*log( det(W
)(23-3
g 1 ('
2 ) * x ' *Y
W N
W W *g
Hﺗﻘﺮﯾﺒﯽ از آﻧﺘﺮوﭘﯽ و μاﻧﺪازه ﮔﺎم ﻣﯽ ﺑﺎﺷﺪ .ﻫﻤﺎﻧﻄﻮر ﮐﻪ ﮔﻔﺘﻪ ﺷﺪ اﺳﺘﻔﺎده از ﺗﻘﺮﯾﺐ ،دﻗﺖ اﻟﮕﻮرﯾﺘﻢ را
ﮐﺎﻫﺶ ﺧﻮاﻫﺪ داد.
در اﻟﮕﻮرﯾﺘﻢ FastICAﺑﺮدار وزن Wﮐﻪ ﺑﻪ وﺳﯿﻠﻪ ﯾﮏ ﻗﺎﻧﻮن ﯾﺎدﮔﯿﺮي اﺳﺎﺳﯽ ﺑﻪ روز ﻣﯽ ﺷﻮد ،در ﻧﻈﺮ ﮔﺮﻓﺘﻪ
ﻣﯽ ﺷﻮد .اﯾﻦ ﻗﺎﻧﻮن ﯾﺎدﮔﯿﺮي ،اﻟﮕﻮرﯾﺘﻢ را ﺑﻪ ﺳﻤﺘﯽ ﻫﻤﮕﺮا ﻣﯽ ﮐﻨﺪ ﮐﻪ در آن ﺑﺮاي ﺑﺮدار واﺣﺪ ، Wﻏﯿﺮﮔﻮﺳﯿﻨﯽ
W T xﻣﺎﮐﺰﯾﻤﻢ ﺑﺎﺷﺪ .ﺗﻌﯿﯿﻦ ﻣﯿﺰان ﻏﯿﺮﮔﻮﺳﯿﻨﯽ ﺑﺎ ﺗﻘﺮﯾﺐ ﻧﮕﻨﺘﺮوﭘﯽ J W T x در راﺑﻄﻪ ) (18-1اﻧﺪازه ﮔﯿﺮي
ﻣﯽ ﺷﻮد .اﻟﺒﺘﻪ ﺑﺎﯾﺪ در ﻧﻈﺮ ﮔﺮﻓﺖ ﮐﻪ وارﯾﺎﻧﺲ W T xﺑﺎﯾﺪ ﻣﻘﯿﺪ ﺑﻪ ﻣﻘﺪار واﺣﺪ ﺑﺎﺷﺪ ﮐﻪ ﺑﺮاي داده ﻫﺎي ﺳﻔﯿﺪ
ﺷﺪه ﻣﻌﺎدل ﺑﺎ واﺣﺪ ﺑﻮدن ﻧﺮم Wﻣﯽ ﺑﺎﺷﺪ .ﻫﻤﺎﻧﻄﻮر ﮐﻪ ﮔﻔﺘﻪ ﺷﺪ اﻟﮕﻮرﯾﺘﻢ FastICAﺑﺮاﺳﺎس ﯾﮏ ﻃﺮح
ﺗﮑﺮار Fixed-pointﺑﺮاي ﯾﺎﻓﺘﻦ ﻣﺎﮐﺰﯾﻤﻢ ﻏﯿﺮﮔﻮﺳﯿﻨﯽ W T xﺑﺮاﺳﺎس ﻧﮕﻨﺘﺮوﭘﯽ اﻧﺠﺎم ﻣﯽ ﮔﯿﺮد.
ﻓﺮض ﮐﻨﯿﺪ ﮐﻪ gﻣﺸﺘﻖ ﺗﺎﺑﻊ ﻏﯿﺮ درﺟﻪ دوم Gاﺳﺘﻔﺎده ﺷﺪه در راﺑﻄﻪ ﻧﮕﻨﺘﺮوﭘﯽ ﺑﺎﺷﺪ .ﺑﺮاي ﻣﺜﺎل ﻣﺸﺘﻘﺎت
ﺗﻮاﺑﻊ راﺑﻄﻪ ) (19-1را ﺑﻪ ﺻﻮرت زﯾﺮ در ﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ:
g 1 u tanh a 1u , g 2 u u exp u
2
)(24-3
2
ﮐﻪ 1 a 1 2ﯾﮏ ﺛﺎﺑﺖ ﻣﻨﺎﺳﺐ اﺳﺖ ﮐﻪ اﻏﻠﺐ . a 1 1ﻓﺮم اﺳﺎﺳﯽ اﻟﮕﻮرﯾﺘﻢ FastICAﺑﻪ ﺻﻮرت زﯾﺮ ﻣﯽ
ﺑﺎﺷﺪ:
30
اﻧﺘﺨﺎب ﯾﮏ ﺑﺮدار وزن ﺗﺼﺎدﻓﯽ اوﻟﯿﻪ W
ﻫﻤﮕﺮاﯾﯽ زﻣﺎﻧﯽ در اﯾﻦ اﻟﮕﻮرﯾﺘﻢ رخ ﻣﯽ دﻫﺪ ﮐﻪ ﻣﻘﺪار ﻗﺒﻠﯽ و ﻣﻘﺪار ﺟﺪﯾﺪ Wﻣﺸﺎﺑﻪ ﺑﺎﺷﻨﺪ .ﺧﺼﻮﺻﯿﺎت
اﻟﮕﻮرﯾﺘﻢ FastICAﺑﻪ ﺻﻮرت زﯾﺮ ﻣﯽ ﺑﺎﺷﺪ :
اﺳﺘﻔﺎده از آن ﺑﻪ ﻋﻠﺖ ﻋﺪم ﻧﯿﺎز ﺑﻪ اﻧﺪازه ﮔﺎم در ﻣﻘﺎﯾﺴﻪ ﺑﺎ اﻟﮕﻮرﯾﺘﻢ ﻫﺎي ﻣﺒﺘﻨﯽ ﺑﺮ ﮔﺮادﯾﺎن آﺳﺎن اﺳﺖ.
ﻫﻤﮕﺮاﯾﯽ ﺳﺮﯾﻌﯽ دارد ﮐﻪ ﺗﻮﺳﻂ ﺷﺒﯿﻪ ﺳﺎزي ﻫﺎ و آزﻣﺎﯾﺸﺎت ﺑﺮ روي داده ﻫﺎي واﻗﻌﯽ ﺗﺎﯾﯿﺪ ﺷﺪه اﺳﺖ.
ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ﯾﮏ ﺑﻪ ﯾﮏ ﺗﺨﻤﯿﻦ زده ﻣﯽ ﺷﻮﻧﺪ ﮐﻪ ﺑﺎﻋﺚ ﮐﺎﻫﺶ ﺑﺎر ﻣﺤﺎﺳﺒﺎﺗﯽ ﻣﯽ ﺷﻮد.
اﯾﻦ روش ﻣﺰاﯾﺎي زﯾﺎدي ﺑﺮ روش ﻫﺎي ﻣﺒﺘﻨﯽ ﺑﺮ اﻟﮕﻮرﯾﺘﻢ ﻫﺎي ﻋﺼﺒﯽ دارد .ﻣﺎﻧﻨﺪ :ﻗﺎﺑﻠﯿﺖ اﺟﺮا ﺑﺼﻮرت
ﻣﻮازي ،ﺗﻮزﯾﻊ ﺷﺪه ﺑﻮدن ،ﺳﺎدﮔﯽ ﻣﺤﺎﺳﺒﺎت و ﻧﯿﺎز ﺑﻪ ﻓﻀﺎي ﮐﻢ ﺣﺎﻓﻈﻪ.
31
: ﻣﻨﺎﺑﻊ.4
[1]: James V. Stone, "Independent component analysis A tutorial introduction ", Second
Edition, 2006 A Bradford Book TheMIT Press Cambridge,Massachusetts London,
England.
[2]: A. Hyvarinen, “Fast and Robust Fixed-point Algorithms for Independent Component
Analysis”, IEEE Trans. On neural networks, vol.10, pp.626-634, 1999.
.
[3]: A. Hyvärinen, “Independent component analysis Algorithms and Applications”,
Helsinki university of technology, FinlandNeural Networks, 13(4-5):411-430, 2000.
32