Download as pdf or txt
Download as pdf or txt
You are on page 1of 36

‫ﺑﻪ ﻧﺎم ﺧﺪا‬

‫ﺑﺎزﺷﻨﺎﺳﯽ اﻟﮕﻮ‬

‫اﺳﺘﺎد ‪:‬‬

‫دﮐﺘﺮ ﺣﺴﯿﻨﯽ‬

‫ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ﺑﻪ روش ﺳﺮﯾﻊ‬


‫)‪(FAST ICA‬‬

‫ﺗﻬﯿﻪ ﮐﻨﻨﺪه ‪:‬‬

‫ﮐﺎوه ﭘﺮﺗﻮ‬

‫ﺷﻤﺎره داﻧﺸﺠﻮﺋﯽ ‪:‬‬

‫‪930623056‬‬
‫ﭼﮑﯿﺪه‬

‫ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪﻫﺎي ﻣﺴﺘﻘﻞ ‪ ICA1‬ﯾﮏ روش ﭘﺮدازش ﺳﯿﮕﻨﺎل آﻣﺎري ﻣﯽ ﺑﺎﺷﺪ ﮐﻪ در زﻣﯿﻨﻪ ﻫﺎي ﻋﻤﻠﯽ ﻣﺨﺘﻠﻔﯽ‬
‫ﻫﻤﭽﻮن ﺟﺪاﺳﺎزي ﺳﯿﮕﻨﺎل ﻫﺎي در ﻫﻢ آﻣﯿﺨﺘﻪ ﮐﻪ اﻃﻼﻋﺎت اوﻟﯿﻪ اي در ﻣﻮرد آﻧﻬﺎ ﻧﺪارﯾﻢ ﯾﺎ ﻫﻤﺎن ﺗﻔﮑﯿﮏ ﮐﻮر‬
‫ﻣﻨﺎﺑﻊ )‪ (BSS2‬ﻣﺜﻞ ﺻﺪاي ﺿﺒﻂ ﺷﺪه در ﯾﮏ ﻣﺤﯿﻂ ﺷﻠﻮغ ﯾﺎ ﺗﺼﻮﯾﺮ ﺗﺮﮐﯿﺐ ﺷﺪه از ﭼﻨﺪ ﺗﺼﻮﯾﺮ ‪ ،‬ﭘﺮدازش‬
‫ﭼﻨﺪﯾﻦ ﮔﻮﻧﻪ از اﻃﻼﻋﺎت و ﻫﻤﭽﻨﯿﻦ اﺳﺘﺨﺮاج وﯾﮋﮔﯽ ﮐﺎرﺑﺮد دارد ‪ .‬ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ﺑﻪ روش ﺳﺮﯾﻊ‬
‫‪ Fast ICA‬ﯾﮑﯽ از ﺗﮑﻨﯿﮏ ﻫﺎي ﮐﺎرآﻣﺪ از روش ﻫﺎي ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ﻣﯿﺒﺎﺷﺪ ‪ .‬ﻣﻌﯿﺎر اﻧﺠﺎم ﮐﺎر در‬
‫ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ﺑﺮ ﻣﺒﻨﺎي اﻧﺪازه ﮔﯿﺮي ﻣﯿﺰان ﻏﯿﺮ ﮔﺎوﺳﯽ ﺑﻮدن ﺗﻮزﯾﻊ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ﯾﺎﻓﺘﻪ ﺷﺪه‬
‫ﻣﯿﺒﺎﺷﺪ ‪.‬‬

‫‪1‬‬
‫‪Independent Component Analysis‬‬

‫‪2‬‬
‫‪Blind Source Seperation‬‬
‫ﻓﻬﺮﺳﺖ ﻣﻄﺎﻟﺐ‬

‫ﻣﻘﺪﻣﻪ ‪ ....................................................................................................................................................................................................................‬ﺻﻔﺤﻪ ‪1‬‬ ‫‪1‬‬

‫‪ 1-1‬ﺳﻮاﻻت ﺗﺤﻘﯿﻖ وﮐﺎرﻫﺎي اﻧﺠﺎم ﺷﺪه ‪ ................................................................................................................................................................‬ﺻﻔﺤﻪ ‪1‬‬


‫‪ 2-1‬اﻫﺪاف و ﺣﻮزه وﺳﻌﺖ ﭘﺎﯾﺎن ﻧﺎﻣﻪ ‪ ......................................................................................................................................................................‬ﺻﻔﺤﻪ ‪1‬‬
‫‪ 3-1‬روش ﺗﺤﻘﯿﻖ و ﻧﻤﺎﯾﯽ ﮐﻠﯽ از ﭘﺎﯾﺎن ﻧﺎﻣﻪ ‪ .........................................................................................................................................................‬ﺻﻔﺤﻪ ‪2‬‬

‫ﺟﺪاﺳﺎزي ﮐﻮر ﻣﻨﺎﺑﻊ ‪ ............................................................................................................................................................................................‬ﺻﻔﺤﻪ ‪3‬‬ ‫‪2‬‬

‫‪ 1-2‬ﻋﻠﺖ ﺑﻪ ﮐﺎر ﺑﺮدن اﺻﻄﻼح ﮐﻮر ‪ .........................................................................................................................................................................‬ﺻﻔﺤﻪ ‪3‬‬


‫‪ 2-2‬ﻣﺪل ﻫﺎي ‪ .................................................................................................................................................................................................. BSS‬ﺻﻔﺤﻪ ‪4‬‬
‫‪ 3-2‬ﺗﻌﺪاد ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ و ﺗﻌﺪاد ﺳﻨﺴﻮرﻫﺎي ﮔﯿﺮﻧﺪه ‪ ................................................................................................................................‬ﺻﻔﺤﻪ ‪7‬‬
‫‪ 4-2‬ﺷﺮاﯾﻂ ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﮐﻮر ﻣﻨﺎﺑﻊ ‪ ......................................................................................................................................................................‬ﺻﻔﺤﻪ ‪8‬‬
‫‪ 5-2‬ﮐﺎرﺑﺮدﻫﺎي ‪ BSS‬در ﭘﺮدازش ‪ ...........................................................................................................................................................................‬ﺻﻔﺤﻪ ‪8‬‬
‫‪ 6-2‬ﭘﯿﭽﯿﺪﮔﯽ ﻫﺎ و ﻣﻮاﻧﻊ ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﮐﻮر ‪ .......................................................................................................................................................‬ﺻﻔﺤﻪ ‪8‬‬
‫‪ 7-2‬اﺳﺘﻘﻼل ﻣﻮﻟﻔﻪ ﻫﺎي ﺳﯿﮕﻨﺎل و ﺗﻔﮑﯿﮏ ﮐﻮر ﻣﻨﺎﺑﻊ ‪ ......................................................................................................................................‬ﺻﻔﺤﻪ ‪10‬‬
‫اﺳﺘﻘﻼل ﻣﻮﻟﻔﻪ ﻫﺎ در ﺳﯿﮕﻨﺎل ‪ ...............................................................................................................................................................‬ﺻﻔﺤﻪ ‪10‬‬ ‫‪7,1-2‬‬
‫ﻧﺎﻫﻤﺒﺴﺘﮕﯽ ﻣﺘﻐﯿﺮﻫﺎي ﺗﺼﺎدﻓﯽ ‪ ...........................................................................................................................................................‬ﺻﻔﺤﻪ ‪11‬‬ ‫‪7,2-2‬‬
‫‪ 8-2‬ﻣﺘﻐﯿﺮﻫﺎي ﮔﺎوﺳﯽ و ﻏﯿﺮ ﮔﺎوﺳﯽ ‪ ....................................................................................................................................................................‬ﺻﻔﺤﻪ ‪11‬‬
‫‪ 9-2‬ﮐﻮﻣﻮﻻن ‪ .............................................................................................................................................................................................................‬ﺻﻔﺤﻪ ‪12‬‬
‫ﻣﯿﺰان اﻧﺤﺮاف ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺳﯿﮕﻨﺎل ﻫﺎ )ﭼﻮﻟﮕﯽ( ‪ ................................................................................................................‬ﺻﻔﺤﻪ ‪12‬‬ ‫‪10-2‬‬
‫ﮐﻮﻣﻮﻻن ﻣﺮﺗﺒﻪ ﭼﻬﺎر ﯾﺎ ﮐﺸﯿﺪﮔﯽ )ﮐﺮﺗﻮﺳﯿﺲ( ‪ .................................................................................................................................‬ﺻﻔﺤﻪ ‪13‬‬ ‫‪11-2‬‬
‫آﻧﺘﺮوﭘﯽ ‪ .....................................................................................................................................................................................................‬ﺻﻔﺤﻪ ‪14‬‬ ‫‪12-2‬‬
‫آﻧﺘﺮوﭘﯽ ﻣﻨﻔﯽ )ﻧﮕﻨﺘﺮوﭘﯽ(‪ .....................................................................................................................................................................‬ﺻﻔﺤﻪ ‪15‬‬ ‫‪13-2‬‬
‫ﻣﻔﺎﻫﯿﻢ ﺗﺌﻮري اﻃﻼﻋﺎت ‪ .........................................................................................................................................................................‬ﺻﻔﺤﻪ ‪15‬‬ ‫‪14-2‬‬
‫ﻗﻀﯿﻪ ﺣﺪ ﻣﺮﮐﺰي ‪ ....................................................................................................................................................................................‬ﺻﻔﺤﻪ ‪16‬‬ ‫‪15-2‬‬
‫ﺗﻔﮑﯿﮏ ﭘﺬﯾﺮي و ﻗﻮاﻧﯿﻦ ﺗﻔﮑﯿﮏ ‪ ...........................................................................................................................................................‬ﺻﻔﺤﻪ ‪16‬‬ ‫‪16-2‬‬
‫ﭘﯿﺶ ﭘﺮدازش ﻫﺎي ﻻزم ﺑﺮاي ﺣﻞ ﻣﺴﺌﻠﻪ ‪ .............................................................................................................................. BSS‬ﺻﻔﺤﻪ ‪17‬‬ ‫‪17-2‬‬
‫ﻣﺮﮐﺰي ﺳﺎزي ‪ ..........................................................................................................................................................................................‬ﺻﻔﺤﻪ ‪17‬‬ ‫‪18-2‬‬
‫ﺳﻔﯿﺪﺳﺎزي ‪ ..............................................................................................................................................................................................‬ﺻﻔﺤﻪ ‪18‬‬ ‫‪19-2‬‬
‫دﯾﮕﺮ ﭘﯿﺶ ﭘﺮدازش ﻫﺎي ﻣﻔﯿﺪ ‪ ..............................................................................................................................................................‬ﺻﻔﺤﻪ ‪19‬‬ ‫‪20-2‬‬
‫ﺑﺮرﺳﯽ اﻟﮕﻮرﯾﺘﻢ ﻫﺎ و روش ﻫﺎي آﻧﺎﻟﯿﺰ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ‪ ......................................................................................................................‬ﺻﻔﺤﻪ ‪21‬‬ ‫‪3‬‬

‫‪ 1-3‬اﻟﮕﻮرﯾﺘﻢ ﻣﺎﮐﺰﯾﻤﻢ ﮐﺮﺗﻮﺳﯿﺲ‪ ..........................................................................................................................................................................‬ﺻﻔﺤﻪ ‪21‬‬


‫‪ 2-3‬ﺗﺨﻤﯿﻦ ﻣﺎﮐﺰﯾﻤﻢ ﺷﺒﺎﻫﺖ ‪ .................................................................................................................................................................................‬ﺻﻔﺤﻪ ‪24‬‬
‫‪ 3-3‬روش ‪ ............................................................................................................................................................................................. Infomax‬ﺻﻔﺤﻪ ‪24‬‬
‫‪ 4-3‬آﻧﺎﻟﯿﺰ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ‪ .................................................................................................................................................................................‬ﺻﻔﺤﻪ ‪25‬‬
‫‪ 5-3‬ﮐﻮوارﯾﺎﻧﺲ ‪ ..........................................................................................................................................................................................................‬ﺻﻔﺤﻪ ‪26‬‬
‫‪ 6-3‬ﺑﺮدارﻫﺎي اﺳﺎﺳﯽ ‪ ...............................................................................................................................................................................................‬ﺻﻔﺤﻪ ‪27‬‬
‫‪ 7-3‬اﻟﮕﻮرﯾﺘﻢ آﻧﺎﻟﯿﺰ ﻣﻮﻟﻔﻪ ﻫﺎي اﺳﺎﺳﯽ ‪ ..................................................................................................................................................................‬ﺻﻔﺤﻪ ‪28‬‬
‫‪ 8-3‬اﻟﮕﻮرﯾﺘﻢ ‪ .................................................................................................................................................................................................. ICA‬ﺻﻔﺤﻪ ‪29‬‬
‫‪ 9-3‬اﻟﮕﻮرﯾﺘﻢ ‪ ........................................................................................................................................................................................Fast ICA‬ﺻﻔﺤﻪ ‪30‬‬

‫ﻣﻨﺎﺑﻊ ‪ ...................................................................................................................................................................................................................‬ﺻﻔﺤﻪ ‪32‬‬ ‫‪4‬‬


‫‪ .1‬ﻣﻘﺪﻣﻪ‬

‫ﯾﮏ ﻣﺤﯿﻂ ﺷﻠﻮغ ﺑﺎ ﻣﯿﮑﺮوﻓﻦ ﯾﺎ ﺳﻨﺴﻮرﻫﺎي ﮔﯿﺮﻧﺪه ﺗﻌﺒﯿﻪ ﺷﺪه را در ﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ ﮐﻪ در آن ﭼﻨﺪﯾﻦ ﻧﻔﺮ ﺑﻪ ﻃﻮر ﻫﻢ زﻣﺎن‬
‫در ﺣﺎل ﺻﺤﺒﺖ ﺑﺎ ﯾﮑﺪﯾﮕﺮ ﻣﯽ ﺑﺎﺷﻨﺪ‪ .‬اﯾﻦ وﺿﻌﯿﺖ ﺑﻪ ﻋﻨﻮان ﻣﺴﺌﻠﻪ ﻣﻬﻤﺎﻧﯽ ﺷﻠﻮغ‪ ٣‬ﺷﻨﺎﺧﺘﻪ ﺷﺪه اﺳﺖ ﮐﻪ ﻣﻐﺰ اﻧﺴﺎن‬
‫ﺑﻪ راﺣﺘﯽ ﻣﯽ ﺗﻮاﻧﺪ ﺑﺎ ﺗﻤﺮﮐﺰ ﺑﺮ روي ﺳﯿﮕﻨﺎل ﻣﺮﺑﻮط ﺑﻪ اﻧﺴﺎن‪ ،‬آن را از دﯾﮕﺮ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻮﺟﻮد ﺟﺪا ﺳﺎزد‪ .‬اﻣﺎ اﯾﻦ‬
‫ﻣﺴﺌﻠﻪ در ﺑﺮرﺳﯽ ﻫﺎي ﻋﻠﻤﯽ ﺑﺮ ﻟﺰوم ﺑﺮرﺳﯽ ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﮐﻮر ﻣﻨﺎﺑﻊ )‪ (BSS‬ﺗﺎﮐﯿﺪ ﻣﯽ ﮐﻨﺪ‪ ،BSS .‬ﯾﮑﯽ از روش‬
‫ﻫﺎي ﺑﺴﯿﺎر ﻣﻬﻢ در ﭘﺮدازش ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﺨﺘﻠﻒ ﻣﯽ ﺑﺎﺷﺪ ﮐﻪ ﺑﺮاي ﺑﺎزﯾﺎﺑﯽ ﻣﺠﻤﻮﻋﻪ اي از ﻣﻨﺎﺑﻊ ﻣﺴﺘﻘﻞ ﻧﺎﻣﺸﺨﺺ ﮐﻪ‬
‫ﺑﻪ وﺳﯿﻠﻪ ﯾﮏ ﺳﯿﺴﺘﻢ ﺗﺮﮐﯿﺐ ﻧﺎﺷﻨﺎﺧﺘﻪ ﻣﺨﻠﻮط ﻣﯽ ﺷﻮﻧﺪ‪ ،‬ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار ﻣﯽ ﮔﯿﺮد‪ .‬ﺑﻪ دﻟﯿﻞ ﻧﺒﻮد اﻃﻼﻋﺎت ﮐﺎﻓﯽ در‬
‫ﻣﻮرد ﺳﯿﮕﻨﺎل ﻫﺎي اوﻟﯿﻪ و ﺳﯿﺴﺘﻢ ﺗﺮﮐﯿﺐ‪ ،‬ﺗﻔﮑﯿﮏ ﺑﺮ اﯾﻦ اﺳﺎس ﺗﻨﻬﺎ ﺑﺮ ﭘﺎﯾﻪ ﻣﺸﺎﻫﺪه ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﺸﺎﻫﺪه اي اﻧﺠﺎم‬
‫ﻣﯽ ﮔﯿﺮد‪ .‬ﯾﮑﯽ از روش ﻫﺎي ﻣﻮرد اﺳﺘﻔﺎده در ﺗﻔﮑﯿﮏ ﮐﻮر ﻣﻨﺎﺑﻊ ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ )‪ (ICA‬ﻣﯽ ﺑﺎﺷﺪ ‪.‬‬

‫‪ .1,1‬ﭘﯿﺶ زﻣﯿﻨﻪ و دﻻﯾﻞ اﺳﺎﺳﯽ اﻧﺠﺎم ﺗﺤﻘﯿﻖ‪:‬‬

‫روﺷﻬﺎ و اﻟﮕﻮرﯾﺘﻢ ﻫﺎي زﯾﺎدي ﺑﺮاي اﻧﺠﺎم ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ وﺟﻮد دارد اﻣﺎ در اﯾﻦ ﺗﺤﻘﯿﻖ ﺑﻪ ﻋﻠﺖ‬
‫ﺧﺼﻮﺻﯿﺎت اﻟﮕﻮرﯾﺘﻢ ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ﺑﻪ روش ﺳﺮﯾﻊ ‪ (Fast ICA)4‬ﮐﻪ ﻋﺒﺎرﺗﻨﺪ از ‪:‬‬
‫اﺳﺘﻔﺎده از آن ﺑﻪ ﻋﻠﺖ ﻋﺪم ﻧﯿﺎز ﺑﻪ اﻧﺪازه ﮔﺎم در ﻣﻘﺎﯾﺴﻪ ﺑﺎ اﻟﮕﻮرﯾﺘﻢ ﻫﺎي ﻣﺒﺘﻨﯽ ﺑﺮ ﮔﺮادﯾﺎن آﺳﺎن اﺳﺖ‪.‬‬ ‫‪‬‬
‫‪ ‬ﻫﻤﮕﺮاﯾﯽ ﺳﺮﯾﻌﯽ دارد ﮐﻪ ﺗﻮﺳﻂ ﺷﺒﯿﻪ ﺳﺎزي ﻫﺎ و آزﻣﺎﯾﺸﺎت ﺑﺮ روي داده ﻫﺎي واﻗﻌﯽ ﺗﺎﯾﯿﺪ ﺷﺪه اﺳﺖ‪.‬‬
‫‪ ‬ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ﯾﮏ ﺑﻪ ﯾﮏ ﺗﺨﻤﯿﻦ زده ﻣﯽ ﺷﻮﻧﺪ ﮐﻪ ﺑﺎﻋﺚ ﮐﺎﻫﺶ ﺑﺎر ﻣﺤﺎﺳﺒﺎﺗﯽ ﻣﯽ ﺷﻮد‪.‬‬
‫‪ ‬اﯾﻦ روش ﻣﺰاﯾﺎي زﯾﺎدي ﺑﺮ روش ﻫﺎي ﻣﺒﺘﻨﯽ ﺑﺮ اﻟﮕﻮرﯾﺘﻢ ﻫﺎي ﻋﺼﺒﯽ دارد‪ .‬ﻣﺎﻧﻨﺪ‪ :‬ﻗﺎﺑﻠﯿﺖ اﺟﺮا ﺑﺼﻮرت‬
‫ﻣﻮازي‪ ،‬ﺗﻮزﯾﻊ ﺷﺪه ﺑﻮدن‪ ،‬ﺳﺎدﮔﯽ ﻣﺤﺎﺳﺒﺎت و ﻧﯿﺎز ﺑﻪ ﻓﻀﺎي ﮐﻢ ﺣﺎﻓﻈﻪ‪.‬‬
‫ﺑﻪ ﺗﺸﺮﯾﺢ اﯾﻦ اﻟﮕﻮرﯾﺘﻢ در اﯾﻦ ﺗﺤﻘﯿﻖ ﭘﺮداﺧﺘﻪ ﻣﯽ ﺷﻮد ‪.‬‬
‫‪ .1,2‬ﻫﺪف و ﺣﻮزه وﺳﻌﺖ ﺗﺤﻘﯿﻖ ‪:‬‬

‫در اﯾﻦ ﺗﺤﻘﯿﻖ ﺑﻪ ﻣﺴﺌﻠﻪ ﺟﺪاﺳﺎزي ﺳﯿﮕﻨﺎل ﻫﺎي در ﻫﻢ آﻣﯿﺨﺘﻪ ﮐﻪ اﻃﻼﻋﺎت اوﻟﯿﻪ اي در ﻣﻮرد آﻧﻬﺎ ﻧﺪارﯾﻢ ‪ (BSS)5‬ﺑﺎ‬
‫اﺳﺘﻔﺎده از روش ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ﺑﻪ روش ﺳﺮﯾﻊ ‪ Fast ICA6‬ﻣﯽ ﭘﺮدازﯾﻢ‪ .‬در ﻣﺴﺎﺋﻞ اﯾﻦ ﭼﻨﯿﻨﯽ ﺑﻪ اﯾﻦ‬
‫ﺧﺎﻃﺮ ﮐﻪ ﻫﺮ ﮔﯿﺮﻧﺪه ﺑﻪ ﺻﻮرت ﻫﻤﺰﻣﺎن ﺳﯿﮕﻨﺎل ﻫﺎي ﻧﺎﺷﯽ از ﭼﻨﺪﯾﻦ ﻣﻨﺒﻊ ﺗﻮﻟﯿﺪ ﮐﻨﻨﺪه ﺳﯿﮕﻨﺎل را ﺑﻪ ﺻﻮرت ﻫﻤﺰﻣﺎن‬
‫درﯾﺎﻓﺖ ﻣﯽ ﮐﻨﺪ و در ﻧﺘﯿﺠﻪ در ﺧﺮوﺟﯽ ﮔﯿﺮﻧﺪه ﺗﺮﮐﯿﺒﯽ از ورودي ﻫﺎي ﻣﺨﺘﻠﻒ را دارﯾﻢ ‪ ،‬از ﻣﺠﻤﻮﻋﻪ از ﮔﯿﺮﻧﺪه ﻫﺎ در‬

‫‪3‬‬
‫‪Cocktail party problem‬‬

‫‪4‬‬
‫‪Fast Independent Component Analysis‬‬

‫‪5‬‬
‫‪Blind Source Sepration‬‬

‫‪6‬‬
‫‪Fast Independent Component Analysis‬‬

‫‪1‬‬
‫ﻣﺴﺎﺋﻞ اﯾﻦ ﭼﻨﯿﻨﯽ ﺟﻬﺖ ﭘﺮدازش و ﺑﺎزﯾﺎﺑﯽ ﺗﮏ ﺗﮏ ﺳﯿﮕﻨﺎﻟﻬﺎ اﺳﺘﻔﺎده ﻣﯽ ﮐﻨﯿﻢ‪ .‬وﺟﻮد ﻋﺒﺎرت ﮐﻮر در اﯾﻦ ﻣﺴﺎﯾﻞ ﺑﯿﺎﻧﮕﺮ‬
‫اﯾﻦ ﻣﻄﻠﺐ اﺳﺖ ﮐﻪ ﻫﯿﭻ اﻃﻼﻋﺎت ﺻﺮﯾﺢ و روﺷﻨﯽ در ﻣﻮرد ﻣﻨﺎﺑﻊ و ﻧﺤﻮه ﺗﺮﮐﯿﺐ ﺷﺪن ﺳﯿﮕﻨﺎﻟﻬﺎي واﺻﻠﻪ ﺑﻪ ﮔﯿﺮﻧﺪه ﻫﺎ‬
‫ﻧﺪارﯾﻢ‪ .‬در روش ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ﺑﺎ ﻓﺮض اﺳﺘﻘﻼل آﻣﺎري ﻣﻨﺎﺑﻊ از ﯾﮑﺪﯾﮕﺮ ﺳﻌﯽ ﻣﯽ ﻧﻤﺎﺋﯿﻢ ﺗﺎ اﯾﻦ ﻋﺪم وﺟﻮد‬
‫اﻃﻼﻋﺎت در ﻣﻮرد ﻣﻨﺎﺑﻊ را ﺟﺒﺮان ﻧﻤﺎﺋﯿﻢ و ﺑﻪ ﺳﺎده ﺳﺎزي ﻣﺴﺌﻠﻪ ﮐﻤﮏ ﮐﻨﯿﻢ‪ .‬ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ در زﻣﯿﻨﻪ ﻫﺎي‬
‫ﻣﺨﺘﻠﻒ ﺷﺎﻣﻞ ﻣﺨﺎﺑﺮات‪ ،‬ﭘﺰﺷﮑﯽ‪ ،‬ﭘﺮدازش ﺻﻮت و ﺗﺼﻮﯾﺮ ﮐﺎرﺑﺮد دارد‪ .‬اﻟﮕﻮرﯾﺘﻢ ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ﺑﻪ روش ﺳﺮﯾﻊ‬
‫ﻣﻮﺟﺐ ﺑﻬﺒﻮد ﺳﺮﻋﺖ ﭘﺮدازش در ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ﮔﺮدﯾﺪه اﺳﺖ‪..‬‬

‫‪.1,3‬روش ﺗﺤﻘﯿﻖ و ﻧﻤﺎﯾﯽ ﮐﻠﯽ از ﭘﺎﯾﺎن ﻧﺎﻣﻪ ‪:‬‬

‫در اﯾﻦ ﺗﺤﻘﯿﻖ ﭘﺲ از ﻣﻌﺮﻓﯽ ﺟﺪاﺳﺎزي ﻣﻨﺎﺑﻊ ﮐﻮر وروش ﻫﺎي ﻣﺨﺘﻠﻒ آن در ﻣﻮرد روش ‪ Fast ICA‬ﺑﺮرﺳﯽ ﻫﺎي ﻻزم‬
‫را اﻧﺠﺎم داده و ﺑﻪ ﺗﺸﺮﯾﺢ اﻟﮕﻮرﯾﺘﻢ آن ﻣﯽ ﭘﺮدازﯾﻢ ‪.‬‬

‫‪2‬‬
‫‪ .2‬ﺟﺪاﺳﺎزي ﮐﻮر ﻣﻨﺎﺑﻊ‬

‫ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﻣﻨﺎﺑﻊ در اﺑﺘﺪا در ﺣﺪود ﺳﻪ دﻫﻪ ﭘﯿﺶ در ﻃﯽ ﮔﻔﺘﮕﻮي ﻋﻠﻤﯽ ﯾﮏ ﺗﯿﻢ ﭘﺰﺷﮑﯽ ﮐﻪ ﺑﺮ روي‬
‫ﺳﯿﺴﺘﻢ ﻋﺼﺒﯽ ﻣﻮﺟﻮدات زﻧﺪه ﻣﻄﺎﻟﻌﻪ ﻣﯽ ﮐﺮدﻧﺪ‪ ،‬ﻣﻄﺮح ﮔﺮدﯾﺪ‪ .‬داﻧﺸﻤﻨﺪان اﯾﻦ ﺗﯿﻢ در ﺣﯿﻦ ﺑﺮرﺳﯽ ﭼﮕﻮﻧﮕﯽ‬
‫ﮐﺪ ﮐﺮدن ﺣﺮﮐﺎت اﻋﺼﺎب ﺗﺤﺮﯾﮏ ﺷﺪه ﺑﺮ اﺛﺮ ﺗﺤﺮﯾﮑﺎت دروﻧﯽ اﻋﻀﺎ ﺑﺪن‪ ،‬ﻣﺘﻮﺟﻪ ﺷﺪﻧﺪ ﮐﻪ اﻧﺘﻘﺎل اﻃﻼﻋﺎﺗﯽ‬
‫ﻣﺎﻧﻨﺪ ﺳﺮﻋﺖ و ﻣﮑﺎن ﻣﻔﺼﻞ ﮐﻪ ﻣﻮﺟﺐ ﺣﺮﮐﺖ ﻣﻨﺎﺳﺐ آن ﻣﻔﺼﻞ ﻣﯽ ﺷﻮد‪ ،‬ﺗﻮﺳﻂ دو ﺳﯿﮕﻨﺎل ﻋﺼﺒﯽ ﺑﻪ ﻃﻮر‬
‫ﻣﺠﺰا ﺑﻪ ﻣﻐﺰ ﺻﻮرت ﻣﯽ ﮔﯿﺮد‪ .‬اﻃﻼﻋﺎت رﺳﯿﺪه ﺗﻮﺳﻂ اﯾﻦ ﺳﯿﮕﻨﺎل ﻫﺎ در ﻣﻐﺰ‪ ،‬ﺗﺮﮐﯿﺒﯽ از ﻣﮑﺎن و ﺳﺮﻋﺖ زاوﯾﻪ‬
‫اي ﻣﻔﺼﻞ ﻣﯽ ﺑﺎﺷﺪ ﮐﻪ ﻣﻐﺰ ﺗﻮاﻧﺎﯾﯽ ﺟﺪا ﮐﺮدن اﯾﻦ اﻃﻼﻋﺎت را ﺑﺎ ﺗﺸﺨﯿﺺ ﺳﯿﺴﺘﻢ ﻣﻌﮑﻮس ﺗﺮﮐﯿﺐ ﺗﻨﻬﺎ ﺑﺎ‬
‫ﻣﺸﺎﻫﺪه اﯾﻦ ﺳﯿﮕﻨﺎل ﻫﺎي ﻋﺼﺒﯽ دارا ﻣﯽ ﺑﺎﺷﺪ‪ .‬در ﻧﺘﯿﺠﻪ اﯾﻦ ﻣﺸﺎﻫﺪات‪ ،‬ﺗﺤﻘﯿﻘﺎت ﺑﺮ روي ﺑﺮرﺳﯽ ﻣﺴﺌﻠﻪ‬
‫ﺗﻔﮑﯿﮏ ﮐﻮر ﻣﻨﺎﺑﻊ اداﻣﻪ ﯾﺎﻓﺖ و ﭼﻨﺪﯾﻦ ﻣﺪل و ﻓﺮﺿﯿﻪ ﻣﻄﺮح ﮔﺮدﯾﺪ ﺗﺎ ﺑﺘﻮان ﺗﻨﻬﺎ ﺑﺎ در اﺧﺘﯿﺎر داﺷﺘﻦ ﺳﯿﮕﻨﺎل‬
‫ﻫﺎي ﺗﺮﮐﯿﺒﯽ ﺑﻪ ﺳﯿﮕﻨﺎل ﻫﺎي اوﻟﯿﻪ دﺳﺖ ﭘﯿﺪا ﮐﺮد‪ .‬ﺑﺪﯾﻦ ﮔﻮﻧﻪ ﻣﺤﺎﺳﺒﺎت‪ ،‬ﻓﺮﺿﯿﺎت و ﻣﻔﺎﻫﯿﻢ اﯾﻦ روش ﺟﺪاﺳﺎزي‬
‫ﻣﻮرد ﺗﻮﺟﻪ ﻗﺮار ﮔﺮﻓﺖ‪ .‬ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻣﺜﺎل ﺑﯿﺎن ﺷﺪه‪ ،‬ﻣﺴﺌﻠﻪ ‪ BSS‬ﺑﻪ اﯾﻦ ﺻﻮرت ﻗﺎﺑﻞ ﺑﯿﺎن ﻣﯽ ﺑﺎﺷﺪ‪ :‬ﺳﯿﮕﻨﺎل‬
‫ﻫﺎي اوﻟﯿﻪ ‪ S 1  t  , S 2  t  , ... , S N  t ‬ﮐﻪ ﺗﻮﺳﻂ ‪ N‬ﻣﻨﺒﻊ ﻣﺨﺘﻠﻒ ﺗﻮﻟﯿﺪ ﻣﯽ ﺷﻮﻧﺪ در ﻣﺤﯿﻂ ﺑﻪ دﻻﯾﻞ ﻣﺨﺘﻠﻒ‬
‫ﺑﺎ ﺳﯿﮕﻨﺎل ﻫﺎي دﯾﮕﺮ ﺗﺮﮐﯿﺐ ﺷﺪه و ‪ M‬ﺳﻨﺴﻮر ﺗﻌﺒﯿﻪ ﺷﺪه در ﻣﺤﯿﻂ ﺳﯿﮕﻨﺎل ﻫﺎي ﺗﺮﮐﯿﺒﯽ‬
‫‪ X 1  t  , X 2  t  , ... , X N  t ‬را درﯾﺎﻓﺖ ﺧﻮاﻫﻨﺪ ﮐﺮد‪.‬‬

‫‪7‬‬
‫‪ .2,1‬ﻋﻠﺖ ﺑﻪ ﮐﺎر ﺑﺮدن اﺻﻄﻼح ﮐﻮر‬

‫ﻫﻤﺎﻧﻄﻮر ﮐﻪ در ﺑﺨﺶ ﻗﺒﻞ ﺑﯿﺎن ﺷﺪه اﺳﺖ‪ ،‬ﺗﻔﮑﯿﮏ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ ﺑﺎﯾﺪ ﺗﻨﻬﺎ ﺑﺎ ﺗﮑﯿﻪ ﺑﺮ ﻣﺸﺎﻫﺪه ﺳﯿﮕﻨﺎل‬
‫ﻫﺎي ﺗﺮﮐﯿﺒﯽ ﺑﺪون اﻃﻼع از ﻣﺎﻫﯿﺖ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ اوﻟﯿﻪ و ﻫﻤﭽﻨﯿﻦ ﻋﻠﺖ و ﯾﺎ ﻧﺤﻮه ﺗﺮﮐﯿﺐ آﻧﻬﺎ ﺑﺎﺷﺪ‪ .‬اﯾﻦ‬

‫ﻓﺮﺿﯿﺎت ﺑﺮ ﻟﺰوم ﺑﻪ ﮐﺎرﺑﺮدن واژه ﮐﻮر ﺗﺎﮐﯿﺪ ﻣﯽ ﮐﻨﺪ‪ .‬در ﻣﻘﺎﺑﻞ روش ﺗﻔﮑﯿﮏ ﮐﻮر ﻣﻨﺎﺑﻊ‪ ،‬روش ﺗﻔﮑﯿﮏ ﻏﯿﺮ ﮐﻮر‬
‫ﻣﻨﺎﺑﻊ ﻧﯿﺰ وﺟﻮد دارد ﮐﻪ در آن اﻃﻼﻋﺎت اوﻟﯿﻪ اي در ﻣﻮرد ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ در دﺳﺘﺮس ﻣﯽ ﺑﺎﺷﺪ‪ .‬ﺑﺮاي ﻣﺜﺎل‬
‫در ﺑﻌﻀﯽ از ﻣﻮارد ﺗﻔﮑﯿﮏ‪ ،‬ﺗﻮزﯾﻊ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ و ﯾﺎ ﺗﻌﺪادي از ﻣﻨﺎﺑﻊ از ﭘﯿﺶ ﻣﺸﺨﺺ ﺷﺪه ﻣﯽ ﺑﺎﺷﺪ ﮐﻪ‬
‫در اﯾﻦ ﺻﻮرت اﻃﻼع از ﻣﺎﻫﯿﺖ ﻣﻨﺎﺑﻊ اوﻟﯿﻪ ﻣﺴﺘﻘﻞ‪ ،‬ﺟﺪاﺳﺎزي آﻧﻬﺎ را از روي ﺳﯿﮕﻨﺎل ﻫﺎي ﺗﺮﮐﯿﺒﯽ ﺑﻪ ﻣﺮاﺗﺐ‬

‫‪7‬‬
‫‪Blind‬‬

‫‪3‬‬
‫ﺳﺎده ﺗﺮ ﻣﯽ ﺳﺎزد‪ .‬روش ﺗﻔﮑﯿﮏ ﻏﯿﺮ ﮐﻮر ﻣﺎﻧﻨﺪ ﺗﻔﮑﯿﮏ ﮐﻮر ﻣﺪل ﻫﺎ و ﭘﯿﺶ ﻓﺮض ﻫﺎي ﻣﺨﺼﻮص ﺑﻪ ﺧﻮد را‬
‫دارد ﮐﻪ ﺣﻞ اﯾﻦ روش ﻫﺎ را ﺑﺎز ﻫﻢ ﺳﺎده ﺗﺮ ﻣﯽ ﺳﺎزد‪.‬‬

‫ﻣﺪل ﻫﺎي ‪BSS‬‬ ‫‪.2,2‬‬

‫در ﺣﺎﻟﺖ ﮐﻠﯽ ﭼﻬﺎر ﻣﺪل اﺳﺎﺳﯽ ﺑﺮاي ﻣﺴﺌﻠﻪ ‪ BSS‬ﻗﺎﺑﻞ ﺗﻌﺮﯾﻒ اﺳﺖ‪:‬‬

‫‪8‬‬
‫اﻟﻒ( ﺗﺮﮐﯿﺐ ﺧﻄﯽ ﻟﺤﻈﻪ اي‬
‫‪9‬‬
‫ب( ﺗﺮﮐﯿﺐ ﺧﻄﯽ ﺗﻠﻔﯿﻘﯽ ) ﭘﯿﭽﯿﺪه(‬
‫ج( ﺗﺮﮐﯿﺐ ﻏﯿﺮ ﺧﻄﯽ ‪(PNL)10‬‬

‫د( ﺗﺮﮐﯿﺐ ﻏﯿﺮ ﺧﻄﯽ ﮐﺎﻧﻮﻟﻮﺗﯿﻮ ‪(CPNL)11‬‬


‫اﻟﻒ( ﺗﺮﮐﯿﺐ ﺧﻄﯽ ﻟﺤﻈﻪ اي‪ :‬ﺳﻨﺴﻮرﻫﺎي ﮔﯿﺮﻧﺪه در اﯾﻦ ﻣﺪل ﺗﺮﮐﯿﺐ‪ ،‬ﺿﺮاﯾﺒﯽ اﺳﮑﺎﻟﺮ و ﺧﻄﯽ از ﻫﺮ ﯾﮏ از‬
‫ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ را درﯾﺎﻓﺖ ﻣﯽ ﮐﻨﻨﺪ‪ .‬در اﯾﻦ ﺗﺮﮐﯿﺐ ﻓﺮض ﺑﺮ اﯾﻦ اﺳﺖ ﮐﻪ در ﻫﺮ ﻟﺤﻈﻪ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ‬
‫ﺑﺪون ﭘﮋواك‪ ،‬ﺗﺎﺧﯿﺮ و ﯾﺎ ﺗﺮﮐﯿﺐ ﺷﺪن ﺑﺎ ﭘﺎﺳﺦ ﺿﺮﺑﻪ ﻣﺤﯿﻂ ﭘﯿﺮاﻣﻮن ﺑﻪ ﺳﻨﺴﻮرﻫﺎي ﮔﯿﺮﻧﺪه ﻣﯽ رﺳﻨﺪ‪ .‬ﻣﻘﺪار‬
‫اﯾﻦ ﺿﺮاﯾﺐ ﺗﻨﻬﺎ ﺑﻪ ﻓﺎﺻﻠﻪ ﺳﯿﮕﻨﺎل ﻫﺎي ﺗﺮﮐﯿﺒﯽ از ﻫﺮ ﯾﮏ از ﺳﻨﺴﻮرﻫﺎ واﺑﺴﺘﻪ ﺧﻮاﻫﺪ ﺑﻮد ‪ .‬ﺑﻪ ﻫﻤﯿﻦ ﻋﻠﺖ اﯾﻦ‬
‫ﺣﺎﻟﺖ ﺗﺮﮐﯿﺐ ﻣﺪل ﺧﻄﯽ ﻟﺤﻈﻪ اي ﻧﺎم ﮔﺮﻓﺘﻪ اﺳﺖ‪ .‬ﺑﺮاي ﻣﺜﺎل اﮔﺮ دو ﺳﯿﮕﻨﺎل ﻣﻨﺒﻊ ﻣﺴﺘﻘﻞ ‪ S 1  t ‬و ‪S 2  t ‬‬

‫در ﻣﺤﯿﻂ ﺑﺎ ﯾﮑﺪﯾﮕﺮ ﺗﺮﮐﯿﺐ ﺷﻮﻧﺪ‪ ،‬دو ﺳﻨﺴﻮر ﮔﯿﺮﻧﺪه ﻣﻮﺟﻮد ﺳﯿﮕﻨﺎل ﻫﺎي ‪ X 1  t ‬و ‪ X 2  t ‬را درﯾﺎﻓﺖ‬
‫ﺧﻮاﻫﻨﺪ ﮐﺮد و ﺧﻮاﻫﯿﻢ داﺷﺖ‪:‬‬

‫‪X  A.S‬‬ ‫)‪(1-1‬‬

‫ﭼﮕﻮﻧﮕﯽ ﺗﺮﮐﯿﺐ ﻣﺎﺗﺮﯾﺴﯽ ﺳﯿﮕﻨﺎل ﻫﺎي اوﻟﯿﻪ ﺑﺎ ﻣﺎﺗﺮﯾﺲ ﺗﺮﮐﯿﺐ ﮐﻨﻨﺪه در ﺷﮑﻞ ‪ 1-1‬ﻧﻤﺎﯾﺶ داده ﺷﺪه اﺳﺖ‪.‬‬
‫ﮐﻪ در آن ‪ S  S 1  t  S 2  t ‬و ‪ X   X 1  t  X 2  t ‬ﺳﯿﮕﻨﺎل ﻣﻨﺒﻊ و ﺳﯿﮕﻨﺎل ﺗﺮﮐﯿﺐ ﺷﺪه دو ﺑﻌﺪي‬
‫‪T‬‬ ‫‪T‬‬

‫‪8‬‬
‫‪Linear instantaneous‬‬

‫‪9‬‬
‫‪Linear convolutive‬‬

‫‪10‬‬
‫‪Post nonlinear‬‬

‫‪11‬‬
‫‪Convolutive post nonlinear‬‬

‫‪4‬‬
‫‪a‬‬ ‫‪a ‬‬
‫ﺑﺎ دراﯾﻪ ﻫﺎي اﺳﮑﺎﻟﺮ واﺑﺴﺘﻪ ﺑﻪ ﻓﺎﺻﻠﻪ ﺳﯿﮕﻨﺎل ﺗﺮﮐﯿﺒﯽ‬ ‫‪2 2‬‬ ‫ﻫﺴﺘﻨﺪ‪ .‬ﻫﻤﭽﻨﯿﻦ ‪ A   11 12 ‬ﯾﮏ ﻣﺎﺗﺮﯾﺲ‬
‫‪a 21 a 22 ‬‬
‫از ﺳﻨﺴﻮر ﮔﯿﺮﻧﺪه ﻣﯽ ﺑﺎﺷﺪ‬
‫ﮔﯿﺮﻧﺪه در ﻫﺮ ﻟﺤﻈﻪ ﺗﺮﮐﯿﺐ ﺧﻄﯽ از ﻣﻨﺎﺑﻊ را ﺿﺒﻂ ﻣﯽ ﮐﻨﺪ‪ .‬ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ اوﻟﯿﻪ را ﻣﯽ ﺗﻮان ﺑﺎ ﯾﺎﻓﺘﻦ‬
‫ﻣﺎﺗﺮﯾﺲ ﺟﺪاﺳﺎز ‪ W‬ﺑﺎ اﺳﺘﻔﺎده از راﺑﻄﻪ زﯾﺮ ﺗﺨﻤﯿﻦ زد‪:‬‬

‫‪Y  W.X‬‬ ‫)‪(2-1‬‬

‫ﺑﻪ ﻣﻨﻈﻮر ﺣﻞ ﻣﺴﺌﻠﻪ ‪ BSS‬اﻟﮕﻮرﯾﺘﻢ ﻫﺎي ﻣﺘﻨﻮﻋﯽ ﭘﯿﺸﻨﻬﺎد ﺷﺪه اﺳﺖ ﮐﻪ اﺧﺘﻼف ﻣﯿﺎن اﯾﻦ روش ﻫﺎ ﺑﺮاﺳﺎس‬
‫اﻧﺪازه ﮔﯿﺮي ﻣﯿﺰان اﺳﺘﻘﻼل ﻣﯿﺎن ﻣﻮﻟﻔﻪ ﻫﺎي ﺧﺮوﺟﯽ ﺷﺎن ﻣﯽ ﺑﺎﺷﺪ‪ .‬در اداﻣﻪ ﺑﻪ ﻃﻮر ﻣﺨﺘﺼﺮ ﺑﻌﻀﯽ از اﯾﻦ‬
‫روش ﻫﺎ ﻣﻮرد ﺑﺮرﺳﯽ ﻗﺮار ﻣﯽ ﮔﯿﺮد‪:‬‬

‫‪ ‬آﻧﺎﻟﯿﺰ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ‪:‬‬

‫اوﻟﯿﻦ روش ﺑﺮرﺳﯽ ﺷﺪه ﺑﺮاي ‪ ،BSS‬آﻧﺎﻟﯿﺰ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ‪ (ICA)12‬ﻣﯽ ﺑﺎﺷﺪ‪ .‬ﻫﺪف در اﯾﻦ روش‬
‫ﯾﺎﻓﺘﻦ ﻧﻤﺎﯾﺸﯽ ﺧﻄﯽ از داده ﻫﺎي ﻏﯿﺮﮔﻮﺳﯽ ﺑﺎ اﺳﺘﻔﺎده از ﭘﺎراﻣﺘﺮﻫﺎﯾﯽ ﻣﺎﻧﻨﺪ ﮐﺸﯿﺪﮔﯽ )ﮐﺮﺗﻮﺳﯿﺲ(‪،13‬‬
‫ﻣﯽ ﺑﺎﺷﺪ‪ .‬ﺗﺨﻤﯿﻦ ﻣﻮﻟﻔﻪ ﻫﺎي‬ ‫‪16‬‬
‫و ﻣﺎﺗﺮﯾﺲ ﻫﻤﺒﺴﺘﮕﯽ‬ ‫‪15‬‬
‫آﻧﺘﺮوﭘﯽ ﻣﻨﻔﯽ )ﻧﮕﻨﺘﺮوﭘﯽ(‪ ،14‬آﻧﺘﺮوﭘﯽ‬
‫ﻏﯿﺮﮔﻮﺳﯽ ﺳﯿﮕﻨﺎل ﺑﻪ اﯾﻦ ﻋﻠﺖ اﺳﺖ ﮐﻪ اﯾﻦ داده ﻫﺎ ﺗﺎ ﺣﺪ ﻣﻤﮑﻦ از اﺳﺘﻘﻼل آﻣﺎري ﺑﺮﺧﻮردار ﻫﺴﺘﻨﺪ‪.‬‬
‫روش ‪ ICA‬ﺑﺮاﺳﺎس اﻓﺰاﯾﺶ ﻏﯿﺮ ﮔﻮﺳﯽ ﺑﻮدن اﺳﺖ‪ .‬در اﯾﻦ روش ﻣﺎﺗﺮﯾﺲ ‪ W‬در ﺟﻬﺖ ﮐﺎﻫﺶ ﮔﻮﺳﯽ‬
‫ﮐﺮدن ‪ X‬ﮐﻪ ﺑﺎ ﭘﺎراﻣﺘﺮﻫﺎي ﮐﺮﺗﻮﺳﯿﺲ ﯾﺎ ﻧﮕﻨﺘﺮوﭘﯽ اﻧﺪازه ﮔﯿﺮي ﻣﯽ ﺷﻮد‪ ،‬ﺑﻪ روز ﻣﯽ ﮔﺮدد‪.‬‬

‫‪12‬‬
‫‪Independent component analysis‬‬

‫‪13‬‬
‫‪Kurtosis‬‬

‫‪14‬‬
‫‪Negentropy‬‬

‫‪15‬‬
‫‪Entropy‬‬

‫‪16‬‬
‫‪Correlation Matrix‬‬

‫‪5‬‬
‫ﺷﮑﻞ ‪ -1-1‬ﻧﻤﺎﯾﺸﯽ از ﺛﺒﺖ ﺧﻄﯽ ﻟﺤﻈﻪ اي ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ ﺗﻮﺳﻂ ﻣﯿﮑﺮوﻓﻮن ﻫﺎي ﮔﯿﺮﻧﺪه‬

‫‪ ‬ﮐﺎﻫﺶ اﻃﻼﻋﺎت ﻣﺘﻘﺎﺑﻞ‪:17‬‬

‫در اﯾﻦ روش ﻣﺴﺌﻠﻪ ﯾﺎﻓﺘﻦ ﻣﻮﻟﻔﻪ ﻫﺎي ﺧﺮوﺟﯽ ﻣﯽ ﺑﺎﺷﺪ ﮐﻪ ﮐﺎﻫﺶ اﻃﻼﻋﺎت ﻣﺘﻘﺎﺑﻞ و ﯾﺎ اﻓﺰاﯾﺶ‬
‫اﺳﺘﻘﻼل ﻣﯿﺎن آﻧﻬﺎ ﺗﻀﻤﯿﻦ ﺷﺪه ﺑﺎﺷﺪ‪.‬‬
‫‪ ‬اﻓﺰاﯾﺶ ﺗﺸﺎﺑﻪ‪:‬‬

‫در روش اﻓﺰاﯾﺶ ﺗﺸﺎﺑﻪ ‪ (INFOMAX)18‬ﯾﺎ ‪ ،ML19‬ﻫﺪف اﻓﺰاﯾﺶ اﻃﻼﻋﺎت ﻣﯿﺎن ﺳﯿﮕﻨﺎل ﻫﺎي ورودي‬
‫و ﺧﺮوﺟﯽ ﻣﯽ ﺑﺎﺷﺪ‪.‬‬

‫ﺑﻪ ﺟﺎي اﺳﮑﺎﻟﺮ ﺑﻮدن‪،‬‬ ‫‪A‬‬ ‫ب( ﺗﺮﮐﯿﺐ ﺧﻄﯽ ﺗﻠﻔﯿﻘﯽ)ﭘﯿﭽﯿﺪه(‪ :20‬در اﯾﻦ ﻣﺪل دراﯾﻪ ﻫﺎي ﻣﺎﺗﺮﯾﺲ ﺗﺮﮐﯿﺐ ﮐﻨﻨﺪه‬
‫ﻣﺎﻧﻨﺪ ﺣﺎﻟﺖ ﺗﺮﮐﯿﺐ ﺧﻄﯽ ﻟﺤﻈﻪ اي‪ ،‬ﺷﺎﻣﻞ ﺿﺮاﯾﺐ ﻓﯿﻠﺘﺮﻫﺎي ﺧﻄﯽ ﻧﺎﻣﺘﻐﯿﺮ ﺑﺎ زﻣﺎن ‪ (LTI)21‬ﻣﯽ ﺑﺎﺷﻨﺪ‪ .‬ﯾﻌﻨﯽ‬
‫ﺑﺪﺳﺖ ﻣﯽ آﯾﺪ ﮐﻪ ﺑﺎﻋﺚ ﻣﯽ ﺷﻮد‬ ‫ﻣﺎﺗﺮﯾﺲ ‪A‬‬ ‫ﺳﯿﮕﻨﺎل ﻫﺎي ﺗﺮﮐﯿﺒﯽ از ﺣﺎﺻﻞ ﮐﺎﻧﻮﻟﻮﺷﻦ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ و‬
‫اﯾﻨﮕﻮﻧﻪ ﺗﺮﮐﯿﺐ ﻫﺎ ﭘﯿﭽﯿﺪه ﺗﺮ ﺑﻮده و ﺑﻪ ﻣﺮاﺗﺐ ﺑﺮاي ﺟﺪاﺳﺎزي ﺳﯿﮕﻨﺎ ل ﻫﺎي ﻣﺨﻠﻮط ﺑﻪ روش ﻫﺎي ﭘﯿﭽﯿﺪه ﺗﺮي‬
‫ﻧﯿﺎز داﺷﺘﻪ ﺑﺎﺷﻨﺪ‪:‬‬

‫‪X  A  Z  S‬‬ ‫)‪(3-1‬‬

‫‪17‬‬
‫‪Mutual Information‬‬

‫‪18‬‬
‫‪Information Maximization‬‬

‫‪19‬‬
‫‪Maximum likelihood‬‬

‫‪20‬‬
‫‪Convolutive linear‬‬

‫‪21‬‬
‫‪Linear time invariant filter‬‬

‫‪6‬‬
‫در اﯾﻦ ﻣﺪل ﺗﺎﺧﯿﺮﻫﺎي ﻣﻨﺎﺑﻊ اوﻟﯿﻪ در ﻣﺴﯿﺮﻫﺎي ﻣﺘﻔﺎوت رﺳﯿﺪن ﺑﻪ ﺳﻨﺴﻮرﻫﺎي ﺗﻌﺒﯿﻪ ﺷﺪه در ﻣﺤﯿﻂ‪ ،‬در ﭘﺎﺳﺦ‬

‫ﺿﺮﺑﻪ اﺗﺎق و ﻫﻤﭽﻨﯿﻦ ﭘﮋواك ﻫﺎي ﻣﺨﺘﻠﻒ ﻟﺤﺎظ ﻣﯽ ﺷﻮد‪.‬‬

‫ج( ﺗﺮﮐﯿﺐ ﻏﯿﺮﺧﻄﯽ‪ :‬اﯾﻦ ﻣﺪل ﻣﺎﻧﻨﺪ ﺣﺎﻟﺖ ﺗﺮﮐﯿﺐ ﺧﻄﯽ ﻟﺤﻈﻪ اي ﺑﻮده ﺑﺎ اﯾﻦ ﺗﻔﺎوت ﮐﻪ ﺑﺎ ﺳﻨﺴﻮرﻫﺎي ﻏﯿﺮﺧﻄﯽ‬
‫روﺑﺮو ﻫﺴﺘﯿﻢ‪ .‬در اﯾﻦ ﻣﺪل ﻧﯿﺰ ﻣﯽ ﺗﻮان ﺑﺎ ﮐﺎﻫﺶ واﺑﺴﺘﮕﯽ ﺧﺮوﺟﯽ ﻫﺎ ﺑﻪ ﻣﻨﺎﺑﻊ اﺻﻠﯽ دﺳﺖ ﭘﯿﺪا ﮐﺮد‪.‬‬

‫د( ﺗﺮﮐﯿﺐ ﻫﺎي ﻏﯿﺮ ﺧﻄﯽ ﺗﻠﻔﯿﻘﯽ‪ :‬اﯾﻦ ﻣﺪل ﻋﻤﻮﻣﯽ ﺗﺮﯾﻦ ﻣﺪل ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﮐﻮر ﻣﯽ ﺑﺎﺷﺪ‪ .‬در اﯾﻦ ﺣﺎﻟﺖ‬
‫ﻋﻼه ﺑﺮ اﯾﻨﮑﻪ ﺳﻨﺴﻮرﻫﺎ ﻏﯿﺮﺧﻄﯽ ﻫﺴﺘﻨﺪ ﺑﻠﮑﻪ ﺗﺮﮐﯿﺐ ﺳﯿﮕﻨﺎل ﻫﺎ ﻧﯿﺰ ﺑﻪ ﺻﻮرت ﺗﻠﻔﯿﻘﯽ اﻧﺠﺎم ﻣﯽ ﺷﻮد‪ .‬ﯾﻌﻨﯽ‬
‫اﻋﺪاد اﺳﮑﺎﻟﺮ ﻧﺒﻮده ﺑﻠﮑﻪ ﺷﺎﻣﻞ ﺿﺮاﯾﺐ ﻓﯿﻠﺘﺮ ‪ LTI‬ﺧﻮاﻫﺪ ﺑﻮد‪.‬‬ ‫‪A‬‬ ‫دراﯾﻪ ﻫﺎي ﻣﺎﺗﺮﯾﺲ ﺗﺮﮐﯿﺐ ﮐﻨﻨﺪه‬
‫اﺳﺘﻔﺎده از ﻫﺮ ﯾﮏ از ﻣﺪل ﻫﺎ و ﺣﺎﻻت ذﮐﺮ ﺷﺪه ﺑﻪ ﺷﺮاﯾﻂ ﻣﺴﺌﻠﻪ و ﻣﺤﯿﻄﯽ ﮐﻪ ﺗﺮﮐﯿﺐ ﺳﯿﮕﻨﺎل ﻫﺎي اوﻟﯿﻪ در‬
‫آن ﺻﻮرت ﻣﯽ ﮔﯿﺮد ﺑﺴﺘﮕﯽ دارد‪ .‬در ﻫﺮ ﺻﻮرت ﻓﺮﺿﯿﺎت اوﻟﯿﻪ اي در ﻫﺮ ﻣﺪل وﺟﻮد دارد ﮐﻪ اﺳﺘﻔﺎده از آن‬
‫ﻣﺪل ﺑﺮاي ﺣﻞ ﻣﺴﺌﻠﻪ را ﺳﺎده ﺗﺮ ﻣﯽ ﺳﺎزد‪.‬‬

‫ﺗﻌﺪاد ﺳﯿﮕﻨﺎ ل ﻫﺎي ﻣﻨﺒﻊ و ﺳﻨﺴﻮرﻫﺎي ﮔﯿﺮﻧﺪه‬ ‫‪.2,3‬‬

‫ﺑﺮاي ﺗﻌﺪاد ‪ N‬ﻣﻨﺒﻊ اﺻﻠﯽ و ‪ M‬ﮔﯿﺮﻧﺪه‪ ،‬ﺳﻪ ﺣﺎﻟﺖ را ﻣﯽ ﺗﻮان ﺑﺮرﺳﯽ ﮐﺮد ‪:‬‬

‫‪ ‬اﮔﺮ ﺗﻌﺪاد ﺳﻨﺴﻮرﻫﺎ ﺑﺎ ﺗﻌﺪاد ﻣﻨﺎﺑﻊ ﺑﺮاﺑﺮ ﺑﺎﺷﺪ )‪Critically-determined (M=N‬‬

‫‪ ‬اﮔﺮ ﺗﻌﺪاد ﺳﻨﺴﻮرﻫﺎ از ﺗﻌﺪاد ﻣﻨﺎﺑﻊ ﮐﻤﺘﺮ ﺑﺎﺷﺪ )‪Under-determined (M<N‬‬

‫‪ ‬اﮔﺮ ﺗﻌﺪاد ﺳﻨﺴﻮرﻫﺎ از ﺗﻌﺪاد ﻣﻨﺎﺑﻊ ﺑﯿﺸﺘﺮ ﺑﺎﺷﺪ )‪Over-determined (M>N‬‬

‫ﯾﮑﯽ از ﻧﮑﺎت اﺳﺎﺳﯽ ﮐﻪ در ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﮐﻮر ﻧﻘﺶ ﻣﻬﻤﯽ را ﺑﺎزي ﻣﯽ ﮐﻨﺪ‪ ،‬ﻣﯿﻨﯿﻤﻢ ﻣﻘﺪار ﻧﺴﺒﺖ ﺗﻌﺪاد‬
‫ﺳﻨﺴﻮرﻫﺎ ﺑﻪ ﺗﻌﺪاد ﻣﻨﺎﺑﻊ ﻣﯽ ﺑﺎﺷﺪ‪ .‬در اﮐﺜﺮ ﻣﺴﺎﺋﻞ ﺟﺪاﺳﺎزي ﻓﺮض ﻣﯽ ﺷﻮد ﮐﻪ ﺗﻌﺪاد ﺳﻨﺴﻮرﻫﺎ ﺑﯿﺸﺘﺮ و ﯾﺎ‬
‫ﻣﺴﺎوي ﺗﻌﺪاد ﻣﻨﺎﺑﻊ ﻣﯽ ﺑﺎﺷﺪ‪ .‬ﻫﻤﭽﻨﯿﻦ در اﺑﺘﺪاي اﻟﮕﻮرﯾﺘﻢ ﺗﻌﺪاد ﻣﻨﺎﺑﻊ ﻣﺸﺨﺺ ﻣﯽ ﺑﺎﺷﺪ و ﯾﺎ در ﺣﯿﻦ اﺟﺮاي‬
‫اﻟﮕﻮرﯾﺘﻢ ﺗﺨﻤﯿﻦ زده ﻣﯽ ﺷﻮد‪ .‬اﯾﻦ ﻓﺮﺿﯿﺎت در آﺳﺎن ﺳﺎﺧﺘﻦ ﺷﯿﻮه ﺣﻞ ﻣﺴﺌﻠﻪ ﻧﻘﺶ ﺑﻪ ﺳﺰاﯾﯽ ﺧﻮاﻫﻨﺪ داﺷﺖ‪.‬‬
‫ﺑﺮاي ﺣﺎﻟﺘﯽ ﮐﻪ ﺗﻌﺪاد ﺳﻨﺴﻮرﻫﺎ ﺑﺰرﮔﺘﺮ و ﯾﺎ ﻣﺴﺎوي ﺗﻌﺪاد ﻣﻨﺎﺑﻊ اوﻟﯿﻪ ﻣﯽ ﺑﺎﺷﺪ ﻣﺴﺌﻠﻪ ﺑﻪ راﺣﺘﯽ ﺑﺮاي ﻫﺮ ﯾﮏ‬
‫از ﻣﺪل ﻫﺎي ذﮐﺮ ﺷﺪه ﻗﺎﺑﻞ ﺣﻞ اﺳﺖ‪ .‬در وﺿﻌﯿﺘﯽ ﮐﻪ ﺗﻌﺪاد ﺳﻨﺴﻮرﻫﺎ از ﺗﻌﺪاد ﻣﻨﺎﺑﻊ ﮐﻤﺘﺮ ﺑﺎﺷﺪ ﻣﺴﺌﻠﻪ ﭘﯿﭽﯿﺪه‬
‫ﺗﺮ ﺧﻮاﻫﺪ ﺑﻮد‪ .‬ﺑﺮرﺳﯽ ﻫﺎي اﻧﺠﺎم ﺷﺪه ﻧﺸﺎن ﻣﯽ دﻫﺪ ﮐﻪ در اﯾﻦ ﺷﺮاﯾﻂ ﻧﯿﺰ ﻣﺴﺌﻠﻪ ﻗﺎﺑﻞ ﺣﻞ اﺳﺖ‪.‬‬

‫‪7‬‬
‫ﺷﺮاﯾﻂ ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﮐﻮر ﻣﻨﺎﺑﻊ‬ ‫‪.2,4‬‬

‫ﺷﺮاﯾﻂ اﺳﺎﺳﯽ ﮐﻪ ﺑﺎﯾﺪ در ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﮐﻮر رﻋﺎﯾﺖ ﺷﻮد ﺑﻪ ﺻﻮرت زﯾﺮ ﻣﯽ ﺑﺎﺷﺪ‪:‬‬
‫‪ ‬ﻣﻨﺎﺑﻊ ورودي ﺑﺎﯾﺪ ﺑﻪ ﻃﻮر ﻣﺘﻘﺎﺑﻞ اﺳﺘﻘﻼل آﻣﺎري داﺷﺘﻪ ﺑﺎﺷﻨﺪ‪.‬‬
‫‪ ‬ﺣﺪاﮐﺜﺮ ﯾﮑﯽ از ﻣﻨﺎﺑﻊ ﺑﺎﯾﺪ ﺗﻮزﯾﻊ ﮔﻮﺳﯿﻦ داﺷﺘﻪ ﺑﺎﺷﺪ‪.‬‬
‫‪ ‬ﻣﺎﺗﺮﯾﺲ ﺗﺮﮐﯿﺐ و ﺗﻔﮑﯿﮏ ‪ A‬و ‪ B‬ﻫﺮ دو ﺑﺎﯾﺪ ﺗﻮاﺑﻌﯽ ﺧﻄﯽ ﺑﺎﺷﻨﺪ‪.‬‬

‫ﮐﺎرﺑﺮدﻫﺎي ‪ BSS‬در ﭘﺮدازش‬ ‫‪.2,5‬‬

‫ﻣﺴﺎﻟﻪ ‪ BSS‬ﺑﻪ ﻋﻨﻮان ﻣﺒﺤﺚ ﺟﺪﯾﺪي در ﭘﺮدازش ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﺨﺘﻠﻒ ﺗﺎﮐﻨﻮن در ﮐﺎرﺑﺮدﻫﺎي ﻣﺨﺘﻠﻔﯽ ﻣﻮرد‬
‫اﺳﺘﻔﺎده ﻗﺮار ﮔﺮﻓﺘﻪ اﺳﺖ‪ .‬از آن ﺟﻤﻠﻪ ﻣﯽ ﺗﻮان ﺑﻪ ﮐﺎرﺑﺮدﻫﺎي زﯾﺮ اﺷﺎره ﮐﺮد‪:‬‬

‫‪ ‬رﻓﻊ ﻧﻮﯾﺰ از ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﺨﺘﻠﻒ )‪(Denoising‬‬

‫‪ ‬اﺳﺘﺨﺮاج وﯾﮋﮔﯽ در ﭘﺮدازش ﺳﯿﮕﻨﺎل و ﺗﺼﻮﯾﺮ‬


‫‪ ‬ﺟﺪاﺳﺎزي ﺗﺼﺎوﯾﺮ ﻣﺨﻠﻮط‬
‫‪ ‬اﺳﺘﻔﺎده در ﺟﺪاﺳﺎزي ﺳﯿﮕﻨﺎل ﻫﺎي ﭘﺰﺷﮑﯽ ﻣﺎﻧﻨﺪ ‪ ECG ،EEG‬و‪ MEG‬از آرﺗﯿﻔﮑﺖ ﻫﺎي ﻣﻮﺟﻮد در‬
‫ﺣﯿﻦ ﺿﺒﻂ اﯾﻦ ﺳﯿﮕﻨﺎل ﻫﺎ و ﯾﺎ ﺟﺪاﺳﺎزي ﺳﯿﮕﻨﺎل ‪ ECG‬ﺟﻨﯿﻦ از ﻣﺎدر و ﯾﺎ ﺣﺬف ﻧﻮﯾﺰ از ﻫﺮ ﯾﮏ از‬
‫آن ﻫﺎ‪.‬‬
‫‪ ‬ﺟﺪاﺳﺎزي ﺳﯿﮕﻨﺎل ﮔﻮﯾﻨﺪه در ﯾﮏ ﻣﺤﯿﻂ ﭘﺮ ﺳﺮ و ﺻﺪا)‪(Cocktail Party Problem‬‬

‫‪ ‬اﺳﺘﻔﺎده در ‪Watermarking‬‬

‫‪ ‬ﺟﺪاﺳﺎزي ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﺨﺎﺑﺮاﺗﯽ‬

‫ﭘﯿﭽﯿﺪﮔﯽ ﻫﺎ و ﻣﻮاﻧﻊ ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﮐﻮر‬ ‫‪.2,6‬‬

‫ﭼﻨﺪﯾﻦ ﭘﯿﭽﯿﺪﮔﯽ ذاﺗﯽ در ﻣﺪل ﺣﻞ ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﮐﻮر ﻣﻨﺎﺑﻊ وﺟﻮد دارد‪:‬‬
‫‪ (1‬ﻧﻤﯽ ﺗﻮان داﻣﻨﻪ ﺳﯿﮕﻨﺎل ﻫﺎي اوﻟﯿﻪ را ﺗﺨﻤﯿﻦ زد زﯾﺮا وارﯾﺎﻧﺲ ﯾﺎ اﻧﺮژي ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ﺑﺪﺳﺖ آﻣﺪه ﻗﺎﺑﻞ‬
‫ﺗﺸﺨﯿﺺ ﻧﯿﺴﺖ‪ .‬ﻋﻠﺖ اﯾﻦ ﻣﺴﺌﻠﻪ اﯾﻦ اﺳﺖ ﮐﻪ ﺗﻔﮑﯿﮏ در ﻣﻮرد ﻣﻘﺎدﯾﺮ ﻣﺎﺗﺮﯾﺲ ﺗﺮﮐﯿﺐ ‪ A‬و ﺳﯿﮕﻨﺎل ﻫﺎي اوﻟﯿﻪ‬

‫‪8‬‬
‫‪ S‬ﺑﻪ ﺻﻮرت ﮐﻮر اﻧﺠﺎم ﻣﯽ ﺷﻮد و ﻫﺮ ﺿﺮﯾﺐ ﻋﺪدي ‪  i‬ﻣﺮﺑﻮط ﺑﻪ ﯾﮑﯽ از ﻣﻨﺎﺑﻊ ‪ s i‬ﻣﯽ ﺗﻮاﻧﺪ ﺑﺎ ﺗﻘﺴﯿﻢ ﺳﺘﻮن‬
‫‪  i‬در ‪ A‬ﺑﻪ ﺻﻮرت زﯾﺮ ﺳﺎده ﻣﯽ ﺷﻮد‪:‬‬

‫‪x   ( i‬‬
‫‪1‬‬
‫) ‪)( i s i‬‬ ‫)‪(4-1‬‬
‫‪i‬‬ ‫‪i‬‬

‫در ﻧﺘﯿﺠﻪ ﻣﻤﮑﻦ اﺳﺖ ﻣﻘﺎدﯾﺮ ﺛﺎﺑﺘﯽ ﺑﻪ اﺷﺘﺒﺎه ﺑﺮاي داﻣﻨﻪ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﺴﺘﻘﻞ ﺗﺨﻤﯿﻨﯽ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﻮد‪.‬‬
‫ﺑﻨﺎﺑﺮاﯾﻦ ﻣﻨﺎﺳﺐ ﺗﺮﯾﻦ راه ﻣﻤﮑﻦ اﯾﻦ اﺳﺖ ﮐﻪ ﻣﻘﺪار وارﯾﺎﻧﺲ واﺣﺪ ‪ E{S i 2 }  1‬ﺑﺮاي ﻣﺘﻐﯿﺮﻫﺎي ﺗﺼﺎدﻓﯽ ﺑﯿﺎن‬
‫ﺷﻮد‪.‬‬
‫‪ (2‬ﺑﺮﭼﺴﺐ و ﯾﺎ ﺗﺮﺗﯿﺐ ﻣﻮﻟﻔﻪ ﻫﺎي اﺳﺘﺨﺮاج ﺷﺪه از اﻟﮕﻮرﯾﺘﻢ ﻧﺴﺒﺖ ﺑﻪ ﺳﯿﮕﻨﺎل ﻫﺎي اوﻟﯿﻪ ﻣﺸﺨﺺ ﻧﯿﺴﺖ‪.‬‬
‫ﯾﻌﻨﯽ ﻫﺮ ﺟﺎﯾﮕﺸﺘﯽ از ﺳﯿﮕﻨﺎل ﻫﺎي ﺧﺮوﺟﯽ ﺑﺮاي ﯾﮏ راه ﺣﻞ ﻣﺴﺌﻠﻪ‪ ،‬ﻣﻨﺎﺳﺐ و ﻗﺎﺑﻞ ﻗﺒﻮل اﺳﺖ‪ .‬ﻫﻤﭽﻨﯿﻦ‬
‫ﺗﺸﺨﯿﺺ ﺗﺮﺗﯿﺐ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ ﺗﻨﻬﺎ ﺑﺎ ﻓﺮض ﺑﺪﺳﺖ آوردن اﺳﺘﻘﻼل ﻏﯿﺮ ﻣﻤﮑﻦ اﺳﺖ‪ ،‬زﯾﺮا ﺗﻮزﯾﻊ ﺳﯿﮕﻨﺎل‬
‫ﻫﺎ و ﻫﻤﭽﻨﯿﻦ ﺗﺎﺑﻊ ﺗﺮﮐﯿﺒﯽ آن ﻫﺎ ﻧﺎﻣﺸﺨﺺ اﺳﺖ‪ .‬ﺑﻨﺎﺑﺮاﯾﻦ ﻫﺮ ﺧﺮوﺟﯽ ﺷﺎﻣﻞ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ ﺗﺨﻤﯿﻨﯽ ﺑﻪ‬
‫ﻋﻨﻮان ﺟﻮاب ﺣﻞ ﻣﺴﺌﻠﻪ ﭘﺬﯾﺮﻓﺘﻪ ﻣﯽ ﺷﻮد و ﻧﻤﯽ ﺗﻮان ﺗﺮﺗﯿﺐ ﺳﯿﮕﻨﺎل ﻫﺎي ﺗﻔﮑﯿﮏ ﺷﺪه ﺧﺮوﺟﯽ را ﺗﻌﯿﯿﻦ‬
‫ﻧﻤﻮد زﯾﺮا ﺑﺎ ﻫﺮ ﺑﺎر اﺟﺮاي اﻟﮕﻮرﯾﺘﻢ ﺟﺪاﺳﺎزي ﺑﺎ ﯾﮏ ﺗﺮﺗﯿﺐ ﻣﺘﻔﺎوت ﺑﺮﺧﻮرد ﺧﻮاﻫﯿﻢ ﮐﺮد‪.‬‬
‫‪ (3‬ﺑﺮاي ﺗﻌﯿﯿﻦ ﺧﺮوﺟﯽ ﻫﺎي ﻣﺴﺘﻘﻞ ﺑﻪ ﻓﺮﺿﯿﺎت ﺑﯿﺸﺘﺮي ﻧﯿﺎز ﻣﯽ ﺑﺎﺷﺪ‪ .‬در ﻏﯿﺮ اﯾﻦ ﺻﻮرت در ﻋﻤﻞ ﻣﺴﺌﻠﻪ ﺑﺎ‬
‫ﻣﺸﮑﻼﺗﯽ ﻣﻮاﺟﻪ ﻣﯽ ﺷﻮد‪:‬‬

‫‪ ‬ﺣﻀﻮر ﻧﻮﯾﺰ ﻣﻌﻤﻮﻻ ﺑﻪ ﻃﻮر ﮔﺴﺘﺮده اي ﻋﻤﻠﮑﺮد ﺑﯿﺸﺘﺮ روش ﻫﺎي ﺗﻔﮑﯿﮏ ﻣﻮﺟﻮد را ﺗﺤﺖ ﺷﻌﺎع ﻗﺮار‬
‫ﻣﯽ دﻫﺪ‪.‬‬
‫‪ ‬اﻏﻠﺐ ﺗﻌﺪاد ﻣﻨﺎﺑﻊ ﻧﺎﻣﺸﺨﺺ اﺳﺖ و اﺣﺘﻤﺎﻷ در ﺣﯿﻦ اﺟﺮاي اﻟﮕﻮرﯾﺘﻢ ﺗﻐﯿﯿﺮ ﺧﻮاﻫﺪ ﮐﺮد‪.‬‬
‫‪ ‬ﺑﯿﺸﺘﺮ اﻟﮕﻮرﯾﺘﻢ ﻫﺎ و روش ﻫﺎي اراﺋﻪ ﺷﺪه ﺗﺎﮐﻨﻮن ﻧﺮخ ﻫﻤﮕﺮاﯾﯽ ﮐﻨﺪ ﻋﻼوه ﺑﺮ ﭘﯿﭽﯿﺪﮔﯽ ﻣﺤﺎﺳﺒﺎﺗﯽ‬
‫ﺑﺎﻻﯾﯽ دارﻧﺪ ﮐﻪ اﺳﺘﻔﺎده از آن ﻫﺎ را در ﮐﺎرﺑﺮدﻫﺎي ﻋﻤﻠﯽ ﺑﺎ ﻣﺸﮑﻞ ﻣﻮاﺟﻪ ﻣﯽ ﺳﺎزد‪.‬‬

‫ﺑﻨﺎﺑﺮاﯾﻦ ﻫﺮ روش ﻋﻤﻠﯽ ﺑﺎﯾﺪ در ﻣﻘﺎﺑﻞ ﻧﻮﯾﺰ ﺟﻤﻊ ﺷﻮﻧﺪه ﻣﻘﺎوم ﺑﺎﺷﺪ‪ .‬ﻫﻤﭽﻨﯿﻦ ﺑﺎﯾﺪ ﺗﻮان اﺿﺎﻓﻪ و ﯾﺎ ﮐﻢ ﮐﺮدن‬
‫ﯾﮏ ﻣﻨﺒﻊ را داﺷﺘﻪ ﺑﺎﺷﺪ و ﺑﻪ ﻃﻮر ﻣﻮﺛﺮ و ﺳﺎده اي ﻗﺎﺑﻞ اﺟﺮا ﺑﺎﺷﺪ‪.‬‬
‫در اﯾﻦ ﺑﺨﺶ ﻣﺪل ﻫﺎ‪ ،‬ﻓﺮﺿﯿﺎت و ﺷﺮاﯾﻂ ﻣﺴﺌﻠﻪ ‪ BSS‬ﺑﺮاي درك ﻣﻨﺎﺳﺐ ﻣﻔﺎﻫﯿﻢ آن ﻣﻮرد ﺑﺮﺳﯽ ﻗﺮار ﮔﺮﻓﺖ‪.‬‬
‫ﻫﻤﭽﻨﯿﻦ ﭘﯿﭽﯿﺪﮔﯽ ﻫﺎي ﻣﻮﺟﻮد در اﯾﻦ ﻣﺴﺌﻠﻪ ﺑﯿﺎن ﮔﺮدﯾﺪ‪ .‬ﻫﻤﭽﻨﯿﻦ ﻋﻠﺖ اﻧﺠﺎم روش ‪ BSS‬ﺑﺎ ذﮐﺮ ﮐﺎرﺑﺮدﻫﺎي‬

‫‪9‬‬
‫آن ﻣﻮرد ﻣﻄﺎﻟﻌﻪ ﻗﺮار ﮔﺮﻓﺖ در اداﻣﻪ ﺑﻪ ﺑﺮﺧﯽ از روش ﻫﺎي اﺳﺎﺳﯽ ﺣﻞ ﻣﺴﺌﻠﻪ ‪ BSS‬ﻣﺎﻧﻨﺪ اﻟﮕﻮرﯾﺘﻢ ﻫﺎي آﻧﺎﻟﯿﺰ‬
‫ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ )‪ ،FastICA ، (ICA‬ﻣﺎﮐﺰﯾﻤﻢ ﮐﺮﺗﻮﺳﯿﺲ ‪ INFOMAX ،‬و آﻧﺎﻟﯿﺰ ﻣﻮﻟﻔﻪ ﻫﺎي اﺳﺎﺳﯽ‬
‫ﭘﺮداﺧﺘﻪ ﻣﯽ ﺷﻮد‪.‬‬

‫اﺳﺘﻘﻼل ﻣﻮﻟﻔﻪ ﻫﺎي ﺳﯿﮕﻨﺎل و ﺗﻔﮑﯿﮏ ﮐﻮر ﻣﻨﺎﺑﻊ‬ ‫‪.2,7‬‬

‫از آﻧﺠﺎﯾﯿﮑﻪ ﻓﺮض اﺳﺎس در ﺣﻞ ﻣﺴﺌﻠﻪ ‪ BSS‬اﺳﺘﻘﻼل ﺗﺎ ﺣﺪ ﻣﻤﮑﻦ ﻣﻮﻟﻔﻪ ﻫﺎي ﺳﯿﮕﻨﺎل ﻫﺎي ﺧﺮوﺟﯽ اﻟﮕﻮرﯾﺘﻢ‬
‫ﻣﯽ ﺑﺎﺷﺪ‪ ،‬در اﯾﻦ ﺑﺨﺶ ﻗﺒﻞ از ﺑﺮرﺳﯽ روش ﻫﺎ و اﻟﮕﻮرﯾﺘﻢ ﻫﺎي ﻣﻄﺮح ﺷﺪه ﺑﺮاي ﺣﻞ ﻣﺴﺌﻠﻪ ‪ BSS‬ﺑﻪ آﺷﻨﺎﯾﯽ‬
‫ﺑﺎ اﺻﻄﻼﺣﺎﺗﯽ در اﯾﻦ ﻣﻮرد ﻣﺎﻧﻨﺪ ﮐﺮﺗﻮﺳﯿﺲ‪ ،‬آﻧﺘﺮوﭘﯽ‪ ،‬ﻧﮕﻨﺘﺮوﭘﯽ‪ ،‬اﻃﻼﻋﺎت ﻣﺘﻘﺎﺑﻞ‪ ،‬ﻣﺎﺗﺮﯾﺲ ﻫﻤﺒﺴﺘﮕﯽ و ﻏﯿﺮه‬
‫ﻣﯽ ﭘﺮدازﯾﻢ‪ .‬ﻫﻤﭽﻨﯿﻦ ﭘﯿﺶ ﭘﺮدازش ﻫﺎي ﻻزم ﺑﺮاي ﺣﻞ اﯾﻦ ﻣﺴﺌﻠﻪ ﻣﻮرد ﺑﺮرﺳﯽ ﻗﺮار ﻣﯽ ﮔﯿﺮد‪.‬‬

‫‪ .2,7,1‬اﺳﺘﻘﻼل ﻣﻮﻟﻔﻪ ﻫﺎ در ﺳﯿﮕﻨﺎل‬

‫ﯾﮑﯽ از ﻓﺮﺿﯿﺎت اﺳﺎﺳﯽ ﻣﺴﺌﻠﻪ ‪ BSS‬اﯾﻦ اﺳﺖ ﮐﻪ ﺳﯿﮕﻨﺎل ﻫﺎي اوﻟﯿﻪ ﺑﺎﯾﺪ از اﺳﺘﻘﻼل آﻣﺎري ﻧﺴﺒﺖ ﺑﻪ ﯾﮑﺪﯾﮕﺮ‬
‫ﺑﺮﺧﻮردار ﺑﺎﺷﻨﺪ‪ .‬ﯾﻌﻨﯽ ﻫﺮ ﯾﮏ از ﻣﻨﺎﺑﻊ ﻓﯿﺰﯾﮑﯽ ﻣﺠﺰاﯾﯽ ﺗﻮﻟﯿﺪ ﺷﻮﻧﺪ‪ .‬ﺑﺮاي ﺗﻮﺿﯿﺤﺎت ﺑﯿﺸﺘﺮ دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‬
‫اﺳﮑﺎﻟﺮ ‪ x 1‬و ‪ x 2‬را در ﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ‪ .‬اﮔﺮ ‪ p  x 1 , x 2 ‬ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺗﻮام اﯾﻦ دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺑﺎﺷﺪ‪،‬‬
‫ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ اول از راﺑﻄﻪ زﯾﺮ ﺑﺪﺳﺖ ﻣﯽ آﯾﺪ‪:‬‬

‫‪p 1  x 1    p  x 1 , x 2  dx 2‬‬ ‫)‪(5-1‬‬

‫ﻫﻤﭽﻨﯿﻦ ﺑﺮاي ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ دوم ﺧﻮاﻫﯿﻢ داﺷﺖ‪:‬‬

‫‪p 2  x 2    p  x 1 , x 2  dx 1‬‬ ‫)‪(6-1‬‬

‫از آﻧﺠﺎﯾﯿﮑﻪ ﺑﺮاي اﯾﻦ ﻣﺘﻐﯿﺮﻫﺎي ﺗﺼﺎدﻓﯽ دارﯾﻢ ‪  p(x 1 )dx 1  1‬و ‪ ،  p(x 2 )dx 2  1‬ﺑﻨﺎﺑﺮاﯾﻦ در ﺻﻮرﺗﯽ اﯾﻦ‬
‫دو ﻣﺘﻐﯿﺮ ﻣﺴﺘﻘﻞ ﺧﻮاﻫﻨﺪ ﺑﻮد ﮐﻪ اﮔﺮ و ﺗﻨﻬﺎ اﮔﺮ ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺗﻮام آﻧﻬﺎ ﺑﺮاﺑﺮ ﺑﺎ ﺣﺎﺻﻞ ﺿﺮب ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ‬
‫اﺣﺘﻤﺎل ﻫﺮ ﯾﮏ از آن ﻫﺎ ﺷﻮد‪ .‬ﯾﻌﻨﯽ‪:‬‬

‫‪10‬‬
‫‪p  x 1 , x 2   p 1  x 1  .p 2  x 2 ‬‬ ‫)‪(7-1‬‬

‫ﮐﻪ ﻣﯽ ﺗﻮان اﯾﻦ ﺗﻌﺮﯾﻒ را ﺑﺮاي ‪ n‬ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺗﻌﻤﯿﻢ داد‪:‬‬

‫‪p  x 1 , x 2   p  x 1  .p  x 2   p  x 1    p  x 1 , x 2  dx 2   p  x 1  p  x 2  dx 2 ‬‬
‫‪p  x 1   p  x 2  dx 2  p  x 1 ‬‬ ‫)‪(8-1‬‬
‫‪‬‬
‫‪1‬‬

‫در واﻗﻊ ﺗﻮاﻧﺎﯾﯽ ﺑﺮﺧﯽ از روش ﻫﺎي ﺟﺪاﺳﺎزي ﺳﯿﮕﻨﺎل ﻫﺎ ﻣﺎﻧﻨﺪ ‪ ICA‬ﺑﻪ اﯾﻦ ﻣﺴﺌﻠﻪ واﺑﺴﺘﻪ اﺳﺖ ﮐﻪ ﺗﻤﺎﻣﯽ‬
‫ﺳﯿﮕﻨﺎل ﻫﺎ ﺑﺎﯾﺪ از ﻣﻨﺎﺑﻊ ﻓﯿﺰﯾﮑﯽ ﻣﺠﺰا ﺗﻮﻟﯿﺪ ﺷﻮﻧﺪ و ﻣﺴﺘﻘﻞ از ﯾﮑﺪﯾﮕﺮ ﺑﺎﺷﻨﺪ‪ .‬ﯾﻌﻨﯽ داﺷﺘﻦ اﻃﻼﻋﺎﺗﯽ از ﯾﮏ‬
‫ﺳﯿﮕﻨﺎل‪ ،‬اﻃﻼﻋﺎﺗﯽ از ﺳﯿﮕﻨﺎل ﻫﺎي دﯾﮕﺮ را در اﺧﺘﯿﺎر ﻧﻤﯽ ﮔﺬارد‪.‬‬

‫‪ .2,7,2‬ﻧﺎﻫﻤﺒﺴﺘﮕﯽ ﻣﺘﻐﯿﺮﻫﺎي ﺗﺼﺎدﻓﯽ‬

‫دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ x 1‬و ‪ x 2‬ﻧﺎﻫﻤﺒﺴﺘﻪ ﺧﻮاﻫﻨﺪ ﺑﻮد اﮔﺮ ﻣﻘﺪار ﮐﻮوارﯾﺎﻧﺲ آن ﻫﺎ ﺑﺮاﺑﺮ ﺑﺎ ﺻﻔﺮ ﺑﺎﺷﺪ‪ .‬ﯾﻌﻨﯽ‪:‬‬
‫)‪(9-1‬‬
‫‪Cov  x 1 , x 2   E x 1 , x 2   E x 1 E x 2   0‬‬

‫ﻣﯽ ﺗﻮان ﮔﻔﺖ ﮐﻪ اﮔﺮ دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﻧﺎﻫﻤﺒﺴﺘﻪ ﺑﺎﺷﻨﺪ‪ ،‬ﻣﺴﺘﻘﻞ ﻧﯿﺴﺘﻨﺪ اﻣﺎ اﮔﺮ اﺳﺘﻘﻼل داﺷﺘﻪ ﺑﺎﺷﻨﺪ‪،‬‬
‫ﻧﺎﻫﻤﺒﺴﺘﻪ ﺧﻮاﻫﻨﺪ ﺑﻮد‪.‬‬

‫ﻣﺘﻐﯿﺮﻫﺎي ﮔﻮﺳﯽ‪ 22‬و ﻏﯿﺮ ﮔﻮﺳﯽ‬ ‫‪.2,8‬‬

‫ﺗﻘﺴﯿﻢ ﻣﻨﺎﺑﻊ ﺑﻪ دو ﻗﺴﻤﺖ زﯾﺮ ﮔﻮﺳﯿﻦ و ﻓﻮق ﮔﻮﺳﯿﻦ ﺑﺴﯿﺎر ﺣﺎﺋﺰ اﻫﻤﯿﺖ اﺳﺖ‪ ،‬ﭼﻮن ﻗﺎﺑﻠﯿﺖ ﺗﻔﮑﯿﮏ ﺑﺴﯿﺎري‬
‫از اﻟﮕﻮرﯾﺘﻢ ﻫﺎي ﺗﻔﮑﯿﮏ ﻣﻨﺎﺑﻊ ﺑﻪ اﯾﻦ ﻣﺴﺌﻠﻪ ﺑﺴﺘﮕﯽ دارد‪ .‬در ﺑﻪ ﮐﺎر ﮔﯿﺮي روش ‪ ،ICA‬ﺗﻮزﯾﻊ ﺳﯿﮕﻨﺎل ﻣﻨﺎﺑﻊ‬
‫ﻧﺒﺎﯾﺪ ﮔﻮﺳﯽ ﺑﺎﺷﺪ و اﯾﻦ اﻣﺮ ﺑﺮاي روش ‪ ICA‬ﯾﮏ ﻣﺤﺪودﯾﺖ اﺳﺎﺳﯽ ﺑﻪ ﺷﻤﺎر ﻣﯽ آﯾﺪ‪ .‬ﺑﺮاي درك ﺑﻬﺘﺮ ﻋﻠﺖ‬
‫اﯾﻦ ﻋﺪم وﺟﻮد ﻣﺘﻐﯿﺮﻫﺎي ﮔﻮﺳﯽ‪ ،‬ﻻزم اﺳﺖ در اﺑﺘﺪا ﺑﺎ ﺑﺮﺧﯽ ﻣﻔﺎﻫﯿﻢ ﻗﺎﺑﻞ ﺗﻮﺟﻪ ﮐﻪ در زﯾﺮ ﺑﻪ آﻧﻬﺎ اﺷﺎره ﺷﺪه‬
‫اﺳﺖ آﺷﻨﺎ ﺷﻮﯾﻢ‪.‬‬

‫‪22‬‬
‫‪Gaussian‬‬

‫‪11‬‬
‫‪23‬‬
‫ﮐﻮﻣﻮﻻن‬ ‫‪.2,9‬‬

‫ﺗﺎﺑﻊ ﻣﺸﺨﺼﻪ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ x‬ﺑﺎ ‪ f  t ‬ﻧﺸﺎن داده ﻣﯽ ﺷﻮد‪:‬‬

‫‪f  t   E exp  tx ‬‬ ‫)‪(10-1‬‬

‫ﮐﻪ ﺑﺴﻂ ﻟﮕﺎرﯾﺘﻤﯽ اﯾﻦ ﺗﺎﺑﻊ ﺑﺮاﺳﺎس ﺳﺮي ﺗﯿﻠﻮر ﺑﻪ ﺻﻮرت زﯾﺮ ﻣﯽ ﺑﺎﺷﺪ‪:‬‬

‫‪log  f  t    k 1  t   k 2‬‬
‫‪t2‬‬ ‫‪tr‬‬
‫‪ ...  k r  ...‬‬
‫)‪(11-1‬‬
‫‪2‬‬ ‫!‪r‬‬

‫ﮐﻪ ﺑﻪ ﻫﺮ ﯾﮏ از ﺛﺎﺑﺖ ﻫﺎي ‪ k r‬ﮐﻮﻣﯿﻮﻟﻨﺖ ﮔﻔﺘﻪ ﻣﯽ ﺷﻮد‪ .‬ﮐﺎﻣﯿﻮﻟﻨﺖ ﻫﺎي اول ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ اﺳﮑﺎﻟﺮ ﺑ ﻪ‬
‫ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽ ﺷﻮد‪:‬‬

‫‪‬‬
‫‪k 1  E x , k 2  E x 2  , k 3  E x 3  , k 4  E x 4   3 E x 2 ‬‬ ‫‪‬‬
‫‪2‬‬
‫)‪(12-1‬‬

‫ﮐﻪ ‪ E x  mean  x ‬ﻣﯿﺎﻧﮕﯿﻦ ﻣﺘﻐﯿﺮﻫﺎي ﺗﺼﺎدﻓﯽ اﺳﺖ‪ .‬ﺑﻪ ﮐﺎﻣﯿﻮﻟﻨﺖ ﻣﺮﺗﺒﻪ ﭼﻬﺎرم ﮐﻪ ﻣﻌﯿﺎري اﺳﺎﺳﯽ ﺗﻌﯿﯿﻦ‬
‫ﮐﻨﻨﺪه وﯾﮋﮔﯽ ﻫﺎي آﻣﺎري ﺳﯿﮕﻨﺎل ﻫﺎ ﻣﯽ ﺑﺎﺷﺪ‪ ،‬ﮐﺸﯿﺪﮔﯽ )ﮐﺮﺗﻮﺳﯿﺲ( ﮔﻔﺘﻪ ﻣﯽ ﺷﻮد‪.‬‬

‫‪24‬‬
‫ﻣﯿﺰان اﻧﺤﺮاف ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺳﯿﮕﻨﺎل ﻫﺎ )ﭼﻮﻟﮕﯽ(‬ ‫‪.2,10‬‬

‫ﻣﯿﺰان اﻧﺤﺮاف ﯾﺎ ارﯾﺐ ﺑﻮدن ﺗﻮزﯾﻊ ﺳﯿﮕﻨﺎل ﻫﺎ ﻣﻌﯿﺎري ﺑﺮاي ﺳﻨﺠﺶ ﻋﺪم ﺗﻘﺎرن ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﯾﮏ ﻣﺘﻐﯿﺮ‬
‫ﺗﺼﺎدﻓﯽ ﻣﯽ ﺑﺎﺷﺪ ﮐﻪ ﻃﺒﻖ ﻣﻌﺎدﻟﻪ زﯾﺮ ﻣﺤﺎﺳﺒﻪ ﻣﯽ ﮔﺮدد‪:‬‬

‫‪s‬‬
‫‪k3‬‬ ‫)‪(13-1‬‬
‫‪3‬‬
‫ﮐﻪ ‪   E x 2   E x‬اﻧﺤﺮاف ﻣﻌﯿﺎر ﻣﺘﻐﯿﺮﻫﺎي ﺗﺼﺎدﻓﯽ اﺳﺖ‪ .‬در واﻗﻊ اﯾﻦ ﻣﻌﯿﺎر ﻧﺮﻣﺎﻟﯿﺰه ﺷﺪه ي ﮐﺎﻣﯿﻮﻟﻨﺖ‬
‫‪2‬‬

‫ﺳﻮم ﺳﯿﮕﻨﺎل ﻣﯽ ﺑﺎﺷﺪ‪ .‬در اﯾﻦ راﺑﻄﻪ ‪ σ‬اﻧﺤﺮاف ﻣﻌﯿﺎر ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺧﻮاﻫﺪ ﺑﻮد‪ .‬ﺑﺎ اﺳﺘﻔﺎده از اﯾﻦ راﺑﻄﻪ اﮔﺮ‬
‫‪PDF‬ﺳﯿﮕﻨﺎﻟﯽ ﻣﺘﻘﺎرن ﺑﺎﺷﺪ ﺣﺎﺻﻞ ﻋﺒﺎرت ﺑﺎﻻ ﺻﻔﺮ ﺷﺪه‪ ،‬در ﻏﯿﺮ اﯾﻦ ﺻﻮرت‪ ،‬ﻣﺜﺒﺖ ﺷﺪن ﯾﺎ ﻣﻨﻔﯽ ﺷﺪن آن‬
‫ﺣﺎﮐﯽ از ﺗﻤﺎﯾﻞ ‪ PDF‬ﺳﯿﮕﻨﺎل ﺑﻪ راﺳﺖ ﯾﺎ ﭼﭗ ﻣﯽ ﺑﺎﺷﺪ‪.‬‬

‫‪23‬‬
‫‪Cumulant‬‬

‫‪24‬‬
‫‪Skewness‬‬

‫‪12‬‬
‫ﮐﻮﻣﻮﻻن ﻣﺮﺗﺒﻪ ﭼﻬﺎر ﯾﺎ ﮐﺸﯿﺪﮔﯽ )ﮐﺮﺗﻮﺳﯿﺲ(‬ ‫‪.2,11‬‬

‫ﮐﻮﻣﻮﻻن ﻣﺮﺗﺒﻪ ﭼﻬﺎرم ﯾﺎ ﮐﺮﺗﻮﺳﯿﺲ ﯾﮑﯽ از ﻣﻌﯿﺎرﻫﺎي اﺻﻠﯽ راﯾﺞ ﺑﺮاي ﺳﻨﺠﺶ ﻣﯿﺰان ﮔﻮﺳﯽ ﺑﻮدن ﺗﻮزﯾﻊ ﯾﮏ‬
‫ﺳﯿﮕﻨﺎل ﻣﯽ ﺑﺎﺷﺪ‪ .‬ﻗﺎﺑﻞ اﺛﺒﺎت اﺳﺖ ﮐﻪ ﻣﻘﺪار ﮐﺮﺗﻮﺳﯿﺲ ﺻﻔﺮ ﺑﺮاي ﻣﺘﻐﯿﺮي ﮐﻪ از ﺗﻮزﯾﻊ ﮔﻮﺳﯽ ﺑﺮﺧﻮردار اﺳﺖ‬
‫اﺧﺘﺼﺎص ﻣﯽ ﯾﺎﺑﺪ‪ .‬در واﻗﻊ ﻫﺮ ﭼﻪ ﻗﺪرﻣﻄﻠﻖ ﮐﺮﺗﻮﺳﯿﺲ ﺑﻪ ﺻﻔﺮ ﻧﺰدﯾﮑﺘﺮ ﺑﺎﺷﺪ‪ ،‬آن ﻣﺘﻐﯿﺮ ﮔﻮﺳﯽ ﺗﺮ اﺳﺖ‪.‬‬
‫اﺻﻄﻼﺣﺎ ﺑﻪ ﻣﺘﻐﯿﺮي ﮐﻪ داراي ﮐﺮﺗﻮﺳﯿﺲ ﻣﺜﺒﺖ اﺳﺖ ﻓﻮق ﮔﻮﺳﯿﻦ‪ 25‬و ﻣﺘﻐﯿﺮي ﮐﻪ داراي ﮐﺮﺗﻮﺳﯿﺲ ﻣﻨﻔﯽ‬
‫اﺳﺖ زﯾﺮ ﮔﻮﺳﯿﻦ‪ 26‬ﮔﻔﺘﻪ ﻣﯽ ﺷﻮد‪ .‬ﺑﺮاي ﻣﺜﺎل ﺳﯿﮕﻨﺎل ﻫﺎي دﯾﺠﯿﺘﺎﻟﯽ ﻣﺨﺎﺑﺮاﺗﯽ اﻏﻠﺐ زﯾﺮﮔﻮﺳﯿﻦ و ﺳﯿﮕﻨﺎل‬
‫ﻫﺎي ﺻﻮﺗﯽ ﺳﯿﮕﻨﺎل ﻫﺎﯾﯽ ﻓﻮق ﮔﻮﺳﯿﻦ ﻣﯽ ﺑﺎﺷﻨﺪ‪ .‬ﻣﻌﻤﻮﻻ از راﺑﻄﻪ ﻧﺮﻣﺎﻟﯿﺰه ﺷﺪه ﺟﻬﺖ ﻣﺤﺎﺳﺒﻪ ﮐﺮﺗﻮﺳﯿﺲ‬
‫اﺳﺘﻔﺎده ﻣﯽ ﺷﻮد ﮐﻪ در اﯾﻦ ﺻﻮرت ﻣﻌﯿﺎر ﮔﻮﺳﯽ ﺑﻮدن ﻋﺪد ‪ 3‬ﺧﻮاﻫﺪ ﺑﻮد‪ .‬ﺑﺪان ﻣﻌﻨﯽ ﮐﻪ ﺳﯿﮕﻨﺎل ﻫﺎي ﮔﻮﺳﯽ‬
‫‪28‬‬
‫داراي ﮐﻮﺗﻮﺳﯿﺲ ‪ 3‬ﺧﻮاﻫﻨﺪ ﺑﻮد و ﺳﯿﮕﻨﺎل ﻫﺎي ﻓﻮق ﮔﻮﺳﯿﻦ‪ 27‬ﮐﺮﺗﻮﺳﯿﺲ ﺑﯿﺸﺘﺮ و ﺳﯿﮕﻨﺎل ﻫﺎي زﯾﺮ ﮔﻮﺳﯿﻦ‬
‫ﮐﺮﺗﻮﺳﯿﺲ ﮐﻤﺘﺮ از ‪ 3‬ﺧﻮاﻫﻨﺪ داﺷﺖ‪:‬‬

‫‪E x 4 ‬‬ ‫)‪(14-1‬‬


‫‪K 4 x ‬‬ ‫‪2‬‬
‫‪3‬‬
‫‪ E x ‬‬
‫‪2‬‬

‫راﺑﻄﻪ ﺑﺎﻻ در ﺻﻮرت ﺻﻔﺮ ﺑﻮدن ﻣﻘﺪار ﻣﯿﺎﻧﮕﯿﻦ ﺳﯿﮕﻨﺎل ﻫﺎ ﺑﺮاي ﺑﺪﺳﺖ آوردن ﮐﺮﺗﻮﺳﯿﺲ ﺑﺮﻗﺮار ﺧﻮاﻫﺪ ﺑﻮد‪.‬‬
‫ﻓﺮض ﺻﻔﺮ ﺑﻮدن ﻣﯿﺎﻧﮕﯿﻦ ﺳﯿﮕﻨﺎل ﻫﺎ ﻣﺤﺎﺳﺒﻪ ﮐﺮﺗﻮﺳﯿﺲ را ﺑﻪ ﻣﺮاﺗﺐ ﺳﺎده ﺗﺮ ﻣﯽ ﺳﺎزد‪ .‬ﺑﻄﻮرﯾﮑﻪ در ﺻﻮرت‬
‫ﻋﺪم ﺑﺮﻗﺮاري اﯾﻦ ﺷﺮط ﻣﻌﺎدﻟﻪ ﮐﺮﺗﻮﺳﯿﺲ ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﺒﺪﯾﻞ ﺧﻮاﻫﺪ ﺷﺪ ‪:‬‬

‫‪‬‬
‫‪E x 4   3 E x 2 ‬‬ ‫‪‬‬
‫‪2‬‬ ‫‪2‬‬
‫‪12  E x  E x 2  4E x E x3  6  E x‬‬
‫‪4‬‬
‫)‪(15-1‬‬
‫‪Kurt  x   k 4 ‬‬ ‫‪2‬‬
‫‪‬‬ ‫‪2‬‬
‫‪‬‬ ‫‪2‬‬
‫‪‬‬
‫‪3 E x 2 ‬‬ ‫‪‬‬ ‫‪‬‬ ‫‪E x 2 ‬‬ ‫‪‬‬ ‫‪‬‬ ‫‪‬‬
‫‪E x 2 ‬‬

‫‪25‬‬
‫‪Leptokurtic‬‬

‫‪26‬‬
‫‪Platkurtic‬‬

‫‪27‬‬
‫‪Supergaussian‬‬

‫‪28‬‬
‫‪Subgaussian‬‬

‫‪13‬‬
‫ﺳﯿﮕﻨﺎل ﻫﺎي ﮔﻮﺳﯽ داراي ﺗﻮزﯾﻊ زﻧﮕﻮﻟﻪ اي ﯾﺎ ﻧﺮﻣﺎل‪ ،29‬ﺳﯿﮕﻨﺎل ﻫﺎي زﯾﺮ ﮔﻮﺳﯿﻦ داراي ﺗﻮزﯾﻊ ﯾﮑﻨﻮاﺧﺖ و‬
‫ﺳﯿﮕﻨﺎل ﻫﺎي ﻓﻮق ﮔﻮﺳﯿﻦ داراي ﭘﯿﮏ ﺗﯿﺰﺗﺮي در ﻣﺮﮐﺰ و دﻣﯽ ﻃﻮﻻﻧﯽ ﺗﺮ ﻧﺴﺒﺖ ﺑﻪ ﺳﯿﮕﻨﺎل ﻫﺎي ﮔﻮﺳﯽ ﺧﻮاﻫﻨﺪ‬
‫ﺑﻮد‪.‬‬
‫ﺑﺎﯾﺪ ﺗﻮﺟﻪ داﺷﺖ ﮐﻪ داﺷﺘﻦ اﻃﻼﻋﺎت ﻣﺮﺗﺒﻪ ﺑﺎﻻ ﺑﺮاي ﺗﺨﻤﯿﻦ ﻣﺪل ﺗﻔﮑﯿﮏ ﮐﻮر اﻟﺰاﻣﯽ اﺳﺖ و اﯾﻦ ﻣﺴﺌﻠﻪ در‬
‫ﺻﻮرﺗﯽ اﺳﺖ ﮐﻪ ﮐﻮﻣﻮﻻن ﻫﺎي ﻣﺮﺗﺒﻪ ﺑﺎﻻﺗﺮ از دو ﺑﺮاي ﺗﻮزﯾﻊ ﻫﺎي ﮔﻮﺳﯽ ﺻﻔﺮ اﺳﺖ‪ .‬ﺑﻨﺎﺑﺮاﯾﻦ ﺣﺪاﮐﺜﺮ ﯾﮑﯽ از‬
‫ﻣﻨﺎﺑﻊ اوﻟﯿﻪ در ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﮐﻮر ﺑﺎﯾﺪ ﺑﻪ ﺻﻮرت ﮔﻮﺳﯽ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﻮد‪.‬‬

‫آﻧﺘﺮوﭘﯽ‬ ‫‪.2,12‬‬

‫ﯾﮑﯽ از ﻣﻔﺎﻫﯿﻢ ﻣﻬﻢ ﺗﺌﻮري اﻃﻼﻋﺎت‪ 30‬ﮐﻪ ﻣﯽ ﺗﻮاﻧﺪ ﻣﻌﯿﺎر ﻣﻬﻤﯽ ﺑﺮاي ﺗﻌﯿﯿﻦ ﻣﯿﺰان اﻃﻼﻋﺎت ﻣﻮﺟﻮد در ﻣﺘﻐﯿﺮﻫﺎ‬
‫ﺑﺎﺷﺪ‪ ،‬آﻧﺘﺮوﭘﯽ اﺳﺖ‪ .‬در واﻗﻊ آﻧﺘﺮوﭘﯽ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﻣﻌﯿﺎري ﺑﺮاي ﺗﻌﯿﯿﻦ ﻣﯿﺰان ﺗﺼﺎدﻓﯽ ﺑﻮدن ﻣﻮﻟﻔﻪ ﻫﺎي‬
‫ﯾﮏ ﻣﺘﻐﯿﺮ اﺳﺖ‪ .‬ﺑﻄﻮرﯾﮑﻪ ﻫﺮﭼﻪ ﯾﮏ ﺑﺮدار ﺗﺼﺎدﻓﯽ ﻏﯿﺮ ﻗﺎﺑﻞ ﭘﯿﺶ ﺑﯿﻨﯽ ﺗﺮ ﺑﺎﺷﺪ‪ ،‬آﻧﺘﺮوﭘﯽ آن ﺑﯿﺸﺘﺮ ﺧﻮاﻫﺪ ﺑﻮد‪.‬‬
‫ﺑﺮ ﻃﺒﻖ اﺻﻮل ﺗﺌﻮري اﻃﻼﻋﺎت ﻣﯽ ﺗﻮان ﻧﺸﺎن داد ﮐﻪ در ﻣﯿﺎن ﻫﻤﻪ ﻣﺘﻐﯿﺮﻫﺎي ﺗﺼﺎدﻓﯽ ﺑﺎ وارﯾﺎﻧﺲ واﺣﺪ‪،‬‬
‫ﺑﺰرﮔﺘﺮﯾﻦ آﻧﺘﺮوﭘﯽ ﻣﺘﻌﻠﻖ ﺑﻪ ﻣﺘﻐﯿﺮﻫﺎي ﮔﻮﺳﯽ ﻣﯽ ﺑﺎﺷﺪ ‪ .‬آﻧﺘﺮوﭘﯽ ﺗﻔﺎﺿﻠﯽ‪ 31‬ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ x‬ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ‬
‫اﺣﺘﻤﺎل ‪ p  x ‬ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽ ﺷﻮد‪:‬‬

‫‪H  x    p  x  log  p  x  ‬‬ ‫)‪(16-1‬‬


‫‪x‬‬

‫ﺑﻪ ﻣﻨﻈﻮر ﺑﺪﺳﺖ آوردن آﻧﺘﺮوﭘﯽ ﺑﯿﻦ دو ﺟﻔﺖ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ x 1‬و ‪ x 2‬ﺑﺎ داﺷﺘﻦ ‪ p  x, y ‬ﺑﻪ ﻋﻨﻮان ﺗﺎﺑﻊ‬
‫ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺗﻮام اﯾﻦ دو ﻣﺘﻐﯿﺮ‪ ،‬آﻧﺘﺮوﭘﯽ ﻣﺸﺘﺮك ﺑﯿﻦ دو ﻣﺘﻐﯿﺮ را ﺧﻮاﻫﯿﻢ داﺷﺖ ‪:‬‬

‫‪‬‬ ‫‪‬‬
‫‪H  x 1 , x 2     p  x 1 , x 2  log  p  x 1 , x 2    E log  p  x 1 , x 2  ‬‬ ‫)‪(17-1‬‬
‫‪x1 x 2‬‬

‫‪29‬‬
‫‪Normal‬‬

‫‪30‬‬
‫‪Information theory‬‬

‫‪31‬‬
‫‪Differential entropy‬‬

‫‪14‬‬
‫آﻧﺘﺮوﭘﯽ ﻣﻨﻔﯽ )ﻧﮕﻨﺘﺮوﭘﯽ(‬ ‫‪.2,13‬‬

‫ﯾﮑﯽ دﯾﮕﺮ از ﻣﻌﯿﺎرﻫﺎي ﻣﻮرد اﺳﺘﻔﺎده ﺑﺮاي ﺗﻌﯿﯿﻦ ﻣﯿﺰان ﮔﻮﺳﯽ ﺑﻮدن ﯾﮏ ﺳﯿﮕﻨﺎل‪ ،‬ﻧﮕﻨﺘﺮوﭘﯽ ﻣﯽ ﺑﺎﺷﺪ‪ .‬ﻣﺤﺎﺳﺒﻪ‬
‫ﻧﮕﻨﺘﺮوﭘﯽ ﺑﺮاي ﺗﻌﯿﯿﻦ ﻣﯿﺰان ﮔﻮﺳﯽ ﺑﻮدن ﺳﯿﮕﻨﺎل ﺑﺮ ﺣﺴﺐ آﻧﺘﺮوﭘﯽ ﺗﻔﺎﺿﻠﯽ ﺧﻮاﻫﺪ ﺑﻮد‪ .‬ﻧﮕﻨﺘﺮوﭘﯽ ﻫﻤﯿﺸﻪ ﻏﯿﺮ‬
‫ﻣﻨﻔﯽ ﺷﺪه و ﺗﻨﻬﺎ در ﺻﻮرت ﮔﻮﺳﯽ ﺑﻮدن ﺗﻮزﯾﻊ ‪ x‬ﺻﻔﺮ ﺧﻮاﻫﺪ ﺷﺪ‪ .‬ﻧﮕﻨﺘﺮوﭘﯽ ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽ ﺷﻮد ‪:‬‬

‫‪J  x   H  x Gaussian   H  x ‬‬ ‫)‪(18-1‬‬

‫ﮐﻪ ‪ x Gaussian‬ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﻮﺳﯽ ﺑﺎ ﻣﺎﺗﺮﯾﺲ ﻫﻤﺒﺴﺘﮕﯽ ﺑﺮاﺑﺮ ﺑﺎ ﻣﺎﺗﺮﯾﺲ ﻫﻤﺒﺴﺘﮕﯽ ‪ x‬اﺳﺖ‪ .‬ﺑﺮ ﻃﺒﻖ اﯾﻦ‬
‫راﺑﻄﻪ‪ ،‬ﻧﮕﻨﺘﺮوﭘﯽ ﺑﺮاي ﻣﺘﻐﯿﺮﻫﺎي ﮔﻮﺳﯽ ﺻﻔﺮ و ﺑﺮاي ﺳﺎﯾﺮ ﺗﻮزﯾﻊ ﺳﯿﮕﻨﺎل ﻫﺎ ﻣﻘﺪاري ﻣﺜﺒﺖ ﻣﯽ ﺑﺎﺷﺪ‪ .‬ﺑﻨﺎﺑﺮاﯾﻦ‬
‫ﻣﺘﻐﯿﺮ ﮔﻮﺳﯽ از ﺑﺰرﮔﺘﺮﯾﻦ آﻧﺘﺮوﭘﯽ ﺑﺮﺧﻮردار اﺳﺖ‪ .‬اﺳﺘﻔﺎده از راﺑﻄﻪ )‪ (18-1‬ﺟﻬﺖ ﻣﺤﺎﺳﺒﻪ ﻧﮕﻨﺘﺮوﭘﯽ ﻋﻤﻼ‬
‫دﺷﻮار اﺳﺖ زﯾﺮا ﺑﺮاي ﻣﺤﺎﺳﺒﻪ آن ﻧﯿﺎز ﺑﻪ ﺗﺨﻤﯿﻦ ‪ PDF‬ﺳﯿﮕﻨﺎل از روش ﻫﺎي ﺗﻘﺮﯾﺒﯽ ﻣﯽ ﺑﺎﺷﺪ ﮐﻪ ﺑﺎ ﻣﺸﮑﻼﺗﯽ‬
‫ﻫﻤﺮاه ﺧﻮاﻫﺪ ﺑﻮد‪ .‬ﺑﻨﺎﺑﺮاﯾﻦ ﺑﺎﯾﺪ از روش ﺳﺎده ﺗﺮي ﺟﻬﺖ ﺗﺨﻤﯿﻦ ﻧﮕﻨﺘﺮوﭘﯽ اﺳﺘﻔﺎده ﮐﺮد‪ .‬ﯾﮑﯽ از روش ﻫﺎي‬
‫ﺗﺨﻤﯿﻦ ﻧﮕﻨﺘﺮوﭘﯽ اﺳﺘﻔﺎده از ﻣﻤﺎن ﻫﺎ و ﮐﻮﻣﻮﻻن ﻫﺎي ﻣﺮاﺗﺐ ﺑﺎﻻ ﻣﯽ ﺑﺎﺷﺪ‪ .‬ﺑﻄﻮر ﻣﺜﺎل ﻣﯽ ﺗﻮان ﺗﻘﺮﯾﺐ زﯾﺮ را‬
‫در ﻧﻈﺮ ﮔﺮﻓﺖ ‪:‬‬

‫‪Jx ‬‬
‫‪1‬‬ ‫‪2‬‬ ‫‪1‬‬
‫‪E x 3  Kurt  x ‬‬
‫‪2‬‬ ‫)‪(19-1‬‬
‫‪12‬‬ ‫‪48‬‬

‫ﻣﻔﺎﻫﯿﻢ ﺗﺌﻮري اﻃﻼﻋﺎت‬ ‫‪.2,14‬‬

‫اﻃﻼﻋﺎت ﻣﺘﻘﺎﺑﻞ ‪ I‬ﺑﯿﻦ ‪ m‬ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ i  1,2,...,m‬ﺑﺎ اﺳﺘﻔﺎده از ﻣﻔﻬﻮم آﻧﺘﺮوﭘﯽ ﻣﻌﯿﺎري ﺟﻬﺖ اﻧﺪازه‬
‫ﮔﯿﺮي واﺑﺴﺘﮕﯽ ﺑﯿﻦ ﻣﺘﻐﯿﺮﻫﺎي ﺗﺼﺎدﻓﯽ ﻣﯽ ﺑﺎﺷﺪ و ﺑﻪ ﺻﻮرت زﯾﺮ ﻗﺎﺑﻞ ﺗﻌﺮﯾﻒ اﺳﺖ‪:‬‬

‫‪m‬‬
‫‪I  x 1 , x 2 ,...x m    H  x i   H  x ‬‬ ‫)‪(20-1‬‬
‫‪i 1‬‬

‫‪15‬‬
‫‪32‬‬
‫ﻗﻀﯿﻪ ﺣﺪ ﻣﺮﮐﺰي‬ ‫‪.2,15‬‬

‫ﻗﻀﯿﻪ ﺣﺪ ﻣﺮﮐﺰي ﯾﮑﯽ از ﻣﻬﻢ ﺗﺮﯾﻦ و ﮐﺎرﺑﺮدي ﺗﺮﯾﻦ ﻗﻀﺎﯾﺎﯾﯽ اﺳﺖ ﮐﻪ ﺑﻪ ﺣﻞ ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﮐﻮر ﮐﻤﮏ ﻣﯽ‬
‫ﮐﻨﺪ‪ .‬ﺑﺮ ﻃﺒﻖ اﯾﻦ ﻗﻀﯿﻪ ﺗﺮﮐﯿﺐ ﭼﻨﺪﯾﻦ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ داراي ﺗﻮزﯾﻌﯽ ﺧﻮاﻫﺪ ﺑﻮد ﮐﻪ ﻧﺴﺒﺖ ﺑﻪ ﻫﺮ ﯾﮏ از‬
‫ﻣﺘﻐﯿﺮﻫﺎي اوﻟﯿﻪ ﺑﻪ ﺗﻮزﯾﻊ ﮔﻮﺳﯽ ﻧﺰدﯾﮏ ﺗﺮ اﺳﺖ ‪.‬‬

‫ﻧﺘﯿﺠﻪ دﯾﮕﺮي ﮐﻪ از اﯾﻦ ﻗﻀﯿﻪ ﺑﺪﺳﺖ ﻣﯽ آﯾﺪ اﯾﻦ اﺳﺖ ﮐﻪ ﺗﺮﮐﯿﺐ ﯾﺎ ﻣﺠﻤﻮع ﭼﻨﺪ ﺳﯿﮕﻨﺎل ﮔﻮﺳﯽ ﺑﺎز ﻫﻢ‬
‫ﮔﻮﺳﯽ ﺧﻮاﻫﺪ ﺑﻮد‪ .‬در ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﮐﻮر‪ ،‬اﯾﻦ ﻣﺤﺪودﯾﺖ وﺟﻮد دارد ﮐﻪ ﺣﺪاﮐﺜﺮ ﯾﮑﯽ از ﻣﻨﺎﺑﻊ اوﻟﯿﻪ ﻣﯽ ﺗﻮاﻧﺪ‬
‫ﺗﻮزﯾﻊ ﮔﻮﺳﯿﻦ داﺷﺘﻪ ﺑﺎﺷﺪ و ﺑﻘﯿﻪ ﻣﻨﺎﺑﻊ ﺑﺎﯾﺪ ﻓﻮق ﮔﻮﺳﯿﻦ ﯾﺎ زﯾﺮﮔﻮﺳﯿﻦ ﺑﺎﺷﺪ‪ .‬اﯾﻦ ﻣﺴﺌﻠﻪ ﺑﻪ اﯾﻦ ﻋﻠﺖ اﺳﺖ ﮐﻪ‬
‫ﮐﻮﻣﻮﻻن ﻫﺎي ﻣﺮﺗﺒﻪ ﺑﯿﺸﺘﺮ از دو ﺑﺮاي ﺳﯿﮕﻨﺎل ﻫﺎي ﺑﺎ ﺗﻮزﯾﻊ ﮔﻮﺳﯽ‪ ،‬ﺻﻔﺮ اﺳﺖ‪ .‬زﯾﺮا ﻣﯿﺰان ارﯾﺐ ﺑﻮدن ﺳﯿﮕﻨﺎل‬
‫ﻫﺎي ﮔﻮﺳﯽ ﺑﻪ ﻋﻠﺖ ﺗﻘﺎرن ﺻﻔﺮ اﺳﺖ و اﯾﻦ ﻣﺴﺌﻠﻪ ﺑﺎﻋﺚ ﻣﯽ ﺷﻮد ﮐﻪ ﮐﺮﺗﻮﺳﯿﺲ اﯾﻦ ﺳﯿﮕﻨﺎل ﻫﺎ ﻧﯿﺰ ﺻﻔﺮ ﺑﺎﺷﺪ‪.‬‬
‫در اﯾﻦ ﺻﻮرت اﻃﻼﻋﺎت ﮐﻮﻣﻮﻻن ﻫﺎي ﻣﺮﺗﺒﻪ ﺑﺎﻻ ﮐﻪ ﺑﺮاي ﺗﺨﻤﯿﻦ ﺳﯿﮕﻨﺎل ﻫﺎي ﮐﻮر ﺿﺮوري اﺳﺖ از ﺑﯿﻦ ﻣﯽ‬
‫رود و ﻣﺤﺎﺳﺒﺎت ﺑﺮ ﻣﺒﻨﺎي اﺳﺘﻘﻼل ﺳﯿﮕﻨﺎل ﻫﺎ در روش ﻫﺎي ﻣﺨﺘﻠﻒ ﺑﺎ ﻣﺸﮑﻞ ﻣﻮاﺟﻪ ﻣﯽ ﺷﻮد‪.‬‬

‫ﺗﻔﮑﯿﮏ ﭘﺬﯾﺮي و ﻗﻮاﻧﯿﻦ ﺗﻔﮑﯿﮏ‬ ‫‪.2,16‬‬

‫ﺑﻪ ﻣﻨﻈﻮر اﻧﺠﺎم ﻋﻤﻞ ﺗﻔﮑﯿﮏ و ﺗﻌﯿﯿﻦ اﯾﻦ ﻣﺴﺌﻠﻪ ﮐﻪ آﯾﺎ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﺸﺎﻫﺪه اي ﻗﺎﺑﻞ ﺟﺪاﺷﺪن ﻫﺴﺘﻨﺪ ﯾﺎ ﻧﻪ‪،‬‬
‫ﺑﺎﯾﺪ ﺷﺮاﯾﻄﯽ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﻮد‪ .‬ﺗﻔﮑﯿﮏ ﭘﺬﯾﺮي در ﺣﺎﻟﺖ ﮐﻠﯽ ﺑﻪ دو ﺻﻮرت در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﻣﯽ ﺷﻮد ‪:‬‬
‫‪ ‬ﻣﻨﺎﺑﻊ ﻏﯿﺮ ﻫﻤﺒﺴﺘﻪ ‪ S i‬ﻗﺎﺑﻞ ﺟﺪاﺳﺎزي ﻫﺴﺘﻨﺪ اﮔﺮ ﺳﯿﮕﻨﺎل ﻫﺎي ‪ S i , i  1,..., n‬ﻏﯿﺮﻫﻤﺒﺴﺘﻪ ﺑﺎﺷﻨﺪ و‬
‫ﺑﻪ ازاي ‪   0‬داﺷﺘﻪ ﺑﺎﺷﯿﻢ‪:‬‬

‫])‪E[S i (t)S i (t  )] E[S j (t)S j (t  ‬‬ ‫)‪(21-1‬‬


‫‪‬‬ ‫‪,i j‬‬
‫] ‪E[S i (t) 2‬‬ ‫] ‪E[S j (t) 2‬‬

‫‪ ‬ﻣﻨﺎﺑﻊ ﻣﺴﺘﻘﻞ ‪ S i‬ﻗﺎﺑﻞ ﺟﺪاﺳﺎزي ﻫﺴﺘﻨﺪ اﮔﺮ ﺳﯿﮕﻨﺎل ﻫﺎي ‪ S i , i  1,..., n‬ﺑﻪ ﻃﻮر ﻣﺘﻘﺎﺑﻞ ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ‬
‫و ﺑﻪ ازاي ‪   0‬داﺷﺘﻪ ﺑﺎﺷﯿﻢ‪:‬‬

‫] ‪E[S i (t) 4‬‬ ‫] ‪E[S j (t) 4‬‬ ‫)‪(22-1‬‬


‫‪‬‬ ‫‪,i j‬‬
‫‪E[S i (t) 2 ] 2 E[S j (t) 2 ] 2‬‬

‫‪32‬‬
‫‪Central limit theorem‬‬

‫‪16‬‬
‫ﭘﯿﺶ ﭘﺮدازش ﻫﺎي ﻻزم ﺑﺮاي ﺣﻞ ﻣﺴﺌﻠﻪ ‪BSS‬‬ ‫‪.2,17‬‬

‫ﺑﻪ ﻣﻨﻈﻮر ﺳﺎده ﺳﺎزي اﻟﮕﻮرﯾﺘﻢ ﻫﺎي ﺟﺪاﺳﺎزي ﻣﻨﺎﺑﻊ ﮐﻪ ﺑﻪ ﺻﻮرت ﮐﻮر اﻧﺠﺎم ﻣﯽ ﺷﻮﻧﺪ‪ ،‬اﻧﺠﺎم ﯾﮏ ﺳﺮي ﭘﯿﺶ‬
‫ﭘﺮدازش ﻫﺎ ﺿﺮوري و ﻣﻔﯿﺪ ﻣﯽ ﺑﺎﺷﺪ‪ .‬اﯾﻦ ﭘﯿﺶ ﭘﺮدازش ﻫﺎ ﺑﺎ ﮐﺎﻫﺶ ﭘﺎراﻣﺘﺮﻫﺎي ﻣﺠﻬﻮل از ﭘﯿﭽﯿﺪﮔﯽ ﻣﺴﺌﻠﻪ‬
‫ﻣﯽ ﮐﺎﻫﻨﺪ و در ﻧﺘﯿﺠﻪ ﺳﺮﯾﻊ ﺗﺮ ﺑﻪ ﺑﻬﺘﺮﯾﻦ و ﺑﻬﯿﻨﻪ ﺗﺮﯾﻦ ﺟﻮاب ﻫﻤﮕﺮا ﻣﯽ ﺷﻮﻧﺪ‪ .‬در واﻗﻊ ﺑﻠﻮك دﯾﺎﮔﺮام ﮐﻠﯽ‬
‫ﺳﯿﺴﺘﻢ ﺗﺮﮐﯿﺐ و ﺗﻔﮑﯿﮏ ﮐﻮر ﺑﻪ ﺻﻮرت ﺷﮑﻞ ‪ 3-1‬ﻣﯽ ﺑﺎﺷﺪ‪.‬‬

‫‪A‬‬ ‫‪B‬‬
‫ﺳﯿﺴﺘﻢ ﺗﺮﮐﯿﺐ‬ ‫ﭘﯿﺶ ﭘﺮدازش‬ ‫ﺳﯿﺴﺘﻢ‬ ‫ﺑﺎزﯾﺎﺑﯽ‬
‫‪S‬‬ ‫‪x‬‬ ‫‪W‬‬ ‫‪Y‬‬
‫ﻧﺎﺷﻨﺎﺧﺘﻪ‬ ‫ﺳﯿﮕﻨﺎل ﻫﺎي‬ ‫ﺗﺸﺨﯿﺺ ﻣﺪل‬ ‫ﺳﯿﮕﻨﺎل ﻫﺎي‬
‫ﺳﯿﮕﻨﺎل ﻫﺎ‬ ‫ﺗﺮﮐﯿﺒﯽ‬ ‫ﺗﺮﮐﯿﺐ‬ ‫ﻣﻨﺒﻊ‬

‫ﺷﮑﻞ ‪ -3-1‬ﺑﻠﻮك دﯾﺎﮔﺮام ﺳﯿﺴﺘﻢ ﺗﻔﮑﯿﮏ ﮐﻮر ﻣﻨﺎﺑﻊ‬

‫‪33‬‬
‫ﻣﺮﮐﺰي ﺳﺎزي‬ ‫‪.2,18‬‬

‫ﯾﮑﯽ از اﺻﻠﯽ ﺗﺮﯾﻦ ﭘﯿﺶ ﭘﺮدازش ﻫﺎي ﻻزم ﺑﺮاي ﺣﻞ ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﮐﻮر ﻣﻨﺎﺑﻊ‪ ،‬ﻣﺮﮐﺰي ﺳﺎزي ﺳﯿﮕﻨﺎل ﻫﺎي‬
‫ﺗﺮﮐﯿﺒﯽ ﻗﺎﺑﻞ ﻣﺸﺎﻫﺪه ﻣﯽ ﺑﺎﺷﺪ‪ .‬در اﯾﻦ ﭘﯿﺶ ﭘﺮدازش ﻣﻘﺪار ﻣﯿﺎﻧﮕﯿﻦ ﺳﯿﮕﻨﺎل ﻫﺎي ﺗﺮﮐﯿﺒﯽ }‪ ، m  E{x‬از ﻫﺮ‬
‫ﺳﯿﮕﻨﺎل ﮐﻢ ﻣﯽ ﺷﻮد‪ .‬ﺑﻪ ﻃﻮرﯾﮑﻪ ﺳﯿﮕﻨﺎل ﻫﺎي ﺗﺮﮐﯿﺒﯽ ﺟﺪﯾﺪ ‪ x‬ﺑﺎ ﻣﯿﺎﻧﮕﯿﻦ ﺻﻔﺮ ﺑﺪﺳﺖ ﻣﯽ آﯾﻨﺪ‪ .‬ﺑﺎ اﻧﺠﺎم اﯾﻦ‬
‫ﻣﺮﺣﻠﻪ ﻓﺮض ﺑﺮ اﯾﻦ ﺧﻮاﻫﺪ ﺑﻮد ﮐﻪ ﻣﻨﺎﺑﻊ اﺻﻠﯽ داراي ﻣﯿﺎﻧﮕﯿﻦ ﺻﻔﺮ ﻣﯽ ﺑﺎﺷﻨﺪ‪ .‬اﯾﻦ ﻋﻤﻞ ﺑﺪان ﻋﻠﺖ اﺳﺖ ﮐﻪ‬
‫در ﺣﺎﻟﺖ ﮐﻠﯽ ﻣﻌﯿﺎر ﮐﺮﺗﻮﺳﯿﺲ از راﺑﻄﻪ زﯾﺮ ﺑﺪﺳﺖ ﻣﯽ آﯾﺪ‪:‬‬

‫‪2‬‬

‫‪Kurt  x  ‬‬
‫‪‬‬
‫‪E  x 4   3 E x 2 ‬‬ ‫‪‬‬ ‫‪‬‬
‫‪2‬‬
‫‪12  E x E x 2  4E x E x3  6  E x‬‬
‫‪‬‬
‫‪4‬‬

‫‪2‬‬ ‫‪2‬‬ ‫‪2‬‬


‫)‪(23-1‬‬
‫‪‬‬
‫‪3 E x 2 ‬‬ ‫‪‬‬ ‫‪‬‬ ‫‪E x 2 ‬‬ ‫‪‬‬ ‫‪‬‬
‫‪E x 2 ‬‬ ‫‪‬‬

‫‪33‬‬
‫‪Centering‬‬

‫‪17‬‬
‫ﻓﺮض ﺻﻔﺮ ﺑﻮدن ﻣﯿﺎﻧﮕﯿﻦ ﺳﯿﮕﻨﺎل ﻫﺎ ﻣﺤﺎﺳﺒﻪ ﮐﺮﺗﻮﺳﯿﺲ را ﺑﻪ ﻣﺮاﺗﺐ ﺳﺎده ﺗﺮ ﻣﯽ ﮐﻨﺪ ﺑﻄﻮرﯾﮑﻪ در ﺻﻮرت‬
‫اﻧﺠﺎم اﯾﻦ ﻣﺮﺣﻠﻪ راﺑﻄﻪ ﻗﺒﻞ ﺑﻪ ﺻﻮرت زﯾﺮ ﺳﺎده ﻣﯽ ﺷﻮد‪:‬‬

‫‪E x 4 ‬‬ ‫)‪(24-1‬‬


‫‪Kurt(x) ‬‬ ‫‪2‬‬
‫‪3‬‬
‫‪ E x  ‬‬
‫‪2‬‬

‫در اﻧﺘﻬﺎي اﻟﮕﻮرﯾﺘﻢ و ﺑﻌﺪ از ﺗﺨﻤﯿﻦ ﻣﺎﺗﺮﯾ ﺲ ﺟﺪاﺳﺎز‪ ،‬ﺑﺮاي ﺷﺒﯿﻪ ﮐﺮدن ﺳﯿﮕﻨﺎل ﻫﺎي ﺗﺨﻤﯿﻦ زده ﺷﺪه ﺑﻪ‬
‫ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ اﺻﻠﯽ‪ ،‬ﻣﻘﺪار ‪ A-1m‬ﺑﻪ اﯾﻦ ﻣﻨﺎﺑﻊ اﺿﺎﻓﻪ ﻣﯽ ﺷﻮد ﺗﺎ ﮐﻢ ﮐﺮدن ﻣﻘﺪار ﻣﯿﺎﻧﮕﯿﻦ در ﻣﺮﺣﻠﻪ‬
‫ﭘﯿﺶ ﭘﺮدازش ﺟﺒﺮان ﮔﺮدد ‪.‬‬

‫‪34‬‬
‫ﺳﻔﯿﺪﺳﺎزي‬ ‫‪.2,19‬‬

‫ﯾﮑﯽ دﯾﮕﺮ از ﭘﯿﺶ ﭘﺮدازش ﻫﺎي ﻣﻔﯿﺪ در اﻟﮕﻮرﯾﺘﻢ ﻫﺎي ﺗﻔﮑﯿﮏ ﮐﻮر‪ ،‬ﺳﻔﯿﺪﺳﺎزي ﯾﺎ ﮐﺮوي ﺳﺎزي ﺳﯿﮕﻨﺎل ﻫﺎي‬
‫ﺗﺮﮐﯿﺒﯽ داده اﺳﺖ ﮐﻪ ﺑﻌﺪ از ﻋﻤﻞ ﻣﺮﮐﺰي ﺳﺎزي اﻧﺠﺎم ﻣﯽ ﺷﻮد‪ .‬در اﯾﻦ ﻣﺮﺣﻠﻪ ﺳﯿﮕﻨﺎل ﻫﺎي ﺗﺮﮐﯿﺒﯽ ﻃﯽ ﯾﮏ‬
‫اﻧﺘﻘﺎل ﺧﻄﯽ ﺑﻪ ﺳﯿﮕﻨﺎل ﻫﺎي ﺳﻔﯿﺪ ﺷﺪه اي ﺗﺒﺪﯾﻞ ﻣﯽ ﺷﻮﻧﺪ ﮐﻪ اﺟﺰاي آن ﻏﯿﺮ ﻫﻤﺒﺴﺘﻪ و داراي وارﯾﺎﻧﺲ‬
‫واﺣﺪ ﻣﯽ ﺑﺎﺷﻨﺪ‪ .‬ﯾﻌﻨﯽ ﻣﺎﺗﺮﯾﺲ ﮐﻮارﯾﺎﻧﺲ ﺳﯿﮕﻨﺎل ﻫﺎي ﺳﻔﯿﺪ ﺷﺪه ‪ x‬ﻣﺎﺗﺮﯾﺴﯽ واﺣﺪ اﺳﺖ ‪:‬‬

‫‪  T  I‬‬
‫‪E x.x‬‬ ‫)‪(25-1‬‬

‫ﯾﮑﯽ از روش ﻫﺎي ﻣﺘﺪاول ﺑﺮاي اﻧﺠﺎم اﯾﻦ ﻣﺮﺣﻠﻪ ﺗﺠﺰﯾﻪ ﺑﺮدارﻫﺎي وﯾﮋه )‪ (EVD‬ﻣﺎﺗﺮﯾﺲ ﮐﻮارﯾﺎﻧﺲ ﻣﯽ ﺑﺎﺷﺪ‪،‬‬
‫‪ E{x.x‬و ‪ D‬ﻣﺎﺗﺮﯾﺲ ﻗﻄﺮي ﻣﻘﺎدﯾﺮ وﯾﮋه‬
‫‪ E{x.x‬ﮐﻪ ‪ E‬ﻣﺎﺗﺮﯾﺲ ارﺗﻮﮔﻮﻧﺎل ﺑﺮدار وﯾﮋه } ‪  T‬‬
‫ﯾﻌﻨﯽ ‪  T }  EDE T‬‬

‫اﺳﺖ ) ‪ D  diag(d 1 ,..., d n‬و دارﯾﻢ‪:‬‬

‫‪ , D  1 2  diag d  12 ,..., d  1 2‬‬ ‫)‪(26-1‬‬


‫‪‬‬
‫‪x=ED‬‬ ‫‪-1 2‬‬
‫‪E T x= ED‬‬ ‫‪-1 2‬‬
‫‪‬‬ ‫‪E T‬‬
‫‪A s=As‬‬
‫‪‬‬
‫‪A‬‬
‫‪1‬‬ ‫‪‬‬ ‫‪m‬‬ ‫‪‬‬
‫و ﻣﯽ ﺗﻮان ﮔﻔﺖ ‪:‬‬

‫‪ s.s T  A‬‬


‫‪  T   A.E‬‬
‫‪E x.x‬‬ ‫‪ T  A.A‬‬
‫‪  T I‬‬ ‫)‪(27-1‬‬

‫‪34‬‬
‫‪Whitening‬‬

‫‪18‬‬
‫اﯾﻦ ﺑﺪان ﻣﻌﻨﯽ اﺳﺖ ﮐﻪ ﻣﺎﺗﺮﯾﺲ ﺗﺮﮐﯿﺐ ﮐﻨﻨﺪه ﺟﺪﯾﺪ ﻣﺘﻌﺎﻣﺪ ﺧﻮاﻫﺪ ﺑﻮد و ﻧﺸﺎن ﻣﯽ دﻫﺪ ﮐﻪ ﺳﻔﯿﺪﮐﺮدن‬
‫ﻣﻮﺟﺐ ﮐﺎﻫﺶ ﺗﻌﺪاد ﭘﺎراﻣﺘﺮﻫﺎﯾﯽ ﻣﯽ ﺷﻮد ﮐﻪ ﻻزم اﺳﺖ ﺗﺨﻤﯿﻦ زده ﺷﻮد‪ .‬ﯾﻌﻨﯽ ﺑﻪ ﺟﺎي ﺟﺴﺘﺠﻮي ‪ n 2‬ﭘﺎراﻣﺘﺮ‬
‫درﺟﻪ آزادي اﺳﺖ ﺗﺨﻤﯿﻦ زده ﺷﻮد‪ .‬روﺷﯽ دﯾﮕﺮي ﮐﻪ ﺑﻪ ﻣﻨﻈﻮر‬ ‫‪n(n  1) 2‬‬ ‫ﮐﺎﻓﯽ اﺳﺖ ﻣﺎﺗﺮﯾﺲ ‪ A‬ﮐﻪ داراي‬
‫‪x‬‬ ‫ﺳﻔﯿﺪﺳﺎزي ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار ﻣﯽ ﮔﯿﺮد‪ ،‬آﻧﺎﻟﯿﺰ ﻣﻮﻟﻔﻪ ﻫﺎي اﺳﺎﺳﯽ )‪ (PCA‬ﻣﯽ ﺑﺎﺷﺪ‪ .‬در اﯾﻦ روش ﺳﯿﮕﻨﺎل‬
‫ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽ ﺷﻮد‪:‬‬

‫‪x  Ux‬‬ ‫)‪(28-1‬‬

‫‪ E{x.x‬و ‪ U‬ﻣﺎﺗﺮﯾﺲ ﺳﻔﯿﺪ ﮐﻨﻨﺪه اي اﺳﺖ ﮐﻪ از ﺗﺠﺰﯾﻪ‬


‫ﮐﻪ ‪ x  t ‬ﺳﯿﮕﻨﺎل ﺳﻔﯿﺪ ﺷﺪه اﺳﺖ ﮐﻪ ‪  T }  I‬‬

‫ﺑﺪﺳﺖ ﻣﯽ آﯾﺪ‪:‬‬ ‫‪x‬‬ ‫ﺑﺮدارﻫﺎي وﯾﮋه ﻣﺎﺗﺮﯾﺲ ﮐﻮوارﯾﺎﻧﺲ‬

‫‪U  1 2V T‬‬ ‫)‪(29-1‬‬

‫‪ E x.x‬و‬
‫ﮐﻪ در آن ‪   diag  1 ,...,   m ‬ﻣﺎﺗﺮﯾﺲ ﻗﻄﺮي ﺑﺎ ﻣﻘﺎدﯾﺮ وﯾﮋه ﻣﺎﺗﺮﯾﺲ ﮐﻮوارﯾﺎﻧﺲ داده ‪  T ‬‬

‫‪ V‬ﻧﯿﺰ ﻣﺎﺗﺮﯾﺴﯽ ﺑﺎ ﺑﺮدارﻫﺎي وﯾﮋه ﻧﻈﯿﺮ ﺑﻪ ﻧﻈﯿﺮ در ﺳﺘﻮن ﻫﺎﯾﺶ ﻣﯽ ﺑﺎﺷﺪ‪ .‬از ﺟﺎﯾﮕﺬاري راﺑﻄﻪ )‪ (1-1‬در )‪- 1‬‬
‫‪ (28‬دارﯾﻢ‪:‬‬

‫‪x  UAs‬‬ ‫)‪(30-1‬‬

‫ﻣﺎﺗﺮﯾﺲ ‪ B  UA‬ارﺗﻮﮔﻮﻧﺎل ﻣﯽ ﺑﺎﺷﺪ‪ .‬ﺑﻨﺎﺑﺮاﯾﻦ ﺧﻮاﻫﯿﻢ داﺷﺖ‪:‬‬

‫‪s  Wx‬‬ ‫)‪(31-1‬‬

‫اﮔﺮ ‪ ، W  B 1‬ﺳﯿﮕﻨﺎل ﻫﺎي ﺑﺎزﯾﺎﺑﯽ ﺷﺪه ‪ s‬ﺑﺎ دﻗﺖ ﺑﺎﻻﯾﯽ ﻫﻤﺎن ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ اﺻﻠﯽ ﺧﻮاﻫﻨﺪ ﺑﻮد‪.‬‬

‫دﯾﮕﺮ ﭘﯿﺶ ﭘﺮدازش ﻫﺎي ﻣﻔﯿﺪ‬ ‫‪.2,20‬‬

‫ﻣﻮﻓﻘﯿﺖ ‪ ICA‬ﺑﺮاي ﺑﺎزﯾﺎﺑﯽ ﻣﺠﻤﻮﻋﻪ اي از داده ﻫﺎ ﺑﻄﻮر ذاﺗﯽ واﺑﺴﺘﻪ ﺑﻪ ﻋﻤﻠﮑﺮد ﺑﻌﻀﯽ از ﻣﺮاﺣﻞ ﭘﯿﺶ ﭘﺮدازش‬
‫ﮐﺎرﺑﺮدي ﻣﯽ ﺑﺎﺷﺪ‪ .‬ﺑﺮاي ﻣﺜﺎل اﮔﺮ داده ﻫﺎ ﺷﺎﻣﻞ ﺳﯿﮕﻨﺎل ﻫﺎي زﻣﺎﻧﯽ ﺑﺎﺷﻨﺪ اﺳﺘﻔﺎده از ﻓﯿﻠﺘﺮﻫﺎي ﻣﯿﺎن ﮔﺬر‬
‫ﺑﺴﯿﺎر ﻣﻔﯿﺪ ﻣﯽ ﺑﺎﺷﺪ‪ .‬در اﯾﻦ ﻣﺴﺌﻠﻪ اﮔﺮ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﺸﺎﻫﺪه اي )‪ x i (t‬ﺑﺮاي ﺑﺪﺳﺖ آوردن ﺳﯿﮕﻨﺎل ﻫﺎي‬

‫‪19‬‬
‫ﻣﺸﺎﻫﺪه اي ﺟﺪﯾﺪ ﺑﺮاي ﻣﺜﺎل )‪ x i (t‬ﺑﻄﻮر ﺧﻄﯽ ﻓﯿﻠﺘﺮ ﺷﻮﻧﺪ‪ ،‬ﻣﺪل ‪ ICA‬ﻣﺎﺗﺮﯾﺲ ﺗﺮﮐﯿﺐ ‪ A‬را ﺑﺮاي اﯾﻦ دو‬
‫ﻣﻮرد ﯾﮑﺴﺎن در ﻧﻈﺮ ﻣﯽ ﮔﯿﺮد‪ .‬اﯾﻦ وﺿﻌﯿﺖ ﺑﺎ در ﻧﻈﺮ ﮔﺮﻓﺘﻦ ﻣﺎﺗﺮﯾﺲ ‪ X‬و ‪ S‬ﮐﻪ ﺑﻪ ﺗﺮﺗﯿﺐ ﺷﺎﻣﻞ ﺳﯿﮕﻨﺎل‬
‫ﻫﺎي ﻣﺸﺎﻫﺪه اي )‪ x(1),..., x(n‬و ﻣﻨﺎﺑﻊ اﺻﻠﯽ )‪ s(1),...,s(n‬ﺑﻄﻮر ﺳﺘﻮﻧﯽ ﻣﯽ ﺑﺎﺷﻨﺪ ﺑﻪ ﺻﻮرت زﯾﺮ در ﻧﻈﺮ‬
‫ﮔﺮﻓﺘﻪ ﻣﯽ ﺷﻮد‪:‬‬
‫‪X  AS‬‬ ‫)‪(32-1‬‬

‫ﺣﺎل ﺑﺎ ﻓﯿﻠﺘﺮ ﮐﺮدن زﻣﺎﻧﯽ ‪ X‬از ﻃﺮف راﺳﺖ ﺑﺎ اﺳﺘﻔﺎده از ﻣﺎﺗﺮﯾﺲ ‪ M‬ﺧﻮاﻫﯿﻢ داﺷﺖ‪:‬‬

‫‪  XM  ASM  AS‬‬


‫‪X‬‬ ‫)‪(33-1‬‬

‫ﮐﻪ ﻧﺸﺎن ﻣﯽ دﻫﺪ ﻣﺪل ‪ ICA‬ﻫﻤﭽﻨﺎن ﻣﻌﺘﺒﺮ ﻣﯽ ﻣﺎﻧﺪ‪.‬‬

‫‪20‬‬
‫‪ .3‬ﺑﺮرﺳﯽ اﻟﮕﻮرﯾﺘﻢ ﻫﺎ و روش ﻫﺎي آﻧﺎﻟﯿﺰ ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ‬

‫ﻣﻔﺎﻫﯿﻢ اﺳﺎﺳﯽ ﻣﺎﻧﻨﺪ راﺑﻄﻪ ﻣﯿﺎن ﻧﻮع ﺗﻮزﯾﻊ ﻣﻨﺎﺑﻊ اوﻟﯿﻪ‪ ،‬ﻗﻀﯿﻪ ﺣﺪ ﻣﺮﮐﺰي و وﯾﮋﮔﯽ ﻫﺎي ﻻزم ﺑﺮاي اﺳﺘﻘﻼل‬
‫ﻣﻨﺎﺑﻊ ﺗﻮﺟﯿﻪ ﻣﻨﺎﺳﺒﯽ ﺑﺮاي اراﺋﻪ روش ﻫﺎي ﻣﺨﺘﻠﻒ ﺑﻪ ﻣﻨﻈﻮر ﺑﺪﺳﺖ آوردن ﻧﺎﻫﻤﺒﺴﺘﮕﯽ ﺑﯿﺸﯿﻨﻪ ﻣﯿﺎن ﺳﯿﮕﻨﺎل‬
‫ﻫﺎي ﺧﺮوﺟﯽ ﻫﺮ اﻟﮕﻮرﯾﺘﻢ ﺟﺪاﺳﺎزي ﻣﻨﺎﺑﻊ ﻣﯽ ﺑﺎﺷﺪ‪ .‬در اداﻣﻪ ﺑﺎ ﺗﻌﺪادي از اﯾﻦ اﻟﮕﻮرﯾﺘﻢ ﻫﺎي ﻣﻄﺮح ﺑﺮاي ﺣﻞ‬
‫ﻣﺴﺌﻠﻪ ‪ BSS‬ﻣﺎﻧﻨﺪ اﻟﮕﻮرﯾﺘﻢ ﻫﺎي ‪ ،FastICA‬ﻣﺎﮐﺰﯾﻤﻢ ﮐﺮﺗﻮﺳﯿﺲ‪ ،‬ﻣﺎﮐﺰﯾﻤﻢ ﺷﺒﺎﻫﺖ‪ Infomax ،‬و آﻧﺎﻟﯿﺰ ﻣﻮﻟﻔﻪ‬
‫ﻫﺎي اﺳﺎﺳﯽ آﺷﻨﺎ ﻣﯽ ﺷﻮﯾﻢ‪.‬‬

‫‪ .3,1‬اﻟﮕﻮرﯾﺘﻢ ﻣﺎﮐﺰﯾﻤﻢ ﮐﺮﺗﻮﺳﯿﺲ‬

‫ﯾﮑﯽ از روش ﻫﺎي اﺳﺎﺳﯽ ﺗﺨﻤﯿﻦ ﭘﺎراﻣﺘﺮﻫﺎ‪ ،‬ﺗﺨﻤﯿﻦ ﻣﺎﮐﺰﯾﻤﻢ ﮐﺮﺗﻮﺳﯿﺲ ﻣﯽ ﺑﺎﺷﺪ ﮐﻪ از آن ﺑﺮاي ﺗﻔﮑﯿﮏ‬
‫ﺳﯿﮕﻨﺎل ﻫﺎي ﻓﻮق ﮔﻮﺳﯿﻦ و ﯾﺎ زﯾﺮ ﮔﻮﺳﯿﻦ اﺳﺘﻔﺎده ﻣﯽ ﺷﻮد ‪ .‬اﯾﻦ اﻟﮕﻮرﯾﺘﻢ ﻗﺎدر ﺑﻪ ﺟﺪاﺳﺎزي ﺳﯿﮕﻨﺎل ﻫﺎي‬
‫ﻓﻮق ﮔﻮﺳﯿﻦ از زﯾﺮ ﮔﻮﺳﯿﻦ و ﯾﺎ ﺑﺎﻟﻌﮑﺲ ﻧﻤﯽ ﺑﺎﺷﺪ‪ .‬در اﯾﻦ روش ﺗﺎﺑﻊ ﻫﺰﯾﻨﻪ ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻧﻮع ﺳﯿﮕﻨﺎل ﻫﺎي اوﻟﯿﻪ‬
‫ﺑﻪ ﻣﻨﻈﻮر اﻓﺰاﯾﺶ و ﯾﺎ ﮐﺎﻫﺶ ﮐﺮﺗﻮﺳﯿﺲ ﺳﯿﮕﻨﺎل ﻫﺎي ﺗﺨﻤﯿﻨﯽ اﻧﺘﺨﺎب ﻣﯽ ﺷﻮد‪ .‬ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻗﻀﯿﻪ ﺣﺪ ﻣﺮﮐﺰي‬
‫در اﯾﻦ اﻟﮕﻮرﯾﺘﻢ ﻣﻌﯿﺎري ﺑﺮاي ﺗﻌﯿﯿﻦ ﻣﯿﺰان ﮔﻮﺳﯽ ﺑﻮدن ﺳﯿﮕﻨﺎل ﻫﺎ ﺑﺎ ﻣﻌﯿﺎر ﮐﺮﺗﻮﺳﯿﺲ ﮐﻪ ﻣﻬﻤﺘﺮﯾﻦ ﻣﯿﺰان‬
‫ﺗﻌﯿﯿﻦ ﮔﻮﺳﯽ ﺑﻮدن ﻫﺮ ﺳﯿﮕﻨﺎل اﺳﺖ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﻣﯽ ﺷﻮد ﮐﻪ ﺑﺎ اﺳﺘﻔﺎده از آن ﻣﯽ ﺗﻮان ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ‬
‫را ﺑﺎ دﻗﺖ ﻣﻄﻠﻮﺑﯽ ﺗﺨﻤﯿﻦ زد‪ .‬دو ﺳﯿﮕﻨﺎل ‪ u 1‬و ‪ u 2‬را ﺑﺎ ﮐﺮﺗﻮﺳﯿﺲ ‪ k u‬در ﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ ﮐﻪ ﺗﺮﮐﯿﺐ آن ﻫﺎ‬
‫‪ w  au 1  bu 2‬داراي ﮐﺮﺗﻮﺳﯿﺲ ‪ k w‬اﺳﺖ‪ .‬ﺑﺮ ﻃﺒﻖ ﻗﻀﯿﻪ ﺣﺪ ﻣﺮﮐﺰي ﺑﺮاي ﺳﯿﮕﻨﺎل ﻫﺎ دارﯾﻢ ﮐﻪ ‪ k w‬ﻧﺴﺒﺖ‬
‫ﺑﻪ ‪ k u‬ﺑﻪ ﮐﺮﺗﻮﺳﯿﺲ ﺳﯿﮕﻨﺎل ﮔﻮﺳﯽ ﯾﻌﻨﯽ ‪ 3‬ﻧﺰدﯾﮏ ﺗﺮ اﺳﺖ‪ .‬ﺑﻨﺎﺑﺮاﯾﻦ رواﺑﻂ زﯾﺮ را ﺧﻮاﻫﯿﻢ داﺷﺖ‪:‬‬

‫ﺑﺮاي ﺳﯿﮕﻨﺎل ﻫﺎي ﻓﻮق ﮔﻮﺳﯿﻦ ‪k u  3  k w  k u‬‬ ‫‪‬‬


‫ﺑﺮاي ﺳﯿﮕﻨﺎل ﻫﺎي زﯾﺮ ﮔﻮﺳﯿﻦ ‪k u  3  k w  k u‬‬ ‫‪‬‬

‫ﺑﺮاي ﺳﯿﮕﻨﺎل ﻫﺎي ﺻﻮﺗﯽ و ﻣﺨﺎﺑﺮاﺗﯽ ﮐﻪ ﻓﻮق ﮔﻮﺳﯿﻦ ﻣﯽ ﺑﺎﺷﻨﺪ ﺣﺎﻟﺖ اول و ﺑﺮاي ﺗﺼﺎوﯾﺮ و ﺳﯿﮕﻨﺎل ﻫﺎي‬
‫رﯾﺎﺿﯽ ﺣﺎﻟﺖ دوم ﺑﺮﻗﺮار اﺳﺖ‪ .‬ﺑﺮاي ﺗﻌﯿﯿﻦ ﻣﺎﺗﺮﯾﺲ ﺗﺮﮐﯿﺐ ﮐﻨﻨﺪه ﻣﻨﺎﺳﺐ از ﻣﻌﺎدﻟﻪ ﺑﻪ روز رﺳﺎﻧﯽ زﯾﺮ اﺳﺘﻔﺎده‬
‫ﻣﯽ ﺷﻮد‪:‬‬

‫‪W n 1  W n  W  k y  W  ‬‬ ‫)‪(1-3‬‬

‫‪21‬‬
‫ﮐﻪ ‪ ‬ﭘﺎراﻣﺘﺮ ﺑﺮوز رﺳﺎﻧﯽ اﺳﺖ و ‪ W  k y  W  ‬ﮔﺮادﯾﺎن ﮐﺮﺗﻮﺳﯿﺲ ﺳﯿﮕﻨﺎل ﺧﺮوﺟﯽ ‪ y‬اﺳﺖ‪ .‬ﺑﺮاي ﻧﻤﻮﻧﻪ‬
‫ﺑﺮوز رﺳﺎﻧﯽ ‪ W‬ﺑﺮاي دو ﻣﻨﺒﻊ ﺑﻪ ﺻﻮرت زﯾﺮ اﺳﺖ‪:‬‬

‫‪  1 1 1 W 21   2 2  2 W 22 ‬‬ ‫)‪(2-3‬‬


‫‪W n 1  W n   ‬‬ ‫‪‬‬
‫‪  1 1 1 W 11   2 2  2 W 12 ‬‬

‫‪ i  4  W i1 x 1  W 2i x 2 ‬‬
‫‪3‬‬
‫)‪(3-3‬‬

‫‪ i    x 1 W i1r 12  x 1W 2i  22  x 2 W 1i  12  W 2i x 2 r 12 ‬‬ ‫)‪(4-3‬‬

‫‪i  1‬‬ ‫‪3‬‬


‫)‪(5-3‬‬
‫‪ W i12  12  2W i1 W 2i r 12  W 2i2  22 ‬‬
‫‪ W 11 W 12 ‬‬ ‫)‪(6-3‬‬
‫‪W ‬‬ ‫‪‬‬
‫‪ W 21 W 22 ‬‬

‫در اﯾﻦ رواﺑﻂ دارﯾﻢ ‪ ،  12  E  y 12  ,  22  E y 22  , r 12  E y 1 y 2 ‬ﮐﻪ ﺑﺪﺳﺖ آوردن ﺑﻌﻀﯽ از ﭘﺎراﻣﺘﺮﻫﺎي‬


‫اﯾﻦ اﻟﮕﻮرﯾﺘﻢ ﺗﻨﻬﺎ ﺑﻪ ﺻﻮرت ﺗﺠﺮﺑﯽ ﻣﻤﮑﻦ اﺳﺖ‪ .‬در اداﻣﻪ ﺑﺮرﺳﯽ روش ﻣﺎﮐﺰﯾﻤﻢ ﮐﺮﺗﻮﺳﯿﺲ از اﯾﻦ ﺧﺎﺻﯿﺖ‬
‫ﮐﺮﺗﻮﺳﯿﺲ ﮐﻪ ‪ Kurt  v 1    4 Kurt  v 1 ‬اﺳﺘﻔﺎده ﻣﯽ ﺷﻮد‪ .‬اوﻟﯿﻦ روش ﭘﯿﺶ ﭘﺮدازش داده ﻫﺎي ﻣﺴﺌﻠﻪ‬
‫ﺗﻔﮑﯿﮏ ﮐﻮر ﯾﻌﻨﯽ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﺸﺎﻫﺪه اي ‪ ، x‬ﺳﻔﯿﺪﺳﺎزي ﻣﯽ ﺑﺎﺷﺪ ﮐﻪ در آن ﺧﻮاﻫﯿﻢ داﺷﺖ‪:‬‬

‫‪x  Nx  NA‬‬
‫‪ s  Bs‬‬ ‫)‪(7-3‬‬
‫‪B‬‬

‫ﮐﻪ در آن ﻫﻤﺎﻧﻄﻮر ﮐﻪ ﺗﻌﺮﯾﻒ ﮔﺮدﯾﺪ ‪ N  ED 1 2 E T‬و ‪ B‬ﻣﺎﺗﺮﯾﺲ اورﺗﻮﻧﺮﻣﺎل‪ 35‬ﻣﯽ ﺑﺎﺷﺪ‪ .‬ﺑﻨﺎﺑﺮاﯾﻦ ﺑﺎ ادﻏﺎم‬
‫راﺑﻄﻪ ﺑﺎﻻ و ﺧﺼﻮﺻﯿﺖ ﺗﻌﺮﯾﻒ ﺷﺪه ﺑﺮاي ﮐﺮﺗﻮﺳﯿﺲ ﺧﻮاﻫﯿﻢ داﺷﺖ‪:‬‬
‫‪ T ‬‬ ‫‪N‬‬ ‫)‪(8-3‬‬
‫‪Kurt  W T x   Kurt  ‬‬
‫‪W Bs   Kurt  Z T s    z i41Kurt  s i ‬‬
‫‪i 1‬‬
‫‪ ZT ‬‬

‫اﯾﻦ راﺑﻄﻪ ﻧﺸﺎن ﻣﯽ دﻫﺪ ﮐﻪ در ﺣﺎﻟﺖ ﮐﻠﯽ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ اوﻟﯿﻪ ﻧﺒﺎﯾﺪ ﺗﻮزﯾﻊ ﮔﻮﺳﯽ داﺷﺘﻪ ﺑﺎﺷﻨﺪ زﯾﺮا در‬
‫اﯾﻦ ﺻﻮرت ﮐﺮﺗﻮﺳﯿﺲ ﻫﺮ ﯾﮏ ﺻﻔﺮ ﺧﻮاﻫﺪ ﺑﻮد و ﺟﻮاﺑﯽ ﺑﺮاي ﺣﻞ ﻣﺴﺌﻠﻪ ﺑﺪﺳﺖ ﻧﻤﯽ آﯾﺪ‪ .‬راﺑﻄﻪ ﺑﺎﻻ در ﺷﺮاﯾﻄﯽ‬

‫‪35‬‬
‫‪Orthonormal‬‬

‫‪22‬‬
‫ﮐﻪ ‪ W  Z  1‬ﺑﺎﺷﺪ در ‪ Z  e j‬داراي ﻣﯿﻨﯿﻤﻢ و ﻣﺎﮐﺰﯾﻤﻢ ﻣﺤﻠﯽ ﺧﻮاﻫﺪ ﺑﻮد ﯾﻌﻨﯽ ﺗﻨﻬﺎ ﺟﻮاب ﻣﻮﻟﻔﻪ اي‬
‫ﺧﻮاﻫﺪ ﺑﻮد ﮐﻪ داراي ﻣﻘﺪار ‪ 1‬اﺳﺖ‪ .‬در ﻧﺘﯿﺠﻪ ﺑﺮدار وزن ﻣﻌﺎدل‪ ،‬ﺑﺮاﺑﺮ ﺧﻮاﻫﺪ ﺑﻮد ﺑﺎ ‪W  Bz  Be j  b j‬‬

‫ﮐﻪ ﺳﺘﻮن ﻫﺎي ﻣﺎﺗﺮﯾﺲ ﻣﺘﻌﺎﻣﺪ ﺟﺪاﺳﺎز ‪ B‬را ﺑﺪﺳﺖ ﻣﯽ دﻫﺪ و در ﻧﻬﺎﯾﺖ ﯾﮑﯽ از ﻣﻨﺎﺑﻊ اوﻟﯿﻪ ﺑﺪﺳﺖ ﺧﻮاﻫﺪ‬
‫آﻣﺪ‪:‬‬

‫‪s  W Tx  b i  x‬‬
‫‪T‬‬
‫)‪(9-3‬‬

‫ﺗﺎﺑﻊ ﻫﺰﯾﻨﻪ اي ﮐﻪ ﺑﺮاي اﻟﮕﻮرﯾﺘﻢ ﻣﺎﮐﺰﯾﻤﻢ ﮐﺮﺗﻮﺳﯿﺲ ﻣﯽ ﺗﻮان در ﻧﻈﺮ ﮔﺮﻓﺖ ﺑﺮ اﺳﺎس اﻓﺰاﯾﺶ و ﯾﺎ ﮐﺎﻫﺶ‬
‫ﺗﺪرﯾﺠﯽ ﻣﻘﺪار )‪ Kurt(W T x‬ﻣﯽ ﺑﺎﺷﺪ‪ .‬اﯾﻦ ﺗﺎﺑﻊ ﺑﻪ ﺻﻮرت زﯾﺮ ﻗﺎﺑﻞ ﺗﻌﺮﯾﻒ اﺳﺖ‪:‬‬

‫‪2‬‬
‫‪Kurt(W T x)  E (W T x) 4   3 E (W T x) 2   E (W T x) 4   3 W‬‬
‫‪4‬‬
‫)‪(10-3‬‬

‫ﮐﻪ ﻫﺪف در آن ﯾﺎﻓﺘﻦ ﻣﺎﺗﺮﯾﺲ ﺟﺪاﺳﺎز ‪ W‬اﺳﺖ‪ .‬ﻫﻤﭽﻨﯿﻦ ﺑﺮاي در ﻧﻈﺮ ﮔﺮﻓﺘﻦ ﺷﺮط اﻧﺪازه ﺑﯿﺎن ﺷﺪه در اﯾﻦ‬
‫ﺑﺨﺶ ﻣﯽ ﺗﻮان آن را ﺑﻪ ﺗﺎﺑﻊ ﻫﺪف ﺗﻌﺮﯾﻒ ﺷﺪه اﺿﺎﻓﻪ ﮐﺮد‪.‬‬

‫‪J(W)  Kurt(W T x)  E (W T x) 4   3 W‬‬


‫‪4‬‬
‫) ‪ F( W‬‬
‫‪2‬‬
‫)‪(11-3‬‬

‫در ﻧﺘﯿﺠﻪ ﺗﺎﺑﻊ ﻫﺪف در ﻫﺮ ﻟﺤﻈﻪ ﺑﻪ ﺻﻮرت زﯾﺮ ﻗﺎﺑﻞ ﺗﻌﺮﯾﻒ اﺳﺖ‪:‬‬

‫]))‪W(t  1)  W(t)  (t) [x(t)(W(t) T x(t)) 3 -3 W(t) 2 W(t)+f( W(t) 2 W(t‬‬ ‫)‪(12-3‬‬

‫ﺑﺨﺶ آﺧﺮ در اﯾﻦ راﺑﻄﻪ ﻧﻤﺎﯾﺎﻧﮕﺮ ﻧﺮم ﻓﺮﺑﻨﯿﻮﺳﯽ‪ 36‬اﻧﺪازه ﻣﺎﺗﺮﯾﺲ ‪ W‬اﺳﺖ و ﻧﯿﺰ )‪ (t‬ﭘﺎراﻣﺘﺮي ﺑﺮاي ﺗﻌﯿﯿﻦ‬
‫ﻧﺮخ ﯾﺎدﮔﯿﺮي اﻟﮕﻮرﯾﺘﻢ ﻣﯽ ﺑﺎﺷﺪ‪ .‬ﻫﻤﭽﻨﯿﻦ ﺑﺎ ﻗﺮار دادن ﻋﻼﻣﺖ ﻫﺎي ﻣﺜﺒﺖ و ﻣﻨﻔﯽ‪ ،‬راﺑﻄﻪ ﺑﻪ ﺗﺮﺗﯿﺐ ﻣﯽ ﺗﻮاﻧﺪ‬
‫ﻣﻘﺎدﯾﺮ ﻣﺎﮐﺰﯾﻤﻢ و ﻣﯿﻨﯿﻤﻢ ﻣﺤﻠﯽ را ﺑﺪﺳﺖ آورد‪ .‬از رواﺑﻂ ﺑﯿﺎن ﺷﺪه ﻧﺘﯿﺠﻪ ﻣﯽ ﺷﻮد ﮐﻪ اﻟﮕﻮرﯾﺘﻢ ﻣﺎﮐﺰﯾﻤﻢ‬
‫ﮐﺮﺗﻮﺳﯿﺲ داراي ﺳﺮﻋﺖ ﻫﻤﮕﺮاﯾﯽ ﮐﻤﯽ ﻣﯽ ﺑﺎﺷﺪ‪ .‬ﻫﻤﭽﻨﯿﻦ ﺣﻞ ﻣﺴﺌﻠﻪ ﺑﻪ ﻃﻮر ﻣﺤﺴﻮﺳﯽ ﺑﻪ اﻧﺘﺨﺎب ﭘﺎراﻣﺘﺮ‬
‫)‪ (t‬واﺑﺴﺘﻪ اﺳﺖ ﮐﻪ اﻟﮕﻮرﯾﺘﻢ را ﺗﺤﺖ ﺗﺎﺛﯿﺮ ﻗﺮار ﻣﯽ دﻫﺪ‪.‬‬

‫‪36‬‬
‫‪Frobenius-norm‬‬

‫‪23‬‬
‫‪37‬‬
‫ﺗﺨﻤﯿﻦ ﻣﺎﮐﺰﯾﻤﻢ ﺷﺒﺎﻫﺖ‬ ‫‪.3,2‬‬

‫ﯾﮏ روش ﻣﺘﺪال ﺑﺮاي ﺗﺨﻤﯿﻦ ﻣﺪل ‪ ICA‬روش ﺗﺨﻤﯿﻦ ﻣﺎﮐﺰﯾﻤﻢ ﺷﺒﺎﻫﺖ ﻣﯽ ﺑﺎﺷﺪ ﮐﻪ اﺻﻮل آن ﺑﻪ روش‬
‫‪ Infomax‬ﺷﺒﺎﻫﺖ زﯾﺎدي دارد ‪ .‬ﻫﻤﭽﻨﯿﻦ ﻗﺎﺑﻞ اﺛﺒﺎت اﺳﺖ ﮐﻪ اﯾﻦ روش ﺑﻪ ﻃﻮر ذاﺗﯽ ﻣﻌﺎدل ﺑﺎ اﻟﮕﻮرﯾﺘﻢ ﻫﺎي‬
‫ﻣﺒﺘﻨﯽ ﺑﺮ ﮐﺎﻫﺶ اﻃﻼﻋﺎت ﻣﺘﻘﺎﺑﻞ ﻣﯽ ﺑﺎﺷﺪ‪ .‬ﭘﺎراﻣﺘﺮ ﺷﺒﺎﻫ ﺖ ﮐﻪ اﻟﮕﻮرﯾﺘﻢ ﺑﺮ ﻣﺒﻨﺎي آن ﭘﺎﯾﻪ رﯾﺰي ﻣﯽ ﺷﻮد‪ ،‬ﺑﻪ‬
‫ﺻﻮرت ﯾﮏ راﺑﻄﻪ رﯾﺎﺿﯽ ﻗﺎﺑﻞ ﺑﯿﺎن ﻣﯽ ﺑﺎﺷﺪ‪ .‬در ﺻﻮرﺗﯽ ﮐﻪ ﻣﺎﺗﺮﯾﺲ ﺟﺪاﺳﺎز ‪ A 1‬ﺑﻪ ﺻﻮرت‬
‫‪ W  (W 1 ,..., W n ) T‬ﺑﺎﺷﺪ‪ ،‬ﻣﻌﯿﺎر ﺷﺒﺎﻫﺖ را ﺑﻪ ﺻﻮرت زﯾﺮ ﺧﻮاﻫﯿﻢ داﺷﺖ‪:‬‬

‫‪T‬‬ ‫‪n‬‬
‫‪L    log f i (W iT x(t))  T log det W‬‬ ‫)‪(13-3‬‬
‫‪t 1 i 1‬‬

‫ﮐﻪ در آن ‪ f i‬ﺗﻮاﺑﻊ ﭼﮕﺎﻟﯽ ﻣﻨﺎﺑﻊ اوﻟﯿﻪ ‪ s i‬و ‪ x(t), t  1,...,T‬ﻣﻨﺎﺑﻊ ﻣﺸﺎﻫﺪه اي ﻣﯽ ﺑﺎﺷﻨﺪ‪ .‬ﺑﺨﺶ ‪log det W‬‬

‫از ﻗﻮاﻧﯿﻦ ﮐﻼﺳﯿﮑﯽ ﺗﺒﺪﯾﻼت ﺧﻄﯽ ﻣﺘﻐﯿﺮﻫﺎي ﺗﺼﺎدﻓﯽ و ﭼﮕﺎﻟﯽ ﺷﺎن ﺑﺪﺳﺖ ﻣﯽ آﯾﺪ ﮐﻪ ﺑﯿﺎن ﻣﯽ ﮐﻨﺪ در ﺣﺎﻟﺖ‬
‫ﮐﻠﯽ ﺑﺮاي ﻫﺮ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ x‬ﺑﺎ ﭼﮕﺎﻟﯽ ‪ p x‬و ﺑﺮاي ﻫﺮ ﻣﺎﺗﺮﯾﺲ ‪ ، W‬ﭼﮕﺎﻟﯽ ‪ y  Wx‬از راﺑﻄﻪ‬
‫‪ p x (Wx) det W‬ﺑﺪﺳﺖ ﻣﯽ آﯾﺪ‪.‬‬

‫روش ‪Infomax‬‬ ‫‪.3,3‬‬

‫ﺗﺎﺑﻊ ﻣﻘﺎﯾﺴﻪ دﯾﮕﺮي ﮐﻪ از ﻧﻘﻄﻪ ﻧﻈﺮ ﯾﮏ ﺷﺒﮑﻪ ﻋﺼﺒﯽ اﺳﺘﻨﺘﺎج ﻣﯽ ﺷﻮد روش ‪ Infomax‬ﻣﯽ ﺑﺎﺷﺪ ‪ .‬اﯾﻦ روش‬
‫ﺑﺮاﺳﺎس ﻣﺎﮐﺰﯾﻤﻢ ﺳﺎزي آﻧﺘﺮوﭘﯽ ﺧﺮوﺟﯽ و ﯾﺎ ﺟﺮﯾﺎن اﻃﻼﻋﺎت در ﯾﮏ ﺷﺒﮑﻪ ﻋﺼﺒﯽ ﺑﺎ ﺧﺮوﺟﯽ ﻫﺎي ﻏﯿﺮ ﺧﻄﯽ‬
‫ﭘﺎﯾﻪ رﯾﺰي ﺷﺪه اﺳﺖ‪ .‬ﯾﮏ ﺷﺒﮑﻪ ﻋﺼﺒﯽ ﺧﻮد ﺳﺎﻣﺎﻧﺪه ﺑﺎ اوزان ﻗﺎﺑﻞ ﺗﻨﻈﯿﻢ را در ﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ ﮐﻪ ﺑﺮاي اﯾﻦ ﺷﺒﮑﻪ‬
‫ﻣﯽ ﺗﻮان ﯾﮏ ﺗﺎﺑﻊ اﻧﺘﻘﺎل ﻏﯿﺮ ﺧﻄﯽ ﺑﺮاي اﻓﺰاﯾﺶ اﻧﺘﻘﺎل ﻣﻨﺎﺳﺐ اﻃﻼﻋﺎت از ورودي ﺑﻪ ﺧﺮوﺟﯽ ﺷﺒﮑﻪ در ﻧﻈﺮ‬
‫ﮔﺮﻓﺖ‪ .‬اﻟﮕﻮرﯾﺘﻢ ﯾﺎدﮔﯿﺮي روش ‪ Infomax‬ﯾﮏ ﻗﺎﻧﻮن ﯾﺎدﮔﯿﺮي ﺑﺮاي ﺷﺒﮑﻪ ﻋﺼﺒﯽ ﺧﻮد ﺳﺎﻣﺎﻧﺪه ﺑﺮاي اﻓﺰاﯾﺶ‬
‫اﻃﻼﻋﺎت اﻧﺘﻘﺎﻟﯽ در ﻧﻈﺮ ﻣﯽ ﮔﯿﺮد‪ .‬ﻣﻘﺎدﯾﺮ ورودي در اﯾﻦ ﺷﺒﮑﻪ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﺸﺎﻫﺪه اي )‪ x(t‬در ﻫﺮ ﻟﺤﻈﻪ‬
‫ﻣﯽ ﺑﺎﺷﺪ و ﯾﺎدﮔﯿﺮي در آن ﺑﻪ ﺻﻮرﺗﯽ اﺳﺖ ﮐﻪ در ﻫﺮ ﻟﺤﻈﻪ ﻣﻘﺎدﯾﺮ ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺎﺑﻊ اﺻﻠﯽ ﻫﺮ ﺧﺮوﺟﯽ )‪y(t‬‬

‫ﺑﺎ اﻧﺘﻘﺎل ﻣﺎﮐﺰﯾﻤﻢ اﻃﻼﻋﺎت از ورودي ﺑﻪ ﺧﺮوﺟﯽ ﺑﺪﺳﺖ ﻣﯽ آﯾﻨﺪ‪ .‬اﯾﻦ در ﺻﻮرﺗﯽ اﺳﺖ ﮐﻪ ﻧﺒﺎﯾﺪ ﻫﯿﭻ ﮔﻮﻧﻪ‬
‫واﺑﺴﺘﮕﯽ اي ﺑﯿﻦ ورودي و ﺧﺮوﺟﯽ‪ ،‬ﻫﻤﺎﻧﻨﺪ اﺳﺘﻘﻼل ﻣﯿﺎن ﺳﯿﮕﻨﺎل ﻫﺎي ﻣﻨﺒﻊ اﺻﻠﯽ در ﻫﺮ ﻟﺤﻈﻪ وﺟﻮد داﺷﺘﻪ‬

‫‪37‬‬
‫‪Maximum likelihood‬‬

‫‪24‬‬
‫ﺑﺎﺷﺪ‪ .‬ﻓﺮض ﮐﻨﯿﺪ ﮐﻪ ‪ x‬ورودي ﺷﺒﮑﻪ ﻋﺼﺒﯽ ﺑﺎﺷﺪ ﮐﻪ ﺧﺮوﺟﯽ ﻫﺎﯾﺶ داراي ﻓﺮم ) ‪  i (W iT‬ﻫﺴﺘﻨﺪ‪  i ،‬ﻣﯽ‬
‫ﺗﻮاﻧﺪ ﻣﺠﻤﻮﻋﻪ اي از ﺗﻮاﺑﻊ ﻏﯿﺮ ﺧﻄﯽ اﺳﮑﺎﻟﺮ و ‪ W f‬ﺑﺮدار وزن ﻧﻮرون ﻫﺎ ﺑﺎﺷﺪ‪ .‬ﻫﺪف در اﯾﻦ اﻟﮕﻮرﯾﺘﻢ ﻣﺎﮐﺰﯾﻤﻢ‬
‫ﺳﺎزي ﻗﺎﻧﻮن ﯾﺎدﮔﯿﺮي آﻧﺘﺮوﭘﯽ ﺧﺮوﺟﯽ ﻫﺎ اﺳﺖ‪:‬‬

‫))‪L 2  H( 1 (W1T x),...,  n (W nT x‬‬ ‫)‪(14-3‬‬

‫اﮔﺮ ‪  i‬ﺑﻪ درﺳﺘﯽ اﻧﺘﺨﺎب ﺷﻮد اﯾﻦ روال ﺑﻪ درﺳﺘﯽ ﻗﺎدر ﺑﻪ ﺗﺨﻤﯿﻦ ﻣﺪل ‪ ICA‬ﺧﻮاﻫﺪ ﺑﻮد‪ .‬در واﻗﻊ ﺛﺎﺑﺖ ﺷﺪه‬
‫اﺳﺖ ﮐﻪ ﻧﺘﺎﯾﺞ ﺷﮕﻔﺖ اﻧﮕﯿﺰ اﺻﻮل ﻣﺎﮐﺰﯾﻤﻢ ﺳﺎزي آﻧﺘﺮوﭘﯽ ﺷﺒﮑﻪ ﯾﺎ روش ‪ Infomax‬ﻣﻌﺎدل ﺑﺎ ﺗﺨﻤﯿﻦ ﻣﺎﮐﺰﯾﻤﻢ‬
‫ﺷﺒﺎﻫﺖ ﻣﯽ ﺑﺎﺷﺪ ‪ .‬در اﯾﻦ ﻣﻌﺎدل ﺳﺎزي ﻧﯿﺎز اﺳﺖ ﮐﻪ از ‪  i‬ﻫﺎي ﻏﯿﺮ ﺧﻄﯽ اﺳﺘﻔﺎده ﺷﻮد ﮐﻪ ﺑﻪ ﻋﻨﻮان ﺗﺎﺑﻊ‬
‫ﺗﻮزﯾﻊ ﮐﻮﻣﻮﻻن ﻣﺘﻨﺎﻇﺮ ﺑﺎ ﭼﮕﺎﻟﯽ ﻫﺎي ‪ f i‬ﯾﻌﻨﯽ )‪  'i (.)  f i (.‬در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﻣﯽ ﺷﻮد‪.‬‬

‫‪38‬‬
‫آﻧﺎﻟﯿﺰ ﻣﻮﻟﻔﻪ ﻫﺎي اﺳﺎﺳﯽ‬ ‫‪.3,4‬‬

‫در اﯾﻦ ﺑﺨﺶ ﺑﻪ ﻣﻌﺮﻓﯽ اﺻﻮل آﻧﺎﻟﯿﺰ ﻣﻮﻟﻔﻪ ﻫﺎي اﺳﺎﺳﯽ )‪ (PCA‬ﻣﯽ ﭘﺮدازﯾﻢ‪ .‬اﯾﻦ ﺗﮑﻨﯿﮏ ﻣﻔﯿﺪ آﻣﺎري ﮐﺎرﺑﺮدﻫﺎي‬
‫زﯾﺎدي در زﻣﯿﻨﻪ ﻫﺎي ﺗﺸﺨﯿﺺ ﭼﻬﺮه‪ ،‬ﻓﺸﺮده ﺳﺎزي ﺗﺼﻮﯾﺮ‪ ،‬ﺟﺪاﺳﺎزي ﺳﯿﮕﻨﺎل ﻫﺎ در اﻃﻼﻋﺎت ﻧﻮﯾﺰي دارد‪ .‬اﯾﻦ‬
‫ﺗﺒﺪﯾﻞ ﮐﻪ ﺑﺎ ﻧﺎم آﻧﺎﻟﯿﺰ ﺑﺮدارﻫﺎي وﯾﮋه ﻧﯿﺰ ﺷﻨﺎﺧﺘﻪ ﻣﯽ ﺷﻮد‪ ،‬ﺗﺒﺪﯾﻠﯽ ﺑﻬﯿﻨﻪ در اﻣﻮر ﻓﺸﺮده ﺳﺎزي و ﮐﺎﻫﺶ ﺑﻌﺪ‬
‫اﺳﺖ و ﺧﻄﺎي ﻣﯿﺎﻧﮕﯿﻦ ﻣﺮﺑﻌﺎت ﺣﺎﺻﻞ از ﻓﺸﺮده ﺳﺎزي را ﮐﻤﯿﻨﻪ ﻣﯽ ﮐﻨﺪ‪ .‬ﻫﺮ ﭼﻨﺪ اﯾﻦ ﺗﺒﺪﯾﻞ ﺑﻪ ﻋﻠﺖ واﺑﺴﺘﻪ‬
‫ﺑﻮدن ﺑﻪ داده ﻫﺎي ورودي‪ ،‬ﺟﺎي ﺧﻮد را در اﻟﮕﻮرﯾﺘﻢ ﻫﺎي ﮐﺎرﺑﺮدي و ﻋﻤﻠﯽ ﺑﻪ ﺗﺒﺪﯾﻼت ﺟﺪﯾﺪﺗﺮي داده اﺳﺖ ‪،‬‬
‫اﻣﺎ در ﺻﻮرت ﮐﺎﻓﯽ ﺑﻮدن داده ﻫﺎي ورودي ﻣﯽ ﺗﻮاﻧﺪ ﺗﺒﺪﯾﻞ ﺑﻬﯿﻨﻪ را اﻧﺠﺎم دﻫﺪ‪ .‬آﻧﺎﻟﯿﺰ اﺟﺰاي اﺻﻠﯽ ﯾﮏ روش‬
‫اﺧﺘﯿﺎري ﭼﻨﺪ ﻣﺘﻐﯿﺮي اﺳﺖ ﮐﻪ در اﻧﺘﺨﺎب ﯾﮏ ﯾﺎ ﺗﻌﺪاد ﻣﺤﺪودي از ﻣﺘﻐﯿﺮﻫﺎ از ﻣﯿﺎن داده ﻫﺎ در ﯾﮏ ﻣﺠﻤﻮﻋﻪ‬
‫ﮐﻤﮏ ﻣﯽ ﮐﻨﺪ ‪ .‬ﻗﺒﻞ از اﯾﻦ ﮐﻪ از آﻧﺎﻟﯿﺰ اﺟﺰا اﺻﻠﯽ ﺗﻮﺻﯿﻔﯽ ﺑﻪ دﺳﺖ آورﯾﻢ‪ ،‬اﺑﺘﺪا ﺑﻪ ﻣﻌﺮﻓﯽ ﻣﻔﺎﻫﯿﻤﯽ رﯾﺎﺿﯽ‬
‫ﮐﻪ در آﻧﺎﻟﯿﺰ اﺟﺰا اﺻﻠﯽ اﺳﺘﻔﺎده ﻣﯽ ﺷﻮد‪ ،‬ﻣﯽ ﭘﺮدازﯾﻢ‪.‬‬

‫‪38‬‬
‫‪Principal components analysis‬‬

‫‪25‬‬
‫‪39‬‬
‫ﮐﻮوارﯾﺎﻧﺲ‬ ‫‪.3,5‬‬

‫ﮐﻮوارﯾﺎﻧﺲ ﯾﺎ ﻫﻢ ﭘﺮاﺷﯽ در ﻧﻈﺮﻳﻪ ﺍﺣﺘﻤﺎﻻﺕ‪ ،‬ﻣﯿﺰان ﺗﻐﯿﯿﺮات ﻫﻤﺎﻫﻨﮓ دو ﻣﺘﻐﻴﺮ ﺗﺼﺎﺩﻓﻲ اﺳﺖ‪ .‬ﺑﺮاي ﻣﺘﻐﯿﺮﻫﺎي‬
‫ﺗﺼﺎدﻓﯽ ‪ X‬و ‪ Y‬ﮐﻪ ﺍﻣﻴﺪ ﺭﻳﺎﺿﻲ آﻧﻬﺎ ‪ E(X)  ‬و ‪ E(Y)  ‬اﺳﺖ‪ ،‬ﮐﻮوارﯾﺎﻧﺲ ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽﺷﻮد‪:‬‬

‫))‪Cov(X,Y)  E((X )(Y ‬‬ ‫)‪(15-3‬‬

‫ﺑﺎ اﯾﻦ ﺗﻌﺮﯾﻒ از ﮐﻮوارﯾﺎﻧﺲ ﺑﺎﯾﺪ ﺗﻮﺟﻪ داﺷﺖ ﮐﻪ‪:‬‬

‫‪ ‬ﭼﻨﺎﻧﮑﻪ دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﻏﻴﺮ ﻫﻤﺒﺴﺘﻪ ﺑﺎﺷﻨﺪ‪ ،‬ﮐﻮوارﯾﺎﻧﺲ آﻧﻬﺎ ﺻﻔﺮ ﺧﻮاﻫﺪ ﺑﻮد‪.‬‬
‫‪ ‬اﮔﺮ دو ﻣﺘﻐﯿﺮ ﯾﮑﯽ ﺑﺎﺷﻨﺪ ﮐﻮوارﯾﺎﻧﺲ ﺑﺮاﺑﺮ ﻭﺍﺭﻳﺎﻧﺲ ﺧﻮاﻫﺪ ﺷﺪ‪.‬‬
‫‪ ‬ﮐﻮارﯾﺎﻧﺲ در ﺗﺤﻠﯿﻞ آﻣﺎري ﻣﺠﻤﻮﻋﻪ داده ﻫﺎﯾﯽ ﺑﮑﺎر ﻣﯽ رود ﮐﻪ ﺑﯿﺶ از ﯾﮏ ﺑﻌﺪ دارﻧﺪ و ﺑﺎﯾﺪ ارﺗﺒﺎﻃﯽ‬
‫ﮐﻪ ﺑﯿﻦ ﺑﻌﺪ ﻫﺎ وﺟﻮد دارد ﺑﺪﺳﺖ آﯾﺪ‪ .‬ﺑﻨﺎﺑﺮاﯾﻦ ﮐﻮوارﯾﺎﻧﺲ ﻫﻤﯿﺸﻪ ﺑﯿﻦ دو ﺑﻌﺪ ﯾﺎ ﺑﯿﺸﺘﺮ اﻧﺪازه ﮔﯿﺮي‬
‫ﻣﯽ ﺷﻮد‪.‬‬

‫ﺑﺎ ﺑﺴﻂ راﺑﻄﻪ ﺑﺎﻻ ﺑﺮاي ﮐﻮارﯾﺎﻧﺲ ﺧﻮاﻫﯿﻢ داﺷﺖ‪:‬‬


‫‪n‬‬
‫) ‪ (X i  )(Y i  ‬‬
‫‪Cov(X, Y) ‬‬ ‫‪i 1‬‬
‫)‪(16-3‬‬
‫‪n 1‬‬

‫از آن ﺟﺎ ﮐﻪ ارزش ﮐﻮوراﯾﺎﻧﺲ ﺑﯿﻦ ﻫﺮ دو ﺑﻌﺪ در ﻣﺠﻤﻮﻋﻪ اﻃﻼﻋﺎت ﻣﺤﺎﺳﺒﻪ ﻣﯽ ﺷﻮد‪ ،‬اﯾﻦ ﺗﮑﻨﯿﮏ اﻏﻠﺐ ﺑﺮاي‬
‫ﭘﯿﺪا ﮐﺮدن ارﺗﺒﺎط ﺑﯿﻦ ﺑﻌﺪﻫﺎ در اﺑﻌﺎد ﺑﺰرگ ﻣﺠﻤﻮﻋﻪ اﻃﻼﻋﺎت ﮐﻪ ﺗﺠﺴﻢ آن ﻣﺸﮑﻞ اﺳﺖ اﺳﺘﻔﺎده ﻣﯽ ﮔﺮدد‪.‬‬
‫!‪n‬‬
‫ﮐﻮوراﯾﺎﻧﺲ ﻣﺘﻔﺎوت را ﻣﺤﺎﺳﺒﻪ ﻧﻤﻮد‪ .‬ﯾﮏ روش ﻣﻔﯿﺪ‬ ‫‪2‬‬
‫ﺑﺮاي ﯾﮏ ﻣﺠﻤﻮﻋﻪ اﻃﻼﻋﺎت ‪ n‬ﺑﻌﺪي ﻣﯽ ﺗﻮان‬
‫‪(n )! 2‬‬

‫ﺑﺮاي ﺑﻪ دﺳﺖ آوردن ﮐﻮوارﯾﺎﻧﺲ ﺑﯿﻦ ﻫﻤﻪ اﺑﻌﺎد اﯾﻦ اﺳﺖ ﮐﻪ آن ﻫﺎ را ﻣﺤﺎﺳﺒﻪ ﮐﺮده و در ﯾﮏ ﻣﺎﺗﺮﯾﺲ ﻗﺮار‬
‫داد‪ .‬اﯾﻦ ﻣﺎﺗﺮﯾﺲ ﺑﺮاي ﯾﮏ ﻣﺠﻤﻮﻋﻪ از داده ﻫﺎ ﺑﺎ ‪ n‬ﺑﻌﺪ ﺑﻪ ﺻﻮرت زﯾﺮ ﺧﻮاﻫﺪ ﺑﻮد‪:‬‬

‫)) ‪C n n  (C i, j , C i, j  Cov(Dim i , Dim j‬‬ ‫)‪(17-3‬‬

‫‪39‬‬
‫‪Covariance‬‬

‫‪26‬‬
‫ﮐﻪ ‪ C nn‬ﯾﮏ ﻣﺎﺗﺮﯾﺲ ﺑﺎ ‪ n‬ﺳﻄﺮ و ﺳﺘﻮن و ﺑﻌﺪ ‪ X‬اﺳﺖ‪ .‬ﺑﻨﺎﺑﺮاﯾﻦ ﺑﺎ ﻣﺠﻤﻮﻋﻪ اﻃﻼﻋﺎت ‪ ، n‬ﯾﮏ ﻣﺎﺗﺮﯾﺲ ﻣﺮﺑﻌﯽ‬
‫دارﯾﻢ ﮐﻪ ﻫﺮ ﻋﻨﺼﺮ ﻣﺎﺗﺮﯾﺲ ﻧﺘﯿﺠﻪ اي از ﻣﺤﺎﺳﺒﻪ ﮐﻮوارﯾﺎﻧﺲ ﺑﯿﻦ دو ﺑﻌﺪ ﻣﺠﺰا ﻣﯽ ﺑﺎﺷﺪ‪.‬‬

‫ﺑﺮدارﻫﺎي اﺳﺎﺳﯽ‬ ‫‪.3,6‬‬

‫ﻓﺮض ﮐﻨﯿﺪ ‪ X  (X 1 , X 2 ,..., X P ) T‬ﯾﮏ ﺑﺮدار ﺗﺼﺎدﻓﯽ ﺑﺎ ﻣﺎﺗﺮﯾﺲ ﮐﻮارﯾﺎﻧﺲ ﻣﻌﯿﻦ ﻧﺎﻣﻨﻔﯽ و‬
‫‪  1   2  ...   P  0‬ﻣﻘﺎدﯾﺮ وﯾﮋه ﻣﺎﺗﺮﯾﺲ ﮐﻮارﯾﺎﻧﺲ ﺑﺎﺷﺪ‪ .‬ﻫﻤﭽﻨﯿﻦ ‪ a 1 , a 2 ,..., a P‬ﺑﺮدارﻫﺎي وﯾﮋه ﻣﺘﻌﺎﻣﺪ‬
‫ﻣﺘﻨﺎﻇﺮ ﺑﺎ ‪  1 ,  2 ,...,  P‬ﺑﺎﺷﻨﺪ‪ .‬ﻣﺘﻐﯿﺮﻫﺎي ‪ Y 1 , Y 2 ,..., Y P‬ﺗﻌﺮﯾﻒ ﺷﺪه در زﯾﺮ را ﺑﺮدارﻫﺎي اﺳﺎﺳﯽ ﮔﻮﯾﻨﺪ‪.‬‬
‫‪Y 1  a 11X 1  a 21X 2  ...  a P1 X P‬‬
‫‪Y 2  a 12 X 1  a 22 X 2  ...  a P 2 X P‬‬
‫‪.‬‬
‫)‪(18-3‬‬
‫‪.‬‬
‫‪Y P  a 1P X 1  a 2 P X 2  ...  a PP X P‬‬

‫‪ i ، Y i‬اﻣﯿﻦ ﻣﻮﻟﻔﻪ اﺻﻠﯽ ﻧﺎم دارد‪ .‬ﺑﺮدار ‪ Y  (Y1 , Y 2 ,..., Y P ) T‬ﻧﯿﺰ ﺑﺮدارﻫﺎي اﺳﺎﺳﯽ ﻧﺎم دارﻧﺪ‪ .‬ﺑﻪ روﺷﯽ دﯾﮕﺮ‬
‫ﻧﯿﺰ ﻣﯽ ﺗﻮان ﻣﻘﺎدﯾﺮ وﯾﮋه و ﺑﺮدارﻫﺎي وﯾﮋه ﯾﮏ ﻣﺎﺗﺮﯾﺲ ﮐﻮارﯾﺎﻧﺲ ‪ C‬را ﻣﺤﺎﺳﺒﻪ ﻧﻤﻮد‪:‬‬

‫‪V 1CV  D‬‬ ‫)‪(19-3‬‬

‫در اﯾﻦ راﺑﻄﻪ‪ V ،‬ﻣﺎﺗﺮﯾﺲ ﺑﺮدارﻫﺎي وﯾﮋه و ‪ D‬ﻣﺎﺗﺮﯾﺴﯽ ﻗﻄﺮي اﺳﺖ ﮐﻪ دراﯾﻪﻫﺎي ﻗﻄﺮ آن ﻣﻘﺎدﯾﺮ وﯾﮋه ﻫﺴﺘﻨﺪ‪.‬‬
‫آﻧﭽﻨﺎن ﮐﻪ ﻣﺸﺨﺺ اﺳﺖ‪ ،‬ﻫﺮ ﻣﻘﺪار وﯾﮋه ﻣﺘﻨﺎﻇﺮ ﺑﺎ ﯾﮏ ﺑﺮدار وﯾﮋه اﺳﺖ‪ .‬ﺑﻪ اﯾﻦ ﻣﻌﻨﺎ ﮐﻪ ﻣﺎﺗﺮﯾﺲ ‪ V‬ﻣﺎﺗﺮﯾﺴﯽ‬
‫‪ N  N‬ﺑﺎ ﺳﺘﻮن ﻫﺎي ﻣﻌﺎدل ﺑﺎ ﺑﺮدارﻫﺎي وﯾﮋه ﻣﯽﺑﺎﺷﺪ‪ .‬ﺑﺮدار وﯾﮋه ‪ V i‬در ﺳﺘﻮن ‪ i‬ام ﻗﺮار دارد و ﻣﻘﺪار وﯾﮋه ‪i‬‬

‫ام ﯾﻌﻨﯽ دراﯾﻪ ‪  i  C i,i‬ﻣﺘﻨﺎﻇﺮ ﺑﺎ آن اﺳﺖ‪ .‬ﺑﺎﯾﺪ ﺗﻮﺟﻪ داﺷﺖ ﮐﻪ ﺑﺎزﭼﯿﻨﯽ ﺑﺮدارﻫﺎي وﯾﮋه ﺑﺮ اﺳﺎس اﻧﺪازه‬
‫ﻣﻘﺎدﯾﺮ وﯾﮋه ﻣﺘﻨﺎﻇﺮ ﺑﺎ آن ﻫﺎ ﺻﻮرت ﻣﯽﮔﯿﺮد‪ .‬ﯾﻌﻨﯽ ﺑﺮ اﺳﺎس ﺗﺮﺗﯿﺐ ﮐﺎﻫﺸﯽ ﻣﻘﺎدﯾﺮ وﯾﮋه‪ ،‬ﺑﺮدارﻫﺎي وﯾﮋه ﺑﺎزﭼﯿﻨﯽ‬
‫ﻣﯽﺷﻮﻧﺪ‪:‬‬

‫‪i j  i j‬‬ ‫)‪(20-3‬‬

‫‪27‬‬
‫اﻟﮕﻮرﯾﺘﻢ آﻧﺎﻟﯿﺰ ﻣﻮﻟﻔﻪ ﻫﺎي اﺳﺎﺳﯽ‬ ‫‪.3,7‬‬

‫ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي اﺻﻠﯽ ﯾﮑﯽ از اﻧﻮاع روش ﻫﺎي ﺗﺤﻠﯿﻞ داده ﻫﺎي ﭼﻨﺪ ﻣﺘﻐﯿﺮه اﺳﺖ ﮐﻪ ﻫﺪف اﺻﻠﯽ آن ﺗﻘﻠﯿﻞ‬
‫ﺑﻌﺪ ﻣﺴﺎﻟﻪ ﻣﻮرد ﻣﻄﺎﻟﻌﻪ ﻣﯽ ﺑﺎﺷﺪ‪ .‬ﺑﺎ اﺳﺘﻔﺎده از ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي اﺻﻠﯽ ﻣﯽ ﺗﻮان ﺗﻌﺪاد زﯾﺎدي از ﻣﺘﻐﯿﺮ ﺗﻮﺿﯿﺤﯽ‬
‫ﻫﻤﺒﺴﺘﻪ را ﺑﺎ ﺗﻌﺪاد ﻣﺤﺪودي ﻣﺘﻐﯿﺮ ﺗﻮﺿﯿﺤﯽ ﺟﺪﯾﺪ ﮐﻪ ﻣﻮﻟﻔﻪ ﻫﺎي اﺻﻠﯽ ﻧﺎﻣﯿﺪه ﻣﯽ ﺷﻮﻧﺪ و ﻧﺎﻫﻤﺒﺴﺘﻪ اﻧﺪ‪،‬‬
‫ﺟﺎﯾﮕﺰﯾﻦ ﻧﻤﻮد‪ .‬ﺑﻪ اﯾﻦ ﺗﺮﺗﯿﺐ ﻧﻪ ﺗﻨﻬﺎ ﺑﻌﺪ ﻣﺴﺎﻟﻪ ﺗﻘﻠﯿﻞ ﻣﯽ ﯾﺎﺑﺪ ﺑﻠﮑﻪ ﻣﺴﺎﻟﻪ ﭼﻨﺪ ﻫﻤﺨﻄﯽ ﭘﯿﺶ ﻧﻤﯽ آﯾﺪ‪ .‬از آن‬
‫ﺟﺎ ﮐﻪ در اﻃﻼﻋﺎت ﺑﺎ اﺑﻌﺎد ﺑﺎﻻ‪ ،‬ﯾﺎﻓﺘﻦ ﻧﻘﺸﻪ و ﯾﺎ ﻃﺮح ﺧﺎﺻﯽ در داده ﻫﺎ ﻣﻌﻤﻮﻻ ﺑﻪ ﺳﺨﺘﯽ اﻧﺠﺎم ﻣﯽ ﮔﯿﺮد‪ ،‬ﻣﯽ‬
‫ﺗﻮان ﺑﺎ اﺳﺘﻔﺎده از آﻧﺎﻟﯿﺰ ﻣﻮﻟﻔﻪ ﻫﺎي اﺻﻠﯽ ارﺗﺒﺎط ﺑﯿﻦ داده ﻫﺎ را ﮐﺸﻒ ﮐﺮد‪ .‬در واﻗﻊ ﺗﺤﻠﯿﻞ اﺟﺰاي اﺻﻠﯽ ﯾﮏ‬
‫اﺑﺰار ﻧﯿﺮوﻣﻨﺪ ﺑﺮاي آﻧﺎﻟﯿﺰ اﻃﻼﻋﺎت اﺳﺖ‪ .‬ﻣﺰﯾﺖ اﺻﻠﯽ دﯾﮕﺮ آﻧﺎﻟﯿﺰ اﺟﺰاي اﺻﻠﯽ اﯾﻦ اﺳﺖ ﮐﻪ اﻟﮕﻮ در داده ﻫﺎ ﯾﮏ‬
‫ﺑﺎر ﭘﯿﺪا ﻣﯽ ﺷﻮد و اﯾﻦ اﻃﻼﻋﺎت ﺑﺎ ﮐﺎﻫﺶ ﺗﻌﺪاد اﺑﻌﺎد‪ ،‬ﺑﺪون از دﺳﺖ رﻓﺘﻦ اﻃﻼﻋﺎت زﯾﺎد ﻓﺸﺮده ﻣﯽ ﮔﺮدﻧﺪ‪.‬‬
‫ﻫﺪف آﻧﺎﻟﯿﺰ اﺟﺰاي اﺻﻠﯽ ﺧﻼﺻﻪ ﮐﺮدن داده ﻫﺎ اﺳﺖ و اﻏﻠﺐ ﺑﻪ ﻋﻨﻮان ﯾﮏ وﺳﯿﻠﻪ دﺳﺘﻪ ﺑﻨﺪي ﮐﻨﻨﺪه اﻃﻼﻋﺎت‬
‫ﻣﻮرد ﺗﻮﺟﻪ ﻗﺮار ﻧﻤﯽ ﮔﯿﺮد‪ .‬ﺑﻠﻮك دﯾﺎﮔﺮام ﻣﺮﺑﻮط ﺑﻪ اﯾﻦ اﻟﮕﻮرﯾﺘﻢ ﺑﻪ ﻣﻨﻈﻮر اﺟﺮاي آﻧﺎﻟﯿﺰ اﺟﺰاي اﺻﻠﯽ در ﯾﮏ‬
‫ﻣﺠﻤﻮﻋﻪ داده در ﺷﮑﻞ ‪ 4-1‬ﻧﺸﺎن داده ﺷﺪه اﺳﺖ‪ .‬در ﻣﺮﺣﻠﻪ ﻣﺘﺮاﮐﻢ ﺳﺎزي داده ﻫﺎ و ﮐﺎﻫﺶ اﺑﻌﺎد‪ ،‬ﺑﺎﯾﺪ ﺑﻪ اﯾﻦ‬
‫ﻧﮑﺘﻪ ﺗﻮﺟﻪ ﮐﺮد ﮐﻪ ﺑﺮدارﻫﺎي ﻣﺸﺨﺼﻪ ارزش ﻫﺎي ﮐﺎﻣﻼ ﻣﺘﻔﺎوﺗﯽ دارﻧﺪ‪ .‬در واﻗﻊ ﺑﺮدار ﻣﺸﺨﺼﻪ ﺑﺎ ﺑﺰرﮔﺘﺮﯾﻦ‬
‫ﻣﻘﺪار وﯾﮋه‪ ،‬ﺟﺰ اﺳﺎﺳﯽ ﻣﺠﻤﻮﻋﻪ داده ﻫﺎ ﺧﻮاﻫﺪ ﺑﻮد‪ .‬اﮔﺮ از ﺗﻌﺪادي از اﯾﻦ ﻣﻘﺎدﯾﺮ وﯾﮋه ﺻﺮﻓﻨﻈﺮ ﺷﻮد‪ ،‬ﺳﺮاﻧﺠﺎم‬
‫ﻣﺠﻤﻮﻋﻪ داده ﻫﺎ اﺑﻌﺎد ﮐﻤﺘﺮي ﻧﺴﺒﺖ ﺑﻪ داده ﻫﺎي اﺻﻠﯽ ﭘﯿﺪا ﺧﻮاﻫﻨﺪ ﮐﺮد‪ .‬ﺑﺮاي ﻣﺜﺎل اﮔﺮ اﺑﻌﺎد اﺻﻠﯽ داده ﻫﺎ‬
‫‪ n‬ﺑﻌﺪي ﺑﺎﺷﺪ‪ ،‬ﺑﻨﺎﺑﺮاﯾﻦ ﺑﺎﯾﺪ ‪ n‬ﺑﺮدار ﻣﺸﺨﺼﻪ و ﻣﻘﺪار وﯾﮋه ﻣﺤﺎﺳﺒﻪ ﺷﻮد و اﮔﺮ ‪ p‬ﺑﺮدار ﻣﺸﺨﺼﻪ اول اﻧﺘﺨﺎب‬
‫ﮔﺮدد‪ ،‬ﺳﺮاﻧﺠﺎم ﻣﺠﻤﻮﻋﻪ داده ﻫﺎي ﺗﻨﻬﺎ ‪ p‬ﺑﻌﺪ ﺧﻮاﻫﻨﺪ داﺷﺖ‪ .‬ﺣﺎل ﺑﺎﯾﺪ ﻣﺠﻤﻮﻋﻪ داده ﻫﺎي ﺟﺪﯾﺪ ﺑﻪ ﻓﺮم ﯾﮏ‬
‫ﺑﺮدار وﯾﮋﮔﯽ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﻮﻧﺪ‪ .‬اﯾﻦ ﺑﺮدار از ﺑﺮدار ﻫﺎي ﻣﺸﺨﺼﻪ اي ﮐﻪ ﺑﺎﻗﯽ ﻣﺎﻧﺪه اﻧﺪ‪ ،‬ﺳﺎﺧﺘﻪ ﺷﺪه اﺳﺖ‪.‬‬
‫ﺷﮑﻞ دﻫﯽ اﯾﻦ ﻣﺎﺗﺮﯾﺲ ﺑﺎ ﺑﺮدارﻫﺎي ﻣﺸﺨﺼﻪ ﺑﺎ ارزش ﺗﺮ‪ ،‬در ﺳﺘﻮن ﻫﺎﯾﯽ ﺑﻪ ﺗﺮﺗﯿﺐ زﯾﺮ ﺧﻮاﻫﺪ ﺑﻮد‪:‬‬

‫] ‪  [ 1  2 ...  n‬‬ ‫)‪(21-3‬‬

‫در ﻣﺮﺣﻠﻪ ﻧﻬﺎﯾﯽ ﺗﺤﻠﯿﻞ ﻣﻮﻟﻔﻪ ﻫﺎي اﺳﺎﺳﯽ‪ ،‬ﻫﺪف ﻧﻤﺎﯾﺶ داده ﻫﺎ ﺑﻪ ﺷﮑﻞ ﯾﮏ ﺑﺮدار وﯾﮋﮔﯽ ﻣﯽ ﺑﺎﺷﺪ‪ .‬در اﺑﺘﺪا‬
‫ﺗﺮاﻧﻬﺎده ﺑﺮدار وﯾﮋﮔﯽ را ﺑﻪ دﺳﺖ آورده و آن را در ﺗﺮاﻧﻬﺎده ﻣﺠﻤﻮﻋﻪ داده ﻫﺎي اﺻﻠﯽ ﺿﺮب ﻣﯽ ﮔﺮدد‪.‬‬

‫داده ﻫﺎي ﻧﻬﺎﯾﯽ= ')ﺑﺮدار ﻣﺸﺨﺼﻪ( × ')داده ﻫﺎي ﺟﺪﯾﺪ(‬ ‫)‪(22-3‬‬


‫‪28‬‬
‫ﺗﺮاﻧﻬﺎده ﺑﺮدار وﯾﮋﮔﯽ ﻣﺎﺗﺮﯾﺴﯽ ﺳﻄﺮي از ﺑﺮدارﻫﺎي ﻣﺸﺨﺼﻪ اﺳﺖ ﮐﻪ در آن ﺑﺮدار ﻫﺎي ﻣﺸﺨﺼﻪ ﭘﺮ اﻫﻤﯿﺖ ﺗﺮ‬
‫در اﺑﺘﺪاي ﺳﻄﺮ ﻗﺮار دارﻧﺪ‪ .‬داده ﻫﺎي ﺟﺪﯾﺪ ﻧﯿﺰ ﺗﺮاﻧﻬﺎده اﻃﻼﻋﺎت ﺗﻌﺪﯾﻞ ﺷﺪه ﺑﻪ ﺻﻮرت ﺳﻄﺮي ﻣﯽ ﺑﺎﺷﻨﺪ و‬
‫ﻣﺠﻤﻮﻋﻪ داده ﻫﺎي ﻧﻬﺎﯾﯽ ﺗﻨﻬﺎ داده ﻫﺎي اﺻﻠﯽ را ﺑﻪ ازاي ﺑﺮدارﻫﺎي اﺻﻠﯽ ﻧﺸﺎن ﻣﯽ دﻫﻨﺪ‪.‬‬

‫ﺷﺮوع‬

‫ﺟﻤﻊ آوري داده ﻫﺎ‬

‫ﮐﻢ ﮐﺮدن ﻣﯿﺎﻧﮕﯿﻦ از ﻫﺮ ﯾﮏ از داده ﻫﺎ در ﻫﺮ ﺑﻌﺪ‬

‫ﻣﺤﺎﺳﺒﻪ ﻣﺎﺗﺮﯾﺲ ﮐﻮوارﯾﺎﻧﺲ‬

‫ﻣﺤﺎﺳﺒﻪ ﺑﺮدارﻫﺎي ﻣﺸﺨﺼﻪ و ﻣﻘﺎدﯾﺮ وﯾﮋه را از‬

‫ﻣﺘﺮاﮐﻢ ﺳﺎزي داده ﻫﺎ‬

‫ﺑﺪﺳﺖ آوردن ﻣﺠﻤﻮﻋﻪ داده ﻫﺎي ﺟﺪﯾﺪ ﻣﺸﺘﻖ‬

‫ﺑﺪﺳﺖ آوردن ﺳﯿﮕﻨﺎل ﻫﺎي ﺗﺨﻤﯿﻨﯽ ﺷﺪه‬

‫ﭘﺎﯾﺎن‬

‫ﺷﮑﻞ ‪ -4-1‬ﺑﻠﻮك دﯾﺎﮔﺮام روش آﻧﺎﻟﯿﺰ ﻣﻮﻟﻔﻪ ﻫﺎي اﺳﺎﺳﯽ ﺑﺮاي ﺟﺪاﺳﺎزي ﺳﯿﮕﻨﺎل ﻫﺎي ﺗﺮﮐﯿﺒﯽ‬

‫اﻟﮕﻮرﯾﺘﻢ ‪ICA‬‬ ‫‪.3,8‬‬

‫از ﺳﺎده ﺗﺮﯾﻦ و اﺳﺎﺳﯽ ﺗﺮﯾﻦ روش ﻫﺎي در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﺪه ﺑﺮاي ﺣﻞ ﻣﺴﺌﻠﻪ ﺗﻔﮑﯿﮏ ﮐﻮر ﻣﻨﺎﺑﻊ‪ ،‬اﻟﮕﻮرﯾﺘﻢ آﻧﺎﻟﯿﺰ‬
‫ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ )‪ (ICA‬ﻣﯽ ﺑﺎﺷﺪ ﮐﻪ ﻫﺪف در آن ﯾﺎﻓﺘﻦ ﻣﻮﻟﻔﻪ ﻫﺎﯾﯽ از ﺳﯿﮕﻨﺎل ﻫﺎ اﺳﺖ ﮐﻪ ﺑﯿﺸﺘﺮﯾﻦ‬
‫اﺳﺘﻘﻼل آﻣﺎري را دارا ﻫﺴﺘﻨﺪ‪.‬‬
‫ﻫﺪف در ‪ ICA‬ﯾﺎﻓﺘﻦ ﻧﻤﺎﯾﺸﯽ ﺧﻄﯽ از داده ﻫﺎي ﻏﯿﺮ ﮔﻮﺳﯽ ﻣﯽ ﺑﺎﺷﺪ ﺗﺎ ﻣﻮﻟﻔﻪ ﻫﺎي ﺗﺨﻤﯿﻨﯽ ﺑﻄﻮر آﻣﺎري‬
‫ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ و ﯾﺎ ﺗﺎ ﺣﺪ ﻣﻤﮑﻦ اﺳﺘﻘﻼل وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ‪ .‬اﯾﻦ روش ﺑﺮاﺳﺎس اﻓﺰاﯾﺶ ﻣﯿﺰان ﻏﯿﺮﮔﻮﺳﯽ ﺑﻮدن‬

‫‪29‬‬
‫ﺳﯿﮕﻨﺎل ﺑﻨﺎ ﺷﺪه اﺳﺖ‪ .‬در اﯾﻦ روش ﻣﺎﺗﺮﯾﺲ ﺟﺪاﺳﺎز ‪ W‬در ﺟﻬﺖ ﮐﺎﻫﺶ ﮔﻮﺳﯽ ﮐﺮدن ﺳﯿﮕﻨﺎل ﻫﺎي ﺗﺮﮐﯿﺒﯽ‬
‫‪ X‬ﺑﻪ روز ﻣﯽ ﺷﻮد‪ .‬ﻣﯿﺰان ﮔﻮﺳﯽ ﺑﻮدن ﯾﮏ ﺳﯿﮕﻨﺎل ﺑﺎ ﭘﺎراﻣﺘﺮﻫﺎي ﮐﺮﺗﻮﺳﯿﺲ و ﯾﺎ آﻧﺘﺮوﭘﯽ اﻧﺪازه ﮔﯿﺮي ﻣﯽ‬
‫ﺷﻮد ﮐﻪ اﯾﻦ ﻣﻌﯿﺎرﻫﺎ ﺑﻪ ﺻﻮرت ﺗﻘﺮﯾﺒﯽ ﺑﺪﺳﺖ ﻣﯽ آﯾﻨﺪ‪ .‬ﺿﺮاﯾﺐ ﻣﺎﺗﺮﯾﺲ ﺟﺪاﺳﺎز ﺑﺎ اﺳﺘﻔﺎده از رواﺑﻂ زﯾﺮ ﺑﻪ روز‬
‫ﻣﯽ ﺷﻮﻧﺪ‪:‬‬

‫‪y  x*W‬‬
‫)‪Y  tanh(y‬‬
‫)) )‪H  ((1/ N) *sum(sum(Y))  0.5*log( det(W‬‬
‫)‪(23-3‬‬
‫‪g 1‬‬ ‫(‪' ‬‬
‫‪2 ) * x ' *Y‬‬
‫‪W‬‬ ‫‪N‬‬
‫‪W  W   *g‬‬

‫‪ H‬ﺗﻘﺮﯾﺒﯽ از آﻧﺘﺮوﭘﯽ و ‪ μ‬اﻧﺪازه ﮔﺎم ﻣﯽ ﺑﺎﺷﺪ‪ .‬ﻫﻤﺎﻧﻄﻮر ﮐﻪ ﮔﻔﺘﻪ ﺷﺪ اﺳﺘﻔﺎده از ﺗﻘﺮﯾﺐ‪ ،‬دﻗﺖ اﻟﮕﻮرﯾﺘﻢ را‬
‫ﮐﺎﻫﺶ ﺧﻮاﻫﺪ داد‪.‬‬

‫اﻟﮕﻮرﯾﺘﻢ ‪FastICA‬‬ ‫‪.3,9‬‬

‫در اﻟﮕﻮرﯾﺘﻢ ‪ FastICA‬ﺑﺮدار وزن ‪ W‬ﮐﻪ ﺑﻪ وﺳﯿﻠﻪ ﯾﮏ ﻗﺎﻧﻮن ﯾﺎدﮔﯿﺮي اﺳﺎﺳﯽ ﺑﻪ روز ﻣﯽ ﺷﻮد‪ ،‬در ﻧﻈﺮ ﮔﺮﻓﺘﻪ‬
‫ﻣﯽ ﺷﻮد‪ .‬اﯾﻦ ﻗﺎﻧﻮن ﯾﺎدﮔﯿﺮي‪ ،‬اﻟﮕﻮرﯾﺘﻢ را ﺑﻪ ﺳﻤﺘﯽ ﻫﻤﮕﺮا ﻣﯽ ﮐﻨﺪ ﮐﻪ در آن ﺑﺮاي ﺑﺮدار واﺣﺪ ‪ ، W‬ﻏﯿﺮﮔﻮﺳﯿﻨﯽ‬
‫‪ W T x‬ﻣﺎﮐﺰﯾﻤﻢ ﺑﺎﺷﺪ‪ .‬ﺗﻌﯿﯿﻦ ﻣﯿﺰان ﻏﯿﺮﮔﻮﺳﯿﻨﯽ ﺑﺎ ﺗﻘﺮﯾﺐ ﻧﮕﻨﺘﺮوﭘﯽ ‪ J  W T x ‬در راﺑﻄﻪ )‪ (18-1‬اﻧﺪازه ﮔﯿﺮي‬
‫ﻣﯽ ﺷﻮد‪ .‬اﻟﺒﺘﻪ ﺑﺎﯾﺪ در ﻧﻈﺮ ﮔﺮﻓﺖ ﮐﻪ وارﯾﺎﻧﺲ ‪ W T x‬ﺑﺎﯾﺪ ﻣﻘﯿﺪ ﺑﻪ ﻣﻘﺪار واﺣﺪ ﺑﺎﺷﺪ ﮐﻪ ﺑﺮاي داده ﻫﺎي ﺳﻔﯿﺪ‬
‫ﺷﺪه ﻣﻌﺎدل ﺑﺎ واﺣﺪ ﺑﻮدن ﻧﺮم ‪ W‬ﻣﯽ ﺑﺎﺷﺪ‪ .‬ﻫﻤﺎﻧﻄﻮر ﮐﻪ ﮔﻔﺘﻪ ﺷﺪ اﻟﮕﻮرﯾﺘﻢ ‪ FastICA‬ﺑﺮاﺳﺎس ﯾﮏ ﻃﺮح‬
‫ﺗﮑﺮار ‪ Fixed-point‬ﺑﺮاي ﯾﺎﻓﺘﻦ ﻣﺎﮐﺰﯾﻤﻢ ﻏﯿﺮﮔﻮﺳﯿﻨﯽ ‪ W T x‬ﺑﺮاﺳﺎس ﻧﮕﻨﺘﺮوﭘﯽ اﻧﺠﺎم ﻣﯽ ﮔﯿﺮد‪.‬‬
‫ﻓﺮض ﮐﻨﯿﺪ ﮐﻪ ‪ g‬ﻣﺸﺘﻖ ﺗﺎﺑﻊ ﻏﯿﺮ درﺟﻪ دوم ‪ G‬اﺳﺘﻔﺎده ﺷﺪه در راﺑﻄﻪ ﻧﮕﻨﺘﺮوﭘﯽ ﺑﺎﺷﺪ‪ .‬ﺑﺮاي ﻣﺜﺎل ﻣﺸﺘﻘﺎت‬
‫ﺗﻮاﺑﻊ راﺑﻄﻪ )‪ (19-1‬را ﺑﻪ ﺻﻮرت زﯾﺮ در ﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ‪:‬‬

‫‪‬‬
‫‪g 1  u   tanh  a 1u  , g 2  u   u exp  u‬‬
‫‪2‬‬
‫‪‬‬ ‫)‪(24-3‬‬
‫‪2‬‬

‫ﮐﻪ ‪ 1  a 1  2‬ﯾﮏ ﺛﺎﺑﺖ ﻣﻨﺎﺳﺐ اﺳﺖ ﮐﻪ اﻏﻠﺐ ‪ . a 1  1‬ﻓﺮم اﺳﺎﺳﯽ اﻟﮕﻮرﯾﺘﻢ ‪ FastICA‬ﺑﻪ ﺻﻮرت زﯾﺮ ﻣﯽ‬
‫ﺑﺎﺷﺪ‪:‬‬
‫‪30‬‬
‫‪ ‬اﻧﺘﺨﺎب ﯾﮏ ﺑﺮدار وزن ﺗﺼﺎدﻓﯽ اوﻟﯿﻪ ‪W‬‬

‫در ﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ ‪W   E x g  W T x   E g '  W T x  W‬‬


‫‪‬‬ ‫‪ ‬‬ ‫‪‬‬ ‫‪‬‬

‫‪WW‬‬ ‫‪ ‬در ﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ‬


‫‪W‬‬

‫‪ ‬در ﺻﻮرت ﻋﺪم ﻫﻤﮕﺮاﯾﯽ‪ ،‬اﻟﮕﻮرﯾﺘﻢ ﺑﻪ ﻣﺮﺣﻠﻪ دوم ﺑﺮ ﻣﯽ ﮔﺮدد‪.‬‬

‫ﻫﻤﮕﺮاﯾﯽ زﻣﺎﻧﯽ در اﯾﻦ اﻟﮕﻮرﯾﺘﻢ رخ ﻣﯽ دﻫﺪ ﮐﻪ ﻣﻘﺪار ﻗﺒﻠﯽ و ﻣﻘﺪار ﺟﺪﯾﺪ ‪ W‬ﻣﺸﺎﺑﻪ ﺑﺎﺷﻨﺪ‪ .‬ﺧﺼﻮﺻﯿﺎت‬
‫اﻟﮕﻮرﯾﺘﻢ ‪ FastICA‬ﺑﻪ ﺻﻮرت زﯾﺮ ﻣﯽ ﺑﺎﺷﺪ ‪:‬‬

‫‪ ‬اﺳﺘﻔﺎده از آن ﺑﻪ ﻋﻠﺖ ﻋﺪم ﻧﯿﺎز ﺑﻪ اﻧﺪازه ﮔﺎم در ﻣﻘﺎﯾﺴﻪ ﺑﺎ اﻟﮕﻮرﯾﺘﻢ ﻫﺎي ﻣﺒﺘﻨﯽ ﺑﺮ ﮔﺮادﯾﺎن آﺳﺎن اﺳﺖ‪.‬‬
‫‪ ‬ﻫﻤﮕﺮاﯾﯽ ﺳﺮﯾﻌﯽ دارد ﮐﻪ ﺗﻮﺳﻂ ﺷﺒﯿﻪ ﺳﺎزي ﻫﺎ و آزﻣﺎﯾﺸﺎت ﺑﺮ روي داده ﻫﺎي واﻗﻌﯽ ﺗﺎﯾﯿﺪ ﺷﺪه اﺳﺖ‪.‬‬
‫‪ ‬ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺴﺘﻘﻞ ﯾﮏ ﺑﻪ ﯾﮏ ﺗﺨﻤﯿﻦ زده ﻣﯽ ﺷﻮﻧﺪ ﮐﻪ ﺑﺎﻋﺚ ﮐﺎﻫﺶ ﺑﺎر ﻣﺤﺎﺳﺒﺎﺗﯽ ﻣﯽ ﺷﻮد‪.‬‬
‫‪ ‬اﯾﻦ روش ﻣﺰاﯾﺎي زﯾﺎدي ﺑﺮ روش ﻫﺎي ﻣﺒﺘﻨﯽ ﺑﺮ اﻟﮕﻮرﯾﺘﻢ ﻫﺎي ﻋﺼﺒﯽ دارد‪ .‬ﻣﺎﻧﻨﺪ‪ :‬ﻗﺎﺑﻠﯿﺖ اﺟﺮا ﺑﺼﻮرت‬
‫ﻣﻮازي‪ ،‬ﺗﻮزﯾﻊ ﺷﺪه ﺑﻮدن‪ ،‬ﺳﺎدﮔﯽ ﻣﺤﺎﺳﺒﺎت و ﻧﯿﺎز ﺑﻪ ﻓﻀﺎي ﮐﻢ ﺣﺎﻓﻈﻪ‪.‬‬

‫‪31‬‬
: ‫ ﻣﻨﺎﺑﻊ‬.4

[1]: James V. Stone, "Independent component analysis A tutorial introduction ", Second
Edition, 2006 A Bradford Book TheMIT Press Cambridge,Massachusetts London,
England.
[2]: A. Hyvarinen, “Fast and Robust Fixed-point Algorithms for Independent Component
Analysis”, IEEE Trans. On neural networks, vol.10, pp.626-634, 1999.
.
[3]: A. Hyvärinen, “Independent component analysis Algorithms and Applications”,
Helsinki university of technology, FinlandNeural Networks, 13(4-5):411-430, 2000.

32

You might also like