Download as pdf or txt
Download as pdf or txt
You are on page 1of 237

‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻤﻬﺎ‬

‫اﻳﻦ ﻣﺘﻦ در ﻛﻨﺎر ﻛﺘﺎب ﻣﺮﺟﻊ ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار ﻣﻲ ﮔﻴﺮد‪.‬‬


‫‪Ljung, System Identification: Theory for the User‬‬
‫‪Second Edition, 1999.‬‬

‫ﺳﻌﻴﺪ ﺳﻴﺪﻃﺒﺎﻳﻲ‬
‫ﭘﺎﻳﻴﺰ ‪93‬‬
‫ﻣﺮاﺟﻊ‬
1. Ljung, System identification, 1999.
2. Nelles, Nonlinear system identification, 2001
3. Isermann, Fault-Diagnosis Systems, 2006

Contents
1. Introduction
2. Impulse response and spectrum
3. Nonparametric SI: Impulse response and spectrum
4. Prediction
5. Prediction models: LR, PLR
6. Parameter estimation: Optimization algorithms
7. Estimation quality: Variance of prediction error and parameters
8. Optimization computation algoritms: Batch, Iterative and Recursive
9. SI parameters: input, preprocessing and L, Sampling frequency, and ℓ
10. SI parameters: Model selection and validation, closed loop, experimental practice.
11. Nonlinear system identification: NN
12. Nonlinear system identification: Wavelet, Fuzzy, ANFIS
13. Fault detection and diagnosis
‫‪ 1‬ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ‬

‫‪Ljung chapter 1‬‬

‫ﺗﻌﺎرﻳﻒ‬ ‫‪1-1‬‬

‫‪ ‬ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ‬
‫ﺗﻮﺻﻴﻒ رﻓﺘﺎر ﻳﻚ ﺳﻴﺴﺘﻢ ﻣﺪﻟﺴﺎزي اﺳﺖ ﻛﻪ ﺑﻪ ﻣﻌﻨﻲ ﻛﺸﻒ "‪ "laws of nature‬اﺳﺖ‪ .‬ﻣﺪﻟﺴﺎزي ﻣﻤﻜﻦ اﺳـﺖ ﺑـﺮ‬
‫اﺳﺎس آﻧﺎﻟﻴﺰ رﻳﺎﺿﻲ و ﻳﺎ ﺑﺮ اﺳﺎس اﻧﺪازه ﮔﻴﺮﻳﻬﺎي ﺗﺠﺮﺑﻲ ﺻﻮرت ﮔﻴﺮد‪ .‬ﺑﻪ ﻣﺪﻟﺴﺎزﻳﻲ ﻛﻪ ﺑﺎ اﺗﻜﺎ ﺑﺮ دﻳﺘـﺎي ﺗﺠﺮﺑـﻲ"‬
‫‪ "Experimental data‬اﻧﺠﺎم ﻣﻲ ﺷﻮد ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ "‪ "System identification‬ﮔﻔﺘﻪ ﻣﻲ ﺷﻮد‪ .‬ﺑﻨـﺎﺑﺮاﻳﻦ‬
‫ﺷﻨﺎﺳﺎﻳﻲ زﻳﺮ ﻣﺠﻤﻮﻋﻪ ﻣﺪﻟﺴﺎزي ”‪ “Modeling‬اﺳﺖ‪.‬‬
‫ﺳﻴﺴﺘﻤﻬﺎي دﻧﻴﺎي واﻗﻌﻲ ﺑﺎ ﻣﺪﻟﻬﺎي رﻳﺎﺿﻲ و آﻧﭽﻪ ﺷﻨﺎﺳﺎﻳﻲ ﻣﻲ ﺷﻮد ﺗﻔﺎوت دارﻧﺪ‪ .‬در اﻳﻦ راﺑﻄﻪ آﻧﭽـﻪ اﻫﻤﻴـﺖ دارد‬
‫"‪ "usefulness‬ﺑﻪ ﺟﺎي ‪ True system‬اﺳﺖ‪.‬‬
‫‪ ‬ﺳﻴﺴﺘﻢ‪ :‬ﺳﻴﺴﺘﻢ ﻣﺠﻤﻮﻋﻪ اي از اﺟﺰا ﺳﺨﺖ اﻓﺰاري ‪ -‬ﻧﺮم اﻓـﺰاري اﺳـﺖ ﻛـﻪ ﺑـﻪ ﻫـﺪف ﻣﺸﺨﺼـﻲ ﻛﻨـﺎر ﻳﻜـﺪﻳﮕﺮ‬
‫ﻗﺮارﮔﺮﻓﺘﻪ ﻳﺎ ﻣﻲ ﮔﻴﺮﻧﺪ‪.‬‬
‫ورودي ‪ :‬ﺳﻴﺴﺘﻢ ﺗﺤﺖ ﺗﺎﺛﻴﺮ ﻋﻮاﻣﻞ ﺧﺎرﺟﻲ اﺳﺖ‪ .‬ورودي ﻋﺎﻣﻞ ﺧﺎرﺟﻲ اﺳﺖ ﻛـﻪ ﻣﻘـﺪار آن ﻗﺎﺑـﻞ اﻧـﺪازره ﮔﻴـﺮي و‬
‫ﻗﺎﻋﺪﺗﺎ ﻗﺎﺑﻞ ﺗﻨﻈﻴﻢ اﺳﺖ‪.‬‬
‫اﺧﺘﻼل‪ disturbance :‬ورودي ﻧﺎ ﺧﻮاﺳﺘﻪ اي اﺳﺖ ﻛﻪ اﻣﻜﺎن ﺣﺬف آن ﻣﻴﺴﺮ ﻧﻴﺴﺖ‪ .‬اﺧﺘﻼل ﻣﻤﻜﻦ اﺳﺖ ﻗﺎﺑﻞ اﻧﺪازه‬
‫ﮔﻴﺮي ﺑﺎﺷﺪ ﻳﺎ ﺗﻨﻬﺎ ﺗﺎﺛﻴﺮ آن در ﺧﺮوﺟﻲ دﻳﺪه ﺷﻮد‪.‬‬
‫ﺧﺮوﺟﻲ‪ :‬ﺳﻴﺴﺘﻢ ﺑﻪ ﻧﻮﺑﻪ ﺧﻮد ﺑﺮ ﻣﺤﻴﻂ ﺧﺎرج ﺗﺎﺛﻴﺮ ﻣﻲ ﮔﺬارد‪ .‬ﺗﺎﺛﻴﺮ ﻣﻮرد ﻋﻼﻗﻪ ﻛﻪ اﻧﺪازه ﮔﻴﺮي ﻣﻲ ﺷـﻮد ﺧﺮوﺟـﻲ‬
‫اﺳﺖ‪.‬‬

‫‪Example 1.1 A Solar-Heated House‬‬ ‫‪ ‬ﻣﺜﺎل ﺗﺎﻣﻴﻦ ﺣﺮارت ﺧﻮرﺷﻴﺪي‬


‫در اﻳﻦ ﺳﻴﺴﺘﻢ ‪ solar panel‬ﮔﺮﻣﺎ را از ﺧﻮرﺷﻴﺪ ﻣﻲ ﮔﻴﺮد و ﺑﻪ ﻫﻮاي داﺧﻞ آن ﻣﻨﺘﻘﻞ ﻣﻲ ﺷﻮد‪ .‬ﭘﻤﭗ ‪ 1‬ﻫـﻮاي ﮔـﺮم‬
‫را ﺑﻪ ‪ heat storage‬ﻣﻨﺘﻘﻞ ﻣﻲ ﻛﻨﺪ و در ﻧﻬﺎﻳﺖ اﻳﻦ اﻧﺮژي ﺑﺼﻮرت ﻛﻨﺘﺮل ﺷﺪه ﺗﻮﺳﻂ ﭘﻤﭗ ‪ ٢‬ﺑـﻪ اﺗـﺎق ﻣﻨﺘﻘـﻞ ﻣـﻲ‬
‫ﺷﻮد ﻣﻄﺎﺑﻖ ﺷﻜﻞ زﻳﺮ‪.‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ‪ -‬ﻣﻘﺪﻣﻪ‪ -‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪ -‬ﺳﻌﻴﺪ ﺳﻴﺪ ﻃﺒﺎﻳﻲ‬

‫در اﻳﻦ ﺳﻴﺴﺘﻢ ﺳﺮﻋﺖ ﭘﻤﭗ ‪ 2‬ورودي‪ ،‬ﺗﺎﺑﺶ ﺧﻮرﺷﻴﺪ‪ ،‬ﺑﺎد و ﺳﺮﻋﺖ ﭘﻤﭗ ‪ 1‬اﺧﺘﻼل و درﺟﻪ ﺣـﺮارت اﺗـﺎق ﻳـﺎ درﺟـﻪ‬
‫ﺣﺮارت ‪ heat storage‬ﺧﺮوﺟﻲ ﻫﺴﺘﻨﺪ‪ .‬ﺷﻜﻞ ﺷﺪت ﺗﺎﺑﺶ ﺧﻮرﺷﻴﺪ و درﺟـﻪ ﺣـﺮارت ‪ heat storage‬ﻛـﻪ ﻣـﻲ ﺑﺎﻳـﺪ‬
‫ﺗﺜﺒﻴﺖ ﺷﻮد را ﺑﺮاي ﻳﻚ ﺑﺎزه ‪ 50‬ﺳﺎﻋﺘﻲ ﺑﺎ ﭘﺮﻳﻮد ﻧﻤﻮﻧﻪ ﺑﺮداري ‪ 10‬دﻗﻴﻘﻪ اي را ﻧﺸﺎن ﻣﻲ دﻫﺪ‪.‬‬

‫‪longitudinal (forward) motion‬‬ ‫‪ ‬ﻣﺜﺎل‪ :‬ﺣﺮﻛﺖ رو ﺑﻪ ﺟﻠﻮ ﺧﻮدرو‬


‫‪ Inputs: Gas pedal position, gear, brake pedal position.‬‬
‫‪ Output: Velocity.‬‬
‫‪2-1‬‬
‫ ﺳﻌﻴﺪ ﺳﻴﺪ ﻃﺒﺎﻳﻲ‬-‫ داﻧﺸﮕﺎه ﺷﺎﻫﺪ‬-‫ ﻣﻘﺪﻣﻪ‬-‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ‬

 Disturbance: Friction with varying road surfaces


‫ ﺑﺎزوي رﺑﺎت ﻛﻪ ﻗﻄﻌﻪ اي را ﺟﺎﺑﺠﺎ ﻣﻲ ﻛﻨﺪ‬:‫ ﻣﺜﺎل‬
 Inputs: DC voltages on the link and end-effector motors.
 Outputs: The positions of the links and of the end-effector.
 Disturbances: Mass of the picked-up object (load), friction.
Example 1.2 A Military Aircraft ‫ ﻫﻮاﭘﻴﻤﺎ‬roll ‫ ﺣﺮﻛﺖ‬:‫ ﻣﺜﺎل‬
 Input: Aileron deflection angle.
 Output: Aircraft roll angle.
 Disturbances: Wind, inputs from other control surfaces, etc.
Example 1.3 Speech ‫ ﺗﻮﻟﻴﺪ ﺻﻮت‬:‫ ﻣﺜﺎل‬
‫ در اﻳﻦ ﺳﻴﺴﺘﻢ‬.‫ ﻓﻀﺎي دﻫﺎن و ﻟﺐ ﻋﻮاﻣﻞ ﺗﻮﻟﻴﺪ ﺻﻮت ﻫﺴﺘﻨﺪ‬،‫ ﺗﺎرﻫﺎي ﺻﻮﺗﻲ‬،‫ﻓﺸﺎر ﻫﻮاي رﻳﻪ‬
Output: of this system is sound vibration (i.e., the air pressure),
‫ ﺣﺮﻛﺖ زﺑﺎن و ﻟﺐ ﻛﻪ ﺗﻮﺳﻂ‬،‫ ﺷﻜﻞ ﮔﻴﺮي ﻓﻀﺎي دﻫﺎن‬،‫ روودﻳﻬﺎي اﻳﻦ ﺳﻴﺴﺘﻢ ﺷﺎﻣﻞ دﺳﺘﻮر ﻧﻮﺳﺎن ﺗﺎرﺻﻮﺗﻲ‬Input
‫ﻣﻐﺰ ﺻﺎدر ﻣﻲ ﺷﻮﻧﺪ و ﻗﺎﺑﻞ اﻧﺪازه ﮔﻴﺮي ﻧﻴﺴﺘﻨﺪ ﻣﻲ ﻳﺎﺷﺪ‬

:Time series 
.‫ ﻣﺜﺎﻟﻬﺎي دﻳﮕﺮ آن در ﻣﺴﺎﺋﻞ اﻗﺘﺼﺎدي ﻳﺎﻓﺖ ﻣﻲ ﺷﻮد‬.‫ ﺳﺮﻳﻬﺎي زﻣﺎﻧﻲ ﻣﻲ ﮔﻮﻳﻨﺪ‬،‫ﺑﻪ ﺧﺮوﺟﻲ ﺳﻴﺴﺘﻤﻬﺎي اﻳﻨﮕﻮﻧﻪ‬

3-1
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ‪ -‬ﻣﻘﺪﻣﻪ‪ -‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪ -‬ﺳﻌﻴﺪ ﺳﻴﺪ ﻃﺒﺎﻳﻲ‬

‫ﻛﺎرﺑﺮدﻫﺎ‬ ‫‪2-1‬‬
‫‪:‬ﻣﺪﻟﺴﺎزي ﺑﻄﻮر ﻋﺎم و ﺷﻨﺎﺳﺎﻳﻲ ﺑﻄﻮر ﺧﺎص در ﻣﻮارد زﻳﺮ ﻛﺎرﺑﺮد دارد‬
‫‪ : Control design :1‬ﺑﺮاي ﻃﺮاﺣﻲ ﻛﻨﺘﺮﻟﺮ ﻛﻪ ﺑﺘﻮاﻧﺪ اﻫﺪاف ﻛﻨﺘﺮﻟﻲ را ﺗﺎﻣﻴﻦ ﻛﻨﺪ ﺗﻤﺎﻣﻲ ‪ plant‬ﻳﺎ ﺣـﺪاﻗﻞ ﺑﺨـﺶ‬
‫ﻧﺎﻣﻲ آن ﺑﺎﻳﺪ ﻣﺪﻟﺴﺎزي ﺷﻮد‪ .‬اﻳﻦ ﻣﻮﺿﻮع وﻗﺘﻲ ﺷﺮاﻳﻂ ﻛﺎر ﺳﻴﺴﺘﻢ ﻣﺘﻐﻴـﺮ اﺳـﺖ اﻫﻤﻴـﺖ ﺑﻴﺸـﺘﺮ ﭘﻴـﺪا ﻣـﻲ ﻛﻨـﺪ‪ .‬از‬
‫ﻣﻮﺿﻮﻋﺎت ﻣﻬﻢ در زﻣﻴﻨﻪ ﻛﻨﺘﺮل آن اﺳﺖ ﻛﻪ وﻗﺘﻲ از ﻛﻨﺘﺮل ﻣﻘﺎوم اﺳﺘﻔﺎده ﺷﻮد ﻳﻜﻤﺪل ﺗﻘﺮﻳﺒﻲ ﻧﻴـﺰ ﺑـﺮاي ﻛﻨﺘـﺮل‬
‫ﻛﻔﺎﻳﺖ ﻣﻲ ﻛﻨﺪ‬
‫‪ :Prediction :2‬ﭘﻴﺶ ﺑﻴﻨﻲ ﺗﺤﻮﻻت ﻣﺎﻧﻨﺪ ﻣﺼﺮف ﺑﺮق‪ ،‬ﺑﻮرس‪ ،‬ﺑﺎرﻧﺪﮔﻲ )ﺳﺮي ﻫـﺎي زﻣـﺎﻧﻲ ‪ (Time series‬ﻧﻤﻮﻧـﻪ‬
‫ﻫﺎﻳﻲ دﻳﮕﺮي از ﻛﺎرﺑﺮد ﻣﺪﻟﺴﺎزي اﺳﺖ‬

‫‪ : System (re) design :3‬ﺷﻨﺎﺳﺎﻳﻲ ﺑﻪ ﻣﻨﻈﻮر درك و ﺗﺒﻴﻴﻦ رﻓﺘﺎر ﻳﻚ ﺳﻴﺴﺘﻢ )‪ (machine learning‬ﺗﺎ در ﺑـﺎز‬
‫ﻃﺮاﺣﻲ ﺳﻴﺴﺘﻢ )ﻛﭙﻲ ﺳﺎزي( ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار ﮔﻴﺮد‪.‬‬
‫‪ :4‬ﺗﻌﻴﻴﻦ ﻣﺪل ﺳﻴﮕﻨﺎل ﻳﺎ ﻧﻮﻳﺰ ﺑﻪ ﻣﻨﻈﻮر ﻃﺮاﺣﻲ ﻓﻴﻠﺘﺮ ﺑﺮاي ﺣﺬف ﻧﻮﻳﺰ از ﺳﻴﮕﻨﺎل‬
‫‪: Simulation :5‬ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ ﺑﻪ ﻣﻨﻈﻮر ﻣﺪﻟﺴﺎزي روي ﻛﺎﻣﭙﻴﻮﺗﺮ و اﻧﺠﺎم آﻧﺎﻟﻴﺰﻫﺎي ﺑﻴﺸﺘﺮ ﺑـﺎ ﻫﺰﻳﻨـﻪ ﻛﻤﺘـﺮ از‬
‫آزﻣﻮن ﻋﻤﻠﻲ‪ .‬ﻣﻨﻈﻮر از ﺷﺒﻴﻪ ﺳﺎزي ﭘﻴﺎده ﺳﺎزي ﺳﻴﺴﺘﻢ روي ﭘﻠﺘﻔﻮرﻣﻲ ﺳﺎده ﺗﺮ از ﭘﻠﺘﻔﻮرم اﺻﻠﻲ ﺑﻪ ﻣﻨﻈـﻮر ﺑﺮرﺳـﻲ‬

‫‪4-1‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ‪ -‬ﻣﻘﺪﻣﻪ‪ -‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪ -‬ﺳﻌﻴﺪ ﺳﻴﺪ ﻃﺒﺎﻳﻲ‬

‫رﻓﺘﺎر ﺳﻴﺴﺘﻢ اﺳﺖ‪ .‬اﻣﺮوزه ﺷﺒﻴﻪ ﺳﺎزي دﻳﺠﻴﺘﺎﻟﻲ ﺻﻮرت ﻣﻲ ﮔﻴﺮد‪ .‬ﺑـﺮاي اﻳـﻦ ﻣﻨﻈـﻮر ﻣـﺪل ﺷﻨﺎﺳـﺎﻳﻲ ﺷـﺪه ﺗﺤـﺖ‬
‫ﺷﺮاﻳﻂ ﻣﺨﺘﻠﻒ ورودي و اﺧﺘﻼل ﻗﺮار ﮔﺮﻓﺘﻪ رﻓﺘﺎر آن ﻣﻮرد ﺑﺮرﺳﻲ ﻗﺮار ﻣﻲ ﮔﻴﺮد‪.‬‬
‫‪flight simulators or nuclear power station training simulators are of course far more complex‬‬

‫‪ :Fault detection, diagnosis :6‬ﺗﺸﺨﻴﺺ ﻋﻴﺐ در ﺳﻴﺴﺘﻤﻬﺎ‬

‫اﻧﻮاع ﻣﺪﻟﻬﺎ‬ ‫‪3-1‬‬


‫ﺗﻮﺻﻴﻒ رﻓﺘﺎر اﺳﺎﺳﻲ ﻳﻚ ﺳﻴﺴﺘﻢ ﻣﻤﻜﻦ اﺳﺖ‬
‫‪ .1‬ﺑﺼﻮرت ذﻫﻨﻲ ﻳﺎ ﻛﻼﻣﻲ ‪Mental or verbal models‬‬
‫‪ .2‬از ﻃﺮﻳﻖ ﺟﺪول و ﻧﻤﻮدار ﻣﺎﻧﻨﺪ ﻧﻤﻮدار ﺑﺪ ﻳﺎ ﭘﺎﺳﺦ ﺿﺮﺑﻪ ‪Graphs and tables‬‬
‫‪Mathematical models‬‬ ‫‪ .3‬ﻓﺮﻣﻮل رﻳﺎﺿﻲ‬
‫‪Software models‬‬ ‫‪ .4‬ﻳﺎ ﺑﺮﻧﺎﻣﻪ ﻛﺎﻣﭙﻴﻮﺗﺮي‬
‫ﺑﺎﺷﺪ‪ .‬ﻣﺪﻟﻲ ﻛﻪ رﻓﺘﺎر واﻗﻌﻲ ﻳﻚ ﺳﻴﺴﺘﻢ را ﺗﻮﺻﻴﻒ ﻛﻨﻨﺪه ﻋﻤﻮﻣﺎ ﻏﻴﺮ ﻗﺎﺑﻞ دﺳﺘﻴﺎﺑﻲ و ﭘﻴﭽﻴﺪه اﺳﺖ اﺳﺖ ﻟﺬا ﻣﺪﻟﻬﺎي‬
‫ﺳﺎده ﺗﺮ ﺗﻘﺮﻳﺒﻲ ﺑﻴﺸﺘﺮ ﻗﺎﺑﻠﻴﺖ درك و ﻛﺎرﺑﺮد ﻫﺴﺘﻨﺪ‪.‬‬

‫ﻣﺪل ذﻫﻨﻲ ﻳﺎ ﻛﻼﻣﻲ ‪Mental models‬‬ ‫‪1-3-1‬‬


‫ﺑﺸﺮ رﻓﺘﺎر ﺳﻴﺴﺘﻤﻬﺎ را ﻣﻤﻜﻦ اﺳﺖ ﺑﻄﻮر ذﻫﻨﻲ ﻳﺎ ﻛﻼﻣﻲ ﻣﺪل )ﺗﻮﺻﻴﻒ( ﻛﻨﺪ‪.‬‬
‫‪ Turning the wheel causes the car to turn.‬‬
‫‪ Pressing the gas pedal makes the car accelerate.‬‬
‫‪ Pressing the brake pedal makes the car slow down.‬‬
‫ﻣﺪﻟﺴﺎزي ﻓﺮﻣﺎﻧﺒﺮي ﺧﻮدرو ﻛﻪ ﺑﺼﻮرت ﺗﺠﺮﺑﻲ اﺳﺖ ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ اﺳﺖ‪ .‬ﺷﻨﺎﺳﺎﻳﻲ ﺑﺮ اﺳﺎس ﻣﺪل ذﻫﻨﻲ ﻣﻲ ﺗﻮاﻧﺪ‬
‫ﻣﻨﺠﺮ ﺑﻪ ‪ Fuzzy modeling‬ﺷﻮد‬

‫‪ 2-3-1‬ﻣﺪﻟﻬﺎي ﮔﺮاﻓﻴﻜﻲ ‪Table or plot modeling‬‬


‫‪ ‬در ﻣﻮاردي ﻣﺪل ﺗﻮﺻﻴﻔﻲ ﺳﻴﺴﺘﻢ ﺑﺼﻮرت ﮔﺮاف اﺳﺖ ﻣﺎﻧﻨﺪ ﭘﺎﺳﺦ ﺿﺮﺑﻪ‪ ،‬ﭘﺎﺳﺦ ﭘﻠﻪ‪ ،‬ﭘﺎﺳﺦ ﻓﺮﻛﺎﻧﺴﻲ در ﺳﻴﺴﺘﻤﻬﺎي‬
‫ﺧﻄﻲ و ﻧﻤﻮدار رﻓﺘﺎر ﺷﻴﺮﻫﺎ و ﻣﺤﺮﻛﻬﺎي ﻏﻴﺮ ﺧﻄﻲ‬
‫‪ ‬ﻳﺎ ﺑﺼﻮرت ﺟﺪول اﺳﺖ ﻣﺎﻧﻨﺪ ﻋﻤﻠﻜﺮد ﺳﻴﺴﺘﻤﻬﺎي ﺗﺮﺗﻴﺒﻲ و ﻣﻨﻄﻘﻲ ﻣﺎﻧﻨـﺪ ﻋﻤﻠﻜـﺮد ‪ AND ،OR‬و ﺳﻴﺴـﺘﻤﻬﺎي‬
‫ﭘﻴﭽﻴﺪه ﺗﺮ در ﺟﺪاول ﻣﺎﻧﻨﺪ ﺟﺪول ﻛﺎرﻧﻮ‬

‫‪5-1‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ‪ -‬ﻣﻘﺪﻣﻪ‪ -‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪ -‬ﺳﻌﻴﺪ ﺳﻴﺪ ﻃﺒﺎﻳﻲ‬

‫‪ ‬ﻳﺎ ﺑﺼﻮرت ﺷﻜﻞ اﺳﺖ ﻣﺎﻧﻨﺪ ﺗﻮﺻﻴﻒ ﺳﻴﺴﺘﻢ ‪ hard drive read-write head‬ﻛﻪ ﻣﻄﺎﺑﻖ ﺷﻜﻞ زﻳﺮ اﺳـﺖ‪ .‬در اﻳـﻦ‬
‫ﺷﻜﻞ ورودي‪ :‬ﻣﻮﺗﻮر و ﺧﺮوﺟﻲ‪ :‬ﻣﻮﻗﻌﻴﺖ ‪ head‬ﻧﺸﺎن داده ﻣﻲ ﺷﻮد‪.‬‬

‫ﺷﻨﺎﺳﺎﻳﻲ ﺑﺮ اﺳﺎس ﻣﺪل ﮔﺮاﻓﻴﻜﻲ ‪ Nonparametric approach‬ﻧﺎم دارد‪ .‬ﻧﺘﻴﺠـﻪ اﻳـﻦ روش ﺑـﺮاي اﻋﺘﺒـﺎر ﺳـﻨﺠﻲ‬
‫‪ validation‬ﻣﺪل ﭘﺎراﻣﺘﺮﻳﻚ ﻣﻔﻴﺪ اﺳﺖ‬

‫‪ 3-3-1‬ﻣﺪﻟﻬﺎي رﻳﺎﺿﻲ ‪Math models‬‬


‫ﻋﻤﻮﻣﺎ وﻗﺘﻲ از ﻣﺪل ﻧﺎم ﺑﺮده ﻣﻲ ﺷﻮد ﻣﻨﻈﻮر ﻣﺪل رﻳﺎﺿﻲ اﺳﺖ ﻛﻪ ﺑﻄﻮر ﭘﺎﻳﻪ ﺑﺎ ﻣﻌﺎدﻻت دﻳﻔﺮاﻧﺴﻴﻞ ﻳﺎ دﻳﻔﺮﻧﺲ ﺑﻴـﺎن‬
‫ﻣﻲ ﺷﻮﻧﺪ‪ .‬اﻳﻦ ﻣﺪﻟﻬﺎ ﻣﻤﻜﻦ اﺳﺖ ﭘﻴﻮﺳﺘﻪ –ﮔﺴﺴﺘﻪ‪ ،‬ﻣﻌﻴﻦ‪-‬ﺗﺼﺎدﻓﻲ‪ ،‬ﺧﻄﻲ‪-‬ﻏﻴﺮﺧﻄـﻲ ﻳـﺎ ‪lumped or distributed‬‬
‫ﺑﺎﺷﻨﺪ‬
‫ﻣﺪﻟﺴﺎزي رﻳﺎﺿﻲ آﻧﺎﻟﻴﺘﻴﻚ ‪ :‬در اﻳﻦ روش اﺟﺰا ﺳﻴﺴﺘﻢ ﺑﻪ روش ﺗﺌﻮرﻳﻚ ﺑﺪﺳﺖ ﻣﻲ آﻳﻨﺪ‬

‫و ﺳﻴﺴﺘﻢ ﻛﻠﻲ از ﺗﺮﻛﻴﺐ آﻧﻬﺎ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ ﻛﻪ ﻣﻌﻤﻮﻻ ﻣﻨﺠﺮ ﺑﻪ ﻣﺪل ﻧﺮم اﻓﺰاري از ﺳﻴﺴﺘﻢ ﻣﻲ ﺷﻮد‪ .‬ﻣﺰاﻳﺎ و ﻣﻌﺎﻳـﺐ‬
‫اﻳﻦ روش از اﻳﻨﻘﺮار اﺳﺖ‬
‫‪ Remain valid for every operating point.‬‬
‫‪ Offer significant insight into the system’s behavior.‬‬
‫‪ Unfeasible if the system is too complex or poorly understood.‬‬

‫‪6-1‬‬
‫ ﺳﻌﻴﺪ ﺳﻴﺪ ﻃﺒﺎﻳﻲ‬-‫ داﻧﺸﮕﺎه ﺷﺎﻫﺪ‬-‫ ﻣﻘﺪﻣﻪ‬-‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ‬

‫ ﻣﺰاﻳﺎ و ﻣﻌﺎﻳﺐ اﻳـﻦ روش‬.‫ ﺧﻮاﻧﺪه ﻣﻲ ﺷﻮد‬Parametric approach ‫ اﻳﻦ ﻧﻮع ﺷﻨﺎﺳﺎﻳﻲ ﺑﻪ ﻧﺎم‬:‫ﺷﻨﺎﺳﺎﻳﻲ ﻣﺪل رﻳﺎﺿﻲ‬
:‫ﻋﺒﺎرﺗﻨﺪ از‬
‫ﭘﻴﭽﻴﺪه ﺗﺮ از روﺷﻬﺎي ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ اﺳﺖ‬ o
.‫ﻧﺘﺎﻳﺞ ﺑﺮاي ﻃﺮاﺣﻲ ﻛﻨﺘﺮﻟﺮ و ﺷﺒﻴﻪ ﺳﺎزي ﻣﻲ ﺗﻮاﻧﺪ اﺳﺘﻔﺎده ﺷﻮد‬ o
‫ﻣﻌﻤﻮﻻ ﻧﺘﺎﻳﺞ ﺣﻮل ﻧﻘﻄﻪ ﻛﺎر ﻣﻌﺘﺒﺮ ﻫﺴﺘﻨﺪ‬ o
‫ﺑﻪ ﺳﺎدﮔﻲ ﻗﺎﺑﻞ ﺳﺎﺧﺖ و اﺳﺘﻔﺎده در ﻛﺎرﺑﺮدﻫﺎي زﻳﺎدي ﻫﺴﺘﻨﺪ‬ o
Give less physical insight. o
Software model 4-3-1
The model used in a computer simulation of a system is a program. For complex systems, this
program may be built up by many interconnected subroutines and lookup tables, and it may
not be feasible to summarize it analytically as a mathematical model. We use the term
software model for such computerized descriptions. They have come to play an increasingly
important role in decision making for complicated systems.

‫ﻣﺒﺎﺣﺚ ﺷﻨﺎﺳﺎﻳﻲ‬ 4-1


‫( روش ﺑﻬﻴﻨـﻪ‬5 ‫( اﻧﺘﺨﺎب ﻣﻌﻴﺎر‬4 ‫(ﺳﺎﺧﺘﺎر ﻣﺪل‬3 ‫( دﻳﺘﺎ‬2 ،‫(ﺳﻴﺴﺘﻢ‬1 ‫در راﺑﻄﻪ ﺑﺎ ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ ﻣﺒﺎﺣﺚ ﻣﺮﺑﻮط ﺑﻪ‬
.‫(اﻋﺘﺒﺎر ﺳﻨﺠﻲ ﻣﻄﺮح اﺳﺖ‬6 ‫ﺳﺎزي‬

7-1
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ‪ -‬ﻣﻘﺪﻣﻪ‪ -‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪ -‬ﺳﻌﻴﺪ ﺳﻴﺪ ﻃﺒﺎﻳﻲ‬

‫‪ 1-4-1‬دﻳﺘﺎ‬
‫ﺑﺮاي ﺷﻨﺎﺳﺎﻳﻲ‪ ،‬ﺳﻴﮕﻨﺎل ورودي‪-‬ﺧﺮوﺟﻲ اﻧﺪازه ﮔﻴﺮي و ذﺧﻴﺮه ﻣﻲ ﺷﻮد‪ .‬ﻣﻮﻓﻘﻴـﺖ ﺷﻨﺎﺳـﺎﻳﻲ ﺑﻄـﻮر ﮔﺴـﺘﺮده اي ﺑـﻪ‬
‫ﻣﺸﺨﺼﺎت ﺳﻴﮕﻨﺎﻟﻬﺎ ﺑﺴﺘﮕﻲ دارد‬
‫‪ ‬ورودي ‪ informative‬ﺗﻮﻟﻴﺪ و ﺑﻪ ﺳﻴﺴﺘﻢ اﻋﻤﺎل ﺷﻮد‪ .‬ورودي ﻧﺒﺎﻳﺪ ﻣﺨﻞ ﻋﻤﻠﻜﺮد ﻋﻤﻮﻣﻲ ﺳﻴﺴﺘﻢ ﺷﻮد‪.‬‬
‫‪ ‬ﭘﺮﻳﻮد ﻧﻤﻮﻧﻪ ﺑﺮداري ‪ 1/10‬زﻣﺎن ﻧﻤﻮ ﺳﻴﺴﺘﻢ ﺗﺤﺖ ﺷﻨﺎﺳﺎﻳﻲ اﺳﺖ‪.‬‬
‫‪ ‬ﻣﺪﺗﻲ زﻣﺎﻧﻲ ﻛﻪ ﺑﺮاي ﺛﺒﺖ دﻳﺘﺎ ﺗﺤﺖ ﺷﺮاﻳﻂ ﺧﺎص ﺷﻨﺎﺳﺎﻳﻲ داده ﻣﻲ ﺷﻮد‪ .‬اﻳﻦ ﻗﻴﺪ ﻃﻮل دﻳﺘﺎي ﺛﺒـﺖ ﺷـﺪه ‪ N‬را‬
‫ﺗﺤﺖ ﺗﺎﺛﻴﺮ ﻗﺮار ﻣﻲ دﻫﺪ‪.‬‬
‫‪ ‬از ﻣﺸﻜﻞ ﻣﻬﻢ دﻳﮕﺮ اﻳﻨﻜﻪ ورودي ﻣﻤﻜﻦ اﺳﺖ ﻧﻮﻳﺰي ﺑﺎﺷﺪ و ﺧﺮوﺟﻲ ﻫﻢ ﻧﻮﻳﺰي و ﻫـﻢ در ﻣﻌـﺮض اﺧـﺘﻼل ﺑﺎﺷـﺪ‪.‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ ﺑﺮ اﺳﺎس ﺧﺮوﺟﻲ آﻟﻮده ﺑﻪ اﺧﺘﻼل ﻣﻌﻀﻠﻲ اﺳﺖ ﻛﻪ ﺑﺎﻳﺪ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﻮد‪.‬‬

‫‪ 2-4-1‬ﺳﺎﺧﺘﺎر ﻣﺪل ﺷﻨﺎﺳﺎﻳﻲ ﭘﺎراﻣﺘﺮﻳﻚ‬


‫‪ ‬ﻣﺪل اﻗﺘﺼﺎدي ﺗﻘﺮﻳﺒﻲ ‪ Principle of parsimony:‬در ﻣﺪل ﺑﺎ ﭘﺎراﻣﺘﺮ ﻛﻤﺘﺮ وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﻛﻮﭼﻜﺘﺮاﺳﺖ‪.‬‬
‫‪ ‬ﻣﺪل ﻗﺎﺑﻞ اﻧﻌﻄﺎف‪ :‬از ﻃﺮف دﻳﮕﺮ اﻓﺰاﻳﺶ ﺗﻌﺪاد ﭘﺎراﻣﺘﺮﻫـﺎ ﺑﺎﻳـﺎس ﺗﺨﻤـﻴﻦ را ﻛـﺎﻫﺶ ﻣـﻲ دﻫـﺪ‪ .‬در ﻧﺘﻴﺠـﻪ ﻣﻘـﺪار‬
‫ﺑﻬﻴﻨﻪاي ﺑﺮاي ﺗﻌﺪاد ﭘﺎراﻣﺘﺮﻫﺎي ﺑﺎﻳﺪ ﭘﻴﺪا ﺷﻮد‪.‬‬
‫‪ :White box ‬ﺑﻪ ﻣﺪﻟﻲ ﮔﻔﺘﻪ ﻣﻲ ﺷﻮد ﻛﻪ از ﻧﻈﺮ ﺳﺎﺧﺘﺎر و ﭘﺎراﻣﺘﺮ دﻗﻴﻘﺎ ﻣﺸﺎﺑﻪ ﺳﻴﺴﺘﻢ اﺻﻠﻲ اﺳﺖ‪.‬‬
‫‪ :Grey box ‬ﺑﺮاي ﻣﻮﻓﻘﻴﺖ در ﺷﻨﺎﺳﺎﻳﻲ اﻃﻼﻋﺎت ﻗﺒﻠﻲ ‪ a priori knowledge‬و ﻧﻈﺮ ﺗﺨﺼﺼﻲ در ﺑﺎره ﺳﻴﺴﺘﻢ ﺑـﺎ‬
‫روش ﻓﺮﻣﺎل ﺷﻨﺎﺳﺎﻳﻲ ﺗﺮﻛﻴﺐ ﻣﻲ ﺷﻮد‪ .‬اﮔﺮ ﺳﺎﺧﺘﺎر ﻣﺪل ﻣﺸﺨﺺ ﺷﻮد آﻧﻮﻗﺖ ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴـﺘﻢ ﺑـﻪ ﻳـﻚ ﻣﺴـﺌﻠﻪ‬
‫ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ ‪ Parameter estimation‬ﺗﺒﺪﻳﻞ ﻣﻲ ﺷﻮد‪ .‬اﻳﻦ ﻛﺎر ﺑﻪ اﻧﺤﺎ ﻣﺨﺘﻠﻒ ﻣﻤﻜﻦ اﺳﺖ ﺻﻮرت ﮔﻴﺮد‬
‫اﻟﻒ( ‪ Physical modeling‬ﻛﻪ ﺳﺎﺧﺘﺎر ﻣﺪل ﺑﺮ اﺳﺎس ﻣﺪﻟﺴﺎزي رﻳﺎﺿﻲ ﺗﺒﻴﻴﻦ ﻣﻲ ﺷﻮد ﻣﺜﻞ راﺑﻄﻪ زﻳﺮ ﺑﺮاي ﺑـﺎزوي‬
‫رﺑﺎت ﻛﻪ ﻣﺪل ﺑﺮ اﺳﺎس ﻗﻮاﻋﺪ آﻧﺎﻟﻴﺰ ﺗﺌﻮرﻳﻚ ﻓﻴﺰﻳﻜﻲ و ﻏﻴﺮه ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬

‫ب( ‪ :Semi physical modeling‬ﻛﻪ ﻓﻘﻂ ﺑﺨﺸﻲ از ﺳﻴﺴﺘﻢ ﺑﺼﻮرت ﺗﺤﻠﻴﻠﻲ ﻣﺪل ﻣﻲ ﺷﻮد ﻣﺎﻧﻨﺪ رﻓﺘﺎر ﻋﻮاﻣﻞ ﻏﻴـﺮ‬
‫ﺧﻄﻲ )اﺷﺒﺎع‪ Dead zone ،‬و ﻫﻴﺴﺘﺮزﻳﺲ و ﻏﻴﺮه( و ﺑﻘﻴﻪ ﺑﺼﻮرت ‪ Black box‬در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﻣﻲ ﺷﻮﻧﺪ‪.‬‬

‫‪8-1‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ‪ -‬ﻣﻘﺪﻣﻪ‪ -‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪ -‬ﺳﻌﻴﺪ ﺳﻴﺪ ﻃﺒﺎﻳﻲ‬

‫‪ :Black box ‬ﻳﻚ ﻣﺪل رﻳﺎﺿﻲ ﻋﻤﻮﻣﻲ ﻣﺎﻧﻨﺪ ﻣﻌﺎدﻟﻪ دﻳﻔﺮﻧﺲ ﺑﺮاي ﺳﻴﺴﺘﻤﻬﺎي ﺧﻄﻲ ﻳﺎ ﻳﻚ ﺷﺒﻜﻪ از اﻟﻤﺎﻧﻬﺎي ﻏﻴﺮ‬
‫ﺧﻄﻲ ﺑﻌﻨﻮان ﻣﺪل ﺳﻴﺴﺘﻢ ﺑﺪون ﺗﻮﺟﻪ دﻗﻴﻖ ﺑﻪ ﺳﻴﺴﺘﻢ اﺻﻠﻲ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﻣﻲ ﺷﻮد‪.‬‬

‫‪ 3-4-1‬ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ ﻣﺪل ‪Parametric Estimation‬‬


‫‪ .1‬ﻣﺠﻤﻮﻋﻪ اي از ﻣﺪﻟﻬﺎ اﻧﺘﺨﺎب و ﻓﻴﺖ ﺗﺮﻳﻦ ﺑﺮ ﮔﺰﻳﺪه ﻣﻲ ﺷﻮد‬

‫‪ .2‬روﺷﻬﺎي ﺗﺨﻤﻴﻦ ﻋﺒﺎرﺗﻨﺪ از‬


‫‪‬‬ ‫‪Linear least-squares method (LS): simple to compute, no assumption on noise model‬‬
‫‪‬‬ ‫‪Statistical estimation methods, e.g., Maximum likelihood, Bayes use prior noise knowledge‬‬
‫‪‬‬ ‫‪Instrumental-variable method (IV): a modification of the LS method for correlated noise‬‬
‫‪‬‬ ‫‪Prediction-error method(PEM): model the noise, applicable to a broad range of models‬‬
‫‪ 4-4-1‬اﻋﺘﺒﺎر ﺳﻨﺠﻲ ﻣﺪل ﺷﻨﺎﺳﺎﻳﻲ ﺷﺪه ‪Model Validation‬‬
‫دو دﺳﺘﻪ دﻳﺘﺎ ﻣﻮرد ﻧﻴﺎز اﺳﺖ دﻳﺘﺎي ﺷﻨﺎﺳﺎﻳﻲ و دﻳﺘﺎي اﻋﺘﺒﺎر ﺳﻨﺠﻲ‬
‫‪ .1‬ﺑﺎ دﻳﺘﺎي ﺷﻨﺎﺳﺎﻳﻲ ﻣﺪل ﺷﻨﺎﺳﺎﻳﻲ ﻣﻲ ﮔﺮدد‬

‫‪ .2‬ﻋﻤﻠﻜﺮد ﻣﺪل ﺷﻨﺎﺳﺎﻳﻲ ﺷﺪه روي دﻳﺘﺎي اﻋﺘﺒﺎر ﺳﻨﺠﻲ ﺗﺴﺖ ﻣﻲ ﮔﺮدد‪ .‬ﺗﺎ ﻣﻌﻠﻮم ﺷﻮد ﻛﻪ اﻳﺎ ﻣﺪل ﺷﻨﺎﺳﺎﻳﻲ ﺷﺪه‬
‫ﺑﻪ اﻧﺪازه ﻛﺎﻓﻲ ﺧﻮب اﺳﺖ ”‪ .“good enough‬ﺗﺴﺖ ﻣﻬﻢ اﻳﻦ اﺳـﺖ ﻛـﻪ ﻫﻤﺒﺴـﺘﮕﻲ ‪ =y-ŷ‬ﺳـﻔﻴﺪ و ‪ ‬و ‪ u‬در‬
‫ﺣﺎﻟﺖ ﺣﻠﻘﻪ ﺑﺎز ﻫﻤﺒﺴﺘﻪ ﻧﺒﺎﺷﻨﺪ‬

‫‪9-1‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ‪ -‬ﻣﻘﺪﻣﻪ‪ -‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪ -‬ﺳﻌﻴﺪ ﺳﻴﺪ ﻃﺒﺎﻳﻲ‬

‫‪ .3‬ﻫﺮ ﮔﺰ ﻣﺪل ﺷﻨﺎﺳﺎﻳﻲ ﺷﺪه ﺑﻌﻨﻮان ‪ True‬ﺳﻴﺴﺘﻢ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﻧﻤﻲ ﺷﻮد ﺑﻠﻜـﻪ ﺑﻌﻨـﻮان ﻣـﺪل ‪good enough‬‬
‫ﺑﺮاي ﻛﺎرﺑﺮد ﻣﻮرد ﻧﻈﺮ ﻟﺤﺎظ ﻣﻲ ﺷﻮد‪.‬‬
‫‪ .4‬اﮔﺮ ﻣﺪل ﻧﺘﻮاﻧﺪ ﺷﺮاﻳﻂ اﻋﺘﺒﺎر ﺳﻨﺠﻲ را ﺑﮕﺬراﻧﺪ‪ ،‬ﻓﺮاﻳﻨﺪ از ﻧﻮ ﺑﺎﻳﺪ ﺗﻜـﺮار ﮔـﺮدد و ﻣﺘﻐﻴﺮﻫـﺎي ﺷﻨﺎﺳـﺎﻳﻲ ﻣﻨﺎﺳـﺐ‬
‫اﻧﺘﺨﺎب ﮔﺮدد‪.‬‬

‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ در ‪MATLAB‬‬ ‫‪5-1‬‬


‫وﺟﻮد ﻳﻚ ﻧﺮم اﻓﺰار ‪ Interactive‬ﺑﺎ ﻗﺎﺑﻠﻴﻴﺖ ﺧﻮب در ﺷﻨﺎﺳﺎﻳﻲ ﻛﻤﻚ ﻣﻬﻤـﻲ اﺳـﺖ‪ MATLAB .‬داراي ‪System‬‬
‫‪ identification Tool box‬اﺳﺖ ﻛﻪ اﻣﻜﺎﻧﺎت‬
‫‪ o‬ﺷﺒﻴﻪ ﺳﺎزي‬
‫‪ o‬ﺳﺎﺧﺖ ورودي‬
‫‪ o‬ﭘﻴﺶ ﭘﺮدازش ﺳﻴﮕﻨﺎل‬
‫‪ o‬ﻣﺪﻟﺴﺎزي ﺧﻄﻲ‪ ،‬ﻏﻴﺮ ﺧﻄﻲ و ﺟﻌﺒﻪ ﺳﻴﺎه‬
‫‪ o‬ﻣﺠﻤﻮﻋﻪ اﻟﮕﻮرﻳﺘﻤﻬﺎي ﺷﻨﺎﺳﺎﻳﻲ‬
‫‪ o‬ﻣﺠﻤﻮﻋﻪ اﻣﻜﺎﻧﺎت اﻋﺘﺒﺎر ﺳﻨﺠﻲ‬
‫‪ o‬ﻣﺠﻤﻮﻋﻪ اﻣﻜﺎﻧﺎت ﻧﻤﺎﻳﺶ ﻧﺘﺎﻳﺞ‬
‫را ﻓﺮاﻫﻢ ﻣﻲ آورد‪ ident .‬ﺑﺮﻧﺎﻣﻪ ‪ GUI‬اﺳﺖ ﻛﻪ ﺷﻨﺎﺳﺎﻳﻲ ‪ interactive‬را ﺗﺴﻬﻴﻞ ﻣﻲ ﻛﻨﺪ‪ Help .‬ﻗﻮي ﻧﺤﻮه اﺳﺘﻔﺎده‬
‫از اﻟﮕﻮرﻳﺘﻤﻬﺎ را ﺑﺨﻮﺑﻲ روﺷﻦ ﻣﻲ ﺳﺎزد‪ .‬ﺑﺎ ﭘﻴﺸﺮﻓﺖ درس ﺑﻪ اﻳﻦ اﻟﮕﻮرﻳﺘﻤﻬﺎ اﺷﺎره ﻣﻲ ﮔﺮدد‪ .‬ﺑﺎ اﺟـﺮاي ‪ ident‬ﺻـﻔﺤﻪ‬
‫آن ﻣﻄﺎﺑﻖ ﺷﻜﻞ ﻇﺎﻫﺮ ﻣﻲ ﮔﺮدد‪.‬‬

‫‪10-1‬‬
‫ﻓﺼﻞ ‪ :2‬ﻣﺮور ﺳﻴﺴﺘﻢ ﺧﻄﻲ‪-‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎي‬

‫‪ 2‬ﭘﺎﺳﺦ ﺿﺮﺑﻪ )‪ g(n‬و ﻃﻴﻒ ‪|G(ω)|2‬‬

‫‪Ljung Chapter 2‬‬


‫ﺳﻴﺴﺘﻢ ‪ LTI‬ﻛﻪ ﻣﻌﻤﻮﻻ ﺗﻘﺮﻳﺐ ﺳﻴﺴﺘﻤﻬﺎي واﻗﻌﻲ ﻫﺴﺘﻨﺪ ﻛﻼس ﻣﻬﻤـﻲ از ﺳﻴﺴـﺘﻤﻬﺎي دﻳﻨـﺎﻣﻴﻜﻲ را ﺗﺸـﻜﻴﻞ ﻣـﻲ‬
‫دﻫﻨﺪ ﻛﻪ ﻃﺮاﺣﻲ ﺑﺮ اﺳﺎس آﻧﻬﺎ اﻏﻠﺐ ﭘﺎﺳﺨﻬﺎي ﻗﺎﺑﻞ ﻗﺒﻮل ﺗﻮﻟﻴﺪ ﻣﻲ ﻛﻨﺪ‪.‬‬

‫ﭘﺎﺳﺦ ﺿﺮﺑﻪ ﮔﺴﺴﺘﻪ ﺳﻴﺴﺘﻢ‬ ‫‪1-2‬‬


‫ﭘﺎﺳﺦ ﮔﺴﺴﺘﻪ ﺳﻴﺴﺘﻢ ‪ LTI‬در زﻣﺎﻧﻬﺎي ‪ t=kT‬ﺑﺮ اﺳﺎس ﭘﺎﺳﺦ ﺿﺮﺑﻪ آن و اﻧﺘﮕﺮال ﻛﺎﻧﻮﻟﻮﺷﻦ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫‪‬‬ ‫‪‬‬
‫‪y (t )    0 u (t   ) g ( )d  y ( kT )  0 u (kT   ) g ( )d‬‬
‫‪ T‬ﭘﺮﻳﻮد ﻧﻤﻮﻧﻪ ﺑﺮداري اﺳﺖ‪ .‬ﺑﺎ ﻓﺮض ﺗﻘﺮﻳﺒﺎ ﺛﺎﺑﺖ ﺑﻮدن ‪ u‬در ﻃﻮل ﭘﺮﻳﻮدﻫﺎ دارﻳﻢ‬
‫‪‬‬ ‫‪‬‬
‫‪mT‬‬
‫‪y (kT )   u (kT  mT )  ( m1)T g ( )d   u (kT  mT ) gT (mT ) ‬‬
‫‪m 1‬‬ ‫‪m 1‬‬
‫‪‬‬ ‫‪‬‬
‫‪m‬‬
‫‪y (k )   u (k )q‬‬ ‫) ‪gT (k )  G (q )u ( k )  u (k )  q  m gT (k )  G (q )u (k‬‬
‫‪m 1‬‬ ‫‪m 1‬‬

‫ﻛﻪ در آن )‪ q-1u(t)=u(t-1‬اﺳﺖ‪ G(q) .‬ﭘﺎﺳﺦ ﺿﺮﺑﻪ ﮔﺴﺴﺘﻪ ﺷﺪه ﺳﻴﺴﺘﻢ ﻃﺒﻖ رواﺑـﻂ ﻓـﻮق اﺳـﺖ ﻛـﻪ ﻫﻤـﺎن روش‬
‫‪ step invariance‬اﺳﺖ در واﻗﻊ راﺑﻄﻪ )‪ G(q-1‬اﺳﺖ ﻛﻪ ﻣﺎﻧﻨﺪ ﺗﺒﺪﻳﻞ ‪ z‬ﺑﺼﻮرت )‪ G(q‬اﺳﺘﻔﺎده ﻣﻲ ﻛﻨﻴﻢ‪.‬‬
‫ﻣﺜﺎل ‪ :1‬اﻳﻦ ﻧﻮع ﮔﺴﺴﺘﻪ ﺳﺎزي ﺑﺮاي ﺳﻴﺴﺘﻢ ﭘﻴﻮﺳﺘﻪ اﻳﻨﮕﻮﻧﻪ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬

‫‪b‬‬ ‫‪( k )T‬‬


‫‪b(1  e aT )  aTk‬‬
‫‪G (s) ‬‬ ‫‪ g (t )  be  at   g (t ) dt ‬‬ ‫‪e‬‬ ‫‪‬‬
‫‪sa‬‬ ‫‪( k 1)T‬‬ ‫‪a‬‬
‫‪a 1  e‬‬
‫‪‬‬ ‫‪‬‬ ‫‪‬‬ ‫‪aT‬‬ ‫‪‬‬ ‫‪1‬‬ ‫‪b‬‬ ‫‪ aT  z 1‬‬
‫‪ aTk  k‬‬ ‫‪ aTk  k‬‬ ‫‪e z‬‬
‫‪e z  e z 1 ‬‬ ‫‪‬‬ ‫‪G‬‬ ‫(‬ ‫‪z‬‬ ‫)‬ ‫‪‬‬
‫‪1‬‬ ‫‪0‬‬ ‫‪1  e  aT z 1‬‬ ‫‪1  e  aT z 1‬‬
‫اﻳﻦ ﻫﻤﺎن ﺗﺜﺒﻴﺖ ﭘﺎﺳﺦ ﭘﻠﻪ ﺳﻴﺴﺘﻢ اﺳﺖ ﻛﻪ ﺑﻌﺪ از ﺗﺠﺰﻳﻪ ﺑﻪ ﺟﻤﻼت درﺟﻪ ‪ 1‬ﻫﺮﻳﻚ ﺑـﻪ ﺗﻨﻬـﺎﻳﻲ ﻣﺤﺎﺳـﺒﻪ و ﺑـﺎ ﻫـﻢ‬
‫ﺟﻤﻊ ﻣﻲ ﺷﻮﻧﺪ‬
‫‪-1‬‬ ‫‪-1‬‬
‫اﻳﻦ راﺑﻄﻪ ﺑﺮاي ﺟﻤﻠﻪ ‪ b/s‬ﺑﺼﻮرت ] ‪ bTz /[1-z‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬
‫ﭼﻨﺪ وﻳﮋﮔﻲ ﺳﻴﮕﻨﺎل و ﺳﻴﺴﺘﻢ‬

‫‪1-2‬‬
‫ﻓﺼﻞ ‪ :2‬ﻣﺮور ﺳﻴﺴﺘﻢ ﺧﻄﻲ‪-‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎي‬

‫ﺳﻴﺴﺘﻢ ﭘﺎﻳﺪار‬

‫اﻛﻴﺪا ﭘﺎﻳﺪار‪:‬‬
‫اﻛﻴﺪا ﻋﻠﻲ‪ g(0)=0:‬ﻳﻌﻨﻲ ﺳﻴﺴﺘﻢ داراي ﺗﺎﺧﻴﺮ اﺳﺖ‬
‫‪ :Monic‬ﭼﻨﺪ ﺟﻤﻠﻪ اي ﻣﻮﻧﻴﻚ اﺳﺖ وﻗﺘﻲ ‪g(0)=1‬‬

‫‪ 1-1-2‬ﻣﺪﻟﺴﺎزي اﺧﺘﻼل ‪Disturbances‬‬


‫ﺳﻴﺴﺘﻤﻬﺎي واﻗﻌﻲ ﺗﺤﺖ ﺗﺎﺛﻴﺮ ﺳﻴﮕﻨﺎﻟﻬﺎي ﻧﺎ ﺧﻮاﺳﺘﻪ )اﺧﺘﻼل( ﻫﺴﺘﻨﺪ ﻛﻪ در ﻣﺪل دﻳﺪه ﻧﻤﻲ ﺷﻮﻧﺪ و ﻣﻌﻤﻮﻻ ﺑﺼـﻮرت‬
‫‪ lumped‬و ‪ additive‬ﺑﻪ ﻓﺮم )‪ v(t‬ﺑﻪ ﺳﻴﺴﺘﻢ اﺿﺎﻓﻪ ﻣﻲ ﺷﻮﻧﺪ‪.‬‬
‫‪y=G(q)u+v‬‬
‫‪The assumption that the noise enters additively to the output Implies some restrictions.‬‬
‫ﻣﺎﻫﻴﺖ اﺧﺘﻼل‬
‫‪ Measurement noise .1‬اﺧﺘﻼل ﻣﻤﻜﻦ اﺳﺖ ﻧﺎﺷﻲ از ﻧﻮﻳﺰ و ‪ drift‬اﻧـﺪازه ﮔﻴـﺮ ﺧﺮوﺟـﻲ و ﻳـﺎ ﺣﺘـﻲ ﺳـﻴﮕﻨﺎل‬
‫ورودي ﺑﺎﺷﺪ‪.‬‬
‫‪ : Uncontrollable inputs .2‬اﺧﺘﻼل ﻣﻲ ﺗﻮاﻧﺪ ﻧﺎﺷﻲ از ورودﻳﻬﺎي ﻛﻨﺘﺮل ﻧﺸﺪه ﺑﺎﺷﺪ‪ .‬ﻣﺜﻼ در ﻫﻮاﭘﻴﻤﺎ ﺻﻔﺤﺎت‬
‫ﻛﻨﺘﺮﻟﻲ ﻧﻘﺶ ورودي را دارﻧﺪ وﻟﻲ اﺛﺮ ﺑﺎد اﺧﺘﻼل اﺳﺖ ﻛﻪ ﻗﺎﺑﻞ ﻛﻨﺘﺮل ﻧﻤﻲ ﺑﺎﺷﺪ‪ .‬اﻳﻦ ﻧﻮع اﺧﺘﻼل ﻣﻤﻜـﻦ اﺳـﺖ‬
‫ﻗﺎﺑﻞ اﻧﺪازه ﮔﻴﺮي و ﻳﺎ اﺛﺮ آن ﻓﻘﻂ در ﺧﺮوﺟﻲ دﻳﺪه ﺷﻮد‬
‫‪v(t)=y-G0u‬‬
‫ﻣﺪل اﺧﺘﻼل‬
‫ﺳﻴﮕﻨﺎل اﺧﺘﻼل ﻣﻤﻜﻦ اﺳﺖ ﺑﺼﻮرت ﭘﻠﻪ‪ ،‬ﭘﺎﻟﺲ‪ ،‬ﺳﻴﻨﻮﺳﻲ ﻳﺎ ﺗﺼﺎدﻓﻲ ﺑﺎﺷﺪ ﻛﻪ در اﻏﻠﺐ ﻣﻮارد ﻣﻲ ﺗﻮان آﻧـﺮا ﺑـﺎ ﻳـﻚ‬
‫ﺳﻴﮕﻨﺎل ﺗﻌﺮﻳﻒ ﺷﺪه و ﻳﻚ ﺳﻴﺴﺘﻢ ﻣﺪل ﻛﺮد‪ .‬ﻣﺜﻼ در ﺣﺎﻟﺖ ﺗﺼﺎدﻓﻲ‪ ،‬ﺑﻪ ﺟﺎي داﺷﺘﻦ ‪ PDF‬اﺧﺘﻼل ﻣـﻲ ﺗـﻮان آﻧـﺮا‬
‫ﺑﺼﻮرت ﻧﻮﻳﺰ ﺳﻔﻴﺪ ﻓﻴﻠﺘﺮ ﺷﺪه ﻧﻮﺷﺖ‪.‬‬
‫‪v=H(q)e‬‬
‫ﻛﻪ )‪ e(t‬ﻧﻮﻳﺰ ﺳﻔﻴﺪ اﺳﺖ‪ .‬اﻳﻦ روش ﺑﺮاي ﻛﺎرﺑﺮدﻫﺎي ﻋﻤﻠﻲ ﺗﺴﻬﻴﻞ ﻛﻨﻨﺪه اﺳـﺖ‪ .‬ﻣﻌﻤـﻮﻻ ﻫـﻢ ﻓـﺮض ﻣـﻲ ﺷـﻮد ﻛـﻪ‬
‫‪ h(0)=0‬اﺳﺖ‬
‫ﺑﺎﺗﻨﻮع دادن ﺑﻪ ﺗﺎﺑﻊ ﺗﻮزﻳﻊ ‪ e‬اﻧﻮاع ﻣﺘﻨﻮﻋﻲ از اﺧﺘﻼل را ﻣﻲ ﺗﻮان ﺗﻮﻟﻴﺪ ﻛﺮد‪ .‬ﺑﺮاي ﻣﺜﺎل اﮔﺮ‬
‫‪e(t) = 0, with probability 1 -μ‬‬
‫‪e(t) = r, with probability μ .‬‬ ‫)‪rN (0, λ‬‬ ‫‪2.10‬‬

‫‪2-2‬‬
‫ﻓﺼﻞ ‪ :2‬ﻣﺮور ﺳﻴﺴﺘﻢ ﺧﻄﻲ‪-‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎي‬
‫و ‪ µ‬ﻛﻮﭼﻚ ﺑﺎﺷﺪ ﺑﺎ اﻧﺘﺨﺎب ﻓﻴﻠﺘﺮ ﻣﻨﺎﺳﺐ )‪ (H‬اﺧﺘﻼل ﻣﻄﺎﺑﻖ ﺷﻜﻞ ‪ 2.5‬ﺗﻮﻟﻴﺪ ﻣﻲ ﺷﺪ ﻛﻪ ﺑﺮاي ﻣﺪل ﻛﺮدن اﺧﺘﻼﻻت‬
‫ﭘﻠﻪ اي‪ ،‬ﺿﺮﺑﻪ اي‪ ،‬ﺷﻴﺒﻲ و ﺳﻴﻨﻮﺳﻲ ﻣﻨﺎﺳﺐ اﺳﺖ ‪ .‬از ﻃﺮف دﻳﮕﺮ اﮔﺮ )‪ e∈N(0,λ‬در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﻮد اﺧﺘﻼل ﺷـﻜﻞ‬
‫‪ 2.6‬ﺣﺎﺻﻞ ﻣﻲ ﺷﻮد‪.‬‬

‫ﺑﺮاي ‪ e‬ﻛﻪ ورودي ﻣﺪل اﺳﺖ اﻏﻠﺐ ﻓﻘﻂ ﺧﻮاص ﺗﺎ ﻣﺮﺗﺒﻪ دو آﻧﻬﺎ )ﻣﻴﺎﻧﮕﻴﻦ و وارﻳﺎﻧﺲ( در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﻣﻲ ﺷﻮد‪.‬‬

‫‪ 2-2‬ﻣﺮور ﻣﺒﺎﺣﺚ اﺣﺘﻤﺎل‬


‫ﺗﺎﺑﻊ ﺗﻮزﻳﻊ ﻧﺮﻣﺎل‪:‬‬
‫‪2‬‬
‫)‪ e=σ*randn(1,100‬دﻧﺒﺎﻟﻪ ﺗﺼﺎدﻓﻲ ﻧﺮﻣﺎل ﺑﺎ ﻣﻴﺎﻧﮕﻴﻦ ﺻﻔﺮ و وارﻳﺎﻧﺲ ‪ σ‬ﺗﻮﻟﻴﺪ ﻣﻲ ﻛﻨﺪ‬

‫ﻣﻴﺎﻧﮕﻴﻦ ‪m=mean(e) : µ‬‬

‫‪Expected value‬‬
‫اﻧﺤﺮاف ﻣﻌﻴﺎر ‪s=std(e) : σ‬‬
‫‪Variance‬‬
‫ﻛﻮارﻳﺎﻧﺲ )‪cov(e,u‬‬

‫دو ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ‪ uncorrelated‬ﻫﺴﺘﻨﺪ اﮔﺮ ‪ cov(e,u)=0‬ﺷﻮد‪ .‬اﮔﺮ ‪ e‬و ‪ u‬ﻣﺴﺘﻘﻞ ‪ independent‬ﺑﺎﺷﻨﺪ‬
‫)‪P(e,u)=P(e)P(u‬‬
‫ﺣﺘﻤﺎ ﻏﻴﺮ ﻫﻤﺒﺴﺘﻪ ‪ uncorrelated‬ﻫﺴﺘﻨﺪ وﻟﻲ ﻋﻜﺲ آن اﻟﺰاﻣﺎ ﺻﺤﻴﺢ ﻧﻴﺴﺖ‪.‬‬
‫ﻳﻚ ﻓﺮاﻳﻨﺪ ﺗﺼﺎدﻓﻲ ‪ stochastic process‬دﻧﺒﺎﻟﻪ اي از ﻣﺘﻐﻴﺮ ﻫﺎي ﺗﺼﺎدﻓﻲ اﺳﺖ‬
‫}‪X={X1,……,Xk,……..,XN‬‬
‫ﺑﺎ دﻧﺒﺎﻟﻪ اي از ﻣﻴﺎﻧﮕﻴﻦ ﻫﺎ‬

‫‪3-2‬‬
‫ﻓﺼﻞ ‪ :2‬ﻣﺮور ﺳﻴﺴﺘﻢ ﺧﻄﻲ‪-‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎي‬

‫و ﻣﺎﺗﺮﻳﺴﻲ از ﻛﻮارﻳﺎﻧﺴﻬﺎ‬

‫ﻳﻚ ﻓﺮاﻳﻨﺪ ﺗﺼﺎدﻓﻲ اﻳﺴﺘﺎن اﺳﺖ اﮔﺮ‬

‫و ﻓﺮاﻳﻨﺪ اﻳﺴﺘﺎن ﺳﻔﻴﺪ ﺑﺎ ﻣﻴﺎﻧﮕﻴﻦ ﺻﻔﺮ اﺳﺖ اﮔﺮ‬

‫ﺳﻴﮕﻨﺎل ﻣﻌﻴﻦ‬
‫ﺳﻴﮕﻨﺎﻟﻬﺎي ﭘﻠﻪ‪ ،‬ﺿﺮﺑﻪ ﺳﻴﻨﻮس و ﻣﺸﺎﺑﻪ آن ﺳﻴﮕﻨﺎﻟﻬﺎي ﻣﻌﻴﻦ ﻫﺴﺘﻨﺪ‬
‫ﺳﻴﮕﻨﺎل اﻳﺴﺘﺎ‬
‫ﺳﻴﮕﻨﺎل ﻧﻮﻳﺰي ﻛﻪ ﻣﻴﺎﻧﮕﻴﻦ و وارﻳﺎﻧﺲ آن ﺗﺎﺑﻊ ‪ t‬ﻧﺒﺎﺷﺪ ﺳﻴﮕﻨﺎل اﻳﺴﺘﺎ اﺳﺖ‬
‫ﺳﻴﮕﻨﺎل ﺷﺒﻪ اﻳﺴﺘﺎ‬
‫ﺳﻴﮕﻨﺎﻟﻬﺎي ﺳﻴﺴﺘﻢ ﻣﺨﻠﻮط ﻣﻌﻴﻦ )ﻧﺎﺷﻲ از ﺳﻴﺴﺘﻢ( و ﺗﺼﺎدﻓﻲ )ﻧﺎﺷﻲ از اﺧﺘﻼل( ﻫﺴﺘﻨﺪ‪ .‬در اﻳﻨﺠـﺎ ﻧﻤﻴﺘـﻮان ﺷـﺮط‬
‫اﻳﺴﺘﺎﻳﻲ را داﺷﺖ ﻟﺬا ﺑﺮاي داﺷﺘﻦ ﻳﻚ ﻗﺎﻟﺐ ﺑﺮاي ﻫﺮ دوﺳـﻴﮕﻨﺎل‪ ،‬ﺳـﻴﮕﻨﺎل ﺷـﺒﻪ اﻳﺴـﺘﺎ ﺗﻌﺮﻳـﻒ ﻣـﻲ ﺷـﻮد‪ .‬در اﻳـﻦ‬
‫ﺳﻴﮕﻨﺎﻟﻬﺎ‪:‬‬
‫‪ .1‬ﻣﻴﺎﻧﮕﻴﻦ و ﺧﻮدﻫﻤﺒﺴﺘﮕﻲ ﺗﺎﺑﻊ زﻣﺎن ﻫﺴﺘﻨﺪ وﻟﻲ ﻛﺮاﻧﺪارﻧﺪ‬

‫‪ .2‬اﻣﺎ اﻧﺘﻈﺎر اﺳﺖ ﻛﻪ ﺗﺎﺑﻊ ﺧﻮد ﻫﻤﺒﺴﺘﮕﻲ ﻣﺠﺎﻧﺒﻲ ﺑﻪ ‪ t‬واﺑﺴﺘﻪ ﻧﺒﺎﺷﺪ‪ RN→R .‬وﻗﺘﻲ ∞→‪N‬‬

‫‪2,59‬‬
‫اﮔﺮ ﺳﻴﮕﻨﺎل ﻣﻌﻴﻦ ﺑﺎﺷﺪ ‪ E‬ﺑﻲ ﺗﺎﺛﻴﺮ اﺳﺖ و ﺳﻴﮕﻨﺎل ﺑﺎﻳﺪ ﻛﺮاﻧﺪار و ‪ 2.59‬ﺗﺎﻣﻴﻦ ﺷـﻮد‪ .‬در ﻣـﻮرد ﺳـﻴﮕﻨﺎل اﻳﺴـﺘﺎ ﻛـﻪ‬
‫ﺷﺮاﻳﻂ ﺗﺎﻣﻴﻦ ﻫﺴﺘﻨﺪ‪ .‬ﺑﺮاي ﺳﻬﻮﻟﺖ ﻧﮕﺎرش ﻓﺮﻣﻮل ̅‪ E‬ﺗﻌﺮﻳﻒ ﻣﻲ ﮔﺮدد‬

‫‪4-2‬‬
‫ﻓﺼﻞ ‪ :2‬ﻣﺮور ﺳﻴﺴﺘﻢ ﺧﻄﻲ‪-‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎي‬

‫) ‪→ Rs ( )  Es (t ) s (t  ‬‬
‫دو ﺳﻴﮕﻨﺎل ‪ s‬و ‪ w‬ﺳﻴﮕﻨﺎﻟﻬﺎي ‪ jointly quasi stationary‬ﻫﺴﺘﻨﺪ اﻛﺮ ﻫﺮ دو ﺷـﺒﻪ اﻳﺴـﺘﺎ و ﻛﻮارﻳـﺎﻧﺲ آﻧﻬـﺎ وﺟـﻮد‬
‫داﺷﺘﻪ ﺑﺎﺷﺪ‬
‫) ‪Rsw ( )  Es (t ) w(t  ‬‬

‫‪ 3-2‬ﻓﻮرﻳﻪ‪ ,‬ﻫﻤﺒﺴﺘﮕﻲ و ﻃﻴﻒ ﺳﻴﮕﻨﺎل ﻧﺎﻣﺤﺪود‬

‫‪ 1-3-2‬ﻓﻮرﻳﻪ‬
‫ﺗﺒﺪﻳﻞ ﻓﻮرﻳﻪ‪ :‬ﭘﺎﺳﺦ ﺳﻴﺴﺘﻢ ‪ LTI‬ﺑﺎ ﭘﺎﺳﺦ ﺿﺮﺑﻪ )‪ g(k‬ﺑﻪ ورودي ‪ u=cos ω t‬ﺑﺮاﺑﺮاﺳﺖ ﺑﺎ‬

‫در اﻳﻦ راﺑﻄﻪ ‪ G‬ﭘﺎﺳﺦ ﻓﺮﻛﺎﻧﺴﻲ ﺳﻴﺴﺘﻢ اﺳﺖ ﻛﻪ ﻫﻤﺎن ﺗﺒﺪﻳﻞ ﻓﻮرﻳﻪ ﭘﺎﺳﺦ ﺿﺮﺑﻪ ﺳﻴﺴﺘﻢ ﻣـﻲ ﺑﺎﺷـﺪ‪ .‬راﺑﻄـﻪ ﺗﺒـﺪﻳﻞ‬
‫ﻓﻮرﻳﻪ ﺳﻴﮕﻨﺎل ﮔﺴﺴﺘﻪ ‪ DTFT‬اﻳﻨﮕﻮﻧﻪ ﻧﻮﺷﺘﻪ ﻣﻲ ﺷﻮد‬

‫ﺣﺪ ﭘﺎﻳﻴﻦ ‪ n=0‬ﺑﻪ اﻳﻦ ﻣﻌﻨﻲ اﺳﺖ ﻛﻪ ﺳﻴﮕﻨﺎل ﻋﻠﻲ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﺪه اﺳﺖ‪ .‬ﺳﻴﮕﻨﺎل ﻣﺎﻧﻨﺪ ‪ g‬ﺗﺒﺪﻳﻞ ﻓﻮرﻳﻪ دارد اﮔﺮ‬
‫‪ stable‬ﺑﺎﺷﺪ‪.‬‬

‫‪ 2-3-2‬ﻫﻤﺒﺴﺘﮕﻲ‬
‫ﻫﻤﺒﺴﺘﮕﻲ دوﺳﻴﮕﻨﺎل ﺑﺎ ﻓﺮﻣﻮل زﻳﺮ ﻣﺤﺎﺳﺒﻪ ﻣﻲ ﺷﻮد‬
‫‪‬‬
‫‪Rxy ( )   x(t ) y (t   ) dt‬‬
‫ﺑﻪ اﻳﻦ ﺗﺮﺗﻴﺐ ﻫﻤﺒﺴﺘﮕﻲ ﺳﻴﮕﻨﺎل ﻧﻮﻳﺰ ﺳﻔﻴﺪ )‪ Re(τ)=λ δ(0‬ﻳﺎ ﺑﻪ ﻋﺒﺎرت دﻳﮕﺮ ‪ Re(0)=λ‬وارﻳﺎﻧﺲ ﻧﻮﻳﺰ اﺳﺖ‪ .‬اﻫﻤﻴﺖ‬
‫ﺳﻴﮕﻨﺎل ﻫﻤﺒﺴﺘﮕﻲ اﻳﻦ اﺳﺖ ﻛﻪ ﺷﺮاﻳﻂ ﺗﻌﺮﻳﻒ ﻧﻮﻳﺰ ﺑﺎ ‪ λ‬را ﻣﻴﺴـﺮ ﻣـﻲ ﻛﻨـﺪ‪ .‬دﻳﮕـﺮ ﻛـﺎرﻳﺮد آن ﺗﻌﻴـﻴﻦ ﺗﺸـﺎﺑﻪ ﺑـﻴﻦ‬
‫دوﺳﻴﮕﻨﺎل اﺳﺖ‬
‫ﻣﺜﺎل ‪ :2‬ﻫﻤﺒﺴﺘﮕﻲ ﺑﻴﻦ ﺳﻴﮕﻨﺎﻟﻬﺎي ﻳﻚ ﺳﻴﺴﺘﻢ اﻳﻨﮕﻮﻧﻪ ﻣﺤﺎﺳﺒﻪ ﻣﻲ ﺷﻮد )‪ e‬و ‪ u‬ﻣﺴﺘﻘﻞ ﻫﺴﺘﻨﺪ(‬

‫‪5-2‬‬
‫ﻓﺼﻞ ‪ :2‬ﻣﺮور ﺳﻴﺴﺘﻢ ﺧﻄﻲ‪-‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎي‬

‫ﻣﻘﺪار )‪ Rye(0‬ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‪:‬‬


‫‪Rye(0)=E([-ay(t-1)+bu(t-1)+e(t)+ce(t-1)]e(t))=0+0+λ+0=λ‬‬
‫ﺑﺮاي ﻣﺤﺎﺳﺒﻪ )‪ Ry(0‬ﻣﻲ ﺗﻮان )‪ y(t)=-ay(t-1)+bu(t-1)+e(t)+ce(t-1‬را ﺑﻪ ﺗﻮان ‪ 2‬رﺳﺎﻧﺪ و ﺳـﭙﺲ اﻣﻴـﺪ رﻳﺎﺿـﻲ‬
‫ﮔﺮﻓﺖ‬
‫‪2‬‬ ‫‪2‬‬ ‫‪2‬‬
‫‪Ry(0)=a Ry(0)+b μ +λ+c λ-2acλ‬‬
‫و ﺑﻪ ﻫﻤﻴﻦ ﺗﺮﺗﻴﺐ ﺑﺎ ﺗﻜﻨﻴﻜﻲ ﻛﻪ ﻣﺤﺎﺳﺒﺎت را ﺳﺎده ﻛﻨﺪ ﺑﻘﻴﻪ را ﻣﺤﺎﺳﺒﻪ ﻛﺮد‪.‬‬

‫‪ 3-3-2‬ﻃﻴﻒ‬
‫ﻃﻴﻒ‪ :‬ﻃﻴﻒ ‪ x‬ﻓﻮرﻳﻪ ﺗﺎﺑﻊ ﺧﻮد ﻫﻤﺒﺴﺘﮕﻲ آن‪ R‬است‪.‬‬

‫ﻫﻤﻴﻦ ﻃﻮر از ﻋﻜﺲ ﻓﻮرﻳﻪ ﺧﻮاﻫﻴﻢ داﺷﺖ‬

‫ﻃﻴﻒ ﻣﺘﻘﺎﺑﻞ ‪ :cross spectrum‬ﻓﻮرﻳﻪ ﻫﻤﺒﺴﺘﮕﻲ ﻣﺘﻘﺎﺑﻞ دو ﺳﻴﮕﻨﺎل ‪ x‬و ‪ y‬اﺳﺖ‬

‫در ﺣﺎﻟﻴﻜﻪ ‪ x‬ﺣﻘﻴﻘﻲ اﺳﺖ ‪ xy‬در ﺣﺎﻟﺖ ﻛﻠﻲ ﻛﻤﭙﻠﻜﺲ اﺳﺖ ﺑﻪ ﻗﺴـﻤﺖ ﺣﻘﻴﻘـﻲ آن ‪ co-specrrum‬و ﺑـﻪ ﺑﺨـﺶ‬
‫ﻣﻮﻫﻮﻣﻲ آن ‪ quadrature spectrum‬ﻣﻲ ﮔﻮﻳﻨﺪ‪.‬‬
‫ﻃﻴﻒ ﺳﻴﮕﻨﺎل ﭘﺮﻳﻮدﻳﻚ‪:‬‬
‫ﺧﻮد ﻫﻤﺒﺴﺘﮕﻲ ﺳﻴﮕﻨﺎل ﭘﺮﻳﻮدﻳﻚ‪ ،‬ﭘﺮﻳﻮدﻳﻚ اﺳﺖ و ﻃﻴﻒ ﺳﻴﮕﻨﺎل ﭘﺮﻳﻮدﻳﻚ ﺷﺎﻣﻞ دﻧﺒﺎﻟﻪ ﺿﺮﺑﻪ اﺳﺖ در ﻧﺘﻴﺠﻪ‬
‫‪1 M‬‬
‫‪Es (t ) s (t   )  Rs ( ) ‬‬ ‫) ‪ s (t ) s (t   )  Rs (  kM )  Rs (‬‬
‫‪M 1‬‬
‫ﺑﻪ اﻳﻦ ﻣﻌﻨﻲ ﻛﻪ ﻫﺮ ﺳﻴﮕﻨﺎل ﭘﺮﻳﻮدﻳﻚ را ﺑﺎ ﺳﺮي ﻓﻮرﻳﻪ ﺑﻪ ﻣﺠﻤﻮﻋﻪ ﺳﻴﻨﻮس ﻣـﻲ ﺗـﻮان ﺗﻴـﺪﻳﻞ ﻛـﺮد ﻛـﻪ ﻃﻴـﻒ ﻫـﺮ‬
‫ﺳﻴﻨﻮس ﺷﺎﻣﻞ دو ﺿﺮﺑﻪ اﺳﺖ‬

‫‪6-2‬‬
‫ﻓﺼﻞ ‪ :2‬ﻣﺮور ﺳﻴﺴﺘﻢ ﺧﻄﻲ‪-‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎي‬
‫‪‬‬ ‫‪ M 1‬‬ ‫‪‬‬
‫‪s ( )   Rs ( )e  j    Rs (  lm)e  j e  jlm   sP ( )  e  jlM‬‬
‫‪‬‬ ‫‪ 0‬‬ ‫‪‬‬

‫ﺑﺎ ﺗﻘﺮﻳﺐ ﺟﻤﻠﻪ آﺧﺮ ﺑﺎ ﺿﺮﺑﻪ‬

‫اﺳﺖ‪ .‬ﻛﻪ ‪ M‬ﭘﺮﻳﻮداﺳﺖ‪.‬‬ ‫ﻧﺘﻴﺠﻪ اﻳﻨﻜﻪ ﻃﻴﻒ ﺳﻴﮕﻨﺎل ﭘﺮﻳﻮدﻳﻚ ﺑﺼﻮرت ﺿﺮﺑﻪ ﻫﺎﻳﻲ ﺑﺎ داﻣﻨﻪ‬
‫ﻣﺜﺎل ‪ :3‬ﻣﺜﺎل‪ :‬ﻃﻴﻒ ﺳﻴﻨﻮس‪ :‬ﺳﻴﻨﻮس ﭘﺮﻳﻮدﻳﻚ اﺳﺖ و ﻃﻴﻒ آن ﺷﺎﻣﻞ دو ﺿﺮﺑﻪ اﺳﺖ‬

‫ﻣﺜﺎل ‪ :4‬ﻣﺜﺎل‪ :‬ﻃﻴﻒ ﺟﻤﻊ دو ﺳﻴﮕﻨﺎل ﻏﻴﺮ واﺑﺴﺘﻪ‪ :‬ﺳﻴﮕﻨﺎل )‪ s(t)=u(t)+v(t‬ﺑﺎ ورودﻳﻬﺎﻳﻲ ﺑـﺎ ﻣﻴـﺎﻧﮕﻴﻦ ﺻـﻔﺮ و‬
‫ﻃﻴﻔﻬﺎي ‪ u‬و ‪ v‬را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﺪ‪ .‬ﻃﻴﻒ ‪ s‬ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬
‫ﻣﺜﺎل ‪Es (t ) s (t   )  Eu (t )u (t   )  Ev (t )v (t   )  Ru ( )  Rv( ) :5‬‬
‫ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬ ‫و ﻃﻴﻒ‬ ‫ﻛﻪ ﻣﻴﺎﻧﮕﻴﻦ‬
‫ﻣﺜﺎل ‪ :6‬ﻣﺜﺎل‪ :‬ﻃﻴﻒ ﺳﻴﮕﻨﺎﻟﻲ ﻛﻪ ﻛﻮارﻳﺎﻧﺲ آن داده ﺷﺪه ﺑﺎﺷﺪ اﻳﻨﮕﻮﻧﻪ ﻣﺤﺎﺳﺒﻪ ﻣﻲ ﺷﻮد‪.‬‬

‫ﻃﻴﻒ ﺧﺮوﺟﻲ ﺳﻴﺴﺘﻢ ﺧﻄﻲ‬


‫ﻓﺮ ض ﻛﻨﻴﺪ ﺳﻴﺴﺘﻢ ﭘﺎﻳﺪار ‪ y=Hu‬ﺑﺎ ‪ u‬ﻛﻪ ﻃﻴﻒ آن ‪ u‬اﺳﺖ ﺗﺤﺮﻳﻚ ﺷﻮد در اﻳﻨﺼﻮرت ﻃﻴﻒ ‪ y‬ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬
‫‪7-2‬‬
‫ﻓﺼﻞ ‪ :2‬ﻣﺮور ﺳﻴﺴﺘﻢ ﺧﻄﻲ‪-‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎي‬

‫)‪uy(ejω)=H(ejω)u(ejω‬‬
‫اﻳﻦ ﻧﺘﻴﺠﻪ ﺑﺮاي ﺳﻴﺴﺘﻢ ‪ v=He‬ﻛﻪ ‪ e‬ﻧﻮﻳﺰ ﺳﻔﻴﺪ ﺑﺎ اﻧﺤﺮاف ﻣﻌﻴﺎر ‪ ‬اﺳﺖ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬
‫‪‬‬ ‫‪‬‬ ‫‪‬‬ ‫‪‬‬
‫‪v ( )    e  j .‬‬ ‫‪‬‬ ‫‪h( k )h( k   )   ‬‬ ‫‪‬‬ ‫) ‪h( k )e  j k h( k   )e  j ( k ‬‬
‫‪‬‬ ‫‪k  max(0, ) ‬‬ ‫‪ k  max(0, ) ‬‬

‫‪2‬‬
‫) ‪ v ( )   H (e j‬‬

‫در ﻧﺘﻴﺠﻪ ﺑﺮاي ﺳﻴﺴﺘﻢ‬

‫ﻣﻨﺠﺮ ﺑﻪ رواﺑﻂ زﻳﺮ ﻣﻲ ﺷﻮد‬


‫‪2‬‬ ‫‪2‬‬
‫) ‪ v ( )  G (e j )  u ( )   H (e j‬‬

‫) ‪ vu ( )  G (e j ) u (‬‬

‫ﻣﺜﺎل ‪ :7‬ﻣﺜﺎل ‪ :‬ﻃﻴﻒ ﺑﺮاي ﺳﻴﺴﺘﻢ )‪ y(t)-ay(t-1)+e(t‬ﺑﺎ ‪ e‬ﺳﻔﻴﺪ و وارﻳﺎﻧﺲ ‪ 2‬ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫در ﻣﺜﺎل دﻳﮕﺮ ﺷﻜﻞ ﻃﻴﻒ ﺳﻴﮕﻨﺎل )‪ v=1.5v(t-1)-0.7v(t-2) +e(t)+0.5e(t-1‬را ﻧﺸﺎن ﻣﻲ دﻫﺪ‪.‬‬

‫‪8-2‬‬
‫ﻓﺼﻞ ‪ :2‬ﻣﺮور ﺳﻴﺴﺘﻢ ﺧﻄﻲ‪-‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎي‬
‫ﺗﻌﻴﻴﻦ ﺗﺎﺑﻊ ‪ H‬از ﻃﻴﻒ ﺧﺮوﺟﻲ ‪Spectral Factorization‬‬
‫ﭘﺎﺳﺦ ﺑﻪ اﻳﻦ ﺳﻮال ﻛـﻪ آﻳـﺎ ﻣـﻲ ﺗـﻮان از ﻃﻴـﻒ ﺑـﻪ ﻣـﺪل ﭘـﻲ ﺑـﺮد در ﻓﺼـﻮل ﺑﻌـﺪ داده ﻣـﻲ ﺷـﻮد‪ .‬ﺑـﺮاي ﺳﻴﺴـﺘﻢ‬
‫)‪ v(t)=H(q)e(t‬وﻗﺘﻲ ﻃﻴﻒ ﻧﻮﻳﺰ ﻓﻴﻠﺘﺮ ﺷﺪه )‪ ϕv(ω‬در دﺳﺘﺮس اﺳﺖ و ‪ e‬ﻧﻮﻳﺰ ﺳـﻔﻴﺪ ﺑـﺎ اﻧﺤـﺮاف ﻣﻌﻴـﺎر ‪ ‬اﺳـﺖ‬
‫و ﺗﺎﺑﻌﻲ از ‪ eiw‬ﺑﺎﺷﺪ ﻣﻲ ﺗﻮاﻧﺪ )‪ H(z‬را ﭘﻴﺪا ﻛﺮد ﻛﻪ ‪ Monic‬اﺳﺖ و ﻗﻄﺐ و‬ ‫ﻧﺸﺎن داده ﻣﻲ ﺷﻮد ﻛﻪ اﮔﺮ‬
‫ﺻﻔﺮي روي داﻳﺮه واﺣﺪ ﻧﺪاﺷﺘﻪ و در راﺑﻄﻪ زﻳﺮ ﺻﺪق ﻣﻲ ﻛﻨﺪ‪.‬‬

‫ﻃﻴﻒ ﻓﻘﻂ ‪ certain aspects‬ﺳﻴﮕﻨﺎل را ﺗﺸﺮﻳﺢ ﻣﻲ ﻛﻨﺪ ﺑﻪ ﻋﺒـﺎرﺗﻲ ﺣـﺎوي ‪ second-order properties‬ﺳـﻴﮕﻨﺎل‬
‫اﺳﺖ‪ .‬ﻣﻌﺬﻟﻚ روﺷﻦ ﻣﻲ ﺷﻮد ﻛﻪ ﺷﻨﺎﺳﺎﻳﻲ )ﺳﻴﺴﺘﻢ ﺧﻄﻲ( ﻧﻴﺰ ﺑﻪ ﻫﻤﻴﻦ اﻃﻼﻋﺎت ﻧﻴﺎز دارد )ﻃﻴﻒ اﻃﻼﻋﺎت ﻓﺎز ﻣﺪل‬
‫را ﻧﺪارد(‬

‫‪ 4-2‬ﻓﻮرﻳﻪ ﻫﻤﺒﺴﺘﮕﻲ و ﭘﺮﻳﻮدوﮔﺮام )ﻃﻴﻒ( ﺳﻴﮕﻨﺎل ﻃﻮل ‪N‬‬

‫‪ 1-4-2‬ﻓﻮرﻳﻪ‬
‫ﻓﻮرﻳﻪ ﺳﻴﮕﻨﺎل ﻃﻮل ﻣﺤﺪود ‪ :‬در ﻋﻤﻞ ﻣﺎ ﻓﻘﻂ ﻣﻴﺘﻮاﻧﻴﻢ ﺑﺎ ﺳﻴﮕﻨﺎل ﻃﻮل ﻣﺤﺪود ﻛﺎر ﻛﻨﻴﻢ اﻳﻦ ﻣﻨﺠﺮ ﺑﻪ ﺗﻌﺎرﻳﻒ زﻳﺮ‬
‫ﻣﻲ ﺷﻮد‪.‬‬

‫ﻣﻀﺎﻓﺎ اﻳﻨﻜﻪ ﭼﻮن ‪ u‬ﺣﻘﻴﻘﻲ اﺳـﺖ ﺗـﺎﺑﻌﻲ ﻣـﺰدوج‬ ‫ﻛﻪ ﺗﺎﺑﻌﻲ ﭘﻴﻮﺳﺘﻪ ﺑﺎ ﭘﺮﻳﻮد ‪ 2π‬اﺳﺖ‬
‫ﻣﺘﻘﺎرن اﺳﺖ‬
‫ﺗﻮﺟﻪ‪ :‬ﻣﺘﻮﺳﻂ ﮔﻴﺮي در اﻳﻨﺠﺎ روي ‪ 1/√N‬اﻧﺠﺎم ﺷﺪه اﺳﺖ ﻛﻪ در ﻓﺮﻣﻮل اﺻﻠﻲ وﺟﻮد ﻧﺪارد‪ .‬وﻟـﻲ در ‪ IDFT‬ﺿـﺮﻳﺐ‬
‫‪ 1/N‬وﺟﻮد دارد‪.‬‬
‫‪DFT‬‬
‫‪ DFT‬ﮔﺴﺴﺘﻪ ﺷﺪه ‪ DTFT‬اﺳﺖ ﻛﻪ در ‪ N‬ﻧﻘﻄﻪ ﻧﻤﻮﻧﻪ ﺑﺮداري ﻣﻲ ﺷﻮد‪.‬‬

‫‪9-2‬‬
‫ﻓﺼﻞ ‪ :2‬ﻣﺮور ﺳﻴﺴﺘﻢ ﺧﻄﻲ‪-‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎي‬

‫ﻣﺤﺎﺳﺒﻪ ﮔﺴﺴﺘﻪ ﻃﻴﻒ ﺑﺎ دﺳﺘﻮر ‪ fft‬اﻧﺠﺎم ﻣﻲ ﺷﻮد‪ .‬اﮔﺮ ﻃﻮل دﻳﺘﺎ ‪ N‬اﺳﺖ ﺣﺪاﻗﻞ ﻧﻘﺎط ﺑﺎﻳﺪ ‪ N‬ﺑﺎﺷﺪ ﺗﺎ ﻃﻴﻒ ﭘﻴﻮﺳﺘﻪ‬
‫از ﻃﻴﻒ ﮔﺴﺴﺘﻪ ﻗﺎﺑﻞ ﺑﺎزﺳﺎزي ﺑﺎﺷﺪ‪.‬‬
‫‪IDFT‬‬
‫ﻋﻜﺲ ﻓﻮرﻳﻪ ﺳﻴﮕﻨﺎل ﻋﺒﺎرت اﺳﺖ از‬

‫‪ 2-4-2‬ﻃﻴﻒ ‪-‬ﭘﺮﻳﻮدوﮔﺮام ﺳﻴﮕﻨﺎل )ﻃﻴﻒ ﺑﺎ ‪ N‬ﻣﺤﺪود(‬


‫ﺗـﻮان ﻣﻮﻟﻔـﻪ ‪K‬ام را‬ ‫اﺳﺖ‪ .‬در ﭘﺮﻳﻮدو ﮔﺮام‬ ‫و ﮔﺴﺴﺘﻪ آن‬ ‫ﭘﺮﻳﻮدوﮔﺮام ﺳﻴﮕﻨﺎل‬
‫ﻧﺸﺎن ﻣﻲ دﻫﺪ‪.‬‬

‫‪Parseval's relationship.‬‬
‫ﭘﺮﻳﻮدوﮔﺮام ﺳﻴﮕﻨﺎل ﭘﺮﻳﻮدﻳﻚ‬
‫ﭘﺮﻳﻮدوﮔﺮام ﺳـﻴﮕﻨﺎل ﭘﺮﻳﻮدﻳـﻚ ﺑـﺎ ﻃﻴـﻒ آن ﺑـﻪ ﻧﺤـﻮ ﺧـﻮﺑﻲ ﺗﻄﺒﻴـﻖ دارد‪ .‬ﻣـﺜﻼ ﭘﺮﻳـﻮدوﮔﺮام ﺳـﻴﻨﻮس‬
‫ﺑﺎ ﭘﺮﻳﻮد ‪ N‬اﻳﻨﮕﻮﻧﻪ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ )ﻣﺤﺎﺳﺒﻪ ‪(N-DFT‬‬

‫اﺳﺖ ﻛﻪ ﺷﺎﻣﻞ دو ﺿﺮﺑﻪ در ‪ 2π/N‬اﺳﺖ‬


‫‪10-2‬‬
‫ﻓﺼﻞ ‪ :2‬ﻣﺮور ﺳﻴﺴﺘﻢ ﺧﻄﻲ‪-‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎي‬

‫اﻳﻦ ﻧﺘﻴﺠﻪ ﺑﺎ ﻃﻴﻒ ﺗﻄﺒﻴﻖ دارد‪ .‬ﺷﻜﻞ ﻧﻴﻤﻲ از ﻃﻴﻒ ﺳﻴﮕﻨﺎﻟﻲ ﺑﺎ ‪ 3‬ﻣﻮﻟﻔﻪ ﺳﻴﻨﻮﺳﻲ ﻧﺸﺎن ﻣﻲ دﻫﺪ‬

‫در ﺻﻮرﺗﻴﻜﻪ ‪ M>N‬ﻧﻘﻄﻪ ‪ DFT‬ﻣﺤﺎﺳﺒﻪ ﺷﻮد ﺑﺤﺎي ﺿﺮﺑﻪ ﺗﺎﺑﻊ ‪ sinc‬دﻳﺪه ﻣﻲ ﺷﻮد‪.‬‬
‫ﻣﺜﺎل ‪ :8‬ﻣﺜﺎل‪ :‬ﭘﺮﻳﻮدوﮔﺮام ﺳﻴﮕﻨﺎل ﭘﺮﻳﻮدﻳﻚ ‪ :Example 2.2‬ﺳـﻴﮕﻨﺎل ﭘﺮﻳﻮدﻳـﻚ ﺑـﺎ ﻓﺮﻛـﺎﻧﺲ ‪ f‬ﻣـﻲ ﺗـﻮان‬
‫ﺑﺼﻮرت ﻣﺠﻤﻮع ﺳﻴﻨﻮس ﺑﺎ ﻓﺮﻛﺎﻧﺲ ‪ r*f‬ﻧﻮﺷﺖ )ﺳﺮي ﻓﻮرﻳﻪ(‪ .‬ﺑﻪ اﻳﻦ ﺗﺮﺗﻴﺐ ﭘﺮﻳﻮدوﮔﺮام ﺳﻴﮕﻨﺎل ﭘﺮﻳﻮدﻳﻚ ﻣﺠﻤﻮﻋﻪ‬
‫اي از ‪ 2r‬ﺿﺮﺑﻪ در ﻓﺮﻛﺎﻧﺴﻬﺎي ‪ r/N‬اﺳﺖ‪.‬‬

‫ﭘﺮﻳﻮدوﮔﺮام ﺳﻴﮕﻨﺎل ﺗﺼﺎدﻓﻲ‬

‫اﻣﺎ ﭘﺮﻳﻮدو ﮔﺮام ﺳﻴﮕﻨﺎل ﺳﻴﺴﺘﻢ ﺗﺼﺎدﻓﻲ ‪ erratic‬اﺳﺖ‪ .‬ﺑﺮاي ﻣﺜﺎل ﻃﻴﻒ ‪ v‬در ﺳﻴﺴﺘﻢ‬
‫وﻗﺘﻲ ‪ e‬ﻧﻮﻳﺰ ﺳﻔﻴﺪ اﺳﺖ ﻣﺘﻨﺎﺳﺐ ﺑﺎ ‪ |H|2‬اﺳﺖ اﻣـﺎ ﭘﺮﻳـﻮدوﮔﺮام آن ﻧـﻮﻳﺰي و ‪ erratic‬اﺳـﺖ‪ .‬اﻓـﺰاﻳﺶ ‪ N‬ﺑﻬﺒـﻮدي را‬
‫ﺣﺎﺻﻞ ﻧﻤﻲ ﻛﻨﺪ‪ .‬ﺷﻜﻞ اﻳﻦ ﻣﻮﺿﻮع را ﻧﺸﺎن ﻣﻲ دﻫﺪ‪ .‬دﻟﻴﻞ آن در ﻓﺼﻮل ﺑﻌﺪ ﻣﻄﺮح ﻣﻲ ﺷﻮد‪.‬‬

‫‪11-2‬‬
‫ﻓﺼﻞ ‪ :2‬ﻣﺮور ﺳﻴﺴﺘﻢ ﺧﻄﻲ‪-‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎي‬

‫ارﺗﺒﺎط ﺑﻴﻦ ﭘﺮﻳﻮدوﮔﺮام وﻃﻴﻒ‬


‫اﻣﻴﺪرﻳﺎﺿﻲ ﭘﺮﻳﻮدوﮔﺮام ﺑﻪ ﻃﻴﻒ ‪ weakly‬ﻣﻴﻞ ﻣﻲ ﻛﻨﺪ‬

‫ﻳﻌﻨﻲ راﺑﻄﻪ ‪ 2.75‬ﺑﺮ ﻗﺮار اﺳﺖ‬


‫‪ Lemma 2.1.‬ﻓﺮض ﻛﻨﻴﺪ ‪ s‬ﺳﻴﮕﻨﺎل ﺷﺒﻪ اﻳﺴﺘﺎن ﺑﺎ ﻃﻴﻒ )‪ ϕs(ω‬و)‪ (ω‬ﺗﺎﺑﻊ اﺧﺘﻴﺎري )ﻓﻴﻠﺘﺮ( ﺑﺎ ﺿﺮاﻳﺐ ﻓﻮرﻳﻪ ‪αt‬‬

‫ﺑﺎﺷﺪ ﻛﻪ‬

‫;‪Proof‬‬

‫ﺑﺎ ﻓﺮض اﻳﻨﻜﻪ ‪ s‬ﺧﺎرج ]‪ [1,N‬ﺻﻔﺮ اﺳﺖ ﻣﻲ ﻧﻮﻳﺴﻴﻢ‬

‫از ﻃﺮﻓﻲ ﻣﻲ ﺗﻮاﻧﻴﻢ ﺑﻨﻮﻳﺴﻴﻢ‬

‫‪12-2‬‬
‫ﻓﺼﻞ ‪ :2‬ﻣﺮور ﺳﻴﺴﺘﻢ ﺧﻄﻲ‪-‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎي‬
‫ﺑﺎﻗﻴﻤﺎﻧﺪه اﻳﻦ دو ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫ﻛﻪ ﺳﻤﺖ راﺳﺖ راﺑﻄﻪ ﺑﺎ ∞→‪ N‬ﺻﻔﺮﻣﻲ ﺷﻮد‪) .‬ﺗﺮم اول در ﻧﺘﻴﺠﻪ ﻓﺮض ﺷﺒﻪ اﻳﺴﺘﺎ و ﺗﺮم دوم ﺑﻪ دﻟﻴﻞ ﺿﺮﻳﺐ ‪( α‬‬

‫‪ 3-4-2‬ﺗﻌﻴﻴﻦ ﻣﺪل از ﻃﻴﻒ ﺳﻴﮕﻨﺎل ﻃﻮل ﻣﺤﺪود ورودي و ﺧﺮوﺟﻲ‬


‫رواﺑﻂ زﻳﺮ ﻧﺸﺎن ﻣﻲ دﻫﺪ ﻛﻪ ﺗﻘﺮﻳﺐ ‪ G‬در ﺳﻴﺴﺘﻢ ‪ y=G(q)u‬ﻛﻪ ﺑﺎ ورودي ‪ |u|≤C‬ﺗﺤﺮﻳﻚ ﺷﻮد ﺑﺮ اﺳﺎس ﻓﻮرﻳﻪ ﻃﻮل‬
‫ﻣﺤﺪود ورودي‪-‬ﺧﺮوﺟﻲ ﻫﺎي آن ﻣﻨﺠﺮ ﺑﻪ راﺑﻄﻪ‬

‫ﻣﻲ ﺷﻮد ﻛﻪ ﻧﺸﺎن ﻣﻲ دﻫﺪ ﻣﺤﺎﺳﺒﻪ ﻫﻤﺮاه ﺑﺎ ﺗﻘﺮﻳﺐ اﺳﺖ‬


‫‪Proof‬‬

‫ﻧﻜﺘﻪ‪ :‬اﮔﺮ ورودي ﭘﺮﻳﻮدﻳﻚ ﻳﺎﺷﺪ‪ ،‬در آن ﻓﺮﻛﺎﻧﺲ ‪ RN(ω)=0‬ﻣﻲ ﮔﺮدد‪.‬‬


‫ﻣﺜﺎل ‪ :9‬ﻣﺜﺎل اﮔﺮ ﻛﺮان ورودي ‪ 3‬و ﺗﻌﺪاد دﻳﺘﺎ ‪ 100‬ﺑﺎﺷﺪ ﻋﺪم اﻃﻤﻴﻨﺎن در ﻣﺤﺎﺳﺒﻪ ﭘﺎﺳﺦ ﻓﺮﻛﺎﻧﺴﻲ را ﺑﺮاي ﺳﻴﺴـﺘﻢ‬
‫زﻳﺮ ﻣﺤﺎﺳﺒﻪ ﻛﻨﻴﺪ‬

‫ﻣﺤﺎﺳﺒﻪ ‪K‬ﺑﺮ اﺳﺎس رواﺑﻂ ﺗﺒﺪﻳﻞ ‪ z‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬

‫‪13-2‬‬
‫ﻓﺼﻞ ‪ :2‬ﻣﺮور ﺳﻴﺴﺘﻢ ﺧﻄﻲ‪-‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎي‬

‫‪2-5‬‬ ‫‪SINGLE REALIZATION BEHAVIOR AND ERGODICITY RESULTS‬‬


‫اﮔﺮ ﺳﻴﮕﻨﺎل ﻣﻌﻴﻦ ﺑﺎﺷﺪ )‪ E̅ f(t‬ﺟﺎي ﺧﻮد را ﺑﻪ‬

‫ﻣﻲ دﻫﺪ‪ .‬در راﺑﻄﻪ ﺑﺎ ﺳﻴﮕﻨﺎل ﺗﺼﺎدﻓﻲ اﻳﻦ ﺳﻮال ﺑﺎﻗﻲ ﻣﻲ ﻣﺎﻧﺪ ﻛﻪ آﻳـﺎ اﻃﻼﻋـﺎت آﻣـﺎري ﺑﺪﺳـﺖ آﻣـﺪه ﺑـﺮاي ﻓﺮاﻳﻨـﺪ‬
‫ﺗﺼﺎدﻓﻲ ﻗﺎﺑﻞ ﻗﺒﻮل اﺳﺖ‪ .‬اﻳﻦ ﻣﺴﺌﻠﻪ ‪ ergodicity‬اﺳﺖ‬
‫‪Theorem 2.3:‬ﻓﺮض ﻛﻨﻴﺪ ‪ s‬ﻳﻚ ﺳﻴﮕﻨﺎل ﺷﺒﻪ اﻳﺴﺘﺎن ﺑﺎ )‪ Es(t) = m(t‬و اﻧﺤﺮاﻓﺎت‬

‫ﻛﻪ ‪ e‬ﻧﻮﻳﺰ ﺳﻔﻴﺪ ﺑﺎ ﻣﻴﺎﻧﮕﻴﻦ ﺻﻔﺮ و وارﻳﺎﻧﺲ ‪ ‬ﻣﻤﻨﺘﻮم ﭼﻬﺎرم ﻣﺤـﺪود ﺑﺎﺷـﺪ و ‪ Ht‬ﺧـﺎﻧﻮاده اي از ﻓﻴﻠﺘـﺮ ﻫـﺎي ﭘﺎﻳـﺪار‬
‫ﻳﻜﻨﻮاﺧﺖ ﺑﺎﺷﺪ آﻧﻮﻗﺖ ﺑﺎ اﺣﺘﻤﺎل ‪ 1‬ﺑﺎ ∞→‪ N‬رواﺑﻂ زﻳﺮ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬

‫ﻧﺘﻴﺠﻪ‪ :‬اﮔﺮ ﺗﺪاﺧﻞ ﻧﺎﺷﻲ از ﻧﻮﻳﺰ ﺳﻔﻴﺪ ﻓﻴﻠﺘﺮ ﺷﺪه ﺑﺎﺷﺪ‪ ،‬آﻧﻮﻗﺖ ﻣﺸﺨﺼﺎت آﻣﺎري ﺑﺪﺳﺖ آﻣﺪه از ﻳﻚ ﺷـﺒﻴﻪ ﺳـﺎزي در‬
‫ﺗﻄﺒﻴﻖ ﻣﻲ ﻛﻨﺪ‬ ‫ﺣﺪ ﺑﺎ‬

‫‪2-6‬‬ ‫‪SUMMARY‬‬
‫ﻣﺪل ‪ y=G(q)u+H(q)e‬ﺑﺮاي ﺳﻴﺴﺘﻢ ﻣﻌﺮﻓﻲ ﺷﺪ ﻛﻪ ‪ e‬ﻧﻮﻳﺰ ﺳﻔﻴﺪ ﺑﺎ ﻣﻴﺎﻧﮕﻴﻦ ﺻﻔﺮ و وارﻳـﺎﻧﺲ ‪ ‬اﺳـﺖ‪ .‬ﺑـﺮاي اﻳـﻦ‬
‫ﺳﻴﺴﺘﻢ ﻃﻴﻒ ﺧﺮوﺟﻲ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫در راﺑﻄﻪ ﺑﺎ ﻓﻮرﻳﻪ ﺳﻴﮕﻨﺎل ﻃﻮل ﻣﺤﺪود راﺑﻄﻪ اﻳﻨﮕﻮﻧﻪ اﺳﺖ‬

‫‪14-2‬‬
‫‪NONPARAMETRIC SI: Impulse and frequency responses‬‬ ‫‪٣‬‬

‫‪Ljung Chapter 6‬‬


‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ ﻧﻴﺎز ﺑﻪ ﻣﺪل ﻧﺪارد از اﻳﻨﺮو ﻳﻜﻲ از اﻃﻼﻋﺎت ﻣﻬﻢ ﻣﻮرد ﻧﻴﺎز اوﻟﻴﻪ ﺣﺬف ﻣـﻲ ﺷـﻮد‪ .‬ﺑـﻪ ﺟـﺎي‬
‫ﻣﺪل ﻳﻚ دﻧﺒﺎﻟﻪ ﺳﻴﮕﻨﺎل زﻣﺎﻧﻲ ))‪) (g(k‬ﻣﺜﻞ ﭘﺎﺳﺦ ﺿﺮﺑﻪ( ﻳﺎ ﻓﺮﻛﺎﻧﺴﻲ )) ‪ (G(ejω‬ﺳﻴﺴﺘﻢ را ﻣﻌﺮﻓﻲ ﻣﻲ ﻛﻨـﺪ ﻛـﻪ ﺑـﺎ‬
‫ﻧﻤﻮدار ﻳﺎ ﺗﻌﺪاد ﻣﺘﻨﺎﺑﻬﻲ ﻧﻤﻮﻧﻪ ﻣﻌﺮﻓﻲ ﻣﻲ ﮔﺮدد‪..‬‬
‫اﻳﻦ روش در ﻣﻮرد ﺳﻴﺴﺘﻢ ‪ ،LTI‬ﺣﻠﻘﻪ ﺑﺎز و ورودي و اﺧﺘﻼل ‪ u‬و ‪ v‬ﻣﺴﺘﻘﻞ ﻗﺎﺑﻞ اﺳﺘﻔﺎده اﺳﺖ‪.‬‬
‫ﻳﻜﻲ از ﻛﺎرﺑﺮد اﻳﻦ روﺷﻬﺎ دﺳﺘﻴﺎﺑﻲ ﺑﻪ اﻃﻼﻋﺎت اوﻟﻴـﻪ ﻣـﺪل اﺳـﺖ ﺗـﺎ در ﺷﻨﺎﺳـﺎﻳﻲ ﭘﺎراﻣﺘﺮﻳـﻚ ﻣـﻮرد اﺳـﺘﻔﺎده ﻗـﺮار‬
‫ﮔﻴﺮد‪.‬اﻃﻼﻋﺎﺗﻲ ﻣﺎﻧﻨﺪ ﺑﺎﻧﺪ ﻓﺮﻛﺎﻧﺴﻲ ﻣﻬﻢ و ﺷﻜﻞ ﻛﻠﻲ )‪ G(ω‬ﺑﺮاي ﺣﺪس درﺟﻪ ﻣﺪل‬

‫‪3-1‬‬ ‫‪Impulse response‬‬


‫‪ 1-1-3‬ﺗﺨﻤﻴﻦ ﭘﺎﺳﺦ ﺿﺮﺑﻪ از اﻋﻤﺎل ﺿﺮﺑﻪ‬
‫ﭘﺎﺳﺦ ﺿﺮﺑﻪ ﺳﻴﺴﺘﻢ‬

‫ﺑﺮاﺑﺮاﺳﺖ ﺑﺎ‬

‫ﻛﻪ اﮔﺮ ﺳﻄﺢ ﻧﻮﻳﺰ ﻛﻮﭼﻚ ﺑﺎﺷﺪ‪ ،‬ﺗﺨﻤﻴﻦ ﭘﺎﺳﺦ ﺿﺮﺑﻪ ﺳﻴﺴﺘﻢ ﺑﻪ ﺳﺎدﮔﻲ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬
‫) ‪y (t‬‬ ‫) ‪v(t‬‬ ‫‪‬‬ ‫) ‪y (t‬‬
‫= ) ‪g0 (t‬‬ ‫‪+‬‬ ‫= ) ‪ g0 (t‬‬
‫‪α‬‬ ‫‪α‬‬ ‫‪α‬‬
‫ﻛﻪ ﺧﻄﺎي ﺗﺨﻤﻴﻦ ‪ v/α‬اﺳﺖ‪ .‬ﺗﺨﻤﻴﻦ ﺑﺼﻮرت ﻧﻤﻮدار ﻳﺎ ﺗﻌﺪاد زﻳﺎدي ﻧﻤﻮﻧﻪ از ﻧﻤﻮدار اﺳﺖ‪.‬‬
‫ﺑﺮاي ﺗﺨﻤﻴﻦ ﺧﻮب داﻣﻨﻪ ‪ α‬ﺑﺎﻳﺪ ﺑﺰرگ ﺑﺎﺷﺪ ﻛﻪ ﺑﻪ دﻻﻳﻞ زﻳﺮ ﻣﻤﻜﻦ ﻧﻴﺴﺖ‪:‬‬
‫‪ ‬در اﻏﻠﺐ ﻣﻮارد اﻋﻤﺎل ﺿﺮﺑﻪ ﺑﺰرگ ﺑﻪ ﺳﻴﺴﺘﻤﻬﺎي واﻗﻌﻲ ﻣﺠﺎز ﻧﻴﺴﺖ‪.‬‬
‫‪ ‬داﻣﻨﻪ ﺑﺰرگ ﻣﻤﻜﻦ اﺳﺖ رﻓﺘﺎر ﻏﻴﺮ ﺧﻄﻲ ﺳﻴﺴﺘﻢ را ﺗﺤﺮﻳﻚ ﻛﻨﺪ‪.‬‬
‫ﻣﺜﺎل ‪ .1‬ﺑﻪ ﺳﻴﺴﺘﻤﻲ ﺗﺤﺖ ﻧﻘﻄﻪ ﻛﺎر ‪ uss=0.5‬ﺿﺮﺑﻪ واﺣﺪ اﻋﻤﺎل ﺷﺪه اﺳﺖ ﭘﺎﺳﺦ ﺿﺮﺑﻪ آﻧﺮا ﺗﺨﻤﻴﻦ ﺑﺰﻧﻴﺪ‪.‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ‬

‫‪t‬‬
‫‪K −T‬‬
‫= ) ‪g 0 (t‬‬ ‫‪e‬‬
‫‪T‬‬

‫ﻣﻨﻈﻮر از ﺗﺨﻤﻴﻦ ﺑﺪﺳﺖ آوردن ﻓﺮﻣﻮل ﭘﺎﺳﺦ ﺿﺮﺑﻪ ﻧﻴﺴﺖ وﻟﻲ اﮔﺮ ﺳﻴﺴﺘﻢ درﺟﻪ ‪ 1‬ﺑﺎﺷﺪ اﻳﻦ ﻛـﺎر را ﻧﻴـﺰ ﻣـﻲ ﺗـﻮان‬
‫اﻧﺠﺎم داد‪ .‬از ﻣﻴﺎﻧﮕﻴﻦ ‪ 11‬ﻧﻤﻮﻧﻪ ﻣﺎﻧﺪﮔﺎر ﻣﻘﺪار ﻧﻬﺎﻳﻲ را ﻣﺤﺎﺳﺒﻪ ﺗﺎ ‪ K‬ﺗﺨﻤﻴﻦ زده ﺷﻮد‪.‬‬

‫و از زﻣﺎن اﻓﺖ ‪ 0.38‬ﺛﺎﺑﺖ زﻣﺎﻧﻲ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬

‫ﺣﺎل ﺗﺎﻳﻊ ﺗﻴﺪﻳﻞ ﺳﻴﺴﺘﻢ از اﻳﻨﻘﺮار اﺳﺖ‬

‫ﻣﺪل ﺑﺪﺳﺖ آﻣﺪه ﺑﺎﻳﺪ در ﭘﺎﺳﺦ ﺑﻌﺪي ﻓﻴﺖ ﺷﻮد وﮔﺮﻧﻪ ﻣﺪل ﻣﻌﺘﺒﺮ ﻧﻴﺴﺖ‪.‬‬

‫‪ 2-1-3‬ﺗﺨﻤﻴﻦ ﭘﺎﺳﺦ ﺿﺮﺑﻪ از ﭘﺎﺳﺦ ﭘﻠﻪ‬


‫ﭘﺎﺳﺦ ﭘﻠﻪ ﺑﺎ اﻣﻨﻪ ‪ α‬ﺳﻴﺴﺘﻢ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫‪2-3‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ‬
‫ﻛﻪ )‪ go(k‬را اﻳﻨﮕﻮﻧﻪ ﻣﻲ ﺗﻮان ﺗﺨﻤﻴﻦ زد‬

‫ﻛﻪ ﺧﻄﺎ ‪ [v(t) - v(t - 1) ]/α.‬اﺳﺖ‬


‫ﻣﺸﻜﻼت‬
‫‪ ‬ﻣﺤﺎﺳﺒﻪ ﭘﺎﺳﺦ ﺿﺮﺑﻪ از راﺑﻄﻪ ﺗﻔﺎﺿﻠﻲ ‪ 6.6‬ﺑﺎ در ﻧﻈﺮ ﮔﺮﻓﺘﻦ ﻧﻮﻳﺰ ﺧﻄﺎي ﺑﺰرگ در ﭘﻲ دارد ﻛﻪ آﻧﺮا ﻧـﺎ ﻣﻨﺎﺳـﺐ ﻣـﻲ‬
‫ﻛﻨﺪ‬
‫‪ ‬ﻣﻌﺬﻟﻚ اﻳﻦ روش ﺑﺮاي ﺗﻌﻴﻴﻦ ﺗﺎﺧﻴﺮ‪ ،‬ﺑﻬﺮه و ﺛﺎﺑﺖ زﻣﺎﻧﻲ ﻏﺎﻟﺐ ﺳﻴﺴﺘﻢ ﺑﻄﻮر ﮔﺴﺘﺮده در ﻛﻨﺘـﺮل ﺻـﻨﻌﺘﻲ اﺳـﺘﻔﺎده‬
‫ﻣﻲ ﺷﻮد ﻛﻪ دﻳﺘﺎي آن در ﺗﻨﻈﻴﻢ ﻛﻨﺘﺮﻟﺮ ﺑﻪ روش زﻳﮕﻠﺮ ﻧﻴﻜﻮﻟﺰ ﻛﺎرﺑﺮد دارد‪.‬‬

‫‪ 3-1-3‬ﺗﺨﻤﻴﻦ ﭘﺎﺳﺦ ﺿﺮﺑﻪ ﺑﺎ ﺗﺤﺮﻳﻚ ﻧﻮﻳﺰ ﺳﻔﻴﺪ و ﺗﺎﺑﻊ ‪Correlation‬‬


‫ﻫﻤﺒﺴﺘﮕﻲ دو ﺳﻴﮕﻨﺎل ﻣﻌﻴﺎري از ﺷﺒﺎﻫﺖ ﺑﻴﻦ آﻧﺪو ﺳﺖ‪ .‬اﮔﺮ ﺳﻴﺴﺘﻢ زﻳﺮ ﺑﺎ ورودي ﺷﺒﻪ اﻳﺴـﺘﺎن ‪ u‬ﺗﺤﺮﻳـﻚ و ﺗﺤـﺖ‬
‫ﺗﺎﺛﻴﺮ اﺧﺘﻼل ﻣﺴﺘﻘﻞ از ورودي ‪ v‬ﺑﺎﺷﺪ‬

‫ﺗﺎﺑﻊ ﻫﻤﺒﺴﺘﮕﻲ ﺑﻴﻦ ورودي و ﺧﺮوﺟﻲ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫ﻛﻪ ﺑﺮاي دﻳﺘﺎي ﻃﻮل ﻣﺤﺪود ﺑﺼﻮرت زﻳﺮ اﺳﺖ‬

‫‪ ‬ورودي ﻧﻮﻳﺰ ﺳﻔﻴﺪ‬


‫ﺣﺎل اﮔﺮ ورودي ﻧﻮﻳﺰ ﺳﻔﻴﺪ ﻓﺮض ﺷﻮد‬

‫ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬

‫ﻛﻪ ﺗﺨﻤﻴﻦ ﭘﺎﺳﺦ ﺿﺮﺑﻪ اﺳﺖ‪.‬‬


‫‪ ‬ورودي ﻏﻴﺮ ﺳﻔﻴﺪ‬
‫‪ ‬راه ‪:1‬ﺧﻮد ﻫﻤﺒﺴﺘﮕﻲ ‪ u‬ﻣﺤﺎﺳﺒﻪ‬

‫و ﺳﭙﺲ از ﻫﻤﺒﺴﺘﮕﻲ ﻣﺘﻘﺎﺑﻞ ‪ y‬و ‪ u‬ﭘﺎﺳﺦ ﺿﺮﺑﻪ ﺑﻪ ﻃﻮل ‪ M‬ﺗﺨﻤﻴﻦ زده ﺷﻮد‬
‫‪3-3‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ‬

‫‪ ‬در ﺻﻮرت اﻣﻜﺎن ورودﻳﻲ اﻧﺘﺨﺎب ﺷﻮد ﻛﻪ ﻣﺤﺎﺳﺒﺎت ﻓﻮق ﺳﺎده ﺗﺮ ﺷﻮد‪.‬‬
‫‪ ‬وﺳﺎﻳﻞ ﺑﺮاي اﻋﻤﺎل ورودي و ﺗﺨﻤﻴﻦ ﭘﺎﺳﺦ ﺿﺮﺑﻪ ﺑﻪ اﻳﻦ روش ﺑﺼﻮرت ﺗﺠﺎري وﺟﻮد دارد‪.‬‬
‫‪ ‬روش ‪ :2‬درﻧﻈﺮ ﮔﺮﻓﺘﻦ ﺳﻴﺴﺘﻢ ﺑﺼﻮرت ﻓﻴﻠﺘﺮ ‪ FIR‬ﺑﺎ درﺟﻪ ﻣﺤﺪود ‪ n‬و ‪ curve fitting‬ﺑﻪ روش ‪Least squares‬‬

‫‪ ‬روش ‪ :3‬ﻋﺒﻮر دادن ورودي و ﺧﺮوﺟﻲ از ﻓﻴﻠﺘﺮي ﻛﻪ ﻣﻮﺟﺐ ﺳﻔﻴﺪ ﺷﺪن ورودي ﺷﻮد و ﺳـﭙﺲ اﺳـﺘﻔﺎده از ﻓﺮﻣـﻮل‬
‫ﻣﺮﺑﻮط ﺑﻪ ورودي ﺳﻔﻴﺪ‪ .‬ﺑﻪ اﻳﻦ روش "‪ "input pre-whitening‬ﻣﻲ ﮔﻮﻳﻨﺪ‬
‫‪ ‬ﻓﺮض ﻛﻨﻴﺪ ﻓﻴﻠﺘﺮ ‪ L‬ﻛﻪ ‪ Lu‬را ﺳﻔﻴﺪ ﻣﻲ ﻛﻨﺪ ﻣﻌﻠﻮم ﺑﺎﺷﺪ‪ .‬ﻳﻌﻨﻲ‬

‫ﻣﻲ ﺗﻮان ﻧﺸﺎن داد ﻛﻪ ﻫﺪف ﺑﺎ ﺣﺪاﻗﻞ ﻛﺮدن راﺑﻄﻪ زﻳﺮ ﻣﺤﻘﻖ ﻣﻲ ﺷـﻮد‪) .‬ﻣﺮﺑـﻊ ﺧﻄـﺎي ﺑـﻴﻦ ‪ uf‬و ‪ e‬ﺳـﻔﻴﺪ ﺣـﺪاﻗﻞ‬
‫ﮔﺮدد(‬

‫در اﻳﻨﺼﻮرت‬

‫دﺳﺘﻮر ‪cra‬‬
‫اﻳﻦ دﺳﺘﻮر ﺑﺎ اﺳﺘﻔﺎده از روش ‪ input pre-whitening‬و ﺗﺎﺑﻊ ﻫﻤﺒﺴﺘﮕﻲ ﭘﺎﺳﺦ ﺿﺮﺑﻪ را ﺗﺨﻤﻴﻦ ﻣﻲ زﻧﺪ‪ .‬ﺑـﻪ دﺳـﺘﻮر‬
‫ﻣﻲ ﺗﻮان درﺟﻪ ﻣﻮرد ﻧﻈﺮ ﻓﻴﻠﺘﺮ ‪ pre-whitening‬را ﻫﻢ داد‪.‬‬

‫‪ ‬اﮔﺮ ﻣﻴﺎﻧﮕﻴﻦ ورودي ﺻﻔﺮ ﻧﻴﺴﺖ ﺑﺎ ‪ deterend‬ﻣﻴﺎﻧﮕﻴﻦ آن ﺣﺬف ﻣﻲ ﺷﻮد‬


‫‪ ‬اﮔﺮ وردي ﻧﻮﻳﺰ ﺳﻔﻴﺪ ﻧﻴﺴﺖ آرﮔﻴﻮﻣﻨﺖ ﺳﻮم دﺳﺘﻮر ﺧﺎﻟﻲ ﮔﺬاﺷﺘﻪ ﺷﻮد ﺗـﺎ ﺑﻄـﻮر ﺧـﻮد ﻛـﺎر از ﻓﻴﻠﺘـﺮ ﺳـﻔﻴﺪﻛﻨﻨﺪه‬
‫اﺳﺘﻔﺎده ﻛﻨﺪ‬
‫ﻣﺜﺎل ‪ .2‬ﭘﺎﺳﺦ ﺿﺮﺑﻪ ﺳﻴﺴﺘﻢ زﻳﺮ را ﺑﺮ اﺳﺎس دﻳﺘﺎي ورودي ﺧﺮوﺟﻲ ﺗﺨﻤﻴﻦ ﺑﺰﻧﻴﺪ‬

‫‪4-3‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ‬

‫ﺑﺎ‬
‫‪N=4096, T=1, fs=1Hz‬‬

‫ﭘﺎﺳﺦ ﺿﺮﺑﻪ ﺳﻴﺴﺘﻢ‬

‫)‪G0 (exact) cra (n=1) cra (n=10‬‬


‫ﻣﺜﺎل ‪ .3‬ﻣﺜﺎل دﻳﮕﺮ‬
‫ورودي و ﺧﺮوﺟﻲ ﺷﻨﺎﺳﺎﻳﻲ )ورودي ﻧﻮﻳﺰ ﺳﻔﻴﺪ(‬

‫ﺑﺎ دﺳﺘﻮر زﻳﺮ ﭘﺎﺳﺦ ﺿﺮﺑﻪ ﺑﻪ ﻃﻮل ‪ M‬ﺑﺎ روش ﻫﻤﺒﺴﺘﮕﻲ ﺗﺨﻤﻴﻦ زده ﻣﻲ ﺷﻮد‬

‫ﻧﻤﻮدار ﻫﻤﺒﺴﺘﮕﻲ ﺳﻴﮕﻨﺎﻟﻬﺎ و ﺗﺨﻤﻴﻦ ﭘﺎﺳﺦ ﺿﺮﺑﻪ‬

‫‪5-3‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ‬

‫ورودي و ﺧﺮوﺟﻲ اﻋﺘﺒﺎر ﺳﻨﺠﻲ‬

‫‪ 2-3‬ﺗﺨﻤﻴﻦ ﭘﺎﺳﺦ ﻓﺮﻛﺎﻧﺴﻲ‬

‫‪ 1-2-3‬ﺗﻌﻴﻴﻦ ﻣﺴﺘﻘﻴﻢ ﭘﺎﺳﺦ ﻓﺮﻛﺎﻧﺴﻲ‬


‫ﭘﺎﺳﺦ ﻓﺮﻛﺎﻧﺴﻲ ﺗﺎﺑﻌﻲ ﻛﻤﭙﻠﻜﺲ اﺳﺖ ﻛﻪ رﻓﺘﺎر ﺳﻴﺴﺘﻢ در ﻣﻮاﺟﻬﻪ ﺑﺎ ﺳﻴﮕﻨﺎل ﺳﻴﻨﻮﺳﻲ را ﻧﺸﺎن ﻣﻲ دﻫـﺪ‪ .‬ﺑـﺎ اﻋﻤـﺎل‬
‫ﺳﻴﮕﻨﺎل در ﻓﺮﻛﺎﻧﺴﻬﺎي ﻣﻮرد ﻧﻈﺮ و ﺗﻌﻴﻴﻦ ﻧﺴﺒﺖ داﻣﻨﻪ ﺧﺮوﺟﻲ ﺑﻪ ورودي در ﺣﺎﻟﺖ ﻣﺎﻧﺪﮔﺎر ﭘﺎﺳـﺦ ﻓﺮﻛﺎﻧﺴـﻲ در آن‬
‫ﻓﺮﻛﺎﻧﺴﻬﺎ ﺑﻪ ﺳﻬﻮﻟﺖ ﻗﺎﺑﻞ ﺗﻌﻴﻴﻦ اﺳﺖ‪.‬‬
‫‪u(t)=α cos ωt‬‬

‫‪6-3‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ‬

‫ﻛﻪ ‪ Go(eiw):‬ﭘﺎﺳﺦ ﻓﺮﻛﺎﻧﺴﻲ اﺳﺖ‪ .‬اﻣﺎ وﻗﺘﻲ ﺧﺮوﺟﻲ در ﻣﻌﺮض ﻧﻮﻳﺰ ﺑﺎﺷﺪ داﻣﻨﻪ ﺧﺮوﺟﻲ و ﺑﻪ ﺗﺒﻊ آن ﻧﻤﻮدار ﭘﺎﺳـﺦ‬
‫ﻓﺮﻛﺎﻧﺴﻲ ﻣﻌﺘﺒﺮ ﻧﻴﺴﺖ‪ .‬ﺧﺮوﺟﻲ ﺑﺮ ﺣﺴﺐ ورودي در ﺣﺎﻟﺖ ﻧﻮﻳﺰي و ﺑﺪون ﻧﻮﻳﺰ در ﺷﻜﻞ ﻧﺸﺎن داده ﺷﺪه اﺳﺖ‬

‫‪ 2-2-3‬ﺗﺨﻤﻴﻦ ﭘﺎﺳﺦ ﻓﺮﻛﺎﻧﺴﻲ از ﻫﻤﺒﺴﺘﮕﻲ ﺑﺎ‪e-jω t‬‬


‫اﺳﺘﻔﺎده از ﻫﻤﺒﺴﺘﮕﻲ ﺑﺎ ‪ e-jω t‬ﺗﺨﻤﻴﻦ ﺧﻮﺑﻲ از داﻣﻨﻪ ﭘﺎﺳﺦ ﻓﺮﻛﺎﻧﺴﻲ در ﻓﺮﻛﺎﻧﺲ ‪ ω=ω 0‬در ﺣﻀﻮر اﺧﺘﻼل ﻣﻲ دﻫﺪ‪.‬‬

‫ﺑﺎ ﻣﻌﻠﻮم ﺑﻮدن ﺳﻴﮕﻨﺎل ورودي دو ﺗﺎﺑﻊ ﻫﻤﺒﺴـﺘﮕﻲ زﻳـﺮ را ﺣﺴـﺎب ﻣـﻲ ﻛﻨـﻴﻢ )ﻫﻤﺒﺴـﺘﮕﻲ ﺧﺮوﺟـﻲ ﺑـﺎ ﺳـﻴﻨﻮس و‬
‫ﻛﺴﻴﻨﻮس(‬

‫ﻫﻤﺒﺴﺘﮕﻲ ﺑﺎ ﺟﻤﻠﻪ ﻛﺴﻴﻨﻮﺳﻲ ﻣﻨﺠﺮ ﺑﻪ‬

‫‪7-3‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ‬

‫ﻣﻲ ﺷﻮد ﻛﻪ ﺟﻤﻠﻪ دوم ﺑﺎ ∞→‪ N‬و ﺟﻤﻠﻪ ﺳﻮم وﻗﺘﻲ ‪ v‬ﻣﺴﺘﻘﻞ از ورودي )ﻣﻮﻟﻔﻪ ﻓﺮﻛﺎﻧﺲ ‪ ω‬ﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ( ﺻﻔﺮ ﻣـﻲ‬
‫ﺷﻮﻧﺪ‪.‬‬
‫‪ ‬ﺑﻄﻮر ﻣﺸﺎﺑﻪ اﻳﻦ اﻣﺮ ﺑﺮاي‬

‫اﺗﻔﺎق ﻣﻲ اﻓﺘﺪ ﺗﺎ ﺗﺤﻤﻴﻦ ‪ G‬در ﺣﻀﻮر اﺧﺘﻼل ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬

‫‪ ‬ﺑﺎ ﺗﻜﺮار آزﻣﺎﻳﺶ در ﻓﺮﻛﺎﻧﺴﻬﺎي دﻟﺨﻮاه ﭘﺎﺳﺦ ﻓﺮﻛﺎﻧﺴﻲ در ﻓﺮﻛﺎﻧﺴﻬﺎي ﻣﻮرد ﻧﻈﺮ ﺑﺪﺳـﺖ ﻣـﻲ آﻳـﺪ‪ .‬اﻳـﻦ ﻛـﺎر را ﺑـﻪ‬
‫ﻳﻜﺒﺎره ﺑﺎ اﻋﻤﺎل ﻣﺠﻤﻮﻋﻪ ﻓﺮﻛﺎﻧﺴﻬﺎ ﻧﻴﺰ ﻣﻲ ﺗﻮان اﻧﺠﺎم داد‪.‬‬
‫‪ ‬ﺗﺠﻬﻴﺰات ﻣﺨﺼﻮص اﻧﺠﺎم اﻳﻦ آزﻣﺎﻳﺶ وﺟﻮد دارﻧﺪ‪.‬‬
‫‪ ‬اﻳﺮاد اﻳﻦ روش اﻳﻦ اﺳﺖ ﻛﻪ ﻣﻤﻜﻦ اﺳﺖ اﻋﻤﺎل ﺳﻴﮕﻨﺎل ﺳﻴﻨﻮﺳﻲ ﺑﻪ ﺳﻴﺴﺘﻢ درﺣﺎل ﻛﺎر ﻋﺎدي ﻣﺠﺎز ﻧﺒﺎﺷﺪ‪.‬‬

‫ﺧﻼﺻﻪ‬
‫‪ ‬روش‪ ،‬ﺗﺨﻤﻴﻦ ﺑﺪون ﺑﺎﻳﺎس از ﭘﺎﺳﺦ ﻓﺮﻛﺎﻧﺴﻲ اراﺋﻪ ﻣﻲ دﻫﺪ‪.‬‬
‫‪ ‬وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﺑﺎ ﻧﺴﺒﺖ ‪ 1/N‬اﻓﺖ ﻣﻲ ﻛﻨﺪ‪.‬‬
‫‪ ‬ﭼﻮن ورودي ﭘﺮﻳﻮدﻳﻚ ﺑﺮاي ﺗﺨﻤﻴﻦ اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد )‪ RN(ω‬ﺻﻔﺮ اﺳﺖ‪) .‬ﺗﺌﻮري ‪(2.1‬‬

‫‪ 3-2-3‬ﻋﻤﻠﻜﺮد ﺗﺒﺪﻳﻞ ﻓﻮرﻳﻪ‪ :‬راﺑﻄﻪ ﺑﺎ ﻫﻤﺒﺴﺘﮕﻲ ﺑﺎ ‪e-jω t‬‬


‫ﻓﻮرﻳﻪ ﺳﻴﮕﻨﺎل )‪ y(n‬و ﺗﺎﺑﻊ ﺗﺒﺪﻳﻞ ﺳﻴﺴﺘﻢ ﺑﺮاﺑﺮﻧﺪ ﺑﺎ‪:‬‬

‫ورودي ﺳﻴﻨﻮﺳﻲ‬
‫وﻗﺘﻲ ورودي ﺳﻴﻨﻮﺳﻲ اﺳﺖ ﺑﻪ ﺳﻬﻮﻟﺖ دﻳﺪه ﻣﻲ ﺷﻮد ﻛﻪ ﻓﻮرﻳﻪ ﺧﺮوﺟﻲ ﻫﻤﺎن ﺗﺨﻤـﻴﻦ ﻃﻴـﻒ ﺑـﻪ روش ﻫﻤﺒﺴـﺘﮕﻲ‬
‫اﺳﺖ‪.‬‬

‫ﻛﻪ وﻗﺘﻲ ورودي ﻛﺴﻴﻨﻮس ﺑﺎﺷﺪ‬

‫‪8-3‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ‬

‫ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬

‫‪ 4-2-3‬ﺗﺨﻤﻴﻦ ﻃﻴﻒ )ﭼﻨﺪ ﻓﺮﻛﺎﻧﺴﻲ( ﺑﺎ ﻓﻮرﻳﻪ ‪Empirical Transfer-function Estimate‬‬


‫ﺑﻨﺎﺑﺮاﻳﻦ ﻃﻴﻒ را ﺑﺎ ﻓﻮرﻳﻪ ﺑﻪ ﺗﺮﺗﻴﺐ زﻳﺮ ﻣﻲ ﺗﻮان ﺗﺨﻤﻴﻦ زد‬

‫ﻛﻪ ﺑﻪ آن )‪ empirical transfer-function estimate (ETFE‬ﮔﻔﺘﻪ ﻣﻲ ﺷﻮد‪ .‬راﺑﻄﻪ ﻓﻮق ﺑﺮاي ﻓﺮﻛﺎﻧﺴـﻬﺎﻳﻲ ﻗﺎﺑـﻞ‬
‫اﺳﺘﻔﺎده اﺳﺖ ﻛﻪ ﺑﺮاي آﻧﻬﺎ ‪ UN(ω)#0‬ﺑﺎﺷﺪ در ﻏﻴﺮ اﻳﻨﺼﻮرت در ﻓﺮﻛﺎﻧﺴﻬﺎﻳﻲ ﻛﻪ ورودي ﺻﻔﺮ اﺳﺖ ﭘﺎﺳـﺦ ﻓﺮﻛﺎﻧﺴـﻲ‬
‫‪ undefined‬اﺳﺖ‪ .‬داﺷﺘﻦ ﻣﻮﻟﻔﻪ در ﻳﻚ ﻓﺮﻛﺎﻧﺲ ﺑﻪ ﻓﺮﻛﺎﻧﺲ دﻳﮕﺮ ﻛﻤﻚ ﻧﻤﻲ ﻛﻨﺪ زﻳﺮا در ﺳﻴﺴﺘﻢ ﺧﻄﻲ ﻫﺮ ﻓﺮﻛﺎﻧﺲ‬
‫ﻣﺴﻴﺮ ﻣﺴﺘﻘﻞ ﺧﻮد را ﻣﻲ رود‪.‬‬
‫‪ ‬اﮔﺮ ﻃﻮل دﻳﺘﺎ ‪ N‬ﺑﺎﺷﺪ ﻃﻴﻒ ‪ N‬ﻣﻮﻟﻔﻪ دارد ﻛﻪ ﺑﻪ دﻟﻴﻞ ﺗﻘﺎرن در ﻃﻴﻒ ‪ N/2‬ﻣﻮﻟﻔﻪ ;ﻛﺎﻓﻲ اﺳﺖ ﻣﺤﺎﺳﺒﻪ ﺷﻮد‪.‬‬

‫ﺑﺎﻳﺎس و وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ‪Lemma 6.1 :G‬‬


‫ﺳﻴﺴﺘﻢ ﭘﺎﻳﺪار ﻣﻄﻠﻖ زﻳﺮ‬

‫ﻛﻪ ﺗﺤﺖ ﺗﺎﺛﻴﺮ اﺧﺘﻼل اﻳﺴﺘﺎ )‪ v(t‬ﺑﺎ ﻃﻴﻒ )‪ ϕv(ω‬و ﺗﺎﺑﻊ ﻫﻤﺒﺴﺘﮕﻲ )‪ Rv(t‬ﻛﻪ‬

‫و ورودي ﻣﺴﺘﻘﻞ از ‪v‬ﻛﺮاﻧﺪار ‪ |u|≤C‬اﺳﺖ را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﺪ‪.‬‬


‫ﺑﺎﻳﺎس‬
‫از ﺗﺌﻮري ‪ 2. 1‬دارﻳﻢ‬

‫ﻛﻪ ‪ ρ‬ﻣﺤﺼﻮل ﻣﺤﺪود ﺷﺪن ﻃﻮل دﻳﺘﺎ از∞ ﺑﻪ ‪ N‬اﺳﺖ‬


‫ورودي ﻏﻴﺮ ﭘﺮﻳﻮدﻳﻚ‬
‫از آﻧﺠﺎ ﻛﻪ اﻣﻴﺪ رﻳﺎﺿﻲ ‪ V/U‬ﺻﻔﺮ اﺳﺖ )ﻣﻴﺎﻧﮕﻴﻦ ‪ v‬ﺻﻔﺮ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﺪه اﺳﺖ‪ (.‬دارﻳﻢ‬

‫‪9-3‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ‬

‫اﻓﺖ ﻣﻲ ﻛﻨﺪ‬ ‫‪ ‬ﺑﻪ اﻳﻦ ﺗﺮﺗﻴﺐ ﺗﺨﻤﻴﻦ ﺑﺎ ورودي ﻏﻴﺮ ﭘﺮﻳﻮدﻳﻚ ﺑﺎﻳﺎس دارد ﻛﻪ ﺑﺎ رﻳﺘﻢ‬
‫ورودي ﭘﺮﻳﻮدﻳﻚ‬
‫و در ﻧﺘﻴﺠـﻪ ‪C1=0.‬‬ ‫در ﻓﺮﻛﺎﻧﺴـﻬﺎي‬ ‫‪ ‬اﮔﺮ )‪ u(t‬ﭘﺮﻳﻮدﻳﻚ ﺑﺎﺷﺪ ﻃﺒﻖ ﺗﺌﻮري ‪ ،2.1‬آﻧﻮﻗﺖ‬
‫ﺑﺮاي ‪ N‬ﻣﺤـﺪود‬ ‫اﺳﺖ‪ .‬ﺑﻪ اﻳﻦ ﻣﻌﻨﻲ ﻛﻪ وﻗﺘﻲ ورودي ﭘﺮﻳﻮدﻳﻚ اﺳﺖ ﺑﺎﻳﺎس ﺗﺨﻤﻴﻦ در ﻓﺮﻛﺎﻧﺴﻬﺎي‬
‫ﻧﻴﺰ ﺻﻔﺮ اﺳﺖ‪.‬‬
‫وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ‬
‫ﻧﺸﺎن داده ﻣﻲ ﺷﻮد ﻛﻪ وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫ﺑﺮاي ورودي ﭘﺮﻳﻮدﻳﻚ ‪ C1=0‬در ﻧﻈﺮ ﺑﮕﻴﺮﻳﻴﺪ‪ N .‬ﺗﻌﺪاد ﻧﻤﻮﻧﻪ ﻫﺎ و ‪ 2π K/N‬ﻓﺮﻛﺎﻧﺴﻬﺎي ‪ DFT‬اﺳـﺖ‪ .‬راﺑﻄـﻪ ﻧﺸـﺎن‬
‫ﻣﻲ دﻫﺪ وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ در اﻳﻦ ﻓﺮﻛﺎﻧﺴﻬﺎ و ﺑﻴﻦ ﻓﺮﻛﺎﻧﺴﻲ ﻣﺘﻔﺎوت اﺳﺖ‬

‫ﺑﺎﻳﺎس و وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ‪:Lemma 6.2. :H‬‬


‫در ﺳﻴﺴﺘﻢ زﻳﺮ‬
‫)‪v(t) = H(q)e(t‬‬
‫ﻛﻪ ‪ e‬ﻧﻮﻳﺰ ﺳﻔﻴﺪ )ﻏﻴﺮ ﭘﺮﻳﻮدﻳﻚ( ﺑﺎ وارﻳﺎﻧﺲ ‪ λ‬و ‪ fourth moment µ2‬ﻛﻪ ‪ H‬ﻓﻴﻠﺘﺮ ﭘﺎﻳﺪار ﻣﻄﻠﻖ اﺳﺖ ورودي وﺟﻮد‬
‫ﻧﺪارد ﻛﻪ ﭘﺮﻳﻮدﻳﻚ ﺑﺎﺷﺪ ﻳﺎ ﻧﺒﺎﺷﺪ‪ .‬در اﻳﻦ ﺣﺎل وﻗﺘﻲ ﻃﻴﻒ ﺑﺎ ﻓﻮرﻳﻪ ﺗﺨﻤـﻴﻦ زده ﻣـﻲ ﺷـﻮد‪ ،‬ﺗﺨﻤـﻴﻦ داراي ﺑﺎﻳـﺎس و‬
‫وارﻳﺎﻧﺲ زﻳﺮ اﺳﺖ‪.‬‬
‫ﺑﺎﻳﺎس ﺗﺨﻤﻴﻦ ﻃﻴﻒ‬

‫وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ‬

‫‪10-3‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ‬
‫ﺧﻼﺻﻪ‬
‫روش ‪ :1‬ورودي ﭘﺮﻳﻮدﻳﻚ‬
‫راه ﻣﻨﺎﺳﺐ ﺗﺨﻤﻴﻦ ﻃﻴﻒ اﻋﻤﺎل ﺳﻴﮕﻨﺎل ﺳﻴﻨﻮﺳﻲ ﻓﺮﻛﺎﻧﺲ ﺑﻪ ﻓﺮﻛﺎﻧﺲ اﺳﺖ ﻛﻪ وﻗﺖ ﮔﻴﺮ اﺳﺖ‪ .‬در ﻋﻮض ﻣـﻲ ﺗـﻮان‬
‫ﺳﻴﮕﻨﺎل ﺗﺮﻛﻴﺒﻲ از ﻓﺮﻛﺎﻧﺴﻬﺎي ﻣﻮرد ﻋﻼﻗﻪ را ﻫﻤﺰﻣﺎن ﺑﻪ ﺳﻴﺴﺘﻢ اﻋﻤﺎل و ﻃﻴﻒ را ﺗﺨﻤﻴﻦ زد‪.‬‬

‫ﻓﻘﻂ در ﻓﺮﻛﺎﻧﺴﻬﺎﻳﻲ ﻛﻪ ورودي از اﻧﻬﺎ ﺗﺸﻜﻴﻞ ﻳﺎﻓﺘﻪ اﺳﺖ داده ﻣﻲ ﺷﻮد‬ ‫‪ ‬ﻣﻘﺪار‬
‫‪ ‬ﺑﺎ ورودي ﭘﺮﻳﻮدﻳﻚ ‪ ρ1‬در آن ﻓﺮﻛﺎﻧﺴﻬﺎ ﺻﻔﺮ و ﺑﺎﻳﺎس ﻧﻴﺰ ﺻﻔﺮ اﺳﺖ‬
‫در ﻣﺨﺮج اﺳﺖ ﻛﻪ در ﺣﺎﻟﺖ ورودي ﭘﺮﻳﻮدﻳﻚ ﻣﺘﻨﺎﺳﺐ ﺑﺎ ‪ N‬اﺳﺖ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺎ‬ ‫‪ ‬در راﺑﻄﻪ وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ‪،‬‬
‫اﻓﺰاﻳﺶ ‪ N‬وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﺑﻪ ﺳﻤﺖ ﺻﻔﺮ ﻣﻲ رود‪1/N .‬‬

‫روش ‪ :2‬ورودي ﺗﺼﺎدﻓﻲ‬


‫‪ ETFE ‬ﺑﻄﻮر ﻣﺠﺎﻧﺒﻲ ∞→‪ N‬ﺗﺨﻤﻴﻦ ﺑﺪون ﺑﺎﻳﺎس ﻣﻲ دﻫﺪ‬
‫‪ ‬ﻣﺘﺎﺳﻔﺎﻧﻪ وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﺑﺎ اﻓﺰاﻳﺶ ‪ N‬ﻛﺎﻫﺶ ﻧﻤﻲ ﻳﺎﺑﺪ و ﺑﺮاﺑﺮ ﻧﺴﺒﺖ ﺳﻴﮕﻨﺎل ﺑـﻪ ﻧـﻮﻳﺰ ‪ SNR‬اﺳـﺖ و ‪ ETFE‬در‬
‫اﻛﺜﺮ ﻣﻮارد ﻋﻤﻠﻲ ‪ crude estimate‬را اراﺋﻪ ﻣﻲ ﻛﻨﺪ‪.‬‬

‫‪ ‬دﻟﻴﻞ اﻳﻨﻜﻪ ﺑﺎ ورودي ﺗﺼﺎدﻓﻲ وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﻛﺎﻫﺶ ﻧﻤﻲ ﻳﺎﺑﺪ از اﻳﻨﻘﺮار اﺳﺖ ﻛﻪ ﺗﺨﻤﻴﻦ در ﻓﺮﻛﺎﻧﺴﻬﺎي ﻣﺨﺘﻠﻒ‬
‫از ﻳﻜﺪﻳﮕﺮ ‪ asymptotically uncorrelated‬ﻫﺴﺘﻨﺪ و اﻃﻼﻋﺎت در ﻓﺮﻛﺎﻧﺴﻬﺎي ﻣﺨﺘﻠﻒ ﻛﻤﻜﻲ ﺑﻪ ﺗﺨﻤﻴﻦ در دﻳﮕﺮ‬
‫ﻓﺮﻛﺎﻧﺴﻬﺎ ﻧﻤﻲ ﻛﻨﺪ‪ .‬اﻳﻦ ﻣﺸﻜﻞ ﺑﺎ ﻫﻤﻮار ﺳﺎزي ﻣﺮﺗﻔﻊ ﻣﻲ ﺷﻮد ﻛﻪ در ﺑﺨﺶ ﺑﻌﺪ ﺑﺤﺚ ﻣﻲ ﮔﺮدد‬
‫ﻣﺜﺎل ‪ .4‬ﻣﺜﺎل‬

‫‪ .‬و ‪ N = 10000‬اﺳﺖ‪ .‬ﺳﻴﺴﺘﻢ ﻳﻚ ﺑﺎر ﺑﺎ ﺗﺮﻛﻴﺐ ﺳﻴﻨﻮﺳﻲ ﻫﺎ و ﺗﻮان ‪0.5‬‬ ‫ﻛﻪ وارﻳﺎﻧﺲ ‪e‬‬

‫‪11-3‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ‬
‫و ﻳﻚ ﺑﺎر ﺑﺎ ﻧﻮﻳﺰي ﺑﺎ ﻫﻤﻴﻦ ﺗﻮان ﺗﺤﺮﻳﻚ ﻣﻲ ﺷﻮد‬

‫دﻳﺪه ﻣﻲ ﺷﻮد ﻛﻪ درﺣﺎﻟﺖ ﺑﺎ ورودي ﭼﻨﺪ ﺳﻴﻨﻮﺳﻲ‪ ،‬ﺗﺨﻤﻴﻦ ﻃﻴـﻒ در ‪ 30‬ﻓﺮﻛـﺎﻧﺲ ورودي روي ﻃﻴـﻒ واﻗﻌـﻲ ﻗـﺮار‬
‫ﮔﺮﻓﺘﻪ اﺳﺖ‬

‫وﻟﻲ در ﺣﺎﻟﺖ ورودي ﻧﻮﻳﺰي وارﻳﺎﻧﺲ ﺟﺎﻟﺐ ﻧﻴﺴﺖ ﻛﻪ در ﻧﻤﻮدار زﻳﺮ ﻧﺸﺎن داده ﺷﺪه اﺳﺖ‬

‫ﭘﺎﺳﺦ ﻗﺒﻼ داده ﺷﺪ ﻛﻪ در ﺣﺎﻟﺖ ورودي ﭘﺮﻳﻮدﻳﻚ وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﺑﺎ ‪ 1/N‬اﻓﺖ ﻣﻲ ﻛﻨﺪ‬

‫و در ﻧﺘﻴﺠﻪ‬

‫ﻛﻪ ﺑﺎ ‪ 1/N‬اﻓﺖ ﻣﻲ ﻛﻨﺪ‪ .‬ﺑﺮاي روﺷﻦ ﺷﺪن ﺑﻪ ﻃﻴﻒ ﺳﻴﮕﻨﺎل ورودي دﻗﺖ ﻛﻨﻴﺪ‬

‫ﻛﻪ ﺑﺎ ‪ NAk2‬ﻣﺘﻨﺎﺳﺐ اﺳﺖ‪ .‬وﻟﻲ در ﺣﺎﻟﺖ ورودي ﻧﻮﻳﺰي وارﻳﺎﻧﺲ ﺑﺮاﺑﺮ‬

‫‪12-3‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ‬

‫ﻣﻴﻞ ﻣﻲ ﻛﻨﺪ‪.‬‬ ‫ﻛﻪ ﺑﺎ اﻓﺰاﻳﺶ ‪ N‬ﺑﻪ ﺳﻴﮕﻨﺎل ﺑﻪ ﻧﻮﻳﺰ‬

‫ﻛﻪ اﻓﺖ وارﻳﺎﻧﺲ ﺑﻪ ‪ 1/N‬رﺑﻄﻲ ﻧﺪارد ﺑﻠﻜﻪ ﺗﺎﺑﻊ‬


‫اﺳﺖ ﺑﻪ اﻳﻦ ﻣﻌﻨـﻲ ﻛـﻪ اﻓـﺰاﻳﺶ ﺗـﻮان ﻧـﻮﻳﺰ ورودي وارﻳـﺎﻧﺲ را‬
‫ﻛﺎﻫﺶ ﻣﻲ دﻫﺪ‪.‬‬
‫ﺣﺎل اﮔﺮ اﻣﻜﺎن اﻓﺰاﻳﺶ وارﻳﺎﻧﺲ ورودي وﺟﻮد ﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ ﭼﻪ ﺑﺎﻳﺪ ﻛﺮد؟ ﭘﺎﺳﺦ ﻫﻤﻮارﺳﺎزي ﻃﻴﻒ اﺳﺖ ﻛﻪ در ﺑﺨـﺶ‬
‫ﺑﻌﺪ ﺑﺤﺚ ﻣﻲ ﺷﻮد‪.‬‬

‫)‪impulseest(id‬‬ ‫دﺳﺘﻮر ‪impulseest‬‬


‫اﻳﻦ دﺳﺘﻮر ﭘﺎﺳﺦ ﺿﺮﺑﻪ را از ﺗﺨﻤﻴﻦ ﻃﻴﻒ ﺗﺨﻤﻴﻦ ﻣﻲ زﻧﺪ‪.‬‬

‫ورودي و ﺧﺮوﺟﻲ ﺑﺮاي ﺷﻨﺎﺳﺎﻳﻲ‬

‫‪13-3‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ‬

‫ورودي و ﺧﺮوﺟﻲ ﺑﺮاي اﻋﺘﺒﺎر ﺳﻨﺠﻲ‬

‫‪ :SPECTRAL ANALYSIS 3-3‬ﻫﻤﻮارﺳﺎزي ﻃﻴﻒ‬


‫ﻛﺎﻫﺶ وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﻃﻴﻒ ﺑﺎ ورودي ﻧﻮﻳﺰي ﺑﺎ اﻋﻤﺎل ﻓﻴﻠﺘﺮ ﻫﻤﻮار ﻛﻨﻨﺪه اﻧﺠﺎم ﻣﻲ ﺷﻮد‬

‫‪ 1-3-3‬ﻣﻴﺎﻧﮕﻴﻦ ﮔﻴﺮي ﻧﻘﺎط ﻫﻤﺴﺎﻳﻪ )‪ ϕv‬ﻣﻌﻠﻮم(‬


‫ﻣﻴﺎﻧﮕﻴﻦ ﮔﻴﺮي ﻣﺤﻠﻲ ﻳﻜﺮوش ﻫﻤﻮار ﺳﺎزي اﺳﺖ ﻛﻪ ﻣﻲ ﺗﻮان ﺑﺮاي ﻛـﺎﻫﺶ وارﻳـﺎﻧﺲ ﺗﺨﻤـﻴﻦ ﻃﻴـﻒ اﺳـﺘﻔﺎده ﻛـﺮد‪.‬‬
‫وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ داراي دو ﺟﻤﻠﻪ اﺳﺖ ﻳﻜﻲ ﻛﻪ ﺑﺎ اﻓﺰاﻳﺶ ‪ N‬ﺻﻔﺮ ﻣﻲ ﺷﻮد و دﻳﮕﺮي ﻛﻪ ﻧﺴﺒﺖ ﻧﻮﻳﺰ ﺑﻪ ﺳﻴﮕﻨﺎل اﺳﺖ‪.‬‬

‫در ﻣﻴﺎﻧﮕﻴﻦ ﮔﻴﺮي ﻣﺤﻠﻲ زﻳﺮ‪ ،‬ﻃﻴﻒ در ﻧﺴﺒﺖ ﺳﻴﮕﻨﺎل ﺑﻪ ﻧﻮﻳﺰ ﻧﻴﺰ ﺿﺮب ﮔﺮدﻳﺪه ﺗﺎ ﻋـﺪم ﻳﻜﻨـﻮاﺧﺘﻲ اﺣﺘﻤـﺎﻟﻲ ﻃﻴـﻒ‬
‫اﺧﺘﻼل ورودي ﻧﻴﺰ ﻟﺤﺎظ ﮔﺮدد‬

‫‪14-3‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ‬

‫‪ ‬اﮔﺮ ‪ G0‬ﺣﻮل ‪ ω0‬ﺧﻮد ﻫﻤﻮار ﻧﺒﺎﺷﺪ ﻣﻨﺎﺳﺐ اﺳﺖ ﺗﺎﺑﻊ وزن دﻫﻨﺪه )‪ Wγ(ω0‬اﺳﺘﻔﺎده ﺷﻮد‬

‫‪ γ‬ﭘﺎراﻣﺘﺮ ﻣﺸﺨﺼﻪ ﺗﺎﺑﻊ '‪ "shape parameter:‬اﺳﺖ‪ .‬ﺷﻜﻞ ﻧﻤﻮﻧﻪ اي از اﻳﻦ ﺗﺎﺑﻊ را ﻧﺸﺎن ﻣﻲ دﻫﺪ‪.‬‬

‫ﻛﻪ ﻓﺮﻛﺎﻧﺴﻬﺎي ﺣﻮل ‪ ω0‬ﺑﻄﻮر ﻣﺴﺎوي اﻟﻮزن ﻣﺸﺎرﻛﺖ داده ﻣﻲ ﺷﻮﻧﺪ وﻟﻲ ﻣﻌﻤﻮﻻ از ﭘﻨﺠﺮه ‪ Hamming‬اﺳﺘﻔﺎده ﻣـﻲ‬
‫ﺷﻮد ﻛﻪ ﺷﻜﻞ آن ﺑﺮاي ﺗﻌﺪادي ‪ γ‬ﻧﺸﺎن داده ﺷﺪه اﺳﺖ‪.‬‬

‫‪ ‬ﻋﺮض ﭘﻨﺠﺮه ﻛﻪ ﺑﺎ ‪ γ‬ﺗﻌﻴﻴﻦ ﻣﻲ ﺷﻮد ﺑﺎﻳﺪ ﺑﻪ ﮔﻮﻧﻪ اي ﺑﺎﺷﺪ ﻛﻪ ﺑﻬﻴﻨﻪ ﺑﺎﻳﺎس و وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﺑﺪﺳﺖ آﻳﺪ‪.‬‬
‫‪ ‬اﮔﺮ ﭘﻨﺠﺮه ﺧﻴﻠﻲ ﺑﺎرﻳﻚ ﺑﺎﺷﺪ وارﻳﺎﻧﺲ ﻛﺎﻫﺶ ﻧﻤﻲ ﻳﺎﺑﺪ‬
‫‪ ‬اﮔﺮ ﭘﻨﺠﺮه ﺧﻴﻠﻲ ﭘﻬﻦ ﺑﺎﺷﺪ ﻣﻨﺠﺮ ﺑﻪ ﺑﺎﻳﺎس و ﺣﺬف دﻳﻨﺎﻣﻴﻚ ﺳﻴﺴﺘﻢ ﻣﻲ ﮔﺮدد‬
‫‪ ‬ﺑﻨﺎﺑﺮاﻳﻦ اﻧﺘﺨﺎب ‪ γ‬ﺑﻪ )‪ G0( ω‬وابسته است‬
‫اﺳﺘﻔﺎده از ﭘﻨﺠﺮه ‪ γ=10‬و ﻧﺘﻴﺠﻪ ﻧﺎ ﻣﻄﻠﻮب آن‬

‫‪15-3‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ‬
‫‪ ‬ﻋﻼوه ﺑﺮ ﺳﻌﻲ و ﺧﻄﺎ روش دﻳﮕﺮي ﻧﻴﺰ ﺑﺮاي ﺗﻌﻴﻴﻦ ‪ γ‬وﺟﻮد دارد‬

‫‪ 2-3-3‬ﻧﺎﻣﻌﻠﻮم ﺑﻮدن )‪ϕv(ω‬‬


‫‪ ‬اﮔﺮ ﻃﻴﻒ ﻧﻮﻳﺰ )‪ ϕv(ω‬ﻣﻌﻠﻮم ﻧﺒﺎﺷﺪ وﺑﺘﻮان ﻓﺮض ﻛﺮد ﻛﻪ در ﺑﺎزه ﻣﻮرد ﻧﻈﺮ ﺑﺮاﺑﺮ ﻋﺮض ﭘﻨﺠﺮه ﺗﻐﻴﻴﺮات آن ﻛﻢ اﺳﺖ‬

‫ﻣﻲ ﺷﻮد راﺑﻄﻪ ﺗﺨﻤﻴﻦ زﻳﺮ ﺑﺪﺳـﺖ ﻣـﻲ‬ ‫ﻛﻪ ﻣﻨﺠﺮ ﺑﻪ ﺧﻨﺜﻲ ﻛﺮدن‬ ‫ﺑﺎ ﻗﺮاردادن‬
‫آﻳﺪ‪.‬‬

‫‪ ‬اﮔﺮ ﻓﺮض ﺗﻐﻴﻴﺮات ﻛﻢ ﻃﻴﻒ ﻧﻮﻳﺰ ﻗﺎﺑﻞ اﻋﻤﺎل ﻧﺒﺎﺷﺪ ﺧﻴﻠﻲ ﺑﻬﺘﺮ اﺳﺖ ﻛﻪ اﺑﺘﺪا ﻃﻴﻒ ﻧـﻮﻳﺰ ﺗﺨﻤـﻴﻦ و ﺳـﭙﺲ ﻃﻴـﻒ‬
‫ﺳﻴﺴﺘﻢ ﺗﺨﻤﻴﻦ زده ﺷﻮد‪.‬‬

‫‪frequency window‬‬ ‫‪:‬‬ ‫‪ γ 3-3-3‬و ﻣﺸﺨﺼﺎت ﭘﻨﺠﺮه ﻫﺎ ي ﻣﻴﺪان ﻓﺮﻛﺎﻧﺲ )‪wγ(ξ‬‬


‫ﻣﺸﺨﺼﺎت ﭘﻨﺠﺮه از اﻳﻦ ﻗﺮار اﺳﺖ‬

‫ﻣﻴﺎﻧﮕﻴﻦ ﺻﻔﺮ‬ ‫ﺳﻄﺢ زﻳﺮ ﭘﻨﺠﺮه ‪1‬‬

‫و دﻳﮕﺮ ﻣﺸﺨﺼﺎت ﭘﻨﺠﺮه‬ ‫وارﻳﺎﻧﺲ آن )‪M(γ‬‬

‫ﺑﺎ اﻓﺰاﻳﺶ ‪ γ‬ﭘﻨﺠﺮه ﺑﺎرﻳﻚ؛ )‪ M(γ‬ﻛﺎﻫﺶ و )‪ W̅ (γ‬اﻓﺰاﻳﺶ ﻣﻲ ﻳﺎﺑﺪ‬

‫‪16-3‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ‬

‫راﺑﻄﻪ ﺗﻘﺮﻳﺒﻲ ﺑﻴﻦ ‪ γ‬و وارﻳﺎﻧﺲ ﺑﺮاي ‪ γ≥5‬از اﻳﻨﻘﺮار اﺳﺖ‬

‫ﻣﺜﺎل ‪Example 6.1 A Simulated System .5‬‬


‫ﺳﻴﺴﺘﻢ‬
‫)‪y(t)-1.5y(t - 1)+0.7y(t-2)=u(t-1)+0.5u(t - 2)+e(t) (6.67‬‬
‫در ﻣﻌﺮض )‪ e(t‬ﺳﻔﻴﺪ ﺑﺎ وارﻳﺎﻧﺲ ‪ 1‬اﺳﺖ‪ .‬وردي ‪ u‬ﺑﺎ ﺳﻴﮕﻨﺎل ‪ PRBS‬ﺗﺤﺮﻳﻚ ﺷﺪه اﺳـﺖ‪ 1000 .‬ﻧﻤﻮﻧـﻪ از ﺳـﻴﮕﻨﺎل‬
‫ﺑﺮاي ﺗﺨﻤﻴﻦ ﻃﻴﻒ اﺳﺘﻔﺎده ﮔﺮدﻳﺪه اﺳﺖ‪ .‬ﭘﻨﺠﺮه ‪ Parzen‬ﺑﺎ ‪ γ=10, 50 &200‬اﺳﺘﻔﺎده ﮔﺮدﻳﺪه اﺳﺖ ﺷـﻜﻠﻬﺎ ﻧﺸـﺎن‬
‫ﻣﻲ دﻫﻨﺪ ﻛﻪ ﻣﻘﺪار ﻣﻨﺎﺳﺐ ﺑﻪ ﻧﻈﺮ ﻣﻲ رﺳﺪ ‪ γ=50‬ﺑﺎﺷﺪ‬

‫‪17-3‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ‬

‫‪ 4-3-3‬ﺑﺎﻳﺎس و وارﻳﺎﻧﺲ ﻣﺠﺎﻧﺒﻲ ﺗﺨﻤﻴﻦ ﻧﺎﺷﻲ از ﻫﻤﻮارﺳﺎزي‬


‫ﻣﺸﺨﺼﺎت ﭘﻨﺠﺮه روي ﺑﺎﻳﺎس و وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﺑﻪ ﺷﺮح زﻳﺮ ﻣﻮﺛﺮ اﺳﺖ‬
‫‪Bias:‬‬

‫در اﻳﻦ راﺑﻄﻪ ﭘﺮﻳﻢ و زﮔﻮﻧﺪ ﻣﺸﺘﻖ اول و دوم ﻧﺴﺒﺖ ﺑﻪ ‪ ω‬ﻫﺴﺘﻨﺪ و دو ﺟﻤﻠﻪ آﺧﺮ ﺑﻄﻮر ﻣﺠـﺎﻧﺒﻲ ﺑـﺮاي ﭘﻨﺠـﺮه ﻫـﺎي‬
‫داده ﺷﺪه ﺻﻔﺮ ﻫﺴﺘﻨﺪ‪ M(γ) .‬وارﻳﺎﻧﺲ ﭘﻨﺠﺮه اﺳﺖ‬
‫ﻧﻴﺰ ﻃﺒﻖ ﺗﻌﺮﻳﻒ ﺑﻪ ﻗﺮار زﻳﺮ اﺳﺖ‬
‫‪‬‬
‫‪Variance:‬‬

‫اﻳﻦ رواﺑﻂ ﺑﺮاي ورودي ‪ u‬ﺷﺒﻪ اﻳﺴﺘﺎ و دﻧﺒﺎﻟﻪ ﻧﻮﻳﺰي ‪ v‬اﺳﺖ‪ W̅ .‬ﻣﺸﺨﺼﻪ ﭘﻨﺠﺮه ﻫﺴﺘﻨﺪ ﻛﻪ ﻗﺒﻼ ﺗﻌﺮﻳﻒ ﺷﺪه اﻧﺪ‪.‬‬
‫راﺑﻄﻪ ﺗﻘﺮﻳﺒﻲ وارﻳﺎﻧﺲ‬
‫ﺑﺮاي وارﻳﺎﻧﺲ راﺑﻄﻪ ﺗﻘﺮﻳﺒﻲ زﻳﺮ ﺑﺎ اﺳﺘﻔﺎده از راﺑﻄﻪ ﺑﺎﻳﺎس از اﻳﻦ ﻗﺮار اﺳﺖ ‪MSE‬‬

‫‪ 5-3-3‬ﻣﻘﺪار ﻣﻨﺎﺳﺐ ‪γ‬‬


‫رﺳﻢ ﻣﻲ ﮔﺮدد‪ .‬ﺳﭙﺲ ﺑﺎ اﻓﺰاﻳﺶ ‪ γ‬ﺑﺎﻳﺎس ﻛﺎﻫﺶ و اﻟﺒﺘـﻪ ﺗﺨﻤـﻴﻦ‬ ‫‪ ‬در ﻋﻤﻞ ‪ γ=N/20‬اﻧﺘﺨﺎب و ﻧﺘﻴﺠﻪ‬
‫ﻧﻮﻳﺰي ﻣﻲ ﺷﻮد‪ .‬اﻳﻦ ﻛﺎر وﻗﺘﻲ ﺟﻮاب ﻣﻨﺎﺳﺐ ﺑﺪﺳﺖ آﻣﺪ ﻣﺘﻮﻗﻒ ﻣﻲ ﺷﻮد‪.‬‬
‫‪18-3‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ‬
‫‪ ‬ﻓﺮاﻣﻮش ﻧﺸﻮد ﻛﻪ ﭘﻨﺠﺮه واﺑﺴﺘﻪ ﺑﻪ ﻓﺮﻛﺎﻧﺲ ﻧﺘﺎﻳﺞ ﺑﻬﺘﺮي ﺑﻪ دﻧﺒﺎل دارد‬
‫‪ ‬ﺑﺎ اﻓﺰاﻳﺶ ‪ N‬ﻣﻲ ﺗﻮان ﭘﻨﺠﺮه ﺑﺎرﻳﻚ )‪ γ‬ﺑﺰرگ( را اﻧﺘﺨﺎب ﻛﺮد اﻳﻦ را آﻧﺎﻟﻴﺰ ﻣﻘﺪار ‪ γ‬در ﺣﺎﻟﺖ ﻣﺠﺎﻧﺒﻲ ﻣـﻲ دﻫـﺪ‪ .‬از‬
‫راﺑﻄﻪ ‪ 6.60‬ﻧﺘﻴﺠﻪ ﻣﻲ ﺷﻮد ﻛﻪ ﺑﺮاي ﻛﺎﻫﺶ وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﻫﻢ ‪ M‬و ̅‪ W‬ﭘﻨﺠﺮه ﺑﺎﻳﺪ ﻛﻮﭼﻚ ﺑﺎﺷﻨﺪ ﺿـﻤﻦ اﻳﻨﻜـﻪ‬
‫ﻫﺮ دو ﺗﺎﺑﻊ ‪ γ‬ﻫﺴﺘﻨﺪ‪.‬‬
‫و‬ ‫‪ ‬اﮔﺮ ‪ γ‬ﺑﺰرگ و ∞→‪ N‬در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷـﻮد ﺗـﺎ رواﺑـﻂ ﻣﺠـﺎﻧﺒﻲ وارﻳـﺎﻧﺲ ﻣﻌﺘﺒـﺮ ﺑﺎﺷـﺪ‪ ,‬ﺑـﺎ ﻓـﺮض‬
‫از راﺑﻄﻪ ‪ 6.60‬ﻣﻘﺪار ﺑﻬﻴﻨﻪ ‪ γ‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬

‫اﮔﺮ ﭼﻪ ﺑﻪ دﻟﻴﻠﻲ وﺟﻮد ﭘﺎراﻣﺘﺮﻫﺎي ﻣﺠﻬﻮل در ان ﻗﺎﺑﻞ اﺳﺘﻔﺎده ﻧﻴﺴﺖ وﻟﻲ ﻣﻲ ﺗﻮان ﻧﺘﻴﺠﻪ ﮔﺮﻓﺖ ﻛﻪ ﺑـﺎ اﻓـﺰاﻳﺶ ‪N‬‬
‫ﻣﻲ ﺗﻮان ﭘﻨﺠﺮه ﺑﺎرﻳﻚ اﻧﺘﺨﺎب ﻛﺮد‪.‬‬

‫‪ 6-3-3‬روش ﻣﺤﺎﺳﺒﺎﺗﻲ ﻫﻤﻮار ﺳﺎزي ﻃﻴﻒ‪ :‬اﻋﻤﺎل ﭘﻨﺠﺮه در ﻣﻴﺪان زﻣﺎن‬


‫در ﻣﻴﺪان ﻓﺮﻛﺎﻧﺲ‪:‬‬
‫روش اﻋﻤﺎل ﭘﻨﺠﺮه ﻓﺮﻛﺎﻧﺴﻲ ﻃﺒﻖ رواﺑﻂ داده ﺷﺪه ﺑﻪ ﺳﻬﻮﻟﺖ ﻗﺎﺑﻞ اﻧﺠﺎم اﺳﺖ‬
‫در ﻣﻴﺪان زﻣﺎن‪:‬‬
‫ﺑﺎ ﺑﺮرﺳﻲ اﻋﻤﺎل ﭘﻨﺠﺮه در ﻣﻴﺪان ﻓﺮﻛﺎﻧﺲ‪ ,‬در روش ‪ Blackman-Tukey‬ﭘﻨﭽﺮه ﻣﻌﺎدل در ﻣﻴﺪان زﻣﺎن ﺑﺪﺳـﺖ ﻣـﻲ‬
‫آﻳﺪ‪ .‬ﻳﺮاي اﻳﻦ ﻣﻨﻈﻮر اﮔﺮ ﺑﺘﻮان ﻓﺮض ﻛﺮد ﻛﻪ در ﺑﺎزه ﻋﺮض ﭘﻨﺠﺮه ﻫﻢ ﻃﻴﻒ ‪ G‬و ﻫﻢ ﻃﻴﻒ )‪ ϕu(ω‬ﺛﺎﺑﺖ ﻫﺴﺘﻨﺪ ﺑﺮاي‬
‫ﻃﻴﻒ ‪ u‬ﺧﻮاﻫﻴﻢ داﺷﺖ‬
‫‪‬‬
‫= ) ‪ϕuN (ω0‬‬

‫و ﺑﻪ ﻫﻤﻴﻦ ﺗﺮﺗﻴﺐ ﺑﺮاي ﻃﻴﻒ ﻫﻤﺒﺴﺘﮕﻲ ﻣﺘﻘﺎﺑﻞ ﺧﺮوﺟﻲ ‪ y‬و ‪ u‬اﺳﺖ‬

‫در ﻧﺘﻴﺠﻪ ﻓﺮﻣﻮل ﺟﺎﻳﮕﺰﻳﻨﻲ ﺑﺮاي ‪ ETFE‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬

‫ﻧﻮع دﻳﮕﺮ ﺑﻴﺎن اﻳﻦ ارﺗﺒﺎط از اﻳﻨﻘﺮا راﺳﺖ‬

‫‪19-3‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ‬
‫ﺣﺎل ﻣﻲ ﺗﻮان ﻫﻤﻮار ﺳﺎزي را ﺑﺎ ﺿﺮب ﭘﻨﺠﺮه در ﺗﺎﺑﻊ ﻫﻤﺒﺴﺘﮕﻲ ﺳﻴﮕﻨﺎﻟﻬﺎ در ﻣﻴﺪان زﻣﺎن اﻧﺠﺎم داد اﻳﻨﮕﻮﻧﻪ‬

‫در ﺷﻜﻞ زﻳﺮ ﺗﺎﺑﻊ ﻫﻤﺒﺴﺘﮕﻲ ﻣﺘﻘﺎﺑﻞ ﻧﻮﻳﺰي و ﺗﻌﺪادي ﭘﻨﺠﺮه زﻣﺎﻧﻲ ﻧﺸﺎن داده ﺷﺪه اﻧﺪ‬

‫وﻗﺘﻲ ورودي ﻧﻮﻳﺰي اﺳﺖ ﺗﺎﺑﻊ ﻫﻤﺒﺴﺘﮕﻲ ﻣﺘﻘﺎﺑﻞ ﺑﻪ ﺻﻔﺮ ﻣﻴﻞ ﻧﻤﻲ ﻛﻨﺪ و ﻃﻴﻒ ﻧﻴﺰ ﻧﻮﻳﺰي ﺧﻮاﻫﺪ ﺑﻮد‬

‫ﺣﺎل اﮔﺮ ﺗﺎ زﻣﺎن ‪ 100‬را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﻢ و ﺑﻘﻴﻪ را ﺑﺎ اﻋﻤﺎل ﭘﻨﺠﺮه ﺣﺬف ﻛﻨﻴﻢ ‪ γ=100‬ﻃﻴﻒ زﻳـﺮ ﺗﺨﻤـﻴﻦ زده ﻣـﻲ‬
‫ﺷﻮد ﻛﻪ روي ﻃﻴﻒ اﺻﻠﻲ ﻗﺮار ﮔﺮﻓﺘﻪ اﺳﺖ‬

‫دﺳﺘﻮرات ‪MATLAB‬‬
‫دﺳﺘﻮر ‪ ETFE‬ﻃﻴﻒ را ﺑﺮ اﺳﺎس راﺑﻄﻪ‬

‫‪20-3‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ‬

‫در ﺗﻌﺪاد ﻧﻘﺎط ﻣﻮرد ﻧﻈﺮ ﺗﺨﻤﻴﻦ ﻣﻴﺰﻧﺪ ‪ .‬اﻣﻜﺎن اﻧﺘﺨﺎب ﻧﻮع ﭘﻨﺠﺮه و ﻋﺮض آن ‪ M‬وﺟﻮد دارد‬
‫دﺳﺘﻮر ‪ SPA‬ﻃﻴﻒ را ﺑﺮ اﺳﺎس راﺑﻄﻪ زﻳﺮ ﺗﺨﻤﻴﻦ ﻣﻲ زﻧﺪ‬

‫در اﻳﻨﺠﺎ ﻧﻴﺰ اﻣﻜﺎن اﻧﺘﺨﺎب ﺗﻌﺪاد ﻧﻘﺎط‪ ,‬ﻋﺮض و ﻧﻮع ﭘﻨﺠﺮه وﺟﻮد دارد‬
‫‪ ‬اﻳﻨﻜﻪ روش ﻣﻨﺎﺳﺐ ﭼﻴﺴﺖ ﺑﻪ ﻧﻮع ﻃﻴﻒ ﺑﺴﺘﮕﻲ داردﻣﺜﻼ وﻗﺘﻲ ﻃﻴﻒ ﻗﻠﻪ ‪ peak‬واﺿﺢ دارد‪ ETFE‬ﺑﻬﺘﺮ ﻋﻤﻞ ﻣـﻲ‬
‫ﻛﻨﺪ‬
‫دﺳﺘﻮر ‪ spafdr‬زﻳﺮﺗﺨﻤﻴﻦ ﻃﻴﻒ ﺑﺎ اﻋﻤﺎل ﭘﻨﺠﺮه واﺑﺴﺘﻪ ﺑﻪ ﻓﺮﻛﺎﻧﺲ را ﻣﻲ ﺗﻮاﻧﺪ اﻧﺠﺎم دﻫﺪ‪.‬‬
‫)‪g = spafdr(data‬‬
‫‪‬‬
‫‪3-3-7 Welch method: Another Way or Smoothing the ETFE‬‬
‫در اﻳﻦ روش دﻳﺘﺎ ﺑﻪ ‪ L‬ﻗﻄﻌﻪ ﻫﻤﭙﻮﺷﺎن ﺑﻪ ﻃﻮل ‪ N‬ﻣﻄﺎﺑﻖ ﺷﻜﻞ ﺗﻘﺴﻴﻢ ﻣﻲ ﮔﺮدد‬

‫ﺣﺎل ﻣﻴﺎﻧﮕﻴﻦ ﮔﻴﺮي روي ‪ L‬ﻣﺤﺎﺳﺒﻪ ﻣﻮﻟﻔﻪ ‪ k=1,2,..,M‬اﻧﺠﺎم ﻣﻲ ﺷﻮد‬

‫ﻳﺎ ﻣﺤﺎﺳﺒﻪ اي ﻛﻪ در آن ﻣﻌﻜﻮس وارﻳﺎﻧﺲ ﻧﻴﺰ ﻟﺤﺎظ ﻣﻲ ﺷﻮد‬

‫دﺳﺘﻮر ‪MATLAb‬‬
‫)‪[Pxx,w] = pwelch (x,window‬‬

‫‪ 4-3‬ﺗﺨﻤﻴﻦ ﻃﻴﻒ اﺧﺘﻼل ‪v‬‬

‫‪ 1-4-3‬اﺧﺘﻼل ﻗﺎﺑﻞ اﻧﺪازه ﮔﻴﺮي‬


‫اﮔﺮ اﺧﺘﻼل ‪ v‬ﻗﺎﺑﻞ اﻧﺪازه ﮔﻴﺮي ﻣﺴﺘﻘﻴﻢ ﺑﺎﺷﺪ ﻣﻲ ﺗﻮان ﻧﻮﺷﺖ‬

‫‪21-3‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ‬

‫ﻛﻪ ﻧﺘﺎﻳﺞ ﻣﺸﺎﺑﻪ ﺗﺤﻠﻴﻞ ﺑﺨﺶ ﻗﺒﻞ اﺳﺖ‪.‬‬

‫‪ 2-4-3‬اﺧﺘﻼل ﻏﻴﺮ ﻗﺎﺑﻞ اﻧﺪازه ﮔﻴﺮي ‪The Residual Spect1rum‬‬


‫اﮔﺮ اﺧﺘﻼل ﻣﺴﺘﻘﻴﻤﺎ ﻗﺎﺑﻞ اﻧﺪازه ﮔﻴﺮي ﻧﺒﺎﺷﺪ ﻣﻲ ﺗﻮان ﺑﺮ ﺣﺴﺐ ورودي و ﺧﺮوﺟﻲ ﻧﻮﺷﺖ‬

‫و در ﻧﺘﻴﺠﻪ ﻃﻴﻒ ﻫﻤﻮار ﺷﺪه آن‬

‫ﺑﺎ ﻣﻘﺪار آن در ‪ ω‬ﺗﻘﺮﻳﺐ زﻳﺮ را ﻣﻲ ﺗﻮان ﻧﻮﺷﺖ‬ ‫در‬ ‫ﺑﺎ ﻟﺤﺎظ ﻛﺮدن ﺗﻘﺮﻳﺐ‬

‫و در ﻧﺘﻴﺠﻪ‬

‫اﺗﻔﺎق ﻣﻲ اﻓﺘـﺪ ﺑـﻪ ﻫﻤـﻴﻦ ﺗﺮﺗﻴـﺐ‬ ‫ﻫﻤﺎﻧﻄﻮر ﻛﻪ ﺑﺎ ∞→‪ N‬و∞→ ‪ γ‬ﻃﺒﻖ راﺑﻄﻪ ‪ 6.60‬ﺗﺨﻤﻴﻦ‬
‫ﻧﻴﺰ اﺗﻔﺎق ﻣﻲ اﻓﺘﺪ‪.‬‬ ‫ﺑﺮاي ﺗﺨﻤﻴﻦ‬
‫ﻏﻴﺮ ﻫﻤﺒﺴﺘﻪ اﺳﺖ‬ ‫ﻧﺴﺒﺖ ﺑﻪ‬ ‫ﺿﻤﻨﺎ ﺗﺨﻤﻴﻦ‬

‫ﻣﻌﻴﺎر ‪Coherency Spectrum‬‬


‫اﻳﻦ ﻣﻌﻴﺎر واﺑﺴﺘﻪ ﺑﻪ ﻓﺮﻛﺎﻧﺲ‪ ،‬ﻛﻪ ﻧﺴﺒﺖ ﺳﻴﮕﻨﺎل ﺑﻪ ﻧﻮﻳﺰ را ﻧﺸﺎن ﻣﻲ دﻫﺪ اﻳﻨﮕﻮﻧﻪ ﺗﻌﺮﻳﻒ ﻣﻲ ﮔﺮدد‬

‫در ﻓﺮﻛﺎﻧﺴﻲ ﻛﻪ ‪ k(ω)=1‬اﺳﺖ ﺑﻪ اﻳﻦ ﻣﻌﻨﻲ اﺳﺖ ﻛﻪ ارﺗﺒﺎط ﻓﻘﻂ ﺑـﻴﻦ ‪ y‬و ‪ u‬وﺟـﻮد دارد و ﻧـﻮﻳﺰ در آن ﻓﺮﻛـﺎﻧﺲ‬
‫ﺗﺪاﺧﻠﻲ ﻧﺪارد‪.‬‬
‫ﺗﺨﻤﻴﻦ ﻃﻴﻒ ﻧﻮﻳﺰ ﺑﺎ ‪MATLAB‬‬
‫دﺳﺘﻮر ‪ spa‬ﻃﻴﻒ ﻧﻮﻳﺰ ‪ v‬را ﻋﻼوه ﺑﺮ ‪ G‬ﻧﻴﺰ ﺗﺨﻤﻴﻦ ﻣﻴﺰﻧﺪ‬

‫‪22-3‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ‬
‫‪3-5‬‬ ‫‪SUMMARY‬‬
‫‪ ETFE‬ﺑﻄﻮر ﻣﺠﺎﻧﺒﻲ ﺑﺪون ﺑﺎﻳﺎس و ﺑﺎ وارﻳﺎﻧﺲ ﻣﺠﺎﻧﺒﻲ زﻳﺮ اﺳﺖ‬

‫وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﺑﺎ ﻫﻤﻮار ﺳﺎزي ﻛﺎﻫﺶ داده ﻣﻲ ﺷﻮد‬

‫‪23-3‬‬
‫‪4 PREDICTION‬‬

‫‪Ljung chapter 3‬‬

‫‪1-step ahead prediction‬‬ ‫‪1-4‬‬


‫ﺑﺮاي ﺳﻴﺴﺘﻢ‬

‫ﭘﻴﺶ ﺑﻴﻦ ﺧﺮوﺟﻲ )ﻓﻘﻂ ﺑﺮ اﺳﺎس ‪ u‬و‪ (y‬اﻳﻨﮕﻮﻧﻪ اﺳﺖ‬

‫ﻛﻪ ‪ L‬ﻫﺎ ﺑﺎﻳﺪ ﺑﻪ ﻧﺤﻮ ﻣﻨﺎﺳﺒﻲ اﻧﺘﺨﺎب ﮔﺮدﻧﺪ‪ .‬از ﺟﻤﻠﻪ ﻣﻤﻜﻦ اﺳﺖ از ﺣﺪاﻗﻞ ﻛﺮدن ﻣﻌﻴﺎر زﻳﺮ ﺑﺪﺳﺖ آﻳﺪ‬

‫ﻛﻪ ﻣﻲ ﻧﻮﻳﺴﻴﻢ‬

‫ﺑﺮ اﺳﺎس راﺑﻄﻪ و ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ‬

‫ﺧﻮاﻫﻴﻢ داﺷﺖ‬

‫در ﻧﺘﻴﺠﻪ ﻣﻌﻴﺎر ﺑﺮاﺑﺮ ﻣﻲ ﮔﺮدد ﺑﺎ‪:‬‬

‫ﻣﻌﻴﺎر ﻣﺤﻘﻖ ﻣﻲ ﺷﻮد ﻛﻪ ﺑﻪ‬ ‫و‬ ‫ﻛﻪ ﻛﻤﺘﺮﻳﻦ ﻣﻘﺪار ﺑﺎ ‪ z=0‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ ﻟﺬا ﺑﺎ‬
‫ﺗﺨﻤﻴﻨﮕﺮ زﻳﺮ ﻣﻲ اﻧﺠﺎﻣﺪ‬

‫ﺗﺨﻤﻴﻨﮕﺮ ‪ ، ŷ=H-1Gu+(1-H-1)y‬ﻣﺪﻟﻲ ﻛﻪ ﺧﺮوﺟﻲ ﺳﻴﺴﺘﻢ را ﺑﺮ اﺳﺎس ورودي و ﺧﺮوﺟﻲ ﺗﺒﻴﻴﻦ ﻣﻲ ﻛﻨﺪ ﻣﻬﻤﺘﺮ از‬
‫اﻃﻼع از ﻣﺪل ﺳﻴﺴﺘﻢ ‪ y=Gu+He‬در ﺷﻨﺎﺳﺎﻳﻲ اﺳﺖ‬
‫ﻧﻘﺶ ﻣﺪل ﭘﻴﺶ ﺑﻴﻨﻲ ﻣﻬﻤﺘﺮ از ﻣﺪل ﺳﻴﺴﺘﻢ اﺳﺖ‬
‫‪1-4‬‬
‫ﻓﺼﻞ ‪ :2‬ﻣﺮور ﺳﻴﺴﺘﻢ ﺧﻄﻲ‪-‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎي‬
‫روش دوم‬
‫در اﻳﻦ روش اﺑﺘﺪا ‪ v‬ﭘﻴﺶ ﺑﻴﻨﻲ و ﺳﭙﺲ ‪ ŷ‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬
‫ﭘﻴﺶ ﺑﻴﻨﻲ ̂‪ :v‬ﺑﺮاي اﻳﻦ ﭘﻴﺶ ﺑﻴﻨﻲ راﺑﻄﻪ ‪ v=He‬ﻛﻪ ‪ e‬ﻧﻮﻳﺰ ﺳﻔﻴﺪ و‪ h(0)=1‬اﺳﺖ ﺑﺼﻮرت زﻳﺮ ﻧﻮﺷﺘﻪ ﺷﺪه‬

‫ﻛﻪ ﻣﻨﺠﺮ ﺑﻪ‬

‫ﻣﻲ ﺷﻮد ﺑﺎ ﺟﺎﮔﺬاري ‪ e=H-1v‬در راﺑﻄﻪ ﻓﻮق ﻓﺮﻣﻮل ﭘﻴﺶ ﺑﻴﻨﻲ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬

‫‪3.15‬‬
‫‪3.16‬‬

‫‪One‐step‐ahead Prediction of y‬‬


‫ﺣﺎل ﺑﺮاي ﺗﺨﻤﻴﻦ ‪ y‬ﻣﻲ ﻧﻮﻳﺴﻴﻢ‬

‫‪using (3.15) and (3.19), respectively. Collecting the terms gives‬‬

‫‪or‬‬

‫ﻣﺜﺎل ‪ :1‬ﺳﻴﺴﺘﻢ ‪Example 3.2 MA‬‬

‫ﺑﺮاي اﺳﺎس ‪ 3,16‬دارﻳﻢ‬

‫ﻛﻪ ﻧﺘﻴﺠﻪ ﻣﻲ دﻫﺪ‬

‫و ﺑﺮ اﺳﺎس ‪3.15‬‬

‫‪2-4‬‬
‫ﻓﺼﻞ ‪ :2‬ﻣﺮور ﺳﻴﺴﺘﻢ ﺧﻄﻲ‪-‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎي‬

‫ﺗﻔﺎوت دو ﻓﺮﻣﻮل در آن اﺳﺖ ﻛﻪ دوﻣﻲ از ﺗﺨﻤﻴﻦ ‪ v‬ﻧﻴﺰ اﺳﺘﻔﺎده ﻣﻲ ﻛﻨﺪ‪.‬‬


‫ﻣﺜﺎل ‪ :2‬ﻣﺜﺎل ﺳﻴﺴﺘﻢ ‪Example 3. AR‬‬
‫‪Consider a process‬‬

‫‪Then‬‬

‫‪‬‬
‫‪and the predictor, according to (3.15),‬‬

‫‪ Unknown Initial Conditions‬در ﻓﺮﻣﻮل ﺗﺨﻤﻴﻦ‬


‫در ﻋﻤﻞ دﻳﺘﺎ ﻣﺮﺑﻮط ﺑﻪ ]‪ (-∞,1‬ﻣﻮﺟﻮد ﻧﻴﺴﺖ‪ .‬ﺳﺎده ﺗﺮﻳﻦ راه اﻳﻦ اﺳﺖ ﻛﻪ ﺑﺠﺎي آﻧﻬﺎ ﺻﻔﺮ ﮔﺬاﺷﺘﻪ ﺷﻮد‪.‬‬

‫دﻗﺖ ﺷﻮد ﻛﻪ اﻳﻦ ﻳﻚ ﻓﺮﻣﻮل ﺗﻘﺮﻳﺒﻲ اﺳﺖ ﻛﻪ اﻟﺒﺘﻪ در اﻛﺜﺮ ﻣﻮارد ﺟﻮاب ﻗﺎﺑﻞ ﻗﺒﻮل ﻣﻲ دﻫﺪ‪.‬‬
‫اﻛﺴﭙﻮﻧﺎﻧﺴﻴﻠﻲ ﺑﻪ ﺳﻤﺖ ﺻﻔﺮ ﻣﻲ روﻧﺪ‬ ‫اﻳﻦ از آﻧﺮوﺳﺖ ﻛﻪ دﻧﺒﺎﻟﻪ ﻫﺎي ﻓﻴﻠﺘﺮﻫﺎي ﭘﺎﻳﺪار‬

‫‪ The Prediction Error‬‬ ‫ﺧﻄﺎي ﺗﺨﻤﻴﻦ ‪‬‬


‫ﺧﻄﺎي ﺗﺨﻤﻴﻦ‬

‫در ﺣﺎﻟﺘﻲ ﻛﻪ ‪ G‬و ‪ H‬دﻗﻴﻖ ﻫﺴﺘﻨﺪ ﺑﺮاب ‪ e‬ﻧﻮﻳﺰ ﺳﻔﻴﺪ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ ﻛﻪ ﻧﺸﺎن ﻣﻲ دﻫﺪ راﺑﻄﻪ اي ﺑﺎ دﻳﺘﺎ ﻫﺎي ﻗﺪﻳﻤﻲ‬
‫ﻧﺪارد‪ .‬ﺑﻪ اﻳﻦ ﺧﻄﺎ ‪ innovation‬در زﻣﺎن ‪ t‬ﻣﻲ ﮔﻮﻳﻨﺪ‪.‬‬

‫‪k -step-ahead Prediction of y‬‬ ‫‪2-4‬‬


‫وﻗﺘﻲ دﻳﺘﺎ را ﺳﻴﺴﺘﻢ‬

‫ﺗﻮﻟﻴﺪ ﻛﻨﺪ ﭘﻴﺶ ﺑﻴﻨﻲ ‪) k step ahead‬ﺑﺮ اﺳﺎس ‪ u‬ﺗﺎ ‪ t+k‬و ‪ y‬ﺗﺎ ‪ (t‬را اﻳﻨﮕﻮﻧﻪ ﻣﻲ ﺗﻮان ﻧﻮﺷﺖ‬

‫از ﻃﺮﻓﻲ دارﻳﻢ‬

‫‪3-4‬‬
‫ﻓﺼﻞ ‪ :2‬ﻣﺮور ﺳﻴﺴﺘﻢ ﺧﻄﻲ‪-‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎي‬

‫ﻛﻪ ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ در دﺳﺘﺮس ﻧﺒﻮدن ﺟﻤﻠﻪ اول ﺳﻤﺖ راﺳﺖ ﺗﺨﻤﻴﻦ ‪ v‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬

‫ﺑﺎ ﻗﺮار دادن اﻳﻦ راﺑﻄﻪ در راﺑﻄﻪ ﺗﺨﻤﻴﻦ ‪ y‬دارﻳﻢ‬

‫ﺑﺎ ﻟﺤﺎظ ﻛﺮدن‬

‫ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬

‫ﻣﺜﺎل ‪ :3‬ﻣﺜﺎل‪ :‬ﺑﺮاي ﺳﻴﺴﺘﻢ زﻳﺮ ﭘﻴﺶ ﺑﻴﻨﻲ ‪ 2‬ﮔﺎم ﺑﻪ ﺟﻠﻮ ﻣﺤﺎﺳﺒﻪ ﻛﻨﻴﺪ‬

‫‪ 3-4‬ﭘﻴﺶ ﺑﻴﻨﻲ ﺧﺮوﺟﻲ ﺑﺎ روﻳﺘﮕﺮ ‪OBSERVERS‬‬


‫در ﻣﻮارد زﻳﺎدي در ﺗﺌﻮري ﻛﻨﺘﺮل‪ ،‬ﭘﻴﺶ ﺑﻴﻨﻲ ﺳﻴﮕﻨﺎل ﺑﺪون ﻟﺤﺎظ ﻛﺮدن ﻣﺪل زﻳﺎدي از ﻧﻮﻳﺰ اﻧﺠﺎم ﻣﻲ ﺷﻮد و از ﻣﺪل‬
‫ﻣﻌﻴﻦ ﺑﻬﺮه ﮔﺮﻓﺘﻪ ﻣﻲ ﺷﻮد ﻣﺜﻞ ﻣﺪل زﻳﺮ در ﺣﺎﻟﻴﻜﻪ ﺧﺮوﺟﻲ ﻧﻮﻳﺰي اﺳﺖ‬
‫)‪y(t)=G(q)u(t‬‬
‫ﻓﺮض ﻛﻨﻴﺪ ﻣﺪل ﺳﻴﺴﺘﻢ ﺑﺼﻮرت‬

‫روش ‪ :1‬در اﻳﻨﺼﻮرت ﻣﺪل ﭘﻴﺶ ﺑﻴﻦ ‪ :‬ﺑﺼﻮرت ﺑﺎزﮔﺸﺘﻲ ﺑﺎ ﭘﺎراﻣﺘﺮﻫﺎي ﻣﺤﺪود ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‪:‬‬

‫‪4-4‬‬
‫ﻓﺼﻞ ‪ :2‬ﻣﺮور ﺳﻴﺴﺘﻢ ﺧﻄﻲ‪-‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎي‬

‫‪‬‬
‫روش ‪ :2‬از ﻃﺮﻓﻲ ﻣﻲ ﺗﻮان از ﻣﺪل زﻳﺮﺑﺎ ﭘﺎراﻣﺘﺮﻫﺎي ﻧﺎ ﻣﺤﺪود ﻧﻴﺰ اﺳﺘﻔﺎده ﻛﺮد‬

‫اﮔﺮ دﻳﺘﺎ ﺻﺤﻴﺢ ﺑﺎﺷﺪ ﻧﺘﺎﻳﺞ ﻫﺮ دو ﻣﺪل ﻣﺸﺎﺑﻪ ﻫﺴﺘﻨﺪ‪ .‬ﻣﻌﺬﻟﻚ اﮔﺮ دﻳﺘﺎ ﺑﺮاي زﻣﺎﻧﻬﺎي ‪ s<0‬ﻣﻮﺟـﻮد ﻧﺒﺎﺷـﺪ روش دو و‬
‫اﮔﺮ ﺧﺮوﺟﻲ ﻧﻮﻳﺰي ﺑﺎﺷﺪ روش ‪ 1‬ﻣﻨﺎﺳﺒﺘﺮ اﺳﺖ‬
‫ﺑﻨﺎﺑﺮاﻳﻦ اﻧﺘﺨﺎب ﻣﺪل روﻳﺘﮕﺮ ﺑﺮ ﻣﻲ ﮔﺮدد ﺑﻪ اﻧﺘﺨﺎب ﺑﻴﻦ ﺣﺴﺎﺳﻴﺖ ﺑﻪ ﻧﻮﻳﺰ و ﻣﻴﺮا ﺷﺪن ﺧﻄﺎي ﻧﺎﺷﻲ از ﺧﻄﺎ در‬
‫ﺷﺮاﻳﻂ اوﻟﻴﻪ‬
‫روش ﭘﻴﺶ ﺑﻴﻨﻲ را ﺑﺎ ﺗﻌﺮﻳﻒ ﻓﻴﻠﺘﺮ ‪ w‬ﻣﻲ ﺗﻮان ﻓﺮﻣﻮﻟﻪ ﻛﺮد ﺗﺎ ﻫﻤﻪ روﺷﻬﺎ را در ﺑﺮ ﮔﻴﺮد‪.‬‬

‫در دو ﻃﺮف ﻣﻌﺎدﻟﻪ ﺳﻴﺴﺘﻢ در ‪ w‬ﺿﺮب ﺷﺪه ﺗﺎ ﻓﺮﻣﻮل ﭘﻴﺶ ﺑﻴﻨﻲ‬

‫ﺑﺪﺳﺖ آﻳﺪ‪ .‬ﺣﺎل اﮔﺮ‬


‫‪ w=1 ‬در ﭘﻴﺶ ﺑﻴﻦ ﺑﺮ اﺳﺎس روﺳﺘﮕﺮ اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد ﻛﻪ ﻣﺪﻟﻬﺎي ‪ 2‬و ‪ 1‬را ﻣﻲ ﺗﻮاﻧﺪ ﺑﺪﻫﺪ‪.‬‬
‫‪ ‬در ﺗﺨﻤﻴﻨﮕﺮ ﺑﻬﻴﻨﻪ ‪ w=H-1‬اﺳﺖ‪.‬‬
‫‪ W ‬را ﺑﻪ ﻧﺤﻮي اﻧﺘﺨﺎب ﻛﻨﻴﺪ ﺗﺎ ‪ WG‬ﺳﺮﻳﻌﺎ ﻣﻴﺮا ﺷﻮﻧﺪه ﺑﺎﺷﺪ ﺗﺎ اﺛﺮ ﺷﺮاﻳﻂ اوﻟﻴﻪ ﻏﻠﻂ ﺳﺮﻳﻌﺎ از ﺑﻴﻦ رود‬
‫‪ W‬را ﺑﻪ ﻧﺤﻮي اﻧﺘﺨﺎب ﻛﻨﻴﺪ ﻛﻪ ﻧﻮﻳﺰ ﺧﺮوﺟﻲ ﻋﻠﻴﺮﻏﻢ ﻣﺪل واﻗﻌﻲ آن ﺗﻀﻌﻴﻒ ﺷﻮد‪.‬‬

‫‪ 4-4‬ﻓﻴﻠﺘﺮ ﻛﺎﻟﻤﻦ‬
‫در ﺷﺮاﻳﻂ ﻣﻔﺮوض ﻓﻴﻠﺘﺮ ﻛﺎﻟﻤﻦ ﺗﺨﻤﻴﻦ ﺑﻬﻴﻨﻪ ﺧﺮوﺟﻲ را ﺑﺮاي ﻣﺪل ﻓﻀﺎي ﺣﺎﻟﺖ را اراﺋﻪ ﻣﻲ دﻫﺪ‬

‫ﻛﻪ در ان ‪v‬و ‪ w‬ﻧﻮﻳﺰﻫﺎي ﻣﺴﺘﻘﻞ ﮔﻮﺳﻲ ﺑﺎ ﻣﻴﺎﻧﮕﻴﻦ ﺻﻔﺮ و ﻛﻮارﻳﺎﻧﺴـﻬﺎي ‪ R2 ،R1‬و ﻣﺘﻘﺎﺑـﻞ ‪ R12‬ﻫﺴـﺘﻨﺪ ﺗﺨﻤـﻴﻦ ‪y‬‬
‫اﻳﻨﮕﻮﻧﻪ ﻧﻮﺷﺘﻪ ﻣﻲ ﺷﻮد‬

‫ﻛﻪ ‪ K‬ﺑﻬﺮه ﻛﺎﻟﻤﻦ‬

‫‪5-4‬‬
‫ﻓﺼﻞ ‪ :2‬ﻣﺮور ﺳﻴﺴﺘﻢ ﺧﻄﻲ‪-‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎي‬
‫و )‪ P̅ (‬ﻣﺎﺗﺮﻳﺲ ﻛﻮارﻳﺎﻧﺲ ﺧﻄﺎي ﺗﺨﻤﻴﻦ‬

‫از ﺣﻞ ﻓﺮﻣﻮل رﻳﻜﺎﺗﻲ ‪ Riccati‬زﻳﺮ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬

‫‪ 5-4‬ﺧﻼﺻﻪ‬
‫ﻓﺮﻣﻮل ﭘﻴﺶ ﺑﻴﻨﻲ‬

‫ﻛﻪ در ﺣﺎﻟﺖ ﺑﻬﻴﻨﻪ ‪ W=H-1‬اﺳﺖ‪ .‬در ﺻﻮرت ﻋﺪم اﻃﻼع از ‪ H‬ﺑﺎﻳﺪ ﺑﻪ ﻧﺤﻮي ﺑﺎﺷﺪ ﻛﻪ ‪ WG‬ﺳﺮﻳﻌﺎ ﻣﻴﺮا ﺷﻮﻧﺪه و ‪W‬‬
‫ﻧﻮﻳﺰ ﺧﺮوﺟﻲ را ﻓﻴﻠﺘﺮ ﻛﻨﺪ‬
‫ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬ ‫در ﺣﺎﻟﺖ ‪ k-step‬ﻣﻘﺪار آن از‬

‫‪6-4‬‬
‫‪ 5‬ﻣﺪل ﻫﺎي ﭘﻴﺶ ﺑﻴﻨﻲ‬

‫‪Ljung Chapter 4‬‬

‫ﻣﺠﻤﻮﻋﻪ ﻣﺪل ﻫﺎي ﭘﻴﺶ ﺑﻴﻨﻲ ﭘﺎراﻣﺘﺮ ﻣﺤﺪود ﺑﺮاي ﺳﻴﺴﺘﻢ ﺧﻄﻲ‬ ‫‪1-5‬‬
‫ﻣﺪل ﺳﻴﺴﺘﻢ ﺧﻄﻲ ﻛﻠﻲ‬

‫اﺳﺖ ﻛﻪ در آن ‪ g‬ﭘﺎﺳﺦ ﺿﺮﺑﻪ ﺳﻴﺴﺘﻢ واﻗﻌﻲ و ‪ h‬ﭘﺎﺳﺦ ﺿﺮﺑﻪ ﻣﺪل ﻣﻮﻟﺪ اﺧﺘﻼل اﺳـﺖ ﻛـﻪ ﺑـﺎ ‪ e‬ﺗﺤﺮﻳـﻚ ﻣـﻲ ﺷـﻮد‪.‬‬
‫ﺳﻴﮕﻨﺎﻟﻬﺎي ‪ g‬و ‪ h‬ﻣﻌﻤﻮﻻ ﻃﻮل ﺑﻠﻨﺪ و ﺑﻴﻨﻬﺎﻳﺖ ﭘﺎراﻣﺘﺮ دارﻧﺪ‪ .‬ﺑﺮاي ﺷﺒﻴﻪ ﺳﺎزي ‪ g, h‬و ‪ PDF‬ﺳﻴﮕﻨﺎل ‪ (fe) e‬ﺑﺎﻳﺪ‬
‫ﻣﺸﺨﺺ ﺑﺎﺷﺪ‪ fe .‬ﻣﻌﻤﻮﻻ ﺗﺼﺎدﻓﻲ اﺳﺖ ﻛﻪ ﺑﺎ ﻣﻴﺎﻧﮕﻴﻦ و وارﻳﺎﻧﺲ آن ﻣﺸﺨﺺ ﻣﻲ ﮔﺮدد‪N(0, λ) .‬‬

‫‪M : model structure‬‬ ‫ﻣﺪل ﭘﻴﺸﺒﻴﻦ‬


‫ﻣﺪل ﭘﻴﺸﺒﻴﻦ ﭘﺎراﻣﺘﺮﻳﻚ ﺳﻴﺴﺘﻢ ﺧﻄﻲ ﻛﻠﻲ‪ M(θ) ,‬ﻋﺒﺎرت اﺳﺖ از‪:‬‬

‫‪.‬‬ ‫اﻳﻦ ﺻﺮﻓﺎ ﻳﻚ ﻣﺪل ﻧﻴﺴﺖ ﺑﻠﻜﻪ ﻣﺠﻤﻮﻋﻪ ﻣﺪﻟﻬﺎ ﺑﺎ ﺳﺎﺧﺘﺎر ﺛﺎﺑﺖ و ‪ θ‬ﻣﺘﻔﺎوت اﺳﺖ‬
‫در ﺣﺎﻟﻴﻜﻪ در ﺷﺒﻴﻪ ﺳﺎزي ﻣﺪل ﺳﻴﺴﺘﻢ ‪ e‬ﺑﺮ اﺳﺎس ‪ PDF‬آن ﺗﻮﻟﻴﺪ ﻣﻲ ﮔﺮدد‪ ،‬در ﻣـﺪل ﻳﺸـﺒﻴﻦ ﺳـﻴﮕﻨﺎل ﺧﺮوﺟـﻲ‬
‫)اﺻﻠﻲ ‪+‬ﻧﻮﻳﺰ‪+‬اﺧﺘﻼل( و ورودي )اﺻﻠﻲ ‪+‬ﻧﻮﻳﺰ( ﻇﺎﻫﺮ ﻣﻲ ﺷﻮد‪ .‬ﺑﻨﺎ ﺑﺮاﻳﻦ ﻓﺮﻣﻮل ﺻﺮﻓﺎ ﺑﺮ اﺳﺎس ﻣﺸﺎﻫﺪات ﻧﻮﺷـﺘﻪ ﺷـﻮد‬
‫ﻛﻪ ﺑﻪ )‪ fe(x,θ‬واﺑﺴﺘﻪ ﻧﻴﺴﺖ‬
‫در اﻏﻠﺐ ﻣﻮارد دﻧﺒﺎﻟﻪ ﻫﺎي )‪ g(k), (h(k‬ﻃﻮل ﺑﻠﻨﺪ ﻫﺴﺘﻨﺪ ﻛﻪ ﻋﻤﻼ ﻗﺎﺑﻞ اﺳﺘﻔﺎده ﻧﻴﺴﺘﻨﺪ‪ .‬اﻳﻦ دو ﺑـﻪ ﻧﺎﭼـﺎر ﺑﺎﻳـﺪ ﺑـﺮ‬
‫اﺳﺎس دﻧﺒﺎﻟﻪ ﻣﺤﺪود ﻳﺎ ﻛﺴﺮي ﻳﺎ ﻓﻀﺎي ﺣﺎﻟﺖ ﺑﺎ اﺑﻌﺎد ﻣﺤﺪود ﻧﻮﺷﺘﻪ ﺷﻮﻧﺪ‪.‬‬
‫در ﺣﺎﻟﺖ ﻛﻠﻲ ﻣﺪل ﺟﻌﺒﻪ ﺳﻴﺎه ﺳﻴﺴﺘﻢ ﺧﻄﻲ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬
‫)‪B (q‬‬ ‫)‪C (q‬‬
‫‪A( q ) y (t ) ‬‬ ‫‪u (t ) ‬‬ ‫) ‪e (t‬‬
‫)‪F (q‬‬ ‫)‪D (q‬‬
‫رﮔﺮﺳﻴﻮن ﺧﻄﻲ و ﻏﻴﺮ ﺧﻄﻲ‪ -‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎﻳﻲ‬

‫اﺳﺖ ﻛﻪ ﻣﻲ ﺗﻮاﻧﺪ ‪ 32‬ﺳﺎﺧﺘﺎر ﻣﺘﻔﺎوت از آن اﺳﺘﺨﺮاج ﻛﺮد ﻛﻪ ‪ 6‬ﻓﺮﻣﺖ آن ﺑﻴﺸﺘﺮ ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار ﻣﻲ ﮔﻴﺮﻧﺪ‪.‬‬
‫‪FIR‬‬ ‫‪A=F=D=1, C=0‬‬
‫‪ARX‬‬ ‫‪F=C=D=1‬‬
‫‪OE‬‬ ‫‪A=C=D=1‬‬
‫‪ARMAX‬‬ ‫‪F=D=1‬‬
‫‪Box Jenkins‬‬ ‫‪A=1‬‬
‫‪Statespace‬‬ ‫)‪x(k)=Ax(k-1)+Bu(k-1‬‬
‫ﺗﺨﻤﻴﻨﮕﺮ اﻳﻦ ﻣﺪل از اﻳﻦ ﻗﺮار اﺳﺖ‬

‫)‪ŷ(t)=θ’ψ(k,θ‬‬

‫‪ 2-5‬ﻣﺪل ﭘﻴﺶ ﺑﻴﻨﻲ رﮔﺮﺳﻴﻮن ﺧﻄﻲ‬


‫ﻣﺪل ﭘﻴﺸﺒﻴﻦ ﺑﻌﻀﻲ از ﻣﺪﻟﻬﺎي ﺳﻴﺴﺘﻢ ﺑﺼﻮرت رﮔﺮﺳﻴﻮن ﺧﻄﻲ در ﻣﻲ آﻳﺪ‪ .‬ﺑﻬﻴﻨﻪ در ﻣﺪل ﺧﻄﻲ ÷ﻳﭽﻴﺪﮔﻴﻬﺎي ﻣﺪل‬
‫ﻏﻴﺮ ﺧﻄﻲ را ﻧﺪارد از اﻳﻦ ﻧﻈﺮ اﻳﻦ ﻣﺪل ﺑﺴﻴﺎر ﻣﻄﻠﻮب اﺳﺖ‪ .‬اﻳﻦ ﻣﺪﻟﻬﺎ ﻋﺒﺎرﺗﻨﺪ از‪:‬‬

‫‪ARX: Equation Error Model 1-2-5‬‬


‫ﻣﺪل ‪ ARX‬اﻳﻨﮕﻮﻧﻪ اﺳﺖ‬
‫) ‪A(q ) y (t )  B ( q )u (t )  e(t‬‬

‫‪AR part: autoregressive part A(q)y(t),‬‬


‫)‪x part: extra input B(q)u(t) (called the exogeneous variable‬‬
‫ﭼﻮن )‪ e(t‬ﻣﺴﺘﻘﻴﻤﺎ در راﺑﻄﻪ ﻣﻌﺎدﻟﻪ دﻳﻔﺮﻧﺲ ﻇﺎﻫﺮ ﻣﻲ ﺷﻮد ﺑﻪ آن ‪ equation error model‬ﻣﻲ ﮔﻮﻳﻨﺪ‬
‫‪ ‬ﻣﺪل ﻧﻮﻳﺰ اﻳﻦ ﺳﺎﺧﺘﺎر ﺑﺎ واﻗﻌﻴﺖ ﻓﻴﺰﻳﻜﻲ ﺗﻄﺎﺑﻖ ﻧﺪارد زﻳﺮا در ﻣﺪل ﻓﺮض ﻣـﻲ ﺷـﻮد ﻧـﻮﻳﺰ ﺗﻮﺳـﻂ ‪ 1/A‬ﻓﻴﻠﺘـﺮ و ﺑـﻪ‬
‫ﺳﻴﺴﺘﻢ اﻋﻤﺎل ﻣﻲ ﺷﻮد‪.‬‬
‫‪ ‬ﻣﻌﺬﻟﻚ ﺑﻪ دﻟﻴﻞ ﻓﺮم رﮔﺮﺳﻴﻮن ﺧﻄﻲ ﻣﺪﻟﺶ ;ﻛﻪ ذﻳﻼ ﻧﺸﺎن داده ﻣﻲ ﺷﻮدﻳﻚ از ﻣﻬﻤﺘﺮﻳﻦ ﻣﺪﻟﻬﺎﺳﺖ‪ .‬ﺗﺨﻤﻴﻨﮕﺮ اﻳﻦ‬
‫ﻣﺪل‬

‫‪2-5‬‬
‫رﮔﺮﺳﻴﻮن ﺧﻄﻲ و ﻏﻴﺮ ﺧﻄﻲ‪ -‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎﻳﻲ‬

‫ﻛﻪ ﺑﺼﻮرت رﮔﺮﺳﻴﻮن ﺧﻄﻲ ‪ Linear regression‬اﻳﻨﮕﻮﻧﻪ ﻧﻮﺷﺘﻪ ﻣﻲ ﺷﻮد‬

‫ﻛﻪ در آن‬

‫ﺑﺮدار رﮔﺮﺳﻴﻮن ﺣﺎوي دﻳﺘﺎي ﻣﺸﺎﻫﺪه ﺷﺪه و ‪ ‬ﺑﺮدار ﭘﺎراﻣﺘﺮﻫﺎي ﻣﺪل اﺳﺖ‪ .‬ﺧﻄﺎي ﺗﺨﻤﻴﻦ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫اﮔﺮ ﺑﺨﺸﻲ از ﭘﺎراﻣﺘﺮﻫﺎ ‪ µ‬ﻣﻌﻠﻮم ﺑﺎﺷﻨﺪ راﺑﻄﻪ را اﻳﻨﮕﻮﻧﻪ ﻣﻲ ﺗﻮان ﻧﻮﺷﺖ‬

‫‪FIR 2-2-5‬‬
‫ﻣﺪل ‪ FIR‬اﻳﻨﮕﻮﻧﻪ اﺳﺖ‬
‫) ‪y (t )  B ( q )u (t )  e (t‬‬

‫ﻛﻪ ﻣﺪل ﺑﺎ ﭘﺎﺳﺦ ﺿﺮﺑﻪ آن ﻧﻮﺷﺘﻪ ﺷﻮد‪ .‬اﻳﻦ ﻣﺪل ﻫﻢ رﮔﺮﺳﻴﻮن ﺧﻄﻲ اﺳﺖ )ﺣﺎﻟﺖ ﺧﺎص ‪ (ARX‬و ﺣﺎﻟﺖ ﺧـﺎص ‪OE‬‬
‫اﺳﺖ‪ ،‬ﺿﻤﻦ اﻳﻨﻜﻪ ﺑﻌﺪا ﻧﺸﺎن داده ﻣﻲ ﺷﻮد ﻛﻪ ﭘﺎراﻣﺘﺮ ‪ efficiently estimated‬و ‪ robust against noise‬اﺳﺖ‪.‬‬
‫ﻣﺘﺎﺳﻔﺎﻧﻪ اﮔﺮ ﺳﻴﺴﺘﻢ واﻗﻌﻲ داراي ﻗﻄﺐ ﻧﺰدﻳﻚ داﻳﺮه واﺣﺪ ﺑﺎﺷﺪ ﻃﻮل ﭘﺎﺳﺦ ﺿﺮﺑﻪ آن ﺑﺰرگ اﺳﺖ و ﺑﻪ ﻫﻤﻴﻦ ﺗﺮﺗﻴﺐ‬
‫ﺗﻌﺪاد ﭘﺎراﻣﺘﺮﻫﺎ ﺑﺴﻴﺎر زﻳﺎد و روش ﻏﻴﺮ ﻣﻔﻴﺪ ﻣﻲ ﮔﺮدد‬
‫‪ ‬ﺑﻪ دﻟﻴﻞ ﻣﺰﻳﺖ رﮔﺮﺳﻴﻮن ﺧﻄﻲ ﺑﺮاي ﺣﻞ ﻣﺸﻜﻞ ﺗﻌﺪاد ﭘﺎراﻣﺘﺮﻫﺎ ﺗﻜﻨﻴﻚ زﻳﺮ اراﺋﻪ ﻣﻲ ﺷﻮد‪.‬‬

‫ﻛﻪ در آن‬

‫اﺳﺖ‪ α .‬ﻣﻘﺪار از ﻗﺒﻞ ﻣﻌﻴﻨﻲ دارد ﻛﻪ ﺗﺨﻤﻴﻨﻲ از ﻗﻄﺐ ﻧﺰدﻳﻚ داﻳﺮه واﺣﺪ اﺳﺖ‪ .‬در ﺣﺎﻟـﺖ ﻛﻠـﻲ از ﭼﻨـﺪ ﺟﻤﻠـﻪ اي‬
‫‪ Laguerre‬ﻣﻤﻜﻦ اﺳﺖ اﺳﺘﻔﺎده ﺷﻮد‬

‫‪ 3-5‬ﻣﺪل ﭘﻴﺸﺒﻴﻦ ‪Pseudolinear regression‬‬


‫ﻣﺪل ﭘﻴﺸﺒﻴﻦ دﻳﮕﺮ ﻣﺪﻟﻬﺎي ﺳﻴﺴﺘﻢ ﺑﺼﻮرت رﮔﺮﺳﻴﻮن ﺷﺒﻪ ﺧﻄﻲ اﺳﺖ‪.‬‬

‫‪3-5‬‬
‫رﮔﺮﺳﻴﻮن ﺧﻄﻲ و ﻏﻴﺮ ﺧﻄﻲ‪ -‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎﻳﻲ‬

‫‪Output Error Model Structure 1-3-5‬‬

‫در اﻳﻦ ﻣﺪل ﺿﺮﻳﺐ ‪ y‬و ‪ e‬ﺑﺮاﺑﺮ اﺳﺖ ﻟﺬا ‪ output error (OE) model‬ﺧﻮاﻧﺪه ﻣﻲ ﺷﻮد و )‪ w(t‬اﻳﻨﮕﻮﻧﻪ اﺳﺖ‪.‬‬

‫ﺗﺨﻤﻴﻨﮕﺮ اﻳﻦ ﺳﻴﺴﺘﻢ ﻣﺪل‬

‫‪‬‬

‫)‪ w(t‬ﻫﺮﮔﺰ اﻧﺪازه ﮔﻴﺮي ﻧﻤﻴﺸﻮد ﺑﻠﻜﻪ ﺑﺮ اﺳﺎس ﭘﺎراﻣﺘﺮﻫﺎي ﺗﺨﻤﻴﻨﻲ ﺷﺒﻴﻪ ﺳﺎزي ﻣﻲ ﺷﻮد‬

‫در اﻳﻦ ﻣﺪل ‪ w‬اﻳﻨﮕﻮﻧﻪ ﻣﺤﺎﺳﺒﻪ ﻣﻲ ﺷﻮد‬

‫‪ARMAX Model Structure 2-3-5‬‬


‫ﺑﺮاي ﺣﻞ ﻣﺸﻜﻞ ﻣﺤﺪودﻳﺖ ﻃﻴﻒ ﻧﻮﻳﺰ‪ ،‬ﻣﺪﻟﻲ ﺑﺎ ﻓﻴﻠﺘﺮ ﺧﺎص ﺑﺮاي ﻧﻮﻳﺰ ﺗﻌﺮﻳﻒ ﻣﻲ ﺷﻮد‪F=D=1 .‬‬
‫) ‪A(q ) y (t )  B(q )u (t )  C (q )e(t‬‬

‫‪ MA psrt: Moving average (MA) part C(q)e(t),‬‬

‫‪ ARMAX ‬ﻣﺪل اﺳﺘﺎﻧﺪارد در ﻛﻨﺘﺮل و اﻗﺘﺼﺎد اﺳﺖ‬

‫‪4-5‬‬
‫رﮔﺮﺳﻴﻮن ﺧﻄﻲ و ﻏﻴﺮ ﺧﻄﻲ‪ -‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎﻳﻲ‬

‫ﺗﺨﻤﻴﻨﮕﺮ اﻳﻦ ﻣﺪل‬

‫اﺳﺖ ﻛﻪ ‪.‬‬

‫در ﻧﺘﻴﺠﻪ‬

‫ﺑﺪﺳﺖ ﻣﻲ آﻳـﺪ‪ .‬ﻫﻤﭽﻨﺎﻧﻜـﻪ دﻳـﺪه ﻣـﻲ ﺷـﻮد ﺑـﺮدار رﮔﺮﺳـﻮر ﺑـﻪ‪ θ‬واﺑﺴـﺘﻪ اﺳـﺖ از اﻳﻨـﺮو ﺑـﻪ آن ‪Pseudolinear‬‬
‫‪ Regressions‬ﻣﻲ ﮔﻮﻳﻨﺪ‪.‬‬
‫در ﺷﺮوع ‪ t=0‬ﺗﺨﻤﻴﻦ ﻧﻴﺎزﻣﻨﺪ ﺗﺨﻤﻴﻨﻬﺎي ‪ t<0‬اﺳﺖ ﻛﻪ در ﺻﻮرت ﻣﻮﺟﻮد ﻧﺒﻮدن ﺑﻪ آﻧﻬﺎ ﻣﻘﺎدﻳﺮ ﺻﻔﺮ داده ﻣﻲ ﺷﻮد‪.‬‬
‫اﻟﺒﺘﻪ اﻳﻦ ﻋﻤﻞ ﺑﺎﻋﺚ ﻣﻲ ﺷﻮد ﺗﺨﻤﻴﻦ واﻗﻌﻲ ﺑﺪﺳﺖ ﻧﻴﺎﻳﺪ ﺗﺎ اﺛﺮ ﺧﻄﺎي آن ﻣﻴﺮا ﺷﻮد‪.‬‬

‫‪ ‬اﻳﻦ اﻟﮕﻮرﻳﺘﻢ ﺑﻪ ﻣﻘﺎدﻳﺮ ﺷﺮاﻳﻂ اوﻟﻴﻪ ﻧﻴﺎ ز دارد ﻛﻪ ﻣﻲ ﺗﻮان آﻧﻬﺎ را ﺻﻔﺮ در ﻧﻈﺮ ﮔﺮﻓﺖ‪ .‬اﺛﺮ ﺧﻄـﺎ در ﻣﻘـﺪار اوﻟﻴـﻪ ﺑـﺎ‬
‫ﻧﺴﺒﺖ ‪ cµ‬ﻣﻴﺮا ﻣﻲ ﺷﻮد ﻛﻪ ‪ µ‬ﻣﻘﺪار ﺑﺰرﮔﺘﺮﻳﻦ ﺻﻔﺮ )‪ C(z‬اﺳﺖ‬
‫‪ ‬راه دﻳﮕﺮ اﻳﻦ اﺳﺖ ﻛﻪ ﺷﻨﺎﺳﺎﻳﻲ از )‪ max(n*,nb‬ﺷﺮوع ﺷﻮد ﺗﺎ ﺑﻪ ﺷﺮاﻳﻂ اوﻟﻴﻪ ﻣﺠﻬﻮل ﻧﻴﺎز ﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ‬

‫‪ 3-3-5‬ﻣﺪل )‪ARIMA(X‬‬
‫اﮔﺮ ﺑﺠﺎي )‪ y(t‬و )‪ u(t‬در ﻣﺪل ‪ ARMAX‬از دﻳﻔﺮﻧﺲ آﻧﻬﺎ اﺳﺘﻔﺎده ﺷﻮد )‪ δy=y(t)-y(t-1‬ﻣﺪل ‪ ARIMAX‬و اﮔـﺮ‬
‫‪ u=0‬ﺑﺎﺷﺪ ‪ ARIMA‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪ .‬در اﻳﻦ ﻣﺪل اﻧﺘﮕﺮال ﻧﻮﻳﺰ در ﻣﺪل وﺟﻮد دارد ﻛﻪ ﺑﺮاي ﻣﺪل ﻛـﺮدن اﺧـﺘﻼﻻت‬
‫ﻛﻨﺪ ﻣﻨﺎﺳﺐ اﺳﺖ‬

‫‪ARARX 4-3-5‬‬

‫‪5-5‬‬
‫رﮔﺮﺳﻴﻮن ﺧﻄﻲ و ﻏﻴﺮ ﺧﻄﻲ‪ -‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎﻳﻲ‬

‫‪ARARMAX 5-3-5‬‬

‫ﻣﺪل ﺗﺨﻤﻴﻨﮕﺮ ﻛﻠﻲ ﺑﺮاي ﺳﻴﺴﺘﻢ ‪ BJ‬ﺑﺮاﺑﺮاﺳﺖ ﺑﺎ‬

‫ﻛﻪ ﺑﺼﻮرت ‪ PLR‬اﻳﻨﮕﻮﻧﻪ ﻧﻮﺷﺘﻪ ﻣﻲ ﺷﻮد‬

‫اﻟﻤﺎﻧﻬﺎي ‪ PLR‬ﻋﺒﺎرﺗﻨﺪ از‪:‬‬

‫‪‬‬

‫‪‬‬
‫ﻧﻜﺎت‬
‫ﻧﺎﭘﺎﻳﺪار اﺳﺖ )رﻳﺸـﻪ ‪ A‬ﺧـﺎرج داﻳـﺮه واﺣـﺪ( ﺗﺨﻤﻴﻨﮕـﺮ آن ﭘﺎﻳـﺪار اﺳـﺖ‬ ‫‪ :1‬ﺣﺘﻲ وﻗﺘﻲ ﺳﻴﺴﺘﻢ‬

‫‪ y :2‬ﺑﺎﻳﺪ ﻧﺴﺒﺖ ﺑﻪ ‪ ‬ﺗﺎﺑﻌﻲ ‪ smooth‬ﺑﺎﺷﺪ ﺑﻪ اﻳﻦ ﻣﻌﻨﻲ ﻛﻪ ﺑﺎﻳﺪ داراي ﻣﺸﺘﻖ ﺑﺎﺷﺪ‪ .‬ﺗﺒﻌﺎت اﻳﻦ اﻣﺮ از اﻳﻦ ﻗﺮار اﺳﺖ‪.‬‬

‫ﭘﺎراﻣﺘﺮﻫﺎي ﺗﺨﻤﻴﻨﮕﺮ‬

‫در ﻧﺘﻴﺠﻪ ‪G‬و ‪ H‬ﺑﺎﻳﺪ ﻧﺴﺒﺖ ﺑﻪ ‪ θ‬ﻣﺸﺘﻖ ﭘﺬﻳﺮ و ‪ H-1‬ﭘﺎﻳﺪار ﺑﺎﺷﺪ‪ .‬اﻟﺒﺘﻪ اﻳﻦ ﺗﻤﺎم ﺷﺮاﻳﻂ ﻣﻮرد ﻧﻴﺎز ﻧﻴﺴﺖ‪.‬‬
‫‪6-5‬‬
‫رﮔﺮﺳﻴﻮن ﺧﻄﻲ و ﻏﻴﺮ ﺧﻄﻲ‪ -‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎﻳﻲ‬

‫ﺳﻴﺴﺘﻢ ﺗﺎﺧﻴﺮ دار‬


‫ﻣﺪل ﺳﻴﺴﺘﻤﻲ ﻛﻪ ‪ nk‬واﺣﺪ ﺗﺎﺧﻴﺮ دارد ﺑﺮاﺑﺮ اﺳﺖ‬

‫ﻛﻪ ﺑﺎ ﻣﺪل ﭘﻴﺶ ﺑﻴﻨﻲ ﻛﻠﻲ ‪ y‬ﺗﺨﻤﻴﻦ زده ﻣﻲ ﺷﻮد‬

‫ﻣﺪل ﻓﻀﺎي ﺣﺎﻟﺖ ﺑﻪ ‪ARMAX‬‬ ‫‪4-5‬‬


‫اﻟﮕﻮرﻳﺘﻢ ﺑﺮاي ﺷﻨﺎﺳﺎﻳﻲ ﻣﺪل ﻓﻀﺎي ﺣﺎﻟﺖ وﺟﻮد دارد وﻟﻲ ﺑﺮاي اﺳﺘﻔﺎده از ﻣﺰﻳﺘﻬﺎي ﻣﺪل ورودي‪-‬ﺧﺮوﺟﻲ‪ ،‬ﻣﻲ ﺗـﻮان‬
‫ﻣﺪل ﻓﻀﺎي ﺣﺎﻟﺖ را ﺑﻪ ﻣﺪل ‪ ARMAX‬ﺗﺒﺪﻳﻞ ﻛﺮد‪ .‬در اﻳﻦ ﺗﺒﺪﻳﻞ ‪ 3‬ﺣﺎﻟﺖ ﻣﺘﺼﻮر اﺳﺖ ‪ (1‬ﺳﻴﺴﺘﻢ ﺑـﺪون ﻧـﻮﻳﺰ ‪(2‬‬
‫ﻧﻮﻳﺰ ﺳﻔﻴﺪ اﻧﺪازه ﮔﻴﺮي ‪ (3‬ﻫﻢ ﻧﻮﻳﺰ ﻓﺮاﻳﻨﺪ و ﻫﻢ اﻧﺪازه ﮔﻴﺮي‬

‫‪ :1‬ﺳﻴﺴﺘﻢ ﺑﺪون ﻧﻮﻳﺰﻓﺮاﻳﻨﺪ‬


‫ﺳﻴﺴﺘﻢ ﻓﻀﺎي ﺣﺎﻟﺖ ﺑﺎ ﻓﻘﻂ ﻧﻮﻳﺰ ﺧﺮوﺟﻲ ﺑﻪ ﺳﻬﻮﻟﺖ ﺑﻪ ﻣﺪل ورودي‪-‬ﺧﺮوﺟﻲ ﺗﺒﺪﻳﻞ ﻣﻲ ﺷﻮد‬
‫)‪ẋ=A(θ)x(t)+B(θ)u(t‬‬ ‫)‪y=Hx(t)+v(t‬‬
‫آﻧﺮا ﺑﻪ ﺗﺎﺑﻊ ﻛﺴﺮي ﭘﻴﻮﺳﺘﻪ ﺗﺒﺪﻳﻞ ﻣﻲ ﻛﻨﻴﻢ‪ p) .‬اﭘﺮاﺗﻮر ﻣﺸﺘﻖ اﺳﺖ( ﻛﻪ ﻣﺘﻌﺎﻗﺒﺎ ﻣﺪل ﮔﺴﺴﺘﻪ آن ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬
‫)‪y=H(pI-A(θ))-1B(θ)u(t)=G(p,θ)u(t)+v(t‬‬
‫اﻧﺪازه ﮔﻴﺮي ﮔﺴﺴﺘﻪ ﺧﺮوﺟﻲ ﻧﻮﻳﺰي ﺑﺎ ﭘﺮﻳﻮد ‪ T‬اﻧﺠﺎم ﻣﻲ ﮔﻴﺮد‪.‬‬

‫اﮔﺮ ﻃﺒﻖ ﻣﻔﺮوﺿﺎت ﻗﺒﻠﻲ ورودي در ﻓﺎﺻﻠﻪ ﻫﺮ ‪ T‬ﺗﻘﺮﻳﺒﺎ ﺛﺎﺑﺖ در ﻧﻈﺮ ﮔﺮﻓﺘـﻪ ﺷـﻮد‪ ،‬ﻣـﺪل ﮔﺴﺴـﺘﻪ ﺑـﺮ اﺳـﺎس ‪step‬‬
‫‪ invariance‬ﻗﺎﺑﻞ ﻣﺤﺎﺳﺒﻪ اﺳﺖ‪.‬‬
‫ﻣﺜﺎل ‪ :1‬ﻣﺜﺎل ﺑﺮاي ﺳﻴﺴﺘﻢ ﻣﻮﺗﻮر ﺑﺎ ﻣﻌﺎدﻻت ﻓﻀﺎي ﺣﺎﻟﺖ زﻳﺮ ﻣﺪل ورودي‪-‬ﺧﺮوﺟﻲ ﺑﻨﻮﻳﺴﻴﺪ‪.Example 4.1 D‬‬

‫)‪y=[1 0]x(t)+v(t‬‬
‫ﻓﺮض ﻛﻨﻴﺪ‪ u‬ﭘﻠﻪ اي ﺑﻪ ﻣﻮﺗﻮر اﻋﻤﺎل ﻣﻲ ﺷﻮد در ﻧﺘﻴﺠﻪ‬
‫‪ /‬‬
‫‪y( s) ‬‬ ‫) ‪u (t )  v(t‬‬
‫) ‪s(s  1 / ‬‬

‫‪7-5‬‬
‫رﮔﺮﺳﻴﻮن ﺧﻄﻲ و ﻏﻴﺮ ﺧﻄﻲ‪ -‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎﻳﻲ‬

‫ﻣﺪل ﮔﺴﺴﺘﻪ ‪ G‬ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬


‫‪1‬‬ ‫‪T /‬‬ ‫‪1‬‬
‫‪‬‬ ‫‪‬‬ ‫‪ Tz‬‬ ‫‪ (1  e‬‬ ‫‪)z‬‬
‫‪G(s) ‬‬ ‫‪‬‬ ‫‪ G( z) ‬‬ ‫‪1‬‬
‫‪‬‬ ‫‪T / 1‬‬
‫‪s‬‬ ‫) ‪(s  1 / ‬‬ ‫‪1 z‬‬ ‫‪1 e‬‬ ‫‪z‬‬
‫ﻛﻪ ﻣﻨﺠﺮ ﺑﻪ راﺑﻄﻪ )‪ y(kT)=G(q)u(kT)+v(kT‬ﻣﻲ ﺷﻮد‪ .‬ﻣﺪل ﭘﻴﺶ ﺑﻴﻨﻲ ﺣﺎﻻ ﺑﺎ ﻓﺮض )‪ v(t‬ﻧﻮﻳﺰ ﺳﻔﻴﺪ‬
‫)‪G(q)u(t‬‬
‫ﻛﻪ ﺑﺎ اﻳﻦ آﻧﺎﻟﻴﺰ رﻳﺎﺿﻲ دﻳﺪه ﺷﺪ ﻛﻪ ﻣﺪل ﺳﺎزي ﻓﻘﻂ ﺑﻪ دو ﭘﺎراﻣﺘﺮ ‪ ‬و ‪ ‬ﻧﻴﺎز دارد‪.‬‬

‫‪ :2‬ﻧﻮﻳﺰﺳﻔﻴﺪ ﻓﺮاﻳﻨﺪ و اﻧﺪازه ﮔﻴﺮي‬


‫ﻣﺪل ﻓﻀﺎي ﺣﺎﻟﺖ اﻳﻦ ﺳﻴﺴﺘﻢ اﻳﻨﮕﻮﻧﻪ اﺳﺖ‬

‫ﻛﻪ ‪ v‬و ‪ w‬ﻧﻮﻳﺰﻫﺎي ﻣﺴﺘﻘﻞ ﺑﺎ ﻣﻴﺎﻧﮕﻴﻦ ﺻﻔﺮ و ﻛﻮارﻳﺎﻧﺴﻬﺎي زﻳﺮ ﻫﺴﺘﻨﺪ‬

‫‪ ‬اﮔﺮ ﻧﺘﻮان ﻓﺮض ﻛﺮد ﻛﻪ ‪ v‬و ‪ w‬ﻧﻮﻳﺰ ﺳﻔﻴﺪ ﻫﺴﺘﻨﺪ ﺑﺎﻳﺪ ﺑﺮاي آﻧﻬﺎ ﻣﺪل در ﻧﻈﺮ ﮔﺮﻓـﺖ ﻛـﻪ درﺟـﻪ ﻓﻀـﺎي ﺣﺎﻟـﺖ را‬
‫اﻓﺰاﻳﺶ ﻣﻲ دﻫﺪ‪.‬‬

‫ﺗﺨﻤﻴﻦ ﺧﺮوﺟﻲ ﺑﺎ ﻓﻴﻠﺘﺮ ﻛﺎﻟﻤﻦ‪ :‬ﻓﺮﻣﻮل ‪1‬‬


‫در ﺷﺮاﻳﻂ ﻣﻔﺮوض ﻓﻴﻠﺘﺮ ﻛﺎﻟﻤﻦ ﺗﺨﻤﻴﻦ ﺑﻬﻴﻨﻪ ﺧﺮوﺟﻲ را اراﺋﻪ ﻣﻲ دﻫﺪ‬

‫ﻛﻪ ‪ K‬ﺑﻬﺮه ﻛﺎﻟﻤﻦ‬

‫و )‪ P̅ (‬ﻛﻪ ﻣﺎﺗﺮﻳﺲ ﻛﻮارﻳﺎﻧﺲ ﺧﻄﺎي ﺗﺨﻤﻴﻦ‬

‫از ﺣﻞ ﻓﺮﻣﻮل رﻳﻜﺎﺗﻲ ‪ Riccati‬زﻳﺮ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬

‫ﺑﺮ اﻳﻦ اﺳﺎس ﺗﺨﻤﻴﻦ ﺧﺮوﺟﻲ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬

‫‪8-5‬‬
‫رﮔﺮﺳﻴﻮن ﺧﻄﻲ و ﻏﻴﺮ ﺧﻄﻲ‪ -‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎﻳﻲ‬

‫ﻛﻪ ﻣﺪل آن ‪ ARMAX‬اﺳﺖ‪.‬‬

‫‪ : Innovations‬ﻓﺮﻣﻮل ‪2‬‬ ‫ﻓﺮﻣﻮل ﺑﻨﺪي ﺑﺮ اﺳﺎس )‪e(t‬‬


‫ﻓﺮﻣﻮل‪ 4.48‬را ﻣﻲ ﺗﻮان ﺑﺮ ﺣﺴﺐ ﻳﻚ ﻧﻮﻳﺰ ﺳﻔﻴﺪ ‪ e‬اﻳﻨﮕﻮﻧﻪ ﻧﻮﺷﺖ‬

‫ﻛﻪ در آن ﻧﻮﻳﺰ ﺳﻔﻴﺪ ‪ e‬داراي ﻛﻮارﻳﺎﻧﺲ‬

‫ﺑﺎ اﻳﻦ ﻓﺮﻣﻮل ﺑﻨﺪي ﻣﺪل ‪ ARMAX‬ﻓﻀﺎي ﺣﺎﻟﺖ ﺑﻪ ﻓﺮم زﻳﺮ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬

‫در اﻳﻦ ﻣﺪل ﻧﻮﻳﺰ ﻓﻴﻠﺘﺮ ﺷﺪه زﻳﺮ ﺑﺎ ﻣﺸﺨﺼﺎت ﺗﻌﺮﻳﻒ ﺷﺪه ﺑﺮاي ‪ e‬در ﻣﺪل وﺟﻮد دارد‬
‫)‪v(t)=H(q)e(t‬‬
‫ﺑﻬﺒﻮد راﻧﺪﻣﺎن ﻣﺤﺎﺳﺒﺎﺗﻲ‪ K :‬ﺗﺎﺑﻊ ‪ A,C,R1,R12‬اﺳﺖ‪ .‬از ﻧﻈﺮ ﻣﺤﺎﺳﺒﺎﺗﻲ ﻣﻨﺎﺳﺒﺘﺮ اﺳـﺖ ﻛـﻪ ﻣﺴـﺘﻘﻴﻤﺎ ‪ K‬ﺗـﺎﺑﻊ ‪θ‬‬
‫ﻧﻮﺷﺘﻪ ﺷﻮد‪.‬‬
‫ﻣﺜﺎل ‪ :2‬ﺗﺒﺪﻳﻞ ﻣﺪل ‪ companion II‬ﺑﻪ ‪ : ARMAX‬ﺳﻴﺴﺘﻢ ﻓﻀﺎي ﺣﺎﻟﺖ ﻓﺮم ‪ companion‬زﻳﺮ ﺑﻪ ﺳﻬﻮﻟﺖ ﺑﻪ‬
‫ﻣﺪل ‪ ARMAX‬ﺗﺒﺪﻳﻞ ﻣﻲ ﺷﻮد‪.‬‬
‫‪-‬‬

‫ﺑﺪﻳﻦ ﺗﺮﺗﻴﺐ ﺗﺎﺑﻊ ﺗﺒﺪﻳﻞ ‪G‬‬

‫‪G‬‬
‫ﺗﺎﺑﻊ ﺗﺒﺪﻳﻞ ‪ H‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬

‫‪H‬‬
‫است‬ ‫که در آن‬
‫‪ ‬ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺎ ﺗﺒﺪﻳﻞ ﻓﻀﺎي ﺣﺎﻟﺖ ﺑﻪ ﻓﺮم ‪ companion II‬ﻣﺪل ‪ ARMAX‬ﺑﻪ ﺳﻬﻮﻟﺖ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬

‫‪9-5‬‬
‫رﮔﺮﺳﻴﻮن ﺧﻄﻲ و ﻏﻴﺮ ﺧﻄﻲ‪ -‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎﻳﻲ‬

‫‪ 5-5‬ﺷﺮوط ﻗﺎﺑﻠﻴﺖ ﺷﻨﺎﺳﺎﻳﻲ ﺑﻮدن ﻣﺪل ﺧﻄﻲ‬


‫‪ (1‬ﺑﺮاي ﺳﻬﻮﻟﺖ ﺳﻴﺴﺘﻢ ‪ y=G(q, θ)u+H(q,θ)e‬را اﻳﻨﮕﻮﻧﻪ ﻣﻲ ﺗﻮان ﻧﻮﺷﺖ‬

‫ﻣﺪل ﭘﻴﺶ ﺑﻴﻨﻲ آن‬

‫‪ (2‬دو ﻣﺪل ﻣﻌﺎدﻟﻨﺪ اﮔﺮ‬

‫‪ (3‬ﻣﺪل ﭘﻴﺶ ﺑﻴﻨﻲ ﻳﻚ ﺳﻴﺴﺘﻢ ﻧﺎﭘﺎﻳﺪار ﻣﻲ ﺗﻮاﻧﺪ ﭘﺎﻳﺪار ﺑﺎﺷﺪ‬

‫ﻛﻪ ﺑﺮاي ﺳﻴﺴﺘﻢ ﻧﺎﭘﺎﻳﺪار )‪(|a|>1‬‬

‫‪ŷ=H-1Gu+(1-H-1)y‬‬ ‫ﻣﺪل ﭘﻴﺶ ﺑﻴﻨﻲ ﭘﺎﻳﺪار اﺳﺖ‬

‫‪ (4‬ﻣﺪل ﻧﺴﺒﺖ ﺑﻪ ﭘﺎراﻣﺘﺮﻫﺎﻳﺶ ﺑﺎﻳﺪ ﻫﻤﻮار ﺑﺎﺷﺪ ﻳﻌﻨﻲ ﻣﺸﺘﻖ زﻳﺮ وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ و ‪ ‬ﭘﺎﻳﺪار ﺑﺎﺷﺪ‬

‫ﻣﺜﺎل ﺳﻴﺴﺘﻢ ‪ARX‬‬

‫‪‬‬

‫‪and‬‬

‫‪ Identifiability Properties (5‬آﻳﺎ ﺣﺎﺻﻞ ﺷﻨﺎﺳﺎﻳﻲ ﻣﺪل ﻣﻨﺤﺼﺮ ﺑﻔﺮد اﺳﺖ و آﻳﺎ ﻣـﺪل ﺑﺪﺳـﺖ آﻣـﺪه ‪True‬‬
‫ﺳﻴﺴﺘﻢ اﺳﺖ‪ .‬اﻳﻦ ﻣﻮﺿﻮع از ﻧﻈﺮ رﻳﺎﺿﻲ اﻳﻨﮕﻮﻧﻪ ﺗﺒﻴﻴﻦ ﻣﻲ ﺷﻮد‬
‫‪a model structure is globally identifiable at * if and only if‬‬

‫‪10-5‬‬
‫ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎﻳﻲ‬-‫ داﻧﺸﮕﺎه ﺷﺎﻫﺪ‬-‫رﮔﺮﺳﻴﻮن ﺧﻄﻲ و ﻏﻴﺮ ﺧﻄﻲ‬

(z=aejω )
.‫( اﮔﺮ ﭘﺮﻳﻮد ﻧﻤﻮﻧﻪ ﺑﺮداري درﺳﺖ اﻧﺘﺨﺎب ﻧﺸﻮد اﺑﻬﺎم در ﻣﺪل ﭘﺪﻳﺪ ﻣﻲ آﻳﺪ‬6
‫( ﺗﻀﻤﻴﻦ ﻗﺎﺑﻞ ﺷﻨﺎﺳﺎﻳﻲ ﺑﻮدن ﺑﺠﺰ در ﻣﻮرد ﺳﻴﺴﺘﻤﻬﺎي ﻣﺸﺨﺺ ﺑﺴﻴﺎر ﻣﺸﻜﻞ اﺳﺖ‬7
‫ ﻗﺎﺑﻞ ﺷﻨﺎﺳﺎﻳﻲ اﺳﺖ‬BJ ‫ ﺳﻴﺴﺘﻢ‬:Theorem 4.1. (8

‫اﮔﺮ‬
i. There is no common factor to all
ii. There is no common factor to
iii. There is no common factor to
iv. If na≥ 1, then there must be no common factor to
v. If nd≥ 1, then there must be no common factor to
vi. If nf≥ 1, then there must be no common factor
The starred polynomials correspond to * .
Corollary. The model structure given by (4.142) is globally identifiable.
‫ ﺷﻨﺎﺳﺎﻳﻲ ﻣﻲ ﺷﻮد اﮔـﺮ درﺟـﻪ ﭼﻨـﺪ ﺟﻤﻠـﻪ‬True ‫ ﺳﻴﺴﺘﻢ‬:True system ‫ ﺷﻨﺎﺳﺎﻳﻲ‬Theorem 4.2. (9
‫اﻳﻬﺎي ﻣﺪل ﺑﺰرﮔﺘﺮ از درﺟﺎت ﭼﻨﺪ ﺟﻤﻠﻪ اي ﺳﻴﺴﺘﻢ واﻗﻌﻲ ﺑﺎﺷﺪ‬

11-5
‫رﮔﺮﺳﻴﻮن ﺧﻄﻲ و ﻏﻴﺮ ﺧﻄﻲ‪ -‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎﻳﻲ‬

‫‪ (10‬ﺷﺮط ﻗﺎﺑﻞ ﺷﻨﺎﺳﺎﻳﻲ ﺑﻮدن ﻣﺪل ﻓﻀﺎي ﺣﺎﻟﺖ‪ :‬واﺿﺢ اﺳـﺖ ﻛـﻪ ﻧﻤﻴﺘﻮاﻧـﺪ ﺗﻤـﺎم اﻟﻤﺎﻧﻬـﺎي ﻣﺎﺗﺮﻳﺴـﻬﺎي‬
‫‪ A,B,C,K‬ﭘﺎراﻣﺘﺮ ﺑﺎﺷﻨﺪ زﻳﺮا ﻣﺪل ‪ 4.92‬ﻓﻘﻂ ‪ 3n‬ﭘﺎراﻣﺘﺮ را ﻣﻲ ﭘﺬﻳﺮد ﻛﻪ ‪ n‬ﺑﻌﺪ ﻣﺎﺗﺮﻳﺲ ‪ A‬ﺑﺎﺷﺪ‪ .‬از اﻳﻨﺮو‬
‫ﻣﺪل ﺳﻴﺴﺘﻢ ﺑﺎﻳﺪ ‪ companion‬ﺑﺎﺷﺪ‬

‫و ﻓﻘﻂ اﻟﻤﺎﻧﻬﺎي ﺑﺎ ﻋﻼﻣﺖ ‪ x‬ﭘﺎراﻣﺘﺮﺳﻴﺴـﺘﻢ ﻫﺴـﺘﻨﺪ‪ .‬ﺷـﺮط ﻗﺎﺑـﻞ ﺷﻨﺎﺳـﺎﻳﻲ ﺑـﻮدن اﻳـﻦ ﻣـﺪل آن اﺳـﺖ ﻛـﻪ ﻣـﺪل‬
‫‪ ARMAX‬ﻧﻈﻴﺮ آن ﺷﺮوط ﺗﺌﻮري ‪ 4.1‬را ﺑﭙﺬﻳﺮد‪ .‬اﻳﻦ ﺷﺮط ﺑﻪ ﻧﻮﺑﻪ ﺧﻮد وﻗﺘﻲ ﻣـﺪل ﻓﻀـﺎي ﺣﺎﻟـﺖ ﻛﻨﺘـﺮل ﭘـﺬﻳﺮ و‬
‫روﻳﺖ ﭘﺬﻳﺮ اﺳﺖ ﺗﺎﻣﻴﻦ ﻣﻲ ﺷﻮد‪ .‬اﻳﻦ ﺷﺮط در ﺳﺎﺧﺘﺎر ‪ companion II‬ﻛﻪ ﺧﻮد روﻳﺖ ﭘﺬﻳﺮ اﺳﺖ ﺑـﻪ ﺷـﺮط ﻛﻨﺘـﺮل‬
‫ﭘﺬﻳﺮي ﺳﻴﺴﺘﻢ دو ورودي }])*‪ {A(*), [B(*) K (‬ﺗﻘﻠﻴﻞ ﻣﻲ ﻳﺎﺑﺪ‬

‫‪5-6‬‬ ‫‪SUMMARY‬‬
‫ﻣﺪل ﭘﻴﺶ ﺑﻴﻨﻲ ﺳﻴﺴﺘﻢ ﺧﻄﻲ ﺑﻪ ﻓﺮم زﻳﺮ اﺳﺖ‬

‫ﻛﻪ ﺑﺎ ‪ e‬ﺑﻌﻨﻮان ﻧﻮﻳﺰ ﺳﻔﻴﺪ ﻣﺪل اﻳﻨﮕﻮﻧﻪ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬

‫‪12-5‬‬
‫رﮔﺮﺳﻴﻮن ﺧﻄﻲ و ﻏﻴﺮ ﺧﻄﻲ‪ -‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎﻳﻲ‬

‫‪5-7‬‬ ‫‪MODELS FOR TIME-VARYING AND NONLINEAR SYSTEMS‬‬

‫‪Ljung Chapter 5‬‬

‫‪ ‬ﺑﺪون ﺗﺮدﻳﺪ ﻣﺪل ‪ LTI‬ﻋﻤﻮﻣﻲ ﺗﺮﻳﻦ روش ﻣﺪﻟﺴﺎزي ﺳﻴﺴﺘﻤﻬﺎي دﻳﻨﺎﻣﻴﻜﻲ اﺳﺖ‪ .‬ﻣﻌﺬﻟﻚ اﻏﻠﺐ ﻣﻔﻴﺪ و ﻳﺎ ﺿﺮوري‬
‫اﺳﺖ ﻛﻪ دﻳﮕﺮ ﻣﺪﻟﻬﺎ ﻣﺎﻧﻨﺪ ﻏﻴﺮ ﺧﻄﻲ و واﺑﺴﺘﻪ ﺑﻪ زﻣﺎن ﻧﻴﺰ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﻮد‪.‬‬
‫‪ ‬ﻣﺪﻟﺴﺎزي ﺑﻪ دوﺻﻮرت‬
‫‪ Grey box ‬ﺑﻪ دوروش ‪ Physical insight‬و ﻳﺎ ‪some physical insight‬‬
‫‪ ‬ﻳﺎ ‪ black-box type‬ﻣﻤﻜﻦ اﺳﺖ اﻧﺠﺎم ﺷﻮد‪ .‬ﻧﻮع ‪ black box‬ﻣﺎﻧﻨﺪ ﺷﺒﻜﻪ ﻋﺼﺒﻲ‪ ،‬وﻳﻮﻟﺖ و ﻓﺎزي‬

‫‪LINEAR TIME-VARYING MODELS 1-7-5‬‬


‫ﭘﺎراﻣﺘﺮﻫﺎي ﺳﻴﺴﺘﻢ واﺑﺴﺘﻪ ﺑﻪ زﻣﺎن ﻣﺘﻐﻴﺮ ﻫﺴﺘﻨﺪ‪.‬‬
‫‪ ‬اﻳﻦ ﺳﻴﺴﺘﻤﻬﺎ را ﺑﺼﻮرت ﻣﺪل واﺑﺴﺘﻪ ﺑﻪ زﻣﺎن ورودي‪ -‬ﺧﺮوﺟﻲ‬

‫ﻛﻪ‪ gt‬واﺑﺴﺘﻪ ﺑﻪ زﻣﺎن ‪ Weighting Function‬اﺳﺖ‬


‫‪ ‬و ﻓﻀﺎي ﺣﺎﻟﺖ ﻣﻲ ﺗﻮان ﻧﻮﺷﺖ‬

‫‪ ‬ﻣﺪل ﭘﻴﺶ ﺑﻴﻨﻲ آن از اﻳﻨﻘﺮار اﺳﺖ‬

‫ﻛﻪ ﻣﺎﻧﻨﺪ ﺣﺎﻟﺖ ‪ LTI‬ﺑﺼﻮرت ورودي‪ -‬ﺧﺮوﺟﻲ زﻳﺮ ﻣﻲ ﺗﻮاﻧﺪ ﻧﻮﺷﺘﻪ ﺷﻮد‪.‬‬

‫‪13-5‬‬
‫رﮔﺮﺳﻴﻮن ﺧﻄﻲ و ﻏﻴﺮ ﺧﻄﻲ‪ -‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎﻳﻲ‬

‫دو ﻣﻮرد ﺧﺎص ﺳﻴﺴﺘﻢ ‪LTV‬‬


‫‪ (1‬ﻧﻤﻮﻧﻪ ﺑﺮداري ﻏﻴﺮ ﻳﻜﻨﻮاﺧﺖ‪ :‬ﺳﻴﺴﺘﻢ ‪ LTI‬ﺑـﺎ ‪ nonequal sampling intervals‬ﻣﻨﺠـﺮ ﺑـﻪ ﺳﻴﺴـﺘﻤﻬﺎي‬
‫‪ LTV‬ﻣﻲ ﺷﻮﻧﺪ‬
‫‪ (2‬ﺧﻄﻲ ﺳﺎزي ﺣﻮل ﻣﺴﻴﺮ‪ :‬وﻗﺘﻲ ﺳﻴﺴﺘﻤﻲ ﻏﻴﺮ ﺧﻄﻲ ﺣﻮل ﻣﺴﻴﺮ ﺧﻄﻲ ﺷﻮد ﻣﻲ ﺗﻮاﻧﺪ ﻣﻨﺠﺮ ﺑﻪ ﺳﻴﺴﺘﻢ واﺑﺴﺘﻪ‬
‫ﺑﻪ زﻣﺎن ﺷﻮد‪ .‬ﺳﻴﺴﺘﻢ زﻳﺮ‬

‫وﻗﺘﻲ ﺧﻄﻲ ﺷﻮد ﺑﺎ در ﻧﻈﺮ ﮔﺮﻓﺘﻦ ﻣﺘﻐﻴﺮﻫﺎي ﺳﻴﮕﻨﺎل ﻛﻮﭼﻚ‬

‫ﺳﻴﺴﺘﻢ واﺑﺴﺘﻪ ﺑﻪ زﻣﺎن زﻳﺮ را ﻣﻲ ﺳﺎزد‬

‫‪This model is now a LTV approximate description of (5.8) in a vicinity of the nominal‬‬
‫‪trajectory.‬‬

‫‪5-7-2 MODELS WITH NONLINEARITIES‬‬


‫اﻫﻤﻴﺖ ﻣﺪﻟﻬﺎي ﻏﻴﺮ ﺧﻄﻲ‬
‫وﻗﺘﻲ ﺳﻴﺴﺘﻢ ﻏﻴﺮ ﺧﻄﻲ زﻳﺮ ﺑﺎﻳﺪ ﺷﻨﺎﺳﺎﻳﻲ ﺷﻮد ﻣﺪل ﻏﻴﺮ ﺧﻄﻲ ﻗﻮﻳﺘﺮ ﻣﻲ ﺗﻮاﻧﺪ ارﺗﺒﺎط ورودي ﺧﺮوﺟﻲ را ﻣﺪل ﻛﻨـﺪ‪.‬‬
‫ﺷﻜﻞ ﺻﻔﺤﻪ اي ﻛﻪ ﺑﺎﻳﺪ ﺷﻨﺎﺳﺎﻳﻲ ﺷﻮد را ﻧﺸﺎن ﻣﻲ دﻫﺪ‪.‬‬

‫]‪y(k)=y(k-1)-0.5 tanh[y(k-1)+u(k-1)3‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻄﻮح ﻏﻴﺮ ﺧﻄﻲ در اﺑﻌﺎد ﺑﺎﻻ ﻧﻴﺎزﻣﻨﺪ ﺗﻌﺪاد دﻳﺘﺎي زﻳﺎد و ﻣﺘﻨﻮع اﺳﺖ و ﺑﺴﻴﺎر ﭘﻴﭽﻴﺪه اﺳﺖ‪.‬‬
‫‪14-5‬‬
‫رﮔﺮﺳﻴﻮن ﺧﻄﻲ و ﻏﻴﺮ ﺧﻄﻲ‪ -‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎﻳﻲ‬

‫ﭼﮕﻮﻧﮕﻲ ﭘﺎراﻣﺘﺮﻳﺰه ﻛﺮدن اﻳﻦ ﻣﺴﺎﺋﻞ ﻛﻪ ﻫﻢ ﻧﺰدﻳﻚ ﺑﻪ واﻗﻌﻴﺖ ﺑﺎﺷﺪ ﻫﻢ ﺗﻌﺪاد ﭘﺎراﻣﺘﺮﻫﺎي آن زﻳﺎد ﻧﺒﺎﺷﺪ ﻣﺴـﺌﻠﻪ اي‬
‫اﺳﺖ ﻛﻪ ﺑﺎﻳﺪ روﺷﻦ ﺷﻮد‪.‬‬
‫ﻣﺜﺎل ‪ :3‬دﻳﺘﺎي زﻳﺮ را ﻳﻚ ﺳﻴﺴﺘﻢ ﻏﻴﺮ ﺧﻄﻲ ﺗﻮﻟﻴﺪ ﻛﺮده اﺳﺖ‬

‫ﻧﺘﻴﺠﻪ ﺷﻨﺎﺳﺎﻳﻲ ﺑﺎ ﺑﻜﺎر ﮔﻴﺮي ﻣﺪل ﺧﻄﻲ اﻳﻨﮕﻮﻧﻪ اﺳﺖ‬

‫اﻣﺎ ﺑﺎ ﺑﻜﺎر ﮔﻴﺮي ﻣﺪل ﻏﻴﺮ ﺧﻄﻲ‬

‫ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪ .‬ﺑﺎ اﻧﺘﺨﺎب ﺑﻬﺘﺮ ﻣﺪل ﻧﺘﻴﺠﻪ زﻳﺮ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ ﻛﻪ ﺧﻄﺎي ﻧﺎﭼﻴﺰ ﺷﻨﺎﺳﺎﻳﻲ ﻧﻴﺰ ﻧﺸﺎن داده ﺷﺪه اﺳﺖ‬

‫‪15-5‬‬
‫رﮔﺮﺳﻴﻮن ﺧﻄﻲ و ﻏﻴﺮ ﺧﻄﻲ‪ -‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎﻳﻲ‬

‫ﺣﺘﻲ ﻣﻲ ﺗﻮان رﮔﺮﺳﻮرﻫﺎي دﻳﮕﺮ را ﻧﻴﺰ اﻣﺘﺤﺎن ﻛﺮد‬

‫‪Physical modeling 3-7-5‬‬


‫در اﻳﻦ ﻧﻮع ﻣﺪﻟﺴﺎزي‪ ،‬ﻣﺪل از آﻧﺎﻟﻴﺰ ﺗﺌﻮرﻳﻚ ﺳﻴﺴﺘﻢ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ ﻛﻪ در ﻣﻮرد ﻳـﻚ ﻣﻮﺷـﻚ ﺷـﺎﻣﻞ ‪ 10‬ورودي‪5 ،‬‬
‫ﺧﺮوﺟﻲ و ‪ 15‬ﭘﺎراﻣﺘﺮ ﻣﻲ ﮔﺮدد‬

‫‪ 4-7-5‬ﻣﺪل ﺑﺮ اﺳﺎس ‪crude physical insight‬‬

‫‪16-5‬‬
‫رﮔﺮﺳﻴﻮن ﺧﻄﻲ و ﻏﻴﺮ ﺧﻄﻲ‪ -‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎﻳﻲ‬

‫در اﻳﻦ روش ﺑﺠﺎي ﻛﻞ ﻣﺪل ﻋﻮاﻣﻞ ﻣﺸﺨﺺ ﻏﻴﺮ ﺧﻄﻲ ﻣﺎﻧﻨﺪ رﻓﺘﺎر ﺷﻴﺮه و ﻣﺤﺮﻛﻬﺎ و ﻏﻴﺮه ﺗﻌﻴـﻴﻦ و در ﻣـﺪل ﺟـﺎي‬
‫داده ﻣﻲ ﺷﻮد‪.‬‬
‫‪Wiener and Hammerstein Models‬‬
‫در ﻣﺪﻟﻬﺎﻳﻲ ﻛﻪ اﻳﻨﮕﻮﻧﻪ ﺑﺪﺳﺖ ﻣﻲ آﻳﻨﺪ اﻟﻤﺎن ﻏﻴﺮ ﺧﻄﻲ در ورودي ﻳﺎ ﺧﺮوﺟﻲ ﻳﺎ ﻫﺮ دو ﻗﺮار دارد‬
‫‪ Hammerstein model ‬ﺑﺎ ﻋﺎﻣﻞ ﻏﻴﺮ ﺧﻄﻲ در ورودي‬

‫‪ Wiener model ‬ﺑﺎ ﻋﺎﻣﻞ ﻏﻴﺮ ﺧﻄﻲ در ﺧﺮوﺟﻲ‬

‫‪Wiener-Hammerstein model. ‬‬

‫‪Other models ‬‬

‫ﺗﺨﻤﻴﻨﮕﺮ ﻣﺪﻟﻬﺎ‬
‫ﺗﺨﻤﻴﻨﮕﺮ اﻳﻦ ﻣﺪﻟﻬﺎ ﻛﻪ ﭘﻴﭽﻴﺪه ﻧﻴﺰ ﻧﻴﺴﺘﻨﺪ اﻳﻨﮕﻮﻧﻪ اﺳﺖ‬

‫‪ ‬در اﻳﻦ ﺣﺎﻟﺖ ﻣﺪل رﮔﺮﺳﻮري اﻳﻨﮕﻮﻧﻪ ﻧﻮﺷﺘﻪ ﻣﻲ ﺷﻮد‪.‬‬

‫ﺑﺮدار رﮔﺮﺳﻮر اﻳﻦ ﻣﺪل را ﺑﻪ ﭼﻨﺪ روش ﻣﻲ ﺗﻮان ﻧﻮﺷﺖ‬


‫اﻟﻒ( ﺑﺴﻂ ‪ :Black box‬ﻛﻪ ﺗﺮم ﻏﻴﺮ ﺧﻄﻲ ﺑﺼﻮرت ﭼﻨﺪ ﺟﻤﻠﻪ اي ﻧﻮﺷﺘﻪ ﺷﻮد‪ .‬ﻣﺜﻼ در ﻣﺪل ‪Hammerstein‬‬

‫•‬
‫ﻧﻮﺷﺘﻪ ﺷﻮد ﻛﻪ ﻣﻨﺠﺮ ﺑﻪ رﮔﺮﺳﻴﻮن ﺧﻄﻲ زﻳﺮ ﻣﻲ ﺷﻮد‬

‫‪17-5‬‬
‫رﮔﺮﺳﻴﻮن ﺧﻄﻲ و ﻏﻴﺮ ﺧﻄﻲ‪ -‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎﻳﻲ‬

‫ب( ‪ : Use physical insight.‬ﺑﺎ آﻧﺎﻟﻴﺰ ﻋﺎﻣﻞ ﻏﻴﺮ ﺧﻄﻲ و ﻗﻮاﻧﻴﻦ ﻓﻴﺰﻳﻜﻲ ﻣﻲ ﺗﻮان ﻣﺪل ﻣﻮﺟﺰي ﺑـﺮاي آن ﭘﻴـﺪا و‬
‫ﻧﻮﺷﺖ‪ .‬ﺑﻪ اﻳﻦ روش ‪ semiphysical modeling‬می گويند‬
‫ﻣﺜﻼ اﮔﺮ ﺧﺮوﺟﻲ ﺗﻮان اﺳﺖ ﻣﻌﻠﻮم اﺳﺖ ﻛﻪ ﺗﺮم ﻏﻴﺮ ﺧﻄﻲ ﺣﺎﺻﻠﻀﺮب وﻟﺘﺎژ در ﺟﺮﻳﺎن اﺳﺖ و ﻣﺸﺎﺑﻪ آن‬
‫دستورات ‪MATLAB‬‬
‫)‪m = nlhw(data,[nb nf nk],InputNL,OutputNL‬‬
‫‪specifies input nonlinearity InputNL and output nonlinearity OutputNL, as a nonlinearity‬‬
‫‪estimator object or string representing the nonlinearity estimator type.‬‬
‫ﻣﺜﺎل ‪ :4‬ﻣﺜﺎل ﺧﺎﻧﻪ ﺑﺎ ﮔﺮﻣﺎﻳﺶ ﺧﻮرﺷﻴﺪي ‪ :Example 5.1‬در ﺧﺎﻧﻪ ﺧﻮرﺷﻴﺪي زﻳﺮ درﺟـﻪ ﺣـﺮارت ﺧﺎﻧـﻪ ‪ y‬ﺑـﻪ‬
‫ﺷﺪت ﺗﺎﺑﺶ ﺧﻮرﺷﻴﺪ ‪ I‬و ﺳﺮﻋﺖ ﭘﻤﭗ ‪ u‬واﺑﺴﺘﻪ اﺳﺖ‪.‬‬
‫ﺑﺪون ﺗﻮﺟﻪ ﺑﻪ واﻗﻌﻴﺖ ﻓﻴﺰﻳﻜﻲ آن ﻣﻤﻜﻦ اﺳﺖ ﻣﺪل ‪ Black box‬ﺣﻄﻲ زﻳﺮ را ﺑﻪ آن ﻧﺴﺒﺖ داد‬

‫ﺑﺎ اﻧﺪك دﻗﺖ ﻣﻌﻠﻮم ﻣﻲ ﺷﻮد ﻣﺪل واﻗﻌﻲ ﻧﻴﺴﺖ‪ .‬ﻣﺜﻼ وﻗﺘﻲ ﭘﻤﭗ ﺧﺎﻣﻮش اﺳﺖ ﻧﺒﺎﻳﺪ اﻧﺮژي ذﺧﻴﺮه ﺷﻮد ﻛﻪ ﻣﺪل ﻓﻮق‬
‫آﻧﺮا اﻋﻤﺎل در ﺣﺎﻟﻴﻜﻪ در واﻗﻊ اﺗﻔﺎق ﻧﻤﻲ اﻓﺘﺪ‪.‬‬

‫اﺿﺎﻓﻪ ﻛﺮدن ‪Phsical insight‬‬


‫ﺑﺎ اﻋﻤﺎل ﻗﺎﻧﻮن ﺑﻘﺎ اﻧﺮژي‪ ،‬اﻧﺮژي درﻳﺎﻓﺘﻲ از ﺧﻮرﺷﻴﺪ ‪ d2.I‬ﻣﻨﺠﺮ ﺑﻪ ﺗﻐﻴﻴﺮ ذﺧﻴﺮه اﻧﺮژي در ﻛﻠﻜﺘﻮر )‪x (t + 1) – x(t‬‬
‫ﺗﻠﻔﺎت ﺑﻪ ﻣﺤﻴﻂ )‪ d3. x(t‬و اﻧﺘﻘﺎل ﺑﻪ ذﺧﻴﺮه ﺳﺎز از ﻃﺮﻳﻖ ﭘﻤﭗ ﻣﻲ ﺷﻮد )‪do . x(t) . u(I‬‬

‫ﺑﻪ ﻫﻤﻴﻦ ﺗﺮﺗﻴﺐ اﻧﺮژي درﻳﺎﻓﺘﻲ از ﻃﺮﻳﻖ ﭘﻤﭗ ﻣﻨﺠﺮ ﺑﻪ ﺗﻐﻴﻴﺮ اﻧﺮژي ﻣﻨﺒﻊ ذﺧﻴﺮه )‪ y(t + 1) - y(t‬و اﻧﺘﻘـﺎل ﮔﺮﻣـﺎ ﺑـﻪ‬
‫اﺗﺎق ﻣﻲ ﺷﻮد‪y(t + 1) - y(t) .‬‬

‫در اﻳﻦ رواﺑﻂ ‪ d‬ﻫﺎ ﭘﺎراﻣﺘﺮﻫﺎﻳﻲ ﻫﺴﺘﻨﺪ ﻛﻪ ﺑﺎﻳﺪ ﺷﻨﺎﺳﺎﻳﻲ ﺷﻮﻧﺪ‪ .‬ﭼﻮن ‪ x‬اﻧﺪازه ﮔﻴﺮي ﻧﻤﻲ ﺷﻮد از رواﺑﻂ ﺑﺎﻳـﺪ ﺣـﺬف‬
‫ﮔﺮدد‪.‬‬

‫‪18-5‬‬
‫رﮔﺮﺳﻴﻮن ﺧﻄﻲ و ﻏﻴﺮ ﺧﻄﻲ‪ -‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎﻳﻲ‬

‫‪ ‬ارﺗﺒﺎط ﺑﻴﻦ ﻣﺪل و ﭘﺎراﻣﺘﺮﻫﺎي ﻓﻴﺰﻳﻜﻲ ﭘﻴﭽﻴﺪه اﺳﺖ از اﻳﻨـﺮو ﭘﺎراﻣﺘﺮﻫـﺎي ﺟﺪﻳـﺪ ﺗﺮﻛﻴﺒـﻲ ﻣﻌﺮﻓـﻲ ﻣـﻲ ﮔـﺮدد ﺗـﺎ‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺑﻬﺘﺮ اﻧﺠﺎم ﺷﻮد‪ .‬در ﻧﺨﺎﻳﺖ ﻣﻲ ﺗﻮان ﭘﺎراﻣﺘﺮﻫﺎي ﻓﻴﺰﻳﻜﻲ را ﺗﻌﻴﻴﻦ ﻛﺮد‪.‬‬

‫ﻛﻪ ﺑﺼﻮرت رﮔﺮﺳﻴﻮن ﺧﻄﻲ ﻧﻮﺷﺘﻪ و ﺳﻴﺴﺘﻢ ﺷﻨﺎﺳﺎﻳﻲ ﻣﻲ ﺷﻮد‪.‬‬

‫ﻣﺜﺎل ‪ :5‬ﺳﻴﺴﺘﻢ ﻏﻴﺮ ﺧﻄﻲ زﻳﺮ را ﺑﺼﻮرت رﮔﺮﺳﻴﻮن ﺧﻄﻲ ﺑﻨﻮﻳﺴﻴﺪ‬

‫ﻣﺜﺎل ‪ :6‬ﺳﻴﺴﺘﻢ ﻏﻴﺮ ﺧﻄﻲ زﻳﺮ را ﺑﺼﻮرت رﮔﺮﺳﻴﻮن ﺧﻄﻲ ﺑﻨﻮﻳﺴﻴﺪ‬

‫‪5-7-5 NONLINEAR Grey box STATE-SPACE‬‬


‫ﻣﺪل ﻛﻠﻲ ﺳﻴﺴﺘﻢ ﻏﻴﺮ ﺧﻄﻲ ﺑﺼﻮرت ﻓﻀﺎي ﺣﺎﻟﺖ اﺳﺖ‬

‫‪19-5‬‬
‫رﮔﺮﺳﻴﻮن ﺧﻄﻲ و ﻏﻴﺮ ﺧﻄﻲ‪ -‬داﻧﺸﮕﺎه ﺷﺎﻫﺪ‪-‬ﺳﻌﻴﺪﺳﻴﺪﻃﺒﺎﻳﻲ‬

‫ﻛﻪ ‪ w‬و‪ v‬ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ و ‪ ‬ﺑﺮدار ﭘﺎراﻣﺘﺮﻫﺎﺳﺖ‬


‫ﺗﺨﻤﻴﻨﮕﺮ اﻳﻦ ﺳﻴﺴﺘﻢ در ﻫﺮ ﺣﺎل ﻓﺮم زﻳﺮ رادارد‬

‫‪Here, for easier notation, we introduced‬‬

‫و ﺧﻄﺎي ﺗﺨﻤﻴﻦ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫راه ﺳﺎده اﻋﻤﺎل ﭘﻴﺶ ﺑﻴﻨﻲ‬


‫ﻳﻚ راه ﺳﺎده ﺑﺮاي ﻣﺪل ﺗﺨﻤﻴﻦ اﻏﻤﺎض از ﻧﻮﻳﺰ و اﺳﺘﻔﺎده از ﺗﺨﻤﻴﻨﮕﺮ زﻳﺮ اﺳﺖ‬

‫ﺑﻪ اﻳﻦ ﻣﺪل ﭘﻴﺶ ﺑﻴﻨﻲ ‪ simulation model‬ﻣﻲ ﮔﻮﻳﻨﺪ زﻳﺮا )‪ ŷ(t|θ‬ﺑﺎ ﺷـﺒﻴﻪ ﺳـﺎزي ﻣـﺪل ﺑـﺪون ﻧـﻮﻳﺰ و اﻋﻤـﺎل‬
‫ورودي واﻗﻌﻲ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬
‫ﻣﺜﺎل ‪ :7‬ﻣﺜﺎل ‪ :Example 5.2 Delignification‬در ﺳﻴﺴﺘﻢ زﻳﺮ ﺑﺎ ﻣﻌﺎدﻟﻪ‬

‫ﺗﺨﻤﻴﻦ ̂‪ x‬ﺑﺪﺳﺖ ﻣﻲ اﻳﺪ ﺗﺎ ﻣﺪل رﮔﺮﺳﻮر ﺧﻄﻲ را ﺑﺴﺎزد‬ ‫ﻛﻪ ورودﻳﻬﺎ ‪ u‬و ﭘﺎراﻣﺘﺮﻫﺎي‬

‫ﺑﺎ در ﻧﻈﺮ ﮔﺮﻓﺘﻦ ورودﻳﻬﺎ ي ‪ u‬و ﺛﺎﺑﺘﻬﺎي ﺗﺨﻤﻴﻦ ̂‪ x‬ﺑﺪﺳﺖ ﻣﻲ اﻳﺪ‪.‬‬


‫‪ ‬در اﻳﻨﺠﺎ ﺧﺮوﺟﻲ ﺷﺒﻴﻪ ﺳﺎزي ﺷﺪه )ﭘﻴﺶ ﺑﻴﻨﻲ( ﺑﺎ ﺧﺮوﺟﻲ واﻗﻌﻲ )اﻧﺪازه ﮔﻴﺮي ﺷﺪه( ﻣﻘﺎﻳﺴﻪ ﻣﻲ ﮔﺮدد‪.‬‬

‫‪5-7-6 SUMMARY‬‬
‫ﻣﺪل ﻋﻮاﻣﻞ ﻏﻴﺮ ﺧﻄﻲ ﻣﻤﻜﻦ اﺳـﺖ ﺑﺼـﻮرت ﺟﻌﺒـﻪ ﺳـﻴﺎه ﺗﻮﺳـﻂ ﺟﻨـﺪ ﺟﻤﻠـﻪ اي ﻳـﺎ ﻓﺮﻣـﻮل ﻓﻴﺰﻳﻜـﻲ آن ‪"semi-‬‬
‫"‪ physical modeling‬در مدل وارد شود‬
‫اﻟﺰاﻣﻲ ﻧﺪارد ﻛﻪ ﻣﺪل ﻋﻠﻤﻞ ﻏﻴﺮ ﺧﻄﻲ ﺑﺼﻮرت ﻓﺮﻣﻮل ﺑﺴﺘﻪ ﺑﺎﺷﺪ ﺑﻠﻜﻪ ﻣﻲ ﺗﻮاﻧﺪ ﺑﺼﻮرت ﺟﺪول ﺑﺎﺷﺪ‪.‬‬

‫‪20-5‬‬
‫‪6‬‬ ‫‪Parametric SI: Linear optimization cases‬‬

‫‪Ljung Chapter 7‬‬


‫ﺗﺨﻤﻴﻦ ﺑﺪون ﺑﺎﻳﺎس ﭘﺎراﻣﺘﺮ ﺗﺤﺖ ﺷﺮاﻳﻄﻲ ﺑﺼﻮرت ﺑﺴﺘﻪ ﻗﺎﺑﻞ ﺣﺼﻮل اﺳﺖ در ﺑﻘﻴﻪ ﻣـﻮارد ﻣﺴـﺌﻠﻪ ﺑﻬﻴﻨـﻪ ﺳـﺎزي ﻏﻴـﺮ‬
‫ﺧﻄﻲ و ﺑﺼﻮرت ﺗﻜـﺮار اﻧﺠـﺎم ﻣـﻲ ﺷـﻮد‪ .‬در اﻳﻨﺠـﺎ )‪ Prediction Error Method(PEM‬ﺧـﺎص و ‪Instrumental‬‬
‫)‪ variable methods (IV‬ﺑﺮاي ﺷﻨﺎﺳﺎﻳﻲ ﭘﺎراﻣﺘﺮﻳﻚ ﺑﺮرﺳﻲ ﻣﻲ ﺷﻮﻧﺪ‪ .‬در اﻳﻦ ‪ PEM‬ﻳﻜﺒﺎر ‪ LS‬و در ‪ IV‬ﺗـﺎ ﺳـﻪ ﺑـﺎر‬
‫‪ LS‬ﭘﺎﺳﺦ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﭘﺎراﻣﺘﺮﻳﻚ ﺳﻴﺴﺘﻢ‬
‫ﺑﺮاي ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ ﺧﻄﻲ‬

‫ﮔﺎم اول‪ :‬ﺗﺨﺼﻴﺺ ﻣﺪل ﭘﻴﺶ ﺑﻴﻨﻲ )ﺗﺨﻤﻴﻨﮕﺮ( ﺑﺮ اﺳﺎس ورودي و ﺧﺮوﺟﻲ ﻣﺎﻧﻨﺪ ﻣﺜﺎل ﺧﻄﻲ زﻳﺮ‬

‫ﻳﺎ ﻏﻴﺮ ﺧﻄﻲ‬

‫ﻛﻪ در آن ‪ Z‬ﻣﺠﻤﻮﻋﻪ دﻳﺘﺎي اﻧﺪازه ﮔﻴﺮي ﺷﺪه اﺳﺖ‪ .‬در راﺑﻄﻪ ﺑﺎ ﺳﺎﺧﺘﺎر ﻣﺪﻟﻬﺎ ﻗﺒﻼ ﺑﺤﺚ ﺷﺪ‪.‬‬
‫ﮔﺎم دوم‪ :‬اﻋﻤﺎل ﻧﻮﻋﻲ ﺑﻬﻴﻨﻪ ﺳﺎزي ﻛﻪ ﺑﻪ ﻣﻮﺟﺐ آن ﺧﻄﺎي ﭘﻴﺶ ﺑﻴﻨﻲ ﺣﺪاﻗﻞ ﮔـﺮدد‪ .‬در اﻳﻨﺠـﺎ )‪ M(θ‬ﻣﺠﻤﻮﻋـﻪاي از‬
‫ﻣﺪﻟﻬﺎﺳﺖ ﻛﻪ در ﺑﻴﻦ آﻧﻬﺎ )*‪ M(θ‬ﻣﺪﻟﻲ اﺳﺖ ﻛﻪ ﺧﻄﺎي ﭘﻴﺶ ﺑﻴﻨﻲ ‪prediction error‬‬
‫)*‪ε(t,θ*)=y(t)-ŷ(t|θ‬‬
‫را ﺑﻪ ﺣﺪاﻗﻞ ﻣﻲ رﺳﺎﻧﺪ‪.‬‬
‫در اﻳﻦ راﺑﻄﻪ ﭘﺎراﻣﺘﺮﻫﺎ و ﺳﻮاﻻت ﻣﻬﻢ ﺗﺌﻮرﻳﻚ و ﻋﻤﻠﻴﺎﺗﻲ وﺟﻮد دارﻧﺪ ﻛـﻪ ﺑﺎﻳـﺪ ﻣـﻮرد ﺗﻮﺟـﻪ ﻗـﺮار ﮔﻴﺮﻧـﺪ‪ .‬ﻣﻼﺣﻈـﺎت‬
‫ﺗﺌﻮرﻳﻚ در ﺧﺼﻮص ﻣﺪل اﻧﺘﺨﺎﺑﻲ از اﻳﻨﻘﺮارﻧﺪ‪:‬‬
‫‪ .١‬آﻳﺎ ﻣﺪل اﻧﺘﺨﺎﺑﻲ ﻣﻨﺠﺮ ﺑﻪ ﺗﺨﻤﻴﻦ ﺑﺪون ﺑﺎﻳﺎس ﭘﺎراﻣﺘﺮ ﻣﻲ ﺷﻮد؟ *‪ .θ̂ →θ‬اﻳﻦ ﻣﺒﺤﺚ در اﻳﻨﺠﺎ ﺑﺤﺚ ﻣﻲ ﺷﻮد‬
‫‪ .٢‬وارﻳﺎﻧﺲ ﺣﺪ ̅‪ V‬ﻣﺪل اﻧﺘﺨﺎﺑﻲ ﭼﻘﺪر اﺳﺖ و آﻳﺎ ̅‪ VN→V‬ﻣﻴﻞ ﻣﻲ ﻛﻨﺪ )ﻫﻤﮕﺮاﻳﻲ( در ﻓﺼﻞ ‪ 8‬ﺑﺤﺚ ﻣﻲ ﺷﻮد‪.‬‬
‫‪ .٣‬وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ ‪ θi‬در راﺑﻄﻪ ﺑﺎ ﻣﺪل اﻧﺘﺨﺎﺑﻲ ﺑﺮاي ﺳﻴﺴﺘﻢ ﭼﮕﻮﻧﻪ اﺳﺖ‪ .‬در ﻓﺼﻞ ‪ 9‬ﺑﺤﺚ ﻣﻲ ﺷﻮد‪ .‬ﻣﻨﻈـﻮر‬
‫از ﺑﺎﻳﺎس و وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ در ﺷﻜﻞ ﻧﺸﺎن داده ﺷﺪه اﺳﺖ‬
‫ﺷﻨﺎﺳﺎﻳﻲ ‪ :‬ﺑﻬﻴﻨﻪ ﺳﺎزي ﺧﻄﻲ‬

‫‪ .۴‬ﺟﻮاب ﺑﺴﺘﻪ‪ :‬ﺑﺮاي ﭼﻪ ﻧﻮع ﻣﺪﻟﻲ ﻣﻲ ﺗﻮان ﺟﻮاب ﺑﻬﻴﻨﻪ ﺑﺴـﺘﻪ داﺷـﺖ‪ .‬در اﻳـﻦ راﺑﻄـﻪ ﻣـﺪل رﮔﺮﺳـﻴﻮن ﺧﻄـﻲ و‬
‫‪ subspace‬از ﺧﺎﻧﻮاده ‪ PEM‬ﺑﺎ ﻓﺮض ﻧﻮﻳﺰ ﺳﻔﻴﺪ و ‪ IV‬ﺑﺎﻓﺮض رﮔﺮﺳﻴﻮن ﺧﻄﻲ و ﻧﻮﻳﺰ رﻧﮕﻲ ﻣﻨﺠﺮ ﺑﻪ ﻓﺮﻣﻮل ﺑﺴـﺘﻪ‬
‫ﺑﺮاي ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ ﻣﻲ ﺷﻮﻧﺪ ﻛﻪ اﻳﻨﺠﺎ ﺗﻮﺿﻴﺢ داده ﻣﻲ ﺷﻮﻧﺪ‪ .‬دﻳﮕﺮ روﺷﻬﺎ‪ ،‬روﺷﻬﺎي ﺑﺎز ﺗﻜﺮار ‪ iterative‬ﻫﺴـﺘﻨﺪ‬
‫ﻛﻪ ﻧﻴﺎز ﺑﻪ ﺷﺮاﻳﻂ اوﻟﻴﻪ دارﻧﺪ و ﻣﺸﻜﻼت ﺑﻬﻴﻨﻪ ﺳﺎزي ﻣﺎﻧﻨﺪ ﺣﺠﻢ ﻣﺤﺎﺳﺒﺎت و ﻣﻴﻨﻴﻤﻮم ﻣﺤﻠﻲ را دارﻧﺪ و در ﻓﺼـﻞ‬
‫‪ 10‬ﺷﺮح ﻣﻲ ﺷﻮﻧﺪ‪.‬‬

‫روش )‪MINIMIZING PREDICTION ERRORS (PEM‬‬ ‫‪1-6‬‬


‫ﻣﻌﻴﺎر ﻋﻤﻮﻣﻲ ﺗﺨﻤﻴﻦ در ‪ PEM‬از اﻳﻨﻘﺮار اﺳﺖ‬

‫ﻛﻪ در آن‬
‫‪ L(q) a stable linear filter filtering the prediction-error‬‬
‫‪ ℓ(.) is a scalar-valued (typically positive) function.‬‬
‫ﺑﻬﺘﺮﻳﻦ ﻣﺪل ﺗﺨﻤﻴﻨﻲ ﻣﺪﻟﻲ اﺳﺖ ﻛﻪ ﻣﻌﻴﺎر را ﺣﺪاﻗﻞ ﻛﻨﺪ‪.‬‬

‫روﺷﻬﺎي ‪ PEM‬از ﻧﻈﺮ اﻧﺘﺨﺎب ‪ L‬و ‪ ℓ‬ﺑﺎ ﻫﻢ ﺗﻔﺎوت دارﻧﺪ‪ .‬ﻧﻘﺶ اﻳﻦ دو ﭘﺎراﻣﺘﺮ در ﺑﺨﺸﻬﺎي ﺑﻌﺪ ﺑﺤﺚ ﺧﻮاﻫﻨـﺪ ﺷـﺪ‪ .‬در‬
‫اﻳﻨﺠﺎ ‪ L=1‬و ﻧﻮرم درﺟﻪ ‪(Quadratic) 2‬‬
‫‪2‬‬
‫‪ℓ(ε)=1/2 ε‬‬
‫ﻛـﻪ از ﻧﻈـﺮ ﻣﺤﺎﺳـﺒﺎﺗﻲ ﺟـﺬاﺑﻴﺖ دار در دو روش ‪ Least squares‬و ‪ subspace‬ﺑﺤـﺚ ﻣـﻲ ﺷـﻮﻧﺪ‪ .‬روﺷـﻬﺎ دﻳﮕـﺮ‬
‫‪ Optimization‬را در ﻣﺘﻨﻬﺎي ﻣﺮﺑﻮﻃﻪ ﻣﻲ ﺗﻮاﻧﻴﺪ ﻣﻼﺣﻈﻪ ﻛﻨﻴﺪ‪.‬‬
‫‪ ‬ﻧﻮرم ﭘﺎراﻣﺘﺮي‪ :‬ﻧﻮرم ﻣﻤﻜﻦ اﺳﺖ ﭘﺎراﻣﺘﺮي ﺗﻌﺮﻳﻒ ﺷﻮدﭼﻮن ﺑﻬﺘﺮن ﻧﻮرم از ﻗﺒﻞ ﻣﻌﻠﻮم ﻧﻴﺴﺖ ﻣﻌﻘﻮل اﺳﺖ ﻛـﻪ ﻧـﻮرم‬
‫ﻧﻴﺰ ﭘﺎراﻣﺘﺮي ﺷﻮد‬

‫ﻧﻮرم واﺑﺴﺘﻪ ﺑﻪ زﻣﺎن‪ :‬ﻛﻪ ﺑﻪ ﻓﺮﻣﻬﺎي زﻳﺮ ﻧﻮﺷﺘﻪ ﻣﻲ ﺷﻮد‬

‫زﻣﺎﻧﻲ ﻣﻮﺛﺮ اﺳﺖ ﻛﻪ اﺛﺮ ﻧﻮﻳﺰ ﺗﺎﺑﻊ زﻣﺎن ﺑﺎﺷﺪ‪ .‬ﺑﻪ اﻳﻦ ﻣﻌﻨﻲ ﻛﻪ اﻧﺪازه ﮔﻴﺮي در ﺑﺎزه ﻫﺎﻳﻲ ﻣﻌﺘﺒﺮﺗﺮ ﺑﺎﺷﺪ‬

‫‪2-6‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ‪ :‬ﺑﻬﻴﻨﻪ ﺳﺎزي ﺧﻄﻲ‬
‫‪ 1-1-6‬ﺣﻞ ﺷﻨﺎﺳﺎﻳﻲ رﮔﺮﺳﻴﻮن ﺧﻄﻲ ﺑﺎ )‪Least Squares (LS‬‬
‫ﺑﺮاي ﺳﻴﺴﺘﻢ ‪ y=Gu+e‬ﻓﺮض ﻛﻨﻴﺪ ﻣﺪل رﮔﺮﺳﻴﻮن ﺧﻄﻲ زﻳﺮ‬

‫ﺑﺎ دﻳﺘﺎي‬

‫و ﭘﺎراﻣﺘﺮ ‪ θ‬در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﺪه ﺑﺎﺷﺪ‪ .‬اﻳﻦ وﺿﻌﻴﺖ‪ ،‬ﺗﺨﻤﻴﻦ ﺑﺪون ﺑﺎﻳﺎس ﺑﺎ ﭘﺎﺳﺦ ﺑﺴﺘﻪ ﻣﻲ دﻫﺪ اﮔﺮ ‪ e‬ﺳﻔﻴﺪ و ‪ e‬و‬
‫‪ u‬ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ‪ .‬دراﻳﻦ راﺑﻄﻪ ﻣﺎﺗﺮﻳﺲ ‪ ϕ‬رﮔﺮﺳﻮر ﻳﺎ ﻣﺎﺗﺮﻳﺲ ‪ Design‬ﺧﻮاﻧﺪه ﻣﻲ ﺷﻮد‪ y .‬ﺑﺮدار ﻣﺘﻐﻴﺮ ‪regressed‬‬
‫ﻳﺎ ‪ regressand‬اﺳﺖ‪ .‬در ﻧﻬﺎﻳﺖ ‪ θ‬ﺑﺮدار ﭘﺎراﻣﺘﺮﻫﺎﺳﺖ ﻛﻪ ﺑﻪ ﻧﺎم ‪ regression coefficients‬ﻧﻴـﺰ ﺧﻮاﻧـﺪه ﻣـﻲ ﺷـﻮﻧﺪ‪.‬‬
‫ﻣﺜﻼ در ﺳﻴﺴﺘﻢ‬

‫ﺑﺮدار ‪ θ‬ﺣﺎوي ﻣﻮﻟﻔﻪ ﻫﺎي )‪ h(0‬ﺗﺎ )‪ h(M-1‬و ﻣﺎﺗﺮﻳﺲ ‪ ϕ‬از اﻳﻨﻘﺮارﻧﺪ‪.‬‬

‫ﻫﺪف ﭘﻴﺪاﻛﺮدن ‪ θ=ϕ-1y‬اﺳﺖ‪ .‬ﺑﻪ دﻟﻴﻞ ﻧﻮﻳﺰي ﺑﻮدن ﺳﻴﮕﻨﺎل ﺑﻪ ﺗﻌﺪاد زﻳﺎدﺗﺮي دﻳﺘﺎ ‪ N‬ﻧﺴﺒﺖ ﺑﻪ درﺟﻪ ﻣـﺪل ‪) n‬ﺳـﺎﻳﺰ‬
‫‪ (θ‬ﻧﻴﺎز اﺳﺖ‪ .‬دزﻧﺘﻴﺠﻪ ﻳﻚ ﺳﻴﺴﺘﻢ ﻣﻌﺎدﻻت ‪ overdetermined‬وﺟﻮد دارد ﻛﻪ‬
‫‪y=ϕ’θ‬‬ ‫‪ϕ’ is N*n N≫n‬‬
‫اﺳﺖ ﺑﺎ ﺣﺪاﻗﻞ ﺳﺎزي ‪ Linear Least Squares‬ﻣﻌﻴﺎر ﺣﺪاﻗﻞ ﻣﻲ ﺷﻮد‪.‬‬

‫ﻛﻪ ﻣﻌﺎدل ﺣﺪاﻗﻞ ﺳﺎزي ‪ ||ε||2‬اﺳﺖ‪ .‬در اﻳﻦ ﺣﺎﻟﺖ ‪ VN‬ﻧﺴﺒﺖ ﺑﻪ ‪ θ‬ﻛﻮادراﺗﻴﻚ ﺑﺎ ﻳﻚ ﻣﻴﻨﻴﻤﻮم اﺳﺖ ﻛﻪ ﺑﻪ ﺳﺎدﮔﻲ ﻗﺎﺑﻞ‬
‫ﺣﻞ اﺳﺖ‪ .‬ﻣﺪﻟﻬﺎي ‪ ARX‬و ‪ FIR‬اﻳﻨﮕﻮﻧﻪ ﻫﺴﺘﻨﺪ‬

‫ﺣﻞ اﻳﻦ ﻣﺴﺌﻠﻪ ﭘﺎﺳﺦ ﺗﺤﻠﻴﻠﻲ ﺑﺴﺘﻪ دارد ﻛﻪ اﻳﻨﮕﻮﻧﻪ ﺣﺎﺻﻞ ﻣﻲ ﺷﻮد‬
‫‪ε=y-ϕ’θ V=ε’ε/2dV/dθ=0‬‬
‫‪dV/dθ=d(y-ϕ’θ)’(y-ϕ’θ)/2dθ=-ϕ’y+ϕ’ϕθ=0‬‬
‫‪θ=(ϕ’ϕ)-1ϕ’y‬‬
‫‪3-6‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ‪ :‬ﺑﻬﻴﻨﻪ ﺳﺎزي ﺧﻄﻲ‬
‫ﻳﺎ ﺑﻪ ﻋﺒﺎرت دﻳﮕﺮ‬

‫‪ ‬ﻛﻪ ﺑﺼﻮرت ‪ θ̂=R-1f‬ﻣﻲ ﺗﻮان ﻧﻮﺷﺖ ﻛﻪ در آن ‪ R‬ﻳﻚ ﻣﺎﺗﺮﻳﺲ ‪ d*d‬و ‪ f‬ﻳﻚ ﺑـﺮدار ﺳـﺘﻮﻧﻲ ‪ d*1‬اﺳـﺖ ﻛـﻪ ‪ d‬ﺗﻌـﺪاد‬
‫ﭘﺎراﻣﺘﺮﻫﺎي ﻣﺠﻬﻮل اﺳﺖ‬

‫‪ R‬از ﻓﺮﻣﻮل زﻳﺮ ﻣﺤﺎﺳﺒﻪ ﻣﻲ ﺷﻮد‪.‬‬

‫از آﻧﺠﺎ ﻛﻪ ﻣﺎﺗﺮﻳﺲ ‪ R‬ﻛﻮارﻳﺎﻧﺲ ‪ y‬و ‪ u‬اﺳﺖ )‪ LS ( Ryu‬ﺗﺨﻤﻴﻦ ‪ LS‬ﺑﺎ ‪ correlation‬ﻣﺮﺗﺒﻂ ﻣﻲ ﺷﻮد‪6.1 .‬‬
‫‪Polynomial fitting‬‬ ‫ﻣﺜﺎل ‪ (1‬ﻧﻤﺎﻳﺶ ﻋﻤﻠﻜﺮد ‪ LS‬در ﻣﺪل ﺳﺎزي ﺑﺪون دﻳﻨﺎﻣﻴﻚ‪:‬‬
‫درﺟﻪ واﻗﻌﻲ ﻣﻨﺤﻨﻲ ‪ n=3‬اﺳﺖ ﻛﻪ ﺑﻪ آن ﻧﻮﻳﺰ اﺿﺎﻓﻪ ﺷﺪه اﺳﺖ‪ .‬ﺑﻪ دﻳﺘﺎ ﻣﻨﺤﻨﻲ ﺑﺎ ‪ n=3 ،n=1‬و ‪ n=10‬ﻓﻴﺖ ﺷـﺪه ﻛـﻪ‬
‫در ﺷﻜﻞ ﻧﺸﺎن داده ﺷﺪه اﺳﺖ‬

‫‪ 2-1-6‬ﺗﻔﺴﻴﺮ ﻫﻨﺪﺳﻲ ‪LS‬‬


‫ﻣﺸﺎﺑﻪ )‪ (||ϕθ-y||2‬ﻣﻘﺪار ||‪ ||Ax-y‬ﻓﺎﺻﻠﻪ ﺑﺮدار ‪ y‬از ﺳﻄﺢ‬ ‫در ﺣﺪاﻗﻞ ﺳﺎزي‬

‫اﺳﺖ ﻛﻪ در ﺣﺎﻟﺖ ‪ 2‬ﺑﻌﺪي )دو ﭘﺎراﻣﺘﺮي( در ﺷﻜﻞ ﻧﺸﺎن داده ﺷﺪه اﺳﺖ‪ .‬ﺑﺮاي‬

‫‪ a1‬ﻣﻮﻗﻌﻴﺖ ’]‪ [1 1 0‬و ’]‪ a2=[-1 2 0‬اﺳﺖ‪ .‬ﺗﺼﻮﻳﺮ )‪ y (Projection‬روي ﺻﻔﺤﻪ ‪ a1-a2‬ﺑﺮدار ’]‪ Axls=[1 4 0‬اﺳـﺖ‪.‬‬
‫ﺣﺎل ﻣﻘﺪار ‪ x1‬و ‪ x2‬از راﺑﻄﻪ ‪ a1x1+a2x2=Axls‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ ﻛﻪ ‪ x1=2‬و ‪ x2=1‬اﺳﺖ‪.‬‬

‫‪4-6‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ‪ :‬ﺑﻬﻴﻨﻪ ﺳﺎزي ﺧﻄﻲ‬

‫ﻣﻲ ﺗﻮان ﻧﺸﺎن داد ﻛﻪ ‪ Axls=Py‬اﺳﺖ ﻛﻪ ﻣﺎﺗﺮﻳﺲ ‪ P‬داراي ﺧﻮاص زﻳﺮ اﺳﺖ‬
‫‪,‬‬ ‫‪P=P*,‬‬ ‫‪P2=P,‬‬ ‫‪,‬‬ ‫‪I-P≥0‬‬
‫‪ 3-1-6‬ﺑﺎﻳﺎس ﺗﺨﻤﻴﻦ‬
‫ﻧﺸﺎن داده ﻣﻲ ﺷﻮد ﻛﻪ ﺑﺎﻳﺎس ﺗﺨﻤﻴﻦ در ﻣﺜﺎل ﻓﻮق ﻛﻪ ﺳﻴﮕﻨﺎﻟﻬﺎ ‪ quasi stationery‬ﻫﺴﺘﻨﺪ ﺑﺮاﺑﺮاﺳﺖ ﺑﺎ‬

‫ﺑﺮاي ﺻﻔﺮ ﺷﺪن ﺑﺎﻳﺎس ﺗﺨﻤﻴﻦ )ﺗﻀﻤﻴﻦ ‪ (consistency‬ﺑﺎﻳﺪ )ﻃﺒﻖ ﺗﺌﻮري ‪(2.3‬‬
‫‪ R* .١‬ﻏﻴﺮ ﻣﻨﻔﺮد‪ :‬اﻳﻦ ﺷﺮط ﺗﺎﻣﻴﻦ ﻣﻲ ﺷﻮد اﮔﺮ ورودي ‪ u‬ﺳﻴﮕﻨﺎل )‪ persistently exciting(PE‬ﻣﺮﺗﺒﻪ ‪ nb‬ﺑﺎﺷﺪ‬
‫‪ : f* =0 .٢‬اﻳﻦ ﺷﺮط در ﺻﻮرت ﻫﺮﻳﻚ از ﻣﻮارد زﻳﺮ ﻣﺤﻘﻖ اﺳﺖ‬
‫اﻟﻒ( ‪ vo‬ﻧﻮﻳﺰ ﺳﻔﻴﺪ‬
‫ﻧﻮﻳﺰ ﺳﻔﻴﺪ ﺑﺎ ﻣﻴﺎﻧﮕﻴﻦ ﺻﻔﺮﺑﺎﺷﺪ ‪ v0=e‬ﺑﺎ وارﻳﺎﻧﺲ ‪ λ‬آﻧﮕﺎه وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‪:‬‬

‫ب( )‪Best linear unbiased estimator (BLUE‬‬


‫اﮔﺮ ‪ u‬و ‪) v0‬ﺑﺎ ﻣﻴﺎﻧﮕﻴﻦ ﺻﻔﺮ( ﻣﺴﺘﻘﻞ و ‪ na=0‬ﺑﺎﺷﺪ ﺗـﺎ ﺑـﺮدار رﮔﺮﺳـﻴﻮن ﻓﻘـﻂ ﺗﺮﻣﻬـﺎي ‪ u‬داﺷـﺘﻪ و ﻓﺎﻗـﺪ ‪ y‬ﺑﺎﺷـﺪ ﺗـﺎ‬
‫ﮔﺮدد ﻣﺜﻞ ﺳﻴﺴﺘﻢ ‪ .y=Bu+v‬در اﻳﻦ ﺳﻴﺴﺘﻤﻬﺎ ﺗﺨﻤﻴﻦ ﺧﻄـﻲ ‪ θ̂=B̂ =Ay‬در ﻧﻈـﺮ ﮔﺮﻓﺘـﻪ ﻣـﻲ‬ ‫‪.‬‬
‫ﺷﻮد‪ A .‬ﺣﺪاﻗﻞ ﻣﻲ ﮔﺮدد ﺗﺎ ‪ θ̂=AUθ‬ﺷﻮد ﻳﻌﻨﻲ ‪ .AU=I‬ﺑﻪ اﻳﻦ ﺗﺮﺗﻴﺐ ﺗﺨﻤﻴﻦ ﺑﺪون ﺑﺎﻳﺎس ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ ﺑﺪون آﻧﻜﻪ‬
‫‪ PDF‬ﻧﻮﻳﺰ ﺧﻮاﺳﺘﻪ ﺷﻮد ﺗﻨﻬﺎ ﻛﻮارﻳﺎﻧﺲ آن ‪ C‬ﻣﻮرد ﻧﻴﺎز اﺳﺖ‪ .‬در اﻳﻦ ﺣﺎل ﺗﺨﻤﻴﻦ‬
‫‪−1‬‬
‫‪θˆ = (ϕ ' C −1ϕ ) ϕ ' C −1 y‬‬
‫‪−1‬‬
‫) ‪cov(θˆ) = (ϕ ' C −1ϕ‬‬
‫دﻳﮕﺮ ﻣﻮارد‬

‫‪5-6‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ‪ :‬ﺑﻬﻴﻨﻪ ﺳﺎزي ﺧﻄﻲ‬
‫‪ ‬در دﻳﮕﺮ ﻣﻮارد ﺗﺨﻤﻴﻦ ‪ consistent‬ﻧﻴﺴﺖ زﻳﺮا وﻗﺘﻲ ‪ na>0‬اﺳﺖ ‪ ϕ‬داراي ﺗﺮﻣﻬﺎي ‪ y‬اﺳﺖ و ﭼـﻮن ‪ v0‬ﻧﻴـﺰ ﺳـﻔﻴﺪ‬
‫ﺷﺪه و ﺑﺎﻳﺎس ﺗﺨﻤﻴﻦ ﺑﻬﻤﺮاه ﺧﻮاﻫﺪ ﺑﻮد‪.‬‬ ‫ﻧﻴﺴﺖ ﻣﻌﻤﻮﻻ‬
‫‪Weighted Least Squares‬‬
‫ﻣﻤﻜﻦ اﺳﺖ در ‪ LS‬وزن زﻣﺎﻧﻲ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﻮد ﻛﻪ ﺑﻪ ﻧﺎم ‪ WLS‬ﺧﻮاﻧﺪه ﻣﻲ ﺷﻮد‪.‬‬

‫ﻛﻪ ﺟﻮاب آن ﻣﺸﺎﺑﻪ ‪ LS‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬

‫ﻣﺜﺎل ‪ (2‬ﭘﺎراﻣﺘﺮﻫﺎي ﺳﻴﺴﺘﻢ ‪ ARX‬را ﺗﺨﻤﻴﻦ ﺑﺰﻧﻴﺪ‪.‬‬


‫ﻣﺪل ﺷﺒﻴﻪ ﺳﺎزي‬

‫اﺳﺖ ﻛﻪ ﺑﺼﻮرت ‪ y=ϕ’θ+e‬ﻣﻲ ﺗﻮان ﻧﻮﺷﺖ‬

‫ﻛﻪ در ان ‪ ϕ‬ﺑﺮدار رﮔﺮﺳﻴﻮن و ‪ θ‬ﺑﺮدار ﭘﺎراﻣﺘﺮﻫﺎﺳﺖ‪ .‬ﻣﺪل ﺗﺨﻤﻴﻦ اﻳﻦ ﺳﻴﺴﺘﻢ ‪ ŷ=ϕ’θ‬اﺳـﺖ و ﺧﻄـﺎي ﺗﺨﻤـﻴﻦ ﺑﺮاﺑـﺮ‬
‫اﺳﺖ ﺑﺎ ‪ . ε=y-ŷ‬ﺑﺎ در ﻧﻈﺮ ﮔﺮﻓﺘﻦ ﻣﻌﻴﺎر درﺟﻪ ‪ 2‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬

‫ﻛﻪ ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫دﺳﺘﻮرات ‪MATLAB‬‬

‫‪6-6‬‬
‫ ﺑﻬﻴﻨﻪ ﺳﺎزي ﺧﻄﻲ‬: ‫ﺷﻨﺎﺳﺎﻳﻲ‬

Assuming the system is second-order with no time delay, we take na = 2, nb = 1, nk = 1.


‫ﺣﺎل ورودي و ﺧﺮوﺟﻲ ﺑﺮاي اﻋﺘﺒﺎر ﺳﻨﺠﻲ‬

‫ﻛﻪ ﻧﺘﺎﻳﺞ ﺑﺪﺳﺖ آﻣﺪه ﺧﻮب ﻧﻴﺴﺖ‬

Better idea: try many different structures and choose the best one.
Na = 1:15; Nb = 1:15; Nk = 1:5;
NN = struc(Na, Nb, Nk);
V = arxstruc(id, val, NN);
To choose the structure with the smallest MSE:
N = selstruc(V, 0);
For our data, N= [8, 7, 1].
Alternatively, graphical selection: N = selstruc(V, ’plot’);
model = arx(id, N); compare(model, val);

7-6
‫ﺷﻨﺎﺳﺎﻳﻲ ‪ :‬ﺑﻬﻴﻨﻪ ﺳﺎزي ﺧﻄﻲ‬

‫ﺗﻌﻴﻴﻦ ﻣﺪل ‪ARMAX‬‬


‫;)]‪mARMAX = armax(id, [na, nb, nc, nk‬‬
‫‪Considering the system is 2nd order with no time delay, take na = 2,‬‬
‫‪nb = 2, nc = 2, nk = 1. Validation:‬‬
‫;)‪compare(val, mARMAX‬‬

‫‪ 4-1-6‬ﻣﺸﻜﻞ ﻧﻮﻳﺰ رﻧﮕﻲ‪ v :‬ﻏﻴﺮ ﺳﻔﻴﺪ‬


‫ﻣﺸﻜﻞ ‪ LS‬ﺑﺎ ﻧﻮﻳﺰ رﻧﮕﻲ اﺳﺖ‪ .‬در ﺳﻴﺴﺘﻢ ‪ Ay=Bu+v‬ﻛﻪ ‪ v‬ﺳﻔﻴﺪ ﻧﺒﺎﺷﺪ ﺗﺨﻤﻴﻦ ﺑﺎﻳﺎس دار اﺳﺖ ﺑـﺮاي رﻓـﻊ ﻣﺸـﻜﻞ‬
‫ﺗﺤﺖ دو ﺷﺮط زﻳﺮ ﺑﺎز ﻣﻲ ﺗﻮان ﺗﺨﻤﻴﻦ ﺑﺪون ﺑﺎﻳﺎس داﺷﺖ‬
‫‪-1‬‬
‫‪ .١‬در ﺻﻮرت ﻣﺸﺨﺺ ﺑﻮدن ‪ H‬ﻣﻲ ﺗﻮان ﺑﺎ ﻓﻴﻠﺘﺮ ﻛﺮدن ‪ y‬و ‪ u‬ﺑﺎ ‪ H‬ﻓﺮﻣﻮﻟﻲ ﺑﺎ ﻣﺪل رﮔﺮﺳﻴﻮن ﺧﻄﻲ داﺷﺖ‬

‫اﻳﻦ ﻣﻌﺎدل اﺳﺘﻔﺎده از ﭘﻴﺶ ﻓﻴﻠﺘﺮ ‪ L=H-1‬در ﻣﻌﻴﺎر ﺗﺨﻤﻴﻦ اﺳﺖ‬


‫‪ .٢‬ﻣﺪل درﺟﻪ ﺑﺎﻻ ‪ :repealed least squares‬ﻓﺮض ﻛﻨﻴﺪ ‪ H=1/D‬ﺑﺎﺷﺪ‬

‫ﻛﻪ ﻣﻨﺠﺮ ﺑﻪ ﻣﺪل ﺑﺎ رﮔﺮﺳﻴﻮن ﺧﻄﻲ زﻳﺮ ﻣﻲ ﺷﻮد‬

‫‪8-6‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ‪ :‬ﺑﻬﻴﻨﻪ ﺳﺎزي ﺧﻄﻲ‬

‫ﻛﻪ ﺗﺨﻤﻴﻦ ﺑﺪون ﺑﺎﻳﺎس ‪ AD‬و ‪ BD‬را در ﭘﻲ دارد ﻛﻪ در ﻧﻬﺎﻳﺖ ‪ G‬ﺑﻪ درﺳﺘﻲ ﺗﺨﻤﻴﻦ زده ﻣﻲ ﺷﻮد‬

‫‪Regularization 5-1-6‬‬
‫ﺑﻪ دﻻﻳﻠﻲ ﻛﻪ ذﻳﻼ ﻋﻨﻮان ﻣﻲ ﺷﻮﻧﺪ ﺿﺮورت دارد ﻣﻌﻴﺎر ﺗﺨﻤﻴﻦ ﺑﻪ ﻓﺮﻣﻮل زﻳﺮ ﻧﻮﺷﺘﻪ ﺷﻮد‪.‬‬

‫ﻛﻪ ‪ θ#‬ﻳﻚ ﻧﻘﻄﻪ ﺛﺎﺑﺖ در ﻓﻀﺎي ﭘﺎراﻣﺘﺮﻫﺴﺖ ﻛﻪ ﻣﺒﺪا ﻳﺎ ﻧﻘﻄﻪ اي ﺑﺮ اﺳﺎس اﻃﻼﻋﺎت اوﻟﻴـﻪ اﺳـﺖ‪ .‬دﻟﻴـﻞ آن از اﻳﻨﻘـﺮار‬
‫اﺳﺖ‬
‫‪N‬‬
‫‪ .١‬اﮔﺮ ‪ θ‬ﭘﺎراﻣﺘﺮﻫﺎي زﻳﺎدي داﺷﺘﻪ ﺑﺎﺷﺪ ﺣﺪاﻗﻞ ﺳﺎزي ‪ V‬از ﻧﻈﺮ ﻣﺤﺎﺳﺒﺎﺗﻲ ﻣﻤﻜـﻦ اﺳـﺖ‪ ill conditioned‬ﺷـﻮد‬
‫‪ ill-conditioned‬ﺷﻮد( اﺿﺎﻓﻪ ﻛﺮدن ‪ δI‬ﺑﻪ اﻳﻦ ﻣﺎﺗﺮﻳﺲ آﻧﺮا از ﻧﻈﺮ ﻣﺤﺎﺳـﺒﺎﺗﻲ ﻣـﺎﺗﺮﻳﺲ ﺑﻬﺘـﺮي‬ ‫)ﻣﺎت ريس‬
‫ﻣﻲ ﺳﺎزد‪ .‬از ﻫﻤﻴﻦ رو ﺑﻪ آن ‪ regularization‬می گويند‪.‬‬
‫‪ .٢‬اﮔﺮ ﺗﻌﺪاد ﭘﺎراﻣﺘﺮﻫﺎ زﻳﺎد ﺑﺎﺷﺪ ﻣﺎﻧﻨﺪ )‪ (Nonlinear black box‬ﻣﻤﻜﻦ اﺳﺖ ﻧﺘﻮان ﺗﻤـﺎم ﭘﺎراﻣﺘﺮﻫـﺎ را ﺑـﻪ درﺳـﺘﻲ‬
‫ﺗﺨﻤﻴﻦ زد ﺑﺎ اﺿﺎﻓﻪ ﻛﺮدن اﻳﻦ ﺗﺮم ﺑﻴﺸﺘﺮ ﭘﺎراﻣﺘﺮﻫﺎﻳﻲ ﻛﻪ ﺗﺎﺛﻴﺮ ﻛﻤﻲ ﺑﺮ ‪ VN‬دارﻧﺪ ﺑﻪ ﺳﻮي ﻧﻘﻄـﻪ ﺛﺎﺑـﺖ داده ﺷـﺪه‬
‫ﻛﺸﻴﺪه ﺷﺪه و ﺑﻪ ﺳﻤﺖ ﻣﻘﺎدﻳﺮ ﺗﺨﺮﻳﺐ ﻛﻨﻨﺪه ﻧﻤﻲ روﻧﺪ‪ δ .‬را ﻣﻲ ﺗﻮان ﺑﻌﻨﻮان ﭘﺎراﻣﺘﺮي در ﻧﻈﺮ ﮔﺮﻓﺖ ﻛـﻪ ﺗﻌـﺪاد‬
‫ﭘﺎراﻣﺘﺮﻫﺎﻳﻲ ﻛﻪ ﺑﻪ ﺳﻮي ‪ θ#‬ﻣﻴﺮوﻧﺪ را ﻛﻨﺘﺮل ﻣﻲ ﻛﻨﺪ‪ .‬ﺑﺎ ‪ δ‬ﺑﺰرگ ﺗﻌﺪاد ﺑﻴﺸﺘﺮ ﺑﻪ ﺳﻮي ﻧﻘﻄـﻪ داده ﺷـﺪه و ﺗﻌـﺪاد‬
‫ﻛﻤﺘﺮ ﺑﻪ ﺳﻮي ﻣﻘﺎدﻳﺮ ﺑﻬﻴﻨﻪ ﺧﻮد ﻣﻴﺮوﻧﺪ‪.‬‬
‫‪ 6-1-6‬آﻧﺎﻟﻴﺰ ‪ PEM‬ﺑﺮاي ﺳﻴﺴﺘﻢ ‪ LTI‬در ﻣﻴﺪان ﻓﺮﻛﺎﻧﺲ‬
‫اﮔﺮ ﺳﻴﺴﺘﻢ ‪ y=Gu+He‬ﺑﺎﺷﺪ ﺑﺮاي ‪ w=Gu‬در ﺣﺎﻟﺖ دﻳﺘﺎي ﻣﺤﺪود دارﻳﻢ )ﺗﺌﻮري ‪(2.1‬‬

‫‪ DFT‬ﺧﻄﺎي‬

‫ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫ﻃﺒﻖ راﺑﻄﻪ ﭘﺎرﺳﻮال دارﻳﻢ‬

‫‪9-6‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ‪ :‬ﺑﻬﻴﻨﻪ ﺳﺎزي ﺧﻄﻲ‬

‫‪‬‬
‫و ﺑﺎ ﻟﺤﺎظ ﻛﺮدن ﻓﻮرﻳﻪ ﺧﻄﺎ‬

‫ﺧﻮاﻫﻴﻢ داﺷﺖ‬

‫ﺑﺎ ﻟﺤﺎظ ﻛﺮدن ‪ 6.24 y=Ĝ u‬راﺑﻄﻪ‬

‫‪ ‬ﻧﺘﻴﺠﻪ ﻣﻲ ﺷﻮد‪ .‬ﺑﻪ اﻳﻦ ﺗﺮﺗﻴﺐ ‪ PEM‬ﻛﻪ ﻣﻌﻴﺎر ‪ V‬را ﺣﺪاﻗﻞ ﻣﻲ ﺳﺎزد ﺑﻪ ﻋﺒﺎرت دﻳﮕﺮ ﻳﻚ ﺗﺨﻤﻴﻨﮕﺮ ﻃﻴﻒ اﺳﺖ ﻛﻪ از‬
‫ﺗﺎﺑﻊ ﻫﻤﻮارﺳﺎز ‪ Q‬اﺳﺘﻔﺎده ﻣﻲ ﻛﻨﺪ‪ .‬از آﻧﺠﺎ ﻛﻪ ﻃﺒﻖ ﻟﻢ ‪ 6.1‬وارﻳﺎﻧﺲ ﻣﺠﺎﻧﺒﻲ )‪v(k‬‬

‫اﺳﺖ از ﺗﻄﺒﻴﻖ آن ﺑﺎ ‪ Q‬دﻳﺪه ﻣﻲ ﺷﻮد ﻛﻪ ‪ Q‬ﻣﻌﻜﻮس وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ‪ v‬اﺳﺖ وﻗﺘﻲ ﻃﻴﻒ ﻧﺎ ﻣﻌﻠﻮم ﻧﻮﻳﺰ ﺑﺎ ‪ |H|2‬ﻋـﻮض‬
‫ﺷﻮد‪.‬‬
‫ﺑﺪون در ﻧﻈﺮ ﮔﺮﻓﺘﻦ ‪ R̅ N‬اﻳﻦ راﺑﻄﻪ ‪ Weighted LS‬ﺑﺮاي ﻣﺪل زﻳﺮ ﻣﻲ ﺗﻮان دﻳﺪ‬

‫ﻧﺘﻴﺠﻪ‬
‫روش ‪ PEM‬روش ﻓﻴﺖ ﻛﺮدن ﻳﻚ ﺗﺎﺑﻊ ﺗﺒﺪﻳﻞ ﺑﻪ ‪ ETFE‬ﺑﺎ ﺗﺎﺑﻊ وزﻧﻲ ﻣﻄﺎﺑﻖ ‪ signal-to-noise ratio‬اﺳﺖ‪.‬‬
‫وﻗﺘﻲ راﺑﻄﻪ را ﺑﺼﻮرت اﻧﺘﮕﺮاﻟﻲ ﺑﻨﻮﻳﺴﻴﻢ‬

‫ﺑﺼﻮرت ﺗﺨﻤﻴﻦ ﻃﻴﻒ ‪ EFTE‬ﺑﺎ ﺗﺎﺑﻊ ﻫﻤﻮارﺳﺎز ‪ Q‬ﻣﻲ ﮔﺮدد ﺗﺎ ﺷﺒﺎﻫﺖ ﺑﻴﻦ اﻳﻦ دو ﺑﻴﺸﺘﺮ روﺷﻦ ﺷﻮد‪.‬‬
‫‪ ‬ﺑﻪ ﻋﺒﺎرت دﻳﮕﺮ روش ‪ PEM‬ﺗﺨﻤﻴﻨﮕﺮ ﻃﻴﻒ ﺑﺎ ﺗﺎﺑﻊ ﻫﻤﻮار ﻛﻨﻨﺪه ‪ Q‬اﺳﺖ‪6.4 .‬‬
‫‪ ‬اﮔﺮ ‪ G=0‬ﺑﺎﺷﺪ )ﺳﺮﻳﻬﺎي زﻣﺎﻧﻲ( روش ‪ PEM‬ﺗﺎﺑﻊ زﻳﺮ را ﺣﺪاﻗﻞ ﻣـﻲ ﻛﻨـﺪ ﻛـﻪ ﺑـﻪ ﻧـﺎم ﺗﺨﻤﻴﻨﮕـﺮ وﻳﺘـﻞ ‪Whittle‬‬
‫ﺷﻨﺎﺧﺘﻪ ﻣﻲ ﺷﻮد‪.‬‬

‫‪10-6‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ‪ :‬ﺑﻬﻴﻨﻪ ﺳﺎزي ﺧﻄﻲ‬
‫‪ 7-1-6‬ﺷﻨﺎﺳﺎﻳﻲ ﻣﺪل ﻓﻀﺎي ﺣﺎﻟﺖ ‪Subspace Methods:‬‬
‫اﻳﻦ اﻣﻜﺎن وﺟﻮد داﺷﺖ ﻛﻪ ﻣﺪل ﻓﻀﺎي ﺣﺎﻟﺖ ﺑﻪ ﻣﺪل ورودي‪-‬ﺧﺮوﺟﻲ ﺗﺒﺪﻳﻞ و ﻣﻮرد ﺷﻨﺎﺳﺎﻳﻲ ﻗﺮار ﮔﻴﺮد‪ .‬اﻣﺎ در اﻳﻨﺠـﺎ‬
‫ﻣﺴﺘﻘﻴﻤﺎ ﻣﺪل ﻓﻀﺎي ﺣﺎﻟﺖ ﺷﻨﺎﺳﺎﻳﻲ ﻣﻲ ﮔﺮدد‪ .‬ﺳﻴﺴﺘﻢ ﺧﻄﻲ را ﻣﻲ ﺗﻮان ﺑﺎ ﻣﺪل زﻳـﺮ ﻛـﻪ در آن ‪ v‬و ‪ w‬ﻧـﻮﻳﺰ ﺳـﻔﻴﺪ‬
‫ﻫﺴﺘﻨﺪ ﻧﻮﺷﺖ‬

‫روش ﺟﺎﻳﮕﺰﻳﻦ‬

‫اﺳﺖ ﻛﻪ در آن ‪ v‬رﻧﮕﻲ اﺳﺖ‪ .‬در ﻳﻚ ﻣﻘﺎﻳﺴﻪ ﺳﺎﻳﺰ ﻣﺪل ‪ 7.54‬ﻛﻮﭼﻜﺘﺮ از ‪ 7.55‬اﺳﺖ زﻳﺮ ﺑﺮاي ﻣﺪل ﻛﺮدن ﻧﻮﻳﺰ رﻧﮕـﻲ‬
‫ﺑﻪ در ﻧﻈﺮ ﮔﺮﻓﺘﻦ ‪ extra state‬ﻧﻴﺎز اﺳﺖ‪.‬‬
‫‪ ‬ﻣﺪل ﻓﻀﺎي ﺣﺎﻟﺖ را ﻣﻤﻜﻦ اﺳﺖ از ‪ physical insight‬ﻳﺎ ‪ black box‬ﺑﺼﻮرت ‪ canonical‬در ﻧﻈﺮ ﮔﺮﻓﺖ‪.‬‬
‫‪ ‬اﮔﺮ ﺷﺮط ‪ canonical‬ﺑﺮداﺷﺘﻪ ﺷﻮد ﭼﻮن ﺑﻴﻨﻬﺎﻳﺖ ﻣﺪل ﻓﻀﺎي ﺣﺎﻟﺖ ﺑﺎ ورودي‪-‬ﺧﺮوﺟﻲ ﻳﻜﺴﺎن وﺟﻮد ﺧﻮاﻫﺪ داﺷـﺖ‬
‫ﻻﺟﺮم ‪ x‬را ﺑﺎﻳﺪ ﻣﺸﺨﺺ ﻛﺮد ﺗﺎ ﻣﺪل ﻣﻨﺤﺼﺮ ﺑﻪ ﻓﺮد ﺷﻮد‪ .‬دﻗﺖ ﻛﻨﻴﺪ ﻛﻪ ﻓﻘـﻂ ‪ u‬و ‪ y‬اﻧـﺪازه ﮔﻴـﺮي ﻣـﻲ ﺷـﻮﻧﺪ و‬
‫ﻣﻘﺎدﻳﺮ ‪ x‬ﻫﺎ ﺑﺎﻳﺪ ﺑﻪ ﻧﺤﻮ ﻣﻨﺎﺳﺐ ﺗﺨﻤﻴﻦ زده ﺷﻮﻧﺪ‪.‬‬
‫‪ ‬اﮔﺮ ﻓﺮض ﻛﻨﻴﺪ ﻛﻪ ‪ x‬ﻫﺎ ﻣﻮﺟﻮد ﻫﺴﺘﻨﺪ ﻣﺪل را ﺑﺼﻮرت ورودي ﺧﺮوﺟﻲ ﻣﺎﺗﺮﻳﺴﻲ ﺑﻨﻮﻳﺴﻴﻢ‬

‫ﺑﺼﻮرت رﮔﺮﺳﻴﻮن ﺧﻄﻲ در ﻣﻲ آﻳﺪ‬

‫اﺳﺖ ﻛﻪ ﻣﺘﻌﺎﻗﺒﺎ ‪ θ‬ﺑﺎ ‪ LS‬ﺗﺨﻤﻴﻦ زده ﻣﻲ ﺷﻮد‪.‬‬


‫اﻳﻦ ﻣﺘﺪ ﻣﺸﺨﺼﺎت روش ‪ LS‬از ﻧﻈﺮ ﺑﺴﺘﻪ ﺑﻮدن ﺟﻮاب و ﺑﺪون ﺑﺎﻳﺎس ﺑﻮدن ﺗﺨﻤﻴﻦ را دارد‪.‬‬
‫‪ ‬دﻗﺖ ﻛﻨﻴﺪ اﻳﻦ ﻣﺒﺎﺣﺚ ﺑﺪون ﺗﻐﻴﻴﺮ ﺑﺮاي ﺳﻴﺴﺘﻢ ‪ MIMO‬ﻗﺎﺑﻞ اﻋﻤﺎل اﺳﺖ‬
‫‪ ‬در اﻳﻦ روش اﻣﻜﺎن ﺗﺨﻤﻴﻦ ﻣﺎﺗﺮﻳﺲ ﻛﻮارﻳﺎﻧﺲ )‪ E(t‬ﻧﻴﺰ وﺟﻮد دارد‪.‬‬
‫ﻧﺤﻮه ﺗﻌﻴﻴﻦ ‪ :x‬ﭘﻴﺶ ﺑﻴﻨﻲ ﻫﺎي ‪ 1‬ﺗﺎ ‪n‬‬
‫‪ x‬ﻫﺎ ﭘﻴﺶ ﺑﻴﻨﻲ ﻫﺎي ‪ 1‬ﺗﺎ ‪ n‬ﺧﺮوﺟﻲ )‪ ŷ(t|t-r‬ﻳﺎ ﻓﻴﻠﺘﺮ ﺷﺪه آن در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﻣﻲ ﺷﻮﻧﺪ‪ .‬ﺑﺮاي ﺳﻴﺴﺘﻢ ﻣﺪل زﻳـﺮ ﻣـﻲ‬
‫ﺗﻮاﻧﺪ ﻧﻮﺷﺘﻪ ﺷﻮد‬

‫ﻛﻪ ﻣﺪل ﭘﻴﺶ ﺑﻴﻨﻲ ‪ k‬ﮔﺎم ﺑﻪ ﺟﻠﻮ ﭘﻴﺶ ﺑﻴﻨﻲ )ﺻﺮﻓﺎ ﺑﺪون ﻧﻈﺮ ﮔﺮﻓﺘﻦ ﻧﻮﻳﺰ(‬

‫‪11-6‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ‪ :‬ﺑﻬﻴﻨﻪ ﺳﺎزي ﺧﻄﻲ‬

‫ﺑﺎﺷﺪ ﺣﺎل ﺑﺮاي ﻫﺮ زﻣﺎن ﺑﺮدار )‪ Ŷr(t‬ﺷﺎﻣﻞ ﭘﻴﺶ ﺑﻴﻨﻴﻬﺎي ‪ 1‬ﺗﺎ ‪ r‬ﺳﺎﺧﺘﻪ ﻣﻲ ﺷﻮد‬

‫ﺑﺎ ﺗﻮﻟﻴﺪ ﺑﺮدار ﺑﺮاي ‪ t=1… N‬ﻣﺎﺗﺮﻳﺲ ‪ Ŷ‬ﺑﺪﺳﺖ آﻳﺪ‬

‫ﺑﺮاي ﺳﻴﺴﺘﻢ در ﺣﺎﻟﺖ ﻣﺠﺎﻧﺒﻲ ﮔﺰاره ﻫﺎي زﻳﺮ ﺑﺮ ﻗﺮار اﺳﺖ‬


‫‪ .١‬درﺟﻪ ﺳﻴﺴﺘﻢ ‪ n‬اﺳﺖ اﮔﺮ ﺑﺮاي ﺗﻤﺎم ‪ r≥n‬ﻫﺎ رﻧﻚ ﻣﺎﺗﺮﻳﺲ ‪ Ŷ‬ﺑﺮاﺑﺮ ‪ n‬ﺑﺎﺷﺪ‬
‫‪ .٢‬ﺑﺮدار ‪ x‬ﻣﻮرد ﻧﻈﺮ ﺑﺼﻮرت ﺗﺮﻛﻴﺐ ﺧﻄﻲ )‪ Ŷr(t‬ﻣﻲ ﺗﻮان در ﻧﻈﺮ ﮔﺮﻓﺖ‬

‫ﻛﻪ ‪ L‬ﻳﻚ ﻣﺎﺗﺮﻳﺲ ‪ n*pr‬اﺳﺖ ﻛﻪ ‪ p‬ﺑﺮاﺑﺮ ﺗﻌﺪاد ﺧﺮوﺟﻴﻬﺎﺳﺖ‬


‫‪ L .٣‬ﺑﻪ ﻧﺤﻮي اﻧﺘﺨﺎب ﻣﻲ ﺷﻮد ﻛﻪ ﻣﺪل ﺑﺪﺳﺖ آﻣﺪه از ﻧﻈﺮ ﻣﺤﺎﺳﺒﺎﺗﻲ ‪ well conditioned‬ﺑﺎﺷـﺪ ﻣﻌـﺬﻟﻚ ﻣﻤﻜـﻦ‬
‫اﺳﺖ ﺑﻪ ﻧﺤﻮي اﻧﺘﺨﺎب ﺷﻮد ﻛﻪ ﻣﺎﺗﺮي ﻓﻀﺎي ﺣﺎﻟﺖ ‪ canonical‬ﺷﻮد‪.‬‬
‫‪ .۴‬روش ﻋﻤﻠﻲ ﻣﺤﺎﺳﺒﺎﺗﻲ آن در ﻓﺼﻞ ‪ 10‬اراﺋﻪ ﻣﻲ ﺷﻮد‪.‬‬
‫‪ .۵‬ﺗﺨﻤﻴﻦ ‪ reliable‬ﺑﺎ ﻛﻴﻔﻴﺖ ﺧﻮب اراﺋﻪ ﻣﻲ دﻫﺪ‪.‬‬
‫‪ .۶‬از ﻣﺪل ﺗﺨﻤﻴﻨﻲ ﻣﻲ ﺗﻮان ﺑﻌﻨﻮان ﻣﻘﺪار اوﻟﻴﻪ اﺳﺘﻔﺎده ﻛﺮد و روش ‪ PEM‬ورودي‪-‬ﺧﺮوﺟـﻲ را ﺑـﺮاي ﺗﺨﻤـﻴﻦ ﺑﻬﺘـﺮ‬
‫اﻋﻤﺎل ﻛﺮد‪.‬‬
‫ﻣﺜﺎل‬

‫‪12-6‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ‪ :‬ﺑﻬﻴﻨﻪ ﺳﺎزي ﺧﻄﻲ‬

‫ﺑﺎ اﺳﺘﻔﺎده از دﺳﺘﻮر ‪ n4sid‬اﻳﻨﮕﻮﻧﻪ ﺗﺨﻤﻴﻦ زده ﻣﻲ ﺷﻮد‬


‫;)‪z = iddata(y,u,0.1‬‬
‫;)‪m1 = n4sid(z,[1:10],’ssp’,’free’,’ts’,0‬‬
‫ﺑﺮاي ‪n=2‬ﺟﻮاب ﺑﻪ ﻓﺮم زﻳﺮ اﺳﺖ‬

‫ﻣﻲ ﺗﻮان ﺑﺠﺎي ﻣﺎﺗﺮﻳﺲ آزاد ﺑﻌﻀﻲ از اﻋﻀﺎ ﻣﺎﺗﺮﻳﺲ ﻛﻪ از ﻗﺒﻞ ﻣﻌﺎوم ﻫﺴﺘﻨﺪ را در ﺳﺎﺧﺘﺎر ﻟﺤﺎظ ﻛﺮد‬
‫ﺑﺮاي ﺗﺨﻤﻴﻦ ﻣﺎﺗﺮﻳﺲ ﺳﺎﺧﺘﺎردار ‪ structured‬از دﺳﺘﻮر ‪ pem‬ﻣﻲ ﺗـﻮان اﺳـﺘﻔﺎده ﻛـﺮد‪ .‬دﺳـﺘﻮر ‪ pem‬از ‪ n4sid‬ﺑـﺮاي‬
‫ﺑﺪﺳﺖ آوردن ﺗﺨﻤﻴﻦ اوﻟﻴﻪ اﺳﺘﻔﺎده ﻣﻲ ﻛﻨﺪ‪.‬‬
‫;)’‪m2 = pem(z,ms,’display’,’on‬‬

‫درﺟﻪ ﻣﻮرد ﻧﻈﺮ را ﻧﻴﺰ ﻣﻲ ﺗﻮان در دﺳﺘﻮر ‪ pem‬وارد ﻛﺮد‬


‫;)’‪m3 = pem(z,’nx’,1:5,’ssp’,’free‬‬
‫;)‪compare(z,m1,m2‬‬

‫‪13-6‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ‪ :‬ﺑﻬﻴﻨﻪ ﺳﺎزي ﺧﻄﻲ‬

‫‪Instrumental variable method 2-6‬‬


‫در ﻣﺪﻟﻬﺎي ﭘﻴﺶ ﺑﻴﻨﻲ ‪ OE, BJ, ARMAX‬راﺑﻄﻪ ﻣﺪل ﺗﺨﻤﻴﻦ ﻧﺴﺒﺖ ﺑﻪ ‪ θ‬ﻋﻴﺮ ﺧﻄﻲ اﺳﺖ‬
‫‪ŷ‬‬

‫در اﻳﻦ ﺣﺎﻟﺖ و ﻣﺸﺎﺑﻪ آن ﺑﺮاي ﺣﺪاﻗﻞ ﺳﺎزي‬

‫‪ ‬ﺟﻮاب ﺑﺴﺘﻪ وﺟﻮد ﻧﺪارد‬


‫‪ ‬راه ﺣﻞ اﻋﻤﺎل روﺷﻬﺎي ﺑﺎزﮔﺸﺘﻲ ﺑﺎ ﺑﺎر ﻣﺤﺎﺳﺒﺎﺗﻲ اﺳﺖ‬
‫‪ ‬ﺿﻤﻦ اﻳﻨﻜﻪ اﻳﻦ ﮔﻮﻧﻪ ﻣﺴﺎﺋﻞ ﻣﻌﻤﻮﻻ ﻣﺸﻜﻼت ﻣﻴﻨﻴﻤﻮم ﻣﺤﻠﻲ را ﻧﻴﺰ دارﻧﺪ‪.‬‬
‫‪ ‬راه ﺣﻞ ‪ IV‬ﺑﺎ ﺣﺠﻢ ﻣﺤﺎﺳﺒﺎﺗﻲ ‪ LS‬اﺳﺘﺪ‪.‬‬
‫‪INSTRUMENTAL-VARIABLE METHODS 1-2-6‬‬
‫ﺑﺮاي رﮔﺮﺳﻴﻮن ﺧﻄﻲ ﺣﺪاﻗﻞ ﺳﺎزي ﺑﺎ ‪ LS‬ﺑﺮاي ‪ L=1‬و ‪ ζ=ϕ‬ﻣﻨﺠﺮ ﺑﻪ رواﺑﻂ زﻳﺮ ﻣﻲ ﺷﻮد‬

‫ﺗﺨﻤﻴﻦ ﺑﻪ ‪ θ0‬ﻣﻴﻞ ﻣﻲ ﻛﻨﺪ ﻛﻪ ﻧﺸﺎن ﻣﻲ دﻫﺪ ‪ ε‬و ‪ ϕ‬ﺑﻬﻢ واﺑﺴﺘﻪ ﻧﻴﺴﺘﻨﺪ‪ .‬در ﺣﺎﻟﺖ اﻳـﺪه ال ﺧﻄـﺎي ﺗﺨﻤـﻴﻦ )‪ε(t,θ‬‬
‫ﺑﺮاي ﻣﺪل ﺧﻮب )درﺳﺖ ﺗﺨﻤﻴﻦ زده ﺷﺪه( ﺑﺎﻳﺪ ﻣﺴﺘﻘﻞ از ‪ Zt-1‬ﺑﺎﺷﺪ‪.‬‬
‫‪ ‬اﻣﺎ در ﺳﻴﺴﺘﻢ‬

‫ﺑﻪ دﻟﻴﻞ واﺑﺴﺘﮕﻲ ﺑﻴﻦ ‪) ϕ‬ﺑﻪ دﻟﻴﻞ ﻣﻮﻟﻔﻪ ‪ (y‬و ‪ vo‬ﺗﺨﻤﻴﻦ ﺑﺪون ﺑﺎﻳﺎس ﺑﺪﺳﺖ ﻧﻤﻲ آﻳﺪ‪) .‬ﺷﺮوط ﺗﺨﻤﻴﻦ ﺑـﺪون ﺑﺎﻳـﺎس‬
‫‪ LS‬ﻧﻘﺾ ﻣﻲ ﺷﻮد( دراﻳﻦ ﺣﺎﻟﺖ ﻧﻮﻳﺰ رﻧﮕﻲ اﺳﺖ‪.‬‬
‫ﺑﺮاي ﺗﺨﻤﻴﻦ ﺧﻮب ﺣﺪاﻗﻞ ﺑﺮاي دﻳﺘﺎي ﻣﺤﺪود‬

‫‪14-6‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ‪ :‬ﺑﻬﻴﻨﻪ ﺳﺎزي ﺧﻄﻲ‬

‫ﻧﻤﻮﻧﻪ ﻫﺎﻳﻲ از‪ Zt-1‬و ‪ α‬ﻳﻚ ‪ transformation‬اﺳﺖ ﻛـﻪ ﻣـﻲ ﺗﻮاﻧـﺪ ‪ α(ε)=ε‬ﺑﺎﺷـﺪ‪.‬‬ ‫ﺑﺎﻳﺪ ﺑﺮﻗﺮار ﺷﻮد ﻛﻪ در آن‬
‫ﻓﺮﻣﻮل ﺑﻨﺪي اﻳﻦ اﻳﺪه ﺑﺎ ﻟﺤﺎظ ﻛﺮدن ﭘﻴﺶ ﻓﻴﻠﺘﺮ ‪ L‬و اﻳﻨﻜﻪ ‪ ζ‬ﺑﻪ ‪ θ‬واﺑﺴﺘﻪ ﺑﺎﺷﺪ اﻳﻨﮕﻮﻧﻪ اﺳﺖ‬

‫و ‪ ζ‬ﺑﺮداري از دﻳﺘﺎي ﮔﺬﺷﺘﻪ اﺣﺘﻤﺎﻻ واﺑﺴﺘﻪ ﺑﻪ ‪ θ‬ﺑﺎﺷﺪ‬

‫ﺑﺪﻳﻦ ﺗﺮﺗﻴﺐ ﺗﺨﻤﻴﻦ ﺧﻮب در راﺑﻄﻪ زﻳﺮ ﺻﺪق ﻣﻴﻜﻨﺪ‬

‫‪‬‬
‫ﻣﺜﺎل ‪Pseudo linear Regressions (3‬‬
‫در ﻣﺜﺎل ‪ PLR‬ﻓﺮﻣﻮل ﭘﻴﺶ ﺑﻴﻨﻲ‬

‫ﻛﻪ ‪ ϕ‬ﺑﻪ ‪ θ‬واﺑﺴﺘﻪ اﺳﺖ‪ .‬در ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ ﺑﺎﻳﺪ ﺑﺎﻗﻴﻤﺎﻧﺪه ‪ ε‬ﻣﺴﺘﻘﻞ از ‪ ϕ‬ﺷﻮد ﻛﻪ ﺑﻪ ﻣﻌﻨﻲ راﺑﻄﻪ زﻳﺮ اﺳﺖ‬

‫ﻛﻪ ﻗﺒﻼ ﮔﻔﺘﻪ ﺷﺪ ﻛﻪ ﻣﺤﻘﻖ ﻧﻤﻲ ﺷﻮد‪ .‬از اﻳﻨﺮو ﺑﺮاي ﺗﺨﻤﻴﻦ ﺑﺪون ﺑﺎﻳﺎس از روش ‪ IV‬ﻣﻲ ﺗﻮان اﺳﺘﻔﺎده ﻛﺮد‬
‫‪ ‬از اﻳﻨﺮو ﺑﺮاي رﻓﻊ ﻣﺸﻜﻞ اﮔﺮ ﺑﺘﻮان ﺑﺠﺎي ‪ ϕ‬از ‪ (instruments or instrumental variables) ζ‬اﺳﺘﻔﺎده ﻛﺮد‬

‫ﺗﺨﻤﻴﻦ ﻣﺠﺎﻧﺒﻲ ﺑﺪون ﺑﺎﻳﺎس ‪ θ‬ﺑﺪﺳﺖ آﻣﺪه اﺳﺖ اﻳﻦ راﺑﻄﻪ ﻣﺸﺎﺑﻪ راﺑﻄﻪ ‪ LS‬اﺳﺖ اﮔﺮ ﻣﻌﻜﻮس وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ‬

‫ﺑﻪ ﺳﻤﺖ ﺻﻔﺮ ﻣﻲ رود‪ .‬ﺑﺮاي اﻳﻦ ﻣﻨﻈﻮر دو ﺷﺮط زﻳـﺮ‬ ‫ﺑﺎ اﻳﻦ ﺗﺮﺗﻴﺐ ̂‪ θ‬ﺑﻪ ‪ θ0‬ﺑﺼﻮرت ﻣﺠﺎﻧﺒﻲ ﻣﻴﻞ و‬
‫ﺑﺎﻳﺪ ﺑﺮﻗﺮار ﺷﻮد‪.‬‬

‫ﻣﻌﻨﻲ اﻳﻦ دو ﺷﺮط آن اﺳﺖ ﻛﻪ اﻳﻨﺴﺘﺮوﻣﻨﺖ ﺑﺎﻳﺪ ﺑﺎ دﻳﺘﺎ ﻫﻤﺒﺴﺘﻪ و ﺑﺎ ‪ v‬ﻏﻴﺮ ﻫﻤﺒﺴﺘﻪ ﺑﺎﺷﺪ‬
‫اﻧﺘﺨﺎب ‪ :Instrument‬ﻓﻴﻠﺘﺮ ﻛﺮدن ورودي‬
‫در ﺳﻴﺴﺘﻢ زﻳﺮ‬

‫اﻳﺪه اﻳﻦ اﺳﺖ ﻛﻪ ﺑﻪ ﺟﺎي ‪ y‬از ﻓﻴﻠﺘﺮ ﺷﺪه ‪ u‬ﺑﻪ ﻧﺎم ‪ x‬در ﺑﺮدار رﮔﺮﺳﻮر اﺳﺘﻔﺎده ﺷﻮد‪.‬‬

‫‪15-6‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ‪ :‬ﺑﻬﻴﻨﻪ ﺳﺎزي ﺧﻄﻲ‬

‫ﺗﺎ ﻋﺪم واﺑﺴﺘﮕﻲ ﺑﻴﻦ ‪ v‬و ‪ ζ‬ﺗﺎﻣﻴﻦ ﺷﻮد‪.‬‬

‫‪ ‬در اﻳﻦ راﺑﻄﻪ ‪ K‬ﻳﻚ ﻓﻴﻠﺘﺮ ﺧﻄﻲ اﺳﺖ‪.‬‬


‫‪ ‬ﺑﻪ اﻳﻦ ﺗﺮﺗﻴﺐ اﻳﻨﺴﺘﺮوﻣﻨﺖ ‪ ζ‬ﻓﻴﻠﺘﺮ ﺷﺪه ورودي اﺳﺖ ﻛﻪ از ‪ v‬ﻣﺴﺘﻘﻞ اﺳﺖ‪.‬‬

‫اﻧﺘﺨﺎب ﻓﻴﻠﺘﺮ‬
‫روش ‪ :1‬اﻧﺘﺨﺎب ﺳﺎده‪ :‬ﻳﻚ اﻧﺘﺨﺎب ﺑﺮدار ‪ ξ‬از اﻳﻦ ﻗﺮار اﺳﺖ ﻛﻪ ﻃﻮل آن ‪ n = na + nb‬اﺳﺖ‪.‬‬
‫=)‪ξ(k‬‬
‫در ﺣﺎﻟﻴﻜﻪ ﺑﺮدار ‪ ϕ‬اﻳﻨﮕﻮﻧﻪ اﺳﺖ‬

‫روش ‪ :2‬اﻋﻤﺎل ‪ LS‬ﻋﻠﻴﺮﻏﻢ اﻳﻨﻜﻪ ﺗﺨﻤﻴﻦ ﺑﺎﻳﺎس دار ﺗﻮﻟﻴﺪ ﻣﻲ ﻛﻨﺪ و ﺑﺪﺳﺖ آوردن ‪ Â‬و ̂‪ B‬و اﺳﺘﻔﺎده از اﻳﻦ دو ﺑـﺮاي‬
‫ﺗﻮﻟﻴﺪ ‪N=Â & M=B̂ . x‬‬
‫روش ‪ :3‬ﻓﻴﻠﺘﺮ ﺑﻬﻴﻨﻪ ﺑﺮاي ‪ :IV‬ﺑﺮاي ﺳﻴﺴﺘﻢ زﻳﺮ‬

‫وارﻳﺎﻧﺲ ﺑﻬﻴﻨﻪ ﺗﺨﻤﻴﻦ ﻛﺮان ‪ Cramer Rao‬زﻳﺮ اﺳﺖ )در ﺑﺨﺸﻬﺎي ﺑﻌﺪي ﻧﺸﺎن داده ﺧﻮاﻫﻨﺪﺷﺪ(‬

‫ﻛﻪ‬

‫اﺳﺖ‪ .‬ﻣﻘﺪار ﺑﻬﻴﻨﻪ ‪ PCR‬ﻣﻨﺠﺮ ﺑﻪ رواﺑﻂ زﻳﺮ ﻣﻲ ﺷﻮد‬

‫ﻛﻪ اﻟﺒﺘﻪ ﻣﻘﺎدﻳﺮ آﻧﻬﺎ ﻣﺠﻬﻮل ﻫﺴﺘﻨﺪ‪ .‬اﻳﻦ ﻣﺸﻜﻞ ﺑﺎ ‪ Adaptive IV‬ﻣﺮﺗﻔﻊ ﻣﻲ ﮔﺮدد‬
‫ﮔﺎم ‪ :1‬ﺗﺨﻤﻴﻦ ﻣﺪل زﻳﺮ ﺑﺎ ‪ LS‬و ﺗﻌﻴﻴﻦ ‪ Ĝ‬و ̂‪ θ‬ﻛﻪ ﻧﺘﻴﺠﻪ ﺑﺎﻳﺎس دار ﻣﻲ دﻫﺪ‪.‬‬

‫ﮔﺎم ‪ :2‬ﺗﻮﻟﻴﺪ ﺑﺮدار ‪ ξ‬ﺑﺎ ﻓﻴﻠﺘﺮ ﻛﺮدن ورودي ﺑﺎ ‪ Ĝ‬و ﺗﺨﻤﻴﻦ ‪ Ĝ2‬ﺑﺎ اﻋﻤﺎل ‪IV‬‬

‫‪16-6‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ‪ :‬ﺑﻬﻴﻨﻪ ﺳﺎزي ﺧﻄﻲ‬

‫ﮔﺎم ‪ :3‬ﺗﻮﻟﻴﺪ ‪ w‬و ﺗﺨﻤﻴﻦ ‪ L‬ﺑﺎ ‪LS‬‬

‫ﮔﺎم ‪ :4‬ﺗﻜﺮار ‪ 15.22‬اﻳﻦ ﺑﺎر ﺑﺎ ‪ Ĝ2‬و ﺗﻮﻟﻴﺪ )‪ξ(2‬‬

‫ﺟﺎل ﺑﺎ اﻳﻦ ‪ ξ‬و ‪ L‬ﺑﺎ اﺳﺘﻔﺎده از ‪ IV‬ﺗﺨﻤﻴﻦ ﻧﻬﺎﻳﻲ ﭘﺎراﻣﺘﺮ زده ﺷﻮد‪.‬‬

‫‪Considerations‬‬
‫‪ ‬وارﻳﺎﻧﺲ و ‪ MSE‬ﺗﺎﺑﻊ ﻧﻮع اﻳﻨﺴﺘﺮوﻣﻨﺖ اﻧﺘﺨﺎﺑﻲ اﺳﺖ‬
‫‪ ‬ﭘﺎﻳﺪاري ‪ IV‬ﺗﻀﻤﻴﻨﻲ ﻧﻴﺴﺖ‬
‫‪ ‬اﺳﺘﻔﺎده از ﻓﻴﻠﺘﺮ ﺳﺎده ﻣﻤﻜﻦ اﺳﺖ ﭘﺎﺳﺨﻬﺎي ﻏﻴﺮ ﻗﺎﺑﻞ ﻗﺒﻮل ﺗﻮﻟﻴﺪ ﻛﻨﺪ‬
‫‪ ‬ﺗﺨﻤﻴﻦ ﺑﺪون ﺑﺎﻳﺎس ﻣﺨﺪوش ﻣﻲ ﺷﻮد اﮔﺮ‬
‫‪ v ‬و ‪ ζ‬ﻫﻤﺒﺴﺘﻪ ﺑﺎﺷﻨﺪ )ﺗﻮﻟﻴﺪ اﻳﻨﺴﺘﺮوﻣﻨﺖ ﺑﺮ اﺳﺎس ‪ u‬در ﺣﻠﻘﻪ ﺑﺴﺘﻪ(‪ .‬در ﺣﻠﻘﻪ ﺑﺴﺘﻪ اﻳﻨﺴﺘﺮوﻣﻨﺖ ﺑﺮ اﺳﺎس ‪ r‬ﺗﻮﻟﻴـﺪ‬
‫ﮔﺮدد‬
‫‪ ‬ﻧﺎ درﺳﺖ ﺑﻮدن درﺟﻪ ﻣﺪل‬
‫‪ ‬ﻓﻴﻠﺘﺮ اﻳﻨﺴﺘﺮوﻣﻨﺖ ﺑﻪ ﻧﺤﻮي ﺑﺎﺷﺪ ﻛﻪ دﻳﻨﺎﻣﻴﻚ ﺳﻴﺴﺘﻢ را ﺣﺬف ﻛﻨﺪ‬
‫‪ ‬ﺳﻴﺴﺘﻢ واﻗﻌﻲ ﺟﺰئ ﻣﺠﻤﻮﻋﻪ ﻣﺪﻟﻬﺎ ﻧﺒﺎﺷﺪ )ﻣﺪل ﺗﻘﺮﻳﺒﻲ ﻣﺪ ﻧﻈﺮ ﺑﺎﺷﺪ(‬
‫ﻣﺜﺎل ‪ (4‬ﻣﺜﺎل‪ :‬ﻣﻘﺎﻳﺴﻪ ﻋﻤﻠﻜﺮد ‪ ARX‬و ‪IV‬‬

‫;)‪ model = iv(id, [na, nb, nk], C, D‬‬


‫ﻣﺜﺎل ‪ (5‬ﺑﺎ ﻓﻴﻠﺘﺮ ﺳﺎده‬

‫‪17-6‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ‪ :‬ﺑﻬﻴﻨﻪ ﺳﺎزي ﺧﻄﻲ‬

‫ﻣﺜﺎل ‪ (6‬ﻓﻴﻠﺘﺮ ﺑﺎ ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮﻫﺎ‬

‫ﺑﻪ دﻟﻴﻞ رﻧﮕﻲ ﺑﻮدن ﻧﻮﻳﺰ‪ IV ،‬ﻋﻤﻠﻜﺮد ﺑﻬﺘﺮ از ‪ ARX‬دارد‬


‫ﻣﺜﺎل ‪ IV (7‬ﺑﺎ ﻓﻴﻠﺘﺮ ﺑﻬﻴﻨﻪ‬
‫;)]‪model = iv4(id, [na, nb, nk‬‬

‫‪Conclusion: Works slightly better than just ARX instruments‬‬


‫‪18-6‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ‪ :‬ﺑﻬﻴﻨﻪ ﺳﺎزي ﺧﻄﻲ‬
‫‪ 3-6‬ﺗﺨﻤﻴﻦ ﺳﻴﺴﺘﻢ ﭘﻴﻮﺳﺘﻪ ﺑﺮ اﺳﺎس ﭘﺎﺳﺦ ﻓﺮﻛﺎﻧﺴﻲ‬
‫از ﺧﻮاص ﺟﺎﻟﺐ ﺗﺨﻤﻴﻦ در ﻣﻴﺪان ﻓﺮﻛﺎﻧﺲ اﻳﻦ اﺳﺖ ﻛﻪ ﻣﻲ ﺗﻮان ﻣﺪل ﭘﻴﻮﺳﺘﻪ را ﺗﺨﻤﻴﻦ زد‪ .‬ﺳﻴﺴﺘﻢ‬

‫و دﻳﺘﺎﻫﺎي )‪ y(t‬و )‪ u(t‬را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﺪ‪ .‬ﻓﻮرﻳﻪ ﺳﻴﮕﻨﺎﻟﻬﺎي اﻧﺪازه ﮔﻴﺮي ﺷﺪه )در ﻋﻤﻞ ﺑﺎ ‪ ( DFT‬ﻗﺎﺑﻞ ﻣﺤﺎﺳﺒﻪ اﺳﺖ‬

‫ﻛﻪ ﻣﻨﺠﺮ ﺑﻪ ﻣﺠﻤﻮﻋﻪ دﻳﺘﺎي ﺷﻨﺎﺳﺎﻳﻲ ﻣﻲ ﺷﻮد‬

‫آﻧﺠﻪ ﺗﺨﻤﻴﻦ زده ﻣﻲ ﺷﻮد ﻣﻘﺎدﻳﺮ ﻣﻮﻫﻮﻣﻲ و ﺣﻘﻴﻘﻲ ‪ G‬در ﺗﻌﺪادي ﻓﺮﻛﺎﻧﺲ اﺳﺖ‬

‫ﺣﺎل ﻣﻌﻴﺎر زﻳﺮ ﺑﺎﻳﺪ ﺣﺪاﻗﻞ ﺷﻮد‬

‫ﻳﺎ ﺑﺼﻮرت زﻳﺮ ﻛﻪ ﻗﺎﺑﻞ ﺗﻄﺒﻴﻖ ﺑﺎ ‪ ETFE‬ﺑﺎﺷﺪ‬

‫اﮔﺮ ‪ H‬ﻣﻌﻠﻮم و ﺛﺎﺑﺖ ﺑﺎﺷﺪ روش ﺑﺨﻮﺑﻲ ﻛﺎر ﻣﻲ ﻛﻨﺪ‪ .‬اﻳﻦ ﻓﺮض در ﻛﺎرﺑﺮدﻫﺎ ﺑﺎ دﻳﺘﺎ در ﻣﻴﺪان ﻓﺮﻛـﺎﻧﺲ ﻓـﺮض ﻣﻌﻤـﻮﻟﻲ‬
‫اﺳﺖ‪ .‬در ﻛﺎرﺑﺮدﻫﺎﻳﻲ ﻛﻪ ورودي ﭘﺮﻳﻮدﻳﻚ اﺳﺖ ﻧﻴﺰ ﻣﻲ ﺗﻮان ﺑﺎ ﭘﻴﺶ ﭘﺮدازش ﺗﺨﻤﻴﻦ ﻣﻌﻘﻮﻟﻲ از ‪ H‬را داﺷﺖ‪.‬‬
‫دﺳﺘﻮر ‪MATLAB‬‬
‫دﺳﺘﻮر ‪ MATLAB‬ﺑﺮاي اﻳﻦ ﻧﻮع ﺷﻨﺎﺳﺎﻳﻲ از اﻳﻦ ﻗﺮار اﺳﺖ‪.‬‬
‫)‪sys = tfest(data,np,nz,iodelay‬‬
‫ﻛﻪ ‪ np‬و ‪ nz‬ﺑﻪ ﺗﺮﺗﻴﺐ ﺗﻌﺪاد ﻗﻄﺒﻬﺎ و ﺻﻔﺮﻫﺎ ﻫﺴﺘﻨﺪ‪.‬‬
‫ﻣﺰاﻳﺎ‬
‫ﻓﻴﻠﺘﺮ ﻛﺮدن ﺳﺎده اﺳﺖ‪ :‬ﺑﺎ ﺿﺮب وزن ﻣﻮرد ﻧﻈﺮ ﺑﻪ ﻣﻮﻟﻔﻪ ﻫﺎي ﻓﺮﻛﺎﻧﺴﻲ ﻓﻴﻠﺘﺮﻳﻨﮓ اﻧﺠﺎم ﻣﻲ ﺷﻮد‪.‬‬
‫‪ ‬ﻛﺎﻫﺶ ﺣﺠﻢ دﻳﺘﺎ‪ :‬وﻗﺘﻲ ﺣﺠﻢ دﻳﺘﺎي اﻧﺪازه ﮔﻴﺮي ﺷﺪه ﺑﻪ دﻟﻴﻞ وﺟﻮد ﺛﺎﺑﺖ زﻣﺎﻧﻲ ﺑـﺎ ﻣﻘـﺎدﻳﺮ ﮔﺴـﺘﺮده در ﺳﻴﺴـﺘﻢ‬
‫زﻳﺎد اﺳﺖ‪ ،‬ﺑﺎ اﻧﺘﻘﺎل ﺑﻪ ﻣﻴﺪان ﻓﺮﻛﺎﻧﺲ ﻓﺸﺮده ﻣﻲ ﺷﻮﻧﺪ )در ﻫﻢ ادﻏﺎم ﻣﻲ ﺷﻮﻧﺪ(‬
‫‪ ‬ادﻏﺎم ﻧﺘﺎﻳﺞ آزﻣﺎﻳﺸﺎت‪ :‬ﻧﺘﺎﻳﺞ ﻧﻤﻲ ﮔﻮﻳﺪ ﻛﻪ دﻳﺘﺎ در ﻓﺮﻛﺎﻧﺴﻬﺎي ﻣﺨﺘﻠﻒ ﺑﺎﻳﺪ ﻧﺎﺷﻲ از ﻳﻚ آزﻣﺎﻳﺶ ﺑﺎﺷﻨﺪ‪ ،‬دﻳﺘﺎي در‬
‫ﻓﺮﻛﺎﻧﺴﻬﺎي ﻣﺨﺘﻠﻒ ﻣﻲ ﺗﻮاﻧﺪ از آزﻣﺎﻳﺸﺎت ﻣﺘﻔﺎوت ﺑﺎﺷﺪ ﻛﻪ در ﻣﻴﺪان ﻓﺮﻛﺎﻧﺲ ﺗﺮﻛﻴﺐ ﺷﺪه اﻧﺪ‬
‫‪ ‬ورودي ﭘﺮﻳﻮدﻳﻚ‪ :‬اﮔﺮ ورودي ﭘﺮﻳﻮدﻳﻚ ﺑﺎﺷﺪ ﺷﻨﺎﺳﺎﻳﻲ ﻛﻪ از اﻳﻦ ﻃﺮﻳﻖ ﺑﺪﺳﺖ ﻣﻲ َآﻳﺪ ﺑﺴـﻴﺎر ﻣﻨﺎﺳـﺐ اﺳـﺖ‪ .‬زﻳـﺮا‬
‫اﻃﻼﻋﺎت در ﻣﻴﺪان ﻓﺮﻛﺎﻧﺲ ارﺗﺒﺎط ﻣﺎﻧﺪﮔﺎرﺑﻴﻦ ورودي ﭘﺮﻳﻮدﻳﻚ و ﺧﺮوﺟﻲ در ﺣﺎﻟﺖ ﻣﺎﻧﺪﮔﺎر را ﻧﺸﺎن ﻣﻲ دﻫﺪ‪.‬‬
‫‪19-6‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ‪ :‬ﺑﻬﻴﻨﻪ ﺳﺎزي ﺧﻄﻲ‬
‫‪ ‬ﺗﺨﻤﻴﻦ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ ﻧﻮﻳﺰ از ورودي ﭘﺮﻳﻮدﻳﻚ‪ :‬اﮔﺮ ﺳﻴﺴﺘﻢ ‪ y=Gu+v‬ﺑﻮده و ورودي ﭘﺮﻳﻮدﻳـﻚ ﺑـﺎ ﭘﺮﻳـﻮد ‪M‬‬
‫ﺑﺎﺷﺪ ‪ Gu‬ﻧﻴﺰ در ﺣﺎﻟﺖ ﻣﺎﻧﺪﮔﺎر ﭘﺮﻳﻮدﻳﻚ اﺳﺖ و ﻣﻲ ﺗﻮان ﻧﻮﻳﺰ را ﺗﺨﻤﻴﻦ زد‬

‫‪ :Band-Limited Signals ‬اﮔﺮ ﺳﻴﮕﻨﺎل ورودي ﺑﺎﻧﺪ ﻣﺤﺪود ﺑﺎﺷﺪ ﺗﺒﺪﻳﻞ ﻓﻮرﻳﻪ ﭘﻴﻮﺳﺘﻪ زﻣﺎن آﻧـﺮا ﺑـﺮ اﺳـﺎس دﻳﺘـﺎ‬
‫ﮔﺴﺴﺘﻪ ﻣﻲ ﺗﻮان ﻣﺤﺎﺳﺒﻪ ﻛﺮدو ﺑﺎ ﺗﻘﺴﻴﻢ ﻃﻴﻒ ﭘﻴﻮﺳﺘﻪ ﺧﺮوﺟﻲ ﺑﻪ ورودي ﻣﺪل ﺳﻴﺴﺘﻢ را ﺗﺨﻤﻴﻦ زد‬
‫‪ Continuous-TIme Models. ‬ﻣﺒﺎﺣﺚ ﻓﻮق ﻧﺸﺎن داد ﻛﻪ ﺳﻴﺴﺘﻢ ﭘﻴﻮﺳﺘﻪ را ﻣﻲ ﺗـﻮان ﺑـﺮ اﺳـﺎس دﻳﺘـﺎي ﭘﻴﻮﺳـﺘﻪ‬
‫ﺑﺴﻬﻮﻟﺖ ﺷﻨﺎﺳﺎﻳﻲ ﻛﺮد‪.‬‬
‫‪ : Trade-off Noise\ Frequency Resolution ‬رزوﻟﻮﺷﻦ ﻓﺮﻛﺎﻧﺴﻲ و ﺳﻄﺢ ﻧﻮﻳﺰ ﻃﻴﻒ راﺑﻄﻪ ﻣﻌﻜﻮس دارﻧـﺪ‪ .‬در‬
‫اﻳﻦ ﺟﺎ ﻣﻲ ﺗﻮان ﻛﻨﺘﺮل ﻣﺴﺘﻘﻴﻢ و واﺑﺴﺘﻪ ﺑﻪ ﻓﺮﻛﺎﻧﺲ روي راﺑﻄﻪ داﺷﺖ‬

‫‪ 4-6‬ﻣﻘﺎﻳﺴﻪ ‪ PEM‬و ‪IV‬‬


‫‪PEM‬‬
‫‪ ‬ﻧﻮﻳﺰ را ﻣﺪل ﻣﻲ ﻛﻨﺪ ‪v=He‬‬
‫‪ ‬ﺑﺮاي ﺗﻤﺎم ﻣﺪﻟﻬﺎي ﺧﻄﻲ ﻏﻴﺮ ﺧﻄﻲ و ﻏﻴﺮه ﻗﺎﺑﻞ اﺳﺘﻔﺎده اﺳﺖ‬
‫‪ ‬ﻗﺎﺑﻞ اﺳﺘﻔﺎده در ﺣﻠﻘﻪ ﺑﺎز و ﺑﺴﺘﻪ ﺗﻘﺮﻳﺒﺎ ﺑﺎ ﻛﺪﻫﺎي ﺑﺮﻧﺎﻣﻪ ﻣﺸﺎﺑﻪ‬
‫‪ ‬ﺑﻪ اﺳﺘﺜﻨﺎي ﺣﺎﻟﺖ رﮔﺮﺳﻴﻮن ﺧﻄﻲ ﺣﻞ آن ﺑﺎ روش ﺑﺎزﺗﮕﺮار اﻧﺠﺎم ﻣﻲ ﺷﻮد ﻛﻪ ﻣﺸﻜﻼت ﺣﺠﻢ ﻣﺤﺎﺳﺒﺎﺗﻲ و ﻣﻴﻨﻴﻤـﻮم‬
‫ﻣﺤﻠﻲ را دارد‪.‬‬
‫‪ ‬در ﺣﺎﻟﺖ ‪ S∈M‬ﺣﻠﻘﻪ ﺑﺎز ﺗﺨﻤﻴﻦ ﺑﺪون ﺑﺎﻳﺎس ﻣﻲ دﻫﺪ‪.‬‬
‫‪ ‬اﮔﺮ ﻣﺪل ﺗﻘﺮﻳﺒﻲ ﺑﺎﺷﺪ ‪ S ∉M‬ﺗﺤﻠﻴﻞ ﻛﻪ ﻧﺸﺎن دﻫﺪ ﭼﮕﻮﻧﻪ *‪ M‬ﺳﻴﺴﺘﻢ ‪ S‬را ﺗﻘﺮﻳﺐ ﻣﻲ زﻧﺪ وﺟﻮد دارد‬
‫‪ ‬راﺑﻄﻪ واﺿﻊ ﺑﻴﻦ وارﻳﺎﻧﺲ و ‪ design variables‬ﺑﺮاي ﺑﻬﻴﻨﻪ ﺳﺎزي وﺟﻮد دارد‬
‫‪ PEM ‬ﺑﺎ ‪ v‬رﻧﮕﻲ ﺗﺨﻤﻴﻦ ﺑﺎﻳﺎس دار ﻣﻲ دﻫﺪ‪ .‬ﺑﺮاي رﻓﻊ ﻣﺸﻜﻞ ﺑﺎﻳﺪ ‪ H‬ﻣﻌﻠﻮم ﺑﺎﺷﺪ ﻳﺎ اﻳﻨﻜﻪ ﺗﺨﻤﻴﻦ زده ﺷﻮد‬
‫‪ ‬ﺗﻨﻮع زﻳﺎدي در ﺧﺎﻧﻮاده ‪ PEM‬وﺟﻮد دارد ﻛﻪ ﺑﻌﻀﻲ از اﻟﮕﻮرﻳﺘﻤﻬﺎ از اﻳﻦ ﻗﺮارﻧﺪ‪:‬‬
‫‪• do not use information about the noise‬‬
‫)‪– Least-squares estimate (LS‬‬
‫) ‪• use information about the noise (Guassian distribution,‬‬
‫‪– Assume θ is a fixed parameter‬‬
‫)‪_ Weighted least-squares estimate (WLS‬‬
‫)‪_ Best linear unbiased estimate (BLUE‬‬
‫)‪_ Maximum likelihood estimate (ML‬‬
‫‪– Assume θ is random and‬‬
‫)‪_ Least mean square estimate (LMS‬‬

‫‪20-6‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ‪ :‬ﺑﻬﻴﻨﻪ ﺳﺎزي ﺧﻄﻲ‬
‫)‪_ Maximum a posteriori estimate (MAP‬‬
‫‪IVM‬‬
‫‪ ‬ﺑﺪون ﻣﺪل ﻛﺮدن ﻧﻮﻳﺰ رﻧﮕﻲ ﺗﺨﻤﻴﻦ ﺑﺪون ﺑﺎﻳﺎس ﻣﻲ دﻫﺪ ﻣﺸﺮوط ﺑﺮآﻧﻜﻪ اﻳﻨﺴﺘﺮوﻣﻨﺖ ﻣﻨﺎﺳﺐ اﺳﺘﻔﺎده ﺷﻮد‪.‬‬
‫‪ ‬ﻛﻴﻔﻴﺖ ﻣﺪل ﺷﺪﻳﺪا ﺗﺎﺑﻊ اﻧﺘﺨﺎب اﻳﻨﺴﺘﺮﻣﻨﺖ اﺳﺖ‬
‫‪ ‬ﻋﻤﻮﻣﺎ ﺑﺮاي ﻣﺪﻟﻬﺎي ﺧﻄﻲ ﺧﺼﻮﺻﺎ ‪ ARX‬اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد‬
‫‪ ‬ﻣﺤﺎﺳﺒﺎت ﻓﺮﻣﻮل ﺑﺴﺘﻪ دارد‬
‫‪ ‬در ﺣﺎﻟﺖ ﺣﻠﻘﻪ ﺑﺎز ‪ SεM‬ﺗﺨﻤﻴﻦ ﺑﺪون ﺑﺎﻳﺎس ﻣﻲ دﻫﺪ‪.‬‬
‫‪ ‬در ﺣﺎﻟﺖ ﻣﺪل ﺗﻘﺮﻳﺒﻲ ‪ S ∉M‬ﻋﻤﻠﻜﺮد ﺧﻴﻠﻲ واﺿﺢ ﻧﻴﺴﺖ‬
‫‪ ‬راﺑﻄﻪ واﺿﺢ ﺑﻴﻦ وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ و ﭘﺎراﻣﺘﺮﻫﺎي روش وﺟﻮد دارد‬
‫‪ ‬روش ‪ less robust‬و ‪ statistically less effective‬از ‪ PEM‬اﺳﺖ‬
‫‪subspace‬‬
‫‪ ‬ﺑﻄﻮر ﺧﺎص ﺑﺮاي ﻓﻀﺎي ﺣﺎﻟﺖ ﺧﻄﻲ ﻃﺮاﺣﻲ ﺷﺪه اﺳﺖ‬
‫‪ ‬در ﺣﺎﻟﺖ ﺣﻠﻘﻪ ﺑﺎز ‪ SεM‬ﺗﺨﻤﻴﻦ ﺑﺪون ﺑﺎﻳﺎس ﻣﻲ دﻫﺪ‪.‬‬
‫‪ ‬در ﺣﺎﻟﺖ ﻣﺪل ﺗﻘﺮﻳﺒﻲ ‪ S ∉M‬ﻋﻤﻠﻜﺮد ﺧﻴﻠﻲ واﺿﺢ ﻧﻴﺴﺖ‬
‫‪ ‬ﻣﺤﺎﺳﺒﺎت ﻓﺮم ﺑﺴﺘﻪ دارد‬

‫‪21-6‬‬
‫‪ 7‬ﻛﻴﻔﻴﺖ ﺗﺨﻤﻴﻦ ‪ :‬وارﻳﺎﻧﺲ ﺣﺪ ﺧﻄﺎ و وارﻳﺎﻧﺲ ﭘﺎراﻣﺘﺮﻫﺎ ‬

‫ﻣﻄﺎﻟﺐ اﻳﻦ ﺟﻠﺴﻪ‬


‫‪ ‬ﻣﺤﺎﺳﺒﻪ ﺗﺌﻮرﻳﻚ وارﻳﺎﻧﺲ ﺧﻄﺎ ̅‪V‬‬
‫‪ ‬ﺷﺮوط ﻫﻤﮕﺮاﻳﻲ ̅‪VN→V‬‬
‫‪ ‬وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮﻫﺎ‬
‫‪ ‬وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﺗﺎﺑﻊ ﺗﺒﺪﻳﻞ‬

‫ارزﻳﺎﺑﻲ ﻛﻴﻔﻴﺖ ﺗﺨﻤﻴﻦ‬


‫رﻓﺘﺎر ﺗﺨﻤﻴﻨﻲ را ﺑﻪ دو روش ﻣﻲ ﺗﻮان ﺑﺮرﺳﻲ ﻛﺮد‪.‬‬
‫‪ :Simulation ‬ﺑﻪ ﻣﺪل ﺷﻨﺎﺳﺎﻳﻲ ﺷﺪه و ﺳﻴﺴﺘﻢ واﻗﻌﻲ ورودي ﻫﺎي ﻣﺘﻔﺎوت داد و ﺧﺮوﺟﻴﻬﺎ را ﺑﺎ ﻫﻢ ﻣﻘﺎﻳﺴﻪ ﻛـﺮد‪.‬‬
‫در اﻳﻦ روش ﻫﻴﭽﻮﻗﺖ ﺑﻲﻧﻬﺎﻳﺖ دﻳﺘﺎ )ﺣﺎﻟﺖ ﻣﺠﺎﻧﺒﻲ( وﺟﻮد ﻧﺪارد ﻛﻪ ﺑﺘﻮان ﺣﺎﻟﺖ ﻣﺠﺎﻧﺒﻲ را ﺑﺮرﺳﻲ ﻛﺮد‪.‬‬
‫‪ :Analysis ‬ﺑﺼﻮرت ﺗﺌﻮرﻳﻚ ﺑﻴﻨﻬﺎﻳﺖ دﻳﺘﺎي ∞‪ Z‬در اﺧﺘﻴﺎر ﺑﺎﺷﺪ )ﻛﻪ در ﻋﻤـﻞ ﻣﻤﻜـﻦ ﻧﻴﺴـﺖ( و ﺧـﻮاص آﻣـﺎري‬
‫ﺗﺨﻤﻴﻦ ﻣﺠﺎﻧﺒﻲ ﺑﺤﺚ ﻣﻲ ﺷﻮد‪ .‬در اﺳﺘﻔﺎده از ﻧﺘﺎﻳﺞ ﺑﺤﺚ ﺗﺤﻠﻴﻠﻲ در ﻋﻤﻞ‪ ،‬ﺑﺎﻳﺪ دﻗﺖ ﮔﺮدد ﭼﻮن ﻣﻤﻜﻦ اﺳﺖ دﻗﻴﻖ‬
‫ﻧﺒﺎﺷﺪ‪.‬‬
‫‪ o‬ﻣﻮﺿﻮع ﺑﺮاي ﺳﻴﺴﺘﻢ ‪ LTI‬ﺑﺤﺚ ﻣﻲ ﺷﻮد و ﺳﭙﺲ ﺑﻪ ﺳﻴﺴﺘﻢ ﻋﻤﻮﻣﻲ ﺗﻌﻤﻴﻢ داده ﻣﻲ ﺷﻮد‪.‬‬
‫‪ o‬در اﻳﻦ راﺑﻄﻪ اﺑﺘﺪا وارﻳﺎﻧﺲ ﺗﺌﻮرﻳﻚ ﺧﻄﺎ ̅‪ V‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ و ﺳﭙﺲ ﻣﻴﻞ ﻣﺠﺎﻧﺒﻲ ̅‪ VN→V‬ﺑﺤﺚ ﻣﻲ ﺷﻮد‪.‬‬
‫‪ o‬ﻣﺸﺎﺑﻪ اﻳﻦ ﺑﺤﺚ ﺑﺮاي ‪ IV‬و ̅‪ f‬و ‪ fN‬ﻧﻴﺰ ﻗﺎﺑﻞ ﻃﺮح اﺳﺖ‪.‬‬

‫‪ 1-7‬ﺣﺪ ﺗﺌﻮرﻳﻚ وارﻳﺎﻧﺲ ﺧﻄﺎ ‪ Ljung chapter 8‬‬


‫وارﻳﺎﻧﺲ ﺧﻄﺎ‬

‫را ﻣﻲ ﺗﻮان ﺑﺮاي ﻳﻚ ﺳﻴﺴﺘﻢ و ﻣﺪل ﺑﺎ ﻣﺸﺨﺼﺎت از ﻗﺒﻞ ﻣﻌﻠﻮم ﻣﺤﺎﺳﺒﻪ ﻛـﺮد‪ .‬اﻳـﻦ ﻣﻘـﺪار ﻛﻴﻔﻴـﺖ روش و ﻣـﺪل در‬
‫ﺑﻬﺘﺮﻳﻦ ﺣﺎﻟﺖ را ﺑﻄﻮر ﺗﺌﻮرﻳﻚ ﻣﺸﺨﺺ ﻣﻲ ﻛﻨﺪ‪ .‬ﻣﺜﺎﻟﻬﺎي زﻳﺮ ﻧﺤﻮه ﻣﺤﺎﺳﺒﻪ را ﻧﺸﺎن ﻣﻲ دﻫﻨﺪ‪.‬‬
2-7 ‫وارﻳﺎﻧﺲ ﺧﻄﺎي ﭘﻴﺶ ﺑﻴﻨﻲ و ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ‬
Example 8.1 Bias in ARX Structures .1 ‫ﻣﺜﺎل‬
‫ ﻫﺴﺘﻨﺪ‬1 ‫ ﺑﻪ ﺗﺮﺗﻴﺐ و ﻫﺮ دو ﺑﺮاﺑﺮ‬λ‫ و‬μ ‫ ﻣﺴﺘﻘﻞ ﻧﻮﻳﺰ ﺳﻔﻴﺪ ﺑﺎ وارﻳﺎﻧﺲ‬e‫ و‬u ‫ﻓﺮض ﻛﻨﻴﺪ ﺑﺮاي ﺳﻴﺴﺘﻢ زﻳﺮ ﻛﻪ‬

‫ﻣﺪل ﭘﻴﺶ ﺑﻴﻨﻲ ﺑﺎ ﭘﺎراﻣﺘﺮ ﻧﺎﻣﻌﻠﻮم زﻳﺮ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﻮد‬

‫ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬PEM ‫ وارﻳﺎﻧﺲ ﺧﻄﺎ‬.‫ﺗﺤﺖ اﻳﻦ ﺷﺮاﻳﻂ در ﺑﻬﺘﺮﻳﻦ وﺿﻌﻴﺖ وارﻳﺎﻧﺲ ﺧﻄﺎ ﻗﺎﺑﻞ ﻣﺤﺎﺳﺒﻪ ﺗﺌﻮرﻳﻚ اﺳﺖ‬

 Ry  0   a 2 Ry  0   b2 Ru  0   2aRy 1  2bRyu 1  2abRyu  0 


‫ﺑﺮاي اﻳﻦ ﻣﺤﺎﺳﺒﺎت ﺑﻪ اﻳﻦ ﻣﻘﺎدﻳﺮ ﻧﻴﺎز اﺳﺖ‬
Ryu (0)  E[ y (t )u (t )]  E[u (t ).   a0 y (t  1)  b0 u (t  1)  e(t )  c0 e(t  1)   0
Ryu (1)  E[ y (t )u (t  1)]  E[u (t  1).  a0 y (t  1)  b0 u (t  1)  e(t )  c0 e(t  1)   b0 
Rye (0)  E[ y (t )e(t )]  E[e(t ).   a0 y (t  1)  b0u (t  1)  e(t )  c0 e(t  1)   
Rye (1)  E[ y (t )e(t  1)]  E[e(t  1).  a0 y (t  1)  b0 u (t  1)  e(t )  c0 e(t  1)   (c0  a0 )
‫ﺿﻤﻨﺎ‬
R y (0)  E[ y (t ) y (t )]  E[  a0 y (t  1)  b0u (t  1)  e(t )  c0e(t  1)  ] 
2

a02 R y (0)  2a0b0 R yu (0)  2a0c0 R ye (0)  b02     c02 


2a0c0  b02     c02
R y (0) 
1  a02
R y (1)  E[ y (t ) y (t  1)]  E[ a0 y (t  1)  b0u (t  1)  e(t )  c0e(t  1) y (t  1) ] 
a0 R y (0)  b0 Ryu (0)  c0 R ye (0)  a0 Ry (0)  c0
a 2c   a0b02   a0  a0c02  c0
R y (1)  0 0
1  a02
‫ﺣﺎل وارﻳﺎﻧﺲ ﺧﻄﺎ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬
V ( )  Ry  0  1  a 2   b  2aa0 Ry  0  2bb0   2ac0 
2

‫ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬=µ=1 ‫ﺑﺎ در ﻧﻈﺮ ﮔﺮﻓﺘﻦ‬


V ( )  Ry  0 1  a  2aa0   b  2bb0  2ac0
2 2

(r0=Ry(0)) ‫ ﺑﻪ ﭘﺎراﻣﺘﺮﻫﺎ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬V̅ ‫ﺑﺎ ﺻﻔﺮ ﻛﺮدن ﻣﺸﺘﻖ‬

‫ﺑﻪ ازاي اﻳﻦ ﻣﻘﺎدﻳﺮ وارﻳﺎﻧﺲ ﺧﻄﺎ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

.‫اﺳﺖ‬ ‫ وارﻳﺎﻧﺲ ﺧﻄﺎ ﻛﻤﺘﺮاز وارﻳﺎﻧﺲ ﺑﺎ ﻣﻘﺎدﻳﺮ واﻗﻌﻲ‬،‫ﻋﻠﻴﺮﻏﻢ ﺗﺨﻤﻴﻦ ﺑﺎﻳﺎس دار‬
‫‪3-7‬‬ ‫وارﻳﺎﻧﺲ ﺧﻄﺎي ﭘﻴﺶ ﺑﻴﻨﻲ و ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ‬

‫ﺑﻪ ﻣﻘﺎدﻳﺮ ﺑﻬﻴﻨﻪ ﺧﻮد *‪ a‬و ‪ b=b0‬ﻣﻴﻞ ﻣﻲ ﻛﻨﺪ‪ .‬دﻳﺪه ﻣـﻲ ﺷـﻮد ﻛـﻪ‬ ‫در ﻧﺘﻴﺠﻪ ‪ PEM‬ﭘﺎراﻣﺘﺮﻫﺎي و‬
‫اﺳﺖ‪.‬‬ ‫ﺗﺨﻤﻴﻨﻲ ﺑﺎﻳﺎس دار اﺳﺖ‪ .‬وﻟﻲ اﻳﻦ ﺗﺨﻤﻴﻦ ﺑﺎﻳﺎس دار وارﻳﺎﻧﺲ ﻛﻤﺘﺮي ﻣﻲ دﻫﺪ ﻛﻪ ﺑﻬﺘﺮ از ﺗﺨﻤﻴﻦ دﻗﻴﻖ‬
‫ﺿﻤﻨﺎ اﻓﺰاﻳﺶ ‪ µ‬اﻓﺰاﻳﺶ ‪ r0‬و ﻣﺘﻌﺎﻗﺒﺎ ﻛﺎﻫﺶ ﺑﺎﻳﺎس را ﺑﺪﻧﺒﺎل دارد‪.‬‬
‫‪ Example 8.2 Wrong Time Delay‬‬ ‫ﻣﺜﺎل ‪.2‬‬
‫ﺣﺎل اﻳﻦ ﻣﺜﺎل را ﺑﺮرﺳﻲ ﻣﻲ ﻛﻨﻴﻢ‬

‫ﻛﻪ در ان ‪ v‬و ‪ w‬ﻧﻮﻳﺰ ﺳﻔﻴﺪ ﺑﺎ وارﻳﺎﻧﺲ ‪ 1‬ﻫﺴﺘﻨﺪ‪ .‬وﻗﺘﻲ ﻣﺪل ﺗﺨﻤﻴﻦ ﺑﺎ ﺗﺎﺧﻴﺮ ﺻﺤﻴﺢ‬

‫در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﻮد‪ .‬وارﻳﺎﻧﺲ ﺧﻄﺎ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫ﭘﺎراﻣﺘﺮ ﺑﻪ ﻧﺤﻮي ﺗﺨﻤﻴﻦ زده ﻣﻲ ﺷﻮد ﻛﻪ وارﻳﺎﻧﺲ ﺣﺪاﻗﻞ ﮔﺮدد‪ .‬ﺑﺎ ﺻﻔﺮ ﻛﺮدن ﻣﺸﺘﻖ ﻧﺴﺒﺖ ﺑﻪ ‪ b‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬

‫ﻛﻪ ﺣﺪاﻗﻞ ﺧﻄﺎي ﭘﻴﺶ ﺑﻴﻨﻲ را ﻣﻲ دﻫﺪ‬


‫در ﻣﻘﺎﻳﺴـﻪ ﺑـﺎ ‪ 1‬ﺑـﺮاي‬ ‫و وارﻳﺎﻧﺲ ﺧﻄـﺎي‬ ‫‪ ‬ﺑﺎ اﻳﻦ ﻣﻘﺪار ﺗﺨﻤﻴﻦ ‪ b‬ﺗﺨﻤﻴﻨﮕﺮ‬
‫ﺑﻬﺘﺮﻳﻦ ﺣﺎﻟﺖ اﺳﺖ )ﺣﺪاﻗﻞ وارﻳﺎﻧﺲ ﺧﻄﺎ ﻣﻲ ﺗﻮاﻧﺪ ‪ 1‬ﺷﻮد(‪.‬‬
‫‪ ‬ﻧﻜﺘﻪ دﻳﮕﺮ اﻳﻨﻜﻪ وارﻳﺎﻧﺲ ﺧﻄﺎ ﻛﻤﺘﺮ از وارﻳﺎﻧﺲ ﺧﺮوﺟﻲ اﺳﺖ ﻛﻪ ﺑﺎﻳﺪ اﻳﻨﮕﻮﻧﻪ ﺷﻮد ﺗﺎ ﻋﻤﻠﻜﺮد ﻗﺎﺑﻞ ﻗﺒﻮل ﺑﺎﺷﺪ‪.‬‬

‫ﺗﺎﺧﻴﺮ ﻏﻠﻂ‬
‫‪ ‬ﺣﺎﻻاﮔﺮ ﻣﺪل )‪ ŷ=bu(t‬ﻳﻌﻨﻲ ﺑﺎ ﺗﺎﺧﻴﺮ ﻏﻠﻂ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﻮد و ﻣﺤﺎﺳﺒﺎت ﺑﺎ اﻳﻦ ﻣﺪل ﺗﻜﺮار ﺷﻮد ﻣﻨﺠﺮ ﺑﻪ وارﻳﺎﻧﺲ‬
‫ﻛﻤﺘﺮاز آن اﺳﺖ ﺑﻪ اﻳﻦ ﻣﻌﻨﻲ ﻛﻪ ﺗﺨﻤﻴﻦ ﺑﻲ ﻓﺎﻳـﺪه ﺑـﻮده‬ ‫ﻣﻴﮕﺮدد در ﺣﺎﻟﻴﻜﻪ وارﻳﺎﻧﺲ ﺧﺮوﺟﻲ‬ ‫ﺧﻄﺎي‬
‫اﺳﺖ‬

‫‪ 2-7‬ﻫﻤﮕﺮاﻳﻲ ﻣﺠﺎﻧﺒﻲ وارﻳﺎﻧﺲ ﺧﻄﺎ ‪ VN→V‬‬


‫ﻣﻮﺿﻮع دﻳﮕﺮ اﻳﻦ اﺳﺖ ﻛﻪ ﻧﺸﺎن داده ﺷﻮد ﺗﺤﺖ ﭼﻪ ﺷﺮاﻳﻄﻲ ﺗﺨﻤﻴﻦ ﺑﻄﻮر ﻣﺠﺎﻧﺒﻲ ﺑﻪ ﻣﻌﻴﺎر ﺣﺪ ̅‪ V‬ﻣﻴـﻞ ﻣـﻲ ﻛﻨـﺪ‪.‬‬
‫)ﻫﻤﮕﺮاﻳﻲ(‪ .‬ﺑﺮاي اﻳﻦ ﻣﻨﻈﻮر ﻓﺮض ﻣﻲ ﺷﻮد دﻧﺒﺎﻟﻪ ﻧﺎﻣﺤﺪود دﻳﺘﺎ وﺟﻮد دارد‬
‫‪4-7‬‬ ‫وارﻳﺎﻧﺲ ﺧﻄﺎي ﭘﻴﺶ ﺑﻴﻨﻲ و ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ‬
‫دﻳﺘﺎي ﻧﺎ ﻣﺤﺪود ‪ D1‬‬
‫ﺑﺮاي ﺑﺮرﺳﻲ ﻋﻤﻠﻜﺮد ﺳﻴﺴﺘﻢ ﻧﻴﺎز ﺑﻪ دﻧﺒﺎﻟﻪ ﻧﺎ ﻣﺤﺪود دﻳﺘﺎﺳﺖ‪ .‬ﺟﻤﻊ آوري ﻋﻤﻠﻲ اﻳﻦ دﻳﺘﺎ ﻣﻤﻜﻦ ﻧﻴﺴـﺖ وﻟـﻲ ﻓـﺮض‬
‫ﻣﻲ ﺷﻮد ﻛﻪ دﻧﺒﺎﻟﻪ ورودي و ﺧﺮوﺟﻲ را دو ﺳﻴﺴﺘﻢ زﻳﺮ ﺗﻮﻟﻴﺪ ﻛﺮده اﻧﺪ‪.‬‬

‫‪ r(t) ‬ﺳﻴﮕﻨﺎل ﺗﺤﺮﻳﻚ ﺧﺎرﺟﻲ ﻣﻌﻴﻦ ﻛﺮاﻧﺪار اﺳﺖ )ﻗﺎﺑﻞ ﺗﻜﺮار(‪ .‬اﻳﻦ ﺳﻴﮕﻨﺎل ﺑﺎﻳﺪ ‪ informative‬ﺑﺎﺷﺪ‪ .‬ﻳﻚ ﻧﻮع ﺑﻴﺎن‬
‫‪ informative‬ﺑﻮدن ‪ z(w)>0 is positive definite‬دﻳﺘﺎ اﺳﺖ‪.‬‬

‫‪ e(t) ‬ﺳﻴﮕﻨﺎل ﺗﺼﺎدﻓﻲ ﺑﺎ ﻣﻴﺎﻧﮕﻴﻦ ﺻﻔﺮ و ﻣﻤﻨﺖ ﻛﺮاﻧﺪار ﺗﺎ ‪(δ>0) 4+δ‬‬


‫‪ ‬ﺧﺎﻧﻮاده ﻓﻴﻠﺘﺮﻫﺎي ‪ (dt(i) (k)} 00 , i = 1-4; t = 1,2, ...‬ﭘﺎﻳﺪار ﻳﻜﻨﻮاﺧﺖ ﻫﺴﺘﻨﺪ‪ .‬ﭼﻮن ﻓﻴﻠﺘﺮ واﺑﺴﺘﻪ ﺑﻪ زﻣﺎن اﺳﺖ‬
‫ﭘﺎﺳﺦ ﺿﺮﺑﻪ ﻫﺎي آن ﻧﻴﺰ واﺑﺴﺘﻪ ﺑﻪ زﻣﺎن اﺳﺖ‪ .‬راﺑﻄﻪ ﻣﻲ ﺧﻮاﻫﺪ ﻛﻪ ﺗﻤﺎم آﻧﻬﺎ ﺷﺮط زﻳﺮ را ﺑﭙﺬﻳﺮﻧﺪ‪.‬‬

‫‪ y ‬و ‪ u‬ﺳﻴﮕﻨﺎﻟﻬﺎي ‪ jointly quasi-stationary‬ﻫﺴﺘﻨﺪ ﻳﺎ ﺑﻪ ﻋﺒﺎرت دﻳﮕﺮ آﻧﻬـﺎ را ﻳـﻚ ﺳﻴﺴـﺘﻢ ﭘﺎﻳـﺪار ﺧﻄـﻲ ﺑـﺎ‬
‫ورودﻳﻬﺎي ﻛﺮاﻧﺪار ﺗﻮﻟﻴﺪ ﻛﺮده اﺳﺖ‪.‬‬
‫ﺗﺒﻴﻴﻦ ‪ D1‬در ﻗﺎﻟﺐ ﺳﻴﺴﺘﻢ ﻓﻴﺪﺑﻚ ‪S1:‬‬
‫‪ ‬ﺷﺮوط ﻓﻮق ﺑﻪ ﺗﻌﺒﻴﺮ دﻳﮕﺮ آن اﺳﺖ ﻛﻪ ﺳﻴﺴﺘﻢ ﺧﻄﻲ ﺣﻠﻘﻪ ﺑﺴﺘﻪ )ﻳﺎ ﺑﺎز( زﻳﺮ ﺳﻴﮕﻨﺎل ‪ y‬و ‪ u‬را ﺗﻮﻟﻴﺪ ﻛﺮده اﺳﺖ‪.‬‬

‫‪ ‬در ﺣﺎﻟﺖ ﺣﻠﻘﻪ ﺑﺎز ‪ u=w‬در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﻣﻲ ﺷﻮد‪.‬‬


‫‪ H ‬ﻣﻮﻧﻴﻚ و ‪ H-1‬ﭘﺎﻳﺪار اﺳﺖ‬
‫‪ ‬در ‪ F*G‬ﺣﺪاﻗﻞ ﻳﻚ واﺣﺪ ﺗﺎﺧﻴﺮ وﺟﻮد دارد‬
‫‪5-7‬‬ ‫وارﻳﺎﻧﺲ ﺧﻄﺎي ﭘﻴﺶ ﺑﻴﻨﻲ و ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ‬
‫‪ ‬ﺗﻮاﺑﻊ ﺗﺒﺪﻳﻞ از ‪ e‬و ‪ r‬ﺑﻪ ‪ y‬و ‪ u‬ﭘﺎﻳﺪار ﺑﺎﺷﻨﺪ‪ .‬ﺑﺮاي اﻳﻦ ﻣﻨﻈـﻮر ‪ H‬و ﺣﻠﻘـﻪ ﺑﺴـﺘﻪ ))‪(G/(1+GF‬ﺑﺎﻳـﺪ ﭘﺎﻳﺪارﺑﺎﺷـﻨﺪ و‬
‫ﺑﻄﻮر ﺧﺎص ﭘﺎﻳﺪاري ‪ G‬و ‪ F‬ﻻزم ﻧﻴﺴﺖ‪ .‬ﻓﺮض ﻣﻲ ﺷﻮد ﺳﻴﺴﺘﻢ ﻓﻮق ﺧﻄﻲ ﺑﺎﺷﺪ‪ .‬ﺷﺮط ﻣﺤﺪود ﻛﻨﻨﺪه ﺧﻄﻲ ﺑـﻮدن‬
‫را در ﻣﻘﺎﺑﻞ ﺗﺤﻠﻴﻞ ﭘﻴﭽﻴﺪه ﺗﺮ ﻣﻲ ﺗﻮان ﺣﺬف ﻛﺮد‪.‬‬

‫‪ 1-2-7‬ﻫﻤﮕﺮاﻳﻲ ‬
‫ﺑﺮاي ‪ PEM‬ﺑﺎ ﻣﻌﻴﺎر ‪ quadratic‬وارﻳﺎﻧﺲ ﺧﻄﺎ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫ﺣﺎل اﮔﺮ دﻳﺘﺎ ﺑﺎ ‪ D1‬ﺗﻮﻟﻴﺪ ﺷﺪه ﺑﺎﺷﺪ ﺑﺎ ﺟﺎﻳﮕﺬاري ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬

‫‪ Lemma 8.2.‬ﻫﻤﮕﺮاﻳﻲ ‪VN‬‬


‫‪ ‬ﺗﺤﺖ ﺷﺮاﻳﻂ ﻣﺪل ﺧﻄﻲ ﭘﺎﻳﺪار ﻳﻜﻨﻮاﺧﺖ ﻃﺒﻖ ﺷﺮط ‪ ،D1‬راﺑﻄﻪ ﺧﻄﺎ ‪ 8,18‬ﻧﻴﺰ ﭘﺎﻳﺪار ﻳﻜﻨﻮاﺧﺖ اﺳﺖ‬
‫‪ ‬در ﻧﺘﻴﺠﻪ )‪ d(5‬و )‪ d(6‬ﻫﻢ ﭘﺎﻳﺪار ﻳﻜﻨﻮاﺧﺖ اﺳﺖ و ‪ ‬ﺳﻴﮕﻨﺎل ﺷﺒﻪ اﻳﺴﺘﺎن اﺳﺖ‪ .‬ﻳﻌﻨﻲ‬

‫‪ ‬ﺑﻪ اﻳﻦ ﻣﻌﻨﻲ ﻛﻪ‬

‫ﺑﻄـﻮر ﻳﻜﻨﻮاﺧـﺖ ﺑـﻪ‬ ‫در اﻳﻦ راﺑﻄﻪ ‪ VN‬ﺗﻮﻟﻴﺪي دﻳﺘﺎ ‪ D1‬و ̅‪ V‬ﻣﺤﺼﻮل ﻧﺘﻴﺠﻪ ﺗﺌﻮرﻳﻚ اﺳﺖ‪ .‬ﺑﻪ اﻳﻦ ﺗﺮﺗﻴـﺐ‬
‫ﻣﻴﻞ ﻣﻲ ﻛﻨﺪ‬ ‫ﺗﺎﺑﻊ ﺣﺪ‬
‫‪ Theorem 8.2.‬ﻫﻤﮕﺮاﻳﻲ ̂ ‪‬‬
‫ﺗﺤﺖ ﺷﺮاﻳﻂ ﻓﻮق ﻛﻪ ̅‪ VN→V‬ﺑﻪ ﻫﻤﻴﻦ ﺗﺮﺗﻴﺐ ̅‪θ̂ N→θ‬‬
‫ﻫﻤﮕﺮاﻳﻲ ﺑﺪون ﺷﺮط ﺳﻴﺴﺘﻢ ﺧﻄﻲ ‪D1‬‬
‫در ﺣﺎﻟﺖ ﻛﻠﻲ رواﺑﻄﻲ ﻛﻪ ﻛﻴﻔﻴﺖ ﺗﺨﻤﻴﻦ را ﺑﺎ آﻧﻬﺎ ﻣﻲ ﺗﻮان ﺑﺮرﺳﻲ ﻛﺮد ﺑﻪ ﻗﺮار زﻳﺮ ﻫﺴﺘﻨﺪ‬
‫‪6-7‬‬ ‫وارﻳﺎﻧﺲ ﺧﻄﺎي ﭘﻴﺶ ﺑﻴﻨﻲ و ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ‬
‫ﻧﺘﻴﺠﻪ ﺑﺤﺚ‬
‫‪ ‬ﻧﺘﻴﺠﻪ اﻳﻦ اﺳﺖ ﻛﻪ ﺗﺨﻤﻴﻦ ﺑﻪ ﺑﻬﺘﺮﻳﻦ ﺗﻘﺮﻳﺐ ﻣﺪل ﻛﻪ در ﻣﺠﻤﻮﻋﻪ ﻣﺪﻟﻬﺎ وﺟﻮد دارد ﻣﻴﻞ ﻣﻲ ﻛﻨﺪ‪ .‬ﻣﻘﺪار ̅‪ V‬ﻣﻌﻴـﺎر‬
‫ﺧﻮب ﺑﻮدن ﺗﻘﺮﻳﺐ اﺳﺖ‬
‫‪ V̅ ‬ﻫﻢ ﺑﻪ ﺳﻴﺴﺘﻢ اﺻﻠﻲ‪ ،‬ﻣﺪل و ﻣﺸﺨﺼﺎت ﺳﻴﮕﻨﺎﻟﻬﺎ واﺑﺴﺘﻪ اﺳﺖ‪.‬‬
‫‪ ‬از ﺗﺌﻮري ‪ 2,2‬ورودي ﺑﺎﻳﺪ ‪ Informative‬ﺑﺎﺷﺪ ‪z(w)>0 in (8.13).‬‬
‫‪ ‬ﻣﺸﺨﺼﺎت درﺟﻪ ‪ 2‬ﺳﻴﮕﻨﺎل ورودي )وارﻳﺎﻧﺴﻬﺎ( در ﻫﻤﮕﺮاﻳﻲ اﻟﮕﻮرﻳﺘﻢ دﺧﺎﻟﺖ دارﻧﺪ‪.‬‬

‫ ‪ CONSISTENCY AND IDENTIFIABILITY‬‬ ‫ﺷﺮوط ﺗﺨﻤﻴﻦ ﺳﻴﺴﺘﻢ واﻗﻌﻲ ‪:*=0‬‬ ‫‪3-7‬‬

‫ﺗﺌﻮري ‪ : 8.3‬ﺗﺨﻤﻴﻦ ﺧﻮب ‪ G‬و‪ H‬‬


‫ﺳﻴﺴﺘﻢ‬
‫‪y=Gu+He‬‬
‫ﻗﺎﺑﻞ ﺷﻨﺎﺳﺎﻳﻲ )ﺑﺎ ﺑﻬﻴﻨﻪ ﺳﺎزي ﻏﻴﺮ ﺧﻄﻲ( اﺳﺖ اﮔﺮ‬
‫‪ ‬دﻳﺘﺎ ∞‪ Z‬ﻣﻄﺎﺑﻖ ﻣﻔﺮوﺿﺎت ‪ S1‬ﻛﻪ ﻧﺴﺒﺖ ﺑﻪ ﺳﺎﺧﺘﺎر ﻣﺪل ‪ M‬دﻳﺘﺎي ‪ Informative‬اﺳﺖ‬
‫در ﺣﺎﻟﺖ ﻓﻴﺪﺑﻚ ﺣﺪاﻗﻞ ﻳﻚ ﺗﺎﺧﻴﺮ در ‪ G‬ﻳﺎ ‪ G0‬ﻳﺎ ﻫﺮ دو ﺑﺎﺷﺪ‬
‫‪ ‬ﻣﻌﻴﺎر ‪Quadratic‬‬
‫‪) SM ‬ﻳﻌﻨﻲ ﻫﻢ ‪ G‬و ﻫﻢ ‪ H‬در ﻣﺠﻤﻮﻋﻪ ﻣﺪﻟﻬﺎي ﺗﺨﻤﻴﻦ ﺑﺎﺷﻨﺪ(‬

‫ﺗﺌﻮري ‪ :8.4‬ﺗﺨﻤﻴﻦ ﺧﻮب ‪ G‬وﻗﺘﻲ ‪ H‬در ﻣﺠﻤﻮﻋﻪ ﻧﻴﺴﺖ‬


‫ﺳﻴﺴﺘﻢ‬
‫‪y=Gu+v‬‬
‫ﻗﺎﺑﻞ ﺷﻨﺎﺳﺎﻳﻲ ﺑﺎ ﺑﻬﻴﻨﻪ ﺳﺎزي ﻏﻴﺮ ﺧﻄﻲ اﺳﺖ اﮔﺮ‬
‫‪ ‬دﻳﺘﺎ ∞‪ Z‬ﻣﻄﺎﺑﻖ ﻣﻔﺮوﺿﺎت ‪ S1‬ﻛﻪ ﻧﺴﺒﺖ ﺑﻪ ﺳﺎﺧﺘﺎر ﻣﺪل ‪ M‬دﻳﺘﺎي ‪ Informative‬اﺳﺖ‬
‫‪ ‬در ﺣﺎﻟﺖ ﻓﻴﺪﺑﻚ ﺣﺪاﻗﻞ ﻳﻚ ﺗﺎﺧﻴﺮ در ‪ G‬ﻳﺎ ‪ G0‬ﻳﺎ ﻫﺮ دو ﺑﺎﺷﺪ‬
‫‪ e ‬و ‪ u‬ﻣﺴﺘﻘﻞ )ﺣﻠﻘﻪ ﺑﺎز(‬
‫‪ G ‬و‪ H‬ﻣﺪل ﭘﺎراﻣﺘﺮﻫﺎي ﻣﺴﺘﻘﻞ داﺷﺘﻪ ﺑﺎﺷﻨﺪ‬

‫‪Quadratic Criteria ‬‬


‫‪Go  G: ‬‬
‫‪7-7‬‬ ‫وارﻳﺎﻧﺲ ﺧﻄﺎي ﭘﻴﺶ ﺑﻴﻨﻲ و ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ‬
‫‪ ‬ﻣﺪل ‪ y=B/F u+e OE‬و ‪ y=Gu+H* e‬ﻛﻪ ‪ H‬ﺛﺎﺑﺖ و ﻣﺸﺨﺺ اﺳﺖ )ﺗﺎ در ‪ 1/H‬ﺿـﺮب و ‪ OE‬ﮔـﺮدد( در اﻳـﻦ‬
‫دﺳﺘﻪ ﺟﺎي ﻣﻲ ﮔﻴﺮد‬
‫‪ ‬ﻣﺪل ‪ BJ‬ﻧﻴﺰ در اﻳﻦ رده اﺳﺖ ﻛﻪ اﻣﻜﺎن ﺗﺨﻤﻴﻦ واﻗﻌﻲ ‪ G‬را ﻓﺮاﻫﻢ ﻣﻲ آورد ‪y=B/F u+C/D e‬‬

‫‪ Example 8.3 First Order Output Error Model‬‬ ‫ﻣﺜﺎل ‪.3‬‬


‫در ﺳﻴﺴﺘﻢ‬

‫اﮔﺮ ﻣﺪل ﭘﻴﺶ ﺑﻴﻨﻲ را ﺑﺼﻮرت ‪OE‬‬

‫ﺑـﻪ‬ ‫ﻛﻪ ‪ H‬در ﻣﺪل ﻧﻴﺴﺖ وﻟﻲ ‪ G‬ﺑﺎ ﺳـﺎﺧﺘﺎر درﺳـﺖ وﺟـﻮد دارد در ﻧﻈـﺮ ﺑﮕﻴـﺮﻳﻢ‪ ،‬ﻃﺒـﻖ ‪ 8.4‬ﺗﺨﻤـﻴﻦ‬
‫ﻣﻴﻞ ﻛﻨﺪ‬
‫ﺗﺤﺖ ﺷﺮاﻳﻄﻲ رﺳﻴﺪن ﺑﻪ ‪ true value‬ﻧﻴﺰ ﻣﺤﻘﻖ ﻣﻲ ﺷﻮد‪.‬‬ ‫‪ ‬ﺑﺮاي ﻣﻌﻴﺎر ﻏﻴﺮ ﺗﻮان ‪ 2‬ﺧﻄﺎ‬

‫‪ 4-7‬آﻧﺎﻟﻴﺰ ﻓﺮﻛﺎﻧﺴﻲ وارﻳﺎﻧﺲ ﺧﻄﺎ‬


‫ﺑﺎ راﺑﻄﻪ ﭘﺎرﺳﻮال دارﻳﻢ‬

‫ﺗﺤﺖ ﻣﻔﺮوﺿﺎت ‪ SI‬و وارﻳﺎﻧﺲ ‪ o‬ﺑﺮاي ‪ eo‬از اﻳﻨﻘﺮار اﺳﺖ‬

‫ﺑﺎ ﺗﻌﺮﻳﻒ ﻛﺮدن‬

‫ﻃﻴﻒ ﺧﻄﺎ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫‪ PEM‬اﻧﺘﮕﺮال اﻳﻦ ﺗﺎﺑﻊ را ﺣﺪاﻗﻞ ﻣﻲ ﻛﻨﺪ‬


‫ﮔﺮدد دو ﺗﺮم اول ‪ 8.69‬ﺻﻔﺮ ﻣﻲ ﺷﻮﻧﺪ ﺗﺎ ﺣﺪاﻗﻞ ﮔﺮدد‬ ‫‪ ‬در ﺣﺎﻟﺘﻴﻜﻪ‬
‫ﻣﻴﻞ ﻣﻲ ﻛﻨﺪ‪.‬‬ ‫ﺑﻪ‬ ‫و‬ ‫‪ ‬راﺑﻄﻪ ﻧﺸﺎن ﻣﻲ دﻫﺪ ﻛﻪ در ‪ PEM‬ﺗﻮاﺑﻊ‬
‫ﺳﻴﺴﺘﻢ ﺣﻠﻘﻪ ﺑﺎز و *‪H=H‬‬ ‫ﻣﺜﺎل ‪.4‬‬
‫در ﺳﻴﺴﺘﻢ ﺣﻠﻘﻪ ﺑﺎز )‪ e‬و ‪ u‬ﻣﺴﺘﻘﻞ‪ (ue = 0‬ﻛﻪ در ﻧﺘﻴﺠﻪ ‪ B=0‬اﺳﺖ اﮔﺮ ﻣﺪل ﻧﻮﻳﺰ ﺛﺎﺑﺖ *‪ H=H‬ﺑﺎﺷﺪ ﺗﺨﻤﻴﻦ ‪ G‬ﺑﺎ‬
‫ﺣﺪاﻗﻞ ﺷﺪن اﻧﺘﮕﺮال زﻳﺮ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬
‫‪8-7‬‬ ‫وارﻳﺎﻧﺲ ﺧﻄﺎي ﭘﻴﺶ ﺑﻴﻨﻲ و ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ‬
‫ﺑﺎ وزن ﻓﺮﻛﺎﻧﺴﻲ *‪ Q‬اﺳﺖ‬ ‫ﺗﻘﺮﻳﺐ ‪best mean-square‬‬ ‫‪ ‬در اﻳﻦ ﻣﺜﺎل ‪Limiting model‬‬
‫ﻣﺜﺎل ‪ :2‬ﺣﻠﻘﻪ ﺑﺎز و ‪ G‬و ‪ H‬ﺑﺎ ﭘﺎراﻣﺘﺮﻫﺎي ﻣﺴﺘﻘﻞ‬
‫اﻳﻦ ﺑﺎر اﻧﺘﮕﺮال ‪ 8.69‬اﻳﻨﮕﻮﻧﻪ ﻧﺘﻴﺠﻪ ﻣﻲ دﻫﺪ‬

‫‪Closed Loop Case‬‬ ‫ﻣﺜﺎل ‪.5‬‬


‫اﮔﺮ ‪ u‬را اﻳﻨﮕﻮﻧﻪ ﺑﻨﻮﻳﺴﻴﻢ‬

‫ﻣﻲ ﺗﻮان ﻧﻮﺷﺖ‬

‫ﺣﺎﻻ ﻓﺮﻣﻮل ‪ 8.69‬اﻳﻨﮕﻮﻧﻪ ﻣﻲ ﺷﻮد‪.‬‬

‫ﻣﺜﺎل ‪ Example 8.5 Approximation in the Frequency Domain‬‬ ‫ﻣﺜﺎل ‪.6‬‬


‫اﻟﻒ( ﻣﺪل ‪OE‬‬

‫‪ ‬ﺳﻴﺴﺘﻢ ﺗﺤﺖ ﺗﺎﺛﻴﺮ اﺧﺘﻼل ﻧﻴﺴﺖ و ورودي ‪ PBRS‬ﺑﺎ ‪ u(w) ≈ 1 all w.‬است‪.‬‬
‫‪ ‬ﺑﺎ در ﻧﻈﺮ ﮔﺮﻓﺘﻦ ﻣﺪل ﭘﻴﺸﺒﻴﻨﻲ‬

‫‪ ‬ﭘﺎراﻣﺘﺮﻫﺎ از ﺣﺪاﻗﻞ ﺳﺎزي‬

‫ﺑﺪﺳﺖ ﻣﻲ آﻳﻨﺪ )‪ Q=1‬ﺑﻪ دﻟﻴﻞ ‪ .(H*(q) = 1 and u(w) == 1‬ﭘﺎﺳﺦ ﻓﺮﻛﺎﻧﺴﻲ ﻣﺪل و ﺳﻴﺴـﺘﻢ واﻗﻌـﻲ در ﺷـﻜﻞ‬
‫ﻧﺸﺎن داده ﺷﺪه اﺳﺖ ﻛﻪ ﻧﻤﺎﻳﺶ دﻫﻨﺪه ﺗﻄﺒﻴﻖ ﺧﻮب در ﻓﺮﻛﺎﻧﺴﻬﺎي ﭘﺎﻳﻴﻦ و ﺑﺪ در ﻓﺮﻛﺎﻧﺴﻬﺎي ﺑﺎﻻﺳﺖ‬
‫‪9-7‬‬ ‫وارﻳﺎﻧﺲ ﺧﻄﺎي ﭘﻴﺶ ﺑﻴﻨﻲ و ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ‬
‫ﺧﻄﺎ در ﻓﺮﻛﺎﻧﺴﻬﺎي ﺑﺎﻻ از اﻳﻨﺮوﺳﺖ ﻛﻪ ﻣﻘﺎدﻳﺮ ﻛﻮﭼﻜﻨﺪ و ﺳﻬﻢ ﻛﻤﻲ در اﻧﺘﮕﺮال از ﺧﻮد ﺑﻪ ﺟﺎي ﻣﻲ ﮔﺬارﻧﺪ ‪.‬‬

‫ب( ﻣﺪل ‪ARX‬‬


‫ﺣﺎل اﮔﺮ ﺳﻴﺴﺘﻢ ‪ ARX‬و ﻣﺪل ﻫﻤﺎن ﻗﺒﻠﻲ ﺑﺎﺷﺪ‬

‫ﻧﺘﻴﺠﻪ ﺑﺴﻴﺎر ﺑﺪ اﺳﺖ‪ .‬دﻟﻴﻞ آﻧﺮا از ‪ 8.69‬ﺑﺮاي اﻳﻦ ﺳﻴﺴﺘﻢ ﻣﻲ ﺗﻮان درﻳﺎﻓﺖ‬

‫ﭘﺎﺳﺦ ﻓﺮﻛﺎﻧﺴﻲ ﺗﺎﺑﻊ وزﻧﻲ ﻓﺮﻛﺎﻧﺴﻲ ‪ Q‬در اﻳﻦ ﻣﻮ‪.‬رد ﻣﻄﺎﺑﻖ ﺷﻜﻞ اﺳﺖ ﻛﻪ ﺑﻪ ﻓﺮﻛﺎﻧﺴﻬﺎي ﺑﺎﻻ وزن زﻳﺎد ﻣﻲ دﻫﺪ‪.‬‬

‫‪ 5-7‬آﻧﺎﻟﻴﺰ ﻋﻤﻮﻣﻲ وارﻳﺎﻧﺲ ﭘﺎراﻣﺘﺮ ﺗﺨﻤﻴﻨﻲ ‬


‫‪Ljung chapter 9‬‬
‫ﻣﺜﺎل وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ‬
‫‪ ‬ﺑﺮاي روﺷﻦ ﺷﺪن ﻣﻮﺿﻮع ﺑﻪ اﻳﻦ ﻣﺜﺎل ﺗﻮﺟﻪ ﻛﻨﻴﺪ‪ .‬دو ﭘﺎراﻣﺘﺮﺳﻴﺴﺘﻢ زﻳﺮ ‪ 20‬ﺑﺎر ﻣﻮرد ﺷﻨﺎﺳـﺎﻳﻲ ﻗـﺮار ﮔﺮﻓـﺖ ﻛـﻪ‬
‫ﻧﺘﺎﻳﺞ ﻧﺴﺒﺖ ﺑﻪ ﻣﻘﺪار واﻗﻌﻲ در ﺷﻜﻞ ﻧﺸﺎن داده ﺷﺪه اﺳﺖ ﻣﻘﺪار واﻗﻌﻲ ’]‪ 0=[0.3, 0.7‬اﺳﺖ‬
‫‪10-7‬‬ ‫وارﻳﺎﻧﺲ ﺧﻄﺎي ﭘﻴﺶ ﺑﻴﻨﻲ و ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ‬

‫در اﻳﻨﺠﺎ دو ﻣﺴﺌﻠﻪ ﺑﺎﻳﺎس و وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﻣﻄﺮح اﺳﺖ‪ .‬در ﻣﻮرد ﺑﺎﻳﺎس ﻗﺒﻼ ﺻﺤﺒﺖ ﺷﺪ اﻳﻨﺠﺎ در ﺧﺼﻮص وارﻳـﺎﻧﺲ‬
‫ﺗﺨﻤﻴﻨﻬﺎ ﺻﺤﺒﺖ ﻣﻲ ﺷﻮد‪.‬‬
‫ﺧﻼﺻﻪ ﻧﺘﺎﻳﺞ وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮدر ‪PEM‬‬
‫‪ ‬ﺗﺎﺑﻊ ﺗﻮزﻳﻊ ﭘﺎراﻣﺘﺮ ‪ ‬ﺑﺮاي ∞→‪ N‬ﻧﺮﻣﺎل اﺳﺖ‬
‫‪ ‬وارﻳﺎﻧﺲ ﻣﺠﺎﻧﺒﻲ ﭘﺎراﻣﺘﺮﻫﺎ ﻣﺘﻔﺎوت و ﺑﺼﻮرت ﺗﺌﻮرﻳﻚ ﻗﺎﺑﻞ ﻣﺤﺎﺳﺒﻪ اﺳﺖ و ﺑـﻪ ﻣﺘﻐﻴﺮﻫـﺎي ﺷﻨﺎﺳـﺎﻳﻲ و ﺳﻴﺴـﺘﻢ‬
‫واﺑﺴﺘﻪ اﺳﺖ‪ Pθ .‬ﻛﻪ وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ اﺳﺖ ﻛﻴﻔﻴﺖ ﻣﺘﺪ ﺷﻨﺎﺳﺎﻳﻲ را ﻧﺸﺎن ﻣﻲ دﻫﺪ‪ .‬ﻛﺎرﺑﺮد دﻳﮕﺮ آن ﻣﺤﺎﺳﺒﻪ ﺑﺎزه و‬
‫ﺳﻄﺢ اﻃﻤﻴﻨﺎن ﺑﻌﻨﻮان ﻣﻌﻴﺎر ‪ reliability‬اﺳﺖ‪.‬‬
‫‪ ‬اﻳﻦ ﺳﻮال ﺑﺎﻗﻲ ﻣﻲ ﻣﺎﻧﺪ ﻛﻪ آﻳﺎ ﻧﺘﺎﻳﺞ ﺑﺮاي ∞→‪ N‬ﺑﺮاي ‪ N‬ﻣﺤﺪود ﻧﻴﺰ اﻋﺘﺒﺎر دارد ﻳﺎ ﻧﻪ‪ .‬ﺷﺒﻴﻪ ﺳﺎزي ﻣﻮﻧـﺖ ﻛـﺎرﻟﻮ‬
‫روي ﺳﻴﺴﺘﻤﻬﺎي ﻋﻤﻮﻣﻲ ﻧﺸﺎن ﻣﻲ دﻫﺪ ﻛﻪ ﻧﺘﺎﻳﺞ ﻣﺠﺎﻧﺒﻲ ﺑﺎ ﺗﻠﺮاﻧﺲ ﺣﺪود ‪ 10%‬ﺑﺮاي ‪ N≥300‬ﻣﻌﺘﺒﺮ ﻫﺴﺘﻨﺪ‪.‬‬
‫‪ ‬ﺳﺮﻋﺖ ﻫﻤﮕﺮاﻳﻲ ‪ 1/ ,‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬
‫‪ 1-5-7‬ﻛﻒ وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ ‪ Cramer Rao Bound(CRB) :‬ﻓﺼﻞ ‪7‬‬
‫‪(A‬ﺗﺨﻤﻴﻨﮕﺮ )‪ maximum likelihood estimator (MLE‬‬
‫ﺑﺎ ﺑﺮدار ﭘﺎراﻣﺘﺮ ‪ ‬اﻳﻨﮕﻮﻧﻪ ﻧﻮﺷﺘﻪ ﻣﻲ ﺷﻮد‪.‬‬ ‫ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ اﺣﺘﻤﺎﻟﻲ ‪PDF‬ﻳﻚ دﻧﺒﺎﻟﻪ ﺗﺼﺎدﻓﻲ‬

‫ﻛﻪ ‪ θ‬ﻣﺠﻬﻮل اﺳﺖ‪ .‬ﺑﻪ ازاي ﻫﺮ ‪ yN‬داده ﺷﺪه ‪ ‬ﺗﺨﻤﻴﻦ زده ﻣﻲ ﺷﻮد اﺣﺘﻤﺎل اﻳﻨﻜﻪ ﻣﺸﺎﻫﺪات ‪ y*N‬رخ دﻫﺪ ﻣﺘﻨﺎﺳﺐ ﺑﺎ‬
‫ﺑﻨﺎﺑﺮاﻳﻦ ﺑﺮاي ﻣﺸﺎﻫﺪات داده ﺷﺪه ‪ y*N‬ﻣﻘﺎدﻳﺮ ‪ ‬ﺑﻪ ﻧﺤﻮي اﻧﺘﺨﺎب ﺷﻮﻧﺪ ﻛـﻪ‬ ‫‪ likelihood function‬اﺳﺖ‬
‫ﺗﺎﺑﻊ ‪ likelihood‬ﻣﺎﻛﺰﻳﻤﻢ ﮔﺮدد‬

‫ﺑﻪ اﻳﻦ ﺗﺨﻤﻴﻨﮕﺮ )‪ maximum likelihood estimator (MLE‬ﻣﻲ ﮔﻮﻳﻨﺪ‬


‫‪11-7‬‬ ‫وارﻳﺎﻧﺲ ﺧﻄﺎي ﭘﻴﺶ ﺑﻴﻨﻲ و ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ‬
‫ﻣﺜﺎﻟﻲ ﺑﺎ ﺗﺎﺑﻊ ﺗﻮزﻳﻊ ﻧﺮﻣﺎل ‬ ‫ﻣﺜﺎل ‪.7‬‬
‫ﻓﺮض ﻛﻨﻴﺪ ‪ y(i), i = 1, ...• N.‬ﺗﻌﺪاد ‪ N‬ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ﻣﺴﺘﻘﻞ ﺑﺎ ‪ PDF‬ﻧﺮﻣﺎل ﺑﺎ ﻣﻴﺎﻧﮕﻴﻦ ﻣﺠﻬﻮل ‪ 0‬و وارﻳـﺎﻧﺲ‬
‫ﻣﻌﻠﻮم ‪ i‬ﺑﺎﺷﻨﺪ ‪ joint PDF‬ﻓﺮاﻳﻨﺪ‬

‫اﺳﺖ ﺑﺎ ﻣﺤﺎﺳﺒﻪ ‪ θ‬ﻛﻪ ‪ jPDF‬را ﻣﺎﻛﺰﻳﻤﻢ ﻛﻨﺪ ﺗﺨﻤﻴﻦ ‪ θ‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬

‫ﻛﻪ ﻣﻨﺠﺮ ﺑﻪ‬

‫ﻳﻌﻨﻲ ﻣﻴﺎﻧﮕﻴﻦ دﻳﺘﺎ ﻣﻲ ﮔﺮدد‪ .‬ﭘﺲ ﺗﺤﺖ ﺷﺮاﻳﻂ ﻣﺴﺌﻠﻪ ﻣﻴﺎﻧﮕﻴﻦ ﮔﻴﺮي ﻳﻚ ﺗﺨﻤﻴﻨﮕﺮ ‪ MLE‬اﺳﺖ‬
‫‪(B‬ﻣﻴﻞ ﻧﻤﻮدار ‪ PDF‬ﺑﻪ ﻧﺮﻣﺎل در ﺣﺎﻟﺖ ﻣﺠﺎﻧﺒﻲ‬
‫ﻓﺮض ﻛﻨﻴﺪ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ })‪ {y(i‬ﻣﺴﺘﻘﻞ و ‪ identically distributed‬باشند يعنی‬

‫آﻧﻮﻗﺖ در ﺣﺎﻟﺖ ﻣﺠﺎﻧﺒﻲ ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ‬

‫با احتمال ‪١‬‬ ‫ﺗﺎﺑﻊ ﺗﻮزﻳﻊ ﻧﺮﻣﺎل ﺑﺎ ﻣﻴﺎﻧﮕﻴﻦ ﺻﻔﺮ و ﻣﺎﺗﺮﻳﺲ ﻛﻮارﻳﺎﻧﺲ ‪ M-1‬دارد و ‪→o‬‬
‫‪(C‬ﻛﻮارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ‪Cramer‐Rao Inequality : ‬‬
‫ﻛﻴﻔﻴﺖ ﺗﺨﻤﻴﻦ را ﺑﺎ ﻣﺎﺗﺮﻳﺲ ‪ mean-square error‬ﻣﻲ ﺗﻮان ﺑﻴﺎن ﻛﺮد‬

‫در ﻳﻚ ﺗﺨﻤﻴﻨﮕﺮ ﺧﻮب‪ ،‬ﻣﻘﺪار ‪ P‬ﻛﻮﭼﻚ اﺳﺖ‪ .‬ﺳﻮاﻟﻲ ﻛﻪ ﻣﻤﻜﻦ اﺳﺖ ﻣﻄﺮح ﺷﻮد اﻳﻦ اﺳﺖ ﻛﻪ ﻛـﻒ ﻣﻘـﺪار ‪ P‬ﺑـﺮاي‬
‫ﻳﻚ ﺗﺨﻤﻴﻨﮕﺮ ﺑﺪون ﺑﺎﻳﺎس ﭼﻘﺪر اﺳﺖ‪ .‬اﻳﻦ ﻛﻒ از ﻧﺎ ﻣﺴﺎوي ‪ Cramer-Rao‬ﻣﺸﺨﺺ ﻣﻲ ﻛﻨﺪ‬

‫ﻛﻪ‬

‫‪7.80‬‬
‫‪12-7‬‬ ‫وارﻳﺎﻧﺲ ﺧﻄﺎي ﭘﻴﺶ ﺑﻴﻨﻲ و ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ‬
‫اﮔﺮ ﺗﻌﺪاد ﭘﺎراﻣﺘﺮﻫﺎ ‪ d‬ﺑﺎﺷﺪ ﻣﺎﺗﺮﻳﺲ ‪ M‬ﻣﺎﺗﺮﻳﺲ ‪ d*d‬اﺳﺖ ﻛﻪ ﺑﻪ ﻧـﺎم ‪ Fisher information matrix‬ﺧﻮاﻧـﺪه ﻣـﻲ‬
‫ﺷﻮد‪ .‬در ﺻﻮرت ﻣﻮﺟﻮد ﺑﻮدن ‪ θ 0‬و‪ PDF‬اﻣﻜﺎن ﻣﺤﺎﺳﺒﻪ آن وﺟﻮد دارد در ﻏﻴﺮ اﻳﻨﺼﻮرت ﻣﻘﺪار آن ﻣﻌﻠـﻮم‬
‫ﻧﻴﺴﺖ‪.‬‬
‫‪ CRB(D‬ﺑﺮاي ‪ ℓ‬ﻟﮕﺎرﻳﺘﻤﻲ‬
‫اﻳﻨﮕﻮﻧﻪ دﻧﺒﺎل ﻣﻲ ﺷﻮد‪.‬‬ ‫‪ ‬ﻣﺤﺎﺳﺒﻪ ‪ M‬ﺗﺤﺖ ﺷﺮاﻳﻂ‬
‫‪ fe ‬ﻣﻌﻠﻮم و ‪ θ‬ﻫﺎ ﻣﺴﺘﻘﻞ ﻫﺴﺘﻨﺪ ﺗﺎ ﺑﺘﻮان ﻧﻮﺷﺖ‬

‫در اﻳﻦ راﺑﻄﻪ‬

‫ﺑﺎ اﻧﺪك ﻣﺤﺎﺳﺒﻪ ﻣﻲ ﺗﻮان ﻧﺸﺎن داد ﻛﻪ ‪ M‬ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫ﺣﺎل ‪CR‬ﻣﻲ ﮔﻮﻳﺪ ﻛﻪ ﺑﺮاي ﻫﺮ ﺗﺨﻤﻴﻦ ﮔﺮ ﺑﺪون ﺑﺎﻳﺎس‬

‫اﻳﻦ ﻣﻌﻴﺎر ﺑﺮاي ﻫﺮ ‪ N‬و ﻫﺮ روش ﺗﺨﻤﻴﻨﻲ ﺻﺤﻴﺢ اﺳﺖ‪.‬‬


‫وﻗﺘﻲ ‪ e0‬ﮔﻮﺳﻲ ﺑﺎ وارﻳﺎﻧﺲ ‪ 0‬ﺑﺎﺷﺪ‬
‫راﺑﻄﻪ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫‪ 2-5-7‬آﻧﺎﻟﻴﺰ وارﻳﺎﻧﺲ ﭘﺎراﻣﺘﺮ روش ‪ Quadratic PEM‬‬


‫ ‪Theorem 9.1.‬‬
‫‪ ‬ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ ﺑﺎ ‪Quadratic PEM‬‬
‫‪ ‬ﺑﺎ ﺳﻴﺴﺘﻢ ﻓﻴﺪﺑﻚ )ﻳﺎ ﺑﺎز( ﺑﺎ ﺷﺮاﻳﻂ داده ﺷﺪه ‪; S1‬ﻣﻨﺠﺮ ﺑﻪ‬

‫ﺷﻮد ﺧﻄﺎي ﺗﺨﻤﻴﻦ ﺑﻄﻮر ﻣﺠﺎﻧﺒﻲ داراي ﺗﺎﺑﻊ ﺗﻮزﻳﻊ ﻧﺮﻣﺎل ﺑﺎ وارﻳﺎﻧﺲ ‪ P‬اﺳﺖ‬
‫‪13-7‬‬ ‫وارﻳﺎﻧﺲ ﺧﻄﺎي ﭘﻴﺶ ﺑﻴﻨﻲ و ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ‬

‫ﻛﻮارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﺑﻪ ازاي ‪ N‬ﺑﺮاﺑﺮاﺳﺖ ﺑﺎ‬

‫ﻧﺤﻮه ﻣﺤﺎﺳﺒﻪ ‪P‬‬

‫ﺟﻮاب ﺑﺎ ‪ V’=0‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ ﺑﺎ ﺧﻄﻲ ﻛﺮدن ’‪ V‬ﺣﻮل *‪ ‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬

‫ﺑﺎ ﻣﺤﺎﺳﺒﻪ وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ‪ Q‬زﻳﺮ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬

‫‪ ‬ﻧﺸﺎن داده ﻣﻲ ﺷﻮد ﻛﻪ اﻳﻦ ﻧﺘﺎﻳﺞ ﺑﺮاي ﺣﺎﻟﺘﻬﺎي ﻋﻤﻮﻣﻲﺗﺮ دﻳﺘﺎ ﻧﻴـﺰ ﺻـﺎدق اﺳـﺖ‪ .‬ﻫﻤﭽﻨـﻴﻦ ﻧﺘـﺎﻳﺞ ﺑـﺮاي )‪ℓ(,‬‬
‫ﻣﺸﺮوط ﺑﺮ اﻧﻜﻪ ‪ ℓ‬ﺑﻪ اﻧﺪازه ﻛﺎﻓﻲ ﻫﻤﻮار ﻧﺴﺒﺖ ﺑﻪ ﻣﺘﻐﻴﺮﻫﺎ ﺑﺎﺷﺪ ﻧﻴﺰ ﺻﺎدق اﺳﺖ‬
‫اﻟﻒ( وارﻳﺎﻧﺲ در ﺷﺮاﻳﻂ ‪S M‬و ‪ Quadratic Criterion‬‬
‫ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ )‪ N(0,λ0‬ﺑﺎﺷﺪ آﻧﻮﻗﺖ وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬ ‫‪ ‬اﮔﺮ )‪eo(t‬‬
‫‪   dd  ‬‬ ‫‪d‬‬
‫‪d‬‬
‫ˆ‪y‬‬

‫اﻳﻦ راﺑﻄﻪ ﻫﻤﺎن راﺑﻄﻪ ‪Cramer Rao‬اﺳﺖ ﻛﻪ ﺑﺮاي )‪ ℓ=log(fe‬ﺑﺪﺳﺖ آﻣﺪ‪ .‬راﺑﻄﻪ ﻧﺸﺎن ﻣﻲ دﻫﺪ ﻫﺮ ﭼﻪ ‪ ŷ‬و ‪ ψ‬ﺑـﻪ‬
‫ﭘﺎراﻣﺘﺮي ﺣﺴﺎﺳﺘﺮ ﺑﺎﺷﻨﺪ آن ﭘﺎراﻣﺘﺮﺑﻬﺘﺮ ﺗﺨﻤﻴﻦ زده ﻣﻲ ﺷﻮد‪.‬‬
‫‪ ‬ﺑﺮ اﺳﺎس ‪ N‬دﻳﺘﺎي ورودي وارﻳﺎﻧﺲ ﻋﻤﻼ اﻳﻨﮕﻮﻧﻪ ﻣﺤﺎﺳﺒﻪ ﻣﻲ ﺷﻮد‬

‫ﻣﺜﺎل ‪ Example 9.1 Covariance of LS Estimates .8‬‬


‫ﺳﻴﺴﺘﻢ زﻳﺮ ﻛﻪ ‪ u‬ﻧﻮﻳﺰ ﺳﻔﻴﺪ ﺑﺎ وارﻳﺎﻧﺲ ‪ µ‬و ‪ e‬ﻧﻮﻳﺰ ﺳﻔﻴﺪ ﺑﺎ وارﻳﺎﻧﺲ ‪.o‬‬

‫ﻓﺮض ﻣﻲ ﺷﻮد ﭘﺎراﻣﺘﺮ ﻣﺠﻬﻮل ‪ a‬ﺑﺎﺷﺪ‬

‫و ﻣﺪل ﭘﻴﺶ ﺑﻴﻨﻲ‬


‫‪14-7‬‬ ‫وارﻳﺎﻧﺲ ﺧﻄﺎي ﭘﻴﺶ ﺑﻴﻨﻲ و ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ‬
‫و ﻣﻌﻴﺎر ‪ PEM‬درﺟﻪ ‪ 2‬ﺑﺎﺷﺪ‪ .‬ﺣﺎل ﺑﺎﺗﻮﺟﻪ ﺑﻪ رواﺑﻂ ﻣﻲ ﻧﻮﻳﺴﻴﻢ‬

‫ﻛﻪ در ﻧﺘﻴﺠﻪ دارﻳﻢ‬

‫ﺑﺮاي ﻣﺤﺎﺳﺒﻪ )‪ Ry(0‬اﺑﺘﺪا ‪ 9.20‬را ﺑﺘﻮان ‪ 2‬رﺳﺎﻧﺪه اﻣﻴﺪ رﻳﺎﺿﻲ آﻧﺮا ﺣﺴﺎب ﻛﻨﻴﺪ‬

‫‪ 9.20‬را در )‪ y(t-1‬ﺿﺮب و )‪ E(.‬را ﺣﺴﺎب ﻛﻨﻴﺪ‬

‫درﻧﺘﻴﺠﻪ‬

‫‪‬‬
‫‪ Example 9.2 Covariance of an MA(l) Parameter‬‬ ‫ﻣﺜﺎل ‪.9‬‬
‫ﺳﻴﺴﺘﻢ ‪ True‬زﻳﺮ ﺑﺎ ﻧﻮﻳﺰ ﺳﻔﻴﺪ ‪ e‬و وارﻳﺎﻧﺲ ‪ 1‬را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﺪ‪ .‬وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ ﻣﺠﻬﻮل ‪ c‬را ﺑﺪﺳﺖ آورﻳﺪ‬

‫ﻓﺮض ﻛﻨﻴﺪ ﻣﺪل ﭘﻴﺶ ﺑﻴﻨﻲ‬

‫)‪(ψ=-dŷ/dc‬‬ ‫در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﺪه ﺑﺎﺷﺪ‪ .‬ﻣﺸﺘﻖ راﺑﻄﻪ ﻧﺴﺒﺖ ﺑﻪ ‪ c‬ﻣﻲ دﻫﺪ‬
‫‪‬‬ ‫‪‬‬
‫‪dy (t ) ‬‬ ‫)‪dy (t  1‬‬ ‫‪‬‬
‫‪ y (t  1)  c‬‬ ‫)‪ y (t  1)   (t )  c (t  1)   y (t  1)  y (t  1‬‬
‫‪dc‬‬ ‫‪dc‬‬
‫‪At c = co, we have‬‬
‫‪c0 q 1‬‬
‫‪q 1 ‬‬
‫‪‬‬ ‫‪c q 1‬‬ ‫‪1  c0 q 1‬‬ ‫‪q 1‬‬
‫‪y (t )  (1  c0 q 1 )e0 (t ), y(t )  0 1 y (t ),‬‬ ‫‪ (t ) ‬‬ ‫‪1‬‬
‫‪y(t ) ‬‬ ‫) ‪e0 (t‬‬
‫‪1  c0 q‬‬ ‫‪1  c0 q‬‬ ‫‪1  c0 q 1‬‬
‫‪If‬‬ ‫‪is the PEM estimate of c, we have, according to (9.17),‬‬
‫‪R (0)  c02 R (0)  2c0 R (1)  1‬‬ ‫‪1‬‬
‫‪ (t )  c0 (t  1)  e0 (t  1) ‬‬ ‫‪ R (0) ‬‬
‫‪R (1)  c0 R (0)  0‬‬ ‫‪1  c02‬‬

‫ﻣﺜﺎل ‪ .10‬ﻣﺜﺎل ﺳﻴﺴﺘﻢ زﻳﺮ ﺑﺎ دو ﭘﺎراﻣﺘﺮ ﻣﺠﻬﻮل ‪ a‬و ‪ c‬را در ﻧﻈﺮ ﮔﺮﻓﺘﻪ وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ را ﺑﺪﺳﺖ آورﻳﺪ ‬
‫‪15-7‬‬ ‫وارﻳﺎﻧﺲ ﺧﻄﺎي ﭘﻴﺶ ﺑﻴﻨﻲ و ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ‬

‫‪,‬‬

‫اﮔﺮ ‪ a→c‬آﻧﻮﻗﺖ ∞→‪) P‬رﻧﻚ ﻣﺎﺗﺮﻳﺲ ‪ 1‬ﻣﻲ ﺷﻮد( اﻳﻦ ﺑﻪ آن ﻣﻌﻨﻲ اﺳﺖ ﻛﻪ ﺳﻴﺴﺘﻢ ‪ Overparameterized‬اﺳﺖ‪ .‬در اﻳﻦ ﺣﺎﻟﺖ ﻗﻄـﺐ‬
‫و ﺻﻔﺮ ﺳﻴﺴﺘﻢ ﻫﻤﺪﻳﮕﺮ ا ﺣﻨﺜﻲ ﻣﻲ ﻛﻨﻨﺪ و ﻣﺪل درﺳﺖ )‪ y(t)=e(t‬اﺳﺖ ﻛﻪ ﭘﺎراﻣﺘﺮ ﻣﺠﻬﻮﻟﻲ اﺻﻮﻻ ﻧﺪارد‬
‫ب( واريانس در شرايط ‪+Go G‬ﭘﺎراﻣﺘﺮ ﻣﺴﺘﻘﻞ ﺑﺮاي ‪ G‬و ‪ + G and‬ﻣﻌﻴﺎر ﻛﻮادراﺗﻴﻚ ‬
‫در اﻳﻦ ﺣﺎﻟﺖ ‪ G0‬در ﻣﺪل وﺟﻮد دارد وﻟﻲ ﻣﺪل ‪ H‬اﻟﺰاﻣﺎ در ﻧﻈﺮ ﮔﺮﻓﺘـﻪ ﻧﺸـﺪه اﺳـﺖ وﻟـﻲ ‪ H‬و ‪ G‬ﭘـﺎراﻣﺘﺮ ﻣﺸـﺘﺮك‬
‫ﻧﺪارﻧﺪ‪ .‬در اﻳﻦ ﺣﺎﻟﺖ ﺗﺎﺑﻊ ﭼﮕﺎﻟﻲ ﭘﺎراﻣﺘﺮﻫﺎي ‪G‬‬

‫ﺑﻄﻮر ﻣﺠﺎﻧﺒﻲ ﻣﺴﺘﻘﻞ ﻫﺴﺘﻨﺪ و ﻣﺘﻐﻴﺮﻫﺎي ﻣﻮرد ﻧﻴﺎز ﻋﺒﺎرﺗﻨﺪ از‪:‬‬

‫‪H (q, *) is the limiting noise model, Ho(q) the true one‬‬
‫ﻣﺜﺎل ‪ Example 9.3 Covariance of Output Error Estimate .11‬‬

‫ﺑﺎ اﻳﻦ ﺗﻌﺎرﻳﻒ ﺧﻮاﻫﻴﻢ داﺷﺖ‬


‫‪16-7‬‬ ‫وارﻳﺎﻧﺲ ﺧﻄﺎي ﭘﻴﺶ ﺑﻴﻨﻲ و ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ‬
‫ﺣﺎل ﻣﺤﺎﺳﺒﻪ ﺗﻮاﺑﻊ راﺑﻄﻪ زﻳﺮ در ‪ f=a0‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬

‫‪The spectra are‬‬

‫ﺑﺎ ﻣﺤﺎﺳﺒﻪ ﺗﻮاﺑﻊ ﻫﻤﺒﺴﺘﮕﻲ ﺧﻮاﻫﻴﻢ داﺷﺖ‬

‫ﻛﻪ ﻣﻨﺠﺮ ﺑﻪ راﺑﻄﻪ زﻳﺮ ﻣﻲ ﺷﻮد‬

‫‪ 3-5-7‬ﺗﺤﻠﻴﻞ وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮدر ﻣﻴﺪان ﻓﺮﻛﺎﻧﺲ ‬


‫ ‬ ‫وارﻳﺎﻧﺲ ﻣﺠﺎﻧﺒﻲ‪ :‬ﺣﻠﻘﻪ ﺑﺎز‪ ،‬ﻣﻌﻴﺎر درﺟﻪ ‪ SM ،2‬‬
‫ﺑﺎ اﺳﺘﻔﺎده از ﭘﺎرﺳﻮال‪ ،‬راﺑﻄﻪ زﻣﺎﻧﻲ در ﻣﻴﺪان ﻓﺮﻛﺎﻧﺲ ﺑﻪ اﻳﻦ ﻗﺮار ﻣﻲ ﮔﺮدد‪T = [G H] .‬‬

‫‪ 4-5-7‬وارﻳﺎﻧﺲ ﺗﻘﺮﻳﺒﻲ ﺗﺎﺑﻊ ﺗﺒﺪﻳﻞ ﺑﺮاي ‪n‬‬


‫وارﻳﺎﻧﺲ ﺑﺮاي ﺗﻮاﺑﻊ ﺗﺒﺪﻳﻞ ﻣﺪل از اﻳﻨﻘﺮار اﺳﺖ‬

‫ﻛﻪ در آن ‪ P‬وارﻳﺎﻧﺲ ﺗﺎﺑﻊ ﺗﻮزﻳﻊ ﻧﺮﻣﺎل ﻣﺠﺎﻧﺒﻲ و ‪ 1/N P‬ﻣﺎﺗﺮﻳﺲ ﻛﻮارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ اﺳﺖ‬
‫ﺑﺎ در ﻧﻈﺮ ﮔﺮﻓﺘﻦ درﺟﻪ ﻣﺪل ∞→‪ (Asymptotic Black-Box Theory) n‬ﻛﻮارﻳﺎﻧﺲ ﺗﻘﺮﻳﺒﻲ ﺳﺎده ﺗﺮ ﺑﺮاﺑﺮ اﺳـﺖ‬
‫ﺑﺎ‬
‫‪17-7‬‬ ‫وارﻳﺎﻧﺲ ﺧﻄﺎي ﭘﻴﺶ ﺑﻴﻨﻲ و ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ‬
‫‪ n ‬درﺟﻪ ﻣﺪل و ‪ N‬ﻃﻮل دﻳﺘﺎﺳﺖ‪ .‬ﺑﺎ اﻓﺰاﻳﺶ ‪ n‬ﺗﻘﺮﻳﺐ ﻛﻮارﻳﺎﻧﺲ ﺑﻬﺘﺮ ﻣﻲ ﺷﻮد‪ .‬اﻳﻦ ﻧﺘﻴﺠﻪ ﺑـﺮاي درﺟـﻪ ‪ n‬ﻣﺠـﺎﻧﺒﻲ‬
‫اﺳﺖ ﻛﻪ ﻣﺪل آﻧﻘﺪر ﻣﻨﻌﻄﻒ اﺳﺖ ﻛﻪ ﺗﺨﻤﻴﻦ در ﻓﺮﻛﺎﻧﺴﻬﺎي ﻣﺘﻔﺎوت ﻣﺴﺘﻘﻞ ﻣﺪل ﻣﻲ ﺷﻮﻧﺪ‪decoupled .‬‬
‫‪ ‬در ﺣﺎﻟﺖ ﺣﻠﻘﻪ ﺑﺎز ﻛﻪ ‪ ue = 0‬اﺳﺖ راﺑﻄﻪ ﺑﻪ اﻳﻨﺼﻮرت در ﻣﻲ آﻳﺪ‪.‬ﺣﺘﻲ وﻗﺘﻲ ﭘﺎراﻣﺘﺮ ﻣﺸﺘﺮك داﺷﺘﻪ ﺑﺎﺷﻨﺪ‬

‫ﻣﺜﺎل زﻳﺮ اﻳﻦ ﻣﻮﺿﻮع را ﻧﺸﺎن ﻣﻲ دﻫﺪ‪.‬‬


‫ﻣﺜﺎل ‪ .12‬ﻣﻘﺎﻳﺴﻪ ﻧﺘﻴﺠﻪ ﻓﺮﻣﻮل ﺗﻘﺮﻳﺒﻲ ‪ 9,62‬ﺑﺎ ﻣﺤﺎﺳﺒﻪ واﻗﻌﻲ ﺑﺮاي ﭼﻨﺪ ﺳﻴﺴﺘﻢ ‬
‫ﺳﻴﺴﺘﻢ واﻗﻌﻲ درﺟﻪ ‪ 2‬ﺑﺎ ورودي و ﻧﻮﻳﺰ ﺳﻔﻴﺪ ﺑﺎ وارﻳﺎﻧﺲ ‪1‬‬

‫وﻣﺪل ﺷﻨﺎﺳﺎﻳﻲ ﺑﺎ درﺟﻪ ‪n≫2‬‬

‫ﺗﺨﻤﻴﻦ ﻃﻴﻒ ﺑﺎ ﻣﺪل درﺟﻪ ‪ n‬اﺳﺖ‪ .‬ﺑﺮاي ﻣﺤﺎﺳﺒﻪ ﻛﻮارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ دو راه دارﻳﻢ‬ ‫ﻛﻪ‬
‫روش ‪ :1‬اﺳﺘﻔﺎده از ‪ 9,59‬و ﻣﺤﺎﺳﺒﻪ‬

‫ﺑﺮاي ‪ n≥2‬ﻛﻪ ﻧﺘﻴﺠﻪ ﺑﺮاي ‪ n=2‬دﻗﻴﻖ و ﺑﺮاي ‪ N‬ﻣﺠﺎﻧﺒﻲ اﺳﺖ و اﻟﺒﺘﻪ ﻣﺤﺎﺳﺒﻪ آن ﭘﻴﭽﻴﺪه اﺳﺖ‬
‫روش‪ :2‬اﺳﺘﻔﺎده از ‪ 9,63‬ﻛﻪ ﺑﺮاي ‪ n‬ﻫﻢ ﻣﺠﺎﻧﺒﻲ اﺳﺖ )ﻳﻌﻨﻲ ﺑﺮاي ∞→‪ (n‬ﻳﻌﻨﻲ ‪ Limit‬ﻣﺤﺎﺳﺒﻪ ﺷﺪه اﺳﺖ‪.‬‬

‫ﺷﻜﻠﻬﺎ ﻧﺸﺎن ﻣﻲ دﻫﻨﺪ ﻛﻪ ‪ PL‬ﺑﺎ ﻣﺤﺎﺳﺒﺎت ﺳﺎده ﺗﺮ ﺑﺎ اﻓﺰاﻳﺶ ‪ n‬ﺗﻘﺮﻳﺐ ﺧﻮﺑﻲ از ‪ Pn‬ﻛﻪ ﻣﺤﺎﺳﺒﻪ ﭘﻴﭽﻴـﺪه دارد اراﺋـﻪ‬
‫ﻣﻲ دﻫﺪ‪.‬‬
‫در ﺷﻜﻠﻬﺎ ﻛﻮارﻳﺎﻧﺲ ﻓﺮﻛﺎﻧﺴﻲ ﺗﺨﻤﻴﻦ ﺑﺮاي ﺳﻴﺴﺘﻢ ﻓﻮق ﺑﺎ ﭼﻨﺪ ﻧﻮع ﭘﺎراﻣﺘﺮ و ورودي ﻧﻮﻳﺰ ﺳﻔﻴﺪ ﻧﺸﺎن داده ﺷﺪه اﻧﺪ‪.‬‬
‫‪ Pn ‬ﺗﻘﺮﻳﺐ دﻗﻴﻖ ﺑﺎ ﺧﻂ ﭘﺮ‬
‫‪ ‬و ﻛﻮارﻳﺎﻧﺲ ﺗﻘﺮﻳﺒﻲ ‪ 1/nPn‬در ﺣﺎﻟﺖ ‪ n=2‬ﺑﺎ ﺧﻂ ﻧﺎزك و ﺑﺮاي ‪ n=10‬ﺑﺎ ﻧﻘﻄﻪ ﭼﻴﻦ رﺳﻢ ﺷﺪه اﻧﺪ‪.‬‬

‫‪.‬‬
‫‪18-7‬‬ ‫وارﻳﺎﻧﺲ ﺧﻄﺎي ﭘﻴﺶ ﺑﻴﻨﻲ و ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ‬

‫‪ ‬ﺣﺘﻲ وﻗﺘﻲ ‪ n‬ﺑﺰرگ ﻧﻴﺴﺖ و ﻧﻤﻴﺘﻮاﻧﺪ ‪ PL‬ﻛﻮارﻳﺎﻧﺲ واﻗﻌﻲ را درﺳـﺖ ﻧﺸـﺎن دﻫـﺪ ﺣـﺲ درﺳـﺘﻲ از ﻧﺤـﻮه ﺗﻐﻴﻴـﺮ‬
‫ﻛﻮارﻳﺎﻧﺲ در ﻓﺮﻛﺎﻧﺴﻬﺎي ﻣﺨﺘﻠﻒ ﻣﻲ دﻫﺪ‪.‬‬

‫‪ 6-7‬ﻛﻴﻔﻴﺖ ﺗﺨﻤﻴﻦ روش ‪ IV‬‬


‫‪ : 1-6-7‬ﻫﻤﮕﺮاﻳﻲ ﻣﻌﻴﺎر‬
‫ﺣﺪ ﺗﺨﻤﻴﻦ ‪f‬‬
‫در اﻳﻦ روش ﻧﻴﺰ ﻣﻲ ﺗﻮان ﺣﺪ ﺗﺨﻤﻴﻦ را ﺑﺎ ﻓﺮض ﻣﻌﻠﻮم ﺑﻮدن ‪ PDF‬ورودي و ﺧﺮوﺟﻲ ﺑﺪﺳﺖ آورد‪.‬‬

‫ﻫﻤﮕﺮاﻳﻲ ﺗﺨﻤﻴﻦ‬
‫ﻫﻤﭽﻨﻴﻦ ﻧﺸﺎن داده ﻣﻲ ﺷﻮد ﻛﻪ ﺗﺤﺖ ﻣﻔﺮوﺿﺎت دﻳﺘﺎي ﺷﻨﺎﺳﺎﻳﻲ ‪ fN→f̅ ،D1‬ﻣﻴﻞ ﻣﻲ ﻛﻨﺪ‪.‬‬

‫ﺗﺨﻤﻴﻦ ﻣﻘﺪار واﻗﻌﻲ ﭘﺎراﻣﺘﺮﻫﺎ‬


‫ﺑﺮاي ﺳﻴﺴﺘﻢ‬

‫ﻣﻘﺪار واﻗﻌﻲ ‪ (G0) 0‬ﺗﺨﻤﻴﻦ زده ﻣﻲ ﺷﻮد‪ .‬اﮔﺮ‬ ‫ﻛﻪ ‪ ω 0‬ﻧﻮﻳﺰ رﻧﮕﻲ اﺳﺖ ﺑﺎ‬
‫‪ u ‬و ‪ ω 0‬ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ)ﺣﻠﻘﻪ ﺑﺎز(‬
‫‪Go G ‬‬
‫‪ ‬ورودي ﺳﻴﮕﻨﺎل ‪ informative‬ﺑﺎﺷﺪ ‪u > 0‬‬
‫ﺳﻴﻨﮕﻮﻻر ﻧﺒﺎﺷﺪ‪.‬‬ ‫‪‬‬

‫ﺑﺮاي ﻣﻨﻔﺮد ﻧﺒﻮدن ﺑﺎﻳﺪ درﺟﻪ ﻣﺪل ﺗﺨﻤﻴﻦ ﺣﺪاﻛﺜﺮ ﺑﺮاﺑﺮ درﺟﻪ ﺳﻴﺴﺘﻢ واﻗﻌﻲ و ‪ Instrument‬ﺑﺎﺷﺪ در اﻳﻦ ﺟـﺎ‬
‫درﺟﻪ ﺳﻴﺴﺘﻢ ﻣﺪل و ‪ nn and nm‬درﺟﺎت اﻳﻨﺴﺘﺮوﻣﻨﺖ اﺳﺖ ﺑﻪ ﺑﻴﺎن زﻳﺮ‬ ‫درﺟﻪ ﺳﻴﺴﺘﻢ واﻗﻌﻲ‪،‬‬
‫‪19-7‬‬ ‫وارﻳﺎﻧﺲ ﺧﻄﺎي ﭘﻴﺶ ﺑﻴﻨﻲ و ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ‬

‫‪ :IV 2-6-7‬وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ ‬


‫در اﻳﻦ ﺣﺎﻟﺖ ﻧﻴﺰ ﺗﺎﺑﻊ ﺗﻮزﻳﻊ ﻧﺮﻣﺎل ﺑﺎ ﻛﻮارﻳﺎﻧﺲ زﻳﺮ اﺳﺖ‬

‫‪,‬‬
‫‪d f‬‬
‫‪ f  L‬‬ ‫‪ ‬‬
‫‪dt‬‬

‫‪.‬‬
‫با)‪ N(0, o‬‬ ‫وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ در ﺣﺎﻟﺖ ‪ ،SM ،L=1‬ﺣﻮل‪ o‬با‬

‫ﻣﺜﺎل ‪ Example 9.5 Covariance of Pseudolinear Regression Estimate .13‬‬

‫ﻓﺮض ﻛﻨﻴﺪ ﻣﺪل ﭘﻴﺶ ﺑﻴﻨﻲ‬

‫ﻓﺮض ﻛﻨﻴﺪ ﺗﺨﻤﻴﻦ ‪ c‬ﺑﺎ ‪ IV‬ﻣﺤﺎﺳﺒﻪ ﺷﺪه اﺳﺖ‬

‫~‬
‫‪here‬‬

‫‪at c=c0 we have‬‬

‫‪Hence‬‬

‫‪so, according to (9.78),‬‬

‫ﻧﺘﻴﺠﻪ را ﺑﺎ ﻧﺘﻴﺠﻪ ﺣﺎﺻﻞ از ‪PEM‬‬


‫‪20-7‬‬ ‫وارﻳﺎﻧﺲ ﺧﻄﺎي ﭘﻴﺶ ﺑﻴﻨﻲ و ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ‬
‫ﻣﻘﺎﻳﺴﻪ ﻛﻨﻴﺪ ﻛﻪ ‪ |c0|<1‬است‬
‫روش ‪ IV‬و ‪ ،Go G‬ﺣﻠﻘﻪ ﺑﺎز ﺑﺎ )‪ e0N(0,0‬‬

‫ﻛﻪ در آن‬

‫ﻣﺜﺎل ‪ Example 9.6 Covariance of an IV Estimate .14‬‬

‫ﺗﺨﻤﻴﻦ ﺑﺎ ‪ IV‬و اﻳﻨﺴﺘﺮوﻣﻨﺖ‬

‫ﺑﺎ در ﻧﻈﺮ ﮔﺮﻓﺘﻦ ‪L=1‬‬

‫در ﻧﺘﻴﺠﻪ‬

‫و‬

‫‪1‬‬
‫‪ a0n a*n ‬‬
‫*‪1  a0 a‬‬
‫‪1 ‬‬ ‫‪j‬‬ ‫‪j‬‬ ‫‪jn‬‬
‫‪ Y (e ) H (e )e d ‬‬
‫*‬
‫‪R yh (n)   y (t ) * h(t  n) ‬‬
‫‪2 ‬‬
‫روﺷﻬﺎي ﻣﺤﺎﺳﺒﺎﺗﻲ اﻟﮕﻮرﻳﺘﻤﻬﺎي ﺑﻬﻴﻨﻪ ﺳﺎزي ‬ ‫‪8‬‬

‫‪Ljung chapter 10‬‬


‫در اﻳﻨﺠﺎ روﺷﻬﺎي ﺑﺎ راﻧﺪﻣﺎن ﻣﺤﺎﺳﺒﺎﺗﻲ ‪ IV, LS‬و ‪ subspace‬ﻛﻪ ﭘﺎﺳﺦ ﺑﺴﺘﻪ دارﻧﺪ ﺑﺤﺚ ﻣﻲ ﺷﻮﻧﺪ‪ .‬ﺿﻤﻨﺎ روﺷﻬﺎي‬
‫ﺑﺎزﺗﻜﺮار در ﻣﻮارد دﻳﮕﺮ ﺷﻨﺎﺳﺎﻳﻲ و روﺷﻬﺎي ﺟﺎﻳﮕﺰﻳﻦ ﺷﺮح ﻣﻲ ﺷﻮﻧﺪ‪.‬‬

‫‪ : Batch solution: 1-8‬ﺣﻞ ﻣﺴﺌﻠﻪ ﻧﺮﻣﺎل ‪ AX=b‬‬


‫ﺣﻞ ‪ LS‬و ‪ IV‬ﻣﻨﺠﺮ ﺑﻪ ﻓﺮﻣﻮل ﻧﺮﻣﺎل ‪ normal equation‬زﻳﺮ ﻣﻲ ﺷﻮد‬

‫ﻛﻪ در آن‬

‫در اﻳﻦ راﺑﻄﻪ ﻣﺎﺗﺮﻳﺲ ‪ R‬ﺧﺼﻮﺻﺎ وﻗﺘﻲ اﺑﻌﺎد ﺑﺰرگ دارد ‪ .ill conditioned‬ﺑﺮاي ﺣﻞ اﻳﻦ ﻣﺴﺌﻠﻪ ‪ 3‬روش وﺟﻮد دارد‬
‫روش ‪ :1‬ﻣﺤﺎﺳﺒﻪ ﻣﻌﻜﻮس ﻣﺎﺗﺮﻳﺲ ‪R‬‬
‫ﻛﻪ ﻣﺤﺎﺳﺒﺎت ﺳﻨﮕﻴﻦ در ﭘﻲ دارد‬
‫روش ‪Cholesky factorization :2‬‬
‫اﺳﺖ ﻛﻪ ﺑﻪ ﻧﺤﻮ زﻳﺮ ﺻﻮرت ﻣﻲ ﮔﻴﺮد ﻛﻪ اﺑﺘﺪا ﻃﺮﻓﻴﻦ راﺑﻄﻪ در ’‪ A‬ﺿﺮب ﻣﻲ ﺷﻮد ﺳﭙﺲ ﮔﺎﻣﻬﺎي زﻳﺮ ﻃﻲ ﻣﻲ ﮔﺮدد‬

‫‪A’Ax=A’bCx=A’bLL’x=A’bLz=dL’x=z‬‬
‫‪1-8‬‬
‫)‪ (A is m × n and left-invertible‬ﻛﻪ ﺑﺼﻮرت ‪ Ax=b‬ﻧﻮﺷﺘﻪ ﻣﻲ‬ ‫اﻳﻦ روش ﺑﺮاي ﺣﻞ‬
‫ﺷﻮد و ‪ A‬ﻣﺮﺑﻌﻲ ﻧﻴﺴﺖ ﻧﻴﺰ ﻗﺎﺑﻞ اﺳﺘﻔﺎده اﺳﺖ‪.‬‬

‫روش ‪QR factorization :3‬‬


‫ﺑﺮاي ﺣﻞ ﭘﺎﺳﺦ ‪ LS‬ﺑﺼﻮرت ‪ Rx=f‬ﻣﺸﺎﺑﻪ ‪ Ax=b‬ﻣﺎﺗﺮﻳﺲ )‪A(m*n‬‬

‫‪Ax=bA’Ax=A’bR’Q’QRx=R’Q’bR’Rx=R’Q’bRx=Q’b‬‬

‫‪2-8‬‬
‫ﻣﺰﻳﺖ ﻣﻬﻢ اﻳﻦ روش‬
‫‪ (1‬از آﻧﺠﺎ ﻛﻪ در ‪ LS‬ﻣﻘﺪار ‪ R(N)=R’R‬اﺳﺖ ‪ conditioning number‬ﻣﺎﺗﺮﻳﺲ ‪) R‬ﻧﺴﺒﺖ ﺑﻴﻦ ﺑﺰرﮔﺘﺮﻳﻦ ﺑﻪ‬
‫ﻛﻮﭼﻜﺘﺮﻳﻦ ﻣﻘﺪار وﻳﮋه آن( ﺟﺬر ‪ conditioning number‬ﻣﺎﺗﺮﻳﺲ )‪ R(N‬اﺳﺖ و از ﻧﻈﺮ ﺣﺴﺎﺳﻴﺖ ﻣﺤﺎﺳﺒﺎﺗﻲ‬
‫ﺑﻬﺘﺮ اﺳﺖ‬
‫‪ (2‬ﻣﺎﺗﺮﻳﺲ ‪ R‬ﻣﺜﻠﺜﻲ اﺳﺖ و ﻣﻌﺎدﻻت ﻫﻤﺰﻣﺎن ﺳﺎده ﺗﺮ ﺣﻞ ﻣﻲ ﺷﻮد‪.‬‬
‫‪ ‬اﻟﮕﻮرﻳﺘﻤﻬﺎ دﻳﮕﺮ ﻧﻴﺰ ﺑﺮاي ﻣﺤﺎﺳﺒﻪ ﺗﺎﺑﻊ ﻧﺮﻣﺎل وﺟﻮد دارد ﻣﺎﻧﻨﺪ ‪ Levinson‬و ﺳﺎﺧﺘﺎر ‪Lattice‬‬
‫‪ ‬روش ‪ QR‬داراي ‪ better numerical properties‬اﺳﺖ وﻟﻲ روش ﭼﻮﻟﺴﻜﻲ ﺳﺮﻳﻌﺘﺮ اﺳﺖ‬
‫ﻣﺤﺎﺳﺒﻪ ‪ R‬و ﻣﺸﻜﻞ ﺷﺮاﻳﻂ اوﻟﻴﻪ‬
‫ﻓﺮﻣﻮل ﻣﺤﺎﺳﺒﻪ اﻟﻤﺎﻧﻬﺎي ‪ R‬ازاﻳﻨﻘﺮار اﺳﺖ‬

‫در اﻳﻦ ﻣﺤﺎﺳﺒﻪ ﺑﻪ ﻣﻘﺎدﻳﺮ ‪ t<0‬ﻧﻴﺰ ﻧﻴﺎز اﺳﺖ ﻛﻪ ﺑﺮاي آن دو راه ﺣﻞ وﺟﻮد دارد‬
‫‪ (3‬ﻳﻜﻲ اﻳﻨﻜﻪ ﺑﺠﺎي ‪ t=1‬از ‪ t=n+1‬ﺑﺮاي ﻣﺤﺎﺳﺒﻪ ﺷﺮوع ﺷﻮد ﻛﻪ ﺑﻪ اﻳﻦ روش ‪ covariance method‬ﻣﻲ ﮔﻮﻳﻨﺪ‪ .‬اﻳﻦ‬
‫ﻳﻚ روش ﻃﺒﻴﻌﻲ اﺳﺖ‪.‬‬
‫‪ (4‬راه ﺣﻞ دﻳﮕﺮ اﻳﻦ اﺳﺖ ﻛﻪ ﻣﻘﺎدﻳﺮ ﺑﺮاي ‪ t-i<0‬ﺻﻔﺮ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﻮد ﻛﻪ ﺑﻪ آن ‪ correlation‬ﻣﺘﺪ ﻣﻲ ﮔﻮﻳﻨﺪ‪ .‬ﻛﻪ‬
‫در اﻳﻦ ﺻﻮرت ﻃﻮل دﻳﺘﺎ ﺑﺎ ﺻﻔﺮ ﺑﻪ ‪ N+n‬ﮔﺴﺘﺮش ﻣﻲ ﻳﺎﺑﺪ‪ .‬اﻳﻦ روش ﻣﺰﻳﺖ ﻣﺤﺎﺳﺒﺎﺗﻲ دارد زﻳﺮا‬

‫‪This makes R(N) a block Toeplitz matrix,‬‬


‫ﺑﺮاي ‪ N≫n‬ﺗﻔﺎوت ﻗﺎﺑﻞ اﻋﻤﺎض اﺳﺖ‬

‫‪ 2-8‬روﺷﻬﺎي ﺑﺎزﺗﻜﺮاري ﺣﻞ ‪ V’=0‬ﻏﻴﺮ ﺧﻄﻲ‬


‫در ﻏﻴﺮ از ﻣﻮرد رﮔﺮﺳﻴﻮن ﺧﻄﻲ و ‪ IV‬ﺑﺎ ﻧﻮرم ﺗﻮان دو‪ ،‬ﺣﻞ ﺷﻨﺎﺳﺎﻳﻲ‪ ،‬ﺣﺪاﻗﻞ ﻧﻤﻮدن ﺗﺎﺑﻊ‬

‫ﺟﺴﺘﺠﻮي ﻣﻘﺪاري اﺳﺖ ﻛﻪ ﻣﺸﺘﻖ اول ﺻﻔﺮ و ﻣﺸﺘﻖ دوم ﻣﺜﺒﺖ ﺑﺎﺷﺪ‪ .‬اﻳﻦ ﻳﻚ ﻣﺴﺌﻠﻪ ‪nonlinear optimization‬‬
‫اﺳﺖ ﻛﻪ ﺑﺎ ‪ search‬زﻳﺮ ﺗﺎﻣﻴﻦ ﻣﻲ ﺷﻮد‬

‫ﻛﻪ ‪ >0‬و )‪ f(i‬ﺟﻬﺖ ﺟﺴﺘﺠﻮﺳﺖ‪.‬‬

‫‪3-8‬‬
‫روش ‪ :1‬ﺷﻴﺐ ‪gradient‬‬
‫ﺑﺮاي ﻣﺤﺎﺳﺒﻪ ﻣﻴﻨﻴﻤﻮم‪ ،‬ﺑﺴﻂ ﺗﻴﻠﻮر ﺗﺎ درﺟﻪ ‪ 1‬را ﻣﻲ ﺗﻮان ﻧﻮﺷﺖ‬
‫‪V ( *  )  V ( *)  V ‬‬
‫ﻛﻪ ‪ V̇ θ‬ﺷﻴﺐ اﺳﺖ و ‪ f=-V̇ θ‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬
‫روش‪ :2‬ﻧﻴﻮﺗﻦ‬
‫ﺑﻄﻮر ﻣﺸﺎﺑﻪ ﻣﻤﻜﻦ اﺳﺖ ﺗﺎﺑﻊ ﺑﺎ ﺗﻴﻠﻮر ﺗﺎ درﺟﻪ ‪ 2‬ﺑﺴﻂ داده ﺷﻮد‬
‫‪V ( *  )  V ( *)  V   12  ' V ‬‬
‫ﻛﻪ ﺟﻬﺖ ﺟﺴﺘﺠﻮي زﻳﺮ را ﻣﻲ دﻫﺪ‬

‫ﻛﻪ ﻣﻤﻜﻦ اﺳﺖ ﻣﺸﺘﻖ دوم ﺗﻘﺮﻳﺒﻲ ﻣﺤﺎﺳﺒﻪ ﺷﻮد ﻛﻪ روش ﺑﻪ ﻧﺎم‬

‫ﺧﻮاﻧﺪه ﻣﻲ ﺷﻮد‪ .‬ﻣﺸﻜﻞ در اﻳﻦ روﺷﻬﺎ ﺣﺠﻢ ﻣﺤﺎﺳﺒﺎﺗﻲ ﻣﺮﺑﻮط ﺑﻪ ‪ VN‬و ﻣﺸﺘﻖ آن ‪ V’N‬اﺳﺖ‪.‬‬

‫‪ 1-2-8‬روﺷﻬﺎي ﺑﺎزﺗﻜﺮاري ﺑﺎ ﻧﻮرم درﺟﻪ ‪ Nonlinear LS :Quadratic 2‬‬


‫در اﻳﻦ روش ‪ V‬ﺗﺎﺑﻊ درﺟﻪ ‪ 2‬اﺳﺖ‬

‫و ﺗﺨﻤﻴﻦ ﺑﺼﻮرت ﺑﺎزﺗﻜﺮار اﺳﺖ‬

‫‪ψ=d/d‬‬
‫ﮔﺮدد‬ ‫که ‪ µ‬ﻃﻮل ﮔﺎم ﺟﺴﺘﺠﻮ اﺳﺖ ﺗﺎ‬
‫روش ‪ gradient or steepest‐descent method :1‬‬
‫روﺷﻲ ﻛﻪ ﻧﺰدﻳﻚ ﻣﻴﻨﻴﻤﻮم ‪ efficient‬ﻧﻴﺴﺖ‬
‫روش ‪ :2‬ﻧﻴﻮﺗﻦ‬

‫روش ‪ :Newton‐Gauss, Newton‐Raphson :3‬‬


‫ﻣﺤﺎﺳﺒﻪ ﺗﻤﺎﻣﻲ ﺗﺮﻣﻬﺎي ’‪ ψ‬از ﻧﻈﺮ ﻣﺤﺎﺳﺒﺎﺗﻲ ﺑﺴﻴﺎر ﭘﺮ ﻫﺰﻳﻨﻪ اﺳﺖ وﻟﻲ ﺑﺮاي آن ﻓﺮﻣﻮل ﺗﻘﺮﻳﺒﻲ ﺣﻮل ‪ θ0‬اﮔﺮ ﻓﺮض‬
‫ﺷﻮد )‪ (t, θ0)=eo(t‬ﻣﻲ ﺗﻮان ﻧﻮﺷﺖ ﻛﻪ ﺟﻤﻠﻪ دوم ‪ 10.43‬ﺻﻔﺮ و ﺧﻮاﻫﻴﻢ داﺷﺖ‬
‫‪4-8‬‬
‫اﻳﻦ ﻧﺎم ﺑﺮاي ﺣﺎﻟﺖ ‪ µ=1‬اﺳﺖ و ﺑﺮاي ‪ µ‬ﻣﺨﺎﻟﻒ ‪ 1‬از ‪ damped Gauss-Newton‬اﺳﺘﻔﺎده ﻣﻲ ﮔﺮدد‪.‬‬
‫‪ ‬اﮔﺮ ﻧﺘﻮان ‪ =e‬را ﻟﺤﺎظ ﻛﺮد ﺗﺨﻤﻴﻨﻲ از ﺗﺮم دوم ‪ 10.43‬ﻧﻴﺰ ﺑﺎﻳﺪ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﻮد‬
‫‪ regularization‬‬
‫‪ ‬ﻓﺮﻣﻮل ﺗﻘﺮﻳﺒﻲ ’’‪ V‬ﻧﺸﺎن داده ﻣﻲ ﺷﻮد ﻛﻪ ﻣﻌﻜﻮس ﭘﺬﻳﺮ اﺳﺖ وﻟﻲ ﻣﻤﻜﻦ اﺳﺖ ﻧﺰدﻳﻚ ﺑﻪ ﻣﺎﺗﺮﻳﺲ ﻣﻨﻔﺮد ﺑﺎﺷﺪ ﻟﺬا‬
‫ﺑﺮاي ﭘﺮﻫﻴﺰ از ﻣﺸﻜﻞ ﻣﺤﺎﺳﺒﺎﺗﻲ از روش ‪ regularization‬اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد و ﺗﺮم ‪ I‬ﺑﻪ آن اﺿﺎﻓﻪ ﻣﻲ ﺷﻮد‪.‬‬
‫‪Levenberg-Marquardt procedure‬‬

‫اﻓﺰاﻳﺶ ‪ ‬ﺑﻪ ﻣﻌﻨﻲ ﻛﺎﻫﺶ ﻃﻮل ﮔﺎم و ﺷﻴﻔﺖ ﺑﻪ ﺟﺴﺘﺠﻮ ﺑﺎ ﮔﺮادﻳﺎن ﺗﺎﺑﻊ اﺳﺖ‬
‫‪ :Correlation Equation‬روش ‪ IV‬‬
‫ﺗﻜﻨﻴﻜﻬﺎ ﺑﺮاي ﺣﻞ ﻣﺴﺌﻠﻪ ‪ IV‬ﻧﻴﺰ ﻗﺎﺑﻞ اﺳﺘﻔﺎده اﺳﺖ‬

‫ ﻣﺤﺎﺳﺒﻪ ‪ ‬در ﻣﺪل ﺧﻄﻲ‬


‫ﺑﺮاي ﻣﺪل ‪ ARMAX‬ﻣﺤﺎﺳﺒﻪ ‪ ‬از اﻳﻨﻘﺮار اﺳﺖ‬

‫در اﻳﻦ ﺳﻴﺴﺘﻤﻬﺎ ‪ ψ=-d/d=-dŷ/d‬اﺳﺖ ﻟﺬا ﻣﻲ ﻧﻮﻳﺴﻴﻢ‬

‫ﻛﻪ ﻧﺘﻴﺠﻪ ﻣﻲ دﻫﺪ‬


‫))‪= -q-k y(t) - q-k u(t) -q-k (y(t)-ŷ(t‬‬
‫ﻳﺎ ﺑﻪ ﻋﺒﺎرت دﻳﮕﺮ ‪ =1/c ‬ﻛﻪ ﺑﻪ ﻣﻌﻨﻲ ﻓﻴﻠﺘﺮ ﺷﺪه ‪ ‬اﺳﺖ‬
‫ﻣﺤﺎﺳﺒﻪ‪ ψ‬در ﻣﺪل ﻏﻴﺮ ﺧﻄﻲ‬
‫در ﻣﺪل ﻏﻴﺮ ﺧﻄﻲ ﻣﺎﻧﻨﺪ ﺷﺒﻜﻪ ﻋﺼﺒﻲ از )‪ Back-Propagation (BP‬ﺑﺮاي ﻣﺤﺎﺳﺒﻪ ﮔﺮادﻳﺎن اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد ﻛﻪ‬
‫ﻣﻌﻤﻮﻻ ﺑﺮاي ﻛﻞ اﻟﮕﻮرﻳﺘﻢ ﻧﻴﺰ اﻳﻦ ﻧﺎم اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد‪.‬ﺑﺮاي ﻣﺪل ﻏﻴﺮ ﺧﻄﻲ‬

‫اﻳﻨﮕﻮﻧﻪ ﻣﺤﺎﺳﺒﻪ ﻣﻲ ﺷﻮد‪.‬‬ ‫ﮔﺮادﻳﺎن‬

‫‪5-8‬‬
‫ﻧﺎﺷﻲ از ﻣﺸﺘﻖ ﻧﺴﺒﺖ ﺑﻪ ‪ ‬ﻣﺠﺪدا در ﻣﺤﺎﺳﺒﻪ ﻣﺸﺘﻖ ﻧﺴﺒﺖ ﺑﻪ ‪ β‬ﻧﻴﺰ اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد‪.‬‬ ‫ﻛﻪ‬

‫‪ 2-2-8‬روﺷﻬﺎي ‪ TWO‐STAGE AND MULTISTAGE‬ﺟﺎﻳﮕﺰﻳﻦ روش ﺑﺎزﺗﻜﺮار‬


‫روﺷﻬﺎي ﺑﺎزﺗﻜﺮار ﻛﻪ ﺑﺤﺚ ﺷﺪﻧﺪ روﺷﻬﺎي ﭘﺎﻳﻪ ﻫﺴﺘﻨﺪ ﺑﺮاي ﭘﺮﻫﻴﺰ از ‪ iteration‬زﻳﺎد اﻧﻮاع روﺷﻬﺎي ﺟﺎﻳﮕﺰﻳﻦ ﺑﺮاي‬
‫ﺳﻴﺴﺘﻢ ﺧﻄﻲ ﻋﻤﻮﻣﻲ ﭘﻴﺸﻨﻬﺎد ﺷﺪه اﺳﺖ‪ .‬اﻳﻦ اﻟﮕﻮرﻳﺘﻢ ﺑﻪ ﺳﺮي دو ﻳﺎ ﭼﻨﺪ ‪ LS‬ﺗﺒﺪﻳﻞ ﻣﻲ ﺷﻮﻧﺪ‬

‫روش ‪Bootstrap Methods :1‬‬


‫ﺑﺮاي ﺣﻞ راﺑﻄﻪ زﻳﺮ‬

‫ﻛﻪ در ‪ IV‬ﺑﺎ ]‪ ،[(t,),(t, )=‬روش ‪ PLR‬ﺑﺎ ])‪ [(t,)= (t, ‬و ﺣﺪاﻗﻞ ﺳﺎزي ‪ quadratic‬ﺑﺎ ‪[(t,)= (t,‬‬
‫])‪ ‬ﻛﺎرﺑﺮد دارد‪.‬‬
‫و اﻋﻤﺎل ‪ LS‬ﺑﻪ راﺑﻄﻪ ﺗﺨﻤﻴﻦ ﺑﻌﺪي ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬ ‫ﺑﺎ داﺷﺘﻦ‬

‫اﻳﻦ اﻟﮕﻮرﻳﺘﻢ اﻟﺰاﻣﺎ ﻫﻤﮕﺮا ﻧﻤﻴﺸﻮد‬


‫روش ‪Bilinear Parametrizations :2‬‬
‫ﻓﺮض ﻛﻨﻴﺪ ﭘﺎراﻣﺘﺮ }‪ ={ρ , ‬ﺑﺎﺷﺪ ﻛﻪ ﺑﺎ ﺛﺎﺑﺖ ﻧﮕﻪ داﺷﺘﻦ ﻫﺮ ﻳﻚ ﻣﺴﺌﻠﻪ ﻧﺴﺒﺖ ﺑﻪ دﻳﮕﺮي ﺧﻄﻲ ﺑﺎﺷﺪ ‪ .‬در اﻳﻦ ﺣﺎل‬
‫راه ﻃﺒﻴﻌﻲ ﺑﺮاي ﺣﺪاﻗﻞ ﺳﺎزي‬

‫ﺣﻞ دو ‪ LS‬زﻳﺮ اﺳﺖ‬

‫روش ‪Separable Least Squares :3‬‬


‫اﮔﺮ ﻣﺪل ﻧﺴﺒﺖ ﺑﻪ ‪ ‬ﺧﻄﻲ و ﻧﺴﺒﺖ ﺑﻪ ‪ ‬ﻏﻴﺮ ﺧﻄﻲ ﺑﺎﺷﺪ‬

‫‪6-8‬‬
‫ﺣﺪاﻗﻞ ﺳﺎزي‬

‫ﺑﺎ ﻳﻚ ‪ η‬داده ﺷﺪه ﻣﻨﺠﺮ ﺑﻪ ﺗﺨﻤﻴﻦ ‪ LS‬ﭘﺎراﻣﺘﺮ ‪ θ‬ﻣﻲ ﺷﻮد‪.‬‬

‫ﺑﺮ اﺳﺎس ﺗﺨﻤﻴﻦ ‪ ،‬ﺗﺨﻤﻴﻦ ﻣﺠﺪد ‪ ‬ﺑﺎ ‪ LS‬ﺣﺎﺻﻞ ﻣﻲ ﺷﻮد‬

‫=‬

‫اﻳﻦ اﻟﮕﻮرﻳﺘﻢ ﻣﺤﺎﺳﺒﺎت ‪ well conditioned‬دارد وﻟﻲ ﺳﺮﻋﺖ ﻫﻤﮕﺮاﻳﻲ آن اﻟﺰاﻣﺎ ﺑﻬﺘﺮ از ‪damped gauss newton‬‬
‫ﻧﻴﺴﺖ‬
‫روش ‪ High‐Order AR(X) Models :4‬‬
‫ﺑﺮاي ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ زﻳﺮ‬

‫ﻣﺪل ‪ ARX‬زﻳﺮ ﺑﺠﺎي ﻣﺪل واﻗﻌﻲ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﺪه و ﺗﺨﻤﻴﻦ زده ﻣﻲ ﺷﻮد ﺗﺎ ﻣﺴﺌﻠﻪ ﻏﻴﺮ ﺧﻄﻲ ﻧﺸﻮد‬

‫ﻣﻲ ﺗﻮان ﺑﺎ ‪ ARX‬درﺟﻪ ‪ M‬وﻗﺘﻲ ﻫﻢ ‪ M‬و ﻫﻢ ﺗﻌﺪاد دﻳﺘﺎي ‪ N‬ﺑﻪ ﺳﻤﺖ ﺑﻴﻨﻬﺎﻳﺖ ﺑﺮود ‪ N≫M‬ﺳﻴﺴﺘﻢ اوﻟﻴﻪ را ﻣﺪل‬
‫ﻛﺮد‪.‬در ﻧﺘﻴﺠﻪ‬

‫‪ This means that a high-order ARX model is capable of approximating any linear system‬‬
‫‪arbitrarily well.‬‬
‫‪ ‬ﺑﻌﺪ از ﺗﺨﻤﻴﻦ ﺑﺮاي ﻛﺎﻫﺶ درﺟﻪ ﺑﻪ ﻳﻜﻲ از روﺷﻬﺎي زﻳﺮ اﻗﺪام ﻣﻲ ﺷﻮد‬
‫ﺑﺮاي ﺳﺎﺧﺖ ‪G=B/A‬‬ ‫روش ‪ :1‬ﺣﺬف ﻣﺪﻫﺎي ﻣﺸﺘﺮك‬
‫روش ‪ :2‬اﻋﻤﺎل روﺷﻬﺎي ﺷﻨﺎﺧﺘﻪ ﺷﺪه ‪order reduction‬‬
‫ﺑﺎ ‪ u‬و ﺗﻮﻟﻴﺪ ﺧﺮوﺟﻲ ‪ .z‬ﺳﭙﺲ اﻋﻤﺎل ﻣﺪل ‪ ARX‬درﺟﻪ ﭘﺎﻳﻴﻦ ﺑﻪ ‪ u‬و ‪.z‬‬ ‫روش ‪ :3‬ﺗﺤﺮﻳﻚ ﺳﻴﺴﺘﻢ‬
‫ﺑﺎﺷﺪ از ﻣﺪل زﻳﺮ ﺑﺮاي ﺗﺨﻤﻴﻦ ‪ A,B‬و ‪ C‬اﺳﺘﻔﺎده ﺷﻮد‬ ‫ﺑﺎﻗﻴﻤﺎﻧﺪه ﻣﺪل ﺳﻴﺴﺘﻢ‬ ‫اﮔﺮ‬

‫‪7-8‬‬
‫و ‪ u‬ﻣﻌﻠﻮم ﻫﺴﺘﻨﺪ ﺷﻨﺎﺳﺎﻳﻲ ‪ LS‬ﺑﺮاي ﺳﻴﺴﺘﻢ ﺑﺎ دو ورودي اﺳﺖ‪.‬‬ ‫ﭼﻮن‬
‫روش ‪ :4‬روش ‪ subspace‬را ﻧﻴﺰ ﺑﺮاي اﻳﻦ ﻣﻨﻈﻮر ﻣﻲ ﺗﻮان اﺳﺘﻔﺎده ﻛﺮد‪.‬‬
‫روش ‪Separating Dynamics and Noise Models :5‬‬
‫در ﺳﻴﺴﺘﻢ ﺧﻄﻲ ﻋﻤﻮﻣﻲ ﺑﺎ روش ‪ IV‬ﻣﻲ ﺗﻮان ‪ B ، A‬و ‪ F‬را ﺗﺨﻤﻴﻦ زد ﺗﺎ ﺗﺨﻤﻴﻦ اﺧﺘﻼل ﺑﺪﺳﺖ آﻳﺪ‬

‫اﻳﻦ ﺗﺨﻤﻴﻦ را ﺳﭙﺲ ﻣﻲ ﺗﻮان ﺑﺎ ‪ LS‬دوم ﺑﺮاي ﺗﺨﻤﻴﻦ ‪ C‬و ‪ D‬از ﻣﺪل ‪ ARMA‬ﺑﻜﺎر ﮔﺮﻓﺖ‬

‫‪ 3-2-8‬وﺿﻌﻴﺖ ﻣﻴﻨﻴﻤﻮم ’‪ V‬در ﻣﺪﻟﻬﺎي ﺧﻄﻲ و ﺷﺮاﻳﻂ اوﻟﻴﻪ‬


‫اﻟﮕﻮرﻳﺘﻤﻬﺎي ﺑﻬﻴﻨﻪ ﺳﺎزي ﻏﻴﺮ ﺧﻄﻲ ﻣﺸﻜﻞ ﺣﺪاﻗﻞ ﻣﺤﻠﻲ را دارﻧﺪ‪ .‬ﺑﺮاي رﺳﻴﺪن ﺑﻪ ﺣﺪاﻗﻞ ﺟﺎﻣﻊ در اﻟﮕﻮرﻳﺘﻤﻬﺎي ﺑﺎز‬
‫ﺗﻜﺮار ﻣﻘﺪار اوﻟﻴﻪ ﻣﻨﺎﺳﺐ ﺑﺎﻳﺪ اﻧﺘﺨﺎب ﺷﻮد‪ .‬در ﺳﻴﺴﺘﻤﻬﺎي ‪SISO‬‬
‫ﻣﻴﻨﻴﻤﻮم ﺟﺎﻣﻊ‬
‫‪Ay=Ce‬‬ ‫در ﻣﺪل ‪ (B == 0, D == F == 1)ARMA‬ﻣﻴﻨﻴﻤﻮم ﺟﺎﻣﻊ اﺳﺖ‬ ‫‪‬‬
‫در ﻣﺪل )‪ ARARX (C = F = 1‬اﮔﺮ ﺳﻴﮕﻨﺎل ﺑﻪ ﻧﻮﻳﺰ ﺑﺰرگ ﺑﺎﺷﺪ ﻣﻴﻨﻴﻤﻮم ﻣﺤﻠﻲ وﺟﻮد ﻧﺪارد در ﻏﻴﺮ اﻳﻨﺼﻮرت‬ ‫‪‬‬
‫‪Ay=Bu+1/De‬‬ ‫وﺟﻮد ﺧﻮاﻫﺪ داﺷﺖ‪.‬‬
‫‪y=Bu+C/D e‬‬ ‫اﮔﺮ ‪ A=1‬و ‪ nf=1‬ﺑﺎﺷﺪ ﻣﻴﻨﻴﻤﻮم ﻣﺤﻠﻲ وﺟﻮد ﻧﺪارد‬ ‫‪‬‬
‫اﮔﺮ ‪ A=C=D=1‬ﺑﺎﺷﺪ و ورودي ‪ u‬ﻧﻮﻳﺰ ﺳﻔﻴﺪ ﺑﺎﺷﺪ ﻣﻴﻨﻴﻤﻮم ﻣﺤﻠﻲ وﺟﻮد ﻧﺪارد‪ .‬ﺑﺮاي ورودﻳﻬﺎي دﻳﮕﺮ ﻣﻴﻨﻴﻤﻮم‬ ‫‪‬‬
‫ﻣﺤﻠﻲ ﻣﻲ ﺗﻮاﻧﺪ وﺟﻮد داﺷﺘﻪ ﺑﺎﺷﺪ ‪y=B/F e1+e‬‬
‫ﺑﺮاي ‪ ARMAX(F == D == 1),‬ﻣﻮﺿﻮع روﺷﻦ ﻧﻴﺴﺖ‪ .‬وﻟﻲ در اﻏﻠﺐ ﻣﻮارد ﻋﻤﻠﻲ ﺣﺪاﻗﻞ ﺟﺎﻣﻊ ﻳﺎﻓﺖ ﻣﻲ ﺷﻮد‪.‬‬ ‫‪‬‬
‫‪Ay=B u+C e‬‬ ‫ﺑﺮاي ‪ PLR‬ﺑﺎ ﻣﺪل ‪ ARMAX‬ﻣﻲ ﺗﻮان ﻧﺸﺎن داد ﻛﻪ‬ ‫‪‬‬

‫‪ ‬ﺑﺮاي ‪ OE‬رﺳﻴﺪن ﺑﻪ ﺣﺪاﻗﻞ ﻣﺤﻠﻲ ﺑﻪ ﺟﺎي ﺟﺎﻣﻊ ﻏﻴﺮ ﻣﻌﻤﻮل ﻧﻴﺴﺖ ‪y=B/F u+e‬‬
‫‪Initial Parameter Values‬‬
‫ﺗﻼش ﺑﺮاي ﻳﺎﻓﺘﻦ ﻣﻘﺪار اوﻟﻴﻪ ﻣﻨﺎﺳﺐ ارزش آن را دارد‪ .‬اﮔﺮ ﻣﺪل رﻳﺎﺿﻲ وﺟﻮد دارد آﻧﺎﻟﻴﺰ آن ﺑﺮاي ﻳﺎﻓﺘﻦ ﻣﻘﺎدﻳﺮ اوﻟﻴﻪ‬
‫ﻣﻨﺎﺳﺐ ﻃﺒﻴﻌﻲ اﺳﺖ‪ .‬ﺑﺮاي ﻣﺪل ﺧﻄﻲ ‪ black box‬ﭼﻨﺪ راه ﻣﻲ ﺗﻮان درﭘﻴﺶ ﮔﺮﻓﺖ‬
‫‪ ‬اﺳﺘﻔﺎده از ‪ IV‬ﺑﺮاي ﺗﺨﻤﻴﻦ ﻣﻘﺎدﻳﺮ اوﻟﻴﻪ )‪B/(AF‬‬
‫‪ ‬ﺗﺨﻤﻴﻦ ̂‪ v‬ﻣﺎﻧﻨﺪ ‪10.74‬‬
‫‪ ‬ﺗﺨﻤﻴﻦ ِ ‪ C‬و ‪ D‬ﻣﺎﻧﻨﺪ ‪10.76‬‬

‫‪8-8‬‬
‫‪.‬ﻋﻼوه ﺑﺮ ﻣﻘﺪار اوﻟﻴﻪ ‪ ‬ﻣﻘﺪار اوﻟﻴﻪ ‪ ‬ﻧﻴﺰ ﻧﻴﺎز اﺳﺖ ﻛﻪ روﺷﻬﺎي زﻳﺮ ﭘﻴﺸﻨﻬﺎد ﺷﺪه اﺳﺖ‬
‫‪(0, ) = 0 ‬‬
‫‪ ‬اﻧﺘﺨﺎب )‪ (0, ‬ﺑﻪ ﻧﺤﻮﻳﻜﻪ ‪ ŷ(t|), t = 1, ... , dim ‬دﻗﻴﻘﺎ )‪ y(t‬ﺷﻮد‪.‬‬
‫‪ ‬اﻋﻤﺎل ‪ (0, )=‬ﺑﻌﻨﻮان ﭘﺎراﻣﺘﺮو ﺗﺨﻤﻴﻦ آن در ﻛﻨﺎر ‪‬‬
‫‪ ‬ﺗﺨﻤﻴﻦ ﻳﺎ‪ (0, ) back forecast‬از روي دﻳﺘﺎ ﺑﺎ اﻋﻤﺎل ﻓﻴﻠﺘﺮ ﻣﻨﺎﺳﺐ ﺑﺼﻮرت ‪backwards‬‬

‫‪8‐3‬‬ ‫ )‪Subspace State‐Space System Identification (4SID Methods‬‬


‫ﺳﻴﺴﺘﻢ زﻳﺮ را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﺪ‬

‫اﺑﺘﺪا ‪ C‬و ‪ A‬ﺗﺨﻤﻴﻦ زده ﻣﻲ ﺷﻮد و ﺳﭙﺲ ﺗﺨﻤﻴﻦ ‪ B‬و ‪ D‬اﻧﺠﺎم ﻣﻲ ﮔﻴﺮد‪ .‬اﻳﻦ روش اﻣﻜﺎن ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ‬ ‫‪‬‬
‫‪ MIMO‬ﺑﺮ اﺳﺎس ورودي و ﺧﺮوﺟﻲ )ﺑﺪون اﻧﺪازه ﮔﻴﺮي ‪ (State‬را ﻓﺮاﻫﻢ ﻣﻲ آورد‪.‬‬
‫ﻣﺤﺎﺳﺒﻪ ﺑﺎزﺗﻜﺮاري ﻧﻴﺴﺖ و ﻣﺸﻜﻞ ﻫﻤﮕﺮاﻳﻲ و ﺣﺪاﻗﻞ ﻣﺤﻠﻲ را ﻧﺪارد‬ ‫‪‬‬
‫ﻓﻀﺎي ﺣﺎﻟﺖ در ﻓﺮم ﻛﻠﻲ ﺗﺨﻤﻴﻦ زده ﻣﻲ ﺷﻮد‬ ‫‪‬‬
‫ﺣﺠﻢ ﻣﺘﻮﺳﻂ ﻣﺤﺎﺳﺒﺎﺗﻲ در ﻣﻘﺎﻳﺴﻪ ﺑﺎ ‪ . PEM‬در ﻣﺤﺎﺳﺒﺎت از ‪ QR‬و ‪ SVD‬اﺳﺘﻔﺎده ﻣﻲ ﻛﻨﺪ‪.‬‬ ‫‪‬‬
‫ﺗﺨﻤﻴﻦ ‪ C‬و ‪ A‬‬
‫ﺮاي ﻓﻀﺎي ﺣﺎﻟﺖ رواﺑﻂ زﻳﺮ را ﻣﻲ ﺗﻮان ﻧﻮﺷﺖ‬

‫ﺎﺳﺦ ﺿﺮﺑﻪ ﺳﻴﺴﺘﻢ ﻛﻪ در ‪ Ha‬ﻇﺎﻫﺮ ﻣﻲ ﺷﻮد اﻳﻨﮕﻮﻧﻪ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬

‫در اﻳﻦ راﺑﻄﻪ‬


‫‪ Ya ‬ﻣﺎﺗﺮﻳﺲ ‪ Output block Hankel matrix‬اﺳﺖ ﻛﻪ ﺑﻄﻮر ﻣﺸﺎﺑﻪ ﺑﺮاي ‪ Ua‬و ‪ Na‬ﻧﻴﺰ ﺳﺎﺧﺘﻪ ﻣﻲ ﺷﻮد‪.‬‬
‫‪ State Sequence Matrix X ‬و‬
‫‪ Extended Observability Matrix‬ﻛﻪ ‪ α >n‬درﺟﻪ واﻗﻌﻲ ﺳﻴﺴﺘﻢ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﻣﻲ ﺷﻮد و ‪ N‬ﺗﻌﺪاد‬ ‫‪‬‬
‫دﻳﺘﺎﺳﺖ‪ .‬اﮔﺮ درﺟﻪ ﻣﻌﻠﻮم ﺑﺎﺷﺪ ‪ α=n‬در ﻏﻴﺮ اﻳﻨﺼﻮرت ‪ α‬ﻛﺮان درﺟﻪ اﺳﺖ‬
‫‪ Ha ‬ﻣﺎﺗﺮﻳﺲ ﻣﺜﻠﺜﻲ ﭘﺎﺳﺦ ﺿﺮﺑﻪ اﺳﺖ ﻛﻪ ﻣﺠﻬﻮل ﻣﻲ ﺑﺎﺷﺪ‬

‫‪9-8‬‬
‫ﺳﻴﺴﺘﻢ ﺑﺪون ﻧﻮﻳﺰ‬
‫ﮔﺮ ﺳﻴﺴﺘﻢ ﺑﺪون ﻧﻮﻳﺰ ﺑﺎﺷﺪ راﺑﻄﻪ از اﻳﻦ ﻗﺮار اﺳﺖ‪.‬‬

‫آن ﺗﻮﻟﻴﺪ و راﺑﻄﻪ در ان ﺿﺮب ﻣﻲ ﺷﻮد ﺗﺎ‬ ‫ز آﻧﺠﺎﺋﻴﻜﻪ ‪ U‬ورودي ﻣﻌﻠﻮم اﺳﺖ ﻣﺎﺗﺮﻳﺲ ﻣﺘﻌﺎﻣﺪ‬
‫ﺑﺪﺳﺖ آﻳﺪ‪ .‬ﻣﺎﺗﺮﻳﺲ ﺳﻤﺖ ﭼﭗ ‪ m*n‬ﺑﻪ روش ‪ Singular value decomposition (SVD‬ﺗﺠﺰﻳﻪ‬
‫ﺎ در ﻧﺘﻴﺠﻪ ﻣﺎﺗﺮﻳﺲ‪ ،m*m (U’U=1) U‬ﻣﺎﺗﺮﻳﺲ ‪ m*n‬ﻗﻄﺮي ‪ S‬ﺑﺎ ﻣﻘﺎدﻳﺮ ﻏﻴﺮ ﻣﻨﻔﻲ و ﻣﺎﺗﺮﻳﺲ ‪(V’V=1) V‬‬
‫‪ ،n*n‬ﺑﺪﺳﺖ ﻣﻲ آﻳﻨﺪ‪ .‬رﻧﻚ ﻣﺎﺗﺮﻳﺲ ‪ ‬ﺗﺨﻤﻴﻦ درﺟﻪ ﺳﻴﺴﺘﻢ اﺳﺖ‪ .‬ﺑﺎ اﻳﻦ ﻛﺎر درﺟﻪ از ‪ ‬ﺑﻪ ‪ n‬ﻛﻪ درﺟﻪ ﻣﺎﺗﺮﻳﺲ ‪‬‬
‫)‪rank reduction (model order estimation‬‬ ‫ﺳﺖ ﺗﻨﺰل ﻣﻲ ﻳﺎﺑﺪ‪.‬‬

‫ز ﻃﺮﻓﻲ ﺗﺨﻤﻴﻦ ‪ ‬را دارﻳﻢ ﻛﻪ ﻣﺘﻌﺎﻗﺒﺎ از ردﻳﻒ اول آن ﺗﺨﻤﻴﻦ ‪ C‬و و از ﺑﻘﻴﻪ ردﻳﻔﻬﺎ ﺑﺎ ‪ LS‬ﺗﺨﻤﻴﻦ ‪ A‬ﺑﺪﺳﺖ ﻣﻲ‬
‫ﻳﺪ‪ .‬ﻧﻤﻮﻧﻪ ﺗﺠﺰﻳﻪ ﻣﺎﺗﺮﻳﺲ از اﻳﻦ ﻗﺮا ر اﺳﺖ ’‪M=USV‬‬

‫‪Estimating B and D‬‬


‫ﺣﺎل ‪ B‬و‪ D‬ﺑﺎ ‪ LS‬و ﺑﺎ در ﻧﻈﺮ ﮔﺮﻓﺘﻦ راﺑﻄﻪ زﻳﺮ و ﺗﺨﻤﻴﻦ ﻣﻮﺟﻮد ‪ C‬و‪ A‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬

‫وﻟﻲ ﺳﻴﺴﺘﻢ ﺣﻠﻘﻪ ﺑﺎز ﺑﺎﺷﺪ ﺗﺨﻤﻴﻦ‬ ‫ﻳﻦ راﺑﻄﻪ ﺑﻪ ﻓﺮم ‪ OE‬اﺳﺖ و ﺣﺘﻲ اﮔﺮ ﻧﻮﻳﺰ رﻧﮕﻲ‬
‫‪ consistent‬ﻣﻴﺪﻫﺪ‪ .‬راﺑﻄﻪ ﺗﺨﻤﻴﻦ ﻣﻨﺎﺳﺐ ‪ LS‬اﻳﻨﮕﻮﻧﻪ اﺳﺖ‬

‫ﮔﺮ ‪ Â‬و ‪ Ĉ‬ﻣﻘﺎدﻳﺮ ‪ True‬ﺑﺎﺷﻨﺪ ‪ B‬و‪ D‬ﺑﻪ ﻣﻘﺪار ‪ True‬ﻣﻴﺮﺳﻨﺪ و اﮔﺮ ﺗﺨﻤﻴﻨﻬﺎي ‪ consistent‬ﭘﺎراﻣﺘﺮﻫﺎي ‪ ÂN‬و‬
‫‪ Ĉ N‬اﺳﺘﻔﺎده ﺷﻮد ‪ B̂ N‬و ‪ D̂ N‬ﺑﻪ ‪ True‬ﻣﻴﺮﺳﺪ‪.‬‬
‫ﺣﺎﻟﺖ ﻧﻮﻳﺰي‬
‫در ﺣﺎﻟﺖ ﻧﻮﻳﺰي‪ ،‬ﺗﺮم ﻧﻮﻳﺰ ﺑﺎﻳﺪ ﺣﺬف ﺷﻮد‪ .‬ﺑﺮاي ﺣﺬف ﻧﻮﻳﺰ ﻣﺎﺗﺮﻳﺲ ‪ Hankel‬ورودي و ﺧﺮوﺟﻲ را ﺑﻪ دو ﻗﺴﻤﺖ‬
‫ﮔﺬﺷﺘﻪ و آﻳﻨﺪه ﺗﻘﺴﻴﻢ ﻛﻨﻴﺪ )اﺧﺘﻴﺎري(‬

‫‪10-8‬‬
‫ﺣﺎل ﻣﺪل ﺳﻴﮕﻨﺎل آﻳﻨﺪه از اﻳﻨﻘﺮار اﺳﺖ‬

‫در اوﻟﻴﻦ ﮔﺎم ﻣﺸﺎﺑﻪ ﺣﺎﻟﺖ ﻗﺒﻞ ﺗﺮم ‪ u‬ﺣﺬف ﻣﻲ ﺷﻮد‬

‫ﺎ ﻓﺮض اﻳﻨﻜﻪ ﻧﻮﻳﺰ ‪ N‬و ورودي ‪ U‬ﻏﻴﺮ ﻫﻤﺒﺴﺘﻪ و اﻳﻨﻜﻪ ‪ Uf‬و ‪ Yp‬ﻧﻴﺰ ﻏﻴﺮ ﻫﻤﺒﺴﺘﻪ ﻫﺴﺘﻨﺪ؛‬

‫‪Up‬و ‪ Yp‬ﻛﺎﻧﺪﻳﺪﻫﺎي ﺧﻮب ‪ IV‬ﻣﻲ ﮔﺮدﻧﺪ‬

‫ﺣﺬف ﻣﻲ ﮔﺮدد‬ ‫ﺣﺎل ﺑﺎ ﺿﺮب ‪ P‬درﻣﺪل آﻳﻨﺪه اﺛﺮ‬

‫ﺣﺎل ﻣﺎﺗﺮﻳﺲ ﺳﻤﺖ ﭼﭗ ﺑﺎ ‪ SVD‬ﺗﺠﺰﻳﻪ ﻣﻲ ﮔﺮدد ﺗﺎ ﺗﺨﻤﻴﻦ درﺟﻪ ﺳﻴﺴﺘﻢ و ‪ ‬ﺑﺪﺳﺖ آﻳﺪ‪.‬‬

‫‪Any choice of positive-definite weighting matrices Wr and Wc will result in consistent‬‬


‫‪estimates of the extended observability matrix.‬‬
‫ﻟﮕﻮرﻳﺘﻤﻬﺎ ﭘﻴﺸﻨﻬﺎدات ﻣﺘﻔﺎوﺗﻲ ﺑﺮاي ﻣﺎﺗﺮﻳﺴﻬﺎي ‪Wr positive definite‬و‪ Wc‬ﻣﻲ دﻫﻨﺪ ﻛﻪ در ﺣﺎﻟﺖ ﻧﻮﻳﺰي اﺛﺮ‬
‫ﻗﺎﺑﻞ ﻣﻼﺣﻈﻪ اي ﺑﺮ ﻛﻴﻔﻴﺖ ﺗﺨﻤﻴﻦ دارﻧﺪ‬
‫‪• MOESP (Verhaegen, 1994):‬‬

‫‪11-8‬‬
‫‪• CVA (Larimore, 1990):‬‬

‫‪• N4SID (Van Overschee and de Moor, 1994):‬‬

‫‪ RECURSIVE ESTIMATION METHODS 4-8‬‬


‫‪Ljung chapter 11‬‬
‫روﺷﻬﺎي ﺑﺎزﮔﺸﺘﻲ ﺑﺎ روﺷﻬﺎي ﺗﻜﺮاري از اﻳﻦ ﻧﻈﺮ ﻣﺘﻔﺎوﺗﻨﺪ ﻛﻪ در وﺷﻬﺎي ﺗﻜﺮاري ﻫﺮ ﺑﺎر ﺗﻤﺎم دﻳﺘﺎ ﻣﺮود اﺳﺘﻔﺎده ﻗﺮار‬
‫ﻣﻴﮕﻴﺮد وﻟﻲ در روﺷﻬﺎي ﺑﺎزﮔﺸﺘﻲ ﺗﻨﻬﺎ آﺧﺮﻳﻦ دﻳﺘﺎ ﻣﻮرد ﭘﺮدازش ﺟﺪﻳﺪ ﻗﺮار ﻣﻲ ﮔﻴﺮد‪ .‬ﻣﺰﻳﺘﻬﺎي اﺳﺘﻔﺎده از ﺗﺨﻤﻴﻦ‬
‫ﺎزﮔﺸﺘﻲ از اﻳﻨﻘﺮار اﺳﺖ‬
‫‪ ˆ(t) ‬از ﺑﻬﺒﻮد ﺳﺎده )‪ ˆ(t − 1‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬
‫‪ ‬در ﻛﺎرﺑﺮدﻫﺎﻳﻲ ﻛﻪ ﺳﻴﺴﺘﻢ واﺑﺴﺘﻪ ﺑﻪ زﻣﺎن اﺳﺖ ﺑﻪ اﻳﻦ روﺷﻬﺎ ﻧﻴﺎز اﺳﺖ‪ .‬ﻣﺜﻞ ﻛﻨﺘﺮل وﻓﻘﻲ ‪,adaptive control‬‬
‫ﭘﺮدازش ﺳﻴﮕﻨﺎل وﻓﻘﻲ ‪ adaptive signal processing‬و ﭘﻴﺶ ﺑﻴﻨﻲ وﻓﻘﻲ ‪adaptive prediction‬‬

‫ﻧﻴﺎزي ﺑﻪ ذﺧﻴﺮه ﺗﻤﺎم دﻳﺘﺎﻫﺎ ﻧﻴﺴﺖ ﻓﻘﻂ ﻣﻘﺪار ﻣﺤﺪودي ﻧﮕﻬﺪاري ﻣﻲ ﺷﻮد‬ ‫‪‬‬
‫در اﻟﮕﻮرﻳﺘﻤﻬﺎي ‪ real-time‬ﻣﻮرد ﻧﻴﺎز اﺳﺖ و ﺑﻪ ﺳﺎدﮔﻲ اﻋﻤﺎل ﻣﻲ ﺷﻮد‬ ‫‪‬‬
‫در ﻣﺴﺎﺋﻞ ‪ fault detection‬ﻛﺎرﺑﺮد دارد ﻛﻪ ﺗﻐﻴﻴﺮات را ﻛﺸﻒ و اﻋﻼم ﺧﻄﺎ ﻣﻲ ﻛﻨﺪ‬ ‫‪‬‬
‫اﻳﻦ اﻟﮕﻮرﻳﺘﻤﻬﺎ‪ :‬رﻗﻴﺐ ﺑﺮاي روﺷﻬﺎي ‪ off line‬ﻧﻴﺰ ﻫﺴﺘﻨﺪ و ﻫﻤﭽﻨﻴﻦ ﺷﻨﺎﺳﺎﻳﻲ را اداﻣﻪ ﻣﻲ دﻫﻨﺪ ﺗﺎ ﺗﺨﻤﻴﻦ ﺑﻪ دﻗﺖ‬ ‫‪‬‬
‫ﻛﺎﻓﻲ ﺑﺮﺳﺪ‬

‫‪ ‬ﺑﺮاي اﻳﻦ روﺷﻬﺎ ﻧﺎﻣﻬﺎي دﻳﮕﺮي ﻣﺎﻧﻨﺪ ‪ adaptive ،real-time ،on-line‬ﻳﺎ ‪ sequential‬ﻧﻴﺰ اﺳﺘﻔﺎده ﺷﺪه اﺳﺖ‬
‫‪12-8‬‬
‫ﺜﺎل ‪ .1‬ﻣﺜﺎل‪ :‬ﺑﻪ ﺳﺎدﮔﻲ ﻣﻲ ﺗﻮان ﻣﺘﻮﺳﻂ ﮔﻴﺮي را ﺑﻪ ﻓﺮم ﺑﺎزﮔﺸﺘﻲ ﻧﻮﺷﺖ‬

‫→‬
‫ﭼﻪ ﺗﺨﻤﻴﻨﻬﺎﻳﻲ را ﺑﻪ روش ﺑﺎزﮔﺸﺘﻲ ﻣﻲ ﺗﻮان ﻧﻮﺷﺖ‬
‫را ﻧﻤﻴﺘﻮان ﺑﻪ ﻓﺮم ﺑﺎزﮔﺸﺘﻲ ﻧﻮﺷﺖ ﻣﮕﺮ آﻧﻜﻪ ﺑﺎ ﺳﺎﺧﺘﺎر زﻳﺮ ﺑﺎﺷﺪ‬ ‫ﻤﺎﻣﻲ ﻓﺮﻣﻮﻟﻬﺎي ﺗﺨﻤﻴﻦ‬

‫در ﻃﺮف راﺳﺖ راﺑﻄﻪ ‪ x‬ﻳﻜﻮاﺣﺪ ﺗﺎﺧﻴﺮ در )‪ x(t-1‬وﺟﻮد دارد‪ .‬در اﻳﻨﺼﻮرت‬

‫ﻛﻪ ‪ ‬و ‪ µ‬دو ﭘﺎراﻣﺘﺮ ﻫﺴﺘﻨﺪ‬


‫ﻳﻚ روش ﺑﺎزﮔﺸﺘﻲ ﺧﻮب ﺑﺎﻳﺪ‬
‫ﻫﻤﮕﺮاﻳﻲ ﺳﺮﻳﻊ‬ ‫‪‬‬
‫ﺗﺨﻤﻴﻦ ‪consistent‬‬ ‫‪‬‬
‫‪good tracking‬‬ ‫ﺧﻮب دﻧﺒﺎل ﻛﺮدن ﭘﺎراﻣﺘﺮ واﺑﺴﺘﻪ ﺑﻪ زﻣﺎن‬ ‫‪‬‬
‫ﺣﺠﻢ ﻣﺤﺎﺳﺒﺎت ﻣﻌﻘﻮل‬ ‫‪‬‬
‫در اﻳﻦ راﺑﻄﻪ ﺑﻴﻦ ‪ convergence vs tracking‬و ‪ computational complexity vs accuracy‬ﺗﻘﺎﺑﻞ وﺟﻮد‬ ‫‪‬‬
‫دارد‬
‫اﻟﮕﻮرﻳﺘﻢ ﻣﺮﺑﻮط ﺑﻪ رﮔﺮﺳﻴﻮن ﺧﻄﻲ ﺷﺎﻣﻞ ‪ RLS‬و ‪ RIV‬اﺳﺖ‬ ‫‪‬‬
‫اﻟﮕﻮرﻳﺘﻢ ﻣﺮﺑﻮط ﺑﻪ رﮔﺮﺳﻴﻮن ﻏﻴﺮ ﺧﻄﻲ ‪ RPLR‬و ﻣﺮﻳﻮط ﺑﻪ ﻣﺴﺌﻠﻪ ﻏﻴﺮ ﺧﻄﻲ ‪ RPEM‬ﻫﺴﺘﻨﺪ‬ ‫‪‬‬

‫‪THE RECURSIVE LS ALGORITHM (RLS) 1-4-8‬‬


‫ﻟﮕﻮرﻳﺘﻢ )‪Weighted LS(WLS‬‬

‫ﻪ ﺻﻮرت زﻳﺮ ﺑﻪ روﺷﻲ ﺑﺎزﮔﺸﺘﻲ ﺗﺒﺪﻳﻞ ﻣﻲ ﺷﻮد‪ .‬ﻣﺤﺎﺳﺒﻪ ﺑﺎزﮔﺸﺘﻲ ‪ R‬و ‪ f‬از اﻳﻨﻘﺮار اﺳﺖ‪.‬‬

‫‪13-8‬‬
‫‪Now‬‬

‫ ‬ ‫ﻛﺎﻫﺶ ﻣﺤﺎﺳﺒﺎت ‪R‐1‬‬


‫از ﻗﺎﻋﺪه زﻳﺮ اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد‬ ‫ﺑﺮاي ﻛﺎﻫﺶ ﻣﺤﺎﺳﺒﺎت‬

‫‪Taking A = (t)R(t -1), B = DT = ϕ(t), and C = 1 gives‬‬

‫‪Moreover, we have‬‬

‫ﻛﻪ در ﻧﻬﺎﻳﺖ ‪ RLS‬اﻳﻨﮕﻮﻧﻪ ﻓﺮﻣﻮﻟﻪ ﻣﻲ ﺷﻮد‪.‬‬

‫‪ e(t)=y-ϕ’θ‬ﺧﻄﺎي ﭘﻴﺶ ﺑﻴﻨﻲ اﺳﺖ‬ ‫‪‬‬


‫‪ (t)=‬ﺑﻪ ﻧﺎم ﺿﺮﻳﺐ ﻓﺮاﻣﻮﺷﻲ ‪ forgetting factor‬ﺧﻮاﻧﺪه ﻣﻲ ﺷﻮد‪.‬‬ ‫‪‬‬
‫)‪ θ̂(0‬ﺗﺨﻤﻴﻦ اوﻟﻴﻪ اﺳﺖ ‪ .‬ﻣﻌﻤﻮﻻ ﺻﻔﺮ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﻣﻲ ﺷﻮد‬ ‫‪‬‬
‫)‪ P(0‬ﻣﺎﺗﺮﻳﺲ ﻛﻮارﻳﺎﻧﺲ ﺑﺮاي ﺗﺨﻤﻴﻦ اوﻟﻴﻪ ﭘﺎراﻣﺘﺮ اﺳﺖ‪ .‬ﻣﻌﻤﻮﻻ‪ P(0)=I‬اﺳﺖ ﻛﻪ ‪ ‬ﺑﺮگ ﺑﻪ ﻣﻌﻨﻲ اﻳﻦ اﺳﺖ ﻛﻪ‬ ‫‪‬‬
‫ﺗﺨﻤﻴﻦ اوﻟﻴﻪ دﻗﺖ ﻛﺎﻓﻲ را ﻧﺪارد‪  .‬ﻛﻮﭼﻚ اﺟﺎزه ﻧﻤﻲ دﻫﺪ ﻣﻘﺪار ‪ θ‬ﺑﻪ اﻧﺪازه ﻛﺎﻓﻲ ﺗﻐﻴﻴﺮ ﻛﻨﺪ‪ .‬اﮔﺮ ﺗﺨﻤﻴﻦ اوﻟﻴﻪ‬
‫ﻧﺴﺒﺘﺎ درﺳﺖ ﺑﺎﺷﺪ اﻳﻦ اﻧﺘﺨﺎب ﺧﻮﺑﻲ اﺳﺖ‪.‬‬
‫در ﺻﻮرت ﻧﻴﺎز‪ ،‬از ﺗﺨﻤﻴﻨﻬﺎي اوﻟﻴﻪ ﺑﻬﺘﺮ زﻳﺮ ﻧﻴﺰ ﻣﻲ ﺗﻮان اﺳﺘﻔﺎده ﻛﺮد‬
‫روش ‪ :1‬اﺳﺘﻔﺎده از ﺗﻌﺪادي دﻳﺘﺎ ﻣﺤﺪود و اﻋﻤﺎل ﺗﺨﻤﻴﻦ ‪off line‬‬

‫روش ‪ :2‬راه ﺳﺎده ﺗﺮ ‪P(0)=P0=I‬و ﻣﺤﺎﺳﺒﻪ‬


‫‪14-8‬‬
‫اﮔﺮ ‪ P0‬ﺑﺰرگ ﻳﺎ ‪ t‬ﺑﺰرگ ﺑﺎﺷﺪ ﻫﺮ دو راﺑﻄﻪ ﻣﻘﺎدﻳﺮ ﻧﺰدﻳﻚ ﻣﻲ دﻫﻨﺪ‪.‬‬
‫ﺷﺒﺎﻫﺖ ‪ RLS‬ﺑﺎ ﻓﻴﻠﺘﺮ ﻛﺎﻟﻤﻦ‬
‫رواﺑﻂ ﻓﻴﻠﺘﺮ ﻛﺎﻟﻤﻦ اﻳﻨﮕﻮﻧﻪ اﺳﺖ‬

‫در ‪ 4,94‬داده ﺷﺪه اﺳﺖ‪ .‬ﺣﺎل اﮔﺮ ﻣﺪل ‪ ŷ=ϕ’θ‬را ﺑﺼﻮرت ﻓﻀﺎي ﺣﺎﻟﺖ زﻳﺮ ﺑﻨﻮﻳﺴﻴﻢ‬

‫و ﻛﺎﻟﻤﻦ را اﻋﻤﺎل ﻛﻨﻴﻢ ﺗﺤﺖ ﺷﺮاﻳﻂ‪ Ev(t)v’(I) = R2(1) ،R1=0=Ew(t)w’(I) ،C=’ ،A=1 , B=0‬راﺑﻄﻪ ‪RLS‬‬
‫ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬ ‫ﺑﺎ ‪ (t) == 1‬و‬
‫ﻧﺘﻴﺠﻪ اﻳﻦ ﺑﺤﺚ آن اﺳﺖ ﻛﻪ‬
‫اﺳﺖ ﻓﻴﻠﺘﺮ ﻛﺎﻟﻤﻦ ﻣﻲ ﮔﻮﻳﺪ ﻛـﻪ)‪ (t‬داراي‬ ‫وﻗﺘﻲ ‪ v‬در ‪ 11.25‬ﻧﻮﻳﺰ ﺳﻔﻴﺪ ﮔﻮﺳﻲ‪ (t) = 1 ،‬و‬
‫ﻣﻴﺎﻧﮕﻴﻦ )‪ θ̂ (t‬و ﻛﻮارﻳﺎﻧﺲ ﻣﺎﺗﺮﻳﺲ )‪ P(t‬اﺳﺖ‬
‫ﻣﺜﺎل ‪ .2‬ﻣﺜﺎل ﺷﺮاﻳﻂ اوﻟﻴﻪ‬
‫در ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮﻫﺎي ﺳﻴﺴﺘﻢ ‪ u‬و ‪ v‬ﺗﺼﺎدﻓﻲ ﻫﺴﺘﻨﺪ‪ .‬از ﻣﻘﺎدﻳﺮ اوﻟﻴﻪ زﻳﺮ اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد‬

‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ ﺑﺮ اﺳﺎس ﻣﻘﺎدﻳﺮ ‪ ‬در ﺷﻜﻞ ﻧﺸﺎن داده ﺷﺪه اﺳﺖ ‪.‬ﺑﺎ ‪ ‬ﺑﺰرگ ﺑﻪ ﻣﻘﺪار اوﻟﻴﻪ ﺑﻬﺎ داده ﻧﻤﻲ ﺷﻮد و‬
‫اﻟﮕﻮرﻳﺘﻢ ﺳﺮﻳﻌﺘﺮ ﻫﻤﮕﺮا ﻣﻲ ﺷﻮد‪.‬‬

‫‪15-8‬‬
‫‪ THE RECURSIVE IV METHOD 2-4-8‬‬
‫ﻣﺸﺎﺑﻪ ﺣﺎﻟﺖ ‪ LS‬اﺳﺖ‬

‫ﺎ اﻳﻦ ﺗﻔﺎوت ﻛﻪ ‪ ‬در ﺑﺨﺸﻲ از راﺑﻄﻪ ﺑﻪ ﺟﺎي ‪ ϕ‬وارد ﻣﻲ ﺷﻮد‪.‬‬

‫‪ 3-4-8‬ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ واﺑﺴﺘﻪ ﺑﻪ زﻣﺎن‬


‫ﺮاي ﺳﻴﺴﺘﻢ اﻳﺴﺘﺎن )‪  (forgetting factor‬ﻣﻲ ﺗﻮاﻧﺪ ﺛﺎﺑﺖ و اﻧﺪﻛﻲ ﻛﻤﺘﺮ از ‪ 1‬ﺑﺎﺷﺪ‪0.995>>0.98 :‬‬
‫روش ‪ :1‬اﻋﻤﺎل ﺿﺮﻳﺐ ﻓﺮاﻣﻮﺷﻲ ‪ ‬‬
‫روش وﻓﻘﻲ و ﺑﺎزﮔﺸﺘﻲ ﻣﻨﺎﺳﺐ ﺑﺮاي ﺳﻴﺴﺘﻤﻬﺎي واﺑﺴﺘﻪ ﺑﻪ زﻣﺎن اﺳﺖ‪ .‬ﺑﺎ ﮔﺬﺷﺖ زﻣﺎن دﻳﺘﺎﻫﺎي ﻗﺪﻳﻤﻲ دﻳﮕﺮ اﻋﺘﺒﺎر‬
‫ﺪارﻧﺪ و ﺑﺎﻳﺪ اﺛﺮﺷﺎن از اﻟﮕﻮرﻳﺘﻢ ﺣﺬف ﺷﻮد ‪ .‬ﻟﺬا ﻃﻮل ﮔﺎم ﻣﺘﻐﻴﺮ ﻣﻲ ﺗﻮاﻧﺪ ﻣﻮﺛﺮ ﻋﻤﻞ ﻛﻨﺪ‪ .‬ﻃﻮل ﮔﺎم اﻧﺘﺨﺎب ﺑﻴﻦ‬
‫‪tracking alertness‬و ‪ noise sensitivity‬اﺳﺖ‪ .‬ﺑﺎ وﻗﻮع ﺗﻐﻴﻴﺮات ﻧﺎﮔﻬﺎﻧﻲ ‪ ‬ﺑﺎﻳﺪ ﻛﺎﻫﺶ داده ﺷﻮد )ﺗﺎ اﺛﺮات ﻗﺒﻠﻲ‬
‫ﺳﺮﻳﻌﺎ از ﺑﻴﻦ ﺑﺮود( و ﺳﭙﺲ ﺑﻪ ﺣﺪود ﻗﺒﻠﻲ اﻓﺰاﻳﺶ داده ﺷﻮد‪  .‬ﻣﻘﺪار ﺑﻴﻦ ‪ 0‬و ‪ 1‬ﺑﻪ ﺧﻮد ﻣﻴﮕﻴﺮد‪ .‬ﺑﺎ اﻧﺘﺨﺎب‬

‫ﻪ اﻟﮕﻮرﻳﺘﻢ ﺿﺮﻳﺐ ﻓﺮاﻣﻮﺷﻲ واﺑﺴﺘﻪ ﺑﻪ زﻣﺎن اﻋﻤﺎل ﻣﻴﮕﺮدد‬


‫‪  small ‬دﻳﺘﺎﻫﺎي ﻗﺪﻳﻤﻲ ﺑﻪ ﺳﺮﻋﺖ ﺑﻲ اﺛﺮ و ﻗﺎﺑﻠﻴﺖ ‪ tracking‬ﺑﺎﻻ ﻣﻴﺮود اﻣﺎ اﻻﻟﮕﻮرﻳﺘﻢ ﻧﻮﻳﺰي و وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ‬
‫اﻓﺰاﻳﺶ ﻣﻲ ﻳﺎﺑﺪ‬
‫‪  close to 1 ‬ﻫﻤﮕﺮاﻳﻲ ﺧﻮب و وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﻛﻮﭼﻚ‬

‫‪16-8‬‬
‫ﺑﺎ اﻧﺘﺨﺎب‬

‫دﻳﺘﺎﻫﺎي ﻗﺪﻳﻤﻲ ﺗﺮ ﺑﺎ ﺛﺎﺑﺖ زﻣﺎﻧﻲ‪:‬‬

‫ﺗﺎﺛﻴﺮ ﺧﻮد را از دﺳﺖ ﻣﻲ دﻫﻨﺪ‪) .‬اﺛﺮ ﻛﻤﺘﺮ از ‪ ٪36‬ﺧﻮاﻫﻨﺪ داﺷﺖ‪( .‬‬


‫اﮔﺮ ﺳﻴﺴﺘﻢ ﺑﺮاي ﻣﺪت ‪ T0‬ﺳﻤﭙﻞ ﺛﺎﺑﺖ اﺳﺖ‪ ،‬ﻣﺤﺎﺳﺒﻪ ‪ ‬ﻣﻨﺎﺳﺐ از راﺑﻄﻪ ﻓﻮق ﺑﺪﺳﺖ آﻳﺪ‪ .‬در ﺻﻮرت ﺗﻐﻴﻴﺮ ﻧﺎﮔﻬﺎﻧﻲ‬
‫ﺳﻴﺴﺘﻢ‪ ،‬ﻣﺎﻧﻨﺪ ﺳﻴﺴﺘﻢ درﺟﻪ ‪ ،1‬ﺣﺪود ‪ 4T0‬ﻃﻮل ﻣﻲ ﻛﺸﺪ ﺗﺎ اﺛﺮ آن در ﻣﺪل ﺟﺎي داده ﺷﻮد‪.‬‬
‫ﻓﺮﻣﻮل دﻳﮕﺮ ﺑﺼﻮرت زﻳﺮ اﺳﺖ ﻛﻪ ‪ ‬ﻳﻚ ﻣﻴﻞ ﻣﻴﻜﻨﺪ‬

‫‪‬‬
‫ﺑﺎز ﻧﻮﻳﺴﻲ ﺑﺎ ﺗﺮم ﺑﻬﺮه ‪‬‬
‫‪ ‬ﻃﻮل ﮔﺎم ﺟﺴﺘﺠﻮي اﻟﮕﻮرﻳﺘﻢ اﺳﺖ‪ .‬ﻃﻮل ﮔﺎم ﺑﺎ ﺿﺮﻳﺐ ﻓﺮاﻣﻮﺷﻲ ارﺗﺒﺎط ﭘﻴﺪا ﻣﻲ ﻛﻨﺪ‪ .‬ﻗﺎﺑﻠﻴﺖ دﻧﺒﺎل ﻛﺮدن و‬
‫ﻫﻤﮕﺮاﻳﻲ اﻟﮕﻮرﻳﺘﻢ را ﺑﻪ ﺗﺮم ﺑﻬﺮه ﻧﻴﺰ ﻣﻲ ﺗﻮان ﻧﻮﺷﺖ‪.‬‬
‫ﺑﺰرﮔﻲ ﻣﻘﺎدﻳﺮ ﻣﺎﺗﺮﻳﺲ ̅‪ R‬ﺑﻪ ‪ ‬ﺑﺴﺘﮕﻲ دارد‪ .‬از اﻳﻨﺮو ﻣﻨﺎﺳﺐ اﺳﺖ ﺗﺎ ̅‪ R‬ﺑﺎ ‪ ‬ﻧﺮﻣﺎﻟﻴﺰه ﺷﻮد‪.‬‬

‫ﻛﻪ ‪ ‬ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫‪=1-‬‬ ‫‪ ‬ﺛﺎﺑﺖ ﺑﻌﺪ از ﺳﭙﺮي ﺷﺪن زﻣﺎن ﮔﺬرا ﺑﻬﺮه ﺛﺎﺑﺖ زﻳﺮ را ﻣﻲ دﻫﺪ‪.‬‬
‫ﺗﻐﻴﻴﺮ ‪ ‬ﺑﻪ ﻣﻘﺪار ﻛﻮﭼﻚ و ﺳﭙﺲ اﻓﺰاﻳﺶ آن ﻣﺘﺮادف اﻓﺰاﻳﺶ ﺑﻬﺮه و ﺳﭙﺲ ﻛﺎﻫﺶ آن اﺳﺖ‪.‬‬
‫‪(t) ~ 1/(t - t0).‬‬
‫در زﻣﺎﻧﻬﺎﻳﻲ ﻛﻪ ورودي ﺣﺎوي اﻃﻼﻋﺎت اﺳﺖ ﺑﺎﻳﺪ ﺑﻬﺮه زﻳﺎد و ﺑﺎ ورودي ﻧﻮﻳﺰي ﺑﻬﺮه ﻛﺎﻫﺶ ﻣﻲ ﻳﺎﺑﺪ‬
‫ﺑﺎ اﻳﻦ ﺗﻤﻬﻴﺪات راﺑﻄﻪ ﺑﺼﻮرت زﻳﺮ در ﻣﻲ آﻳﺪ‬

‫ﻛﻪ ﻣﻨﺠﺮ ﺑﻪ ﻓﺮم زﻳﺮ ﻣﻲ ﮔﻴﺮدد ﻛﻪ در آن ‪ ‬ﺗﻌﻴﻴﻦ ﻛﻨﻨﺪه ﻃﻮل ﮔﺎم ﺟﺴﺘﺠﻮﺳﺖ‬

‫‪17-8‬‬
‫ب( در ﻧﻈﺮ ﮔﺮﻓﺘﻦ ﭘﺎراﻣﺘﺮ ﺑﻌﻨﻮان ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ‬
‫روش دﻳﮕﺮ در ﻧﻈﺮﮔﺮﻓﺘﻦ واﺑﺴﺘﻪ ﺑﻪ زﻣﺎن ﺑﻮدن ﭘﺎراﻣﺘﺮ‪ θ ،‬ﺑﻌﻨﻮان ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ و ﺗﺨﻤﻴﻦ آن ﺑﺎ ﻓﻴﻠﺘﺮ ﻛﺎﻟﻤﻦ اﺳﺖ‬

‫‪y=ϕ’θ+v‬‬
‫را ﻣﻲ دﻫﺪ‪.‬‬ ‫ﺎ در ﻧﻈﺮ ﮔﺮﻓﺘﻦ )‪ ،Ev2(t) = R2(t‬ﻓﻴﻠﺘﺮ ﻛﺎﻟﻤﻦ‬

‫در اﻳﻦ ﻓﺮﻣﻮل وﺟﻮد ‪ R1‬از ﺻﻔﺮﺷﺪن ﺑﻬﺮه ﺟﻠﻮﮔﻴﺮي ﻣﻲ ﻛﻨﺪ‬


‫‪ ‬درﺣﺎﻟﺖ ﻣﺪل ‪ linear regression‬ﺗﻨﻈﻴﻢ ﺑﻬﻴﻨﻪ ﺑﻴﻦ ‪ tracking ability and noise sensitivity‬را ﻓﺮاﻫﻢ ﻣﻲ‬
‫آورد‬
‫‪ ‬در دﻳﮕﺮ ﻣﻮارد ﻋﻤﻠﻜﺮد ﻗﻄﻌﻲ ﻧﺪارد‪ .‬اﻣﺎ اﮔﺮ اﻃﻼﻋﺎت در ﺧﺼﻮص ﻧﺤﻮه ﺗﻐﻴﻴﺮات ﭘﺎراﻣﺘﺮﻫﺎي ﺳﻴﺴﺘﻢ ﻣﻮﺟﻮد ﺑﺎﺷﺪ ﻣﻲ‬
‫ﺗﻮان از ﻃﺮﻳﻖ ‪ R1‬آﻧﺮا در ﺗﺨﻤﻴﻦ وارد ﻛﺮد‬
‫ﺜﺎل ‪ .3‬ﺳﻴﺴﺘﻢ زﻳﺮ ﺑﺎ ‪ u‬و ‪ v‬ﻧﻮﻳﺰي را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﺪ ﻛﻪ ﺳﻴﺴﺘﻢ در ‪ t=N/2‬دﭼﺎر ﺗﻐﻴﻴﺮ ﻣﻲ ﺷﻮد‪ .‬اﺛﺮ ‪ ‬ﺑـﺮ ﻋﻤﻠﻜـﺮد‬
‫را ﺑﺮرﺳﻲ ﻛﻨﻴﺪ‬

‫ﻛﺎﻫﺶ ‪ ‬اﺛﺮات ﻣﺘﻀﺎد دارد‬


‫‪ ‬ﺗﺨﻤﻴﻦ ﺳﺮﻳﻌﺘﺮ ﺑﻪ ﺳﻤﺖ ﻣﻘﺪار واﻗﻌﻲ ﻣﻲ رود‪.‬‬
‫‪ ‬اﻟﮕﻮرﻳﺘﻢ ﺑﻪ ﻧﻮﻳﺰ ﺣﺴﺎس ﻣﻲ ﺷﻮد و ﻧﻮﺳﺎﻧﺎت اﻓﺰاﻳﺶ ﻣﻲ ﻳﺎﺑﺪ‬

‫‪18-8‬‬
‫‪Asymptotic .Properties or the Estimate‬‬
‫ﺗﺨﻤﻴﻦ ‪ RLS‬ﺑﺎ ﺗﺨﻤﻴﻦ ‪ offline‬ﺑﻪ دﻟﻴﻞ ﺷﺮاﻳﻂ اوﻟﻴﻪ ﻣﺘﻔﺎوت اﺳﺖ وﻟﻲ رﻓﺘﺎر ﻣﺠﺎﻧﺒﻲ آﻧﻬﺎ ﻣﺸﺎﺑﻪ ﻫﺴﺘﻨﺪ‬

‫‪ RECURSIVE PREDICTION‐ERROR METHODS 4-4-8‬‬


‫‪ PEM‬ﺑﺎ ﻣﺴﺌﻠﻪ ﻏﻴﺮ ﺧﻄﻲ ﺑﺼﻮرت ﺑﺎز ﺗﻜﺮار ﺣﻞ ﻣﻲ ﺷﻮد‪ .‬اﻳﻦ روش را ﺑﺼﻮرت ﺑﺎزﮔﺸﺘﻲ ﻧﻴﺰ ﻣﻲ ﺗﻮان ﻓﺮﻣﻮﻟﻪ ﻛﺮد‪ .‬اﮔﺮ‬
‫ﺗﺎﺑﻊ ﻣﻌﻴﺎر ‪ V‬را ﺣﻮل )‪ θ̂(t-1‬ﺑﺴﻂ ﺗﻴﻠﻮر دﻫﻴﻢ و ﺳﭙﺲ ﻧﺴﺒﺖ ﺑﻪ )‪ θ̂(t‬ﻣﺸﺘﻖ ﮔﺮﻓﺘﻪ ﺻﻔﺮ ﻛﻨﻴﻢ ﻣﺸﺎﺑﻪ رواﺑﻂ زﻳﺮ‬

‫ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬

‫ﺣﺎل ’‪ V‬را ﺑﺴﻂ ﻣﻲ دﻫﻴﻢ‪ .‬ﺑﺎ ﻋﻨﺎﻳﺖ ﺑﻪ اﻳﻨﻜﻪ ‪ V’t-1‬ﻛﻮﭼﻚ اﺳﺖ )ﻣﻴﻨﻴﻤﻮم زﻣﺎن ﻗﺒﻞ( ﺑﺪﺳﺖ ﻣﻲ اﻳﺪ‬

‫≈)‪) ŷ(t‬ﻛﻪ ﻣﺤﺎﺳﺒﻪ ﻣﻘﺪار واﻗﻌﻲ آﻧﻬﺎ ﺑﻪ ﻣﺪل ﺑﺴﺘﮕﻲ دارد(‬ ‫≈)‪ (t‬و‬ ‫ﺣﺎل ﺑﺎ ﺗﻘﺮﻳﺐ‬
‫ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ ﻛﻪ ﺑﻪ ﻧﺎم ‪ recursive Gauss-Newton prediction-error‬ﺧﻮاﻧﺪه ﻣﻲ ﺷﻮد‬

‫در اداﻣﻪ ‪ R-1‬ﺑﺎ راﺑﻄﻪ ‪ matrix inversion‬ﻧﻴﺰ ﺑﺎزﮔﺸﺘﻲ ﻣﻲ ﺷﻮد‪.‬‬


‫اﻳﻦ اﻟﮕﻮرﻳﺘﻢ ﻫﻤﺎن ‪ RLS‬اﺳﺖ‬ ‫‪ ‬ﺑﺎ ﻣﺪل ﺗﺨﻤﻴﻦ‬

‫‪ ‬اﮔﺮ ‪ R=I‬ﻧﻴﺰ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﻮد اﻟﮕﻮرﻳﺘﻢ ﻣﺸﻬﻮر ‪ Least mean squares LMS‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬

‫‪where the gain (t) could be a given sequence or normalized as‬‬

‫ﻣﺜﺎل ‪Example 11.1 .4‬ﺳﻴﺴﺘﻢ ‪ ARMAX‬را در ﻧﻈﺮ ﺑﮕﻴﺮﻳﺪ‬

‫ﻣﺪل ﭘﻴﺶ ﺑﻴﻨﻲ آن‬

‫‪19-8‬‬
‫ﻣﺤﺎﺳﺒﻪ)‪=dŷ/d =ϕ(t,θ‬‬

‫ﻣﺤﺎﺳﺒﻪ ‪ ‬ﺑﻪ ﺗﻤﺎﻣﻲ دﻳﺘﺎ ﻧﻴﺎز ﻣﻨﺪ اﺳﺖ ﺣﺎل ﺑﺎ اﻋﻤﺎل ﺗﻘﺮﻳﺐ ﺑﻪ ﺟﺎي ‪ ‬از ̅‪ ‬ﻣﻄﺮح ﺷﺪه ﻣﻲ ﻧﻮﻳﺴﻴﻢ‬

‫ﺗﺎ ﺑﺪﺳﺖ آﻳﺪ‬

‫ﺧﻄﺎي ﭘﻴﺶ ﺑﻴﻨﻲ )‪ (t‬ﺑﺎﻗﻴﻤﺎﻧﺪه )‪ ̅(t‬ﺑﺎ ﻫﻢ ﺗﻔﺎوت دارﻧﺪ‪ .‬ﺗﺎ زﻣﺎن )‪ ϕ(t+1‬ﻧﻴﺎزي ﺑﻪ ﻣﻘﺪار ﺑﺎﻗﻴﻤﺎﻧﺪه ﻧﻴﺴﺖ‪.‬‬
‫‪Projection into DM‬‬
‫ ‬
‫اﮔﺮ ‪ update‬ﻣﺘﻌﻠﻖ ﺑﻪ ‪ DM‬ﻧﺒﺎﺷﺪ رد ﺷﺪه و ﻣﻮرد ﻗﺒﻮل ﻗﺮار ﻧﻤﻴﮕﻴﺮد‬

‫ﻣﺜﺎل ‪ .5‬ﺳﻴﺴﺘﻢ زﻳﺮ ﺑﺎ ‪ RIV ،RPEM‬و ‪ RLS‬ﺷﻨﺎﺳﺎﻳﻲ ﺷﺪه ﻧﺘﺎﻳﺞ از اﻳﻨﻘﺮار اﺳﺖ‬

‫‪ u‬و‪ v‬ﻧﻮﻳﺰ ﺑﺎ ﻣﻴﺎﻧﮕﻴﻦ ﺻﻔﺮ و وارﻳﺎﻧﺲ ‪ 1‬ﻫﺴﺘﻨﺪ‪ .‬ﻣﺪل ﺑﺮاي ‪ RLS‬و ‪RIV‬‬

‫وﺑﺮاي ‪RPEM‬‬

‫اﺳﺖ‪ .‬ﻧﺘﺎﻳﺞ آزﻣﺎﻳﺶ از اﻳﻨﻘﺮار اﺳﺖ‬

‫‪20-8‬‬
‫‪ RLS ‬ﺑﺎ ﻧﻮﻳﺰ رﻧﮕﻲ ﺗﺨﻤﻴﻦ ﺑﺪون ﺑﺎﻳﺎس ﻧﻤﻴﺪﻫﺪ‬
‫‪ ‬ﺗﺨﻤﻴﻦ ‪ RIV‬ﺑﺎ ﻧﻮﻳﺰ رﻧﮕﻲ ﺑﺪون ﺑﺎﻳﺎس اﺳﺖ‬
‫‪ RPEM ‬ﺗﺨﻤﻴﻦ ﻣﻌﺘﺒﺮ‪ a,b,c‬را ﻣﻲ دﻫﺪ وﻟﻲ ﺳﺮﻋﺖ ﻫﻤﮕﺮاﻳﻲ ‪ c‬ﻛﻤﺘﺮاﺳﺖ‪.‬‬

‫‪ RECURSIVE PSEUDOLINEAR REGRESSIONS 5-4-8‬‬


‫ﺨﻤﻴﻦ ﻣﺪل ﺑﺎزﮔﺸﺘﻲ ﺑﺮاي ﻣﺪل ﻛﻠﻲ ﺳﻴﺴﺘﻢ ﺧﻄﻲ ‪ SISO‬ﻛﻪ ‪ ϕ‬ﺗﺎﺑﻊ ‪ θ‬اﺳﺖ از اﻳﻨﻘﺮار اﺳﺖ‪.‬‬

‫‪We then have the recursive pseudolinear regression (RPLR):‬‬

‫‪ ‬ﻣﺸﺎﺑﻪ ‪ RLS‬اﺳﺖ ﺑﺎ اﻳﻦ ﺗﻔﺎوت ﻛﻪ )‪ (t‬ﺣﺎوي اﻃﻼﻋﺎت ﺗﺨﻤﻴﻨﻬﺎي ﻗﺒﻠﻲ اﺳﺖ ﻛﻪ ﻫﻤﮕﺮاﻳﻲ اﻟﮕﻮرﻳﺘﻢ را ﻧﻴﺰ ﺗﺤﺖ‬
‫ﺗﺎﺛﻴﺮ ﻗﺮار ﻣﻲ دﻫﺪ‪.‬‬
‫‪ ‬ﻣﺸﺎﺑﻪ ‪ RPEM‬اﺳﺖ ﻛﻪ ‪ ‬ﺑﺠﺎي ‪ ‬ﻧﺸﺴﺘﻪ اﺳﺖ‬

‫‪21-8‬‬
‫‪ ‬ﺧﺎﻧﻮاده اي از اﻟﮕﻮرﻳﺘﻤﻬﺎ اﻳﺠﺎد ﻣﻲ ﺷﻮد ﻛﻪ ﻣﺸﻬﻮرﺗﺮﻳﻦ آﻧﻬﺎ ﺑﺮاي ﻣﺪل ‪ ARMAX‬ﺑﻪ ﻧﺎم ‪extended least‬‬
‫‪ squares (ELS).‬ﺧﻮاﻧﺪه ﻣﻲ ﺷﻮد‪ .‬دﻳﮕﺮ اﻧﻮاع در ﺟﺪول آﻣﺪه اﺳﺖ‬

‫‪Asymptotic Properties‬‬
‫‪ RPLR‬ﻫﻤﺎن ‪ RPEM‬اﺳﺖ ﻛﻪ در آن ﺑﻪ ﺟﺎي ‪ ‬از ‪ ‬اﺳﺘﻔﺎده ﺷﻮد‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ﻫﻤﮕﺮاﻳﻲ اﻟﮕﻮرﻳﺘﻢ ﺑﻪ اﻳﻦ واﺑﺴﺘﻪ اﺳﺖ‬
‫ﻛﻪ ‪ ‬ﭼﻘﺪر ﺧﻮب ‪ ‬را ﻧﻤﺎﻳﻨﺪﮔﻲ ﻛﻨﺪ‪.‬‬
‫در ﻣﺪل ‪ ARMAX‬ﺑﺮدار ‪ ψ‬ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‪:‬‬

‫ﺷﺮط اﻳﻨﻜﻪ ‪ ELS‬ﻫﻤﮕﺮا ﺷﻮد اﻳﻦ اﺳﺖ ﻛﻪ‬

‫ﺷﺮط ﻫﻤﮕﺮاﻳﻲ ‪ RPLR‬و ﻣﺪل ‪ OE‬از اﻳﻦ ﻗﺮار اﺳﺖ‬

‫اﻧﺘﺨﺎب ﮔﺎم ﺟﺴﺘﺠﻮ در اﻟﮕﻮرﻳﺘﻤﻬﺎي ‪ RPEM‬و ‪RPLR‬‬


‫در اﻳﻦ اﻟﮕﻮرﻳﺘﻤﻬﺎ ﻣﻘﺪار و ﺟﻬﺖ )‪ y(t)R-l(t‬ﺑﺎﻳﺪ ﺗﻌﻴﻴﻦ ﺷﻮد‪ .‬ﺟﻬﺖ ﺟﺴﺘﺠﻮ ﺑﻪ ﻳﻜﻲ از دو روش ‪ Gauss-Newton‬ﻛﻪ‬
‫‪ R‬ﺗﻘﺮﻳﺐ ﻣﺎﺗﺮﻳﺲ ‪ Hessian‬اﺳﺖ‬

‫ﺣﺠﻢ ﻣﺤﺎﺳﺒﺎﺗﻲ ﻣﺘﻨﺎﺳﺐ ﺑﺎ ‪ d2‬اﺳﺖ وﻟﻲ ﺳﺮﻋﺖ ﻫﻤﮕﺮاﻳﻲ ﻧﻴﺰ ﺑﺎﻻﺳﺖ‬


‫‪ "gradient" direction‬‬

‫ﺣﺠﻢ ﻣﺤﺎﺳﺒﺎت ﻛﻤﺘﺮ اﺳﺖ)ﻣﺘﻨﺎﺳﺐ ﺑﺎ ‪ (d‬و ﺑﻪ ﻫﻤﻴﻦ ﺗﺮﺗﻴﺐ ﻧﺮخ ﻫﻤﮕﺮاﻳﻲ ﻧﻴﺰ ﻛﺎﻫﺶ ﻣﻲ ﻳﺎﺑﺪ‬
‫ ‬ ‫ﺟﺎﻳﮕﺰﻳﻨﻲ ‪R‐1‬‬
‫در ﭘﻴﺎده ﺳﺎزي اﻟﮕﻮرﻳﺘﻢ ﻣﺎﺗﺮﻳﺲ ‪ R‬ﺑﺎ ﺳﺎﻳﺰ ‪ d) d*d‬ﺗﻌﺪاد ﭘﺎراﻣﺘﺮﻫﺎﺳﺖ( ﺑﺎﻳﺪ در ﻫﺮ ﮔﺎم ﻣﻌﻜﻮس ﺷﻮد ﻛﻪ ﻫﺰﻳﻨﻪ‬
‫ﻣﺤﺎﺳﺒﺎﺗﻲ را ﺑﺎﻻ ﻣﻲ ﺑﺮد‪ .‬ﺑﺎ اﺳﺘﻔﺎده از ‪ Matrix inversion‬راﺑﻄﻪ ﺑﻬﺒﻮد ﻳﺎﻓﺘﻪ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬

‫‪22-8‬‬
‫‪.‬‬

‫در اﻳﻨﺠﺎ ﻣﺎﺗﺮﻳﺲ ‪ p) p*p‬ﺗﻌﺪاد ﺧﺮوﺟﻴﻬﺎ( ﻣﻌﻜﻮس ﻣﻲ ﺷﻮد ﻛﻪ ﻣﻘﺪار ﻣﺤﺎﺳﺒﺎت را ﺑﺸﺪت ﻛﺎﻫﺶ ﻣﻲ دﻫﺪ‪ .‬در اﻳﻦ‬
‫راﺑﻄﻪ ‪ ‬ﻳﺎ ‪ ϕ‬ﻳﺎ ‪ ψ‬اﺳﺖ ﻛﻪ ﺑﻪ روش اﻧﺘﺨﺎﺑﻲ ﺑﺴﺘﮕﻲ دارد‬
‫‪ ‬ﻣﺘﺎﺳﻔﺎﻧﻪ ﻓﺮﻣﻮل ‪ P‬از ﻧﻈﺮ ﻣﺤﺎﺳﺒﺎﺗﻲ ‪ sound‬ﻧﻴﺴﺖ و ﺑﻪ ﺧﻄﺎي ‪ roundoff‬ﺣﺴﺎس اﺳﺖ ﻛﻪ ﻣﻲ ﺗﻮان ‪ P‬را ﺑﻴﻨﻬﺎﻳﺖ‬
‫ﻛﻨﺪ‪.‬‬
‫‪ ‬ﺑﺎ ﺗﻐﻴﻴﺮ ﻧﺤﻮه ﻣﺤﺎﺳﺒﻪ ﺑﺎ ‪ matrix factorization‬اﻳﻦ ﻣﺸﻜﻞ ﻣﺮﺗﻔﻊ ﻣﻲ ﮔﺮدد‪.‬‬
‫ﻣﺪل ﻏﻴﺮ ﺧﻄﻲ واﺑﺴﺘﻪ ﺑﻪ زﻣﺎن ‬
‫ﺑﺮاي ﺳﻴﺴﺘﻢ واﺑﺴﺘﻪ ﺑﻪ زﻣﺎن ﺗﻜﻨﻴﻜﻬﺎي ﺿﺮﻳﺐ ﻓﺮاﻣﻮﺷﻲ و ﺑﻬﺮه ﺑﻪ اﺿﺎﻓﻪ اﻋﻤﺎل ﻣﺪل ﺑﺮاي ﭘﺎراﻣﺘﺮ زﻳﺮ اﺳﺘﻔﺎده ﻣﻲ‬
‫ﺷﻮد ﻛﻪ در راﺑﻄﻪ ‪) 11,29‬ﻣﺪل ﺧﻄﻲ واﺑﺴﺘﻪ ﺑﻪ زﻣﺎن( ﺑﺮدار ‪ ϕ‬ﺟﺎي ﺧﻮد را ﺑﻪ ‪ ψ‬ﻣﻲ دﻫﺪ‪.‬‬

‫‪.‬‬

‫‪23-8‬‬
‫ﻣﺘﻐﻴﺮﻫﺎي اﻟﮕﻮرﻳﺘﻤﻬﺎي ﺷﻨﺎﺳﺎﻳﻲ و ﻣﻌﻴﺎرﻫﺎي ﻛﻴﻔﻴﺖ ‪OPTIONS AND OBJECTIVES‬‬ ‫‪9‬‬

‫ﻣﻘﺪﻣﻪ‬ ‫‪1-9‬‬
‫ﺑﻠﻮك دﻳﺎﮔﺮام ﺷﻨﺎﺳﺎﻳﻲ در ﺷﻜﻞ ﻧﺸﺎن داده ﺷﺪه اﺳﺖ‬

‫ﻫﺮﻳﻚ از اﺟﺰا داراي ﭘﺎراﻣﺘﺮﻫﺎي اﻧﺘﺨﺎﺑﻲ ﻫﺴﺘﻨﺪ ﻛﻪ در ﻛﻞ ﻣﺠﻤﻮﻋﻪ ﭘﺎراﻣﺘﺮﻫﺎي اﻟﮕﻮرﻳﺘﻢ ﺷﻨﺎﺳﺎﻳﻲ را ﺗﺸﻜﻴﻞ ﻣﻲ‬
‫دﻫﻨﺪ‪ .(OPTIONS) D .‬از اﻳﻦ ﻣﺘﻐﻴﺮﻫﺎ ﺗﻌﺪادي ﻣﺘﻐﻴﺮ ﺗﺌﻮرﻳﻚ و ﺗﻌﺪادي ﻋﻤﻠﻲ ﻫﺴﺘﻨﺪ‪ .‬اﻳﻦ ﻣﺘﻐﻴﺮﻫﺎ در ﻓﺼﻮل ﺑﻌﺪ‬
‫ﻣﻮرد ﺑﺤﺚ ﻗﺮار ﻣﻲ ﮔﻴﺮﻧﺪ‬
‫‪Design experiment‬‬
‫آﻣﺎده ﺳﺎزي ﺳﺨﺖ اﻓﺰار ﻣﻮرد ﻧﻴﺎز اﻧﺠﺎم ﺷﻨﺎﺳﺎﻳﻲ‬
‫‪Data collection‬‬
‫‪ .1‬ورودي ‪informative‬‬
‫ﻓﺮﻛﺎﻧﺲ ﻧﻤﻮﻧﻪ ﺑﺮداري‬ ‫‪.2‬‬
‫ﻓﻴﻠﺘﺮ ﻛﺮدن اﺧﺘﻼل از دﻳﺘﺎي اﻧﺪازه ﮔﻴﺮي ﺷﺪه ‪ preprocessing‬و ﭘﻴﺶ ﻓﻴﻠﺘﺮ‪L‬‬ ‫‪.3‬‬
‫اﻧﺘﺨﺎب ﻣﺪل ﭘﻴﺶ ﺑﻴﻨﻲ ﺑﺮاي ‪ŷ‬‬
‫‪ (1‬ﻧﻮع ﻣﺪل ﭘﻴﺶ ﺑﻴﻨﻲ ‪،ŷ‬‬
‫‪(2‬ﺳﺎﻳﺰ ﻣﺪل‪،‬‬
‫‪(3‬ﻧﺤﻮه ﭘﺎراﻣﺘﺮ ﺑﻨﺪي ﻣﺪل )ﺗﺠﺰﻳﻪ ﺑﻪ ﻣﺠﻤﻮﻋﻪ ﺳﺮي ﻣﻮازي(‪،‬‬
‫‪( 4‬ﻣﻌﻴﺎر ﻛﻴﻔﻴﺖ ﻣﺪل‪،‬‬
‫‪(5‬ﻫﺰﻳﻨﻪ ﻣﺤﺎﺳﺒﺎﺗﻲ‬
‫اﻧﺘﺨﺎب روش ﻣﺤﺎﺳﺒﺎﺗﻲ‬

‫‪1-9‬‬
‫ﻣﺘﻐﻴﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ ﭘﺎراﻣﺘﺮﻳﻚ‬
‫‪ .1‬اﻧﺘﺨﺎب ‪ IV ،PEM‬و ﻳﺎ ‪subspace‬‬
‫‪ .2‬ﻧﻮرم ‪ℓ‬‬
‫اﻋﺘﺒﺎر ﺳﻨﺠﻲ ‪Validation‬‬
‫ﻣﻌﻴﺎري ﺑﺮاي درﺳﺘﻲ آزﻣﺎﻳﻲ ﺳﻴﺴﺘﻢ اﺳﺘﻔﺎده ﺷﺪه ﺷﻨﺎﺳﺎﻳﻲ ﻣﻮرد ﻧﻴﺎز اﺳﺖ‪.‬‬

‫‪ 1-1-9‬ﻣﻌﻴﺎر ﻛﻴﻔﻴﺖ ﻣﺪل‪Objectives :‬‬


‫‪Ljung chapter 12‬‬
‫ﻣﻌﻴﺎر ﻛﻴﻔﻴﺖ ﻫﻤﺎن وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﻃﻴﻒ اﺳﺖ ﺑﺮاي ﺳﻴﺴﺘﻢ‪True‬‬
‫)‪e∈N(0,λ‬‬
‫‪ .‬ﺑﻪ ﻫﻤﻴﻦ ﺗﺮﺗﻴـﺐ ﻣﻘـﺪار‬ ‫و ]‪ u=[u,e0‬ﻣﻲ ﺗﻮان ﻧﻮﺷﺖ ‪y(t)=T0u‬‬ ‫ﺑﺎ ﻟﺤﺎظ ﻛﺮدن‬
‫ﺗﺨﻤﻴﻨﻲ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ ‪ ŷ=T̂ u‬ﻛﻪ در ان‬
‫ﺑﺎ در ﻧﻈﺮ ﮔﺮﻓﺘﻦ ﻣﺪل ﺗﺨﻤﻴﻦ‬

‫ﺧﻄﺎي ‪ y-ŷ‬ﺗﺨﻤﻴﻦ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫ﻛﻪ*‪ u‬و *‪ y‬ورودي و ﺧﺮوﺟﻴﻬﺎ ﻫﺴﺘﻨﺪ ﻛﻪ از راﺑﻄﻪ زﻳﺮ ﺑﺪﺳﺖ آﻣﺪه اﻧﺪ‪.‬‬

‫در ﻧﺘﻴﺠﻪ دارﻳﻢ‬

‫ﺣﺎل ﻃﻴﻒ اﻳﻦ ﺧﻄﺎي ﺗﺨﻤﻴﻦ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫ﻛﻪ ﻣﺤﺎﺳﺒﻪ آن ﻧﻴﺎزﻣﻨﺪ ‪ T0‬اﺳﺖ‪ .‬اﻧﺘﮕﺮال اﻳﻦ ﻣﻌﻴﺎر ﻛﻴﻔﻴﺖ ﺗﺨﻤﻴﻦ اﺳﺖ‬

‫ﺑﺮاﺑﺮ‬ ‫ﻣﻘﺪار ‪ C‬ﺑﺮاي ﻣﺪل‬

‫اﺳﺖ‪.‬‬
‫‪2-9‬‬
‫ﻣﺘﻐﻴﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ ﭘﺎراﻣﺘﺮﻳﻚ‬

‫‪ 2-1-9‬آﻣﺎده ﺳﺎزي ﺳﺨﺖ اﻓﺰاري و ﺟﻤﻊ آوري دﻳﺘﺎ‬


‫‪Ljung chapter 13‬‬

‫اﻟﻒ(ﺧﺮوﺟﻲ‬
‫‪ o‬ﭼﻪ ﺳﻴﮕﻨﺎﻟﻬﺎﻳﻲ اﻧﺪازه ﮔﻴﺮي ﺷﻮد‪ :‬ﺗﻌﻴﻴﻦ ﺧﺮوﺟﻲ ﺑﺮاي ﻧﺼﺐ ﺳﻨﺴﻮر‬
‫‪ o‬ﺳﻴﮕﻨﺎل اﻧﺪازه ﮔﻴﺮي ﺷﺪه )ﭘﻴﻮﺳﺘﻪ( ﭼﮕﻮﻧﻪ ﻓﻴﻠﺘﺮ ﺷﻮد‬
‫ب( ورودي‬
‫‪ o‬ورودي ﺑﻪ ﻛﺠﺎ و ﻧﻮع ﺳﻴﮕﻨﺎل اﻋﻤﺎﻟﻲ ﭼﮕﻮﻧﻪ ﺑﺎﺷﺪ‪.‬‬
‫‪ o‬اﮔﺮ اﻋﻤﺎل ﺳﻴﮕﻨﺎل ﺑﻪ ﻳﻚ ورودي ﻣﻮﺛﺮ ﻣﻤﻜﻦ ﻳﺎ ﻣﺠﺎزﻧﺒﺎﺷﺪ‪ ،‬ورودي ﺑﻌﻨﻮان اﺧﺘﻼل ﺑﺎﻳﺪ اﻧﺪازه ﮔﻴﺮي ﺷﻮد‪.‬‬
‫‪ o‬در ﻓﺮاﻳﻨﺪﻫﺎي ﺻﻨﻌﺘﻲ اﺟﺎزه اﻋﻤﺎل ورودي در ﺣﻴﻦ ﻛﺎر ﻋﺎدي ﺳﻴﺴﺘﻢ داده ﻧﻤﻲ ﺷﻮد‬
‫‪ o‬در ﺳﻴﺴﺘﻤﻬﺎي اﻗﺘﺼﺎدي و اﻛﻮﻟﻮژﻳﻚ اﺻﻮﻻ اﻣﻜﺎن اﻋﻤﺎل ﺳﻴﮕﻨﺎل ﺑﻪ ﻫﺪف ﺷﻨﺎﺳﺎﻳﻲ ﻣﻤﻜﻦ ﻧﻴﺴﺖ‬
‫‪ o‬در ﻃﺮاﺣﻲ و ﺳﺎﺧﺖ آزﻣﺎﻳﺸﮕﺎﻫﻲ اﻟﺒﺘﻪ ﻣﺤﺪودﻳﺖ اﻋﻤﺎل ﺳﻴﮕﻨﺎل ورودي ﻣﻲ ﺗﻮاﻧﺪ وﺟﻮد ﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ‬
‫در ﺳﻴﺴﺘﻤﻬﺎي ﺧﻴﻠﻲ ﻛﻨﺪ ﺿﺮورﺗﺎ ﻫﺮ ﻃﻮل دﻳﺘـﺎﻳﻲ‬ ‫‪o‬‬
‫ﻛﻮﭼﻚ اﺳﺖ‬
‫‪ .‬ﺑﺎ اﻓﺰاﻳﺶ ﻃﻮل رﻛﻮرد ﻣﻲ ﺗﻮان اﺛﺮ ﺳﻴﮕﻨﺎل ﺑﻪ ﻧﻮﻳﺰ‬ ‫‪o‬‬
‫را ﺟﺒﺮان ﻛﺮد وﻟﻲ ﻣﻌﻤﻮﻻ اﻳﻦ اﻣﻜﺎن ﺑﻪ دﻟﻴﻞ ﻋﻤﻠﻲ ﻣﺠﺎز ﻧﻴﺴﺖ‪.‬‬
‫‪ o‬ﻋﻼوه ﺑﺮ اﻳﻨﻬﺎ وﺟﻮد اﺧﺘﻼل ﻏﻴﺮ ﻗﺎﺑﻞ اﻧـﺪازه ﮔﻴـﺮي ﻛـﻪ از ‪ "stationary stochastic processes".‬ﺗﺒﻌﻴـﺖ ﻧﻜﻨـﺪ‬
‫ﻣﺸﻜﻞ اﻳﺠﺎد ﻣﻲ ﻛﻨﺪ‪ .‬اﺧﺘﻼﻻﺗﻲ ﻣﺎﻧﻨﺪ ‪ burst‬و ‪missed data‬‬
‫ج( ﻣﻘﺪار ﻓﺮﻛﺎﻧﺲ ﻧﻤﻮﻧﻪ ﺑﺮداري‬

‫ﻣﺸﺨﺼﻪ ﺳﻴﮕﻨﺎل ورودي ‪INFORMATIVE EXPERIMENTS‬‬ ‫‪2-9‬‬


‫‪Ljung chapter 13‬‬
‫‪ o‬ﺳﻴﮕﻨﺎل ورودي ﻧﻘﻄﻪ ﻛﺎرﺳﻴﺴﺘﻢ را ﻣﺸﺨﺺ ﻣﻲ ﻛﻨﺪ‪.‬‬
‫‪ o‬از ﻣﺸﺨﺼﺎت ﻣﻬﻢ ورودي ﺧﻮاص درﺟﻪ ‪ 2‬آﻧﻬﺎ )ﻃﻴﻒ( و ﻓﺮم ﺳﻴﮕﻨﺎل آﻧﻬﺎﺳﺖ‪.‬‬
‫‪ o‬ورودي ﺑﺎﻳﺪ ﺳﻴﮕﻨﺎﻟﻲ ‪ rich‬ﻳﺎﺷﺪ ﺗﺎ ﺑﺘﻮاﻧﺪ ﺣﺘﻲ ﻣﺪﻫﺎي ﻧﺎﺷﻨﺎﺧﺘﻪ ﺳﻴﺴﺘﻢ را ﻧﻴﺰ آﺷﻜﺎر ﻛﻨﺪ‪ .‬اﻟﺒﺘﻪ اﮔـﺮ ﻣـﺪل ﻛﺎﻣـﻞ‬
‫ﻧﺒﺎﺷﺪ اﻳﻦ ﺑﺎ ﺑﻬﻴﻨﻪ ﺳﺎزي ﺑﺎﻳﺎس و وارﻳﺎﻧﺲ در ﺗﻀﺎد ﻗﺮار ﻣﻲ ﮔﻴﺮد‪.‬‬

‫‪3-9‬‬
‫ﻣﺘﻐﻴﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ ﭘﺎراﻣﺘﺮﻳﻚ‬
‫‪ o‬وﻗﺘﻲ ﺑﺎﻳﺎس ﻧﺎﺷﻲ از ﻣﺪل ﻣﻬﻢ اﺳﺖ ﻣﻨﺎﺳﺐ اﺳﺖ ﺷﺮاﻳﻂ آزﻣﺎﻳﺶ ﺑﻪ ﻧﺤﻮي ﺑﺎﺷﺪ ﻛﻪ ﺑﺎ ﻛﺎرﻛﺮد ﻣﺪل ﻣﻨﻄﺒـﻖ ﺑﺎﺷـﺪ‬
‫ﺑﻪ اﻳﻦ ﻣﻌﻨﻲ ﻛﻪ اﮔﺮ ﻣﺪل ﺧﻄﻲ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﺪه ﺳﻴﮕﻨﺎل ورودي ﻛﻮﭼﻚ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷـﻮد ﺗـﺎ ﺳﻴﺴـﺘﻢ ﺣـﻮل‬
‫ﺣﻮش ﻧﻘﻄﻪ ﺗﻌﺎدل ﺧﻮد ﺑﺎﻗﻲ ﺑﻤﺎﻧﺪ‬

‫‪ 1-2-9‬ﻣﻌﻴﺎرﻫﺎي ‪ informative‬ﺑﻮدن‬
‫در ﺑﺨﺸﻬﺎي ﻗﺒﻞ ﻣﻄﺮح ﺷﺪد ﻛﻪ ∞‪ Z‬ورودي ‪ informative‬ﻧﺴﺒﺖ ﺑﻪ ﻳﻚ ﻣﺪل اﺳـﺖ ﻛـﻪ ﺑﺘﻮاﻧـﺪ ﺑـﻴﻦ ﺗﻤـﺎم ﺟﻔـﺖ‬
‫ﻣﺪﻟﻬﺎي ﻣﻮﺟﻮد در ﻣﺠﻤﻮﻋﻪ ﻣﺪﻟﻬﺎ ﺗﻔﻜﻴﻚ ﻗﺎﺋﻞ ﺷﻮد‪.‬‬
‫‪ Informative‬ﺑﻮدن ورودي ﺑﺎ ﺗﻌﺎرﻳﻒ زﻳﺮ اﻧﺠﺎم ﻣﻲ ﺷﻮد‪.‬‬
‫‪ .1‬اﻳﻦ ﺷﺮط وﻗﺘﻲ ﻣﺤﻘﻖ ﻣﻲ ﺷﻮد ﻛﻪ اﮔﺮ ‪ n‬ﭘﺎراﻣﺘﺮ ﻣﺠﻬﻮل وﺟﻮد دارد ﺑﺘﻮان ﺣﺪاﻗﻞ ‪ n‬ﻣﻌﺎدﻟﻪ ﻣﺴﺘﻘﻞ داﺷﺖ‪.‬‬
‫‪ Persistence of Excitation .2‬ﻣﺮﺗﺒﻪ ‪n‬‬
‫ﺳﻴﮕﻨﺎل ‪ u‬ﺳﻴﮕﻨﺎل ‪ PE‬ﻣﺮﺗﺒﻪ ‪ n‬اﺳﺖ اﮔﺮ ﻃﻴﻒ ‪ ϕu(ω)>0‬ﺣﺪاﻗﻞ در ‪ n‬ﻧﻘﻄﻪ ﺑﻴﻦ ‪ -π‬ﺗﺎ ‪ +π‬ﻏﻴﺮ ﺻﻔﺮ ﺑﺎﺷﺪ‪ .‬ﻧﻜﺘﻪ اﻳـﻦ‬
‫اﺳﺖ ﻛﻪ اﮔﺮ ورودي در ﻓﺮﻛﺎﻧﺴﻲ ﻣﻮﻟﻔﻪ ﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ داﻣﻨﻪ آن ﻣﻮﻟﻔﻪ در ﺗﺨﻤﻴﻦ ﻫﺎي ﻣﺨﺘﻠﻒ ﻫﺮ ﻣﻘﺪاري را ﻣـﻲ ﺗﻮاﻧـﺪ‬
‫ﺑﺨﻮد ﺑﮕﻴﺮد و ﺗﺨﻤﻴﻦ ‪ consistent‬ﺣﺎﺻﻞ ﻧﻤﻲ ﺷﻮد‪ .‬ﻟﺬا ورودي ﺑﺎﻳﺪ ‪ informative‬ﺑﺎﺷﺪ‬
‫‪ .3‬ﺑﻪ اﻳﻦ ﺗﺮﺗﻴﺐ ﻣﺠﻤﻮع ‪ n‬ﺳﻴﻨﻮس‪ PE ،‬ﻣﺮﺗﺒﻪ ‪ 2n‬اﺳﺖ‪).‬ﻣﺸﺮوط ﺑﺮ اﻧﻜﻪ ﻓﺮﻛﺎﻧﺴﻬﺎ ﺻﻔﺮ و ‪ π‬ﻧﺒﺎﺷﻨﺪ ﻛﻪ اﻳﻦ دو‪،‬‬
‫ﺿﺮﻳﺐ ‪ 2‬را ﻧﺪارﻧﺪ(‬
‫‪ .4‬ﻓﺮﻣﻮل دﻳﮕﺮ ‪ :‬ﻣﺎﺗﺮﻳﺲ ‪ R‬ﻏﻴﺮ ﻣﻨﻔﺮد ﺑﺎﺷﺪ‪.‬‬

‫‪ .5‬ﻓﺮﻣﻮل دﻳﮕﺮ‪ :‬ﺳﻴﮕﻨﺎل ﺑﺮاي ﺳﻴﺴﺘﻢ زﻳﺮ ‪ informative‬اﺳﺖ اﮔﺮ ‪ PE‬از ﻣﺮﺗﺒﻪ ‪ nb+nf‬ﺑﺎﺷﺪ‬

‫‪ 1-2-9‬ﺗﻮﻟﻴﺪ ﺳﻴﮕﻨﺎل ورودي ‪PE‬‬


‫ﺑﺎﻳﺎس و وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﻣﺘﺎﺛﺮ از ﻃﻴﻒ ﻣﻮج ورودي ﻫﺴﺘﻨﺪ ﻧﻪ ﺷﻜﻞ ﻣﻮج آن‪ .‬ورودي ﺧﻮب ﺑﺎﻳﺪ‬
‫‪ .1‬داﻣﻨﻪ ﻣﺤﺪود‬
‫‪ .2‬ﺗﺮﺟﻴﺤﺎ ﭘﺮﻳﻮدﻳﻚ‬
‫‪ Crest Factor .3‬ﻛﻮﭼﻚ ﺑﻪ اﻳﻦ ﻣﻌﻨﻲ ﻛﻪ در ﺗﻤﺎم ﻓﺮﻛﺎﻧﺴﻬﺎي ﻣﻮرد ﻋﻼﻗﻪ ورودي داراي ﺗﻮان ﻛﺎﻓﻲ اﺳﺖ‬

‫‪4-9‬‬
‫ﻣﺘﻐﻴﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ ﭘﺎراﻣﺘﺮﻳﻚ‬
‫ﺳﻴﮕﻨﺎل ﺑﺎﻳﻨﺮي از اﻳﻦ ﻧﻈﺮ ﺷﺮاﻳﻂ ﺧﻮب دارﻧﺪ وﻟﻲ در ﺳﻴﺴﺘﻢ ﻏﻴﺮ ﺧﻄﻲ ﻧﻤﻴﺘﻮاﻧﻨﺪ اﻃﻼﻋﺎت اﻟﻤﺎن را آﺷﻜﺎرﻛﻨﻨﺪ‪.‬‬

‫‪ 2-2-9‬اﻧﻮاع ﺳﻴﮕﻨﺎﻟﻬﺎي ورودي‬


‫‪-1‬ﻧﻮﻳﺰ ﺳﻔﻴﺪ ﻓﻴﻠﺘﺮ ﺷﺪه‬
‫ﻧﻮﻳﺰ ﺳﻔﻴﺪ ورودي ‪ PE‬اﺳﺖ ﻛﻪ ﻣﻮﻟﻔﻪ ﻫﺎي ﻓﺮﻛﺎﻧﺲ ﺑﺎﻻي آن ﻣﻤﻜﻦ اﺳﺖ ﻓﻴﻠﺘﺮ ﺷﻮﻧﺪ‪ .‬ﺑﺼﻮرت ﺗﺌﻮرﻳﻚ ﺳﻴﮕﻨﺎل ﮔﻮﺳﻲ‬
‫ﻛﺮاﻧﺪار ﻧﻴﺴﺖ ﺑﻨﺎﺑﺮاﻳﻦ ﺳﻴﮕﻨﺎل در‪ 3σ‬ﺑﺮﻳﺪه ﻣﻲ ﺷﻮد‪.‬‬
‫‪-2‬ﺳﻴﮕﻨﺎل ﺑﺎﻳﻨﺮي ﺗﺼﺎدﻓﻲ‬
‫اﻳﻦ ﺳﻴﮕﻨﺎل را ﺑﺎ )‪ sgn(e‬ﻛﻪ ‪ e‬ﻧﻮﻳﺰ ﺳﻔﻴﺪ اﺳﺖ ﻣﻲ ﺗﻮان ﺗﻮﻟﻴﺪ ﻛﺮد‪ .‬وﻟﻲ ﻋﻤﻠﮕﺮ ‪ sign‬ﻃﻴﻒ ﻣﻮج را ﺗﻐﻴﻴﺮ ﻣﻲ دﻫﺪ‬
‫‪Pseudo-Random Binary Signal(PRBS) -3‬‬
‫ﺳﻴﮕﻨﺎل ‪ PRBS‬ﺳﻴﮕﻨﺎﻟﻲ ﭘﺮﻳﻮدﻳﻚ‪ ,‬ﻣﻌﻴﻦ )ﻏﻴﺮ ﺗﺼﺎدﻓﻲ( ﺷﺒﻪ ﻧﻮﻳﺰ اﺳﺖ ﻛﻪ ﺑﺎ ﺳﻴﺴﺘﻢ زﻳﺮ ﺗﻮﻟﻴﺪ ﻣﻲ ﺷﻮد‬

‫‪Here rem (x ,2) is the remainder as x is divided by 2‬‬


‫‪ u‬ﺗﻮﻟﻴﺪي ﺑﺎﻳﻨﺮي )ﺻﻔﺮ وﻳﻚ( ﺿﻤﻨﺎ ﭘﺮﻳﻮدﻳﻚ اﺳﺖ‪ .‬اﻳﻦ ﺳﻴﺴﺘﻢ ﻣﻲ ﺗﻮاﻧﺪ ‪ 2n‬ﺳﺎﺧﺘﺎر داﺷـﺘﻪ ﺑﺎﺷـﺪ ﻛـﻪ از ﺑـﻴﻦ آﻧﻬـﺎ‪،‬‬
‫ﻓﻴﻠﺘﺮﻫﺎﻳﻲ ﻛﻪ ﺑﻪ ازاي ‪ n‬ﺧﺎص ﺑﻠﻨﺪﺗﺮﻳﻦ ﭘﺮﻳﻮد را دارد ﻣﻮرد ﻋﻼﻗﻪ اﺳﺖ‪ .‬اﻳﻦ ﻣﻘﺎدﻳﺮ در ﺟﺪول زﻳﺮ داده ﺷﺪه اﻧﺪ‬

‫ﺳﻴﮕﻨﺎل ﺑﺎ ﭘﺮﻳﻮد ‪ M‬داراي ﺣﺪاﻗﻞ ‪ M-1‬ﻗﻠﻪ اﺳﺖ ﻛﻪ ﺑﻪ ﻣﻌﻨﻲ ‪ PE‬ﻣﺮﺗﺒﻪ ﺣﺪاﻗﻞ ‪ M-1‬اﺳﺖ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ‪ M‬ﺑﺰرﮔﺘـﺮ ﺑـﻪ‬
‫ﻣﻌﻨﻲ ﻣﺮﺗﺒﻪ ‪ PE‬ﺑﺎﻻﺗﺮ اﺳﺖ‪ .‬ورودي اوﻟﻴﻪ ‪ u(0)#0‬ﺑﺎﻳﺪ اﻧﺘﺨﺎب ﺷﻮد و ﮔﺮ ﻧﻪ ﺧﺮوﺟﻲ ﺻﻔﺮ اﺳﺖ‪.‬‬
‫• ﺳﻴﮕﻨﺎل ﺑﺎﻳﺪ ﺣﺪاﻗﻞ ﺑﺮاي ﻳﻚ ﭘﺮﻳﻮد ‪ M‬ﺗﻮﻟﻴﺪ و ﺳﭙﺲ ﺗﻜﺮار ﺷﻮد‬
‫ﺷﻜﻞ ﻃﻴﻒ ‪ PBRS‬ﺑﺮاي ﺳﻴﮕﻨﺎل ﺑﺎﻳﻨﺮي ﺑﺎ داﻣﻨﻪ ̅‪ ±u‬ﻛﻪ داراي ‪ M-1‬ﻗﻠﻪ اﺳﺖ را ﻧﺸﺎن ﻣﻲ دﻫﺪ‪.‬‬

‫‪5-9‬‬
‫ﻣﺘﻐﻴﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ ﭘﺎراﻣﺘﺮﻳﻚ‬

‫‪PRBS (a‬ﺑﺎ ‪ n=7‬و درﻧﺘﻴﺠﻪ ‪ (b M=127‬ﻃﻴﻒ ﺳﻴﮕﻨﺎل ‪ PRBS‬ﻛﻪ داراي ‪ 63‬ﭘﻴﻚ در ﻓﺮﻛﺎﻧﺴﻬﺎي ﻣﺜﺒﺖ ﻫﺴﺘﻨﺪ‬
‫ﻣﺸﺨﺼﺎت ‪PRBS‬‬
‫‪ PBRS o‬ﭘﺎراﻣﺘﺮ ‪ crest factor‬ﺑﻬﻴﻨﻪ دارد‬
‫‪ o‬ﻣﺎﺗﺮﻳﺲ ﻛﻮارﻳﺎﻧﺲ آن ﻣﻌﻜﻮس ﭘﺬﻳﺮ اﺳﺖ‬
‫‪ o‬ﺑﻌﻨﻮان ﻳﻚ ﺳﻴﮕﻨﺎل ﻣﻌﻴﻦ‪ ,‬ﺧﻮاص ﻃﻴﻒ آن ﺗﻀﻤﻴﻨﻲ ﻣﻮرد ﻧﻈﺮ اﺳﺖ و از اﻳﻦ ﻟﺤﺎظ ﺑﺎ ﺳﻴﮕﻨﺎل ﺗﺼـﺎدﻓﻲ ﻛـﻪ ﻃﻴـﻒ‬
‫ﻣﻮرد ﻧﻈﺮ ﺑﺎ ∞→‪ N‬ﻣﺤﻘﻖ ﻣﻲ ﺷﻮد ﻣﺘﻔﺎوت اﺳﺖ‬
‫‪ o‬ﺑﺮاي ﻫﺮ )‪ A(q‬ﻓﻘﻂ ﻳﻚ ‪ PRBS‬وﺟﻮد دارد ﻣﻘﺪار اوﻟﻴﻪ ﻓﻘﻂ ﺑﻪ ﺳﻴﮕﻨﺎل ﺷﻴﻔﺖ ﻣﻲ دﻫﺪ‪.‬‬
‫‪ o‬ﻣﻨﺎﺳﺐ اﺳﺖ ﭘﺮﻳﻮد ﻋﺪد ﺻﺤﻴﺢ اﻧﺘﺨﺎب ﮔﺮدد‪.‬‬
‫‪ PRBS‬ﭘﺎﻳﻴﻦ ﮔﺬر‬
‫‪ PBRS‬و ﻧﻮﻳﺰ ﺳﻔﻴﺪ ﻃﻴﻒ ﮔﺴﺘﺮده دارﻧﺪ‪ .‬اﮔﺮ ﻃﻴﻒ ﭘﺎﻳﻴﻦ ﮔﺬر ﺧﻮاﺳﺘﻪ ﺑﺎﺷﻴﻢ‬
‫روش ‪ :1‬ﻣﻲ ﺗﻮاﻧﻴﻢ ‪ PBRS‬را ﻓﻴﻠﺘﺮ ﻛﻨﻴﻢ ﻛﻪ اﻟﺒﺘﻪ دﻳﮕﺮ ﺳﻴﮕﻨﺎل ﺑﺎﻳﻨﺮي ﻧﻴﺴﺖ‬
‫روش ‪ :2‬روش دﻳﮕﺮ اﻓﺰاﻳﺶ ﻓﺮﻛﺎﻧﺲ ﻧﻤﻮﻧﻪ ﺑﺮداري اﺳﺖ ﻛﻪ ﺑﻪ ﻣﻮﺟﺐ آن ﻫﺮ ﻧﻤﻮﻧﻪ ﺳﻴﮕﻨﺎل ‪ p‬ﺑـﺎر ﺗﻜـﺮار ﺷـﻮد‪ p .‬ﺑـﻪ‬
‫ﻧﺤﻮي اﻧﺘﺨﺎب ﻣﻲ ﺷﻮد ﻛﻪ ﻃﻴﻒ ﻣﻮرد ﻧﻈﺮ ﺑﺮاي ‪ PRBS‬ﺣﺎﺻﻞ ﺷﻮد‪ .‬ﺷﻜﻞ ﻃﻴﻒ ﺑﺎ ‪ p=4‬را ﻧﺸﺎن ﻣﻲ دﻫﺪ‪.‬‬

‫‪Multi-Sines. -4‬‬
‫‪6-9‬‬
‫ﻣﺘﻐﻴﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ ﭘﺎراﻣﺘﺮﻳﻚ‬
‫ﻧﻮع دﻳﮕﺮ ورودي ﺟﻤﻊ ﭼﻨﺪ ﺳﻴﻨﻮس اﺳﺖ‬

‫‪ o‬ﺑﺮاي ﺗﻮﻟﻴﺪ ﺳﻴﮕﻨﺎل ﺑﺎ ﭘﺮﻳﻮد ‪ M‬ﻓﺮﻛﺎﻧﺲ از ‪ 2πℓ/M ℓ=0,1,…M-1‬ﮔﺮﻓﺘﻪ ﺷﻮد‪.‬‬


‫اﻳﺮاد ﻫﻢ ﻓﺎز ﺑﻮدن ﺳﻴﻨﻮﺳﻬﺎ‬
‫‪ o‬اﮔﺮ ﺳﻴﻨﻮﺳﻬﺎ ﻫﻢ ﻓﺎز ﺑﺎﺷﻨﺪ ‪ Crest factor‬ﺧﻮب ﻧﻴﺴﺖ )ﺷﻜﻞ ﺳﻤﺖ ﭼﭗ ﺑﺎ ﻃﻴﻒ ﻏﻴﺮ ﻳﻜﻨﻮاﺧـﺖ(‪ .‬ﺷـﺮودر ﻓـﺎزي‬
‫ﺑﺮاي ﺳﻴﻨﻮﺳﻬﺎ ﭘﻴﺸﻨﻬﺎد ﻣﻲ ﻛﻨﺪ ﺗﺎ ‪ C.F‬ﺑﻬﺘﺮ ﺷﻮد )ﺷﻜﻞ وﺳﻂ(‪ .‬اﺳﺘﻔﺎده از ﻓﺎز ﺗﺼﺎدﻓﻲ ﻃﻴﻒ ﺳﻤﺖ راﺳﺖ را ﺗﻮﻟﻴﺪ‬
‫ﻣﻲ ﻛﻨﺪ‪.‬‬

‫‪Chirp Signals or Swept Sinusoids. -5‬‬

‫‪ o‬ﺑﺮاي ﺗﻮﻟﻴﺪ ﺳﻴﮕﻨﺎل ﺑﺎ ﭘﺮﻳﻮد ‪ , M‬ﻓﺮﻛﺎﻧﺴﻬﺎ ﺑﺎﻳﺪ از ‪ 2π ki/M‬ﻛﻪ ‪ k‬ﻋﺪد ﺻﺤﻴﺢ اﺳﺖ اﻧﺘﺨﺎب ﮔﺮدد‪.‬‬
‫‪ o‬ﺑﺮاي ﻧﺸﺎن ﻧﺪادن ﻟﻮﺑﻬﺎ در ﻧﻤﺎﻳﺶ ﻃﻴﻒ‪ N-DFT ,‬ﻣﺤﺎﺳﺒﻪ ﻛﻨﻴﺪ‬

‫‪7-9‬‬
‫ﻣﺘﻐﻴﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ ﭘﺎراﻣﺘﺮﻳﻚ‬
‫ﻣﺰاﻳﺎو ﻣﻌﺎﻳﺐ ﭘﺮﻳﻮدﻳﻚ ﺑﻮدن ﺳﻴﮕﻨﺎل ورودي‬
‫‪ o‬ﺳﻴﮕﻨﺎل ﺑﺎ ﭘﺮﻳﻮد ‪ ,M‬ﻓﻘﻂ ‪ M‬ﻓﺮﻛﺎﻧﺲ ﻣﺠﺰا را ﺗﺤﺮﻳﻚ ﻣﻲ ﻛﻨﺪ وﻟﻲ ﺳﻴﮕﻨﺎل ﻏﻴﺮ ﭘﺮﻳﻮدﻳﻚ ﻣﻲ ﺗﻮاﻧـﺪ ﻣﻮﻟﻔـﻪ ﻫـﺎي‬
‫ﺑﻴﺸﺘﺮي را ﺗﺤﺮﻳﻚ ﻛﻨﺪ‬
‫‪ o‬وﻗﺘﻲ ‪ k‬ﭘﺮﻳﻮد‪ M‬ﺗﺎﻳﻲ دارﻳﻢ ﻣﻨﺎﺳﺐ اﺳﺖ ﻛﻪ دﻳﺘﺎﻫﺎ روي ﻳﻚ ﭘﺮﻳﻮد ﻣﺘﻮﺳﻂ ﮔﻴﺮي ﺷﻮﻧﺪ‪ .‬اﻳﻨﮕﻮﻧﻪ ﺳﻴﮕﻨﺎل ﺑـﻪ ﻧـﻮﻳﺰ‬
‫اﻓﺰاﻳﺶ ﻳﺎﻓﺘﻪ و ﻣﻘﺪار دﻳﺘﺎ ﺑﺮاي ﺷﻨﺎﺳﺎﻳﻲ ﻧﻴﺰ ﻛﺎﻫﺶ ﻣﻲ ﻳﺎﺑﺪ و ﺑﻪ ﺗﺒﻊ آن ﻣﺤﺎﺳﺒﺎت ﺑـﺪون آﻧﻜـﻪ ﻛـﺎراﻳﻲ ﻣﺨـﺪوش‬
‫ﺷﻮد‪.‬‬
‫‪ o‬ﺗﻔﺎوت در ﺧﺮوﺟﻲ در ﭘﺮﻳﻮدﻫﺎي ﻣﺘﻔﺎوت )در ﺣﺎﻟﺖ ﻣﺎﻧﺪﮔﺎر( ﻣﺮﺑﻮط ﺑﻪ ﻧﻮﻳﺰ اﺳﺖ ﻓﺮض ﻛﻨﻴﺪ‬

‫‪ o‬ﺑﻪ دﻟﻴﻞ ﭘﺮﻳﻮدﻳﻚ ﺑﻮدن ﺗﺨﻤﻴﻦ ﻃﺒﻴﻌﻲ ‪ y‬ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫ﻛﻪ از آن ﺗﺨﻤﻴﻦ ﻧﻮﻳﺰ‪ ,‬ﺳﻔﻴﺪ ﻳﺎ رﻧﮕﻲ ﺑﻮدن آن ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬


‫)‪v̂ (t)=y(t)-ŷ(t‬‬
‫ﻛﻪ ﻧﻮﻳﺰ وارﻳﺎﻧﺲ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫‪ 3-2-9‬ﺳﻴﮕﻨﺎل ورودي ‪ Informative‬ﺑﺮاي ﺷﻨﺎﺳﺎﻳﻲ ‪ G‬در ﺣﻠﻘﻪ ﺑﺴﺘﻪ‬


‫‪Ljung chapter 13‬‬
‫ﺑﻪ دﻻﻳﻠﻲ ﻣﻤﻜﻦ اﺳﺖ ﺳﻴﺴﺘﻤﻲ ﻛﻪ در ﺣﻠﻘﻪ ﺑﺴﺘﻪ اﺳﺖ ﺷﻨﺎﺳﺎﻳﻲ ﺷﻮد‪.‬‬
‫‪ o‬ﺳﻴﺴﺘﻢ ﻧﺎﭘﺎﻳﺪار ﺑﺎﺷﺪ‬
‫‪ o‬ﺳﻴﺴﺘﻢ ﺑﻪ دﻻﻳﻞ اﻗﺘﺼﺎدي‪ ،‬ﺗﻮﻟﻴﺪي ﻳﺎ اﻳﻤﻨﻲ اﻟﺰاﻣﺎ ﺗﺤﺖ ﻓﻴﺪﺑﻚ اﺳﺖ‬
‫‪ o‬در ﺳﻴﺴﺘﻢ ﻓﻴﺪﺑﻚ ﻃﺒﻴﻌﻲ ‪ inherent‬وﺟﻮد دارد‬
‫‪ o‬ﻓﻴﺪﺑﻚ اﻋﻤﺎل ﺷﺪه ﺗﺎ ﺳﻴﺴﺘﻢ ﻧﺰدﻳﻚ ﻧﻘﻄﻪ ﻛﺎر ﺧﻮد ﺑﺎﻗﻲ ﺑﻤﺎﻧﺪ‬
‫در اﻳﻦ ﺷﺮاﻳﻂ دارﻳﻢ ﻓﺮض ﻣﻲ ﺷﻮد ﺳﻴﺴـﺘﻢ ﭘﺎﻳـﺪار و ﺣـﺪاﻗﻞ ﻳـﻚ واﺣـﺪ‬
‫ﺗﺎﺧﻴﺮ در ﺣﻠﻘﻪ وﺟﻮد دارد‬

‫‪8-9‬‬
‫ﻣﺘﻐﻴﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ ﭘﺎراﻣﺘﺮﻳﻚ‬

‫• ﺳﻴﺴﺘﻢ ﺣﻠﻘﻪ ﺑﺴﺘﻪ ‪ informative‬اﺳﺖ اﮔﺮ ﺳﻴﮕﻨﺎل ‪ r‬ﺳﻴﮕﻨﺎل ‪ PE‬ﺑﺎﺷﺪ‪.‬‬


‫• وﺟﻮد ﻛﻨﺘﺮﻟﺮ ﻏﻴﺮ ﺧﻄﻲ ﻳﺎ واﺑﺴﺘﻪ زﻣﺎن )ﻛﻤﭙﻠﻜﺲ( در ﺣﺎﻟﺖ ﻛﻠﻲ ﻣﻲ ﺗﻮاﻧﺪ ﺳﻴﺴﺘﻢ را ‪ informative‬ﻛﻨﺪ‬
‫• روش ‪ subspace‬ﺗﺨﻤﻴﻦ ‪ consistent‬در ﺣﻠﻘﻪ ﺑﺴﺘﻪ ﻧﻤﻲ دﻫﺪ‪.‬‬
‫• از آﻧﺎﻟﻴﺰ ﺧﻮد ﻫﻤﺒﺴﺘﮕﻲ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ ﻛﻪ ﺗﺨﻤﻴﻦ ﺑﻪ دﻟﻴﻞ ‪ Eu(t)v(t - τ) # 0‬ﺑﺎﻳﺎس دارد‪.‬‬

‫ﻣﻌﺬﻟﻚ ﺑﺎﻳﺎس ﺗﺨﻤﻴﻦ ﻗﺎﺑﻞ اﻏﻤﺎض اﺳﺖ اﮔﺮ‬


‫)‪o The noise model is good (Ho – H*. is small‬‬
‫( ‪o The feedback contribution to the input spectrum‬‬ ‫‪) is small‬‬
‫)‪o The signal to noise ratio is good (λo/ϕu is small‬‬
‫• وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ‪ G‬در ﺣﻠﻘﻪ ﺑﺴﺘﻪ ﺑﺮاي ﺣﺎﻟﺖ ﻣﺠﺎﻧﺒﻲ ﻛﻪ ﻫﻢ درﺟﻪ ‪ G‬و ‪ H‬و ‪ N‬ﺑﻪ ﺳﻤﺖ ﺑﻴﻨﻬﺎﻳـﺖ ﺑـﺮوداز اﻳﻨﻘـﺮار‬
‫اﺳﺖ‬

‫‪,‬‬
‫‪ o‬ورودي ﻣﻮﺛﺮ در وارﻳﺎﻧﺲ ﺑﺨﺸﻲ اﺳﺖ ﻛﻪ ﻧﺎﺷﻲ از ‪ r‬اﺳﺖ و ﺳﻴﮕﻨﺎل ﻓﻴﺪﺑﻚ در اﻳﻦ ﺧﺼﻮص ﺳﻬﻤﻲ ﻧﺪارد‬
‫ﻣﺜﺎل ‪ .1‬ﺣﻠﻘــﻪ ﺑﺴــﺘﻪ ﺑــﺎ ‪ u=-f.y‬ﺳﻴﺴــﺘﻢ ‪ informative‬ﻧﻴﺴــﺖ وﻟــﻲ ﺑــﺎ ‪ u=-f.y+r‬ﻛــﻪ ‪ r‬ﺳــﻴﮕﻨﺎل ‪ PE‬اﺳــﺖ‬
‫‪ informative‬ﻣﻲ ﺷﻮد‪.‬‬

‫ﺑﺎ ﺟﺎﮔﺬاري ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬

‫از اﻳﻦ ﻧﺘﻴﺠﻪ ﻣﻲ ﺷﻮد ﻛﻪ ﺗﻤﺎم ﺳﻴﺴﺘﻤﻬﺎ ﺑﺎ ﭘﺎراﻣﺘﺮ‬

‫ﺣﺘﻲ اﮔﺮ ‪ f‬ﻣﻌﻠﻮم ﺑﺎﺷﺪ ﻧﻴﺰ ﺳﻴﺴﺘﻢ ﻣﻨﺤﺼﺮﺑﻔﺮد ﺑﺪﺳﺖ ﻧﻤﻲ آﻳﺪ‪) .‬زﻳﺮا ‪ r‬ﻛﻪ ‪ pe‬ﺑﺎﺷﺪ وﺟﻮد ﻧﺪارد( وﻟﻲ اﮔﺮ ‪ b‬ﻣﺸـﺨﺺ‬
‫ﺑﺎﺷﺪ آﻧﻮﻗﺖ ﻧﺴﺒﺖ ﺑﻪ ‪ a‬ﻣﺪل ‪ identifiable‬اﺳﺖ‬

‫وﻟﻲ اﮔﺮ ‪ u=-f(y)+r‬اﻋﻤﺎل ﻣﻲ ﺷﺪ ﻛﻪ ‪ r‬ﺳﻴﮕﻨﺎل ‪ PE‬ﺑﺎﺷﺪ ﺳﻴﺴﺘﻢ ‪ informative‬ﻣﻲ ﮔﺸﺖ‪..‬‬

‫‪ 3-9‬اﻧﺘﺨﺎب ﻓﺮﻛﺎﻧﺲ ﻧﻤﻮﻧﻪ ﺑﺮداري‬


‫‪Ljung Chapter 13‬‬

‫‪9-9‬‬
‫ﻣﺘﻐﻴﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ ﭘﺎراﻣﺘﺮﻳﻚ‬
‫‪Aliasing‬‬
‫‪ o‬اﮔﺮ ﺳﻴﮕﻨﺎل ﺣﺎوي دو ﻣﻮﻟﻔﻪ ‪ 10‬و ‪ 140‬ﻫﺮﺗﺰي ﺑﺎﺷﺪ و ﻓﺮﻛﺎﻧﺲ ﻧﻤﻮﻧﻪ ﺑﺮداري ‪ 300‬اﻧﺘﺨﺎب ﺷﻮد ﻣﻮﻟﻔـﻪ ﻫـﺎي ﺑﺎﻧـﺪ‬
‫ﭘﺎﻳﻪ ﻫﻤﻴﻦ دو ﺧﻮاﻫﻨﺪ ﺑﻮد‪ .‬ﺑﺎ ﻧﻤﻮﻧﻪ ﺑﺮداري اﻃﻼﻋﺎت ﻓﺮﻛﺎﻧﺴﻬﺎي ﺑﺎﻻﺗﺮ از ﻓﺮﻛﺎﻧﺲ ﻧﺎﻳﻜﻮﺋﻴﺴﺖ )‪ 140‬ﻫﺮﺗﺰ( ﺣﺬف ﻣﻲ‬
‫ﺷﻮﻧﺪ‬
‫‪ o‬اﮔﺮ ﻓﺮﻛﺎﻧﺲ ﻧﻤﻮﻧﻪ ﺑﺮداري ﻣﺜﻼ ‪ 100‬ﺑﺎﺷﺪ‪ .‬در ﺑﺎﻧﺪ ﭘﺎﻳﻪ ﻣﻮﻟﻔﻪ ‪ 10‬ﺧﻮاﻫﺪ ﺑﻮد وﻟﻲ از ﻣﻮﻟﻔﻪ ‪ 140‬ﻫﺮﺗﺰي ﻳـﻚ ﻣﻮﻟﻔـﻪ‬
‫ﻧﺎﺧﻮاﺳﺘﻪ ‪ 40‬ﻫﺮﺗﺰي اﻳﺠﺎد ﻣﻲ ﺷﻮد ﺑﻪ اﻳﻦ ‪ frequency folding‬ﻧﻴﺰ ﻣﻲ ﮔﻮﻳﻨﺪ‬
‫‪ o‬ﺑﺮاي رﻓﻊ اﻳﻦ ﻣﺸﻜﻞ ﻓﻴﻠﺘﺮ ‪ anti-aliasing‬ﺑﺎﻳﺪ اﺳﺘﻔﺎده ﺷﻮد‪ .‬ﺗﺎ اﺛﺮ ‪ 140‬ﻫﺮﺗﺰ در ﺑﺎﻧﺪ ﭘﺎﻳﻪ ﻧﻴﺎﻳﺪ‬

‫اﻟﺒﺘﻪ اﻳﻦ ﻓﻴﻠﺘﺮ اﻳﺪه ال ﻗﺎﺑﻞ ﺳﺎﺧﺖ ﻧﻴﺴﺖ‪ .‬ﺑﻬﺮﺣﺎل در ﺣﺎﻟﺖ اﻳﺪه ال ﺧﻮاﻫﻴﻢ داﺷﺖ‬

‫‪ o‬اﮔﺮ ﺑﺎﻧﺪ ورودي ﻣﺤﺪود ﺑﺎﺷﺪ ‪ ωB‬ﻣﺎﻧﻨﺪ آﻧﭽﻪ در ﻛﺎرﻋﺎدي ﺳﻴﺴﺘﻢ وﺟﻮد دارد ﻓﻴﻠﺘﺮ ﺿﺪ ﻫﻤﭙﻮﺷﺎﻧﻲ ﺗـﺎ ﻓﺮﻛـﺎﻧﺲ ‪ωB‬‬
‫روي ﻫﻢ ورودي و ﺧﺮوﺟﺐ ﺑﺎﻳﺪ اﻋﻤﺎل ﺷﻮدئ ﻛﻪ ﺑﻪ ﺗﺒﻊ ﻧﻮﻳﺰ ﻓﺮﻛﺎﻧﺲ ﺑﺎﻻ ﻧﻴﺰ ﺣﺬف ﻣﻲ ﮔﺮدد‪.‬‬
‫‪ o‬ﻓﺮﻛﺎﻧﺲ ﻧﻤﻮﻧﻪ ﺑﺮداري ﺑﺎﻳﺪ ﺑﺎﻻﺗﺮ از ﻓﺮﻛﺎﻧﺲ ﻗﻄﻊ ﺳﻴﺴﺘﻢ ﺑﺎﺷﺪ‪.‬‬
‫‪ o‬ﭼﻮن اﻳﻦ ﻓﻴﻠﺘﺮ ﻣﻌﻠﻮم اﺳﺖ ﻣﻲ ﺗﻮان آﻧﺮا در ﻣﺪل ﺷﻨﺎﺳﺎﻳﻲ در ﻧﻈﺮ ﮔﺮﻓﺖ ﺗﺎ ﺗﺎﺛﻴﺮ آن ﺑﺮ ﺷﻨﺎﺳﺎﻳﻲ ﻧﻴﺰ ﻣﻠﺤﻮظ ﺷﻮد‬

‫اﻧﺘﺨﺎب ﭘﺮﻳﻮد ﻧﻤﻮﻧﻪ ﺑﺮداري‬


‫‪ o‬اﻧﺘﺨﺎب ﭘﺮﻳﻮد ﻧﻤﻮﻧﻪ ﺑﺮداري‪ ،‬اﻧﺘﺨﺎب ﺑﻴﻦ ﺣﺬف ﻧﻮﻳﺰ و اﻃﻼﻋﺎت ﻣﺪل اﺳﺖ‪ .‬ﭘﺮﻳﻮد ﺑﺰرگ ﻧـﻮﻳﺰ را ﻛـﺎﻫﺶ و اﻃﻼﻋـﺎت‬
‫ﻣﺪل را از ﺑﻴﻦ ﻣﻲ ﺑﺮد‪ .‬ﭘﺮﻳﻮد ﻛﻢ اﻃﻼﻋﺎت ﺳﻴﺴﺘﻢ را ﺣﻔﻆ وﻟﻲ ﻧﻮﻳﺰ ﺑﻴﺸﺘﺮي دارد‪.‬‬

‫‪ o‬ﻓﺮﻛﺎﻧﺲ ﻧﻤﻮﻧﻪ ﺑﺮداري ﻣﻨﺎﺳﺐ ‪ 10‬ﺑﺮاﺑﺮ ﭘﻬﻨﺎي ﺑﺎﻧﺪ اﺳﺖ‪ .‬در ﻋﻤﻞ ﭘﺎﺳﺦ ﭘﻠﻪ رﺳﻢ و ‪ T‬ﺑﻪ ﻧﺤﻮي اﻧﺘﺨـﺎب ﻣـﻲ ﮔـﺮدد‬
‫ﻛﻪ ‪ 6-4‬ﻧﻤﻮﻧﻪ در زﻣﺎن ﻧﻤﻮ داﺷﺘﻪ ﺑﺎﺷﺪ‬
‫‪ o‬ﻣﻲ ﺗﻮان ﻧﻤﻮﻧﻪ ﺑﺮداري را ﺑﺎ ﻓﺮﻛﺎﻧﺲ ﺑﺎﻻ اﻧﺠﺎم داد و ﺳﭙﺲ ﺑﺎ ﻓﻴﻠﺘﺮ ﺿﺪ ﻫﻤﭙﻮﺷﺎﻧﻲ دﻳﺠﻴﺘﺎل ﻓﺮﻛﺎﻧﺲ ﻧﻤﻮﻧﻪ ﺑـﺮداري‬
‫را ﻛﺎﻫﺶ داد‬

‫‪10-9‬‬
‫ﻣﺘﻐﻴﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ ﭘﺎراﻣﺘﺮﻳﻚ‬
‫‪ o‬ﻓﺮﻛﺎﻧﺲ ﻧﻤﻮﻧﻪ ﺑﺮداري ﻛﻮﭼﻚ ‪ (1‬اﻓﺰاﻳﺶ ﺣﺠﻢ ﻣﺤﺎﺳﺒﺎت و ﻣﺸﻜﻞ ﻣﺤﺎﺳﺒﺎﺗﻲ ‪ (2‬ﻗﻄﺒﻬﺎي ﻣﺪل ﻫﻤﮕﻲ ﻧﺰدﻳـﻚ ‪1‬‬
‫ﺟﻤﻊ ﻣﻲ ﺷﻮﻧﺪ ‪ (3‬ﻣﺪل ﺑﻴﺸﺘﺮ ﺗﻼش ﻣﻲ ﻛﻨﺪ ﻓﺮﻛﺎﻧﺴﻬﺎي ﺑﺎﻻ را در ﺑﺮ ﺑﮕﻴﺮد‪ (4 .‬اﮔـﺮ ﺳﻴﺴـﺘﻢ ﻛﻨﺘـﺮل ﺑﺎﺷـﺪ اﻏﻠـﺐ‬
‫ﻣﻨﺠﺮ ﺑﻪ ﻣﺪل ﻏﻴﺮ ﺣﺪاﻗﻞ ﻓﺎز ﻣﻲ ﺷﻮد‪.‬‬
‫‪ o‬اﻧﺘﺨﺎب ‪ T‬در راﺑﻄﻪ ﺑﺎ ‪ τ‬ﺗﻌﻴﻴﻦ ﻣﻲ ﺷﻮد‪ .‬اﻓﺰاﻳﺶ ‪ T‬ﻧﺴﺒﺖ ﺑﻪ ‪ τ‬وارﻳﺎﻧﺲ را ﺑﻄﻮر ﻓﺎﺣﺸﻲ اﻓﺰاﻳﺶ ﻣﻲ دﻫـﺪ‪T=10τ .‬‬
‫ﻛﻪ ﺑﺰرگ اﺳﺖ ﻣﻨﺠﺮ ﺑﻪ وارﻳﺎﻧﺲ ‪ 105‬ﻣﻘﺪار ﺑﻬﻴﻨﻪ ﻣﻲ ﺷﻮد در ﺣﺎﻟﻴﻜﻪ ‪ T=0.1τ‬ﻣﻨﺠﺮ ﺑﻪ وارﻳﺎﻧﺲ ﻛﻤﺘﺮ از ‪ 10‬ﺑﺮاﺑـﺮ‬
‫ﻣﻘﺪار ﺑﻬﻴﻨﻪ ﻣﻲ ﺷﻮد‪.‬‬

‫ﻧﻤﻮدار وارﻳﺎﻧﺲ ‪ â‬ﺑﺮ ﺣﺴﺐ ﭘﺮﻳﻮد ﻧﻤﻮﻧﻪ ﺑﺮداري‬

‫‪PREPROCESSING DATA 4-9‬‬

‫‪Ljung chapter 14‬‬


‫اﺧﺘﻼﻻت ﻫﻤﺮاه ﺑﺎ اﻧﺪازه ﮔﻴﺮي ﺑﻪ دﺳﺘﻪ ﻫﺎي زﻳﺮ ﺗﻘﺴﻴﻢ ﻣﻲ ﺷﻮﻧﺪ‪:‬‬
‫‪ .1‬اﺧﺘﻼل ﺛﺎﺑﺖ ‪ offset‬و ﻓﺮﻛﺎﻧﺲ ﭘﺎﻳﻴﻦ ‪Drift, trend, seasonal variation‬‬
‫‪ .2‬ﻧﻮﻳﺰ ﻓﺮﻛﺎﻧﺲ ﻫﺎي ﺑﺎﻻﺗﺮ از ﻓﺮﻛﺎﻧﺲ ﻛﺎر‬
‫‪ .3‬اﺧﺘﻼﻻت ﭘﺮﺷﻲ ‪bursts and outliers, missing data‬‬
‫‪ .4‬اﺧﺘﻼﻻت در ﻓﺮﻛﺎﻧﺲ ﻛﺎر‬
‫ﺗﻮﺻﻴﻪ ﻣﻲ ﺷﻮد ﻣﻮارد ‪ 1‬ﺗﺎ ‪ 3‬ﺑﺎ ﻓﻴﻠﺘﺮ ﺛﺎﺑﺖ‪ 4 ،‬ﺑﺎ دور رﻳﺨﺘﻦ دﻳﺘﺎ و ‪ 5‬ﺑﺎ ﻓﻴﻠﺘﺮ ‪ L‬ﻛﻨﺘﺮل ﺷﻮﻧﺪ‪.‬‬

‫‪ 1-4-9‬اﺧﺘﻼل ﺛﺎﺑﺖ ‪ ،offset‬و ﻓﺮﻛﺎﻧﺲ ﭘﺎﻳﻴﻦ ‪Drift, Trends, Seasonal Variations‬‬


‫ﭘﻴﺶ ﭘﺮدازش ‪) offset‬اﺧﺘﻼل ﺛﺎﺑﺖ(‬
‫‪ o‬روش ‪ :1‬اﻧﺪازه ﮔﻴﺮي اﻓﺴﺖ واﻗﻌﻲ ﻗﺒﻞ از ﺷﺮوع ﻛﺎر و ﻛﻢ ﻛﺮدن آن از دﻳﺘﺎﻳﻲ اﻧﺪازه ﮔﻴﺮي ﻣﻲ ﺷﻮد‪.‬‬

‫‪ o‬روش ‪ :2‬ﻣﺤﺎﺳﺒﻪ ﻣﻴﺎﻧﮕﻴﻦ دﻳﺘﺎي اﻧﺪازه ﮔﻴﺮي ﺷﺪه و ﻛﻢ ﻛﺮدن آن ازدﻳﺘﺎ‬


‫‪11-9‬‬
‫ﻣﺘﻐﻴﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ ﭘﺎراﻣﺘﺮﻳﻚ‬

‫روش ‪ :3‬اﻋﻤﺎل ﻓﻴﻠﺘﺮ ﺑﺎﻻﮔﺬر ﺑﻪ دﻳﺘﺎ روش ﻣﻨﺎﺳﺒﻲ ﺑﺮاي ﺣﺎﻟﺖ ‪ online‬اﺳﺖ‪.‬‬
‫ﻧﻜﺎت‪:‬‬
‫‪ o‬ﺣﺬف ‪ offset‬وﻗﺘﻲ ﻣﺪل ‪ OE‬اﺳﺖ ﺑﺴﻴﺎر ﭘﺮ اﻫﻤﻴﺖ اﺳﺖ‬
‫‪ o‬در روﺷﻬﺎﻳﻲ ﻛﻪ ﺑﺮاي ﻧﻮﻳﺰ ﻣﺪل در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﻣﻲ ﺷﻮد اﻫﻤﻴﺖ ﺣﺬف اﻓﺴﺖ ﻛﻤﺘﺮ اﺳﺖ‪.‬‬
‫‪Drift, Trends, Seasonal Variations‬‬
‫‪ o‬ﻓﻴﻠﺘﺮ ﺑﺎﻻ ﮔﺬر‬
‫‪ o‬ﻓﻴﻠﺘﺮ ﻧﺎچ‬
‫‪ o‬ﺗﻔﺮﻳﻖ ﺳﻴﮕﻨﺎل از ﻳﻚ راﺑﻄﻪ ﺧﻄﻲ ﻳﺎ ﻣﻨﺤﻨﻲ واﺑﺴﺘﻪ زﻣﺎن )ﻣﺪل اﺧﺘﻼل(‪.‬‬

‫‪ 2-4-9‬ﻧﻮﻳﺰ ﻓﺮﻛﺎﻧﺲ ﺑﺎﻻ‬


‫ﻧﻮﻳﺰ ﻓﺮﻛﺎﻧﺲ ﺑﺎﻻ ﺑﺎ ﻓﻴﻠﺘﺮ ﭘﺎﻳﻴﻦ ﮔﺬر ﺣﺬف ﻣﻲ ﺷﻮد‬

‫‪OUTLIERS AND MISSING DATA 3-4-9‬‬


‫ﻣﺜﺎﻟﻲ از اﻳﺮاد ﻧﺎﺷﻲ از ‪missing data‬‬
‫در ﻧﺘﻴﺠﻪ اﻳﺮاد در ﻣﺴﻴﺮ ﻣﺨﺎﺑﺮاﺗﻲ و ﻗﻄﻊ دﻳﺘﺎ )‪ (missing data‬ﻳﺎ در ﻧﻮﻳﺰﻫﺎي ﺑﺰرگ ﺑﻪ دﻟﻴﻞ اﻳـﺮاد در اﻧـﺪازه ﮔﻴـﺮي‪،‬‬
‫اﺧﺘﻼل ﭘﺮﺷﻲ رخ ﻣﻲ دﻫﺪ ﻛﻪ اﻳﻦ دﻳﺘﺎي ﺑﺪ ﻣﻌﻤﻮﻻ ﺑﻌﻨﻮان ‪ outlier‬ﺧﻮاﻧﺪه ﻣﻲ ﺷﻮد‪.‬‬
‫ﻣﺜﺎل ‪ .2‬اﺛﺮ ‪ outlier‬در ﺷﻨﺎﺳﺎﻳﻲ‬
‫دﻳﺘﺎ را ﺳﻴﺴﺘﻢ زﻳﺮ ﺗﻮﻟﻴﺪ ﻣﻲ ﻛﻨﺪ‬

‫ﻓﺮض ﻛﻨﻴﺪ دﻳﺘﺎ از)‪ y(313‬ﺗﺎ )‪ y(320‬ﺑﻪ دﻟﻴﻞ اﻳﺮاد ﺻﻔﺮ ﺷﺪه ﺑﺎﺷﺪ ﺷﻜﻠﻬﺎ دﻳﺘﺎ ﺧﺮوﺟﻲ و ﺧﻄﺎي ﺷﻨﺎﺳﺎﻳﻲ را ﻧﺸـﺎن‬
‫ﻣﻲ دﻫﻨﺪ‪.‬‬

‫ﻣﻘﺪار ﺻﺤﻴﺢ ﭘﺎراﻣﺘﺮﻫﺎي ﺳﻴﺴﺘﻢ ‪ θ0‬از اﻳﻨﻘﺮا راﺳﺖ‬

‫‪12-9‬‬
‫ﻣﺘﻐﻴﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ ﭘﺎراﻣﺘﺮﻳﻚ‬
‫آزﻣﺎﻳﺶ ‪ 1‬ﺑﺎ ‪ ARMAX‬ﻫﻢ درﺟﻪ ﺑﺎ ﺳﻴﺴﺘﻢ اﺻـﻠﻲ اﺳـﺖ‪ .‬ﻋﻤﻠﻜـﺮد ﺟـﺎﻟﺒﻲ ﻧـﺪارد‪ .‬ﻳﻌﻨـﻲ ﭼﻨـﺪ ‪ outlier‬ﻛـﺎرﻛﺮد را‬
‫ﻣﺨﺪوش ﻛﺮده اﺳﺖ‬

‫آزﻣﺎﻳﺶ ‪ 2‬ﺗﺨﻤﻴﻦ ﺑﺮ اﺳﺎس ‪ 300‬دﻳﺘﺎي اوﻟﻲ ﻗﺒﻞ از ‪ outlier‬اﺳﺖ ﻛﻪ ﻣﻄﻠﻮب اﺳﺖ‬

‫آزﻣﺎﻳﺶ ‪ 3‬ﺑﺎ ‪ ARMAX‬و اﺳﺘﻔﺎده از ‪ robust norm‬اﺳﺖ ﻛﻪ ﻣﺸﻜﻞ ﺧﺮاﺑﻲ دﻳﺘﺎ را ﭘﻮﺷﺶ داده اﺳﺖ‪ .‬ﺑﻪ ﻋﺒﺎرت دﻳﮕﺮ‬
‫اﻟﮕﻮرﻳﺘﻢ ﻣﻘﺎوم ﻣﻲ ﺗﻮاﻧﺪ اﻳﻦ ﻣﺸﻜﻼت را ﺑﻬﺘﺮ ﻫﻀﻢ ﻛﻨﺪ‪.‬‬

‫راه ﺣﻞ‬
‫ﺑﺮاي اﻳﻦ ﻣﺸﻜﻞ ‪ 3‬را ه ﺣﻞ وﺟﻮد دارد ﻛﻪ ﻣﻤﻜﻦ اﺳﺖ ﺑﻪ ﺗﻨﻬﺎﻳﻲ ﻳﺎ ﻫﻤﮕﻲ ﻣـﻮرد اﺳـﺘﻔﺎده ﻗـﺮار ﮔﻴﺮﻧـﺪ‪(1 :‬ﺗﺨﻤـﻴﻦ و‬
‫ﺗﻘﺮﻳﺐ )در ﻣﻮرد ‪ (2 ( missing data‬دور رﻳﺨﺘﻦ ﺑﺨﺶ ﻧﺎﻣﻄﻠﻮب ﺳﻴﮕﻨﺎل ‪ (2‬اﺳﺘﻔﺎده از ﻧﻮرم ﻣﻘﺎوم‬
‫‪(1‬ﺗﺨﻤﻴﻦ و ﺗﻘﺮﻳﺐ )در ﻣﻮرد ‪( missing data‬‬
‫اﻳﻦ ﻛﺎر را ﺑﺎ اﻋﻤﺎل ﻣﺪل ﺑﻪ ﺳﻴﮕﻨﺎل ورودي و ﺗﺼﺎدﻓﻲ در ﻧﻈﺮ ﮔﺮﻓﺘﻦ ﺧﺮوﺟﻲ و اﺳﺘﻔﺎده از ﺗﻜﺘﻜﻬـﺎي ﺗﺨﻤـﻴﻦ‪ ،‬آﻧﻬـﺎ را‬
‫ﺑﺎزﺳﺎزي ﻛﺮد‬
‫‪(2‬اﻧﺘﺨﺎب ﻗﻄﻌﺎت ﻣﻨﺎﺳﺐ و دوررﻳﺨﺘﻦ ‪outlier‬‬
‫‪ o‬ﻗﺒﻞ از ﺷﻨﺎﺳﺎﻳﻲ ﻧﻤﻮدار رﺳﻢ و ﺑﺨﺸﻬﺎي ﻗﺎﺑﻞ اﻃﻤﻴﻨﺎن ﺟﺪا ﻣﻲ ﺷﻮﻧﺪ‪.‬‬
‫‪ o‬ﺿﻤﻨﺎ وﻗﺘﻲ ﺳﻴﺴﺘﻢ در ﺣﺎل ﻛﺎرﻧﺮﻣﺎل ﺧﻮد اﺳﺖ ﺑﺨﺸﻬﺎي ﺑﺰرﮔﻲ از دﻳﺘﺎﻫﺎ ﻣﻤﻜـﻦ اﺳـﺖ ﺛﺎﺑـﺖ و ﺣـﺎوي اﻃﻼﻋـﺎت‬
‫ﻣﺮﺗﺒﻂ ﺑﺎ دﻳﻨﺎﻣﻴﻚ ﻧﺒﺎﺷﺪ ﻛﻪ ﺑﺎﻳﺪ ﻛﻨﺎر ﮔﺬاﺷﺘﻪ ﺷﻮد و ﺷﻨﺎﺳﺎﻳﻲ ﺑﻪ اﺳﺘﻨﺎد آﻧﻬﺎ آﻧﻬﺎ اﻧﺠﺎم ﻧﺸﻮد‬
‫‪ o‬ﺗﺸﺨﻴﺺ ‪ online‬وﺟﻮد ‪ outlier‬و ﻛﻨﺎر ﮔﺬاﺷﺘﻦ آن‪ :‬وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﻛﻪ ﻫﻤﺰﻣﺎن ﺑﺎ ﺷﻨﺎﺳﺎﻳﻲ ﻗﺎﺑـﻞ ﻣﺤﺎﺳـﺒﻪ‬
‫اﺳﺖ وﺟﻮد ‪ outlier‬را اﻋﻼم ﻣﻲ ﻛﻨﺪ‪ .‬درﻣﺜﺎل ﻗﺒﻞ در ﺣﺎﻟﻴﻜﻪ اﻧﺤـﺮاف ﻣﻌﻴـﺎر ‪ θ̂1‬ﺑـﻪ ﺗﺮﺗﻴـﺐ ‪(0.9997, 1.7157,‬‬
‫)‪ 1.1421‬اﺳﺖ اﻧﺤﺮاف ﻣﻌﻴﺎر ‪ θ̂ 2‬ﺑﺘﺮﺗﻴﺐ )‪ (0.0602, 0.0750, 0.061‬اﺳـﺖ ﻛـﻪ ﺧـﻮد ﻧﺸـﺎن ﻣـﻲ دﻫـﺪ دﻳﺘـﺎ‬
‫ﻧﺎﻫﻨﺠﺎر ﺑﻮده اﺳﺖ‪ .‬ﺻﻤﻨﺎ ﭘﺮش در ﻧﻤﻮدار ﺑﺎﻗﻴﻤﺎﻧﺪه ﻧﻴﺰ وﺟﻮد اﻳﺮاد ﺑﺰرگ در دﻳﺘﺎ را ﻧﺸﺎن ﻣﻲ دﻫﺪ‪.‬‬
‫ﻓﻴﻮژن ﺗﺨﻤﻴﻨﻬﺎ‬
‫وﻗﺘﻲ ﺑﻬﺮ دﻟﻴﻠﻲ ﻗﻄﻌﺎت ﻏﻴﺮ ﭘﻴﻮﺳﺘﻪ دﻳﺘﺎ ﺑﺮاي ﺷﻨﺎﺳﺎﻳﻲ ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮا ﻣﻲ ﮔﻴﺮد ﭼﮕﻮﻧﮕﻲ ﺗﺮﻛﻴﺐ آﻧﻬﺎ ﻣﺴﺌﻠﻪ اﺳﺖ‪.‬‬
‫اﮔﺮ ﺑﺪون ﺗﻮﺟﻪ ﺑﻪ ﻧﺎﭘﻴﻮﺳﺘﮕﻲ در ﻗﻄﻌﺎت آﻧﻬﺎ ﭘﺸﺖ ﺳﺮﻫﻢ ﻗﺮار ﮔﺮﻓﺘـﻪ و ﺷﻨﺎﺳـﺎﻳﻲ ﺻـﻮرت ﮔﻴـﺮد ﺗﻐﻴﻴـﺮات ﮔـﺬرا در‬
‫ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ ﻣﺸﺎﻫﺪه ﻣﻲ ﺷﻮد ﻛﻪ ﻣﻄﻠﻮب ﻧﻴﺴﺖ ‪ .‬رﻓﻊ ان ﻣﺸﻜﻞ ﺑﺎ ﻳﻜﻲ از دو ﺗﻜﻨﻴﻚ زﻳﺮ ﻣﻴﺴﺮ اﺳﺖ‪.‬‬
‫روش ‪ 1‬ﻣﻴﺎﻧﮕﻴﺮي وزﻧﻲ ﺑﺮ اﺳﺎس وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ‬
‫ﻳﻚ را ﺣﻞ اﻳﻨﮕﻮﻧﻪ اﺳﺖ ﻛﻪ ﺗﺨﻤﻴﻦ ﻫﺎي ﻣﺠﺰا ﻣﺤﺎﺳﺒﻪ و ﺳﭙﺲ ﺗﺨﻤﻴﻨﻬﺎ ﺑﻬﻢ ‪ merge‬ﺷﻮﻧﺪ‬

‫‪13-9‬‬
‫ﻣﺘﻐﻴﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ ﭘﺎراﻣﺘﺮﻳﻚ‬

‫روش ‪ :2‬ﻣﻴﺎﻧﮕﻴﺮي‬
‫‪ :‬اﮔﺮ دﻳﺘﺎ ﭘﺮﻳﻮدﻳﻚ اﺳﺖ ﺑﻬﺘﺮ اﺳﺖ ورودي و ﺧﺮوﺟﻲ روي ﻳﻚ ﭘﺮﻳﻮد ﻣﻴﺎﻧﮕﻴﺮي ﺷﻮد ﺑﺎ اﻳﻦ ﻛﺎر ﻫﻢ ﺗﻌـﺪاد دﻳﺘـﺎ ﻛـﻢ و‬
‫ﺳﺮﻋﺖ ﺗﺨﻤﻴﻦ ﺑﺎﻻ ﻣﻲ رود ﻫﻢ ﻧﻮﻳﺰ ﻓﺮﻛﺎﻧﺲ ﺑﺎﻻ ﺣﺬف ﻣﻲ ﺷﻮد‪.‬‬

‫‪L‬‬ ‫‪ 5-9‬ﺣﺬف اﺧﺘﻼل در ﺑﺎﻧﺪ ﻛﺎر ‪PREFILTERING‬‬


‫ﺑﺮاي ﺣﺬف ﻧﻮﻳﺰ ﻓﺮﻛﺎﻧﺲ ﺑﺎﻻ و اﺧﺘﻼﻻت ﻓﺮﻛﺎﻧﺲ ﭘﺎﻳﻴﻦ‪ ،‬ﻳﻜﻲ دﻳﮕﺮ از راﻫﻬﺎ اﻋﻤﺎل ﭘﻴﺶ ﻓﻴﻠﺘﺮ ‪ L‬اﺳـﺖ‪ .‬اﻟﺒﺘـﻪ ﻣﻨﺎﺳـﺐ‬
‫اﺳﺖ ﻛﻪ ‪ L‬ﺑﺮاي ﻛﻨﺘﺮل اﺧﺘﻼﻻت ﺑﺎﻧﺪ ﻛﺎر در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﺪه و دﻳﮕﺮ اﺧﺘﻼﻟﺖ ﺑﺎ ﻓﻴﻠﺘﺮﻫﺎي ﺛﺎﺑﺖ ﻛﻪ ﻗﺒﻼ ﺗﻮﺿـﻴﺢ داده‬
‫ﺷﺪن ﻛﻨﺘﺮل ﺷﻮﻧﺪ‪.‬‬
‫• در ﺳﻴﺴﺘﻢ ﺧﻄﻲ اﻋﻤﺎل ‪ L‬ﻣﺸﺎﺑﻪ ﻓﻴﻠﺘﺮ ﻛﺮدن ‪ L.ε‬است که در معيار ‪ V‬ظاھر می شود‪.‬‬

‫ﺑﻨﺎﺑﺮاﻳﻦ ازﻣﻨﻈﺮ ﺧﻄﺎي ﺗﺨﻤﻴﻦ ﺑﺤﺚ ﻣﻲ ﻛﻨﻴﻢ‬


‫‪ o‬از ﺑﺨﺶ ‪ 8.5‬ﻣﻲ داﻧﻴﻢ ‪ L‬ﻛﻪ ﻣﺪل ﻧﻮﻳﺰ را ﻋﻮض ﻣﻲ ﻛﻨﺪ ﺑﺮ ﺑﺎﻳﺎس ﺗﺨﻤﻴﻦ اﺛﺮ ﻣﻴﮕـﺬارد‪ .‬ﺑﻬﺘـﺮﻳﻦ ﺗﺨﻤـﻴﻦ زﻣـﺎﻧﻲ‬
‫ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ ﻛﻪ ‪ L=1/H0‬در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﻮد ﻛﻪ ﻧﻮﻳﺰ رﻧﮕﻲ را ﺑﻪ ﺳﻔﻴﺪ ﺗﺒﺪﻳﻞ ﻣﻲ ﻛﻨﺪ‪ .‬ﺑﻨﺎﺑﺮاﻳﻦ ‪ L‬ﺑﺎﻳـﺪ ﺗﺨﻤـﻴﻦ‬
‫زده ﺷﻮد ﺗﺎ وارﻳﺎﻧﺲ ﺑﻪ ‪ Cramer-Rao bound‬ﺑﺮﺳﺪ‬
‫‪ L o‬ﺑﺮ ﺑﺎﻳﺎس ﺗﺨﻤﻴﻦ اﺛﺮ دارد‬

‫‪ Q‬ﺗﺎﺑﻌﻲ از ‪ H ،L‬و ‪ ϕ‬اﺳﺖ و ﻣﻘﺪار ﺗﻚ ﺗﻚ ٱﻧﻬﺎ ﺗﻌﻴﻴﻦ ﻛﻨﻨﺪه ﻧﻴﺴﺖ ﺑﻠﻜﻪ ﺗﺮﻛﻴﺐ آﻧﻬﺎ ﻣﻮﺛﺮ اﺳﺖ‪.‬‬
‫‪ o‬اﺛﺮ ‪ L‬ﺑﺎﻻ ﮔﺬر ﻛﻪ ﺑﺎﻳﺎس ﻓﺮﻛﺎﻧﺲ ﭘﺎﻳﻴﻦ اﻳﺠﺎد ﻣﻲ ﻛﻨﺪ در ﺷﻜﻞ ﻧﺸﺎن داده ﺷﺪه اﺳﺖ‬

‫‪14-9‬‬
‫ﻣﺘﻐﻴﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ ﭘﺎراﻣﺘﺮﻳﻚ‬
‫‪ o‬اﺳﺘﻔﺎده ﭼﻨﺪ ﻣﻨﻈﻮره از ‪ L‬ﻣﺜﻼ ﺑﺮاي ﺣﺬف اﺧﺘﻼﻻت ﻓﺮﻛﺎﻧﺲ ﭘﺎﻳﻴﻦ‪ ،‬ﻧﺎچ ﺑﺮاي ‪ seasonal variation‬ﻳﺎ ﺑـﺎﻻ ﮔـﺬر‬
‫ﺑﺮاي ﺣﺬف ﻧﻮﻳﺰ ﻃﺮﺣﻲ آﻧﺮا ‪ conflicting‬ﻣﻲ ﻛﻨﺪ‪.‬‬
‫ﻃﺮاﺣﻲ ‪ L‬ﺑﺮاي ﺑﺎﻳﺎس ﺑﻬﻴﻨﻪ‬
‫در ﺷﺮاﻳﻂ ‪ ϕue=0‬و ‪ H=1‬ﻣﻌﻴﺎر ﺑﺎﻳﺎس ﺑﺮاي ﺣﺪ ﺗﺨﻤﻴﻦ * ‪ θ‬اﻳﻨﮕﻮﻧﻪ ﺑﺪﺳﺖ آﻣﺪ‪.‬‬

‫ﻛﻪ ‪ C11‬ﺑﻪ ﻧﻮع ﻣﺪل و ﺳﻴﺴﺘﻢ واﺑﺴﺘﻪ اﺳﺖ‪ .‬ﺿﻤﻨﺎ راﺑﻄﻪ ﻣﻘﺪار ﺑﻬﻴﻨﻪ اﻳﻨﮕﻮﻧﻪ ﺑﺪﺳﺖاﻣﺪ‬

‫ﻣﻲ ﮔﺮدد ﺑﻪ ازاي ﻣﻘﺪاري ‪ .α>0‬ﻣﻘﺪار ‪C‬ﺑﺮاي ﺳﻴﺴـﺘﻢ‬ ‫ﻧﺘﻴﺠﻪ اﻳﻨﻜﻪ ﺷﺮاﻳﻂ ﺑﺎﻳﺎس ﺑﻬﻴﻨﻪ‬
‫اﺳﺖ‪ .‬و ﻣﻘﺪار ‪ C‬ﺑﺮاي ﺳﻴﺴﺘﻢ ‪ Y=Gu+He‬و‬ ‫و ﻣﺪل ﺗﺨﻤﻴﻦ ‪ŷ=Gu‬ﺑﺮاﺑﺮ ﺑﺎ‬

‫اﺳﺖ‪.‬‬ ‫ﻣﺪل ﺗﺨﻤﻴﻦ ‪ ŷ=H-1Gu+(1-H-1)y‬ﺑﺮاﺑﺮ‬


‫ﻃﺮاﺣﻲ ‪ L‬ﺑﺮاي ﺑﺎﻳﺎس و وارﻳﺎﻧﺲ ﻫﻤﺰﻣﺎن ﺑﻬﻴﻨﻪ‬
‫ﺑﺮاي وارﻳﺎﻧﺲ ﺑﻬﻴﻨﻪ ﺗﺤﺖ ﺷﺮاﻳﻂ‬

‫ﻧﺘﺎﻳﺞ زﻳﺮ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬

‫‪• Here µ1 is adjusted so that the input power constraint is met,‬‬


‫‪• while µ2 is a constant, such that the filter L(q) is monic.‬‬

‫‪CHOICE OF IDENTIFICATION CRITERION‬‬ ‫‪6-9‬‬

‫ﻓﺼﻞ ‪15‬‬

‫اﻧﺘﺨﺎب ‪ℓ‬در ‪ PEM‬و ‪ α‬در ‪IV‬‬

‫‪ : CHOICE OF NORM: ROBUSTNESS 1-6-9‬در روش ‪PEM‬‬


‫ﻣﺎﺗﺮﻳﺲ ﻛﻮارﻳﺎﻧﺲ ﺑﺮاي ‪ PEM‬در ﺣﺎﻟﺖ ‪ S∈M‬ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫‪15-9‬‬
‫ﻣﺘﻐﻴﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ ﭘﺎراﻣﺘﺮﻳﻚ‬
‫ﻛﻪ ﺑﻬﺮه ﻛﻮارﻳﺎﻧﺲ ‪ k‬ﺑﻪ ﻧﻮع ﻧﺮم ‪ ℓ‬و ﺗﺎﺑﻊ ﺗﻮزﻳﻊ )‪ eo(t‬ﻳﻌﻨﻲ ‪ fe (x).‬واﺑﺴﺘﻪ اﺳﺖ‬

‫ﻣﻲ ﺗﻮان ﻧﺸﺎن داد ﻛﻪ ﻣﻘﺪار ﺣﺪاﻗﻞ ‪ k‬ﻛﻪ وارﻳﺎﻧﺲ را ﺣﺪاﻗﻞ ﻣﻴﻜﻨﺪ در ﺷﺮاﻳﻂ زﻳﺮ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬

‫ﻧﺘﻴﺠﻪ‪ :‬اﮔﺮ ﺗﺎﺑﻊ ﺗﻮزﻳﻊ ﮔﻮﺳﻲ ﺑﺎ وارﻳﺎﻧﺲ ﻣﻌﻠﻮم ﺑﺎﺷﺪ ﻧﻮرم ﺑﻬﻴﻨﻪ ﻧﻮرم درﺟﻪ ‪ 2‬اﺳﺖ ﺑﻪ اﻳﻦ ﺗﺮﺗﻴﺐ‬

‫‪‬‬
‫‪ fe‬ﻣﺠﻬﻮل‬
‫اﻣﻜﺎن ﺗﻨﻈﻴﻢ وﻓﻘﻲ آن ﻓﺮاﻫﻢ ﻣﻲ آﻳﺪ‪ .‬اﻟﺒﺘﻪ در ﻋﻤﻞ اﻳﻦ‬ ‫‪ o‬ﻧﻮرم ﭘﺎراﻣﺘﺮﻳﻚ‪ :‬ﺑﺎ اﺿﺎﻓﻪ ﻛﺮدن ﭘﺎراﻣﺘﺮ ﺑﻪ ﻧﻮرم‬
‫ﻛﺎر ﻣﻤﻜﻦ اﺳﺖ اﻣﻜﺎن ﭘﺬﻳﺮ ﻧﺒﺎﺷﺪ زﻳﺮا ﺑﻪ اﺳﺘﻨﺎد ﺗﻌﺪادي ﻣﺤﺪود دﻳﺘﺎ ﻧﻤﻲ ﺗﻮان ﺗﺎﺑﻊ ﺗﻮزﻳﻊ را ﺧﻮب ﺗﺨﻤﻴﻦ زد‪.‬‬
‫• ﻧﻮرم ﻣﻘﺎوم‪ :‬اﻧﺘﺨﺎب ﻧﻮرم در راﺑﻄﻪ ﺑﺎ ﻣﻘﺎوم ﻧﻤﻮدن اﻟﮕﻮرﻳﺘﻢ در ﻣﻘﺎﺑﻞ ‪) outliers‬دﻳﺘﺎي ﺧﺮاب و ﺑﺪ( ﻣﻄﺮح ﻣﻲ ﺷﻮد‬
‫‪ o‬ﻣﻲ ﺗﻮان ﻧﻮرم ﺑﺎ ﺣﺴﺎﺳﻴﺖ ﻛﻤﺘﺮ ﻧﺴﺒﺖ ﺑﻪ ‪ f‬ﻳﺎ ﺑﻪ ﻋﺒﺎرت دﻳﮕﺮ ‪ robust norm‬اﻧﺘﺨﺎب ﻛﺮد‪.‬‬
‫‪ o‬ﻧﻮرم ‪ ε2‬ﺑﻪ ﺷﻜﻞ ﺑﺪي ﺑﻪ ‪ outlier‬ﺣﺴﺎس اﺳﺖ‬

‫اﺳـﺖ‪ .‬ﺑـﺮاي‬ ‫ﻧﻮرم ﺑﻬﻴﻨﻪ درﺟـﻪ ‪2‬‬ ‫ﻣﺜﺎل ‪ .3‬ﺑﺮاي ﺗﺎﺑﻊ ﺗﻮزﻳﻊ ﮔﻮﺳﻲ‬
‫اﻳﻦ ﻧﻮرم ﺑﻬﺮه وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ‪ k‬ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫‪‬‬
‫ﻛﻪ ﺣﺎﺻﻞ ﺗﻘﺴﻴﻢ وارﻳﺎﻧﺲ ﺑﻪ ﺗﻮان دو ﺳﻄﺢ زﻳﺮ ﺗﺎﺑﻊ اﺳﺖ‪.‬‬
‫‪10-3‬‬
‫*‪ 0.5‬ﻣﻮﻟﺪ ﺳﻴﮕﻨﺎل ﺗﺼـﺎدﻓﻲ‬ ‫ﻋﻤﻠﻜﺮد اﻳﻦ ﻧﻮرم در ﻣﻮاﺟﻬﻪ ﺑﺎ ‪ outlier‬را اﻳﻨﮕﻮﻧﻪ ﻣﻴﺘﻮان دﻳﺪ‪ .‬ﺑﻪ اﺣﺘﻤﺎل ﺑﺴﻴﺎر ﻛﻢ‬
‫ﻣﻤﻜﻦ اﺳﺖ ‪ 100‬و ‪ -100‬ﺗﻮﻟﻴﺪ ﻛﻨﺪ‪ .‬در اﻳﻦ وﺿﻌﻴﺖ ﻣﻘﺪار ‪ k‬ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫ﻛﻪ وارﻳﺎﻧﺴﻲ ‪ 11‬ﺑﺮاﺑﺮ ﻣﻘﺪار ﻣﻌﻤﻮﻟﻲ ﺧﻮد را ﻧﺸﺎن ﻣﻲ دﻫﺪ‪ .‬در اﻳﻦ ﻣﺤﺎﺳﺒﻪ ﻣﺨﺮج ﻛﺴﺮ ‪1‬اﺳﺖ و ﺻﻮرت ﻛﺴـﺮ از ﺳـﻪ‬
‫ﻗﺴﻤﺖ }‪ {100, -100, others‬ﺗﺸﻜﻴﻞ ﻣﻲ ﺷﻮد ﻛﻪ ﺑﻪ ﻣﻘﺪار ﻓﻮق ﻣﻲ اﻧﺠﺎﻣﺪ‬
‫‪ o‬ﺑﺮاي رﻓﻊ ﻣﺸﻜﻞ ‪ ،outliers‬ﻧﻮرم روﺑﺎﺳﺖ زﻳﺮ ﭘﻴﺸﻨﻬﺎد ﻣﻴﮕﺮدد ﻛﻪ ﻳﻜﻲ از آﻧﻬﺎ ﻧﻮرم زﻳﺮ اﺳﺖ‪.‬‬

‫‪16-9‬‬
‫ﻣﺘﻐﻴﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ ﭘﺎراﻣﺘﺮﻳﻚ‬

‫‪o‬‬

‫‪ o‬راﺑﻄﻪ زﻳﺮ ﻧﻮع دﻳﮕﺮي از آن اﺳﺖ‪.‬‬

‫ﻛﻪ ̂‪ σ‬اﻧﺤﺮاف ﻣﻌﻴﺎر ‪ prediction errors‬و ‪ 1≤ρ≤1.8‬ﺿﺮﻳﺐ اﺳﺖ‪ .‬ﻣﻘﺪار ﻣﻨﺎﺳﺐ ̂‪ σ‬از اﻳﻦ ﻗﺮار اﺳﺖ‬

‫)|)‪Here MAD = the median of {|ϵ(t)-ε̂|) with ε̂ as the median of {|ε(t‬‬

‫ﻣﺜﺎل ﻗﺒﻞ ﺑﺎ ﻧﻮرم ﺟﺪﻳﺪ‬

‫ﻣﻘﺪار زﻳﺮ را ﻣﻲ دﻫﺪ‬

‫ﻛﻪ ﻧﺸﺎن ﻣﻲ دﻫﺪ ﻧﻮرم ﺑﻪ ‪ outlier‬ﺣﺴﺎس ﻧﻴﺴﺖ‪) .‬ﻛﺎﻫﺶ از ‪ 11‬ﺑﻪ ‪.(1.015‬‬


‫اﮔﺮ ﺗﺎﺑﻊ ﺗﻮزﻳﻊ ﻧﺮﻣﺎل ﺑﺎﺷﺪ ﺑﺎ اﻳﻦ ﻧﻮرم ﻣﻘﺪار ‪k‬‬

‫ﻛﻪ ﻧﺴﺒﺖ ﺑﻪ ‪ 1‬اﻓﺰاﻳﺶ ﻗﺎﺑﻞ اﻫﻤﻴﺘﻲ ﻧﺪارد‬

‫‪17-9‬‬
‫ﻣﺘﻐﻴﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ ﭘﺎراﻣﺘﺮﻳﻚ‬
‫ﻧﻮرم ﻣﻘﺎوم ﺑﻪ ﺗﺮم ‪influence Function‬‬
‫‪ o‬ﻫﺪف اﻳﻦ اﺳﺖ ﻛﻪ ﺗﻚ دﻳﺘﺎ اﺛﺮ زﻳﺎدي ﺑﺮ روي ﺗﺨﻤﻴﻦ ﻧﺪاﺷﺘﻪ ﺑﺎﺷﺪ‪ .‬اﺛﺮ ﺗﻚ دﻳﺘﺎ ﺑﺮ ﺗﺨﻤﻴﻦ در ‪ LS‬اﻳﻨﮕﻮﻧﻪ اﺳﺖ‬
‫‪o‬‬
‫‪ influence o‬ﻳﻚ دﻳﺘﺎ در زﻣﺎن ‪ t‬ﺑﺮ روي ﺗﺨﻤﻴﻦ ﺗﻘﺮﻳﺒﺎ ﺑﺮاﺑﺮ )‪ S(t‬اﺳﺖ‪.‬‬

‫‪ o‬ﺑﻨﺎﺑﺮاﻳﻦ ﻧﻮ‪.‬رم رﺑﺎﺳﺖ ﺑﺎﻳﺪ ﺑﺘﻮاﻧﺪ ﻣﻌﻴﺎر زﻳﺮ را ﺣﺪاﻗﻞ ﻛﻨﺪ‬

‫‪S o‬ﺑﻪ ’‪ ρ‬واﺑﺴﺘﻪ اﺳﺖ ﻫﺮ ﭼﻘﺪر ﻣﺸﺘﻖ ‪ ρ‬ﻛﻮﭼﻚ ﺑﺎﺷﺪ اﺛﺮ ‪ outlier‬ﻛﻤﺘﺮاﺳﺖ‪.‬‬
‫‪ o‬ﺑﺎ ﻣﺤﺎﺳﺒﻪ ‪ S‬ﺑﻌﺪ از ﺗﺨﻤﻴﻦ ﭘﺎراﻣﺘﺮ روﺷﻦ ﻣﻲ ﺷﻮد ﻛﻪ ﻛﺪام ﻣﺸﺎﻫﺪه ‪ considerably influenced‬روي ﺗﺨﻤـﻴﻦ‬
‫داﺷﺘﻪ ﻛﻪ ﺑﺎﻳﺪ ﻧﻘﺶ آن ﻛﺎﻫﺶ ﻳﺎﺑﺪ‪.‬‬
‫‪ :Detecting Outliers o‬از ﻣﺸﺎﻫﺪه ﻧﻤﻮدار ﺑﺎﻗﻴﻤﺎﻧﺪه )‪ ε(t, θ̂N‬ﺑﻪ آﺳﺎﻧﻲ ﻣﻲ ﺗـﻮان ‪ outlier‬را ﻣﺸـﺎﻫﺪه و ﻋﻠﻴـﺮﻏﻢ‬
‫ﻧﻮرم ﻣﻘﺎوم اﺛﺮ آﻧﺮا ﻛﺎﻫﺶ داد‬

‫‪18-9‬‬
‫‪ 10‬ﭘﺎراﻣﺘﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ‬

‫‪Ljung chapter 16‬‬ ‫‪ 1-10‬اﻧﺘﺨﺎب ﻣﺪل ﭘﻴﺶ ﺑﻴﻨﻲ ‪Model selection‬‬


‫ﻣﻮﺿﻮﻋﺎت ﻣﺮﺗﺒﻂ ﺑﺎ اﻧﺘﺨﺎب ﻣﺪل ﻋﺒﺎرﺗﻨﺪ از‪:‬‬
‫‪ (١‬اﻧﺘﺨﺎب ﻧﻮع ﻣﺪل‬
‫‪ (2‬اﻧﺘﺨﺎب درﺟﻪ ﻣﺪل‬
‫‪ (3‬ﻧﺤﻮه ﭘﺎراﻣﺘﺮ ﺑﻨﺪي ﻣﺪل ‪. :Moldel Parametrization‬‬
‫‪ (4‬ﻣﻌﻴﺎر ﻫﺎي ﻛﺒﻔﻴﺖ ﻣﺪل‪:‬‬
‫‪ (5‬ﻫﺰﻳﻨﻪ ﻣﺤﺎﺳﺒﺎﺗﻲ ﻣﺪل‬
‫‪ (6‬اﻋﺘﺒﺎر ﺳﻨﺠﻲ ‪: Validation‬اﺳﺘﻔﺎده از ‪ ZN‬ﺑﺮاي اﻋﺘﺒﺎر ﺳﻨﺠﻲ ﻣﺪل اﻧﺘﺨﺎب ﺷﺪه ﻧﻬﺎﻳﻲ‬

‫‪ : 1-1-10‬ﺳﺎﺧﺘﺎر ﻣﺪل‬
‫ﺳﺎﺧﺘﺎر ﻣﺪل ﻣﺎﻧﻨﺪ اﻧﺘﺨﺎب ﻧﻮع ﺧﻄﻲ‪ ،‬ﻓﻀﺎي ﺣﺎﻟﺖ‪ ،‬ﻏﻴﺮ ﺧﻄﻲ‪ ،‬ﺟﻌﺒﻪ ﺳﻴﺎه و … اﺳﺖ‪ .‬در اﻳﻦ راﺑﻄﻪ‬
‫اﻃﻼﻋﺎت ﻗﺒﻠﻲ‪A PRIORI CONSIDERATIONS‬‬
‫‪ (1‬از ﺑﺮرﺳﻲ ﺗﺌﻮرﻳﻚ ﺳﻴﺴﺘﻢ و ﻧﻮﺷﺘﻦ ﻣﻌﺎدﻻت دﻳﻔﺮاﻧﺴﻴﻞ ﺳﺎﺧﺘﺎر ﻣﺪل ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪ .‬ﺑﺮ اﺳﺎس ﻣﻌـﺎدﻻت ﻣﺘﻌﺎﻗﺒـﺎ‬
‫ﻣﻲ ﺗﻮان ﻣﺸﺘﻖ اول و دوم ﺗﺎﺑﻊ ﻣﻌﻴﺎر ‪ V‬را ﻣﺤﺎﺳﺒﻪ و در ﺷﻨﺎﺳﺎﻳﻲ ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار داد‪.‬‬
‫‪ (2‬وﺟﻮد ﻣﻌﺎدﻟﻪ رﻳﺎﺿﻲ ﺑﻪ اﻳﻦ ﻣﻌﻨﻲ ﻧﻴﺴﺖ ﻛﻪ ﺿﺮورﺗﺎ ﻫﻤﺎن ﻣﺪل ﻛﻠﻲ ﺑﺎ ﺗﻤﺎم ﭘﻴﭽﻴـﺪﮔﻴﻬﺎﻳﺶ ﺑﺎﻳـﺪ ﺷﻨﺎﺳـﺎﻳﻲ ﺷـﻮد‪.‬‬
‫ﺗﻮﺟﻪ ﺑﻪ ﻣﺎﻫﻴﺖ دﻳﺘﺎ ﻣﻤﻜﻦ اﺳﺖ ﻧﺸﺎن دﻫﺪ ﻛﻪ دﻳﺘﺎي ورودي از ﻳﻚ ﻋﺎﻣﻞ ﻏﻴﺮ ﺧﻄﻲ )ﻟﮕـﺎرﻳﺘﻢ‪ ،‬ﺳـﻬﻤﻲ و …( ﻋﺒـﻮر‬
‫داده ﺷﺪه و ﺳﭙﺲ ﻣﺪل ﺧﻄﻲ ﺑﻪ ﺟﺎي ﻣﺪل ﻏﻴﺮ ﺧﻄﻲ ﺷﻨﺎﺳﺎﻳﻲ ﺷﻮد‪ .‬رﻓﺘﺎر ﻏﻴﺮ ﺧﻄـﻲ ﺳﻨﺴـﻮرﻫﺎ و ﻣﺤﺮﻛﻬـﺎ از ﻗﺒـﻞ‬
‫ﻣﻤﻜﻦ اﺳﺖ ﻣﻌﻠﻮم ﺑﺎﺷﻨﺪ ﺗﺎ در ﺗﺸﻜﻴﻞ ﺑﺮدار رﮔﺮﺳﻴﻮن ﻟﺤﺎظ ﺷﻮﻧﺪ‪.‬‬
‫آﻧﺎﻟﻴﺰ ﻣﻘﺪﻣﺎﺗﻲ دﻳﺘﺎ اﻧﺪازه ﮔﻴﺮي ﺷﺪه ‪ ZN‬ﺑﺮاي ﻳﺎﻓﺘﻦ ﺳﺎﺧﺘﺎر ﻣﻨﺎﺳﺐ‪:‬‬
‫‪ (3‬اﻳﻦ ﺑﺨﺶ ﺑﻪ اﻧﺪازه ﻛﺎﻓﻲ ﺗﻮﺳﻌﻪ ﻧﻴﺎﻓﺘﻪ اﺳﺖ ﺑﺠﺰ در ارﺗﺒﺎط ﺑﺎ ﺳﻴﺴﺘﻤﻬﺎي ﺧﻄﻲ‪ .‬ﺑﻪ ﻧﻈﺮ ﻣﻴﺮﺳﺪ ﺑﺘﻮان ﺑﺎ آﻧﺎﻟﻴﺰﻫـﺎي‬
‫ﻏﻴﺮﭘﺎراﻣﺘﺮﻳﻚ ﻧﻮع ارﺗﺒﺎط ﺑﻴﻦ ﻣﺘﻐﻴﺮﻫﺎ را ﻛﺸﻒ ﻛﺮد‪ .‬اﻳﻦ ﻣﻮﺿﻮع در ﻣﺒﺎﺣﺚ آﻣﺎري ﻣﻮرد ﺗﻮﺟﻪ ﻗﺮار ﮔﺮﻓﺘـﻪ اﺳـﺖ وﻟـﻲ‬

‫‪1-10‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ ‪ :‬ﭘﺎراﻣﺘﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ‬
‫ﻫﻨﻮز ﺑﻪ درﺳﺘﻲ وارد ﺣﻮزه ﺷﻨﺎﺳﺎﻳﻲ ﻧﺸﺪه اﺳﺖ‪ .‬ﻣﺜﻼ ﺗﺸﺨﻴﺺ وﺟﻮد ﻋﺎﻣﻞ ﻏﻴﺮ ﺧﻄﻲ در ﻣـﺪل را ﺑـﺎ ‪higher (than‬‬
‫‪ second) order correlations and spectra‬ﺗﻌﻴﻴﻦ ﻛﺮد‪.‬‬
‫‪ (4‬ﺑﺪﻟﻴﻞ ﻣﺸﻜﻼت و ﭘﻴﭽﻴﺪﮔﻴﻬﺎي ﻓﻮق‪ ،‬ﻣﺪل ‪ black box‬ﻣﻤﻜﻦ اﺳﺖ ﺗﺮﺟﻴﺢ داده ﻣﻲ ﺷﻮد‪ .‬ﻛﻪ از ﻣﺪل ﺳﺎده ﺷـﺮوع‬
‫واﮔﺮ ﻧﺘﻮاﻧﺴﺖ آزﻣﻮن ‪ validation‬ﻣﻮﻓﻖ ﺷﻮد ﻣﺪل را ﭘﻴﭽﻴﺪه ﺗﺮ ﺷﻮد‪ .‬ﻣﺪل رﮔﺮﺳﻴﻮن ﺧﻄـﻲ و ‪ LS‬اﻧﺘﺨﺎﺑﻬـﺎي ﺧـﻮﺑﻲ‬
‫ﺑﺮاي ﺷﺮوع ﻫﺴﺘﻨﺪ‪ .‬ﻫﺮﭼﻘﺪر دﻳﺘﺎ ﺧﻮب ﺑﺎﺷﺪ اﮔﺮ ﻣﺪل ﻣﻨﺎﺳﺐ ﻧﺒﺎﺷﺪ اﻧﺘﻈﺎر ﺷﻨﺎﺳـﺎﻳﻲ ﺧـﻮب را ﻧﺒﺎﻳـﺪ داﺷـﺖ‪ .‬ﻧﺘﻴﺠـﻪ‬
‫اﻳﻨﻜﻪ روﺷﻬﺎي اﺑﺘﻜﺎري و ‪ physical inshght‬ﺑﺮاي ﺗﻮﻓﻴﻖ ﺿﺮوري اﺳﺖ ﻛﻪ ﻧﻤﻴﺘﻮان آﻧﺮا ﺑﺼﻮرت اﺗﻮﻣﺎت در آورد‪.‬‬

‫‪ 2-1-10‬درﺟﻪ ﻣﺪل‬
‫ﻣﺜﻞ درﺟﻪ ﭼﻨﺪﺟﻤﻠﻪ اﻳﻬﺎ‪ ،‬ﻣﺮﺗﺒﻪ ﻣﺎﺗﺮﻳﺲ ﻓﻀﺎي ﺣﺎﻟﺖ‪ ،‬ﺗﻌﺪاد ﻧﺮوﻧﻬﺎي ﻣﺪل ﺷﺒﻜﻪ ﻋﺼﺒﻲ‬
‫اﻃﻼﻋﺎت ﻗﺒﻠﻲ‪:‬‬
‫‪ physical insight (١‬ﻣﺪل رﻳﺎﺿﻲ ﺑﻪ ﺧﻮﺑﻲ ﻣﺮﺗﺒﻪ ﻣﻮرد ﻧﻴﺎز ﻣﺪل را ﻧﻴﺰ ﻧﺸﺎن دﻫﺪ‬
‫‪ (2‬ﺗﻌﺪاد دﻳﺘﺎ ‪ N‬ﻧﺸﺎن ﻣﻲ دﻫﺪ ﻛﻪ ﭼﻪ ﺗﻌﺪاد ﭘﺎراﻣﺘﺮ ﺑﺮ اﺳﺎس آن اﺻﻮﻻ ﻗﺎﺑﻞ ﺗﺨﻤﻴﻦ اﺳـﺖ‪ .‬ﺑـﺎ ﺗﻌـﺪاد دﻳﺘـﺎي ﻣﻌـﺪود‬
‫ﻣﻌﻘﻮل ﻧﻴﺴﺖ ﻛﻪ ﻛﻪ ﻣﺪل ﺷﻨﺎﺳﺎﻳﻲ ﭘﻴﭽﻴﺪه در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﻮد‬
‫‪ (3‬از ﻧﻈﺮ ﻣﺤﺎﺳﺒﺎﺗﻲ ﻣﻤﻜﻦ اﺳﺖ ﻣﺸﻜﻞ ﺑﺎﺷﺪ ﻛﻪ ﺑﻴﺶ از ‪ 2-3 decade‬ﻓﺮﻛﺎﻧﺴﻲ را ﺑﺎ ﻳﻚ ﻣﺪل ﺑﺨـﻮﺑﻲ ﺗﺨﻤـﻴﻦ زد‪.‬‬
‫در ﻣﺪل ﺑﺎ ﭘﻬﻨﺎي ﺑﺎﻧﺪ زﻳﺎد رﻓﺘﺎر ﻣﺪﻫﺎي ﻓﺮﻛﺎﻧﺲ ﭘﺎﻳﻴﻦ ﻫﻤﮕﻲ ﺷﺒﻴﻪ اﻧﺘﮕﺮال اﺳﺖ‪ .‬ﻳﻌﻨـﻲ ‪ p≈0‬ﻣﺜـﻞ ‪ p=0‬دﻳـﺪه ﻣـﻲ‬
‫ﺷﻮد‪ .‬ﻫﻤﭽﻨﻴﻦ در ﻣﺪل ﻓﺮﻛﺎﻧﺲ ﭘﺎﻳﻴﻦ رﻓﺘﺎر ﻓﺮﻛﺎﻧﺲ ﺑﺎﻻ ﻣﺎﻧﻨﺪ رﻓﺘﺎر اﺳﺘﺎﺗﻴﻜﻲ )ﺑﺪون دﻳﻨﺎﻣﻴﻚ( دﻳﺪه ﻣﻲ ﺷﻮد‪.‬‬
‫‪ (4‬آﻧﺎﻟﻴﺰ ﻓﺮﻛﺎﻧﺲ ﻧﻤﻮﻧﻪ ﺑﺮداري‪ ،‬ﺳﻴﮕﻨﺎل ﺗﺤﺮﻳﻚ و ‪ N‬ﺑﻪ وﺿﻮح ﻧﺸﺎن ﻣﻲ دﻫﺪ ﻛﻪ ﺛﺎﺑﺖ زﻣﺎﻧﻴﻬﺎي ﺑﺎ ﻓﺎﺻـﻠﻪ ‪ 3‬دﻫـﻪ را‬
‫ﻧﻤﻴﺘﻮان در ﻳﻚ آزﻣﺎﻳﺶ ﺗﺨﻤﻴﻦ زد‪ .‬اﮔﺮ ﺳﻴﺴﺘﻢ ‪ stiff‬ﺑﺎﺷﺪ‪ ،‬ﻳﻌﻨﻲ ﻣﻘﺎدﻳﺮ ﺛﺎﺑﺖ زﻣﺎﻧﻲ ﻫﺎ از ﻫﻢ دور ﺑﺎﺷﻨﺪ و ﻫﻤﻪ ﺛﺎﺑﺖ‬
‫زﻣﺎﻧﻴﻬﺎ ﺑﺎﻳﺪ ﺑﺨﻮﺑﻲ ﺷﻨﺎﺳﺎﻳﻲ ﺷﻮﻧﺪ‪ ،‬ﺗﻌﺪادي ﻣﺪل ﺑﺎ ﻓﺮﻛﺎﻧﺲ ﻧﻤﻮﻧﻪ ﺑﺮداري ﻣﻨﺎﺳﺐ ﺑﺎﻳﺪ ﺳﺎﺧﺖ ﺗﺎ ﻫﺮﻳـﻚ ﺛﺎﺑـﺖ زﻣـﺎﻧﻲ‬
‫ﻣﺸﺨﺼﻲ را ﺗﺨﻤﻴﻦ ﺑﻴﻨﻨﺪ‬
‫ﺑﺮ اﺳﺎس آﻧﺎﻟﻴﺰ ﻣﻘﺪﻣﺎﺗﻲ دﻳﺘﺎ ﻣﻮﺟﻮد ‪ZN‬‬
‫ﺑﺎ آﻧﺎﻟﻴﺰ اوﻟﻴﻪ ‪ ZN‬اﻃﻼﻋﺎﺗﻲ در ﺑﺎره درﺟﻪ ﻣﺪل اﺳﺘﺨﺮاج ﻣﻲ ﮔﺮدد‪ .‬آﻧﺎﻟﻴﺰﻫﺎ ﻣﺮﺑﻮط ﺑﻪ ﺳﻴﺴﺘﻢ ﺧﻄﻲ ﻋﺒﺎرﺗﻨﺪ از‪:‬‬
‫• ﺑﺮرﺳﻲ ﻃﻴﻒ ﺗﺨﻤﻴﻦ زده ﺷﺪه‬
‫• رﻧﻚ ﻣﺎﺗﺮﻳﺲ ﻛﻮارﻳﺎﻧﺲ ‪R‬‬
‫• ﺑﺮرﺳﻲ ﻫﻤﺒﺴﺘﮕﻲ ﺑﻴﻦ ﻣﺘﻐﻴﺮﻫﺎ و ﻣﺎﺗﺮﻳﺲ ‪(M) Information‬‬
‫‪Spectral analysis estimate (5‬‬
‫ﻃﻴﻒ ﺑﺼﻮرت ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ ﺗﺨﻤﻴﻦ زده ﻣﻲ ﺷﻮد‪ .‬ﺗﻌﺪاد ﻗﻠﻪ ﻫﺎ‪ ،‬ﺷﻴﺐ اﻓﺖ ﭘﺎﺳﺦ ﻓﺮﻛﺎﻧﺴﻲ و ﻓﺎز آن اﻃﻼﻋﺎت ﺧﻮﺑﻲ در‬
‫ﺧﺼﻮص درﺟﻪ ﺳﻴﺴﺘﻢ ﻣﻲ دﻫﻨﺪ‪ .‬اﻟﺒﺘﻪ در ﭘﺎﺳﺦ ﻓﺮﻛﺎﻧﺴﻲ ﺳﻴﺴﺘﻢ ﮔﺴﺴﺘﻪ ‪ artifact‬ﻫﺎﻳﻲ وﺟﻮد دارد ﻛﻪ ﻧﺒﺎﻳﺪ ﻓـﺮد را‬
‫در ﺧﺼﻮص ﺗﻌﺪاد ﺻﻔﺮﻫﺎ و ﻗﻄﺒﻬﺎ ﺑﻪ اﺷﺘﺒﺎه ﺑﻴﻨﺪازد‬

‫‪2-10‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ ‪ :‬ﭘﺎراﻣﺘﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ‬
‫‪ (6‬ﺑﺮرﺳﻲ رﻧﻚ ﻣﺎﺗﺮﻳﺲ ‪: R‬‬
‫ﺑﺮاي ﺳﻴﺴﺘﻢ‬

‫• وﻗﺘﻲ ﻧﻮﻳﺰ ﺻﻔﺮ اﺳﺖ ﻣﺎﺗﺮﻳﺲ ﺧﻮد ﻫﻤﺒﺴﺘﮕﻲ ‪ R‬ﺑﺮاي ‪ s≤n‬ﻏﻴﺮ ﻣﻨﻔﺮد و ﺑﺮاي ‪ s>n‬ﻣﻨﻔﺮد اﺳﺖ‬

‫• ودر ﺣﺎﻟﺖ ﻧﻮﻳﺰي وﻗﺘﻲ ‪ u‬و ‪ v0‬ﻏﻴﺮ ﻫﻤﺒﺴﺘﻪ ﻫﺴﺘﻨﺪ ﻣﺎﺗﺮﻳﺲ ﻫﻤﺒﺴﺘﮕﻲ ﻣﺘﻘﺎﺑﻞ زﻳﺮ ﺑﺮاي ‪ s >n‬ﻣﻨﻔﺮد و ﺑﺮاي ‪s ≤ n‬‬
‫ﻣﻨﻔﺮد اﺳﺖ‬

‫• اﮔﺮ ‪ v0‬ﺗﺎﺑﻊ ‪ MA‬ﻣﺮﺗﺒﻪ ‪ r‬ﺑﺎﺷﺪ ﻛﻪ ‪ r‬ﻣﺸﺨﺺ اﺳﺖ ﺑﻪ ﻧﺤﻮﻳﻜﻪ )‪ y(t-r-1‬و ‪ v0‬ﻏﻴﺮ ﻫﻤﺒﺴﺘﻪ ﺑﺎﺷﻨﺪ ﻣﻲ ﺗﻮان از‬
‫ﺑﺎ ‪ 16.14‬اﺳﺘﻔﺎده ﻛﺮد‬

‫روش ‪ IV‬اﮔﺮ درﺟﻪ ﺑﺎﻻﺑﺎﺷﺪ ﻣﺎﺗﺮﻳﺲ زﻳﺮ ﻣﻨﻔﺮد ﻣﻲ ﺷﻮد‬

‫‪ (7‬آﻧﺎﻟﻴﺰ ﻫﻤﺒﺴﺘﮕﻲ ﺑﻴﻦ ﻣﺘﻐﻴﺮﻫﺎ‬


‫ﺳﻮال اﻳﻦ اﺳﺖ ﻛﻪ آﻳﺎ ﻣﺘﻐﻴﺮ ﺟﺪﻳﺪ دﻳﮕﺮي را ﺑﺎﻳﺪ در ﻣﺪل ﻟﺤﺎظ ﻛﺮد ﻳﺎ ﻧﻪ‪ .‬اﻳﻦ ﻣﺘﻐﻴﺮ اﺿﺎﻓﻲ ﻣﻲ ﺗﻮاﻧﺪ )‪ y(t-n-1‬ﻳﺎ اﺛﺮ‬
‫اﺧﺘﻼل )‪ w(t‬ﺑﺎﺷﺪ ﻛﻪ آﻧﺮا )‪ w(t‬ﺑﻨﺎﻣﻴﻢ‪ .‬ﺣﺎل )‪ w(t‬واﻗﻌﺎ ﺑﺎﻳﺪ در ﻣﺪل ﻟﺤﺎظ ﺷﻮد اﮔﺮ ﺑﺎ‬
‫ﻫﻤﺒﺴﺘﮕﻲ داﺷﺘﻪ ﺑﺎﺷﺪ‪ .‬اﻳﻦ ﺑﻪ ﻧﺎم ﻫﻤﺒﺴﺘﮕﻲ )‪ canonical (or partial‬ﺧﻮاﻧﺪه ﻣﻲ ﺷﻮد‪.‬‬
‫‪ (8‬رﻧﻚ ﻣﺎﺗﺮﻳﺲ ‪Fisher information matrix M‬‬
‫‪ (9‬ﺗﺌﻮري ‪ 4.1‬ﻣﻲ ﮔﻮﻳﺪ ﻛﻪ اﮔﺮ درﺟﻪ ﻣﺪل ‪ overestimated‬ﺑﺎﺷﺪ اﻣﻜﺎن دارد ‪ identifiability‬از دﺳﺖ ﺑﺮود ﺑﻪ اﻳـﻦ‬
‫ﻋﺒﺎرت ﻛﻪ )‪ψ(t, θ‬در *‪ θ = θ‬ﻣﺎﺗﺮﻳﺲ ‪ full rank‬ﻧﺒﺎﺷﺪ و ﻣﺘﻌﺎﻗﺒﺎ ‪ M‬ﻣﻨﻔﺮد ﺷﻮد‪.‬‬

‫‪ 3-1-10‬ﻧﺤﻮه ﭘﺎراﻣﺘﺮ ﺑﻨﺪي ﻣﺪل ‪Moldel Parametrization‬‬


‫ﭘﺎراﻣﺘﺮ ﻧﻮﻳﺴﻲ ﻣﺪل ﺑﻪ ﻧﺤﻮي ﻛﻪ ﻧﺴﺒﺖ ﺑﻪ ﮔﺮد ﻛﺮدن ﭘﺎراﻣﺘﺮﻫﺎ ﺣﺴﺎس ﻧﺒﺎﺷﺪ‪ .‬اﻳﻦ اﻣﺮ در ﻓﻴﻠﺘﺮ ﺑﺴﻴﺎر ﻣـﻮرد ﺑﺤـﺚ‬
‫ﻗﺮار ﮔﺮﻓﺘﻪ )‪ (Low sensitivity filters‬وﻟﻲ در ﺷﻨﺎﺳﺎﻳﻲ ﻛﻤﺘﺮ ﻣﻮرد ﺗﻮﺟﻪ ﻗﺮار ﮔﺮﻓﺘﻪ اﺳﺖ‬
‫• ﻣﺪل ورودي‪ -‬ﺧﺮوﺟﻲ ﻛﻪ در ﺷﻨﺎﺳﺎﻳﻲ اﺳﺘﻔﺎده ﻣﻲ ﻛﻨﻴﻢ ﺷﺪﻳﺪا ﺑﻪ ﺧﻄﺎي ﻣﺤﺎﺳﺒﺎﺗﻲ ﺣﺴﺎس اﺳﺖ‪ .‬اﻏﻠﺐ ﻳﻚ ﺗـﺎﺑﻊ‬
‫ﺗﺒﺪﻳﻞ درﺟﻪ ﺑﺎﻻ ﻣﺜﻞ ‪ 10‬را ﺑﺼﻮرت ﺿﺮب ﻳﺎ ﺟﻤﻊ ‪ 5‬ﭼﻨﺪ ﺟﻤﻠﻪ اي درﺟﻪ ‪ 2‬ﻧﻮﺷﺘﻪ ﺷﻮد‪.‬‬
‫• در ﻣﺪل ﻓﻀﺎي ﺣﺎﻟﺖ ﻣﺪل ‪ observability canonical form‬ﻛﻪ ﭘﺎراﻣﺘﺮﻫﺎي ﻣـﺪل ورودي‪-‬ﺧﺮوﺟـﻲ ﻳـﻚ ﺳـﺘﻮن‬
‫ﻣﺎﺗﺮﻳﺲ ‪ A‬ﻓﻀﺎي ﺣﺎﻟﺖ ﻧﻈﻴﺮ را اﺷﻐﺎل ﻣﻲ ﻛﻨﻨﺪوﺿﻌﻴﺖ ﺑﻬﺘﺮ اﺳﺖ‪.‬‬
‫• ﺳﺎﺧﺘﺎرﻫﺎي دﻳﮕﺮ ‪ Ladder/Lattice ،wave digital filter‬و ﻣﺸﺎﺑﻪ آن ﻫﺴﺘﻨﺪ‪.‬‬

‫‪3-10‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ ‪ :‬ﭘﺎراﻣﺘﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ‬
‫را ﺑﺮ ‪q-l‬ﺗﺮﺟﻴﺢ ﻣﻲ دﻫﻨﺪ ‪.‬‬ ‫ﺟﻤﻌﻲ روش ﻣﺪﻟﺴﺎزي ﺑﺎ‬

‫‪ 4-1-10‬ﻫﺰﻳﻨﻪ ﻣﺤﺎﺳﺒﺎﺗﻲ ﻣﺪل‪algorithm complexity‬‬


‫ﺣﺠﻢ ﻣﺤﺎﺳﺒﺎت ﺷﻨﺎﺳﺎﻳﻲ ﺑﺎ اﻓﺰاﻳﺶ ﺳﺎﻳﺰ ﻣﺪل اﻓﺰاﻳﺶ ﻣﻲ ﻳﺎﺑﺪ‪ .‬ﻋﻼوه ﺑﺮ اﻳﻦ ﺣﺠﻢ ﻣﺤﺎﺳﺒﺎت در اﺳﺘﻔﺎده ﺑﻌـﺪي ﻣﺜـﻞ‬
‫ﻛﺎرﺑﺮد ﻛﻨﺘﺮﻟﻲ ﻧﻴﺰ ﺑﺎﻻﺳﺖ ﻟﺬا ﻣﺪل ﺳﺎده ﺗﺮ ‪ intended use‬ﻣﺮﺟﺢ اﺳﺖ ‪ .‬ﺗﺎﺑﻊ ﺧﻄﺎ ‪ ℓ‬ﻧﻴﺰ ﺑـﺮ ﺣﺠـﻢ ﻣﺤﺎﺳـﺒﺎت ﺗـﺎﺛﻴﺮ‬
‫دارد‬

‫‪ 5-1-10‬اﻧﺘﺨﺎب ﻣﺪل ﺑﺮ ﺣﺴﺐ ﻛﻴﻔﻴﺖ‬


‫ﻣﻌﻴﺎر ارزﻳﺎﺑﻲ ﺑﺎﻳﺎس و وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ اﺳﺖ‪.‬‬

‫ﺑﻬﺒﻮد ﺑﺎﻳﺎس و وارﻳﺎﻧﺲ ‪ conflicting‬ﻫﺴﺘﻨﺪ‪ .‬ﻣﻌﻴﺎر ﭘﻴﺶ ﺑﻴﻨﻲ ‪ k‬ﮔﺎم ﺑﻪ ﺟﻠﻮ ﻧﻴﺰ ﺑﺮاي ﻣﻘﺎﻳﺴـﻪ ﻣـﺪﻟﻬﺎ اﺳـﺘﻔﺎده ﻣـﻲ‬
‫ﺷﻮد‪.‬‬
‫• ﻛﺎﻫﺶ ﺑﺎﻳﺎس‪ :‬ﻣﺪل ﺳﺎﻳﺰ ﺑﺰرگ )ﻗﺎﺑﻞ اﻧﻌﻄﺎف( ‪ Flexible model‬ﺑﺎﻳﺎس را ﻛﺎﻫﺶ ﻣﻲ دﻫﺪ‪ .‬اﻳـﻦ ﻣـﺪﻟﻬﺎ ﻗﺎﺑﻠﻴـﺖ‬
‫اراﺋﻪ ﺳﻴﺴﺘﻤﻬﺎي زﻳﺎدي را ﺑﻪ دﻟﻴﻞ داﺷﺘﻦ ﭘﺎراﻣﺘﺮ زﻳﺎد و ﻳﺎ ﭘـﺎراﻣﺘﺮ در ﻣﻮﻗﻌﻴـﺖ ﻣﻨﺎﺳـﺐ "‪"strategic positions.‬‬
‫دارﻧﺪ)‪(16.5‬‬
‫• ﻛﺎﻫﺶ وارﻳﺎﻧﺲ‪ :‬در ﻣﺪل ﺳﺎﻳﺰ ﻛﻮﭼﻚ )اﻗﺘﺼﺎدي( ‪ Parsimony‬وارﻳﺎﻧﺲ ﻛﻤﺘﺮاﺳﺖ‪ .‬وارﻳﺎﻧﺲ ﻣﺘﻨﺎﺳـﺐ ﺑـﺎ ﺗﻌـﺪاد‬
‫ﭘﺎراﻣﺘﺮﻫﺎﺳﺖ‪.‬‬
‫اﻟﻒ( ﻣﻌﻴﺎر ﻣﻘﺎﻳﺴﻪ‪k step ahead prediction :‬‬
‫ﻣﻌﻴﺎر ﻣﻘﺎﻳﺴﻪ ﻗﺎﺑﻠﻴﺖ ﺑﺎز ﺗﻮﻟﻴﺪ دﻳﺘﺎ ﺗﻮﺳﻂ ﻣﺪل اﺳﺖ‪ .‬در ﺳﻴﺴﺘﻢ ﺧﻄﻲ ‪ y=Gu+He‬و دﻳﺘﺎي‬

‫ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬ ‫ﭘﻴﺶ ﺑﻴﻨﻲ ‪k‬ﮔﺎم ﺑﻪ ﺟﻠﻮ‬

‫اﻳﻦ ﭘﻴﺶ ﺑﻴﻨﻲ ﺑﺮاي ∞…‪ k=1‬ﻣﺤﺎﺳﺒﻪ ﻣﻲ ﺷﻮد‪ .‬ﺑﺮاي ∞=‪ k‬ﺑﺎ ‪ s‬و ﺑﺮاي ‪ k=1‬ﺑﺎ ‪ p‬ﻧﻮﺷﺘﻪ ﻣﻲ ﺷﻮد‬

‫در ﻧﺘﻴﺠﻪ ﻣﻌﻴﺎر ارزﻳﺎﺑﻲ زﻳﺮ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬

‫ﻣﺪل ﺑﺎ ‪ J‬ﻛﻮﭼﻜﺘﺮ ﻣﻨﺎﺳﺒﺘﺮ اﺳﺖ‪ .‬ﻣﻌﻴﺎر ﻧﺴﺒﻲ زﻳﺮ را ﻧﻴﺰ ﻣﻤﻜﻦ اﺳﺖ ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار داد ﻛﻪ ‪ R‬ﺑـﺰرگ ﻣـﺪل ﺧـﻮﺑﺘﺮ‬
‫اﺳﺖ‬

‫‪4-10‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ ‪ :‬ﭘﺎراﻣﺘﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ‬

‫‪Cross-validation‬‬
‫ﺑﺮاي ﻣﺤﺎﺳﺒﻪ ‪ J‬از دﻳﺘﺎي ‪ fresh‬اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد‪ .‬دﻳﺘﺎي ﺗﺎزه‪ ،‬ﺑﺨﺸﻲ از دﻳﺘﺎﺳﺖ ﻛﻪ ﺑﺮاي ﺗﺴﺖ ﮔﻨﺎر ﮔﺬاﺷﺘﻪ ﺷـﺪه و‬
‫در ﺷﻨﺎﺳﺎﻳﻲ ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار ﻧﮕﺮﻓﺘﻪ اﺳﺖ‪ .‬اﺳﺘﻔﺎده از دﻳﺘﺎي دﺳﺖ دوم ﻣﻨﺠﺮ ﺑﻪ ﺑﺎﻳﺎس در ﺗﺨﻤﻴﻦ ‪ J‬ﻣﻲ ﺷﻮد‪.‬‬
‫‪ Jp‬ﺑﺎ ﻣﻌﻴﺎر ﺧﻄﺎي درﺟﻪ ‪Akaike's Final Prediction-Error Criterion (FPE) :2‬‬
‫در ﺣﺎﻟﺖ ﻣﻌﻴﺎر ‪ Quadratic‬ﺗﺨﻤﻴﻦ ﺑﺪون ﺑﺎﻳﺎس ‪ J‬را اﻳﻨﮕﻮﻧﻪ ﻣﻲ ﺗﻮان ﺑﺪﺳﺖ ﻣﻲ آورد‪.‬‬

‫ﻛﻪ درﺟﻪ ﻣﺪل در آن دﻳﺪه ﻣﻲ ﺷﻮد‪ .‬ﻫﺮﺟﻪ ﺗﻌﺪاد ﭘﺎراﻣﺘﺮ ﺑﻴﺸﺘﺮ ﺑﺎﺷﺪ ﺟﻤﻠﻪ اول ﺳﻤﺖ راﺳﺖ ﻛﻮﭼﻜﺘﺮ ﻣـﻲ ﺷـﻮد وﻟـﻲ‬
‫ﺑﺎﺷـﺪ‪.‬‬ ‫ﺟﻤﻠﻪ دوم ﺳﻤﺖ راﺳﺖ را ﺑﺰرگ ﻣﻲ ﻛﻨﺪ‪ .‬ﭘﺎراﻣﺘﺮي ﻣﻴﺘﻮاﻧﺪ اﺿﺎﻓﻪ ﺷﻮد ﻛﻪ ارزش ﻛﺎﻫﺶ ‪ VN‬ﺑﻬﺘﺮ از‪2λ 0/N‬‬
‫ﻣﻘﺪار ‪ λ0‬ﻣﻌﻠﻮم ﻧﻴﺴﺖ وﻟﻲ اﮔﺮ ﺗﺨﻤﻴﻦ زده ﺷﻮد ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬

‫• ﻣﺰﻳﺖ رﮔﺮﺳﻴﻮن ﺧﻄﻲ‪ :‬در ﺣﺎﻟﺖ رﮔﺮﺳﻴﻮن ﺧﻄﻲ )‪ (1 step) ŷp(t|mt‬ﻣﺤﺎﺳﺒﻪ و ﻣﺠﻤﻮع ﻣﺮﺑﻌﺎت ﺧﻄﺎﻫـﺎ ﻣﻌﻴـﺎر ‪J‬‬
‫ﺑـﻪ ﻣﻌﻨـﻲ ‪ cross validation‬اﺳـﺖ و دﻳﺘـﺎﻳﻲ ﺑـﺮاي ﺗﺨﻤـﻴﻦ ﻛﻨﺎرﮔﺬاﺷـﺘﻪ ﻧﻤـﻲ ﺷـﻮد ﺑـﻪ اﻳـﻦ روش ‪PRESS‬‬
‫)‪ (Prediction sum of squares‬می ﮔﻮﻳﻨﺪ‬
‫ب( اﻧﺘﺨﺎب ﻣﺪل ﻣﻨﺎﺳﺐ ‪ :‬ﻣﻌﻴﺎرﻫﺎي ‪AIC, BIC, and MDL‬‬

‫و ‪ ε‬ﮔﻮﺳـﻲ )در ﻧﺘﻴﺠـﻪ‬ ‫• ﺑﺮاي روش ‪ PEM‬ﺑﺎﺗـﺎﺑﻊ ارزﻳـﺎﺑﻲ‬


‫ﺗﺨﻤﻴﻦ ﺧﻮب( راﺑﻄﻪ زﻳﺮ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬

‫ﻛﻪ ‪ VN‬ﻣﻌﻴﺎر ﺧﻄﺎي ﭘﻴﺶ ﺑﻴﻨﻲ ﺑﺮاي ﻣﺪل ‪ M‬و )‪ UN(M‬ﺗﺎﺑﻌﻲ ﻛﻪ "‪ "complexity‬ﻣﺪل را ﺑﻴﺎن ﻣﻲ ﻛﻨﺪ‪ .‬ﺷﻜﻞ ﻳـﻚ‬
‫ﻧﻤﻮدار ‪ VN‬را ﺑﺮاي ﻳﻚ ﻣﺪل ﺑﺎ درﺟﻪ ﻫﺎي ﻣﺘﻔﺎوت ﻧﺸﺎن ﻣﻲ دﻫﺪ‬

‫ﺑﺮاي اﻧﺘﺨﺎب ﻣﺪل ﺑﺎ راﻧﺪﻣﺎن ﻣﻌﻴﺎرﻫﺎي زﻳﺮ ﭘﻴﺸﻨﻬﺎد ﺷﺪه اﺳﺖ‬

‫‪5-10‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ ‪ :‬ﭘﺎراﻣﺘﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ‬

‫)‪Akaike Information Criterion(AIC‬‬


‫• ‪ Rissanen‬ﺑﺎ اﻳﻦ اﺳﺘﺪﻻل ﻛﻪ ﻫﺪف ﺷﻨﺎﺳﺎﻳﻲ ﺑﺪﺳﺖ آوردن ‪ shortest possible description‬دﻳﺘﺎﺳﺖ ﻣﻌﻴﺎر زﻳﺮ‬
‫را ﻣﻄﺮح ﻛﺮد ﻛﻪ ﺑﻪ ﻧﺎﻣﻬﺎي )‪ MDL (minimum description length‬و ‪ BIC‬ﺧﻮاﻧﺪه ﻣﻲ ﺷﻮد‬
‫‪Baysian Information Criterion‬‬

‫‪.‬‬

‫‪Model Validation 6-1-10‬‬


‫‪Ljung chapter 16‬‬
‫ﺳﻮاﻟﻲ ﻛﻪ ﻣﻄﺮح ﻣﻲ ﺷﻮد اﻳﻦ اﺳﺖ ﻛﻪ آﻳﺎ ”‪ best" “best‬ﺷﻨﺎﺳﺎﻳﻲ ﺷﺪه واﻗﻌﺎ ﻣﺪل ﺧﻮﺑﻲ اﺳﺖ‪ .‬ﺧﻮب ﺑﻮدن ﻣﺪل را‬
‫ﺑﺎ ﺳﻪ ﻫﺪف ﻣﻲ ﺗﻮان ﻃﺮح ﻛﺮد‪::‬‬
‫• آﻳﺎ ﺳﻴﺴﺘﻢ واﻗﻌﻲ از ﻫﺮ ﻟﺤﺎظ ﺷﻨﺎﺳﺎﻳﻲ ﺷﺪه اﺳﺖ‪ :‬ﭘﺎﺳﺦ ﺑﻪ اﻳﻦ ﺳﻮال ﻣﻤﻜﻦ ﻧﻴﺴﺖ‪.‬‬
‫• آﻳﺎ ﻣﺪل ﺑﺮاي ﻛﺎرﺑﺮد )ﻛﻨﺘﺮل‪ ,‬ﭘﻴﺶ ﺑﻴﻨﻲ…‪ (.‬ﻣﻨﺎﺳﺐ اﺳﺖ‪ :‬ﻣﻤﻜﻦ اﺳﺖ ﺷﻨﺎﺳـﺎﻳﻲ ﺧﻴﻠـﻲ ﺧـﻮب ﻧﺒﺎﺷـﺪ وﻟـﻲ‬
‫ﺳﻴﺴﺘﻢ ﻛﻨﺘﺮل ﺧﻮب ﻛﺎر ﻛﻨﺪ‬
‫• آﻳﺎ ﻣﺪل ﺑﺎ دﻳﺘﺎ ﺗﻄﺒﻴﻖ دارد؟ ﭘﺎﺳﺦ ﺑﻪ اﻳﻦ ﺳﻮال اﻋﺘﺒﺎر ﺳﻨﺠﻲ اﺳﺖ‪.‬‬
‫روﺷﻬﺎي اﻋﺘﺒﺎر ﺳﻨﺠﻲ‪:‬‬
‫‪ (1‬ﻣﻌﻘﻮل ﺑﻮدن ﭘﺎراﻣﺘﺮ ﺗﺨﻤﻴﻨﻲ ﺑﺎ واﻗﻌﻴﺖ‪ :‬اﮔﺮ ﭘﺎراﻣﺘﺮﻫﺎي ﻣﺪل ﻣﻘﺎدﻳﺮ اﻟﻤﺎﻧﻬﺎي ﻓﻴﺰﻳﻜـﻲ ﻫﺴـﺘﻨﺪ‪ ،‬از ﻣﻘﺎﻳﺴـﻪ‬
‫ﺗﺨﻤﻴﻦ و وارﻳﺎﻧﺲ آﻧﻬﺎ ﺑﺎ آﻧﭽﻪ واﻗﻌﺎ ﻣﻤﻜﻦ اﺳﺖ اﺗﻔﺎق ﺑﻴﻔﺘﺪ درﺳﺘﻲ ﻋﻤﻠﻜﺮد ﺳﻨﺠﻴﺪه ﻣﻲ ﺷﻮد‪ .‬ﻣﺜﻼ ﻣﻤﻜﻦ اﺳـﺖ‬
‫ﭘﺎراﻣﺘﺮ ﻣﺮﺗﺒﻂ ﺑﺎ وزن ﺑﺎﺷﺪ ﻛﻪ ﻣﻘﺎدﻳﺮ ﻧﺎﻣﻲ آن در دﺳﺘﺮس اﺳﺖ‪ .‬در اﻳﻦ ﺧﺼﻮص ﺑﺎﻳـﺪ دﻗـﺖ ﺷـﻮد ﻛـﻪ آﻳـﺎ ﻣـﺪل‬
‫ﻧﺴﺒﺖ ﺑﻪ ﺗﺨﻤﻴﻦ آن ﭘﺎراﻣﺘﺮ واﻗﻌﺎ ﺣﺴﺎس ﻫﺴﺖ ﻳﺎ ﻧﻪ؟ اﮔﺰ ﺣﺴﺎس ﻧﺒﺎﺷﺪ اﻣﻜﺎن ﺗﺨﻤﻴﻦ ﺿﻌﻴﻒ وﺟﻮد دارد‪.‬‬

‫‪6-10‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ ‪ :‬ﭘﺎراﻣﺘﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ‬
‫‪ (2‬ﻣﻘﺎﻳﺴﻪ ﻃﻴﻒ ﻣﺪل ﭘﺎراﻣﺘﺮﻳﻚ ﺑﺎ ﻃﻴﻒ ﻏﻴـﺮ ﭘﺎراﻣﺘﺮﻳـﻚ‪ :‬ﻣﻘﺎﻳﺴـﻪ ﻧﻤـﻮدار ﺑـﺪ ﻣـﺪل ﭘﺎراﻣﺘﺮﻳـﻚ & ‪(PEM‬‬
‫)‪ subspace‬ﺑﺪﺳﺖ آﻣﺪه و ﻃﻴﻒ ﺗﺨﻤﻴﻦ زده ﺷﺪه ﺑﺮاي ﺳﺎﺧﺘﺎرﻫﺎي ﻣﺨﺘﻠﻒ ﻣـﺪل ﻣﻌﻴـﺎر ﺧـﻮﺑﻲ ﺑـﺮاي روﺷـﻦ ﺷـﺪن‬
‫ﻗﺎﺑﻠﻴﺖ ﻣﺪل اﺳﺖ‬
‫‪ (3‬ﻗﺎﺑﻠﻴﺖ ‪ Prediction‬ﻣﺪل‪ :‬ﻣﺤﺎﺳﺒﻪ ﭘﻴﺶ ﺑﻴﻨﻲ ‪ Kstep ahead‬ﻛﻪ ﻗﺒﻼ ﺑﺤﺚ ﺷﺪ‪.‬‬
‫‪ (4‬ﺑﺮرﺳﻲ وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ‪ :‬اﮔﺮ ﺑﺮاي ﭘﺎراﻣﺘﺮي ‪ confidence interval‬ﺷﺎﻣﻞ ﺻﻔﺮ ﺷﻮد اﺣﺘﻤـﺎﻻ آن ﭘﺎراﻣﺘﺮاﺿـﺎﻓﻲ‬
‫اﺳﺖ‪ .‬اﮔﺮ ‪ Pθ‬ﺧﻮد ﺑﺰرگ ﺑﺎﺷﺪ ﺑﺎزﻫﻢ ﺑﻪ ﻣﻌﻨﻲ اﺿﺎﻓﻪ ﺑﻮدن ﻣﺮﺗﺒﻪ ﻣﺪل اﺳﺖ‪ .‬اﮔﺮ ﺑﺎ درﺟﻪ ﻣﺪل ﻣﺸﺨﺼﺎت ﻣﻌﻴﺎر ﺗﻄﺒﻴـﻖ‬
‫ﺗﻐﻴﻴﺮ ﻧﻜﺮد ﻣﺪل اﺻﻠﻲ ﺑﺪون ﺿﺮورت ﭘﻴﭽﻴﺪه ﺑﻮده اﺳﺖ‪.‬‬
‫‪:Residue analysis (5‬‬
‫ﺑﺎ اﻧﺠﺎم ﺷﺒﻴﻪ ﺳﺎزي ‪ Simulation‬و ﺑﺪﺳﺖ آوردن ‪ residue‬ﺑﺎ ﺗﺤﻠﻴﻞ آﻣﺎري آن ﻣﻲ ﺗﻮان ﺻﺤﺖ ﻋﻤﻠﻜـﺮد ﻣـﺪل روي‬
‫دﻳﺘﺎ را ارزﻳﺎﺑﻲ ﻛﺮد‪ .‬در ﻧﺘﻴﺠﻪ ﻳﻚ ﺷﻨﺎﺳﺎﻳﻲ ﺧﻮب ﻣﺸﺨﺼﺎت ﺳﻴﮕﻨﺎﻟﻬﺎي آﻣﺎري زﻳﺮ ﺑﺎﻳﺪ اﻳﻨﮕﻮﻧﻪ ﺑﺎﺷﺪ‬
‫‪ϵ(k) zero mean white noise‬‬
‫)‪ϵ(k+τ) independent of u(k) for τ≥0 (past and current inputs‬‬
‫)‪ϵ(k+τ) independent of u(k) for any τ (of all inputs‬‬
‫ﻳﻚ ﺷﻨﺎﺳﺎﻳﻲ ﺧﻮب ﺑﺎﻳﺪ ‪ W‬و ‪ I1‬را ﺗﺎﻣﻴﻦ و در ﺣﺎﻟﺖ ﺣﻠﻘﻪ ﺑﺎز ‪ I2‬ﻧﻴﺰ ﺗﺎﻣﻴﻦ ﺷﻮد‪ .‬اﻳﻦ ﺷﺮوط ﺗﻀﻤﻴﻦ ﻣﻲ ﻛﻨﻨـﺪ ﻛـﻪ‬
‫ﻣﺪل ﭘﻴﺶ ﺑﻴﻨﻲ ﺑﻪ ﺧﻮﺑﻲ ﺳﻴﺴﺘﻢ را ﻣﺪل ﻛﺮده ﻛﻪ ‪ ε‬ﺳﻔﻴﺪ ﮔﺮدﻳﺪه اﺳﺖ‪.‬‬
‫ﺗﺴﺖ ﺳﻔﻴﺪ ﺑﻮدن ‪Whiteness Test :ε‬‬
‫اﮔﺮ ‪ ε‬ﺳﻔﻴﺪ ﺑﺎﺷﺪ ﺗﺎﺑﻊ ﺗﻮزﻳﻊ آن ﻧﺮﻣﺎل اﺳﺖ‪ .‬در ﻧﺘﻴﺠﻪ ﺗﺎﺑﻊ ﺗﻮزﻳﻊ‬
‫‪N‬‬ ‫‪M‬‬
‫(‬ ‫)‬
‫‪2‬‬
‫= ) ‪RˆεN (τ‬‬ ‫‪1‬‬
‫) ‪ ε (t )ε (t − τ )  λN2  RˆεN (τ‬‬
‫‪N‬‬
‫‪τ =1‬‬ ‫‪τ =1‬‬
‫‪2‬‬
‫‪ Chi-squared‬ﺑﺎ درﺟﻪ آزادي ‪ M‬اﺳﺖ‪) .‬ﺗﺎﺑﻊ ﺗﻮزﻳﻊ ﻣﺠﻤﻮع ﻣﺮﺑﻌﺎت ‪ M‬ﻣﺘﻐﻴﺮ ﺗﺼﺎدﻓﻲ ﻧﺮﻣﺎل )‪ χ (M‬اﺳﺖ ﻣﻴـﺎﻧﮕﻴﻦ‬
‫اﻳﻦ ﺗﺎﺑﻊ ﺗﻮزﻳﻊ ‪ M‬و وارﻳﻼﻧﺲ آن ‪ 2M‬اﺳﺖ‪ .‬ﺑﺎ اﻓﺰاﻳﺶ درﺟﻪ آزادي‪ ،‬اﻳﻦ ﺗﺎﺑﻊ ﺑﻪ ﺗﺎﺑﻊ ﻧﺮﻣﺎل ﻣﻴﻞ ﻣﻲ ﻛﻨـﺪ(‪ .‬در ﻧﺘﻴﺠـﻪ‬
‫ﺳﻔﻴﺪﺑﻮدن ‪ ε‬در ﺣﺪ ‪ α level‬اﺳﺖ اﮔﺮ ﺷﺮط زﻳﺮ ﺑﺮﻗﺮار ﺑﺎﺷﺪ‬

‫)) ‪α = P( x > χα2 ( M‬‬

‫‪M‬‬
‫(‬ ‫)‬
‫‪2‬‬
‫) ‪χα2 ( M‬‬
‫‪N‬‬
‫) ‪ RˆεN (τ ) < χα2 ( M‬‬
‫‪( Rε‬‬ ‫‪(0) ) τ =1‬‬
‫‪2‬‬
‫‪ˆN‬‬

‫)ﻣﺜﻼ ﺑﺮاي ‪ M=4‬و ‪ α=0.05‬ﻣﻘﺪار ‪ χα2=9.49‬اﺳﺖ(‪ .‬اﮔﺮ‪ α=0.5‬در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﻮد و ﺷﺮط ﺑﺮﻗﺮار ﺑﺎﺷﺪ ﺳﻴﮕﻨﺎل ‪ϵ‬‬
‫ﺑﻪ اﺣﺘﻤﺎل ‪ 95‬درﺻﺪ ﺳﻔﻴﺪ اﺳﺖ‬

‫‪7-10‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ ‪ :‬ﭘﺎراﻣﺘﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ‬
‫واﺑﺴﺘﮕﻲ ﺑﻴﻦ ورودي ﮔﺬﺷﺘﻪ و ﺑﺎﻗﻴﻤﺎﻧﺪه ﻣﺪل‬
‫ﺑﺮاي ﺑﺮرﺳﻲ از ﻣﻌﻴﺎر زﻳﺮ اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد‬

‫‪M=M2-M1+1=dim ϕ‬‬
‫اﮔﺮ ‪ ε‬ﺑﻨﺎ ﺑﺮ ﻓﺮﻣﻮل ‪ 16.58‬ﺳﻔﻴﺪ ﺗﻠﻘﻲ ﺷﺪ ﻣﻌﻴﺎر ﻣﺴﺘﻘﻞ ﺑﻮدن‪ ،‬ﺳﺎده ﻣﻲ ﺷﻮد‪.‬‬

‫اﮔﺮ ‪ Nα‬را ‪ α-level‬از ﺗﺎﺑﻊ ﺗﻮزﻳﻊ ﻧﺮﻣﺎل)‪ N(0,1‬در ﻧﻈﺮ ﺑﮕﻴﺮﻳﻢ‪ ،‬آﻧﮕﺎه راﺑﻄﻪ زﻳﺮ ﺑﺮﻗﺮار اﺳﺖ‬

‫‪Confidence interval: ±1,Confidencs level: 0.67Alpha level 0.33‬‬


‫‪Confidence interval: ±2,Confidencs level: 0.95Alpha level 0.05‬‬
‫‪Confidence interval: ±3,Confidencs level: 0.99.5Alpha level 0.05‬‬

‫‪α-level‬‬

‫‪0‬‬ ‫‪Na‬‬

‫• ﺑﺎ ‪ α=0.05‬ﻣﻘﺪار ‪ Na=2‬اﺳﺖ و اﮔﺮ راﺑﻄﻪ ﺑﺮ ﻗﺮار ﺑﺎﺷﺪ دو ﺳﻴﮕﻨﺎل ﺑﻪ اﺣﺘﻤﺎل ‪ 95‬درﺻﺪ ﻣﺴﺘﻘﻞ ﻫﺴﺘﻨﺪ‬
‫• رﺳﻢ ﻧﻤﻮدار ‪ R̂ Nϵu‬واﺑﺴﺘﮕﻲ ﺑﻴﻦ ورودي و ‪ ε‬را روﺷﻦ ﻣﻲ ﻛﻨﺪ‬
‫• اﮔﺮ ﺗﺎﺧﻴﺮ ﻏﻠﻂ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﺪه ﺑﺎﺷﺪ ﺑﻪ وﺿﻮح ﺧﻮد را در ﻧﻤﻮدار ﻧﺸﺎن ﻣﻲ دﻫﺪ‪.‬‬
‫• ﻫﻤﺒﺴﺘﮕﻲ ﺑﺮاي ‪ τ<0‬ﺑﻪ ﻣﻌﻨﻲ وﺟﻮد ﻓﻴﺪﺑﻚ اﺳﺖ و ﺑﻪ ﻣﻌﻨﻲ ﻧﺎ ﻣﻨﺎﺳﺐ ﺑﻮدن ﻣﺪل ﻧﻴﺴﺖ‬
‫• در اﻧﺘﺨﺎب ﻣﻘﺎدﻳﺮ ‪ M1‬و ‪ M2‬ﺑﺎﻳﺪ دﻗﺖ ﺷﻮد‪ .‬ﻣﺜﻼ در ﻣﺪل ‪ M1>nb ,ARX‬و اﮔﺮ ﺳﻴﺴـﺘﻢ ﻋﻠـﻲ ﻓـﺮض ﻣـﻲ ﺷـﻮد‬
‫‪ M1≥0‬ﺑﺎﺷﺪ‬
‫• روﺷﻬﺎي دﻳﮕﺮي ﻧﻴﺰ ﺑﺮاي ﺗﻌﻴﻴﻦ ﻋﺪم واﺑﺴﺘﮕﻲ ورودي و ‪ ε‬وﺟﻮد دارد‬
‫• ‪ ε‬ﺗﺨﻤﻴﻦ ﺑﺎﻗﻴﻤﺎﻧﺪه ﻣﺪل اﺳﺖ )‪ ϵ(t)=Gϵ (q)u(t‬ﻛﻪ اﮔﺮ ورودي ﺳﻔﻴﺪ ﺑﺎﺷﺪ ﺑﺮاﺑﺮ‬

‫)‪ϵ(t)=θT ϕ(t‬‬
‫اﺳﺖ‬
‫ﻣﺜﺎل ‪ .1‬ﺳﻴﺴﺘﻤﻲ را درﻧﻈﺮ ﺑﮕﻴﺮﻳﻴﺪ ﻛﻪ ورودي و ﺧﺮوﺟﻲ ﺳﻴﺴﺘﻢ ﺑﺮاي ﺗﺨﻤﻴﻦ و اﻋﺘﺒﺎر ﺳﻨﺠﻲ از اﻳﻨﻘﺮارﻧﺪ‬

‫‪8-10‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ ‪ :‬ﭘﺎراﻣﺘﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ‬

‫;)‪mARX = arx(id, [3, 3, 1]); resid(mARX, id‬‬ ‫وﻗﺘﻲ ﺑﺎ ‪ ARX‬ﺗﺨﻤﻴﻦ زده ﺷﻮد‬
‫ﺑﺎﻗﻴﻤﺎﻧﺪه ﻫﺎي زﻳﺮ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ ﻛﻪ ﻧﺸﺎن ﻣﻲ دﻫﺪ ﻛﻪ ﻣﺪل ﻏﻠﻂ اﻧﺘﺨﺎب ﺷﺪه و ﻣﺮدود اﺳﺖ‬

‫;)‪mOE = oe(id, [3, 3, 1]); resid(mOE, id‬‬ ‫اﻣﺎ ﺑﺎ‬


‫ﺑﺎﻗﻴﻤﺎﻧﺪه ﻫﺎ ي ﻗﺎﺑﻞ ﻗﺒﻮل ﺑﺪﺳﺖ ﻣﻲ آﻳﻨﺪ‬

‫‪9-10‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ ‪ :‬ﭘﺎراﻣﺘﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ‬

‫ﻣﺜﺎل ‪ .2‬ﻣﺜﺎل ﺷﻨﺎﺳﺎﻳﻲ ﻣﺠﻤﻮﻋﻪ ﻣﺪﻟﻬﺎ‬


‫ﺑﺮاي ﺷﻨﺎﺳﺎﻳﻲ ﻳﻚ ﻣﺠﻤﻮﻋﻪ ﻣﺪل و ﻣﻘﺎﻳﺴﻪ آﻧﻬﺎ ﺑﺎ ﻳﻜﺪﻳﮕﺮ از دﺳﺘﻮرات زﻳﺮ ﻣﻲ ﺗﻮان اﺳﺘﻔﺎده ﻛﺮد‬
‫;‪Na = 1:15; Nb = 1:15; Nk = 1:5‬‬
‫;)‪NN = struc(Na, Nb, Nk); V = arxstruc(id, val, NN‬‬
‫که معيارھای ‪ AIC‬و ‪ BIC‬ﻋﻤﻠﻜﺮد ﻣﺪل ﺑﺮاي درﺟﺎت ﻣﺨﺘﻠﻒ را ﻧﺸﺎن ﻣﻲ دﻫﺪ‬

‫ﻣﺜﺎل ‪ .3‬ﻣﺜﺎل‪ :‬ﺳﻴﺴﺘﻢ زﻳﺮ ﺑﺎ ﺳﻴﻨﻮس ﺑﻴﻦ ‪ 0.3-0.6rad/s‬ﺗﺤﺮﻳﻚ‪ e ,‬ﻧﻮﻳﺰ ﺳﻔﻴﺪ ﺑـﺎ وارﻳـﺎﻧﺲ ‪ 1‬و ‪ 500‬ﻧﻤﻮﻧـﻪ ﺟﻤـﻊ‬
‫آوري ﺷﺪ‪.‬‬

‫‪10-10‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ ‪ :‬ﭘﺎراﻣﺘﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ‬
‫• ﻣﺪل ‪ ARX‬درﺟﻪ ‪ 10‬ﺑﻪ آن اﻋﻤﺎل و دﻳﺘﺎي اﻋﺘﺒﺎر ﺳﻨﺠﻲ ﺗﺼﺎدﻓﻲ ﺑﺎﻳﻨﺮي ﺑﺎ رزوﻧﺎﻧﺲ در ‪ 0.3rad/s‬ﻣـﻮرد اﺳـﺘﻔﺎده‬
‫ﻗﺮار ﮔﺮﻓﺖ‪ .‬آﻧﺎﻟﻴﺰ ‪ ε‬در ﺷﻜﻞ )‪ 16.12(a‬و ﭘﺎﺳﺦ ﺿﺮﺑﻪ و ﻓﺮﻛﺎﻧﺴﻲ آن در )‪ 16.12(b‬ﻧﺸﺎن داده ﺷﺪه اﺳﺖ ﻛﻪ ﻧﺸـﺎن‬
‫ﻣﻲ دﻫﺪ ﺗﺨﻤﻴﻦ ﺧﻮﺑﻲ ﺑﺪﺳﺖ اﻣﺪه اﺳﺖ‬

‫‪11-10‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ ‪ :‬ﭘﺎراﻣﺘﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ‬
‫ﻓﺼﻞ ‪13‬‬ ‫‪ 2-10‬ﺷﻨﺎﺳﺎﻳﻲ ‪ G‬در ﺣﻠﻘﻪ ﻓﻴﺪﺑﻚ‬
‫ﻣﺸﻜﻞ اﺻﻠﻲ ﺑﺎ ﺳﻴﺴﺘﻢ ﺣﻠﻘﻪ ﺑﺴﺘﻪ آن اﺳﺖ ﻛﻪ ﻓﻴﺪﺑﻚ ﺗﻼش ﻣﻲ ﻛﻨﺪ ﺣﻠﻘﻪ ﺑﺴـﺘﻪ ﻧﺴـﺒﺖ ﺑـﻪ ‪ G‬ﺣﺴـﺎس ﻧﺒﺎﺷـﺪ در‬
‫ﻧﺘﻴﺠﻪ اﻃﻼﻋﺎت ﻛﻤﻲ در ﺑﺎره ﺳﻴﺴﺘﻢ ﺣﻠﻘﻪ ﺑﺎز از دﻳﺪ ﺣﻠﻘﻪ ﺑﺴﺘﻪ وﺟﻮد دارد‪ .‬روﺷﻬﺎي ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ در ﺣﻠﻘﻪ ﺑﺴﺘﻪ‬
‫در ‪ 3‬دﺳﺘﻪ زﻳﺮ ﻗﺮار ﻣﻲ ﮔﻴﺮﻧﺪ‬

‫‪ : Direct Approach (1‬روﺷﻲ ﻛﻪ ﺻﺮﻓﺎ ﺑﺮ اﺳﺎس ‪ u , y‬ﺷﻨﺎﺳﺎﻳﻲ را اﻧﺠﺎم ﻣﻲ دﻫﺪ‪ .‬و ﻛﺎري ﺑﻪ ‪ r‬و ﻛﻨﺘﺮﻟﺮ ﻧﺪارد‬
‫‪ Indirect Approach (2‬روﺷﻲ ﻛﻪ ﺑﺮ اﺳﺎس ‪ r‬و ‪ y‬ﻛﺎر ﻛﻨﺪ و ﺳﭙﺲ ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻛﻨﺘﺮﻟﺮ ﻣﻌﻠﻮم ﻓﺮاﻳﻨﺪ را ﺷﻨﺎﺳﺎﻳﻲ ﻛﻨﺪ‪.‬‬
‫‪ Joint input-output approach (3‬در اﻳﻦ روش ‪ r‬ورودي و ﻫﻢ ‪ u‬و ‪ y‬ﺧﺮوﺟﻲ ﻫﺴﺘﻨﺪ ﻛﻪ ﺑﺮ اﻳﻦ اﺳﺎس ﺳﻴﺴﺘﻢ‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻣﻲ ﺷﻮد‪.‬‬
‫اﮔﺮ ﻛﻨﺘﺮﻟﺮ ﺧﻄﻲ ‪ u=r-fy‬ﺑﺎﺷﺪ ﻋﻮاﻣﻞ ﻣﺠﻬﻮل را ﺑﻪ ﺳﺎدﮔﻲ و ﺑﺎ دﻳﺘﺎي اﻧﺪك ﻣـﻲ ﺗـﻮان اﺳـﺘﺨﺮاج ﻛـﺮد ﺗـﺎ ﺗﻔـﺎوﺗﻲ در‬
‫روﺷﻬﺎ ﻧﺒﺎﺷﺪ‪ .‬اﻣﺎ در ﻓﺮاﻳﻨﺪﻫﺎي ﻋﻤﻠﻲ ﺻﻨﻌﺘﻲ در ﻧﺘﻴﺠﻪ وﺟﻮد ﻋﻮاﻣﻠﻲ ﻧﻈﻴﺮ ‪ integrator anti windup‬و ﻏﻴﺮه ﺗﻔـﺎوت‬
‫ﻓﻮق در ﻣﻌﺮض ﻗﺮار ﻣﻲ ﮔﻴﺮد‪.‬‬
‫اﻟﻒ( روش ﻣﺴﺘﻘﻴﻢ ‪Direct Identification‬‬
‫در روش ﺷﻨﺎﺳﺎﻳﻲ ﻣﺴﺘﻘﻴﻢ‪ ،‬از ﺳﻴﮕﻨﺎﻟﻬﺎ ي ‪ u‬و ‪ y‬و روﺷﻬﺎي ﺗﺨﻤﻴﻦ ‪ PEM‬ﺑـﺮاي ورودي‪-‬ﺧﺮوﺟـﻲ‪ ،‬ﻣﺎﻧﻨـﺪ ﺣﻠﻘـﻪ ﺑـﺎز‬
‫اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد‪ .‬وﻟﻲ درﻋﻤﻞ ﻣﺸﻜﻼﺗﻲ ﭘﻴﺶ ﻣﻲ آﻳﺪ ﻛﻪ اﺳﺘﻔﺎده از روﺷﻬﺎي ﺟﺎﻳﮕﺰﻳﻦ را ﺟﺬاب ﻣﻲ ﻛﻨﺪ‬
‫‪ (1‬اﻳﻦ روش‪ ،‬روش اﺻﻠﻲ اﺳﺖ‪ .‬ﻣﺸﺮوط ﺑﺮ آﻧﻜﻪ ﻣﺪل ﺧﻮب ‪ H‬در دﺳﺘﺮس ﺑﺎﺷﺪ‬
‫‪ (2‬ﺑﺪون ﺗﻮﺟﻪ ﺑﻪ ﭘﻴﭽﻴﺪﮔﻲ ﻛﻨﺘﺮﻟﺮ و ﺳﻴﺴﺘﻢ ﻓﻴﺪﺑﻚ ﻛﺎر ﻣﻲ ﻛﻨﺪ‪.‬‬
‫‪ (3‬اﻟﮕﻮرﻳﺘﻤﻬﺎي ﺣﻠﻘﻪ ﺑﺎز ﻗﺎﺑﻞ اﺳﺘﻔﺎده ﻫﺴﺘﻨﺪ‬
‫‪ (4‬ﺑﺮاي ﺳﻴﺴﺘﻢ ﻧﺎﭘﺎﻳﺪار ﻣﺸﺮوط ﺑﺮ آﻧﻜﻪ ﺣﻠﻘﻪ ﺑﺴﺘﻪ و ﻣﺪل ﭘﻴﺶ ﺑﻴﻨﻲ ﭘﺎﻳﺪار ﺑﺎﺷﻨﺪ ﻗﺎﺑﻞ اﺳﺘﻔﺎده اﺳﺖ‬
‫‪ (5‬اﮔﺮ ‪S∈M‬ﺑﺎﺷﺪ ﺗﺨﻤﻴﻦ ﺑﻬﻴﻨﻪ و ‪ consistent‬ﻣﻲ دﻫﺪ‪ .‬وﻟﻲ اﮔﺮ ﻣﺪل ﺗﻘﺮﻳﺒﻲ ﺧﻮاﺳـﺘﻪ ﺑﺎﺷـﻴﻢ اﻟﮕـﻮرﻳﺘﻢ ﺑـﺎ ﻣﺸـﻜﻞ‬
‫روﺑﺮو ﻣﻲ ﺷﻮد‪ .‬راه ﺣﻞ اﻳﻦ اﺳﺖ ﻛﻪ ﻣﺪل درﺟﻪ ﺑﺎﻻﺗﺮ ﺷﻨﺎﺳﺎﻳﻲ ﺷﺪه و ﺳﭙﺲ ﻣﺮﺗﺒﻪ آن ﻛﺎﻫﺶ داده ﺷﻮد‪ .‬ﺑﺮاي ﻛﺎﻫﺶ‬
‫ﻣﺮﺗﺒﻪ روﺷﻬﺎي زﻳﺎدي وﺟﻮد دارد وﻳﻚ روش آن اﻳﻦ اﺳﺖ ﻛﻪ ﻣﺪل درﺟﻪ ﺑﺎﻻ ﺑﺎ ورودي ‪ u‬ﻛﻪ ‪ pe‬اﺳﺖ در ﺷﺒﻴﻪ ﺳـﺎزي‬
‫ﺗﺤﺮﻳﻚ ﺷﺪه ﺗﺎ ﺧﺮوﺟﻲ ﺑﺪون ﻧﻮﻳﺰ ‪ ŷ=Ĝ u‬ﺗﻮﻟﻴﺪ ﺷﻮد‪ .‬ﺣﺎل ﺑﺮ اﺳﺎس اﻳﻦ دﻳﺘﺎي ﺑﺪون ﻧﻮﻳﺰ ﺷﺒﻴﻪ ﺳﺎزي ﻣﺪﻟﻲ ﺑﺎ درﺟﻪ‬
‫ﭘﺎﻳﻴﻦ ﺗﺮ ﺑﻪ آن ﻓﻴﺖ ﺷﻮد‬

‫‪12-10‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ ‪ :‬ﭘﺎراﻣﺘﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ‬
‫‪ (6‬ﻣﻬﻤﺘﺮﻳﻦ ﻣﺸﻜﻞ اﻳﻦ روش اﻳﻦ اﺳﺖ ﻛﻪ ﻣﺪل درﺳﺖ از ﻧﻮﻳﺰ ‪ H‬را ﻧﻴﺎز دارد‪.‬‬
‫ب( روش ﻏﻴﺮ ﻣﺴﺘﻘﻴﻢ ‪Indirect Identification‬‬
‫در اﻳﻦ روش ‪ Gcl‬اﺑﺘﺪا ﺗﺨﻤﻴﻦ زده ﻣﻲ ﺷﻮد و ﺳﭙﺲ ‪ G‬ﻣﺤﺎﺳﺒﻪ ﻣﻲ ﮔﺮدد‪.‬‬

‫‪.‬‬
‫‪ (1‬اﮔﺮ ﻣﺪل ﻧﻮﻳﺰ ﻣﻌﻠﻮم ﻧﺒﺎﺷﺪ ﺑﺮاي اﺳﺘﻔﺎده از ‪ IV‬از اﻳﻦ روش اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد‪ .‬در اﻳﻦ روش اﻣﻜـﺎن اﺳـﺘﻔﺎده از‬
‫ﺗﻜﻨﻴﻚ ‪ subspace‬ﻧﻴﺰ وﺟﻮد دارد‪.‬‬
‫‪ (2‬ﻣﺸﻜﻞ اﻳﻦ روش اﻳﻦ اﺳﺖ ﻛﻪ اﺧﺘﻼف در ﻋﻤﻠﻜﺮد واﻗﻌﻲ ‪ Fy‬ﻧﺎﺷﻲ از اﺷﺒﺎع و ﻏﻴﺮه ﺑﺮ ﺗﺨﻤﻴﻦ اﺛﺮ ﻣﻲ ﮔﺬارد‬
‫‪ (3‬اﮔﺮ از ‪ ،PEM‬اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد ﻣﻨﺎﺳﺐ اﺳﺖ ﭘﺎراﻣﺘﺮﻫﺎ ‪ Gcl‬ﻫﻤﺎن ﭘﺎراﻣﺘﺮﻫﺎي ‪ G‬ﺑﺎﺷﻨﺪ‪.‬‬

‫‪ (4‬اﮔﺮ ﻛﻨﺘﺮﻟﺮ ﻏﻴﺮ ﺧﻄﻲ ﺑﺎﺷﺪ ﺣﺠﻢ ﻣﺤﺎﺳﺒﺎﺗﻲ ﺧﻮاﻫﻴﻢ داﺷﺖ‬


‫‪ (5‬وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ﺑﺮاي ﺳﻴﺴﺘﻢ ﺣﻠﻘﻪ ﺑﺴﺘﻪ از اﻳﻨﻘﺮار اﺳﺖ‬

‫‪ ϕv,cl‬ﻃﻴﻒ ﻧﻮﻳﺰ در ﺣﻠﻘﻪ ﺑﺴﺘﻪ اﺳﺖ ﻛﻪ ﻫﻤﭽﻨﺎﻧﻜﻪ راﺑﻄﻪ ﻧﺸﺎن ﻣﻲ دﻫﺪ ﺑﺮاﺑﺮ ﻓﻴﻠﺘﺮ ﺷﺪه ‪ v‬ﺗﻮﺳﻂ ﺣﺴﺎﺳﻴﺖ ‪ S0‬اﺳﺖ‬
‫‪ (6‬از اﻳﻦ راﺑﻄﻪ وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ‪ G‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ ﻛﻪ ﻣﺸﺎﺑﻪ روش ﻣﺴﺘﻘﻴﻢ اﺳﺖ‬

‫‪ (7‬از ﻧﻈﺮ ﺑﺎﻳﺎس راﺑﻄﻪ از اﻳﻨﻘﺮار اﺳﺖ‬

‫ﻛﻪ ﻧﺸﺎن ﻣﻲ دﻫﺪ ﻳﺎ ‪ G0-Gθ‬ﺣﺪاﻗﻞ ﻣﻲ ﺷﻮد اﮔﺮ ‪ S‬ﻛﻮﭼﻚ ﻧﺸﻮد در ﻧﺘﻴﺠﻪ ﺑﺎﻳﺎس در ﻓﺮﻛﺎﻧﺴﻬﺎﻳﻲ ﻛﻪ ‪ S‬ﻛﻮﭼﻚ اﺳـﺖ‬
‫وﺟﻮد دارد‪ .‬ﻣﻌﺬﻟﻚ اﮔﺮ ﻣﺪل و‪h‬ﻗﻌﻲ در ﻣﺠﻤﻮﻋﻪ ﺑﺎﺷﺪ ﺗﺨﻤﻴﻦ ﺑﺪون ﺑﺎﻳﺎس ﻣﻲ دﻫﺪ‪.‬‬
‫ج( ‪Joint Input·Output Identification‬‬
‫در اﻳﻦ روش دو ﻣﺪل ‪ r‬ﺑﻪ ‪ u‬و ‪ r‬ﺑﻪ ‪ y‬ﻫﻤﺰﻣﺎن ﺷﻨﺎﺳﺎﻳﻲ و ﺳﭙﺲ ‪ G‬ﺗﺨﻤﻴﻦ زده ﻣﻲ ﺷﻮد‪ u .‬ﻓﻴﺪﺑﻚ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫ﺷﻨﺎﺳﺎﻳﻲ را ﺗﺤﺖ دو ﻓﺮض ﻣﻲ ﺗﻮان اﻧﺠﺎم داد‪.‬‬

‫‪13-10‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ ‪ :‬ﭘﺎراﻣﺘﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ‬
‫‪ (1‬ﻳﻜﻲ اﻳﻨﻜﻪ ﻧﻮﻳﺰﻫﺎ ‪ v1‬و ‪ v2‬ﻫﻤﺒﺴﺘﻪ ﻫﺴﺘﻨﺪ ﻛﻪ آﻧﻮﻗﺖ در ﻧﻬﺎﻳﺖ ﻣﺸﺎﺑﻪ روش ﻣﺴﺘﻘﻴﻢ اﺳﺖ ﻛﻪ ﻫـﻢ ‪ G‬وﻫـﻢ‬
‫ﻓﻴﺪﺑﻚ ‪ Fy‬را ﺗﺨﻤﻴﻦ ﻣﻴﺰﻧﺪ‬
‫‪ (2‬اﮔﺮ ﻧﻮﻳﺰﻫﺎ ﻣﺴﺘﻘﻞ ﻓﺮض ﺷﻮﻧﺪ ﺗﺨﻤﻴﻦ ‪ G‬از ﺗﻘﺴﻴﻢ دو ﺗﺨﻤﻴﻦ ‪ Gcl‬و ‪ Gru‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬

‫ﻣﺰﻳﺖ اﻳﻦ روش ﺑﺮ روش ﻣﺴﺘﻘﻴﻢ آن اﺳﺖ ﻛﻪ ﺑﺮ اﺳﺎس راﺑﻄﻪ زﻳﺮ ﻛﻪ ﻓﺎﻗﺪ ﺗﺮم ‪ B‬اﺳﺖ ﻣﻲ ﺗﻮان ﺗﺨﻤﻴﻦ ﺑـﺪون ﺑﺎﻳـﺎس‬
‫‪ G‬را داﺷﺖ‪ .‬اﻟﺒﺘﻪ اﻳﻦ در ﻣﻘﺎﺑﻞ اﻓﺰاﻳﺶ وارﻳﺎﻧﺲ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬

‫• اﻳﻦ ﻧﺘﺎﻳﺞ ﺑﺎ ﻛﻨﺘﺮﻟﺮ ﻏﻴﺮ ﺧﻄﻲ ﻧﻴﺰ ﻣﻌﺘﺒﺮ اﺳﺖ‪.‬‬

‫‪14-10‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ ‪ :‬ﭘﺎراﻣﺘﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ‬
‫‪System Identification in Practice 3-10‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ و ﻛﻨﺘﺮل ﻣﻘﺎوم‪ :‬ﺳﻴﺴﺘﻤﻬﺎي وﻓﻘﻲ ﻛﻪ ﺑﺮ اﺳﺎس ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ ﻛﺎر ﻣﻲ ﻛﻨﻨﺪ و ﻗﺎدرﻧـﺪ ﻣـﺪﻟﻲ ﺗﻘﺮﻳﺒـﻲ‬
‫اراﺋﻪ دﻫﻨﺪ در ﻛﻨﺎر ﻛﻨﺘﺮﻟﺮﻫﺎي ﻣﻘﺎوم ﻧﻴﺎز ﺑﻪ ﻣﺪﻟﺴﺎزي را ﻣﺤﺪود ﻣﻲ ﻛﻨﻨﺪ‪.‬‬

‫‪ 1-3-10‬ﻧﺮم اﻓﺰارﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ‬


‫‪Matlab system identification‬‬

‫‪ 2-3-10‬ﻧﻜﺎت ﻋﻤﻠﻲ در ﭘﺮوﺳﻪ ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ‬


‫ﺑﺮاي ﺷﻨﺎﺳﺎﻳﻲ ﺧﻮب ﺑﺎﻳﺪ ﻣﺪل ﻫﺎي ﻣﻨﺎﺳﺐ اﻧﺘﺨﺎب و اﻋﺘﺒﺎر ﺳﻨﺠﻲ ﺷﺪه وﺑﺎ ﻫﻢ ﻣﻘﺎﻳﺴﻪ ﺷﻮﻧﺪ‪ .‬اﻳﻦ ﻛﺎر ﺑﻪ ﺗﺠﺮﺑﻪ زﻳﺎد‬
‫وﺗﺴﻠﻂ ﻛﺎﻓﻲ ﻧﻴﺎز دارد‬
‫ﮔﺎم ‪ :1‬ارزﻳﺎﺑﻲ دﻳﺘﺎ‬
‫• رﺳﻢ ﻧﻤﻮدار دﻳﺘﺎ و ارزﻳﺎﺑﻲ آن‪ :‬از ﻧﻤﻮدار اﻃﻼﻋﺎت زﻳﺮ ﻣﻤﻜﻦ اﺳﺖ درﻳﺎﻓﺖ ﺷﻮد‬
‫‪ o‬ﻧﻤﻮد رﻓﺘﺎر ﻏﻴﺮ ﺧﻄﻲ‬
‫‪ o‬ﺑﺨﺸﻬﺎي ﺧﻴﻠﻲ ﻧﻮﻳﺰي‬
‫‪ o‬ﺑﺨﺸﻬﺎﻳﻲ ﻛﻪ ﺳﻴﮕﻨﺎل ﺛﺎﺑﺖ و ﻓﺎﻗﺪ اﻃﻼﻋﺎت اﺳﺖ‪.‬‬
‫• ‪ :detrend the mean‬ﺿﺮورت ﺣﺬف اﺧﺘﻼﻻت ﻓﺮﻛﺎﻧﺲ ﭘﺎﻳﻴﻦ در اﻳﻦ ﻣﻼﺣﻈﺎت ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬
‫• ﺗﺨﺼﻴﺺ دﻳﺘﺎ ﺑﺮاي اﻋﺘﺒﺎر ﺳﻨﺠﻲ‪ :‬از آﻧﺎﻟﻴﺰ ﻗﺴﻤﺖ دﻳﺘﺎي ﺗﺨﻤﻴﻦ و اﻋﺘﺒﺎر ﺳﻨﺠﻲ ﻣﺸﺨﺺ ﻣـﻲ ﺷـﻮد‪ .‬ﻣﻌﻤـﻮﻻ‬
‫‪ 2/3‬دﻳﺘﺎ ﺑﺮاي ﺗﺨﻤﻴﻦ و ‪ 1/3‬ﺑﺮاي اﻋﺘﺒﺎر ﺳﻨﺠﻲ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﻣﻲ ﺷﻮد‪.‬‬
‫ﮔﺎم‪ :2‬ﺗﺨﻤﻴﻨﻬﺎي ﻣﻘﺪﻣﺎﺗﻲ‬
‫• ﺑﺎ ﺗﺨﻤﻴﻦ ﻫﺎي ﻣﻘﺪﻣﺎﺗﻲ زﻳﺮ ﭘﻴﭽﻴﺪﮔﻲ ﺳﻴﺴﺘﻢ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬
‫‪ o‬ﭘﺎﺳﺦ ﺿﺮﺑﻪ ﺑﺮ اﺳﺎس ﻫﻤﺒﺴﺘﮕﻲ‬
‫‪ o‬ﺗﺨﻤﻴﻦ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳﻚ ﻃﻴﻒ‬
‫‪ ARX o‬درﺟﻪ ‪ 4‬ﺑﺎ ﺗﺎﺧﻴﺮي ﻛﻪ از ﻫﻤﺒﺴﺘﮕﻲ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬
‫‪ o‬ﻫﻤﭽﻨﻴﻦ ﻣﺪل ﻓﻀﺎي ﺣﺎﻟﺖ از روش ‪. subspace‬‬
‫• ﺳﻴﺴﺘﻢ ﺳﺎده اﺳﺖ و ﻳﻚ ﺳﻴﺴﺘﻢ ﺧﻄﻲ ﺗﻨﻈﻴﻢ ﺷﺪه ﺑﺎ ﻣﺪل ﻧﻮﻳﺰ و درﺟﻪ ﻣﻨﺎﺳﺒﻤﻲ ﺗﻮاﻧﺪ ﻣﺪل ﺧﻮﺑﻲ ﺑﺎﺷﺪ‬
‫‪ o‬ﭘﺎﺳﺦ ﻓﺮﻛﺎﻧﺴﻲ ﺑﺪﺳﺖ آﻣﺪه از ﺗﺨﻤﻴﻦ ﻃﻴﻒ‪ ARX ،‬و ﻓﻀﺎي ﺣﺎﻟﺖ اﻧﻄﺒﺎق دارد‬
‫‪ o‬رﻓﺘﺎر ﮔﺬرا ﻣﺪل ﺷﺪه ﺑﺎ ﻫﻤﺒﺴﺘﮕﻲ و ‪ ARX‬و ﻣﺪل ﻓﻀﺎي ﺣﺎﻟﺖ اﻧﻄﺒﺎق دارد‬
‫‪ o‬ﺧﺮوﺟﻲ ﻣﺪل ‪ ARX‬و ﻓﻀﺎي ﺣﺎﻟﺖ )‪ (Model Output Plot‬ﺑﺎ دﻳﺘﺎي اﻋﺘﺒﺎر ﺳﻨﺠﻲ ﺗﻄﺒﻴﻖ دارد‬
‫‪ (3‬ﮔﺎم ‪ :3‬دﻻﻳﻞ ﭘﻴﭽﻴﺪﮔﻲ‬

‫‪15-10‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ ‪ :‬ﭘﺎراﻣﺘﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ‬
‫• ‪ Model Unstable‬ﻣﺤﺘﻤﻼ ﻣﺪل ‪ ARX‬و ﻓﻀﺎي ﺣﺎﻟﺖ ﻧﺎﭘﺎﻳﺪار ﻫﺴﺘﻨﺪ در اﻳﻦ ﺣﺎﻟﺖ ﺑﻬﺘﺮ اﺳﺖ از ‪ 5‬ﻳﺎ ‪10step‬‬
‫‪ ahead‬ﭘﻴﺶ ﺑﻴﻨﻲ ﺑﺠﺎي ﺷﺒﻴﻪ ﺳﺎزي اﺳﺘﻔﺎده ﺷﻮد‬
‫• ‪ :Feedback in Data‬وﻗﺘﻲ از ﺧﺮوﺟﻲ ﺑﻪ ورودي ﻓﻴﺪﺑﻚ وﺟﻮد دارد ﺗﺨﻤﻴﻦ ﻃﻴﻒ و آﻧـﺎﻟﻴﺰ ﻫﻤﺒﺴـﺘﮕﻲ و ﻣـﺪل‬
‫ﻓﻀﺎي ﺣﺎﻟﺖ اﻋﺘﺒﺎر ﻧﺪارﻧﺪ ﻟﺬا ﺑﻪ ﻋﺪم اﻧﻄﺒﺎق ﻧﺒﺎﻳﺪ اﻋﺘﻨﺎﻛﺮد‪ .‬در ﺗﺤﻠﻴﻞ ﺑﺎﻗﻴﻤﺎﻧﺪه وﺟﻮد ﻓﻴﺪﺑﻚ ﺑﻪ وﺿﻮح ﻗﺎﺑﻞ روﻳـﺖ‬
‫اﺳﺖ‬
‫• ‪ Noise Model‬اﮔﺮ ﻣﺪل ﻓﻀﺎي ﺣﺎﻟﺖ ﺑﻬﺘﺮ از ‪ ARX‬اﺳﺖ ﺑﻪ اﻳﻦ ﻣﻌﻨﻲ اﺳﺖ ﻛﻪ اﺛﺮ ﻧﻮﻳﺰ ﻗﺎﺑـﻞ ﻣﻼﺣﻈـﻪ اﺳـﺖ و‬
‫ﺑﺎﻳﺪ ﺑﻪ دﻗﺖ ﻣﺪل ﺷﻮد‪.‬‬
‫• ‪ Model Order‬اﮔﺮ ‪ ARX‬ﻣﺮﺗﺒﻪ ‪ 4‬ﺧﺮوﺟﻲ ﺧﻮﺑﻲ ﻧﻤﻴﺪﻫﺪ و ﺑﺎ اﻓﺰاﻳﺶ ﻣﺮﺗﺒﻪ ﻋﻤﻠﻜﺮد ﺑﻬﺒـﻮد ﻣـﻲ ﻳﺎﺑـﺪ ﺑـﻪ اﻳـﻦ‬
‫ﻣﻌﻨﻲ اﺳﺖ ﻛﻪ ﻳﻚ ﺳﻴﺴﺘﻢ ﺧﻄﻲ ﺑﺎ درﺟﻪ ﻣﻨﺎﺳﺐ ﻛﻔﺎﻳﺖ ﻣﻲ ﻛﻨﺪ‪.‬‬
‫• ‪ Additional Input‬اﮔﺮ ﺗﺎ اﻳﻦ ﻣﺮﺣﻠﻪ ﺧﺮوﺟﻲ ﻣﺪل ﺑﻬﺒﻮ‪.‬د ﭘﻴﺪا ﻧﻜﺮده اﺳﺖ ﺑـﺎ ﺑﺮرﺳـﻲ ‪ physical insight‬ﺑـﻪ‬
‫دﻧﺒﺎل ورودﻳﻲ ﺑﮕﺮدﻳﺪ ﻛﻪ از ﻗﻠﻢ اﻓﺘﺎده اﺳﺖ‪ .‬ﺳﭙﺲ ‪ ARX‬درﺟﻪ ‪ 4‬را ﺑﺮاي ﺗﻤـﺎم ورودﻳﻬـﺎ اﻋﻤـﺎل ﻛﻨﻴـﺪ‪ .‬ﻣﻨﻈـﻮر از‬
‫وردي ﻓﻘﻂ ﺳﻴﮕﻨﺎل ﻛﻨﺘﺮل ﻧﻴﺴﺖ ﻳﻠﻜﻪ ﻫﺮ ﺳﻴﮕﻨﺎﻟﻲ ﻛﻪ ﺑﺮ ﺧﺮوﺟﻲ اﺛﺮ ﻣﻲ ﮔﺬارد و ﻗﺎﺑﻞ اﻧـﺪازه ﮔﻴـﺮي اﺳـﺖ وردي‬
‫اﺳﺖ‬
‫• ‪ • Nonlinear Effects:‬اﮔﺮ ﻫﻤﭽﻨﺎن ﺧﺮوﺟﻲ ﻣﺪل ﺗﻄﺒﻴﻖ ﻧﻤﻲ ﻛﻨﺪ ﺑﺎ در ﻧﻈﺮ ﮔﺮﻓﺘﻦ ‪ physical insight‬ﺑﺪﻧﺒﺎل‬
‫ﻋﻮاﻣﻞ ﻏﻴﺮ ﺧﻄﻲ ﺑﮕﺮدﻳﺪ‪ .‬اﻳﻦ ﻋﻮاﻣﻞ ﻏﻴﺮ ﺧﻄﻲ ﻣﻤﻜﻦ اﺳﺖ ﺑﻪ ﺳﺎدﮔﻲ ﺿﺮب )ﺣﺎﺻﻞ ﺿﺮب وﻟﺘـﺎژ در ﺟﺮﻳـﺎن ﺑـﺮاي‬
‫ﺗﻮان( و ﻣﺸﺎﺑﻪ آن ﺑﺎﺷﺪ‪ .‬ﺑﺨﺸﻬﺎي ﻣﻬﻤﻲ از آﻧﻬﺎ ﺑﻪ ﺳﺎدﮔﻲ ﻗﺎﺑﻞ اﺳﺘﻨﺘﺎج ﻫﺴﺘﻨﺪ‬
‫• ‪ General Nonlinear mapping‬اﮔﺮ ﻧﻤﻲ ﺗﻮان ﺑﺎ ﺑﺮرﺳﻲ ﺗﺌﻮرﻳﻚ ﻋﻮاﻣﻞ ﻏﻴﺮ ﺧﻄﻲ را ردﻳﺎﺑﻲ ﻛـﺮد اﺳـﺘﻔﺎده از‬
‫‪ black box‬ﻏﻴﺮ ﺧﻄﻲ راه ﺣﻞ اﺳﺖ‬
‫• ﻫﻨﻮز ﻣﺸﻜﻞ ﺑﺎﻗﻲ اﺳﺖ؟ اﮔﺮ ﻫﻨﻮز ﻧﻤﻲ ﺗﻮان ﻣﺪل ﺗﻘﺮﻳﺒﺎ ﻣﻨﺎﺳﺐ را ﭘﻴﺪا ﻛﺮد ﻣﻲ ﺗﻮاﻧﺪ ﺑـﻪ اﻳـﻦ ﻣﻌﻨـﻲ ﺑﺎﺷـﺪ ﻛـﻪ‬
‫ﻣﺪل ﺧﻮﺑﻲ را از دﻳﺘﺎي ﻣﻮﺟﻮد ﻧﻤﻴﺘﻮان اﺳﺘﺨﺮاج ﻛﺮد‪ .‬دﻻﻳﻞ آن ﻣﻲ ﺗﻮاﻧﺪ ﺑﻪ ﺳﻴﮕﻨﺎل ﺑﻪ ﻧﻮﻳﺰ‪ ،‬اﺧﺘﻼل ﻏﻴﺮ اﻳﺴـﺘﺎن و‬
‫ﺑﺰرگ و ﺳﻴﺴﺘﻢ واﺑﺴﺘﻪ ﺑﻪ زﻣﺎن ﺑﺮ ﮔﺮدد‪.‬‬
‫ﮔﺎم ‪ :4‬ﺗﻨﻈﻴﻢ ﻣﺪل ﻣﻨﺎﺳﺐ‬
‫ﺑﺮاي دﻳﺘﺎي واﻗﻌﻲ ﻣﺪل ﺻﺤﻴﺢ )ﺑﻪ ﻣﻌﻨﻲ ﻛﺎﻣﻞ( ﻣﻌﻨﻲ ﻧﻤﻲ دﻫﺪ‪ .‬ﺗﻤﺎم ﻣـﺪﻟﻬﺎ ﺗﻘﺮﻳﺒـﻲ ﻫﺴـﺘﻨﺪ ‪ .‬ﻣـﺪﻟﻲ ﻛـﻪ ﻛﻤﺘـﺮﻳﻦ‬
‫اﺧﺘﻼف ﺑﻴﻦ ﺷﺒﻴﻪ ﺳﺎزي و واﻗﻌﻲ را دارد اﻧﺘﺨﺎب ﻣﻲ ﮔﺮدد‪ .‬اﻟﺒﺘﻪ ﭘﻴﭽﻴﺪﮔﻲ ﻣﺪل و در ﺑﺮﮔﺮﻓﺘﻦ ‪important features‬‬
‫ﻧﻴﺰ ﺑﺎﻳﺪ ﻟﺤﺎظ ﺷﻮد‪.‬‬
‫‪ (4‬ﺗﺴﺖ ‪ ε :Residue‬ﺑﺎﻳﺪ ﺳﻔﻴﺪ ﺑﺎﺷﺪ واﮔﺮ ﺑﻪ ﻣﻘﺪار ﻗﺎﺑـﻞ ﻣﻼﺣﻈـﻪ از ‪ confidence region‬ﺧـﺎرج ﺷـﻮد‪ .‬ﺑﺼـﻮرت‬
‫ﺳﺮاﻧﮕﺸﺘﻲ‬
‫‪ o‬اﮔﺮ ﻣﻘﺪار ﺧﺎرج ﺷﺪه ﺑﺼﻮرت ‪ slowly varying‬اﺳﺖ ﻳﻌﻨﻲ ﺗﻌﺪاد ﻗﻄﺒﻬﺎي ﻣﺪل ﻛﻢ اﺳﺖ‬

‫‪16-10‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ ‪ :‬ﭘﺎراﻣﺘﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ‬
‫اﮔﺮ ﺑﺼﻮرت ﻗﻠﻪ ﺑﺎﺷﺪ ﺑﻪ ﻣﻌﻨﻲ ﺗﺎﺧﻴﺮ ﻏﻠﻂ ﻳﺎ ﺗﻌﺪت ﻛﻢ ﺻﻔﺮﻫﺎﺳﺖ ‪.‬‬ ‫‪o‬‬
‫ﺑﺮاي ﻣﺪﻟﻲ ﻛﻪ ﺑﺮاي ﻛﻨﺘﺮل اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد ﻣﻨﺎﺳﺐ اﺳﺖ رﻓﺘﺎر ﻓﺮﻛﺎﻧﺴﻲ ‪ ε‬ﺑﺮرﺳﻲ ﺷﻮد‬ ‫‪o‬‬
‫‪ (5‬ﻛﺎﻫﺶ درﺟﻪ ﻣﺪل‪ :‬ﺣﺬف ﺻﻔﺮ و ﻗﻄﺐ ﻧﺸﺎن ﻣﻲ دﻫﺪ ﻛﻪ درﺟﻪ ﻣﺪل ﺑﺎﻻﺳﺖ‪ .‬اﮔﺮ ﺣﺬف ﺻﻔﺮ و ﻗﻄﺐ وﺟـﻮد دارد‬
‫و ﺑﺎ اﻓﺰاﻳﺶ درﺟﻪ ‪ ARX‬ﺑﻬﺘﺮ ﺟﻮاب ﻣﻲ دﻫﺪ ﺑﻪ اﻳﻦ ﻣﻌﻨﻲ اﺳﺖ ﻛﻪ ﻗﻄﺐ اﺿﺎﻓﻲ ﺑﺮاي ﻣﺪل ﻧﻮﻳﺰ ﺑﺎﻳـﺪ در ﻧﻈـﺮ ﮔﺮﻓﺘـﻪ‬
‫ﺷﻮد‪ OE ,ARMAX .‬و ‪ BJ‬ﺑﺎ درﺟﻪ ‪ A‬و ‪ F‬ﺑﺮاﺑﺮ ﺗﻌﺪاد ﻗﻄﺒﻬﺎي ﺣـﺬف ﻧﺸـﺪه اﻧﺘﺨـﺎب ﻣﻮﺟـﻪ اﺳـﺖ‪ .‬ﺷـﻜﻞ ﺻـﻔﺮ و‬
‫ﻗﻄﺒﻬﺎﻳﻲ ﻛﻪ ﻫﻤﺪﻳﮕﺮ را ﺣﺬف ﻣﻲ ﻛﻨﻨﺪ ﻧﺸﺎن ﻣﻲ دﻫﺪ‬

‫‪ (6‬ﺟﻮاب ﻧﺴﺒﺘﺎ ﻗﺎﺑﻞ ﻗﺒﻮل‪ :‬در ﺻﻮرﺗﻴﻜﻪ ﺑﺼﻮرت ﻛﻠﻲ ﺟﻮاب ﻗﺎﺑﻞ ﻗﺒﻮل اﺳﺖ ﺧﻴﻠﻲ ﻧﺒﺎﻳﺪ دﻗﻴﻖ ﺷﺪ‪ .‬ﺑﺮﻧﺎﻣﻪ ﻫﺎي ‪arx‬‬
‫و ‪ subspace‬وﺟﻮد دارﻧﺪ ﻛﻪ ﺑﻄﻮر ﻣﻔﻴﺪ و ﺳﺮﻳﻊ ﻣﺪﻟﻬﺎ ﺗﺨﻤﻴﻦ ﻣﻲ زﻧﻨﺪ‬
‫‪ Multivariable Systems. (7‬ﺗﺨﻤﻴﻦ ﺳﻴﺘﻤﻬﺎي ﭼﻨﺪ ﺧﺮوﺟﻲ اﮔﺮ ﺑﻴﻦ ﻣﺘﻔﻴﺮﻫﺎ ﻟﻴﻨﻚ ﻗـﻮي وﺟـﻮد داﺷـﺘﻪ ﺑﺎﺷـﺪ‬
‫ﻣﺸﻜﻠﺘﺮ ﻣﻲ ﺷﻮد‪ .‬در اﻳﻦ ﻣﻮارد ﻣﺪل ﻓﻀﺎي ﺣﺎﻟﺖ ﻣﻨﺎﺳﺐ اﺳﺖ‬
‫‪ o‬ﺑﻬﺘﺮ از ﺑﺎ زﻳﺮ ﻣﺠﻤﻮﻋﻪ ورودﻳﻬﺎ و ﺧﺮوﺟﻴﻬﺎ ﻣﺪﻟﻬﺎي ﺑﺨﺸﻲ ﺗﺨﻤﻴﻦ زد و در ﻧﻬﺎﻳﺖ ﺑﻪ ﻣﺪل ﻛﻠﻲ دﺳﺖ ﻳﺎﻓﺖ‪.‬‬
‫‪ o‬راه دﻳﮕﺮ اﻳﻦ اﺳﺖ ﻛﻪ ﺑﺮاي ﻫﺮ ﺧﺮوﺟﻲ ﻧﺴﺒﺖ ﺑﻪ ورودﻳﻬﺎ ﻣﺪل ﺟﺪاﮔﺎﻧﻪ ﺗﺨﻤﻴﻦ زد‬
‫‪ o‬ﻣﻌﺬﻟﻚ ﻣﺪل ﻳﻜﭙﺎرﭼﻪ ﺑﺮاي ﭘﻴﺶ ﺑﻴﻨﻲ و ﻛﻨﺘﺮل ﺑﻬﺘﺮ اﺳﺖ‬
‫ﮔﺎم ‪ :5‬ﭘﺬﻳﺮش ﻣﺪل‬
‫‪.‬درﻧﻬﺎﻳﺖ ﺣﺪاﻗﻞ ﻳﻚ ﻣﺪل ﺑﺮاي وﺿﻌﻴﺖ ﻓﻌﻠﻲ اﻧﺘﺨﺎب ﻣﻲ ﮔﺮدد‪ .‬ﻣﺪل اﻧﺘﺨﺎﻳﻲ اﮔﺮ ﭼﻪ روي ﺻـﻔﺤﻪ ﻛـﺎﻣﭙﻴﻮﺗﺮ ﺧـﻮد را‬
‫ﺧﻮب ﻧﺸﺎن ﻣﻲ دﻫﺪ وﻟﻲ ﻓﻘﻂ ﺗﻘﺮﻳﺒﻲ از واﻗﻌﻴﺖ اﺳﺖ ﻛﻪ ﺧﻮﺷﺒﺨﺘﺎﻧﻪ ﺑﺮاي اﺳﺘﻔﺎده ﻛﺎﻓﻲ اﺳﺖ‬

‫‪ 4-10‬ﻛﺎرﺑﺮدﻫﺎ‬
‫‪The Hairdryer‬‬
‫ﻓﻦ‪ ،‬ﻫﻮا را داﺧﻞ ﻟﻮﻟﻪ اي ﻣﻲ ﻓﺮﺳﺘﺪ ﻛﻪ در ﻣﺴﻴﺮ آن اﻟﻤﻨﺖ ﺣﺮارﺗﻲ ﻗﺮار دارد ﻛﻪ ﻫﻮا را ﮔـﺮم ﻣـﻲ ﻛﻨـﺪ‪ .‬ورودي ﺗـﻮان‬
‫اﻋﻤﺎﻟﻲ ﺑﻪ اﻟﻤﻨﺖ و ﺧﺮوﺟﻲ درﺟﻪ ﺣﺮات ﻫﻮا ﺧﺮوﺟﻲ ﻟﻮﻟﻪ اﺳﺖ‬
‫‪ (8‬ﺷﻜﻞ ﭘﺎﺳﺦ ﭘﻠﻪ ﺳﻴﺴﺘﻢ اﺳﺖ ﻛﻪ ﺛﺎﺑﺖ زﻣﺎﻧﻲ ﺣﺪود ‪ 0.4‬ﺛﺎﻧﻴﻪ و ﺗﺎﺧﻴﺮ ‪ 0.14‬ﺛﺎﻧﻴﻪ را ﻧﺸﺎن ﻣﻲ دﻫﺪ‪.‬‬

‫‪17-10‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ ‪ :‬ﭘﺎراﻣﺘﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ‬

‫‪ (9‬ﭘﺮﻳﻮد ﻧﻤﻮﻧﻪ ﺑﺮداري‪ :‬ﺑﺮ اﺳﺎس ﻧﻤﻮدار ﭘﺮﻳﻮد ﻧﻤﻮﻧﻪ ﺑﺮداري ‪ 0.08s‬اﻧﺘﺨﺎب ﻣﻲ ﮔﺮدد‬
‫‪ (10‬ﺗﻮان ﺑﺎﻳﻨﺮي ورودي ﺑﻴﻦ ‪ 35‬ﺗﺎ ‪ 65‬وات اﺳﺖ ﻛﻪ ﺑﺼﻮرت ﺗﺼﺎدﻓﻲ و ﺑﺎ اﺣﺘﻤﺎل ‪ 0.2‬ﺗﻐﻴﻴﺮ در ﻫﺮ ﮔﺎم اﺳﺖ‪.‬‬
‫‪ 1000 (11‬ﻧﻤﻮﻧﻪ ورودي و ﺧﺮوﺟﻲ ﺛﺒﺖ ﻣﻲ ﮔﺮدد‪.‬‬
‫;‪load dryer2‬‬ ‫;)‪dry = iddata(y2,u2,0.08‬‬ ‫;)‪ze = dry(1:1000‬‬ ‫;))‪plot(ze(200:300‬‬
‫‪y1‬‬ ‫‪u1‬‬
‫‪8‬‬ ‫‪7‬‬

‫‪6‬‬ ‫‪6‬‬
‫‪5‬‬
‫‪4‬‬
‫‪4‬‬
‫‪2‬‬ ‫‪3‬‬
‫‪0‬‬ ‫‪20‬‬ ‫‪40‬‬ ‫‪60‬‬ ‫‪80‬‬ ‫‪0‬‬ ‫‪20‬‬ ‫‪40‬‬ ‫‪60‬‬ ‫‪80‬‬
‫)‪Time (seconds‬‬ ‫)‪Time (seconds‬‬

‫‪ (12‬در ﮔﺎم اول ﻣﻴﺎﻧﮕﻴﻦ از ورودي و ﺧﺮوﺟﻲ ﺑﺎ دﺳﺘﻮر ‪ deterend‬ﺣﺬف ﻣﻲ ﮔﺮدد‪.‬‬


‫‪ (13‬دﻳﺘﺎ ﺑﻪ دو ﻗﺴﻤﺖ ﻳﻜﻲ ﺑﺮاي ﺗﺨﻤﻴﻦ و دﻳﮕﺮي ﺑﺮاي اﻋﺘﺒﺎر ﺳﻨﺠﻲ ﺗﻘﺴﻴﻢ ﺷﺪ‬
‫‪ :Preliminary Models (14‬ﺑﺎ ‪ (1‬دﺳﺘﻮر ‪ cra‬ﻣﺪل ﺗﺨﻤﻴﻦ و ﭘﺎﺳﺦ ﭘﻠﻪ ﺗﻮﻟﻴﺪ ﻣﻲ ﮔﺮدد ‪ (2‬ﺗﺨﻤﻴﻦ ﻏﻴﺮ ﭘﺎراﻣﺘﺮﻳـﻚ‬
‫ﻃﻴﻒ ‪ (3‬ﻣﺪل ‪ ARX‬درﺟﻪ ‪ 4‬و ‪ (5‬ﻣﺪل ﻓﻀﺎي ﺣﺎﻟﺖ )‪ (n4sid‬ﺑﺮاي آن ﺗﺨﻤﻴﻦ زده ﺷﺪ‪ .‬درﺟـﻪ ﻣـﺪل ﻓﻀـﺎي ﺣﺎﻟـﺖ‬
‫ﺑﻄﻮر اﺗﻮﻣﺎﺗﻴﻚ ‪ 3‬اﻧﺘﺨﺎب ﮔﺮدﻳﺪ‪ .‬ﺷﻜﻠﻬﺎ ﻧﺤﻮه ﻓﻴﺖ را ﻧﺸﺎن ﻣﻲ دﻫﻨﺪ‪.‬‬
‫• در ﭘﺎﺳﺦ ﭘﻠﻪ ﻧﺘﻴﺠﻪ ﺗﺨﻤﻴﻨﻬﺎي ‪)1‬ﺧﻂ ﭘﺮ(‪) 3 ،‬ﺧﻂ ﺗﻴﺮه(و ‪) 4‬ﻧﻘﻄﻪ ﭼﻴﻦ( آﻣﺪه اﺳﺖ‬
‫• در ﻧﻤﻮدار ﭘﺎﺳﺦ ﻓﺮﻛﺎﻧﺴﻲ ﻣﻘﺎﻳﺴﻪ ﻣﺮﺑﻮط ﺑﻪ ‪) 2‬ﭘﺮ(‪) 3 ،‬ﺧﻂ ﺗﻴﺮه( و ‪) 4‬ﻧﻘﻄﻪ ﭼﻴﻦ( اﺳﺖ‬
‫• در ﻧﻤﻮدار ﺷﺒﻴﻪ ﺳﺎزي ﺧﺮوﺟﻲ ﻣﺪﻟﻬﺎ ﺑﻪ ورودي ﻧﺸﺎن داده ﺷﺪه اﺳﺖ‪ .‬ﺧﻄﺎي ﺗﻄﺒﻴﻖ در )‪ ARX(441‬ﺣﺪود ‪0.096‬‬
‫و در ‪ n4s3‬ﻣﻘﺪار ‪ 0.1‬اﺳﺖ‬

‫• ﻧﺘﺎﻳﺞ اﻳﻨﻜﻪ ﻳﻚ ﻣﺪل ﺧﻄﻲ ﺑﺨﻮﺑﻲ ﻣﻲ ﺗﻮاﻧﺪ ﭘﺮوﺳﺲ را ﻣﺪل ﻛﻨﺪ‬

‫‪18-10‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ ‪ :‬ﭘﺎراﻣﺘﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ‬
‫‪ Further Models. (15‬ﻫﺰار ﻣﺪل ﺑﺎ ﺳﺎﺧﺘﺎرزﻳﺮ ﺑﻪ دﻳﺘﺎ اﻋﻤﺎل ﮔﺮدﻳﺪ‪.‬‬

‫و ﻣﻴﺎﻧﮕﻴﻦ ﻣﺮﺑﻌﺎت ﺧﻄﺎي ﺗﺨﻤﻴﻦ ﺑﺎ دﻳﺘﺎي اﻋﺘﺒﺎرﺳﻨﺠﻲ ﻣﺤﺎﺳﺒﻪ و در ﺷﻜﻞ رﺳﻢ ﮔﺮدﻳﺪ‪ .‬ﻣﻘﺎدﻳﺮ ﺧﻄﺎ ﺑﺮاي ﺗﻌﺪادي از‬
‫آﻧﻬﺎ از اﻳﻨﻘﺮار اﺳﺖ‬
‫‪ARX(692)=0.094,‬‬ ‫‪ARNX(3322)=0.094,‬‬ ‫‪ARX(441)=0.096‬‬
‫‪n4s6=0.0976‬‬ ‫‪ARX(223)=0.0988‬‬ ‫‪n4s3=0.1‬‬
‫ﻛﻪ ﺑﻬﺘﺮﻳﻦ ﻣﺪل ‪ 15‬ﭘﺎراﻣﺘﺮ دارد )‪.ARX(692‬‬

‫• آﻧﺎﻟﻴﺰ ﺑﺎﻗﻴﻤﺎﻧﺪه ﻣﺪﻟﻬﺎي ﻣﻨﺘﺨﺐ در ﺷﻜﻞ ﻧﺸﺎن داده ﺷﺪه اﻧـﺪ )‪ ARX(962‬ﺧـﻂ ﭘـﺮ‪ ARX(223) ،‬ﺧـﻂ ﺗﻴـﺮه و‬
‫)‪ ARX(3322‬ﻧﻘﻄــﻪ ﭼــﻴﻦ ‪ .‬آﻧــﺎﻟﻴﺰ ﺑﺎﻗﻴﻤﺎﻧــﺪه )‪ ARMAX(3322‬و )‪ ARX(962‬ﻧﺸــﺎن ﻣــﻲ دﻫــﺪ ﻛــﻪ ﻫــﺮ در‬
‫‪ whiteness test‬و ‪ independence test‬ﻣﻮﻓﻖ ﻫﺴﺘﻨﺪ در ﺣﺎﻟﻴﻜﻪ )‪ ARX(223‬ﻧﺸﺎن از ﻫﻤﺒﺴﺘﮕﻲ ﻗﺎﺑﻞ ﻣﻼﺧﻈﻪ‬
‫ﺑﻴﻦ ورودي و ﺑﺎﻗﻴﻤﺎﻧﺪه دارد‪.‬‬

‫• ‪ Final Choice of Model.‬ﺑﺮ اﺳﺎس اﻃﻼﻋﺎت ﺑﺪﺳﺖ آﻣـﺪه از ﺑـﻴﻦ )‪ ARX(962‬و )‪ ARMAX(3322‬ﻣـﺪل‬
‫ﺳﺎده ﺗﺮ ﻳﻌﻨﻲ ‪ ARMAX‬اﻧﺘﺨﺎب ﻣﻲ ﮔﺮدد‪.‬‬

‫‪19-10‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺳﻴﺴﺘﻢ ‪ :‬ﭘﺎراﻣﺘﺮﻫﺎي ﺷﻨﺎﺳﺎﻳﻲ‬

‫• ﻛﻪ وارﻳﺎﻧﺲ ﺗﺨﻤﻴﻦ ‪ 8‬ﭘﺎراﻣﺘﺮ آن ازاﻳﻨﻘﺮار اﺳﺖ‬

‫‪The estimated standard deviation of the noise source e(t) is 0.0388.‬‬


‫‪A Fighter Aircraft‬‬
‫ﻫﺪف ﺑﺪﺳﺖ آوردن ﻣﺪل ‪ PITCH‬اﺳﺖ‪ .‬دﻳﺘﺎ از ﺣﻠﻘﻪ ﺑﺴﺘﻪ ﺑﺪﺳﺖ آﻣﺪه و ﻣﻴﺎﻧﮕﻴﻦ آن ﺣﺬف ﺷـﺪه اﺳـﺖ‪ 90 .‬ﻧﻤﻮﻧـﻪ‬
‫ﺑﺮاي ﺗﺨﻤﻴﻦ و ‪ 90‬ﻧﻤﻮﻧﻪ ﺑﺮاي اﻋﺘﺒﺎر ﺳﻨﺠﻲ ﻛﻨﺎر ﮔﺬاﺷﺘﻪ ﻣﻲ ﺷﻮد‪.‬‬
‫‪ (1‬ﭼﻮن ‪ pitch‬ﻧﺎﭘﺎﻳﺪار اﺳﺖ‪ ،‬ﺑﺮاي ارزﻳﺎﺑﻲ ﻣﺪﻟﻬﺎ‪ RMS ،‬ﺧﻄﺎي ﺑﻴﻦ ﺧﺮوﺟـﻲ اﻧـﺪازه ﮔﻴـﺮي ﺷـﺪه و ‪10 step ahead‬‬
‫ﭘﻴﺶ ﺑﻴﻨﻲ ‪ .J10‬اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد‪Pitch .‬‬
‫‪ (2‬ﻣﻘﺎدﻳﺮ ﻓﻴﺖ ﺑﺮاي ﻣﺪﻟﻬﺎي ﻣﺨﺘﻠﻒ اﻳﻨﮕﻮﻧﻪ اﺳﺖ‪.‬‬
‫‪ ARX(441)=0.0090‬ﻛﻪ ﻗﺎﺑﻞ ﻗﺒﻮل ﺑﻪ ﻧﻈﺮ ﻣﻲ رﺳﺪ ﻛﻪ در ﺷﻜﻞ ﻧﺸﺎن داده ﺷﺪه و اﻳﻦ ﻣﺪل ﺳـﺎده ﻣـﻮرد ﭘـﺬﻳﺮش‬
‫ﻗﺮار ﮔﻴﺮد‪..‬‬

‫‪ARX(411)=0.0018‬‬ ‫‪ARX(4121)=0.00189‬‬ ‫‪ARX(811)=0.0193‬‬


‫‪n4s4=0.00358‬‬

‫• ﺑﻬﺘﺮﻳﻦ ﻓﻴﺖ ﻣﺮﺑﻮط ﺑﻪ ‪ ARX(411)=0.0018‬اﺳﺖ‪.‬‬

‫‪20-10‬‬
‫ ‪11 NONLINEAR BLACK‐BOX MODELS‬‬

‫‪ ‬ﻣﺪل ﺟﻌﺒﻪ ﺳﻴﺎه ﻋﻤﻼ ﻣﻮرد ﻧﻴﺎز اﺳﺖ‬


‫‪ ‬ﺑﺎﻳﺪ اﻃﻼﻋﺎت ﻣﺮﺑﻮط ﺑﻪ ﻋﻮاﻣﻞ ﻏﻴﺮ ﺧﻄﻲ در ﻣﺪل ﺟﺎي داده ﺷﻮد‪ .‬ﺑﺮاي اﻳﻨﻜﺎ ﺷﺎﻳﺪ ﻧﻴـﺎز ﺑﺎﺷـﺪ از ﺟـﺪول اﺳـﺘﻔﺎده‬
‫ﺷﻮد‬

‫‪ 1-11‬ﺟﻌﺒﻪ ﺳﻴﺎه ﻏﻴﺮ ﺧﻄﻲ‬


‫ﻣﺪل ﻛﻠﻲ ﻏﻴﺮ ﺧﻄﻲ ﺑﺪون ﺗﻮﺟﻪ ﺑﻪ ‪ physical insight‬را اﻳﻨﮕﻮﻧﻪ ﻣﻲ ﺗﻮان ﻧﻮﺷﺖ‬

‫ﻛﻪ ﻣﺪل رﮔﺮﺳﻮري آن در ﺣﺎﻟﺖ ﻛﻠﻲ‬

‫‪ ‬ﺳﻮال ﻣﺮﺑﻮط ﺑﻪ اﻧﺘﺨﺎب ‪ ϕ‬و ‪ g‬اﺳﺖ‪.‬‬

‫‪ 1-1-11‬اﻧﺘﺨﺎب رﮔﺮﺳﻮر ‪ ϕ‬‬


‫اﻧﺘﺨﺎب ﻣﻮﻟﻔﻪ ﻫﺎي رﮔﺮﺳﻮر )دﻳﺘﺎي اﻧﺪازه ﮔﻴﺮي ﺷﺪه( ﻣﺎﻧﻨﺪ ﺳﻴﺴﺘﻢ ﺧﻄﻲ اﺳﺖ ﻛﻪ ﺑﺮاي ﻣﺜﺎل در‬
‫‪ ‬ﮔﺬﺷﺘﻪ ورودي‪NFIR-models : ϕ={u(t-k)} :‬‬
‫‪ ‬ﮔﺬﺷﺘﻪ ورودي و ﺧﺮوﺟﻲ‪NARX-models: ϕ={u(t-k), y(t-k)} :‬‬
‫‪ ‬ﮔﺬﺷﺘﻪ ورودي و ﺧﺮوﺟﻲ ﺷﺒﻴﻪ ﺳﺎزي ﺷﺪه ﺗﺨﻤﻴﻨﻲ‪NOE-models : ϕ={u(t-k), ŷ(t-k)} :‬‬
‫) ‪y (t )  w(t )  e(t‬‬
‫) ‪w(t )  f1w(t  1)  ...  f n f w(t  n f )  b1u (t  1)  ...  bnb u (t  nb‬‬

‫‪ ‬ﮔﺬﺷﺘﻪ ورودي و ﺧﺮوﺟﻲ ﺗﺨﻤﻴﻨﻲ‪NARMAX-models :‬‬


‫‪‬‬
‫‪‬‬
‫‪ ‬در ﻣﺪل ﻏﻴﺮﺧﻄﻲ ﻣﻌﻤﻮل اﺳﺖ ﻛﻪ ﻣﻘﺎدﻳﺮ اﻧﺪازه ﮔﻴﺮي ﺷﺪه و ﻧﻪ ﺗﺨﻤﻴﻨﻲ اﺳﺘﻔﺎده ﺷﻮد‬

‫‪ 2-1-11‬ﺗﺎﺑﻊ ﻣﺒﻨﺎي )‪ Basis function :g(ϕ‬‬


‫ﻓﺮض ﻛﻨﻴﺪ ﺳﻴﺴﺘﻢ ﻳﻚ ﺧﺮوﺟﻲ داﺷﺘﻪ ﺑﺎﺷﺪ ﺑﺪون ﺗﻮﺟﻪ ﺑﻪ ﻣﻮﻟﻔﻪ ﻫﺎي ‪ ، ϕ‬ﺑﺤﺚ ﺑﺮ ﺳـﺮﻧﺤﻮه ﻧﻮﺷـﺘﻦ ﺗـﺎﺑﻊ ﺳﻴﺴـﺘﻢ‬
‫اﺳﺖ ﻛﻪ ﺗﺮﻛﻴﺒﻲ از ‪ ϕ‬اﺳﺖ‬

‫‪1-11‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﺧﻄﻲ و ﻣﺪل ﺷﺒﻜﻪ ﻋﺼﺒﻲ‬
‫ﺑﻨﻮﻳﺴﻴﻢ‪ .‬اﻳﻦ ﻛـﺎر‬ ‫‪ (1‬ﺑﺴﻂ ﭼﻨﺪﺟﻤﻠﻪ اي‪ :‬ﻳﻚ راه اﻳﻦ اﺳﺖ ﻛﻪ ﺗﺎﺑﻊ را ﺑﺼﻮرت ﻣﺠﻤﻮع ﺗﻮاﻧﻬﺎي ﻣﺘﻐﻴﺮ‬
‫در ﺗﺠﺰﻳﻪ ﺑﺴﻂ ﺗﻴﻠﻮر اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد‪ .‬در ﻛﺎرﺑﺮدﻫـﺎي ﺷﻨﺎﺳـﺎﻳﻲ ﺑـﻪ اﻳـﻦ روش ‪ Volterra expansions‬ﻣـﻲ‬
‫ﮔﻮﻳﻨﺪ‬
‫‪ :2‬ﺑﺴﻂ ﺑﻪ ﺧﺎﻧﻮاده ﺗﺎﺑﻊ ﻣﺒﻨﺎا‪ :‬اﻧﺘﺨﺎب دﻳﮕﺮ اﻳﻦ اﺳﺖ ﻛﻪ ﺗﺎﺑﻌﻲ ﺑﻪ ﻧـﺎم "‪ "mother basis function‬در ﻧﻈـﺮ ﮔﺮﻓﺘـﻪ‬
‫ﺷﻮد و ﻣﺸﺎﺑﻪ ﻫﺎي آن ﺑﺎ ﻣﺮﻛﺰ و ﭘﻬﻨﺎي ﻣﺘﻔﺎوت ﺳﺎﺧﺘﻪ ﺷﻮد‪ .‬ﺣﺎل ﺗﺎﺑﻊ ﻣﺠﻬﻮل ﺑﺎ ﻣﺠﻤﻮع اﻳﻦ ﺗﻮاﺑﻊ ﻣﺪل ﺷﻮد‪.‬‬

‫در اﻳﻦ ﺗﺎﺑﻊ ‪ (dilation parameters) βk‬ﺗﺎﺑﻊ را ﻓﺸﺮده و ﺑﺎز ﻣﻲ ﻛﻨﺪ و ‪ (translation parameters) γk‬ﺳـﻴﮕﻨﺎل را‬
‫روي ﻣﺤﻮر ﺟﺎﺑﺠﺎ ﻣﻲ ﻛﻨﺪ‪ ..‬ﻧﻤﻮﻧﻪ ﻛﺎﻣﻼ ﺷﻨﺎﺧﺘﻪ ﺷﺪه آن ﺳﺮي ﻓﻮرﻳﻪ اﺳﺖ‪.‬‬

‫ﻧﻤﻮﻧﻪ ﺗﻮاﺑﻊ ﻣﺒﻨﺎي ﺗﻚ ﻣﺘﻐﻴﺮه‬


‫‪ ‬در ﺳﺮي ﻓﻮرﻳﻪ )‪ k(x) = cos(βkx+γk‬اﺳﺖ ﻛﻪ ‪ βk‬ﻓﺮﻛﺎﻧﺲ و ‪ γk‬اﺧﺘﻼ ف ﻓﺎز اﺳﺖ‬
‫‪ ‬ﻧﻤﻮﻧﻪ دﻳﮕﺮ ﺗﺎﺑﻊ ﻣﺒﻨﺎ و ﺧﺎﻧﻮاده آن در ﺷﻜﻞ زﻳﺮ ﻧﺸﺎن داده ﺷﺪه اﺳﺖ‬

‫ﻣﺠﻤﻮﻋﻪ اﻳﻦ ﺳﻴﮕﻨﺎﻟﻬﺎ‪ ،‬ﻳﻚ ﺗﺎﺑﻊ ﻏﻴﺮ ﺧﻄﻲ را ﺑﺼﻮرت ‪ step wise‬ﺗﻘﺮﻳﺐ ﻣﻲ زﻧﺪ‬
‫‪ ‬ﻧﻤﻮﻧﻪ دﻳﮕﺮ ﻧﻤﻮدار ﮔﻮﺳﻲ اﺳﺖ‬

‫‪ ‬ﭘﻠﻪ ﻧﻤﻮﻧﻪ دﻳﮕﺮ آن اﺳﺖ‬

‫‪ ‬ﺗﺎﺑﻊ ‪ sigmoid‬ﻛﻪ ﻫﻤﻮار ﺷﺪه ﺗﺎﺑﻊ ﭘﻠﻪ اﺳﺖ‬

‫‪ ‬ﻋﻤﻠﻜﺮد ﺗﺎﺑﻊ ﻣﺒﻨﺎ ﻣﻤﻜﻦ اﺳﺖ ﻣﺤﻠﻲ ‪ local‬و ﻳﺎ ﺟﺎﻣﻊ ‪ global‬ﺑﺎﺷﺪ‪ .‬ﺗﻮاﺑﻊ ﻣﺒﻨﺎي ﺳﺮي ﻓﻮرﻳـﻪ و ‪ Volterra‬ﺑﻄـﻮر‬
‫واﺿﺢ ﺟﺎﻣﻊ ﻫﺴﺘﻨﺪ وﻟﻲ ﺗﻮاﺑﻌﻲ ﻛﻪ در وﻳﻮﻟﺖ اﺳﺘﻔﺎده ﻣﻲ ﺷﻮﻧﺪ ﻋﻤﻠﻜﺮد ﻣﺤﻠﻲ دارﻧﺪ‪.‬‬

‫ﺳﺎﺧﺖ ﺗﺎﺑﻊ ﻣﺒﻨﺎ ﭼﻨﺪ ﻣﺘﻐﻴﺮه‬


‫ﺑﺮاي ﭼﻨﺪ ﺑﻌﺪي ﻛﺮدن ﺗﻮاﺑﻊ ﻣﺒﻨﺎ ‪ 3‬روش وﺟﻮد دارد‬

‫‪Tensor product::1‬‬
‫ﺗﺎﺑﻊ ﻣﺒﻨﺎي ﭼﻨﺪ ﻣﺘﻐﻴﺮه از ﺿﺮب ﺗﻮاﺑﻊ ﻣﺒﻨﺎي ﺗﻚ ﻣﺘﻐﻴﺮه ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬

‫‪2-11‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﺧﻄﻲ و ﻣﺪل ﺷﺒﻜﻪ ﻋﺼﺒﻲ‬

‫در اﻳﻦ راﺑﻄﻪ ﻓﺎﺻﻠﻪ ﻫﺮ ورودي از ﻣﺮﻛﺰ ‪ j‬ﻣﺤﺎﺳﺒﻪ و در وزن ‪ βj‬ﺿﺮب ﮔﺸﺘﻪ ﺑﻪ ﺗﺎﻳﻊ ﻏﻴﺮ ﺧﻄﻲ اﻋﻤـﺎل ﻣـﻲ ﺷـﻮد‪ .‬در‬
‫ﻧﻬﺎﻳﺖ ‪ d‬ﻣﻘﺪار ﺑﺪﺳﺖ آﻣﺪه در ﻫﻢ ﺿﺮب ﻣﻲ ﺷﻮﻧﺪ‪ .‬دو ﭘﺎراﻣﺘﺮ ﻫﺮ ﻳﻚ ‪ d‬ﺑﻌﺪ)ﺳﺎﻳﺰ رﮔﺮﺳﻮر( دارﻧﺪ‪.‬‬

‫‪Radial construction. :2‬‬


‫در اﻳﻦ روش ﺗﺎﺑﻊ ﭼﻨﺪ ﻣﺘﻐﻴﺮه ﺗﺎﺑﻊ ﻧﻮرم ﺑﻴﻦ ‪ ‬و ‪ ‬اﺳﺖ‬

‫در اﻳﻦ راﺑﻄﻪ ﻓﺎﺻـﻠﻪ ‪ ϕ‬ﻛـﻪ ‪ d‬ﺑﻌـﺪ دارد از ﻣﺮﻛـﺰ ‪ d‬ﺑﻌـﺪي ‪ ‬ﻣﺤﺎﺳـﺒﻪ و اﻳـﻦ ﺑـﺮدار ‪ d‬ﺑﻌـﺪي در ﻣـﺎﺗﺮﻳﺲ ‪β ، d*d‬‬
‫)‪ (positive definite‬ﺿﺮب ﻣﻲ ﺷﻮد‪ .‬اﻳﻦ ﻣﺎﺗﺮﻳﺲ ﻧﻘﺶ ‪ dilation‬را ﺑﺮ ﻋﻬﺪه دارد و ﻣﻲ ﺗﻮاﻧﺪ ﻣﺎﺗﺮﻳﺲ واﺣﺪ ﺑﺎﺷـﺪ‪.‬‬
‫ﻧﻮرم ﻓﺎﺻﻠﻪ ﻣﻲ ﺗﻮاﻧﺪ ﻫﺮ ﻧﻮرﻣﻲ از ﺟﻤﻠـﻪ ‪ quadratic‬ﺑﺎﺷـﺪ ‪ .‬ﻧﺮوﻧﻬـﺎي ﺷـﺒﻜﻪ ﻋﺼـﺒﻲ ‪ Radial Basis‬از اﻳـﻦ روش‬
‫اﺳﺘﻔﺎده ﻣﻲ ﻛﻨﻨﺪ‪.‬‬

‫‪ Ridge construction :3‬‬


‫د راﻳﻦ روش ﻣﻘﺪار ﺑﺮ اﺳﺎس ﻓﺎﺻﻠﻪ ﺗﺎ ‪ hyperplane‬ﺗﺨﺼﻴﺺ داده ﻣﻲ ﺷﻮد‪.‬‬

‫در اﻳﻦ راﺑﻄﻪ ‪ d‬اﻟﻤﺎن ‪ ϕ‬ﻫﺮ ﻳﻚ در ﺗﺎﺑﻊ وزﻧﻲ ﺧﻮد ‪ βj‬ﺿﺮب و از ﺑﺎ ﻳﻚ ﻋﺪد ﺟﻤﻊ ﺷﺪه ﺑﻪ ﺗﺎﺑﻊ ﻏﻴﺮ ﺧﻄﻲ اﻋﻤـﺎل ﻣـﻲ‬
‫ﮔﺮدد‪ β .‬ﺑﻌﺪ ‪ d‬و ‪ ‬اﺳﻜﺎﻟﺮاﺳﺖ )ﻧﻪ ‪ d‬ﺑﻌﺪ ﻣﺎﻧﻨﺪ ﺣﺎﻟﺖ رادﻳﺎل(‪ .‬در اﻳﻦ ﺣﺎﻟﺖ ﺣﺘﻲ آﮔﺮ ‪ k‬ﻣﺤﻠﻲ ﺑﺎﺷﺪ ‪ g‬ﺟـﺎﻣﻊ اﺳـﺖ‪.‬‬
‫ﺷﻜﻞ ﻧﻤﻮﻧﻪ ‪ ridge‬ﺑﺎ ‪ β1=2=1‬و ‪ =1‬را ﻧﺸﺎن ﻣﻲ دﻫﺪ‪ .‬اﻳﻦ ﺷﻜﻞ از ﻫﺮ دو ﺟﻬـﺖ ﺗـﺎ ﺑﻴﻨﻬﺎﻳـﺖ اداﻣـﻪ ﻣـﻲ ﻳﺎﺑـﺪ‪.‬‬
‫ﻧﺮوﻧﻬﺎي ﺷﺒﻜﻪ ﻋﺼﺒﻲ ‪ MLP‬از اﻳﻦ روش اﺳﺘﻔﺎده ﻣﻲ ﻛﻨﻨﺪ‪.‬‬

‫‪3-11‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﺧﻄﻲ و ﻣﺪل ﺷﺒﻜﻪ ﻋﺼﺒﻲ‬

‫‪1‬‬

‫‪0‬‬ ‫‪1‬‬ ‫‪2‬‬

‫ﺳﺎﺧﺘﺎر ﻛﻠﻲ‬
‫ﻣﺴﺘﻘﻞ از روش اﻧﺘﺨﺎﺑﻲ ﺑﺮاي ﺳﺎﺧﺖ ﺗﺎﺑﻊ ﻣﺒﻨﺎي ﭼﻨﺪ ﻣﺘﻐﻴﺮه ﺗﺎﺑﻊ ‪ g‬ﺑﻪ ﻓﺮم‬

‫اﺳﺖ‪ .‬ﺑﻪ اﻳﻦ ﺗﺮﺗﻴﺐ ﺑﺮدار ‪ ‬ﺷﺎﻣﻞ ‪ β ،α‬و ‪ ‬ﻫﺎ ﻳﻌﻨﻲ ‪ 3n‬ﭘﺎراﻣﺘﺮ اﺳﺖ‪ .‬ﻛﻪ در آن‬ ‫ﺑﺎ ﻓﺮﻣﻮل ﻣﺘﻔﺎوت ﺑﺮاي‬
‫‪ ‬ﻣﺤﻞ ﺗﺎﺑﻊ ﻣﺒﻨﺎ‬
‫‪ ‬ﺿﺮﻳﺐ ورودي‬
‫‪ ‬ﺿﺮﻳﺐ ﻫﺮ ﺗﺎﺑﻊ ﻣﺒﻨﺎ ﺳﺖ‬
‫‪ ‬ﺗﺎﺑﻊ ﺿﺮﺑﻪ‪ :‬ﺳﺨﺖ ﻧﻴﺴﺖ ﻛﻪ در ﻳﺎﺑﻴﻢ ﻛﻪ ‪ ‬ﻣﻲ ﺗﻮاﻧﺪ ﻳﻚ ﺗﺎﺑﻊ ﺿﺮﺑﻪ ﺑﺎﺷﺪ ﻛﻪ ﻗﺎرد اﺳﺖ ﻫﺮ ﺗـﺎﺑﻌﻲ را ﻣـﺪل ﻛﻨـﺪ‪.‬‬
‫ﻓﻘﻂ اﻳﺮاد رداﻳﻦ اﺳﺖ ﻛﻪ ﺑﺮاي ﺑﻪ ﺗﻌﺪاد زﻳﺎدي ﺿﺮﺑﻪ ﻧﻴﺎز اﺳﺖ )‪ n‬ﺑﺰرگ اﺳﺖ(‪.‬‬
‫‪ ‬ﭘﺎﻟﺲ‪  :‬ﻣﻲ ﺗﻮاﻧﺪ ﭘﺎﻟﺲ ﻳﺎ ﻋﺮض و ﺷﺮوع ﻣﺘﻐﻴﺮ ﺑﺎﺷﺪ‪ .‬د راﺑﻦ ﺣﺎﻟﺖ ﺑﻪ ‪ n‬ﻛﻤﺘﺮي ﺑﺮاي ﻣﺪﻟﺴﺎزي ﻧﻴﺎز اﺳﺖ زﻳﺮ در‬
‫ﺑﺨﺸﻬﺎي ﺛﺎﺑﺖ ﻣﻲ ﺗﻮان از ﻳﻚ ﭘﺎﻟﺲ ﻋﺮﻳﺾ اﺳﺘﻔﺎده ﻛﺮد‪.‬‬

‫ﻧﻤﺎﻳﺶ ﮔﺮاﻓﻴﻜﻲ ﺷﺒﻜﻪ اي ﻣﺪﻟﺴﺎزي ‬


‫‪ ‬اﻳﻦ ﺗﻘﺮﻳﺐ زدن را ﻣﻲ ﺗﻮان ﺑﺼﻮرت ﮔﺮاﻓﻴﻜﻲ و ﺷﺒﻜﻪ ﻧﺸـﺎن داد در آن "‪ "mother basic function‬ﻳﻌﻨـﻲ ‪ ‬در‬
‫ﮔﺮه ﻫﺎي آن ﻗﺮار دارد‪.‬‬

‫در ‪ θ=β‬ﺿﺮب ﺷﺪه و ﺑﻪ ﺗﺎﺑﻊ ﻣﺎدر ﻛﻪ ﻣﺮﻛﺰ ﻣﺴﺘﻘﻞ ﺧﻮد را دارد اﻋﻤﺎل ﻣـﻲ‬ ‫‪ ‬ورودﻳﻬﺎي‬
‫ﺷﻮد‪ .‬ﺗﺎ ﺧﺮوﺟﻲ ﻫﺮ ﮔﺮه ﺑﺪﺳﺖ آﻳﺪ‪.‬‬

‫‪ ‬ﺣﺎل ﺟﺮوﺟﻲ ﮔﺮه ﻫﺎ ﺑﺎ وزن ‪ α‬ﺑﺎ ﻫﻢ ﺟﻤﻊ ﻣﻲ ﺷﻮﻧﺪ‬

‫‪4-11‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﺧﻄﻲ و ﻣﺪل ﺷﺒﻜﻪ ﻋﺼﺒﻲ‬

‫‪ ‬ﺑﺪﺳﺖ آﻳﺪ‪ .‬ﭘﺎﺳﺦ ﺑﻪ اﻳﻨﻜﻪ ﭼﻨﺪ ﻻﻳﻪ ﻣﻴﺎﻧﻲ ﻛﺎﻓﻲ اﺳﺖ روﺷﻦ ﻧﻴﺴﺖ ﻣﻠﻲ اﺣﻤﺎع ﺑﺮ آن اﺳﺖ ﻛﻪ ﻋﻤﻮﻣـﺎ ﻳـﻚ ﻻﻳـﻪ‬
‫ﻣﻴﺎﻧﻲ ﺑﺮاي ‪most practically reasonable systems.‬ﻛﻔﺎﻳﺖ ﻣﻲ ﻛﻨﺪ‬
‫ﺳﺎﺧﺘﺎر دﻳﮕﺮ ﻛﻪ ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار ﻣﻲ ﮔﻴﺮد ﺳﺎﺧﺘﺎر ‪ Recurrent Networks‬اﺳﺖ ﻛﻪ از ﺧﺮوﺟﻲ ﻓﻴﺪﺑﻜﻲ ﺗـﺎﺧﻴﺮ‬
‫دار ﺑﻪ ورودي اﻋﻤﺎل ﻣﻲ ﺷﻮد‪ .‬از ﻃﺮﻓﻲ ﻣﻤﻜﻦ اﺳﺖ ‪state‬ﻫﺎ ﺑﻪ ورودي ﻓﻴﺪﺑﻚ ﮔﺮدﻧﺪ‬

‫‪ 3-1-11‬روﺷﻬﺎي ﻛﻼﺳﻴﻚ ﺗﻘﺮﻳﺐ ﺗﺎﺑﻊ ﻏﻴﺮ ﺧﻄﻲ‬


‫‪ Nearest Neighbors or Interpolation.‬‬
‫‪ :‬روﺷﻲ ﻛﻪ ﺑﺼﻮرت ﻃﺒﻴﻌﻲ اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد ﺗﻘﺮﻳﺐ ‪ stepwise‬ﻳﺎ ﻣﻴﺎن ﻳﺎﺑﻲ ﺧﻄﻲ ‪ rampwise‬اﺳﺖ‪ .‬در ﺣﺎﻟـﺖ اول‬
‫ﻛﺮﻧﻞ‬

‫ﻛﻪ ﺑﺎ روش ‪ radial‬ﭼﻨﺪ ﻣﺘﻐﻴﺮه ﺷﻮد‬

‫ﻣﺤﻞ ‪ ‬و درﺟﻪ ﺑﻨﺪي ‪ β‬ﺑﻪ ﻧﺤﻮي اﻧﺘﺨﺎب ﻣﻲ ﺷﻮﻧﺪ ﻛﻪ ﺑﺘﻮاﻧﺪ ﺗﺎﺑﻊ را ﺑﻪ ﺧﻮﺑﻲ ﺗﻘﺮﻳﺐ ﺑﺰﻧﺪ‪.‬‬

‫‪ : Epanechnikov kernel‬‬
‫ﻧﻮع دﻳﮕﺮ اﺳﺘﻔﺎده از ﻛﺮﻧﻞ‬

‫اﺳﺖ ﻛﻪ ‪ bell-shaped‬اﺳﺖ‪ .‬در ﺣﺎﻟﺖ ﭼﻨﺪ ﻣﺘﻐﻴﺮه آن‬

‫‪where h is a small positive number, k are given points in the space of regression vector .‬‬

‫‪5-11‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﺧﻄﻲ و ﻣﺪل ﺷﺒﻜﻪ ﻋﺼﺒﻲ‬
‫‪ B.Splines.‬‬
‫‪: B-splines are local basis functions which are piece-wise polynomials. The connections of‬‬
‫‪the pieces of polynomials have continuous derivatives up to a certain order, depending on the‬‬
‫‪degree of the polynomials,‬‬

‫دﻳﮕﺮ ﺗﻮاﺑﻊ ﻏﻴﺮ ﺧﻄﻲ ﻣﺒﻨﺎ‪ :‬‬


‫‪ ‬ﺷﺒﻜﻪ ﻋﺼﺒﻲ‪MLP‬‬
‫‪Radial basis function ‬‬
‫‪:Wavelet network ‬‬

‫‪‬‬
‫در ﻣﺤﺪوده ]‪ [-2,2;-2,2‬ﺑﺎ ﻛﺮﻧﻞ ﮔﻮﺳﻲ و‬ ‫ﻣﺜﺎل‪ :‬ﺗﻘﺮﻳﺐ ﺗﺎﺑﻊ دوﺑﻌﺪي‬
‫ﻫﺮﻣﻲ اﺳﺖ‪ .‬ﻣﺮﻛﺰ ﻛﺮﻧﻞ و ﻣﺤﺪوده آن ﺛﺎﺑﺖ اﺳﺖ‪ 6×6 .‬ﻣﺮﻛﺰ ﺑﺎ ﻣﺤﺪوده ‪ ±0.5‬در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﺷﺪه اﺳﺖ‪ .‬ﺳﻤﺖ ﭼـﭗ‬
‫ﺗﺎﺑﻊ اﺻﻠﻲ‪ ،‬وﺳﻂ ﺗﻮاﺑﻊ ﺷﻌﺎﻋﻲ ﻣﺒﻨﺎ و ﺳﻤﺖ راﺳﺖ ﺗﻘﺮﻳﺐ ﺑﺎ ﻛﺮﻧﻞ ﮔﻮﺳﻲ ﺑﺎ ﺧﻄﺎي ‪ MSE=4583‬اﺳﺖ‪.‬‬

‫ﺧﻄﺎ ﺑﺎ ﻛﺮﻧﻞ ﻫﺮﻣﻲ ‪ MSE=4726‬اﺳﺖ‬

‫وﻗﺘﻲ از ﺷﺒﻜﻪ ﻋﺼﺒﻲ ﺑﺎ ﺳﺎﺧﺘﺎر ﺑﺰرﮔﺘﺮ اﺳﺘﻔﺎده ﺷﻮد ‪ MSE=1.2‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬

‫‪6-11‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﺧﻄﻲ و ﻣﺪل ﺷﺒﻜﻪ ﻋﺼﺒﻲ‬

‫دﺳﺘﻮر ‪ MATLAB‬در ‪ system identification toolbox‬‬


‫‪m‬‬ ‫=‬ ‫‪nlarx(data,[na‬‬ ‫‪nb‬‬ ‫دﺳﺘﻮر ‪ ARX‬ﻏﻴﺮ ﺧﻄﻲ ‪ MATLAB‬ﺑﻪ اﻳﻦ ﻓﺮم اﺳﺖ‬
‫)‪nk],Nonlinearity‬‬
‫ﻛﻪ ﺗﻮاﺑﻊ ﻣﺒﻨﺎ زﻳﺮ را ﻣﻲ ﺗﻮان ﺑﺮاي آن ﺗﻌﺮﻳﻒ ﻛﺮد‪.‬‬
‫‪‬‬ ‫‪'wavenet' : (default) Wavelet network‬‬
‫‪‬‬ ‫‪'sigmoidnet': Sigmoid network‬‬
‫‪‬‬ ‫‪'treepartition' : Binary-tree‬‬
‫‪‬‬ ‫‪'linear': Linear function‬‬
‫‪‬‬ ‫‪neuralnet: Neural network‬‬
‫‪‬‬ ‫‪customnet:‬‬
‫ﻣﺜﺎل ‪ .1‬اﺳﺘﻔﺎده ا زدﺳﺘﻮر ‪ nlarx‬در ﺷﻨﺎﺳﺎﻳﻲ‬
‫دﻳﺘﺎي ﻳﻚ ﺳﻴﺴﺘﻢ دو ﺗﺎﻧﻚ ذﺧﻴﺮه ﻣﺎﻳﻊ در ‪ MATLAB‬وﺟﻮد دارد‪ .‬از اﻳﻦ دﻳﺘﺎ ﺑﺮاي ﻣﻘﺎﻳﺴﻪ ﺗﻜﻨﻴﻜﻬـﺎي ﺷﻨﺎﺳـﺎﻳﻲ‬
‫اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد‪.‬‬
‫‪load twotankdata‬‬
‫;)‪z = iddata(y, u, 0.2‬‬
‫ﺟﺪاﺳﺎزي دﻳﺘﺎ ﺑﺮاي ﺷﻨﺎﺳﺎﻳﻲ و اﻋﺘﺒﺎر ﺳﻨﺠﻲ‬
‫;)‪ze = z(1:1000); zv = z(1001:3000‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺑﺎ ﻣﺪل ﺧﻄﻲ )‪ARX(221), ARX(223‬‬
‫;)]‪m1 = nlarx(ze,[2 2 1‬‬
‫;)]‪m2 = nlarx(ze,[2 2 3‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺑﺎ اﺳﺘﻔﺎده از ﺷﺒﻜﻪ وﻳﻮﻟﺖ ﺑﺎ ‪ 8‬ﮔﺮه‬
‫;))‪m3 = nlarx(ze,[2 2 3],wavenet('num',8‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺑﺎ اﺳﺘﻔﺎده از ﺷﺒﻜﻪ وﻳﻮﻟﺖ ﺑﺎ ‪ 8‬ﮔﺮه‬
‫;)]‪m4 = nlarx(ze,[2 2 3],wavenet('num',8),'nlr', [1 2‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﺑﺎ دﺳﺘﻮر ‪ pem‬و ﺷﺒﻜﻪ ﻏﻴﺮ ﺧﻄﻲ ﺳﻴﮕﻤﻮﻳﺪ ﺑﺎ ‪ 14‬ﮔﺮه‪.‬‬
‫)]‪m5 = idnlarx([2 2 3],sigmoidnet('num',14),'nlr',[1 2‬‬
‫;)‪m5 = pem(ze,m5‬‬
‫ﻣﻘﺎﻳﺴﻪ ﻧﺘﺎﻳﺞ‬
‫)‪compare(zv, m1,m2,m3,m4,m5‬‬

‫‪7-11‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﺧﻄﻲ و ﻣﺪل ﺷﺒﻜﻪ ﻋﺼﺒﻲ‬

‫دﺳﺘﻮر ﺑﺮاي رﮔﺮﺳﻮر اﻧﺘﺨﺎﺑﻲ‬


‫}’)‪m= nlarx(z1,[2 2 3],'wave’, 'CustomReg’,{'y1(t-1)^2,' y1(t-2)*u1(t-3‬‬

‫‪8-11‬‬
‫ ‪12 Network: Multilayer perceptron:MLP‬‬

‫‪ ‬ﺷﺒﻜﻪاي از ﻧﺮوﻧﻬﺎي ﻃﺒﻴﻌﻲ )ﻣﻐﺰ اﻧﺴﺎن( ﭼﻬﺮه را در ﺣﺪود ‪ 0.1 sec‬ﺗﺸﺨﻴﺺ ﻣـﻲ دﻫـﺪ‪ .‬اﻳـﻦ ﺗﻮاﻧـﺎﻳﻲ ﻣـﻮرد‬
‫ﺗﻮﺟﻪ ﻗﺮار ﮔﺮﻓﺘﻪ ﺗﺎ ﺑﺮاي ﺣﻞ ﻣﺴﺎﺋﻞ ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار ﮔﻴﺮد‪ .‬ﺷﺒﻜﻪ ﻋﺼﺒﻲ ﻃﺒﻴﻌﻲ داراي ده ﺑﻴﻠﻴﻮن )‪ (1010‬ﻧـﺮون‬
‫ﺑﺎ ﺳﺮﻋﺖ ﺳﻮﻳﭻ < ‪ 10-3secs‬اﺳﺖ‪.‬‬
‫‪ ‬درﺣﺎﻟﻴﻜﻪ رﻓﺘﺎر ﺗﻚ ﻧﺮون ﺳﺎده اﺳﺖ رﻓﺘﺎر ﺷﺒﻜﻪ ﺑﺴﻴﺎر ﭘﻴﭽﻴﺪه ﻣﻲ ﺷﻮد‪.‬‬
‫‪-‬ﺻﺪﻫﺎ ﻋﻤﻠﻴﺎت را در ﻳﻚ ﺛﺎﻧﻴﻪ اﻧﺠﺎم ﻣﻲ دﻫﻨﺪ‪.‬‬ ‫‪-‬ﻫﺰاران ﻟﻴﻨﻚ ﺑﻪ ﻫﺮ ﻧﺮون وﺟﻮد دارد‬
‫‪Die off frequently (never replaced)-‬‬ ‫‪-‬ﭘﺮدازش ﻣﻮازي اﻧﺠﺎم ﻣﻲ ﺷﻮد‪.‬‬

‫ﺷﺒﻜﻪ ﺗﻚ ﻧﺮوﻧﻲ ﻣﺼﻨﻮﻋﻲ‪ :‬ﺷﻜﻞ ‪ 14,1‬ﻋﻤﻠﻜﺮد ﺗﻚ ﻧﺮون را ﻧﻤﺎﻳﺶ ﻣﻲ دﻫﺪ‪.‬‬

‫‪x1‬‬ ‫‪w1‬‬ ‫‪‬‬ ‫‪F(net‬‬

‫‪w2‬‬
‫‪x2‬‬ ‫‪‬‬ ‫‪o‬‬
‫‪.‬‬ ‫‪n‬‬
‫‪ wi xi‬‬
‫‪.‬‬ ‫‪=Net‬‬
‫‪.‬‬ ‫‪wn‬‬ ‫‪i=1‬‬

‫‪xn‬‬ ‫‪1 if net- >0‬‬


‫=)‪o(xi‬‬
‫‪{ -1 otherwise‬‬
‫‪Figure 14.1 An Artificial Neuron‬‬
‫ﻛﻪ در آن‬
‫‪ (2‬ﺑﺮدار ) ‪ x = (x1,x2, . . . , xI‬ورودي اﺳﺖ‪.‬‬
‫‪ (3‬ﺗﻌﻴﻴﻦ ورودي ‪ :net‬ورودي ﺗﺎﺑﻊ ﺗﺤﺮﻳﻚ ﻣﻤﻜﻦ اﺳﺖ ﺑﻪ ﺻﻮرت ﺟﻤﻊ ﻳﺎ ﺿﺮب ورودﻳﻬﺎ ﺑﺎﺷﺪ‪.‬‬
‫‪l‬‬ ‫‪l‬‬
‫‪net ‬‬ ‫‪ xi wi‬‬ ‫‪net   xi wi‬‬
‫‪i 1‬‬ ‫‪i 1‬‬

‫‪ (4‬ﺗﺮﺷﻠﺪ ‪ :‬ﻋﻼوه ﺑﺮ ورودي ﻛﻠﻲ‪ ،‬ﻫﺮ ﻧﺮون داراي ﺳﻄﺢ ﺗﺮﺷﻠﺪ ﻣﻲ ﺑﺎﺷﺪ ﻛﻪ ﺑﻪ ﻧﺎم ‪ bias, ,‬ﻧﻴﺰ ﺧﻮاﻧﺪه ﻣﻲ ﺷﻮد‪.‬‬
‫‪ (5‬ﺗﺎﺑﻊ ﻓﻌﺎل ﺳﺎز ‪ :f‬ﺑﺮاي ﺗﺎﺑﻊ ﺗﺤﺮﻳﻚ ‪ activation function‬ﺗﻌﺪادي ﺗﺎﺑﻊ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﻣﻲ ﺷـﻮد ﻛـﻪ از ﺟﻤﻠـﻪ آﻧﻬـﺎ‬
‫‪ Sigmoid ،Linear‬و ‪ Hyperbolic‬است‪.‬‬

‫‪1-12‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﺧﻄﻲ و ﻣﺪل ﺷﺒﻜﻪ ﻋﺼﺒﻲ‬

‫اﻳﻦ ﺗﻮﺳﻌﻪ از ﻧﻮع ‪ Ridge‬اﺳﺖ‪ .‬ﺷﺒﻜﻪ ﺗﻚ ﻧﺮوﻧﻲ ﻣﻲ ﺗﻮاﻧﺪ ﺑﺎ ﺗﺎﺑﻊ ‪ sign‬ورودﻳﻬﺎﻳﻲ ﻛﻪ ﺑﺼﻮرت ‪linearly separable‬‬
‫ﻫﺴﺘﻨﺪ ﺧﻮﺷﻪ ﺑﻨﺪي ﻛﻨﺪ‪ .‬ﺷﻜﻞ ‪ 14,4‬ﭼﮕﻮﻧﮕﻲ ﺗﺎﺑﻊ ‪ OR‬را ﻧﺸﺎن ﻣﻲ دﻫﺪ‪.‬‬

‫‪Figure 14.4 Linear Separable Boolean Perceptrons‬‬


‫ﻣﺴﺌﻠﻪ ﻃﺒﻘﻪ ﺑﻨﺪي‪ :‬در ﻃﺒﻘﻪ ﺑﻨﺪي ﺑﺮاي ﻫﺮ ﻣﺮز ﻳﻚ ﻧﺮون ﻻﻳﻪ ﻣﻴﺎﻧﻲ ﺿﺮوري اﺳﺖ‪ .‬ﻣﺜﻼ ﺑﺮاي ﺷـﻜﻞ ‪ 8-2-14‬ده‬
‫ﻧﺮون ﻣﻮرد ﻧﻴﺎز اﺳﺖ‪ .‬در ﮔﻮﺷﻪ ﺳﻤﺖ ﭼﭗ ﺑﺎﻻ ﻣﻮرد ﻛﻼﺳﻪ ﺑﻨﺪي ﻏﻠﻂ ‪ x‬وﺟﻮد دارد‪ .‬ﺑﺮاي ﻛﻼﺳﻪ ﺑﻨـﺪي ﺻـﺤﻴﺢ آن‬
‫ﺑﻪ ‪ 3‬ﻧﺮون دﻳﮕﺮ ﻧﻴﺎز اﺳﺖ‬

‫‪Figure 14.2.8 Feedforward Neural Network Classification Boundary Illustration.‬‬


‫ﻣﺴﺌﻠﻪ ﺗﻘﺮﻳﺐ ﺗﺎﺑﻊ‬
‫‪ ‬در ﻣﺴﺌﻠﻪ ﺗﻘﺮﻳﺐ ﺗﺎﺑﻊ ﺑﺎ ‪ 4‬ﻣﻴﻨﻴﻤﻮم–ﻣﺎﻛﺰﻳﻤﻢ ﺑﻪ ﺣﺪاﻗﻞ ‪ 1+4‬ﻧﺮون ﻻﻳﻪ ﻣﻴﺎﻧﻲ ﺑﺎ ﺗﺎﺑﻊ ﻓﻌﺎﻟﺴﺎز ﺳﻴﮕﻤﻮﻳﺪ ﻧﻴـﺎز اﺳـﺖ‪.‬‬
‫اﮔﺮ از ﺗﺎﺑﻊ ﻓﻌﺎﻟﺴﺎز ﺧﻄﻲ اﺳﺘﻔﺎده ﺷﻮد ﺑﻪ ﺗﻌﺪاد ﺑﻴﺸﺘﺮي ﻧﺮون ﺑﺮاي رﺳﻴﺪن ﺑﻪ ﻫﻤﺎن دﻗﺖ ﺑﺎر ﻗﺒﻞ ﻧﻴﺎز اﺳﺖ‪.‬‬

‫‪2-12‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﺧﻄﻲ و ﻣﺪل ﺷﺒﻜﻪ ﻋﺼﺒﻲ‬

‫‪Figure 14.2.9 Hidden Unit Functioning for Function‬‬


‫ﻗﺎﺑﻠﻴﺘﻬﺎ ﺷﺒﻜﻪ ﻋﺼﺒﻲ ﻣﺼﻨﻮﻋﻲ‬
‫‪ ‬ﭘﺮدازش ﻣﻮازي‬
‫‪ :Robust and fault tolerant‬در ﻋﻤﻞ‪ ،‬ﺧﺮاب ﺷﺪن ﺑﺨﺸﻲ از ﺷﺒﻜﻪ اﻓـﺖ ﺟﺰﻳـﻲ ﻋﻤﻠﻜـﺮد را در ﭘـﻲ دارد وﻟـﻲ‬ ‫‪‬‬
‫ﻣﻨﺠﺮ ﺑﻪ ﺧﺮاﺑﻲ ﻛﺎﻣﻞ ﻧﺸﺪه ﺿﻤﻦ اﻳﻨﻜﻪ ﻣﻲ ﺗﻮاﻧﺪ ﻋﻠﻴﺮﻏﻢ ﺧﺮاﺑﻲ ﺑﺨﺸﻲ‪ ،‬ﺑﺎ ﻗﺴﻤﺘﻬﺎي ﺳﺎﻟﻢ ﻋﻤﻠﻜـﺮد را ﺑـﺎز ﺳـﺎزي‬
‫ﻛﻨﺪ‬
‫وﻓﻘﻲ‪ :‬ﺗﻮاﻧﺎﻳﻲ ﻳﺎدﮔﻴﺮي از ﻧﺘﺎﻳﺞ ‪ Task‬ﻗﺒﻠﻲ دارد‪.‬‬ ‫‪‬‬
‫ﻧﺴﺒﺖ ﺑﻪ ﻧﻮﻳﺰ ﺣﺴﺎس ﻧﻴﺴﺖ‬ ‫‪‬‬
‫ﻣﻲ ﺗﻮاﻧﺪ ﻋﻤﻠﻴﺎت ﭘﻴﭽﻴﺪه را ﻣﺪل ﻛﻨﺪ‪.‬‬ ‫‪‬‬
‫ﻳﻚ ﺷﺒﻜﻪ ﻋﺼﺒﻲ آﻣﻮزش دﻳﺪه ﻧﻘﺶ ﻳﻚ ﻣﺘﺨﺼﺺ در آن ﻓﻴﻠﺪ را دارد‪.‬‬ ‫‪‬‬

‫‪ MLP The Multilayer Perceptron 1-1-12‬‬


‫‪ MLP‬ﺑﻪ دﻟﻴﻞ ﺗﻮاﻧﺎﻳﻲ ﻣﺪل ﻛﺮدن ﺗﻮاﺑﻊ ﭘﻴﭽﻴﺪه ﻛﺎرﺑﺮدﻫﻲ ﻋﻤﻠﻲ زﻳﺎدي ﭘﻴﺪا ﻛﺮده اﺳﺖ‪ .‬ﺷﻜﻞ ﻳﻚ ﻧﻤﻮﻧـﻪ‪ 4‬ورودي‪،‬‬
‫ﻻﻳﻪ ﻣﻴﺎﻧﻲ ‪ 2‬ﮔﺮه اي و ‪ 2‬ﺧﺮوﺟﻲ را ﻧﺸﺎن ﻣﻲ دﻫﺪ‪.‬‬

‫آﺷﻨﺎﻳﻲ ﺑﺎ ‪ NNToolBox‬‬
‫ﻣﺜﺎل ‪ .2‬دو ورودي ]‪ [-2;-2‬و ]‪ [2;2‬دارﻳﻢ ﻛﻪ ﺑﺮاي اوﻟﻲ ﺧﺮوﺟﻲ ‪ 0‬و ﺑﺮاي دوﻣﻲ ﺧﺮوﺟﻲ ‪ 1‬را در ﻧﻈﺮ دارﻳﻢ‬
‫;]‪p=[-2 2;-2 2‬‬ ‫;]‪t=[0 1‬‬

‫‪3-12‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﺧﻄﻲ و ﻣﺪل ﺷﺒﻜﻪ ﻋﺼﺒﻲ‬
‫ﺳﺎﺧﺖ ﺷﺒﻜﻪ‪ :‬ﺷﺒﻜﻪ ﭘﺮﺳﭙﺘﺮون ﻣﻨﺎﺳﺐ آن ﺳﺎﺧﺘﻪ ﻣﻲ ﺷﻮد‪) .‬دﺳﺘﻮر ‪ newp‬اﺟﺮا ﻣﻲ ﺷﻮد وﻟﻲ ﻗﺪﻳﻤﻲ ﺷﺪه(‬
‫;)‪net = newp(p,t‬‬
‫آﻣﻮزش‪ :‬ﺗﻌﺪاد آﻣﻮزش ‪ 1‬دوره در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﻣﻲ ﺷﻮد‪ .‬ﭼﻮن ‪ 2‬ﻧﻤﻮﻧﻪ ورودي دارﻳﻢ ﻫﺮ دوره ‪ 2‬ﺑﺎر آﻣـﻮزش را ﺷـﺎﻣﻞ‬
‫ﻣﻲ ﮔﺮدد‪.‬‬
‫;‪net.trainParam.epochs = 1‬‬
‫;)‪net = train(net,p,t‬‬
‫ﻧﺘﻴﺠﻪ آﻣﻮزش‪ :‬ﺑﺮدار وزﻧﻬﺎ و ﺑﺎﻳﺎس ﻛﻪ در ﻧﺘﻴﺠﻪ آﻣﻮزش ﺑﺪﺳﺖ آﻣﺪﻧﺪ ﻋﺒﺎرﺗﻨﺪ از‬
‫‪net.iw{:,:},net.b‬‬
‫‪2 2‬‬
‫]‪[-1‬‬
‫ﺗﺴﺖ ﺷﺒﻜﻪ‪ :‬ﺣﺎﻻ ﺑﺮاي ﺷﺒﻴﻪ ﺳﺎزي و ﺗﺴﺖ ﻋﻤﻠﻜﺮد ورودي را ﺑﻪ ﺷﺒﻜﻪ اﻋﻤﺎل ﻣﻲ ﻛﻨﻴﻢ‬
‫)‪a = sim(net,p‬‬
‫ﻧﺘﻴﺠﻪ اي ﻛﻪ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ ﻫﻤﺎن ﺧﺮوﺟﻲ ﺗﻌﺮﻳﻒ ﺷﺪه ﻗﺒﻠﻲ اﺳﺖ ﻛﻪ ﻧﺸﺎن ﻣﻲ دﻫﺪ ﺷـﺒﻜﻪ ﺧـﻮب آﻣـﻮزش دﻳـﺪه‬
‫‪a= 0 1‬‬ ‫اﺳﺖ‪.‬‬

‫اﺟﺮاي ﺑﺎ ‪ GUI‬‬
‫ﺑﻪ ﺟﺎي ﻧﻮﺷﺘﻦ ﺑﺮﻧﺎﻣﻪ اﻳﻦ ﻛﺎر را ﺑﺎ ‪ nntool‬ﺑﺼﻮرت ﮔﺮاﻓﻴﻜﻲ ﻧﻴﺰ ﻣﻲ ﺗﻮاﻧﺴﺘﻴﺪ اﺟﺮا ﻛﻨﻴﺪ‪.‬‬
‫ﻣﺜﺎل ‪ .3‬ﻓﺮض ﻛﻨﻴﺪ ﻣﻲ ﺧﻮاﻫﻴﻢ ﺗﺎﺑﻊ ‪ x2+x+1‬را ﻣﺪل ﻛﻨﻴﻢ‪ .‬ﺑﺮاي اﻳﻦ ﻣﻨﻈﻮر ورودي و ﺧﺮوﺟﻲ را ﻣﻲ ﺳﺎزﻳﻢ‬
‫;)‪p=[-1:0.1:1];t=polyval([1 1 1],p‬‬
‫در ﺗﺸﻜﻴﻞ ﻣﺎﺗﺮﻳﺲ ورودي‪ ،‬ﻫﺮ ﺑﺮدار ﻧﻤﻮﻧﻪ در ﻳﻚ ﺳﺘﻮن ﻗﺮار ﮔﻴﺮد‪.‬‬
‫‪ (6‬ﻧﻤﻮﻧﻪ ﻫﺎي آﻣﻮزش و ‪ update‬ﭘﺎراﻣﺘﺮﻫﺎ ﺑﺼﻮرت ‪Batch‬‬
‫در اﻳﻦ روش ﺗﻮاﻟﻲ اﻃﻼﻋﺎت در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﻧﻤﻲ ﺷﻮد‪ .‬از ﺑﺮدار ورودي ﺗﻌﺪادي ﺑﺮاي آﻣﻮزش و ﺗﻌـﺪادي ﺑـﺮاي ﺗﺴـﺖ و‬
‫ﺗﻌﺪادي ﺑﺮاي اﻋﺘﺒﺎر ﺳﻨﺠﻲ در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﻣﻲ ﺷﻮﻧﺪ‪ .‬دﺳﺘﻮر ‪ train‬ﺗﺠﺪﻳـﺪ ﭘﺎراﻣﺘﺮﻫـﺎ را ﺑﻌـﺪ از ﺑﺮرﺳـﻲ ﻳـﻚ ‪epoch‬‬
‫اﻧﺠﺎم ﻣﻲ دﻫﺪ‪ .‬ﻳﻚ ‪ epoch‬ﺑﺮاﺑﺮ ﻳﻚ ﺑﺎر دوره اﻃﻼﻋﺎت ورودي اﺳﺖ ﻛﻪ ﺑﺮاي آﻣـﻮزش ﻣﻨﻈـﻮر ﺷـﺪه اﺳـﺖ‪) .‬دﺳـﺘﻮر‬
‫‪ newff‬ﻗﺪﻳﻤﻲ ﺷﺪه وﻟﻲ اﺟﺮا ﻣﻲ ﺷﻮد(‬
‫;)‪net = newff(p,t,10,{},'trainbfg');net=init(net‬‬

‫اﻧﻮاع اﻟﮕﻮرﻳﺘﻤﻬﺎي آﻣﻮزﺷﻲ‬


‫اﻧﻮاع اﻟﮕﻮرﻳﺘﻤﻬﺎي آﻣﻮزﺷﻲ دﻳﮕﺮ ﻧﻴﺰ ﻣﻲ ﺗﻮان اﺳﺘﻔﺎده ﻛﺮد ﻣﺎﻧﻨﺪ‪:‬‬
‫‪Conjugate gradient (traincgf, traincgp, traincgb, trainscg),%‬‬
‫)‪Quasi-Newton (trainbfg, trainoss), Levenberg-Marquardt (trainlm‬‬
‫;‪net.trainParam.epochs = 30‬‬
‫;‪net.trainParam.goal = 1e-5‬‬
‫;)‪[net,tr,Y,E] = train(net,p,t‬‬

‫‪4-12‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﺧﻄﻲ و ﻣﺪل ﺷﺒﻜﻪ ﻋﺼﺒﻲ‬
‫در ﻣﻮرد دﺳﺘﻮر ‪ train‬دﻗﺖ ﺷﻮد ﻛﻪ ﺗﻤﺎم اﻃﻼﻋﺎت ورودي را ﺑﺮاي آﻣﻮزش اﺳﺘﻔﺎده ﻧﻤـﻲ ﻛﻨـﺪ ﺑﻠﻜـﻪ ﺑﺨﺸـﻲ از آن را‬
‫ﺑﺮاي ﺗﺴﺖ و اﻋﺘﺒﺎر ﺳﻨﺠﻲ ﺟﺪا ﻣﻲ ﻛﻨﺪ و در آﻣﻮزش ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار ﻧﻤﻲ دﻫﺪ‪ .‬ﻧﻜﺘﻪ دﻳﮕﺮ در ﻣـﻮرد ‪ train‬اﻳﻨﻜـﻪ‬
‫اﻳﻦ دﺳﺘﻮر ﺑﻌﺪ از ﻳﻚ ‪ epoch‬ﭘﺎراﻣﺘﺮﻫﺎ را ﺗﺠﺪﻳﺪ ﻣﻲ ﻛﻨﺪ‪.‬‬
‫)]'‪y = sim(net,p);plot([y',t‬‬
‫اﮔﺮ ﺗﻌﺪاد ﮔﺮهﻫﺎ را از ‪ 10‬ﺑﻪ ‪ 3‬ﻛﺎﻫﺶ دﻫﻴﺪ ﻣﻲ ﺑﻴﻨﻴﺪ ﻛﻪ زﻣﺎن آﻣﻮزش ﺑﻴﺸﺘﺮ ﻣﻲ ﺷﻮد وﻟﻲ اﻧﻄﺒﺎق ﺑﻬﺘﺮي ﺑﻴﻦ رﻓﺘﺎر‬
‫ﺷﺒﻜﻪ و اﻃﻼﻋﺎت ورودي ﭘﺪﻳﺪ ﻣﻲ آﻳﺪ‪ .‬اﻳﻦ آزﻣﺎﻳﺶ را ﻣﻲ ﺗﻮاﻧﻴﺪ در ﺣﻘﻴﻘﺖ ﻳﻚ ﺗﺎﺑﻊ درﺟﻪ ‪ 2‬ﺑﻪ ﺑﻴﺶ از ‪ 2‬ﮔﺮه ﻧﻴـﺎز‬
‫ﻧﺪارد‪.‬‬
‫اﻧﺠﺎم اﻳﻦ ﻛﺎر را در ﭘﻨﺠﺮه ﮔﺮاﻓﻴﻜﻲ ‪ nftool‬ﺑﻪ ﺳﺎدﮔﻲ ﻗﺎﺑﻞ اﻧﺠﺎم اﺳﺖ‪.‬‬
‫‪ (7‬ﻧﻤﻮﻧﻪ ﻫﺎي آﻣﻮزش ﺑﺼﻮرت ﻣﺘﻮاﻟﻲ و ‪ update‬ﻧﻤﻮﻧﻪ ﺑﻪ ﻧﻤﻮﻧﻪ‬
‫ﺑﺮاي آﻣﻮزش ﻧﻤﻮﻧﻪ ﺑﻪ ﻧﻤﻮﻧﻪ ﺑﻪ روش زﻳﺮ ﻣﻲ ﺗﻮان ﻋﻤﻞ ﻛﺮد‬
‫;)‪p=-1:0.1:1;t=polyval([1 1 1],p‬‬
‫دﻗﺖ ﻛﻨﻴﺪ ﻛﻪ ورودي ﺑﺼﻮرت ‪ sequence‬وارد ﺷﻮد )ﺑﻪ آﻛﻮﻻد دﻗﺖ ﻛﻨﻴﺪ(‬
‫;}‪p1={p};t1={t‬‬
‫;)'‪net = newff(p1,t1,3,{},'trainbfg‬‬
‫;‪net.adaptParam.passes = 10‬‬
‫;)‪[net,y,e] =adapt(net,p1,t1‬‬
‫)]'‪cell2mat([y';e‬‬
‫;)‪ys = sim(net,p‬‬
‫)]'‪subplot(211);plot([ys',t‬‬
‫در اﻳﻦ ﺑﺮﻧﺎﻣﻪ ﻧﻤﻮﻧﻪ ﻫﺎ ﺑﻪ ﺗﻌﺪاد ‪ net.adaptParam.passes=10‬ﺑﺎر در آﻣﻮزش ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار ﻣﻲ ﮔﻴﺮﻧـﺪ‪ .‬ﺑـﺮاي‬
‫آﻣﻮزش ﻧﻤﻮﻧﻪ ﺑﻪ ﻧﻤﻮﻧﻪ از ﺑﺮﻧﺎﻣﻪ زﻳﺮ ﻣﻲ ﺗﻮان اﺳﺘﻔﺎده ﻛﺮد‪.‬‬
‫;)‪p=-1:0.1:1;t=polyval([1 1 1],p‬‬
‫;‪ee=0‬‬
‫‪for i=1:1‬‬
‫‪for j=1:21‬‬
‫;))‪[net,y,e,pf] = adapt(net,p(j),t(j‬‬
‫;‪ee(j+(i-1)*21)=e‬‬
‫‪end‬‬
‫‪end‬‬
‫;)‪y = sim(net,p‬‬
‫‪subplot(211);plot([y',t']),‬‬
‫)‪subplot(212);plot(ee‬‬
‫‪ (8‬ﻧﻤﻮﻧﻪ ﻫﺎي آﻣﻮزش ﺑﺼﻮرت ﻣﺘﻮاﻟﻲ و ‪ update‬ﺑﺼﻮرت ‪batch‬‬
‫;)‪p=-1:0.1:1;t=polyval([1 1 1],p‬‬
‫;}‪p1={p};t1={t‬‬
‫;)'‪net = newff(p1,t1,3,{},'trainbfg‬‬
‫;‪net.trainParam.epochs = 30‬‬
‫;)‪[net,y,e] =train(net,p1,t1‬‬
‫)]'‪cell2mat([y';e‬‬
‫;)‪ys = sim(net,p‬‬

‫‪5-12‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﺧﻄﻲ و ﻣﺪل ﺷﺒﻜﻪ ﻋﺼﺒﻲ‬
‫)]'‪subplot(211);plot([ys',t‬‬
‫‪nftool (٩‬‬
‫‪) curve fitting‬آزﻣﺎﻳﺸﻬﺎي ﻓﻮق (را ﺑﻪ ﺳﺎدﮔﻲ ﻣﻲ ﺗﻮان در ﻣﺤﻴﻂ ﮔﺮاﻓﻴﻜﻲ ‪ nftool‬ﭘﻴﺎده ﻛﺮد‬
‫‪3.5‬‬

‫‪3‬‬

‫‪2.5‬‬

‫‪2‬‬

‫‪1.5‬‬

‫‪1‬‬

‫‪0.5‬‬
‫‪0‬‬ ‫‪5‬‬ ‫‪10‬‬ ‫‪15‬‬ ‫‪20‬‬ ‫‪25‬‬

‫‪ 2-1-12‬ﺷﻨﺎﺳﺎﻳﻲ‬
‫ﻣﺪل ﺗﺨﻤﻴﻨﮕﺮ‬

‫و ﺗﺎﺑﻊ ﻣﻌﻴﺎر ‪pem‬‬

‫ﻣﺪﻟﻬﺎ و ﺑﺮدار ‪ϕ‬‬


‫ﻣﺪل‪ :NNARX‬ﺑﺮدار ‪ ϕ‬ﺷﺎﻣﻞ ﮔﺬﺷﺘﻪ ﺧﺮوﺟﻲ ورودي‬

‫ﻣﺪل‪ :NNOE‬ﺑﺮدار ‪ ϕ‬ﺷﺎﻣﻞ ﮔﺬﺷﺘﻪ ورودي و ﺗﺨﻤﻴﻦ ﺧﺮوﺟﻲ‬

‫ﻣﺪل‪ :NNARMAX1‬ﺑﺮدار ‪ ϕ‬ﺷﺎﻣﻞ ﮔﺬﺷﺘﻪ ورودي‪ ،‬ﺧﺮوﺟﻲ و ﺧﻄﺎي ﺗﺨﻤﻴﻦ ﻣﺪل)ِ ﻣﺪل ﻧﻮﻳﺰ ‪ C‬ﻣﻌﻠﻮم(‬

‫ﻣﺪل‪ :NNARMAX2‬ﺑﺮدار ‪ ϕ‬ﺷﺎﻣﻞ ﮔﺬﺷﺘﻪ ورودي‪ ،‬ﺧﺮوﺟﻲ و ﺧﻄﺎي ﺗﺨﻤﻴﻦ‬

‫‪6-12‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﺧﻄﻲ و ﻣﺪل ﺷﺒﻜﻪ ﻋﺼﺒﻲ‬
‫ ﺗﺨﻤﻴﻦ ﻣﺘﻐﻴﺮﻫﺎي ﺣﺎﻟﺖ و ﺧﻄﺎي ﺗﺨﻤﻴﻦ‬،‫ ﺷﺎﻣﻞ ﮔﺬﺷﺘﻪ ورودي‬ϕ ‫ ﺑﺮدار‬:NNSSIF‫ﻣﺪل‬

NN ToolBox ‫ از‬MATLAB ‫دﺳﺘﻮر‬


‫ ﻧﻤﻮﻧﻪ ﺑﺮﻧﺎﻣﻪ آن د رزﻳﺮ آﻣﺪه اﺳﺖ‬.‫ را ﻓﺮﻫﻢ ﻣﻲ آورد‬NN ‫ اﻣﻜﺎن ﺷﻨﺎﺳﺎﻳﻲ ﺑﺎ ﻗﺎﺑﻠﻴﺖ ﻛﺎﻣﻞ‬narxnet ‫دﺳﺘﻮر ي‬
load twotankdata
‫ﺗﺒﺪﻳﻞ ﺑﺮدار دﻳﺘﺎ ﺑﻪ ﺳﻞ‬
X=num2cell(u');T=num2cell(y');
‫ ﮔﺮه در ﻻﻳﻪ ﻣﻴﺎﻧﻲ‬6 ‫ ﺑﺎ‬2‫ و ﺧﺮوﺟﻲ ﺗﺎ درﺟﻪ‬5 ‫ﺗﻌﺮﻳﻒ ﺷﺒﻜﻪ ﺑﺎ ورودي ﺗﺎ درﺟﻪ‬
net = narxnet(1:5,1:2,6)
‫ﺗﻮﻟﻴﺪ دﻳﺘﺎي رﮔﺮﺳﻮر‬
[Xs,Xi,Ai,Ts] = preparets(net,X,{},T)
:‫آﻣﻮزش ﺷﺒﻜﻪ‬
net = train(net,Xs,Ts,Xi,Ai);
view(net)
‫ﺷﺒﻴﻪ ﺳﺎزي ﺧﺮوﺟﻲ ﺑﺮ اﺳﺎس ﺳﻴﺴﺘﻢ آﻣﻮزش دﻳﺪه‬
Y = net(Xs,Xi,Ai);Y1=cell2mat(Y);
perf = perform(net,Ts,Y)
‫ ﺧﻮد ﻫﻤﺒﺴﺘﮕﻲ ﺧﻄﺎ و ﺗﻄﺒﻴﻖ ﺳﻴﮕﻨﺎل ﺷﻨﺎﺳﺎﻳﻲ ﺑﺎ ﺷﺒﻴﻪ ﺳﺎزي را ﻧﺸﺎن ﻣﻲ دﻫﺪ‬،‫ﺑﺮﻧﺎﻣﻪ ﺻﻔﺤﻪاي را ﺑﺎز ﻣﻲ ﻛﻨﺪ ﻛﻪ ﻫﻤﺒﺴﺘﮕﻲ ﺑﻴﻦ ورودي و ﺧﺮوﺟﻲ‬

‫ﭘﺎراﻣﺘﺮﻫﺎي اﻟﮕﻮرﻳﺘﻢ‬
Nonlinear function: net.layers {1}.transferfcn='hardlim'
compet (Competitive), elliotsig (Elliot sigmoid), hardlim (Positive hard limit), hardlims (
Symmetric hard limit), logsig (Logarithmic sigmoid), netinv (Inverse), poslin (Positive
linear), purelin (Linear), radbas (Radial basis), radbasn (Radial basis normalized), satlin
(Positive saturating linear), satlins (Symmetric saturating linear), softmax (Soft max), tansig
(Symmetric sigmoid), tribas (Triangular basis) transfer functions.
Training Algorithms: net. trainFcn= 'trainscg'
: | traincgb | traincgf | traincgp | traingda | traingdm | traingdx | trainlm | trainoss | trainrp |
trainscg

‫ ﻣﺪل ﺳﻴﺴﺘﻢ زﻳﺮ را ﺷﻨﺎﺳﺎﻳﻲ ﻛﻨﻴﺪ‬.4 ‫ﻣﺜﺎل‬


load twotankdata
id=iddata(u,y); plot(id)

7-12
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﺧﻄﻲ و ﻣﺪل ﺷﺒﻜﻪ ﻋﺼﺒﻲ‬
y1
0.8

0.6

0.4

0.2

0
0 500 1000 1500 2000 2500 3000
Time (seconds)
u1

10

0
0 500 1000 1500 2000 2500 3000
Time (seconds)

X=num2cell(u');T=num2cell(y');
‫ ﮔﺮه در ﻻﻳﻪ ﻣﻴﺎﻧﻲ‬6 ‫ ﺑﺎ‬2‫ و ﺧﺮوﺟﻲ ﺗﺎ درﺟﻪ‬5 ‫ ﺗﻌﺮﻳﻒ ﺷﺒﻜﻪ ﺑﺎ ورودي ﺗﺎ درﺟﻪ‬
net = narxnet(1:5,1:2,6)
view(net);

‫ ﺗﻮﻟﻴﺪ دﻳﺘﺎي رﮔﺮﺳﻮر‬


[Xs,Xi,Ai,Ts] = preparets(net,X,{},T)
:‫ آﻣﻮزش ﺷﺒﻜﻪ‬
net = train(net,Xs,Ts,Xi,Ai);
‫ اﻋﺘﺒﺎر ﺳﻨﺠﻲ ﺑﺮ اﺳﺎس ﺳﻴﺴﺘﻢ آﻣﻮزش دﻳﺪه‬
Y = net(Xs,Xi,Ai);Y1=cell2mat(Y);
perf = perform(net,Ts,Y)
‫ وزﻧﻬﺎي ﺷﺒﻜﻪ‬
> cell2mat(net.iw) 7*6 Matrix
-0.8466 0.5395 0.6794 -0.7825 -0.5095 -0.7322 -0.6098
-0.2652 0.9794 0.1625 0.8786 -0.2175 0.4785 0.5622
0.1425 -0.1523 0.0977 -0.0989 0.0321 -0.0836 -0.3764
-0.3755 0.5098 -0.3858 0.3274 -0.1600 -0.6906 0.0365
-0.9054 -0.8237 0.6716 0.6178 -0.4129 -0.6367 0.9286
-0.9349 0.2608 0.6315 -0.3021 -0.4022 1.3809 0.6589
>> cell2mat(net.lw) 6*1 vector
-0.1032 0.0053 -1.4249 -0.4756 -0.0522 0.1536
>> cell2mat(net.b)' 6*1 vector
1.9008 1.4373 -0.2166 -0.1172 -0.4638 -1.8671 -0.1581

8-12
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﺧﻄﻲ و ﻣﺪل ﺷﺒﻜﻪ ﻋﺼﺒﻲ‬

‫ ﺷﺒﻴﻪ ﺳﺎزي ﺑﺼﻮرت ﺣﻠﻘﻪ ﺑﺴﺘﻪ‬


netc = closeloop(net);
view(netc)
[Xs,Xi,Ai,Ts] = preparets(netc,X,{},T);
y = netc(Xs,Xi,Ai)

‫ﻛﺎﻫﺶ ﺳﺎﻳﺰ ﺷﺒﻜﻪ‬


In order to remove the superfluous weights from the network, the function nnprune is called.
Do a maximum of 50 iterations when retraining the network.
>> prparms = [50 0];
>>[thd,trv,fpev,tev,deff,pv]=nnprune(‘nnoe’,NetDef,W1,W2,u1s,y1s,
NN,trparms,prparms,u2s,y2s,10);
>> figure(1), set(gca,’Ylim’,[0 0.25]);

9-12
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﺧﻄﻲ و ﻣﺪل ﺷﺒﻜﻪ ﻋﺼﺒﻲ‬

This plot clearly reveals that the minimum of the test error occurs when there are only 25
weights left in the network. This could also have determined by using the ommands:
>> [mintev,index] = min(tev(pv));
>> index=pv(index)
Example
>> [W1,W2] = netstruc(NetDef,thd,index);
>> trparms = [50 0 1 0];
>> [W1,W2,NSSEvec]=nnoe(NetDef,NN,W1,W2,trparms,10,y1s,u1s);
Start by rescaling the weights so that the validation can be performed on unscaled data
>> [w1,w2] = wrescale(W1,W2,uscales,yscales,NN);
Notice (for example by calling drawnet) that the biases eliminated during pruning have been
reintroduced by the rescaling function.
Validate the final model:
>> [yhat,NSSE] = nnvalid(‘nnoe’,NetDef,NN,w1,w2,y2,u2);

The correlation functions almost stay within thier standard deviations now and thus look far
better than those shown previously:

10-12
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﺧﻄﻲ و ﻣﺪل ﺷﺒﻜﻪ ﻋﺼﺒﻲ‬
‫‪Radial Basis Function Networks 3-1-12‬‬
‫ﺑﻌﻀﻲ از ﺷﺒﻜﻪﻫﺎ ﻫﻢ ﺑﺼﻮرت ‪ supervised‬و ﻫﻢ ﺑﺼﻮرت ‪ unsupervised‬ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار ﻣﻲ ﮔﻴﺮﻧﺪ‪ RBF .‬ﻳﻜـﻲ‬
‫از آﻧﻬﺎﺳﺖ‪ .‬اﺳﺘﻔﺎده ﻫﻤﺰﻣﺎن از ﺗﺮﻛﻴﺐ ‪ supervised‬و ‪ unsupervised‬ﺑﻪ ﺑﻬﺒﻮد ﻋﻤﻠﻜﺮد ﺷﺒﻜﻪ ﻫﺎ ﻣﻲ اﻧﺠﺎﻣﺪ‪ .‬ﺷـﻜﻞ‬
‫‪ 14.3.1‬ﻳﻚ ﺷﺒﻜﻪ ‪ RBF‬را ﻧﺸﺎن ﻣﻲ دﻫﺪ ﻛﻪ ﺑﺴﻴﺎر ﺷﺒﻴﻪ ‪ FFNN‬اﺳﺖ‪ .‬ﺗﻔﺎوت اﻳﻦ دو ﻋﺒﺎرﺗﻨﺪ از‪:‬‬

‫‪Figure 14.3.1 Radial Basis Function Neural Network‬‬


‫‪ ‬ﺧﺮوﺟﻲ ﻻﻳﻪ ﻣﻴﺎﻧﻲ ‪ j‬ﺗﺎﺑﻌﻲ از ﻓﺎﺻﻠﻪ اﻗﻠﻴﺪﺳﻲ ﺑﻴﻦ ﻣﺮﻛﺰ ﺗﺎﺑﻊ ‪ j‬و ﺑﺮدار ورودي ‪ zp‬اﺳﺖ‪.‬‬
‫)‪(14.3.2‬‬
‫‪• radial basis function‬‬
‫اﻳﻦ ﺗﺎﺑﻊ ﻛﻪ ﺑﻪ ﻧﺎم ﻛﺮﻧﻞ ‪ kernel‬ﻧﻴﺰ ﺧﻮاﻧﺪه ﻣﻲ ﺷﻮد ﺗﺎﺑﻌﻲ ﻣﺘﻘﺎرن و ‪ strictly positive‬اﺳﺖ‪ .‬اﻳﻦ ﺗﺎﺑﻊ ﻳﻚ ﺗﻚ ﻗﻠﻪ‬
‫در ‪ μj‬دارد و داﻣﻨﻪ در اﻃﺮاف آن ﺑﻪ ﺳﺮﻋﺖ ﺑﻪ ﺳﻤﺖ ﺻﻔﺮ اﻓﺖ ﻣﻲ ﻛﻨﺪ )ﻣﺜﻞ ﺗﺎﺑﻊ ﮔﻮﺳﻲ(‪ .‬ﺗﺎﺑﻊ ﻫﻤﭽﻨـﻴﻦ ﭘـﺎراﻣﺘﺮ ‪σj‬‬
‫ﻫﻢ دارد ﻛﻪ ﻋﺮض آﻧﺮا ﻣﺸﺨﺺ ﻣﻲ ﻛﻨﺪ‪ .‬ﺗﻌﺪادي از اﻳﻦ ﺗﻮاﺑﻊ از اﻳﻦ ﻗﺮارﻧﺪ‬
‫‪:• Linear function‬‬

‫‪• Gaussian function‬‬

‫ﺧﺮوﺟﻲ ﺷﺒﻜﻪ‬
‫‪The output of an RBFNN is calculated as‬‬

‫‪11-12‬‬
‫ﺷﻨﺎﺳﺎﻳﻲ ﻏﻴﺮ ﺧﻄﻲ و ﻣﺪل ﺷﺒﻜﻪ ﻋﺼﺒﻲ‬
MATALAB ‫دﺳﺘﻮر‬
P = [1 2 3];
T = [2.0 4.1 5.9];
net = newrb(P,T);
The network is simulated for a new input.
P = 1.5;
Y = sim(net,P)

12‐1‐4 Assignments
.‫ را ﺑﺎ رﺳﻢ ﺷﻜﻞ ﺗﻮﺿﻴﺢ داده و ﭼﮕﻮﻧﮕﻲ آﻣﻮزش آﻧﺮا ﺗﻮﺿﻴﺢ دﻫﻴﺪ‬RBF ‫( ﺳﺎﺧﺘﺎر‬10
11) Investigate alternative methods to initialize an RBF NN.
12) Develop a PSO, DE, and EP algorithm to train an RBFNN.
13) (c) η− is very small?

12-12
‫‪ NONLINEAR BLACK‐BOX MODELS‬‬ ‫‪١٣‬‬

‫‪Fuzzy‬‬
‫‪Neuro Fuzzy‬‬
‫‪WAvelet‬‬

‫‪Wavelets Network: Wawlets nonlinearity:‬‬ ‫‪1-13‬‬


‫ﺑﺴﻂ ﺗﻴﻠﻮر‪ ،‬ﺳﺮي ﻓﻮرﻳﻪ ﻧﻤﻮﻧﻪ ﻫﺎﻳﻲ از ﺗﺠﺰﻳﻪ ﺳﻴﮕﻨﺎل ﺑﻪ ﻣﺠﻤﻮﻋﻪ اي از ﻣﻮﻟﻔﻪ ﻫﺎﺳﺖ‪ .‬در اﻳـﻦ راﺳـﺘﺎ وﻳﻮﻟـﺖ ﺳـﺒﻚ‬
‫دﻳﮕﺮي اﺳﺖ ﻛﻪ ﺳﻴﮕﻨﺎل را ﺑﺼﻮرت ﺗﺮﻛﻴﺐ ﺧﻄﻲ ﺗﺎﺑﻊ ‪ ϕ‬ﺑﺴﻂ ﻣﻲ دﻫﺪ‪.‬‬
‫) ‪f (t )   ak  k (t‬‬
‫‪k‬‬

‫اﮔﺮ اﻳﻦ راﺑﻄﻪ ‪) unique‬ﻳﻌﻨﻲ از ﻫﺮ ‪ f‬ﺑﻪ ﻳﻚ ﺳﺮي ‪ ak‬و ﺑﺮ ﻋﻜﺲ رﺳﻴﺪ(ﺑﺎﺷﺪ ﺑﻪ )‪ (t‬ﺗﺎﺑﻊ ﭘﺎﻳﻪ ‪ Basis‬ﻣﻲ ﮔﻮﻳﻨﺪ‪ .‬در‬
‫اﻳﻦ راﺑﻄﻪ اﮔﺮ‬
‫‪a k  l‬‬
‫‪  k , l    kl dt  ‬‬
‫‪0 k  l‬‬
‫ﺑﺮﻗﺮار ﺑﺎﺷﺪ‬
‫‪ak   f (t ) k dt‬‬
‫ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪ .‬ﺑﻪ راﺑﻄﻪ ‪ f‬ﺳﻨﺘﺰ و ﺑﻪ راﺑﻄﻪ ‪ ak‬ﺗﺤﻠﻴﻞ ﻣﻲ ﮔﻮﻳﻨﺪ‪.‬‬
‫در ﺳﺮي ﻓﻮرﻳﻪ ‪ e jk0t‬ﻣﺘﻌﺎﻣﺪ ﻧﺮﻣﺎل اﺳﺖ وﻟﻲ در ﺑﺴﻂ ﺗﻴﻠﻮر ‪ t k‬ﻣﺘﻌﺎﻣﺪ ﻧﻴﺴﺖ‪.‬‬
‫درﺳﺮي ﻓﻮرﻳﻪ ﺳﻴﮕﻨﺎل ﺑﻪ ﻣﺠﻤﻮﻋﻪ اي از ﻓﺮﻛﺎﻧﺲ اﺻﻠﻲ و ﻫﺎرﻣﻮﻧﻴﻜﻬﺎي آن ﺗﺠﺰﻳﻪ ﻣﻲ ﺷﻮد‪ ،‬ﺑﻪ ﻋﺒﺎرت دﻳﮕﺮ ﺑﺴﻂ ﺗﺎﺑﻊ‬
‫ﭘﺎﻳﻪ‪ ,‬ﻫﺎرﻣﻮﻧﻴﻜﻬﺎي ﺗﺎﺑﻊ ﭘﺎﻳﻪ ﻫﺴﺘﻨﺪ و در ﺑﺴﻂ ﺗﺒﻠﻮر ﺑﺴﻂ ﺗﺎﺑﻊ ﭘﺎﻳﻪ‪ ،‬اﻧﺘﮕﺮاﻟﻬﺎي آن ﻫﺴﺘﻨﺪ‪.‬‬

‫ﺑﺮاي ﺳﻴﮕﻨﺎﻟﻬﺎي ﻏﻴﺮ اﻳﺴﺘﺎ اﻃﻼﻋﺎت ﻓﻮرﻳﻪ ﻣﻨﺎﺳﺐ ﻧﻴﺴﺖ از اﻳ ﻨﺮو از )‪Short Time Fourier Transform (STFT‬‬
‫اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد‪ .‬ﻣﺸﻜﻞ ‪ STFT‬در آن اﺳﺖ ﻛﻪ اﮔﺮ ﻃﻮل ﺳﻴﮕﻨﺎل ﺑﺰرگ ﺑﺎﺷﺪ اﻃﻼﻋﺎت زﻣﺎﻧﻲ و اﮔـﺮ ﻛﻮﭼـﻚ ﺑﺎﺷـﺪ‬
‫اﻃﻼﻋﺎت ﻓﺮﻛﺎﻧﺴﻲ ﺑﺪﻟﻴﻞ ﻛﻤﺒﻮد رزوﻟﻮﺷﻦ ﻣﺨﺪوش ﻣﻲ ﮔﺮدﻧﺪ‪.‬‬
‫وﻳﻮﻟﺘﻬﺎ از ‪ mother wavelet‬ﺳﺎﺧﺘﻪ ﻣﻲ ﺷﻮﻧﺪ‬

‫‪1-13‬‬
‫ﻣﺪل وﻳﻮﻟﺘﻲ‬
‫‪1‬‬ ‫‪t b‬‬
‫‪ a,b (t ) ‬‬ ‫(‪‬‬ ‫)‬
‫‪a‬‬ ‫‪a‬‬
‫ﻛﻪ ‪ b‬ﻣﻘﺪار ﺷﻴﻔﺖ و ‪ a‬درﺟﻪ ﻋﺮض اﺳﺖ ‪ ..‬وﻳﻮﻟﺘﻬﺎ ﺗﻮاﺑﻊ ﻣﺤﻠﻲ ﻫﺴﺘﻨﺪ ﻛﻪ اﻧﺮژي ﻣﺤﺪود و ﺗﻮان ﺻﻔﺮ دارﻧﺪ‪.‬‬
‫ﻣﻮﺟﻚ ﻣﺎدر ﻳﻚ ﺳﻴﮕﻨﺎل اﻧﺮژي اﺳﺖ ﻛﻪ ﺑﺨﺶ ﻣﻬﻢ اﻧﺮژي آن در ﻣﺤﺪوده ﻛﻮﭼﻚ زﻣﺎﻧﻲ ﻣﺘﻤﺮﻛﺰ اﺳﺖ‪ .‬اﻳﻦ ﺷـﺮط از‬
‫آﻧﺮوﺳﺖ ﻛﻪ ﻗﺎﺑﻠﻴﺖ اراﺋﻪ ﻫﻤﺰﻣﺎن ﻣﺸﺨﺼﺎت زﻣﺎﻧﻲ و ﻓﺮﻛﺎﻧﺴﻲ ﺳﻴﮕﻨﺎل را اراﺋﻪ ﻛﻨﺪ‪ .‬ﺑﻨـﺎﺑﺮاﻳﻦ ﺑـﺮاي ﺳـﻴﮕﻨﺎﻟﻬﺎي ﻏﻴـﺮ‬
‫اﻳﺴﺘﺎ و ﮔﺬرا ﺑﺴﻴﺎر ﻣﻨﺎﺳﺐ اﺳﺖ در ﺣﺎﻟﻴﻜﻪ ﺳﺮي ﻓﻮرﻳﻪ ﺑﺮاي ﺳﻴﮕﻨﺎﻟﻬﺎي اﻳﺴﺘﺎ و ﺑﺎ ﻣﺸﺨﺼﺎت ﺛﺎﺑﺖ ﺑﺴﻴﺎر ﻣﻔﻴﺪ اﺳﺖ‪.‬‬
‫از اﻳﻦ ﻧﻈﺮ وﻳﻮﻟﺖ ﻣﺸﻜﻞ ‪ STFT‬را ﺣﻞ ﻣﻲ ﻛﻨﺪ زﻳﺮ ﭼﻨﺪ رزوﻟﻮﺷﻨﻲ ‪Multi resolution‬اﺳﺖ‪ .‬ﻣﺸﺨﺼﺎت زﻣﺎﻧﻲ ﻛﻪ‬
‫)‪ f(t‬و ﻣﺸﺨﺼﺎت ﻓﺮﻛﺎﻧﺴﻲ ﻛﻪ )‪ F(‬ﻋﺮﺿﻪ ﻣﻲ دارﻧﺪ‪ .‬ﺷﻜﻞ وﻳﻮﻟﺖ ﻣﺎدر‬

‫و ﻣﻮﺟﻚ ﺳﺎﺧﺘﻪ ﺷﺪه ﺑﻪ ازاي ‪ b=5‬و‪ a=2‬را ﻧﺸﺎن ﻣﻲ دﻫﺪ‪.‬‬

‫‪ ψ1‬ﻃﻴﻒ ﻣﻮﺟﻚ ﻣﺎدرو ‪ ψ2‬ﻃﻴﻒ ﻣﻮﺟﻚ ﺳﺎﺧﺘﻪ ﺷﺪه اﺳﺖ‬

‫ﻧﺘﻴﺠﻪ اﻳﻨﻜﻪ ﻫﺮ ﻣﻮﺟﻚ ﻳﻚ ﻓﻴﻠﺘﺮ ﻣﻴﺎﻧﮕﺬر اﺳﺖ‬


‫ﺗﺒﺪﻳﻞ وﻳﻮﻟﺖ‪ ,‬ﺗﺒﺪﻳﻞ دو ﺑﻌﺪي اﺳﺖ ﻛﻪ ﻳﻚ ﺑﻌﺪ آن زﻣـﺎن ) ﺑـﺮاي ﺳـﻴﮕﻨﺎل در ﺑـﺎزه ي زﻣـﺎﻧﻲ ( و ﺑﻌـﺪي دﻳﮕـﺮ آن‬
‫رزوﻟﻮﺷﻦ ﻓﺮﻛﺎﻧﺴﻲ ﻳﺎ درﺟﻪ ﻋﺮﻳﺾ ﺷﺪن اﺳﺖ‬
‫روش ﻣﺤﺎﺳﺒﺎﺗﻲ ﺳﺮﻳﻊ ﺑﺮاي آن وﺟﻮد دارد و ﺑﺮاي ‪ DWT‬ﻣﻘﺪار )‪ O(N‬اﺳﺖ‬

‫ﺑﺴﻂ وﻳﻮﻟﺖ ﮔﺴﺴﺘﻪ ﺑﻪ ﻋﺒﺎرت ﻣﻮﺟﻚ ﭘﺪر‬


‫در ﺣﺎﻟﻴﻜﻪ ﻣﻮﺟﻚ ﻣﺎدر ﻣﻴﺎﻧﮕﺬر اﺳﺖ ﻣﻮﺟﻚ ﭘﺪر ﭘﺎﻳﻴﻦ ﮔﺬر اﺳﺖ‪ .‬ﺑﺴﻂ ﺑﻪ ﻋﺒﺎرت ﻣﻮﺟﻚ ﭘﺪر اﻳﻨﮕﻮﻧﻪ اﺳﺖ‬
‫) ‪f (t )   c j , k j , k (t‬‬
‫‪k‬‬ ‫‪j‬‬

‫ﻛﻪ ‪ ‬ﺗﺎﺑﻊ اﺷﻞ ﻳﺎ وﻳﻮﻟﺖ ﭘﺪر اﺳﺖ‪ .‬ﺷﺮوط ﺗﺎﺑﻊ ‪ ‬از اﻳﻦ ﻗﺮار اﺳﺖ‬
‫)‪ (t )   h( n) 2 ( 2t  n‬‬
‫‪n‬‬

‫‪2-13‬‬
‫ﻣﺪل وﻳﻮﻟﺘﻲ‬
‫‪k‬‬
‫‪ j , k (t )  2 j / 2  ( 2 j t  k )  2 j / 2  [ 2 j (t ‬‬ ‫])‬
‫‪2j‬‬
‫در اﻳﻦ راﺑﻄﻪ ‪ k‬ﺷﻴﻔﺖ زﻣﺎﻧﻲ و ‪ j‬درﺟﻪ ﺑﺎرﻳﻜﻲ اﺳﺖ‪ h .‬ﺗﺎﺑﻊ ﻫﻤﺒﺴﺘﮕﻲ ‪ ϕ‬و ‪ ϕ1,k‬اﺳﺖ‪ .‬ﻫﺮﭼـﻪ ‪ j‬ﺑﺰرﮔﺘـﺮ ﺷـﻮد ﭘﺮﻳـﻮد‬
‫ﻣﻮج ﻛﻮﭼﻜﺘﺮ ﻣﻲ ﺷﻮد و رزوﻟﻮﺷﻦ ﺑﻬﺘﺮ ﻣﻲ ﮔﺮدد‪.‬‬
‫ﻣﺜﺎل ‪ .1‬ﺷﺮاﻳﻂ ‪ ϕ‬در ﻣﻮﺟﻚ ﭘﺪر ‪HAAR‬‬
‫ﺷﻜﻞ ﺗﺎﺑﻊ اﺷﻞ ﻣﺮﺑﻮط ﺑﻪ ﺗﺎﺑﻊ ‪ Haar‬را ﻧﺸﺎن ﻣﻲ دﻫﺪ ‪.‬‬

‫ﺑﺎ ﺿﺮﻳﺐ‪ 2j/2‬اﻧﺮژي ﺗﻮاﺑﻊ ﻣﺨﺘﻠﻒ ﺑﺴﻂ ﺛﺎﺑﺖ ﻧﮕﻪ داﺷﺘﻪ ﻣﻲ ﺷﻮد‪.‬‬

‫ﺑﺎ اﻓﺰاﻳﺶ ‪ j‬در ﺗﺎﺑﻊ ‪ Haar‬و اﻛﺜﺮ ﺗﻮاﺑﻊ اﺷﻞ دﻳﮕﺮ‪ ،‬ﺑﺴﻂ ﺗﺎﺑﻊ ﺑﻪ ﺿﺮﺑﻪ ﻧﺰدﻳﻚ ﻣﻲ ﺷﻮد‪ .‬و ﻣﻨﺠﺮ ﺑﻪ‬
‫) ‪c j , k   f (t ) j , k (t )dt  f (t ) (t  k‬‬
‫‪j ‬‬

‫ﻣﻲ ﺷﻮد‪ ،‬زﻳﺮا ﺗﺎﺑﻊ ‪ ‬ﺑﻪ ﺿﺮﺑﻪ ﻣﻴﻞ ﻣﻲ ﻛﻨﻨﺪ‪ .‬اﻳﻦ ﺑﺪان ﻣﻌﻨﻲ اﺳﺖ ﻛﻪ ﺿﺮاﻳﺐ وﻳﻮﻟـﺖ ﻫﻤـﺎن ﻧﻤﻮﻧـﻪ ﻫـﺎي ﺳـﻴﮕﻨﺎل‬
‫ﺑﺎﺷﻨﺪ‪.‬‬

‫ﻣﻮﺟﻚ ﻣﺎدر ‪ wavelet function ψ‬‬


‫ﺑﻪ ﺟﺎي ﺑﺴﻂ دادن ﺳﻴﮕﻨﺎل ﺑﺎ ﺟﻤﻼت ‪ ،‬ﺑﻬﺘﺮ اﺳﺖ ﺑﺎ ﻣﻮﺟﻚ ﻣﺎدر ‪ ψ‬ﺑﺴﻂ داده ﺷـﻮد ﻛـﻪ اﻳﻨﮕﻮﻧـﻪ از ﻣﻮﺟـﻚ ﭘـﺪر‬
‫ﺳﺎﺧﺘﻪ ﻣﻲ ﺷﻮد‪.‬‬
‫) ‪h1 ( n )  ( 1) n h ( N  1  n‬‬
‫‪ (t )   h1 ( n ) 2 (2t  n ),‬‬ ‫) ‪ j , k  2 j / 2 (2 j t  k‬‬
‫‪n‬‬

‫ارﺗﺒﺎط ﺑﻴﻦ ‪ ‬و ‪ ‬اﻳﻨﮕﻮﻧﻪ اﺳﺖ ﻛﻪ ‪ ‬ﻳﻚ ﻓﻴﻠﺘﺮ ﭘﺎﻳﻴﻦ ﮔﺬر و ‪ ‬ﻓﻴﻠﺘﺮ ﻣﻜﻤﻞ ﺗﻮان ﺑﺎﻻ ﮔﺬر آن اﺳﺖ‪.‬‬
‫‪Spectrum of ‬‬
‫‪Spectrum of ‬‬

‫ﻧﻮﺷﺘﻦ وﻳﻮﻟﺖ ﺑﺮ ﺣﺴﺐ ‪ ‬اﻳﻦ ﻣﺰﻳﺖ را دارد ﻛﻪ ﺗﻌﺪاد زﻳﺎدي از ﺿﺮاﻳﺐ ﺑﺴﻂ ﻛﻮﭼﻚ ﺷﺪه و ﻗﺎﺑﻞ اﻏﻤﺎض ﻣﻲ ﮔﺮدﻧﺪ‪.‬‬
‫ﺑﻪ اﻳﻦ ﺗﺮﺗﻴﺐ ﺑﺴﻂ ﺑﻪ ﺟﺎي آﻧﻜﻪ ﺗﻤﺎم ﺑﺮ ﺣﺴﺐ ﺧﺎﻧﻮاده ‪ ‬ﻧﻮﺷﺘﻪ ﺷﻮد ﺑﺮ ﺣﺴﺐ ‪ ‬و ﺧﺎﻧﻮاده ‪ ‬ﻧﻮﺷﺘﻪ ﻣﻲ ﺷﻮد‪ .‬اﻳـﻦ‬
‫ﻣﺠﻤﻮﻋﻪ در ﺷﻜﻞ ﺑﺮاي ﺗﺎﺑﻊ ‪ Haar‬ﻧﺸﺎن داده ﺷﺪه اﻧﺪ‬

‫‪3-13‬‬
‫ﻣﺪل وﻳﻮﻟﺘﻲ‬

‫ارﺗﺒﺎط ﺑﻴﻦ ﺧﺎﻧﻮاده ‪ ‬از اﻳﻦ ﻗﺮار اﺳﺖ‬

‫ﺑﺮاي ﻣﺤﺎﺳﺒﻪ ‪ DWT‬ﻧﻴﺎز ﺑﻪ اﺻﻞ اﻃﻼﻋﺎت ﺗﺎﺑﻊ اﺷﻞ ﻳﺎ وﻳﻮﻟﺖ ﻧﻴﺴﺖ ﺑﻠﻜﻪ ﺗﺎﺑﻊ )‪ h(n‬ﻛﻔﺎﻳﺖ ﻣﻲ ﻛﻨﺪ‪.‬‬
‫)‪c j 1 (k )   c j ( m)h(k  2m)   d j (m)h1 (k  2m‬‬
‫‪m‬‬ ‫‪m‬‬

‫اﺳﺖ ﻛﻪ از ﺿﺮاﻳﺐ ﺗﺎﺑﻊ‪) cjm ،‬ﺳﻴﮕﻨﺎل ﻧﻤﻮﻧﻪ ﺑﺮداري ﺷﺪه ( ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪ .‬ﺑﺮاي ﺗﺤﻠﻴﻞ از راﺑﻄﻪ‬
‫)‪c j (k )   h(m  2k )c j 1 (m‬‬ ‫)‪d j (k )   h1 (m  2k )c j 1 (m‬‬
‫‪m‬‬ ‫‪m‬‬

‫اﺳﺘﻔﺎده ﻣﻲ ﺷﻮدﻛﻪ ‪ cjm‬ﻧﻤﻮﻧﻪ ﻫﺎي ﺳﻴﮕﻨﺎل اﺳﺖ‪.‬‬

‫‪ .1‬ﻣﺤﺎﺳﺒﺎت ‪ DWT‬در ﻣﺤﺪوده )‪ O(N‬اﺳﺖ‪.‬‬


‫‪ .2‬ﻣﻜﻤﻞ ﻣﺘﻌﺎﻣﺪ ‪ vj‬در ‪ vj+1‬ﺑﻪ ﻧﺎم ‪ wj‬ﺧﻮاﻧﺪه ﻣﻲ ﺷﻮد‪ .‬در ﻧﺘﻴﺠﻪ ﺗﻤﺎم اﻋﻀﺎ ‪ vj‬ﻧﺴﺒﺖ ﺑﻪ اﻋﻀﺎ ‪ wj‬ﻣﺘﻌﺎﻣﺪ ﻫﺴﺘﻨﺪ‪.‬‬
‫‪4-13‬‬
‫ﻣﺪل وﻳﻮﻟﺘﻲ‬
‫)‪d0(k‬‬
‫‪h1‬‬ ‫‪2‬‬ ‫‪2‬‬ ‫‪h1‬‬
‫)‪c0(k‬‬
‫‪h0‬‬ ‫‪2‬‬ ‫‪2‬‬ ‫‪h0‬‬

‫ﻣﻮﺿﻮﻋﺎت دﻳﮕﺮ ﻣﺮﺑﻮط ﺑﻪ وﻳﻮﻟﺖ ‬


‫ﺣﺎﻟﺖ ‪ M‬ﺑﺎﻧﺪي‪ :‬در ﺑﺤﺜﻬﺎي ﻗﺒﻠﻲ از ﺣﺎﻟﺖ ‪ 2‬ﺑﺎﻧﺪي اﺳﺘﻔﺎده ﺷﺪ‪ .‬در ﺣﺎﻟﺖ ‪ M-band‬رواﺑﻂ اﻳﻨﮕﻮﻧﻪ ﺗﻐﻴﻴﺮ ﻣﻲ ﻛﻨﺪ‪.‬‬
‫)‪ (t )   h(n) M  ( Mt  n‬‬ ‫‪ h( n) ‬‬ ‫‪M‬‬ ‫‪ | h( n ) |2  1‬‬
‫‪n‬‬ ‫‪n‬‬ ‫‪n‬‬
‫در ﺣﺎﻟﺖ ‪ 2‬ﺑﺎﻧﺪي ﻃﻴﻒ ﺳﻴﮕﻨﺎل از ﺻﻔﺮ ﺗﺎ ‪ ‬ﻣﻄﺎﺑﻖ ﺷﻜﻞ ﺑﻪ ‪ 2‬ﺑﺎﻧﻚ ﻣﺴﺎوي ﺗﻘﺴﻴﻢ ﻣﻲ ﮔﺮدد‪ .‬اﻳﻦ ﺗﻘﺴﻴﻢ ﺑﻨـﺪي ﺑـﺎ‬
‫ﻧﺼﻒ ﺷﺪن ‪ v1‬و ﻫﻤﻴﻨﻄﻮر ﻣﺘﻮاﻟﻴﺎ اداﻣﻪ ﻣﻲ ﻳﺎﺑﺪ‪ .‬ﺑﻪ اﻳﻦ ﺗﺮﺗﻴـﺐ اﺳـﺖ ﻛـﻪ رزوﻟﻮﺷـﻦ در ﻓﺮﻛﺎﻧﺴـﻬﺎي ﺑـﺎﻻ ﻛـﻢ و در‬
‫ﻓﺮﻛﺎﻧﺴﻬﺎي ﭘﺎﻳﻴﻦ زﻳﺎد ﻣﻲ ﮔﺮدد‪.‬‬
‫‪v2‬‬
‫‪M=2‬‬ ‫‪v1‬‬ ‫‪w1‬‬

‫وﻟﻲ در ﺣﺎﻟﺖ ‪4‬ﺑﺎﻧﺪي ﺑﻪ ‪ 4‬ﺑﺎﻧﻚ ﺗﻘﺴﻴﻢ ﻣﻲ ﺷﻮد‪ .‬ﻛﻪ ﺿﺮاﻳﺐ ﻫﺮ ﺑﺎﻧﺪ اﻳﻨﮕﻮﻧﻪ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬

‫‪v2‬‬
‫‪v1‬‬ ‫‪w11‬‬ ‫‪w12‬‬ ‫‪w13‬‬
‫‪M=4‬‬

‫دو ﺗﻌﺎﻣﺪي ‪Biorthogonality‬‬


‫در ﺣﺎﻟﺖ ﻣﺘﻌﺎﻣﺪ ﻃﻮل ‪  , ‬ﺑﺎﻳﺪ ﺑﺮاﺑﺮ و زوج ﺑﺎﺷﺪ‪ .‬ﺑﺎ ‪ biorthogonal‬اﻣﻜﺎن داﺷﺘﻦ ‪ ‬و ‪‬ﻣﺘﻘـﺎرن وﺟـﻮد دارد‪ .‬در‬
‫اﻳﻦ ﺣﺎﻟﺖ راﺑﻄﻪ ﭘﺎرﺳﻮال دﻳﮕﺮ ﺑﻘﺮار ﻧﻴﺴﺖ‬
‫ﻣﺜﺎﻟﻲ از وﻳﻮﻟﺖ ‪ :haar‬دﻧﺒﺎﻟﻪ }‪ {3,5,2,4‬ﺑﻪ دﻧﺒﺎﻟﻪ ‪ 3.5+0.50+11‬ﺑﺴﻂ داده ﻣﻲ ﺷﻮد‬

‫‪5-13‬‬
‫ﻣﺪل وﻳﻮﻟﺘﻲ‬
‫‪5‬‬ ‫‪1‬‬
‫‪4‬‬ ‫‪c2‬‬
‫‪3‬‬
‫‪2‬‬ ‫‪...3 5 2 4...‬‬
‫‪LP‬‬ ‫)‪d1* (2t-k‬‬
‫‪HP‬‬
‫=‪(3+5)/2‬‬ ‫=‪(3-5)/2‬‬
‫‪4‬‬ ‫‪LP‬‬ ‫‪-1‬‬ ‫‪0.5‬‬

‫‪HP‬‬ ‫)‪d0* (t‬‬


‫‪4‬‬ ‫‪c1‬‬
‫‪3‬‬
‫‪...4 3...‬‬
‫‪3.5‬‬
‫‪d1 -1‬‬
‫‪-1‬‬
‫‪HP‬‬
‫‪LP‬‬
‫‪c0‬‬ ‫)‪c0* (t‬‬
‫‪...3.5...‬‬ ‫‪d0‬‬
‫‪...0.5...‬‬ ‫‪3‬‬ ‫‪5‬‬ ‫‪2‬‬ ‫‪4‬‬

‫‪ ‬وﻳﻮﻟﺖ ﭼﻨﺪ ﻣﺘﻐﻴﺮه را ﻳﻞ ﺿﺮب ﺗﻨﺴﻮري ﻣﻲ ﺗﻮان ﺳﺎﺧﺖ‪ .‬اﻣﺎ ﺑﺎ اﻓﺰاﻳﺶ ‪ d‬اﻓﺰاﻳﺶ ﻣﻲ ﻳﺎﺑﺪ ﻟﺬا ﺑﻄـﻮر ﻋﻤﻠـﻲ ﺑـﺮاي‬
‫‪ d≤3‬اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد‬

‫‪ Wavelet Neural Network 1-1-13‬‬


‫ﺳﺎﺧﺘﺎر ﺷﺒﻜﻪ وﻳﻮﻟﺘﻲ ﺷﺒﻴﻪ ﺷﺒﻜﻪ ﻋﺼﺒﻲ اﺳﺖ ﻛﻪ در ﻻﻳﻪ ﻣﻴﺎﻧﻲ ﻣﻮﺟﻜﻬﺎ ﻗﺮار دارﻧﺪ‪ .‬ﺑﻪ ا ﻳﻦ ﮔﺮه ﻫﺎ ‪wavelons‬‬
‫ﻣﻲ ﮔﻮﻳﻨﺪ‬

‫ﺷﺒﻜﻪ وﻳﻮﻟﺖ ﺑﻪ دو ﻃﺮﻳﻖ ﺷﻜﻞ ﻣﻲ ﮔﻴﺮد‪.‬‬

‫اﻟﻒ( ‪ wavenet‬‬
‫‪ ‬در اﻳﻦ ﻃﺮح‪ ،‬ﺳﻴﮕﻨﺎل ورودي اﺑﺘﺪا در ﻻﻳﻪ ﻣﻴﺎﻧﻲ ﺑﺎ وﻳﻮﻟﺖ ﺛﺎﻳﺖ ﻣﻮرد ﺗﺠﺰﻳﻪ ﻗﺮار ﻣﻲ ﮔﻴﺮد‪ .‬ﺳﭙﺲ ﺿﺮاﻳﺐ وﻳﻮﻟـﺖ‬
‫ﺗﻮﺳﻂ ﻳﻚ اﻟﮕﻮرﻳﺘﻢ آﻣﻮزﺷﻲ در ﻻﻳﻪ ﺑﻌﺪي ﻣﺤﺎﺳﺒﻪ ﻣﻲ ﺷﻮﻧﺪ‪ .‬ﺑﻪ اﻳﻦ ﻣﻌﻨﻲ ﻛﻪ در اﻳﻦ ﻣﺪل ‪ ‬و ‪ t‬ﺛﺎﺑﺖ ﻫﺴﺘﻨﺪ ﺑﺮ‬
‫اﻳﻦ اﺳﺎس ﻛﻪ ‪ f‬را ﻣﻲ ﺗﻮان ﺑﺎ اﻧﺘﺨﺎب ‪ L‬ﺑﻪ اﻧﺪازه ﻛﺎﻓﻲ ﺑﺰرگ ﻣﻲ ﺗﻮان ﻣﺪل ﻛﺮد ‪.‬‬

‫ﭘﺎراﻣﺘﺮ ﺟﺎﺑﺠﺎﻳﻲ ‪ k‬و درﺟﻪ ﺑﺎرﻳﻜﻲ‪ 2L‬دارد‪ .‬ﺣﺎل ﺧﺮوﺟﻲ وﻳﻮﻧﺖ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‪:‬‬ ‫ﻛﻪ‬

‫‪6-13‬‬
‫ﻣﺪل وﻳﻮﻟﺘﻲ‬
‫ﻛﻪ ‪ M‬ﺑﻪ اﻧﺪازه ﻛﺎﻓﻲ ﺑﺰرگ اﺳﺖ ﺗﺎ ﺗﻤﺎم ﻓﻀﺎي ﻛﺎر را ﭘﻮﺷﺶ دﻫﺪ‪ .‬در ﺣﺎﻟﺖ ﭼﻨﺪ ﺑﻌﺪي ﺗﺎﺑﻊ ﺑﺼﻮرت زﻳﺮ ﻧﻮﺷﺘﻪ ﻣـﻲ‬
‫ﺷﻮد‬

‫̅‪ y‬ﻣﻘﺪار ﻣﻴﺎﻧﮕﻴﻦ اﺳﺖ‪.‬‬

‫ب( )‪ Wavelet neural network (WNN‬‬


‫‪ ‬در اﻳﻦ ﻃﺮح ﭘﺎراﻣﺘﺮﻫﺎي وﻳﻮﻟﺖ ﻻﻳﻪ ﻣﻴﺎﻧﻲ ﺑﻪ ﻫﻤﺮاه ﺿﺮاﻳﺐ ﻻﻳﻪ ﺑﻌـﺪ ﺗﻮﺳـﻂ اﻟﮕـﻮرﻳﺘﻢ آﻣـﻮزش ﻣـﻲ ﻳﺎﺑﻨـﺪ‪ .‬ﻳـﻚ‬
‫‪WNN‬ﻳﻚ ﺑﻌﺪي در ﺷﻜﻞ ﻧﺸﺎن داده ﺷﺪه اﺳﺖ‬

‫در اﻳﻦ ﺳﺎﺧﺘﺎر ﻫﺮ وﻳﻮﻟﻦ داراي دو ﭘﺎراﻣﺘﺮ‪ λ‬ﻋﺮض و ‪ t‬ﺟﺎﺑﺠﺎﻳﻲ اﺳﺖ ﻛﻪ ﻣﻲ ﺗﻮاﻧﻨﺪ ﺛﺎﺑﺖ ﺑﺎﺷﻨﺪ‪.‬‬
‫وﻗﺘﻲ ورودي در ﻣﺤﺪوده ﻛﻮﭼﻜﻲ از ﻓﻀﺎي ورودي ﻗﺮار دارد وﻳﻮﻟﻦ ﺧﺮوﺟﻲ ﻏﻴﺮ ﺻﻔﺮ ﺗﻮﻟﻴﺪ ﻣﻲ ﻛﻨﺪ ‪ .‬ﺧﺮوﺟﻲ ﻧﻬـﺎﻳﻲ‬
‫‪ WNN‬ﻣﺠﻤﻮع ﺟﻤﻊ وزﻧﻲ ﺧﺮوﺟﻲ وﻳﻮﻟﻦ ﻫﺎﺳﺖ‬

‫ﭼﻮن ﺧﺮوﺟﻲ ﺗﺎﺑﻊ وﻳﻮﻟﺖ ‪ ψ‬ﺻﻔﺮ اﺳﺖ؛ ̅‪ y‬ﻟﺤﺎظ ﺷﺪه اﺳﺖ ﺗﺎ در ﻣﻮرﺗﻮاﺑﻊ ﺑﺎ ﻣﻴﺎﻧﮕﻴﻦ ﻏﻴﺮ ﺻﻔﺮ ﻣﺸﻜﻠﻲ ﭘﻴﺶ ﻧﻴﺎﻳﺪ‪.‬‬
‫‪LEARNING ALGORITHM‬‬
‫آﻣﻮزش ﻳﻚ ﺷﺒﻜﻪ وﻳﻮﻟﺘﻲ ‪ ،‬ﻳﻚ ﻣﺴﺌﻠﻪ ﺑﻬﻴﻨﻪ ﺳﺎزي ﻏﻴﺮ ﺧﻄﻲ اﺳﺖ ﻛﻪ از اﻟﮕﻮرﻳﺘﻤﻬﺎي ﺑﺎز ﺗﻜﺮار اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد‪.‬‬

‫‪7-13‬‬
‫‪fuzzy systems ١٤‬‬

‫‪ Fuzzy Sets‬‬
‫ﻣﻨﻄﻖ ﻣﺘﺪاول ﻣﻨﻄﻖ ﺑﺎﻳﻨﺮي ﻳﺎ ﻫﻤﺎن ﻣﻨﻄﻖ ارﺳﻄﻮﻳﻲ اﺳﺖ ﻛﻪ ﻓﻘﻂ ﻳﻜﻲ از دو ﻧﺘﻴﺠﻪ ‪ false‬ﻳﺎ ‪ true‬را ﻣـﻲ ﭘـﺬﻳﺮد‪.‬‬
‫در ﺻﻮرت وﺟﻮد ﻋﺪم ﻗﻄﻌﻴﺖ ﻣﻌﻠﻮم ﻧﻴﺴﺖ ﭼﮕﻮﻧﻪ ﺑﺎﻳﺪ از ﻣﻨﻄﻖ ﺑﺎﻳﻨﺮي اﺳﺘﻔﺎده ﻛﺮد )اﺑﺮي‪ -‬ﻏﻴﺮ اﺑﺮي(‬
‫‪Most real-world problems are incomplete, imprecise, vague or uncertain information. For‬‬
‫‪example, in the phrases ‘‘it is partly cloudy’’,‬‬
‫ﻓﺎزي ﻻﺟﻴﻚ اﻣﺮوزي ﻧﺎﺷﻲ از ﻛﺎر ﭘﺮوﻓﺴﻮر ﻋﺴﮕﺮ ﻟﻄﻔﻲ زاده از داﻧﺸﮕﺎه ﺑﺮﻛﻠﻲ در ﺳﺎل ‪ 1965‬اﺳﺖ‬

‫اﺟﺰا ﺳﻴﺴﺘﻢ ﻓﺎزي ‬


‫اﺟﺰا ﺳﻴﺴﺘﻢ ﻓﺎزي ﻋﺒﺎرﺗﻨﺪ از‪ :‬ﺗﺎﺑﻊ ﻋﻀﻮﻳﺖ‪ ،‬ﻓﺎزي ﺳﺎزي‪ ،‬اﺳﺘﻨﺘﺎج ﻓﺎزي و دﻳﻔﺎزي ﺳﺎزي‬

‫‪ 1-1-14‬ﺗﺎﻳﻊ ﻋﻀﻮﻳﺖ ‪Membership Functions‬‬


‫ﺗﺎﺑﻊ ﻋﻀﻮﻳﺖ ﺗﺎﺑﻌﻲ اﺳﺖ ﻛﻪ ﺑﻪ ورودي درﺟﻪ اي از ﻋﻀﻮﻳﺖ اﺧﺘﺼﺎص ﻣﻲ دﻫﺪ‬
‫‪ ‬ﻣﻘﺪار ﺗﺎﺑﻊ ﻋﻀﻮﻳﺖ ﺑﻴﻦ ﺻﻔﺮ و ﻳﻚ اﺳﺖ‬
‫‪ ‬ﺑﻪ ﻫﺮ ‪ xX‬ﻣﻘﺪار )‪ μA(x‬ﻣﻨﺤﺼﺮ ﺑﻔﺮد ﻧﺴﺒﺖ دﻫﺪ‪..‬‬
‫‪ ‬اﻧﻮاع ﺗﻮاﺑﻊ ﻋﻀﻮﻳﺖ ﻣﺮﺳﻮم ﻋﺒﺎرﺗﻨﺪ از‪:‬‬
‫‪• Binary, Triangular, Trapezoidal, Logistic, Exponential-like , Gaussian‬‬
‫ﺗﻮاﺑﻊ ﻋﻀﻮﻳﺖ ﻣﺜﻠﺜﻲ‪ ،‬ذوزﻧﻘﻪ اي در ﺷﻜﻞ ﻧﺸﺎن داده ﺷﺪه اﻧﺪ‬

‫‪1-14‬‬
‫ﻣﺪل ﻓﺎزي‬
‫‪ ‬‬

‫ﻣﺜﺎل ‪ .2‬ﺗﺎﺑﻊ ﻋﻀﻮﻳﺖ ﺑﺮاي ﻗﺪ اﻓﺮاد‬


‫ﺗﺎﺑﻊ ﻋﻀﻮﻳﺖ ﺑﺎﻳﻨﺮي‬
‫وﻗﺘﻲ اﻓﺮاد ﺑﺎﻻﺗﺮ از ‪ 1,5‬ﻣﺘﺮ را ﻗﺪﺑﻠﻨﺪ و ﻛﻤﺘﺮ از آﻧﺮا ﻗﺪ ﻛﻮﺗﺎه در ﻧﻈﺮ ﻣﻴﮕﻴﺮﻳﻴﻢ ﺗﺎﺑﻊ ﻋﻀﻮﻳﺖ ﺑـﺎﻳﻨﺮي زﻳـﺮ را در ﻧﻈـﺮ‬
‫دارﻳﻢ‪ .‬ﻛﻪ ﺑﺮاي ‪ x≤ 1.5‬ﻣﻘﺪار ﺗﺎﺑﻊ ﻋﻀﻮﻳﺖ ‪ tall(x)=0‬وﺑﺮاي ‪ x>1.5‬اﻳﻦ ﻣﻘﺪار ‪ tall(x)=1‬اﺳﺖ‪ .‬ﺑﻪ اﻳﻦ ﺗﺮﺗﻴﺐ ﻓﺮد‬
‫‪1.49‬ﻣﺘﺮي ﻗﺪ ﻛﻮﺗﺎه و ‪1.51‬ﻣﺘﺮي ﻗﺪ ﺑﻠﻨﺪ ﺗﻠﻘﻲ ﻣﻲ ﺷﻮد ﻛﻪ ﺑﺎ ﺑﺮداﺷﺖ ﻃﺒﻴﻌﻲ ﻣﺎ ﺗﻔﺎوت دارد‪.‬‬

‫ﺗﺎﺑﻊ ﻋﻀﻮﻳﺖ ﻓﺎزي‪ :‬ﺗﻌﺒﻴﺮ ﻣﺎ از ﻗﺪ ﺑﻠﻨﺪي ﺑﺎ ﺗﺎﺑﻊ ﻋﻀﻮﻳﺖ زﻳﺮ ﺑﻬﺘﺮ ﺑﻴﺎن ﻣﻴﺸﻮد‪ .‬ﺑﺮ اﺳﺎس اﻳﻦ ﺗـﺎﺑﻊ ﻓـﺮد ‪ 1,51‬ﻣﺘـﺮي‬
‫ﻓﻘﻂ ﺑﺎ درﺟﻪ‪1⁄ 50‬ﺟﺰ ﻣﺠﻤﻮﻋﻪ ﻗﺪ ﺑﻠﻨﺪﻫﺎ ﺑﻪ ﺣﺴﺎب ﻣﻲ آﻳﺪ‪.‬‬

‫‪Figure 20.2 Illustration of tall Membership Function‬‬


‫‪µTall(1.51)=1/50‬‬ ‫اﻳﻦ ﻧﻮع درﺟﻪ ﺑﻨﺪي را اﻳﻨﮕﻮﻧﻪ ﻣﻲ ﺗﻮان ﻧﻮﺷﺖ‬
‫وﻗﺘﻲ )‪ μA(x‬ﻓﻘﻂ دو ﻣﻘﺪار ‪ 0‬ﻳﺎ ‪ 1‬را ﺑﺨﻮد ﺑﮕﻴﺮد ﻫﻤﺎن ﻣﻨﻄﻖ ﺑﺎﻳﻨﺮي ﻣﻲ ﺷﻮد‪ ..‬ﺗﺎﻳﻊ ﻋﻀـﻮﻳﺖ ﺗـﺎﺑﻊ درﺟـﻪ ﺑﻨـﺪي‬
‫ﻋﻀﻮ در ﻣﺠﻤﻮﻋﻪ اﺳﺖ‪.‬‬

‫ﭘﺎراﻣﺘﺮﻫﺎي ﺗﺎﺑﻊ ﻋﻀﻮﻳﺖ‬


‫‪ :Height‬ﻣﺎﻛﺰﻳﻤﻢ )‪ μA(x‬اﺳﺖ‪Height(x) .‬‬ ‫‪.1‬‬
‫‪ Normality .2‬ﻣﺠﻤﻮﻋﻪ ‪ A‬ﻧﺮﻣﺎل اﺳﺖ اﮔﺮ ‪.height(x)=1‬‬
‫‪ :Normalization .٣‬ﻣﺠﻤﻮﻋﻪ ﻓﺎزي را ﻣﻲ ﺗﻮان ﺑﺎ ﺗﻘﺴﻴﻢ ﺗﺎﺑﻊ ﻋﻀﻮﻳﺖ ﺑﺮ ‪ height‬ﻧﺮﻣﺎل ﻛﺮد‪.‬‬

‫)‪(20.21‬‬
‫‪2-14‬‬
‫ﻣﺪل ﻓﺎزي‬
‫‪ Support .٤‬ﻗﺴﻤﺘﻲ از ﻣﺠﻤﻮﻋﻪ ﻛﻪ درﺟﻪ ﻋﻀﻮﻳﺖ ﻏﻴﺮ ﺻﻔﺮ دارد }‪support(A) = {x ∈ X|μ (x) > 0‬‬
‫‪A‬‬

‫‪ Core .٥‬ﺑﺨﺸﻲ از ﻣﺠﻤﻮﻋﻪ ﻛﻪ درﺟﻪ ﻋﻀﻮﻳﺖ آن ﻳﻚ اﺳﺖ‪core(A) = {x ∈ X|μ (x) = 1} .‬‬


‫‪A‬‬

‫‪ α-cut .6‬ﺑﺨﺸﻲ از ﻣﺠﻤﻮﻋﻪ ﺑﺎ درﺟﻪ ﻋﻀﻮﻳﺖ ﺑﺎﻻﺗﺮ از ‪‬‬

‫‪ :Unimodality .٧‬ﺗﺎﺑﻊ ﻋﻀﻮﻳﺘﻲ ﻛﻪ ﻓﻘﻂ ﻳﻚ ﻣﺎﻛﺰﻳﻤﻢ دارد‪.‬‬


‫‪ : Cardinality .8‬اﻳﻦ ﺑﺮاي ﻣﺠﻤﻮﻋﻪ ﺑﺎﻳﻨﺮي ﺗﻌﺪاد اﻋﻀﺎ ﻣﺠﻤﻮﻋﻪ اﺳﺖ وﻟﻲ ﺑﺮاي ﻣﺠﻤﻮﻋﻪ ﻓﺎزي از رواﺑﻂ زﻳﺮ ﺑﺮاي‬
‫ﺣﺎﻟﺖ ﮔﺴﺴﺘﻪ و ﭘﻴﻮﺳﺘﻪ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪) .‬ﻣﻘﺪار ﺳﻄﺢ زﻳﺮ ﺗﺎﺑﻊ ﻋﻀﻮﻳﺖ(‬

‫ﺑﺮاي ﺗﺎﺑﻊ ﻋﻀﻮﻳﺖ ﮔﺴﺴﺘﻪ ﺑﺎ ‪ 4‬ﻋﻀﻮ }‪ X = {a, b, c, d‬و ﻣﻘﺪار ﺗﺎﺑﻊ ﻋﻀﻮﻳﺖ‬
‫‪A = 0.3/a + 0.9/b + 0.1/c + 0.7/d‬‬
‫ﻣﻘﺪار ﻛﺎردﻳﻨﺎﻟﻴﺘﻲ ﺑﺮاي ﻣﻘﺪار زﻳﺮ اﺳﺖ‪(0.3/a means x(a)=0.3).‬‬
‫‪card(A) = 0.3 + 0.9 + 0.1 + 0.7 = 2.0.‬‬
‫ﻣﺠﻤﻮﻋـﻪ ﻓـﺎزي و ﻣﺠﻤﻮﻋـﻪ ﺑـﺎﻳﻨﺮي در ﺧـﻮاص ‪ transitive ، distributive ،associative , commutative‬و‬
‫‪ idempotency‬ﻣﺸﺎﺑﻪ ﻫﺴﺘﻨﺪ وﻟﻲ در ‪ cardinality‬ﺗﻔﺎوت دارﻧﺪ‬
‫)‪• card(A) + card(B) = card(A ∩ B) + card(A ∪ B‬‬
‫)‪• card(A) + card(A) = card(X‬‬
‫‪where A and B are fuzzy sets, and X is the universe of discourse.‬‬

‫‪Fuzzification 2-1-14‬‬
‫ﻓﺎزي ﺳﺎزي ﺑﻪ ﻣﻌﻨﻲ ﺗﺒﺪﻳﻞ ﻛﻤﻴﺖ ﻋﺪدي ﺑﻪ درﺟﻪ اي از ﺗﺨﺼﻴﺺ ﺑﻪ ﻣﺘﻐﻴﺮﻫﺎي ﻛﻴﻔﻲ ﻛﻼﻣﻲ )ﻓﺎزي( اﺳﺖ‪ .‬ﺑـﺮ اﻳـﻦ‬
‫اﺳﺎس در ﺷﻜﻞ زﻳﺮ ﺑﻪ ﻣﻘﺪار ﻋﺪدي ‪ 20‬درﺟﻪ ‪ old=0.4‬ﺑﺮاي ﻣﺘﻐﻴﺮ ﻛﻼﻣﻲ ‪ old‬داده ﻣﻲ ﺷﻮد‪.‬‬

‫در اﻳﻦ ﻣﺜﺎل ﻣﺘﻐﻴﺮ ﺳﻦ اﺳﺖ ﻛﻪ ﺑﺎ ﻣﺘﻐﻴﺮﻫﺎي ﻛﻼﻣﻲ ﺧﻴﻠﻲ ﺟﻮان‪ ،‬ﺟـﻮان‪ ،‬ﻣﻴﺎﻧﺴـﺎل و ﭘﻴـﺮ ﺑﻴـﺎن ﻣـﻲ ﺷـﻮد‪ .‬ﻃﺒـﻖ‬
‫ﻣﺠﻤﻮﻋﻪ ﻓﺎزي ﻓﻮق ﻓﺮ ‪ 70‬ﺳﺎﻟﻪ ‪ 0,4‬ﭘﻴﺮ و ‪ 50‬ﺳﺎﻟﻪ ﻣﻴﺎﻧﺴﺎل اﺳﺖ‬
‫ﺑﻪ اﻳﻦ ﻛﻴﻔﻴﺘﻬﺎ ‪ hedge‬ﻣﻲ ﮔﻮﻳﻨﺪ‪ hedge .‬ﻫﺎ ﺑﺴﺘﮕﻲ ﺑﻪ ﻣﺘﻐﻴﺮ ﺗﻌﻴﻴﻦ ﻣﻲ ﺷﻮد ﻛﻪ ﻣﺜﺎﻟﻬﺎي ان ﻋﺒﺎرﺗﻨﺪ از‪:‬‬
‫‪ ‬ﻫﻴﭻ‪ -‬ﻛﻢ‪ -‬ﻣﺘﻮﺳﻂ‪-‬زﻳﺎد‪ -‬ﺧﻴﻠﻲ زﻳﺎد‬
‫‪3-14‬‬
‫ﻣﺪل ﻓﺎزي‬
‫ ﻫﻤﻴﺸﻪ‬-‫ اﻏﻠﺐ‬-‫ ﺑﻪ ﻧﺪرت‬

Fuzzy rules: ‫ ﻓﺎزي‬Mamadani ‫ اﺳﺘﻨﺘﺎج‬2-14


‫ ﺑـﻪ‬Mamadani ‫ ﻧﮕـﺎرش‬،‫ ﻳﻚ ﻧﻮع از ﻧﮕﺎرش ﻗـﻮاﻧﻴﻦ ﻓـﺎزي‬.‫ﻧﺘﻴﺠﻪ ﻓﺎزﻳﺴﺎزي ﺑﻪ ﻣﺮﺣﻠﻪ ﻗﻮاﻧﻴﻦ ﻓﺎزي اﻋﻤﺎل ﻣﻲ ﺷﻮد‬
‫ﺷﻜﻞ زﻳﺮ اﺳﺖ‬
if A is a and B is b then C is c (21.6)
‫ﻣﺜﻞ‬
if Age is Old the Speed is Slow (21.7)
‫ ﺑﺎﺷﺪ و ﺗﻮاﺑﻊ ﻋﻀﻮﻳﺖ ﺳﺮﻋﺖ ﻣﻄﺎﺑﻖ ﺷـﻜﻞ‬μold=0.4 ‫ ﺣﺎل اﮔﺮ‬.‫ﻛﻪ ﻫﻢ ﺳﻦ و ﻫﻢ ﺳﺮﻋﺖ ﻣﺠﻤﻮﻋﻪ ﺗﺎﺑﻊ ﻋﻀﻮﻳﺖ دارﻧﺪ‬
‫ﺑﺎﺷﺪ ﻧﺘﻴﺠﻪ ﻗﺎﻋﺪه ﺑﺎﻻ ﻣﻨﻄﻘﻪ ﻫﺎﺷﻮر ﺧﻮرده اﺳﺖ‬

Figure 21.2 Interpreting a Fuzzy Rule


Fuzzy Operators ‫ﻋﻤﻠﮕﺮﻫﺎي ﻓﺎزي‬
‫ اﻳﻦ ﻣﺠﻤﻮﻋﻪ ﺣﺎوي ﻗﻮاﻋﺪي اﺳﺖ ﻛﻪ در ﻳﻚ ﺳﻴﺴـﺘﻢ‬.‫ وﺟﻮد دارد‬Rule Base (RB) ‫در ﻳﻚ ﺳﻴﺴﺘﻢ ﻓﺎزي ﻣﺠﻤﻮﻋﻪ‬
.‫ﻓﺎزي اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد‬
‫ ﺗﺴﺎوي ﻓﺎزي‬
Equality of fuzzy sets: Two fuzzy sets A and B are equal if and only if the sets have the
same domain, and μA(x) = μB(x) for all x ∈ X. That is, A = B.
 ‫زﻳﺮ ﻣﺠﻤﻮﻋﻪ ﻓﺎزي‬
 Containment of fuzzy sets: Fuzzy set A is a subset of fuzzy set B if and only if μA(x) ≤
μB(x) for all x ∈ X. That is, A ⊂ B. Figure 20.4 shows two membership functions for
which A ⊂ B.

Figure 20.4 Illustration of Fuzzy Set Containment


4-14
‫ﻣﺪل ﻓﺎزي‬
‫ ﻣﻜﻤﻞ ﻓﺎزي‬
Complement of a fuzzy set (NOT): Let A denote the complement of set A. Then, for all
x ∈ X, μA(x) = 1 − μA(x).

Intersection of fuzzy sets AND ‫ ﻓﺎزي‬


‫( دو ﻣﺠﻤﻮﻋﻪ ﻓﺎزي از ﻳﻜﻲ از دو ﻓﺮﻣﻮل زﻳﺮ اﺳﺘﻔﺎده زﻳﺮ ﻣﻲ ﺷﻮد‬t-norm) AND ‫ﺑﺮاي‬
• Min-operator: μA∩B(x) = min{μA(x), μB(x)}, ∀x ∈ X
• Product operator: μA∩B(x) = μA(x)μB(x), ∀x ∈ X
.‫ دﻳﮕﺮ ﻧﻴﺰ ﺗﻌﺮﻳـﻒ ﺷـﺪه اﻧـﺪ‬AND ‫ ﻋﻼوه ﺑﺮ اﻳﻦ دو ﻋﻤﻠﮕﺮ ﻫﺎي‬.‫ ﻋﻤﻞ ﻣﻲ ﻛﻨﺪ‬min ‫ﻋﻤﻠﮕﺮ ﺿﺮب ﺷﺪﻳﺪ ﺗﺮ از ﻋﻤﻠﮕﺮ‬
.‫ ( را ﻧﺸﺎن ﻣﻲ دﻫﺪ‬min operator) AND ‫ﺷﻜﻞ ﻧﺘﻴﺠﻪ‬

Union of fuzzy sets (OR): OR ‫ فازی‬


‫( دو ﻣﺠﻤﻮﻋﻪ ﻓﺎزي از ﻳﻜﻲ از دو ﻓﺮﻣﻮل زﻳﺮ ﻣﻲ ﺗﻮان اﺳﺘﻔﺎده ﻛﺮد‬s-norm) OR ‫ﺑﺮاي‬
• Max-operator: μA∪B(x) = max{μA(x), μB(x)}, ∀x ∈ X, or
• Summation operator: μA∪B(x) = μA(x)+μB(x)−μA(x)μB(x), ∀x ∈ X
‫( را ﻧﺸﺎن ﻣـﻲ‬max operator) OR ‫ ﺷﻜﻞ ﻋﻤﻠﻜﺮد‬.‫ ﻫﺎي دﻳﮕﺮي ﻧﻴﺰ ﺗﻌﺮﻳﻒ و ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار ﮔﺮﻓﺘﻪ اﻧﺪ‬s-norm
.‫دﻫﺪ‬

5-14
‫ﻣﺪل ﻓﺎزي‬
‫ﻣﺤﺎﺳﺒﺎت‬
‫ﻧﻤﻮﻧﻪ ﻧﺘﻴﺠﻪ ﻣﺤﺎﺳﺒﺎت ﺑﺨﺶ اﺳﺘﻨﺘﺎج اﻳﻨﮕﻮﻧﻪ اﺳﺖ‬
‫‪Rule 1: if A is a and B is b then C is c ‬‬
‫})‪μ1 (c)=min{μA(a), μB(b‬‬
‫‪C‬‬

‫ﺑﻄﻮر ﻣﺸﺎﺑﻪ از ﻗﻮاﻋﺪ دﻳﮕﺮ ﻧﻴﺰ )‪ μic(c‬ﻣﺤﺎﺳﺒﻪ ﻣﻲ ﺷﻮد‪ .‬در ﻧﻬﺎﻳﺖ ﻣﻘﺪار ﻋﻀﻮﻳﺖ در ﺗـﺎﺑﻊ ‪ C‬ﺧﺮوﺟـﻲ ﺑﺼـﻮرت زﻳـﺮ‬
‫ﺗﻌﻴﻴﻦ ﻣﻲ ﺷﻮد‪.‬‬
‫} )‪μc(c)=max{μic(c‬‬
‫در ﻧﺘﻴﺠﻪ ﻣﺠﻤﻮﻋﻪ اي از ﺧﺮوﺟﻲ ﻫﺎي ﻓﺎزي ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ ﻛﻪ ﻧﻤﻮﻧﻪ آن )‪ μc(c‬اﺳﺖ‪.‬‬

‫‪ Defuzzification 1-2-14‬‬
‫در دﻳﻔﺎزي ﺳﺎزي ﻣﺘﻐﻴﺮﻫﺎي ﻛﻼﻣﻲ ﻧﺎﺷﻲ از اﺳﺘﻨﺘﺎج ﻫﻤﺮاه ﺑﺎ درﺟﻪ ﻋﻀﻮﻳﺖ آﻧﻬﺎ ﺑﻪ ﻣﺘﻐﻴﺮ ﻛﻤﻲ ﻋـﺪدي ﺗﺒـﺪﻳﻞ ﻣـﻲ‬
‫ﺷﻮﻧﺪ ﻓﺮض ﻛﻨﻴﺪ ﺗﺎﺑﻊ ﻋﻀﻮﻳﺖ ﺧﺮوﺟﻲ و ﻧﺘﺎﻳﺞ اﺳﺘﻨﺘﺎج ﻓﺎزي ‪ μSI = 0.6 ، μLI =0.8‬و ‪ μNC = 0.3‬ﺑﺎﺷﺪ‬

‫‪ ‬روﺷﻬﺎي ﻣﺘﻌﺪدي ﺑﺮاي ﺗﺒﺪﻳﻞ ﻛﻤﻴﺖ ﻓﺎزي ﺑﻪ ﻏﻴﺮ ﻓﺎزي اراﺋﻪ ﺷﺪه اﺳﺖ ﻛﻪ ﺑﻌﻀﻲ از آﻧﻬﺎ ﻋﺒﺎرﺗﻨﺪ از‪:‬‬
‫‪The max-min method:‬‬
‫ﺗﺎﺑﻊ ﻋﻀﻮﻳﺖ ﺧﺮوﺟﻲ ﻛﻪ ﺑﺰرﮔﺘﺮﻳﻦ ‪ µ‬را دار اﻧﺘﺨﺎﻳﺐ ﻣﻲ ﮔﺮدد و ﻣﺮﻛﺰ ﺛﻘﻞ آن ﻣﺤﺎﺳﺒﻪ ﺑﻌﻨﻮان ﺧﺮوﺟﻲ ﻣﺤﺎﺳﺒﻪ ﻣﻲ‬
‫ﺷﻮد‪ .‬ﻛﻪ در ﻣﺜﺎل ﻗﺒﻞ ‪ μLI =0.8‬اﺳﺖ و اﻧﺘﺨﺎب ﻣﻲ ﮔﺮدد‬

‫‪6-14‬‬
‫ﻣﺪل ﻓﺎزي‬
‫‪The clipped center of gravity method:‬‬
‫در اﻳﻨﺮوش ﻫﺮ ﺗﺎﺑﻊ ﺑﺎ ﻣﻘﺪار ‪ µ‬ﺧﻮد ﺑﺮﻳﺪه ﻣﻲ ﺷﻮد در ﻧﺘﻴﺠﻪ زﻳﺮ آﻧﻬﺎ ﺳـﻄﺤﻲ ﺑﻮﺟـﻮد ﻣـﻲ آﻳـﺪ ﻛـﻪ ﻣﺮﻛـﺰ ﺛﻘـﻞ آن‬
‫ﺧﺮوﺟﻲ اﺳﺖ‬

‫ﻣﺤﺎﺳﺒﻪ ﻣﺮﻛﺰ ﺛﻘﻞ ﺗﺎﺑﻊ ﻋﻀﻮﻳﺖ ‬


‫ﻣﺤﺎﺳﺒﻪ ﻣﺮﻛﺰ ﺛﻘﻞ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫اﻳﻦ ﻣﺤﺎﺳﺒﺎت ﺑﺮاي ﻣﺜﺎل ‪ μOld(70)= 0.4‬ﺑﺮاﺑﺮ ﺳﻄﺢ ﻫﺎﺷﻮر ﺧﻮرده ﻳﻌﻨﻲ ‪ 3‬ﺑﺮاي ﺳﺮﻋﺖ ﻣﻲ ﺷﻮد‪.‬‬

‫ﺷﻜﻠﻬﺎ ﻧﻤﻮﻧﻪ ﻣﺤﺎﺳﺒﺎت را ﻧﺸﺎن ﻣﻲ دﻫﺪ‬


‫ﺷﻜﻠﻬﺎي زﻳﺮ دو روش‬

‫‪7-14‬‬
‫ﻣﺪل ﻓﺎزي‬
Takagi‐Sugeno‐Kang (TSK) ‫ ﻓﺎزي‬2-2-14
‫در اﻳﻦ روش ﺗﺎﺑﻊ اﺳﺘﻨﺘﺎج ﻓﺮم زﻳﺮ را دارد‬
If x is A and y is B then z = f(x,y)
f(x,y)=ax+by+c .‫ ﻣﻌﻤﻮﻻ ﺑﺼﻮرت ﭼﻨﺪ ﺟﻤﻠﻪ اي اﺳﺖ‬crisp ‫ ﻳﻚ ﺗﺎﺑﻊ‬Z = f(x,y) ‫ ﻣﺠﻤﻮﻋﻪ ﻓﺎزي و‬B ‫ و‬A ‫ﻛﻪ‬
‫ﻧﺤﻮه ﻋﻤﻞ ﻋﻤﻠﮕﺮﻫﺎي ﻓﺎزي ﻣﺎﻧﻨﺪ ﺣﺎﻟﺖ ﻗﺒﻞ اﺳﺖ ﻣﺜﻞ‬
IF x is Aj and y is Bk then zi= px+qy+r
wi = min(µAj(x), µBk(y)) or
wi = µAj(x)* µBk(y))
.‫و در ﻧﻬﺎﻳﺖ دﻳﻔﺎزﻳﺴﺎزي اﻳﻨﮕﻮﻧﻪ ﻣﺤﺎﺳﺒﻪ ﻣﻲ ﺷﻮد‬
z
 wi zi
 wi

.3 ‫ﻣﺜﺎل‬
– If X is small and Y is small then Z = -X +Y +1.
– If X is small and Y is large then Z = -Y +3.
– If X is large and Y is small then Z = -X+3.
– If X is large and Y is large then Z = X+Y+2.

Fuzziness and Probability


.‫ را ﻧﺸﺎن ﻣﻲ دﻫﻨﺪ‬uncertainity ‫ ﻫﺮ دو درﺟﻪ اي از‬.‫ﺑﻴﻦ اﺣﺘﻤﺎل و ﻓﺎزي ﺗﻔﺎوت و ﺗﺸﺎﺑﻪ وﺟﻮد دارد‬
8-14
‫ﻣﺪل ﻓﺎزي‬
‫در اﺣﺘﻤﺎل اﻳﻦ درﺟﻪ ﺑﺮاي ﻗﺒﻞ از وﻗﻮع اﺳﺖ زﻳﺮا ﺑﻌﺪ از وﻗﻮع ﺧﺮوﺟﻲ اﺑﻬﺎﻣﻲ ﻧﺪارد‬
‫ﻣﺜﺎل ‪ .4‬ﺳﻴﺴﺘﻢ ﻓﺎزي ﻗﺎﺑﻠﻴﺖ ﻗﺎﺑﻞ ﻣﻼﺣﻈﻪ اي در ﺣﻞ ﻣﺴﺎﺋﻞ از ﺧﻮد ﻧﺸﺎن داده اﺳﺖ‪ .‬ﺑﺮاي ﻧﻤﻮﻧﻪ در ﻛﻨﺘﺮل ﻓـﺎزي‬
‫ﭘﺎﻧﺪول ﻣﻌﻠﻖ زواﻳﺎي ‪ ‬و ‪ ‬اﻧﺪازه ﮔﻴﺮي ﻣﻲ ﺷﻮﻧﺪ‪.‬‬

‫ﻣﻘﺎدﻳﺮ اﻧﺪازه ﮔﻴﺮي ﺷﺪه ﺑﺮ اﺳﺎس ﺗﺎﺑﻊ درﺟﻪ ﻋﻀﻮﻳﺖ زﻳﺮ ﻓﺎزي ﻣﻲ ﺷﻮد‪.‬‬

‫‪Negative Large (NL), Negative Medium (NM), Negative Small (NS), Zero (ZR), Positive‬‬
‫)‪Small (PS), Positive Medium (PM), Positive Large (PL‬‬
‫در ﻧﺘﻴﺠﻪ ﻣﻘﺎدﻳﺮ ﻋﺪدي اﻧﺪازه ﮔﻴﺮي ﺷﺪه ﺑﻪ ﻛﻴﻔﻴﺘﻬﺎي ﻛﻼﻣﻲ ﺗﺒﺪﻳﻞ ﻣﻲ ﺷﻮﻧﺪ‬
‫اﻋﻤﺎل ﻗﻮاﻋﺪ ﻛﻨﺘﺮل‪ :‬در ﺣﺎﻟﻴﻜﻪ دﻳﻨﺎﻣﻴﻚ ﺳﻴﺴﺘﻢ ﭘﻴﭽﻴﺪه اﺳﺖ ﻗﻮاﻋﺪ ﻛﻨﺘﺮﻟﻲ زﻳﺮ )ﻓﻮاﻋﺪ ﻓﺎزي( ﺑـﻪ ﺟـﺎي ﻛﻨﺘﺮﻟـﺮ‬
‫ﻛﻼﺳﻴﻚ ﺑﺮ اﺳﺎس ﻣﺘﻐﻴﺮﻫﺎي ﻛﻼﻣﻲ ﺗﺜﺒﻴﺖ ﻣﻮﻗﻌﻴﺖ ﭘﺎﻧﺪول را اﻧﺠﺎم ﻣﻲ دﻫﻨﺪ‪.‬‬
‫‪Rule 1. IF is PM AND is ZR THEN F is PM.‬‬
‫‪Rule 2. IF is PS AND is PS THEN F is PS.‬‬
‫‪Rule 3. IF is PS AND is NS THEN F is ZR.‬‬
‫‪Rule 4. IF is NM AND is ZR THEN F is NM.‬‬
‫‪Rule 5. IF is NS AND is NS THEN F is NS.‬‬
‫‪Rule 6. IF is NS AND is PS THEN F is ZR.‬‬
‫‪Rule 7. IF is ZR AND is ZR THEN F is ZR.‬‬
‫ﻧﺸﺎن داده ﺷﺪه اﺳﺖ ﻛﻪ ﻣﻲ ﺗﻮان ﺑﺎ اﻳﻦ اﺳﺘﺮاﺗﮋي ﺳﻴﺴﺘﻢ را ﺑﺨﻮﺑﻲ ﻛﻨﺘﺮل ﻛﺮد اﻳـﻦ اﻣـﺮ ﻣﻨـﻮط ﺑـﻪ داﺷـﺘﻦ ‪rule‬‬
‫ﻣﻨﺎﺳﺐ و ﻓﺎزي ﻛﺮدن ﺻﺤﻴﺢ ﺳﻴﮕﻨﺎل ﻫﺎﺳﺖ ‪.‬‬

‫‪ ‬ﺳﻮاﻻت‪:‬‬
‫‪ .9‬ﺗﻔﺎوت ﻣﻨﻄﻖ ﺑﺎﻳﻨﺮي و ﻓﺎزي در ﭼﻴﺴﺖ؟‬
‫‪ .10‬ﻧﻤﻮﻧﻪ ﻫﺎﻳﻲ از ﺗﻮاﺑﻊ ﻋﻀﻮﻳﺖ را ﺑﻨﻮﻳﺴﻴﺪ‬
‫‪9-14‬‬
‫ﻣﺪل ﻓﺎزي‬
‫دوﻧﻤﻮﻧﻪ از ﻋﻤﻠﮕﺮ ﺑﺮاي ‪ AND‬و ‪ OR‬را ﺑﻨﻮﻳﺴﻴﺪ‪.‬‬ ‫‪.11‬‬
‫ﻳﻚ ﻧﻤﻮﻧﻪ دﻳﻔﺰﻳﻔﻴﻜﻴﺸﻦ را ﺗﻮﺿﻴﺢ دﻫﻴﺪ‪.‬‬ ‫‪.12‬‬
‫ﺑﻠﻮك دﻳﺎﮔﺮام ﻣﻨﻄﻖ ﻓﺎزي را رﺳﻢ و اﺟﺰا آﻧﺮا ﺗﻮﺿﻴﺢ دﻫﻴﺪ‪.‬‬ ‫‪.13‬‬
‫ﺑﻠﻮك دﻳﺎﮔﺮام ﻛﻨﺘﺮﻟﺮ ﻓﺎزي و اﺟﺰا آﻧﺮا ﺗﻮﺿﻴﺢ دﻫﻴﺪ‪.‬‬ ‫‪.14‬‬
‫اﺷﺘﺮاك و اﺟﺘﻤﺎع در ﻣﺠﻤﻮﻋﻪ ﻓﺎزي ﺷﻜﻞ ‪ 20,6‬را ﺗﻌﻴﻴﻦ ﻛﻨﻴﺪ‪.‬‬ ‫‪.15‬‬
‫‪.6 Give the height, support, core and normalization of the fuzzy sets in Figure 20. .16‬‬

‫‪Figure 20.6 Membership Functions for Assignments 1 and 2‬‬

‫در ﻣﺴﺌﻠﻪ زﻳﺮ ﻗﻮاﻋﺪ داده ﺷﺪه )ﺑﺮ ﮔﺮﻓﺘﻪ از ﻣﺘﺨﺼﺺ( ﻋﺒﺎرﺗﻨﺪ از‪:‬‬
‫‪if x is Small then y is Big‬‬
‫‪if x is Medium then y is Small‬‬
‫‪if x is Big then y is Medium‬‬
‫اﮔﺮ ﺗﻮاﺑﻊ ﻋﻀﻮﻳﺖ ﺑﺮاي ورودي ‪ x‬و ﺧﺮوﺟﻲ ‪ y‬ﻣﻄﺎﺑﻖ ﺷﻜﻞ ﺑﺎﺷﺪ ﺑﻪ ﺳﻮاﻻت داده ﺷﺪه ﭘﺎﺳﺦ دﻫﻴﺪ‬

‫‪ ‬‬

‫‪10-14‬‬
‫ﻣﺪل ﻓﺎزي‬

(a) Using the clipped center of gravity method, draw the composite function for which the
centroid needs to be calculated, for x = 2.
4. *Consider the following Takagi-Sugeno rules:
if x is A1 and y is B1 then z1 = x + y + 1
if x is A2 and y is B1 then z2 = 2x + y + 1
if x is A1 and y is B2 then z3 = 2x + 3y
if x is A2 and y is B2 then z4 = 2x + 5
Compute the value of z for x = 1, y = 4 and the antecedent fuzzy sets
A1 = {1/0.1, 2/0.6, 3/1.0} A2 = {1/0.9, 2/0.4, 3/0.0}
B1 = {4/1.0, 5/1.0, 6/0.3} B2 = {4/0.1, 5/0.9, 6/1.0}

11-14
‫ﻣﺪل ﻓﺎزي‬

‫‪(Adaptive) Neuro fuzzy system 3-14‬‬

‫ﻓﺎزي و ﺷﺒﻜﻪ ﻋﺼﺒﻲ دو اﺑﺰار ﻣﻜﻤﻞ در ﺳﺎﺧﺖ ﺳﻴﺴﺘﻤﻬﺎي ﻫﻮﺷﻤﻨﺪ ﻫﺴﺘﻨﺪ‪.‬‬ ‫‪‬‬
‫ﺷﺒﻜﻪ ﻋﺼﺒﻲ ﻣﻲ ﺗﻮاﻧﺪ ﺑﺼﻮرت ﺟﺰﻳﻲ ﭘﺪﻳﺪه را ﻣﺪل ﻛﻨﺪ و ﻗﺎﺑﻠﻴﺖ آﻣﻮزش دارد‬ ‫‪‬‬
‫ﻓﺎزي ﻣﺪﻟﺴﺎزي ﺳﻄﺢ ﺑﺎﻻ ﻛﻴﻔﻲ اﻧﺠﺎم ﻣﻲ دﻫﺪ و ﻣﺪﻟﺴﺎزي ﺗﻮﺳﻂ اﺳﺘﻔﺎده ﻛﻨﻨﺪه ﻗﺎﺑﻞ ﻓﻬﻢ اﺳﺖ‬ ‫‪‬‬
‫در ﻧﺘﻴﺠﻪ ﺗﺮﻛﻴﺐ اﻳﻦ دو ﻣﺪﻟﺴﺎزﻳﻲ ﺣﺎﺻﻞ ﻣﻲ ﺷﻮد ﻛﻪ ﻋﻼوه ﺑﺮ ﻗﺎﺑﻠﻴﺖ ﻳﺎدﮔﻴﺮي ﺧﻮدﻛﺎر اﻣﻜـﺎن آﻣـﻮزش ﺗﻮﺳـﻂ‬ ‫‪‬‬
‫ﻣﺘﺨﺼﺺ ﻓﻦ را ﻧﻴﺰ داراﺳﺖ‪.‬‬
‫ﻗﻮاﻋﺪ ﻓﺎزي اوﻟﻴﻪ ﺗﻮﺳﻂ ﻣﺘﺨﺼﺺ ﺑﻪ ﺷﺒﻜﻪ داده ﻣﻲ ﺷﻮد اﻳﻦ ﻓﺮاﻳﻨﺪ آﻣﻮزش ﺷﺒﻜﻪ را ﺗﺴﻬﻴﻞ ﻣﻲ ﻛﻨﺪ‬ ‫‪‬‬
‫اﮔﺮ آﻣﻮزش ﺷﺒﻜﻪ ﺑﺪ ﺑﺎﺷﺪ ﺳﻴﺴﺘﻢ ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ آﻣﻮزش ﻣﺘﺨﺼﺺ ﻛﺎر ﻣﻲ ﻛﻨﺪ و اﮔﺮ آﻣﻮزش ﻣﺘﺨﺼﺺ ﻧﺎﻗﺺ ﺑﺎﺷﺪ‬ ‫‪‬‬
‫ﺑﺎ آﻣﻮزش ﻣﻘﺪار اوﻟﻴﻪ ﻧﺎﺻﺤﻴﺢ داده ﺷﺪه ﺗﻮﺳﻂ ﻣﺘﺨﺼﺺ ﺗﺼﺤﻴﺢ ﻣﻲ ﺷﻮد‪.‬‬ ‫‪‬‬
‫ﺷﺒﻜﻪ ﻓﺎزي ﻋﺼﺒﻲ ﻣﺎﻧﻨﺪ ﺷﺒﻜﻪ ﻋﺼﺒﻲ اﺳﺖ و داراي ﻳﻚ ﻻﻳﻪ ورودي‪ 3 ،‬ﻻﻳﻪ ﻣﻴﺎﻧﻲ و ﻳﻚ ﻻﻳﻪ ﺧﺮوﺟﻲ اﺳﺖ‬ ‫‪‬‬
‫‪Layer 1‬‬ ‫‪Layer 2‬‬ ‫‪Layer 3‬‬ ‫‪Layer 4‬‬ ‫‪Layer 5‬‬

‫‪A1 A1‬‬ ‫‪R1‬‬


‫‪x1‬‬ ‫‪ R1‬‬

‫‪x1‬‬ ‫‪x1‬‬
‫‪A2 ‬‬ ‫‪R2‬‬
‫‪x1‬‬ ‫‪A2‬‬ ‫‪ R2‬‬
‫‪wR3‬‬ ‫‪C1‬‬
‫‪C1‬‬
‫‪A3 A3‬‬ ‫‪R3‬‬ ‫‪ R3‬‬ ‫‪w R6‬‬
‫‪y‬‬
‫‪wR1‬‬ ‫‪‬‬
‫‪R4 R4‬‬ ‫‪w R2‬‬
‫‪B1 B1‬‬
‫‪x2‬‬ ‫‪C2‬‬
‫‪wR4‬‬
‫‪C2‬‬
‫‪ R5‬‬ ‫‪wR5‬‬
‫‪x2‬‬ ‫‪x2‬‬ ‫‪B2‬‬
‫‪B2‬‬ ‫‪R5‬‬
‫‪x2‬‬
‫‪ R6‬‬
‫‪B3‬‬
‫‪B3‬‬ ‫‪R6‬‬

‫‪Layer 1 is the input layer‬‬


‫ﻫﺮ ﮔﺮه اﻳﻦ ﻻﻳﻪ ﺑﻪ ﻳﻜﻲ از ورودﻳﻬﺎي ﻣﺘﺼﻞ اﺳﺖ‬
‫ ‪Layer 2 is the fuzzification layer.‬‬
‫در اﻳﻦ ﻻﻳﻪ ﺗﻮاﺑﻊ ﻋﻀﻮﻳﺖ ﻗﺮا ردارﻧﺪ ﻛﻪ ورودي ﻛﻤﻲ را ﺑﻪ ﻛﻴﻔﻴﺘﻬﺎي ﻓﺎزي ﺗﺒﺪﻳﻞ ﻣﻲ ﻛﻨﻨﺪ‪ .‬ﺗﻮاﺑﻊ ﻋﻀﻮﻳﺖ ﻣﻲ ﺗﻮاﻧـﺪ‬
‫ﻣﺜﻠﺜﻲ ﺑﺎﺷﻨﺪ ﻛﻪ ﺑﺎ دو ﭘﺎراﻣﺘﺮ }‪ {a,b‬ﺗﻌﺮﻳﻒ ﻣﻲ ﺷﻮﻧﺪ‬

‫‪12-14‬‬
‫ﻣﺪل ﻓﺎزي‬
‫‪‬‬ ‫‪‬‬
‫‪1‬‬ ‫‪1‬‬
‫‪a = 4, b =6‬‬ ‫‪a = 4.5, b =6‬‬ ‫‪a = 4, b =6‬‬
‫‪0 .8‬‬ ‫‪0.8‬‬
‫‪a = 4, b =4‬‬
‫‪0 .6‬‬ ‫‪0.6‬‬

‫‪0 .4‬‬ ‫‪0.4‬‬

‫‪0 .2‬‬ ‫‪0.2‬‬

‫‪0‬‬
‫‪0‬‬ ‫‪1‬‬ ‫‪2‬‬ ‫‪3‬‬ ‫‪4‬‬ ‫‪5‬‬ ‫‪6‬‬ ‫‪7‬‬ ‫‪8‬‬
‫‪X‬‬ ‫‪0‬‬
‫‪0‬‬ ‫‪1‬‬ ‫‪2‬‬ ‫‪3‬‬ ‫‪4‬‬ ‫‪5‬‬ ‫‪6‬‬ ‫‪7‬‬ ‫‪8‬‬
‫‪X‬‬

‫‪(a) Effect of parameter a.‬‬ ‫‪(b) Effect of parameter b.‬‬

‫ ‪Layer 3 is the fuzzy rule layer.‬‬


‫ﻫﺮ ﻳﻚ از ﮔﺮه ﻫﺎي اﻳﻦ ﻻﻳﻪ ﻳﻜﻲ از ﻗﻮاﻋﺪ ﻓﺎزي ﻫﺴﺘﻨﺪ ﻣﺜﻼ ﮔﺮه ‪ R1‬ﻗﺎﻋﺪه ‪ 1‬را ﻣﺪل ﻣﻲ ﻛﻨﺪ و ورودﻳﻬـﺎي آن ‪A1‬‬
‫و ‪ B1‬ﻫﺴﺘﻨﺪ‪ .‬در ﻓﺎزي ﻋﺼﺒﻲ ‪ AND‬ﻣﻤﻜﻦ اﺳﺖ ﺑﺎ ﺿﺮب اﻧﺠﺎم ﺷﻮد‬
‫)‪y R(31‬‬ ‫‪  A1   B1   R1‬‬ ‫)‪yi(3)  x1(3‬‬ ‫)‪(3‬‬ ‫)‪(3‬‬
‫‪i  x2i    xki‬‬

‫‪Layer 4 is the output membership layer‬‬


‫اﻳﻦ ﻻﻳﻪ در ﺑﺮﮔﻴﺮﻧﺪه ﺗﻮاﺑﻊ ﻋﻀﻮﻳﺖ ﺧﺮوﺟﻲ اﺳﺖ‪ .‬ﮔﺮه ﻫﺎي اﻳﻦ ﻻﻳﻪ ﺗﺎﺑﻊ ‪ OR‬را ﭘﻴﺎده ﻣﻲ ﻛﻨﻨﺪ‬
‫‪yC(41)   R3   R6  C1‬‬ ‫)‪yi(4)  x1(4‬‬ ‫)‪(4‬‬ ‫)‪(4‬‬
‫‪i  x2i    xli‬‬

‫ﻣﻘﺪار ‪ C1‬ﺑﺮاﺑﺮ ﺗﺮﻛﻴﺐ ﺗﺤﺮﻳﻚ از ﮔﺮه ﻫﺎي ‪ R3‬و ‪ R4‬اﺳﺖ‬


‫‪Layer 5 is the defuzzification layer‬‬
‫در اﻳﻦ ﻻﻳﻪ ﻛﻴﻔﻴﺖ ﻓﺎزي ﺑﻪ ﻛﻤﻴﺖ ﺧﺮوﺟﻲ ﺗﻮﺳﻂ ﻳﻜﻲ از روﺷﻬﺎي ﻣﻄﺮح اﻧﺠﺎم ﻣﻲ ﺷﻮد‪.‬‬
‫روش ‪ sum-product composition‬ﺑﻪ ﺗﺮﺗﻴﺐ زﻳﺮ اﻋﻤﺎل ﻣﻲ ﮔﺮدد ﻛﻪ در آن ‪ C1‬و ‪ C2‬دو ﺗـﺎ از ﺗﻮاﻳـﻊ ﻋﻀـﻮﻳﺖ‬
‫ﻛﻠﻴﭗ ﺷﺪه ﺧﺮوﺟﻲ ﻫﺴﺘﻨﺪ‬
‫‪  a b    a b‬‬
‫‪y  C1 C1 C1 C 2 C 2 C 2‬‬
‫‪C1  bC1  C 2  bC 2‬‬

‫‪Learning‬‬
‫روﺷﻬﺎي آﻣﻮزش ﺷﺒﻜﻪ را ﺑﺮاي آﻣﻮزش ﻓﺎزي ﻋﺼﺒﻲ ﻣﻲ ﺗﻮان ﺑﻜﺎر ﮔﺮﻓﺖ‬

‫‪ ANFIS 1-3-14‬‬
‫ﻳﻚ ﻧﻮع ﺷﺒﻜﻪ ﻓﺎزي ﻋﺼﺒﻲ ﺑـﺎ ﻗﺎﺑﻠﻴـﺖ آﻣـﻮزش ‪ online‬ﺑـﻪ ﻧـﺎم ‪Adaptive neuro fuzzy intference system‬‬
‫)‪ (ANFIS‬ﺧﻮاﻧﺪه ﻣﻲ ﺷﻮد‪ .‬در اﻳﻦ ﺷﺒﻜﻪ ﻻﻳﻪ ﻫﺎي ‪ 1‬و ‪ 2‬دﻗﻴﻘﺎ ﻣﺸﺎﺑﻪ ﻻﻳﻪ ﻫﺎي ﺷﺒﻜﻪ ﻓﺎزي ﻋﺼﺒﻲ اﺳﺖ‬

‫‪13-14‬‬
‫ﻣﺪل ﻓﺎزي‬
Layer 1 Layer 2 Layer 3 Layer 4 Layer 5 Layer 6
x1 x2
A1 1 N1 1
x1

A2 2 N2 2
y

B1 3 N3 3
x2

B2 4 N4 4

Layer 3 is the rule layer.


.‫ ﺑﺎ ﺿﺮب ﻋﻤﻠﻴﺎﺗﻲ ﻣﻲ ﺷﻮد‬AND ‫ و‬.‫ اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد‬TSK ‫ از روش ﻗﻮاﻋﺪ‬ANFIS ‫در‬
. . . . .
IF x1 is A1 AND x2 is A2 AND xm is Am THEN y = f (x1, x2, . . . ,
xm)

‫اﮔﺮ در ﻳﻚ ﻗﺎﻋﺪه ﻣﻘﺪار‬


y=c
‫ در‬.‫ ﺗﻌﺮﻳﻒ ﻣﻲ ﺷﻮد‬singleton ‫ ﻣﻲ ﮔﻮﻳﻨﺪ ﻛﻪ ﺑﺎ‬zero-order Sugeno ،‫ﺛﺎﺑﺖ ﺗﻌﺮﻳﻒ ﺷﻮد ﺑﻪ آن ﻗﺎﻋﺪه ﻣﺮﺗﺒﻪ ﺻﻔﺮ‬
.‫ ﺑﻴﺎن ﻣﻲ ﺷﻮد‬1 ‫ ﺑﺎ ﭼﻨﺪﺟﻤﻠﻪ اي درﺟﻪ‬first-order Sugeno 1 ‫ﻣﻘﺎﺑﻞ ﻗﺎﻋﺪه درﺟﻪ‬
y = k0 + k1 x1 + k2 x2 + . . . + km xm
k y(3) = A1  B1 = 1,
yi(3)   x (3) 1
ji
j 1

Layer 4 is the normalisation layer.


‫ اﻳﻦ ﻻﻳﻪ ﻧﺮﻣﺎل ﻛﻨﻨﺪه را اﺿﺎﻓﻪ ﺑﺮ ﻓﺎزي ﻋﺼﺒﻲ دارد‬ANFIS
( 4) 1
xii( 4) i yN 1   1
yi( 4)    i 1   2  3   4
n n
 x (ji4)  j
j 1 j 1

Layer 5 is the defuzzification layer


yi(5)  xi(5) ki 0  ki1 x1  ki 2 x 2  i ki 0  ki1 x1  ki 2 x 2
Layer 6 output layer
n n
y xi(6)   i  ki 0  ki1 x1  ki 2 x 2
i 1 i 1

14-14
‫ﻣﺪل ﻓﺎزي‬
Learning in the ANFIS model
‫ ﻫﺮ ﮔﺎم آﻣﻮزش ﺷﺎﻣﻞ ﻳـﻚ ﻣﺴـﻴﺮ رﻓـﺖ و‬.‫ اﺳﺖ‬gradient descent ‫ و روش‬LS ‫ﺗﺮﻛﻴﺐ ﺗﺨﻤﻴﻨﮕﺮ‬ANFIS ‫آﻣﻮزش‬
‫ﻳﻚ ﻣﺴﻴﺮ ﺑﺮﮔﺸﺖ اﺳﺖ‬
ANFIS ‫ ﻣﺪﻟﺴﺎزي ﺳﻴﺴﺘﻢ ﻏﻴﺮ ﺧﻄﻲ ﺑﺎ‬.5 ‫ﻣﺜﺎل‬
cos(2 x1)
.‫ ﻣﺪل ﻣﻲ ﺷﻮد‬ANFIS ‫ﺑﺎ‬ y ‫ﺳﻴﺴﺘﻢ دوﺑﻌﺪي‬
ex2
‫ ﺗﺎﻳﻊ ﻋﻀﻮﻳﺖ ﺑـﺮاي‬3 ‫ و‬2 ‫ ﺷﻜﻞ ﻧﺘﻴﺠﻪ آﻣﻮزش ﺑﺎ‬.‫ ﺑﺮاي آﻣﻮزش ﺗﻮﻟﻴﺪ ﻣﻴﮕﺮدد‬y ‫ و‬x2،x1 ‫ دﻳﺘﺎ ﺑﺮاي‬100 ‫از ﺳﻴﺴﺘﻢ‬
.‫ ﻧﺸﺎن ﻣﻲ دﻫﺪ‬100epoch ‫ﻫﺮ وردي را ﺑﻌﺪ از‬
y
y
Training Data
2 ANFIS Output
Training Data
2 ANFIS Output
1
1
0
0
-1
-1
-2
-2

-3
-3
1
1
0.5 10
0.5 10
8 8
0 0
6 6
-0.5 4 4
-0.5
2 2
-1 0 -1
x2 x1 x2 0
x1

‫ﺷﻜﻞ ﻫﻤﭽﻨﻴﻦ ﻣﻘﺪار اوﻟﻴﻪ و ﻧﻬﺎﻳﻲ ﺗﻮاﺑﻊ ﻋﻀﻮﻳﺖ ﻫﺎ را ﻧﺸﺎن ﻣﻲ دﻫﺪ‬


1 1

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0 0
0 1 2 3 4 5 6 7 8 9 10 -1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1
x1 x2
(a) Initial membership functions.
1 1

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0 0
0 1 2 3 4 5 6 7 8 9 10 -1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1
x1 x2
(b) Membership functions after 100 epochs of training.
y = sin(2*x)./exp(x/5); ‫ ﻛﺪ ﺑﺮﻧﺎﻣﻪ ﺑﺮاي ﺷﻨﺎﺳﺎﻳﻲ‬.6 ‫ﻣﺜﺎل‬
x = (0:0.1:10)'; y = sin(2*x)./exp(x/5);
trnData = [x y]; numMFs = 5;
mfType = 'gbellmf'; epoch_n = 20;
in_fis = genfis1(trnData,numMFs,mfType);
out_fis = anfis(trnData,in_fis,20);
plot(x,y,x,evalfis(x,out_fis));

15-14
‫ﻣﺪل ﻓﺎزي‬
‫;)'‪legend('Training Data','ANFIS Output‬‬
‫ﻣﺜﺎل ‪ .7‬ﺳﻴﺴﺘﻢ دﻳﻨﺎﻣﻴﻜﻲ زﻳﺮ را ﺑﺎ ‪ ANFIS‬ﺷﻨﺎﺳﺎﻳﻲ ﻛﻨﻴﺪ‬
‫‪y  10 * y  10 * y  5.5 * y  5 * y 3  u‬‬
‫ﻣﺪل ﻓﻀﺎي ﺣﺎﻟﺖ اﻳﻦ ﺳﻴﺴﺘﻢ از اﻳﻨﻘﺮار اﺳﺖ ‪:‬‬
‫‪x1  y  x2‬‬ ‫‪ f1(x1 , x2 , x3 )  x2‬‬
‫‪x 2  y  x3‬‬ ‫‪ f 2(x1 , x2 , x3 )  x3‬‬
‫‪x3  10 * x3  10 * x2  5.5 * x1  5 * x 3  u‬‬ ‫? ‪ f 3(x1 , x2 , x3 ) ‬‬
‫ﻛﻪ ﺗﺎﺑﻊ ﻣﺠﻬﻮل ‪ f3‬اﺳﺖ ﻛﻪ ﺑﺎﻳﺪ ﺑﺮ اﺳﺎس دﻳﺘﺎي ورودي‪ -‬ﺧﺮوﺟﻲ ﺷﻨﺎﺳﺎﻳﻲ ﺷﻮد‪ .‬ﭼﻮن ﻓﻘﻂ ﺧﺮوﺟﻲ اﻧـﺪازه ﮔﻴـﺮي‬
‫ﻣﻲ ﺷﻮد از روﻳﺖ ﮔﺮ ﺑﺮاي ﺗﺨﻤﻴﻦ ورودﻳﻬﺎي دﻳﮕﺮ اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد‪.‬‬

‫‪f3‬‬
‫‪y‬‬ ‫‪s‬‬ ‫‪y‬‬
‫‪2‬‬
‫‪S‬‬

‫ﺳﻴﺴﺘﻢ ﺑﺎ ‪ ode45‬ﺑﺮاي ورودي ‪ PRBS‬ﻣﺮﺗﺒﻪ ‪ 8‬ﺷﺒﻴﻪ ﺳﺎزي ﻣﻲ ﺷﻮد‪ .‬ﻣﺸﺘﻘﻬﺎ از راﺑﻄﻪ دﻳﻔﺮﻧﺲ ﻣﺤﺎﺳﺒﻪ ﻣﻲ ﺷﻮد‬
‫) ‪y (t  t )  y (t‬‬
‫‪y ‬‬
‫‪t‬‬

‫ﺧﺮوﺟﻲ ﺣﺎﺻﻞ از ﺷﺒﻴﻪ ﺳﺎزي ﺑﺎ ‪ode45‬‬


‫;‪d0y = y‬‬
‫ﻣﺤﺎﺳﺒﻪ ﻣﺸﺘﻘﺎت ﻣﺮﺗﺒﻪ ‪ 2 ،1‬و ‪3‬‬
‫‪dt‬‬ ‫=‬ ‫;‪0.01‬‬
‫‪d1y‬‬ ‫=‬ ‫;‪diff(d0y)/dt‬‬
‫‪d2y‬‬ ‫=‬ ‫;‪diff(d1y)/dt‬‬
‫‪d3y‬‬ ‫=‬ ‫;‪diff(d2y)/dt‬‬
‫ﭼﻮن در ﻫﺮ ﺑﺎر ﻣﺸﺘﻖ ﮔﻴﺮي ﻋﺪدي‪ ،‬ﻳﻜﻲ از داده ﻫﺎ ﻛﻢ ﻣﻲ ﺷﻮد‪ ،‬ﺑﻨﺎﺑﺮاﻳﻦ ﺗﻌﺪاد ﻣﻮﻟﻔﻪ ﻫﺎي ﻣﺸﺘﻖ ‪ 3‬ﺑﻌﻨـﻮان ﻣﺮﺟـﻊ‬
‫در ﻧﻈﺮ ﮔﺮﻓﺘﻪ ﻣﻲ ﺷﻮد‪.‬‬
‫;)‪n = numel(d3y‬‬
‫ﺗﻌﺮﻳﻒ ورودي و ﺧﺮوﺟﻲ ﺑﺮاي ﻣﺪل ‪ANFIS‬‬
‫;])‪Inputs = [d0y(1:n) d1y(1:n) d2y(1:n‬‬
‫;‪Targets = d3y‬‬
‫ﺣﺎل ﺑﺎﻳﺪ ‪ ANFIS‬را آﻣﻮزش ﺑﺪﻫﻴﻢ‪ .‬در اﻳﻦ ﻗﺴﻤﺖ از ﻧﻮع '‪ 'sugeno‬اﺳﺘﻔﺎده ﻛﺮدﻳﻢ و ﺗﻌﺪاد ﻗﻮاﻧﻴﻦ )‪ (rules‬را ﺑﺮاﺑﺮ‬
‫ﺑﺎ ‪ 10‬اﻧﺘﺨﺎب ﻛﺮدﻳﻢ‪.‬‬
‫‪% Train ANFIS Model‬‬
‫;)‪fis = genfis3(Inputs,Targets,'sugeno',10‬‬
‫;)‪fis = anfis([Inputs Targets],fis‬‬
‫‪ y‬ﺗﺒﺪﻳﻞ ﻣﻲ ﻛﻨﺪ‪.‬‬
‫ﻧﺘﻴﺠﻪ اﻳﻦ ﻋﻤﻞ ﻳﻚ ﺳﻴﺴﺘﻢ ﻓﺎزي ﺑﺼﻮرت ﺷﻜﻞ زﻳﺮ اﺳﺖ ﻛﻪ ‪ 3‬ﺗﺎ ورودي ‪ y, y, y‬را ﺑﻪ ‪‬‬

‫‪16-14‬‬
‫ﻣﺪل ﻓﺎزي‬

‫را ﺑﺮاﺳﺎس ‪ ANFIS‬آﻣﻮزش داده ﺷﺪه ﺑﺎﻻ‪ ،‬ﻣﺪل ﺳﺎزي ﻛﺮد‪.‬‬ ‫ﺣﺎل ﺑﺎﻳﺪ ﺳﻴﺴﺘﻢ ‪f 3‬‬
‫‪% Create Model‬‬
‫;])‪fhat = @(t,x) [x(2) x(3) evalfis([x(1) x(2) x(3)],fis‬‬
‫ﺑﻪ ﺟﺎي ﻣﺪل رﻳﺎﺿﻲ ﻛﻪ ﻗﺒﻼ ﺑﺮاي ﻣﺪل ﺳﺎزي اﺳﺘﻔﺎده ﻣﻲ ﻛﺮدﻳﻢ از ﻓـﺎزي اﺳـﺘﻔﺎده ﻛـﺮدهاﻳـﻢ‪ .‬اﻳـﻦ ﻣـﺪل را ﻣـﺪل‬
‫ﺗﺨﻤﻴﻨﻲ و ﻣﺪل ﺑﺪﺳﺖ آﻣﺪه در ﻗﺴﻤﺖ اﻟﻒ ﺳﻮال ‪ 2‬ﻛﻪ از ﺗﺎﺑﻊ رﻳﺎﺿﻲ اﺳﺘﻔﺎده ﺷﺪه ﺑﻮد ﺑﻌﻨﻮان ﻣﺪل واﻗﻌـﻲ در ﻧﻈـﺮ‬
‫ﻣﻲﮔﻴﺮﻳﻢ و ﺗﻔﺎﺿﻞ اﻳﻦ دو را ﺑﻌﻨﻮان ﺧﻄﺎ ﺗﻌﺮﻳﻒ ﻛﺮدهاﻳﻢ‪.‬‬
‫;‪t = 0:0.01:Tf‬‬
‫;]‪x0 = [0 0 1‬‬
‫;)‪[t, xhat] = ode45(fhat,t,x0‬‬
‫;‪e = x-xhat‬‬
‫ﻧﺘﺎﻳﺞ‬
‫‪1.2‬‬
‫‪x‬‬ ‫‪0.1‬‬ ‫‪0.07‬‬
‫‪x‬‬ ‫‪x‬‬
‫‪xhat‬‬
‫‪xhat‬‬ ‫‪xhat‬‬
‫‪1‬‬
‫‪0.08‬‬ ‫‪0.06‬‬

‫‪0.8‬‬
‫‪0.06‬‬ ‫‪0.05‬‬

‫‪0.6‬‬
‫‪0.04‬‬ ‫‪0.04‬‬
‫‪3‬‬

‫‪1‬‬
‫‪x‬‬

‫‪x‬‬
‫‪2‬‬
‫‪x‬‬

‫‪0.4‬‬ ‫‪0.02‬‬ ‫‪0.03‬‬

‫‪0.2‬‬ ‫‪0‬‬ ‫‪0.02‬‬

‫‪0‬‬ ‫‪-0.02‬‬ ‫‪0.01‬‬

‫‪-0.2‬‬ ‫‪-0.04‬‬ ‫‪0‬‬


‫‪0‬‬ ‫‪1‬‬ ‫‪2‬‬ ‫‪3‬‬ ‫‪4‬‬ ‫‪5‬‬ ‫‪0‬‬ ‫‪1‬‬ ‫‪2‬‬ ‫‪3‬‬ ‫‪4‬‬ ‫‪5‬‬ ‫‪0‬‬ ‫‪1‬‬ ‫‪2‬‬ ‫‪3‬‬ ‫‪4‬‬ ‫‪5‬‬
‫‪t‬‬ ‫‪t‬‬ ‫‪t‬‬

‫ﻧﻤﻮدار ﺧﻄﺎ و ﺗﻄﺎﺑﻖ ﺧﻮب دو ﻣﺪل ﺗﺨﻤﻴﻨﻲ و واﻗﻌﻲ ﻧﺸﺎن ﻣﻲدﻫـﺪ ﺳﻴﺴـﺘﻢ ﺑـﻪ ﺷـﻜﻞ ﻣﻨﺎﺳـﺒﻲ ﺑﻮﺳـﻴﻠﻪ اﻟﮕـﻮرﻳﺘﻢ‬
‫‪ ANFIS‬ﻣﺪل ﺷﺪه اﺳﺖ‪.‬‬
‫ﺑﺮاي ورودي اﻳﻦ ﻣﺪل ﻳﻚ ﺳﻴﮕﻨﺎل ‪ PRBS‬ﺗﻌﺮﻳـﻒ ﺷـﺪه اﺳـﺖ‪ .‬از ﺗﺸـﻜﻴﻞ داده ﺷﻨﺎﺳـﺎﻳﻲ‪ Residual ،‬را ﺑـﺮاي آن‬
‫ﻣﺤﺎﺳﺒﻪ ﻣﻲﻛﻨﻴﻢ ﻛﻪ در ﺷﻜﻞ ﻧﺸﺎن داده ﺷﺪه اﺳﺖ‪.‬‬

‫‪17-14‬‬
‫ﻣﺪل ﻓﺎزي‬
Correlation function of residuals. Output y1
1

0.5

-0.5
0 5 10 15 20 25
lag
Cross corr. function between input u1 and residuals from output y1
0.2

0.1

-0.1

-0.2
-25 -20 -15 -10 -5 0 5 10 15 20 25
lag

18-14
‫‪.15‬‬
‫‪Model based Fault Diagnosis‬‬

‫ﻛﺸﻒ و ﻋﻴﺐ ﻳﺎﺑﻲ ﺧﻄﺎ )‪ Fault detection and diagnosis (FDI‬ﻳﻚ ﻣﺴﺌﻠﻪ ﻣﻬﻢ ﻣﻬﻨﺪﺳﻲ در ﻣﺪﻳﺮﻳﺖ ﺣﻮادث‬
‫ﻏﻴﺮ ﻣﺘﺮﻗﺒﻪ )‪ Abnormal event management (AEM‬را ﺗﺸﻜﻴﻞ ﻣﻲ دﻫﺪ‪ .‬ﻛﺸﻒ زود ﻫﻨﮕﺎم ﺧﺮاﺑﻲ از ﮔﺴﺘﺮش‬
‫آن ﺟﻠﻮﮔﻴﺮي و از ﻛﺎﻫﺶ ﺗﻮﻟﻴﺪ ﺟﻠﻮﮔﻴﺮي ﻣﻲ ﻛﻨﺪ‪ .‬ﺿﺮر ﻧﺎﺷﻲ از ﺧﺎﺑﻲ ﻏﻴﺮ ﻣﺘﺮﻗﺒﻪ در ﺻﻨﻌﺖ ﭘﺘﺮوﺷﻴﻤﻲ ﺣﺪود ‪20‬‬
‫ﻣﻴﺎﻳﺮد دﻻر در ﺳﺎل ارزﻳﺎﺑﻲ ﻣﻲ ﺷﻮد‪.‬‬
‫ﺧﻄﺎ ‪ :Fault‬ﺧﻄﺎ ﻋﻤﻮﻣﺎ ﺑﻪ اﻧﺤﺮاف ﭘﺎراﻣﺘﺮ ﻳﺎ ﻣﺘﻐﻴﺮ ﺳﻴﺴﺘﻢ از ﻣﻘﺪار ﻣﺠﺎز ﮔﻔﺘﻪ ﻣﻲ ﺷﻮد‪ .‬اﻧﺤﺮاﻓﺎﺗﻲ ﻣﺎﻧﻨﺪ اﻓـﺰاﻳﺶ‬
‫درﺟﻪ ﺣﺮارت در ﻳﻚ راﻛﺘﻮر ﻳﺎ ﻛﺎﻫﺶ ﻛﻴﻔﻴﺖ ﺗﻮﻟﻴﺪ و اﻣﺜﺎل آن‪.‬‬

‫‪ :Fault detection‬ﺗﺸﺨﻴﺺ ﺣﺘﻲ اﻻﻣﻜﺎن ﻣﻄﻤﺌﻦ و ﺳﺮﻳﻊ ﺧﻄﺎ‬ ‫‪‬‬


‫‪ Fault isolation:‬ﺟﺪاﺳﺎزي ﺑﻴﻦ ﻋﻮاﻣﻞ ﺧﻄﺎ‬ ‫‪‬‬
‫‪ :Fault identification‬ﺗﻌﻴﻴﻦ ﻧﻮع ﺧﻄﺎ و اﻧﺪازه ٱن )ﻛﺪام ﭘﺎراﻣﺘﺮ و ﺑﻪ ﭼﻪ اﻧﺪازه(‬ ‫‪‬‬
‫‪ Fault Tolerance‬ﺗﻤﻬﻴﺪي ﻛﻪ ﺳﻴﺴﺘﻢ ﻋﻠﻴﺮﻏﻢ ﺧﻄﺎ ﺑﺘﻮاﻧﺪ ﺑﻪ ﻋﻤﻠﻜﺮد ﺧﻮد ﺑﻄﻮر ﻗﺎﺑﻞ ﻗﺒﻮل اداﻣﻪ دﻫﺪ‪.‬‬ ‫‪‬‬
‫‪ Failure‬اﻳﺮاد داﻳﻢ در ﻋﻤﻠﻜﺮد اﻟﻤﺎﻧﻲ از ﺳﻴﺴﺘﻢ ﻛﻪ ﻣﻨﺠﺮ ﺑﻪ ﺗﻐﻴﻴﺮ ﻣﺪل ﻣﻲ ﺷﻮد‬ ‫‪‬‬
‫ﻋﺎﻣﻞ ﺧﻄﺎ ‪Cause‬‬
‫ﺧﻄﺎ داراي ﻋﺎﻣﻠﻲ ﻫﺎﻳﻲ ﻣﻲ ﺑﺎﺷﺪ ﻛﻪ ﺑﻪ ﻧﺎم ‪ root cause‬ﺧﻮاﻧﺪه ﻣﻲ ﺷﻮﻧﺪ‪ .‬ﺑـﻪ رﺧـﺪاد ‪ failure‬ﻳـﺎ ‪malfunction‬‬
‫ﻣﻲ ﮔﻮﻳﻨﺪ‪ .‬ﻋﺎﻣﻞ ﺧﻄﺎ ﻫﺎ ﺑﻪ ﺳﻪ دﺳﺘﻪ ﺗﻘﺴﻴﻢ ﻣﻲ ﺷﻮﻧﺪ‬
‫‪ -1‬ﺗﻐﻴﻴﺮ در ﭘﺎراﻣﺘﺮﻫﺎي ﺳﻴﺴﺘﻢ‪ :‬اﻳﻦ ﻧﻮع ﺧﻄﺎ ﺑﻪ دو ﺻﻮرت ‪ (1‬ﺗﻐﻴﻴﺮ اﺛﺮ ورودي اﻧﺪازه ﮔﻴﺮي ﻧﺸﺪه و ﻟﻲ ﻣـﺪل‬
‫ﺷﺪه‪ (2‬ﺗﻐﻴﻴﺮ ﭘﺎراﻣﺘﺮﻫﺎي ﺳﻴﺴﺘﻢ دﻳﺪه ﻣﻲ ﺷﻮﻧﺪ‪ .‬ﻫﺮ دو ﺻﻮرت ﻣﻨﺠﺮ ﺑﻪ ﺗﻐﻴﻴﺮ در ﭘﺎراﻣﺘﺮﻧﺪ‬

‫‪1-15‬‬
‫ﻋﻴﺐ ﻳﺎﺑﻲ‬
‫‪ : Structural changes -2‬در اﻳﻦ ﻧﻮح ﺧﻄﺎ ﻳﻜﻲ از اﻟﻤﺎﻧﻬﺎي ﺳﻴﺴﺘﻢ ﺑﻄﻮر ﻋﻤﺪه از ﻛﺎر ﻣﻲ اﻓﺘﺪ ﺑﻪ ﻧﺤـﻮي ﻛـﻪ‬
‫ﻣﻨﺠﺮ ﺑﻪ ﺗﻐﻴﻴﺮ ﻣﺪل ﺳﻴﺴﺘﻢ ﻣﻲ ﺷﻮد‪.‬‬
‫‪ -3‬اﻳﺮاد در ﺳﻨﺴﻮرﻫﺎ و ﻣﺤﺮﻛﻬﺎ‬
‫‪ -4‬اﻳﺮاد ﻧﺎﺷﻲ از ﻋﺪم ﻗﻄﻌﻴﺖ‪ :‬اﻳﻦ ﻋﻮاﻣﻞ ﻣﺎﻧﻨﺪ ﻧﻮﻳﺰ و ﻋﺪم ﻗﻄﻌﻴﺘﻲ ﻛﻪ از ﻗﺒﻞ ﻣﺪل ﻧﺸﺪه اﻧﺪ )اﻃﻼﻋـﺎت اوﻟﻴـﻪ‬
‫در ﻣﻮرد آﻧﺎن وﺟﻮد ﻧﺪارد( ﻣﻲ ﺑﺎﺷﻨﺪ ﻛﻪ در ﺣﻮزه ‪ FDI‬ﻗﺮار ﻧﺪارﻧﺪ‬
‫وﻳﮋﮔﻲ ﻣﻮرد ﻧﻴﺎز ﻳﻚ ﺳﻴﺴﺘﻢ ‪FDI‬‬
‫‪ :Detection time -1‬ﻛﺸﻒ ﺳﺮﻳﻊ در ﺗﻘﺎﺑﻞ ﺑﺎ ‪ false alarm‬ﻗﺮار دارد‪.‬‬
‫‪ -2‬ﺣﺴﺎﺳﻴﺖ ‪ Sensibility‬ﺑﻪ ﻣﻘﺪار ﻗﺎﺑﻞ ﺧﻄﺎ‬
‫‪ :Isolation errors -3‬ﻗﺎﺑﻠﻴﺖ ﺗﻔﻜﻴﻚ ﺧﻄﺎﻫﺎ‬
‫اﻳــــﻦ ﺑــــﻪ ﻣﻌﻨــــﻲ ‪ False alarms‬و‬ ‫‪ :Robustness -4‬ﺑﺎﻳﺪ ﻧﺴﺒﺖ ﺑﻪ ﻧﻮﻳﺰ و ﻋﺪم ﻗﻄﻌﻴﺖ ﻣﻘﺎوم ﺑﺎﺷﺪ‪.‬‬
‫‪ Missed detection‬ﻛﻢ اﺳﺖ‬
‫‪ :Novelty identifiability -5‬ﻗﺎﺑﻠﻴﺖ ﺗﻔﻜﻴﻚ ﺑﻴﻦ ﻋﻮاﻣﻞ ﺧﻄﺎ ﺑﻪ ﻧﺤﻮي ﻛﻪ ﺑﺘﻮاﻧﺪ اﻋﻼم ﻛﻨﺪ ﻛﻪ ﻋﺎﻣﻞ اﻳـﻦ ﺧﻄـﺎ‬
‫ﻗﺒﻼ در ﺳﻴﺴﺘﻢ ﺗﻌﺮﻳﻒ ﻧﺸﺪه اﺳﺖ‪.‬‬
‫‪ :Classification error estimate -6‬اراﺋﻪ ﺗﺨﻤﻴﻦ از ﺻﺤﺖ دﺳﺘﻪ ﺑﻨﺪي ﺧﻄﺎ‬
‫‪ :Adaptability -7‬ﺳﻴﺴﺘﻢ ﻧﺒﺎﻳﺪ ﺗﻐﻴﻴﺮات ﻣﺠﺎز را ﺑﻪ ﻋﻨﻮان ﺧﻄﺎ اﻋﻼم ﻛﻨﺪ‬
‫‪ :Explanation facility -8‬اﻣﻜﺎن ﺗﻮﺿﻴﺢ ﭼﺮاﻳﻲ ﺑﻮﺟﻮد آﻣﺪن ﺧﻄﺎ‬
‫‪ :Modelling requirements -9‬ﺑﺮاي داﺷﺘﻦ ﻳﻚ ﺳﻴﺴﺘﻢ ﺑﻼدرﻧﮓ ﺳﺮﻳﻊ ﺳﺎﺧﺘﺎر ﻣﺪﻟﻲ ﻛﻪ اﺳﺘﻔﺎده ﻣﻲ ﻛﻨﺪ ﺑﺎﻳﺪ‬
‫ﻣﻨﺎﺳﺐ ﺑﺎﺷﺪ‬
‫‪ :Storage and computational requirements -10‬ﻣﻘﺪار ﺣﺎﻓﻈﻪ و ﺳﺮﻋﺖ ‪ cpu‬ﻣﻮرد ﻧﻴﺎز‬
‫‪ :Multiple fault identifiability -11‬ﻗﺎﺑﻠﻴﺖ ﺗﺸﺨﻴﺺ ﺧﻄﺎﻫﺎي ﭼﻨﺪ ﮔﺎﻧﻪ‬
‫ﻋﻤﻠﻴﺎت ‪FDI‬‬
‫ﻫﺮ ﻓﺮاﻳﻨﺪ ‪ FDI‬داري ﮔﺎﻣﻬﺎي زﻳﺮ اﺳﺖ ﻛﻪ در ﺷﻜﻞ ﻧﺸﺎن داده ﺷﺪه اﺳﺖ ‪ (1‬اﻧﺪازه ﮔﻴﺮي‪ (2 ،‬اﺳﺘﺨﺮاج وﻳﮋﮔﻴﻬـﺎي‬
‫ﺑﺮﺟﺴﺘﻪ ﺳﻴﮕﻨﺎل ﻣﺘﻨﺎﺳﺐ ﺑﺎ ﺧﻄﺎ ‪ (3‬ﺗﻄﺒﻴﻖ ﺑﻴﻦ وﻳﮋﮔﻲ ﺳﻴﮕﻨﺎل و وﻳﮋﮔﻲ ﺧﻄﺎ ‪ (4‬ﺗﻌﻴﻴﻦ ﺧﻄﺎ‬

‫‪2-15‬‬
‫ﻋﻴﺐ ﻳﺎﺑﻲ‬

‫ﺑﺮ اﺳﺎس اﺳﺘﺮاﺗﮋي ﻣﺘﺨﺬه در ﻫﺮﻳﻚ از ‪ 4‬ﮔﺎم ‪ FDI‬ﻣﺠﻤﻮﻋﻪ اي از ﺗﻜﻨﻴﻜﻬﺎ اﻳﺠﺎد ﻣﻲ ﺷﻮد ﻛﻪ در ﺷﻜﻞ ﻧﺸـﺎن داده‬
‫ﺷﺪه اﺳﺖ‪.‬‬

‫اﻧﻮاع روﺷﻬﺎ‬
‫‪ 3‬دﺳﺘﻪ روش ﺑﺮاي ‪ FDI‬وﺟﻮد دارد‬
‫‪ :Quantitative model-based methods ‬در اﻳﻦ روﺷﻬﺎ ﺧﻄﺎ از اﺧﺘﻼف ﻋﻤﻠﻜﺮد ﺳﻴﺴﺘﻢ و ﻣﺪل ﻛﺸﻒ ﻣﻲ‬
‫ﺷﻮد‪ .‬روﺷﻬﺎي ﻣﺒﺘﻨﻲ ﺑﺮ روﻳﺘﮕﺮ‪ ،parity ،‬ﻓﻴﻠﺘﺮ ﻛﺎﻟﻤﻦ و ﺗﺨﻤﻴﻦ در اﻳﻦ دﺳﺘﻪ ﺟﺎي دارﻧﺪ‪.‬‬
‫‪ :Qualitative model-based methods ‬اﻟﮕﻮرﻳﺘﻤﻬﺎي ﻣﺎﻧﻨﺪ‬
‫‪Signed directed graph (SDG) , Fault Trees ، Qualitative Simulation (QSIM) , Qualitative‬‬
‫)‪Process Theory (QPT‬‬
‫‪ Process history based methods. ‬اﻟﮕﻮرﻳﺘﻤﻬﺎي ﻛﻴﻔﻲ ﻣﺎﻧﻨﺪ‬
‫‪ qualitative trend analysis (QTA) ،expert systems‬و و اﻟﮕﻮرﻳﺘﻤﻬـﺎي ﻛﻤـﻲ ﻣﺎﻧﻨـﺪ ‪،neural networks‬‬
‫‪ PCA‬و ‪ statistical classifiers‬ﻗﺮار دارﻧﺪ‪.‬‬
‫ﻋﻠﻴﺮﻏﻢ اﻳﻦ ﺗﻜﻨﻴﻜﻬﺎي ﺧﻮدﻛﺎر‪ FDI ،‬ﻫﻤﭽﻨﺎن ﻣﺘﻜﻲ ﺑﺮ اﭘﺮاﺗﻮر اﺳﺖ‪.‬‬
‫ﮔﺎم‪Decision making‬‬
‫اﻳﻦ ﮔﺎم ﻣﺸﺘﺮك ﻛﺎرﺑﺮدﻫﺎي زﻳﺎدي اﺳﺖ و اﻳﻨﺠﺎ ﺑﺤﺚ ﻧﻤﻲ ﺷﻮﻧﺪ‬

‫‪3-15‬‬
‫ﻋﻴﺐ ﻳﺎﺑﻲ‬
‫‪Quantitative model-based approaches 1-15‬‬
‫در ﻣﻮﺿﻮﻋﺎت ﻛﻨﺘﺮﻟﻲ ﻋﻴﺐ ﻳﺎﺑﻲ ﺑﺼﻮرت ‪ model-based FDI.‬اﺳﺖ‪ .‬در اﻳﻦ ﻛﻼس ورﺷﻬﺎ ﺳـﻴﮕﻨﺎل ﺧﻄـﺎ ﺑـﻪ ﻧـﺎم‬
‫ﺑﺎﻗﻴﻤﺎﻧﺪه )‪ Residue (r‬ﺗﻮﻟﻴﺪ ﻣﻲ ﮔﺮدد ﻛﻪ ﻣﻌﺮف ﺧﻄﺎﺳﺖ‪ .‬اﻳﻦ ﻛﺎر ﺑﺎ ﻟﺤﺎظ ﻛﺮدن اﻓﺰوﻧﮕﻲ ﺻﻮرت ﻣﻲ ﮔﻴﺮد‪.‬‬
‫اﻓﺰوﻧﮕﻲ ‪Redundancy‬‬
‫ﺑﺮاي ﻋﻴﺐ ﻳﺎﺑﻲ ﺑﻪ اﻓﺰوﻧﮕﻲ ﻧﻴﺎز اﺳﺖ‪ .‬اﻓﺰوﻧﮕﻲ ﻣﻤﻜﻦ اﺳﺖ ﺳﺨﺖ اﻓﺰاري ﻳﺎ ﺗﺤﻠﻴﻠﻲ ‪ analytic‬ﺑﺎﺷـﺪ‪ .‬ﻫـﺪف اﺻـﻠﻲ‬
‫اﻓﺰوﻧﮕﻲ آن اﺳﺖ ﻛﻪ ﻳﻚ ﻣﺪل از ﺳﻴﺴﺘﻢ ﺳﺎﻟﻢ ﺗﻮﻟﻴﺪ ﻛﻨﺪ ﻛﻪ ﺑﺘﻮان رﻓﺘﺎر ﺳﻴﺴﺘﻢ واﻗﻌﻲ را ﺑﺎ آن ﻣﻘﺎﻳﺴﻪ ﻛﺮد و ﺧﻄﺎ‬
‫را ﺗﺸﺨﻴﺺ داد‪.‬‬
‫اﻓﺰوﻧﮕﻲ ﺳﺨﺖ اﻓﺰاري ﺑﺎ ﻧﺼﺐ ﻣﺜﻼ ﺳﻨﺴﻮر اﺿﺎﻓﻲ ﻣﺤﻘﻖ ﻣـﻲ ﺷـﻮد ﻛـﻪ در ﻫﻮاﭘﻴﻤﺎﻫـﺎ و راﻛﺘﻮرﻫـﺎي ﻫﺴـﺘﻪاي‬
‫اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد‪ .‬اﻳﻦ روش ﻫﻤﺮاه ﺑﺎ ﻫﺰﻳﻨﻪ و ﺗﺨﺼﻴﺺ ﻓﻀﺎي اﺿﺎﻓﻲ اﺳﺖ‬
‫اﻓﺰوﻧﮕﻲ ﺗﺤﻠﻴﻠﻲ )ﻳﺎ‪ (functional, artificial‬ﺗﻮﺳﻂ رواﺑﻂ ﺟﺒﺮي ﻳﺎ زﻣﺎﻧﻲ ﺑﻴﻦ ﻣﺘﻐﻴﺮﻫﺎ‪ ،‬ورودﻳﻬـﺎ و ﺧﺮوﺟﻴﻬـﺎي‬
‫ﺳﻴﺴﺘﻢ ﻧﻮﺷﺘﻪ ﻣﻲ ﺷﻮد‪ .‬اﻳﻦ اﻓﺰوﻧﮕﻲ ﺑﻪ دو ﻧﻮع ﻣﺴﺘﻘﻴﻢ و زﻣﺎﻧﻲ ﺗﻘﺴﻴﻢ ﻣﻲ ﺷﻮد‪.‬‬
‫در اﻓﺰوﻧﮕﻲ ﻣﺴﺘﻘﻴﻢ ﻣﻘﺪار ‪ x‬ﺗﻮﺳﻂ ﻳﻚ ﺳﻨﺴﻮر اﻧﺪازه ﮔﻴﺮي ﻣﻲ ﺷﻮد ﺑﻌﻼوه ﻣﻘﺪار ‪ x‬از ﺳﻨﺴﻮر ﻣﻘﺎدﻳﺮ دﻳﮕـﺮ ﺑـﺎ‬
‫رواﺑﻂ ﺟﺒﺮي ﻣﺤﺎﺳﺒﻪ ﻣﻲ ﺷﻮد‪ ،‬اﺧﺘﻼف ﺑﻴﻦ آﻧﺪو ﺑﻪ ﻣﻌﻨﻲ ﺧﻄﺎدر ﺳﻨﺴﻮر اﺻﻠﻲ اﺳﺖ‪.‬‬
‫اﻣﺎ اﻓﺰوﻧﮕﻲ زﻣﺎﻧﻲ ﺑﺎ ﻣﻌﺎدﻻت دﻳﻔﺮﻧﺲ ﻛﻪ ارﺗﺒﺎط ﺑﻴﻦ ﺧﺮوﺟﻲ ﺳﻨﺴﻮرﻫﺎ و ووردي ﻣﺤﺮﻛﻬﺎ راﺑﻴﺎن ﻣﻲ ﻛﻨﺪ ﺑﺪﺳﺖ‬
‫ﻣﻲ آﻳﺪ‪.‬‬
‫ﺷﻜﻞ ﺳﺎﺧﺘﺎر ﻋﻤﻮﻣﻲ اﻓﺰوﻧﮕﻲ در ﺳﻴﺴﺘﻢ ﻋﻴﺐ ﻳﺎﺑﻲ را ﻧﺸﺎن ﻣﻲ دﻫﺪ‪.‬‬

‫اﻓﺰوﻧﮕﻲ ﺗﺤﻠﻴﻠﻲ‬
‫در اﻓﺰوﻧﮕﻲ ﺗﺤﻠﻴﻠﻲ از ﻣﺪﻟﻬﺎي رﻳﺎﺿﻲ اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد ﺗﺎ ﺳﻴﮕﻨﺎل ﻣﺮﺟﻊ ﺑﺮاي ﺗﺸﺨﻴﺺ ﺧﻄﺎ در ﻣﻮاﺟﻬﻪ ﺑﺎ ﺳﻴﮕﻨﺎل‬
‫ﺳﻴﺴﺘﻢ واﻗﻌﻲ ﺑﺎﺷﻨﺪ‪ .‬اﺧﺘﻼف ﺑﻴﻦ ﻣﺘﻐﻴﺮﻫﺎي ﺳﻴﺴﺘﻢ واﻗﻌﻲ و ﻣﺪل ﺑﻪ ﻣﻌﻨﻲ ﺧﻄﺎ اﺳﺖ‪ .‬اﻳﻦ ﺑﺎﻗﻴﻤﺎﻧﺪه ﺑﺎﻳﺪ ﻧﺰدﻳـﻚ‬
‫ﺻﻔﺮ ﺑﺎﺷﺪ ﺗﺎ ﺳﻴﺴﺘﻢ ﺳﺎﻟﻢ ﺗﻠﻘﻲ ﺷﻮد‪ .‬ﻫﺮ ﺗﻐﻴﻴﺮ ﻏﻴﺮ ﻣﺘﻌـﺎرف در ﺳﻴﺴـﺘﻢ ﺧـﻮد را در ‪ Residue‬ﻧﺸـﺎن ﻣـﻲ دﻫـﺪ‪.‬‬
‫ﻣﺤﺎﺳﺒﻪ ‪ Residue‬ﻣﺴﺘﻠﺰم داﺷﺘﻦ ﻣﺪل رﻳﺎﺿﻲ ﺗﺤﻠﻴﻠﻲ ﻳﺎ ﻣﺪل ﺟﻌﺒﻪ ﺳﻴﺎه ﺷﻨﺎﺳﺎﻳﻲ اﺳﺖ‪ .‬ﺷـﻜﻞ اﻳـﻦ ﺳﻴﺴـﺘﻢ را‬
‫ﻧﺸﺎن ﻣﻲ دﻫﺪ‬

‫‪4-15‬‬
‫ﻋﻴﺐ ﻳﺎﺑﻲ‬

‫ﻣﺪل ﺳﻴﺴﺘﻢ‬
‫اﮔﺮ ﭼﻪ ﺳﻴﺴﺘﻤﻬﺎ ﭘﻴﻮﺳﺘﻪ ﻫﺴﺘﻨﺪ وﻟﻲ اﻟﮕﻮرﻳﺘﻤﻬﺎي ‪ FDI‬ﮔﺴﺴﺘﻪ ﻧﻮﺷﺘﻪ ﻣﻲ ﺷﻮﻧﺪ‪ .‬در اﻏﻠﺐ روﺷﻬﺎي ﻣﺪل ﺳﻴﺴﺘﻢ‬
‫ﺧﻄﻲ ﻓﺮض ﻣﻲ ﺷﻮد و اﮔﺮ ﺳﻴﺴﺘﻢ ﻏﻴﺮ ﺧﻄﻲ ﺑﺎﺷﺪ ﺑﺎﻳﺪ ﺣﻮل ﻧﻘﻄﻪ ﻛﺎر ﺧﻄﻲ ﮔﺮدد‪.‬‬
‫ﻣﺪل ﺳﻴﺴﺘﻢ ﺳﺎﻟﻢ را ﺑﺼﻮرت ﻓﻀﺎي ﺣﺎﻟﺖ‬

‫وﻗﺘﻲ ﺳﻴﺴﺘﻢ ﺗﺤﺖ ﺗﺎﺛﻴﺮ ﺧﻄﺎ ﻗﺮار ﮔﻴﺮد ﻣﺪل ﺑﺼﻮرت زﻳﺮ ﺗﻌﻴﻴﺮ ﻣﻲ ﻛﻨﺪ‬

‫ﮔﻪ در آن ‪ p‬در ﺑﺮ ﮔﻴﺮﻧﺪه ﺧﻄﺎي ﻣﺤﺮك‪ ،‬ﺳﻨﺴﻮر‪ ،‬اﺧﺘﻼل و ﺧﻄﺎي ﺳﻴﺴﺘﻢ اﺳـﺖ‪ q .‬ﻧﻤﺎﻳﻨـﺪه ﺧﻄـﺎي اﻧـﺪازه ﮔﻴـﺮ‬
‫اﺳﺖ‪ .‬ﻣﺪل ورودي‪-‬ﺧﺮوﺟﻲ ﻧﻈﻴﺮ آﻧﺮا اﻳﻨﮕﻮﻧﻪ ﻣﻲ ﺗﻮان ﻧﻮﺷﺖ‬

‫ﺧﻄﺎﻫﺎي ﺟﻤﻊ ﻳﺎ ﺿﺮب ﺷﻮﻧﺪه‬


‫ﻧﻜﺘﻪ اﻳﻨﻜﻪ ﺑﺎﻳﺪ ﺑﻴﻦ ﺧﻄﺎﻫﺎي ﺟﻤﻊ ﺷﻮﻧﺪه ‪ additive‬و ﺿﺮب ﺷﻮﻧﺪه ‪ multiplicative‬ﺗﻔﻜﻴﻚ ﻗﺎﺋﻞ ﺷﺪ‪ .‬ﻣﺪل ﺑﺮاي‬
‫ﺧﻄﺎﻫﺎي ﺿﺮب ﺷﻮﻧﺪه ﺑﺼﻮرت‬

‫و ﺟﻤﻊ ﺷﻮﻧﺪه‬

‫ﻛﻪ ‪ ω‬اﺧﺘﻼﻻت ﻣﺪل ﻧﺸﺪه‪ ،‬ﻧﻮﻳﺰ و ﺧﻄﺎﻫﺎي ﻧﺎﺷﻨﺎﺧﺘﻪ اﺳﺖ‪ .‬ﺑﺎ ﻣﻘﺎﻳﺴﻪ دو ﻣﺪل دﻳﺪه ﻣـﻲ ﺷـﻮد ﻛـﻪ ﺧﻄـﺎي ﺟﻤـﻊ‬
‫ﺷﻮﻧﺪه ﺑﺼﻮرت ﺳﻴﮕﻨﺎل ﻣﺠﻬﻮل و ﺧﻄﺎي ﺿﺮب ﺷﻮﻧﺪه ﺑﺼﻮرت ﺳﻴﮕﻨﺎل ﻣﻌﻠﻮم ﺿﺮﺑﺪر ﻣﺎﺗﺮﻳﺲ ﻣﺠﻬﻮل ﻧﻮﺷﺘﻪ ﺷـﺪه‬
‫اﻧﺪ‪ .‬در ادﺑﻴﺎت ﻛﻨﺘﺮﻟﻲ ﺑﻪ ﺗﻤﺎم اﻳﻨﻬﺎ ﻋﺪم ﻗﻄﻌﻴﺖ ﮔﻔﺘﻪ ﻣﻲ ﺷﻮد‪.‬‬

‫‪5-15‬‬
‫ﻋﻴﺐ ﻳﺎﺑﻲ‬

‫ﺧﻄﺎ و ﻋﺪم ﻗﻄﻌﻴﺖ‬


‫روﺷﻬﺎي ‪ FDI‬ﺑﺎﻳﺪ ﻗﺎدر ﺑﺎﺷﻨﺪ ﺑﻴﻦ ﺧﻄﺎ و ﻋﺪم ﻗﻄﻌﻴﺖ در ﻣﺪل ﺗﻔﻜﻴﻚ ﻗﺎﺋﻞ ﺷﻮﻧﺪ‪ .‬ﻫﺮ دو ﻗﺎدرﻧﺪ ﺑﺮ ﺑﺎﻗﻴﻤﺎﻧﺪه ﺗﺎﺛﻴﺮ‬
‫ﺑﮕﺬارﻧﺪ ﺑﻨﺎﺑﺮاﻳﻦ ﻫﺮ اﻧﺤﺮاف در ﺑﺎﻗﻴﻤﺎﻧﺪه ﻧﻤﻴﺘﻮاﻧﺪ ﺑﻌﻨﻮان ﺧﻄﺎ ﺗﻠﻘﻲ ﺷﻮد‪ .‬در ﻳﻚ روش ﻓﻴﻠﺘﺮﻫﺎﻳﻲ ﺑﺮاي ﻋﺪم ﻗﻄﻌﻴﺖ‬
‫ﻃﺮح ﻣﻲ ﮔﺮدد ﺗﺎ اﺛﺮ ﺧﻄﺎ ﻗﺎﺑﻞ ﺗﻤﻴﺰ ﺑﺎﺷﺪ‪.‬‬
‫‪Directional & structural residuals‬‬
‫ﺑﺎﻗﻴﻤﺎﻧﺪه در ﺣﺎﻟﺖ ﻛﻠﻲ ﺗﺎﺑﻌﻲ ﺑﺮداري از ورودي و ﺧﺮوﺟﻲ ﺳﻴﺴﺘﻢ اﺳﺖ‬
‫)‪r=g(y,u‬‬
‫در ﺣﺎﻟﺖ ﻧﺮﻣﺎل ﺗﻤﺎم اﻟﻤﺎﻧﻬﺎي ﺑﺮدار ‪ r‬ﺻﻔﺮ ﻫﺴﺘﻨﺪ‪.‬‬
‫‪ :directional residue‬در ﻃﺮاﺣﻲ ‪ r‬ﻣﻤﻜﻦ اﺳﺖ ﺑﻪ ﺗﺮﺗﻴﺒﻲ ﻋﻤﻞ ﺷﻮد ﻛﻪ ﻫﺮ اﻟﻤﺎن آن ﻣﺘﻨﺎﻇﺮ ﻳﻚ ﺧﻄﺎي ﺧﺎص‬
‫ﺑﺎﺷﺪ‪ .‬ﺑﻪ اﻳﻦ ﺗﺮﺗﻴﺐ ﺳﺎﻳﺰ ‪ r‬ﺑﺮاﺑﺮ ﺗﻌﺪاد ﺧﻄﺎﻫﺎي ﻣﺤﺘﻤﻞ اﺳﺖ‪ .‬ﺑﻪ اﻳﻦ روش ‪ directional residue‬ﻣﻲ ﮔﻮﻳﻨﺪ‬
‫‪ structural residue‬در ﻣﻘﺎﺑﻞ ﻣﻤﻜﻦ اﺳﺖ اﻳﻨﮕﻮﻧﻪ ﻧﺒﺎﺷﺪ و ﻫﺮ اﻟﻤﺎن ‪ r‬زﻳﺮ ﻣﺠﻤﻮﻋﻪ اي از ﺧﻄﺎﻫﺎ را ﻧﺸﺎن دﻫﺪ ﻛﻪ‬
‫در ﺑﺨﺶ ﺗﺼﻤﻴﻢ ﮔﻴﺮي ﺑﺮ اﺳﺎس ﻣﻘﺪار اﻟﻤﺎﻧﻬﺎﺑﻲ ﺑﺮدار ‪ r‬ﺧﻄﺎﻫﺎ ﺗﻔﻜﻴﻚ ﺷﻮﻧﺪ‪ .‬ﺑﻪ اﻳﻦ ﺳﺎﺧﺘﺎر ‪structural residue‬‬
‫ﻣﻲ ﮔﻮﻳﻨﺪ‪.‬‬
‫اﻟﮕﻮرﻳﺘﻤﻬﺎ‬
‫ﺑﻌﻀﻲ از اﻟﮕﻮرﻳﺘﻤﻬﺎي اﻳﻦ ﮔﺮوه ﻋﺒﺎرﺗﻨﺪ از‪:‬‬
‫‪o‬‬ ‫‪diagnostic observers,‬‬
‫‪o‬‬ ‫‪parity relations,‬‬
‫‪o‬‬ ‫‪Kalman filters and‬‬
‫‪o‬‬ ‫‪parameter estimation‬‬

‫‪ 2-15‬روش ﻣﺒﺘﻨﻲ ﺑﺮ ‪Observer‬‬


‫ﻫﺪف ﻋﻴﺐ ﻳﺎب روﻳﺘﮕﺮي ﺗﻮﻟﻴﺪ ﺳﻴﮕﻨﺎﻟﻬﺎي ﺑﺎﻗﻴﻤﺎﻧﺪه اﺳﺖ ﻛﻪ ﺑﺼﻮرت ﻣﻨﺤﺼﺮﺑﻔﺮد ﻣﻌﺮف ﺧﻄﺎ ﺑﺎﺷﻨﺪ‪ .‬اﻳﻦ ﺑﺎﻗﻴﻤﺎﻧﺪه‬
‫ﻫﺎ ﺑﺎﻳﺪ ﻧﺴﺒﺖ ﺑﻪ ﻧﻮﻳﺰ و ﻋﺪم ﻗﻄﻌﻴﺖ ﻣﺪل ﻣﻘﺎوم ﺑﺎﺷﻨﺪ‪.‬‬
‫در اﻳﻦ روش ﻳﻚ ﻣﺠﻤﻮﻋﻪ اي از روﻳﺘﮕﺮﻫﺎ ﺗﻌﺮﻳﻒ ﻣﻲ ﮔﺮدﻧﺪ ﻛﻪ ﻫﺮﻳﻚ ﻣﺨﺘﺺ ﻛﺸﻒ ﺧﻄﺎي ﺧﺎص ﺑﺎﺷﺪ در ﺧﺎﻻت‬
‫ﻋﺎدي ﻫﻤﻪ روﻳﺘﮕﺮﻫﺎ ﺧﺮوﺟﻲ ﻛﻮﭼﻚ ﺗﻮﻟﻴﺪ ﻣﻲ ﻛﻨﻨﺪ و در ﺻﻮرت ﺑﺮوز ﺧﻄﺎي ﺧﺎص روﻳﺘﮕـﺮ ﺗﺨﺼﻴﺼـﻲ ﺑـﺎ ﺗﻮﻟﻴـﺪ‬
‫ﺧﺮوﺟﻲ ﺑﺰرگ وﻗﻮع ﺧﻄﺎ را اﻋﻼم ﻣﻲ ﻛﻨﺪ‪.‬‬
‫روﻳﺘﮕﺮ ﻋﻤﻮﻣﻲ‬

‫‪6-15‬‬
‫ﻋﻴﺐ ﻳﺎﺑﻲ‬
‫ﺑﺮاي ﺳﻴﺴﺘﻢ زﻳﺮ‬

‫راﺑﻄﻪ روﻳﺘﮕﺮ از اﻳﻦ ﻗﺮا راﺳﺖ‬

‫ﺑﺎﻗﻴﻤﺎﻧﺪه ﺑﺮاي ﻛﺸﻒ ﺧﻄﺎ اﻳﻨﮕﻮﻧﻪ ﺗﻌﺮﻳﻒ ﻣﻲ ﺷﻮد‬

‫‪ L‬ﺑﻪ ﻧﺤﻮي اﻧﺘﺨﺎب ﻣﻲ ﮔﺮدد ﻛﻪ ‪ A-LC‬ﭘﺎﻳﺪار ﺑﺎﺷﺪ‪ .‬ﺑﺮاي اﻳﻨﻜﻪ راﺑﻄﻪ ﻧﺴﺒﺖ ﺑﻪ ﺧﻄﺎ ﺗﻔﻜﻴﻚ ﭘـﺬﻳﺮ ﺑﺎﺷـﺪ ﺗﺴـﺎوي‬
‫زﻳﺮ ﻣﺤﺎﺳﺒﻪ ﺗﺎ ‪ W‬ﺑﺪﺳﺖ آﻳﺪ‪.‬‬

‫ﺑﺎ ﺿﺮب راﺑﻄﻪ در ‪ ، W‬راﺑﻄﻪ ‪ selective‬ﺑﺮاي ﺧﻄﺎ ﺑﻮﺟﻮد ﻣﻲ آﻳﺪ‪.‬‬

‫روﻳﺘﮕﺮ ورودي ﻣﺠﻬﻮل‬


‫ﻧﺤﻮه ﺳﺎﺧﺖ اﻳﻦ ﭼﻨﻴﻦ روﻳﺘﮕﺮي ﺑﺮاي ﺳﻴﺴﺘﻢ زﻳﺮ‬

‫ﻛﻪ ﺑﻪ ‪ Fp‬ﺣﺴﺎس و ﻣﺴﺘﻘﻞ از ‪ d‬ﻣﺠﻬﻮل ﺑﺎﺷﺪ ﺑﺼﻮرت زﻳﺮ‬

‫ﺗﻮﺳﻌﻪ ﻣﻲ ﻳﺎﺑﺪ‪ .‬ﺣﺎل اﻟﮕﻮرﻳﺘﻤﻲ ﻧﻴﺎز اﺳﺖ ﻛﻪ ﺑﺮ اﺳﺎس ‪ u‬و‪ y‬اﻧﺪازه ﮔﻴﺮي ﺷﺪه ﺑﺘﻮاﻧﺪ ﻣﺘﻐﻴﺮﻫﺎي ﺣﺎﻟـﺖ را ﺗﺨﻤـﻴﻦ‬
‫ﺑﺰﻧﺪ‪ .‬اﻳﻦ ﻛﺎر ﺑﺎ ﻓﺮﻣﻮل ﺑﻨﺪي زﻳﺮ اﻧﺠﺎم ﻣﻲ ﺷﻮد ﻛﻪ ‪ e‬ﺧﻄﺎي ﺗﺨﻤﻴﻦ و ‪ r‬ﺑﺎﻗﻴﻤﺎﻧﺪه اﺳﺖ‬

‫ﺑﺮاي اﻳﻨﻜﻪ راﺑﻄﻪ ﻣﺴﺘﻘﻞ از ‪ d‬ﺷﻮد‪ .‬ﺑﺮاي اﻳﻦ ﻣﻨﻈﻮر ‪ T‬و ‪ J‬روﻳﺘﮕﺮ ﺑﻪ ﻧﺤﻮي اﻧﺘﺨﺎب ﻣﻲ ﮔﺮدﻧﺪ ﻛﻪ ‪ TE=0‬و ‪J=TB‬‬
‫ﺷﻮد‪ .‬در ﻧﺘﻴﺠﻪ‬

‫ﺣﺎل ﺑﺎ اﻧﺘﺨﺎب ‪ G‬روﻳﺘﮕﺮ ﺑﻪ ﻧﺤﻮي ﻛﻪ ‪ GC-TA=-HT‬ﻛﻪ ‪ H‬ﭘﺎﻳﺪار اﺳﺖ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬

‫‪7-15‬‬
‫ﻋﻴﺐ ﻳﺎﺑﻲ‬
‫ﻛﻪ ﺣﺎﻻ ﻓﻘﻂ ﺑﻪ ﺧﻄﺎي ﻣﻮرد ﻧﻈﺮ ‪ Fp‬واﺑﺴﺘﻪ اﺳﺖ و ﺑﻪ ﻫﻤﻴﻦ ﺗﺮﺗﻴﺐ ﺑﺎﻗﻴﻤﺎﻧﺪه ‪ .r‬در ﺣﺎﻟﺖ ﻧﺮﻣﺎل ﻛـﻪ ‪ Fp=0‬اﺳـﺖ‬
‫ﻣﻘﺪار ‪e‬و ﺑﻪ ﺗﺒﻊ آن ‪ r‬ﺑﻪ ﺳﻤﺖ ﺻﻔﺮ ﻣﻲ رود‪.‬‬

‫اﻣﺎ در ﺣﺎﻟﺖ وﺟﻮد ﺧﻄﺎ ‪ e‬ﺳﻴﮕﻨﺎل ‪ Fp‬را دﻧﺒﺎل ﻣﻲ ﻛﻨﺪ و اﻳﻦ ﻣﺴﺘﻘﻞ از ورودي ﻣﺠﻬـﻮل ‪ d‬اﺳـﺖ‪ .‬از اﻳﻨـﺮو ﺑـﻪ آن‬
‫روﻳﺘﮕﺮ ﺑﺎ ورودي ﻣﺠﻬﻮل ﻣﻲ ﮔﻮﻳﻨﺪ‬
‫ﻣﺜﺎل ‪ .1‬در ﺳﻴﺴﺘﻢ زﻳﺮ ﺧﻄﺎي ﺳﻨﺴﻮر وﺟﻮد دارد‪ .‬راﺑﻄﻪ ﺑﺎﻗﻴﻤﺎﻧﺪه ﭼﮕﻮﻧﻪ اﺳﺖ‬
‫ﺑﺎ ﺧﻄﺎي ﺳﻨﺴﻮر ﺧﺮوﺟﻲ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫در ﻧﺘﻴﺠﻪ ﺧﻄﺎي روﻳﺘﮕﺮ و ﺑﺎﻗﻴﻤﺎﻧﺪه ﺑﻪ ﻗﺮار زﻳﺮ ﺧﻮاﻫﻨﺪ ﺷﺪ‪.‬‬

‫‪ ‬در اﻳﻦ روش ﻓﻘﻂ ﺗﺨﻤﻴﻦ ﺧﺮوﺟﻲ ﻧﻴﺎز اﺳﺖ ﻛﻪ ﺑﺎ ﻓﻴﻠﺘﺮ اﻧﺠﺎم ﻣﻲ ﺷﻮد‪.‬‬
‫‪ ‬ﻣﻘﺎوم ﺑﻮدن ﻛﻤﺎﻛﺎن ﻳﻚ ﻣﺴﺌﻠﻪ ﻣﻬﻢ اﺳﺖ‬
‫ﺳﻴﺴﺘﻢ ﻏﻴﺮ ﺧﻄﻲ‬
‫در راﺑﻄﻪ ﺑﺎ ﺳﻴﺴﺘﻤﻬﺎي ﻏﻴﺮ ﺧﻄﻲ ‪ fault affine‬روش زﻳﺮ را در ﭘﻴﺶ ﻣﻲ ﺗﻮان ﮔﺮﻓـﺖ ﻛـﻪ ﺳﻴﺴـﺘﻢ ﺑﺼـﻮرت زﻳـﺮ‬
‫ﻧﻮﺷﺘﻪ ﺷﻮد‬

‫روﻳﺘﮕﺮ ﻏﻴﺮ ﺧﻄﻲ را ﺑﺼﻮرت زﻳﺮ ﻣﻲ ﺗﻮان ﻧﻮﺷﺖ‬

‫ﻛﻪ ﺷﺮاﻳﻂ ﻣﺎﺗﺮﻳﺴﻬﺎ ﺑﻪ ﻗﺮار زﻳﺮ اﺳﺖ‬

‫ﺗﺎ ﻣﻨﺠﺮ ﺑﻪ راﺑﻄﻪ ﻣﺴﺘﻘﻞ از ‪ d‬ﺑﺮاي ‪ e‬ﺷﻮد‪.‬‬

‫‪8-15‬‬
‫ﻋﻴﺐ ﻳﺎﺑﻲ‬
‫‪ ‬ﻃﺮﺣﻬﺎي دﻳﮕﺮي ﺑﺮاي ﻃﺮاﺣﻲ ﻋﻴﺐ ﻳﺎب روﻳﺘﮕﺮي ﺑﺮاي ﻛﻼﺳﻬﺎﻳﻲ از ﺳﻴﺴﺘﻤﻬﺎي ﻏﻴـﺮ ﺧﻄـﻲ ﺻـﻮرت ﮔﺮﻓﺘـﻪ‬
‫اﺳﺖ‪.‬‬
‫ﺧﻼﺻﻪ‬
‫‪ ‬ﻫﺪف اﻳﻦ اﺳﺖ ﻛﻪ ﺑﺎﻗﻴﻤﺎﻧﺪه ﺗﻔﻜﻴﻚ ﻗﺎﺑﻞ ﻗﺒﻮﻟﻲ ﺑﻴﻦ ﺧﻄﺎي ﻣﻮرد ﻧﻈﺮ و دﻳﮕﺮ ﻋﻮاﻣﻞ داﺷﺘﻪ ﺑﺎﺷﺪ‬
‫‪ ‬در ﺑﺨﺶ ﺗﺼﻤﻴﻢ ﮔﻴﺮي ﻣﻌﻤﻮﻻ از ﻳﻚ ﺗﺮﺷﻠﺪ ﺳﺎده ﺑﺮاي ‪ r‬ﺑﺮاي اﻋﻼم ﻳﺎ ﻋﺪم اﻋﻼم ﺧﻄﺎ اﺳﺘﻔﺎده ﻣﻲ ﺷﻮد‪ .‬ﻃﺒﻘﻪ‬
‫ﻳﻨﺪﻫﺎي آﻣﺎري و ﺷﺒﻜﻪ ﻋﺼﺒﻲ ﻧﻴﺰ ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار ﮔﺮﻓﺘﻪ اﺳﺖ‪.‬‬
‫‪ ‬ﺗﻜﻨﻴﻚ در ارزﻳﺎﺑﻲ ‪ r‬در راﺑﻄﻪ ﺑﺎ ﺳﺮﻋﺖ و ﻗﺎﺑﻠﻴﺖ اﻃﻤﻴﻨﺎن اﺳﺖ‬

‫‪ 3-15‬روش رواﺑﻂ ﺗﻄﺒﻴﻖ ‪Parity relations‬‬


‫اﺳﺎس روش اﻳﻦ اﺳﺖ ﻛﻪ ﻳﻚ ﺳﻴﺴﺘﻢ واﻗﻌﻲ وﺟﻮد دارد ﻛﻪ ﺳﻴﮕﻨﺎﻟﻬﺎي آن اﻧﺪازه ﮔﻴﺮي ﻣـﻲ ﺷـﻮد ﻫﻤﺰﻣـﺎن ﻣـﺪل‬
‫ﺳﺎﻟﻤﻲ از ﺳﻴﺴﺘﻢ ﻣﻮﺟﻮد اﺳﺖ ﻛﻪ رﻓﺘﺎر ﺳﻴﺴﺘﻢ را ﺑﺮ اﺳﺎس ورودي ﺷﺒﻴﻪ ﺳـﺎزي ﻣـﻲ ﻛﻨـﺪ‪ ،‬روش ‪ parity‬ﺗﻄﺒﻴـﻖ‬
‫ﺑﻴﻦ رﻓﺘﺎر دو ﺳﻴﺴﺘﻢ را ﭼﻚ ﻣﻲ ﻛﻨﺪ ﻛﻪ در ﺣﺎﻟﺖ ﻣﺎﻧﺪﮔﺎر ﻧﺮﻣﺎل ﺻﻔﺮ اﺳﺖ‪..‬‬
‫اﻣﺎ در ﺣﺎﻟﺖ واﻗﻌﻲ ﺑﻪ دﻟﻴﻞ ﻧﻮﻳﺰ ﻓﺮاﻳﻨﺪ و اﻧﺪازه ﮔﻴﺮي‪ ،‬ﻋﺪم ﻗﻄﻌﻴﺖ در ﻣـﺪل‪ ،‬ﺧﻄﺎﻫـﺎي ﺳﻨﺴـﻮرﻫﺎ و ﻣﺤﺮﻛـﻪ و در‬
‫ﻧﻬﺎﻳﺖ ﺧﻄﺎ در ﻋﻤﻠﻜﺮد ﻏﻴﺮ ﺻﻔﺮ اﺳﺖ‪.‬‬
‫‪ ‬از اﻳﻨﺮو ﺑﻪ رواﺑﻄﻲ ﺑﺮاي ‪ parity‬ﻧﻴﺎز اﺳﺖ ﻛﻪ ﻓﻘﻂ ﻣﻨﻌﻜﺲ ﻛﻨﻨﺪه ﺧﻄﺎ ﺑﺎﺷﺪ‪ .‬ﺗﺤﺖ ﺷﺮاﻳﻂ روﺷـﻬﺎي ﻣﺘﻌـﺪدي‬
‫اراﺋﻪ ﺷﺪه اﺳﺖ‬
‫‪ ‬اﮔﺮ ‪ n‬ﺗﻌﺪاد اﻧﺪازه ﮔﻴﺮﻫﺎ و ‪ m‬ﺑﻌﺪ ﻣﺘﻐﻴﺮﻫﺎي ﺣﺎﻟﺖ ﺑﺎﺷﺪ ﺑﺎ ‪ n>m‬اﻓﺰوﻧﮕﻲ اﻧﺪازه ﮔﻴﺮي وﺟﻮد دارد‪.‬‬
‫ﺧﻄﺎي اﻧﺪازه ﮔﻴﺮ‬
‫در ﻧﺘﻴﺠﻪ ﺧﻄﺎ دارﻳﻢ‬

‫ﺑﺎ در ﻧﻈﺮ ﮔﺮﻓﺘﻦ ﻣﺎﺗﺮﻳﺲ ‪ V‬راﺑﻄﻪ ‪ parity‬ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‪.‬‬

‫ﺑﺎ در ﻧﻈﺮ ﮔﺮﻓﺘﻦ ‪ V‬ﻛﻪ ‪ VC=0‬ﺷﻮد ﺧﻮاﻫﻴﻢ داﺷﺖ‬

‫‪9-15‬‬
‫ﻋﻴﺐ ﻳﺎﺑﻲ‬
‫دﻳﺪه ﻣﻲ ﺷﻮد ﻛﻪ ﺳﺘﻮن ‪ ith‬ﻣﺎﺗﺮﻳﺲ ‪ V‬ﻣﻨﻌﻜﺲ ﻛﻨﻨﺪه وﺿﻌﻴﺖ ﺳﻨﺴﻮر ‪ ith‬در ﺑﺮدار ‪ p‬اﺳﺖ‪.‬‬
‫ﺧﻄﺎي ﻓﺮاﻳﻨﺪ و اﻧﺪازه ﮔﻴﺮ‬
‫در ﺳﻴﺴﺘﻢ‬

‫ﺑﺎ ﻟﺤﺎظ ﻛﺮدن اﻓﺰوﻧﮕﻲ زﻣﺎﻧﻲ ‪ y(t-k), k=0,…n‬رواﺑﻂ زﻳﺮ ﺑﺪﺳﺖ ﻣﻲ آﻳﺪ‬

‫رواﺑﻂ ﺑﺼﻮرت ﻣﺎﺗﺮﻳﺴﻲ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫ﻣﻨﺠﺮ ﺑﻪ‬ ‫ﺑﺎ ﺿﺮب در‬

‫ﺑﺎﻗﻴﻤﺎﻧﺪه ﺑﺎﻳﺪ ﺑﻪ ﻧﺤﻮي ﻃﺮاﺣﻲ ﮔﺮدد ﻛﻪ ‪ fault selective‬ﺑﺎﺷﺪ در اﻳﻦ راﺑﻄﻪ دو اﺳﺘﺮاﺗﮋي ﻣﻮرد ﺗﻮﺟﻪ ﻗﺮار ﮔﺮﻓﺘـﻪ‬
‫اﺳﺖ‬

‫‪Optimization-Based Approach 4-15‬‬


‫در اﻳﻦ روﺷﻬﺎ ﺧﻄﺎ ﻓﺮﻣﻮل ﺑﻨﺪي ﻣﻲ ﺷﻮد و ﺗﺨﻤﻴﻨﮕﺮ ﺑﻬﻴﻨﻪ ﺧﻄﺎ را ﻋﻠﻴﺮﻏﻢ وﺟﻮد ﻧﻮﻳﺰ ﺗﺨﻤﻴﻦ ﻣﻴﺰﻧﺪ‬

‫‪Kalman filters 5-15‬‬


‫ﻓﻴﻠﺘﺮ ﻛﺎﻟﻤﻦ ﺗﺨﻤﻴﻦ ﻣﺘﻐﻴﺮ ﺣﺎﻟﺖ ﺳﻴﺴﺘﻢ ﺗﺤﺖ ﺷﺮاﻳﻂ ﻣﻔﺮوض زﻳﺮ را ﻣﻲ دﻫﺪ‪).‬رواﺑﻂ ﺑـﺮاي ﺗـﻚ ﺧﺮوﺟـﻲ ﻧﻮﺷـﺘﻪ‬
‫ﺷﺪه اﻧﺪ(‬

‫ﺗﺨﻤﻴﻦ ‪ x‬اﻳﻨﮕﻮﻧﻪ ﻓﺮﻣﻮﻟﻪ ﻣﻲ ﺷﻮد‬

‫‪10-15‬‬
‫ﻋﻴﺐ ﻳﺎﺑﻲ‬

‫ﺗﺤﺖ ﺷﺮاﻳﻂ ﻣﺴﺌﻠﻪ ﺳﻴﮕﻨﺎل‬

‫ﺳﻔﻴﺪ اﺳﺖ‪ .‬در ﺻﻮرت وﺟﻮد ﺧﻄﺎ ﻛﻪ اﺛﺮ آن روي ﺧﺮوﺟﻲ ‪ yi‬ﻧﺸﺎن دﻫﺪ ‪ ei‬دﺳﺘﺨﻮش ﺗﻐﻴﻴﺮ ﻣﻲ ﺷﻮد‬

‫‪Parameter estimation‬‬ ‫‪1-5-15‬‬


‫ﺑﺎ وﻗﻮع ﺧﻄﺎ ﭘﺎراﻣﺘﺮ ﻳﺎ ﭘﺎراﻣﺘﺮﻫﺎﻳﻲ از ﺳﻴﺴﺘﻢ از ﻣﻘﺪار ﻧﺎﻣﻲ ﺧﻮد ﻣﻨﺤﺮف ﻣﻲ ﺷـﻮﻧﺪ‪ .‬ﺑـﺎ روﺷـﻬﺎي ﺗﺨﻤـﻴﻦ ﭘـﺎراﻣﺘﺮ‬
‫ﺳﻴﺴﺘﻢ ﻣﻲ ﺗﻮان اﻧﺤﺮاف ﭘﺎراﻣﺘﺮ را رﺻﺪ ﻛﺮد‪ .‬در ذﻳﻞ دو ﻃﺮح اراﺋﻪ ﺷﺪه اﺳﺖ‬

‫اﻳﻦ روش داراي ﭘﻴﭽﻴﺪﮔﻴﻬﺎي ﻣﺤﺎﺳﺒﺎﺗﻲ اﺳﺖ و ﺧﺼﻮﺻﺎ ﺑﺮاي ﺧﻄﺎﻫﺎي ﺿﺮب ﺷﻮﻧﺪه ﻣﻨﺎﺳﺐ اﺳﺖ‪ .‬اﮔﺮ ﻣﺪل ﭘـﻴﺶ‬
‫ﺑﻴﻨﻲ واﻗﻌﻲ ﺑﺎﺷﺪ‪ e‬ﺳﻔﻴﺪ اﺳﺖ‪ .‬ﺗﻐﻴﻴﺮ ﻣﺎﻫﻴﺖ ‪ e‬ﻧﻴﺰ ﻧﺸﺎن دﻫﻨﺪه ﺧﻄﺎﺳﺖ‬
‫‪Further discussion on quantitative model-based‬‬

‫‪11-15‬‬
‫ﻋﻴﺐ ﻳﺎﺑﻲ‬
‫‪ ‬ﭘﻴﭽﻴﺪﮔﻲ‪ ،‬وﺟﻮد ﻋﻮاﻣﻞ ﻏﻴﺮﺧﻄﻲ در ﺳﻴﺴﺘﻤﻬﺎ ﻛﻪ ﻣﺪﻟﺴﺎزي دﻗﻴﻖ را ﻣﺸﻜﻞ ﻣﻲ ﻛﻨﺪ اﺳـﺘﻔﺎده ﻋﻤﻠـﻲ روش را‬
‫ﻣﺤﺪود ﻛﺮده اﺳﺖ‬
‫‪ ‬ﺗﻀﻤﻴﻨﻲ وﺟﻮد ﻧﺪارد ﻛﻪ ﺧﻄﺎﻫﺎي ﺗﻌﺮﻳﻒ ﻧﺸﺪه ﻗﺎﺑﻞ ﺗﺸﺨﻴﺺ ﺑﺎﺷﻨﺪ‪.‬‬

‫‪12-15‬‬

You might also like