Download as pdf or txt
Download as pdf or txt
You are on page 1of 58

‫ﻓﺼﻞ ‪ :5‬دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‬

‫‪Chapter 5‬‬

‫‪ .5‬اﻣﯿﺪ رﯾﺎﺿﯽ و ﻫﻤﺒﺴﺘﮕﯽ‬ ‫‪ pmf .1‬ﻣﺸﺘﺮک‬

‫‪ .6‬ﮔﺸﺘﺎور ﻣﺸﺘﺮک‬ ‫‪ CDF .2‬ﻣﺸﺘﺮک‬

‫‪ .7‬ﺗﻮاﺑﻌﯽ از دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‬ ‫‪ pdf .3‬ﻣﺸﺘﺮک‬

‫‪ .8‬ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ ﻣﺸﺘﺮﮐﺎً ﻧﺮﻣﺎل‬ ‫‪ .4‬اﺳﺘﻘﻼل دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‬


‫دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‪:‬‬
‫ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ x‬ﺗﺎﺑﻌﯽ ﺑﻮد ﮐﻪ ﺑﻪ ﻧﻘﺎط ‪ xi ، ωi‬ﻫﺎ را ﻧﺴﺒﺖ ﻣﯽداد‪:‬‬
‫) ‪x1 = x(ω1 ), x 2 = x( ω2 ),… , xN = x(ωN‬‬
‫ﺑﻪ ﻫﻤﯿﻦ ﺗﺮﺗﯿﺐ اﮔﺮ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ دﯾﮕﺮی ﻣﺎﻧﻨﺪ ‪ y‬را روی ﻫﻤﯿﻦ ﻓﻀﺎی ﻧﻤﻮﻧﻪ در ﻧﻈﺮ ﺑﮕﯿﺮﯾﻢ‪ ،‬ﺑﻪ ﻧﻘﺎط ‪ ، ωi‬اﻋﺪاد دﯾﮕﺮی ) ‪ y i‬ﻫﺎ( را‬
‫ﻧﺴﺒﺖ ﻣﯽدﻫﺪ‪:‬‬
‫) ‪y 1 = y(ω1 ), y 2 = y(ω2 ),… , y N = y(ωN‬‬
‫در راﺑﻄﻪ ﺑﺎ ‪ x‬ﺑﻪ دﻧﺒﺎل اﺣﺘﻤﺎل واﻗﻌﻪﻫﺎﯾﯽ ﻣﺜﻞ } ‪ { x = x1‬ﯾﺎ } ‪ { x ≤ x0‬و اﻣﺜﺎﻟﻬﻢ ﺑﻮدﯾﻢ و در ﻣﻮرد ‪ y‬ﻧﯿﺰ ﺑﻪ ﻫﻤﯿﻦ ﺗﺮﺗﯿﺐ‪.‬‬

‫‪y‬‬ ‫ﺣﺎل ﻣﯽﺗﻮان ﺑﺎ در ﻧﻈﺮ ﮔﺮﻓﺘﻦ زوج ﻣﺮﺗﺐﻫﺎی ) ‪ ، (xi , y i‬اﺣﺘﻤﺎل واﻗﻌﻪﻫﺎﯾﯽ ﻣﺜﻞ } ‪ { x = x1 , y = y 1‬ﯾﺎ‬
‫} ‪ { x ≤ x0 , y ≤ y 0‬و ﺑﻪ ﻃﻮر ﮐﻠﯽ ‪) {( x , y )} ∈ D‬ﯾﻌﻨﯽ ‪ ( { ω : ( x(ω), y(ω))} ∈ D‬را ﻣﻄﺮح ﮐﺮد‪.‬‬
‫‪D‬‬

‫‪x‬‬

‫در ﺣﺎﻟﺖ ﮐﻠﯽ ﺑﺎ ﺻﺮف داﺷﺘﻦ ﺗﻮزﯾﻊ ‪ x‬و ﺗﻮزﯾﻊ ‪ ،y‬اﺣﺘﻤﺎل اﯾﻦ واﻗﻌﻪﻫﺎ )دو ﺑﻌﺪی( ﻣﺸﺨﺺ ﻧﻤﯽﺷﻮد )ﻣﮕﺮ آﻧﮑﻪ ‪ x‬و ‪ y‬ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ‬
‫ﮐﻪ ﺑﻌﺪاً ﺧﻮاﻫﯿﻢ دﯾﺪ( و ﺑﺮای ﻣﺸﺨﺺ ﮐﺮدن اﺣﺘﻤﺎل اﯾﻦ واﻗﻌﻪﻫﺎ ﺑﻪ اﺑﺰارﻫﺎی ﺟﺪﯾﺪی ﻧﯿﺎز دارﯾﻢ‪.‬‬
‫‪1‬‬
‫ﺗﺎﺑﻊ اﺣﺘﻤﺎل ﻣﺸﺘﺮک )‪:(Joint Probability Function or Joint pmf‬‬
‫اﮔﺮ ‪ x‬و ‪ y‬ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ﺑﺎﺷﻨﺪ‪ ،‬آﻧﮕﺎه‪:‬‬

‫}‪Pxy (x, y) = P{ x = x, y = y‬‬

‫اﮔﺮ ﻣﻘﺎدﯾﺮ ﻣﻤﮑﻨﻪ ﺑﺮای ‪ x 3 ، x 2 ، x1 ،x‬و ‪ ...‬و ﺑﺮای ‪ y 3 ، y 2 ، y 1 ،y‬و ‪ ...‬ﺑﺎﺷﻨﺪ‪ ،‬دارﯾﻢ‪:‬‬
‫‪pij‬‬ ‫‪x = xi , y = yi‬‬
‫‪Pxy (x, y) = ‬‬
‫‪0‬‬ ‫‪otherwise‬‬

‫ﭘﺲ ﺧﻮاﻫﯿﻢ داﺷﺖ‪:‬‬

‫‪∑∑ P‬‬
‫‪i‬‬ ‫‪j‬‬
‫= ) ‪xy (x i , y j‬‬ ‫‪∑∑ p‬‬
‫‪i‬‬ ‫‪j‬‬
‫‪ij‬‬ ‫‪=1‬‬

‫‪2‬‬
‫از ﻃﺮف دﯾﮕﺮ ﭼﻮن ﻣﯽداﻧﯿﻢ ﮐﻪ‪:‬‬
‫= } ‪{ x = xi‬‬ ‫} ‪∪ { x = xi , y = y j‬‬
‫‪j‬‬

‫ﭘﺲ‪:‬‬
‫= } ‪P{ x = xi‬‬ ‫} ‪∑j P{x = xi , y = y j‬‬

‫در ﻧﺘﯿﺠﻪ ﺗﻮاﺑﻊ اﺣﺘﻤﺎل ﺣﺎﺷﯿﻪای )‪ (Marginal pmf‬زﯾﺮ را دارﯾﻢ‪:‬‬


‫= ) ‪Px (xi‬‬
‫‪‬‬
‫) ‪∑j Pxy (xi , y j‬‬ ‫‪ pmf‬ﺣﺎﺷﯿﻪای ‪: x‬‬
‫‪‬‬
‫= ) ‪Py (y j‬‬
‫‪‬‬
‫) ‪∑i Pxy (xi , y j‬‬ ‫‪ pmf‬ﺣﺎﺷﯿﻪای ‪: y‬‬

‫‪2‬‬
‫دارﯾﻢ‪:‬‬ ‫و ﺑﺮای ﻫﺮ زﯾﺮ ﻣﺠﻤﻮﻋﮥ ‪ D‬از‬
‫= }‪P{( x, y ) ∈ D‬‬ ‫∑‬
‫‪(xi ,y j )∈D‬‬
‫) ‪P(xi , y j‬‬

‫‪3‬‬
‫ﻣﺜﺎل‪ :‬ﺗﺎﺳﯽ را ﻣﯽاﻧﺪازﯾﻢ و ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ ‪ x‬و ‪ y‬را ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽﮐﻨﯿﻢ‪:‬‬
‫‪0 i < 4‬‬ ‫‪i‬‬ ‫‪ i‬زوج‬
‫‪x(fi ) = ‬‬ ‫و‬ ‫‪y(fi ) = ‬‬
‫‪1 i ≥ 4‬‬ ‫‪0‬‬ ‫‪ i‬ﻓﺮد‬
‫‪ x‬ﻣﯽﺗﻮاﻧﺪ دو ﻣﻘﺪار ‪ 0‬و ‪ 1‬را داﺷﺘﻪ ﺑﺎﺷﺪ‪ y .‬ﻧﯿﺰ ﻣﯽﺗﻮاﻧﺪ ﭼﻬﺎر ﻣﻘﺪار ‪ 4 ،2 ،0‬و ‪ 6‬را اﺧﺘﯿﺎر ﮐﻨﺪ‪ .‬ﭘﺲ‪:‬‬
‫)‪P(x, y‬‬
‫)‪1 → (0,0‬‬ ‫)‪4 → (1, 4‬‬
‫‪2‬‬
‫)‪2 → (0, 2‬‬ ‫)‪5 → (1,0‬‬
‫‪6‬‬
‫‪1‬‬
‫)‪3 → (0,0‬‬ ‫)‪6 → (1,6‬‬
‫‪6‬‬
‫‪1‬‬ ‫‪1‬‬ ‫)از ‪8‬ﺗﺎ ‪5 ، pij‬ﺗﺎ ﻏﯿﺮ ﺻﻔﺮ ﻫﺴﺘﻨﺪ‪(.‬‬
‫‪1‬‬ ‫‪6‬‬ ‫‪6‬‬
‫‪6‬‬ ‫‪0‬‬ ‫‪2‬‬ ‫‪4‬‬ ‫‪6 y‬‬
‫‪1‬‬
‫‪x‬‬
‫ﺗﻮاﺑﻊ اﺣﺘﻤﺎل ‪ x‬و ‪ y‬ﺑﻪ ﺻﻮرت زﯾﺮ ﻫﺴﺘﻨﺪ‪:‬‬
‫‪3‬‬
‫‪6‬‬
‫‪3‬‬
‫‪6‬‬
‫‪3‬‬
‫‪6‬‬
‫)‪Py ( y‬‬
‫)‪Px ( x‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪1‬‬
‫‪6‬‬ ‫‪6‬‬ ‫‪6‬‬

‫‪x‬‬ ‫‪y‬‬
‫‪0 1‬‬ ‫‪0‬‬ ‫‪2‬‬ ‫‪4‬‬ ‫‪6‬‬

‫‪4‬‬
‫در ﺣﺎﻟﺖ ﭘﯿﻮﺳﺘﻪ‪ P{ x = xi , y = y j } ،‬ﺻﻔﺮ اﺳﺖ و ﻟﺬا ﺗﺎﺑﻊ اﺣﺘﻤﺎل‪ ،‬ﻣﺸﺨﺺﮐﻨﻨﺪۀ اﺣﺘﻤﺎل واﻗﻌﻪﻫﺎ ﻧﯿﺴﺖ‪.‬‬
‫ﻟﺬا ‪ CDF‬ﻣﺸﺘﺮک و ‪ pdf‬ﻣﺸﺘﺮک را ﻣﻌﺮﻓﯽ ﻣﯽﮐﻨﯿﻢ‪.‬‬

‫ﺗﺎﺑﻊ ﺗﻮزﯾﻊ اﻧﺒﺎﺷﺘﮥ ﻣﺸﺘﺮک )‪:(Joint CDF‬‬


‫‪y‬‬
‫ﻃﺒﻖ ﺗﻌﺮﯾﻒ‪:‬‬
‫}‪Fxy (x, y) = P{ x ≤ x, y ≤ y‬‬

‫‪x‬‬ ‫ﯾﻌﻨﯽ ﻧﺎﺣﯿﮥ ‪ D‬ﻣﻄﺎﺑﻖ ﺷﮑﻞ ﻣﻘﺎﺑﻞ اﺳﺖ‪:‬‬

‫در ﺣﺎﻟﺖ ﮔﺴﺴﺘﻪ‪:‬‬


‫= )‪Fxy (x, y‬‬ ‫∑‬ ‫∑‬ ‫‪P‬‬ ‫) ‪xy (x i , y j‬‬
‫≤‪i‬‬ ‫≤‪j‬‬
‫‪x x y y‬‬

‫ﻣﺜﻼً در ﻣﺜﺎل ﻗﺒﻞ دارﯾﻢ‪:‬‬


‫‪2 1 3‬‬
‫= )‪Fxy (0.2, 2) = P(0,0) + P(0, 2‬‬ ‫= ‪+‬‬
‫‪6 6 6‬‬

‫‪5‬‬
:‫ ﻣﺸﺘﺮک‬CDF ‫ﺑﺮﺧﯽ ﺧﻮاص‬
1) Fxy ( −∞ , −∞ ) = 0 , Fxy ( −∞ , y) = 0 , Fxy (x, −∞ ) = 0 , Fxy ( +∞ , +∞ ) = 1

Fxy (x, +∞ ) = P{ x ≤ x} = Fx (x) 


2)   : (Marginal CDF) ‫ ﺣﺎﺷﯿﻪای‬CDF ‫ﺗﻮاﺑﻊ‬
Fxy ( +∞ , y) = P{ y ≤ y} = Fy (y)

:‫ دارﯾﻢ‬y 1 < y 2 ‫ﭘﺲ ﺑﺮای‬


P{ x ≤ x, y 1 < y ≤ y 2 } = Fxy (x, y 2 ) − Fxy (x, y 1 )
⇒ Fxy (x, y 2 ) − Fxy (x, y 1 ) ≥ 0 : ∀x, y 1 < y 2
:‫ ﻧﯿﺰ دارﯾﻢ‬x1 < x 2 ‫و ﺑﺮای‬
P{x1 < x ≤ x 2 , y ≤ y} = Fxy (x 2 , y) − Fxy (x1 , y)
⇒ Fxy (x 2 , y) − Fxy (x1 , y) ≥ 0 : ∀y, x1 < x 2

6
‫و ﺳﺮاﻧﺠﺎم ﺧﻮاﻫﯿﻢ داﺷﺖ‪:‬‬
‫} ‪P{x1 < x ≤ x 2 , y 1 < y ≤ y 2‬‬ ‫‪y2‬‬
‫} ‪= P{x1 < x ≤ x 2 , y ≤ y 2 } − P{x1 < x ≤ x 2 , y ≤ y 1‬‬
‫)} ‪= (P{ x ≤ x 2 , y ≤ y 2 } − P{ x ≤ x1 , y ≤ y 2 }) − (P{ x ≤ x 2 , y ≤ y 1 } − P{ x ≤ x1 , y ≤ y 1‬‬ ‫‪y1‬‬
‫) ‪= Fxy (x 2 , y 2 ) − Fxy (x1 , y 2 ) − Fxy (x 2 , y 1 ) + Fxy (x1 , y 1‬‬ ‫‪x1‬‬ ‫‪x2‬‬

‫ﭘﺲ از ﺟﻤﻠﻪ ﺧﻮاص ﺗﺎﺑﻊ ‪ F‬اﯾﻦ اﺳﺖ ﮐﻪ ﻣﺠﻤﻮع ﻓﻮق ﺑﺮای ﻫﺮ ‪ y 1 ، x 2 ، x1‬و ‪ y 2‬ﮐﻪ ‪ x 2 > x1‬و ‪ ، y 2 > y 1‬ﻧﺎﻣﻨﻔﯽ اﺳﺖ‪.‬‬
‫ﯾﻌﻨﯽ اﮔﺮ ‪ x1 < x 2‬و ‪ ، y 1 < y 2‬دارﯾﻢ‪:‬‬
‫‪Fxy (x 2 , y 2 ) − Fxy (x1 , y 2 ) − Fxy (x 2 , y 1 ) + Fxy (x1 , y 1 ) ≥ 0‬‬

‫ﺗﻮﺟﻪ ﮐﻨﯿﺪ ﮐﻪ اﮔﺮ ‪ x‬و ‪ y‬ﭘﯿﻮﺳﺘﻪ ﺑﺎﺷﻨﺪ‪ ،‬آﻧﮕﺎه‪ . P{ x = x, y = y} = 0 :‬ﯾﻌﻨﯽ ﯾﮏ ﻧﻘﻄﮥ ﺗﻨﻬﺎ اﺣﺘﻤﺎﻟﯽ ﻧﺪارد‪ .‬ﻫﻤﭽﻨﯿﻦ دارﯾﻢ‪:‬‬
‫‪ . P{ x = x} = 0‬ﯾﻌﻨﯽ ﯾﮏ ﺧﻂ ﻫﻢ اﺣﺘﻤﺎﻟﯽ ﻧﺪارد و ﺣﺘﻤﺎً ﺑﺎﯾﺪ ﻧﺎﺣﯿﮥ ‪ D‬ﺳﻄﺤﯽ ﻏﯿﺮﺻﻔﺮ ﺑﺎﺷﺪ‪.‬‬

‫‪7‬‬
‫ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﻣﺸﺘﺮک )‪:(Joint pdf‬‬
‫ﻃﺒﻖ ﺗﻌﺮﯾﻒ‪:‬‬
‫)‪∂ 2 Fxy (x, y‬‬
‫= )‪fxy (x, y‬‬
‫‪∂x∂y‬‬

‫از ﺗﻌﺮﯾﻒ ﻣﯽﺗﻮان ﻧﺸﺎن داد ﮐﻪ‪:‬‬


‫}‪fxy (x, y)dxdy = P{x < x ≤ x + dx, y < y ≤ y + dy‬‬
‫ﻟﺬا‪:‬‬
‫= }‪P{( x , y ) ∈ D‬‬ ‫‪∫∫D fxy (x, y)dxdy‬‬
‫ﯾﻌﻨﯽ ﺣﺠﻢ زﯾﺮ ﺗﺎﺑﻊ )‪ fxy (x, y‬در ﻫﺮ ﻧﺎﺣﯿﻪ‪ ،‬ﺑﯿﺎﻧﮕﺮ اﺣﺘﻤﺎل آن ﻧﺎﺣﯿﻪ اﺳﺖ‪.‬‬

‫اﮔﺮ ‪ D‬را ﻧﺎﺣﯿﮥ ‪ x ≤ x0‬و ‪ y ≤ y 0‬در ﻧﻈﺮ ﺑﮕﯿﺮﯾﻢ و ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﺗﻌﺮﯾﻒ ‪ CDF‬دارﯾﻢ‪:‬‬
‫‪x‬‬ ‫‪y‬‬
‫= )‪Fxy (x, y‬‬ ‫∫ ∫‬
‫∞‪−∞ −‬‬
‫}‪f(u, v)dudv = P{ x ≤ x, y ≤ y‬‬

‫‪8‬‬
‫ﺑﻪ ﻋﻨﻮان ﺣﺎﻟﺖ ﺧﺎص ﻧﯿﺰ ﺧﻮاﻫﯿﻢ داﺷﺖ‪:‬‬
‫∞‪+‬‬ ‫∞‪+‬‬
‫∫ ∫‬
‫∞‪−‬‬ ‫∞‪−‬‬
‫‪f(x, y)dxdy = F( +∞ , +∞ ) = 1‬‬

‫‪d‬‬ ‫‪x‬‬ ‫∞‪+‬‬


‫= )‪ fx (x‬و در ﻧﺘﯿﺠﻪ‪:‬‬
‫‪dx‬‬ ‫∫ ∫‬
‫∞‪−∞ −‬‬
‫ﻣﯽداﻧﯿﻢ ﮐﻪ‪ Fx (x) = Fxy (x, +∞ ) :‬؛ ﻟﺬا‪fxy (u, v)dudv :‬‬
‫∞‪+‬‬
‫= )‪fx (x‬‬ ‫∫‬
‫∞‪−‬‬
‫ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ ﺣﺎﺷﯿﻪای ‪fxy (x, y)dy : x‬‬
‫و ﻣﺸﺎﺑﻬﺎً دارﯾﻢ‪:‬‬
‫∞‪+‬‬
‫= )‪fy (y‬‬ ‫∫‬ ‫∞‪−‬‬
‫ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ ﺣﺎﺷﯿﻪای ‪fxy (x, y)dx : y‬‬

‫‪x x+dx‬‬

‫‪9‬‬
‫‪c (1 − x − y ) 0 < x + y < 1‬‬
‫‪2‬‬ ‫‪2‬‬ ‫‪2‬‬ ‫‪2‬‬
‫‪2‬‬ ‫‪1‬‬ ‫‪2‬‬
‫‪ fxy (x, y) = ‬ﺑﺎﺷﺪ‪ ،‬ﻣﻘﺪار ‪ ،c‬ﺗﺎﺑﻊ )‪ fx (x‬و ﻣﻘﺪار } < ‪ P{x + y‬را‬ ‫ﻣﺜﺎل‪ :‬اﮔﺮ‬
‫‪2‬‬ ‫‪0‬‬
‫‪2‬‬
‫‪x +y >1‬‬‫‪2‬‬

‫ﻣﺤﺎﺳﺒﻪ ﻧﻤﺎﯾﯿﺪ‪.‬‬

‫∞‪+‬‬ ‫∞‪+‬‬
‫∫ ∫‬
‫∞‪−‬‬ ‫∞‪−‬‬
‫‪f(x, y)dxdy = 1‬‬ ‫‪+ 1 − x2‬‬
‫‪2π‬‬ ‫‪1‬‬ ‫‪2‬‬
‫∫∫ ⇒‬ ‫‪c(1 − x 2 − y 2 )dxdy = 1 ⇒ c‬‬ ‫∫ ∫‬ ‫= ‪(1 − r 2 )rdr dθ = 1 ⇒ c‬‬ ‫‪x‬‬
‫روی داﯾﺮۀ واﺣﺪ‬
‫‪0‬‬ ‫‪0‬‬ ‫‪π‬‬

‫‪− 1 − x2‬‬

‫‪10‬‬
 + 1− x 2 3
2 8
fx (x) =∫
+∞ 
fxy (x, y)dy =  ∫ π
(1 − x 2 − y 2 )dy =

(1 − x 2 ) 2 −1 < x < 1
−∞ − 1− x 2

0 x >1

2
1 2 2π 2 3
P{x 2 + y 2 < } =
2 ∫∫ π
(1 − x 2 − y 2 )dxdy = ∫0 ∫0
2
π
(1 − r 2 )rdrdθ =
4
‫روی داﯾﺮه ﺑﻪ‬
2 ‫ﺷﻌﺎع‬
2

11
‫اﮔﺮ ‪ x‬و ‪ y‬ﻫﺮ دو ﮔﺴﺴﺘﻪ ﺑﺎﺷﻨﺪ‪ pdf ،‬ﯾﮏ ﺳﺮی ‪ δ‬ﺧﻮاﻫﺪ ﺑﻮد )‪δ‬ی دوﺑُﻌﺪی( و ﻧﻘﺎط ﺗﻨﻬﺎ اﺣﺘﻤﺎل دارﻧﺪ )ﺟﺮم ﻧﻘﻄﻪای(‪.‬‬

‫دارﯾﻢ‪:‬‬
‫)‪δ(x − a, y − b) = δ(x − a) δ(y − b‬‬ ‫‪z‬‬
‫)‪δ(x−a,y−b‬‬

‫‪0‬‬ ‫‪b y‬‬


‫‪a‬‬
‫‪x‬‬

‫اﮔﺮ ‪ (a, b) ∈ D‬ﺑﺎﺷﺪ‪ ،‬دارﯾﻢ‪:‬‬

‫)‪∫∫ g(x, y) δ(x − a, y − b)dxdy = g(a, b‬‬


‫‪D‬‬
‫از ﺟﻤﻠﻪ اﮔﺮ ‪ g(x, y) = 1‬ﺑﺎﺷﺪ‪ ،‬اﻧﺘﮕﺮال ﻓﻮق ﺑﺮاﺑﺮ ﯾﮏ ﻣﯽﺷﻮد )زﯾﺮا ﺣﺠﻢ زﯾﺮ ‪ δ‬ﯾﮏ اﺳﺖ(‪.‬‬

‫‪12‬‬
‫ﺑﺮای ‪ x‬و ‪ y‬ﮔﺴﺴﺘﻪ )ﺟﺮم ﻧﻘﻄﻪای( دارﯾﻢ‪:‬‬
‫= )‪fxy (x, y‬‬ ‫∑∑‬
‫‪i‬‬ ‫‪j‬‬
‫ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ ‪pij δ(x − xi , y − y j ) :‬‬

‫ﻣﺜﻼً در ﻣﺜﺎل ﺗﺎس ﮐﻪ ﻗﺒﻼً داﺷﺘﯿﻢ‪:‬‬


‫)‪fxy (x, y‬‬

‫‪2‬‬
‫‪6‬‬
‫‪1‬‬
‫‪6‬‬
‫‪1‬‬ ‫‪1‬‬
‫‪1‬‬ ‫‪6‬‬ ‫‪6‬‬
‫‪6‬‬ ‫‪0‬‬ ‫‪2‬‬ ‫‪4‬‬ ‫‪6 y‬‬
‫‪1‬‬
‫‪x‬‬

‫اﮔﺮ از دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‪ ،‬ﯾﮑﯽ ﭘﯿﻮﺳﺘﻪ و دﯾﮕﺮی ﮔﺴﺴﺘﻪ ﺑﺎﺷﺪ‪ ،‬اﺣﺘﻤﺎل ﻓﻘﻂ در ﯾﮏ ﺳﺮی ﺻﻔﺤﺎت ﺧﻮاﻫﯿﻢ داﺷﺖ )ﺟﺮم ﺧﻄﯽ(‪.‬‬

‫‪13‬‬
‫ﻣﺜﻼً اﮔﺮ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ x‬از ﻧﻮع ﮔﺴﺴﺘﻪ ﺑﻮده و دارای ﺗﻮزﯾﻊ زﯾﺮ ﺑﺎﺷﺪ‪:‬‬
‫‪1‬‬
‫= }‪P{ x = 0} = P{ x = 1‬‬
‫‪2‬‬
‫وﻟﯽ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ y‬از ﻧﻮع ﭘﯿﻮﺳﺘﻪ و دارای ﺗﻮزﯾﻊ ﻧﺮﻣﺎل زﯾﺮ ﺑﺎﺷﺪ‪:‬‬
‫‪y2‬‬
‫‪1‬‬ ‫‪−‬‬
‫= )‪fy (y‬‬ ‫‪e‬‬ ‫‪2‬‬
‫‪2π‬‬
‫ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ ﻣﺸﺘﺮک آﻧﻬﺎ ﺑﺮاﺑﺮ ﺧﻮاﻫﺪ ﺑﻮد ﺑﺎ‪:‬‬
‫‪1‬‬ ‫‪y2‬‬
‫‪1‬‬ ‫‪1‬‬ ‫‪−‬‬
‫= )‪fxy (x, y‬‬ ‫∑‬
‫‪i =0‬‬ ‫‪2‬‬
‫)‪δ(x − i‬‬
‫‪2π‬‬
‫‪e‬‬ ‫‪2‬‬

‫‪0.5‬‬
‫‪z‬‬

‫‪0.4‬‬
‫‪0.3‬‬
‫‪0.2‬‬
‫‪0.1‬‬
‫‪y‬‬
‫‪3‬‬
‫‪2‬‬
‫‪x‬‬
‫‪1‬‬ ‫‪3‬‬
‫‪0‬‬ ‫‪2‬‬
‫‪-1‬‬ ‫‪1‬‬
‫‪0‬‬
‫‪-2‬‬ ‫‪-1‬‬
‫‪-3 -2‬‬

‫‪14‬‬
‫ﻣﻤﮑﻦ اﺳﺖ ‪ x‬و ‪ y‬ﻫﺮ دو ﭘﯿﻮﺳﺘﻪ ﺑﺎﺷﻨﺪ‪ ،‬وﻟﯽ ﺟﺮم ﺧﻄﯽ داﺷﺘﻪ ﺑﺎﺷﯿﻢ‪.‬‬

‫اﮔﺮ ) ‪ y = g( x‬ﺑﺎﺷﺪ‪ ،‬ﮐﻠﯿﮥ ﻧﻘﺎط ﺑﻪ ﻏﯿﺮ از ))‪ (x,g(x‬اﺣﺘﻤﺎل ﺻﻔﺮ دارﻧﺪ‪ ،‬ﯾﻌﻨﯽ‪:‬‬
‫))‪fxy (x, y) = fx (x) δ(y − g(x‬‬ ‫)‪fx (x) = g(x‬‬ ‫)‪y = sin(x‬‬
‫‪z‬‬
‫‪0.4‬‬
‫‪0.35‬‬
‫‪0.3‬‬
‫‪0.25‬‬
‫‪0.2‬‬
‫‪0.15‬‬
‫‪0.1‬‬
‫‪0.05‬‬
‫‪y‬‬
‫‪-2‬‬
‫‪-1‬‬ ‫‪x‬‬
‫‪0‬‬ ‫‪-2‬‬ ‫‪-3‬‬
‫‪-1‬‬
‫‪1‬‬ ‫‪1‬‬ ‫‪0‬‬
‫‪2 3‬‬ ‫‪2‬‬

‫ﮐﻼً اﮔﺮ زوج )‪ (x, y‬ﻫﺎی ﻣﻤﮑﻨﻪ روی ﯾﮏ ﻣﻨﺤﻨﯽ در ﺻﻔﺤﮥ ‪ xy‬ﻗﺮار داﺷﺘﻪ ﺑﺎﺷﻨﺪ‪ ،‬اﯾﻦ ﺣﺎﻟﺖ ﭘﯿﺶ ﻣﯽآﯾﺪ‪.‬‬

‫‪15‬‬
‫ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ ﻣﺴﺘﻘﻞ‪:‬‬
‫دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ x‬و ‪ y‬را ﻣﺴﺘﻘﻞ ﮔﻮﯾﻨﺪ‪ ،‬ﻫﺮﮔﺎه ﺑﺮای ﻫﺮ ‪ x‬و ‪ ،y‬واﻗﻌﻪﻫﺎی }‪ { x ≤ x‬و }‪ { y ≤ y‬ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ‪ ،‬ﯾﻌﻨﯽ‪:‬‬
‫}‪P{ x ≤ x, y ≤ y} = P{ x ≤ x}P{ y ≤ y‬‬
‫ﯾﺎ ﺑﻪ ﻋﺒﺎرت دﯾﮕﺮ‪:‬‬
‫)‪Fxy (x, y) = Fx (x)Fy (y‬‬

‫‪∂2‬‬
‫ﺑﮕﯿﺮﯾﻢ(‪:‬‬ ‫ﯾﺎ ﻣﻌﺎدﻻً )اﮔﺮ از دو ﻃﺮف‬
‫‪∂x∂y‬‬
‫)‪fxy (x, y) = fx (x)fy (y‬‬

‫در ﺣﺎﻟﺖ ﮔﺴﺴﺘﻪ ﻧﯿﺰ دارﯾﻢ‪:‬‬


‫} ‪P{ x = xi , y = y j } = P{ x = xi } P{ y = y j‬‬
‫↓‬ ‫↓‬ ‫↓‬
‫) ‪Pxy (xi ,y j‬‬ ‫) ‪Px (xi‬‬ ‫) ‪Py (y j‬‬

‫)اﮔﺮ ﻫﺮ ﯾﮏ از ﺷﺮوط ﻓﻮق ﺑﺮﻗﺮار ﺑﺎﺷﺪ‪ ،‬واﻗﻌﻪﻫﺎی }‪ { x ∈ D‬و }‪ { y ∈ D′‬ﺑﺮای ﻫﺮ ‪ D‬و ‪ D′‬ﻣﺴﺘﻘﻞ ﺧﻮاﻫﻨﺪ ﺑﻮد‪(.‬‬

‫‪16‬‬
‫‪2‬‬ ‫‪2‬‬ ‫‪2‬‬ ‫‪2‬‬ ‫‪2‬‬
‫‪ (1 − x − y ) 0 < x + y < 1‬‬
‫‪ ، fxy (x, y) =  π‬ﺗﺎﺑﻊ )‪ fxy (x, y‬ﻗﺎﺑﻞ ﻧﻮﺷﺘﻦ‬ ‫ﻣﺜﺎل‪ :‬در ﻣﺜﺎﻟﯽ ﮐﻪ داﺷﺘﯿﻢ‪ ،‬ﯾﻌﻨﯽ‪:‬‬
‫‪0‬‬ ‫‪x2 + y2 > 1‬‬
‫‪‬‬
‫ﺑﻪ ﺻﻮرت ﺗﺎﺑﻌﯽ از ‪ x‬ﺿﺮﺑﺪر ﺗﺎﺑﻌﯽ از ‪ y‬ﻧﯿﺴﺖ‪ .‬در ﻧﺘﯿﺠﻪ ‪ x‬و ‪ y‬ﻣﺴﺘﻘﻞ ﻧﯿﺴﺘﻨﺪ‪.‬‬

‫)ﺿﻤﻨﺎً دﯾﺪﯾﻢ ﮐﻪ‪:‬‬


‫‪3‬‬
‫‪8‬‬
‫= )‪fx (x‬‬ ‫‪(1 − x 2 ) 2 : −1 < x < 1‬‬
‫‪3π‬‬
‫و ‪ fy‬ﻧﯿﺰ ﺑﻪ ﻫﻤﯿﻦ ﺷﮑﻞ اﺳﺖ و ﺣﺎﺻﻠﻀﺮب اﯾﻦ دو ‪ fxy‬ﻧﻤﯽﺷﻮد‪(.‬‬

‫‪17‬‬
‫‪x2 + y2‬‬
‫‪1‬‬ ‫‪−‬‬
‫= )‪ fxy (x, y‬؛‬ ‫‪e‬‬ ‫‪2σ 2‬‬ ‫ﻣﺜﺎل‪:‬‬
‫‪2‬‬
‫‪2 πσ‬‬
‫‪‬‬ ‫‪x2‬‬
‫‪− 2‬‬ ‫‪‬‬ ‫‪−‬‬
‫‪y2‬‬ ‫‪‬‬
‫‪‬‬ ‫‪1‬‬ ‫‪  1 e 2σ 2‬‬ ‫)‪ = f (x)f (y‬‬
‫= )‪fxy (x, y‬‬ ‫‪e 2σ‬‬
‫‪ 2π σ‬‬ ‫‪  2π σ‬‬ ‫‪ x‬‬ ‫‪y‬‬
‫‪‬‬ ‫‪‬‬ ‫‪‬‬
‫ﭘﺲ ‪ x‬و ‪ y‬ﻣﺴﺘﻘﻞ ﺑﻮده و ﻫﺮ دو ) ‪ N(0,σ‬ﻫﺴﺘﻨﺪ‪.‬‬

‫ﺗﻌﺮﯾﻒ‪ :‬ﮔﻮﯾﯿﻢ ‪ fxy‬دارای ﺗﻘﺎرن داﯾﺮوی )‪ (Circular Symmetry‬اﺳﺖ‪ ،‬ﻫﺮﮔﺎه )‪ fxy (x, y‬ﺻﺮﻓﺎً ﺗﺎﺑﻌﯽ از ﻓﺎﺻﻠﮥ )‪ (x, y‬از ﻣﺒﺪأ‬
‫ﺑﺎﺷﺪ‪ .‬ﯾﻌﻨﯽ‪:‬‬
‫‪fxy (x, y) = g(r) : r = x 2 + y 2‬‬
‫در ﻫﺮ دو ﻣﺜﺎل ﮔﺬﺷﺘﻪ‪ fxy ،‬دارای ﺗﻘﺎرن داﯾﺮوی ﺑﻮد‪.‬‬

‫ﻗﻀﯿﮥ ﺑﺴﯿﺎر ﺟﺎﻟﺒﯽ دارﯾﻢ ﮐﻪ اﻫﻤﯿﺖ ﺗﻮزﯾﻊ ﻧﺮﻣﺎل را ﻧﺸﺎن ﻣﯽدﻫﺪ‪ .‬اﮔﺮ ﺑﺨﻮاﻫﯿﻢ ‪ fxy‬ﺗﻘﺎرن داﯾﺮوی داﺷﺘﻪ ﺑﺎﺷﺪ و در ﻋﯿﻦ ﺣﺎل ‪ x‬و ‪y‬‬
‫ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ‪ x ،‬و ‪ y‬ﺑﺎﯾﺪ ﻫﺮ دو ) ‪ N(0,σ‬ﺑﺎﺷﻨﺪ‪.‬‬

‫‪18‬‬
‫ﻗﻀﯿﻪ‪ :‬اﮔﺮ ‪ x‬و ‪ y‬ﻣﺴﺘﻘﻞ ﺑﻮده و ‪ fxy‬دارای ﺗﻘﺎرن داﯾﺮوی ﺑﺎﺷﺪ‪ x ،‬و ‪ y‬ﻫﺮ دو ﻧﺮﻣﺎل ﺑﺎ ﻣﯿﺎﻧﮕﯿﻦ ﺻﻔﺮ و وارﯾﺎﻧﺲ ﯾﮑﺴﺎن‪ ،‬ﯾﻌﻨﯽ‬
‫) ‪ N(0,σ‬ﺧﻮاﻫﻨﺪ ﺑﻮد )اﺛﺒﺎت در ﮐﺘﺎب‪ ،‬ص‪.(143‬‬

‫ﻗﻀﯿﻪ‪ :‬اﮔﺮ ‪ x‬و ‪ y‬ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ‪ ،‬آﻧﮕﺎه ) ‪ z = g( x‬و ) ‪ w = h( y‬ﻧﯿﺰ ﻣﺴﺘﻘﻞ ﺧﻮاﻫﻨﺪ ﺑﻮد‪.‬‬
‫اﺛﺒﺎت در ﺣﺎﻟﺖ ﺧﺎﺻﯽ ﮐﻪ ‪ g‬و ‪ h‬ﺻﻌﻮدی ﺑﺎﺷﻨﺪ )اﺛﺒﺎت ﮐﻠﯽ در ﮐﺘﺎب‪ ،‬ص‪:(143‬‬
‫})‪P{g( x ) ≤ z, h( y ) ≤ w} = P{ x ≤ g −1 (z), y ≤ h −1 (w‬‬
‫)ﺑﻪ دﻟﯿﻞ اﺳﺘﻘﻼل ‪ x‬و ‪= P{ x ≤ g −1 (z)} P{ y ≤ h −1 (w)} (y‬‬
‫}‪= P{g( x ) ≤ z} P{h( y ) ≤ w‬‬

‫‪19‬‬
‫اﻣﯿﺪ رﯾﺎﺿﯽ و ﻫﻤﺒﺴﺘﮕﯽ‪:‬‬
‫اﮔﺮ ‪ z‬ﺗﺎﺑﻌﯽ از ‪ x‬و ‪ y‬ﺑﺎﺷﺪ‪ ،‬ﯾﻌﻨﯽ‪ ، z = g( x , y ) :‬اﻣﯿﺪ رﯾﺎﺿﯽ آن ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‪:‬‬
‫∞‪+‬‬
‫= ) ‪E( z‬‬ ‫∫‬
‫∞‪−‬‬
‫‪zfz (z)dz‬‬

‫وﻟﯽ ﻫﻤﺎن ﻃﻮر ﮐﻪ در ﻣﻮرد ﺗﺎﺑﻊ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﻔﺘﯿﻢ‪ ،‬در اﯾﻨﺠﺎ ﻧﯿﺰ ﺑﺪون ﻣﺤﺎﺳﺒﮥ ‪ fz‬ﻣﯽﺗﻮان )‪ E(z‬را از روی ‪ fxy‬ﺑﻪ دﺳﺖ آورد‪.‬‬
‫ﭘﺲ ﺑﺎ ﺗﻌﻤﯿﻢ ﻗﻀﯿﮥ اﺳﺎﺳﯽ اﻣﯿﺪ رﯾﺎﺿﯽ دارﯾﻢ‪:‬‬

‫ﻗﻀﯿﻪ‪:‬‬
‫∞‪+‬‬ ‫∞‪+‬‬
‫= )) ‪E(g( x , y‬‬ ‫∫ ∫‬
‫∞‪−‬‬ ‫∞‪−‬‬
‫‪g(x, y)fxy (x, y)dxdy‬‬
‫)اﺛﺒﺎت در ﮐﺘﺎب‪ ،‬ﺻﻔﺤﮥ ‪(144‬‬
‫)ﺗﻮﺟﻪ ﮐﻨﯿﺪ ﮐﻪ اﯾﻦ ﺗﻌﺮﯾﻒ ﺑﺎ ﺗﻌﺮﯾﻒ ﯾﮏﺑُﻌﺪی اﻣﯿﺪ رﯾﺎﺿﯽ ﺳﺎزﮔﺎر اﺳﺖ و اﮔﺮ ‪ g‬ﺻﺮﻓﺎً ﺗﺎﺑﻌﯽ از ﻣﺜﻼً ‪ x‬ﺑﺎﺷﺪ‪ ،‬ﺑﻪ ﻫﻤﺎن ﺑﺮ ﻣﯽﮔﺮدد‪(.‬‬

‫ﮔﺎﻫﯽ ﺑﺮای ﺑﯿﺎن اﯾﻨﮑﻪ اﻣﯿﺪ رﯾﺎﺿﯽ ﺑﺎ اﻧﺘﮕﺮالﮔﯿﺮی روی ﮐﺪام ﭼﮕﺎﻟﯽ ﺑﻪ دﺳﺖ آﻣﺪه‪ ،‬ﺑﺮای آن زﯾﺮﻧﻮﯾﺲ ﻣﯽﮔﺬارﻧﺪ ‪ ,‬ﻣﺜﻼً ﺑﺮای‬
‫اﻣﯿﺪ رﯾﺎﺿﯽ ﺑﺎﻻ ﻣﯽﻧﻮﯾﺴﻨﺪ‪. E xy (g( x , y )) :‬‬

‫‪20‬‬
‫ﻧﺘﯿﺠﻪ ‪ :‬ﺧﻄﯽ ﺑﻮدن اﻣﯿﺪ رﯾﺎﺿﯽ )در ﺣﺎﻟﺖ دو ﺑُﻌﺪی(‪:‬‬
‫‪ n‬‬ ‫‪‬‬ ‫∞‪+‬‬ ‫‪+∞  n‬‬ ‫‪‬‬
‫∑‬
‫= ‪E  a i g i ( x , y )‬‬
‫‪ i =1‬‬ ‫‪‬‬
‫∑ ∫ ∫‬
‫∞‪−‬‬ ‫∞‪−‬‬
‫‪ aig i (x, y)  fxy (x, y)dxdy‬‬
‫‪ i =1‬‬ ‫‪‬‬
‫‪n‬‬ ‫∞‪+‬‬ ‫∞‪+‬‬
‫‪= ai ‬‬
‫∫ ∫ ∑‬ ‫‪g i (x, y)fxy (x, y)dxdy ‬‬
‫‪i =1‬‬ ‫‪‬‬ ‫∞‪−‬‬ ‫∞‪−‬‬ ‫‪‬‬
‫‪n‬‬
‫=‬ ‫)) ‪∑ a E(g (x , y‬‬
‫‪i =1‬‬
‫‪i‬‬ ‫‪i‬‬

‫ﯾﻌﻨﯽ ﺟﺎی ﻣﺠﻤﻮع و اﻣﯿﺪ رﯾﺎﺿﯽ را ﻣﯽﺗﻮان ﻋﻮض ﮐﺮد‪.‬‬

‫ﺑﻪ ﻋﻨﻮان ﺣﺎﻟﺖ ﺧﺎص دارﯾﻢ‪:‬‬


‫) ‪E(ax + by ) = aE( x ) + bE( y‬‬

‫‪21‬‬
‫ﺣﺎل ﺗﻮﺟﻪ ﮐﻨﯿﺪ ﮐﻪ‪:‬‬
‫∞‪+‬‬ ‫∞‪+‬‬ ‫∞‪+‬‬
‫= ‪E( x ) = η x‬‬ ‫∫ ∫‬
‫∞‪−‬‬ ‫∞‪−‬‬
‫= ‪x fxy (x, y)dxdy‬‬ ‫∫‬ ‫∞‪−‬‬
‫‪x fx (x)dx‬‬
‫∞‪+‬‬ ‫∞‪+‬‬ ‫∞‪+‬‬
‫‪σ x2‬‬ ‫∫ ∫‬ ‫∫‬
‫‪2‬‬ ‫‪2‬‬
‫= ) ) ‪= E(( x − η x‬‬ ‫= ‪(x − ηx ) fxy (x, y)dxdy‬‬ ‫‪(x − η x )2 fx (x)dx‬‬
‫∞‪−‬‬ ‫∞‪−‬‬ ‫∞‪−‬‬
‫و ﺑﻪ ﻫﻤﯿﻦ ﺗﺮﺗﯿﺐ ﺑﺮای ‪ y‬ﻧﯿﺰ ﻣﻘﺎدﯾﺮ ‪ η y‬و ‪ σ y‬ﺑﻪ ﻫﻤﯿﻦ ﺻﻮرت ﻣﺤﺎﺳﺒﻪ ﻣﯽﺷﻮﻧﺪ‪.‬‬
‫ﻧﻘﻄﮥ ) ‪ ، (η x ,η y‬ﻣﺮﮐﺰ ﺛﻘﻞ ‪ fxy‬اﺳﺖ و ‪ ،σ x‬ﭘﺮاﮐﻨﺪﮔﯽ ﻧﻘﺎط ﺗﺎﺑﻊ ﺗﻮزﯾﻊ را ﺣﻮل ﺧﻂ ‪ x = ηx‬را ﻧﺸﺎن ﻣﯽدﻫﺪ‪ σ y .‬ﻧﯿﺰ ﭘﺮاﮐﻨﺪﮔﯽ‬
‫ﻧﻘﺎط ﺣﻮل ﺧﻂ ‪ y = η y‬را ﻧﺸﺎن ﻣﯽدﻫﺪ‪.‬‬
‫‪y‬‬
‫ﻣﻨﺤﻨﯽﻫﺎی ﺛﺎﺑﺖ = ‪fxy‬‬

‫‪ηy‬‬

‫‪x‬‬
‫‪ηx‬‬

‫‪22‬‬
‫ﭘﺎراﻣﺘﺮ ﭘﻨﺠﻢ‪ ،‬ﭘﺎراﻣﺘﺮی اﺳﺖ ﮐﻪ ﻣﯿﺰان ﺑﺴﺘﮕﯽ ‪ x‬و ‪ y‬را ﺑﻪ ﻫﻢ ﻧﺸﺎن ﻣﯽدﻫﺪ‪.‬‬

‫ﻃﺒﻖ ﺗﻌﺮﯾﻒ‪ ،‬ﮐُﻮارﯾﺎﻧﺲ ‪ x‬و ‪ y‬ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‪:‬‬


‫∞‪+‬‬ ‫∞‪+‬‬
‫∫ ∫‬
‫= ‪cov( x , y ) = µ xy = E ( x − ηx )( y − η y )‬‬
‫∞‪−∞ −‬‬
‫‪(x − ηx )(y − η y )fxy (x, y)dxdy‬‬
‫ﺗﻮﺟﻪ ﮐﻨﯿﺪ ﮐﻪ ﺑﺮ ﺧﻼف وارﯾﺎﻧﺲ ﮐﻪ ﮐﻤﯿﺘﯽ ﻧﺎﻣﻨﻔﯽ ﺑﻮد‪ ،‬ﮐﻮارﯾﺎﻧﺲ ﻣﯽﺗﻮاﻧﺪ ﻣﺜﺒﺖ ﯾﺎ ﻣﻨﻔﯽ ﺑﺎﺷﺪ‪.‬‬
‫)ﺑﻌﻀﯽ ﮐﺘﺎﺑﻬﺎ ﮐﻮارﯾﺎﻧﺲ را ﺑﺎ ‪ σ xy‬ﻧﺸﺎن ﻣﯽدﻫﻨﺪ‪(.‬‬

‫‪23‬‬
:‫ﺧﻮاص ﮐﻮارﯾﺎﻧﺲ‬
(1
cov( x , y ) = E ( x − ηx )( y − η y ) = E( xy ) − η x E( y ) − η y E( x ) + η xη y
⇒ cov( x , y ) = E( xy ) − E( x )E( y )

(2
cov( x , x ) = E(( x − η x )2 )
⇒ cov( x , x ) = var( x )

:‫؛ از ﻃﺮف دﯾﮕﺮ دارﯾﻢ‬η z = η x + η y :‫ ﻣﯽداﻧﯿﻢ ﮐﻪ‬،‫ ﺑﺎﺷﺪ‬z = x + y ‫( اﮔﺮ‬3


2
var( z ) = E(( z −ηz )2 ) = E( ( x −η x ) + ( y −η y ) ) = E(( x −ηx )2 ) + E(( y −η y )2 ) + 2E(( x −η x )( y −η y ))
:‫ﭘﺲ‬
var( x + y ) = var( x ) + var( y ) + 2 cov( x , y )
:‫ﯾﺎ‬
σ x2+ y = σ x2 + σ y2 + 2 µxy

24
‫در ﺣﺎﻟﺖ ﮐﻠﯽﺗﺮ اﮔﺮ ‪ z = ax + by + c‬ﺑﺎﺷﺪ‪ ،‬دارﯾﻢ‪:‬‬
‫) ‪var( z ) = a 2 var( x ) + b 2 var( y ) + 2ab cov( x , y‬‬

‫ﺗﻌﺮﯾﻒ‪ :‬ﺿﺮﯾﺐ ﻫﻤﺒﺴﺘﮕﯽ )‪ x (Correlation Coefficient‬و ‪ y‬ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽﺷﻮد‪:‬‬
‫) ‪cov( x , y‬‬ ‫‪µxy‬‬
‫= ‪rxy‬‬ ‫=‬
‫‪var( x ) var( y ) σ xσ y‬‬

‫ﻣﯽﺗﻮان ﻧﺸﺎن داد ﮐﻪ‪:‬‬


‫‪x − ηx y − η y‬‬
‫(‪rxy = cov‬‬ ‫‪,‬‬ ‫)‬
‫‪σx‬‬ ‫‪σy‬‬
‫ﯾﻌﻨﯽ ‪ rxy‬ﮐﻮارﯾﺎﻧﺲ ﻧﺮﻣﺎﻟﯿﺰه اﺳﺖ‪ .‬ﺑﻌﺪاً ﺛﺎﺑﺖ ﺧﻮاﻫﯿﻢ ﮐﺮد ﮐﻪ‪. −1 ≤ rxy ≤ 1 :‬‬

‫‪25‬‬
‫ﮔﺎﻫﯽ اﮔﺮ ‪ x‬ﺑﺎﻻﺗﺮ از ﻣﺘﻮﺳﻄﺶ ﺑﺮود‪ ،‬ﻣﻌﻤﻮﻻً ‪ y‬ﻫﻢ ﺑﺎﻻﺗﺮ از ﻣﺘﻮﺳﻄﺶ ﺧﻮاﻫﺪ ﺷﺪ‪ .‬در اﯾﻦ ﺻﻮرت‪ r > 0 :‬؛‬
‫ﮔﺎﻫﯽ ﻧﯿﺰ ﺑﻪ ﻋﮑﺲ اﮔﺮ ‪ x‬ﺑﺎﻻﺗﺮ از ﻣﺘﻮﺳﻄﺶ ﺑﺮود‪ y ،‬ﭘﺎﯾﯿﻦﺗﺮ از ﻣﺘﻮﺳﻄﺶ ﺧﻮاﻫﺪ ﺷﺪ‪ .‬در اﯾﻦ ﺻﻮرت‪ r < 0 :‬؛‬
‫ﮔﺎﻫﯽ ﻫﻢ ‪ x‬و ‪ y‬ﺗﺄﺛﯿﺮی روی ﻫﻢ ﻧﺪارﻧﺪ‪ .‬در اﯾﻦ ﺻﻮرت‪. r = 0 :‬‬

‫ﻣﺜﺎل‪ :‬اﻟﻒ( ﻣﯿﺰان ﺧﻮردن ﻧﻮﺷﺎﺑﻪ و ﻣﯿﺰان درﺟﻪ ﺣﺮارت؛ ﻋﻠﯽاﻻﺻﻮل ﺑﺎ اﻓﺰاﯾﺶ درﺟﻪ ﺣﺮارت‪ ،‬ﻣﯿﺰان ﺧﻮردن ﻧﻮﺷﺎﺑﻪ ﻧﯿﺰ اﻓﺰاﯾﺶ ﻣﯽﯾﺎﺑﺪ‪،‬‬
‫ﯾﻌﻨﯽ‪ r > 0 :‬؛‬
‫ب( ﻣﯿﺰان ﺧﻮردن ﻧﻮﺷﺎﺑﻪ و ﻣﯿﺰان رﻃﻮﺑﺖ ﻫﻮا؛ ﻋﻠﯽاﻻﺻﻮل ﺑﺎ اﻓﺰاﯾﺶ ﺣﺮارت‪ ،‬رﻃﻮﺑﺖ ﮐﺎﻫﺶ ﻣﯽﯾﺎﺑﺪ‪ ،‬ﯾﻌﻨﯽ‪ r < 0 :‬؛‬
‫ج( ﻣﯿﺰان ﺧﻮردن ﻧﻮﺷﺎﺑﻪ و ﻣﯿﺰان ﮐﺘﺎﺑﻬﺎی ﻓﺮوﺧﺘﻪ ﺷﺪه؛ ﻋﻠﯽاﻻﺻﻮل رﺑﻄﯽ ﺑﻪ ﻫﻢ ﻧﺪارﻧﺪ‪ ،‬ﯾﻌﻨﯽ‪. r = 0 :‬‬

‫‪y‬‬ ‫‪y‬‬ ‫‪y‬‬

‫‪r>0‬‬ ‫‪r<0‬‬ ‫‪r=0‬‬


‫‪ηy‬‬

‫‪ηy‬‬ ‫‪ηy‬‬

‫‪x‬‬ ‫‪x‬‬ ‫‪x‬‬


‫‪ηx‬‬ ‫‪ηx‬‬ ‫‪ηx‬‬

‫اﮔﺮ ‪ r = 0‬ﺑﺎﺷﺪ‪ ،‬ﻣﺤﻮر ﺗﻘﺎرن ﻣﻮازی ﯾﮑﯽ از ﻣﺤﻮرﻫﺎ ﺧﻮاﻫﺪ ﺑﻮد )ﺗﻮﺟﻪ ﮐﻨﯿﺪ ﮐﻪ ﻣﻤﮑﻦ اﺳﺖ اﺻﻮﻻً ﻣﺤﻮر ﺗﻘﺎرﻧﯽ ﻧﺪاﺷﺘﻪ ﺑﺎﺷﯿﻢ‪ ،‬وﻟﯽ‬
‫ﻣﺤﻮر ﺛﻘﻞ در ﺣﺎﻟﺖ ﮐﻠﯽ دارﯾﻢ(‪.‬‬
‫‪26‬‬
‫ﺗﻌﺮﯾﻒ‪ :‬ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ ‪ x‬و ‪ y‬را ﻧﺎﻫﻤﺒﺴﺘﻪ )‪ (Uncorrelated‬ﮔﻮﯾﻨﺪ‪ ،‬ﻫﺮﮔﺎه ‪ rxy = 0‬ﺑﺎﺷﺪ‪ ،‬ﯾﻌﻨﯽ‪:‬‬
‫‪cov( x , y ) = 0‬‬
‫ﯾﺎ ﻣﻌﺎدﻻً‪:‬‬
‫) ‪R xy = E( xy ) = E( x )E( y‬‬
‫)در ﺣﺎﻟﯽ ﮐﻪ در ﺣﺎﻟﺖ ﮐﻠﯽ داﺷﺘﯿﻢ‪( R xy = E( xy ) = E( x )E( y ) + cov( x , y ) :‬‬

‫ﺗﻌﺮﯾﻒ‪ :‬ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ ‪ x‬و ‪ y‬را ﻣﺘﻌﺎﻣﺪ )‪ (Orthogonal‬ﮔﻮﯾﻨﺪ‪ ،‬ﻫﺮﮔﺎه‪:‬‬


‫‪R xy = E( xy ) = 0‬‬

‫ﻗﻀﯿﻪ‪ :‬اﮔﺮ ‪ x‬و ‪ y‬ﻧﺎﻫﻤﺒﺴﺘﻪ ﺑﺎﺷﻨﺪ‪ ،‬دارﯾﻢ‪:‬‬


‫‪σ x2+ y = σ x2 + σ y2‬‬
‫ﯾﻌﻨﯽ وارﯾﺎﻧﺲ ﻣﺠﻤﻮع ﺑﺮاﺑﺮ ﻣﺠﻤﻮع وارﯾﺎﻧﺲﻫﺎ اﺳﺖ )اﺻﻞ ﺳﻮﭘﺮﭘﻮزﯾﺸﻦ ﻗﺪرت‪ :‬ﺳﯿﮕﻨﺎل ‪ +‬ﻧﻮﯾﺰ(‪.‬‬

‫ﻗﻀﯿﻪ‪ :‬اﮔﺮ ‪ x‬و ‪ y‬ﻣﺘﻌﺎﻣﺪ ﺑﺎﺷﻨﺪ‪ ،‬دارﯾﻢ‪:‬‬


‫) ‪E(( x + y )2 ) = E( x 2 ) + E( y 2‬‬

‫‪27‬‬
‫ﻗﻀﯿﻪ‪ :‬اﮔﺮ ‪ x‬و ‪ y‬ﻧﺎﻫﻤﺒﺴﺘﻪ ﺑﺎﺷﻨﺪ‪ x − ηx ،‬و ‪ y − η y‬ﻣﺘﻌﺎﻣﺪﻧﺪ و ﺑﺮﻋﮑﺲ‪ ،‬زﯾﺮا‪:‬‬
‫‪E(( x − ηx )( y − η y )) = µxy = 0‬‬

‫ﻗﻀﯿﻪ‪ :‬اﮔﺮ ‪ x‬و ‪ y‬ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ‪ ،‬ﻧﺎﻫﻤﺒﺴﺘﻪ ﺧﻮاﻫﻨﺪ ﺑﻮد )وﻟﯽ ﻋﮑﺲ آن ﻟﺰوﻣﺎً درﺳﺖ ﻧﯿﺴﺖ(‪ ،‬زﯾﺮا‪:‬‬
‫∞‪+‬‬ ‫∞‪+‬‬
‫∫ ∫‬
‫= ) ‪E( xy‬‬
‫∞‪−∞ −‬‬
‫‪xyfxy (x, y)dxdy‬‬
‫∞‪+∞ +‬‬
‫∫ ∫=‬ ‫‪xyfx (x)fy (y)dxdy‬‬
‫∞‪−‬‬ ‫∞‪−‬‬
‫∞‪+‬‬ ‫∞‪+‬‬
‫‪= ‬‬ ‫∫‬ ‫‪xfx (x)dx ‬‬
‫‪‬‬ ‫‪yfy (y)dy ‬‬
‫∫‬
‫∞‪ −‬‬ ‫∞‪ −‬‬ ‫‪‬‬
‫‪ x‬و ‪ y‬ﻧﺎﻫﻤﺒﺴﺘﻪاﻧﺪ ⇒ ) ‪= E( x )E( y‬‬

‫‪28‬‬
‫ﻣﺜﺎل ﻧﻘﺾ ﺑﺮای ﻋﮑﺲ ﻣﺴﺄﻟﻪ‪:‬‬
‫‪1‬‬
‫‪‬‬ ‫‪−1 < x < 1‬‬
‫‪fx (x) =  2‬‬ ‫‪, y = x2‬‬
‫‪0‬‬ ‫‪otherwise‬‬
‫در اﯾﻨﺠﺎ ‪ x‬و ‪ y‬ﻣﺴﺘﻘﻞ ﻧﯿﺴﺘﻨﺪ و دارﯾﻢ‪:‬‬
‫‪E( x ) = 0‬‬
‫‪1 2‬‬
‫‪1‬‬ ‫‪1‬‬
‫∫‬
‫‪2‬‬
‫= ) ‪E( y ) = E( x‬‬ ‫= ‪x dx‬‬
‫‪−1 2‬‬ ‫‪3‬‬
‫‪E( xy ) = E( x 3 ) = 0‬‬
‫‪cov( x , y ) = E( xy ) − E( x )E( y ) = 0 − 0 = 0‬‬
‫ﯾﻌﻨﯽ ‪ x‬و ‪ y‬ﻧﺎﻫﻤﺒﺴﺘﻪ ﻫﺴﺘﻨﺪ‪ ،‬در ﺣﺎﻟﯽ ﮐﻪ ﻣﺴﺘﻘﻞ ﻧﯿﺴﺘﻨﺪ‪.‬‬

‫ﻣﺜﺎل دﯾﮕﺮ‪ :‬اﮔﺮ ‪ y = sin ϕ ، x = cos ϕ‬و )‪ ϕ ∼ u(0, 2 π‬ﺑﺎﺷﺪ‪ ،‬در ﻧﺘﯿﺠﻪ ‪ y = 1 − x 2‬ﺑﻮده و ‪ x‬و ‪ y‬ﻣﺴﺘﻘﻞ ﻧﺨﻮاﻫﻨﺪ ﺑﻮد‪،‬‬
‫وﻟﯽ دارﯾﻢ‪:‬‬
‫‪1‬‬
‫= )‪cov(x, y ) = E(cos ϕ sin ϕ) − E(cos ϕ) E(sin ϕ‬‬ ‫‪E(sin 2 ϕ) = 0‬‬
‫‪2‬‬
‫‪0‬‬ ‫‪0‬‬

‫‪29‬‬
‫در واﻗﻊ اﺳﺘﻘﻼل ﺑﺴﯿﺎر ﻗﻮﯾﺘﺮ از ﻧﺎﻫﻤﺒﺴﺘﮕﯽ اﺳﺖ‪ .‬ﻧﺎﻫﻤﺒﺴﺘﮕﯽ ﻓﻘﻂ روی ﻣﺘﻮﺳﻂﻫﺎ ﮐﺎر ﻣﯽﮐﻨﺪ‪ ،‬وﻟﯽ اﺳﺘﻘﻼل ﺑﺎﯾﺪ در ﻫﺮ ﻧﻘﻄﻪ‬
‫ﺑﺮﻗﺮار ﺑﺎﺷﺪ‪ .‬ﺿﻤﻨﺎً ﺗﻮﺟﻪ ﮐﻨﯿﺪ ﮐﻪ اﮔﺮ ‪ x‬و ‪ y‬ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ‪ g(x) ،‬و )‪ h(y‬ﻧﯿﺰ ﻧﺎﻫﻤﺒﺴﺘﻪ ﺧﻮاﻫﻨﺪ ﺑﻮد )زﯾﺮا )‪ g(x‬و )‪ h(y‬ﻧﯿﺰ‬
‫ﻣﺴﺘﻘﻠﻨﺪ(‪ .‬در ﺣﺎﻟﯽ ﮐﻪ اﯾﻦ ﺣﺮف را ﺑﺮای ﻧﺎﻫﻤﺒﺴﺘﮕﯽ ﻧﻤﯽﺗﻮاﻧﯿﻢ ﺑﺰﻧﯿﻢ‪.‬‬

‫‪30‬‬
‫ﻧﺎﻣﺴﺎوی ﺷﻮارﺗﺰ‪:‬‬
‫) ‪E 2 ( xy ) ≤ E( x 2 )E( y 2‬‬
‫اﺛﺒﺎت‪ :‬ﺑﺮای ﻫﺮ ﻣﻘﺪار ﺛﺎﺑﺖ ‪ α‬دارﯾﻢ‪:‬‬
‫‪E(αx − y )2 ≥ 0 ⇒ α 2 E( x 2 ) − 2αE( xy ) + E( y 2 ) ≥ 0‬‬
‫) ‪E( xy‬‬
‫= ‪ ، α‬ﺑﺮای اﯾﻦ ﻣﻘﺪار ‪ α‬دارﯾﻢ‪:‬‬ ‫‪2‬‬
‫اﮐﻨﻮن اﮔﺮ ﺑﮕﯿﺮﯾﻢ‪:‬‬
‫) ‪E 2 ( xy ) 2E 2 ( xy‬‬ ‫) ‪E 2 ( xy‬‬ ‫) ‪E( x‬‬
‫‪2‬‬ ‫‪2‬‬
‫‪2‬‬
‫‪−‬‬ ‫‪2‬‬
‫≥ ) ‪+ E( y ) ≥ 0 ⇒ E( y‬‬ ‫‪2‬‬
‫) ‪⇒ E 2 ( xy ) ≤ E( x 2 )E( y 2‬‬
‫) ‪E( x‬‬ ‫) ‪E( x‬‬ ‫) ‪E( x‬‬

‫ﺗﺴﺎوی را در ﻧﺎﻣﺴﺎوی ﺷﻮارﺗﺰ وﻗﺘﯽ دارﯾﻢ ﮐﻪ‪ y = c x :‬ﺑﺎﺷﺪ‪ ،‬زﯾﺮا ﺑﻪ ازای ‪ y = c x‬دارﯾﻢ‪:‬‬
‫‪2‬‬
‫) ‪E 2 ( xy ) = E(cx 2 ) = c 2 E 2 ( x 2‬‬ ‫‪‬‬
‫‪‬‬ ‫‪2‬‬ ‫‪2‬‬ ‫‪2‬‬
‫) ‪ ⇒ E ( xy ) = E( x )E( y‬‬
‫‪E( x 2 )E( y 2 ) = E( x 2 )E(c 2 x 2 ) = c 2 E 2 ( x 2 )‬‬
‫) ‪E( xy‬‬
‫= ‪ c‬ﺧﻮاﻫﺪ ﺑﻮد‪.‬‬ ‫‪2‬‬
‫ﺿﻤﻨﺎً ‪= α‬‬
‫) ‪E( x‬‬
‫ﺑﻪ ﻋﮑﺲ در ﺻﻮرت ﺗﺴﺎوی دارﯾﻢ‪:‬‬
‫) ‪E( xy‬‬ ‫) ‪E( xy‬‬
‫((‪E 2 ( xy ) = E( x 2 )E( y 2 ) ⇒ E‬‬ ‫‪x‬‬ ‫‪−‬‬ ‫‪y‬‬ ‫)‬ ‫‪2‬‬
‫)‬ ‫=‬ ‫‪0‬‬ ‫⇒‬ ‫‪y‬‬ ‫=‬ ‫‪c‬‬‫‪x‬‬ ‫‪in‬‬ ‫‪Probability‬‬ ‫‪,‬‬ ‫‪c‬‬ ‫=‬
‫) ‪E( x 2‬‬ ‫) ‪E( x 2‬‬
‫‪31‬‬
‫اﮔﺮ در ﻧﺎﻣﺴﺎوی ﺷﻮارﺗﺰ ﺑﻪ ﺟﺎی ‪ x − ηx ،x‬و ﺑﻪ ﺟﺎی ‪ y − η y ،y‬ﻗﺮار دﻫﯿﻢ‪ ،‬ﺧﻮاﻫﯿﻢ داﺷﺖ‪:‬‬

‫) ‪[ cov( x , y )]2 ≤ var( x )var( y‬‬


‫دارد‪.‬‬ ‫ﯾﻌﻨﯽ ﮐﻮارﯾﺎﻧﺲ ﮔﺮ ﭼﻪ ﻣﯽﺗﻮاﻧﺪ ﻣﺜﺒﺖ و ﻣﻨﻔﯽ ﺷﻮد‪ ،‬اﻣﺎ ﺗﻐﯿﯿﺮات آن از دو ﺳﻮ ﺣﺪی ﺑﺮاﺑﺮ ﺑﺎ ) ‪var( x )var( y‬‬

‫‪2‬‬ ‫) ‪cov( x , y‬‬


‫‪ ، rxy‬ﯾﻌﻨﯽ‪. −1 ≤ rxy ≤ 1 :‬‬ ‫= ‪ rxy‬دارﯾﻢ‪≤ 1 :‬‬ ‫ﭘﺲ در ﻣﻮرد‬
‫) ‪var( x ) var( y‬‬

‫ﺗﺴﺎوی وﻗﺘﯽ ﺑﺮﻗﺮار ﺧﻮاﻫﺪ ﺑﻮد ﮐﻪ‪ y − η y = c( x − η x ) :‬ﺑﺎﺷﺪ‪ .‬در اﯾﻦ ﺻﻮرت دارﯾﻢ‪،[ cov( x , y )] = var( x )var( y ) :‬‬
‫‪2‬‬

‫‪2‬‬
‫‪ . rxy‬اﮔﺮ ‪ c‬ﻣﺜﺒﺖ ﺑﺎﺷﺪ‪ rxy = 1 ،‬و اﮔﺮ ‪ c‬ﻣﻨﻔﯽ ﺑﺎﺷﺪ‪ rxy = −1 ،‬ﺧﻮاﻫﺪ ﺑﻮد‪ ،‬زﯾﺮا‪:‬‬ ‫ﯾﻌﻨﯽ‪= 1 :‬‬
‫‪µxy r σ x σ y‬‬ ‫‪σy‬‬ ‫‪y‬‬ ‫‪y‬‬
‫= ‪c= 2‬‬ ‫=‬ ‫‪±‬‬
‫‪σx‬‬ ‫‪σ x2‬‬ ‫‪σx‬‬ ‫ﺟﺮم ﺧﻄﯽ‪:‬‬
‫‪ηy‬‬

‫‪ηy‬‬ ‫‪r = −1‬‬ ‫‪r=1‬‬

‫‪x‬‬ ‫‪x‬‬
‫‪ηx‬‬ ‫‪ηx‬‬

‫‪32‬‬
‫از ﺟﻤﻠﻪ ﮐﺎرﺑﺮدﻫﺎی ﺿﺮﯾﺐ ﻫﻤﺒﺴﺘﮕﯽ‪ ،‬رﮔﺮﺳﯿﻮن ﺧﻄﯽ اﺳﺖ‪ .‬ﮐﺘﺎب‪ ،‬ﺻﻔﺤﺎت ‪ 149‬و ‪ 150‬را ﻣﻼﺣﻈﻪ ﻧﻤﺎﯾﯿﺪ )درﺑﺎرۀ رﮔﺮﺳﯿﻮن ﺧﻄﯽ‪،‬‬
‫ﺑﻌﺪاً در ﻓﺼﻞ ‪ 6‬ﺻﺤﺒﺖ ﺧﻮاﻫﯿﻢ ﮐﺮد‪ .‬اﯾﻦ ﻣﺒﺤﺚ در ﻓﺼﻞ ‪ 11‬ﮐﺘﺎب ﺑﻪ ﻃﻮر ﮐﺎﻣﻞ آﻣﺪه اﺳﺖ(‪.‬‬

‫ﮔﺸﺘﺎور ﻣﺸﺘﺮک‪:‬‬
‫ﻃﺒﻖ ﺗﻌﺮﯾﻒ‪ ،‬ﮔﺸﺘﺎور ﻣﺸﺘﺮک ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ ‪ x‬و ‪ y‬ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‪:‬‬
‫∞‪+‬‬ ‫∞‪+‬‬
‫∫ ∫‬
‫‪k‬‬ ‫‪r‬‬
‫= ) ‪m kr = E( x y‬‬ ‫‪xk y r fxy (x, y)dxdy‬‬
‫∞‪−‬‬ ‫∞‪−‬‬

‫ﮔﺸﺘﺎور ﻣﺮﮐﺰی ﻣﺸﺘﺮک‪:‬‬


‫ﻃﺒﻖ ﺗﻌﺮﯾﻒ‪ ،‬ﮔﺸﺘﺎور ﻣﺮﮐﺰی ﻣﺸﺘﺮک ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ ‪ x‬و ‪ y‬ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‪:‬‬
‫∞‪+‬‬ ‫∞‪+‬‬
‫‪µxy‬‬ ‫= ‪= E ( x − η x )k ( y − η y )r ‬‬ ‫∫ ∫‬
‫∞‪−‬‬ ‫∞‪−‬‬
‫‪(x − η x )k (y − η y )r fxy (x, y)dxdy‬‬
‫ﮐﻪ ‪ k + r‬را ﻣﺮﺗﺒﮥ ﮔﺸﺘﺎور ﮔﻮﯾﻨﺪ و دارﯾﻢ‪:‬‬
‫‪m 11 = R xy‬‬ ‫‪, µ11 = cov( x , y ) = µxy‬‬ ‫‪, µ20 = σ x2‬‬ ‫… ‪,‬‬

‫‪33‬‬
:‫ﺗﺎﺑﻊ ﻣﻮﻟﺪ ﮔﺸﺘﺎور ﻣﺸﺘﺮک‬
+∞ +∞
Φ xy (s1 ,s 2 ) = E(e s1x + s2 y ) = ∫ ∫
−∞ −∞
e s1x + s2 y fxy (x, y)dxdy

∂ k ∂ r Φ(s1 ,s 2 )
= m kr
∂sk1 ∂sr2 s 1 ,s 2 = 0

:‫ﺗﺎﺑﻊ ﻣﺸﺨﺼﮥ ﻣﺸﺘﺮک‬


+∞ +∞
∫ ∫
j( ω1x +ω2 y )
Φ xy ( jω1 , jω2 ) = E(e )= e j( ω1x+ω2 y) fxy (x, y)dxdy
−∞ −∞
1 +∞ +∞
fxy (x, y) =
(2 π)2 ∫ ∫
−∞ −∞
e − j( ω1x +ω2 y) Φ xy ( jω1 , jω2 )dω1 dω2

34
‫ﺧﻮاص ﺗﺎﺑﻊ ﻣﺸﺨﺼﮥ ﻣﺸﺘﺮک‪) :‬ﺗﻮﺟﻪ داﺷﺘﻪ ﺑﺎﺷﯿﺪ ﮐﻪ ﺧﻮاص ﺗﺎﺑﻊ ﻣﻮﻟﺪ ﮔﺸﺘﺎور و ﺗﺎﺑﻊ ﻣﺸﺨﺼﻪ ﯾﮑﯽ ﻫﺴﺘﻨﺪ(‬
‫‪(1‬‬
‫‪k r‬‬
‫) ‪1 ∂ ∂ Φ xy ( jω1 , jω2‬‬
‫‪= m kr‬‬
‫‪jk + r‬‬ ‫‪∂ωk1 ∂ωr2‬‬
‫‪ω1 ,ω2 = 0‬‬

‫‪ (2‬ﺗﻮاﺑﻊ ﻣﺸﺨﺼﮥ ﺣﺎﺷﯿﻪای‪:‬‬


‫)‪Φ x ( jω) = Φ xy ( jω,0‬‬
‫)‪Φ y ( jω) = Φ xy (0, jω‬‬

‫‪ (3‬اﮔﺮ ‪ z = ax + by‬ﺑﺎﺷﺪ‪ ،‬آﻧﮕﺎه‪:‬‬


‫)‪Φ z ( jω) = E(e jωz ) = E(e j(aωx + bωy ) ) ⇒ Φ z ( jω) = Φ xy (aω, bω‬‬

‫اﮔﺮ ‪ z = ax + by + c‬ﺑﺎﺷﺪ‪ Φ xy (aω, bω) ،‬در ‪ e jωc‬ﻧﯿﺰ ﺿﺮب ﻣﯽﺷﻮد‪:‬‬


‫)‪Φ z ( jω) = e jωc Φ xy (aω, bω‬‬

‫‪35‬‬
:‫ اﮔﺮ و ﺗﻨﻬﺎ اﮔﺮ‬،‫ ﻣﺴﺘﻘﻠﻨﺪ‬y ‫ و‬x ‫( ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ‬4
Φ xy ( jω1 , jω2 ) = Φ x ( jω1 ) Φ y ( jω2 )

:‫ ﭘﺲ ﺧﻮاﻫﯿﻢ داﺷﺖ‬.‫ ﻧﯿﺰ ﻣﺴﺘﻘﻞ ﺑﻮده و ﻟﺬا ﻧﺎﻫﻤﺒﺴﺘﻪ ﻧﯿﺰ ﺧﻮاﻫﻨﺪ ﺑﻮد‬e jωy ‫ و‬e jωx ،‫ ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ‬y ‫ و‬x ‫زﯾﺮا اﮔﺮ‬
Φ xy ( jω1 , jω2 ) = E(e j( ω1x +ω2 y ) ) = E(e jω1x e jω2 y ) = E(e jω1x )E(e jω2 y ) = Φ x ( jω1 )Φ y ( jω2 )

:‫ دارﯾﻢ‬،‫ ﺑﺮﻗﺮار ﺑﺎﺷﺪ‬Φ xy ( jω1 , jω2 ) = Φ x ( jω1 ) Φ y ( jω2 ) ‫از ﻃﺮف دﯾﮕﺮ اﮔﺮ ﺗﺴﺎوی‬
1 +∞ +∞
fxy (x, y) =
( 2 π) 2 ∫ ∫
−∞ −∞
Φ xy ( jω1 , jω2 )e − j( ω1x+ω2 y )dω1dω2

 1 +∞  1 +∞ 
= ∫
 2 π −∞
Φ x ( jω1 )e − jω1xdω1 
 2 π ∫−∞
Φ y ( jω2 )e − jω2 ydω2 

= fx ( x) fy ( y)

:‫ آﻧﮕﺎه‬، z = x + y ‫ ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ و‬y ‫ و‬x ‫( اﮔﺮ‬5


Φ z ( jω) =Φ xy ( jω, jω) =Φ x ( jω)Φ y ( jω)

36
‫ﻣﺜﺎل ‪ :1‬اﮔﺮ ) ‪ x ∼ N(ηx ,σ x‬و ) ‪ y ∼ N(η y ,σ y‬ﺑﻮده و ‪ x‬و ‪ y‬ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ و ‪ ، z = x + y‬دارﯾﻢ‪:‬‬
‫‪σ x2 ω2‬‬ ‫‪σ y2 ω2‬‬ ‫‪(σ x2 +σ y2 ) ω2‬‬
‫‪jω η x −‬‬ ‫‪j ωη y −‬‬ ‫‪jω(ηx +η y )−‬‬
‫‪Φ z ( jω) =Φ x ( jω)Φ y ( jω) = e‬‬ ‫‪2‬‬ ‫‪e‬‬ ‫‪2‬‬ ‫‪=e‬‬ ‫‪2‬‬

‫ﯾﻌﻨﯽ ‪ z‬ﻫﻢ ﻧﺮﻣﺎل اﺳﺖ و دارﯾﻢ‪:‬‬


‫‪ηz =ηx +η y‬‬
‫‪σ z2 =σ x2 +σ y2‬‬
‫ﻗﻀﯿﻪای ﻫﺴﺖ ﮐﻪ ﻣﯽﮔﻮﯾﺪ اﻣﮑﺎن ﻧﺪارد ﻣﺠﻤﻮع دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﻣﺴﺘﻘﻞ ﻏﯿﺮﻧﺮﻣﺎل‪ ،‬ﻧﺮﻣﺎل ﺷﻮد‪ .‬اﻟﺒﺘﻪ اﮔﺮ ‪ x‬و ‪ y‬ﻣﺴﺘﻘﻞ ﻧﺒﺎﺷﻨﺪ‪ ،‬اﯾﻦ‬
‫اﻣﮑﺎن وﺟﻮد دارد )ﻣﺜﺎل در ﻓﺼﻞ ‪ ،7‬ﮐﺘﺎب ﻓﺮآﯾﻨﺪ ‪.(Papoulis‬‬

‫ﻗﻀﯿﻪ‪ :‬اﮔﺮ ‪ x‬و ‪ y‬ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ و ‪ x + y‬ﻧﺮﻣﺎل ﺑﺎﺷﺪ‪ x ،‬و ‪ y‬ﻧﺮﻣﺎل ﺧﻮاﻫﻨﺪ ﺑﻮد‪.‬‬
‫)اﺛﺒﺎت در ﮐﺘﺎب ‪(Lukacs‬‬

‫‪37‬‬
‫ﻣﺜﺎل ‪ :2‬اﮔﺮ )‪ x ∼ Binomial (n , p‬و )‪ y ∼ Binomial (m, p‬ﺑﻮده و ‪ x‬و ‪ y‬ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ و ‪ ، z = x + y‬ﺗﻮزﯾﻊ ‪ z‬را ﺑﯿﺎﺑﯿﺪ‪.‬‬
‫‪Φ x ( jω) = (pe jω + q ) n , Φ y ( jω) = (pe jω + q )m , q = 1 − p‬‬
‫‪Φ z ( jω) =Φ x ( jω)Φ y ( jω) = (pe jω + q ) n+m‬‬
‫ﯾﻌﻨﯽ‪:‬‬
‫)‪z∼ Binomial (n + m, p‬‬

‫اﻟﺒﺘﻪ اﯾﻦ اﻣﺮ ﮐﻪ ﮐﺎﻧﻮﻟﻮﺷﻦ ﯾﮏ ﺗﻮزﯾﻊ در ﺧﻮدش‪ ،‬ﺗﻮزﯾﻌﯽ از ﻧﻮع ﺧﻮدش ﺷﻮد‪ ،‬در ﻣﻌﺪود ﺗﻮاﺑﻌﯽ ﺻﺎدق اﺳﺖ‪.‬‬

‫‪38‬‬
‫ﺗﻮاﺑﻌﯽ از دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‪:‬‬
‫اﮔﺮ ﺗﺎﺑﻌﯽ از دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ داﺷﺘﻪ ﺑﺎﺷﯿﻢ‪ ،‬ﯾﻌﻨﯽ‪:‬‬
‫) ‪z = g ( x, y‬‬
‫‪ z‬ﺧﻮد ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ اﺳﺖ ﮐﻪ ﺑﺮای ﻫﺮ ﻧﻘﻄﻪ از ﻓﻀﺎی ﻧﻤﻮﻧﻪ ﻣﺜﻞ ‪ ω‬دارﯾﻢ‪:‬‬
‫))‪z(ω) = g (x (ω), y (ω‬‬

‫ﺑﺮای ﺑﻪ دﺳﺖ آوردن ﺗﻮزﯾﻊ ‪ ،z‬ﻣﯽﻧﻮﯾﺴﯿﻢ‪:‬‬


‫}‪Fz (z) = P{z ≤ z}= P{g (x, y ) ≤ z‬‬
‫اﮔﺮ ﻧﺎﺣﯿﻪای در ﺻﻔﺤﮥ ‪ x-y‬را ﮐﻪ ﺑﺮای آن ‪ g (x, y) ≤ z‬ﻣﯽﺷﻮد‪ D(z) ،‬ﺑﻨﺎﻣﯿﻢ‪ ،‬ﺧﻮاﻫﯿﻢ داﺷﺖ‪:‬‬
‫=})‪Fz (z) = P{(x, y )∈D(z‬‬ ‫∫∫‬
‫)‪D(z‬‬
‫‪fxy (x, y)dxdy‬‬

‫‪39‬‬
x2 +y2
1 −
:‫ دارﯾﻢ‬،‫ و ﻣﺴﺘﻘﻞ از ﻫﻢ( ﺑﺎﺷﻨﺪ‬N(0,σ ) ‫ ﻫﺮ ﯾﮏ‬y ‫ و‬x ‫ )ﯾﻌﻨﯽ‬fxy (x, y) = e 2σ 2 ‫ و‬z = x 2 + y 2 ‫ اﮔﺮ‬:1 ‫ﻣﺜﺎل‬
2 πσ 2
: z < 0 ‫ﺑﺮای‬
Fz (z) = P{z ≤ z}= 0
: z > 0 ‫ﺑﺮای‬
x2 + y 2
1 −
Fz (z) = P{x 2 + y 2 ≤ z}= ∫∫
D(z)
fxy ( x, y)dxdy = 2 ∫∫
2 πσ D ( z )
e 2σ 2 dxdy
D (z ) z
r2 z
1 2π z − −
=
2 πσ 2 ∫ ∫
0 0
e 2σ 2 rdr dθ= 1 − e 2σ 2

:‫ﭘﺲ‬
z

Fz (z) = (1 − e 2σ 2 ) u (z)
z
dFz (z) 1 − 2σ 2
fz (z) = = 2e u(z) : ‫ﺗﻮزﯾﻊ ﻧﻤﺎﯾﯽ‬
dz 2σ
(.‫ درﺟﻪ آزادی ﻣﯽﺷﺪ‬n ‫ ﺑﺎ‬χ 2 ،‫ ﺑﻮد‬z = x 12 + x 22 + + x 2n ‫ اﮔﺮ‬.‫ درﺟﻪ آزادی اﺳﺖ‬2 ‫ ﺑﺎ‬χ 2 ،σ = 1 ‫)ﺑﺮای‬
40
‫ﻣﺜﺎل ‪ z = x + y :2‬ﮐﻪ ‪ x‬و ‪ y‬ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ دﻟﺨﻮاه ﻫﺴﺘﻨﺪ‪ .‬دارﯾﻢ‪:‬‬
‫‪+∞ z− y‬‬ ‫‪y‬‬
‫=}‪Fz (z) = P{x + y ≤ z‬‬ ‫∫∫‬ ‫= ‪fxy (x, y)dxdy‬‬ ‫∫ ∫‬
‫∞‪−‬‬
‫‪fxy (x, y)dxdy‬‬
‫∞‪−‬‬
‫‪x + y≤z‬‬ ‫‪x+y=z‬‬
‫)‪dF (z‬‬ ‫∞‪+‬‬ ‫‪y+dy‬‬
‫= ‪fz (z) = z‬‬
‫‪dz‬‬ ‫∫‬‫∞‪−‬‬
‫‪fxy (z − y, y)dy‬‬ ‫‪y‬‬
‫‪x‬‬
‫‪z−y‬‬

‫ﺑﺮای ﯾﺎﻓﺘﻦ )‪ ،f(z‬ﺑﺎ ﻣﺸﺘﻖ ﮔﺮﻓﺘﻦ از اﻧﺘﮕﺮاﻟﻬﺎﯾﯽ ﮐﻪ ﺣﺪود آن ﺗﻮاﺑﻌﯽ از ‪ z‬ﻫﺴﺘﻨﺪ روﺑﺮو ﻣﯽﺷﻮﯾﻢ‪.‬‬

‫ﯾﺎدآوری از ﺣﺴﺎب دﯾﻔﺮاﻧﺴﯿﻞ و اﻧﺘﮕﺮال‪:‬‬


‫ﻗﺎﻋﺪۀ ﻻﯾﺒﻨﯿﺘﺰ‪:‬‬
‫∂‬ ‫)‪b(z‬‬ ‫‪db‬‬ ‫‪da‬‬ ‫)‪b(z‬‬ ‫∂‬
‫‪∂z‬‬ ‫)‪∫a(z‬‬ ‫= ‪g (x, z)dx‬‬
‫‪dz‬‬
‫‪g (b, z) − g (a, z) +‬‬
‫‪dz‬‬ ‫)‪∫a(z‬‬ ‫‪∂z‬‬
‫‪g (x, z)dx‬‬

‫‪41‬‬
‫ﺣﺎل اﮔﺮ ‪ x‬و ‪ y‬ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ و ‪ z = x + y‬ﺑﺎﺷﺪ‪ ،‬دارﯾﻢ‪:‬‬
‫∞‪+‬‬ ‫∞‪+‬‬
‫= )‪fz (z‬‬ ‫∫‬‫∞‪−‬‬
‫= ‪fx (z − y)fy ( y)dy‬‬ ‫∫‬
‫∞‪−‬‬
‫‪fy (z − x)fx (x)dx‬‬
‫ﯾﻌﻨﯽ ﮐﺎﻧﻮﻟﻮﺷﻦ ‪ fx‬و ‪ . fy‬ﻗﺒﻼً ﻫﻢ دﯾﺪه ﺑﻮدﯾﻢ ﮐﻪ اﮔﺮ ‪ x‬و ‪ y‬ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ و ‪ z = x + y‬ﺑﺎﺷﺪ‪ ،‬دارﯾﻢ‪:‬‬
‫‪Φ z ( jω) =Φ x ( jω)Φ y ( jω) → fz = fx ∗ fy‬‬

‫ﻣﺜﺎل‪ :‬اﮔﺮ )‪ R 1 ∼ u(900, 1100‬و )‪ R 2 ∼ u(900, 1100‬و ﻣﻘﺎدﯾﺮ ‪ R 1‬و ‪ R 2‬ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ‪ ،‬ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ ‪ R = R 1 + R 2‬را‬
‫ﺑﯿﺎﺑﯿﺪ‪.‬‬
‫‪fR1‬‬ ‫‪fR2‬‬ ‫‪fR‬‬
‫‪1‬‬ ‫‪1‬‬ ‫‪1‬‬
‫‪200‬‬ ‫‪200‬‬ ‫‪200‬‬

‫‪900 1100‬‬ ‫‪900 1100‬‬ ‫‪1800 2000 2200‬‬


‫ﺗﻮزﯾﻊ ﻣﺜﻠﺜﯽ )ﺳﯿﻤﺴﻮن ‪(Simpson‬‬

‫‪42‬‬
‫ﺑﻪ روش دﯾﮕﺮی ﻧﯿﺰ ﻣﯽﺗﻮاﻧﯿﻢ ﻣﺴﺘﻘﯿﻤﺎً ‪ fz‬را ﺑﻪ دﺳﺖ آورﯾﻢ‪:‬‬
‫) ‪z = g ( x, y‬‬
‫}‪fz (z)dz = P{z ≤ z ≤ z + dz}= P{z ≤ g (x, y ) ≤ z + dz‬‬
‫اﮔﺮ ﻧﺎﺣﯿﮥ دﯾﻔﺮاﻧﺴﯿﻠﯽ از ﺻﻔﺤﮥ ‪ x-y‬را ﮐﻪ در آن ‪ z ≤ g (x, y) ≤ z + dz‬اﺳﺖ‪ ∆D(z) ،‬ﺑﻨﺎﻣﯿﻢ‪ ،‬دارﯾﻢ‪:‬‬
‫=})‪fz (z)dz = P{( x, y )∈∆D(z‬‬ ‫∫∫‬
‫) ‪∆D ( z‬‬
‫‪fxy (x, y)dxdy‬‬

‫‪43‬‬
:‫ دارﯾﻢ‬،‫ ﻣﺴﺘﻘﻞ از ﻫﻢ ﺑﺎﺷﻨﺪ‬y ‫ و‬x ‫ و‬y ∼ N(0,σ ) ‫ و‬x ∼ N(0,σ ) ‫ و‬z = x 2 + y 2 ‫ اﮔﺮ‬:‫ﻣﺜﺎل‬
: z < 0 ‫ﺑﺮای‬
fz (z)dz = P{z ≤ z ≤ z + dz}= 0
: z > 0 ‫ﺑﺮای‬
x2 + y2
1 − ∆D(z)
∫∫ 2σ 2
2 2
fz (z)dz = P{z ≤ x + y ≤ z + dz}= 2
e dxdy
∆D ( z )
2 πσ
D (z )
z+dz −
r2  −
r2  z z+dz
1 2π  1 2π  1 z+dz
∫ ∫ ∫ ∫ dr 
2 2
= e 2σ rdr dθ=  dθ  2 re 2σ
2 πσ 2 0 z  2π 0  σ z 
 

z2 z+dz

z − 2 g (x)dx = g (z)dz :‫ زﯾﺮا‬،z ‫ ﺿﺮﺑﺪر ﻣﻘﺪار ﺗﺎﺑﻊ در ﻧﻘﻄﮥ‬dz ‫اﯾﻦ ﻋﺒﺎرت ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬
= 2
e 2σ dz z
σ

:‫ﯾﻌﻨﯽ‬
z2
z −
fz (z) = e 2σ 2 u ( z ) : ‫ﺗﻮزﯾﻊ راﯾﻠﯽ‬
2
σ
44
‫ﺣﺎل اﮔﺮ دو ﺗﺎﺑﻊ از ‪ x‬و ‪ y‬داﺷﺘﻪ ﺑﺎﺷﯿﻢ‪ ،‬ﯾﻌﻨﯽ‪:‬‬
‫) ‪z = g ( x, y‬‬
‫‪‬‬
‫) ‪ w = h ( x, y‬‬
‫ﻗﺒﻼً ﻓﻬﻤﯿﺪﯾﻢ ﮐﻪ ﭼﮕﻮﻧﻪ ﺗﺎﺑﻊ ﺗﻮزﯾﻊ )ﯾﺎ ﭼﮕﺎﻟﯽ( ﻫﺮ ﯾﮏ را ﺑﺎ داﺷﺘﻦ ‪ fxy‬ﺑﻪ دﺳﺖ آورﯾﻢ‪ .‬اﻣﺎ ‪ fzw‬ﭼﻪ ﺧﻮاﻫﺪ ﺑﻮد؟‬
‫ﺑﺎ ﺗﻌﻤﯿﻢ ﻗﻀﯿﻪای ﮐﻪ در ﺣﺎﻟﺖ ﺗﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ داﺷﺘﯿﻢ‪ ،‬ﻣﯽﺗﻮان ﻧﺸﺎن داد ﮐﻪ‪:‬‬

‫‪45‬‬
‫) ‪ z = g ( x, y‬‬
‫‪ ‬دارای رﯾﺸﻪﻫﺎی ) ‪ (x 2 , y 2 ) ، (x1 , y 1‬و ‪ ...‬ﺑﺎﺷﺪ‪ ،‬آﻧﮕﺎه‪:‬‬ ‫ﻗﻀﯿﻪ‪ :‬اﮔﺮ دﺳﺘﮕﺎه ﻣﻌﺎدﻻت‬
‫) ‪ w = h ( x, y‬‬
‫) ‪fxy (xi , y i‬‬
‫= )‪fzw (z, w‬‬ ‫‪∑i‬‬ ‫) ‪J(xi , yi‬‬
‫ﮐﻪ‪:‬‬
‫)‪ ∂g (x, y‬‬ ‫‪∂g (x, y) ‬‬
‫‪ ∂x‬‬ ‫‪∂y ‬‬
‫‪J(x, y) = det ‬‬ ‫‪‬‬
‫)‪ ∂h (x, y‬‬ ‫‪∂h (x, y) ‬‬
‫‪ ∂x‬‬ ‫‪∂y ‬‬
‫‪‬‬
‫اﺛﺒﺎت در ﺻﻔﺤﮥ ‪ 157‬ﮐﺘﺎب‪.‬‬

‫ﯾﺎ ﻣﻌﺎدﻻً ﻣﯽﺗﻮان ﻧﻮﺷﺖ‪:‬‬


‫‪ ∂xi ∂xi ‬‬
‫‪ ∂z ∂w ‬‬
‫= )‪fzw (z, w‬‬ ‫∑‬
‫‪i‬‬
‫‪fxy (xi (z, w), y i (z, w))|det ‬‬ ‫|‪‬‬
‫‪ ∂y i ∂y i ‬‬
‫‪ ∂z ∂w ‬‬
‫روﺷﻦ اﺳﺖ ﮐﻪ از اﯾﻦ روش ﻣﯽﺗﻮان ‪ fzw‬و از آﻧﺠﺎ ‪ fz‬ﯾﺎ ‪ fw‬را ﺑﻪ دﺳﺖ آورد )ﺑﻪ ﺟﺎی روﺷﻬﺎی ﮔﺬﺷﺘﻪ(‪.‬‬

‫‪46‬‬
x
‫؛‬w= ‫ و‬z = x 2 + y 2 :1 ‫ﻣﺜﺎل‬
y
z = x 2 + y 2

:‫ اﯾﻦ دﺳﺘﮕﺎه دو رﯾﺸﻪ دارد‬، z > 0 ‫ ﺑﺮای‬.‫ را ﺣﻞ ﻣﯽﮐﻨﯿﻢ‬ x ‫اﺑﺘﺪا دﺳﺘﮕﺎه‬
w =
 y
 zw  −zw
x
 1 = x
 2 =
2
 1+ w  1+ w2
 , 
y = z  y = −z
 1 1 + w 2 
2
1+ w2

 ∂ x2 + y2 ∂ x2 + y2 
   x y  x2
 ∂x ∂y   2 2 2 2 2
+1
J(x, y) = det   = det  x +y x +y 
=−
y
x x 
 ∂( ) ∂( )  1 −x  x2 + y2
 y y   
   y y2 
 ∂x ∂y 
1+ w2
⇒ J(x1 , y 1 ) = J(x 2 , y 2 ) =−
z
47
‫) ‪fxy (x1 , y 1 ) fxy ( x 2 , y 2‬‬
‫= )‪fzw (z, w‬‬ ‫‪+‬‬ ‫‪:z > 0‬‬
‫) ‪J(x1 , y1‬‬ ‫) ‪J(x 2 , y 2‬‬
‫‪z ‬‬ ‫‪zw‬‬ ‫‪z‬‬ ‫‪−zw‬‬ ‫‪−z‬‬ ‫‪‬‬
‫=‬ ‫‪f‬‬
‫‪2  xy‬‬
‫(‬ ‫‪,‬‬ ‫)‬ ‫‪+‬‬ ‫‪f‬‬‫‪xy‬‬ ‫(‬ ‫‪,‬‬ ‫)‬ ‫) ‪ u (z‬‬
‫‪1+ w ‬‬ ‫‪1+ w‬‬ ‫‪2‬‬
‫‪1+ w‬‬ ‫‪2‬‬
‫‪1+ w‬‬ ‫‪2‬‬ ‫‪2‬‬
‫‪1+ w ‬‬

‫‪x2 +y 2‬‬
‫‪1‬‬ ‫‪−‬‬
‫= )‪) fxy (x, y‬ﯾﻌﻨﯽ ‪ x‬و ‪ y‬ﻫﺮ دو ) ‪ N(0,σ‬و ﻣﺴﺘﻘﻞ از ﻫﻢ ﺑﺎﺷﻨﺪ(‪ ،‬دارﯾﻢ‪:‬‬ ‫‪e‬‬ ‫‪2σ 2‬‬ ‫ﻣﺜﻼً اﮔﺮ‬
‫‪2‬‬
‫‪2 πσ‬‬
‫‪z2‬‬
‫‪2z‬‬ ‫‪1‬‬ ‫‪−‬‬
‫= )‪fzw (z, w‬‬ ‫‪e‬‬ ‫) ‪2σ 2 u ( z‬‬
‫‪2‬‬ ‫‪2‬‬
‫‪1 + w 2 πσ‬‬
‫ﯾﻌﻨﯽ‪:‬‬

‫‪z2‬‬
‫‪1‬‬
‫‪z‬‬ ‫‪−‬‬
‫= )‪fz (z‬‬ ‫‪2‬‬
‫‪e‬‬ ‫) ‪2σ 2 u ( z‬‬ ‫ﺗﻮزﯾﻊ راﯾﻠﯽ ‪:‬‬ ‫و‬ ‫ﺗﻮزﯾﻊ ﮐﻮﺷﯽ ‪fw ( w) = π 2 :‬‬
‫‪σ‬‬ ‫‪1+ w‬‬
‫‪x‬‬
‫ﻧﯿﺰ ﻣﺴﺘﻘﻠﻨﺪ(‪.‬‬ ‫و‬ ‫ﭘﺲ ‪ z‬و ‪ w‬ﻣﺴﺘﻘﻞ ﻫﺴﺘﻨﺪ )ﺑﻨﺎﺑﺮاﯾﻦ اﮔﺮ ) ‪ x, y ∼ N(0,σ‬و ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ‪x 2 + y 2 ،‬‬
‫‪y‬‬

‫‪48‬‬
:‫ﯾﺎ از روش ﻣﻌﺎدل دارﯾﻢ‬
 ∂xi ∂xi 
 ∂z ∂w 
fzw (z, w) = ∑i
fxy ( xi , y i )|det 
 ∂y i
|
∂y i 
 ∂z ∂w 

:‫در اﯾﻨﺠﺎ‬
 w z 
 ∂x1 ∂x1   2 3  ∂x 2 ∂x 2 
 1 + w
 ∂z ∂w  (1 + w 2 ) 2  −z  ∂z ∂w 
det   = det  = = det  
 ∂y 1 ∂y 1   1 −zw  1 + w 2  ∂y 2 ∂y 2 
 ∂z ∂w   1+ w2 3  ∂z ∂w 
2 2
 (1 + w ) 

:‫ﻟﺬا‬
z  zw z −zw −z 
fzw (z, w) = f
 xy ( , ) + f ( , ) u (z )
1+ w2  2 2 xy 2 2 
1+ w 1+ w 1+ w 1+ w 

49
a a12  z  x  z = a 11x + a12 y
‫ ؛‬A =  11  ‫ﮐﻪ‬   = A   ‫ ﯾﺎ‬ ‫ ﺗﺒﺪﯾﻞ ﺧﻄﯽ‬:2 ‫ﻣﺜﺎل‬
 a 21a 22  w  y   w = a 21x + a 22 y
z x
:‫ اﯾﻦ دﺳﺘﮕﺎه ﯾﮏ رﯾﺸﻪ دارد‬، det(A ) ≠ 0 ‫ ﺑﺎ ﻓﺮض‬.‫ را ﺣﻞ ﻣﯽﮐﻨﯿﻢ‬  = A   ‫اﺑﺘﺪا دﺳﺘﮕﺎه‬
w y
x  z  −1 a 22
= B
 y  w  → B = A → b11 = ,
    a11a 22 − a12 a 21
:‫ﯾﻌﻨﯽ‬
x = b11z + b12 w

 y = b 21z + b 22 w

a a12  1
J( x, y) = det  11 = det(A ) = a a − a a =
a 21 a 22  11 22 12 21
det(B)

fxy (b11z + b12 w, b 21z + b 22 w)


fzw (z, w) =
det(A )
(.‫ ﺿﺮب ﻣﯽﺷﻮد‬det(B) ‫)در روش ﻣﻌﺎدل ﻫﻢ‬

50
‫‪z = x + y‬‬
‫‪ ، ‬دارﯾﻢ‪:‬‬ ‫ﻣﺜﻼً اﮔﺮ‬
‫‪w = x − y‬‬
‫‪‬‬ ‫‪z+w‬‬
‫‪x‬‬
‫‪ 1‬‬ ‫=‬
‫ﯾﮏ رﯾﺸﻪ ‪2 :‬‬ ‫‪1 1 ‬‬
‫‪‬‬ ‫و‬ ‫(‪det‬‬‫‪A‬‬ ‫)‬ ‫=‬ ‫‪det‬‬ ‫‪‬‬ ‫‪‬‬ ‫‪=−2‬‬
‫‪y = z − w‬‬ ‫‪1 −1‬‬
‫‪ 1‬‬ ‫‪2‬‬
‫‪1‬‬ ‫‪z+w z−w‬‬
‫( ‪⇒ fzw (z, w) = fxy‬‬ ‫‪,‬‬ ‫)‬
‫‪2‬‬ ‫‪2‬‬ ‫‪2‬‬

‫‪x2 + y2‬‬ ‫ﺑﺮای ﻣﺜﺎل اﮔﺮ ) ‪ x, y ∼ N(0,σ‬و ﻣﺴﺘﻘﻞ از ﻫﻢ ﺑﺎﺷﻨﺪ‪ ،‬ﺧﻮاﻫﯿﻢ داﺷﺖ‪:‬‬
‫‪1‬‬ ‫‪−‬‬
‫= )‪fxy (x, y‬‬ ‫‪e‬‬ ‫‪2σ 2‬‬
‫‪2 πσ 2‬‬
‫‪−‬‬
‫‪( z+ w ) 2 + ( z−w ) 2‬‬
‫‪−‬‬
‫‪z2 +w 2‬‬ ‫‪‬‬ ‫‪−‬‬
‫‪z2‬‬ ‫‪‬‬ ‫‪−‬‬
‫‪w2‬‬ ‫‪‬‬
‫‪1‬‬ ‫‪1‬‬ ‫‪2‬‬ ‫‪1‬‬ ‫‪2‬‬ ‫‪‬‬ ‫‪1‬‬ ‫) ‪2σ‬‬ ‫‪2‬‬
‫‪‬‬ ‫‪1‬‬ ‫‪2 ( 2 σ )2‬‬ ‫‪‬‬
‫× = )‪fzw (z, w‬‬ ‫‪e‬‬ ‫‪8σ‬‬ ‫=‬ ‫‪e‬‬ ‫‪4σ‬‬ ‫=‬ ‫(‪e 2‬‬ ‫‪e‬‬
‫‪2 2 πσ 2‬‬ ‫‪4 πσ 2‬‬ ‫‪ 2 π 2 σ‬‬ ‫‪‬‬
‫‪‬‬ ‫‪2‬‬ ‫‪π‬‬ ‫‪2‬‬ ‫‪σ‬‬ ‫‪‬‬
‫‪‬‬ ‫‪‬‬ ‫‪‬‬
‫ﯾﻌﻨﯽ ‪ z‬و ‪ w‬ﻫﺮ ﯾﮏ ) ‪ N(0, 2 σ‬ﺑﻮده و ﻣﺴﺘﻘﻞ از ﻫﻢ ﻫﺴﺘﻨﺪ‪ .‬ﯾﻌﻨﯽ ﺑﺮای ﺗﻮزﯾﻊ ﻧﺮﻣﺎل‪ ،‬اﮔﺮ ‪ x‬و ‪ y‬ﻣﺴﺘﻘﻞ ﺑﻮده ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل‬
‫ﯾﮑﺴﺎن ) ‪ N(0,σ‬داﺷﺘﻪ ﺑﺎﺷﻨﺪ‪ x + y ،‬و ‪ x − y‬ﻧﯿﺰ ﻣﺴﺘﻘﻞ و ﻧﺮﻣﺎل ﻫﺴﺘﻨﺪ‪.‬‬
‫ﮐﻼً ﺑﺎ ﺑﻪ دﺳﺖ آوردن ‪ fzw‬ﻣﯽﺗﻮاﻧﯿﻢ ﺗﻮاﺑﻊ ﭼﮕﺎﻟﯽ ﺣﺎﺷﯿﻪای را ﻧﯿﺰ ﺑﻪ دﺳﺖ آورﯾﻢ‪.‬‬

‫‪51‬‬
‫ﮔﺎﻫﯽ وﻗﺘﯽ ﮐﻪ ﻓﻘﻂ ﺑﺎ ﯾﮏ ﺗﺎﺑﻊ ) ‪ z = g ( x, y‬ﻣﻮاﺟﻬﯿﻢ و ﺑﺨﻮاﻫﯿﻢ از روی ‪ fz ، fxy‬را ﺑﻪ دﺳﺖ آورﯾﻢ‪ ،‬ﺑﻪ ﺟﺎی دو روﺷﯽ ﮐﻪ ﻗﺒﻼً‬
‫ﮔﻔﺘﯿﻢ‪ ،‬ﺑﻪ ﮐﺎر ﺑﺮدن ﻣﺘﻐﯿﺮ ﮐﻤﮑﯽ ‪ w‬و اﺳﺘﻔﺎده از ﻗﻀﯿﮥ ﻓﻮق ﻣﯽﺗﻮاﻧﺪ ﮐﻤﮏ ﮐﻨﺪ ﮐﻪ ‪ fz‬را از اﯾﻦ ﻃﺮﯾﻖ ﺑﻪ دﺳﺖ آورﯾﻢ‪.‬‬

‫ﭘﺲ روش دﯾﮕﺮ ﺑﺮای ﺑﻪ دﺳﺖ آوردن ﺗﻮزﯾﻊ ﯾﮏ ﺗﺎﺑﻊ از دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‪ ،‬اﺳﺘﻔﺎده از ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮐﻤﮑﯽ اﺳﺖ‪.‬‬

‫ﻣﺜﺎل‪ z = xy :‬؛‬
‫روش اول‪:‬‬
‫= )‪Fz (z‬‬ ‫‪∫∫ f‬‬
‫)‪D(z‬‬
‫‪xy ( x, y )dxdy‬‬

‫روش دوم‪:‬‬
‫= ‪fz (z)dz‬‬ ‫∫∫‬
‫) ‪∆D ( z‬‬
‫‪fxy ( x, y)dxdy‬‬

‫‪52‬‬
‫ ؛‬w = x ‫ اﺳﺘﻔﺎده از ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮐﻤﮑﯽ‬:‫روش ﺳﻮم‬
z = xy
:‫ ﻧﺘﯿﺠﻪ ﻣﯽدﻫﺪ‬ ‫ﺣﻞ دﺳﺘﮕﺎه‬
 w = x
x1 = w

 z
y =
 1 w
y x
J ( x, y ) = =− x ⇒ J (x1 , y 1 ) =− w
1 0
1 z
⇒ fzw (z, w) = fxy (w, )
w w
+∞ +∞ 1 z
⇒ fz (z) = ∫
−∞
fzw (z, w)dw = ∫
−∞ w
fxy (w, )dw
w

53
‫ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ ﻣﺸﺘﺮﮐﺎً ﻧﺮﻣﺎل‪:‬‬
‫ﺗﻌﺮﯾﻒ‪ x :‬و ‪ y‬ﻣﺸﺘﺮﮐﺎً ﻧﺮﻣﺎل ﻫﺴﺘﻨﺪ‪ ،‬اﮔﺮ ‪ z = ax + by‬ﺑﺮای ﻫﺮ ‪ a‬و ‪ b‬ﻧﺮﻣﺎل ﺑﺎﺷﺪ‪.‬‬

‫ﻧﺘﯿﺠﻪ‪ :‬اﮔﺮ ‪ x‬و ‪ y‬ﻣﺸﺘﺮﮐﺎً ﻧﺮﻣﺎل ﺑﺎﺷﻨﺪ‪ x ،‬و ‪ y‬ﻫﺮ ﮐﺪام ﻧﺮﻣﺎل ﻫﺴﺘﻨﺪ‪.‬‬

‫وﻟﯽ ﻋﮑﺲ اﯾﻦ ﻣﻄﻠﺐ ﻟﺰوﻣﺎً ﺻﺤﯿﺢ ﻧﯿﺴﺖ )ﻣﺜﺎل ﻧﻘﺾ در ﻓﺼﻞ ‪ 6‬ﮐﺘﺎب ﻓﺮآﯾﻨﺪ ‪ .(Papoulis‬ﻣﺜﻼً ﻣﻤﮑﻦ اﺳﺖ ‪ x‬و ‪ y‬ﻫﺮ ﮐﺪام ﻧﺮﻣﺎل‬
‫ﺑﺎﺷﻨﺪ‪ ،‬وﻟﯽ ‪ x + y‬ﻧﺮﻣﺎل ﻧﺒﺎﺷﺪ )ﻣﺜﺎل در ﻓﺼﻞ ‪ 7‬ﮐﺘﺎب ﻓﺮآﯾﻨﺪ ‪ .(Papoulis‬ﺗﻮﺟﻪ ﮐﻨﯿﺪ ﮐﻪ ﻣﻤﮑﻦ اﺳﺖ ‪ x‬و ‪ y‬و ‪ x + y‬ﻫﺮ ﺳﻪ‬
‫ﻧﺮﻣﺎل ﺑﺎﺷﻨﺪ‪ ،‬وﻟﯽ ‪ x‬و ‪ y‬ﺑﺎز ﻫﻢ ﻣﺸﺘﺮﮐﺎً ﻧﺮﻣﺎل ﻧﺒﺎﺷﻨﺪ )ﻣﺜﺎل در ﻓﺼﻞ ‪ 7‬ﮐﺘﺎب ﻓﺮآﯾﻨﺪ ‪.(Papoulis‬‬

‫ﻗﻀﯿﻪ‪ :‬اﮔﺮ ‪ x‬و ‪ y‬ﻫﺮ ﮐﺪام ﻧﺮﻣﺎل ﺑﻮده و ﻣﺴﺘﻘﻞ از ﻫﻢ ﺑﺎﺷﻨﺪ‪ ،‬ﻣﺸﺘﺮﮐﺎً ﻧﺮﻣﺎل ﺧﻮاﻫﻨﺪ ﺑﻮد )ﯾﻌﻨﯽ ﻋﮑﺲ ﻧﺘﯿﺠﮥ ﻓﻮق در ﺣﺎﻟﺖ اﺳﺘﻘﻼل‬
‫‪ x‬و ‪ y‬ﺻﺎدق اﺳﺖ(‪ .‬ﺑﺮای اﺛﺒﺎت اﯾﻦ ﻗﻀﯿﻪ‪ ،‬ﺑﻪ ﺳﺎدﮔﯽ ﻣﯽﺗﻮان از ﻃﺮﯾﻖ ﺑﻪ دﺳﺖ آوردن ﺗﺎﺑﻊ ﻣﺸﺨﺼﮥ ‪ z = ax + by‬ﻧﺸﺎن داد ﮐﻪ ‪z‬‬
‫ﺑﺮای ﻫﺮ ‪ a‬و ‪ b‬ﻧﺮﻣﺎل ﺧﻮاﻫﺪ ﺑﻮد‪ .‬ﻣﺎﻧﻨﺪ ﮐﺎری ﮐﻪ در ﻣﺜﺎل ‪ ،1‬ﺻﻔﺤﮥ ‪ 37‬ﻫﻤﯿﻦ ﻓﺼﻞ ﺑﺮای ‪ z = x + y‬ﮐﺮدﯾﻢ‪:‬‬
‫‪( a 2σ x2 +b 2σ y2 ) ω2‬‬
‫‪jω( aηx +bη y )−‬‬
‫‪Φ z ( jω) =Φ x (ajω)Φ y ( bjω) = e‬‬ ‫‪2‬‬

‫‪54‬‬
‫ﻗﻀﯿﻪ‪ x :‬و ‪ y‬ﻣﺸﺘﺮﮐﺎً ﻧﺮﻣﺎل ﻫﺴﺘﻨﺪ‪ ،‬اﮔﺮ و ﺗﻨﻬﺎ اﮔﺮ‪:‬‬

‫‪1‬‬ ‫‪‬‬ ‫‪1‬‬ ‫‪ (x −η ) 2‬‬ ‫(‬ ‫‪x‬‬ ‫‪−‬‬‫‪η‬‬ ‫‪x‬‬ ‫()‬ ‫‪y‬‬ ‫‪−‬‬‫‪η‬‬ ‫‪y‬‬ ‫)‬ ‫(‬ ‫‪y‬‬ ‫‪−‬‬‫‪η‬‬ ‫‪y‬‬ ‫)‬ ‫‪2 ‬‬
‫‪‬‬
‫‪x‬‬
‫= )‪fxy (x, y‬‬ ‫‪exp −‬‬ ‫‪‬‬ ‫‪−‬‬ ‫‪2r‬‬ ‫‪+‬‬ ‫‪‬‬ ‫‪‬‬
‫‪2 πσ xσ y‬‬ ‫‪1− r‬‬ ‫‪2‬‬ ‫‪2‬‬
‫‪ 2 (1 − r )  σ x‬‬
‫‪2‬‬
‫‪σ‬‬ ‫‪σ‬‬
‫‪x y‬‬
‫‪2‬‬
‫‪σ y  ‬‬
‫ﯾﺎ ﻣﻌﺎدﻻً‪:‬‬
‫‪1 2 2‬‬ ‫‪2 2‬‬
‫) ‪j ( ω1ηx +ω2η y‬‬ ‫‪−‬‬ ‫(‬‫‪σ‬‬ ‫‪x‬‬ ‫‪ω‬‬‫‪1‬‬ ‫‪+‬‬ ‫‪2r‬‬‫‪σ‬‬ ‫‪x‬‬‫‪σ‬‬ ‫‪y‬‬ ‫‪ω‬‬‫‪1‬‬ ‫‪ω‬‬‫‪2‬‬ ‫‪+‬‬‫‪σ‬‬ ‫‪y‬‬ ‫) ‪ω2‬‬
‫‪Φ xy ( jω1 , jω2‬‬ ‫‪)=e‬‬ ‫‪e 2‬‬
‫اﺛﺒﺎت در ﺻﻔﺤﺎت ‪ 162‬و ‪ 163‬ﮐﺘﺎب‪.‬‬

‫ﯾﻌﻨﯽ ﺑﺮای ﺗﻮزﯾﻊ ﻧﺮﻣﺎل‪ 5 ،‬ﭘﺎراﻣﺘﺮ ‪ η y ،η x ،σ y ،σ x‬و ‪ r‬ﺑﻪ ﻃﻮر ﮐﺎﻣﻞ ﺗﻮزﯾﻊ ﻣﺸﺘﺮک ‪ x‬و ‪ y‬را ﻣﺸﺨﺺ ﻣﯽﮐﻨﻨﺪ )اﮐﻨﻮن اﺛﺒﺎت‬
‫راﺣﺖﺗﺮ ﺑﺮای اﯾﻨﮑﻪ اﮔﺮ ‪ x‬و ‪ y‬ﻧﺮﻣﺎل و ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ‪ ،‬ﻣﺸﺘﺮﮐﺎً ﻧﺮﻣﺎل ﺧﻮاﻫﻨﺪ ﺑﻮد‪ ،‬اﯾﻦ اﺳﺖ ﮐﻪ ‪ ، fxy = fx fy‬ﻓﺮم ‪ fxy‬ﮔﻮﺳﯽ را دارد(‪.‬‬

‫‪55‬‬
‫ﺗﻌﺮﯾﻒ ﻣﻌﺎدل‪ x :‬و ‪ y‬ﻣﺸﺘﺮﮐﺎً ﻧﺮﻣﺎل ﻫﺴﺘﻨﺪ‪ ،‬ﻫﺮﮔﺎه ‪ fxy‬ﺑﻪ ﺻﻮرت ) ‪ Ae − Q ( x , y‬ﺑﺎﺷﺪ ﮐﻪ )‪ Q ( x, y‬ﻓﺮم درﺟﮥ دوم ﻣﻌﯿﻦ ﻣﺜﺒﺖ‬
‫اﺳﺖ‪ ،‬ﯾﻌﻨﯽ‪:‬‬
‫‪Q(x, y) = ax 2 + bxy + cy 2 + dx + ey + f‬‬
‫ﺑﻪ ﻃﻮری ﮐﻪ ﺑﺮای ﻫﺮ ‪ x‬و ‪ y‬داﺷﺘﻪ ﺑﺎﺷﯿﻢ‪. Q( x, y) ≥ 0 :‬‬
‫اﺛﺒﺎت ﻣﻌﺎدل ﺑﻮدن اﯾﻦ ﺗﻌﺮﯾﻒ ﺑﺎ ﺗﻌﺮﯾﻒ ﻗﺒﻠﯽ در ﮐﺘﺎب‪ ،‬ﺻﻔﺤﮥ ‪ 163‬اﺳﺖ‪.‬‬

‫ﻗﻀﯿﻪ‪ :‬اﮔﺮ ‪ x‬و ‪ y‬ﻣﺸﺘﺮﮐﺎً ﻧﺮﻣﺎل ﺑﻮده و ﻧﺎﻫﻤﺒﺴﺘﻪ ﻧﯿﺰ ﺑﺎﺷﻨﺪ )‪ ، (r = 0‬آﻧﮕﺎه ﻣﺴﺘﻘﻞ ﺧﻮاﻫﻨﺪ ﺑﻮد‪.‬‬
‫اﺛﺒﺎت‪:‬‬
‫‪1  ( x−ηx )2 ( y−η y ) ‬‬
‫‪2‬‬
‫‪− ‬‬ ‫‪+‬‬ ‫‪‬‬
‫‪1‬‬ ‫‪2  σ x2‬‬
‫‪‬‬ ‫‪σ‬‬ ‫‪2‬‬ ‫‪‬‬
‫‪‬‬
‫= )‪r = 0 ⇒ fxy ( x, y‬‬ ‫‪e‬‬ ‫‪y‬‬
‫)‪= fx (x)fy ( y‬‬
‫‪2 πσ xσ y‬‬

‫ﻣﯽداﻧﯿﻢ ﮐﻪ در ﺣﺎﻟﺖ ﮐﻠﯽ‪ :‬اﺳﺘﻘﻼل ⇐ ﻧﺎﻫﻤﺒﺴﺘﮕﯽ‪ ،‬اﻣﺎ‪ :‬ﻧﺎﻫﻤﺒﺴﺘﮕﯽ ‪/‬‬


‫⇐ اﺳﺘﻘﻼل؛‬
‫وﻟﯽ در ﻣﻮرد ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ ﻣﺸﺘﺮﮐﺎً ﻧﺮﻣﺎل دارﯾﻢ‪ :‬اﺳﺘﻘﻼل ⇔ ﻧﺎﻫﻤﺒﺴﺘﮕﯽ‪.‬‬

‫‪56‬‬
‫‪z = a11x + a 12 y‬‬
‫‪ ، ‬آﻧﮕﺎه ‪ z‬و ‪ w‬ﻧﯿﺰ ﻣﺸﺘﺮﮐﺎً ﻧﺮﻣﺎل ﺧﻮاﻫﻨﺪ ﺑﻮد‪.‬‬ ‫ﻗﻀﯿﻪ‪ :‬اﮔﺮ ‪ x‬و ‪ y‬ﻣﺸﺘﺮﮐﺎً ﻧﺮﻣﺎل ﺑﻮده و‬
‫‪ w = a 21x + a 22 y‬‬
‫اﺛﺒﺎت در ﮐﺘﺎب‪ ،‬ﺻﻔﺤﮥ ‪) 163‬از ﻃﺮﯾﻖ ‪ fzw‬و ﮐﻮادراﺗﯿﮏ ﺑﻮدن ﯾﺎ ﻣﯽﺗﻮان از ﻃﺮﯾﻖ ‪ Φ zw‬اﺛﺒﺎت ﮐﺮد ﯾﺎ ﻣﯽﮔﻮﯾﯿﻢ ﻫﺮ ﺗﺮﮐﯿﺐ ﺧﻄﯽ از‬
‫‪ z‬و ‪ ،w‬ﯾﮏ ﺗﺮﮐﯿﺐ ﺧﻄﯽ از ‪ x‬و ‪ y‬ﺧﻮاﻫﺪ ﺑﻮد‪ ،‬ﭘﺲ ﻧﺮﻣﺎل اﺳﺖ(‪.‬‬

‫‪57‬‬

You might also like