Professional Documents
Culture Documents
Chapter 5
Chapter 5
Chapter 5
y ﺣﺎل ﻣﯽﺗﻮان ﺑﺎ در ﻧﻈﺮ ﮔﺮﻓﺘﻦ زوج ﻣﺮﺗﺐﻫﺎی ) ، (xi , y iاﺣﺘﻤﺎل واﻗﻌﻪﻫﺎﯾﯽ ﻣﺜﻞ } { x = x1 , y = y 1ﯾﺎ
} { x ≤ x0 , y ≤ y 0و ﺑﻪ ﻃﻮر ﮐﻠﯽ ) {( x , y )} ∈ Dﯾﻌﻨﯽ ( { ω : ( x(ω), y(ω))} ∈ Dرا ﻣﻄﺮح ﮐﺮد.
D
x
در ﺣﺎﻟﺖ ﮐﻠﯽ ﺑﺎ ﺻﺮف داﺷﺘﻦ ﺗﻮزﯾﻊ xو ﺗﻮزﯾﻊ ،yاﺣﺘﻤﺎل اﯾﻦ واﻗﻌﻪﻫﺎ )دو ﺑﻌﺪی( ﻣﺸﺨﺺ ﻧﻤﯽﺷﻮد )ﻣﮕﺮ آﻧﮑﻪ xو yﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ
ﮐﻪ ﺑﻌﺪاً ﺧﻮاﻫﯿﻢ دﯾﺪ( و ﺑﺮای ﻣﺸﺨﺺ ﮐﺮدن اﺣﺘﻤﺎل اﯾﻦ واﻗﻌﻪﻫﺎ ﺑﻪ اﺑﺰارﻫﺎی ﺟﺪﯾﺪی ﻧﯿﺎز دارﯾﻢ.
1
ﺗﺎﺑﻊ اﺣﺘﻤﺎل ﻣﺸﺘﺮک ):(Joint Probability Function or Joint pmf
اﮔﺮ xو yﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ﺑﺎﺷﻨﺪ ،آﻧﮕﺎه:
اﮔﺮ ﻣﻘﺎدﯾﺮ ﻣﻤﮑﻨﻪ ﺑﺮای x 3 ، x 2 ، x1 ،xو ...و ﺑﺮای y 3 ، y 2 ، y 1 ،yو ...ﺑﺎﺷﻨﺪ ،دارﯾﻢ:
pij x = xi , y = yi
Pxy (x, y) =
0 otherwise
∑∑ P
i j
= ) xy (x i , y j ∑∑ p
i j
ij =1
2
از ﻃﺮف دﯾﮕﺮ ﭼﻮن ﻣﯽداﻧﯿﻢ ﮐﻪ:
= } { x = xi } ∪ { x = xi , y = y j
j
ﭘﺲ:
= } P{ x = xi } ∑j P{x = xi , y = y j
2
دارﯾﻢ: و ﺑﺮای ﻫﺮ زﯾﺮ ﻣﺠﻤﻮﻋﮥ Dاز
= }P{( x, y ) ∈ D ∑
(xi ,y j )∈D
) P(xi , y j
3
ﻣﺜﺎل :ﺗﺎﺳﯽ را ﻣﯽاﻧﺪازﯾﻢ و ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ xو yرا ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽﮐﻨﯿﻢ:
0 i < 4 i iزوج
x(fi ) = و y(fi ) =
1 i ≥ 4 0 iﻓﺮد
xﻣﯽﺗﻮاﻧﺪ دو ﻣﻘﺪار 0و 1را داﺷﺘﻪ ﺑﺎﺷﺪ y .ﻧﯿﺰ ﻣﯽﺗﻮاﻧﺪ ﭼﻬﺎر ﻣﻘﺪار 4 ،2 ،0و 6را اﺧﺘﯿﺎر ﮐﻨﺪ .ﭘﺲ:
)P(x, y
)1 → (0,0 )4 → (1, 4
2
)2 → (0, 2 )5 → (1,0
6
1
)3 → (0,0 )6 → (1,6
6
1 1 )از 8ﺗﺎ 5 ، pijﺗﺎ ﻏﯿﺮ ﺻﻔﺮ ﻫﺴﺘﻨﺪ(.
1 6 6
6 0 2 4 6 y
1
x
ﺗﻮاﺑﻊ اﺣﺘﻤﺎل xو yﺑﻪ ﺻﻮرت زﯾﺮ ﻫﺴﺘﻨﺪ:
3
6
3
6
3
6
)Py ( y
)Px ( x 1 1 1
6 6 6
x y
0 1 0 2 4 6
4
در ﺣﺎﻟﺖ ﭘﯿﻮﺳﺘﻪ P{ x = xi , y = y j } ،ﺻﻔﺮ اﺳﺖ و ﻟﺬا ﺗﺎﺑﻊ اﺣﺘﻤﺎل ،ﻣﺸﺨﺺﮐﻨﻨﺪۀ اﺣﺘﻤﺎل واﻗﻌﻪﻫﺎ ﻧﯿﺴﺖ.
ﻟﺬا CDFﻣﺸﺘﺮک و pdfﻣﺸﺘﺮک را ﻣﻌﺮﻓﯽ ﻣﯽﮐﻨﯿﻢ.
5
: ﻣﺸﺘﺮکCDF ﺑﺮﺧﯽ ﺧﻮاص
1) Fxy ( −∞ , −∞ ) = 0 , Fxy ( −∞ , y) = 0 , Fxy (x, −∞ ) = 0 , Fxy ( +∞ , +∞ ) = 1
6
و ﺳﺮاﻧﺠﺎم ﺧﻮاﻫﯿﻢ داﺷﺖ:
} P{x1 < x ≤ x 2 , y 1 < y ≤ y 2 y2
} = P{x1 < x ≤ x 2 , y ≤ y 2 } − P{x1 < x ≤ x 2 , y ≤ y 1
)} = (P{ x ≤ x 2 , y ≤ y 2 } − P{ x ≤ x1 , y ≤ y 2 }) − (P{ x ≤ x 2 , y ≤ y 1 } − P{ x ≤ x1 , y ≤ y 1 y1
) = Fxy (x 2 , y 2 ) − Fxy (x1 , y 2 ) − Fxy (x 2 , y 1 ) + Fxy (x1 , y 1 x1 x2
ﭘﺲ از ﺟﻤﻠﻪ ﺧﻮاص ﺗﺎﺑﻊ Fاﯾﻦ اﺳﺖ ﮐﻪ ﻣﺠﻤﻮع ﻓﻮق ﺑﺮای ﻫﺮ y 1 ، x 2 ، x1و y 2ﮐﻪ x 2 > x1و ، y 2 > y 1ﻧﺎﻣﻨﻔﯽ اﺳﺖ.
ﯾﻌﻨﯽ اﮔﺮ x1 < x 2و ، y 1 < y 2دارﯾﻢ:
Fxy (x 2 , y 2 ) − Fxy (x1 , y 2 ) − Fxy (x 2 , y 1 ) + Fxy (x1 , y 1 ) ≥ 0
ﺗﻮﺟﻪ ﮐﻨﯿﺪ ﮐﻪ اﮔﺮ xو yﭘﯿﻮﺳﺘﻪ ﺑﺎﺷﻨﺪ ،آﻧﮕﺎه . P{ x = x, y = y} = 0 :ﯾﻌﻨﯽ ﯾﮏ ﻧﻘﻄﮥ ﺗﻨﻬﺎ اﺣﺘﻤﺎﻟﯽ ﻧﺪارد .ﻫﻤﭽﻨﯿﻦ دارﯾﻢ:
. P{ x = x} = 0ﯾﻌﻨﯽ ﯾﮏ ﺧﻂ ﻫﻢ اﺣﺘﻤﺎﻟﯽ ﻧﺪارد و ﺣﺘﻤﺎً ﺑﺎﯾﺪ ﻧﺎﺣﯿﮥ Dﺳﻄﺤﯽ ﻏﯿﺮﺻﻔﺮ ﺑﺎﺷﺪ.
7
ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﻣﺸﺘﺮک ):(Joint pdf
ﻃﺒﻖ ﺗﻌﺮﯾﻒ:
)∂ 2 Fxy (x, y
= )fxy (x, y
∂x∂y
اﮔﺮ Dرا ﻧﺎﺣﯿﮥ x ≤ x0و y ≤ y 0در ﻧﻈﺮ ﺑﮕﯿﺮﯾﻢ و ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﺗﻌﺮﯾﻒ CDFدارﯾﻢ:
x y
= )Fxy (x, y ∫ ∫
∞−∞ −
}f(u, v)dudv = P{ x ≤ x, y ≤ y
8
ﺑﻪ ﻋﻨﻮان ﺣﺎﻟﺖ ﺧﺎص ﻧﯿﺰ ﺧﻮاﻫﯿﻢ داﺷﺖ:
∞+ ∞+
∫ ∫
∞− ∞−
f(x, y)dxdy = F( +∞ , +∞ ) = 1
x x+dx
9
c (1 − x − y ) 0 < x + y < 1
2 2 2 2
2 1 2
fxy (x, y) = ﺑﺎﺷﺪ ،ﻣﻘﺪار ،cﺗﺎﺑﻊ ) fx (xو ﻣﻘﺪار } < P{x + yرا ﻣﺜﺎل :اﮔﺮ
2 0
2
x +y >12
ﻣﺤﺎﺳﺒﻪ ﻧﻤﺎﯾﯿﺪ.
∞+ ∞+
∫ ∫
∞− ∞−
f(x, y)dxdy = 1 + 1 − x2
2π 1 2
∫∫ ⇒ c(1 − x 2 − y 2 )dxdy = 1 ⇒ c ∫ ∫ = (1 − r 2 )rdr dθ = 1 ⇒ c x
روی داﯾﺮۀ واﺣﺪ
0 0 π
− 1 − x2
10
+ 1− x 2 3
2 8
fx (x) =∫
+∞
fxy (x, y)dy = ∫ π
(1 − x 2 − y 2 )dy =
3π
(1 − x 2 ) 2 −1 < x < 1
−∞ − 1− x 2
0 x >1
2
1 2 2π 2 3
P{x 2 + y 2 < } =
2 ∫∫ π
(1 − x 2 − y 2 )dxdy = ∫0 ∫0
2
π
(1 − r 2 )rdrdθ =
4
روی داﯾﺮه ﺑﻪ
2 ﺷﻌﺎع
2
11
اﮔﺮ xو yﻫﺮ دو ﮔﺴﺴﺘﻪ ﺑﺎﺷﻨﺪ pdf ،ﯾﮏ ﺳﺮی δﺧﻮاﻫﺪ ﺑﻮد )δی دوﺑُﻌﺪی( و ﻧﻘﺎط ﺗﻨﻬﺎ اﺣﺘﻤﺎل دارﻧﺪ )ﺟﺮم ﻧﻘﻄﻪای(.
دارﯾﻢ:
)δ(x − a, y − b) = δ(x − a) δ(y − b z
)δ(x−a,y−b
12
ﺑﺮای xو yﮔﺴﺴﺘﻪ )ﺟﺮم ﻧﻘﻄﻪای( دارﯾﻢ:
= )fxy (x, y ∑∑
i j
ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ pij δ(x − xi , y − y j ) :
2
6
1
6
1 1
1 6 6
6 0 2 4 6 y
1
x
اﮔﺮ از دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ،ﯾﮑﯽ ﭘﯿﻮﺳﺘﻪ و دﯾﮕﺮی ﮔﺴﺴﺘﻪ ﺑﺎﺷﺪ ،اﺣﺘﻤﺎل ﻓﻘﻂ در ﯾﮏ ﺳﺮی ﺻﻔﺤﺎت ﺧﻮاﻫﯿﻢ داﺷﺖ )ﺟﺮم ﺧﻄﯽ(.
13
ﻣﺜﻼً اﮔﺮ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ xاز ﻧﻮع ﮔﺴﺴﺘﻪ ﺑﻮده و دارای ﺗﻮزﯾﻊ زﯾﺮ ﺑﺎﺷﺪ:
1
= }P{ x = 0} = P{ x = 1
2
وﻟﯽ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ yاز ﻧﻮع ﭘﯿﻮﺳﺘﻪ و دارای ﺗﻮزﯾﻊ ﻧﺮﻣﺎل زﯾﺮ ﺑﺎﺷﺪ:
y2
1 −
= )fy (y e 2
2π
ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ ﻣﺸﺘﺮک آﻧﻬﺎ ﺑﺮاﺑﺮ ﺧﻮاﻫﺪ ﺑﻮد ﺑﺎ:
1 y2
1 1 −
= )fxy (x, y ∑
i =0 2
)δ(x − i
2π
e 2
0.5
z
0.4
0.3
0.2
0.1
y
3
2
x
1 3
0 2
-1 1
0
-2 -1
-3 -2
14
ﻣﻤﮑﻦ اﺳﺖ xو yﻫﺮ دو ﭘﯿﻮﺳﺘﻪ ﺑﺎﺷﻨﺪ ،وﻟﯽ ﺟﺮم ﺧﻄﯽ داﺷﺘﻪ ﺑﺎﺷﯿﻢ.
اﮔﺮ ) y = g( xﺑﺎﺷﺪ ،ﮐﻠﯿﮥ ﻧﻘﺎط ﺑﻪ ﻏﯿﺮ از )) (x,g(xاﺣﺘﻤﺎل ﺻﻔﺮ دارﻧﺪ ،ﯾﻌﻨﯽ:
))fxy (x, y) = fx (x) δ(y − g(x )fx (x) = g(x )y = sin(x
z
0.4
0.35
0.3
0.25
0.2
0.15
0.1
0.05
y
-2
-1 x
0 -2 -3
-1
1 1 0
2 3 2
ﮐﻼً اﮔﺮ زوج ) (x, yﻫﺎی ﻣﻤﮑﻨﻪ روی ﯾﮏ ﻣﻨﺤﻨﯽ در ﺻﻔﺤﮥ xyﻗﺮار داﺷﺘﻪ ﺑﺎﺷﻨﺪ ،اﯾﻦ ﺣﺎﻟﺖ ﭘﯿﺶ ﻣﯽآﯾﺪ.
15
ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ ﻣﺴﺘﻘﻞ:
دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ xو yرا ﻣﺴﺘﻘﻞ ﮔﻮﯾﻨﺪ ،ﻫﺮﮔﺎه ﺑﺮای ﻫﺮ xو ،yواﻗﻌﻪﻫﺎی } { x ≤ xو } { y ≤ yﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ ،ﯾﻌﻨﯽ:
}P{ x ≤ x, y ≤ y} = P{ x ≤ x}P{ y ≤ y
ﯾﺎ ﺑﻪ ﻋﺒﺎرت دﯾﮕﺮ:
)Fxy (x, y) = Fx (x)Fy (y
∂2
ﺑﮕﯿﺮﯾﻢ(: ﯾﺎ ﻣﻌﺎدﻻً )اﮔﺮ از دو ﻃﺮف
∂x∂y
)fxy (x, y) = fx (x)fy (y
)اﮔﺮ ﻫﺮ ﯾﮏ از ﺷﺮوط ﻓﻮق ﺑﺮﻗﺮار ﺑﺎﺷﺪ ،واﻗﻌﻪﻫﺎی } { x ∈ Dو } { y ∈ D′ﺑﺮای ﻫﺮ Dو D′ﻣﺴﺘﻘﻞ ﺧﻮاﻫﻨﺪ ﺑﻮد(.
16
2 2 2 2 2
(1 − x − y ) 0 < x + y < 1
، fxy (x, y) = πﺗﺎﺑﻊ ) fxy (x, yﻗﺎﺑﻞ ﻧﻮﺷﺘﻦ ﻣﺜﺎل :در ﻣﺜﺎﻟﯽ ﮐﻪ داﺷﺘﯿﻢ ،ﯾﻌﻨﯽ:
0 x2 + y2 > 1
ﺑﻪ ﺻﻮرت ﺗﺎﺑﻌﯽ از xﺿﺮﺑﺪر ﺗﺎﺑﻌﯽ از yﻧﯿﺴﺖ .در ﻧﺘﯿﺠﻪ xو yﻣﺴﺘﻘﻞ ﻧﯿﺴﺘﻨﺪ.
17
x2 + y2
1 −
= ) fxy (x, y؛ e 2σ 2 ﻣﺜﺎل:
2
2 πσ
x2
− 2 −
y2
1 1 e 2σ 2 ) = f (x)f (y
= )fxy (x, y e 2σ
2π σ 2π σ x y
ﭘﺲ xو yﻣﺴﺘﻘﻞ ﺑﻮده و ﻫﺮ دو ) N(0,σﻫﺴﺘﻨﺪ.
ﺗﻌﺮﯾﻒ :ﮔﻮﯾﯿﻢ fxyدارای ﺗﻘﺎرن داﯾﺮوی ) (Circular Symmetryاﺳﺖ ،ﻫﺮﮔﺎه ) fxy (x, yﺻﺮﻓﺎً ﺗﺎﺑﻌﯽ از ﻓﺎﺻﻠﮥ ) (x, yاز ﻣﺒﺪأ
ﺑﺎﺷﺪ .ﯾﻌﻨﯽ:
fxy (x, y) = g(r) : r = x 2 + y 2
در ﻫﺮ دو ﻣﺜﺎل ﮔﺬﺷﺘﻪ fxy ،دارای ﺗﻘﺎرن داﯾﺮوی ﺑﻮد.
ﻗﻀﯿﮥ ﺑﺴﯿﺎر ﺟﺎﻟﺒﯽ دارﯾﻢ ﮐﻪ اﻫﻤﯿﺖ ﺗﻮزﯾﻊ ﻧﺮﻣﺎل را ﻧﺸﺎن ﻣﯽدﻫﺪ .اﮔﺮ ﺑﺨﻮاﻫﯿﻢ fxyﺗﻘﺎرن داﯾﺮوی داﺷﺘﻪ ﺑﺎﺷﺪ و در ﻋﯿﻦ ﺣﺎل xو y
ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ x ،و yﺑﺎﯾﺪ ﻫﺮ دو ) N(0,σﺑﺎﺷﻨﺪ.
18
ﻗﻀﯿﻪ :اﮔﺮ xو yﻣﺴﺘﻘﻞ ﺑﻮده و fxyدارای ﺗﻘﺎرن داﯾﺮوی ﺑﺎﺷﺪ x ،و yﻫﺮ دو ﻧﺮﻣﺎل ﺑﺎ ﻣﯿﺎﻧﮕﯿﻦ ﺻﻔﺮ و وارﯾﺎﻧﺲ ﯾﮑﺴﺎن ،ﯾﻌﻨﯽ
) N(0,σﺧﻮاﻫﻨﺪ ﺑﻮد )اﺛﺒﺎت در ﮐﺘﺎب ،ص.(143
ﻗﻀﯿﻪ :اﮔﺮ xو yﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ ،آﻧﮕﺎه ) z = g( xو ) w = h( yﻧﯿﺰ ﻣﺴﺘﻘﻞ ﺧﻮاﻫﻨﺪ ﺑﻮد.
اﺛﺒﺎت در ﺣﺎﻟﺖ ﺧﺎﺻﯽ ﮐﻪ gو hﺻﻌﻮدی ﺑﺎﺷﻨﺪ )اﺛﺒﺎت ﮐﻠﯽ در ﮐﺘﺎب ،ص:(143
})P{g( x ) ≤ z, h( y ) ≤ w} = P{ x ≤ g −1 (z), y ≤ h −1 (w
)ﺑﻪ دﻟﯿﻞ اﺳﺘﻘﻼل xو = P{ x ≤ g −1 (z)} P{ y ≤ h −1 (w)} (y
}= P{g( x ) ≤ z} P{h( y ) ≤ w
19
اﻣﯿﺪ رﯾﺎﺿﯽ و ﻫﻤﺒﺴﺘﮕﯽ:
اﮔﺮ zﺗﺎﺑﻌﯽ از xو yﺑﺎﺷﺪ ،ﯾﻌﻨﯽ ، z = g( x , y ) :اﻣﯿﺪ رﯾﺎﺿﯽ آن ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ:
∞+
= ) E( z ∫
∞−
zfz (z)dz
وﻟﯽ ﻫﻤﺎن ﻃﻮر ﮐﻪ در ﻣﻮرد ﺗﺎﺑﻊ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﻔﺘﯿﻢ ،در اﯾﻨﺠﺎ ﻧﯿﺰ ﺑﺪون ﻣﺤﺎﺳﺒﮥ fzﻣﯽﺗﻮان ) E(zرا از روی fxyﺑﻪ دﺳﺖ آورد.
ﭘﺲ ﺑﺎ ﺗﻌﻤﯿﻢ ﻗﻀﯿﮥ اﺳﺎﺳﯽ اﻣﯿﺪ رﯾﺎﺿﯽ دارﯾﻢ:
ﻗﻀﯿﻪ:
∞+ ∞+
= )) E(g( x , y ∫ ∫
∞− ∞−
g(x, y)fxy (x, y)dxdy
)اﺛﺒﺎت در ﮐﺘﺎب ،ﺻﻔﺤﮥ (144
)ﺗﻮﺟﻪ ﮐﻨﯿﺪ ﮐﻪ اﯾﻦ ﺗﻌﺮﯾﻒ ﺑﺎ ﺗﻌﺮﯾﻒ ﯾﮏﺑُﻌﺪی اﻣﯿﺪ رﯾﺎﺿﯽ ﺳﺎزﮔﺎر اﺳﺖ و اﮔﺮ gﺻﺮﻓﺎً ﺗﺎﺑﻌﯽ از ﻣﺜﻼً xﺑﺎﺷﺪ ،ﺑﻪ ﻫﻤﺎن ﺑﺮ ﻣﯽﮔﺮدد(.
ﮔﺎﻫﯽ ﺑﺮای ﺑﯿﺎن اﯾﻨﮑﻪ اﻣﯿﺪ رﯾﺎﺿﯽ ﺑﺎ اﻧﺘﮕﺮالﮔﯿﺮی روی ﮐﺪام ﭼﮕﺎﻟﯽ ﺑﻪ دﺳﺖ آﻣﺪه ،ﺑﺮای آن زﯾﺮﻧﻮﯾﺲ ﻣﯽﮔﺬارﻧﺪ ,ﻣﺜﻼً ﺑﺮای
اﻣﯿﺪ رﯾﺎﺿﯽ ﺑﺎﻻ ﻣﯽﻧﻮﯾﺴﻨﺪ. E xy (g( x , y )) :
20
ﻧﺘﯿﺠﻪ :ﺧﻄﯽ ﺑﻮدن اﻣﯿﺪ رﯾﺎﺿﯽ )در ﺣﺎﻟﺖ دو ﺑُﻌﺪی(:
n ∞+ +∞ n
∑
= E a i g i ( x , y )
i =1
∑ ∫ ∫
∞− ∞−
aig i (x, y) fxy (x, y)dxdy
i =1
n ∞+ ∞+
= ai
∫ ∫ ∑ g i (x, y)fxy (x, y)dxdy
i =1 ∞− ∞−
n
= )) ∑ a E(g (x , y
i =1
i i
21
ﺣﺎل ﺗﻮﺟﻪ ﮐﻨﯿﺪ ﮐﻪ:
∞+ ∞+ ∞+
= E( x ) = η x ∫ ∫
∞− ∞−
= x fxy (x, y)dxdy ∫ ∞−
x fx (x)dx
∞+ ∞+ ∞+
σ x2 ∫ ∫ ∫
2 2
= ) ) = E(( x − η x = (x − ηx ) fxy (x, y)dxdy (x − η x )2 fx (x)dx
∞− ∞− ∞−
و ﺑﻪ ﻫﻤﯿﻦ ﺗﺮﺗﯿﺐ ﺑﺮای yﻧﯿﺰ ﻣﻘﺎدﯾﺮ η yو σ yﺑﻪ ﻫﻤﯿﻦ ﺻﻮرت ﻣﺤﺎﺳﺒﻪ ﻣﯽﺷﻮﻧﺪ.
ﻧﻘﻄﮥ ) ، (η x ,η yﻣﺮﮐﺰ ﺛﻘﻞ fxyاﺳﺖ و ،σ xﭘﺮاﮐﻨﺪﮔﯽ ﻧﻘﺎط ﺗﺎﺑﻊ ﺗﻮزﯾﻊ را ﺣﻮل ﺧﻂ x = ηxرا ﻧﺸﺎن ﻣﯽدﻫﺪ σ y .ﻧﯿﺰ ﭘﺮاﮐﻨﺪﮔﯽ
ﻧﻘﺎط ﺣﻮل ﺧﻂ y = η yرا ﻧﺸﺎن ﻣﯽدﻫﺪ.
y
ﻣﻨﺤﻨﯽﻫﺎی ﺛﺎﺑﺖ = fxy
ηy
x
ηx
22
ﭘﺎراﻣﺘﺮ ﭘﻨﺠﻢ ،ﭘﺎراﻣﺘﺮی اﺳﺖ ﮐﻪ ﻣﯿﺰان ﺑﺴﺘﮕﯽ xو yرا ﺑﻪ ﻫﻢ ﻧﺸﺎن ﻣﯽدﻫﺪ.
23
:ﺧﻮاص ﮐﻮارﯾﺎﻧﺲ
(1
cov( x , y ) = E ( x − ηx )( y − η y ) = E( xy ) − η x E( y ) − η y E( x ) + η xη y
⇒ cov( x , y ) = E( xy ) − E( x )E( y )
(2
cov( x , x ) = E(( x − η x )2 )
⇒ cov( x , x ) = var( x )
24
در ﺣﺎﻟﺖ ﮐﻠﯽﺗﺮ اﮔﺮ z = ax + by + cﺑﺎﺷﺪ ،دارﯾﻢ:
) var( z ) = a 2 var( x ) + b 2 var( y ) + 2ab cov( x , y
ﺗﻌﺮﯾﻒ :ﺿﺮﯾﺐ ﻫﻤﺒﺴﺘﮕﯽ ) x (Correlation Coefficientو yﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽﺷﻮد:
) cov( x , y µxy
= rxy =
var( x ) var( y ) σ xσ y
25
ﮔﺎﻫﯽ اﮔﺮ xﺑﺎﻻﺗﺮ از ﻣﺘﻮﺳﻄﺶ ﺑﺮود ،ﻣﻌﻤﻮﻻً yﻫﻢ ﺑﺎﻻﺗﺮ از ﻣﺘﻮﺳﻄﺶ ﺧﻮاﻫﺪ ﺷﺪ .در اﯾﻦ ﺻﻮرت r > 0 :؛
ﮔﺎﻫﯽ ﻧﯿﺰ ﺑﻪ ﻋﮑﺲ اﮔﺮ xﺑﺎﻻﺗﺮ از ﻣﺘﻮﺳﻄﺶ ﺑﺮود y ،ﭘﺎﯾﯿﻦﺗﺮ از ﻣﺘﻮﺳﻄﺶ ﺧﻮاﻫﺪ ﺷﺪ .در اﯾﻦ ﺻﻮرت r < 0 :؛
ﮔﺎﻫﯽ ﻫﻢ xو yﺗﺄﺛﯿﺮی روی ﻫﻢ ﻧﺪارﻧﺪ .در اﯾﻦ ﺻﻮرت. r = 0 :
ﻣﺜﺎل :اﻟﻒ( ﻣﯿﺰان ﺧﻮردن ﻧﻮﺷﺎﺑﻪ و ﻣﯿﺰان درﺟﻪ ﺣﺮارت؛ ﻋﻠﯽاﻻﺻﻮل ﺑﺎ اﻓﺰاﯾﺶ درﺟﻪ ﺣﺮارت ،ﻣﯿﺰان ﺧﻮردن ﻧﻮﺷﺎﺑﻪ ﻧﯿﺰ اﻓﺰاﯾﺶ ﻣﯽﯾﺎﺑﺪ،
ﯾﻌﻨﯽ r > 0 :؛
ب( ﻣﯿﺰان ﺧﻮردن ﻧﻮﺷﺎﺑﻪ و ﻣﯿﺰان رﻃﻮﺑﺖ ﻫﻮا؛ ﻋﻠﯽاﻻﺻﻮل ﺑﺎ اﻓﺰاﯾﺶ ﺣﺮارت ،رﻃﻮﺑﺖ ﮐﺎﻫﺶ ﻣﯽﯾﺎﺑﺪ ،ﯾﻌﻨﯽ r < 0 :؛
ج( ﻣﯿﺰان ﺧﻮردن ﻧﻮﺷﺎﺑﻪ و ﻣﯿﺰان ﮐﺘﺎﺑﻬﺎی ﻓﺮوﺧﺘﻪ ﺷﺪه؛ ﻋﻠﯽاﻻﺻﻮل رﺑﻄﯽ ﺑﻪ ﻫﻢ ﻧﺪارﻧﺪ ،ﯾﻌﻨﯽ. r = 0 :
ηy ηy
اﮔﺮ r = 0ﺑﺎﺷﺪ ،ﻣﺤﻮر ﺗﻘﺎرن ﻣﻮازی ﯾﮑﯽ از ﻣﺤﻮرﻫﺎ ﺧﻮاﻫﺪ ﺑﻮد )ﺗﻮﺟﻪ ﮐﻨﯿﺪ ﮐﻪ ﻣﻤﮑﻦ اﺳﺖ اﺻﻮﻻً ﻣﺤﻮر ﺗﻘﺎرﻧﯽ ﻧﺪاﺷﺘﻪ ﺑﺎﺷﯿﻢ ،وﻟﯽ
ﻣﺤﻮر ﺛﻘﻞ در ﺣﺎﻟﺖ ﮐﻠﯽ دارﯾﻢ(.
26
ﺗﻌﺮﯾﻒ :ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ xو yرا ﻧﺎﻫﻤﺒﺴﺘﻪ ) (Uncorrelatedﮔﻮﯾﻨﺪ ،ﻫﺮﮔﺎه rxy = 0ﺑﺎﺷﺪ ،ﯾﻌﻨﯽ:
cov( x , y ) = 0
ﯾﺎ ﻣﻌﺎدﻻً:
) R xy = E( xy ) = E( x )E( y
)در ﺣﺎﻟﯽ ﮐﻪ در ﺣﺎﻟﺖ ﮐﻠﯽ داﺷﺘﯿﻢ( R xy = E( xy ) = E( x )E( y ) + cov( x , y ) :
27
ﻗﻀﯿﻪ :اﮔﺮ xو yﻧﺎﻫﻤﺒﺴﺘﻪ ﺑﺎﺷﻨﺪ x − ηx ،و y − η yﻣﺘﻌﺎﻣﺪﻧﺪ و ﺑﺮﻋﮑﺲ ،زﯾﺮا:
E(( x − ηx )( y − η y )) = µxy = 0
ﻗﻀﯿﻪ :اﮔﺮ xو yﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ ،ﻧﺎﻫﻤﺒﺴﺘﻪ ﺧﻮاﻫﻨﺪ ﺑﻮد )وﻟﯽ ﻋﮑﺲ آن ﻟﺰوﻣﺎً درﺳﺖ ﻧﯿﺴﺖ( ،زﯾﺮا:
∞+ ∞+
∫ ∫
= ) E( xy
∞−∞ −
xyfxy (x, y)dxdy
∞+∞ +
∫ ∫= xyfx (x)fy (y)dxdy
∞− ∞−
∞+ ∞+
= ∫ xfx (x)dx
yfy (y)dy
∫
∞ − ∞ −
xو yﻧﺎﻫﻤﺒﺴﺘﻪاﻧﺪ ⇒ ) = E( x )E( y
28
ﻣﺜﺎل ﻧﻘﺾ ﺑﺮای ﻋﮑﺲ ﻣﺴﺄﻟﻪ:
1
−1 < x < 1
fx (x) = 2 , y = x2
0 otherwise
در اﯾﻨﺠﺎ xو yﻣﺴﺘﻘﻞ ﻧﯿﺴﺘﻨﺪ و دارﯾﻢ:
E( x ) = 0
1 2
1 1
∫
2
= ) E( y ) = E( x = x dx
−1 2 3
E( xy ) = E( x 3 ) = 0
cov( x , y ) = E( xy ) − E( x )E( y ) = 0 − 0 = 0
ﯾﻌﻨﯽ xو yﻧﺎﻫﻤﺒﺴﺘﻪ ﻫﺴﺘﻨﺪ ،در ﺣﺎﻟﯽ ﮐﻪ ﻣﺴﺘﻘﻞ ﻧﯿﺴﺘﻨﺪ.
ﻣﺜﺎل دﯾﮕﺮ :اﮔﺮ y = sin ϕ ، x = cos ϕو ) ϕ ∼ u(0, 2 πﺑﺎﺷﺪ ،در ﻧﺘﯿﺠﻪ y = 1 − x 2ﺑﻮده و xو yﻣﺴﺘﻘﻞ ﻧﺨﻮاﻫﻨﺪ ﺑﻮد،
وﻟﯽ دارﯾﻢ:
1
= )cov(x, y ) = E(cos ϕ sin ϕ) − E(cos ϕ) E(sin ϕ E(sin 2 ϕ) = 0
2
0 0
29
در واﻗﻊ اﺳﺘﻘﻼل ﺑﺴﯿﺎر ﻗﻮﯾﺘﺮ از ﻧﺎﻫﻤﺒﺴﺘﮕﯽ اﺳﺖ .ﻧﺎﻫﻤﺒﺴﺘﮕﯽ ﻓﻘﻂ روی ﻣﺘﻮﺳﻂﻫﺎ ﮐﺎر ﻣﯽﮐﻨﺪ ،وﻟﯽ اﺳﺘﻘﻼل ﺑﺎﯾﺪ در ﻫﺮ ﻧﻘﻄﻪ
ﺑﺮﻗﺮار ﺑﺎﺷﺪ .ﺿﻤﻨﺎً ﺗﻮﺟﻪ ﮐﻨﯿﺪ ﮐﻪ اﮔﺮ xو yﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ g(x) ،و ) h(yﻧﯿﺰ ﻧﺎﻫﻤﺒﺴﺘﻪ ﺧﻮاﻫﻨﺪ ﺑﻮد )زﯾﺮا ) g(xو ) h(yﻧﯿﺰ
ﻣﺴﺘﻘﻠﻨﺪ( .در ﺣﺎﻟﯽ ﮐﻪ اﯾﻦ ﺣﺮف را ﺑﺮای ﻧﺎﻫﻤﺒﺴﺘﮕﯽ ﻧﻤﯽﺗﻮاﻧﯿﻢ ﺑﺰﻧﯿﻢ.
30
ﻧﺎﻣﺴﺎوی ﺷﻮارﺗﺰ:
) E 2 ( xy ) ≤ E( x 2 )E( y 2
اﺛﺒﺎت :ﺑﺮای ﻫﺮ ﻣﻘﺪار ﺛﺎﺑﺖ αدارﯾﻢ:
E(αx − y )2 ≥ 0 ⇒ α 2 E( x 2 ) − 2αE( xy ) + E( y 2 ) ≥ 0
) E( xy
= ، αﺑﺮای اﯾﻦ ﻣﻘﺪار αدارﯾﻢ: 2
اﮐﻨﻮن اﮔﺮ ﺑﮕﯿﺮﯾﻢ:
) E 2 ( xy ) 2E 2 ( xy ) E 2 ( xy ) E( x
2 2
2
− 2
≥ ) + E( y ) ≥ 0 ⇒ E( y 2
) ⇒ E 2 ( xy ) ≤ E( x 2 )E( y 2
) E( x ) E( x ) E( x
ﺗﺴﺎوی را در ﻧﺎﻣﺴﺎوی ﺷﻮارﺗﺰ وﻗﺘﯽ دارﯾﻢ ﮐﻪ y = c x :ﺑﺎﺷﺪ ،زﯾﺮا ﺑﻪ ازای y = c xدارﯾﻢ:
2
) E 2 ( xy ) = E(cx 2 ) = c 2 E 2 ( x 2
2 2 2
) ⇒ E ( xy ) = E( x )E( y
E( x 2 )E( y 2 ) = E( x 2 )E(c 2 x 2 ) = c 2 E 2 ( x 2 )
) E( xy
= cﺧﻮاﻫﺪ ﺑﻮد. 2
ﺿﻤﻨﺎً = α
) E( x
ﺑﻪ ﻋﮑﺲ در ﺻﻮرت ﺗﺴﺎوی دارﯾﻢ:
) E( xy ) E( xy
((E 2 ( xy ) = E( x 2 )E( y 2 ) ⇒ E x − y ) 2
) = 0 ⇒ y = cx in Probability , c =
) E( x 2 ) E( x 2
31
اﮔﺮ در ﻧﺎﻣﺴﺎوی ﺷﻮارﺗﺰ ﺑﻪ ﺟﺎی x − ηx ،xو ﺑﻪ ﺟﺎی y − η y ،yﻗﺮار دﻫﯿﻢ ،ﺧﻮاﻫﯿﻢ داﺷﺖ:
ﺗﺴﺎوی وﻗﺘﯽ ﺑﺮﻗﺮار ﺧﻮاﻫﺪ ﺑﻮد ﮐﻪ y − η y = c( x − η x ) :ﺑﺎﺷﺪ .در اﯾﻦ ﺻﻮرت دارﯾﻢ،[ cov( x , y )] = var( x )var( y ) :
2
2
. rxyاﮔﺮ cﻣﺜﺒﺖ ﺑﺎﺷﺪ rxy = 1 ،و اﮔﺮ cﻣﻨﻔﯽ ﺑﺎﺷﺪ rxy = −1 ،ﺧﻮاﻫﺪ ﺑﻮد ،زﯾﺮا: ﯾﻌﻨﯽ= 1 :
µxy r σ x σ y σy y y
= c= 2 = ±
σx σ x2 σx ﺟﺮم ﺧﻄﯽ:
ηy
x x
ηx ηx
32
از ﺟﻤﻠﻪ ﮐﺎرﺑﺮدﻫﺎی ﺿﺮﯾﺐ ﻫﻤﺒﺴﺘﮕﯽ ،رﮔﺮﺳﯿﻮن ﺧﻄﯽ اﺳﺖ .ﮐﺘﺎب ،ﺻﻔﺤﺎت 149و 150را ﻣﻼﺣﻈﻪ ﻧﻤﺎﯾﯿﺪ )درﺑﺎرۀ رﮔﺮﺳﯿﻮن ﺧﻄﯽ،
ﺑﻌﺪاً در ﻓﺼﻞ 6ﺻﺤﺒﺖ ﺧﻮاﻫﯿﻢ ﮐﺮد .اﯾﻦ ﻣﺒﺤﺚ در ﻓﺼﻞ 11ﮐﺘﺎب ﺑﻪ ﻃﻮر ﮐﺎﻣﻞ آﻣﺪه اﺳﺖ(.
ﮔﺸﺘﺎور ﻣﺸﺘﺮک:
ﻃﺒﻖ ﺗﻌﺮﯾﻒ ،ﮔﺸﺘﺎور ﻣﺸﺘﺮک ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ xو yﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ:
∞+ ∞+
∫ ∫
k r
= ) m kr = E( x y xk y r fxy (x, y)dxdy
∞− ∞−
33
:ﺗﺎﺑﻊ ﻣﻮﻟﺪ ﮔﺸﺘﺎور ﻣﺸﺘﺮک
+∞ +∞
Φ xy (s1 ,s 2 ) = E(e s1x + s2 y ) = ∫ ∫
−∞ −∞
e s1x + s2 y fxy (x, y)dxdy
∂ k ∂ r Φ(s1 ,s 2 )
= m kr
∂sk1 ∂sr2 s 1 ,s 2 = 0
34
ﺧﻮاص ﺗﺎﺑﻊ ﻣﺸﺨﺼﮥ ﻣﺸﺘﺮک) :ﺗﻮﺟﻪ داﺷﺘﻪ ﺑﺎﺷﯿﺪ ﮐﻪ ﺧﻮاص ﺗﺎﺑﻊ ﻣﻮﻟﺪ ﮔﺸﺘﺎور و ﺗﺎﺑﻊ ﻣﺸﺨﺼﻪ ﯾﮑﯽ ﻫﺴﺘﻨﺪ(
(1
k r
) 1 ∂ ∂ Φ xy ( jω1 , jω2
= m kr
jk + r ∂ωk1 ∂ωr2
ω1 ,ω2 = 0
35
: اﮔﺮ و ﺗﻨﻬﺎ اﮔﺮ، ﻣﺴﺘﻘﻠﻨﺪy وx ( ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ4
Φ xy ( jω1 , jω2 ) = Φ x ( jω1 ) Φ y ( jω2 )
: ﭘﺲ ﺧﻮاﻫﯿﻢ داﺷﺖ. ﻧﯿﺰ ﻣﺴﺘﻘﻞ ﺑﻮده و ﻟﺬا ﻧﺎﻫﻤﺒﺴﺘﻪ ﻧﯿﺰ ﺧﻮاﻫﻨﺪ ﺑﻮدe jωy وe jωx ، ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪy وx زﯾﺮا اﮔﺮ
Φ xy ( jω1 , jω2 ) = E(e j( ω1x +ω2 y ) ) = E(e jω1x e jω2 y ) = E(e jω1x )E(e jω2 y ) = Φ x ( jω1 )Φ y ( jω2 )
: دارﯾﻢ، ﺑﺮﻗﺮار ﺑﺎﺷﺪΦ xy ( jω1 , jω2 ) = Φ x ( jω1 ) Φ y ( jω2 ) از ﻃﺮف دﯾﮕﺮ اﮔﺮ ﺗﺴﺎوی
1 +∞ +∞
fxy (x, y) =
( 2 π) 2 ∫ ∫
−∞ −∞
Φ xy ( jω1 , jω2 )e − j( ω1x+ω2 y )dω1dω2
1 +∞ 1 +∞
= ∫
2 π −∞
Φ x ( jω1 )e − jω1xdω1
2 π ∫−∞
Φ y ( jω2 )e − jω2 ydω2
= fx ( x) fy ( y)
36
ﻣﺜﺎل :1اﮔﺮ ) x ∼ N(ηx ,σ xو ) y ∼ N(η y ,σ yﺑﻮده و xو yﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ و ، z = x + yدارﯾﻢ:
σ x2 ω2 σ y2 ω2 (σ x2 +σ y2 ) ω2
jω η x − j ωη y − jω(ηx +η y )−
Φ z ( jω) =Φ x ( jω)Φ y ( jω) = e 2 e 2 =e 2
ﻗﻀﯿﻪ :اﮔﺮ xو yﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ و x + yﻧﺮﻣﺎل ﺑﺎﺷﺪ x ،و yﻧﺮﻣﺎل ﺧﻮاﻫﻨﺪ ﺑﻮد.
)اﺛﺒﺎت در ﮐﺘﺎب (Lukacs
37
ﻣﺜﺎل :2اﮔﺮ ) x ∼ Binomial (n , pو ) y ∼ Binomial (m, pﺑﻮده و xو yﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ و ، z = x + yﺗﻮزﯾﻊ zرا ﺑﯿﺎﺑﯿﺪ.
Φ x ( jω) = (pe jω + q ) n , Φ y ( jω) = (pe jω + q )m , q = 1 − p
Φ z ( jω) =Φ x ( jω)Φ y ( jω) = (pe jω + q ) n+m
ﯾﻌﻨﯽ:
)z∼ Binomial (n + m, p
اﻟﺒﺘﻪ اﯾﻦ اﻣﺮ ﮐﻪ ﮐﺎﻧﻮﻟﻮﺷﻦ ﯾﮏ ﺗﻮزﯾﻊ در ﺧﻮدش ،ﺗﻮزﯾﻌﯽ از ﻧﻮع ﺧﻮدش ﺷﻮد ،در ﻣﻌﺪود ﺗﻮاﺑﻌﯽ ﺻﺎدق اﺳﺖ.
38
ﺗﻮاﺑﻌﯽ از دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ:
اﮔﺮ ﺗﺎﺑﻌﯽ از دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ داﺷﺘﻪ ﺑﺎﺷﯿﻢ ،ﯾﻌﻨﯽ:
) z = g ( x, y
zﺧﻮد ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ اﺳﺖ ﮐﻪ ﺑﺮای ﻫﺮ ﻧﻘﻄﻪ از ﻓﻀﺎی ﻧﻤﻮﻧﻪ ﻣﺜﻞ ωدارﯾﻢ:
))z(ω) = g (x (ω), y (ω
39
x2 +y2
1 −
: دارﯾﻢ، و ﻣﺴﺘﻘﻞ از ﻫﻢ( ﺑﺎﺷﻨﺪN(0,σ ) ﻫﺮ ﯾﮏy وx )ﯾﻌﻨﯽfxy (x, y) = e 2σ 2 وz = x 2 + y 2 اﮔﺮ:1 ﻣﺜﺎل
2 πσ 2
: z < 0 ﺑﺮای
Fz (z) = P{z ≤ z}= 0
: z > 0 ﺑﺮای
x2 + y 2
1 −
Fz (z) = P{x 2 + y 2 ≤ z}= ∫∫
D(z)
fxy ( x, y)dxdy = 2 ∫∫
2 πσ D ( z )
e 2σ 2 dxdy
D (z ) z
r2 z
1 2π z − −
=
2 πσ 2 ∫ ∫
0 0
e 2σ 2 rdr dθ= 1 − e 2σ 2
:ﭘﺲ
z
−
Fz (z) = (1 − e 2σ 2 ) u (z)
z
dFz (z) 1 − 2σ 2
fz (z) = = 2e u(z) : ﺗﻮزﯾﻊ ﻧﻤﺎﯾﯽ
dz 2σ
(. درﺟﻪ آزادی ﻣﯽﺷﺪn ﺑﺎχ 2 ، ﺑﻮدz = x 12 + x 22 + + x 2n اﮔﺮ. درﺟﻪ آزادی اﺳﺖ2 ﺑﺎχ 2 ،σ = 1 )ﺑﺮای
40
ﻣﺜﺎل z = x + y :2ﮐﻪ xو yﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ دﻟﺨﻮاه ﻫﺴﺘﻨﺪ .دارﯾﻢ:
+∞ z− y y
=}Fz (z) = P{x + y ≤ z ∫∫ = fxy (x, y)dxdy ∫ ∫
∞−
fxy (x, y)dxdy
∞−
x + y≤z x+y=z
)dF (z ∞+ y+dy
= fz (z) = z
dz ∫∞−
fxy (z − y, y)dy y
x
z−y
ﺑﺮای ﯾﺎﻓﺘﻦ ) ،f(zﺑﺎ ﻣﺸﺘﻖ ﮔﺮﻓﺘﻦ از اﻧﺘﮕﺮاﻟﻬﺎﯾﯽ ﮐﻪ ﺣﺪود آن ﺗﻮاﺑﻌﯽ از zﻫﺴﺘﻨﺪ روﺑﺮو ﻣﯽﺷﻮﯾﻢ.
41
ﺣﺎل اﮔﺮ xو yﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ و z = x + yﺑﺎﺷﺪ ،دارﯾﻢ:
∞+ ∞+
= )fz (z ∫∞−
= fx (z − y)fy ( y)dy ∫
∞−
fy (z − x)fx (x)dx
ﯾﻌﻨﯽ ﮐﺎﻧﻮﻟﻮﺷﻦ fxو . fyﻗﺒﻼً ﻫﻢ دﯾﺪه ﺑﻮدﯾﻢ ﮐﻪ اﮔﺮ xو yﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ و z = x + yﺑﺎﺷﺪ ،دارﯾﻢ:
Φ z ( jω) =Φ x ( jω)Φ y ( jω) → fz = fx ∗ fy
ﻣﺜﺎل :اﮔﺮ ) R 1 ∼ u(900, 1100و ) R 2 ∼ u(900, 1100و ﻣﻘﺎدﯾﺮ R 1و R 2ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ ،ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ R = R 1 + R 2را
ﺑﯿﺎﺑﯿﺪ.
fR1 fR2 fR
1 1 1
200 200 200
42
ﺑﻪ روش دﯾﮕﺮی ﻧﯿﺰ ﻣﯽﺗﻮاﻧﯿﻢ ﻣﺴﺘﻘﯿﻤﺎً fzرا ﺑﻪ دﺳﺖ آورﯾﻢ:
) z = g ( x, y
}fz (z)dz = P{z ≤ z ≤ z + dz}= P{z ≤ g (x, y ) ≤ z + dz
اﮔﺮ ﻧﺎﺣﯿﮥ دﯾﻔﺮاﻧﺴﯿﻠﯽ از ﺻﻔﺤﮥ x-yرا ﮐﻪ در آن z ≤ g (x, y) ≤ z + dzاﺳﺖ ∆D(z) ،ﺑﻨﺎﻣﯿﻢ ،دارﯾﻢ:
=})fz (z)dz = P{( x, y )∈∆D(z ∫∫
) ∆D ( z
fxy (x, y)dxdy
43
: دارﯾﻢ، ﻣﺴﺘﻘﻞ از ﻫﻢ ﺑﺎﺷﻨﺪy وx وy ∼ N(0,σ ) وx ∼ N(0,σ ) وz = x 2 + y 2 اﮔﺮ:ﻣﺜﺎل
: z < 0 ﺑﺮای
fz (z)dz = P{z ≤ z ≤ z + dz}= 0
: z > 0 ﺑﺮای
x2 + y2
1 − ∆D(z)
∫∫ 2σ 2
2 2
fz (z)dz = P{z ≤ x + y ≤ z + dz}= 2
e dxdy
∆D ( z )
2 πσ
D (z )
z+dz −
r2 −
r2 z z+dz
1 2π 1 2π 1 z+dz
∫ ∫ ∫ ∫ dr
2 2
= e 2σ rdr dθ= dθ 2 re 2σ
2 πσ 2 0 z 2π 0 σ z
z2 z+dz
∫
z − 2 g (x)dx = g (z)dz : زﯾﺮا،z ﺿﺮﺑﺪر ﻣﻘﺪار ﺗﺎﺑﻊ در ﻧﻘﻄﮥdz اﯾﻦ ﻋﺒﺎرت ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ
= 2
e 2σ dz z
σ
:ﯾﻌﻨﯽ
z2
z −
fz (z) = e 2σ 2 u ( z ) : ﺗﻮزﯾﻊ راﯾﻠﯽ
2
σ
44
ﺣﺎل اﮔﺮ دو ﺗﺎﺑﻊ از xو yداﺷﺘﻪ ﺑﺎﺷﯿﻢ ،ﯾﻌﻨﯽ:
) z = g ( x, y
) w = h ( x, y
ﻗﺒﻼً ﻓﻬﻤﯿﺪﯾﻢ ﮐﻪ ﭼﮕﻮﻧﻪ ﺗﺎﺑﻊ ﺗﻮزﯾﻊ )ﯾﺎ ﭼﮕﺎﻟﯽ( ﻫﺮ ﯾﮏ را ﺑﺎ داﺷﺘﻦ fxyﺑﻪ دﺳﺖ آورﯾﻢ .اﻣﺎ fzwﭼﻪ ﺧﻮاﻫﺪ ﺑﻮد؟
ﺑﺎ ﺗﻌﻤﯿﻢ ﻗﻀﯿﻪای ﮐﻪ در ﺣﺎﻟﺖ ﺗﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ داﺷﺘﯿﻢ ،ﻣﯽﺗﻮان ﻧﺸﺎن داد ﮐﻪ:
45
) z = g ( x, y
دارای رﯾﺸﻪﻫﺎی ) (x 2 , y 2 ) ، (x1 , y 1و ...ﺑﺎﺷﺪ ،آﻧﮕﺎه: ﻗﻀﯿﻪ :اﮔﺮ دﺳﺘﮕﺎه ﻣﻌﺎدﻻت
) w = h ( x, y
) fxy (xi , y i
= )fzw (z, w ∑i ) J(xi , yi
ﮐﻪ:
) ∂g (x, y ∂g (x, y)
∂x ∂y
J(x, y) = det
) ∂h (x, y ∂h (x, y)
∂x ∂y
اﺛﺒﺎت در ﺻﻔﺤﮥ 157ﮐﺘﺎب.
46
x
؛w= وz = x 2 + y 2 :1 ﻣﺜﺎل
y
z = x 2 + y 2
: اﯾﻦ دﺳﺘﮕﺎه دو رﯾﺸﻪ دارد، z > 0 ﺑﺮای. را ﺣﻞ ﻣﯽﮐﻨﯿﻢ x اﺑﺘﺪا دﺳﺘﮕﺎه
w =
y
zw −zw
x
1 = x
2 =
2
1+ w 1+ w2
,
y = z y = −z
1 1 + w 2
2
1+ w2
∂ x2 + y2 ∂ x2 + y2
x y x2
∂x ∂y 2 2 2 2 2
+1
J(x, y) = det = det x +y x +y
=−
y
x x
∂( ) ∂( ) 1 −x x2 + y2
y y
y y2
∂x ∂y
1+ w2
⇒ J(x1 , y 1 ) = J(x 2 , y 2 ) =−
z
47
) fxy (x1 , y 1 ) fxy ( x 2 , y 2
= )fzw (z, w + :z > 0
) J(x1 , y1 ) J(x 2 , y 2
z zw z −zw −z
= f
2 xy
( , ) + fxy ( , ) ) u (z
1+ w 1+ w 2
1+ w 2
1+ w 2 2
1+ w
x2 +y 2
1 −
= )) fxy (x, yﯾﻌﻨﯽ xو yﻫﺮ دو ) N(0,σو ﻣﺴﺘﻘﻞ از ﻫﻢ ﺑﺎﺷﻨﺪ( ،دارﯾﻢ: e 2σ 2 ﻣﺜﻼً اﮔﺮ
2
2 πσ
z2
2z 1 −
= )fzw (z, w e ) 2σ 2 u ( z
2 2
1 + w 2 πσ
ﯾﻌﻨﯽ:
z2
1
z −
= )fz (z 2
e ) 2σ 2 u ( z ﺗﻮزﯾﻊ راﯾﻠﯽ : و ﺗﻮزﯾﻊ ﮐﻮﺷﯽ fw ( w) = π 2 :
σ 1+ w
x
ﻧﯿﺰ ﻣﺴﺘﻘﻠﻨﺪ(. و ﭘﺲ zو wﻣﺴﺘﻘﻞ ﻫﺴﺘﻨﺪ )ﺑﻨﺎﺑﺮاﯾﻦ اﮔﺮ ) x, y ∼ N(0,σو ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪx 2 + y 2 ،
y
48
:ﯾﺎ از روش ﻣﻌﺎدل دارﯾﻢ
∂xi ∂xi
∂z ∂w
fzw (z, w) = ∑i
fxy ( xi , y i )|det
∂y i
|
∂y i
∂z ∂w
:در اﯾﻨﺠﺎ
w z
∂x1 ∂x1 2 3 ∂x 2 ∂x 2
1 + w
∂z ∂w (1 + w 2 ) 2 −z ∂z ∂w
det = det = = det
∂y 1 ∂y 1 1 −zw 1 + w 2 ∂y 2 ∂y 2
∂z ∂w 1+ w2 3 ∂z ∂w
2 2
(1 + w )
:ﻟﺬا
z zw z −zw −z
fzw (z, w) = f
xy ( , ) + f ( , ) u (z )
1+ w2 2 2 xy 2 2
1+ w 1+ w 1+ w 1+ w
49
a a12 z x z = a 11x + a12 y
؛A = 11 ﮐﻪ = A ﯾﺎ ﺗﺒﺪﯾﻞ ﺧﻄﯽ:2 ﻣﺜﺎل
a 21a 22 w y w = a 21x + a 22 y
z x
: اﯾﻦ دﺳﺘﮕﺎه ﯾﮏ رﯾﺸﻪ دارد، det(A ) ≠ 0 ﺑﺎ ﻓﺮض. را ﺣﻞ ﻣﯽﮐﻨﯿﻢ = A اﺑﺘﺪا دﺳﺘﮕﺎه
w y
x z −1 a 22
= B
y w → B = A → b11 = ,
a11a 22 − a12 a 21
:ﯾﻌﻨﯽ
x = b11z + b12 w
y = b 21z + b 22 w
a a12 1
J( x, y) = det 11 = det(A ) = a a − a a =
a 21 a 22 11 22 12 21
det(B)
50
z = x + y
، دارﯾﻢ: ﻣﺜﻼً اﮔﺮ
w = x − y
z+w
x
1 =
ﯾﮏ رﯾﺸﻪ 2 : 1 1
و (detA ) = det =−2
y = z − w 1 −1
1 2
1 z+w z−w
( ⇒ fzw (z, w) = fxy , )
2 2 2
x2 + y2 ﺑﺮای ﻣﺜﺎل اﮔﺮ ) x, y ∼ N(0,σو ﻣﺴﺘﻘﻞ از ﻫﻢ ﺑﺎﺷﻨﺪ ،ﺧﻮاﻫﯿﻢ داﺷﺖ:
1 −
= )fxy (x, y e 2σ 2
2 πσ 2
−
( z+ w ) 2 + ( z−w ) 2
−
z2 +w 2 −
z2 −
w2
1 1 2 1 2 1 ) 2σ 2
1 2 ( 2 σ )2
× = )fzw (z, w e 8σ = e 4σ = (e 2 e
2 2 πσ 2 4 πσ 2 2 π 2 σ
2 π 2 σ
ﯾﻌﻨﯽ zو wﻫﺮ ﯾﮏ ) N(0, 2 σﺑﻮده و ﻣﺴﺘﻘﻞ از ﻫﻢ ﻫﺴﺘﻨﺪ .ﯾﻌﻨﯽ ﺑﺮای ﺗﻮزﯾﻊ ﻧﺮﻣﺎل ،اﮔﺮ xو yﻣﺴﺘﻘﻞ ﺑﻮده ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل
ﯾﮑﺴﺎن ) N(0,σداﺷﺘﻪ ﺑﺎﺷﻨﺪ x + y ،و x − yﻧﯿﺰ ﻣﺴﺘﻘﻞ و ﻧﺮﻣﺎل ﻫﺴﺘﻨﺪ.
ﮐﻼً ﺑﺎ ﺑﻪ دﺳﺖ آوردن fzwﻣﯽﺗﻮاﻧﯿﻢ ﺗﻮاﺑﻊ ﭼﮕﺎﻟﯽ ﺣﺎﺷﯿﻪای را ﻧﯿﺰ ﺑﻪ دﺳﺖ آورﯾﻢ.
51
ﮔﺎﻫﯽ وﻗﺘﯽ ﮐﻪ ﻓﻘﻂ ﺑﺎ ﯾﮏ ﺗﺎﺑﻊ ) z = g ( x, yﻣﻮاﺟﻬﯿﻢ و ﺑﺨﻮاﻫﯿﻢ از روی fz ، fxyرا ﺑﻪ دﺳﺖ آورﯾﻢ ،ﺑﻪ ﺟﺎی دو روﺷﯽ ﮐﻪ ﻗﺒﻼً
ﮔﻔﺘﯿﻢ ،ﺑﻪ ﮐﺎر ﺑﺮدن ﻣﺘﻐﯿﺮ ﮐﻤﮑﯽ wو اﺳﺘﻔﺎده از ﻗﻀﯿﮥ ﻓﻮق ﻣﯽﺗﻮاﻧﺪ ﮐﻤﮏ ﮐﻨﺪ ﮐﻪ fzرا از اﯾﻦ ﻃﺮﯾﻖ ﺑﻪ دﺳﺖ آورﯾﻢ.
ﭘﺲ روش دﯾﮕﺮ ﺑﺮای ﺑﻪ دﺳﺖ آوردن ﺗﻮزﯾﻊ ﯾﮏ ﺗﺎﺑﻊ از دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ،اﺳﺘﻔﺎده از ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮐﻤﮑﯽ اﺳﺖ.
ﻣﺜﺎل z = xy :؛
روش اول:
= )Fz (z ∫∫ f
)D(z
xy ( x, y )dxdy
روش دوم:
= fz (z)dz ∫∫
) ∆D ( z
fxy ( x, y)dxdy
52
؛w = x اﺳﺘﻔﺎده از ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮐﻤﮑﯽ:روش ﺳﻮم
z = xy
: ﻧﺘﯿﺠﻪ ﻣﯽدﻫﺪ ﺣﻞ دﺳﺘﮕﺎه
w = x
x1 = w
z
y =
1 w
y x
J ( x, y ) = =− x ⇒ J (x1 , y 1 ) =− w
1 0
1 z
⇒ fzw (z, w) = fxy (w, )
w w
+∞ +∞ 1 z
⇒ fz (z) = ∫
−∞
fzw (z, w)dw = ∫
−∞ w
fxy (w, )dw
w
53
ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ ﻣﺸﺘﺮﮐﺎً ﻧﺮﻣﺎل:
ﺗﻌﺮﯾﻒ x :و yﻣﺸﺘﺮﮐﺎً ﻧﺮﻣﺎل ﻫﺴﺘﻨﺪ ،اﮔﺮ z = ax + byﺑﺮای ﻫﺮ aو bﻧﺮﻣﺎل ﺑﺎﺷﺪ.
ﻧﺘﯿﺠﻪ :اﮔﺮ xو yﻣﺸﺘﺮﮐﺎً ﻧﺮﻣﺎل ﺑﺎﺷﻨﺪ x ،و yﻫﺮ ﮐﺪام ﻧﺮﻣﺎل ﻫﺴﺘﻨﺪ.
وﻟﯽ ﻋﮑﺲ اﯾﻦ ﻣﻄﻠﺐ ﻟﺰوﻣﺎً ﺻﺤﯿﺢ ﻧﯿﺴﺖ )ﻣﺜﺎل ﻧﻘﺾ در ﻓﺼﻞ 6ﮐﺘﺎب ﻓﺮآﯾﻨﺪ .(Papoulisﻣﺜﻼً ﻣﻤﮑﻦ اﺳﺖ xو yﻫﺮ ﮐﺪام ﻧﺮﻣﺎل
ﺑﺎﺷﻨﺪ ،وﻟﯽ x + yﻧﺮﻣﺎل ﻧﺒﺎﺷﺪ )ﻣﺜﺎل در ﻓﺼﻞ 7ﮐﺘﺎب ﻓﺮآﯾﻨﺪ .(Papoulisﺗﻮﺟﻪ ﮐﻨﯿﺪ ﮐﻪ ﻣﻤﮑﻦ اﺳﺖ xو yو x + yﻫﺮ ﺳﻪ
ﻧﺮﻣﺎل ﺑﺎﺷﻨﺪ ،وﻟﯽ xو yﺑﺎز ﻫﻢ ﻣﺸﺘﺮﮐﺎً ﻧﺮﻣﺎل ﻧﺒﺎﺷﻨﺪ )ﻣﺜﺎل در ﻓﺼﻞ 7ﮐﺘﺎب ﻓﺮآﯾﻨﺪ .(Papoulis
ﻗﻀﯿﻪ :اﮔﺮ xو yﻫﺮ ﮐﺪام ﻧﺮﻣﺎل ﺑﻮده و ﻣﺴﺘﻘﻞ از ﻫﻢ ﺑﺎﺷﻨﺪ ،ﻣﺸﺘﺮﮐﺎً ﻧﺮﻣﺎل ﺧﻮاﻫﻨﺪ ﺑﻮد )ﯾﻌﻨﯽ ﻋﮑﺲ ﻧﺘﯿﺠﮥ ﻓﻮق در ﺣﺎﻟﺖ اﺳﺘﻘﻼل
xو yﺻﺎدق اﺳﺖ( .ﺑﺮای اﺛﺒﺎت اﯾﻦ ﻗﻀﯿﻪ ،ﺑﻪ ﺳﺎدﮔﯽ ﻣﯽﺗﻮان از ﻃﺮﯾﻖ ﺑﻪ دﺳﺖ آوردن ﺗﺎﺑﻊ ﻣﺸﺨﺼﮥ z = ax + byﻧﺸﺎن داد ﮐﻪ z
ﺑﺮای ﻫﺮ aو bﻧﺮﻣﺎل ﺧﻮاﻫﺪ ﺑﻮد .ﻣﺎﻧﻨﺪ ﮐﺎری ﮐﻪ در ﻣﺜﺎل ،1ﺻﻔﺤﮥ 37ﻫﻤﯿﻦ ﻓﺼﻞ ﺑﺮای z = x + yﮐﺮدﯾﻢ:
( a 2σ x2 +b 2σ y2 ) ω2
jω( aηx +bη y )−
Φ z ( jω) =Φ x (ajω)Φ y ( bjω) = e 2
54
ﻗﻀﯿﻪ x :و yﻣﺸﺘﺮﮐﺎً ﻧﺮﻣﺎل ﻫﺴﺘﻨﺪ ،اﮔﺮ و ﺗﻨﻬﺎ اﮔﺮ:
1 1 (x −η ) 2 ( x −η x () y −η y ) ( y −η y ) 2
x
= )fxy (x, y exp − − 2r +
2 πσ xσ y 1− r 2 2
2 (1 − r ) σ x
2
σ σ
x y
2
σ y
ﯾﺎ ﻣﻌﺎدﻻً:
1 2 2 2 2
) j ( ω1ηx +ω2η y − (σ x ω1 + 2rσ xσ y ω1 ω2 +σ y ) ω2
Φ xy ( jω1 , jω2 )=e e 2
اﺛﺒﺎت در ﺻﻔﺤﺎت 162و 163ﮐﺘﺎب.
ﯾﻌﻨﯽ ﺑﺮای ﺗﻮزﯾﻊ ﻧﺮﻣﺎل 5 ،ﭘﺎراﻣﺘﺮ η y ،η x ،σ y ،σ xو rﺑﻪ ﻃﻮر ﮐﺎﻣﻞ ﺗﻮزﯾﻊ ﻣﺸﺘﺮک xو yرا ﻣﺸﺨﺺ ﻣﯽﮐﻨﻨﺪ )اﮐﻨﻮن اﺛﺒﺎت
راﺣﺖﺗﺮ ﺑﺮای اﯾﻨﮑﻪ اﮔﺮ xو yﻧﺮﻣﺎل و ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ ،ﻣﺸﺘﺮﮐﺎً ﻧﺮﻣﺎل ﺧﻮاﻫﻨﺪ ﺑﻮد ،اﯾﻦ اﺳﺖ ﮐﻪ ، fxy = fx fyﻓﺮم fxyﮔﻮﺳﯽ را دارد(.
55
ﺗﻌﺮﯾﻒ ﻣﻌﺎدل x :و yﻣﺸﺘﺮﮐﺎً ﻧﺮﻣﺎل ﻫﺴﺘﻨﺪ ،ﻫﺮﮔﺎه fxyﺑﻪ ﺻﻮرت ) Ae − Q ( x , yﺑﺎﺷﺪ ﮐﻪ ) Q ( x, yﻓﺮم درﺟﮥ دوم ﻣﻌﯿﻦ ﻣﺜﺒﺖ
اﺳﺖ ،ﯾﻌﻨﯽ:
Q(x, y) = ax 2 + bxy + cy 2 + dx + ey + f
ﺑﻪ ﻃﻮری ﮐﻪ ﺑﺮای ﻫﺮ xو yداﺷﺘﻪ ﺑﺎﺷﯿﻢ. Q( x, y) ≥ 0 :
اﺛﺒﺎت ﻣﻌﺎدل ﺑﻮدن اﯾﻦ ﺗﻌﺮﯾﻒ ﺑﺎ ﺗﻌﺮﯾﻒ ﻗﺒﻠﯽ در ﮐﺘﺎب ،ﺻﻔﺤﮥ 163اﺳﺖ.
ﻗﻀﯿﻪ :اﮔﺮ xو yﻣﺸﺘﺮﮐﺎً ﻧﺮﻣﺎل ﺑﻮده و ﻧﺎﻫﻤﺒﺴﺘﻪ ﻧﯿﺰ ﺑﺎﺷﻨﺪ ) ، (r = 0آﻧﮕﺎه ﻣﺴﺘﻘﻞ ﺧﻮاﻫﻨﺪ ﺑﻮد.
اﺛﺒﺎت:
1 ( x−ηx )2 ( y−η y )
2
− +
1 2 σ x2
σ 2
= )r = 0 ⇒ fxy ( x, y e y
)= fx (x)fy ( y
2 πσ xσ y
56
z = a11x + a 12 y
، آﻧﮕﺎه zو wﻧﯿﺰ ﻣﺸﺘﺮﮐﺎً ﻧﺮﻣﺎل ﺧﻮاﻫﻨﺪ ﺑﻮد. ﻗﻀﯿﻪ :اﮔﺮ xو yﻣﺸﺘﺮﮐﺎً ﻧﺮﻣﺎل ﺑﻮده و
w = a 21x + a 22 y
اﺛﺒﺎت در ﮐﺘﺎب ،ﺻﻔﺤﮥ ) 163از ﻃﺮﯾﻖ fzwو ﮐﻮادراﺗﯿﮏ ﺑﻮدن ﯾﺎ ﻣﯽﺗﻮان از ﻃﺮﯾﻖ Φ zwاﺛﺒﺎت ﮐﺮد ﯾﺎ ﻣﯽﮔﻮﯾﯿﻢ ﻫﺮ ﺗﺮﮐﯿﺐ ﺧﻄﯽ از
zو ،wﯾﮏ ﺗﺮﮐﯿﺐ ﺧﻄﯽ از xو yﺧﻮاﻫﺪ ﺑﻮد ،ﭘﺲ ﻧﺮﻣﺎل اﺳﺖ(.
57