Professional Documents
Culture Documents
Chapter4 Part1
Chapter4 Part1
Chapter 4
Chapter 5: Section 5.2
داﻣﻨﮥ ) (Domainاﯾﻦ ﺗﺎﺑﻊ ﻣﺠﻤﻮﻋﮥ Ωاﺳﺖ و ﺑﺮد ) (Rangeآن ﻣﺠﻤﻮﻋﻪای از اﻋﺪاد ﺣﻘﯿﻘﯽ اﺳﺖ.
Ω ω1
ω2
ωN )ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺣﻘﯿﻘﯽ ﮐﻪ ﻣﻮرد ﺑﺤﺚ ﻣﺎ اﺳﺖ،
ﻋﺪدی ﺣﻘﯿﻘﯽ را ﻧﺴﺒﺖ ﻣﯽدﻫﺪ .ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ
ﻣﺨﺘﻠﻂ ،ﻋﺪدی ﻣﺨﺘﻠﻂ را ﻧﺴﺒﺖ ﻣﯽدﻫﺪ(.
ﻣﺤﻮر اﻋﺪاد ﺣﻘﯿﻘﯽ
) x N = x ( ωN ) x1 = x (ω1 ) x 2 = x ( ω2
ﭼﻮن ﺧﯿﻠﯽ اوﻗﺎت ﺑﻪ ﺟﺎی ﻧﺘﺎﯾﺞ آزﻣﺎﯾﺶ ،ﺗﺎﺑﻌﯽ از ﻧﺘﺎﯾﺞ ﻣﻮرد ﺗﻮﺟﻪ ﻣﺎ اﺳﺖ .ﻣﺜﻼً در ﭘﺮﺗﺎب دو ﺗﺎس ﻣﻘﺪار ﺣﺎﺻﻠﺠﻤﻊ اﻋﺪاد دو ﺗﺎس ﯾﺎ
در ﭘﺮﺗﺎب ﺳﮑﻪﻫﺎ ،ﻣﺠﻤﻮع ﺗﻌﺪاد ﺷﯿﺮﻫﺎی ﻇﺎﻫﺮ ﺷﺪه ﻣﻤﮑﻦ اﺳﺖ ﻣﺪ ﻧﻈﺮ ﺑﺎﺷﺪ.
1
ﻣﺜﺎل :در آزﻣﺎﯾﺶ ﭘﺮﺗﺎب ﺳﻪ ﺳﮑﮥ ﺳﺎﻟﻢ دارﯾﻢ:
}Ω = {HHH ,…, TTT
ω1 ω8
ﺣﺎل در ﻣﺜﺎل ﻓﻮق اﺣﺘﻤﺎل اﯾﻨﮑﻪ x (ω) ≤ 1ﺑﺎﺷﺪ ﭼﯿﺴﺖ؟ اﺣﺘﻤﺎل روی واﻗﻌﻪﻫﺎ ﺗﻌﺮﯾﻒ ﻣﯽﺷﻮد .اﺣﺘﻤﺎل x (ω) ≤ 1ﯾﻌﻨﯽ اﺣﺘﻤﺎل
ﻣﺠﻤﻮﻋﮥ آن ωﻫﺎﯾﯽ ﮐﻪ ﺑﺮای آﻧﻬﺎ x (ω) ≤ 1ﺑﺎﺷﺪ:
4
= }P{x ≤ 1} = P{ω : x (ω) ≤ 1} = P{HTT , THT , TTH, TTT
8
ﺑﻪ ﻃﻮر ﺧﻼﺻﻪ ﻣﯽﻧﻮﯾﺴﯿﻢ ،{x ≤ x} :وﻟﯽ اﯾﻦ ﻣﺠﻤﻮﻋﻪای از اﻋﺪاد ﻧﯿﺴﺖ ﺑﻠﮑﻪ ﯾﻌﻨﯽ.{ω : x (ω) ≤ x} :
2
ﯾﻌﻨﯽ:
}A = {x ≤ x
} B = {x = x0
} C = {x 1 < x ≤ x 2
ﺣﺎل ﻣﺜﻼً اﮔﺮ اﺣﺘﻤﺎل } {x ≤ xرا ﺑﺮای ﻫﺮ xﺑﺪاﻧﯿﻢ ،اﺣﺘﻤﺎل ﻫﻤﮥ واﻗﻌﻪﻫﺎی ﻣﻮرد ﻧﻈﺮ را ﺧﻮاﻫﯿﻢ داﺷﺖ و ﻟﺰوﻣﯽ ﺑﻪ داﻧﺴﺘﻦ ﻓﻀﺎی
اﺣﺘﻤﺎل Ωﻧﯿﺴﺖ.
∞ −ﯾﺎ ∞ +اﻋﺪاد ﺣﻘﯿﻘﯽ ﻧﯿﺴﺘﻨﺪ ،ﻟﺬا ) x(ωﻧﺒﺎﯾﺪ ∞ −ﯾﺎ ∞ +ﺷﻮد )ﻣﮕﺮ آﻧﮑﻪ اﺣﺘﻤﺎل آن ωﺻﻔﺮ ﺑﺎﺷﺪ( .ﯾﻌﻨﯽ اﺟﺎزه ﻣﯽدﻫﯿﻢ ﮐﻪ
) x(ωﺑﺮای ﺑﺮﺧﯽ ωﻫﺎ ∞ −ﯾﺎ ∞ +ﺷﻮد ﻣﺸﺮوط ﺑﺮ آﻧﮑﻪ اﺣﺘﻤﺎل آن ωﻫﺎ ﺻﻔﺮ ﺑﺎﺷﺪ:
P{x = +∞} = P{x = −∞} = 0
3
)ﺗﻌﺮﯾﻒ :ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺣﻘﯿﻘﯽ ) x(ωﺗﺎﺑﻌﯽ اﺳﺖ ﺣﻘﯿﻘﯽ از ﻧﻘﺎط ﻓﻀﺎی ﻧﻤﻮﻧﮥ ω∈ Ωﺑﻪ ﻃﻮری ﮐﻪ ﺑﺮای ﻫﺮ ﻋﺪد ﺣﻘﯿﻘﯽ ،xﻣﺠﻤﻮﻋﮥ
} {x (ω) ≤ xﯾﮏ واﻗﻌﻪ ﺑﺎﺷﺪ و ( P{x = +∞} = P{x = −∞} = 0
ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ را ﮔﺴﺴﺘﻪ ﮔﻮﯾﻨﺪ ﻫﺮﮔﺎه ﻣﻘﺎدﯾﺮی ﮐﻪ ) x(ωﻣﯽﺗﻮاﻧﺪ اﺧﺘﯿﺎر ﮐﻨﺪ )ﺑﺮد ﺗﺎﺑﻊ( ﻗﺎﺑﻞ ﺷﻤﺎرش ﺑﺎﺷﺪ.
در ﺣﺎﻟﺖ ﮔﺴﺴﺘﻪ ﻣﺜﻞ ﻣﺜﺎﻟﯽ ﮐﻪ داﺷﺘﯿﻢ ﺳﺎدهﺗﺮﯾﻦ راه ﺑﺮای ﻣﺸﺨﺺ ﮐﺮدن اﺣﺘﻤﺎل واﻗﻌﻪﻫﺎ ،ﻣﺸﺨﺺ ﮐﺮدن اﺣﺘﻤﺎل واﻗﻌﻪﻫﺎی
} {x = xiﺑﺮای xiﻫﺎی ﻣﻤﮑﻨﻪ اﺳﺖ )ﻧﺴﺒﺖ ﺑﻪ ﻣﺸﺨﺺ ﮐﺮدن اﺣﺘﻤﺎل } {x ≤ xﺑﺮای ﻫﺮ .(x
ﺗﺎﺑﻊ ﺟﺮﻣﯽ اﺣﺘﻤﺎل ) pmf (Probability Mass Functionﯾﺎ ﺗﺎﺑﻊ اﺣﺘﻤﺎل ﯾﺎ ﺗﺎﺑﻊ ﻓﺮاواﻧﯽ:
ﺗﻌﺮﯾﻒ :اﮔﺮ xﻓﻘﻂ ﻣﻘﺎدﯾﺮ ﻣﻤﮑﻦ x3 ،x2 ،x1و ) ...ﻗﺎﺑﻞ ﺷﻤﺎرش( را ﺑﺎ اﺣﺘﻤﺎﻟﻬﺎی p3 ،p2 ،p1و ...اﺧﺘﯿﺎر ﮐﻨﺪ ،ﺗﺎﺑﻊ اﺣﺘﻤﺎل ﻣﺘﻐﯿﺮ
ﺗﺼﺎدﻓﯽ xﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽﺷﻮد:
آرﮔﻮﻣﺎن ﺗﺎﺑﻊ
↑ p i x = xi
Px (x) = Prob{x = x} =
↓
ﺑﯿﺎﻧﮕﺮ ﻧﻮع ﺗﺎﺑﻌﯿﺖ
0 otherwise
)اﮔﺮ ﻓﻘﻂ ﺑﺎ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺳﺮوﮐﺎر داﺷﺘﻪ ﺑﺎﺷﯿﻢ اﻧﺪﯾﺲ xرا ﻣﯽﺗﻮان ﺣﺬف ﮐﺮد( P(xi) :
4
در ﻣﺜﺎﻟﯽ ﮐﻪ داﺷﺘﯿﻢ ،ﺑﺮای i = 0, 1, 2, 3دارﯾﻢ:
3 8
1 i=0
3 1 1 i 3 i=1
Px (i ) = Prob{x = i} = ( )i ( ) 3−i = = 83
i 2 2 8 8 i=2
8 i=3
1
1 1 ﺗﺎﺑﻊ ) Px(xاﺳﺖ ﮐﻪ ﻓﻘﻂ در ﯾﮏ ﺳﺮی ﻧﻘﺎط ﻣﺤﺪود ﯾﺎ ﺣﺪاﮐﺜﺮ ﻗﺎﺑﻞ ﺷﻤﺎرش ﻣﻘﺪار
8 8 ﻏﯿﺮﺻﻔﺮ دارد.
x
0 1 2 3
5
ﺑﻪ ﻃﻮر ﮐﻠﯽ روﺷﻦ اﺳﺖ ﮐﻪ )P(xiﻫﺎ اﻋﺪادی ﺑﯿﻦ ﺻﻔﺮ و ﯾﮏ ﻫﺴﺘﻨﺪ )ﭼﻮن اﺣﺘﻤﺎل واﻗﻌﻪﻫﺎی } {x = xiاﻧﺪ( و دارﯾﻢ:
∞
∑
i =1
P (xi ) = 1
اﮔﺮ اﺣﺘﻤﺎل ﻫﺮ واﻗﻌﻪ را ﺑﺨﻮاﻫﯿﻢ ،ﺑﺎ داﺷﺘﻦ )P(xiﻫﺎ ﻗﺎﺑﻞ ﻣﺤﺎﺳﺒﻪ اﺳﺖ .ﻣﺜﻼً در ﻣﺜﺎل ﻓﻮق دارﯾﻢ:
1 3 4
= P{x ≤ 1.1} = P{x = 0} + P{x = 1} = +
8 8 8
و ﺑﻪ ﻃﻮر ﮐﻠﯽ ﺑﺮای ﻫﺮ زﯾﺮﻣﺠﻤﻮﻋﻪ از اﻋﺪاد ﺣﻘﯿﻘﯽ ﻣﺜﻞ Aدارﯾﻢ:
= }Prob{x ∈ A ∑
x ∈A
) P (xi
i
)وﻗﺘﯽ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ﺑﺎﺷﺪ ﯾﻌﻨﯽ ﻣﻘﺎدﯾﺮی ﮐﻪ ﻣﯽﺗﻮاﻧﺪ اﺧﺘﯿﺎر ﮐﻨﺪ ﻏﯿﺮﻗﺎﺑﻞ ﺷﻤﺎرش ﺑﺎﺷﺪ ،ﺗﻌﯿﯿﻦ اﺣﺘﻤﺎل } {x = xiﻫﺎ
ﮐﻔﺎﯾﺖ ﻧﻤﯽﮐﻨﺪ .اﻏﻠﺐ ﻫﻤﻪ ﺻﻔﺮﻧﺪ .در اﯾﻨﺠﺎ ﻣﯽﺗﻮاﻧﯿﻢ ﺗﺎﺑﻊ ﺗﻮزﯾﻊ اﻧﺒﺎﺷﺘﻪ را ﻣﻄﺮح ﮐﻨﯿﻢ(.
در ﻣﻬﻨﺪﺳﯽ ﺑﺮق ﺧﯿﻠﯽ اوﻗﺎت ﺑﺎ ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ﻣﺜﻞ وﻟﺘﺎژ ،ﺗﻮان و اﻣﺜﺎﻟﻬﻢ ﺳﺮوﮐﺎر دارﯾﻢ.
6
ﺗﺎﺑﻊ ﺗﻮزﯾﻊ اﻧﺒﺎﺷﺘﻪ ):CDF (Cumulative Distribution Function
آرﮔﻮﻣﺎن ﺗﺎﺑﻊ
ﻃﺒﻖ ﺗﻌﺮﯾﻒ دارﯾﻢ:
↑
}Fx ( x) = Prob{x ≤ x
↓
ﺑﯿﺎﻧﮕﺮ ﻧﻮع ﺗﺎﺑﻌﯿﺖ
)اﮔﺮ ﻓﻘﻂ ﺑﺎ ﺗﻮزﯾﻊ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺳﺮوﮐﺎر داﺷﺘﻪ ﺑﺎﺷﯿﻢ F(x) ،ﮐﻔﺎﯾﺖ ﻣﯽﮐﻨﺪ(.
ﭼﻪ ﺑﺮای ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ و ﭼﻪ ﮔﺴﺴﺘﻪ اﮔﺮ اﺣﺘﻤﺎل واﻗﻌﻪﻫﺎی } {x ≤ xرا ﺑﺮای ﻫﺮ xﺑﺪاﻧﯿﻢ ،اﺣﺘﻤﺎل ﻫﻤﮥ واﻗﻌﻪﻫﺎ
ﻣﺸﺨﺺ ﺧﻮاﻫﺪ ﺷﺪ .ﭘﺲ ) F(xﺑﻪ ﻃﻮر ﮐﺎﻣﻞ ﻣﯽﺗﻮاﻧﺪ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ را ﺗﻮﺻﯿﻒ ﮐﻨﺪ.
7
ﻣﺜﺎل :1در ﻣﺜﺎﻟﯽ ﮐﻪ داﺷﺘﯿﻢ:
)Fx(x Fx (−0.001) = P{x ≤ −0.001} = 0
1
Fx (0) = P{x ≤ 0} = 81
7
8
Fx (0.001) = P{x ≤ 0.001} = 81
Fx (0.999) = P{x ≤ 0.999} = 81
4
8 Fx (1) = P{x ≤ 1} = 84
Fx (1.0001) = P{x ≤ 1.0001} = 84
1
8 Fx (10) = P{x ≤ 10} = 1
x
0 1 2 3
در ﺣﺎﻟﺖ ﮔﺴﺴﺘﻪ ) Fx(xﺑﻪ ﺻﻮرت ﭘﻠﮑﺎﻧﯽ اﺳﺖ.
8
= } P{x ∈ A؛ ﻟﺬا دارﯾﻢ: ∑
x ∈A
ﻣﯽداﻧﯿﻢ ﮐﻪ در ﻣﻮرد RVﮔﺴﺴﺘﻪP (xi ) :
i
ﮐﻪ:
1 x ≥ 0
u ( x) =
0 x < 0
و ﻫﻤﭽﻨﯿﻦ:
) = F(xk ) − F(xk−ﻣﻘﺪار ﭘﺮش ) F(xدر P (xk ) = xk
)ﺑﻪ ﻃﻮر رﯾﺎﺿﯽ ﻧﯿﺰ اﯾﻦ را ﻧﺸﺎن ﺧﻮاﻫﯿﻢ داد(.
9
ﻣﺜﺎل :2ﯾﮏ ﻣﮑﺎﻟﻤﮥ ﺗﻠﻔﻨﯽ در زﻣﺎﻧﯽ ﮐﺎﻣﻼً ﺗﺼﺎدﻓﯽ ﺑﯿﻦ ] [0, Tواﻗﻊ ﻣﯽﺷﻮد.
}Ω = {t : 0 ≤ t ≤ T
ﺑﻪ ﻃﻮری ﮐﻪ ﺑﺮای ﻫﺮ : 0 ≤ t 1 ≤ t 2 ≤ T
t2 − t1
= } P{t 1 ≤ t ≤ t 2
T
اﮔﺮ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﻣﺎ ،ﺧﻮد زﻣﺎن وﻗﻮع ﻣﮑﺎﻟﻤﮥ ﺗﻠﻔﻨﯽ ﺑﺎﺷﺪ ،دارﯾﻢ:
ﺗﻮﺟﻪ ﮐﻨﯿﺪ ﮐﻪ ﻋﻨﺎﺻﺮ Ωاﻋﺪاد ﺑﯿﻦ 0ﺗﺎ Tﺑﻮدﻧﺪ ،وﻟﯽ ) F(xﺑﺮای ﻫﻤﮥ xﻫﺎ ﺗﻌﺮﯾﻒ ﺷﺪه اﺳﺖ )ﻣﺜﻼً xﻫﺎی ﻣﻨﻔﯽ ﻣﺘﻨﺎﻇﺮ ﺑﺎ
ﻣﺠﻤﻮﻋﮥ ∅ ﻣﯽﺷﻮﻧﺪ و اﺣﺘﻤﺎل ﺻﻔﺮ دارﻧﺪ(.
10
ﺧﻮاص ﺗﺎﺑﻊ ﺗﻮزﯾﻊ اﻧﺒﺎﺷﺘﻪ ):(CDF
1) F(−∞) = 0
زﯾﺮا:
F(−∞) = P{x = −∞} = 0
11
)4) P{x > x} = 1 − F(x
زﯾﺮا:
){ω : x (ω) > x} = {ω : x (ω) ≤ x}c ⇒ P{x > x} = 1 − P{x ≤ x} = 1 − F(x) = F c ( x
اﻏﻠﺐ در ﻣﺨﺎﺑﺮات ﺑﺎ } P{x > xﺳﺮوﮐﺎر دارﯾﻢ )ﺑﺰرﮔﺘﺮ ﺷﺪن از ﯾﮏ ﺳﻄﺢ آﺳﺘﺎﻧﻪ( ﮐﻪ ﻣﮑﻤﻞ ) F(xﻣﯽﺷﻮد.
از ﻫﻤﯿﻦ ﺟﺎ ﺑﻪ ازای x 2 = xو x1 = x − εو ﻣﯿﻞ دادن εﺑﻪ ﺳﻤﺖ ﺻﻔﺮ ﻧﺘﯿﺠﻪ ﻣﯽﺷﻮد ﮐﻪ:
) P{x = x} = F(x) − F( x −
12
اﮔﺮ ﭘﺮش در ) F(xداﺷﺘﻪ ﺑﺎﺷﯿﻢ F(x) ،ﺑﺎ ) F(x −ﺑﻪ اﻧﺪازۀ } P (x) = P{x = xﻣﺘﻔﺎوت ﺧﻮاﻫﺪ ﺑﻮد ،وﻟﯽ ) F(xﺑﻪ ﻫﺮ ﺣﺎل از راﺳﺖ
ﭘﯿﻮﺳﺘﻪ اﺳﺖ ،ﯾﻌﻨﯽ:
} F(x0 ) = F(x0+ ) = P{x ≤ x0
} F(x0− ) = P{x < x0
) p0 = F(x0+ ) − F(x0− ) = F(x0 ) − F(x0−
p0
x
0 x0
13
ﺣﺎل ﮐﻪ ) F(xرا ﻓﻬﻤﯿﺪﯾﻢ ﻣﯽﺗﻮاﻧﯿﻢ ﮔﺴﺴﺘﻪ ﯾﺎ ﭘﯿﻮﺳﺘﻪ ﺑﻮدن ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ را ﻃﻮر دﯾﮕﺮی ﻧﯿﺰ ﺗﻌﺮﯾﻒ ﮐﻨﯿﻢ:
ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ را ﮔﺴﺴﺘﻪ ) (Discreteﮔﻮﯾﻨﺪ اﮔﺮ ) F(xﺑﻪ ﺻﻮرت ﭘﻠﮑﺎﻧﯽ ﺑﺎﺷﺪ ،ﻣﺎﻧﻨﺪ ﻣﺜﺎﻟﯽ ﮐﻪ ﺑﺮای ﺳﻪ ﺳﮑﻪ داﺷﺘﯿﻢ.
در اﯾﻦ ﺣﺎﻟﺖ ﻫﻤﺎن ﻃﻮر ﮐﻪ ﻗﺒﻼً دﯾﺪﯾﻢ:
) P{x = xi } = F(xi ) − F(xi− ) = pi = P (xi
ﺗﻌﺮﯾﻒ ﻓﻮق ﺑﺎ اﯾﻦ ﺗﻌﺮﯾﻒ ﮐﻪ ﻣﻘﺎدﯾﺮ ﻣﻤﮑﻨﻪ ﺑﺮای xﻗﺎﺑﻞ ﺷﻤﺎرش ﻫﺴﺘﻨﺪ ﻣﻌﺎدل اﺳﺖ.
ﺗﻮﺟﻪ ﮐﻨﯿﺪ ﮐﻪ ﮔﺮ ﭼﻪ اﮔﺮ ﻓﻀﺎی ﻧﻤﻮﻧﻪ ) (Ωﻗﺎﺑﻞ ﺷﻤﺎرش ﺑﺎﺷﺪ ،ﻫﺮ xای روی آن ﮔﺴﺴﺘﻪ ﺧﻮاﻫﺪ ﺑﻮد ،وﻟﯽ روی ﻓﻀﺎی Ωﭘﯿﻮﺳﺘﻪ ﻧﯿﺰ
ﻣﯽﺗﻮان xﮔﺴﺴﺘﻪ ﺗﻌﺮﯾﻒ ﮐﺮد.
ﻣﺜﻼً اﮔﺮ Aواﻗﻌﻪای در ﻓﻀﺎی ﻧﻤﻮﻧﮥ ﻏﯿﺮﻗﺎﺑﻞ ﺷﻤﺎرش Ωﺑﺎﺷﺪ و ﺗﻌﺮﯾﻒ ﮐﻨﯿﻢ:
1 ω∈ A
x (ω) = ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﯾﮏ-ﺻﻔﺮ ) (Zero-One RVﻣﺘﻨﺎﻇﺮ ﺑﺎ واﻗﻌﮥ : A
0 ∈ω
/ A
14
در اﯾﻦ ﺻﻮرت اﮔﺮ P (A ) = pو P (A ) = 1 − p = qﺑﺎﺷﺪ ،دارﯾﻢ:
)F(x
1
p
q
x
0 1
1
x
0 T
15
ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ وﯾﮋﮔﯽ 5ﺑﺮای ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ،ﻧﺘﯿﺠﻪ ﻣﯽﮔﯿﺮﯾﻢ ﮐﻪ ﺑﺮای ﻫﺮ xدارﯾﻢ. P{x = x} = 0 :
ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ را از ﻧﻮع ﻣﺨﻠﻮط ) (Mixedﮔﻮﯾﻨﺪ اﮔﺮ ) F(xدارای ﻧﺎﭘﯿﻮﺳﺘﮕﯽ ﺑﺎﺷﺪ ،وﻟﯽ ﭘﻠﮑﺎﻧﯽ ﻧﺒﺎﺷﺪ.
)ﺗﻌﺮﯾﻔﯽ ﮐﻪ ﻗﺒﻼً ﺑﺮای ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ﮐﺮدﯾﻢ دو ﻧﻮع اﺧﯿﺮ را ﺑﺎ ﻫﻢ در ﺑﺮﻣﯽﮔﺮﻓﺖ ،ﭼﻮن در ﻫﺮ دو ﺗﻌﺪاد ﻣﻘﺎدﯾﺮ ﻣﻤﮑﻨﻪ ﺑﺮای x
ﻏﯿﺮﻗﺎﺑﻞﺷﻤﺎرش اﺳﺖ(.
)F(x
1
x
0
16
ﻣﺜﺎل :وﻟﺘﺎژ ورودی ﺗﻘﻮﯾﺖﮐﻨﻨﺪهای ،وﻟﺘﺎژی ﮐﺎﻣﻼً ﺗﺼﺎدﻓﯽ ﺑﯿﻦ 0و ) 1اﺣﺘﻤﺎل ﯾﮑﻨﻮاﺧﺖ( اﺳﺖ .ﺑﻬﺮۀ ﺗﻘﻮﯾﺖﮐﻨﻨﺪه 10اﺳﺖ ،وﻟﯽ
ﺣﺪاﮐﺜﺮ وﻟﺘﺎژ ﺧﺮوﺟﯽ 4 Vاﺳﺖ و ﺑﺮای ﺑﯿﺸﺘﺮ از آن روی 4 Vاﺷﺒﺎع ﻣﯽﺷﻮد.
0.4
x y
0 1 0 4 10
)Fy (y
ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ اﺷﺒﺎع 1
0.4
y
0 4
} {x = 4اﺣﺘﻤﺎﻟﯽ ﺑﺮاﺑﺮ ﺑﺎ 0/6دارد و ﺳﺎﯾﺮ }{x = xﻫﺎ اﺣﺘﻤﺎﻟﺸﺎن ﺻﻔﺮ اﺳﺖ.
17
ﺻﺪکﻫﺎ )ﻧﻘﺎط درﺻﺪ( ):(Percentiles
وﻗﺘﯽ ﻣﯽﮔﻮﯾﯿﻢ Fx (x) = uﯾﻌﻨﯽ ﺑﻪ اﺣﺘﻤﺎل uﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ xاز ﻣﻘﺪار xﺑﺰرﮔﺘﺮ ﻧﻤﯽﺷﻮد )ﮐﻮﭼﮑﺘﺮ ﯾﺎ ﻣﺴﺎوی xاﺳﺖ( .ﺧﯿﻠﯽ
اوﻗﺎت ﺑﺎ ﻋﮑﺲ ﻣﺴﺄﻟﻪ ﻣﻮاﺟﻬﯿﻢ .ﻣﺜﻼً ﻣﯽﺧﻮاﻫﯿﻢ ﺑﺒﯿﻨﯿﻢ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ xﺑﻪ اﺣﺘﻤﺎل 0/95ﮐﻮﭼﮑﺘﺮ ﯾﺎ ﻣﺴﺎوی ﮐﺪام xاﺳﺖ؟
F(x) = P{x ≤ x} = u
0 ≤ u ≤ 1داده ﺷﺪه و ∞ −∞ ≤ x ≤ +ﻣﻄﻠﻮب اﺳﺖ:
ﺗﺎﺑﻌﯽ از x u = F −1 (u) :u
x uرا ﺻﺪک 100-uام ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ xﮔﻮﯾﻨﺪ .ﻣﺜﻼً ، x0.95ﺻﺪک ﻧﻮد و ﭘﻨﺠﻢ اﺳﺖ.
)x=F−1 (u
)F(x
1
0.5
m
x u
0 m 0 0.5 1
18
ﺻﺪک دﻫﻢ را دﻫﮏ ) (Decileاول ،ﺻﺪک ﺑﯿﺴﺘﻢ را دﻫﮏ دوم و ...ﮔﻮﯾﻨﺪ.
ﺻﺪک 25ام را ﭼﺎرک ) (Quartileاول ﯾﺎ ﭘﺎﯾﯿﻦ و ﺻﺪک 75ام را ﭼﺎرک ﺳﻮم ﯾﺎ ﺑﺎﻻ ﮔﻮﯾﻨﺪ.
0.5 m=0
x
0
19
)Fx(x وﻟﯽ ﻣﻤﮑﻦ اﺳﺖ Fﭘﺮش داﺷﺘﻪ ﺑﺎﺷﺪ و ﻟﺬا در ﻫﯿﭻ ﻧﻘﻄﻪای Fx ( x) = 0.5ﻧﺸﻮد:
1
0.6 m=1
0.3
x
0 1 2 3
0.5
x
0
20
ﺗﻌﺮﯾﻒ ﻣﯿﺎﻧﻪ :ﺑﺮای ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ،xﻣﯿﺎﻧﮥ mﻣﻘﺪاری اﺳﺖ ﮐﻪ ﺑﺮای آن داﺷﺘﻪ ﺑﺎﺷﯿﻢ:
1 1
≥ }P{x ≥ m} ≥ , P{x ≤ m
2 2
x
xmin 0 xmax
ﻣﺜﻼً ﺑﺎ ﻗﺮاﺋﺖ ﻣﮑﺮر وﻟﺘﺎژ ﻧﻮﯾﺰی ﮐﻪ ﺗﻮزﯾﻊ آن را ﻧﻤﯽداﻧﯿﻢ ﻣﯽﺗﻮاﻧﯿﻢ ) F(xﺗﻘﺮﯾﺒﯽ آن را ﺑﻪ دﺳﺖ آورﯾﻢ:
nx
= )F(x) Fn (x nxﺗﻌﺪاد xiﻫﺎﯾﯽ اﺳﺖ ﮐﻪ ﺑﺮای آﻧﻬﺎ xi ≤ xاﺳﺖ:
n
ﺑﺮای nﺑﺰرگ ﻣﻨﺤﻨﯽ ﺗﺠﺮﺑﯽ ﺑﻪ واﻗﻌﯽ ﻣﯿﻞ ﻣﯽﮐﻨﺪ.
21
k 1
ﺧﻮاﻫﺪ ﺑﻮد. اﮔﺮ ﯾﮏ ﻣﻘﺪار ﺑﯿﺶ از ﯾﮏ ﺑﺎر ﺣﺎﺻﻞ ﺷﻮد )در ﻣﻮرد ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ﻣﻌﻤﻮﻻً اﯾﻦ ﻃﻮر اﺳﺖ( ،ﭘﻠﻪ ﺑﻪ ﺟﺎی ،
n n
ﻣﺜﻼً در ﻣﺜﺎل ﺳﻪ ﺳﮑﻪ ﮐﻪ داﺷﺘﯿﻢ اﮔﺮ در 10ﺑﺎر ﺗﮑﺮار آزﻣﺎﯾﺶ ،اﯾﻦ ﻧﺘﺎﯾﺞ ﺣﺎﺻﻞ ﺷﺪه ﺑﺎﺷﻨﺪ ،دارﯾﻢ:
3 2 1 ﺻﻔﺮ ﺗﻌﺪاد ﺷﯿﺮﻫﺎ
ﯾﮏ ﺑﺎر ﺳﻪ ﺑﺎر ﭼﻬﺎر ﺑﺎر دو ﺑﺎر ﺗﻌﺪاد وﻗﻮع
)Fn(x
1
0.9
0.6
0.2
x
0 1 2 3
ﻣﻘﺎدﯾﺮ واﻗﻌﯽ:
F(0) = 81 = )F(1 4
8
F(2 ) = 78 F ( 3) = 1
)ﺑﻪ ﺻﻮرت ﻣﺸﺎﺑﻬﯽ ﻣﻨﺤﻨﯽ ﺻﺪک ﻧﯿﺰ ﺑﻪ ﻃﻮر ﺗﺠﺮﺑﯽ ﻗﺎﺑﻞ ﺗﺨﻤﯿﻦ اﺳﺖ(.
22
ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ):pdf (Probability Density Function
ﺑﺮای ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ راه دﯾﮕﺮ ﺑﺮای ﻣﺸﺨﺺ ﮐﺮدن اﺣﺘﻤﺎل واﻗﻌﻪﻫﺎﯾﯽ ﮐﻪ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ xرا ﺗﻌﺮﯾﻒ ﻣﯽﮐﻨﻨﺪ آن اﺳﺖ ﮐﻪ
)ﻣﺸﺎﺑﻪ آﻧﭽﻪ ﻣﺴﺘﻘﯿﻤﺎً ﺑﺮای اﺣﺘﻤﺎل ﺧﻮد واﻗﻌﻪﻫﺎی Ωﺑﺎ ﺗﻌﺮﯾﻒ ) α(xﮐﺮدﯾﻢ( ﺗﺎﺑﻌﯽ ﮐﻪ ﺑﯿﺎﻧﮕﺮ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل اﺳﺖ را داﺷﺘﻪ ﺑﺎﺷﯿﻢ.
)ﺑﻪ وﺳﯿﻠﮥ pdfدﯾﺪ ﺑﯿﺸﺘﺮی )در ﻣﻘﺎﯾﺴﻪ ﺑﺎ (CDFﻧﺴﺒﺖ ﺑﻪ ﻣﯿﺰان ﻣﺤﺘﻤﻞ ﺑﻮدن ﻣﻘﺎدﯾﺮ ﻣﺨﺘﻠﻒ ﭘﯿﺪا ﻣﯽﮐﻨﯿﻢ(.
pdfرا ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽﮐﻨﯿﻢ:
)dFx (x
= )fx (x
dx
در ﮐﺘﺎب ﻧﺘﺎﺳﯿﻮن ) (Notationآن ﺑﺎ ﺗﺎﺑﻊ اﺣﺘﻤﺎل ﯾﮑﯽ اﺳﺖ.
ﮔﺎﻫﯽ CDFو ﮔﺎﻫﯽ pdfرا ﺗﺎﺑﻊ ﺗﻮزﯾﻊ )ﺑﯿﺸﺘﺮ (CDFﯾﺎ ﺗﻮزﯾﻊ )ﺑﯿﺸﺘﺮ (pdfﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ xﮔﻮﯾﻨﺪ.
ﻣﺜﺎل :در ﻣﺜﺎل ﻣﮑﺎﻟﻤﮥ ﺗﻠﻔﻨﯽ ﮐﺎﻣﻼً ﺗﺼﺎدﻓﯽ ﺑﯿﻦ ] [0, Tدﯾﺪﯾﻢ ﮐﻪ:
)F(x )f (x
1
1
T
x x
0 T 0 T
23
ﺧﻮاص ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ):(pdf
ﭘﺲ ﺣﮑﻢ ﺛﺎﺑﺖ اﺳﺖ )ﺗﻮﺟﻪ ﮐﻨﯿﺪ ﮐﻪ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ را ﭘﯿﻮﺳﺘﻪ ﻓﺮض ﮐﺮدﯾﻢ(.
ﺿﻤﻨﺎً اﮔﺮ در راﺑﻄﮥ ﻓﻮق ∞ x1 = −ﻗﺮار دﻫﯿﻢ ،دارﯾﻢ:
x
= )F ( x ∫
∞−
f (u)du
24
ﻫﻤﭽﻨﯿﻦ از ﺧﺎﺻﯿﺖ ﻓﻮق وﻗﺘﯽ ∆x → 0دارﯾﻢ:
)ﻣﻔﻬﻮم ﭼﮕﺎﻟﯽ( P{x ≤ x ≤ x + ∆x} = f (x)∆x
ﯾﺎ:
}P{x ≤ x ≤ x + ∆x
f (x) = lim
∆x→0 ∆x
)f (x
)اﯾﻦ در واﻗﻊ ) f ( x +اﺳﺖ ،ﭼﻮن CDFﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ اﮔﺮ ﭼﻪ
ﭘﯿﻮﺳﺘﻪ اﺳﺖ ،وﻟﯽ ﻟﺰوﻣﺎً ﻣﺸﺘﻖﭘﺬﯾﺮ ﻧﯿﺴﺖ .ﻣﻤﮑﻦ اﺳﺖ ﻣﺸﺘﻖ راﺳﺖ و ﭼﭗ ﺑﺮاﺑﺮ
ﻧﺒﺎﺷﻨﺪ ،در اﯾﻦ ﺻﻮرت ﻧﺎﭘﯿﻮﺳﺘﮕﯽ در ) f(xﺧﻮاﻫﯿﻢ داﺷﺖ ،ﻣﺎﻧﻨﺪ ﻣﺜﺎل ﺑﺎﻻ .در
ﭼﻨﯿﻦ ﻧﻘﺎﻃﯽ ﮐﻪ ﻣﺸﺘﻖ وﺟﻮد ﻧﺪارد ﻫﺮ ﻣﻘﺪاری را ﻣﯽﺗﻮاﻧﯿﺪ ﺑﻪ ) f(xﻧﺴﺒﺖ دﻫﯿﺪ،
x x + ∆x ﻣﺜﻼً ﻣﺸﺘﻖ راﺳﺖ را(.
2) f ( x) ≥ 0
ﭼﻮن ) F(xﻏﯿﺮﻧﺰوﻟﯽ اﺳﺖ.
) fﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﻣﺎﻧﻨﺪ Pﺗﺎﺑﻊ اﺣﺘﻤﺎل ﻧﺎﻣﻨﻔﯽ اﺳﺖ ،وﻟﯽ fﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﻣﯽﺗﻮاﻧﺪ ﺑﺰرﮔﺘﺮ از ﯾﮏ ﻫﻢ ﺑﺸﻮد و ﺣﺘﯽ ﻣﯽﺗﻮاﻧﺪ ﺑﻪ ﺳﻤﺖ
1
2 −3
ﻼ )( f ( x) = x u ( x
ﺑﯽﻧﻬﺎﯾﺖ ﺑﺮود ،ﻣﺜ ً
3
25
∞+
)3 ∫
∞−
f (x)dx = 1
∞
ﺑﺮای ﺗﺎﺑﻊ اﺣﺘﻤﺎل(. ∑
=
i 1
ﭼﻮن F(+∞) = 1اﺳﺖ )ﻣﺸﺎﺑﻪ ﺧﺎﺻﯿﺖ P (xi ) = 1
26
ﻣﺜﺎل :ﻣﺪت زﻣﺎن ﮐﺎرﮐﺮد ﯾﮏ ﮐﺎﻣﭙﯿﻮﺗﺮ )ﺑﺮ ﺣﺴﺐ روز( ﻗﺒﻞ از ﺧﺮاﺑﯽ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ زﯾﺮ اﺳﺖ:
x
اﻟﻒ(
x x
∞+ +∞ − − ∞+ 1
∫∞−
f (x) dx = 1 ⇒ λ ∫0 e 100 dx = 1 ⇒ −λ (100)e 100
0
= = 100λ = 1 ⇒ λ
100
x x 1 3
150 1 − 100 − − −
∫50
150
= }P{50 < x < 150 e dx = −e 100 50 =e 2 −e 2 = 0.384
100
ب(
x x
100 1 − 100 −
∫0 = 1 − e −1 = 0.632
100
= }P{x < 100 e dx = −e 100 0
100
ﯾﻌﻨﯽ در %63اوﻗﺎت ﮐﺎﻣﭙﯿﻮﺗﺮ ﻗﺒﻞ از اﯾﻨﮑﻪ 100روز ﮐﺎر ﮐﻨﺪ از ﮐﺎر ﻣﯽاﻓﺘﺪ.
27
ﺑﻪ دﺳﺖ آوردن ﺗﺠﺮﺑﯽ ):f(x
آزﻣﺎﯾﺶ را nﺑﺎر ﺗﮑﺮار ﻣﯽﮐﻨﯿﻢ و ﻣﻘﺪار ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ xﺣﺎﺻﻠﻪ از ﻫﺮ آزﻣﺎﯾﺶ را ﺛﺒﺖ ﻣﯽﮐﻨﯿﻢ .ﻣﺤﻮر xﻫﺎ را ﺑﻪ ﻓﻮاﺻﻠﯽ ﺑﻪ ﻃﻮل ∆
ﺗﻘﺴﯿﻢ ﻣﯽﮐﻨﯿﻢ .اﮔﺮ ﺗﻌﺪاد xiﻫﺎﯾﯽ ﮐﻪ در ﻓﺎﺻﻠﮥ kام ،ﯾﻌﻨﯽ ) ∆ [ ck , ck +ﻗﺮار دارﻧﺪ را ﺑﺎ nkﻧﺸﺎن دﻫﯿﻢ ،دارﯾﻢ:
nk
)f ( x = ﻫﯿﺴﺘﻮﮔﺮام )fn (x ∆ : ck ≤ x < ck +
∆n
ﺑﻪ اﯾﻦ ﺗﺮﺗﯿﺐ:
nk
∆ ) f ( ck }∆ P{ck ≤ x < ck + ∆)= fn (x
n
x
∆ck ck +
28
pdfﺑﺮای ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ ﻏﯿﺮ ﭘﯿﻮﺳﺘﻪ:
در ﻣﻮرد ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﻏﯿﺮﭘﯿﻮﺳﺘﻪ ﯾﺎ ﻣﺨﻠﻮط ﭼﻮن CDFدارای ﻧﺎﭘﯿﻮﺳﺘﮕﯽ اﺳﺖ ،ﻣﺸﺘﻖ ﺑﯽﻣﻔﻬﻮم ﺧﻮاﻫﺪ ﺑﻮد )ﺑﯽﻧﻬﺎﯾﺖ ﻣﯽ ﺷﻮد(.
وﻟﯽ ﺑﺎ اﺳﺘﻔﺎده از ﺗﺎﺑﻊ )ﺗﺎﺑﻊ ﺗﻌﻤﯿﻢ ﯾﺎﻓﺘﮥ( δﻣﯽﺗﻮاﻧﯿﻢ آن را ﺑﯿﺎن ﮐﻨﯿﻢ.
) f (x 3 3 ﻣﺜﻼً ﺑﺮای ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ در ﻣﺜﺎل ﭘﺮﺗﺎب ﺳﻪ ﺳﮑﻪ دارﯾﻢ:
8 8 = )f ( x ) ∑i Pi δ(x − xi
ﻫﻤﺎن ﻃﻮر ﮐﻪ داﺷﺘﯿﻢ:
1 1
8 8 = )F ( x ) ∑i Pi u(x − xi
)ﯾﻌﻨﯽ ﻧﻘﺎط ﺗﺎﺑﻊ اﺣﺘﻤﺎل ﺑﻪ دﻟﺘﺎﻫﺎﯾﯽ ﺑﺎ آن وزﻧﻪﻫﺎ ﺗﺒﺪﯾﻞ ﺷﺪ(
x
0 1 2 3
29
)Fy (y در ﻣﺜﺎل ﺗﻘﻮﯾﺖﮐﻨﻨﺪهای ﮐﻪ اﺷﺒﺎع ﻣﯽ ﺷﻮد ﻧﯿﺰ دﯾﺪﯾﻢ:
1
0.4
y
0 4
ﻟﺬا:
) fy ( y 0.6
0.1
y
0 4
x +2 وﻗﺘﯽ اﺟﺎزه دﻫﯿﻢ ﮐﻪ ) f(xﺣﺎوی دﻟﺘﺎ ﺑﺎﺷﺪ ،ﺧﻮاﻫﯿﻢ داﺷﺖ:
= } P{x1 ≤ x ≤ x 2 ∫
x1−
f (x)dx
x +2
= } P{x1 < x ≤ x 2 ∫
x1+
f (x)dx
30
ﺑﺮﺧﯽ ﺗﻮزﯾﻊ ﻫﺎی ﺧﺎص:
ﺑﻪ ﺳﺎدﮔﯽ ﻣﯽﺗﻮان ﻧﺸﺎن داد ﮐﻪ ﺑﺮای ﻫﺮ ﺗﺎﺑﻊ ﻏﯿﺮﻧﺰوﻟﯽ )و از راﺳﺖ ﭘﯿﻮﺳﺘﻪ( ﮐﻪ در ﺑﯽﻧﻬﺎﯾﺖ ،ﯾﮏ و در ﻣﻨﻬﺎی ﺑﯽﻧﻬﺎﯾﺖ ﺻﻔﺮ ﺑﺎﺷﺪ،
ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽای وﺟﻮد دارد ﮐﻪ اﯾﻦ ﺗﺎﺑﻊ ،ﺗﺎﺑﻊ ﺗﻮزﯾﻊ اﻧﺒﺎﺷﺘﮥ آن ﺑﺎﺷﺪ )ﻗﻀﯿﮥ وﺟﻮد( .وﻟﯽ ﺑﺮﺧﯽ ﺗﻮزﯾﻌﻬﺎ ﮐﺎرﺑﺮد ﺑﯿﺸﺘﺮی دارﻧﺪ.
)Fx(x )fx(x
1
1
b−a
x x
0 a b 0 a b
ﻣﺜﻼً اﻏﻠﺐ ﻓﺎز ﺳﯿﮕﻨﺎل درﯾﺎﻓﺘﯽ ،ﯾﮑﻨﻮاﺧﺖ ﺑﯿﻦ 0و 2πﻓﺮض ﻣﯽﺷﻮد .ﻣﻮاﻗﻌﯽ ﮐﻪ ﻫﯿﭻ اﻃﻼع ﭘﯿﺸﯿﻨﯽ در ﻣﻮرد ﻧﺤﻮۀ ﺗﻮزﯾﻊ ﻧﺪارﯾﻢ ﻧﯿﺰ
ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ اﺻﻞ ﻧﺎﮐﺎﻓﯽ ﺑﻮدن دﻟﯿﻞ از ﺗﻮزﯾﻊ ﯾﮑﻨﻮاﺧﺖ اﺳﺘﻔﺎده ﻣﯽﺷﻮد.
31
ﺗﻮزﯾﻊ ﻧﺮﻣﺎل ) (Normalﯾﺎ ﮔﻮﺳﯽ ):(Gaussian
ﮐﺎرﺑﺮد ﺑﺴﯿﺎر زﯾﺎدی دارد و در ﺑﺴﯿﺎری ﻣﻮارد ﻋﻤﻠﯽ ﺗﻘﺮﯾﺐ ﺧﻮﺑﯽ ﺑﺮای pdfﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﻣﻮرد ﻧﻈﺮ ﻋﻤﻞ ﻣﯽﮐﻨﺪ .ﻣﺜﻼً در ﯾﮏ ﺟﺎﻣﻌﮥ
ﻫﻤﮕﻦ ،ﺗﻮزﯾﻊ ﻗﺪ و وزن اﻓﺮاد ﻧﺮﻣﺎل اﺳﺖ .ﺗﻮزﯾﻊ ﻣﺸﺨﺼﺎت ﻗﻄﻌﺎت ﺗﻮﻟﯿﺪی ﯾﮏ ﮐﺎرﺧﺎﻧﻪ ﻣﻌﻤﻮﻻً ﻧﺮﻣﺎل اﺳﺖ .ﻃﺒﻖ ﻗﻀﯿﮥ ﺣﺪ ﻣﺮﮐﺰی
ﻣﺠﻤﻮع ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ ،وﻟﻮ ﻧﺮﻣﺎل ﻧﺒﺎﺷﻨﺪ ،ﺑﻪ ﻧﺮﻣﺎل ﻣﯿﻞ ﻣﯽﮐﻨﺪ .ﻧﺸﺎن داده ﺷﺪه ﮐﻪ ﻧﻮﯾﺰ ﺣﺮارﺗﯽ ،؟؟؟ ﻧﻮﯾﺰ و ...ﮔﻮﺳﯽ ﻫﺴﺘﻨﺪ .از
ﻧﻈﺮ رﯾﺎﺿﯽ ﻧﯿﺰ ﮐﺎر ﺑﺎ آن ﺳﺎده اﺳﺖ.
32
: دارﯾﻢ، x ∼ N(η ,σ ) اﮔﺮ،(σ > 0 در ﺣﺎﻟﺖ ﮐﻠﯽ )ﺑﺮای
( x −η )2
1 −
2σ 2 1 x −η
fx (x) = e = g( )
2π σ σ σ
( u −η )2
Fx (x) =
1 x
∫−∞ e
−
2σ 2 du = G(
x −η
) f(x)
2π σ σ
ﮐﻮﭼﮏσ
f(x)
1
2πσ
0.6
2πσ
ﺑﺰرگσ
x x
η −σ η η +σ η
33
x −η
.ﻣﯽﺷﻮد ∼ N(0, 1) ﺧﻮاﻫﺪ ﺑﻮد و ﻟﺬاax + b ∼ N(aη + b, aσ ) ، ﺑﺎﺷﺪx ∼ N(η ,σ ) اﺻﻮﻻً اﮔﺮ
σ
y = ax + b
y−b ( x −η )2
y−b 1 −
Fy ( y) = P{y ≤ y} = P{ax + b ≤ y} = P{x ≤
a
}= ∫
−∞
a
2π σ
e 2σ 2 du
[ t − ( aη + b )]2
y 1 − y
= ∫
−∞ 2 π aσ
e 2a 2σ 2 dt = ∫−∞
fy (t )dt
x1 − η x −η x2 − η x2 − η x1 − η x2 − η x1 − η
P{x1 ≤ x ≤ x 2 } = P{ ≤ ≤ } = Fz ( ) − Fz ( ) = G( ) − G( )
σ σ σ σ σ σ σ
z
P{η − σ ≤ x ≤ η + σ } 0.683
P{η − 2σ ≤ x ≤ η + 2σ } 0.954
P{η − 3σ ≤ x ≤ η + 3σ } 0.997
34
ﺧﻮب اﺳﺖ ﺑﻪ ﺧﺎﻃﺮ داﺷﺘﻪ ﺑﺎﺷﯿﺪ ﮐﻪ در ﺗﻮزﯾﻊ ﻧﺮﻣﺎل ،در ﺧﯿﻠﯽ از ﮐﺘﺎﺑﻬﺎ ) G(xﺑﺎ ) Φ(xﻧﺸﺎن داده ﻣﯽﺷﻮد:
Kreyszig, Tables A8 and A9.
در ﮐﺎرﺑﺮدﻫﺎی ﻣﻬﻨﺪﺳﯽ ﺑﺮق ﺧﯿﻠﯽ اوﻗﺎت } F c (x) = P{x > xﻧﺮﻣﺎل را ﻻزم دارﯾﻢ:
u2
x 1 −
= )Q(x) = 1 − G(x ∫
∞− 2π
e 2 du
ﺑﻌﻀﺎً ﻧﯿﺰ ﺑﺮ ﺣﺴﺐ ﺗﺎﺑﻊ ﻣﻌﺮوف ) Error Functionﺗﺎﺑﻊ ﺧﻄﺎ( ﺑﯿﺎن ﻣﯽﮐﻨﻨﺪ:
2 x − u2
= )erf(x
π∫0
e du
35
ﻣﺜﺎل :وﻟﺘﺎژ ﻧﻮﯾﺰی دارای ﺗﻮزﯾﻊ ﻧﺮﻣﺎل ﺑﺎ η = 0و σ = 0.75اﺳﺖ .اﮔﺮ xﻧﺸﺎن دﻫﻨﺪۀ وﻟﺘﺎژ ﻧﻮﯾﺰ ﺑﺎﺷﺪ؛
اﻟﻒ( اﺣﺘﻤﺎل اﯾﻨﮑﻪ x ≤ 1.5 Voltsﺑﺎﺷﺪ ﭼﻘﺪر اﺳﺖ؟
ب( وﻟﺘﺎژ ﻧﻮﯾﺰ xاز ﭼﻪ ﺳﻄﺢ وﻟﺘﺎژی در %99ﻣﻮارد ﺗﺠﺎوز ﻧﻤﯽﮐﻨﺪ؟
xاز ﭼﻪ ﺳﻄﺢ وﻟﺘﺎژی در %99ﻣﻮارد ﺗﺠﺎوز ﻧﻤﯽﮐﻨﺪ؟ ج(
اﻟﻒ(
1 .5 − 0 −1.5 − 0 1 .5
(P{ x ≤ 1.5} = P{−1.5 ≤ x ≤ 1.5} = G () − G () = 2G ) − 1 = 0.954
0.75 0.75 0.75
ﭼﻮن اﯾﻦ ﻫﻤﺎن ﻣﺤﺪودۀ η ± 2σاﺳﺖ ،از ﻗﺒﻞ ﻫﻢ ﻣﯽداﻧﺴﺘﯿﻢ %95ﻣﯽ ﺷﻮد.
ب(
ﯾﻌﻨﯽ دﻧﺒﺎل ﺻﺪک 99ام ﻫﺴﺘﯿﻢ → P{x ≤ x} = 0.99
x−0
(G ) = 0.99
0.75
از ﺟﺪول A9ﻣﯽﺗﻮاﻧﯿﻢ G -1را ﺣﺴﺎب ﮐﻨﯿﻢ:
x−0
ﺻﺪک ﻧﻮد و ﻧﻬﻢ = G -1( 0.99 ) = 2.326 ⇒ x = 1.745 :
0.75
36
ج(
P{ x ≤ x} = 0.99
x−0 x
(2G ⇒ ) − 1 = 0.99 = G -1( 0.995 ) ⇒ x = 1.932
0.75 0.75
ﯾﺎ از ﺟﺪول A9ﻣﺴﺘﻘﯿﻤﺎً D-1را دارﯾﻢ:
)D(z) = G(z) − G(-z
x−0
= 2.576 ⇒ x = 1.932
0.75
37
ﺗﻮزﯾﻊ ﻧﻤﺎﯾﯽ ):(Exponential
fx (x) = λe −λx : x ≥ 0
ﯾﺎ ﻣﯽﻧﻮﯾﺴﯿﻢ:
)fx (x) = λe −λx u(x) ⇒ Fx (x) = (1 − e −λx )u(x
اﯾﻦ ﺗﻮزﯾﻊ ﮐﺎرﺑﺮد ﺑﺴﯿﺎر زﯾﺎدی دارد .ﻣﺜﻼً ﻓﺎﺻﻠﮥ ﺑﯿﻦ دو ﻧﻘﻄﮥ ﺗﺼﺎدﻓﯽ دارای ﺗﻮزﯾﻊ ﻧﻤﺎﯾﯽ اﺳﺖ.
ﻣﮑﺎﻟﻤﺎت ﺗﻠﻔﻨﯽ:
ﺗﻌﺪاد اﯾﻦ ﻧﻘﺎط در ﯾﮏ ﺑﺎزۀ زﻣﺎﻧﯽ ﻣﺸﺨﺺ دارای ﺗﻮزﯾﻊ ﭘﻮاﺳﻦ اﺳﺖ ،اﻣﺎ ﻓﺎﺻﻠﮥ ﺑﯿﻦ آﻧﻬﺎ ﺗﻮزﯾﻊ ﻧﻤﺎﯾﯽ دارد.
tﻣﯽﺗﻮاﻧﺪ ﻣﻘﺎدﯾﺮ ﺑﯿﻦ ﺻﻔﺮ ﺗﺎ ﺑﯽﻧﻬﺎﯾﺖ را اﺧﺘﯿﺎر ﮐﻨﺪ.
}ft ( τ)dτ = P{τ < t ≤ τ + dτ
tوﻗﺘﯽ ﺑﯿﻦ τو τ+dτﺧﻮاﻫﺪ ﺑﻮد ﮐﻪ ﺗﺎ ﻗﺒﻞ از τﻣﮑﺎﻟﻤﻪای اﺗﻔﺎق ﻧﯿﻔﺘﺎده ﺑﺎﺷﺪ و ﺑﯿﻦ τو τ+dτﯾﮏ ﻣﮑﺎﻟﻤﻪ اﺗﻔﺎق اﻓﺘﺪ.
−λτ (λτ)k
k} = eﻧﻘﻄﻪ در P{τ
!k
38
−λτ (λτ)0 −λdτ (λdτ)1
} = eﯾﮏ ﺑﺎر وﻗﻮع در }P{dτﻋﺪم وﻗﻮع در ﻓﺎﺻﻠﮥ ft (τ)dτ = P{τ e
!0 !1
ft ( τ)dτ = λe −λ ( τ+dτ)dτ
dτ → 0 ⇒ ft (τ) = λe −λτ : τ ≥ 0
ﻓﺎﺻﻠﮥ ﺑﯿﻦ دو زﻣﯿﻦﻟﺮزۀ ﻣﺘﻮاﻟﯽ و ﻣﺴﺘﻘﻞ ،ﻓﺎﺻﻠﮥ ﺑﯿﻦ دو ﺑﺎر ﺧﺮاب ﺷﺪن ﯾﮏ دﺳﺘﮕﺎه و ) ...ﺑﺎ ﻓﺮض اﺳﺘﻘﻼل از ﻫﻢ و ﻣﺘﺴﺎوی اﻻﺣﺘﻤﺎل
ﺑﻮدن در ﺗﻤﺎم زﻣﺎﻧﻬﺎ( ﺗﻮزﯾﻊ ﻧﻤﺎﯾﯽ دارﻧﺪ.
ﻟﺬا اﯾﻦ ﺗﻮزﯾﻊ ﺑﺮای ﺗﺼﺎدف اﺗﻮﻣﺒﯿﻞ و ﻃﻮﻓﺎﻧﻬﺎی ﺧﻮرﺷﯿﺪی ﻗﺎﺑﻞ اﺳﺘﻔﺎده ﻧﯿﺴﺖ.
39
از ﺧﻮاص ﺟﺎﻟﺐ ﺗﻮزﯾﻊ ﻧﻤﺎﯾﯽ اﯾﻦ اﺳﺖ ﮐﻪ ﺑﺪون ﺣﺎﻓﻈﻪ اﺳﺖ ،ﯾﻌﻨﯽ:
}P{x > t + s | x > t} = P{x > s
0 t t+s
s
زﯾﺮا:
) 1 − Fx ( t + s) e −λ ( t + s
= }P{x > t + s | x > t }= −λt = e −λs = 1 − Fx (s) = P{x > s
) 1 − Fx (t e
ﻣﯽ ﺗﻮان ﻧﺸﺎن داد ﮐﻪ ﺗﻨﻬﺎ ﺗﺎﺑﻊ ﺗﻮزﯾﻌﯽ ﮐﻪ دارای اﯾﻦ ﺧﺎﺻﯿﺖ ﻣﯽﺑﺎﺷﺪ ﺗﺎﺑﻊ ﻧﻤﺎﯾﯽ اﺳﺖ.
40
ﺗﻮزﯾﻊ ﻻﭘﻼس ):(Laplace
λ
f ( x) = e −λ x
2
)fλ (x
2
41
ﺗﻮزﯾﻊ ﮔﺎﻣﺎ ):(Gamma
f ( x) = A xr −1 e −λx u(x) : r > 0, λ > 0
از اﯾﻦ ﺗﻮزﯾﻊ ﻧﯿﺰ درﮐﺎرﺑﺮدﻫﺎی ﻣﺨﺘﻠﻔﯽ اﺳﺘﻔﺎده ﻣﯽﺷﻮد.
42
A λr
r
= Γ (r ) = 1 ⇒ A
λ ) Γ (r
λ (λx)r −1 e −λx
= )fx (x )u ( x
) Γ (r
ﺑﺮای ﻧﺸﺎن دادن اﯾﻦ ﺗﻮزﯾﻊ ﻣﯽﻧﻮﯾﺴﯿﻢ ) x ∼ Gamma(r, λاﺳﺖ.
n 1
= rﮐﻪ nﻋﺪدی ﺻﺤﯿﺢ اﺳﺖ ،دارﯾﻢ: ﺣﺎﻟﺖ ﺧﺎص :اﮔﺮ = λو
2 2
n x
1 ( −1) −
= )f ( x n
)x 2 e 2 u ( x
n
) (2 2 Γ
2
43
ﺣﺎﻟﺖ ﺧﺎص :اﮔﺮ r = nﮐﻪ nﻋﺪدی ﺻﺤﯿﺢ اﺳﺖ ،دارﯾﻢ:
λn
= )f ( x )x n −1e −λx u(x
!)(n − 1
اﯾﻦ ﺗﻮزﯾﻊ ﻣﺪت زﻣﺎن ﻻزم ﺑﺮای وﻗﻮع nواﻗﻌﮥ ﮐﺎﻣﻼً ﺗﺼﺎدﻓﯽ )ﺣﺎﺻﻞ ﺟﻤﻊ nﻧﻤﺎﯾﯽ ﻣﺴﺘﻘﻞ از ﻫﻢ( اﺳﺖ ﮐﻪ
ﺗﻮزﯾﻊ ارﻻﻧﮓ ) (Erlangﻧﺎم دارد و در ﺗﺌﻮری ﺻﻒ و ﺗﺮاﻓﯿﮏ )ﻣﮑﺎﻟﻤﺎت ﺗﻠﻔﻨﯽ( ،ﺗﺸﻌﺸﻊ رادﯾﻮاﮐﺘﯿﻮ و ...اﺳﺘﻔﺎده ﻣﯽﺷﻮد.
44
ﺗﻮزﯾﻊ (Chi-Square) χ2ﺑﺎ nدرﺟﻪ آزادی ):(n degrees of freedom
اﮔﺮ y = x 12 + x 22 + + x 2nﮐﻪ xiﻫﺎ ) N(0, 1ﺑﻮده و ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ y ،دارای ﺗﻮزﯾﻊ ) χ 2 (nﺧﻮاﻫﺪ ﺑﻮد .اﯾﻦ ﺗﻮزﯾﻊ در ﻣﻬﻨﺪﺳﯽ
ﺑﺮق و آﻣﺎر اﺳﺘﻔﺎدۀ زﯾﺎدی دارد.
45
ﺗﻮزﯾﻊ ﺑﺘﺎ ):(Beta
1
x a − 1 (1 − x ) b − 1 0≤x≤1
) f ( x ) = β ( a, b
0 otherwise
)f (x
1.875
x
0 0 .5 1
46
: ﺗﺎﺑﻊ ﺑﺘﺎ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ:ﯾﺎدآوری
1 Γ (a )Γ ( b )
β(a, b) = ∫0 xa −1 (1 − x)b−1 dx =
Γ ( a + b)
:ﭘﺲ
Γ ( a ) Γ ( b) a − 1
x (1 − x) b − 1 0≤x≤1
f ( x ) = Γ ( a + b)
0 otherwise
47
ﺗﻮزﯾﻊ راﯾﻠﯽ ):(Rayleigh
x2
x −
= )f ( x e ) 2σ 2 u ( x
2
σ
)f (x
1
σ e
0 σ
x
اﮔﺮ ﻓﺮض ﮐﻨﯿﻢ y = x 12 + x 22ﺑﺎﺷﺪ و x1و x2ﻣﺴﺘﻘﻞ و دارای ﺗﻮزﯾﻊ ﻧﺮﻣﺎل ) N(0,σﺑﺎﺷﻨﺪ y ،دارای ﺗﻮزﯾﻊ راﯾﻠﯽ ﺧﻮاﻫﺪ ﺑﻮد.
ﻣﺜﻼً اﮔﺮ z = x + jyﺑﺎﺷﺪ z ،دارای ﺗﻮزﯾﻊ راﯾﻠﯽ ﺧﻮاﻫﺪ ﺑﻮد.
اﯾﻦ ﺗﻮزﯾﻊ ﻧﯿﺰ ﮐﺎرﺑﺮد ﺑﺴﯿﺎر زﯾﺎدی در ﻣﻬﻨﺪﺳﯽ ﺑﺮق دارد ،ﻣﺎﻧﻨﺪ ﭘﻮش ﻧﻮﯾﺰ ﮔﻮﺳﯽ.
48
ﺗﻮزﯾﻊ ﮐﻮﺷﯽ ):(Cauchy
a
f ( x) = 2 π 2
x +a
)f (x
1
aπ
1
2aπ
0 σ
x
π π
اﮔﺮ θدارای ﺗﻮزﯾﻊ ﯾﮑﻨﻮاﺧﺖ ] [ − ,ﺑﺎﺷﺪ a tgθ ،دارای اﯾﻦ ﺗﻮزﯾﻊ ﺧﻮاﻫﺪ ﺑﻮد.
2 2
49
ﺗﻮزﯾﻊ دوﺟﻤﻠﻪای:
اﯾﻦ ﯾﮏ ﺗﻮزﯾﻊ ﮔﺴﺴﺘﻪ اﺳﺖ .اﮔﺮ در ﯾﮏ آزﻣﺎﯾﺶ ﺗﺼﺎدﻓﯽ اﺣﺘﻤﺎل وﻗﻮع واﻗﻌﮥ Aﺑﺮاﺑﺮ P (A ) = pﺑﺎﺷﺪ و ﺑﺮای آزﻣﺎﯾﺶ ﺣﺎﺻﻞ از
nﺑﺎر ﺗﮑﺮار اﯾﻦ آزﻣﺎﯾﺶ ،ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ xرا ﺑﻪ اﯾﻦ ﺻﻮرت ﺗﻌﺮﯾﻒ ﮐﻨﯿﻢ ﮐﻪ = x :ﺗﻌﺪاد وﻗﻮع واﻗﻌﮥ Aدر nآزﻣﺎﯾﺶ x ،دارای ﺗﻮزﯾﻊ
دوﺟﻤﻠﻪای ﺧﻮاﻫﺪ ﺑﻮد:
)x ∼ Binomial ( n, p
n
P (k ) = P{x = k} = pk q n −k : k = 0, 1, 2,…, n
k
و ﺑﺮای ﺳﺎﯾﺮ ﻣﻘﺎدﯾﺮ xدارﯾﻢ. P (x) = 0 :
ﻣﺜﺎل :در ﺟﻌﺒﻪای Nدﯾﻮد ﻗﺮار دارﻧﺪ ﮐﻪ K ≤ Nﺗﺎ از آﻧﻬﺎ ﺧﺮاﺑﻨﺪ N .ﻧﻤﻮﻧﻪ ﺑﺎ ﺟﺎﯾﮕﺰﯾﻨﯽ ﺑﺮداﺷﺘﻪ ﻣﯽﺷﻮد .اﮔﺮ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ xﺑﻪ
ﺻﻮرت = x :ﺗﻌﺪاد ﺧﺮاﺑﻬﺎ ،ﺗﻌﺮﯾﻒ ﺷﻮد P(x) ،را ﺑﻪ دﺳﺖ آورﯾﺪ.
n K x K n −x
) ( ) (1 − x = 0, 1, 2,…, n
P (x) = x N N
0 otherwise
50
ﺣﺎﻟﺖ ﺧﺎص :اﮔﺮ n = 1ﺑﺎﺷﺪ ،ﯾﻌﻨﯽ آزﻣﺎﯾﺶ ﺗﺼﺎدﻓﯽ را ﻓﻘﻂ ﯾﮏ ﺑﺎر اﻧﺠﺎم ﻣﯽدﻫﯿﻢ .ﭘﺲ xﻓﻘﻂ ﻣﯽﺗﻮاﻧﺪ ﺻﻔﺮ ﯾﺎ ﯾﮏ ﺑﺎﺷﺪ )ﺻﻔﺮ ﺑﺎ
اﺣﺘﻤﺎل qو ﯾﮏ ﺑﺎ اﺣﺘﻤﺎل ،(pﭘﺲ دارﯾﻢ:
P ( k ) = p k q 1 − k : k = 0, 1
ﯾﻌﻨﯽ P (0) = qو P (1) = pﻣﯽﺑﺎﺷﺪ.
اﯾﻦ ﺣﺎﻟﺖ ﺧﺎص را ﺗﻮزﯾﻊ ﺑﺮﻧﻮﻟﯽ ﮔﻮﯾﻨﺪ.
ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻗﻀﯿﮥ ﻻﭘﻼس ،ﺑﺮای nﺑﺰرگ ﺗﻮزﯾﻊ )ﮔﺴﺴﺘﮥ( دوﺟﻤﻠﻪای را ﻣﯽﺗﻮان ﺑﺎ ﺗﻮزﯾﻊ )ﭘﯿﻮﺳﺘﮥ( ﻧﺮﻣﺎل ﺗﻘﺮﯾﺐ زد:
( k − np )2
n 1 −
P ( x) = pk q n −k e 2npq
) = N(np, npq
k 2 πnpq
x − np
(F ( x) G )
npq
و ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻗﻀﯿﮥ ﭘﻮاﺳﻮن ،ﺑﺮای nﺑﺰرگ و pﮐﻮﭼﮏ ﻣﯽﺗﻮان ﺗﻮﺳﻂ ﺗﻮزﯾﻊ ﭘﻮاﺳﻮن ﺗﻘﺮﯾﺐ زد:
n k n −k − np (np)k
k p q e )= Poisson ( np
!k
51
ﺗﻮزﯾﻊ ﻓﻮقﻫﻨﺪﺳﯽ ):(Hypergeometric
در ﻣﺜﺎل ﻗﺒﻞ اﮔﺮ اﻧﺘﺨﺎب ﺑﺪون ﺟﺎﯾﮕﺰﯾﻨﯽ ﺑﺎﺷﺪ ،دارﯾﻢ:
K N − K
k n − k
ﺗﻌﺪاد اﻧﺘﺨﺎﺑﻬﺎی ﻣﻮرد ﻧﻈﺮ ) max(0, n − N + K ) ≤ k ≤ min( n, K
= )P ( x = N
ﺗﻌﺪاد ﮐﻞ اﻧﺘﺨﺎﺑﻬﺎ n
0 otherwise
) max(0, n − N + Kﺑﺪﯾﻦ ﺧﺎﻃﺮ اﺳﺖ ﮐﻪ ﺗﻌﺪاد ﺳﺎﻟﻢﻫﺎی اﻧﺘﺨﺎبﺷﺪه n-kﺑﻮده و ﻧﻤﯽﺗﻮاﻧﺪ از ﺗﻌﺪاد ﮐﻞ ﺳﺎﻟﻢﻫﺎ ﮐﻪ N-Kاﺳﺖ،
ﺑﯿﺸﺘﺮ ﺷﻮد ،ﭘﺲ n − k ≤ N − K :؛
) min(n, Kﻧﯿﺰ ﺑﺪﯾﻦ ﺧﺎﻃﺮ اﺳﺖ ﮐﻪ ﺗﻌﺪاد ﺧﺮاﺑﻬﺎی اﻧﺘﺨﺎبﺷﺪه ﻧﻤﯽﺗﻮاﻧﺪ از ﺗﻌﺪاد ﮐﻞ ﺧﺮاﺑﻬﺎ ﺑﯿﺸﺘﺮ ﺷﻮد.
K
= ، pﺧﻮاﻫﯿﻢ داﺷﺖ: ﯾﺎ اﮔﺮ ﺑﮕﯿﺮﯾﻢ:
N
Np N − Np
k n − k
P (k ) =
N
n
52
ﺗﻮزﯾﻊ دوﺟﻤﻠﻪای ﻣﻨﻔﯽ )ﭘﺎﺳﮑﺎل(:
ﻓﺮض ﮐﻨﯿﺪ ﺑﺎ ﻣﺴﺌﻠﮥ زﯾﺮ ﻣﻮاﺟﻬﯿﻢ .ﺳﮑﻪای را آﻧﻘﺪر ﭘﺮﺗﺎب ﻣﯽﮐﻨﯿﻢ ﮐﻪ rﺑﺎر ﺷﯿﺮ ﺑﯿﺎﯾﺪ .اﮔﺮ ﺗﻌﺪاد ﮐﻞ ﭘﺮﺗﺎﺑﻬﺎ را yﺑﻨﺎﻣﯿﻢ ،اﺣﺘﻤﺎل
y = nرا ﺑﻪ دﺳﺖ آورﯾﺪ )…. (n = r, r + 1,
در ﺣﺎﻟﺖ ﮐﻠﯽ اﮔﺮ ﯾﮏ آزﻣﺎﯾﺶ ﺑﺮﻧﻮﻟﯽ را آﻧﻘﺪر ﺗﮑﺮار ﮐﻨﯿﻢ ﺗﺎ واﻗﻌﮥ Aﮐﻪ r ، P (A ) = pﺑﺎر اﺗﻔﺎق اﻓﺘﺪ و ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ yﺑﻪ ﺻﻮرت:
= yﺗﻌﺪاد ﮐﻞ آزﻣﺎﯾﺸﻬﺎی اﻧﺠﺎم ﺷﺪه ﺗﺎ rﺑﺎر وﻗﻮع Aﺗﻌﺮﯾﻒ ﺷﻮد ،دارﯾﻢ:
اﺣﺘﻤﺎل rاﻣﯿﻦ ﻣﻮﻓﻘﯿﺖ ﮐﻪ ﺣﺘﻤﺎً ﺑﺎﯾﺪ در nاﻣﯿﻦ آزﻣﺎﯾﺶ ﺑﺎﺷﺪ
) n − 1 r −1 ( n − 1) − ( r − 1
P{y = n} = p p q
k − 1
اﺣﺘﻤﺎل r-1ﻣﻮﻓﻘﯿﺖ در ﻣﯿﺎن ﺑﻘﯿﮥ آزﻣﺎﯾﺸﻬﺎ ) n-1آزﻣﺎﯾﺶ(
ﯾﻌﻨﯽ:
n − 1 r n −r
P{y = n} = … p q : n = r, r + 1, r + 2,
r − 1
در ﺑﻌﻀﯽ ﮐﺘﺎﺑﻬﺎ اﯾﻦ را ﺗﻮزﯾﻊ دوﺟﻤﻠﻪای ﻣﻨﻔﯽ ﻣﯽﮔﻮﯾﻨﺪ.
53
اﻣﺎ اﮔﺮ ﻓﺮض ﮐﻨﯿﻢ ، y = x + r :ﮐﻪ xﺗﻌﺪاد ﺷﮑﺴﺘﻬﺎ و yﺗﻌﺪاد ﮐﻞ آزﻣﺎﯾﺸﻬﺎ اﺳﺖ ،واﻗﻌﮥ x = kﺑﺎ واﻗﻌﮥ y = k + rﻣﻌﺎدل ﺑﻮده و
اﺣﺘﻤﺎل ﯾﮑﺴﺎﻧﯽ دارد ،ﯾﻌﻨﯽ:
n − 1 r n −r n =k + r r + k − 1 r k r + k − 1 r k
P{x = k} = pq = … r − 1 p q = k p q : k = 0, 1, 2,
r−1
54
ﺗﻮزﯾﻊ ﻫﻨﺪﺳﯽ ):(Geometric
ﺣﺎﻟﺖ ﺧﺎص ﺗﻮزﯾﻊ دوﺟﻤﻠﻪای ﻣﻨﻔﯽ اﺳﺖ ﮐﻪ در آن r = 1ﺑﺎﺷﺪ ،ﯾﻌﻨﯽ:
…P{x = k} = Px (k ) = pq k : k = 0, 1, 2,
در اﯾﻨﺠﺎ ،x ،ﺗﻌﺪاد ﺷﮑﺴﺘﻬﺎ در ﺗﮑﺮار آزﻣﺎﯾﺶ ﺗﺎ ﺣﺼﻮل اوﻟﯿﻦ ﻣﻮﻓﻘﯿﺖ اﺳﺖ.
در ﺑﻌﻀﯽ ﮐﺘﺎﺑﻬﺎ ﺣﺎﻟﺖ r = 1از آﻧﭽﻪ ﻣﺎ ﺑﺎ ) P(yﻧﺸﺎن دادﯾﻢ را ﺗﻮزﯾﻊ ﻫﻨﺪﺳﯽ ﮔﻮﯾﻨﺪ .ﺑﺮای r = 1دارﯾﻢ:
…P{y = n} = pq n −1 : n = 1, 2, 3,
در اﯾﻨﺠﺎ ،y ،ﺗﻌﺪاد ﮐﻞ آزﻣﺎﯾﺸﻬﺎ ﺗﺎ ﺣﺼﻮل اوﻟﯿﻦ ﻣﻮﻓﻘﯿﺖ اﺳﺖ.
55
ﺗﺎﺑﻊ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ:
در ﺑﺴﯿﺎری ﻣﻮارد ﺑﺎ ﻓﺮض داﻧﺴﺘﻦ ﺗﺎﺑﻊ ﺗﻮزﯾﻊ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ،ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ اﯾﻨﮑﻪ در ﺳﯿﺴﺘﻢ ﻣﻮرد ﻧﻈﺮ ﻋﻤﻠﯿﺎﺗﯽ روی آن اﻧﺠﺎم ﻣﯽﺷﻮد،
ﻋﻼﻗﻪﻣﻨﺪﯾﻢ ﮐﻪ ﺗﻮزﯾﻊ ﺗﺎﺑﻌﯽ از ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ را ﺑﻪ دﺳﺖ آورﯾﻢ .ﻣﺎﻧﻨﺪ آﺷﮑﺎرﺳﺎز دﯾﻮدی .ﯾﺎ ﻣﺜﻼً ﻣﺎﯾﻠﯿﻢ ﺑﺪاﻧﯿﻢ ﮐﻪ ﺗﻮزﯾﻊ ﺗﻮان
ﻣﺼﺮﻓﯽ ﻣﻘﺎوﻣﺘﯽ ﮐﻪ وﻟﺘﺎژ دو ﺳﺮ آن ﺗﺼﺎدﻓﯽ اﺳﺖ ،ﭼﯿﺴﺖ .ﯾﺎ اﮔﺮ ﻓﺎز ﺳﯿﮕﻨﺎل ﺗﺼﺎدﻓﯽ ﺑﺎﺷﺪ و ) ، y = A cos(ωt + ϕﺗﻮزﯾﻊ y
ﭼﯿﺴﺖ و اﻣﺜﺎﻟﻬﻢ...
اﮔﺮ ) g(xﯾﮏ ﺗﺎﺑﻊ ﺣﻘﯿﻘﯽ ﺑﺎﺷﺪ ،ﻣﯽﺗﻮاﻧﯿﻢ ﺑﻪ ﻫﺮ ) y i = g (xi ) ، xi = x (ωiرا ﻧﺴﺒﺖ دﻫﯿﻢ:
ωi ) x(ωi ) g(xi
ﻧﻘﻄﮥ ﻓﻀﺎی ﻧﻤﻮﻧﻪ xi yi
ﻋﺪد ﻋﺪد
) y(ωi
ﭘﺲ ﺑﺎ ﺗﺮﮐﯿﺐ دو ﺗﺎﺑﻊ ﻣﻮاﺟﻬﯿﻢ ﮐﻪ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺟﺪﯾﺪ ﺑﻪ ﻣﺎ ﻣﯽدﻫﺪ:
))y (ω) = g (x (ω
ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ yرا ﺗﺎﺑﻌﯽ از ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ xﮔﻮﯾﯿﻢ.
ﺣﺎل ﺑﺒﯿﻨﯿﻢ ﺑﺎ داﻧﺴﺘﻦ ﺗﻮزﯾﻊ xﭼﮕﻮﻧﻪ ﻣﯽﺗﻮاﻧﯿﻢ ﺗﻮزﯾﻊ yرا ﺑﻪ دﺳﺖ آورﯾﻢ.
56
در ﺣﺎﻟﺖ ﮔﺴﺴﺘﻪ ﻣﺴﺌﻠﻪ ﺑﺴﯿﺎر ﺳﺎده اﺳﺖ:
= }Py ( y) = P{y = y} = P{g (x ) = y ∑
i:g ( xi ) = y
) P (xi
اﻣﺎ ﺑﺮای ﺣﺎﻟﺘﻬﺎی ﻏﯿﺮﮔﺴﺴﺘﻪ اﺑﺘﺪا ﺑﻪ ﻣﺤﺎﺳﺒﮥ ﺗﺎﺑﻊ CDFﻣﯽﭘﺮدازﯾﻢ ﮐﻪ ﺳﺎدهﺗﺮ اﺳﺖ.
57
: g (x) = ax + b :1 ﻣﺜﺎل
scale ﯾﻌﻨﯽ ﺷﯿﻔﺖ و y
y = ax + b
y
y−b y−b
P{x ≤ } = Fx ( ) a>0
a a
Fy ( y) = P{y ≤ y} = P{ax + b ≤ y} =
P{x ≥ y − b} = 1 − F ( y − b ) a < 0 y-b
x
a
x
a a
58
: g (x) = x :( )ﯾﮑﺴﻮﺳﺎز ﺗﻤﺎم ﻣﻮج2 ﻣﺜﺎل
y
y= x
y
0 y<0
Fy ( y) = P{y ≤ y} = P{ x ≤ y} =
P{− y ≤ x ≤ y} = Fx ( y) − Fx (− y) y ≥ 0
-y y x
59
: ﺧﻮاﻫﯿﻢ داﺷﺖ، ﺑﺎﺷﺪx ∼ N (0, 1) ﻣﺜﻼً اﮔﺮ
0 .5
x y
fx (x) = g(x) 2
fy (y)
2π
1
2π
x y
60
g ( x) x + c x < −c
x−c : g ( x ) = 0 − c ≤ x ≤ c :3 ﻣﺜﺎل
x − c x > c
−c
c x
Fx ( x)
x+c 1
y = g (x)
P{x + c ≤ y} y < 0 Fx ( y − c) y < 0
Fy ( y) = P{y ≤ y} = = −c c
x
P{x − c ≤ y} y ≥ 0 Fx ( y + c) y ≥ 0
P{y = 0} = Fx (c) − Fx (− c)
Fy ( y )
1
61
fx ( y − c) y<0 fx ( x)
+c
∫
fy ( y) = δ( y) fx (u)du y = 0
−c
fx ( y + c) y>0
x
−c c
fy ( y )
62
g ( x)
x + c x ≥ 0
x+c : g ( x) = :4 ﻣﺜﺎل
c x − c x < 0
x
−c
x−c
P{x + c ≤ y} y ≥ c Fx ( y − c) y ≥ c
Fy ( y) = P{y ≤ y} = P{x ≤ 0} − c < y < c = Fx (0) −c < y < c
P{x − c ≤ y} y < − c F ( y + c) y < − c
x
Fx ( x) Fy ( y )
1 1
x −c c
y
63
fx ( y − c) y ≥ c )fx ( x
fy ( y) = 0 −c < y < c
f ( y + c) y < − c
x
x
) fy ( y
y
−c c
ﺑﻪ ﯾﺎد داﺷﺘﻪ ﺑﺎﺷﯿﺪ ﮐﻪ ﺑﯽﺗﻐﯿﯿﺮ ﻣﺎﻧﺪن ) g(xدر ﯾﮏ ﻣﺤﺪوده ﺳﺒﺐ ﭘﺮش در Fyﻣﯽﺷﻮد و ﺑﻪ ﻋﮑﺲ ﭘﺮش در ) g(xﻣﻮﺟﺐ
ﺑﯽﺗﻐﯿﯿﺮ ﻣﺎﻧﺪن Fyدر ﯾﮏ ﻣﺤﺪوده ﻣﯽﺷﻮد.
64