Download as pdf or txt
Download as pdf or txt
You are on page 1of 65

‫ﻓﺼﻞ ‪ :4‬ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ )‪Random Variable (RV‬‬

‫‪Chapter 4‬‬
‫‪Chapter 5: Section 5.2‬‬

‫‪ .6‬ﺗﺎﺑﻊ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‬ ‫‪ .1‬ﺗﻌﺮﯾﻒ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‬

‫‪ .7‬ﻣﯿﺎﻧﮕﯿﻦ و وارﯾﺎﻧﺲ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‬ ‫‪ .2‬ﺗﺎﺑﻊ ‪pmf‬‬

‫‪ .8‬ﻣﯿﺎﻧﮕﯿﻦ و وارﯾﺎﻧﺲ ﺑﺮﺧﯽ ﺗﻮزﯾﻊﻫﺎی ﺧﺎص‬ ‫‪ .3‬ﺗﺎﺑﻊ ‪CDF‬‬

‫‪ .9‬ﮔﺸﺘﺎورﻫﺎی ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‬ ‫‪ .4‬ﺗﺎﺑﻊ ‪pdf‬‬

‫‪ .5‬ﺑﺮﺧﯽ ﺗﻮزﯾﻊﻫﺎی ﺧﺎص‬


‫ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺗﺎﺑﻌﯽ اﺳﺖ از ﻧﻘﺎط ﻓﻀﺎی ﻧﻤﻮﻧﻪ ﻣﺜﻞ )‪ x(ω‬ﮐﻪ ﺑﻪ ﻫﺮ ﯾﮏ از ﻧﻘﺎط ﻓﻀﺎی ﻧﻤﻮﻧﻪ ﻋﺪدی را ﻧﺴﺒﺖ ﻣﯽدﻫﺪ‪.‬‬

‫داﻣﻨﮥ )‪ (Domain‬اﯾﻦ ﺗﺎﺑﻊ ﻣﺠﻤﻮﻋﮥ ‪ Ω‬اﺳﺖ و ﺑﺮد )‪ (Range‬آن ﻣﺠﻤﻮﻋﻪای از اﻋﺪاد ﺣﻘﯿﻘﯽ اﺳﺖ‪.‬‬

‫‪Ω‬‬ ‫‪ω1‬‬
‫‪ω2‬‬
‫‪ωN‬‬ ‫)ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺣﻘﯿﻘﯽ ﮐﻪ ﻣﻮرد ﺑﺤﺚ ﻣﺎ اﺳﺖ‪،‬‬
‫ﻋﺪدی ﺣﻘﯿﻘﯽ را ﻧﺴﺒﺖ ﻣﯽدﻫﺪ‪ .‬ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‬
‫ﻣﺨﺘﻠﻂ‪ ،‬ﻋﺪدی ﻣﺨﺘﻠﻂ را ﻧﺴﺒﺖ ﻣﯽدﻫﺪ‪(.‬‬
‫ﻣﺤﻮر اﻋﺪاد ﺣﻘﯿﻘﯽ‬
‫) ‪x N = x ( ωN‬‬ ‫) ‪x1 = x (ω1‬‬ ‫) ‪x 2 = x ( ω2‬‬

‫ﭼﻮن ﺧﯿﻠﯽ اوﻗﺎت ﺑﻪ ﺟﺎی ﻧﺘﺎﯾﺞ آزﻣﺎﯾﺶ‪ ،‬ﺗﺎﺑﻌﯽ از ﻧﺘﺎﯾﺞ ﻣﻮرد ﺗﻮﺟﻪ ﻣﺎ اﺳﺖ‪ .‬ﻣﺜﻼً در ﭘﺮﺗﺎب دو ﺗﺎس ﻣﻘﺪار ﺣﺎﺻﻠﺠﻤﻊ اﻋﺪاد دو ﺗﺎس ﯾﺎ‬
‫در ﭘﺮﺗﺎب ﺳﮑﻪﻫﺎ‪ ،‬ﻣﺠﻤﻮع ﺗﻌﺪاد ﺷﯿﺮﻫﺎی ﻇﺎﻫﺮ ﺷﺪه ﻣﻤﮑﻦ اﺳﺖ ﻣﺪ ﻧﻈﺮ ﺑﺎﺷﺪ‪.‬‬

‫‪1‬‬
‫ﻣﺜﺎل‪ :‬در آزﻣﺎﯾﺶ ﭘﺮﺗﺎب ﺳﻪ ﺳﮑﮥ ﺳﺎﻟﻢ دارﯾﻢ‪:‬‬
‫}‪Ω = {HHH ,…, TTT‬‬
‫‪ω1‬‬ ‫‪ω8‬‬

‫ﻣﺜﻼً ﺗﻌﺪاد ﺷﯿﺮﻫﺎ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ اﺳﺖ‪:‬‬


‫ﺗﻌﺪاد ﺷﯿﺮﻫﺎ در واﻗﻌﮥ ‪x(ω) = ω‬‬
‫‪ω‬‬ ‫‪HHH HHT‬‬ ‫‪HTH‬‬ ‫‪HTT‬‬ ‫‪THH‬‬ ‫‪THT‬‬ ‫‪TTH‬‬ ‫‪TTT‬‬
‫)‪x(ω‬‬ ‫‪3‬‬ ‫‪2‬‬ ‫‪2‬‬ ‫‪1‬‬ ‫‪2‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪0‬‬

‫ﺣﺎل در ﻣﺜﺎل ﻓﻮق اﺣﺘﻤﺎل اﯾﻨﮑﻪ ‪ x (ω) ≤ 1‬ﺑﺎﺷﺪ ﭼﯿﺴﺖ؟ اﺣﺘﻤﺎل روی واﻗﻌﻪﻫﺎ ﺗﻌﺮﯾﻒ ﻣﯽﺷﻮد‪ .‬اﺣﺘﻤﺎل ‪ x (ω) ≤ 1‬ﯾﻌﻨﯽ اﺣﺘﻤﺎل‬
‫ﻣﺠﻤﻮﻋﮥ آن ‪ω‬ﻫﺎﯾﯽ ﮐﻪ ﺑﺮای آﻧﻬﺎ ‪ x (ω) ≤ 1‬ﺑﺎﺷﺪ‪:‬‬
‫‪4‬‬
‫= }‪P{x ≤ 1} = P{ω : x (ω) ≤ 1} = P{HTT , THT , TTH, TTT‬‬
‫‪8‬‬
‫ﺑﻪ ﻃﻮر ﺧﻼﺻﻪ ﻣﯽﻧﻮﯾﺴﯿﻢ‪ ،{x ≤ x} :‬وﻟﯽ اﯾﻦ ﻣﺠﻤﻮﻋﻪای از اﻋﺪاد ﻧﯿﺴﺖ ﺑﻠﮑﻪ ﯾﻌﻨﯽ‪.{ω : x (ω) ≤ x} :‬‬

‫اﺣﺘﻤﺎل اﯾﻨﮑﻪ ‪ x (ω) = 2‬ﺑﺎﺷﺪ ﭼﯿﺴﺖ؟‬


‫‪3  3  1 2 1 3− 2‬‬
‫) ( ) ( ‪P{x = 2} = P{ω : x (ω) = 2} = P{HHT , HTH, THH} = =  ‬‬
‫‪8 2 2 2‬‬

‫‪2‬‬
‫ﯾﻌﻨﯽ‪:‬‬

‫‪A‬‬ ‫‪B‬‬ ‫‪C‬‬

‫}‪A = {x ≤ x‬‬
‫} ‪B = {x = x0‬‬
‫} ‪C = {x 1 < x ≤ x 2‬‬

‫‪x‬‬ ‫‪x0‬‬ ‫‪x1‬‬ ‫‪x2‬‬

‫ﺣﺎل ﻣﺜﻼً اﮔﺮ اﺣﺘﻤﺎل }‪ {x ≤ x‬را ﺑﺮای ﻫﺮ ‪ x‬ﺑﺪاﻧﯿﻢ‪ ،‬اﺣﺘﻤﺎل ﻫﻤﮥ واﻗﻌﻪﻫﺎی ﻣﻮرد ﻧﻈﺮ را ﺧﻮاﻫﯿﻢ داﺷﺖ و ﻟﺰوﻣﯽ ﺑﻪ داﻧﺴﺘﻦ ﻓﻀﺎی‬
‫اﺣﺘﻤﺎل ‪ Ω‬ﻧﯿﺴﺖ‪.‬‬

‫∞‪ −‬ﯾﺎ ∞‪ +‬اﻋﺪاد ﺣﻘﯿﻘﯽ ﻧﯿﺴﺘﻨﺪ‪ ،‬ﻟﺬا )‪ x(ω‬ﻧﺒﺎﯾﺪ ∞‪ −‬ﯾﺎ ∞‪ +‬ﺷﻮد )ﻣﮕﺮ آﻧﮑﻪ اﺣﺘﻤﺎل آن ‪ ω‬ﺻﻔﺮ ﺑﺎﺷﺪ(‪ .‬ﯾﻌﻨﯽ اﺟﺎزه ﻣﯽدﻫﯿﻢ ﮐﻪ‬
‫)‪ x(ω‬ﺑﺮای ﺑﺮﺧﯽ ‪ω‬ﻫﺎ ∞‪ −‬ﯾﺎ ∞‪ +‬ﺷﻮد ﻣﺸﺮوط ﺑﺮ آﻧﮑﻪ اﺣﺘﻤﺎل آن ‪ω‬ﻫﺎ ﺻﻔﺮ ﺑﺎﺷﺪ‪:‬‬
‫‪P{x = +∞} = P{x = −∞} = 0‬‬
‫‪3‬‬
‫)ﺗﻌﺮﯾﻒ‪ :‬ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺣﻘﯿﻘﯽ )‪ x(ω‬ﺗﺎﺑﻌﯽ اﺳﺖ ﺣﻘﯿﻘﯽ از ﻧﻘﺎط ﻓﻀﺎی ﻧﻤﻮﻧﮥ ‪ ω∈ Ω‬ﺑﻪ ﻃﻮری ﮐﻪ ﺑﺮای ﻫﺮ ﻋﺪد ﺣﻘﯿﻘﯽ ‪ ،x‬ﻣﺠﻤﻮﻋﮥ‬
‫}‪ {x (ω) ≤ x‬ﯾﮏ واﻗﻌﻪ ﺑﺎﺷﺪ و ‪( P{x = +∞} = P{x = −∞} = 0‬‬

‫ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ را ﮔﺴﺴﺘﻪ ﮔﻮﯾﻨﺪ ﻫﺮﮔﺎه ﻣﻘﺎدﯾﺮی ﮐﻪ )‪ x(ω‬ﻣﯽﺗﻮاﻧﺪ اﺧﺘﯿﺎر ﮐﻨﺪ )ﺑﺮد ﺗﺎﺑﻊ( ﻗﺎﺑﻞ ﺷﻤﺎرش ﺑﺎﺷﺪ‪.‬‬

‫در ﺣﺎﻟﺖ ﮔﺴﺴﺘﻪ ﻣﺜﻞ ﻣﺜﺎﻟﯽ ﮐﻪ داﺷﺘﯿﻢ ﺳﺎدهﺗﺮﯾﻦ راه ﺑﺮای ﻣﺸﺨﺺ ﮐﺮدن اﺣﺘﻤﺎل واﻗﻌﻪﻫﺎ‪ ،‬ﻣﺸﺨﺺ ﮐﺮدن اﺣﺘﻤﺎل واﻗﻌﻪﻫﺎی‬
‫} ‪ {x = xi‬ﺑﺮای ‪xi‬ﻫﺎی ﻣﻤﮑﻨﻪ اﺳﺖ )ﻧﺴﺒﺖ ﺑﻪ ﻣﺸﺨﺺ ﮐﺮدن اﺣﺘﻤﺎل }‪ {x ≤ x‬ﺑﺮای ﻫﺮ ‪.(x‬‬

‫ﺗﺎﺑﻊ ﺟﺮﻣﯽ اﺣﺘﻤﺎل )‪ pmf (Probability Mass Function‬ﯾﺎ ﺗﺎﺑﻊ اﺣﺘﻤﺎل ﯾﺎ ﺗﺎﺑﻊ ﻓﺮاواﻧﯽ‪:‬‬
‫ﺗﻌﺮﯾﻒ‪ :‬اﮔﺮ ‪ x‬ﻓﻘﻂ ﻣﻘﺎدﯾﺮ ﻣﻤﮑﻦ ‪ x3 ،x2 ،x1‬و ‪) ...‬ﻗﺎﺑﻞ ﺷﻤﺎرش( را ﺑﺎ اﺣﺘﻤﺎﻟﻬﺎی ‪ p3 ،p2 ،p1‬و ‪ ...‬اﺧﺘﯿﺎر ﮐﻨﺪ‪ ،‬ﺗﺎﺑﻊ اﺣﺘﻤﺎل ﻣﺘﻐﯿﺮ‬
‫ﺗﺼﺎدﻓﯽ ‪ x‬ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽﺷﻮد‪:‬‬
‫آرﮔﻮﻣﺎن ﺗﺎﺑﻊ‬
‫↑‬ ‫‪p i‬‬ ‫‪x = xi‬‬
‫‪Px (x) = Prob{x = x} = ‬‬
‫↓‬
‫ﺑﯿﺎﻧﮕﺮ ﻧﻮع ﺗﺎﺑﻌﯿﺖ‬
‫‪0‬‬ ‫‪otherwise‬‬
‫)اﮔﺮ ﻓﻘﻂ ﺑﺎ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺳﺮوﮐﺎر داﺷﺘﻪ ﺑﺎﺷﯿﻢ اﻧﺪﯾﺲ ‪ x‬را ﻣﯽﺗﻮان ﺣﺬف ﮐﺮد‪( P(xi) :‬‬

‫‪4‬‬
‫در ﻣﺜﺎﻟﯽ ﮐﻪ داﺷﺘﯿﻢ‪ ،‬ﺑﺮای ‪ i = 0, 1, 2, 3‬دارﯾﻢ‪:‬‬
‫‪ 3  8‬‬
‫‪1‬‬ ‫‪i=0‬‬
‫‪ 3 1 1‬‬ ‫‪ i  3‬‬ ‫‪i=1‬‬
‫‪‬‬
‫‪Px (i ) = Prob{x = i} =   ( )i ( ) 3−i‬‬ ‫‪=   =  83‬‬
‫‪i 2 2‬‬ ‫‪8‬‬ ‫‪8‬‬ ‫‪i=2‬‬
‫‪ 8‬‬ ‫‪i=3‬‬
‫‪1‬‬

‫و ﺑﺮای ﺳﺎﯾﺮ ‪x‬ﻫﺎ دارﯾﻢ‪.Px(x) = 0 :‬‬


‫)‪Px(x‬‬ ‫‪3‬‬ ‫‪3‬‬
‫‪8‬‬ ‫‪8‬‬

‫‪1‬‬ ‫‪1‬‬ ‫ﺗﺎﺑﻊ )‪ Px(x‬اﺳﺖ ﮐﻪ ﻓﻘﻂ در ﯾﮏ ﺳﺮی ﻧﻘﺎط ﻣﺤﺪود ﯾﺎ ﺣﺪاﮐﺜﺮ ﻗﺎﺑﻞ ﺷﻤﺎرش ﻣﻘﺪار‬
‫‪8‬‬ ‫‪8‬‬ ‫ﻏﯿﺮﺻﻔﺮ دارد‪.‬‬

‫‪x‬‬
‫‪0‬‬ ‫‪1‬‬ ‫‪2‬‬ ‫‪3‬‬

‫‪5‬‬
‫ﺑﻪ ﻃﻮر ﮐﻠﯽ روﺷﻦ اﺳﺖ ﮐﻪ )‪P(xi‬ﻫﺎ اﻋﺪادی ﺑﯿﻦ ﺻﻔﺮ و ﯾﮏ ﻫﺴﺘﻨﺪ )ﭼﻮن اﺣﺘﻤﺎل واﻗﻌﻪﻫﺎی } ‪{x = xi‬اﻧﺪ( و دارﯾﻢ‪:‬‬
‫∞‬

‫∑‬
‫‪i =1‬‬
‫‪P (xi ) = 1‬‬

‫اﮔﺮ اﺣﺘﻤﺎل ﻫﺮ واﻗﻌﻪ را ﺑﺨﻮاﻫﯿﻢ‪ ،‬ﺑﺎ داﺷﺘﻦ )‪P(xi‬ﻫﺎ ﻗﺎﺑﻞ ﻣﺤﺎﺳﺒﻪ اﺳﺖ‪ .‬ﻣﺜﻼً در ﻣﺜﺎل ﻓﻮق دارﯾﻢ‪:‬‬
‫‪1 3 4‬‬
‫= ‪P{x ≤ 1.1} = P{x = 0} + P{x = 1} = +‬‬
‫‪8 8 8‬‬
‫و ﺑﻪ ﻃﻮر ﮐﻠﯽ ﺑﺮای ﻫﺮ زﯾﺮﻣﺠﻤﻮﻋﻪ از اﻋﺪاد ﺣﻘﯿﻘﯽ ﻣﺜﻞ ‪ A‬دارﯾﻢ‪:‬‬
‫= }‪Prob{x ∈ A‬‬ ‫∑‬
‫‪x ∈A‬‬
‫) ‪P (xi‬‬
‫‪i‬‬

‫ﺗﺎﺑﻊ اﺣﺘﻤﺎل ﺑﺮای ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ﺗﻌﺮﯾﻒ ﻣﯽﺷﻮد‪.‬‬

‫)وﻗﺘﯽ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ﺑﺎﺷﺪ ﯾﻌﻨﯽ ﻣﻘﺎدﯾﺮی ﮐﻪ ﻣﯽﺗﻮاﻧﺪ اﺧﺘﯿﺎر ﮐﻨﺪ ﻏﯿﺮﻗﺎﺑﻞ ﺷﻤﺎرش ﺑﺎﺷﺪ‪ ،‬ﺗﻌﯿﯿﻦ اﺣﺘﻤﺎل } ‪{x = xi‬ﻫﺎ‬
‫ﮐﻔﺎﯾﺖ ﻧﻤﯽﮐﻨﺪ‪ .‬اﻏﻠﺐ ﻫﻤﻪ ﺻﻔﺮﻧﺪ‪ .‬در اﯾﻨﺠﺎ ﻣﯽﺗﻮاﻧﯿﻢ ﺗﺎﺑﻊ ﺗﻮزﯾﻊ اﻧﺒﺎﺷﺘﻪ را ﻣﻄﺮح ﮐﻨﯿﻢ‪(.‬‬
‫در ﻣﻬﻨﺪﺳﯽ ﺑﺮق ﺧﯿﻠﯽ اوﻗﺎت ﺑﺎ ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ﻣﺜﻞ وﻟﺘﺎژ‪ ،‬ﺗﻮان و اﻣﺜﺎﻟﻬﻢ ﺳﺮوﮐﺎر دارﯾﻢ‪.‬‬

‫‪6‬‬
‫ﺗﺎﺑﻊ ﺗﻮزﯾﻊ اﻧﺒﺎﺷﺘﻪ )‪:CDF (Cumulative Distribution Function‬‬

‫آرﮔﻮﻣﺎن ﺗﺎﺑﻊ‬
‫ﻃﺒﻖ ﺗﻌﺮﯾﻒ دارﯾﻢ‪:‬‬
‫↑‬
‫}‪Fx ( x) = Prob{x ≤ x‬‬
‫↓‬
‫ﺑﯿﺎﻧﮕﺮ ﻧﻮع ﺗﺎﺑﻌﯿﺖ‬
‫)اﮔﺮ ﻓﻘﻂ ﺑﺎ ﺗﻮزﯾﻊ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺳﺮوﮐﺎر داﺷﺘﻪ ﺑﺎﺷﯿﻢ‪ F(x) ،‬ﮐﻔﺎﯾﺖ ﻣﯽﮐﻨﺪ‪(.‬‬

‫ﭼﻪ ﺑﺮای ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ و ﭼﻪ ﮔﺴﺴﺘﻪ اﮔﺮ اﺣﺘﻤﺎل واﻗﻌﻪﻫﺎی }‪ {x ≤ x‬را ﺑﺮای ﻫﺮ ‪ x‬ﺑﺪاﻧﯿﻢ‪ ،‬اﺣﺘﻤﺎل ﻫﻤﮥ واﻗﻌﻪﻫﺎ‬
‫ﻣﺸﺨﺺ ﺧﻮاﻫﺪ ﺷﺪ‪ .‬ﭘﺲ )‪ F(x‬ﺑﻪ ﻃﻮر ﮐﺎﻣﻞ ﻣﯽﺗﻮاﻧﺪ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ را ﺗﻮﺻﯿﻒ ﮐﻨﺪ‪.‬‬

‫‪7‬‬
‫ﻣﺜﺎل ‪ :1‬در ﻣﺜﺎﻟﯽ ﮐﻪ داﺷﺘﯿﻢ‪:‬‬
‫)‪Fx(x‬‬ ‫‪Fx (−0.001) = P{x ≤ −0.001} = 0‬‬
‫‪1‬‬
‫‪Fx (0) = P{x ≤ 0} = 81‬‬
‫‪7‬‬
‫‪8‬‬
‫‪Fx (0.001) = P{x ≤ 0.001} = 81‬‬
‫‪Fx (0.999) = P{x ≤ 0.999} = 81‬‬
‫‪4‬‬
‫‪8‬‬ ‫‪Fx (1) = P{x ≤ 1} = 84‬‬
‫‪Fx (1.0001) = P{x ≤ 1.0001} = 84‬‬
‫‪1‬‬
‫‪8‬‬ ‫‪Fx (10) = P{x ≤ 10} = 1‬‬
‫‪x‬‬
‫‪0‬‬ ‫‪1‬‬ ‫‪2‬‬ ‫‪3‬‬
‫در ﺣﺎﻟﺖ ﮔﺴﺴﺘﻪ )‪ Fx(x‬ﺑﻪ ﺻﻮرت ﭘﻠﮑﺎﻧﯽ اﺳﺖ‪.‬‬

‫‪8‬‬
‫= }‪ P{x ∈ A‬؛ ﻟﺬا دارﯾﻢ‪:‬‬ ‫∑‬
‫‪x ∈A‬‬
‫ﻣﯽداﻧﯿﻢ ﮐﻪ در ﻣﻮرد ‪ RV‬ﮔﺴﺴﺘﻪ‪P (xi ) :‬‬
‫‪i‬‬

‫= }‪F(x) = P{x ≤ x‬‬ ‫∑‬


‫‪x ≤x‬‬
‫) ‪P (xi ) = ∑ P (xi )u(x − xi‬‬
‫‪i‬‬
‫‪i‬‬

‫ﮐﻪ‪:‬‬
‫‪1 x ≥ 0‬‬
‫‪u ( x) = ‬‬
‫‪0 x < 0‬‬
‫و ﻫﻤﭽﻨﯿﻦ‪:‬‬
‫) ‪ = F(xk ) − F(xk−‬ﻣﻘﺪار ﭘﺮش )‪ F(x‬در ‪P (xk ) = xk‬‬
‫)ﺑﻪ ﻃﻮر رﯾﺎﺿﯽ ﻧﯿﺰ اﯾﻦ را ﻧﺸﺎن ﺧﻮاﻫﯿﻢ داد‪(.‬‬

‫‪9‬‬
‫ﻣﺜﺎل ‪ :2‬ﯾﮏ ﻣﮑﺎﻟﻤﮥ ﺗﻠﻔﻨﯽ در زﻣﺎﻧﯽ ﮐﺎﻣﻼً ﺗﺼﺎدﻓﯽ ﺑﯿﻦ ] ‪ [0, T‬واﻗﻊ ﻣﯽﺷﻮد‪.‬‬
‫}‪Ω = {t : 0 ≤ t ≤ T‬‬
‫ﺑﻪ ﻃﻮری ﮐﻪ ﺑﺮای ﻫﺮ ‪: 0 ≤ t 1 ≤ t 2 ≤ T‬‬
‫‪t2 − t1‬‬
‫= } ‪P{t 1 ≤ t ≤ t 2‬‬
‫‪T‬‬
‫اﮔﺮ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﻣﺎ‪ ،‬ﺧﻮد زﻣﺎن وﻗﻮع ﻣﮑﺎﻟﻤﮥ ﺗﻠﻔﻨﯽ ﺑﺎﺷﺪ‪ ،‬دارﯾﻢ‪:‬‬

‫‪x(t) = t : 0 ≤ t ≤ T‬‬ ‫)‪F(x‬‬


‫‪P ( Ω ) = 1‬‬ ‫‪x>T‬‬
‫‪1‬‬
‫‪‬‬ ‫‪x‬‬
‫= }‪Fx (x) = P{x (t ) ≤ x} = P{0 ≤ t ≤ x‬‬ ‫‪0≤x≤T‬‬
‫‪‬‬ ‫‪T‬‬
‫‪P (∅) = 0‬‬ ‫‪x<0‬‬ ‫‪x‬‬
‫‪0‬‬ ‫‪T‬‬

‫ﺗﺎﺑﻊ ﺗﻮزﯾﻊ اﻧﺒﺎﺷﺘﮥ ‪ Ramp‬ﺑﺮای ﺗﻮزﯾﻊ ﯾﮑﻨﻮاﺧﺖ ﺣﺎﺻﻞ ﻣﯽﺷﻮد‪.‬‬

‫ﺗﻮﺟﻪ ﮐﻨﯿﺪ ﮐﻪ ﻋﻨﺎﺻﺮ ‪ Ω‬اﻋﺪاد ﺑﯿﻦ ‪ 0‬ﺗﺎ ‪ T‬ﺑﻮدﻧﺪ‪ ،‬وﻟﯽ )‪ F(x‬ﺑﺮای ﻫﻤﮥ ‪x‬ﻫﺎ ﺗﻌﺮﯾﻒ ﺷﺪه اﺳﺖ )ﻣﺜﻼً ‪x‬ﻫﺎی ﻣﻨﻔﯽ ﻣﺘﻨﺎﻇﺮ ﺑﺎ‬
‫ﻣﺠﻤﻮﻋﮥ ∅ ﻣﯽﺷﻮﻧﺪ و اﺣﺘﻤﺎل ﺻﻔﺮ دارﻧﺪ(‪.‬‬

‫‪10‬‬
‫ﺧﻮاص ﺗﺎﺑﻊ ﺗﻮزﯾﻊ اﻧﺒﺎﺷﺘﻪ )‪:(CDF‬‬
‫‪1) F(−∞) = 0‬‬
‫زﯾﺮا‪:‬‬
‫‪F(−∞) = P{x = −∞} = 0‬‬

‫‪2) F(+∞) = 1‬‬


‫زﯾﺮا‪:‬‬
‫‪F(+∞) = P{x ≤ +∞} = 1‬‬

‫)‪ F(x‬ﺗﺎﺑﻌﯽ ﻏﯿﺮﻧﺰوﻟﯽ اﺳﺖ ‪3) x1 < x 2 ⇒ F( x1 ) ≤ F( x 2 ) :‬‬


‫زﯾﺮا‪:‬‬
‫) ‪x1 < x 2 ⇒ {ω : x (ω) ≤ x1} ⊂ {ω : x (ω) ≤ x 2 } ⇒ P{x ≤ x1} ≤ P{x ≤ x 2 } ⇒ F(x1 ) ≤ F(x 2‬‬
‫از اﯾﻨﺠﺎ ﻧﺘﯿﺠﻪ ﻣﯽﺷﻮد ﮐﻪ‪ ، 0 ≤ F(x) ≤ 1 :‬زﯾﺮا دﯾﺪﯾﻢ ﮐﻪ در ∞‪ ، −‬ﺻﻔﺮ و در ∞‪ ، +‬ﯾﮏ اﺳﺖ‪.‬‬

‫‪11‬‬
‫)‪4) P{x > x} = 1 − F(x‬‬
‫زﯾﺮا‪:‬‬
‫)‪{ω : x (ω) > x} = {ω : x (ω) ≤ x}c ⇒ P{x > x} = 1 − P{x ≤ x} = 1 − F(x) = F c ( x‬‬

‫اﻏﻠﺐ در ﻣﺨﺎﺑﺮات ﺑﺎ }‪ P{x > x‬ﺳﺮوﮐﺎر دارﯾﻢ )ﺑﺰرﮔﺘﺮ ﺷﺪن از ﯾﮏ ﺳﻄﺢ آﺳﺘﺎﻧﻪ( ﮐﻪ ﻣﮑﻤﻞ )‪ F(x‬ﻣﯽﺷﻮد‪.‬‬

‫) ‪5) P{x1 < x ≤ x 2 } = F(x 2 ) − F(x1‬‬


‫زﯾﺮا‪:‬‬
‫} ‪{x ≤ x 2 } = {x ≤ x 1}∪ {x1 < x ≤ x 2‬‬
‫↓‬ ‫↓‬
‫دو ﻣﺠﻤﻮﻋﮥ ﺟﺪا از ﻫﻢ‬

‫} ‪⇒ P{x ≤ x 2 } = P{x ≤ x1} + P{x1 < x ≤ x 2‬‬


‫) ‪F ( x2‬‬ ‫) ‪F ( x1‬‬

‫) ‪⇒ P{x1 < x ≤ x 2 } = F(x 2 ) − F(x1‬‬

‫از ﻫﻤﯿﻦ ﺟﺎ ﺑﻪ ازای ‪ x 2 = x‬و ‪ x1 = x − ε‬و ﻣﯿﻞ دادن ‪ ε‬ﺑﻪ ﺳﻤﺖ ﺻﻔﺮ ﻧﺘﯿﺠﻪ ﻣﯽﺷﻮد ﮐﻪ‪:‬‬
‫) ‪P{x = x} = F(x) − F( x −‬‬

‫‪12‬‬
‫اﮔﺮ ﭘﺮش در )‪ F(x‬داﺷﺘﻪ ﺑﺎﺷﯿﻢ‪ F(x) ،‬ﺑﺎ ) ‪ F(x −‬ﺑﻪ اﻧﺪازۀ }‪ P (x) = P{x = x‬ﻣﺘﻔﺎوت ﺧﻮاﻫﺪ ﺑﻮد‪ ،‬وﻟﯽ )‪ F(x‬ﺑﻪ ﻫﺮ ﺣﺎل از راﺳﺖ‬
‫ﭘﯿﻮﺳﺘﻪ اﺳﺖ‪ ،‬ﯾﻌﻨﯽ‪:‬‬
‫} ‪F(x0 ) = F(x0+ ) = P{x ≤ x0‬‬
‫} ‪F(x0− ) = P{x < x0‬‬
‫) ‪p0 = F(x0+ ) − F(x0− ) = F(x0 ) − F(x0−‬‬

‫)ﺿﻤﻨﺎً ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ) ‪ P{x = x} = F( x) − F(x −‬دارﯾﻢ‪:‬‬


‫)‪F(x‬‬
‫) ‪( P{x1 ≤ x ≤ x 2 } = F(x 2 ) − F(x1−‬‬
‫‪1‬‬

‫‪p0‬‬

‫‪x‬‬
‫‪0‬‬ ‫‪x0‬‬

‫) ‪6) F(x) = F(x +‬‬


‫)ﻗﺎﺑﻞ اﺛﺒﺎت ﺑﻪ ﻃﻮر دﻗﯿﻖ رﯾﺎﺿﯽ‪ ،‬ﮐﺘﺎب ‪ ،DeGroot‬ص ‪(110‬‬

‫‪13‬‬
‫ﺣﺎل ﮐﻪ )‪ F(x‬را ﻓﻬﻤﯿﺪﯾﻢ ﻣﯽﺗﻮاﻧﯿﻢ ﮔﺴﺴﺘﻪ ﯾﺎ ﭘﯿﻮﺳﺘﻪ ﺑﻮدن ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ را ﻃﻮر دﯾﮕﺮی ﻧﯿﺰ ﺗﻌﺮﯾﻒ ﮐﻨﯿﻢ‪:‬‬
‫ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ را ﮔﺴﺴﺘﻪ )‪ (Discrete‬ﮔﻮﯾﻨﺪ اﮔﺮ )‪ F(x‬ﺑﻪ ﺻﻮرت ﭘﻠﮑﺎﻧﯽ ﺑﺎﺷﺪ‪ ،‬ﻣﺎﻧﻨﺪ ﻣﺜﺎﻟﯽ ﮐﻪ ﺑﺮای ﺳﻪ ﺳﮑﻪ داﺷﺘﯿﻢ‪.‬‬
‫در اﯾﻦ ﺣﺎﻟﺖ ﻫﻤﺎن ﻃﻮر ﮐﻪ ﻗﺒﻼً دﯾﺪﯾﻢ‪:‬‬
‫) ‪P{x = xi } = F(xi ) − F(xi− ) = pi = P (xi‬‬
‫ﺗﻌﺮﯾﻒ ﻓﻮق ﺑﺎ اﯾﻦ ﺗﻌﺮﯾﻒ ﮐﻪ ﻣﻘﺎدﯾﺮ ﻣﻤﮑﻨﻪ ﺑﺮای ‪ x‬ﻗﺎﺑﻞ ﺷﻤﺎرش ﻫﺴﺘﻨﺪ ﻣﻌﺎدل اﺳﺖ‪.‬‬

‫ﺗﻮﺟﻪ ﮐﻨﯿﺪ ﮐﻪ ﮔﺮ ﭼﻪ اﮔﺮ ﻓﻀﺎی ﻧﻤﻮﻧﻪ )‪ (Ω‬ﻗﺎﺑﻞ ﺷﻤﺎرش ﺑﺎﺷﺪ‪ ،‬ﻫﺮ ‪x‬ای روی آن ﮔﺴﺴﺘﻪ ﺧﻮاﻫﺪ ﺑﻮد‪ ،‬وﻟﯽ روی ﻓﻀﺎی ‪ Ω‬ﭘﯿﻮﺳﺘﻪ ﻧﯿﺰ‬
‫ﻣﯽﺗﻮان ‪ x‬ﮔﺴﺴﺘﻪ ﺗﻌﺮﯾﻒ ﮐﺮد‪.‬‬

‫ﻣﺜﻼً اﮔﺮ ‪ A‬واﻗﻌﻪای در ﻓﻀﺎی ﻧﻤﻮﻧﮥ ﻏﯿﺮﻗﺎﺑﻞ ﺷﻤﺎرش ‪ Ω‬ﺑﺎﺷﺪ و ﺗﻌﺮﯾﻒ ﮐﻨﯿﻢ‪:‬‬
‫‪1 ω∈ A‬‬
‫‪x (ω) = ‬‬ ‫ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﯾﮏ‪-‬ﺻﻔﺮ )‪ (Zero-One RV‬ﻣﺘﻨﺎﻇﺮ ﺑﺎ واﻗﻌﮥ ‪: A‬‬
‫‪‬‬ ‫‪0‬‬ ‫∈‪ω‬‬
‫‪/‬‬ ‫‪A‬‬

‫‪14‬‬
‫در اﯾﻦ ﺻﻮرت اﮔﺮ ‪ P (A ) = p‬و ‪ P (A ) = 1 − p = q‬ﺑﺎﺷﺪ‪ ،‬دارﯾﻢ‪:‬‬

‫)‪F(x‬‬
‫‪1‬‬
‫‪p‬‬
‫‪q‬‬

‫‪x‬‬
‫‪0‬‬ ‫‪1‬‬

‫ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ را ﭘﯿﻮﺳﺘﻪ )‪ (Continuous‬ﮔﻮﯾﻨﺪ اﮔﺮ )‪ F(x‬ﺑﺮای ﻫﺮ ‪ x‬ﭘﯿﻮﺳﺘﻪ ﺑﺎﺷﺪ‪.‬‬

‫)‪F(x‬‬ ‫ﻣﺎﻧﻨﺪ ﻣﺜﺎﻟﯽ ﮐﻪ داﺷﺘﯿﻢ )ﺗﻠﻔﻦ(‪:‬‬

‫‪1‬‬

‫‪x‬‬
‫‪0‬‬ ‫‪T‬‬

‫‪15‬‬
‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ وﯾﮋﮔﯽ ‪ 5‬ﺑﺮای ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ‪ ،‬ﻧﺘﯿﺠﻪ ﻣﯽﮔﯿﺮﯾﻢ ﮐﻪ ﺑﺮای ﻫﺮ ‪ x‬دارﯾﻢ‪. P{x = x} = 0 :‬‬

‫ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ را از ﻧﻮع ﻣﺨﻠﻮط )‪ (Mixed‬ﮔﻮﯾﻨﺪ اﮔﺮ )‪ F(x‬دارای ﻧﺎﭘﯿﻮﺳﺘﮕﯽ ﺑﺎﺷﺪ‪ ،‬وﻟﯽ ﭘﻠﮑﺎﻧﯽ ﻧﺒﺎﺷﺪ‪.‬‬
‫)ﺗﻌﺮﯾﻔﯽ ﮐﻪ ﻗﺒﻼً ﺑﺮای ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ﮐﺮدﯾﻢ دو ﻧﻮع اﺧﯿﺮ را ﺑﺎ ﻫﻢ در ﺑﺮﻣﯽﮔﺮﻓﺖ‪ ،‬ﭼﻮن در ﻫﺮ دو ﺗﻌﺪاد ﻣﻘﺎدﯾﺮ ﻣﻤﮑﻨﻪ ﺑﺮای ‪x‬‬
‫ﻏﯿﺮﻗﺎﺑﻞﺷﻤﺎرش اﺳﺖ‪(.‬‬

‫)‪F(x‬‬
‫‪1‬‬

‫‪x‬‬
‫‪0‬‬

‫‪16‬‬
‫ﻣﺜﺎل‪ :‬وﻟﺘﺎژ ورودی ﺗﻘﻮﯾﺖﮐﻨﻨﺪهای‪ ،‬وﻟﺘﺎژی ﮐﺎﻣﻼً ﺗﺼﺎدﻓﯽ ﺑﯿﻦ ‪ 0‬و ‪) 1‬اﺣﺘﻤﺎل ﯾﮑﻨﻮاﺧﺖ( اﺳﺖ‪ .‬ﺑﻬﺮۀ ﺗﻘﻮﯾﺖﮐﻨﻨﺪه ‪ 10‬اﺳﺖ‪ ،‬وﻟﯽ‬
‫ﺣﺪاﮐﺜﺮ وﻟﺘﺎژ ﺧﺮوﺟﯽ ‪ 4 V‬اﺳﺖ و ﺑﺮای ﺑﯿﺸﺘﺮ از آن روی ‪ 4 V‬اﺷﺒﺎع ﻣﯽﺷﻮد‪.‬‬

‫)‪Fx (x‬‬ ‫)‪Fy (y‬‬


‫‪1‬‬ ‫اﮔﺮ اﺷﺒﺎع ﻧﺒﻮد‬ ‫‪1‬‬

‫‪0.4‬‬
‫‪x‬‬ ‫‪y‬‬
‫‪0‬‬ ‫‪1‬‬ ‫‪0‬‬ ‫‪4‬‬ ‫‪10‬‬

‫)‪Fy (y‬‬
‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ اﺷﺒﺎع‬ ‫‪1‬‬

‫‪0.4‬‬
‫‪y‬‬
‫‪0‬‬ ‫‪4‬‬
‫}‪ {x = 4‬اﺣﺘﻤﺎﻟﯽ ﺑﺮاﺑﺮ ﺑﺎ ‪ 0/6‬دارد و ﺳﺎﯾﺮ }‪{x = x‬ﻫﺎ اﺣﺘﻤﺎﻟﺸﺎن ﺻﻔﺮ اﺳﺖ‪.‬‬

‫‪17‬‬
‫ﺻﺪکﻫﺎ )ﻧﻘﺎط درﺻﺪ( )‪:(Percentiles‬‬
‫وﻗﺘﯽ ﻣﯽﮔﻮﯾﯿﻢ ‪ Fx (x) = u‬ﯾﻌﻨﯽ ﺑﻪ اﺣﺘﻤﺎل ‪ u‬ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ x‬از ﻣﻘﺪار ‪ x‬ﺑﺰرﮔﺘﺮ ﻧﻤﯽﺷﻮد )ﮐﻮﭼﮑﺘﺮ ﯾﺎ ﻣﺴﺎوی ‪ x‬اﺳﺖ(‪ .‬ﺧﯿﻠﯽ‬
‫اوﻗﺎت ﺑﺎ ﻋﮑﺲ ﻣﺴﺄﻟﻪ ﻣﻮاﺟﻬﯿﻢ‪ .‬ﻣﺜﻼً ﻣﯽﺧﻮاﻫﯿﻢ ﺑﺒﯿﻨﯿﻢ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ x‬ﺑﻪ اﺣﺘﻤﺎل ‪ 0/95‬ﮐﻮﭼﮑﺘﺮ ﯾﺎ ﻣﺴﺎوی ﮐﺪام ‪ x‬اﺳﺖ؟‬
‫‪F(x) = P{x ≤ x} = u‬‬
‫‪ 0 ≤ u ≤ 1‬داده ﺷﺪه و ∞‪ −∞ ≤ x ≤ +‬ﻣﻄﻠﻮب اﺳﺖ‪:‬‬
‫ﺗﺎﺑﻌﯽ از ‪x u = F −1 (u) :u‬‬
‫‪ x u‬را ﺻﺪک ‪100-u‬ام ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ x‬ﮔﻮﯾﻨﺪ‪ .‬ﻣﺜﻼً ‪ ، x0.95‬ﺻﺪک ﻧﻮد و ﭘﻨﺠﻢ اﺳﺖ‪.‬‬

‫)‪x=F−1 (u‬‬
‫)‪F(x‬‬
‫‪1‬‬

‫‪0.5‬‬
‫‪m‬‬
‫‪x‬‬ ‫‪u‬‬
‫‪0‬‬ ‫‪m‬‬ ‫‪0‬‬ ‫‪0.5‬‬ ‫‪1‬‬

‫‪18‬‬
‫ﺻﺪک دﻫﻢ را دﻫﮏ )‪ (Decile‬اول‪ ،‬ﺻﺪک ﺑﯿﺴﺘﻢ را دﻫﮏ دوم و ‪ ...‬ﮔﻮﯾﻨﺪ‪.‬‬
‫ﺻﺪک ‪25‬ام را ﭼﺎرک )‪ (Quartile‬اول ﯾﺎ ﭘﺎﯾﯿﻦ و ﺻﺪک ‪75‬ام را ﭼﺎرک ﺳﻮم ﯾﺎ ﺑﺎﻻ ﮔﻮﯾﻨﺪ‪.‬‬

‫ﻣﻬﻤﺘﺮ از ﻫﻤﻪ اﯾﻨﮑﻪ ﺻﺪک ﭘﻨﺠﺎﻫﻢ را ﭼﺎرک دوم ﯾﺎ ﻣﯿﺎﻧﻪ )‪ (Median‬ﮔﻮﯾﻨﺪ‪.‬‬


‫ﭘﺲ ﻣﯿﺎﻧﮥ )‪ (m‬ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ x‬ﻣﻘﺪاری اﺳﺖ ﮐﻪ ﺑﻪ ازای آن دارﯾﻢ‪:‬‬
‫‪Fx (m ) = 0.5‬‬

‫)‪G(x‬‬ ‫ﻣﺜﺎل‪ Fx (x) = G(x) :‬؛‬


‫‪1‬‬

‫‪0.5‬‬ ‫‪m=0‬‬
‫‪x‬‬
‫‪0‬‬

‫‪19‬‬
‫)‪Fx(x‬‬ ‫وﻟﯽ ﻣﻤﮑﻦ اﺳﺖ ‪ F‬ﭘﺮش داﺷﺘﻪ ﺑﺎﺷﺪ و ﻟﺬا در ﻫﯿﭻ ﻧﻘﻄﻪای ‪ Fx ( x) = 0.5‬ﻧﺸﻮد‪:‬‬

‫‪1‬‬
‫‪0.6‬‬ ‫‪m=1‬‬
‫‪0.3‬‬
‫‪x‬‬
‫‪0‬‬ ‫‪1‬‬ ‫‪2‬‬ ‫‪3‬‬

‫)‪F(x‬‬ ‫ﯾﺎ ﻣﻤﮑﻦ اﺳﺖ ﯾﮏ ﺑﺎزه ﻣﯿﺎﻧﻪ ﺑﺎﺷﺪ‪:‬‬


‫‪1‬‬

‫‪0.5‬‬

‫‪x‬‬
‫‪0‬‬

‫‪20‬‬
‫ﺗﻌﺮﯾﻒ ﻣﯿﺎﻧﻪ‪ :‬ﺑﺮای ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ ،x‬ﻣﯿﺎﻧﮥ ‪ m‬ﻣﻘﺪاری اﺳﺖ ﮐﻪ ﺑﺮای آن داﺷﺘﻪ ﺑﺎﺷﯿﻢ‪:‬‬
‫‪1‬‬ ‫‪1‬‬
‫≥ }‪P{x ≥ m} ≥ , P{x ≤ m‬‬
‫‪2‬‬ ‫‪2‬‬

‫ﺑﻪ دﺳﺖ آوردن ﺗﺠﺮﺑﯽ )‪:F(x‬‬


‫آزﻣﺎﯾﺶ ﺗﺼﺎدﻓﯽ را ‪n‬ﺑﺎر ﺗﮑﺮار ﻣﯽﮐﻨﯿﻢ و ﻣﻘﺎدﯾﺮ ﺣﺎﺻﻠﻪ ﺑﺮای ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ x‬در اﯾﻦ ‪n‬ﺑﺎر )‪ (xi : i = 1, 2, …, n‬را ﻣﺮﺗﺐ‬
‫ﻣﯽﮐﻨﯿﻢ‪.‬‬
‫)‪ Fn(x‬ﺗﺠﺮﺑﯽ‬
‫‪1‬‬
‫‪1‬‬ ‫)‪ F(x‬واﻗﻌﯽ‬
‫‪n‬‬

‫‪x‬‬
‫‪xmin‬‬ ‫‪0‬‬ ‫‪xmax‬‬

‫ﻣﺜﻼً ﺑﺎ ﻗﺮاﺋﺖ ﻣﮑﺮر وﻟﺘﺎژ ﻧﻮﯾﺰی ﮐﻪ ﺗﻮزﯾﻊ آن را ﻧﻤﯽداﻧﯿﻢ ﻣﯽﺗﻮاﻧﯿﻢ )‪ F(x‬ﺗﻘﺮﯾﺒﯽ آن را ﺑﻪ دﺳﺖ آورﯾﻢ‪:‬‬
‫‪nx‬‬
‫= )‪F(x) Fn (x‬‬ ‫‪ nx‬ﺗﻌﺪاد ‪xi‬ﻫﺎﯾﯽ اﺳﺖ ﮐﻪ ﺑﺮای آﻧﻬﺎ ‪ xi ≤ x‬اﺳﺖ‪:‬‬
‫‪n‬‬
‫ﺑﺮای ‪ n‬ﺑﺰرگ ﻣﻨﺤﻨﯽ ﺗﺠﺮﺑﯽ ﺑﻪ واﻗﻌﯽ ﻣﯿﻞ ﻣﯽﮐﻨﺪ‪.‬‬

‫‪21‬‬
‫‪k 1‬‬
‫ﺧﻮاﻫﺪ ﺑﻮد‪.‬‬ ‫اﮔﺮ ﯾﮏ ﻣﻘﺪار ﺑﯿﺶ از ﯾﮏ ﺑﺎر ﺣﺎﺻﻞ ﺷﻮد )در ﻣﻮرد ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ﻣﻌﻤﻮﻻً اﯾﻦ ﻃﻮر اﺳﺖ(‪ ،‬ﭘﻠﻪ ﺑﻪ ﺟﺎی ‪،‬‬
‫‪n n‬‬
‫ﻣﺜﻼً در ﻣﺜﺎل ﺳﻪ ﺳﮑﻪ ﮐﻪ داﺷﺘﯿﻢ اﮔﺮ در ‪ 10‬ﺑﺎر ﺗﮑﺮار آزﻣﺎﯾﺶ‪ ،‬اﯾﻦ ﻧﺘﺎﯾﺞ ﺣﺎﺻﻞ ﺷﺪه ﺑﺎﺷﻨﺪ‪ ،‬دارﯾﻢ‪:‬‬
‫‪3‬‬ ‫‪2‬‬ ‫‪1‬‬ ‫ﺻﻔﺮ‬ ‫ﺗﻌﺪاد ﺷﯿﺮﻫﺎ‬
‫ﯾﮏ ﺑﺎر‬ ‫ﺳﻪ ﺑﺎر‬ ‫ﭼﻬﺎر ﺑﺎر‬ ‫دو ﺑﺎر‬ ‫ﺗﻌﺪاد وﻗﻮع‬

‫)‪Fn(x‬‬
‫‪1‬‬
‫‪0.9‬‬
‫‪0.6‬‬

‫‪0.2‬‬
‫‪x‬‬
‫‪0‬‬ ‫‪1‬‬ ‫‪2‬‬ ‫‪3‬‬
‫ﻣﻘﺎدﯾﺮ واﻗﻌﯽ‪:‬‬
‫‪F(0) = 81‬‬ ‫= )‪F(1‬‬ ‫‪4‬‬
‫‪8‬‬
‫‪F(2 ) = 78‬‬ ‫‪F ( 3) = 1‬‬

‫)ﺑﻪ ﺻﻮرت ﻣﺸﺎﺑﻬﯽ ﻣﻨﺤﻨﯽ ﺻﺪک ﻧﯿﺰ ﺑﻪ ﻃﻮر ﺗﺠﺮﺑﯽ ﻗﺎﺑﻞ ﺗﺨﻤﯿﻦ اﺳﺖ‪(.‬‬
‫‪22‬‬
‫ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل )‪:pdf (Probability Density Function‬‬
‫ﺑﺮای ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ راه دﯾﮕﺮ ﺑﺮای ﻣﺸﺨﺺ ﮐﺮدن اﺣﺘﻤﺎل واﻗﻌﻪﻫﺎﯾﯽ ﮐﻪ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ x‬را ﺗﻌﺮﯾﻒ ﻣﯽﮐﻨﻨﺪ آن اﺳﺖ ﮐﻪ‬
‫)ﻣﺸﺎﺑﻪ آﻧﭽﻪ ﻣﺴﺘﻘﯿﻤﺎً ﺑﺮای اﺣﺘﻤﺎل ﺧﻮد واﻗﻌﻪﻫﺎی ‪ Ω‬ﺑﺎ ﺗﻌﺮﯾﻒ )‪ α(x‬ﮐﺮدﯾﻢ( ﺗﺎﺑﻌﯽ ﮐﻪ ﺑﯿﺎﻧﮕﺮ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل اﺳﺖ را داﺷﺘﻪ ﺑﺎﺷﯿﻢ‪.‬‬
‫)ﺑﻪ وﺳﯿﻠﮥ ‪ pdf‬دﯾﺪ ﺑﯿﺸﺘﺮی )در ﻣﻘﺎﯾﺴﻪ ﺑﺎ ‪ (CDF‬ﻧﺴﺒﺖ ﺑﻪ ﻣﯿﺰان ﻣﺤﺘﻤﻞ ﺑﻮدن ﻣﻘﺎدﯾﺮ ﻣﺨﺘﻠﻒ ﭘﯿﺪا ﻣﯽﮐﻨﯿﻢ‪(.‬‬
‫‪ pdf‬را ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽﮐﻨﯿﻢ‪:‬‬
‫)‪dFx (x‬‬
‫= )‪fx (x‬‬
‫‪dx‬‬
‫در ﮐﺘﺎب ﻧﺘﺎﺳﯿﻮن )‪ (Notation‬آن ﺑﺎ ﺗﺎﺑﻊ اﺣﺘﻤﺎل ﯾﮑﯽ اﺳﺖ‪.‬‬
‫ﮔﺎﻫﯽ ‪ CDF‬و ﮔﺎﻫﯽ ‪ pdf‬را ﺗﺎﺑﻊ ﺗﻮزﯾﻊ )ﺑﯿﺸﺘﺮ ‪ (CDF‬ﯾﺎ ﺗﻮزﯾﻊ )ﺑﯿﺸﺘﺮ ‪ (pdf‬ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ x‬ﮔﻮﯾﻨﺪ‪.‬‬

‫ﻣﺜﺎل‪ :‬در ﻣﺜﺎل ﻣﮑﺎﻟﻤﮥ ﺗﻠﻔﻨﯽ ﮐﺎﻣﻼً ﺗﺼﺎدﻓﯽ ﺑﯿﻦ ] ‪ [0, T‬دﯾﺪﯾﻢ ﮐﻪ‪:‬‬
‫)‪F(x‬‬ ‫)‪f (x‬‬
‫‪1‬‬
‫‪1‬‬
‫‪T‬‬

‫‪x‬‬ ‫‪x‬‬
‫‪0‬‬ ‫‪T‬‬ ‫‪0‬‬ ‫‪T‬‬
‫‪23‬‬
‫ﺧﻮاص ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل )‪:(pdf‬‬

‫= } ‪1) P{x1 ≤ x ≤ x 2‬‬


‫‪x2‬‬
‫‪∫x‬‬ ‫‪1‬‬
‫‪fx (x) dx‬‬ ‫)‪f (x‬‬

‫)ﯾﻌﻨﯽ واﻗﻌﺎً ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل اﺳﺖ(‬


‫‪x1‬‬ ‫‪x2‬‬

‫اﺛﺒﺎت‪ :‬ﻣﯽداﻧﯿﻢ ﮐﻪ‪:‬‬


‫) ‪P{x1 ≤ x ≤ x 2 } = F(x 2 ) − F(x 1‬‬
‫و از ﺗﻌﺮﯾﻒ ‪ pdf‬دارﯾﻢ‪:‬‬
‫‪x2‬‬
‫= ) ‪F(x 2 ) − F(x1‬‬ ‫‪∫x‬‬ ‫‪1‬‬
‫‪f (x)dx‬‬

‫ﭘﺲ ﺣﮑﻢ ﺛﺎﺑﺖ اﺳﺖ )ﺗﻮﺟﻪ ﮐﻨﯿﺪ ﮐﻪ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ را ﭘﯿﻮﺳﺘﻪ ﻓﺮض ﮐﺮدﯾﻢ(‪.‬‬
‫ﺿﻤﻨﺎً اﮔﺮ در راﺑﻄﮥ ﻓﻮق ∞‪ x1 = −‬ﻗﺮار دﻫﯿﻢ‪ ،‬دارﯾﻢ‪:‬‬
‫‪x‬‬
‫= )‪F ( x‬‬ ‫∫‬
‫∞‪−‬‬
‫‪f (u)du‬‬
‫‪24‬‬
‫ﻫﻤﭽﻨﯿﻦ از ﺧﺎﺻﯿﺖ ﻓﻮق وﻗﺘﯽ ‪ ∆x → 0‬دارﯾﻢ‪:‬‬
‫)ﻣﻔﻬﻮم ﭼﮕﺎﻟﯽ( ‪P{x ≤ x ≤ x + ∆x} = f (x)∆x‬‬
‫ﯾﺎ‪:‬‬
‫}‪P{x ≤ x ≤ x + ∆x‬‬
‫‪f (x) = lim‬‬
‫‪∆x→0‬‬ ‫‪∆x‬‬

‫)‪f (x‬‬
‫)اﯾﻦ در واﻗﻊ ) ‪ f ( x +‬اﺳﺖ‪ ،‬ﭼﻮن ‪ CDF‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ اﮔﺮ ﭼﻪ‬
‫ﭘﯿﻮﺳﺘﻪ اﺳﺖ‪ ،‬وﻟﯽ ﻟﺰوﻣﺎً ﻣﺸﺘﻖﭘﺬﯾﺮ ﻧﯿﺴﺖ‪ .‬ﻣﻤﮑﻦ اﺳﺖ ﻣﺸﺘﻖ راﺳﺖ و ﭼﭗ ﺑﺮاﺑﺮ‬
‫ﻧﺒﺎﺷﻨﺪ‪ ،‬در اﯾﻦ ﺻﻮرت ﻧﺎﭘﯿﻮﺳﺘﮕﯽ در )‪ f(x‬ﺧﻮاﻫﯿﻢ داﺷﺖ‪ ،‬ﻣﺎﻧﻨﺪ ﻣﺜﺎل ﺑﺎﻻ‪ .‬در‬
‫ﭼﻨﯿﻦ ﻧﻘﺎﻃﯽ ﮐﻪ ﻣﺸﺘﻖ وﺟﻮد ﻧﺪارد ﻫﺮ ﻣﻘﺪاری را ﻣﯽﺗﻮاﻧﯿﺪ ﺑﻪ )‪ f(x‬ﻧﺴﺒﺖ دﻫﯿﺪ‪،‬‬
‫‪x x + ∆x‬‬ ‫ﻣﺜﻼً ﻣﺸﺘﻖ راﺳﺖ را‪(.‬‬

‫‪2) f ( x) ≥ 0‬‬
‫ﭼﻮن )‪ F(x‬ﻏﯿﺮﻧﺰوﻟﯽ اﺳﺖ‪.‬‬
‫)‪ f‬ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﻣﺎﻧﻨﺪ ‪ P‬ﺗﺎﺑﻊ اﺣﺘﻤﺎل ﻧﺎﻣﻨﻔﯽ اﺳﺖ‪ ،‬وﻟﯽ ‪ f‬ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﻣﯽﺗﻮاﻧﺪ ﺑﺰرﮔﺘﺮ از ﯾﮏ ﻫﻢ ﺑﺸﻮد و ﺣﺘﯽ ﻣﯽﺗﻮاﻧﺪ ﺑﻪ ﺳﻤﺖ‬
‫‪1‬‬
‫‪2 −3‬‬
‫ﻼ )‪( f ( x) = x u ( x‬‬
‫ﺑﯽﻧﻬﺎﯾﺖ ﺑﺮود‪ ،‬ﻣﺜ ً‬
‫‪3‬‬
‫‪25‬‬
‫∞‪+‬‬
‫)‪3‬‬ ‫∫‬
‫∞‪−‬‬
‫‪f (x)dx = 1‬‬
‫∞‬
‫ﺑﺮای ﺗﺎﺑﻊ اﺣﺘﻤﺎل(‪.‬‬ ‫∑‬
‫=‬
‫‪i 1‬‬
‫ﭼﻮن ‪ F(+∞) = 1‬اﺳﺖ )ﻣﺸﺎﺑﻪ ﺧﺎﺻﯿﺖ ‪P (xi ) = 1‬‬

‫‪26‬‬
‫ﻣﺜﺎل‪ :‬ﻣﺪت زﻣﺎن ﮐﺎرﮐﺮد ﯾﮏ ﮐﺎﻣﭙﯿﻮﺗﺮ )ﺑﺮ ﺣﺴﺐ روز( ﻗﺒﻞ از ﺧﺮاﺑﯽ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ زﯾﺮ اﺳﺖ‪:‬‬

‫)‪f (x‬‬ ‫‪ − x‬‬


‫‪‬‬
‫‪f ( x) = λe‬‬
‫‪100‬‬ ‫‪x≥0‬‬
‫اﻟﻒ( اﺣﺘﻤﺎل اﯾﻨﮑﻪ ﮐﺎﻣﭙﯿﻮﺗﺮ ﺑﯿﻦ ‪ 50‬ﺗﺎ ‪ 150‬روز ﮐﺎر ﮐﻨﺪ ﭼﻘﺪر اﺳﺖ؟‬
‫ب( اﺣﺘﻤﺎل اﯾﻨﮑﻪ ﮐﻤﺘﺮ از ‪ 100‬روز ﮐﺎر ﮐﻨﺪ ﭼﻘﺪر اﺳﺖ؟‬
‫‪0‬‬ ‫‪x<0‬‬

‫‪x‬‬
‫اﻟﻒ(‬
‫‪x‬‬ ‫‪x‬‬
‫∞‪+‬‬ ‫‪+∞ −‬‬ ‫‪−‬‬ ‫∞‪+‬‬ ‫‪1‬‬
‫∫‬‫∞‪−‬‬
‫‪f (x) dx = 1 ⇒ λ‬‬ ‫‪∫0‬‬ ‫‪e‬‬ ‫‪100‬‬ ‫‪dx = 1 ⇒ −λ (100)e‬‬ ‫‪100‬‬
‫‪0‬‬
‫= ‪= 100λ = 1 ⇒ λ‬‬
‫‪100‬‬
‫‪x‬‬ ‫‪x‬‬ ‫‪1‬‬ ‫‪3‬‬
‫‪150‬‬ ‫‪1 − 100‬‬ ‫‪−‬‬ ‫‪−‬‬ ‫‪−‬‬
‫‪∫50‬‬
‫‪150‬‬
‫= }‪P{50 < x < 150‬‬ ‫‪e‬‬ ‫‪dx = −e 100‬‬ ‫‪50‬‬ ‫‪=e‬‬ ‫‪2‬‬ ‫‪−e‬‬ ‫‪2‬‬ ‫‪= 0.384‬‬
‫‪100‬‬

‫ب(‬
‫‪x‬‬ ‫‪x‬‬
‫‪100‬‬ ‫‪1 − 100‬‬ ‫‪−‬‬
‫‪∫0‬‬ ‫‪= 1 − e −1 = 0.632‬‬
‫‪100‬‬
‫= }‪P{x < 100‬‬ ‫‪e‬‬ ‫‪dx = −e 100‬‬ ‫‪0‬‬
‫‪100‬‬
‫ﯾﻌﻨﯽ در ‪ %63‬اوﻗﺎت ﮐﺎﻣﭙﯿﻮﺗﺮ ﻗﺒﻞ از اﯾﻨﮑﻪ ‪ 100‬روز ﮐﺎر ﮐﻨﺪ از ﮐﺎر ﻣﯽاﻓﺘﺪ‪.‬‬

‫‪27‬‬
‫ﺑﻪ دﺳﺖ آوردن ﺗﺠﺮﺑﯽ )‪:f(x‬‬
‫آزﻣﺎﯾﺶ را ‪n‬ﺑﺎر ﺗﮑﺮار ﻣﯽﮐﻨﯿﻢ و ﻣﻘﺪار ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ x‬ﺣﺎﺻﻠﻪ از ﻫﺮ آزﻣﺎﯾﺶ را ﺛﺒﺖ ﻣﯽﮐﻨﯿﻢ‪ .‬ﻣﺤﻮر ‪x‬ﻫﺎ را ﺑﻪ ﻓﻮاﺻﻠﯽ ﺑﻪ ﻃﻮل ∆‬
‫ﺗﻘﺴﯿﻢ ﻣﯽﮐﻨﯿﻢ‪ .‬اﮔﺮ ﺗﻌﺪاد ‪xi‬ﻫﺎﯾﯽ ﮐﻪ در ﻓﺎﺻﻠﮥ ‪k‬ام‪ ،‬ﯾﻌﻨﯽ ) ∆ ‪ [ ck , ck +‬ﻗﺮار دارﻧﺪ را ﺑﺎ ‪ nk‬ﻧﺸﺎن دﻫﯿﻢ‪ ،‬دارﯾﻢ‪:‬‬
‫‪nk‬‬
‫)‪f ( x‬‬ ‫= ﻫﯿﺴﺘﻮﮔﺮام )‪fn (x‬‬ ‫∆ ‪: ck ≤ x < ck +‬‬
‫∆‪n‬‬
‫ﺑﻪ اﯾﻦ ﺗﺮﺗﯿﺐ‪:‬‬
‫‪nk‬‬
‫∆ ) ‪f ( ck‬‬ ‫}∆ ‪P{ck ≤ x < ck +‬‬ ‫∆)‪= fn (x‬‬
‫‪n‬‬

‫‪x‬‬
‫∆‪ck ck +‬‬

‫‪28‬‬
‫‪ pdf‬ﺑﺮای ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ ﻏﯿﺮ ﭘﯿﻮﺳﺘﻪ‪:‬‬
‫در ﻣﻮرد ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﻏﯿﺮﭘﯿﻮﺳﺘﻪ ﯾﺎ ﻣﺨﻠﻮط ﭼﻮن ‪ CDF‬دارای ﻧﺎﭘﯿﻮﺳﺘﮕﯽ اﺳﺖ‪ ،‬ﻣﺸﺘﻖ ﺑﯽﻣﻔﻬﻮم ﺧﻮاﻫﺪ ﺑﻮد )ﺑﯽﻧﻬﺎﯾﺖ ﻣﯽ ﺷﻮد(‪.‬‬
‫وﻟﯽ ﺑﺎ اﺳﺘﻔﺎده از ﺗﺎﺑﻊ )ﺗﺎﺑﻊ ﺗﻌﻤﯿﻢ ﯾﺎﻓﺘﮥ( ‪ δ‬ﻣﯽﺗﻮاﻧﯿﻢ آن را ﺑﯿﺎن ﮐﻨﯿﻢ‪.‬‬

‫) ‪f (x‬‬ ‫‪3‬‬ ‫‪3‬‬ ‫ﻣﺜﻼً ﺑﺮای ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ در ﻣﺜﺎل ﭘﺮﺗﺎب ﺳﻪ ﺳﮑﻪ دارﯾﻢ‪:‬‬
‫‪8‬‬ ‫‪8‬‬ ‫= )‪f ( x‬‬ ‫) ‪∑i Pi δ(x − xi‬‬
‫ﻫﻤﺎن ﻃﻮر ﮐﻪ داﺷﺘﯿﻢ‪:‬‬
‫‪1‬‬ ‫‪1‬‬
‫‪8‬‬ ‫‪8‬‬ ‫= )‪F ( x‬‬ ‫) ‪∑i Pi u(x − xi‬‬
‫)ﯾﻌﻨﯽ ﻧﻘﺎط ﺗﺎﺑﻊ اﺣﺘﻤﺎل ﺑﻪ دﻟﺘﺎﻫﺎﯾﯽ ﺑﺎ آن وزﻧﻪﻫﺎ ﺗﺒﺪﯾﻞ ﺷﺪ(‬
‫‪x‬‬
‫‪0‬‬ ‫‪1‬‬ ‫‪2‬‬ ‫‪3‬‬

‫‪29‬‬
‫)‪Fy (y‬‬ ‫در ﻣﺜﺎل ﺗﻘﻮﯾﺖﮐﻨﻨﺪهای ﮐﻪ اﺷﺒﺎع ﻣﯽ ﺷﻮد ﻧﯿﺰ دﯾﺪﯾﻢ‪:‬‬

‫‪1‬‬

‫‪0.4‬‬
‫‪y‬‬
‫‪0‬‬ ‫‪4‬‬

‫ﻟﺬا‪:‬‬
‫) ‪fy ( y‬‬ ‫‪0.6‬‬

‫‪0.1‬‬
‫‪y‬‬
‫‪0‬‬ ‫‪4‬‬

‫‪x +2‬‬ ‫وﻗﺘﯽ اﺟﺎزه دﻫﯿﻢ ﮐﻪ )‪ f(x‬ﺣﺎوی دﻟﺘﺎ ﺑﺎﺷﺪ‪ ،‬ﺧﻮاﻫﯿﻢ داﺷﺖ‪:‬‬
‫= } ‪P{x1 ≤ x ≤ x 2‬‬ ‫∫‬
‫‪x1−‬‬
‫‪f (x)dx‬‬

‫‪x +2‬‬
‫= } ‪P{x1 < x ≤ x 2‬‬ ‫∫‬
‫‪x1+‬‬
‫‪f (x)dx‬‬
‫‪30‬‬
‫ﺑﺮﺧﯽ ﺗﻮزﯾﻊ ﻫﺎی ﺧﺎص‪:‬‬
‫ﺑﻪ ﺳﺎدﮔﯽ ﻣﯽﺗﻮان ﻧﺸﺎن داد ﮐﻪ ﺑﺮای ﻫﺮ ﺗﺎﺑﻊ ﻏﯿﺮﻧﺰوﻟﯽ )و از راﺳﺖ ﭘﯿﻮﺳﺘﻪ( ﮐﻪ در ﺑﯽﻧﻬﺎﯾﺖ‪ ،‬ﯾﮏ و در ﻣﻨﻬﺎی ﺑﯽﻧﻬﺎﯾﺖ ﺻﻔﺮ ﺑﺎﺷﺪ‪،‬‬
‫ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽای وﺟﻮد دارد ﮐﻪ اﯾﻦ ﺗﺎﺑﻊ‪ ،‬ﺗﺎﺑﻊ ﺗﻮزﯾﻊ اﻧﺒﺎﺷﺘﮥ آن ﺑﺎﺷﺪ )ﻗﻀﯿﮥ وﺟﻮد(‪ .‬وﻟﯽ ﺑﺮﺧﯽ ﺗﻮزﯾﻌﻬﺎ ﮐﺎرﺑﺮد ﺑﯿﺸﺘﺮی دارﻧﺪ‪.‬‬

‫ﺗﻮزﯾﻊ ﯾﮑﻨﻮاﺧﺖ )‪:(Uniform‬‬


‫ﮔﻮﯾﯿﻢ ‪ x‬دارای ﺗﻮزﯾﻊ ﯾﮑﻨﻮاﺧﺖ ﺑﯿﻦ ‪ a‬و ‪ b‬اﺳﺖ؛ )‪ ، x ∼ u(a, b‬اﮔﺮ‪:‬‬

‫)‪Fx(x‬‬ ‫)‪fx(x‬‬
‫‪1‬‬
‫‪1‬‬
‫‪b−a‬‬

‫‪x‬‬ ‫‪x‬‬
‫‪0‬‬ ‫‪a‬‬ ‫‪b‬‬ ‫‪0‬‬ ‫‪a‬‬ ‫‪b‬‬

‫ﻣﺜﻼً اﻏﻠﺐ ﻓﺎز ﺳﯿﮕﻨﺎل درﯾﺎﻓﺘﯽ‪ ،‬ﯾﮑﻨﻮاﺧﺖ ﺑﯿﻦ ‪ 0‬و ‪ 2π‬ﻓﺮض ﻣﯽﺷﻮد‪ .‬ﻣﻮاﻗﻌﯽ ﮐﻪ ﻫﯿﭻ اﻃﻼع ﭘﯿﺸﯿﻨﯽ در ﻣﻮرد ﻧﺤﻮۀ ﺗﻮزﯾﻊ ﻧﺪارﯾﻢ ﻧﯿﺰ‬
‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ اﺻﻞ ﻧﺎﮐﺎﻓﯽ ﺑﻮدن دﻟﯿﻞ از ﺗﻮزﯾﻊ ﯾﮑﻨﻮاﺧﺖ اﺳﺘﻔﺎده ﻣﯽﺷﻮد‪.‬‬

‫‪31‬‬
‫ﺗﻮزﯾﻊ ﻧﺮﻣﺎل )‪ (Normal‬ﯾﺎ ﮔﻮﺳﯽ )‪:(Gaussian‬‬
‫ﮐﺎرﺑﺮد ﺑﺴﯿﺎر زﯾﺎدی دارد و در ﺑﺴﯿﺎری ﻣﻮارد ﻋﻤﻠﯽ ﺗﻘﺮﯾﺐ ﺧﻮﺑﯽ ﺑﺮای ‪ pdf‬ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﻣﻮرد ﻧﻈﺮ ﻋﻤﻞ ﻣﯽﮐﻨﺪ‪ .‬ﻣﺜﻼً در ﯾﮏ ﺟﺎﻣﻌﮥ‬
‫ﻫﻤﮕﻦ‪ ،‬ﺗﻮزﯾﻊ ﻗﺪ و وزن اﻓﺮاد ﻧﺮﻣﺎل اﺳﺖ‪ .‬ﺗﻮزﯾﻊ ﻣﺸﺨﺼﺎت ﻗﻄﻌﺎت ﺗﻮﻟﯿﺪی ﯾﮏ ﮐﺎرﺧﺎﻧﻪ ﻣﻌﻤﻮﻻً ﻧﺮﻣﺎل اﺳﺖ‪ .‬ﻃﺒﻖ ﻗﻀﯿﮥ ﺣﺪ ﻣﺮﮐﺰی‬
‫ﻣﺠﻤﻮع ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ‪ ،‬وﻟﻮ ﻧﺮﻣﺎل ﻧﺒﺎﺷﻨﺪ‪ ،‬ﺑﻪ ﻧﺮﻣﺎل ﻣﯿﻞ ﻣﯽﮐﻨﺪ‪ .‬ﻧﺸﺎن داده ﺷﺪه ﮐﻪ ﻧﻮﯾﺰ ﺣﺮارﺗﯽ‪ ،‬؟؟؟ ﻧﻮﯾﺰ و ‪ ...‬ﮔﻮﺳﯽ ﻫﺴﺘﻨﺪ‪ .‬از‬
‫ﻧﻈﺮ رﯾﺎﺿﯽ ﻧﯿﺰ ﮐﺎر ﺑﺎ آن ﺳﺎده اﺳﺖ‪.‬‬

‫ﻧﺮﻣﺎل اﺳﺘﺎﻧﺪارد؛ )‪ ، x ∼ N(0, 1‬ﯾﻌﻨﯽ ﻫﻤﺎن )‪g(x‬ای ﮐﻪ ﻣﻌﺮﻓﯽ ﮐﺮدﯾﻢ‪:‬‬


‫‪x2‬‬
‫‪1‬‬ ‫‪−‬‬
‫= )‪f ( x‬‬ ‫‪e 2‬‬ ‫)‪= g(x‬‬
‫‪2π‬‬
‫‪u2‬‬
‫‪1‬‬ ‫‪x‬‬ ‫‪−‬‬
‫= )‪F ( x‬‬
‫‪2π‬‬ ‫∫‬‫∞‪−‬‬
‫‪e‬‬ ‫‪2‬‬ ‫)‪du = G(x‬‬

‫ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﻧﺮﻣﺎل اﺳﺘﺎﻧﺪارد ﺧﯿﻠﯽ اوﻗﺎت ﺑﺎ ‪ z‬ﻧﺸﺎن داده ﻣﯽﺷﻮد‪.‬‬

‫‪32‬‬
:‫ دارﯾﻢ‬، x ∼ N(η ,σ ) ‫ اﮔﺮ‬،(σ > 0 ‫در ﺣﺎﻟﺖ ﮐﻠﯽ )ﺑﺮای‬
( x −η )2
1 −
2σ 2 1 x −η
fx (x) = e = g( )
2π σ σ σ
( u −η )2
Fx (x) =
1 x
∫−∞ e

2σ 2 du = G(
x −η
) f(x)
2π σ σ
‫ ﮐﻮﭼﮏ‬σ
f(x)
1
2πσ
0.6
2πσ
‫ ﺑﺰرگ‬σ

x x
η −σ η η +σ η

33
x −η
.‫ﻣﯽﺷﻮد‬ ∼ N(0, 1) ‫ ﺧﻮاﻫﺪ ﺑﻮد و ﻟﺬا‬ax + b ∼ N(aη + b, aσ ) ،‫ ﺑﺎﺷﺪ‬x ∼ N(η ,σ ) ‫اﺻﻮﻻً اﮔﺮ‬
σ
y = ax + b
y−b ( x −η )2
y−b 1 −
Fy ( y) = P{y ≤ y} = P{ax + b ≤ y} = P{x ≤
a
}= ∫
−∞
a
2π σ
e 2σ 2 du

[ t − ( aη + b )]2
y 1 − y
= ∫
−∞ 2 π aσ
e 2a 2σ 2 dt = ∫−∞
fy (t )dt

x1 − η x −η x2 − η x2 − η x1 − η x2 − η x1 − η
P{x1 ≤ x ≤ x 2 } = P{ ≤ ≤ } = Fz ( ) − Fz ( ) = G( ) − G( )
σ σ σ σ σ σ σ
z

P{η − σ ≤ x ≤ η + σ } 0.683
P{η − 2σ ≤ x ≤ η + 2σ } 0.954
P{η − 3σ ≤ x ≤ η + 3σ } 0.997

34
‫ﺧﻮب اﺳﺖ ﺑﻪ ﺧﺎﻃﺮ داﺷﺘﻪ ﺑﺎﺷﯿﺪ ﮐﻪ در ﺗﻮزﯾﻊ ﻧﺮﻣﺎل‪ ،‬در ﺧﯿﻠﯽ از ﮐﺘﺎﺑﻬﺎ )‪ G(x‬ﺑﺎ )‪ Φ(x‬ﻧﺸﺎن داده ﻣﯽﺷﻮد‪:‬‬
‫‪Kreyszig, Tables A8 and A9.‬‬

‫در ﮐﺎرﺑﺮدﻫﺎی ﻣﻬﻨﺪﺳﯽ ﺑﺮق ﺧﯿﻠﯽ اوﻗﺎت }‪ F c (x) = P{x > x‬ﻧﺮﻣﺎل را ﻻزم دارﯾﻢ‪:‬‬
‫‪u2‬‬
‫‪x‬‬ ‫‪1‬‬ ‫‪−‬‬
‫= )‪Q(x) = 1 − G(x‬‬ ‫∫‬
‫∞‪−‬‬ ‫‪2π‬‬
‫‪e‬‬ ‫‪2‬‬ ‫‪du‬‬

‫ﺑﻌﻀﺎً ﻧﯿﺰ ﺑﺮ ﺣﺴﺐ ﺗﺎﺑﻊ ﻣﻌﺮوف ‪) Error Function‬ﺗﺎﺑﻊ ﺧﻄﺎ( ﺑﯿﺎن ﻣﯽﮐﻨﻨﺪ‪:‬‬
‫‪2 x − u2‬‬
‫= )‪erf(x‬‬
‫‪π‬‬‫∫‬‫‪0‬‬
‫‪e du‬‬

‫‪1 1‬‬ ‫‪x‬‬


‫(‪G(x) = + erf‬‬ ‫)‬
‫‪2 2‬‬ ‫‪2‬‬

‫‪35‬‬
‫ﻣﺜﺎل‪ :‬وﻟﺘﺎژ ﻧﻮﯾﺰی دارای ﺗﻮزﯾﻊ ﻧﺮﻣﺎل ﺑﺎ ‪ η = 0‬و ‪ σ = 0.75‬اﺳﺖ‪ .‬اﮔﺮ ‪ x‬ﻧﺸﺎن دﻫﻨﺪۀ وﻟﺘﺎژ ﻧﻮﯾﺰ ﺑﺎﺷﺪ؛‬
‫اﻟﻒ( اﺣﺘﻤﺎل اﯾﻨﮑﻪ ‪ x ≤ 1.5 Volts‬ﺑﺎﺷﺪ ﭼﻘﺪر اﺳﺖ؟‬
‫ب( وﻟﺘﺎژ ﻧﻮﯾﺰ ‪ x‬از ﭼﻪ ﺳﻄﺢ وﻟﺘﺎژی در ‪ %99‬ﻣﻮارد ﺗﺠﺎوز ﻧﻤﯽﮐﻨﺪ؟‬
‫‪ x‬از ﭼﻪ ﺳﻄﺢ وﻟﺘﺎژی در ‪ %99‬ﻣﻮارد ﺗﺠﺎوز ﻧﻤﯽﮐﻨﺪ؟‬ ‫ج(‬

‫اﻟﻒ(‬
‫‪1 .5 − 0‬‬ ‫‪−1.5 − 0‬‬ ‫‪1 .5‬‬
‫(‪P{ x ≤ 1.5} = P{−1.5 ≤ x ≤ 1.5} = G‬‬ ‫(‪) − G‬‬ ‫(‪) = 2G‬‬ ‫‪) − 1 = 0.954‬‬
‫‪0.75‬‬ ‫‪0.75‬‬ ‫‪0.75‬‬
‫ﭼﻮن اﯾﻦ ﻫﻤﺎن ﻣﺤﺪودۀ ‪ η ± 2σ‬اﺳﺖ‪ ،‬از ﻗﺒﻞ ﻫﻢ ﻣﯽداﻧﺴﺘﯿﻢ ‪ %95‬ﻣﯽ ﺷﻮد‪.‬‬

‫ب(‬
‫ﯾﻌﻨﯽ دﻧﺒﺎل ﺻﺪک ‪99‬ام ﻫﺴﺘﯿﻢ → ‪P{x ≤ x} = 0.99‬‬
‫‪x−0‬‬
‫(‪G‬‬ ‫‪) = 0.99‬‬
‫‪0.75‬‬
‫از ﺟﺪول ‪ A9‬ﻣﯽﺗﻮاﻧﯿﻢ ‪ G -1‬را ﺣﺴﺎب ﮐﻨﯿﻢ‪:‬‬
‫‪x−0‬‬
‫ﺻﺪک ﻧﻮد و ﻧﻬﻢ ‪= G -1( 0.99 ) = 2.326 ⇒ x = 1.745 :‬‬
‫‪0.75‬‬
‫‪36‬‬
‫ج(‬
‫‪P{ x ≤ x} = 0.99‬‬
‫‪x−0‬‬ ‫‪x‬‬
‫(‪2G‬‬ ‫⇒ ‪) − 1 = 0.99‬‬ ‫‪= G -1( 0.995 ) ⇒ x = 1.932‬‬
‫‪0.75‬‬ ‫‪0.75‬‬
‫ﯾﺎ از ﺟﺪول ‪ A9‬ﻣﺴﺘﻘﯿﻤﺎً ‪ D-1‬را دارﯾﻢ‪:‬‬
‫)‪D(z) = G(z) − G(-z‬‬
‫‪x−0‬‬
‫‪= 2.576 ⇒ x = 1.932‬‬
‫‪0.75‬‬

‫‪37‬‬
‫ﺗﻮزﯾﻊ ﻧﻤﺎﯾﯽ )‪:(Exponential‬‬
‫‪fx (x) = λe −λx : x ≥ 0‬‬
‫ﯾﺎ ﻣﯽﻧﻮﯾﺴﯿﻢ‪:‬‬
‫)‪fx (x) = λe −λx u(x) ⇒ Fx (x) = (1 − e −λx )u(x‬‬

‫اﯾﻦ ﺗﻮزﯾﻊ ﮐﺎرﺑﺮد ﺑﺴﯿﺎر زﯾﺎدی دارد‪ .‬ﻣﺜﻼً ﻓﺎﺻﻠﮥ ﺑﯿﻦ دو ﻧﻘﻄﮥ ﺗﺼﺎدﻓﯽ دارای ﺗﻮزﯾﻊ ﻧﻤﺎﯾﯽ اﺳﺖ‪.‬‬

‫ﻣﮑﺎﻟﻤﺎت ﺗﻠﻔﻨﯽ‪:‬‬
‫ﺗﻌﺪاد اﯾﻦ ﻧﻘﺎط در ﯾﮏ ﺑﺎزۀ زﻣﺎﻧﯽ ﻣﺸﺨﺺ دارای ﺗﻮزﯾﻊ ﭘﻮاﺳﻦ اﺳﺖ‪ ،‬اﻣﺎ ﻓﺎﺻﻠﮥ ﺑﯿﻦ آﻧﻬﺎ ﺗﻮزﯾﻊ ﻧﻤﺎﯾﯽ دارد‪.‬‬
‫‪ t‬ﻣﯽﺗﻮاﻧﺪ ﻣﻘﺎدﯾﺮ ﺑﯿﻦ ﺻﻔﺮ ﺗﺎ ﺑﯽﻧﻬﺎﯾﺖ را اﺧﺘﯿﺎر ﮐﻨﺪ‪.‬‬
‫}‪ft ( τ)dτ = P{τ < t ≤ τ + dτ‬‬
‫‪ t‬وﻗﺘﯽ ﺑﯿﻦ ‪ τ‬و ‪ τ+dτ‬ﺧﻮاﻫﺪ ﺑﻮد ﮐﻪ ﺗﺎ ﻗﺒﻞ از ‪ τ‬ﻣﮑﺎﻟﻤﻪای اﺗﻔﺎق ﻧﯿﻔﺘﺎده ﺑﺎﺷﺪ و ﺑﯿﻦ ‪ τ‬و ‪ τ+dτ‬ﯾﮏ ﻣﮑﺎﻟﻤﻪ اﺗﻔﺎق اﻓﺘﺪ‪.‬‬
‫‪−λτ‬‬ ‫‪(λτ)k‬‬
‫‪ k} = e‬ﻧﻘﻄﻪ در ‪P{τ‬‬
‫!‪k‬‬

‫‪38‬‬
‫‪−λτ‬‬ ‫‪(λτ)0 −λdτ (λdτ)1‬‬
‫‪} = e‬ﯾﮏ ﺑﺎر وﻗﻮع در ‪}P{dτ‬ﻋﺪم وﻗﻮع در ﻓﺎﺻﻠﮥ ‪ft (τ)dτ = P{τ‬‬ ‫‪e‬‬
‫!‪0‬‬ ‫!‪1‬‬
‫‪ft ( τ)dτ = λe −λ ( τ+dτ)dτ‬‬
‫‪dτ → 0 ⇒ ft (τ) = λe −λτ : τ ≥ 0‬‬

‫ﯾﺎ ﺑﻪ ﻋﺒﺎرت ﺑﻬﺘﺮ‪:‬‬


‫‪−λτ‬‬ ‫‪(λτ)0‬‬
‫‪} = P{k ≥ 1} = 1 − P{k = 0} = 1 − e‬ﻻاﻗﻞ ﯾﮏ ﻧﻘﻄﻪ در ﻓﺎﺻﻠﮥ ‪Ft (τ) = P{t ≤ τ} = P{τ‬‬ ‫‪= 1 − e −λτ : τ ≥ 0‬‬
‫!‪0‬‬

‫ﻓﺎﺻﻠﮥ ﺑﯿﻦ دو زﻣﯿﻦﻟﺮزۀ ﻣﺘﻮاﻟﯽ و ﻣﺴﺘﻘﻞ‪ ،‬ﻓﺎﺻﻠﮥ ﺑﯿﻦ دو ﺑﺎر ﺧﺮاب ﺷﺪن ﯾﮏ دﺳﺘﮕﺎه و ‪) ...‬ﺑﺎ ﻓﺮض اﺳﺘﻘﻼل از ﻫﻢ و ﻣﺘﺴﺎوی اﻻﺣﺘﻤﺎل‬
‫ﺑﻮدن در ﺗﻤﺎم زﻣﺎﻧﻬﺎ( ﺗﻮزﯾﻊ ﻧﻤﺎﯾﯽ دارﻧﺪ‪.‬‬
‫ﻟﺬا اﯾﻦ ﺗﻮزﯾﻊ ﺑﺮای ﺗﺼﺎدف اﺗﻮﻣﺒﯿﻞ و ﻃﻮﻓﺎﻧﻬﺎی ﺧﻮرﺷﯿﺪی ﻗﺎﺑﻞ اﺳﺘﻔﺎده ﻧﯿﺴﺖ‪.‬‬

‫دﯾﺪه ﺷﺪ ﮐﻪ ﻃﻮل ﻣﮑﺎﻟﻤﮥ ﺗﻠﻔﻨﯽ ﻫﻢ ﺗﻮزﯾﻊ ﻧﻤﺎﯾﯽ دارد‪.‬‬

‫‪39‬‬
‫از ﺧﻮاص ﺟﺎﻟﺐ ﺗﻮزﯾﻊ ﻧﻤﺎﯾﯽ اﯾﻦ اﺳﺖ ﮐﻪ ﺑﺪون ﺣﺎﻓﻈﻪ اﺳﺖ‪ ،‬ﯾﻌﻨﯽ‪:‬‬
‫}‪P{x > t + s | x > t} = P{x > s‬‬
‫‪0‬‬ ‫‪t‬‬ ‫‪t+s‬‬

‫‪s‬‬
‫زﯾﺮا‪:‬‬
‫) ‪1 − Fx ( t + s) e −λ ( t + s‬‬
‫= }‪P{x > t + s | x > t‬‬ ‫}‪= −λt = e −λs = 1 − Fx (s) = P{x > s‬‬
‫) ‪1 − Fx (t‬‬ ‫‪e‬‬

‫ﻣﯽ ﺗﻮان ﻧﺸﺎن داد ﮐﻪ ﺗﻨﻬﺎ ﺗﺎﺑﻊ ﺗﻮزﯾﻌﯽ ﮐﻪ دارای اﯾﻦ ﺧﺎﺻﯿﺖ ﻣﯽﺑﺎﺷﺪ ﺗﺎﺑﻊ ﻧﻤﺎﯾﯽ اﺳﺖ‪.‬‬

‫‪40‬‬
‫ﺗﻮزﯾﻊ ﻻﭘﻼس )‪:(Laplace‬‬
‫‪λ‬‬
‫‪f ( x) = e −λ x‬‬
‫‪2‬‬
‫)‪fλ (x‬‬
‫‪2‬‬

‫‪x‬‬ ‫اﯾﻦ ﺗﻮزﯾﻊ در ﻣﻮرد ﻧﻮﯾﺰﻫﺎی اﺳﭙﺎﯾﮑﯽ ﻣﺪل ﺧﻮﺑﯽ اﺳﺖ‪.‬‬

‫‪41‬‬
‫ﺗﻮزﯾﻊ ﮔﺎﻣﺎ )‪:(Gamma‬‬
‫‪f ( x) = A xr −1 e −λx u(x) : r > 0, λ > 0‬‬
‫از اﯾﻦ ﺗﻮزﯾﻊ ﻧﯿﺰ درﮐﺎرﺑﺮدﻫﺎی ﻣﺨﺘﻠﻔﯽ اﺳﺘﻔﺎده ﻣﯽﺷﻮد‪.‬‬

‫ﺿﺮﯾﺐ ﺛﺎﺑﺖ ‪ A‬را ﺑﺎﯾﺪ ﻃﻮری ﺑﻪ دﺳﺖ آورﯾﻢ ﮐﻪ‪:‬‬


‫∞‪+‬‬ ‫∞‪+‬‬
‫∫‬‫∞‪−‬‬
‫= ‪f (x) dx‬‬ ‫∫‬ ‫‪0‬‬
‫‪Axr −1e −λx dx = 1‬‬
‫‪A‬‬ ‫∞‪+‬‬
‫‪y = λx ⇒ r‬‬
‫‪λ‬‬ ‫∫‬‫‪0‬‬
‫‪y r −1e − y dy = 1‬‬

‫از ﻃﺮﻓﯽ ﻣﯽداﻧﯿﻢ ﮐﻪ ﺗﺎﺑﻊ ﮔﺎﻣﺎ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‪:‬‬


‫∞‪+‬‬
‫= ) ‪Γ (r‬‬ ‫∫‬‫‪0‬‬
‫‪y r −1e − y dy‬‬
‫در واﻗﻊ )‪ ، Γ(i‬ﻓﺎﮐﺘﻮرﯾﻞ ﺗﻌﻤﯿﻢ ﯾﺎﻓﺘﻪ اﺳﺖ‪ .‬ﭼﻮن )‪ ، Γ(r ) = (r − 1)Γ(r − 1‬ﺑﺮای ‪ r‬ﺻﺤﯿﺢ و ﻣﺜﺒﺖ دارﯾﻢ‪. Γ(r) = (r − 1)! :‬‬

‫‪42‬‬
‫‪A‬‬ ‫‪λr‬‬
‫‪r‬‬
‫= ‪Γ (r ) = 1 ⇒ A‬‬
‫‪λ‬‬ ‫) ‪Γ (r‬‬
‫‪λ (λx)r −1 e −λx‬‬
‫= )‪fx (x‬‬ ‫)‪u ( x‬‬
‫) ‪Γ (r‬‬
‫ﺑﺮای ﻧﺸﺎن دادن اﯾﻦ ﺗﻮزﯾﻊ ﻣﯽﻧﻮﯾﺴﯿﻢ ) ‪ x ∼ Gamma(r, λ‬اﺳﺖ‪.‬‬

‫ﺷﮑﻞ ﺻﻔﺤﮥ ‪ 85‬ﮐﺘﺎب ‪ Helstrom‬ﺑﺮای ‪ λ = 1‬و ‪r‬ﻫﺎی ﻣﺨﺘﻠﻒ‪.‬‬

‫ﺣﺎﻟﺖ ﺧﺎص‪ :‬اﮔﺮ ‪ r = 1‬ﺑﺎﺷﺪ‪ ،‬دارﯾﻢ‪:‬‬


‫ﺗﻮزﯾﻊ ﻧﻤﺎﯾﯽ‪f ( x) = λe −λx u(x) :‬‬

‫‪n‬‬ ‫‪1‬‬
‫= ‪ r‬ﮐﻪ ‪ n‬ﻋﺪدی ﺻﺤﯿﺢ اﺳﺖ‪ ،‬دارﯾﻢ‪:‬‬ ‫ﺣﺎﻟﺖ ﺧﺎص‪ :‬اﮔﺮ = ‪ λ‬و‬
‫‪2‬‬ ‫‪2‬‬
‫‪n‬‬ ‫‪x‬‬
‫‪1‬‬ ‫‪( −1) −‬‬
‫= )‪f ( x‬‬ ‫‪n‬‬
‫)‪x 2 e 2 u ( x‬‬
‫‪n‬‬
‫) (‪2 2 Γ‬‬
‫‪2‬‬

‫‪43‬‬
‫ﺣﺎﻟﺖ ﺧﺎص‪ :‬اﮔﺮ ‪ r = n‬ﮐﻪ ‪ n‬ﻋﺪدی ﺻﺤﯿﺢ اﺳﺖ‪ ،‬دارﯾﻢ‪:‬‬
‫‪λn‬‬
‫= )‪f ( x‬‬ ‫)‪x n −1e −λx u(x‬‬
‫!)‪(n − 1‬‬
‫اﯾﻦ ﺗﻮزﯾﻊ ﻣﺪت زﻣﺎن ﻻزم ﺑﺮای وﻗﻮع ‪ n‬واﻗﻌﮥ ﮐﺎﻣﻼً ﺗﺼﺎدﻓﯽ )ﺣﺎﺻﻞ ﺟﻤﻊ ‪ n‬ﻧﻤﺎﯾﯽ ﻣﺴﺘﻘﻞ از ﻫﻢ( اﺳﺖ ﮐﻪ‬
‫ﺗﻮزﯾﻊ ارﻻﻧﮓ )‪ (Erlang‬ﻧﺎم دارد و در ﺗﺌﻮری ﺻﻒ و ﺗﺮاﻓﯿﮏ )ﻣﮑﺎﻟﻤﺎت ﺗﻠﻔﻨﯽ(‪ ،‬ﺗﺸﻌﺸﻊ رادﯾﻮاﮐﺘﯿﻮ و ‪ ...‬اﺳﺘﻔﺎده ﻣﯽﺷﻮد‪.‬‬

‫‪44‬‬
‫ﺗﻮزﯾﻊ ‪ (Chi-Square) χ2‬ﺑﺎ ‪ n‬درﺟﻪ آزادی )‪:(n degrees of freedom‬‬
‫اﮔﺮ ‪ y = x 12 + x 22 + + x 2n‬ﮐﻪ ‪xi‬ﻫﺎ )‪ N(0, 1‬ﺑﻮده و ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ‪ y ،‬دارای ﺗﻮزﯾﻊ ) ‪ χ 2 (n‬ﺧﻮاﻫﺪ ﺑﻮد‪ .‬اﯾﻦ ﺗﻮزﯾﻊ در ﻣﻬﻨﺪﺳﯽ‬
‫ﺑﺮق و آﻣﺎر اﺳﺘﻔﺎدۀ زﯾﺎدی دارد‪.‬‬

‫‪45‬‬
‫ﺗﻮزﯾﻊ ﺑﺘﺎ )‪:(Beta‬‬
‫‪ 1‬‬
‫‪‬‬ ‫‪x a − 1 (1 − x ) b − 1‬‬ ‫‪0≤x≤1‬‬
‫) ‪f ( x ) =  β ( a, b‬‬
‫‪0‬‬ ‫‪otherwise‬‬
‫‪‬‬

‫اﮔﺮ ‪ a = b = 1‬ﺑﺎﺷﺪ‪ ،‬ﻫﻤﺎن ﺗﻮزﯾﻊ ﯾﮑﻨﻮاﺧﺖ روی ]‪ [0, 1‬ﺧﻮاﻫﺪ ﺑﻮد‪.‬‬

‫ﺑﺮای ‪ ، a = b = 3‬ﻧﻤﻮدار ﺗﻮزﯾﻊ ﺑﻪ اﯾﻦ ﺻﻮرت ﺧﻮاﻫﺪ ﺑﻮد‪:‬‬

‫)‪f (x‬‬
‫‪1.875‬‬

‫‪x‬‬
‫‪0‬‬ ‫‪0 .5‬‬ ‫‪1‬‬
‫‪46‬‬
:‫ ﺗﺎﺑﻊ ﺑﺘﺎ ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬:‫ﯾﺎدآوری‬
1 Γ (a )Γ ( b )
β(a, b) = ∫0 xa −1 (1 − x)b−1 dx =
Γ ( a + b)
:‫ﭘﺲ‬

 Γ ( a ) Γ ( b) a − 1
 x (1 − x) b − 1 0≤x≤1
f ( x ) =  Γ ( a + b)
0 otherwise

47
‫ﺗﻮزﯾﻊ راﯾﻠﯽ )‪:(Rayleigh‬‬
‫‪x2‬‬
‫‪x‬‬ ‫‪−‬‬
‫= )‪f ( x‬‬ ‫‪e‬‬ ‫) ‪2σ 2 u ( x‬‬
‫‪2‬‬
‫‪σ‬‬
‫)‪f (x‬‬
‫‪1‬‬
‫‪σ e‬‬

‫‪0‬‬ ‫‪σ‬‬
‫‪x‬‬

‫اﮔﺮ ﻓﺮض ﮐﻨﯿﻢ ‪ y = x 12 + x 22‬ﺑﺎﺷﺪ و ‪ x1‬و ‪ x2‬ﻣﺴﺘﻘﻞ و دارای ﺗﻮزﯾﻊ ﻧﺮﻣﺎل ) ‪ N(0,σ‬ﺑﺎﺷﻨﺪ‪ y ،‬دارای ﺗﻮزﯾﻊ راﯾﻠﯽ ﺧﻮاﻫﺪ ﺑﻮد‪.‬‬
‫ﻣﺜﻼً اﮔﺮ ‪ z = x + jy‬ﺑﺎﺷﺪ‪ z ،‬دارای ﺗﻮزﯾﻊ راﯾﻠﯽ ﺧﻮاﻫﺪ ﺑﻮد‪.‬‬
‫اﯾﻦ ﺗﻮزﯾﻊ ﻧﯿﺰ ﮐﺎرﺑﺮد ﺑﺴﯿﺎر زﯾﺎدی در ﻣﻬﻨﺪﺳﯽ ﺑﺮق دارد‪ ،‬ﻣﺎﻧﻨﺪ ﭘﻮش ﻧﻮﯾﺰ ﮔﻮﺳﯽ‪.‬‬

‫‪48‬‬
‫ﺗﻮزﯾﻊ ﮐﻮﺷﯽ )‪:(Cauchy‬‬
‫‪a‬‬
‫‪f ( x) = 2 π 2‬‬
‫‪x +a‬‬
‫)‪f (x‬‬
‫‪1‬‬
‫‪aπ‬‬

‫‪1‬‬
‫‪2aπ‬‬

‫‪0‬‬ ‫‪σ‬‬
‫‪x‬‬

‫‪π π‬‬
‫اﮔﺮ ‪ θ‬دارای ﺗﻮزﯾﻊ ﯾﮑﻨﻮاﺧﺖ ] ‪ [ − ,‬ﺑﺎﺷﺪ‪ a tgθ ،‬دارای اﯾﻦ ﺗﻮزﯾﻊ ﺧﻮاﻫﺪ ﺑﻮد‪.‬‬
‫‪2 2‬‬

‫‪49‬‬
‫ﺗﻮزﯾﻊ دوﺟﻤﻠﻪای‪:‬‬
‫اﯾﻦ ﯾﮏ ﺗﻮزﯾﻊ ﮔﺴﺴﺘﻪ اﺳﺖ‪ .‬اﮔﺮ در ﯾﮏ آزﻣﺎﯾﺶ ﺗﺼﺎدﻓﯽ اﺣﺘﻤﺎل وﻗﻮع واﻗﻌﮥ ‪ A‬ﺑﺮاﺑﺮ ‪ P (A ) = p‬ﺑﺎﺷﺪ و ﺑﺮای آزﻣﺎﯾﺶ ﺣﺎﺻﻞ از‬
‫‪n‬ﺑﺎر ﺗﮑﺮار اﯾﻦ آزﻣﺎﯾﺶ‪ ،‬ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ x‬را ﺑﻪ اﯾﻦ ﺻﻮرت ﺗﻌﺮﯾﻒ ﮐﻨﯿﻢ ﮐﻪ‪ = x :‬ﺗﻌﺪاد وﻗﻮع واﻗﻌﮥ ‪ A‬در ‪ n‬آزﻣﺎﯾﺶ‪ x ،‬دارای ﺗﻮزﯾﻊ‬
‫دوﺟﻤﻠﻪای ﺧﻮاﻫﺪ ﺑﻮد‪:‬‬
‫)‪x ∼ Binomial ( n, p‬‬
‫‪n‬‬
‫‪P (k ) = P{x = k} =   pk q n −k : k = 0, 1, 2,…, n‬‬
‫‪k‬‬
‫و ﺑﺮای ﺳﺎﯾﺮ ﻣﻘﺎدﯾﺮ ‪ x‬دارﯾﻢ‪. P (x) = 0 :‬‬

‫ﻣﺜﺎل‪ :‬در ﺟﻌﺒﻪای ‪ N‬دﯾﻮد ﻗﺮار دارﻧﺪ ﮐﻪ ‪ K ≤ N‬ﺗﺎ از آﻧﻬﺎ ﺧﺮاﺑﻨﺪ‪ N .‬ﻧﻤﻮﻧﻪ ﺑﺎ ﺟﺎﯾﮕﺰﯾﻨﯽ ﺑﺮداﺷﺘﻪ ﻣﯽﺷﻮد‪ .‬اﮔﺮ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ x‬ﺑﻪ‬
‫ﺻﻮرت‪ = x :‬ﺗﻌﺪاد ﺧﺮاﺑﻬﺎ‪ ،‬ﺗﻌﺮﯾﻒ ﺷﻮد‪ P(x) ،‬را ﺑﻪ دﺳﺖ آورﯾﺪ‪.‬‬
‫‪ n  K x‬‬ ‫‪K n −x‬‬
‫) ‪  ( ) (1 −‬‬ ‫‪x = 0, 1, 2,…, n‬‬
‫‪P (x) =  x  N‬‬ ‫‪N‬‬
‫‪0‬‬ ‫‪otherwise‬‬
‫‪‬‬

‫‪50‬‬
‫ﺣﺎﻟﺖ ﺧﺎص‪ :‬اﮔﺮ ‪ n = 1‬ﺑﺎﺷﺪ‪ ،‬ﯾﻌﻨﯽ آزﻣﺎﯾﺶ ﺗﺼﺎدﻓﯽ را ﻓﻘﻂ ﯾﮏ ﺑﺎر اﻧﺠﺎم ﻣﯽدﻫﯿﻢ‪ .‬ﭘﺲ ‪ x‬ﻓﻘﻂ ﻣﯽﺗﻮاﻧﺪ ﺻﻔﺮ ﯾﺎ ﯾﮏ ﺑﺎﺷﺪ )ﺻﻔﺮ ﺑﺎ‬
‫اﺣﺘﻤﺎل ‪ q‬و ﯾﮏ ﺑﺎ اﺣﺘﻤﺎل ‪ ،(p‬ﭘﺲ دارﯾﻢ‪:‬‬
‫‪P ( k ) = p k q 1 − k : k = 0, 1‬‬
‫ﯾﻌﻨﯽ ‪ P (0) = q‬و ‪ P (1) = p‬ﻣﯽﺑﺎﺷﺪ‪.‬‬
‫اﯾﻦ ﺣﺎﻟﺖ ﺧﺎص را ﺗﻮزﯾﻊ ﺑﺮﻧﻮﻟﯽ ﮔﻮﯾﻨﺪ‪.‬‬

‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻗﻀﯿﮥ ﻻﭘﻼس‪ ،‬ﺑﺮای ‪ n‬ﺑﺰرگ ﺗﻮزﯾﻊ )ﮔﺴﺴﺘﮥ( دوﺟﻤﻠﻪای را ﻣﯽﺗﻮان ﺑﺎ ﺗﻮزﯾﻊ )ﭘﯿﻮﺳﺘﮥ( ﻧﺮﻣﺎل ﺗﻘﺮﯾﺐ زد‪:‬‬
‫‪( k − np )2‬‬
‫‪n‬‬ ‫‪1‬‬ ‫‪−‬‬
‫‪P ( x) =   pk q n −k‬‬ ‫‪e‬‬ ‫‪2npq‬‬
‫) ‪= N(np, npq‬‬
‫‪k‬‬ ‫‪2 πnpq‬‬
‫‪x − np‬‬
‫(‪F ( x) G‬‬ ‫)‬
‫‪npq‬‬

‫و ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻗﻀﯿﮥ ﭘﻮاﺳﻮن‪ ،‬ﺑﺮای ‪ n‬ﺑﺰرگ و ‪ p‬ﮐﻮﭼﮏ ﻣﯽﺗﻮان ﺗﻮﺳﻂ ﺗﻮزﯾﻊ ﭘﻮاﺳﻮن ﺗﻘﺮﯾﺐ زد‪:‬‬
‫‪ n  k n −k‬‬ ‫‪− np‬‬ ‫‪(np)k‬‬
‫‪ k p q‬‬ ‫‪e‬‬ ‫)‪= Poisson ( np‬‬
‫‪ ‬‬ ‫!‪k‬‬

‫‪51‬‬
‫ﺗﻮزﯾﻊ ﻓﻮقﻫﻨﺪﺳﯽ )‪:(Hypergeometric‬‬
‫در ﻣﺜﺎل ﻗﺒﻞ اﮔﺮ اﻧﺘﺨﺎب ﺑﺪون ﺟﺎﯾﮕﺰﯾﻨﯽ ﺑﺎﺷﺪ‪ ،‬دارﯾﻢ‪:‬‬
‫‪  K  N − K ‬‬
‫‪  k  n − k ‬‬
‫‪   ‬ﺗﻌﺪاد اﻧﺘﺨﺎﺑﻬﺎی ﻣﻮرد ﻧﻈﺮ‬ ‫) ‪ max(0, n − N + K ) ≤ k ≤ min( n, K‬‬
‫= )‪P ( x‬‬ ‫‪=‬‬ ‫‪N‬‬
‫ﺗﻌﺪاد ﮐﻞ اﻧﺘﺨﺎﺑﻬﺎ‬ ‫‪‬‬ ‫‪n‬‬
‫‪‬‬ ‫‪ ‬‬
‫‪0‬‬ ‫‪otherwise‬‬
‫) ‪ max(0, n − N + K‬ﺑﺪﯾﻦ ﺧﺎﻃﺮ اﺳﺖ ﮐﻪ ﺗﻌﺪاد ﺳﺎﻟﻢﻫﺎی اﻧﺘﺨﺎبﺷﺪه ‪ n-k‬ﺑﻮده و ﻧﻤﯽﺗﻮاﻧﺪ از ﺗﻌﺪاد ﮐﻞ ﺳﺎﻟﻢﻫﺎ ﮐﻪ ‪ N-K‬اﺳﺖ‪،‬‬
‫ﺑﯿﺸﺘﺮ ﺷﻮد‪ ،‬ﭘﺲ‪ n − k ≤ N − K :‬؛‬
‫) ‪ min(n, K‬ﻧﯿﺰ ﺑﺪﯾﻦ ﺧﺎﻃﺮ اﺳﺖ ﮐﻪ ﺗﻌﺪاد ﺧﺮاﺑﻬﺎی اﻧﺘﺨﺎبﺷﺪه ﻧﻤﯽﺗﻮاﻧﺪ از ﺗﻌﺪاد ﮐﻞ ﺧﺮاﺑﻬﺎ ﺑﯿﺸﺘﺮ ﺷﻮد‪.‬‬

‫‪K‬‬
‫= ‪ ، p‬ﺧﻮاﻫﯿﻢ داﺷﺖ‪:‬‬ ‫ﯾﺎ اﮔﺮ ﺑﮕﯿﺮﯾﻢ‪:‬‬
‫‪N‬‬
‫‪ Np  N − Np ‬‬
‫‪ k  n − k ‬‬
‫‪P (k ) = ‬‬ ‫‪‬‬ ‫‪‬‬
‫‪N‬‬
‫‪n‬‬
‫‪ ‬‬
‫‪52‬‬
‫ﺗﻮزﯾﻊ دوﺟﻤﻠﻪای ﻣﻨﻔﯽ )ﭘﺎﺳﮑﺎل(‪:‬‬
‫ﻓﺮض ﮐﻨﯿﺪ ﺑﺎ ﻣﺴﺌﻠﮥ زﯾﺮ ﻣﻮاﺟﻬﯿﻢ‪ .‬ﺳﮑﻪای را آﻧﻘﺪر ﭘﺮﺗﺎب ﻣﯽﮐﻨﯿﻢ ﮐﻪ ‪r‬ﺑﺎر ﺷﯿﺮ ﺑﯿﺎﯾﺪ‪ .‬اﮔﺮ ﺗﻌﺪاد ﮐﻞ ﭘﺮﺗﺎﺑﻬﺎ را ‪ y‬ﺑﻨﺎﻣﯿﻢ‪ ،‬اﺣﺘﻤﺎل‬
‫‪ y = n‬را ﺑﻪ دﺳﺖ آورﯾﺪ )…‪. (n = r, r + 1,‬‬

‫در ﺣﺎﻟﺖ ﮐﻠﯽ اﮔﺮ ﯾﮏ آزﻣﺎﯾﺶ ﺑﺮﻧﻮﻟﯽ را آﻧﻘﺪر ﺗﮑﺮار ﮐﻨﯿﻢ ﺗﺎ واﻗﻌﮥ ‪ A‬ﮐﻪ ‪r ، P (A ) = p‬ﺑﺎر اﺗﻔﺎق اﻓﺘﺪ و ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ y‬ﺑﻪ ﺻﻮرت‪:‬‬
‫‪ = y‬ﺗﻌﺪاد ﮐﻞ آزﻣﺎﯾﺸﻬﺎی اﻧﺠﺎم ﺷﺪه ﺗﺎ ‪r‬ﺑﺎر وﻗﻮع ‪ A‬ﺗﻌﺮﯾﻒ ﺷﻮد‪ ،‬دارﯾﻢ‪:‬‬
‫اﺣﺘﻤﺎل ‪r‬اﻣﯿﻦ ﻣﻮﻓﻘﯿﺖ ﮐﻪ ﺣﺘﻤﺎً ﺑﺎﯾﺪ در ‪n‬اﻣﯿﻦ آزﻣﺎﯾﺶ ﺑﺎﺷﺪ‬
‫)‪ n − 1  r −1 ( n − 1) − ( r − 1‬‬
‫‪P{y = n} = p ‬‬ ‫‪p q‬‬
‫‪‬‬ ‫‪k‬‬ ‫‪−‬‬ ‫‪1‬‬ ‫‪‬‬
‫اﺣﺘﻤﺎل ‪ r-1‬ﻣﻮﻓﻘﯿﺖ در ﻣﯿﺎن ﺑﻘﯿﮥ آزﻣﺎﯾﺸﻬﺎ )‪ n-1‬آزﻣﺎﯾﺶ(‬

‫ﯾﻌﻨﯽ‪:‬‬
‫‪ n − 1  r n −r‬‬
‫‪P{y = n} = ‬‬ ‫…‪ p q : n = r, r + 1, r + 2,‬‬
‫‪‬‬ ‫‪r‬‬ ‫‪−‬‬ ‫‪1‬‬ ‫‪‬‬
‫در ﺑﻌﻀﯽ ﮐﺘﺎﺑﻬﺎ اﯾﻦ را ﺗﻮزﯾﻊ دوﺟﻤﻠﻪای ﻣﻨﻔﯽ ﻣﯽﮔﻮﯾﻨﺪ‪.‬‬

‫‪53‬‬
‫اﻣﺎ اﮔﺮ ﻓﺮض ﮐﻨﯿﻢ‪ ، y = x + r :‬ﮐﻪ ‪ x‬ﺗﻌﺪاد ﺷﮑﺴﺘﻬﺎ و ‪ y‬ﺗﻌﺪاد ﮐﻞ آزﻣﺎﯾﺸﻬﺎ اﺳﺖ‪ ،‬واﻗﻌﮥ ‪ x = k‬ﺑﺎ واﻗﻌﮥ ‪ y = k + r‬ﻣﻌﺎدل ﺑﻮده و‬
‫اﺣﺘﻤﺎل ﯾﮑﺴﺎﻧﯽ دارد‪ ،‬ﯾﻌﻨﯽ‪:‬‬
‫‪ n − 1  r n −r‬‬ ‫‪n =k + r‬‬ ‫‪ r + k − 1 r k  r + k − 1 r k‬‬
‫‪P{x = k} = ‬‬ ‫‪‬‬ ‫‪pq‬‬ ‫=‬ ‫…‪ r − 1  p q =  k  p q : k = 0, 1, 2,‬‬
‫‪ r−1‬‬ ‫‪‬‬ ‫‪‬‬ ‫‪‬‬ ‫‪‬‬

‫در ﺗﻤﺮﯾﻦﻫﺎ داﺷﺘﯿﻢ ﮐﻪ‪:‬‬


‫‪ r + k − 1‬‬ ‫‪k  −r ‬‬
‫‪ k  = (−1)  k ‬‬
‫‪‬‬ ‫‪‬‬ ‫‪ ‬‬
‫ﻟﺬا‪:‬‬
‫‪ −r  r‬‬
‫…‪P{x = k} = Px (k ) =   p (−q )k : k = 0, 1, 2,‬‬
‫‪k‬‬
‫اﯾﻦ را ﺗﻮزﯾﻊ دوﺟﻤﻠﻪای ﻣﻨﻔﯽ ﮔﻮﯾﻨﺪ‪.‬‬

‫‪54‬‬
‫ﺗﻮزﯾﻊ ﻫﻨﺪﺳﯽ )‪:(Geometric‬‬
‫ﺣﺎﻟﺖ ﺧﺎص ﺗﻮزﯾﻊ دوﺟﻤﻠﻪای ﻣﻨﻔﯽ اﺳﺖ ﮐﻪ در آن ‪ r = 1‬ﺑﺎﺷﺪ‪ ،‬ﯾﻌﻨﯽ‪:‬‬
‫…‪P{x = k} = Px (k ) = pq k : k = 0, 1, 2,‬‬
‫در اﯾﻨﺠﺎ‪ ،x ،‬ﺗﻌﺪاد ﺷﮑﺴﺘﻬﺎ در ﺗﮑﺮار آزﻣﺎﯾﺶ ﺗﺎ ﺣﺼﻮل اوﻟﯿﻦ ﻣﻮﻓﻘﯿﺖ اﺳﺖ‪.‬‬

‫اﯾﻦ ﺗﻮزﯾﻊ در واﻗﻊ ﯾﮏ دﻧﺒﺎﻟﮥ ﻫﻨﺪﺳﯽ اﺳﺖ و دارﯾﻢ‪:‬‬


‫∞‪+‬‬
‫‪p‬‬
‫∑‬
‫‪k =0‬‬
‫= ‪pq k‬‬
‫‪1−q‬‬
‫‪=1‬‬

‫در ﺑﻌﻀﯽ ﮐﺘﺎﺑﻬﺎ ﺣﺎﻟﺖ ‪ r = 1‬از آﻧﭽﻪ ﻣﺎ ﺑﺎ )‪ P(y‬ﻧﺸﺎن دادﯾﻢ را ﺗﻮزﯾﻊ ﻫﻨﺪﺳﯽ ﮔﻮﯾﻨﺪ‪ .‬ﺑﺮای ‪ r = 1‬دارﯾﻢ‪:‬‬
‫…‪P{y = n} = pq n −1 : n = 1, 2, 3,‬‬
‫در اﯾﻨﺠﺎ‪ ،y ،‬ﺗﻌﺪاد ﮐﻞ آزﻣﺎﯾﺸﻬﺎ ﺗﺎ ﺣﺼﻮل اوﻟﯿﻦ ﻣﻮﻓﻘﯿﺖ اﺳﺖ‪.‬‬

‫‪55‬‬
‫ﺗﺎﺑﻊ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‪:‬‬
‫در ﺑﺴﯿﺎری ﻣﻮارد ﺑﺎ ﻓﺮض داﻧﺴﺘﻦ ﺗﺎﺑﻊ ﺗﻮزﯾﻊ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‪ ،‬ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ اﯾﻨﮑﻪ در ﺳﯿﺴﺘﻢ ﻣﻮرد ﻧﻈﺮ ﻋﻤﻠﯿﺎﺗﯽ روی آن اﻧﺠﺎم ﻣﯽﺷﻮد‪،‬‬
‫ﻋﻼﻗﻪﻣﻨﺪﯾﻢ ﮐﻪ ﺗﻮزﯾﻊ ﺗﺎﺑﻌﯽ از ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ را ﺑﻪ دﺳﺖ آورﯾﻢ‪ .‬ﻣﺎﻧﻨﺪ آﺷﮑﺎرﺳﺎز دﯾﻮدی‪ .‬ﯾﺎ ﻣﺜﻼً ﻣﺎﯾﻠﯿﻢ ﺑﺪاﻧﯿﻢ ﮐﻪ ﺗﻮزﯾﻊ ﺗﻮان‬
‫ﻣﺼﺮﻓﯽ ﻣﻘﺎوﻣﺘﯽ ﮐﻪ وﻟﺘﺎژ دو ﺳﺮ آن ﺗﺼﺎدﻓﯽ اﺳﺖ‪ ،‬ﭼﯿﺴﺖ‪ .‬ﯾﺎ اﮔﺮ ﻓﺎز ﺳﯿﮕﻨﺎل ﺗﺼﺎدﻓﯽ ﺑﺎﺷﺪ و )‪ ، y = A cos(ωt + ϕ‬ﺗﻮزﯾﻊ ‪y‬‬
‫ﭼﯿﺴﺖ و اﻣﺜﺎﻟﻬﻢ‪...‬‬

‫اﮔﺮ )‪ g(x‬ﯾﮏ ﺗﺎﺑﻊ ﺣﻘﯿﻘﯽ ﺑﺎﺷﺪ‪ ،‬ﻣﯽﺗﻮاﻧﯿﻢ ﺑﻪ ﻫﺮ ) ‪ y i = g (xi ) ، xi = x (ωi‬را ﻧﺴﺒﺖ دﻫﯿﻢ‪:‬‬
‫‪ωi‬‬ ‫) ‪x(ωi‬‬ ‫) ‪g(xi‬‬
‫ﻧﻘﻄﮥ ﻓﻀﺎی ﻧﻤﻮﻧﻪ‬ ‫‪xi‬‬ ‫‪yi‬‬
‫ﻋﺪد‬ ‫ﻋﺪد‬

‫) ‪y(ωi‬‬
‫ﭘﺲ ﺑﺎ ﺗﺮﮐﯿﺐ دو ﺗﺎﺑﻊ ﻣﻮاﺟﻬﯿﻢ ﮐﻪ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺟﺪﯾﺪ ﺑﻪ ﻣﺎ ﻣﯽدﻫﺪ‪:‬‬
‫))‪y (ω) = g (x (ω‬‬
‫ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ y‬را ﺗﺎﺑﻌﯽ از ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ x‬ﮔﻮﯾﯿﻢ‪.‬‬

‫ﺣﺎل ﺑﺒﯿﻨﯿﻢ ﺑﺎ داﻧﺴﺘﻦ ﺗﻮزﯾﻊ ‪ x‬ﭼﮕﻮﻧﻪ ﻣﯽﺗﻮاﻧﯿﻢ ﺗﻮزﯾﻊ ‪ y‬را ﺑﻪ دﺳﺖ آورﯾﻢ‪.‬‬
‫‪56‬‬
‫در ﺣﺎﻟﺖ ﮔﺴﺴﺘﻪ ﻣﺴﺌﻠﻪ ﺑﺴﯿﺎر ﺳﺎده اﺳﺖ‪:‬‬
‫= }‪Py ( y) = P{y = y} = P{g (x ) = y‬‬ ‫∑‬
‫‪i:g ( xi ) = y‬‬
‫) ‪P (xi‬‬

‫= }‪Fy ( y) = P{y ≤ y} = P{g (x ) ≤ y‬‬ ‫∑‬


‫‪i:g ( xi )≤ y‬‬
‫) ‪P (xi‬‬

‫ﻣﺜﻼً اﮔﺮ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ x‬ﻣﻘﺎدﯾﺮ زﯾﺮ را اﺧﺘﯿﺎر ﮐﻨﺪ‪:‬‬


‫‪xi‬‬ ‫‪0‬‬ ‫‪1‬‬ ‫‪-1‬‬
‫‪1‬‬ ‫‪1‬‬ ‫‪1‬‬
‫‪Pi‬‬
‫‪3‬‬ ‫‪3‬‬ ‫‪3‬‬
‫ﺑﺮای ‪ y = x 2‬دارﯾﻢ‪:‬‬
‫‪1 1 2‬‬
‫= }‪Py (1) = P{y = 1‬‬ ‫= ‪+‬‬
‫‪3 3 3‬‬
‫و ﺑﻪ ﺳﺎدﮔﯽ ﻣﯽﺗﻮاﻧﯿﻢ ﺑﻘﯿﮥ اﺣﺘﻤﺎﻟﻬﺎ را ﻧﯿﺰ ﺣﺴﺎب ﮐﻨﯿﻢ‪.‬‬

‫اﻣﺎ ﺑﺮای ﺣﺎﻟﺘﻬﺎی ﻏﯿﺮﮔﺴﺴﺘﻪ اﺑﺘﺪا ﺑﻪ ﻣﺤﺎﺳﺒﮥ ﺗﺎﺑﻊ ‪ CDF‬ﻣﯽﭘﺮدازﯾﻢ ﮐﻪ ﺳﺎدهﺗﺮ اﺳﺖ‪.‬‬

‫‪57‬‬
: g (x) = ax + b :1 ‫ﻣﺜﺎل‬
scale ‫ﯾﻌﻨﯽ ﺷﯿﻔﺖ و‬ y
y = ax + b
y
 y−b y−b
 P{x ≤ } = Fx ( ) a>0
a a
Fy ( y) = P{y ≤ y} = P{ax + b ≤ y} = 
P{x ≥ y − b} = 1 − F ( y − b ) a < 0 y-b
x
 a
x
a a

:‫از اﯾﻨﺠﺎ دارﯾﻢ‬


1 y − b
f ( ) a>0
 a x a 1 y−b
fy ( y) =  = fx ( )
1
− f ( y − b a a
) a<0
 a x a

58
: g (x) = x :(‫ )ﯾﮑﺴﻮﺳﺎز ﺗﻤﺎم ﻣﻮج‬2 ‫ﻣﺜﺎل‬
y
y= x
y
0 y<0
Fy ( y) = P{y ≤ y} = P{ x ≤ y} = 
P{− y ≤ x ≤ y} = Fx ( y) − Fx (− y) y ≥ 0
-y y x

:‫ﺑﺎ ﻣﺸﺘﻖﮔﯿﺮی دارﯾﻢ‬


f ( y) + fx (− y) y ≥ 0
fy ( y) =  x
0 y<0

59
:‫ ﺧﻮاﻫﯿﻢ داﺷﺖ‬،‫ ﺑﺎﺷﺪ‬x ∼ N (0, 1) ‫ﻣﺜﻼً اﮔﺮ‬

Fx (x) = G(x) Fy (y) = D(y)


1 1

0 .5

x y

fx (x) = g(x) 2
fy (y)

1

x y

60
g ( x) x + c x < −c

x−c : g ( x ) = 0 − c ≤ x ≤ c :3 ‫ﻣﺜﺎل‬
x − c x > c
−c 
c x
Fx ( x)
x+c 1

y = g (x)
P{x + c ≤ y} y < 0 Fx ( y − c) y < 0
Fy ( y) = P{y ≤ y} =  = −c c
x
 P{x − c ≤ y} y ≥ 0 Fx ( y + c) y ≥ 0

P{y = 0} = Fx (c) − Fx (− c)
Fy ( y )
1

61
fx ( y − c) y<0 fx ( x)
 +c

fy ( y) = δ( y) fx (u)du y = 0
 −c

fx ( y + c) y>0

x
−c c

fy ( y )

62
g ( x)
x + c x ≥ 0
x+c : g ( x) =  :4 ‫ﻣﺜﺎل‬
c x − c x < 0
x
−c
x−c

P{x + c ≤ y} y ≥ c Fx ( y − c) y ≥ c
 
Fy ( y) = P{y ≤ y} = P{x ≤ 0} − c < y < c = Fx (0) −c < y < c
P{x − c ≤ y} y < − c  F ( y + c) y < − c
  x
Fx ( x) Fy ( y )
1 1

x −c c
y

63
‫‪fx ( y − c) y ≥ c‬‬ ‫)‪fx ( x‬‬
‫‪‬‬
‫‪fy ( y) = 0‬‬ ‫‪−c < y < c‬‬
‫‪ f ( y + c) y < − c‬‬
‫‪x‬‬

‫‪x‬‬

‫) ‪fy ( y‬‬

‫‪y‬‬
‫‪−c‬‬ ‫‪c‬‬

‫ﺑﻪ ﯾﺎد داﺷﺘﻪ ﺑﺎﺷﯿﺪ ﮐﻪ ﺑﯽﺗﻐﯿﯿﺮ ﻣﺎﻧﺪن )‪ g(x‬در ﯾﮏ ﻣﺤﺪوده ﺳﺒﺐ ﭘﺮش در ‪ Fy‬ﻣﯽﺷﻮد و ﺑﻪ ﻋﮑﺲ ﭘﺮش در )‪ g(x‬ﻣﻮﺟﺐ‬
‫ﺑﯽﺗﻐﯿﯿﺮ ﻣﺎﻧﺪن ‪ Fy‬در ﯾﮏ ﻣﺤﺪوده ﻣﯽﺷﻮد‪.‬‬

‫‪64‬‬

You might also like