Professional Documents
Culture Documents
Apuntes Probabilidad y Estadística
Apuntes Probabilidad y Estadística
J. M. Aroca
e-mail:jomaroca@mat.upc.es
http://www-ma4.upc.es/~jomaroca
febrer de 2004
Index
Notaci
o 3
2 Variables aleat`ories 15
2.1 Variable aleat`oria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Funcio de distribucio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3 Variables aleat`ories discretes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4 Variables aleat`ories contnues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5 Teorema de DeMoivre-Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.6 Funcions de densitat i distribucio condicionades . . . . . . . . . . . . . . . . . . . . . 23
Ap`endix: Demostracio del teorema de DeMoivre-Laplace . . . . . . . . . . . . . . . . . . . 24
4 Par`ametres estadstics 31
4.1 Esperanca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.2 Vari`
ancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.3 Desviaci
o est`
andard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.4 Variable aleat`
oria normalitzada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1
4.5 Par`ametres de les distribucions usuals . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.6 Moments duna variable aleat` oria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.7 Desigualtat de Txebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.8 Llei dels grans nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.9 Teorema del lmit central . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.10 Probabilitat, esperanca, mesura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
II Variables aleat`
ories multidimensionals i teoria de lestimaci
o 39
8 Estimaci
o de variables aleat` ories 58
8.1 Concepte i criteris destimacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
8.2 Estimacio per una constant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
8.3 Estimacio no lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
8.4 Estimacio lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
8.5 Principi dortogonalitat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2
9.4 Processos estoc`
astics normals . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
9.5 Processos estacionaris . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
11 Processos estacionaris 76
11.1 Integrals estoc`
astiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
11.2 Ergodicitat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
11.3 Condicions suficients dergodicitat . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
11.4 Espectre de pot`encia dun proces estacionari . . . . . . . . . . . . . . . . . . . . . . . 80
11.5 Sistemes lineals . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
11.6 Valor mitj`a, autocorrelaci
o i espectre de pot`encia dun PE transformat linealment . 82
IV Taules 85
Funci
o derror . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
V Ap`
endixs 88
A L`
ogica i conjunts 89
B Combinat`
oria 91
C S`
eries 94
D Integrals 96
E Distribucions 98
F Simulaci
o num`
erica de variables i processos aleatoris 100
VI Problemes 103
3
Notaci
o
Final dexemple.
Final de demostraci
o.
f (x) Conjugaci
o complexa.
A, B, C, . . . Esdeveniments. (Subconjunts de .)
X, Y, Z, . . . Variable aleat`
ories (En maj
uscules. Els valors num`erics es posen en min
uscula. Aix,per
exemple, X < x es lesdeveniment: la variable aleat`oria X es menor que el nombre x.).
PX (x) Funci
o de probabilitat de la variable aleat`oria discreta X.
4
fX (x|y) Funcio de densitat la variable aleat`
oria X condicionada a Y = y. (De manera similar
tenim fY (y|x).)
C[X, Y ] Covari`
ancia de les variables aleat`ories X i Y .
Coeficient de correlaci
o.
m(t) Funci
o de valor mitj`a dun proces estoc`
astic.
C(t1 , t2 ) Funci
o dautocovari`ancia dun proces estoc`
astic.
5
Part I
6
Captol 1
Introducci
o a la teoria de la
probabilitat
Exemple 1.2 Lespai mostral es el que determina clarament la informacio que extreiem de lex-
periment. Si, per exemple, E =Tirar dos daus hem despecificar si podem distingir els dos daus
una vegada tirats amb el que lespai mostral es 1 = {(a, b)|1 a, b 6} que te 36 elements o si
els daus son indistingibles i tenim 2 = {{a, b}|1 a, b 6} que te 21 elements. Es a dir, en el
segon cas no podem distingir, per exemple, les configuracions (1,2) i (2,1).
7
disjunci
o RoS RS unio
negaci
o no R R complementari
implicacio RS RS inclusi
o
1.4 `
Algebra desdeveniments
una famlia F no buida de subconjunts de tancada per la unio i el complementari. Es
Es a dir,
F P() verificant:
(1) F = ,
(2) si A F llavors A F,
(3) si A, B F llavors A B F .
(4) , F,
(5) si A, B F llavors A B F .
DEM:
(4) Per (1) existeix A F . Per (2) A F. Per (3) = A A F . Per (2) = F.
8
Exemple 1.3 En lexperiment Tirar un dau = {1, 2, 3, 4, 5, 6}. P() te 26 = 64 elements.
Es f`acil comprovar que F = {, , {2, 4, 6}, {1, 3, 5}} es una `algebra desdeveniments. Per tant els
u
nics esdeveniments no trivials que considerem son surt parell i surt senar. Aix podem, per
exemple, simular un experiment amb dos resultats equiprobables com el de tirar una moneda.
La propietat (3) sesten per inducci
o a la uni
o dun nombre finit qualsevol desdeveniments. A
vegades conve considerar unions numerables desdeveniments. En aquest cas diem que F es una
-`
algebra si en lloc de (3) es verifica
(3) si Ai F, i N llavors Ai F.
iN
La propietat (5) passa a (5) posant interseccions numerables. Obviament tota -`algebra es una
`algebra per`o no a la inversa.
on el sumatori senten com una s`erie de nombres reals positius. Les propietats (3) i (3) sanomenen
aditivitat i -aditivitat respectivament.
Com a consequ`encia dels axiomes (1), (2) i (3) dedum les seguents propietats:
(4) P () = 0,
(5) P (A) = 1 P (A) per a tot A F,
(6) P (A) 1 per a tot A F,
(7) P (A B) = P (A) + P (B) P (A B) per a tot A, B F .
DEM:
(4) Tenim que = i = . Utilitzant (3) P () = P ( ) = P () + P () don surt (4).
(5) Com A A = , P (A) + P (A) = P (A A) = P () = 1.
(6) P (A) = 1 P (A) 1 degut a (2).
(7) Considerem les descomposicions en parts disjuntes AB = A(B A) B = (B A)(B A).
Daqu P (A B) = P (A) + P (B A) i P (B) = P (B A) + P (B A). Restant les dues
igualtats trobem P (A B) P (B) = P (A) P (B A) que es (7).
9
1.6 Espais de probabilitat discrets
Considerem = {1 , 2 , . . . , n } finit. Anomenem esdeveniments elementals als de la forma {i },
i = 1, . . . , n i posem pi = P ({i }). Aquests nombres verifiquen 0 pi 1. Com = i {i } i els
esdeveniments elementals s on disjunts i pi = 1. Les probabilitats elementals pi determinen la de
qualsevol esdeveniment. En efecte, si A = {i1 , . . . , ir } llavors P (A) = P (k {ik }) = k pik .
Encara que en aquest context es inevitable dir que pi es la probabilitat del resultat i , sha
de tenir en compte que les probabilitats son sempre desdeveniments (subconjunts de .) No
es correcte assignar les probabilitats als elements de i, si es fa, sha de tenir ben clar que la
probabilitat de lelement i vol dir la de lesdeveniment {i }.
Un cas corrent es quan tots els esdeveniments elementals s on equiprobables amb pi = 1/n i.
Llavors, si A es un esdeveniment de r elements P (A) = r/n que es la f ormula cl` assica de les
probabilitats. Lexpressi o r/n sacostuma a llegir nombre de casos favorables dividit per nombre
de casos possibles. La situaci o desdeveniments elementals equiprobables sol anar associada a
alguna simetria de lexperiment com en el cas de tirar una moneda o un dau sim`etrics.
Exemple 1.4 En lexperiment Tirar dos daus de lexemple 1.2 quina es la probabilitat que la
suma valgui 6? Utilitzant 1 tots els esdeveniments son equiprobables amb probabilitat 1/36. Com
A = {(1, 5), (2, 4), (3, 3), (4, 2), (5, 1)} es P (A) = 5/36. Amb 2 A = {{1, 5}, {2, 4}, {3, 3}} per`o els
esdeveniments elementals no s on equiprobables ja que els parells diferents tenen probabilitat doble
que els repetits. Ara hem de fer P (A) = 2/36 + 2/36 + 1/36 = 5/36.
Si te un nombre infinit numerable delements val el mateix que en el cas finit considerant les
sumes com a s`eries quan els esdeveniments no siguin finits.
Exemple 1.5 Tirem una moneda fins que surt cara. Quina es la probabilitat que necessitem mes
de 5 tirades? Tenim que = { O , +O , ++O , +++O , . . . }. La probabilitat duna configuraci
o
de cares i creus donada en una s`erie de n tirades es 1/2n . Comprovem que les probabilitats
n
elementals sumen 1. n=1 1/2 = (1/2)/(1 1/2) = 1. La probabilitat que volem calcular es
P (n > 5)= n=6 1/2 = (1/25 )
n
n=1 1/2 n = 1/25 .
10
1.8 Esdeveniments independents
Diem que dos esdeveniments A i B son independents si P (A B) = P (A)P (B).
En la pr`actica, solem saber que els esdeveniments son independents degut a la mec`anica que els
genera i utilitzem la relacio anterior per calcular probabilitats. Per exemple, al tirar dos daus, el
resultat dun dells es independent del de laltre. Aix, P (primer dau parell i segon dau = 2) =
P (primer dau parell)P (segon dau = 2) = 1/12.
La independ`encia de mes de dos esdeveniments correspon a la factoritzacio total (per exemple
P (A B B) = P (A)P (B)P (C)) i, en general, no equival a la independ`encia daquests esdeveni-
ments dos a dos.
Exemple 1.6 La pel.licula Misi on improbable va ser vista pel 3% dels barcelonins mentres que
la segona part Misi on improbable II ho va ser pel 2%. Sabem que el 60% dels que van veure la
segona part havien vist la primera. Quina es la probabilitat que una persona triada a latzar hagi
vist les dues pel.licules? I si sabem que aquesta persona ha vist la primera part? I si sabem que
aquesta persona nha vist alguna?
Denotem A1 , A2 els esdeveniments corresponents a que aquesta persona hagi vist la primera i
segona part de la pel.licula. Llavors P (A1 A2 ) = P (A1 |A2 )P (A2 ) = 0.6 0.02 = 0.012.
El segon cas es P (A2 |A1 ) = P (A1 A2 )/P (A1 ) = 0.12/0.03 = 0.4.
El tercer cas es P (A1 A2 |A1 A2 ) = P ((A1 A2 )(A1 A2 ))/P (A1 A2 ) = P (A1 A2 )/P (A1
A2 ). Com que P (A1 A2 ) = P (A1 ) + P (A2 ) P (A1 A2 ) = 0.03 + 0.02 0.012 = 0.038, es
P (A1 A2 |A1 A2 ) = 0.012/0.038 = 0.3157.
11
1.10 Teorema de Bayes
n
a dir, Ai F, i = 1, . . . , n
Considerem A1 , A2 , . . . , An una particio de . Es Ai = , Ai Aj =
i=1
i = j. Llavors val la f
ormula de Bayes
P (B | Ai )P (Ai )
P (Ai | B) = n . (1.2)
P (B | Ak )P (Ak )
k=1
DEM: Com la intersecci o es conmutativa (P (Ai B) = P (B Ai )) tenim que P (Ai | B)P (B) =
P (B | Ai )P (Ai ) don trobem P (Ai | B) = P (B | Ai )P (Ai )/P (B) que en el cas que coneguem
P (B) es pot utilitzar directament. Si no, posem B = B = B (A1 A2 An ) =
(B A1 ) (B A2 ) (B An ). Al ser els esdeveniments B Ai incompatibles P (B) =
P (BA1 )+P (BA2 )+ +P (BAn ) = P (B | A1 )P (A1 )+P (B | A2 )P (A2 )+ +P (B | An )P (An )
que es el denominador de la f ormula de Bayes i ens dona el resultat conegut com a formula de la
probabilitat total:
n
P (B) = P (B | Ak )P (Ak ). (1.3)
k=1
Exemple 1.8 Tirem un dau 10 vegades. Quina es la probabilitat dobtenir el mateix resultat en
tots?
12
Lesdeveniment no es producte cartesi`a desdeveniments individuals per
o si A =mateix resultat
en tots i Ai =tots donen i i = 1, . . . , 6 tenim que A = 6i=1 Ai i que Ai = {i} {i}. Aix
si P1 es la probabilitat dun resultat en una prova llavors P (Ai ) = P1 (i)10 = 1/610 i P (A) =
6 10 9
i=1 P (Ai ) = 6 1/6 = 1/6 .
Aleatoris. Fixades les condicions, el sistema admet mes dun comportament possible. Al
repetir lexperiment anem obtenint resultats diferents. Per exemple, tirar un dau.
En quina categoria cauen els fen` omens reals? De fet no ho sabem. Les descripcions fsiques
fonamentals son deterministes ja que les mec`aniques newtoniana, relativista o qu`antica estan regides
per equacions diferencials amb el que les condicions inicials determinen unvocament levoluci o del
sistema. Per molts cientfics el determinisme es una propietat que una descripcio matem`atica
fonamental de la natura hauria de contenir. Per una altra part, les descripcions fsiques sempre son
aproximades i tenen un caracter provisional fins que naparegui una de millor. Es podria discutir
tambe que vol dir les mateixes condicions ja que lestat de lunivers no es mai el mateix. En
general entenem que el resultat dun experiment es afectat nomes per lentorn inmediat i podem
despreciar lefecte dels objectes llunyans.
En lordre pr`actic podem deixar de banda les questions filos` ofiques ja que al marge de que la
mec` anica subjacent sigui determinista o no mols fen`omens reals presenten un caracter clarament
aleatori. Un cas en que passa aixo es quan el sistema es molt complex. En aquests casos ser`a
impossible disposar dinformaci o completa sobre el sistema i haurem de recorrer a informaci o de
tipus estadstic. Per exemple, pels sistemes macrosc` opics formats per molts `atoms o mol`ecules es
impossible resoldre o tractar mnimament les equacions del moviment. Si en lloc daix o associem
probabilitats als diferents estats del sistema arribem a una descripcio satisfact`oria (mec` anica es-
tadstica). Par`ametres com la temperatura o lentropia es poden interpretar llavors com variables
que caracteritzen les funcions de probabilitat del sistema.
Per entendre com un sistema determinista pot aparentar un comportament aleatori pensem el
seguent experiment. Tenim una taula inclinada en la que posem un objecte en un punt determinat
(condici
o inicial) i el deixem caure. Si la taula es llisa lobjecte baixar`a seguint una linea recta. Es
trivial predir per on caura si coneixem la seva posicio inicial. Aix o es el que entenem en la pr`actica
per sistema determinista: aquell en que la condicio inicial no nomes determina el comportament
sino que la relacio condici o inicial-comportament es prou senzilla.
Suposem ara que la taula no es llisa sino que est`a plena de petits obstacles que desvien lobjecte
al caure. Ara les traject` ories de caiguda s
on completament irregulars i es molt difcil predir el punt
darribada a partir del punt de sortida. Notem que el sistema es encara determinista ja que lobjecte
segueix trajectories regides per les equacions de Newton per`o la complexitat del seu comportament
13
fa mes adequat considerar-lo com aleatori i descriurel probabilsticament. Els sistemes daquesta
mena sanomenen pseudoaleatoris. Una tirada dun dau nes clarament un exemple ja que qualsevol
variacio per petita que sigui de les condicions inicials pot canviar el resultat.
Un altre exemple dexperiment pseudoaleatori es anar considerant com a resultats de lexper-
iment els successius dgits decimals dun nombre real entre 0 i 1. Si el nombre que els genera es,
diguem, 11/13 no tardarem en adivinar quin es ja que la regla que els va formant es molt simple.
Per`o si ho fem amb el nombre o e, tot i que existeix una regla generadora (per tant determinista),
la succesio tindr`a aparenca purament aleat`oria degut a la complexitat daquesta regla. Aquesta es la
base de la generaci o de nombres aleatoris per part dels ordinadors que son sistemes absolutament
deterministes.
NA
lim = PA (1.4)
N N
on PA es una constant que correspon a la probabilitat de A. Sha dentendre que el lmit anterior
no te cap sentit matem`atic. Lexpressio diu que si fem moltes vegades lexperiment la frequ`encia
fA hauria de prendre valors molt propers a PA que ve fixada per les condicions de lexperiment. Si
volem axiomatitzar la probabilitat, li demanarem que tingui les propietats que tenen les freq
u`encies
relatives. De manera obvia
(1) 0 fA 1, ja que 0 NA N ,
(2) f = 1, ja que N = N ,
(3) si A, B s
on incompatibles fAB = fA + fB , ja que NAB = NA + NB .
Aquestes propietats son precisament els axiomes que hem exigit a la funci
o probabilitat.
Finalment, cal tenir en compte les limitacions pr`actiques en lus de probabilitats. No sha de
confondre el fet que un proces sigui aleatori amb que tinguem incertesa total sobre el seu resultat.
Quan tirem una moneda el resultat es incert per` o sabem que cada resultat te probabilitat 1/2. A ve-
gades el resultat dun proces es incert i a mes a mes no tenim cap informacio que ens permeti assignar
probabilitats als possibles resultats. Seria incorrecte assignar probabilitats 1/2 a un experiment
amb dos resultats possibles pel fet que no sapiguem res sobre les seves circumst` ancies. Quan la
falta dinformacio sobre el sistema es pot suplir amb un tractament probabilstic es per que aquest
sistema te propietats que ho fan possible.
La definicio dexperiment aleatori exigeix la possibilitat de repetir lexperiment un gran nombre
de vegades sense variar les condicions. Es perillos assignar probabilitats quan es impossible o molt
difcil repetir lexperiment en id`entiques condicions. Per exemple, el resultat dun partit de futbol
o lexit o frac`as duna missi
o espacial. En aquests casos les estimacions probabilstiques tenen un
fort component subjectiu que fa que manquin de sentit.
14
Captol 2
Variables aleat`
ories
Exemple 2.3 E =Triar un instant del dia, = [0, 24). X(t) = t per t .
Exemple 2.4 Per un experiment donat hi ha infinitat de variables aleat`ories. Per exemple, en
lexpeniment anterior X(t) = 0 si 0 t < 12 i X(t) = 1 si 12 t 24 es una altra variable. Una
altra variable es X(t) = 1, t (variable aleat`oria constant).
Les variables aleat`ories s
on els objectes que utilitzem quan fem un tractament probabilstic
duna situacio real. En els casos pr`actics lespai mostral pot tenir una enorme complexitat els
detalls de la qual desconeixem. Degut a aix` o, les variables aleat`ories rarament apareixen en forma
funcional explcita X(). Aix` o no ser`a important perque podrem respondre a preguntes sobre els
valors que pren X a partir de funcions que caracteritzen la variable. Es convenient, per`o, no perdre
de vista lestructura global (X : R) per evitar confusions i entendre be els problemes.
Si tenim una probabilitat P definida a , per cada boreli`a A definim PX (A) = P (X 1 (A)).
Com es suficient coneixer les probabilitats dels generadors de l`algebra desdeveniments, estarem
interessats en PX ((, x]). En el que segueix ometrem el subndex X en PX .
15
2.2 Funci
o de distribuci
o
Donat un espai de probabilitat ( , F, P ) amb variable aleat`
oria X definim la funci
o de distribuci
o
com
ja que FX (b) = P ((, b]) = P ((, a] (a, b]) = P ((, a]) + P ((a, b]) = FX (a) + P ((a, b]).
A mes a mes FX te les seg
uents propietats:
(1) 0 FX (x) 1,
DEM:
(4) Pel fet de ser FX mon` otona i acotada existeix l = limtx+ FX (t). La funcio es contnua si
l = FX (x). Per trobar el seu valor considerem una successi o decreixent que tendeixi a x per
la dreta. (per exemple xn = x + 1/n.) Es a dir xn x i xn1 xn x per tot n. Llavors
l = limn FX (xn ). Tenim que FX (x1 ) FX (x) = P ((x, x1 ])) = P ( n=2 (xn , xn1 ]) =
M
n=2 P ((x n , x n1 ]) = n=2 (FX (x n1 ) F X (x n )) = limM n=2 (F X (x n1 ) FX (xn )) =
limM (FX (x1 ) FX (xM )) = FX (x1 ) l que ens d ona l = FX (x).
Per tant les discontinutats de FX indiquen car` acter discret de la variable aleat`
oria i, com indica
la formula anterior, la probabilitat dun punt ve donada pel salt de FX en aquest punt.
16
2.3 Variables aleat`
ories discretes
quan X pren un conjunt finit o numerable de valors. Si aquests valors s
Es on, ordenats, x1 , x2 , . . . , xn
amb probabilitats p1 , p2 , . . . , pn , FX es una funcio esglaonada que pren valors 0, p1 , p1 +p2 , . . . , p1 +
+ pn1 , 1. Una expressi o compacta per FX la trobem mitjancant la funcio de Heaviside u(x).
Fig. 1: Funci
o de distribuci
o duna variable discreta.
Les seg
uents son algunes de les distribucions mes corrents:
Bernoulli.
X = {0, 1}. PX (1) = p, PX (0) = q = 1 p. Correspon per tant a un experiment amb dos
resultats. Si A es un esdeveniment associat a un experiment qualsevol, podem construir una
variable de Bernoulli assignant 1 a A es verifica i 0 a A no es verifica. Llavors p = P (A).
Binomial.
Repetim n vegades un experiment de Bernoulli. X es el nombre de 1s que obtenim. Aix,
X = {0, 1, 2, . . . , n} i
n k nk
PX (k) = p q . (2.5)
k
Exemple 2.5 Es tira un dau 10 vegades. Quina es la probabilitat que el 6 surti exactament
4 vegades?
Sigui X la variable que compta el nombre de vegades que surt el 6. X es binomial amb n = 10
i p = 1/6. Llavors P (X = 4) = 10 1 4 5 6
4 ( 6 ) ( 6 ) = 0.054.
Geom`
etrica.
X es el nombre de vegades que hem de fer un experiment de Bernoulli fins que surt 1. Aix,
X = {1, 2, . . . } i
PX (n) = q n1 p. (2.6)
17
Podem calcular la funci
o de distribucio
n n
FX (n) = PX (k) = qk1 p = 1 q n . (2.7)
k=1 k=1
Exemple 2.6 Es tira un dau fins que surt un 6. Quina es la probabilitat que calguin 5 o
mes tirades?
Sigui X la variable que compta el nombre de tirades que fem. X es geom`etrica amb p = 1/6.
Llavors P (X 5) = 1 P (X 4) = 1 FX (4) = q 4 = (5/6)4 = 0.482.
Hipergeom`
etrica.
Tenim una urna amb b boles blanques i N b boles negres. En treiem n. X es el nombre de
boles blanques que treiem. X = {0, 1, 2, . . . , n} i
b Nb
k nk
PX (k) = N
. (2.8)
n
Poisson.
Fixem un interval de temps T . X es el nombre de vegades que es produeix un esdeveniment
en aquest interval. Per exemple, contar el nombre de trucades telef`oniques rebudes durant 1h
per una centraleta. La variable de Poisson es pot referir tambe a intervals espacials o duna
altra mena (el nombre de clots en un tram de carretera de 10 Km.)
X = {0, 1, 2, . . . }. La variable es de Poisson si
k
PX (k) = e . (2.9)
k!
Podem justificar aquesta expressio i relacionar aquesta distribucio amb la binomial. Per aix`
o,
dividim linterval T en n subintervals de longitud t = T /n. Considerem n molt gran i,
per tant, t molt petit. Suposem que en cada subinterval lesdeveniment pot produir-se
com a m` axim una vegada amb probabilitat p = t. Ara podem considerar que tenim un
experiment binomial i fer el lmit n
n k n T k T nk
PX (k) = p (1 p)nk = ( ) (1 )
k k n n
T n
1 n1 n2 nk+1 (1 n ) 1
= (T )k T k
(T )k eT
k! n n n (1 n )
k!
que es la distribuci
o de Poisson amb = T . La constant depen nomes del tipus de
fen`omen aix que podem relacionar els valors de per intervals de diferent longitud.
Exemple 2.7 La probabilitat que hi hagi una o mes connexions a un servidor durant un
segon val 0.07. Quina es la probabilitat P que hi hagin cinc o mes connexions durant un
minut?
Sigui s el par`
ametre de Poisson per T = 1s i m el par`
ametre de Poisson per T = 60s. Llavors
m = 60s . Sabem que 0.07 = 1 Ps (0) = 1 es don s = 0.0725. Llavors m = 4.354 i
2 3 4
P = 1Pm (0) Pm (1)Pm (2)Pm (3) Pm (4) = 1 em (1+m + m + m + m ) =
2 3! 4!
0.44.
18
Notem que hem demostrat la relacio asimpt`otica entre les distribucions binomial amb par`ametres
n i p i de Poisson amb par`ametre = np quan n es gran. Aix` o es u
til en alguns c`alculs.
dFX (x)
fX (x) = . (2.10)
dx
fX sanomena funci o de densitat de la v.a. X. Recordem que si FX es contnua P ({a}) = 0. Per
tant, la probabilitat dun interval no varia incloguem o no els seus extrems.
fX verifica les propietats:
(1) fX 0,
b
(2) P (a X b) = a fX (x)dx,
x
(3) FX (x) = fX (x )dx ,
(4) fX (x)dx = 1.
DEM:
Una manera mes acurada de definir variable aleat` oria contnua es dir que es quan existeix una
funcio fX tal que es verifica lanterior propietat (3). Aix`o implica (2.10) per derivaci o per`o de fet
fX pot no ser contnua amb el que FX pot no ser derivable en alguns punts.
19
es possible que fX valgui en algun punt. Aquestes diverg`encies s on admisibles mentres la funci
o
sigui integrable. Una definici
o o manera dexpressar la funcio de densitat es
fX (x) = pk (x xk ). (2.12)
k
Aquesta forma sobte derivant la funcio de distribucio (2.3) i tenint en compte que u = .
Denotarem X el recorregut de la v.a. X. Aquest es el conjunt de R que no conte cap interval
on fX (x) = 0. De fet, no hi ha cap inconvenient en afegir a X qualsevol regi o on fX sanul.li.
En la pr`actica, X es el conjunt de valors que X pren de manera natural. (Si, per exemple, X
representa una dist`ancia seria X = R+ , etc.)
Les variables contnues mes corrents son:
Uniforme.
X = [a, b].
1
ba si a x b
fX (x) = (2.13)
0 altrament
0 si x a
xa
FX (x) = ba si a x b (2.14)
1 si x b
Exponencial.
X = [0, ), > 0.
0 si x < 0
fX (x) = (2.15)
ex si x 0
0 si x < 0
FX (x) = (2.16)
1 ex si x 0
20
Una possible interpretacio daquesta variable es que deixem transcorrer el temps des de 0
i X es linstant en que es produeix per primera vegada un esdeveniment. Per exemple el
moment en que rebem una trucada telef`onica. Sota aquesta interpretacio podem relacionar
la variable exponencial amb la geom`etrica. Dividim linterval [0, x] en n subintervals de
longitud t = x/n. Considerem n molt gran i, per tant, t molt petit. Suposem que en cada
subinterval lesdeveniment pot produir-se amb probabilitat p = t. Ara podem considerar
que tenim un experiment geom`etric i, utilitzant (2.7),
x n
1 FX (x) = P (X > x) = (1 p)n = (1 ) ex
n
el que ens dona la funcio de distribuci
o (2.16).
DEM: Com P (X > x) = ex , P (X > t + h) = P (X > t)P (X > h). Per una altra part
P (X > t + h | X > t) = P (X > t + h)/P (X > t).
Aquesta propietat vol dir que la probabilitat de produir-se lesdeveniment en un instant donat
es independent del nombre de vegades que shagi produt anteriorment.
Gaussiana.
Tambe sanomena normal. X = (, ), m R, > 0.
1 (xm)2
fX (x) = e 22 . (2.18)
2
1 xm
FX (x) = (1 + erf( )). (2.19)
2 2
21
DEM: En efecte,
x (tm)2
1
FX (x) = e 22 dt.
2
Fent el canvi z = (t m)/ 2 es
xm xm
0
1 2 2 1 2 2 2
FX (x) = ez dz = ( ez dz + ez dz)
0
1 xm 1 xm
= ( + erf( )) = (1 + erf( )).
2 2 2 2 2
Una funcio gaussiana es simplement lexponencial dun polinomi de segon grau. La densitat
gaussiana es la forma general duna densitat amb aquest comportament. La seva gr` afica
mostra el tpic aspecte de moltes distribucions que es mesuren experimentalment en estadstica
i sanomena campana de Gauss.
Cauchy.
X = (, ), > 0
/
fX (x) = . (2.21)
x2 + 2
1 1 x
FX (x) = + arctan . (2.22)
2
22
Algunes variables tenen comportament continu i discret alhora. Sanomenen variables mixtes.
Es donen quan FX te discontinutats i no es constant a trossos.
Exemple 2.9 Tirem una moneda. Si surt cara X val 2. Si surt creu X es tria uniformement en
linterval [0,1]. Llavors (veure (2.28))
1 1
fX (x) = (u(x) u(x 1)) + (x 2).
2 2
Quan una v.a. discreta concentra les seves probabilitats en valors molt elevats sol ser mes pr`actic
tractar-la com si fos contnua. Aix`
o passa, per exemple, a lestudiar la est`
adistica de les poblacions
humanes. Alguns resultats estableixen relacions u tils entre distribucions discretes i contnues, com
ja hem vist al cas exponencial-geom`etrica o com el seg uent resultat.
Exemple 2.10 Un monitor te 10 15 pixels. Cada pixel sil.lumina amb probabilitat p = 0.4.
Quina es la probabilitat P que hi hagin mes de 80 pixels il.luminats?
Com no tenim una expressio compacta per la funcio de distribucio binomial, seria
150
150
P = 0.4k 0.6150k .
k
k=81
23
Aquestes funcions tenen les mateixes propietats que les funcions sense condicionar. En particular,
F va de 0 a 1 i f est`a normalitzada a 1.
Tenim llavors la forma contnua del teorema de Bayes:
P (B | X = x)f (x)
f (x | B) = . (2.26)
P (B | X = x )f (x )dx
es a dir,
Ap`
endix: Demostraci
o del teorema de DeMoivre-Laplace
Volem una expressio asimt`otica de pn (k) = (nk )pk q nk . Per aix` o fem el canvi de variable k =
np + npqx. Considerarem x finit de manera que el lmit n implica tambe k . El smbol
vol dir que el quocient dels dos costats tendeix a 1.
Notem les relacions
k pq k pq
= p + x, 1 = q x.
n n n n
Ara tenim que, fent servir Stirling (N ! 2N N N eN quan N )
n! k nk 2n( ne )n
pn (k) = p q pk q nk
k!(n k)! 2k( ke )n 2(n k)( nk e ) nk
1 nn 1 1
= k nk
pk q nk =
k k (n k) k ( k )k ( 1k/n )nk
2k 1 n 2k 1 n np q
24
La primera part es comporta asimpt`oticament
1 1 1
=
2k 1 k 2np q 2npq
n
1 2 (knp)2
q 2 p 2 = ex = e 2npq .
e pqx n 2 x eqx2 e pqx n 2 x epx2
25
Captol 3
Considerem una variable aleat`oria X amb funcio de densitat fX . Si tenim Y = g(X) on g es una
certa funcio, resulta que Y es una nova variable aleat`oria. (Recordem que X : R. Ara tenim
X g
R R i en termes de composici o de funcions Y = g X.) Ens plantejem trobar les funcions
de distribucio i densitat de Y a partir de les de X.
Fig. 1: Transformaci
o duna v.a.
La funcio g es pot considerar sota dos punts de vista. Per un costat podem pensar que el resultat
de lexperiment X pateix alg un tipus de proces que el transforma en g(X) que es el que nosaltres
observem. Per exemple, podem tenir un senyal electric aleatori del qual el nostre instrumental
nomes ens permet calcular-ne el signe. Llavors, el senyal X pot prendre qualsevol valor real per` o
nosaltres mesurem g(X) = signe(X) que nomes val 1 i 1. Tambe podria ser que detectessim el
senyal despres dalg un tipus de processat amb el que g(X) seria una funcio mes complicada. En
aquest exemple es veu que al fer la mesura final es pot perdre informacio respecte al resultat inicial
X. Aix` o passa quan la funcio g no es injectiva sobre el seu recorregut.
Per una altra part, pot ser que disposem directament de X per`o preferim treballar amb una
altra variable Y = g(X). Si considerem que estem fent un canvi de variable, g ha de ser injectiva
sobre el seu recorregut ja que hem de poder invertir la relacio entre X i Y .
26
Exemple 3.1 Un circuit te tres estats de sortida X = {1, 0, 1} en els que shi troba amb
o de probabilitat de Y = X 2 ?
probabilitats PX (1) = PX (0) = PX (1) = 1/3. Quina es la funci
Tenim Y = {0, 1}. PY (0) = PX (g1 (0)) = PX (0) = 1/3 i PY (1) = PX (g 1 (1)) = PX ({1, 1}) =
2/3.
Per que aquesta probabilitat estigui definida g no pot ser qualsevol funcio. Cal que
a dir, X dom(g).
(1) g estigui definida pels valors que pot prendre X. Es
(2) y sigui un boreli`a per tot y. En aquest cas es diu que g es una funcio de Baire.
Totes les funcions que utilitzem en la pr`actica verifiquen aquestes condicions. Per calcular FY
de manera efectiva hem destudiar en cada cas la forma de g. Una vegada obtinguda FY podem
calcular fY per derivaci
o.
Partirem de la representaci o gr`afica de g. Recorrem leix de les ys i per cada valor observem
la forma de y . Aquest conjunt tindr`a la forma de unio de alguns intervals de les xs el que ens
permet escriure la probabilitat combinant la funcio FX en alguns punts. Considerem diferents tipus
de comportament:
g mon`
otona creixent.
En aquest cas y = (, x] i, per tant, FY (y) = FX (x).
Fig. 2: g mon`
otona.
g mon`
otona decreixent.
En aquest cas y = [x, ) i, per tant, FY (y) = 1 FX (x).
27
Fig. 3: g no mon`
otona.
g no es mon`otona.
En el primer exemple y = [x1 , x2 ] i, per tant, FY (y) = FX (x2 ) FX (x1 ).
En el segon exemple y = (, x1 ] [x2 , x3 ] i, per tant, FY (y) = FX (x3 ) FX (x2 ) + FX (x1 ).
g es constant en un tros.
Linterval [a, b] que te probabilitat finita va a parar a un valor u
nic. La variable que resulta
te comportament discret (mixte).
Fig. 4: g constant.
g es discontnua.
Al recorrer linterval c y d, y resta invariant. Llavors FY resulta constant sobre linterval
[c, d].
Fig. 5: g discontnua.
28
1 1
Exemple 3.2 Sigui X una v.a. de Cauchy amb FX (x) = 2 + arctan x. Considerem Y = g(X)
on g es la funcio de la figura.
Tenim el seg
uent:
Per y 1, FY (y) = 1.
3.3 C`
alcul de la funci
o de densitat
Quan g es derivable a trossos i no es constant en cap tros podem obtenir directament fY sense
calcular pr`eviament la funcio de distribucio.
Lequacio y = g(x) te cap, una o v`aries solucions xi (y). Llavors
1
fY (y) = fX (xi (y)) . (3.3)
|g (xi (y))|
i
29
En lanterior equaci
o posem 0 quan no hi han solucions.
DEM: Per definici o
P (y Y y + y)
fY (y) = lim .
y0 y
Per tant, considerem y > 0 i prou petit per que tinguem
P (y Y y + y) = P (X entre xi i xi + xi )
i
on xi son els valors tals que g(xi ) = y. Notem que xi pot ser negatiu.
Ara calculem
P (X entre xi i xi + xi )
fY (y) = lim
y0 y
i
P (X entre xi i xi + xi ) 1 1
= lim = fX (xi ) .
y0 | xi | y/|xi | | dy/dx |xi
i i
2
Exemple 3.3 X es gaussiana amb fX (x) = 1 ex /2 . Y = X 2.
2
o y = x2 no te soluci
Lequaci o per y negativa. Per y positiva te dues solucions x1 (y) = y i
x2 (y) = y. Com g (x) = 2x, |g (x1 )| = |g (x2 )| = 2 y. Llavors fY (y) = 0 si y < 0 i
1 1 1 1 ey/2
fY (y) = ey/2 + ey/2 =
2 2 y 2 2 y 2y
si y 0.
1
fY (y) = .
1 y2
30
Captol 4
Par`
ametres estadstics
4.1 Esperanca
Lesperanca de la v.a. contnua X es el nombre
E[X] = xfX (x)dx. (4.1)
En el cas discret es
(2) E[1] = 1,
(4) Si g 0, E[g(X)] 0.
DEM:
(1) Considerem una particio de leix real amb punts yi separats per la dist`ancia yi = yi+1 yi .
E[Y ] sobte considerant
S= yi P (yi Y yi + yi )
i
(k)
i prenent el lmit quan les particions son cada vegada mes fines. Si designem xi el conjunt
(k)
de punts tals que g(xi ) = yi , tenim que
(k) (k) (k) (k)
S= g(xi )P (X entre xi i xi + xi )
i k
31
i aquests formen una particio del recorregut de la variable X. Podem estendre aquesta particio
a tot leix afegint parts que tenen probabilitat 0. En el cas de variables contnues, al fer el
lmit trobem
E[Y ] = yfY (y)dy = g(x)fX (x)dx.
El procediment amb que hem construt aquestes integrals consistent en fer la partici o no
en els valors de la variable sino en els de la funci
o dona lloc al que sanomena integral de
Lebesgue. Aquesta te propietats que la fan una eina poderosa en lan`alisi. A efectes pr`actics,
en les aplicacions resulta suficient la integral de Riemann ja que els dos tipus dintegracio
coincideixen en les funcions i conjunts dintegracio mes corrents.
Aquesta propietat es simplement la regla de canvi de variable per integrals. Aix` o es veu
otona creixent amb recorregut (a, b). Llavors fY es nul.la fora
f`acilment en el cas que g es mon`
daquest interval i fent el canvi y = g(x)
b
fX (x)
E[Y ] = yfY (y)dy = yfY (y)dy = g(x) g (x)dx = g(x)fX (x)dx.
a g (x)
Notem tambe que mentres la funci o de densitat sempre es integrable a tot R, lexpressi
o (4.1) pot
no existir. En aquest cas, si la funci o integrada en (4.1) es positiva direm que E[X] = . Si aquesta
funcio conte a`rees positives i negatives infinites direm que lesperanca no existeix. Si fem repeticions
de lexperiment que ens genera X i anem calculant els promitjos aritm`etics dels resultats obtinguts
ens anirem acostant al valor E[X]. Quan lesperanca es infinita aquests promitjos divergiran cap a
infinit. Quan lesperanca no existeix mostraran oscil.lacions irregulars.
4.2 Vari`
ancia
32
(3) V [X] = 2 V [X] per R.
DEM:
(3) Per la propietat (3) de lesperanca, E[X] = E[X] i E[(X)2 ] = E[2 X 2 ] = 2 E[X 2 ].
Utilitzant la propietat (2), queda demostrat.
Lesperanca indica generalment al voltant don es concentren els valors amb probabilitat alta.
La vari`
ancia mesura lamplada daquesta regio. El quadrat a lexpressi
o (4.3) es posa per mesurar
sempre desviacions positives. El seg
uent par`ametre mesura el mateix per`o te comportament li-
neal.
4.3 Desviaci
o est`
andard
= X m.
X (4.5)
= 0, V [X]
Aquesta variable verifica E[X] = 1 i Std[X] = 1.
La variable normalitzada tambe sanomena tipificada o estandaritzada.
Notem que una variable aleat`oria pot tenir dimensions fsiques com, per exemple, longitud,
freq
u`encia o energia. Com les probabilitats son adimensionals, la funci
o de distribucio tambe ho es.
En canvi, si X te dimensi o de densitat te dimensions L1 , lesperanca L, la vari`
o L la funci ancia
L2 i la desviaci
o est`
andard L. Les variables normalitzades no tenen dimensions.
4.5 Par`
ametres de les distribucions usuals
Bernoulli.
m = p, 2 = pq, = pq.
DEM:
m = E[X] = 0 q + 1 p = p.
2 = V [X] = (0 p)2 q + (1 p)2 p = pq.
33
Binomial.
m = np, 2 = npq, = npq.
DEM: En el que segueix considerem p i q variables independents i posem q = 1 p nomes al
final. Una derivaci
o afecta tot el que te a la dreta.
n
n k nk d
m= k p q = p (p + q)n = pn(p + q)n1 = np.
k dp
k=0
n
n k nk d d
E[X 2 ] = k2 p q = p p (p + q)n
k dp dp
k=0
Geom`
etrica.
m = 1/p, 2 = q/p2 , = q/p.
DEM:
d d p p 1
m= n q n1 p = qn p = = 2
= .
n=1
dq n=0
dq 1 q (1 q) p
d d 1+q 1+q
E[X 2 ] = n2 q n1 p = q qnp = 3
p= .
n=1
dq dq n=0
(1 q) p2
1+q 1 q
2 = 2
2 = 2.
p p p
Hipergeom`
etrica.
m = (nb)/N, 2 = nb(N b)(N n)/N 2 (N 1).
DEM: Considerem les igualtats
d
( (1 + x)A )(1 + x)B = A(1 + x)A+B1 ,
dx
d d
( x (1 + x)A )(1 + x)B = A(1 + x)A+B1 + A(A 1)x(1 + x)A+B2 .
dx dx
Si utilitzem el binomi de Newton en totes les pot`encies, trobem les relacions combinat`
ories
A B A+B1
k =A ,
k l n1
k+l=n
A B A+B1 A+B2
k2 =A + A(A 1) .
k l n1 n2
k+l=n
34
b Nb
2 2 k nk
E[X ] = k N
k n
1 N 1 N 2 bn n(n 1)
= N
(b + b(b 1) )= + b(b 1) .
n
n1 n2 N N (N 1)
Poisson.
m = , 2 = , = .
DEM:
k
d k d
m= ke =e = e e = .
k! d k! d
k=0 k=0
k d d
E[X 2 ] = k2 e = e e = e (e + e ) = 2 + .
k! d d
k=0
2 = (2 + ) 2 = .
Uniforme.
m = (a + b)/2, 2 = (b a)2 /12, = (b a)/ 12.
DEM:
b
1 a+b
m= x dx = .
a ba 2
b
1 b2 + ab + a2 b
E[X 2 ] = x2 dx = .
a ba 3
b2 + ab + a2 b (a + b)2 (a b)2
2 = = .
3 4 12
Exponencial.
m = 1/, 2 = 1/2 , = 1/.
DEM:
1 1
m= x ex dx = z ez dz = .
0 0
1 2
E[X 2 ] = x2 ex dx = z 2 ez dz = .
0 2 0 2
2 1 1
2 = 2
2 = 2.
35
Gaussiana.
Els par`ametres m i 2 ja apareixen a la funci
o de densitat normal.
DEM:
(xm)2
1 1 2 /2
E[X] = x e 22 dx = (z + m)ez dz = m.
2 2
(xm)2
1 1 2 /2
E[X 2 ] = x2 e 22 dx = (z + m)2 ez dz
2 2
1 2 /2
= ( 2 z 2 + m2 )ez dz = 2 + m2 .
2
(A les integrals hem fet el canvi z = (x m)/. Sha fet servir que la integral duna funci
o
antisim`etrica en un interval sim`etric es 0.)
V [X] = ( 2 + m2 ) m2 = 2 .
Cauchy.
x
Els par`ametres m, 2 no existeixen ja que la integral x2 +1 dx no existeix.
mn = E[X n ] = xn fX (x)dx, (4.6)
o, en el cas discret
36
Exemple 4.2 Calcular els moments centrals duna variable normal.
n n 1
(xm)2 ( 2)n 2
n = E[(X m) ] = (x m) e 2 dx =
2 z n ez dz
2
xm
(canvi z = ). Ara veiem que
2
0 si n es senar
n = n n
n!
si n es parell
2 2 (n
2
)!
P (| X X | k) 1/k2 . (4.10)
DEM:
2 = (x X)2 fX (x)dx (x X)2 fX (x)dx
|XX|a
37
4.9 Teorema del lmit central
Siguin X1 , X2 , X3 , mesures independents corresponents a una variable aleatoria X desperanca
m i vari`
ancia . El promig
X1 + X2 + + Xn
Yn =
n
es tal que nYn tendeix, per n , a una variable normal desperanca m i vari` ancia .
38
Part II
Variables aleat`
ories multidimensionals
i teoria de lestimaci
o
39
Captol 5
Variables aleat`
ories multidimensionals
o (, a] (, b].
Fig. 1: Regi
5.2 Funci
o de distribuci
o conjunta
La funcio de distribucio conjunta de dues v.a. es la funci
o
40
per tant, la probabilitat de la regio (, x] (, y].
Es,
Les seves propietats s
on:
(3) lim FXY (x, y) = 0, lim FXY (x, y) = 0, lim FXY (x, y) = 1,
x y x,y
(5) P (x1 < X x2 i y1 < Y y2 ) = FXY (x2 , y2 ) FXY (x2 , y1 ) FXY (x1 , y2 ) + FXY (x1 , y1 ) (on
x1 < x2 i y1 < y2 ).
DEM:
5.4 Funci
o de densitat conjunta
Si existeix la derivada
2 FXY (x, y)
fXY (x, y) = (5.3)
xy
on conjuntament contnues i fXY sanomena funci
es diu que X i Y s o de densitat conjunta de les
variables X i Y .
41
Si expressem la propietat (5) de la funcio de distribucio per un rectangle infinitesimal trobem
lexpressio simb`
olica
(1) fXY 0,
DEM: (1) es segueix de la propietat (1) de FXY . (3) i (4) sobtenen posant en (2) A =
(, x] (, y] i A = R2 respectivament. Per demostrar (2) podem dividir A en rectangles cada
vegada mes petits i aplicar (4). Aix` o limita el tipus de conjunt A que podem considerar per`o es
suficient en la pr`
actica i correspon a la integral de Riemann. Per considerar conjunts mes generals
cal passar a la integral de Lebesgue.
x
dFX (x) d
fX (x) = = ( fXY (x , y)dx )dy = fXY (x, y)dy.
dx dx
42
Com es comprova f`acilment, les funcions de densitat marginals i les funcions de probabilitat
marginals estan normalitzades a 1 i constitueixen funcions de densitat i probabilitat unidimension-
als. En un context bidimensional lesdeveniment {x} vol dir realment {x} R. En el cas discret
lesdeveniment {xi } vol dir realment {xi } {y1 , . . . , yn }. Els subndex XY , X, etc. en les funcions
de distribuci o i densitat conjuntes i marginals es poden ometre si es sobreentenen les v.a.s i la
notacio es prou clara.
n n n1 n!
=
n1 n2 n1 !n2 !n3 !
La probabilitat marginal de X1 es
nn1
n n1 n n1 n2 nn1 n2
P (n1 ) = P (n1 , n2 ) = p p2 p3
n2
n1 1 n n2
2 =0
n n1 n n1
= p (p2 + p3 )nn1 = p (1 p1 )nn1 .
n1 1 n1 1
que es de tipus binomial. De manera an`aloga es defineix la distribuci
o multinomial de la qual
les marginals son multinomials dordre menor.
Uniforme.
o uniforme sobre el domini D R2 ve donada per la funcio de densitat:
La distribuci
K si (x, y) D,
f (x, y) = (5.10)
0 altrament.
43
Exemple 5.1 Considerem una distribucio uniforme sobre un cercle de radi a. En aquest cas
D = {(x, y) R2 | x2 + y 2 a2 }. f (x, y) = 1/a2 sobre D. La densitat marginal de X es
a2 x2
1 2
fX (x) = dy = a2 x2
a2 x2 a2 a2
Normal bidimensional.
La distribucio gaussiana es generalitza considerant lexponencial dun polinomi de segon grau
en les variables x i y.
1 (xm1 )2 (xm ) (ym2 ) (ym2 )2
1 { 2 1 + }
2(12 ) 2
1 1 2 2
2
f (x, y) = e (5.11)
21 2 1 2
per < x, y < . Els par`ametres s on les mitjanes < m1 , m2 < , les desviacions
o 1 < < 1.
tpiques 1 , 2 > 0 i la correlaci
5.8 Independ`
encia de variables aleat`
ories
Es diu que les v.a. X i Y s
on independents si per a tot parell A i B de borelians de R
Prenent A = (, x] i B = (, y] tenim que FXY (x, y) = FX (x)FY (y). Fent les derivades
respecte a x i y trobem que si X i Y son independents
44
5.9 Densitat condicionada
La funcio de distribucio de X condicionada a Y = y es
x
fXY (x , y)dx
FX (x | y) = . (5.14)
fY (y)
fXY (x, y)
fX (x | y) = . (5.15)
fY (y)
5.10 Esperan
ca condicionada
Lesperanca de X condicionada a que Y val y es
E[X | y] = xfX (x | y)dx. (5.16)
DEM:
E[X] = xfX (x)dx = x( fXY (x, y)dy)dx
fXY (x, y)
= ( x dx)fY (y)dy = ( xfX (x | y)dx)fY (y)dy.
fY (y)
(5.17) sinterpreta de la seguent manera: per fer lesperanca de X podem fem primer lesperanca
de X condicionada a Y . Aix` o es una v.a. (funci
o de Y ) i lesperanca de X es lesperanca daquesta
variable. Es a dir
45
Exemple 5.2 Generem una v.a. X uniforme a [3, 4] i despres una variable Y exponencial de
par`ametre = X. Calcular la densitat conjunta f (x, y) i les esperances de X i de Y .
Tenim una variable bidimensional (X, Y ) de la que coneixem la distribucio marginal de X i la
distribucio de Y condicionada a X. Aquest es sempre el cas quan generem les dues variables fent
primer una i despres, a partir del resultat daquesta, la segona. Aix, el que coneixem per lenunciat
es f (x) = 1 per 3 x 4 i f (y|x) = xexy per y > 0. La forma de (5.15) que ens interessa es
f (x, y) = f (y|x)f (x). Llavors f (x, y) = xexy per 3 x 4, y > 0.
4
Tambe tenim que E[X] = (3 + 4)/2 = 7/2 i E[Y ] = E[E[Y |X]] = E[1/X] = 3 x1 1dx =
ln(4/3)
(ym2 )
(fent el canvi y z = 2 (xm 1)
1 )
(xm1 )2
2 (xm1 )2
2(12 )1 1
{z 2 2
e
2(12 ) 2
1
}
= e dz
21 1 2
(xm1 )2 (xm1 )2
2 2 (xm1 )2 2
2(12 )1 21
e 2
2(12 )1
e
= e 2(1 2 ) = .
21 1 2 21
Per tant, fent un c`alcul id`entic per fY veiem que les distribucions marginals duna normal
bidimensional son normals unidimensionals desperances m1 i m2 i variances 12 i 22 . A partir
daix`o tenim que la densitat condicionada
f (x, y)
fX (x|y) =
fY (y)
1 (xm1 )2 (xm ) (ym2 ) (ym2 )2
1 { 2 1 +2 }
2(12 ) 2
1 1 2 2
2
= e
21 1 2
(xm ) (ym )
1 1
2(12 )
( 1 2 )2
= e 1 2 .
21 1 2
Novament resulta ser una distribucio gaussiana, ara amb vari`ancia 2 = 12 (1 2 ) i esperanca
1
m = E[X|y] = m1 + 2 (y m2 ).
Notem que X i Y s on independents si i nomes si = 0.
46
per tant, la probabilitat de la regio (, x1 ] (, x2 ] (, xn ].
Es,
Diem que les n variables s
on conjuntament contnues si existeix la funci o de densitat
n FX1 X2 Xn (x1 , x2 , . . . , xn )
fX1 X2 Xn (x1 , x2 , . . . , xn ) = . (5.20)
x1 x2 xn
En aquest cas
x1 xn
FX1 Xn (x1 , . . . , xn ) = fX1 Xn (x1 , . . . , xn )dx1 dxn . (5.21)
Si A es una regio de Rn
Les distribucions marginals sobtenen integrant a tot R algunes de les n variables. Per exemple,
si k < n
fX1 Xk (x1 , . . . , xk ) = fX1 Xn (x1 , . . . , xn )dxk+1 dxn . (5.23)
fX1 X2 Xn (x1 , x2 , . . . , xn )
fX1 X2 Xk (x1 , x2 , . . . , xk | xk+1 , . . . , xn ) = . (5.24)
fXk+1 Xn (xk+1 , . . . , xn )
Les variables X1 , X2 , . . . , Xn s
on independents si
47
Captol 6
Funcions de v`
aries variables aleat`
ories
Considerem una variable aleat`oria bidimensional contnua (X, Y ) amb funcio de densitat conjunta
fXY . Una funcio Z = g(X, Y ) defineix una nova variable aleat`
oria que volem estudiar.
Definim les regions
o de distribucio FZ (z) = P (Z z) es
Llavors, la funci
fX+Y = fX fY . (6.3)
DEM:
FX+Y (z) = fXY (x, y)dxdy = fX (x)fY (y)dxdy
x+yz x+yz
zx
= fX (x)( fY (y)dy)dx.
Derivant respecte al par`
ametre z trobem
fX+Y (z) = fX (x)fY (z x)dx = (fX fY )(z).
48
o 0, z apareixen degut a que la densitat exponencial es nul.la per argument
Els lmits dintegraci
negatiu (x < 0, z x < 0). Igualment, la densitat anterior val 0 per z < 0.
El resultat es singular quan 1 = 2 . En aquest cas recalculem i trobem que (per z > 0)
fZ (z) = 2 zez .
Exemple 6.2 Suma de variables de Poisson independents. En el cas discret tenim que, si Z =
g(X, Y ),
(1 + 2 )n
= e(1 +2 ) .
n!
Per tant, la suma de variables de Poisson independents de par`ametres 1 i 2 es una variable de
Poisson de par`ametre 1 + 2 .
Aquest fet resulta intuitiu ja que si les variables inicials s
on el nombre desdeveniments en
intervals temporals T1 i T2 , llavors la seva suma representa el nombre desdeveniments en un
interval T1 + T2 (recordem = T amb dependent nomes del tipus de fen`omen).
49
Exemple 6.4 Lalcada dels homes i de les dones s on v.a.s normals amb esperances 175cm i 160cm,
i desviacions tpiques 10cm i 9cm respectivament. Es tria un home i una dona a latzar. Quina es
la probabilitat que lhome sigui mes alt que la dona?
Designem H i D aquestes variables. Z = H D es una variable normal desperanca 175-
2 2
160=15cm i vari` a 10 + 9 = 181. La probabilitat que volem es P (Z 0) = 1 FZ (0) =
ncia
1 (1 + erf(15/ 2 181)/2 = 0.5 + 0.5 erf(0.788) = 0.8675.
Z = g(X, Y )
(6.5)
T = h(X, Y )
Quan la transformacio es injectiva diem que estem fent un canvi de variable. En aquest cas
pensem que tenim la mateixa distribuci o de probabilitat expressada en variables diferents.
Recordem la definici
o de determinant jacobi`a
Per calcular aquesta expressio sha dinvertir (5) previament. Tambe es pot calcular considerant
que
1
(x, y) (z, t)
= . (6.7)
(z, t) (x, y)
En qualsevol cas voldrem expresar-lo en termes de les variables z i t. El seu valor absolut ens
dona el canvi de lelement de mesura.
(x, y)
dxdy = dzdt. (6.8)
(z, t)
Quan la transformaci o es injectiva fZT es nul.la en els punts que no son de la imatge. Pels
punts de la imatge considerem la probabilitat de la regi o infinitesimal indicada en la figura.
50
Utilitzant (8) trobem
(x, y)
fZT (z, t) = fXY (x(z, t), y(z, t)) . (6.9)
(z, t)
Exemple 6.5
Z =X +Y
T =X Y
una transformacio bijectiva de R2 (lineal, no singular). La inversa es x = (z + t)/2, y = (z t)/2.
Es
Per tant,
z+t zt 1
fZT (z, t) = fXY (
, ) .
2 2 2
Exemple 6.6 Coordenades polars. Son R = X 2 + Y 2 i = arctan(Y /X). Varien 0 r <
i 0 2.
x = r cos
(6.10)
y = r sin
51
eriques. Partim duna variable tridimensional (X, Y, Z) i fem el
Exemple 6.7 Coordenades esf`
canvi
x = r sin cos
y = r sin sin (6.11)
z = r cos
0 r < , 0 , 0 2.
Apliquem aix`o a la distribucio uniforme en una esfera de radi a. Sobre aquesta esfera f (x, y, z) =
1/ 43 a3 .
En coordenades polars tenim
r2 sin
f (r, , ) = 4 3
3 a
Aquesta densitat es pot calcular tambe de la seg uent manera. La funcio de distribucio de R es
F (r) = P (R r) = r3 /a3 , cocient entre els volums de lesfera de radi r i de tota lesfera. Per tant
f (r) = dF (r)/dr = 3r 2 /a3 .
cos r sin 0
(x, y, z)
= sin r cos 0 = r.
(r, , z)
0 0 1
Els canvis de variable es fan segons les simetries que tingui la distribucio que estem utilitzant.
Quan es fa un canvi cal vigilar no nomes com varia la forma funcional de la densitat sino tambe com
es transformen les possibles regions de frontera que tinguem. El canvi que hem fet en la uniforme
sobre una esfera no hagues servit de res en la uniforme sobre un cub ja que la frontera del cub te
una expressi
o complicada en esf`eriques. En aquest cas les variables cartesianes son les mes naturals.
Algun tipus de funcions pot requerir un tractament una mica particular com es veu en el seg uent
exemple.
52
Exemple 6.9 (Funcions m` axim i mnim)
Donades dues variables contnues independents X i Y es tracta de trobar les propietats marginals
i conjuntes de les variables U = min(X, Y ) i V = max(X, Y ).
Comencem per les marginals.
= FXY (v, v) (FXY (v, v) FXY (u, v) FXY (v, u) + FXY (u, u))
= FXY (u, v) + FXY (v, u) FXY (u, u)).
Derivant arribem a
fXY (u, v) + fXY (v, u) si u < v
fUV (u, v) =
0 si u > v
El resultat anterior val encara que X, Y no siguin independents. Si ho son, fU V (u, v) = fX (u)fY (v)+
fX (v)fY (u) per u < v.
53
Captol 7
Par`
ametres estadstics de v`
aries v.a.s
7.1 Esperanca
Donades dues v.a. X i Y amb funcio de densitat conjunta f (x, y) considerem la nova v.a. Z =
g(X, Y ). Llavors lesperanca de Z verifica
Llavors
E[Z] = zfZ (z)dz = lim zi P (zi Z zi + zi )
zi
7.2 Covari`
ancia
54
7.3 Coeficient de correlaci
o
C[X, Y ]
= . (7.6)
X Y
Verifica
| | 1. (7.7)
DEM:
Sigui un par`ametre real. Llavors
E[((X X) + (Y Y ))2 ] = 2 X
2
+ 2C[X, Y ] + Y2 0
55
7.4 Moments conjunts
Els moments conjunts de les variables X i Y son
2 , = 2 , etc.
Els primers son 00 = 1, 10 = 01 = 0, 11 = C[X, Y ], 20 = X 02 Y
7.5 Ortogonalitat
on variables aleat`ories ortogonals si E[XY ] = 0. En aquest cas escrivim X Y .
Diem que X i Y s
7.6 Incorrelaci
o
Diem que X i Y s
on variables aleat` equivalent a dir C[X, Y ] = 0 o
ories incorrelades si = 0. Es
E[XY ] = X Y .
X i Y incorrelades (X X) (Y Y ).
X i Y incorrelades V [X + Y ] = V [X] + V [Y ].
X i Y independents X i Y incorrelades.
DEM:
La primera es evident a partir de (7.4). La segona prove de la relaci
o general
= xfX (x)dx yfY (y)dy = X Y .
Amb una demostracio an`aloga veiem que en el cas de variables independents E[g(X)h(Y )] =
E[g(X)]E[h(Y )]. Per variables incorrelades aixo nomes es verifica en general per g i h iguals a la
funcio identitat. Un cas especial en son les variables gaussianes per les que ja sha vist que si son
incorrelades llavors s
on independents.
56
Exemple 7.2 Ja shan vist alguns resultats sobre variables gaussianes. Completem ara el seu
estudi.
Primer, demostrem que, efectivament, la constant que apareix en la densitat es el coeficient
de correlaci
o. Per evitar calcular integrals bidimensionals utilitzem els resultats ja coneguts:
1
E[XY ] = E[E[XY |Y ]] = E[E[X|Y ]Y ] = E[(m1 + (Y m2 ))Y ]
2
1 1 1 1
= (m1 m2 )E[Y ] + E[Y 2 ] = (m1 m2 )m2 + (22 + m22 ) = m1 m2 + 1 2
2 2 2 2
don sobte inmediatament el resultat.
Ara, trobem una parametritzacio convenient per una variable bidimensional gaussiana ar-
inmediat veure que si X es normal, qualsevol variable de la forma aX + b es normal.
bitr`aria. Es
Si X i Y s on variables gaussianes amb esperances mX , mY , vari`
ancies X , Y , llavors les variables
(X mX )/X , (Y mY )/Y s on normals amb esperanca 0 i vari`ancia 1. Considerem les noves
variables
Z = Xm
X
X
+ Y m
Y
Y
XmX Y mY
T = X Y
que s
on normals desperanca 0 i verifiquen
X mX 2 Y mY 2 X mX Y mY
V [Z] = E[Z 2 ] = E[( ) ] + E[( ) ] + 2E[ ] = 2(1 + ),
X Y X Y
V [T ] = 2(1 ),
X mX 2 Y mY 2
E[ZT ] = E[( ) ] E[( ) ] = 0,
X Y
don veiem que son incorrelades. Aix, unes coordenades especialment u
tils per treballar amb la
variable bidimensional (X, Y ) son
U= 1 ( Xm
X
X
+ Y m
Y )
Y
2(1+)
V = 1
( Xm
X
X
Y mY
Y )
2(1)
U, V s
on variables normals estandaritzades independents.
Notem que
2 2
eu /2 ev /2 1 (u2 +v2 )/2
fU V (u, v) = fU (u)fV (v) = = e .
2 2 2
A lefectuar el pas a les variables X, Y es recupera la densitat normal (5.11).
57
Captol 8
Estimaci
o de variables aleat`
ories
El procediment a seguir per estimar la v.a. Y es fixar un tipus destimacio c i minimitzar per
a finalment min . c sanomena estimador.
determinar del tot c. Lerror associat a lestimacio ser`
Exemple 8.1 Lexperiment consisteix en seleccionar una persona a latzar. La variable Y que ens
interessa estimar es lalcada daquesta persona. La seq u`encia de valors Yi consisteix en mesurar
les alcades de v`
aries persones triades a latzar, aix
o es, fer un mostreig estadstic. Senten que no
coneixem la distribucio que segueix Y per`o notem que al fer-ne un mostreig podem avaluar amb
prou precisio els seus par` ametres com lesperanca o la desviaci o tpica. Les variables Xi podrien
correspondre al sexe, edad, pes, color dels ulls, etc. La idea es avaluar lalcada de la persona
coneixent, per exemple, el seu pes.
Darrera lestimacio hi han dos possibles objectius. Un es fer realment una prediccio dun
resultat abans que aquest es produeixi. Per exemple, predir cotitzacions a la borsa. En aquest cas
58
les variables Xi serien els indicadors econ`omics que si que coneixem. Laltre objectiu, relacionat
clar que no hi ha una relacio
amb lanterior, es establir relacions entre magnituds aleat`ories. Es
funcional fixa entre el pes i lalcada de les persones. El m`axim que podem conseguir es tenir
una bona estimacio duna magnitud coneguda laltra. A vegades el problema es trobar variables
apropiades per fer lestimacio. Per exemple, en medicina quan es vol establir lorigen o els factors
de risc duna malaltia.
8.2 Estimaci
o per una constant
Estimem Y per c constant. La millor estimaci
o es c = E[Y ] i min = V [Y ].
DEM:
= (c E[Y ])2 + V [Y ],
que es minimitza quan c E[Y ] = 0.
8.3 Estimaci
o no lineal
o es c(x) = E[Y |x].
Estimem Y per c(X) funcio a determinar de la v.a. X. La millor estimaci
DEM:
= (y c(x))2 f (x, y)dxdy = ( (y c(x))2 f (y|x)dy)f (x)dx
R2
= (c(x)2 2E[Y |x]c(x) + E[Y 2 |x])f (x)dx
= ((c(x) E[Y |x])2 + V [Y |x])f (x)dx.
Com f (x) 0 la integral es minimitza si c(x) E[Y |x] = 0. Lerror mnim val V [Y |x]f (x)dx.
X i Y s
on independents. Llavors E[Y |x] = E[Y ] i c(x) = E[Y ] que es una constant.
En el primer cas, la informacio donada per X es irrellevant per estimar Y . Per exemple, tractar
destimar lalcada mitjancant el color dels ulls. En el segon, X determina completament Y . Per
exemple, estimar ledat a partir de lany de naixement. En la pr`actica, ens interessen els casos
intermitjos on X dona informacio rellevant sobre Y per`o no la determina.
59
8.4 Estimaci
o lineal
Estimem Y per aX + b on a i b s
on constants. La millor estimaci
o ve donada per
Y Y
a= , b = mY mX , min = Y2 (1 2 ). (8.2)
X X
La recta y = ax + b sanomena recta de regressi
o.
DEM:
= E[(Y (aX + b))2 ] = E[((Y aX) b)2 ].
Aix b ha de ser la millor estimacio constant de Y aX. Per tant b = E[Y aX] = mY amX .
Ara tenim
= E[((Y mY ) a(X mX ))2 ] = a2 X2
2aC[X, Y ] + Y2
= a2 X
2
2aX Y + Y2 = (aX Y )2 + Y2 (1 2 ),
que es minimitza quan aX Y = 0.
Un es pot preguntar per que fer lestimacio lineal si la no lineal d
ona un error mes petit. Un
motiu es que lestimacio no lineal exigeix coneixer la distribuci
o conjunta de X i Y mentres que
la lineal fa servir nomes els par`ametres mes b`asics. Tambe cal notar que en el cas de variables
normals lestimacio no lineal coincideix amb la lineal (veure lexemple 5.3).
Aquesta operacio es bilineal, sim`etrica, definida positiva i no degenerada. Constitueix, per tant,
un producte escalar en aquest espai vectorial. De fet, aquesta construccio es incorrecta ja que una
variable aleat`
oria pot no tenir esperanca. Ens restringirem, per tant, a variables per les quals les
operacions considerades existeixen. Aix o vol dir treballar en un espai vectorial mes petit.
Si tota la informacio generada per un experiment queda ben codificada en una variable n-
dimensional (X1 , X2 , . . . , Xn ), lespai de variables aleat`ories es pot considerar definit com un espai
de funcions Z = g(X1 , X2 , . . . , Xn ). La restricci o que considerem s on les de quadrat mesurable,
es a dir, aquelles per les que existeix E[Z ]. 2
El producte escalar (8.3) ens defineix una norma Z =< Z, Z >1/2 . Lerror quadr`atic que
consideravem es precisament = Y c(X) 2 . Per tant, podem usar t`ecniques dels espais euclidians
quan c(X) correspon a alguna varietat lineal.
La forma general de lestimaci o lineal es
c = a1 X1 + a2 X2 + + an Xn , (8.4)
on ai son constants i Xi son variables aleat`ories. Quan considerem nomes una v.a. fonamental a
part de Y lestimacio lineal pren la forma
on gi s
on funcions fixades.
60
Aix, c(X) descriu un hiperpl`a H, la millor estimacio es lelement daquest hiperpl`
a mes proper
a Y i lerror es la dist`
ancia (al quadrat) entre Y i H.
Fig. 1: Estimaci
o lineal.
Com se sap, la millor estimacio ve donada per la projeccio de Y sobre H. Si aquesta projeccio
es c(X) tindrem que Y c(X) es ortogonal a H. Per tant, (Y c(X)) gi (X), i = 1, . . . , n. Hem
arribat aix al principi dortogonalitat (lerror es ortogonal a les dades)
< gi (X), Y c(X) >= 0 i = 1, . . . , n. (8.6)
Aquest es un sistema dequacions lineals que podem escriure
E[gi (X)c(X)] = E[gi (X)Y ] i = 1, . . . , n. (8.7)
La solucio daquest sistema ens dona els valors de ai .
61
Finalment cal notar que per calcular lerror mnim
ja que la segona esperanca es nul.la. Notem tambe que min = E[Y 2 ] E[c2 ] (Pit`agoras.)
62
Part III
Processos estoc`
astics
63
Captol 9
Introducci
o als processos estoc`
astics
9.1 Definici
o de proc
es estoc`
astic
Parlem de variables aleat`ories quan el resultat dun experiment aleatori es un o mes nombres reals
(v.a. unidimensional o multidimensional). Un proces estoc` astic es quan el resultat de lexperiment
es una funcio.
Anomenem X(t) a aquesta funcio. Es corrent, donat el tipus daplicacions que es consideren,
interpretar t com el temps. Si t varia sobre tot un interval real (potser indefinit) diem que el proces
es a temps continu. Si nomes considerem un conjunt numerable de valors ti , la funci o constitueix
una sequ`encia Xi = X(ti ) i diem que el proces es a temps discret.
Un proces a temps discret apareix quan es quantitza el temps en un proces a temps continu. En
aquest cas, el temps entre valors consecutius de ti acostuma a ser un valor t petit que sanomena
interval de mostreig. El valor Xi sol ser el senyal continu X(t) promitjat en linterval [ti , ti + t].
En el que segueix, els processos son a temps continu mentre no es digui el contrari.
Fixat un valor t, X(t) es una variable unidimensional ordin` aria. Com generalitzar el concepte
de funcio de densitat al cas en que els valors de la variable son funcions es complicat, sacostuma
a pensar un proces estoc`astic com una v.a. que te un ndex continu.
En moltes aplicacions el proces X(t) representa algun tipus de senyal el`ectric i, per tant, es
representa mes c`omodament amb un nombre complex. Si X(t) i Y (t) son processos reals, diem que
Z(t) = X(t) + jY (t) es un proces estoc`
astic complex.
Un proces estoc`
astic (PE) tambe sanomena proces aleatori.
Exemple 9.1 Moviment browni`a. Sobserva que, en una mostra daigua en rep`os, una p`etita
partcula (per exemple de pol.len) en suspensio efectua un moviment molt irregular. Aquest movi-
ment es degut a les fluctuacions degudes al moviment de les mol`ecules daigua que lenvolten. Les
coordenades de la partcula X(t), Y (t) i Z(t) son processos estoc`astics.
Exemple 9.2 El consum el`ectric duna gran ciutat al llarg dun dia es un proces C(t), 0 t 24.
El seu car`acter aleatori prove del fet que es la suma de moltes petites contribucions aleat`
ories (els
consums individuals).
Exemple 9.4 X es una v.a. uniforme en [0, 1]. El seu desenvolupament decimal X = 0.b1 b2 b3 . . .
es un proces discret bi .
64
Hem de pensar que, en general, les funcions resultants en un PE son molt irregulars. En aquest
sentit lexemple 9.3 resulta artificial. Encara que per fer c`
alculs il.lustratius considerarem funcions
regulars que contenen par`ametres aleatoris com exemple de PE, les mostres mes genunes venen
donades pels tipus dels exemples 9.1 i 9.2.
f (x1 ; t1 ) = f (x1 , x2 ; t1 , t2 )dx2 , (9.3)
etc.
Les funcions (9.1) i (9.2) son sim`etriques sota permutacions dels ndexos. A vegades es fixa
t1 t2 . . . tn .
Autocorrelaci
o:
R(t1 , t2 ) = E[X(t1 )X(t2 )] = x1 x2 f (x1 , x2 ; t1 , t2 )dx1 dx2 . (9.5)
65
Autocovari`
ancia:
Notem que C i R son funcions sim`etriques sota intercanvi t1 t2 Si C(t1 , t2 ) = 0, sempre que
t1 = t2 , es diu que el proces es incorrelacionat o de soroll blanc.
La pot`encia promig es la funci o
Exemple 9.5 Considerem el proces X(t) = V cos(t+) on est`a fixat, V es una v.a. exponencial
de par`ametre 1/V0 i es una v.a. uniforme en [0, 2], V i independents.
El seu valor mitj`
a es
2
d
m(t) = E[V cos(t + )] = E[V ]E[cos(t + )] = V0 cos(t + ) = 0.
0 2
Lautocorrelaci
o es
Es lexponencial dun polinomi de segon grau en les variables x1 , x2 , . . . , xn . Com notacio hem
posat x = (x1 , x2 , . . . , xn ), m = (m1 , m2 , . . . , mn ) i A es una matriu n n. m i A s on par`ametres
de la distribucio gaussiana. En el cas dun PE aquests par`ametres depenen dels ti .
Determinem a continuacio el significat de m i A. Per aix` o es convenient fer un canvi de variable
que simplifiqui lexpressi o (9.8).
Com lexponent de (9.8) es i,j Aij (xi mi )(xj mj ) podem prendre la matriu A sim`etrica.
Perque la densitat sigui normalitzable A ha de ser definida positiva. Com se sap de la teoria dope-
radors en espais euclidians, tota matriu sim`etrica te tots els seus valors propis reals i diagonalitza
en una base ortonormal. Aix, existeix una matriu diagonal Ad = diag(a1 , a2 , . . . , an ) i una matriu
ortogonal de canvi de base P (P 1 = P T ) tals que
Ad = P AP T .
66
1/2
Els valors propis ai > 0 ja que A es definida positiva. Aix, podem considerar la matriu Ad =
1/2
diag( a1 , a2 , . . . , an ). Definint B = Ad P tenim que
1/2 1/2 1/2 1/2
A = P T Ad P = P T Ad Ad P = (Ad P )T Ad P = B T B,
Amb n = 2 i = t1 trobem
En general les funcions de densitat depenen nomes de les difer`encies entre els temps ti .
Un PE es diu que es estacionari en sentit ampli si el seu valor mitj` a es constant i la seva
autocorrelaci
o depen nomes de la dist`
ancia temporal considerada.
m(t) = m,
67
R(t1 , t2 ) = R(t1 t2 ). (9.12)
DEM: Si el proces es estacionari en sentit ampli tenim que C(ti , tj ) = R(tj ti ) m2 dep`en
nomes de les difer`encies de temps. Com tota lest` adistica del proces normal queda determinada en
(9.8) per m i C(ti , tj ) la distribucio es invariant sota el canvi (9.9).
Una caracterstica de molts PE (estacionaris) es que
lim C( ) = 0. (9.13)
| |
De fet, hem vist a lexemple 9.5 que (9.13) pot no complir-se. Per`o en lexemple 9.1 veiem que
la condicio resulta plausible ja que, al ser el moviment continu, per petits increments de temps
les posicions estan molt correlacionades. Per increments temporals grans la partcula oblida la
posici
o inicial i tenim (9.13).
Existeix tambe una versi o estadstica de la periodicitat. Es diu que X(t) es un PE cicloesta-
cionari en sentit estricte si la seva distribucio de probabilitat es peri`
odica sota translacions tem-
a dir, existeix T > 0 fixat tal que per a tot k Z
porals. Es
m(t + kT ) = m(t),
Notem que un PE on les variables X(ti ) siguin sempre independents ens dona una funci o
absolutament aleat`oria que difcilment modelar`a un fen`omen real. Per una altra part, tampoc
les funcions tan regulars com les de lexemple 9.5 son les que ens interessen. Un PE sol ser
massa complicat perque sigui possible manipular directament les funcions X(t). El que caracteritza
on les funcions com m(t) i C(t1 , t2 ).
realment el proces s
68
Captol 10
Donat un PE, si X(t) es una v.a. discreta diem que el proces es destat discret. An` alogament, si
X(t) es una v.a. contnua diem que els proces es destat continu. Lexemple mes important de PE
destat discret es el proces de Poisson que estudiem a continuacio.
10.1 El proc
es de Poisson
Considerem que a mesura que passa el temps es van produint una s`erie desdeveniments id`entics de
manera aleat` oria. Per exemple, rebre trucades en una centraleta telef`onica, arribar vehicles a una
gasolinera o desintegrar-se partcules radioactives. Suposem que els esdeveniments es produeixen de
manera independent. Prendrem sempre temps positius comencant a contar en t = 0. Indiquem per
n(t) el nombre desdeveniments que shan produt en linterval [0, t]. El nombre desdeveniments
en un interval [ta , tb ] es n(ta , tb ) = n(tb ) n(ta ).
Diem que el proces es de Poisson si
El nombre desdeveniments en dos intervals temporals disjunts son variables aleat`ories inde-
pendents.
Aix`
o implica que la v.a. N = n(ta , tb ) te la funci
o de probabilitat
n
P (N = n) = e , (10.1)
n!
69
on = (tb ta ) i n = 0, 1, . . . .
El PE de Poisson consisteix en prendre com a funci
o el nombre total desdeveniments produts
en linterval [0, t]:
X(t) = n(t).
(t)n
P (X(t) = n) = et . (10.2)
n!
Es diu que el proces de Poisson es no homogeni quan dep`en de t. Nomes considerarem el cas
homogeni on es constant.
Recordem que la variable (10.2) verifica E[X(t)] = V [X(t)] = t. Llavors, pel proces de Poisson
m(t) = t, (10.3)
t1 + 2 t1 t2 si t1 t2
R(t1 , t2 ) = (10.4)
t2 + 2 t1 t2 si t1 t2
70
10.2 Senyal telegr`
afic aleatori
Considerem la variable de Poisson n(t). El senyal telegr`
afic semialeatori es el proces
1 si n(t) es parell
X(t) = (10.5)
1 si n(t) es senar
Aix, X(0) = 1 i canvia de signe cada vegada que es produeix un esdeveniment. La seva funci
o
de probabilitat es
(t)2
P (X(t) = 1) = P (n(t) = 0) + P (n(t) = 2) + = et (1 + + ) = et cosh t.
2!
(t)3
P (X(t) = 1) = P (n(t) = 1) + P (n(t) = 3) + = et (t + + ) = et sinh t.
3!
El valor mitj`
a es
Lautocorrelaci
o es
Aquest PE sanomena semialeatori perque hem fixat X(0). El PE de senyal telegr`afic aleatori
es
DEM:
E[Y (t)] = E[S]E[X(t)] = 0.
E[Y (t1 )Y (t2 )] = E[S 2 ]E[X(t1 )X(t2 )] = e2|t2 t1 | .
71
10.3 Tren dimpulsos de Poisson
Sigui X(t) un PE de Poisson. El tren dimpulsos associat a ell es el proces
d
Z(t) = X(t). (10.8)
dt
Si els esdeveniments es produeixen en els instants t1 , t2 , . . . , podem representar X i Z com
Z(t) = (t ti ), (10.10)
i
(10.10) representa un tipus de soroll de naturalesa impulsiva (shot noise). Els seus valor mitj`a,
autocorrelaci
o i autocovari`
ancia s
on:
m(t) = , (10.11)
DEM:
d d d
m(t) = E[Z(t)] = E[ X(t)] = E[X(t)] = (t) = .
dt dt dt
d d d2
R(t1 , t2 ) = E[Z(t1 )Z(t2 )] = E[ X(t1 ) X(t2 )] = E[X(t1 )X(t2 )]
dt dt dt1 dt2
d2
= (2 t1 t2 + min(t1 , t2 )) = 2 + (t1 t2 ),
dt1 dt2
ja que
min(t1 , t2 ) = t1 u(t2 t1 ) + t2 u(t1 t2 ),
d
min(t1 , t2 ) = t1 (t2 t1 ) + u(t1 t2 ) t2 (t1 t2 ) = u(t1 t2 ) (t2 t1 )(t2 t1 ) = u(t1 t2 ),
dt2
d2
min(t1 , t2 ) = (t1 t2 ).
dt1 dt2
72
Notem que els processos de senyal telegr` afic aleatori i el tren dimpulsos de Poisson son esta-
cionaris en sentit ampli (veure 10.7,10.11,10.12) mentres que el propi proces de Poisson o`bviament
no es estacionari. El fet es que larribada de fenomens tipus Poisson es estrictament estacion` aria
(lorigen de temps es arbitrari) i aix`o es el que es manifesta en alguns processos derivats daquesta
situacio.
10.4 Distribuci
o dels temps en el proc
es de Poisson
En un proces de Poisson X(t) els esdeveniments es produeixen en els instants t1 , t2 , t3 , . . . . Con-
siderem les v.a.s T1 , T2 , T3 , . . . associades a aquests instants. La densitat de cadascuna delles es,
per a t 0:
(t)n1 t
fTn (t) = e . (10.13)
(n 1)!
DEM:
(t)n1
FTn (t) = P (Tn t) = P (X(t) n) = 1 P (X(t) < n) = 1 et (1 + t + + ),
(n 1)!
d t (t)n1
fTn (t) = e (1 + t + + )
dt (n 1)!
(posem = t)
d n1
= e (1 + + + )
d (n 1)!
n1 n2
= [e (1 + + + ) + e (1 + + + )]
(n 1)! (n 2)!
n1
= e .
(n 1)!
En particular, notem que fT1 (t) = et . Es a dir, T1 es exponencial de par`
ametre .
La distribucio conjunta de (T1 , T2 , . . . , Tn ) ve donada per la densitat:
DEM:
Les funcions que considerarem seran 0 quan no es verifiqui 0 t1 < t2 < < tn < .
Calculem primer la distribucio condicionada
73
per a tk tk1 .
Ara factoritzem la densitat conjunta a partir de les marginals i les condicionades:
= f (tn |t1 , t2 , . . . , tn1 )f (tn1 |t1 , t2 , . . . , tn2 ) f (t3 |t1 , t2 )f (t2 |t1 )f (t1 )
= e(tn tn1 ) e(tn1 tn2 ) e(t2 t1 ) et1 = n etn .
Considerem ara les variables que ens donen el temps entre esdeveniments consecutius:
1 = T1 , 2 = T2 T1 , . . . , n = Tn Tn1 , (10.15)
per a i 0, i = 1, . . . n.
DEM:
o 0 t1 < t2 < < tn < correspon a 1 , 2 , . . . , n 0. La transformaci
La regi o (10.15) es
bijectiva entre aquestes regions i el seu determinant jacobi`a val 1. Aix la densitat sobte substituint
(10.15) en (10.14) que ens dona (10.16).
En (10.16) veiem que els temps entre esdeveniments successius i = Ti Ti1 son variables
exponencials independents. Aix Tn = 1 + 2 + + n es la suma de n v.a.s exponencials
independents.
Un proces daquest tipus pot representar la informacio que conte un arxiu inform`atic. Per trans-
portar aquesta informaci o mitjancant un medi electromagn`etic (per exemple, una lnea telef`
onica)
resulta mes u
til transformar el proces (10.17) en
74
on = 2P es la freq
u`encia portadora i
/2 si B(t) = 1
(t) = (10.19)
/2 si B(t) = 0
on est`a fixada i (A, B) es una v.a. bidimensional. Tenim que (10.20) es estacionari
DEM:
Si (10.20) es estacionari en sentit ampli
Per veure quan es estacionari en sentit estricte utilitzem coordenades polars A = R cos ,
B = R sin . Llavors X(t) = R cos( t).
Si el proces es estacionari en sentit estricte la v.a. bidimensional (X(t), X(t + /2)) te
la mateixa distribucio per a tot t. En t = 0 i t = / tenim les variables (R cos , R sin ) i
(R cos( ), R sin( )) respectivament. En polars corresponen a (R, ) i (R, ). Aix, la
funcio de densitat no pot dependre de , es a dir, tenim simetria circular.
Inversament, si tenim simetria circular, el canvi + t1 deixa totes les distribucions
invariants. Per tant la distribucio conjunta de la v.a. (X(t1 ), X(t2 ), . . . , X(tn )) es id`entica a la de
(X(0), X(t2 t1 ), . . . , X(tn t1 )) que es invariant sota translacions temporals.
75
Captol 11
Processos estacionaris
Si nomes ens interessa lexist`encia del lmit i no el seu valor podem utilitzar el criteri de Cauchy
que diu que f (X(t), ) convergeix en MQ si
Notem que el resultat del lmit l es en general una v.a. Llavors es verifica que lesperanca del
lmit es el lmit de lesperanca
DEM: (E[l] E[f (X(t), )])2 = E[l f (X(t), )]2 E[(l f (X(t), ))2 ] 0
Aix`o vol dir que fixat t quasi totes les realitzacions del proces s
on contnues en t. Per`o donada
una realitzacio aquesta pot tenir diferents punts de discontinuitat. La propietat (11.4) equival a
76
lmit de les seves sumes de Riemann quan les particions de linterval son cada vegada mes fines.
Direm que la integral dun PE sobre linterval [a, b] val I si
DEM:
Suposem que (11.7) existeix i utilitzem el criteri de Cauchy. Considerem dues particions, la
primera indexada amb i o i i la segona amb j o j
b
a X(t)dt es una variable aleat`
oria. De la linealitat de lesperanca i de (11.3) es pot concloure
la propietat
b b
E[ X(t)dt] = E[X(t)]dt, (11.8)
a a
que ser`
a ampliament utilitzada en el que segueix.
Deixem de banda la consideraci o dels aspectes analtics fins de les anteriors definicions i ressaltem
tan sols que les propietats dun PE solen determinar-se a partir del comportament de les funcions
de valor mitj`a i dautocorrelaci
o.
Exemple 11.1 El seg uent cas presenta una aparent paradoxa. Sigui el proces X(t) = teY t on Y
es una variable aleat`oria uniforme en [0, 1]. Resulta que totes les seves realitzacions verifiquen
lim Xi (t) = 0
t
tendeix a 1 en linfinit.
La discrep`ancia es deu a que el proces no tendeix a zero en MQ. En efecte,
t
lim E[(X(t) 0)2 ] = lim E[t2 e2yt ] = lim (1 e2t ) = .
t t t 2
Aix, si promitgem moltes realitzacions del proces, sobtenen valors mes alts per ts mes elevats. El
missatge es que no shan delevar les propietats de les realitzacions a propietats estadstiques sense
verificar-ho.
77
11.2 Ergodicitat
Sigui X(t) un PE estacionari amb valor mitj`a m(t) = m i funcio dautocorrelaci
o R(t, t+ ) = R( ).
Per calcular m podriem fer moltes realitzacions del proces i avaluar
n
1
m = lim Xi (t). (11.9)
n n
i=1
En el que segueix estarem interessats en evaluar els par` ametres del proces no a traves de
promitjos sobre moltes realitzacions sino fent promitjos temporals duna sola realitzacio. El promig
temporal del proces es
T
1
mT =< X(t) >T = X(t)dt. (11.10)
2T T
Ergodicitat en autocorrelaci
o.
X(t) es erg`
odic en autocorrelaci
o si el PE Z (t) = X(t + )X(t) es erg`
odic en valor mitj`
a.
En aquest cas els promitjos temporals de Z (t) ens donen lautocorrelacio de X(t).
Notem que
T T
1
T2 = C(t1 , t2 )dt1 dt2 . (11.12)
4T 2 T T
DEM:
T
1
T2 = E[(mT m)2 ] = E[( (X(t) m)dt)2 ]
2T T
T T
1
= E[(X(t1 ) m)(X(t2 ) m)]dt1 dt2 ,
(2T )2 T T
o integrada es C(t1 , t2 ).
i la funci
78
Degut a que considerem processos estacionaris, lexpressio (11.12) es pot posar com
2T
1 | |
T2 = C( )(1 )d. (11.13)
2T 2T 2T
DEM:
Fem el canvi de variable
= t1 t2
= t1
que te jacobi`
a 1 i transforma la regio dintegracio segons el dibuix:
T T 0 T + 2T T
C(t1 , t2 )dt1 dt2 = ( C( )d)d + ( C( )d)d
T T 2T T 0 T +
0 2T 2T
= C( )(2T + )d + C( )(2T )d = C( )(2T | |)d.
2T 0 2T
2T 2T
1 | | 1
C( )(1 )d C( )d 0
2T 2T 2T 2T 2T
quan T .
79
Aix
a
T2 <
C(0) + 2 2
T
o val per a tot , ha de ser T2 0 quan T .
quan T . Com aix`
Exemple 11.3 Estudiar lergodicitat del senyal telegr`afic aleatori i del shot noise amb els anteriors
criteris.
Pel senyal telegr` afic C( ) = e2| | que te integral finita (= 1/). Segons el primer criteri, es
erg`odic en valor mitj` a. El mateix es conclou amb el segon criteri ja que C(0) = 1, finit, i C(t)
sanul.la en linfinit.
Pel shot noise C( ) = ( ) que te integral finita (= ). Segons el primer criteri, es erg`odic en
valor mitj`a. El segon criteri no es pot aplicar ja que C(0) = .
Com S() = S () = S(), S() es una funcio parell. Recordem que la pot`encia promig era
1
R(0) = S()d, (11.16)
2
80
11.5 Sistemes lineals
Considerem un PE X(t). Igual que una variable aleat` oria X dona lloc a noves variables fent
transformacions del tipus Y = g(X), podem transformar el proces X(t) per obtenir el nou PE Y (t).
Diem L a aquesta transformacio que anomenarem sistema i escribim Y (t) = L[X(t)]. Gr`aficament
ho pensem com un objecte que rep una entrada X(t) i torna una sortida Y (t).
Un sistema es determinista si fixada la realitzacio de X(t) que entra, la sortida queda ja de-
terminada. Si, pel contrari, una mateixa entrada pot donar lloc a sortides diferents diem que el
sistema es estoc`
astic. En el que segueix nomes considerem sistemes deterministes.
Un sistema es sense mem` oria si el valor de Y (t) per cada t dep`en exclusivament del valor de
X(t) pel mateix t.
Un sistema es lineal si
81
11.6 Valor mitj`
a, autocorrelaci
o i espectre de pot`
encia dun PE
transformat linealment
Un proces estoc` astic X(t) es caracteritza principalment per les funcions valor mitj`a m(t) i auto-
correlacio R(t1 , t2 ). Si tenim altres processos definim en general la funci
o de correlaci
o de X(t) i
Y (t)
o de X(t) sescriu ara RXX (t1 , t2 ). Tambe indicarem el seu valor mitj`
La funcio dautocorrelaci a
mX (t). Loperacio L es fa sempre sobre funcions duna variable. Quan el seu argument te dues
variables posem L1 o L2 per indicar que considerem la funcio de la variable t1 o t2 deixant laltra
com a par`ametre.
El seg
uent resultat indica com obtenir els par`ametres de Y (t) = L[X(t)] a partir dels de X(t).
DEM:
mY (t) = E[L[X(t)]] = E[ h(t )X( )d ] = h(t )E[X( )]d
= h(t )mX ( )d = (h mX )(t) = L[mX (t)].
RXY (t1 , t2 ) = E[X(t1 )Y (t2 )] = E[X(t1 ) h(t2 )X( )d ] = h(t2 )E[X(t1 )X( )]d
= h(t2 )RXX (t1 , )d = L2 [RXX (t1 , t2 )].
RY Y (t1 , t2 ) = E[Y (t1 )Y (t2 )] = E[ h(t1 )X( )d Y (t2 )] = h(t1 )E[X( )Y (t2 )]d
= h(t1 )RXY (, t2 )d = L1 [RXY (t1 , t2 )].
H() = h( )ei d. (11.26)
82
Llavors tenim el seg
uent resultat:
Abans de demostrar-ho recordem el teorema de convolucio. Si les funcions f (t) i g(t) tenen les
o (f g)(t) te transformada
transformades de Fourier F () i G() llavors el seu producte de convoluci
de Fourier F ()G(). Tambe tenim que f (t) es transforma en F ().
DEM:
Lespectre de pot`encia de Y (t) sobte fent la transformada de Fourier de RY Y (t).
RXY (t1 , t2 ) = h(t2 )RXX (t1 , )d
= h(t2 )RXX ( t1 )d = h(t2 t1 )RXX ( )d,
on hem fet servir que RXX dep`en nomes de la difer`encia de temps i hem fet el canvi de variable
+ t1 . Aix veiem que RXY (t1 , t2 ) dep`en nomes de t2 t1 . Ara obtenim
RY Y (t1 , t2 ) = h(t1 )RXY (, t2 )d
= h(t1 )RXY (t2 )d = h(t1 t2 )RXY ( )d.
Considerem el sistema format per una resist`encia r i una bobina dinduct`ancia l. Lentrada al
sistema es el voltatge aplicat al circuit donat pel proces X(t). La sortida es la intensitat de corrent
que hi circula Y (t). Calculem la transformacio Y (t) = L[X(t)] i trobem com varia lespectre de
pot`encia.
83
Donat X(t) calculem Y (t) resolent lequacio diferencial del circuit
dY
l (t) + rY (t) = X(t). (11.28)
dt
En (11.29) el primer terme es un transitori que desapareix passat un cert temps. Considerem
com a sortida la corrent quan sha arribat a la situaci o estacion`
aria i, per tant, fem C = 0 en
(11.29). Comparant amb lexpressio general
Y (t) = h(t )X( )d (11.30)
trobem
1 rt
h(t) = e l u(t).
l
Ara tenim
1 r t 1 r
H() = e l u(t)eit dt = e( l +i)t dt
l l 0
1
= .
r + il
Llavors (11.27) ens dona
SX ()
SY () =
r2+ l2 2
84
Part IV
Taules
85
Funci
o derror
La primera columna son valors de x. La segona columna son valors de
x
2 2
erf(x) = et dt.
0
La funcio derror esta predefinida en MAPLE i es accessible fent directament, per exemple,
> erf(0.34);
86
x erf(x) x erf(x) x erf(x) x erf(x) x erf(x) x erf(x)
.00 .000000 .5 .520499 1 .842700 1.5 .966105 2 .995322 2.5 .999593
.01 .011283 .51 .529243 1.01 .846810 1.51 .967276 2.01 .995524 2.51 .999614
.02 .022564 .52 .537898 1.02 .850838 1.52 .968413 2.02 .995719 2.52 .999634
.03 .033841 .53 .546464 1.03 .854784 1.53 .969516 2.03 .995906 2.53 .999653
.04 .045111 .54 .554939 1.04 .858649 1.54 .970585 2.04 .996085 2.54 .999671
.05 .056371 .55 .563323 1.05 .862436 1.55 .971622 2.05 .996258 2.55 .999689
.06 .067621 .56 .571615 1.06 .866143 1.56 .972628 2.06 .996423 2.56 .999705
.07 .078857 .57 .579815 1.07 .869773 1.57 .973602 2.07 .996582 2.57 .999721
.08 .090078 .58 .587922 1.08 .873326 1.58 .974547 2.08 .996734 2.58 .999736
.09 .101280 .59 .595936 1.09 .876803 1.59 .975462 2.09 .996880 2.59 .999750
.1 .112462 .6 .603856 1.1 .880205 1.6 .976348 2.1 .997020 2.6 .999763
.11 .123622 .61 .611681 1.11 .883533 1.61 .977206 2.11 .997154 2.61 .999776
.12 .134758 .62 .619411 1.12 .886787 1.62 .978038 2.12 .997283 2.62 .999788
.13 .145867 .63 .627046 1.13 .889970 1.63 .978842 2.13 .997407 2.63 .999800
.14 .156947 .64 .634585 1.14 .893082 1.64 .979621 2.14 .997525 2.64 .999811
.15 .167995 .65 .642029 1.15 .896123 1.65 .980375 2.15 .997638 2.65 .999821
.16 .179011 .66 .649376 1.16 .899096 1.66 .981104 2.16 .997747 2.66 .999831
.17 .189992 .67 .656627 1.17 .902000 1.67 .981810 2.17 .997851 2.67 .999840
.18 .200935 .68 .663782 1.18 .904837 1.68 .982492 2.18 .997950 2.68 .999849
.19 .211839 .69 .670840 1.19 .907608 1.69 .983152 2.19 .998045 2.69 .999857
.2 .222702 .7 .677801 1.2 .910313 1.7 .983790 2.2 .998137 2.7 .999865
.21 .233521 .71 .684665 1.21 .912955 1.71 .984407 2.21 .998224 2.71 .999873
.22 .244295 .72 .691433 1.22 .915533 1.72 .985002 2.22 .998307 2.72 .999880
.23 .255022 .73 .698103 1.23 .918050 1.73 .985578 2.23 .998387 2.73 .999886
.24 .265700 .74 .704678 1.24 .920505 1.74 .986134 2.24 .998464 2.74 .999893
.25 .276326 .75 .711155 1.25 .922900 1.75 .986671 2.25 .998537 2.75 .999899
.26 .286899 .76 .717536 1.26 .925235 1.76 .987190 2.26 .998607 2.76 .999905
.27 .297418 .77 .723821 1.27 .927513 1.77 .987690 2.27 .998673 2.77 .999910
.28 .307880 .78 .730010 1.28 .929734 1.78 .988174 2.28 .998737 2.78 .999915
.29 .318283 .79 .736103 1.29 .931898 1.79 .988640 2.29 .998798 2.79 .999920
.3 .328626 .8 .742100 1.3 .934007 1.8 .989090 2.3 .998856 2.8 .999924
.31 .338908 .81 .748003 1.31 .936063 1.81 .989524 2.31 .998912 2.81 .999929
.32 .349125 .82 .753810 1.32 .938065 1.82 .989943 2.32 .998965 2.82 .999933
.33 .359278 .83 .759523 1.33 .940015 1.83 .990346 2.33 .999016 2.83 .999937
.34 .369364 .84 .765142 1.34 .941913 1.84 .990735 2.34 .999064 2.84 .999940
.35 .379382 .85 .770668 1.35 .943762 1.85 .991111 2.35 .999110 2.85 .999944
.36 .389329 .86 .776100 1.36 .945561 1.86 .991472 2.36 .999154 2.86 .999947
.37 .399205 .87 .781439 1.37 .947312 1.87 .991820 2.37 .999196 2.87 .999950
.38 .409009 .88 .786687 1.38 .949016 1.88 .992156 2.38 .999236 2.88 .999953
.39 .418738 .89 .791843 1.39 .950673 1.89 .992479 2.39 .999275 2.89 .999956
.4 .428392 .9 .796908 1.4 .952285 1.9 .992790 2.4 .999311 2.9 .999958
.41 .437969 .91 .801882 1.41 .953852 1.91 .993089 2.41 .999346 2.91 .999961
.42 .447467 .92 .806767 1.42 .955376 1.92 .993378 2.42 .999379 2.92 .999963
.43 .456886 .93 .811563 1.43 .956857 1.93 .993655 2.43 .999410 2.93 .999965
.44 .466225 .94 .816271 1.44 .958296 1.94 .993922 2.44 .999440 2.94 .999967
.45 .475481 .95 .820890 1.45 .959695 1.95 .994179 2.45 .999469 2.95 .999969
.46 .484655 .96 .825423 1.46 .961053 1.96 .994426 2.46 .999496 2.96 .999971
.47 .493745 .97 .829870 1.47 .962372 1.97 .994663 2.47 .999522 2.97 .999973
.48 .502749 .98 .834231 1.48 .963654 1.98 .994892 2.48 .999547 2.98 .999974
.49 .511668 .99 .838508 1.49 .964897 1.99 .995111 2.49 .999570 2.99 .999976
87
Part V
Ap`
endixs
88
Ap`
endix A
L`
ogica i conjunts
Els objectes elementals en la l`ogica son els predicats o proposicions l`ogiques. Aquestes proposicions
poden tenir dos valors, 0 o 1, assignats. Si la proposici o p es certa li assignem el valor 1 i si es
falsa el valor 0. A partir de proposicions elementals en construm daltres a traves doperacions
l`
ogiques. Llavors la questi
o es coneixer el valor duna proposicio complexa a partir del valor de les
proposicions elementals que la formen.
Si p i q s
on proposicions l`ogiques definim la conjunci o p q (p i q), la disjuncio p q (p o q) i
la negacio p (no p) amb les taules de veritat:
p q pq p q pq
0 0 0 0 0 0 p p
1 0 0 1 0 1 0 1
0 1 0 0 1 1 1 0
1 1 1 1 1 1
Amb aquestes taules es poden demostrar algunes equival`encies veient que els valors dels dos
costats coincideixen per totes les eleccions de valors de les proposicions elementals. Algunes daque-
stes propietats son:
p q q p, p q q p, (A.1)
p (q r) (p q) r p (q r) (p q) r, (A.2)
89
A B = {x | x A i x B}, (A.6)
A B = {x | x A o x B}, (A.7)
A = {x | x A}. (A.8)
Les propietats de les operacions l`ogiques passen ara trivialment a les operacions entre conjunts
A B = B A, A B = B A, (A.9)
A (B C) = (A B) C, A (B C) = (A B) C, (A.10)
A B = A B, A B = A B. (A.12)
Les propietats sanomenen (A.1) i (A.9) conmutatives, (A.2) i (A.10) associatives i (A.3) i
(A.11) distributives.
Quan la proposicio p(x) es falsa per tot valor de largument x li associem el conjunt buit .
Aquest conjunt no conte cap element i verifica per tot A
A = , A = A. (A.13)
Quan la proposicio p(x) es certa per tot valor de largument x li associem el conjunt total .
Aquest conjunt conte qualsevol element al que es pugui fer refer`encia i es necessari en teoria de
conjunts per evitar algunes paradoxes. verifica per tot A
A = A, A = . (A.14)
El conjunt P() de tots els subconjunts de amb les operacions descrites anteriorment adquireix
un estructura que sanomena ` algebra de Boole. Una caracterstica important es la propietat de du-
alitat: si en una propietat certa es fa el canvi i sobte una altra propietat certa.
90
Ap`
endix B
Combinat`
oria
0! = 1, (B.1)
n! = 1 2 3 (n 1) n. (B.2)
Ordenats. Quan considerem que, per exemple, triant dos objectes, 1,2 i 2,1 s
on dues eleccions
diferents.
No ordenats. Quan considerem que, per exemple, triant dos objectes, 1,2 i 2,1 son la mateixa
elecci
o.
Per exemple, suposem que tenim deu ampolles amb diferents licors. Si volem seleccionar tres
ampolles per fer un coctel les triarem no ordenades ja que lordre en que les posem es irrelevant.
Si volem triar tres ampolles per donar el primer, segon i tercer premis dun concurs les triarem
ordenades ja que de les tres ampolles triades hem de decidir quina es la primera, quina la segona i
quina la tercera, es a dir, ordenar-les.
Aix per n m definim els nombres
91
Llavors resulten evidents les relacions
Pn = Vnn , (B.4)
Vmn = Cm
n
Pn . (B.5)
Per tant es suficient trobar les variacions per tenir-ho tot. Per calcular Vmn veiem que podem
triar el primer objecte de m maneres, el seg on de m 1 maneres, etc. Llavors
m!
Vmn = m (m 1) (m (n 1)) = . (B.6)
(m n)!
n Vmn m!
Cm = = . (B.7)
Pn n!(m n)!
m m!
Generalment sescriu n = n!(mn)! . La seg
uent propietat es inmediata
m m
= . (B.8)
n mn
m m1 m1
= + . (B.9)
n n n1
til considerar m
A vegades es u n = 0 per n > m. Amb aquest criteri no cal recordar els l mits
de sumaci
o en moltes f` ormules. Aix`
o es consistent amb lextensio del factorial a traves de la funci
o
gamma x! = (x + 1) que dona infinit pel factorial dels enters negatius.
n
n n k
(1 + x) = x . (B.10)
k
k=0
En efecte,
n n
n
(1 + x) = (1 + x) (1 + x) . . . (1 + x) = ak xk .
k=0
Exemple B.2 Sigui A un conjunt finit de n elements. Diem llavors que el seu cardinal es n i
posem |A| = n. El conjunt dels subconjunts de A el designem P(A) (parts de A). Que val |P(A)|?
a dir, quants subconjunts te un conjunt de n elements?
Es
Contem primer quants subconjunts de k elements te A i despres sumem per k = 0, . . . , n. La
llibertat que tenim per triar subconjunts de k elements es quins son aquests elements. Com un
92
o dels seus elements hi han Cnk subconjunts de k elements. Ara, en
conjunt no implica cap ordenaci
total tenim
n n n
+ + + = (1 + 1)n = 2n .
0 1 n
subconjuns. Aix
Una manera alternativa de trobar aquest resultat es la seg uent. Podem representar cada sub-
conjunt de A amb una paraula binaria de n lletres. Cada posici o en la paraula representa un
element de A. Per un subconjunt donat cada lletra val 1 o 0 segons lelement hi pertanyi o no. Per
evident que hi
exemple, al subconjunt {2, 3, 5} {1, 2, 3, 4, 5, 6} li correspon la paraula 011010. Es
ha una correspond`encia biunvoca entre aquestes paraules i els subconjunts. Tambe es inmediat el
fet que podem fomar 2n paraules.
93
Ap`
endix C
S`
eries
Les variables aleat`ories discretes amb espai mostral infinit numerable porten a la suma de s`eries
per resoldre alguns problemes. Donat el contexte en que apareixen i el fet que aquestes s`eries solen
ser de termes positius, la questio de la converg`encia es generalment bastant simple. Les s`eries mes
corrents son les geom`etriques, associades a les variables del mateix nom. Si definim
n
Sn = rk , (C.1)
k=0
Aquest resultat val per a tot r = 1. Si |r| < 1 podem fer el lmit n i concloure
1
rk = . (C.3)
1r
k=0
r
rk = . (C.6)
1r
k=1
Moltes de les s`eries que es solen utilitzar sobtenen com a s`erie de Taylor dalguna funci
o
f (k) (0) k
f (x) = x . (C.7)
k!
k=0
94
En (C.7) f (k) indica la derivada k-`essima. La s`erie es considera al voltant de 0 per ser el
cas mes utilitzat. La igualtat en (C.7) nomes es certa per x pertanyent a una regio anomenada
interval de converg`encia. En molts casos linterval de converg`encia es tot R. En particular les
s`eries geom`etriques (C.3) i (C.6) es poden considerar s`eries de Taylor de les funcions de la dreta
convergint en linterval (1, 1). Altres exemples importants son
x x2 x3 xk
e =1+x+ + + = . (C.8)
2! 3! k!
k=0
x2 x4 x2k
cosh(x) = 1 + + + = . (C.9)
2! 4! (2k)!
k=0
x3 x5 x2k+1
sinh(x) = x + + + = . (C.10)
3! 5! (2k + 1)!
k=0
95
Ap`
endix D
Integrals
Algunes integrals impr`opies apareixen sovint en lestudi de variables aleat`ories contnues, especial-
ment en les exponencials i les gaussianes.
Un resultat f`acil de demostrar per inducci
o es
xn ex dx = n!. (D.1)
0
2
2 2
= er rdrd = 2 rer dr = et dt =
0 0 0 0
on sha fet la integral doble passant a polars i despres sha fet el canvi r2 = t.
2
Degut a la simetria de ex
x2
e dx = . (D.4)
0 2
96
b 2 b 2 b
DEM: Posem lexponent ax2 + bx + c = a(x 2a ) + 4a + c i fem el canvi a(x 2a ) = t.
Llavors la integral es
2 b2 dt b2
et + 4a +c = e 4a +c .
a a
El seg
uent resultat es directe pel fet que la funcio integrada es antisim`etrica:
2
xex dx = 0. (D.6)
El mateix es cert si posen xn amb n senar en lloc de x davant lexponencial. Tambe es trivial
veure, fent el canvi x2 = t
2 1
xex dx = . (D.7)
0 2
El mateix canvi i lus de (D.1) ens d
ona que, per n senar,
2 1 n1
xn ex dx = ( )!. (D.8)
0 2 2
El cas de pot`encies parells es pot deduir derivant amb respecte a el resultat
2
eax dx = , (D.9)
a
o tambe integrant per parts. Per exemple
2 x x2 1 2
x2 ex dx = e + ex dx = .
0 2 0 2 0 4
Per integraci
o per parts es demostra
(z + 1) = z(z). (D.11)
Definim el factorial dun nombre real com z! = (z + 1). Per a z = 0, 1, 2, coincideix amb
el factorial ordinari. Per valors generals de z sha de recorrer a taules o calculadores per`
o per z
semienter es pot calcular. Si fem el canvi x = t2 :
2
(z) = 2 t2z1 et dx. (D.12)
0
97
Ap`
endix E
Distribucions
Considerem un espai F els elements del qual son funcions reals duna variable real f (t). Suposem
que aquestes funcions son contnues i prou regulars perque les operacions que considerarem tinguin
sentit. Una distribucio es una aplicaci
o lineal que assigna un nombre real a cada element daquest
espai. Si anomenem T a una daquestes distribucions llavors indiquem amb < T, f > la imatge de
f (t) sota T . Donada una funcio (t) podem associar-li una distribucio T definida
< T , f >= (t)f (t)dt. (E.1)
(Suposem que lespai F conte nomes funcions que asseguren la converg`encia de lanterior integral.)
Tambe est`
a clar que existeixen distribucions que no poden obtenir-se a partir de cap funci o pel
procediment anterior. La distribucio delta de Dirac es defineix
98
Si be no te sentit riguros podem visualitzar la funcio delta com (t a) = lim (t a) que
0
ens dona
0 si t = a
(t a) = (E.5)
si t = a
Aix
o ens dona una imatge intuitiva de la delta pero el que la defineix realment es (E.4).
Les distribucions es poden sotmetre a operacions definides en principi nomes per funcions. Per
exemple, veiem quina es la distribuci
o associada a la derivada duna funcio.
< T , f >= (t)f (t)dt = (t)f (t)dt = < T , f >
on sha fet una integracio per parts i considerat que les funcions tendeixen prou r`
apidament cap a 0
en els extrems. Ara podem definir la derivada de qualsevol distribuci o T com una nova distribucio
T que actua
Aix
o implica que per exemple
(t a)f (t)dt = f (a). (E.7)
0 si t < a
u(t a) = (E.8)
1 si t a
La seva distribuci
o associada la designem amb el mateix nom i posem
< ua , f >= f (t)dt. (E.9)
a
que es demostra multiplicant els dos costats per una funcio arbitr`aria i integrant. Una conseq
u`encia
de (E.10) es que t(t) = 0.
99
Ap`
endix F
Simulaci
o num` erica de variables i
processos aleatoris
Els llenguatges i entorns de programacio solen oferir algun generador de nombres aleatoris. Aquest
generador es presenta sota la forma duna funcio (m`etode, procediment, subrutina) com random()
que dona com a sortida un valor real (float o double) uniforme en [0, 1]. El m`etode dobtenci o
daquests nombres pseudo-aleatoris consisteix en realitzar operacions modulars amb enters grans i
i utilitzar part dels seus dgits per construir-los. El generador sol portar un procediment dinicial-
itzacio que utilitza, per exemple, la data (en milisegons) proveda pel sistema operatiu.
Aquest generador b`asic ve donat pel sistema i no podem manipular-lo directament per`o hi han
t`ecniques per, a partir dels seus valors obtenir-ne daltres amb millors propietats. Els requisits
dependran de la quantitat de nombres que necessitem. En simulacions molt extenses, el fet que
el generador b`asic es necess` ariament periodic podria falsejar els resultats. Aquestes questions es
poden estudiar en els llibres tipus numerical recipes. En el que segueix, suposem que tenim un
generador amb bones propietats.
Denotem G la variable uniforme en [0, 1] donada pel generador. Si volem obtenir una variable
contnua X amb funcio de distribucio FX (x) ho podem fer com X = FX1 (G) ja que la variable
FX (X) pren valors en [0, 1] i te densitat
1
fX (x) = 1.
FX (x)
Per exemple si volem obtenir una variable exponencial de par`ametre , FX (x) = 1 ex i ser`a
1
X = ln(1 G).
Aquest m`etode es pot aplicar si FX es estrictament creixent sobre X . Tambe cal poder
invertir explcitament FX . Aix` o no es pot fer en el cas de les variables gaussianes. Per generar
una variable normal amb m = 0, = 1, considerem una normal bidimensional amb par`ametres
m1 = m2 = = 0, 1 = 2 = 1, es a dir, dues normals independents amb par`ametres normalitzats.
La seva densitat es
1 (x21 +x22 )/2
f (x1 , x2 ) = e
2
i, en polars (x1 = r cos , x2 = r sin ):
1 r2 /2
f (r, ) = re
2
2
on veiem que es uniforme en [0, 2], r te densitat f (r) = rer /2 i les dues s
on independents. A
partir de dos valors G1 , G2 del generador obtenim = 2G2 , r = 2 ln(1 G1 ). Aix sobtenen
100
variables normals per parelles:
X1 = 2 ln(1 G1 ) cos(2G2 ),
X2 = 2 ln(1 G1 ) sin(2G2 ).
(En les anteriors expressions es pot canviar 1 G1 per G1 ja que son el mateix tipus de variable.)
float PI=3.1425927;
float x[1000]; //proces amb 1000 mostres
x=proces_normal_incorrelat(1000);
Veiem ara com es pot simular un proces normal estacionari X(t) amb mX (t) = 0 i espectre de
pot`encia SX (). Sigui Y () un proces normal incorrelat, es a dir
Pensem en aquest proces com la transformada de Fourier dun cert proces temporal. Per una
funcio fixada A() considerem el proces X() = A()Y () i sigui X(t) el proces donat per la seva
transformada inversa
1 j
X(t) = X()e d.
2
inmediat veure que mX (t) = 0. La seva funci
Es o dautocorrelacio val
1 1
RX (t1 , t2 ) = E[X(t1 )X (t2 )] = E[ A()Y ()ejt1 d A ( )Y ( )ej t2 d ]
2 2
1
= A()A ( )ejt1 ej t2 E[Y ()Y ( )]dd
(2)2
1 1
= A()A ( )ejt1 ej t2 ( )dd = |A()|2 ej(t1 t2 ) d
(2)2 (2)2
2
don veiem que SX () = |A()|
2 . Aix nomes cal triar A() = 2SX (). El proces es genera fent
Y () proces normal incorrelat, escalant les seves components amb A() i fent una FFT inversa.
101
Un altre procediment es partir dun proces temporal de valor mitj`a 0, incorrelacionat, Y (t)
i convolucionar-lo amb una funci o fixada K(t) de suport compacte (caiguda r`apida). El proces
X(t) = (K Y )(t) ja te una certa correlaci
o que depen de K:
RX (t1 , t2 ) = E[X(t1 )X(t2 )] = E[ K(t1 1 )Y (1 )d1 K(t2 2 )Y (2 )d2 ]
= K(t1 1 )K(t2 2 )E[Y (1 )Y (2 )]d1 d2 = K(t1 1 )K(t2 2 )(1 2 )d1 d2
= K(t1 1 )K(t2 1 )d1 = K(1 )K(t2 t1 1 )d1
que, si K es parell, resulta ser K K. Si K te forma gaussiana, RX tambe la te. Si, per exemple,
K es un pols quadrat, RX es un pols triangular, etc.
Per obtenir processos de Poisson o relacionats amb ell es suficient tenir la llista dinstants en
que es produeixen els esdeveniments, i aix`
o sobte sumant exponencials independents:
t=instants_poisson(1000, 2.5);
102
Part VI
Problemes
103
PROBLEMES
2. Es tira un dau sis vegades. Quina es la probabilitat que surtin els sis resultats diferents?
3. Que es mes probable: Treure alguna vegada un as tirant un dau quatre vegades o treure
alguna vegada dos asos tirant dos daus 24 vegades?
4. En una loteria de tipus 6/49 tenim un requadre amb 49 nombres dels quals hem de marcar-ne
6. El resultat del sorteig son els 6 nombres premiats mes un altre anomenat complementari.
El premi depen de quants encerts tenim. En el cas de 5 encerts, el premi es diferent si el
restant nombre que tenim es el complementari o no. Calculeu les probabilitats del diferents
nombres dencerts (P (0), P (1), P (2), P (3), P (4), P (5 c), P (5 + c), P (6)).
Pels 4 resultats menys probables calculeu la probabilitat dobtenir-los alguna vegada si juguem
cada dia durant 30 anys.
5. Una baralla francesa sense comodins te 52 cartes (4 pals, 13 nombres). Calculeu la probabilitat
de les seg
uents jugades en una ma de poker (5 cartes): parella, doble parella, trio, escala, full,
color, poker, escala de color, escala real.
6. Es permuten a latzar les 8 lletres AAAACTTR. Quina es la probabilitat que surti CATARATA?
7. De quantes maneres podem posar dues torres blanques en un tauler descacs sense que sa-
menacin?
De quantes maneres podem posar n torres blanques en un tauler de mida N N sense que
samenacin?
8. Una urna conte 3 boles blanques, 5 boles vermelles i 8 boles negres. Si sextreuen dues boles
(sense reemplacament) a latzar, quina es la probabilitat que siguin de color diferent?
Si les boles extretes s
on del mateix color, quina es la probabilitat que siguin negres?
Son els esdeveniments A =Surt alguna bola blanca i B =Surt alguna bola negra inde-
pendents?
10. En lexperiment de tirar un dau, trobeu dos esdeveniments no trivials que siguin independents.
11. Dos jugadors tiren alternativament un dau. Guanya el joc el primer que treu un 6. Quina es
la probabilitat que guanyi el que comenca a jugar.
12. Tres jugadors tiren alternativament una moneda amb probabilitat de cara p. Guanya el
primer que treu cara. Calculeu la probabilitat que te cada jugador de guanyar.
104
13. Dos jugadors A i B tiren simult`aniament un dau cadascun. Guanya el primer que treu 6.
Calculeu les probabilitats P (empat), P (guanya A), P (guanya B).
14. Una xarxa de comunicacions consisteix de nodes units per lnies. La xarxa transmet paquets
de manera que si un paquet es troba en un node intern x (node intern es el que est`
a connectat
a mes dun node) tria aleat`oriament el node de sortida. La probabilitat de sortir pel node y
connectat a x val pxy de manera que y pxy = 1. Quan un paquet arriba a un node extern
X ja shi queda. Denotem pX a la probabilitat danar-hi quan estem al node connectat a ell.
Ens plantegem calcular la probabilitat P (xX) que el paquet, trobant-se al node intern x,
acabi al node extern X.
Resoleu el problema per una xarxa amb un node extern A connectat a un node intern a
connectat a un node intern b connectat a un node extern B. (Noteu que els u
nics par`
ametres
on pA i pB .
lliures s
Resoleu el problema per una xarxa triangular amb nodes a, b, c connectats respectivament a
nodes externs A, B, C.
(Indicacio: Larbre desdeveniments en el segon cas es complicat. Resoleu el problema plante-
jant equacions lineals que han de verificar les diferents probabilitats P (xY ).)
16. Quant dun total de n objectes distingibles em volem triar k de manera ordenada i amb la
possibilitat de repetici
o, es parla de variacions amb repetici
o. El nombre de configuracions
es evident que val
V Rnk = nk .
El cas en que tenim repetici o per`o no fem la tria ordenada sanomena combinacions amb
repetici
o i es menys inmediat de calcular. (Per exemple, si n = 3 i k = 2 hi han 6 eleccions:
11, 22, 33, 12, 23, 13.) Demostreu que
n+k1
CRkn = .
k
(Indicacio: Pot ajudar pensar el problema aix. Tenim n caselles i hem de posar k boles
id`entiques en les caselles de manera que cada casella pot tenir cap, una o v`aries boles.)
17. De quantes maneres es poden posar k boles id`entiques en n caselles (k n) si cap casella pot
quedar buida?
18. Extreiem 2k boles duna urna conte n boles blanques i n boles negres. Calculeu la probabilitat
dextraure el mateix nombre de boles de cada color si fem lextraccio
105
19. A partir del resultat conegut P (A B) = P (A) + P (B) P (A B) deduu una formula
an`aloga per P (A B C).
Generalitzeu el resultat per P (A1 A2 An ).
aria ha denviar n cartes. Com te pressa per acabar, col.loca les cartes en els sobres
20. Una secret`
de manera aleat`oria. Quina es la probabilitat que ninguna carta arribi al seu destinatari?
Calculeu el lmit daquesta probabilitat per n . Compareu-la per n = 10 i n = 100.000.
21. La urna A conte 2 boles blanques i 3 boles negres mentre que la urna B conte 4 boles blanques
i 3 boles negres. Es passen dues boles a latzar de la urna A a la B i despres sextreuen dues
boles de B. Si aquestes boles s
on blanques, quina es la probabilitat que haguem passat alguna
bola negra de A a B?
22. Tirant un dau 10 vegades, quina es la probabilitat que apareguin els sis resultats possibles?
Generalitzeu a n tirades. Comproveu que n = 6 dona el mateix que el segon problema.
23. El detergent HOMO d ona una lletra del conjunt {H, O, M } en cada paquet i fa un regal als
que completen la paraula HOMO. Si les tres lletres apareixen amb la mateixa probabilitat,
quina es la probabilitat de formar la paraula comprant 10 paquets?
24. Us esteu enfrontant a un pistoler en un descampat i tant a vosaltres com a ell us queden dues
bales. Com us trobeu a certa dist`ancia, la probabilitat de liquidar a ladversari amb un tret
val p = 0.3.
(a) Teniu que decidir si conve fer els dos trets abans que el vostre adversari, o si es preferible
esperar a que aquest dispari primer (si un esgota les seves bales sense fer diana laltre
es pot acostar i disparar amb certesa.) Discutiu tambe com dep`en lestrat`egia del valor
de p.
(b) Si no podem evitar que laltre dispari primer, que es millor a priori (sense saber lefecte
daquest tret): esperar a que faci el seu segon tret, disparar dues vegades nosaltres o
disparar una vegada i esperar?
25. Donat un grup de 30 persones, quina es la probabilitat que totes celebrin laniversari en dies
diferents?
26. Un canal transmet missatges consistents en seq u`encies de 0s i 1s. La probabilitat que un
smbol arribi canviat val . Comproveu si els seg
uents procediments redueixen la probabilitat
que un smbol es detecti err`oniament:
27. Es repeteix un joc amb probabilitat de guanyar p fins que hem guanyat n vegades. Determineu
la funcio de probabilitat del nombre necessari de jugades X. (Noteu que n = 1 es la variable
geom`etrica.)
(a) X > 4.
106
(b) X sigui parell.
(c) X sigui divisible per 3 sabent que X es parell.
29. En un examen la nota mitja val 6 i la desviacio 1.8. Quin es el tant per cent daprovats?
30. Si X es una variable aleat`oria de Cauchy, demostreu que Y = 1/X tambe ho es. Com es
relacionen els seus par`ametres?
31. X es una variable uniforme en [0, 2]. Calculeu les funcions de densitat i de distribucio de la
variable Y = cos X.
32. X es una variable uniforme en [0, 2]. Calculeu la funci
o de distribucio de la variable
sin X 0 x
Y =
0 altrament
33. Utilitzeu el teorema de lesperanca per calcular E[Y ] en els dos problemes anteriors. En el
primer dells calculeu-la tambe amb fY (y).
34. Calculeu lesperanca de les variables X dels problemes 28 i 27. (En el segon cas sabeu que
les probabilitats elementals sumen 1 don deduiu
k 1 kn 1
q =
n1 (1 q)n
k=n
f (x) = Ke|xm|
39. El temps de vida duna partcula radiactiva es una variable exponencial de par`ametre =
1/m on m es la vida mitja de la partcula. En linstant t = 0 tenim una mostra de N0
partcules. Quin es el nombre mig de partcules en linstant t? Es correcte formular una llei
fsica que digui que el nombre de partcules en linstant t val aquesta quantitat?
107
40. De les taules de mortalitat es dedueix que moren (t) persones dedat t per unitat de temps.
a dir, si T es la variable aleat`
Es oria que dona el temps de vida duna persona,
fT (t|T t) = (t).
42. Una moneda de di` ametre 2cm cau a un terra de rajoles quadrades de costat 25cm. Quina es
la probabilitat que la moneda no trepitgi mes duna rajola?
Calculeu el mateix amb rajoles exagonals.
43. Un material presenta impureses aleat` ories de forma el.lptica. Els semieixos daquestes el-
lipses s
on variables independents X, Y uniformes en [0, L1 ], [0, L2 ] respectivament. Calculeu
la funcio de densitat i lesperanca de l`
area daquestes impureses.
(a) Calculeu la probabilitat de treure exactament dos uns, dos dosos i dos tresos.
(b) Calculeu la probabilitat de treure algun u i algun dos.
108
49. n corredors fan una carrera. El temps que triga el corredor i es una variable exponencial Xi
de par`ametre i (i = 1, . . . n). Sigui T la variable aleat`
oria que d
ona el temps darribada del
guanyador. Calculeu la seva densitat i la seva esperanca.
50. Dues persones queden per trobar-se en un lloc entre les 11h i les 12h. El primer que arribi
nomes sesperar`a 15 minuts.
51. Lempresa de pizzes a domicili PizzaPlus cobra 6 Euros per una pizza. El temps T dentrega
es una variable aleat`
oria exponencial desperanca m. Lempresa considera que una pizza est` a
entregada a temps si T < 2m. Si el temps dentrega es superior a 2m es d ona la pizza
gratuitament. Si a mes T es superior a 3m PizzaPlus regala al client un postre de 2 Euros.
52. El temps que passa fins que un sistema que funciona te una avaria es una variable exponencial
de par`ametre . Suposeu que les avaries es produeixen amb indep`endencia una de laltra i que
es reparen de manera inmediata. Si Ti , i = 1, . . . , n son els instants en que es produeixen les
n primeres avaries calculeu la densitat conjunta f (t1 , t2 , . . . , tn ). (Indicaci
o: trobeu primer
la densitat dels intervals entre avaries i feu el canvi de variable pertinent.)
53. Al fer una mesura fsica apareix un error experimental. Degut a aix` o podem considerar que
el resultat obtingut a la mesura es una variable aleat`oria amb esperanca m,el valor exacte de
la magnitud que mesurem, i desviacio , error caracterstic de la mesura. Si sobte el resultat
X1 llavors expressem la nostra mesura de m com a X1 .
Una manera de reduir lerror es fer v`
aries mesures X1 , X2 , . . . , Xn i donar com a resultat
el seu promig Y = (X1 + X2 + + Xn )/n. Calculeu la desviaci o de Y (suposant que les
mesures son incorrelades) i comproveu que es inferior a .
(a) Calculeu lesperanca de la suma dels seus valors. Que passa si fem lextracci
o amb
reemplacament?
109
(b) Calculeu la probabilitat que el m`axim valor extret sigui m.
58. Un canal de comunicaci o li suma al senyal transm`es X un soroll Z incorrelat amb X. Volem
corregir lefecte multiplicant la sortida per una constant . Trobeu el millor valor de si
mX = mZ = 0, X = 10 i Z = 5.
Calculeu-ho ara en el cas que el soroll sigui independent de X i multiplicatiu en lloc daditiu.
Penseu alguna manera de millorar la prediccio.
1 t/Y 0tY
X(t) =
(t Y )/(1 Y ) Y t 1
(a) Representeu gr` aficament el proces: primer per A fixat com a funcio de t (realitzacio);
despres per t fixat com a funcio de A.
(b) Calculeu la seva funcio de valor mitj`
a m(t).
(c) Calculeu la seva funci
o de distribucio de primer ordre F (x; t). Representeu-la gr`aficament.
(d) Calculeu la seva funcio de densitat de primer ordre f (x; t) i utilitzeu-la per tornar a
calcular m(t).
2
(e) Calculeu lesperanca de la variable aleat`
oria J = 0 X(t) dt.
62. (X, Y ) es una variable aleat`oria bidimensional uniforme en el triangle delimitat per les rectes
x = 1, y = 0, x = y.
Z(t) = Xt(t Y )
110
Y
(d) Quina es la millor estimaci
o lineal homog`enia de 0 Z(t)dt donat Z(Y /2)?
64. Donat el proces X(t) = V cos(t + ) on est`a fixat, V es una v.a. exponencial de par`ametre
1/V0 i es una v.a. uniforme en [0, 2], V i independents
111
EL COSTAT FOSC
1. Critiqueu la definici
o despai mostral.
since the shuttle is a manned vehicle, the probability of mission success is nec-
essarily very close to 1.0.
Historically, this extremely high degree of mission success has given rise to
a dierence in philosophy between manned space flight programs and unmanned
programs; i.e., numerical probability usage versus engineering judgement.
Una mostra del poc sentit que poden tenir les estimacions probabilstiques la tenim en la
disparitat de valors que donaven com a probabilitat P daccident fatal diferents grups:
Enginyers de Rocketdyne (els fabricants): P = 1/10.000.
Enginyers del Marshall Space Center (els disenyadors): P = 1/300.
El management de la NASA: P = 1/100.000.
Un enginyer independent consultat per la NASA: P entre 1/100 i 2/100.
Finalment Feynman, en les seves conclusions recomana
For a successful technology, reality must take precedence over public relations,
for Nature cannot be fooled.
3. En el concurs televisiu del 123, al final el presentador ens ofereix triar entre tres sobres un dels
quals conte un apartament a la costa. Despres que nhem seleccionat un, el presentador agafa
un dels sobres de la taula i, somrient, mostra que no conte res. Ara ens ofereix la possibilitat
de canviar el sobre que tenim pel que queda a la taula. Que hem de fer?
4. Apostant a la ruleta a vermell i negre, una estrat`egia es comencar apostant una unitat. Si
guanyen tornem a comencar, si perdem apostem el doble que la passada vegada. Daquesta
manera sempre que guanyem recuperem tot el que hem perdut abans mes una unitat. Discutiu
la validesa daquesta estrat`egia. (En els casinos est`a prohibit utilitzar-la.)
5. Tenim el seg
uent desenvolupament de Taylor (|x| < 1):
1
= CRnk xk .
(1 x)n
k=0
112
Demostreu-lo des del punt de vista combinatori. Despres calculeu els coeficients de la s`erie i
haureu demostrat novament quin valor pren CRnk .
8. Donada una variable aleat`oria contnua X considerem les noves variables Y = |X| i S = sg(X).
Com ha de ser la funcio de densitat de X per que Y i S siguin independents?
10. De les consideracions m`etriques fetes hem arribat a definir la dist`ancia entre dues variables
aleat`ories X, Y com
d(X, Y ) = E[(X Y )2 ].
Sembla tambe que si aquesta distancia mesura la difer`encia entre les dues variables, la podriem
definir
d(X, Y ) = (fX (t) fY (t))2 dt
on fX , fY s
on les respectives funcions de densitat.
Quina difer`encia hi ha entre les dues definicions?
113
SOLUCIONS DELS PROBLEMES
1 1
1. n/2
si n es parell i (n1)/2 si n es senar.
10 10
2. 0.0154.
k 4 5-c 5+c 6
0.999938 0.1649 0.00428 0.000714
10. Nomes poden tenir cardinal 2 i 3 amb un element com u o 3 i 4 amb dos elements comuns.
Per exemple, {1, 2} i {1, 3, 4} o {1, 2, 3} i {1, 2, 4, 5}.
11. 6/11.
16.
k1
17. kn .
2
(nk) 2k 1
18. (a) . (b) k 22k . Els dos tendeixen al resultat (b) que es independent de n.
(2n
2k )
114
1 1 (1)n
20. P = 1 1 + + + . El lmit val e1 = 0.3678 . . . . Per n = 10 val 0.36787946,
2! 3! n!
per n = 100000 val 0.36787944.
21. 26/31.
5
6 k
22. 0, 2718. En general P = (1)k (1 )n .
k 6
k=0
23. 0.861657.
24.
25. 0.2937.
29. 71%.
34. Primer cas: E[X] = a/(1 a), segon cas: E[X] = n/p.
3 (n + 2)! 3 3
35. K = , mn = n
, E[X] = , V [X] = 2 .
2 2
e/2 e5/2
36. (a) 1e6
. (b) Y = {0, 1, 2, }, PY (n) = (1 e3 )e3n , E[Y ] = 1/(e3 1). (c) 2/3.
2
37. K = , E[X] = m, V [X] = 2 .
2
2
38. (a) erf(k/ 2), 68.3%, 95.4%. (b) . (c) mn = exp(n2 2 /2 + nm).
t 1/2
39. N (t) = N0 e m . Per mostres macrosc` opiques: /N < N que es despreciable (per
exemple, en un gram durani hi ha 1021 partcules.)
115
41. (a) K = 2/(e 1), X es exponencial amb = 2 i fY (y) = (e 1)1 ey , 0 < y < 1. Son
independents. (b) K = 2, fX (x) = 2(ex e2x ), x > 0 i Y es exponencial amb = 1. No
son independents.
42. Quadrat: P = 0.8464. Ex`
agon: P = 0.9097.
43. Si Z es l`area: E[Z] = L1 L2 /4, fZ (z) = (L1 L2 )1 ln(z/(L1 L2 )), 0 < z < L1 L2 .
44. 0.0253.
y 0y1
45. Y = [0, 2] i fY (y) =
2y 1y 2
46. E[A ] = P (A), AB = A B , AB = A + B A B , A = 1 A .
47. Si Nk es la variable que d
ona el nombre dordinadors amb k usuaris, tenim que E[Nk ] =
15 1915k
20 k 2015 . En particular E[N0 ] = 9.2. La suma daquestes esperances dona, evidentment,
20.
48. C[X, Y ] = 1. Aix`
o implica que no s
on independents.
49. T es exponencial amb = i i . E[T ] = 1/( i i ).
50. (a) 0.4375. (b) f (z) = (60 z)/1800, 0 < z < 60. E[Z] = 20 min. (c) f (u) = (60
u)/1800, 0 < u < 60. E[U ] = 20 min.
51. (a) 5.1 Euros. (b) 60.5, 0.057. (c) 0.9755.
52. f (t1 , t2 , . . . , tn ) = n etn , 0 < t1 < t2 < < tn < .
53. / n.
54. Uniforme en [0, 1].
55.
56. (a) En els dos casos k(n + 1)/2. (b) (mk (m 1)k )/nk
4 2 = 2 = 1 16 ( = =
57. (a) y = 4 1 x2 /, x = 4 1 y 2 /. (b) mX = mY = 3 , X Y 4 9 2 X Y
1 16
0, 264.), C[X, Y ] = 2 92 ( = 0, 3). (c) y = x + mX (1 ), x = y + mX (1 ).
58. Aditiu: = 4/5. Multiplicatiu: = 0. Aquest segon cas es podria millorar fent una estimacio
de |X| a partir de |ZX|. Nomes ens caldria coneixer E[|Z|].
59. m(t) = 1 + t ln t + (1 t) ln(1 t).
t
60. m(t) = 6 1et (3t + 6)et . (e) 144.
61. c = aX(t T ) + bX(t 2T ), a = eaT , b = 0. = K(1 e2aT ).
2t2
2
62. (a) mr,s = (r+s+2)(s+1) . (b) x = (1+y)/2. (c) m(t) = t
3 4. R(t1 , t2 ) = t1 t2 ( t12t2 (t1 +t
5
2)
+ 19 ).
(d) = 40/81.
1et 1e(t1 +t2 )
63. (a) m(t) = t , R(t1 , t2 ) = t1 +t2 . (b) 0. (c) 0.
erg`odic ja que 2 = V 2 (1 cos 2T )/(22 T 2 )
64. (a) Els criteris no deicideixen res. (b) Es T 0
tendeix a zero per T .
116