Download as pdf or txt
Download as pdf or txt
You are on page 1of 117

`

PROBABILITAT I PROCESSOS ESTOCASTICS


Notes de Classe

J. M. Aroca

Departament de Matem`atica Aplicada IV,


Universitat Polit`ecnica de Catalunya

e-mail:jomaroca@mat.upc.es
http://www-ma4.upc.es/~jomaroca

febrer de 2004
Index

Notaci
o 3

I Teoria de la probabilitat i variables aleat`


ories unidimensionals 6

1 Introducci o a la teoria de la probabilitat 7


1.1 Experiment aleatori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Espai mostral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Esdeveniment aleatori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
`
1.4 Algebra desdeveniments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5 Espai de probabilitat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.6 Espais de probabilitat discrets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.7 Espais de probabilitat continus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.8 Esdeveniments independents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.9 Probabilitat condicionada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.10 Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.11 Espai producte. Proves repetides . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.12 Significat de la probabilitat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2 Variables aleat`ories 15
2.1 Variable aleat`oria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Funcio de distribucio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3 Variables aleat`ories discretes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4 Variables aleat`ories contnues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5 Teorema de DeMoivre-Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.6 Funcions de densitat i distribucio condicionades . . . . . . . . . . . . . . . . . . . . . 23
Ap`endix: Demostracio del teorema de DeMoivre-Laplace . . . . . . . . . . . . . . . . . . . 24

3 Funcions duna variable aleat` oria 26


3.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2 Cas continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3 C`alcul de la funci
o de densitat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

4 Par`ametres estadstics 31
4.1 Esperanca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.2 Vari`
ancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.3 Desviaci
o est`
andard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.4 Variable aleat`
oria normalitzada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

1
4.5 Par`ametres de les distribucions usuals . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.6 Moments duna variable aleat` oria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.7 Desigualtat de Txebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.8 Llei dels grans nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.9 Teorema del lmit central . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.10 Probabilitat, esperanca, mesura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

II Variables aleat`
ories multidimensionals i teoria de lestimaci
o 39

5 Variables aleat` ories multidimensionals 40


5.1 Variable aleat` oria bidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.2 Funcio de distribucio conjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.3 Funcions de distribucio marginals . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.4 Funcio de densitat conjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.5 Funcions de densitat marginals . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5.6 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5.7 Algunes distribucions usuals . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.8 Independ`encia de variables aleat`ories . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.9 Densitat condicionada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.10 Esperanca condicionada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.11 Generalitzacio al cas n-dimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

6 Funcions de v` aries variables aleat` ories 48


6.1 Suma de variables aleat`ories. Teorema de convolucio . . . . . . . . . . . . . . . . . . 48
6.2 Altres funcions. Canvi de variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

7 Par`ametres estadstics de v` aries v.a.s 54


7.1 Esperanca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
7.2 Covari`ancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
7.3 Coeficient de correlaci
o. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
7.4 Moments conjunts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
7.5 Ortogonalitat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
7.6 Incorrelaci
o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

8 Estimaci
o de variables aleat` ories 58
8.1 Concepte i criteris destimacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
8.2 Estimacio per una constant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
8.3 Estimacio no lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
8.4 Estimacio lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
8.5 Principi dortogonalitat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

III Processos estoc`


astics 63

9 Introduccio als processos estoc` astics 64


9.1 Definici
o de proces estoc`
astic . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
9.2 Funcions de distribucio i densitat dun PE . . . . . . . . . . . . . . . . . . . . . . . 65
9.3 Valor mitj`a, autocorrelaci
o i autocovari`ancia . . . . . . . . . . . . . . . . . . . . . . . 65

2
9.4 Processos estoc`
astics normals . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
9.5 Processos estacionaris . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

10 Exemples de processos estoc` astics 69


10.1 El proces de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
10.2 Senyal telegr`afic aleatori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
10.3 Tren dimpulsos de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
10.4 Distribucio dels temps en el proces de Poisson . . . . . . . . . . . . . . . . . . . . . . 73
10.5 Senyals binaris . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
10.6 Oscil.lacions aleat`ories . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

11 Processos estacionaris 76
11.1 Integrals estoc`
astiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
11.2 Ergodicitat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
11.3 Condicions suficients dergodicitat . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
11.4 Espectre de pot`encia dun proces estacionari . . . . . . . . . . . . . . . . . . . . . . . 80
11.5 Sistemes lineals . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
11.6 Valor mitj`a, autocorrelaci
o i espectre de pot`encia dun PE transformat linealment . 82

IV Taules 85
Funci
o derror . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

V Ap`
endixs 88

A L`
ogica i conjunts 89

B Combinat`
oria 91

C S`
eries 94

D Integrals 96

E Distribucions 98

F Simulaci
o num`
erica de variables i processos aleatoris 100

VI Problemes 103

3
Notaci
o

Final dexemple.

DEM: Inici de demostraci


o.

Final de demostraci
o.

o de Heaviside. (1 si x 0 i 0 si x < 0.)


u(x) Funci

(x) Delta de Dirac (veure ap`endix sobre distribucions).

(f g)(x) Producte de convolucio.

f (x) Conjugaci
o complexa.

Espai mostral. (Possibles resultats dun experiment aleatori.)


`
F Algebra desdeveniments.

A, B, C, . . . Esdeveniments. (Subconjunts de .)

P (A) Probabilitat de lesdeveniment A.


a dir, sabent que B sha produt.)
P (A|B) Probabilitat de A condicionada a B (Es

P (A i B), P (A B), P (A, B) Probabilitat que es verifiquin els esdeveniments A i B.

P (A o B), P (A B) Probabilitat que es verifiqui algun dels esdeveniments A o B.

X, Y, Z, . . . Variable aleat`
ories (En maj
uscules. Els valors num`erics es posen en min
uscula. Aix,per
exemple, X < x es lesdeveniment: la variable aleat`oria X es menor que el nombre x.).

FX (x) Funcio de distribucio de la variable aleat`


oria X.

fX (x) Funcio de densitat de la variable aleat`


oria contnua X.

PX (x) Funci
o de probabilitat de la variable aleat`oria discreta X.

E[X], X, mX Esperanca de la variable aleat`


oria X.
2 Vari`
V [X], X ancia de la variable aleat`oria X.

FXY (x, y) Funcio de distribuci


o conjunta de les variables aleat`
ories X i Y .

fXY (x, y) Funcio de densitat conjunta de les variables aleat`ories X i Y .

4
fX (x|y) Funcio de densitat la variable aleat`
oria X condicionada a Y = y. (De manera similar
tenim fY (y|x).)

C[X, Y ] Covari`
ancia de les variables aleat`ories X i Y .

Coeficient de correlaci
o.

m(t) Funci
o de valor mitj`a dun proces estoc`
astic.

R(t1 , t2 ) Funcio dautocorrelaci


o dun proces estoc`
astic.

C(t1 , t2 ) Funci
o dautocovari`ancia dun proces estoc`
astic.

mT Promig temporal dun proces estoc`


astic.

S() Espectre de pot`encia dun proces estoc`


astic.

5
Part I

Teoria de la probabilitat i variables


aleat`
ories unidimensionals

6
Captol 1

Introducci
o a la teoria de la
probabilitat

1.1 Experiment aleatori


un experiment E que es pot repetir tantes vegades com es vulgui sempre en les mateixes condi-
Es
cions. Cada repetici
o de lexperiment sanomena prova.

1.2 Espai mostral


el conjunt dels possibles resultats dun experiment aleatori E.
Es

Exemple 1.1 E =Tirar un dau, = {1, 2, 3, 4, 5, 6}.

Exemple 1.2 Lespai mostral es el que determina clarament la informacio que extreiem de lex-
periment. Si, per exemple, E =Tirar dos daus hem despecificar si podem distingir els dos daus
una vegada tirats amb el que lespai mostral es 1 = {(a, b)|1 a, b 6} que te 36 elements o si
els daus son indistingibles i tenim 2 = {{a, b}|1 a, b 6} que te 21 elements. Es a dir, en el
segon cas no podem distingir, per exemple, les configuracions (1,2) i (2,1).

1.3 Esdeveniment aleatori


Donat un experiment E un esdeveniment aleatori es una proposicio l` ogica S tal que a lefectuar una
prova de E podem determinar la seva veritat o falsedat. Considerem S = {conjunt desdeveniments
S}. Podem identificar un esdeveniment S amb el subconjunt de format pels elements que fan
que S sigui cert. Daquesta manera identifiquem S = P(). Per exemple, E =Tirar un dau,
S =Que surti parell= {2, 4, 6}. Com es veu cometrem lab us de llenguatge de fer servir el mateix
nom per la proposicio i el subconjunt.
Aquesta identificacio ens mou isom`orficament entre l` algebra de Boole de les proposicions
l`
ogiques (i, o, no) i l`
algebra de Boole dels conjunts (unio, intersecci o, complementari.) Les
equival`encies es resumeixen en la seg
uent taula (veure lap`endix A):

7
disjunci
o RoS RS unio

conjuncio RiS RS intersecci


o

negaci
o no R R complementari

implicacio RS RS inclusi
o

equival`encia RS R=S igualtat

El complementari A el denotarem A. Lesdeveniment es sempre fals. Es pot pensar com


A A, es a dir A i no A (contradiccio). Lesdeveniment es sempre cert. Es pot pensar com
A A, es a dir A o no A (tautologia).

1.4 `
Algebra desdeveniments
una famlia F no buida de subconjunts de tancada per la unio i el complementari. Es
Es a dir,
F P() verificant:

(1) F = ,

(2) si A F llavors A F,

(3) si A, B F llavors A B F .

Daqu es desprenen les seg


uents propietats:

(4) , F,

(5) si A, B F llavors A B F .

DEM:
(4) Per (1) existeix A F . Per (2) A F. Per (3) = A A F . Per (2) = F.

(5) Siguin A, B F i recordem la propietat de les operacions entre conjunts A B = A B.


Llavors A B = A B F .
Un exemple trivial d` algebra desdeveniments es considerar tot el conjunt P(). A vegades
ens interessar`a treballar amb conjunts mes petits desdeveniments, ja sigui perqu`e nomes volem
considerar uns esdeveniments determinats o perqu`e no podem assignar probabilitats quan P() es
molt complicat (cas continu). El que demanem es que el conjunt considerat sigui tancat sota les
operacions l`ogiques i, o i no. Dit duna altra manera, a ligual que P(), F ha de ser una `algebra
de Boole amb la uni o, la interseccio i el complementari.

8
Exemple 1.3 En lexperiment Tirar un dau = {1, 2, 3, 4, 5, 6}. P() te 26 = 64 elements.
Es f`acil comprovar que F = {, , {2, 4, 6}, {1, 3, 5}} es una `algebra desdeveniments. Per tant els
u
nics esdeveniments no trivials que considerem son surt parell i surt senar. Aix podem, per
exemple, simular un experiment amb dos resultats equiprobables com el de tirar una moneda.
La propietat (3) sesten per inducci
o a la uni
o dun nombre finit qualsevol desdeveniments. A
vegades conve considerar unions numerables desdeveniments. En aquest cas diem que F es una
-`
algebra si en lloc de (3) es verifica

(3) si Ai F, i N llavors Ai F.
iN

La propietat (5) passa a (5) posant interseccions numerables. Obviament tota -`algebra es una
`algebra per`o no a la inversa.

1.5 Espai de probabilitat


una terna ( , F, P ) on es un conjunt, F una `algebra (o -`
Es algebra) de i P una funcio

probabilitat. Es a dir, P : F R verificant:
(1) P () = 1,
(2) P (A) 0 per a tot A F,
(3) si A, B F i A B = llavors P (A B) = P (A) + P (B).
El parell (,F) sanomena espai probabilitzable. P es una mesura (3) positiva (2) i normalitzada
(1). Quan A B = diem que A i B son esdeveniments incompatibles. En el cas que F sigui una
-`algebra substitum (3) per

(3) si Ai F, i N i Ai Aj = per a tot i = j llavors P ( Ai ) = P (Ai )
iN i=1

on el sumatori senten com una s`erie de nombres reals positius. Les propietats (3) i (3) sanomenen
aditivitat i -aditivitat respectivament.
Com a consequ`encia dels axiomes (1), (2) i (3) dedum les seguents propietats:
(4) P () = 0,
(5) P (A) = 1 P (A) per a tot A F,
(6) P (A) 1 per a tot A F,
(7) P (A B) = P (A) + P (B) P (A B) per a tot A, B F .
DEM:
(4) Tenim que = i = . Utilitzant (3) P () = P ( ) = P () + P () don surt (4).
(5) Com A A = , P (A) + P (A) = P (A A) = P () = 1.
(6) P (A) = 1 P (A) 1 degut a (2).
(7) Considerem les descomposicions en parts disjuntes AB = A(B A) B = (B A)(B A).
Daqu P (A B) = P (A) + P (B A) i P (B) = P (B A) + P (B A). Restant les dues
igualtats trobem P (A B) P (B) = P (A) P (B A) que es (7).

9
1.6 Espais de probabilitat discrets
Considerem = {1 , 2 , . . . , n } finit. Anomenem esdeveniments elementals als de la forma {i },
i = 1, . . . , n i posem pi = P ({i }). Aquests nombres verifiquen 0 pi 1. Com = i {i } i els
esdeveniments elementals s on disjunts i pi = 1. Les probabilitats elementals pi determinen la de
qualsevol esdeveniment. En efecte, si A = {i1 , . . . , ir } llavors P (A) = P (k {ik }) = k pik .
Encara que en aquest context es inevitable dir que pi es la probabilitat del resultat i , sha
de tenir en compte que les probabilitats son sempre desdeveniments (subconjunts de .) No
es correcte assignar les probabilitats als elements de i, si es fa, sha de tenir ben clar que la
probabilitat de lelement i vol dir la de lesdeveniment {i }.
Un cas corrent es quan tots els esdeveniments elementals s on equiprobables amb pi = 1/n i.
Llavors, si A es un esdeveniment de r elements P (A) = r/n que es la f ormula cl` assica de les
probabilitats. Lexpressi o r/n sacostuma a llegir nombre de casos favorables dividit per nombre
de casos possibles. La situaci o desdeveniments elementals equiprobables sol anar associada a
alguna simetria de lexperiment com en el cas de tirar una moneda o un dau sim`etrics.

Exemple 1.4 En lexperiment Tirar dos daus de lexemple 1.2 quina es la probabilitat que la
suma valgui 6? Utilitzant 1 tots els esdeveniments son equiprobables amb probabilitat 1/36. Com
A = {(1, 5), (2, 4), (3, 3), (4, 2), (5, 1)} es P (A) = 5/36. Amb 2 A = {{1, 5}, {2, 4}, {3, 3}} per`o els
esdeveniments elementals no s on equiprobables ja que els parells diferents tenen probabilitat doble
que els repetits. Ara hem de fer P (A) = 2/36 + 2/36 + 1/36 = 5/36.

Si te un nombre infinit numerable delements val el mateix que en el cas finit considerant les
sumes com a s`eries quan els esdeveniments no siguin finits.

Exemple 1.5 Tirem una moneda fins que surt cara. Quina es la probabilitat que necessitem mes
de 5 tirades? Tenim que = { O , +O , ++O , +++O , . . . }. La probabilitat duna configuraci
o
de cares i creus donada en una s`erie de n tirades es 1/2n . Comprovem que les probabilitats
n
elementals sumen 1. n=1 1/2 = (1/2)/(1 1/2) = 1. La probabilitat que volem calcular es
P (n > 5)= n=6 1/2 = (1/25 )
n
n=1 1/2 n = 1/25 .

1.7 Espais de probabilitat continus


Considerem amb cardinal infinit no numerable. Per exemple, quan = R o de manera mes
general quan es un subconjunt de Rn . Per poder definir funcions probabilitat cal considerar una
-`algebra apropiada. En el cas de R definim B com la -`algebra generada per tots els intervals de
la forma [a, b] fent complementaris i unions numerables. B sanomena -`algebra de Borel i els seus
elements borelians.
B conte intervals oberts, semirrectes tancades i obertes, punts, conjunts numerables de punts,
etc. Per exemple [a, ) = nN [a, a + n], (a, b) = nN [a + 1/n, b 1/n]. Per tant, si seleccionem
un nombre real X a latzar te sentit plantejar P (a X b), P (X es racional), etc.
El cas de Rn es tracta de manera similar generant la -`algebra Bn a partir dels conjunts de la
forma [a1 , b1 ] [a2 , b2 ] [an , bn ].
El significat precs d` algebra generada per una famlia C de subconjunts es el seg uent. Es f`acil
demostrar que la intersecci o de dues `algebres es una `algebra. La intersecci
o de totes les `algebres
que contenen C ens dona l` algebra mes petita F que conte C. F sanomena `algebra generada per C.

10
1.8 Esdeveniments independents
Diem que dos esdeveniments A i B son independents si P (A B) = P (A)P (B).
En la pr`actica, solem saber que els esdeveniments son independents degut a la mec`anica que els
genera i utilitzem la relacio anterior per calcular probabilitats. Per exemple, al tirar dos daus, el
resultat dun dells es independent del de laltre. Aix, P (primer dau parell i segon dau = 2) =
P (primer dau parell)P (segon dau = 2) = 1/12.
La independ`encia de mes de dos esdeveniments correspon a la factoritzacio total (per exemple
P (A B B) = P (A)P (B)P (C)) i, en general, no equival a la independ`encia daquests esdeveni-
ments dos a dos.

1.9 Probabilitat condicionada


El fet de tenir alguna informacio sobre el resultat dun experiment modifica les probabilitats. Al
tirar un dau, P (1) = 1/6. Ara be, si sabem que el resultat ha estat parell, aquesta probabilitat
seria 0 i si sabem que el resultat ha estat senar, aquesta probabilitat seria 1/3.
Donats dos esdeveniments A i B amb P (B) = 0, la probabilitat de A condicionada a que sha
verificat B es
P (A B)
P (A | B) = . (1.1)
P (B)

En el cas que A i B siguin independents tenim que P (A | B) = P (A).


A vegades es mes f`acil coneixer la probabilitat condicionada i utilitzar-la per calcular P (AB) =
P (A | B)P (B). Es a dir, per que passin A i B ha de passar B i, sabent que ha passat B, ha de
passar A.
Les probabilitats condicionades verifiquen les propietats de les probabilitats ordin`aries. Per
exemple, P (A | B) = 1 P (A | B).

Exemple 1.6 La pel.licula Misi on improbable va ser vista pel 3% dels barcelonins mentres que
la segona part Misi on improbable II ho va ser pel 2%. Sabem que el 60% dels que van veure la
segona part havien vist la primera. Quina es la probabilitat que una persona triada a latzar hagi
vist les dues pel.licules? I si sabem que aquesta persona ha vist la primera part? I si sabem que
aquesta persona nha vist alguna?
Denotem A1 , A2 els esdeveniments corresponents a que aquesta persona hagi vist la primera i
segona part de la pel.licula. Llavors P (A1 A2 ) = P (A1 |A2 )P (A2 ) = 0.6 0.02 = 0.012.
El segon cas es P (A2 |A1 ) = P (A1 A2 )/P (A1 ) = 0.12/0.03 = 0.4.
El tercer cas es P (A1 A2 |A1 A2 ) = P ((A1 A2 )(A1 A2 ))/P (A1 A2 ) = P (A1 A2 )/P (A1
A2 ). Com que P (A1 A2 ) = P (A1 ) + P (A2 ) P (A1 A2 ) = 0.03 + 0.02 0.012 = 0.038, es
P (A1 A2 |A1 A2 ) = 0.012/0.038 = 0.3157.

11
1.10 Teorema de Bayes
n
a dir, Ai F, i = 1, . . . , n
Considerem A1 , A2 , . . . , An una particio de . Es Ai = , Ai Aj =
i=1
i = j. Llavors val la f
ormula de Bayes

P (B | Ai )P (Ai )
P (Ai | B) = n . (1.2)
P (B | Ak )P (Ak )
k=1

DEM: Com la intersecci o es conmutativa (P (Ai B) = P (B Ai )) tenim que P (Ai | B)P (B) =
P (B | Ai )P (Ai ) don trobem P (Ai | B) = P (B | Ai )P (Ai )/P (B) que en el cas que coneguem
P (B) es pot utilitzar directament. Si no, posem B = B = B (A1 A2 An ) =
(B A1 ) (B A2 ) (B An ). Al ser els esdeveniments B Ai incompatibles P (B) =
P (BA1 )+P (BA2 )+ +P (BAn ) = P (B | A1 )P (A1 )+P (B | A2 )P (A2 )+ +P (B | An )P (An )
que es el denominador de la f ormula de Bayes i ens dona el resultat conegut com a formula de la
probabilitat total:
n
P (B) = P (B | Ak )P (Ak ). (1.3)
k=1

Exemple 1.7 Tenim 6 urnes Uk , k = 1, , 6 contenint Uk k boles blanques i 6 k boles negres.


Es tira un dau i sextreu una bola a latzar de la urna corresponent al resultat del dau. Si la bola
es blanca, quina es la probabilitat que el dau hagues tret 3?
Indiquem per D el resultat del dau i B lesdeveniment extreure bola blanca. Llavors
31
P (B | D = 3)P (D = 3) 3 1
P (D = 3|B) = 6
= 66 6 . = = .
k1 1 + 2 + 3 + 4 + 5 + 6 7
P (B | D = k)P (D = k)
66
k=1 k=1

1.11 Espai producte. Proves repetides


Suposem que fem dos experiments independents E1 i E2 . Podem dir tambe que hem fet un experi-
ment E el resultat del qual consta dels resultats de cada experiment i escribim E = E1 E2 . Si els
dos experiments tenen associades estructures despai de probabilitat amb espais mostrals 1 i 2
i funcions propabilitat P1 i P2 , lexperiment E te associat lespai producte cartesi`a = 1 2 .
Per esdeveniments de la forma A = A1 A2 tenim P (A) = P1 (A1 )P2 (A2 ) ja que els experiments
1 i 2 s
on independents. Com aquest tipus desdeveniments donen tots els possibles fent unions i
complementaris, queda determinada la probabilitat P per E.
Aixo ho podem estendre al cas de n experiments. En particular podem considerar que cada
experiment consisteix en una prova dun experiment E. El resultat de les n proves constitueix
lexperiment E n = E E (n vegades).

Exemple 1.8 Tirem un dau 10 vegades. Quina es la probabilitat dobtenir el mateix resultat en
tots?

12
Lesdeveniment no es producte cartesi`a desdeveniments individuals per
o si A =mateix resultat
en tots i Ai =tots donen i i = 1, . . . , 6 tenim que A = 6i=1 Ai i que Ai = {i} {i}. Aix
si P1 es la probabilitat dun resultat en una prova llavors P (Ai ) = P1 (i)10 = 1/610 i P (A) =
6 10 9
i=1 P (Ai ) = 6 1/6 = 1/6 .

1.12 Significat de la probabilitat


Fins ara hem descrit la probabilitat de forma axiom`atica. Un espai de probabilitat es ess`encialment
una estructura matem`atica que ens assigna una mesura a un conjunt de proposicions l`ogiques. Per
veure el significat que te aquesta mesura en un experiment real cal fer unes consideracions pr`evies.

Distingim primer dos tipus de processos fsics o naturals.


Deterministes. Les condicions del sistema determinen completament el seu comportament.
Si repetim lexperiment en les mateixes condicions sempre obtenim el mateix resultat. Per
exemple, mesurar amb quina velocitat arriba a terra una pedra deixada caure des de 1m
dalcada.

Aleatoris. Fixades les condicions, el sistema admet mes dun comportament possible. Al
repetir lexperiment anem obtenint resultats diferents. Per exemple, tirar un dau.
En quina categoria cauen els fen` omens reals? De fet no ho sabem. Les descripcions fsiques
fonamentals son deterministes ja que les mec`aniques newtoniana, relativista o qu`antica estan regides
per equacions diferencials amb el que les condicions inicials determinen unvocament levoluci o del
sistema. Per molts cientfics el determinisme es una propietat que una descripcio matem`atica
fonamental de la natura hauria de contenir. Per una altra part, les descripcions fsiques sempre son
aproximades i tenen un caracter provisional fins que naparegui una de millor. Es podria discutir
tambe que vol dir les mateixes condicions ja que lestat de lunivers no es mai el mateix. En
general entenem que el resultat dun experiment es afectat nomes per lentorn inmediat i podem
despreciar lefecte dels objectes llunyans.

En lordre pr`actic podem deixar de banda les questions filos` ofiques ja que al marge de que la
mec` anica subjacent sigui determinista o no mols fen`omens reals presenten un caracter clarament
aleatori. Un cas en que passa aixo es quan el sistema es molt complex. En aquests casos ser`a
impossible disposar dinformaci o completa sobre el sistema i haurem de recorrer a informaci o de
tipus estadstic. Per exemple, pels sistemes macrosc` opics formats per molts `atoms o mol`ecules es
impossible resoldre o tractar mnimament les equacions del moviment. Si en lloc daix o associem
probabilitats als diferents estats del sistema arribem a una descripcio satisfact`oria (mec` anica es-
tadstica). Par`ametres com la temperatura o lentropia es poden interpretar llavors com variables
que caracteritzen les funcions de probabilitat del sistema.
Per entendre com un sistema determinista pot aparentar un comportament aleatori pensem el
seguent experiment. Tenim una taula inclinada en la que posem un objecte en un punt determinat
(condici
o inicial) i el deixem caure. Si la taula es llisa lobjecte baixar`a seguint una linea recta. Es
trivial predir per on caura si coneixem la seva posicio inicial. Aix o es el que entenem en la pr`actica
per sistema determinista: aquell en que la condicio inicial no nomes determina el comportament
sino que la relacio condici o inicial-comportament es prou senzilla.
Suposem ara que la taula no es llisa sino que est`a plena de petits obstacles que desvien lobjecte
al caure. Ara les traject` ories de caiguda s
on completament irregulars i es molt difcil predir el punt
darribada a partir del punt de sortida. Notem que el sistema es encara determinista ja que lobjecte
segueix trajectories regides per les equacions de Newton per`o la complexitat del seu comportament

13
fa mes adequat considerar-lo com aleatori i descriurel probabilsticament. Els sistemes daquesta
mena sanomenen pseudoaleatoris. Una tirada dun dau nes clarament un exemple ja que qualsevol
variacio per petita que sigui de les condicions inicials pot canviar el resultat.
Un altre exemple dexperiment pseudoaleatori es anar considerant com a resultats de lexper-
iment els successius dgits decimals dun nombre real entre 0 i 1. Si el nombre que els genera es,
diguem, 11/13 no tardarem en adivinar quin es ja que la regla que els va formant es molt simple.
Per`o si ho fem amb el nombre o e, tot i que existeix una regla generadora (per tant determinista),
la succesio tindr`a aparenca purament aleat`oria degut a la complexitat daquesta regla. Aquesta es la
base de la generaci o de nombres aleatoris per part dels ordinadors que son sistemes absolutament
deterministes.

Considerem ara un experiment (pseudo)aleatori i sigui A un enunciat l`ogic referit al resultat


de lexperiment. Repetim N vegades el proces i A es verifica NA vegades. Definim la freq u`encia
relativa de A com fA = NA /N . Llavors esperem que

NA
lim = PA (1.4)
N N

on PA es una constant que correspon a la probabilitat de A. Sha dentendre que el lmit anterior
no te cap sentit matem`atic. Lexpressio diu que si fem moltes vegades lexperiment la frequ`encia
fA hauria de prendre valors molt propers a PA que ve fixada per les condicions de lexperiment. Si
volem axiomatitzar la probabilitat, li demanarem que tingui les propietats que tenen les freq
u`encies
relatives. De manera obvia

(1) 0 fA 1, ja que 0 NA N ,

(2) f = 1, ja que N = N ,

(3) si A, B s
on incompatibles fAB = fA + fB , ja que NAB = NA + NB .

Aquestes propietats son precisament els axiomes que hem exigit a la funci
o probabilitat.

Finalment, cal tenir en compte les limitacions pr`actiques en lus de probabilitats. No sha de
confondre el fet que un proces sigui aleatori amb que tinguem incertesa total sobre el seu resultat.
Quan tirem una moneda el resultat es incert per` o sabem que cada resultat te probabilitat 1/2. A ve-
gades el resultat dun proces es incert i a mes a mes no tenim cap informacio que ens permeti assignar
probabilitats als possibles resultats. Seria incorrecte assignar probabilitats 1/2 a un experiment
amb dos resultats possibles pel fet que no sapiguem res sobre les seves circumst` ancies. Quan la
falta dinformacio sobre el sistema es pot suplir amb un tractament probabilstic es per que aquest
sistema te propietats que ho fan possible.
La definicio dexperiment aleatori exigeix la possibilitat de repetir lexperiment un gran nombre
de vegades sense variar les condicions. Es perillos assignar probabilitats quan es impossible o molt
difcil repetir lexperiment en id`entiques condicions. Per exemple, el resultat dun partit de futbol
o lexit o frac`as duna missi
o espacial. En aquests casos les estimacions probabilstiques tenen un
fort component subjectiu que fa que manquin de sentit.

14
Captol 2

Variables aleat`
ories

2.1 Variable aleat`


oria
Considerem el conjunt R. Ja sha descrit la -`algebra B dels borelians. En lloc de generar-la amb
els intervals tancats com shavia vist, la podem generar de manera equivalent amb les semirrectes
(, a], a R a traves tambe dunions numerables i complementaris.
Donat (, F) espai probabilitzable, F -`algebra, diem que f : R es mesurable si f 1 (A)
F A B. Es a dir, les antiimatges desdeveniments son esdeveniments.
Una variable aleat` o X : R mesurable.
oria es una aplicaci
Essencialment, una variable aleat`oria (v.a. ) consisteix en assignar valors reals als resultats
dun experiment. Com, de manera natural, aquests resultats ja s on moltes vegades expressats com
a nombres reals es tendeix a confondre amb la seva imatge sota laplicaci o X.

Exemple 2.1 E =Tirar una moneda, = {cara, creu}. X(cara)=1, X(creu)=0.

Exemple 2.2 E =Tirar un dau, = {1, 2, 3, 4, 5, 6}. X(n) = n per n = 1, . . . , 6.

Exemple 2.3 E =Triar un instant del dia, = [0, 24). X(t) = t per t .

Exemple 2.4 Per un experiment donat hi ha infinitat de variables aleat`ories. Per exemple, en
lexpeniment anterior X(t) = 0 si 0 t < 12 i X(t) = 1 si 12 t 24 es una altra variable. Una
altra variable es X(t) = 1, t (variable aleat`oria constant).
Les variables aleat`ories s
on els objectes que utilitzem quan fem un tractament probabilstic
duna situacio real. En els casos pr`actics lespai mostral pot tenir una enorme complexitat els
detalls de la qual desconeixem. Degut a aix` o, les variables aleat`ories rarament apareixen en forma
funcional explcita X(). Aix` o no ser`a important perque podrem respondre a preguntes sobre els
valors que pren X a partir de funcions que caracteritzen la variable. Es convenient, per`o, no perdre
de vista lestructura global (X : R) per evitar confusions i entendre be els problemes.

Si tenim una probabilitat P definida a , per cada boreli`a A definim PX (A) = P (X 1 (A)).
Com es suficient coneixer les probabilitats dels generadors de l`algebra desdeveniments, estarem
interessats en PX ((, x]). En el que segueix ometrem el subndex X en PX .

15
2.2 Funci
o de distribuci
o
Donat un espai de probabilitat ( , F, P ) amb variable aleat`
oria X definim la funci
o de distribuci
o
com

FX (x) = P (X x). (2.1)

per tant, la probabilitat de linterval (, x]. Si coneixem la funci


Es, o FX , tenim les probabilitats
dels generadors de l`algebra B i, per tant, queden determinades totes les probabilitats. En aquest
sentit, FX caracteritza completament la variable aleat`oria X.
Inmediatament trobem que donats a < b

P (a < X b) = FX (b) FX (a), (2.2)

ja que FX (b) = P ((, b]) = P ((, a] (a, b]) = P ((, a]) + P ((a, b]) = FX (a) + P ((a, b]).
A mes a mes FX te les seg
uents propietats:

(1) 0 FX (x) 1,

(2) FX es una funcio creixent,

(3) lim FX (x) = 0, lim FX (x) = 1,


x x

(4) FX es una funcio contnua per la dreta.

DEM:

(1) Pel fet de ser una probabilitat.

(2) Considerem x2 > x1 . Llavors FX (x2 ) = FX (x1 ) + P ((x1 , x2 ]) FX (x1 ).

(3) El resultat es intuitiu ja que FX () = P () = 0 i FX () = P (R) = 1. Per provar-ho, notem


que l = limx FX (x) i l+ = limx FX (x) existeixen pel fet de ser FX mon`otona i aco-

tada, i 0 l l+ 1. Posem ara 1 = P (R) = P ( n= (n, n+1]) = n= P ((n, n+1]) =
M1
n= X (F (n + 1) FX (n)) = lim M n=M (F X (n + 1) F X (n)) = limM (FX (M )
FX (M )) = l+ l . Per tant, necess`ariament l = 0 i l+ = 1.

(4) Pel fet de ser FX mon` otona i acotada existeix l = limtx+ FX (t). La funcio es contnua si
l = FX (x). Per trobar el seu valor considerem una successi o decreixent que tendeixi a x per
la dreta. (per exemple xn = x + 1/n.) Es a dir xn x i xn1 xn x per tot n. Llavors
l = limn FX (xn ). Tenim que FX (x1 ) FX (x) = P ((x, x1 ])) = P ( n=2 (xn , xn1 ]) =
M
n=2 P ((x n , x n1 ]) = n=2 (FX (x n1 ) F X (x n )) = limM n=2 (F X (x n1 ) FX (xn )) =
limM (FX (x1 ) FX (xM )) = FX (x1 ) l que ens d ona l = FX (x).

Si FX tambe es contnua per lesquerra en el punt a tenim que

P ({a}) = lim (FX (a) FX (a )) = 0.


0

Per tant les discontinutats de FX indiquen car` acter discret de la variable aleat`
oria i, com indica
la formula anterior, la probabilitat dun punt ve donada pel salt de FX en aquest punt.

16
2.3 Variables aleat`
ories discretes
quan X pren un conjunt finit o numerable de valors. Si aquests valors s
Es on, ordenats, x1 , x2 , . . . , xn
amb probabilitats p1 , p2 , . . . , pn , FX es una funcio esglaonada que pren valors 0, p1 , p1 +p2 , . . . , p1 +
+ pn1 , 1. Una expressi o compacta per FX la trobem mitjancant la funcio de Heaviside u(x).

FX (x) = pk u(x xk ). (2.3)


k

Fig. 1: Funci
o de distribuci
o duna variable discreta.

Posarem X = {x1 , x2 , . . . , xn }. La funci


o en aquest conjunt definida per PX (xk ) = pk sanom-
ena funci
o de probabilitat i es relaciona amb la de distribuci o per

PX (xk ) = FX (xk ) FX (xk1 ). (2.4)

Les seg
uents son algunes de les distribucions mes corrents:
Bernoulli.
X = {0, 1}. PX (1) = p, PX (0) = q = 1 p. Correspon per tant a un experiment amb dos
resultats. Si A es un esdeveniment associat a un experiment qualsevol, podem construir una
variable de Bernoulli assignant 1 a A es verifica i 0 a A no es verifica. Llavors p = P (A).

Binomial.
Repetim n vegades un experiment de Bernoulli. X es el nombre de 1s que obtenim. Aix,
X = {0, 1, 2, . . . , n} i

n k nk
PX (k) = p q . (2.5)
k

Exemple 2.5 Es tira un dau 10 vegades. Quina es la probabilitat que el 6 surti exactament
4 vegades?
Sigui X la variable que compta el nombre de vegades que surt el 6. X es binomial amb n = 10
i p = 1/6. Llavors P (X = 4) = 10 1 4 5 6
4 ( 6 ) ( 6 ) = 0.054.

Geom`
etrica.
X es el nombre de vegades que hem de fer un experiment de Bernoulli fins que surt 1. Aix,
X = {1, 2, . . . } i

PX (n) = q n1 p. (2.6)

17
Podem calcular la funci
o de distribucio
n n
FX (n) = PX (k) = qk1 p = 1 q n . (2.7)
k=1 k=1

Exemple 2.6 Es tira un dau fins que surt un 6. Quina es la probabilitat que calguin 5 o
mes tirades?
Sigui X la variable que compta el nombre de tirades que fem. X es geom`etrica amb p = 1/6.
Llavors P (X 5) = 1 P (X 4) = 1 FX (4) = q 4 = (5/6)4 = 0.482.

Hipergeom`
etrica.
Tenim una urna amb b boles blanques i N b boles negres. En treiem n. X es el nombre de
boles blanques que treiem. X = {0, 1, 2, . . . , n} i
b Nb
k nk
PX (k) = N
. (2.8)
n

Poisson.
Fixem un interval de temps T . X es el nombre de vegades que es produeix un esdeveniment
en aquest interval. Per exemple, contar el nombre de trucades telef`oniques rebudes durant 1h
per una centraleta. La variable de Poisson es pot referir tambe a intervals espacials o duna
altra mena (el nombre de clots en un tram de carretera de 10 Km.)
X = {0, 1, 2, . . . }. La variable es de Poisson si
k
PX (k) = e . (2.9)
k!
Podem justificar aquesta expressio i relacionar aquesta distribucio amb la binomial. Per aix`
o,
dividim linterval T en n subintervals de longitud t = T /n. Considerem n molt gran i,
per tant, t molt petit. Suposem que en cada subinterval lesdeveniment pot produir-se
com a m` axim una vegada amb probabilitat p = t. Ara podem considerar que tenim un
experiment binomial i fer el lmit n
n k n T k T nk
PX (k) = p (1 p)nk = ( ) (1 )
k k n n
T n
1 n1 n2 nk+1 (1 n ) 1
= (T )k T k
(T )k eT
k! n n n (1 n )
k!
que es la distribuci
o de Poisson amb = T . La constant depen nomes del tipus de
fen`omen aix que podem relacionar els valors de per intervals de diferent longitud.

Exemple 2.7 La probabilitat que hi hagi una o mes connexions a un servidor durant un
segon val 0.07. Quina es la probabilitat P que hi hagin cinc o mes connexions durant un
minut?
Sigui s el par`
ametre de Poisson per T = 1s i m el par`
ametre de Poisson per T = 60s. Llavors
m = 60s . Sabem que 0.07 = 1 Ps (0) = 1 es don s = 0.0725. Llavors m = 4.354 i
2 3 4
P = 1Pm (0) Pm (1)Pm (2)Pm (3) Pm (4) = 1 em (1+m + m + m + m ) =
2 3! 4!
0.44.

18
Notem que hem demostrat la relacio asimpt`otica entre les distribucions binomial amb par`ametres
n i p i de Poisson amb par`ametre = np quan n es gran. Aix` o es u
til en alguns c`alculs.

2.4 Variables aleat`


ories contnues
quan FX es contnua i derivable. Llavors existeix la funci
Es o

dFX (x)
fX (x) = . (2.10)
dx
fX sanomena funci o de densitat de la v.a. X. Recordem que si FX es contnua P ({a}) = 0. Per
tant, la probabilitat dun interval no varia incloguem o no els seus extrems.
fX verifica les propietats:

(1) fX 0,
b
(2) P (a X b) = a fX (x)dx,
x
(3) FX (x) = fX (x )dx ,

(4) fX (x)dx = 1.

DEM:

(1) Ja que FX es creixent.


b b
(2) P (a X b) = FX (b) FX (a) = a FX dx = a fX (x)dx.

(3) Fem a en (2).

(4) Fem b en (3).

Una manera mes acurada de definir variable aleat` oria contnua es dir que es quan existeix una
funcio fX tal que es verifica lanterior propietat (3). Aix`o implica (2.10) per derivaci o per`o de fet
fX pot no ser contnua amb el que FX pot no ser derivable en alguns punts.

Fig. 2: Probabilitat com `


area sota fX .

Donada qualsevol funcio 0 contnua a trossos tal que (x)dx = A finit, la funci o
(x)/A defineix una densitat de probabilitat. A vegades es parteix de la definici o de la funcio de
densitat exigint (1),(2) i (4) per definir despres la funcio de distribucio a traves de (3). Notem que
fX (x) no es una probabilitat i per tant pot prendre valors arbitr`ariament elevats. En particular,

19
es possible que fX valgui en algun punt. Aquestes diverg`encies s on admisibles mentres la funci
o
sigui integrable. Una definici
o o manera dexpressar la funcio de densitat es

fX (x)dx = P (x X x + dx) (2.11)

que simbolitza (2) a nivell infinitessimal.


Les variables discretes admeten una funcio de densitat en sentit distribucional utilitzant la de
Dirac:

fX (x) = pk (x xk ). (2.12)
k

Aquesta forma sobte derivant la funcio de distribucio (2.3) i tenint en compte que u = .
Denotarem X el recorregut de la v.a. X. Aquest es el conjunt de R que no conte cap interval
on fX (x) = 0. De fet, no hi ha cap inconvenient en afegir a X qualsevol regi o on fX sanul.li.
En la pr`actica, X es el conjunt de valors que X pren de manera natural. (Si, per exemple, X
representa una dist`ancia seria X = R+ , etc.)
Les variables contnues mes corrents son:
Uniforme.
X = [a, b].
1
ba si a x b
fX (x) = (2.13)
0 altrament


0 si x a
xa
FX (x) = ba si a x b (2.14)

1 si x b

Fig. 3: Densitat i distribuci


o uniformes.

Exponencial.
X = [0, ), > 0.

0 si x < 0
fX (x) = (2.15)
ex si x 0

0 si x < 0
FX (x) = (2.16)
1 ex si x 0

20
Una possible interpretacio daquesta variable es que deixem transcorrer el temps des de 0
i X es linstant en que es produeix per primera vegada un esdeveniment. Per exemple el
moment en que rebem una trucada telef`onica. Sota aquesta interpretacio podem relacionar
la variable exponencial amb la geom`etrica. Dividim linterval [0, x] en n subintervals de
longitud t = x/n. Considerem n molt gran i, per tant, t molt petit. Suposem que en cada
subinterval lesdeveniment pot produir-se amb probabilitat p = t. Ara podem considerar
que tenim un experiment geom`etric i, utilitzant (2.7),

x n
1 FX (x) = P (X > x) = (1 p)n = (1 ) ex
n
el que ens dona la funcio de distribuci
o (2.16).

Fig. 4: Densitat i distribuci


o exponencials.

Si pensem X com el temps que passa entre esdeveniments en la distribuci


o de Poisson tenim
doncs que aquest es exponencial de par`
ametre = /T .
Una propietat que caracteritza la distribucio exponencial es la de no mem`
oria:

P (X > t + h | X > t) = P (X > h). (2.17)

DEM: Com P (X > x) = ex , P (X > t + h) = P (X > t)P (X > h). Per una altra part
P (X > t + h | X > t) = P (X > t + h)/P (X > t).
Aquesta propietat vol dir que la probabilitat de produir-se lesdeveniment en un instant donat
es independent del nombre de vegades que shagi produt anteriorment.

Gaussiana.
Tambe sanomena normal. X = (, ), m R, > 0.

1 (xm)2
fX (x) = e 22 . (2.18)
2

1 xm
FX (x) = (1 + erf( )). (2.19)
2 2

o derror est`a definida (erf(x) = erf(x))


On la funci
x
2 2
erf(x) = et dt. (2.20)
0

21
DEM: En efecte,
x (tm)2
1
FX (x) = e 22 dt.
2

Fent el canvi z = (t m)/ 2 es
xm xm
0
1 2 2 1 2 2 2
FX (x) = ez dz = ( ez dz + ez dz)
0

1 xm 1 xm
= ( + erf( )) = (1 + erf( )).
2 2 2 2 2

Fig. 5: Densitat i distribuci


o normals.

Una funcio gaussiana es simplement lexponencial dun polinomi de segon grau. La densitat
gaussiana es la forma general duna densitat amb aquest comportament. La seva gr` afica
mostra el tpic aspecte de moltes distribucions que es mesuren experimentalment en estadstica
i sanomena campana de Gauss.

Cauchy.
X = (, ), > 0
/
fX (x) = . (2.21)
x2 + 2

1 1 x
FX (x) = + arctan . (2.22)
2

Exemple 2.8 Sigui X una variable aleat`oria i A lesdeveniment X 3 2X 2 X + 2 < 0. Calcular


P (A) pels casos en que X es (a) Uniforme en [2, 2], (b) Exponencial = 3, (c) Normal m =
0, = 1 i (d) Cauchy = 1.
Primer posem lesdeveniment en termes dintervals: A = J1 J2 on J1 = (, 1), J2 = (1, 2).
Aix P (A) = P (J1 ) + P (J2 ).
f`acil verificar que, per una variable uniforme en I la probabilitat dun interval J contingut
(a) Es
en I val longitud(J)/longitud(I). Aix P (J1 ) = P (J2 ) = 1/4 don P (A) = 1/2.
F (x) = 1 e3x . P (J1 ) = 0 i P (J2 ) = F (2) F (1) = e3 e32 = 0.047.
(b) Es
F (x) = (1 + erf(x/ 2)/2. P (J1 ) = F (1) = (1 erf(1/ 2))/2 = 0.1586, P (J2 ) = F (2)
(c) Es
F (1) = (erf(2/ 2) erf(1/ 2))/2 = 0.1359, P (A) = 0.294.
F (x) = 1 + 1 arctan x. P (J1 ) = F (1) = 1/4, P (J2 ) = F (2) F (1) = (arctan 2
(d) Es 2
arctan 1)/ = 0.1024, P (A) = 0.352.

22
Algunes variables tenen comportament continu i discret alhora. Sanomenen variables mixtes.
Es donen quan FX te discontinutats i no es constant a trossos.

Exemple 2.9 Tirem una moneda. Si surt cara X val 2. Si surt creu X es tria uniformement en
linterval [0,1]. Llavors (veure (2.28))
1 1
fX (x) = (u(x) u(x 1)) + (x 2).
2 2
Quan una v.a. discreta concentra les seves probabilitats en valors molt elevats sol ser mes pr`actic
tractar-la com si fos contnua. Aix`
o passa, per exemple, a lestudiar la est`
adistica de les poblacions
humanes. Alguns resultats estableixen relacions u tils entre distribucions discretes i contnues, com
ja hem vist al cas exponencial-geom`etrica o com el seg uent resultat.

2.5 Teorema de DeMoivre-Laplace


Aquest teorema, que demostrem al final del captol, estableix una relaci
o entre la distribuci
o bino-
mial i la normal. Diu que si npq 1
2
n k nk 1 (knp)
p q e 2npq . (2.23)
k 2npq
Mes precisament, el quocient dels dos costats tendeix a 1 quan npq . El resultat ens diu
que per n molt gran (en la pr`actica n > 10) la distribucio binomial de par`ametres n, p es correspon
a la gaussiana de par`ametres m = np, 2 = npq.

Exemple 2.10 Un monitor te 10 15 pixels. Cada pixel sil.lumina amb probabilitat p = 0.4.
Quina es la probabilitat P que hi hagin mes de 80 pixels il.luminats?
Com no tenim una expressio compacta per la funcio de distribucio binomial, seria
150
150
P = 0.4k 0.6150k .
k
k=81

o normal amb m = 1500.4 = 60 i 2 = 1500.40.6 = 36.


En lloc de fer la suma utilitzem laproximaci
P = 1 F (80) = (1 erf(2.35))/2 = 4 104 .
En aquest exemple veiem laplicaci o de la distribucio normal a la descripci
o del soroll. Si aquest
soroll est`a produt per la suma de petites fluctuacions aleat`ories independents, pren forma gaussiana
i sanomena soroll blanc.

2.6 Funcions de densitat i distribuci


o condicionades
Com qualsevol probabilitat, la funcio de distribucio condicionada a que lesdeveniment B sha
produt es
P (X x i B)
F (x | B) = P (X x | B) = . (2.24)
P (B)
En el cas de distribucions contnues la funcio de densitat condicionada es
dF (x | B)
f (x | B) = . (2.25)
dx

23
Aquestes funcions tenen les mateixes propietats que les funcions sense condicionar. En particular,
F va de 0 a 1 i f est`a normalitzada a 1.
Tenim llavors la forma contnua del teorema de Bayes:
P (B | X = x)f (x)
f (x | B) = . (2.26)
P (B | X = x )f (x )dx

DEM: Per la formula de Bayes habitual

P (x X x + x | B)P (B) = P (B | x X x + x)P (x X x + x),

es a dir,

(F (x + x | B) F (x | B))P (B) = P (B | x X x + x)(F (x + x) F (x)).

Si dividim els dos costats per x i fem el limit x 0 trobem

f (x | B)P (B) = P (B | X = x)f (x).

Integrant els dos costats entre i tenim la versi


o contnua de la formula de la probabilitat
total:

P (B) = P (B | X = x)f (x)dx (2.27)

que substitut en lanterior expressio es el que voliem demostrar.


La f
ormula (2.27) dona una manera de calcular la probabilitat que es u til en alguns casos.
Una nova versi o de la formula de la probabilitat total (en aquest cas, de la densitat total)
sobte considerant una particio de lespai mostral {Ai }i=1, ,n . Utilitzant (1.3) tenim que F (x) =
n
i=1 F (x | Ai )P (Ai ) don, derivant treiem
n
f (x) = f (x | Ai )P (Ai ). (2.28)
i=1

Ap`
endix: Demostraci
o del teorema de DeMoivre-Laplace
Volem una expressio asimt`otica de pn (k) = (nk )pk q nk . Per aix` o fem el canvi de variable k =

np + npqx. Considerarem x finit de manera que el lmit n implica tambe k . El smbol
vol dir que el quocient dels dos costats tendeix a 1.
Notem les relacions

k pq k pq
= p + x, 1 = q x.
n n n n

Ara tenim que, fent servir Stirling (N ! 2N N N eN quan N )

n! k nk 2n( ne )n
pn (k) = p q pk q nk
k!(n k)! 2k( ke )n 2(n k)( nk e ) nk

1 nn 1 1
= k nk
pk q nk =
k k (n k) k ( k )k ( 1k/n )nk
2k 1 n 2k 1 n np q

24
La primera part es comporta asimpt`oticament
1 1 1
=
2k 1 k 2np q 2npq
n

que es el coeficient de lexponencial en (2.23).


Per la segona part notem primer les seg uents relacions (N )
a Nb
(1 + ) eab
N
a a a a2 a2 b
(1 + )N b = exp{N b log(1 + )} exp{N b( )} = eab N 2
N N N 2N
on hem fet servir el desenvolupament de Taylor log(1 + x) = x x2 /2 + o(x2 ).
Ara es
1 1
=
k k 1k/n nk p
( np ) ( q ) x
(1 + q n ) np+ npqx (1 pq xn )nq npqx

1 2 (knp)2
q 2 p 2 = ex = e 2npq .
e pqx n 2 x eqx2 e pqx n 2 x epx2

25
Captol 3

Funcions duna variable aleat`


oria

Considerem una variable aleat`oria X amb funcio de densitat fX . Si tenim Y = g(X) on g es una
certa funcio, resulta que Y es una nova variable aleat`oria. (Recordem que X : R. Ara tenim
X g
R R i en termes de composici o de funcions Y = g X.) Ens plantejem trobar les funcions
de distribucio i densitat de Y a partir de les de X.

Fig. 1: Transformaci
o duna v.a.

La funcio g es pot considerar sota dos punts de vista. Per un costat podem pensar que el resultat
de lexperiment X pateix alg un tipus de proces que el transforma en g(X) que es el que nosaltres
observem. Per exemple, podem tenir un senyal electric aleatori del qual el nostre instrumental
nomes ens permet calcular-ne el signe. Llavors, el senyal X pot prendre qualsevol valor real per` o
nosaltres mesurem g(X) = signe(X) que nomes val 1 i 1. Tambe podria ser que detectessim el
senyal despres dalg un tipus de processat amb el que g(X) seria una funcio mes complicada. En
aquest exemple es veu que al fer la mesura final es pot perdre informacio respecte al resultat inicial
X. Aix` o passa quan la funcio g no es injectiva sobre el seu recorregut.
Per una altra part, pot ser que disposem directament de X per`o preferim treballar amb una
altra variable Y = g(X). Si considerem que estem fent un canvi de variable, g ha de ser injectiva
sobre el seu recorregut ja que hem de poder invertir la relacio entre X i Y .

3.1 Cas discret


X pren els diferents valors xi . Y pren els valors g(xi ). Podria ser que un valor de Y correspongues
a mes dun valor de X. Per tant tenim

PY (y) = PX (g1 (y)). (3.1)

26
Exemple 3.1 Un circuit te tres estats de sortida X = {1, 0, 1} en els que shi troba amb
o de probabilitat de Y = X 2 ?
probabilitats PX (1) = PX (0) = PX (1) = 1/3. Quina es la funci
Tenim Y = {0, 1}. PY (0) = PX (g1 (0)) = PX (0) = 1/3 i PY (1) = PX (g 1 (1)) = PX ({1, 1}) =
2/3.

3.2 Cas continu


Considerem la v.a. Y = g(X). Definim els conjunts y = {x | g(x) y}. Llavors

FY (y) = P (Y y) = P (g(X) y) = P (y ). (3.2)

Per que aquesta probabilitat estigui definida g no pot ser qualsevol funcio. Cal que

a dir, X dom(g).
(1) g estigui definida pels valors que pot prendre X. Es

(2) y sigui un boreli`a per tot y. En aquest cas es diu que g es una funcio de Baire.

(3) P (g(X) = ) = 0. El conjunt de singularitats infinites ha de ser de mesura 0 en el sentit


o pasa sempre que X es contnua i g val en un conjunt numerable
de la probabilitat. Aix`
de punts.

Totes les funcions que utilitzem en la pr`actica verifiquen aquestes condicions. Per calcular FY
de manera efectiva hem destudiar en cada cas la forma de g. Una vegada obtinguda FY podem
calcular fY per derivaci
o.
Partirem de la representaci o gr`afica de g. Recorrem leix de les ys i per cada valor observem
la forma de y . Aquest conjunt tindr`a la forma de unio de alguns intervals de les xs el que ens
permet escriure la probabilitat combinant la funcio FX en alguns punts. Considerem diferents tipus
de comportament:

g mon`
otona creixent.
En aquest cas y = (, x] i, per tant, FY (y) = FX (x).

Fig. 2: g mon`
otona.

g mon`
otona decreixent.
En aquest cas y = [x, ) i, per tant, FY (y) = 1 FX (x).

27
Fig. 3: g no mon`
otona.

g no es mon`otona.
En el primer exemple y = [x1 , x2 ] i, per tant, FY (y) = FX (x2 ) FX (x1 ).
En el segon exemple y = (, x1 ] [x2 , x3 ] i, per tant, FY (y) = FX (x3 ) FX (x2 ) + FX (x1 ).

g es constant en un tros.
Linterval [a, b] que te probabilitat finita va a parar a un valor u
nic. La variable que resulta
te comportament discret (mixte).

Fig. 4: g constant.

g es discontnua.
Al recorrer linterval c y d, y resta invariant. Llavors FY resulta constant sobre linterval
[c, d].

Fig. 5: g discontnua.

28
1 1
Exemple 3.2 Sigui X una v.a. de Cauchy amb FX (x) = 2 + arctan x. Considerem Y = g(X)
on g es la funcio de la figura.

Tenim el seg
uent:

FY (y) = 0 per y < 1.

En y = 1, FY (y) salta PX (g 1 (1)) = PX ((, 0]) = FX (0) = 1/2.

FY (y) es mante constant en 1 < y < 0.

Per 0 < y < 1 tenim x = ln y i FY (y) = PX (y ) = PX ((, 0] (x, ]) = PX ((, 0]) +


1 PX ((, x]) = FX (0) + 1 FX ( ln y)) = 1 + 1/ arctan(ln y).

Per y 1, FY (y) = 1.

El resultat es una variable mixta amb funcio de densitat


1 1
fY (y) = FY (y) = (y + 1) + (u(t) u(t 1)).
2 y(1 + (ln y)2 )

3.3 C`
alcul de la funci
o de densitat
Quan g es derivable a trossos i no es constant en cap tros podem obtenir directament fY sense
calcular pr`eviament la funcio de distribucio.
Lequacio y = g(x) te cap, una o v`aries solucions xi (y). Llavors

1
fY (y) = fX (xi (y)) . (3.3)
|g (xi (y))|
i

29
En lanterior equaci
o posem 0 quan no hi han solucions.
DEM: Per definici o
P (y Y y + y)
fY (y) = lim .
y0 y
Per tant, considerem y > 0 i prou petit per que tinguem

P (y Y y + y) = P (X entre xi i xi + xi )
i

on xi son els valors tals que g(xi ) = y. Notem que xi pot ser negatiu.

Ara calculem
P (X entre xi i xi + xi )
fY (y) = lim
y0 y
i

P (X entre xi i xi + xi ) 1 1
= lim = fX (xi ) .
y0 | xi | y/|xi | | dy/dx |xi
i i

2
Exemple 3.3 X es gaussiana amb fX (x) = 1 ex /2 . Y = X 2.
2

o y = x2 no te soluci
Lequaci o per y negativa. Per y positiva te dues solucions x1 (y) = y i

x2 (y) = y. Com g (x) = 2x, |g (x1 )| = |g (x2 )| = 2 y. Llavors fY (y) = 0 si y < 0 i

1 1 1 1 ey/2
fY (y) = ey/2 + ey/2 =
2 2 y 2 2 y 2y

si y 0.

Exemple 3.4 X es uniforme en [0, 2]. Y = sin X.


1
fX (x) = 2 i es veu inmediatament que Y = [1, 1]. Per 1 < y < 1, lequaci
o y = sin x te
2
dues solucions en les quals |g (x1 )| = |g (x2 )| = cos x1 = 1 y . Llavors

1
fY (y) = .
1 y2

30
Captol 4

Par`
ametres estadstics

En el que segueix, X designa una variable aleat`


oria discreta amb funcio de probabilitat P o contnua
amb funcio de densitat fX .

4.1 Esperanca
Lesperanca de la v.a. contnua X es el nombre

E[X] = xfX (x)dx. (4.1)

En el cas discret es

E[X] = xk P (xk ). (4.2)


k

E[X] tambe sanomena valor esperat, valor mitj`


a o promig de la variable X. Altres notacions
emprades son mX , X o < X >.
Les seves propietats b`asiques s
on:

(1) Si Y = g(X), E[Y ] = E[g(X)] = g(x)fX (x)dx (teorema de lesperanca),

(2) E[1] = 1,

(3) E[g(X) + h(X)] = E[g(X)] + E[h(X)], per , R,

(4) Si g 0, E[g(X)] 0.

DEM:

(1) Considerem una particio de leix real amb punts yi separats per la dist`ancia yi = yi+1 yi .
E[Y ] sobte considerant
S= yi P (yi Y yi + yi )
i
(k)
i prenent el lmit quan les particions son cada vegada mes fines. Si designem xi el conjunt
(k)
de punts tals que g(xi ) = yi , tenim que
(k) (k) (k) (k)
S= g(xi )P (X entre xi i xi + xi )
i k

31
i aquests formen una particio del recorregut de la variable X. Podem estendre aquesta particio
a tot leix afegint parts que tenen probabilitat 0. En el cas de variables contnues, al fer el
lmit trobem
E[Y ] = yfY (y)dy = g(x)fX (x)dx.

El procediment amb que hem construt aquestes integrals consistent en fer la partici o no
en els valors de la variable sino en els de la funci
o dona lloc al que sanomena integral de
Lebesgue. Aquesta te propietats que la fan una eina poderosa en lan`alisi. A efectes pr`actics,
en les aplicacions resulta suficient la integral de Riemann ja que els dos tipus dintegracio
coincideixen en les funcions i conjunts dintegracio mes corrents.
Aquesta propietat es simplement la regla de canvi de variable per integrals. Aix` o es veu
otona creixent amb recorregut (a, b). Llavors fY es nul.la fora
f`acilment en el cas que g es mon`
daquest interval i fent el canvi y = g(x)
b
fX (x)
E[Y ] = yfY (y)dy = yfY (y)dy = g(x) g (x)dx = g(x)fX (x)dx.
a g (x)

(2) Posem g(X) = 1 en lanterior propietat.

(3) La integral es lineal respecte a les combinacions de funcions. Aix`o es, (g + h) = g +


h.

(4) La integral duna funcio positiva es positiva.


Per interpretar el significat del nombre E[X] considerem el cas duna variable discreta finita
amb valors xi i probabilitats pi , i = 1, , n. Si fem N vegades lexperiment obtenim els resultats
r(a) , a = 1, , N on cada valor correspon a algun dels xi . Als N resultat, xi apareixera un nombre
de vegades Ni corresponent a una freq u`encia relativa que es pot aproximar per la seva probabilitat
quan N es gran. Si fem el promig aritm`etic dels resultats
N n n n
1 (a) 1 Ni
r = xi Ni = xi xi pi = E[X].
N a=1
N N
i=1 i=1 i=1

Notem tambe que mentres la funci o de densitat sempre es integrable a tot R, lexpressi
o (4.1) pot
no existir. En aquest cas, si la funci o integrada en (4.1) es positiva direm que E[X] = . Si aquesta
funcio conte a`rees positives i negatives infinites direm que lesperanca no existeix. Si fem repeticions
de lexperiment que ens genera X i anem calculant els promitjos aritm`etics dels resultats obtinguts
ens anirem acostant al valor E[X]. Quan lesperanca es infinita aquests promitjos divergiran cap a
infinit. Quan lesperanca no existeix mostraran oscil.lacions irregulars.

4.2 Vari`
ancia

V [X] = E[(X X)2 ]. (4.3)

Les seves propietats b`


asiques son:
(1) V [X] 0,
2
(2) V [X] = E[X 2 ] X .

32
(3) V [X] = 2 V [X] per R.

(4) V [X + ] = V [X] per R.

DEM:

(1) Per la propietat (4) de lesperanca.


2 2 2
(2) V [X] = E[X 2 2XX + X ] = E[X 2 ] 2XE[X] + X E[1] = E[X 2 ] X .

(3) Per la propietat (3) de lesperanca, E[X] = E[X] i E[(X)2 ] = E[2 X 2 ] = 2 E[X 2 ].
Utilitzant la propietat (2), queda demostrat.

(4) V [X + ] = E[(X + (X + ))2 ] = E[(X X)2 ].

Lesperanca indica generalment al voltant don es concentren els valors amb probabilitat alta.
La vari`
ancia mesura lamplada daquesta regio. El quadrat a lexpressi
o (4.3) es posa per mesurar
sempre desviacions positives. El seg
uent par`ametre mesura el mateix per`o te comportament li-
neal.

4.3 Desviaci
o est`
andard

Std[X] = V [X]1/2 . (4.4)

Verifica Std[X] = ||Std[X], per R.

En el que segueix denotarem m = E[X], 2 = V [X] i = Std[X].

4.4 Variable aleat`


oria normalitzada
Donada la v.a. X, fent un desplacament i un canvi descala, definim la variable normalitzada

= X m.
X (4.5)

= 0, V [X]
Aquesta variable verifica E[X] = 1 i Std[X] = 1.
La variable normalitzada tambe sanomena tipificada o estandaritzada.
Notem que una variable aleat`oria pot tenir dimensions fsiques com, per exemple, longitud,
freq
u`encia o energia. Com les probabilitats son adimensionals, la funci
o de distribucio tambe ho es.
En canvi, si X te dimensi o de densitat te dimensions L1 , lesperanca L, la vari`
o L la funci ancia
L2 i la desviaci
o est`
andard L. Les variables normalitzades no tenen dimensions.

4.5 Par`
ametres de les distribucions usuals
Bernoulli.

m = p, 2 = pq, = pq.
DEM:
m = E[X] = 0 q + 1 p = p.
2 = V [X] = (0 p)2 q + (1 p)2 p = pq.

33
Binomial.

m = np, 2 = npq, = npq.
DEM: En el que segueix considerem p i q variables independents i posem q = 1 p nomes al
final. Una derivaci
o afecta tot el que te a la dreta.

n
n k nk d
m= k p q = p (p + q)n = pn(p + q)n1 = np.
k dp
k=0

n
n k nk d d
E[X 2 ] = k2 p q = p p (p + q)n
k dp dp
k=0

= pn(p + q)n1 + n(n 1)p2 (p + q)n2 = n2 p2 + npq.

2 = (n2 p2 + npq) (np)2 = npq.

Geom`
etrica.

m = 1/p, 2 = q/p2 , = q/p.
DEM:

d d p p 1
m= n q n1 p = qn p = = 2
= .
n=1
dq n=0
dq 1 q (1 q) p


d d 1+q 1+q
E[X 2 ] = n2 q n1 p = q qnp = 3
p= .
n=1
dq dq n=0
(1 q) p2

1+q 1 q
2 = 2
2 = 2.
p p p
Hipergeom`
etrica.
m = (nb)/N, 2 = nb(N b)(N n)/N 2 (N 1).
DEM: Considerem les igualtats
d
( (1 + x)A )(1 + x)B = A(1 + x)A+B1 ,
dx
d d
( x (1 + x)A )(1 + x)B = A(1 + x)A+B1 + A(A 1)x(1 + x)A+B2 .
dx dx
Si utilitzem el binomi de Newton en totes les pot`encies, trobem les relacions combinat`
ories
A B A+B1
k =A ,
k l n1
k+l=n

A B A+B1 A+B2
k2 =A + A(A 1) .
k l n1 n2
k+l=n

Aplicant aquest resultat trobem


b N b
k nk 1 N 1 n
E[X] = k N
= N
b =b .
n n
n1 N
k

34
b Nb
2 2 k nk
E[X ] = k N
k n

1 N 1 N 2 bn n(n 1)
= N
(b + b(b 1) )= + b(b 1) .
n
n1 n2 N N (N 1)

bn n(n 1) n2 nb(N b)(N n)


2 = ( + b(b 1) ) b2 2 = .
N N (N 1) N N 2 (N 1)

Poisson.

m = , 2 = , = .
DEM:
k
d k d
m= ke =e = e e = .
k! d k! d
k=0 k=0


k d d
E[X 2 ] = k2 e = e e = e (e + e ) = 2 + .
k! d d
k=0

2 = (2 + ) 2 = .

Uniforme.

m = (a + b)/2, 2 = (b a)2 /12, = (b a)/ 12.
DEM:
b
1 a+b
m= x dx = .
a ba 2

b
1 b2 + ab + a2 b
E[X 2 ] = x2 dx = .
a ba 3

b2 + ab + a2 b (a + b)2 (a b)2
2 = = .
3 4 12
Exponencial.
m = 1/, 2 = 1/2 , = 1/.
DEM:
1 1
m= x ex dx = z ez dz = .
0 0

1 2
E[X 2 ] = x2 ex dx = z 2 ez dz = .
0 2 0 2

(A les integrals hem fet el canvi z = x.)

2 1 1
2 = 2
2 = 2.

35
Gaussiana.
Els par`ametres m i 2 ja apareixen a la funci
o de densitat normal.
DEM:
(xm)2
1 1 2 /2
E[X] = x e 22 dx = (z + m)ez dz = m.
2 2

(xm)2
1 1 2 /2
E[X 2 ] = x2 e 22 dx = (z + m)2 ez dz
2 2

1 2 /2
= ( 2 z 2 + m2 )ez dz = 2 + m2 .
2

(A les integrals hem fet el canvi z = (x m)/. Sha fet servir que la integral duna funci
o
antisim`etrica en un interval sim`etric es 0.)

V [X] = ( 2 + m2 ) m2 = 2 .

Cauchy.
x
Els par`ametres m, 2 no existeixen ja que la integral x2 +1 dx no existeix.

4.6 Moments duna variable aleat`


oria
El moment n-`esim es


mn = E[X n ] = xn fX (x)dx, (4.6)

o, en el cas discret

mn = xnk P (xk ), (4.7)


k

on n = 0, 1, . . . . Notem que m0 = 1, m1 = E[X] i V [X] = m2 m21 .


Els moments centrals s on

n = E[(X X)n ] = (x X)n fX (x)dx, (4.8)

on n = 0, 1, . . . . Notem que 0 = 1, 1 = 0 i 2 = V [X].

Exemple 4.1 Calcular els moments duna variable exponencial.



1 n!
mn = E[X n ] = xn ex dx = z n ez dz = .
0 n 0 n

36
Exemple 4.2 Calcular els moments centrals duna variable normal.


n n 1
(xm)2 ( 2)n 2
n = E[(X m) ] = (x m) e 2 dx =
2 z n ez dz
2

xm
(canvi z = ). Ara veiem que
2
0 si n es senar
n = n n
n!
si n es parell
2 2 (n
2
)!

ormules (D.12) i (D.14).)


(veure a lap`endix les f

4.7 Desigualtat de Txebyshev


Per a tota v.a. X. Per a tot a > 0
2
P (|X X| a) (4.9)
a2
Si posem a = k podem expressar-ho de la forma

P (| X X | k) 1/k2 . (4.10)

DEM:
2 = (x X)2 fX (x)dx (x X)2 fX (x)dx
|XX|a

a2 fX (x)dx = a2 P (|X X| a).


|XX|a

Lanterior resultat caracteritza com a mesura de la dispersi


o.

4.8 Llei dels grans nombres


La seguent es la llei dels grans nombres en forma d`ebil per un experiment de Bernoulli.
Repetim n vegades un experiment de Bernoulli amb probabilitat d`exit p. Considerem la variable
aleat`
oria X donada pel nombre total d`exits. Llavors, per a tot > 0
X
lim P (| p | ) = 1. (4.11)
n n
DEM: X es una variable binomial desperanca np i vari`
ancia npq. Utilitzant la desigualtat de
Txebyshev tenim que
X npq pq
P (| p | ) = 1 P (| X np |> n ) 1 2 2 = 1 2 .
n n n
Fent el lmit n trobem (11).
La llei dels grans nombres ens diu que en algun sentit hem obtingut (1.4). (Nomes cal considerar
que lexperiment de Bernoulli correspon a veure si es verifica lesdeveniment A. Llavors X =
NA , n = N i X/n es la frequ`encia relativa.)
Diem que X/n tendeix a p en probabilitat si passa (4.11). Amb aquesta nocio de converg`encia
veiem, doncs, que les frequ`encies relatives dun esdeveniment tendeixen a la seva probabilitat.

37
4.9 Teorema del lmit central
Siguin X1 , X2 , X3 , mesures independents corresponents a una variable aleatoria X desperanca
m i vari`
ancia . El promig
X1 + X2 + + Xn
Yn =
n

es tal que nYn tendeix, per n , a una variable normal desperanca m i vari` ancia .

4.10 Probabilitat, esperanca, mesura


Els dos aspectes b`asics en problemes de probabilitat son lobtencio de la probabilitat dun esdeveni-
ment i el c`alcul de lesperanca duna v.a. Els desenvolupaments te`orics afavoreixen la probabilitat
com a concepte b` asic i deixen lesperanca com a concepte subsidiari.
En realitat el c`alcul de valors esperats es lelement principal en moltes aplicacions. De fet
la probabilitat es un cas particular de lesperanca on la variable es la de Bernoulli associada a
lesdeveniment. Lobjecte fonamental es la mesura que tinguem. Aquesta mesura ens dona els
valors de les probabilitats i de les esperances segons quina cosa mesurem.
El fet que en moltes aplicacions nomes importi calcular promitjos es deu a que en aquests casos
es poden despreciar les fluctuacions i es pot suposar que les variables prenen valors constants.
Aquest es el cas en sistemes grans (poblacions humanes, mat`eria macrosc` opica) on lelevat nombre
de components permet aplicar la llei dels grans nombres.

38
Part II

Variables aleat`
ories multidimensionals
i teoria de lestimaci
o

39
Captol 5

Variables aleat`
ories multidimensionals

An`alogament al cas unidimensional, una variable aleat`oria n-dimensional es una aplicaci o X :


n n
R mesurable. Es a dir, les antiimatges de borelians de R son esdeveniments de la -`algebra que
tinguem a . Es comprova que si laplicacio es X = (X1 , X2 , . . . , Xn ) llavors Xi , i = 1, . . . , n
s
on variables aleat`ories unidimensionals. De la mateixa manera, donades v`aries variables aleat`ories
unidimensionals, laplicacio sobre Rn donada per X = (X1 , X2 , . . . , Xn ) es una v.a. n-dimensional.
Ess`encialment, una v.a. multidimensional consisteix en el resultat dun experiment expressat
com una col.lecci o de nombres reals. Per exemple, seleccionar una persona a latzar i mesurar la
seva alcada i pes o mesurar les tres coordenades espacials de la posici o dun electro en un `atom.
En el que segueix, fixarem n = 2 per simplicitat. Lextensi o a n arbitrari es directa i la
resumirem al final.

5.1 Variable aleat`


oria bidimensional
una aplicaci
Es o R2 que expressarem (X, Y ). Com X i Y son v.a.s direm que tenim una
distribucio conjunta de probabilitat. L`algebra B2 es pot generar a partir de rectangles [a1 , b1 ]
[a2 , b2 ] o, de manera alternativa i com ara ens interessa, amb regions (, a] (, b]. Les
probabilitats daquestes regions les determinen totes.

o (, a] (, b].
Fig. 1: Regi

5.2 Funci
o de distribuci
o conjunta
La funcio de distribucio conjunta de dues v.a. es la funci
o

FXY (x, y) = P (X x i Y y). (5.1)

40
per tant, la probabilitat de la regio (, x] (, y].
Es,
Les seves propietats s
on:

(1) 0 FXY (x, y) 1,

(2) FXY es una funcio creixent en x i y, es a dir, si x1 x2 i y1 y2 llavors FXY (x1 , y1 )


FXY (x2 , y2 ),

(3) lim FXY (x, y) = 0, lim FXY (x, y) = 0, lim FXY (x, y) = 1,
x y x,y

(4) FXY es una funcio contnua per la dreta segons la x i la y,

(5) P (x1 < X x2 i y1 < Y y2 ) = FXY (x2 , y2 ) FXY (x2 , y1 ) FXY (x1 , y2 ) + FXY (x1 , y1 ) (on
x1 < x2 i y1 < y2 ).

DEM:

(1) , (2), (3) i (4) es demostren igual que en el cas unidimensional.

(5) Considerem les regions disjuntes A = (x1 , x2 ](y1 , y2 ], B = (, x1 ](y1 , y2 ], C = (x1 , x2 ]


(, y1 ], D = (, x1 ] (, y1 ]. Llavors FXY (x2 , y2 ) = P (A) + P (B) + P (C) + P (D),
FXY (x1 , y2 ) = P (B) + P (D), FXY (x2 , y1 ) = P (C) + P (D), FXY (x1 , y1 ) = P (D). Daqu
eliminem P (A) i obtenim la propietat.

5.3 Funcions de distribuci


o marginals
Son les funcions

FX (x) = FXY (x, ), FY (y) = FXY (, y). (5.2)

Son les funcions de distribucio de les v.a.s X i Y respectivament.

5.4 Funci
o de densitat conjunta
Si existeix la derivada
2 FXY (x, y)
fXY (x, y) = (5.3)
xy
on conjuntament contnues i fXY sanomena funci
es diu que X i Y s o de densitat conjunta de les
variables X i Y .

41
Si expressem la propietat (5) de la funcio de distribucio per un rectangle infinitesimal trobem
lexpressio simb`
olica

fXY (x, y)dxdy = P (x X x + dx, y Y y + dy). (5.4)

fXY verifica les propietats:

(1) fXY 0,

(2) P ((X, Y ) A) = A fXY (x, y)dxdy,


x y
(3) FXY (x, y) = fXY (x , y )dx dy ,

(4) fXY (x, y)dxdy = 1.

DEM: (1) es segueix de la propietat (1) de FXY . (3) i (4) sobtenen posant en (2) A =
(, x] (, y] i A = R2 respectivament. Per demostrar (2) podem dividir A en rectangles cada
vegada mes petits i aplicar (4). Aix` o limita el tipus de conjunt A que podem considerar per`o es
suficient en la pr`
actica i correspon a la integral de Riemann. Per considerar conjunts mes generals
cal passar a la integral de Lebesgue.

5.5 Funcions de densitat marginals


Son les funcions de densitat unidimensional de X i de Y :
dFX (x) dFY (y)
fX (x) = , fY (y) = , (5.5)
dx dy
o, de manera alternativa

fX (x) = fXY (x, y)dy, fY (y) = fXY (x, y)dx. (5.6)

DEM: De (5.2) i la propietat (3) de la densitat conjunta obtenim


x
FX (x) = ( fXY (x , y)dx )dy.

x
dFX (x) d
fX (x) = = ( fXY (x , y)dx )dy = fXY (x, y)dy.
dx dx

5.6 Cas discret


Partim de X i Y v.a. discretes que prenen un nombre finit o numerable de valors xi , yj . La funci
o
de probabilitat conjunta es

PXY (xi , yj ) = P (X = xi i Y = yj ). (5.7)

Les funcions de probabilitat marginals s


on

PX (xi ) = PXY (xi , yj ), PY (yj ) = PXY (xi , yj ). (5.8)


yj xi

42
Com es comprova f`acilment, les funcions de densitat marginals i les funcions de probabilitat
marginals estan normalitzades a 1 i constitueixen funcions de densitat i probabilitat unidimension-
als. En un context bidimensional lesdeveniment {x} vol dir realment {x} R. En el cas discret
lesdeveniment {xi } vol dir realment {xi } {y1 , . . . , yn }. Els subndex XY , X, etc. en les funcions
de distribuci o i densitat conjuntes i marginals es poden ometre si es sobreentenen les v.a.s i la
notacio es prou clara.

5.7 Algunes distribucions usuals


Trinomial
una generalitzaci
Es o de la binomial. En un experiment considerem tres esdeveniments A1 ,
A2 i A3 que formin una particio de . Les seves probabilitats respectives p1 , p2 i p3 verifiquen
p1 + p2 + p3 = 1. Repetim n vegades lexperiment i considerem les tres v.a. Xi =# de vegades
que passa Ai , i = 1, 2, 3. Com X1 + X2 + X3 = n, en el fons tenim dues v.a. discretes. Si
indiquem per ni el valor que pren la variable Xi llavors es:
n!
P (n1 , n2 , n3 ) = pn1 1 pn2 2 pn3 3 . (5.9)
n1 !n2 !n3 !

on implicitament n1 + n2 + n3 = n. Tambe denotarem aquesta expressi


o per P (n1 , n2 ).
En efecte, el nombre de maneres en que podem situar les n1 , n2 , n3 ocurr`encies entre les n
es triar n1 de les n i n2 de les n n1 restants. La resta queden fixades i n3 = n n1 n2 .

n n n1 n!
=
n1 n2 n1 !n2 !n3 !

La probabilitat marginal de X1 es
nn1
n n1 n n1 n2 nn1 n2
P (n1 ) = P (n1 , n2 ) = p p2 p3
n2
n1 1 n n2
2 =0

n n1 n n1
= p (p2 + p3 )nn1 = p (1 p1 )nn1 .
n1 1 n1 1
que es de tipus binomial. De manera an`aloga es defineix la distribuci
o multinomial de la qual
les marginals son multinomials dordre menor.

Uniforme.
o uniforme sobre el domini D R2 ve donada per la funcio de densitat:
La distribuci

K si (x, y) D,
f (x, y) = (5.10)
0 altrament.

on K es una constant. La condicio de normalitzaci


o ens dona 1 = K dxdy, don K =
D
1/area(D).
Les distribucions marginals duna distribucio uniforme no son uniformes en general.

43
Exemple 5.1 Considerem una distribucio uniforme sobre un cercle de radi a. En aquest cas
D = {(x, y) R2 | x2 + y 2 a2 }. f (x, y) = 1/a2 sobre D. La densitat marginal de X es

a2 x2
1 2
fX (x) = dy = a2 x2
a2 x2 a2 a2

en linterval [a, a].


Considerem les variables radi r = x2 + y 2 i angle = arctan y/x. Podem calcular les
uent manera. Considerem 0 r < r +r
funcions de densitat daquestes variables de la seg
a. Llavors
1 2 2 2rr + (r)2
P (r < x2 + y2 r + r) = ((r + r) r ) = .
a2 a2
En el lmit r 0 dedum la funcio de densitat fR (r) = 2r/a2 per 0 r a. An`alogament
trobem
y 1
P ( < arctan + ) = 2
(a2 )=
x a 2 2
que ens dona la densitat angular f () = 1/2.

Normal bidimensional.
La distribucio gaussiana es generalitza considerant lexponencial dun polinomi de segon grau
en les variables x i y.
1 (xm1 )2 (xm ) (ym2 ) (ym2 )2
1 { 2 1 + }
2(12 ) 2
1 1 2 2
2
f (x, y) = e (5.11)
21 2 1 2

per < x, y < . Els par`ametres s on les mitjanes < m1 , m2 < , les desviacions
o 1 < < 1.
tpiques 1 , 2 > 0 i la correlaci

5.8 Independ`
encia de variables aleat`
ories
Es diu que les v.a. X i Y s
on independents si per a tot parell A i B de borelians de R

P (X A i Y B) = P (X A)P (Y B). (5.12)

Prenent A = (, x] i B = (, y] tenim que FXY (x, y) = FX (x)FY (y). Fent les derivades
respecte a x i y trobem que si X i Y son independents

fXY (x, y) = fX (x)fY (y). (5.13)

o A B que si (5.13) es verifica llavors


Es veu f`acilment a lintegrar aquesta expressio sobre la regi
les variables X i Y son independents.
Quan X i Y s on independents es diu que lespai de probabilitat bidimensional es producte dels
espais unidimensionals de X i de Y . Loperaci o (5.13) de multiplicar dues funcions duna variable
per obtenir-ne una de dues variables sanomena producte tensorial o directe de les funcions fX i
fY . Cal tenir en compte que la situacio dindepend`encia es particular. En general, el coneixer les
distribucions marginals de X i Y no determina la seva distribucio conjunta.

44
5.9 Densitat condicionada
La funcio de distribucio de X condicionada a Y = y es
x
fXY (x , y)dx
FX (x | y) = . (5.14)
fY (y)

Derivant respecte a x sobte la funci


o de densitat condicionada

fXY (x, y)
fX (x | y) = . (5.15)
fY (y)

Les anteriors expressions nomes es defineixen quan fY (y) = 0.


DEM:
P (X x i y Y y + h) FXY (x, y + h) FXY (x, y) FXY (x, y)/y
FX (x | y) = lim = lim = .
h0 P (y Y y + h) h0 FY (y + h) FY (y) FY (y)/y

La derivada del numerador es calcula amb la propietat (3) de la funcio de densitat.


An`alogament podem definir fY (y | x). Les funcions de densitat condicionades estan normalit-
zades a 1. Notem que la funcio marginal fX (x) ens dona les probabilitats desdeveniments referits
a X quan no sabem res sobre el resultat de la variable Y . La funcio condicionada fX (x | y) ens
dona aquestes probabilitats quan sabem que el resultat de la variable Y es y.
Si X i Y son independents, substituint (5.13) en (5.15) tenim, com es desperar, que fX (x |
y) = fX (x).

5.10 Esperan
ca condicionada
Lesperanca de X condicionada a que Y val y es

E[X | y] = xfX (x | y)dx. (5.16)

Aquesta esperanca verifica



E[X] = E[X | y]fY (y)dy. (5.17)

DEM:
E[X] = xfX (x)dx = x( fXY (x, y)dy)dx


fXY (x, y)
= ( x dx)fY (y)dy = ( xfX (x | y)dx)fY (y)dy.
fY (y)

I el terme del parentesi es E[X | y].

(5.17) sinterpreta de la seguent manera: per fer lesperanca de X podem fem primer lesperanca
de X condicionada a Y . Aix` o es una v.a. (funci
o de Y ) i lesperanca de X es lesperanca daquesta

variable. Es a dir

E[X] = E[E[X | Y ]]. (5.18)

45
Exemple 5.2 Generem una v.a. X uniforme a [3, 4] i despres una variable Y exponencial de
par`ametre = X. Calcular la densitat conjunta f (x, y) i les esperances de X i de Y .
Tenim una variable bidimensional (X, Y ) de la que coneixem la distribucio marginal de X i la
distribucio de Y condicionada a X. Aquest es sempre el cas quan generem les dues variables fent
primer una i despres, a partir del resultat daquesta, la segona. Aix, el que coneixem per lenunciat
es f (x) = 1 per 3 x 4 i f (y|x) = xexy per y > 0. La forma de (5.15) que ens interessa es
f (x, y) = f (y|x)f (x). Llavors f (x, y) = xexy per 3 x 4, y > 0.
4
Tambe tenim que E[X] = (3 + 4)/2 = 7/2 i E[Y ] = E[E[Y |X]] = E[1/X] = 3 x1 1dx =
ln(4/3)

Exemple 5.3 Calculem les distribuci


ons marginals i condicionades de la variable normal bidi-
mensional (5.11).
1 (xm1 )2
(ym2 )2
2(12 ) 2
1 1 (xm ) (ym2 )
e { 2 1 }
2(12 ) 2
2 1 2
fX (x) = e dy
21 2 1 2

(ym2 )
(fent el canvi y z = 2 (xm 1)
1 )

(xm1 )2
2 (xm1 )2
2(12 )1 1
{z 2 2
e
2(12 ) 2
1
}
= e dz
21 1 2

(xm1 )2 (xm1 )2
2 2 (xm1 )2 2
2(12 )1 21
e 2
2(12 )1
e
= e 2(1 2 ) = .
21 1 2 21
Per tant, fent un c`alcul id`entic per fY veiem que les distribucions marginals duna normal
bidimensional son normals unidimensionals desperances m1 i m2 i variances 12 i 22 . A partir
daix`o tenim que la densitat condicionada
f (x, y)
fX (x|y) =
fY (y)
1 (xm1 )2 (xm ) (ym2 ) (ym2 )2
1 { 2 1 +2 }
2(12 ) 2
1 1 2 2
2
= e
21 1 2
(xm ) (ym )
1 1
2(12 )
( 1 2 )2
= e 1 2 .
21 1 2
Novament resulta ser una distribucio gaussiana, ara amb vari`ancia 2 = 12 (1 2 ) i esperanca
1
m = E[X|y] = m1 + 2 (y m2 ).
Notem que X i Y s on independents si i nomes si = 0.

5.11 o al cas n-dimensional


Generalitzaci
Considerem X1 , X2 , . . . , Xn v.a.s unidimensionals o, de manera equivalent, una aplicaci
o mesurable
R .n

La funcio de distribuci o conjunta es

FX1 X2 Xn (x1 , x2 , . . . , xn ) = P (X1 x1 , X2 x2 , . . . , Xn xn ). (5.19)

46
per tant, la probabilitat de la regio (, x1 ] (, x2 ] (, xn ].
Es,
Diem que les n variables s
on conjuntament contnues si existeix la funci o de densitat

n FX1 X2 Xn (x1 , x2 , . . . , xn )
fX1 X2 Xn (x1 , x2 , . . . , xn ) = . (5.20)
x1 x2 xn
En aquest cas
x1 xn
FX1 Xn (x1 , . . . , xn ) = fX1 Xn (x1 , . . . , xn )dx1 dxn . (5.21)

Si A es una regio de Rn

P ((X1 , X2 . . . , Xn ) A) = fX1 X2 Xn (x1 , x2 , . . . , xn )dx1 dx2 dxn . (5.22)


A

Les distribucions marginals sobtenen integrant a tot R algunes de les n variables. Per exemple,
si k < n

fX1 Xk (x1 , . . . , xk ) = fX1 Xn (x1 , . . . , xn )dxk+1 dxn . (5.23)

Les condicionals sobtenen dividint la funci


o de densitat conjunta per la funcio de densitat
marginal de la condicio. Per exemple,

fX1 X2 Xn (x1 , x2 , . . . , xn )
fX1 X2 Xk (x1 , x2 , . . . , xk | xk+1 , . . . , xn ) = . (5.24)
fXk+1 Xn (xk+1 , . . . , xn )

Les variables X1 , X2 , . . . , Xn s
on independents si

fX1 X2 Xn (x1 , x2 , . . . , xn ) = fX1 (x1 )fX2 (x2 ) fXn (xn ). (5.25)

En el cas discret existeixen definicions an`


alogues per les funcions de probabilitat.

47
Captol 6

Funcions de v`
aries variables aleat`
ories

Considerem una variable aleat`oria bidimensional contnua (X, Y ) amb funcio de densitat conjunta
fXY . Una funcio Z = g(X, Y ) defineix una nova variable aleat`
oria que volem estudiar.
Definim les regions

z = {(x, y) R2 | g(x, y) z}. (6.1)

o de distribucio FZ (z) = P (Z z) es
Llavors, la funci

FZ (z) = fXY (x, y)dxdy. (6.2)


z

A partir daqu obtenim la funcio de densitat fZ (z) = dFZ (z)/dz.

6.1 Suma de variables aleat`


ories. Teorema de convoluci
o
Partim de X i Y v.a.s independents i posem Z = X + Y . Llavors, si designa el producte de
convoluci
o,

fX+Y = fX fY . (6.3)

DEM:
FX+Y (z) = fXY (x, y)dxdy = fX (x)fY (y)dxdy
x+yz x+yz
zx
= fX (x)( fY (y)dy)dx.

Derivant respecte al par`
ametre z trobem

fX+Y (z) = fX (x)fY (z x)dx = (fX fY )(z).

Exemple 6.1 Suma de variables exponencials independents. X, Y son variables aleat`


ories expo-
nencials de par`ametre 1 , 2 respectivament. Z = X + Y .
z
fZ (z) = fX (x)fY (z x)dx = 1 e1 x 2 e2 (zx) dx.
0
z
1 2
= 1 2 e2 z e(1 2 )x dx = (e2 z e1 z ).
0 1 2

48
o 0, z apareixen degut a que la densitat exponencial es nul.la per argument
Els lmits dintegraci
negatiu (x < 0, z x < 0). Igualment, la densitat anterior val 0 per z < 0.
El resultat es singular quan 1 = 2 . En aquest cas recalculem i trobem que (per z > 0)

fZ (z) = 2 zez .

Exemple 6.2 Suma de variables de Poisson independents. En el cas discret tenim que, si Z =
g(X, Y ),

PZ (zi ) = P (xk , yl ). (6.4)


g(xk ,yl )=zi

on variables de Poisson independents de par`ametres 1 i 2 respectivament i Z = X + Y ,


Si X i Y s
llavors Z = X = Y = {0, 1, . . . } i
k l n
1 1 2 2 (1 +2 ) 1
PZ (n) = e e =e k nk
k! l! k!(n k)! 1 2
k+l=n k=0

(1 + 2 )n
= e(1 +2 ) .
n!
Per tant, la suma de variables de Poisson independents de par`ametres 1 i 2 es una variable de
Poisson de par`ametre 1 + 2 .
Aquest fet resulta intuitiu ja que si les variables inicials s
on el nombre desdeveniments en
intervals temporals T1 i T2 , llavors la seva suma representa el nombre desdeveniments en un
interval T1 + T2 (recordem = T amb dependent nomes del tipus de fen`omen).

Exemple 6.3 Suma de variables normals independents. Prenem


(xm1 )2 (ym2 )2
2 2
21 22
e e
fX (x) = , fY (y) = .
21 22
Llavors, utilitzant (6.3),
(xm1 )2 (zxm2 )2
2 2
21 22
e e
fX+Y (z) = dx
21 22
m1 zm2 m2 (zm2 )2
1 12 ( 1 1 2 1
2 + 2 )x +( 2 + 2 )x( 22 + 2 ).
1 22
= dxe 2 1 2 1
21 2
a 2 2 b2 +c
Considerant la integral gaussiana general (D.5) dxe 2 x +bx+c
= e 2a i simplificant
a
les expressions que surten, arribem a
(z(m1 +m2 ))2
1 2 +2 )
2(1
fX+Y (z) = e 2 .
2(12 + 22 )

Resulta, per tant, que X + Y es una variable gaussiana desperanca m = m1 + m2 i vari`ancia


2 = 12 + 22 . Donades constants i , si X i Y son normals, X i Y tambe ho son. Llavors
X + Y es una v.a. normal amb esperanca m1 + m2 i vari` ancia 2 12 + 2 22 .

49
Exemple 6.4 Lalcada dels homes i de les dones s on v.a.s normals amb esperances 175cm i 160cm,
i desviacions tpiques 10cm i 9cm respectivament. Es tria un home i una dona a latzar. Quina es
la probabilitat que lhome sigui mes alt que la dona?
Designem H i D aquestes variables. Z = H D es una variable normal desperanca 175-
2 2
160=15cm i vari` a 10 + 9 = 181. La probabilitat que volem es P (Z 0) = 1 FZ (0) =
ncia
1 (1 + erf(15/ 2 181)/2 = 0.5 + 0.5 erf(0.788) = 0.8675.

6.2 Altres funcions. Canvi de variables


Considerem ara la distribucio conjunta de dues variables Z i T construides a partir de X i Y .

Z = g(X, Y )
(6.5)
T = h(X, Y )

Quan la transformacio es injectiva diem que estem fent un canvi de variable. En aquest cas
pensem que tenim la mateixa distribuci o de probabilitat expressada en variables diferents.
Recordem la definici
o de determinant jacobi`a

(x, y) x/z x/t


= . (6.6)
(z, t) y/z y/t

Per calcular aquesta expressio sha dinvertir (5) previament. Tambe es pot calcular considerant
que
1
(x, y) (z, t)
= . (6.7)
(z, t) (x, y)

En qualsevol cas voldrem expresar-lo en termes de les variables z i t. El seu valor absolut ens
dona el canvi de lelement de mesura.
(x, y)
dxdy = dzdt. (6.8)
(z, t)

Fig 1 Canvi de lelement de mesura.

Quan la transformaci o es injectiva fZT es nul.la en els punts que no son de la imatge. Pels
punts de la imatge considerem la probabilitat de la regi o infinitesimal indicada en la figura.

P (2) = fXY (x, y)dxdy = fZT (z, t)dzdt.

50
Utilitzant (8) trobem

(x, y)
fZT (z, t) = fXY (x(z, t), y(z, t)) . (6.9)
(z, t)

Si la transformacio no fos injectiva en aquesta expressi


o hauriem de sumar el terme de la dreta
sobre tots els punts tals que (xi , yi ) (z, t).
A vegades es consideren canvis de variable que s on singulars en algun punt. Aix`o no es cap
inconvenient ja que trobem probabilitats integrant sobre regions finites i aquest resultat no dep`en
del que li passi a la densitat en un punt o corba aillada.

Exemple 6.5
Z =X +Y
T =X Y
una transformacio bijectiva de R2 (lineal, no singular). La inversa es x = (z + t)/2, y = (z t)/2.
Es

(x, y) 1/2 1/2 1


= = .
(z, t) 1/2 1/2 2

Per tant,
z+t zt 1
fZT (z, t) = fXY (
, ) .
2 2 2

Exemple 6.6 Coordenades polars. Son R = X 2 + Y 2 i = arctan(Y /X). Varien 0 r <
i 0 2.

x = r cos
(6.10)
y = r sin

(x, y) cos r sin


= = r.
(r, ) sin r cos
Per tant,
f (r, ) = fXY (r cos , r sin )r.

Fig 2 Coordenades polars i esf`eriques.

51
eriques. Partim duna variable tridimensional (X, Y, Z) i fem el
Exemple 6.7 Coordenades esf`
canvi

x = r sin cos
y = r sin sin (6.11)

z = r cos

0 r < , 0 , 0 2.

sin cos r cos cos r sin sin


(x, y, z)
= sin sin r cos sin r sin cos = r2 sin .
(r, , )
cos r sin 0
Per tant, la densitat de la v.a. (R, , ) es

f (r, , ) = fXY Z (r sin cos , r sin sin , r cos )r2 sin .

Apliquem aix`o a la distribucio uniforme en una esfera de radi a. Sobre aquesta esfera f (x, y, z) =
1/ 43 a3 .
En coordenades polars tenim

r2 sin
f (r, , ) = 4 3
3 a

per 0 r a Calculem ara la densitat marginal de R:


2
r2 sin r2
f (r) = d d 4 = 3 .
0 0 3 a
3 a3

Aquesta densitat es pot calcular tambe de la seg uent manera. La funcio de distribucio de R es
F (r) = P (R r) = r3 /a3 , cocient entre els volums de lesfera de radi r i de tota lesfera. Per tant
f (r) = dF (r)/dr = 3r 2 /a3 .

Exemple 6.8 Coordenades cilndriques. En el cas tridimensional es el canvi



x = r cos
y = r sin (6.12)

z=z

0 r < , 0 2, < z < .

cos r sin 0
(x, y, z)
= sin r cos 0 = r.
(r, , z)
0 0 1
Els canvis de variable es fan segons les simetries que tingui la distribucio que estem utilitzant.
Quan es fa un canvi cal vigilar no nomes com varia la forma funcional de la densitat sino tambe com
es transformen les possibles regions de frontera que tinguem. El canvi que hem fet en la uniforme
sobre una esfera no hagues servit de res en la uniforme sobre un cub ja que la frontera del cub te
una expressi
o complicada en esf`eriques. En aquest cas les variables cartesianes son les mes naturals.
Algun tipus de funcions pot requerir un tractament una mica particular com es veu en el seg uent
exemple.

52
Exemple 6.9 (Funcions m` axim i mnim)
Donades dues variables contnues independents X i Y es tracta de trobar les propietats marginals
i conjuntes de les variables U = min(X, Y ) i V = max(X, Y ).
Comencem per les marginals.

FU (u) = P (U u) = P (min(X, Y ) u) = 1 P (min(X, Y ) > u) = P (X > u i Y > u)

= P (X > u)P (Y > u) = (1 FX (u))(1 FY (u)) = 1 FX (u) FY (u) + FX (u)FY (u)


FV (v) = P (V v) = P (max(X, Y ) v) = P (X v i Y v)
= P (X v)P (Y v) = FX (v)FY (v)
Les densitats marginals de U i de V sobtindrien derivant les anteriors expressions.
La funcio de distribuci
o conjunta es

FU V (u, v) = P (U u, V v) = P (min(X, Y ) u, max(X, Y ) v)

que val 0 si u > v. Si u < v, notem que max(X, Y ) v correspon a la regio (, v] (, v] i


min(X, Y ) u a R2 (u, ) (u, ) de manera que

FU V (u, v) = P ((, v] (, v]) P ((u, v] (u, v])

= FXY (v, v) (FXY (v, v) FXY (u, v) FXY (v, u) + FXY (u, u))
= FXY (u, v) + FXY (v, u) FXY (u, u)).
Derivant arribem a
fXY (u, v) + fXY (v, u) si u < v
fUV (u, v) =
0 si u > v
El resultat anterior val encara que X, Y no siguin independents. Si ho son, fU V (u, v) = fX (u)fY (v)+
fX (v)fY (u) per u < v.

53
Captol 7

Par`
ametres estadstics de v`
aries v.a.s

7.1 Esperanca
Donades dues v.a. X i Y amb funcio de densitat conjunta f (x, y) considerem la nova v.a. Z =
g(X, Y ). Llavors lesperanca de Z verifica

E[Z] = E[g(X, Y )] = g(x, y)f (x, y)dxdy. (7.1)


R2
DEM:
Considerem una particio de R en segments de longitud zi . Aquesta porta associada una
particio de R2 en regions Dzi = zi +zi zi i tenim que

P (zi Z zi + zi ) = f (x, y)dxdy.


Dzi

Llavors
E[Z] = zfZ (z)dz = lim zi P (zi Z zi + zi )
zi

= lim zi f (x, y)dxdy = lim g(x, y)f (x, y)dxdy


Dzi Dzi Dzi Dzi

= g(x, y)f (x, y)dxdy.


R2
De (7.1) veiem que si , R
E[g(X, Y ) + h(X, Y )] = E[g(X, Y )] + E[h(X, Y )]. (7.2)
En particular
E[X + Y ] = E[X] + E[Y ]. (7.3)

7.2 Covari`
ancia

C[X, Y ] = E[(X X)(Y Y )]. (7.4)


Desenvolupant el producte i utilitzant (7.2) trobem que
C[X, Y ] = E[XY ] X Y . (7.5)

54
7.3 Coeficient de correlaci
o

C[X, Y ]
= . (7.6)
X Y
Verifica

| | 1. (7.7)

DEM:
Sigui un par`ametre real. Llavors

E[((X X) + (Y Y ))2 ] = 2 X
2
+ 2C[X, Y ] + Y2 0

Com el polinomi en es positiu, el discriminant C[X, Y ]2 X


2 2 0. Per tant, |C[X, Y ]|
Y X Y
don surt (7.7). (Aquesta demostracio es la de la desigualtat de Schwartz per productes escalars.)

Exemple 7.1 (Matriu de covari` ancies)


Calcular els parametres de duna variable bidimensional uniforme en la regi o R = {(x, y)
R2 |x 0, y 0, 2x + y 2}.
Com la regio es un triangle d`area 1, fXY (x, y) = 1 en R. Comencarem per calcular les densitats
marginals:
2y
22x 2 2y
fX (x) = 1dy = 2(1 x), 0 x 1, fY (y) = 1dx = , 0 y 2.
0 0 2

Ara es f`acil calcular tots els moments de X i de Y


1 2
2 2y 2n+1
mX,n = xn 2(1 x)dx = , mY,n = yn dy = .
0 (n + 1)(n + 2) 0 2 (n + 1)(n + 2)
2 = 1/6 (1/3)2 = 1/18, m 2 2
Daqu treiem mX = 1/3, X Y = 2/3, Y = 2/3 (2/3) = 2/9.
Calculem tambe
1 22x 1
1
E[XY ] = xy 1dydx = 2 x (1 x)2 dx =
0 0 0 6

don C[X, Y ] = 1/6 1/3 2/3 = 1/18, = 1/2.


Per qualsevol variable multidimensional (X1 , X2 , . . . , Xn ) els par`ametres de primer i segon grau
es poden organitzar en forma matricial amb un vector desperances m = (mX1 , mX2 , . . . , mXn ) i
una matriu de covari` ancies C definida per Ci,j = C[Xi , Xj ].
En el nostre cas m = (mX , mY ) = (1/3, 2/3) i
2 1 1
X X Y 18 18
C= = 1 4
X Y Y2 18 18

55
7.4 Moments conjunts
Els moments conjunts de les variables X i Y son

mjk = E[X j Y k ] = xj y k f (x, y)dxdy. (7.8)


R2

Els primers son m00 = 1, m10 = X, m01 = Y , etc.


Els moments centrals s
on

jk = E[(X X)j (Y Y )k ] = (x mX )j (y mY )k f (x, y)dxdy. (7.9)


R2

2 , = 2 , etc.
Els primers son 00 = 1, 10 = 01 = 0, 11 = C[X, Y ], 20 = X 02 Y

7.5 Ortogonalitat
on variables aleat`ories ortogonals si E[XY ] = 0. En aquest cas escrivim X Y .
Diem que X i Y s

7.6 Incorrelaci
o
Diem que X i Y s
on variables aleat` equivalent a dir C[X, Y ] = 0 o
ories incorrelades si = 0. Es
E[XY ] = X Y .

Es donen les seg


uents relacions

X i Y incorrelades (X X) (Y Y ).

X i Y incorrelades V [X + Y ] = V [X] + V [Y ].

X i Y independents X i Y incorrelades.

DEM:
La primera es evident a partir de (7.4). La segona prove de la relaci
o general

V [X+Y ] = E[(X+Y (X+Y ))2 ] = E[(XX)2 +(Y Y )2 +2(XX)(Y Y )] = V [X]+V [Y ]+2C[X, Y ].

Per la tercera, si X i Y son independents f (x, y) = fX (x)fY (y) i



E[XY ] = xyf (x, y)dxdy = xyfX (x)fY (y)dxdy


= xfX (x)dx yfY (y)dy = X Y .

Amb una demostracio an`aloga veiem que en el cas de variables independents E[g(X)h(Y )] =
E[g(X)]E[h(Y )]. Per variables incorrelades aixo nomes es verifica en general per g i h iguals a la
funcio identitat. Un cas especial en son les variables gaussianes per les que ja sha vist que si son
incorrelades llavors s
on independents.

56
Exemple 7.2 Ja shan vist alguns resultats sobre variables gaussianes. Completem ara el seu
estudi.
Primer, demostrem que, efectivament, la constant que apareix en la densitat es el coeficient
de correlaci
o. Per evitar calcular integrals bidimensionals utilitzem els resultats ja coneguts:
1
E[XY ] = E[E[XY |Y ]] = E[E[X|Y ]Y ] = E[(m1 + (Y m2 ))Y ]
2
1 1 1 1
= (m1 m2 )E[Y ] + E[Y 2 ] = (m1 m2 )m2 + (22 + m22 ) = m1 m2 + 1 2
2 2 2 2
don sobte inmediatament el resultat.
Ara, trobem una parametritzacio convenient per una variable bidimensional gaussiana ar-
inmediat veure que si X es normal, qualsevol variable de la forma aX + b es normal.
bitr`aria. Es
Si X i Y s on variables gaussianes amb esperances mX , mY , vari`
ancies X , Y , llavors les variables
(X mX )/X , (Y mY )/Y s on normals amb esperanca 0 i vari`ancia 1. Considerem les noves
variables
Z = Xm
X
X
+ Y m
Y
Y

XmX Y mY
T = X Y
que s
on normals desperanca 0 i verifiquen
X mX 2 Y mY 2 X mX Y mY
V [Z] = E[Z 2 ] = E[( ) ] + E[( ) ] + 2E[ ] = 2(1 + ),
X Y X Y
V [T ] = 2(1 ),
X mX 2 Y mY 2
E[ZT ] = E[( ) ] E[( ) ] = 0,
X Y
don veiem que son incorrelades. Aix, unes coordenades especialment u
tils per treballar amb la
variable bidimensional (X, Y ) son

U= 1 ( Xm
X
X
+ Y m
Y )
Y
2(1+)
V = 1
( Xm
X
X
Y mY
Y )
2(1)

U, V s
on variables normals estandaritzades independents.
Notem que
2 2
eu /2 ev /2 1 (u2 +v2 )/2
fU V (u, v) = fU (u)fV (v) = = e .
2 2 2
A lefectuar el pas a les variables X, Y es recupera la densitat normal (5.11).

57
Captol 8

Estimaci
o de variables aleat`
ories

8.1 Concepte i criteris destimaci


o
Considerem un experiment que te associada una variable aleat` oria Y . Si repetim un cert nombre
N de vegades aquest experiment obtenim els resultats Y1 , Y2 , . . . , YN . Estimar la variable Y vol
dir fer una prediccio que sacosti el m` axim possible a aquests resultats.
Suposem que la prediccio resulta ser c1 , c2 , . . . , cN . Lerror com`es vindr`a donat per algun tipus
de dist`ancia d(Yi , ci ). Globalment posarem = N1 i d(Yi , ci ). Les prediccions shaurien de triar
de manera que fos el mes petit possible.
Es poden considerar diferents tipus derror com, per exemple, d(Yi , ci ) = | Yi ci |. Quan elegim
d(Yi , ci ) = (Yi ci )2 diem que estem fent lestimaci o en mitjana quadr` atica. Aquesta es la que
considerarem en el que segueix.
Donat que les condicions de lexperiment no varien, les variables Yi son distribudes id`enticament
a la variable Y . Llavors, si els elements ci son nombres determinats, aquests hauran de ser sempre
el mateix, ci = c per a tot i.
Per una altra part, pot ser que el nostre experiment tingui associades altres variables aleat` ories
X1 , X2 , . . . , Xr de les quals Y no es independent. En aquest cas es convenient estimar Y amb una
variable aleat` oria de la forma c(X1 , X2 , . . . , Xr ). ci seria el resultat i-`esim daquesta variable.
Com lerror depen de variables aleat` ories, el seu valor no est` a fixat. La magnitud que finalment
ens dona la bondat de lestimacio es lerror quadr` atic mig:
1
= E[ ] = E[(Yi ci )2 ] = E[(Y c)2 ]. (8.1)
N
i

El procediment a seguir per estimar la v.a. Y es fixar un tipus destimacio c i minimitzar per
a finalment min . c sanomena estimador.
determinar del tot c. Lerror associat a lestimacio ser`

Exemple 8.1 Lexperiment consisteix en seleccionar una persona a latzar. La variable Y que ens
interessa estimar es lalcada daquesta persona. La seq u`encia de valors Yi consisteix en mesurar
les alcades de v`
aries persones triades a latzar, aix
o es, fer un mostreig estadstic. Senten que no
coneixem la distribucio que segueix Y per`o notem que al fer-ne un mostreig podem avaluar amb
prou precisio els seus par` ametres com lesperanca o la desviaci o tpica. Les variables Xi podrien
correspondre al sexe, edad, pes, color dels ulls, etc. La idea es avaluar lalcada de la persona
coneixent, per exemple, el seu pes.
Darrera lestimacio hi han dos possibles objectius. Un es fer realment una prediccio dun
resultat abans que aquest es produeixi. Per exemple, predir cotitzacions a la borsa. En aquest cas

58
les variables Xi serien els indicadors econ`omics que si que coneixem. Laltre objectiu, relacionat
clar que no hi ha una relacio
amb lanterior, es establir relacions entre magnituds aleat`ories. Es
funcional fixa entre el pes i lalcada de les persones. El m`axim que podem conseguir es tenir
una bona estimacio duna magnitud coneguda laltra. A vegades el problema es trobar variables
apropiades per fer lestimacio. Per exemple, en medicina quan es vol establir lorigen o els factors
de risc duna malaltia.

8.2 Estimaci
o per una constant
Estimem Y per c constant. La millor estimaci
o es c = E[Y ] i min = V [Y ].

DEM:

= E[(Y c)2 ] = c2 2E[Y ]c + E[Y 2 ] = (c E[Y ])2 + E[Y 2 ] E[Y ]2

= (c E[Y ])2 + V [Y ],
que es minimitza quan c E[Y ] = 0.

8.3 Estimaci
o no lineal
o es c(x) = E[Y |x].
Estimem Y per c(X) funcio a determinar de la v.a. X. La millor estimaci

DEM:

= (y c(x))2 f (x, y)dxdy = ( (y c(x))2 f (y|x)dy)f (x)dx
R2


= (c(x)2 2E[Y |x]c(x) + E[Y 2 |x])f (x)dx


= ((c(x) E[Y |x])2 + V [Y |x])f (x)dx.


Com f (x) 0 la integral es minimitza si c(x) E[Y |x] = 0. Lerror mnim val V [Y |x]f (x)dx.

La funcio c(x) = E[Y |x] sanomena corba de regressi


o. Hi han dos casos extrems de lestimacio
no lineal:

X i Y s
on independents. Llavors E[Y |x] = E[Y ] i c(x) = E[Y ] que es una constant.

Y = g(X), es a dir, hi ha la m` axima depend`encia possible. En aquest cas la funci o de


densitat conjunta es pot expressar f (x, y) = f (x)(y g(x)) i sobte E[Y |x] = g(x). Per tant,
c(x) = g(x) i min = 0.

En el primer cas, la informacio donada per X es irrellevant per estimar Y . Per exemple, tractar
destimar lalcada mitjancant el color dels ulls. En el segon, X determina completament Y . Per
exemple, estimar ledat a partir de lany de naixement. En la pr`actica, ens interessen els casos
intermitjos on X dona informacio rellevant sobre Y per`o no la determina.

59
8.4 Estimaci
o lineal
Estimem Y per aX + b on a i b s
on constants. La millor estimaci
o ve donada per
Y Y
a= , b = mY mX , min = Y2 (1 2 ). (8.2)
X X
La recta y = ax + b sanomena recta de regressi
o.
DEM:
= E[(Y (aX + b))2 ] = E[((Y aX) b)2 ].
Aix b ha de ser la millor estimacio constant de Y aX. Per tant b = E[Y aX] = mY amX .
Ara tenim
= E[((Y mY ) a(X mX ))2 ] = a2 X2
2aC[X, Y ] + Y2
= a2 X
2
2aX Y + Y2 = (aX Y )2 + Y2 (1 2 ),
que es minimitza quan aX Y = 0.
Un es pot preguntar per que fer lestimacio lineal si la no lineal d
ona un error mes petit. Un
motiu es que lestimacio no lineal exigeix coneixer la distribuci
o conjunta de X i Y mentres que
la lineal fa servir nomes els par`ametres mes b`asics. Tambe cal notar que en el cas de variables
normals lestimacio no lineal coincideix amb la lineal (veure lexemple 5.3).

8.5 Principi dortogonalitat


Per un experiment fixat, el conjunt de variables aleat`ories que podem considerar formen un espai
vectorial ja que la suma de v.a.s i el producte duna v.a. per un nombre real son noves variables
aleat`
ories. Donades Z i T v.a.s podem definir loperacio

< Z, T >= E[ZT ]. (8.3)

Aquesta operacio es bilineal, sim`etrica, definida positiva i no degenerada. Constitueix, per tant,
un producte escalar en aquest espai vectorial. De fet, aquesta construccio es incorrecta ja que una
variable aleat`
oria pot no tenir esperanca. Ens restringirem, per tant, a variables per les quals les
operacions considerades existeixen. Aix o vol dir treballar en un espai vectorial mes petit.
Si tota la informacio generada per un experiment queda ben codificada en una variable n-
dimensional (X1 , X2 , . . . , Xn ), lespai de variables aleat`ories es pot considerar definit com un espai
de funcions Z = g(X1 , X2 , . . . , Xn ). La restricci o que considerem s on les de quadrat mesurable,
es a dir, aquelles per les que existeix E[Z ]. 2

El producte escalar (8.3) ens defineix una norma Z =< Z, Z >1/2 . Lerror quadr`atic que
consideravem es precisament = Y c(X) 2 . Per tant, podem usar t`ecniques dels espais euclidians
quan c(X) correspon a alguna varietat lineal.
La forma general de lestimaci o lineal es

c = a1 X1 + a2 X2 + + an Xn , (8.4)

on ai son constants i Xi son variables aleat`ories. Quan considerem nomes una v.a. fonamental a
part de Y lestimacio lineal pren la forma

c(X) = a1 g1 (X) + a2 g2 (X) + + an gn (X), (8.5)

on gi s
on funcions fixades.

60
Aix, c(X) descriu un hiperpl`a H, la millor estimacio es lelement daquest hiperpl`
a mes proper
a Y i lerror es la dist`
ancia (al quadrat) entre Y i H.

Fig. 1: Estimaci
o lineal.

Com se sap, la millor estimacio ve donada per la projeccio de Y sobre H. Si aquesta projeccio
es c(X) tindrem que Y c(X) es ortogonal a H. Per tant, (Y c(X)) gi (X), i = 1, . . . , n. Hem
arribat aix al principi dortogonalitat (lerror es ortogonal a les dades)
< gi (X), Y c(X) >= 0 i = 1, . . . , n. (8.6)
Aquest es un sistema dequacions lineals que podem escriure
E[gi (X)c(X)] = E[gi (X)Y ] i = 1, . . . , n. (8.7)
La solucio daquest sistema ens dona els valors de ai .

Exemple 8.2 Tornem a deduir lexpressi o de la recta de regressi


o. Posem g1 (X) = X, g2 (X) = 1.
Lestimador es c(X) = a1 X + a2 . El principi dortogonalitat produeix les equacions
< X, a1 X + a2 >=< X, Y >
< 1, a1 X + a2 >=< 1, Y >
es a dir,
a1 E[X 2 ] + a2 E[X] = E[XY ]
a1 E[X] + a2 = E[Y ]
De la segona equacio treiem a2 = E[Y ] a1 E[X] i
E[XY ] E[X]E[Y ] C[X, Y ] Y
a1 = 2 2
= 2 = ,
E[X ] E[X] X X
que s
on els resultats (8.2).
Recordem que la projecci o es pot calcular tambe a partir duna base ortonormal. En aquest
exemple podem prendre X1 = (X mX )/X , X2 = 1 (notem que X1 es la X normalitzada) amb
el que la projeccio es
c(X) =< X1 , Y > X1 + < X2 , Y > X2 .

Exemple 8.3 Lestimacio de la forma c(X) = aX sanomena estimaci


o homog`enea. Per determi-
nar a tenim lequaci
o < X, aX >=< X, Y > don
E[XY ]
a= . (8.8)
E[X 2 ]
De manera mes general se sol anomenar estimaci o no homog`enea a la de tipus c = a1 X1 +
a2 X2 + + an Xn + b on b es una constant, si be no es mes que un cas de lestimacio lineal.

61
Finalment cal notar que per calcular lerror mnim

min = E[(Y c)2 ] = E[(Y c)Y ] E[(Y c)c] = E[(Y c)Y ]

ja que la segona esperanca es nul.la. Notem tambe que min = E[Y 2 ] E[c2 ] (Pit`agoras.)

62
Part III

Processos estoc`
astics

63
Captol 9

Introducci
o als processos estoc`
astics

9.1 Definici
o de proc
es estoc`
astic
Parlem de variables aleat`ories quan el resultat dun experiment aleatori es un o mes nombres reals
(v.a. unidimensional o multidimensional). Un proces estoc` astic es quan el resultat de lexperiment
es una funcio.
Anomenem X(t) a aquesta funcio. Es corrent, donat el tipus daplicacions que es consideren,
interpretar t com el temps. Si t varia sobre tot un interval real (potser indefinit) diem que el proces
es a temps continu. Si nomes considerem un conjunt numerable de valors ti , la funci o constitueix
una sequ`encia Xi = X(ti ) i diem que el proces es a temps discret.
Un proces a temps discret apareix quan es quantitza el temps en un proces a temps continu. En
aquest cas, el temps entre valors consecutius de ti acostuma a ser un valor t petit que sanomena
interval de mostreig. El valor Xi sol ser el senyal continu X(t) promitjat en linterval [ti , ti + t].
En el que segueix, els processos son a temps continu mentre no es digui el contrari.
Fixat un valor t, X(t) es una variable unidimensional ordin` aria. Com generalitzar el concepte
de funcio de densitat al cas en que els valors de la variable son funcions es complicat, sacostuma
a pensar un proces estoc`astic com una v.a. que te un ndex continu.
En moltes aplicacions el proces X(t) representa algun tipus de senyal el`ectric i, per tant, es
representa mes c`omodament amb un nombre complex. Si X(t) i Y (t) son processos reals, diem que
Z(t) = X(t) + jY (t) es un proces estoc`
astic complex.
Un proces estoc`
astic (PE) tambe sanomena proces aleatori.

Exemple 9.1 Moviment browni`a. Sobserva que, en una mostra daigua en rep`os, una p`etita
partcula (per exemple de pol.len) en suspensio efectua un moviment molt irregular. Aquest movi-
ment es degut a les fluctuacions degudes al moviment de les mol`ecules daigua que lenvolten. Les
coordenades de la partcula X(t), Y (t) i Z(t) son processos estoc`astics.

Exemple 9.2 El consum el`ectric duna gran ciutat al llarg dun dia es un proces C(t), 0 t 24.
El seu car`acter aleatori prove del fet que es la suma de moltes petites contribucions aleat`
ories (els
consums individuals).

Exemple 9.3 Suposem que V i s


on v.a.s unidimensionals. Llavors X(t) = V cos t es un PE.

Exemple 9.4 X es una v.a. uniforme en [0, 1]. El seu desenvolupament decimal X = 0.b1 b2 b3 . . .
es un proces discret bi .

64
Hem de pensar que, en general, les funcions resultants en un PE son molt irregulars. En aquest
sentit lexemple 9.3 resulta artificial. Encara que per fer c`
alculs il.lustratius considerarem funcions
regulars que contenen par`ametres aleatoris com exemple de PE, les mostres mes genunes venen
donades pels tipus dels exemples 9.1 i 9.2.

9.2 Funcions de distribuci


o i densitat dun PE
Considerem un PE X(t). Les funcions de distribucio dordre n son

F (x1 , x2 , . . . , xn ; t1 , t2 , . . . , tn ) = P (X(t1 ) x1 , X(t2 ) x2 , . . . , X(tn ) xn ). (9.1)

Les funcions de densitat dordre n s


on
n F (x1 , x2 , . . . , xn ; t1 , t2 , . . . , tn )
f (x1 , x2 , . . . , xn ; t1 , t2 , . . . , tn ) = . (9.2)
x1 x2 xn
El proces queda totalment descrit si coneixem aquestes funcions per a tots els valors t1 , t2 , . . . , tn
i per a tot n 1. (En rigor, aixo es cert nomes pels processos anomenats separables. Els exemples
dutilitat ho son tots.) Les propietats que involucren les funcions dordre m`axim n es diu que s on
dordre n.
Notem que les funcion dordre n ens donen la distribucio conjunta de les v.a.s X(t1 ), X(t2 ), . . . ,
X(tn ). Fixats els valors t1 , t2 , . . . , tn tenim una v.a. n-dimensional.
La jerarquia de funcions (9.2) est` a lligada per relacions de consist`encia que estableixen que unes
s
on les marginals daltres dordre superior.

f (x; t)dx = 1,


f (x1 ; t1 ) = f (x1 , x2 ; t1 , t2 )dx2 , (9.3)

etc.
Les funcions (9.1) i (9.2) son sim`etriques sota permutacions dels ndexos. A vegades es fixa
t1 t2 . . . tn .

9.3 Valor mitj`


a, autocorrelaci
o i autocovari`
ancia
Son propietats de primer i segon ordre.
Valor mitj`
a:

m(t) = E[X(t)] = xf (x; t)dx. (9.4)

Autocorrelaci
o:

R(t1 , t2 ) = E[X(t1 )X(t2 )] = x1 x2 f (x1 , x2 ; t1 , t2 )dx1 dx2 . (9.5)

o es defineix com E[Z(t1 )Z (t2 )].


En el cas complex lautocorrelaci

65
Autocovari`
ancia:

C(t1 , t2 ) = R(t1 , t2 ) m(t1 )m(t2 ). (9.6)

Notem que C i R son funcions sim`etriques sota intercanvi t1 t2 Si C(t1 , t2 ) = 0, sempre que
t1 = t2 , es diu que el proces es incorrelacionat o de soroll blanc.
La pot`encia promig es la funci o

R(t, t) = E[X(t)2 ]. (9.7)

Exemple 9.5 Considerem el proces X(t) = V cos(t+) on est`a fixat, V es una v.a. exponencial
de par`ametre 1/V0 i es una v.a. uniforme en [0, 2], V i independents.
El seu valor mitj`
a es
2
d
m(t) = E[V cos(t + )] = E[V ]E[cos(t + )] = V0 cos(t + ) = 0.
0 2
Lautocorrelaci
o es

R(t1 , t2 ) = E[V cos(t1 + )V cos(t2 + )] = E[V 2 ]E[cos(t1 + ) cos(t2 + )]


2
d
= 2V02 cos(t1 + ) cos(t2 + )
0 2
2
1 d
= 2V02 [cos((t1 + t2 ) + 2) + cos((t2 t1 ))]
0 2 2
= V02 cos((t2 t1 )).
La pot`encia promig es R(t, t) = V02 . Lautocovari`
ancia coincideix amb R(t1 , t2 ).

9.4 Processos estoc`


astics normals
El PE X(t) sanomena normal o gaussi` a si per a tot n, per a tot t1 , t2 , . . . , tn les variables
X(t1 ), X(t2 ), . . . , X(tn ) son conjuntament normals. Aix`o vol dir que les funcions de densitat prenen
la forma
|A|1/2 1 (xm)T A(xm)
f (x1 , x2 , . . . , xn ; t1 , t2 , . . . , tn ) = e 2 (9.8)
(2)n/2
El terme de la dreta en (9.8) es la funci o de densitat gaussiana duna variable n-dimensional.

Es lexponencial dun polinomi de segon grau en les variables x1 , x2 , . . . , xn . Com notacio hem
posat x = (x1 , x2 , . . . , xn ), m = (m1 , m2 , . . . , mn ) i A es una matriu n n. m i A s on par`ametres
de la distribucio gaussiana. En el cas dun PE aquests par`ametres depenen dels ti .
Determinem a continuacio el significat de m i A. Per aix` o es convenient fer un canvi de variable
que simplifiqui lexpressi o (9.8).
Com lexponent de (9.8) es i,j Aij (xi mi )(xj mj ) podem prendre la matriu A sim`etrica.
Perque la densitat sigui normalitzable A ha de ser definida positiva. Com se sap de la teoria dope-
radors en espais euclidians, tota matriu sim`etrica te tots els seus valors propis reals i diagonalitza
en una base ortonormal. Aix, existeix una matriu diagonal Ad = diag(a1 , a2 , . . . , an ) i una matriu
ortogonal de canvi de base P (P 1 = P T ) tals que

Ad = P AP T .

66
1/2
Els valors propis ai > 0 ja que A es definida positiva. Aix, podem considerar la matriu Ad =
1/2
diag( a1 , a2 , . . . , an ). Definint B = Ad P tenim que
1/2 1/2 1/2 1/2
A = P T Ad P = P T Ad Ad P = (Ad P )T Ad P = B T B,

i, per tant, |A| = |B T B| = |B T ||B| = |B|2 don |B| = |A|1/2 .


Fem ara el canvi de variables x y = B(xm). El seu determinant jacobi`a es (y)/(x) = |B|.
Com (x m)T A(x m) = (B(x m))T B(x m) = y T y, la funci o de densitat (9.8) sexpressa (no
explicitem les ti )
n 1 2
|A|1/2 1 yT y 1 e 2 yi
f (y1 , . . . , yn ) = e 2 = .
(2)n/2 |A|1/2 i=1 2
a dir, les variables Yi s
Es on normals, independents, totes amb esperanca 0 i vari` ancia 1. Posem
aix, E[Yi ] = 0, E[Yi Yj ] = ij . Veiem que impliquen aquestes relacions per a les variables originals
xi .
0 = E[Y ] = E[B(X m)] = B(E[X] m) E[X] m = 0
ja que B es invertible. Tenim, per tant, E[Xi ] = mi que ens dona el significat del vector m. Ara,
fent servir ls delta de Kronecker (ij val 1 si i = j i val 0 en cas contrari),

ij = E[Yi Yj ] = E[(B(X m))i (B(X m))j ] =


T
Bik Bjl E[(X m)k (X m)l ] = Bik C[Xk , Xl ]Blj
k,l k,l

que, en forma matricial es I = BCB T don C = B 1 (B T )1 = (B T B)1 = A1 . Aix A es la


inversa de la matriu de covari`ancies C[Xi , Xj ].
a mi = m(ti ) i A es la inversa de la matriu delements C(ti , tj ).
Quan es tracta dun proces gaussi`
Per tant, un PE normal queda totalment determinat pel seu valor mitj` a i la seva autocorrelaci
o.

9.5 Processos estacionaris


Es diu que X(t) es un PE estacionari en sentit estricte si la seva distribucio de probabilitat es
invariant sota translacions temporals. Mes concretament, les seves funcions de densitat verifiquen

f (x1 , x2 , . . . , xn ; t1 , t2 , . . . , tn ) = f (x1 , x2 , . . . , xn ; t1 + , t2 + , . . . , tn + ) (9.9)

per a tot n, t1 , t2 , . . . , tn , . Aix`


o implica que les variables X(t) estan id`enticament distribudes
per a tot t. Posant n = 1 i = t en (9.9) trobem

f (x; t) = f (x). (9.10)

Amb n = 2 i = t1 trobem

f (x1 , x2 ; t1 , t2 ) = f (x1 , x2 ; t2 t1 ). (9.11)

En general les funcions de densitat depenen nomes de les difer`encies entre els temps ti .
Un PE es diu que es estacionari en sentit ampli si el seu valor mitj` a es constant i la seva
autocorrelaci
o depen nomes de la dist`
ancia temporal considerada.

m(t) = m,

67
R(t1 , t2 ) = R(t1 t2 ). (9.12)

Una conseq u`encia es que la pot`encia es R(0) constant.


Posant (9.10) i (9.11) en (9.4) i (9.5) veiem que tot PE estacionari en sentit estricte ho es en
sentit ampli. Linvers no es cert en general per`o tenim el seg
uent resultat:

Un PE normal estacionari en sentit ampli tambe ho es en sentit estricte.

DEM: Si el proces es estacionari en sentit ampli tenim que C(ti , tj ) = R(tj ti ) m2 dep`en
nomes de les difer`encies de temps. Com tota lest` adistica del proces normal queda determinada en
(9.8) per m i C(ti , tj ) la distribucio es invariant sota el canvi (9.9).
Una caracterstica de molts PE (estacionaris) es que

lim C( ) = 0. (9.13)
| |

De fet, hem vist a lexemple 9.5 que (9.13) pot no complir-se. Per`o en lexemple 9.1 veiem que
la condicio resulta plausible ja que, al ser el moviment continu, per petits increments de temps
les posicions estan molt correlacionades. Per increments temporals grans la partcula oblida la
posici
o inicial i tenim (9.13).
Existeix tambe una versi o estadstica de la periodicitat. Es diu que X(t) es un PE cicloesta-
cionari en sentit estricte si la seva distribucio de probabilitat es peri`
odica sota translacions tem-
a dir, existeix T > 0 fixat tal que per a tot k Z
porals. Es

f (x1 , x2 , . . . , xn ; t1 + kT, t2 + kT, . . . , tn + kT ) = f (x1 , x2 , . . . , xn ; t1 , t2 , . . . , tn ) (9.14)

Un PE es diu que es cicloestacionari en sentit ampli si per a tot k Z

m(t + kT ) = m(t),

R(t1 + kT, t2 + kT ) = R(t1 , t2 ). (9.15)

Notem que un PE on les variables X(ti ) siguin sempre independents ens dona una funci o
absolutament aleat`oria que difcilment modelar`a un fen`omen real. Per una altra part, tampoc
les funcions tan regulars com les de lexemple 9.5 son les que ens interessen. Un PE sol ser
massa complicat perque sigui possible manipular directament les funcions X(t). El que caracteritza
on les funcions com m(t) i C(t1 , t2 ).
realment el proces s

68
Captol 10

Exemples de processos estoc`


astics

Donat un PE, si X(t) es una v.a. discreta diem que el proces es destat discret. An` alogament, si
X(t) es una v.a. contnua diem que els proces es destat continu. Lexemple mes important de PE
destat discret es el proces de Poisson que estudiem a continuacio.

Fig. 1: Processos destat continu i discret.

10.1 El proc
es de Poisson
Considerem que a mesura que passa el temps es van produint una s`erie desdeveniments id`entics de
manera aleat` oria. Per exemple, rebre trucades en una centraleta telef`onica, arribar vehicles a una
gasolinera o desintegrar-se partcules radioactives. Suposem que els esdeveniments es produeixen de
manera independent. Prendrem sempre temps positius comencant a contar en t = 0. Indiquem per
n(t) el nombre desdeveniments que shan produt en linterval [0, t]. El nombre desdeveniments
en un interval [ta , tb ] es n(ta , tb ) = n(tb ) n(ta ).
Diem que el proces es de Poisson si

El nombre desdeveniments en dos intervals temporals disjunts son variables aleat`ories inde-
pendents.

Si N = n(t, t + ), llavors P (N = 1) = + o( ) i P (N > 1) = o( ).

Aix`
o implica que la v.a. N = n(ta , tb ) te la funci
o de probabilitat

n
P (N = n) = e , (10.1)
n!

69
on = (tb ta ) i n = 0, 1, . . . .
El PE de Poisson consisteix en prendre com a funci
o el nombre total desdeveniments produts
en linterval [0, t]:
X(t) = n(t).

Fig. 2: Proces de Poisson.

Fixat t, X(t) es una v.a. de Poisson amb distribucio

(t)n
P (X(t) = n) = et . (10.2)
n!
Es diu que el proces de Poisson es no homogeni quan dep`en de t. Nomes considerarem el cas
homogeni on es constant.
Recordem que la variable (10.2) verifica E[X(t)] = V [X(t)] = t. Llavors, pel proces de Poisson

m(t) = t, (10.3)

t1 + 2 t1 t2 si t1 t2
R(t1 , t2 ) = (10.4)
t2 + 2 t1 t2 si t1 t2

DEM: El valor mitj` a es m(t) = E[X(t)] = t.


Ara considerem t1 t2 . Les variables aleat` ories X(t1 ) i X(t2 ) X(t1 ) son variables de Poisson
n(0, t1 ) i n(t1 , t2 ) independents ja que els intervals son disjunts. Llavors lautocorrelaci o es

R(t1 , t2 ) = E[X(t1 )X(t2 )] = E[X(t1 )(X(t2 ) X(t1 ))] + E[X(t1 )2 ]

= E[X(t1 )]E[(X(t2 ) X(t1 ))] + E[X(t1 )2 ]


= E[X(t1 )]E[X(t2 )] + E[X(t1 )2 ] E[X(t1 )]2 = E[X(t1 )]E[X(t2 )] + V [X(t1 )]
= t1 t2 + t1 .
El cas t1 t2 sobte intercanviant t1 i t2 ja que R es sim`etrica.

Podem posar R(t1 , t2 ) = min(t1 , t2 ) + 2 t1 t2 . La funci


o dautocovari`ancia es C(t1 , t2 ) =
min(t1 , t2 ).
Segons (10.3) el par`ametre es el nombre mig desdeveniments per unitat de temps.

70
10.2 Senyal telegr`
afic aleatori
Considerem la variable de Poisson n(t). El senyal telegr`
afic semialeatori es el proces

1 si n(t) es parell
X(t) = (10.5)
1 si n(t) es senar

Aix, X(0) = 1 i canvia de signe cada vegada que es produeix un esdeveniment. La seva funci
o
de probabilitat es

(t)2
P (X(t) = 1) = P (n(t) = 0) + P (n(t) = 2) + = et (1 + + ) = et cosh t.
2!
(t)3
P (X(t) = 1) = P (n(t) = 1) + P (n(t) = 3) + = et (t + + ) = et sinh t.
3!
El valor mitj`
a es

m(t) = E[X(t)] = 1 et cosh t + (1) et sinh t = e2t

Lautocorrelaci
o es

R(t1 , t2 ) = E[X(t1 )X(t2 )] = 1 P (n(t1 , t2 ) parell) + (1) P (n(t1 , t2 ) senar) = e2|t2 t1 | .

ja que n(t1 , t2 ) es una v.a. de Poisson de par`ametre |t2 t1 |.

Fig. 3: Senyal telegr`


afic semialeatori.

Aquest PE sanomena semialeatori perque hem fixat X(0). El PE de senyal telegr`afic aleatori
es

Y (t) = SX(t) (10.6)

on S es una v.a. de Bernoulli amb valors 1 i 1 equiprobables, independent de X(t). Ara

m(t) = 0, R(t1 , t2 ) = e2|t2 t1 | . (10.7)

DEM:
E[Y (t)] = E[S]E[X(t)] = 0.
E[Y (t1 )Y (t2 )] = E[S 2 ]E[X(t1 )X(t2 )] = e2|t2 t1 | .

71
10.3 Tren dimpulsos de Poisson
Sigui X(t) un PE de Poisson. El tren dimpulsos associat a ell es el proces
d
Z(t) = X(t). (10.8)
dt
Si els esdeveniments es produeixen en els instants t1 , t2 , . . . , podem representar X i Z com

X(t) = u(t ti ), (10.9)


i

Z(t) = (t ti ), (10.10)
i

on u i son les funcions de Heaviside i Dirac.

Fig. 4: Impulsos de Poisson.

(10.10) representa un tipus de soroll de naturalesa impulsiva (shot noise). Els seus valor mitj`a,
autocorrelaci
o i autocovari`
ancia s
on:

m(t) = , (10.11)

R(t1 , t2 ) = 2 + (t2 t1 ), C(t1 , t2 ) = (t2 t1 ). (10.12)

DEM:
d d d
m(t) = E[Z(t)] = E[ X(t)] = E[X(t)] = (t) = .
dt dt dt

d d d2
R(t1 , t2 ) = E[Z(t1 )Z(t2 )] = E[ X(t1 ) X(t2 )] = E[X(t1 )X(t2 )]
dt dt dt1 dt2
d2
= (2 t1 t2 + min(t1 , t2 )) = 2 + (t1 t2 ),
dt1 dt2
ja que
min(t1 , t2 ) = t1 u(t2 t1 ) + t2 u(t1 t2 ),
d
min(t1 , t2 ) = t1 (t2 t1 ) + u(t1 t2 ) t2 (t1 t2 ) = u(t1 t2 ) (t2 t1 )(t2 t1 ) = u(t1 t2 ),
dt2
d2
min(t1 , t2 ) = (t1 t2 ).
dt1 dt2

72
Notem que els processos de senyal telegr` afic aleatori i el tren dimpulsos de Poisson son esta-
cionaris en sentit ampli (veure 10.7,10.11,10.12) mentres que el propi proces de Poisson o`bviament
no es estacionari. El fet es que larribada de fenomens tipus Poisson es estrictament estacion` aria
(lorigen de temps es arbitrari) i aix`o es el que es manifesta en alguns processos derivats daquesta
situacio.

10.4 Distribuci
o dels temps en el proc
es de Poisson
En un proces de Poisson X(t) els esdeveniments es produeixen en els instants t1 , t2 , t3 , . . . . Con-
siderem les v.a.s T1 , T2 , T3 , . . . associades a aquests instants. La densitat de cadascuna delles es,
per a t 0:

(t)n1 t
fTn (t) = e . (10.13)
(n 1)!

DEM:
(t)n1
FTn (t) = P (Tn t) = P (X(t) n) = 1 P (X(t) < n) = 1 et (1 + t + + ),
(n 1)!

d t (t)n1
fTn (t) = e (1 + t + + )
dt (n 1)!
(posem = t)
d n1
= e (1 + + + )
d (n 1)!
n1 n2
= [e (1 + + + ) + e (1 + + + )]
(n 1)! (n 2)!
n1
= e .
(n 1)!
En particular, notem que fT1 (t) = et . Es a dir, T1 es exponencial de par`
ametre .
La distribucio conjunta de (T1 , T2 , . . . , Tn ) ve donada per la densitat:

f (t1 , t2 , . . . , tn ) = n etn , (10.14)

per a 0 t1 < t2 < < tn < .

DEM:
Les funcions que considerarem seran 0 quan no es verifiqui 0 t1 < t2 < < tn < .
Calculem primer la distribucio condicionada

F (tk |t1 , t2 , . . . , tk1 ) = P (Tk tk |T1 = t1 , T2 = t2 , . . . , Tk = tk1 )

= P (n(tk1 , tk ) 1) = 1 e(tk tk1 ) .


Derivant respecte a tk trobem

f (tk |t1 , t2 , . . . , tk1 ) = e(tk tk1 ) ,

73
per a tk tk1 .
Ara factoritzem la densitat conjunta a partir de les marginals i les condicionades:

f (t1 , t2 , . . . , tn ) = f (tn |t1 , t2 , . . . , tn1 )f (t1 , t2 , . . . , tn1 ) =

= f (tn |t1 , t2 , . . . , tn1 )f (tn1 |t1 , t2 , . . . , tn2 ) f (t3 |t1 , t2 )f (t2 |t1 )f (t1 )
= e(tn tn1 ) e(tn1 tn2 ) e(t2 t1 ) et1 = n etn .
Considerem ara les variables que ens donen el temps entre esdeveniments consecutius:

1 = T1 , 2 = T2 T1 , . . . , n = Tn Tn1 , (10.15)

La densitat conjunta de la variable n-dimensional (1 , 2 , . . . , n ) es:

f (1 , 2 , . . . , n ) = n e(1 +2 ++n ) , (10.16)

per a i 0, i = 1, . . . n.

DEM:
o 0 t1 < t2 < < tn < correspon a 1 , 2 , . . . , n 0. La transformaci
La regi o (10.15) es
bijectiva entre aquestes regions i el seu determinant jacobi`a val 1. Aix la densitat sobte substituint
(10.15) en (10.14) que ens dona (10.16).
En (10.16) veiem que els temps entre esdeveniments successius i = Ti Ti1 son variables
exponencials independents. Aix Tn = 1 + 2 + + n es la suma de n v.a.s exponencials
independents.

10.5 Senyals binaris


Un senyal binari es un PE destat discret que nomes pren valors 0 i 1.
Considerem un senyal binari a temps discret Bn . tal que, per a tot n, Bn pren valors 0 i 1 amb
igual probabilitat. Si fixem T hi ha un proces a temps continu equivalent definit:

B(t) = Bn si nT t < (n + 1)T (10.17)

Fig. 5: Proces binari.

Un proces daquest tipus pot representar la informacio que conte un arxiu inform`atic. Per trans-
portar aquesta informaci o mitjancant un medi electromagn`etic (per exemple, una lnea telef`
onica)
resulta mes u
til transformar el proces (10.17) en

X(t) = cos(t + (t)), (10.18)

74
on = 2P es la freq
u`encia portadora i

/2 si B(t) = 1
(t) = (10.19)
/2 si B(t) = 0

La transformaci o (10.18) sanomena modulacio de freq


u`encia o PSK (phase shift keying) i es pot
aplicar a diferents tipus de senyal.

10.6 Oscil.lacions aleat`


ories
Es tracta de funcions oscil.lat`ories que contenen par`ametres aleatoris. Lexemple 9.3 de lanterior
captol nera un cas. Ara estudiem quan es estacionari el proces

X(t) = A cos t + B sin t (10.20)

on est`a fixada i (A, B) es una v.a. bidimensional. Tenim que (10.20) es estacionari

en sentit ampli si i nomes si mA = mB = 0, A = B i AB = 0.

en sentit estricte si i nomes si la distribuci


o de (A, B) te simetria circular.

DEM:
Si (10.20) es estacionari en sentit ampli

m(t) = mA cos t + mB sin t = m.

Com les funcions cos, sin i 1 s on linealment independents, ha de ser mA = mB = m = 0.


La funcio R(t, t + ) no ha de dependre de t. Posant = 0 tenim que R(t, t) es constant i, per
tant, R(0, 0) = E[X(0)2 ] = E[A2 ] = A 2 coincideix amb R(/2, /2) = E[X(/2)2 ] = E[B 2 ] =
2
B . Diem al valor com u de A i B . Tenim tambe E[AB] = 2 . Llavors

R(t, t + ) = E[X(t)X(t + )] = E[(A cos t + B sin t)(A cos (t + ) + B sin (t + ))]

= 2 cos + 2 sin (2t + ).


Perque aquesta funci
o no depengui de t ha de ser = 0.

Per veure quan es estacionari en sentit estricte utilitzem coordenades polars A = R cos ,
B = R sin . Llavors X(t) = R cos( t).
Si el proces es estacionari en sentit estricte la v.a. bidimensional (X(t), X(t + /2)) te
la mateixa distribucio per a tot t. En t = 0 i t = / tenim les variables (R cos , R sin ) i
(R cos( ), R sin( )) respectivament. En polars corresponen a (R, ) i (R, ). Aix, la
funcio de densitat no pot dependre de , es a dir, tenim simetria circular.
Inversament, si tenim simetria circular, el canvi + t1 deixa totes les distribucions
invariants. Per tant la distribucio conjunta de la v.a. (X(t1 ), X(t2 ), . . . , X(tn )) es id`entica a la de
(X(0), X(t2 t1 ), . . . , X(tn t1 )) que es invariant sota translacions temporals.

75
Captol 11

Processos estacionaris

11.1 Integrals estoc`


astiques
Considerem el PE X(t). Si com a resultat de lexperiment obtenim la funcio X1 (t) diem que X1 (t)
es una realitzacio del proces. En general, no sabem a priori quines propietats te X1 (t). Si volem
aplicar operacions al proces X(t) com la derivaci o o la integraci
o, pot ser massa restrictiu voler-ho
fer sobre X1 (t). Aix, relaxem les definicions exigint nomes que la propietat es verifiqui en promig.
Una propietat del tipus lim f (X(t), ) = l diem que es verifica en mitjana quadr` atica (MQ) si
0

lim E[(f (X(t), ) l)2 ] = 0. (11.1)


0

Si nomes ens interessa lexist`encia del lmit i no el seu valor podem utilitzar el criteri de Cauchy
que diu que f (X(t), ) convergeix en MQ si

lim E[(f (X(t), 1) f (X(t), 2 ))2 ] = 0. (11.2)


1 , 2 0

Notem que el resultat del lmit l es en general una v.a. Llavors es verifica que lesperanca del
lmit es el lmit de lesperanca

E[l] = lim E[f (X(t), )]. (11.3)


0

DEM: (E[l] E[f (X(t), )])2 = E[l f (X(t), )]2 E[(l f (X(t), ))2 ] 0

Considerem, per exemple, la continuitat estoc`


astica. Diem que X(t) es continu en MQ si

lim E[(X(t + ) X(t))2 ] = 0. (11.4)


0

Aix`o vol dir que fixat t quasi totes les realitzacions del proces s
on contnues en t. Per`o donada
una realitzacio aquesta pot tenir diferents punts de discontinuitat. La propietat (11.4) equival a

lim {R(t + , t + ) 2R(t + , t) + R(t, t)} = 0, (11.5)


0

o dautocorrelacio R(t1 , t2 ) es contnua. Aix`


que es verifica, en particular, si la funci o passa, per
2
exemple, en el proces de Poisson on R(t1 , t2 ) = min(t1 , t2 ) + t1 t2 . En canvi, tota realitzaci
o de
un PE de Poisson te un conjunt numerable de discontinuitats.
Existeixen expressions equivalents a (11.4) i (11.5) per a la derivada dun PE. Concentrem-nos
ara en la integraci
o. La integral (de Riemann) duna funcio sobre un interval [a, b] consisteix en el

76
lmit de les seves sumes de Riemann quan les particions de linterval son cada vegada mes fines.
Direm que la integral dun PE sobre linterval [a, b] val I si

lim E[( X(ti )ti I)2 ] = 0, (11.6)


ti 0
i
b
on els ti formen una particio de [a, b]. Si (11.6) es verifica escriurem I = a X(t)dt.
Si existeix la integral
b b
R(t1 , t2 )dt1 dt2 , (11.7)
a a

llavors el proces es integrable en [a, b].

DEM:
Suposem que (11.7) existeix i utilitzem el criteri de Cauchy. Considerem dues particions, la
primera indexada amb i o i i la segona amb j o j

lim E[( X(ti )ti X(tj )tj )2 ]


ti ,tj 0
i i

= lim{ R(ti , ti )ti ti 2 R(ti , tj )ti tj + R(tj , tj )tj tj } = 0,


i,i i,j j,j

ja que cada sumatori tendeix a (11.7).

b
a X(t)dt es una variable aleat`
oria. De la linealitat de lesperanca i de (11.3) es pot concloure
la propietat
b b
E[ X(t)dt] = E[X(t)]dt, (11.8)
a a

que ser`
a ampliament utilitzada en el que segueix.
Deixem de banda la consideraci o dels aspectes analtics fins de les anteriors definicions i ressaltem
tan sols que les propietats dun PE solen determinar-se a partir del comportament de les funcions
de valor mitj`a i dautocorrelaci
o.

Exemple 11.1 El seg uent cas presenta una aparent paradoxa. Sigui el proces X(t) = teY t on Y
es una variable aleat`oria uniforme en [0, 1]. Resulta que totes les seves realitzacions verifiquen
lim Xi (t) = 0
t

mentres que el seu valor mitj`


a
1
m(t) = E[X(t)] = teyt 1dy = 1 et
0

tendeix a 1 en linfinit.
La discrep`ancia es deu a que el proces no tendeix a zero en MQ. En efecte,
t
lim E[(X(t) 0)2 ] = lim E[t2 e2yt ] = lim (1 e2t ) = .
t t t 2

Aix, si promitgem moltes realitzacions del proces, sobtenen valors mes alts per ts mes elevats. El
missatge es que no shan delevar les propietats de les realitzacions a propietats estadstiques sense
verificar-ho.

77
11.2 Ergodicitat
Sigui X(t) un PE estacionari amb valor mitj`a m(t) = m i funcio dautocorrelaci
o R(t, t+ ) = R( ).
Per calcular m podriem fer moltes realitzacions del proces i avaluar
n
1
m = lim Xi (t). (11.9)
n n
i=1

En el que segueix estarem interessats en evaluar els par` ametres del proces no a traves de
promitjos sobre moltes realitzacions sino fent promitjos temporals duna sola realitzacio. El promig
temporal del proces es
T
1
mT =< X(t) >T = X(t)dt. (11.10)
2T T

Notem que mT es una v.a. ordin`aria.


Un proces erg`
odic es aquell en que els promitjos temporals igualen els promitjos sobre realitza-
cions. Mes concretament definim:

Ergodicitat en valor mitj`


a.
X(t) es erg`
odic en valor mitj` a dir,
a si mT tendeix a m en MQ. Es

lim E[(mT m)2 ] = 0. (11.11)


T

Notem que aquesta condicio es que T2 0 quan T , si T es la desviaci


o de la variable
mT .

Ergodicitat en autocorrelaci
o.
X(t) es erg`
odic en autocorrelaci
o si el PE Z (t) = X(t + )X(t) es erg`
odic en valor mitj`
a.
En aquest cas els promitjos temporals de Z (t) ens donen lautocorrelacio de X(t).

Notem que
T T
1
T2 = C(t1 , t2 )dt1 dt2 . (11.12)
4T 2 T T

DEM:
T
1
T2 = E[(mT m)2 ] = E[( (X(t) m)dt)2 ]
2T T
T T
1
= E[(X(t1 ) m)(X(t2 ) m)]dt1 dt2 ,
(2T )2 T T

o integrada es C(t1 , t2 ).
i la funci

Exemple 11.2 Pel tren dimpulsos de Poisson C(t1 , t2 ) = (t1 t2 ).


T T T
1 1
T2 = (t1 t2 )dt1 dt2 = dt1 = .
4T 2 T T 4T 2 T 2T

Com /2T 0 quan T , el proces es ergodic en valor mitj`


a.

78
Degut a que considerem processos estacionaris, lexpressio (11.12) es pot posar com
2T
1 | |
T2 = C( )(1 )d. (11.13)
2T 2T 2T

DEM:
Fem el canvi de variable
= t1 t2
= t1
que te jacobi`
a 1 i transforma la regio dintegracio segons el dibuix:

T T 0 T + 2T T
C(t1 , t2 )dt1 dt2 = ( C( )d)d + ( C( )d)d
T T 2T T 0 T +
0 2T 2T
= C( )(2T + )d + C( )(2T )d = C( )(2T | |)d.
2T 0 2T

11.3 Condicions suficients dergodicitat



Si C( )d < el proces es erg`
odic en valor mitj`
a.
DEM:

2T 2T
1 | | 1
C( )(1 )d C( )d 0
2T 2T 2T 2T 2T
quan T .

Recordem la propietat |C[X, Y ]| X Y . En el cas dun proces estacionari, fent X = X(t) i


Y = X(t + ) trobem que
|C( )| C(0).

Si C(0) < i C( ) 0 quan | | , el proces es erg`


odic en valor mitj`
a.
DEM:
Per a tot > 0 existeix a tal que |C( )| < si | | > a. Llavors
2T 2T
| |
2T T2 = C( )(1 )d |C( )|d
2T 2T 2T
a
|C( )|d + |C( )|d < 2aC(0) + 4T .
a a<| |<2T

79
Aix
a
T2 <
C(0) + 2 2
T
o val per a tot , ha de ser T2 0 quan T .
quan T . Com aix`

Exemple 11.3 Estudiar lergodicitat del senyal telegr`afic aleatori i del shot noise amb els anteriors
criteris.
Pel senyal telegr` afic C( ) = e2| | que te integral finita (= 1/). Segons el primer criteri, es
erg`odic en valor mitj` a. El mateix es conclou amb el segon criteri ja que C(0) = 1, finit, i C(t)
sanul.la en linfinit.
Pel shot noise C( ) = ( ) que te integral finita (= ). Segons el primer criteri, es erg`odic en
valor mitj`a. El segon criteri no es pot aplicar ja que C(0) = .

11.4 Espectre de pot`


encia dun proc
es estacionari
La densitat espectral o espectre de pot`encia dun PE estacionari es la transformada de Fourier de
la funcio dautocorrelaci
o.

S() = R( )ej d. (11.14)

Invertint (11.14) trobem



1
R( ) = S()ej d. (11.15)
2

Com, per processos reals, R( ) = R( ), si fem el canvi de variable = en (11.14) trobem


que S() es real.

DEM: S() = R( )ej d = S ().

Com S() = S () = S(), S() es una funcio parell. Recordem que la pot`encia promig era

1
R(0) = S()d, (11.16)
2

S() es, en efecte, la densitat de pot`encia distribuda segons el contingut en freq


u`encies.

Exemple 11.4 Shot noise.


Notem que al ser la transformada de Fourier de ( ) igual a 1 la inversi
o ens dona la representaci
o
integral de la de Dirac:

1
( ) = ej d. (11.17)
2

En el cas dels impulsos de Poisson era R( ) = 2 + ( ) don



S() = (2 + ( ))ej d = 22 () + .

Exemple 11.5 Senyal telegr` R( ) = exp{2| |} i


afic. Es

4
S() = e2| | ej d = 2 e2 cos( )d = .
0 2 + 42

80
11.5 Sistemes lineals
Considerem un PE X(t). Igual que una variable aleat` oria X dona lloc a noves variables fent
transformacions del tipus Y = g(X), podem transformar el proces X(t) per obtenir el nou PE Y (t).
Diem L a aquesta transformacio que anomenarem sistema i escribim Y (t) = L[X(t)]. Gr`aficament
ho pensem com un objecte que rep una entrada X(t) i torna una sortida Y (t).

Fig 1. Sistema lineal.

Un sistema es determinista si fixada la realitzacio de X(t) que entra, la sortida queda ja de-
terminada. Si, pel contrari, una mateixa entrada pot donar lloc a sortides diferents diem que el
sistema es estoc`
astic. En el que segueix nomes considerem sistemes deterministes.
Un sistema es sense mem` oria si el valor de Y (t) per cada t dep`en exclusivament del valor de
X(t) pel mateix t.
Un sistema es lineal si

L[1 X1 (t) + 2 X2 (t)] = 1 L[X1 (t)] + 2 L[X2 (t)], (11.18)


on 1 , 2 poden ser variables aleat`ories per`o no dependre de t.
Un tipus particular de transformacio es la translacio temporal definida

Ta [X(t)] = X(t a). (11.19)


Un sistema es invariant en el temps si LTa = Ta L per a tot a. Aix o es pot expressar de manera
equivalent dient que si X(t) dona la sortida Y (t) llavors X(t a) dona la sortida Y (t a). Si
pensem L com un dispositiu fsic que transforma un senyal, la invari` ancia en el temps vol dir que
la constitucio daquest dispositiu es id`entica en tot t. A partir dara considerem nomes sistemes
lineals invariants en el temps.
Definim la funcio de resposta impulsiva h dun sistema lineal com

h(t) = L[(t)]. (11.20)


Coneixent h tenim que una resposta arbitr`aria es pot determinar fent una convolucio:

L[X(t)] = (h X)(t). (11.21)


DEM:
L[X(t)] = L[ (t )X( )d ] = L[(t )]X( )d


= h(t )X( )d = (h X)(t).

81
11.6 Valor mitj`
a, autocorrelaci
o i espectre de pot`
encia dun PE
transformat linealment
Un proces estoc` astic X(t) es caracteritza principalment per les funcions valor mitj`a m(t) i auto-
correlacio R(t1 , t2 ). Si tenim altres processos definim en general la funci
o de correlaci
o de X(t) i
Y (t)

RXY (t1 , t2 ) = E[X(t1 )Y (t2 )]. (11.22)

o de X(t) sescriu ara RXX (t1 , t2 ). Tambe indicarem el seu valor mitj`
La funcio dautocorrelaci a
mX (t). Loperacio L es fa sempre sobre funcions duna variable. Quan el seu argument te dues
variables posem L1 o L2 per indicar que considerem la funcio de la variable t1 o t2 deixant laltra
com a par`ametre.
El seg
uent resultat indica com obtenir els par`ametres de Y (t) = L[X(t)] a partir dels de X(t).

mY (t) = L[mX (t)], (11.23)

RXY (t1 , t2 ) = L2 [RXX (t1 , t2 )], (11.24)

RY Y (t1 , t2 ) = L1 [RXY (t1 , t2 )]. (11.25)

DEM:

mY (t) = E[L[X(t)]] = E[ h(t )X( )d ] = h(t )E[X( )]d


= h(t )mX ( )d = (h mX )(t) = L[mX (t)].


RXY (t1 , t2 ) = E[X(t1 )Y (t2 )] = E[X(t1 ) h(t2 )X( )d ] = h(t2 )E[X(t1 )X( )]d


= h(t2 )RXX (t1 , )d = L2 [RXX (t1 , t2 )].


RY Y (t1 , t2 ) = E[Y (t1 )Y (t2 )] = E[ h(t1 )X( )d Y (t2 )] = h(t1 )E[X( )Y (t2 )]d


= h(t1 )RXY (, t2 )d = L1 [RXY (t1 , t2 )].

Finalment trobem lespectre de pot`encia de Y (t), SY () a partir de SX (). X(t) es ara un


PE estacionari amb funci o dautocorrelacio RXX (t1 , t2 ) = RXX (t2 t1 ). Definim la funci
o de
transfer`encia del sistema H()


H() = h( )ei d. (11.26)

82
Llavors tenim el seg
uent resultat:

SY () = |H()|2 SX (). (11.27)

Abans de demostrar-ho recordem el teorema de convolucio. Si les funcions f (t) i g(t) tenen les
o (f g)(t) te transformada
transformades de Fourier F () i G() llavors el seu producte de convoluci
de Fourier F ()G(). Tambe tenim que f (t) es transforma en F ().
DEM:
Lespectre de pot`encia de Y (t) sobte fent la transformada de Fourier de RY Y (t).

RXY (t1 , t2 ) = h(t2 )RXX (t1 , )d


= h(t2 )RXX ( t1 )d = h(t2 t1 )RXX ( )d,

on hem fet servir que RXX dep`en nomes de la difer`encia de temps i hem fet el canvi de variable
+ t1 . Aix veiem que RXY (t1 , t2 ) dep`en nomes de t2 t1 . Ara obtenim

RY Y (t1 , t2 ) = h(t1 )RXY (, t2 )d


= h(t1 )RXY (t2 )d = h(t1 t2 )RXY ( )d.

Aix veiem que RY Y sobte de la convoluci


o entre h(t) i RXY (t) i RXY (t) sobte de la convoluci
o
entre h(t) i RXX (t). Passant a transformades de Fourier

RXY (t) [H()SX ()] = H ()SX ()

RY Y (t) SY () = H() H ()SX () = |H()|2 SX ().

Exemple 11.6 Circuit L-R.

Fig 2. Circuit L-R.

Considerem el sistema format per una resist`encia r i una bobina dinduct`ancia l. Lentrada al
sistema es el voltatge aplicat al circuit donat pel proces X(t). La sortida es la intensitat de corrent
que hi circula Y (t). Calculem la transformacio Y (t) = L[X(t)] i trobem com varia lespectre de
pot`encia.

83
Donat X(t) calculem Y (t) resolent lequacio diferencial del circuit

dY
l (t) + rY (t) = X(t). (11.28)
dt

o homog`enia es Y (t) = Cert/l on C es una constant. Ara trobem una


La solucio de lequaci
soluci o completa per variacio de constants Yp (t) = C(t)ert/l que implica al
o particular de lequaci
substituir en (11.28)
1 t r
C(t) = e l X( )d.
l
Llavors la soluci
o general de (11.28) es
t
r 1 r
Y (t) = Ce l t + e l (t ) X( )d. (11.29)
l

En (11.29) el primer terme es un transitori que desapareix passat un cert temps. Considerem
com a sortida la corrent quan sha arribat a la situaci o estacion`
aria i, per tant, fem C = 0 en
(11.29). Comparant amb lexpressio general

Y (t) = h(t )X( )d (11.30)

trobem
1 rt
h(t) = e l u(t).
l
Ara tenim
1 r t 1 r
H() = e l u(t)eit dt = e( l +i)t dt
l l 0
1
= .
r + il
Llavors (11.27) ens dona
SX ()
SY () =
r2+ l2 2

84
Part IV

Taules

85
Funci
o derror
La primera columna son valors de x. La segona columna son valors de
x
2 2
erf(x) = et dt.
0

La funcio de distribucio duna variable normal (gaussiana) amb parametres m i es


xm
F (x) = 0.5(1 + erf( )).
2
La taula conte valors 0 x < 3. La funcio erf es antisim`etrica aix que, per exemple, erf(1.5) =
erf(1.5). Per x > 3 es pot utilitzar laproximacio

2
erf(x) 1 ex .
( 1)x + x + 2

La funcio derror esta predefinida en MAPLE i es accessible fent directament, per exemple,
> erf(0.34);

86
x erf(x) x erf(x) x erf(x) x erf(x) x erf(x) x erf(x)
.00 .000000 .5 .520499 1 .842700 1.5 .966105 2 .995322 2.5 .999593
.01 .011283 .51 .529243 1.01 .846810 1.51 .967276 2.01 .995524 2.51 .999614
.02 .022564 .52 .537898 1.02 .850838 1.52 .968413 2.02 .995719 2.52 .999634
.03 .033841 .53 .546464 1.03 .854784 1.53 .969516 2.03 .995906 2.53 .999653
.04 .045111 .54 .554939 1.04 .858649 1.54 .970585 2.04 .996085 2.54 .999671
.05 .056371 .55 .563323 1.05 .862436 1.55 .971622 2.05 .996258 2.55 .999689
.06 .067621 .56 .571615 1.06 .866143 1.56 .972628 2.06 .996423 2.56 .999705
.07 .078857 .57 .579815 1.07 .869773 1.57 .973602 2.07 .996582 2.57 .999721
.08 .090078 .58 .587922 1.08 .873326 1.58 .974547 2.08 .996734 2.58 .999736
.09 .101280 .59 .595936 1.09 .876803 1.59 .975462 2.09 .996880 2.59 .999750
.1 .112462 .6 .603856 1.1 .880205 1.6 .976348 2.1 .997020 2.6 .999763
.11 .123622 .61 .611681 1.11 .883533 1.61 .977206 2.11 .997154 2.61 .999776
.12 .134758 .62 .619411 1.12 .886787 1.62 .978038 2.12 .997283 2.62 .999788
.13 .145867 .63 .627046 1.13 .889970 1.63 .978842 2.13 .997407 2.63 .999800
.14 .156947 .64 .634585 1.14 .893082 1.64 .979621 2.14 .997525 2.64 .999811
.15 .167995 .65 .642029 1.15 .896123 1.65 .980375 2.15 .997638 2.65 .999821
.16 .179011 .66 .649376 1.16 .899096 1.66 .981104 2.16 .997747 2.66 .999831
.17 .189992 .67 .656627 1.17 .902000 1.67 .981810 2.17 .997851 2.67 .999840
.18 .200935 .68 .663782 1.18 .904837 1.68 .982492 2.18 .997950 2.68 .999849
.19 .211839 .69 .670840 1.19 .907608 1.69 .983152 2.19 .998045 2.69 .999857
.2 .222702 .7 .677801 1.2 .910313 1.7 .983790 2.2 .998137 2.7 .999865
.21 .233521 .71 .684665 1.21 .912955 1.71 .984407 2.21 .998224 2.71 .999873
.22 .244295 .72 .691433 1.22 .915533 1.72 .985002 2.22 .998307 2.72 .999880
.23 .255022 .73 .698103 1.23 .918050 1.73 .985578 2.23 .998387 2.73 .999886
.24 .265700 .74 .704678 1.24 .920505 1.74 .986134 2.24 .998464 2.74 .999893
.25 .276326 .75 .711155 1.25 .922900 1.75 .986671 2.25 .998537 2.75 .999899
.26 .286899 .76 .717536 1.26 .925235 1.76 .987190 2.26 .998607 2.76 .999905
.27 .297418 .77 .723821 1.27 .927513 1.77 .987690 2.27 .998673 2.77 .999910
.28 .307880 .78 .730010 1.28 .929734 1.78 .988174 2.28 .998737 2.78 .999915
.29 .318283 .79 .736103 1.29 .931898 1.79 .988640 2.29 .998798 2.79 .999920
.3 .328626 .8 .742100 1.3 .934007 1.8 .989090 2.3 .998856 2.8 .999924
.31 .338908 .81 .748003 1.31 .936063 1.81 .989524 2.31 .998912 2.81 .999929
.32 .349125 .82 .753810 1.32 .938065 1.82 .989943 2.32 .998965 2.82 .999933
.33 .359278 .83 .759523 1.33 .940015 1.83 .990346 2.33 .999016 2.83 .999937
.34 .369364 .84 .765142 1.34 .941913 1.84 .990735 2.34 .999064 2.84 .999940
.35 .379382 .85 .770668 1.35 .943762 1.85 .991111 2.35 .999110 2.85 .999944
.36 .389329 .86 .776100 1.36 .945561 1.86 .991472 2.36 .999154 2.86 .999947
.37 .399205 .87 .781439 1.37 .947312 1.87 .991820 2.37 .999196 2.87 .999950
.38 .409009 .88 .786687 1.38 .949016 1.88 .992156 2.38 .999236 2.88 .999953
.39 .418738 .89 .791843 1.39 .950673 1.89 .992479 2.39 .999275 2.89 .999956
.4 .428392 .9 .796908 1.4 .952285 1.9 .992790 2.4 .999311 2.9 .999958
.41 .437969 .91 .801882 1.41 .953852 1.91 .993089 2.41 .999346 2.91 .999961
.42 .447467 .92 .806767 1.42 .955376 1.92 .993378 2.42 .999379 2.92 .999963
.43 .456886 .93 .811563 1.43 .956857 1.93 .993655 2.43 .999410 2.93 .999965
.44 .466225 .94 .816271 1.44 .958296 1.94 .993922 2.44 .999440 2.94 .999967
.45 .475481 .95 .820890 1.45 .959695 1.95 .994179 2.45 .999469 2.95 .999969
.46 .484655 .96 .825423 1.46 .961053 1.96 .994426 2.46 .999496 2.96 .999971
.47 .493745 .97 .829870 1.47 .962372 1.97 .994663 2.47 .999522 2.97 .999973
.48 .502749 .98 .834231 1.48 .963654 1.98 .994892 2.48 .999547 2.98 .999974
.49 .511668 .99 .838508 1.49 .964897 1.99 .995111 2.49 .999570 2.99 .999976

87
Part V

Ap`
endixs

88
Ap`
endix A

L`
ogica i conjunts

Els objectes elementals en la l`ogica son els predicats o proposicions l`ogiques. Aquestes proposicions
poden tenir dos valors, 0 o 1, assignats. Si la proposici o p es certa li assignem el valor 1 i si es
falsa el valor 0. A partir de proposicions elementals en construm daltres a traves doperacions
l`
ogiques. Llavors la questi
o es coneixer el valor duna proposicio complexa a partir del valor de les
proposicions elementals que la formen.
Si p i q s
on proposicions l`ogiques definim la conjunci o p q (p i q), la disjuncio p q (p o q) i
la negacio p (no p) amb les taules de veritat:

p q pq p q pq
0 0 0 0 0 0 p p
1 0 0 1 0 1 0 1
0 1 0 0 1 1 1 0
1 1 1 1 1 1

Amb aquestes taules es poden demostrar algunes equival`encies veient que els valors dels dos
costats coincideixen per totes les eleccions de valors de les proposicions elementals. Algunes daque-
stes propietats son:
p q q p, p q q p, (A.1)

p (q r) (p q) r p (q r) (p q) r, (A.2)

p (q r) (p q) (p r), p (q r) (p q) (p r), (A.3)

(p q) (p) (q), (p q) (p) (q). (A.4)


Algunes proposicions fan refer`encia a un argument i tenen la forma p(x). El seu valor de veritat
dep`en llavors del valor de largument. Aquestes proposicions ens conecten la l` ogica amb la teoria
de conjunts de la seg uent manera. Donat el conjunt A li associem la proposici o p(x) que es certa
si i nomes si x A. Inversament, donada una proposicio p(x) definim el conjunt A = {x | p(x)}, es
a dir, el conjunt dels x tals que p(x) es certa.
Les operacions de conjunts (interseccio), (unio) i complementari tradueixen llavors les
operacions l` ogiques a aquest nou llenguatge. Si A i B son conjunts
A = B (x A x B), (A.5)

89
A B = {x | x A i x B}, (A.6)

A B = {x | x A o x B}, (A.7)

A = {x | x A}. (A.8)

Les propietats de les operacions l`ogiques passen ara trivialment a les operacions entre conjunts

A B = B A, A B = B A, (A.9)

A (B C) = (A B) C, A (B C) = (A B) C, (A.10)

A (B C) = (A B) (A C), A (B C) = (A B) (A C), (A.11)

A B = A B, A B = A B. (A.12)

Les propietats sanomenen (A.1) i (A.9) conmutatives, (A.2) i (A.10) associatives i (A.3) i
(A.11) distributives.
Quan la proposicio p(x) es falsa per tot valor de largument x li associem el conjunt buit .
Aquest conjunt no conte cap element i verifica per tot A

A = , A = A. (A.13)

Quan la proposicio p(x) es certa per tot valor de largument x li associem el conjunt total .
Aquest conjunt conte qualsevol element al que es pugui fer refer`encia i es necessari en teoria de
conjunts per evitar algunes paradoxes. verifica per tot A

A = A, A = . (A.14)

El conjunt P() de tots els subconjunts de amb les operacions descrites anteriorment adquireix
un estructura que sanomena ` algebra de Boole. Una caracterstica important es la propietat de du-
alitat: si en una propietat certa es fa el canvi i sobte una altra propietat certa.

90
Ap`
endix B

Combinat`
oria

Per tot enter positiu n definim el seu factorial n! de la seg


uent manera

0! = 1, (B.1)

n! = 1 2 3 (n 1) n. (B.2)

La funcio factorial es de creixement molt r`


apid. Una forma asimpt`otica la d
ona la formula de
Stirling
n
n! 2n( )n (B.3)
e
quan n . De fet per n = 10 lerror es ja nomes del 1% . La f
ormula de Stirling es u
til tambe
per trobar formes asimpt`otiques de resultats en combinat`oria.
Considerem ara que tenim m objectes distingibles. Els podem pensar com m boles numerades
de 1 a m. Daquests objectes en seleccionem n. Aix` o ho podem fer de dues maneres:

Ordenats. Quan considerem que, per exemple, triant dos objectes, 1,2 i 2,1 s
on dues eleccions
diferents.

No ordenats. Quan considerem que, per exemple, triant dos objectes, 1,2 i 2,1 son la mateixa
elecci
o.

Per exemple, suposem que tenim deu ampolles amb diferents licors. Si volem seleccionar tres
ampolles per fer un coctel les triarem no ordenades ja que lordre en que les posem es irrelevant.
Si volem triar tres ampolles per donar el primer, segon i tercer premis dun concurs les triarem
ordenades ja que de les tres ampolles triades hem de decidir quina es la primera, quina la segona i
quina la tercera, es a dir, ordenar-les.
Aix per n m definim els nombres

Variacions Vmn : Nombre de maneres de triar n objectes ordenats dun total de m.


n : Nombre de maneres de triar n objectes no ordenats dun total de m.
Combinacions Cm

Permutacions Pn : Nombre de maneres dordenar n objectes.

91
Llavors resulten evidents les relacions

Pn = Vnn , (B.4)

Vmn = Cm
n
Pn . (B.5)

Per tant es suficient trobar les variacions per tenir-ho tot. Per calcular Vmn veiem que podem
triar el primer objecte de m maneres, el seg on de m 1 maneres, etc. Llavors
m!
Vmn = m (m 1) (m (n 1)) = . (B.6)
(m n)!

Ara trobem, al fer m = n, Pn = n!. Igualment veiem

n Vmn m!
Cm = = . (B.7)
Pn n!(m n)!
m m!
Generalment sescriu n = n!(mn)! . La seg
uent propietat es inmediata

m m
= . (B.8)
n mn

Una altra propietat f`acil de demostrar per c`alcul directe es

m m1 m1
= + . (B.9)
n n n1

til considerar m
A vegades es u n = 0 per n > m. Amb aquest criteri no cal recordar els l mits
de sumaci
o en moltes f` ormules. Aix`
o es consistent amb lextensio del factorial a traves de la funci
o
gamma x! = (x + 1) que dona infinit pel factorial dels enters negatius.

Exemple B.1 (Binomi de Newton)

n
n n k
(1 + x) = x . (B.10)
k
k=0

En efecte,
n n
n
(1 + x) = (1 + x) (1 + x) . . . (1 + x) = ak xk .
k=0

El producte dels n 1 + x dona 2n


termes. ak es el nombre daquests termes iguals a xk . Aquest
es genera quan dels n termes, en k agafem x i en n k agafem 1. La multiplicitat apareix perque
poden triar les k x de diferents maneres, exactament Cnk .

Exemple B.2 Sigui A un conjunt finit de n elements. Diem llavors que el seu cardinal es n i
posem |A| = n. El conjunt dels subconjunts de A el designem P(A) (parts de A). Que val |P(A)|?
a dir, quants subconjunts te un conjunt de n elements?
Es
Contem primer quants subconjunts de k elements te A i despres sumem per k = 0, . . . , n. La
llibertat que tenim per triar subconjunts de k elements es quins son aquests elements. Com un

92
o dels seus elements hi han Cnk subconjunts de k elements. Ara, en
conjunt no implica cap ordenaci
total tenim
n n n
+ + + = (1 + 1)n = 2n .
0 1 n
subconjuns. Aix

|P(A)| = 2|A| . (B.11)

Una manera alternativa de trobar aquest resultat es la seg uent. Podem representar cada sub-
conjunt de A amb una paraula binaria de n lletres. Cada posici o en la paraula representa un
element de A. Per un subconjunt donat cada lletra val 1 o 0 segons lelement hi pertanyi o no. Per
evident que hi
exemple, al subconjunt {2, 3, 5} {1, 2, 3, 4, 5, 6} li correspon la paraula 011010. Es
ha una correspond`encia biunvoca entre aquestes paraules i els subconjunts. Tambe es inmediat el
fet que podem fomar 2n paraules.

Exemple B.3 (Funcions generadores)


Hi han nombroses propietats dels nombres combinatoris i aquestes poden resultar difcils de
demostrar directament. Una manera dobtenir moltes relacions es utilitzar funcions generadores.
Per exemple, tots els combinatoris de n elements apareixen en (B.10). Aix les propietats daquests
nombres est`an codificades en les propietats de la funci o (1 + x)n . Es pot, llavors, anar traduint
dun costat a laltre per diferents propietats i funcions generadores.
Per exemple, sabem trivialment que (1 + x)2n = (1 + x)n (1 + x)n . Llavors
2n n n n 2n
2n k n r n s n n r+s n n
x = x x = x = { }xk .
k r=0
r s=0
s r,s=0
r s r s
k=0 k=0 r+s=k

Comparant els polinomis dels dos extrems dedum


k
2n n n
= . (B.12)
k r kr
r=0

93
Ap`
endix C

S`
eries

Les variables aleat`ories discretes amb espai mostral infinit numerable porten a la suma de s`eries
per resoldre alguns problemes. Donat el contexte en que apareixen i el fet que aquestes s`eries solen
ser de termes positius, la questio de la converg`encia es generalment bastant simple. Les s`eries mes
corrents son les geom`etriques, associades a les variables del mateix nom. Si definim
n
Sn = rk , (C.1)
k=0

es veu inmediatament que rSn = Sn + r n+1 1 don treiem


n
1 rn+1
rk = . (C.2)
1r
k=0

Aquest resultat val per a tot r = 1. Si |r| < 1 podem fer el lmit n i concloure

1
rk = . (C.3)
1r
k=0

Notem que la s`erie seg


uent es un cas de la s`erie geom`etrica. Per > 0

1
ek = . (C.4)
1 e
k=0

A vegades els sumatoris anteriors comencen en k = 1. Si restem el terme de la s`erie per k = 0


trobem
n
r r n+1
rk = , (C.5)
1r
k=1


r
rk = . (C.6)
1r
k=1

Moltes de les s`eries que es solen utilitzar sobtenen com a s`erie de Taylor dalguna funci
o

f (k) (0) k
f (x) = x . (C.7)
k!
k=0

94
En (C.7) f (k) indica la derivada k-`essima. La s`erie es considera al voltant de 0 per ser el
cas mes utilitzat. La igualtat en (C.7) nomes es certa per x pertanyent a una regio anomenada
interval de converg`encia. En molts casos linterval de converg`encia es tot R. En particular les
s`eries geom`etriques (C.3) i (C.6) es poden considerar s`eries de Taylor de les funcions de la dreta
convergint en linterval (1, 1). Altres exemples importants son

x x2 x3 xk
e =1+x+ + + = . (C.8)
2! 3! k!
k=0


x2 x4 x2k
cosh(x) = 1 + + + = . (C.9)
2! 4! (2k)!
k=0


x3 x5 x2k+1
sinh(x) = x + + + = . (C.10)
3! 5! (2k + 1)!
k=0

Les s`eries (C.8), (C.9) i (C.10) convergeixen per tot x.

95
Ap`
endix D

Integrals

Algunes integrals impr`opies apareixen sovint en lestudi de variables aleat`ories contnues, especial-
ment en les exponencials i les gaussianes.
Un resultat f`acil de demostrar per inducci
o es

xn ex dx = n!. (D.1)
0

Amb el canvi de variable x = t trobem que



n!
xn ex dx = . (D.2)
0 n+1

Les integrals gaussianes s


on les del tipus polinomi per exponencial dun polinomi de segon grau.
El resultat b`
asic es

2
ex dx = . (D.3)

DEM: Si I es lanterior integral



2 2 2 +y 2 )
I2 = ex dx ey dy = e(x dxdy

2
2 2
= er rdrd = 2 rer dr = et dt =
0 0 0 0

on sha fet la integral doble passant a polars i despres sha fet el canvi r2 = t.
2
Degut a la simetria de ex

x2
e dx = . (D.4)
0 2

Un resultat mes general es



2 +bx+c b2
eax dx = e 4a +c . (D.5)
a

La integral es convergent per a > 0.

96
b 2 b 2 b
DEM: Posem lexponent ax2 + bx + c = a(x 2a ) + 4a + c i fem el canvi a(x 2a ) = t.
Llavors la integral es

2 b2 dt b2
et + 4a +c = e 4a +c .
a a
El seg
uent resultat es directe pel fet que la funcio integrada es antisim`etrica:

2
xex dx = 0. (D.6)

El mateix es cert si posen xn amb n senar en lloc de x davant lexponencial. Tambe es trivial
veure, fent el canvi x2 = t

2 1
xex dx = . (D.7)
0 2
El mateix canvi i lus de (D.1) ens d
ona que, per n senar,

2 1 n1
xn ex dx = ( )!. (D.8)
0 2 2
El cas de pot`encies parells es pot deduir derivant amb respecte a el resultat

2
eax dx = , (D.9)
a
o tambe integrant per parts. Per exemple

2 x x2 1 2
x2 ex dx = e + ex dx = .
0 2 0 2 0 4

Molts dels resultats anteriors es sistematitzen amb lus de la funci


o gamma dEuler. Motivada
per (D.1) definim per z > 0

(z) = xz1 ex dx. (D.10)
0

Per integraci
o per parts es demostra

(z + 1) = z(z). (D.11)

Definim el factorial dun nombre real com z! = (z + 1). Per a z = 0, 1, 2, coincideix amb
el factorial ordinari. Per valors generals de z sha de recorrer a taules o calculadores per`
o per z
semienter es pot calcular. Si fem el canvi x = t2 :

2
(z) = 2 t2z1 et dx. (D.12)
0

Ara es inmediat veure que


1
( ) = . (D.13)
2
i per n = 1, 2, 3, . . . , utilitzant (D.11),
1 1 3 1 1 (2n 1)(2n 3) 3 1 (2n)!
(n + ) = (n )(n ) ( ) = n
= 2n . (D.14)
2 2 2 2 2 2 2 n!

97
Ap`
endix E

Distribucions

Considerem un espai F els elements del qual son funcions reals duna variable real f (t). Suposem
que aquestes funcions son contnues i prou regulars perque les operacions que considerarem tinguin
sentit. Una distribucio es una aplicaci
o lineal que assigna un nombre real a cada element daquest
espai. Si anomenem T a una daquestes distribucions llavors indiquem amb < T, f > la imatge de
f (t) sota T . Donada una funcio (t) podem associar-li una distribucio T definida

< T , f >= (t)f (t)dt. (E.1)

(Suposem que lespai F conte nomes funcions que asseguren la converg`encia de lanterior integral.)
Tambe est`
a clar que existeixen distribucions que no poden obtenir-se a partir de cap funci o pel
procediment anterior. La distribucio delta de Dirac es defineix

< a , f >= f (a). (E.2)

Aix el concepte de distribucio es mes ampli que el de funci


o i per aix`o a vegades sanomena
funcions generalitzades a les distribucions.
Tot i que la delta de Dirac no correspon a cap funcio, sempre es representa de manera simb`olica
com si vingues donada per una funcio (t). Llavors representem (E.2) quan a = 0 com un cas de
(E.1) i posem

(t)f (t)dt = f (0). (E.3)

En general (E.2) es posa



(t a)f (t)dt = f (a), (E.4)

que es pot obtenir fent el canvi de variable t t + a en la integral i aplicant (E.3).


Encara que cap funcio verifiqui la propietat (E.4) si que podem obtenir-la com a lmit duna
succesi
o de distribucions donades per funcions. Aix posant per exemple
1 t2
(t) = e 2 2
2
tenim que

f (a) =< a , f >= lim (t a)f (t)dt.
0

98
Si be no te sentit riguros podem visualitzar la funcio delta com (t a) = lim (t a) que
0
ens dona
0 si t = a
(t a) = (E.5)
si t = a

Aix
o ens dona una imatge intuitiva de la delta pero el que la defineix realment es (E.4).
Les distribucions es poden sotmetre a operacions definides en principi nomes per funcions. Per
exemple, veiem quina es la distribuci
o associada a la derivada duna funcio.

< T , f >= (t)f (t)dt = (t)f (t)dt = < T , f >

on sha fet una integracio per parts i considerat que les funcions tendeixen prou r`
apidament cap a 0
en els extrems. Ara podem definir la derivada de qualsevol distribuci o T com una nova distribucio
T que actua

< T , f >= < T, f > (E.6)

Aix
o implica que per exemple

(t a)f (t)dt = f (a). (E.7)

o de Heaviside ua (t) = u(t a) definida


Igualment considerem la funci

0 si t < a
u(t a) = (E.8)
1 si t a

La seva distribuci
o associada la designem amb el mateix nom i posem

< ua , f >= f (t)dt. (E.9)
a

Ara es f`acil demostrar que u (t a) = (t a).



< ua , f >= f (t)dt = f (t)|
a = f (a) =< a , f > .
a

Una altra propietat de la delta es que per tota funci


og

g(t)(t a) = g(a)(t a), (E.10)

que es demostra multiplicant els dos costats per una funcio arbitr`aria i integrant. Una conseq
u`encia
de (E.10) es que t(t) = 0.

99
Ap`
endix F

Simulaci
o num` erica de variables i
processos aleatoris

Els llenguatges i entorns de programacio solen oferir algun generador de nombres aleatoris. Aquest
generador es presenta sota la forma duna funcio (m`etode, procediment, subrutina) com random()
que dona com a sortida un valor real (float o double) uniforme en [0, 1]. El m`etode dobtenci o
daquests nombres pseudo-aleatoris consisteix en realitzar operacions modulars amb enters grans i
i utilitzar part dels seus dgits per construir-los. El generador sol portar un procediment dinicial-
itzacio que utilitza, per exemple, la data (en milisegons) proveda pel sistema operatiu.
Aquest generador b`asic ve donat pel sistema i no podem manipular-lo directament per`o hi han
t`ecniques per, a partir dels seus valors obtenir-ne daltres amb millors propietats. Els requisits
dependran de la quantitat de nombres que necessitem. En simulacions molt extenses, el fet que
el generador b`asic es necess` ariament periodic podria falsejar els resultats. Aquestes questions es
poden estudiar en els llibres tipus numerical recipes. En el que segueix, suposem que tenim un
generador amb bones propietats.
Denotem G la variable uniforme en [0, 1] donada pel generador. Si volem obtenir una variable
contnua X amb funcio de distribucio FX (x) ho podem fer com X = FX1 (G) ja que la variable
FX (X) pren valors en [0, 1] i te densitat
1
fX (x) = 1.
FX (x)

Per exemple si volem obtenir una variable exponencial de par`ametre , FX (x) = 1 ex i ser`a
1
X = ln(1 G).
Aquest m`etode es pot aplicar si FX es estrictament creixent sobre X . Tambe cal poder
invertir explcitament FX . Aix` o no es pot fer en el cas de les variables gaussianes. Per generar
una variable normal amb m = 0, = 1, considerem una normal bidimensional amb par`ametres
m1 = m2 = = 0, 1 = 2 = 1, es a dir, dues normals independents amb par`ametres normalitzats.
La seva densitat es
1 (x21 +x22 )/2
f (x1 , x2 ) = e
2
i, en polars (x1 = r cos , x2 = r sin ):
1 r2 /2
f (r, ) = re
2
2
on veiem que es uniforme en [0, 2], r te densitat f (r) = rer /2 i les dues s
on independents. A
partir de dos valors G1 , G2 del generador obtenim = 2G2 , r = 2 ln(1 G1 ). Aix sobtenen

100
variables normals per parelles:

X1 = 2 ln(1 G1 ) cos(2G2 ),

X2 = 2 ln(1 G1 ) sin(2G2 ).
(En les anteriors expressions es pot canviar 1 G1 per G1 ja que son el mateix tipus de variable.)

Per simular processos, es generen seq


u`encies de valors corresponents a instants temporals equie-
spaiats. Per un proces normal estacionari incorrelat amb m(t) = 0 simplement cal una llista de
valors normals independents. Per exemple, la rutina que segueix torna el proces en forma darray
de reals

float PI=3.1425927;
float x[1000]; //proces amb 1000 mostres

x=proces_normal_incorrelat(1000);

float x[] proces_normal_incorrelat(int n){


for(int k=0;k<(n/2);k++){
r=sqrt(-2*ln(random()));
teta=2*PI*random()
x[2*k]=r*cos(teta);
x[2*k+1]=r*sin(teta);
}
}

Veiem ara com es pot simular un proces normal estacionari X(t) amb mX (t) = 0 i espectre de
pot`encia SX (). Sigui Y () un proces normal incorrelat, es a dir

E[Y ()] = 0, E[Y (1 )Y (2 )] = (1 2 ).

Pensem en aquest proces com la transformada de Fourier dun cert proces temporal. Per una

funcio fixada A() considerem el proces X() = A()Y () i sigui X(t) el proces donat per la seva
transformada inversa
1 j
X(t) = X()e d.
2
inmediat veure que mX (t) = 0. La seva funci
Es o dautocorrelacio val

1 1
RX (t1 , t2 ) = E[X(t1 )X (t2 )] = E[ A()Y ()ejt1 d A ( )Y ( )ej t2 d ]
2 2

1
= A()A ( )ejt1 ej t2 E[Y ()Y ( )]dd
(2)2

1 1
= A()A ( )ejt1 ej t2 ( )dd = |A()|2 ej(t1 t2 ) d
(2)2 (2)2
2
don veiem que SX () = |A()|
2 . Aix nomes cal triar A() = 2SX (). El proces es genera fent

Y () proces normal incorrelat, escalant les seves components amb A() i fent una FFT inversa.

101
Un altre procediment es partir dun proces temporal de valor mitj`a 0, incorrelacionat, Y (t)
i convolucionar-lo amb una funci o fixada K(t) de suport compacte (caiguda r`apida). El proces
X(t) = (K Y )(t) ja te una certa correlaci
o que depen de K:

RX (t1 , t2 ) = E[X(t1 )X(t2 )] = E[ K(t1 1 )Y (1 )d1 K(t2 2 )Y (2 )d2 ]


= K(t1 1 )K(t2 2 )E[Y (1 )Y (2 )]d1 d2 = K(t1 1 )K(t2 2 )(1 2 )d1 d2


= K(t1 1 )K(t2 1 )d1 = K(1 )K(t2 t1 1 )d1

que, si K es parell, resulta ser K K. Si K te forma gaussiana, RX tambe la te. Si, per exemple,
K es un pols quadrat, RX es un pols triangular, etc.

Per obtenir processos de Poisson o relacionats amb ell es suficient tenir la llista dinstants en
que es produeixen els esdeveniments, i aix`
o sobte sumant exponencials independents:

float t[1000]; //proces amb 1000 esdeveniments

t=instants_poisson(1000, 2.5);

float t[] instants_poisson(int n, float lambda){

float lambda_inv = 1/lambda;


float temp = 0;
for(int k=0;k<n;k++){
temp += -2*lambda_inv*ln(random());
t[k]=temp;
}
}

102
Part VI

Problemes

103
PROBLEMES

1. Es genera un nombre de n xifres a latzar. Calculeu la probabilitat que surti cap-i-cua.

2. Es tira un dau sis vegades. Quina es la probabilitat que surtin els sis resultats diferents?

3. Que es mes probable: Treure alguna vegada un as tirant un dau quatre vegades o treure
alguna vegada dos asos tirant dos daus 24 vegades?

4. En una loteria de tipus 6/49 tenim un requadre amb 49 nombres dels quals hem de marcar-ne
6. El resultat del sorteig son els 6 nombres premiats mes un altre anomenat complementari.
El premi depen de quants encerts tenim. En el cas de 5 encerts, el premi es diferent si el
restant nombre que tenim es el complementari o no. Calculeu les probabilitats del diferents
nombres dencerts (P (0), P (1), P (2), P (3), P (4), P (5 c), P (5 + c), P (6)).
Pels 4 resultats menys probables calculeu la probabilitat dobtenir-los alguna vegada si juguem
cada dia durant 30 anys.

5. Una baralla francesa sense comodins te 52 cartes (4 pals, 13 nombres). Calculeu la probabilitat
de les seg
uents jugades en una ma de poker (5 cartes): parella, doble parella, trio, escala, full,
color, poker, escala de color, escala real.

6. Es permuten a latzar les 8 lletres AAAACTTR. Quina es la probabilitat que surti CATARATA?

7. De quantes maneres podem posar dues torres blanques en un tauler descacs sense que sa-
menacin?
De quantes maneres podem posar n torres blanques en un tauler de mida N N sense que
samenacin?

8. Una urna conte 3 boles blanques, 5 boles vermelles i 8 boles negres. Si sextreuen dues boles
(sense reemplacament) a latzar, quina es la probabilitat que siguin de color diferent?
Si les boles extretes s
on del mateix color, quina es la probabilitat que siguin negres?
Son els esdeveniments A =Surt alguna bola blanca i B =Surt alguna bola negra inde-
pendents?

9. Algunes questions sobre independ`encia:

(a) Demostreu que A i B independents implica A i B independents. Demostreu que tambe


implica A i B independents.
(b) Demostreu que, per a tot esdeveniment A, i A son independents i i A son indepen-
dents.
(c) Poden dos esdeveniments no trivials ser incompatibles i independents a la vegada?

10. En lexperiment de tirar un dau, trobeu dos esdeveniments no trivials que siguin independents.

11. Dos jugadors tiren alternativament un dau. Guanya el joc el primer que treu un 6. Quina es
la probabilitat que guanyi el que comenca a jugar.

12. Tres jugadors tiren alternativament una moneda amb probabilitat de cara p. Guanya el
primer que treu cara. Calculeu la probabilitat que te cada jugador de guanyar.

104
13. Dos jugadors A i B tiren simult`aniament un dau cadascun. Guanya el primer que treu 6.
Calculeu les probabilitats P (empat), P (guanya A), P (guanya B).

14. Una xarxa de comunicacions consisteix de nodes units per lnies. La xarxa transmet paquets
de manera que si un paquet es troba en un node intern x (node intern es el que est`
a connectat
a mes dun node) tria aleat`oriament el node de sortida. La probabilitat de sortir pel node y
connectat a x val pxy de manera que y pxy = 1. Quan un paquet arriba a un node extern
X ja shi queda. Denotem pX a la probabilitat danar-hi quan estem al node connectat a ell.
Ens plantegem calcular la probabilitat P (xX) que el paquet, trobant-se al node intern x,
acabi al node extern X.
Resoleu el problema per una xarxa amb un node extern A connectat a un node intern a
connectat a un node intern b connectat a un node extern B. (Noteu que els u
nics par`
ametres
on pA i pB .
lliures s
Resoleu el problema per una xarxa triangular amb nodes a, b, c connectats respectivament a
nodes externs A, B, C.
(Indicacio: Larbre desdeveniments en el segon cas es complicat. Resoleu el problema plante-
jant equacions lineals que han de verificar les diferents probabilitats P (xY ).)

15. Sis jugadors sassignen els nombres 1, 2, 3, 4, 5, 6 i fan el seg


uent joc. Un dells tira un dau.
Si li surt el seu nombre, guanya. Si no, passa el dau al jugador corresponent al nombre que
ha sortit. Aquest jugador repeteix el joc, etc. Calculeu la probabilitat que te de guanyar
cadascun del sis jugadors.
(Indicacio: Formuleu el problema en els termes del problema lanterior.)

16. Quant dun total de n objectes distingibles em volem triar k de manera ordenada i amb la
possibilitat de repetici
o, es parla de variacions amb repetici
o. El nombre de configuracions
es evident que val
V Rnk = nk .
El cas en que tenim repetici o per`o no fem la tria ordenada sanomena combinacions amb
repetici
o i es menys inmediat de calcular. (Per exemple, si n = 3 i k = 2 hi han 6 eleccions:
11, 22, 33, 12, 23, 13.) Demostreu que

n+k1
CRkn = .
k

(Indicacio: Pot ajudar pensar el problema aix. Tenim n caselles i hem de posar k boles
id`entiques en les caselles de manera que cada casella pot tenir cap, una o v`aries boles.)

17. De quantes maneres es poden posar k boles id`entiques en n caselles (k n) si cap casella pot
quedar buida?

18. Extreiem 2k boles duna urna conte n boles blanques i n boles negres. Calculeu la probabilitat
dextraure el mateix nombre de boles de cada color si fem lextraccio

(a) sense reemplacament.


(b) amb reemplacament.

Calculeu el lmit daquestes probabilitats quan n .

105
19. A partir del resultat conegut P (A B) = P (A) + P (B) P (A B) deduu una formula
an`aloga per P (A B C).
Generalitzeu el resultat per P (A1 A2 An ).

aria ha denviar n cartes. Com te pressa per acabar, col.loca les cartes en els sobres
20. Una secret`
de manera aleat`oria. Quina es la probabilitat que ninguna carta arribi al seu destinatari?
Calculeu el lmit daquesta probabilitat per n . Compareu-la per n = 10 i n = 100.000.

21. La urna A conte 2 boles blanques i 3 boles negres mentre que la urna B conte 4 boles blanques
i 3 boles negres. Es passen dues boles a latzar de la urna A a la B i despres sextreuen dues
boles de B. Si aquestes boles s
on blanques, quina es la probabilitat que haguem passat alguna
bola negra de A a B?

22. Tirant un dau 10 vegades, quina es la probabilitat que apareguin els sis resultats possibles?
Generalitzeu a n tirades. Comproveu que n = 6 dona el mateix que el segon problema.

23. El detergent HOMO d ona una lletra del conjunt {H, O, M } en cada paquet i fa un regal als
que completen la paraula HOMO. Si les tres lletres apareixen amb la mateixa probabilitat,
quina es la probabilitat de formar la paraula comprant 10 paquets?

24. Us esteu enfrontant a un pistoler en un descampat i tant a vosaltres com a ell us queden dues
bales. Com us trobeu a certa dist`ancia, la probabilitat de liquidar a ladversari amb un tret
val p = 0.3.

(a) Teniu que decidir si conve fer els dos trets abans que el vostre adversari, o si es preferible
esperar a que aquest dispari primer (si un esgota les seves bales sense fer diana laltre
es pot acostar i disparar amb certesa.) Discutiu tambe com dep`en lestrat`egia del valor
de p.
(b) Si no podem evitar que laltre dispari primer, que es millor a priori (sense saber lefecte
daquest tret): esperar a que faci el seu segon tret, disparar dues vegades nosaltres o
disparar una vegada i esperar?

25. Donat un grup de 30 persones, quina es la probabilitat que totes celebrin laniversari en dies
diferents?

26. Un canal transmet missatges consistents en seq u`encies de 0s i 1s. La probabilitat que un
smbol arribi canviat val . Comproveu si els seg
uents procediments redueixen la probabilitat
que un smbol es detecti err`oniament:

A Cada smbol senvia tres vegades i es tria el resultat mes abundant.


B Cada smbol es va enviant fins que algun valor ha aparegut dues vegades. Es tria aquest
valor.

27. Es repeteix un joc amb probabilitat de guanyar p fins que hem guanyat n vegades. Determineu
la funcio de probabilitat del nombre necessari de jugades X. (Noteu que n = 1 es la variable
geom`etrica.)

oria X discreta pren valors 0, 1, 2, . . . amb probabilitat P (n) = Aan . Digueu


28. Una variable aleat`
quins valors pot prendre a i calculeu A. Calculeu les probabilitats que

(a) X > 4.

106
(b) X sigui parell.
(c) X sigui divisible per 3 sabent que X es parell.

29. En un examen la nota mitja val 6 i la desviacio 1.8. Quin es el tant per cent daprovats?
30. Si X es una variable aleat`oria de Cauchy, demostreu que Y = 1/X tambe ho es. Com es
relacionen els seus par`ametres?

31. X es una variable uniforme en [0, 2]. Calculeu les funcions de densitat i de distribucio de la
variable Y = cos X.
32. X es una variable uniforme en [0, 2]. Calculeu la funci
o de distribucio de la variable

sin X 0 x
Y =
0 altrament

33. Utilitzeu el teorema de lesperanca per calcular E[Y ] en els dos problemes anteriors. En el
primer dells calculeu-la tambe amb fY (y).
34. Calculeu lesperanca de les variables X dels problemes 28 i 27. (En el segon cas sabeu que
les probabilitats elementals sumen 1 don deduiu

k 1 kn 1
q =
n1 (1 q)n
k=n

i despres es pot utilitzar derivacio respecte a q)


35. Una variable aleat`oria te densitat f (x) = Kx2 ex , x > 0. Calculeu K, E[X], V [X], mn .

36. Donada una variable X exponencial desperanca 1/3,

(a) Calculeu P (sin X > 1/2).


(b) Determineu la funcio de probabilitat i lesperanca de la variable Y = [X] (part entera
de X.)
(c) Calculeu E[X|X > 1/3].
37. La variable aleat`
oria de Laplace es la que te densitat:

f (x) = Ke|xm|

per < x < . Calculeu K, E[X], V [X].

38. Donada una variable X normal amb par`ametres m, :


(a) Calculeu P (|X m| < k). Evalueu-ho en tant per cent per a k = 1 i k = 2.
(b) Calculeu E[|X m|].
(c) La variable aleat` oria log-normal es la que te la forma Y = eX . Calculeu els seus moments
i, a partir dells, la seva esperanca i la seva vari` ancia.

39. El temps de vida duna partcula radiactiva es una variable exponencial de par`ametre =
1/m on m es la vida mitja de la partcula. En linstant t = 0 tenim una mostra de N0
partcules. Quin es el nombre mig de partcules en linstant t? Es correcte formular una llei
fsica que digui que el nombre de partcules en linstant t val aquesta quantitat?

107
40. De les taules de mortalitat es dedueix que moren (t) persones dedat t per unitat de temps.
a dir, si T es la variable aleat`
Es oria que dona el temps de vida duna persona,

fT (t|T t) = (t).

ormula de Makeham: (t) = + et .


Una hip`otesi realista es la f
Deduu amb aquestes dades la funci
o de distribucio FT (t). Compareu amb el que passaria si
T fos exponencial.

oria bidimensional te densitat conjunta fXY (x, y) = Ke2x+y sobre la regi


41. Una variable aleat` o
R. Calculeu les densitats marginals i determineu si son independ`ents en els casos

(a) R = {(x, y) R2 |0 < x < , 0 < y < 1}.


(b) R = {(x, y) R2 |0 < x < , 0 < y < x}.

42. Una moneda de di` ametre 2cm cau a un terra de rajoles quadrades de costat 25cm. Quina es
la probabilitat que la moneda no trepitgi mes duna rajola?
Calculeu el mateix amb rajoles exagonals.

43. Un material presenta impureses aleat` ories de forma el.lptica. Els semieixos daquestes el-
lipses s
on variables independents X, Y uniformes en [0, L1 ], [0, L2 ] respectivament. Calculeu
la funcio de densitat i lesperanca de l`
area daquestes impureses.

44. Tirem un dau 10 vegades.

(a) Calculeu la probabilitat de treure exactament dos uns, dos dosos i dos tresos.
(b) Calculeu la probabilitat de treure algun u i algun dos.

45. Y = X1 + X2 on X1 i X2 son variables aleat`


ories independents uniformes en [0, 1]. Calculeu
la densitat de Y .

oria A que val 1 si A


46. Si A es un esdeveniment aleatori, podem considerar una variable aleat`
es verifica i 0 en cas contrari. Que val E[A ]?
Si tenim dos esdeveniments A, B. Expresseu AB , AB i A en funcio de A i B .
Comproveu que al prendre esperances en aquestes relacions sobte la f
ormula b`asica de la
probabilitat. (Aquestes variables sanomenen indicadors.)

47. Un centre de comunicacions disposa de 20 ordinadors connectats a un node. Quan arriba


una peticio de servei en aquest node sassigna a latzar un dels 20 ordinadors (cada ordinador
pot atendre mes dun usuari). Si tenim 15 usuaris i fixat 0 k 15, calculeu el nombre
mig dordinadors que atenen exactament a k usuaris. En particular, quin es el nombre mig
dordinadors desocupats?
Que val la suma per k = 0, . . . , 15 dels anteriors resultats? Raoneu el resultat.
(Indicacio: utilitzeu indicadors, noteu la dificultat en tractar la variable que conta els ordi-
nadors amb k usuaris.)

48. Calculeu la covari`


ancia en el segon cas del problema 41. Qu`e podrieu dir de la independ`encia
sabent nomes aix`
o?

108
49. n corredors fan una carrera. El temps que triga el corredor i es una variable exponencial Xi
de par`ametre i (i = 1, . . . n). Sigui T la variable aleat`
oria que d
ona el temps darribada del
guanyador. Calculeu la seva densitat i la seva esperanca.

50. Dues persones queden per trobar-se en un lloc entre les 11h i les 12h. El primer que arribi
nomes sesperar`a 15 minuts.

(a) Quina es la probabilitat que es trobin?


(b) Considereu ara que el primer sespera fins que arriba el segon. Calculeu la densitat i
lesperanca del temps despera.
(c) Calculeu la densitat i lesperanca de linstant en que arriba la primera persona.

51. Lempresa de pizzes a domicili PizzaPlus cobra 6 Euros per una pizza. El temps T dentrega
es una variable aleat`
oria exponencial desperanca m. Lempresa considera que una pizza est` a
entregada a temps si T < 2m. Si el temps dentrega es superior a 2m es d ona la pizza
gratuitament. Si a mes T es superior a 3m PizzaPlus regala al client un postre de 2 Euros.

(a) Quin es lingres mitj`


a per pizza repartida?
(b) De 70 pizzes repartides quin es el nombre mitj`a de pizzes entregades a temps? Quina es
la probabilitat que se nentreguin mes dun 20% fora de temps?
(c) Dos repartidors de pizza independents han entregat les seves pizzes a temps. Quina es
la probabilitat que la suma dels seus temps sigui inferior a 3m?

52. El temps que passa fins que un sistema que funciona te una avaria es una variable exponencial
de par`ametre . Suposeu que les avaries es produeixen amb indep`endencia una de laltra i que
es reparen de manera inmediata. Si Ti , i = 1, . . . , n son els instants en que es produeixen les
n primeres avaries calculeu la densitat conjunta f (t1 , t2 , . . . , tn ). (Indicaci
o: trobeu primer
la densitat dels intervals entre avaries i feu el canvi de variable pertinent.)

53. Al fer una mesura fsica apareix un error experimental. Degut a aix` o podem considerar que
el resultat obtingut a la mesura es una variable aleat`oria amb esperanca m,el valor exacte de
la magnitud que mesurem, i desviacio , error caracterstic de la mesura. Si sobte el resultat
X1 llavors expressem la nostra mesura de m com a X1 .
Una manera de reduir lerror es fer v`
aries mesures X1 , X2 , . . . , Xn i donar com a resultat
el seu promig Y = (X1 + X2 + + Xn )/n. Calculeu la desviaci o de Y (suposant que les
mesures son incorrelades) i comproveu que es inferior a .

54. Si X i Y son variables exponencials de par`


ametre independents, determineu el tipus de
variable que es
X
Z= .
X +Y
55. Donada la variable bidimensional gaussiana (X, Y ) tal que m1 = m2 = 0, calculeu la densitat
conjunta de les variables Z = Y /X, T = XY . Demostreu que si X i Y son independents, Z
es de Cauchy amb = 2 /1 .

56. Una urna conte n boles numerades de 1 a n. Nextreiem k sense reemplacament.

(a) Calculeu lesperanca de la suma dels seus valors. Que passa si fem lextracci
o amb
reemplacament?

109
(b) Calculeu la probabilitat que el m`axim valor extret sigui m.

oria bidimensional (X, Y ) uniforme en la regio x > 0, y > 0, x2 + y 2 <


57. Donada la variable aleat`
1, calculeu

(a) Les millors estimacions de X donada Y i de Y donada X.


(b) Els seus par`ametres utilitzant coordenades polars.
(c) Les millors estimacions lineals de X donada Y i de Y donada X.

58. Un canal de comunicaci o li suma al senyal transm`es X un soroll Z incorrelat amb X. Volem
corregir lefecte multiplicant la sortida per una constant . Trobeu el millor valor de si
mX = mZ = 0, X = 10 i Z = 5.
Calculeu-ho ara en el cas que el soroll sigui independent de X i multiplicatiu en lloc daditiu.
Penseu alguna manera de millorar la prediccio.

59. Calculeu el valor mitj`a del proces estoc`


astic

1 t/Y 0tY
X(t) =
(t Y )/(1 Y ) Y t 1

on Y es una variable aleat`oria uniforme en [0, 1].

60. Donat el proces estoc`


astic
t2 0tA
X(t) = 3
A /t t>A
on A es una variable aleat`oria exponencial de par`
ametre = 1,

(a) Representeu gr` aficament el proces: primer per A fixat com a funcio de t (realitzacio);
despres per t fixat com a funcio de A.
(b) Calculeu la seva funcio de valor mitj`
a m(t).
(c) Calculeu la seva funci
o de distribucio de primer ordre F (x; t). Representeu-la gr`aficament.
(d) Calculeu la seva funcio de densitat de primer ordre f (x; t) i utilitzeu-la per tornar a
calcular m(t).
2
(e) Calculeu lesperanca de la variable aleat`
oria J = 0 X(t) dt.

61. Un proces estoc` o R( ) = Kea| | . Calculeu la millor


astic estacionari te funcio dautocorrelaci
estimacio lineal en mitjana quadr`atica de X(t) a partir de X(t T ) i X(t 2T ). Calculeu
lerror quadr`atic mig.

62. (X, Y ) es una variable aleat`oria bidimensional uniforme en el triangle delimitat per les rectes
x = 1, y = 0, x = y.

(a) Calculeu els moments conjunts mr,s de (X, Y ).


(b) Quina es la millor estimaci
o de X donada Y .
(c) Considereu el proces estoc`
astic

Z(t) = Xt(t Y )

i calculeu la seva funcio de valor mitj`a i la seva autocorrelaci


o.

110
Y
(d) Quina es la millor estimaci
o lineal homog`enia de 0 Z(t)dt donat Z(Y /2)?

astic X(t) = eAt on A es una variable aleat`


63. Donat el proces estoc` oria uniforme en [0, 1]

(a) Calculeu la seva funci


o de valor mitj`
a i la seva autocorrelaci
o.
(b) Si X1 (t) es una realitzaci
o daquest proces: que val lim X1 (t)?
t
(c) Que podem dir de lim X(t)?
t

64. Donat el proces X(t) = V cos(t + ) on est`a fixat, V es una v.a. exponencial de par`ametre
1/V0 i es una v.a. uniforme en [0, 2], V i independents

(a) Que sen dedueix amb els criteris dergodicitat?


(b) Determineu si es un proces erg`
odic.

111
EL COSTAT FOSC

1. Critiqueu la definici
o despai mostral.

2. El 28 de gener de 1986 el transbordador espacial Challenger amb set tripulants a dins va


explotar poc despres denlairar-se. Aquest desastre, vist per TV per tots els americans va
suposar un fort cop a la carrera espacial i va deixar una marca imborrable al subconscient
ianqui. A la comissio investigadora shi va voler posar un element independent de prestigi
i es va triar al premi Nobel de Fsica Richard P. Feynman que en el seu llibre de mem`ories
What do you care what other people think? explica profusament lexperi`encia.
Un dels elements que mes resalten, i que mes s on criticats per Feynman, es lus de la prob-
abilitat en questions denginyeria espacial. Un dels errors comesos per la NASA es utilitzar
lexperiencia hist` orica per determinar la fiabilitat duna missio. Per justificar una probabili-
tat daccident molt poc realista (1/100.000) els oficials de la NASA diuen (en documentaci o
oficial pr`evia a laccident):

since the shuttle is a manned vehicle, the probability of mission success is nec-
essarily very close to 1.0.
Historically, this extremely high degree of mission success has given rise to
a dierence in philosophy between manned space flight programs and unmanned
programs; i.e., numerical probability usage versus engineering judgement.

Una mostra del poc sentit que poden tenir les estimacions probabilstiques la tenim en la
disparitat de valors que donaven com a probabilitat P daccident fatal diferents grups:
Enginyers de Rocketdyne (els fabricants): P = 1/10.000.
Enginyers del Marshall Space Center (els disenyadors): P = 1/300.
El management de la NASA: P = 1/100.000.
Un enginyer independent consultat per la NASA: P entre 1/100 i 2/100.
Finalment Feynman, en les seves conclusions recomana

For a successful technology, reality must take precedence over public relations,
for Nature cannot be fooled.

3. En el concurs televisiu del 123, al final el presentador ens ofereix triar entre tres sobres un dels
quals conte un apartament a la costa. Despres que nhem seleccionat un, el presentador agafa
un dels sobres de la taula i, somrient, mostra que no conte res. Ara ens ofereix la possibilitat
de canviar el sobre que tenim pel que queda a la taula. Que hem de fer?

4. Apostant a la ruleta a vermell i negre, una estrat`egia es comencar apostant una unitat. Si
guanyen tornem a comencar, si perdem apostem el doble que la passada vegada. Daquesta
manera sempre que guanyem recuperem tot el que hem perdut abans mes una unitat. Discutiu
la validesa daquesta estrat`egia. (En els casinos est`a prohibit utilitzar-la.)

5. Tenim el seg
uent desenvolupament de Taylor (|x| < 1):

1
= CRnk xk .
(1 x)n
k=0

112
Demostreu-lo des del punt de vista combinatori. Despres calculeu els coeficients de la s`erie i
haureu demostrat novament quin valor pren CRnk .

6. Lesdeveniment impossible te probabilitat 0. Si un esdeveniment A te probabilitat 0, es


impossible que es produeixi?

7. Donada una variable aleat`oria X contnua sempre es verifica P (X = a) = 0 (la probabilitat


dun punt es zero). Vol dir aix`o que la variable no pren cap valor? No es una paradoxa?

8. Donada una variable aleat`oria contnua X considerem les noves variables Y = |X| i S = sg(X).
Com ha de ser la funcio de densitat de X per que Y i S siguin independents?

9. El conjunt de Cantor K es lexemple mes simple de fractal. Es parteix de linterval [0, 1] R


i se li resta el terc intermig. Despres es resta el terc intermig dels dos intervals que queden.
Despres es resta el terc intermig dels 4 intervals que queden. . . El conjunt K R es el que
queda despres daplicar aquest procediment indefinidament.

(a) Demostreu que K es un boreli`a.


(b) Si X es una variable aleat`oria uniforme en [0, 1], que val P (X K)?
(c) Considereu ara una variable Y uniforme en K. Demostreu que Y no es ni discreta, ni
contnua, ni mixta! La seva funci
o de distribucio es diu escala del diable. Quin aspecte
te?

10. De les consideracions m`etriques fetes hem arribat a definir la dist`ancia entre dues variables
aleat`ories X, Y com
d(X, Y ) = E[(X Y )2 ].

Sembla tambe que si aquesta distancia mesura la difer`encia entre les dues variables, la podriem
definir
d(X, Y ) = (fX (t) fY (t))2 dt

on fX , fY s
on les respectives funcions de densitat.
Quina difer`encia hi ha entre les dues definicions?

113
SOLUCIONS DELS PROBLEMES

1 1
1. n/2
si n es parell i (n1)/2 si n es senar.
10 10
2. 0.0154.

3. Algun as en 6 tirades: 0.5177. Algun doble as en 24 tirades: 0.4914.


k 0 1 2 3 4 5-c 5+c 6
4.
P (k) 0.435965 0.413019 0.132378 0.017650 0.000968 1.8 105 4.3 107 7.1 108

k 4 5-c 5+c 6
0.999938 0.1649 0.00428 0.000714

Parella Doble parella Trio


0.422 0.04753 0.0211
Escala Color Full
5.
0.00392 0.0019 0.00144
Poker Escala de color Escala real
0.00024 0.0000138 1.5 106
6. 0.00119
N!2
7. 1568. (Nn)!2 n!

8. Color diferent: 0.6583. Negres, si s


on iguals: 0.683. No s
on independents.

9. (c) Algun ha de tenir probabilitat nul.la.

10. Nomes poden tenir cardinal 2 i 3 amb un element com u o 3 i 4 amb dos elements comuns.
Per exemple, {1, 2} i {1, 3, 4} o {1, 2, 3} i {1, 2, 4, 5}.

11. 6/11.

12. Primer: 1/(1 + q + q 2 ). Segon: q/(1 + q + q 2 ). Tercer: q 2 /(1 + q + q 2 ). (q = 1 p)

13. Empat: 1/11. A: 5/11. B: 5/11.


pA pA (1pbc pcb )
14. Xarxa lineal: paA = pA +pB pA pB . Xarxa triangular:paA = 1pab pbc pca pac pcb pba pab pba pac pca pcb pbc .

15. El primer 2/7, els altres 1/7.

16.
k1
17. kn .
2
(nk) 2k 1
18. (a) . (b) k 22k . Els dos tendeixen al resultat (b) que es independent de n.
(2n
2k )

19. P (A B C) = P (A) + P (B) + P (C) P (A B) P (B C) P (A C) + P (A B C).

P (A1 A2 An ) = P (Ai ) P (Ai Aj )+ P (Ai Aj Ak ) +(1)n+1 P (A1 A2 An )


i i<j i<j<k

114
1 1 (1)n
20. P = 1 1 + + + . El lmit val e1 = 0.3678 . . . . Per n = 10 val 0.36787946,
2! 3! n!
per n = 100000 val 0.36787944.

21. 26/31.
5
6 k
22. 0, 2718. En general P = (1)k (1 )n .
k 6
k=0

23. 0.861657.

24.

25. 0.2937.

26. Els dos casos s


on equivalents: 3 2 2 3.
k 1 n kn
27. X = {n, n + 1, . . . } i P (k) = p q , k = n, n + 1, . . . .
n1
1 1
28. Ha de ser 0 < a < 1. A = 1 a. (a) a5 . (b) 1+a . (c) 1+a2 +a4
.

29. 71%.

30. Si X te par`ametre , 1/X te par`ametre 1 .

31. Y = [1, 1]. fY (y) = 1 , 1 < y < 1. FY (y) = 1


2 + 1
arcsin y, 1 y 1.
1y2

32. Y = [0, 1].



0 y<0

1/2 y=0
FY (y) = 1

2 + 1 arcsin y 0 y 1

1 y1

33. Primer cas: E[Y ] = 0, segon cas: E[Y ] = 1/.

34. Primer cas: E[X] = a/(1 a), segon cas: E[X] = n/p.

3 (n + 2)! 3 3
35. K = , mn = n
, E[X] = , V [X] = 2 .
2 2
e/2 e5/2
36. (a) 1e6
. (b) Y = {0, 1, 2, }, PY (n) = (1 e3 )e3n , E[Y ] = 1/(e3 1). (c) 2/3.

2
37. K = , E[X] = m, V [X] = 2 .
2
2
38. (a) erf(k/ 2), 68.3%, 95.4%. (b) . (c) mn = exp(n2 2 /2 + nm).
t 1/2
39. N (t) = N0 e m . Per mostres macrosc` opiques: /N < N que es despreciable (per
exemple, en un gram durani hi ha 1021 partcules.)

40. FT (t) = 1 exp(t (et 1)). El cas exponencial es = 0.

115
41. (a) K = 2/(e 1), X es exponencial amb = 2 i fY (y) = (e 1)1 ey , 0 < y < 1. Son
independents. (b) K = 2, fX (x) = 2(ex e2x ), x > 0 i Y es exponencial amb = 1. No
son independents.
42. Quadrat: P = 0.8464. Ex`
agon: P = 0.9097.
43. Si Z es l`area: E[Z] = L1 L2 /4, fZ (z) = (L1 L2 )1 ln(z/(L1 L2 )), 0 < z < L1 L2 .
44. 0.0253.
y 0y1
45. Y = [0, 2] i fY (y) =
2y 1y 2
46. E[A ] = P (A), AB = A B , AB = A + B A B , A = 1 A .
47. Si Nk es la variable que d
ona el nombre dordinadors amb k usuaris, tenim que E[Nk ] =
15 1915k
20 k 2015 . En particular E[N0 ] = 9.2. La suma daquestes esperances dona, evidentment,
20.
48. C[X, Y ] = 1. Aix`
o implica que no s
on independents.
49. T es exponencial amb = i i . E[T ] = 1/( i i ).

50. (a) 0.4375. (b) f (z) = (60 z)/1800, 0 < z < 60. E[Z] = 20 min. (c) f (u) = (60
u)/1800, 0 < u < 60. E[U ] = 20 min.
51. (a) 5.1 Euros. (b) 60.5, 0.057. (c) 0.9755.
52. f (t1 , t2 , . . . , tn ) = n etn , 0 < t1 < t2 < < tn < .

53. / n.
54. Uniforme en [0, 1].
55.
56. (a) En els dos casos k(n + 1)/2. (b) (mk (m 1)k )/nk
4 2 = 2 = 1 16 ( = =
57. (a) y = 4 1 x2 /, x = 4 1 y 2 /. (b) mX = mY = 3 , X Y 4 9 2 X Y
1 16
0, 264.), C[X, Y ] = 2 92 ( = 0, 3). (c) y = x + mX (1 ), x = y + mX (1 ).
58. Aditiu: = 4/5. Multiplicatiu: = 0. Aquest segon cas es podria millorar fent una estimacio
de |X| a partir de |ZX|. Nomes ens caldria coneixer E[|Z|].
59. m(t) = 1 + t ln t + (1 t) ln(1 t).
t
60. m(t) = 6 1et (3t + 6)et . (e) 144.
61. c = aX(t T ) + bX(t 2T ), a = eaT , b = 0. = K(1 e2aT ).
2t2
2
62. (a) mr,s = (r+s+2)(s+1) . (b) x = (1+y)/2. (c) m(t) = t
3 4. R(t1 , t2 ) = t1 t2 ( t12t2 (t1 +t
5
2)
+ 19 ).
(d) = 40/81.
1et 1e(t1 +t2 )
63. (a) m(t) = t , R(t1 , t2 ) = t1 +t2 . (b) 0. (c) 0.
erg`odic ja que 2 = V 2 (1 cos 2T )/(22 T 2 )
64. (a) Els criteris no deicideixen res. (b) Es T 0
tendeix a zero per T .

116

You might also like