Professional Documents
Culture Documents
5 - Mínims Quadrats PDF
5 - Mínims Quadrats PDF
Bibliografia:
- Statistics. A guide to the use of Statistical Methods in the Physical Sciences (Barlow)
- Data reduction and error analysis for the physical sciences (Bevington, Robinson)
- Análisis de errores (C. Sánchez del Río)
• El principi de mínims quadrats pot derivar-se del principi de màxima versemblança, si les
mesures es distribueixen de forma gaussiana. En efecte, la probabilitat de tenir un valor
particular yi per un valor donat xi és
1 1 y − f ( x ; a 2
=
P ( yi ; a ) exp −
i i
σ
i 2π 2 σ
i
• També pot plantejar-se com un principi obvi, que no necessita més justificants, que el
mateix significat d’aquest estimador: es fa variar el paràmetre a per a obtenir els valors
predits f(xi) tan pròxims com siga possible als valors experimentals yi (els quadrats
comporten eliminar les grans desviacions). L’estimador rep el nom de χ
2
2
y − f ( xi ; a )
χ2 = ∑ i
i σi
• La minimització exigeix trobar la solució a de l’equació
dχ2 1 df ( xi ; a )
0⇒∑ 2
= [ yi − f ( xi ; a)] =
0
da i σi da
• El valor així estimat —denotat per a´— serà pròxim al valor verdader. Si la solució de la
equació anterior és analítica, la variància d’aquest estimador calculat en funció dels
valors yi , podem calcular-la amb la fórmula de propagació d’errors,
2
∂a´
V (a´) = ∑ V ( yi )
i ∂yi
−1 1 ∂2 χ 2
• (V )ij = essent a´ el mínim
2 ∂ai ∂a j
a = a´
= −2 x i
i
σ i2
30
dm i
Si els errors σi són tots iguals, els podem traure factor comú i tenim
20
2
•
10
dχ2
∑ ( x y − mx )
0
2
= 2 -10
dm σ 2
i i i -4 -3 -2 -1 0 1 2 3 4 5 6
• i
Exemple de paràbola d’un 𝜒𝜒 2
∑ ( x y − m´x ) =
i
i i 0⇒∑x y
i
2
i
i i m´∑ xi 2
=
i
en funció d’un paràmetre m
•
∑x i
i
2
x2
2
• Per a calcular la variància utilitzem V (a´) = ∑ ∂a´ V ( yi )
i ∂yi
• Partint de xi
m´= ∑ yi
2
i Nx
2
∂m´ σ
2
xi 2
2
• Tindrem
= V ( m´) ∑= V ( yi ) ∑
= σ 2 ∑ i
x2
i ∂y i i Nx
2
N 2 x2 i
σ2
V (m´) =
N x2
• Considerem ara un conjunt de mesures (xi , yi), totes les Y amb el mateix error σ i que
presumiblement tenen una dependència lineal amb la variable X, és a dir, els punts es
distribueixen al voltant d’una línia recta de pendent m i ordenada en l’origen n:
=
y mx + n
χ y − mxi − n
2
• La funció 2
és ara χ = ∑ i
2
σ
i
i conté dos paràmetres a determinar, m i n,
i per tant la minimització es fa mitjançant dues
equacions, una per cada variable:
χ2
∂χ 2 ∂χ 2
= 0= i 0
∂m ∂n
• Derivant respecte de n tenim:
1
×
∑ 2 ( y − m´x − n´)=
i i 0 → y − m´x − n=´ 0
N
i
m n
xm´+ n´=y
• Tenim, doncs, un sistema de dues equacions amb incògnites m´i n´:
x m´+ xn´=
2
xy
Si aïllem n´ en la primera i substituïm en la segona:
xy − x y cov( x, y ) N ∑ xi yi − ∑ xi ∑ yi
=m´ = =
N ∑ xi 2 − ∑ xi ∑ xi
x −x
2 2
V ( x)
• I l’ordenada n=´ y − m´x (la recta passa pel punt ( x , y ), centre de gravetat dels valors xi , yi )
x 2 y − x xy ∑ xi ∑ yi − ∑ xi ∑ xi yi
2
= n´ =
• O substituint el valor de m´ N ∑ xi 2 − ∑ xi ∑ xi
x2 − x 2
∑(x − 2 xxi + x 2 )
( )σ
2
2
N x2 − x 2
( )
2
∂m´ x − x σ2
i
=V (m´) ∑
= V ( yi ) ∑ =
i i
= σ2 2
i ∂yi i
(
N x − x
2 2
) N2 ( x2 − x 2)
2
(
N 2 x2 − x 2 )
2
Errors de l’ordenada n
• Podem escriure l’ordenada de la següent manera:
x y − x xy 2 ( x − xx ) y
2
∑
i
=n´ =
N (x − x )
i
x2 − x 2 i
2 2
N x − x N x2 − x 2 N N x2 − x 2
• I finalment:
σ 2 x2 σ 2 ∑ xi2
= =
( )
V ( n´)
N ∑ xi 2 − ∑ xi ∑ xi
N x2 − x 2
=L(σ ´) exp − ∑
σ ´ 2π 2 i =1 σ´
∑
− − σ − π =0 ⇒ σ ´ = ∑ ( y − mx − n)
2 2
N ln ´ ln 2
dσ ´ 2σ ´2 i i
2 N i =1
y= m´ x + n´⇒ σ y=
2
σ
m´ + n´σ + 2 cov( m´, n´)
∂m´ ∂n´ ∂m ´ ∂n´
• I tenint en compte que
1 σ2 ∂y ∂y σ2 σ 2 x2
= ∑ yi → σ= 2
= x; = 1; σ (m=2
; σ (n=
2
( ) ( )
y ; ´) ´)
∂m´ ∂n´
y
N i N N x2 − x 2 N x2 − x 2
• Resulta:
1 σ 2 σ2 σ 2 x2
cov(m´, n´) = − x 2
−
2x N
N x 2
− x 2
( ) (
N x2 − x 2 )
• I finalment:
σ 2x cov(m´, n´) x
cov(m´, n´) = − ρ ( m´, n´) =
∑ xi ∑ xi
= − ρ2 =
(
N x −x2 2
) σ m´σ n´ x2
N ∑ xi 2
• Són les mateixes equacions del problema sense pesos. Podem trobar les solucions fent
els canvis:
1 1 xi 1 1 yi xi yi
N ∑ xi → ∑ ; ∑ yi → ∑σ ; ∑x y →∑
∑i σ 2 i σ i N i σ i2
2 2 i i
1 1
i
∑i σ 2 i i i i
i i
σi 2
∑
i σi
2
N
i per a les variàncies: σ 2 → σ=
2
=
1 1
∑
i σi
2 ∑σ i
2
i
2
1 x2 x
defininint ∆ ≡ ∑ 2 ∑ i 2 − ∑ i2
i σi i σi i σi
1 1 xi yi xi yi
=
Pendent → m´ ∑ 2 ∑σ −∑ ∑σ 2
∆ i σi i i
2
i σi 2
i i
substituint m´ s'obté:
1 yi xi
1 ∑
=
Ordenada → n´ − m´∑ 2 1 xi 2 xi yi
i σi σ yi xi
∑ 2 ∑ 2 ∑ 2 ∑i σ 2
2
∑i σ 2 =
i i n´
∆ i σi i σi
−
i σi i
i
1 xi
1
V (m´) = ∑ 2
1 1
V (n´) = ∑ 2
xi 2 cov(m´, n´) = − ∑
∆ i σ i2
∆ i σi ∆ i σi
Exemple 1: Un estudiant està investigant la llei 1/r2; amb un comptador Geiger compta el nombre de
partícules detectades a diferents distàncies. Com que el sistema és automàtic el recompte es fa cada 15
segons. Per a aquesta anàlisi es registren 30 adquisicions de 15 segons en cada posició, i se sumen els
resultats (Bevington, ex. 6.2)
− ∑∆ i i =
wx
cov(b, a ) = −5.6
16
20
31.5
15
19
14 18
17
31 16
11
Chi2
15
m
14
13
30.5 13
12
11
10
32
30
31.5
130
31 125
12 30.5
14 120
15
16
17 30
19 18 115
29.5
112 114 116 118 120 122 124 126 m 29.5 110 n
n
El χ2 aumenta una unitat per paràmetre quan fem variar els paràmetres 1σ
Linealització:
• Funció exponencial: y = ae − bx
La quantitat χ és la suma de les diferències al quadrat entre els valors observats i els
2
•
valors teòrics predits, ponderats pels erros de les mesures.
2
y − f ( xi ; a1, ..., ak )
χ = ∑ i
2
i σi
• Si la funció s’ajusta bé amb els valors observats, el valor de χ 2 serà menut, per la qual
cosa un valor gran de χ 2 després de la minimització, ens dirà que la funció teòrica no
és la millor.
Però un valor molt menut de χ tampoc és bo i probablement ens està indicant una
2
•
possible sobreestimació dels errors.
• El χ 2 és una variable aleatòria que es distribueix segon la funció de probabilitat, que
depèn del paràmetre ν: ∞
∫ x e dx
n −1 − x
Funció Gamma: Γ( n ) =
0
−ν /2 ν −2
χ 2
Γ(1) =1 Γ( ) = π Γ( n + 1) =nΓ( n )
( χ2)
1
2
=P( χ 2 ;ν ) exp(−
2
2 )
Γ(ν / 2) 2 Γ( n=
+ 1) n ! =
si n 1, 2,...
Γ( n + 1) = n( n − 1)( n − 2)... 23 × ( 1
2 π ) si n = 1
2 , 23 ,...
• Les restriccions imposades per les k equacions de minimització (una per paràmetre a ajustar)
disminueixen la dimensió de l’espai de probabilitat inicial a una dimensió ν=N-k.
• La distribució depèn de v (nombre de graus de llibertat) que és el nombre de punts en la suma N,
menys el nombre de variables a minimitzar en l’ajust.
• La constant de proporcionalitat ve donada per la condició de normalització i resulta
ν −2
2−ν /2 χ2
=P( χ ;ν ) 2
Γ(ν / 2)
( χ ) exp(− 2 )
2 2
= V ( χ 2 ) 2ν
χ 2 ν=
P( χ 2 ≥ χ 0 2 ) < 5% (1%)
• Exemple: La distribució χ 2de l’exemple de les 10 mesures del Geiger té 10-2=8 graus de
llibertat i per tant:
2−8/2 8− 2
χ2 χ2
( χ ;8)
P= 2
Γ(8 / 2)
( χ ) exp(=
2 2 − )
2
1
96
( χ ) exp(− 2 )
2 3
= Var ( χ 2 ) 16
χ 2 8=
Calculem:
2
• y − mxi − n
χ = ∑ i
2
= 10.95 ⇒ χ´2 ≡ χ 2 / ν= 1.37
i σi
• De la taula: ∞
χ2
la qual cosa indica un bon ajust (valors massa menuts o massa grans indicarien un model
o unes dades incorrectes.)
En aquest cas la minimització del χ2 condueix a equacions normals lineals amb solució
analítica.
Equacions normals
2
1 N k
1 N k
=χ ∑ 2 yi − ∑ a j f j ( xi )
2
∑ j i σ2 i ∑
f ( x ) y − a f ( xi =
) 0 j=1,....k
σi
=i 1 = j 1 =i 1 = i j 1
j j
En l’exemple b) =
f ( x ) asen( x ) + b cos( x )
2
y − asenxi − bsenxi
χ = ∑ i
2
i σi
C1
C2
C0
∂χ 2
0 ⇒ ∑ ( yi − asenxi − b cos xi ) senxi =
= ∑ sen xi a + ∑ senxi cosxi b =∑i i i
2
0 y senx
∂a i i
⇒
i
2
∂χ
0 ∑ senxi cos xi a + ∑ cos2 xi b =
0 ⇒ ∑ ( yi − asenxi − b cos xi ) cos xi =
∂b
=
∑i yi cosxi
i
i i
D1 D2 D0
1 C0 C2
a =
∆ D0 D2 C1 C2
2
=
amb ∆ = ∑ sen 2 xi ∑ cos2 xi − ∑ senxi cos xi
b = 1 C1 C0 D1 D2 i i i
∆ D1 D0
Es pot provar que els paràmetres a1 , a2 ,... ak i la matriu de covariància dels paràmetres poden
expressar-se en funció d’aquesta matriu C i de la matriu de covariància de les dades Vy com
a:
1
( )
x−µ
2
• Mètodes del gradient: a partir de les derivades de la funció a minimitzar, es troba la direcció en la qual la
funció decreix i es calcula per iteració el mínim de la funció. Un d’aquests mètodes és el mètode de Newton.
[1] Lagarias, J.C., J. A. Reeds, M. H. Wright, and P. E. Wright, "Convergence Properties of the Nelder-Mead Simplex
Method in Low Dimensions," SIAM Journal of Optimization, Vol. 9 Number 1, pp. 112-147, 1998.
J. A. Nelder, R. Mead: Comput. J. 7,308 (1965)
– Exemple:
En un experiment de física de partícules s’ha mesurat l’energia d’un procés determinat i s’ha acumulat una
estadística de 4000 esdeveniments. L’observació de l’histograma mostra un gran pic sobre un fons suau, que
interpretem com una ressonància descrita per una distribució de Lorentz i un fons que depèn quadràticament
amb l’energia. Representem l’histograma en passos de 0.10 GeV i ajustem les dades a la següent funció amb
sis paràmetres lliures:
Γ / (2π )
y ( E ) =a + bE + cE 2 + A0
( E − E0 ) 2 + ( Γ / 2 )
2
Nombre d´esdeveniments
250 250 Γ= (0.196± 0.029) GeV
150 150
100 100
50 50
0 0
0 0.5 1 1.5 2 2.5 3 0 0.5 1 1.5 2 2.5 3
E(GeV E(GeV