Download as pdf or txt
Download as pdf or txt
You are on page 1of 29

Mínims quadrats

1. Mètode de mínims quadrats


2. Ajust d’una recta
I. Pendent i ordenada
II. Errors i covariància
Expressió del χ en funció dels errors
2
III.
IV. Ajust ponderat de la recta
V. Extrapolació
VI. Linealització
3. La distribució χ 2
4. Formulació matricial dels mínims quadrats
5. Ajusts de funcions no lineals en els paràmetres

Bibliografia:
- Statistics. A guide to the use of Statistical Methods in the Physical Sciences (Barlow)
- Data reduction and error analysis for the physical sciences (Bevington, Robinson)
- Análisis de errores (C. Sánchez del Río)

Tema 11 Mínims quadrats 1


Mètode de mínims quadrats

• El mètode de mínims quadrats, com el mètode de màxima versemblança, és un


procediment que ens permet determinar un conjunt de paràmetres desconeguts a
partir d’un conjunt de dades.

• En la seua forma bàsica s’utilitza quan tenim dues variables x i y on:


• Els valors de x són coneguts amb molta precisió.
• Els valors de y són coneguts amb precisions σ.
• Tenim una relació f(x;a) que prediu el valor y per a qualsevol valor x, però que
conté com a paràmetre desconegut a, el qual hem de determinar.

Tema 11 Mínims quadrats 2


Mètode de mínims quadrats

• El principi de mínims quadrats pot derivar-se del principi de màxima versemblança, si les
mesures es distribueixen de forma gaussiana. En efecte, la probabilitat de tenir un valor
particular yi per un valor donat xi és
 1   1  y − f ( x ; a 2 
=
P ( yi ; a )   exp  − 
i i
 
σ
 i 2π   2  σ  
 i

• El logaritme de la funció versemblança és, doncs,


2
1  y − f ( xi ; a )  N
− ∑ i
ln L =  − N ln σ − ln 2π
2  σi 
i
2

• I maximitzar aquesta funció equival a minimitzar la suma ponderada dels quadrats de


les diferències entre les dades i els valors predits, és a dir,
2
 yi − f ( xi ; a ) 
∑i  σ 
 i 

Tema 11 Mínims quadrats 3


Mètode de mínims quadrats

• També pot plantejar-se com un principi obvi, que no necessita més justificants, que el
mateix significat d’aquest estimador: es fa variar el paràmetre a per a obtenir els valors
predits f(xi) tan pròxims com siga possible als valors experimentals yi (els quadrats
comporten eliminar les grans desviacions). L’estimador rep el nom de χ
2

2
 y − f ( xi ; a ) 
χ2 = ∑ i 
i  σi 
• La minimització exigeix trobar la solució a de l’equació
dχ2 1 df ( xi ; a )
0⇒∑ 2
= [ yi − f ( xi ; a)] =
0
da i σi da

• El valor així estimat —denotat per a´— serà pròxim al valor verdader. Si la solució de la
equació anterior és analítica, la variància d’aquest estimador calculat en funció dels
valors yi , podem calcular-la amb la fórmula de propagació d’errors,
2
 ∂a´ 
V (a´) = ∑   V ( yi )
i  ∂yi 

Tema 11 Mínims quadrats 4


Mètode de mínims quadrats

• Si la funció a ajustar és de m paràmetres aj


2
 y − f ( xi ; a j ) 
χ2 = ∑ i 
i  σi 
∂χ 2
I hem de resoldre el sistema de m equacions: = 0= j 1,..., m
∂a j

• La matriu de covariància dels paràmetres la podem derivar a partir de la funció


versemblança:
 ∂ 2 ln L   ∂ 2  [ yi − f ( xi ; a j )]2 
cov ( ai , a j ) =
N
∑ σ π
−1 −1
V = −  =  + N ln + ln 2 
ij
∂ ∂ ∂ ∂
 i j  a =a´  i j 
a a a a 2 σ i
2 i
2  a =a´
i per tant,

−1 1  ∂2 χ 2 
• (V )ij =   essent a´ el mínim
2  ∂ai ∂a j 
a = a´

Tema 11 Mínims quadrats 5


Mètode de mínims quadrats

• Exemple: proporcionalitat directa y = mx


2
 y − mxi 
La quantitat a minimitzar és χ = ∑ i
2
paràbola 𝜒𝜒 2 = 𝜒𝜒 2 (𝑚𝑚) amb un mínim
σ i 

i 
50

• Derivem respecte a m dχ2 [ y − mxi ]



40

= −2 x i
i
σ i2
30

dm i
Si els errors σi són tots iguals, els podem traure factor comú i tenim
20

2

10

dχ2
∑ ( x y − mx )
0

2
= 2 -10

dm σ 2
i i i -4 -3 -2 -1 0 1 2 3 4 5 6

Igualem a zero i queda


m

• i
Exemple de paràbola d’un 𝜒𝜒 2
∑ ( x y − m´x ) =
i
i i 0⇒∑x y
i
2

i
i i m´∑ xi 2
=
i
en funció d’un paràmetre m

• I, per tant, la constant de proporcionalitat és


∑x y i i
xy
=m´ = i


∑x i
i
2
x2

Tema 11 Mínims quadrats 6


Mètode de mínims quadrats

2
 
• Per a calcular la variància utilitzem V (a´) = ∑  ∂a´  V ( yi )
i  ∂yi 

• Partint de xi
m´= ∑ yi
2
i Nx
2
 ∂m´  σ
2
 xi  2
2
• Tindrem
= V ( m´) ∑=   V ( yi ) ∑
=   σ 2 ∑ i
x2
i  ∂y i  i  Nx 
2
N 2 x2 i

• És a dir, la variància de la constant queda:

σ2
V (m´) =
N x2

Tema 11 Mínims quadrats 7


Ajust d’una recta

• Considerem ara un conjunt de mesures (xi , yi), totes les Y amb el mateix error σ i que
presumiblement tenen una dependència lineal amb la variable X, és a dir, els punts es
distribueixen al voltant d’una línia recta de pendent m i ordenada en l’origen n:
=
y mx + n
χ  y − mxi − n 
2
• La funció 2
és ara χ = ∑ i
2

σ 
i  
i conté dos paràmetres a determinar, m i n,
i per tant la minimització es fa mitjançant dues
equacions, una per cada variable:
χ2
∂χ 2 ∂χ 2
= 0= i 0
∂m ∂n
• Derivant respecte de n tenim:
1
×
∑ 2 ( y − m´x − n´)=
i i 0 → y − m´x − n=´ 0
N

i
m n

Tema 11 Mínims quadrats 8


Ajust d’una recta

• Derivant respecte de m tenim:


1
×
∑ −2 x ( y − m´x − n´)=
i
i i i 0 → xy − m´x 2 − n´x= 0
N

 xm´+ n´=y
• Tenim, doncs, un sistema de dues equacions amb incògnites m´i n´: 

 x m´+ xn´=
2
xy
Si aïllem n´ en la primera i substituïm en la segona:

xy − x y cov( x, y ) N ∑ xi yi − ∑ xi ∑ yi
=m´ = =
N ∑ xi 2 − ∑ xi ∑ xi
x −x
2 2
V ( x)

• I l’ordenada n=´ y − m´x (la recta passa pel punt ( x , y ), centre de gravetat dels valors xi , yi )

x 2 y − x xy ∑ xi ∑ yi − ∑ xi ∑ xi yi
2

= n´ =
• O substituint el valor de m´ N ∑ xi 2 − ∑ xi ∑ xi
x2 − x 2

Tema 11 Mínims quadrats 9


Ajust d’una recta

Error del pendent m

• Podem escriure el pendent de la següent manera:


xy − x y ( xi − x )
= = ∑
( )
m´ yi
x2 − x 2 i N x −x 2 2

• La propagació d’errors ens dóna:

∑(x − 2 xxi + x 2 )
( )σ
2
  2
N x2 − x 2
( )
2
 ∂m´   x − x  σ2
i
=V (m´) ∑
=   V ( yi ) ∑  =
i i
= σ2 2

i  ∂yi  i
(
 N x − x 
2 2 
) N2 ( x2 − x 2)
2
(
N 2 x2 − x 2 )
2

• Que es pot expressar com a:


σ2 Nσ 2
= =
( )
V ( m´)
N ∑ xi 2 − ∑ xi ∑ xi
N x2 − x 2

Tema 11 Mínims quadrats 10


Ajust d’una recta

Errors de l’ordenada n
• Podem escriure l’ordenada de la següent manera:
x y − x xy 2 ( x − xx ) y
2


i
=n´ =
N (x − x )
i
x2 − x 2 i
2 2

• La propagació d’errors ens dóna:


2
2  2 
 ∂n´  x − xxi  2 σ2
( )
∑i  x 2 2 2 σ
( x )( x )
2
 1 2
V (n´) ∑ 
=  = ∑i  2 2  = σ − 2 x 2 xxi + x= 2 2
− x2
( )
V ( y ) xi 
i  ∂yi 
( ) 
( )
i 2 2

 N x − x  N x2 − x 2 N N x2 − x 2

• I finalment:
σ 2 x2 σ 2 ∑ xi2
= =
( )
V ( n´)
N ∑ xi 2 − ∑ xi ∑ xi
N x2 − x 2

Tema 11 Mínims quadrats 11


Ajust d’una recta

Estimació dels errors a partir dels valors de y


– Es pot estimar la desviació de les mesures de yi si considerem que estan distribuïdes de
forma gaussiana respecte del valor verdader mxi+n, amb el mateix error. La funció de
versemblança serà:
 1   1 N  yi − mxi − n  
N 2

=L(σ ´)   exp − ∑   
 σ ´ 2π   2 i =1  σ´  

– I la condició de màxima versemblança ens donaria:


d  ( yi − mxi − n) 2 N  1 n

 ∑
− − σ − π  =0 ⇒ σ ´ = ∑ ( y − mx − n)
2 2
N ln ´ ln 2
dσ ´  2σ ´2 i i
2  N i =1

– Si substituïm els valors verdaders m i n pels seus estimadors m’ i n’ hem de corregir


l’estimació de σ, i es pot provar que finalment la millor estimació de l’error de y és:
1 n
=σ´ 2

N − 2 i =1
( yi − mxi − n) 2 Estimador de la desviació típica (standard error of the estimate sy/x)

– La comparació d’aquest valor σ´ i l’estimació dels errors feta directament σ, és un test


sobre la hipòtesi de linealitat entre x i y.

Tema 11 Mínims quadrats 12


Ajust d’una recta

Covariància i coeficient de correlació de m i n


• Com que
 ∂y  2  ∂y  2  ∂y   ∂y 
2 2

y= m´ x + n´⇒ σ y= 
2
σ
 m´  +  n´σ + 2    cov( m´, n´)
 ∂m´   ∂n´   ∂m ´  ∂n´ 
• I tenint en compte que
1 σ2 ∂y ∂y σ2 σ 2 x2
= ∑ yi → σ= 2
= x; = 1; σ (m=2
; σ (n=
2

( ) ( )
y ; ´) ´)
∂m´ ∂n´
y
N i N N x2 − x 2 N x2 − x 2
• Resulta:  
1 σ 2 σ2 σ 2 x2 
cov(m´, n´) = − x 2

2x  N
 N x 2
− x 2
( ) (
N x2 − x 2 ) 

• I finalment:
σ 2x cov(m´, n´) x
cov(m´, n´) = − ρ ( m´, n´) =
∑ xi ∑ xi
= − ρ2 =
(
N x −x2 2
) σ m´σ n´ x2
N ∑ xi 2

Tema 11 Mínims quadrats 13


Ajust d’una recta

Ajust ponderat de la recta


• Si els errors σi dels punts experimentals no són iguals, la funció a minimitzar és:
2
 y − mxi − n 
χ = ∑ i
2

i  σi 
 ∂χ 2  y − m´xi − n´  1 yi xi 1
 = 0 ⇒ −∑ 2  i  = 0 → ∑ 2 − m´∑ 2 − n´∑ 2 = 0
I tindrem  ∂n i  σi  σi i σi i σi i σi
 2
 ∂χ =⇒  yi − m´xi − n´  xi xy xx x
 ∂m 0 ∑i  σ
−2  =→
σ
0 ∑ i 2i − m´∑ i 2i − n´∑ i2 =
σ σ σ
0
  i  i i i i i i i

• Són les mateixes equacions del problema sense pesos. Podem trobar les solucions fent
els canvis:
1 1 xi 1 1 yi xi yi
 N ∑ xi → ∑ ; ∑ yi → ∑σ ; ∑x y →∑
∑i σ 2 i σ i N i σ i2
2 2 i i
1 1
 i
∑i σ 2 i i i i

 i i

 σi 2

 ∑
i σi
2
N
i per a les variàncies: σ 2 → σ=
2
=
1 1

 ∑
i σi
2 ∑σ i
2
i

Tema 11 Mínims quadrats 15


Ajust d’una recta

Fent els canvis, tindríem:

2
 1  x2  x 
defininint ∆ ≡  ∑ 2  ∑ i 2 −  ∑ i2 
 i σi  i σi  i σi 

1 1 xi yi xi yi 
=
Pendent → m´ ∑ 2 ∑σ −∑ ∑σ 2 
∆  i σi i i
2
i σi 2
i i 

substituint m´ s'obté:

1 yi xi 
1  ∑
=
Ordenada → n´ − m´∑ 2  1 xi 2 xi yi 
i σi σ yi xi
∑ 2 ∑ 2 ∑ 2 ∑i σ 2 
2
∑i σ 2 =
i i  n´
∆  i σi i σi

i σi i 
i

1 xi
1
V (m´) = ∑ 2
1 1
V (n´) = ∑ 2
xi 2 cov(m´, n´) = − ∑
∆ i σ i2
∆ i σi ∆ i σi

Tema 11 Mínims quadrats 16


Ajust d’una recta

Exemple 1: Un estudiant està investigant la llei 1/r2; amb un comptador Geiger compta el nombre de
partícules detectades a diferents distàncies. Com que el sistema és automàtic el recompte es fa cada 15
segons. Per a aquesta anàlisi es registren 30 adquisicions de 15 segons en cada posició, i se sumen els
resultats (Bevington, ex. 6.2)

Els errors vénen determinats per


l’estadística poissoniana i es
χ2 calculen com l’arrel del nombre de
(C-a-bx)2w
partícules detectades.
del nombre
En aquest exemple la recta
0.218
2.616
0.700
2.855
2.845
ajustada és:
y= a + bx
0.348
0.022
1.053
0.195
0.094
10.95

− ∑∆ i i =
wx
cov(b, a ) = −5.6

Tema 11 Mínims quadrats 17


Ajust d’una recta

Representació gràfica de l’exemple 1.

Tema 11 Mínims quadrats 18


Ajust d’una recta

Representació gràfica del χ de l’exemple 1 feta amb MATLAB.


2

Corbes de nivell del Chi2


32
19
13 18
12
17

16
20
31.5
15
19

14 18

17

31 16
11

Chi2
15
m

14

13
30.5 13
12

11

10
32
30
31.5
130
31 125
12 30.5
14 120
15
16
17 30
19 18 115
29.5
112 114 116 118 120 122 124 126 m 29.5 110 n
n

El χ2 aumenta una unitat per paràmetre quan fem variar els paràmetres 1σ

Tema 11 Mínims quadrats 19


Ajust d’una recta

Linealització:
• Funció exponencial: y = ae − bx

• Prenent logaritmes, l’exponencial es transforma en una línia recta.

y´≡ ln y =ln a − bx =a´−bx amb a´=ln a


El mètode de mínims quadrats minimitza el valor de χ
2

2
 ln y − ln a + bxi  d ln y 1
=χ ∑ i2
 =
amb σ ´i = σi σi
i  σ ´i  dy yi
2
 1  xi 2  x 
• Els valors dels paràmetres a i b i els seus errors seran: fent ∆´≡  ∑ 2  ∑ 2 −  ∑ i 2 
 i σ ´i  i σ ´i  i σ ´i 
1 xi 2 y´i xi xi y´i  1 1 x y´ x y´ 
a´ ∑ ∑i σ ´ 2 ∑i σ ´ 2 ∑i σ ´ 2  a = ea´
− b= −  ∑ 2 ∑ i 2i − ∑ i 2 ∑ i2 
∆´  i σ ´i 2 i i i  ∆´  i σ ´i i σ ´i i σ ´i i σ ´i 
2
1 1
V (b) = ∑ 2
1 x
V (a´) = ∑ i 2 V (a ) = e 2 a´V (a´) 1
cov( a´, b) = + ∑ i 2
x
∆´ i σ ´i ∆´ i σ ´i ∆ i σ ´i

Tema 11 Mínims quadrats 21


La distribució χ
2

La quantitat χ és la suma de les diferències al quadrat entre els valors observats i els
2

valors teòrics predits, ponderats pels erros de les mesures.
2
 y − f ( xi ; a1, ..., ak ) 
χ = ∑ i
2

i  σi 
• Si la funció s’ajusta bé amb els valors observats, el valor de χ 2 serà menut, per la qual
cosa un valor gran de χ 2 després de la minimització, ens dirà que la funció teòrica no
és la millor.
Però un valor molt menut de χ tampoc és bo i probablement ens està indicant una
2

possible sobreestimació dels errors.
• El χ 2 és una variable aleatòria que es distribueix segon la funció de probabilitat, que
depèn del paràmetre ν: ∞

∫ x e dx
n −1 − x
Funció Gamma: Γ( n ) =
0
−ν /2 ν −2
χ 2
Γ(1) =1 Γ( ) = π Γ( n + 1) =nΓ( n )
( χ2)
1
2
=P( χ 2 ;ν ) exp(−
2
2 )
Γ(ν / 2) 2 Γ( n=
+ 1) n ! =
si n 1, 2,...
Γ( n + 1) = n( n − 1)( n − 2)... 23 × ( 1
2 π ) si n = 1
2 , 23 ,...

Tema 11 Mínims quadrats 22


La distribució χ
2

• Les restriccions imposades per les k equacions de minimització (una per paràmetre a ajustar)
disminueixen la dimensió de l’espai de probabilitat inicial a una dimensió ν=N-k.
• La distribució depèn de v (nombre de graus de llibertat) que és el nombre de punts en la suma N,
menys el nombre de variables a minimitzar en l’ajust.
• La constant de proporcionalitat ve donada per la condició de normalització i resulta
ν −2
2−ν /2 χ2
=P( χ ;ν ) 2

Γ(ν / 2)
( χ ) exp(− 2 )
2 2

El valor esperat i la variància d’aquesta distribució són:

= V ( χ 2 ) 2ν
χ 2 ν=

Esperem un χ2 reduït ( χ 2 = χ 2 / ν ) al voltant d’1 si la funció f


ajustada és correcta. Podem calcular la probabilitat que les dades
mesurades hagueren donat lloc a un χ 2 superior al valor obtingut χ 0
2

Límits: Si ajustem les dades a una funció amb χ = χ 0 i


2 2

P( χ 2 ≥ χ 0 2 ) < 5% (1%)

rebutgem la distribució considerada al 5% (1%) de nivell de


significació.

Tema 11 Mínims quadrats 24


La distribució χ 2

Tema 11 Mínims quadrats 25


El test de χ : aplicació a l’ajust d’una recta
2

• Exemple: La distribució χ 2de l’exemple de les 10 mesures del Geiger té 10-2=8 graus de
llibertat i per tant:
2−8/2 8− 2
χ2 χ2
( χ ;8)
P= 2

Γ(8 / 2)
( χ ) exp(=
2 2 − )
2
1
96
( χ ) exp(− 2 )
2 3

= Var ( χ 2 ) 16
χ 2 8=

Calculem:
2
•  y − mxi − n 
χ = ∑ i
2
 = 10.95 ⇒ χ´2 ≡ χ 2 / ν= 1.37
i  σi 
• De la taula: ∞

∫ P(χ´ ;8)d χ´ ≈ 0.20 > 5%


2 2 >> chi2cdf(x,n,'upper')

χ2

• Interpretació: Si repetirem l’experiment moltes vegades, el 20% de vegades obtindríem


valors de χ en ajustar les diferents rectes obtingudes, iguals o superiors al nostre valor,
2

la qual cosa indica un bon ajust (valors massa menuts o massa grans indicarien un model
o unes dades incorrectes.)

Tema 11 Mínims quadrats 27


Formulació matricial dels mínims quadrats

1. Funcions lineals dels paràmetres:


 k
f ( x=
; a ) ao f 0 ( x ) + a1 f1 ( x ) + ... + ak f k=
( x) ∑a
j =1
j f j ( xi )

p. e. a) f ( x ) =ao + a1 x + a2 x 2 + ... b) f ( x ) =asen( x ) + b cos( x )

En aquest cas la minimització del χ2 condueix a equacions normals lineals amb solució
analítica.
Equacions normals

2
1  N k
 1  N k

=χ ∑ 2  yi − ∑ a j f j ( xi ) 
2
∑ j i σ2 i ∑
f ( x ) y − a f ( xi  =
) 0 j=1,....k
σi 
=i 1 = j 1  =i 1 = i  j 1
j j

Tema 11 Mínims quadrats 29


Formulació matricial dels mínims quadrats

En l’exemple b) =
f ( x ) asen( x ) + b cos( x )
2
 y − asenxi − bsenxi 
χ = ∑ i
2

i  σi 
 
C1
 C2

 C0

∂χ 2   
0 ⇒ ∑ ( yi − asenxi − b cos xi ) senxi =
=  ∑ sen xi  a +  ∑ senxi cosxi  b =∑i i i
2
 0 y senx
 ∂a  i   i 
⇒
i
 2
 ∂χ    
0  ∑ senxi cos xi  a +  ∑ cos2 xi  b =
0 ⇒ ∑ ( yi − asenxi − b cos xi ) cos xi =
 ∂b
=
    
∑i yi cosxi
i

i i
 
 D1 D2 D0

 1 C0 C2
a =
 ∆ D0 D2 C1 C2     
2

 =
amb ∆ =  ∑ sen 2 xi   ∑ cos2 xi  −  ∑ senxi cos xi 
b = 1 C1 C0 D1 D2  i  i   i 
 ∆ D1 D0

Tema 11 Mínims quadrats 30


Formulació matricial dels mínims quadrats

Quan la funció és lineal en els paràmetres podem escriure

 f=( x1 ) ao f 0 ( x1 ) + a1 f1 ( x1 ) + ... + ak f k ( x1 )  f ( x1 )   f 0 ( x1 ) f1 ( x1 )...... f k ( x1 )   a0 


 f=  f ( x ).   f ( x ) f ( x )...... f ( x )   a 
 ( x2 ) ao f 0 ( x2 ) + a1 f1 ( x2 ) + ... + ak f k ( x2 )  2 
=
0 2 1 2 k 2  1 
     
.     
 f= f 0 ( xN ) f1 ( xN )...... f k ( xN )   ak 
 f ( xN )  
( xN ) ao f 0 ( xN ) + a1 f1 ( xN ) + ... + ak f k ( xN )  
C

 1 x1 x12   sin(x1 ) cos(x1 ) 


 2
  
o bé f = Ca amb Cij ==
f j ( xi ) a) C
 1 x2 x2 
=




b) C
 sin(x2 ) cos(x2 ) 




1 x x N2   sin(x ) cos(x ) 
 N  N N 

Es pot provar que els paràmetres a1 , a2 ,... ak i la matriu de covariància dels paràmetres poden
expressar-se en funció d’aquesta matriu C i de la matriu de covariància de les dades Vy com
a:

a = CT Vy −1C  CT Vy −1y


−1  −1
 −1

V (a ) = C Vy C 
T

Tema 11 Mínims quadrats 31


Funcions no lineals en els paràmetres

 1
( ) 
x−µ
2

2. Funcions no lineals dels paràmetres (p. e. ...)


1
y=
a1 + sen( x + a2 ) o y = exp  −
σ 2π  2 σ

– Els ajusts no lineals generalment requereixen procediments numèrics (iteratius) per a


minimitzar el χ2.
– N’hi ha diferents mètodes, però cap és aplicable
a totes les funcions.
– Els criteris per a seleccionar el mètode són:
• la velocitat del càlcul,
• l’estabilitat enfront de les divergències.
– Els mètodes poden classificar-se en dues categories:
• Mètodes de quadrícula (grid method): es forma una quadrícula de punts igualment espaiats en les variables
d’interès i s’avalua la funció en cada un dels punts. El punt amb el valor més menut és el mínim aproximat. Un
d’aquests mètodes és el mètode símplex.

• Mètodes del gradient: a partir de les derivades de la funció a minimitzar, es troba la direcció en la qual la
funció decreix i es calcula per iteració el mínim de la funció. Un d’aquests mètodes és el mètode de Newton.

Tema 11 Mínims quadrats 32


Funcions no lineals en els paràmetres

MATLAB fminsearch utilitza el mètode de recerca simplex


de Lagarias et al. [1]. Es tracta d'un mètode de recerca directa
que no utilitza gradients numèrics o analítics.

Si n és la longitud de x, un simplex a l'espai n-dimensional es


caracteritza pels n + 1 vectors diferents que són els seus
vèrtexs. En espai 2-D, un simplex és un triangle; en l'espai 3-D,
és una piràmide. En cada pas de la recerca, es genera un nou
punt en o prop del simplex actual. El valor de la funció en el
nou punt es compara amb els valors de la funció en els vèrtexs
del simplex i, en general, un dels vèrtexs se substitueix pel nou
punt, donant un nou simplex. Aquest pas es repeteix fins que el
diàmetre del simplex és menor que la tolerància especificada

[1] Lagarias, J.C., J. A. Reeds, M. H. Wright, and P. E. Wright, "Convergence Properties of the Nelder-Mead Simplex
Method in Low Dimensions," SIAM Journal of Optimization, Vol. 9 Number 1, pp. 112-147, 1998.
J. A. Nelder, R. Mead: Comput. J. 7,308 (1965)

Tema 11 Mínims quadrats 34


Funcions no lineals en els paràmetres

– Exemple:
En un experiment de física de partícules s’ha mesurat l’energia d’un procés determinat i s’ha acumulat una
estadística de 4000 esdeveniments. L’observació de l’histograma mostra un gran pic sobre un fons suau, que
interpretem com una ressonància descrita per una distribució de Lorentz i un fons que depèn quadràticament
amb l’energia. Representem l’histograma en passos de 0.10 GeV i ajustem les dades a la següent funció amb
sis paràmetres lliures:
Γ / (2π )
y ( E ) =a + bE + cE 2 + A0
( E − E0 ) 2 + ( Γ / 2 )
2

Ajust amb la instrucció fit de MATLAB


Exemple 9.1 Bevington
400 Exemple 9.1 Bevington
400
data
350 fitted curve
350

300 E = (0.984± 0.008) GeV


300
Nombre d´esdeveniments

Nombre d´esdeveniments
250 250 Γ= (0.196± 0.029) GeV

200 200 χ2= 1.4 Pχ2= 7.9%


0
0

150 150

100 100

50 50

0 0
0 0.5 1 1.5 2 2.5 3 0 0.5 1 1.5 2 2.5 3
E(GeV E(GeV

Tema 11 Mínims quadrats 36

You might also like