Professional Documents
Culture Documents
2 Erregresioa
2 Erregresioa
y 1.32B euro
Erregresio problemak
ataza 𝓧 𝒴
Ikasketa gainbegiratua
Erabaki-zuhaitzak
Eredu probabilistiko grafikoak
Random forests
Sare neuronalak
Perzeptroia
Erregresio lineala
β ∈ ℝF
(F dimentsioko zenbaki errealen bektorea)
x = Ezaugarri-bektorea β = koefizienteak
Z
y= balio erreala
ŷ = iragarpena
Inferentzia:
iragarpenak egin
Eredua ŷ
Atributuak (x) (funtzio iragarlea) Galera
Kalkulatu Galera-
(ŷ - y) funtzioa
Etiketa (y)
Google
●
Ikasketa automatikoko eredu bat, pisuarentzako eta galerarako edozein balio
batzuekin (hipotesi batekin) hasten da eta hipotesi hori modu iteratiboan doitzen
du, galera txikiena lortuko duten pisuak eta alborapenak ikasten dituen arte.
●
Galera-funtzioa: iteratzen, ikasten jarraituko dugu, algoritmoak galera txikiena
duten balioak (β-k) topatzen dituen arte. Iteratuko dugu, galerak aldatzeari uzten
dion arte edo oso poliki aldatzen den arte. Ereduak konbergitu du.
Galera funtzio ezagun bat
●
Batezbesteko errore koadratikoa: adibide guztien
galera koadratikoen batezbestekoa (Mean Squared
Error-MSE)
Metrikak
(Galera)
• ŷ iragarpenaren eta egiazko y-aren arteko
diferentzia neurtzen du (N adibidetan)
Batez besteko
errore koadratikoa
Mean squared error (MSE)
Batezbesteko errore
absolutua
Mean absolute error
(MAE)
y ŷ MAE MSE
1 2 1 1
Ezaugarria β
kokalekua =
-1.7
Berkeley
Karratu gutxiago
Egiten ditugun erroreak,
galera, minimizatu nahi
dugu, horretarako β pisuak
kalkulatuaz
β berria, aurrekoa da
errorea minimizatuta
Lineala
Ikasketa iteratiboa
Entrenamendua
Parametroen (pisuen, β balioen)
eguneraketa egin, berriro ikasi
Inferentzia:
iragarpenak egin
Eredua ŷ
Atributuak (x) (funtzio iragarlea) Galera
Kalkulatu Galera-
(ŷ - y) funtzioa
Etiketa (y)
Google
●
Ikasketa automatikoko eredu bat, pisuarentzako eta galerarako edozein balio
batzuekin (hipotesi batekin) hasten da eta hipotesi hori modu iteratiboan doitzen
du, galera txikiena lortuko duten pisuak eta alborapenak ikasten dituen arte.
●
Galera-funtzioa: iteratzen, ikasten jarraituko dugu, algoritmoak galera txikiena
duten balioak (β-k) topatzen dituen arte. Iteratuko dugu, galerak aldatzeari uzten
dion arte edo oso poliki aldatzen den arte. Ereduak konbergitu du.
Galeraren murrizketa
• Ekuazioekin
• Iteratiboki (gradiente jaitsiera)
Gradiente jaitsiera
●
β-en balio guztientzako 1) βi-rentzako hasiera
galera neurtuko bagenu, puntu bat aukeratu
erregresiotan forma hau
(edozein, batzuetan 0)
lortzen da. Galera-
funtzioaren kurba.
Hasiera
ausaz
Galera Galera
Minimoan
konbergitzen du β balioak β balioak
galera funtzioak
Gradiente jaitsiera
2) Gradienteen jaitsiera 3) Galera-funtzioaren kurbaren
algoritmoak galera kurbaren hurrengo puntua aztertzen da
gradientea kalkulatzen du. Hau da,
bektore bat (noranzkoa eta
tamaina ditu).
Gradiente Gradiente
Hasiera negatiboa Hasiera negatiboa
Galera Galera
Hurrengo
β balioak puntua β balioak
Hasiera Hasiera
Galera Galera
Minimoa
Pasata!
β balioak
https://developers.google.com/machine-learning/crash-course/fitter/graph
Gradiente jaitsiera
Ezaugarria β
Clinton jarraitu -3.1
Gutxitan agertzen diren
ezaugarri batzuk, etiketa Trump jarraitu+
bakarraz agertzea posiblea
Bieber jarraitu + 7299302
Futbol liga jarraitu
da (kasualitatez)
“benghazi” 1.4
“benghazi”+
Orokorrean hain gutxitan
sentimendu 3.2
ager daitezke, negatiboa
ausazkotasunaren zarata
handiagoa izan daitekeela “etorkin ilegala” 8.7
Profilean
7.9
“errepublikarra”
Profilean
-3.0
“demokrata”
kokalekua =
-1.7
Berkeley
Erregularizazioa
Generalizazio kurbak
Galera
Balidatzeko datuak
Entrenamendurako datuak
Iterazioak
●
Galera jaisten da entrenamendu datuetan baina ez
hainbeste balidatzekoetan gaindoitzea (overfitting)
●
Erregularizazioa: ez gehiegi fidatu datuez eta eredu
konplexuak penalizatu
Erregularizazioa
●
Entrenamenduko datuekiko gaindoitzea ekidin: nola?
Erregularizazioa
– Entrenamendua moztu datuek konbergitzen duten
puntuan (kurba gorriaren azpiko puntuan). Zaila.
– Entrenamenduan ereduaren konplexutasuna
zigortu/penalizatu.
●
Datu zuzenak erabili gehiegi fidatu gabe. Oreka behar dugu
datuen zuzentasunaren eta ereduaren sinpletasunaren
artean.
●
Minimizatu galera + konplexutasuna doitu: egiturazko
arriskua minimizatu
Ereduaren konplexutasuna
L2 erregularizazioa
●
Nola neurtu?
– Atributuen pisuen (ponderazioen) funtzioa
● L2 erregularizazioaren eragina:
– Pisuen, β, balioak 0-runtz bideratu (ez zehazki
0ra)
– Pisuen batezbestekoa 0runtz bideratu, distribuzio
normal batekin.
L2 erregularizazioa
(Ridge ere deitua)
λ
Erregularizazio-tasa (λ))
• λ) aukeratzearen helburua: entrenamenduko datuen
doitzearen eta sinpletasunaren arteko oreka lortzea
– λ) altuegia: eredu sinplea baina datuak azpidoitzeko
arriskua (pisuen karratuei balio handiegia ematen
diogu). Ereduak ez du nahikoa ikasiko entrenamenduko
datuekin, baliozko iragarpenak egiteko.
– λ) baxuegia: eredu konplexuagoa baina datuak
gaindoitzeko (overfitting) arriskua. Ereduak
entrenamenduko datuen berezitasunak gehiegi ikasiko
ditu eta ezingo du datu berriekin orokortu.
– λ) ideala: ereduak arazorik gabe orokortzen du datu
berriekin.
– λ) ren balioa datuen dependente da
L1 erregularizazioa
(Lasso ere deitua)
• Zehaztasuna
• Ezaugarri garrantzitsuetan