Professional Documents
Culture Documents
Adatelemzés És Statisztika 01
Adatelemzés És Statisztika 01
PREREGISZTRÁCIÓ
- azt jelenti, hogy a kutatók egy nyilvános tárhelyen vagy folyóiratban rögzítik a kutatási tervüket és
hipotéziseiket
- az adatgyűjtés és elemzés során ezt a tervet kell követniük
NEGATÍV EREDMÉNYEK KÖZLÉSE
- preregisztráció lehetővé teszi, hogy egy jól megtervezett és kivitelezett kutatást az eredményektől függetlenül
publikáljanak
- ez növeli a negatív eredményt közlő cikkek számát
METAANALÍZIS több tudományos tanulmány eredményeit veti össze (akkor ha azok ugyanazzal a kérdéssel
foglalkoznak)
ADATELEMZÉS ÉS STATISZTIKA 02
Általában nem kézzel fogható dolgokat mérünk pszichológiában összefoglaló nevük konstruktum
reliabilitás megbízhatóság; validitás érvényesség
arra törekszünk, hogy a konstruktumokat megbízhatóan és érvényesen tudjuk mérni
VÁLTOZÓK MÉRÉSI SZINTJEI
- diszkrét: csak bizonyos értékeket vehet fel
o kategorikus: az értékek nem rendezhetőek sorba (pl.: nem)
o ordinális: az értékek sorba rendezhetőek, de szintek közötti különbség nem egyenlő (pl.:
iskolázottság)
- folytonos: bármilyen értéket felvehet egy bizonyos értéktartományban
o intervallum: az értékek közötti távolság egyenlő (pl.: IQ, hőmérséklet)
o arány: van valódi nulla értéke (pl.: távolság)
ADAT GRANULARITÁS
- változó szintjeinek a számát jelenti azaz, hogy hány különböző értéket tud felvenni egy változó
- kiszámítás: (max. érték – min. érték)* itemek száma + 1
ADAT olyan információk, amelyeket megfigyelések alapján rendszerezetten gyűjtünk
- adatpont: egy mérésből származó érték
- megfigyelés: ugyanannak a megfigyelési egységnek az összes adatpontja
- változó: több megfigyelési egységnek az ugyanarra a mérésre adott értékei
- adattábla: közös táblázatban lévő változók és megfigyelések
- hiányzó adat: nem rögzített adatpont (NA)
- hibás adat: hibás rögzítés miatt került bele az adattáblázatba
- outlier: olyan érték, ami a többitől távol esik kiugró adatpont
ÉRTÉKEK ELOSZLÁSA
- fontos látnunk, hogy melyik értékek jellemzőbbek a mintára és melyek számítanak ritkának ez az eloszlás
- a diszkrét változók gyakorisága, az az, hogy hányan választották az egyik opciót
MIVEL LEHET AZ ELOSZLÁST ÁBRÁZOLNI?
o dotplot: az x tengely az értéktartomány; minden adatot egy pötty jelképez
o hisztogram: x tengely a változó értéktartománya; az y tengely a gyakorisága; oszlopok
o boxplot
ADATOK ÖSSZESÍTÉSE
- arra törekszünk, hogy az összesített érték jól reprezentálja a teljes mintát, de annak a bizonytalanságát is
érzékeltesse
ÖSSZESÍTŐ STATISZTIKÁK
o gyakoriság (frequency): a megfigyelések száma
o összeg (summary): egy változó összes értékének összeadásával keletkező érték
o arány (proportion): a megfigyelések száma az összes megfigyeléshez képest
KÖZÉPÉRTÉK
- matematikai átlag (mean, average): az értékek összege elosztva az értékek számával
- medián (median): a nagyság szerint sorba rendezett értékek közül a középső (ha páros számú érték van, akkor
általában a középső kettő átlaga)
- módusz (mode): a leggyakrabban előforduló érték
SZÉLSŐÉRTÉKEK
- minimum: legkisebb
- maximum: legnagyobb
- outlier: olyan érték, ami a többitől távol esik
o ha kitöröljük az outliert, akkor megváltozik az átlag
o a mediánra kicsi hatással van az outlier; a móduszra nincs hatással
RANG TRANSZFORMÁCIÓ
- néha nem a nyers értékek fejezik ki legjobban az adatokban lévő összefüggéseket, hanem az értékek rangja
- értékeket sorba rendezzük, és az érték sorban elfoglalt helye lesz az új érték
- a változó mérési szintje ordinálissá változik
- az egyenrangú elemek kezelésétől függően létezik többféle sorba állító algoritmus
ADATOK STANDARDIZÁLÁSA
- centrálás: kivonjuk a csoportátlagot minden értékből
- skálázás: elosztjuk az összes értéket a szórással
- standardizálás: centrálás és skálázás (más néven z-transzformáció)
ADATVIZUALIZÁCIÓ
- segít meglátni az összefüggéseket és az adatokban lévő hibákat fontos, hogy ne legyen túl bonyolult
ADATELEMZÉS ÉS STATISZTIKA 03
VALÓSZÍNŰSÉG
- bizonytalan kimenetelű események leírására használják
- egy esemény bekövetkezésének számszerű esélye 0 és 1 között (vagy 0% és 100%)
- próba: minden egyes alkalom, amikor tesztelünk valamit
- kimenetel (outcome): próba eredménye
- kimeneti lehetőségek (sample space): az összes lehetséges kimenetel
- siker: az a kimenetel, amit várunk
- sikerek számát elosztjuk a próbák számával
SŰRŰSÉGFÜGGVÉNY
- egy adott folytonos eloszlással kapcsolatban azt mutatja meg, hogy egy véletlenszerűen kiválasztott érték
mekkora eséllyel esik egy adott tartományba
CUMULATIVE DENSITY FUNCTION
- folytonos változók esetében azt mutatja meg, hogy egy eloszlás értékeinek mekkora része van egy bizonyos
érték fölött/alatt
- értelemszerűen ez a függvény csak nőni vagy stagnálni tud
- minél nagyobb a szórás, annál jobban ellaposodik a függvény
NEVEZETES ELOSZLÁSOK
- nevezetes eloszlások az adatok természetéből következnek leírhatóak egy sűrűségfüggvénnyel
- Bernoulli eloszlás
o csak két lehetséges érték van (0/1)
o szükséges paraméter: a siker (1) esélye – tehát a sikerek aránya
- uniform eloszlás
o minden értéknek ugyanakkora az elméleti valószínűsége
o szükséges paraméterek: minimum és maximum érték (értéktartomány)
- binomiális eloszlás
o x darab Bernoulli próbából hányszor következik be a megfigyelt esemény
o szükséges paraméterek: próbák száma, a siker esélye
- Poisson eloszlás
o 0 a legkisebb értéke, de elméleti maximuma nincs
o egy paramétere van csak: lamba (leggyakoribb értéket és a szórást is meghatározza)
- normális eloszlás
o folytonos eloszlás; egycsúcsú, szimmetrikus
o szükséges paraméterek: átlag és szórás
- eloszlás ferdesége amikor nem szimmetrikus egy eloszlás, lehet pozitív (jobbra) ferde vagy negatív
(balra) ferde
CENTRÁLIS HATÁRELOSZTÁS ELVE
- a minták számának növekedésével a mintaátlagok eloszlása közelít a normális eloszláshoz
- ez akkor is igaz, ha a populációban lévő értékek eloszlása nem normális
ESÉLY ÉS VALÓSZÍNŰSÉG
(kontigencia táblák változók közös eloszlását mutatják meg)
- valószínűség: kimeneti esemény bekövetkezik / összes eset
- esély: kimeneti esemény bekövetkezik / kimeneti esemény nem következik be
- ezek önmagukban nem válaszolnak a két változó kapcsolatára, ahhoz ezek arányát kell kiszámítani
- esélyhányados: annak az esélye, hogy a kimeneti esemény megtörténik egy prediktor esemény bekövetkezése
esetén, a prediktor esemény hiányához képest
RELATÍV KOCKÁZAT
o ez az esélyhányadoshoz hasonlóan a kapcsolat erősségét mutatja a prediktor és a kimeneti változó
között
o annak kockázatát mutatja, hogy egy esemény mennyivel valószínűbb az egyik csoportban egy másik
csoporthoz képest
MINTA ÉS POPULÁCIÓ
- a populáció egy meghatározott csoport összes lehetséges tagja (pl.: az összes egészséges ember)
- a minta a megfigyelt populációból kiválasztott egyedek részhalmaza
- egy populációból közel végtelen számú mintát vehetünk
MINTAVÉTELEZÉS
- reprezentatív: a populáció tipikus egyedeit arányosan képviselő
- a minta alapján tudunk becsléseket tenni a populáció jellemzőire máshogy nem tudunk információhoz jutni
- a minta viszont soha nem tökéletes reprezentációja a populációnak mindig valamennyire torzított
- a kisebb minták könnyebben torzítottak, mint a nagyobbak
- nem lehet pontosan tudni, hogy a minta elég jól reprezentálja-e a populációt néha téves következtetésre
juthatunk emiatt
MINTAVÉTELEZÉSI HIBA a minta paraméterének eltérése a populáció paraméterétől
MINTAVÉTELEZÉSI ELOSZLÁS számos minta paraméterének eloszlása
LEÍRÓ STATISZTIKA
- a számszerű információ összesítése
- csak a mintára vonatkozik
KÖVETKEZTETÉSI STATISZTIKA
- a populációra vonatkozó következtetés a minta alapján
- a populáció paraméterek közvetlenül nem megfigyelhetőek, ezért csak becslést alkalmazhatunk, aminek a
bizonytalanságát is figyelembe kell vennünk
MIT JELENT AZ, HOGY JELENTŐS ELTÉRÉS?
- meg kell határoznunk egy döntési küszöböt statisztikai szignifikancia
- az pszichológia esetében 5%
- tehát a statisztikai szignifikancia meghatározásával azt próbáljuk kizárni, hogy a véletlen kialakuló
különbségeket / összefüggéseket valósnak tekintsük
- replikációra is ezért van szükség, mert ez még mindig nem eléggé biztos módszer
STATISZTIKAI SZIGNIFIKANCIA MEGÁLLAPÍTÁSA
- nullhipotézist és az alternatív hipotézist megalkotjuk
- meghatározzuk a szignifikancia szintet (5%), azaz azt, hogy mennyire valószínűtlen esemény esetében vetjük
el a nullhipotézist
- kiszámítjuk a mintánkban kapott előfordulások valószínűségét kritikus érték
- a kritikus értékét összevetjük a szignifikancia szintjével, és hozunk egy statisztikai következtetést
- elvetjük a nullhipotézist akkor az alternatív hipotézist fogadjuk el
- nem vetjük el a nullhipotézist (DE elfogadni nem tudjuk)
HATÁSMÉRET ÉS ELEMSZÁM ÖSSZEFÜGGÉSE
- minél nagyobb a hatásméret, annál kevesebb megfigyelés kell ahhoz, hogy a valósághoz közeli eredményt
kapjunk
- pl.: minél többször dobjuk fel a pénzt, annál nagyobb a helyes következtetés valószínűsége a csak
HIPOTÉZIS TESZTELÉS
- PICOT rendszer:
o P (populáció) – kikre vonatkozik a kérdés?
o I (indikátor) – minek a hatását vizsgáljuk?
o C (comparison /összehasonlítás) – mihez hasonlítjuk a változást?
o O (outcome / kimenet) – mit mérünk?
o T (time / idő)
- meg kell határoznunk a nullhipotézist (H0) ez mindig azt feltételezi, hogy nincs hatás a populációban
- tehát a nullhipotézist az elvárt predikcióval szemben határozzuk meg
- ami nem nullhipotézis, az „alternatív hipotézis”
- kritikus érték meghatározása (??)
NULLHIPOTÉZIS SZIGNIFIKANCIA TESZTELÉS (NHST)
- abból indulunk ki, hogy a null hipotézis igaz tehát nincs hatás a populációban
- teszteléséhez a nulla köré rakunk egy nevezetes eloszlást (pl.: normális), ami a mintából származó kritikus
értékek lehetséges eloszlását szimbolizálja
- a legvalószínűbb érték a nulla lesz
- a normális eloszlásról tudjuk, hogy az értékek 95%-a két szóráson belül van ha az érték ezen kívül
esik, az azt jelenti, hogy átlépjük a statisztikai szignifikancia határát
- p-érték – megnézzük mennyire esik az eloszlás szélére a kritikus érték (??)
- egy vagy kétfarkú próbák
o egyoldalú = az alternatív hipotézis az, hogy a valós átlag nagyobb/kisebb, mint a nullhipotézis
eloszlásának felső/alsó 5%-a
o kétoldalú = az alternatív hipotézis az, hogy a valós átlag nagyobb vagy kisebb, mint a nullhipotézis
eloszlásának felső és alsó 2.5%-a
P-ÉRTÉK ÉS STATISZTIKAI KÖVETKEZTETÉS
- p = probability (valószínűség)
- annak valószínűsége, hogy ha a nullhipotézis igaz, akkor ugyanakkora kritikus értéket kapjuk a mintában
- ha a szignifikancia szintjénél (5% - 0.05) kisebb vagy egyenlő a p-érték, akkor a statisztikai próba
szignifikáns elutasítjuk a nullhipotézist
- ha a szignifikancia szintjénél nagyobb, akkor a statisztikai próba nem szignifikáns nem tudjuk elutasítani
a nullhipotézist – DE (!!) ez nem azt jelenti, hogy a nullhipotézis igaz
KONFIDENCIA INTERVALLUM ÉS SZIGNIFIKANCIA
- ha egy konfidencia intervallum átnyúlik azon a ponton, ami a hatás hiányát jelenti, az azt jelenti, hogy a hatás
nem szignifikáns
EGYMINTÁS T-PRÓBA
- Guiness cég statisztikusa fejlesztette ki
- arra használhatjuk, hogy megvizsgáljuk, hogy jelentősen eltér-e az átlagos különbség egy referenciaértéktől
- két normál eloszlású érték különbségének eloszlása
- a t eloszlás és a normális eloszlás hasonlítanak mindkettő szimmetrikus és egycsúcsú
- feltételei:
o vizsgált változó legalább intervallum mérési szintű
o normális eloszlású
o az értékek egymástól függetlenek
LEHETSÉGES HIBÁK A STATISZTIKAI KÖVETKEZTETÉSBEN
- ha a mintában megfigyelt hatás más, mint, ami a populációban megfigyelhető
- téves pozitív hiba: a mintában igaz, a populációban hamis elsőfajú hiba
o valótlant állítunk, az az olyan jelenséget tekintünk létezőnek, ami csak a véletlen miatt látszik a
mintában
- téves negatív hiba: a mintában hamis, a populációban igaz másodfajú hiba
o nem találunk meg egy létező jelenséget, mert a mintában éppen nem volt megfigyelhető
SZENZITIVITÁS ÉS SPECIFICITÁS
- szenzitivitás: a valódi pozitív esetek hány százalékát azonosítja a teszt?
- specificitás: a valódi negatív esetek hány százalékát azonosítja a teszt?
- téves negatív arány = 1 – szenzitivitás
- téves pozitív arány = 1 – specificitás
MODELL ÉRVÉNYESSÉGÉNEK FELTÉTELEI
- szignifikancia tesztelés során néhány dolgot előre feltételezünk pl.: azt, hogy ismerjük az értékek
eloszlását a populációban ez an NHST előfeltétele
- megfigyeléseink függetlenek egymástól
- ezeket a feltételeket meg kell vizsgálnunk és közölnünk kell ahhoz, hogy a statisztikai következtetésünk
érvényes legyen
NHST kritikái 5% túl éles kritérium; a null hipotézist nem tudja alátámasztani, csak megcáfolni
a szignifikáns eredményeket gyakrabban publikálják, mint a nem szignifikáns eredményeket publikációs torzítás
egy témakörben hamis kép alakulhat ki a hatás valódi méretéről
NHST ALTERNATÍVÁI
- standard szignifikancia szint csökkentése 5%-ról 0.5%-ra
- éles határ eltörlése; a „statisztikailag szignifikáns” kifejezés helyett árnyaltabban fogalmazni
- p-érték helyett a konfidencia intervallum használata
- resampling módszerek használata vagy bayesiánus statisztika használata
KÖVETKEZTETÉSI STATISZTIKA 3 CÉLJA
- paraméterbecslés: a populáció valamilyen jellemzőjét szeretnénk megbecsülni a minta alapján
- adat-predikció: a mintán megfigyelt paraméterek alapján próbálunk becsléseket tenni a populáció további
elemeire (kauzalitás !!)
- modell-összehasonlítás: statisztikai magyarázó modellek összehasonlítása aszerint, hogy a minta adatokat
melyik magyarázza a legjobban
STATISZTIKAI MODELL azon szabályszerűségek gyűjteménye, amelyek a vizsgált jelenséget alkotják
HATÁSMÉRET
- hatásméret: annak számszerűsített mutatója, hogy mennyire erős egy összefüggés vagy mennyire nagy a
különbség két csoport között
- nem függ a mintamérettől – bár kis mintatméretnél megtévesztő lehet, mivel ez egy pont mérés
- lehet hozzá konfidencia intervallumot is számolni és érdemes ezzel együtt közölni
- hatásméret mutatók standardizáltak mértékegységtől függetlenül megmondható egy hatás nagysága
- két fő „család” van egyiket csoportok közötti különbségekre használják, a másikat a változók közötti
összefüggésekre
FOGALMAK:
- szignifikancia: annak, az esélye, hogy egy populációban nem létező hatást létezőnek látunk a mintában
- statisztikai erő: annak az esélye, hogy mekkora eséllyel találunk meg egy populációban létező hatást a
mintában az a jó, ha 80% és 100% között lenne, de általában 20% alatt van
- hatásméret: egy összefüggésnek vagy különbségnek a nagyságrendje
- mintaméret: egymástól független megfigyelési egységek száma, jellemzően a résztvevők száma
ADATELEMZÉS ÉS STATISZTIKA 05
HEURISZTIKÁK A GONDOLKODÁSBAN
- leegyszerűsített predikciók vagy problémamegoldási stratégiák
- együtt járások megfigyelésen alapulnak – gyakran nem pontosak, de segítenek hatékonyan döntést hozni
- gyakran nem ok-okozati kapcsolaton alapulnak, így egy harmadik változó befolyásolja őket
KÖVETKEZTETÉSI STATISZTIKA 3 CÉLJA
- Paraméterbecslés: a populáció valamilyen jellemzőjét (pl.: átlag, szórás) szeretnénk megbecsülni a minta
alapján
- Adat predikció: a mintán megfigyelt paraméterek alapján próbálunk becsléseket tenni a populáció további
elemeire
- Modell-összehasonlítás: statisztikai magyarázó modellek összehasonlítása aszerint, hogy a minta adatokat
melyik magyarázza legjobban
LEGEGYSZERŰBB MODELL (null modell): ÁTLAG
- amikor a megfigyelések alapján következtetéseket vonunk le, akkor egy modellt alkotunk
- legegyszerűbb (null) modell az átlag ez nem vesz figyelembe a többi változót
- ez minden bementi értékre ugyanazt a kimentet adja
- sok esetben nagyon el fog térni a predikció az egyes értékektől
MENNYIRE PONTATLAN EZ A MODELL?
o vesszük az egyes mérések különbségét a modellünktől (azaz az átlag és a tényleges mérés különbségét
nézzük)
o ezeket a különbségeket reziduálisnak hívjuk (R) (reziduális = maradék, hátrahagyott) mivel nem
érdekel, hogy az adatpont kisebb vagy nagyobb, ezért a reziduálist négyzetre emeljük (SR)
o az így kapott reziduális négyzeteknek vesszük az összegét, hogy megtudjuk, összesen mekkora a
modell hibája (SSR)
o (szóval kb a szórás; hiszen ez az „átlagtól való négyzetes eltérések átlaga”)
o (!!!) ezt megmagyarázhatatlan varianciának hívják (SSR)
LINEÁRIS MODELL/REGRESSZIÓ
- a kimeneti változót megpróbálom egy prediktor változó értékeivel
megmagyarázni azaz, ha tudom a prediktor értékét, akkor tudok egy becslést
tenni a kimeneti változó értékére
- modellt építünk a mért adatainkra, majd a modell segítségével megpróbáljuk a
prediktor változókból bejósolni a kimeneti változót
(itt se lesz nulla az SSR) a cél az SSR minimalizálása
- ha van prediktorunk akkor a regressziós egyenesnek két paramétere van: tengelymetszet (intercept) és
meredekség (slope)
o intercept: ahol az egyenes metszi az y tengelyt
o slope: az egyenes dőlésszöge
o hibatag (residual): az adatponttól az egyenesig húzott szaggatott vonal
- (!!) ha egy prediktorunk van, akkor lineáris regresszió és a korreláció ugyanazt az eredményt fogja adni (!!!)
- standardizálni kell a prediktort és a kimeneti változót is a prediktorhoz tartozó slope értékét úgy kell
értelmezni, mint egy korrelációt
MEGMAGYARÁZOTT VARIANCIA
o más néven R2 minél nagyobb annál jobb a modellünk
o egy 0 és 1 közötti szám (avagy 0% és 100%), ami azt mutatja, hogy a prediktor a kimeneti változó
mekkora részét magyarázza
o a lineáris regresszió továbbra is csak akkor tud kauzális (= ok-okozati) hatást megmutatni, ha a
kutatási elrendezés azt megengedi
JOBB LESZ-E A MODELL A PREDIKTOR HOZZÁADÁSÁTÓL?
- ez egy hipotézis, amit le kell tesztelnünk (ugye az a hipotézisünk, hogy a prediktor befolyásolja a kimenetet)
- a nullhipotézis maga a null modell, azaz, hogy a prediktor nem javítja érdemben a modellünket (tehát nem
csökkenti az SSR-t) azaz a nullhipotézisben nincs hatása a prediktor változónak
- az alternatív hipotézis az, hogy az SSR szignifikánsan kisebb lesz a prediktor hozzáadásával
- a kritikus érték a modellek közötti különbség lesz, pontosabban az SSR és az SST hányadosa
PREDIKTOR SZIGNIFIKANCIÁJA
- nemcsak a teljes modell teljesítményét kell megvizsgálnunk, hanem az egyes paramétereknek a
szignifikanciáját is
- a nullhipotézis a paraméterek esetén az lesz, hogy a paraméter nem különbözik a nullától
- a kritikus érték pedig a paraméter tényleges értéke
LINEÁRIS REGRESSZIÓ LEGFONTOSABB EREDMÉNYEI
- R2: a modell által magyarázott variancia
- F statisztika: a modellt a lehető legrosszabb modellhez hasonlítja (amiben a variancia megmagyarázhatatlan)
ehhez tartozik egy p-érték és/vagy konfidencia intervallum
- modell df: a modell szabadságfoka, azaz a modell bonyolultsága – egyenlő a paraméterek számával
- tengelymetszet (intercept): a kimeneti változó becsült értéke, amikor a prediktor értéke 0 (ahol az y tengelyt
metszi)
- meredekség (slope): az egyenes dőlésszöge
- t statisztika: a modell meredekségének és egy vízszintes egyenesnek a statisztikai összehasonlítása
- prediktor df: a megfigyelések száma
F-ELOSZLÁS
- akkor használjuk, ha két modellt hasonlítunk össze lineáris regressziónál a null modellt hasonlítjuk össze
az alternatív modellel
- az F eloszlás két normál eloszlású változó varianciájának a hányadosának eloszlása csak POZITÍV érték
lehet
- két paramétere van, ami a két normális eloszlású változó szabadságfokát jelenti első df a prediktorok
számából, a mádosik df az adatpontok számából van
VESZTESÉGFUNKCIÓ (loss function)
- ezzel mérjük egy modell pontatlanságát modellépítés célja a veszteségfunkció minimalizálása
- lineáris regresszióban ez a reziduálisok négyzetösszege (MSE, L2 hiány)
- jellemzője, hogy az átlagtól távolabb eső értékek nagyobb hatást gyakorolnak a modellre a négyzetes eltérés
miatt
KONTROLL
- a tudományos módszer egyik célja, hogy izolálja azokat a hatásokat, amiket vizsgál
(izolál = teljesen elkülönít valamit a többi dologtól)
- csak így lehet bebizonyítani, hogy a feltételezett ok és okozat között kauzális kapcsolat van
(kauzális kapcsolat = ok-okozati kapcsolat)
- ehhez valamilyen módon azt kell elérnünk, hogy minden egyéb körülményt (és potenciális zavaró változókat)
kizárjunk (vagy állandóan tartsunk), és csak a feltételezett okot manipuláljuk, hogy megnézzük a hatását (kísérlet)
- nem csak a kísérletes kutatásoknál van lehetőség kontrollálni a zavaró tényezőket
- kontroll fajtái:
o kutatási elrendezés által (control by design)
o kontroll illesztéssel
o randomizációval
o statisztikai kontrol
ILLESZTÉS (matching)
- eset-kontroll kutatásoknál használják, ahol kevés „eset” és sok „kontroll” van
- egy nagyobb mintából vizsgálni kívánt egyedekhez párosítunk olyanokat, akik a kontrollálni kívánt szempontok szerint
hasonlítanak.
- lehet manuális illesztés is
- propensity score matching: egy algoritmus meghatározza, hogy mennyire hasonlóak egymáshoz a résztvevők értékei az
egyes változókon és ez alapján minden résztvevőhöz egy hozzá legjobban hasonlító párt rendelünk
RANDOMIZÁCIÓ
- ha a populációból véletlenszerűen választunk ki elemeket és rendeljük hozzá a kísérleti vagy a kontroll csoporthoz, akkor
a csoportok közötti természetes különbségek kiegyenlítődnek
- mivel a variabilitás természetes, ha megfelelően nagy mintánk van, akkor arra is építhetünk, hogy a megfigyeléseinkben
lévő szélsőségek kiegyensúlyozzák egymást (nagy számok törvénye)
- kis minták esetén előfordulhat, hogy véletlenül a csoportjaink között jelentős különbség alakulnak ki
STATISZTIKAI KONTROLL
- ha két változó korrelál egymással, az lehet amiatt is, hogy valójában mindkettő egy harmadik változóval korrelál (!!)
- olyan is létezik, hogy mindkét változó meghatározza valamennyire a harmadikat
- ilyenkor összekeverednek a hatások, nehéz megbecsülni, hogy melyik tényező mennyire fontos prediktor
- parciális korreláció arra való, hogy kivonjunk a zavaró változó (confounder) hatását egy kapcsolatból
- többszörös lineáris regresszió nem csak egy, hanem több változó hatását is tudja kontrollálni így
ZAVARÓ HATÁSOK KONTROLLÁLÁSA
o először elvégezzük a regressziót csak a confounderrel (zavaró változó)
o utána az abból származó reziduálisokat (megmagyarázhatatlan eltéréseket) próbáljuk egy új regresszióban
prediktálni a változóval
o valójában nem kell „új regressziót” végeznünk, hanem egy regresszióban lehet több prediktor
o ilyenkor a közös hatások kivonódnak, azaz „kontrolláljuk” a zavaró változók hatását
o így lehet az eredményeket statisztikailag függetleníteni a zavaró változóktól
TÖBBSZÖRÖS REGRESSZIÓ:
o technikailag nincs különbség aközött, hogy egymástól független prediktorokat teszünk a modellbe, vagy
confoundereket
o !! DE ha van több prediktor, ami összefügg a kimeneti változóval, akkor kivonódnak a közös hatások
KORRIGÁLT ÉRTÉK:
o amikor „kiparcálunk” egy hatást valamiből, akkor egy korrigált értéket kapunk
o ez számszerűleg azt jelenti, hogy elvégzünk egy regressziót a kontrollálni kívánt változókat használva
prediktorként. Majd a korrigált értékként a prediktált értéket használjuk.
o az ezekből számított átlag a korrigált átlag
MODELLEK ÖSSZEHASONLÍTÁSA
- hasonlóan ahhoz, ahogy a null modelt hasonlítottuk a prediktort tartalmazó modellel, több prediktort tartalmazó modellt
is összehasonlítunk
- a két modell SSR különbsége lesz a kritikus érték, és ezt hasonlítjuk egy F eloszláshoz a 0 körül (nincs különbség)
ekkor azt tudjuk meg, hogy a két modell között van – e szignifikáns különbség
- ha két vagy több modellt ugyanazokon az adatokon illesztünk, akkor a kritérium statisztikák, úgy mint AIC és BIC érték
alapján meg tudjuk mondani, hogy melyik a jobb modell
- 2-nél nagyobb különbség azt jelenti, hogy a különbség jelentős ( tehát, ha az AIC-nél a különbség 2 vagy több)
PARSZIMÓNIA ELVE
- a parszimónia elve egy heurisztika a tudományos gondolkodásban, ami azt mondja ki, hogy mindig az egyszerűbb
magyarázatot kell elfogadnunk, amíg nincs bizonyíték a bonyolultabb magyarázatra
- az a statisztikai modellek összehasonlításakor alkalmazható
- az AIC összehasonlításánál két egységnyi különbségtől mondhatjuk azt, hogy a két modell különbözik
- ha a különbség 2-nél kisebb, akkor az egyszerűbb modellt kell választanunk (kisebb paraméterek száma, azaz a
modell df)
MODELL ÉPÍTÉS
- modell kiválasztási stratégiák:
o minden beléptetése egyszerre (Forced Entry):
elméleti tudás alapján, jó módszer a megerősítő hipotézis tesztelésére
kevés adat esetén túl könnyen utasíthatjuk el az alternatív hipotézist
o lépcsőzetes (Stepwise) nem javasolt
prediktorokat egy algoritmus választja ki; nehezen értelmezhető
o Hierarchikus ajánlott feltáró adatelemzés során
ismert prediktorok először (kiegészítő hipotézis)
új prediktorok később (ezek vonatkoznak a valódi hipotézisre)
o Gépi tanulási módszere pl.: regularizált regresszió
jól használható nagyon sok prediktor esetén (akár több ezer)
van egy saját módszertana
- prediktor = független változó, ami a kimeneti változót határozza meg
o főhatás: egy prediktor hatása a kimeneti változóra, függetlenül a többi prediktortól
o moderátor: amikor egy prediktor hatása megváltozik egy másik prediktro függvényében
o confounder: olyan változó, ami erősíti vagy gyengíti más független változó hatását a kimeneti változóra
o szupresszor: olyan prediktor, ami nem függ össze a kimeneti változóval, de más prediktorokkal igen, így azok
hatását elnyomja
IMPLICIT HIPOTÉZIS
- a hipotézisnek olyan ki nem mondott részei, amelyek fontosak a hipotézis szempontjából
- a confounder változók gyakran implicit hipotézisként vannak jelen
(pl.: hipotézis a depresszió és álmatlanság összefüggenek; implicit hipotézis függetlenül az életkor hatásától {ami
egy ismert confounder})
- úgy tudjuk ezt vizsgálni, ha a kiinduló statisztikai modellünk először csak a confoundereket tartalmazza és ezt
hasonlítjuk össze azzal a modellel, amiben a confoundereken felül már a hipotézisünkben szereplő prediktor is benne van
MULTIKOLLINEARITÁS
- multikollinearitás: a prediktorok nem függenek egymástól túlzott mértékben (nincs köztük erős korreláció)
- VIF (Variance Inflation Factor): minden prediktorra kiszámolva mutatja, hogy mennyire jár együtt a többi prediktorral
(1: nincs multikollinearitás; 5-10: van; 10: erős multikollinearitás)
- strukturális multikollinearitás: amikor egy prediktor többféle formában is bekerül a modelbe (pl.: főhatásként vagy
interakcióként) ezt tudjuk kezelni, ha a prediktort centralizáljuk
- adat multikollinearitás: a prediktorok valamilyen módon összefüggenek
(pl.: ha egy kutatásban több különböző skálával mérjük a szorongás szintjét, azok kiolthatják egymást a modellben)
ilyen esetben csak egy skálát tegyünk bele vagy vonjuk össze a skálákat
SZUPRESSZOROK
- olyan változó, ami a kimeneti változóval nincs kapcsolatban, de a prediktorokkal igen és a prediktor együtthatóját így
csökkenti (vagy növeli), ha berakjuk a modellbe
- nem teljesen azonos a multikollinearitással, mert ott a prediktor összefügghet a kimeneti változóval
SZEMÉLYEK KÖZÖTTI ELRENDEZÉS (between subject design) elkülönítjük a független mintás elrendezést
- csoportok összehasonlítása aszerint, hogy van-e különbség a csoportok és az összefüggő mintás elrendezést
között a kimeneti változó átlagában
független mintás elrendezés --> a
- pl.: van-e különbség a depresszió pontszámában aszerint, hogy valaki
mintáinkat eltérő személyek alkotják (pl.:
egyedül él vagy társsal, férfi v. nő… nők és férfiak; kontroll és kísérleti csoport)
SZEMÉLYEN BELÜLI v. ISMÉTELT MÉRÉSES ELRENDEZÉS (within összefüggő mintás elrendezés -->
subject design) ugyanazok a személyek fognak részt venni
eltérő időben --> pl.: terápia előtt és terápia
- ugyanazon személyek ismételt megfigyelése, és a változás mértékének
után; vagy pl.: online oktatásban vagy
megfigyelése a kimeneti változóban hagyományos oktatásban tanultak jobban a
- pl.: depresszió pontszám változása házasság előtt, után, 1 évvel később, diákok
stb…
T-PRÓBA
- EGYMINTÁS T-PRÓBA
o kutatási kérdés: jelentősen különbözik-e a referenciaértéktől a csoportátlag?
o kritikus érték: a mintaátlag és referenciaérték különbsége
- FÜGGETLEN MINTÁS T-PRÓBA
o kutatási kérdés: jelentősen különbözik a két csoport átlaga?
o kritikus érték: a két mintaátlag különbsége
- értelmezhetőségének feltételei:
o az adatok folytonosak és legalább intervallum (az értékek közötti távolság egyenlő) szintűek legyenek
o az értékek eloszlása normális
o a független mintás t-próba további feltételei:
az értékek az egyes csoportokban függetlenek egymástól
szóródáshomogenitás: a két csoport szórása nem különbözik jelentősen
-függetlenség, skála mérési szint, szóráshomogenitás, normalitás -megengedi, hogy kettőnél több mintát hasonlítsunk
össze (ha kettő minta van, akkor inkább T-próbát
(normális eloszolás) ezek a parametikusság négy feltétele + a használunk)
linearitás lehet az 5. feltétel - ha 2-nél több kategorikus prediktor van, azt
- függetlenség feltétele faktoriális ANOVA-nak hívjuk
ANOVA: - miért nem végzünk több T-próbát ehelyett? -->
- az egyik csoportot baseline-nak használjuk és a másik azért, mert minél több t-tesztet végzünk, annál jobban
nő az elsőfajú hiba aránya
csoportokat ahhoz hasonlítjuk azaz az egyik csoportot 0-nak --> ezt a felhalmozódást nevezzük Family-wise
és a többit 1-nek vesszük (dummy kódolás) a modell errornak -- amikor több hipotézist tesztelünk
szignifikanciája megegyezik az ANOVA eredménnyel ugyanazon az adaton
- függő változó = másnéven kimeneti változó (ennek
az értékét szeretnénk bejósolni) - okozat
- független változó = másnéven prediktor (ezzel
szeretném magyarázni a különbségeket) - ok
- ANalysis Of VAriances (varianciaanalízis) több átlag összehasonlítására való
- hasonlóan működik, mintha lineáris regressziónál a különböző csoportoknak különböző interceptje lehetne
- itt is használhatjuk a reziduálisokat a modell jóságának a mérésére
- feltételei:
o az adatok legálabb intervallum szintűek (az értékek közötti távolság egyenlő)
o a mintaeloszlás normális
o az egyes csoportokban lévő értékek függetlenek egymástól
o szóródás-homogenitás az összes csoport között (homogenitás = egyneműség)
- robusztos (nem parametikus) ANOVA:
o Kruskal-Wallis teszt
o ugyanúgy leírható regresszióként, azzal a különbséggel, hogy a kimeneti változót rang
transzformáljuk
- varianciaanalízis hatásmérete: ete-négyzet kicsi hatás – 0.02; közepes hatás – 0.13; nagy hatás – 0.26
REGRESSZIÓ ANOVA
- megfigyeléses kutatási hagyományból jön - kísérletes kutatási hagyományból jön
- egy általánosan használható elemzési módszer - valójában a regresszió egy specializált formája
- bármilyen prediktort használhatunk - a sima ANOVA csak csoportok
- a kategorikus prediktoroknál a regresszió rögtön összehasonlítására alkalmas (kategorikus
a baseline szinthet (intercept) hasonlítja a többi prediktorok
szintet - először a kategorikus prediktorok összesített
hatását látjuk, az egy további lépés, hogy melyik
szintet melyikkel hasonlítjuk össze
POST-HOC TESZTEK
- az összes prediktor szintet összehasonlítjuk az összes többi prediktor szinttel
- ezek t-próbák, így pontosan lehet tudni, hogy melyik kategória értéke melyiknél nagyobb szignifikánsan
- minél több kategóriánk van, annál több összehasonlítást kell végeznünk
- az összes ismétlés nélküli kombináció xn = n ( n-1) = 2
KONTRASZTOK
- hipotézis alapú predikciók, amik meghatározzák azt, hogy melyik csoportok között várunk különbséget
TÖBBSZÖRÖS TESZTELÉSBŐL FAKADÓ TÉVEDÉSEK
- a nullhipotézis tesztelés logikájából adódóan minél több statisztikai próbát végzünk, annál nagyobb az esélye
hasis pozitív eredménynek (első fajú hiba)
- többszörös statisztikai összehasonlításnál megnő az esélye, hogy olyan eredményt fogadunk el, ami nem
létezik a populációban
- a post-hoc tesztek során minden kategória összehasonlítása egy külön statisztikai próbának számít
- Family wise error: egy vagy több hibás pozitív következtetés esélye az összes elvégzett próbához képest,
amikor több hipotézist tesztelünk
- False Discovery Rate: téves pozitív következtetések aránya a szignifikáns próbák számához képest
KÖVETKEZTETÉSEK KORRIGÁLÁSA
- Bonferroni korrekció: a szükséges szignifikancia elosztása annyival, ahány összehasonlítást végzünk
- Ez csökkenti az téves pozitív eredmények számát, de növeli a téves negatívok számát is.
- Más korrekciós eljárások nem ilyen szigorúak, de bonyolultabbak (pl. Holm korrekció, B-H korrekció).
- Praktikusan korrigálhatjuk a szignifikancia szintjét, vagy a p értéket is
TERVEZETT KONTRASZTOK
- Az előre deklarált hipotézisek meghatározzák, hogy melyik kategóriák között várunk különbséget.
o Pl. a kezelt csoport depresszió pontszáma alacsonyabb lesz, mint a kontroll csoport pontszáma.
o A több alkoholt fogyasztó csoport reakcióideje alacsonyabb lesz.
- Csak azokat az összehasonlításokat végezzük el, amit a hipotézis meghatároz.
- Így nem kell kontrollálnunk a többszörös összehasonlításból adódó FWER-t.
KLASSZIFIKÁCIÓS MODELL
- logisztikus regresszióban amikor predikciót készítünk, akkor a kimeneti esemény valószínűségét kapjuk meg, ami 0-1
közötti szám
- döntési küszöb meghatározása (mi az a valószínűség, ami fölött túlélte a Titanicot?)
- nem lehet önkényesen 0.5-ben meghatározni, mert a küszöb problémafüggő több küszöbértéket is lehet
- pontosság azt nézzünk, hogy eltaláltuk-e a kategóriát vagy nem; kiszámíthatnánk a modell pontosságát, ha vesszük a
helyesen eltalált esetek és az összes eset hányadosát a pontosság nem egy megbízható mutatója a modell
teljesítményének
ROC GÖRBE
- olyan mérőszámot ad, ami a döntési küszöb független és nem függ a kimeneti esemény előfordulásának arányától sem
- az összes küszöb esetében megvizsgálja, hogy a modell helyes pozitív (szenzitivitás) és téves pozitív (specificitás) aránya
hogyan alakul
- ha egyenes arányban áll egymással a TP (y tengely) és FP (x tengely), az azt jelenti, hogy a modell nem működik
- ha a TP végig maximum, az FP minimum, az azt jelenti, hogy a modell tökéletes (ehhez próbálunk közelíteni)
- többnyire egy görbét kapunk, ami felfelé görbül
- értékelni úgy tudjuk, hogy vesszük a görbe alatti területet (AUC – area under curve) ez az érték mindenképp 0 és 1
közötti lesz
- az a modell, ami mindig téved, annak 0 lesz az AUC és, ami mindig helyes, annak 1
- értékek nem lehetnek 0-nál kisebbek; az értékek diszkrétek, azaz egész számok (pl.: nevetések száma)
- ilyen adatok eloszlását Poisson eloszlásnak hívjuk egy paramétere van (lambda), ami egyben a várt érték és annak
varianciája
- Poisson eloszlás diszkrét és jobbra ferde
POISSON REGRESSZIÓ
- GLM-mel lehet végezni, ahol, másik link függvényt használunk (log)
- itt is exponenciális transzformációval lehet relatív kockázatként értelmezni
- annak a kockázatát mutatja, hogy az esemény bekövetkezik az egyik csoportban egy másik csoporthoz képest
(kategorikus prediktor)
- vagy folytonos prediktor esetén, azt a kockázatot mutatja, hogy egy egység növekedés a prediktorban hányszorosára
növeli az esélyét annak, hogy a kimeneti mennyiségből eggyel több legyen
ADATREDUKCIÓ
- információ tömörítése: változók összevonása sok változóból kevés változó, úgy, hogy minél kevesebb információ
vesszen el
- pszichológiai konstruktumok mérése: a kérdések mögött megbúvó látens faktorok pl.: kérdőív fejlesztéshez szükséges
- lépésie:
1. adatgyűjtés
2. feltételek vizsgálata
3. faktorkivonás
4. faktorforgatás
5. faktorok interpretálása
6. faktorértékek kiszámítása minden résztvevőhöz, hogy az elemzés további lépéseihez használhassuk ezeket
- előfeltételei: multikollinearitás (változók korrelálnak egymással); megfelelő elemszám
- előfeltétel tesztelése:
o KMO teszt: az adatok mennyire vethetőek alá adatredukciónak, illetve elég-e az adat. értéknek 0.5 felettinek
kell lennie (0.8 felett számít jónak)
o Bartlett teszt: mennyire hasonlít a változóink korrelációs mátrixa egy indentitásmátrixra (nincs kapcsolat a
változók között) – akkor van értelme az adatredukciónak, ha van különbség
- alapfogalmak:
o kommunalitás a változó közös varianciája, amit megoszt az összes többi változóval (ha értéke 1, akkor nincs
egyedi varianciája, ha értéke 0, akkor csak egyedi varianciája van)
o sajátérték mennyire kifejező a komponens/faktor (hány változónyi adatot tartalmaz) – relatív szám, függ a
változók számától
o faktortöltés egy változó hozzájárulása az adott faktorhoz (hasonlóan értelmezhető, mint a korreláció)
o faktor érték a látens változón megbecsült érték, ami az adott résztvevőhöz tartozik (standardizált érték)
FAKTORKIVONÁS
- egy iteratív folyamat során a PCA algoritmus megtalálja a változóknak azt a lineáris kombinációját, ami a legtöbb
információt hordozza
- PCA: lineáris kombináció
- Faktoranalízis: több módszer
o Maximum Likelihood (változók normalitása szükséges)
o Principal Axis Factoring (normalitás nem szükséges)
o Diagonally weighted least squares (kategorikus változókhoz)
- a faktortöltéseket tartalmazó táblázatot úgy kell értelmezni, hogy az adott item mennyire korrelál az egyes faktorokkal
- az alapján látjuk, hogy melyik item melyik skálára tölt a leginkább
- gyakran előfordul, hogy egy item több faktorra is tölt hasonló mértékben, azt hivják kereszttöltésnek
FAKTORTÖLTÉSEK
- ha a faktorsúlyt négyzetre emeljük, akkor megkapjuk az adott változó lényegi fontosságának mértékét a faktorban (relatív
hozzájárulás)
- azt mutatják, hogy mennyire fontos egy adott változó egy adott faktoron belül (mely változók alkotják mely faktorokat)
- általában a kutatók fontosnak tartják a 0.3-nál nagyobb abszolút értékű terhelést
- DE !! a faktortöltés jelentősége a minta méretétől függ
FAKTOR FORGATÁS
- több faktor esetén van értelme
- nem javítja a faktorok illeszkedését
- növeli a faktorok értelmezhetőségét, úgy, hogy a faktorok leginkább csak egy faktorra töltsenek
- két fő megközelítés: ortogonális/merőleges (korrelálatlan faktorok) és ferde (korrelálhatnak a faktorok) forgatás
- több forgatási eljárás létezik, a leggyakrabban a varimax (ortogonális) és a direct oblimin (ferde) változatokat használjuk
KONFIRMÁTOROS FAKTORELEMZÉS
- EFA-t akkor használunk, ha új kérdőívet fejlesztünk és meg kell határozni, hogy mi a faktorstruktúra
- ha ismerjük a faktorstruktúrát, akkor ellenőrzésére ne EFA-t használjunk !!, hanem konfirmátoros faktorelemzést (CFA)
- CFA a strukturális egyenlet modellezés (SEM) módszerek közé tartozik
- SEM lényege, hogy az adatokre egy elméleti modellt próbálunk illeszteni, ami sok összefüggő regresszióból áll, és az
illeszkedés alapján tudjuk megállapítani, hogy az elméleti modell mennyire alátámasztható
- SEM nem része az alapképzésnek, de fontos tisztában lenni vele
- mikor használjuk? már létező faktor struktúra ellenőrzésénél; bonyolultabb faktorszerkezet vizsgálásánál
ADATELEMZÉS ÉS STATISZTIKA 12
KONKLÚZIÓ
- bonyolult adatok elemzésének eredménye nagyban függ igazolható, de szubjektív döntésektől is
- ezért az egymásnak ellentmondó eredmények nemcsak az alacsony statisztikai erő és a QRPk használatának
köszönhetőek
- ez nem jelenti azt, hogy az eredményeket mindenki úgy értelmezheti, ahogy akarja, hanem azt, hogy a tudományos
folyamat részeként néha szubjektív döntéseket kell meghozni
- ezek hatását akkor lehet legjobban ellensúlyozni, ha transzparensek vagyunk velük kapcsolatban (open science)
REPLIKÁCIÓK JELENTŐSÉGE
- pszichológiai kutatások megismételhetősége viszonylag alacsony
- emiatt fontos, hogy az új eredményeket független mintán replikáljuk
- replikáció lehet teljes vagy konceptuális
- a konceptuális replikáció esetében a kérdésfelvetés lényegét próbáljuk megragadni és nem pont ugyanazt a kísérleti
ingert vagy mérőeszközt használjuk
- ha egy replikáció nem ugyanazt azt eredményt hozza, az több dolog miatt is lehet
o az eredeti tanulmány téves pozitív
o a replikáció téves negatív
o mindkettő eredmény helyes, de egy lényeges körülmény különbözött
- egy új kutatás azt találta, hogy az eredeti szerzők által jóváhagyott protokoll nem jár magasabb replikációs aránnyal
FELTÁRÓ ADATELEMZÉSEK
- kutatást explorátorosként mutatjuk be, azaz nem tesztelünk rajta hipotéziseket (így pl. p értékeket sem kell számítani)
- szignifikancia szintjének lecsökkentése (többszörös tesztelésnél)
- az összefüggések igazolása egy új adathalmazon
- az adatok egy részének félrerakása ellenőrzés céljából (holdout dataset) így a hipotézisgenerálás és az ellenőrzés két
külön adathalmazon tud megvalósulni