Download as docx, pdf, or txt
Download as docx, pdf, or txt
You are on page 1of 25

ADATELEMZÉS ÉS STATISZTIKA 01

TUDOMÁNY (= e bennünket körülvevő világ megismerésére irányuló tevékenység)


- célja, hogy a körülöttünk lévő világról általánosan használható magyarázatokkal szolgáljon
- magyarázatok alapján képesek vagyunk predikciókat alkotni (milyen eseménynek milyen következménye
lesz)
FALSZIFIKÁCIÓ (= megcáfolhatóság)
- a hipotézis csak akkor tekinthető tudományosnak, ha megcáfolható (!!)
TUDOMÁNYOS ALAPELVEK (Merton 1979)
- kommunalizmus: a tudomány mindenkié
- univerzalizmus: nem az számít, hogy ki állít valamit, hanem az, hogy milyen erős az állítás mögötti
bizonyíték
- érdekmentesség: a tudományban a közjó előnyt élvez az egyéni érdekek helyett
- szervezett szkepticizmus: a tudományos állításokat kritikus vizsgálatnak kell alávetni elfogadás előtt
DEDUKCIÓ
- előfeltevésekből logikai levezetés által jut el a következtetésig (konklúzió)
- azaz általános szabályokból következtet az egyedi működésre
INDUKCIÓ
- megfigyelés segítségével következtet általános törvényszerűségre
- azaz egyedi esetekből alkot átfogó szabályokat
HIPOTÉZIS  egy jelenségre adott lehetséges magyarázat, ami kiindulópontként szolgálhat a tényleges
magyarázat megtalálásában

TUDOMÁNYOS EREDMÉNYEK KÖZLÉSE


- szigorú minőségellenőrzésen mennek keresztül, tehát általában megbízhatóak a közlemények
- az új kutatási eredmények tudományos folyóiratokban jelennek meg
- előzetes eredményeket konferenciákon adják elő, vagy nem hivatalos internetes csatornákon (blog, podcast)
tudományos cikk
- nyelvezete szárazabb a köznapi nyelvnél
- minden állítás forrása fel van tüntetve (-- ellenőrizhetőek)
- 5 főrészből áll  összefoglalóval (absztrakt) kezdődik – bevezető – módszer rész – eredmények – diszkusszió

REPLIKÁCIÓ  egy kutatás megismétlése egy másik mintán

PREREGISZTRÁCIÓ
- azt jelenti, hogy a kutatók egy nyilvános tárhelyen vagy folyóiratban rögzítik a kutatási tervüket és
hipotéziseiket
- az adatgyűjtés és elemzés során ezt a tervet kell követniük
NEGATÍV EREDMÉNYEK KÖZLÉSE
- preregisztráció lehetővé teszi, hogy egy jól megtervezett és kivitelezett kutatást az eredményektől függetlenül
publikáljanak
- ez növeli a negatív eredményt közlő cikkek számát
METAANALÍZIS  több tudományos tanulmány eredményeit veti össze (akkor ha azok ugyanazzal a kérdéssel
foglalkoznak)
ADATELEMZÉS ÉS STATISZTIKA 02

Általában nem kézzel fogható dolgokat mérünk pszichológiában  összefoglaló nevük konstruktum
reliabilitás  megbízhatóság; validitás  érvényesség
 arra törekszünk, hogy a konstruktumokat megbízhatóan és érvényesen tudjuk mérni
VÁLTOZÓK MÉRÉSI SZINTJEI
- diszkrét: csak bizonyos értékeket vehet fel
o kategorikus: az értékek nem rendezhetőek sorba (pl.: nem)
o ordinális: az értékek sorba rendezhetőek, de szintek közötti különbség nem egyenlő (pl.:
iskolázottság)
- folytonos: bármilyen értéket felvehet egy bizonyos értéktartományban
o intervallum: az értékek közötti távolság egyenlő (pl.: IQ, hőmérséklet)
o arány: van valódi nulla értéke (pl.: távolság)
ADAT GRANULARITÁS
- változó szintjeinek a számát jelenti  azaz, hogy hány különböző értéket tud felvenni egy változó
- kiszámítás: (max. érték – min. érték)* itemek száma + 1
ADAT  olyan információk, amelyeket megfigyelések alapján rendszerezetten gyűjtünk
- adatpont: egy mérésből származó érték
- megfigyelés: ugyanannak a megfigyelési egységnek az összes adatpontja
- változó: több megfigyelési egységnek az ugyanarra a mérésre adott értékei
- adattábla: közös táblázatban lévő változók és megfigyelések
- hiányzó adat: nem rögzített adatpont (NA)
- hibás adat: hibás rögzítés miatt került bele az adattáblázatba
- outlier: olyan érték, ami a többitől távol esik  kiugró adatpont
ÉRTÉKEK ELOSZLÁSA
- fontos látnunk, hogy melyik értékek jellemzőbbek a mintára és melyek számítanak ritkának  ez az eloszlás
- a diszkrét változók gyakorisága, az az, hogy hányan választották az egyik opciót
MIVEL LEHET AZ ELOSZLÁST ÁBRÁZOLNI?
o dotplot: az x tengely az értéktartomány; minden adatot egy pötty jelképez
o hisztogram: x tengely a változó értéktartománya; az y tengely a gyakorisága; oszlopok
o boxplot
ADATOK ÖSSZESÍTÉSE
- arra törekszünk, hogy az összesített érték jól reprezentálja a teljes mintát, de annak a bizonytalanságát is
érzékeltesse
ÖSSZESÍTŐ STATISZTIKÁK
o gyakoriság (frequency): a megfigyelések száma
o összeg (summary): egy változó összes értékének összeadásával keletkező érték
o arány (proportion): a megfigyelések száma az összes megfigyeléshez képest
KÖZÉPÉRTÉK
- matematikai átlag (mean, average): az értékek összege elosztva az értékek számával
- medián (median): a nagyság szerint sorba rendezett értékek közül a középső (ha páros számú érték van, akkor
általában a középső kettő átlaga)
- módusz (mode): a leggyakrabban előforduló érték
SZÉLSŐÉRTÉKEK
- minimum: legkisebb
- maximum: legnagyobb
- outlier: olyan érték, ami a többitől távol esik
o ha kitöröljük az outliert, akkor megváltozik az átlag
o a mediánra kicsi hatással van az outlier; a móduszra nincs hatással
RANG TRANSZFORMÁCIÓ
- néha nem a nyers értékek fejezik ki legjobban az adatokban lévő összefüggéseket, hanem az értékek rangja
- értékeket sorba rendezzük, és az érték sorban elfoglalt helye lesz az új érték
- a változó mérési szintje ordinálissá változik
- az egyenrangú elemek kezelésétől függően létezik többféle sorba állító algoritmus
ADATOK STANDARDIZÁLÁSA
- centrálás: kivonjuk a csoportátlagot minden értékből
- skálázás: elosztjuk az összes értéket a szórással
- standardizálás: centrálás és skálázás (más néven z-transzformáció)
ADATVIZUALIZÁCIÓ
- segít meglátni az összefüggéseket és az adatokban lévő hibákat  fontos, hogy ne legyen túl bonyolult
ADATELEMZÉS ÉS STATISZTIKA 03

VALÓSZÍNŰSÉG
- bizonytalan kimenetelű események leírására használják
- egy esemény bekövetkezésének számszerű esélye  0 és 1 között (vagy 0% és 100%)
- próba: minden egyes alkalom, amikor tesztelünk valamit
- kimenetel (outcome): próba eredménye
- kimeneti lehetőségek (sample space): az összes lehetséges kimenetel
- siker: az a kimenetel, amit várunk
- sikerek számát elosztjuk a próbák számával
SŰRŰSÉGFÜGGVÉNY
- egy adott folytonos eloszlással kapcsolatban azt mutatja meg, hogy egy véletlenszerűen kiválasztott érték
mekkora eséllyel esik egy adott tartományba
CUMULATIVE DENSITY FUNCTION
- folytonos változók esetében azt mutatja meg, hogy egy eloszlás értékeinek mekkora része van egy bizonyos
érték fölött/alatt
- értelemszerűen ez a függvény csak nőni vagy stagnálni tud
- minél nagyobb a szórás, annál jobban ellaposodik a függvény
NEVEZETES ELOSZLÁSOK
- nevezetes eloszlások az adatok természetéből következnek  leírhatóak egy sűrűségfüggvénnyel
- Bernoulli eloszlás
o csak két lehetséges érték van (0/1)
o szükséges paraméter: a siker (1) esélye – tehát a sikerek aránya
- uniform eloszlás
o minden értéknek ugyanakkora az elméleti valószínűsége
o szükséges paraméterek: minimum és maximum érték (értéktartomány)
- binomiális eloszlás
o x darab Bernoulli próbából hányszor következik be a megfigyelt esemény
o szükséges paraméterek: próbák száma, a siker esélye
- Poisson eloszlás
o 0 a legkisebb értéke, de elméleti maximuma nincs
o egy paramétere van csak: lamba (leggyakoribb értéket és a szórást is meghatározza)
- normális eloszlás
o folytonos eloszlás; egycsúcsú, szimmetrikus
o szükséges paraméterek: átlag és szórás
- eloszlás ferdesége  amikor nem szimmetrikus egy eloszlás, lehet pozitív (jobbra) ferde vagy negatív
(balra) ferde
CENTRÁLIS HATÁRELOSZTÁS ELVE
- a minták számának növekedésével a mintaátlagok eloszlása közelít a normális eloszláshoz
- ez akkor is igaz, ha a populációban lévő értékek eloszlása nem normális
ESÉLY ÉS VALÓSZÍNŰSÉG
(kontigencia táblák  változók közös eloszlását mutatják meg)
- valószínűség: kimeneti esemény bekövetkezik / összes eset
- esély: kimeneti esemény bekövetkezik / kimeneti esemény nem következik be
- ezek önmagukban nem válaszolnak a két változó kapcsolatára, ahhoz ezek arányát kell kiszámítani
- esélyhányados: annak az esélye, hogy a kimeneti esemény megtörténik egy prediktor esemény bekövetkezése
esetén, a prediktor esemény hiányához képest
RELATÍV KOCKÁZAT
o ez az esélyhányadoshoz hasonlóan a kapcsolat erősségét mutatja a prediktor és a kimeneti változó
között
o annak kockázatát mutatja, hogy egy esemény mennyivel valószínűbb az egyik csoportban egy másik
csoporthoz képest
MINTA ÉS POPULÁCIÓ
- a populáció egy meghatározott csoport összes lehetséges tagja (pl.: az összes egészséges ember)
- a minta a megfigyelt populációból kiválasztott egyedek részhalmaza
- egy populációból közel végtelen számú mintát vehetünk
MINTAVÉTELEZÉS
- reprezentatív: a populáció tipikus egyedeit arányosan képviselő
- a minta alapján tudunk becsléseket tenni a populáció jellemzőire  máshogy nem tudunk információhoz jutni
- a minta viszont soha nem tökéletes reprezentációja a populációnak  mindig valamennyire torzított
- a kisebb minták könnyebben torzítottak, mint a nagyobbak
- nem lehet pontosan tudni, hogy a minta elég jól reprezentálja-e a populációt  néha téves következtetésre
juthatunk emiatt
MINTAVÉTELEZÉSI HIBA  a minta paraméterének eltérése a populáció paraméterétől
MINTAVÉTELEZÉSI ELOSZLÁS  számos minta paraméterének eloszlása

STANDARD HIBA (SE)


- azt a bizonytalanságot fejezi ki, amiben a populációátlagtól eltérhet a mintaátlag
- az „átlag standard hibája”
- minél nagyobb a mintaméret, annál biztosabbak lehetünk abban, hogy a populációátlagot jól közelítettük meg
PONTBECSLÉS ÉS INTERVALLUM BECSLÉS
- amikor a populáció átlagot a mintaátlag alapján próbáljuk megbecsülni, akkor pontbecslést végzünk
- arra, hogy a pontbecsléssel eltaláljuk a populáció átlagot, viszonylag kicsi az esély
- a pontbecsléssel szemben intervallumbecslést is végzünk, ekkor azt próbáljuk meghatározni, hogy milyen
határokon belül kell lennie a populáció átlagnak
KONFIDENCIA INTERVALLUM
- hibahatár, bizonytalanság-mutató  mennyire van közel a populáció paraméterhez a becslés
- az intervallum, amibe a minta paraméterek bizonyos százaléka (ált. 95%) beleesik, ha sok mintát veszünk
SZABADSÁGFOK (df)
- a minta paraméterek nem ugyanazok, mint a populáció paraméterek
- a df a megfigyelések száma, amit a populáció paraméter becsléséhez használunk
- a legtöbb statisztikai paraméter kiszámítása esetében df nem egyenlő N-nel
- a df azzal függ össze, hogy a minimum elemszám, ami kell a becsléshez (df = N-1)
- ha df = 0, akkor nem lehet elvégezni a becslést
RESAMPLING MÓDSZEREK
- lényege, hogy a mintából véletlenszerűen elemeket választunk ki és azokból kiszámítjuk a mintaparamétert
- ezt sokszor megismételjük, így bármennyi mintát szimulálhatunk
PERMUTÁCIÓS TESZTELÉS
- megállapítjuk a különbséget a csoportjaink átlaga között  kritikus érték (!!)
- a meglévő mintánk alapján sok új, véletlenszerű mintát képzünk, ahol összekeverjük a csoportbeosztást
- kiszámítjuk a minta paraméter
- megvizsgáljuk, hogy mekkora gyakorisággal kapunk a kritikus értéknél nagyobbat
- az, hogy az esetek hány %-ában kaptunk a kritikus értéknél nagyobb / kisebb értéket
- ekkor meg tudjuk mondani, hogy mennyire ritkán fordulhat elő az adatainkban lévő különbség
BOOTSTRAPPING
- az elemeket a kiválasztás után visszatesszük, így újra választhatóak lesznek
- emiatt egy végtelen mintából végtelen számú bootsrap minta képezhető, amelyek akármekkorák lehetnek
- ezek a konfidencia intervallumok nem feltétlenül szimmetrikusak, és nem is kell hozzá feltételeznünk egy
populáció eloszlást
- így tudunk bootsrappelt átlagot és konfidencia intervallumot számítani, amelyek robusztusak az outlierekre és
egyéb feltételek megsértésére
SZIMULÁCIÓ
- a szimulációnál még adatgyűjtésre sincs szükségünk
- lényege, hogy általunk meghatározott paraméterekkel és eloszlás szerint véletlenszerűen generálunk
értékeket fontosnak vélt változókba
- megfigyeljük, hogy bizonyos szabályok esetén a minták hány százalékában milyen következmények
fordulnak elő
- egy nagyon széleskörűen alkalmazható eljárás
ADATELEMZÉS ÉS STATISZTIKA 04

LEÍRÓ STATISZTIKA
- a számszerű információ összesítése
- csak a mintára vonatkozik
KÖVETKEZTETÉSI STATISZTIKA
- a populációra vonatkozó következtetés a minta alapján
- a populáció paraméterek közvetlenül nem megfigyelhetőek, ezért csak becslést alkalmazhatunk, aminek a
bizonytalanságát is figyelembe kell vennünk
MIT JELENT AZ, HOGY JELENTŐS ELTÉRÉS?
- meg kell határoznunk egy döntési küszöböt  statisztikai szignifikancia
- az pszichológia esetében 5%
- tehát a statisztikai szignifikancia meghatározásával azt próbáljuk kizárni, hogy a véletlen kialakuló
különbségeket / összefüggéseket valósnak tekintsük
- replikációra is ezért van szükség, mert ez még mindig nem eléggé biztos módszer
STATISZTIKAI SZIGNIFIKANCIA MEGÁLLAPÍTÁSA
- nullhipotézist és az alternatív hipotézist megalkotjuk
- meghatározzuk a szignifikancia szintet (5%), azaz azt, hogy mennyire valószínűtlen esemény esetében vetjük
el a nullhipotézist
- kiszámítjuk a mintánkban kapott előfordulások valószínűségét  kritikus érték
- a kritikus értékét összevetjük a szignifikancia szintjével, és hozunk egy statisztikai következtetést
- elvetjük a nullhipotézist  akkor az alternatív hipotézist fogadjuk el
- nem vetjük el a nullhipotézist (DE elfogadni nem tudjuk)
HATÁSMÉRET ÉS ELEMSZÁM ÖSSZEFÜGGÉSE
- minél nagyobb a hatásméret, annál kevesebb megfigyelés kell ahhoz, hogy a valósághoz közeli eredményt
kapjunk
- pl.: minél többször dobjuk fel a pénzt, annál nagyobb a helyes következtetés valószínűsége a csak
HIPOTÉZIS TESZTELÉS
- PICOT rendszer:
o P (populáció) – kikre vonatkozik a kérdés?
o I (indikátor) – minek a hatását vizsgáljuk?
o C (comparison /összehasonlítás) – mihez hasonlítjuk a változást?
o O (outcome / kimenet) – mit mérünk?
o T (time / idő)
- meg kell határoznunk a nullhipotézist (H0)  ez mindig azt feltételezi, hogy nincs hatás a populációban
- tehát a nullhipotézist az elvárt predikcióval szemben határozzuk meg
- ami nem nullhipotézis, az „alternatív hipotézis”
- kritikus érték meghatározása (??)
NULLHIPOTÉZIS SZIGNIFIKANCIA TESZTELÉS (NHST)
- abból indulunk ki, hogy a null hipotézis igaz  tehát nincs hatás a populációban
- teszteléséhez a nulla köré rakunk egy nevezetes eloszlást (pl.: normális), ami a mintából származó kritikus
értékek lehetséges eloszlását szimbolizálja
- a legvalószínűbb érték a nulla lesz
- a normális eloszlásról tudjuk, hogy az értékek 95%-a két szóráson belül van  ha az érték ezen kívül
esik, az azt jelenti, hogy átlépjük a statisztikai szignifikancia határát
- p-érték – megnézzük mennyire esik az eloszlás szélére a kritikus érték (??)
- egy vagy kétfarkú próbák
o egyoldalú = az alternatív hipotézis az, hogy a valós átlag nagyobb/kisebb, mint a nullhipotézis
eloszlásának felső/alsó 5%-a
o kétoldalú = az alternatív hipotézis az, hogy a valós átlag nagyobb vagy kisebb, mint a nullhipotézis
eloszlásának felső és alsó 2.5%-a
P-ÉRTÉK ÉS STATISZTIKAI KÖVETKEZTETÉS
- p = probability (valószínűség)
- annak valószínűsége, hogy ha a nullhipotézis igaz, akkor ugyanakkora kritikus értéket kapjuk a mintában
- ha a szignifikancia szintjénél (5% - 0.05) kisebb vagy egyenlő a p-érték, akkor a statisztikai próba
szignifikáns  elutasítjuk a nullhipotézist
- ha a szignifikancia szintjénél nagyobb, akkor a statisztikai próba nem szignifikáns  nem tudjuk elutasítani
a nullhipotézist – DE (!!) ez nem azt jelenti, hogy a nullhipotézis igaz
KONFIDENCIA INTERVALLUM ÉS SZIGNIFIKANCIA
- ha egy konfidencia intervallum átnyúlik azon a ponton, ami a hatás hiányát jelenti, az azt jelenti, hogy a hatás
nem szignifikáns
EGYMINTÁS T-PRÓBA
- Guiness cég statisztikusa fejlesztette ki
- arra használhatjuk, hogy megvizsgáljuk, hogy jelentősen eltér-e az átlagos különbség egy referenciaértéktől
- két normál eloszlású érték különbségének eloszlása
- a t eloszlás és a normális eloszlás hasonlítanak  mindkettő szimmetrikus és egycsúcsú
- feltételei:
o vizsgált változó legalább intervallum mérési szintű
o normális eloszlású
o az értékek egymástól függetlenek
LEHETSÉGES HIBÁK A STATISZTIKAI KÖVETKEZTETÉSBEN
- ha a mintában megfigyelt hatás más, mint, ami a populációban megfigyelhető
- téves pozitív hiba: a mintában igaz, a populációban hamis  elsőfajú hiba
o valótlant állítunk, az az olyan jelenséget tekintünk létezőnek, ami csak a véletlen miatt látszik a
mintában
- téves negatív hiba: a mintában hamis, a populációban igaz  másodfajú hiba
o nem találunk meg egy létező jelenséget, mert a mintában éppen nem volt megfigyelhető
SZENZITIVITÁS ÉS SPECIFICITÁS
- szenzitivitás: a valódi pozitív esetek hány százalékát azonosítja a teszt?
- specificitás: a valódi negatív esetek hány százalékát azonosítja a teszt?
- téves negatív arány = 1 – szenzitivitás
- téves pozitív arány = 1 – specificitás
MODELL ÉRVÉNYESSÉGÉNEK FELTÉTELEI
- szignifikancia tesztelés során néhány dolgot előre feltételezünk  pl.: azt, hogy ismerjük az értékek
eloszlását a populációban  ez an NHST előfeltétele
- megfigyeléseink függetlenek egymástól
- ezeket a feltételeket meg kell vizsgálnunk és közölnünk kell ahhoz, hogy a statisztikai következtetésünk
érvényes legyen
NHST kritikái  5% túl éles kritérium; a null hipotézist nem tudja alátámasztani, csak megcáfolni
a szignifikáns eredményeket gyakrabban publikálják, mint a nem szignifikáns eredményeket  publikációs torzítás
egy témakörben hamis kép alakulhat ki a hatás valódi méretéről
NHST ALTERNATÍVÁI
- standard szignifikancia szint csökkentése 5%-ról 0.5%-ra
- éles határ eltörlése; a „statisztikailag szignifikáns” kifejezés helyett árnyaltabban fogalmazni
- p-érték helyett a konfidencia intervallum használata
- resampling módszerek használata vagy bayesiánus statisztika használata
KÖVETKEZTETÉSI STATISZTIKA 3 CÉLJA
- paraméterbecslés: a populáció valamilyen jellemzőjét szeretnénk megbecsülni a minta alapján
- adat-predikció: a mintán megfigyelt paraméterek alapján próbálunk becsléseket tenni a populáció további
elemeire (kauzalitás !!)
- modell-összehasonlítás: statisztikai magyarázó modellek összehasonlítása aszerint, hogy a minta adatokat
melyik magyarázza a legjobban
STATISZTIKAI MODELL  azon szabályszerűségek gyűjteménye, amelyek a vizsgált jelenséget alkotják
HATÁSMÉRET
- hatásméret: annak számszerűsített mutatója, hogy mennyire erős egy összefüggés vagy mennyire nagy a
különbség két csoport között
- nem függ a mintamérettől – bár kis mintatméretnél megtévesztő lehet, mivel ez egy pont mérés
- lehet hozzá konfidencia intervallumot is számolni és érdemes ezzel együtt közölni
- hatásméret mutatók standardizáltak  mértékegységtől függetlenül megmondható egy hatás nagysága
- két fő „család” van  egyiket csoportok közötti különbségekre használják, a másikat a változók közötti
összefüggésekre
FOGALMAK:
- szignifikancia: annak, az esélye, hogy egy populációban nem létező hatást létezőnek látunk a mintában
- statisztikai erő: annak az esélye, hogy mekkora eséllyel találunk meg egy populációban létező hatást a
mintában  az a jó, ha 80% és 100% között lenne, de általában 20% alatt van
- hatásméret: egy összefüggésnek vagy különbségnek a nagyságrendje
- mintaméret: egymástól független megfigyelési egységek száma, jellemzően a résztvevők száma
ADATELEMZÉS ÉS STATISZTIKA 05

FISCHER EGZAKT TESZT


- megszámoljuk, hogy hány sikeres találat volt
- megszámoljuk, hogy hány lehetséges permutációja van a kimenetnek
- vesszük ezek arányát, ami egy valószínűséget mutat
- azért egzakt teszt, mert pontosan kiszámítjuk a p értéket és nem statisztikai eloszláshoz hasonlítjuk
KATEGORIKUS ELOSZLÁS TESZTELÉSE
- Khi-négyzet (x2) próba (goodness-of-fit teszt)
- azt vizsgálja, hogy van-e szignifikáns különbség az elvárt és valós gyakoriság között
- az elvárt gyakoriság általában a nullhipotézis, azaz, hogy nincs különbség a gyakoriságok között a
csoportokban
- df = k-1
- k db egymástól független normális eloszlású változó négyzetösszegének eloszlása
- minél nagyobb a k, annál szimmetrikusabb az eloszlás
KOVARIANCIA
- az összefüggés azt jelenti, hogy az értékek együtt változnak (variálnak) két változóban
- ha egy érték eltér az átlagtól, akkor a másik változó is változik
- kovariancia meg tudja mutatni az összefüggés irányát
KORRELÁCIÓ
- ugyanaz, mint a kovariancia, csak skálafüggetlen és standardizált
- úgy érjük el, hogy a kovarianciát leosztjuk a szórások szorzatával  standardizáljuk a változás
mértékegységét
- korreláció jele: r
- egyik leggyakoribb hatásméret mutató, mert standardizált és könnyen értelmezhető
- korreláció négyzete a determinációs együttható (r2), ami azt mutatja meg, hogy az egyik változó mekkora részt
magyaráz meg a másik változóból (- a variancia mekkora részét magyarázza)
LINEARITÁS
- az egyik változó értékének növekedése a másik változóban is egy meghatározott mértékű változással jár, ami
lehet növekedés és csökkenés is
- az összefüggés a változók értéktartományának egészére kell, hogy érvényes legyen
- grafikailag egy egyenes vonallal ábrázolható
PEARSON KORRELÁCIÓ
- legalább intervallum skálájú változók; normális eloszlású változók
- lehetnek bináris (0/1) típusú változók is
SPEARMAN RANG-KORRELÁCIÓ
- legalább ordinális skálájú változók
KENDALL TAU
- legalább ordinális skálájú változók; lehet alacsonyabb a mintaelemszám
- jól kezeli, ha sok azonos rangú elem van
KORRELÁCIÓ NULLHIPOTÉZIS TESZTJE
- két változó közötti korrelációs együttható kiszámítása még csak a mintát jellemzi, ezért tesztelnünk kell, hogy
a populációban ritka-e a kritikus érték
- korreláció pontbecslés  érdemes tehát konfidencia intervallumokkal jelezni az összefüggés bizonytalanságát
- kritikus érték: korreláció t értékké transzformált formája
- szabadságfok: df = n-2
- nullhipotézis: a korreláció nulla
KÖVETKEZTETÉSEK
- minél alacsonyabb a mérési szintje egy változónak, annál jobban eltér (torzítottan alacsonyabb) a korrelációja
saját magával és más változókkal (alacsonyabb statisztikai erő)
- Spearman korreláció teljesít a legjobban az alacsonyabb mérési szintű változóknál
- magasabb mérési szintű változó jobb, mint az alacsonyabb (!!)
- szinte soha nem érdemes egy folytonos változót alacsonyabb mérési szintűvé alakítani
KAUZALITÁS
- ok-okozati kapcsolat  az ok megelőzi az okozatot
- ok-okozati viszonyt csak kísérlettel tudunk igazolni – aminek lényege, hogy kontrollált körülmények között
egyetlen tényezőt manipulálunk és megnézzük, mi ennek a hatása a kimeneti változóra
- csak korrelációból nem lehet következtetni ok-okozati kapcsolatra, DE (!!) minden ok-okozati viszony
megjelenik korrelációként is
- kauzalitás jelei, kritériumai:
o idői folytonosság: hatás konzisztensen az ok után jelenik meg
o plauzibilitás: kézenfekvő mechanizmus az ok és hatás között
o konzisztencia: hatás konzisztens számos tanulmányon és mintán át
o kísérlet: kísérleti bizonyíték modell helyzetekben
o specificitás: ritka helyzetek és kimenetek együtt járása, más kézenfekvő magyarázat nélkül
o dózis-reakció kapcsolat: ok mennyiségének változása konzisztensen összefügg a hatás
mennyiségének változásával
o koherencia: a terep és laboratóriumi eredmények között
o hatáserősség: kauzális kapcsolatok általában erősek
o analógia: hasonló, bizonyítottan ok-okozati kapcsolatok létezése
NEM KAUZÁLIS KAPCSOLATOK
- fordított okság – összefüggés irányát nem jelzi; nem tudjuk melyik az ok és melyik az okozat
- kölcsönös / kétirányú okság – mindkét változó okként hat a másikra
- harmadik változó hatása – nincs ok-okozati viszony a kettő között, hanem mindkettő egy harmadik okozata
- koincidencia – véletlen egybeesés két dolog között
- szelekció – amikor a mintavételezés torzított; szelekciós torzítás
ADATELEMZÉS ÉS STATISZTIKA 06

HEURISZTIKÁK A GONDOLKODÁSBAN
- leegyszerűsített predikciók vagy problémamegoldási stratégiák
- együtt járások megfigyelésen alapulnak – gyakran nem pontosak, de segítenek hatékonyan döntést hozni
- gyakran nem ok-okozati kapcsolaton alapulnak, így egy harmadik változó befolyásolja őket
KÖVETKEZTETÉSI STATISZTIKA 3 CÉLJA
- Paraméterbecslés: a populáció valamilyen jellemzőjét (pl.: átlag, szórás) szeretnénk megbecsülni a minta
alapján
- Adat predikció: a mintán megfigyelt paraméterek alapján próbálunk becsléseket tenni a populáció további
elemeire
- Modell-összehasonlítás: statisztikai magyarázó modellek összehasonlítása aszerint, hogy a minta adatokat
melyik magyarázza legjobban
LEGEGYSZERŰBB MODELL (null modell): ÁTLAG
- amikor a megfigyelések alapján következtetéseket vonunk le, akkor egy modellt alkotunk
- legegyszerűbb (null) modell az átlag  ez nem vesz figyelembe a többi változót
- ez minden bementi értékre ugyanazt a kimentet adja
- sok esetben nagyon el fog térni a predikció az egyes értékektől
MENNYIRE PONTATLAN EZ A MODELL?
o vesszük az egyes mérések különbségét a modellünktől (azaz az átlag és a tényleges mérés különbségét
nézzük)
o ezeket a különbségeket reziduálisnak hívjuk (R) (reziduális = maradék, hátrahagyott)  mivel nem
érdekel, hogy az adatpont kisebb vagy nagyobb, ezért a reziduálist négyzetre emeljük (SR)
o az így kapott reziduális négyzeteknek vesszük az összegét, hogy megtudjuk, összesen mekkora a
modell hibája (SSR)
o (szóval kb a szórás; hiszen ez az „átlagtól való négyzetes eltérések átlaga”)
o (!!!) ezt megmagyarázhatatlan varianciának hívják (SSR)

LINEÁRIS MODELL/REGRESSZIÓ
- a kimeneti változót megpróbálom egy prediktor változó értékeivel
megmagyarázni  azaz, ha tudom a prediktor értékét, akkor tudok egy becslést
tenni a kimeneti változó értékére
- modellt építünk a mért adatainkra, majd a modell segítségével megpróbáljuk a
prediktor változókból bejósolni a kimeneti változót
(itt se lesz nulla az SSR)  a cél az SSR minimalizálása
- ha van prediktorunk akkor a regressziós egyenesnek két paramétere van: tengelymetszet (intercept) és
meredekség (slope)
o intercept: ahol az egyenes metszi az y tengelyt
o slope: az egyenes dőlésszöge
o hibatag (residual): az adatponttól az egyenesig húzott szaggatott vonal
- (!!) ha egy prediktorunk van, akkor lineáris regresszió és a korreláció ugyanazt az eredményt fogja adni (!!!)
- standardizálni kell a prediktort és a kimeneti változót is  a prediktorhoz tartozó slope értékét úgy kell
értelmezni, mint egy korrelációt
MEGMAGYARÁZOTT VARIANCIA
o más néven R2  minél nagyobb annál jobb a modellünk
o egy 0 és 1 közötti szám (avagy 0% és 100%), ami azt mutatja, hogy a prediktor a kimeneti változó
mekkora részét magyarázza
o a lineáris regresszió továbbra is csak akkor tud kauzális (= ok-okozati) hatást megmutatni, ha a
kutatási elrendezés azt megengedi
JOBB LESZ-E A MODELL A PREDIKTOR HOZZÁADÁSÁTÓL?
- ez egy hipotézis, amit le kell tesztelnünk (ugye az a hipotézisünk, hogy a prediktor befolyásolja a kimenetet)
- a nullhipotézis maga a null modell, azaz, hogy a prediktor nem javítja érdemben a modellünket (tehát nem
csökkenti az SSR-t)  azaz a nullhipotézisben nincs hatása a prediktor változónak
- az alternatív hipotézis az, hogy az SSR szignifikánsan kisebb lesz a prediktor hozzáadásával
- a kritikus érték a modellek közötti különbség lesz, pontosabban az SSR és az SST hányadosa
PREDIKTOR SZIGNIFIKANCIÁJA
- nemcsak a teljes modell teljesítményét kell megvizsgálnunk, hanem az egyes paramétereknek a
szignifikanciáját is
- a nullhipotézis a paraméterek esetén az lesz, hogy a paraméter nem különbözik a nullától
- a kritikus érték pedig a paraméter tényleges értéke
LINEÁRIS REGRESSZIÓ LEGFONTOSABB EREDMÉNYEI
- R2: a modell által magyarázott variancia
- F statisztika: a modellt a lehető legrosszabb modellhez hasonlítja (amiben a variancia megmagyarázhatatlan)
 ehhez tartozik egy p-érték és/vagy konfidencia intervallum
- modell df: a modell szabadságfoka, azaz a modell bonyolultsága – egyenlő a paraméterek számával
- tengelymetszet (intercept): a kimeneti változó becsült értéke, amikor a prediktor értéke 0 (ahol az y tengelyt
metszi)
- meredekség (slope): az egyenes dőlésszöge
- t statisztika: a modell meredekségének és egy vízszintes egyenesnek a statisztikai összehasonlítása
- prediktor df: a megfigyelések száma
F-ELOSZLÁS
- akkor használjuk, ha két modellt hasonlítunk össze  lineáris regressziónál a null modellt hasonlítjuk össze
az alternatív modellel
- az F eloszlás két normál eloszlású változó varianciájának a hányadosának eloszlása  csak POZITÍV érték
lehet
- két paramétere van, ami a két normális eloszlású változó szabadságfokát jelenti  első df a prediktorok
számából, a mádosik df az adatpontok számából van
VESZTESÉGFUNKCIÓ (loss function)
- ezzel mérjük egy modell pontatlanságát  modellépítés célja a veszteségfunkció minimalizálása
- lineáris regresszióban ez a reziduálisok négyzetösszege (MSE, L2 hiány)
- jellemzője, hogy az átlagtól távolabb eső értékek nagyobb hatást gyakorolnak a modellre a négyzetes eltérés
miatt

EGYMINTÁS T-PRÓBA, mint regresszió


- felfogható úgy, mintha egy regresszióban csak az interceptet tesztelnénk  azt vizsgáljuk, hogy a
referenciaérték és a mintaátlag különböznek-e
- ha egymintás t-próbát akarunk végezni, azt megtehetjük úgy, hogy a lineáris regresszió során a kimeneti
változó összes értékéből kivonjuk a referenciaértékeket, és nem használunk prediktort
KATEGORIKUS ADATOK TRANSZFORMÁLÁSA: DUMMY KÓDOLÁS
- kategorikus változókat bináris (0/1) változóvá alakítjuk
- az 1 azt jelenti, hogy a megfigyelésre igaz a kategória, a 0 azt jelenti, hogy nem igaz
- annyi új dummy változóra van szükségünk, ahány szintje van egy változónak

LINEÁRIS REGRESSZIÓ ÉRVÉNYESSÉGÉNEK FELTÉTELE


- kimeneti változó folytonos, legalább intervallum mérési szintű (tehát az értékek közötti távolság egyenlő)
- prediktor típusa lehet folytonos vagy kategorikus
- nem zéró variancia: a kimeneti változó és prediktor értékeiben van variabilitás
- a megfigyelések egymástól függetlenek
- a reziduálisok eloszlása normális (a prediktor eloszlásának nem kell normálisnak lennie!!!)
- a modellben nincsen sok jelentős outlier, ami torzítja a modellünket
- azt várjuk, hogy a lineáris regresszió minden mérési szinten ugyanannyira jó predikciót tudjon adni
- a modell homoszkedasztikus (azaz a reziduálisok mértéke független a prediktor értékétől) {hasonló
szétszórás}
NEM LINEÁRIS KAPCSOLAT
- ha a prediktor és a kimeneti változó közötti kapcsolat nem lineáris  nem-lineáris regresszió használata
- prediktorok nem lineáris transzformációja (pl.: hatványfüggvénnyel)
BEFOLYÁSOS ESETEK ÉS OUTLIEREK
- probléma: a modellt néhány kiugró eset eltéríti, így pontatlan lesz
- ha bizonyíthatóan adathibából származik, csak akkor lehet kizárni őket !!
- ha populáción kívűl eső egyedek kerültek a mintába, akkor azt transzparens módon ki lehet zárni
- az outlierek kizárása nem alapulhat azon, hogy jobb lesz tőle a modell (pl.: hekkelés)
REZIDUÁLISOK NORMALITÁSA NINCS MEG
- probléma: a becslések pontossága sérül
- szigorúbb kritériumokat alkalmazunk a statisztika szignifikancia szintjére
- kimeneti vagy prediktor változókat transzformáljuk úgy, hogy végül a reziduálisok normális eloszlásúak
legyenek
HETEROSZKEDASZTICITÁS (homoszkedaszticitás ellentéte)
- probléma: a modell predikciói nem ugyanannyira megbízhatóak a különböző prediktor szinteken
- létrehozhatunk külön modellt az alacsonyabb és magasabb prediktor szinteken; vagy transzformálunk
változókat; vagy használhatunk robusztus becslést
ADATELEMZÉS ÉS STATISZTIKA 07

KONTROLL
- a tudományos módszer egyik célja, hogy izolálja azokat a hatásokat, amiket vizsgál
(izolál = teljesen elkülönít valamit a többi dologtól)
- csak így lehet bebizonyítani, hogy a feltételezett ok és okozat között kauzális kapcsolat van
(kauzális kapcsolat = ok-okozati kapcsolat)
- ehhez valamilyen módon azt kell elérnünk, hogy minden egyéb körülményt (és potenciális zavaró változókat)
kizárjunk (vagy állandóan tartsunk), és csak a feltételezett okot manipuláljuk, hogy megnézzük a hatását (kísérlet)
- nem csak a kísérletes kutatásoknál van lehetőség kontrollálni a zavaró tényezőket
- kontroll fajtái:
o kutatási elrendezés által (control by design)
o kontroll illesztéssel
o randomizációval
o statisztikai kontrol

KUTATÁSI ELRENDEZÉS ÁLTAL


- a kísérlet során egy dolgot manipulálunk és minden mást igyekszünk kontroll alatt tartani
- így valószínűsíthetjük azt, hogy a változást a kimenti változóban a manipulált változó okozta
- pl.: ha tudjuk, hogy van egy zavaró változó, akkor direkt csak olyan résztvevőket toborzunk, akik nem variálnak abban a
dimenzióban
(például tudjuk, hogy a dohányzás egy kísérletben zavaró változó lehet, ezért csak olyan résztvevőket toborzunk, akik nem
dohányoznak)
- vagy kvóta mintavételezést használunk, hogy minden csoportban egyenlő arányban legyenek a résztvevők

ILLESZTÉS (matching)
- eset-kontroll kutatásoknál használják, ahol kevés „eset” és sok „kontroll” van
- egy nagyobb mintából vizsgálni kívánt egyedekhez párosítunk olyanokat, akik a kontrollálni kívánt szempontok szerint
hasonlítanak.
- lehet manuális illesztés is
- propensity score matching: egy algoritmus meghatározza, hogy mennyire hasonlóak egymáshoz a résztvevők értékei az
egyes változókon és ez alapján minden résztvevőhöz egy hozzá legjobban hasonlító párt rendelünk

RANDOMIZÁCIÓ
- ha a populációból véletlenszerűen választunk ki elemeket és rendeljük hozzá a kísérleti vagy a kontroll csoporthoz, akkor
a csoportok közötti természetes különbségek kiegyenlítődnek
- mivel a variabilitás természetes, ha megfelelően nagy mintánk van, akkor arra is építhetünk, hogy a megfigyeléseinkben
lévő szélsőségek kiegyensúlyozzák egymást (nagy számok törvénye)
- kis minták esetén előfordulhat, hogy véletlenül a csoportjaink között jelentős különbség alakulnak ki

STATISZTIKAI KONTROLL
- ha két változó korrelál egymással, az lehet amiatt is, hogy valójában mindkettő egy harmadik változóval korrelál (!!)
- olyan is létezik, hogy mindkét változó meghatározza valamennyire a harmadikat
- ilyenkor összekeverednek a hatások, nehéz megbecsülni, hogy melyik tényező mennyire fontos prediktor
- parciális korreláció arra való, hogy kivonjunk a zavaró változó (confounder) hatását egy kapcsolatból
- többszörös lineáris regresszió nem csak egy, hanem több változó hatását is tudja kontrollálni így
ZAVARÓ HATÁSOK KONTROLLÁLÁSA
o először elvégezzük a regressziót csak a confounderrel (zavaró változó)
o utána az abból származó reziduálisokat (megmagyarázhatatlan eltéréseket) próbáljuk egy új regresszióban
prediktálni a változóval
o valójában nem kell „új regressziót” végeznünk, hanem egy regresszióban lehet több prediktor
o ilyenkor a közös hatások kivonódnak, azaz „kontrolláljuk” a zavaró változók hatását
o így lehet az eredményeket statisztikailag függetleníteni a zavaró változóktól
TÖBBSZÖRÖS REGRESSZIÓ:
o technikailag nincs különbség aközött, hogy egymástól független prediktorokat teszünk a modellbe, vagy
confoundereket
o !! DE ha van több prediktor, ami összefügg a kimeneti változóval, akkor kivonódnak a közös hatások
KORRIGÁLT ÉRTÉK:
o amikor „kiparcálunk” egy hatást valamiből, akkor egy korrigált értéket kapunk
o ez számszerűleg azt jelenti, hogy elvégzünk egy regressziót a kontrollálni kívánt változókat használva
prediktorként. Majd a korrigált értékként a prediktált értéket használjuk.
o az ezekből számított átlag a korrigált átlag

TÖBBSZÖRÖS LINEÁRIS REGRESZIÓ


- Bármennyi prediktorunk lehet
(!! viszont minél bonyolultabb a modell, annál több adatpont kell az érvényes következtetéshez)
- kategorikus prediktorok is lehetnek prediktorok
- a változók egymásra hatását is vizsgálhatjuk
LINEÁRIS REGRESSZIÓ SZABADSÁGFOKAI
(szabadságfok = az egymástól függetlenül, szabadon változtatható tagok száma)
o minimum 2 pont kell ahhoz, hogy egy egyszerű lineáris egyenest meghatározzunk  ekkor még nem tudunk
az egyenesnek standard hibát számolni, mert az egyenes tökéletesen illeszkedik a pontokra (R 2 = 100)
o ha viszont már két prediktorunk van, akkor már valójában nem egy egyenest, hanem egy síkot kell ráilleszteni
az adatokra, így ahhoz már minimum 3 pont kell.
o emiatt a regresszió két szabadságfoka úgy alakul, hogy modell df egyenlő lesz a prediktorok számával (az
intercept is annak számít), a másik df pedig az adatpontok száma mínusz modell df
TÚLILLESZTÉS (OVERFITTING)
o akkor történik, amikor a modell a random hibát kezdi el leírni, a változók kapcsolata helyett  ez akkor fordul
elő, ha túl bonyolult a modell (pl.: túl sok a prediktor) és viszonylag kevés az adatpont
o ezzel az a probléma, hogy a mintát ugyan hatékonyan leírjuk, de a következtetések nem érvényesek a
populációra

ILLESZKEDÉS ÉS KRITÉRIUM STATISZTIKÁK


- ha több modellünk van, muszáj valahogy megállapítani, hogy melyik a jobb
- erre használhatnánk az R2 értékeket, azonban az R2 minden esetben nő új prediktorok hozzáadásával (mert csökken a
df {szabadságfok})
- ezért olyan értékre van szükség, ami figyelembe veszi a modell komplexitását
- a módosított R2 (adjusted R2): minél nagyobb annál jobb a modell
- AIC (Akaike Information Criterion): minél kisebb annál jobb a modell
- BIC (Bayesian Information Criterion): hasonló, mint az AIC

MODELLEK ÖSSZEHASONLÍTÁSA
- hasonlóan ahhoz, ahogy a null modelt hasonlítottuk a prediktort tartalmazó modellel, több prediktort tartalmazó modellt
is összehasonlítunk
- a két modell SSR különbsége lesz a kritikus érték, és ezt hasonlítjuk egy F eloszláshoz a 0 körül (nincs különbség) 
ekkor azt tudjuk meg, hogy a két modell között van – e szignifikáns különbség
- ha két vagy több modellt ugyanazokon az adatokon illesztünk, akkor a kritérium statisztikák, úgy mint AIC és BIC érték
alapján meg tudjuk mondani, hogy melyik a jobb modell
- 2-nél nagyobb különbség azt jelenti, hogy a különbség jelentős ( tehát, ha az AIC-nél a különbség 2 vagy több)

PARSZIMÓNIA ELVE
- a parszimónia elve egy heurisztika a tudományos gondolkodásban, ami azt mondja ki, hogy mindig az egyszerűbb
magyarázatot kell elfogadnunk, amíg nincs bizonyíték a bonyolultabb magyarázatra
- az a statisztikai modellek összehasonlításakor alkalmazható
- az AIC összehasonlításánál két egységnyi különbségtől mondhatjuk azt, hogy a két modell különbözik
- ha a különbség 2-nél kisebb, akkor az egyszerűbb modellt kell választanunk (kisebb paraméterek száma, azaz a
modell df)

MODELL ÉPÍTÉS
- modell kiválasztási stratégiák:
o minden beléptetése egyszerre (Forced Entry):
 elméleti tudás alapján, jó módszer a megerősítő hipotézis tesztelésére
 kevés adat esetén túl könnyen utasíthatjuk el az alternatív hipotézist
o lépcsőzetes (Stepwise)  nem javasolt
 prediktorokat egy algoritmus választja ki; nehezen értelmezhető
o Hierarchikus  ajánlott feltáró adatelemzés során
 ismert prediktorok először (kiegészítő hipotézis)
 új prediktorok később (ezek vonatkoznak a valódi hipotézisre)
o Gépi tanulási módszere  pl.: regularizált regresszió
 jól használható nagyon sok prediktor esetén (akár több ezer)
 van egy saját módszertana
- prediktor = független változó, ami a kimeneti változót határozza meg
o főhatás: egy prediktor hatása a kimeneti változóra, függetlenül a többi prediktortól
o moderátor: amikor egy prediktor hatása megváltozik egy másik prediktro függvényében
o confounder: olyan változó, ami erősíti vagy gyengíti más független változó hatását a kimeneti változóra
o szupresszor: olyan prediktor, ami nem függ össze a kimeneti változóval, de más prediktorokkal igen, így azok
hatását elnyomja

IMPLICIT HIPOTÉZIS
- a hipotézisnek olyan ki nem mondott részei, amelyek fontosak a hipotézis szempontjából
- a confounder változók gyakran implicit hipotézisként vannak jelen
(pl.: hipotézis  a depresszió és álmatlanság összefüggenek; implicit hipotézis  függetlenül az életkor hatásától {ami
egy ismert confounder})
- úgy tudjuk ezt vizsgálni, ha a kiinduló statisztikai modellünk először csak a confoundereket tartalmazza  és ezt
hasonlítjuk össze azzal a modellel, amiben a confoundereken felül már a hipotézisünkben szereplő prediktor is benne van

MILYEN LEGYEN A VÉGSŐ MODELL?


- a modell megválaszolja a kutatási kérdést
- a modellben kontrolláljuk a fontos kovariánsokat
- a potenciális interakciókat megvizsgáljuk
- a modell teljesíti az előfeltételeket és befolyásos értékeket vizsgáljuk
- a modell a lehető legegyszerűbb

KIDOBJUK A NEM SZIGNIFIKÁNS PREDIKTOROKAT?


- ha eleve kontrollálni szerettük volna a hatásukat, akkor NEM
- ha külön hipotézis vonatkozott rájuk, akkor NEM
- ha interakcióban is használjuk a változót, akkor NEM
- ha preregisztráltuk, hogy benntartjuk a modellben, akkor NEM

MULTIKOLLINEARITÁS
- multikollinearitás: a prediktorok nem függenek egymástól túlzott mértékben (nincs köztük erős korreláció)
- VIF (Variance Inflation Factor): minden prediktorra kiszámolva mutatja, hogy mennyire jár együtt a többi prediktorral
(1: nincs multikollinearitás; 5-10: van; 10: erős multikollinearitás)
- strukturális multikollinearitás: amikor egy prediktor többféle formában is bekerül a modelbe (pl.: főhatásként vagy
interakcióként)  ezt tudjuk kezelni, ha a prediktort centralizáljuk
- adat multikollinearitás: a prediktorok valamilyen módon összefüggenek
(pl.: ha egy kutatásban több különböző skálával mérjük a szorongás szintjét, azok kiolthatják egymást a modellben) 
ilyen esetben csak egy skálát tegyünk bele vagy vonjuk össze a skálákat

INTERAKCIÓ VAGY MODERÁTOR?


- független változó, ami egy másik független változó hatásának erősségét befolyásolja
(pl.: jobb lesz a vizsgaeredménye egy hallgatónak reggel, mint este? – attól függ, hogy pacsirta vagy bagoly)
- interakció: a két hatás együtt határozza meg a kimeneti változót (nincs hierarchikus viszony)
- moderátor: a prediktorra hatást gyakorol a moderátor; az értelmezésben a prediktor a fő szempont, a moderátor csak
árnyalja a képet
- a moderáció lényege, hogy a moderátor hatással van arra, hogy a prediktor hogyan határozza meg a kimeneti változót
- vizuálisan ez azt jelenti, hogy két külön egyenest illesztünk az adatokra és ha jelentősen eltér ezeknek a dőlése, akkor
interakcióról beszélhetünk

CONFOUNDEREK ÉS HATÁSOK KONTROLLÁLÁSA


- azon hatás kizárása, ami befolyásolhatja a hipotézist, azonban minket nem érdekel
- ha a regressziós modellbe beletesszük a kontrollálni kívánt változót, akkor azzal kontrolláljuk ezt a hatást is
- pl.: depresszió és alvás kapcsolatánál kontrollálnunk kell az életkort

SZUPRESSZOROK
- olyan változó, ami a kimeneti változóval nincs kapcsolatban, de a prediktorokkal igen és a prediktor együtthatóját így
csökkenti (vagy növeli), ha berakjuk a modellbe
- nem teljesen azonos a multikollinearitással, mert ott a prediktor összefügghet a kimeneti változóval

REGRESSZIÓ EREDMÉNYEINEK KÖZLÉSE


- táblázatban
- közöljük a modell illeszkedési statisztikáit
- közöljük a prediktorok együtthatóit (slope), standard és/vagy konfidencia intervalluma hibáját, szignifikanciáját
írjuk le, ha a reziduális diagnosztika vagy előfeltétel ellenőrzés során találtunk valamilyen
ADATELEMZÉS ÉS STATISZTIKA 08

ALAPFOGALMAK A KUTATÁSI DESIGNBAN


- megfigyelés: változók szisztematikus mérése
- résztvevő: a megfigyelés alanya
- kimeneti / függő (outcome/dependent) változó: olyan változó, aminek az értéke függ a független változóktól
(potenciális okozat)
- prediktor / független (predictor/independent) változó: olyan változó, aminek az értéke nem függ másik
változótól (potenciális ok)
- manipuláció: a független változó értékének megváltoztatása egy kísérlet során

SZEMÉLYEK KÖZÖTTI ELRENDEZÉS (between subject design) elkülönítjük a független mintás elrendezést
- csoportok összehasonlítása aszerint, hogy van-e különbség a csoportok és az összefüggő mintás elrendezést
között a kimeneti változó átlagában
független mintás elrendezés --> a
- pl.: van-e különbség a depresszió pontszámában aszerint, hogy valaki
mintáinkat eltérő személyek alkotják (pl.:
egyedül él vagy társsal, férfi v. nő… nők és férfiak; kontroll és kísérleti csoport)

SZEMÉLYEN BELÜLI v. ISMÉTELT MÉRÉSES ELRENDEZÉS (within összefüggő mintás elrendezés -->
subject design) ugyanazok a személyek fognak részt venni
eltérő időben --> pl.: terápia előtt és terápia
- ugyanazon személyek ismételt megfigyelése, és a változás mértékének
után; vagy pl.: online oktatásban vagy
megfigyelése a kimeneti változóban hagyományos oktatásban tanultak jobban a
- pl.: depresszió pontszám változása házasság előtt, után, 1 évvel később, diákok
stb…

KEVERT ELRENDEZÉS (mixed design)


- csoport különbség és időbeli változás együttes összehasonlítása
- pl.: depresszió pontszám házasság előtt és után a nők és férfiak csoportjában

T-PRÓBA
- EGYMINTÁS T-PRÓBA
o kutatási kérdés: jelentősen különbözik-e a referenciaértéktől a csoportátlag?
o kritikus érték: a mintaátlag és referenciaérték különbsége
- FÜGGETLEN MINTÁS T-PRÓBA
o kutatási kérdés: jelentősen különbözik a két csoport átlaga?
o kritikus érték: a két mintaátlag különbsége
- értelmezhetőségének feltételei:
o az adatok folytonosak és legalább intervallum (az értékek közötti távolság egyenlő) szintűek legyenek
o az értékek eloszlása normális
o a független mintás t-próba további feltételei:
 az értékek az egyes csoportokban függetlenek egymástól
 szóródáshomogenitás: a két csoport szórása nem különbözik jelentősen

PARAMETIKUS ÉS NEM PARAMETIKUS PRÓBA


- parametikus próbákat akkor használjuk, ha minden feltétel teljesül
- nem parametikus próbákat akkor is használhatóak, ha nem teljesülnek a feltételek
- a feltételek nem teljesülése azért probléma, mert így a mintán végzett becslésünk pontatlan lesz, és nem lesz
általánosítható a populációra  azaz megnövekszik a téves pozitív és negatív következtetéske esélye
- a legtöbb parametikus tesztek léteznek robusztos (= nem parametikus) alternatívái
- nem parametikus tesztek helyett resampling módszereket is lehet alkalmazni (pl.: permutációs tesztelés)

-függetlenség, skála mérési szint, szóráshomogenitás, normalitás -megengedi, hogy kettőnél több mintát hasonlítsunk
össze (ha kettő minta van, akkor inkább T-próbát
(normális eloszolás)  ezek a parametikusság négy feltétele + a használunk)
linearitás lehet az 5. feltétel - ha 2-nél több kategorikus prediktor van, azt
- függetlenség feltétele  faktoriális ANOVA-nak hívjuk
ANOVA: - miért nem végzünk több T-próbát ehelyett? -->
- az egyik csoportot baseline-nak használjuk és a másik azért, mert minél több t-tesztet végzünk, annál jobban
nő az elsőfajú hiba aránya
csoportokat ahhoz hasonlítjuk  azaz az egyik csoportot 0-nak --> ezt a felhalmozódást nevezzük Family-wise
és a többit 1-nek vesszük (dummy kódolás)  a modell errornak -- amikor több hipotézist tesztelünk
szignifikanciája megegyezik az ANOVA eredménnyel ugyanazon az adaton
- függő változó = másnéven kimeneti változó (ennek
az értékét szeretnénk bejósolni) - okozat
- független változó = másnéven prediktor (ezzel
szeretném magyarázni a különbségeket) - ok
- ANalysis Of VAriances (varianciaanalízis) több átlag összehasonlítására való
- hasonlóan működik, mintha lineáris regressziónál a különböző csoportoknak különböző interceptje lehetne
- itt is használhatjuk a reziduálisokat a modell jóságának a mérésére
- feltételei:
o az adatok legálabb intervallum szintűek (az értékek közötti távolság egyenlő)
o a mintaeloszlás normális
o az egyes csoportokban lévő értékek függetlenek egymástól
o szóródás-homogenitás az összes csoport között (homogenitás = egyneműség)
- robusztos (nem parametikus) ANOVA:
o Kruskal-Wallis teszt
o ugyanúgy leírható regresszióként, azzal a különbséggel, hogy a kimeneti változót rang
transzformáljuk
- varianciaanalízis hatásmérete: ete-négyzet  kicsi hatás – 0.02; közepes hatás – 0.13; nagy hatás – 0.26

REGRESSZIÓ ANOVA
- megfigyeléses kutatási hagyományból jön - kísérletes kutatási hagyományból jön
- egy általánosan használható elemzési módszer - valójában a regresszió egy specializált formája
- bármilyen prediktort használhatunk - a sima ANOVA csak csoportok
- a kategorikus prediktoroknál a regresszió rögtön összehasonlítására alkalmas (kategorikus
a baseline szinthet (intercept) hasonlítja a többi prediktorok
szintet - először a kategorikus prediktorok összesített
hatását látjuk, az egy további lépés, hogy melyik
szintet melyikkel hasonlítjuk össze

POST-HOC TESZTEK
- az összes prediktor szintet összehasonlítjuk az összes többi prediktor szinttel
- ezek t-próbák, így pontosan lehet tudni, hogy melyik kategória értéke melyiknél nagyobb szignifikánsan
- minél több kategóriánk van, annál több összehasonlítást kell végeznünk
- az összes ismétlés nélküli kombináció  xn = n ( n-1) = 2
KONTRASZTOK
- hipotézis alapú predikciók, amik meghatározzák azt, hogy melyik csoportok között várunk különbséget
TÖBBSZÖRÖS TESZTELÉSBŐL FAKADÓ TÉVEDÉSEK
- a nullhipotézis tesztelés logikájából adódóan minél több statisztikai próbát végzünk, annál nagyobb az esélye
hasis pozitív eredménynek (első fajú hiba)
- többszörös statisztikai összehasonlításnál megnő az esélye, hogy olyan eredményt fogadunk el, ami nem
létezik a populációban
- a post-hoc tesztek során minden kategória összehasonlítása egy külön statisztikai próbának számít
- Family wise error: egy vagy több hibás pozitív következtetés esélye az összes elvégzett próbához képest,
amikor több hipotézist tesztelünk
- False Discovery Rate: téves pozitív következtetések aránya a szignifikáns próbák számához képest
KÖVETKEZTETÉSEK KORRIGÁLÁSA
- Bonferroni korrekció: a szükséges szignifikancia elosztása annyival, ahány összehasonlítást végzünk
- Ez csökkenti az téves pozitív eredmények számát, de növeli a téves negatívok számát is.
- Más korrekciós eljárások nem ilyen szigorúak, de bonyolultabbak (pl. Holm korrekció, B-H korrekció).
- Praktikusan korrigálhatjuk a szignifikancia szintjét, vagy a p értéket is
TERVEZETT KONTRASZTOK
- Az előre deklarált hipotézisek meghatározzák, hogy melyik kategóriák között várunk különbséget.
o Pl. a kezelt csoport depresszió pontszáma alacsonyabb lesz, mint a kontroll csoport pontszáma.
o A több alkoholt fogyasztó csoport reakcióideje alacsonyabb lesz.
- Csak azokat az összehasonlításokat végezzük el, amit a hipotézis meghatároz.
- Így nem kell kontrollálnunk a többszörös összehasonlításból adódó FWER-t.

NEM LINEÁRIS KAPCSOLAT MODELLEZÉSE


- nem lineáris kapcsolatot modellezhetünk úgy, hogy a prediktort transzformálhatjuk egy nem lineáris
függvénnyel
- ezt hívják polinomiális transzformációnak
POLINOMIÁLIS KONTRASZTOK
- az adatpontok közötti változás mintázatát függvénnyel próbáljuk leírni
- gyakran használják időbeli trendek leírására
- a gyakorlatban a polinomiális kontrasztok a centrált változó hatványaként jelennek meg
- minden alacsonyabb rendű polinomiálist is bent kell tartanunk a modellben
- fontos azonban, hogy az eredményeket meg is kell tudnunk magyarázni, ezért az összetett poliinomiális
összefüggések a pszichológiában ritkák és nem túl hasznosak
- egy prediktor minden polinomiális szintja egy extra változónak számít  így minél magasabb rendű
polinomiálist alkalmazunk, annál inkább túlillesztjük a modellt
ADATELEMZÉS ÉS STATISZTIKA 09
ISMÉTELT MÉRÉSES KUTATÁS
- személyen belüli másnéven ismételt méréses elrendezés (within subject design)
- ugyanazon személyek ismételt megfigyelése és a változás mértékének megfigyelése a kimeneti változóban
- pl.: a depresszió pontszám változása házasság előtt, után, 1 évvel később, stb..
- előnyei:
o változásokat tudjuk mérni a kimeneti változóban
o lehetőségünk van ok-okozati összefüggésekre következtetni
o a személyek közötti különbségek nem torzítják a kutatás eredményeit
o nagyobb statisztikai erő (power) miatt kevesebb résztvevő szükséges  nagyobb pontossággal tudunk kevesebb
személyen hipotéziseket tesztelni
- hátrány:
o résztvevőktől több ráfordítást igényel, résztvevők kiesnek a kutatásból
- fajtái:
o longitudinális (hosszmetszeti): általában hosszú időn keresztül néhányszor megmérjük ugyanazokat a változókat
ugyanazokban a résztvevőkben
o idősor kutatás (time series): nagyon sok mérésünk van (pl.: ha egy napon keresztül mérjük valakinek a pulzusát)
o klaszterkutatás: nem ugyanazokat a személyeket mérjük, hanem pl. ugyanahhoz a csoporthoz tartozó egyéneket
(pl.: egyetemisták)

EXPERIENCE SAMPLING METHOD (ESM)


- Csíkszentmihályi Mihály ( + Larson)
- lényege, hogy a résztvevőknek több napon keresztül kell rövid kérdőíveket kitölteni (naponta egyet), így minden
résztvevőktől sok ismételt mérés keletkezik
- segít az idői dinamikák feltérképezésében (pl.: mennyire változó a hangulata valakinek)
- okostelefonok terjedése miatt a pszichológiában nagyon népszerű lett az utóbbi években

ISMÉTETELT MÉRÉSI ADATOK ELEMZÉSE


- probléma:
o megfigyeléseink nem függetlenek egymástól (pl.: ugyanahhoz a személyhez tartoznak)
o azonos forrásból származó mérések általában közelebb vannak egymáshoz; olyan mintha ugyanaz az adatpont
többször lenne a mintában
o ez variancia csökkenéséhez vezet, ami a hatásméret túlbecsléséhez, és hibás pozitív eredményekhez vezethet
- hierarchikus (nested) függőség:
o a résztvevők valamilyen hierarchikus rendszer szerint tartoznak csoportokhoz (pl.: iskolában gyerekek)  a
csoportok tagjaiban van valami közös tulajdonság, ami alapján egymásra hatást gyakorolnak
o minden résztvevő csak egy csoportba tartozik, de bármennyire hierarchikus szint lehet
o a csoportokhoz tartozó egyedek/alcsoportok száma különbözhet
- keresztezett (crossed) függőség:
o pl.: résztvevőknek képeket mutatunk és mérjük az érzelmi reakcióikat minden kép után
o ugyanannak a résztvevőnek az ismételt méréséből származik a függőség
o itt a csoportosító tényező a személy, akitől az ismételt mérések származnak
o minden személyhez több mérés tartozik (de nem feltétlenül az összes)
- előtte-utána összehasonlítás: páros t-próba
o jelentősen különbözik-e a nullától két ismételt mérés különbsége (kritikus érték)
o feltétel, hogy a különbség értékek normális eloszlásúak és a varianciájuk hasonló
o regresszióként  a két mérés különbségének az interceptjének a nullától való különbségét teszteljük
o Wilcoxon próba a robosztus alternatíva, ami a különbségek előjeles rangját használja kimeneti változóként

TÁBLÁZATOS ADATOK STRUKTÚRÁJA


- széles formátum (wide format)
o minden résztvevőhöz egy sor tartozik; minden változó minden mérési időpontban felvett értéke egy külön
oszlop
o ha új mérést végzünk, akkor az új oszlop lesz; néha táblázatkezelő program korlátozza az oszlopok számát
- hosszú formátum (long format)
o egy oszlop az összes értéket tartalmazza, egy másik a mérés időpontját, a harmadik pedig a mért dolog nevét
o egy résztvevőhöz sok sor tartozhat; az oszlopok száma nem fog megváltozni, akármennyi új adatot gyűjtünk
o nem kell előre tudni a mért dolgok nevét vagy a mérések számát
o hátrány  az adatok közvetlenül nem elemezhetőek így, mert az értékek különböző típusúak lehetnek
(norminális; intervallum; stb…)
- tidy format
o minden sor egy megfigyelés, minden oszlop egy változó; egy személyhez annyi sor tartozik, ahány ismételt
mérés
o adatgyűjtés során nem változik az oszlopok száma és neve, csak a sorok száma
o jól használható elemzésre, mert a mérés azonosítóját prediktorként tudjuk a modellbe tenni
- idő, mint prediktor  idő nem jelenik meg változóként a szélesben, de a hosszúban és tidyban igen

ISMÉTELT MÉRÉSES ANOVA (RM-ANOVA)


- pl.: reakcióidő változása az elfogyasztott sörök számának függvényében
- a nullhipotézis az, hogy az egyes mérések között nincs különbség (tehát 0)
- egyes mérések eltérése a nagy átlagtól, nem fog különbözni az egyes időpontokban elvégzett mérések átlagának a
mérésektől számított különbségétől
- feltételei:
o szfericitás, ami a szóródáshomogenitás az ismételt méréses változata  ezt Mauchly-féle teszttel teszteljük
o ha szfericitás sérül, akkor korrigálni kell az eredményünket (Greenhouse-Geisser vagy Huyn-Feldt módszer)
o egy megfigyelési egységhez (résztvevő), az összes megfigyelésünk megvan
- az ismételt méréses ANOVA azt mutatja, hogy van-e eltérés bármelyik mérések között ( ha azt akarjuk tudni, hogy
melyik mérések között, akkor poszt-hoc tesztként páros t-próbát kell végezni)
- ugyanúgy kell közölni a statisztikát, átlagot, mint a sima ANOVA esetében  a szóródáshomogenitás helyett a
szfericitást kell vizsgálni  ha ez sérült, közölni kell a korrekció típusát, korrigált p értéket és a korrekciós együtthatót

TÖBBSZINTŰ REGRESSZIÓS (kever hatású) MODELLEK


- többszintű modell – a lineáris regresszió kiterjesztett formái, ahol definiálni tudjuk az adatok összetartozásának
struktúráját, azaz a hiba (reziduális) közös forrását
- függőség forrása alapvetően lehet hierarchikus vagy keresztezett
- vannak fix (általános) és random (csoportként különböző) hatások, amiket együtt modellezünk
- sima lineáris regresszió csak fix hatásokat modellez, a többszintű megengedi, hogy emellett a paraméterek változzanak
- miért használjuk?
o figyelembe vesszük az adatpontok közötti függőséget; az ismerős regressziós kereteket használja
o flexibilis a prediktorok típusát tekintve; más statisztikai módszerhez képest kevesebb feltétele van
o jól kezeli a hiányzó eseteket és kiegyensúlyozatlan kutatási elrendezéseket
LMEM (Lineáris Kevert Hatású Modell)
- külön regresszió illesztése minden résztvevőre (nincs pooling)
- teljes pooling  külön modell minden résztvevőre és közös modell az összes résztvevőre  előnye, hogy csoportonként
kevés adatból is képesek vagyunk predikciót végezni
- részleges pooling  pontosítja a predikciót, hogy a közös modell „maga felé húzza” a résztvevőként illesztett modelleket
- shrinkage  minél több adatunk van csoportonként, annál inkább a csoportra jellemző marad a modell; minél kevesebb
adata van, annál jobban fog hasonlítani a közös modellre
- LMEM-nél meg kell határoznunk a fix hatásokat (amiket általánosítani akarunk), másrészt a random hatásokat
- random hatás – az adat hierarchikus szintjei (pl.: diák, osztály, iskola); egy keresztezett designban a személy azonosítója
- több random hatást is megadhatunk
- maximális random struktúra  minden lehetséges random hatás használata
- modell építő megközelítés  folyamatosan összehasonlítjuk a modelljeinket és a legjobban illeszkedő legegyszerűbb
modellt választjuk
LONGITUDINÁLIS KÉTSZÍNTŰ MODELL
- klasszikus kevert RCT elrendezés  kezelés és kontroll helyzetben több ismételt mérést végzünk
- arra vagyunk kíváncsiak, hogy a két csoportban idővel máshogy változik-e a kimeneti változó értéke
TERAPEUTA KERESZTETZETT HATÁSA
- egyes terapeuták több kezelést is végeznek, így ki tudjuk küszöbölni a terapeuta nem specifikus hatását
HÁROMSZINTŰ MODELL
- különböző terapeuták végzik a kezeléseket
- feltételezzük, hogy a különböző terapeuták eltérő mértékben hatnak a kimeneti változókra
RÉSZLEGESEN BEÁGYAZOTT MODELL
- kontroll helyzethez nem tartozik terapeuta (pl.: várólista kontroll)

Modell illeszkedés kiszámítása


- fix és random hatások miatt máshogy kell megállapítani, mert el kell dönteni, hogy mihez mérjük a reziduálisokat
- külön számolunk R2 értéket a fix hatásokra (marginal R2) és együtt a fix és random hatásokra (conditional R2)
Modellek közötti választás
- az azonos adatokon azonos algoritmussal illesztett modellek összehasonlíthatóak
- más regressziókhoz hasonlóan használhatóak az AIC értékek, valamint a modell komplexitás a legjobb modell
megtalálásához
- a modellek és (fix) prediktorok szignifikanciájának a tesztelése történhet bootsrapping vagy p érték kiszámításával
Mikor LMEM és mikor RM-ANOVA?
- hiányzó adatok – ha valakinek csak egy mérése is hiányzik, akkor LMEM (anova nem tud)
- eltérő számú (kiegyensúlyozatlan) ismételt mérés csoportonként; ha az időt folytonos és nem kategorikus prediktorként
használjuk
- kimeneti változó nem folytonos – akkor GLMEM (anova nem tud)
- hierarchikus függőség – akkor LMEM (anova nem tud)
KEVERT ELRENDEZÉS (mixed design)
- csoport különbség és időbeli változás együttes összehasonlítása
- pl.: depresszió pontszám házasság előtt és után nők és férfiak csoportjában
ADATELEMZÉS ÉS STATISZTIKA 10
REGRESSZIÓ ÉS KLASSZIFIKÁCIÓ
- a predikció alapvetően kétféle lehet: regresszió és klasszifikáció
- a regressziónál a kimeneti változó folytonos, azt akarjuk bejósolni, hogy mekkora a kimeneti változó értéke a megfelelő
bemeneti elemekkel
- a klasszifikációnál a kimeneti változó diszkrét (nominális vagy ordinális) és azt próbáljuk bejósolni, hogy milyen
kategóriába fog kerülni
- klasszifikációra példák 
o dichotóm (kétszintű) – élő/halott, egészséges/beteg, depressziós/nem depressziós
o kategorikus (többszintű) – 5 jelölt közül melyikre szavaz, milyen filmet néz Netflixen
o ordinális – mi a legmagasabb iskolai végzettsége
BINOMIÁLIS LOGISZTIKUS REGRESSZIÓ (kétszintű kimeneti változó)
- pl.: összefügg-e az, hogy valaki túlélte a Titanicot, azzal, hogy mennyit fizetett a jegyért
- nem lehet használni lineáris regressziót binomiális kimeneti változó esetén
- a lineáris regresszió általánosításával az eredeti „vonal-regresszió” átalakítható S-alakú görbévé (szigmoid)
- a függvényben lévő változók ugyanazok maradnak
- az így kapott görbe soha nem vehet fel 0-nál kisebb és 1-nél nagyobb értéket
- a logisztikus regresszióban egy kimenetel valószínűségét akarom megbecsülni (mekkora az esélye y-nak, ha tudjuk x-t)
- együttható értelmezése:
- ha éles az elválasztóvonal a túlélők és a többiek között, akkor az meredek emelkedést jelent, azaz magas log-odds értéket
- ha nem olyan egyértelmű a különbség, az enyhébb emelkedést jelent, azaz alacsony log-odds értéket
LINK FUNCTION (KAPCSOLÁSI FÜGGVÉNY)
- lineáris függvényeket alakítja át úgy, hogy kimeneti változó eloszlásának megfeleljen
- dichotóm adatoknál a link function a logit transzformáció lesz  logit funkció a paraméterek értelmezését is
megváltoztatja
- a paraméterek így nem a valószínűséget, hanem a valószínűségek logaritmusát fogják mutatni (log odds)
- ezeket egy exponenciális transzformációval esélyhányadossá lehet alakítani
MAXIMUM LIKELIHOOD BECSLÉS (ML)
- megnézi, hogy az adataink milyen valószínűséggel fordulhatnak elő egy bizonyos eloszlást feltételezve
- ez az iteratív folyamat addig folytatódik, amíg meg nem találjuk azokat az eloszlás paramétereket, amihez a legnagyobb
összesített valószínűség tartozik
- MLE mindenféle eloszlással használható, tehát normállal is
MODELL ILLESZKEDÉS
- log-likelihood (LL) statisztikát használjuk a modell illeszkedésének a mérésére, ami hasonló a reziduálisok
négyzetösszegéhez a lineáris regresszióban
- modellek összehasonlításához a deviancia, AIC és BIC statisztikát tudjuk használni
- modellek közötti különbség megállapításához a devianciát tesztelhetjük Khi-négyzet eloszlás alapján
R2 KISZÁMÍTÁSA GLM-BEN
- a logisztikus regresszióban a reziduálisokat nem tudjuk közvetlenül a kimeneti értékek és a modell különbségeként mérni
(mivel a logit transzformáció miatt minden reziduális végtelen)
- McFadden pszeudo R2 kiszámítása (??)
EREDMÉNY
- a prediktorhoz tartozó log-odds odds ratio-vá alakítható exponenciális transzformációval
- regressziós együttható és annak standart hibájának hányadosát normál eloszlás szerint teszteljük
- szignifikancia tesztelés megmutatja, hogy a prediktor jelentősen növeli-e a modell prediktív értékét

KLASSZIFIKÁCIÓS MODELL
- logisztikus regresszióban amikor predikciót készítünk, akkor a kimeneti esemény valószínűségét kapjuk meg, ami 0-1
közötti szám
- döntési küszöb meghatározása (mi az a valószínűség, ami fölött túlélte a Titanicot?)
- nem lehet önkényesen 0.5-ben meghatározni, mert a küszöb problémafüggő  több küszöbértéket is lehet
- pontosság  azt nézzünk, hogy eltaláltuk-e a kategóriát vagy nem; kiszámíthatnánk a modell pontosságát, ha vesszük a
helyesen eltalált esetek és az összes eset hányadosát  a pontosság nem egy megbízható mutatója a modell
teljesítményének
ROC GÖRBE
- olyan mérőszámot ad, ami a döntési küszöb független és nem függ a kimeneti esemény előfordulásának arányától sem
- az összes küszöb esetében megvizsgálja, hogy a modell helyes pozitív (szenzitivitás) és téves pozitív (specificitás) aránya
hogyan alakul
- ha egyenes arányban áll egymással a TP (y tengely) és FP (x tengely), az azt jelenti, hogy a modell nem működik
- ha a TP végig maximum, az FP minimum, az azt jelenti, hogy a modell tökéletes (ehhez próbálunk közelíteni)
- többnyire egy görbét kapunk, ami felfelé görbül
- értékelni úgy tudjuk, hogy vesszük a görbe alatti területet (AUC – area under curve)  ez az érték mindenképp 0 és 1
közötti lesz
- az a modell, ami mindig téved, annak 0 lesz az AUC és, ami mindig helyes, annak 1

MULTINOMIÁLIS (sokszintű) KLASSZIFIKÁCIÓ


- ha több lehetséges kimeneti kategória van, akkor multinominális klasszifikáció lesz
- ezt lehet binomiális logisztikus regresszió kiterjesztéseként multinominális logisztikus regresszióként végezni
- mintha minden szintre egy külön binomiális logisztikus regressziót végeznénk
- nem előfeltétele a normalitás, linearitás és homoszkedaszticitás

- értékek nem lehetnek 0-nál kisebbek; az értékek diszkrétek, azaz egész számok (pl.: nevetések száma)
- ilyen adatok eloszlását Poisson eloszlásnak hívjuk  egy paramétere van (lambda), ami egyben a várt érték és annak
varianciája
- Poisson eloszlás diszkrét és jobbra ferde
POISSON REGRESSZIÓ
- GLM-mel lehet végezni, ahol, másik link függvényt használunk (log)
- itt is exponenciális transzformációval lehet relatív kockázatként értelmezni
- annak a kockázatát mutatja, hogy az esemény bekövetkezik az egyik csoportban egy másik csoporthoz képest
(kategorikus prediktor)
- vagy folytonos prediktor esetén, azt a kockázatot mutatja, hogy egy egység növekedés a prediktorban hányszorosára
növeli az esélyét annak, hogy a kimeneti mennyiségből eggyel több legyen

ordinális adat, mint kimeneti változó


- az értékeke diszkrétek (nem folytonosak)
- nem vehetnek fel bármilyen értéket, csak előre meghatározottakat (pl.: 1-7; ált. isk-gimi-egyetem…)
- az értékeket sorba lehet rendezni, de a szintek közötti különbség nem számszerűsíthető
- az ilyen adatok kumulatív link modellel (CLM) elemezhetőek
ADATELEMZÉS ÉS STATISZTIKA 11

ADATREDUKCIÓ
- információ tömörítése: változók összevonása  sok változóból kevés változó, úgy, hogy minél kevesebb információ
vesszen el
- pszichológiai konstruktumok mérése: a kérdések mögött megbúvó látens faktorok  pl.: kérdőív fejlesztéshez szükséges
- lépésie:
1. adatgyűjtés
2. feltételek vizsgálata
3. faktorkivonás
4. faktorforgatás
5. faktorok interpretálása
6. faktorértékek kiszámítása minden résztvevőhöz, hogy az elemzés további lépéseihez használhassuk ezeket
- előfeltételei: multikollinearitás (változók korrelálnak egymással); megfelelő elemszám
- előfeltétel tesztelése:
o KMO teszt: az adatok mennyire vethetőek alá adatredukciónak, illetve elég-e az adat.  értéknek 0.5 felettinek
kell lennie (0.8 felett számít jónak)
o Bartlett teszt: mennyire hasonlít a változóink korrelációs mátrixa egy indentitásmátrixra (nincs kapcsolat a
változók között) – akkor van értelme az adatredukciónak, ha van különbség
- alapfogalmak:
o kommunalitás  a változó közös varianciája, amit megoszt az összes többi változóval (ha értéke 1, akkor nincs
egyedi varianciája, ha értéke 0, akkor csak egyedi varianciája van)
o sajátérték  mennyire kifejező a komponens/faktor (hány változónyi adatot tartalmaz) – relatív szám, függ a
változók számától
o faktortöltés  egy változó hozzájárulása az adott faktorhoz (hasonlóan értelmezhető, mint a korreláció)
o faktor érték  a látens változón megbecsült érték, ami az adott résztvevőhöz tartozik (standardizált érték)

FŐKOMPONENS ELEMZÉS – Principal Component Analysis (PCA)


- hasonló kimeneti változók összevonása egy kimeneti változóvá
- hasonló prediktorok összevonása kevesebb prediktorrá  csökkentsük a modellünk bonyolultságát és könnyebb
legyen elemezni
- meg akarjuk szüntetni a multikollinearitást, a korreláló változók összevonásával
- használható ismeretlen adatok explorációjára is, mert megmutatja a változók együttjárásait
VARIANCIA KÜLÖNBÖZŐ FORMÁI
 teljes variancia: egy változó teljes varianciája
 közös variancia: egy változó azon varianciája, amit a többi változóval megoszt
 egyedi variancia: a változó azon varianciája, ami nem közös a többi változóval
 specifikus variancia: a változó azon varianciája, ami stabil és nem magyarázható más változókkal
 hiba variancia: a változóban lévő megmagyarázhatatlan és instabil variancia
- PCA célja: a változók számának csökkentése a lehető legtöbb információ megtartásával
- a megfigyelt változók teljes varianciáját elemezzük (nem feltételez egyedi varianciát)
- eredeti változókat lineáris transzformációkkal alakítjuk és összevonjuk  csoportosítja a változókat kiemelve a közös
varianciát
- a komponensek sorba rendezve jelennek meg; a komponensek nem korrelálnak és értékeik pontosan kiszámíthatóak

FAKTORKIVONÁS
- egy iteratív folyamat során a PCA algoritmus megtalálja a változóknak azt a lineáris kombinációját, ami a legtöbb
információt hordozza
- PCA: lineáris kombináció
- Faktoranalízis: több módszer
o Maximum Likelihood (változók normalitása szükséges)
o Principal Axis Factoring (normalitás nem szükséges)
o Diagonally weighted least squares (kategorikus változókhoz)
- a faktortöltéseket tartalmazó táblázatot úgy kell értelmezni, hogy az adott item mennyire korrelál az egyes faktorokkal
- az alapján látjuk, hogy melyik item melyik skálára tölt a leginkább
- gyakran előfordul, hogy egy item több faktorra is tölt hasonló mértékben, azt hivják kereszttöltésnek

EXPLORÁTOROS FAKTOR ANALÍZIS (EFA)


- cél: a változók mögötti látens struktúra felderítése
- a faktorok a változók közös varianciájának lineáris kombinációi
- a faktorok „látens változók”, amiket nem tudunk közvetlenül megmérni
- a faktorok egyedi értékeit csak becsülni tudjuk
PCA vs. EFA
- a PCA lineáris transzformációkat végez a változókon és úgy számolja ki a komponenseket, hogy a maximális
információt tartalmazzák
- az EFA egy bonyolultabb Maximum Likelihood becslést használ, hogy megtalálja a faktorokat
- az EFA mögöttes struktúrák felderítésére szolgál
- a PCA összevonja a változókat (információtömörítés)
- gyakorlatban sok átfedést mutat a két módszer, mégsem felcserélhetőek

FAKTOROK/KOMPONENSEK SZÁMÁNAK MEGÁLLAPÍTÁSA


- faktorok száma az adatredukció legfontosabb lépése  azt mutatja, hogy hány, egymástól elkülöníthető konstruktumot
mértünk
- vizuális módszerek, ökölszabályok és statisztikai módszerek is léteznek a faktor szám megállapítására
(ellentmondásosak)
- Kaiser kritérium  sajátérték > 1
- scree plot inflexiós pont (töréspont) megtalálása
- párhuzamos elemzés
- különböző faktorstruktúra-modellek összehasonlítása kritérium statisztikák alapján

FAKTORTÖLTÉSEK
- ha a faktorsúlyt négyzetre emeljük, akkor megkapjuk az adott változó lényegi fontosságának mértékét a faktorban (relatív
hozzájárulás)
- azt mutatják, hogy mennyire fontos egy adott változó egy adott faktoron belül (mely változók alkotják mely faktorokat)
- általában a kutatók fontosnak tartják a 0.3-nál nagyobb abszolút értékű terhelést
- DE !! a faktortöltés jelentősége a minta méretétől függ

FAKTOR FORGATÁS
- több faktor esetén van értelme
- nem javítja a faktorok illeszkedését
- növeli a faktorok értelmezhetőségét, úgy, hogy a faktorok leginkább csak egy faktorra töltsenek
- két fő megközelítés: ortogonális/merőleges (korrelálatlan faktorok) és ferde (korrelálhatnak a faktorok) forgatás
- több forgatási eljárás létezik, a leggyakrabban a varimax (ortogonális) és a direct oblimin (ferde) változatokat használjuk

KONFIRMÁTOROS FAKTORELEMZÉS
- EFA-t akkor használunk, ha új kérdőívet fejlesztünk és meg kell határozni, hogy mi a faktorstruktúra
- ha ismerjük a faktorstruktúrát, akkor ellenőrzésére ne EFA-t használjunk !!, hanem konfirmátoros faktorelemzést (CFA)
- CFA a strukturális egyenlet modellezés (SEM) módszerek közé tartozik
- SEM lényege, hogy az adatokre egy elméleti modellt próbálunk illeszteni, ami sok összefüggő regresszióból áll, és az
illeszkedés alapján tudjuk megállapítani, hogy az elméleti modell mennyire alátámasztható
- SEM nem része az alapképzésnek, de fontos tisztában lenni vele
- mikor használjuk?  már létező faktor struktúra ellenőrzésénél; bonyolultabb faktorszerkezet vizsgálásánál
ADATELEMZÉS ÉS STATISZTIKA 12

PSZICHOLÓGIA TUDOMÁNYÁNAK KÍHÍVÁSAI


- adatelemzés egy kétélű fegyver, amit lehet jól és lehet rosszul használni
- megbízhatósági krízis megmutatta, hogy a pszichológiának változnia kell az áttekinthetőbb és professzionálisabb
módszerek felé
- egyre fejlettebb módokon tudunk adatot gyűjteni és egyre nagyobb mintákat érünk el  egyre bonyolultabb
adatelemzési módszereket követel meg
- eltolódás a keresztmetszetitől a többszörös méréses longitudinális és ESM elrendezések felé
- az eljárások fejlődésével újfajta kérdésekre adhatunk választ
ADATELEMZÉSEK TÍPUSAI
- konfirmátoros (megerősítő)
o előzetes hipotézisek szükségesek hozzá
o célja: hipotézisek megerősítése vagy megcáfolása
o akkor is indokolt, ha már van korábbi eredmény a területen
o csökkentheti a feltáró kutatásokból fakadó torzítást
o Karl Popper – igazolás helyett (lehetetlen) próbáljuk cáfolni
o Fontos, hogy olyan adatokon végezzük, amelyeket nem használtunk fel a hipotézisek generálásához
o Előre rögzített elemzések elvégzése
o Általában nem szükséges a többszörös tesztelésből fakadó hiba miatt korrigálni az eredményeket
- explorátoros (feltáró)
o előzetes hipotézisek nélküli kutatás
o olyan területen indokolt, ahonnan még nincs tudományos eredmény
o célja: megcáfolható hipotézisek generálása
o változók közötti kapcsolatok feltérképezése
o feltérképezni az ok-okozati kapcsolatok lehetséges hátterét
o felfedezett összefüggéseket igazolni kell egy megerősítő elemzéssel, amit csak új adatokon lehet elvégezni

MEGTÉVESZTŐ KUTATÓI GYAKORLATOK (QRPk)


- olyan szándékosan alkalmazott módszerek, amelyek alkalmasok kutatási eredmények eltorzítására, összezavarására és
félrekommunikálására annak érdekében, hogy az eredmények jelentősége megváltozzon
- szándékos – nem átlátható – megváltoztatja az eredmények jelentőségét
EREDMÉNY HALÁSZAT
- HARKing, post-hoc analízis
- ártalom: téves pozitív eredmények
- gyógyír: pre-regisztrált hipotézisek, konfirmátoros és explorátoros kutatások elkülönítése, többszörös tesztelés statisztikai
kontrollálása
- észlelhetőség: nem észlelhető
- kutatási fázis: tervezés
- leírás: feltáró kutatás hipotézis igazoló kutatásként való beállítása. Számos kimeneti változó és/vagy kondíció használata
egy kutatásban hipotézisek nélkül, (hibás) pozitív eredmények találásának érdekében
FELTÉTELES MEGÁLLAPÍTÁS
- leskelődés
- ártalom: téves pozitív eredmények
- gyógyír: kutatás pre-regisztrációja és tervezett elemszám rögzítése a priori power elemzés alapján, szekvenciális elemzés
használata, Bayesiánus statisztika használata
- észlelhetőség: észlelhetetlen
- kutatási fázis: adatgyűjtés
- leírás: hipotézistesztelés az adatgyűjtés közben; adatgyűjtés megállítása, amikor a statisztikai szignifikancia/hatásméret
éppen megfelelő
P-HEKKELÉS
- adatmasszázs, kutatói szabadságfok
- ártalom: hibás pozitív eredmények, a kutatás reprodukálhatatlansága
- gyógyír: adatfeldolgozás és elemzés pre-regisztrcációja, adatfeldolgozási jó gyakorlatok használata, adatmegosztás,
kódmegosztás, vak elemzés
- észlelhetőség: észlelhetetlen
- kutatási fázis: elemzés
- leírás: adattranszformációk és elemzési technikák önkényes használata szignifikáns statisztikai próba elérésére vagy
megnövekedett hatásméret érdekében
MEGTÉVESZTŐ ADATVIZUALIZÁCIÓ
- ártalom: az eredmények valótlan / torz értelmezése
- gyógyír: vizualizációs jó gyakorlatok követése, adat és kódmegosztás
- észlelhetőség: csak tapasztalattal észlelhető
- kutatási fázis: kommunikáció
- leírás: adatok megtévesztő ábrázolása a bemutatott hatások felnagyítása (vagy lecsökkentése) érdekében

KONKLÚZIÓ
- bonyolult adatok elemzésének eredménye nagyban függ igazolható, de szubjektív döntésektől is
- ezért az egymásnak ellentmondó eredmények nemcsak az alacsony statisztikai erő és a QRPk használatának
köszönhetőek
- ez nem jelenti azt, hogy az eredményeket mindenki úgy értelmezheti, ahogy akarja, hanem azt, hogy a tudományos
folyamat részeként néha szubjektív döntéseket kell meghozni
- ezek hatását akkor lehet legjobban ellensúlyozni, ha transzparensek vagyunk velük kapcsolatban (open science)

MIT TEHETÜNK, HOGY PONTOSABB LEGYEN AZ ADATELEMZÉS?


- adatelemzés pre-regisztrcációja és registered report formátum (szakértői vélemény a preregisztrációról az adatgyűjtés
megkezdése előtt)
- adatok és elemzési kód elérhetővé tétele más kutatóknak (open data, open analysis)
- érzékenység vizsgálata (sensitivity analysis): elemzést elvégzünk más módszerekkel is és megnézzük, hogy ugyanazt az
eredményt kapjuk-e
- specification curve analysis, multiverse analysis: minden lehetséges adatelemzési döntési kombinációt elvégzünk, és
megnézzük, hogy ezek hogyan befolyásolják a kapott hatásméreteket és szignifikanciát

REPLIKÁCIÓK JELENTŐSÉGE
- pszichológiai kutatások megismételhetősége viszonylag alacsony
- emiatt fontos, hogy az új eredményeket független mintán replikáljuk
- replikáció lehet teljes vagy konceptuális
- a konceptuális replikáció esetében a kérdésfelvetés lényegét próbáljuk megragadni és nem pont ugyanazt a kísérleti
ingert vagy mérőeszközt használjuk
- ha egy replikáció nem ugyanazt azt eredményt hozza, az több dolog miatt is lehet
o az eredeti tanulmány téves pozitív
o a replikáció téves negatív
o mindkettő eredmény helyes, de egy lényeges körülmény különbözött
- egy új kutatás azt találta, hogy az eredeti szerzők által jóváhagyott protokoll nem jár magasabb replikációs aránnyal

NYÍLT TUDOMÁNY (open science)


- a tudomány mertoni alapelvei alapján a bizonyítékokat szervezett módon kell ellenőrizni
- az open science, hogy a teljes kutatási folyamat legyen nyílt és bárki számára megismerhető
- ez kiterjed a kutatás adataira / anyagaira / elemzéseire / kész publikációra / ezek meglétét több folyóirat már a cikkel
közli
- mindezeknek platformot biztosít az osf.io (Open Science Framework)

FELTÁRÓ ADATELEMZÉSEK
- kutatást explorátorosként mutatjuk be, azaz nem tesztelünk rajta hipotéziseket (így pl. p értékeket sem kell számítani)
- szignifikancia szintjének lecsökkentése (többszörös tesztelésnél)
- az összefüggések igazolása egy új adathalmazon
- az adatok egy részének félrerakása ellenőrzés céljából (holdout dataset)  így a hipotézisgenerálás és az ellenőrzés két
külön adathalmazon tud megvalósulni

KUTATÁSI TRANSZPARENCIA CHECKLIST


- az ELTE Döntéspszichológiai Kutatócsoportja Aczél Balázs vezetésével készített egy transzparencia chechklistet
- ennek a használatával a kutatók fel tudják mérni, hogy a saját, vagy mások kutatása mennyire tekinthető átláthatónak

You might also like