Professional Documents
Culture Documents
Stat Ii
Stat Ii
Stat Ii
Korrelation............................................................................................................................................3
Scatterplot i SPSS:............................................................................................................................3
Korrelation i SPSS:..........................................................................................................................5
Rapport af resultater:........................................................................................................................6
Reliabilitet............................................................................................................................................7
Reliabilitet i SPSS............................................................................................................................7
Validitet................................................................................................................................................8
Faktor analyse.......................................................................................................................................9
SPSS...............................................................................................................................................10
Simpel lineær regression....................................................................................................................11
Regression i SPSS:.........................................................................................................................11
Rapport af resultater:......................................................................................................................12
Multipel lineær regression..................................................................................................................13
Multipel regression i SPSS:............................................................................................................13
Rapport af resultater:......................................................................................................................13
One-Way ANOVA.............................................................................................................................14
SPSS...............................................................................................................................................15
Opsummering.................................................................................................................................16
Factorial ANOVA..............................................................................................................................18
SPSS...............................................................................................................................................18
Opsummering.................................................................................................................................19
ANCOVA...........................................................................................................................................20
SPSS...............................................................................................................................................20
Opsummering.................................................................................................................................21
EMA-Guideline..................................................................................................................................22
Repeated Measures ANOVA.............................................................................................................23
SPSS...............................................................................................................................................23
Opsummering.................................................................................................................................25
Factorial Repeated Measures ANOVA..............................................................................................26
SPSS...............................................................................................................................................26
Side 1 af 33
Opsummering.................................................................................................................................27
Logistisk regression............................................................................................................................28
Logistisk regression i SPSS............................................................................................................29
Rapport af resultater:......................................................................................................................29
Valg af test
For at kunne skelne mellem de forskellige tests er det væsentligt at kende forskellen på kategoriske
variable (som i SPSS hedder ”nominal”) og kontinuerte variable (som i SPSS hedder ”scale”):
Side 2 af 33
- Kategoriske (nominal): Kan antage et begrænset antal værdier såsom køn (mand/kvinde),
behandlingsgruppe (Kontrol/CBT/Family Treatment) og outcome (succes/fiasko)
- Kontinuerte (scale): Kan antage principielt alle eller i praksis bare mange værdier (fx
højde, vægt, alder, IQ, HAMD, stuttering, score)
Ud fra nedenstående beslutningstræ kan man så finde den rigtige test med 3 trin:
1) Hvad er skalatypen for den afhængige variabel? (Venstre kolonne)
2) Er der én eller flere uafhængige variable? (Højre kolonner)
3) Hvad er skalatypen for den/de uafhængige variabel/variable?
Side 3 af 33
Korrelation
Hvornår bruger man denne test: Korrelation bruges, når data er kontinuerlig, og der ledes efter
graden af sammenhæng mellem den uafhængige og afhængige variabel. Vi kan kun sammenligne to
variable af gangen.
Side 4 af 33
Predictor variable: Uafhængig variabel
Criterion variable: Afhængig variable
Regression linje: Den bedste rette linje; den linje der passer bedst på den givne data
Kovarians: Kovariansen giver et tal for graden, hvorved to variable varierer sammen
- Formel: co v XY =
∑ ( X −X ) (Y −Y )
N−1
o X: Den uafhængige variabels scorer
o Y: Den afhængige variabels scorer
o X : Gennemsnittet af den uafhængige variabel
o Y : Gennemsnittet af den afhængige variabel
o N : Antal forsøgspersoner
Side 5 af 33
Korrelation i SPSS:
Analyze → Correlate → Bivariate → Variable til Variables → Vælg Pearson eller Spearman → OK
Side 6 af 33
Rapport af resultater:
Korrelationen: r(df) = ?, p = ?
Eksempel
En korrelationsanalyse viste en stærk positiv korrelation mellem stress og depression, r(4) = .87, p
< .05
Side 7 af 33
Reliabilitet
Reliabilitet: Hvor akkurat måler testen? Kan vi få samme resultater på forskellige tidspunkter?
True score: Den sande score er det tal, som ville opnås, hvis testen var 100% præcis og uden
diverse errors, bias etc.
Obtained score: Den observerede værdi, f.eks. fra et spørgeskema.
Error: Afvigelsen mellem true score og obtained score.
Inter-rater reliability: Intern konsistens, subjektivitet indgår i testen – hvor stor korrelation er der
mellem alle scorernes scorer.
Konfidensinterval for den sande score: I et interval hvor vi kan være 95% sikre på, at den sande
score findes, er konfidensintervallet:
- C I .95=score ± 1.96⋅ SEM
Hvor SEM er:
- SEM =SD ⋅ √ 1−reliability
Reliabilitet i SPSS
For retest: Analyze → Correlate → Bivariate
For split-half eller Cronbach's alpha: Analyze → Scale → Reliability
- Under model: Vælg enten Split-half eller Alpha
For konklusion:
- Test-retest: Kig på korrelation (Pearson)
- Split-half test: Spearman-Brown correction
- Internal test: Cronbach's alpha
Side 8 af 33
Validitet
Content-related validity: Hvor repræsentativ er testen ift. det, der måles (domænet)?
Side 9 af 33
Faktor analyse
Hvornår bruger vi testen: Vi bruger testen, når vi har en masse variable, som vi gerne vil reducere
ned til nogle overordnede kategorier. Man ”kollapser” dermed sine variable ind under nogle
overordnede overskifter.
Man har fx benyttet faktoranalyse til udarbejdelse af Big Five og HEXACO modellen.
Definition af begreber
Factor: En faktor er en samling af komponenter, der korrelerer meget med hinanden. Det gælder, at
man kan udregne lige så mange faktorer, som der er observerede variable (items).
Factor loading: Faktorvægte angiver, hvor meget hver af de udtrukne faktorer korrelerer med hver
af de observerede variable.
Factor matrix / Component matrix: Det er i denne matrix (boks), hvor faktorvægtene bliver
præsenteret i SPSS.
Eigenvalue: Hvor meget de enkelte faktorer forklarer af den totale varians for alle observerede
variable. Det er summen af de kvadrerede korrelationer.
2 2
- Eigenværdi=r fakto r variabe l + r faktor variabel + …
n n n n
Scree plot: En grafisk afbildning af faktorerne i SPSS. Her kan man se antallet af faktorerne, der
skal udtrækkes.
Kaiser’s criterion: Kaisers kriterium siger, at man kun beskæftiger sig med faktorer med en
eigenværdi over 1.
Side 10 af 33
Rotation: Akserne roteres for at få det bedst mulige match. Man vil gerne have, at de forskellige
items ”passer” godt til faktoren. Når man roterer, reduceres kovariationen mellem klyngerne af
variable.
- Orthogonal rotation: (Den vi benytter) Items er uafhængige – ingen korrelation
- Oblique rotation: Komponenterne må gerne korrelere.
SPSS
Analyze → Dimension Reduction → Factor
Alle variabler, som vi er interesserede i, skal over i ”Variables”. Der skal ikke noget i ”Selection
variable”.
Under ”Extractions” kan man både få et scree plot, men man kan også vælge at basere sin analyse
på Eigenværdien eller på et bestemt antal faktorer (det sidste er dog primært, hvis der bliver spurgt
til det i opgaven).
Under ”Options” kan man sortere faktorvægte efter størrelse, og man kan frasortere alle faktorvægte
under en bestemt værdi (udgangspunkt er som regel 0,4).
Aflæsning af resultater
- Communalities: Kommunalitet aflæses her
- Total Variance Explained: Eigenværdierne bliver vist her
- Component matrix: Her kan man se faktorvægtene før rotation
- Rotated component matrix: Faktorvægte efter rotation. Hvis man har lavet rotation, så
skal man aflæse i denne boks og ikke i component matrix
Side 11 af 33
Simpel lineær regression
Hvornår bruges denne test: Statistisk model, der kan prædiktere værdien af en kontinuerlig
afhængig variabel ud fra værdien af en uafhængig variabel.
Regressionslinjen er den bedste rette linje for sammenhængen mellem variablerne.
Kan anvendes som hypotesetest, hvor der testes, hvorvidt den uafhængige variabel signifikant kan
forudsige den afhængige variabel.
Regression:
- Y^ =b1 X 1+ b0
o Y ^ : Den prædikterede værdi af den afhængige variabel. En model, dvs. at den er
udregnet og ikke en absolut værdi.
o b 1: Hældningskoefficienten for den uafhængige variabel
o X : Den uafhængige variabel
o b 0: Skæringspunktet med Y-aksen
Slope: b1: Hældningen
co v XY
- b 1= 2
sx
Residual: Forskellen mellem de observerede og forventede værdier. Den bedste rette linje mindsker
residualerne mest muligt (der skal være så lille forskel som mulig, så er modellen så godt som
muligt).
Regression i SPSS:
Analyze → Regression → Linear → Indsæt variablerne i Dependent og Independent
Side 12 af 33
For at finde b-værdierne kigger man under B
- Constant er interceptet/skæringspunktet
For at finde ud af, hvilke af de uafhængige variable, der har en signifikant indflydelse på den
afhængige variabel, kigger man under Sig.
- Her er Age signifikant, og det betyder, at den afhængige variabel stiger med alderen og altså
ikke er horisontal.
Rapport af resultater:
Rapport af b-værdierne: b = ?, t(df) = ?, p = ?
Rapport af regressionslinjen: Y^ =b1 X 1+ b0
Rapporter R2
Side 13 af 33
Multipel lineær regression
Hvornår bruger man denne test: Statistisk model, der kan prædiktere værdien af en kontinuerlig
afhængige variabel ud fra værdien af flere uafhængige variable.
- Alt er magen til ved simpel lineær regression → der er bare flere uafhængige variable
Multipel regression:
- Y^ =b0 +b1 X 1 +b 2 X 2 …+b n X n
Squared correlation coefficient (R2): Hvor meget af variansen kan de uafhængige variable
tilsammen forklare
Multicollinearity: Hvor meget prædiktorerne (de uafhængige variable) korrelerer med hinanden.
Hvis variablene korrelerer meget → ustabil regression
Rapport af resultater:
Rapport af b-værdierne: b = ?, t(df) = ?, p = ?
Rapport af regressionslinjen: Y^ =b1 X 1+ b0
Rapporter R2
Side 14 af 33
One-Way ANOVA
Hvornår bruger man denne test: Når man har én uafhængige variabel, men flere end 2 grupper.
Eksempel: Behandling som uafhængig variabel med de 3 niveauer: CBT, Psykoanalyse og FT.
ANOVA sammenligner variansen mellem grupperne med variansen inden for grupperne.
Hvorfor ikke bruge en t-test: t-testen kan kun undersøge forskellen mellem de to grupper, og vi
ville derfor skulle lave 3 t-tests for at undersøge forskellen mellem de 3 grupper.
Jo flere tests vi bruger, des større sandsynlighed for Type 1 fejl. Type 1 fejl = at forkaste nul-
hypotesen, i de tilfælde hvor der faktisk ikke er nogen forskel på populationerne.
Ved 3 t-tests i stedet for 1 ANOVA ville family-wise error rate være:
1 – (.95)3 = .143 = 14.3 %
Vores error rate ville altså være alt for høj, da den som udgangspunkt ikke må overstige 5% for
gængs forskning.
- df =N−1
SSgroup: Summen af kvadrerede afvigelser i gruppen (dvs. en bestemt gruppe). For at finde ud af,
hvor meget der varieres inden i en gruppe.
- S S groups =∑ n ( X group− X gm )
2
Side 15 af 33
MSerror: Variansen indenfor grupperne
S S error
- M S error=
d f error
Finde den kritiske F-værdi og hypotesetestning: Tabel E.3 under frihedsgraderne for Groups og
Error. F.05(dfgroups, dferror)
Den udregnede F-værdi skal være højere end den kritiske værdi for at kunne forkaste nulhypotesen
Pooled variance:
s21 ( n1−1 ) + s 22 ( n 2−1 )
2
Pooled variance for 2 grupper er: s = p
n1 +n2−2
2 2 2
s1 ( n1−1 ) + s 2 ( n 2−1 ) + s3 ( n3−1 )
2
Det kan udvides til flere grupper: s = p og ja så fortsætter den med 4
n 1+ n2+ n3−3
og 5 osv osv.
2 2 2
s1 + s2 + s3
Hvis n1 =n2=n 3 gælder så kan formlen reduceres til dette: s p= 2
3
Beskyttet t-test: Bruger til at teste hvor forskellen ligger efter at have fået en signifikant F-værdi.
X i− X j
t=
-
√ 1 1
M S error ⋅( + )
ni nj
Ved sammenligning af 3 grupper med t-test – virker ikke med flere end 3 grupper.
Testen forudsætter, at F-testen er signifikant.
Den beskyttede t-test sikrer, at familywise error rate ikke overstiger 5%.
Side 16 af 33
.05
Eksempel: Hvis vi har α = .05 og udfører 3 tests, bliver det nye signifikansniveau: =.0167
3
SPSS
Analyze → General linear model → Univariate
- Options: Estimates of effect size
- Plots: Mean plots
- Post hoc: Vælg LSD for den beskyttede t-tests
Hvis F-værdien er signifikant, ved man, at der mindst er en gruppe, der er signifikant forskellig fra
de andre, men vi kender ikke fordelingen. Vi bruger Fishers LSD-test til at teste dette.
Opsummering
ANOVA: F(dfGroups, dfError) = ?, p = ?, η2 = ?
LSD t-test: t(dfError) = ?, p = ?, CI.95: ? ≤ µ ≤ ?
Side 17 af 33
Eksempel
24 studerende blev tilfældigt inddelt i tre grupper og sat til at studere en tekst i 20 minutter,
hvorefter de skulle besvare 10 multiple choice spørgsmål. Grupperne studerede teksten med hhv.
konstant, varierende eller ingen baggrundsstøj. En one-way ANOVA viste en signifikant effekt af
baggrundsstøj på antal korrekte spørgsmål (F(2, 21) = 3.5, p = .048, η2 = .25. Posthoc analyse
(Fishers LSD test) viste, at gruppen med konstant baggrundsstøj havde signifikant flere spørgsmål
korrekt (M = 6) end gruppen med ingen baggrundsstøj (M = 3.5) (t(21) = 2.5, p = .021).
Side 18 af 33
Factorial ANOVA
Hvornår bruger man denne test: Estimat af forskellen mellem 2 eller flere gennemsnit på tværs af
2 eller flere uafhængige variable.
Interaktion: Om den ene uafhængige variabel påvirker den anden, dvs. om der er en form for
sammenhæng. Effekten af en forklarende variabel afhænger af niveauet på den anden forklarende
variabel.
- Man fortolker interaktionen ud fra en graf. Er linjerne parallelle, er der ingen interaktion (p
> .05). Hvis linjerne skærer hinanden, er der interaktion (p < .05).
Main effect eller hovedeffekt: Den gennemsnitlige effekt af en forklarende variabel på tværs af
flere niveauer af en anden forklarende variabel.
Side 19 af 33
Formel for Partial Eta-Square
SS Variabel
η2p =
SSVariabel + SS Error
Man får SPSS til give værdierne. Du kan dog også bare udregne det med SPSS ved krydse
Estimates of effects
SPSS
Analyze → General Linear Model → Univariate
Dependent variable (indsæt afhængig variabel)
Fixed Factor (indsæt uafhængige variable)
- Plot: Plots → Horizontal Axis; Seperate lines (det er lige meget, hvor de uafhængige
variable placeres) → Add
- Options: Effektstørrelse og deskriptiv statistik
Opsummering
Opsummeringen skal indeholde deskriptiv statistik (M, SD) og resultaterne for ANOVAen
(F(dfGroups, dfError) = ?, p = ?, ηp2 = ?).
Eksempel
Et studie der undersøgte mødres og børns relation på en skala fra 0-12 ift. om mødrene var
førstegangsfødende (primo) eller flergangsfødende (multi) og om barnets vægt var undervægtig
(LBW) eller normalvægtig (LB). En faktorial analyse af varians viste følgende:
Det viste sig at fødselsvægten (F(1, 36) = 3.032, p = .090 og ηp2 = .78) var over signifikansniveauet
på 5% og denne havde altså ikke en signifikant påvirkning på forholdet mellem mor og barn.
Side 20 af 33
For om mødrene var førstegangsfødende eller flergangsfødende var signifikant F(1, 36), p = .019,
ηp2 = .145, da p-værdien er under signifikansniveauet, kan vi bekræfte at om moderen har født før
har en påvirkning på om relationen mellem barn og moderen er god. Dette kan også ses på grafen
da førstegangsfødende ligger signifikant lavere end flergangsfødende (MFT=6,4, MLBW=5,3).
Interaktionen viste at F(1, 36), p = .885 og ηp2 = .001, da signifikansniveauet er over 5% kan vi
forkaste at der er en signifikant interaktion mellem barnets vægt og moderens fødselsstatus. Dette
kan ses på grafen da linjerne er parallelle.
Side 21 af 33
ANCOVA
Hvornår bruger man denne test: En ANCOVA anvendes, når man ønsker at sammenligne
forskelle, fx imellem behandlingsmetoder, men hvor man ønsker at korrigere for en kovariat – ofte
er denne kovariat baseline. ANCOVA er kendetegnet ved:
- Der er 2 eller flere grupper
- Der er 2 eller flere uafhængige variable (kovariaten tæller som en uafhængig variabel)
- Der antages uafhængighed mellem målingerne
- Man kan analysere interaktion, men ønskes sjældent
- Designet af between-subjects (man sammenligner forskelle imellem grupper)
Hvorfor bruger ANCOVA og ikke t-test: Årsagen til, at man anvender en ANCOVA, er, at man
kan korrigere for en kovariat (baseline). Dette reducerer støj i form af "confounders" og øger graden
af power.
Kovariat: En kovariat er en variabel, som ikke er en del af den eksperimentelle manipulation, men
som influerer den afhængige variabel
- Fx baseline-scorer som påvirker end-of-treatment scorer, hvorfor man korrigerer for
baseline.
Stratificering: Når man på forhånd forsøger at udligne kovariater - fx hvis man ved, at køn vil have
en indflydelse på resultaterne, vil man inddele i lige store grupper (altså lige mange drenge/piger i
hver gruppe).
Interaktion: Vi medtager kun interaktioner, hvis vi vil udføre en sekundær eksplorativ analyse
- Hvis der er en interaktion mellem den uafhængige variabel og kovariaten, er undersøgelsen
gyldig => ANCOVA kan IKKE udføres.
SPSS
Analyze → General linear model → Univariate
Vælg ”Dependent” og ”Fixed factor” og ”Covariate”
- Plot: Hvis plot ønskes. Vælg ”horizontal akse”. Hvis flere variable, vælg også for ”seperate
lines”
- Options: ”Estimates of effect size” for partial eta-square. For at lave pairwise comparisons
for sammenligne forskellen i de justerede gennemsnit: Flyt variable over i ”Display means
for” og ”Compare main effects”
Side 22 af 33
Opsummering
ANOVA: F(dfGroups, dfError) = ?, p = ?, ηp2 = ?
Eksempel
En en-vejs ANCOVA (two-tailed, α = .05) med baseline som kovariat viste en signifikant lavere
HAMA-angst score for PA behandling sammenlignet med CBT behandling efter et endt
behandlingsforløb (F(1, 75) = 24.716, p < .001, ηp2 = .248). Forskellen i de justerede gennemsnit var
5.383 (95% konfidensinterval fra 3.226 til 7.539).
Side 23 af 33
EMA-Guideline
Covariat
Definition af baseline kovariat (EMA):
- Kendt inden randomisering og har indflydelse på den afhængige variabel
- Kan være kategorisk (fx køn) såvel som kontinuert (fx alder)
- Variable brugt til stratificering skal indgå som kovariater (og opfølges af sekundær analyse
af interaktion)
EMA Guideline om baseline performance:
- Hvis baseline performance er målt, så skal den med som kovariat (sektion 1 og 5.6)
- Argument: Baseline performance er en god ”proxy” for alle relevante kovariater, fordi den
vil påvirke både ved T0 og T1
- Man kan så nøjes med denne, da det frarådes at have for mange kovaraiter med (sektion 6.1
og 6.2). Hvis man har for mange kovariater, bliver det en dårligere statistisk model med
mindre power
- OBS: Variable brugt til stratificering skal altid medtages som kovariater, også selvom
baseline performance er med (jf. Stevens eksempel fra forelæsningen)
Side 24 af 33
Repeated Measures ANOVA
Hvornår bruger man denne test: Når de samme deltagere måles flere gange – altså er målingerne
afhængige. Enten over tid eller ved forskellige mål (intelligens, hukommelse).
- God da den reducerer en stor mængde error ved at sortere de individuelle forskelle fra.
- Individet frem for gruppen
- Svarer til en paired samples t-test
- Ulempe: Carry-over effekt (fejlene/misklassifikationer vil gå igen i alle målinger).
Forudsætninger: Forudsætninger for testen er samme som ved andre parametriske tests:
- Normalfordeling
- Homogenitet af varianserne (antager vi altid)
- Sfæricitet (se afsnit om sfæricitet)
Sfæricitet: Alle niveauer af within-variablen skal have ækvivalente korrelationer. Det vil sige, at
alle patienter udvikler sig i samme sfæriske mønster (der er ens udvikling over tid).
- Hvis Mauchly's test of Sphericity ikke er signifikant, så er der sfæricitet → Kig under
Sphericity Assumed
- Hvis Mauchlys test er signifikant, er der ikke sfæricitet → Kig under Huynh-Feldt
o Frihedsgraderne bliver mindre og dermed bliver de kritiske værdier større → mere
konservativ
SPSS
Analyze → General linear model → Repeated measures → Number of levels: antal niveauer for
målingen → Add.
Indsæt variablerne i kronologisk rækkefølge.
Side 25 af 33
Options: Få effektstørrelser og parvise sammenligninger (LSD t-test)
Aflæsning af resultater
Hvis Mauchly’s test ikke er signifikant, er der sfæricitet – aflæser under sphericity assumed:
Side 26 af 33
Hvis Mauchly’s test er signifikant, er der ikke sfæricitet – aflæser under Huynh-Feldt:
Opsummering
ANOVA: F(dfGroups, dfError) = ?, p = ?, ηp2 = ?
LSD t-test: t(dfError) = ?, p = ?, CI.95: ? ≤ µ ≤ ?
Eksempel
5 personer fik målt deres stressniveau med Perceived Stress Scale (score fra 0-40, lav score er godt)
før (baseline) og efter 1 månede mindfulness-terapi og ved 6 måneders follow-up. En repeated
measures ANOVA viste en signifikant effekt af mindfulness-terapi over tid (F(2, 8) = 47.91, p
< .001, ηp2 = .923). Planlagte parvise sammenligninger viste et signifikant fald af stress-score fra
baseline (M = 24) til post test (M = 13) (t(8) = 12.3, p < .001) og fra baseline til follow-up test (M =
Side 27 af 33
15) (t(8) = 6.71, p = .003), men ingen signifikant forskel fra post til follow-up test (t(8) = -1.53, p
= .200).
Side 28 af 33
Factorial Repeated Measures ANOVA
Hvornår bruger man denne test: Hvis der er mere end en uafhængig variabel, og hvis vi måler de
samme personer flere gange. Vi undersøger signifikansen af flere main effects for de uafhængige
variable, samt interaktionen mellem variablerne.
Sfærcitet: Alle niveauer af within-variablen skal have ækvivalente korrelationer. Det vil sige, at
alle patienter udvikler sig i samme sfæriske mønster (der er ens udvikling over tid). En uafhængig
variabel skal have 3 eller flere niveauer, for at Mauchly’t test laves.
- Hvis Mauchly's test of Sphericity ikke er signifikant, så er der sfæricitet → Kig under
Sphericity Assumed
- Hvis Mauchlys test er signifikant, er der ikke sfæricitet → Kig under Huynh-Feldt
SPSS
Analyze → General Linear Model → Repeated Measures
Dialog 1: Angiv antallet af faktorer samt antallet af niveauer under den givne faktor.
I eksemplet ville size har 2 levels, da der enten kan være 3 eller 5 bogstaver - ligeledes vil quality
have 2 levels, da der enten kan være maskerede eller ikke-maskerede bogstaver.
Dialog 2: Her er det vigtigt at parre de korrekte variable ud fra datasættet. Her er det (Size, Quality),
hvor du vælger, at Size3 = 1 og Easy = 1, mens Size5 = 2 og Diff = 2. Kombiner variablerne med
hinanden.
- Plot of means kan tilføjes under plots
- Descriptives, effect size og compare main effect findes under options
Side 29 af 33
Resultater
Tjek Mauchlys test
- Hvis den ikke er signifikant, er der sfæricitet → Sphericity Assumed
- Hvis den er signifikant, er der ikke sfæricitet → Huynh-Feldt
Opsummering
Der skal være for hver hovedeffekt og en for interaktionen (3 konklusioner)
- ANOVA: F(dfGroups, dfError) = ?, p = ?, ηp2 = ?
Eksempel
En faktoriel repeated measures ANOVA af de gennemsnitlige reaktionstider med Memory (3 vs. 5
bogstaver) og Quality (umaskeret vs. maskeret) viste en signifikant hovedeffekt af Memory (F(1,
141) = 139.68, p < .001, ηp2 = .498) og Quality (F(1, 141) = 23.11, p < .001, ηp2 = .141), men ingen
signifikant interaktion (F(1, 76) = 1.54, p = .216, ηp2 = .011).
Side 30 af 33
Logistisk regression
Hvornår bruger man denne test: Når man har en kategorisk, binær afhængig variabel, samt en
eller flere uafhængige variable. Kan fx forudsige barnets køn (kategorisk afhængig variabel) ud fra
morens alder og depressionsscore (uafhængige variable).
Sigmoid curve: Fordi den afhængige variabel er kategorisk, får vi ikke en ret linje. Vi får en
sigmoidkurve (bruger den ikke til noget her på Statistik 2).
Regressionsformel:
- log odds=b 0 +b1 X 1 +b2 X 2
o Bruger ikke denne, hvis vi kan have den anden
X1 X2
- odds=odd sb 0 ⋅ O R b 1 ⋅ O R b 2
Side 31 af 33
Odds er en anden måde at udtrykke en grad af sikkerhed om, at en event vil forekomme. Her er vi
ikke interesserede i sandsynligheden for en event forekommer, men vi er interesserede i ratioen af
sandsynligheden af succes over sandsynligheden for fiasko.
Odds ratio: Når man udregner odds ratio kan man sige noget om sammenhængen mellem faktorer
odd s2
- ¿=
odd s1
Nagelkerke R2: Fortolkes præcis som R2 ved lineær regression. Hvor god er vores model.
- "B": Angiver b-værdierne i den log odds regressionsformlen. Det angiver OR.
- Exp(B): Angiver odds ratioerne for de uafhængige variable
- Sig.: p-værdien for de uafhængige variable
- 95% CI for EXP(B): Konfidensintervallet for odds ratioen
Side 32 af 33
Rapport af resultater:
OR: OR = ?, p = ?, CI.95: ? ≤ OR ≤ ?
Side 33 af 33