Download as odt, pdf, or txt
Download as odt, pdf, or txt
You are on page 1of 11

Wykład 1 – podstawowe wiadomości

Co to jest psychologia?
• nauka o człowieku, emocjach itp
• komunikacja, procesy umysłowe, emocje i motywacja
Co to metodologia?
• nauka o tym w jaki sposób gromadzić wiedzę
• ma za zadanie zobiektywizować zdobywaną wiedzę: obiektywnie, powtarzalnie
Co to jest Metoda – procedura
Co to jest statystyka i po co jest?
• sprawia ze nasza nauka staje się bardziej biologiczna niż humanistyczna
• Dzięki niej potrafimy spowolnić trzy najważniejsze funkcje nauki:
◦ opis - potrafimy opisać
◦ wyjaśnienie - poszukać związku badanego zjawiska z innymi znanymi i
niezrozumianymi zjawiskami
◦ predykcja – przewidywanie
Jak metodologia nam w psychologi pomaga
• co to jest nauka? uporządkowana i usystematyzowana oparta na doświadczeniach i podparta
standardami naukowymi od wiedzy naiwnej, która jest nrieustystemtyzowana, niepewna i
nie jest podparta systematycznymi doświadczeniami
• Wiedza naukowa - NIE JEST UDOWODNIONA
• Nauka niczego nie potrafi udowodnić
• nauka w psychologii nie daje dowodów prawidłowości tylko daje przesłanki zwiększające
prawdopodobieństwo występowania jakiegoś zjawiska
Jak przebiega badanie
• Pierwsze pytanie to pytanie badawcze - co to jest pytanie badawcze? Skąd się bierze?
Zainteresowania, obserwując życie, przeglądając różne badania, dyskusja, z głowy (czyli z
niczego), kiedy sami spotykamy problem. Faza twórczości - generowanie pomysłów bez
oceniania. Są dwa rodzaje pytań:
◦ rozstrzygnięcia (czy?),
◦ uzupełnienia (które, w jakim stopniu, jakie) – lepiej je zadawać.
• Pytanie badawcze powinno prowadzić nas do postawienia hipotezy. Hipoteza to założenie,
przypuszczenie, oczekiwana odpowiedź na pytanie badawcze. Hipotezy muszą być
odpowiedzią na pytanie, nie możemy postawić hipotezy bez postawienia pytania. Zwykle to
1 pytanie 1 hipoteza, ale niekoniecznie - hipotez może być więcej niż pytań. Hipotezy
powinny być:
◦ proste,
◦ konkretne - napisane za pomocą języka możliwe związanego z terminologią naukową
(nie używamy słów potocznych), używamy terminów, których trzymamy się przez cały
opis naszego badania, ZAWSZE używamy tych samych terminów (nie używamy
synonimów, synonim nie zawsze oznacza to samo),
◦ zwięzłe - tak krótka jak tylko możliwe, powinna ucztować takich terminów które maja
swoją bazę
Hipotezy występują w dwóch postaciach:
◦ kierunkowe
◦ bezkierunkowe
Stawiamy zawsze:
◦ hipotezę zerową (h0) – odpowiedź negatywna na pytanie badawcze, zjawisko nie
zachodzi.
◦ hipotezę alternatywną (h1) – odpowiedź pozytywna na pytanie badawcze, różnice są
możliwe do zaobserwowania.

Wykład 2 i 3 – Zmienne
Co to jest zmienna?
Zmienne to pewne właściwości, którymi opisujemy obiekty badane. Są one nieobserwowalne.
Wnioskujemy o nich na podstawie wskaźników, mamy dwa modele zmiennych:
• Refleksyjny (dominujący w psychologii) – właściwość badana istnieje, choć nie mamy do
nie dostępu.
• Formatywny, który zakłada, że owe właściwości są użytecznym konstruktem
(uproszczeniem złożonej rzeczywistości), jednak nie czymś obiektywnie istniejącym.
Jako że jest nieobserwowalna, zmienna wymaga zdefiniowania oraz zoperacjonalizowania –
dobranie odpowiednich wskaźników obserwowalnych, za pomocą których będziemy wnioskować o
zmiennych (opisujemy je).
Wskaźniki zmiennych
• Trafność - czy pozwala mierzyć to, co ma mierzyć.
• Rzetelność - jak dokładnie mierzy to, co mierzy, mówi o powtarzalności wyników.
Operacjonalizacja - złożenie danych cech (wskaźników) w taki sposób, by opisywały daną
hipotezę, trzeba podać definicję zmiennych i określić jak będą mierzone. Zmienna jest
nieobserwowalna i możemy obserwować dzięki wskaźnikom.
Podział zmiennych
• Funkcja
◦ Zależna (wynikowa/wyjaśniana) - jest skutkiem zmiennej niezależnej - badacz ją
obserwuje i dokonuje pomiaru. W badaniach nie eksperymentach - jest to zmienna
wyjaśniana (te same właściwości jak zależna) lub wynikowa.
◦ Niezależna (predyktor/czynnik/wyjaśniająca) - jest przyczyną (jakiegoś zjawiska) -
badacz ją kontroluje i manipuluje (występuje tylko w eksperymencie). W badaniach nie
eksperymentach - jest to zmienna wyjaśniająca (te same właściwości jak niezależna) lub
predyktor.
• Zmienne pośredniczące
◦ Endogeniczna - zmienna pośrednicząca będąca skutkiem.
◦ Egzogeniczna - zmienna pośrednicząca będąca przyczyną.
◦ Mediator - "zależy i wpływa" jest wyjaśniona przez przyczynę, a przyczyna jest
wyjaśniona przez skutek.
◦ Moderator - zmienna niezależna od przyczyny, "wpływa" na kierunek i siłę związku
między przyczyną a skutkiem (ogranicza go lub zwiększa), czyli moderuje, jest jednak
czynnikiem niezależnym od innych.
• Skala pomiarowa - jak dokładnie dany wskaźnik jest w stanie określić zmienną; mówi o
rzetelności wskaźników
◦ Nominalna - badane obiekty różnią się od siebie, ale nie możemy ich uporządkować
według kryterium lepszy/gorszy (np. płeć - kobieta vs. mężczyzna); kraj pochodzenia
(np. Polska, Rosja, Niemcy); wyznawana religia (np. chrześcijaństwo, judaizm, islam).
◦ Porządkowa - potrafimy uporządkować, ale kolejne poziomy nie mają równego
przejścia (np. pozycja w wyścigu (Leader > Peleton > Zamykający); status materialny
(biedny < ubogi < niezamożny < średniozamożny < zamożny < bogaty); wzrost (wysoki
> przeciętny > niski); BMI (otyłość > nadwaga > w normie > niedowaga); wykształcenie
(podstawowe > zawodowe > średnie > wyższe [jakie wyższe?]).
◦ Ilościowa - pozwala określić, o ile jakieś przedziały się od siebie różnią.
▪ Przedziałowa (interwałowa) - dzieli wartości na równe przedziały (np. ocena 2, 3, 4,
5)
▪ Ilorazowa - ma absolutne zero (nie da się zejść poniżej), do którego wszystko
odnosimy, mierzymy od zera absolutnego (możemy mówić, że coś jest ileś razy
większe)
• Kryterium ciągłości
◦ Zmienne dyskretne (skokowe) - przeskakuje z poziomu na poziom bez wartości
pośrednich (baba lub chłop, nie ma nic pomiędzy); wszystkie zmienne nominalne i
porządkowe.
◦ Zmienne ciągłe - zmienne, w których pomiędzy dwoma wartościami jest nieskończenie
wiele wartości pośrednich

Wykład 4 – rozkład Gaussa


Zmienne losowe
• nie możemy przewidzieć jednej próby
• proces losowy w wielu powtórzeniach daje nam pewien wzorzec
Rozkład Gaussa
• Rozkład gęstości
• oś Y - prawdopodobieństwo wystąpienia danej wartości X
• średnia ma symbol M (Me?) - mediana
• da się obliczyć dystrybuantę
• nie da się obliczyć gęstości
• dystrybuanta rozkładu normalnego - opisane całką P(xi<x)
• Xi to dany, konkretny wynik
• Wyniki mniejsze niż średnia stanowią połowę wyników
• Granicą prawdopodobieństwa jest 0 i 1- w rozkładzie dystrybuanty
• sigma (σ) oznacza odchylenie standardowe w populacji, odchylenie standardowe mówi o ile
przeciętny wynik może różnić się od średniej
• Przedziały ufności
◦ w tym przedziale +-1 SD (odchylenie standardowe – standard devieiszyn) znajduje się
ok. 68% wszystkich wyników
◦ w przedziale +-2 SD znajduje się 95%
◦ w przedziale +- 3 SD znajduje się ponad 99%
◦ Wszystko co wykracza poza 3 odchylenia standardowe umyka statystyce
Laplace
Granica prawdopodobieństwa w rozkładzie normalnym to 1 (maksimum) i 0 (minimum) – funkcja
się do nich zbliża, jednak nigdy ich nie osiąga (prawdopodobieństwo zawsze jest większe niż 0% i
mniejsze niż 100%)

Standaryzacja zmiennej rozkładu normalnego – obliczanie


zmiennej Z
Zmienna Z mówi nam ile odchyleń standardowych dany wynik Xi różni się od średniej. Wyniki
zmiennej Z określane są względem 0, czyli mogą być na minusie – tzn. ilość odchyleń
standardowych poniżej średniej, lub na plusie, czyli ilość odchyleń standardowych powyżej
średniej.
Wzór:
Z = (Xi – M) : σ
Z – zmienna Z Xi – konkretny wynik M – średnia σ – odchylenie standardowe
Działanie to pozwala:
• służą nam aby oszacować wynik zmiennej losowej i zmieniać go w kategorię
prawdopodobieństwa
• wszystkie rozkłady zmiennych po sprowadzeniu do jednostki Z, mają ten sam kształt
• dzięki Z możemy dokonać analizy całki (wyniku - Xi)
• O czym nam mówi:
◦ jednostki Z opowiadają o tym, o ile odchyleń standardowych (SD) dany wynik Xi różni
się od średniej (M)
◦ Jakie jest prawdopodobieństwo, że w populacji uzyskamy wynik niższy niż
standaryzowany wynik zmiennej (Zi)
◦ Jaki procent populacji ma wynik niższy niż dany Z (Zi)

Wykład 5 – korelacja
Korelacja - oznacza, że jakaś zmienna x w jakimś stopniu współwystępuje ze zmienną y (nie
oznacza wpływów). Pomiędzy x a y może być zmienna pośrednicząca (np. mediator), może
wpływać na związek lub go wyjaśniać. Korelacje rozumiemy jako współczynnik korelacji, czyli
liczba wyrażona w przedziale <-1; +1> - określa ona siłę i kierunek występowania zmiennych x i y.
Korelacja wiąże się z zależnością liniową. Zależność liniowa to taka, której wykres pomiędzy x a y
stanowi linię będącą uśrednieniem rozłożonej równomiernie wzdłuż niej „chmury” punktów
odpowiadających zaobserwowanym wynikom (linia stanowiąca średnią powinna więc względnie
określać mniej więcej stały kierunek i siłę) Korelacja może więc być:
• dodatnia - powyżej 0, r>0 (im większe są wartości zmiennej x tym większe przeciętnie
wartości zmiennej y),
• ujemna – r<0 (im większe x tym przeciętnie mniejsze y).
Korzystamy z dwóch współczynników korelacji:
• Współczynnika korelacji liniowej Pearsona (r)- służy do oszacowania siły
współzależności liniowej między dwiema zmiennymi ilościowymi. Ten współczynnik
posiada największą moc statystyczną. Stosujemy go dla:
◦ zmiennych ilościowych (mierzalnych),
◦ zależność musi być liniowa,
◦ liczba obserwacji powinna być znacząca (np. więcej niż 30 – choć to kwestia względna
– niektórzy liczą od 15),
◦ zalecana jest homogeniczność populacji,
◦ → jeśli któryś warunek nie jest spełniony stosujemy Spearmana, co też robimy, gdy
dysproporcja między obiema analizami przekracza 0,15.
• Współczynnika korelacji rang Spearmana (ρ – rho) - modyfikacja, rozwinięcie metody
Pearsona dla zmiennych porządkowych.
Wartość bezwzględna współczynnika korelacji:
• Im bliżej 1 tym związek jest silniejszy.
• Im bliżej 0 tym związek jest słabszy.
• 0 oznacza brak związku.
• 1 oznacza związek idealny.
Podział wg Fishera:
• od 0 do 0,3 – korelacja nieznaczna od
• 0,3 do 0,5 – korelacja umiarkowana
• od 0,5 do 0,7 – silna
• od 0,7 do 1 – bardo silna,
• opcjonalna od 0,9 do 1 jako idealna (wg Cohena)
Podniesiony do kwadratu współczynnik korelacji – wyjaśnienie wariancji/współczynnik
determinacji – mówi o tym, w jakim stopniu różnice zmiennej wynikowej są wyjaśniane przez
zmienną wyjaśniającą (predyktor). Wg Cohena:
• od 0 do 0, 03 – związek jest nieznaczny,
• od 0,03 do 0,08 – umiarkowany
• od 0,08 do 0,12 – silny
• powyżej 0,12 – bardzo silny
Korelacja pozorna – gdy jakieś zmienne współwystępują, jednak nie ma między nimi sensu
przyczynowo-skutkowego.

Wykład 6 – hipotezy i błędy


Hipoteza – dotyczy parametru w populacji, parametr znany jest tylko w przybliżeniu, gdyż to
przewidywania, co do całej populacji (wszystkie jednostki spełniające określone kryterium), której
nie przebadaliśmy. Oszacowanie przeprowadza się na podstawie przebadanej próby (część
przebadanej populacji) – wtedy parametr zmienia się na estymator. Estymator ma dokładną
wartość, gdyż odnosi się do ścisłych danych, można go policzyć matematycznie. Pozwalają one
postawić, zweryfikować hipotezę o parametrach.
Czynnik Populacja (greckie znaki) Próba (przeważnie łacińskie)
Średnia r lub M,m??? x „z daszkiem”
Wariancja – zróżnicowanie σ² (sigma2) s2
wyników zmiennej, pozwala
określić odchylenie
standardowe
Odchylenie standardowe σ s

Korelacja ρ r

Różnica między średnimi Δ d „z daszkiem”


(delta)

Błąd alfa i beta


Stawiamy dwie hipotezy:
• H0 – hipoteza przeciwna do badawczej, zawsze musi być w niej znak równa się (mniejsze,
bądź równe itp.) - jest najważniejsza dla statystyki, gdyż to właśnie ją weryfikuje
• H1 – hipotez badawcza,
• W konsekwencji mamy dwa rodzaje błędów:
◦ Błąd α/błąd pierwszego rodzaju – w badaniu wykrywamy efekt rzeczywistości, który
nie istnieje – rzeczywiście jest H0, a my wykryliśmy H1 – częściej się pojawia. α<0,05 –
znajdujemy nieraz taki zapisek w badaniu, nazywane jest to poziomem istotności
◦ Błąd β/błąd drugiego rodzaju – w badaniu nie wykrywamy efektu rzeczywistości,
który istnieje – rzeczywistość jest H1, a nasz wynik to H0. Dla β<0,2 – przeważnie
poziom istotności.
◦ Co wpływa na poziom istotności błędów:
▪ ważność badań rozumiana jako doniosłość bądź koszt ekonomiczny, społeczny – im
bardziej kosztowne badanie oraz wyniki, tym mniejszy poziom α akceptujemy,
▪ wielkość badanej próby – im próba większa tym mniejszy błąd α zakładamy,
▪ Rzetelność narzędzi pomiarowych, ich czułość, precyzja – również obniża błąd α,
▪ ostatnim czynnikiem jest konwencja, która wyznacza nam główną granicę błędu alfa,
czyli jaki błąd alfa jest w stanie zaakceptować środowisko,
▪ im większa α, tym mniejsze β.
◦ Prawdopodobieństwo α to zakres wyników, który umożliwia odrzucenie hipotezy
zerowej, na odwrót jest z prawdopodobieństwem β – jest to dana do manipulacji
(przesuwanie w prawo w lewo), z czego wiąże się zmniejszanie i zwiększanie się
jednocześnie jednej bądź drugiej. Ma to więc wymiar kompromisowego ustalenia
związanego z przyjęciem ryzyka błędu jednego bądź drugiego rodzaju.
Punkt odcięcia


Różnica między H0 a H1 to wielkość efektu ϕ (Fi)– im większy jest rzeczywisty efekt,
tym mniejszy jest błędu β. A więc jak są silne korelacje, duże wariacje itp., tj. silnie
zaznaczone efekty, to ryzyko błędu β jest mniejsze.
◦ Ryzyko β zależy też od rodzaju hipotezy badawczej, które mogą być kierunkowe
(określa zakres od jakiegoś punktu, np. większe niż 100) i bezkierunkowe (zakłada
konkretny wynik, bądź brak danego wyniku). W teorii bezkierunkowe zwiększają
ryzyko błędu β.
◦ Na ryzyko β wpływa również liczebność próby – im ona większa, tym większe ryzyko.
◦ Z β wiąże się również moc testu statystycznego (moc statystyczna) Ω (omega), która
Ω = 1 – β. Istnieje więc konwencja, że moc testu Ω = 0,8 – wskazuje ona
prawdopodobieństwo tego, że w badaniu wykryjemy efekt, który rzeczywiście istniej.
Co wpływa na moc statystyczną? To samo co na β. By oszacować moc testu robi się
badanie pilotażowe, które polega na zrobienie symulacji monte carlo. Polega ona na
tym, że bierzemy próbę, którą określa się populację testową, w której losujemy ze
zwracaniem (losowanie niezależne, czyli za każdym razem z całej próby, w jednej mogą
być te same obiekty np. 10 razy) nową próbkę, zależną od wielkości populacji. Mamy
trzy typy mocy statystycznej:
▪ A priori – założona przed badaniem (oczekiwana) – ten typ mocy jest bardzo ważny,
ponieważ odpowiada na pytanie, jaką liczebność próby potrzebujemy, żeby uzyskać
żądaną moc statystyczną przy założonym alfa i oczekiwanej wielkości efektu ϕ dla
danej hipotezy. Toteż moc a priori pokazuje jakie mamy zbadać n (liczebność
próby). Zakładamy a priori omegę, alfę i fi.
▪ Post hoc – obliczanie jaką mamy moc statystyczną (omega) w badaniu, w którym
już wiemy, że mamy dane n, określoną wielkość efektu fi oraz przyjęty poziom
istotności alfa.
▪ Compromise – obliczamy jakie musimy przyjąć alfa, żeby n, beta i fi móc mówić o
wynikach badanych.
▪ Sensitiviti – jak silne musi być fi, aby uzyskać daną moc omega przy danym alfa
przy danej liczebności n.

Wykład 7 – test T
Kroki działania:
1. Sformuj h0 i h1 (hipoteza zerowa - przeciwna do badawczej i badawcza - zakłada ze coś
istnieje) (test statystyczny weryfikuje H0) – hipotezy przeważnie mówią że coś jest równe
bądź większe/mniejsze, np. od średniej, czyli h1: M > x; h0: M =< x, (M odnosi się w
hipotezach do parametrów populacji, nie estymatorów). Co musimy mieć:
◦ Ustalamy również wartość testową czyli m0 – wynika ona z postawionej hipotezy (np.
50% ludzi ma IQ poniżej 100, wtedy m0 = 100).
◦ Odchylenie standardowe s lub wariancję s2.
2. Oblicz statystykę testową
Statystyka testowa zawsze jest ułamkiem, którego górna część (licznik: x - m0) nazywany
jest niestandaryzowanym efektem, którego zakres obejmuje znaki + i – i dowolne liczby
do nieskończoności (im dalej od 0 tym lepiej). Niestandaryzowany oznacza, ze ten efekt nie
ma skali, sama liczba nie jest wystarczająca żeby ją zinterpretować. Mianownik mówi o
błędzie standardowym estymatora i zawsze jest na + do nieskończoności.
t = (x – m0) : se
t – statystyka testowa x – „z daszkiem”, średnia m0 – wartość testowa
se – błąd standardowy, w tym przypadku średniej
Obliczanie se, błąd standardowy - odpowiada na pytania na ile przeciętnie mylimy się
oszacowując średnia w populacji, Na podstawie dostępnych danych może być obliczony dla
dowolnego parametru, dla średniej jest to:

se=
√ s2 s √ n s √ n
= ⋅ =
n √n √ n n
se – błąd standardowy (dla średniej) s2 – wariancja n – próba
s – odchylenie standardowe (z tego co rozumiem)
3. Podejmij decyzje statystyczną (p-values)
Decyzja statystyczna jest 1 z 2, albo wyniki wspierają hipotezę zerowa, albo nie wspierają.
Żeby moc podjąć decyzje musimy skorzystać z wartości p - values, najczęściej chcemy żeby
była ona mniejsza niż nasz założony poziom błędu alfa.
P-values to prawdopodobieństwo uzyskania przez przypadek lub błąd statystyki testowej
większej niż nasza obliczona przy założeniu, że h0 jest prawdziwa.
Co potrzebujemy by obliczyć p-values?
◦ df – stopień swobody: df = n – 1 n – próba
◦ wpisujemy w arkusz Google „=TDIST(x; df; a)”, gdzie x – statystyka testowa t; df –
stopień swobody; a – hipoteza testowa, jeśli kierunkowa to a = 1, jeśli bezkierunkowa to
a = 2.
Ocena wyników:
◦ p < α; czyli przeważnie p < 0,05 – wtedy wspiera ono h1
◦ jeśli p > α, wtedy wspierana jest h0
4. Oszacuj wielkość efektu i/lub przedział ufności
a) Wielkość efektu jest wartością standaryzowaną obserwowanego efektu. Wielość efektu
jest niezależna od wielkości próby, poziomu alfa i pozwala nam porównywać wyniki
różnych badań, czyli one są bardzo ważne dla oszacowania w meta-analizach (przegląd
wielu badań, prawdziwych różnymi narzędziami, prowadzony przez różne zespoły
badawcze w danej tematyce, na różnych badanych próbach). Dla testu p (jednej próby)
tą wielkością efektu jest d cohena:
d = (x – m0) : s
d – wielkość efektu x – „z daszkiem”, średnia m0 – wartość testowa
s – odchylenie standardowe
d może przyjmować liczbę +/- nieskończoności, przeważnie jednak zachodzi w zakresie
+/-1.
d mówi nam o ile odchyleń standardowych średnia jest większa niż wartość testowa,
np. średnia jest o 0.5 odchylenia standardowego większa niż test values.
Siła efektu d:
▪ od 0 do 0,3 to znikomy, nieznaczny efekt
▪ od 0,3 do 0,5 to niewielki efekt
▪ 0,5 do 0,7 to umiarkowany
▪ 0,7 do 1 - silny, znaczny
▪ Powyżej 1 - bardzo silny, bardzo znaczny
b) Przedział ufności - przedział liczbowy w jakim z określonym prawdopodobieństwem
znajduje się szacowany parametr.
PU(M) = x + se • tα po angielsku CI95% (np. 100% - α = 95%)
PU(M) = x - se • tα
PU – przedział ufności M – średnia x – „z daszkiem”, średnia
se – błąd standardowy tα – pewna wartość wg tabeli :)
Wielkość α 0,40 0,25 0,10 0,05 0,025 0,01 0,005
tα 0,25 0,67 1,28 1,64 1,96 2,32 2,57
***UWAGA – wg notatek inne wartości!!! pod rozwagę!
W wynikach otrzymujemy zakres (…;…)
5. Punkt E formalnie nie jest elementem testowania hipotezy, zinterpretuj wyniki

Wykład 8 – t-test
Stosowany jest dla prób niezależnych - jedna obserwacja tylko dla jednej grupy np. płeć - kobiety i
mężczyźni; narodowość. Grupy mogą na siebie nie wpływać (badania poprzeczne) lub mogą być
skorelowane (np. w małżeństwach).
1. Sformuj h0 i h1
hipoteza bezkierunkowa (DLA NIEJ SĄ PONIŻSZE ROZWAŻANIA, PO WARIANT
KIERUNKOWY PATRZ NA NOTATKI MACIEJA):
◦ h0: M1 = M2 M1;M2 – średnie dla poszczególnych grup
◦ h1: M1 =/= M2
hipoteza kierunkowa:
◦ h0: M1 <= M2
◦ h1: M1 > M2
2. Oblicz statystykę testową t
Statystyka testowa pokazuje o ile razy efekt testowy jest większy niż błąd losowy. Znak
statystyki testowej mówi nam, która średnia jest większa
◦ jeśli t > 0, to średnia x1 > x2
◦ jeśli t < 0, to x1 < x2
t = (x1 – x2) : se
t – statystyka testowa x1;x2 – średnie dla poszczególnych grup
se – błąd standardowy różnych średnich, który obliczamy z:

se=

Sp2 Sp2
+
n1 n2
n1;n2 – odpowiednio liczebność obu grup
Sp2 – wspólna wariancja, którą obliczamy ze wzoru:
Sp2 = (S12(n1 – 1) + S22(n2 – 1)) : (n1 + n2 – 2)
S12;S22 – odpowiednio wariancja dla każdej z grup (pierwiastek z niej stanowi odchylenie
standardowe dla każdej z grup)
Im wariancja większa tym większe zróżnicowanie wyników, jeśli mieści się ona w
przedziale od -1 do 1 znaczy to, że jest w granicach błędu statystycznego (chyba?).
3. Podejmij decyzje statystyczną (p-values)
a) df = n1 + n2 – 2
b) wpisujemy w arkusz Google „=TDIST(x; df; a)”, gdzie x – statystyka testowa t; df –
stopień swobody; a – hipoteza testowa, jeśli kierunkowa to a = 1, jeśli bezkierunkowa to
a=2
Ocena wyników:
◦ p < α; czyli przeważnie p < 0,05 – wtedy wspiera ono h1
◦ jeśli p > α, wtedy wspierana jest h0
4. Oszacuj wielkość efektu i/lub przedział ufności
a) Wielkość efektu między średnimi
g-Hedgesa
x 1−x2 x 1−x2
g= =
√ Sp 2 Sp
x1;x2 – średnie dla poszczególnych grup Sp2 – wspólna wariancja
Sp – wspólne odchylenie standardowe
b) Przedział ufności między średnimi
PU(M1 – M2) = x1 – x2 – se • tα
PU(M1 – M2) = x1 – x2 + se • tα
PU – przedział ufności M1;M2 – średnia dla obu grup
x1;x2 – „z daszkiem”, średnia dla obu grup se – błąd standardowy
tα – pewna wartość wg tabeli powyżej :)
W wynikach otrzymujemy zakres (…;…)
5. Punkt E formalnie nie jest elementem testowania hipotezy, zinterpretuj wyniki
Przykładowe rozwiązanie: „Z prawdopodobieństwem 95% wyniki mężczyzn i kobiet w IQ
różnią się między x a y (uzyskany powyżej zakres).
Dla kierunkowych:

You might also like