Download as pdf or txt
Download as pdf or txt
You are on page 1of 59

🐈‍⬛

Metody w psychologii II- notatki z


podręcznika

Rozdział 1. Wprowadzenie.
1. Statystyka opisowa.
Statystyka opisowa to dział statystyki, którego celem jest porządkowanie i
podsumowanie obserwacji, tak aby było łatwiej je zrozumieć

2. Wnioskowanie statystyczne.
Celem wnioskowania statystycznego jest wyprowadzenie wniosków na temat
warunków istniejących w populacji na podstawie wyników badań próby.
Oszacowania mogą być obciążone błędem. Wnioskowanie statystyczne jest
używane przy ocenianiu wyników eksperymentów.

Dobór losowy to procedura, która zapewnia, że wszystkie próby o danej


liczebności mają taką samą szansę na wybór. Czynniki losowe związane z
doborem próby sprawiają, że wystąpią różnice między grupami. Ta różnica

Metody w psychologii II- notatki z podręcznika 1


może mieścić się w granicach oczekiwanej zmienności. Jeśli jest większa,
oznacza to, działanie innych czynników. Jeśli nie znaleziono innych przyczyn
poza zamierzoną różnicą, formułuje się wniosek dla całej danej populacji.

3. Związki i przewidywanie.
Zainteresowanie istnieniem i zakresem związku między dwoma lub większą
liczbą czynników oraz przewidywaniem pozycji na jednym czynniku na
podstawie wiedzy o pozycji na innym. W przeprowadzeniu takich analiz
pomagają techniki statystyczne.

4. Statystyka stosowana.
Teoria statystyczna związana jest z prawdopodobieństwem. Statystyka
stosowana to perspektywa badaczy stosujących procedury statystyczne w
badaniach. Jest narzędziem wykorzystywanym w tych badaniach.

5. Rola statystyki stosowanej.


Badanie naukowe rozpoczyna się od postawienia pytania badawczego, czyli
pytania o fakt związany z tematyką stanowiącą przedmiot badania. Kształt
badania zależy właśnie od pytanie badawczego.

Zmienna niezależna to zmienna, którą badacz systematycznie manipuluje.


Mierzona zmienna to natomiast zmienna zależna. Ważne jest to, aby zmienne
uwikłane, czyli pozostałe czynniki oddziałujące na zmienną zależną były takie
sama dla wszystkich grup.

Pytanie statystyczne to pytanie o liczbowy aspekt obserwacji.

Wniosek statystyczny to wniosek o liczbowych właściwościach danych

Wniosek badawczy to wniosek dotyczący tematyki badań.

Procedury statystyczne to pośredni krok w poszukiwaniu odpowiedzi na


pytanie badawcze. Brak kontroli zmiennych może spowodować poprawny
wniosek statystyczny, ale niepoprawny wniosek badawczy.

Metody w psychologii II- notatki z podręcznika 2


6. Czy statystyka kłamie? Czy procedury statystyczne
są potrzebne?
W czasopismach naukowych są zwykle publikowane jedynie takie wyniki z
badań, w których szansa przypadkowego pojawienia się wynosi 5% lub mniej.
Jednak z badań możliwe jest wyprowadzenie niewłaściwych wniosków
statystycznych. Możliwe jest wprowadzenie w błąd z powodu prezentowania
części danych.

Rozdział. 2 Pojęcia wstępne.


1. Próby losowe.
Próba losowa to próba wybrana w sposób, który zapewnia, że wszytskie
próby o tej samej liczebności mają taką samą szansę na wyselekcjonowanie z
populacji. Niekoniecznie zawsze reprezentatywna dla populacji, z której
została wyprowadzona.

Cechy próby losowej:

jeśli z populacji wyprowadzi się kilka prób losowych, to będą różniły się
między sobą, losowa zmienność próby jest spowodowana przez
przypadek, błąd próby.

Im większa próba losowa, tym mniejsza zmienność cech między różnymi


próbami.

2. Zmienne i stałe.
Zmienna to cecha, która może przybierać różne wartości.

Stała to cecha, która może mieć tylko jedną wartość (inne wartości nie są
możliwe).

3. Skale pomiarowe.
Pomiar to proces polegający na przydzielaniu obserwacjom liczb.

Skale: poziom pomiaru, zmienne można zmierzyć na skalach:’

Metody w psychologii II- notatki z podręcznika 3


jakościowych:

nominalna (kategorialna) - wzajemne rozłączne i wyczerpujące się


kategorie różniące pod względem pewnych aspektów jakościowych,
klasyfikacja danych, czym różni się x od y, np. kolor oczu.

porządkowa (rangowa)- ma właściwości skali nominalnej, ale


obserwacje mogą zostać porangowane zgodnie z porządkiem
wielkości, określa relacje mniejsze/ większe, uporządkowanie, np.
skala Likerta.

ilościowych:

interwałowa (przedziałowa)- ma wszystkie właściwości skali


porządkowej, a dowolna odległość między pomiarami ma takie samo
znaczenie na całej długości skali, równe jednostki, brak zera
bezwzględnego, np. stopnie Celsjusza.

stosunkowa (ilorazowa)- ma wszystkie właściwości skali porządkowej


zero bezwzględne (absolutny punkt zerowy), np. wiek, jednostki
fizyczne.

4. Skale pomiarowe i problemy związane z


postępowaniem statystycznym.

5. Dokładność obliczeń dla zmiennych ciągłych.


Zmienna dyskretna to zmienna, która może przyjmować tylko niektóre
wartości. Przedstawiana za pomocą wykresu słupkowego.

Zmienna ciągła to zmienna, która może przyjmować każdą wartość (wewnątrz


przedziału ufności, które mogą ją charakteryzować). Przedstawiana za
pomocą histogramu.

6. Statystyka i komputery.

Rozdział 5. Tendencja centralna.

Metody w psychologii II- notatki z podręcznika 4


1. Wartość modalna.
Modalna określa wartość najczęściej występującą w zbiorze, można ją
policzyć dla zmiennych
mierzonych na każdej ze skal pomiarowych.

2. Mediana.
Określa wartość dzielącą uporządkowany zbiór na pół, można ją policzyć dla
wszystkich skal poza nominalną.

3. Średnia arytmetyczna.
Średnia arytmetyczna to suma wszystkich wartości zmiennej podzielona
przez ich liczbę (
N), mało odporna na odchylenie.

4. Właściwości wartości modalnej.


łatwo ją odszukać, ale nie jest ona dla różnych prób bardzo stabilna,

w jednym zbiorze wyników można mieć do czynienia z więcej niż jedną


wartośći modalną,

jedyny wskaźnik, który można użyć do wyników mierzonych na skali


nominalnej.

5. Właściwości średniej.
jest wrażliwa na dokładną lokalizację każdego wyniku w rozkładzie,

bardzo wrażliwa na obecność lub nieobecność wyników na krańcach rozkładu


niż mediana albo dominanta,

najbardziej użyteczna miara tendencji centralnej,

najbardziej odporna na losową zmienność grupy.

6. Właściwości mediany.

Metody w psychologii II- notatki z podręcznika 5


mniej od średniej czuła na obecność w zbiorze wartości ekstremalnych
(wyniki oddalone, outlier),

w rozkładzie, który jest skośny albo zawiera kilka wyników bardzo różniących
się od reszty, mediana jako miara tendencji centralnej jest lepsza,

mniej odporna niż średnia na zmienność próby.

7. Miary tendencji centralnej w rozkładach


symetrycznych i asymetrycznych.
Rozkład asymetryczny, czyli skośny, w którym jeden jego koniec przechyla się
w lewo (lewoskośny, skośny ujemnie) albo prawo (prawo skośny, skośny
dodatnio).

Dla rozkładów asymetrycznych, podawanie tylko jednej miary tendencji


centralnych może być mylące, potrzeba więcej niż jednej miary dla
obiektywizmu.

8. Efekty transformacji wyników.


Transformacja wyników to proces, który zamienia każdy wynik w rozkładzie
na wynik wyrażony na innej skali.

Transformacja liniowa zachowuje relację prostoliniową między wynikami


pierwotnymi a wynikami uzyskanymi w efekcie ich transformacji.

Rozdział 6. Zmienność i wyniki


standaryzowane.
1. Rozstęp.
Miary zmienności wyrażają ilościowo, jak bardzo skupione albo jak bardzo
rozproszone są wyniki w rozkładzie. Inaczej miary rozproszenia.

Rozstęp to odległość między najniższym i najwyższym wynikiem danej


zmiennej.

Metody w psychologii II- notatki z podręcznika 6


2. Odchylenie ćwiartkowe.
Odchylenie ćwiartkowe to połowa odległości między trzecim a pierwszym
punktem kwartylowym w rozkładzie.

3. Odchylenie wyniku.
Odchylenie wyniku wyraża jego lokalizację . Pokazuje jak bardzo wynik różni
się od średniej.

4. Wariancja.
Wariancja (SD symbol w próbie; symbol w populacji) = zróżnicowanie
wyników wokół średniej. Miara rozproszenia/ odchylenia wyników wokół
średniej, to suma kwadratów odchyleń standardowych od średniej,
dzielonych przez liczbę wyników (pomniejszoną o 1 w próbie: N–1)

5. Odchylenie standardowe.
Odchylenie standardowe (SD w próbie; w populacji), mówi o tym, jak szeroko
wartości jakiejś wielkości są rozproszone wokół jej średniej (im większa
wartość odchylenia tym obserwacje są bardziej rozproszone wokół średniej);
pierwiastek kwadratowy z wariancji.

6. Obliczanie wariancji i odchylenia standardowego.

7. Właściwości rozstępu.
doskonały wskaźnik wykorzystywany w pracach pilotażowych, w których
dokładność nie jest istotnym wymaganiem,

nie jest wrażliwy na stan całego rozkładu,

jest rzadko używany poza opisem statystycznym.

8. Właściwości odchylenia ćwiartkowego.


mniej wrażliwe od odchylenia standardowego na obecność kilku wyników
bardzo odbiegających od pozostałych,

Metody w psychologii II- notatki z podręcznika 7


czasami to jedyna miara, którą można sensownie zastosować,

nie tak stabilnie jak odchylenie standardowe, ale nadal dobra stabilność.

9. Właściwości odchylenia standardowego.


wrażliwe na dokładne położenie każdego wyniku w rozkładzie,

może nie być dobrym wskaźnikiem, wtedy gdy zawiera kilka wyników bardzo
odbiegających od pozostałych albo gdy jest on silnie skośny,

odporność na zmienność próby.

10. Jak wielkie jest odchylenie standardowe?


między -1 a 1 odchyleniem standardowym → 68%

między -2 a 2 odchyleniem standardowym → 95%

między -3 a 3 odchyleniem standardowym → 97,7%

11. Transformacja wyników i miary zmienności.


Miary zmienności są wskaźnikami odległości między wynikami, dlatego żadna
z modyfikacji nie ma na nie wpływu. Jeżeli do każdego wyniku w rozkładzie
dodamy stałą albo od kązdego wyniku odejmiemy stałą, to taki działanie nie
wpłynie na żadną z miar zmienności.

Jeżeli wyniki zostaną pomnożone albo podzielone przez stałą to miara


zmienności otrzymana w konsekwencji tej transformacji będzie również
pomnożona albo podzielona przez tę samą stałą (poza wariancją, bo tu trzeba
dzielić/ mnożyć przez stała podniesioną do kwadratu).

12. Wyniki standaryzowane (wyniki z).


Wynik z określa w jednostkach odchylenia standardowego w jakiej odległości
od średniej znajduje się wynik, jeden z rodzajów wyników standaryzowanych.

Wyniki standaryzowane są potrzebne, aby rozwiązać problem nadawania


znaczeń wyników poprzez zapewnienie adekwatnego układu odniesienia.

Właściwości wyników z:

Metody w psychologii II- notatki z podręcznika 8


Średnia rozkładu wyników, które zostały przekształcone na wyniki z,
zawsze wynosi zero.

Odchylenie standardowe rozkładu wyrażonego w wynikach z zawsze


wynosi 1.

Transformacja wyników surowych na wyniki z zmienia średnią na wartość


zero i odchylenie standardowe na wartość jeden, ale nie zmienia kształtu
rozkładu.

13. Porównanie wyników z i rang centylowych.


Ranga centylowa to procent obserwacji w rozkładzie, które znajdują się
poniżej danego punktu na skali pomiarowej.

Wady: zmiany w wynikach surowych nie są zazwyczaj odzwierciedlane przez


proporcjonalne zmiany w rangach centylowych.

14. Porównywalność wyników.


Niezbędnym jest, aby przy przeprowadzaniu sensownych porównań, grupy
odniesienia wykorzystane do utworzenia wyników standaryzowanych były
porównywalne.

Wyniki standaryzowane powinny być używane do porównywania danych


jedynie wtedy, gdy dwa rozkłady mają w przybliżeniu taki sam kształt.

Rozdział 7. Wyniki standaryzowane i krzywa


normalna.
1. Historyczne aspekty krzywej normalnej.
Dzieło dwóch wybitnych matematyków: Pierre Simon de Laplace i Carl
Friedrich Gauss, odkryli krzywą normalną (dzwonową) niezależnie od siebie.

2. Natura krzywej normalnej.

Metody w psychologii II- notatki z podręcznika 9


Krzywa normalna to abstrakcja matematyczna zdefiniowana przez konkretne
równanie, równanie to opisuje rodzinę krzywych normalnych. Rozkład
Gaussa, Laplace'a-Gaussa, krzywa dzwonowa.

Cechy krzywy normalnych:

symetryczne

jednomodalne

asymptotyczne do linii poziomej

M = Mo = Me

rozkład ciągły

proporcja powierzchni pod krzywą odpowiadająca danemu rozstępowi


wartości na odciętej jest taka sama wtedy, gdy te wartości są określone na
porównywalnej podstawie

3. Wyniki standaryzowane i krzywa normalna.


Krzywa normalna standaryzowana to rozkład normalny, w którym wyniki są
przekształcone na wyniki standaryzowane (z).

4. Krzywa normalna jako model dla zmiennych


realnych.
Krzywa normalna jest dopasowana do wielu pomiarów fizycznych, ale nie
wszystkich. To nie prawo natury. Najlepsze dopasowanie rozkładu
normalnego tylko dla homogenicznych populacji.

Rozkład żadnej zmiennej nie jest dokładnie normalny.

5. Krzywa normalne jako model dla rozkładów


losowych.
Krzywa normalna funkcjonuje jako model w rozkładzie statystyk z prób.

Aby móc wnioskować na temat średniej populacyjnej, trzeba znać kształt


rozkładu średniej z próby.

Metody w psychologii II- notatki z podręcznika 10


Rozdział 12. Losowy dobór do próby i
rozkłady z próby.
1. Losowy dobór do próby.
Losowanie zwrotne to procedura losowania, w której dany element może
pojawić się w próbie więcej niż raz.

Losowanie bezzwrotne to procedura losowania, w której dany element może


pojawić się w próbie nie więcej niż raz.

Losowanie systematyczne - włączanie do próby co któregoś elementu.

Dobór przypadkowy to losowe wybieranie osób badanaych przez badacza, ale


kończy się porażką. Ludzie nie są najlepsi w dokonywaniu doboru losowego.

2. Korzystanie z tablic liczb losowych.


Tablice liczb losowych są konstruowane przez komputer za pomocą
programu, który zapewnia prawdopodobieństwo wyboru każdej cyfry z
przedziału 0 do 9 jest takie samo. Liczby można odczytywać w różnym
kierunku. Na wstępie trzeba ustalić schemat odczytywania.

3. Rozkład średniej z próby losowej.


Losowy rozkład średniej z próby to teoretyczny rozkład liczebności
względnych wszystkich wartość średniej (X), które mogłyby być zostać
uzyskane losowo w przypadku nieskończonej liczby prób o określonej
liczebności wyprowadzonych z danej populacji.

Dobór losowy zapewnia równe prawdopodobieństwo dla różnych prób, ale nie
zapewnia równego prawdopodobieństwa dla wszystkich możliwych średnich
z próby.

4. Cechy rozkładu średniej z próby losowej.


Rozkład całkowicie definiują jego średnia, odchylenie standardowe oraz
kształt.

Metody w psychologii II- notatki z podręcznika 11


Średnią każdego losowego rozkładu wartości nazwana jest wartością
oczekiwaną średniej z próby, jest taka sama jak średnia z populacji wyników.

Błąd standardowy średniej to odchylenie standardowe losowego rozkładu


wartości średniej z próby.

Kształt losowego rozkładu wartości: jeżeli populacja wyników charakteryzuje


się rozkładem normalnym to losowy rozkład wartości średniej z próby bez
względu na wielkość próby też będzie się charakteryzował rozkładem
normalnym.

Centralne twierdzenie graniczne informuje nas, że losowy rozkład średniej z


próby dąży do rozkładu normalnego bez względu na kształt rozkładu
obserwacji w populacji, z której ta próba pochodzi. Wraz z wzrostem
liczebności próby rozkład ten coraz bardziej zbliża się do rozkładu
normalnego.

5. Wykorzystanie rozkładu wartości X z próby do


określenia prawdopodobieństwa dla różnych zakresów
wartości X.

Rozdział 13. Testowanie hipotez o średnich


pojedynczych (z oraz t).
1. Testowanie hipotezy o średniej pojedyncze.
Aby sprawdzić trafność postawionej hipotezy, badacz pyta jakie średnie z
próby by się pojawiły, gdyby z interesującej go populacji zostało wybranych
losowo wiele prób o tej samej liczebności w sytuacji gdy hipoteza o tym, że
średnie populacyjna wynosi x jest prawdziwa.

Odwołanie do losowego rozkładu wartości średnich z próby.

Kluczem do problemu wnioskowania statystycznego jest odkrycie, jakie


wartości z próby są możliwe i z jakim prawdopodobieństwem mogą się one
pojawić.

Metody w psychologii II- notatki z podręcznika 12


2. Hipoteza zerowa i hipoteza alternatywna.
Hipoteza zerowa to hipoteza na temat parametru populacyjnego, którą testuje
badacz.

Hipoteza alternatywna hipoteza na temat parametru populacyjnego, która jest


zaprzeczeniem hipotezy zerowej, badacz stara się dowieść, że ta hipoteza jest
prawdziwa.

3. Kiedy odrzuca się hipotezę zerową, a kiedy nie?


Poziom istotności to wartość prawdopodobieństwa, którą wykorzystujemy
jako kryterium przy decyzjach czy prawdopodobieństwo pojawienia się przez
przypadek statystyki otrzymanej w próbie jest niskie wtedy gdy hipoteza
zerowa jest prawdziwa (w rezultacie hipoteza zerowa zostaje odrzucona).
Oznaczony symbolem alfa.

Odrzucenie hipotezy zerowej: średnia z próby odchyla się od oczekiwanej tak


bardzo, że prawdopodobieństwo jej pojawienia się w próbie losowej wynosi
0,05 lub jest jeszcze niższe.

Przyjęcie hipotezy zerowej: kiedy poziom istotności wynosi więcej niż 0,05.

4. Ogólne zasady obowiązujące w procedurze


testowania hipotez.
Formułowanie specyficznej hipotezy o parametrze populacyjnym (np.
średnie): zerowa oraz alternatywna.

Z populacji obserwacji należy wybrać próbę losową i na postawie


otrzymanych dla niej wyników należy obliczyć wartości statystyki z próby.

Zbadanie cech rozkładu z próby analizowanej statystyki, w celu dowiedzenia


się, jakie wyniki w próbie mogłyby się pojawić (i z jaką częstością względną)
przy nieskończonej liczbie powtórzeń, jeśli hipoteza zerowa jest prawdziwa.

Jeżeli wynik otrzymany w próbie jest zgodny z wynikiem oczekiwanym w


sytuacji, gdy hipoteza zerowa jest prawdziwa, nie odrzucamy jej. W
przeciwnym wypadku należy ją odrzucić i przyjąć hipotezę alternatywną.

Metody w psychologii II- notatki z podręcznika 13


5. Wniosek.
Obszar odrzucenia to część rozkładu wartości z próby (zawierająca wartości
średniej, których pojawienie się przez przypadek jest mało prawdopodobne
wtedy, gdy hipoteza zerowa jest prawdziwa) skłaniająca do odrzucenia H0.

Obszar nieodrzucenia to część rozkładu wartości średniej z próby skłaniająca


do nieodrzucenia H0.

Wartość krytyczna: wartość (wartości), które oddzielają obszar odrzucenia od


obszaru nieodrzucenia.

Sformułowany wniosek nie dotyczy samej próby, ale populacji, która przez tę
próbę jest reprezentowana.

6. Decyzja statystyczna.
W zależności od zmiany poziomu istotności, to: średnia z próby się nie
zmieni, ale wartości krytyczne z będą inne.

Odrzucenie hipotezy zerowej to przypadkowe pojawienie się statystyki z


próby jest mało prawdopodobne wtedy, gdy wartość parametru
populacyjnego podana w H0 jest prawdziwa.

Nieodrzucenie hipotezy zerowej kiedy brak wystarczających podstaw do


odrzucenia H0 (nie oznacza, że H0 nie musi być prawdziwa, ale jedynie że ona
może być prawdziwa.

7. Wybór hipotezy alternatywnej: test jednostronny i


test dwustronny.
Test niekierunkowy (dwustronny) hipoteza alternatywna stwierdza, że
parametr populacyjny może być albo mniejszy albo większy od wartości
określonej w H0 ( a obszar krytyczny jest podzielony i zlokalizowany na obu
krańcach rozkładu z próby).

Test kierunkowy (jednostronny) hipoteza alternatywna stwierdza, że parametr


populacyjny różni się od wartości określonej w H0 w jednym konkretnym
kierunku (a obszar krytyczny jest zlokalizowany tylko na jednym krańcu
rozkładu z próby). Przedmiotem zainteresowania jest to, czy występuje

Metody w psychologii II- notatki z podręcznika 14


określony kierunek różnicy, czy takiej właśnie różnicy nie ma. Patrzy się na
ich wyniki z podejrzliwością z powodu nadużyć.

8. Założenia obowiązujące w procedurze testowania


hipotez o średniej pojedynczej.
Próba wybrana z populacji jest próbą losową.

Próba została wybrana zgodnie ze schematem losowania zwrotnego.

Rozkład wartości średniej z próby jest zgodny z krzywą normalną.

Odchylenie standardowe wyników w populacji jest znane.

9. Szacowanie błędu standardowego średniej kiedy


wartość odchylenia standardowego w populacji nie jest
znana.
Estymator nieobciążony - średnia oszacowań dokonywanych na bazie
wszystkich możliwych prób jest równą wartości szacowanego
parametru(średnia z próby jest nieobciążonym estymatorem).

Oszacowany błąd standardowy średniej to oszacowanie odchylenia


standardowego losowego rozkładu wartości średniej z próby.

10. Rozkład t.
Rozkład t Studenta to teoretyczny rozkład częstości względnych, wszystkich
wartości X przekształconych na wartości t, które otrzymalibyśmy losowo,
gdybyśmy wyodrębnili z populacji nieskończoną liczbę prób o określonej
liczebności.

To nie pojedynczy rozkład, ale raczej rodzina rozkładów. Różnią się one
stopniem przybliżenia do krzywy normalnej. Kształt zależy od wielkości
próby oraz od liczby stopni swobody (df).

11. Cechy rozkłady t Studenta.


Rozkład wartości t oraz rozkład normalny charakteryzujący wartości z są pod
pewnymi rozkład wartości z są pod pewnymi względami podobne, ale i się

Metody w psychologii II- notatki z podręcznika 15


różnią (jeśli liczba stopni swobody mniejsza od nieskończonej):

Podobieństwo:

mają średnią równą zero,

są symetryczne,

są jednomodalne.

Różnice:

rozkład t jest platykurtyczny w porównaniu z rozkładem normalnym


(większa koncentracja na krańcach rozkładu, wysmukły wierzchołek),

rozkład t ma większe odchylenie standardowe,

rozkład t zależy od liczby stopni swobody.

Wartość t musi przewyższać wartość z, aby w zależności od wielkości próby


oznaczała tak samo rzadko pojawiającą się statystykę.

dla nieskończonej liczby stopni swobody krytyczna wartość t jest taka


sama jak krytyczna wartość z,

im mniejsza jest liczba stopni swobody, tym większa jest krytyczna


wartość t,

zachowanie statystyki t jest bardzo podobne do zachowania statystyki z


aż do momentu, w którym liczba stopni swobody spadnie poniżej 100,

wraz z obniżaniem się liczby stopni swobody zmiany wartości t w


rozkładzie to najpierw są niewielkie, ale potem bardziej gwałtowny wzrost.

12. Stopnie swobody i rozkład t Studenta.


Stopnie swobody to liczba obserwacji, które mogą się zmieniać w sposób
całkowicie dowolny, dla obliczenia wariancji/SD, df= n-1. Test t dla prób
niezależnych: n-2, dla zależnych/jednej średniej: n-1.

13. Użycie rozkładu t Studenta.


Rodzaje:

dla jednej próby (próba badawcza vs średnia populacyjna)

Metody w psychologii II- notatki z podręcznika 16


dla prób niezależnych (schemat międzygrupowy)

dla prób zależnych (powtarzane pomiary)

Użycie dla testowania istotności dwóch średnich.

14. Przykład.
wniosek statystyczny to wniosek na temat liczbowych własności danych
(odrzucenia bądź nieodrzucenia H0 na podstawie poziom p).

wniosek badawczy to wniosek na temat analizowanej dziedziny.

15. Obliczanie wartości t na podstawie wyników


surowych.

16. Poziom istotności a wartość p.


Wartość p jest prawdopodobieństwem uzyskana w próbie średniej, która w
danym lub w jeszcze większym stopniu będzie odchylona ( w kierunku
określonym w HA) od wartości średniej z próby, która rzeczywiście zostałaby
otrzymana wtedy, gdyby H0 była prawdziwa.

Wynik istotny to uzyskanie przez przypadek statystyki otrzymanej w próbie


jest mało prawdopodobne wtedy, gdy H0 jest prawdziwa.

Rozdział 14. Wielkość efektu, błąd I rodzaju,


błąd II rodzaju oraz moc testu.
1. Różnica istotna statystycznie a różnica ważna w
praktyce.
Wynik statystycznie istotny nie oznacza, że wynik jest ważny.

Pytanie o to, czy wielkość różnicy jest ważna, czy też ważna nie jest, zależy od
pytania badawczego, a od kwestii statystycznych.

2. Wielkość efektu.

Metody w psychologii II- notatki z podręcznika 17


Mocną stroną procedury testowania hipotez jest to, że może ona być używana
w celu ujawnienia rozbieżności , które są wystarczająco duże, abyśmy
zechcieli im poświęcić uwagę.

Wielkość efektu wyrażona w d Cohena. Wyraża ono różnicę odniesioną do


wielkości SD zbioru obserwacji a nie błędu standardowego. Interpretacja: 0,2=
efekt mały, 0,5= efekt przeciętny oraz 0,8= efekt duży.

3. Błędy popełniane podczas testowania hipotez.


Błąd I rodzaju to odrzucenie prawdziwej hipotezy zerowej i przyjęcie
alternatywnej (false positive).

Alfa to prawdopodobieństwo popełnienia błędu I rodzaju.

Błąd II rodzaju to nieodrzucenie fałszywej hipotezy zerowej i odrzucenie


alternatywnej (false negative).

Beta to prawdopodobieństwo popełnienia błędu II rodzaju.

Jakikolwiek poziom istotności zastosowano, decyzja o jego wyborze powinna


zostać podjęta przed zabraniem danych, aby nie ulec pokusie manipulacji.

4. Moc testu.
Moc testu to prawdopodobieństwo odrzucenia fałszywej hipotezy zerowej, 1-
p.

Każdy czynnik obniżający betę podwyższa moc testu i odwrotnie.

5. Czynniki wpływające na moc testu: rozbieżność


między prawdziwą średnią populacyjną a średnią
hipotetyczną (wielkość efektu).
Im większa jest rozbieżność między średnią w populacji prawdziwą a tą
hipotetyczną, tym mocniejszy jest test.

6. Czynniki wpływające na moc testu: liczebność próby.

Metody w psychologii II- notatki z podręcznika 18


Przy niezmienionych wartościach innych parametrów im większa jest
liczebność próby, tym mniejszy jest błąd standardowy średniej i tym większa
jest moc testu.

7. Czynniki wpływające na moc testu: zmienność


pomiarów.
Zwiększenie mocy testu powoduje redukcja wartości s.

Każde źródło zmienności zewnętrznej powiększa wartość s w stosunku do tej,


która by się pojawiła, gdyby ono nie oddziaływało.

8. Czynniki wpływające na moc testu: poziom


istotności α.
Redukowanie ryzyka popełnienia błędu I rodzaju powiększa ryzyko
popełnienia błędu II rodzaju i dlatego też obniża moc testu.

9. Czynniki wpływające na moc testu: testy


jednostronne a testy dwustronne.
Przy niezmienionych wartościach innych parametrów prawdopodobieństwo
odrzucenia fałszywej hipotezy zerowej jest większe w przypadku testu
jednostronnego niż w przypadku testu dwustronnego (jeśli w HA poprawnie
został określony kierunek zależności).

10. Szacowanie mocy oraz wielkości próby dla testów


weryfikujących hipotezy o średnich.
Moc testu można obliczyć jedynie wtedy, gdy potrafi się określić prawdziwą
wartości średniej w populacji.

Metaanaliza to ilościowa procedura, która pozwala na łączenia wyników


liczbowych uzyskanych w wielu badaniach.

Pożądany poziom mocy - zaleca się, aby wynosił 0,8.

Najprostszym sposobem podwyższania mocy jest zwiększanie liczebności


próby. Można wyznaczyć wielkość mocy dla próby o określonej liczebności i

Metody w psychologii II- notatki z podręcznika 19


można też wyznaczyć liczebność próby wymaganą do osiągnięcia
pożądanego poziomu mocy.

określenie ryzyka (poziomu alfa) podjętego, aby odrzucić prawdziwą


hipotezę zerową.

wielkość najmniejszej rozbieżność, co do której chcemy mieć


uzasadnioną pewność, że je wykryjemy, gdy taka różnica istnieje.

11. Problemy związane z losowym doborem do próby


oraz z wyprowadzeniem wniosków.
Uogólnianie wyników testu statystycznego właściwie wyprowadzić wnioski
możemy jedynie w odniesieniu do tej populacji z której pochodzi nasza
populacja.

Rozdział 15. Testowanie hipotez o różnicach


między dwiema niezależnymi grupami.
1. Hipoteza zerowa i hipoteza alternatywna.
Hipoteza zerowa informuje o braku różnic między średnimi. Natomiast
alternatywna postuluje różnicę.

Z powodu zmienności wprowadzonej przez losowe przydzielanie do grup


oczekujemy, że te dwie próby dadzą różne średnie nawet wtedy, gdy będą
traktowane w ten sam sposób.

2. Losowy rozkład z próby różnic między dwiema


średnimi z próby.
Rozkład wartości X-Y to przedstawienie w formie tabeli lub wykresu, jakie
wartości przyjmuje zmienna X w zależności od wartości zmiennej Y.

Losowy rozkład z próby wartości (X-Y) to teoretyczny rozkład częstości


względnych X- Y, które mogłyby się pojawić przez przypadek w nieskończonej
liczbie prób o określonej liczebności wylosowanych z dwóch populacji.

Metody w psychologii II- notatki z podręcznika 20


3. Przykład losowego rozkładu różnic między średnimi
z próby.
Jeśli próby były wybierane z populacji niezależnie i losowo, to wystąpienie
każdej z różnic zamieszczonych w tabeli jest tak samo prawdopodobne.

Jeśli rozkłady średniej z próby dla populacji X oraz dla populacji Y są w


przybliżeniu normalne, to rozkład różnic między parami wybranych losowo
średnich również będzie w przybliżeniu normalny.

4. Właściwości rozkładu różnic między średnimi.


Błąd standardowy różnicy między dwiema średnimi to odchylenie
standardowe rozkładu wartości (X-Y) z próby.

5. Określenie wzoru na wartość t.

6. Testowanie hipotez o braku różnic między dwiema


średnimi niezależnymi.

7. Wykonywanie testu jednostronnego.


Test kierunkowy jednostronny - hipoteza alternatywna stwierdza, że średnia
różni się od średniej Y w jednym konkretnym kierunku.

8. Wielkość próby we wnioskowaniu o dwóch średnich.

9. Wielkość efektu.
d Cohena: 0,2= efekt mały, 0,5 efekt przeciętny, 0,8- efekt duży.

10. Szacowanie mocy i wielkości próby podczas


testowania hipotez o różnicy między dwiema średnimi
niezależnymi.

Metody w psychologii II- notatki z podręcznika 21


11. Założenia związane z wnioskowaniem różnicy
między dwiema średnimi niezależnymi.
Każda próba jest wybrana losowo z populacji przez nie reprezentowanych.

Dwie próby losowe muszą zostać wybrane niezależnie.

Próby są wybierane zgodnie z schematem losowanie zwrotnego.

Rozkład wartość X-Y z próby jest zgodny z rozkładem normalnym.

12. Model losowego doboru do próby a model


losowego przydzielania do grup.
Model losowego doboru do próby to procedura zapewniająca, że próba
została otrzymana w taki sposób, iż wszystkie próby o tej samej liczebności
mają taką samą szansę na wyselekcjonowanie z populacji.

Losowe przydzielanie do grup to procedura zapewniająca losowy podział


grupy osób badanych albo obserwacji na dwie podgrupy lub większą ich
liczbę.

Różnica między tymi modelami: jeśli używamy modelu losowego


przydzielania dostępnych badanych do grup, to wnioski statystyczne nie
mogą wyjść poza grupę tych osób, które brały udział w badaniu i
równocześnie poza zbiór warunków zastosowanych w tych badaniach.
Statystyki nie dają wystarczającej podstawy do generalizacji.

13. Losowy dobór do próby i losowe przydzielanie do


grup jako narzędzia kontroli eksperymentalnej.

14. Eksperyment a badania w modelu in situ.


Eksperyment charakteryzuje manipulowanie zmienną, która interesuje
badacza oraz kontrolowanie czynników ubocznych.

Badania in situ to badania, w których nie mamy do czynienia z


manipulowaniem zmienną niezależną.

Metody w psychologii II- notatki z podręcznika 22


Rozdział 16. Testowanie hipotez o różnicy
między dwoma grupami zależnymi
(skorelowanymi).
1. Określenie wzoru na wartość t.
plan dla prób zależnych- badania, w których pomiary w jednej próbie są
powiązane z pomiarami w innej próbie/ innych próbach.

plan z powtarzanymi pomiarami- badania w których obserwacje są pomiarami


uzyskanymi od tej samej osoby przy dwóch warunkach lub większej ich
liczbie.

plan z dopasowanymi osobami badanymi- badanie, w których osoby z dwóch


(lub większej liczby) grup są przez eksperymentatora połączone w pary
(dopasowane) wartości zmiennej zewnętrznej. Wartość konkretnego wyniku Y
będzie częściowo powiązana z połączonym z nim parę wynikiem X, dlatego
wynik X i Y nie mogą być traktowane jako całkowicie niezależne.

badania z dopasowywanymi parami- badania, w których osoby z dwóch grup


są połączone w pary w sposób naturalny, np. badacze wybrali do badań
identyczne bliźnięta, męża i żonę.

model idealny- zakłada, że istnieje populacja obserwacji połączonych w pary i


że ta próba jest losowo wybrana z populacji, przyjmowane jest, że znamy
wartość współczynnika korelacji między parami obserwacji w populacji.

oszacowanie błędu standardowego dla prób zależnych- błąd standardowy


różnicy między średnimi zależnymi uwzględnia korelację, za którą jest
odpowiedzialny związek między próbami; przyjmuje różne wartości dla
różnych prób, różnica między dwoma średnimi zaś przekształcona na na
wartość t.

2. Stopnie swobody dla testów weryfikujących hipotezy


o braku różnic między średnimi zależnymi.
stopnie swobody - liczba niezależnych wyników obserwacji pomniejszona o
liczbę związków, które łączą te wyniki ze sobą.

Metody w psychologii II- notatki z podręcznika 23


Oszacowania prawdopodobieństwa zajścia danego wyniku testu
statystycznego. Stosowane są w celu uniknięcia obciążenia błędem
systematycznym oszacowania poszukiwanego parametru lub wyniku.

n-1 - liczba stopni swobody dla statystyki t w planie dla grup zależnych gdzie
n jest równe liczbie par wyników.

Jeżeli wynik jednej osoby w parze jest określony, to wynik drugiej z nich nie
może się zmieniać w sposób dowolny. W konsekwencji każdej parze wyników
możemy przypisać tylko jeden stopień swobody, więc skoro n par wyników to
n- 1 stopni swobody.

3. Testowanie hipotez o różnicach dwóch średnich


zależnych.
D- symbol oznaczający różnicę między wynikami (X-Y)

D - symbol oznaczający średnią różnicę między wynikami z próby.

Postępowanie:

1. Losowy wybór próby.

2. Na podstawie wyników standaryzowanych testu utworzenie par


dopasowanych pod jakimś względem.

3. To, do której konkretnie grupy trafi osoba z pary trafi, określane jest losowo.

4. Testowanie hipotezy zerowej H0: μx-μy = 0 przy hipotezie alternatywnej HA:


μx-μy =/= 0 i poziomie istotności wynoszącym 5%.

5. Obliczanie średnich dla wyników z grupy X i Y.

6. Oszacowanie populacyjnego odchylenia standardowego.

7. Obliczanie współczynnika korelacji.

8. Oszacowanie błędów standardowych średnich.

9. Oszacowanie błędu standardowego różnicy między średnimi.

10. Obliczenie wartości t. (Rozkład t-studenta stosowany jest wyłącznie w


sytuacjach kiedy nie jest znane odchylenie standardowe, a liczba
obserwacji(rozmiar próby) jest mniejsza od 30)

Metody w psychologii II- notatki z podręcznika 24


11. Odczytywanie krytycznej wartości t (np. dla testu dwustronnego przy α= 0,05 i
df= 14).

12. Wyprowadzenie wniosku statystycznego i odrzucenia/ potwierdzenia hipotezy


zerowej.

13. Wniosek badawczy.

4. Alternatywne podejście do problemu dwóch średnich


zależnych.
Alternatywna technika obliczania wartości t potrzebnej do testu dla dwóch
średnich zależnych, która daje identyczny wynik, ale wymaga wykonania
mniejszej liczby rachunków. Ta metoda odwołuje się do cech rozkładu różnić
między połączonymi w pary wynikami X i Y z próby.

Zamiast próby złożonej z wyników X jest próba złożona z różnic między


wynikami (D). Zabieg ten przekształca test dla dwóch prób (próba wyników X i
Y) w test dla jednej próby (różnic między wynikami).

To krótsza metoda, ale dostarcza mniej informacji niż ta opisana w


wcześniejszym punkcie.

rozkład wartości D z próby- teoretyczny rozkład częstości względnych


wszystkich możliwych wartości D, które mogłyby zostać otrzymane losowo
przy nieskończonej liczbie prób o określonej liczebności wybranych z dwóch
populacji - X i Y.

sD- oszacowanie populacyjnego odchylenia standardowego wartości D.

sD- oszacowanie błędu standardowego wartości D.

Postępowanie:

1. Od każdej wartości X odejmuje się połączoną z nią w parę wartość Y (tak


powstają wartości D).

2. Obliczanie odchylenia standardowego wartości D.

3. Obliczanie wariancji wartości D.

4. Obliczanie błędu standardowego wartości D.

5. Obliczenie wartości t.

Metody w psychologii II- notatki z podręcznika 25


5. Wielkość efektu.
Wielkość efektu- ilościowa miara siły zjawiska (np. różnica między grupą
kontrolną a grupą eksperymentalną) obliczana na podstawie danych.

d Cohena- prościej jest oszacować wartość wskaźnika d, jeżeli użyjemy D,


czyli różnic między wynikami. 0,2= efekt mały, 0,5= efekt przeciętny, 0,8= efekt
duży.

g Hedgesa- miara wielkości efektu. Wyraża różnicę między X a Y odniesioną


do oszacowań populacyjnych odchyleń standardowych (błędu
standardowego wartości D lub odchylenia standardowego wartości D).

r Pearsona- korelacyjna miara wielkości efektu. W przypadku planu dla prób


zależnych wskaźnik r jest cząstkową korelacją między członkami grupy i
wynikami na zmiennej zależnej oraz zmiennymi wskaźnikowymi. dla jednostek
połączonych w pary.

6. Moc testu.
moc testu - prawdopodobieństwo odrzucenia fałszywej hipotezy zerowej.

Sposobem podwyższania mocy testu jest redukcja wielkości s (odchylenia


standardowego z próby).

Jeśli obserwację połączymy w pary, czyli wykorzystamy plan dla prób


zależnych, to uzyska się efekt redukcji błędu standardowego różnicy między
średnimi poprzez kontrolowanie wpływu zmiennych zewnętrznych.

7. Założenia związane z testowaniem hipotez o różnicy


między dwiema średnimi zależnymi.
Założenia:

nie jest wymagana homogeniczność wariancji

próba została wybrana za pomocą losowania z zwracaniem

rozkład wartości X-Y (albo D) z próby był zgodny z rozkładem normalnym

kiedy próba jest duża (większa od 25), to centralne twierdzenie graniczne


informuje o tym, że rozkład wartości D powinien zbliżać się do krzywej

Metody w psychologii II- notatki z podręcznika 26


normalnej , bez względu jak wyglądają oryginalne wyniki w populacji. Jeśli
próba składa się z liczby elementów mniejszej niż 25, a jest przypuszczenie,
że w populacji wyniki nie mają kształtu rozkładu normalnego, to lepszą
alternatywą niż test t, może się okazać nieparametryczny test istotności.

8. Zagrożenia związane z planem dla prób zależnych.


Kiedy na pary obserwacji składają się powtarzane obserwacje dla tej samej
osoby, a kolejność warunków w jakich dokonywano pomiaru, była ustalana
losowa, może zaistnieć wpływ: efektu kolejności- przy dokonywaniu
powtórzonych wymiarów dla tej samej osoby badanej, ekspozycja na warunek
eksperymentalny wyznaczony jako pierwszy może oddziaływać na wykonane
przez nią zadania wtedy, gdy zostanie zbadana przy warunku zaznaczonym
jako drugi.

Kiedy na pary obserwacji składają się powtarzane obserwacje dla tej samej
osoby, a kolejność dwóch warunków w jakich dokonywano pomiaru, nie była
ustalana losowa, może zaistnieć wpływ: efektu regresji- jeżeli badani zostali
wybrani dlatego, że charakteryzują ich ekstremalne wyniki danej cechy, to
ponowny pomiar tej samej zmiennej da wyniki bliższe średniej.

Rozdział 20.Testowanie hipotez o różnicach


między trzema grupami albo większą liczbą
grup: jednoczynnikowa analiza wariancji i
niektóre jej alternatywy.
1. Hipoteza zerowa.
Jeśli chce się poznać względny efekt trzech albo większej liczby sposoby
traktowania osób badanych, można by użyć do porównania wszystkich
możliwych kombinacji par średnich test t Studenta, jednak metoda użycia
testu t nie jest adekwatna. Powody: zbyt duża liczba potrzebnych do
wykonania testów, wraz z liczbą testów wzrasta prawdopodobieństwa
popełnienia błędu I rodzaju (odrzucenia prawdziwej hipotezy zerowej-
otrzymania istotnej różnicy, kiedy w rzeczywistości ona nie istnieje) i każdy z

Metody w psychologii II- notatki z podręcznika 27


testów dostarcza nam informacji cząstkowych- tylko dotyczących dwóch
porównywanych grup, czyli brak prostej odpowiedzi na to czy istnieje dowód
na zróżnicowany pomiar.

Analiza wariancji (ANOVA)- została opracowana przez R. A. Fishera w 1920


roku. Pozwala ona na równoczesne porównywanie kilku par średnich na
poziomie istotności ustalonym przez badacza. To grupa technik przeznaczona
do testowania hipotez.

Jednoczynnikowa analiza wariancji - to plan dla pojedynczego czynnika,


analiza wariancjo wariancji uwzględniająca tylko jedną zmienną zależną.
pozwala na porównanie średnich z dwóch albo większej liczby grup
jednocześnie. Jest traktowana jako rozszerzenie testu t na problemy
uwzględniające większą liczbę grup niż dwie.

Warunki eksperymentalne to różne wartości (poziomy) zmiennej niezależnej.


Ich liczbę oznacza się symbolem k. W jednoczynnikowej ANOVA można mieć
do czynienia z dwoma warunkami eksperymentalnymi lub większą ich liczbą,
nazywanymi czynnik lub różnymi poziomami zmiennej niezależnej.

Hipoteza zerowa w ANOVA to hipoteza omnibus, czyli obejmująca wiele


sytuacji naraz. Hipoteza alternatywna zaprzecza hipotezie zerowej, czyli mówi
że średnie się różnią. To oznacza, że przynajmniej jedna z prób pochodzi z
populacji o średniej różniącej się od pozostałych. Hipoteza zerowa może być
fałszywa na kilka sposobów, więc rozróżnienie na hipotezy kierunkowe lub
niekierunkowe nie ma sensu, jeśli liczba grup wynosi więcej niż dwie.

2. Logika jednoczynnikowej analizy wariancji:


zróżnicowanie wewnątrzgrupowe i zróżnicowanie
międzygrupowe.
Całkowite zróżnicowanie między grupami (wyniki w grupie różnią się, można
je rozdzielić na dwie części):

zróżnicowanie wewnątrzgrupowe- Rozrzut wyników wokół średniej przy tym


samym warunku eksperymentalnym, wyniki mogą różnić się jedynie z
powodu zróżnicowania inherentnego- zróżnicowanie spowodowane
czynnikami losowymi.

Metody w psychologii II- notatki z podręcznika 28


zróżnicowanie między grupowe- Zróżnicowanie średnich dla różnych
warunków eksperymentalnych, średnie mogą różnić z powodu działania
inherentnego oraz efektu oddziaływań- zróżnicowanie spowodowane
czynnikami losowymi i efektem oddziaływań (o ile taki istnieje).

Logika ANOVA:

Dwa rodzaje zróżnicowań stanowią podstawę do testowania hipotezy zerowej


o postaci μA=μB=μC.

Wewnątrzgrupowy rozrzut poszczególnych wyników wokół średniej: założenie


o homogeniczności wariancji, obliczenie wariancji z próby. Aby otrzymać
bardziej dokładne oszacowanie trzeba połączyć kilka estymacji z prób i
obliczyć ich średnią- pojedyncze oszacowanie wariancji populacyjnej
(wariancji błędu), jego wartość nie zależy od prawdziwości H0.

Międzygrupowe zróżnicowanie: jeśli H0 jest prawdziwa, to oznacza, że to k


prób pochodzi z identycznych populacji, czyli wzięły się one z tej samej
populacji. Obliczenie wariancji z próby z rozkładu X. W rozkładzie X z próby
wariancja tych wartości jest równa wariancji populacyjnej podzielonej przez
liczebność próby. Najlepszym oszacowaniem dla wariancji populacyjnej z
rozkładu X jest wariancja z populacji z rozkładu X, można uzyskać inną
wartość wariancji populacyjnej.

Efekt oddziaływań- różnica między grupami spowodowanymi zróżnicowaniem


warunków eksperymentalnych. Jeśli hipoteza zerowa jest prawdziwa:
obydwie estymacje odzwierciedlają jedynie zróżnicowania zależne od
czynników losowych. Jeśli jednak H0 jest fałszywa, to oszacowanie
międzygrupowe będzie wyższe, ponieważ odzwierciedla zróżnicowanie
inherentne oraz zróżnicowanie spowodowane efektem zróżnicowanych
oddziaływań. Odrzucenie H0: jeśli oszacowanie międzygrupowe jest zbyt
wyższe od zróżnicowania międzygrupowego i nie da się tego wyjaśnić
czynnikami losowymi.

Analiza wariancji zajmuje się wariancją, która jest podstawową miarą


zróżnicowani. Licznik wariancji jest sumą kwadratów odchyleń
poszczególnych wyników od średniej. To wyrażenie nazywane jest sumą
kwadratów (SS). ANOVA wymaga obliczania sum kwadratów.

Metody w psychologii II- notatki z podręcznika 29


3. Podział sum kwadratów.
średnia generalna (X)- średnia wszystkich wyników otrzymanych we
wszystkich warunkach eksperymentalnych.

pojedynczy wynik: X= średnia generalna+ efekt oddziaływań+ zróżnicowanie


inherentne

Efekt oddziaływań to wartość równa odchyleniu średniej populacyjnej od


średniej generalnej.

Zróżnicowanie inherentne zróżnicowanie spowodowane czynnikami


losowymi, ponieważ badani z jednej grupy są traktowani tak samo.

SScała- suma kwadratów odchyleń od średniej generalnej. Aby obliczyć tę


wartość należy odchylenia poszczególnych wyników od średniej generalnej
podnieść do kwadratu, a następnie otrzymane wartości do siebie dodać.

Podział sum kwadratów w jednoczynnikowej analizie wariancji dla prób


niezależnych. SScała (wszystkie wyniki)= SSwewnątrz(wszystkie
wyniki)+SSmiędzy(k)

założenie o homogeniczności wariancji- założenie, który głosi, że wariancje


populacyjne dla wszystkich warunków eksperymentalnych są takie same.

SSwew- miara wewnątrzgrupowego zróżnicowania poszczególnych wyników,


które nie są zależna od różnic między średnimi grupowym, wyrażenie będące
bezpośrednim odzwierciedleniem zróżnicowania inherentnego i jest wolne od
wpływu efektu zróżnicowanych oddziaływań eksperymentalnych.

SSmię- miara zróżnicowania między średnimi (z próby) dla poszczególnych


grup, odzwierciedla wariancję inherentną (wolną od wpływu efektu
oddziaływań) oraz różnicujący wpływ efektu oddziaływań (zróżnicowanie
przypisywane różnicom między średnimi populacyjnymi).

4. Stopnie swobody.
W jednoczynnikowej ANOVA test H0 polega na porównaniu dwóch
oddzielnych oszacowań wariancji populacyjnej- jedno z nich oparte na
wewnątrzgrupowym rozrzucie poszczególnych wyników wokół

Metody w psychologii II- notatki z podręcznika 30


odpowiadających im średnich grupowych drugie zaś- na zróżnicowaniu tych
średnich.

wariancja z próby= Suma kwadratów/ stopnie swobody

Liczba stopni swobody dla oszacowania wariancji opartego na próbie


pojedynczej jest równa n-1. dfcala= ncała-1

Liczba stopni swobody dla łączonego oszacowania wariancji, którego używa


się w teście t dla dwóch średnich niezależnych wynosi df= (n1-1)+(n2-1).

Liczba stopni swobody dla SSwew: dfwew= ncała-k (k oznacza liczbę grup).

Liczba swobody dla SSmię: dfmię= k-1, ponieważ w przypadku SSmię mamy
do czynienia z taką liczbą odchyleń od średniej generalnej, która jest równa
liczbie średnich z prób (albo liczbie grup).

Podział stopnie swobody: dfcala= dfwew+ dfmię

5. Oszacowanie wariancji i stosunek F.


Oszacowanie wariancji wewnątrzgrupowej- oszacowanie wariancji
inherentnej.

Oszacowanie wariancji międzygrupowej- oszacowanie wariancji inherentnej


oraz wariancji, która jest efektem oddziaływań.

stosunek F- stosunek oszacowań wariancji wewnątrzgrupowej i


międzygrupowej. Kiedy jest brak efektu oddziaływań, wartość tego wyrażenia
powinna wynosić około 1. F= wariancja inherentna+efekt oddziaływań/
wariancja inherentna.

rozkład F- teoretyczny rozkład liczebności względnych wszystkich wartości F,


które mogłyby zostać uzyskane przez przypadek przy nieskończonej liczbie
prób o określonej liczebności wyprowadzonych z danej populacji.

6. Tabela zbiorcza.
W analizie wariancji wygodne oraz zgodne z powszechną praktyką jest
prezentowanie zbiorczej tabeli zawierającej źródła zróżnicowania,
odpowiadające im sumy kwadratów, właściwe stopnie swobody, oszacowania
wariancji oraz obliczoną wartość F.

Metody w psychologii II- notatki z podręcznika 31


7. Przykład.
Metoda:

1. Losowy dobór do próby i losowe przydział do grupy.

2. Obliczenie średniej dla każdej grupy oraz średniej generalnej.

3. Obliczenie SSmię oraz SSwew oraz SScała (niepotrzebna do ustalenia


stosunku F).

4. Wpisanie wyników do zestawienia zbiorczego.

5. Obliczenie stopni swobody

6. Obliczenie wariancji międzygrupowej i wariancji wewnątrzgrupowej.

7. Obliczenie wartości stosunku F i wstawić do tabeli.

Jeśli otrzymana wartość F przewyższa wartość krytyczną, to wyprowadzony


jest wniosek, że średnie się różnią (pojawiły się istotne różnice). Jednak
można wyprowadzić wniosek jedynie o tym, że pojawiły się różnice między
grupami, ale aby określić sposób w jaki te grupy się różnią, trzeba
przeprowadzić dodatkowe testy.

8. Porównanie t oraz F.
Związek między F oraz t: F=T^2 - w przypadku dwóch grup, plan dla grup
niezależnych

t= otrzymana różnica między średnimi z próby- hipotetyczna różnica między


średnimi populacyjnymi (gdy H0 jest prawdziwa)/ oszacowanie błędu
standardowego różnicy między dwiema średnimi.

F= oszacowanie wariancji oparte na różnicy między średnimi z próby/


oszacowanie wariancji wewnątrz prób

9. Wzory w analizie wariancji odwołujące się do


wyników surowych.

10. Założenia związane z modelem ANOVA.

Metody w psychologii II- notatki z podręcznika 32


Populacje charakteryzują się rozkładem normalnym.

Wariancje w tych kilku analizowanych populacjach są takie same


(homogeniczność wariancji)

Dobór elementów do konkretnej próby jest niezależny od elementów do


każdej z pozostałych.

Próby są wybierane losowo zgodnie z schematem losowania zwrotnego.

11. Wielkość efektu.


Miary efektu powszechnie stosowane w ANOVA dla grup niezależnych,
obydwa wskaźniki należą do rodziny r.

Stosunek korelacyjny- eta- kwadrat (η²): SSmię/SScała. Miara siły związku


między zmienną niezależną a zmienną zależną. Wskaźnik prosty, ale
obciążony, ponieważ podwyższa szacowane wielkości.

Omega- kwadrat: dostarcza względnie nieobciążonej estymacji siły związku,


szacuje proporcję wariancji zmiennej zależnej (w populacji), którą przypisać k
warunkom eksperymentalnym.

12. Model ANOVA a moc testu.


Czynniki wpływające na moc testu:

rzeczywista rozbieżność między średnimi populacyjnymi

wariancja, której nie możemy przypisać efektowi oddziaływań

stopnie swobody dla licznika

poziom istotności (prawdopodobieństwo popełnienia błędu I rodzaju)

stopnie swobody dla mianownika

13. Porównania post hoc.


porównania post-hoc testy statystyczne wykonane po otrzymaniu istotnej
wartości F pokazujące, które średnie różnią się istotnie

Metody w psychologii II- notatki z podręcznika 33


test HSD Tukeya-uczciwie istotna różnica, powszechnie wykorzystywany test
poc hoc

14. Kilka obaw związanych z porównaniami post hoc.


Analiza wszystkich możliwych różnic lub testy dla wszystkich możliwych
kombinacji wyników są kontrowersyjne, ponieważ testy dla wszystkich par są
konserwatywne, a to odbija się negatywnie na mocy testu.

Zalecana jest analiza tendencji albo skupienia efektów- sprawdzenie


specyficznego kontrastu.

15. Alternatywa dla testu F: porównania zaplanowane.


Porównania zaplanowane- testy używana zamiast ANOVA wtedy, kiedy badacz
z góry wie, które porównania go interesują, porównania a priori.

Porównania ortogonalne- porównania, które są unikatowe i się nie pokrywają.

17. Analiza wariancji dla pomiarów powtarzanych.


Analiza wariancji w schemacie wewnątrzgrupowym (powtarzane pomiary) jest
metodą pozwalającą na porównanie ze sobą kilku (dwóch lub więcej)
pomiarów przeprowadzonych na tej samej grupie osób – tzw. grupy zależne.
W takim badaniu badamy tą są grupę osób kilkukrotnie a poszczególne
powtórzone pomiary jej stanowią oddzielne grupy, grupy pomiarów. Analiza
wariancji w schemacie powtarzanych pomiarów stanowi rozszerzenie analizy
testem t-Studenta dla prób zależnych. W teście t-Studenta możemy porównać
ze sobą jedynie dwa pomiary a w analizie wariancji możemy porównać dwa
lub więcej niż dwa pomiary tej samej grupy osób.

16. Jak konstruować porównania zaplanowane.


ANOVA dla pomiarów powtarzanych- procedura analizy wariancji używana
wtedy, gdy jedna próba jest testowana w dwóch warunkach
eksperymentalnych albo w większej ich liczbie.

W analizie wariancji dla pomiarów powtarzanych wskaźnik s^2wew jest dalej


dzielony na dwie części: miara zróżnicowania wyników przypisana różnicom

Metody w psychologii II- notatki z podręcznika 34


indywidualnym oraz miara wyników zróżnicowania wyników przypisywana
błędowi losowemu albo też przypadkowi.

Stosunek F: F= s^2mię/s^2reszta= błąd losowy = efekt oddziaływań/ błąd


losowy

Rozdział 21. Czynnikowa analiza wariancji:


plan dwuczynnikowy dla grup niezależnych.
1. Efekty główne.
Czynnik to zmienna niezależna (warunek eksperymentalny) w planie analizy
wariancji, który pozwala na jednoczesne badanie efektów dwóch zmiennych
niezależnych czy też dwóch czynników.

Plan czynnikowy to plan ANOVA , w którym jednocześnie są analizowane dwa


czynniki albo większą ich liczbą.

Poziomy to różne wartości zmiennej niezależnej (czynnika).

Plan 2x2 to plan uwzględniający dwa czynniki i dwa poziomy każdego


czynników, to jeden z wielu planów czynnikowych, np. 2x3.

Dwuczynnikowa ANOVA może odpowiedzieć jednocześnie na dwa pytania,


które mogłyby być przedmiotem dwóch odrębnych badań.

Kratka to kombinacja wiersza (poziomu jednego czynnika) i kolumny


(poziomu drugiego czynnika). W planie 2x2 będzie kratek: 4.

Efekt główny (efekt czynnika) to średnia różnic między poziomami jednego


czynnika uśredniona dla poziomów drugiego czynnika. To wpływ jednego z
czynników na zmienną zależną. Pozostałe czynniki w układzie są uśredniane.
Efektów głównych da się policzyć tyle, ile jest czynników.

Zaleta dwuczynnikowej ANOVA w stosunku do przeprowadzania


eksperymentów dla każdego czynnika oddzielnie jest to, że można szerzej
formułować wnioski- można formułować wniosku dla dwóch różnych
poziomów danego czynnika.

Metody w psychologii II- notatki z podręcznika 35


2. Interakcja.
Interakcja między czynnikami to połączony efekt dwóch zmiennych
niezależnych, którego nie można przewidzieć przez odwołanie się do efektów
głównych. Połączony efekt oddziaływania dwóch czynników na zmienną
zależną. Aby zweryfikować hipotezę o wystąpieniu interakcji, obliczamy
stosunek F. Interakcja istotna oznacza, że efekt jednego czynnika zależy od
poziomu drugiego czynnika. Interakcja to wpływ jednego z czynników na
zmienną zależną jest różny w zależności od poziomów innego czynnika.

Interakcja porządkowa to interakcja dla której względnie rangi dla poziomów


jednego czynnika są takie same na wszystkich poziomach drugiego czynnika.

Interakcja nieporządkowa to bardziej radykalna interakcja, dla której względne


rangi dla poziomów jednego czynnika różnią się na kolejnych poziomach
drugiego czynnika.

3. Znaczenie interakcji.
Efekty proste to wyniki analiz jednoczynnikowych, różnice wewnątrz wierszy
albo wewnątrz kolumn tabeli. Odwołują się do wyników jednoczynnikowych
analiz. Aby robić tego typu porównania, trzeba najpierw uzyskać istotny efekt
interakcji. Jeśli tak się stanie, to użyć można np. testu HSD Tukeya. Efekt
prosty to wpływ jednego czynnika na zmienną zależną na jednym, wybranym
poziomie drugiego czynnika.

Pytanie o interakcje jest czasami ważniejsze od pytania o efekt główny.

Pierwsza hipoteza zerowa: HA0 źródło zmienności A nie różnicuje wyników.

Druga hipoteza zerowa: HB0 źródło zmienności B nie różnicuje wyników.

Trzecia hipoteza zerowa: HAB0 źródło zmienności AB nie różnicuje wyników.


To hipoteza o braku interakcji.

4. Podział sumy kwadratów w dwuczynnikowej analizie


wariancji dla grup niezależnych.
SScała

SSwewnątrz (kratka)

Metody w psychologii II- notatki z podręcznika 36


SSmiędzy

SSwiersze

SS kolumny

SS wiersze x kolumny

5. Stopnie swobody.
dfcała= ncała- 1

dfwierszy= W- 1, w to liczba wierszy

dfkolumn= K- 1, k to liczba kolumn

dfwewnątrz kratek= wszystkie wyniki (nwewnątrz kratek- 1), n to liczba


wyników wewnątrz kratki

dfWK= (W-1)(K-1)

dfcała= dfwewnątrz kratek+ dfK+dfW+dfWK

6. Oszacowania wariancji oraz testy F.


Stosunek F to stosunek oszacowań wariancji międzygrupowej i wewnątrz
grupowej. Wzór to (wariancja inherentna+ efekt oddziaływań)/wariancja
inherentna. Jeśli brak efektu oddziaływań wartość tego wyrażenia powinna w
przybliżeniu wynosić 1,0.

Aby obliczyć nieobciążone oszacowanie wariancji populacyjnej trzeba


podzielić sumę kwadratów przez właściwe dla niej stopnie swobody.

Wariancja błędu to wewnątrzkratkowa wartość będąca oszacowaniem tylko


wariancji inherentnej. Zakłada się, że jest ona we wszystkich populacjach
(kratkach) taka sama. Nie oddziałują na nią efekty czynnika zapisanego w
wierszach i czynnika zapisanego w kolumnach ani też efekt inherencji.

Krytyczna wartość F: jeśli otrzymana wartość F przekracza tę krytyczną


wartość, to odrzuca się hipotezę zerową.

7. Analiza rezultatów dwuczynnikowej analizy wariancji.

Metody w psychologii II- notatki z podręcznika 37


Testy przeznaczone do analizowania średnich oraz związków między nimi,
podczas gdy możliwe jest przeprowadzenie testów F bez konieczności
obliczania pojedynczej średniej.

Rutynową częścią procedury ANOVA powinno być ustalenie wartości


średnich kratkowych i brzegowych.

Jeśli przynajmniej jeden z trzech testów F jest istotny, to zawsze powinno się
pogrupować średnie kratkowe/ nadać im formę tabeli.

Analiza wartości poszczególnych średnich oraz związki między nimi.

Jeśli jeden lub obydwa efekty główne okażą się istotne, można użyć testu
HSD Tukeya (lub innego post hoc), aby określić które poziomy czynnika
różnią się od pozostałych.

Test post hoc użyto wtedy, gdy czynnik ma więcej niż dwa poziomy. Jeżeli
czynnik mierzony tylko na dwóch poziomach okazuje się istotny, to jest
oczywiste, że te dwa poziomy się różnią.

Jeśli interakcja okaże się istotna, to trzeba ją zanalizować. Trzeba


zanalizować skorygowane średnie kratkowe, czyli średnie z których usunięto
efekty główne.

średnia w kratce- (efekt w wierszu + efekt w kolumnie+ średnia generalna)

8. Wielkość efektu.
Wielkość efektu jest ilościową miarą siły zjawiska obliczaną na podstawie
danych. Stosuje się ją do mierzenia wpływu pewnego czynnika na wynik
ogólny grupy, czyli siły związku między zmienną niezależną a zmienną
zależną. Wielkość efektu nie jest zależna od wielkości próby, a jego
interpretacja opiera się na założeniu o normalności rozkładów wyników
porównywanych grup.

Eta kwadrat łatwiej wyliczyć niż omega kwadrat. Aby ją wyliczyć to trzeba
podzielić kolejne sumy kwadratów przez całkowitą sumę kwadratów. Uzyska
się wtedy proporcję wariancji zmiennej zależnej, którą możemy przypisać
efektom głównym i efektowi interakcji.

Metody w psychologii II- notatki z podręcznika 38


Wielkość efektu η2 mierzy to, w jakim stopniu czynnik wyjaśnia zmienność
badanej cechy - czy mało, czy dużo. W teorii jest tak, że badacz powinien być
rozeznany, jakie wielkości efektu są w jego dziedzinie uznane jako małe,
umiarkowane, albo duże. W praktyce różnie z tym bywa, więc z pomocą
przychodzi Cohen i jego progi: mała = 0,01, umiarkowana =0 ,06, duża = 0,14.

Jednak lepszą miarą wielkości efektu jest cząstkowa omega kwadrat. Na


wielkość efektu obliczoną za pomocą wskaźnika nie oddziałuje żaden inny
efekt uwzględniony w planie eksperymentalnym.

9. Porównania zaplanowane.
Porównania zaplanowane a priori to testy używane zamiast ANOVA wtedy, gdy
badacz z góry wie, które porównania będą go interesowały. Testy
charakteryzujące się największą mocą, których badacz może użyć do
wykrycia różnic, o ile takie występują.

Jeśli istnieją pewne przesłanki, że konkretne porównania są ważne, to


porównania zaplanowane będą lepsze od ogólnego testu istotności, jak test F.

W planie 2x2 można użyć kontrastów: efekt wiersza, efekt kolumny i efekt
interakcji.

10. Założenia związane z planem dwuczynnikowym i


problem nierównej liczby wyników.
Założenia dla dwuczynnikowej analizy ANOVA nie różnią się od założeń dla
analizy jednoczynnikowej:

niezależność prób w poszczególnych kratkach

losowy dobór do próby

homogeniczność wariancji

normalność rozkładów dla populacji odpowiadających każdej kratce

Równe liczebności osób badanych:

w jednoczynnikowej ANOVA można różną liczbę badanych przydzielać do


różnych poziomów zmiennej niezależnej bez poważnych konsekwencji, w

Metody w psychologii II- notatki z podręcznika 39


dwyczynnikowej ANOVA zapewnienie takiej samej liczby obserwacji w
grupach jest jednak problemem poważniejszym

jeżeli liczba obserwacji w każdej kratce nie jest taka sama, to przed
rozpoczęciem obliczeń trzeba wprowadzić do danych korektę

poprawki: które mogą obniżyć moc technik statystycznych albo wymagają


wprowadzenia dodatkowych założeń, które nie łatwo zweryfikować.

Rozdział 8. Korelacja.
1. Trochę historii.
Korelacja to miara siły związku między dwiema zmiennymi.

Predykcja to oszacowanie wartości jednej zmiennej na podstawie wartości


drugiej z nich wtedy, gdy obie zmienne są skorelowane, im silniejsza jest
korelacja między dwiema zmiennymi, tym lepsza jest predykcja.

Rozkład dwuzmiennowy to rozkład, który przedstawia związek między dwiema


zmiennymi. Wszystkie problemy z pytaniem o korelację wymagają (Sir Fransis
Galton).

Karl Pearson - korelacja i jej rygorystyczna metoda matematyczna.

2. Graficzna forma rozkładów dwuzmiennowych:


diagram rozrzutu.
Diagram rozrzutu to wykres rozkładu dwuzmiennowego złożony z kropek
zlokalizowanych w punktach przecięcia osi reprezentujących pary wyników.

Związek liniowy to związek, który reprezentuje linia prosta. Techniki służące


do wyznaczania korelacji i dokonywanie predykcji są adekwatne jedynie
wtedy, gdy związek między dwiema zmiennymi jest liniowy (ale są wyjątki).

3. Korelacja: problem kierunku.


Korelacja dodatnia to związek liniowy, w którym wysokie wyniki w pierwszej
zmiennej idą na ogół w parze z wysokimi wynikami w drugiej zmiennej, zaś

Metody w psychologii II- notatki z podręcznika 40


niskie wyniki w jednej zmiennej wiążą się przeważnie z niskimi wynikami z
drugiej z nich.

Korelacja ujemna to związek liniowy, w którym wysokie wyniki w pierwszej


zmiennej idą na ogół w parze z niskimi wynikami w drugiej zmiennej lub
odwrotnie.

Brak korelacji to zarówno wysokie, jak i niskie wartości jednej zmiennej są tak
samo często zestawione w pary zarówno z wysokimi, jak i z niskimi
wartościami drugiej zmiennej.

4. Korelacja: problem siły.


Współczynnik korelacji- jego symbol to r. Matematyczne wyrażenie związku
między dwiema zmiennymi.

Wartości r zawierają się w przedziale od -1,00 (doskonała korelacja ujemna)


poprzez 0,00 (brak korelacji) do +1,00 ( doskonała korelacja dodatnia).

Współczynnik korelacji Pearsona jest najbardziej odpowiedni do pomiaru siły


związku między dwiema zmiennymi, z których każda z jest ciągła i ilościowa.

5. Rozumienie znaczenia siły korelacji.


Korelacja nie jest odsetkiem.

Siła korelacji oznacza, że im jest bliższy 0 tym związek jest słabszy. Im bliżej 1
(lub -1), tym związek jest silniejszy.

Jak interpretować sile korelacji?

< 0.2 – brak związku liniowego.

0.2 – 0.4 – słaba zależność

0.4 -0.7 – umiarkowana zależność

0.7 – 0.9 – dość silna zależność

> 0.9 – bardzo silna zależność

6. Wzory na współczynnik korelacji Pearsona.

Metody w psychologii II- notatki z podręcznika 41


Jeśli jest mowa o współczynniku korelacji bez sprecyzowania, który
konkretnie, to można założyć, że mowa o r Pearsona, czyli o współczynniku
korelacji według momentu iloczynowego.

Jak wyliczyć r?

Zapisanie par wyników w dwóch różnych kolumnach.

Policzenie średniej dla X i Y.

Przekształcenie każdego wyniku surowego w odchylenie wyniku.

Obliczenie odchylenia standardowego dla X i Y.

Pomnożenie dwóch odchyleń wyników dla poszczególnych osób i


obliczenie sumy iloczynów krzyżowych. Dla otrzymania liczniku.

Dla otrzymania mianowniku: pomnożenie Sx przez Sy oraz przez n par


wyników.

Wykonanie końcowego dzielenia dla otrzymania r.

7. Wyliczanie r na podstawie wyników surowych.

8. Współczynnik korelacji rangowej Spearmana.


W psychologii funkcjonuje wiele narzędzi pomiarowych dającyh wyniki, w
których brak równych interwałów oraz zera absolutnego. Można jednak
uporządkować obserwacje poprzez nadanie im kolejnych rang. Współczynnik
korelacji rangowej Spearmana rs jest ściśle związany z współczynnikiem
korelacji Pearsona. Jeśli obydwa połączone w pary wyniki są wyrażone w
formie rang (niewiązanych), to w efekcie obliczenia rs oraz r Pearsona uzyska
się tę samą wartość.

Współczynnik korelacji rangowej jest potrzebny, kiedy wyniki z dwóch


różnych grup, każda grupa ułoży je w innej kolejności, a potrzeba określić
stopień zgodności między nimi. Można zbadać stopień zgodności między
dowolnymi dwiema osobami przez obliczenie współczynnika korelacji dla
rang przydzielonych przez te osoby z X aspektów. Ponieważ dane są
wyrażone w formie rang, współczynniki r oraz rs powinny dać tę samą
wartość. Pierwszeństwo rs, gdyż łatwiej go obliczyć.

Metody w psychologii II- notatki z podręcznika 42


9. Jak rangować wyniki?
Wzór na sprawdzenie poprawności rangowania (można go stosować też z
rangami wiązanymi i niewiązanymi): suma rang= n(n+1)/2, gdzie n to liczba
porangowanych wyników.

Identyczne wyniki wymagają uwzględnienia rang wiązanych. Metoda


pierwsza: przydzielenie każdemu z wyników wiązanych wartości średniej z
rang, które przypisalibyśmy im, gdyby nie były takie same.

10. Obliczanie rs Spearmana.


Jak obliczyć?

Zapisanie porządku pojawiania się danych i konkretnych wyników.

Przekształcenie wyników testów w rangi.

Dobranie zbioru rang w pary (kolumny Rx i Ry).

Zanotowanie wartości różnic między parami rang (kolumna D).

Podniesienie do kwadratu każdej wartości D i zsumowanie kwadratów.

Obliczenie wedle wzoru.

11. Istnienie korelacji nie jest dowodem na istnienie


związku przyczynowego.
Jeśli zmienność X powoduje zmienność Y, to ten związek przyczynowy ujawni
się w formie pewnej korelacji między X a Y (przynajmniej jeśli wyeliminuje się
przysłaniające ją czynniki). To, że X i Y charakteryzują się wspólną
zmiennością jest koniecznym, ale nie wystraczającym warunkiem
wyprowadzenia wniosku, że między tymi zmiennymi istnieje związek
przyczynowo skutkowy.

Korelacje uzyskane w badaniach nie są dowodami na istnienie związków


przyczynowo- skutkowych, ponieważ mogą istnieć inne zmienne wpływające
na obie zmienne.

Znaczenie istnienia korelacji dla badań: impuls do rozpoczęcia dodatkowych


analiz.

Metody w psychologii II- notatki z podręcznika 43


Sytuacje, które mogą leżeć u podłoża korelacji między dwiema zmiennymi:

stan X determinuje przynajmniej częściowo stan Y

stan Y determinuje przynajmniej częściowo stan X

jakaś trzecia zmienna wpływa na zarówno X, jak i Y

zespół wzajemnie skorelowanych zmiennych wpływa na X oraz na Y.

12. Efekt transformacji wyników.


Transformacja liniowa to przekształcenie, w którym każdy wynik surowy
zmienia się jedynie przez dodanie stałej, odjęcie stałej, pomnożenie przez
stałą albo podzielenie przez stałą. Takiego przekształcenie można dokonać
tylko dla wyników X, tylko dla wyników Y albo dla wyników X i Y
równocześnie, a r się nie zmieni. Można przekształcić wyniki X za pomocą
jednego rodzaju transformacji, a a wyniki Y za pomocą innego, a wielkość r
nie ulegnie zmianie. Inne rodzaje transformacji, jak podnoszenie do kwadratu
wyniku surowego mogą zmienić wartość r.

13. Przestrogi związane z współczynnikiem korelacji.


Należy pamiętać, że obliczanie współczynników korelacji Pearsona i
Spearmana jest odpowiednie jedynie wtedy, gdy mamy do czynienia ze
związkami liniowymi.

Współczynnik korelacji jest wrażliwy na zakres zmienność (czyli zmienność w


rozkładzie wyników X i Y) charakteryzujący pomiary obydwu analizowanych
zmiennych.

Współczynnik korelacji, tak jak i inne statystyki, jest narażony na zmienność


próby.

Nie ma czegoś takiego jak ,,unikatowy’’ współczynnik korelacji dla dwóch


zmiennych. Konkretna wartość r albo rs zależy od kilku czynników: badania
zostały przeprowadzone na konkretnej próbie osób badanych a drugim
sposób pomiaru zmiennej.

14. Inne sposoby pomiaru związku.

Metody w psychologii II- notatki z podręcznika 44


Korelacja dwuseryjna- współczynnik dwuseryjny najlepiej jest wykorzystać,
kiedy jedna zmienna jest ciągła i ilościowa, a druga byłaby taka, gdyby nie
została sprowadzona do dwóch kategorii.

Korelacja tetrachoryczna- jeśli obie zmienne byłyby ciągłe i ilościowe, gdyby


nie zostały sprowadzony do dwóch kategorii, to odpowiednią miarą związku
jest korelacja tetrachoryczna.

Korelacja punktowa dwuseryjna- jeśli jedna zmienna jest ciągła i ilościowa, a


druga jakościowa i dychotomiczna i u jej podstaw nie ma kontinuum.

Współczynnik fi to współczynnik korelacji Pearsona dla dwóch zmiennych, z


których obie są jakościowe i dychotomiczne.

Współczynnik kontyngencyjny - jeśli u podstaw obu zmiennych brak jest


kontinuum i przynajmniej jedna z nich zawiera trzy albo większą liczbę
kategorii.

Stosunek korelacyjny eta- gdy dwie zmienne są ilościowe są powiązane


krzywolinowo, r zaniża oszacowania siły tego związku, więc bardziej
odpowiedni będzie współczynnik eta. Nie może być on jednak używany w
stosunku do zmiennych skorelowanych liniowo.

Korelacja wielokrotna pozwala na łączenie predyktorów, więc efekty predykcji


są lepsze, niż te uzyskane na podstawie pojedynczych zmiennych.

Korelacja cząstkowa pokazuje, ile wynosiłby współczynnik korelacji r


Pearsona dla dwóch zmiennych w sytuacji, gdyby jedna zmienna albo
większa ich liczna były nieobecne.

Korelacja semicząstkowa- usunięcie wpływu jednej lub większej liczby


dodatkowych zmiennych tylko z jednej spośród dwóch zmiennych, które
interesują badacza.

Rozdział 9. Predykcja.
1. Problem predykcji.
Predykcja to szacowanie wartości jednej zmiennej na podstawie wiedzy o
wartości drugiej z nich wtedy, gdy dwie zmienne są skorelowane, im wyższa

Metody w psychologii II- notatki z podręcznika 45


jest korelacja między parą zmiennych, tym lepsza jest predykcja.

Jeżeli uzasadnione jest założenie, że X i Y są powiązane liniowo (diagram


rozrzutu), to można poprawić dokładność predykcji Y na podstawie X poprzez
odszukanie prostej, która jest najlepiej dopasowana do wartości Y. Predykcje
dokonywane za pomocą tej techniki są bardzo odporne na zmienność próby,
ale mają dwa ograniczenia: linia regresji, która została dopasowana do
punktów wykreślonych na podstawie wyników próby, prawdopodobnie nie
jest taka sama jak linia, które byłaby najlepiej dopasowana do wyników całej
populacji. Po drugie: efektywność techniki zależy, od sensowności założenia,
że linia prosta opisuje związek między X i Y.

Linia regresji prosta najlepiej dopasowana do wartości Y przy predykcji Y na


podstawie X.

Równanie regresji to równanie, które opisuje linię regresji.

Założenie liniowości to założenie o tym, że związek między X i Y najlepiej


opisuje linia prosta.

2. Kryterium najlepszego dopasowania.


Kryterium najlepszego dopasowania wg Karla Pearsona to kryterium
najmniejszych kwadratów.

Kryterium dla linii regresji to najlepiej dopasowana linia to taka linia, która
minimalizuje sumę kwadratów odchyleń między rzeczywistą wartością Y a jej
wartością przewidywaną (kryterium to jest nazywane kryterium najmniejszych
kwadratów).

Dlaczego minimalizuje się sumę kwadratów rozbieżności, a nie sumę ich


wartości bezwzględnych? Ponieważ: podniesienie do kwadratu nadaje
przekształceniom znaczenia praktycznego, a lokalizacja linii regresji oraz
wartość współczynnika korelacji będą pod wpływem pobierania losowych
prób mniej wahać się niż przy zastosowaniu innego kryterium.

Linia rezystentna używa mediany, a nie średniej do tego, aby dopasować linię
do punktów w diagramie rozrzutu.

Metody w psychologii II- notatki z podręcznika 46


3. Równanie regresji: postać dla wyników
standaryzowanych.
Wzór na równanie regresji Y względem X wyrażone w postaci dla wyników
standaryzowanych: z’y=rzx, gdzie z’y- przewidywana standaryzowana wartość
Y, r- współczynnik korelacji między X a Y, zx standaryzowana wartość X na
podstawie, której przewidywana jest wartość zy’.

Dla wszystkich wartości r równanie regresji przewiduje, że obserwacja, dla


której wynik jest równy średniej wartości X, będzie miała wynik równy
średniej wartości Y.

Jeżeli korelacja wynosi zero, to przewidywana wartość Y jest równa średniej Y


bez względu na to, jaka wartość X została wykorzystana do przewidywania Y.

4. Równania regresji. Postać dla wyników surowych.


Większość problemów związanych z predykcją formułuje się dla wyników
surowych, ze względu celów praktycznych standaryzowane jedynie dla
uproszczenia zrozumienia tych kwestii.

Aby przewidzieć Y’, trzeba znać wartość X’, dla której formułuje się predykcję,
dwie średnie, dwa odchylenia standardowe oraz wielkość współczynnika
korelacji.

Linia regresji definiuje prostą, więc łatwo to równanie przedstawić na


wykresie i następnie wykorzsytać do formułowanie predykcji.

Jeśli wyniki Y przylegają ściśle do linii regresji, to korelacja powinna być


wysoka, a jeżeli nie przylegają to, powinna być ona niska.

5. Błąd predykcji: standardowy błąd oszacowania.


Równanie regresji określa, jakich Y (Y’) oczekuje się wtedy, gdy X przyjmuje
konkretną wartość. Oczywiście Y’, nie jest najprawdopodobniej faktyczną
wartością Y, która odpowiada danemu Y. Wielkość przewidywana jest jedynie
oszacowaniem średniej wartość Y dla obserwacji charakteryzowanych przez
daną wartość X. Jedynie wtedy, gdy korelacja bedzię wynosić 1 (-1 LUB +1), to
rzeczywiste wartości będą stale dokładne równe wartościom przewidywanym.

Metody w psychologii II- notatki z podręcznika 47


Standardowy błąd oszacowania (SE) to miara zmienności rzeczywistej
wartości Y wokół przewidywanej wartości Y’.

Odchylenie standardowe: Sy= pierwiastek z wyrażenia (Y-Y)/n

Standardowy błąd oszacowania Y względem X: Syx= pierwiastek z wyrażenia


(Y-Y’)^2/n

Y’ to rodzaj średniej, czyli oszacowanie średniej Y wtedy, gdy X przyjmuje


konkretną wartość. Dlatego też Sxy jest rodzajem odchylenia standardowego
otrzymanych wyników Y dla wyników przewidywanych tej zmiennej.

Ponieważ Syx jest w istocie odchyleniem standardowym, to obydwa


wskaźniki muszą mieź takie same właściwości. Suma kwadratów odchyleń
poszczególnych wyników od średniej, jest minimalna, ponieważ linia regresji
układa się tak, że by minimalizować wielkość sumy kwadratów rozbieżności
między każdą wartością Y, a odpowiadającą jej wartością Y. Suma odchyleń
wyników od średniej (niepodniesionych do kwadratu) musi wynosić 0.

6. Alternatywny (i preferowany) wzór na SYX.


Jedyna różnica: błąd zaokrąglenia.

Syx= Sy pierwiastek z wyrażenia 1-r^2

7. Błąd w szacowaniu Y na podstawie X.


Jeśli sensowne jest założenie, że rzeczywiste wartości Y skupione są wokół
wartości przewidywanych mają rozkład normalny, to należy skorzystać z
krzywej normalnej, aby odpowiedzień na pytania dotyczące błędu predykcji:

68% wartości Y znajdzie się w przedziale Y +/- 1,00 Sy

95% wartości Y znajdzie się w przedziale Y +/- 1,96 Sy

99% wartości Y znajdzie się w przedziale Y +/- 2,58 Sy

Ponieważ wynik przewidywany (Y’) jest rodzajem średniej, zaś standardowy


błąd odchylenia (Syx) jest rodzajem odchylenia standardowego, to w sytuacji
rozkłady normalnego dla dwóych zmiennych, można rzec, że:

68% rzeczywistych wartości Y znajdzie się w przedziale Y +/- 1,00 Syx

Metody w psychologii II- notatki z podręcznika 48


95% rzeczywistych wartości Y znajdzie się w przedziale Y +/- 1,96 Syx

99% rzeczywistych wartości Y znajdzie się w przedziale Y +/- 2,58 Syx

Dolna granica przedziału : Y’- 1,96Syx

Górna granica przedziału: Y’+ 1,96Syx

8. Przestrogi związane z szacowaniem błędu predykcji.


Związek między dwiema zmiennymi musi być związkiem liniowym.

Założenie o homoscendastyczności, które głosi, że zmienność rzeczywistych


wartości Y skupionych wokół Y’ jest taka sama dla wszystkich wartości X.

Rzeczywiste wyniki Y muszą mieć rozkład normalny dla wszystkich wartości


X.

Procedury nie uwzględniają poprawki na wpływ zjawiska zmienności próby.

Uwzględnienie dodatkowego zróżnicowania spowodowanego zmiennością


próby doprowadzi do rozszerzenia przedziału wewnątrz, którego z
określonym prawdopodobieństwem powinny się znajdować rzeczywiste
wartości Y.

Rozdział 10. Interpretacyjne aspekty


korelacji i regresji.
1. Czynniki oddziałujące na r: zakres zmienności.
Zakres zmienności to zmienność w rozkładzie wyników X i Y.

Zasada przylegania głosi, że im bardziej wyniki Y przylegają do linii regresji,


tym bardziej wzrasta wielkość korelacji.

Ograniczenie zakresu wartości- w odniesieniu do korelacji zawężanie


obliczania warości r (predykcji wartości Y) do ograniczonego przedziału
wartości, zlokalizowanego wewnątrz całkowitego przedziału wartości X.

Wartość współczynnika korelacji zależy zarówno od stopnia zmienności


charakteryzującej każdą ze zmiennych, jak i od siły związków między nimi.

Metody w psychologii II- notatki z podręcznika 49


Ograniczanie zakresu może dotyczyć zmiennej X, zmiennej Y albo obydwu
tych zmiennych równocześnie. Przy braku zmian w pozostałych warunkach,
im bardziej ograniczamy zakres X i/lub Y, tym niższy będzie współczynnik
korelacji.

2. Współczynnik korelacji w rozkładach nieciągłych.


Nieciągłość rozkładu - bez względu na to, czy dotyczy X, Y, czy też obydwu
zmiennych równocześnie - zazwyczaj daje w rezultacie wyższy współczynnik
korelacji.

3. Czynniki oddziałujące na r: heterogeniczność prób.


Jeżeli połączy się próby, to wielkość korelacji dla tak zagregowanych danych
zależy od względnej lokalizacji wyników z tych dwóch prób zarówno na
wymiarze X, jak i na wymiarze Y.

4. Interpretacja r: równanie regresji I.


Ogólne równanie linii prostej: Y=bX+a

Wyraz wolny (współczynnik przesunięcia) to punkt, w którym linia prosta


przecina oś Y. Oznaczony jako a, czyli stała.

Współczynnik nachylenia (współczynnik kierunkowy) określa, o ile jednostek


wzrośnie wielkość Y wtedy, gdy X zwiększy się o jedną jednostkę. Oznaczony
jako b, czyli druga stała w równaniu regresji.

Wzór na b: b= zmiana na osi pionowej/zmiana na osi poziomej

Jedna z możliwych interpretacji współczynnika korelacji r jest taka, że


wskaźnik ten wyraża, o ile przeciętnie wzrośnie wartość Y, jeżeli X zwiększy
się o jedną jednostkę wtedy, gdy obydwa pomiary są wystandaryzowane.

Współczynnik regresji, czyli wartość r(Sy/Sx), określa o ile przeciętnie


wzrośnie wartość Y wtedy, gdy X zwiększy się jedną jednostkę (jeżeli obydwa
pomiary zostaną wyrażone w postaci wyników surowych).

5. Interpretacja r: równanie regresji II.

Metody w psychologii II- notatki z podręcznika 50


Regresja do średniej - jest charakterystyczna dla każdego związku, w którym
korelacja nie jest doskonała. Kiedy korelacja między dwiema zmiennymi jest
niższa od doskonałej, to im bardziej bardziej ekstremalnym wynikiem na
jednej zmiennej będziemy mieli do czynienia, tym bardziej prawdopodobne
jest, że będzie on związany z mniej ekstremalnym wynikiem na drugiej
zmiennej.

Na wielkość regresji wpływają zarówno natężenie wartości, na podstawie,


których dokonujemy predykcji, jak i wartość r. Im bardziej ekstremalne są
wartości, które są podstawą formułowania predykcji, tym większa jest
regresja do średniej. Im wyższa jest wartość r, tym mniejsza jest wielkość
regresji.

6. Problem zjawiska regresji w badaniach.


Kiedy osoby badane zostaną wybrane z powodu ekstremalnej lokalizacji
wyników w danej zmiennej (niskie albo wysokie), to ich wyniki w innej
zmiennej, skorelowanej z tą pierwszą wprost proporcjonalnie, będą
prawdopodobnie zlokalizowane po tej samej stronie średniej, ale będą mniej
ekstremalne.

7. Pozorny paradoks w regresji.


Regresji przewidywanej wartości do średniej towarzyszy zmienność
otrzymanych wartości wokół wartości przewidywanych. Im większy jest
stopień regresji do średniej, tym większa jest owa zmienność.

8. Interpretacja r: proporcja zmienności Y niezwiązana


ze zmiennością X.
Współczynnik indeterminacji (1-r^2) to proporcja zmiennej Y, która nie jest
związana z zróżnicowaniem zmiennej X. Oznaczony jest symbolem k^2.

Współczynnik alienacji- jest oznaczony symbolem k, równy pierwiastek z


wyrażenia 1-r^2. Syx/Sy.

Zmiana wielkości współczynnika korelacji o tę samą wartość ma większe


konsekwencje wtedy, kiedy korelacja jest wysoka, niż kiedy jest ona niska.

Metody w psychologii II- notatki z podręcznika 51


9. Interpretacja r: proporcja zmienności Y związana ze
zmiennością X.
Całkowitą wariancję Y można potraktować jako złożoną z dwóch składowych.
Owe składowe to części zmienności Y, która jest związana ze zmiennością X
albo którą temu zróżnicowaniu można przypisać, oraz części zmienności Y,
która od zmienności X jest niezależna.

Podział wariancji Y (Sy) na dwie składowe - 1. wariancja Y niezależna od


wariancji X oraz 2. wariancja Y związana z wariancją X.

Współczynnik determinacji to proporcja zmiennej Y, która jest związana ze


zróżnicowaniem zmiennej X. Oznaczony symbolem r^2.

Związek między wskaźnikami k^2 a r^2: uzupełniają się, w sumie wynoszą


zawsze 1: kiedy k^2 wynosi 1,00, to r^2 - 0,00.

10. Interpretacja r: proporcja poprawnie


przyporządkowanych obserwacji.
U podstaw interpretacji leży założenie o podziale wartości obydwu zmiennych
w punkcie mediany oraz założenie o rozkładzie wartości obydwu zmiennych w
punkcie mediany oraz założenie o rozkładzie normalnym dla obydwu
zmiennych. Niespełnione warunki = inne wyniki.

Sposobem nadania znaczenia korelacji i predykcji jest interpretacja korelacji


w kategoriach proporcji poprawnie przyporządkowanych obserwacji
oczekiwanej wtedy, gdy równania regresji użyto do rozwiązywania
praktycznych problemów predykcji.

Rozdział 18. Alternatywy dla testowania


hipotez: przedziały ufności.
1. Przykłady oszacowań.
Wartość p to prawdopodobieństwo uzyskania w próbie średniej, która w
danym lub w jeszcze większym stopniu będzie odchylona od wartości, która

Metody w psychologii II- notatki z podręcznika 52


rzeczywiście by została otrzymana, gdyby hipoteza zerowa byłaby prawdziwa.

Oszacowanie punktowe to oszacowanie pojedynczej wartości parametru


populacyjnego.

Oszacowanie przedziałowe to oszacowanie zakresu wartości parametru


populacyjnego.

2. Przedziały ufności dla μx.


Jeżeli w przypadku konkretnego współczynnika ufności wykorzystamy próbę
małą, to otrzymamy przedział szerszy. Jeśli zaś użyjemy próby dużej -
uzyskany przedział będzie węższy.

3. Związek między przedziałami ufności a testowaniem


hipotez.
Jeśli przedział ufności obejmuje zero → wynik nieistotny statystycznie→
odrzucenie hipotezy alternatywnej, przyjęcie hipotezy zerowej.

Przedział ufności informuje o tym, jaka może być prawdziwa różnica.

Jeśli wartość określona w hipotezie zerowej znajduje się wewnątrz przedziału,


to H0 zostanie utrzymana, jeśli poza przedziałem - zostanie odrzucona.

4. Zalety przedziałów ufności.


Precyzyjne szacowanie nieznanych parametrów: Przedziały ufności pozwalają
na oszacowanie nieznanych parametrów populacji, takich jak średnia,
proporcja, różnica między średnimi itp. Dają nam informację o zakresie
wartości, w którym z pewnym prawdopodobieństwem znajduje się prawdziwa
wartość parametru.

Ocena niepewności estymacji: Przedziały ufności uwzględniają niepewność


estymacji. Oferują szerszą perspektywę, pokazując, jak szerokie jest
prawdopodobne zakresy wartości dla danego parametru. Im szerszy przedział
ufności, tym większa niepewność estymacji.

Przydatne w porównywaniu grup: Przedziały ufności umożliwiają


porównywanie grup, np. porównywanie średnich wartości między dwiema

Metody w psychologii II- notatki z podręcznika 53


grupami. Jeśli przedziały ufności dla dwóch grup nie pokrywają się, można
wnioskować, że różnica między grupami jest statystycznie istotna.

Pomocne w ocenie istotności statystycznej: Przedziały ufności mogą pomóc


w ocenie istotności statystycznej wyników. Jeśli przedział ufności nie zawiera
wartości zerowej (dla różnic między grupami) lub nie zawiera wartości
oczekiwanej (dla wartości oczekiwanych), można wnioskować o istotności
statystycznej wyników.

Przejrzysta prezentacja wyników: Przedziały ufności mogą być łatwiejsze do


zrozumienia i przedstawienia wizualnie niż same wartości punktowe. Mogą
pomóc w lepszym zrozumieniu wyników statystycznych przez osoby bez
specjalistycznej wiedzy statystycznej.

5. Losowy dobór do próby i uogólnianie wyników.


Dozwolone jest uogólnianie wyników na populacje jedynie wtedy, gdy jest
przebadana, próba może zostać potraktowana jako próba, która z tej populacji
pochodzi

Nawet jeśli losowy dobór do próby zostanie zastosowany, to nie można w


sposób właściwy uogólniać wyników poza konkretny zbiór warunków i
konkretny moment czasowy.

6. Wyznaczanie przedziałów ufności.


Interpretowanie jego granic w kategoriach liczby odchyleń standardowych
zmiennej, a nie w kategoriach wyników surowych.

7. Przedziały ufności dla μx- μy.


Uzyskany wynik informuje, że zgodnie z dowolna liczba- procentowym
przedziałem ufności prawdziwa różnica między dwiema analizowanymi
zmiennymi średnimi znajduje się od otrzymanej różnicy nie dalej niż o x
odchylenia standardowego.

Przedział ufności zawiera wszystkie wartości H0, które nie zostałyby


odrzucone, gdyby były testowane przy alfa 1- C.

Metody w psychologii II- notatki z podręcznika 54


8. Wielkość próby wymagana podczas tworzenia
przedziałów ufności dla μx oraz dla μx- μy.

9. Przedziały ufności dla ρ (rho).


Ogólnie przyjętą praktyką powinno być używanie w badaniach przedziałów
ufności dla wartości p o wiele częściej niż się to dziś powszechnie robi,
ponieważ oszacowanie przedziałowe może pomóc badaczom uniknąć
pułapek związanych z użyciem zbyt małych/dużych prób.

Rozdział 19. Chi- kwadrat i wnioskowanie o


częstości.
1. Test zgodności chi-kwadrat.
Test chi-kwadrat został opracowany dla danych kategorialnych, czyli takich
wyrażonych w kategoriach jakościowych, np. kolor oczu czy płeć. W tym
teście wykorzystywane są częstości, ale dla lepszego zrozumienia, można go
potraktować jako test porównujący proporcję.

Problem zgodności to pytanie o to, czy obserwowane liczebności względne w


poszczególnych kategoriach rozkładu liczebności z próby są zgodne z takimi
liczebnościami względnymi od których oczekujemy, że w rozkładzie
populacyjnym są prawdziwe.

k to symbol oznaczający liczbę kategorii

Liczebności (częstości) obserwowane to liczba obserwacji z próby, która


pojawiła się w określonej kategorii jakościowej.

Liczebności (częstości) oczekiwane to liczba obserwacji pojawiających się w


określonej kategorii przewidywana przy założeniu, że hipoteza zerowa jest
prawdziwa.

2. Chi kwadrat (χ2) jako miara rozbieżności między


liczebnościami oczekiwanymi i obserwowanymi.

Metody w psychologii II- notatki z podręcznika 55


Statystyka chi-kwadrat (χ2) jest miarą rozbieżności między liczebnościami
oczekiwanymi i obserwowanymi.

k-1 oznacza liczbę stopni swobody dla pytań o zgodność w teście chi kwadrat

Charakterystyka testu chi-kwadrat:

Statystyka (χ2) nie może mieć wartości ujemnej, ponieważ uwzględnione


różnice zostały podniesione do kwadratu.

Wartość tej statystyki będzie równa zero w rzadkich przypadkach, w


których każda liczebność obserwowana będzie dokładnie równa
odpowiadającej jej liczebności oczekiwanej.

Kiedy inne czynniki pozostaną niezmienione, to im większa będzie różnica


między wartościami oczekiwanymi a obserwowanymi, tym większa będzie
wartość tej statystyki.

Wielkość różnicy między wartościami obserwowanymi i oczekiwanymi


odniesiona do liczebności oczekiwanej przyczynia się do powiększenia tej
statystyki.

3. Logika testu chi-kwadrat.


Hipoteza zerowa: w rozkładzie populacyjnym proporcje liczebności
obserwacji w każdej kategorii są równe określonym wartościom, dotyczą
proporcji populacyjnych.

Obszar odrzucenia jest zawsze zlokalizowany w górnej części rozkładu


wartości z próby.

Aby przeprowadzić test należy określić wartość krytyczną chi-kwadrat.

Odrzucenie hipotezy zerowej: kiedy wartość chi kwadrat obliczona jest


większa niż krytyczna.

Bardzo niskie obliczone wartości oznaczają, że jeśli niezbędne założenia


zostały spełnione, a obliczenia przeprowadzono dokładnie, to liczebności
obserwowane są, nan tyle ile pozwala zmienność losowo, zbliżone do tych
oczekiwanych.

4. Interpretacja wyników testu chi-kwadrat.

Metody w psychologii II- notatki z podręcznika 56


Wynik istotny → odrzucenie hipotezy zerowej.

Uwaga na test jedno lub dwukierunkowy: potrzeba więcej testów, aby ustalić
skąd wynikają różnice, wartość chi kwadrat to za mało.

5. Różne hipotetyczne proporcje w teście zgodności.


Wyniki z próby mogą zostać uzyskane przez przypadek.

6. Testowanie hipotez wtedy, gdy df=1.


Df= 1 → dwie kategorie zmiennych. Wtedy test dla pojedynczej proporcji.

7. Wielkość efektu w przypadku problemów zgodności.


Wielkość efektu→ omega kwadrat, za Cohenem interpretacja wyników: 0,1=
efekt mały, 0,3= efekt przeciętny, 0,5= efekt duży.

8.Założenia związane z użyciem teoretycznego rozkładu


chi-kwadrat.
Test chi-kwadrat jest traktowany jako test nieparametryczny, ale opiera się w
rzeczywistości na centralnym twierdzeniu granicznym, nie jest procedurą
wolną od rozkładu ani też wolną od założeń.

Wykorzystana próba jest próbą losową pochodzącą z populacji, na której


temat formułowane sa wnioski (rzadko spełniony warunek).Wykorzystywane
obserwacje są niezależne.

Jeśli eksperymenty będą replikowane, to dla każdej liczebności oczekiwanej


zbiór liczebności obserwowanych będzie miał rozkład normalny.

9. Chi-kwadrat jako test niezależności między dwiema


zmiennymi.
Dwuzmiennowy rozkład liczebności to rozkład który ukazuje związek między
dwiema zmiennymi.

Testy kontyngencji to rozkłady dwuzmiennowe dla dwóch zmiennych


jakościowych. Testu chi kwadrat można użyć do porównania liczebności

Metody w psychologii II- notatki z podręcznika 57


obserwowanych w komórkach tabeli z tymi, których oczekujemy po przyjęciu
hipotezy zerowej o braku zależności.

Hipoteza zerowa dla testu niezależności między zmiennymi to w praktyce test


dla proporcji, stwierdza, że w populacji nie istnieje związek między dwiema
zmiennymi.

10. Odszukiwanie liczebności oczekiwanych w tabeli


kontyngencji.
Odszukanie proporcji dla kolumn przez podzielenie sumy liczebności dla
każdej kolumny przez całkowitą liczbę osób badanych.

Następnie pomnożenie sumy liczebności w poszczególnych wierwszach przez


wcześniej obliczone proporcje dla kolumn, to liczebność oczekiwana.

Na końcu sprawdzenie, czy sumy liczebności oczekiwanych w każdym


wierszu i w każdej kolumnie są równe sumom liczebności obcerowanych.

11. Obliczanie chi-kwadrat i określanie istotności w


tabeli kontyngencji.
Poprawka na ciągłość Yatesa obniża moc statystyczną testu.

Współczynnik kontyngencji przyjmuje wartości z przedziału od 0,00 do


maksimum zależnego od liczby poziomów zmiennych.

12. Miary wielkości efektu (siły związku) w testach


niezależności.
Współczynnik fi dostarcza informacji o mierze siły związku pomiędzy
zmiennymi.

φ to symbol oznaczający współczynnik fi i V Cramera.

Interpretacja wyników: 0,1= efekt mały, 0,3= efekt przeciętny, 0,5= efekt duży.

13. Moc i testy niezależności chi-kwadrat.

Metody w psychologii II- notatki z podręcznika 58


Tablice dostarczają informacji: jeśli hipoteza zerowa jest fałszywa i dwie
analizowane zmienne nie są niezależne, to będzie x % szans na jej odrzucenie.

Metody w psychologii II- notatki z podręcznika 59

You might also like