Download as pdf or txt
Download as pdf or txt
You are on page 1of 158

Statystyka zaawansowana SPSS krok po kroku

Wstęp, czyli niezbędnik dla każdych zajęć

Zasady APA

Jak działamy na zajęciach, czyli zasady APA dla zapisu wyników


Uwaga zmieniły się zasady zapisu APA → działamy na podstawie 7 edycji i tak też
wszystko zapisujemy!

Użycie kursywy
❖ Kursywą zapisujemy symbole literowe (poza literami greckimi), które są oznaczeniem
danych testów/wielkości statystycznych. Kursywą powinny być zapisane:
➢ n (ilość osób)
➢ M (średnia)
➢ SD (odchylenia standardowe)
➢ p (istotność statystyczna)
➢ r (korelacja r-Pearsona)
➢ t (jako symbol testów t Studenta)

Liczba cyfr znaczących


❖ Liczba cyfr znaczących, gdzie APA rozróżnia tu różne sytuacje, ale my na zajęciach
będziemy podawać:
➢ Zawsze dwie cyfry po przecinku (np. 1,23) dla:
■ Zapisu wartości statystyk (t, F, r...)
■ Średnich i odchyleń standardowych (np. gdy zapisywane razem w
nawiasie: M = 3,45; SD = 1,11)
■ Stopni swobody - tylko, gdy są cyfry po przecinku. Gdy wartość jest
pełna - np. 38, to tak zapisujemy (38, a nie 38,00)
■ W przypadku zapisu istotności statystycznej (p) podajemy
dokładną wartość istotności, do trzech miejsc dziesiętnych
● Gdy np. widzimy w SPSS wartość p = .032. Podajemy p =
0.032 a nie zapisujemy tego jako przedział (p < 0,05)
● Wyjątkiem jest sytuacja, gdy w SPSS widzimy p = .000, wtedy
zapisujemy p < 0,001
Zaokrąglenie
❖ Wykorzystajmy zasady matematyczne. Jeśli cyfra na dalszym miejscu zawiera się w
przedziale 0-4, zaokrąglamy w dół. Np. 0,321 ≈ 0,32. Natomiast, jeśli cyfra na
dalszym miejscu zawiera się w przedziale 5-9, zaokrąglamy w górę. Np. 4,359 ≈ 4,36
❖ Jeśli napotkamy sytuację z kumulacją dziewiątek, zaokrąglamy wszystko w górę. Np.
0,999 ≈ 1,00

Użycie spacji
❖ Spacja następuje zawsze przed i po znaku matematycznym (=, <, >, itd.)
❖ Wyjątkiem jest - (minus, np. gdy ujemna korelacja) wtedy spacja jest tylko przed
minusem, a nie ma jej po np. r = -0,76; p = 0,043

1
Opis
❖ Do zapisu statystyk i raportowania wartości - np. w nawiasach używaj symboli (t, SD,
M...)
❖ Natomiast w tekście używaj słów. Przykładowo:
➢ DOBRZE: Średnia uzyskana przez grupę pierwszą była niższa niż
stwierdzona dla grupy drugiej (M1 = 2,30 vs M2 = 1,11) → (Użyj indeksów
dolnych dla numeru pomiaru (niestety ten program nie ma tej funkcjonalności)
➢ ŹLE: M grupy jeden była niższa niż M grupy dwa
➢ Nie wyjaśniaj znaczenia symboli testów statystycznych (t, F, r...). Wyjaśnij
skróty złożonych analiz - np. ANOVA - analiza wariancji

Wzorzec dla testu t Studenta


❖ t(df) = X,XX; p = 0,XXX
❖ t(40) = 5,23; p = 0,032
❖ t(37,22) = 1,09; p > 0,05 lub ns→ gdybyśmy mieli test nieistotny

2
Jak napisać raport?
Na przykładzie testu t Studenta

Co powinien zawierać raport?

1. Wstęp
a. Hipoteza, opis danych, która zmienna jest która (niezależna i zależna)
i. Należy tu:
1. Wymienić hipotezę
a. Hipoteza kierunkowa: osoby o zielonych oczach mniej
czasu poświęcają na czytanie niż osoby o czarnych
oczach
2. Określić zmienne
a. Zmienna zależna: czas czytania (w minutach)
b. Zmienna niezależna: kolor oczu (zielony i czarny)
2. Opis wyników
a. Zapis wyniku testu t (przykład: “W celu sprawdzenia, czy .... ,
przeprowadzono test t Studenta dla prób niezależnych. Analiza
wykazała....”)
i. Np: Badanie miało na celu wykazanie, czy istnieją różnice w czasie
czytania książki w zależności od koloru oczu. W celu sprawdzenia
hipotezy, czy osoby o zielonych oczach poświęcają mniej czasu czasu
na czytanie niż osoby o czarnych oczach przeprowadzono analizę
testem t Studenta dla prób niezależnych
b. Opisanie, czy grupy się różnią i jak - pamiętaj o podaniu średnich i
odchyleń!
i. Analiza pokazała, że osoby o zielonych i czarnych oczach różniły się
między sobą nieprzypadkowo: t(df)=x,xx; p<0,001. Osoby o zielonych
oczach (M=X,XX; SD=X,XX) spędzały istotnie mniej czasu na czytaniu
niż osoby o czarnych oczach (M=X,XX; SD=X,XX)
ii. Dodatkowo, możemy opowiedzieć jak wyglądają dane dzięki
analizie eksploracji i wynikowi testu jednorodności Levene’a.
Możemy opowiedzieć, która grupa miała większe rozproszenie
wyników (większe SD), możemy opowiedzieć o skośnościach i
kurtozach dla grup.
1. Pomaga to zobrazować sobie wyniki i porównać grupy
3. Wniosek
a. Czy hipoteza potwierdziła się? Wyraźnie zaznaczamy!
i. Potwierdzono hipotezę mówiącą o tym, że kolor oczu wpływa na czas
czytania. Osoby o oczach zielonych czytały istotnie krócej. Być może
przyczyną tych różnic jest inny poziom światłoczułości tęczówek,
przez co osoby o zielonych oczach szybciej się męczą podczas
czytania
b. Jakie wnioski można wyciągnąć? Jakie dodatkowe badania można
przeprowadzić, aby uzupełnić analizę?
i. Potwierdzono hipotezę mówiącą o tym, że kolor oczu wpływa na czas
czytania. Osoby o oczach zielonych czytały istotnie krócej. Być może

3
przyczyną tych różnic jest inny poziom światłoczułości tęczówek,
przez co osoby o zielonych oczach szybciej się męczą podczas
czytania
c. Wklejamy wykres z SPSSa
i. Wyniki zobrazowano na wykresie:
1. Wykres to prawy klawisz myszki → kopiuj → wklejamy do doca
d. Jeśli możliwe, odnieś wyniki do skali pomiarowej
i. Np. jeśli skala jest 1-10, a średnia grupy jest 7, to możemy mówić, że
w odniesieniu do skali wynik jest nieco większy niż średni; jeśli
oceniamy szczęście na skali 1-10, to możemy mniej więcej uznać że
przeciętne szczęście to 5-6, duże szczęście to 9, a totalny brak
szczęścia to 1

Co zawiera skorygowany wykres, który wklejamy do podsumowania?


e. Skala na wykresie
f. Dodanie tytułu
g. Dodanie opisów danych

❖ Tekst zawarty w punkcie a i punkcie b zapisujemy jako jeden, zwarty tekst:


➢ Potwierdzono hipotezę mówiącą o tym, że kolor oczu wpływa na czas
czytania. Osoby o oczach zielonych czytały istotnie krócej. Być może
przyczyną tych różnic jest inny poziom światłoczułości tęczówek, przez co
osoby o zielonych oczach szybciej się męczą podczas czytania

Kluczem w raporcie jest interpretacja liczb i wyników! Musimy opowiedzieć o tym, co


się dzieje, które grupy się różnią i jak

4
Powtórka z podstawowych pojęć
Wariancja
❖ Suma kwadratów odchyleń od średniej, dzielona przez liczbę wyników pomniejszoną
o1
➢ Inaczej: miara rozproszenia wyników wokół średniej - czy większość wyników
jest bliska średniej, czy są one rozproszone (jest dużo małych i wysokich
wyników)
➢ Ciężka do interpretacji, gdyż operuje na kwadratach
➢ W jej interpretacji pomaga odchylenie standardowe

Odchylenie standardowe SD
❖ Pierwiastek z wariancji. Im większe odchylenie, tym większe rozproszenie wyników
wokół średniej

Zmienna
❖ Właściwość lub cecha, pod względem której elementy populacji różnią się od siebie
❖ Nie opisuje w taki sam sposób wszystkich branych pod uwagę obiektów
❖ Przybiera kilka (co najmniej dwie) wartości
❖ Przykłady zmiennych
➢ Płeć (dwie wartości: mężczyzna/kobieta)
➢ Wiek (dowolne wartości np. od 5 do 95)
➢ Kierunek studiów (kilka różnych wartości: psychologia, prawo, itp. ...)
➢ Tryb studiów (jakie wartości ....?)

Zmienne dzielone są na:


❖ Ilościowe
➢ Przyjmują wartości liczbowe (mierzalne) np. liczba wypitych kaw
❖ Jakościowe
➢ Charakteryzowane jedynie za pomocą nazw np. zmienna płeć

Dwa rodzaje zmiennych


❖ Zmienna niezależna
➢ jest przyczyną skutków, które chcemy zbadać, powoduje zmiany wartości
zmiennej zależnej
➢ Zmienną niezależną zawsze będzie grupa/grupy kliniczna, czyli zebrane
przez nas osoby badane
❖ Zmienna zależna
➢ Ta, którą chcemy w toku badania sprawdzić
➢ W uproszczeniu: jest skutkiem zmiany wartości zmiennej niezależnej, czyli
jest od niej „zależna”
➢ Zmienną zależną zawsze będzie pewne zjawisko, które zmienia się w
grupach klinicznych

Zmienne mogą być mierzone na różnych skalach pomiarowych


❖ Nominalna: to skala, której wartości są kategoriami bez żadnego oczywistego
uporządkowania np. kolor oczu, płeć

5
❖ Porządkowa: zawiera wartości, które są kategoriami dającymi się uporządkować.
Nie da się jednak zmierzyć dokładnej odległości między kategoriami np.
wykształcenie
❖ Przedziałowa (interwałowa): to skala, której różnice między wartościami mają
określoną interpretację. Ponadto taka skala ma umownie przyjęty punkt zero. (co
oznacza, że może przyjmować wartości ujemne np. stopnie Celsjusza, data
❖ Skala ilorazowa: odznacza się wszystkimi właściwościami trzech poprzednich skal,
a dodatkowo ma jasno określony punkt zerowy, który świadczy o tym, że dana
zmienna nie występuje np. wiek, wzrost, ciężar

Wskaźnik
❖ To taka własność, która bezpośrednio wyraża pomiar zmiennej
➢ Dla zmiennej wzrost → centymetry
➢ Dla zmiennej inteligencja → wynik w teście
➢ Dla zmiennej waga → kilogramy
➢ Dla zmiennej czas → sekundy
❖ Kodowanie poziomów zmiennej: przypisywanie takich samych wartości
liczbowych, jednakowym elementom danej zmiennej
❖ Ile poziomów może mieć zmienna?
➢ Płeć
➢ Wykształcenie
➢ Kolor włosów?

Jak zobaczyć jaki procent badanych stanowią np. kobiety, a jaki mężczyźni?
❖ Wykonuje się analizę częstości
➢ Funkcję, której zadaniem jest dostarczenie informacji o ogólnych
liczebnościach i ich udziale procentowym

Jaki procent badanych słucha jazzu, a jaki muzyki klasycznej?

Aby wykonać analizę częstości


● Analiza

6
● Opis statystyczny
● Częstości

Co należy wybrać dalej?


● Pojawia nam się tabelka z częstościami. Aby zrobić to, co chcemy w pierwszej
kolejności musimy wybrać zmienną, którą chcemy sprawdzić
● Kliknięcie na wybraną zmienną
● Niebieska strzałka, która znajduje się pośrodku
● Ok

7
Pojawia nam się okienko z wynikiem

Co zawiera tabela?
● Statystyki zawierają ogólną informację o liczbie obserwacji ważnych oraz liczbie
braków danych. Do kategorii Braki danych trafią wszystkie puste miejsca w ramach
analizowanej zmiennej, oraz wartości, które uprzednio zostały zadeklarowane jako
dyskretne braki danych w kolumnie „BRAKI” w zakładce „ZMIENNE”
● Częstość to informacja o liczebności danej kategorii
● Procent to informacja o procencie danej iczebności
● Procent skumulowany to informacja u sumie procentu ważnych danej kategorii jak i
wszystkich ją poprzedzających
● Procent Ważnych to informacja o procencie danej liczebności, przy założeniu, że
podstawa procentowania (100%) dotyczy tylko ważnych informacji (z wykluczeniem
braków danych)

A więc jak odczytać wynik tabelka Statystyki?


● Obserwacji dla nas ważnych mamy 80

A więc jak odczytać wynik tabelka numer dwa, w naszym przypadku muzyka?
● 40 osób słucha jazzu, 40 muzyki klasycznej, a ogółem mamy 80 osób
● 50% osób słucha jazzu, a 50% muzyki klasycznej
● 100% z naszych wyników jest ważnych
○ Muzyki klasycznej słucha 50% osób z ważnymi odpowiedziami
○ Jazzu słucha 50% osób z ważnymi odpowiedziami
● Wynik sumowania procentów dla obu odpowiedzi wynosi 100%
○ Ile conajmniej osób słucha jazzu wynosi 50%
● W naszym przypadku mamy rozróżnić ile procent badanych słucha jazzu, a ile
muzyki klasycznej, dlatego nasza odpowiedź kryje się w wierszu Procent

8
○ Najczęściej jeśli chodzi o wybór danych będziemy wykorzystywać kolumnę
Częstość i Procent
Jaki procent stanowią osoby słuchające jazzu → 50%
Jaki procent stanowią osoby słuchające muzyki klasycznej → 50%

Procent skumulowany dla lepszego zilustrowania z innego zadania:

Jednym słowem to wynik sumowania procentów dla 5 odpowiedzi


● Stąd wiemy jak często jaki procent stanowi dana odpowiedź razem ze wszystkimi ją
poprzedzającymi

Miary rozproszenia
❖ Pokazują, na ile dane są rozproszone wobec “środka ciężkości”
❖ Tylko na skalach ilościowych

Rozstęp
❖ Odległość między najwyższym a najniższym wynikiem

9
Wnioskowanie statystyczne

Jak odbywa się dowodzenie w naukach społecznych?


❖ W naukach społecznych dowodzenie nie odbywa się wprost, a to oznacza, że
naszym zadaniem nie jest potwierdzenie hipotezy zerowej, a odrzucenie jej
❖ Nigdy nie zakładamy zależności, chyba że udowodnimy zależność przeprowadzając
odpowiednie testy statystyczne
❖ W statystyce pracuje się głównie na hipotezie zerowej
❖ Aby móc odrzucić hipotezę zerową musimy pokazać, że założenie H0 jest bardzo
mało prawdopodobne

Jak dokładnie przebiega wnioskowanie statystyczne?


1. Zdefiniowanie zmiennych i ich skal pomiarowych
2. Sformułowanie założeń i hipotezy zerowej (H0) i hipotezy alternatywnej (H1)
3. Wybór testu statystycznego
4. Przeprowadzenie odpowiedniej analizy
5. Pojęcie decyzji dot. odrzucenia H0

Hipotezy
❖ Hipoteza zerowa (H0)
➢ Brak związku, brak wpływu, brak różnicy, brak jakiejkolwiek zależności
między grupami czy pomiarami
■ “Zadowolenie z życia nie zmienia się pod wpływem ilości zajęć ze
statystyki”
❖ Hipoteza alternatywna/badawcza (H1)
➢ Jest zauważalny związek, jest wpływ, jest różnica, zakłada zależności między
pomiarami czy grupami
■ “Zadowolenie z życia rośnie, im mniej ma się zajęć ze statystyki”

(Więcej niż 5 na 100 osób boli głowa po leku, jest więc bardziej prawdopodobne, że kogoś
rozboli głowa)

p-value
❖ p informuje nas jakie jest prawdopodobieństwo uzyskania różnicy jaką obserwujemy
w naszym badaniu lub nawet większej jeśli hipoteza zerowa faktycznie jest
prawdziwa
❖ Barierą istotności jest 5%, czyli p = 0,050
➢ Wynik jest istotny statystycznie, gdy p przyjmuje wartości mniejsze niż
0,050; p < 0,050
➢ Wynik jest nieistotny statystycznie, gdy p przyjmuje wartości większe niż
0,050; p > 0,050
➢ Jeśli wynik wyjdzie wyjdzie wynik ,000; p < 0,001

10
Hipotezy w zależności od wyniku istotności

H0: lek jest niebezpieczny, wywołuje ból głowy


H1: lek jest bezpieczny, nie wywołuje bólu głowy

Aby móc odrzucić H0 musimy pokazać, że wywoływanie bólu głowy przez lek jest
bardzo mało prawdopodobne

Wynik istotny → Odrzucamy H0


Wynik nieistotny → nie mamy podstaw do odrzucenia H0 - więcej niż 5 na 100 osób boli
głowa po leku, jest więc bardziej prawdopodobne, że kogoś rozboli głowa

11
Test t Studenta

Test t Studenta
❖ Dla jednej próby
➢ Kiedy chcemy porównać wyniki osiągnięte przez grupę z jakąś arbitralną
zmienną
■ Np. nauka mówi nam, że przeciętna jedzona ilość kulek lodów to 3 -
chcemy zbadać, czy w naszej grupie też tak jest
❖ Dla grup zależnych
➢ Kiedy chcemy zbadać, jak wyniki osób zmieniają się w czasie; powtarzany
pomiar
➢ Kiedy zmienna ma charakter wewnątrzobiektowy
■ np. jedna osoba ocenia natężenie u siebie cech pozytywnych i
natężenie u siebie cech negatywnych
➢ Zmienna zależna na skali ilościowej
➢ Rozkład normalny zmiennej zależnej w dwóch pomiarach
❖ Test t Studenta dla grup niezależnych
➢ Kiedy chcemy porównać ze sobą dwie niezależne grupy obserwacji
➢ Grupy są równoliczne
➢ Zmienna zależna na skali ilościowej
➢ Rozkład normalny zmiennej zależnej w dwóch porównywanych grupach
➢ Jednorodność wariancji (homogeniczność)

Test t Studenta dla grup niezależnych


Na bazie przykładu pliku “muzyka”. Wybrany test to test t Studenta dla
grup niezależnych, ponieważ jedną grupę stanowią ludzie słuchający
jazzu, a drugą ludzie słuchający muzyki klasycznej

Wpierw należy się zastanowić jak brzmi nasze pytanie badawcze: Które osoby uzyskują
lepsze wyniki z matematyki i polskiego, te które słuchają jazzu, czy muzyki klasycznej?/Czy
osoby lubiące jazz osiągają lepsze wyniki z języka polskiego i matematyki?

H0: Słuchana muzyka nie ma wpływu na uzyskiwane wyniki z matematyki i polskiego


H1: Ludzie lubiący jazz osiągają wyższe wyniki z matematyki i języka polskiego

Zmienna zależna: punkty → to tą zmienną chcemy sprawdzić w toku naszego badania,


chcemy sprawdzić jak zmieniły się wyniki z matematyki i języka polskiego, jest to skutek
zmiennej niezależnej, jest od niej zależna, czyli wyniki z tych przedmiotów są zależne od
przyczyny ich skutków, czyli słuchanej muzyki
Zmienna niezależna: muzyka → jest ona przyczyną skutków, które chcemy zbadać
(wyników z matematyki i polskiego), to ona powoduje zmiany wartości zmiennej zależnej

Aby ustalić co jest co, jakie jest pytanie badawcze, a jakie hipotezy należy zajrzeć w
to, jak kodowane są zmienne

12
Jak wykonać test t Studenta?
● Analiza
● Średnie
● Test t dla prób niezależnych

Pojawia nam się tabelka


● W zmienne testowe przerzucamy zmienną zależną

13
● W zmienne grupujące przerzucamy zmienną niezależną
● Definiuj grupy
● Ok

Chcemy wiedzieć co się kryje pod tymi zmiennymi i czy robimy dobrze
● Prawy przycisk na zmienną
● Informacje o zmiennej

Pojawia się kolejna tabelka po Definiuj grupy


● Dalej

Potem to małe okienko znika i po prostu klikamy Ok

14
Pojawia nam się raport

Skupiamy się na tabeli 1 i 2

Jak czytać tę tabelę?


● Średnie - średnie osiągane przez osoby słuchające jazzu i te, słuchające muzyki
klasycznej w pomiarze punktów uzyskanych z matematyki i polskiego
● Odchylenie standardowe - będzie niezbędne do interpretacji wyników
● Ta tabela służy temu, by dalej napisać raport

15
Potrzebne stąd nam:
● Istotność
● Wartość testu (t)
● Ewentualnie df, czyli liczebność grupy
● Istotność (dwustronna)

Jak czytać tabelę testu?


● Wpierw należy zacząć od testu Levene’a (bada on równość wariancji)
● Test Levene nie odpowiada na pytanie o różnicy między średnimi, nie odpowie nam,
czy czy słuchanie muzyki powoduje wzrost wyników z matematyki i polskiego,
pomaga nam tylko w dalszym testowaniu hipotezy
○ Należy tu określić czy wynik jest istotny, czy nie
■ Wynik nieistotny p > Istotność oznacza, że wszystko jest okej,
wariancje są równe i dalsze wyniki czytamy z wiersza 1 czyli
Założono równość wariancji
■ Wynik istotny p < Istotność statystycznie oznacza, że coś jest nie
tak, wariancje są nierówne - test wykrył istotną różnicę między
wariancjami i musimy wziąć na to poprawkę, dalsze wyniki czytamy z
wiersza 2 czyli Nie założono równości wariancji
● Potem odczytujemy wynik testu t, by zapisać wynik finalny

Wartość testu Levene’a to .002, a to oznacza, że p > .002; p = 0,050, uzyskany przez nas
wynik jest mniejszy od p, a to oznacza brak różnic istotnych statystycznie, więc wynik jest
nieistotny statystycznie, czyli patrzymy na wiersz Założono równość wariancji i to
właśnie z niego czytamy wszystko dalej

Wartość testu t to 3.276. Jego zapis wygląda następująco:

t(df) = wartość; p=istotność(dwustronna) → t(df) = x; p=x,xxx

W naszym przypadku zapis będzie wyglądał tak:

t(64,779) = 3,276; p=0,002

Czy wynik jest istotny?

3,276 > 0,002, czyli p < t, a to oznacza różnice istotne statystycznie, więc wynik jest istotny
statystycznie → istnieją istotne różnice w wynikach z matematyki i polskiego między
osobami słuchającymi jazzu, a tymi słuchającymi muzyki klasycznej

Co jeżeli wynik testu t wychodzi ujemny?


❖ Tak w pełni może być
❖ Wynika to z tego, że w liczniku wzoru na test t znajdują się zawsze dwie średnie,
więc jeśli pierwsza z nich jest mniejsza, to wyjdzie nam wynik na minusie
❖ Tego minusa z reguły się nie zapisuje, chyba że chce się pokazać kierunek różnic
która grupa była większa - pierwsza czy druga)
❖ Tak więc minusem się nie przejmować, nie trzeba go nawet zapisywać, t = -3.25
to to samo co t = 3.25

16
Wynik istotny → Odrzucamy H0
Wynik nieistotny → Nie mamy powodów do odrzucenia H0

A więc procedura wygląda następująco


1. Odczytanie z tabeli Statystyki średnich i odchylenia standardowego (SD)
2. Sprawdzenie założenia o równości wariancji Testem Levene’a, który decyduje z
którego wiersza należy czytać wszystko co potrzebne
3. Sprawdzenie wartości testu t, jej istotności
4. Zapis wyniku
5. Napisanie wniosków w odniesieniu do hipotezy
6. Stworzenie wykresu, który zostanie wklejony do raportu

Nasze wnioski powinny wyglądać następująco (oczywiście wszystko w APA):

W celu sprawdzenia, które osoby uzyskują lepsze wyniki z matematyki i polskiego, te które
słuchają jazzu, czy muzyki klasycznej przeprowadzono test-t Studenta dla prób
niezależnych. Wynik analizy okazał się istotny t(64,779) = 3,28; p = 0,002, czyli istnieją
różnice w osiąganych wynikach między grupami. Osoby słuchające jazzu (M = 30,72; SD =
4,74) osiągają wyższe wyniki niż te słuchające muzyki klasycznej (M = 26,04; SD = 7,71).
Hipotezę udało się potwierdzić. Wykazano zakładane zależności.

Hipotezę jaką potwierdzamy to nasza hipoteza kierunkowa H1, która mówiła o tym, że
osoby słuchające jazzu uzyskują wyższe wyniki od osób słuchających muzyki klasycznej

Nasz wynik istotny statystycznie spowodował, że H0 hipoteza zerowa, która zakładała, że


rodzaj słuchanej muzyki nie ma wpływu na wyniki z matematyki i języka polskiego została
odrzucona, dlatego na końcu stoi “Hipotezy nie udało się potwierdzić. Wykazano odwrotne
niż zakładane zależności”.

Gdyby uzyskało się wynik nieistotny statystycznie to nie mielibyśmy podstaw do


odrzucenia H0, co oznaczałoby, że potwierdzamy naszą hipotezę zerową, a formułka
brzmiałaby następująco: “Hipotezę udało się potwierdzić. Wykazano zakładane zależności”.

Tworzenie wykresu
Na bazie przykładu Testu t Studenta powyżej

Wykres
● Wykresy
● Wykresy tradycyjne
● Słupkowy

17
Tutaj nic nie zmieniamy i klikamy Definiuj

Okienko, które nam wyskoczyło jest bardzo ważne


● Po pierwsze musimy wybrać Inna statystyka opisowa, inaczej nie będziemy mogli
osiągnąć oczekiwanego efektu
● W pole pod spodem, Zmienna dodajemy Zmienną zależną
● W pole Oś kategorii dodajemy Zmienną niezależną
● Następnie klikamy Opcje

18
Pojawia nam się:

19
Należy zaznaczyć Pokaż słupki błędów, a potem klikamy po prostu Dalej, a gdy wrócimy
do poprzedniego okienka Ok

W raporcie pokaże nam się wykres


● Aby dać go do doca nie potrzebujemy robić screenów, wystarczy go ładnie
skopiować z raportu
○ Do doca, czy gdzie indziej jako obraz, ale jak ktoś ma pakiet Office to lepsza
opcja pod spodem, choć obie zadziałają

20
Wykres:

Jednakże ten wykres ani trochę nas nie zadowala, bo jest brzydki, a żeby wyładniał
potrzebujemy
● Dodać tytuł
● Etykiety danych
● Zmienić skalę na taką, jakiej używaliśmy w badaniu np. od 0 do 10
○ Aby to zobaczyć ponownie należy wejść w oknie głównym w Zmienne
■ Np. 0 to brak lęku, 1 to mały lęk, 2 to umiarkowany lęk, 3 to silny lęk a
4 to bardzo silny lęk, to skala jest od 0 do 4
■ Tutaj mamy zakres punktów od 0 do 41 w zaokrągleniu, więc lepiej
dać 45 około, natomiast same słupki pokażą uzyskaną średnią
● Zmienić główny przyrost, zależnie od obranej przez nas skali (te same okienko)
○ O ile na wykresie zwiększa się poziom zmiennej, jak idziemy w górę osi
○ Co ile znajdują się osie
○ Jednakże ten układ jest wedle tego, jak nam się podoba, to ma po prostu
ułatwiać czytelność wykresu
● Można także zmienić nazwę osi, jeśli nam to pasuje
● Można zmienić kolor
● Usunąć zbędne dla nas rzeczy takie jak słupki błędu: 95% PU itd.

Zawsze gdy edytujemy wykres:


● Prawym przyciskiem myszy byle gdzie na wykresie
● Edycja
● Albo dwa razy przycisk myszy

21
Otworzy nam się osobne okienko do edycji wykresu, które wygląda tak:

To, że wykres się edytuje i mamy otwarte to okienko bo w raporcie wykres wygląda
tak:

22
W okienku edycji wykresu
● Prawy przycisk myszy
● Dodaj tytuł
● I wpisujemy tytuł
● Dwa razy przycisk myszy

23
Aby dodać etykiety:
● Prawy klawisz myszy na jakimś słupku wykresu
● Pokaż opisy danych

Zawartość to to, co ma się znaleźć w etykiecie. Z racji tego, że słupek pokazuje lubienie
lodów, to właśnie tego powinna dotyczyć etykieta. Pokazane wartości będą średnią, a to
właśnie po średniej poznaliśmy, która z grup osiągnęła wyższy wynik
(przykład z innego zadania)

24
Wybieramy sobie nasze preferencje co do wykresu, na przykład hehe comic sans itd

Znowu właściwości → Pokaż opisy danych → to nam pokaże w środku wykresów


wartości danych, tutaj średnie

Aby zrobić skalę:


● Prawy przycisk myszy na liczby na skali
● Właściwości
● Skala

Wszystkie te preferencje wybrane są dla


wygody, oczywiście dobrane do zadania, ale
każdy wybiera tak, aby było wygodnie (ten
screen nie pochodzi z tego zadania)

Potem klika się zamknij i poprawiony wykres


pojawia nam się w raporcie

25
No tym się po prostu trzeba pobawić, można zmienić wszystko, dosłownie wszystko co się
zechce

I takim sposobem otrzymujemy nasz jakże oczekiwany rezultat:

Sprostowanie do wykresów:

26
Jednoczynnikowa analiza wariancji Anova

Anova
❖ ANalysis Of VAraince ~Ronald Fischer
➢ Metoda służąca do porównań dwóch lub więcej średnich
■ Np. dla 3 grup - 3 średnie, które chcemy zbadać
■ Np. czy uczniowie podstawówki, liceum i studenci różnią się
poziomem lęku?

Dlaczego NIE test t?


❖ Test t porównuje tylko dwie średnie, dwie grupy na raz
❖ Ma problem, gdy grup pojawia się więcej, jest wtedy niewygodny w użyciu i
interpretacji wielu danych
➢ Prowadzi do błędu I rodzaju - kumulowania fałszywych danych
❖ Jeśli zaczniemy badać więcej grup testem t, będziemy musieli dokonywać większej
ilości porównań
❖ Naraz możemy porównywać tylko 2 grupy, więc jedno porównanie
➢ Gdy mamy 3 grupy mamy 3 porównania, 4 grupy 6, 6 grup 15 itd, a więc
gdyby robić to testem t to powstaje dużo ciężko zrozumiałych wyników i
rośnie szansa na popełnienie błędu

Istotności dla więcej niż 2 grupy


1. Istotność dla konkretnego porównania (pairwise) → p < 0,05
2. Istotność łączna dla wszystkich porównań (experimentwise)

❖ Przy 3 grupach, zakładając, że wynik jest istotny gdy p =< 0,05


❖ Łączne prawdopodobieństwo popełnienia błędu wynosi około 0,15 (3*0,05)
❖ Szansa, że pomylimy się gdzieś, wynosi 15 na 100
➢ To znacznie więcej niż zakładamy w naukach społecznych, gdzie zakładamy,
że jest to 5 na 100.

Jak się przed tym zabezpieczyć?


❖ ANOVA
❖ Testy kontrolujące prawdopodobieństwo błędu I-ego rodzaju
➢ Post-hoc, kontrasty ortogonalne

Słowniczek ANOVY
❖ Czynnik - zmienna niezależna
❖ Zmienna testowana - zmienna zależna
➢ Sprawdzamy, czy zmiana poziomu czynnika powoduje zmianę mierzonej
własności

Współczynnik analizy wariancji: F


❖ Anova odpowiada na pytanie o różnicę średnich na podstawie zmienności
międzygrupowej do wewnątrzgrupowej
❖ Wariancja wewnątrzgrupowa (błędu) - zmienność wewnątrz poszczególnych grup

27
❖ Wariancja międzygrupowa - różnica pomiędzy średnimi w grupach a ogólną
średnią

Zanim zrobi się analizę


1. Analiza częstości
2. Eksploracja
3. Wykres skrzynkowy
4. Histogram

Jest to robione po to, by zaznajomić się z danymi w bazie, z podstawowymi informacjami


jakimi są średnie czy odchylenia

Analiza częstości
❖ Dają nam informację na temat tego, jak wyglądają nasze zmienne i czy możemy
przeprowadzać obliczenia testem parametrycznym

Chcemy sprawdzić jak liczna jest grupa kliniczna:

Analiza → Opis statystyczny → Częstości

28
W zmienne dajemy zmienną, którą chcemy sprawdzić, tutaj grupa kliniczna

Ok

29
Statystyki
Ważnych odpowiedzi jest 48, nie ma żadnych braków danych

Częstość - Ile osób jest w danych grupach klinicznych będący naszą grupą badanych
Procent - Jaki procent badanej grupy (razem z brakami danych) stanowią osoby, które są w
poszczególnych grupach klinicznych
Procent ważnych - Jaki procent badanej grupy stanowią osoby, które są w poszczególnych
grupach klinicznych, z wykluczeniem braków danych
Procent skumulowany - dla zmiennych na skali co najmniej porządkowej
Gdyby były jakieś braki danych (w tym przykładzie akurat nie ma) to w tabelce częstości na
dole byłoby jeszcze

Eksploracja

Analiza → Opis statystyczny → Eksploracja

30
Do zmiennej zależnej wrzucamy zmienną, którą chcemy zbadać, czyli naszą grupę kliniczną,
dalej wybieramy wykresy i zaznaczamy jak na screenie Histogram → Dalej → Wróci nas
do pierwszego okienka Ok

W raporcie pokażą nam się wszystkie najważniejsze rzeczy o naszej zmiennej, mediana,
średnia, wariancja, odchylenie standardowe itd, czyli podstawowe rzeczy o badanej przez
nas zmiennej

31
Aby zobaczyć testy normalności należy w tym okienku zaznaczyć jeszcze Wykresy
normalności z testami

W raporcie pokaże się:

Shapiro-Wilk wybieramy dla mniejszych prób N < 100, czyli grupy mniejszej niż 100 osób
Kołmogorow-Smirnow dla grup większych niż 100 osób, N >100

Istotny wynik oznacza zaburzenia rozkładu - rozkład istotnie różni się od rozkładu
normalnego

32
Histogram

Analiza → Opis statystyczny → Częstości

Wykresy → Trzeba zaznaczyć Histogramy → Pokaż krzywą normalną

W raporcie pokaże się histogram

33
● Każdy słupek to pewna grupa wyników - nie jest to tak, że dla każdego wyniku mamy
osobny słupek
● Histogram pokazuje nam częstości przedziałów klasowych, czyli zgrupowane
wartości zmiennej w przedziałach o równej rozpiętości
● Dzięki temu, na histogramie możemy przedstawić zmienne ilościowe o dowolnej
liczbie wartości - program zredukuje ich ilość

Wykres skrzynkowy

Analiza → Opis statystyczny → Eksploracja

W raporcie pokaże się

Mediana i kwantyle odgrywają ważną rolę w jego interpretacji

34
Gruba czarna linia pośrodku - Mediana
Górna i dolna granica niebieskiej skrzynki - Pierwszy kwartyl; w granicach skrzynki
mieszczą się wyniki 50% osób badanych; odległość między dołem i górą skrzynki to rozstęp
ćwiartkowy
Górne i dolne “wąsy” - obserwacje leżące w granicach 1,5 rozstępu ćwiartkowego
Dodatkowo, mogą być pokazane obserwacje odstające oznaczone kółkami lub gwiazdkami
na górze lub dole.

Miary tendencji centralnej

Mediana - Me; wartość dzieląca uporządkowany zbiór na pół


233345556
Me = 4
223455

Parzysta liczba? Tworzymy średnią z dwóch środkowych wartości


Me = (3+4)/2 = 3,5
na każdej skali poza nominalną

Mediana dzieli na pół, a kwantyle dzielą na:


● tercyle - na trzy części
● kwartale - na cztery
● kwintyle - na pięć
● itd

Spostrzeżenie:

Zmienna niezależna jest na skali porządkowej (kolor oczu itd) lub nominalnej
(wykształcenie itd)
Zmienna zależna to skala ilościowa (liczby)

35
Analiza ANOVA
Na bazie pliku alkohol

Będziemy teraz pracować na poziomie lęku. Czy któraś z tych grup ma istotnie wyższy
lub niższy poziom lęku?
Pracujemy na razie na lek_3

Aby zrobić analizę ANOVA

Analiza → Średnie → Jednoczynnikowa ANOVA

Zmienna zależna: pomiar lęku, lek_3


Zmienna niezależna (czynnik): grupa kliniczna
Grupa kliniczna się nie zmienia, my badamy poziom lęku, który zależy od naszej grupy
klinicznej + aby prosto określić która zmienna jest która to zmienna zależna to zawsze ta,
którą badamy

36
Zaznaczamy
❖ Opisowe - By zobaczyć jakie mamy średnie i odchylenia w grupach
❖ Test jednorodności wariancji - By wiedzieć czy mamy jednorodne czy
niejednorodne wariancje
➢ Nie powie jakie są wyniki analizy, ale da nam wskazówkę, gdzie dalej szukać
wyników
❖ Wykres średnich - By zobaczyć wszystko na obrazkach

Dalej → Ok

W raporcie pojawią się 3 tabelki:

Statystyki opisowe

● Najwyższy poziom lęku (średnia) ma alk_zesp_abst - 1,23. Ale nie wiemy co to


znaczy, nie wiemy jaka była skala.
● Możemy sprawdzić to w bazie w wartościach → Etykiety wartości
○ I tak mamy: 0 to zachowanie swobodne, 3 to stan paniki

37
Skoro mamy od 0 do 3, to oznacza, że 1,23 to około średni poziom lęku

Nie wiemy czy jest to istotna różnica względem innych grup i właśnie to kolejna rzecz, którą
musimy sprawdzić

Przenosimy się więc do tabelki poniżej, do Testy jednorodności wariancji

Patrzymy na Test Levene’a


● Na zajęciach patrzymy TYLKO na ten górny wiersz, patrząc na średnie Bazując na
średnich
● Te dolne wiersze dotyczą lepszego opisywania danych, gdy mamy nienormalne
rozkłady, nierównoliczne grupy, itd

Wynik testu t to: 1,751 → p > 0,05, mamy nieistotny test Levene’a

Nieistotny test Levene’a → Jednorodne wariancje


Istotny test Levene’a → Niejednorodne wariancje

38
Z racji tego, że mamy nieistotny wynik testu Levene’a czyli jednorodne wariancje mamy
mniej roboty bo od razu przechodzimy do tabelki poniżej, do Jednoczynnikowa ANOVA

Tak samo jak w teście t, patrzymy czy są jakieś istotne różnice między grupami

Patrzymy na Istotność:
● Są różnice bo nasz test jest istotny → .005; p < 0.05

ANOVA pokazała nam różnice, ale nie pokazała gdzie. Wiemy, że są różnice, ale nie wiemy
w jakich grupach, nie wiemy gdzie. Aby się tego dowiedzieć wykonamy analizy
wyjaśniające

Wpierw zapis wyników:


1. Zapis wyniku testu t Levene’a
2. Zapis wyniku ANOVA

F(stopień swobody, stopień swobody; czyli df1, df2) = wartość; p = wartość

F(3,44) = 1,75; p = 0,005 (zapis testu Levene’a)


F(3,44) = 4.96; p = 0,005 (zapis ANOVY)

Teraz wyjaśnienie między jakimi grupami są różnice, wykonujemy analizy


wyjaśniające

To był przykład, kiedy test Levene’a był nieistotny, założenie jednorodności wariancji. A co,
gdyby jednak był istotny, gdyby wariancje były niejednorodne? Wtedy mamy inną procedurę

(Analiza na innej zmiennej, lęk pomiar lek_1; znowu Analiza → Średnie → Jednoczynnikowa
ANOVA, zmienną zależną tym razem jest lek_1) → Dalej. Pokazał się raport:

39
Test Levene'a istotny, wariancje niejednorodne: p < 0,05
F(3,44) = 3,33; p = 0,028

Wiadomo, że gdy wychodzi test istotny, niejednorodność wariancji to coś z naszymi danymi
jest nie tak i musimy zrobić jakąś dodatkową analizę, by poprawnie móc odczytać wynik
● W teście t Studenta wystarczyło przejść do drugiego wiersza, by zobaczyć poprawkę
● W ANOVie sami tę poprawkę musimy nanieść

Gdy widzimy, że test Levene’a jest istotny to olewamy tę tabelkę (Jednoczynnikowa


ANOVA), nie możemy odczytać z niej danych, jest wyliczona tak, jakby te wariancje były
jednorodne i dlatego musimy wygenerować sobie poprawkę

Znowu
Analiza → Średnie → Jednoczynnikowa ANOVA

Gdy pojawi się tabelka z ANOVą → Opcje

Zaznaczamy:
● Opisowe
● Test jednorodności wariancji
● JEDEN Z DWÓCH TESTÓW: Browna-Forsythe’a lub Welcha
○ Nie ma znaczenia, który z tych testów wybierzemy, ale musi być to jeden z
nich
○ Oba pokażą nam mniej więcej to samo, jednakże inne wartości liczbowe,
jednak oba dają nam poprawną poprawkę

40
○ Z obu czyta się tak samo
○ Można i wybrać dwa, to nam wygeneruje po prostu dwie tabelki i tyle i tak
wybieramy jeden z tych dwóch
● W raportach musimy napisać, który z tych testów wybraliśmy
○ Przeprowadzono analizę ANOVA z poprawką Welcha/Browna-Forsythe’a…

Raport:

Wpierw zapisujemy wynik testu Levene’a:


F(3,44) = 3,33; p = 0,028
(Po tym wiemy, że są róznice, ale nie wiemy gdzie)

Wynik istotny, więc musimy przeprowadzić mocne testy równości średnich:


F(3,22,762) = 9,80; p < 0,001
(To pokazuje nam, gdzie dokładnie są różnice)

Przeprowadzono analizę ANOVA F(3,44) = 3,33; p = 0,028 z poprawką Welcha F(3,22,762)


= 9,80; p < 0,001

W skrócie ANOVA, gdy wyjdą nam wariancje jednorodne (po kroku 2):
1. Przeprowadzenie ANOVy
2. Odczytujemy wynik testu t z tabelki Testy jednorodności wariancji
3. Odczytujemy wynik z tabelki Jednoczynnikowa ANOVA

W skrócie ANOVA, gdy wyjdą nam wariancje niejednorodne (po kroku 2):
1. Przeprowadzenie ANOVy
2. Odczytujemy wynik testu t z tabelki Testy jednorodności wariancji
3. Olewamy tabelkę Jednoczynnikowa ANOVA
4. Przeprowadzamy Mocne testy równości
5. Odczytujemy wynik poprawki z jednego z dwóch testów

Teraz szukamy, gdzie DOKŁADNIE znajdują się te różnice

W tym celu należy wykonać analizę wyjaśniającą

Analizy wyjaśniające
1. Post-hoc
a. nie mamy konkretnego założenia co do tego, gdzie są różnice i chcemy
sprawdzić wszystko
b. porównania wielokrotne
c. porównania wszystkiego ze wszystkim

41
d. post-hoci biorą poprawkę na skumulowane prawdopodobieństwo błędu I-ego
rodzaju
2. Kontrasty
a. testujemy różnice, które definiujemy w hipotezie; mamy konkretne założenie,
które grupy będą się różnić i jak
3. Analiza trendu

Post-hoc
❖ Porównania wielokrotne
❖ Porównuje każdą grupę z każdą
➢ Np. schizofrenia z depresją, depresję z organiką, depresję ze schizofrenią
❖ Dokonuje kilkunastu porównań grup ze sobą
❖ Jest bardziej eksploracyjną analizą, gdzie nie wiemy co się dzieje i chcemy zobaczyć
jak się różnią
❖ Hipoteza to są różnice między grupami

Kontrast
❖ Kiedy mamy konkretną hipotezę, gdzie dokładnie są różnice
❖ Hipoteza to grupa alkoholowa ma większy poziom lęku niż grupa depresji
❖ Mamy swoją hipotezę, gdzie się różnią i chcemy ją potwierdzić

Samych Post-hoców jest dużo do wyboru i znowu nie ma różnicy, który z nich wybierzemy.
Wybieramy dany z jednej z dwóch puli, gdy wychodzą wariancje jednorodne lub
niejednorodne

Analiza wyjaśniająca Post-hoc


Na bazie pliku alkohol, czyli kontynuacja przykładu z wyżej

Tutaj wracamy jeszcze raz do pomiaru lek_1 → gdzie pamiętamy, że test Levene’a był
istotny, wariancje niejednorodne. Chcemy sprawdzić, gdzie w tych grupach była różnica
w poziomie lęku

42
Znowu
Analiza → Średnie → Jednoczynnikowa ANOVA

Post hoc:
● Wybieramy jeden test z odpowiedniej puli jako, że mamy wariancje niejednorodne
wybieramy z puli Brak założenia o równości wariancji
● To, który z tych testów wybierzemy nie ma znaczenia, podobnie jak było przy
przeprowadzeniu poprawki
● Musimy tylko pamiętać o tym, by w raporcie napisać, który z nich się wybrało

Dalej → Ok. Pokaże nam się raport:

Wybrany został Test Tamhane’a

43
Ważne jest spojrzeć na Istotności, jeśli jest istotna, to oznacza, że grupa alkoholowa
istotnie różni się poziomem lęku od grupy z depresją, grupa alkoholowa istotnie różni się od
grupy z zaburzeniami organicznymi, grupa alkoholowa nie różni się istotnie od grupy ze
schizofrenią (tutaj wynik nieistotny)

Trick ułatwiający życie: tam, gdzie znajduje się gwiazdka, tam są różnice. Gwiazdka =
różnice, a więc wystarczy patrzeć gdzie jest gwiazdka i tyle
Raport
Wykryto istotne różnice między grupami…, zastosowano test porównań wielokrotnych test
Tamheane’a. Grupa alkoholowy zespół abstynencyjny (M = ; SD = ; ) istotnie różni się
poziomem lęku od grupy depresja (M = ; SD = ; ), różni się też od grupy organika (M = ;
SD = ; ), … i wszystkie te grupy
Będzie szablon do pracy domowej

I to koniec naszej ANOVY

Teraz jak to będzie wyglądało dla lek_3, czyli tam, gdzie wariacje były jednorodne

I znowu
Analiza → Średnie → Jednoczynnikowa ANOVA

Uwaga: Spss zapamiętuje raz zapisane post hoci, ale nie da się ich zmienić. Aby to zrobić
należy sobie wszystko zresetować, klikając w pierwszym okienku resetuj. W tym momencie
trzeba ponownie wprowadzić zmienną zależną i czynnik (lek_3 i grupa kliniczna)
Znowu wybieramy Opcje: Opisowe, Test jednorodności wariancji i Wykres średnich, czyli
wszystko dokładnie tak jak na początku, Dalej i Ok

A więc wracamy do post hocu


Analiza → Średnie → Jednoczynnikowa ANOVA → Post hoc, jak tu wybierzemy to Dalej i
Ok

Lek_3 miał nieistotny wynik testu Levene’a czyli jednorodne wariancje, a więc test bierzemy
z półki Założenie o równości wariancji; wybieramy z pierwszego wiersza
● Znowu wybieramy jeden z dostępnych testów, nie ma znaczenia który
● Nie poleca się używać tych dolnych testów, najlepiej wybrać NIR do Scheffe, któryś z
pierwszych, bo niektóre się trudniej czyta
● W np. Scheffe czy NIRze również są te gwiazdki

Tutaj wybrany NIR

44
Raport:

I tutaj tak samo jak przy Tomheinie, odczytujemy tam gdzie są gwiazdki, zapisujemy wynik

45
W skrócie całą procedura od początku do końca:
1. Przeprowadzenie jednoczynnikowej ANOVY, z wyborem zmiennej zależnej i
czynnika, w opcjach zaznaczając odpowiednie opcje (opisowe, testy wariacji, wykres
średnich)
2. Odczytanie z tabeli wartości testu Levene’a
a. Jeśli wyszedł nam test nieistotny czyli jednorodność wariancji to odczytujemy
wynik z tabelki Jednoczynnikowa Anova
b. Jeśli wyszedł nam test istotny, czyli niejednorodność wariancji to olewamy
tabelkę ANOVA i:
i. Przeprowadzamy Mocne testy równości
ii. Odczytujemy wynik poprawki jednego z dwóch testów
3. Zapisanie wartości testu Levene’a i w zależności od niego wartość ANOVy lub
wartość z poprawki jednego z dwóch testów
4. Przeprowadzamy analizę wyjaśniającą
a. Wybieramy odpowiedni test z puli założono równość wariancji lub nie
założono, w zależności od tego co pokazał test Levene’a
5. Odczytujemy wynik analizy wyjaśniającej
6. Piszemy raport

ANOVą sprawdzamy czy istnieją różnice, Levene i Anova nakierowują w jaki sposób działać,
a potem analizą wyjaśniającą sprawdzamy gdzie dokładnie te różnice są

46
Skrótowa metoda na sprawdzenie rozkład normalny czy nie, gdy tylko na tym nam
zależy (bez sprawdzania skośności i kurtoz)
Na bazie pliku alkohol, czyli kontynuacja przykładu z wyżej

Czy skośność czy kurtoza jest okej, nie chcemy pamiętaj samych wartości czy jest
lewokurtyczny, prawo itd, a jedynie czy normalny czy nie

Analiza → Opis statystyczny → Eksploracja

Można ewentualnie wybrać Histogram

Raport:

Nasza grupa, czyli df wynosi 48


Wybieramy Shapiro-Wilka, bo mamy poniżej 100 osób

Test jest istotny p < 0.05


● Rozkład nie równa się normie
● Już wiemy, że test jest nienormalny, a więc nie zawracamy sobie głowy skośnością
itd, już wiemy, że rozkład się mocno różni

Jakby był nieistotny to rozkład równa się normie, a więc jeden kształt równy drugie

47
Analizy wyjaśniające
4. Post-hoc
a. nie mamy konkretnego założenia co do tego, gdzie są różnice i chcemy
sprawdzić wszystko
b. porównania wielokrotne
c. porównania wszystkiego ze wszystkim
d. post-hoci biorą poprawkę na skumulowane prawdopodobieństwo błędu I-ego
rodzaju
5. Kontrasty
a. testujemy różnice, które definiujemy w hipotezie; mamy konkretne założenie,
które grupy będą się różnić i jak
6. Analiza trendu

Kontrasty
● Służą weryfikowaniu konkretnej hipotezy badawczej
● Można je przeprowadzać niezależnie od istotności F
○ To pomaga, jest mniej klikania w spssie
○ Możemy je przeprowadzić jednocześnie z jednoczynnikową ANOVĄ, nie
musimy nic wklepywać, byle by się istotność zgadzała, nie musimy
sprawdzać czy ANOVA jest istotna
○ Ten sam rzut, ten sam krok co ANOVA, nie trzeba żadnych innych
kroków i wyliczeń
● Stosuje się je aby porównać wybrane grupy między sobą
● Porównują zawsze dwie grupy średnich
○ Np. mamy 4 grupy. I to nie jest tak, że porównuje 1 z 2, 2 z 3 itd, kontrast
porównuje grupę 1 z 2,3,4 razem, 2 z 1,2,4 razem, 3 z 1,2,4 razem i 4 z 1,2,3
razem
■ A to znaczy, że zawsze porównuje tę jedną grupę z pozostałymi
razem
■ Muszą wyjść dwie średnie bo kontrast to test dla prób niezależnych
■ Zawsze są dwie średnie porównywane ze sobą
■ Wyzwanie stanowi zakodowanie tych grup
● Na jedną grupę może składać się dowolna liczba średnich
○ Ale zawsze musimy mieć dwie średnie, by było porównanie między dwoma

Różnice między pos hockiem a kontrastem


● Post hoc jest eksploracyjny, błądzi, bada wszystko, sprawdza wszystkie różnice jakie
są możliwie, skacze sobie po całej analizie, pokazuje wszystkie wyniki, wszystkie
różnice jakie wyłapie
○ Czyli jest dość ogólny
● Kontrast to z góry mamy założenie, gdzie dokładnie znajduje się różnica i chcemy
zobaczyć tylko i wyłącznie ją, bez żadnych innych porównań, interesuje nas tylko i
wyłącznie tylko ta jedna rzecz
○ Czyli jest dość precyzyjny

48
Analiza wyjaśniająca Kontrast
Na bazie pliku viagra

Teoria na dole

Zmienna niezależna to viagra, cztery grupy: placebo, niska dawka, wysoka dawka i
podwójna dawka
Zmienna zależna to libido, czyli jak często występuje zbliżenie

Pytanie badawcze: Czy placebo różni się od pozostałych razem


● Czy warunek kontrolny (bez żadnego oddziaływania) różni się od innych

Wpierw musimy powiedzieć SPSSowi jak ma to liczyć. Jeśli tego nie zrobimy, to zacznie
liczyć wszystko ze wszystkim

O co chodzi?
Na przykładzie grafik

Wyobraźmy sobie wagę, która ma dwie szalki. Po jednej stronie nasza grupa, którą chcemy
porównać, a po drugiej to, z czym równamy, czyli wszystkie razem te pozostałe grupy

By to sprawdzić musimy tak ustawić szale tej wagi, by były sobie równe
Ale co to oznacza?
Prawa szalka: niska, wysoka i podwójna → możemy wyobrazić sobie, że razem, na tej
szalce ważą 3, a to oznacza, że mocno by nam szalkę przeciążyły i, że pojechałaby mocno
w dół - te 3 po prostu dużo ważą, względem lewej szalki

A więc musimy coś zrobić, aby wagi się ze sobą zrównały. Tylko, że przecież jedna z nich
jest cięższa. Mamy to szczęście, że my te wagi przypisujemy sami w SPSSie

49
A więc, aby wagi się zrównały to na lewej szalce my też musimy dać 3 (prawa 3 = lewa 3).
Chodzi o to, by suma wag wynosiła 0, by było 3 i -3. A więc na jednej i na drugiej musi być 3.
Ale przecież na lewej jest trzy, a na prawej jest tylko jedna grupa. Placebo musimy doważyć,
by wyszło 3

Placebo Niska Wysoka Podwójna Suma

3 -1 -1 -1 0

15 -5 -5 -5 0

14 -4 -5 -5 0

22 -10 -5 -7 0

Nasze placebo to 3. I teraz te trzy grupy na prawej szalce musimy zważyć tak, by nam się z
tym wyrównały. A, że mamy 3 grupy to placebo zostało jako 3, a więc najprościej dać po -1
dla każdego

I wtedy mamy: 3 i -3. To daje sumę 0 i wtedy nasza waga wyrównuje się

Najlepiej dawać jak najmniejsze liczby. Ale jakby ktoś się uparł to może dać większą liczbę.
Np. placebo to 15. I to się musi wyważyć.

To jaką wagę będzie miało placebo, ta nasza zmienna ustalamy sobie sami. Najważniejsze
jest to, byle by ta druga szalka, te grupy do których porównujemy się zrównały ze zmienną
do 0

A co jeśli mamy przypadek, że chcemy porównać ze sobą grupę placebo i niską


dawkę z wysoką i podwójną dawką?

Placebo Niska Wysoka Podwójna Suma

1 1 -1 -1 0

Wtedy musimy przypisać po wadze dla dawki placebo i dawki niskiej. Np. 1 i 1. To nam daje
2. A to oznacza, że to z czym porównujemy również sumarycznie będzie musiało być 2, bo
nasza suma musi być 0. A to oznacza danie -1 i -1

A co jeśli mamy przypadek, że chcemy porównać ze sobą grupę niska dawka z dawką
wysoką i podwójną, bez placebo?

Placebo Niska Wysoka Podwójna Suma

0 2 -1 -1 0

Wywalamy placebo. Jego nie ma


Placebo nie ma, dajemy mu 0, aby nie było go w naszych obliczeniach

50
A teraz na SPSSsie. Robimy to co już znamy, a mianowicie ANOVĘ

Analiza → Średnie → Jednoczynnikowa ANOVA

Trzeba pamiętać, by w opcjach zaznaczyć to, co zawsze zaznaczamy, czyli opisowe, testy
jednorodności wariancji i wykres średnich

Klikamy dalej i wracamy do naszego podstawowego okienka. I tutaj nie musimy klikać okej.
To jest ten moment, gdy mamy mniej roboty, gdy za jednym zamachem oprócz ANOVy
robimy sobie kontrasty

Bardzo dobrze jest cały czas widzieć nasze etykiety, bo będzie to bardzo ważne (etykiety
wzięte ze zmiennych, a konkretnie zmiennej viagra)

Jesteśmy w okienku i klikamy Kontrasty


W tabelce mamy jakieś wielomiany i inne dziwne określenia, ale tutaj należy po prostu
przypisać wagi

51
Suma współczynników - to jest po prostu nasza suma wag
Współczynnik - tutaj mówimy SPSSowi jakie my chcemy dać wartości tych wag
Suma współczynników pokaże czy one się sumują do 0 czy nie. Jednym słowem jak będzie
co innego niż 0 to jest źle, 0 to oznacza jest poprawnie. Taka kontrolka, która pomaga nam
sprawdzić, czy idziemy w dobrym kierunku

Aby je wpisać należy się odnieść do etykiet wartości. Dokładnie w takiej kolejności jak idą w
etykietach, tak musimy przypisać nasze wagi. Koniecznie w takiej kolejności jak jest w
etykietach!!!

We współczynniku klikamy 3 (nasze placebo) i Dalej. W sumie współczynników widzimy


teraz 3.000. A to oznacza, że musimy pozostałe grupy doważyć

Skoro placebo jest wpisane to idziemy dalej. Patrzymy, że pod 2 w naszych etykietach jest
niska dawka. Należy wpisać we współczynniku jaką wagę daliśmy niskiej dawce

Generalnie w okienku wpisujemy wagę klikamy dodaj

52
Placebo Niska Wysoka Podwójna Suma

3 -1 -1 -1 0

3 dla placebo, -1 dla niskiej dawki, -1 dla wysokiej dawki, -1 dla podwójnej dawki

I tutaj widać jak ważna jest kolejność. Kolejność jest narzucona przez SPSS, tzn, że idzie w
górę z etykietkami i to co wpisujemy domyślnie przypisuje się w tej kolejności w jakiej są
etykiety

Przy okazji po wpisaniu widać, że jest poprawnie → Suma współczynników wychodzi nam 0

53
Gdyby było, że pomijamy placebo to byśmy wpisali 0, jako że pomijamy placebo, 2 dla
niskiej, -1 dla wysokiej i -1 dla podwójnej (-1 i -1 zrównuje się z naszym 2 dla niskiej do 0).
Ale wracając do naszego przykładu

Klikamy Dalej a potem Okej

Jeszcze jedną rzeczą, którą dobrze jest zrobić to mieć odznaczone to:

Po prostu to się czasami samo zaznacza i przez to jest od groma innych tabelek, więc lepiej
mieć to po prostu odznaczone

Ale wracamy do tego, że SPSS wypluł nam raport

Interpretacja (zaczynamy od interpretacji ANOVy)

54
Znowu najważniejszy jest Levene’a → Nasz test jest nieistotny (p > 0,05), a to oznacza
jednorodne wariancje więc super, możemy jak wcześniej przejść do tabelki
jednoczynnikowa ANOVA, nie musimy robić mocnych testów równości

Nasza istotność: ANOVA jest istotna (p < 0,05), a to oznacza, że gdzieś mamy różnice. Nas
interesuje tylko jedna konkretna różnica, w jednym konkretnym miejscu, a niej ka przy post
hocach wszystkie

Na tej tabelce możemy sobie podejrzeć jakie daliśmy wagi w naszym kontraście

Jedziemy do kontrastu

Wygląda jak Test t dla prób niezależnych, bo to jest Test t dla prób niezależnych. Czytamy
go dokładnie tak samo jak Test t dla prób niezależnych.

Zapis jest symilaryczny: t(47) = 7,17 p < 0,001 + oczywiście zapisać wynik ANOVy

ALE jest jedna istotna różnica. Tutaj nie mamy w tej konkretnej tabelce testu Levene’a.
Miejsce z jakiego musimy się posiłkować to tabelka Test jednorodności wariancji, właśnie
stamtąd odczytujemy wynik testu Levene’a
Aby dowiedzieć się, z którego wiersza tabelki Testy kontrastu musimy spojrzeć na Test
Levene’a zawarty w tabelce Testy jednorodności wariancji

55
Nasz test jest nieistotny (p > 0,05), a to oznacza jednorodne wariancje, a więc czytamy
wynik z wiersza górnego, Zakłada równość wariancji

Czytamy go tak samo jak Test t dla prób niezależnych i dokładnie tak samo go zapisujemy
Istotność → p < 0,001, fajnie, test jest istotny, grupa placebo istotnie różni się od grup niska,
wysoka i podwójna dawka

Zapis:
Wynik t(df) = wartość t; p = Istotność dwustronna

Raport

Grupa placebo (M = 2,44; SD = 1,42) istotnie różni się od…


Właśnie od czego? Mamy trzy grupy co wybrać? Nie możemy brać średnich z jakiejkolwiek
grupy. Musimy zrobić coś, by uzyskać jedną średnią dla tych 3 grup.

Jak to zrobić? Rekodowanie zmiennej

Nasze grupy Co chcemy uzyskać


1 1
2 2
3 2
4 2

Chodzi o to, by narzucić SPSSowi, że nasze 3 grupy (niska, wysoka, podwójna dawka) to
jest jedna grupa

By to zrobić

Przekształcenia → Rekoduj na inne zmienne

Rekodujemy na inne zmienne ponieważ zależy nam na utworzeniu czegoś totalnie nowego,
na utworzeniu nowych, dwóch grup, gdzie jedną jest właśnie nasze placebo, a druga nowa,
to tak, która skaładać się będzie z naszych trzech pozostałych (mała, wysoka i podwójna
dawka)

56
Pojawia nam się okienko

Wrzucamy do Zmienna źródłowa → wynikowa zmienną, którą chcemy przekształcić, w


tym wypadku jest to zmienna viagra

Nazwa: Nadajemy nazwę naszej zmiennej, dobrze jest dawać nazwy, które zrozumiemy, od
razu nas naprowadzą, a nie zmienna dupa czy ananas, bo potem się usiłuje rozgryźć co to
za zmienna i się robi pieprznik, więc nie robić jak przy programowaniu, gdzie syf może być,
musi działać po prostu
A więc nazwa musi nam się rzucać w oczy i jasno określać co jest czym

Etykieta: Tutaj wpisujemy to, co możemy podejrzeć potem, gdy klikniemy na zmienną.
Etykieta, czyli tak jej opis, co to jest

Nazwa i etykieta to tylko i wyłącznie nasz wybór i możemy wpisać co nam się żywnie
podoba, my musimy wiedzieć co to jest za zmienna

Koniecznie kliknąć w okienku Zmień, bo inaczej nam się to nie zmieni

57
W tym nowym okienku chodzi o to, by zmienić jak chcemy nasze grupy (w viagrze były 4, 1
to placebo, 2 to niska, 3 to wysoka i 4 to podwójna dawka) na takie co my chcemy. Teraz
mówimy SPSSowi, która grupa zmienia się w którą grupę

Jak to powinno wyglądać?

Nasza grupa 1 placebo jest grupą 1

58
Natomiast grupa 2 niska dawka stała się grupą 2, grupa 3 wysoka dawka stała się grupą 2,
grupa 4 podwójna dawka stała się grupą 2. To oznacza, że w skład grupy numer 2 weszły
wszystkie te trzy dawki. A więc sumarycznie mamy dwie grupy - 1 to placebo, a 2 to reszta
tych grup w jednym. Po prosto rozkroiliśmy tę zmienną i zrobiiliśmy z niej grupy tak, jak nam
się podobało

Sposób numer 2:

Jak wiemy, że zmienne od tej do tej mają się znaleźć w obrębie grupy 2, to dajemy Zakres i
tutaj dajemy od której do której, u nas od 2 do 4 grupy mają wejść w skład grupy 2 (nowej
grupy, którą wpisujemy w Wartość)

Sposób 1 to więcej klikania, ale daje pewność, że się krok po kroku każdą zmienną zrobiło,
łopatologicznie i po kolei, sposób 2 upraszcza po prostu, ale nie jest tak łopatologiczny

Dalej i Ok

Widzimy w naszej bazie danych w zmiennych, że pojawiła nam się nowa zmienna

Możemy dodać etykiety, by było lepiej widać

59
W danych widzimy, że nasza zmienna przyjęła takie wartości jak chcieliśmy

A teraz będziemy uzyskiwać średnią dla naszej nowo utworzonej z pozostałych grup grupy 2
Analiza → Średnie → Średnie

Pojawia nam się

60
W zmiennych zależnych ląduje ta zmienną, którą się interesujemy, czyli nadal nasza
zmienna libido nas interesuje, ALE w zmienne niezależne musimy dać naszą nową
zmienną, bo libido badamy nie na pierwotnej zmiennej, gdzie były cztery grupy, ale na
naszej zmiennej, w której mamy 2 chciane przez nas grupy

Co wypluwa nam raport

Widzimy, że w naszej grupie placebo średnia i odchylenie standardowe jest takie samo, co w
tabelce Statystyki opisowe, tabelce, którą jako pierwszą, by robieniu ANOVY wypluł nam
SPSS
Dodatkowo mamy średnią dla naszej dodatkowej grupy, w której skład wchodzą wszystkie
pozostałe grupy sklejone w jedną

Raport

Grupa placebo (M = 2,44; SD = 1,42) istotnie różni się od osób, które brały viagrę (M = 7,71;
SD = 4,15) i blablabla oficjalnie w raporcie

Np. Kontrast:
t(78,295) = 0,55; p = 0,528
Jeśli Kontrast jest nieistotny → To znaczy, że odrzucamy hipotezę kierunkową!

61
Sumarycznie co krok po kroku robić
1. Robimy ANOVę i w tym samym okienku jednocześnie Kontrasty
2. Interpretujemy ANOVĘ
a. Jeśli test Levene’a wychodzi nieistotny mamy wariancje jednorodne, czytamy
z tabelki ANOVA
b. Jeśli test Levene’a wychodzi istotny mamy wariancje niejednorodne, olewamy
tabelkę ANOVA, robimy mocne testy równości
c. ANOVA mówi nam o tym czy są różnice, czy nie. Po prostu ją robimy, zależy
nam tak naprawdę na tabelce Testy jednorodności wariancji, nie na
reszcie z ANOVY
3. W zależności od istotności z tabelki Testy jednorodności wariancji wybieramy
odpowiedni wiersz tabelki Testy kontrastu
a. Test nieistotny to założono równość wariancji
b. Nieistotny to nie założono równości wariacji
4. Zapis wyniku
a. Z racji charakterystyki kontrastu, z kilku grup trzeba będzie stworzyć jedną, by
móc porównać ją z drugą
b. W tym celu tworzymy nową grupę poprzez Rekodowanie zmiennych
c. Finalny raport

62
Analiza wyjaśniająca Kontrast
Kolejny przykład na bazie pliku alkohol

Pytanie badawcze: Czy zaburzenia w których występują urojenia różnią się poziomem
omamów od tych z zaburzeniami, w których nie występują urojenia

(Urojenia występują w alkoholowym zespole abstynencyjnym i schizofrenii, a nie występują


w depresji i zaburzeniach organicznych)

Hipoteza: Grupa alkohol + schizofrenia VS depresja + organika

(Grupy alkohol i schizofrenia będziemy łączyć w jedną, zaś grupy depresja i organika w
drugą)

Nasze wagi, które chcemy dać:

Alkoholowy zespół Depresja Organika Schizofrenia Suma


abstynencyjny

-1 1 1 -1 0

Etykiety wartości:

ANOVA + Kontrasty

Analiza → Średnie → Jednoczynnikowa ANOVA


Zmienna zależna: Omamy 1 (w toku badania badamy jak zmienia się poziom odczuwanych
omamów)
Czynnik czyli Zmienna niezależna: Grupa kliniczna, czyli badane przez nas grupy

Grupy kliniczne ZAWSZE będą zmienną niezależną

63
Opcje → Opisowe + Testy jednorodności wariancji + Wykresy średnich

Kontrasty; odpowiednie przypisanie wag:

Pokazuje się Raport

Naszymi średnimi i odchyleniami zajmiemy się później

64
Cały czas patrzymy tylko i wyłącznie na wiersz bazując na średniej

Test Levene’a wynosi 0,001, a to oznacza, że jest istotny (p < 0,05), mamy wariancje
niejednorodne

Wariancje są niejednorodne olewamy tabelkę ANOVA, sami musimy wprowadzić korektę,


więc robimy mocne testy średnich

Analiza → Jednoczynnikowa ANOVA → Opcje


Wybieramy jeden z testów Welcha lub Browna-Forsythe’a, który jest to całkowicie obojętne
i zależy tylko od nas

Znowu pojawił się Raport

Wynik jest istotny (p < 0,05), to oznacza, że gdzieś w tych czterech grupach są różnice.

65
Nie obchodzi nas, które grupy się różnią między sobą dokładnie, nas obchodzi sprawdzenie
czy grupy urojeniowe różnią się od tych, które są nie urojeniowe
(Ową dokładność, dokładną różnicę mówimy SPSSowi właśnie poprzez nadanie wag;
skonkretyzowanie o co nam chodzi)

Trick: Robiąc ANOVę zawsze można zaznaczyć, któryś z tych dwóch testów i po prostu z
nich nie skorzystać, jeśli wyjdą z ANOVy wariancje jednorodne, ale to trick jak się dobrze
czyta p

Czytamy z tabelki z wiersza drugiego, czyli Brak założenia o równości wariancji,


ponieważ Test Levene’a, z tabelki Testy jednorodności wariancji wyszedł istotny, co
oznacza wariancje niejednorodne

A więc widzimy, że wynik z Istotność wyszedł istotny, <0,001 (p < 0,05), a to oznacza, że
nasza hipoteza potwierdziła się, grupy urojeniowe istotnie różnią się poziomem omamów od
grup, które urojeń nie mają

t(31,232) = 4,86; p < 0,001

Wyniki

Znowu mamy problem ze średnimi. Należy utworzyć odpowiednie grupy → zmienną grupa
kliniczna trzeba podzielić na grupę 1, w skład której wchodzą grupy alkoholowe i
schizofrenia, oraz grupę 2, w skład której wchodzą grupy depresja i organika. A więc należy
przeprowadzić Rekodowanie zmiennych

Nasze grupy Co chcemy uzyskać


1 1
2 2
3 2
4 1

Rekodowanie

Przekształcenia → Rekoduj na inne zmienne

Zmienna numeryczna -> wynikowa, to zmienna, którą chcemy po prostu zrekodować


Do ustawienia jest nazwa i etykieta, koniecznie trzeba pamiętać o tym, by kliknąć Zmień,
inaczej nic nam z tego nie wyjdzie

66
Dalej klikamy Wartości źródłowe i wynikowe

Grupa 1: Alkohol i Schizofrenia (1 i 4)


Grupa 2: Depresja i Organika (2 i 3)

Czy zmienna się utworzyła widać w Bazie, w Zmienne, bo na samym dole powinna być.
Aby było ładniej i czytelniej można dodać sobie etykiety wartości naszej nowej zmiennej.
Bez tego w raporcie przy średnich w tej zmiennej będzie 1.00 i 2.00 a nie np. “Alkohol i
depresja” oraz “Depresja i Organika”, nazwać jak tylko nam się chce. Nadanie nazwy
etykiecie zmienia to 1.00 i 2.00 w raporcie

67
A teraz czas uzyskać odpowiednie średnie do raportu

Analiza → Średnie → Średnie

Koniecznie należy pamiętać, by w zmienną niezależną dać NASZĄ NOWĄ ZMIENNĄ, a


nie starą

Wypluwa raport

Teraz możemy pisać raport końcowy, bo mamy wszystko co trzeba

68
Grupa urojeniowa (M = 1,50; SD = 1,34) istotnie różni się od grupy nieurojeniowej (M = 0,14;
SD = 0,45) w poziomie omamów itd oficjalne blebleble

Jak sprawdzić czy dobrze zrekodowało się zmienne?

Analiza → Opis statystyczny → Tabele krzyżowe

Raport

69
Chodzi o stosunek ilości badanych osób, czy to nam się nie pogubiło, czy jest tyle osób w
grupach ile być powinno

W grupie Alkohol i Schizofrenia mamy 26 osób, a w grupie Depresja i Organika 22. Patrząc
na tabelę krzyżową widzimy, że wszystko jest jak trzeba, że w każdej grupie jest tyle
badanych osób ile trzeba

Sumarycznie co krok po kroku robić


5. Robimy ANOVę i w tym samym okienku jednocześnie Kontrasty
6. Interpretujemy ANOVĘ
a. Jeśli test Levene’a wychodzi nieistotny mamy wariancje jednorodne, czytamy
z tabelki ANOVA
b. Jeśli test Levene’a wychodzi istotny mamy wariancje niejednorodne, olewamy
tabelkę ANOVA, robimy mocne testy równości
c. ANOVA mówi nam o tym czy są różnice, czy nie. Po prostu ją robimy, zależy
nam tak naprawdę na tabelce Testy jednorodności wariancji, nie na
reszcie z ANOVY
7. W zależności od istotności z tabelki Testy jednorodności wariancji wybieramy
odpowiedni wiersz tabelki Testy kontrastu
a. Test nieistotny to założono równość wariancji
b. Nieistotny to nie założono równości wariacji
8. Zapis wyniku
a. Z racji charakterystyki kontrastu, z kilku grup trzeba będzie stworzyć jedną, by
móc porównać ją z drugą
b. W tym celu tworzymy nową grupę poprzez Rekodowanie zmiennych
c. Finalny raport

Kroki analizy
1. Eksploracja + częstości
2. Anova – sprawdzenie jednorodności wariancji
3. Jeśli konieczne – mocne testy średnich Kontrast – odczytanie odpowiedniego
wiersza
4. Rekodowanie zmiennej niezależnej
5. Tworzenie wykresu
6. Tworzenie raportu

Co oznacza ortogonalność kontrastów?


Gdy chcemy sprawdzić kilka kontrastów:
● Kontrasty muszą być niezależne od siebie
● Dany kontrast nie może zawierać tego samego porównania, co pozostałe kontrasty -
zarówno całości, jak i jego części,
● Każdy kontrast opisujemy za pomocą wag
● Wagi muszą być przypisane do każdej grupy - jeśli chcemy którąś grupę wyłączyć z
analizy, nadajemy jej wagę 0
● Suma wag musi wynosić 0!

70
71
Ilość kontrastów
● W każdej bazie można zrobić więcej niż jeden kontrast, można zrobić kilka
● Dla każdej bazy danej jest ograniczona ilość kontrastów
● Jest na to wzór K - 1, co oznacza Liczba grup - 1
● Dla tej bazy, gdzie mamy alkohol, depresję, organikę i schizofrenię możemy zrobić
maksymalnie 3 kontrasty

72
Alkohol Depresja Organika Schizofrenia Suma

3 -1 -1 -1 0

To nasz pierwszy kontrast. Widzimy, a że nam nic nie wyszło, nie różni nam się.
Sprawdzaliśmy czy alkohol się różnił, ale nie, nie wyszło nam, alkohol nie różni się od tych
grup więc chcemy zrobić kolejny kontrast. I chcemy sprawdzić, czy alkohol i depresja różnią
się od schizofrenii i depresji, lub w tych trzech grupach itd. Ale pewnych kontrastów
przeprowadzić już się nie da. Dlaczego?

73
Bo wywalamy cały jeden kawałek, ten alkohol, wyjmujemy go i już nie da się porównać
alkohol plus organika vs depresja i schizofrenia. Już się nie da dokleić tego, co już
kontrastem się wyjęło, jego już nie ma. Każdy kontrast “odcina kawałek”

Alkohol Depresja Organika Schizofrenia Suma

3 -1 -1 -1 0

0 -1 -1 -2 0

Depresja i organika vs schizofrenia. To robimy kolejny kontrast nad schizofrenią. I znowu po


tym kontraście wylatuje nam kawałek, nie ma schizofrenii.

Alkohol Depresja Organika Schizofrenia Suma

3 -1 -1 -1 0

0 -1 -1 -2 0

0 -1 1 0 0

No i znowu okrajamy. Zrobiliśmy 3 kontrasty i nie da się więcej, bo zabrakło tych kawałków

Zasada ortogonalności kontrastów


● Każde porównanie jest niezależne od siebie
● Jak oddzielimy jedną grupę to nie da się jej już dołączyć, jak się odkleiło kontrastem
grupę alkohol to nie da się jej już przyłączyć
● Nie można w żaden sposób dodać odklejaniem kontrastem części
● Jak już mamy ten problem to zamykamy bazę i otwieramy ją na nowo i od zera
pracować na tej bazie
● Wzór to K-1, liczba grup-1 tutaj 4-1 daje 3, max 3 kontrasty w tej konkretnie bazie
● Ale te wielokrotne kontrasty to wyciskanie z danych ile tylko się da, drążenie ile tylko
się da, ale to raczej dla upierdliwego badacza
● Aby zrobić kolejny kontrast to w tej tabelce kontrastów po prawej jest Kolejny

Kolos zadanie być może: tabelka i wypisz wszystkie kontrasty wedle pomysłów

Jak wygląda w raporcie zapis kontrastów?


● Tak jak w Teście t
○ t(31,972) = 3,25; p < 0,001

74
Propozycje własne

Miłość Przyjaźń Brak uczuć Nielubienie Nienawiść Suma


się

4 4 0 -4 -4 0

4 -1 -1 -1 -1 0

Sprawdzenie rozkładów normalności dla każdej zmiennej

Analiza → Opis statystyczny – Eksploracja

75
Do listy czynników wrzucamy zmienną niezależną
Do zmiennych zależnych wrzucamy zmienną zależną

Przechodzimy do Wykresy i zaznaczamy wykresy normalności z testami

Dalej → Ok

Wypluwa nam raport:

76
Dla prób, gdzie df < 100 wybieramy Shapiro-Wilka
Dla prób, gdzie df > 100 wybieramy Kołmogotowa-Smirnowa

Wynik z Istotności:
Istotny (p < 0,05) oznacza, że rozkład istotnie różni się od normalnego, rozkład nienormalny
Nieistotny oznacza brak istotnych różnic, rozkład normalny

Tutaj:
jazz p = 0,236 → wynik nieistotny, brak różnic względem rozkładu, rozkład normalny
klasyka p = 0,615 → wynik nieistotny, brak różnic względem rozkładu, rozkład normalny
Gdyby było np. p = 0,023 → wynik istotny, rozkład istotnie różni się od normalnego, rozkład
nienormalny

Rozpisujemy które grupy są normalne, a które nie, każdą z osobna

77
Analiza trendu - analiza zależności liniowej
Teoria

Analiza trendu czyli analiza zależności liniowej - jak zmienia się liniowość, zależność, jaki
kształt linii wpasowuje się do naszych danych

Jakie są kształty linii?


Odpowiadają funkcjom liniowym

Wszystko liczy SPSS, więc nie musimy tego dokładnie znać

Funkcja kwadratowa: np. jeśli jesteśmy nocnymi markami to z rana nasza energia spada,
zaś na wieczór rośnie
Funkcja liniowa: np. im więcej kofeiny się pije, tym bardziej jest się pobudzonym
Itd

Najłatwiej to zobrazować na wykresach na słupkach, łącząc je ze sobą linią:

78
Tutaj wynik ANOVY nie jest istotny bo:
● My nie chcemy sprawdzić czy grupy się różnią
● Chcemy po prostu zobaczyć w jaki kształt się układają te średnie
● W zapisie trzeba napisać wynik ANOVY, ale nie jest on znaczący
● Analizę trendu robi się jak kontrast, ale łatwiej bo nie będzie żadnego kodowania
● Zmienna niezależna musi być przynajmniej porządkowa! (mniej niż porządkowa to
nominalna)
○ Badamy przyrosty i spadki zmiennych
○ Musimy mieć porządkować, koniecznie porządkowość!
○ Musi nam się to przecież ładnie ułożyć

Trendy (my robimy do trendów czwartego stopnia, dalej nie ma sensu)

Liniowy:
● Najbardziej znany, podobnie wygląda korelacja - linia, która oznacza, w którą stronę
zmieniają się zmienne
● Linia wpasowuje się w wykresy, widać zależność

79
Kwadratowy:
● Odchylone wyniki to te, które są odchylone od linii, to oznacza, że funkcja liniowa nie
spisze się dobrze w opisaniu ich, lepiej się sprawdzi kwadratowa

Szcześcienny:

Czwartego stopnia:

80
Po co nam tyle stopni?
● Bo zależy nam, aby opisać jak najwyższym stopniem, by ta funkcja jak najściślej
przylegała do naszych danych
● Badamy, którego stopnia wielomian najlepiej opisze nam nasze dane
● Staramy się je dobrać tak, by “przylegał jak kocyk, nie karton” - żeby idealnie
przykrywał nasze dane, żeby nie odstawał
● SPSS powie nam wszystko co chcemy, nie musimy sami trudzić się w znajdowanie
odpowiedniego wielomianu

Analiza trendu - analiza zależności liniowej


Na bazie pliku viagra

Hipoteza do postawienia w analizie trendu:


Wpierw można sobie spojrzeć na wykres i na oko oszacować jaki będzie dobry, ponieważ
musimy wpierw postawić hipotezę, która brzmi mniej więcej “naszą zależność najlepiej
ukazywać będzie funkcja liniowa”. Musimy tę hipotezę wpierw wysnuć, nie zgadnąć

Robimy wykres tak samo jak zazwyczaj


(Wykresy → Wykresy tradycyjne → Słupkowy → Definiuj → Inna statystyka opisowa → Oś
kategorii to zmienna niezależna, Zmienna to zmienna zależna → Opcje → Pokaż słupki
błędów → Ok → Dalej)

Powstał wykres:

I teraz możemy poanalizować sobie średnie, by dopasować do nich

Analiza → Średnie → Jednoczynnikowa ANOVA

81
Teraz przechodzimy do analizy trendów, którą robi się w Kontrasty (nie klikamy Ok,
zostajemy w tym okienku i robimy wszystko naraz, tak samo jak przy kontrastach)

Klikamy oczywiście wielomian


Jednakże obok mamy stopień, czyli wybieramy tutaj do którego maksymalnie stopnia
chcemy by analiza nam wykazała

Jak go dobrać?
● Patrzymy jak nasza zmienna się łamie, na ile odcinków. Jak mamy 4 kropki i
połączymy je kreskami, to wyjdzie nam sumarycznie 3 odcinki

82
● Nie stworzy nam się nigdzie indziej na tym odcinku załamanie, więc to odcinki
łączące punkty są wyznacznikiem

Jednakże bardziej profesjonalnie:


● Najwyższy wielomian jaki możemy uzyskać to poziomy naszej zmiennej-1
○ Placebo, niska dawka, wysoka dawka i podwójna dawka to sumarycznie 4,
nasza zmienna ma poziom 4
○ Poziom zmiennej-1, to 4-1 czyli 3
○ Maksymalny to 3
○ A więc wybieramy trzeci

Trick
● SPSS i tak dobiera sam. Można po prostu zaznaczyć największy możliwy jaki
podpowiada, czyli piąty to SPSS zrobi tyle takie jakie są możliwe dla tej analizy więc i
tak czy siak zrobi
● Ale i tak lepszy jest sposób wyżej

Jeśli w hipotezie jest jasno powiedziane, że liniowy, to możemy zatrzymać się tylko na
liniowym, ale to nie jest polecane, bo może się okazać, że jednak wyższy lepiej opisze, a my
właśnie dążymy do tego, by opisać dane jak najwyższym, bo to jak najwyższy możliwy
“przylega szczelnie jak kocyk nie karton” i najlepiej opisuje

Dalej → Ok

83
Wypluwa nam raport, została nam już tylko i wyłącznie interpretacja wyników:

Wpierw olewamy pierwsze dwie tabelki, czyli Statystyki opisowe i Testy jednorodności
wariancji, nas interesuje kształt, który znajdziemy w tabelce Jednoczynnikowa ANOVA

Zapis wyniku analizy ANOVA (nie jest to obowiązkowe ale na kolokwium za to będzie
punkt)

Z wiersza Połączone zapisujemy wynik ANOVY, jeśli chcemy wiedzieć czy grupy różnią się
między sobą, czy te różnice są
F(df między grupami, df wewnątrz grup) = F; p = Istotność
F(3,47) = 84,60; p < 0,001

84
Analiza tej tabelki - który trend najlepiej opisuje
● Zasada jest taka, że idziemy od dołu do góry (bo na dole jest największy możliwy, a
nam zależy na znalezieniu największego pasującego)
● Pierwsze na co patrzymy to istotności
● Kiedy wyskakuje ważone to wpisuje ważone, a jak nie wyskoczy to nie
○ Ważone bierze pod uwagę to, że grupy są nierównoliczne, a jak będą
równoliczne to SPSS nawet nam dla nierównolicznych nie pokaże
○ Zasada jest taka, że kiedy pojawia się nam Ważone to wpisujemy
właśnie z wiersza ważone, a jak nie ma, to z nieważone
○ Ważone to nierównoliczne, nieważone nierównoliczne

Wynik dla składnika sześciennego ważonego (p = 0,694) jest nieistotny, to oznacza, że


odrzucamy
Składnik kwadratowy ważony (p < 0,001) jest istotny → Mamy to
Naszą zależność opisuje najlepiej funkcja kwadratowa, wielomian drugiego stopnia

Zasada
● Bierzemy pierwsze istotne idąc od dołu
● Dla dociekliwych: ważne jest to, by odchylenie było nieistotne
○ Gdy byłoby istotne odchylenie, to oznaczałoby, że istotnie nasze zmienne
odchylają się od naszej funkcji, te słupki istotnie odchylają się od funkcji, co
oznacza, że nie opisuje najtrafniej owy wielomian
● A więc patrząc dalej:
○ Tutaj się cieszymy, że odchylenie składnika kwadratowego ważonego jest
nieistotne 84,917

Zapis wyniku
F(1,47) = 27,56; p < 0,001

85
Robimy dwa wykresy, jeden dla poshoca a drugi dla kontrastu

Ulepszenie wykresów:

Lewy przycisk myszy raz na konkretny słupek, aby zaznaczył się tylko on i wtedy można u
góry w na pasku zmienić kolor konkretnego słupka, by dać efekt:

86
Ściągawka do ANOVY

Jak wygląda hipoteza dla poshoca? Np. Wyniki z egzaminu wzrastają wraz z maleniem
poziomu lęku

87
Dwuczynnikowa ANOVA
Teoria

Jaka jest różnica między schematem jednoczynnikowym a wieloczynnikowym?

Chodzi o to, że będzie więcej niż jedna zmienna niezależna. W dwuczynnikowej


ANOVIE są dwa czynniki, czyli dwie zmienne niezależne

Ważne dla nas jest to na ilu poziomach mierzone są nasze zmienne.

Np zmienna płeć (K,M [2 poziomy]) 3 kolory oczu (niebieski, zielony, brązowy [3 poziomy])
● To daje nam 6 grup badawczych
● Pierwszy czynnik to 2 poziomy, drugi to 3, 2x3 = 6
● Nazywa się to interakcja czynników

Ile jest grup badawczych w poniższych zmiennych niezależnych?


● 2 (preferencje: piłka, hokej) x 3 (wykształcenie: techniczne, humanistyczne, ogólne)
○ 6
● 3 (osobowość: N; P; E) x 5 (grupa: 0V; 10V; 20 V; 30V; 40V)
○ 15

Zapis:
poziomy zmiennej 1 x poziomy zmiennej 2

88
Gdybyśmy robili kilka razy jednoczynnikową ANOVę, to nie wzięlibyśmy w analizach pod
uwagę owego czynnika wspólnego. Najpierw badalibyśmy płeć, potem kolor oczu, ale nie
wzięlibyśmy pod uwagę płeć i kolor oczu jednocześnie. Zabrakłoby czynnika współnego,
który określany jest mianem czynnika interakcji

Efekt interakcji - ta część wspólna, część zmienności, którą tłumaczy płeć i kolor oczu
jednocześnie

Trzecia zmienna, czyli moderator, która zmienia kierunek i istotność


● Zmienia to co się dzieje między danymi
● Uzupełnienie o moderator pokazuje nam co dokładnie się dzieje w tych danych, tak
jak w przykładzie na dole widać, że dodanie np wieku dziecka, statusu społecznego
może wyniki moderować, zaburzać
● Dostarcza nam o wiele więcej informacji

Efekty

89
Efekt główny 1 - tutaj Jaka płeć wpływa na wyniki (KM) (olewamy kolor oczu)
Efekt główny 2 - jak wpływa kolor oczu (olewamy płeć)
Efekt interakcji - efekt płci i koloru oczu na raz

Najbardziej interesuje nas efekt interakcji, właśnie w tym będziemy siedzieć, efekty główne
to jednoczynnikowa ANOVA, a w dwuczynnikowej siedzimy nad efektem interakcji

W efektach robimy przeważnie wykresy liniowe

O efekcie interakcji mówimy, kiedy widzimy, że te linie na wykresie liniowym będą się
przecinać, bo nam to pokaże, że w pewnym momencie te średnie zamieniają się miejscami;
dla jakiejś wartości zmiennej kobiety będę miały lepsze wyniki ale w pewnym momencie
odwróci się to i mężczyźni będą mieli

O braku efektu interakcji mówimy wtedy, gdy te linie się nigdy nie przetną, że będą
równoległe, nie będzie interakcji nie dojdzie do żadnej zamiany

90
Jeśli ktoś preferuje wykresy słupkowe to owszem można przenieść to bez problemu na
słupki

I tutaj widać, że nam się te line również przecięły

91
Na dole rozbite dla poszczególnych czynników → widać, że się to przekłada, bo bierzemy to
ze średnich 6 + 9 = 15/2 = 7,5, ale ważniejsze będzie z spssa

Przede wszystkim widać, że gdy bierzemy wszystko razem pod uwagę niż osobno to
wychodzi co innego bo badamy trochę inne rzeczy. Sam kolor czy sama płeć to
jednoczynnikowa, dwuczynnikowa to i płeć i kolor oczu

Dwuczynnikowa ANOVA
Na bazie agresja

Przykładowe Hipotezy dla efektu interakcji

H₃: Studenci pijący piwo są mniej agresywni niż kibice pijący piwo, ale przy piciu wódki to
studenci są bardziej agresywni niż kibice

H₃: Pijący wódkę kibicie są bardziej agresywni od studentów, ale pijąc piwo studenci są tak
samo agresywni jak kibice

Dwuczynnikowa ANOVA

Ogólny model liniowy → Jednej zmiennej

92
Wchodzimy w jednej zmiennej ponieważ mamy jedną zmienną zależną

W okienku do zmiennej zależnej wrzucamy naszą zmienną zależną, czyli poziom agresji,
natomiast czynniki stałe to zmienne niezależne, gdzie je oczywiście wrzucamy, obie. Cała
reszta pod spodem nas nie interesuje

Z ciekawości: czynniki losowe to czynniki, które nie występują dla całej grupy, np badamy 50
osób w laboratorium, ale dla 3 osób, które akurat robiły hałasowała koparka, więc to jest ten
czynnik rozpraszający, czynnik losowy tylko dla tych 3 osób, który mógł im przeszkodzić i
zaburzyć wyniki

Trzeba wejść jeszcze w Opcje, gdzie ważne są statystyki opisowe, testy jednorosjości i
oceny wielkości efektu i Dalej

93
Zostajemy w okienku jednej zmiennej. To co trzeba zrobić to wykresy. Od razu możemy robić
max 3 wykresy. Jednej dla efektu głównego, drugi dla drugiego i trzeci dla efektu interakcji.
W tym okienku Wykresy

Jako pierwszy będzie dla efektu głównego grupy, czyli w której grupie było więcej agresji
studenci czy kibice. Grupa wrzucamy do do oś pozioma i dodaj. Tutaj weźmiemy wykres
słupkowy bo słupki błędów są lepsze niż na liniowym. Kolejny analogicznie dla alkohol. I
ostatni jaki chcemy dać to dla interakcji. Jedna zmienna na oś pozioma druga na oddzielne
linie, która gdzie nie ma to żadnego znaczenia, obojętnie i dodaj

94
Finalnie okienko wygląda tak:

Dalej → Okej

Raport:

Mamy tutaj średnie dla każdej z naszych grup. Do tego mamy ogółem dla kibiców i
studentów, a na dodatek ogółem dla każdego alkoholu. W tych statystykach opisowych
mamy wszystko co trzeba, by móc opisać nasze efekty

Dalej mamy klasycznie test Levene’a


● Zapisuje się go tak samo jak w jednoczynnikowej ANOVIE
● Nie jest nam do niczego potrzebny, jedynie go zapisujemy

95
● Ten test Levene’a nie liczy równości wariancji dla efektów interakcji dlatego jest nam
zbędny, ale zapisać go trzeba i tylko to
● Zapisujemy i olewamu

Bardzo ważna tabelka to Testy efektów międzyobiektowych. Jednakże sporą jej część
olewamy. To co ważne to to co w niebieskim, czerwone olane:

Efekt główny grupy: F(1,36) = 29,68; p < 0,001; etap² = 0,45


Efekt główny alkoholu: F(1,36) = 5,86; p = 0,021; etap² = 0,14
Efekt interakcji: F(1,36) = 131,68; p < 0,001 etap² = 0,79; —> 79%

96
Tutaj jest coś nowego, coś co jest bardzo ważne. Eta², które mówi nam o sile efektu

Siła efektu - Jak łatwo możemy dane zjawisko zaobserwować

97
0 - nie ma efektu
1 - silny efekt

Używamy ETA P KWADRAT!

Także uwaga my używamy Eta P Kwadrat

Etap² = 0,761 to 67%, czyli efekt wyjaśnia 67% zróżnicowania wyników → 67%
zmienności wyników umożliwia przewidywanie efektu

98
Czyli u nas:

Efekt interakcji etap² = 0,79 79% jest największy ze wszystkich, dlatego możemy
powiedzieć, że efekt interakcji był najsilniejszym efektem w grupie, efekt interakcji najlepiej
wyjaśnia to co się u nas ze zmiennymi działo

Dodatkowo im bardziej rośnie eta tym spada istotność. Im bardziej coś jest istotne tym
większą ma siłę efektu

Efekt główny grupy wyszedł nam istotny F(1,36) = 29,68; p < 0,001; etap² = 0,45. Efekt ten
wyjaśnia 45% zmienności wariancji wyników. Wykazany istotny efekt główny alkoholu
F(1,36) = 5,86; p = 0,021; etap² = 0,14. Efekt ten wyjaśnia 14% zmienności wariancji
wyników. Efekt interakcji wyszedł istotny F(1,36) = 131,68; p < 0,001; etap² = 0,79. Efekt ten
wyjaśnia 79% zmienności wariancji wyników.

I na tym koniec. Do tego musimy robić analizę wyjaśniającą, czyli gdzie dokładnie są owe
różnice.

99
Oprócz tego jeśli zerkniemy do raportu, zobaczymy, że mamy zobrazowanie w postaci
wykresów:

Tak, kibicie są ogólnie bardziej agresywni

Tak, po wódce jest większa agresja

100
A tutaj już mamy dla efektu

101
Aby sprawdzić równoliczność grup należy zastosować test chi²
● Mamy grupy studenci swps pijący piwo, wódkę, kibice pijący piwo, wódkę, 4 grypy
● Ten test pozwoli sprawdzić czy w tych grupach jest po tyle samo osób
● Równoliczność będzie wpływać na nasze wyniki także musimy ją sprawdzić
● Nie jest bardzo kluczowe dla naszej analizy, jednakże warto to znać przede
wszystkim do magisterki, a także do porównania grup nominalnych bez
zmiennych ilościowych np. porównanie kolor oczu czy kobiety mają częściej
niebieskie czy zielone oczy to wtedy właśnie ten test

Ogólnie: Testu chi² używamy, gdy mamy zmienne nominalne

Analiza → Opis statystyczny → Tabele Krzyżowe

Pojawia nam się tabelka:

Przebadać chcemy zmienne niezależne wrzucamy je obojętnie w jakiej kolejności do


zmienne w wierszach i zmienne w kolumnach, nie ma całkowicie znaczenia, która gdzie

Następnie Statystyki i to właśnie tam będzie chi-kwadrat

102
Raport:

Grupy są równoliczne bo nie ma różnic w liczności w grup bo p = 1,000

Jeśli istotność asymptotyczna Chi-kwadrat Pearsona jest istotna to są różnice grupy


nierównoliczne, a jak nieistotna to nie ma różnic w liczebności grup, grupy równoliczne

Ogólnie widzimy w raporcie:

Jednakże interpretujemy tamtą tabelkę, bo możemy mieć o wiele więcej danych i


trudniejszych do określenia; tutaj to widzimy już od razu na oko

Wykresy skrzynkowe

103
Wykresy → Wykresy tradycyjne → Wykres skrzynkowy

Wybieramy zgrupowany, ponieważ mamy kilka grup, mamy więcej niż dwie grupy i Definiuj

Do zmiennej dajemy oczywiście zmienną zależną czyli u nas poziom agresji a do oś


kategorii oraz definiuj grupy według dajemy zmienne niezależne nie ważne w jakiej
kolejności, to obojętne i Okej

104
W raporcie dostajemy wykres:

Już możemy powiedzieć, że będziemy mieć interakcję. Wyobraźmy sobie, ze łączymy je


linią:

105
Owe linie nam się przecinają, a to oznacza interakcję

Kibice pijący piwo są bardziej agresywni niż studenci pijący piwo, jednakże kibice pijący
wódkę są mniej agresywni niż studenci pijący wódkę. Dochodzi do tej zamianki o której
mówiliśmy

Co nieco o wykresach skrzynkowych


● Mówią dużo o normalności rozkładu
● Czarna linia pośrodku skrzynek to mediana
● Np kibice i piwo to rozkład prawie idealnie normalny, czarna linia pośrodku
skrzyneczki i wąsy są takiej samej długości
● Kurtoza to szerokość skrzynki, skośność to długość wąsów dół-góra
● Równe wąsy to idealny rozkład

Skąd się biorą skrzynki?

106
W wykresie skrzynkowym uwagę zwraca owa kropka38 - jest to dewiant, czyli przypadek
odstający, osoba, która uzyskała bardzo dziwny, odstający od reszty wynik, tutaj bardzo ale
to bardzo spokojny kibic po wódce.

Może być taka osoba bo mogą być tu czynniki, które realnie wpłynęły na jego stan, np. wziął
wcześniej leki, był mocno zmęczony itd. i mógł być właśnie taki

Jednakże jeśli mocno się różni np. wszyscy mówią, że ważą 60/100 kg a ktoś robi 1300 kg
to owego dewianta usuwa się z tego wykresu

Jak usunąć dewianta?


● Ta osoba ma przypisany numer - 38, 38 wiersz po prostu
● Należy nałożyć filtr, musimy tę osobę odfiltrować
● Nasz filtr to: Bierz pod uwagę wyniki wszystkich osób, poza tą jedną

Dane → Wybierz obserwacje

Chcemy wprowadzić warunek: “Nie jesteś osobą z numerem 38”

107
Pokaże się:

Z wszystkie wybieramy interesujące nas polecenie CASENUM, dajemy potem ~= co


oznacza wszystko poza i nasz numer 38, czyli komenda brzmi “Daj mi wszystkie
casenumers przypadki, które nie są 38”. Dalej i ok

Mam w zmiennych nasz filtr

Na dole po prawej widzimy także, że jest włączony, plus jak wejdziemy w dane to widzimy,
że nie mamy 38

Możemy ją włączyć poprzez prawy przycisk myszy na liczby na wierszu i ukryj

108
Ta osoba się pojawi ale jako przekreślone

Jakby jeszcze raz zrobić nasz wykres skrzynkowy to wyjdzie bez owego dewianta

Sprawdzamy czy usunięcie tej osoby wpłynęło jakoś na nasze wyniki. Tak samo jak
dwuczynnikowa ANOVA

Analiza → Ogólny model liniowy → jednej zmiennej

Pojawia się:

Okej, bo filtr sam się dodał i właśnie dlatego tylko okej klikamy. Pojawia się na nowo nam
tabelka

109
I widzimy, że nam się zmieniło. Wzrosły istotności, eta kwadrat nam wszędzie wzrosło.
Dzięki wykluczeniu dewianta wzrosły nam efekty

Gdy się wyklucza osoby odstające, gdy się wyklucza dewiantów to nam efekty rosną. Więc
te przypadki odstające na luzie sobie można wykluczać to będziemy mieć większe efekty

110
A gdy chcemy z powrotem wprowadzić tę osobę to należy filt wyłączyć. Aby wyłączyć filtr
należy

Dane → Wybierz obserwacje

W okienku, które się pojawi kliknąć spowrotem wszystkie obserwacje i okej i to nam wyłącz
filt

111
Dwuczynnikowa ANOVA
Kolejny przykład na bazie alkohol

Tutaj hipoteza może być np:


H₃: Kobiety będące schizofreniczkami i kobiety mające depresję mają wyższy poziom
omamów niż mężczyźni będący schizofrenikami, ale mężczyźni, którzy mają alkoholowy
zespół abstynencyjny i mężczyźni, którzy mają zaburzenia organiczne mają wyższy poziom
omamów niż kobiety, które mają alkoholowy zespół abstynencyjny,

Analiza → Ogólny model liniowy → Jednej zmiennej

Pojawia się okienko, gdzie w zmiennej zależnej umieszczamy zmienną zależną, w


czynniki stałe dajemy zmienne niezależne

Wchodzimy w Opcje, gdzie zaznaczamy Statystyki opisowe, Testy jednorodności


wariancji i Oceny wielkości efektu

112
Następnie wchodzimy w wykresy. Jeśli wykresy dla efektów głównych to:
Dla płci to sex do osi poziomej i Dodaj, potem grupa do oś pozioma i Dodaj
Dla efektu interakcji:
Obojętnie które obojętnie do osi poziomej i oddzielnych linii i Dodaj
Potem w okienku zaznaczyć Wykres słupkowy, Uwzględniaj słupki błędów

113
Raport:

Zapis wyniku testu Levene’a

F(7;40) = 9,176; p < 0,001

Na tym rola Levene’a się kończy, dalej całkowicie go olewamy, nie robimy nic pod niego

Efekt płci: F(1;40) = 1,25; p = 0,271; etap² = 0,03


Efekt grupy: F(3;40) = 5,42; p = 0,003; etap² = 0,29
Efekt interakcji: F(3;40) = 0,74; p = 0,537; etap² = 0,05

Efekt wyjaśnia 5% zróżnicowania wyników

By opisać potrzebujemy jeszcze średnich, które są w tabelce, która w kolejności w raporcie


jest druga

114
Teraz tylko ładniej zrobić wykres, który w raporcie już nam się wygenerował

115
Proste efekty główne
Teoria

Gdy ANOVA wychodzi istotna, tudzież Efekt interakcji wychodzi istotny oznacza to, że
są różnice. ALE nie wiadomo gdzie. W tym celu należy przeprowadzić analizy
wyjaśniające czyli nasze proste efekty główne

Proste efekty główne wychodzą z efektu interakcji

Nie będziemy badać wszystkich tych efektów głównych. Badamy tylko jeden w zależności
od hipotezy!

Ilość prostych efektów głównych grupy zależy od poziomów zmiennych niezależnych.


Gdy mieliśmy np. 2x płeć (kobiety, mężczyźni) 3x kolor oczu (niebieski, zielony, brązowy), to
dało nam to 6 grup badawczych. Z tego samego bierzemy proste efekty główne. A będzie
ich 2 + 3, czyli 5

2 płeć (K,M), 2x kolor oczu (niebieski zielony) —> 2x2 = 4 grupy badawcze, 2+2 = 4 proste
efekty główne grupy
2 płeć (K,M), 5x kolor oczu (niebieski zielony czarny czerwony brązowy) —> 2x5 = 10 grup
badawczych, 2+5 = 7 prostych efektów głównych grupy

Wizualnie:

116
Hipoteza: Po alkoholu agresywniejsi będą studenci, natomiast po piwie kibice

Tutaj porównujemy tylko alkohol

Prosty główny efekt alkoholu to jaki alkohol powoduje większą agresję u kibiców, studentów

1. Jaki alkohol powoduje agresję w studentów


2. Jaki alkohol powoduje większą agresję u kibiców

Chodzi o efekt główny w tej grupce

Hipoteza: Studenci będą bardziej agresywni po wódce, natomiast kibice będą bardziej
agresywni po piwie

Tutaj mamy tylko i wyłącznie grupę

Prostu główny efekt grupy: która z tych grup studenci czy kibice są bardziej agresywni po
alkoholu

1. Która grupa jest bardziej agresywna na wódce


2. A która na piwie

Prosty główny efekt to w tej małej grupce

Po co wyjaśniać różnice, których nie ma? Nieistotna interakcja mówi nam, że nie ma
żadnych różnic

117
Różne możliwości tego jak te efekty przebiegają:

118
119
Proste efekty główne
Przykład na bazie pliku agresja

Tutaj tak naprawdę robimy dwuczynnikową ANOVę

Analiza → Ogólny model liniowy → Jednej zmiennej

Jak przy dwuczynnikowej zmienna zależna to zmienna zależna, czynniki stałe to zmienne
niezależne

Opcje tutaj jak tak samo zaznaczamy Statystyki opisowe, Testowanie jednorodności i
Oceny wielkości efektu

120
Wykresy
Tutaj tak samo jak wcześniej. Możemy sobie zrobić dla wszystkich trzech, efektu głównego
grupy (grupa w oś pozioma i dodaj), alkoholu (alkohol w oś pozioma i dodaj) i efektu
interakcji (grupa i alkohol w oś pozioma i oddzielne linie, gdzie co nie ma znaczenia,
obojętnie i dodaj). Zmnieniamy w typie wykresy na wykres słupkowy i zaznaczamy
uwzględnij słupki błędów

121
Raport:

F(3;36) = 0,903; p < 0,449

Na tym rola Levene’a się kończy, dalej całkowicie go olewamy, nie robimy nic pod niego

Efekt grupy: F(1;36) = 29,68; p < 0,001; etap² = 0,82


Efekt alkoholu: F(3;36) = 5,86; p = 0,021; etap² = 0,14
Efekt interakcji: F(3;36) = 131,68; p < 0,001; etap² = 0,79

Efekt wyjaśnia 79% zróżnicowania wyników

Istotność efektu interakcji jest mniejsza od p = 0,05, czyli efekt interakcji jest istotny, a to
oznacza, że przeprowadzamy proste efekty główne

Teraz będziemy badać proste efekty główne alkoholu albo grupy, tutaj wybór należy do nas,
a tak naprawdę wybór zależy od postawionej hipotezy.

122
Tip na pracę domową czy kolosa: zrobić sobie najpierw analizę a potem postawić na
podstawie tego co wyjdzie hipotezę

My sobie zbadamy prosty efekt główny grupy

H1: Studenci są bardziej agresywni pod wpływem wódki, natomiast pod wpływem piwa
bardziej agresywni są kibicie

Aby uzyskać ów efekt:

Analiza → Ogólny model liniowy → Jednej zmiennej

Pojawia nam się okienko nasze już uzupełnione z wcześniej

Wchodzimy w średnie EM

123
Zajmujemy się teraz interakcją, więc przerzucamy nasz efekt interakcji czyli grupa*alkohol
do pokaż średnie dla i Dalej

Wracamy do okienka, które było wcześniej ALE nie klikamy Ok, to jeszcze nie wszystko!
Zamiast tego klikamy Wklej co otworzy nam okno komend syntaxa, gdzie można sobie
poprogramować w SPSSie i wszystko co się klika przyciskami można napisać ręcznie

Wygląda to tak

Dlaczego nie klikamy przyciskami? Niestety SPSS nie ma guzików do wyklikania prostych
efektów głównych, więc musimy zrobić to ręcznie

Po pierwsze skupiamy się na wierszu, gdzie znajduje się


/EMMEANS=TABLES(grupa*alkohol)
u nas wiersz 7, czyli to miejsce, gdzie my klikaliśmy średnie EM

Musimy SPSSowi powiedzieć, że chcemy, by on dodatkowo dla tej interakcji pokazał


jeszcze proste efekty główne w tej interakcji

Robimy to poprzez dopisanie komendy w tym wierszu po spacji:


compare(grupa) adj(SIDAK)

124
Jakbyśmy chcieli alkoholu to zamiast grupa to alkohol. Owe adj to poprawka i w nawiasie
Sidaka. Przeprowadzamy efekty z poprawką Sidaka, co też trzeba było zrobić komendą

Całość powinna brzmieć:


/EMMEANS=TABLES(grupa*alkohol) compare(grupa) adj(SIDAK)

Teraz musimy kazać SPSSowi wykonać tę operację. Należy zaznaczyć cały tekst i kliknąć
duży zielony trójkąt, aby odpalić naszą komendę

I pokaże się raport, gdzie SPSS wykonał te same operacje plus kilka nowych tabel. Jak
chcemy szybko przeskoczyć możemy użyć spisu treści. Proste efekty główne kryją się pod
Oszacowane średnie brzegowe

Porównania parami to najważniejsza tabelka do interpretacji. Jest jak w posthocu - mamy


gwiazdki, które mówią nam, co się ze sobą różni, tam gdzie gwiazdka tam różnica.
Dodatkowo na podstawie znaku (+/-) widzimy, w którą stronę następuje ta zmiana

Patrząc na to klaruje nam się jak formułować hipotezy:


Kiedy mamy do czynienia z prostym efektem głównym grupy to kiedy formułujemy
stwierdzenie na temat efektu jak formułujemy hipotezę to wyobrażamy sobie, że idziemy od
lewej do prawej z kolumnami (i) oraz (j):

125
H1: W grupie osób pijących piwo studenci swpsu byli mniej agresywni niż kibice, natomiast
w grupie osób pijących wódkę kibice byli mniej agresywni niż studenci

Jakby było na odwrót czyli prosty efekt alkoholu:

H1: W grupie studentów swps piwo wywoływało mniejszą agresję niż wódka, natomiast w
grupie kibiców legii większą agresję wywoływało piwo

I opis do grupy:

Wśród osób pijących piwo studenci swps (M = 3,02; SD = 0,38) mieli mniejszy poziom
agresji niż kibice legii (M = 9,45; SD = 0,38), natomiast wśród osób pijących wódkę studenci
swps (M = 8,30; SD = 0,38) byli mieli wyższy poziom agresji od kibiców legii (M = 6,01; SD =
0,38).

Natomiast opis dla efektu alkoholu:

W grupie studentów swps, piwo (studenci pijący piwo M = 3,02; SD = 0,38) wywoływało
mniejszy poziom agresji niż wódka (studenci pijący wódkę M = 8,30; SD = 0,38), natomiast
w grupie kibiców to wódka (kibice pijący wódkę M = 6,01; SD = 0,38) wywoływała mniejszy
poziom agresji niż piwo (kibice pijący piwo M = 9,45; SD = 0,38).

Zapisanie wyników prostych efektów głównych:


Jak posthoc. Nie ma zapisu liczbowego, po prostu zapisujemy, gdzie są różnice

126
Grupa studentów pijących piwo (M = 3,02; SD = 0,38) istotnie różni się poziomem agresji od
grupy studentów pijących wódkę (M = 8,30; SD = 0,38) i grupa kibiców piwo (M = 9,45; SD =
0,38) istotnie różni się od grupy kibiców pijących wódkę (M = 9,45; SD = 0,38).

Ale generalnie to, że są różnice jest już zawarte w formułce o tym jakie są różnice. Więc to
co zapisujemy to formułka nie ta wyżej a ta jeszcze wyżej

ALE UWAGA SĄ SYTUACJE, W KTÓRYCH NIE MOŻNA UFAĆ TABELCE STATYSTYKI


OPISOWE

Czasami się zdarzy, że grupy będą nierównoliczne i będą duże różnice między liczebnością
osób badanych w grupie. Wtedy tej tabelki użyć nie można. Aby robić metodą wyżej zapis
średnich i odchyleń trzeba mieć pewność, że grupy równoliczne są, tym samym trzeba
byłoby zrobić test chi² i na tej podstawie dopiero decydować. Akurat w naszym przypadku
grupy są równoliczne, ale wcale tak być nie musi.

Gdy mamy grupy nierównoliczne tę tabelkę olewamy i sami musimy te średnie uzyskać.
Musimy ponieważ są one przekłamane dla grup nierównolicznych, ponieważ w dalszych
obliczeniach SPSS używa sam innych średnich tylko nam ich nie podaje.

Tip: nie musimy się bawić w chi² a tym bardziej w “na oko”, po prostu możemy zawsze olać
tę tabelkę i zawsze uzyskać średnie samemu

Jak te średnie uzyskać?

Analiza → Ogólny model liniowy → Jednej zmiennej


W okienku wchodzimy w Średnie EM

“Oszacowane średnie brzegowe” z nazwy okienka to dokładnie tak nazywają się owe
średnie, którymi SPSS operuje, te nieprzekłamane, o którym sam nam nie mówi, te które
uzyskać chcemy

Chcemy dostać prawidłowe średnie dla efektów głównych więc wrzucamy w Pokaż
średnie dla naszą grupę oraz alkohol. Był tam już nasz efekt interakcji i trzeba go przerzucić
z powrotem do czynniki i i interakcje czynników

127
Dalej i okej

Tip: tego kroku nie trzeba robić oddzielnie. Można zrobić go w momencie, w których po raz
pierwszy byliśmy w średnich EM, przed odpaleniem okna komend syntaxa
Raport:

Korzystamy z dwóch tabel:

To co można zauważyć to to, że nie ma tutaj odchylenia. Ale nie musimy go podać, możemy
podać błąd standardowy, czyli Se → (M = …; Se = )

Czyli nasze zapisy będą brzmieć:

Wśród osób pijących piwo studenci swps (M = 5,66; Se = 0,27) mieli mniejszy poziom
agresji niż kibice legii (M = 7,73; Se = 0,27), natomiast wśród osób pijących wódkę studenci
swps (M = 5,66; Se = 0,27) mieli wyższy poziom agresji od kibiców legii (M = 7,73; Se =
0,27).

128
I:

W grupie studentów swps, piwo (M = 6,24; Se = 0,27) wywoływało mniejszy poziom agresji
niż wódka (M = 7,16; Se = 0,27), natomiast w grupie kibiców to wódka (M = 7,16; Se = 0,27)
wywoływała mniejszy poziom agresji niż piwo (M = 6,24; Se = 0,27).

129
Dwuczynnikowa ANOVA + proste efekty główne
Kolejny przykład na bazie alkohol

Zmienna zależna: pot_1 czyli potliwość pomiar 1


Zmienne niezależne: sex czyli płeć i grupa2 czyli grupa omamowa, grupa kliniczna złożona
z osób, które mają schizofrenię i alkoholowy zespół abstynencyjny (omamowa) oraz osób z
depresją i organiką (nieomamowa)

Dla efektu płci:


H1: W grupie osób, które mają schizofrenię i alkoholowy zespół abstynencyjny kobiety
wykazują wyższy poziom potliwości niż mężczyźni, natomiast w grupie osób mających
depresję i zaburzenia organiczne to mężczyźni wykazują wyższy poziom potliwości

Analiza → Ogólny model liniowy → Jednej zmiennej

Jak przy dwuczynnikowej zmienna zależna to zmienna zależna, czynniki stałe to zmienne
niezależne

130
Opcje tutaj jak tak samo zaznaczamy Statystyki opisowe, Testowanie jednorodności i
Oceny wielkości efektu

Wykresy
Tutaj tak samo jak wcześniej. Robimy wykres dla efektu interakcji (sex i grupa w oś
pozioma i oddzielne linie, gdzie co nie ma znaczenia, obojętnie i dodaj). Zmnieniamy w
typie wykresy na wykres słupkowy i zaznaczamy uwzględnij słupki błędów

131
Raport:

F(3;44) = 12,07; p < 0,001

Na tym rola Levene’a się kończy, dalej całkowicie go olewamy, nie robimy nic pod niego

Efekt sex: F(1;44) = 4,59; p = 0,04; etap² = 0,09


Efekt grupa2: F(3;44) = 22,09; p < 0,001; etap² = 0,33
Efekt interakcji: F(3;4) = 6,28; p = 0,016; etap² = 0,13

Efekt wyjaśnia 13% zróżnicowania wyników

Istotność efektu interakcji jest mniejsza od p = 0,05, czyli efekt interakcji jest istotny, a to
oznacza, że przeprowadzamy proste efekty główne

Analiza → Ogólny model liniowy → Jednej zmiennej

132
Pojawia nam się okienko nasze już uzupełnione z wcześniej

Średnie EM, przy czym przerzucamy wszystko, totalnie wszystko czyli (OVERALL), sex,
grupa2 i sex*grupa2, przede wszystkim nasz efekt interakcji

Dalej a potem Wklej, po czym pojawia nam się okienko komend syntaxa

133
W wierszu 7 Do /EMMEANS=TABLES(sex*grupa2) dopisujemy po spacji compare(sex)
adj(SIDAK); compare to porównanie a adj(SIDAK) to poprawka Sidaka:

Zaznaczamy cały tekst i dopalamy zielonym trójkątem

Raport:

W grupie klinicznej omamowej kobiety (M = 0,58; Se = 0,23) miały mniejszy poziom


potliwości niż mężczyźni (M = 1,64; Se = 0,21), natomiast wśród osób z grupy nieomamowej
kobiety (M = 0,08; Se = 0,23) miały wyższy poziom potliwości od mężczyzn (M = 0,00; SD =
0,25).

134
Hipotezy nie udało się potwierdzić. To mężczyźni z grupy omamowej mają wyższy poziom
potliwości od kobiet, natomiast niższy w grupie nieomamowej.

Wykres:

135
Jednoczynnikowa ANOVA z powtarzanym pomiarem
Teoria

Powtarzalny pomiar

● Badania podłużne - ta sama grupa osób po jakimś czasie, badania wielokrotne,


pomiar powtarzalny
● Jak da się ludziom zaznacz na skali 1 do 10 jak lubisz lody waniliowe a potem
czekoladowe to jest to właśnie pomiar powtarzany bo to to sama grupa
● Test t studenta dla grup zależnych
● Jednoczynnikowa ANOVA z powtarzanym pomiarem to nic innego jak rozszerzony
test t dla grup zależnych

Pomiar 1, 2, 3 —> przy przyjęciu do szpitala, po tygodniu, po dwóch tygodniach,


porównujemy więcej pomiarów na raz na jednej grupie

Zmienna niezależna to czynnik wewnątrzobiektowy

136
Jednoczynnikowa ANOVA z powtarzanym pomiarem
Przykład na bazie alkohol

Hipotezy
H0: Nie ma różnicy w poziomie omamów zależnie od czasu terapii.
HA: Wraz z wydłużeniem się czasu trwania terapii, poziom omamów spada

Analiza → Ogólny model liniowy → Powtarzane pomiary

Wyskakuje okienko:

137
Czynnik wewnątrzobiektowy to zmienna niezależna. Tutaj wpisujemy nazwę naszej
zmiennej niezależnej tak, byśmy pamiętali, to jak nazwiemy nie ma znaczenia, ale my mamy
wiedzieć. Liczba poziomów to ilość naszych pomiarów

Nazwiemy: czas_pomiaru, a ilość wpiszemy 4

Dodaj

Natomiast okienko nazwa pomiaru to zmienna zależna, również pisujemy nazwę naszej
zmiennej niezależnej tak, byśmy pamiętali, to jak nazwiemy nie ma znaczenia, ale my mamy
wiedzieć, nasza nazwa

Nazwiemy: omamy

Dodaj

Po uzupełnieniu okienko powinno wyglądać tak:

Definiuj

Pokazuje się:

138
Program mówi, że mamy do uzupełnienia 4 pola. Wypełniamy je o naszą zmienną zależną,
czyli pomiary omamów. Aby to zrobić

Kliknąć na pole _?_(1,omamy) → na naszą zmienną, tutaj omamy pomiar 1 → na strzałkę tę


na środku niebieską

I tak ze wszystkimi czterema:

139
Trzeba być uważanym jeśli chodzi o kolejność; jeśli zmienna to “lubienie lodów” gdzie
najpierw dane “czy lubisz waniliowe”, potem “czekoladowe”, potem “truskawkowe” np. samo
sprawdzenie to nie ma znaczenia, ale jeżeli to powtarzalne pomiary np. samopoczucia,
gdzie nam zależy koniecznie na kolejności pomiarów to musimy wpisywać po kolei te
pomiary, w ustalonej kolejności od pierwszego do ostatniego bo to ma znaczenie bo są
chronologicznie ułożone

Wykresy → Tutaj tak samo jak przy wykresach dwuczynnikowej ANOVy


czas_pomiaru na oś poziomą i dodaj, potem dalej

140
Opcje: tutaj zaznaczamy tym razem tylko Statystyki opisowe i Oceny wielkości efektów,
dalej

Ok i pokaże się raport

I tu zaczynają się schody, bo program liczy tę samą rzecz na 8 różnych sposobów, a my


musimy wiedzieć, który z nich wybrać

Zasada:

141
W praktyce stosuje się test Wielozmiennowy po prostu, jednozmiennowy mamy znać tylko
na potrzeby interpretacji egzaminu, my na zajęciach używać będziemy używać tylko
wielozimiennową. Jednozmiennowa jest bardziej skomplikowana

Pierwsza tabelka jaka nas interesuje to:

Dlatego, że widzimy, że pomiary dostały swego rodzaju etykietki. Tak też będą opisywane
później w tabelkach i na wykresach. Taki mały słowniczek, instrukcja jak interpretować dalej
tabelki

Widzimy czy nasze omamy spadają czy nie, widać, że spadają, leczenie skuteczne

Metoda wielozmiennowa

Używamy tylko Ślad Pillai i tylko z niego odczytujemy

142
F(3;45) = 3,28; p = 0,029; etap2 = 0,18

Istotne, są różnice

Metoda jednozmiennowa

Odczytujemy sferyczność, myślimy o tym jak o teście Levene’a: mówi, gdzie szukać
wyników i liczy się z niego istotność

F(5) = 0,16; p < 0,001 istotne to oznacza, że niesferyczne, a to oznacza nie ma założonej
sferyczności, musimy zrobić mocne testy równości

Czyli Levenen ale na innych danych

143
Sferyczność założona - kiedy Mauchly wyjdzie nieistotny
Greenhouse-Geisser i Huyn-Feldat - mocne testy równości średnich, standardowo
używamy tego pierwszego, kiedy Mauchly wyjdzie istotny

F(1,522;71,525) = 7,37; p = 0,003; etap2 = 0,14

F(df czas_pomiaru GG;df błąd czas_pomiaru GG) = x; p = Istotność dwustronna; etap2 =


cząstkowe eta kwadrat

A więc są różnice, ale nie wiemy gdzie. Trzeba zrobić posthocki. Można zrobić kontrast i
trendy, ale my zajmujemy się tylko posthocami

Analiza → Ogólny model liniowy → Powtarzane pomiary

Wyskakuje nasze okienko:

144
Definiuj, aby móc przejść do opcji

NIE klikamy post hoc, to byśmy kliknęli, jakbyśmy działali w czynnikach międzyobiektowych,
my klikamy Średnie EM

Wrzucamy do Pokaż średnie dla: naszą zmienną czas_pomiaru. Klikamy porównaj efekty
główne. Jest to błąd tłumaczenia SPSSa, tak naprawdę tam powinno być “przeprowadź
posthocki” i tak też to będziemy traktować. Następnie wybieramy poprawkę jaki post hoc
przeprowadzamy czyli SIDAK

145
Dalej i Ok

Raport:

Mamy tę samą grupę więc zawsze ma tyle samo osób więc to czy weźmiemy średnie z
Oszacowania czy Statystyk nie ma znaczenia, tylko nie pomylić się przy zapisie Se i SD
czyli błędu standardowego i odchylenia standardowego

Tabelka posthocowa czyli tak samo ją czytamy, patrzymy na gwiazdki gdzie one są. Zapis
jest taki sam jak dla post hoców

Pomiar 1 (M =0,88; Se = 0,18) istotnie różni się poziomem omamów od pomiaru 4 (M = 0,46;
Se = 0,13) i pomiar 3 (M = 0,73; Se = 0,16) istotnie różni się od pomiaru 4 (M = 0,46; Se =
0,13).

I wykres

146
147
ANOVA w schemacie mieszanym
Teoria

Mieszana ANOVA to ANOVA z powtarzalnym pomiarem z dwuczynnikową, czyli jedną


ze zmiennych niezależnych będzie ów powtarzany pomiar, czyli czas pomiaru

1. Zmienna czas, ilość wykonywania pomiarów, jak zmienna zależna zmieniała się w
czasie pomiaru
2. Efekt dla osób, między osobami, efekt zmiennej grupującej
3. Interakcja czasu pomiaru i grupy, badanie tych swóch czynników łącznie

Zmienne niezależne: grupa oraz czas pomiaru

Ważny jest zapis:


(3) czas pomiaru x 2 płeć → (poziom zmienna) niezależna 1 x poziom niezależna 2
Ważny jest nawias na początku przy poziomie pierwszej ze zmiennej niezależnej, przy
czasie pomiaru

148
ANOVA w schemacie mieszanym
Przykład na bazie alkohol

To co zbadamy to czy nasilenie tachykardii zmienia się w zależności od czasu


pomiaru i od płci osób badanych

Zapis schematu: (3) czas pomiaru x 2 płeć


(Bez pomiaru 3, tylko 1, 2 i 4)

Analiza → Ogólny model liniowy → Powtarzane pomiary

Pojawia się okienko

149
W miejsce czynnik1 w czynnik wewnątrzobiektowy wpisujemy naszą zmieną niezależną jaką
jest czas pomiaru, a w liczbę poziomów ilość poziomów naszej zmiennej i dodaj,
natomiast nazwa pomiaru to zmienna zależna, wpisujemy ją i dodaj

Definiuj

Pojawia się:

Program mówi, że mamy do uzupełnienia 3 pola. Wypełniamy je o naszą zmienną zależną,


czyli pomiary tachykardii. Aby to zrobić:

150
Kliknąć na pole _?_(1,tachykardia) → na naszą zmienną, tutaj tachykardia pomiar 1 → na
strzałkę tę na środku niebieską

W tym momencie zaprogramowaliśmy sobie powtarzalny pomiar. Ale należy dodać jeszcze
drugą zmienną niezależną, płeć

Do czynnika międzyobiektowego wrzucamy naszą drugą zmianną, płeć

Opcje: tutaj zaznaczamy tym razem tylko Statystyki opisowe i Oceny wielkości efektów,
dalej

151
Wykresy: tutaj tak samo jak wcześniej. Robimy wykres dla efektu interakcji (sex i czas w oś
pozioma i oddzielne linie, gdzie co nie ma znaczenia, obojętnie i dodaj). Zmnieniamy w
typie wykresy na wykres słupkowy i zaznaczamy uwzględnij słupki błędów

Dalej i Ok

Pojawia się raport:

Nasz słowniczek z etykietkami, czyli co jest co w tabelkach i wykresach później:

152
Średnie:

Z racji tego, że mamy jedną grupę bo powtarzalny pomiar to zawsze będą grupy
równoliczne, więc bez wahania korzystamy z tej tabelki

Posługujemy się metodą wielozmiennową

153
Korzystamy tylko ze Ślad Pillai

Oraz:

W tych dwóch tabelkach mamy efekt główny dla czasu, efekt interakcji (ta pierwsza) i efekt
płci (druga)

Efekt główny czasu pomiaru


H1: Poziom tachikardii zmieniał się wraz z kolejnymi pomiarami
F(2,45) = 4,87; p = 0,012; eta2 = 0,18 —> są istotne różnice

Efekt główny płci


H2: kobiety mają wyższy poziom tachikardii niż mężczyźni
F(1,46) = 2,08; p = 0,156; eta2 = 0,04 —> nie ma istotnych różnic

Efekt interakcji
H3: W grupie kobiet poziom tachikardii zmalał między pomiarami, w grupie mężczyzn
poziom tachikardii zwiększył się między pomiarami
F(2,54) = 3,58; p = 0,036; eta2 = 0,14 —> jest interakcja są różnice

Należy zrobić teraz Proste Efekty Główne interakcji, która wyszła istotna

154
Analiza → Ogólny model liniowy → Powtarzane pomiary

Pojawia się nasze okienko Definiuj

Średnie EM

Do Pokaż średnie dla: wrzucamy nasz efekt interakcji czyli sex*czas i klikamy Dalej

W tym okienku, które nam zostało Wklej

Pojawia się okno komend syntaxa. Robimy dokładnie to co wcześniej:

W wierszu 8 do /EMMEANS=TABLES(sex*czas) dopisujemy po spacji compare(czas, czyli


zmienna dla której proste efekt główne się ustaliło, to od nas zależy) adj(SIDAK); compare to
porównanie a adj(SIDAK) to poprawka Sidaka

155
Zaznaczamy cały tekst i klikamy zielony trójkąt czyli play, aby SPSS odpalił naszą
komendę

Pokazuje się raport:

Wśród mężczyzn różnica w pomiarze tachykardii różnica wystąpiła między pomiarem 1 a 4


oraz 2 a 4, natomiast wśród kobiet nie było różnicy

Wklejamy poprawiony wykres (tutaj wklejam niepoprawiony bo coś mi SPSS nawala i nie
mogę zedytować)

156
I to koniec naszej analizy

W efekcie głównym czasu wynik wyszedł istotny, a to oznacza, że istnieją różnice ale nie
wiadomo gdzie. To oznacza, że trzeba zrobić post hocki, ale nie jest to wymagane
Aby zrobić Post hoc

Analiza → Ogólny model liniowy → Powtarzane pomiary

Pojawia się nasze okienko Definiuj

Średnie EM

157
Stąd wyrzucamy efekt interakcji a dajemy czas, gdzie wyszło p istotne, następnie Porównaj
efekty główne co jest błędem tłumaczenia i tak naprawdę powinno się nazywać
Przeprowadź post hoci oraz wybieramy korektę Sidaka i na końcu Dalej i Ok

Z raportu:

Opis taki sam jak zwykle dla podst hoców

Wynik efektu głównego czasu wyszedł istotny, w związku z czym przeprowadzono analizę
post hoc… I dalej opis…

W pracy domowej i kolokwium nie będzie post hoców

158

You might also like