Professional Documents
Culture Documents
Statystyka Zaawansowana SPSS Krok Po Kroku
Statystyka Zaawansowana SPSS Krok Po Kroku
Zasady APA
Użycie kursywy
❖ Kursywą zapisujemy symbole literowe (poza literami greckimi), które są oznaczeniem
danych testów/wielkości statystycznych. Kursywą powinny być zapisane:
➢ n (ilość osób)
➢ M (średnia)
➢ SD (odchylenia standardowe)
➢ p (istotność statystyczna)
➢ r (korelacja r-Pearsona)
➢ t (jako symbol testów t Studenta)
Użycie spacji
❖ Spacja następuje zawsze przed i po znaku matematycznym (=, <, >, itd.)
❖ Wyjątkiem jest - (minus, np. gdy ujemna korelacja) wtedy spacja jest tylko przed
minusem, a nie ma jej po np. r = -0,76; p = 0,043
1
Opis
❖ Do zapisu statystyk i raportowania wartości - np. w nawiasach używaj symboli (t, SD,
M...)
❖ Natomiast w tekście używaj słów. Przykładowo:
➢ DOBRZE: Średnia uzyskana przez grupę pierwszą była niższa niż
stwierdzona dla grupy drugiej (M1 = 2,30 vs M2 = 1,11) → (Użyj indeksów
dolnych dla numeru pomiaru (niestety ten program nie ma tej funkcjonalności)
➢ ŹLE: M grupy jeden była niższa niż M grupy dwa
➢ Nie wyjaśniaj znaczenia symboli testów statystycznych (t, F, r...). Wyjaśnij
skróty złożonych analiz - np. ANOVA - analiza wariancji
2
Jak napisać raport?
Na przykładzie testu t Studenta
1. Wstęp
a. Hipoteza, opis danych, która zmienna jest która (niezależna i zależna)
i. Należy tu:
1. Wymienić hipotezę
a. Hipoteza kierunkowa: osoby o zielonych oczach mniej
czasu poświęcają na czytanie niż osoby o czarnych
oczach
2. Określić zmienne
a. Zmienna zależna: czas czytania (w minutach)
b. Zmienna niezależna: kolor oczu (zielony i czarny)
2. Opis wyników
a. Zapis wyniku testu t (przykład: “W celu sprawdzenia, czy .... ,
przeprowadzono test t Studenta dla prób niezależnych. Analiza
wykazała....”)
i. Np: Badanie miało na celu wykazanie, czy istnieją różnice w czasie
czytania książki w zależności od koloru oczu. W celu sprawdzenia
hipotezy, czy osoby o zielonych oczach poświęcają mniej czasu czasu
na czytanie niż osoby o czarnych oczach przeprowadzono analizę
testem t Studenta dla prób niezależnych
b. Opisanie, czy grupy się różnią i jak - pamiętaj o podaniu średnich i
odchyleń!
i. Analiza pokazała, że osoby o zielonych i czarnych oczach różniły się
między sobą nieprzypadkowo: t(df)=x,xx; p<0,001. Osoby o zielonych
oczach (M=X,XX; SD=X,XX) spędzały istotnie mniej czasu na czytaniu
niż osoby o czarnych oczach (M=X,XX; SD=X,XX)
ii. Dodatkowo, możemy opowiedzieć jak wyglądają dane dzięki
analizie eksploracji i wynikowi testu jednorodności Levene’a.
Możemy opowiedzieć, która grupa miała większe rozproszenie
wyników (większe SD), możemy opowiedzieć o skośnościach i
kurtozach dla grup.
1. Pomaga to zobrazować sobie wyniki i porównać grupy
3. Wniosek
a. Czy hipoteza potwierdziła się? Wyraźnie zaznaczamy!
i. Potwierdzono hipotezę mówiącą o tym, że kolor oczu wpływa na czas
czytania. Osoby o oczach zielonych czytały istotnie krócej. Być może
przyczyną tych różnic jest inny poziom światłoczułości tęczówek,
przez co osoby o zielonych oczach szybciej się męczą podczas
czytania
b. Jakie wnioski można wyciągnąć? Jakie dodatkowe badania można
przeprowadzić, aby uzupełnić analizę?
i. Potwierdzono hipotezę mówiącą o tym, że kolor oczu wpływa na czas
czytania. Osoby o oczach zielonych czytały istotnie krócej. Być może
3
przyczyną tych różnic jest inny poziom światłoczułości tęczówek,
przez co osoby o zielonych oczach szybciej się męczą podczas
czytania
c. Wklejamy wykres z SPSSa
i. Wyniki zobrazowano na wykresie:
1. Wykres to prawy klawisz myszki → kopiuj → wklejamy do doca
d. Jeśli możliwe, odnieś wyniki do skali pomiarowej
i. Np. jeśli skala jest 1-10, a średnia grupy jest 7, to możemy mówić, że
w odniesieniu do skali wynik jest nieco większy niż średni; jeśli
oceniamy szczęście na skali 1-10, to możemy mniej więcej uznać że
przeciętne szczęście to 5-6, duże szczęście to 9, a totalny brak
szczęścia to 1
4
Powtórka z podstawowych pojęć
Wariancja
❖ Suma kwadratów odchyleń od średniej, dzielona przez liczbę wyników pomniejszoną
o1
➢ Inaczej: miara rozproszenia wyników wokół średniej - czy większość wyników
jest bliska średniej, czy są one rozproszone (jest dużo małych i wysokich
wyników)
➢ Ciężka do interpretacji, gdyż operuje na kwadratach
➢ W jej interpretacji pomaga odchylenie standardowe
Odchylenie standardowe SD
❖ Pierwiastek z wariancji. Im większe odchylenie, tym większe rozproszenie wyników
wokół średniej
Zmienna
❖ Właściwość lub cecha, pod względem której elementy populacji różnią się od siebie
❖ Nie opisuje w taki sam sposób wszystkich branych pod uwagę obiektów
❖ Przybiera kilka (co najmniej dwie) wartości
❖ Przykłady zmiennych
➢ Płeć (dwie wartości: mężczyzna/kobieta)
➢ Wiek (dowolne wartości np. od 5 do 95)
➢ Kierunek studiów (kilka różnych wartości: psychologia, prawo, itp. ...)
➢ Tryb studiów (jakie wartości ....?)
5
❖ Porządkowa: zawiera wartości, które są kategoriami dającymi się uporządkować.
Nie da się jednak zmierzyć dokładnej odległości między kategoriami np.
wykształcenie
❖ Przedziałowa (interwałowa): to skala, której różnice między wartościami mają
określoną interpretację. Ponadto taka skala ma umownie przyjęty punkt zero. (co
oznacza, że może przyjmować wartości ujemne np. stopnie Celsjusza, data
❖ Skala ilorazowa: odznacza się wszystkimi właściwościami trzech poprzednich skal,
a dodatkowo ma jasno określony punkt zerowy, który świadczy o tym, że dana
zmienna nie występuje np. wiek, wzrost, ciężar
Wskaźnik
❖ To taka własność, która bezpośrednio wyraża pomiar zmiennej
➢ Dla zmiennej wzrost → centymetry
➢ Dla zmiennej inteligencja → wynik w teście
➢ Dla zmiennej waga → kilogramy
➢ Dla zmiennej czas → sekundy
❖ Kodowanie poziomów zmiennej: przypisywanie takich samych wartości
liczbowych, jednakowym elementom danej zmiennej
❖ Ile poziomów może mieć zmienna?
➢ Płeć
➢ Wykształcenie
➢ Kolor włosów?
Jak zobaczyć jaki procent badanych stanowią np. kobiety, a jaki mężczyźni?
❖ Wykonuje się analizę częstości
➢ Funkcję, której zadaniem jest dostarczenie informacji o ogólnych
liczebnościach i ich udziale procentowym
6
● Opis statystyczny
● Częstości
7
Pojawia nam się okienko z wynikiem
Co zawiera tabela?
● Statystyki zawierają ogólną informację o liczbie obserwacji ważnych oraz liczbie
braków danych. Do kategorii Braki danych trafią wszystkie puste miejsca w ramach
analizowanej zmiennej, oraz wartości, które uprzednio zostały zadeklarowane jako
dyskretne braki danych w kolumnie „BRAKI” w zakładce „ZMIENNE”
● Częstość to informacja o liczebności danej kategorii
● Procent to informacja o procencie danej iczebności
● Procent skumulowany to informacja u sumie procentu ważnych danej kategorii jak i
wszystkich ją poprzedzających
● Procent Ważnych to informacja o procencie danej liczebności, przy założeniu, że
podstawa procentowania (100%) dotyczy tylko ważnych informacji (z wykluczeniem
braków danych)
A więc jak odczytać wynik tabelka numer dwa, w naszym przypadku muzyka?
● 40 osób słucha jazzu, 40 muzyki klasycznej, a ogółem mamy 80 osób
● 50% osób słucha jazzu, a 50% muzyki klasycznej
● 100% z naszych wyników jest ważnych
○ Muzyki klasycznej słucha 50% osób z ważnymi odpowiedziami
○ Jazzu słucha 50% osób z ważnymi odpowiedziami
● Wynik sumowania procentów dla obu odpowiedzi wynosi 100%
○ Ile conajmniej osób słucha jazzu wynosi 50%
● W naszym przypadku mamy rozróżnić ile procent badanych słucha jazzu, a ile
muzyki klasycznej, dlatego nasza odpowiedź kryje się w wierszu Procent
8
○ Najczęściej jeśli chodzi o wybór danych będziemy wykorzystywać kolumnę
Częstość i Procent
Jaki procent stanowią osoby słuchające jazzu → 50%
Jaki procent stanowią osoby słuchające muzyki klasycznej → 50%
Miary rozproszenia
❖ Pokazują, na ile dane są rozproszone wobec “środka ciężkości”
❖ Tylko na skalach ilościowych
Rozstęp
❖ Odległość między najwyższym a najniższym wynikiem
9
Wnioskowanie statystyczne
Hipotezy
❖ Hipoteza zerowa (H0)
➢ Brak związku, brak wpływu, brak różnicy, brak jakiejkolwiek zależności
między grupami czy pomiarami
■ “Zadowolenie z życia nie zmienia się pod wpływem ilości zajęć ze
statystyki”
❖ Hipoteza alternatywna/badawcza (H1)
➢ Jest zauważalny związek, jest wpływ, jest różnica, zakłada zależności między
pomiarami czy grupami
■ “Zadowolenie z życia rośnie, im mniej ma się zajęć ze statystyki”
(Więcej niż 5 na 100 osób boli głowa po leku, jest więc bardziej prawdopodobne, że kogoś
rozboli głowa)
p-value
❖ p informuje nas jakie jest prawdopodobieństwo uzyskania różnicy jaką obserwujemy
w naszym badaniu lub nawet większej jeśli hipoteza zerowa faktycznie jest
prawdziwa
❖ Barierą istotności jest 5%, czyli p = 0,050
➢ Wynik jest istotny statystycznie, gdy p przyjmuje wartości mniejsze niż
0,050; p < 0,050
➢ Wynik jest nieistotny statystycznie, gdy p przyjmuje wartości większe niż
0,050; p > 0,050
➢ Jeśli wynik wyjdzie wyjdzie wynik ,000; p < 0,001
10
Hipotezy w zależności od wyniku istotności
Aby móc odrzucić H0 musimy pokazać, że wywoływanie bólu głowy przez lek jest
bardzo mało prawdopodobne
11
Test t Studenta
Test t Studenta
❖ Dla jednej próby
➢ Kiedy chcemy porównać wyniki osiągnięte przez grupę z jakąś arbitralną
zmienną
■ Np. nauka mówi nam, że przeciętna jedzona ilość kulek lodów to 3 -
chcemy zbadać, czy w naszej grupie też tak jest
❖ Dla grup zależnych
➢ Kiedy chcemy zbadać, jak wyniki osób zmieniają się w czasie; powtarzany
pomiar
➢ Kiedy zmienna ma charakter wewnątrzobiektowy
■ np. jedna osoba ocenia natężenie u siebie cech pozytywnych i
natężenie u siebie cech negatywnych
➢ Zmienna zależna na skali ilościowej
➢ Rozkład normalny zmiennej zależnej w dwóch pomiarach
❖ Test t Studenta dla grup niezależnych
➢ Kiedy chcemy porównać ze sobą dwie niezależne grupy obserwacji
➢ Grupy są równoliczne
➢ Zmienna zależna na skali ilościowej
➢ Rozkład normalny zmiennej zależnej w dwóch porównywanych grupach
➢ Jednorodność wariancji (homogeniczność)
Wpierw należy się zastanowić jak brzmi nasze pytanie badawcze: Które osoby uzyskują
lepsze wyniki z matematyki i polskiego, te które słuchają jazzu, czy muzyki klasycznej?/Czy
osoby lubiące jazz osiągają lepsze wyniki z języka polskiego i matematyki?
Aby ustalić co jest co, jakie jest pytanie badawcze, a jakie hipotezy należy zajrzeć w
to, jak kodowane są zmienne
12
Jak wykonać test t Studenta?
● Analiza
● Średnie
● Test t dla prób niezależnych
13
● W zmienne grupujące przerzucamy zmienną niezależną
● Definiuj grupy
● Ok
Chcemy wiedzieć co się kryje pod tymi zmiennymi i czy robimy dobrze
● Prawy przycisk na zmienną
● Informacje o zmiennej
14
Pojawia nam się raport
15
Potrzebne stąd nam:
● Istotność
● Wartość testu (t)
● Ewentualnie df, czyli liczebność grupy
● Istotność (dwustronna)
Wartość testu Levene’a to .002, a to oznacza, że p > .002; p = 0,050, uzyskany przez nas
wynik jest mniejszy od p, a to oznacza brak różnic istotnych statystycznie, więc wynik jest
nieistotny statystycznie, czyli patrzymy na wiersz Założono równość wariancji i to
właśnie z niego czytamy wszystko dalej
3,276 > 0,002, czyli p < t, a to oznacza różnice istotne statystycznie, więc wynik jest istotny
statystycznie → istnieją istotne różnice w wynikach z matematyki i polskiego między
osobami słuchającymi jazzu, a tymi słuchającymi muzyki klasycznej
16
Wynik istotny → Odrzucamy H0
Wynik nieistotny → Nie mamy powodów do odrzucenia H0
W celu sprawdzenia, które osoby uzyskują lepsze wyniki z matematyki i polskiego, te które
słuchają jazzu, czy muzyki klasycznej przeprowadzono test-t Studenta dla prób
niezależnych. Wynik analizy okazał się istotny t(64,779) = 3,28; p = 0,002, czyli istnieją
różnice w osiąganych wynikach między grupami. Osoby słuchające jazzu (M = 30,72; SD =
4,74) osiągają wyższe wyniki niż te słuchające muzyki klasycznej (M = 26,04; SD = 7,71).
Hipotezę udało się potwierdzić. Wykazano zakładane zależności.
Hipotezę jaką potwierdzamy to nasza hipoteza kierunkowa H1, która mówiła o tym, że
osoby słuchające jazzu uzyskują wyższe wyniki od osób słuchających muzyki klasycznej
Tworzenie wykresu
Na bazie przykładu Testu t Studenta powyżej
Wykres
● Wykresy
● Wykresy tradycyjne
● Słupkowy
17
Tutaj nic nie zmieniamy i klikamy Definiuj
18
Pojawia nam się:
19
Należy zaznaczyć Pokaż słupki błędów, a potem klikamy po prostu Dalej, a gdy wrócimy
do poprzedniego okienka Ok
20
Wykres:
Jednakże ten wykres ani trochę nas nie zadowala, bo jest brzydki, a żeby wyładniał
potrzebujemy
● Dodać tytuł
● Etykiety danych
● Zmienić skalę na taką, jakiej używaliśmy w badaniu np. od 0 do 10
○ Aby to zobaczyć ponownie należy wejść w oknie głównym w Zmienne
■ Np. 0 to brak lęku, 1 to mały lęk, 2 to umiarkowany lęk, 3 to silny lęk a
4 to bardzo silny lęk, to skala jest od 0 do 4
■ Tutaj mamy zakres punktów od 0 do 41 w zaokrągleniu, więc lepiej
dać 45 około, natomiast same słupki pokażą uzyskaną średnią
● Zmienić główny przyrost, zależnie od obranej przez nas skali (te same okienko)
○ O ile na wykresie zwiększa się poziom zmiennej, jak idziemy w górę osi
○ Co ile znajdują się osie
○ Jednakże ten układ jest wedle tego, jak nam się podoba, to ma po prostu
ułatwiać czytelność wykresu
● Można także zmienić nazwę osi, jeśli nam to pasuje
● Można zmienić kolor
● Usunąć zbędne dla nas rzeczy takie jak słupki błędu: 95% PU itd.
21
Otworzy nam się osobne okienko do edycji wykresu, które wygląda tak:
To, że wykres się edytuje i mamy otwarte to okienko bo w raporcie wykres wygląda
tak:
22
W okienku edycji wykresu
● Prawy przycisk myszy
● Dodaj tytuł
● I wpisujemy tytuł
● Dwa razy przycisk myszy
23
Aby dodać etykiety:
● Prawy klawisz myszy na jakimś słupku wykresu
● Pokaż opisy danych
Zawartość to to, co ma się znaleźć w etykiecie. Z racji tego, że słupek pokazuje lubienie
lodów, to właśnie tego powinna dotyczyć etykieta. Pokazane wartości będą średnią, a to
właśnie po średniej poznaliśmy, która z grup osiągnęła wyższy wynik
(przykład z innego zadania)
24
Wybieramy sobie nasze preferencje co do wykresu, na przykład hehe comic sans itd
25
No tym się po prostu trzeba pobawić, można zmienić wszystko, dosłownie wszystko co się
zechce
Sprostowanie do wykresów:
26
Jednoczynnikowa analiza wariancji Anova
Anova
❖ ANalysis Of VAraince ~Ronald Fischer
➢ Metoda służąca do porównań dwóch lub więcej średnich
■ Np. dla 3 grup - 3 średnie, które chcemy zbadać
■ Np. czy uczniowie podstawówki, liceum i studenci różnią się
poziomem lęku?
Słowniczek ANOVY
❖ Czynnik - zmienna niezależna
❖ Zmienna testowana - zmienna zależna
➢ Sprawdzamy, czy zmiana poziomu czynnika powoduje zmianę mierzonej
własności
27
❖ Wariancja międzygrupowa - różnica pomiędzy średnimi w grupach a ogólną
średnią
Analiza częstości
❖ Dają nam informację na temat tego, jak wyglądają nasze zmienne i czy możemy
przeprowadzać obliczenia testem parametrycznym
28
W zmienne dajemy zmienną, którą chcemy sprawdzić, tutaj grupa kliniczna
Ok
29
Statystyki
Ważnych odpowiedzi jest 48, nie ma żadnych braków danych
Częstość - Ile osób jest w danych grupach klinicznych będący naszą grupą badanych
Procent - Jaki procent badanej grupy (razem z brakami danych) stanowią osoby, które są w
poszczególnych grupach klinicznych
Procent ważnych - Jaki procent badanej grupy stanowią osoby, które są w poszczególnych
grupach klinicznych, z wykluczeniem braków danych
Procent skumulowany - dla zmiennych na skali co najmniej porządkowej
Gdyby były jakieś braki danych (w tym przykładzie akurat nie ma) to w tabelce częstości na
dole byłoby jeszcze
Eksploracja
30
Do zmiennej zależnej wrzucamy zmienną, którą chcemy zbadać, czyli naszą grupę kliniczną,
dalej wybieramy wykresy i zaznaczamy jak na screenie Histogram → Dalej → Wróci nas
do pierwszego okienka Ok
W raporcie pokażą nam się wszystkie najważniejsze rzeczy o naszej zmiennej, mediana,
średnia, wariancja, odchylenie standardowe itd, czyli podstawowe rzeczy o badanej przez
nas zmiennej
31
Aby zobaczyć testy normalności należy w tym okienku zaznaczyć jeszcze Wykresy
normalności z testami
Shapiro-Wilk wybieramy dla mniejszych prób N < 100, czyli grupy mniejszej niż 100 osób
Kołmogorow-Smirnow dla grup większych niż 100 osób, N >100
Istotny wynik oznacza zaburzenia rozkładu - rozkład istotnie różni się od rozkładu
normalnego
32
Histogram
33
● Każdy słupek to pewna grupa wyników - nie jest to tak, że dla każdego wyniku mamy
osobny słupek
● Histogram pokazuje nam częstości przedziałów klasowych, czyli zgrupowane
wartości zmiennej w przedziałach o równej rozpiętości
● Dzięki temu, na histogramie możemy przedstawić zmienne ilościowe o dowolnej
liczbie wartości - program zredukuje ich ilość
Wykres skrzynkowy
34
Gruba czarna linia pośrodku - Mediana
Górna i dolna granica niebieskiej skrzynki - Pierwszy kwartyl; w granicach skrzynki
mieszczą się wyniki 50% osób badanych; odległość między dołem i górą skrzynki to rozstęp
ćwiartkowy
Górne i dolne “wąsy” - obserwacje leżące w granicach 1,5 rozstępu ćwiartkowego
Dodatkowo, mogą być pokazane obserwacje odstające oznaczone kółkami lub gwiazdkami
na górze lub dole.
Spostrzeżenie:
Zmienna niezależna jest na skali porządkowej (kolor oczu itd) lub nominalnej
(wykształcenie itd)
Zmienna zależna to skala ilościowa (liczby)
35
Analiza ANOVA
Na bazie pliku alkohol
Będziemy teraz pracować na poziomie lęku. Czy któraś z tych grup ma istotnie wyższy
lub niższy poziom lęku?
Pracujemy na razie na lek_3
36
Zaznaczamy
❖ Opisowe - By zobaczyć jakie mamy średnie i odchylenia w grupach
❖ Test jednorodności wariancji - By wiedzieć czy mamy jednorodne czy
niejednorodne wariancje
➢ Nie powie jakie są wyniki analizy, ale da nam wskazówkę, gdzie dalej szukać
wyników
❖ Wykres średnich - By zobaczyć wszystko na obrazkach
Dalej → Ok
Statystyki opisowe
37
Skoro mamy od 0 do 3, to oznacza, że 1,23 to około średni poziom lęku
Nie wiemy czy jest to istotna różnica względem innych grup i właśnie to kolejna rzecz, którą
musimy sprawdzić
Wynik testu t to: 1,751 → p > 0,05, mamy nieistotny test Levene’a
38
Z racji tego, że mamy nieistotny wynik testu Levene’a czyli jednorodne wariancje mamy
mniej roboty bo od razu przechodzimy do tabelki poniżej, do Jednoczynnikowa ANOVA
Tak samo jak w teście t, patrzymy czy są jakieś istotne różnice między grupami
Patrzymy na Istotność:
● Są różnice bo nasz test jest istotny → .005; p < 0.05
ANOVA pokazała nam różnice, ale nie pokazała gdzie. Wiemy, że są różnice, ale nie wiemy
w jakich grupach, nie wiemy gdzie. Aby się tego dowiedzieć wykonamy analizy
wyjaśniające
To był przykład, kiedy test Levene’a był nieistotny, założenie jednorodności wariancji. A co,
gdyby jednak był istotny, gdyby wariancje były niejednorodne? Wtedy mamy inną procedurę
(Analiza na innej zmiennej, lęk pomiar lek_1; znowu Analiza → Średnie → Jednoczynnikowa
ANOVA, zmienną zależną tym razem jest lek_1) → Dalej. Pokazał się raport:
39
Test Levene'a istotny, wariancje niejednorodne: p < 0,05
F(3,44) = 3,33; p = 0,028
Wiadomo, że gdy wychodzi test istotny, niejednorodność wariancji to coś z naszymi danymi
jest nie tak i musimy zrobić jakąś dodatkową analizę, by poprawnie móc odczytać wynik
● W teście t Studenta wystarczyło przejść do drugiego wiersza, by zobaczyć poprawkę
● W ANOVie sami tę poprawkę musimy nanieść
Znowu
Analiza → Średnie → Jednoczynnikowa ANOVA
Zaznaczamy:
● Opisowe
● Test jednorodności wariancji
● JEDEN Z DWÓCH TESTÓW: Browna-Forsythe’a lub Welcha
○ Nie ma znaczenia, który z tych testów wybierzemy, ale musi być to jeden z
nich
○ Oba pokażą nam mniej więcej to samo, jednakże inne wartości liczbowe,
jednak oba dają nam poprawną poprawkę
40
○ Z obu czyta się tak samo
○ Można i wybrać dwa, to nam wygeneruje po prostu dwie tabelki i tyle i tak
wybieramy jeden z tych dwóch
● W raportach musimy napisać, który z tych testów wybraliśmy
○ Przeprowadzono analizę ANOVA z poprawką Welcha/Browna-Forsythe’a…
Raport:
W skrócie ANOVA, gdy wyjdą nam wariancje jednorodne (po kroku 2):
1. Przeprowadzenie ANOVy
2. Odczytujemy wynik testu t z tabelki Testy jednorodności wariancji
3. Odczytujemy wynik z tabelki Jednoczynnikowa ANOVA
W skrócie ANOVA, gdy wyjdą nam wariancje niejednorodne (po kroku 2):
1. Przeprowadzenie ANOVy
2. Odczytujemy wynik testu t z tabelki Testy jednorodności wariancji
3. Olewamy tabelkę Jednoczynnikowa ANOVA
4. Przeprowadzamy Mocne testy równości
5. Odczytujemy wynik poprawki z jednego z dwóch testów
Analizy wyjaśniające
1. Post-hoc
a. nie mamy konkretnego założenia co do tego, gdzie są różnice i chcemy
sprawdzić wszystko
b. porównania wielokrotne
c. porównania wszystkiego ze wszystkim
41
d. post-hoci biorą poprawkę na skumulowane prawdopodobieństwo błędu I-ego
rodzaju
2. Kontrasty
a. testujemy różnice, które definiujemy w hipotezie; mamy konkretne założenie,
które grupy będą się różnić i jak
3. Analiza trendu
Post-hoc
❖ Porównania wielokrotne
❖ Porównuje każdą grupę z każdą
➢ Np. schizofrenia z depresją, depresję z organiką, depresję ze schizofrenią
❖ Dokonuje kilkunastu porównań grup ze sobą
❖ Jest bardziej eksploracyjną analizą, gdzie nie wiemy co się dzieje i chcemy zobaczyć
jak się różnią
❖ Hipoteza to są różnice między grupami
Kontrast
❖ Kiedy mamy konkretną hipotezę, gdzie dokładnie są różnice
❖ Hipoteza to grupa alkoholowa ma większy poziom lęku niż grupa depresji
❖ Mamy swoją hipotezę, gdzie się różnią i chcemy ją potwierdzić
Samych Post-hoców jest dużo do wyboru i znowu nie ma różnicy, który z nich wybierzemy.
Wybieramy dany z jednej z dwóch puli, gdy wychodzą wariancje jednorodne lub
niejednorodne
Tutaj wracamy jeszcze raz do pomiaru lek_1 → gdzie pamiętamy, że test Levene’a był
istotny, wariancje niejednorodne. Chcemy sprawdzić, gdzie w tych grupach była różnica
w poziomie lęku
42
Znowu
Analiza → Średnie → Jednoczynnikowa ANOVA
Post hoc:
● Wybieramy jeden test z odpowiedniej puli jako, że mamy wariancje niejednorodne
wybieramy z puli Brak założenia o równości wariancji
● To, który z tych testów wybierzemy nie ma znaczenia, podobnie jak było przy
przeprowadzeniu poprawki
● Musimy tylko pamiętać o tym, by w raporcie napisać, który z nich się wybrało
43
Ważne jest spojrzeć na Istotności, jeśli jest istotna, to oznacza, że grupa alkoholowa
istotnie różni się poziomem lęku od grupy z depresją, grupa alkoholowa istotnie różni się od
grupy z zaburzeniami organicznymi, grupa alkoholowa nie różni się istotnie od grupy ze
schizofrenią (tutaj wynik nieistotny)
Trick ułatwiający życie: tam, gdzie znajduje się gwiazdka, tam są różnice. Gwiazdka =
różnice, a więc wystarczy patrzeć gdzie jest gwiazdka i tyle
Raport
Wykryto istotne różnice między grupami…, zastosowano test porównań wielokrotnych test
Tamheane’a. Grupa alkoholowy zespół abstynencyjny (M = ; SD = ; ) istotnie różni się
poziomem lęku od grupy depresja (M = ; SD = ; ), różni się też od grupy organika (M = ;
SD = ; ), … i wszystkie te grupy
Będzie szablon do pracy domowej
Teraz jak to będzie wyglądało dla lek_3, czyli tam, gdzie wariacje były jednorodne
I znowu
Analiza → Średnie → Jednoczynnikowa ANOVA
Uwaga: Spss zapamiętuje raz zapisane post hoci, ale nie da się ich zmienić. Aby to zrobić
należy sobie wszystko zresetować, klikając w pierwszym okienku resetuj. W tym momencie
trzeba ponownie wprowadzić zmienną zależną i czynnik (lek_3 i grupa kliniczna)
Znowu wybieramy Opcje: Opisowe, Test jednorodności wariancji i Wykres średnich, czyli
wszystko dokładnie tak jak na początku, Dalej i Ok
Lek_3 miał nieistotny wynik testu Levene’a czyli jednorodne wariancje, a więc test bierzemy
z półki Założenie o równości wariancji; wybieramy z pierwszego wiersza
● Znowu wybieramy jeden z dostępnych testów, nie ma znaczenia który
● Nie poleca się używać tych dolnych testów, najlepiej wybrać NIR do Scheffe, któryś z
pierwszych, bo niektóre się trudniej czyta
● W np. Scheffe czy NIRze również są te gwiazdki
44
Raport:
I tutaj tak samo jak przy Tomheinie, odczytujemy tam gdzie są gwiazdki, zapisujemy wynik
45
W skrócie całą procedura od początku do końca:
1. Przeprowadzenie jednoczynnikowej ANOVY, z wyborem zmiennej zależnej i
czynnika, w opcjach zaznaczając odpowiednie opcje (opisowe, testy wariacji, wykres
średnich)
2. Odczytanie z tabeli wartości testu Levene’a
a. Jeśli wyszedł nam test nieistotny czyli jednorodność wariancji to odczytujemy
wynik z tabelki Jednoczynnikowa Anova
b. Jeśli wyszedł nam test istotny, czyli niejednorodność wariancji to olewamy
tabelkę ANOVA i:
i. Przeprowadzamy Mocne testy równości
ii. Odczytujemy wynik poprawki jednego z dwóch testów
3. Zapisanie wartości testu Levene’a i w zależności od niego wartość ANOVy lub
wartość z poprawki jednego z dwóch testów
4. Przeprowadzamy analizę wyjaśniającą
a. Wybieramy odpowiedni test z puli założono równość wariancji lub nie
założono, w zależności od tego co pokazał test Levene’a
5. Odczytujemy wynik analizy wyjaśniającej
6. Piszemy raport
ANOVą sprawdzamy czy istnieją różnice, Levene i Anova nakierowują w jaki sposób działać,
a potem analizą wyjaśniającą sprawdzamy gdzie dokładnie te różnice są
46
Skrótowa metoda na sprawdzenie rozkład normalny czy nie, gdy tylko na tym nam
zależy (bez sprawdzania skośności i kurtoz)
Na bazie pliku alkohol, czyli kontynuacja przykładu z wyżej
Czy skośność czy kurtoza jest okej, nie chcemy pamiętaj samych wartości czy jest
lewokurtyczny, prawo itd, a jedynie czy normalny czy nie
Raport:
Jakby był nieistotny to rozkład równa się normie, a więc jeden kształt równy drugie
47
Analizy wyjaśniające
4. Post-hoc
a. nie mamy konkretnego założenia co do tego, gdzie są różnice i chcemy
sprawdzić wszystko
b. porównania wielokrotne
c. porównania wszystkiego ze wszystkim
d. post-hoci biorą poprawkę na skumulowane prawdopodobieństwo błędu I-ego
rodzaju
5. Kontrasty
a. testujemy różnice, które definiujemy w hipotezie; mamy konkretne założenie,
które grupy będą się różnić i jak
6. Analiza trendu
Kontrasty
● Służą weryfikowaniu konkretnej hipotezy badawczej
● Można je przeprowadzać niezależnie od istotności F
○ To pomaga, jest mniej klikania w spssie
○ Możemy je przeprowadzić jednocześnie z jednoczynnikową ANOVĄ, nie
musimy nic wklepywać, byle by się istotność zgadzała, nie musimy
sprawdzać czy ANOVA jest istotna
○ Ten sam rzut, ten sam krok co ANOVA, nie trzeba żadnych innych
kroków i wyliczeń
● Stosuje się je aby porównać wybrane grupy między sobą
● Porównują zawsze dwie grupy średnich
○ Np. mamy 4 grupy. I to nie jest tak, że porównuje 1 z 2, 2 z 3 itd, kontrast
porównuje grupę 1 z 2,3,4 razem, 2 z 1,2,4 razem, 3 z 1,2,4 razem i 4 z 1,2,3
razem
■ A to znaczy, że zawsze porównuje tę jedną grupę z pozostałymi
razem
■ Muszą wyjść dwie średnie bo kontrast to test dla prób niezależnych
■ Zawsze są dwie średnie porównywane ze sobą
■ Wyzwanie stanowi zakodowanie tych grup
● Na jedną grupę może składać się dowolna liczba średnich
○ Ale zawsze musimy mieć dwie średnie, by było porównanie między dwoma
48
Analiza wyjaśniająca Kontrast
Na bazie pliku viagra
Teoria na dole
Zmienna niezależna to viagra, cztery grupy: placebo, niska dawka, wysoka dawka i
podwójna dawka
Zmienna zależna to libido, czyli jak często występuje zbliżenie
Wpierw musimy powiedzieć SPSSowi jak ma to liczyć. Jeśli tego nie zrobimy, to zacznie
liczyć wszystko ze wszystkim
O co chodzi?
Na przykładzie grafik
Wyobraźmy sobie wagę, która ma dwie szalki. Po jednej stronie nasza grupa, którą chcemy
porównać, a po drugiej to, z czym równamy, czyli wszystkie razem te pozostałe grupy
By to sprawdzić musimy tak ustawić szale tej wagi, by były sobie równe
Ale co to oznacza?
Prawa szalka: niska, wysoka i podwójna → możemy wyobrazić sobie, że razem, na tej
szalce ważą 3, a to oznacza, że mocno by nam szalkę przeciążyły i, że pojechałaby mocno
w dół - te 3 po prostu dużo ważą, względem lewej szalki
A więc musimy coś zrobić, aby wagi się ze sobą zrównały. Tylko, że przecież jedna z nich
jest cięższa. Mamy to szczęście, że my te wagi przypisujemy sami w SPSSie
49
A więc, aby wagi się zrównały to na lewej szalce my też musimy dać 3 (prawa 3 = lewa 3).
Chodzi o to, by suma wag wynosiła 0, by było 3 i -3. A więc na jednej i na drugiej musi być 3.
Ale przecież na lewej jest trzy, a na prawej jest tylko jedna grupa. Placebo musimy doważyć,
by wyszło 3
3 -1 -1 -1 0
15 -5 -5 -5 0
14 -4 -5 -5 0
22 -10 -5 -7 0
Nasze placebo to 3. I teraz te trzy grupy na prawej szalce musimy zważyć tak, by nam się z
tym wyrównały. A, że mamy 3 grupy to placebo zostało jako 3, a więc najprościej dać po -1
dla każdego
I wtedy mamy: 3 i -3. To daje sumę 0 i wtedy nasza waga wyrównuje się
Najlepiej dawać jak najmniejsze liczby. Ale jakby ktoś się uparł to może dać większą liczbę.
Np. placebo to 15. I to się musi wyważyć.
To jaką wagę będzie miało placebo, ta nasza zmienna ustalamy sobie sami. Najważniejsze
jest to, byle by ta druga szalka, te grupy do których porównujemy się zrównały ze zmienną
do 0
1 1 -1 -1 0
Wtedy musimy przypisać po wadze dla dawki placebo i dawki niskiej. Np. 1 i 1. To nam daje
2. A to oznacza, że to z czym porównujemy również sumarycznie będzie musiało być 2, bo
nasza suma musi być 0. A to oznacza danie -1 i -1
A co jeśli mamy przypadek, że chcemy porównać ze sobą grupę niska dawka z dawką
wysoką i podwójną, bez placebo?
0 2 -1 -1 0
50
A teraz na SPSSsie. Robimy to co już znamy, a mianowicie ANOVĘ
Trzeba pamiętać, by w opcjach zaznaczyć to, co zawsze zaznaczamy, czyli opisowe, testy
jednorodności wariancji i wykres średnich
Klikamy dalej i wracamy do naszego podstawowego okienka. I tutaj nie musimy klikać okej.
To jest ten moment, gdy mamy mniej roboty, gdy za jednym zamachem oprócz ANOVy
robimy sobie kontrasty
Bardzo dobrze jest cały czas widzieć nasze etykiety, bo będzie to bardzo ważne (etykiety
wzięte ze zmiennych, a konkretnie zmiennej viagra)
51
Suma współczynników - to jest po prostu nasza suma wag
Współczynnik - tutaj mówimy SPSSowi jakie my chcemy dać wartości tych wag
Suma współczynników pokaże czy one się sumują do 0 czy nie. Jednym słowem jak będzie
co innego niż 0 to jest źle, 0 to oznacza jest poprawnie. Taka kontrolka, która pomaga nam
sprawdzić, czy idziemy w dobrym kierunku
Aby je wpisać należy się odnieść do etykiet wartości. Dokładnie w takiej kolejności jak idą w
etykietach, tak musimy przypisać nasze wagi. Koniecznie w takiej kolejności jak jest w
etykietach!!!
Skoro placebo jest wpisane to idziemy dalej. Patrzymy, że pod 2 w naszych etykietach jest
niska dawka. Należy wpisać we współczynniku jaką wagę daliśmy niskiej dawce
52
Placebo Niska Wysoka Podwójna Suma
3 -1 -1 -1 0
3 dla placebo, -1 dla niskiej dawki, -1 dla wysokiej dawki, -1 dla podwójnej dawki
I tutaj widać jak ważna jest kolejność. Kolejność jest narzucona przez SPSS, tzn, że idzie w
górę z etykietkami i to co wpisujemy domyślnie przypisuje się w tej kolejności w jakiej są
etykiety
Przy okazji po wpisaniu widać, że jest poprawnie → Suma współczynników wychodzi nam 0
53
Gdyby było, że pomijamy placebo to byśmy wpisali 0, jako że pomijamy placebo, 2 dla
niskiej, -1 dla wysokiej i -1 dla podwójnej (-1 i -1 zrównuje się z naszym 2 dla niskiej do 0).
Ale wracając do naszego przykładu
Jeszcze jedną rzeczą, którą dobrze jest zrobić to mieć odznaczone to:
Po prostu to się czasami samo zaznacza i przez to jest od groma innych tabelek, więc lepiej
mieć to po prostu odznaczone
54
Znowu najważniejszy jest Levene’a → Nasz test jest nieistotny (p > 0,05), a to oznacza
jednorodne wariancje więc super, możemy jak wcześniej przejść do tabelki
jednoczynnikowa ANOVA, nie musimy robić mocnych testów równości
Nasza istotność: ANOVA jest istotna (p < 0,05), a to oznacza, że gdzieś mamy różnice. Nas
interesuje tylko jedna konkretna różnica, w jednym konkretnym miejscu, a niej ka przy post
hocach wszystkie
Na tej tabelce możemy sobie podejrzeć jakie daliśmy wagi w naszym kontraście
Jedziemy do kontrastu
Wygląda jak Test t dla prób niezależnych, bo to jest Test t dla prób niezależnych. Czytamy
go dokładnie tak samo jak Test t dla prób niezależnych.
Zapis jest symilaryczny: t(47) = 7,17 p < 0,001 + oczywiście zapisać wynik ANOVy
ALE jest jedna istotna różnica. Tutaj nie mamy w tej konkretnej tabelce testu Levene’a.
Miejsce z jakiego musimy się posiłkować to tabelka Test jednorodności wariancji, właśnie
stamtąd odczytujemy wynik testu Levene’a
Aby dowiedzieć się, z którego wiersza tabelki Testy kontrastu musimy spojrzeć na Test
Levene’a zawarty w tabelce Testy jednorodności wariancji
55
Nasz test jest nieistotny (p > 0,05), a to oznacza jednorodne wariancje, a więc czytamy
wynik z wiersza górnego, Zakłada równość wariancji
Czytamy go tak samo jak Test t dla prób niezależnych i dokładnie tak samo go zapisujemy
Istotność → p < 0,001, fajnie, test jest istotny, grupa placebo istotnie różni się od grup niska,
wysoka i podwójna dawka
Zapis:
Wynik t(df) = wartość t; p = Istotność dwustronna
Raport
Chodzi o to, by narzucić SPSSowi, że nasze 3 grupy (niska, wysoka, podwójna dawka) to
jest jedna grupa
By to zrobić
Rekodujemy na inne zmienne ponieważ zależy nam na utworzeniu czegoś totalnie nowego,
na utworzeniu nowych, dwóch grup, gdzie jedną jest właśnie nasze placebo, a druga nowa,
to tak, która skaładać się będzie z naszych trzech pozostałych (mała, wysoka i podwójna
dawka)
56
Pojawia nam się okienko
Nazwa: Nadajemy nazwę naszej zmiennej, dobrze jest dawać nazwy, które zrozumiemy, od
razu nas naprowadzą, a nie zmienna dupa czy ananas, bo potem się usiłuje rozgryźć co to
za zmienna i się robi pieprznik, więc nie robić jak przy programowaniu, gdzie syf może być,
musi działać po prostu
A więc nazwa musi nam się rzucać w oczy i jasno określać co jest czym
Etykieta: Tutaj wpisujemy to, co możemy podejrzeć potem, gdy klikniemy na zmienną.
Etykieta, czyli tak jej opis, co to jest
Nazwa i etykieta to tylko i wyłącznie nasz wybór i możemy wpisać co nam się żywnie
podoba, my musimy wiedzieć co to jest za zmienna
57
W tym nowym okienku chodzi o to, by zmienić jak chcemy nasze grupy (w viagrze były 4, 1
to placebo, 2 to niska, 3 to wysoka i 4 to podwójna dawka) na takie co my chcemy. Teraz
mówimy SPSSowi, która grupa zmienia się w którą grupę
58
Natomiast grupa 2 niska dawka stała się grupą 2, grupa 3 wysoka dawka stała się grupą 2,
grupa 4 podwójna dawka stała się grupą 2. To oznacza, że w skład grupy numer 2 weszły
wszystkie te trzy dawki. A więc sumarycznie mamy dwie grupy - 1 to placebo, a 2 to reszta
tych grup w jednym. Po prosto rozkroiliśmy tę zmienną i zrobiiliśmy z niej grupy tak, jak nam
się podobało
Sposób numer 2:
Jak wiemy, że zmienne od tej do tej mają się znaleźć w obrębie grupy 2, to dajemy Zakres i
tutaj dajemy od której do której, u nas od 2 do 4 grupy mają wejść w skład grupy 2 (nowej
grupy, którą wpisujemy w Wartość)
Sposób 1 to więcej klikania, ale daje pewność, że się krok po kroku każdą zmienną zrobiło,
łopatologicznie i po kolei, sposób 2 upraszcza po prostu, ale nie jest tak łopatologiczny
Dalej i Ok
Widzimy w naszej bazie danych w zmiennych, że pojawiła nam się nowa zmienna
59
W danych widzimy, że nasza zmienna przyjęła takie wartości jak chcieliśmy
A teraz będziemy uzyskiwać średnią dla naszej nowo utworzonej z pozostałych grup grupy 2
Analiza → Średnie → Średnie
60
W zmiennych zależnych ląduje ta zmienną, którą się interesujemy, czyli nadal nasza
zmienna libido nas interesuje, ALE w zmienne niezależne musimy dać naszą nową
zmienną, bo libido badamy nie na pierwotnej zmiennej, gdzie były cztery grupy, ale na
naszej zmiennej, w której mamy 2 chciane przez nas grupy
Widzimy, że w naszej grupie placebo średnia i odchylenie standardowe jest takie samo, co w
tabelce Statystyki opisowe, tabelce, którą jako pierwszą, by robieniu ANOVY wypluł nam
SPSS
Dodatkowo mamy średnią dla naszej dodatkowej grupy, w której skład wchodzą wszystkie
pozostałe grupy sklejone w jedną
Raport
Grupa placebo (M = 2,44; SD = 1,42) istotnie różni się od osób, które brały viagrę (M = 7,71;
SD = 4,15) i blablabla oficjalnie w raporcie
Np. Kontrast:
t(78,295) = 0,55; p = 0,528
Jeśli Kontrast jest nieistotny → To znaczy, że odrzucamy hipotezę kierunkową!
61
Sumarycznie co krok po kroku robić
1. Robimy ANOVę i w tym samym okienku jednocześnie Kontrasty
2. Interpretujemy ANOVĘ
a. Jeśli test Levene’a wychodzi nieistotny mamy wariancje jednorodne, czytamy
z tabelki ANOVA
b. Jeśli test Levene’a wychodzi istotny mamy wariancje niejednorodne, olewamy
tabelkę ANOVA, robimy mocne testy równości
c. ANOVA mówi nam o tym czy są różnice, czy nie. Po prostu ją robimy, zależy
nam tak naprawdę na tabelce Testy jednorodności wariancji, nie na
reszcie z ANOVY
3. W zależności od istotności z tabelki Testy jednorodności wariancji wybieramy
odpowiedni wiersz tabelki Testy kontrastu
a. Test nieistotny to założono równość wariancji
b. Nieistotny to nie założono równości wariacji
4. Zapis wyniku
a. Z racji charakterystyki kontrastu, z kilku grup trzeba będzie stworzyć jedną, by
móc porównać ją z drugą
b. W tym celu tworzymy nową grupę poprzez Rekodowanie zmiennych
c. Finalny raport
62
Analiza wyjaśniająca Kontrast
Kolejny przykład na bazie pliku alkohol
Pytanie badawcze: Czy zaburzenia w których występują urojenia różnią się poziomem
omamów od tych z zaburzeniami, w których nie występują urojenia
(Grupy alkohol i schizofrenia będziemy łączyć w jedną, zaś grupy depresja i organika w
drugą)
-1 1 1 -1 0
Etykiety wartości:
ANOVA + Kontrasty
63
Opcje → Opisowe + Testy jednorodności wariancji + Wykresy średnich
64
Cały czas patrzymy tylko i wyłącznie na wiersz bazując na średniej
Test Levene’a wynosi 0,001, a to oznacza, że jest istotny (p < 0,05), mamy wariancje
niejednorodne
Wynik jest istotny (p < 0,05), to oznacza, że gdzieś w tych czterech grupach są różnice.
65
Nie obchodzi nas, które grupy się różnią między sobą dokładnie, nas obchodzi sprawdzenie
czy grupy urojeniowe różnią się od tych, które są nie urojeniowe
(Ową dokładność, dokładną różnicę mówimy SPSSowi właśnie poprzez nadanie wag;
skonkretyzowanie o co nam chodzi)
Trick: Robiąc ANOVę zawsze można zaznaczyć, któryś z tych dwóch testów i po prostu z
nich nie skorzystać, jeśli wyjdą z ANOVy wariancje jednorodne, ale to trick jak się dobrze
czyta p
A więc widzimy, że wynik z Istotność wyszedł istotny, <0,001 (p < 0,05), a to oznacza, że
nasza hipoteza potwierdziła się, grupy urojeniowe istotnie różnią się poziomem omamów od
grup, które urojeń nie mają
Wyniki
Znowu mamy problem ze średnimi. Należy utworzyć odpowiednie grupy → zmienną grupa
kliniczna trzeba podzielić na grupę 1, w skład której wchodzą grupy alkoholowe i
schizofrenia, oraz grupę 2, w skład której wchodzą grupy depresja i organika. A więc należy
przeprowadzić Rekodowanie zmiennych
Rekodowanie
66
Dalej klikamy Wartości źródłowe i wynikowe
Czy zmienna się utworzyła widać w Bazie, w Zmienne, bo na samym dole powinna być.
Aby było ładniej i czytelniej można dodać sobie etykiety wartości naszej nowej zmiennej.
Bez tego w raporcie przy średnich w tej zmiennej będzie 1.00 i 2.00 a nie np. “Alkohol i
depresja” oraz “Depresja i Organika”, nazwać jak tylko nam się chce. Nadanie nazwy
etykiecie zmienia to 1.00 i 2.00 w raporcie
67
A teraz czas uzyskać odpowiednie średnie do raportu
Wypluwa raport
68
Grupa urojeniowa (M = 1,50; SD = 1,34) istotnie różni się od grupy nieurojeniowej (M = 0,14;
SD = 0,45) w poziomie omamów itd oficjalne blebleble
Raport
69
Chodzi o stosunek ilości badanych osób, czy to nam się nie pogubiło, czy jest tyle osób w
grupach ile być powinno
W grupie Alkohol i Schizofrenia mamy 26 osób, a w grupie Depresja i Organika 22. Patrząc
na tabelę krzyżową widzimy, że wszystko jest jak trzeba, że w każdej grupie jest tyle
badanych osób ile trzeba
Kroki analizy
1. Eksploracja + częstości
2. Anova – sprawdzenie jednorodności wariancji
3. Jeśli konieczne – mocne testy średnich Kontrast – odczytanie odpowiedniego
wiersza
4. Rekodowanie zmiennej niezależnej
5. Tworzenie wykresu
6. Tworzenie raportu
70
71
Ilość kontrastów
● W każdej bazie można zrobić więcej niż jeden kontrast, można zrobić kilka
● Dla każdej bazy danej jest ograniczona ilość kontrastów
● Jest na to wzór K - 1, co oznacza Liczba grup - 1
● Dla tej bazy, gdzie mamy alkohol, depresję, organikę i schizofrenię możemy zrobić
maksymalnie 3 kontrasty
72
Alkohol Depresja Organika Schizofrenia Suma
3 -1 -1 -1 0
To nasz pierwszy kontrast. Widzimy, a że nam nic nie wyszło, nie różni nam się.
Sprawdzaliśmy czy alkohol się różnił, ale nie, nie wyszło nam, alkohol nie różni się od tych
grup więc chcemy zrobić kolejny kontrast. I chcemy sprawdzić, czy alkohol i depresja różnią
się od schizofrenii i depresji, lub w tych trzech grupach itd. Ale pewnych kontrastów
przeprowadzić już się nie da. Dlaczego?
73
Bo wywalamy cały jeden kawałek, ten alkohol, wyjmujemy go i już nie da się porównać
alkohol plus organika vs depresja i schizofrenia. Już się nie da dokleić tego, co już
kontrastem się wyjęło, jego już nie ma. Każdy kontrast “odcina kawałek”
3 -1 -1 -1 0
0 -1 -1 -2 0
3 -1 -1 -1 0
0 -1 -1 -2 0
0 -1 1 0 0
No i znowu okrajamy. Zrobiliśmy 3 kontrasty i nie da się więcej, bo zabrakło tych kawałków
Kolos zadanie być może: tabelka i wypisz wszystkie kontrasty wedle pomysłów
74
Propozycje własne
4 4 0 -4 -4 0
4 -1 -1 -1 -1 0
75
Do listy czynników wrzucamy zmienną niezależną
Do zmiennych zależnych wrzucamy zmienną zależną
Dalej → Ok
76
Dla prób, gdzie df < 100 wybieramy Shapiro-Wilka
Dla prób, gdzie df > 100 wybieramy Kołmogotowa-Smirnowa
Wynik z Istotności:
Istotny (p < 0,05) oznacza, że rozkład istotnie różni się od normalnego, rozkład nienormalny
Nieistotny oznacza brak istotnych różnic, rozkład normalny
Tutaj:
jazz p = 0,236 → wynik nieistotny, brak różnic względem rozkładu, rozkład normalny
klasyka p = 0,615 → wynik nieistotny, brak różnic względem rozkładu, rozkład normalny
Gdyby było np. p = 0,023 → wynik istotny, rozkład istotnie różni się od normalnego, rozkład
nienormalny
77
Analiza trendu - analiza zależności liniowej
Teoria
Analiza trendu czyli analiza zależności liniowej - jak zmienia się liniowość, zależność, jaki
kształt linii wpasowuje się do naszych danych
Funkcja kwadratowa: np. jeśli jesteśmy nocnymi markami to z rana nasza energia spada,
zaś na wieczór rośnie
Funkcja liniowa: np. im więcej kofeiny się pije, tym bardziej jest się pobudzonym
Itd
78
Tutaj wynik ANOVY nie jest istotny bo:
● My nie chcemy sprawdzić czy grupy się różnią
● Chcemy po prostu zobaczyć w jaki kształt się układają te średnie
● W zapisie trzeba napisać wynik ANOVY, ale nie jest on znaczący
● Analizę trendu robi się jak kontrast, ale łatwiej bo nie będzie żadnego kodowania
● Zmienna niezależna musi być przynajmniej porządkowa! (mniej niż porządkowa to
nominalna)
○ Badamy przyrosty i spadki zmiennych
○ Musimy mieć porządkować, koniecznie porządkowość!
○ Musi nam się to przecież ładnie ułożyć
Liniowy:
● Najbardziej znany, podobnie wygląda korelacja - linia, która oznacza, w którą stronę
zmieniają się zmienne
● Linia wpasowuje się w wykresy, widać zależność
79
Kwadratowy:
● Odchylone wyniki to te, które są odchylone od linii, to oznacza, że funkcja liniowa nie
spisze się dobrze w opisaniu ich, lepiej się sprawdzi kwadratowa
Szcześcienny:
Czwartego stopnia:
80
Po co nam tyle stopni?
● Bo zależy nam, aby opisać jak najwyższym stopniem, by ta funkcja jak najściślej
przylegała do naszych danych
● Badamy, którego stopnia wielomian najlepiej opisze nam nasze dane
● Staramy się je dobrać tak, by “przylegał jak kocyk, nie karton” - żeby idealnie
przykrywał nasze dane, żeby nie odstawał
● SPSS powie nam wszystko co chcemy, nie musimy sami trudzić się w znajdowanie
odpowiedniego wielomianu
Powstał wykres:
81
Teraz przechodzimy do analizy trendów, którą robi się w Kontrasty (nie klikamy Ok,
zostajemy w tym okienku i robimy wszystko naraz, tak samo jak przy kontrastach)
Jak go dobrać?
● Patrzymy jak nasza zmienna się łamie, na ile odcinków. Jak mamy 4 kropki i
połączymy je kreskami, to wyjdzie nam sumarycznie 3 odcinki
82
● Nie stworzy nam się nigdzie indziej na tym odcinku załamanie, więc to odcinki
łączące punkty są wyznacznikiem
Trick
● SPSS i tak dobiera sam. Można po prostu zaznaczyć największy możliwy jaki
podpowiada, czyli piąty to SPSS zrobi tyle takie jakie są możliwe dla tej analizy więc i
tak czy siak zrobi
● Ale i tak lepszy jest sposób wyżej
Jeśli w hipotezie jest jasno powiedziane, że liniowy, to możemy zatrzymać się tylko na
liniowym, ale to nie jest polecane, bo może się okazać, że jednak wyższy lepiej opisze, a my
właśnie dążymy do tego, by opisać dane jak najwyższym, bo to jak najwyższy możliwy
“przylega szczelnie jak kocyk nie karton” i najlepiej opisuje
Dalej → Ok
83
Wypluwa nam raport, została nam już tylko i wyłącznie interpretacja wyników:
Wpierw olewamy pierwsze dwie tabelki, czyli Statystyki opisowe i Testy jednorodności
wariancji, nas interesuje kształt, który znajdziemy w tabelce Jednoczynnikowa ANOVA
Zapis wyniku analizy ANOVA (nie jest to obowiązkowe ale na kolokwium za to będzie
punkt)
Z wiersza Połączone zapisujemy wynik ANOVY, jeśli chcemy wiedzieć czy grupy różnią się
między sobą, czy te różnice są
F(df między grupami, df wewnątrz grup) = F; p = Istotność
F(3,47) = 84,60; p < 0,001
84
Analiza tej tabelki - który trend najlepiej opisuje
● Zasada jest taka, że idziemy od dołu do góry (bo na dole jest największy możliwy, a
nam zależy na znalezieniu największego pasującego)
● Pierwsze na co patrzymy to istotności
● Kiedy wyskakuje ważone to wpisuje ważone, a jak nie wyskoczy to nie
○ Ważone bierze pod uwagę to, że grupy są nierównoliczne, a jak będą
równoliczne to SPSS nawet nam dla nierównolicznych nie pokaże
○ Zasada jest taka, że kiedy pojawia się nam Ważone to wpisujemy
właśnie z wiersza ważone, a jak nie ma, to z nieważone
○ Ważone to nierównoliczne, nieważone nierównoliczne
Zasada
● Bierzemy pierwsze istotne idąc od dołu
● Dla dociekliwych: ważne jest to, by odchylenie było nieistotne
○ Gdy byłoby istotne odchylenie, to oznaczałoby, że istotnie nasze zmienne
odchylają się od naszej funkcji, te słupki istotnie odchylają się od funkcji, co
oznacza, że nie opisuje najtrafniej owy wielomian
● A więc patrząc dalej:
○ Tutaj się cieszymy, że odchylenie składnika kwadratowego ważonego jest
nieistotne 84,917
Zapis wyniku
F(1,47) = 27,56; p < 0,001
85
Robimy dwa wykresy, jeden dla poshoca a drugi dla kontrastu
Ulepszenie wykresów:
Lewy przycisk myszy raz na konkretny słupek, aby zaznaczył się tylko on i wtedy można u
góry w na pasku zmienić kolor konkretnego słupka, by dać efekt:
86
Ściągawka do ANOVY
Jak wygląda hipoteza dla poshoca? Np. Wyniki z egzaminu wzrastają wraz z maleniem
poziomu lęku
87
Dwuczynnikowa ANOVA
Teoria
Np zmienna płeć (K,M [2 poziomy]) 3 kolory oczu (niebieski, zielony, brązowy [3 poziomy])
● To daje nam 6 grup badawczych
● Pierwszy czynnik to 2 poziomy, drugi to 3, 2x3 = 6
● Nazywa się to interakcja czynników
Zapis:
poziomy zmiennej 1 x poziomy zmiennej 2
88
Gdybyśmy robili kilka razy jednoczynnikową ANOVę, to nie wzięlibyśmy w analizach pod
uwagę owego czynnika wspólnego. Najpierw badalibyśmy płeć, potem kolor oczu, ale nie
wzięlibyśmy pod uwagę płeć i kolor oczu jednocześnie. Zabrakłoby czynnika współnego,
który określany jest mianem czynnika interakcji
Efekt interakcji - ta część wspólna, część zmienności, którą tłumaczy płeć i kolor oczu
jednocześnie
Efekty
89
Efekt główny 1 - tutaj Jaka płeć wpływa na wyniki (KM) (olewamy kolor oczu)
Efekt główny 2 - jak wpływa kolor oczu (olewamy płeć)
Efekt interakcji - efekt płci i koloru oczu na raz
Najbardziej interesuje nas efekt interakcji, właśnie w tym będziemy siedzieć, efekty główne
to jednoczynnikowa ANOVA, a w dwuczynnikowej siedzimy nad efektem interakcji
O efekcie interakcji mówimy, kiedy widzimy, że te linie na wykresie liniowym będą się
przecinać, bo nam to pokaże, że w pewnym momencie te średnie zamieniają się miejscami;
dla jakiejś wartości zmiennej kobiety będę miały lepsze wyniki ale w pewnym momencie
odwróci się to i mężczyźni będą mieli
O braku efektu interakcji mówimy wtedy, gdy te linie się nigdy nie przetną, że będą
równoległe, nie będzie interakcji nie dojdzie do żadnej zamiany
90
Jeśli ktoś preferuje wykresy słupkowe to owszem można przenieść to bez problemu na
słupki
91
Na dole rozbite dla poszczególnych czynników → widać, że się to przekłada, bo bierzemy to
ze średnich 6 + 9 = 15/2 = 7,5, ale ważniejsze będzie z spssa
Przede wszystkim widać, że gdy bierzemy wszystko razem pod uwagę niż osobno to
wychodzi co innego bo badamy trochę inne rzeczy. Sam kolor czy sama płeć to
jednoczynnikowa, dwuczynnikowa to i płeć i kolor oczu
Dwuczynnikowa ANOVA
Na bazie agresja
H₃: Studenci pijący piwo są mniej agresywni niż kibice pijący piwo, ale przy piciu wódki to
studenci są bardziej agresywni niż kibice
H₃: Pijący wódkę kibicie są bardziej agresywni od studentów, ale pijąc piwo studenci są tak
samo agresywni jak kibice
Dwuczynnikowa ANOVA
92
Wchodzimy w jednej zmiennej ponieważ mamy jedną zmienną zależną
W okienku do zmiennej zależnej wrzucamy naszą zmienną zależną, czyli poziom agresji,
natomiast czynniki stałe to zmienne niezależne, gdzie je oczywiście wrzucamy, obie. Cała
reszta pod spodem nas nie interesuje
Z ciekawości: czynniki losowe to czynniki, które nie występują dla całej grupy, np badamy 50
osób w laboratorium, ale dla 3 osób, które akurat robiły hałasowała koparka, więc to jest ten
czynnik rozpraszający, czynnik losowy tylko dla tych 3 osób, który mógł im przeszkodzić i
zaburzyć wyniki
Trzeba wejść jeszcze w Opcje, gdzie ważne są statystyki opisowe, testy jednorosjości i
oceny wielkości efektu i Dalej
93
Zostajemy w okienku jednej zmiennej. To co trzeba zrobić to wykresy. Od razu możemy robić
max 3 wykresy. Jednej dla efektu głównego, drugi dla drugiego i trzeci dla efektu interakcji.
W tym okienku Wykresy
Jako pierwszy będzie dla efektu głównego grupy, czyli w której grupie było więcej agresji
studenci czy kibice. Grupa wrzucamy do do oś pozioma i dodaj. Tutaj weźmiemy wykres
słupkowy bo słupki błędów są lepsze niż na liniowym. Kolejny analogicznie dla alkohol. I
ostatni jaki chcemy dać to dla interakcji. Jedna zmienna na oś pozioma druga na oddzielne
linie, która gdzie nie ma to żadnego znaczenia, obojętnie i dodaj
94
Finalnie okienko wygląda tak:
Dalej → Okej
Raport:
Mamy tutaj średnie dla każdej z naszych grup. Do tego mamy ogółem dla kibiców i
studentów, a na dodatek ogółem dla każdego alkoholu. W tych statystykach opisowych
mamy wszystko co trzeba, by móc opisać nasze efekty
95
● Ten test Levene’a nie liczy równości wariancji dla efektów interakcji dlatego jest nam
zbędny, ale zapisać go trzeba i tylko to
● Zapisujemy i olewamu
Bardzo ważna tabelka to Testy efektów międzyobiektowych. Jednakże sporą jej część
olewamy. To co ważne to to co w niebieskim, czerwone olane:
96
Tutaj jest coś nowego, coś co jest bardzo ważne. Eta², które mówi nam o sile efektu
97
0 - nie ma efektu
1 - silny efekt
Etap² = 0,761 to 67%, czyli efekt wyjaśnia 67% zróżnicowania wyników → 67%
zmienności wyników umożliwia przewidywanie efektu
98
Czyli u nas:
Efekt interakcji etap² = 0,79 79% jest największy ze wszystkich, dlatego możemy
powiedzieć, że efekt interakcji był najsilniejszym efektem w grupie, efekt interakcji najlepiej
wyjaśnia to co się u nas ze zmiennymi działo
Dodatkowo im bardziej rośnie eta tym spada istotność. Im bardziej coś jest istotne tym
większą ma siłę efektu
Efekt główny grupy wyszedł nam istotny F(1,36) = 29,68; p < 0,001; etap² = 0,45. Efekt ten
wyjaśnia 45% zmienności wariancji wyników. Wykazany istotny efekt główny alkoholu
F(1,36) = 5,86; p = 0,021; etap² = 0,14. Efekt ten wyjaśnia 14% zmienności wariancji
wyników. Efekt interakcji wyszedł istotny F(1,36) = 131,68; p < 0,001; etap² = 0,79. Efekt ten
wyjaśnia 79% zmienności wariancji wyników.
I na tym koniec. Do tego musimy robić analizę wyjaśniającą, czyli gdzie dokładnie są owe
różnice.
99
Oprócz tego jeśli zerkniemy do raportu, zobaczymy, że mamy zobrazowanie w postaci
wykresów:
100
A tutaj już mamy dla efektu
101
Aby sprawdzić równoliczność grup należy zastosować test chi²
● Mamy grupy studenci swps pijący piwo, wódkę, kibice pijący piwo, wódkę, 4 grypy
● Ten test pozwoli sprawdzić czy w tych grupach jest po tyle samo osób
● Równoliczność będzie wpływać na nasze wyniki także musimy ją sprawdzić
● Nie jest bardzo kluczowe dla naszej analizy, jednakże warto to znać przede
wszystkim do magisterki, a także do porównania grup nominalnych bez
zmiennych ilościowych np. porównanie kolor oczu czy kobiety mają częściej
niebieskie czy zielone oczy to wtedy właśnie ten test
102
Raport:
Wykresy skrzynkowe
103
Wykresy → Wykresy tradycyjne → Wykres skrzynkowy
Wybieramy zgrupowany, ponieważ mamy kilka grup, mamy więcej niż dwie grupy i Definiuj
104
W raporcie dostajemy wykres:
105
Owe linie nam się przecinają, a to oznacza interakcję
Kibice pijący piwo są bardziej agresywni niż studenci pijący piwo, jednakże kibice pijący
wódkę są mniej agresywni niż studenci pijący wódkę. Dochodzi do tej zamianki o której
mówiliśmy
106
W wykresie skrzynkowym uwagę zwraca owa kropka38 - jest to dewiant, czyli przypadek
odstający, osoba, która uzyskała bardzo dziwny, odstający od reszty wynik, tutaj bardzo ale
to bardzo spokojny kibic po wódce.
Może być taka osoba bo mogą być tu czynniki, które realnie wpłynęły na jego stan, np. wziął
wcześniej leki, był mocno zmęczony itd. i mógł być właśnie taki
Jednakże jeśli mocno się różni np. wszyscy mówią, że ważą 60/100 kg a ktoś robi 1300 kg
to owego dewianta usuwa się z tego wykresu
107
Pokaże się:
Na dole po prawej widzimy także, że jest włączony, plus jak wejdziemy w dane to widzimy,
że nie mamy 38
108
Ta osoba się pojawi ale jako przekreślone
Jakby jeszcze raz zrobić nasz wykres skrzynkowy to wyjdzie bez owego dewianta
Sprawdzamy czy usunięcie tej osoby wpłynęło jakoś na nasze wyniki. Tak samo jak
dwuczynnikowa ANOVA
Pojawia się:
Okej, bo filtr sam się dodał i właśnie dlatego tylko okej klikamy. Pojawia się na nowo nam
tabelka
109
I widzimy, że nam się zmieniło. Wzrosły istotności, eta kwadrat nam wszędzie wzrosło.
Dzięki wykluczeniu dewianta wzrosły nam efekty
Gdy się wyklucza osoby odstające, gdy się wyklucza dewiantów to nam efekty rosną. Więc
te przypadki odstające na luzie sobie można wykluczać to będziemy mieć większe efekty
110
A gdy chcemy z powrotem wprowadzić tę osobę to należy filt wyłączyć. Aby wyłączyć filtr
należy
W okienku, które się pojawi kliknąć spowrotem wszystkie obserwacje i okej i to nam wyłącz
filt
111
Dwuczynnikowa ANOVA
Kolejny przykład na bazie alkohol
112
Następnie wchodzimy w wykresy. Jeśli wykresy dla efektów głównych to:
Dla płci to sex do osi poziomej i Dodaj, potem grupa do oś pozioma i Dodaj
Dla efektu interakcji:
Obojętnie które obojętnie do osi poziomej i oddzielnych linii i Dodaj
Potem w okienku zaznaczyć Wykres słupkowy, Uwzględniaj słupki błędów
113
Raport:
Na tym rola Levene’a się kończy, dalej całkowicie go olewamy, nie robimy nic pod niego
114
Teraz tylko ładniej zrobić wykres, który w raporcie już nam się wygenerował
115
Proste efekty główne
Teoria
Gdy ANOVA wychodzi istotna, tudzież Efekt interakcji wychodzi istotny oznacza to, że
są różnice. ALE nie wiadomo gdzie. W tym celu należy przeprowadzić analizy
wyjaśniające czyli nasze proste efekty główne
Nie będziemy badać wszystkich tych efektów głównych. Badamy tylko jeden w zależności
od hipotezy!
2 płeć (K,M), 2x kolor oczu (niebieski zielony) —> 2x2 = 4 grupy badawcze, 2+2 = 4 proste
efekty główne grupy
2 płeć (K,M), 5x kolor oczu (niebieski zielony czarny czerwony brązowy) —> 2x5 = 10 grup
badawczych, 2+5 = 7 prostych efektów głównych grupy
Wizualnie:
116
Hipoteza: Po alkoholu agresywniejsi będą studenci, natomiast po piwie kibice
Prosty główny efekt alkoholu to jaki alkohol powoduje większą agresję u kibiców, studentów
Hipoteza: Studenci będą bardziej agresywni po wódce, natomiast kibice będą bardziej
agresywni po piwie
Prostu główny efekt grupy: która z tych grup studenci czy kibice są bardziej agresywni po
alkoholu
Po co wyjaśniać różnice, których nie ma? Nieistotna interakcja mówi nam, że nie ma
żadnych różnic
117
Różne możliwości tego jak te efekty przebiegają:
118
119
Proste efekty główne
Przykład na bazie pliku agresja
Jak przy dwuczynnikowej zmienna zależna to zmienna zależna, czynniki stałe to zmienne
niezależne
Opcje tutaj jak tak samo zaznaczamy Statystyki opisowe, Testowanie jednorodności i
Oceny wielkości efektu
120
Wykresy
Tutaj tak samo jak wcześniej. Możemy sobie zrobić dla wszystkich trzech, efektu głównego
grupy (grupa w oś pozioma i dodaj), alkoholu (alkohol w oś pozioma i dodaj) i efektu
interakcji (grupa i alkohol w oś pozioma i oddzielne linie, gdzie co nie ma znaczenia,
obojętnie i dodaj). Zmnieniamy w typie wykresy na wykres słupkowy i zaznaczamy
uwzględnij słupki błędów
121
Raport:
Na tym rola Levene’a się kończy, dalej całkowicie go olewamy, nie robimy nic pod niego
Istotność efektu interakcji jest mniejsza od p = 0,05, czyli efekt interakcji jest istotny, a to
oznacza, że przeprowadzamy proste efekty główne
Teraz będziemy badać proste efekty główne alkoholu albo grupy, tutaj wybór należy do nas,
a tak naprawdę wybór zależy od postawionej hipotezy.
122
Tip na pracę domową czy kolosa: zrobić sobie najpierw analizę a potem postawić na
podstawie tego co wyjdzie hipotezę
H1: Studenci są bardziej agresywni pod wpływem wódki, natomiast pod wpływem piwa
bardziej agresywni są kibicie
Wchodzimy w średnie EM
123
Zajmujemy się teraz interakcją, więc przerzucamy nasz efekt interakcji czyli grupa*alkohol
do pokaż średnie dla i Dalej
Wracamy do okienka, które było wcześniej ALE nie klikamy Ok, to jeszcze nie wszystko!
Zamiast tego klikamy Wklej co otworzy nam okno komend syntaxa, gdzie można sobie
poprogramować w SPSSie i wszystko co się klika przyciskami można napisać ręcznie
Wygląda to tak
Dlaczego nie klikamy przyciskami? Niestety SPSS nie ma guzików do wyklikania prostych
efektów głównych, więc musimy zrobić to ręcznie
124
Jakbyśmy chcieli alkoholu to zamiast grupa to alkohol. Owe adj to poprawka i w nawiasie
Sidaka. Przeprowadzamy efekty z poprawką Sidaka, co też trzeba było zrobić komendą
Teraz musimy kazać SPSSowi wykonać tę operację. Należy zaznaczyć cały tekst i kliknąć
duży zielony trójkąt, aby odpalić naszą komendę
I pokaże się raport, gdzie SPSS wykonał te same operacje plus kilka nowych tabel. Jak
chcemy szybko przeskoczyć możemy użyć spisu treści. Proste efekty główne kryją się pod
Oszacowane średnie brzegowe
125
H1: W grupie osób pijących piwo studenci swpsu byli mniej agresywni niż kibice, natomiast
w grupie osób pijących wódkę kibice byli mniej agresywni niż studenci
H1: W grupie studentów swps piwo wywoływało mniejszą agresję niż wódka, natomiast w
grupie kibiców legii większą agresję wywoływało piwo
I opis do grupy:
Wśród osób pijących piwo studenci swps (M = 3,02; SD = 0,38) mieli mniejszy poziom
agresji niż kibice legii (M = 9,45; SD = 0,38), natomiast wśród osób pijących wódkę studenci
swps (M = 8,30; SD = 0,38) byli mieli wyższy poziom agresji od kibiców legii (M = 6,01; SD =
0,38).
W grupie studentów swps, piwo (studenci pijący piwo M = 3,02; SD = 0,38) wywoływało
mniejszy poziom agresji niż wódka (studenci pijący wódkę M = 8,30; SD = 0,38), natomiast
w grupie kibiców to wódka (kibice pijący wódkę M = 6,01; SD = 0,38) wywoływała mniejszy
poziom agresji niż piwo (kibice pijący piwo M = 9,45; SD = 0,38).
126
Grupa studentów pijących piwo (M = 3,02; SD = 0,38) istotnie różni się poziomem agresji od
grupy studentów pijących wódkę (M = 8,30; SD = 0,38) i grupa kibiców piwo (M = 9,45; SD =
0,38) istotnie różni się od grupy kibiców pijących wódkę (M = 9,45; SD = 0,38).
Ale generalnie to, że są różnice jest już zawarte w formułce o tym jakie są różnice. Więc to
co zapisujemy to formułka nie ta wyżej a ta jeszcze wyżej
Czasami się zdarzy, że grupy będą nierównoliczne i będą duże różnice między liczebnością
osób badanych w grupie. Wtedy tej tabelki użyć nie można. Aby robić metodą wyżej zapis
średnich i odchyleń trzeba mieć pewność, że grupy równoliczne są, tym samym trzeba
byłoby zrobić test chi² i na tej podstawie dopiero decydować. Akurat w naszym przypadku
grupy są równoliczne, ale wcale tak być nie musi.
Gdy mamy grupy nierównoliczne tę tabelkę olewamy i sami musimy te średnie uzyskać.
Musimy ponieważ są one przekłamane dla grup nierównolicznych, ponieważ w dalszych
obliczeniach SPSS używa sam innych średnich tylko nam ich nie podaje.
Tip: nie musimy się bawić w chi² a tym bardziej w “na oko”, po prostu możemy zawsze olać
tę tabelkę i zawsze uzyskać średnie samemu
“Oszacowane średnie brzegowe” z nazwy okienka to dokładnie tak nazywają się owe
średnie, którymi SPSS operuje, te nieprzekłamane, o którym sam nam nie mówi, te które
uzyskać chcemy
Chcemy dostać prawidłowe średnie dla efektów głównych więc wrzucamy w Pokaż
średnie dla naszą grupę oraz alkohol. Był tam już nasz efekt interakcji i trzeba go przerzucić
z powrotem do czynniki i i interakcje czynników
127
Dalej i okej
Tip: tego kroku nie trzeba robić oddzielnie. Można zrobić go w momencie, w których po raz
pierwszy byliśmy w średnich EM, przed odpaleniem okna komend syntaxa
Raport:
To co można zauważyć to to, że nie ma tutaj odchylenia. Ale nie musimy go podać, możemy
podać błąd standardowy, czyli Se → (M = …; Se = )
Wśród osób pijących piwo studenci swps (M = 5,66; Se = 0,27) mieli mniejszy poziom
agresji niż kibice legii (M = 7,73; Se = 0,27), natomiast wśród osób pijących wódkę studenci
swps (M = 5,66; Se = 0,27) mieli wyższy poziom agresji od kibiców legii (M = 7,73; Se =
0,27).
128
I:
W grupie studentów swps, piwo (M = 6,24; Se = 0,27) wywoływało mniejszy poziom agresji
niż wódka (M = 7,16; Se = 0,27), natomiast w grupie kibiców to wódka (M = 7,16; Se = 0,27)
wywoływała mniejszy poziom agresji niż piwo (M = 6,24; Se = 0,27).
129
Dwuczynnikowa ANOVA + proste efekty główne
Kolejny przykład na bazie alkohol
Jak przy dwuczynnikowej zmienna zależna to zmienna zależna, czynniki stałe to zmienne
niezależne
130
Opcje tutaj jak tak samo zaznaczamy Statystyki opisowe, Testowanie jednorodności i
Oceny wielkości efektu
Wykresy
Tutaj tak samo jak wcześniej. Robimy wykres dla efektu interakcji (sex i grupa w oś
pozioma i oddzielne linie, gdzie co nie ma znaczenia, obojętnie i dodaj). Zmnieniamy w
typie wykresy na wykres słupkowy i zaznaczamy uwzględnij słupki błędów
131
Raport:
Na tym rola Levene’a się kończy, dalej całkowicie go olewamy, nie robimy nic pod niego
Istotność efektu interakcji jest mniejsza od p = 0,05, czyli efekt interakcji jest istotny, a to
oznacza, że przeprowadzamy proste efekty główne
132
Pojawia nam się okienko nasze już uzupełnione z wcześniej
Średnie EM, przy czym przerzucamy wszystko, totalnie wszystko czyli (OVERALL), sex,
grupa2 i sex*grupa2, przede wszystkim nasz efekt interakcji
Dalej a potem Wklej, po czym pojawia nam się okienko komend syntaxa
133
W wierszu 7 Do /EMMEANS=TABLES(sex*grupa2) dopisujemy po spacji compare(sex)
adj(SIDAK); compare to porównanie a adj(SIDAK) to poprawka Sidaka:
Raport:
134
Hipotezy nie udało się potwierdzić. To mężczyźni z grupy omamowej mają wyższy poziom
potliwości od kobiet, natomiast niższy w grupie nieomamowej.
Wykres:
135
Jednoczynnikowa ANOVA z powtarzanym pomiarem
Teoria
Powtarzalny pomiar
136
Jednoczynnikowa ANOVA z powtarzanym pomiarem
Przykład na bazie alkohol
Hipotezy
H0: Nie ma różnicy w poziomie omamów zależnie od czasu terapii.
HA: Wraz z wydłużeniem się czasu trwania terapii, poziom omamów spada
Wyskakuje okienko:
137
Czynnik wewnątrzobiektowy to zmienna niezależna. Tutaj wpisujemy nazwę naszej
zmiennej niezależnej tak, byśmy pamiętali, to jak nazwiemy nie ma znaczenia, ale my mamy
wiedzieć. Liczba poziomów to ilość naszych pomiarów
Dodaj
Natomiast okienko nazwa pomiaru to zmienna zależna, również pisujemy nazwę naszej
zmiennej niezależnej tak, byśmy pamiętali, to jak nazwiemy nie ma znaczenia, ale my mamy
wiedzieć, nasza nazwa
Nazwiemy: omamy
Dodaj
Definiuj
Pokazuje się:
138
Program mówi, że mamy do uzupełnienia 4 pola. Wypełniamy je o naszą zmienną zależną,
czyli pomiary omamów. Aby to zrobić
139
Trzeba być uważanym jeśli chodzi o kolejność; jeśli zmienna to “lubienie lodów” gdzie
najpierw dane “czy lubisz waniliowe”, potem “czekoladowe”, potem “truskawkowe” np. samo
sprawdzenie to nie ma znaczenia, ale jeżeli to powtarzalne pomiary np. samopoczucia,
gdzie nam zależy koniecznie na kolejności pomiarów to musimy wpisywać po kolei te
pomiary, w ustalonej kolejności od pierwszego do ostatniego bo to ma znaczenie bo są
chronologicznie ułożone
140
Opcje: tutaj zaznaczamy tym razem tylko Statystyki opisowe i Oceny wielkości efektów,
dalej
Zasada:
141
W praktyce stosuje się test Wielozmiennowy po prostu, jednozmiennowy mamy znać tylko
na potrzeby interpretacji egzaminu, my na zajęciach używać będziemy używać tylko
wielozimiennową. Jednozmiennowa jest bardziej skomplikowana
Dlatego, że widzimy, że pomiary dostały swego rodzaju etykietki. Tak też będą opisywane
później w tabelkach i na wykresach. Taki mały słowniczek, instrukcja jak interpretować dalej
tabelki
Widzimy czy nasze omamy spadają czy nie, widać, że spadają, leczenie skuteczne
Metoda wielozmiennowa
142
F(3;45) = 3,28; p = 0,029; etap2 = 0,18
Istotne, są różnice
Metoda jednozmiennowa
Odczytujemy sferyczność, myślimy o tym jak o teście Levene’a: mówi, gdzie szukać
wyników i liczy się z niego istotność
F(5) = 0,16; p < 0,001 istotne to oznacza, że niesferyczne, a to oznacza nie ma założonej
sferyczności, musimy zrobić mocne testy równości
143
Sferyczność założona - kiedy Mauchly wyjdzie nieistotny
Greenhouse-Geisser i Huyn-Feldat - mocne testy równości średnich, standardowo
używamy tego pierwszego, kiedy Mauchly wyjdzie istotny
A więc są różnice, ale nie wiemy gdzie. Trzeba zrobić posthocki. Można zrobić kontrast i
trendy, ale my zajmujemy się tylko posthocami
144
Definiuj, aby móc przejść do opcji
NIE klikamy post hoc, to byśmy kliknęli, jakbyśmy działali w czynnikach międzyobiektowych,
my klikamy Średnie EM
Wrzucamy do Pokaż średnie dla: naszą zmienną czas_pomiaru. Klikamy porównaj efekty
główne. Jest to błąd tłumaczenia SPSSa, tak naprawdę tam powinno być “przeprowadź
posthocki” i tak też to będziemy traktować. Następnie wybieramy poprawkę jaki post hoc
przeprowadzamy czyli SIDAK
145
Dalej i Ok
Raport:
Mamy tę samą grupę więc zawsze ma tyle samo osób więc to czy weźmiemy średnie z
Oszacowania czy Statystyk nie ma znaczenia, tylko nie pomylić się przy zapisie Se i SD
czyli błędu standardowego i odchylenia standardowego
Tabelka posthocowa czyli tak samo ją czytamy, patrzymy na gwiazdki gdzie one są. Zapis
jest taki sam jak dla post hoców
Pomiar 1 (M =0,88; Se = 0,18) istotnie różni się poziomem omamów od pomiaru 4 (M = 0,46;
Se = 0,13) i pomiar 3 (M = 0,73; Se = 0,16) istotnie różni się od pomiaru 4 (M = 0,46; Se =
0,13).
I wykres
146
147
ANOVA w schemacie mieszanym
Teoria
1. Zmienna czas, ilość wykonywania pomiarów, jak zmienna zależna zmieniała się w
czasie pomiaru
2. Efekt dla osób, między osobami, efekt zmiennej grupującej
3. Interakcja czasu pomiaru i grupy, badanie tych swóch czynników łącznie
148
ANOVA w schemacie mieszanym
Przykład na bazie alkohol
149
W miejsce czynnik1 w czynnik wewnątrzobiektowy wpisujemy naszą zmieną niezależną jaką
jest czas pomiaru, a w liczbę poziomów ilość poziomów naszej zmiennej i dodaj,
natomiast nazwa pomiaru to zmienna zależna, wpisujemy ją i dodaj
Definiuj
Pojawia się:
150
Kliknąć na pole _?_(1,tachykardia) → na naszą zmienną, tutaj tachykardia pomiar 1 → na
strzałkę tę na środku niebieską
W tym momencie zaprogramowaliśmy sobie powtarzalny pomiar. Ale należy dodać jeszcze
drugą zmienną niezależną, płeć
Opcje: tutaj zaznaczamy tym razem tylko Statystyki opisowe i Oceny wielkości efektów,
dalej
151
Wykresy: tutaj tak samo jak wcześniej. Robimy wykres dla efektu interakcji (sex i czas w oś
pozioma i oddzielne linie, gdzie co nie ma znaczenia, obojętnie i dodaj). Zmnieniamy w
typie wykresy na wykres słupkowy i zaznaczamy uwzględnij słupki błędów
Dalej i Ok
152
Średnie:
Z racji tego, że mamy jedną grupę bo powtarzalny pomiar to zawsze będą grupy
równoliczne, więc bez wahania korzystamy z tej tabelki
153
Korzystamy tylko ze Ślad Pillai
Oraz:
W tych dwóch tabelkach mamy efekt główny dla czasu, efekt interakcji (ta pierwsza) i efekt
płci (druga)
Efekt interakcji
H3: W grupie kobiet poziom tachikardii zmalał między pomiarami, w grupie mężczyzn
poziom tachikardii zwiększył się między pomiarami
F(2,54) = 3,58; p = 0,036; eta2 = 0,14 —> jest interakcja są różnice
Należy zrobić teraz Proste Efekty Główne interakcji, która wyszła istotna
154
Analiza → Ogólny model liniowy → Powtarzane pomiary
Średnie EM
Do Pokaż średnie dla: wrzucamy nasz efekt interakcji czyli sex*czas i klikamy Dalej
155
Zaznaczamy cały tekst i klikamy zielony trójkąt czyli play, aby SPSS odpalił naszą
komendę
Wklejamy poprawiony wykres (tutaj wklejam niepoprawiony bo coś mi SPSS nawala i nie
mogę zedytować)
156
I to koniec naszej analizy
W efekcie głównym czasu wynik wyszedł istotny, a to oznacza, że istnieją różnice ale nie
wiadomo gdzie. To oznacza, że trzeba zrobić post hocki, ale nie jest to wymagane
Aby zrobić Post hoc
Średnie EM
157
Stąd wyrzucamy efekt interakcji a dajemy czas, gdzie wyszło p istotne, następnie Porównaj
efekty główne co jest błędem tłumaczenia i tak naprawdę powinno się nazywać
Przeprowadź post hoci oraz wybieramy korektę Sidaka i na końcu Dalej i Ok
Z raportu:
Wynik efektu głównego czasu wyszedł istotny, w związku z czym przeprowadzono analizę
post hoc… I dalej opis…
158