Professional Documents
Culture Documents
Skrypt Podręcznik Metody
Skrypt Podręcznik Metody
Rozdział 1. Wprowadzenie.
1. Statystyka opisowa.
Statystyka opisowa to dział statystyki, którego celem jest porządkowanie i
podsumowanie obserwacji, tak aby było łatwiej je zrozumieć
2. Wnioskowanie statystyczne.
Celem wnioskowania statystycznego jest wyprowadzenie wniosków na temat
warunków istniejących w populacji na podstawie wyników badań próby.
Oszacowania mogą być obciążone błędem. Wnioskowanie statystyczne jest
używane przy ocenianiu wyników eksperymentów.
3. Związki i przewidywanie.
Zainteresowanie istnieniem i zakresem związku między dwoma lub większą
liczbą czynników oraz przewidywaniem pozycji na jednym czynniku na
podstawie wiedzy o pozycji na innym. W przeprowadzeniu takich analiz
pomagają techniki statystyczne.
4. Statystyka stosowana.
Teoria statystyczna związana jest z prawdopodobieństwem. Statystyka
stosowana to perspektywa badaczy stosujących procedury statystyczne w
badaniach. Jest narzędziem wykorzystywanym w tych badaniach.
jeśli z populacji wyprowadzi się kilka prób losowych, to będą różniły się
między sobą, losowa zmienność próby jest spowodowana przez
przypadek, błąd próby.
2. Zmienne i stałe.
Zmienna to cecha, która może przybierać różne wartości.
Stała to cecha, która może mieć tylko jedną wartość (inne wartości nie są
możliwe).
3. Skale pomiarowe.
Pomiar to proces polegający na przydzielaniu obserwacjom liczb.
ilościowych:
6. Statystyka i komputery.
2. Mediana.
Określa wartość dzielącą uporządkowany zbiór na pół, można ją policzyć dla
wszystkich skal poza nominalną.
3. Średnia arytmetyczna.
Średnia arytmetyczna to suma wszystkich wartości zmiennej podzielona
przez ich liczbę (
N), mało odporna na odchylenie.
5. Właściwości średniej.
jest wrażliwa na dokładną lokalizację każdego wyniku w rozkładzie,
6. Właściwości mediany.
w rozkładzie, który jest skośny albo zawiera kilka wyników bardzo różniących
się od reszty, mediana jako miara tendencji centralnej jest lepsza,
3. Odchylenie wyniku.
Odchylenie wyniku wyraża jego lokalizację . Pokazuje jak bardzo wynik różni
się od średniej.
4. Wariancja.
Wariancja (SD symbol w próbie; symbol w populacji) = zróżnicowanie
wyników wokół średniej. Miara rozproszenia/ odchylenia wyników wokół
średniej, to suma kwadratów odchyleń standardowych od średniej,
dzielonych przez liczbę wyników (pomniejszoną o 1 w próbie: N–1)
5. Odchylenie standardowe.
Odchylenie standardowe (SD w próbie; w populacji), mówi o tym, jak szeroko
wartości jakiejś wielkości są rozproszone wokół jej średniej (im większa
wartość odchylenia tym obserwacje są bardziej rozproszone wokół średniej);
pierwiastek kwadratowy z wariancji.
7. Właściwości rozstępu.
doskonały wskaźnik wykorzystywany w pracach pilotażowych, w których
dokładność nie jest istotnym wymaganiem,
nie tak stabilnie jak odchylenie standardowe, ale nadal dobra stabilność.
może nie być dobrym wskaźnikiem, wtedy gdy zawiera kilka wyników bardzo
odbiegających od pozostałych albo gdy jest on silnie skośny,
Właściwości wyników z:
symetryczne
jednomodalne
M = Mo = Me
rozkład ciągły
Dobór losowy zapewnia równe prawdopodobieństwo dla różnych prób, ale nie
zapewnia równego prawdopodobieństwa dla wszystkich możliwych średnich
z próby.
Przyjęcie hipotezy zerowej: kiedy poziom istotności wynosi więcej niż 0,05.
Sformułowany wniosek nie dotyczy samej próby, ale populacji, która przez tę
próbę jest reprezentowana.
6. Decyzja statystyczna.
W zależności od zmiany poziomu istotności, to: średnia z próby się nie
zmieni, ale wartości krytyczne z będą inne.
10. Rozkład t.
Rozkład t Studenta to teoretyczny rozkład częstości względnych, wszystkich
wartości X przekształconych na wartości t, które otrzymalibyśmy losowo,
gdybyśmy wyodrębnili z populacji nieskończoną liczbę prób o określonej
liczebności.
To nie pojedynczy rozkład, ale raczej rodzina rozkładów. Różnią się one
stopniem przybliżenia do krzywy normalnej. Kształt zależy od wielkości
próby oraz od liczby stopni swobody (df).
Podobieństwo:
są symetryczne,
są jednomodalne.
Różnice:
14. Przykład.
wniosek statystyczny to wniosek na temat liczbowych własności danych
(odrzucenia bądź nieodrzucenia H0 na podstawie poziom p).
Pytanie o to, czy wielkość różnicy jest ważna, czy też ważna nie jest, zależy od
pytania badawczego, a od kwestii statystycznych.
2. Wielkość efektu.
4. Moc testu.
Moc testu to prawdopodobieństwo odrzucenia fałszywej hipotezy zerowej, 1-
p.
9. Wielkość efektu.
d Cohena: 0,2= efekt mały, 0,5 efekt przeciętny, 0,8- efekt duży.
n-1 - liczba stopni swobody dla statystyki t w planie dla grup zależnych gdzie
n jest równe liczbie par wyników.
Jeżeli wynik jednej osoby w parze jest określony, to wynik drugiej z nich nie
może się zmieniać w sposób dowolny. W konsekwencji każdej parze wyników
możemy przypisać tylko jeden stopień swobody, więc skoro n par wyników to
n- 1 stopni swobody.
Postępowanie:
3. To, do której konkretnie grupy trafi osoba z pary trafi, określane jest losowo.
Postępowanie:
5. Obliczenie wartości t.
6. Moc testu.
moc testu - prawdopodobieństwo odrzucenia fałszywej hipotezy zerowej.
Kiedy na pary obserwacji składają się powtarzane obserwacje dla tej samej
osoby, a kolejność dwóch warunków w jakich dokonywano pomiaru, nie była
ustalana losowa, może zaistnieć wpływ: efektu regresji- jeżeli badani zostali
wybrani dlatego, że charakteryzują ich ekstremalne wyniki danej cechy, to
ponowny pomiar tej samej zmiennej da wyniki bliższe średniej.
Logika ANOVA:
4. Stopnie swobody.
W jednoczynnikowej ANOVA test H0 polega na porównaniu dwóch
oddzielnych oszacowań wariancji populacyjnej- jedno z nich oparte na
wewnątrzgrupowym rozrzucie poszczególnych wyników wokół
Liczba stopni swobody dla SSwew: dfwew= ncała-k (k oznacza liczbę grup).
Liczba swobody dla SSmię: dfmię= k-1, ponieważ w przypadku SSmię mamy
do czynienia z taką liczbą odchyleń od średniej generalnej, która jest równa
liczbie średnich z prób (albo liczbie grup).
6. Tabela zbiorcza.
W analizie wariancji wygodne oraz zgodne z powszechną praktyką jest
prezentowanie zbiorczej tabeli zawierającej źródła zróżnicowania,
odpowiadające im sumy kwadratów, właściwe stopnie swobody, oszacowania
wariancji oraz obliczoną wartość F.
8. Porównanie t oraz F.
Związek między F oraz t: F=T^2 - w przypadku dwóch grup, plan dla grup
niezależnych
3. Znaczenie interakcji.
Efekty proste to wyniki analiz jednoczynnikowych, różnice wewnątrz wierszy
albo wewnątrz kolumn tabeli. Odwołują się do wyników jednoczynnikowych
analiz. Aby robić tego typu porównania, trzeba najpierw uzyskać istotny efekt
interakcji. Jeśli tak się stanie, to użyć można np. testu HSD Tukeya. Efekt
prosty to wpływ jednego czynnika na zmienną zależną na jednym, wybranym
poziomie drugiego czynnika.
SSwewnątrz (kratka)
SSwiersze
SS kolumny
SS wiersze x kolumny
5. Stopnie swobody.
dfcała= ncała- 1
dfWK= (W-1)(K-1)
Jeśli przynajmniej jeden z trzech testów F jest istotny, to zawsze powinno się
pogrupować średnie kratkowe/ nadać im formę tabeli.
Jeśli jeden lub obydwa efekty główne okażą się istotne, można użyć testu
HSD Tukeya (lub innego post hoc), aby określić które poziomy czynnika
różnią się od pozostałych.
Test post hoc użyto wtedy, gdy czynnik ma więcej niż dwa poziomy. Jeżeli
czynnik mierzony tylko na dwóch poziomach okazuje się istotny, to jest
oczywiste, że te dwa poziomy się różnią.
8. Wielkość efektu.
Wielkość efektu jest ilościową miarą siły zjawiska obliczaną na podstawie
danych. Stosuje się ją do mierzenia wpływu pewnego czynnika na wynik
ogólny grupy, czyli siły związku między zmienną niezależną a zmienną
zależną. Wielkość efektu nie jest zależna od wielkości próby, a jego
interpretacja opiera się na założeniu o normalności rozkładów wyników
porównywanych grup.
Eta kwadrat łatwiej wyliczyć niż omega kwadrat. Aby ją wyliczyć to trzeba
podzielić kolejne sumy kwadratów przez całkowitą sumę kwadratów. Uzyska
się wtedy proporcję wariancji zmiennej zależnej, którą możemy przypisać
efektom głównym i efektowi interakcji.
9. Porównania zaplanowane.
Porównania zaplanowane a priori to testy używane zamiast ANOVA wtedy, gdy
badacz z góry wie, które porównania będą go interesowały. Testy
charakteryzujące się największą mocą, których badacz może użyć do
wykrycia różnic, o ile takie występują.
W planie 2x2 można użyć kontrastów: efekt wiersza, efekt kolumny i efekt
interakcji.
homogeniczność wariancji
jeżeli liczba obserwacji w każdej kratce nie jest taka sama, to przed
rozpoczęciem obliczeń trzeba wprowadzić do danych korektę
Rozdział 8. Korelacja.
1. Trochę historii.
Korelacja to miara siły związku między dwiema zmiennymi.
Brak korelacji to zarówno wysokie, jak i niskie wartości jednej zmiennej są tak
samo często zestawione w pary zarówno z wysokimi, jak i z niskimi
wartościami drugiej zmiennej.
Siła korelacji oznacza, że im jest bliższy 0 tym związek jest słabszy. Im bliżej 1
(lub -1), tym związek jest silniejszy.
Jak wyliczyć r?
Rozdział 9. Predykcja.
1. Problem predykcji.
Predykcja to szacowanie wartości jednej zmiennej na podstawie wiedzy o
wartości drugiej z nich wtedy, gdy dwie zmienne są skorelowane, im wyższa
Kryterium dla linii regresji to najlepiej dopasowana linia to taka linia, która
minimalizuje sumę kwadratów odchyleń między rzeczywistą wartością Y a jej
wartością przewidywaną (kryterium to jest nazywane kryterium najmniejszych
kwadratów).
Linia rezystentna używa mediany, a nie średniej do tego, aby dopasować linię
do punktów w diagramie rozrzutu.
Aby przewidzieć Y’, trzeba znać wartość X’, dla której formułuje się predykcję,
dwie średnie, dwa odchylenia standardowe oraz wielkość współczynnika
korelacji.
k-1 oznacza liczbę stopni swobody dla pytań o zgodność w teście chi kwadrat
Uwaga na test jedno lub dwukierunkowy: potrzeba więcej testów, aby ustalić
skąd wynikają różnice, wartość chi kwadrat to za mało.
Interpretacja wyników: 0,1= efekt mały, 0,3= efekt przeciętny, 0,5= efekt duży.