Frankfort - Nachmias CH., Nachmias D. - Metody Badawcze W Naukach Spoå Ecznych

You might also like

Download as pdf or txt
Download as pdf or txt
You are on page 1of 743

Chava Frankfort-Nachmias, David Nachmias

Metody badawcze
w naukach społecznych
Przekład
Elżbieta Hornowska
Zysk i S-ka Wydawnictwo
Tytuł oryginału
Research Methods in the Social Sciences
Copyright © 1996 by Scientific American/St. Martin's College Publishing Group, Inc.
Published by arrangement with Scientific American/St. Martin's College Publishing
Group, Incorporate
in association with Zysk i S-ka Publishers
Ali rights reserved
Copyright © 2001 for the Polish translation by Zysk i S-ka Wydawnictwo s.c, Poznań
Opracowanie graficzne i projekt okładki Dariusz Jasiczak
Dodatek A przełożyła Marzenna Zakrzewska Literaturę dodatkową przygotował Jerzy
Brzeziński
Redaktor naukowy wydania polskiego prof. dr hab. Jerzy Brzeziński
Uniwersytet im. Adama Mickiewicza w Poznaniu
Redaktor Zofia Domańska
Wydanie I
ISBN 83-7150-702-X
Zysk i S-ka Wydawnictwo s.c.
ul. Wielka 10, 61-774 Poznań
tel. (0-61) 853 27 51, 853 27 67, fax 852 63 26
Dział handlowy, ul. Zgoda 54, 60-122 Poznań
tel. (0-61) 864 14 03, 864 14 04
e-mail: sklep@zysk.com.pl
nasza strona: www.zysk.com.pl
Skład
dtp Marek Barłóg
Druk i oprawa: Poznańskie Zakłady Graficzne SA

Zarys treści
Wprowadzenie...................................... 11
Część I — Podstawy badań empirycznych
1. Podejście naukowe................................ 16
2. Badanie — podstawowe pojęcia.......................... 41
3. Podstawowe elementy procesu badawczego..................... 66
4. Problemy etyczne badań w naukach społecznych...................88
Część II — Plany badawcze i struktura procesu badawczego
5. Plany badawcze: eksperymenty........................... 112
6. Plany badawcze: plany badań przekrojowych i plany quasi-eksperymentalne......
141
7. Pomiar...................................... 168
8. Dobór próby i schematy doboru próby....................... 191
Część III — Zbieranie danych
9. Metody obserwacyjne............................... 220
10. Badania sondażowe................................ 240
11. Konstruowanie kwestionariusza........................... 266
12. Badania jakościowe................................ 297
13. Wtórna analiza danych............................... 320
Część IV — Przetwarzanie i analizowanie danych
14. Przygotowanie i analiza danych.......................... 350
15. Rozkład jednej zmiennej.............................. 369
16. Analiza dwuzmiennowa.............................. 404
17. Kontrola, poziom złożoności i analiza wielozmiennowa............... 439
18. Konstruowanie indeksu i metody skalowania.................... 469
19. Wnioskowanie statystyczne............................ 490
Dodatki
A. Wstęp do SPSS.................................. 515
B. Zasady pisania raportu z badań........................... 568
C. Znak sumowania (X)................................ 579
D. Liczby losowe................................... 582
E. Powierzchnia pod krzywą normalną......................... 586
F. Rozkład t..................................... 587
G. Wartości krytyczne rozkładu F........................... 588
H. Wartości krytyczne statystyki U w teście Manna-Whitneya.............. 593
I. Rozkład z2.................................... 596
Słowniczek........................................ 599
Podziękowania...................................... 615
I
Szczegółowy spis treści
Wprowadzenie...................................... 11
Część I — Podstawy badań empirycznych
1 ¦ Podejście naukowe.................................. 16
Co to jest nauka? 17. Koncepcje wiedzy 18. Podstawowe założenia przyjmowane w
nauce 20. Cele nauk społecznych 23. Rola metodologii 28. Rewolucja naukowa 32. Proces
badawczy 36. Plan książki 37. Podsumowanie 39. Podstawowe terminy 39. Pytania
sprawdzające 40. Literatura dodatkowa 40
2 ¦ Badanie — podstawowe pojęcia............................41
Pojęcia 42. Definicje 44. Teoria: jej funkcje i rodzaje 51. Modele 59. Teoria, modele i
badania empiryczne 61. Podsumowanie 63. Podstawowe terminy 64. Pytania sprawdzające
65. Literatura dodatkowa 65
3 ¦ Podstawowe elementy procesu badawczego......................66
Problemy badawcze 67. Zmienne 70. Związki 74. Hipotezy 77. Problemy i hipotezy:
wybrane przykłady 80. Źródła informacji o badaniach i hipotezach naukowych 81.
Podsumowanie 86. Podstawowe terminy 87. Pytania sprawdzające 87. Literatura dodatkowa
87
4 ¦ Problemy etyczne badań w naukach społecznych....................88
Dlaczego etyka w badaniach naukowych? 90. Wyrównywanie kosztów i zysków 93.
Wyrażanie zgody na podstawie posiadanych informacji 95. Prywatność 99. Anonimowość i
poufność 102. Zawodowy kodeks postępowania etycznego 104. Podsumowanie 109.
Podstawowe terminy 109. Pytania sprawdzające 110. Literatura dodatkowa 110
Część II — Plany badawcze i struktura procesu badawczego
5 ¦ Plany badawcze: eksperymenty............................112
Plan badawczy: przykład 114. Klasyczny plan eksperymentalny 116. Wyprowadzanie
wniosków o charakterze przyczynowo-skutkowym 119. Podstawowe cechy planu
badawczego 120. Rodzaje planów badawczych 131. Podsumowanie 139. Podstawowe
terminy 140. Pytania sprawdzające 140. Literatura dodatkowa 140
6 ¦ Plany badawcze: plany badań przekrojowych i plany quasi-
eksperymentalne.......141
Rodzaje zmiennych i plany badawcze 143. Plany przekrojowe 145. Plany quasi-
eksperymentalne 147. Plany łączone 159. Plany preeksperymentalne 162. Porównanie planów
badawczych 164. Podsumowanie 166. Podstawowe terminy 167. Pytania sprawdzające 167.
Literatura dodatkowa 167
7 ¦ Pomiar.......................................168
Natura pomiaru 170. Poziomy pomiaru 173. Transformacja danych 178. Błąd pomiaru
179. Trafność 180. Rzetelność 185. Podsumowanie 189. Podstawowe terminy 190. Pytania
sprawdzające 190. Literatura dodatkowa 190
8 ¦ Dobór próby i schematy doboru próby.........................191
Po co jest potrzebna próba? 193. Populacja 193. Schematy doboru próby 197.
Wielkość próby 208. Błędy nielosowe 214. Podsumowanie 216. Podstawowe terminy 216.
Pytania sprawdzające 217. Literatura dodatkowa 217
Część III — Zbieranie danych
9 ¦ Metody obserwacyjne................................220
Triangulacja 222. Rola obserwacji 223. Rodzaje zachowań 225. Określanie czasu
obserwacji i rejestrowanie danych 227. Wnioskowanie 229. Rodzaje obserwacji 230.
Obserwacja kontrolowana 230. Ekspe-
rymenty laboratoryjne 230. Eksperyment terenowy 235. Podsumowanie 237.
Podstawowe terminy 238. Pytania sprawdzające 238. Literatura dodatkowa 239
10 ¦ Badania sondażowe.................................240
Ankiety pocztowe 242. Wywiad osobisty 249. Wywiad osobisty a ankieta pocztowa
254. Zasady prowadzenia wywiadu 256. Wywiad telefoniczny 258. Porównanie trzech metod
prowadzenia badań sondażowych 261. Wnioski 262. Podsumowanie 263. Podstawowe
terminy 264. Pytania sprawdzające 264. Literatura dodatkowa 264
11 ¦ Konstruowanie kwestionariusza............................266
Pytania 267. Treść pytań 268. Rodzaje pytań 270. Format pytania 274. Porządek pytań
277. Ograniczanie stronniczości: błędy w konstrukcji kwestionariusza 280. List
wprowadzający 284. Instrukcja 286. Konstruowanie kwestionariusza: analiza przypadku 287.
Podsumowanie 294. Podstawowe terminy 295. Pytania sprawdzające 296. Literatura
dodatkowa 296
12 ¦ Badania jakościowe.................................297
Badania terenowe 299. Obserwacja uczestnicząca 300. Praktyczne problemy badań
terenowych 304. Podstawy teoretyczne badań terenowych 313. Społeczność robotników:
przykład badań terenowych 315. Etyczne i polityczne aspekty badań terenowych 317.
Podsumowanie 318. Podstawowe terminy 319. Pytania sprawdzające 319. Literatura
dodatkowa 319
13 ¦ Wtórna analiza danych................................320
Dlaczego wtórna analiza danych? 322. Opinia publiczna i polityka społeczna:
przykład 324. Ograniczenia wtórnej analizy danych 325. Spis ludności 326. Szukanie danych
wtórnych 331. Pomiary nieinwazyjne 333. Dokumenty archiwalne 335. Analiza treści 341.
Podsumowanie 346. Podstawowe terminy 348. Pytania sprawdzające 348. Literatura
dodatkowa 348
Część IV — Przetwarzanie i analizowanie danych
14 ¦ Przygotowanie i analiza danych............................350
Schematy kodowania 352. Konstruowanie zeszytów kodowych 357.
Wykorzystywanie komputerów w naukach społecznych 365. Podsumowanie 366.
Podstawowe terminy 367. Pytania sprawdzające 367. Ćwiczenia komputerowe 367. Literatura
dodatkowa 368
15 ¦ Rozkład jednej zmiennej...............................369
Rola statystyki 371. Rozkłady częstości 371. Graficzna prezentacja rozkładów 375.
Miary tendencji centralnej 379. Podstawowe miary rozproszenia 386. Miary rozproszenia
oparte na średniej 391. Rodzaje rozkładów częstości 396. Podsumowanie 400. Podstawowe
terminy 401. Pytania sprawdzające 401. Ćwiczenia komputerowe 403. Literatura dodatkowa
403
16 ¦ Analiza dwuzmiennowa................................404
Pojęcie związku między dwiema zmiennymi 405. Miara związku 414. Miary związku
dla danych nominalnych 417. Miary związku pomiędzy zmiennymi dla skali porządkowej
421. Miary siły związku dla danych interwałowych 428. Podsumowanie 436. Podstawowe
terminy 436. Pytania sprawdzające 436. Ćwiczenia komputerowe 438. Literatura dodatkowa
438
17 ¦ Kontrola, poziom złożoności i analiza wielozmiennowa.................439
Kontrola 441. Metody kontroli 442. Poziom złożoności 449. Analiza
wielozmiennowa: korelacje wielokrotne 459. Modele przyczynowe i analiza zmiennych 460.
Podsumowanie 465. Podstawowe terminy 466. Pytania sprawdzające 466. Ćwiczenia
komputerowe 468. Literatura dodatkowa 468
18 ¦ Konstruowanie indeksu i metody skalowania......................469
Konstruowanie indeksu 471. Metody skalowania 479. Podsumowanie 487.
Podstawowe terminy 488. Pytania sprawdzające 488. Ćwiczenia komputerowe 489. Literatura
dodatkowa 489
19 ¦ Wnioskowanie statystyczne..............................490
Strategia testowania hipotez 492. Hipoteza zerowa i hipoteza badawcza 493. Rozkład
z próby 494. Poziom istotności i obszar odrzuceń 496. Parametryczne i nieparametryczne
testy istotności 500. Podsumowanie 513. Podstawowe terminy 514. Pytania sprawdzające
514. Ćwiczenia komputerowe 514. Literatura dodatkowa 514
Dodatki
A ¦ Wstęp do SPSS...................................515
Wersje dla komputera głównego i dla PC 517. SPSS dla Windows 546. Zakończenie
562. Literatura dodatkowa 567
B ¦ Zasady pisania raportu z badań............................568
Literatura dodatkowa 578
C ¦ Znak sumowania (L).................................579
D ¦ Liczby losowe....................................582
E ¦ Powierzchnia pod krzywą normalną..........................586
F ¦ Rozkład I......................................587
G ¦ Wartości krytyczne rozkładu F............................588
H ¦ Wartości krytyczne statystyki U w teście Manna-Whitneya...............593
I ¦ Rozkład x2......................................596
Słowniczek........................................599
Podziękowania
615
¦ Wprowadzenie
Celem piątego wydania Metod badawczych w naukach społecznych — podobnie jak
poprzednich wydań — jest przedstawienie pełnego, usystematyzowanego przeglądu wiedzy
na temat podejścia naukowego w obszarze nauk społecznych. Szczególny nacisk kładziemy
na związki pomiędzy teorią, badaniami a praktyką, a także na włączenie działań badawczych
w usystematyzowany obszar wiedzy po to, aby czytelnik mógł łatwiej zrozumieć naturę badań
w naukach społecznych.
Naszym zdaniem badania prowadzone w naukach społecznych to autokorekcyj-ny
proces cykliczny składający się z siedmiu następujących etapów: definicji problemu
badawczego, sformułowania hipotez, wybrania planu badawczego, pomiaru, zbierania
danych, analizy danych i uogólniania. Każdy z tych etapów jest powiązany z teorią w tym
sensie, że zarówno z niej wynika, jak i na nią wpływa. Książka ta prowadzi czytelnika kolejno
przez owe etapy.
Nowe wydanie
Piąte wydanie zostało w dużym stopniu poprawione i zmienione:
¦ Rozdział 15 „Rozkład jednej zmiennej" rozszerzono o tekst dotyczący
wykorzystania grafiki do przedstawiania rozkładów. Omawiamy wykresy kołowe, słupkowe
oraz histogramy.
¦ W każdym wprowadzeniu do rozdziału przedstawiamy zarys prezentowanej
tematyki jak również przykład ilustrujący omawiane zagadnienia w rzeczywistych sytuacjach
życiowych. Wprowadzenia te mają zainteresować studentów danym problemem.
¦ W całej książce znajdują się ramki podsumowujące przedstawiony materiał i
ułatwiające przegląd najważniejszych pojęć.
¦ Dodatek A „Wstęp do SPSS" został rozszerzony. Omawiamy w nim SPSS/PC+
oraz SPSS dla Windows. Dodatek A ma pomóc studentom w przygotowaniu i
przeprowadzeniu komputerowej analizy danych za pomocą tego znanego i często
stosowanego pakietu statystycznego. W rozdziałach 14-19 wprowadziliśmy nowe ćwiczenia
komputerowe, aby umożliwić studentom wykorzystanie SPSS do analizy danych.
¦ Nowy dodatek B „Zasady pisania raportu z badań" dostarcza wskazówek co do
pisania raportów zarówno dla początkujących studentów, jak i dla studentów
zaawansowanych.
W nowym wydaniu staramy się nadal łączyć szeroki zakres klasycznych badań
podejmowanych w naukach społecznych z przykładami współczesnych problemów
rozwiązywanych w tym obszarze. Wprowadzone zmiany odzwierciedlają rozwój, który
dokonał się w tej dziedzinie od czasu poprzedniego wydania książki. Dzięki konstruktywnym
uwagom krytycznym sformułowanym przez osoby prowadzące zajęcia z metod badawczych
w różnych dyscyplinach na terenie całego kraju — zarówno korzystających, jak i nie
korzystających z tego podręcznika — książka zyskała bardzo wiele. Idąc za ich radą,
zmieniliśmy sposób pisania tak, aby książka była mniej formalna, a wprowadzenia do
rozdziałów bardziej przystępne.
11
Plan ksigżki
Książka została zorganizowana w sposób następujący: przechodzimy od bloków
(cegiełek) o charakterze teoretycznym, wyjaśniających pojęcia i określających proces
badawczy, do analizy danych i wykorzystania komputerów. Dzięki temu studenci otrzymują
pełne i w sposób systematyczny budowane podstawy do rozumienia istoty i zakresu badań
naukowych prowadzonych w naukach społecznych. Poszczególne rozdziały książki stanowią
niezależne (choć jednocześnie powiązane ze sobą) całości, co ułatwia elastyczne
organizowanie zajęć w zależności od indywidualnych potrzeb i zainteresowań prowadzącego.
Monografię tę można wykorzystywać na dwóch rodzajach zajęć: wprowadzenia do metod
badawczych oraz zajęć, na których na zmianę omawia się tematy dotyczące metod
badawczych i statystyki.
W rozdziale 1 przedstawiamy podstawy wiedzy, cele badań naukowych i podstawowe
założenia podejścia naukowego. W rozdziale 2 i 3 omawiamy zasadnicze problemy badań
empirycznych oraz związki pomiędzy teorią i badaniami. W rozdziałach tych poruszamy
zagadnienia tworzenia pojęć, roli i typów teorii, modeli, zmiennych i różnych źródeł
problemów i hipotez badawczych. Rozdział 4 koncentruje się na etycznych problemach badań
w naukach społecznych i ukazuje sposoby zapobiegania łamaniu praw oraz sposoby ochrony
dóbr osób badanych, łącznie z prawem do prywatności.
W rozdziale 5 i 6 przedstawiamy etap wybierania planu badawczego. Plan badawczy
to strategia obowiązująca badacza, to logiczny model pozwalający na wyprowadzanie
wniosków o charakterze przyczynowo-skutkowym. Plany eksperymentalne zostały
przedstawione i omówione w rozdziale 5, a quasi- i preekspery-mentalne w rozdziale 6. W
rozdziale 7 koncentrujemy się na pomiarze i ilościowym ujmowaniu danych. Dokonaliśmy
również przeglądu zagadnień trafności i rzetelności — nierozerwalnie związanych z teorią
pomiaru. W rozdziale 8 przedstawiliśmy podstawy teorii doboru próby, najczęściej stosowane
schematy doboru próby oraz metody określania niezbędnej wielkości próby.
W rozdziałach od 9 do 13 omawiamy różne metody zbierania danych stosowane w
naukach społecznych. Metody obserwacji, eksperymentu laboratoryjnego i naturalnego są
tematem rozdziału 9. W rozdziale 10 natomiast przedstawiamy badania sondażowe —
zwłaszcza ankietę pocztową, wywiad osobisty i wywiad telefoniczny. Rozdział 11 zawiera
opis konstruowania metody kwestionariuszowej: omawiamy treść pytań, rodzaje pytań,
format pytań i sekwencję pytań. Ukazując błędy popełniane przy konstruowaniu
kwestionariusza, poruszamy problem stronniczości. Rozdział 12 został poświęcony teorii i
praktyce badań jakościowych ze szczególnym naciskiem na obserwację uczestniczącą i
badania terenowe. W rozdziale 13 omawiamy podstawowe zagadnienia wtórnej analizy
danych — danych pochodzących z powszechnego spisu statystycznego, danych
nieinwazyjnych takich jak dokumenty prywatne i oficjalne — oraz analizę treści.
Kolejne rozdziały dotyczą przetwarzania i analizy danych. W rozdziale 14
przedstawiamy najnowsze techniki przygotowywania książki kodowej, schematy i narzędzia
kodowania, sposoby przygotowywania danych do obróbki komputerowej, wykorzystanie
komputerów w badaniach prowadzonych w naukach społecznych oraz sieci komputerowe.
Rozdział 15 wprowadza czytelnika w problematykę rozkładów jednozmiennowych, miar
tendencji centralnej i rozproszenia oraz różnych rodzajów rozkładów liczebności. Rozdział 16
przedstawia podstawowe poję-
12
cia analizy dwuzmiennowej, w tym miary związku dla danych nominalnych,
porządkowych i interwałowych, które zostały omówione i porównane. Tematem rozdziału 17
jest analiza wielozmiennowa, statystyczne techniki kontroli i interpretacji, analiza
przyczynowa oraz analiza ścieżek. W rozdziale 18 przedstawiamy podstawowe techniki
wykorzystywane przy konstruowaniu indeksów i skal, a w rozdziale 19 strategie testowania
hipotez, pojęcia poziomu istotności, obszaru odrzuceń oraz wybrane parametryczne i
nieparametryczne testy istotności.
Książka ta, wraz z dodatkowymi materiałami, pomoże czytelnikom prześledzić
podstawowe etapy procesu badawczego.
Podziękowania
Mamy wiele długów wdzięczności. Od czasu pierwszego wydania książki w 1976
roku studenci, wykładowcy, recenzenci i nasi koledzy przekazali nam wiele pomysłów i
uwag.
Szczególną wdzięczność niech zechcą przyjąć: Michael Baer, Bruce S. Bowen, Jeffrey
Brudney, Gary T. Henry i Allen Rubin. Dziękujemy również osobom zarządzającym
spuścizną literacką Sir Ronalda A. Fishera, F.R.S. i dr. Franka Yatesa, F.R.S., tj. Longman
Group Ltd. z Londynu za zgodę na przedruk dodatków z książki Statistical Tables for
Biological, Agricultural, and Medical Research (wyd. 6, 1974) oraz recenzentom wydania
piątego naszej książki: Lydii Andrade z San Jose State University, Claire L. Felbinger z
Cleveland State University, Richardowi Na-gasawie z Arizona State University, Marcellinie
Offoha z Ithaca College, Alfredowi Powellowi z University of Texas w San Antonio, Johnowi
K. Price'owi z Louisiana Tech University, Julesowi J. Wandererowi z University of Colorado
w Boulder oraz Davidowi G. Wegge'owi z St. Norbert College.
Dziękujemy też Claire L. Felbinger z Levin College of Public Administration i jej
asystentowi Stephenowi F. Schwelgienowi za przygotowanie dodatku o SPSS, Ninie Reshef,
członkowi The Public Policy Program z Tel-Aviv University, która pomagała Davidowi
Nachmiasowi i której pracę można dostrzec w całym tekście, a także Pat Pawasarat
współpracującej z Chavą Frankfort-Nachmias przy poprawianiu tekstu.
Na koniec chcielibyśmy wyrazić naszą wdzięczność zespołowi St. Martin's Press, a
zwłaszcza Carli Samodulski, która w mistrzowski sposób opracowała piąte wydanie. Szczerze
dziękujemy też Sabrze Scribner, sumiennej asystentce Elizabeth Bast oraz Douglasowi
Bellowi za cierpliwość i wsparcie w trakcie pisania tej książki.
Chava Frankfort-Nachmias David Nachmias
CZĘŚĆ I
PODSTAWY BADAŃ EMPIRYCZNYCH
Rozdział 1
Podejście naukowe
Co to jest nauka? 17
Koncepcje wiedzy 18
Model oparty na autorytecie 18 Model oparty na wierze 19 Model racjonalny 19
Podstawowe założenia przyjmowane w nauce 20
Cele nauk społecznych 23
Wyjaśnianie naukowe 23 Przewidywanie 25 Rozumienie 27
Rola metodologii 28
Metodologia dostarcza reguł komunikowania 29 Metodologia dostarcza reguł
wnioskowania 30 Metodologia dostarcza reguł intersubiektywności 30
Rewolucja naukowa 32
Nauka normalna a nauka rewolucyjna 32 Nauka rewolucyjna 34 Logika odkrycia?
34
Proces badawczy 36
Plan książki 37
Podsumowanie 39
Podstawowe terminy 39
Pytania sprawdzające 40
Literatura dodatkowa 40
Czy skomplikowane problemy społeczne można rowiązywać, prowadząc szerokie i
złożone badania? Niedawno* rozpoczęty projekt badawczy dotyczący rozwoju osób
zamieszkałych w okręgu Chicago (Humań Development in Chicago Neighborhoods) może
być przykładem takiego właśnie badania. Aby można było uzyskać szczegółowy obraz
specyfiki dorastania w Chicago, a także określić, jakie sposoby wychowania prowadzą do
popełniania przestępstw, a jakie do społecznie akceptowanych zachowań, badacze będą przez
ponad osiem lat obserwować około 11 000 osób mieszkających w 75 okręgach leżących w
okolicach Chicago. Badanie to będzie miało charakter interdyscyplinarny. Jego autorzy będą
szukać przyczyn indywidualnych i rodzinnych (czynniki psychologiczne), a także wpływów
środowiskowych i społecznych (czynniki socjologiczne). Wykorzystując otrzymane wyniki w
celu udowodnienia wcześniej przyjętych hipotez, badacze będą przestrzegać reguł
metodologii nauk1.
Rozdział ten jest poświęcony nauce. Rozpoczynamy go od przedstawienia definicji
nauki i porównania podejścia naukowego z trzema innymi koncepcjami wiedzy. Następnie
omawiamy podstawowe założenia nauki, jej cele, a także rolę metodologii w badaniach
naukowych. Definiujemy podejście naukowe najpierw z punktu widzenia tego, czym jest
rzeczywistość i doświadczenie, a następnie z punktu widzenia metodologii, biorąc pod uwagę
reguły komunikowania, wnioskowania i intersubiektywności. Dalej przedstawiamy ideę
rewolucji naukowej, odkryć i postępu. Na koniec pokazujemy model procesu badawczego,
którego etapy będziemy prezentować w kolejnych rozdziałach.
Stawiamy też wiele pytań. Jakich korzyści na przykład dostarcza podejście naukowe
osobom, które interesują się problemami społecznymi? W jaki sposób możemy zdobyć
rzetelną wiedzę o takich ludzkich doświadczeniach, które opisujemy jako „społeczne",
„polityczne", „ekonomiczne" czy „psychologczne"? A dokładniej, w jaki sposób podejście
naukowe pomaga zrozumieć zjawiska takie, jak: inflacja, bezrobocie, demokracja,
biurokracja, zbrodnie i przestępstwa czy samorealizacja? Innymi słowy, w jaki sposób i
dlaczego nauki społeczne należą do rodziny nauk?
Jednym ze sposobów odpowiedzi na te pytania jest najpierw zdefiniowanie, czym jest
nauka, następnie bliższe przyjrzenie się podejściu naukowemu — jego założeniom, celom i
właściwościom — a na koniec porównanie podejścia naukowego z innymi koncepcjami
wiedzy.
¦ Co to jest nauka?
Pojęcie nauki jest, niestety, często źle rozumiane. Laicy, dziennikarze, politycy,
uczniowie i naukowcy stosują termin „nauka" w różny sposób i w różnych kontek-
* Pierwsze wydanie tej książki ukazało się w 1976 roku — przyp. red. nauk. 1 Ellen
K. Coughlin (1994), Pathways to Crime, „The Chronicie of Higher Education", April 27, s.
A8-A9.
17
stach. Dla niektórych nauka oznacza prestiżowe przedsięwzięcie, dla drugich
prawdziwą wiedzę, a jeszcze dla innych obiektywne badanie zjawisk empirycznych.
„Nauka" to termin trudny do zdefiniowania głównie dlatego, że ludzie często mylą to,
czym jest nauka, z jej metodologią. Chociaż sama nauka nie ma własnego przedmiotu
badawczego, to nie każde badanie jakiegoś zjawiska traktujemy jako naukę. I tak na przykład
astrologowie studiują położenie gwiazd oraz analizują zdarzenia w ludzkim życiu, starając się
ustalić relacje między nimi po to, aby można było przewidywać przyszłe wydarzenia. Badania
te nie pozwalają jednak zakwalifikować astrologii jako jednej z nauk. Jeśli nawet prestiżowy
uniwersytet powołałby do życia instytut astrologii, zatrudnił pracowników, opracował
program kształcenia w zakresie studiów magisterskich, to i tak astrologia nie stałaby się
dyscypliną naukową. Powód, dla którego odrzucamy astrologię jako naukę, nie leży bowiem
w jej przedmiocie badań, ale w metodologii stosowanej przez astrologów, która jest uważana
za nienaukową. Odrzucenie przez naukowców jakiejś dziedziny wiedzy, traktowanej przez
wielu ludzi jako wiedzy rzeczywistej, oparte jest zawsze na przesłankach metodologicznych.
Co więcej, sama nauka także ciągle się zmienia — wiedza dzisiaj uznawana za naukową,
jutro może się okazać nienaukowa.Ter-min „nauka" nie odnosi się zatem do jakiejś ogólnej
lub konkretnej wiedzy, lecz do odmiennej metodologii. Z tych powodów będziemy w naszej
książce używać terminu „nauka" na oznaczenie całokształtu wiedzy osiąganej za pomocą
metodologii naukowej.
¦ Koncepcje wiedzy
Słowo „nauka" (ang. science) pochodzi od łacińskiego słowa scire oznaczającego
„wiedzieć". Historycznie rzecz biorąc, ludzie zdobywali wiedzę w różny sposób. Podejście
naukowe jest z całą pewnością jedynym sposobem, dzięki któremu ludzie zrozumieli swoje
otoczenie i siebie samych. Można jednak wskazać trzy inne sposoby zdobywania wiedzy:
sposób odwołujący się do autorytetu, do wiary oraz sposób racjonalny. Podstawowej cechy
różniącej te podejścia można upatrywać w sposobie, w jaki każde z nich uwiarygadnia źródła
wiedzy lub osoby szerzące tę wiedzę (tj. „Kto to mówi?"), w procedurach za pomocą, których
wiedza ta jest zdobywana (tj. „J ak się tego dowiedzieliśmy?") oraz w efektach tej wiedzy
(„Jakie widzimy różnic e?")2. Omówimy krótko owe trzy modelowe sposoby zdobywania
wiedzy, aby na ich tle przedstawić odmienność podejścia naukowego.
Model oparły na autorytecie
W modelu opartym na autorytecie ludzie poszukują wiedzy, odwołując się do tych
osób, które z powodów społecznych lub politycznych są uważane za jej źródło. Są nimi na
przykład czarownicy w społeczeństwach plemiennych, dostojnicy kościelni w
społeczeństwach teokratycznych (np. mułłowie we współczesnym Iranie), królowie w
monarchiach i naukowcy w społeczeństwach technokratycznych. W każdym
2 Walter L. Wallace (1971), The Logic of Science in Sociology, Hawthorne, N.Y.:
Aldine, s. 11; por. również Anthony 0'Hear (1989), An Introduction to the Philosophy of
Science, New York: Oxford University Press.
18
społeczeństwie różne osoby obdarzone autorytetem mogą stanowić źródła wiedzy o
odmiennych zjawiskach. Dla większości pobożnych katolików, na przykład, niepodważalny
autorytet w sprawach religijnych tradycyjnie ma papież. Z kolei w czasach rewolucji
kulturalnej w Chinach (począwszy od 1965 roku) taki sam autorytet we wszystkich sprawach
miał przewodniczący Mao Tse-tung i jego żona. Mała czerwona książeczka zawierająca
aforyzmy Mao służyła jako „biblia" i decydowała o tym, co można było uważać za poprawne
myślenie i poprawne zachowanie. Muł-łowie we współczesnym Iranie to inny, aktualny,
przykład. W modelu opartym na autorytecie zdolność generowania wiedzy przypisywana jest
autorytetom społecznym, politycznym i religijnym. Sposób, w jaki ludzie zdobywają tę
wiedzę (np. ceremoniał), wpływa na tryb jej przekazywania przez autorytety, nie wpływa zaś
na zaufanie ludzi do samej wiedzy. Ci, którzy chcieliby zdyskredytować lub zdelegi-
tymizować autorytet osoby uważanej za źródło wiedzy, muszą być przygotowani na szybkie
odpieranie zarzutów pod swoim adresem oraz umieć wskazać alternatywne źródła tej wiedzy.
Model oparły na wierze
W modelu opartym na wierze osoby poszukujące prawdy znajdują wiedzę u
autorytetów ponadnaturalnych takich, jak wróżbici, wyrocznie czy media. W tym aspekcie
model oparty na wierze przypomina model oparty na autorytecie. Modele te różnią się jednak
obecnością zdarzeń ponadnaturalnych i stanem psychologicznym osób szukających wiedzy
charakterystycznej dla modelu drugiego. Model oparty na wierze zależy bowiem w dużym
stopniu od wykorzystania ceremoniału i rytuału. Obrzęd związany z przepowiedniami
astrologicznymi, na przykład, ma na celu przekonanie laików o ponadnaturalnej mocy
astrologów.
Co więcej, w sytuacjach depresji i bezradności istnieje duże zapotrzebowanie na
wiedzę opartą na wierze. Zaufanie do wiedzy zdobywanej w ten sposób spada natomiast wraz
ze wzrostem liczby osób, które ją odrzucają, ze wzrostem poziomu wykształcenia
społeczeństwa oraz z poprawą kondycji psychologicznej jednostki.
Model racjonalny
Zgodnie z kierunkiem filozofii określanym jako racjonalizm istnieje możliwość
zdobycia wiedzy poprzez proste odwołanie się do reguł i metod logiki. U podstaw
racjonalizmu leżą następujące założenia: (1) istnieje możliwość poznania świata niezależnie
od zjawisk dostępnych obserwacji, (2) wiedza jest niezależna od naszego osobistego
doświadczenia. Innymi słowy, model racjonalny dotyczy wiedzy zasadniczo prawdziwej,
logicznie możliwej i dopuszczalnej.
Dla racjonalisty myśleć racjonalnie oznacza respektować zasady abstrakcyjnej logiki
formalnej. Logika jest nauką normatywną, a jej reguły pozwalają na sformułowanie kryteriów
odróżniania naukowych pytań od nienaukowego myślenia. Jeden z klasycznych racjonalistów,
grecki filozof Arystoteles (384-322 p.n.e.) intensywnie studiował podstawy logiki, a co się z
tym wiąże — strukturę wiedzy i prawdy. Niemiecki filozof Immanuel Kant (1724-1804)
oświadczył:
Od czasów Arystotelesa nie musiała ona [tj. logika] zrobić żadnego kroku wstecz, o ile
do poprawek nie zechcemy zaliczyć np. usunięcia niektórych zbędnych subtelności lub
wyraźniejszego określenia tego, co już zostało wyłożone,
19
należy to jednak raczej do elegancji niż do pewności nauki. Osobliwe jest jeszcze to,
że nie mogła dotychczas zrobić także ani kroku naprzód i że przeto, wedle wszelkich danych,
wydaje się zamknięta i wykończona3.
Pogląd, że wiedza istnieje a priori i że jest niezależna od ludzkiego doświadczenia,
utrzymał się po okresie klasycznego racjonalizmu. Najwyższym ucieleśnieniem racjonalizmu
we współczesnej nauce jest matematyka. Czysta matematyka składa się z twierdzeń, które są
uniwersalne, trafne, pewne i niezależne od świata empirycznego. Twierdzenia czystej
geometrii, na przykład, są — z definicji — traktowane jako bezwzględne i prawdziwe. Czysta
geometria nie mówi nic na temat rzeczywistości. Jej twierdzenia są tautologiami, tj.
twierdzeniami, które są prawdziwe tylko na mocy ich formy logicznej. Chociaż czysta
matematyka i logika formalna są podstawowe dla podejścia naukowego, to ich wartość dla
nauk społecznych „istnieje o tyle, o ile służą one jako środki owocnego postępu tych nauk.
Powinny być stosowane w taki sposób, w jaki stosuje się skomplikowane narzędzia: jedynie
wtedy i tam, gdzie mogą pomóc i nie przeszkadzają postępowi"4.
¦ Podstawowe założenia przyjmowane w nauce
Podejście naukowe opiera się na zbiorze założeń, które nie są dowiedzione i których
się nie dowodzi. Te podstawowe przesłanki stanowią warunki wstępne konieczne do
prowadzenia naukowej dyskusji. Epistemologia, badanie podstaw wiedzy, zajmuje się naturą
tych przesłanek i rolą, jaką one odgrywają. Badając je, możemy lepiej zrozumieć istotę
podejścia naukowego i przypisywaną mu przewagę nad innymi źródłami wiedzy.
1. Natura jest uporządkowana. Podstawowym założeniem przyjmowanym w nauce
jest założenie o istnieniu rozpoznawalnej regularności i o porządku w świecie rzeczywistym
— zdarzenia nie pojawiają się losowo. Naukowcy zakładają, że nawet w intensywnie
zmieniającym się środowisku istnieje określony stopień uporządkowania i ustrukturowania.
Każda zmiana ma własny schemat i może być zrozumiana.
Racjonalna koncepcja rzeczywistości nie odnosi się do sił ponadnaturalnych czy
wszechmocnych. W nauce rzeczywistość (natura) składa się z wszystkich empirycznie
obserwowalnych obiektów, warunków i zdarzeń, które istnieją niezależnie od ludzkiej
interwencji (włączając w to ludzi jako systemy biologiczne). Prawa natury raczej opisują, niż
wyznaczają to, co rzeczywiście się wydarza. Uporządkowanie i regularność natury nie są
jednak nieodłącznymi cechami zjawisk. Nie ma, na przykład, żadnej logicznie sprawczej
przyczyny, dla której wiosna powinna następować po zimie, zima po jesieni, jesień po lecie, a
lato po wiośnie. Ponieważ
3 Immanuel Kant (1881), Critiąue of Pure Reason, London: Macmillan, s. 688; wyd.
polskie: Im-manuel Kant (1957), Krytyka czystego rozumu.Warszawa: PWN, tłum. Roman
Ingarden, tom I, s. 21 (cytowany fragment pochodzi z „Przedmowy do drugiego wydania"
napisanej przez Kanta. W wydaniu angielskim przedmowa ta zamyka książkę; w wydaniu
polskim znajduje się na początku — przyp- tłum.).
4 Kurt Lewin (1975), Field Theory in Social Science, Westport, Conn.: Greenwood
Press, s. 12.
20
jednak tak się dzieje, i to regularnie, więc zakładamy, że podobne regularności leżą u
podstaw również innych zjawisk.
2. Natura jest poznawalna. Założenia, że można poznać naturę, nie możemy bardziej
dowieść niż założenia o uporządkowaniu natury i istnieniu praw natury. Wyraża ono
podstawowe przekonanie, że istoty ludzkie są na tyle częścią natury, na ile są nią inne
obiekty, warunki i zdarzenia. Chociaż posiadamy jedyne w swoim rodzaju, odmienne cechy
charakterystyczne, to jednak możemy wyjaśniać i rozumieć siebie, korzystając z tych samych
metod, za pomocą których badamy inne naturalne zjawiska. Jednostki i zjawiska społeczne
wykazują wystarczającą powtarzalność, uporządkowanie i dające się empirycznie udowodnić
wzorce, aby zostały one poddane badaniu naukowemu. Ludzki umysł może zatem nie tylko
poznawać naturę, lecz również poznawać siebie i umysły innych.
3. Wszystkie naturalne zjawiska mają naturalne przyczyny. Założenie, że wszystkie
naturalne zjawiska mają naturalne przyczyny lub da się wskazać inne zjawiska je
poprzedzające, jest najbardziej skrótowym opisem istoty rewolucji naukowej. W podejściu
naukowym odrzucamy bowiem wiarę w to, że przyczynami zdarzeń mogą być inne siły niż
odkryte w badaniach natury. Podejście naukowe w tym sensie znajduje się w opozycji
zarówno w stosunku do religii fundamentalistycznych, jak i do spirytualizmu czy magii. Co
więcej, tak długo, jak długo naukowcy potrafią wyjaśniać zjawiska w terminach natury, będą
odrzucać argumenty o konieczności innych, ponadnaturalnych wyjaśnień. Założenie to
sytuuje badania naukowe z dala od poszukiwania wszechobecnych sił ponadnaturalnych, a
ustawia je w kierunku empirycznego poszukiwania regularności i porządku leżącego u
podstaw zjawisk naturalnych. Regularności te, raz określone, mogą służyć jako dowód
związków przyczynowo-skutkowych.
4. Nic nie jest dowiedzione samo w sobie. Wiedza naukowa nie jest prawdziwa sama
w sobie. Jej prawdziwość musi zostać dowiedziona obiektywnie. Naukowcy nie mogą
polegać jedynie na tradycyjnych, subiektywnych wierzeniach czy na zdrowym rozsądku, gdy
weryfikują wiedzę naukową. Akceptują oni, że zawsze istnieją możliwości popełnienia błędu
i że najprostsze wnioski wymagają obiektywnego dowodu. Myślenie naukowe jest więc i
sceptyczne, i krytyczne.
5. Wiedza jest wyprowadzana z nabywanego doświadczenia. Jeżeli nauka ma nam
pomóc w zrozumieniu rzeczywistego świata, to musi być empiryczna. Oznacza to, że musi się
ona opierać na spostrzeżeniach, doświadczeniu i obserwacji. Spostrzeganie jest podstawową
zasadą podejścia naukowego i zależy od naszych zmysłów:
W nauce zakłada się, że komunikacyjny pomost pomiędzy człowiekiem i światem
zewnętrznym jest możliwy dzięki jego własnym wrażeniom zmysłowym. Wiedza jest
uważana za produkt naszego doświadczenia tak dalece, jak fizyczne, biologiczne i społeczne
cechy naszego świata oddziaływują na nasze zmysły5.
5 Gideon Sjoberg, Roger Nett (1968), A Methodology for Social Research, New York:
Harper & Row, s. 26.
21
Wiedza nie jest jednak zdobywana wyłącznie na drodze percepcji za pomocą pięciu
zmysłów: dotyku, węchu, smaku, słuchu i wzroku. Wielu zdarzeń nie można bezpośrednio
doświadczyć ani zaobserwować. Obserwowanie jako aktywność psychiczna nie jest
„prawdziwe samo w sobie" ani całkowicie niezależne od terminów, pojęć czy teorii
wykorzystywanych przez naukowców. Jak powiedział brytyjski filozof nauki Karl Popper
(1902-1994):
Naiwny empirysta [...] sądzi, że wspinanie się po drabinie nauki rozpoczynamy od
gromadzenia i przetwarzania naszych doświadczeń [...] Ale gdybym otrzymał polecenie:
„zdaj sprawę z tego, czego w tej chwili doświadczasz", nie bardzo wiedziałbym, w jaki
sposób spełnić to niejasne żądanie. Czy mam zdać sprawę, że piszę, że słyszę dźwięk
dzwonka, okrzyki gazeciarza, monotonny dźwięk głośnika, czy też mam zdać sprawę z tego,
że dźwięki te mnie drażnią? [...] Nauka zakłada przyjęcie pewnego punktu widzenia i
postawienie problemów teoretycznych6.
Historycznie rzecz biorąc, założenie mówiące o tym, że wiedza naukowa powinna być
oparta wyłącznie na empirycznych obserwacjach, było reakcją skierowaną przeciwko wierze,
że wiedza jest ludziom dana i że do jej weryfikacji wystarczą jedynie „czyste przyczyny".
6. Wiedza przewyższa ignorację. Przekonanie o tym, że należy uprawiać naukę ze
względu na jej wewnętrzny rozwój jak i ze względu na możliwość poprawienia kondycji
ludzi, jest ściśle związane z założeniem o możliwości poznawania tak siebie samych, jak i
natury. Teza, że wiedza przewyższa ignorancję, nie oznacza jednak, że wszystko, co dotyczy
natury, może zostać poznane. Naukowcy zakładają raczej, że wszelka wiedza ma charakter
względny i że się zmienia. To, czego nie poznaliśmy w przeszłości, znamy teraz, a wiedza
aktualna może zostać zmodyfikowana w przyszłości. Prawda w nauce zawsze zależy od
dowodów, metod i branych pod uwagę teorii. Zawsze dopuszcza modyfikacje.
Przekonanie, że wiedza względna jest lepsza niż ignorancja, pozostaje w całkowitej
opozycji do systemów wiedzy opartych na prawdzie absolutnej. Według Gideona Sjoberga i
Rogera Netta:
Idea, że ludzka godność jest tym większa, im bardziej człowiek jest niespokojny,
poszukujący i rozumiejący, stoi na pewno w sprzeczności z wieloma systemami przekonań
mającymi charakter zamkniętego systemu opartego na prawdzie absolutnej. Historia
współczesnej nauki i jej ścierania się z takimi systemami jest dowodem na to twierdzenie7.
Osoby przekonane, że znają prawdę, „wiedzą" wszystko, co jest do poznania. Wiedza
naukowa zagraża ich utartym sposobom postępowania oraz ich spokojowi,
6 Karl R. Popper (1961), The Logic of Scientific Discovery, New York: Science
Editions, s. 106; wyd. polskie: Karl R. Popper (1977), Logika odkrycia naukowego.
Warszawa: PWN, tłum. Urszula Niklas, s. 254.
7 Sjoberg, Nett, A Methodology for Social Research, s. 25.
22
trwałości i status quo. Podejście naukowe oferuje im w zamian jedynie przypuszczalną
prawdę, uwzględniającą istniejący stan wiedzy. Siła i słabość podejścia naukowego leży w
naturze prawdy, która nie jest pewna i ma charakter względny.
Jest siłą w tym sensie, że człowiek racjonalny, w długiej perspektywie, zachowuje się
tak, aby poprawić popełniane przez siebie błędy. Jest słabością, ponieważ naukowcy, w
odróżnieniu od opinii publicznej, nie mają tak dużego zaufania do trafności własnych
twierdzeń. Toteż często, w momentach kryzysu groźnego dla bezpieczeństwa publicznego,
mogą zostać zakrzyczani przez absolu-tystów. Nauka często jest czasowo bezradna,
zwłaszcza wtedy, gdy jej bastiony są szturmowane przez nadgorliwych propagatorów
absolutnych systemów przekonań8.
¦ Cele nauk społecznych
Po przedstawieniu założeń przyjmowanych w nauce możemy teraz ponownie zadać
pytanie, które pojawiło się już na początku: Co nauka ma do zaoferowania ludziom, którzy
interesują się problemami społecznymi? Podstawowym celem nauki, w tym nauk
społecznych, jest dostarczanie — dającej się zweryfikować — wiedzy. Wiedza pomaga nam
wyjaśnić, przewidzieć i zrozumieć interesujące nas zjawiska empiryczne. Co więcej,
całokształt wiedzy może zostać wykorzystany do poprawy kondycji ludzi. Czym jest zatem
wyjaśnianie naukowe? Kiedy możemy przewidywać? Kiedy mamo prawo twierdzić, że
rozumiemy zjawiska empiryczne?
Wyjaśnianie naukowe
Dlaczego wydatki rządowe w Szwecji są — per capita — wyższe niż w Stanach
Zjednoczonych? „Ponieważ — może ktoś odpowiedzieć — Szwedzi chcą, aby ich rząd
wydawał więcej". Takie wyjaśnienie może usatysfakcjonować laika, lecz nie będzie
wystarczające dla przedstawicieli nauk społecznych, jeżeli nie będą mogli oni zastosować
takiego samego sposobu myślenia, aby wyjaśnić wydatki rządowe per capita w innych
systemach politycznych. I tak na przykład całkowite wydatki rządowe w Wielkiej Brytanii
spadły od czasu wygrania wyborów powszechnych przez Partię Konserwatywną, chociaż z
badań wynika, że większość Brytyjczyków chce, aby rząd wydawał więcej.
Celem specjalistów w dziedzinie nauk społecznych jest znalezienie ogólnego
wyjaśnienia, dlaczego określone zdarzenie lub zachowanie następuje. W sposób
systematyczny i empiryczny analizują oni wcześniejsze czynniki, które spowodowały to
zdarzenie lub zachowanie.
Od czasów, gdy szkocki filozof Dawid Hume (1711-1776) przedstawił swoją teorię
myślenia naukowego, termin wyjaśnianie opisuje sytuację, w której jedno zjawisko jest
wyjaśniane za pomocą innego zjawiska poprzez odwołanie się do praw ogólnych. Prawa
ogólne tworzą podstawy wyjaśniania konkretnych zjawisk. Według Richarda Braithwaite'a:
8 Ibidem, s. 26.
23
Funkcją nauki [...] jest ustalanie praw ogólnych dotyczących zdarzeń empirycznych
lub zachowań obiektów, którymi zajmuje się dana dyscyplina wiedzy. W ten sposób możemy
powiązać naszą wiedzę o oddzielnych zdarzeniach i rzetelnie przewidzieć te zdarzenia, o
których dzisiaj jeszcze nic nie wiemy [...] Jeżeli nauka znajduje się na wysokim poziomie
rozwoju [...] to ustalone prawa będą tworzyć hierarchię, w której wiele praw szczegółowych
będzie logicznymi konsekwencjami niewielkiej liczby praw bardzo ogólnych [...] Jeżeli nauka
znajduje się na wczesnym etapie rozwoju [...] to budowane prawa mogą być jedynie
generalizacjami wynikającymi z przyporządkowywania obiektów różnym klasom9.
Wraz z rozwojem danej dyscypliny naukowej zmieniają się stosowane przez nią formy
wyjaśniania. Carl Hempel wprowadził dwa rodzaje wyjaśniania naukowego: wyjaśnianie
dedukcyjne i probabilistyczne. Podział ten wynika ze sposobów generalizowania wniosków w
ramach danego sposobu wyjaśniania10.
Wyjaśnianie dedukcyjne. Wyjaśnianie dedukcyjne wymaga: (a) uniwersalnych
generalizacji, (b) ustalenia warunków, w jakich te generalizacje są prawdziwe; (c) zdarzenia,
które ma zostać wyjaśnione; (d) reguł logiki formalnej. W wyjaśnianiu dedukcyjnym dane
zjawisko wyjaśniamy, pokazując, że może zostać ono wyprowadzone z ustalonego prawa
ogólnego. I tak na przykład wyjaśnienie zjawiska powrotu obiektu rzuconego w powietrze na
ziemię będzie oparte na prawie grawitacji. Naukowiec może stwierdzić, że jeżeli wzajemne
przyciąganie dotyczy wszystkich obiektów, to możemy oczekiwać, że każdy konkretny obiekt
będzie się zachowywał tak samo w stosunku do Ziemi. Niezbędnym warunkiem prawa
ogólnego jest zatem to, że musi ono dotyczyć wszystkich możliwych przypadków.
W myśleniu dedukcyjnym przesłanki prowadzą w sposób konieczny do wniosków.
Oznacza to, że wtedy i tylko wtedy, gdy przesłanki są prawdziwe, prawdziwe też będą
wnioski. Jeżeli jednak przesłanki nie są prawdziwe, to i wnioski są nieprawdziwe.
Przypuśćmy, że urzędnicy państwowi wybrani spośród demokratów powinni zostać ponownie
przegłosowani (przesłanka nieprawdziwa). Jeżeli John Brown jest urzędnikiem państwowym i
został wybrany spośród demokratów, to jego kandydatura wymaga zatem ponownego
głosowania (wniosek nieprawdziwy). Wyjaśnianie dedukcyjne jest najmocniejszym rodzajem
wyjaśniania, ponieważ wnioski dzięki niemu wyprowadzane są zawsze prawdziwe, jeżeli
prawdziwe są przesłanki, i ponieważ zdarzenia jednostkowe są tu równie dobrze wyjaśniane
jak powszechne zachowania.
Wyjaśnianie probabilistyczne. Nie każde wyjaśnienie naukowe jest oparte na prawdzie
uniwersalnej (ogólnej). Dzieje się tak szczególnie w naukach społecznych, gdyż w ich ramach
istnieje niewiele istotnych uniwersalnych generalizacji. Przedstawiciel nauk politycznych
może, na przykład, wyjaśniać konkretny wzrost wydat-
9 Richard B. Braithwaite (1960), Scientific Explanation, New York: Harper & Row,
s. 1.
10 Carl G. Hempel (1966), Philosophy of Natural Science, Englewood Cliffs, N.J.:
Prentice Hall, rozdz. 5; wyd. polskie: Carl Hempel (1968), Podstawy nauk przyrodniczych,
Warszawa: WNT, tłum. Barbara Stanosz.
24
ków rządowych w Stanach Zjednoczonych, twierdząc, że wzrost ten był wynikiem
niekorzystnych warunków ekonomicznych. Jego wniosek wynika stąd, że w przeszłości
wzrost wydatków rządowych następował po okresie ciężkich warunków ekonomicznych. W
wyjaśnieniu tym zjawisko, które ma zostać wyjaśnione, zostało powiązane z jego
wcześniejszymi przejawami — warunkami ekonomicznymi państwa. Naukowcy
zaproponowali takie wyjaśnienie, ponieważ okazało się, że istnieje związek pomiędzy
warunkami ekonomicznymi i wydatkami państwa. Związek ten nie może jednak zostać
opisany w postaci prawa ogólnego, ponieważ nie każdy przypadek nie sprzyjających
warunków ekonomicznych prowadzi do wzrostu wydatków rządowych. Naukowcy mogą
jedynie przypuszczać, że istnieje wysokie prawdopodobieństwo, iż trudne warunki
ekonomiczne będą powodowały wzrost wydatków rządowych, lub pokazać, że w dużej
liczbie badanych wypadków ciężkie warunki ekonomiczne prowadziły do wzrostu wydatków
rządowych. Wyjaśnienia tego typu są określane jako wyjaśnienia probabilistyczne lub
indukcyjne i wynikają one z uogólnień probabilistycznych. Innymi słowy, wyjaśnianie
probabilistyczne odwołuje się do uogólnień wyrażających albo arytmetyczny stosunek
jednego zjawiska do drugiego (n procent z X - Y), albo jest uogólnieniem wyrażającym
określone tendencje/skłonności: (X ma skłonność do wywoływania Y).
Głównym ograniczeniem generalizacji probabilistycznych czy indukcyjnych jest, w
porównaniu z prawami ogólnymi, to, że wnioski dotyczące konkretnych wypadków nie mogą
zostać wyprowadzone z całkowitą pewnością. Jeżeli na przykład wiadomo, że 70% członków
danej grupy etnicznej głosowało na Partię Demokratyczną przez ostatnie dwadzieścia lat, to
nadal nie można wnioskować z całkowitą pewnością, że prawdopodobieństwo, iż konkretny
członek tej grupy etnicznej będzie głosował na demokratów, wynosi 7/10. Na zachowanie
pojedynczej osoby mogły bowiem wpłynąć inne, oprócz przynależności do grupy etnicznej,
czynniki. Osoba ta może należeć również do organizacji społecznej o długich tradycjach
republikańskich i to może przewyższyć wpływ przynależności etnicznej. Do problemu
wnioskowania wrócimy jeszcze w rozdziale 10.
Przewidywanie
Wyjaśnianie dedukcyjne i probabilistyczne tworzą jeden z ważnych składników
wiedzy naukowej. Innym jest przewidywanie. Umiejętność właściwego przewidywania jest
uważana za podstawową cechę myślenia naukowego. Jeżeli wiedza jest niedostateczna, to
przewidywanie nie jest możliwe. Jeżeli wiadomo, że 2 x 6 = 12, to możemy przewidzieć, jaki
będzie wynik zliczenia obiektów należących do dwóch grup, jeżeli do każdej należy po sześć
obiektów. Jeżeli wiadomo, że temperatura zamarzania wody wynosi 32°F lub 0°C, to można
przewidzieć, co się stanie, jeżeli w zimie nie dodamy przeciwzamrażacza do wody wlewanej
do chłodnicy samochodu. Jeżeli wiadomo, że rząd zwiększa swoje wydatki w czasie
ekonomicznej recesji, to można przewidywać, że przyszłe recesje będą przynosić wzrost
wydatków rządowych. Jeżeli wiadomo, że program poszukiwania pracy przyczynia się do
rozwiązania problemu bezrobocia, to można przewidywać, że stopa bezrobocia będzie
spadała wraz z uruchamianiem takich programów.
Oczekiwanie, że wiedza naukowa powinna prowadzić do dokładnych przewidywań,
jest oparte na tezie, że jeżeli X powoduje Y i zaszło X, to można przewidywać, że zajdzie Y.
U źródeł tej tezy leży założenie, że zarówno prawa ogólne, jak
25
i generalizacje probabilistyczne są rozpoznawalne i prawdziwe — zostały spełnione
przyczyny warunkujące pojawienie się skutku. Przewidywanie może się okazać nietrafne, gdy
(1) prawo lub generalizacja nie są prawdziwe lub (2) przyczyny (warunki poprzedzające)
zostały źle zinterpretowane. Powiedzmy zatem, że jeżeli problem bezrobocia nie został
rozwiązany, to stało się tak dlatego, że programy poszukiwania pracy nie rozwiązują
problemu bezrobocia (nieprawdziwa generalizacja) lub że program poszukiwania pracy został
mylnie potraktowany jako działanie sprzyjające rozwiązaniu problemu bezrobocia.
Odwołując się do dedukcyjnego modelu wyjaśniania, możemy pokazać, że proces
przewidywania jest — logicznie rzecz biorąc — odwrotnością procesu wyjaśniania. W
procesie przewidywania wcześniejsze obserwacje wskazywały jedynie na to, że wystąpiły
warunki wyjściowe. Prawa uniwersalne czy generalizacje probabilistyczne są
wykorzystywane do uzasadniania przewidywania —jeżeli zaszły określone warunki wstępne,
to po nich będą następować określone konsekwencje.
Możemy teraz pokazać, jaka jest logiczna struktura wyjaśniania naukowego".
Struktura ta składa się z trzech następujących części:
1. Twierdzenia E opisującego konkretne zjawisko lub zdarzenie, które ma być
wyjaśnione.
2. Zbioru twierdzeń Ax do An opisujących specyficzne warunki, które poprzedzają
zjawisko E lub są przyczynowo z nim powiązane.
3. Zbioru praw ogólnych lub generalizacji probabilistycznych L, do L„ mówiących,
że: „Jeżeli zajdzie jakiekolwiek zdarzenie z rodzaju opisanych przez A{ do An, to zajdzie
zdarzenie opisane przez E".
Aby te trzy części umożliwiały wyjaśnienie jakiegoś zjawiska czy zdarzenia, muszą
zostać spełnione przynajmniej dwa warunki:
1. Twierdzenie E musi być dedukcyjnie wyprowadzane z twierdzeń A i L łącznie, a
nie z każdego z tych zbiorów oddzielnie.
2. Twierdzenia A i L muszą być prawdziwe.
Poniżej przedstawiamy symboliczny zapis struktury logicznej wyjaśniania i
przewidywania naukowego:
Lj, . . ., L„
A\, . . ., A„
wynika stąd, że E
Struktura logiczna wyjaśniania jest identyczna jak struktura przewidywania. Różnica
tkwi w perspektywie przyjmowanej przez naukowców. W wypadku wyjaśniania zdarzenie L
jest zdarzeniem należącym do przeszłości i wynika z aktualnego stanu wiedzy. Naukowcy
poszukują właściwych twierdzeń typu A lub praw typu
" Przedstawiony tu przykład został zaczerpnięty z książki Richarda S. Rudnera (1966),
Philosophy of Social Science, Englewood Cliffs, N.J.: Prentice Hall, s. 60.
26
L będących podstawą wyjaśnienia zdarzenia E. W wypadku przewidywania natomiast
twierdzenia typu A lub prawa typu L są już znane, a naukowcy poszukują przyszłych zdarzeń
z nich wynikających.
Rozumienie
Trzecią cechą wiedzy naukowej jest rozumienie. Termin „rozumienie" jest stosowany
na dwa różne sposoby —jako Verstehen (albo rozumienie oparte na empatii) lub jako
rozumienie predyktywne. Przyczyną dwóch sposobów wykorzystywania tego terminu jest to,
że z jednej strony przedmiotem badania nauk społecznych jest człowiek, a z drugiej —
przedstawiciele nauk społecznych są zarówno obserwatorami, jak i częścią przedmiotu
badawczego swojej dyscypliny. Zgodnie z Hansem Zetterbergiem:
Symbole są materią, z której zostały utkane kultury i społeczeństwa [...] Na przykład
sekwencja pojęć: narodziny, karmienie i odłączenie od piersi odzwierciedla biologiczną treść
rodzicielstwa. Analizując psychologiczny wymiar rodzicielstwa, okazuje się, że oprócz
rzeczywistości biologicznej możemy wskazać na zespół symboli (np. wartości, normy), które
dotyczą chęci posiadania dzieci, odpowiedzialności za opiekę nad nimi i nad ich
wykształceniem, prawa do podejmowania niektórych decyzji w ich imieniu, umożliwiania im
udziału w niektórych społecznych rytuałach [...] Język nasz zawiera zatem kodyfikację tego,
kim są rodzice, co powinni oni robić i jakie powinności obowiązują nas w stosunku do nich.
Te wszystkie zdania w naszym języku reprezentują społeczny wymiar rodzicielstwa.
Rzeczywistość społeczna składa się, tak w tym, jak i w innych przykładach, z symboli12.
Czy w takim razie symbole, a co za tym idzie, również zachowanie ludzi, mogą być
badane przy wykorzystaniu tej samej metodologii, którą stosuje się w naukach
przyrodniczych? Czy przedmiot badania nauk społecznych nie jest tak złożony i odmienny, że
powinno się dla niego wypracować specyficzną metodologię? Czy przedstawiciele nauk
społecznych, -w przeciwieństwie do przedstawicieli nauk przyrodniczych, nie powinni
patrzeć „z głębi" własnego przedmiotu badawczego, aby lepiej go zrozumieć?
Tradycja Verstehen. Zgodnie z tradycyjnym rozumieniem słowa Verstehen
(niemieckie określenie terminu „empatia")* nauki przyrodnicze i nauki społeczne tworzą
dwie odmienne dziedziny wiedzy. Powodem tej odmienności jest natura właściwego im
przedmiotu badawczego.
Zwolennicy tej tradycji utrzymują, że nauki przyrodnicze i nauki społeczne mu-
* Według S. Blackburne'a (Oksfordzki słownik filozoficzny, Warszawa 1997, KiW, s.
421-422) termin verstehen oznacza: „nasze rozumienie czynności ludzkich. W ramach
tradycji verstehen czynności te rozumiane są od wewnątrz dzięki zupełnie innym środkom niż
te, które umożliwiają poznanie przedmiotu przez obiektywną obserwację lub przez określenie
jego miejsca w sieci regularności naukowych". Werstehen — z niem. „rozumieć" (przyp. red.
nauk.).
12 Hans L. Zetterberg (1965), On Theory and Verification in Sociology, wyd. 3, N.J.:
Bedminster Press, s. 1-2; por. również Kenneth J. Gergen (1982), Toward Transformation
ofSocial Knowledge, New York: Springer-Yerlag.
27
szą stosować różne metody badawcze. Przedstawiciele nauk społecznych powinni, na
przykład, rozumieć zarówno historyczny wymiar ludzkiego zachowania, jak i subiektywny
aspekt ludzkiego doświadczenia. Max Weber (1864-1930), socjolog niemiecki, uważał że
jeżeli w naukach społecznych mamy zrozumieć zachowanie jednostek i grup, to musimy się
nauczyć „stawać na miejscu badanych". Musimy zrozumieć cudzy punkt widzenia
rzeczywistości, rozumieć cudze symbole, wartości i postawy13.
Już współcześnie podejście rozumiejące pojawiło się jako wytwór tradycji Ver-stehen.
Kenneth Gergen, wybitny przedstawiciel tego podejścia, uważał, że:
Istnieje podstawowa różnica pomiędzy większością zjawisk, którymi zajmują się
nauki przyrodnicze, i tymi, którymi zajmują się socjobehawioryści. Istnieje wiele przyczyn
pozwalających wierzyć, że — w wypadku tych ostatnich — zjawiska, które są traktowane
przez nich jako podstawowe, są mniej stabilne (trwałe, pewne czy powtarzalne) w
porównaniu z naukami przyrodniczymi [...] Chcąc rzecz ująć uczciwie, należy śmiało
stwierdzić, że przy całym wysiłku, aby rywalizować z metodami nauk przyrodniczych, ostatni
wiek badań i teorii socjobehawioralnych nie przyniósł tak rzetelnego prawa jak prawo
hydrostatyki Archimedesa czy ruchu jednostajnie przyśpieszonego Galileusza14.
Metodologia podejścia opartego na pojęciu Verstehen zostanie przedstawiona w
rozdziale 12.
Rozumienie predyktywne. W przeciwieństwie do nurtu Verstehen przedstawiciele tzw.
empiryzmu logicznego wychodzili z założenia, że można uzyskać wiedzę obiektywną w
naukach społecznych, badając zarówno świat społeczny, jak i świat przyrodniczy. Uważali
oni, że można studiować tak nauki społeczne, jak i nauki przyrodnicze, odwołując się do tych
samych reguł metodologicznych. Co więcej, według empirystów logicznych rozumienie
oparte na empatii może prowadzić do odkryć naukowych. Jeżeli jednak odkrycia te mają
zostać włączone do całokształtu wiedzy, to muszą zostać zweryfikowane obserwacjami
empirycznymi (pojęcie odkrycia naukowego w odróżnieniu od pojęcia weryfikacji zostanie
bardziej szczegółowo omówione dalej w tym rozdziale).
¦ Rola metodologii
Naukowców łączy stosowana metodologia, a nie przedmiot ich badań. Założenia
metodologii nauk sprawiają, że podejście naukowe jest zdecydowanie odmienne od innych
sposobów zdobywania wiedzy.
Metodologia nauk to system jasno określonych reguł i procedur, do których odwołują
się badania będące podstawą ewaluacji wiedzy. System ten nie jest ani niezmienny, ani
niezawodny — jest ciągle ulepszany. Naukowcy szukają nowych metod obserwacji, analizy,
logicznego wnioskowania i generahzacji. Ich powstanie
13 Max Weber (1964), The Theory of Social and Economic Organization, New York:
Free Press.
14 Gergen, Toward Transformation of Social Knowledge, s. 12.
28
oraz wykazanie, że spełniają one założenia właściwe dla podejścia naukowego, jest
warunkiem włączenia ich do systemu reguł rządzących metodologią naukową. Dlatego też
naukowa metodologia to system przede wszystkim samokorygujący:
Nauka nie wymaga potwierdzania jej twierdzeń za wszelką cenę. Twierdzenie musi
zostać poparte dającym się zaakceptować, logicznym dowodem. Dowód musi być starannie
przemyślany oraz sprawdzony za pomocą dobrze znanych kanonów wnioskowania. Oznacza
to, że metody nauki są bardziej niezmienne i ważniejsze dla naukowców niż jakikolwiek
rezultat szczegółowy uzyskany za pomocą jej środków. Dzięki nim realizacja zadań
naukowych jest procesem samokorygującym. Nie odwołuje się on do jakichś specjalnych
objawień czy niepodważalnych autorytetów. Nie oczekuje się od niego nieomylności, lecz
uwzględnienia metod budowania i testowania hipotez. Analizowanie realizowanych zadań
prowadzi z kolei do odkrywania kanonów prowadzenia badań, które w czasie trwania badań
mogą być modyfikowane15.
Metodologia nauk społecznych rozwijała się wolno. Następowała ciągła wymiana idei,
informacji i uwag krytycznych, co umożliwiło mocne osadzenie, a także pozwoliło na
zinstytucjonalizowanie powszechnie akceptowanych reguł i procedur oraz stworzenie
właściwych metod i technik. Ten system reguł i procedur jest normatywnym składnikiem
metodologii naukowej. Ponieważ to one definiują „reguły gry", więc normy naukowe tworzą
standardy powielane w badaniach i analizach naukowych. Reguły z kolei umożliwiają
komunikację, konstruktywną krytykę i naukowy postęp.
Metodologia dostarcza reguł komunikowania
Anatol Rapoport zilustrował ogólny problem komunikowania się dwóch osób, których
nie łączy wspólne doświadczenie, za pomocą następującej anegdoty.
Ślepiec poprosił, aby wyjaśniono mu, co oznacza „biały".
— Biały to jeden z kolorów — powiedziano mu. — Na przykład jak biały śnieg.
— Rozumiem — odrzekł ślepiec. — To jest zimny i mokry kolor.
— Nie, nie musi on być zimny i mokry. Zapomnij o śniegu. Papier, na przykład, też
jest biały.
— Ach, więc on szeleści? — zapytał ślepiec.
— Nie musi szeleścić. Przypomina też futro królika albinosa. —Miękki, puszysty
kolor? — dopytywał się ślepiec.
— Nie musi wcale być miękki. Porcelana też jest biała.
— Może w takim razie ten kolor jest kruchy? — zapytał ślepiec16.
Podstawową funkcją metodologii jest pomaganie ślepcowi w „patrzeniu", ułatwianie
komunikowania się badaczy, których łączy lub którzy chcą, aby ich łączyło
15 Morris R. Cohen, Ernest Nagel (1962), An Introduction to Logic and Scientific
Method, Orlando, Fla.: Harcourt Brace Jovanovich, s. 395-396.
16 Anatol Rapoport (1969), Operational Philosophy, New York: Wiley, s. 12.
29
wspólne doświadczenie. Co więcej, dzięki ujawnianiu reguł metodologii, sprawianiu,
że jest ona publiczna i dostępna, tworzy się podstawa do powtarzania badań i ich
konstruktywnej krytyki. Replikacja — czyli powtarzanie badań dokładnie w taki sposób, w
jaki przeprowadzili je badacze i naukowcy — ma chronić przed niezamierzonymi błędami i
oszustwami. Mówiąc o konstruktywnej krytyce, przyjmujemy, że gdy tylko zostaną
sformułowane twierdzenia nauki, mamy prawo zadawać następujące pytania: Czy
wyjaśnianie (przewidywanie) logicznie wynika z założeń?, Czy obserwacje są dokładne?,
Jakie zastosowano metody obserwacji?, Czy procedura testowania była trafna?, Czy jakieś
inne wyniki wpłynęły na wyprowadzone wnioski?, Czy otrzymane wyniki mogą zostać
wykorzystane w procesie dowodzenia poprawności innego wnioskowania? itd. W czasie
lektury tej książki przekonamy się, że powyższe pytania składają się na kryteria ewaluacji
wiedzy naukowej — tak starej, jak i nowej.
Metodologia dostarcza reguł wnioskowania
Chociaż obserwacje empiryczne są podstawowe w podejściu naukowym, to nie
„mówią one same za siebie". Obserwacje lub fakty empiryczne muszą być uporządkowane i
powiązane w logiczną, systematyczną strukturę. Głównym narzędziem podejścia naukowego
(też rejestrowania faktów) jest logika — system reguł wnioskowania pozwalających na
wyprowadzanie rzetelnych wniosków z zaobserwowanych faktów. Procedury logiczne mają
formę ściśle powiązanych ze sobą twierdzeń, wzajemnie się wspomagających. Stosując logikę
jako podstawę naukowego myślenia, metodologia nauki powiększa wewnętrzną spójność
twierdzeń formułowanych przez naukę. Fundamentalna dla podejścia naukowego logika — tj.
badanie podstaw i zasad wnioskowania — jest obecna w korzeniach nazw wielu dziedzin
badań, np. biologia, antropologia, socjologia, kryminologia czy geologia.
Metodologia (czy metodologie) wymaga zatem kompetencji w logicznym
wnioskowaniu oraz analizowaniu. W kolejnych rozdziałach omówimy elementy logiki, tj.
reguły budowania definicji, klasyfikacji oraz formy wnioskowania dedukcyjnego i
probabilistycznego (indukcyjnego), teorię prawdopodobieństwa, procedury losowania,
systemy rachunkowe oraz reguły pomiaru tworzące metodologiczny warsztat naukowca
prowadzącego badania w dziedzinie nauk społecznych. Podkreślmy, że korzystając z logiki,
nauka systematycznie — a niekiedy w sposób rewolucyjny — czyni postępy.
Metodologia dostarcza reguł intersubiektywności
Metodologia wyjaśnia akceptowane kryteria empirycznej obiektywności (prawdy)
oraz metody i techniki jej weryfikacji. Obiektywność i trafność są w dużym stopniu zależne.
Obiektywność zależy od weryfikacji tak dalece, że naukowcy nie mogą mówić o
obiektywności, aż inni naukowcy nie zweryfikują ich wyników. Intersubiektywność, która
jest wymianą informacji wśród naukowców, informacji dotyczących wyników obserwacji i
faktów, jest niezbędna, ponieważ samo myślenie logiczne nie gwarantuje jeszcze
emipirycznej obiektywności.
Wspomnieliśmy wyżej, że logika zajmuje się trafnym wnioskowaniem, a nie prawdą
empiryczną czy potwierdzonymi faktami. Fakt jest albo na pewno prawdziwy, albo
prawdziwy z określonym prawdopodobieństwem wtedy, gdy istnieje obie-
30

ktywny dowód, który go potwierdza. Twierdzenia nauki są trafne, gdy zostały


logicznie wyprowadzone czy wyciągnięte z przyjętych a priori założeń. Naukowcy mogą
zatem stawiać błędne wnioski z potwierdzonych faktów (prawdziwe twierdzenia), jeżeli
proces wnioskowania nie był poprawny. Mogą oni również wyciągać wnioski niepoprawne,
jeżeli wnioskowanie było właściwe (wnioskowanie logicznie trafne), ale nie odwołali się do
potwierdzonych faktów.
Prawdziwość twierdzenia wynika z doświadczenia; trafność twierdzenia wynika zaś z
jego wewnętrznej zgodności lub zgodności tego twierdzenia z innymi twierdzeniami17.
Rodzaje wyjaśniania dedukcyjnego i probabilistycznego (przewidywanie), omawiane
wcześniej, są zatem powiązane jedynie z wnioskowaniem trafnym logicznie. Innymi słowy,
trafność wniosków wynika z przyjętych wcześniej założeń. Jednakże ich prawdziwość nie
może zostać ustalona czy potwierdzona jedynie na drodze logicznej. Aby zweryfikować
prawdziwość twierdzenia, trzeba się odwołać do dowodów empirycznych. Jak pokazuje
poniższy przykład, ścisłe odwoływanie się do wnioskowania logicznego bez badania faktów
empirycznych może prowadzić do absurdalnych wniosków:
Wszyscy ludzie są istotami motywowanymi chęcią posiadania władzy. Wszystkie
istoty motywowane chęcią posiadania władzy są destrukcyjne. Wszyscy ludzie są
destrukcyjni.
Wiedząc, że kryteria obiektywności empirycznej i metody weryfikacji są wytworami
ludzkiego umysłu (w przeciwieństwie do przekonania, że prawda jest dana w sposób
absolutny), termin „intersubiektywność" jest bardziej właściwy niż termin „obiektywność",
aby opisać ten proces. Być intersubiektywnym oznacza, że wiedza (ogólnie) i metodologia
nauk (szczególnie) muszą być komunikowalne*. Zatem, jeżeli jeden naukowiec prowadzi
badanie, to inny może je powtórzyć i porównać ze sobą dwa zbiory wyników. Jeżeli
zastosowano prawidłową metodologię i (co zakładamy) warunki, w jakich przeprowadzono
badanie, czy zdarzenia, jakie nastąpiły, nie uległy zmianie, to mamy prawo oczekiwać
podobnych wyników. Warunki mogą się zmienić i wtedy pojawią się nowe okoliczności.
Istotność intersu-biektywności tkwi jednak w zdolności naukowców do rozumienia i
oceniania metod innych oraz do prowadzenia podobnych obserwacji w celu potwierdzenia
faktów i wniosków empirycznych. Zacytujmy Abrahama Kapłana:
*Mówiąc ściślej, rozróżniamy: (1) intersubiektywne komunikowanie (wiedza
naukowa powinna być zrozumiana przez każdego badacza posiadającego odpowiednie
kwalifikacje, a zatem socjolog powinien zrozumieć to, co przekazuje mu inny socjolog oraz
(2) intersubiek-tywną sprawdzalność (wiedza naukowa poddaje się kontroli, tzn. twierdzenie
socjologiczne sformułowane przez jednego socjologa powinno poddawać się tej samej
procedurze sprawdzenia zastosowanej przez innego socjologa. Zasada intersubiektywności
zwana jest też stabą zasadą racjonalności. Posługując się słabą zasadą racjonalności, można
oddzielić wiedzę racjonalną od wiedzy irracjonalnej. Por. J. Such, M. Szczęśniak (1999),
Filozofia nauki, Poznań: Wyd. Nauk. UAM (przyp. red. nauk.).
"Ibidem, s. 18.
31
Pytanie o charakterze metodologicznym jest zawsze ograniczone do pytania, czy
otrzymane wyniki obserwacji mogą być wykorzystane w kolejnych badaniach, nawet gdy
konkretny obserwator przestał być dalej częścią kontekstu18.
¦ Rewolucja naukowa
Jak się przekonaliśmy w dotychczasowych rozważaniach tego rozdziału, wiedza
naukowa jest wiedzą dającą się sprawdzić zarówno za pomocą wnioskowania, jak i
doświadczenia zmysłowego. Ważność metodologii nauk wypływa przede wszystkim stąd, że
dostarcza ona reguł komunikacji, reguł wnioskowania oraz procedur i metod obserwacji i
weryfikacji. W tym sensie metodologia jest normatywna — żąda zgodności z jej zasadami:
naukowcy odrzucają twierdzenia nauki, które sformułowano, nie respektując reguł i procedur
podawanych przez metodologię. Czy zatem wymóg poprawności metodologicznej nie
przeszkadza w dokonywaniu nowych odkryć — i co za tym idzie — w postępie naukowym?
Co więcej, ponieważ naukowcy są członkami społeczności naukowców, rządzącymi się
konwencjami, normami, rytuałami oraz uwikłanymi w związki oparte na władzy, które nie
muszą pozostawać w zgodzie z obiektywnymi celami wiedzy, to czy mogą oni powstrzymać
postęp?
Filozofowie nauki i teoretycy nauk społecznych od dawna dostrzegali
niebezpieczeństwo wynikające z dopasowania się do zasad i z dogmatyzmu w nauce. Jak
powiedział Scott Greer: „Jeżeli mamy szczęście i nasza wiedza naukowa się aku-muluje, to
może się ona wspinać spiralnie do góry; może również krążyć w kółko na tym samym
poziomie lub może spadać w dół — od teorii do doktryny dogmatyzmu"19. Wśród wielu
podejść opisujących naukowe rewolucje z perspektywy so-cjopolitycznej, teoria Thomasa
Kuhna dotycząca społeczności naukowców jest szczególnie prowokująca i warta bardziej
szczegółowego przedstawienia.
Nauka normalna a nauka rewolucyjna
Teoria Kuhna wprowadza rozróżnienie pomiędzy nauką normalną a nauką
rewolucyjną. Nauka normalna to rutynowa weryfikacja teorii (czy paradygmatu) dominującej
w danym momencie historycznym. Dla tego typu nauki weryfikacja i testowanie są
fragmentem działalności będącej rodzajem rowiązywania łamigłówek. Jak powiedział sam
Kuhn:
Terminu „nauka instytucjonalna"* używam dla oznaczenia badań wyrastających z
jednego lub wielu takich osiągnięć naukowych przeszłości, które dana społeczność uczonych
aktualnie akceptuje i traktuje jako fundament swej dal-
* W polskim tłumaczeniu Struktury rewolucji naukowych T.S. Kuhna termin normal
science został oddany przez red. nauk. tłumaczenia, S. Amsterdamskiego, jako „nauka
zinstytucjonalizowana". Później Amsterdamski w pracy Między doświadczeniem a
metafizyką (Warszawa 1973, KiW, s. 166) pisze, że skłania się do tłumaczenia tego terminu
jako „nauka normalna". Taką też wersję przyjęto w tym tłumaczeniu (przyp. tłum.) [Polskie
tłumaczenie odnosi się do wydania pierwszego pracy Khuna z 1962 roku — przyp. red.
nauk.].
18 Abraham Kapłan (1968), The Conduct of Inąuiry, New York: Harper & Row, s.
128.
19 Scott Greer (1989), The Logic ofSocial Inąuiry, New Brunswick, N.J.: Transaction
Books, s. 3-4.
32
szej praktyki. Z tych podstawowych osiągnięć — wprawdzie rzadko w ich formie
oryginalnej — zdają dzisiaj sprawę podręczniki, zarówno elementarne, jak i akademickie.
Przedstawiają one zespół uznawanych teorii, omawiają wiele lub wszystkie ich udane
zastosowania, konfrontując je z przykładowymi obserwacjami i eksperymentami20.
Tego typu teksty naukowe łączą studentów i praktyków w społeczności naukowe.
Określają one rodzaj problemów badawczych, rodzaj stosowanych założeń i pojęć, a także
rodzaj wykorzystywanych metod badawczych. Historycznie takie teksty i badania:
Nadawały się do takiego celu, gdyż miały dwie wspólne cechy zasadnicze.
Reprezentowany w nich dorobek był dostatecznie oryginalny i atrakcyjny, aby na tej
podstawie powstać mogła konkurencyjna wobec dotychczasowych metod szkoła.
Jednocześnie dorobek ten był na tyle otwarty, że pozostawiał nowej szkole najrozmaitsze
problemy do rozwiązania21.
Kuhn nazywa osiągnięcia mające te dwie cechy paradygmatami. Według niego
paradygmaty są ściśle powiązane z koncepcją nauki normalnej.
Posługując się [terminem „paradygmat"], chcę w ten sposób wyrazić, że pewne
akceptowane wzory współczesnej praktyki naukowej — wzory obejmujące równocześnie
prawa, teorie, zastosowania i wyposażenie techniczne — tworzą model, z którego wyłania się
jakaś szczególna, zwarta tradycja badań naukowych [...] Właśnie studiowanie paradygmatów
[...] przygotowuje studenta do przyszłego uczestnictwa w pracach jakiejś naukowej
wspólnoty22.
Przykładem paradygmatu może być materializm Marksa oraz teoria seksualnych
podstaw osobowości Freuda.
Naukowcy stają się członkami zbiorowości profesjonalistów. Liderzy tych
zbiorowości otrzymują te same i pochodzące z tego samego źródła podstawy własnej
dyscypliny (metodologiczne i pojęciowe), zatem ich kolejne badania będą rzadko
wywoływały niezgodę lub krytykę co do ich podstaw. Naukowcy, których badania wywodzą
się z powielanego paradygmatu, są psychologicznie podporządkowani tym samym regułom,
normom i standardom praktyki naukowej. „Takie współuczestnictwo i wynikająca z niego
jednomyślność są niezbędnymi warunkami nauki normalnej, tzn. ukształtowania się i trwania
określonej tradycji badawczej"23.
W przeciwieństwie do niezaangażowanych normalne społeczności naukowców to
grupy partyzantów podtrzymujących i broniących ustanowionego paradygmatu.
Przystawalność do paradygmatu nie musi jednak oznaczać, w sposób konieczny,
20 Thomas S. Kuhn (1970), The Structure ofScientifw Revolutions, wyd. 2, Chicago:
University of Chicago Press, s. 10; wyd. polskie: Thomas S. Kuhn (1968), Struktura rewolucji
naukowych. Warszawa: PWN, ttum. Helena Ostromęcka, s. 26.
21 Ibidem (wyd. polskie, s. 26).
22 Ibidem (wyd. polskie, s. 27).
23 Ibidem, s. 10-11 (wyd. polskie, s. 27).
33
wstrzymywania postępu naukowego. Paradygmaty jako zasada organizująca są
niewątpliwie konieczne. Bez nich badania naukowe jako działania zespołowe nie mogłyby
być realizowane. „Ustanowienie paradygmatu i prowadzenie badań dla bardziej
wtajemniczonych, a dopuszczanych przez ten paradygmat, jest oznaką dojrzałości w rozwoju
każdej dyscypliny naukowej"24. Nauka normalna jednakże uwiecznia siebie samą i dlatego
ogranicza zmiany i innowacje.
Nauka rewolucyjna
W przeciwieństwie do nauki normalnej Kuhn spostrzegał naukę rewolucyjną jako
nagły rozwój konkurencyjnego paradygmatu. Zmiana paradygmatu oznacza rewolucję
w nauce i może zostać zaakceptowana przez społeczność naukowców, lecz jedynie
stopniowo. I tak paradygmat, że ludzka inteligencja jest wytworem zarówno środowiska
socjokulturowego, jak i procesów genetycznych, zmienił wcześniejszy paradygmat, zgodnie z
którym inteligencja jest determinowana tylko przez czynniki genetyczne. Nowy paradygmat
zrewolucjonizował badania dotyczące osobowości i ludzkiego zachowania i stał się
kamieniem węgielnym wielu działań o charakterze społecznym, edukacyjnym i
ekonomicznym.
Proces odrzucenia dominującego paradygmatu rozpoczyna się, według Kuhna, od
próby weryfikacji paradygmatu. Podczas gdy naukowcy testują empirycznie różne wymiary i
konsekwencje dominującego paradygmatu, jego zgodność z wynikami badań empirycznych
jest coraz mniejsza. Kuhn określa taki brak zgodności mianem anomalii i twierdzi, że
anomalie stają się bardziej zauważalne w trakcie trwającego procesu weryfikacji czy procesu
rozwiązywania problemów. W pewnym momencie tworzy się paradygmat konkurencyjny. W
ten sposób powstaje konflikt pomiędzy zwolennikami starego i nowego paradygmatu.
Ostatecznie społeczność naukowców akceptuje nowy paradygmat i wraca do działań
typowych dla nauki normalnej. Okres przechodzenia od starego do nowego paradygmatu jest
źródłem niepewności i rozłamów w społecznościach naukowców. Okres ten, który może
trwać dziesiątki lat, charakteryzuje się prowadzeniem losowych badań, bezcelowych
weryfikacji i powstawaniem przypadkowych odkryć, dzięki którym w pewnym momencie i w
jakiś sposób paradygmat rewolucyjny zostaje osadzony na tronie.
Rewolucje naukowe zdarzają się jednak rzadko. Naukowcy na ogół koncentrują się na
nauce normalnej. Nie próbują obalać dominującego paradygmatu i od razu nie zauważają
anomalii. Ich spostrzeżenia są gromadzone w postaci kategorii umysłowych ustalanych na
długo przed tym, nim rozpoczną się procedury weryfikacyjne. Naukowcy, podobnie jak i inni
profesjonaliści, widzą to, co spodziewają się zobaczyć. Z tej przyczyny dominujący
paradygmat ma tendencję do pozostawania paradygmatem akceptowanym jeszcze długo po
tym, jak okazał się niezgodny z obserwacjami empirycznymi.
Logika odkrycia?
Według Kuhna być może nie ma logiki odkrycia, lecz istnieje jedynie jego kontekst
socjopsychologiczny. Nauka jest zawsze bogata w anomalie i wiele w niej niezgodności,
jednak dominujący paradygmat umożliwia rozwiązywanie łamigłówek do momentu, aż nie
zostanie on zniesiony przez kryzys. Czy można wskazać na racjonalne
Ibidem, s. 11 (wyd. polskie, s. 28).
34
przyczyny pojawiania się kryzysów w nauce? W jaki sposób tworzy się
konkurencyjny paradygmat? Pytania te nie pojawiają się w pracy Kuhna. Dla niego nie ma
logiki odkrycia; jest raczej ścieranie się grup wewnątrz społeczności naukowców.
Skrajnie odmienna od opisowego poglądu na naukę reprezentowanego przez Kuhna
jest wizja nauki normatywnej w ujęciu Karla Poppera. Według Poppera społeczności
naukowców powinny być — i tak w znacznym stopniu jest rzeczywiście —
„społeczeństwami otwartymi", w których nigdy nie dochodzi do uświęcenia jakiegoś
dominującego paradygmatu. Twierdzi on, że nauka powinna się znajdować w stanie ciągłej
rewolucji, a krytyka winna być istotą działań naukowych. Zaprzeczanie twierdzeniom nauki
tworzy rewolucję — twierdzi Popper.
Moim zdaniem „normalni" naukowcy, których opisuje Kuhn, to osoby, którym należy
współczuć [...] „Normalny" naukowiec [...] był wyjątkowo źle kształcony [...] Był kształcony
w duchu dogmatyzmu: jest ofiarą doktrynacji. Nauczył się techniki, którą można stosować
bez pytania dlaczego25.
Popper przyznaje, że w danym momencie uczeni stają się „więźniami" złapanymi we
własne paradygmaty, oczekiwania, przeszłe doświadczenia i język, jednak z jednym, ważnym
zastrzeżeniem:
Jesteśmy więźniami tak jak Pickwick: jeżeli spróbujemy, to w każdej chwili możemy
uwolnić się zza krat. Co prawda możemy znowu znaleźć się za kratami, ale będzie to lepsze i
przestronniejsze miejsce; i zawsze, w każdym momencie możemy się znowu z nich
uwolnić26.
Powinniśmy teraz rozróżnić dwa konteksty działalności naukowej*: kontekst
uzasadniania i kontekst odkrycia27. Kontekst uzasadniania odnosi się do działań badaczy
podejmowanych wtedy, gdy próbują oni zweryfikować — w sposób logiczny i empiryczny —
twierdzenia nauki. Metody nauki określają logikę uzasadniania, i to niezależnie od sposobu, w
jaki naukowcy dochodzą do swoich intuicji. Działania badaczy w ramach kontekstu odkrycia
nie są natomiast ograniczone przez metodologię. Metody nauki mogą ułatwiać działania
prowadzące do odkrycia, ale na początkowych etapach poszukiwań ani sformalizowane
reguły, ani logika nie powinny być traktowane jako przewodniki. Twórczość, intuicja,
wyobraźnia czy inspiracja to ogromnie ważne czynniki w nauce. I chociaż można je w sobie
wykształcić, nie sposób sprowadzić ich do reguł. Według Johna Stuarta Milla (1806-1873):
„Nie istnieje taka nauka, która pozwoliłaby człowiekowi uzmysławiać sobie, jak realizować
swoje zamierzenia"28.
* To rozróżnienie pochodzi od Hansa Reichenbacha z jego książki Experience and
prediction (1938), a ściślej z rozdziału, którego polski przekład pt. Trzy zadania epistemologii
opublikowały „Studia Filozoficzne", 1989, nr 7-8, s. 205-212 (przyp. red. nauk.).
25 Karl R. Popper (1970), Normal Science andlts Danger, w: Imre Lakatos, Allan
Musgrave (red.), Critkism and the Growth of Knowledge, New York: Cambridge University
Press, s. 53.
26 Ibidem, s. 56.
27 Kapłan, The Conduct of Inąuiry, s. 12-18.
28 Ibidem, s. 16.
35
¦ Proces badawczy
Wiedza naukowa jest wiedzą opartą zarówno na wnioskowaniu, jak i na
doświadczeniu (obserwacji). Naukowcy stosują i kryteria logiczne, i empiryczne po to, aby
zweryfikować twierdzenia nauki. Kryteria te znajdują swoje odzwierciedlenie w działaniach
badawczych podejmowanych przez naukowców w czasie procesu badawczego. Proces
badawczy to całościowy schemat działań, które naukowcy podejmują w celu wytworzenia
wiedzy; to paradygmat naukowych dociekań. ¦
Jak przedstawiono to na rycinie 1.1, na proces badawczy składa się siedem
podstawowych etapów: problem, hipotezy, plan badawczy, pomiar, zbieranie danych, analiza
danych i uogólnianie (generalizowanie). Każdy etap wpływa na teorię, a teoria wpływa z
kolei na wszystkie etapy. W książce tej omówimy szeroko każdy z etapów, a także
przedyskutujemy przejście z jednego etapu na drugi. Teraz natomiast zatrzymamy się na
ogólnej charakterystyce procesu badawczego.
problem
analiza danych
plan badawczy
zbieranie danych
pomiar
Ryc. 1.1. Podstawowe etapy procesu badawczego
Najbardziej istotną cechą procesu badawczego jest jego cykliczna natura. Zazwyczaj
rozpoczyna się on od postawienia problemu, a kończy wstępnymi wnioskami
(uogólnieniami). Wnioski sformułowane w ramach jednego cyklu są początkiem cyklu
następnego. Ten cykliczny proces trwa nieskończenie, odzwierciedlając w ten sposób postęp
dyscypliny naukowej.
36
Proces badawczy jest również procesem samokorygującym. Badacze testują w sposób
logiczny i empiryczny wstępne wnioski czy hipotezy dotyczące problemu badawczego. Jeżeli
wnioski te zostaną odrzucone, to zamiast nich zostaną sformułowane nowe. W procesie
formułowania wniosków badacze na nowo oceniają wszystkie operacje badawcze. Jest tak
dlatego, ponieważ wstępne wnioski mogły zostać odrzucone nie dlatego, że były nietrafne, ale
z powodu błędów w przeprowadzonych operacjach badawczych. Badacz może, na przykład,
odrzucić wniosek, że kryzys ekonomiczny prowadzi do wzrostu wydatków rządowych, jeżeli
nie można potwierdzić jego trafności i nie można go empirycznie zweryfikować. Wnioski
jednak mogą zostać odrzucone nawet wtedy, gdy są prawdziwe, jeżeli procedury sprawdzania
trafności i weryfikacji (np. plan badawczy, pomiar czy analiza danych) są niekompletne. Aby
zminimalizować ryzyko odrzucenia prawdziwych wniosków, badacze przed sformułowaniem
nowych wniosków ponownie analizują każdy etap procesu badawczego. To właśnie dlatego
mówimy, że metodologia nauk jest samo-korygująca. Idee i teorie nie mają tej cechy, gdyż
ich celem jest dostarczanie raczej wyjaśnień niż dyrektyw ponownego analizowania ich
podstawowych twierdzeń.
Na koniec należy zaznaczyć, że przedstawiony tutaj proces badawczy jest raczej
wyidealizowany, tzn. jest racjonalną rekonstrukcją praktyki badawczej:
Rekonstrukcja idealizuje logikę nauki w tym sensie, że pokazuje nam, co byłoby,
gdyby została ona wyekstrahowana i w najwyższym stopniu oczyszczona [...] [Ale] nawet
wtedy większość naukowców nie działałaby całkowicie i doskonale logicznie; nawet
najlepsze badania nie są wolne od tak bardzo ludzkiego odbiegania od tematu29.
W praktyce proces badawczy przebiega
(1) czasami szybko, czasami wolno; (2) czasem na wysokim stopniu sformalizowania,
czasem zupełnie nieformalnie, bez samoświadomości i intuicyjnie; (3) nieraz dzięki interakcji
kilku odgrywającyh różne role naukowców (powiedzmy: teoretyka, kierującego badaniami,
ankietera, metodologa, eksperta w zakresie doboru próby, statystyka itd.), nieraz dzięki
wysiłkowi jednego badacza; (4) czasami jedynie w wyobraźni naukowca, czasami trwa
rzeczywiście30.
Jak widać, nasza wyidealizowana rekonstrukcja procesu badawczego nie może być
traktowana jako sztywna. Jej celem jest zwrócenie uwagi na podstawowe problemy
prowadzenia badań w naukach społecznych.
¦ Plan ksigżki
Książka ta została zorganizowana wokół etapów procesu badawczego. Rozdział 2 i 3
są poświęcone podstawowym pojęciom dookreślającym proces badawczy, a także związkom
teorii z doświadczeniem. W rozdziałach tych koncentrujemy się
Ibidem, s. 10-11.
Wallace, The Logic of Science in Socjology, s. 19.
37
na istocie pojęć, definicji, omawiamy funkcje i strukturę teorii, modeli, związków,
zmiennych oraz tworzenie hipotez badawczych.
Rozdział 4 poświęcono zagadnieniom etycznym i moralnym, które dotyczą badaczy w
dziedzinie nauk społecznych. W rozdziale tym zajmujemy się prawami, jakie mają uczestnicy
badań, powinnościami badaczy, interakcjami pomiędzy osobami badanymi a badaczami, a
także zawodowym kodeksem etycznym, który odgrywa coraz ważniejszą rolę w planowaniu
badań naukowych.
W rozdziale 5 i 6 koncentrujemy się na etapie wyboru planu badawczego. Plan
badawczy to strategia, która prowadzi badacza przez cały proces badawczy. To logiczny
model dowodzenia pozwalający badaczowi na wyciąganie wniosków dotyczących związków
przyczynowych pomiędzy badanymi zjawiskami. Jak się dalej przekonamy, istnieje wiele
rodzajów planów badawczych, w których zostały sformułowane warunki przyjęcia lub
odrzucenia hipotezy badawczej.
Rozdział 7 poświęciliśmy zagadnieniom pomiaru. W czasie pomiaru badacz w sposób
systematyczny przypisuje symbole (zwłaszcza liczby) obserwacjom empirycznym. Symbole
są z kolei poddawane analizie ilościowej, która umożliwia odkrycie informacji i relacji
niedostępnych w inny sposób. Liczby można dodawać, odejmować, obliczać na ich podstawie
procenty, korelacje i wykorzystywać je do opisywania, wyjaśniania i przewidywania zjawisk.
Wnioski naukowe zazwyczaj nie są wyprowadzane z wszystkich możliwych do
uzyskania obserwacji, lecz z pewnej, niewielkiej ich liczby — próby. W rozdziale 8
przedstawimy podstawowe zagadnienia dotyczące doboru próby — teorię, metody doboru
próby reprezentatywnej, problem wielkości próby i schematy doboru próby.
Pięć kolejnych rozdziałów dotyczy etapu zbierania danych. Na tym etapie badacze
przeprowadzają i zapisują wyniki obserwacji empirycznych. Dane (obserwacje) można
zbierać za pomocą różnorodnych metod, włączając w to obserwację standaryzowaną i
niestandaryzowaną, wywiady osobiste, badania ankietowe, badania opinii publicznej i opinii
indywidualnych. Żadna z metod zbierania danych nie jest doskonała, tak jak żadna z metod
nie jest właściwa dla wszystkich problemów badawczych. Różne problemy wymagają
różnych metod badawczych, a każda metoda ma swoje zalety i ograniczenia.
Rozdział 14 obejmuje podstawowe zagadnienia związane z przetwarzaniem danych,
które jest etapem łączącym zbieranie z analizą danych. Na etapie przetwarzania danych
zebrane przez badacza obserwacje są przekształcane w system kategorii pojęciowych.
Kategorie te są następnie kodowane, a dane kodowane również można poddać analizie
ilościowej. Dane zakodowane zostają zapisane i przetworzone przez programy komputerowe.
W rozdziale tym omówimy również podstawowe zagadnienia związane z kodowaniem i
automatycznym przetwarzaniem danych.
Następny etap procesu badawczego to ilościowa, statystyczna analiza danych.
Statystyki to wartości liczbowe, które można wykorzystać do podsumowania,
przeanalizowania czy oceny otrzymanego zbioru informacji. Warto pamiętać o rozróżnieniu
pomiędzy dwoma, pełniącymi odmienne funkcje, działami statystyki — statystyką opisową i
statystyką indukcyjną. Statystyka opisowa jest zazwyczaj wykorzystywana do prezentowania,
opisywania i podsumowywania danych. W rozdziale 15 przedstawimy problematykę
rozkładów jednej zmiennej, w rozdziale 16 — dwuzmiennowych, a w rozdziale 17 —
techniki wielozmienno-wej analizy danych. Rozdział 18 poświęciliśmy metodom konstrukcji
indeksów
38
i skalowaniu. Drugi dział statystyki — statystyka indukcyjna — pozwala badaczom na
uogólnianie ich bezpośrednich wniosków, ocenę wielkości różnic pomiędzy grupami i
szacowanie nieznanych wartości. Metody te, omówione w rozdziale 19, ułatwiają
prowadzenie systematycznych badań naukowych.
¦ Podsumowanie
1. Czynnikiem jednoczącym naukę jest jej metodologia, a nie jej przedmiot badania.
To założenia, na których opiera się metodologia, odróżniają podejście naukowe od innych
sposobów zdobywania wiedzy.
2. W podejściu naukowym przyjmuje się następujące założenia: natura jest
uporządkowana, natura jest poznawalna, zjawiska naturalne mają naturalne przyczyny, nic nie
jest oczywiste samo w sobie, wiedza jest wyprowadzana z nabytego doświadczenia, wiedza
nie jest pewna, a jednak przewyższa ignorancję.
3. Metodologia podejścia naukowego służy trzem podstawowym celom: dostarcza
reguł komunikacji, reguł wiarygodnego wnioskowania oraz reguł intersubiek-tywności
(możliwości dzielenia się wiedzą). Te trzy systemy reguł pozwalają nam zrozumieć, wyjaśnić
i przewidzieć własne zachowania i własne środowisko w sposób, w jaki inne sposoby
gromadzenia informacji (oparty na autorytecie, wierze i rozumie) nie są w stanie tego
uczynić.
4. Podejście naukowe dostarcza wiedzy, która może zostać zweryfikowana zarówno
na drodze wnioskowania, jak i poprzez odwołanie się do dowodów dostarczanych przez
zmysły. Metoda naukowa wymaga ścisłego respektowania zasad logiki i obserwacji. Owo
respektowanie jest wrogiem myślenia dogmatycznego, ponieważ proces badawczy jest
cykliczny i samokorygujący. Racjonalna krytyka powinna się stać sercem przedsięwzięć
naukowych, a nauka powinna się znajdować w stanie ciągłej rewolucji. Społeczności
naukowców, podobnie jak inne grupy profesjonalistów, są zaangażowane w wewnętrzną
walkę o władzę, która nie zawsze sprzyja postępowi nauki. Walka o władzę jest nieunikniona.
Twierdzenia nauki są ostatecznie akceptowane, jednak w takim zakresie, w jakim spełniają
postulaty metodologii nauki.
¦ Podstawowe terminy
empiryczny 21 empiryzm logiczny 28 epistemologia 20 intersubiektywność 30
kontekst odkrycia 35 kontekst uzasadniania 35 logika 30 metodologia 28 nauka 17
nauka normalna 32 nauka rewolucyjna 34
39
paradygmat 33
podejście rozumiejące 28
proces badawczy 36
przewidywanie 25
racjonalizm 19
replikacja 30
tautologia 20
Verstehen 27
wyjaśnianie 23
wyjaśnianie dedukcyjne 24
wyjaśnianie probabilistyczne 24
¦ Pytania sprawdzajgce
1. Porównaj i opisz różnice pomiędzy podejściem naukowym a sposobami
zdobywania wiedzy opartymi na autorytecie, wierze i odwołującymi się do racjonalnego
myślenia.
2. Przedyskutuj założenia leżące u podstaw podejścia naukowego.
3. Jakie są cele nauki jako systemu produkującego wiedzę?
4. Opisz proces badawczy i jego etapy.
5. Jak przebiega rzeczywisty proces uprawiania nauki —jako cyklicznego procesu
wnioskowania i obserwowania i jako instytucji społecznej?
¦ Literatura dodatkowa
Ajdukiewicz K. (1965), Logika pragmatyczna, Warszawa: PWN.
Brzeziński J. (1976), Struktura procesu badawczego w naukach behawioralnych,
Warszawa-Poznań: PWN.
Brzeziński J. (1997), Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd.
Nauk. PWN.
Hempel CG. (1968), Podstawy nauk przyrodniczych, Warszawa: WNT.
Krajewski W. (1998), Prawa nauki. Przegląd zagadnień metodologicznych i
filozoficznych, wyd. 2, Warszawa: Książka i Wiedza.
Kuhn T.S. (1968), Struktura rewolucji naukowych, Warszawa: PWN.
Lutyński J. (1994), Metody badań społecznych. Wybrane zagadnienia (red., wstęp,
opracowanie K. Lu-tyńska), Łódź: ŁTN.
Nagel E. (1970), Struktura nauki, Warszawa: PWN.
Nowak S. (1985), Metodologia badań społecznych, Warszawa: PWN.
Popper K.R. (1977), Logika odkrycia naukowego, Warszawa: PWN.
Such J., Szczęśniak M. (1999), Filozofia nauki, Poznań: Wyd. Nauk. UAM.
Rozdział 2
Badanie — podstawowe pojęcia
Pojęcia 42
Funkcje pojęć 43
Definicje 44
Definicje pojęciowe 45 Definicje operacyjne 46 Przykład: definicja alienacji 48
Problem odpowiedniości (zgodności) 50 Znaczenie teoretyczne 50
Teoria: jej funkcje i rodzaje 51
Czym teorie nie są 52 Rodzaje teorii 53 Teorie aksjomatyczne 57
Modele 59
Przykład: model wdrażania polityki 60
Teoria, modele i badania empiryczne 61
Teoria przed badaniami 62 Badania przed teorią 62
Podsumowanie 63
Podstawowe terminy 64
Pytania sprawdzające 65
Literatura dodatkowa 65
Czy odkrycie starorzymskiego młyna wodnego w południowej Francji przyczyniło się
do opracowania koncepcji, a następnie do sposobu prowadzenia badań stopnia rozwoju
cywilizacji? A. Trevor Hodge, filolog klasyczny i archeolog, wierzy, że tak. Archeolodzy i
historycy tradycyjnie traktowali niewolnictwo jako przyczynę technologicznego schyłku
Cesarstwa Rzymskiego. Hodge twierdzi jednak, że wielkość młyna i wyrafinowany sposób
zastosowania siły wody świadczą o czymś zupełnie przeciwnym. Aby wyjaśnić nadmierne
korzystanie z sił przyrody w gospodarce starożytnego Rzymu, położyłby większy nacisk na
czynniki czysto technologiczne — w tym wypadku: brak podków końskich i niewłaściwą
uprząż — niż na niewolnictwo1.
W tym rozdziale rozpoczniemy od omówienia procedury tworzenia pojęć oraz procesu
budowania systemów teoretycznych. Następnie wyróżnimy cztery stopnie zaawansowania
teorii i opiszemy modele odzwierciedlające świat rzeczywisty. Na koniec zajmiemy się
powiązaniami między teorią i badaniami.
Jak się przekonaliśmy w rozdziale poprzednim, wiedza naukowa jest weryfikowana
zarówno za pomocą rozumu, jak i doświadczenia. To właśnie sprawia, że badacze w naukach
społecznych poruszają się na dwóch różnych, choć powiązanych ze sobą, poziomach:
konceptualno-teoretycznym i obserwacyjno-empirycznym. Badania w naukach społecznych
są zatem wynikiem interakcji tych dwóch poziomów. Poniżej przedyskutujemy podstawy
myślenia konceptualno-teoretycznego oraz związki pomiędzy teoriami, modelami i badaniami
empirycznymi.
¦ Pojęcia
Myślenie wymaga użycia języka. Sam język jest systemem komunikacji składającym
się z symboli oraz zbioru reguł pozwalających na tworzenie różnych kombinacji tych
symboli. Jednym z najbardziej istotnych symboli języka, zwłaszcza ze względu na jego
związek z badaniami, są pojęcia. Pojęcie jest abstrakcją — symbolem — reprezentacją
obiektu, jednej z jego właściwości lub zjawiska behawioralnego. Badacze rozpoczynają swoje
badania od utworzenia pojęć jako rodzaju „stenogramu" opisującego świat empiryczny. Na
przykład: „status społeczny", „rola", „władza", „biurokracja", „względna deprywacja" czy
„kohorta" są pojęciami powszechnie stosowanymi w naukach politycznych i w socjologii.
Pojęcia takie, jak: „inteligencja", „percepcja", „uczenie się" są z kolei pojęciami
powszechnymi wśród psychologów. Każda dyscyplina naukowa tworzy własny, unikatowy
zbiór pojęć. Dla naukowca pojęcia i symbole tworzą język profesjonalny. Na przykład, gdy
specjalista z zakresu nauk społecznych używa słowa „kohorta", to inni specjaliści z tej
dziedziny od razu wiedzą, że termin ten oznacza grupę ludzi, których łączą takie
charakterystyki demograficzne jak wiek. Osoby bez treningu w naukach społecznych
najprawdopodobniej potraktowałyby termin „kohorta" jako żargon.
' A. Trevor Hodge (1990), A Roman Factory, „Scientific American", 263 (5), s. 106-
111.
42
Funkcje pojęć
Pojęcia pełnią wiele ważnych funkcji w badaniach naukowych. Po pierwsze, i to jest
najważniejsze, są podstawą komunikowania się. Gdyby nie istniał zaakceptowany zbiór pojęć,
badacze nie mogliby przedstawiać własnych rezultatów ani wzajemnie powtarzać swoich
badań. Komunikacja oparta na intersubiektywności i wzajemnym zrozumieniu byłaby
niemożliwa. Warto zapamiętać, że pojęcia są wyabstrahowane ze spostrzeżeń i są
wykorzystywane do przenoszenia i przekazywania informacji. Pojęcia nie istnieją w
rzeczywistości jako zjawiska empiryczne — są s y m b o 1 a-m i tych zjawisk, a nie samymi
zjawiskami. Traktowanie pojęć jak zjawisk rzeczywistych prowadzi do fałszywej
konkretyzacji, czyli błędu polegającego na traktowaniu abstrakcji jako rzeczywistości zamiast
jako wytworu myślenia. Przypisywanie, na przykład, takiemu pojęciu, jak „władza",
popędów, potrzeb lub instynktów jako rzeczywistych stanów rzeczy niezależnie od tego, co
niektórzy ludzie mówią czy piszą, jest błędem.
Po drugie, pojęcia wprowadzają perspektywę — sposób patrzenia na zjawiska
empiryczne: „Dzięki naukowej konceptualizacji spostrzegany świat staje się uporządkowany i
zwarty, co nie byłoby dostrzegane przed konceptualizacją"2. Pojęcie umożliwia naukowcom
odwoływanie się do wybranego aspektu rzeczywistości i identyfikowanie go jako wspólnej
jakości w różnych przykładach zjawisk świata rzeczywistego:
Pozwala badaczowi, w ramach społeczności naukowców, podnosić własne,
idiosynkratyczne doświadczenia do poziomu wspólnego myślenia [tj. intersubiektywności].
Pozwala również pozostawać w interakcji z własnym środowiskiem; [badacz] określa, co
znaczy pojęcie, i zachowuje się zgodnie z desygna-tem tego znaczenia. Pojęcie zatem działa
jak wywoływacz doświadczenia i spostrzeżeń, otwiera nowe sfery obserwacji, zamykając
inne3.
Po trzecie, pojęcia umożliwiają naukowcom klasyfikowanie i generalizowanie. Innymi
słowy, naukowcy strukturalizują, kategoryzują, porządkują swoje doświadczenia i obserwacje
w terminach pojęć. Według Johna McKinneya:
Wszystkie zjawiska, występując w rzeczywistości, są jedyne w swoim rodzaju;
dlatego też żadne zjawisko nie pojawia się ponownie dokładnie w taki sam sposób.
Identyczność oznacza zawsze „identyczność ze względu na aktualny cel". Aby określić
porządek z jego wszystkimi naukowymi implikacjami, łącznie z przewidywaniem, naukowiec
w sposób konieczny pomija to, co unikatowe, obce i nie powtarzające się, i w ten sposób
odchodzi od doświadczenia spostrzeżeniowego. To odejście jest konieczną ceną, jaką musi on
zapłacić, aby osiągnąć abstrakcyjne uogólnienie. Konceptualizować oznacza do pewnego
stopnia uogólniać. Uogólniać oznacza redukować liczbę obiektów przez potraktowanie
niektórych z nich jako identycznych4.
2 Norman K. Denzin (1989), The Research Act, wyd. 3, Englewood Cliffs, N.J.:
Prentice-Hall, s. 38.
3 Ibidem.
4 John C. McKinney (1966), Constructive Typology and Social Theory, Norwalk,
Conn.: Appleton & Lang, s. 9.
43
Na przykład możemy nie zauważyć, czym sosna, dąb, jodła, świerk, palma i jabłoń
różnią się od siebie, i ująć ich rodzajowe podobieństwo w pojęciu „drzewo". „Drzewo" jest
pojęciem ogólnym, pozwalającym nam na ujmowanie dużej liczby takich unikatowych cech
jak kolor, wysokość czy wiek i ustawianie ich w określonym porządku. „Drzewo" jest
również pojęciem abstrakcyjnym w tym sensie, że unikatowe cechy sosny, dębu, jodły,
świerka, palmy i jabłoni giną w procesie kon-ceptualizacji. Ten proces abstrahowania i
uogólniania pomaga naukowcom określić podstawowe cechy różnych typów zjawisk
empirycznych. Gdy pojęcie zostanie już utworzone, nie jest ono jednak doskonałym
symbolem opisującym wszystko to, co reprezentuje — jego treść jest w sposób nieunikniony
ograniczona do cech, które naukow/cy uważają za podstawowe.
Cztery funkcje pojęć
¦ Dostarczają wspólnego języka pozwalającego naukowcom komunikować się między
sobą.
¦ Dają naukowcom perspektywę — sposób patrzenia na zjawiska.
¦ Pozwalają naukowcom klasyfikować własne doświadczenia i je uogólniać.
¦ Są składnikami teorii — definiują treść i własność teorii.
Po czwarte, pojęcia są składnikami teorii i dlatego również składnikami wyjaśnień i
przewidywań. Pojęcia są najbardziej istotnym elementem każdej teorii, ponieważ definiują jej
treść i własności. Na przykład pojęcia: „władza" i „legitimiza-cja" definiują istotę teorii
rządzenia. Pojęcia: „indywidualizm" i „protestantyzm" definiują i wyznaczają teorię
samobójstw Durkheima. W teorii tej odsetek samobójstw w wielu krajach zachodnich zależy
od związku pomiędzy indywidualizmem a religią. Pojęcie „względna deprywacja" jest z kolei
istotne dla teorii przemocy, a pojęcia: „podaż" i „popyt" są filarami teorii ekonomicznej.
Pojęcia, powiązane w sposób racjonalny i logiczny, prowadzą do teorii; tworzenie pojęć i
konstrukcja teorii są zatem ściśle ze sobą związane.
¦ Definicje
Jeżeli pojęcia mają spełniać funkcję komunikacyjną, mają uwrażliwiać jak też
organizować doświadczenie, uogólnianianie i konstruowanie teorii, to muszą być wyraźne,
precyzyjne i powszechnie zaakceptowane. Pojęcia takie jak „władza", „biurokracja" czy
„satysfakcja" oznaczają różne rzeczy dla różnych ludzi i są stosowane w różnych kontekstach.
Na ogół nie stanowi to przyczyny podstawowych kłopotów w komunikowaniu się. Nauka nie
może się jednak rozwijać, odwołując się do niejasnego i nieprecyzyjnego języka.
Ze względu na potrzebę precyzji każda dyscyplina naukowa zajmuje się, z
konieczności, własnym słownictwem. Specjaliści w dziedzinie nauk społecznych starali się
stworzyć wyraźne i precyzyjne podstawy pojęciowe (abstrakcje) charakte-
44
ryzujące ich przedmiot badawczy. I chociaż stworzono, zastosowano, sprecyzowano i
odrzucono sporo pojęć, wiele z nich jest nadal pojęciami niejasnymi i o zmiennym znaczeniu.
Nie powinno to zbyt dziwić. W naukach społecznych badacze muszą się zmagać z trudnym
problemem odróżnienia stosowanych przez siebie pojęć od pojęć powszechnie używanych
przez te osoby, które stają się osobami badanymi. Wraz z postępem nauk społecznych rozwija
się jednak także i ich słownictwo. Aby osiągnąć jasność i precyzję w stosowaniu pojęć w
trakcie badań, naukowcy stosują dwa rodzaje definicji: definicje pojęciowe i definicje
operacyjne*.
Definicje pojęciowe
Definicje, które opisują pojęcia poprzez odwołanie się do innych pojęć, nazywamy
definicjami pojęciowymi. Na przykład „władza" jest pojęciowo definiowana jako zdolność
aktora (np. jednostki, grupy czy stanu) do kierowania innym aktorem, który bez tego nie
wykonałby pewnych działań. Definicja pojęciowa „względnej de-prywacji" natomiast
odwołuje się do spostrzeganej przez aktora rozbieżności pomiędzy „wartościami
oczekiwanymi" a „wartościami dostępnymi"5.
W tych dwóch przykładach po to, aby zdefiniować jedno pojęcie, posłużono się
wieloma innymi. „Wartości oczekiwane" i „wartości dostępne" to również pojęcia. Proces
definiowania nie może się oczywiście zatrzymać w tym miejscu. W wypadku „względnej
deprywacji" osoba nie znająca teorii może spytać: „A co to są »war-tości«, »możliwości«,
»oczekiwania,« i »spostrzeganie«?" Pojęcia te wymagają dalszej dalszego definiowania.
„Oczekiwania" na przykład zostały zdefiniowane jako przejawianie się dominujących norm
wyznaczanych przez bezpośrednie środowisko ekonomiczne, społeczne, kulturalne i
polityczne. Ale z kolei, co oznaczają: „normy", „bezpośrednie", „społeczne", „kulturowe",
„ekonomiczne" i „polityczne"? Pojęcia te można zdefiniować za pomocą innych pojęć i tak
dalej.
W pewnym momencie tego procesu naukowiec dociera do pojęć, których już nie
można dalej zdefiniować, wykorzystując inne pojęcia. Te ostatnie nazywane są terminami
pierwotnymi. Na przykład kolor, dźwięk, zapach, smak to terminy pierwotne. Terminy
pierwotne są określone i jasne. Naukowcy i laicy zgadzają się co do ich znaczenia, które
zazwyczaj jest uzmysławiane dzięki wyraźnym przykładom empirycznym. Na przykład
naukowiec może opisać pewne rzeczywiste zachowanie i określić je jako „gniew".
Technicznie takie zademonstrowanie terminu „gniew" stanowi definicję ostensywną, tj.
„gniew" reprezentuje zbiór łatwo obserwowal-nych zachowań. Jako taki „gniew" może zostać
wykorzystany jako termin pierwotny zarówno w procesie budowania teorii, jak i w badaniach.
Definicje pojęciowe zawierają terminy pierwotne i terminy pochodne. Terminy
pochodne to takie terminy, które można zdefiniować za pomocą terminów pierwotnych.
Zatem jeżeli istnieje zgoda co do terminów pierwotnych takich, jak: „jednostka", „interakcja"
i „systematycznie", to możemy zdefiniować pojęcie grupy (termin pochodny) jako dwie lub
więcej jednostek, które systematycznie wchodzą ze sobą w interakcję. Terminy pochodne są
wygodniejsze w stosowaniu w porównaniu
*Z różnymi podziałami definicji czytelnik może się zapoznać, sięgając po Matą
encyklopedię logiki, pod red. W. Marciszewskiego (Wrocław: Ossolineum, 1988, wyd. 2);
także: T. Pawłowski, Tworzenie pojąc i definiowanie w naukach humanistycznych,
Warszawa: PWN, 1986 (przyp. red. nauk.).
5 Ted R. Gurr (1970), Why Men Rebel, Princeton, N.J.: Princeton University Press, s.
24.
45
z terminami pierwotnymi; łatwiej powiedzieć słowo „grupa", niż stale powtarzać
terminy pierwotne składające się na pojęcie „grupy"6.
Warto podkreślić, że definicje pojęciowe nie są ani prawdziwe, ani fałszywe. Jak
wskazano wcześniej, pojęcia są symbolami umożliwiającymi komunikację. Definicje
pojęciowe mogą być użyteczne lub nieużyteczne z punktu widzenia komunikowania się i
badań. Możemy podważać zrozumiałość definicji lub pytać o to, czy jest ona stosowana w
sposób jednoznaczny, natomiast nie ma żadnego powodu, aby dyskutować o prawdziwości
definicji pojęciowych. Definicją jest to, co stwierdza definiujący.
Podsumowując, definicje pojęciowe zwiększające komunikację mają następujące
podstawowe własności:
¦ Definicja musi wskazywać na unikatowe własności lub jakości dotyczące tego, co
jest definiowane. Musi włączać wszystkie przypadki, których dotyczy, i wyłączać wszystkie
przypadki, których nie dotyczy.
¦ Definicja nie powinna mieć kołowego charakteru, tzn. nie powinna zawierać
żadnego elementu definiowanego zjawiska lub obiektu. Definiując „biurokrację" jako
organizację, która ma cechy biurokratyczne, a „władzę" jako dobro posiadane przez ludzi
władczych, nie ułatwiamy procesu komunikacji.
¦ Definicja powinna być formułowana w sposób twierdzący. Definiując
„inteligencję" jako własność nie posiadającą takich cech jak kolor, waga czy charakter, nie
ułatwiamy oczywiście procesu komunikacji, ponieważ istnieje również wiele innych
właściwości nie posiadających koloru, wagi czy charakteru. Definicje jako zdania twierdzące
wskazują na cechy unikatowe definiowanego pojęcia.
¦ Definicja powinna zawierać wyraźne terminy, co do znaczenia których wszyscy się
zgadzamy. Termin „konserwatywny", na przykład, oznacza różne treści dla różnych ludzi i
dlatego nie powinien być elementem definicji.
Definicje operacyjne*
Właściwości czy zdarzenia empiryczne reprezentowane przez pojęcie często nie mogą
być bezpośrednio obserwowalne. Przykładem są pojęcia: „władza", „względna deprywacja",
„inteligencja" czy „satysfakcja" i — generalnie rzecz biorąc — pozabehawioralne własności
takie, jak: spostrzeżenia, wartości i postawy. W tych wypadkach badacze muszą
wyprowadzać empiryczne przejawy pojęcia. Wyprowadzają oni wnioski tego rodzaju,
tworząc definicje operacyjne, tj. definicje, które wyposażają pojęcia w odniesienia
empiryczne.
Definicje operacyjne łączą poziom pojęciowo-teoretyczny z poziomem empi-ryczno-
obserwacyjnym. Definicje operacyjne składają się ze zbioru procedur opisujących działania,
jakie musi podjąć badacz, aby ustalić istnienie lub stopień istnienia zjawiska opisywanego
przez pojęcie. Innymi słowy, definiują one, co robić i co obserwować, aby badane zjawisko
stało się częścią doświadczenia badacza i mogło zostać przez niego zrozumiane. Definicje
tego rodzaju wprowa-
* Szerzej patrz: M. Przełęcki, Pojęcia teoretyczne a doświadczenie, w: T. Pawłowski
(red.). Logiczna teoria nauki, Warszawa: PWN, 1966, s. 449-504 (przyp. red. nauk.).
6 Paul D. Reynolds (1971), A Primer in Theory Construction, New York: Macmillan,
s. 45-48.
46
i^bm^^~ h^b^h
dzają konkretny sposób rozumienia pojęcia poprzez zaprojektowanie procedur
pomiarowych, dostarczających empirycznych kryteriów stosowania danego pojęcia w sposób
naukowy. Definicje operacyjne zatem pozwalają na potwierdzenie istnienia pojęcia, które nia
ma bezpośrednich cech obserwacyjnych.
Idea definicji operacyjnych została sformułowana przez operacjonistyczną szkołę
myślenia, której przykładem są prace fizyka P.W. Bridgmana. Według idei Bridgmana
znaczenie każdego pojęcia naukowego powinno być dostępne obserwacji za pomocą operacji
sprawdzających określone kryteria stosowania tego pojęcia. Znaczenie pojęcia jest w całości i
wyłącznie określane za pomocą jego definicji operacyjnych. Bridgman wyjaśniał tę zasadę
następująco:
Pojęcie długości zostaje zatem ustalone wtedy, kiedy zostaną określone operacje, za
pomocą których będziemy mierzyć długość, tj. pojęcie długości oznacza tylko tyle i nic
więcej, ile zbiór operacji, za pomocą których długość jest ustalana. Ogólnie, przez dane
pojęcie nie rozumiemy nic więcej jak tylko zbiór operacji; pojęcie jest tożsame z
odpowiadającym mu zbiorem operacji7.
Operacyjnie definicja długości będzie zatem określała procedurę polegającą na
zastosowaniu linijki w celu zmierzenia odległości pomiędzy dwoma punktami. Podobnie,
termin „twardszy" w zastosowaniu do minerałów może zostać operacyjnie zdefiniowany
następująco: „Aby ustalić, czy minerał mĄ jest twardszy niż minerał m5, poprowadź z
naciskiem ostry koniec kawałka mA po powierzchni kawałka m5 (operacja testowa); m4 jest
twardszy niż m5 wówczas, gdy na powierzchni m5 powstaje rysa (specyficzny wynik
testów)"8. Operacyjna definicja inteligencji odwołuje się z kolei do testu, jaki należy w
określony sposób zastosować w celu pomiaru zdolności rozumowania; wynikami testowymi
są poszczególne odpowiedzi badanych osób lub ilościowe zestawienie ich odpowiedzi.
Struktura definicji operacyjnych jest prosta. Jeżeli dany bodziec (S) wywołuje reakcję
(R) w stały sposób dla określonego obiektu, to obiekt ten ma określoną, dającą się
wywnioskować, własność (P). W ostatnim przykładzie test inteligencji (bodziec) został
zastosowany po to, aby uzyskać wyniki testowe (reakcja); inteligencja (P) jest wyprowadzana
(definiowana) z wyników testowych.
Ponieważ fizyczne manipulowanie osobami lub zdarzeniami jest raczej niewykonalne
lub nieetyczne, wiele pojęć stosowanych w naukach społecznych to pojęcia definiowane
operacyjnie, jedynie w kategoriach siły reakcji na określone bodźce, warunki czy sytuacje.
Jeżeli nawet moglibyśmy manipulować osobami za pomocą określonych operacji —
powiedzmy wywoływać duży lęk w sytuacjach laboratoryjnych — to działania takie
wywoływałyby istotne wątpliwości etyczne, łącznie z pytaniami o prawa naukowców do
takich działań oraz pytaniami o prawa osób badanych. (Problemy etyczne związane z
prowadzeniem badań w naukach społecznych zostaną omówione w rozdziale 4). W tych
wypadkach pojęcia są operacyjnie definiowane zarówno w kategoriach reakcji osób badanych
na bodźce takie jak tes-
7 Percy W. Bridgman (1980), The Logic of Modern Physics, New York: Ayer, s. 5.
8 Carl G. Hempel (1966), Philosophy of Natura! Science, Englewood Cliffs. N.J.:
Prentice Hall, s. 89; wyd. polskie: Carl Hempel (1968), Podstawy nauk przyrodniczych,
Warszawa: PWN; tłum. Barbara Stanosz, s. 130-131.
47
ty i kwestionariusze, jak i w kategoriach zagregowanych wskaźników, które omówimy
w następnym rozdziale.
Definicje pojęciowe i operacyjne
¦ Definicje pojęciowe. Definicje opisujące pojęcia za pomocą innych pojęć. Badacze
posługują się również terminami pierwotnymi, które są konkretne i nie mogą być definiowane
za pomocą innych pojęć, a także terminami pochodnymi, które — w definicjach pojęciowych
— są konstruowane za pomocą terminów pierwotnych.
¦ Definicje operacyjne. Opisują zbiór procedur, które powinien przeprowadzić badacz
w celu ustalenia przejawów zjawiska opisywanego przez dane pojęcie. Naukowcy wymagają
wykorzystania definicji operacyjnych wówczas, gdy zjawiska nie można bezpośrednio
obserwować.
Należy podkreślić, że pojęcia zawierają elementy zarówno konceptualne, jak i
operacyjne*. Zadanie badaczy polega na zintegrowaniu tych dwóch poziomów. Mogą oni
rozpocząć albo od poziomu konceptualnego, albo operacyjnego. Aby jednak mogli prowadzić
badania i tworzyć teorię, oba te aspekty muszą się wzajemnie uzupełniać. Dokładniej
przedstawimy to w paragrafie poświęconym problemowi zgodności.
Przykład: definicja alienacji
Zobaczmy, w jaki sposób złożone i wysoce abstrakcyjne pojęcie, takie jak „alienacja",
może zostać wykorzystane w badaniach. Melvin Seeman w swoich pionierskich pracach
twierdził, że alienacja została opisana w literaturze jako „rozerwanie na kawałki tego, co
kiedyś było połączone, pęknięcie litej formy, w której wartości, zachowania i oczekiwania
zostały kiedyś odlane w jednolitej postaci"9. Ten sposób konceptualizacji, zdaniem autora,
pozwala na wyróżnienie pięciu cech pojęcia alienacji, i co za tym idzie, pięciu definicji
pojęciowych:
1. Bezsilność — przekonanie jednostki o tym, że jej zachowanie nie może przynieść
oczekiwanych wyników lub że nie ma ona wpływu na te wyniki.
2. Bezsensowność — dostrzeganie przez jednostkę braku własnych zdolności do
rozumienia decyzji innych ludzi lub zdarzeń, które się wokół niej dzieją.
3. Brak norm — przekonanie, że zachowania społecznie nie akceptowane (np.
oszukiwanie) są niezbędne, aby można było osiągnąć określony cel.
4. Izolacja— uczucie osamotnienia wynikające z odrzucenia aprobowanych
społecznie wartości i celów.
5. Samoodrzucenie — odrzucenie obrazu „ja", definiowanego przez grupę odniesienia
lub — ogólnie — przez społeczeństwo.
* Ten wymóg spełnia koncepcja E. Hornowskiej: Operacjonalizacja wielkości
psychologicznych. Założenia — struktura — konsekwencje, Wrocław: Ossolineum, 1989
(przyp. red. nauk.).
" Melvin Seeman (1972), On the Meaning of Alienation, w: Paul Lazarsfeld, Ann
Pasanella, Morris Rosenberg (red.), Continuities in the Language of Social Research, New
York: Free Press, s. 25-34.
48

W późniejszych badaniach Seeman i inni badacze zdefiniowali operacyjnie owe pięć


cech poprzez skonstruowanie kwestionariusza dla każdej własności czy każdego wymiaru
ujętego w pojęciu. Odpowiedzi jednostki na pozycje kwestionariusza definiowały empiryczne
znaczenie każdej cechy. Na przykład badacze zastosowali następujące pytanie jako sposób
zoperacjonalizowania pojęcia „bezsilność": „Przypuśćmy, że w twoim mieście rozważa się
możliwość wprowadzenia przepisu, który ty uznajesz za niesprawiedliwy i szkodliwy. Co
mógł(a)byś zrobić?" Osoby, które odpowiedziały, że nic nie mogą zrobić, zostały
zaklasyfikowane jako „bezsilne". Inne pytania definiujące operacyjnie „bezsilność" to: (1)
Jeżeli podj(ęła)ąłbyś wysiłek, aby zmienić ten przepis, to na ile prawdopodobny jest twój
sukces? (2) Jeżeli zaistniałaby taka sytuacja, to jakie jest prawdopodobieństwo, że coś byś z
tym zro-bił(a)? (3) Czy kiedykolwiek próbował(a)eś wpływać na decyzje władz lokalnych?
(4) Przypuśćmy, że kongres ustanowił prawo, które twoim zdaniem jest niesprawiedliwe i
szkodliwe. Co mógł(a)byś zrobić? (5) Czy kiedykolwiek próbował(a)eś wpływać na działania
kongresu?10
poziom

I
poję skład cia __ owe bezs Iność bezsen sowność braf norm
1- acja 1 Isamooc rzucenie 1
¦ przeko nanie. spostr ^egany przekc nanie, ucz ucie odra. cenie

że zachowanie brak zdolności ze nie separacji


społecznie
rififinirjp «_ nie wpływa do rozumienia akceptowane
wynikające z odrzucenia aprobowanych definiowanego

pojęciowe na wyniki decyzji lub zdarzeń zachowanie


jest obrazu „ja"
niezbędne społecznie celów

1 1

zbiór zbiór zbiór zbiór zbiór

definicje ____ pozycji pozycji pozycji pozycji


pozycji
operacyjne 1 kwestion anusza kwestior anusza kwestior
anusza kwestion anusza kwestior anusza
i poziom odpow iedzi odpow iedzi odpow edzi odpow iedzi
odpow /iedzi
w w w w w

wacji kwestionariuszu kwestionariuszu


kwestionariuszu kwestionariuszu kwestionariuszu

Ryc. 2.1. Przejście od poziomu pojęciowego do poziomu obserwacji; przypadek


alienacji
Na rycinie 2.1 przedstawiono sposób, w jaki badacze przeszli od poziomu
pojęciowego do poziomu operacyjnego dla pojęcia alienacji. Chociaż alienacja nie jest
bezpośrednio obserwowana, jej empiryczne istnienie można pośrednio wyprowadzić. Aby
określić sens empiryczny pojęcia „alienacja", badacze zdefiniowali
10 David Nachmias (1976), Modes and Types of Political Alienation, 24, s. 478-493.
,British Journal of Sociology"
49
najpierw składowe czy cechy pojęcia, w taki sposób, jak pokazaliśmy to wyżej. Owe
definicje pojęciowe wiążą różne cechy alienacji z różnymi zjawiskami empirycznymi. Na
przykład wymiar określony jako bezsilność czy brak norm dotyczy oczekiwanych zachowań
jednostki, podczas gdy izolacja jest związana z postawami wobec celów społecznych i
oczekiwań.
Badacze budują następnie definicje operacyjne. W naszym przykładzie pozycje
kwestionariusza są traktowane właśnie jako definicje operacyjne. Pozycje kwestionariusza
zatem przekształcają definicje pojęciowe na klasę zachowań, które można poddać obserwacji
empirycznej. Kolejnym krokiem jest przeprowadzenie badań za pomocą kwestionariusza
(zastosowanie definicji operacyjnych). I wreszcie na podstawie odpowiedzi na pozycje
kwestionariusza badacze wyprowadzają wnioski o tym, w jakim zakresie pięć cech alienacji
znajduje swoje rzeczywiste odbicie na poziomie empirycznym.
Problem odpowiedniości (zgodności)
Kiedy badacze przechodzą z poziomu pojęciowego na poziom empiryczno-obser-
wacyjny (lub odwrotnie), pojawiają się dwa ważne problemy. Pierwszy dotyczy stopnia
odpowiedniości czy zgodności pomiędzy definicjami pojęciowymi i definicjami
operacyjnymi. Jeżeli termin „inteligencja" zostanie zdefiniowany pojęciowo jako „zdolność
do abstrakcyjnego myślenia", a operacyjnie za pomocą testu inteligencji, to powstaje pytanie
o to, jaka jest zgodność między tymi definicjami. Czy wynik osiągnięty przez określoną osobę
w teście inteligencji odzwierciedla wszystko to, co zawiera pojęciowa definicja inteligencji?
Aby ocenić stopień zgodności pomiędzy definicjami pojęciowymi a definicjami
operacyjnymi, naukowcy posługują się testami trafności (przedstawiono je w rozdziale 7). W
tym miejscu chcielibyśmy jednakże zwrócić uwagę na to, że nie ma doskonałego kryterium
pozwalającego potwierdzić zgodność i że mogą się zdarzyć sytuacje, w których definicje
operacyjne nie będą uwzględniać wszystkich elementów definicji pojęciowych. Dlatego
ważnym wyzwaniem dla badaczy w naukach społecznych jest doskonalenie definicji
operacyjnych i powiększanie stopnia zgodności między nimi i definicjami pojęciowymi.
Znaczenie teoretyczne
Kolejne ważne zagadnienie związane z przechodzeniem z poziomu pojęciowego do
poziomu obserwacyjnego pojawia się wtedy, kiedy nie można zdefiniować pojęć operacyjnie,
tzn. nie można ich obserwować ani bezpośrednio, ani pośrednio. I tak: „ego", „kompleks
Edypa", „materializm dialektyczny", „podświadomość", „wartość dodatkowa" czy „interes
publiczny" są pojęciami, dla których nie skonstruowano do tej pory satysfakcjonujących
definicji operacyjnych.
Zgodnie ze skrajnie rozumianym podejściem operacyjnym pojęcie, które nie może
zostać operacyjnie zdefiniowane, nie powinno być stosowane w badaniach naukowych, gdyż
nie poddaje się ono weryfikacji intersubiektywnej. Innymi słowy, definicje operacyjne są
niezbędne, aby umożliwić naukowcom wzajemne powtarzanie własnych badań. Bez nich
badacz nie jest pewien, czy obserwuje to samo zjawisko. Ten brak pewności może prowadzić
do uzyskiwania niezgodnych wyników badań. Naukowe znaczenie pojęcia może być zatem
ustalone jedynie poprzez skonstruowanie zbioru operacji (narzędzi obserwacji). Poznanie tych
operacji to zrozu-
50
^¦^B
mienie znaczenia pojęcia i możliwość empirycznego badania zjawiska, które pojęcie
to reprezentuje. Takie skrajne podejście odegrało historycznie ważną rolę, oddzielając naukę
od metafizyki. Sprowadzane do wersji ortodoksyjnej podejście empiryczne staje się jednak
problematyczne.
Naukowcy powinni oceniać pojęcia naukowe nie tylko w terminach ich
obserwowalności, ale również w terminach ich znaczenia teoretycznego. Niektóre pojęcia
nabywają bowiem znaczenia jedynie w kontekście teorii, w której się pojawiły. I tak pojęcie
„anomia" staje się znaczące w kontekście teorii samobójstw Durkhei-ma, pojęcie „ego"
nabiera znaczenia w kontekście teorii psychoanalitycznej, a pojęcie „interes publiczny" nie
jest zrozumiałe poza teorią demokracji. Wprowadzona przez Carla Hempla idea
„systematyzacji" wpłynęła na współczesną praktykę:
Systematyzacja naukowa wymaga ustalania — w postaci praw lub zasad
teoretycznych — rozmaitych związków zachodzących między różnymi aspektami świata
empirycznego, które charakteryzujemy za pomocą pojęć naukowych. Pojęcia nauki są więc
węzłami w sieci systematycznych, wzajemnych relacji, której nićmi są prawa i zasady
teoretyczne. [...]
Tak więc, znaczenie empiryczne, którego odbiciem są kryteria stosowania i na które
operacjonizm słusznie kładzie tak wielki nacisk, nie jest jedynym koniecznym walorem pojęć
naukowych: drugim, równie istotnym, jest ich znaczenie systematyczne; gra ono tak poważną
rolę, że dla podniesienia walorów systematycznych teorii zmienia się niekiedy empiryczną
interpretację pojęć teoretycznych. W badaniu naukowym tworzenie pojęć i tworzenie teorii
muszą iść ręka w rękę".
Pojęcia naukowe winny być zatem oceniane nie tylko ze względu na stopień ich
obserwowalności, ale również ze względu na ich znaczenie teoretyczne. Innymi słowy,
pojęcia uzyskują znaczenie empiryczne w ramach teorii, w której są stosowane. Teoria —jak
pokazano na rycinie 1.1 — odgrywa główną rolę w procesie badawczym. Jest ona nie tylko
ważnym źródłem tworzenia problemów i hipotez, o czym powiemy w rozdziale 3, lecz równie
ważny jest fakt, że w ramach danej teorii można nadawać znaczenie i określać istotność
podstawowych pojęć.
¦ Teoria: jej funkcje i rodzaje
Po omówieniu problematyki pojęć, definicji pojęciowych i operacyjnych oraz idei
znaczenia teoretycznego zatrzymajmy się teraz na problemie miejsca teorii w badaniach
empirycznych. Chociaż badacze w naukach społecznych są zgodni, że jedną z
najważniejszych funkcji badań empirycznych jest ich wkład w rozwój i precyzowanie teorii
naukowych oraz że teoria zwiększa cele nauki, to istnieje wiele kontrowersji wokół tego,
czym jest teoria. George Homans tak opisywał stan teorii w socjologii:
" Carl G. Hempel (1966), Philosophy of Natural Science, Englewood Cliffs, N.J.:
Prentice Hall, s. 94, 96-97; wyd. polskie: Carl Hempel (1968), Podstawy nauk
przyrodniczych. Warszawa: PWN, tłum. Barbara Stanosz, s. 130, 141.
51
Współcześni socjologowie są zaabsorbowani „teoriami", jednak rzadko próbują
określić, czym jest teoria [•••] My, socjologowie, nie zgadzamy się ze sobą w sprawie natury
teorii, i to zarówno w tym, co ogólnie mówimy o teorii, jak i w tym, jakiego rodzaju teorie
obecnie tworzymy12.
Podobne stanowisko formułowano również w innych dyscyplinach nauk społecznych.
Teoria oznacza różne rzeczy dla różnych ludzi. Niektórzy badacze utożsamiają teorie z
każdym rodzajem konceptualizacji. Takie pojęcia, jak: „władza", „status społeczny",
„demokracja", „biurokracja" i „dewiacja", które zostały zdefiniowane i wykorzystane do
interpretowania zjawisk empirycznych, są niekiedy traktowane jak teorie. Tak szeroko
rozumiana każda konceptualizacja przeciwstawiona obserwacji jest teorią. Inni naukowcy
utożsamiają teorie z „historią idei". Jeszcze inni rozumieją teorię wąsko — jako system
logiczno-dedukcyjny składający się ze zbioru powiązanych ze sobą pojęć, z których
dedukcyjnie można wyprowadzać dające się sprawdzić twierdzenia. Zanim jednak omówimy,
czym są teorie i jakie rodzaje teorii są powszechne w naukach społecznych, warto wskazać na
niektóre błędne przekonania dotyczące teorii.
Czym teorie nie sq
Laicy zwykle przeciwstawiają teorię praktyce. Twierdzenie, że „coś jest dobre w
teorii, ale nie działa w praktyce" zawiera przesłanie, że teoria jest niepraktyczna. Według
Arnolda Brechta „relacja pomiędzy praktyką a teorią została dobrze opisana w popularnym
powiedzeniu, że najlepiej uczymy się »metodą prób i błędów«. Próby są praktyką, a błędy
odnoszą się do teorii. Kiedy teoria nie sprawdzi się w praktycznych działaniach, należy ją
poprawić"13. Zasadniczo nie ma różnicy pomiędzy teorią i praktyką. Teoria odnosi się do
praktyki, tzn. naukowcy akceptują teorię (i jej praktyczne zastosowania) jedynie wtedy, gdy
jej metodologia została jasno i logicznie wyłożona. Wiarygodna teoria jest pojęciową
podstawą rzetelnej wiedzy. Teorie pomagają wyjaśniać i przewidywać interesujące nas
zjawiska i w konsekwencji podejmować właściwe decyzje praktyczne.
Inne nieporozumienie dotyczące teorii to wymienne stosowanie teminu „teoria" i
„filozofia". Prace klasycznych myślicieli takich, jak: Platon, Arystoteles, Locke, Marks czy
Pareto są często uważane za „teorie". Tymczasem teorie formułowane przed drugą wojną
światową w naukach społecznych to przede wszystkim filozofia w jej różnych formach, ze
szczególnym uzwględnieniem filozofii moralności, a więc problematyki dotyczącej tego,
jakie rzeczy być powinny. Dobrym przykładem jest tu koncepcja Platona dotycząca idealnej,
sprawiedliwej polityki, w której wiedza absolutna filozofa-króla jest wskazówką dla
zachowań politycznych i społecznych. Filozofia moralności formułowała sądy wartościujące.
Nie są one ani prawdziwe, ani fałszywe, ponieważ nie są empirycznie weryfikowalne. Jeżeli
jesteśmy głęboko przekonani, że socjalizm jest najlepszym systemem ekonomicznym, to nie
ma takich dowodów empirycznych, które mogłyby potwierdzić lub zmienić to prze-
12 George C. Homans (1964), Contemporary Theory in Sociology, w: R.E.L. Faris
(red.), Handbook ojModern Sociology, Chicago: Rand McNally, s. 951.
13 Arnold Brecht (1959), Political Theory, Princeton: Princeton University Press, s.
19.
52
konanie. Teorie naukowe, w przeciwieństwie do prac filozofów, są abstrakcjami
odzwierciedlającymi określone aspekty świata empirycznego; mówią one, jak i dlaczego
zaszło dane zjawisko empiryczne, a nie, co być powinno.
Rodzaje teorii
Nie istnieje jedna prosta definicja teorii, którą zaakceptowaliby wszyscy
przedstawiciele nauk społecznych. Rodzajów teorii jest wiele i każdy rodzaj spełnia inne cele.
I tak, zdaniem Davida Eastona, teorie można poklasyfikować ze względu na zakres — na
makro- i mikroteorie; ze względu na funkcję — na teorie dotyczące zjawisk dynamicznych i
statycznych, struktur i procesów; ze względu na strukturę — na teorie będące logicznymi
systemami myśli silnie ze sobą powiązanych i teorie będące luźniej zdefiniowanymi zbiorami
twierdzeń; ze względu na poziom, tj. biorąc pod uwagę „systemy zachowań, których dotyczą,
a które — po ich uporządkowaniu — można przedstawić na pewnej skali hierarchicznej"14.
Tu jednak przyjmiemy klasyfikację opartą na rozróżnieniu czterech poziomów teorii
autorstwa Parsonsa i Shilsa. Są to: systemy klasyfikacyjne ad hoc, taksonomie, struktury
pojęciowe i systemy teoretyczne15.
Systemy klasyfikacyjne ad hoc. Najniższy poziom myślenia teoretycznego stanowią
systemy klasyfikacyjne ad hoc. Składają się one z arbitralnych kategorii skonstruowanych po
to, aby uporządkować i zebrać obserwacje empiryczne. Badacz może, na przykład, podzielić
odpowiedzi w ramach pozycji kwestionariusza: „W naszym kraju wszystkie grupy społeczne
mogą żyć w harmonii bez jakiejkolwiek zmiany systemu" na cztery kategorie: „całkowicie się
zgadzam", „zgadzam się", „całkowicie się nie zgadzam" i „nie zgadzam się" . Kategorie te
tworzą system klasyfikacyjny ad hoc, ponieważ nie został on wyprowadzony z ogólniejszej
teorii porządku społecznego.
Taksonomie. Drugi poziom teorii stanowią systemy kategorii czy inaczej taksonomie.
Taksonomia składa się z systemu kategorii skonstruowanych odpowiednio do obserwacji
empirycznych w taki sposób, że można opisać związki pomiędzy kategoriami. Kategorie
mogą być wewnętrznie powiązane. Oznacza to, że kategorie taksonomiczne odzwierciedlają
opisywaną rzeczywistość. Stworzony przez Talcotta Parsonsa zespół kategorii opisujących
działanie społeczne jest dobrym przykładem tak rozumianej teorii. Jego zdaniem zachowanie
ma cztery cechy charakterystyczne: jest zorientowane na cel, zdarza się w sytuacjach
grupowych, jest regulowane normami oraz jest związane z wydatkowaniem energii.
Zachowanie mające wszystkie te cechy tworzy system społeczny. Co więcej, systemy
społeczne pojawiają się w trzech formach: systemów osobowości, systemów kulturowych
oraz struktur społecznych16. Parsons dokładnie definiuje owe siedem kategorii i wyjaśnia ich
wzajemne powiązania. Obserwacje empiryczne odpowiadają taksonomii sformułowanej przez
Parsonsa. Taksonomie pełnią dwie podstawowe funkcje w badaniach społecznych. Precy-
14 David Easton (1966), Alternative Strategies in Theoretical Research, w: David
Easton (red.), Va-rieties of Political Theory, Englewood Cliffs, N.J.: Prentice-Hall, s. 1-13.
15 Talcott Parsons, Edward A. Shils (1962), Towarda General Theory ofAction, New
York: Harper &Row, s. 50-51.
16 Ibidem, s. 247-275.
53
zyjne zdefiniowanie taksonomii pozwala określić jednostkę rzeczywistości
empirycznej, która ma być analizowana, a także wskazuje, w jaki sposób ta jednostka może
zostać opisana (w wypadku taksonomii Prasonsa był to system społeczny). Celem taksonomii
jest dostarczenie:
uporządkowanego schematu pozwalającego klasyfikować i obserwować [...] Jeżeli
będziemy się posługiwać taksonomią jako rodzajem »listy zakupów«, to spotykając się twarzą
w twarz z przedmiotem badań, możemy natychmiast zidentyfikować jego istotne aspekty czy
zmienne. Aby »przetestować« własną taksonomię, badacz ponownie obserwuje obiekt X i
wykazuje, że terminy ogólne określające zdefiniowane przez niego wymiary, mają
identyfikowalne odpowiedniki w X'7.
Drugą funkcją taksonomii jest „uporządkowywanie i inspirowanie badań de-
skryptywnych"18, takich jak badanie rozkładów empirycznych jednej lub większej liczby
kategorii danej taksonomii. Taksonomie nie dostarczają jednak wyjaśnień. Opisują jedynie
zjawisko empiryczne poprzez dopasowanie do niego zbioru kategorii. Zdefiniowanie pojęć
odzwierciedlających zjawiska (np. wydatki rządowe) i poznanie ich rozkładów (np. ile się
wydaje na różne programy) nie jest tożsame z wyjaśnianiem czy przewidywaniem tych
zjawisk (np. dlaczego rząd wydaje więcej na obronę niż na edukację).
Struktury pojęciowe. Trzecim poziomem zaawansowania teorii są struktury
pojęciowe. W strukturze pojęciowej kategorie deskryptywne są racjonalnie wbudowywane w
szeroką strukturę formułowanych explicite twierdzeń. Twierdzenia te dotyczą związków
pomiędzy dwiema lub więcej właściwościami empirycznymi i mogą zostać przyjęte lub
odrzucone. Dobrym przykładem struktury pojęciowej jest koncepcja systemu politycznego
sformułowana przez Eastona. Easton określa system polityczny jako „formułowanie i
realizowanie w społeczeństwie decyzji władzy zwierzchniej"19. We wszystkich systemach
politycznych, bez względu na formę rządów (zarówno w demokracjach, jak i w dyktaturach)
decyzje polityczne podejmowane są przez władzę zwierzchnią. Opisując i wyjaśniając
obserwacje empiryczne, Easton posłużył się pojęciami takimi, jak: „wkłady", „wytwory",
„środowisko" oraz „sprzężenie zwrotne" (por. ryc. 2.2). Pojęcie sprzężenia zwrotnego,
powiązane z innymi pojęciami koncepcji, zostało wprowadzone po to, aby można było opisać
zarówno ciągłość, jak i zmianę systemu. Easton formułuje również wiele twierdzeń
wyjaśniających, w jaki sposób generowane są „wkłady" (z rozbiciem na „żądania" i
„poparcie"), w jaki sposób reagują na „wkłady" osoby podejmujące decyzje polityczne, w jaki
sposób „środowisko" oddziałuje na „wkłady" i na osoby podejmujące decyzje oraz w jaki
sposób, za pomocą mechanizmu „sprzężenia zwrotnego", „wytwory" (podzielone na
„decyzje" i „posunięcia") zmieniają lub utrzymują naturę „wkładów".
17 Hans L. Zetterberg (1965), On Theory and Verification in Sociology, wyd. 3, N.J.:
Bedminster Press, s. 26.
18 Ibidem.
19 David Easton (1979), A System Analysis of Politicał Life, Chicago: University of
Chicago Press, s. 21-32; por. także David Easton (1979), A Framework for Politicał Analysis,
Chicago: University of Chicago Press.
54
żądania
system polityczny decyzje
i posunięcia
poparcie

I
Ryc. 2.2. System polityczny — schemat pojęciowy
Na podstawie: David Easton, A System Anafysisys of Polilical Life (Chicago:
University of Chicago Press, 1979).
Struktury pojęciowe znajdują się na wyższym poziomie niż taksonomie, ponieważ
twierdzenia formułowane w ich ramach równie dobrze opisują zachowania, jak też pozwalają
wyjaśniać i przewidywać szerokie klasy obserwacji empirycznych. To, co dzisiaj uważamy za
teorie, to w większości struktury pojęciowe, które można wykorzystywać do prowadzenia
systematycznych obserwacji. Twierdzenia wyprowadzane z systemów pojęciowych nie są
jednak ustalane dedukcyjnie. Ta zależność twierdzeń od obserwacji empirycznych na
wczesnych etapach teoretyzowania i prowadzenia badań ogranicza ich rolę w wyjaśnianiu i
przewidywaniu, a także zmniejsza ich użyteczność dla przyszłych badań.
Systemy teoretyczne. Systemy teoretyczne łączą taksonomie oraz struktury pojęciowe,
dostarczając w sposób systematyczny opisów, wyjaśnień i predykcji. Jest to najwyższy
poziom teorii wymagający najbardziej rygorystycznych definicji. System teoretyczny składa
się z twierdzeń powiązanych ze sobą w sposób, który umożliwia wyprowadzanie jednych
twierdzeń z innych. Kiedy tak rozumiany system teoretyczny zostanie stworzony, badacze
społeczni mają prawo twierdzić, że wyjaśnili i potrafią przewidywać interesujące ich
zjawiska.
System teoretyczny, jak np. ten sformułowany przez Durkheima, dostarcza struktur
wyjaśniających zjawiska empiryczne. Jego zakres nie jest ograniczony do jednego aspektu
wyjaśnianych zdarzeń. Składa się on ze zbioru pojęć, w tym abstrakcyjnych, opisujących to,
czego dana teoria dotyczy (np. samobójstwo), jak też pojęć mających empirycznie mierzalne
właściwości (np. odsetek samobójstw). Te właściwości empiryczne nazywamy zmiennymi.
(Szczegółowe omówienie zmiennych i ich rodzajów czytelnik znajdzie w rozdziale 3).
System teoretyczny składa się również ze zbioru twierdzeń. W przeciwieństwie
jednakże do ich statusu w ramach struktur pojęciowych tutaj twierdzenia tworzą system
dedukcyjny. Innymi słowy, zbiór twierdzeń tworzy rachunek (tj. metodę analizy lub
rachowania za pomocą specjalnych określeń symbolicznych). I tak, odwołując się do reguł
operowania nimi, naukowcy mogą dedukcyjnie
55
wyprowadzać jedne twierdzenia z innych. Formułowane w ten sposób twierdzenia
mają zarówno wartość wyjaśniającą, jak i predykcyjną.
Teoria samobójstw Durkheima, przedstawiona przez George'a Homansa, to klasyczny
przykład systemu teoretycznego20:
1. W każdej grupie społecznej odsetek samobójstw zależy wprost od stopnia
indywidualizmu.
2. Stopień indywidualizmu zależy od zasięgu wpływu protestantyzmu.
3. Zatem odsetek samobójstw zależy od zasięgu wpływu protestantyzmu.
4. Zasięg wpływu protestantyzmu w Hiszpanii jest mały.
5. Stąd, odsetek samobójstw w Hiszpanii jest niski.
W powyższym przykładzie twierdzenie 3 jest wyprowadzane z twierdzenia 1 i 2, a
twierdzenie 5 z twierdzenia 3 i 4. Wobec tego, jeżeli np. nie znamy odsetka samobójstw w
Bułgarii, ale wiemy, że zasięg wpływu protestantyzmu jest tam mały, to informacja ta oraz
twierdzenie 3 pozwolą nam na przewidywanie niskiego odsetka samobójstw w Bułgarii.
System teoretyczny zatem zarówno dostarcza wyjaśnień, jak i umożliwia przewidywanie
współczynnika samobójstw.
Niektóre z twierdzeń systemu teoretycznego są względne i zależą od rzeczywistości
empirycznej, w tym sensie, że „doświadczenie ma znaczenie dla ich prawdziwości czy
fałszywości, a także dla twierdzeń z nich wyprowadzanych"21. Akceptacja systemu
teoretycznego zależy zatem ostatecznie od tego, czy naukowcy są w stanie empirycznie
zweryfikować formułowane przez siebie twierdzenia.
Cztery poziomy teorii
¦ Systemy klasyfikacyjne ad hoc. Arbitralne kategorie skonstruowane po to, aby
uporządkować i zebrać obserwacje empiryczne.
¦ Taksonomie. System kategorii skonstruowanych odpowiednio do obserwacji
empirycznych. Taksonomie pozwalają badaczom opisywać związki pomiędzy kategoriami.
¦ Struktury pojęciowe. Kategorie deskryptywne racjonalnie wbudowane w strukturę
formułowanych explicite twierdzeń. Twierdzenia włączone do struktury pojęciowej opisują
zachowania oraz pozwalają wyjaśniać i przewidywać obserwacje empiryczne. Nie są jednak
ustalane dedukcyjnie.
¦ Systemy teoretyczne. Łączą taksonomie oraz struktury pojęciowe, wiążąc w sposób
racjonalny opisy, wyjaśnienia i predykcje. Twierdzenia formułowane w ramach systemu
teoretycznego są ze sobą powiązane w taki sposób, że jedne twierdzenia mogą być
wyprowadzone z innych.
20 Homas, Contemporary Theory in Sociology, s. 959.
21 Ibidem.
56
Teorie aksjomatyczne
Jednym z systemów teoretycznych zasługujących na specjalną uwagę jest teoria aks-
jomatyczna czy inaczej formalna. Aksjomaty to nietestowalne twierdzenia czy założenia
dotyczące badanego zjawiska, o których zakłada się, że są prawdziwe. Aksjomaty opisują
bezpośrednie zależności przyczynowe pomiędzy dwoma pojęciami. Zależności te mają tak
podstawowy charakter, że nie wymagają dalszych dowodów empirycznych. Bez takich
podstawowych założeń proces tworzenia, formułowania i testowania hipotez staje się
niemożliwy. Teoria aksjomatyczna składa się zatem ze:
1. Zbioru pojęć i definicji zarówno pojęciowych, jak i operacyjnych.
2. Zbioru stwierdzeń opisujących sytuacje, do których odnosi się dana teoria.
3. Zbioru powiązanych ze sobą stwierdzeń, podzielonych na:
a) aksjomaty — nietestowalne stwierdzenia czy założenia dotyczące badanego
zjawiska, o których zakłada się, że są prawdziwe. Na przykład zakłada się, że aksjomaty
przyjmowane w geometrii są prawdziwe bez względu na to, czy się odnoszą czy nie do świata
empirycznego;
b) twierdzenia — wyrażenia wyprowadzone dedukcyjnie z aksjomatów i podlegające
weryfikacji empirycznej.
4. Systemu reguł logicznych zastosowanych do:
a) powiązania wszystkich pojęć w ramach systemu;
b) wyprowadzania dedukcyjnego twierdzeń z aksjomatów, zbiorów aksjomatów i
twierdzeń.
Jednym z pierwszych i często cytowanym przykładem teorii aksjomatycznej jest teoria
Durkheima w wersji sformułowanej przez Hansa Zetterberga. Zetterberg wyprowadził
dziesięć następujących twierdzeń22:
1. Im większy podział pracy, tym więcej uniformizmu (zgody co do podstawowych
wartości i kwestii).
2. Im większa solidarność (w sensie przynależności), tym większa liczba więzi
społecznych przypadających na jednostkę (większa liczba kontaktów z innymi członkami
grupy).
3. Im większa liczba więzi społecznych przypadających na jednostkę, tym większy
uniformizm.
4. Im większy uniformizm, tym mniejsza liczba odrzuconych dewiantów (osób, które
nie akceptują podstawowych wartości lub zachowują się w sposób społecznie
nieaprobowany).
5. Im większy podział pracy, tym mniejsza liczba odrzuconych dewiantów.
6. Im większa liczba więzi społecznych przypadających na jednostkę, tym mniejsza
liczba odrzuconych dewiantów.
7. Im większy podział pracy, tym większa solidarność.
8. Im większa solidarność, tym większy uniformizm.
9. Im większa liczba więzi społecznych przypadających na jednostkę, tym większy
podział pracy.
10. Im większa solidarność, tym mniejsza liczba odrzuconych dewiantów.
Zetterberg, On Theory and Yerification in Sociology, s. 159-160.
57
Ostatnie cztery twierdzenia zostały potraktowane przez Zetterberga jako aksjomaty.
Pozostałe można — jego zdaniem — logicznie wyprowadzić z przyjętego zbioru aksjomatów.
Najtrudniejszym problemem dotyczącym teorii aksjomatycznych jest wybór
aksjomatów. Jakie kryteria powinni zastosować naukowcy, wybierając określone stwierdzenia
jako aksjomaty? Dlaczego tworząc zbiór aksjomatów, Zetterberg wybrał jedynie cztery
ostatnie twierdzenia ze swojej listy? Jednym z kryteriów dokonywania wyboru jest zgodność
wewnętrzna: aksjomaty nie powinny prowadzić do sprzecznych twierdzeń. Innym kryterium
jest liczba: teoretycy powinni wybierać najmniejszy z możliwych zbiór aksjomatów, z
którego da się dedukcyjnie wyprowadzić wszystkie twierdzenia. Kryteria te odzwierciedlają
zgodę naukowców co do tego, że oszczędność czy prostota powinny być brane pod uwagę w
procesie budowania teorii. Trzecim kryterium wyboru aksjomatów, które sprawia, że
konstruowanie teorii aksjomatycznych w naukach społecznych jest najtrudniejsze, jest nakaz
wybierania jako aksjomatów tych twierdzeń, które osiągnęły status praw. Aby dane
twierdzenie mogło zostać uznane za prawo, musi zostać wyposażone w bardzo mocne
dowody empiryczne. Jak dotąd niewiele twierdzeń formułowanych w ramach nauk
społecznych osiągnęło taki status.
W najnowszych badaniach naukowcy starają się wybierać aksjomaty ze zbioru
twierdzeń w taki sposób, aby teoria była wyraźnie określona i łatwa do zrozumienia.
Realizują ten cel, uznając za aksjomaty te twierdzenia, które opisują bezpośrednie zależności
przyczynowe pomiędzy dwoma pojęciami. Według Huberta Blaloc-ka „Aksjomat może
zostać sformułowany w następującej postaci: wzrost wartości X spowoduje (jest przyczyną)
niemal natychmiastowy wzrost wartości Y; wzrost wartości Y spowoduje z kolei dalszy
wzrost wartości X, chociaż w znacznie wolniejszym tempie"23. Posługując się regułą
uwzględniania bezpośrednich związków przyczynowych, Blalock przeformułował cztery
aksjomaty Zetterberga, tworząc łańcuch przyczynowo-skutkowy24:
1. Wzrost liczby więzi społecznych przypadających na jednostkę spowoduje wzrost
podziału pracy (twierdzenie 9).
2. Wzrost podziału pracy spowoduje wzrost solidarności (twierdzenie 7).
3. Wzrost solidarności spowoduje wzrost zgodności (twierdzenie 8).
4. Wzrost solidarności spowoduje spadek liczby odrzuconych dewiantów (twierdzenie
10).
Aksjomaty te, mające charakter zdań przyczynowo-skutkowych, są z kolei źródłem
empirycznie sprawdzalnych twierdzeń.
Zalety teorii aksjomatycznych. Ze względu na złożoność ludzkiego zachowania i
badań im poświęconych (por. rozdział 1) niewiele twierdzeń formułowanych w ramach nauk
społecznych osiągnęło status praw. Dlaczego zatem naukowcy nadal próbują konstruować
teorie aksjomatyczne w ramach nauk społecznych?
Teorie aksjomatyczne mają wiele zalet. Po pierwsze, wymagają one dobrego
Hubert M. Blalock (1969), Theory Construction, Englewood Cliffs, N.J.: Prentice-
Hall, s. 18. Ibidem, s. 19.
58
opisu i jasnego wyjaśnienia głównych pojęć i założeń wykorzystywanych w
niezależnych teoriach. Po drugie, ponieważ każde pojęcie musi być wyraźnie zdefiniowane,
wszystkie terminy — pierwotne i pochodne — a także definicje operacyjne muszą zostać
sformułowane explicite. Po trzecie, teoria aksjomatyczna pozwala na zwarte podsumowanie
aktualnych i planowanych badań. Zamiast tworzenia dużej liczby twierdzeń w teoriach
aksjomatycznych uwzględnia się jedynie twierdzenia podstawowe. Po czwarte, teorie
aksjomatyczne mogą być wykorzystywane do „koordynowania badań tak, aby wiele
niezależnych wyników potwierdzało się wzajemnie, dając najwyższą akceptowalność teorii w
świetle określonych wyników"25. Ponieważ teoria składa się ze zbioru powiązanych ze sobą
twierdzeń, więc dowiedzenie empiryczne dowolnego twierdzenia staje się jednocześnie
potwierdzeniem całej teorii. Na przykład teoria Durkheima stała się źródłem badań
empirycznych nad społecznymi dewiacjami. Po piąte, forma aksjomatyczna sprawia, że
badacze mogą w sposób systematyczny badać wszystkie konsekwencje przyjętych przez
siebie aksjomatów. To z kolei pozwala im określić, które elementy teorii zostały
zweryfikowane, a które wymagają dalszych badań. Jest to szczególnie użyteczne wtedy, gdy
badacze podejmują decyzje o tym, jakie badania wniosą największy wkład do teorii26.1
wreszcie, forma aksjomatyczna jest najwygodniejsza dla analizy przyczy-nowo-skutkowej
(patrz rozdział 17).
¦ Modele
Ściśle związane z rozumieniem teorii jako systemu pojęciowego jest pojęcie modelu.
Teoretycy często starają się tworzyć systemy pojęciowe przez opracowywanie modeli. Tak
jak w innych dyscyplinach i profesjach model może oznaczać wizerunek czegoś. Na przykład
inżynier może dysponować modelem pojazdu takiego jak prom kosmiczny. Model jest
miniaturowym odtworzeniem rzeczywistego promu, łącznie z uzwględnieniem jego
specyficznych cech w odpowiedniej skali (Jeg° struktury). Model pomija natomiast inne
cechy charakterystyczne takie jak np. instrumenty kontrolne. Ponieważ model służy jako
fizyczna, wizualna reprezentacja struktury i cech promu kosmicznego, można się nim
posługiwać w czasie eksperymentów i procedur testowych. Inżynierowie mogą go np.
testować w tunelu aerodynamicznym, aby sprawdzić jego zachowanie w specyficznych
warunkach.
W naukach społecznych modele mają raczej postać symboliczną aniżeli fizyczną.
Oznacza to, że cechy charakterystyczne zjawisk empirycznych, włączając w to ich składowe
oraz powiązania między nimi, są odtwarzane poprzez logiczne uporządkowanie pojęć. I tak
modelem w naukach społecznych jest abstrakcyjne przedstawienie rzeczywistości w taki
sposób, aby uporządkować i uprościć nasze spojrzenie na daną rzeczywistość poprzez
odtworzenie jej podstawowych cech charakterystycznych:
Charakterystycznym sposobem konstrukcji modeli jest metoda abstrakcji; pewne
elementy sytuacji mogą zostać rozmyślnie pominięte, gdyż są traktowane
25 Zetterberg, On Theory and Verification in Sociology, s. 163.
26 Te zalety teorii aksjomatycznych zostały znakomicie wyłożone w: Gerald Hagę
(1980), Theories ofOrganizations: Forms, Process, and Transformation, New York: Wiley-
Interscience.
59
jako nieistotne. Stworzony w ten sposób uproszczony opis sytuacji może się okazać
użyteczny przy jej analizowaniu oraz w celu jej zrozumienia. W budowaniu modeli, oprócz
abstrakcji, czasami stosuje się również procedurę przetwarzania pojęć. Zamiast
bezpośredniego rozważania danej sytuacji może się zdarzyć, że każdy element rzeczywistej
sytuacji zostaje wysymulowany za pomocą obiektów matematycznych lub fizycznych.
Odpowiednie cechy charakterystyczne sytuacji oraz ich związki z innymi elementami są
wówczas odzwierciedlane przez odpowiadające im wysymulowane właściwości i relacje;
organizacja ruchu drogowego w mieście może zostać wysymulowana za pomocą
miniaturowego modelu zawierającego siatkę dróg, sygnały świetlne i pojazdy27.
Model zatem to reprezentacja rzeczywistości. Opisuje on te cechy świata
rzeczywistego, które — według naukowców — mają największy związek z badanym
problemem. Model pozwala wyeksplikować istotne związki między tymi cechami, a także
budować empirycznie sprawdzalne twierdzenia dotyczące natury tych związków. Po
zakończeniu procedur sprawdzających i lepszym zrozumieniu niektórych elementów świata
rzeczywistego naukowcy mogą zdecydować się zmienić model tak, aby był zgodny z ich
najnowszą wiedzą. Modele stosuje się również po to, aby uzyskać wiedzę o zjawiskach,
których nie można obserwować bezpośrednio, jak np. o zjawisku władzy. I tak w badaniach
nad polityką badacze konstruują modele struktur i procesów decyzyjnych, wyprowadzając z
nich twierdzenia dotyczące zachowań osób podejmujących decyzje. Następnie oceniają te
twierdzenia w świetle danych empirycznych. Analitycy zajmujący się polityką używają
modeli również do szacowania konsekwencji alternatywnych kierunków działania, które
mogliby wybrać decydenci. Model dostarcza zatem bardziej racjonalnych podstaw do
wyborów politycznych niż sądy subiektywne.
Przykład: model wdrażania polityki
Interesującym przykładem modelowania złożonych aspektów świata rzeczywistego,
których nie da się bezpośrednio obserwować, jest sformułowany przez Thomasa Smitha
model wdrażania polityki28. Wiele osób jest przekonanych, że gdy raz zostanie określony
kierunek polityki (np. gdy Kongres Stanów Zjednoczonych zatwierdzi projekt ustawy),
osiągnięcie oczekiwanych przez polityków celów nastąpi w sposób naturalny i wręcz
automatycznie. Ale tak dzieje się bardzo rzadko. Problemy techniczne związane z
wdrażaniem polityki są tak złożone, że wdrożenie to niemal nigdy nie przebiega w sposób, w
jaki zostało zaplanowane. Poza tym polityczni biurokraci, zainteresowane grupy oraz osoby i
organizacje, których to dotyczy, często starają się wymóc zmiany w ustawach już w trakcie
ich wdrażania.
Smith w swoim modelu abstrahuje od określonych aspektów procesu wdrażania, a
skupia się na czterech jego podstawowych składowych:
1. Polityce wyidealizowanej, tj wyidealizowanych schematach oddziaływania, które
politycy chcieliby zastosować.
2. Grupie celowej definiowanej jako grupa osób zobowiązanych do przyjęcia
Olaf Helmer (1966), Social Technology, New York: Basic Books, s. 127-128.
Thomas B. Smith (1973), The Policy Implementation Process, „Policy Sciences", 4, s.
197-209.
60
nowych schematów oddziaływania wprowadzonych przez politykę. Są to osoby,
których polityka dotyczy najbardziej bezpośrednio i które muszą się zmienić, aby sprostać jej
wymaganiom.
3. Organizacji, której zadaniem jest wdrożenie polityki. Najczęściej są to
odpowiednie agendy rządu.
4. Czynników środowiskowych, na które wpływa proces wdrażania polityki. Mowa
tu, między innymi, o opinii publicznej oraz o różnych, specyficznych grupach interesów.
Te cztery komponenty i zakładane między nimi relacje zostały przedstawione na
rycinie 2.3. Efektem procesu uprawiania polityki jest wypracowanie określonych kursów
polityki państwowej. Polityka państwowa jest z kolei źródłem stanu napięcia społecznego:
wdrożenie polityki bowiem powoduje napięcia i konflikty tak wśród osób odpowiedzialnych
za proces wdrożenia, jak i wśród tych, których wdrożenie to dotyczy. Napięcia prowadzą do
zawarcia ugody, czyli transakcji. Terminem tym Smith określa reakcję na istniejące napięcia i
konflikty. Zainicjowany przez transakcje i instytucje mechanizm sprzężenia zwrotnego
oddziałuje z kolei zarówno na wszystkie cztery komponenty procesu wdrożeniowego, jak i na
przyszłe uprawianie polityki.
Modele zatem to narzędzia wyjaśniania i przewidywania. Dobrze opracowane wiernie
przybliżają rzeczywistość. Modele jednak nie są tożsame z rzeczywistością. Są one często
zmieniane, aby rzeczywistość została dokładniej odzwierciedlona i aby można było
uwzględnić nową wiedzę. Istotną cechą modeli naukowych jest to, że mogą być one
testowane w sposób empiryczny, tj. że można udowodnić ich fałszywość i następnie je
zmienić lub odrzucić.
proces
tworzenia
polityki
¦^•polityka.
Ryc. 2.3. Model procesu wdrażania polityki
sprzężenie *^_ zwrotne
organizacje wdrażające ~* grupa docelowa
, ' u łł }
polityka wyidealizowana 1 11 11 1
' H 1 •ił
czynniki środowiskowe
transakcje
instytucje
Teoria, modele i badania empiryczne
Nauki społeczne jako dyscypliny naukowe opierają się na dwóch podstawowych
elementach: teoriach i badaniach empirycznych. Badacze w naukach społecznych działają w
dwóch „światach": w świecie obserwacji i doświadczenia oraz w świecie
61
idei, teorii oraz modeli. Tworzenie racjonalnych połączeń między tymi dwoma
światami pozwala realizować cel nauk społecznych, czyli wyjaśniać zjawiska i dokonywać
dokładnych predykcji. W jaki sposób jednak tworzy się to połączenie? Czy powinniśmy
najpierw konstruować teorie i modele, a następnie przenosić się do świata badań
empirycznych, czy też badania empiryczne powinny poprzedzać teorię?*
Teoria przed badaniami
Zgodnie z jedną z głównych szkół myślenia najpierw powinna być formułowana
teoria, a potem dopiero powinny następować badania empiryczne. Ten sposób postępowania
nazywa się strategią teorii przed badaniami. Strategię tę, w sposób najbardziej systematyczny,
opracował Karl Popper (1902-1994). Twierdził on, że wiedza naukowa czyni największe
postępy, gdy naukowcy tworzą idee (przypuszczenia), a następnie korzystając z badań
empirycznych, starają sieje odrzucić (odrzucenia)29. Popper wykluczał ewentualność, że
badania empiryczne mogą w sposób systematyczny wpływać na teorie. Jego zdaniem badania
rzadko są źródłem nowych teorii, a także nie są źródłem logicznych metod tworzenia teorii.
Teorie „można tworzyć jedynie intuicyjnie, odwołując się do czegoś w rodzaju intelektualnej
miłości do przedmiotu doświadczenia"30.
Strategia teorii przed badaniami składa się z następujących, bardzo uproszczonych,
pięciu kroków31:
1. Skonstruuj explicite teorię lub model.
2. Z teorii lub modelu wybierz twierdzenie, które poddasz empirycznej weryfikacji.
3. Opracuj plan badawczy pozwalający zweryfikować twierdzenie.
4. Jeżeli na podstawie danych empirycznych twierdzenie wyprowadzone z teorii
zostanie odrzucone, to wprowadź zmiany do teorii lub planu badawczego (np. badanie, plan,
pomiar — por. ryc. 1.1) i powróć do etapu 2.
5. Jeżeli twierdzenie nie zostanie odrzucone, to wybierz inne twierdzenie w celu
weryfikacji lub staraj się poprawić teorię.
Badania przed teoriq
Przeciwieństwem strategii teorii przed badaniami jest, sformułowana przez Roberta
Mertona, strategia badań przed teorią:
Twierdzę, iż funkcja badań empirycznych wykracza daleko poza bierną rolę
weryfikowania oraz sprawdzania teorii: czynią one więcej niż potwierdzanie
* Autorzy w skrótowej formie przedstawiają tu cechy charakterystyczne dwóch metod
naukowych stosowanych w naukach empirycznych (w tym społecznych) — indukcjonizmu
oraz hipotetyzmu (fal-syfikacjonizmu, inaczej: metody stawiania i krytyki hipotez). Na
gruncie nauk społecznych w sporze zwolenników tych dwóch przeciwstawnych podejść
więcej zwolenników ma metoda hipotetyzmu, której głównym przedstawicielem jest K.R.
Popper (przyp. red. nauk.).
29 Karl R. Popper (1968), Conjectures and Refutations: The Growth ofScientific
Knowledge, New York: Harper & Row.
30 Karl R. Popper (1961), The Logic of Scientific Discovery, New York: Science
Editions; wyd. polskie: K.R. Popper (1977), Logika odkrycia naukowego, Warszawa: PWN,
tłum. Urszula Niklas.
31 Reynolds, A Primer in Theory Construction, s. 140-144.
62
lub obalanie hipotez. Badania empiryczne odgrywają rolę aktywną: spełniają co
najmniej cztery podstawowe funkcje, które przyczyniają się do kształtowania rozwoju teorii.
Zapoczątkowują, przeformułowują, nadają inny kierunek i precyzują teorię"32.
Zgodnie z tym poglądem badania empiryczne stanowią nowe wyzwanie dla teorii.
Wymagają one bowiem kontynuowania prac teoretycznych prowadzących do zmian
istniejących teorii, a także pełnią funkcję narzędzia ich weryfikacji. Strategia badań przed
teorią składa się z czterech następujących etapów:
Analiza zjawiska i określenie jego podstawowych cech. Zmierzenie tych cech w
różnych sytuacjach (problematyka pomiaru i procedury pomiarowe zostały omówione w
rozdziale 7).
Analiza otrzymanych danych w celu określenia, czy są one systematycznym źródłem
wariancji.
Jeżeli zostanie ustalone systematyczne źródło wariancji, to należy opracować teorię.
Może to być teoria w jednej z form, które omówiliśmy wcześniej, choć najbardziej
preferowane są tu systemy teoretyczne.
Obie strategie traktują teorie jako formę przejawiania się postępu naukowego.
Rzeczywisty dylemat dotyczy miejsca teorii w procesie badawczym. Naszym zdaniem, aby
prowadzić badania, nie trzeba zajmować stanowiska dogmatycznie akceptującego
którąkolwiek ze strategii. Nauki społeczne rozwijały się niezależnie od tej kontrowersji, a
działania naukowe podejmowano, wykorzystując obie strategie. W rzeczywistości teoria i
badania wchodzą ze sobą w ciągłe interakcje, jak to pokazano na rycinie 1.1. Co więcej,
Ernest Nagel utrzymuje, że różnica między tymi strategiami jest raczej pozorna aniżeli
rzeczywista:
Wybitni uczeni twierdzili wielokrotnie, że teorie są »dowolnymi tworami umysłu*.
Nie znaczy to oczywiście, że dane z obserwacji nie mogą sugerować teorii lub że teorie nie
wymagają uzasadnienia przez dane obserwacyjne. Natomiast twierdzi się w ten sposób
słusznie, że podstawowe terminy teorii nie mają znaczeń wyznaczonych przez określone
operacje eksperymentalne oraz że teoria może być zadowalająca i owocna, mimo iż dane na
jej poparcie mają z konieczności charakter pośredni33 .
¦ Podsumowanie
1. Jednym z najbardziej istotnych elementów nauki są pojęcia. Nauka bierze swój
początek od stworzenia pojęć opisujących świat empiryczny i rozwija się, łącząc te pojęcia w
system empiryczny. Pojęcia umożliwiają efektywną komunikację,
12 Robert K. Merton (1968), Social Theory and Social Structure, wyd. popr. i posz.
New York: Free Press, s. 103; wyd. polskie: Robert K. Merton (1982), Teoria socjologiczna i
struktura społeczna. Warszawa: PWN. tłum. Ewa Morawska, Jerzy Wertenstein-Żulawski, s.
170.
13 Emest Nagel (1979), The Structure of Science, New York: Heckett, s. 86; wyd.
polskie: Ernest Nagel (1970). Struktura nauki, Warszawa: PWN, tłum. Jerzy Giedymin,
Bożydar Rassalski, Helena Eilstein, s. 85.
1.
2. 3. 4.
63
precyzują punkt widzenia, są środkami klasyfikacji i generalizacji, i wreszcie są
klockami, z których buduje się twierdzenia, teorie i hipotezy — co dokładnie omówimy w
rozdziale 3.
2. Aby pojęcia mogły skutecznie pełnić swoją funkcję, powinny być wyraźnie i jasno
formułowane oraz powinny być powszechnie akceptowane. Można to osiągnąć poprzez
tworzenie definicji pojęciowych i operacyjnych. Definicje pojęciowe opisują pojęcia za
pomocą terminów pierwotnych i pochodnych. Definicje operacyjne kładą nacisk na zbiór
procedur i działań, które powinny zostać podjęte przez badaczy, aby empirycznie
zaobserwować zjawisko opisywane przez pojęcia. Definicje operacyjne zatem są pomostem
pomiędzy poziomem pojęciowo-teoretycznym a poziomem empiryczno-obserwacyjnym.
3. Chociaż badacze w dziedzinie nauk społecznych zgadzają się co do tego, że
podstawowym celem działań naukowych jest teoria, to różnią się oni poglądami dotyczącymi
znaczenia i rodzajów teorii. Dzisiaj mówimy o czterech rodzajach teorii: systemach
klasyfikacyjnych ad hoc, taksonomiach, strukturach pojęciowych i systemach teoretycznych.
Jedną z podstawowych form systemów teoretycznych jest teoria aksjomatyczna. Teoria
aksjomatyczna składa się ze zbioru pojęć i definicji, zbioru stwierdzeń, zbioru stwierdzeń
dotyczących zależności podzielonego na aksjomaty i twierdzenia oraz systemu logiki, za
pomocą którego wiąże się pojęcia z twierdzeniami oraz wyprowadza twierdzenia z
aksjomatów.
4. Naukowcy wykorzystują modele do systematycznego odzwierciedlania wybranych
aspektów świata rzeczywistego. Modele są abstrakcjami pozwalającymi porządkować i
upraszczać obraz rzeczywistości tak, by zachować wszystkie jej podstawowe cechy.
Naukowcy posługują się modelami również po to, aby lepiej poznać zjawisko, którego nie
można bezpośrednio obserwować, jak np. system ekonomiczny.
5. Naukowcy tworzą systematyczne powiązania pomiędzy światem empirii i światem
pojęć za pomocą jednej z dwóch ogólnych strategii: strategii teorii przed badaniami oraz
strategii badań przed teorią. I chociaż trwa spór o to, która ze strategii jest bardziej owocna i
prowadzi do postępu w nauce, to naszym zdaniem teoria i badania pozostają ze sobą w
ścisłych związkach, a różnica pomiędzy strategiami jest raczej pozorna aniżeli rzeczywista.
¦ Podstawowe terminy
definicja operacyjna 46 struktura pojęciowa 54
definicja ostensywna 45 system klasyfikacyjny 53
definicja pojęciowa 45 system teoretyczny 55
fałszywa konkretyzacja 43 taksonomia 53
model 59 teoria aksjomatyczna 57
odpowiedniość 50 termin pierwotny 45
pojęcie 42 termin pochodny 45
strategia badań przed teorią 62 znaczenie teoretyczne 51
strategia teorii przed badaniami 62
64
¦ Pytania sprawdzajgce
1. Omów cztery funkcje, jakie pełnią pojęcia w naukach społecznych.
2. Czym się różnią definicje pojęciowe od definicji operacyjnych? Podaj przykład
każdej definicji z dziedziny nauk społecznych, którą studiujesz.
3. Omów typowe nieporozumienia dotyczące teorii. Czy możesz podać jeszcze inne?
4. Opisz i wyjaśnij sposób stosowania modeli w naukach społecznych. Czy znasz
przykłady z innych dziedzin?
5. Omów różnicę pomiędzy strategią teorii przed badaniami a strategią badań przed
teorią. Która ze strategii — twoim zdaniem — lepiej odtwarza proces badań naukowych?
Dlaczego?
¦ Literatura dodatkowa
Hempel CG. (1968), Podstawy nauk przyrodniczych, Warszawa: WNT.
HomowskaE. (1989), Operacjonalizacja wielkości psychologicznych. Założenia —
struktura — konsekwencje, Wrocław: Ossolineum.
Marciszewski W. (red.)(1988), Mata encyklopedia nauki, wyd. 2, Wrocław:
Ossolineum.
Mokrzycki E. (1980), Filozofia nauki a socjologia, Warszawa: PWN.
Nagel E. (1970), Struktura nauki. Warszawa: PWN.
Nowak S. (red.)(1965), Metody badań socjologicznych. Wybór tekstów, Warszawa:
PWN.
Pawłowski T. (1986), Tworzenie pojąć i definiowanie w naukach humanistycznych,
Warszawa: PWN.
Przetęcki M. (1966), Operacjonizm, w: T. Pawłowski (red.), Logiczna teoria nauki, s.
99-121, Warszawa: PWN.
Rozdział 3
Podstawowe elementy procesu badawczego
Problemy badawcze 67
Jednostki analizy 68 Błąd ekologizmu 69 Błąd indywidualizmu 70
Zmienne 70
Zmienne zależne i zmienne niezależne 71
Zmienne kontrolne 72
Zmienne ciągłe i zmienne dyskretne 73
Związki 74
Rodzaje związków 75
Hipotezy 77
Problemy i hipotezy: wybrane przykłady 80
Źródła informacji o badaniach i hipotezach naukowych 81
Bibliografie, indeksy i streszczenia 82 Czasopisma fachowe 83 Publikacje
statystyczne 84 Monografie 86
Podsumowanie 86
Podstawowe terminy 87
Pytania sprawdzające 87
Literatura dodatkowa 87
Na początku rozdziału 1 przedstawiliśmy przykład badań długofalowych
obejmujących tysiące mieszkańców Chicago, mających na celu zrozumienie, czym jest
przestępczość. Jakie wnioski naukowe możemy wyprowadzić z tak złożonych badań? Jaka
jest jakość tych wniosków? Czy możemy dokładnie określić każde analizowane zagadnienie?
Czy analizowane problemy zostały sfomułowane poprawnie i czy zastosowano właściwe
techniki testowania hipotez? Takie pytania stawiamy sobie, planując każde badanie w
naukach społecznych. Odpowiedzi na nie pokazują, w jaki sposób stosujemy podstawowe
narzędzia badawcze.
W niniejszym rozdziale zastanowimy się, w jaki sposób naukowcy formułują
problemy badawcze oraz omówimy dwa rodzaje popełnianych błędów: błąd ekologizmu i
błąd indywidualizmu. Następnie podamy definicje zmiennych, omówimy ich rodzaje oraz
przedyskutujemy powiązania między nimi. Dalej zajmiemy się procesem tworzenia hipotez.
Na koniec dokonamy przeglądu podstawowych źródeł informacji na temat opublikowanych
badań, w tym materiałów drukowanych oraz baz danych dostępnych w sieciach
komputerowych.
Niezależnie od tego, czy badania naukowe są prowadzone zgodnie ze strategią teorii
przed badaniami czy strategią badań przed teorią, terminy takie, jak: „problem badawczy",
„zmienna", „związek" i „hipoteza" pojawiają się bardzo często. Są one podstawowe dla
procesu badawczego, gdyż umożliwiają przełożenie idei teoretycznej na konkretne operacje
badawcze. W tym rozdziale zdefiniujemy, omówimy i podamy przykłady ich
wykorzystywania w kontekście procesu badawczego.
¦ Problemy badawcze
Na początku jest problem. Problem badawczy to bodziec intelektualny wywołujący
reakcję w postaci badań naukowych. Na przykład: Kto rządzi Ameryką? Jakie czynniki
zachęcają do oszczędzania energii? W jaki sposób można zmniejszyć inflację? Czy klasa
społeczna wpływa na zachowania wyborcze? — to problemy badawcze.
Nie wszystkie bodźce intelektualne mogą być badane w sposób empiryczny i nie
każde ludzkie zachowanie jest sterowane wiedzą naukową. W rzeczywistości — co
pokazaliśmy w rozdziale 1 — podstawowych założeń przyjmowanych w nauce nie da się
badać empirycznie. Nie są one dowiedzione i nie da się ich dowieść. Takich zagadnień, jak:
Czy cywilizacja Zachodu zniknie? Czy kolor niebieski jest ładniejszy od zielonego? oraz: Czy
impresjonizm wpłynął w największym stopniu na rozwój sztuki? nie da się badać w sposób
empiryczny. Generalnie rzecz biorąc, problemy, których nie można empirycznie uzasadnić
(tzn. nie można zidentyfikować z ob-serwowalnymi zachowaniami), lub te, które dotyczą
subiektywnych preferencji, wierzeń, wartości czy upodobań, nie poddają się badaniom
empirycznym.
Uwaga, że naukowcy nie zajmują się w sposób naukowy subiektywnymi
preferencjami, nie oznacza oczywiście, że spełniając zadania obywateli, rodziców czy
67
przyjaciół nie mają takich preferencji. Ponieważ jednak preferencje czy wierzenia
subiektywne nie mogą zostać empirycznie zweryfikowane, pozostają one poza obszarem
wiedzy naukowej.
Mimo to niektóre z preferencji czy wierzeń subiektywnych można badać, stosując
środki naukowe w taki sam sposób, w jaki naukowcy badają inne zjawiska empirycznie.
Można, na przykład, zbadać, dlaczego niektórzy ludzie wierzą, że zniknie cywilizacja
Zachodu, i dlaczego inni nie podzielają tego poglądu; można zbadać, czy przekładanie
impresjonizmu nad inne kierunki ma związek z przynależnością dla klasy społecznej i
cechami osobowości. Podkreślmy jednak, że to nie preferencje subiektywne są przedmiotem
badania, lecz przyczyny, dla których ludzie zajmują określone stanowiska, a także niekiedy
zachowania wynikające z tych wierzeń.
Ponadto, aby problem badawczy był empirycznie uzasadniony, musi zostać w sposób
jasny i dokładny sformułowany. Na przykład problem „Jakie czynniki zachęcają do
oszczędzania energii?" jest zbyt ogólny i zbyt niejasny, aby się stać podstawą projektowania
badań. Różni ludzie mogą go różnie rozumieć. Nie precyzuje się w nim ani rodzajów
czynników (ekonomicznych, społecznych czy patriotycznych), ani rodzajów energii (ropa
naftowa, benzyna, gaz ziemny czy węgiel). Nie precyzuje się także, czy oszczędzanie dotyczy
przemysłu czy odbiorców indywidualnych. Brak jasności i dokładności może prowadzić do
niejasnych wyników, które mogą być sprzecznie interpretowane.
Jednostki analizy
Formułując problem, badacz musi rozważyć jednostki analizy, tj. określić, jakie są
podstawowe elementy badanego zjawiska. Jednostka (czy poziom) analizy warunkuje wybór
planu badawczego, metod zbierania danych oraz metod analizy danych. Czy problem
badawczy dotyczy spostrzeżeń, postaw czy zachowania? Czy badacz powinien się
koncentrować na jednostkach czy grupach, instytucjach czy społeczeństwach? Abraham
Kapłan nazwał problem wyboru jednostek analizy problemem umiejscowienia:
Problem umiejscowienia można opisać jako wybór podstawowego przedmiotu badań
w naukach behawioralnych, przestrzeni cech do jego opisu i struktur pojęciowych, w ramach
których będą formułowane hipotezy dotyczące tego przedmiotu. Istnieje wiele możliwych
przedmiotów badań i wiele z nich zostaje wybranych w różnych badaniach: stany
świadomości, działania (elementy istotnych zachowań), role, osoby, osobowości, relacje
interpersonalne, grupy, klasy, instytucje, cechy lub wzorce społeczne, społeczeństwa i
kultury. Czy instytucje prawne, na przykład, różnią się od instytucji państwowych, czy też są
ich częścią? A jeżeli są ich częścią, to co to oznacza?1
Zasadniczo nie ma żadnych ograniczeń co do wyboru jednostek analizowanych w
badaniach naukowych. Jednakże kiedy badacz dokonał już wyboru, musi dostosować
procedury badawcze, zwłaszcza poziom i zakres uogólnień oraz sformułowań teoretycznych
tak, aby były one zgodne z wybranymi jednostkami analizy. Ta
1 Abraham Kapłan (1968), The Conduct oflnąuiry, New York: Harper & Row, s. 78.
68
część procesu badawczego ma zasadnicze znaczenie, gdyż jednostki analizy posiadają
na tyle unikatowe właściwości, że przechodzenie od jednej jednostki do drugiej może być
źródłem błędów. Uogólnienia wyników badań, w których jednostkami analizy były
pojedyncze osoby, i uogólnienia badań, w których analizowano grupy, mogą być zupełnie
różne.
Podstawową przyczyną tych niejasności jest podobieństwo pojęć wykorzystywanych
do opisywania badanych właściwości; pojęć, które mogą się różnić swoimi obserwowalnymi
odniesieniami w zależności od jednostki analizy. Na przykład pojęcie „przetrwanie" jest
wykorzystywane do wyjaśniania zachowań takich odrębnych jednostek analizy, jak
poszczególne osoby, grupy, organizacje i narody. I w zależności od jednostki analizy termin
„przetrwanie" ma różne znaczenia. Nie istnieje przyczyna dająca się sformułować a priori,
która pozwoli przyjąć, że związek pomiędzy przetrwaniem a innymi właściwościami będzie
identyczny dla wszystkich jednostek. Na przykład konsekwencje behawioralne przetrwania
mogą być podobne dla poszczególnych osób — ich fizyczne przetrwanie. Jednakże, gdy
weźmiemy pod uwagę organizacje, to przetrwanie może oznaczać utrzymanie statusu
prawnego firmy, nawet jeżeli jej podstawowa linia produkcyjna uległa całkowitej zmianie. W
wypadku narodów przetrwanie może oznaczać powrót do dawnych granic politycznych —
sytuacja, z jaką mamy do czynienia w trakcie wojny domowej w byłej Jugosławii (1993-do
dzisiaj).
Błqd ekologizmu
Badacze muszą określić jednostki analizy również z powodów metodologicznych.
Jeżeli dany związek jest badany na określonym poziomie analizy lub dla danej jednostki (np.
grup), a wyniki są przenoszone na inny poziom (np. jednostek), to łatwo o zniekształcenia.
Innymi słowy, przenoszenie wniosków z bardziej złożonej na prostszą jednostkę analizy, z
wyższego na niższy poziom jest niewłaściwe. Ten rodzaj zniekształceń nazywa się błędem
ekologizmu.
W klasycznym już dziś badaniu William Robinson w sposób bardzo przekonujący
zademonstrował skutki błędu ekologizmu2. Analizując związki pomiędzy umiejętnością
czytania i pisania a miejscem urodzenia w latach trzydziestych, Robinson porównywał ze
sobą regiony Stanów Zjednoczonych. Ustalił, że w regionach z wyższym odsetkiem osób
urodzonych za granicą istnieje też wyższy odsetek osób umiejących czytać i pisać, w
porównaniu z regionami, w których mieszka mniejszy odstetek osób urodzonych za granicą.
Kiedy jednak przeanalizował ten sam związek na poziomie jednostek, otrzymał dokładnie
odwrotne rezultaty: w ramach danego regionu rdzenni mieszkańcy w większym stopniu
posiadali umiejętność czytania i pisania niż osoby urodzone za granicą. Czym można by
wyjaśnić tak sprzeczne rezultaty? Jak się wydaje, istnieją dwie możliwe przyczyny: (a) istotne
różnice w jakości powszechnej edukacji między regionami — poziom grup, (b) tendencja
imigrantów do osiedlania się w regionach, w których edukacja powszechna była lepsza —
poziom jednostek. Robinson zwraca uwagę, że gdyby zastosował tylko pierwsze wyjaśnienie
dotyczące określonej jednostki analizy, to byłby to błąd ekologizmu.
2 William S. Robinson (1950), Ecological Correlations and the Behavior of
/ndividuals, „American Sociological Review", 15, s. 351-357.
69
Dwa rodzaje błędów, których badacze powinni być świadomi
¦ Błąd ekologizmu. Wyprowadzanie wniosków o jednostkach bezpośrednio z
wyników otrzymanych dla grup, społeczeństw czy narodów.
¦ Błąd indywidualizmu. Wyprowadzanie wniosków o grupach, społeczeństwach czy
narodach bezpośrednio z danych dotyczących zachowań jednostek.
Błqd indywidualizmu
Przeciwieństwem błędu ekologizmu jest błąd indywidualizmu. Błąd indywidualizmu
powstaje wtedy, gdy wnioski dotyczące grup, społeczeństw czy narodów są bezpośrednio
wyprowadzane z danych otrzymanych dla jednostek. Jeżeli na przykład badacz obliczył
odsetek osób, które zgadzają się z określonym twierdzeniem dotyczącym demokracji, a
następnie uznał te dane za wskaźnik akceptacji demokracji jako systemu politycznego, to
popełnił błąd indywidualizmu. System polityczny danego państwa może np. być oparty na
reżimie autorytarnym nawet wtedy, gdy większość jego mieszkańców ceni sobie wartości
demokratyczne. Co więcej, pojęcie demokracji nie oznacza tego samego na obu poziomach
analizy. Dla jednostek oznacza ono wartości, postawy i zachowanie; w wypadku systemu
politycznego pojęcie to odnosi się do struktur politycznych, instytucji i metod podejmowania
decyzji. Nie możemy wyjaśnić ani przewidzieć struktury czy zachowania systemu
politycznego jedynie na podstawie wiedzy o jego indywidualnych członkach.
¦ Zmienne
Problemy badawcze są zawsze formułowane dzięki wykorzystaniu określonych pojęć.
Jak pokazaliśmy to w rozdziale 2, pojęcia są abstrakcjami odzwierciedlającymi zjawiska
empiryczne. Aby przejść z poziomu pojęciowego na poziom empiryczny, pojęcia muszą
zostać przekształcone w zmienne. To właśnie w postaci zmiennych pojęcia są uwzględniane
w hipotezach badawczych.
Pojęcia są przekształcane w zmienne poprzez ich zamianę lub przekształcenie w zbiór
wartości. Kiedy np. badacz przypisuje liczby (jeden ze zbiorów wartości) obiektom,
przekształca te obiekty w zbiór liczb. Zmienna to właściwość empiryczna mająca dwie lub
więcej wartości. Innymi słowy, jeżeli badana przez nas właściwość może przybierać różne
wartości, to możemy ją potraktować jako zmienną. „Klasa społeczna" na przykład jest
zmienną, gdyż można jej przypisać przynajmniej pięć różnych wartości: niższa, niższa
średnia, średnia, średnia wyższa, wyższa. „Oczekiwania" to też zmienna, gdyż można im
przypisać co najmniej dwie wartości: wysokie i niskie.
Zmienna, która ma tylko dwie wartości, nazywana jest zmienną dychotomie z n ą.
Innym ważnym rozróżnieniem — z punktu widzenia badaczy — jest podział zmiennych na
zmienne zależne i niezależne, zmienne kontrolne oraz na zmienne ciągłe i dyskretne.
70
Zmienne zależne i zmienne niezależne
Zmienną, która badacz chce wyjaśnić, nazywamy zmienną zależną. Natomiast
zmienną, za pomocą której badacz chciałby wyjaśnić zmiany wartości zmiennej zależnej,
nazywamy zmienną niezależną. Zmienna niezależna nazywana jest również zmienną
wyjaśniającą; jest ona zakładaną przyczyną zmian wartości zmiennej zależnej. Zmienna
niezależna jest zatem traktowana jako powiązana ze zmienną zależną lub jako przyczyna
zmian jej wartości. (Zmienne zależne są również nazywane zmiennymi kryterialnymi, a
zmienne niezależne — zmiennymi predykcyj ny mi).
W matematyce zmienna zależna to zmienna, która jest umieszczona po lewej stronie
równania. Jeżeli na przykład zapiszemy Y = f(X), to Y potraktujemy jako zmienną zależną, a
X jako zmienną niezależną. W tym wypadku powiemy, że Fjest funkcj ą X (co
zaznaczyliśmy, wprowadzając literę/). Powiemy, że zmiany wartości X są powiązane ze
zmianami wartości Y lub że X wpływa na Y.
Badacz może na przykład starać się wyjaśnić, dlaczego niektórzy ludzie częściej biorą
udział w życiu politycznym w porównaniu z innymi. Odwołując się do teorii podziału klas
społecznych, badacz może przyjąć, że im wyższa klasa społeczna, do której należy jednostka,
tym aktywniej będzie ona uczestniczyć w życiu politycznym. W tym wypadku badacz
hipotetycznie zakłada, że udział w życiu politycznym (zmienna zależna) zależy od klasy
społecznej. O klasie społecznej (zmiennej niezależnej) zakłada natomiast, że jest ona źródłem
zróżnicowania udziału w życiu społecznym.
Należy podkreślić, że rozróżnienie na zmienne zależne i zmienne niezależne ma
charakter analityczny i odnosi się jedynie do celu badania. W świecie rzeczywistym zmienne
nie są ani zależne, ani niezależne: to badacz decyduje, jak je interpretować, a decyzja ta
wynika z celu badania. Zmienna niezależna w jednym badaniu może się stać zmienną zależną
w innym. Ten sam badacz, biorąc udział w różnych projektach badawczych, może
klasyfikować tę samą zmienną w różny sposób. Chcąc wyjaśnić zróżnicowanie udziału w
życiu politycznym, potraktuje udział w życiu politycznym jako zmienną zależną. Jedną ze
zmiennych wyjaśniających udział w życiu politycznym jest klasa społeczna, która z kolei jest
traktowana jako zmienna niezależna. Jeżeli jednak chcemy wyjaśnić zróżnicowanie takiej
zmiennej jak klasa społeczna (np.: Dlaczego niektórzy ludzie należą do klasy niższej, a inni
do klasy średniej?), to klasa społeczna będzie w tym momencie traktowana jako zmienna
zależna. Jedną ze zmiennych, które mogą wyjaśnić zróżnicowanie klas społecznych, jest
udział w życiu politycznym, które tym razem jest traktowane jako zmienna niezależna.
Większość zjawisk, którymi zajmują się badacze w naukach społecznych, wymaga
określenia, które zmienne niezależne (najczęściej kilka) wpływają na jedną lub więcej
zmiennych zależnych. Dzieje się tak dlatego, gdyż zjawiska społeczne są bardzo złożone.
Jedna zmienna niezależna wyjaśnia zazwyczaj tylko pewną cześć zróżnicowania zmiennej
zależnej, co powoduje konieczność wprowadzenia dodatkowych zmiennych niezależnych
wyjaśniających pozostałą część zróżnicowania. I tak, jeżeli przedmiotem badania jest udział
w życiu politycznym (zmienna zależna), to przynależność do klasy społecznej wyjaśnia,
dlaczego niektórzy ludzie częściej w nim uczestniczą niż inni. Wyjaśnienie to jest jednak
niepełne, gdyż zróżni-
71
cowanie udziału w życiu politycznym można także przypisać innym czynnikom. Te
dodatkowe czynniki (zmienne niezależne) to między innymi wiek, płeć, wykształcenie czy
znaczenie przypisywane działalności politycznej (zakres, w jakim dana osoba jest
przekonana, że jej działalność będzie miała wpływ na wyniki działań politycznych).
Zmienne kontrolne
Naukowcy posługują się w badaniach empirycznych zmiennymi kontrolnymi po to,
aby zmniejszyć ryzyko przypisywania mocy wyjaśniającej tym zmiennym, które w
rzeczywistości nie odpowiadają za zróżnicowanie zmiennej zależnej. Zmienne kontrolne są
wykorzystywane do sprawdzania, czy obserwowany empirycznie związek pomiędzy zmienną
zależną i niezależną nie jest związkiem pozornym. Związek pozorny to taki związek, który
można wyjaśnić za pomocą zmiennych innych niż uwzględnione w hipotezie badawczej.
Innymi słowy, jeżeli wpływ innych zmiennych zostanie wyeliminowany (lub będzie
kontrolowany), a związek pomiędzy zmienną zależną i zmienną niezależną będzie nadal
obserwowany, to związek ten nie jest związkiem pozornym. Posługując się zmiennymi
kontrolnymi, badacz może się upewnić, że pomiędzy zmiennymi istnieje rzeczywiste,
przyczynowe powiązanie, takie jak to zostało określone w hipotezie, i że obserwowany
związek nie wynika z innego, nie zakładanego związku z innymi zjawiskami.
Załóżmy na przykład, że zaobserwowaliśmy, iż liczba wozów straży pożarnej
obecnych przy pożarze jest powiązana z wysokością strat spowodowanych przez ten pożar.
Hipoteza nasza może zostać sformułowana następująco: im więcej wozów straży pożarnej
przyjeżdża do pożaru, tym większe są straty poniesione w tym pożarze. W istocie wozy
strażackie nie są traktowane jako przyczyna strat. Zatem wielkość strat (zmienna zależna) nie
powinna być wyjaśniana liczbą wozów straży pożarnej obecnych przy gaszeniu pożaru
(zmienna niezależna), ale za pomocą innej zmiennej, na przykład wielkości pożaru. Duże
pożary wymagają udziału większej liczby wozów strażackich i mogą spowodować większe
straty. Tym samym obserwowany pierwotnie związek pomiędzy liczbą wozów strażackich
gaszących pożar i wielkością poniesionych w tym pożarze strat jest związkiem pozornym,
gdyż można go wyjaśnić za pomocą trzeciej zmiennej (wielkości pożaru). W tym wypadku
wielkość pożaru jest zmienną kontrolną pozwalającą sprawdzić trafność wyjściowo
założonego związku. Bez określenia wpływu zmiennej kontrolnej obserwowany związek
pomiędzy liczbą wozów strażackich gaszących pożar i wielkością strat poniesionych w tym
pożarze byłby związkiem pozornym. Ten sposób rozumowania przedstawiono na rycinie 3.1.
Innym przykładem ilustrującym wagę zmiennych kontrolnych jest obserwowany
empirycznie związek pomiędzy udziałem w życiu poltycznym a wydatkami rządowymi. Czy
wielkość wydatków rządowych (zmienna zależna) jest spowodowana wielkością udziału w
życiu politycznym (zmienna niezależna)? Pozornie tak. Liczne badania wykazały jednak, że
empiryczny związek pomiędzy udziałem w życiu politycznym a wydatkami rządowymi znika,
kiedy wprowadzimy zmienną kontrolną taką, jak rozwój ekonomiczny1. Poziom rozwoju
ekonomicznego wpływa zarówno na wielkość wydatków rządowych, jak i na udział w życiu
politycznym. Bez
3 Więcej informacji o pierwszym badaniu na ten temat można znaleźć u Haywarda R.
Alkera (1965), Mathematics and Politics, New York: Macmillan.
72
zmienna kontrolna wielkość pożaru
obserwacja wyjściowa liczba wozów strażackich
związek pozorny
obserwacja wyjściowa
wielkość strat
spowodowanych
pożarem
Ryc. 3.1. Istota zmiennych kontrolnych
wyjaśniającego wpływu poziomu rozwoju ekonomicznego obserwowany związek
pomiędzy udziałem w życiu politycznym a wydatkami rządowymi mógłby się wydawać
trafny. Zmienna kontrolna odgrywa więc istotną rolę w sprawdzaniu, czy obserwowany
związek pomiędzy zmienną zależną i zmienną niezależną jest związkiem pozornym, czy też
nie (więcej informacji na temat związków pozornych czytelnik znajdzie w rozdziale 5).
Zmienne ciqgłe i zmienne dyskretne
Inną, ważną cechą zmiennych jest to, czy mają one charakter ciągły, czy też dyskretny.
Cecha ta, jak się przekonamy w późniejszych rozdziałach, ma znaczenie dla operacji
badawczych, zwłaszcza dla procedur pomiarowych, metod analizy danych oraz metod
wnioskowania statystycznego i logicznego uogólniania wyników.
Zmienna ciągła nie ma a priori określonej swojej najmniejszej jednostki. Długość to
przykład zmiennej ciągłej, gdyż nie istnieje naturalna, minimalna jednostka długości. Długość
konkretnego przedmiotu możemy określić jako przynajmniej 10 cm, 10,5 cm czy np.
10,5431697 cm. Generalnie rzecz biorąc, możemy mówić o jednej dziesiątej centymetra,
jednej tysięcznej centymetra czy jednej milionowej centymetra. I chociaż nie możemy
zmierzyć wszystkich możliwych długości z absolutną dokładnością (niektóre z wartości będą
zbyt małe, aby instrument pomiarowy mógł je zarejestrować), długość każdego przedmiotu
może być konceptualnie wyrażona za pomocą nieskończonej liczby miar.
W przeciwieństwie do zmiennych ciągłych zmienne dyskretne mają swoją minimalną
jednostkę. Ilość pieniędzy na rachunku bankowym to przykład zmiennej dyskretnej, gdyż
pieniądze mają określoną minimalną jednostkę monetarną. I tak możemy posiadać w banku
101,21$, 101,22$, ale już nie 101,21843$. Różne ilości pieniędzy nie mogą się różnić między
sobą o mniej, niż wynosi minimalna jednostka monetarna, tu: jeden cent. Liczba dzieci w
rodzinie to inny przykład zmiennej ciągłej. Rodzina może mieć troje lub czworo dzieci, ale
już nie 3,5 dziecka. Jeżeli jakaś ilość zmiennej nie może zostać dalej podzielona, to mamy do
czynienia ze zmienną dyskretną. Jeżeli czytamy w prasie, że przeciętna amerykańska rodzina
ma 2,2 dziecka lub 1,8 samochodu, to nie oznacza to oczywiście, że dyskretne jednostki
analizy liczby dzieci czy samochodów można dalej dzielić w rzeczywistym życiu. Liczby 2,2
i 1,8 to wielkości statystyczne — produkty opracowania matematycznego (por. także rozdział
7 i 14).
73
Rodzaje zmiennych
¦ Zmienna zależna. Zmienna, którą badacz stara się wyjaśnić.
¦ Zmienna niezależna. Zmienna, która powoduje zmiany wartości zmiennej zależnej.
¦ Zmienna kontrolna. Zmienna używana przez badaczy do sprawdzania możliwości,
że związek pomiędzy zmienną zależną i zmienną niezależną jest związkiem pozornym —
innymi słowy, może zostać wyjaśniony jedynie przy obecności innej zmiennej.
¦ Zmienna ciągła. Zmienna, która nie ma określonej swojej minimalnej jednostki, np.
długość.
¦ Zmienna dyskretna. Zmienna, która ma swoją minimalną jednostkę, np. liczba dzieci
w rodzinie.
¦ Zwiqzki
W poprzednich rozdziałach mogliśmy się przekonać, że wyjaśnianie i przewidywanie
naukowe polega na określeniu relacji pomiędzy wyjaśnianym zjawiskiem (zmienna zależna) a
innymi zjawiskami (zmienne niezależne, wyjaśniające) za pomocą ogólnych praw czy teorii.
Co to jednak jest związek?
Związek w badaniach naukowych to zawsze związek pomiędzy dwoma zjawiskami.
Jeżeli powiemy, że zmienna Xi Ysą ze sobą powiązane, to mamy na myśli,
Tabela 3.1. Związek pomiędzy wykształceniem a dochodami
Obserwacje Liczba lat Dochody
nauki [$]
Dan 16 35 000
Ann 15 30 000
Marie 14 27 000
Jacob 13 19 000
Phillip 12 15 000
Suzanne 11 12 000
że istnieje coś wspólnego dla tych obu zmiennych. Jeżeli powiemy, że wykształcenie i
dochody są ze sobą powiązane, to zakładamy, że jednocześnie się zmieniają, są współzmienne
czy że zmiana wartości jednej zmiennej powoduje zmianę wartości drugiej zmiennej.
Współzmienność (inaczej kowariancja) jest właśnie tym, co wiąże wykształcenie i dochody:
osoby o wyższym wykształceniu mają wyższe dochody. Przyjmując w badaniach
empirycznych, że istnieje związek pomiędzy dwiema czy więcej zmiennymi, zakładamy tym
samym, że wartości jednej zmiennej będą się zmieniać wraz ze zmianami wartości innych
zmiennych. Prowadząc badania, badacze zestawiają ze sobą wartości analizowanych
zmiennych. W tabeli 3.1 pokazaliśmy przykład dwóch zbiorów wyników otrzymanych dla
sześciu osób: wykształcenia (operacyjnie definiowanego jako lata nauki) oraz dochodów.
Analizując te dane (zostały one uporządkowane), widać wyraźnie, że są one
74
współzmienne — wyższe wykształcenie występuje z wyższymi dochodami, a niższe
wykształcenie z dochodami niższymi.
Rodzaje zwiqzków
Powiemy, że dwie zmienne są ze sobą powiązane, jeżeli zmiany wartości jednej
zmiennej powodują systematyczne zmiany wartości drugiej. W ostatnim przykładzie zmiana
liczby lat nauki prowadziła do zmiany wysokości dochodów. Prowadząc badania empiryczne,
naukowcy szczególnie interesują się dwiema właściwościami takich związków: ich
kierunkiem i siłą.
Kierunek. Gdy mówimy o kierunku związku, mamy na myśli to, czy jest on dodatni
(pozytywny) czy ujemny (negatywny). Związek dodatni oznacza, że wraz ze wrostem
wartości jednej zmiennej rosną także wartości drugiej. Na przykład związek pomiędzy
wykształceniem a dochodami jest dodatni, ponieważ wzrost liczby lat nauki prowadzi do
większych dochodów. Między zainteresowaniem polityką a udziałem w życiu politycznym
również istnieje związek dodatni, jako że im bardziej interesujemy się polityką, tym
aktywniej uczestniczymy w życiu politycznym. Również dodatni związek pomiędzy
wspomnianym wcześniej rozwojem ekonomicznym i wydatkami rządowymi stwierdzono w
badaniach empirycznych.
Związek ujemny (negatywny) oznacza natomiast, że wraz ze wzrostem wartości jednej
zmiennej wartości drugiej maleją. Wysokie wartości jednej zmiennej są powiązane z niskimi
wartościami drugiej. Na przykład stopień zainteresowania zastawami hipotetycznymi jest
ujemnie powiązany z kredytami na zakup nowego domu: im wyższe zainteresowanie
zastawami hipotetycznymi, tym mniej udziela się kredytów. Związek ujemny istnieje również
pomiędzy wykształceniem i uprzedzeniami rasowymi: im bardziej ludzie są wykształceni,
tym mniej są uprzedzeni rasowo. Również pomiędzy stopniem zbiurokratyzowania i udziałem
w życiu politycznym istnieje związek ujemny: im bardziej zbiurokratyzowany staje się system
polityczny, tym mniejszy jest udział ludzi w życiu politycznym.
Związek pomiędzy zmienną niezależną i zmienną zależną można zilustrować na
wykresie współrzędnych (por. ryc. 3.2). Tak jak w matematyce oś pozioma reprezentuje
zmienną X, a oś pionowa zmienną Y. Na osi X zaznaczamy wartości X (zmiennej
niezależnej), a na osi Y — wartości Y (zmiennej zależnej). Najpowszechniejszym sposobem
zilustrowania związku pomiędzy zmiennymi jest naniesienie par wartości XY, uwzględniając
odpowiednio osie X i Y. Załóżmy, że w badaniu osiągnięć akademickich zebraliśmy dwa
zbiory pomiarów: liczbę godzin przeznaczanych przez studentów codziennie na naukę oraz
liczbę bardzo dobrych ocen otrzymanych przez nich w ciągu danego semestru. Hipotetyczne
dane dla dziewięciu studentów przedstawiliśmy w tabeli 3.2, a ich wykres na rycinie 3.2.
Linia prosta na rycinie 3.2 jest wykresem związku pomiędzy liczbą godzin nauki dziennie
(zmienna niezależna) a liczbą ocen bardzo dobrych (zmienna zależna). Jak widać, wysokie
wartości na osi X są powiązane z wysokimi wartościami na osi Y, średnie wartości X ze
średnimi wartościami Y, a niskie wartości X odpowiadają niskim wartościom Y.
Przedstawiony w ten sposób związek pomiędzy wartościami X i Y nazywa się łącznym
rozkładem wartości. Linia prosta przechodząca przez punkty reprezentujące pary wartości
wskazuje na kierunek związku. Co więcej, badacz może wykorzystać informacje o
własnościach prostej (jej nachyleniu
75
i przesunięciu) do przewidywania wartości zmiennej zależnej na podstawie wartości
zmiennej niezależnej (metody obliczania współczynnika nachylenia i współczynnika
przesunięcia prostej omawiamy w rozdziale 16). Innymi słowy, znając nachylenie prostej i
miejsce, w którym przecina ona oś Y, możemy przewidywać, ile godzin dziennie trzeba się
uczyć, aby otrzymać dobre stopnie.
Tabela 3.2. Liczba godzin poświęconych dziennie na naukę a liczba otrzymanych ocen
bardzo dobrych (dane hipotetyczne)
Liczba godzin poświęconych Liczba otrzymanych
dziennie na naukę (X) ocen bardzo dobrych (Y)
8 5
7 5
6 4
5 3
4 2
4 1
3 1
2 0
1 2
Siła. Związki pomiędzy zmiennymi można scharakteryzować nie tylko przez podanie
ich kierunku, ale również przez podanie ich siły. Siła związku to zakres, w jakim zmienne
współzmieniają się dodatnio lub ujemnie. Największą możliwą siłę związku nazywamy
związkiem doskonałym (idealnym). Jeżeli związek pomiędzy dwiema zmiennymi jest
związkiem doskonałym, to wartość jednej lub więcej zmiennych niezależnych dokładnie
wyznacza wartość zmiennej zależnej. Takie prawo fizyczne jak prawo Einsteina E = mc2 to
przykład niemal doskonałego związku, ponieważ odkryto tylko bardzo niewiele odchyleń od
tego prawa. Hipotetyczny przykład przedstawiony w tabeli 3.1 to też przykład doskonałego
związku: nie ma tu bowiem żadnego odstępstwa od reguły, że im większa liczba lat nauki,
tym większe zarobki.
Po stronie przeciwnej mamy najmniejszą siłę związku, tj. związek zerowy. W tym
wypadku w ogóle nie ma współzmienności pomiędzy wartościami zmiennej zależnej i
zmiennej niezależnej. Oznacza to, że zmienne te nie są ze sobą powiązane. Zmiany wartości
jednej zmiennej nie wpływają na zmiany wartości drugiej zmiennej.
Związki, którymi zajmują się zarówno nauki społeczne, jak i inne nauki, oscylują od
zerowych do idealnych. Związek pomiędzy wykształceniem i dochodami okazał się dodatni,
lecz nieidealny: u osób, które miały wyższe wykształcenie, obserwowano tendencję do
osiągania wyższych dochodów, choć pojawiło się tu wiele wyjątków. Związek pomiędzy
wykształceniem a uprzedzeniami rasowymi jest związkiem ujemnym i też nieidealnym — nie
wszystkie osoby z wyższym wykształceniem nie są rasowo uprzedzone, jak też nie wszystkie
osoby z niższym wykształceniem to osoby uprzedzone rasowo. (Miary siły związku takie, jak
współczynniki korelacji, omawiamy dokładnie w rozdziale 16 i 17).
Po poznaniu zmiennych i związków między zmiennymi, tj. podstawowych skła-
76
¦i
10
i
123456789 10
liczba godzin poświęconych dziennie na naukę (X)
Ryc. 3.2. Wykres danych z tabeli 3.2
dowych problemu badawczego, możemy teraz dokładniej przedstawić, w jaki sposób
budujemy odpowiedź na pytania badawcze, a więc czym są hipotezy i jakie są ich cechy
charakterystyczne.
¦ Hipotezy
Hipoteza jest to proponowana przez nas odpowiedź, jakiej można udzielić na pytanie
badawcze. Jest ona wyrażana w postaci jasno określonego związku pomiędzy zmienną
zależną i zmienną niezależną. Hipotezy to proponowane odpowiedzi, ponieważ zostaną one
zweryfikowane dopiero po przeprowadzeniu badań empirycznych. Budując hipotezę, badacz
nie wie, czy zostanie ona potwierdzona czy nie. Najpierw hipotezy tworzymy, a potem je
weryfikujemy. Jeżeli hipoteza zostanie odrzucona, to należy zbudować następną; jeżeli
hipoteza zostanie przyjęta, to będzie ona włączona do wiedzy naukowej. Hipotezy można
wyprowadzać dedukcyjnie — z teorii, indukcyjnie — na podstawie obserwacji, czy
intuicyjnie, albo łącząc elementy tych sposobów. Źródła, z których korzystają badacze,
tworząc swoje hipotezy, są mniej istotne w porównaniu z kryteriami, na podstawie których
podejmują oni decyzje o ich odrzuceniu lub o braku podstaw do ich odrzucenia. Niektórzy
bywają przekonani, że to spadające jabłko doprowadziło Isaaca Newtona (1642-1727) do
sformułowania hipotezy o prawie grawitacji. W jednej ze scen filmu telewizyjnego And the
Band Played On dr Don Francis z Centrum Kontroli Chorób zdał sobie sprawę z faktu, że
wirus HIV uszkadza receptory komórkowe krwi wtedy, gdy zobaczył swojego kolegę dr.
Harolda Jaffe'a grającego w grę PacMan4. Żaden z tych epizodów jednak, pomijając ich
intelek-
4 John D. Piette (1994), Review Symposium "Playing It Safe", „Journal of Health
Politics, Policy and Law"; 19(2), s. 453.
77
tualną atrakcyjność, nie przekonał naukowców o możliwości zaakceptowania hipotez,
które z nich wynikały — akceptacja wymagała bowiem zebrania danych empirycznych.
Hipotezy badawcze są do siebie podobne pod czterema względami: są jasno sformułowane, są
konkretne (specyficzne), poddają się weryfikacji empirycznej za pomocą metod badawczych i
nie są wartościujące. Szczegółowa analiza tych cech da czytelnikom wiedzę pozwalającą na
konstruowanie własnych hipotez i na ocenę hipotez formułowanych przez innych.
1. Hipotezy muszą zostać jasno sformułowane. Aby hipoteza mogła zostać
empirycznie sprawdzona, wszystkie zmienne w niej występujące muszą zostać zdefiniowane.
Definicje pojęciowe i operacyjne, które omówiliśmy w rozdziale 2, są tu bardzo pomocne. W
konstruowaniu hipotez i definiowaniu zmiennych niezwykle przydatna może się okazać
literatura przedmiotu oraz opinie ekspertów. Załóżmy, że w naszej hipotezie przyjmujemy, iż
związek pomiędzy alienacją (zmienna niezależna) i udziałem w życiu politycznym (zmienna
zależna) jest związkiem ujemnym (odwrotnie proporcjonalnym). Analizując literaturę
fachową, możemy się przekonać, jak inni badacze definiują te zmienne. Wśród definicji
prawdopodobnie znajdziemy też takie, które będą odpowiadały naszej hipotezie badawczej.
Jeżeli jednak się to nie uda, to definiując zmienne w sposób nam odpowiadający, zawsze
możemy się odwołać do doświadczenia innych badaczy. W każdym wypadku definicje
operacyjne muszą być konkretne i na tyle precyzyjne, aby możliwe było dokonywanie i
powtarzanie obserwacji.
2. Hipotezy są konkretne. Zadanie badacza polega na określeniu oczekiwanego
związku pomiędzy zmiennymi (z uwzględnieniem jego kierunku: dodatniego lub ujemnego)
oraz warunków, w jakich ten związek zachodzi. Hipoteza stwierdzająca, że X jest powiązane
z Y, jest zbyt ogólna. Związek pomiędzy X i Y może być albo dodatni, albo ujemny. Co
więcej, związki te zmieniają się w czasie i przestrzeni i mogą mieć różną postać w zależności
od jednostki analizy. Jak się przekonaliśmy wcześniej, obserwowany związek pomiędzy
zmiennymi może ulec zmianie, kiedy zmienimy jednostkę analizy (błąd ekologizmu). I tak na
przykład związek pomiędzy wykształceniem a udziałem w życiu politycznym może być
analizowany na poziomie jednostek, grup czy okręgów wyborczych. Różne poziomy analizy
wymagają różnych definicji pojęciowych i różnych definicji operacyjnych zmiennych, które
zostały włączone w proces badawczy.
Formułując hipotezę, należy również jasno określić warunki, w jakich dany związek
będzie badany (obserwowany). Teoria zatem odgrywa niezwykle ważną rolę w procesie
budowania owocnych — i dających się włączyć w proces badawczy — hipotez.
3. Hipotezy są sprawdzalne za pomocą dostępnych metod. Czasami zdarza się, że
badacz sformułuje jasną, konkretną oraz nie wartościującą hipotezę, lecz nie znajdzie metod,
za pomocą których będzie mógł ją sprawdzić (przetestować). W jaki sposób moglibyśmy na
przykład sprawdzić hipotezę, że przedmiot A jest dłuższy o 3 cm od przedmiotu B, gdybyśmy
nie posiadali linijki? W jaki sposób moglibyśmy sprawdzić hipotezę, że wirus C jest dodatnio
powiązany z chorobą D, jeżeli nie dysponujemy instrumentami pozwalającymi
zidentyfikować ten wirus? I wreszcie, w jaki sposób mog-
78
libyśmy zbadać związek pomiędzy wykształceniem a udziałem w życiu politycznym,
gdybyśmy nie dysponowali metodami obserwacji tych zmiennych?
W prostocie tych przykładów kryje się wyraźne wskazanie, że nie można sprawdzić
hipotez badawczych, jeśli nie dysponuje się odpowiednimi metodami. Postęp nauki zależy w
istocie od rozwoju nowych metod badawczych, metod obserwacji, metod zbierania danych
oraz metod analizy danych, i to takich, które są dostępne wszystkim badaczom.
Niektórzy badacze w naukach społecznych przywiązują niewielką wagę do metod w
obawie, że mogą zostać przez nie ujarzmieni. Oczywiście, można zostać usidlonym przez
metodę badawczą, jeżeli badacz stosuje ją dogmatycznie, bez zwracania uwagi na
analizowany problem lub gdy metoda jest traktowana jako cel postępowania, a nie jako
środek. W nauce można formułować nowatorskie hipotezy, dla których brak jest metod ich
sprawdzania. Potwierdzenie trafności tych hipotez zależy jednak od dostępu do odpowiednich
metod badawczych.
4. Hipotezy naukowe nie są wartościujące. Generalnie wartości wyznawane przez
badacza, jego stronniczość czy subiektywne preferencje nie powinny w żadnym wypadku
wpływać na proces badawczy. Biorąc jednak pod uwagę fakt, że badania w naukach
społecznych są w pewnym stopniu także rodzajem działalności społecznej zależnej od
otoczenia, badacze muszą zdawać sobie sprawę z własnej stronniczości i starać się explicite ją
wyrazić. Gunnar Myrdal (1898-1987) w klasycznym dziś badaniu poświęconym problemom
rasowym napisał:
Próba wykorzenienia stronniczości poprzez usunięcie wszelkiego wartościowania jest
beznadziejnym i źle ukierunkowanym przedsięwzięciem [...] Nie ma innego sposobu
wykluczenia stronniczości z nauk społecznych jak stawienie czoła wartościowaniu i
uwzględnienie go w postaci jasno określonego, swoistego i wystarczająco
skonkretyzowanego założenia o wartościach5.
Cechy charakterystyczne hipotez badawczych
¦ Hipotezy muszą być jasno sformułowane. Badacz musi zdefiniować pojęciowo i
operacyjnie wszystkie zmienne.
¦ Hipotezy są konkretne. Badacz określa, jakie są oczekiwane związki pomiędzy
zmiennymi w terminach kierunku (dodatni czy ujemny) i warunków, w jakich dany związek
będzie zachodził.
¦ Hipotezy są sprawdzalne za pomocą dostępnych metod. Ocena hipotezy zależy od
tego, czy istnieją odpowiednie metody pozwalające na jej przetestowanie.
¦ Hipotezy naukowe są pozbawione elementów wartościujących. Ponieważ badania w
naukach społecznych dzieją się w społecznym otoczeniu, badacz musi być świadomy własnej
stronniczości i starać się uczynić ją jawną.
5 Gunnar Myrdal (1944), The American Dilemma, New York: Harper, s. 1043.
79
¦ Problemy i hipotezy: wybrane przykłady
Problemy to ogólne pytania dotyczące związków pomiędzy zmiennymi. Hipotezy to
proponowane odpowiedzi dające się sprawdzić empirycznie. Przedstawione niżej przykłady
pozwolą nam na wyraźne rozróżnienie problemów i hipotez, a także będą ilustracją sposobu,
w jaki hipotezy są konstruowane i formułowane.
Pytania badawcze zostały wyprowadzone z ogólniejszego problemu: „Jak rządzić
państwem demokratycznym?"
¦ Kto rządzi Ameryką?
¦ Jakie są przyczyny inflacji?
¦ Dlaczego biurokracja zagraża demokracji?
¦ Czy pozytywne programy działania osiągają swój cel?
¦ Czy integracja w szkole sprzyja zdobywaniu wykształcenia?
¦ Jakie czynniki wpływają na stopień urbanizacji?
¦ Jakie są przyczyny przemocy politycznej?
W procesie badawczym wymaga się, aby naukowcy przekształcali tak sformułowane
pytania ogólne na zbiór hipotez (proponowanych odpowiedzi) po to, aby możliwe stało się ich
zbadanie. Ted Gurr zbudował zbiór hipotez (łącznie z przedstawionymi niżej), które były jego
propozycją odpowiedzi na pytanie o przyczyny przemocy politycznej6:
¦ Prawdopodobieństwo przemocy grupowej zwiększa się wraz ze wzrostem i
zakresem strat ponoszonych przez członków grupy.
¦ Prawdopodobieństwo przemocy politycznej zmienia się istotnie wraz z
intensywnością i zakresem funkcjonowania sprawiedliwości normatywnej (tj.
sprawiedliwości opartej na powszechnie uznawanych standardach moralnych).
¦ Prawdopodobieństwo przemocy politycznej zmienia się istotnie wraz z
prawdopodobieństwem przemocy grupowej.
¦ Wielkość przemocy politycznej zmienia się istotnie wraz z prawdopodobieństwem
przemocy grupowej.
Inny przykład konstruowania hipotez pochodzi z pracy Gibbsa i Martina poświęconej
czynnikom determinującym stopień urbanizacji7. Autorzy zaproponowali następujący zbiór
hipotez:
¦ Stopień urbanizacji społeczeństwa zależy bezpośrednio od stopnia rozproszenia (tj.
rozkładu na dużym obszarze fizycznym) przedmiotów konsumpcji.
¦ Stopień urbanizacji społeczeństwa zależy bezpośrednio od podziału rynku pracy.
¦ Podział rynku pracy w społeczeństwie zależy bezpośrednio od rozproszenia
przedmiotów konsumpcji.
6 Ted R. Gurr (1970), Why Men Rebel, Princeton, N.J.: Princeton University Press, s.
360-367.
7 Jack P. Gibbs, Walter T. Martin (1976), Urbanization, Technology, and the Division
of Labor: International Patterns, w: Paul Meadows, Ephraim H. Mizruchi (red.), Urbanism,
Urbanization and Change, wyd. 2, Reading, Mass.: Addison-Wesley, s. 132-145.
80
¦ Stopień urbanizacji społeczeństwa zależy bezpośrednio od rozwoju
technologicznego.
¦ Rozwój technologiczny społeczeństwa zależy bezpośrednio od rozproszenia
przedmiotów konsumpcji.
Z kolei praca Geralda Hage'a, będąca próbą syntezy teorii i badań dotyczących
złożonych organizacji, jest znakomitą ilustracją dedukcyjnego sposobu tworzenia hipotez8.
Hagę przetworzył podstawowe pojęcia teorii biurokracji Maxa Webera na kategorię
zmiennych. Na przykład pojęcie „hierarchia autorytetu" zostało przekształcone na zmienną
zdefiniowaną jako „stopień centralizacji w ramach organizacji", a pojęcie „reguły i
procedury" na zmienną zdefiniowaną jako „stopień formalizacji" (stopień, w jakim
zachowania wynikające z wykonywanej pracy zostały skodyfikowane jako reguły i
procedury). Hagę sformułował trzy następujące podstawowe hipotezy:
¦ Im większy stopień centralizacji w ramach organizacji, tym większa produkcja i vice
versa.
¦ Im większy stopień centralizacji w ramach organizacji, tym większa skuteczność i
vice versa.
¦ Im większy stopień centralizacji w ramach organizacji, tym większa formalizacja i
vice versa.
*
¦ Źródła informacji o badaniach i hipotezach naukowych
Problemy badawcze i hipotezy można budować na wiele sposobów. Można korzystać
z teorii, z bezpośrednich obserwacji czy z własnej intuicji, traktując każdy z tych sposobów
niezależnie lub je łącząc. Najlepszym źródłem inspiracji w procesie formułowania problemów
i hipotez jest jednak literatura fachowa. Krytyczny przegląd literatury fachowej pozwala
badaczowi poznać aktualny stan wiedzy, podstawowe pojęcia, teorie, główne zmienne oraz
definicje pojęciowe i operacyjne, problemy i hipotezy analizowane przez innych jak też
stosowane przez nich metody badawcze. Wyprowadzanie nowych badań z wiedzy opisanej w
literaturze fachowej sprawia, że przyczyniamy się do kumulowania wiedzy naukowej.
Przeglądanie literatury fachowej przestało być łatwym zadaniem ze względu na
obszerność dostępnego materiału. Jest to zadanie trudne zarówno dla naukowców, jak i
studentów. Corocznie publikuje się tysiące artykułów i książek poświęconych naukom
społecznym, stąd najlepiej rozpoczynać poszukiwania od jednego z przewodników po
literaturze publikowanej. Przewodniki takie zawierające bibliografie, indeksy i streszczenia są
w coraz większym stopniu skomputeryzowane.
W dodatku B poświęconym pisaniu raportów przedstawimy nieco rad, w jaki sposób
włączyć dawniej prowadzone badania w nasze własne hipotezy i wyniki badań.
8 Gerald Hagę (1980), Theories of Organizations: Forms, Process, and
Transformation, New York: Wiley Interscience, s. 36-40.
81
Bibliografie, indeksy i streszczenia
Poniżej przedstawiamy podstawowe publikacje zawierające wskazówki
bibliograficzne oraz indeksy dotyczące prac opublikowanych w zakresie nauk społecznych.
Biblioteki coraz częściej dysponują takim materiałem w postaci CD-ROM-ów (Compact
Disk-Read Only Memory) lub w postaci dostępnych on linę baz danych, takich jak DIALOG.
CD-ROM przypomina muzyczne płyty CD. Aby można było wykorzystać je komputerowo,
należy wyposażyć sprzęt komputerowy w odpowiednie urządzenia hardwarowe i zakupić
właściwe oprogramowanie. Jest to niezwykle użyteczny sposób gromadzenia ogromnej ilości
informacji, do których bardzo łatwo można dotrzeć. Terminy „on linę", „CD-ROM" oraz
„mikrofilm" oznaczają nie drukowane źródła informacji.
¦ Sheehy Eugene P., red., Guide to Reference Books, wyd. 10, Chicago: American
Library Association, 1986.
¦ Balay Robert, red., Guide to Reference Books, suplement do wyd. 10, Chicago:
American Library Association, 1992.
¦ Katalog rzeczowy dostępny w bibliotece. (W większości bibliotek uniwersyteckich
katalogi zostały skomputeryzowane w postaci baz danych dostępnych on linę. Jeżeli stało się
tak i na waszej uczelni, to możecie skorzystać z terminalu, aby szybko sprawdzić interesujące
was informacje bibliograficzne oraz przekonać się, czy potrzebne wam materiały są dostępne
w bibliotece).
¦ Przedstawiona poniżej lista zawiera informacje o źródłach, w których można znaleźć
dane o poszukiwanej książce czy artykule. Wszystkie one są dostępne także w postaci
drukowanej.
Biography Index
(również: on linę, CD-ROM) Book Review Index
(również: mikrofilm, on linę) Cummulative Book Index
(również on-line, CD-ROM Education Index
(również on-line, CD-ROM) Index of Economic Articles in
Journals and Collective Volumes
(również on-line)
International Bibliography of the
Social Science
(również: on linę) National Union Catalog
(również mikrofilm) PAIS International
(również: on linę, CD-ROM) Social Sciences Citation Index (SSCI)
(również: on linę, CD-ROM) Social Science Index
(również: on linę, CD-ROM)
Niżej podane źródła zawierają abstrakty z krótkimi streszczeniami cytowanych prac:
Current Contents: Social and
Behavioral Sciences (CC:S&BS)
(również: on linę) Dissertation Abstracts
(również: mikrofilm, on linę,
CD-ROM)
Psychological Abstracts
(również: on linę, CD-ROM)
Resources in Education (RIE) (również: mikrofilm, on linę, CD-ROM)
Sagę Public Administration Abstracts
82
Historical Abstracts
(również: on linę, CD-ROM) International Political Science
Abstracts
(również: mikrofilm, on linę,
CD-ROM) Journal of Economic Abstract
(również: on linę, CD-ROM) Political Science Abstracts
Sagę Urban Studies Abstracts
(również: mikrofilm, on linę,
CD-ROM) Social Work Abstracts (również: mikrofilm, on linę,
CD-ROM) Sociological Abstracts
(również: on linę, CD-ROM)
Czasopisma fachowe
Ogromna liczba istniejących na rynku nauk społecznych wysoce wyspecjalizowanych
czasopism sprawia, że znalezienie poszukiwanego artykułu czy zagadnienia wymaga
korzystania z abstraktów, indeksów czy innych źródeł bibliograficznych. Aby ułatwić
pierwsze poszukiwania, zamieszczamy poniżeli listę podstawowych czasopism
pogrupowanych według dyscyplin, których dotyczą. Przedstawione powyżej źródła pozwalają
zidentyfikować artykuł publikowany w czasopiśmie na podstawie nazwiska jego autora,
dyscypliny czy słowa kluczowego w tytule artykułu.
Nauki polityczne
„American Journal of Political
Science" „American Political Science Reviewv „American Politics Quarterly" „British
Journal of Political Science" „Canadian Journal of Political
Science" „Canadian Journal of Political and
Social Theory" „Comparative Political Studies" „Comparative Politics" „European
Journal of Political
Research" „International Studies Quarterly"
„Journal of Policy Analysis and
Management" „Journal of Political Philosophy" „Journal of Politics" „Policy
Sciences" „Policy Studies Journal" „Policy Studies Review" „Political Science Quarterly"
„Polity"
„Public Interest" „Public Opinion Quarterly" „Public Opinion Quarterly" „World
Politics"
Socjologia
„American Journal of Sociology" „American Sociological Review" „British Journal of
Sociology" „Canadian Review of Sociology
and Antropology" „Humań Relations" „International Journal of
Comparative Sociology"
„Journal of Mathematical
Sociology" „Journal of Social Issues" „Social Forces" „Social Problems" „Social
Psychology Quarterly" „Social Science Quarterly" „Sociological Quarterly"
83
Psychologia
„American Behavioral Scientist" „Canadian Journal of Experimental
Psychology" „Journal of Applied Behavioral
Research" „Journal of Applied Psychology"
„Journal of Applied Social
Psychology" „Journal of Personality and Social
Psychology" „Psychological Bulletin" „Psychological Review"
Ekonomia i biznes
„Academy of Management Journal" „Administration and Society" „Administrative
Science Quarterly" „Advanced Management Journal" „American Economic Review"
„American Review of Public
Administration" „Canadian Journal of Administrative
Sciences" „Decision Sciences" „Econometrica" „Economic Journal"
„Evaluation Review" „Fortune Magazine" „Harvard Business Review" „Journal of
Political Economy" „Management Science" „Public Administration Review" „Public Personel
Management" „Quarterly Journal of Economics" „Rand Journal of Economics" „Review of
Economics and
Statistics" „Socio-economic Planning Sciences"
Praca społeczna
„Criminology"
„Journal of Social Service Research'
„Social Service Review"
„Social Work"
„Social Work Abstracts"
„Social Work Research"
Publikacje statystyczne*
Poniżej przedstawiamy listę użytecznych publikacji statystycznych oraz innych
publikacji rządowych.
¦ U.S. Bureau of the Census. Historical Statistics of the United States, Washington,
D.C.: U.S. Government Printing Office. Publikowany nieregularnie. Przedstawia dane
pogrupowane w 26 rozdziałów: ludność; ruch naturalny ludności, zdrowie i opieka medyczna;
migracja; praca; ceny; dochód narodowy; konsumpcja; statystyka społeczna; grunty, woda i
klimat; rolnictwo, leśnictwo i rybołówstwo; minerały; budownictwo; fabryki; transport;
komunikacja; energia; usługi; handel zagraniczny i inne transakcje międzynarodowe;
przedsiębiorstwa prywatne; wielkość produkcji i rozwój technologiczny; banki i finanse; dane
dotyczące kolonii. Zawiera indeks nazwisk i indeks rzeczowy.
*W Polsce Instytut Studiów Społecznych Uniwersytetu Warszawskiego wydaje od
roku 1992 Polski Generalny Sondaż Społeczny (PGSS). Ostatnie wydanie pochodzi z 1995
roku: Cichomski B., Morawski P. (1996), Polski Generalny Sondaż Społeczny, Warszawa:
Instytut Studiów Społecznych UW (przyp. red. nauk.).
84
¦ U.S. Bureau of the Census. Statistical Abstract of the United States. Washington,
D.C.: U.S. Government Printing Office. Publikowany corocznie. Dane pogrupowane w 33
sekcjach: ludność; ruch naturalny ludności; zdrowie i żywienie; imigracja i naturalizacja;
edukacja; władza wykonawcza; sądy i więzienia federalne; powierzchnia; geografia i klimat;
grunty państwowe; parki, rekreacja i podróżowanie; praca; zatrudnienie i zarobki; obrona
narodowa i weterani; ubezpieczenia społeczne i służby społeczne; dochody, wydatki i poziom
życia; ceny; wybory; finanse federalne i zatrudnienie; finanse stanowe i lokalne oraz
zatrudnienie, banki, finanse i ubezpieczenia; przedsiębiorstwa prywatne; łączność; energia;
nauka; transport lądowy; transport powietrzny i wodny; rolnictwo — farmy, grunty i finanse;
rolnictwo — produkcja, marketing i handel; lasy i produkcja leśna; rybołówstwo; kopalnie i
wydobywanie minerałów; budownictwo; fabryki; usługi; handel i pomoc zagraniczna;
pozostałe obszary pozostające pod jurysdykcją Stanów Zjednoczonych; porównawcze dane
międzynarodowe. Sześć dodatków. Indeks nazwisk i indeks rzeczowy. (Również dostępny on
linę).
¦ U.S. Bureau of the Census. Census of Popułation, Washington, D.C.: U.S.
Government Printing Office. Publikowany co dziesięć lat. Zawiera następujące informacje
dotyczące większości miast liczących 2500 mieszkańców i więcej: ludność według płci;
podstawowe grupy zawodowe według płci; rasa według płci; wiek ludności według płci;
liczba ukończonych lat nauki; stan cywilny kobiet i mężczyzn, czternastolatków i starszych;
miejsce urodzenia białej ludności urodzonej za granicą.
¦ Murray Toni, red., The Federal Data Base Finder, wyd. 4, Kensington, Md.:
Information USA, 1995.
¦ U.S. Superintendent of Documents. Monthly Catalog of United States Govern-ment
Publications. Washington, D.C.: U.S. Government Printing Office. Publikowany co miesiąc.
(Dostępny w postaci drukowanej, mikrofilmu, on linę, CD-ROM-u).
¦ Taylor Charles L., David Jodice, World Handbook ofPolitical and Social In-dicators,
wyd. 3, New Haven, Conn.: Yale University Press, 1983, 2 tomy. Zestawienie 75 zmiennych
dotyczących 133 państw i dotyczących zarządzania zasobami ludzkimi, rządu i polityki,
łączności, poziomu życia, zdrowia, edukacji, rodziny i więzi społecznych, rozdziału dóbr i
przychodów oraz religii.
¦ U.S. Bureau of the Census. County and City Data Books, Washington, D.C.: U.S.
Government Printing Office. Publikowany nieregularnie. Zawiera wiele danych
tabelarycznych dotyczących jednostek administracyjnych i miast liczących powyżej 25 000
mieszkańców takich, jak: rynek pracy, przychody, wybory, banki i finanse, przedsiębiorstwa
prywatne i edukacja. (Dostępny w postaci drukowanej, mikrofilmu, on linę, CD-ROM).
¦ Municipal Year Book, Washington D.C.: International City-County Management
Association. Publikowany corocznie. Zbiór danych dotyczących władzy municypalnej.
Zawiera informacje o roli władz miejskich (w tym dane o edukacji, mieszkaniach, opiece i
zdrowiu) oraz umożliwia dokonywanie porównań danych dotyczących uwzględnionych miast
w zakresie bardzo wielu zmiennych.
¦ American Statistics Index, Bethesda, Md.: Congressional Information Servi-ce.
Publikowany co miesiąc. Spis publikacji statystycznych pochodzących z ponad 400 agend
rządu USA. (Również dostępny on linę i na CD-ROM-ie). [Tytuł CD-ROM-u: Statistical
Masterfde].
85
¦ Index to International Statistics, Bethesda, Md.: Congressional Information Service.
Publikowany co miesiąc. Jest to spis organizacji międzynarodowych i międzyrządowych.
(Również dostępny on linę i na CD-ROM-ie). [Tytuł CD-ROM-u: Statistkal Masterfile].
Monografie
Na rynku dostępnych jest kilkanaście monografii szczegółowo opisujących problemy
badawcze, hipotezy oraz dane i przeznaczonych dla badaczy w dziedzinie nauk społecznych.
Między innymi są to następujące wydawnictwa:
¦ Bart Pauline, Linda Frankel, The Student Sociologist Handbook, wyd. 4, New York:
McGraw-Hill, 1986.
¦ Holler Frederick L., Information Sources of Political Science, wyd. 4, Santa Barbara,
Calif.: ABC-Clio, 1986.
¦ Miller Delbert C, Handbook of Research Design and Social Measurement, wyd. 5,
Newbury Park, Calif.: Sagę Publications, 1991.
¦ Murphy Thomas P., red., Urban Indicators: A Guide to Information Sources, Detroit:
Gale Research, 1980.
¦ Wasserman Paul, Jacąueline OBrien, Statistical Sources, wyd. 18, Detroit: Gale
Research, 1994.
¦ Podsumowanie
1. Problemy badawcze to bodźce intelektualne wymagające reakcji w postaci badań
naukowych. Problemy, które można zbadać, są empirycznie dostępne, jasne i konkretne.
Formułując problem, naukowcy poświęcają wiele uwagi jednostkom analizy. Wyprowadzanie
wniosków dotyczących jednostki analizy innej niż ta, której dotyczyło badanie, może
prowadzić do dwóch błędów: błędu ekologizmu i błędu indywidualizmu.
2. Przekształcając pojęcia w zmienne poprzez przełożenie ich na zbiór wartości,
badacze przechodzą z poziomu pojęciowego na poziom obserwacyjny. Zmienna jest to
właściwość empiryczna, która ma dwie lub więcej wartości. Rozróżniamy — z punktu
widzenia istoty badania — zmienne niezależne, zależne oraz zmienne kontrolne. Zmienna
niezależna to zakładana przyczyna zmiennej zależnej, a zmienna zależna to zakładany wynik
oddziaływania zmiennej niezależnej. Zmienne kontrolne są wykorzystywane po to, aby
sprawdzić, czy obserwowany związek pomiędzy zmienną niezależną i zmienną zależną nie
jest związkiem pozornym. Zmienne mogą być również ciągłe i dyskretne. Zmienna dyskretna
ma określoną swoją najmniejszą jednostkę; zmienna ciągła zaś takiej jednostki nie ma.
3. Pojęcie związku w badaniach empirycznych oznacza zawsze związek pomiędzy
dwiema lub więcej zmiennymi. Gdy mówimy, że dwie zmienne są ze sobą powiązane,
oznacza to, że mają one ze sobą coś wspólnego. Badacze ustalają istnienie związku, badając,
czy zmiana wartości jednej zmiennej powoduje zmianę wartości drugiej zmiennej. Dwie
własności związku wymagają szczególnej uwagi: kierunek i siła. Mówiąc o kierunku, mamy
na myśli to, czy związek jest dodatni czy ujemny. Siła związku zaś to stopień, w jakim
zmienne współzmieniają się wprost lub odwrotnie proporcjonalnie.
4. Hipotezy to proponowane odpowiedzi udzielane na pytania badawcze. Tworzy
sieje, określając związek pomiędzy zmiennymi zależnymi i niezależnymi. Hi-
86
potezy badawcze muszą być jasne, konkretne, nie wartościujące oraz poddające się
badaniom empirycznym za pomocą dostępnych metod badawczych.
5. Problemy i hipotezy badawcze mogą zostać wyprowadzone dedukcyjnie z teorii,
bezpośrednio z obserwacji, intuicyjnie lub na podstawie różnych kombinacji tych sposobów.
Najbogatszym źródłem inspiracji w procesie tworzenia problemów i hipotez jest literatura
fachowa. Osoby prowadzące badania w naukach społecznych powinny szukać informacji o
podstawowych przewodnikach po publikowanych badaniach, włączając w to odsyłacze,
bibliografie, indeksy, streszczenia, czasopisma i publikacje statystyczne. Większość bibliotek
uniwersyteckich oferuje bazy danych (skomputeryzowane) dostępne on linę.
¦ Podstawowe terminy
zmienna dyskretna 73 zmienna kontrolna 72 zmienna niezależna 71 zmienna zależna
71 związek 74 związek dodatni 75 związek pozorny 72 związek ujemny 75
¦ Pytania sprawdzajqce
1. Zaproponuj dwa empiryczne problemy badawcze właściwe dla nauk społecznych.
2. Co to jest błąd ekologizmu? Co to jest błąd indywidualizmu? W jaki sposób badacz
może uniknąć tych dwóch rodzajów błędów?
3. Napisz trzy dające się sprawdzić hipotezy badawcze oraz określ, co jest w nich
zmienną zależną, zmienną niezależną i zmienną kontrolną.
4. Posługując się tymi sami hipotezami, określ, jakie są oczekiwane zmiany (biorąc
pod uwagę ich siłę i kierunek) zmiennej zależnej i zmiennej niezależnej.
5. W jakich źródłach szukałbyś podstawowych informacji o problemach badawczych
sformułowanych w pytaniu 1?
¦ Literatura dodatkowa
Ajdukiewicz K. (1965), Logika pragmatyczna. Warszawa: PWN.
Brzeziński J. (1997), Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd.
Nauk. PWN.
Giedymin J. (1964), Problemy, założenia, rozstrzygnięcia, Poznań: PTE.
Nowak S. (red.)(1965), Metody badań socjologicznych. Wybór tekstów, Warszawa:
PWN.
błąd ekologizmu 69 błąd indywidualizmu 70 hipoteza 77 jednostka analizy 68
problem badawczy 67 siła związku 76 współzmienność 74 zmienna 70 zmienna ciągła 73
Rozdział 4
Problemy etyczne badań w naukach społecznych
Dlaczego etyka w badaniach naukowych? 90
Badanie posłuszeństwa wobec autorytetu 90 Badanie zachowania policji 92
Badanie postaw studentów college'u 93
Wyrównywanie kosztów i zysków 93
Wyrażanie zgody na podstawie posiadanych informacji 95
Dlaczego wyrażanie zgody jest niezbędne 95 Co znaczy prawo do wyrażania zgody
96 Odpowiedzialność badacza 99
Prywatność 99
Wymiary prywatności 100
Anonimowość i poufność 102
Anonimowość 102 Poufność 103
Zawodowy kodeks postępowania etycznego 104
Podsumowanie 109
Podstawowe terminy 109
Pytania sprawdzające 110
Literatura dodatkowa 110
Przypuśćmy, że chcielibyśmy zapobiegać występowaniu lub wpływać na obniżenie
częstości występowania raka skóry w populacji. Od czego powinniśmy zacząć? Zobaczmy, co
w tej sprawie zdziałały władze szkolne w Tel Awiwie. Świadome potencjalnych skutków
działania klimatu śródziemnomorskiego charakterystycznego dla Izraela, a także skutków
stylu życia, w którym kocha się opalanie na słońcu, władze szkolne zdecydowały sprawdzić,
czy uruchomienie specjalnego programu uświadamiającego groźbę zachorowania na raka
skóry może wpłynąć na zmianę zachowania ludzi. Specjalny test sprawdzający działanie
takiego programu został przeprowadzony w roku 1991. Program obejmował udzielanie
informacji, o jakich porach najlepiej przebywać na słońcu, jak należy ubierać się podczas
zabaw na słońcu, jak się chronić przed słońcem itp. Badacze wytypowali osiem szkół
średnich. Po sprawdzeniu, co dzieci wiedzą i jaki jest ich stan fizyczny, dzieci z czterech
szkół zostały objęte programem, podczas gdy dzieci z pozostałych czterech szkół nie brały
udziału w programie. Rok później, w roku 1992, wszystkie dzieci zostały ponownie zbadane.
Sprawdzano ich wiedzę i zachowania po to, aby upewnić się co do efektów programu.
Otrzymane rezultaty zostały następnie wykorzystane do stworzenia programu
obowiązującego we wszystkich szkołach.
Pomijając podstawy naukowe i cel, którym była promocja zdrowia, taka procedura
postępowania musi budzić wiele wątpliwości. Czy jest etyczne zatrzymywanie, nawet na
krótko, ważnych informacji przed niektórymi uczestnikami badań? W jaki sposób badacze w
naukach społecznych radzą sobie z takimi problemami, bez ryzyka niezrealizowania celu
własnych badań?1
W tym rozdziale omówimy zagadnienia etyczne związane z prowadzeniem badań w
naukach społecznych. Omówimy też sposoby ochrony praw i dóbr osobistych jednostek i
społeczności, które są przedmiotem prowadzonych badań naukowych. Zaczniemy od
przeglądu powodów, dla których zagadnienia etyczne stały się obecnie tak ważne. Następnie
przedstawimy trzy przykłady badań dotyczących posłuszeństwa wobec autorytetu, zachowań
policji oraz postaw studentów college^ jako ilustrację badań wywołujących podstawowe
pytania natury etycznej. Dalej omówimy dylemat etyczny badacza, tj. konflikt pomiędzy
prawem badacza do prowadzenia badań i prawem osób badanych do samookreślenia,
zachowania prywatności i godności. Zaproponujemy również kryteria podejmowania decyzji
etycznych w określonych sytuacjach. Omówimy też takie ważne zagadnienia etyczne, jak
prawo do informacji oraz prawo do prywatności. Na koniec przedyskutujemy ogólne
zawodowe zasady etyczne i przedstawimy kodeks etyczny dla nauk społecznych.
W rozdziale 1 mówiliśmy, że nauki społeczne to jednocześnie dyscypliny naukowe i
humanistyczne oraz że naukowcy są w nich zarazem obserwatorami i ucze-
1 Michael Fadida, Menashe Hadad, Rafael Shafir (1994), Sun Exposure Among Junior
High School Students in Tel Aviv-Jaffo: Knowledge, Attitudes and Behavior, „Research and
Surveys" (No. 67), Tel Aviv-Jaffo: The Center of Economic and Social Research.
89
stnikami procesu badawczego. Podkreślaliśmy również, że badania w naukach
społecznych nie są prowadzone w izolacji. Badacze cały czas pozostają w interakcji ze
złożnym i wymagającym środowiskiem, które wpływa na ich decyzje badawcze zarówno
formalnie, jak i nieformalnie. Jednym z istotnych sposobów radzenia sobie z tymi
oddziaływaniami jest przestrzeganie zasad etycznych.
¦ Dlaczego etyka w badaniach naukowych?
Wraz z poszerzającym się zakresem nauk społecznych oraz tworzeniem lepszych i
bardziej inwazyjnych metod badawczych zainteresowanie sprawami etyki w naukach
społecznych staje się coraz większe. Zagadnienia dotyczące praw i dóbr osobistych ludzi
uczestniczących w badaniach oraz powinności badaczy stały się przedmiotem dyskusji we
wszystkich dyscyplinach należących do nauk społecznych. Większość towarzystw
naukowych dokonała też adaptacji ogólnych zasad etycznych do własnej konkretnej
działalności.
Oczywiście, prowadzenie badań mogących pogwałcić prawa i dobra osobiste
uczestników badań nie jest ani zamierzone intencjonalnie, ani nie jest głównym celem
badaczy. Istotą badań naukowych jest systematyczne przyczynianie się do budowania dającej
się zweryfikować wiedzy naukowej. Proces badawczy, zgodnie z tym, co mówiliśmy
wcześniej (por. ryc. 1.1), obejmuje wszystkie działania pozwalające naukowcom na tworzenie
takiej wiedzy. Na każdym etapie procesu badawczego jednakże — oprócz rozważań o
charakterze naukowym — mogą się pojawić rozważania natury etycznej.
Problemy natury etycznej wynikają ze specyfiki problemów analizowanych w
naukach społecznych oraz ze specyfiki metod wykorzystywanych do otrzymywania trafnych i
rzetelnych danych. Źródłem problemów etycznych może być sam problem badawczy (np.
inżynieria genetyczna, determinanty inteligencji czy ocena programu); otoczenie, w jakim
odbywa się badanie (szpital, więzienie, szkoła czy agenda rządu); procedury wymagane w
planie badawczym (zastosowanie takiej manipulacji w grupie eksperymentalnej, która może
mieć negatywny wpływ na uczestników badań); metody zbierania danych (obserwacja
uczestnicząca); osoby będące uczestnikami badań (biedni, dzieci, osoby chorujące na AIDS,
politycy); rodzaj zebranych danych (dane osobiste czy procedury rekrutacyjne stosowane w
instytucjach państwowych).
Badanie posłuszeństwa wobec autorytetu
Badanie przeprowadzone przez Milgrama to ważny i kontrowersyjny przykład wart
szczegółowego opisania. Stanley Milgram przeprowadził kontrolowany eksperyment
laboratoryjny po to, aby zbadać, w jakich warunkach osoby badane odmówią wypełnienia
instrukcji udzielanej przez osobę obdarzoną autorytetem2*.
* Polski czytelnik może się też zapoznać z przekładem pracy Milgrama omawiającej
ten eksperyment: Milgram S. (1978), Badanie posłuszeństwa, w: K. Jankowski (red.),
Przełom w psychologii. Warszawa: Czytelnik, s. 83-103 (przyp. red. nauk.).
2 Przedstawione tu omówienie oparte jest na pracy Stanleya Milgrama, Obedience to
Authoritf (New York: Harper & Row, 1975).
90
Do laboratorium psychologicznego zgłaszały się dwie osoby, aby wziąć wspólnie
udział w badaniu dotyczącym procesów uczenia się. Jedna z osób miała być „nauczycielem",
druga zaś „uczniem". Jednakże właściwa osoba badana zawsze zostawała nauczycielem.
Dowiadywała się ona, że celem badania jest sprawdzenie efektu, jaki wywiera kara na uczenie
się. Uczeń, którego sadzano na specjalnym krześle z przypiętymi do nadgarstków elektrodami
i przywiązywano za ramiona do fotela, aby nie mógł się poruszać, został wcześniej
poinstruowany, jak ma się zachowywać. Osoba prowadząca eksperyment informowała
ucznia, że jego zadanie polega na uczeniu się par słów. Uczeń dowiadywał się także, że jeżeli
w trakcie uczenia się popełni błąd, to zostanie ukarany uderzeniem prądu. Nauczyciel
obserwował to wszystko i następnie przechodził do pokoju eksperymentalnego. Tam jego z
kolei informowano, w jaki sposób można korzystać z — robiącego duże wrażenie —
generatora prądu elektrycznego. Generator ten miał na konsoli 30 przycisków, oznaczonych
od 15 do 450 woltów. Przyciski były również opisane słownie od „łagodny wstrząs" do
„niebezpieczeństwo porażenia". Od poziomu 28 (420 woltów) przyciski miały jedynie
czerwone oznaczenia „XXX".
Nauczyciela informowano, że będzie on „uczył" osobę, która znajduje się w drugim
pokoju, czytając mu listę pogrupowanych w pary wyrazów takich jak: „ładny-dzień",
„niebieskie-pudełko". Nauczyciel miał następnie czytać jedno ze stów (bodziec), któremu
towarzyszyły cztery możliwe odpowiedzi. Uczeń miał wskazać, która z tych odpowiedzi jest
prawidłowa, naciskając jeden z czterech przycisków. Jeżeli udzielona odpowiedź była
prawidłowa, nauczyciel przechodził do następnego zadania. Jeżeli odpowiedź była
nieprawidłowa, nauczyciel miał ukarać ucznia, stosując uderzenie prądem. Nauczyciela
poinstruowano również, że po każdej kolejnej złej odpowiedzi ma on stosować coraz większe
napięcia prądu. Jednakże — o czym nauczyciel nie wiedział — uczeń w rzeczywistości nie
otrzymywał żadnych ud.erzeń prądem.
Główną zmienną zależną w tym eksperymencie było posłuszeństwo, czyli skłonność
nauczyciela do postępowania zgodnie ze wskazówkami badacza, a więc osoby uznawanej w
tej sytuacji za autorytet. Badacz dodatkowo zachęcał nauczyciela do stosowania wysokich
dawek prądu w stosunku do mylącego się ucznia. Te dodatkowe ponaglenia miały postać
zdań: „Proszę dalej. Eksperyment wymaga, aby pan kontynuował. Biorę na siebie
odpowiedzialność". Uczeń reagował zawsze standardowo, podobnie jak na sytuację
eksperymentalną. Nie wykazywał oznak dyskomfortu, aż do momentu uderzenia prądem o
napięciu 75 woltów, kiedy zaczynał cicho jęczeć. Jęczał także przy napięciu 90 i 105 woltów,
a przy 120 woltach zaczynał wołać, że uderzenia są bardzo bolesne. Przy 135 woltach uczeń
wydawał z siebie głośne jęki, a przy 150 krzyczał, że chce zostać uwolniony, i odmawiał
dalszego udziału w eksperymencie. Reagował w ten sposób na kolejne uderzenia, aż przy 180
woltach zaczynał krzyczeć, że dłużej nie może już znieść takiego bólu. Przy 270 woltach
zachowywał się tak, jak gdyby był w agonii, przy 300 odmawiał udzielania dalszych
odpowiedzi, a po 330 w ogóle przestawał reagować.
Wyniki tego eksperymentu stoją w sprzeczności z tym, co powszechnie uznaje się za
moralne: większość badanych okazała się bowiem posłuszna i zachowywała się zgodnie z
instrukcjami, choć, jak wiedzieli, było to bolesne i niebezpieczne dla uczniów. W jednym z
eksperymentów 26 na 40 badanych kontynuowało stosowanie uderzeń prądem aż do
maksimum, czyli 450 woltów, 5 osiągnęło poziom 300
91
woltów, po czym odmówiło współpracy, a 8 osiągnęło poziom między 315 a 360
woltów.
Innym ważnym wynikiem uzyskanym w czasie tego eksperymentu był niezwykle
wysoki poziom stresu spowodowanego przez sytuację eksperymentalną i przeżywanego przez
nauczyciela w porównaniu z uczniem, który de facto nigdy naprawdę nie został uderzony
prądem. Według Milgrama „badani [tj. nauczyciele w eksperymencie] pocili się, przygryzali
wargi, jęczeli i wbijali sobie paznokcie w ciało. Były to reakcje raczej typowe niż wyjątkowe
w tym doświadczeniu"3. Wiele oznak potwierdzało przeżywanie bardzo silnego stresu przez
uczestników badania, zwłaszcza tych, którzy byli posłuszni. Stres był dostrzegalny zarówno
dla samych nauczycieli, jak i eksperymentatorów. Świadomi, że zastosowana procedura
badawcza może przynieść długofalowe negatywne skutki dla uczestników, autorzy badań
przeprowadzili dwa spotkania terapeutyczne. Po pierwsze, wszyscy badani otrzymali pełne i
prawdziwe wyjaśnienie celu i mechanizmu eksperymentu, a także spotkali się w miłej
atmosferze ze swoim uczniem. Po drugie, rok po eksperymencie wszyscy zostali poddani
badaniu psychiatrycznemu; nie opisano wtedy żadnych negatywnych skutków eksperymentu.
Eksperyment Milgrama wywołał falę krytyki dotyczącej zastosowanej procedury,
głównie z powodów etycznych. Po pierwsze, nauczyciele byli przekonani, że zadają ból innej
osobie, co nie było prawdą. Zostali oni zatem oszukani na samym początku co do
prawdziwego celu badań. Tym samym zostało złamane ich prawo do pełnej i prawdziwej
informacji o eksperymencie. Po drugie, badani przeżywali ogromny stres; byli bardzo
zmartwieni, zdenerwowani, a niektórzy zachowywali się w sposób nie kontrolowany. Po
trzecie, uwagi krytyczne dotyczyły także tego, że gdy wyniki eksperymentu stały się znane,
badani, zdając sobie sprawę z tego, co mogłoby się stać, gdyby naprawdę stosowali uderzenia
prądem, mogli zostać przytłoczeni poczuciem winy. Po czwarte, eksperyment mógł zmienić
zdolności badanych do zawierzania autorytetom w przyszłości. Innymi słowy, mógł podkopać
zaufanie badanych do osób uznawanych za autorytet. I wreszcie, niektórzy wręcz stwierdzali,
że ponieważ udział w eksperymencie nie przynosił żadnych korzyści badanym, nie powinien
się w ogóle odbyć4. I chociaż Milgram odpowiedział na wszystkie uwagi krytyczne dotyczące
etyki postępowania, wątpliwości, jakie ten eksperyment wywołał, są nadal ważne i istotne5.
Badanie zachowania policji
W roku 1960 w Stanach Zjednoczonych coraz częściej pojawiały się skargi na
brutalność policji. Do tego czasu ani same skargi, ani zachowanie policji nigdy nie było
przedmiotem systematycznych badań. Albert Reiss postanowił zatem poddać obserwacji
zachowanie policji. Wiedział jednak, że jeżeli funkcjonariusze policji poznają prawdziwy cel
badań, to będą unikać wszelkich brutalnych zachowań. Dla-
3 Stanley Milgram (1963), Behavioral Study of Obedience, .Journal of Abnormal and
Social Psy-chology", 67, s. 375.
4 Więcej uwag krytycznych na temat tego eksperymentu zob. Diana Baumrind
(1964), Some Thoughts on Ethics of Research: After Reading Milgram 's Behavioral Study of
Obedience, „American Psychologist", 19, s. 421-423.
5 Odpowiedź Milgrama można znaleźć w jego pracy Obedience to Authority, s. 193-
202.
92
tego też Reiss sprawił, że funkcjonariusze uwierzyli, iż badanie dotyczy przede
wszystkim reakcji mieszkańców na działania policji. W czasie trwania badania Reiss
zarejestrował po stronie policji dużą liczbę zachowań polegających na złym traktowaniu i
stosowaniu brutalności wobec mieszkańców6.
Badanie to można potraktować jako źródło trzech ważnych problemów etycznych. Po
pierwsze, Reiss posłużył się oszustwem, aby uzyskać zgodę na dokonanie obserwacji, która w
innym wypadku nie byłaby możliwa (poszczególni funkcjonariusze policji nie znali
prawdziwego celu badań oraz nie wiedzieli, że to oni byli obserwowani i analizowani). Po
drugie, funkcjonariusze policji nie wyrażali zgody na udział w badaniu. Nie wyrazili oni
rzeczywistej zgody, ponieważ nie powiedziano im, że to oni są osobami badanymi. I po
trzecie, badania tego typu mogą wywoływać brak zaufania wśród potencjalnych przyszłych
osób badanych, np. funkcjonariuszy policji, a przyszli badacze mogą mieć trudności z
uzyskiwaniem informacji czy zgody na współpracę ze strony osób badanych.
Badanie postaw studentów college'u
Badaniem, które przyczyniło się do zwiększenia świadomości istnienia problemów
natury etycznej, było badanie przeprowadzone przez American Council of Educa-tion
poświęcone postawom społecznym i politycznym studentów college'u7. Zaprojektowany w
latach sześćdziesiątych, w okresie niepokojów w miasteczkach uniwersyteckich, eksperyment
miał na celu zebranie informacji o postawach i zachowaniach studentów w trakcie i po
zakończeniu studiów. Badanie miało charakter podłużny i polegało na powtarzaniu
wywiadów z tymi samymi osobami. Kontrowersje wokół tych badań pojawiły się wtedy, gdy
do kwestionariusza wywiadu zostały włączone pytania dotyczące orientacji i aktywności
politycznej osób badanych. Szczególne wątpliwości dotyczyły możliwości ujawnienia
zebranych danych i ich wykorzystania przez władze uczelni lub agendy rządowe do
zidentyfikowania osób aktywnie działających. Podstawowym problemem etycznym była tu
niedoskonała anonimowość i tajność danych. Problem ten jest ściśle związany z tym, jakie są
prawa osób badanych i możliwości ochrony ich dóbr osobistych, co omówimy dalej.
¦ Wyrównywanie kosztów i zysków
Przedstawione wyżej trzy badania są dobrą ilustracją tezy, że problemy natury
etycznej mogą powstawać przed badaniem i po wykonaniu badań prowadzonych zarówno w
ramach nauk społecznych, jak i w innych naukach. Badania, w których jednym z elementów
postępowania jest oszukiwanie*, stają się coraz powszechniejsze, po-
* W oryginale: deception, co też można oddać jako okłamywanie osób badanych czy
utajnianie prawdziwego celu badania (przyp. red. nauk.).
6 Albert J. Reiss (1971), The Police and the Public, New Haven, Conn.: Yale
University Press; Albert J. Reiss (1968), Police Brutality: Answers to Key Questions,
„Transaction", 5, s. 10-19.
7 Por. Robert F. Boruch (1971), Education Research and the Confidentiality ofData: A
Case Study, „Sociology of Education", 44, s. 59-85; J. Walsh (1969), A.C.E. Study on
Campus Unrest: Questions for Bekavioral Scientists, „Science", 165, s. 1243-1245.
93
nieważ mają wiele zalet zarówno metodologicznych, jak i praktycznych. Badacze
często zbierają dane bez wiedzy osób badanych i czasami nie przestrzegają zasady ochrony i
zachowywania tajności danych.
W wielu wypadkach naukowcy stają w obliczu konfliktu pomiędzy dwoma prawami:
prawem badacza do prowadzenia badań i zdobywania wiedzy oraz prawem osób
uczestniczących w badaniach do samookreślenia, prywatności i zachowania godności.
Podjęcie decyzji o nieprowadzeniu badań, ponieważ naruszają one dobra osobiste osób
badanych, to poważne ograniczenie praw badaczy. Decyzja o kontynuowaniu badań pomimo
wątpliwej etycznie procedury (np. oszukiwania) wiąże się z pogwałceniem praw osób
badanych. Ten konflikt stanowi istotę dylematu etycznego osób prowadzących badania w
naukach społecznych.
Rozstrzygając ten dylemat, trudno dać całkowicie dobrą czy całkowicie złą
odpowiedź. Waga, jaką ludzie przypisują korzyściom i kosztom badań w naukach
społecznych, zależy w dużym stopniu od ich pochodzenia, przekonań i doświadczenia. I tak
na przykład podczas gdy polityczni analitycy podkreślają korzyści płynące z możliwości
dokładnego przewidywania efektów działań politycznych, obrońcy wolności zawsze
przestrzegają przed niebezpieczeństwem zagrożenia wolności jednostki, jej prywatności i
prawa do samookreślenia. Zdaniem tych ostatnich zawsze istnieją wątpliwości co do korzyści
badania, jeżeli istnieje choćby najmniejsze ryzyko pogwałcenia praw jednostki.
Planując badania naukowe, obowiązkiem badaczy jest dokładne zestawienie
potencjalnych korzyści czy zysków wynikających z badań z kosztami ponoszonymi przez
osoby badane. Koszty te mogą dotyczyć naruszenia cudzej godności, narażenia na
przeżywanie stanów lękowych, zawstydzenie, utratę zaufania do więzi społecznych między
ludźmi, utratę poczucia autonomii i prawa do samookreślenia oraz zaniżenie ich samooceny.
Dla naukowca korzyści z badań to potencjalne zwiększenie wiedzy teoretycznej i stosowanej,
dla osoby badanej zaś to rekompensata finansowa, satysfakcja płynąca z przyczynienia się do
postępu nauki i lepsze zrozumienie istoty badań naukowych.
Proces wyrównywania potencjalnych zysków i kosztów ma z konieczności charakter
subiektywny. Badacze tworzą czy wybierają procedury badawcze zgodnie z preferowanymi
przez siebie wartościami zawodowymi i osobistymi. Ponieważ nasze wybory powiązane są z
preferowanymi przez nas wartościami, naukowcy — tak jak wszyscy — powinni wziąć te
wartości pod uwagę, zanim podejmą decyzje dotyczące etyki postępowania. Co więcej,
decyzje etyczne muszą być w każdym wypadku podejmowane indywidualnie, ponieważ
proces podejmowania decyzji jest tak samo ważny jak rezultaty. Badacz etyczny „zna
standardy etyczne, dokładnie analizuje moralne alternatywy, dokonuje oceny każdej sytuacji i
bierze odpowiedzialność za swoje decyzje"8. W kontekście zestawiania kosztów i zysków
szczególnie ważne dla badaczy są dwa problemy: prawo osoby badanej do wyrażenia zgody
na podstawie posiadanych informacji oraz jej prawo do prywatności.
8 Eduard Diener, Rick Crandall (1978), Ethics in Social and Behavioral Research,
Chicago: Uni-versity of Chicago Press, s. 4-5.
94
H
¦ Wyrażanie zgody na podstawie posiadanych informacji
Naukowcy są zgodni co do tego, że badania z udziałem ludzi powinny zawsze być
poprzedzone wyrażeniem zgody przez uczestników badań na podstawie przedstawionych im
informacji. Wyrażenie zgody na podstawie posiadanych informacji jest absolutnie niezbędne
w sytuacjach, w których osoby badane są narażane na ryzyko lub utratę wartości osobistych.
Amerykański Department of Health and Humań Services nadzorujący badania przez siebie
finansowane wymaga uzyskania pisemnej zgody wszystkich uczestników badań, jeżeli mogą
się oni znaleźć w „ryzykownej" sytuacji9. Większe uniwersytety dobrowolnie zgodziły się na
przestrzeganie wytycznych rządowych przy recenzowaniu wszystkich prowadzonych przez
siebie badań, i to bez względu na to, czy były one finansowane przez rząd, czy też nie.
Polityka uzyskiwania zgody osób badanych na podstawie posiadanych przez nie informacji
nie wyklucza prowadzenia badań w obrębie nauk społecznych, które mogą zawierać elementy
ryzyka, wymaga natomiast uzyskiwania zgody potencjalnych uczestników badań. Jeżeli
osoby badane mogą zostać narażone na ból, zranienie fizyczne czy emocjonalne, naruszenie
prywatności, stres fizyczny lub psychologiczny czy wreszcie, jeżeli prosi sieje o czasowe
zrezygnowanie z własnej autonomii (np. w badaniach nad skutkami brania narkotyków), to
prawo do wyrażenia zgody musi być w pełni zagwarantowane. Osoby badane muszą
wiedzieć, że ich uczestnictwo w badaniach jest zupełnie dobrowolne oraz powinny wcześniej
otrzymać pełną informację o korzyściach, prawach, o ryzyku i niebezpieczeństwie związanym
z ich uczestniczeniem w badaniach.
Dlaczego wyrażanie zgody jest niezbędne
Idea prawa do wyrażania zgody na podstawie posiadanych informacji powstała
zarówno z akceptacji wartości kulturowych, jak i regulacji prawnych. Jej źródeł można
upatrywać w ogromnym znaczeniu, jakie przypisujemy wolności i samookreś-laniu. Jesteśmy
przekonani, że ludzie powinni być wolni i sami kierować własnym zachowaniem, a do
wolności jako wartości jesteśmy bardzo przywiązani. Zwolennicy takiego poglądu są nawet
skłonni twierdzić, podobnie jak John Locke, że wolność jest naturalnym prawem jednostki, a
ograniczenia wolności muszą zostać w pełni uzasadnione i zaakceptowane przez tych, których
dotyczą. Jeżeli osoby uczestniczące w badaniach mogą zostać narażone na ryzyko
ograniczenia wolności, to muszą się zgodzić na takie ograniczenie.
Co więcej, uzyskiwanie zgody ludzi na ich uczestniczenie w badaniach odzwierciedla
szacunek dla prawa jednostki do samookreślenia. Inną przyczyną, dla której tak ważne jest
wyrażenie zgody przez osoby badane, to przekonanie, że osoby dobrze poinformowane same
najlepiej będą siebie chronić. Ponieważ ludzie chronią swoje własne interesy, przeto
stworzenie im możliwości wolnego wyboru co do ich uczestniczenia w badaniach jest
najlepszym zabezpieczeniem przed korzystaniem z nadmiernie ryzykownych procedur
badawczych10. I wreszcie, patrząc z perspek-
11 U.S. Department of Health, Education and Walfare, Public Health Services and
National Institutes of Health (1971), The Institutional Guide to D.H.E.W. Policy on Protection
of Humań Subjects, DHEW Publication (NIH), December 2, s. 72-102. Por. także Arturo
Gandara (1978), Major Federal Regula-lions Governing Social Science Research, Santa
Monica, Calif.: Rand.
10 Diener. Crandall, Ethics in Social and Behavioral Research, s. 36.
95
tywy badacza, wyrażenie zgody na podstawie posiadanych informacji przenosi część
odpowiedzialności za negatywne skutki badań na osoby w nich uczestniczące. Wyrażenie
zgody zmniejsza także prawną odpowiedzialność badaczy, gdyż oznacza ona dobrowolny
udział osób badanych w prowadzonym badaniu.
Co znaczy prawo do wyrażania zgody
Chociaż zasada uzyskiwania zgody potencjalnych osób badanych na podstawie
posiadanych przez nie informacji zyskała sobie szeroką akceptację, to badacze nadal nie
stosują jej w sposób stały. Dzieje się tak dlatego, że nie zgadzają się oni co do znaczenia tej
zasady w konkretnych przypadkach. Pytania takie, jak: „Co to znaczy, że dana osoba jest
poinformowana?", „Skąd wiemy, że dana osoba badana rozumie przekazane jej informacje?",
, Jakie informacje należy przekazywać?", „Co zrobić, jeżeli jest rzeczą niezmiernie ważną,
aby osoby uczestniczące w badaniach nie dowiedziały się, czy są w grupie kontrolnej czy w
eksperymentalnej?", są w sposób oczywisty pytaniami trudnymi i nie ma na nie
jednoznacznej odpowiedzi. Można jednak — i jest to bardzo użyteczne — spróbować
określić, jaka jest intencja wprowadzenia zasady uzyskiwania zgody potencjalnych osób
badanych. Postaramy się to pokazać, omawiając istotę tej zasady i dyskutując niektóre
zagadnienia związane z jej stosowaniem.
Eduard Diener i Rick Crandall zdefiniowali pojęcie zgody na podstawie posiadanych
informacji następująco: jest to procedura, w trakcie której osoby podejmują decyzję, czy
uczestniczyć w badaniach po tym, jak zostaną poinformowane o faktach, które mogłyby
wpłynąć na ich decyzję"". Procedura ta obejmuje cztery aspekty: kompetencję, dobrowolność,
pełną informację oraz zrozumienie.
Kompetencja. Podstawowym założeniem leżącym u podstaw zasady wyrażania zgody
na podstawie posiadanych informacji jest założenie o kompetencji. Oznacza ono, że każda
decyzja podejmowana przez osobę odpowiedzialną i dojrzałą, której udostępniono wszystkie
niezbędne informacje jest decyzją właściwą. Ponieważ jednak wiele osób to osoby niedojrzałe
lub nieodpowiedzialne, więc podstawowy problem sprowadza się do tego, jak te osoby w
sposób systematyczny można identyfikować.
Ogólnie rzecz biorąc, ludzie nie są w stanie wyrazić zgody, jeżeli mają trudności
natury intelektualnej lub mają kłopoty z samookreśleniem się. Za osoby niekompetentne w
tym sensie generalnie uważa się małe dzieci, pacjentów znajdujących się w stanie śpiączki
oraz pacjentów psychiatrycznych. Jeżeli udział w badaniach (np. sprawdzenie skuteczności
postępowania terapeutycznego) może zakończyć się określonymi bezpośrednimi korzyściami
dla osób badanych, to warto rozważyć możliwość podjęcia decyzji przez ich opiekunów,
rodziców czy inne osoby odpowiedzialne za osoby traktowane tu jako niekompetentne. Jeżeli
w badaniach nie można oczekiwać bezpośrednich korzyści i istnieje pewne ryzyko ujemnych
skutków, to wiele osób sugeruje, że badania takie powinny być w całości zaka-
12
zane .
" Ibidem, s. 34.
12 Paul D. Reynolds (1979), Ethical Dilemmas and Social Science Research, San
Francisco: Jos-sey-Bass, s. 91.
96

Dobrowolność. Badacz, który akceptuje zasadę wyrażania zgody na podstawie


posiadanych informacji, zapewnia przyszłym osobom uczestniczącym w badaniach wolny
wybór co do tego, czy uczestniczyć w badaniach naukowych, czy też nie oraz gwarantuje
sobie, że zgoda na narażenie się na znane ryzyko została podjęta całkowicie dobrowolnie.
Określanie warunków, w jakich ludzie mogą podejmować wolne decyzje, jest zadaniem
niezwykle złożonym. W badaniach przeprowadzanych w placówkach takich, jak: więzienia,
instytucje psychiatryczne, szpitale czy szkoły państwowe, jednostki uważane za autorytety
wywierają ogromny wpływ na osoby uczestniczące w badaniach. I tak na przykład pacjent
znajdujący się pod opieką lekarza-badacza może wyrazić zgodę na udział w badaniach,
ponieważ czuje się źle lub w jakiś inny sposób znajduje się pod wpływem lekarza. I chociaż
zasady etyczne przeprowadzania eksperymentów medycznych podkreślają fakt uzyskania
dobrowolnej zgody, wielu badaczy nigdy nie zetknęło się z subtelnymi niuansami
pogwałcenia zasady dobrowolności aż do II wojny światowej. Ustawy norymberskie, które
zostały sformułowane po tym, jak świat się dowiedział o nazistowskich eksperymentach
medycznych, obciążają badacza odpowiedzialnością za dokładne wyjaśnienie uczestnikom,
na czym polega badanie oraz czynią z tego warunek wstępny wyrażenia zgody w sposób
całkowicie dobrowolny:
Oznacza to, że osoba zainteresowana powinna mieć rzeczywistą możliwość wyrażenia
własnej zgody. [Osoba ta] powinna znaleźć się w takiej sytuacji, aby jej decyzja była podjęta
zgodnie z jej wolną wolą, bez jakichkolwiek elementów przymusu, oszustwa, podstępu,
nadużycia czy innych form wymuszania13.
Niektórzy autorzy sądzą, że aby określić warunki prowadzące do wyrażenia
dobrowolnej zgody, badacz powinien ustawić swoje stosunki z osobami badanymi na
płaszczyźnie egalitarnej i traktować badanie jako wspólną wyprawę w poszukiwaniu
nieznanego14. Inni z kolei twierdzą, że obecność trzeciej, neutralnej strony w trakcie procesu
wyrażania zgody zminimalizuje możliwość pojawienia się jakichś form wymuszania. Jeszcze
inni zalecają, aby osoby mające uczestniczyć w badaniach mogły się ze sobą porozumiewać
po tym, kiedy poprosi się je o wyrażenie zgody, a przed podjęciem przez nie decyzji.
Pełna informacja. Aby zgoda wyrażona przez przyszłe osoby badane mogła zostać
przyjęta, musi zostać wyrażona dobrowolnie i w sytuacji pełnego poinformowania. Może
bowiem być tak, że zgoda zostanie wyrażona dobrowolnie, lecz przy braku wszystkich
niezbędnych informacji, a także przy pełnym poinformowaniu, lecz nie dobrowolnie.
W praktyce trudno jest uzyskać zgodę osób badanych przy założeniu ich pełnego
poinformowania, albowiem wymagałoby to wprowadzenia wszystkich osób w złożone
technicznie i statystycznie szczegóły procedury badawczej oraz podważyłoby użyteczność
stosowania grupy kontrolnej. Co więcej, w wielu sytuacjach naukowcy sami nie posiadają
pełnych informacji o konsekwencjach związanych ze stosowaniem określonej procedury
badawczej. Gdybyśmy — odwołując się do
" Ibidem, s. 436. 14 Ibidem, s. 93.
97
Paula Reynoldsa — „posiadali wszystkie informacje, nie byłoby potrzeby
prowadzenia badań; badania mają jakąś wartość tylko wtedy, gdy istnieje pewna niejasność
dotycząca badanego zjawiska"15. Nie oznacza to oczywiście, że idea zasady wyrażania zgody
na udział w badaniach nie ma racji bytu. Wręcz odwrotnie, naukowcy opracowali strategię
wyrażania zgody w sposób racjonalny.
Wytyczne opracowane przez władze federalne odwołują się właśnie do takiej strategii.
Zgodnie z tymi wytycznymi do obowiązków badacza należy takie przekazywanie informacji,
aby znalazło się w nich sześć następujących elementów16:
1. Pełne wyjaśnienie zastosowanej procedury i celu, jakiemu ma ona służyć.
2. Opis mogących się pojawić niedogodności oraz rozmiarów rozsądnie
przewidywanego ryzyka.
3. Opis rozsądnie oczekiwanych korzyści.
4. Ujawnienie właściwych procedur alternatywnych, które mogą być korzystne dla
osoby badanej.
5. Udzielenie odpowiedzi na wszystkie pytania dotyczące procedury badawczej.
6. Poinformowanie, że osoba podejmująca decyzję ma wolny wybór i może w każdej
chwili odmówić kontynuowania udziału w badaniu bez jakiejkolwiek szkody dla siebie.
Niektóre z wymienionych wyżej elementów informacji są — w sposób oczywisty —
kontrowersyjne. Na przykład ujawnianie celu badania może wpłynąć na trafność otrzymanych
wyników. Tak byłoby w wypadku eksperymentu Milgrama i badania przeprowadzonego
przez Reissa. Brak jest także zgody co do tego, jak wiele informacji należy udzielać. Na
przykład badania przeprowadzone przez H.R. Resnicka i T. Schwartza są dobrą ilustracją
tego, że przekazanie pełnych informacji o badaniu może nie być pożądane. Resnick i
Schwartz przygotowując badania nad warunkowaniem, opowiedzieli swoim potencjalnym
osobom badanym dokładny przebieg eksperymentu przed jego rozpoczęciem. W rezultacie
wiele osób w ogóle nie zjawiło się na badaniach. Natomiast ci, którzy przyszli, nie uczyli się,
co było wynikiem zupełnie odmiennym od wyników podobnych badań. Badanie to pokazało,
że udzielanie zbyt wielu informacji może mieć zdecydowanie negatywny wpływ na wyniki
prowadzonych badań17.
Pytania dotyczące kryteriów, na podstawie których można zdecydować, jakie
informacje trzeba przekazać przyszłym osobom badanym, stały się zatem niezmiernie ważne.
Jedno z kryteriów dotyczy prawnego wymiaru tego, co „osoba rozważna i roztropna"
powinna wiedzieć. Badacz ma obowiązek ujawnienia — przed podjęciem decyzji przez
potencjalną osobę badaną — tych wszystkich szczegółów dotyczących badania, które mają
związek z jej dobrami osobistymi. Osoby uczestniczące w badaniach powinny być zatem
zawsze poinformowane o możliwych negatywnych konsekwencjach fizycznych czy
psychologicznych oraz o możliwości pozbawienia ich jakichkolwiek praw w trakcie badania.
15 Ibidem, s. 95.
16 HEW, The Institutional Guide to D.H.E.W. Policy, s. 7.
17 H.J. Resnick, T. Schwartz (1973), Ethical Standards as an Independent Variable in
Psycholom cal Research, „American Psychologist", 28, s. 134-139.
98
Łatwiejszą metodą ustalania, jakie informacje należy przekazać osobie badanej, jest
powołanie specjalnego zespołu reprezentującego przyszłych uczestników lub uczestników i
badaczy. Zespół ten podejmuje następnie odpowiednie decyzje. Inną procedurą jest
przeprowadzenie wywiadu z osobami imitującymi przyszłych uczestników i określenie w ten
sposób, jakie informacje są konieczne18.
Zrozumienie. Czwartym elementem składającym się na proces podejmowania zgody
przez potencjalne osoby badane jest zrozumienie, czyli „przekonanie, że osoby uczestniczące
w badaniach wyraziły zgodę na podstawie właściwej wiedzy o procedurze badawczej,
zwłaszcza gdy jest ona ryzykowna"19. Jasne jest, że dokładny opis procedury badawczej,
nawet w języku nietechnicznym, może nie być w pełni zrozumiały. Proponowano wiele
sposobów przekazywania informacji przyszłym uczestnikom badań tak, aby były one w pełni
zrozumiałe. Między innymi zaleca się angażowanie osób dobrze wykształconych, które lepiej
rozumieją przekazywane im informacje, zatrudnianie konsultantów omawiających badanie z
jego uczestnikami, a także wprowadzanie przerwy pomiędzy prośbą o udział w badaniach a
wyrażeniem zgody przez ich uczestników. Najczęściej stosowaną procedurą jest jednak
bezpośrednie pytanie przyszłych uczestników, czy wszystko jest zrozumiałe, lub też
stosowanie specjalnej ankiety sprawdzającej stopień zrozumienia przekazanych informacji20.
Odpowiedzialność badacza
Praktyka uzyskiwania zgody przyszłych osób badanych na podstawie posiadanych
przez nie informacji jest najogólniejszym rozwiązaniem problemu prowadzenia badań w
naukach społecznych bez naruszania praw i dóbr osobistych osób badanych. Jeżeli wszystkie
warunki wyrażenia zgody na udział w badaniach zostaną spełnione (kompetencja,
dobrowolność, pełne poinformowanie oraz zrozumienie), to badacze mogą przyjąć, że
zwrócili należytą uwagę na problem praw i dóbr osobistych osób badanych.
Zasada uzyskiwania zgody na udział w badaniach nie jest jednak absolutnie konieczna
we wszystkich badaniach prowadzonych w ramach nauk społecznych. Chociaż pożądana, to
nie jest niezbędna w tych badaniach, w których osoby badane niczym nie ryzykują. Im
bardziej poważne jest ryzyko podejmowane przez osoby badane w trakcie badań, tym
większy obowiązek uzyskania ich zgody na udział w badaniach spoczywa na badaczach. W
takich sytuacjach badacze są również odpowiedzialni za negatywne skutki badań dla osób
badanych, nawet jeżeli wcześniej wyrazili oni zgodę na udział w badaniach.
¦ Prywatność
Naruszenie prywatności to problem angażujący wszystkich, zwłaszcza dzisiaj, gdy
skomputeryzowane bazy danych należące do banków prywatnych lub państwowych
Ta i inne procedury zostały opisane przez Reynoldsa w pracy Ethical Dilemmas and
Social Science Research, s. 95-96. " Ibidem, s. 97. 20 Ibidem.
99
są tak łatwo dostępne. Prawo do prywatności — „wolność jednostki co do wyboru
czasu i okoliczności, i co ważniejsze, zakresu, w jakim chce ona lub nie chce ujawniać swoich
postaw, wierzeń, zachowań i opinii"21 — może zostać łatwo pogwałcone w czasie badań lub
po zakończeniu badań naukowych.
W badaniu postaw studentów college'u, które zostało przeprowadzone przez American
Council of Education, proszono osoby badane o udzielanie odpowiedzi ujawniających
prywatne informacje, które mogły zostać wykorzystane przez władze administracyjne
(uniwersyteckie czy rządowe) do zidentyfikowania aktywistów politycznych. Zebrane dane
zostały umieszczone w komputerowej bazie danych i w ten sposób stały się dostępne dla
każdej osoby, która zechciała uiścić niewielką opłatę manipulacyjną. Jest to praktyka, która
staje się dzisiaj coraz bardziej powszechna. Aby ochronić osoby uczestniczące w badaniach,
badacze w konstruowanych przez siebie bazach danych oddzielają dane identyfikacyjne osób
badanych od ich odpowiedzi*. Ciągle jednak realna jest możliwość, że na podstawie
zebranych danych władze mogą wystawiać nakazy sądowe. W badaniach, o których mówimy,
badacze oczekiwali prywatnych informacji od studentów, a sami nie gwarantowali tajności
tych danych, zwłaszcza w panującej wówczas atmosferze inwigilacji politycznej. Aby chronić
prywatność i aby zebrane informacje nie stały się podstawą do sformułowania nakazu
sądowego, badacze zaczęli wprowadzać kody na powiązania danych identyfikacyjnych z
indywidualnymi odpowiedziami. I chociaż tą techniką posługiwano się w bardzo wielu
badaniach, to problem ochrony prywatności osób badanych pozostaje nadal nie rozwiązany.
Wymiary prywatności
Zazwyczaj o prywatności mówi się w trzech wymiarach. Są to: istotność
otrzymywanych informacji, otoczenie, w jakim przeprowadza się badanie, oraz udzielanie
informacji22. Zanim przedstawimy propozycje technik pozwalających na ochronę
prywatności, przeanalizujmy dokładniej owe trzy wymiary.
Istotność informacji. Istotność informacji odnosi się do zakresu, w jakim informacje
zbierane przez badacza mają charakter prywatny lub potencjalnie zagrażający osobie badanej.
W raporcie American Psychological Association wyraźnie stwierdzono, że „preferencje
religijne, praktyki seksualne, dochody, uprzedzenia rasowe i inne właściwości jednostki takie,
jak: inteligencja, uczciwość i odwaga to dane zdecydowanie bardziej osobiste niż nazwisko,
klasa społeczna czy numer identyfikacyjny"23. Im bardziej osobiste są informacje udzielane
przez osobę badaną, tym większy obowiązek zapewnienia ich ochrony spoczywa na badaczu.
I tak dopiero od listopada 1993 roku dzięki decyzji Josepha Steffana homoseksualiści mogą
się starać o przyjęcie do wojska czy do marynarki, co do tej pory było całkowicie za-
* W Polsce badacze muszą m.in. respektować Ustawą z dnia 29 sierpnia 1997 r. o
ochronie danych osobowych (Dziennik Ustaw Nr 133 z 1997 r., poz. 883) (przyp. red. nauk.).
21 M.O. Ruebhausen, 01iver G. Brim (1966), Privacy and Behavioral Research,
„American Psycho-logist", 21, s. 432.
22 Diener, Crandall, Ethics in Social and Behavioral Research, s. 55-57.
23 American Psychological Association, Ethical Principles in the Conduct of
Research with Humań Subjects (1973), Washington, D.C.: Ad Hoc Committee on Ethical
Standards in Psychological Research, s. 87.
100
kazane przez Pentagon24. Gdyby zatem informacje o preferencjach seksualnych osoby
badanej pojawiały się w trakcie badań, badacz powinien być szczególnie skrupulatny, dbając
o zachowanie prywatności tej informacji.
Otoczenie, w którym przeprowadza się badanie. Otoczenie, w którym przeprowadza
się badanie, może być od całkowicie prywatnego do w pełni publicznego. Dom na przykład
jest traktowany w naszej kulturze jako miejsce najbardziej prywatne i wdzieranie się do
cudzego mieszkania bez zgody właścicieli jest zakazane przez prawo. Jednakże kiedy
określone otoczenie należy traktować jako prywatne lub jako publiczne, nie jest wcale tak
oczywiste i dlatego dycyzja taka może prowadzić do problemów natury etycznej. Badając
zachowania homoseksualistów w trakcie przypadkowych, krótkich spotkań w miejscach
publicznych (toalety), Laud Humphreys zastosował metodę obserwacji ukrytej. Zagrał on rolę
voyeura [voyeur — osoba czerpiąca satysfakcję seksualną z podglądania innych — przyp.
tłum.], zapewniając uczestników, że nie ma tam policjantów, nastolatków ani mężczyzn o
orientacji heteroseksualnej, i zyskując w ten sposób ich zaufanie oraz zgodę na wejście do
miejsca, w którym mógłby dokonywać obserwacji. W czasie badań odnotował on także
numery rejestracyjne 134 samochodów, z których korzystali uczestnicy badań. Rok później,
w trakcie oficjalnych badań dotyczących zdrowia publicznego przeprowadził pięćdziesiąt
wywiadów z byłymi osobami badanymi, w ich własnych domach25. Krytycy tych badań
zwrócili zwłaszcza uwagę na fakt, że chociaż badania odbywały się w publicznej toalecie, to
ich uczestnicy nie inicjowaliby kontaktów seksualnych („zachowania prywatne"), gdyby nie
zostali wcześniej zapewnieni, że miejsce, w którym się znajdują, ma czasowo charakter
„prywatny". Humphreysa oskarżono o naruszenie prywatności badanych.
Udzielanie informacji. Trzeci aspekt problemu prywatności dotyczy możliwości
identyfikowania danych personalnych oraz łączenia ich z odpowiedziami udzielonymi przez
osoby badane. I tak na przykład informacje dotyczące dochodów pozostaną informacjami
prywatnymi, jeśli dostęp do nich będzie miał jedynie badacz. Jeżeli natomiast informacje te,
włączając wielkość zarobków oraz nazwiska, zostaną rozpowszechnione przez media, to
wóczas mamy do czynienia z poważnym naruszeniem prywatności. Im więcej ludzi może się
dowiedzieć o szczegółach przekazywanych danych, tym większa powinna być troska o
zachowanie tajności tych danych.
Nierzadko się zdarza, że określona społeczność lub całe miasto potrafi zidentyfikować
osoby uczestniczące w badaniach, nawet jeżeli posłużono się w nich fikcyjnymi nazwiskami.
W pracy Smali Town in Mass Society Arthur Vidich i Joseph Bensman opisali intymne i
często krępujące szczegóły dotyczące życia mieszkańców małego miasta w stanie Nowy
Jork26. Chociaż samo miasto oraz jego miesz-
4 David A. Kapłan, Daniel Glick (1993), Into the Hands of Bigots, „Newsweek",
November 29, s.43.
25 Laud Humphreys (1975), Teamom Trade: Impersonal Sex in Public Places,
Hawthorne, N.Y.: Aldine.
26 Arthur J. Vidich, Joseph Bensman (1960), Smali Town in Mass Society, Garden
City, N.Y.: Do-ubleday.
101
kańcy otrzymali w książce fikcyjne nazwiska, to poszczególne opisy były bardzo
łatwo identyfikowalne dla osób zainteresowanych. Z tego powodu badanie to zostało
skrytykowane nie tylko w środowisku naukowym27, ale także zaprotestowali sami
mieszkańcy opisywanego miasta, organizując marsz protestacyjny, w którym każdy włożył na
twarz maskę z wypisanym fikcyjnym nazwiskiem — wyraźny dowód, że całe miasto znało
tożsamość osób opisanych w pracy. Gdy marsz miał się zakończyć, do zebranych osób
podjechało urządzenie do roztrząsania nawozu z kukłą badacza28.
Badacze muszą brać pod uwagę wszystkie trzy elementy (istotność otrzymywanych
informacji, otoczenie, w którym przeprowadza się badanie, oraz udzielanie informacji) przy
podejmowaniu decyzji o tym, jak dalece osobisty charakter mają zebrane przez nich
informacje oraz w jaki sposób należy zapewnić ich tajność, aby ochronić osoby badane.
Tak jak z większości praw, tak i z prawa do prywatności można dobrowolnie
zrezygnować. Osoby biorące udział w badaniu mogą zrezygnować z prawa do prywatności,
godząc się na udzielanie nawet najbardziej osobistych informacji lub wyrażając zgodę, aby w
raporcie z badań znalazły się ich prawdziwe nazwiska. W tym ostanim wypadku konieczne
jest uzyskanie zgody ze strony osób badanych.
¦ Anonimowość i poufność
Dwiema powszechnie stosowanymi technikami mającymi na celu ochronę osób
badanych jest anonimowość i poufność. Obowiązek zapewnienia anonimowości osób
badanych oraz obowiązek zapewnienia poufnego charakteru zebranych danych nie
wykluczają się wzajemnie. Powinny być one spełnione bez względu na koszty, chyba że
badacz wcześniej porozumiał się w tych sprawach z osobami badanymi. Podobnie jak w
przypadku problemu prywatności, tak i tutaj szybko powstające sieci komputerowe, takie jak
Internet, i coraz większe możliwości komunikowania się drogą satelitarną sprawiają, że
zapewnienie anonimowości i poufności danych staje się coraz bardziej technicznie
skomplikowane i moralnie konieczne.
Anonimowość
Badacze zapewniają anonimowość poprzez oddzielenie danych o tożsamości osób
badanych od informacji, jakich one udzielają. Osoba badana jest uważana za osobę
anonimową, jeżeli badacz lub inne osoby nie potrafią powiązać konkretnych informacji z
konkretnymi osobami badanymi. Jeżeli zatem informacja zostanie udzielona anonimowo, a
więc badacz nie będzie w stanie powiązać nazwisk z danymi, to tożsamość osoby badanej
pozostaje niejawna nawet wtedy, kiedy udzieliła ona bardzo osobistych informacji. Można na
przykład zachować anonimowość w badaniach metodą ankiety pocztowej (omawiamy ją w
rozdziale 10), jeżeli dane identyfikacyjne zostaną usunięte z kwestionariuszy zaraz po ich
otrzymaniu. Z drugiej strony jednak respondent w bezpośrednim wywiadzie
kwestionariuszowym nie jest osobą anonimową, ponieważ ankieter zawsze łatwo może ją
zidentyfikować.
27 Urie Bronfenbrenner (1959), Freedom and Responsibility in Research: Comments,
„Humań Or-ganization", 18, s. 49-52.
28 Diener, Crandall, Ethics in Social and Behavioral Research, s. 62.
102
Jedną z najprostszych technik gwarantowania anonimowości jest niepytanie o
nazwisko i inne dane mogące identyfikować osobę badaną. Można jednak prosić osoby
badane o samodzielne zaszyfrowanie swoich odpowiedzi lub zakodowanie ich w jakiś łatwo
dający się zapamiętać sposób (np. poprzez odejmowanie daty urodzenia od numeru konta
bankowego). Anonimowość danych można zwiększyć, jeżeli nazwiska i inne dane
identyfikacyjne zostaną powiązane z odpowiedziami za pomocą specjalnego kodu.
Przygotowując dane do analizy, badacz może zadbać o anonimowość, rozdzielając dane
identyfikacyjne od pozostałych informacji. Pozostałe działania powinny obejmować ochronę
danych przed ich kopiowaniem, wprowadzenie kodu dostępu (hasła) do danych i
automatyczne monitorowanie sposobu korzystania z danych29.
Poufność
Osoby uczestniczące w badaniach w ramach nauk społecznych często zapewnia się, że
podane przez nie informacje będą traktowane jako poufne, tj. informacje identyfikujące osoby
badane nie będą upubliczniane. I chociaż na badaczach spoczywa obowiązek, zarówno
moralny, jak i profesjonalny, dotrzymania zobowiązania utrzymania poufności danych,
można wskazać na okoliczności, w których może to być bardzo trudne lub wręcz niemożliwe.
Jedna z takich istotnych sytuacji powstaje wtedy, gdy zebrane dane mogą posłużyć sądowi
lub innym instytucjom prawnym. Zbierając dane, badacze powinni dokładnie i wyraźnie
informować osoby uczestniczące w badaniach — najlepiej w postaci pisemnej — o znaczeniu
i ograniczeniach poufności danych. Im większe zagrożenie niosą same informacje i im
większe szanse sformułowania na ich podstawie nakazu kontroli lub nakazu sądowego, tym
wyraźniej należy o tym informować. Donald Campbell i jego współpracownicy
zaproponowali jedno z możliwych wyjaśnień, jakie można podać osobom badanym. Jeżeli
jednak zbierane informacje nie są w żaden oczywisty sposób niebezpieczne dla osób
badanych, to wystarczy ogólne zapewnienie o poufności zbieranych danych, na przykład:
Badania te zostaną podsumowane w postaci danych statystycznych, obliczonych dla
całej grupy, tak że nikt nie będzie mógł rozpoznać danych indywidualnych. Wszystkie
wywiady będą traktowane jako poufne. Można się natomiast liczyć z możliwością, że po
zakończeniu badań ktoś się z Państwem skontaktuje, aby sprawdzić, czy ja rzeczywiście
przeprowadziłem(łam) te badania i czy przeprowadziłem(łam) je uczciwie i w całości30.
Jeżeli uczciwe i wyczerpujące odpowiedzi na pytania badawcze mogą zagrozić
interesom respondenta (np. w przypadku nakazu sądowego), to respondenta należy o tym
poinformować, na przykład:
29 Znakomite omówienie tej i innych technik patrz: Reynolds, Ethical Dilemmas and
Social Science Research, s. 167-174.
30 Donald T. Campbell i in. (1976), Protection of the Rights and Interests of Humań
Subjects in Program Evaluation, Social Indicators, Social Experimentation, and Statistical
Analyses Based upon Administrathe Records: Preliminary Sketch, Northwestern University,
powielacz.
103
Te badania są przeprowadzane po to, aby uzyskać informacje o charakterze
statystycznym. W związku z tym dane indywidualne nie będą ani identyfikowane, ani później
nie będą mogły zostać zidentyfikowane. Zrobimy wszystko, co w naszej mocy, aby udzielone
przez Państwa odpowiedzi pozostały poufne. Jedynie w przypadku otrzymania nakazu
sądowego możemy odstąpić od tej zasady i udostępnić podpisane kwestionariusze
instytucjom prawnym31.
Opracowano wiele technik umożliwiających dostęp do zebranych danych osobom z
zewnątrz, i to tak, aby nie została naruszona zasada poufności. Są to między innymi:
1. Usunięcie danych identyfikacyjnych — na przykład usunięcie nazwisk, numerów
ubezpieczenia lub adresu.
2. Wprowadzenie szerokich kategorii dla danych — na przykład posługiwanie się
województwem zamiast miastem (czy spisem ludności), rokiem urodzenia zamiast konkretnej
daty urodzenia, zawodem zamiast konkretnie wykonywanej pracy itd.
3. Grupowanie danych — tj. budowanie na podstawie danych indywidualnych obrazu
„osoby przeciętnej" i udostępnianie tych danych zamiast danych surowych.
4. Wprowadzanie błędu — rozmyślne wprowadzanie błędów do danych
indywidualnych i pozostawienie bez zmian danych pogrupowanych.
¦ Zawodowy kodeks postępowania etycznego
Reguły sterujące badaniami w naukach społecznych można obecnie rozważać na
różnych poziomach. Organizacje prawne, komitety do spraw etyki badań powstające w
ramach uniwersytetów czy innych instytucji, kodeksy postępowania etycznego tworzone
przez różne towarzystwa naukowe czy indywidualne zasady etyczne wyznawane przez
poszczególnych badaczy to istotne mechanizmy regulujące postępowanie w tym zakresie. W
tym rozdziale zajmiemy się zawodowym kodeksem postępowania etycznego i przedstawimy
całościowy kodeks etyczny dla naukowców podejmujących badania w ramach nauk
społecznych.
Najpoważniejsze towarzystwa naukowe opracowały kodeksy etyczne mające
obowiązywać własnych członków*. Tworzone są one po to, aby w zasadach postępowania
uwzględnione zostały specyficzne problemy i zagadnienia, z jakimi naukowcy mogą się
spotkać w badaniach prowadzonych w ramach określonej dyscypliny. Kodeksy uwrażliwiają
badaczy na ciążące na nich zobowiązania, a także zwra-
* Polskich psychologów zrzeszonych w Polskim Towarzystwie Psychologicznym
obowiązuje kodeks etyczny opracowany przez to towarzystwo: Kodeks etyczno-zawodowy
psychologa (Warszawa, 1992). Do wszystkich zaś uczonych adresowane są Dobre obyczaje w
nauce. Zbiór zasad opracowane przez Komitet Etyki w Nauce przy Prezydium Polskiej
Akademii Nauk (1996 — wyd. 2, zmienione) (przyp. red. nauk.).
31 Ibidem.
104
¦P
terze sta-ikowane, /stko, co )ufne. Je-)d tej za-
lych oso-o między
nazwisk,
osługiwa-kiem urodnie wy-
dywidual-tst danych
tych indy-
zważac na iń powsta-inia etycz-dy etyczne ilujące po-kodeksem a naukow-
:ne mające iach postę-jakimi na-lej dyscyp-akże zwra-
bowiązuje ko-a (Warszawa, <d opracowane 2, zmienione)
cają uwagę na tę problematykę, w ramach której istnieje pełna zgoda co do
obowiązujących zasad etycznych postępowania. Są one pomocne, ponieważ określają i
wyjaśniają, co jest dopuszczalne, a co jest zakazane w badaniach naukowych.
Paul Reynolds opracował kodeks postępowania etycznego złożony z zasad
uwzględnionych w 24 różnych kodeksach stworzonych dla badań w naukach społecznych.
Większość zasad zostało przyjętych przez różne krajowe towarzystwa naukowe zrzeszające
badaczy w naukach społecznych. Kodeks opracowany przez Reynoldsa przedstawiamy w
przykładzie 4.1. (Cyfra umieszczona po każdym punkcie informuje, w ilu, spośród 24
kodeksów, zasada ta została uwzględniona).
Przykład 4.1
Kodeks postępowania etycznego w naukach społecznych
Wytyczne ogólne
Zasady ogólne kodeksu postępowania etycznego
1. Badacze, organizując badania w naukach społecznych, są odpowiedzialni za
wszystkie decyzje łącznie z tymi, które dotyczą spraw proceduralnych i etycznych, i to bez
względu na to, czy owe decyzje są podejmowane przez nich samych, czy też przez ich
współpracowników (7).
2. Nauczyciele akademiccy są odpowiedzialni za wszystkie decyzje podejmowane
przez swoich studentów, które dotyczą zagadnień etycznych pojawiających się w
prowadzonych badaniach (1).
3. Wszystkie działania będące częścią badań powinny pozostawać w zgodzie ze
standardami etycznymi obowiązującymi zarówno we własnym środowisku, jak i w
środowisku badanych (1).
4. Problemy natury etycznej powinny być analizowane z perspektywy społeczności,
do których należą osoby uczestniczące w badaniach (2).
5. Jeżeli pojawiły się problemy etyczne, które okazały się trudne lub w ogóle nie
zostały rozwiązane, to konieczne są konsultacje z innymi badaczami lub instytucjami
sponsorowanymi przez towarzystwa naukowe (2).
6. Każde odchylenie od przyjętych zasad wymaga: (a) większego stopnia
odpowiedzialności ze strony badacza, (b) większego zaangażowania w poszukiwanie
zewnętrznych konsultacji i porad, (c) stworzenia dodatkowych zabezpieczeń w celu ochrony
praw i dóbr osobistych osób badanych (2).
Decyzje dotyczące prowadzenia badań naukowych
7. Badania powinny być prowadzone w taki sposób, aby została zapewniona
integralność całego przedsięwzięcia, a także by możliwości prowadzenia badań w przyszłości
nie zostały ograniczone (1).
8. Badacze, wybierając tematy badawcze, powinni się kierować swoją najlepszą
wiedzą (1).
9. Decyzja o przeprowadzeniu badań z udziałem ludzi powinna być podjęta po
przeanalizowaniu potencjalnych korzyści dla osób badanych i społeczeństwa w kontekście
ryzyka przez nich ponoszonego, tzw. analiza zysków i strat (2).
10. Każde badanie z udziałem ludzi musi dotyczyć istotnych intelektualnie
problemów (4).
11. Każde badanie z udziałem ludzi musi dotyczyć istotnych intelektualnie
problemów mających humanitarne implikacje i nie może istnieć żaden inny sposób
odpowiedzi na stawiane pytania (2).
12. Jeżeli istnieje ryzyko trwałych negatywnych skutków postępowania badawczego
dla osób badanych, to każde badanie z udziałem ludzi musi dotyczyć istotnych intelektualnie
problemów (2).
13. Każde badanie zawierające elementy ryzyka oraz negatywne skutki dla
postępowania terapeutycznego musi zostać ocenione w kategoriach korzyści dla klienta czy
pacjenta (2).
14. Nie mogą istnieć żadne wcześniejsze przyczyny pozwalające przyjąć, że
prowadzone badanie będzie miało poważne, stałe, negatywne skutki dla osób badanych (1).
15. Jeżeli prowadzone badanie może mieć trwałe, negatywne skutki dla osób
badanych, ich społeczności lub instytucji w ramach ich społeczności (np. w wypadku badań
dotyczących tubylców), to badanie takie może nie uzyskać pozytywnej recenzji i może zostać
odrzucone (2).
105
Prowadzenie badań
16. Wszystkie badania powinny być prowadzone kompetentnie, tj. powinny być
traktowane jako przedsięwzięcie obiektywne i naukowe (4).
17. Personel uczestniczący w badaniach powinien posiadać niezbędne kwalifikacje
dotyczące stosowania wszystkich procedur przewidzianych projektem badawczym (7).
18. Jeżeli w badaniu stosuje się jakieś środki farmakologiczne, to należy zadbać o
pomoc odpowiednio wykwalifikowanego i wyposażonego personelu pomocnicznego (4).
19. Schemat badawczy, przeprowadzenie badań oraz raport z badań nie powinny być
w żadnym sensie stronnicze — powinny być obiektywne, jak dalece jest to tylko możliwe (4).
Relacje z osobami badanymi
Zgoda na podstawie posiadanych informacji Zasady ogólne
20. Należy uzyskać zgodę wszystkich osób uczestniczących w badaniach, wyrażoną
na podstawie posiadanych przez nich informacji; badacze powinni honorować wszelkie
uzgodnienia pomiędzy stronami będące wyrazem udzielenia takiej zgody (10).
21. Należy stworzyć możliwość wyrażenia zgody na udział w badaniach wszystkim
osobom uczestniczącym w badaniach; w każdym innym wypadku zgoda ta powinna zostać
wyrażona przez osoby odpowiedzialne za uczestników badań (2).
22. Jeżeli projektowane badania mogą mieć ewentualne, niejasne lub negatywne
skutki dla osób badanych, to powinni oni wyrazić zgodę na udział w tych badaniach,
dysponując odpowiednimi informacjami (7).
23. Jeżeli to tylko możliwe, zgoda na udział w badaniach powinna zostać wyrażona
na piśmie (1).
24. Jeżeli w badaniach korzysta się z danych rządowych (oficjalnych), to należy
uzyskać na to zgodę, bez względu na to, jak te dane zostały zebrane (1).
Dostarczanie informacji
25. Cele, procedury i ryzyko związane z badaniami (łącznie z zagrożeniem fizycznym
i psychologicznym, a także zagrożeniem pozycji społecznej) powinny zostać wyjaśnione w
sposób zrozumiały dla badanych (7).
26. Osoby uczestniczące w badaniach powinny być świadome ewentualnych
konsekwencji dla grupy lub społeczności, z której zostali oni wybrani, i to zanim wyrażą
zgodę na udział w badaniach (1).
27. Należy wyjaśnić osobom badanym, w jaki sposób ich nazwisko znalazło się na
liście potencjalnych uczestników badań (1).
28. Należy wyjaśnić osobom badanym, kto ewentualnie sponsoruje lub dotuje badania
(2).
29. Osoby uczestniczące w badaniach powinny w pełni znać tożsamość osób
prowadzących badania (2).
30. Nazwiska i adresy osób prowadzących badania powinny zostać podane do
wiadomości osobom badanym (1).
31. Osoby badane powinny dokładnie poznać stosowane techniki zbierania danych
(nagrania audio i wideo, aparatura fotograficzna, pomiary fizjologiczne itd), możliwości tych
technik oraz zakres, w jakim osoby badane pozostaną anonimowe, a zebrane dane poufne (2).
32. W badaniach trwających przez długi czas należy informować osoby badane o
postępie badań (1).
33. Jeżeli nagrywany jest materiał wideo lub materiał filmowy, to osoby badane
muszą mieć możliwość wyrażenia zgody na jego publiczne odtwarzanie (powinny wcześniej
go obejrzeć, wyrazić zgodę na każdy fragment), a także zaakceptować ewentualną widownię
(1).
Zgoda na zasadzie dobrowolności
34. Przyszłe osoby badane powinny mieć możliwość odmowy udziału w badaniach i
powinny wiedzieć o takiej możliwości (1).
35. Osoby badane powinny mieć w każdym momencie możliwość przerwania
swojego udziału w badaniach i powinny wiedzieć o takiej możliwości (3).
106
36. Nie powinno się stosować żadnej formy przymusu (jawnej czy ukrytej), aby
zachęcić osoby badane do wyrażenia zgody na udział w badaniach (6).
Ochrona praw i dóbr osobistych osób badanych Zasady ogólne
37. Należy brać pod uwagę i chronić godność, prywatność i interesy osób badanych
(8).
38. Nie należy ranić osób badanych; ochrona dóbr osobistych osób badanych powinna
mieć charakter priorytetowy (10).
39. Szkody wyrządzane osobom badanym powinny być zminimalizowane przez
wprowadzanie odpowiednich procedur i kończenie ryzykownych badań tak szybko, jak tylko
to możliwe; szkody te są dopuszczalne jedynie wówczas, jeżeli nie ma innego sposobu
zbadania problemu (8).
40. Problemy badawcze powinny zostać tak przeanalizowane, aby upewnić się, że nie
pojawią się nieprzewidziane okoliczności — bez względu na prawdopodobieństwo ich
wystąpienia — mogące prowadzić do powstania negatywnych skutków dla osób badanych
(1).
41. Wszystkie negatywne skutki powstające po zakończeniu badań powinny zostać
wyeliminowane (4).
42. Nie należy zwiększać nadziei bądź lęku osób badanych (1).
43. Należy zakończyć badania, jeżeli staną się one niebezpieczne dla osób badanych
(3).
44. Osoby potrzebujące pomocy profesjonalnej mogą stać się osobami badanymi
jedynie wtedy, gdy udział w badaniach może im przynieść bezpośrednie korzyści (1).
Wprowadzanie w błąd
45. Osoby badane mogą zostać wprowadzone w błąd jedynie wtedy, gdy jest to
absolutnie konieczne i nie ma innego sposobu zbadania problemu (3).
46. Wprowadzanie w błąd powinno mieć swój cel (1).
47. Jeżeli procedura badawcza uwzględnia wprowadzanie w błąd, to należy
przedsięwziąć dodatkowe środki ostrożności, aby ochronić prawa i dobra osobiste osób
badanych (2).
48. Wszystkim badanym, którzy zostali wprowadzeni w błąd w trakcie badania, należy
się pełen i uczciwy opis procedury badawczej jak też wyjaśnienie powodów, dla których
wprowadzenie w błąd byto niezbędne (5).
49. Jeżeli z powodów humanitarnych czy naukowych nie informuje się badanych, że
zostali oni wprowadzeni w błąd, to na badaczu spoczywa szczególny obowiązek zadbania o
ochronę interesów i dóbr osobistych osób badanych (1).
Poufność i anonimowość
50. Dane zebrane w trakcie badań powinny być poufne, a wszystkie osoby badane
powinny pozostać anonimowe, chyba że wyrażą one (lub ich prawni opiekunowie) zgodę na
ujawnienie swojej tożsamości (15).
51. Jeżeli poufność czy anonimowość nie mogą zostać zagwarantowane, to osoby
badane powinny zostać o tym poinformowane (i o ewentualnych konsekwencjach), nim
wyrażą zgodę na udział w badaniach (4).
52. Osoby piastujące oficjalne stanowiska i udzielające informacji na rzecz
prowadzonych badań powinny na piśmie dotarczyć danych o pełnionej funkcji, swoich
obowiązkach itd. Dane te nie muszą być traktowane jako poufne, natomiast osoby piastujące
oficjalne stanowiska powinny otrzymać kopię końcowego raportu (1).
53. W badaniach, których celem jest opis zbiorowości, powinno się zawsze
gwarantować anonimowość poszczególnym osobom badanym (1).
54. „Prywatność" powinna być zawsze rozważana z perspektywy osoby badanej i jej
przynależności kulturowej (1).
55. Nie należy korzystać bez zgody autorów badań z materiału zgromadzonego w
bazach danych (1).
56. Jeżeli obietnica utrzymania poufności danych personalnych zostanie dotrzymana,
to badacze nie muszą odmawiać zgody na udzielenie informacji o złym prowadzeniu się osób
badanych czy o złym funkcjonowaniu instytucji (1).
107
57. Należy tworzyć specjalne procedury przetwarzania danych, aby zapewnić
anonimowość osobom badanym (1).
Korzyści osób badanych
58. Osoby badane powinny otrzymać uczciwe zadośćuczynienie za swoje usługi (1).
59. Zwiększenie wiedzy o sobie samym jest jedną z korzyści odnoszonych przez
osoby badane — korzyść, która powinna się stać podstawowym elementem schematu
badawczego czy procedur badawczych (1).
60. Kopie badań lub wyjaśnienie celu badań powinny zostać dostarczone wszystkim
osobom badanym (2).
61. Badania zbiorowości lub subkultur powinny dostarczyć takiej wiedzy, która
przyniesie im korzyść (1).
Skutki dla zbiorowości lub społeczności
62. Badacze powinni poznać i szanować badaną kulturę (1).
63. Badacze powinni współpracować z członkami badanej kultury (1).
64. Badacze powinni wcześniej rozpatrzyć ewentualne skutki badań dla struktury
społecznej badanej społeczności i możliwe zmiany funkcjonowania jednostek lub instytucji
spowodowane przeprowadzeniem badania (1).
65. Badacze powinni przewidzieć ewentualne skutki badań i raportu z tych badań dla
populacji lub grup, z których pochodzą osoby badane (1).
66. Osoby badane powinny być świadome skutków, jakie badanie może przynieść dla
zbiorowości lub grupy kulturowej, do której należą (1).
67. Badacz powinien uwzględnić interesy wszelkich grup społecznych czy
społeczności (1).
Interpretacja i przedstawianie wyników badań
68. Wszelkie raporty z badań powinny być dokumentami publicznymi i powszechnie
dostępnymi (4).
69. Procedury badawcze powinny zostać w raporcie w pełni i dokładnie opisane,
łącznie z wszelkimi dowodami, bez względu na to, czy potwierdzają one hipotezy badawcze;
wnioski powinny być obiektywne i niestronnicze (14).
70. Należy przedstawić pełną i kompletną interpretację wszystkich zebranych danych,
a także podjąć niezbędne kroki, aby dane te nie były niewłaściwie interpretowane w
pisemnych opracowaniach (6).
71. We wszystkich publikacjach dotyczących badań należy wyraźnie wskazać
sponsora badań, ich cele, źródła finansowego wsparcia oraz badaczy odpowiedzialnych za ich
przebieg (3).
72. Jeżeli publikacja dotycząca badania może się okazać niebezpieczna dla badanej
populacji i niemożliwe jest całkowite ukrycie informacji o tym, co to za populacja, to należy
publikację tę opóźnić (2).
73. Badania międzykulturowe powinny być dodatkowo publikowane w języku i w
czasopismach środowiska kulturowego, którego dotyczą (2).
74. Należy uhonorować wszystkie strony biorące udział w badaniach (9).
75. Należy podać pełne dane o wszystkich wykorzystanych w pracy, publikowanych
źródłach informacji (8).
76. Publikacje wyników badań dotyczących subkultur powinny zawierać opis w
terminach zrozumiałych dla osób uczestniczących w tych badaniach (2).
77. Dane surowe czy inne oryginalne dokumenty powinny zostać na każdą prośbę
udostępnione innym wykwalifikowanym badaczom (1).
78. Badania z określonym celem naukowym powinny zawsze stać się przedmiotem
publikacji i nie powinny być chronione przed publiczną prezentacją, chyba że jakość badań
lub zastosowane metody analizy okazały się nieadekwatne (1).
Przedrukowano za zgodą: Paul Davidson Reynolds (1979), Ethical Dilemmas and
Social Science Research, San Francisco: Jossey-Bass, s. 443-448.
108
¦ Podsumowanie
1. To, że nauki społeczne są zarówno eksperymentalne, jak i humanistyczne, jest
powodem powstawania podstawowego dylematu etycznego: W jaki sposób można zdobywać
systematyczną i dającą się zweryfikować wiedzę, jeżeli procedury badawcze mogą łamać
prawa i naruszać dobra osobiste badanych osób? Nie ma w tej materii ani całkowicie dobrej,
ani całkowicie złej odpowiedzi.
2. Wartość, jaką przypisujemy potencjalnym korzyściom i kosztom badań w naukach
społecznych, zależy od naszego wykształcenia, przekonań i doświadczeń. Badacz etyczny to
badacz, który ma wiedzę o etycznych zasadach postępowania, dokładnie analizuje koszty i
potencjalne korzyści projektowanych badań, dokonuje oceny każdej sytuacji i bierze na siebie
odpowiedzialność za własne wybory.
3. W ramach tego kontekstu dwa zagadnienia mają szczególne znaczenie: zgoda osób
badanych na podstawie posiadanych informacji oraz ich prywatność. Praktyka uzyskiwania
zgody przyszłych osób badanych na podstawie posiadanych przez nie informacji jest
najogólniejszym rozwiązaniem problemu prowadzenia badań w naukach społecznych bez
naruszania praw i dóbr osobistych osób badanych. Jest to procedura, w której jednostki
podejmują decyzję o tym, czy wziąć udział w badaniach, gdy już zostaną poinformowane o
faktach, które mogą wpłynąć na ich decyzję. Procedura ta obejmuje cztery aspekty:
kompetencję, dobrowolność, pełną informację oraz zrozumienie. Im większe ryzyko dla osób
uczestniczących w badaniach, tym większy obowiązek badacza uzyskania ich zgody na udział
w nich.
4. Prawo do prywatności może zostać łatwo naruszone w czasie badań lub już po ich
zakończeniu. Podejmując decyzję o tym, w jakim stopniu otrzymane informacje są prywatne,
badacz rozpatruje trzy kryteria: istotność tych informacji, otoczenie, w którym
przeprowadzone zostało badanie, oraz udzielanie informacji. Dwie powszechnie stosowane
techniki mające na celu ochronę prywatności osób badanych to: anonimowość i poufność.
5. Istnieje zgoda co do wagi problemów natury etycznej, co jest szczególnie widoczne
w adaptowaniu kodeksów postępowania etycznego przez różne towarzystwa naukowe.
Kodeksy te określają, co jest wymagane, a co jest zakazane. Chociaż uwrażliwiają one
badaczy na ich obowiązki oraz zwracają uwagę na tę problematykę, w ramach której istnieje
pełna zgoda co do obowiązujących zasad etycznych postępowania, jednak nie zastępują zasad
etycznych, jakimi kieruje się indywidualny badacz.
¦ Podstawowe terminy
anonimowość 102 dobrowolność 97 dylemat etyczny 94 istotność informacji 100
kodeks etyczny 104 kompetencja 96
109
oszukiwanie 93
poufność 103
prawo do prywatności 100
strategia wyrażania zgody 98
wyrażanie zgody 95
zrozumienie 99
¦ Pytania sprawdzajqce
1. Dlaczego w badaniach naukowych pojawiają się wątpliwości natury etycznej? Czy
można ich uniknąć w badaniach prowadzonych w ramach nauk społecznych?
2. Wymień koszty i korzyści płynące z badań, jakie badacz powinien uwzględnić,
podejmując decyzje o tym, czy korzyści przewyższają przewidywane koszty ponoszone przez
osoby badane w projektowanych badaniach. Przeanalizuj te koszty i korzyści w kontekście
specyficznych problemów badawczych.
3. Omów dokładnie, na czym polega zgoda wyrażona na podstawie posiadanych
informacji. Czy brałeś(aś) udział w badaniach wymagających wyrażenia takiej zgody? Jeżeli
tak, to czym się kierowałeś(aś), podejmując decyzję?
4. W jaki sposób możemy zapewnić prywatność osobom badanym, jeżeli badania
dotyczą problemów personalnych? Czy masz własne uwagi na ten temat?
5. Dokonaj rozróżnienia pomiędzy pojęciem anonimowości i poufności. Które z nich
— twoim zdaniem — opisuje trudniejszy problem z punktu widzenia badacza?
¦ Literatura dodatkowa
Brzeziński J., Poznaniak W. (red.)(1994), Etyczne problemy działalności badawczej i
praktycznej psychologów, Poznań: Wyd. Fundacji Humaniora.
Komitet Etyki w Nauce przy Prezydium PAN (1996), Dobre obyczaje w nauce. Zbiór
zasad, wyd. 2, Warszawa: Polska Akademia Nauk.
Polskie Towarzystwo Psychologiczne, PTP (1992), Kodeks etyczno-zawodowy
psychologa, Warszawa: PTP.
CZĘSC II
PLANY BADAWCZE
I STRUKTURA PROCESU BADAWCZEGO
Rozdział 5
Plany badawcze: eksperymenty
Plan badawczy: przykład 114
Klasyczny plan eksperymentalny 116
Struktura klasycznego planu eksperymentalnego 116 Dlaczego warto analizować
eksperymenty 118
Wyprowadzanie wniosków o charakterze przyczynowo-skutkowym 119
Kowariancja 119
Brak związków pozornych 119
Porządek czasowy 120
Podstawowe cechy planu badawczego 120
Porównywanie 121
Manipulowanie 121
Kontrolowanie: trafność wewnętrzna planu badawczego 122
Procedury kontroli 125
Uogólnianie: trafność zewnętrzna 129
Rodzaje planów badawczych 131
Eksperyment kontrolowany 131
Czterogrupowy plan Solomona 132
Plan badawczy z grupą kontrolną i tylko pomiarem końcowym
(posttestem) 134 Plany eksperymentalne umożliwiające badanie skutków
rozciągniętych
w czasie 135 Plany czynnikow-e 136
Podsumowanie 139
Podstawowe terminy 140
Pytania sprawdzające 140
Literatura dodatkowa 140
Kim są biali?1 To pytanie kierowało przeprowadzonymi w 1992 roku badaniami
dotyczącymi sposobu klasyfikowania ludzi ze względu na kolor skóry, przeprowadzanymi
podczas spisu ludności, który odbył się w Brazylii w 1980 roku. W Brazylii bowiem, inaczej
niż w Stanach Zjednoczonych, gdzie pojęcie rasy jest definiowane poprzez pochodzenie,
ludzie określają własną rasę, biorąc pod uwagę kombinację cech fizycznych i społeczno-
ekonomicznych. Dlatego też dzieci mogą zostać sklasyfikowane inaczej niż ich rodzice czy
rodzeństwo. Zdaniem osób prowadzących to badanie czterokategorialne pytanie z
wymuszonym wyborem dotyczące koloru skóry, które zostało zastosowane w brazylijskim
spisie ludności, zawierało niejasny termin określający kategorię mieszaną, czyli ludzi o
„brązowym" kolorze skóry. Ich zdaniem wykorzystanie tej kategorii sprawiło, że ludzie
odrzucali opcję mieszaną i identyfikowali się albo jako biali, albo jako czarni, zwiększając
tym samym liczbę osób w tych kategoriach (kategoria czwarta, tj. żółty kolor skóry rzadko
była wykorzystywana). Badacze założyli, że gdyby ten niejasny termin został zastąpiony
terminem powszechniej używanym, to więcej osób widziałoby siebie jako ludzi o mieszanym
kolorze skóry i dzięki temu zmniejszyłaby się liczba osób określających siebie jako białych
lub czarnych. Lepiej by to również obrazowało, jak ludzie klasyfikowaliby siebie wtedy,
kiedy pytanie dotyczące koloru skóry byłoby pytaniem otwartym. Aby to sprawdzić,
przebadano próbę osób wylosowanych z populacji, wykorzystując plan z pomiarem
początkowym i pomiarem końcowym. Otrzymane wyniki przemawiały na rzecz przyjętej
hipotezy. Dlatego też — zdaniem badaczy — dokonywanie porównań doświadczeń
życiowych czarnych i białych Brazylijczyków na podstawie danych ze spisu ludności z 1980
roku jest nieuprawnione, albowiem zarówno w kategorii „biali", jak i „czarni" znaleźli się
ludzie o mieszanym kolorze skóry. Z tego powodu również badacze, którzy w swoich
badaniach wykorzystali dane ze spisu ludności, powinni — aby określić trafność
wyprowadzanych przez siebie wniosków — przeanalizować zarówno zastosowany plan
badawczy, jak i sposób wykorzystania danych dotyczących klasyfikowania ludzi ze względu
na kolor skóry. Rozdział ten jest poświęcony problematyce planów eksperymentalnych,
sposobom wykorzystywania wyników badań eksperymentalnych oraz zagadnieniu ich
trafności.
W rozdziale tym omawiamy zagadnienia dotyczące planu badawczego traktowanego
jako logiczny model wnioskowania przyczynowo-skutkowego oraz przedstawiamy różne
rodzaje planów badawczych. W pierwszej części prezentujemy przykład zastosowania
konkretnego planu eksperymentalnego. W części drugiej omawiamy strukturę planów
eksperymentalnych. Następnie analizujemy cztery cechy charakteryzujące plan badawczy, tj.
porównywanie, manipulowanie, kontrolowanie i uogólnianie. Na koniec przedstawiamy
wybrane, powszechnie stosowane plany eksperymentalne.
1 Marvin Harris, Josildeth Gomes Consorte, Joseph Lang, Bryan Byrne (1993),Who
are the Whites? Imposed Census Categories and the Racial Demography ofBrasil, „Social
Forces", 72, s. 451-462.
113
Kiedy ustalimy już cel naszych badań, określimy hipotezy i zdefiniujemy zmienne,
stajemy wobec problemu opracowania takiego planu badawczego, który pozwoli na
przetestowanie interesującej nas hipotezy. Plan badawczy, mówiąc najprościej, to program,
zgodnie z którym badacz zbiera, analizuje oraz interpretuje wyniki. Jest to logiczny model
wnioskowania pozwalający badaczowi na wyprowadzanie wniosków dotyczących relacji
przyczynowo-skutkowych pomiędzy badanymi zmiennymi. Plan badawczy określa również
zakres uogólniania wniosków, tj. określa, czy uzyskane wyniki można uogólnić na większą
populację albo na inne warunki badania.
¦ Plan badawczy: przykład
Każdy badacz zamierzający przetestować hipotezę badawczą staje wobec
podstawowych problemów wymagających rozwiązania, zanim będzie można rozpocząć
właściwe badanie: Kogo należy badać? Co powinniśmy obserwować? Kiedy należy dokonać
obserwacji? W jaki sposób należy zbierać dane? Plan badawczy to rodzaj „projektu" kierujący
badaczem na różnych etapach badania i pomagający mu rozwiązać te właśnie problemy.
Naszym celem jest opisanie procesów uruchamianych w trakcie projektowania
badania i przedstawienie, w jaki sposób konkretne plany badawcze wykorzystywane przez
badacza pomagają mu ustrukturować proces zbierania, analizowania i interpretowania
danych. Zaprezentujemy też badanie wykorzystujące plan eksperymentalny, przedstawione w
pracy Roberta Rosenthala i Lenory Jacobson Pygmalion in the Classroom2. Badanie to było
próbą sprawdzenia efektu, jaki wywierają oczekiwania innych na zachowanie danej osoby.
Podstawowa koncepcja tych badań opierała się na założeniu, że czyjeś oczekiwania wobec
zachowania innej osoby mogą działać jako samospełniające się proroctwo. Pomysł ten nie jest
nowy i można wskazać na wiele zarówno anegdotycznych opowieści, jak i teorii, które za nim
przemawiają. Najbardziej znanym przykładem jest sztuka George'a Bernarda Sho-wa
Pigmalion, przerobiona następnie na musical My Fair Lady. Używając słów samego Shawa:
Widzi pan, mówiąc szczerze, poza tym wszystkim, czego każdy może się na- j uczyć
—jak się ubierać, poprawnie mówić i tak dalej — różnica między damą a kwiaciarką nie
polega na tym, jak się zachowują, tylko, jak są traktowane. Dla profesora Higginsa pozostanę
kwiaciarką, bo tak mnie traktuje i zawsze bę-
2 Robert Rosenthal, Lenore Jacobson (1968), Pygmalion in the Classroom, New York:
Holt. Ritie-hart and Winston; por. także E.Y. Babad, J. Inbar, R. Rosenthal (1982),
Pygmalion, Galatea, and the Golem: Investigation of Biased and Unbiased Teachers, „Journal
of Educational Psychology", 74, s. 459-474. [Badania nad oczekiwaniami interpersonalnymi
prowadzone przez R. Rosenthala i jego współpracowników zaprezentowane zostały także w
dwóch pracach dostępnych w języku polskim: Oczekiwania interpersonalne. Skutki przyjętej
przez badacza hipotezy oraz O społecznej psychologii sa-mospełniającego się proroctwa.
Dalsze dane potwierdzają istnienie efektów Pigmaliona i mechanizmów pośredniczących w
ich występowaniu. Obie prace patrz: J. Brzeziński, J. Siuta (red.) (1991), Społeczny kontekst
badań psychologicznych i pedagogicznych. Wybór tekstów, Poznań: Wyd. Nauk. UAM, s.
235--398 (przyp. red. nauk.)]
114
dzie traktował. Ale wiem, że dla pana mogę być damą, bo pan mnie traktował jak
damę i zawsze będzie się tak do mnie odnosił*.
Obserwacja Shawa została potwierdzona przez liczne badania nad zwierzętami.
Okazato się, że jeżeli eksperymentatorzy wierzyli, iż badane przez nich zwierzęta są
genetycznie gorsze, to zwierzęta te zachowywały się gorzej. Kiedy natomiast sądzono, że
zwierzęta są genetycznie lepsze, to osiągały one zdecydowanie lepsze wyniki. W
rzeczywistości zaś pomiędzy dwiema grupami zwierząt nie było żadnych różnic
genetycznych.
Zdaniem Rosenthala i Jacobson można przyjąć, że to samo, co stwierdzono o
badanych zwierzętach, da się również stwierdzić w odniesieniu do dzieci w szkole. I tak jak
zwierzęta, o których sądzono, że są lepsze, okazały się lepsze ze względu na oczekiwania
swoich opiekunów, tak też dzieci, o których nauczyciele sądzą, że są mądrzejsze, okażą się
rzeczywiście mądrzejsze właśnie z powodu oczekiwań nauczycieli.
Aby sprawdzić tę hipotezę, badacze wybrali jedną szkołę — Oak School —jako
laboratorium, w którym przeprowadzony został eksperyment. Oak to państwowa szkota
podstawowa mieszcząca się w dzielnicy zamieszkanej przez niższe klasy społeczne. Na
poziomie teoretycznym oczekiwano, że badanie ujawni efekt oddziaływania pozytywnych lub
negatywnych oczekiwań nauczycieli na intelektualną sprawność ich uczniów. Ze względu na
problemy natury etycznej przetestowano jednak tylko hipotezę mówiącą o tym, że pozytywne
oczekiwania nauczycieli zwiększą sprawność intelektualną.
Zmienną niezależną w tym badaniu były oczekiwania nauczycieli. Oczekiwaniami
tymi manipulowano, odwołując się do wyników rzekomego standardowego, bezsłownego
testu inteligencji. Nauczycielom przedstawiono ten test jako metodę pozwalającą przewidzieć
intelektualny „rozwój" ucznia. Na początku roku szkolnego, po wstępnym przebadaniu
wszystkich uczniów, przedstawiono nauczycielom nazwiska dzieci z ich klasy, które znalazły
się pośród 20% uczniów mających szansę rozwinąć się intelektualnie w trakcie najbliższego
roku szkolnego. Prognozy te zostały sformułowane na podstawie wyników domniemanego
testu na „rozwój intelektualny". W rzeczywistości nazwiska tych dzieci zostały wybrane w
sposób losowy. W efekcie różnica między dziećmi mającymi szansę rozwoju intelektualnego
a ich rówieśnikami pojawiła się jedynie w umysłach nauczycieli.
Zmienną zależną były tu zdolności intelektualne dzieci. Mierzono je za pomocą
standardowego testu inteligencji, który rzekomo miał pozwolić na ocenę rozwoju
intelektualnego. Wszystkie dzieci chodzące do Oak School zostały ponownie przebadane po
zakończeniu roku szkolnego. Rosenthal i Jacobson obliczyli różnicę ilorazu inteligencji (IQ)
pomiędzy pierwszym i drugim testowaniem zarówno dla tych dzieci, które miały się rozwinąć
intelektualnie, jak i dla pozostałych dzieci. Badacze zdefiniowali korzyści wynikające z
pozytywnych oczekiwań nauczycieli jako stopień, w jakim wzrost IQ u dzieci „specjalnych"
przewyższył wzrost IQ u reszty dzieci. Po roku prowadzenia eksperymentu zanotowano
istotny wzrost IQ u dzieci,
* G.B. Shaw, Pigmalion (1981), Warszawa: PIW, tłum. Kazimierz Piotrowski, s. 152
(przyp.
ttum.).
115
które miały się rozwinąć intelektualnie, i to zwłaszcza wśród uczniów klasy pierwszej
i drugiej.
Interpretując wyniki eksperymentu, Rosenthal i Jacobson stwierdzili, że pozytywne
oczekiwania nauczycieli w stosunku do dzieci mających rozwinąć się intelektualnie wpłynęły
na istotny wzrost ich IQ. Podsumowując wyniki, wyjaśniali oni to, co się stało:
Możemy powiedzieć, że za pomocą tego, co powiedziała i jak to powiedziała, za
pomocą wyrazu twarzy, postawy ciała i być może za pomocą dotyku nauczycielka mogła
komunikować dzieciom z grupy eksperymentalnej, że oczekuje od nich poprawy
funkcjonowania intelektualnego. Te komunikaty oraz ewentualne zmiany technik nauczania
mogły pomagać dziecku w trakcie nauki, zmieniając jego poczucie własnej wartości, jego
oczekiwania dotyczące własnego zachowania, jego motywację oraz jego styl poznawczy i
umiejętności3.
Dalej przedstawimy najpierw podstawowe terminy wykorzystywane przy omawianiu
planów badań eksperymentalnych, a następnie na podstawie eksperymentu Pigmaliona
przedyskutujemy strukturę klasycznego badania eksperymentalnego, wskazując na
podstawowe cechy takiego badania. Na koniec przedstawimy klasyczny plan
eksperymentalny jako model, z którym można porównywać inne plany badawcze.
¦ Klasyczny plan eksperymentalny
Klasyczny plan eksperymentalny składa się z dwóch, porównywanych ze sobą grup:
grupy eksperymentalnej i grupy kontrolnej. Grupy te są takie same z jednym wyjątkiem —
otóż grupa eksperymentalna poddawana jest działaniu zmiennej niezależnej, a grupa
kontrolna nie. Przyporządkowanie osób badanych czy to do grupy eksperymentalnej, czy do
grupy kontrolnej oparte jest na doborze losowym. Aby oszacować wpływ zmiennej
niezależnej, badacze dwukrotnie dokonują pomiarów zmiennej zależnej (traktowanych jako
wyniki) w każdej grupie. Pierwszy pomiar, pomiar początkowy, przeprowadzany jest dla
wszystkich osób badanych przed wprowadzeniem zmiennej niezależnej w grupie
eksperymentalnej; drugi pomiar, pomiar końcowy, przeprowadzany jest dla wszystkich osób
badanych po zadziałaniu zmiennej niezależnej w grupie eksperymentalnej. Następnie
dokonuje się porównania wielkości różnicy miar między pomiarem początkowym i pomiarem
końcowym. Jeżeli różnica jest istotnie wyższa w grupie eksperymentalnej w porównaniu z
grupą kontrolną, to można wyciągnąć wniosek, że zmienna niezależna jest przyczynowo
powiązana ze zmienną zależną.
Struktura klasycznego planu eksperymentalnego
Klasyczny plan jest często przedstawiany w postaci tabeli jak tabela 5.1, w której X
oznacza zmienną niezależną; Ou 02, 03 i Oą oznaczają pomiary zmiennej zależnej; R to
losowe przyporządkowanie osób do grupy eksperymentalnej i grupy kon-
3 Rosenthal, Jacobson, Pygmalion in the Classroom, s. 180.
116

trolnej, a de i dc oznaczają różnicę pomiędzy pomiarem początkowym i pomiarem


końcowym w każdej grupie.
Aby zilustrować strukturę i zastosowanie klasycznego planu eksperymentalnego w
badaniach społecznych, przeanalizujmy ponownie badanie nad samospełnia-jącym się
proroctwem przeprowadzone przez Rosenthala i Jacobson. W eksperymencie brały udział
wszystkie dzieci z Oak School. Te, które badacze określili jako mające szansę na rozwój
intelektualny, stanowiły grupę eksperymental-ną. Pozostałe dzieci tworzyły grupę kontrolną.
To, które z dzieci znalazło się w danej grupie, zostało ustalone w sposób losowy (zaznaczono
to jako R w tabeli 5.1). Grupę eksperymentalną stanowiło 20% dzieci z Oak School, reszta
zaś stanowiła grupę kontrolną. Wszystkie dzieci poddano pomiarowi początkowemu (0,i0 3)
za pomocą standardowego, bezsłownego testu inteligencji. Po przeprowadzeniu pomiaru
początkowego wszyscy nauczyciele uczestniczący w eksperymencie otrzymali nazwiska
dzieci, które rzekomo miały się rozwinąć intelektualnie. Prognoza ta, oparta na
domniemanym teście rozwoju intelektualnego, wytworzyła określone oczekiwania u
nauczycieli — jest to zmienna niezależna w tym eksperymencie. Po roku wszystkie dzieci z
obu grup zostały zbadane ponownie (pomiar końcowy) tym samym testem inteligencji (02 i
04) i określono u nich wielkość wzrostu IQ. Zmiany w poziomie inteligencji zostały
zdefiniowane jako zmienna zależna. Badacze stwierdzili istotną różnicę pomiędzy pomiarem
początkowym i pomiarem końcowym jedynie wśród dzieci z grupy eksperymentalnej. Na tej
podstawie wyprowadzili wniosek, że pozytywne oczekiwania nauczycieli spowodowały
intelektualny rozwój dzieci z grupy eksperymentalnej.
Tabela 5.1. Klasyczny plan eksperymentalny
Grupa Pomiar Pomiar Różnica
początkowy końcowy
Eksperymentalna/? O,--------> X --------> O, 02 — Ox=de
Kontrolna R O,---------------------------> O, O.-0, = d
3 4 4 3 C
Innym interesującym przykładem wykorzystania klasycznego planu
eksperymentalnego, tym razem w dziedzinie polityki, jest „Manhattan Bail Project",
zainicjowany przez Vera Institute w Nowym Jorku4. Vera Institute postanowił dostarczyć
sędziom sądów kryminalnych dowodów wskazujących na to, że wiele osób mogłoby zostać
zwolnionych z aresztu przed procesem, i to bez konieczności wpłacania kaucji. Osoby te
bowiem są silnie powiązane ze społecznością więzami rodzinnymi, zawodowymi,
przyjacielskimi oraz mieszkaniowymi. W zbadanej populacji znaleźli się ludzie oskarżeni o
przestępstwa i nieobyczajne zachowanie. Osoby oskarżone o cięższe zbrodnie zostały z
eksperymentu wyłączone. Studenci prawa uniwersytetu w Nowym Jorku oraz pracownicy
Vera Institute przeanalizowali akta oskarżonych pod kątem danych dotyczących ich
zatrudnienia, rodziny, miejsca zamieszkania, referencji, aktualnego oskarżenia ewentualnie
oskarżeń wcześniej-
4 W tym miejscu odwołujemy się do pracy Bernarda Boteina (1965), The Manhattan
Bail Project: Itslmpact in Criminology and the Criminal Law Process, „Texas Law Review",
43, s. 319-331.
117
szych, aby na tej podstawie zdecydować, czy można sądowi zarekomedować
zwolnienie przed procesem danej osoby, bez konieczności zapłacenia kaucji. Osoby, które
mogły uzyskać taką rekomendację, zostały losowo podzielone na grupę eksperymentalną i
kontrolną, a rzeczywistą rekomendację otrzymały tylko osoby znajdujące się w grupie
eksperymentalnej. Zmienną niezależną stanowiło tu zwolniennie z aresztu przed procesem, a
zmienną zależną odsetek osób, które się nie stawiły na proces. W odniesieniu do większości
osób z grupy eksperymentalnej sędziowie zaakceptowali rekomendacje przedprocesowego
zwolnienia bez płacenia kaucji. Wyniki eksperymentu były uderzające. W latach 1961-1964,
kiedy to eksperyment się zakończył, mniej niż 1% osób z grupy eksperymentalnej nie
pojawiło się w sądzie, aby wziąć udział w procesie — odesetek zdecydowanie niższy w
porównaniu z osobami, które zostały zwolnione po opłaceniu kaucji. Wyniki te wskazują, że
zwolnienie z zapłacenia kaucji nie przyczynia się do niestawiania się w sądzie. Powołując się
na wyniki tego eksperymentu, New York Probation Department wprowadził taki system
działania we wszystkich pięciu dzielnicach miasta.
Dlaczego warto analizować eksperymenty
Klasyczny plan eksperymentalny był najczęściej wykorzystywany w badaniach
prowadzonych w zakresie biologii i fizyki. Jesteśmy skłonni wiązać eksperymenty raczej z
badaniami prowadzonymi w ramach nauk przyrodniczych niż z badaniami dotyczącymi
zjawisk społecznych takich, jak: dyskryminacja, zachowanie się członków gangów, religia
czy atrakcyjność społeczna. Dlaczego zatem poświęcamy tyle czasu na omówienie badań
eksperymentalnych prowadzonych w naukach społecznych? Przyczyny są dwojakie. Po
pierwsze, klasyczny plan eksperymentalny pozwala zrozumieć logikę wszystkich innych
planów badawczych; jest to rodzaj modelu, z którym możemy porównywać pozostałe plany.
Po drugie, eksperyment pozwala badaczowi na wyprowadzanie wniosków o zależnościach
przyczynowo-skut-kowych, a także stosunkowo łatwo badać, czy zmienna niezależna
rzeczywiście spowodowała zmiany zmiennej zależnej. Stosując inne plany badawcze, nie
zawsze da się łatwo wyprowadzić wnioski o zależnościach przyczynowo-skutkowych.
Dlatego też jeżeli zrozumiemy strukturę i logikę klasycznego planu eksperymentalnego, to
zrozumiemy również ograniczenia wynikające ze stosowania innych planów.
Generalnie rzecz biorąc, badacze w naukach społecznych w porównaniu z
naukowcami z nauk przyrodniczych stosują badania eksperymentalne w znacznie mniejszym
zakresie. Dzieje się tak dlatego, że bardzo rygorystyczna struktura planu nie pozwala na łatwe
zaadaptowanie jej do badań prowadzonych w ramach nauk społecznych. Z tego powodu
badacze z nauk społecznych często wykorzystują plany, które są słabsze, jeżeli chodzi o
możliwości wyprowadzania wniosków przyczynowo-skutkowych, ale są bardziej przydatne
do rodzaju problemów, którymi się oni zajmują. Plany, które będziemy określać mianem
quasi-eksperymentów (omawiane w rozdziale 6) są w naukach społecznych powszechniej
stosowane.
Jak widzieliśmy na przykładzie „Pigmaliona" i „The Manhattan Bail Project",
eksperymenty są z całą pewnością stosowane w naukach społecznych. Rzeczywiście, w
niektórych dziedzinach nauk społecznych, takich jak psychologia społeczna, badania
eksperymentalne są dominującym rodzajem badań. Co więcej, badania eksperymentalne są
coraz częściej stosowane w badaniach dotyczących polityki i oceny skutków jej działania.
118
¦ Wyprowadzanie wniosków o charakterze przyczynowo-skutkowym
Zarówno eksperyment, który nazwaliśmy „Pigmalionem", jak i „Manhattan Bail
Project", to eksperymenty pozwalające sprawdzić hipotezę o zależnościach przyczy-nowo-
skutkowych. Idea przyczynowości jest rzeczywiście sercem wszystkich naukowych
wyjaśnień. Dotyczy ona naszych oczekiwań, że zmienna zależna spowoduje zmiany wartości
zmiennej zależnej w kierunku i w stopniu, jaki określa to teoria. Jeżeli jednak naukowcy
stwierdzą, że zmiany wartości zmiennej niezależnej są zawsze związane ze zmianami
wartości zmiennej zależnej, to nie musi to oznaczać, że pomiędzy tymi zmiennymi istnieje
relacja przyczynowo-skutkowa.
Rozważmy na przykład politykę rządu dotyczącą walki z wykroczeniami przeciw
prawu. Podstawowym celem takich działań jest zmniejszanie przestępczości. Czy w takim
razie fakt, że ktoś nie popełnił zbrodni, oznacza, że to polityka rządu skutecznie go od tego
powstrzymała? Odpowiedź zależy przede wszystkim od tego, czy jednostka była skłonna do
podejmowania działań przestępczych. Co więcej, jeżeli dana osoba miała skłonności w tym
kierunku, to czy powstrzymała ją możliwość złapania i ukarania, czy też inne czynniki takie,
jak brak możliwości popełnienia przestępstwa czy wpływ grupy rówieśniczej? Jeżeli zatem
badacze ustalą nawet, że ustanowienie przez rząd bardziej drastycznych metod walki z
przestępczością przyczynia się do spadku liczby popełnianych przestępstw, to nie można
jeszcze z całą pewnością stwierdzić, że zjawiska te były ze sobą przyczynowo powiązane.
W praktyce stwierdzenie przyczynowości wymaga przeprowadzenia trzech
niezależnych operacji: wykazania kowariancji, wyeliminowania relacji pozornych oraz
określenia czasowego porządku występowania zjawisk.
Kowariancja
Kowariancja oznacza, że dwa zjawiska się współzmieniają. Na przykład, jeżeli
zmianie poziomu wykształcenia towarzyszy zmiana wielkości dochodów, to możemy
powiedzieć, że wykształcenie współzmienia się wraz z dochodami. Innymi słowy, osoby o
wyższym wykształceniu mają większe dochody niż osoby o mniejszym wykształceniu. Z
kolei odwrotnie, jeżeli zmianom poziomu wykształcenia nie towarzyszy zmiana wielkości
dochodów, to wykształcenie nie współzmienia się wraz z dochodami. W badaniach
naukowych pojęcie kowariancji wyrażane jest w postaci miar związku między zmiennymi,
czyli korelacji lub inaczej siły p o w i ą z a n i a. Aby stwierdzić, że jedno zjawisko powoduje
drugie, należy udowodnić istnienie korelacji pomiędzy tymi zjawiskami. Jeżeli na przykład
ubóstwo nie koreluje (nie współzmienia się) z przestępczością, to nie można go traktować
jako przyczyny przestępczości.
Brak zwiqzków pozornych
Drugą operacją, którą należy przeprowadzić, jest wykazanie, że stwierdzona
kowariancja nie jest związkiem pozornym. Jak przedstawiliśmy to w rozdziale 3, danego
związku nie będziemy traktować jako związku pozornego, jeżeli nie istnieje taka trzecia
zmienna, za pomocą której można by ten związek wyjaśnić. Jeżeli kontrolujemy efekty
oddziaływania wszystkich istotnych zmiennych i oryginalny związek między dwiema
zmiennymi zostaje utrzymany, to związek ten nie jest związkiem pozornym. Stwierdzenie, że
dany związek nie jest związkiem pozornym, stwarza
119
mocne podstawy wnioskowania, że pomiędzy zmiennymi istnieje relacja przyczy-
nowo-skutkowa, a stwierdzona kowariancja nie jest wynikiem przypadkowego powiązania
między zmiennymi. Na rycinie 3.1 pokazaliśmy, że kowariancja pomiędzy liczbą wozów
strażackich, które przyjechały na miejsce pożaru, a wielkością strat w wyniku tego pożaru jest
związkiem pozornym, ponieważ istnieje trzecia zmienna — wielkość pożaru — która
wyjaśnia ten związek.
Porzqdek czasowy
Trzecią istotną operacją jest wykazanie porządku czasowego, tj. wykazanie, że
zakładana przyczyna pojawia się lub zmienia pierwsza, przed zakładanym skutkiem.
Logiczny model wnioskowania: trzy niezbędne elementy
¦ Kowariancja. Dwa zjawiska lub więcej zjawisk współzmieniają się.
¦ Brak związków pozornych. Kontrolujemy efekty oddziaływania wszystkich
istotnych zmiennych i oryginalny związek między dwiema zmiennymi zostaje utrzymany.
¦ Porządek czasowy. Zakładana przyczyna pojawia się lub zmienia pierwsza przed
zakładanym skutkiem.
I tak na przykład zgodnie z wynikami wielu badań kowariancja pomiędzy stopniem
urbanizacji i rozwojem demokratycznych struktur politycznych nie jest związkiem pozornym.
Aby ustalić, że urbanizacja jest przyczynowo powiązana z rozwojem struktur
demokratycznych, badacz musi wykazać, że pierwszy czynnik poprzedza drugi. Milcząco
przyjmuje się tu założenie, że zjawiska mogące występować w przyszłości nie powinny
powodować zjawisk występujących aktualnie bądź w przeszłości. Ustalenie porządku
czasowego zazwyczaj nie jest trudne. Status rodziców wpływa na oczekiwania edukacyjne ich
dzieci, a nie odwrotnie; zainteresowania polityką wyprzedzają udział w życiu politycznym;
depresja wyprzedza samobójstwo. Czasami jednakże porządek czasowy zjawisk bywa trudny
do ustalenia. Czy urbanizacja wyprzedza rozwój struktur politycznych, czy też może to
rozwój struktur politycznych wyprzedza urbanizację? Czy osiągnięcia następują po
motywacji, czy też poziom motywacji zmienia się po osiągnięciach? W rozdziale 6 i 17
omówimy metody wykorzystywane do ustalania porządku czasowego. W tym miejscu
chcemy jedynie podkreślić istotność kryterium porządku czasowego w sytuacji, kiedy
formułuje się wyjaśnienia o charakterze przyczynowo-skutkowym.
¦ Podstawowe cechy planu badawczego
Klasyczny plan badawczy ma cztery podstawowe cechy: możliwość porównywania,
manipulowania, kontrolowania i uogólniania. Pierwsze trzy cechy są niezbędne wtedy, kiedy
chcemy ustalić zależności przyczynowo-skutkowe pomiędzy zmienną niezależną i zmienną
zależną. Porównywanie pozwala wykazać istnienie kowariancji, manipulowanie pomaga
ustalić porządek czasowy badanych zjawisk, a kontro-
120
lowanie umożliwia określenie, czy badany związek nie jest związkiem pozornym.
Uogólnianie natomiast jest związane z ustalaniem zakresu, w jakim wyniki badań można
odnieść do całej populacji lub do innych warunków społecznych.
Porównywanie
Proces porównywania leży u podstaw pojęcia kowariancji czy korelacji.
Porównywanie jest operacją wymaganą wtedy, kiedy chcemy wykazać, że dwie zmienne ze
sobą korelują. Przypuśćmy, że chcemy wykazać, że istnieje korelacja pomiędzy paleniem
papierosów a rakiem płuc, tj. że palenie papierosów jest związane z większym ryzykiem
zachorowania na raka płuc. Aby to sprawdzić, badacz może porównać częstość występowania
przypadków raka wśród palaczy i niepalaczy lub porównać częstość występowania
przypadków raka w populacji palaczy przed paleniem i po tym, kiedy zaczęli palić.
Przypuśćmy z kolei, że jesteśmy przekonani, iż oglądanie telewizji wpływa na zjawisko
seksizmu w postrzeganiu roli kobiety i mężczyzny wśród ludzi dorosłych. Powinniśmy zatem
oczekiwać kowariancji pomiędzy oglądaniem telewizji i postawami seksistowskimi. Innymi
słowy, ludzie dorośli spędzający więcej czasu na oglądaniu telewizji będą ujawniali
tradycyjne stereotypy dotyczące płci. Aby oszacować kowariancję pomiędzy oglądaniem
telewizji i postawami, moglibyśmy porównać ludzi rzadko i bardzo często oglądających
telewizję. Moglibyśmy też porównać, jak zmieniają się poglądy dotyczące roli związanej z
płcią po obejrzeniu programu telewizyjnego przedstawiającego te role w tradycyjnym ujęciu.
Mówiąc jeszcze inaczej, aby oszacować kowariancję, należy ustalić wynik, jaki uzyskają
badani dorośli na wymiarze zmiennej zależnej przed wprowadzeniem i po wprowadzeniu
zmiennej niezależnej, czy też porównać grupę osób poddanych oddziaływaniu zmiennej
niezależnej z grupą osób, które temu oddziaływaniu nie zostały poddane. W pierwszym
wypadku dana grupa jest porównywana sama ze sobą, w drugim porównuje się grupę
eksperymentalną z grupą kontrolną.
Manipulowanie
W pojęciu przyczynowości przyjmuje się, że jeżeli Y jest spowodowane przez X, to
znaczy, że zmiany wartości X będą wyprzedzać zmiany wartości Y. Innymi słowy, przyjmuje
się, że relacja ta jest relacją niesymetryczną: jedna zmienna jest siłą wywołującą, a druga
zmienna jest wywołaną reakcją. Aby stwierdzić przyczyno-wość, zmiana wartości X musi się
zdarzyć, zanim wystąpi zmiana Y, gdyż w przeciwnym wypadku zmiennej X nie będzie
można uznać za przyczynę. Jeżeli badacz chciałby na przykład wykazać, że uczestniczenie w
grupach terapeutycznych dla alkoholików zmniejsza zjawisko niedostrzegania własnych
problemów związanych z piciem, to należy wykazać, że liczba aktywnych zaprzeczeń spadła
po uczestniczeniu w takiej grupie. Badacz musi również określić metody kontrolowania (tj.
manipulowania) sposobu przyporządkowywania do grupy badawczej po to, aby można było
dokonać pomiaru liczby zaprzeczeń problemom alkoholowym przed udziałem i po
uczestniczeniu w takiej grupie. W badaniach eksperymentalnych, zwłaszcza laboratoryjnych,
badacze sami mogą wprowadzić oddziaływanie badawcze. W warunkach naturalnych
jednakże taki poziom kontroli zazwyczaj nie jest możliwy. W obu sytuacjach jednak
podstawowym dowodem pozwalającym określić sekwencję czasową zdarzeń — tj. że
zmienna niezależna wyprzedziła zmienną
121
zależną —jest to, że zmiany zmiennej zależnej pojawiły się dopiero po zadziałaniu
zmiennej niezależnej.
Kontrolowanie: trafność wewnętrzna planu badawczego Kontrolowanie, trzecie
kryterium przyczynowości, wymaga wyeliminowania innych czynników, które mogłyby
dostarczyć konkurencyjnych wyjaśnień stwierdzonego związku pomiędzy badanymi
zmiennymi. Czynniki te mogłyby zmniejszyć trafność wnioskowania, że zmienne te są ze
sobą przyczynowo powiązane. Donald Campbell i Julian Stanley nazwali to problemem
trafności wewnętrznej. Aby określić trafność wewnętrzną, badacz musi odpowiedzieć na
pytanie, czy określone zmiany wartości zmiennej niezależnej rzeczywiście spowodowały
zmiany wartości zmiennej zależnej5. Wysiłek związany z zapewnieniem trafności
wewnętrznej jest czynnikiem, od którego zależy plan i wdrożenie projektu badawczego.
Czynniki zakłócające trafność wewnętrzną można podzielić na takie, które pojawiają
się, zanim wystąpi operacja badawcza — czynniki poza planem — i takie, które są związane z
planem badawczym i wpływają na wyniki w trakcie trwania badania.
Czynniki poza planem. W badaniach prowadzonych w ramach nauk społecznych,
problemy natury etycznej i kwestie praktyczne mogą nie pozwolić na losowe
przyporządkowanie badanych osób do grupy eksperymentalnej i kontrolnej. Kiedy trzeba
zastosować inne metody przyporządkowania, musimy się liczyć ze stronniczością, czyli
efektem doboru. Przyczyną tego zjawiska jest powstawanie różnic pomiędzy grupą
eksperymentalną i grupą kontrolną, zanim wystąpi operacja badawcza; różnice te są
spowodowane czynnikami pojawiającymi się poza planem badawczym. Jeżeli dwie grupy
różnią się między sobą na początku eksperymentu, to trudno będzie później oddzielić efekt
doboru od efektu oddziaływania zmiennej niezależnej. I tak na przykład, instytucja Manpower
Demonstration Research Corporation, badając skuteczność programu zatrudnienia dla osób
otrzymujących zasiłek z opieki społecznej, porównywała ze sobą osoby objęte pomocą
społeczną i uczestniczące w federalnym programie zatrudnienia z innymi osobami objętymi
pomocą społeczną. Okazało się, że wśród osób objętych tym programem zanotowano wyższy
stopień zatrudnienia i wyższe zarobki, co z kolei wpłynęło na zmniejszenie kosztów opieki
społecznej ponoszonych przez podatników. Można jednak sformułować konkurencyjne
wyjaśnienie zarejestrowanych zmian w poziomie zatrudnienia i w wysokości zarobków.
Zgodnie z tym wyjaśnieniem osoby biorące udział w programie różniły się od pozostałych
osób objętych opieką społeczną jeszcze przed rozpoczęciem badania. Mogła to być różnica w
poziomie motywacji tych osób do poszukiwania pracy i to ona mogła wpłynąć na wyższy
stopień zatrudnienia i większe zarobki.
Efekt doboru jest szczególnie istotny wtedy, gdy osoby badane same decydują, czy
wziąć udział w eksperymencie. W takich wypadkach bowiem badacz nie jest w stanie
stwierdzić, czy różnice pomiędzy grupą eksperymentalną i kontrolną zostały spowodowane
wyłącznie przez zmienną niezależną, czy też obserwowane efe-
5 Donald T. Campbell, Julian Stanley (1963), Experimental and Quasi-experimental
Designs for Research, Skokie, 111.: Rand MacNally, s. 3.
122
kty należy przypisać innym czynnikom związanym z procedurą selekcyjną. Spora
liczba programów społecznych jest dostępna dla wielu osób na zasadzie wolnego wyboru.
Dlatego też trudno ocenić skuteczność takich programów, między innymi ze względu na efekt
doboru. Czynniki związane z procedurą selekcji należy zatem kontrolować, zanim badacz
zdecyduje się je wyeliminować jako konkurencyjne wyjaśnienie. Dalej w tym rozdziale
omówimy metody kontrolowania czynników związanych z doborem do próby badawczej.
Czynniki związane z planem badawczym. Czynniki te obejmują te zmienne, które
pojawiły się w trakcie prowadzenia badania i mogły spowodować zmiany w badanych
osobach lub w obiektach oraz zmiany w narzędziu pomiarowym. Do czynników tych
zaliczamy również efekt oddziaływania samego badania. Poniżej przedstawiamy podstawowe
czynniki związane z planem eksperymentalnym, które mogą wpłynąć zakłócająco na trafność
interpretowania zależności przyczynowych na podstawie zebranych danych6.
1. Historia to zmienna dotycząca wszelkich zdarzeń zewnętrznych pojawiających się
w trakcie badania, które mogą wpłynąć na osoby badane i stworzyć podstawy
konkurencyjnego wyjaśnienia zmian wartości zmiennej zależnej. Na przykład w badaniu,
którego celem jest oszacowanie wpływu kampanii przedwyborczej na zachowania wyborcze,
można sformułować następującą hipotezę: informacje o kandydacie pojawiające się w czasie
kampanii mogą wpłynąć na sposób głosowania wyborców. Badanie polega na porównaniu
zamiarów wyborców przed ukazaniem się i po pojawieniu się takich informacji. Różnice w
przewidywanych głosach między dwiema grupami —jednej, której przedstawiono informacje
o kandydatach, i drugiej, która takich informacji nie miała — mogą być wynikiem
posiadanych informacji, ale również mogą być wynikiem wydarzeń, które nastąpiły w tym
czasie. Mogło na przykład dojść do konfliktu z rządem, mogły się pojawić kryzysy
międzynarodowe, mogła się zwiększyć stopa inflacji lub mogły zostać wprowadzone nowe
podatki. Im dłuższy czas upłynie między pomiarem początkowym a pomiarem końcowym,
tym większe prawdopodobieństwo, że przy formułowaniu alternatywnego wyjaśnienia
hipotezy badawczej powinny być uwzględnione wydarzenia inne niż zmienna niezależna.
2. Dojrzewanie obejmuje procesy biologiczne, psychologiczne lub społeczne, które
mogą — wraz z upływem czasu — przyczynić się do powstawania zmian w badanych
osobach lub obiektach. Zmiany te mogą wpłynąć na zmienną zależną i prowadzić do
błędnych wniosków. Przypuśćmy, że interesuje nas ocena wpływu określonej metody uczenia
na osiągnięcia uczniów. Rejestrujemy zatem ich osiągnięcia przed wprowadzeniem i po
wprowadzeniu tej metody. Jednakże w czasie pomiędzy pomiarem początkowym i pomiarem
końcowym uczniowie stali się starsi i być może mądrzejsi. Te zmiany zaś, nie związane z
metodą uczenia, mogą wyjaśniać różnice pomiędzy dwoma pomiarami. Dojrzewanie, tak jak
historia, stanowi zagrożenie dla trafności wnioskowania o charakterze przyczynowo-
skutkowym.
6 Ibidem.
123
3. Utrata osób badanych to czynnik opisujący problemy związane ze zmniejszeniem
próby, który powoduje, iż badacz nie jest w stanie zebrać kompletu danych dla wszystkich
badanych przypadków. Jeżeli osoby badane wypadają selektywnie z próby eksperymentalnej i
z próby kontrolnej, to końcowa próba osób, dla których zebrano wszystkie dane, może być
stronnicza. Jeżeli w badaniu wpływu środków masowego przekazu na uprzedzenia okaże się,
że większość osób, które wypadły. to osoby uprzedzone, to możemy stwierdzić, że media
zmniejszają uprzedzenia. W rzeczywistości jednak jest to efekt utraty osób badanych i to było
przyczyną sformułowanej opinii.
4. Instrumentacja opisuje zmiany w narzędziu pomiarowym w okresie między
pomiarem początkowym a pomiarem końcowym. Aby powiązać różnicę pomiędzy wynikami
w pomiarze początkowym i w pomiarze końcowym ze zmienną niezależną, należy wykazać,
że powtórny pomiar dokonany za pomocą identycznego narzędzia, w nie zmienionych
warunkach, dostarczy takich samych wyników. Jeżeli wyniki nie będą takie same, to
obserwowane różnice można przypisać zmianom w narzędziu pomiarowym, a nie jedynie
zmiennej niezależnej. Brak stabilności narzędzia pomiarowego, określanej też jako rzetelność,
może być zagrożeniem dla trafności badań eksperymentalnych (por. rozdział 7). Jeżeli na
przykład program zwiększania umiejętności poznawczych został oceniony przez porównanie
ocen psychologów wystawionych przed wdrożeniem programu i po jego zakończeniu, to
każda zmiana standardowego sposobu oceny stosowanego przez psychologów, która nastąpiła
w okresie badania, wpłynie stronniczo na wyniki.
5. Testowanie — możliwość uwrażliwienia przez pomiar jest podstawowym
problemem nauk społecznych. Innymi słowy, sam proces testowania może zmienić badane
zjawisko. Poddanie pomiarowi początkowemu może uwrażliwić osoby badane i zwiększyć
ich wyniki w pomiarze końcowym. Różnica pomiędzy wynikami w pomiarze początkowym i
w pomiarze końcowym może zatem zostać przypisana nie tyle zmiennej niezależnej, ile raczej
doświadczeniu zdobytemu przez osobę badaną w trakcie pomiaru początkowego. Wiadomo
na przykład, że osoby badane mogą poprawić swoje wyniki w testach inteligencji przez ich
częste rozwiązywanie. Podobnie osoby badane, które poddano pomiarowi początkowemu,
mogą się nauczyć odpowiedzi społecznie akceptowanych czy to przez zadawanie pytań, czy
przez omawianie odpowiedzi z przyjaciółmi. Następnie w fazie pomiaru końcowego mogą
one udzielać takich odpowiedzi, jakich się od nich oczekuje.
6. Niekorzystne zjawisko artefaktu regresji pojawia się wówczas, kiedy osoby badane
zostały przyporządkowane do grupy eksperymentalnej na podstawie skrajnie wysokich
wyników zmiennej zależnej, uzyskanych przez nie w pomiarze początkowym. Gdy się to
zdarzy i zebrane miary nie będą rzetelne, to osobom, które uzyskały wyniki poniżej średniej
w pomiarze początkowym, będzie się wydawało, że uzyskają lepsze wyniki w powtórnym
badaniu. I odwrotnie osoby, które uzyskały wyniki powyżej średniej w pomiarze
początkowym, będą — w powtórnym badaniu — wypadać gorzej. Wszyscy znamy ten
problem z własnego doświadczenia w wypełnianiu testów. Niektórzy z nas wypadali w
testach szkolnych poniżej własnych oczekiwań. Powodem były czynniki leżące poza naszą
kontrolą, nie mające

124
nic wspólnego z naszymi szkolnymi osiągnięciami. Tuż przed egzaminem testowym
mogła się nam na przykład przydarzyć bezsenna noc lub też inne ważne sprawy nie pozwalały
nam się skupić w trakcie egzaminu. Istnieje duże prawdopodobieństwo, że nie ucząc się
dodatkowo i rozwiązując ten test po raz drugi, wypadlibyśmy znacznie lepiej. Generalnie
rzecz biorąc, zjawisko artefaktu regresji jest czynnikiem zakłócającym trafność badania
wtedy, kiedy postępowanie eksperymentalne może spowodować zmianę wyników tych osób,
które w pomiarze początkowym zmiennej zależnej uzyskały skrajne wyniki.
I tak na przykład korpusy pracy są uważane za skuteczny program przeznaczony dla
nie uczącej się młodzieży z wadami fizycznymi. Program ten zapewnia nauczanie
wyrównawcze, kształcenie zawodowe oraz opiekę medyczną. Jeżeli jednak rekrutacja
kandydatów na kurs byłaby dokonywana na podstawie skrajnie niskich wyników uzyskanych
w nierzetelnym teście, to może się zdarzyć, że osoby te w powtórnym testowaniu uzyskają
znacznie lepsze wyniki, mimo że w ich wypadku program ten okazał się nieskuteczny. Jest to
możliwe dlatego, że uzyskane niskie wyniki nie mogły być już gorsze, a nierzetelny test
wykazał poprawę. Istnieje zatem ryzyko, że stwierdzona poprawa funkcjonowania zostanie
błędnie przypisana efektom oddziaływania programu.
7. Interakcje z selekcją. Wiele czynników związanych z planem badawczym,
wpływających zakłócająco na trafność wewnętrzną badań eksperymentalnych może wchodzić
w interakcję z czynnikiem selekcji i dodatkowo zmniejszać trafność badań
eksperymentalnych. Do najczęściej wymienianych czynników należą czynnik interakcji
selekcji z historią i dojrzewaniem.
Czynnik interakcji selekcji z historią wpływa zakłócająco na trafność planu wtedy,
gdy grupa eksperymentalna i grupa kontrolna zostały wybrane z różnych środowisk. Tym
samym środowisko może wpływać na sposób reagowania osób badanych w trakcie
postępowania eksperymentalnego. Przypuśćmy, że chcemy sprawdzić skuteczność
oddziaływania programu szkolenia pokazującego bezrobotnym, jak szukać pracy. Uczestnicy
tego programu (grupa eksperymentalna) zostali niestarannie dobrani. Pochodzili z rejonów, w
których zamknięto kilkanaście zakładów przemysłowych w momencie zakończenia
programu. W efekcie jego uczestnicy mieli ogromne trudności ze znalezieniem pracy. Mogło
się zatem wydawać, że program ten nie przyniósł żadnych skutków, a tymczasem to
interakcja czynnika selekcji ze specyficznymi warunkami ekonomicznymi w regionie, z
którego pochodziły osoby badane, była przyczyną takich wyników.
Interakcja czynnika selekcji z dojrzewaniem pojawia się wtedy, kiedy grupa
eksperymentalna i grupa kontrolna podlegają procesowi dojrzewania w różnym tempie.
Załóżmy, że w pomiarze początkowym i w pomiarze końcowym porównujemy ze sobą
rozwój poznawczy kobiet i mężczyzn. Może się okazać, że kobiety dojrzewają szybciej niż
mężczyźni i dlatego w pomiarze końcowym uzyskają lepsze wyniki.
Procedury kontroli
Czynniki związane z planem i pojawiające się poza planem, które wpływają
zakłócająco na trafność wewnętrzną wnioskowania o zależnościach przyczynowo-skut-
kowych, można kontrolować za pomocą różnych procedur. Naukowcy korzystają
125
z dwóch metod kontroli czynników zewnętrznych w stosunku do planu badawczego.
Po pierwsze, stosują dobór wiązany pozwalający kontrolować zmienne znane badaczowi
przed rozpoczęciem postępowania eksperymentalnego. Po drugie, stosują randomizację, która
pomaga wyrównać działanie czynników nie dających się z góry ustalić. Stosowanie grupy
kontrolnej pomaga z kolei wyrównać działanie czynników związanych z planem badawczym.
Dobór wiązany jest sposobem wyrównywania grupy eksperymentalnej i grupy
kontrolnej ze względu na czynniki nie związane z planem badawczym, o których można
założyć, że mają związek z hipotezą badawczą. W celu wyrównania grupy eksperymentalnej i
grupy kontrolnej można zastosować dwie metody: dopasowywanie dokładne i
dopasowywanie rozkładów częstości. Dopasowywanie dokładne (znane również jako
dopasowywanie parami) polega na przyporządkowywaniu każdej osobie z grupy
eksperymentalnej jednej osoby z grupy kontrolnej w taki sposób, aby posiadały one
identyczne wyróżnione cechy. Kontrolując na przykład efekt wieku, powinniśmy zapewnić,
aby każdej osobie wpadającej do określonego przedziału wiekowego w jednej grupie
odpowiadała osoba wpadająca do identycznego przedziału wiekowego w drugiej grupie, jak
przedstawiono to na rycinie 5.1. Dopasowując osoby badane ze względu na czynniki
zewnętrzne w stosunku do planu, badacz może wyciągać wnioski, że zmienne, ze względu na
które grupy zostały dopasowane, nie są przyczyną stwierdzanych różnic pomiędzy grupą
eksperymentalną i grupą kontrolną.
Główną wadą tej metody jest trudność w dopasowywaniu osób, gdy liczba czynników
jest duża. Jeżeli chcemy kontrolować wiek, płeć, rasę i wykształcenie, to dla każdego Azjaty,
mężczyzny w wieku 30 lat z wykształceniem wyższym w grupie eksperymentalnej musimy
znaleźć osobę o takiej samej kombinacji cech, która wejdzie do grupy kontrolnej. Dlatego też
w sytuacji, w której chcemy kontrolować wiele cech, trudno znaleźć dopasowane do siebie
pary. Badacze stosujący metodę dopasowania dokładnego często tracą około 90%
przypadków, dla których nie można znaleźć odpowiadającej im pary.
wiek osób z grupy eksperymentalnej
00 0
wiek osób z grupy kontrolnej
00 ©
0000 ©000
©n© © r, ©
(V) (m)
wiek 20-24 lata: 3 osoby wiek 20-24 lata: 3
osoby
wiek 25-29 lat: 2 osoby wiek 25-29 lat: 2
osoby
wiek 30-34 lata: 5 osób wiek 30-34 lata: 5
osób
Ryc. 5.1. Dopasowanie dokładne
126
Alternatywną i bardzo skuteczną metodą dopasowywania jest odwołanie się do
rozkładu częstości. Dzięki tej metodzie grupa eksperymentalna i grupa kontrolna są do siebie
podobne niezależnie pod względem każdej istotnej zmiennej, anie pod względem ich
określonej kombinacji. Dlatego też, zamiast dobierać osoby badane na zasadzie osoba do
osoby, dwie grupy dopasowuje się do siebie ze względu na podstawowe charakterystyki. I
tak, jeżeli interesuje nas dopasowanie ze względu na wiek, to średni wiek w jednej grupie
powinien odpowiadać średniej wieku w grupie drugiej. Jeżeli kontrolujemy płeć, to należy się
upewnić, że w obu grupach jest taka sama proporcja kobiet i mężczyzn. Jak pokazano na
rycinie 5.2, dwie grupy dopasowano do siebie niezależnie ze względu na każdą zmienną nie
związaną z planem. Chociaż dopasowanie ze względu na rozkład częstości jest mniej
precyzyjne, to bywa o wiele łatwiejsze do zrealizowania niż dopasowanie dokładne. Pozwala
też badaczowi kontrolować kilka czynników, bez niebezpieczeństwa utraty dużej liczby
przypadków.
Podstawowy problem związany ze stosowaniem metody dopasowywania jako formy
kontroli wynika z tego, że badacz zazwyczaj nie wie, które z wszystkich ważnych czynników
są najbardziej istotne z punktu widzenia wyjaśniania związku pomiędzy zmienną niezależną i
zmnienną zależną. Co więcej, badacz nigdy nie jest pewien, czy uwzględnił wszystkie istotne
czynniki.
Randomizacja. Dopasowywanie jest metodą pozwalającą kontrolować ograniczoną
liczbę wcześniej zdefiniowanych czynników zewnętrznych w stosunku do planu. Jeżeli
jednak możliwe byłoby wyeliminowanie efektów działania nawet wszystkich zdefiniowanych
czynników, to badacz i tak nigdy nie byłby pewien, czy udałoby mu się zidentyfikować
wszystkie czynniki. Te czynniki, których badacz nie byłby świadom, mogłyby się stać
powodem błędnych wniosków o zależnościach przyczy-nowo-skutkowych. Problem ten
można ominąć, stosując inną procedurę przyporządkowywania osób badanych do grupy
eksperymentalnej i grupy kontrolnej, a mianowicie procedurę randomizacji. Randomizację
można zrealizować, rzucając monetą,
wiek i płeć osób z grupy eksperymentalnej wieki i płeć
osób z grupy kontrolnej
© ® © © @ ©
©©©© ©©©©
©^© 0©®
przeciętny wiek 28,1 lat kobiety: 60% mężczyźni: 40% F — kobiety M —
mężczyźni przeciętny wiek 28,0 lat kobiety: 60% mężczyźni: 40%
Ryc. 5.2. Dopasowanie ze względu na rozkład częstości
127
posługując się tablicami liczb losowych czy wykorzystując jakąkolwiek inną metodę
gwarantującą, że każda osoba będzie miała jednakowe szanse znalezienia się w grupie
eksperymentalnej lub w grupie kontrolnej.
Przypuśćmy, że badacz chce sprawdzić hipotezę o tym, że udział pracowników w
procesie podejmowania decyzji dotyczących ich miejsca pracy wpływa na proces produkcji.
Pracownicy zostali podzieleni na grupę eksperymentalną i kontrolną. Osobom z grupy
eksperymentalnej umożliwiono udział w decyzjach dotyczących planu pracy i jej
organizowania. Poziom produkcji w obu grupach mierzono na początku i na końcu
eksperymentu. Celem badania było stwierdzenie, czy pracownicy, którzy uczestniczą w
procesie decyzyjnym, wytwarzają istotnie więcej w porównaniu z pracownikami z grupy
kontrolnej. Poziom produkcji jednakże jest wyznaczony licznymi czynnikami innymi niż
udział w procesie decyzyjnym, tj. innymi niż czynnik bezpośrednio włączony do badania.
Czynnikami wyjaśniającymi obserwowane różnice mogą być czynniki charakteryzujące
jednostkę, takie jak: wiek, sprawność fizyczna, inteligencja czy motywacja. Być może osoby
najbardziej wydajne to osoby o wysokiej motywacji, większej inteligencji, bardziej sprawne
fizycznie i młodsze. Brak kontrolowania sposobu przydzielania pracowników do grup może
spowodować, że do grupy eksperymentalnej zgłoszą się na ochotnika osoby spośród
młodszych pracowników, o największej motywacji, bardziej inteligentne i sprawne fizycznie.
A to może stanowić wyjaśnienie zwiększonego poziomu produkcji.
Jednym ze sposobów wykluczenia działania tych zmiennych jest dobór parami (por.
ryc. 5.1). Innym sposobem jest randomizacja, czyli losowy przydział pracowników do grupy
eksperymentalnej i kontrolnej, przeprowadzony za pomocą rzutu monetą lub tablicy liczb
losowych (por. dodatek D). Rzut monetą jest prostą metodą — wypadnięcie orła to
przydzielenie do jednej grupy, wypadnięcie reszki —do drugiej. Tablicą liczb losowych
można się natomiast posługiwać z wielu powodów i na wiele różnych sposobów — na stronie
209 opisujemy, w jaki sposób należy z takich tablic korzystać. Procedura randomizacji
zapewnia, że motywacja, inteligencja, sprawność fizyczna i przeciętny wiek będą
wykazywały podobne rozkłady w dwóch grupach. W efekcie każdą różnicę w poziomie
produkcji pomiędzy grupami będzie można wyjaśnić tym, że pracownicy z grupy
eksperymentalnej brali udział w procesie decyzyjnym. Innymi słowy, randomizacja znosi
efekty oddziały-wania stałego błędu spowodowanego czynnikami zewnętrznymi w stosunku
do planu eksperymentalnego, które mogą być powiązane albo ze zmienną zależną (poziom
produkcji), albo ze zmienną niezależną (udział w procesie decyzyjnym). Korzyści tej metody
polegają na tym, że pozwala ona na jednoczesną kontrolę wielu czynników nawet wtedy, gdy
badacz nie jest świadomy ich oddziaływania. Stosując tę metodę, badacz może wyrównać
grupę eksperymentalną i kontrolną pod kątem wszystkich wyjściowych różnic pomiędzy
nimi.
Grupa kontrolna. Tworząc grupę kontrolną, która nie jest poddawana oddziaływaniom
czynnika eksperymentalnego, badacze kontrolują czynniki związane z planem
eksperymentalnym. W sytuacji idealnej grupa eksperymentalna i grupa kontrolna powinny
zostać wybrane w sposób losowy lub dopasowane w taki sposób, aby obie miały dokładnie
takie same cechy charakterystyczne. Obie grupy są poddawane również identycznym
oddziaływaniom w trakcie eksperymentu, z wyjątkiem różnego oddziaływania zmiennej
niezależnej. W efekcie cechy sytuacji eksperymentalnej
128
czy zdarzenia zewnętrzne zachodzące w czasie trwania eksperymentu będą wpływać
w jednakowy sposób na obie grupy i nie będą mylnie utożsamiane z efektem oddziaływania
zmiennej niezależnej.
Tworząc grupę kontrolną, badacz kontroluje większość czynników związanych z
planem badawczym, które mogłyby wpłynąć zakłócająco na trafność eksperymentu. Czynnik
historii nie stanowi konkurencyjnej hipotezy, ponieważ te same wydarzenia zachodzące w
czasie eksperymentu wpływają zarówno na grupę eksperymentalną, jak i na grupę kontrolną.
Czynnik dojrzewania jest również neutralizowany, ponieważ obie grupy przechodzą te same
zmiany. Stworzenie grupy kontrolnej nie chroni jednak przed utratą osób badanych. Może
bowiem zdarzyć się tak, że z jednej grupy wypadnie więcej przypadków niż z drugiej, co
sprawi, że wyniki eksperymentu będą stronnicze. Procedurą dopuszczalną jest włączanie
przez badaczy do końcowej próby jedynie tych przypadków, dla których zebrano komplet
danych, dostarczenie informacji o liczbie utraconych osób badanych i omówienie
konsekwencji tego faktu. Stosowanie grupy kontrolnej pozwala badaczom również na
uniknięcie efektu oddziaływania zmian w narzędziu pomiarowym. Jeżeli zmiana wyników w
pomiarze początkowym i końcowym została spowodowana przez brak rzetelności narzędzia
pomiarowego, to ujawni się to w jednakowy sposób w obu grupach. Metoda ta jest jednakże
rozwiązaniem problemu zmian w narzędziu pomiarowym jedynie wtedy, kiedy warunki
testowania w obu grupach są identyczne. Posługiwanie się grupą kontrolną jest również
odpowiedzią na problem testowania. Ewentualny, uwrażliwiający wpływ procedury
pomiarowej dotyczy obu grup i nie jest przyczyną błędnych interpretacji.
Posługiwanie się grupą kontrolną jest również pomocne przy wyrównywaniu efektów
działania tych czynników, które wchodzą w interakcje z czynnikiem selekcji (np. selekcja-
dojrzewanie, selekcja-historia czy podobne interakcje), jednak jedynie wtedy, gdy badacz
stosuje również inne metody kontroli czynników zewnętrznych w stosunku do planu
eksperymentalnego, takie jak dobór wiązany czy rando-mizację. Metody te gwarantują, że
grupa, która zostanie potraktowana jako grupa kontrolna, będzie miała te same właściwości i
obie grupy będą obowiązywać identyczne warunki w trakcie eksperymentu.
Uogólnianie: trafność zewnętrzna
Trafność zewnętrzna stanowi zasadniczy problem w badaniach społecznych. Można
jednakże postawić inne istotne pytanie dotyczące zakresu, w jakim wyniki badań można
uogólniać na większe zbiorowości osób i przenosić na inne warunki społeczne czy polityczne.
Większość badań koncentruje się nie tylko na analizowaniu wpływu jednej zmiennej na drugą
w określonych warunkach, lecz także stawia pytanie o to, jakie jest to oddziaływanie w
innych warunkach społecznych i czy da sieje przenieść na większe zbiorowości osób.
Odpowiedź na to pytanie mieści się w pojęciu trafności zewnętrznej planu badawczego.
Podstawowymi zagadnieniami związanymi z trafnością zewnętrzną są problemy
reprezentatywności próby oraz uwrażliwiający wpływ warunków badania.
Reprezentatywność próby. Aby zapewnić trafność zewnętrzną badania, należy zadbać
o to, aby cechy charakteryzujące osoby badane odzwierciedlały cechy charakteryzujące
badaną populację. Chociaż procedura randomizacji gwarantuje trafność wewnętrzną planu
badawczego, to nie gwarantuje całkowicie, że badana próba bę-
129
dzie reprezentatywna dla interesującej badacza populacji. Może bowiem zdarzyć się
tak, że wyniki, które są wewnętrznie trafne, mogą być specyficzne dla określonej grupy osób,
które wzięły udział w badaniu. Taki efekt może się pojawić wtedy, kiedy mamy trudności z
doborem osób badanych. Rozważmy przykład badań eksperymentalnych prowadzonych na
grupie studentów college'u, dobrze zaplanowanych, jednak opartych na doborze ochotniczym.
Badacz nie może przyjąć, że ta grupa jest reprezentatywna dla całej populacji studentów. Aby
można było uogólnić wyniki poza ograniczony zakres konkretnego badania, badacz musi
starannie wybrać próbę, posługując się taką metodą doboru, która zapewnia
reprezentatywność. Metody oparte na rachunku prawdopodobieństwa, takie jak dobór losowy,
pozwalają dokonywać generalizacji na większe, wyraźnie zdefiniowane populacje (por.
rozdział 8). Od strony teoretycznej zarówno grupa eksperymentalna, jak i grupa kontrolna
powinny stanowić próbę wylosowaną z populacji. W praktyce jednakże tworzenie próby
losowej dla potrzeb eksperymentu napotyka trudności takie jak wysokie koszty i dużą liczbę
osób, które odmówiły współpracy.

Elementy klasycznego planu badawczego


¦ Porównywanie. Operacja, która pozwala określić, czy dwie zmienne współzmieniają
się (korelują ze sobą).
¦ Manipulowanie. Operacja, której celem jest kontrolowanie sposobu
przyporządkowywania do grupy badawczej po to, aby badacz mógł określić sekwencję
czasową zdarzeń i upewnić się, że zmiany wartości zmiennej niezależnej wyprzedziły zmiany
wartości zmiennej zależnej.
¦ Kontrolowanie. Operacja, która umożliwia badaczowi wyeliminowanie
konkurencyjnych wyjaśnień zmian wartości zmiennej zależnej. Badacze muszą w tym celu
kontrolować zarówno czynniki zewnętrzne w stosunku do planu badawczego, tj. czynniki
selekcji, jak i czynniki wewnętrzne, takie jak historia i dojrzewanie.
¦ Uogólnianie. Zakres, w jakim wyniki badań mogą zostać uogólnione na większe
zbiorowości osób i przeniesione na inne warunki społeczne czy polityczne.
Uwrażliwiający wpływ warunków badania. Problem zmniejszenia trafności
zewnętrznej powstaje wówczas, kiedy warunki eksperymentu lub sytuacja ekspery mentalna
nie odzwierciedlają rzeczywistych warunków czy sytuacji, na które badacz chciałby uogólnić
swoje wyniki. Kiedy badanie jest realizowane w sztucznych warunkach czy w wymyślonej
sytuacji (np. laboratoryjnej), to cechy tej sytuacji mogą wpłynąć na sposób reagowania osób
badanych. Dla przykładu przypomnijmy tu głośne badanie Muzafera Sherifa, którego celem
było zbadanie, w jaki sposób normy grupowe — wskazówki, jak się zachować — wpływają
na jednostkę znajdującą się w sytuacji, w której nie ma żadnych zewnętrznych punktów
odniesienia7.
7 Muzafer Sherif (1937), An Experimental Approach to the Study of Attitudes,
„Sociometry" 1, s. 90-98.
130
¦
Sherif eksperymentalnie stworzył sytuację pozbawioną zewnętrznych punktów
odniesienia, wykorzystując w tym celu efekt autokinetyczny, powstający wówczas, gdy w
całkowicie ciemnym pokoju pojawia się promień światła. Z powodu braku zewnętrznych
punktów odniesienia promień światła wydaje się chaotycznie przesuwać z miejsca na miejsce.
Sherif stwierdził, że na relacje uczestników dotyczące ruchów światła wpływały odpowiedzi
udzielane przez innych członków grupy. Można jednakże sądzić, że sytuacja
eksperymentalna, w której osoby badane znajdują się w ciemnym pokoju i udzielają
odpowiedzi na temat promieni świetlnych, nie przypomina codziennych sytuacji społecznych.
Dlatego też otrzymane wyniki mogą być po prostu specyficzne jedynie dla tej sztucznej
sytuacji.
Wiele innych czynników związanych z warunkami badania może oddziaływać
uwrażliwiająco i wpływać na trafność zewnętrzną badania. Pomiar początkowy może na
przykład wpływać na sposób, w jaki jednostka reaguje na bodźce eksperymentalne. Efekt tego
oddziaływania będzie zatem specyficzny dla populacji, która została poddana pomiarowi
początkowemu. Postawy czy zachowanie eksperymentatora mogą wpływać na sposób, w jaki
reaguje osoba badana ze względu na to, że osoby badane starają się reagować tak, jak
oczekuje eksperymentator. Jest to szczególnie ważne w badaniach sondażowych, w których
należy neutralnie formułować pytania, aby uniknąć sugerowania odpowiedzi (por. rozdział
11).
¦ Rodzaje planów badawczych
Plany badawcze można sklasyfikować w zależności od tego, w jakim zakresie
spełniają one wymienione dotąd kryteria. Niektóre z planów pozwalają badaczom na
manipulowanie zmiennymi, jednak nie umożliwiają stosowania metod kontroli czy
zastosowania adekwatnych metod doboru grup. Inne plany z kolei zawierają grupę kontrolną,
jednak nie pozwalają badaczowi na kontrolowanie zabiegu manipulowania zmienną
niezależną. Biorąc to pod uwagę, możemy wyróżnić cztery podstawę rodzaje planów
badawczych: eksperymentalny, quasi-eksperymentalny, przekrojowy i preeksperymentalny.
W planach eksperymentalnych osoby czy inne badane obiekty są losowo
przyporządkowywane do grupy eksperymentalnej i grupy kontrolnej, a zmienna niezależna
oddziałuje jedynie w grupie eksperymentalnej. Plany te umożliwiają porównywanie,
kontrolowanie, manipulowanie i zazwyczaj uogólnianie. Plany quasi-eksperymentalne i
przekrojowe mają kilka — choć nie wszystkie — z wymienionych cech. Najczęściej plany te
nie spełniają wymogu manipulacji i randomizacji. Plany preeksperymentalne zawierają
jeszcze mniej zabiezpie-czeń niż plany quasi-eksperymentalne oraz przekrojowe i w tym
sensie są najmniej wiarygodne w procesie stwierdzania zależności przyczynowo-skutkowych
między dwiema lub więcej zmiennymi. W rozdziale tym prezentujemy najczęściej stosowane
plany eksperymentalne. Plany preeksperymentalne, quasi-eksperymentalne oraz przekrojowe
przedstawimy w rozdziale 6.
Eksperyment kontrolowany
Klasyczny plan eksperymentalny przedstawiony w tabeli 5.1 jest jednym z
najsilniejszych modeli logicznych pozwalających na dokonywanie wnioskowania o cha-
131
rakterze przyczynowo-skutkowym. Plan ten pozwala przeprowadzić pomiar
początkowy, pomiar końcowy oraz porównać grupę kontrolną z grupą eksperymentalną.
Umożliwia też manipulowanie zmienną niezależną i — w konsekwencji — określenie
następstwa czasowego. Co więcej, dzięki wykorzystywaniu grup, które zostały losowo
dobrane, plan ten umożliwia kontrolowanie większości źródeł trafności wewnętrznej.
Trafność zewnętrzna tego planu jest jednak mała i nie pozwala badaczom na uogólnianie
zebranych wyników na inne — niż badana — populacje. W tym względzie lepsze są dwie
odmiany planu klasycznego: czterogrupowy plan Solomona i plan z grupą kontrolną i tylko
pomiarem końcowym.
Czterogrupowy plan Solomona
Pomiar początkowy przeprowadzany w warunkach eksperymentalnych ma zarówno
swoje zalety, jak i wady. Mimo że pomiar początkowy stwarza podstawy i do oceny
sekwencji czasowych, i dokonania operacji porównywania, to uwrażliwiający efekt jego
działania jest niebagatelny. Uwrażliwiając wylosowaną zbiorowość, pomiar początkowy
może bowiem wpłynąć na pomiar końcowy. I tak na przykład dokonanie pomiaru postaw
społecznych w stosunku do polityki rządu, zanim zostanie ona wdrożona, może — w
porównaniu z grupą bez pomiaru początkowego — wpłynąć uwrażliwiająco na zachowania
osób badanych w pomiarze końcowym. Jest to możliwe dlatego, że pomiar początkowy może
spowodować, iż osoby badane zaczną się zastanawiać i analizować możliwe konsekwencje
wdrożenia tej polityki. Co więcej, w wielu wypadkach przeprowadzenie pomiaru
początkowego może się okazać nierealne. Tak się dzieje na przykład w szkolnictwie, gdzie
bardzo często przeprowadza się eksperymenty dotyczące nowych metod nauczania. W takiej
sy- j tuacji pomiar początkowy nie jest oczywiście możliwy.
Czterogrupowy plan Solomona przedstawiony w tabeli 5.2 ma takie same cechy! jak
plan klasyczny oraz dodatkowo wprowadza grupę eksperymentalną i grupę kontrolną bez
pomiaru początkowego. Dlatego też poprzez porównanie ze sobą dwóch grup
eksperymentalnych (02 i 05) oraz dwóch grup kontrolnych (Oą i ć>6) pozwala na bezpośredni
pomiar uwrażliwiającego efektu testowania. Dzięki przeprowadzeniu takich porównań
możemy ocenić, czy zmienna X oddziałuje inaczej w grupach, w których nie przeprowadzono
uwrażliwiającego pomiaru początkowego. Jeżeli się okaże, że zmienna niezależna wywiera
wpływ na zmienną zależną również wtedy, kiedy nie dokonano pomiaru początkowego, to
otrzymane wyniki można uogólniać I na populację, w której przed zadziałaniem zmiennej X
nie dokonano wcześniejszego pomiaru. Według Campbella i Stanleya:
nie tylko zwiększa on możliwość uogólniania wyników, ale również pozwalał ocenić
efekt oddziaływania zmiennej X na cztery różne sposoby: 02 > 0{M 02 > Oą, 05 > 06 i Ot >
03. Występujący realnie brak stałości warunków po-1 stępowania eksperymentalnego
sprawia, że otrzymanie zgodnych wyników tych porównań gwarantuje większą pewność
naszego wnioskowania8.
8 Campbell, Stanley, Experimental and Quasi-experimental Designs, s. 25.
132
Tabela 5.2. Czterogrupowy plan Solomona
Pomiar początkowy Pomiar końcowy
R O, X 02
R O, 04
R X Os
R 06
Przykład: „Wyprzedawanie Pentagonu". Ciekawego przykładu zastosowania planu
czterogrupowego dostarczają badania dotyczące wpływu programów telewizyjnych na
politykę9. We wczesnych latach sześćdziesiątych większość specjalistów z dziedziny nauk
politycznych była mocno przywiązana do teorii, zgodnie z którą telewizja i inne mass media
wywierają minimalny wpływ i generalnie są spostrzegane jako środki nie mające większego
znaczenia. Stanowisko to zaczęło się zmieniać pod koniec dekady, kiedy w trakcie wojny w
Wietnamie i demonstracji studenckich dziennikarstwo telewizyjne znalazło się w centrum
zainteresowania opinii publicznej. W swoich badaniach Robinson poszukiwał związku
pomiędzy programami informacyjnymi produkowanymi przez duże sieci telewizyjne a
polityką. Postawił on, między innymi, takie pytania: Czy wiadomości telewizyjne wpływają
na etos prowadzonej przez państwo polityki? Czy podsycają one postawę cynizmu i uczucie
bezradności? Czy mają wpływ na wybory?
Robinson wykorzystał czterogrupowy plan Solomona, aby sprawdzić, 'jaki wpływ
wywarł wyprodukowany przez sieć CBS film dokumentalny The Selling of the Pentagon
(„Wyprzedawanie Pentagonu") na opinie ludzi dotyczące wojska, administracji i mediów. (W
rzeczywistości Robinson przeprowadził dwa zestawy eksperymentów — w pierwszym badał
efekty oddziaływania programu telewizyjnego, w drugim zaś analizował oddziaływanie
komentarza przedstawionego na końcu programu. Tu przedstawimy jedynie badania z
pierwszej grupy).
Aby sprawdzić efekt oddziaływania programu telewizyjnego, wykorzystano plan
badawczy z dwiema grupami eksperymentalnymi i dwiema grupami kontrolnymi. Pomiar
początkowy przeprowadzono w stosunku do niektórych (nie wszystkich) uczestników
badania. W grupach eksperymentalnych dokonano pomiaru końcowego natychmiast po
zakończeniu emisji filmu. W grupach kontrolnych natomiast, tuż przed emisją
przeprowadzono badanie wstępne. Kolejne badanie przeprowadzono we wszystkich grupach
dwa miesiące później. Otrzymane wyniki przedstawiono w tabeli 5.3. Pomiar początkowy i
pomiar końcowy polegały na wypełnieniu kwestionariusza dotyczącego opinii i stopnia
zaufania w stosunku do: instytucji społecznych i politycznych, urzędników państwowych,
osób prywatnych i organizacji skupiających media. Kwestionariusz zastosowany w drugim
badaniu dotyczył tych samych tematów, był jednak nieco krótszy.
'Michael J. Robinson (1976), Public Affairs Television and the Growth of Political
Malaise: The Case of"The Selling of the Pentagon", „American Political Science Review", 70,
s. 409-432.
133
Tabela 5.3. Eksperyment „Wyprzedawanie Pentagonu"
Pomiar początkowy Rodzaj Pomiar końcowy Kolejne
badanie
(listopad 1971) działania (grud zień 1971) (luty 1972)
Grupa A tak program tak tak
Grupa B nie program tak tak
Grupa C tak kontrola tak tak
Grupa D nie kontrola tak tak
Na podstawie: Michael J. Robinson (1976). Public Affairs Television and the Growth
of Political Malaise: The Case of "The Selling of the Pentagon", „American Political Science
Review", 70, s. 412.
Analiza wyników tego eksperymentu pozwala lepiej zrozumieć praktyczną! stronę
badań społecznych. Robinson wybrał początkowo plan Solomona, ponieważ I zapewnia on
skuteczny sposób kontrolowania wszystkich potencjalnych czynni-1 ków, które mogłyby być
źródłem alternatywnych wyjaśnień otrzymanych wyni-1 ków. Wprowadzenie grupy
eksperymentalnej oraz grupy kontrolnej bez pomiani I początkowego stworzyło jednak wiele
problemów. Okazało się, że osoby z grupy I B i grupy D, które nie przeszły przez etap
pomiaru początkowego, zdecydowanie I mniej chętnie zgadzały się na udział w badaniach
kwestionariuszowych w porów-1 naniu z osobami, które już wypełniały ten kwestionariusz.
Spowodowało to tak du- I żą utratę osób badanych w tych dwóch grupach, że w analizie
wyników badacze I mogli wykorzystać jedynie grupy z pomiarem początkowym.
Uzyskane wyniki potwierdziły, że film dokumentalny The Selling ofthePeml tagon
zmienił opinie ludzi o funkcjonowaniu amerykańskiego wojska na mniej pozytywne. Osoby z
grup eksperymentalnych spostrzegały wojsko jako chętniej an-1 gazujące się w sprawy
polityczne i chętniej poszukujące określonych korzyści politycznych, niż były skłonne
wcześniej przypuszczać. W grupie kontrolnej natomiast I nie odnotowano istotnych zmian w
żadnej ze spraw. Wywołana eksperymentalnie I zmiana opinii jest tu bardzo ważna, ponieważ
zmieniła ona postawy osób badanych I na „mniej lojalne", tj. spowodowała, iż uznały one, że
polityka rządu jest zła.
Plan badawczy z grupą kontrolną i tylko pomiarem końcowym (posttestem)
Chociaż czterogrupowy plan Solomona jest mocnym planem eksperymentalnym, to I
jego stosowanie okazuje się często niepraktyczne i zbyt kosztowne. Może się też I okazać, że
wymagany w nim pomiar początkowy działa uwrażliwiająco*. Plan ba-1 dawczy z grupą
kontrolną i tylko z pomiarem końcowym jest odmianą zarówno I planu klasycznego, jak i
planu Solomona. W planie tym w ogóle rezygnuje się z po-1 miaru początkowego. W tabeli
5.4 przedstawiono schemat takiego planu. Jakwi-1 dać, plan ten składa się z identycznych
grup jak dwie ostatnie grupy w planie So-1 lomona, w których nie przeprowadza się pomiaru
początkowego. Osoby badane zo I stają losowo przyporządkowane zarówno do grupy
eksperymentalnej, jak i do kona
* Posługiwanie się planem Solomona oraz złożoną analizą statystyczną uzyskanych
wyników, taką jak analiza konwergencji, daje najlepszą ocenę efektu ewentualnego
uwrażliwiającego wpływu pomiaru początkowego (pretestu) na zmienną zależną (wyniku
pomiaru końcowego). W sytuacjach wa pliwych badacz zawsze powinien odwoływać się do
planu Solomona (przyp. red. nauk.).

trolnej, a pomiaru dokonuje się w trakcie lub po zakończeniu oddziaływania zmiennej


niezależnej.
Tabela 5.4. Plan badawczy z grupą kontrolną i tylko z pomiarem końcowym
Pomiar końcowy
R X O,
R 02
Przypuśćmy, że przeprowadzając badanie dotyczące wpływu pogadanek oświatowych
na zmianę postaw ludzi wobec wirusa AIDS, badacz losowo przyporządkowuje osoby badane
do dwóch grup. Jedna grupa bierze udział w czterogodzinnej prelekcji na temat AIDS.
Następnie w obu grupach przeprowadza się wywiad i porównuje uzyskane odpowiedzi.
Przedmiotem porównania są postawy dotyczące bezpiecznego seksu w grupie
eksperymentalnej i kontrolnej. Jeżeli różnica między postawami okaże się istotna, to można
przyjąć, że pogadanka wpłynęła na zmianę postaw. Dzięki temu, że osoby badane zostały
losowo przyporządkowane do grup badawczych, badacz może wyprowadzać wnioski
dotyczące porządku czasowego. Procedura ta eliminuje bowiem wszelkie początkowe różnice
pomiędzy grupami, co pozwala na wyciągnięcie wniosku, że przyczyną zaobserwowanej
różnicy postaw jest wysłuchana prelekcja.
Plan z grupą kontrolną i pomiarem końcowym umożliwia kontrolowanie wszystkich
źródeł braku trafności związanych z planem badawczym. Ponieważ pomiar początkowy tu nie
występuje, dlatego też testowanie i instrumentacja nie mogą wpływać na obniżenie trafności
planu. Pozostałe czynniki związane z planem (wewnętrzne) są w pełni kontrolowane,
ponieważ na obie grupy wpływają takie same zdarzenia zewnętrzne i obie podlegają takiemu
samemu procesowi dojrzewania. Ponadto czynnik selekcji, który jest zewnętrzny w stosunku
do planu badawczego —dzięki losowemu przyporządkowaniu osób badanych do grup
badawczych — także podlega tu kontroli, co przeciwdziała powstawaniu początkowych
różnic między grupami.
Plany eksperymentalne umożliwiające badanie skutków rozciqgniętych w czasie
We wszystkich schematach eksperymentalnych, które opisaliśmy do tej pory, efekt
oddziaływania zmiennej niezależne/ na zmienną rsieżną można bykr zarejestrować
natychmiast lub krótko po zakończeniu badania. Czasami jednak efekt ten może się pojawiać
znacznie później i może być rozciągnięty w czasie. Szczególnie wyraźnie uwidacznia się to w
badaniach dotyczących polityki i w badaniach, w których zmienną zależną są postawy.
Załóżmy, że chcielibyśmy zbadać, jak płeć i rasa wpływają na proces integracji w
szkołach i wpływ tego procesu na zjawisko rasizmu i seksizmu wśród uczniów. Jest mało
prawdopodobne, aby efekt wprowadzonego w szkole programu integracji ujawni! się
natychmiast i dlatego rejestrowanie ewentualnych zmian postaw musi zostać rozciągnięte w
czasie. W podobnej sytuacji znajdziemy się również wówczas, kiedy będziemy chcieli
zbadać, jaki wpływ może wywrzeć ograniczenie pra-
135
wa do aborcji na prawybory kandydatów. W tym wypadku badacz będzie
zainteresowany sprawdzeniem i określeniem warunków, w jakich ludzie zmieniają swoje
zachowania wyborcze w odpowiedzi na bardziej restryktywną politykę dotyczącą aborcji.
Zmian tych jednakże nie można oczekiwać natychmiast, zatem oszacowanie zmian w
sposobie głosowania będzie możliwe znacznie później.
Jednym z rozwiązań problemu opóźnionego efektu badania może być wprowadzenie
dodatkowych sesji pomiaru końcowego, np. po sześciu miesiącach lub po roku. Kiedy
badanie jest przeprowadzane na przykład w szkole, wprowadzenie dodatkowych sesji
pomiaru końcowego jest wygodnym rozwiązaniem, zwłaszcza że dzieci chodzą do szkoły i
zebranie ich nie nastręcza żadnych kłopotów. Jednakże — o czym pisali Campbell i Stanley
— trzeba pamiętać, że:
przeprowadzanie kolejnych pomiarów końcowych przez badacza sprawia, że
powtarzanie pomiarów u tych samych osób może, analogicznie jak pomiar początkowy,
wpływać zakłócająco na trafność planu. Dlatego też lepszym rozwiązaniem jest tworzenie
zestawów grup eksperymentalnych i kontrolnych dla każdego kolejnego pomiaru końcowego
oddalonego w czasie10.
Przykład takiego planu przedstawiliśmy w tabeli 5.5.
Tabela 5.5. Plan eksperymentalny do badania efektu eksperymentalnego przesuniętego
w czasie
Pomiar początkowy Pomiar końcowy Pomiar końcowy
R o, X o2
R o3 o4
R o, X o6
R o7 o,
Taką sama metodę podwajania grupy eksperymentalnej można również zastosować i
w innych planach badawczych.
Plany czynnikowe
We wszystkich planach badawczych, które omówiliśmy dotychczas, występowała
tylko jedna zmienna niezależna (postępowanie eksperymentalne), która oddziaływała w
grupie eksperymentalniej i nie oddziaływała w grupie kontrolnej. Zmienną niezależną była na
przykład pogadanka oświatowa, film czy polityka społeczna i w każdym z tych przykładów
badano efekt oddziaływania tylko jednej zmiennej. Czasami jednak badacze mogą uzyskać
więcej informacji, badając efekt jednoczesnego oddziaływania dwóch lub więcej zmiennych
niezależnych. Z badań nad funkcjonowaniem instytucji wynika, że wielkość instytucji jest
powiązana z morale jej pracowników. Duże instytucje mają tendencję do stawiania swoich
pracowników w sytuacjach stresowych i wpływają na obniżanie morale. Chociaż wielkość
instytucji jest ważnym czynnikiem wpływającym na morale jej pracowników, to jednak
10 Campbell, Stanley, Experimental and Quasi-eksperymental Designs, s. 32.
136

badacz nie może analizować jej niezależnie od innych zmiennych związanych z


funkcjonowaniem instytucji. Duże instytucje mogą się różnić strukturą — niektóre
minimalizują negatywny efekt wielkości poprzez wprowadzanie decentralizacji. Badanie
efektu więcej niż jednej zmiennej niezależnej wymaga dużej liczby grup eksperymentalnych i
wprowadzenia planu czynnikowego*. Przypuśćmy, że zmiennymi niezależnymi będą dla nas
wielkość instytucji i stopień decentralizacji, a morale pracowników będzie zmienną zależną.
Jeżeli każda ze zmiennych niezależnych będzie przyjmować jedynie dwie wartości (zmienne
dychotomiczne), to do zbadania wszystkich kombinacji wartości tych zmiennych potrzebne
będą cztery grupy eksperymentalne. Kombinacje te przedstawiliśmy w tabeli 5.6.
Tabela 5.6. Możliwe kombinacje zmiennych w planie dwuzmiennowym
Wielkość
Duża Mata
1 2
3 4
Możliwe są następujące kombinacje: (1) instytucja duża i wysoka decentralizacja, (2)
instytucja mała i wysoka decentralizacja, (3) instytucja duża i niska decentralizacja oraz (4)
instytucja mała i niska decentralizacja. W wypadku tego problemu można zastosować każdy z
planów omówionych wcześniej. Na przykład w tabeli 5.7 przedstawiono plan z grupą
kontrolną i pomiarem końcowym. W tabeli tej X, doX4 oznaczają cztery możliwe kombinacje
z tabeli 5.6, a O, do Oą to końcowe pomiary morale. Osoby badane zostały oczywiście
losowo przyporządkowane do czterech grup badawczych.
Tabela 5.7. Plan czynnikowy zastosowany do badania wpływu wielkości instytucji i
stopnia decentralizacji na morale pracowników
Pomiar końcowy
R *i fi,
R *2 Q2
R *3 fi3
R *4 G4
Trafność zewnętrzna planów czynnikowych. Podstawową zaletą korzystania
* Plany czynnikowe (o dowolnej liczbie czynników dwu- i więcej wartościowych)
wymagają odwołania się do statystycznego modelu analizy wariancji (ANOVA). Por.
Brzeziński J., Stachowski R. (1984), Zastosowanie analizy wariancji w eksperymentalnych
badaniach psychologicznych, wyd. 2, Warszawa: PWN.
137
z planów czynnikowych jest możliwość rozszerzenia zakresu generalizowania
wyników. Zamiast „kontrolowania wszystkiego", jak to było w planach jednozmien-nowych,
badacz może wprowadzić dodatkowe, istotne z punktu widzenia badania, zmienne. Każda z
nich może mieć dwie lub więcej wartości. Dzięki temu badacz, uogólniając wyniki badań, nie
jest ograniczony tylko do jednego, stałego poziomu I każdej z tych zmiennych. Badacz może
wyprowadzać wnioski o tym, że badany I efekt (morale) wystąpi na wszystkich poziomach
danej zmiennej lub że efekt ten I jest różny na różnych poziomach tej czy innej zmiennej.
Duże, wysoko zdecentra- I lizowane firmy mogą kształtować morale pracowników w
podobny sposób, jak czy-1 nią to małe firmy o niskim stopniu decentralizacji. Decentralizacja
może się w sposób istotny przyczyniać do poprawy morale pracowników w dużych firmach,
jed- I nak bywa, że nie przynosi żadnych efektów w firmach małych. Plany czynnikowe I
zwiększają trafność zewnętrzną eksperymentów, albowiem — jak stwierdził Ro- I nald A.
Fisher:
Każdy wniosek [...] ma mocniejsze podstawy indukcyjne, jeżeli został wypro- I
wadzony na podstawie eksperymentu, w którym użyto zróżnicowanej liczby I składników niż
w eksperymencie, w którym składniki te są utrzymywane na I stałym poziomie. Dokładna
standaryzacja warunków badania, która często jest I nierozważnie zalecana jako panaceum,
zawsze ma wadę polegającą na tym, żel wysoko standaryzowany eksperyment pozwala na
wyciąganie bezpośrednich ¦ wniosków tylko w stosunku do wąskiego zakresu warunków
określonych ¦ w procesie standaryzacji. Dlatego też standaryzacja osłabia raczej, niż
wzmacnia podstawy naszego wnioskowania o występowaniu podobnych rezultatów wtedy,
kiedy — zazwyczaj w praktyce — warunki są nieco bardziej zróżnico-J wane".
Efekty interakcji w planach czynnikowych. Zaletą planów czynnikowych jest
możliwość dokonywania systematycznych ocen interakcji dwóch (lub więcej) zmiennych
niezależnych. Zmienne pozostają ze sobą w interakcji, jeżeli wpływ jednej zmiennej
niezależnej na zmienną zależną zależy od wartości drugiej zmiennej niezależnej.
Jeżeli duże instytucje przyczyniają się do niskiego morale jej pracowników jedynie w
przypadku instytucji o niskim stopniu decentralizacji, to możemy przyjąć, że wielkość
organizacji i decentralizacja wchodzą ze sobą w interakcję. I na odwrót, jeżeli się okaże, że
im większa wielkość organizacji, tym mniejsze jest morale jej członków — bez względu na
to, czy organizacja jest mniej lub bardziej zdecen- I tralizowana — to wpływ wielkości
organizacji na morale nie zależy od decentrali- I zacji i te dwie zmienne nie wchodzą ze sobą
w interakcję. Testowanie stopnia inter-1 akcji pozwala znacznie lepiej zrozumieć, jak
zmienna niezależna wpływa na zmień- I ną zależną. Dzięki temu możemy wyraźniej
formułować wnioski o wpływie jednej i zmiennej na drugą, ponieważ badamy jednoczesne
działanie dwóch zmiennych nie-1 zależnych.
" Ronald A. Fisher (1971), The Design of Experiments, wyd. 8, New York: Hafner
Press. s. 106.
138

¦ Podsumowanie
1. Plan badawczy to program sterujący badaczem w procesie zbierania, analizowania i
interpretowania wyników. Umożliwia on wyciąganie wniosków przyczy-nowo-skutkowych i
określa zakres możliwych generalizacji.
2. Klasyczny plan badawczy zakłada cztery operacje: porównywanie, manipulowanie,
kontrolowanie i uogólnianie. Porównywanie to operacja pozwalająca badaczowi
zademonstrować, że zmienna niezależna i zmienna zależna są ze sobą powiązane.
Manipulowanie związane jest z określonymi formami kontroli dotyczącymi zainicjowania
działania zmiennej niezależnej, co pozwala badaczowi na określenie czasowego
uporządkowania zmiennych. Operacja kontrolowania pozwala badaczowi na wyeliminowanie
innych czynników, które mogłyby dostarczyć podstaw alternatywnego wyjaśnienia związku
stwierdzonego pomiędzy zmienną niezależną i zmienną zależną. Czwarta operacja,
uogólnianie, pozwala na uogólnienie zebranych wyników na rzeczywiste warunki lub
populacje, które są przez badacza analizowane.
3. Proces kontrolowania jest związany z trafnością wewnętrzną planu
eksperymentalnego. Aby zapewnić trafność wewnętrzną, badacz musi wyeliminować
konkurencyjne wyjaśnienia przyczyn zmian wartości zmiennej zależnej. Czynniki zakłócające
trafność wewnętrzną mogą mieć charakter wewnętrzny lub zewnętrzny w stosunku do
operacji eksperymentalnej. Czynniki zewnętrzne nazywane są czynnikami selekcji. Powodują
stronniczość wynikającą z niejednakowej rekrutacji osób badanych do grupy
eksperymentalnej i grupy kontrolnej. Czynniki związane z planem eksperymentalnym
(wewnętrzne) to: historia, dojrzewanie, utrata osób badanych, instrumentacja, testowanie,
zjawisko artefaktu regresji i czynniki, które wchodzą w interakcję z czynnikiem selekcji
spowodowanym różnym przyporządkowaniem osób badanych do grupy eksperymentalnej i
grupy kontrolnej.
4. Aby przeciwdziałać efektom działania czynników zewnętrznych w stosunku do
planu, stosuje się dwie metody kontroli. Dobór wiązany pozwala badaczom na kontrolowanie
zmiennych, które są im znane przed rozpoczęciem operacji badawczej, a randomizacja
umożliwia wyrównanie efektów działania zarówno czynników przewidywalnych, jak i
nieprzewidywalnych. Czynniki zewnętrzne w stosunku do planu są kontrolowane przez
wprowadzenie grupy kontrolnej.
5. Uogólnianie jest związane z problemem trafności zewnętrznej planu
eksperymentalnego. Dotyczy ono zakresu, w jakim wyniki badań można przenosić na większe
populacje i inne warunki.
6. Plany badań eksperymentalnych są najsilniejszymi modelami logicznego
wnioskowania, ponieważ umożliwiają manipulowanie zmiennymi niezależnymi i stwarzają
warunki maksymalnego kontrolowania czynników zewnętrznych i wewnętrznych w stosunku
do planu. Dwie odmiany planu klasycznego to: czterogru-powy plan Solomona i plan z grupą
kontrolną i tylko z pomiarem końcowym. Inne plany pozwalają na badanie skutków
rozciągniętych w czasie, a plany czynnikowe umożliwiają badaczom analizowanie skutków
więcej niż jednej zmiennej niezależnej. Korzyści planów czynnikowych wynikają stąd, że
zwiększają one trafność zewnętrzną badania i pozwalają badaczowi na ocenę interakcji
pomiędzy zmiennymi niezależnymi.
139
¦ Podstawowe terminy
czynniki poza planem 122
czynniki związane z planem 123
dobór wiązany 126
dojrzewanie 123
grupa eksperymentalna 116
grupa kontrolna 116, 128
historia 123
instrumentacja 124
klasyczny plan eksperymentalny 116
kontrolowanie 122
kowariancja 119
¦ Pytania sprawdzajqce
1. Opisz elementy klasycznego planu badawczego.
2. Jakie są różnice pomiędzy zewnętrzną a wewnętrzną trafnością planu badawczego?
3. Jakie operacje są zaangażowane w procesie stwierdzania przyczynowości?
4. Wymień i opisz różne metody kontrolowania możliwych zakłóceń trafności
wewnętrznej planu badawczego.
5. Jakie są trzy najważniejsze odmiany klasycznego planu badawczego? Podaj ich
zalety i wady.
¦ Literatura dodatkowa
Brzeziński J. (1997), Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd.
Nauk. PWN.
Karpiński J. (1994), Przyczynowość w badaniach socjologicznych, Warszawa: PWN.
Mayntz R., Holm K., Hubner P. (1985), Wprowadzenie do metod socjologii
empirycznej, Warszawa:
PWN. Nowak S. (1985), Metodologia badań społecznych, Warszawa: PWN. Sułek A.
(1979), Eksperyment w badaniach społecznych, Warszawa: PWN.
manipulowanie 121 plan badawczy 114 plan czynnikowy 137 pomiar końcowy 116
pomiar początkowy 116 porównywanie 121 randomizacja 127 trafność wewnętrzna 122
trafność zewnętrzna 129 utrata osób badanych 124 zjawisko artefaktu regresji 124
Rozdział 6
Plany badawcze: plany badań przekrojowych i plany quasi-eksperymentalne
Rodzaje zmiennych i plany badawcze 143 Plany przekrojowe 145
Plany quasi-eksperymentalne 147
Plany z grupami kontrastowymi 147
Plany z zaplanowanym zróżnicowaniem 150
Badania panelowe i szeregi czasowe 153
Plany szeregów czasowych z grupą kontrolną 158
Plany łączone 159
Plany preeksperymentalne 162
Jednorazowa analiza przypadku 162
Porównanie planów badawczych 164 Podsumowanie 166 Podstawowe terminy
167 Pytania sprawdzające 167 Literatura dodatkowa 167
Czy mężczyźni są lepszymi lekarzami niż kobiety? Zdaniem badaczy jest tak, jeżeli I
przyjmiemy, że wyniki egzaminu państwowego z medycyny są trafnym wskaźnikiem I
sukcesu w uprawianiu zawodu lekarza1. Egzamin ten, zdawany przez studentów w USA dwa
lata przed uzyskaniem dyplomu, składa się z 900 do 1000 pytań dotyczących siedmiu różnych
przedmiotów, istotnych z punktu widzenia wiedzy lekarza. Ponieważ wyniki tego egzaminu
odgrywają ważną rolę w przyszłej I karierze studentów i są warunkiem uzyskania miejsca
rezydenta w szpitalu, dlatego test ten powinien być zarówno trafny, jak i niestronniczy. Aby
sprawdzić, czy tak jest, badacze — w czerwcu 1986, 1987 i 1988 roku — podzielili
wszystkich studentów rozwiązujących test według rasy i pochodzenia etnicznego. Ponieważ
nie można było tu manipulować zmienną niezależną — płcią, rasą czy pochodzeniem
etnicznym — nie można było również zastosować planu eksperymentalnego, aby
odpowiedzieć na postawione pytania. Dlatego też badacze przeprowadzili badania
przekrojowe i stwierdzili, że średnie wyniki białych studentów były wyższe od średnich
wyników studentów pochodzenia azjatyckiego, hiszpańskiego i murzyńskiego. We
wszystkich grupach kobiety uzyskiwały wyniki niższe niż mężczyźni. Ponieważ przez
ostatnie dwadzieścia lat szkoły medyczne preferowały przyjmowanie kobiet oraz
przedstawicieli mniejszości narodowych i w niektórych przypadkach obniżały nawet kryteria
przyjęcia dla osób z tych grup, dlatego też sprawdzono, jakie było przygotowanie studentów
do studiów medycznych. Stwierdzono, że wcześniejsze doświadczenia i sukcesy akademickie
wyjaśniają dużą część zróżnicowania wyników pomiędzy studentami białymi a studentami
pochodzenia hiszpańskiego i murzyńskiego, ale nie wyjaśniają niższych wyników u Azjatów i
kobiet.
Zdaniem autorów przyczyną tego, że na egzaminie Azjaci wypadają gorzej, niż można
by oczekiwać, mogą być różnice kulturowe. Twierdzą również, że wykładowcy nie motywują
kobiet do osiągania wysokich wyników w dziedzinach mierzonych przez test. Wyniki
otrzymane w tym badaniu pozwoliły zarówno na przygotowanie dodatkowych miar
posiadanej wiedzy po to, aby lepiej przygotowywać studentów mniejszości narodowych do
egzaminu państwowego, jak i na zaproponowanie dalszych badań sprawdzających, czy na
podstawie wyników egzaminu można dokonywać trafnych prognoz co do jakości pracy w
zawodzie lekarza.
Tematem tego rozdziału są plany alternatywne w stosunku do planów
eksperymentalnych, takie jak opisany wyżej.
Chociaż plany eksperymentalne omówione w rozdziale 5 są najsilniejszymi modelami
logicznego wnioskowania, to wiele zjawisk interesujących badaczy w naukach społecznych
nie poddaje się bezpośredniemu eksperymentowaniu. W tym rozdziale przedstawimy plany
badawcze, które są powszechnie stosowane
1 Beth Dawson, Carrolyn K. Iwamoto, Linette Postell Ross, Ronald J. Nungester,
David B. Swan-son, Robert L. Volle (1994), Performance on the National Board of Medical
Examiners Part 1 Exami-nation by Men and Women of Different Race and Ethnicity, „Journal
of the American Medical Associa-tion", 272.9, s. 674-679.
142
w naukach społecznych. Na początku omówimy związki pomiędzy różnymi typami
badanych zmiennych a planami badawczymi, które stosujemy. Następnie przedstawimy plany
badań przekrojowych, plany quasi-eksperymentalne i preeksperymen-talne. Przeanalizujemy
też plany łączone, będące kombinacją różnych planów oraz dokonamy porównania
wszystkich rodzajów planów.
Eksperyment kontrolowany pozwala na jednoznaczne określenie związków przy-
czynowo-skutkowych pomiędzy dwiema lub więcej zmiennymi. Jednakże, jak widzieliśmy w
rozdziale 5, naukowcy nie zawsze mogą kontrolować badane zmienne. Co więcej, rozważania
natury społecznej, politycznej i etycznej mogą zniechęcać badaczy do przeprowadzania
kontrolowanych eksperymentów. Chociaż można zaindukować strach w sytuacji
laboratoryjnej i eksperymentalnie manipulować osobami badanymi, to pytanie o to, czy mamy
prawo to czynić, nawet w celach naukowych, jest niezwykle ważne. Ogólnie rzecz biorąc, nie
można stosować planów eksperymentalnych wtedy, kiedy nie można spełnić warunku
randomizacji i kontroli eksperymentalnej.
Plany, które omawiamy w tym rozdziale, stanowią alternatywę klasycznego planu
eksperymentalnego. Każdy z tych planów ma swoje zalety i wady, ale wszystkie umożliwiają
badanie zmiennych w realnych warunkach życiowych. Zanim jednak przedstawimy kolejne
plany, powinniśmy przeanalizować rodzaje zmiennych zazwyczaj badanych przez
naukowców.
I Rodzaje zmiennych i plany badawcze
W rozdziale 5 omówiliśmy przykłady badań, w których badacz mógł manipulować
zmiennymi niezależnymi. Niestety, wieloma zmiennymi, które są badane w ramach nauk
społecznych, nie da się manipulować. Nie możemy manipulować rasą ani płcią osób
badanych, jak też nie możemy sprawić, aby były one młodsze lub starsze wtedy, kiedy
chcemy przeanalizować wpływ, jaki mogą mieć te zmienne na jakąś zmienną zależną. W
naukach społecznych badamy zazwyczaj związek typu właś-ciwość-dyspozycja.
Związek typu właściwość-dyspozycja to związek pomiędzy jakąś cechą
charakteryzującą osoby (właściwością) a odpowiadającymi jej postawami czy skłonnościami
(dyspozycjami). Takim związkiem jest na przykład związek pomiędzy klasą społeczną a
postawą taką jak polityczna tolerancja czy związek pomiędzy rasą a uprzedzeniami. Z kolei w
badaniach określanych najczęściej jako eksperymentalne analizuje się związki typu bodziec-
reakcja. Cechą charakterystyczną związku typu bodziec-reakcja jest możliwość
manipulowania zmienną niezależną. Badacz może na przykład zaindukować stres lub poddać
osoby badane działaniu kampanii reklamowej. Zmienną zależną będzie tu zatem bezpośrednia
reakcja na zmienną niezależną. Może to być określona reakcja psychologiczna na stres czy
wzrost konsumpcji, jaki nastąpił po kampanii reklamowej.
Tak jak związki typu bodziec-reakcja dobrze poddają się badaniom
eksperymentalnym, tak związki typu właściowość-dyspozycja raczej nie. Dzieje się tak
dlatego, ponieważ te dwa typy związków różnią się przerwą czasową, stopniem swoistości,
naturą porównywanych grup i sekwencją czasową zdarzeń2.
Morris Rosenberg (1968), The Logic of Survey Analysis, New York: Basic Books,
rozdz. 1.
143
1. Przerwa czasowa. W związkach typu bodziec-reakcja przerwa czasowa pomiędzy
wprowadzeniem zmiennej niezależnej a reakcją na tę zmienną jest stosunkowo krótka. Z kolei
w związkach typu właściowość-dyspozycja przerwa czasów może być znacznie dłuższa.
Badacz może na przykład zarejestrować reakcję na 1 czy kampanię reklamową w stosunkowo
krótkim czasie, jednak efekty oddziaływ nia właściwości takich jak wiek, rasa czy klasa
społeczna ujawnią się dopiero dłuższym czasie.
2. Stopień swoistości. Druga różnica dotyczy stopnia swoistości zmiennej ni zależnej.
Bodziec można zazwyczaj łatwo wyizolować i zidentyfikować, a skut działania tego bodźca
można wyraźnie sprecyzować. Natomiast właściwości tak jak klasa społeczna mają charakter
ogólny i zawierają wiele innych czynników, ta kich jak na przykład prestiż, zawód i
wykształcenie. Każdy z tych czynników wy wiera wpływ na zmienną zależną. Dlatego też,
badając ten rodzaj zmiennych, moż na mieć trudności w określeniu właściwych przyczyn oraz
eksperymentalnym i manipulowaniu.
3. Natura porównywanych grup. Badając związek typu bodziec—reakcja, dacz może
porównywać ze sobą dwie podobne grupy. W jednej z tych grup wpr wadzą się bodziec (to
grupa eksperymentalna), a w drugiej bodźca nie ma (to gru kontrolna). Można też porównać
tę samą grupę przed i po zadziałaniu bodźca. Ba dając natomiast związek typu właściwość-
dyspozycja, porównanie typu przed i jest niemożliwe, zwłaszcza w wypadku właściwości,
które się nie zmieniają, np. płeć czy rasa. Trudno też przyjąć, że dwie grupy różniące się pod
względem określonych właściwości są porównywalne pod każdym innym względem. I
rzeczywiście, niższa klasa społeczna i wyższa klasa społeczna różnią się nie tylko ze względt
na klasę, lecz również ze względu na wiele innych wymiarów takich, jak: wartości, orientacje,
sposób wychowywania dzieci, zachowania wyborcze itd. Stosując plan przekrojowy lub
quasi-eksperymentalny, badacze raczej porównują tę samą grupę zamiast porównywania
grupy eksperymentalnej i kontrolnej, wprowadzając od" więdnie metody statystyczne w
miejsce procedury manipulacji i kontroli.
4. Sekwencja czasowa zdarzeń. W przypadku relacji typu bodziec-reakcja kierunek
zależności przyczynowej jest raczej oczywisty, zwłaszcza jeżeli zastosowany plan badawczy
umożliwiał przeprowadzenie porównania typu przed i po zadziałaniu bodźca. W wypadku
niektórych własności ustalenie sekwencji czasowej staje się jednak trudne. Kiedy właściwości
mają charakter stały, jak np. płeć czy rasa, badacz ustala kierunek związku przyczynowo-
skutkowego, odwołując się do faktu, że zmienne te mogą być jedynie czynnikami
determinującymi, a nie wywołanymi skutkami. Na przykład płeć może wpływać na postawy
w stosunku do kary śmierci, ale nie odwrotnie. Jednakże właściwości, które są nabywane, jak
na przykład inteligencja, wykształcenie czy orientacja polityczna, mogą zarówno same
determinować, jak i być determinowane przez inne czynniki, co sprawia, że trudno jest w tej
sytuacji ustalić porządek czasowy.
W wypadku relacji typu właściwość-dyspozycja, z uwagi na wymienione cztery
trudności, badacze nie mogą spełnić — w ścisłym eksperymentalnym sensie — wymogów
planu badawczego, tj. porównywania, manipulowania i kontrolowania. Nie wszystkie
zjawiska, które są interesujące dla badaczy społecznych, można poddać manipulacji w czasie
eksperymentu. Co więcej, nie zawsze można losowo przy-
144
porządkować analizowane obiekty do grupy eksperymentalnej i grupy kontrolnej, a
wiele procesów społecznych, politycznych i ekonomicznych można badać jedynie po upływie
dłuższego czasu. Mimo to naukowcy starają się jak najbardziej zbliżyć do modelu
eksperymentalnego, stosując wyspecjalizowane techniki analizowania danych
rekompensujących ograniczenia związane z badaniem relacji typu właści-wość-dyspozycja.
(Techniki te omawiamy w rozdziale 17).
I Plany przekrojowe
W badaniach prowadzonych w ramach nauk społecznych najbardziej
rozpowszechnione są plany przekrojowe. Plany te są często utożsamiane z badaniami
sondażowymi. W naukach społecznych jest to bardzo popularna metoda zbierania danych. W
badaniach sondażowych (omówionych dokładnie w rozdziale 10 i 11) osoby badane dobrane
losowo odpowiadają na pytania o swoje pochodzenie, doświadczenie i postawy. W
większości wypadków badania sondażowe dostarczają danych będących podstawą określania
związku pomiędzy właściwościami a dyspozycjami. 1 chociaż bardzo często badacze starają
się określić relacje przyczynowo-skutkowe pomiędzy właściwościami a dyspozycjami, to
celem wielu badań — zanim zostanie podjęty trud określenia zależności przyczynowo-
skutkowych — jest po prostu opis zależności pomiędzy zmiennymi.
Przykładem typowego problemu, który można zbadać, stosując plan przekrojowy, jest
pytanie o akceptację elektrowni jądrowych. Postawy wobec elektrowni jądrowych mają
znaczące konsekwencje dla środowiska i bezpieczeństwa ludności3. I tak, w wielu badaniach
okazało się, że istnieje duże zróżnicowanie postaw wobec elektrowni jądrowych ze względu
na płeć: kobiety przyjmują postawę mniej akceptującą niż mężczyźni.
Badanie z wykorzystaniem planu przekrojowego rozpoczyna się od utworzenia
losowej, reprezentatywnej próby mężczyzn i kobiet. Następnie osobom badanym zadaje się
liczne pytania dotyczące ich postaw wobec elektrowni jądrowych. Ze względu na naturę
badanych zmiennych — zwłaszcza zmiennej niezależnej, tj. płci — taki problem badawczy
można sklasyfikować jako problem typu właści-wość-dyspozycja. Ponieważ badacz nie może
tu manipulować zmienną niezależną, aby dokonać porównania wyników przed manipulacją i
po manipulacji, taki problem badawczy nie może być analizowany w ramach modelu
eksperymentalnego. Co więcej, czas, w jakim płeć może wykształcić postawy wobec
elektrowni jądrowych, jest bardzo długi. Z powodu tych ograniczeń, włączenie do planu
badawczego elementu manipulacji i kontroli, niezbędnych w analizach przyczynowo-
skutkowych, byłoby bardzo trudne. Na rycinie 6.1 przedstawiliśmy schemat planu
badawczego, jaki można tu zastosować. Litera X narysowana linią przerywaną oznacza płeć,
a 0, — postawy wobec elektrowni jądrowych. Taki plan oczywiście ma wiele poważnych
ograniczeń metodologicznych, zwłaszcza dotyczących jego trafności wewnętrznej.
Przykład ten pochodzi z pracy Lawrence'a S. Solomona, Donalda Tomaskovica-
Deveya i Barbary J. Risman (1989), The Gender Gap and Nuclear Power: Attitudes in a
Politicized Environment, „Sex
Roles". 21, s. 401-414.
145
Ryc. 6.1. Najprostszy plan
Aby przezwyciężyć ograniczenia metodologiczne wynikające z planów badan
przekrojowych, badacze wykorzystują metody statystyczne odpowiadające w przybliżeniu
niektórym operacjom naturalnie wbudowanym w plan eksperymentalny. W badaniu postaw
wobec elektrowni jądrowych badacz musi najpierw stwierdzić. czy płeć i postawy wobec
elektrowni jądrowych są ze sobą powiązane. W tabeli 6.1 przedstawiono wyniki analizy
statystycznej przeprowadzonej w celu określenia związku pomiędzy tymi zmiennymi.
Wykorzystując metody statystyczne do kategoryzowania, opisywania i zestawiania zebranych
danych, możemy się przekonać. że 59% mężczyzn i jedynie 29% kobiet popiera elektrownie
jądrowe; różnica w akceptacji między płciami wynosi 30%. Wniosek ten został
wyprowadzony na podstawie dwóch technik analizy danych: krzyżowego grupowania danych
i dwu-zmiennowej analizy danych procentowych, które omawiamy w rozdziale 16.
Dzięki zastosowaniu tych metod analizy danych nasz plan stał się mocniejszy i w
przybliżeniu odpowiada planowi z grupą kontrolną i pomiarem końcowym (opisanemu w
rozdziale 5). Na rycinie 6.2 przedstawiliśmy schemat graficzny takiego ulepszonego planu.
Komórka opisana jako 02 i obwiedziona linią przerywaną oznacza dodatkowe informacje,
które uzyskaliśmy na etapie statystycznej analizy danych. Jeżeli dane te zostaną
pokategoryzowane i zestawione tak, jak to uczyniono w tabeli 6.1, to zyskujemy możliwość
dokonania wielu porównań między różnymi grupami.
Tabela 6.1. Płeć a postawy wobec elektrowni jądrowych
Mężczyźni Kobiety
Zwolennicy Przeciwnicy 59% 41% 29% 71%
100% 100%
Na podstawie: Lawrence S. Solomon, Donald Tomaskovic-Devey, Barbara J. Risman
(1989), The Gender Gap and Nitclear Power: Attititdes in a Politicized Environmenl, „Sex
Roles", 21, s. 407.
Chociaż plan przekrojowy przedstawiony na rycinie 6.2 umożliwia oszacowanie
związku (korelacji) pomiędzy płcią a poparciem dla elektrowni jądrowych, to na tej podstawie
nie możemy wyciągnąć wniosku, że pomiędzy tymi zmiennymi zachodzi związek
przyczynowo-skutkowy, jak też nie jesteśmy w stanie wyjaśnić, dlaczego kobiety w
porównaniu z mężczyznami wyrażają mniejsze poparcie dla elektrowni jądrowych. Można
wskazać na wiele przyczyn takiego zróżnicowania postaw między płciami. Na przykład
badane kobiety mogły mieć mniejszą wiedzę na temat spraw technicznych i dlatego mniej
chętnie popierały budowanie elektrowni jądrowych. Mogły też być bardziej zainteresowane
sprawami bezpieczeństwa, co powodowało, że częściej — w porównaniu z mężczyznami —
oponowały przeciwko energii jądrowej.
146
po
X
Ryc. 6.2. Plan badań przekrojowych
Kiedy wykorzystujemy plan eksperymentalny, te czynniki są kontrolowane za pomocą
procedury randomizacji i wprowadzenia grupy kontrolnej. Kiedy badacze wykorzystują plan
przekrojowy, muszą kontrolować te czynniki za pomocą metod statystycznych. W wypadku
planów przekrojowych najczęściej wykorzystywanymi metodami stanowiących alternatywę
eksperymentalnych metod kontroli i wnioskowania o zależnościach przyczynowo-
skutkowych są takie statystyczne metody analizy wielozmiennowej, jak kategoryzowanie
krzyżowe, regresja wielokrotna i analiza ścieżek. (Więcej na ten temat i opis tych metod
można znaleźć w rozdziale 17).
Warto w tym miejscu zaznaczyć, że w planach przekrojowych badacze nie mają
możliwości zastosowania technik statystycznych, aby określić porządek czasowy zmiennych.
Następstwo czasowe zmiennych musi zostać określone na podstawie rozważań teoretycznych
lub logicznych. W naszym przykładzie dotyczącym energii jądrowej to płeć — logicznie
rzecz biorąc — jest powodem różnic w postawach wobec energii jądrowej, a postawy wobec
energii jądrowej nie mogą zmienić pici, która jest stałą właściwością.
Podstawowa zaleta badań przekrojowych dotyczy możliwości prowadzenia ich w
warunkach naturalnych i wykorzystywania losowych prób badanych osób. Dzięki temu
badacze mogą uogólniać wyprowadzone wnioski na szersze populacje oraz przenosić zebrane
wyniki na realne sytuacje życiowe, co przyczynia się do zwiększenia trafności zewnętrznej
badania.
¦ Plany quasi-eksperymentalne
Posługując się klasycznym planem badawczym jako modelem logicznego
wnioskowania, badacze opracowali wiele planów quasi-eksperymentalnych. Podobnie jak w
wypadku planu przekrojowego plany te są słabsze od planów eksperymentalnych pod
względem ich trafności wewnętrznej i badacze muszą stosować techniki analizy danych jako
sposób kontroli. Stosując plany quasi-eksperymentalne, można losowo pobierać próbę z
populacji, lecz nie można losowo przyporządkowywać osób badanych do porównywanych
grup. Są one jednak mocniejsze niż plany przekrojowe, ponieważ badanie jest zazwyczaj
prowadzone na więcej niż jednej próbie i może być rozciągnięte w czasie. Poniżej
przedstawimy najważniejsze, obecnie stosowane plany quasi-eksperymentalne.
Plany z grupami kontrastowymi
W badaniach prowadzonych w ramach nauk społecznych często się zdarza, że w wielu
wypadkach badacz nie może losowo przyporządkowywać osób badanych
147
o,
°> i
______I
czy innych analizowanych obiektów do porównywanych grup. Na przykład badacz nie
może losowo przyporządkowywać osób do rasy, płci, klasy społecznej czy religii — żeby
wymienić tylko niektóre. Niekiedy badacze stosują pełne grupy porównawcze albo w fazie
pomiaru początkowego, albo jedynie w fazie pomiaru końcowego. Wnioski dotyczące
zależności przyczynowo-skutkowych determinowanych przez zmienną niezależną są
szczególnie narażone na błędy w sytuacji, kiedy badacze nie mogą zastosować procedury
randomizacji, aby przyporządkować osoby badane do porównywanych grup, o których
wiadomo, że różnią się pod względem istotnych cech. Tak będzie wtedy, gdy badacze zechcą
porównywać ze sobą grupy dzieci pochodzących z biednych i bogatych środowisk, grupy o
różnym pochodzeniu etnicznym czy mężczyzn i kobiety. Jeżeli w wypadku tak kontrastowych
grup badacz wykorzystuje plan z pomiarem końcowym, to różnice otrzymane w pomiarze
końcowym można raczej przypisać pierwotnym różnicom pomiędzy grupami niż wpływowi
zmiennej niezależnej. Tak czy inaczej, kiedy badacze muszą oszacować różnice pomiędzy
grupami kontrastowymi, można wprowadzić kilka modyfikacji planu badawczego, które
pełnić będą funkcję zabezpieczeń przed możliwością oddziaływania innych czynników poza
zmienną niezależną.

Najmniej wyszukanym planem z grupami kontrastowymi jest plan, w którym osoby


badane czy inne analizowane obiekty są zaliczane do określonej katego-r i i. Osoby
odpowiadające jednej kategorii mają te same cechy. Te właśnie cechy pozwoliły zaliczyć je
do zdefiniowanej kategorii, np. mężczyzn, demokratów czy katolików. Pomiaru zmiennej
zależnej dokonuje się w stosunku do wszystkich osób w ramach danej klasy. Badacz może na
przykład porównywać umiejętność czytania u dzieci pochodzących z różnych środowisk. Plan
takiego badania można przedstawić w następujący sposób:
O,
o2 o, o.
gdzie Ox do Ok oznaczają pomiary zmiennej zależnej w określonej kategorii osób.
Badacze mogą następnie przeprowadzić prostą, porównawczą analizę statystyczną dotyczącą
różnic w wynikach pomiarów otrzymanych dla k grup. Mogą na przykład analizować różnice
pomiędzy średnimi — wynikami przeciętnymi — uzyskanymi w każdej z grup. Ponieważ
jednak grupy kontrastowe różnią się pod wieloma względami, zatem trudno jest określić,
jakie są przyczyny obserwowanych różnic. Źródłem tych różnic mogą być raczej
niedoskonałości procedury pomiarowej niż rzeczywiste różnice pomiędzy grupami. Na
przykład wykazano, że na wyniki otrzymane w trakcie wywiadów bezpośrednich duży wpływ
ma pochodzenie ankieterów. I tak odpowiedzi czarnych respondentów były uwarunkowane
tym, czy osoba przeprowadzająca wywiad miała biały czy czarny kolor skóry. (Bardziej
szczegółowe
148
wm
}
ba-
znej
gru-
po-
deter-
sytua-
ąd-
się
porówny-
rupy
tak
różnice
różnicom
kiedy
można
keję za-
zmienną
którym tego-cechy czy osób zy tania przedsta-
osób. statystycz-przy-yska-wieloma różnic, niż otrzy-
prze-ółowe
omówienie tego i innych problemów dotyczących metody wywiadu przedstawimy w
rozdziale 10).
Stosując plan z grupami kontrastowymi, można zmniejszyć niebezpieczeństwo
popełnienia błędu przy wyprowadzaniu wniosków o charakterze przyczynowo-skut-kowym,
jeżeli w dłuższym przedziale czasu zostaną zebrane dodatkowe dane dotyczące różnic
przewidzianych w hipotezie badawczej. Jeżeli wyniki otrzymane w innych warunkach będą
takie same i badacze przeprowadzą porównania dotyczące wartości zmiennych zależnych, to
uzyskają dodatkowy dowód zwiększający siłę wnioskowania w planie z grupami
kontrastowymi.
Bardziej złożonym planem z grupami kontrastowymi jest plan, w którym badacze
porównują dwie lub więcej grupy przed i po wprowadzeniu zabiegu badawczego (zmienna
niezależna). W tym planie — planie z nierównoważnymi grupami kontrolnymi —
wykorzystuje się metody statystyczne, aby sprawdzić podobieństwo grup kontrastowych,
zanim zostaną wyciągnięte wnioski o charakterze przyczynowo-skutkowym.
Przykładem zastosowania takiego planu jest badanie dotyczące oceny jakości kursu
poświęconego problematyce AIDS4. Przedmiotem badania była ocena wpływu zajęć na temat
AIDS na wiedzę o tej chorobie, na postawy i zachowania. Badanie polegało na porównaniu
dwóch grup osób. Grupa eksperymentalna składała się ze studentów, którzy zapisali się na
kurs „AIDS — plaga współczesności". Grupę kontrolną natomiast stanowili studenci innego
kursu: „Astronomia: natura wszechświata".
W badaniu tym przeprowadzono zarówno pomiar początkowy, jak i końcowy:
uczestnicy obu kursów zostali poproszeni o wypełnienie kwestionariusza ankiety na początku
i na końcu zajęć. Zastosowano plan, który schematycznie został przedstawiony w tabeli 6.2.
Ponieważ losowe przyporządkowanie studentów do grupy eksperymentalnej i kontrolnej było
niemożliwe, przeto też oceniając kurs dotyczący AIDS, badacze napotkali poważne
ograniczenia. Istotnym problemem było na przykład to, że obie grupy dobrały się
samodzielnie. Jeżeli zatem studenci w grupie eksperymentalnej już wcześniej interesowali się
problematyką AIDS, to istnieje większe prawdopodobieństwo, że zaakceptowaliby oni
metody bezpiecznego seksu bez względu na to, czy uczestniczyliby w takim kursie czy nie.
Dlatego badacze musieli zastosować specjalne metody, aby sprawdzić, jakie było początkowe
podobieństwo grupy eksperymentalnej i kontrolnej. Jedną z możliwych strategii jest taka
konstrukcja grupy kontrolnej, aby była ona jak najbardziej podobna do grupy
eksperymentalnej. Grupa ta powinna zostać dobrana ze względu na następujące kryteria: (1)
efekt kohorty (oba kursy odbywały się w tym samym kwartale, dlatego czynnik historii nie
był tu istotny), (2) dyscyplinę (oba kursy zostały wpisane do planu zajęć), (3) swobodne
zapisy, (4) popularność (oba kursy cieszyły się dużą popularnością wśród studentów).
Tabela 6.2. Plan badawczy z różną grupą kontrolną
Pomiar początkowy
Pomiar końcowy
O,
o,
o,
4 Paul R. Abramson, Joan C. Sekler, Richard A. Berk, Moniąue Y. Cloud (1989), An
Evaluation ofan Udergraduate Course on AIDS, „Evaluation Review", 13, s. 516-532.
149
Wykorzystując statystyczne techniki analizy wielozmiennowej (omówione w
rozdziale 17), badacze dodatkowo wyrównali grupę eksperymentalną i kontrolną ze względu
na wiek, płeć, pochodzenie etniczne, rok studiów i pomiar początkowy. W ten sposób
wyeliminowali oni potencjalną hipotezę, że te właśnie czynniki mogły odpowiadać za różnice
wyników otrzymane w pomiarze końcowym. Otrzymane rezultaty wskazują na to, że zajęcia
poświęcone problematyce AIDS miały ogromny wpływ na postawy, zachowania i wiedzę
dotyczącą przenoszenia się wirusa odpowiedzialnego za AIDS. W tym miejscu raz jeszcze
chcemy podkreślić ograniczenia wynikające z zastosowania tego planu. Ponieważ osoby
badane nie zostały losowo przyporządkowane do grupy eksperymentalnej i kontrolnej,
trafność wewnętrzna tego planu może być mniejsza.
Gdy dokonuje się porównania grup kontrastowych, można dokonać pomiarów
zmiennej zależnej przed i po wprowadzeniu zmiennej niezależnej. W takich wypadkach
otrzymuje się pomiary wielokrotne przed i po ekspozycji zmiennej. Takie dodatkowe dane
dostarczają informacji o tym, jakie jest zróżnicowanie zmiennej zależnej w czasie, gdy
pominie się wpływ zmiennej niezależnej. Załóżmy, że badacze są zainteresowani oceną
skuteczności nowych technik stosowanych w nauce czytania, wprowadzanych w piątych
klasach w szkole E. Mogą oni porównać wyniki, jakie dzieci osiągnęły w nauce czytania w tej
szkole, począwszy od klasy trzeciej aż do siódmej, i porównać je z analogicznymi wynikami
uzyskanymi przez dzieci z innej szkoły (C), przyjmującej dzieci z tej samej społeczności i nie
wprowadza- i jącej nowych metod. Badaniami objęto uczniów klasy siódmej, którzy byli w
tej samej szkole, począwszy od klasy trzeciej. Ponieważ w szkole osiągnięcia uczniów są
oceniane corocznie, więc pozwoliło to na uzyskanie wstecznych danych dla pięciu
poprzednich lat, które potrzebne były do porównań. W badaniu, w którym stosuje się pomiary
wielokrotne, o skuteczności programu świadczyć będzie bardzo duża różnica w poziomie
zmiennej zależnej, obliczona między wynikami otrzymanymi przed i po wprowadzeniu
ocenianego programu, tak jak pokazano to na ryci-1 nie 6.3. Zauważmy, że wyniki zmiennej
zależnej rosną sukcesywnie również w przypadku szkoły C, a więc szkoły, w której nie
wprowadzono nowych technik kształcenia. Jednakże w przypadku szkoły E wyniki wyraźnie
rosną pomiędzy czwartą i piątą klasą, by następnie pozostawać na podobnym poziomie.
W odróżnieniu od hipotetycznych rezultatów, które przedstawiono na rycinie 6.3,
wyniki z ryciny 6.4 wskazują, że zmienna niezależna nie wywarła większego wpływu w
wypadku uczniów z grupy E, wykraczającego poza typowe zwiększenie umiejętności
charakterystycznych dla cyklu kształcenia, na co wskazują wyniki uzyskane w grupie C.
Zauważalna zmiana wyników w grupie E jest iluzoryczna, ponieważ odpowiada jej
proporcjonalna zmiana wyników w grupie C.
Plany z zaplanowanym zróżnicowaniem
Stosując plany z zaplanowanym zróżnicowaniem, badacze wprowadzają
systematycznie zróżnicowane bodźce po to, aby ocenić ich efekt przyczynowy. Zaplanowane
zróżnicowanie w programie Head Start jest znakomitym przykładem zastosowania takiego
planu w dziedzinie polityki. HSPV to trzyletnie badania dotyczące porównania efektów, jakie
uzyskały różne ośrodki zawiadujące programem Head Start w dziedzinie rozwijania
szkolnych umiejętności dzieci pochodzących z biednych rodzin. Badanie to opierało się na
założeniu, że dzięki wybraniu wielu I
150
E
C
J____________I____________I____________I______
3 4 5 6 7
klasa szkolna
Ryc. 6.3. Porównanie dwóch grup kontrastowych wskazujące, że zmienna niezależna
wywołała określony skutek
tronów" — szkół, agencji czy organizacji samorządowych odpowiadających za
zarządzanie — dla różnych rodzajów programów i dzięki systematycznemu różnicowaniu
programów przeznaczonych dla dzieci badacze będą mogli ustalić, który program jest
najbardziej korzystny dla danej grupy dzieci5.
Patroni, którym zaproponowano uczestniczenie w tych badaniach, zasadniczo różnili
się realizowanymi przez siebie celami, a także programami nauczania. W roku szkolnym
1971-1972 11 patronów objęło swoją opieką 28 ośrodków rozrzuconych po całym kraju. Aby
można było porównywać otrzymane rezultaty, 11 spośród 28 ośrodków prowadziło również
klasy „bez patronów", zarządzane bezpośrednio przez pracowników programu Head Start.
Ponadto w trzech ośrodkach wprowadzono grupy porównawcze, które składały się z dzieci
nie włączonych w żaden program. Dzieci, które znalazły się w tych grupach, pochodziły albo
z bezpośredniej rekrutacji, albo z listy dzieci zapisanych do udziału w programie Head Start.
Każdy patron kierował trzema lub czterema ośrodkami. Każdy ośrodek prowadził różną
liczbę klas kierowanych przez konkretnego patrona. W niektórych ośrodkach istniały zarówno
klasy pozostające pod opieką patronów, jak i zwykłe klasy bez patronów, znajdujące się pod
opieką Head Start. Pozostałe ośrodki prowadziły wyłącznie klasy pozostające pod opieką
patronów.
Jednym z ważniejszych ograniczeń zastosowanego tu planu badawczego był nierówny
rozkład istotnych zmiennych w ośrodkach, które miały patronów. Zdaniem Herberta I.
Weisberga nierówno były rozłożone takie zmienne, jak: rasa, wiek. doświadczenia szkolne i
status społeczno-ekonomiczny. I tak na przykład je-
5 Przedstawione tu informacje zaczerpnęliśmy z pracy Herberta I. Weisberga (1973),
Short-Term Cognitive Effects oj Head Start Programs: A Report on the Third Year ofPlanned
Variation, 1971-1972, Cambridge, Mass.: Huron Institute.
151
punkty pomiaru
Ryc. 6.4. Porównanie dwóch grup kontrastowych wskazujące, że zmienna niezależna
nie wywołała żadnego skutku
den z patronów kierował ośrodkiem, w którym niemal w ogóle nie było czarnych
dzieci, podczas gdy w innym nie było dzieci białych. Pomijając to istotne źródto zmniejszenia
trafności, badacze wyprowadzili trzy istotne wnioski: (1) generalnie, zarówno programy
kierowane przez patronów, jak i zwykłe programy wprowadzo-1 ne przez Head Start
przyczyniły się do zwiększenia określonych umiejętności szkolnych takich, jak na przykład
rozpoznawanie liter, (2) wybór 11 ośrodków prowadzących klasy posiadające patronów i
porównanie ich z ośrodkami nie posiadającymi patronów i nadzorowanymi przez Head Start
nie ujawniło poważnych różnic, (3) porównanie ośrodków posiadających patronów ujawniło
pewne różnice w wy-1 nikach testów poznawczych rozwiązywanych przez dzieci. Innymi
słowy, pewne rodzaje programów nauczania, wydawało się, przyczyniały się do różnego
rozwoju umiejętności poznawczych.
Oczywiście, jak już wspomnieliśmy, ze względu na nierówny rozkład istotnych!
zmiennych w ośrodkach posiadających patronów wnioski te można traktować jedynie jako
przypuszczenia. Ponieważ istotne zmienne nie zostały wprowadzone w sposób
systematyczny, przeto badacze nie mogli zakładać wysokiej trafności czy I możliwości
szerokiego zastosowania wyprowadzonych wniosków. Przykład ten uwidacznia, że można by
zwiększyć stopień zaufania do wyników otrzymanych w planie z zaplanowanym
zróżnicowaniem, gdyby badacze zagwarantowali równy I rozkład istotnych zmiennych w
badanych grupach i gdyby pomiarów zmiennej za-1 leżnej dokonywano wielokrotnie,
zarówno przed, jak i po wprowadzeniu zmiennej niezależnej.
152
Badania panelowe i szeregi czasowe
Niektóre quasi-eksperymenty są rozciągnięte w czasie i umożliwiają analizowanie
zmian wartości zmiennej zależnej. Czas stwarza problem dla badaczy z kręgu nauk
społecznych z następujących powodów. Po pierwsze, najważniejsze, zarówno ludzie, jak i
środowisko społeczne nie są wielkościami stałymi. Reagują na procesy wewnętrzne i
zdarzenia zewnętrzne, z których jedynie niewiele można poddać celowej kontroli. Dlatego też
zmienne, które badacz chce analizować, mogą — wraz z upływem czasu — ulec modyfikacji.
Tendencja ta ujemnie wpływa na poprawność czy dokładność procedur badawczych oraz
zmniejsza trafność wniosków. Ponieważ w rzeczywistym życiu nie można kontrolować czasu,
więc metodologia wymaga, aby zastosować takie techniki, które umożliwiają kontrolowanie
wpływu czasu na dane empiryczne. Omówimy teraz dwa podstawowe plany, które włączają
zmienną czasu: badania panelowe oraz analizę szeregów czasowych.
Badania panelowe. Bardziej rygorystycznym rozwiązaniem problemów, jakie
ujawniły się w badaniach przekrojowych i schematach korelacyjnych, są badania panelowe.
W badaniach tych ta sama próba osób jest badana w dwóch lub więcej odstępach czasowych.
Badania panelowe umożliwiają badaczom stworzenie warunków bardzo zbliżonych do
wymaganych w planie eksperymentalnym, a polegających na przeprowadzeniu badania przed
i po wprowadzeniu zmiennej niezależnej. Osiągają to dzięki badaniu grupy w dwóch lub
więcej punktach czasowych przed i po zadziałaniu zmiennej niezależnej.
Dobrą ilustracją analiz panelowych są badania rozpoczęte w roku 1980, w których
interesowano się, jaki wpływ na funkcjonowanie rodziny ma wyprowadzenie się dzieci z
domu6. Większość badań, w których badano wpływ okresu po opuszczenia przez dziecko
domu na życie jego rodziców, opierała się na planach przekrojowych. Metoda ta ogranicza
jednak możliwości analizowania zmian w funkcjonowaniu rodziny związanych z odejściem
dziecka z domu, ponieważ wyprowadzenie się z domu traktowane jest jako pojedyncze
zdarzenie w konkretnym czasie. Cytowane badania odbyły się w roku 1980, 1983, a następnie
w 1988 i miały formę wywiadów przeprowadzonych na próbie narodowej. Badacze
dysponowali próbą liczącą 402 rodziców posiadających starsze dzieci. Przedmiotem
porównania były zmiany w poczuciu szczęścia rodzinnego oraz satysfakcji z życia rodziców,
których gniazdo opustoszało i nie opustoszało. Podstawową zaletą takiego planu badawczego
jest to, że umożliwia on określenie kierunku zależności przyczynowych. Dzięki
porównywaniu pomiarów dokonanych u tych samych respondentów przed i po tym, jak ich
dzieci wyprowadziły się z domu, można stwierdzić, czy jakość funkcjonowania rodziny jest
spowodowana wyprowadzeniem się dziecka. Porównując z kolei jakość funkcjonowania
rodziców w ramach tej samej rodziny przed i po tym krytycznym wydarzeniu, można określić
porządek czasowy zmiennych.
Podstawowym problemem dotyczącym badań panelowych jest stworzenie
reprezentatywnej próby respondentów, którzy wyrażą zgodę na przeprowadzenie
wielokrotnych wywiadów w dłuższym przedziale czasu. Co więcej, jeżeli nawet badacz
uzyska ich zgodę, to i tak niektóre osoby badane wypadną czy to z powodu
6Lynn White, John N. Edwards (1990), Emptying łhe Nest and Parental Well-being:
An Analysis oj National Panel Data, „American Sociological Review", 55, s. 235-242.
153
odmowy kontynuowania współpracy, czy z powodu trudności dotarcia do tych osób,
które się przeprowadziły lub zmieniły pracę. Poważną konsekwencją odmowy dalszego
udziału w badaniu jest to, że badacz nie potrafi określić, czy ci respondenci zmienili się w
inny sposób niż ci, którzy pozostali. Ta niepewność znajdzie swoje odzwierciedlenie w
reprezentatywności i trafności wniosków. Innym problemem pojawiającym się wówczas,
kiedy badacz szybko przeprowadza kolejne wywiady, jest uwarunkowanie panelu, czyli
ryzyko, że powtarzane pomiary mogą sprzyjać udzielaniu określonego zbioru odpowiedzi. Na
przykład uczestnicy panelu mogą się starać pokazać, że ich poglądy wyrażane przy różnych
okazjach są stałe. W takich wypadkach wyniki panelu mogą się okazać nietypowe dla
populacji, dla której jest on reprezentatywny. Jednym z zabezpieczeń przed uwarunkowaniem
panelu jest przyznanie uczestnikom panelu ograniczonego życia panelowego (tj. okresu
uczestnictwa), a następnie zastępowanie ich innymi osobami wylosowanymi z listy
rezerwowej, skonstruowanej dla tej samej populacji7.
Analiza szeregów czasowych. Kiedy nie można dokonać porównań czy wprowadzić
grupy kontrolnej po to, aby zbadać relację przyczynowo-skutkową, badacze posługują się
analizą szeregów czasowych, tj. stosują takie plany badawcze, w których pomiar początkowy
i pomiar końcowy dokonywane są w wielu momentach przed i po wprowadzeniu zmiennej
niezależnej. Zazwyczaj badacz stara się uzyskać przynajmniej trzy pomiary przed
wprowadzeniem i trzy pomiary po wprowadzeniu zmiennej niezależnej. Typowy schemat
planu dla analizy szeregów czasowych można przedstawić następująco:
O, O2 O, x 04 Os 06
Stosując plan dla analizy szeregów czasowych, można oddzielić efekt
uwrażliwiającego wpływu pomiarów (por. rozdział 5) od efektu wpływu zmiennej
niezależnej. Plan analizy szeregów czasowych pozwala również na sprawdzenie, czy wpływ
zmiennej niezależnej jest większy niż efekt uwrażliwiającego wpływu pomiaru. Jeżeli efekt
uwrażliwiającego wpływu pomiaru uwidoczni się w pomiarze 03, to możemy go porównać z
pomiarem 04. Wzrost wartości uzyskanej w 0Ą powyżej wartości O, można przypisać
działaniu zmiennej niezależnej. Można również ocenić, czy zmiany spowodowane przez
wprowadzenie zmiennej niezależnej są większe niż spowodowane upływem czasu,
kontrolując w ten sposób czynnik dojrzewania obniżający trafność planu badawczego.
Klasyczną ilustracją zarówno korzyści, jak i problemów związanych z zastosowaniem
analizy szeregów czasowych jest badanie przeprowadzone przez Campbel-la, a dotyczące
kampanii na rzecz ograniczenia szybkości jazdy samochodem, prowadzonej w Connecticut.
Kampanię tę wprowadzono po rekordowej liczbie wypadków samochodowych, jaką
zanotowano w roku 19558. W wyniku wprowadzonego programu pod koniec roku 1956
zanotowano 284 śmiertelne wypadki, co, porównu-
7 Szczegółową analizę korzyści i wad badań panelowych można znaleźć w pracy
Roberta F. Borucha i Roberta W. Pearsona (1988), Assessing the Quality ofLongitudinal
Surveys, „Evaluation Revie\v", 12, s. 3-58.
8 Donald T. Campbell (1969), Reforms as Experiments, „American Psychologist",
24, s. 409-429.
154
330

_______i----------------------------------1------------------
przed wprowadzeniem po wprowadzeniu
kampanii kampanii
(1955) (1956)
Ryc. 6.5. Liczba wypadków samochodowych w latach 1955 i 1956
jąc z 324 wypadkami w roku poprzednim, dało 12,3-procentowy spadek. Otrzymane
wyniki przedstawiono na rycinie 6.5, na której świadomie uwypuklono otrzymaną różnicę. Na
podstawie tych danych władze zdecydowały, że „kampania ta okazała się zdecydowanie
opłacalna". Ponieważ jednak wniosek ten został wyprowadzony przy zastosowaniu planu z
pomiarem początkowym i pomiarem końcowym, przeto można sformułować wiele
interpretacji alternatywnych. Na przykład, że rok 1956 mogl być rokiem szczególnie suchym,
co sprzyjało mniejszej liczbie wypadków samochodowych spowodowanych przez deszcz lub
śnieg.
Można by wyciągnąć bardziej trafne wnioski przyczynowe, gdyby dane przedstawić
jako część analizy rozszerzonych szeregów czasowych, jak uczyniono to na rycinie 6.6. Ten
plan analizy szeregów czasowych pozwala na kontrolowanie czynnika dojrzewania. Dane
zbierane przez wiele lat, zanim nastąpił wyraźny wzrost liczby wypadków samochodowych,
pozwoliły na odrzucenie alternatywnej hipotezy, w której przyjmowano, że współczynnik
śmiertelności w wypadkach samochodowych i tak maleje z roku na rok. Nie byłoby to
możliwe, gdyby dane na temat nieszczęśliwych wypadków zostały zebrane jedynie na rok
przed wprowadzeniem i rok po wprowadzeniu kampanii.
Chociaż w analizie rozszerzonych szeregów czasowych uwzględnia się trzy zbiory
danych zebranych przed wprowadzeniem kampanii i trzy zbiory danych po jej wprowadzeniu,
mimo to kontrolowanie innych potencjalnych źródeł braku trafności nie jest możliwe. Na
przykład czynnik historii nadal może stanowić źródło prawdopodobnych, alternatywnych
wyjaśnień. W takiej sytuacji jedną ze strategii zwiększających siłę wnioskowania jest
wykorzystywanie — jeśli to możliwe — dodatkowych danych. Badacze mogą na przykład
sprawdzić dane meteorologiczne, aby stwierdzić, czy warunki pogodowe mogły wpłynąć na
obniżenie liczby śmiertelnych wypadków samochodowych.
Dane zbierane dla potrzeb analizy szeregów czasowych są — o czym pisaliśmy
320 310 300 290 280
155
325 -
200 -
L____i____i____i____i____i i i i i
'51 '52 '53 '54 '55 '56 '57 '58 '59
lata
Ryc. 6.6. Analiza rozszerzonych szeregów czasowych w zastosowaniu do liczby
wypadków samochodowych
już wcześniej — wrażliwe na zmiany związane z upływem czasu, nawet wówc gdy nie
wprowadzono zmiennej niezależnej. Stopień tego naturalnego braku stał tak został określony
przez Campbella: „Zasadniczym problemem i jedną z podsta wych korzyści stosowania
rozszerzonych szeregów czasowych jest to, że dostarc one próbki braku stałości"9. W
omawianym przykładzie z Connecticut władze czywiście założyły, że zarejestrowana zmiana
liczby wypadków pomiędzy ro'": 1955 a 1956 została spowodowana przez prowadzoną
kampanię. Jeżeli jednak p rżymy się rycinie 6.6, to zauważymy stosunkowo wysoką
fluktuację liczby wy ków samochodowych przed wprowadzeniem kampanii, co raczej
świadczy o nie teczności prowadzonej polityki: „spadek zanotowany pomiędzy latami 1955-1
jest mniejszy niż sukces (w postaci mniejszej liczby wypadków samochodowy zanotowany
pomiędzy latami 1954-1955 i 1952-1953. Jest to rzeczywiście najwi szy skok w serii
pomiarów, jednak przewyższa skoki zaobserwowane pomiędzy r mi 1951-1952, 1953-1954 i
1957-1958 jedynie bardzo niewiele"10. Zgodnie z. można by też zasadnie twierdzić, że
spadek zanotowany pomiędzy rokiem 19 i 1956 jest wynikiem jedynie braku stabilności serii
danych. Pomijając jednak t: prawdopodobne wyjaśnienie, można też zauważyć, że po etapie
wyraźnego wzr liczby wypadków samochodowych nie zanotowano już w kolejnych latach
żadn wzrostu, co może sugerować, że charakter szeregów czasowych uległ zmianie.
9 Ibidem, s. 413. 10 Ibidem.
156
Zjawisko artefaktu regresji, które ma charakter statystyczny i wynika z nietypowych,
skrajnych wartości danych (por. rozdział 5), również może obniżyć trafność planów z
wykorzystaniem szeregów czasowych, zwłaszcza jeżeli obserwujemy brak stałości danych.
Jako zasadę należy traktować to, że w przypadku zróżnicowanych szeregów czasowych
wybór aktualnie „najwyższego" lub „najniższego" punktu prowadzi do tego, że następny
punkt, przeciętnie, wypadnie w pobliżu ogólnego trendu. W przykładzie z Connecticut
najbardziej dramatyczna zmiana wartości w całej serii to wzrost, jaki pojawił się tuż przed
podjęciem akcji. Można zatem przypuszczać, że raczej — lub dodatkowo — ten właśnie
wzrost był przyczyną uruchomienia kampanii, a nie spodziewana jej skuteczność w obniżeniu
liczby wypadków samochodowych. Dlatego też — przynajmniej częściowo — spadek
zanotowany w roku 1956 jest artefaktem wynikającym ze skrajnie wysokiej liczby wypadków
zanotowanych w roku 1955. Oznacza to, że liczba wypadków samochodowych spadłaby tak
czy inaczej. Podstawowym problemem pozostaje zatem pytanie: Jak bardzo?
Na rycinie 6.7 przedstawiono przypadek ilustrujący sytuację, z której można by
wyciągnąć wniosek, że zmienna niezależna nie wywiera żadnego wpływu na zmienną
zależną. Wykreślona linia wznosi się zarówno przed wprowadzeniem zmiennej niezależnej,
jak i po jej wprowadzeniu. Tym, co jest tu szczególnie ważne, jest jednak to, że linia ta
wznosi się w tym samym tempie przed wprowadzeniem i po wprowadzeniu zmiennej
niezależnej.
wyniki zmiennej zależnej !1 1 l i i i
3 4 5
punkty pomiaru
Ryc. 6.7. Analiza szeregów czasowych wskazująca na brak skutku
Jeszcze trudniej zinterpretować hipotetyczne dane przedstawione na rycinie 6.8.
Narysowana krzywa zaczyna rosnąć przed wprowadzeniem zmiennej niezależnej i podobnie
dzieje się po jej wprowadzeniu. Jednakże duże zróżnicowanie zanotowane
157
I—,—I---------------1__________1__________1__________I__________l_
12 3 4 5 6
punkty pomiaru
Ryc. 6.8. Analiza szeregów czasowych ilustrująca pozorny efekt oddziaływania
przyczynowo-skutkowego
zarówno przed wprowadzeniem, jak i po wprowadzeniu zmiennej niezależnej pozwala
badaczom na uzasadnione wyprowadzanie wniosków przyczynow -skutkowych.
Ryciny 6.7 i 6.8 przedstawiają jedynie dwa rodzaje wyników, jakie można uzyskać
przy zastosowaniu metody analizy szeregów czasowych. Są one jednak do ilustracją tego, że
plany z zastosowaniem analizy szeregów czasowych, podoi jak inne plany quasi-
eksperymentalne, w których nie ma grupy porównawczej, d starczają jedynie częściowego
uzasadnienia wniosków o charakterze przyczyno-wo-skutkowym.
Plany szeregów czasowych z grupq kontrolng
Jak już wspominaliśmy wcześniej, jedną z głównych przeszkód w konstruowaniu
planów eksperymentalnych jest trudność w spełnieniu warunku losowego przyporządkowania
badanych osób lub innych badanych obiektów do grupy eksperymentalnej i grupy kontrolnej.
Procedury doboru wiązanego również mogą się ok" niewystarczające, jeżeli badacz nie
uwzględni istotnych czynników zewnętrzny Stosowanie nierównoważnych grup
porównawczych w analizie szeregów czasowych dostarcza jednak bardziej rzetelnych
uzasadnień wniosków przyczynow -skutkowych. Plany te nazywają się planami szeregów
czasowych z grupą k trolną, ponieważ stwarzają one możliwość kontrolowania czynnika
historii, doj wania i efektu powtórnego badania, które występują zarówno w grupie ekspe
mentalnej, jak i w grupie kontrolnej.
Na rycinie 6.9 przedstawiono pomiary zebrane w ramach akcji ogranicz szybkości w
Connecticut wraz z dodatkowymi danymi dotyczącymi liczby w ków samochodowych w
sąsiadujących stanach (grupa porównawcza). Aby oba s regi czasowe można było ze sobą
porównywać, Campbell przedstawił dane w staci odsetka wypadków w stosunku do liczby
ludności. Plan szeregów czasowy
158
stany kontrolne
j____i____i—i-------1-------1—i—i-------1—
*51 '52 '53 '54 '55 '56 '57 '58 '59
lata
Ryc. 6.9. Zastosowanie planu szeregów czasowych z grupą kontrolną do porównania
liczby wypadków samochodowych w stanie Connecticut i w czterech innych stanach
Na podstawie: Donald T. Campbell (1969), Reforms as Experimenls, „American
Psychologist", 24. s. 419.
z grupą kontrolną pokazuje, że w latach 1955-1956 zanotowano tendencję spadkową
w sąsiednich stanach, będącą wynikiem czynnika historii i dojrzewania (pogoda,
wprowadzenie automatycznych zabezpieczeń itd.). Te same dane wskazują także, że ogólny
układ danych dotyczących liczby wypadków zarejestrowanych w Connecticut przed rokiem
1955 jest podobny jak w pozostałych stanach. Jednakże po roku 1956 liczba wypadków w
Connecticut maleje zdecydowanie bardziej niż w pozostałych stanach i jest to tendencja stała.
Opierając się na tych danych, można postawić wniosek, że oddziaływanie wprowadzonej
kampanii przewyższyło działanie czynnika artefaktu regresji.
I Plany łqczone
Skoncentrowaliśmy się jak dotąd na najważniejszych, z wielu możliwych, planach
quasi-eksperymentalnych". Plany takie jak w przypadku klasycznego eksperymen-
1 Omówienie innych typów planów quasi-eksperymentalnych można znaleźć w pracy
Thomasa D. Cooka i Donalda T. Campbella (1979), Quasi-experimentation: Design and
Analysis Issues for Field Stttings, Skokie, 111.: Rand McNally; oraz E.A. Suchmana (1987),
Evaluation Research, Englewood Cliffs. N.J.: Prentice-Hall.
17 16 15
141-13
12 -11 -10 -
9-
8
7
159
tu kontrolowanego, omówione w rozdziale 5, umożliwiają w znacznie większym
stopniu kontrolowanie tych czynników wewnętrznych (np. czynnika historii, dojrzewania,
artefaktu regresji), które mogą wpływać na zmniejszenie trafności wniosków o charakterze
przyczynowo-skutkowym. Najsłabsze plany quasi-eksperymen-talne, jak plan z grupami
kontrastowymi, są zdecydowanie mniej pewne, jeżeli chodzi o trafność wniosków
wyprowadzanych na ich podstawie.
Plany quasi-eksperymentalne
¦ Plany quasi-eksperymentalne pozwalają na badanie więcej niż jednej próby, często
w dłuższym przedziale czasu. Mają mniejszą trafność wewnętrzną niż klasyczny eksperyment
kontrolowany i zależą od zastosowanych metod analizy danych jako metod kontroli.
¦ Plany z grupami kontrastowymi. Osoby lub inne badane obiekty są przypisywane do
określonej kategorii (np. kobiety, demokraci).
¦ Plany z zaplanowanym zróżnicowaniem. W tych planach osoby badane są
poddawane oddziaływaniu systematycznie zróżnicowanych bodźców (np. metod nauczania),
aby można było wyprowadzać wnioski o przyczynowym działaniu bodźca.
¦ Badania panelowe. W tych planach ocenia się wyniki przed wprowadzeniem i po
wprowadzeniu zmiennej niezależnej, badając tę samą próbę w kolejnych przedziałach
czasowych.
¦ Analiza szeregów czasowych. W tych planach badawczych dokonuje się wielu
pomiarów, przynajmniej trzech, przed wprowadzeniem i po wprowadzeniu zmiennej
niezależnej (takich jak wprowadzenie nowego prawa o ruchu drogowym).
¦ Plany szeregów czasowych z grupą kontrolną. Plany te łączą analizę szeregów
czasowych z analizą podobnych danych, pochodzących z innej, nierównoważnej grupy, w
celu kontrolowania wpływu takich czynników, jak: historia, dojrzewanie i efekt powtórnego
testowania.
Każdy z omówionych planów może dostarczyć trafnych informacji, lecz różnią się one
zarówno rodzajem danych, jakie generują, jak i ograniczeniami, jakie na-1 kładają na
wyprowadzanie wniosków o charakterze przyczynowo-skutkowym. Aby I przezwyciężyć te
trudności, często stosuje się podejście łączące w sobie wiele me-1 tod. Podejście to zwiększa
możliwość postawienia wniosków o charakterze przw czynowo-skutkowym, poprzez
sytematyczne łączenie dwóch łub więcej planów ba-1 dawczych dla potrzeb jednego
badania12.
Być może jednym z najbardziej pouczających zastosowań planów łączonych (tj.1
takich, w których łączy się wiele cech kilku planów badawczych) są badania nad I
szczepionką Salka przeciwko poliomyelitis, po raz pierwszy przeprowadzone wroł ku
195413. W pierwotnym planie badawczym przyjęto, że szczepionka zostanie pol
12 John Brewer, Albert Hunter (1989), Multimethod Research: A Synthesis of Styles,
Newbury Park,! Calif.: Sagę.
13 Ten akapit został oparty na pracy Paula Meiera (1972), The Biggest Health
Experiment Eva,
160

dana jedynie uczniom klas drugich, których rodzice wyrażą zgodę na udział w
badaniu, i nie zostanie podana uczniom klas pierwszych i trzecich, którzy będą traktowani
jako grupa porównawcza. Założono, że dzięki porównaniu wyników uzyskanych w grupie
eksperymentalnej i grupie porównawczej będzie można się dowiedzieć, czy szczepionka była
skuteczna. Taki plan badawczy jest jednak wysoce nieprecyzyjny, okazało się bowiem, że
polio pojawiało się częściej w okolicach, w których panowały warunki bardziej higieniczne,
niż tam, gdzie panowały warunki mniej higieniczne. Z kolei warunki bardziej higieniczne są
związane z wyższym statusem społeczno-ekonomicznym. Osoby o wyższym statusie
społeczno-ekonomicz-nym częściej wyrażają zgodę na udział w badaniu w porównaniu z
osobami o niższym statusie społeczno-ekonomicznym, dlatego też większość drugoklasistów
pochodziła właśnie z tej grupy społecznej. Można było również oczekiwać, że drugo-klasiści
zgłoszeni na ochotnika będą częściej kontaktować się z tą chorobą niż dru-goklasiści w ogóle,
a także częściej niż pierwszo- i trzecioklasiści. Taka stronniczość w doborze próby może
zatem wpłynąć na zmniejszenie trafności wnioskowania. Co więcej, jeżeli zaszczepiono by
jedynie drugoklasistów, to lekarze mogliby podejrzewać, że część spośród dzieci zachorowała
na polio właśnie z powodu szczepienia, co może z kolei spowodować istotną różnicę
pomiędzy liczbą pozytywnych diagnoz w grupie ochotników i nieochotników.
Świadomi tych problemów pracownicy publicznej służby zdrowia w niektórych
stanach zaproponowali przeprowadzenie eksperymentu terenowego, który randomi-zowatby
rozkład szczepień wśród ochotników ze wszystkich grup wiekowych. Szczepienia podano by
połowie ochotników, a połowa otrzymałaby placebo (zastrzyk ze słonej wody), aby lekarze
podejmowali decyzje diagnostyczne w warunkach „ślepej" diagnozy (tj. nie mogli odróżnić
osób z grupy eksperymentalnej i kontrolnej). Dzięki temu lekarze, dokonując diagnozy, nie
kierowaliby się własnymi oczekiwaniami.
W efekcie niektóre ze stanów wdrożyły pierwotny projekt, inne kontrolowany plan z
randomizacją. Wyniki otrzymane w drugim wypadku wskazały na wyraźne zmniejszenie
liczby zachorowań na polio, z 57 przypadków na 100 000 osób w grupie porównawczej do 16
przypadków na 100 000 w grupie eksperymentalnej. Natomiast w tych stanach, w których
zaszczepiono tylko drugoklasistów, zanotowano podobną liczbę przypadków (17 na 100 000)
zarówno w grupie eksperymentalnej, jak i w grupie, w której podano placebo. Oczekiwany
efekt stronniczości doboru próby, polegający na wzroście stwierdzonej liczby przypadków w
grupie ochotników w porównaniu z nieochotnikami, ujawnił się w całej próbie. Wśród osób
otrzymujących placebo największą liczbę zachorowań stwierdzono u ochotników (57 na 100
000), podczas gdy w grupie nieochotników 36 przypadków na 100 000. W stanach, w których
zastosowano pierwotny plan quasi-eksperymentalny, pierwszo- i trzecioklasiści, którym nie
zaproponowano ochotniczego udziału w badaniu i którzy nie zostali zaszczepieni, mieścili się
pośrodku obu tych skrajnych wyników i zanotowano u nich 46 przypadków na 100 000. W
badaniach nad szczepionką Salka posłużono się zatem równolegle dwoma planami
badawczymi, które się wzajemnie uzupełniały.
w. Judith M. Tamur i in. (red.), Statistics: A Guide to the Unknown, Oakland, Calif.:
Holden Day, I 213; także K.A. Brownlee (1955), Statistics of the 1954 Polio Vaccine Trials,
,Journal of the American Statistical Association", 50, s. 1005-1013.
161
W wielu innych sytuacjach posługiwanie się jedynie planem quasi-eksperymentalnym
nie jest wystarczającą podstawą otrzymania rzetelnych wyników. Kiedy analizujemy złożone
problemy, często — jedną lub więcej głównych składowych tego problemu — możemy badać
eksperymentalnie, podczas gdy pozostałe komponenty mogą się nie nadawać do badań
eksperymentalnych. Wybór czynników, które zostaną włączone w złożone plany, zależy od
specyfiki badanego problemu i pomysłowości badaczy.
¦ Plany preeksperymentalne
W planach preeksperymentalnych nie można stosować manipulacji eksperymentalnej i
nie można losowo przyporządkowywać badanych osób do grupy eksperymentalnej i grupy
kontrolnej. W rzeczywistości plany te bardzo często w ogóle nie mają grupy kontrolnej.
Ponadto w badaniach preekspery mentalnych respondenci nie są losowo wybierani z większej
populacji, a także nie stosuje się metod statystyki wie-lozmiennowej jako substytutu grupy
kontrolnej. Plan preeksperymentalny jest najsłabszym planem badawczym, ponieważ nie
kontroluje się tu większości źródeł trat-ności zewnętrznej i wewnętrznej planu. Ryzyko
popełnienia błędu przy wyprowadzaniu wniosków przyczynowo-skutkowych na podstawie
planu preekspery mentalnego jest szczególnie duże i dlatego plany te najczęściej stosuje się
przy wstępnym testowaniu niektórych hipotez badawczych oraz w badaniach
eksploracyjnych. Przykładem zastosowania planu preeksperymentalnego jest jednorazowa
analiza przypadku.
Jednorazowa analiza przypadku
Jednorazowa analiza przypadku polega na dokonaniu pomiaru jednej grupy lub
jednego zdarzenia w jednym punkcie czasowym, zazwyczaj po wystąpieniu tego zjawiska,
które naszym zdaniem jest przyczyną obserwowanych zmian. Na przy-1 kład badanie takie
może dotyczyć określonej społeczności po wprowadzeniu pro-1 gramu renowacji miasta,
systemu politycznego po wyborach powszechnych czyj szkoły po wprowadzeniu nowych
technik nauczania.
Przykład programu Head Start jest bardzo żywą ilustracją pułapek stwarzanych I przez
jednorazową analizę przypadku. W styczniu 1965 roku prezydent LyndonB. I Johnson
poinformował opinię publiczną, że do programu działań na rzecz spole-j czeństwa,
Community Action Program, zostanie włączony program o nazwie Head I Start,
przeznaczony dla dzieci w wieku przedszkolnym. Początkowo rząd przezna-1 czył 17
milionów dolarów, aby w lecie 1965 roku 100 000 dzieci mogło wziąB udział w tym
programie14. Rozgłos, jaki zyskał program Head Start, zaowocowali licznymi żądaniami ze
strony władz lokalnych domagających się funduszy na tefl cel. Odpowiedzią na te żądania
było przyznanie przez Office of Economic Oppor-1 tunity (OEO) 103 milionów dolarów,
które przeznaczono na to, aby 560 000 dzieci I w lecie 1965 roku mogło wziąć w nim udział.
Później, w tym samym roku. program I
14 Ten fragment został oparty na pracy Waltera Williamsa i Johna W. Evansa (1969),
The PoWm of Evaluation: The Case of Head Start, „Annals of the American Academy of
Political and Social Science", 385, s. 118-132.
162
Head Start stał się trwałym elementem programu walki z ubóstwem. Według
prezydenta Johnsona program ten został sprawdzony „w walce" i „okazał się wartościowy", i
w efekcie został uznany za program całoroczny. W roku 1968 przeznaczono 330 milionów
dolarów dla 473 000 dzieci biorących udział w letnim programie i 218 000 dzieci biorących
udział w programie całorocznym. Program Head Start stał się największym pojedynczym
elementem działań w ramach Community Action Program.
Aż do połowy 1967 roku nie uzyskano jednak żadnych wyraźnych dowodów
świadczących o skuteczności tego programu. Członkowie Kongresu, Komisji Budżetowej i
władze OEO domagali się potwierdzenia jego efektywności. Dlatego też dziat zajmujący się
badaniami w Office of Research, Plans, Programs and Evalua-tions zaproponował
przeprowadzenie jednorazowej analizy przypadku dla programu Head Start polegającej na
tym, że dzieci, które brały udział w programie i są aktualnie w klasie pierwszej, drugiej i
trzeciej, zostaną przebadane zestawami testów odnoszących się do umiejętności poznawczych
i procesów emocjonalnych. Wyniki uzyskane przez dzieci w tych testach zostaną następnie
potraktowane jako dowód skuteczności programu Head Start.
Kierownictwo programu Head Start oponowało przeciwko temu, twierdząc, że
badania oparte na takim planie badawczym nie mogą dostarczyć solidnego wsparcia na rzecz
przyczynowego oddziaływania tego programu. Uzyskane różnice w poziomie wykonania
testów można będzie bowiem uzasadnić za pomocą wyjaśnień i hipotez alternatywnych.
Twierdzono, że badania przeprowadzone jedynie w momencie działania programu nie
dostarczą żadnych danych porównawczych, a właśnie porównywanie jest istotą
wnioskowania przyczynowo-skutkowego. Co więcej, taki plan badawczy nie pozwoli na
zebranie danych, na podstawie których można by wyciągnąć wniosek, że program ten w ogóle
ma jakiś wpływ na funkcjonowanie dzieci. Aby można było wyprowadzić trafne wnioski
przyczynowo-skutkowe, należy przeprowadzić badanie, zanim program zostanie wdrożony.
Jednorazowa analiza przypadku nie pozwala na kontrolowanie czynników zewnętrznych i
wewnętrznych. Nie umożliwia również porównywania danych zebranych przed i po
wprowadzeniu zmiennej manipulacyjnej, a także pomiędzy grupą eksperymentalną i
kontrolną. Jednorazowej analizy przypadku nie można zatem wykorzystać do badania
związków przyczynowo-skutkowych.
Jednorazowa analiza przypadku jest jednak użyteczna w badaniach eksploracyjnych.
Umożliwia ona wgląd w badany program, a to z kolei pozwala na sformułowanie hipotez
badawczych. Jednakże w przypadku programu Head Start tak słaby plan badawczy został
wykorzystany do sprawdzenia skuteczności programu, a kiedy uzyskano odpowiednie dane,
zostały one zignorowane właśnie z powodu „problemów wynikających z planu
badawczego"15.
Pomijając te ograniczenia, w przypadku wielu pytań dotyczących polityki —
zwłaszcza spornych problemów, kiedy trudno jest zastosować plan eksperymentalny lub
quasi-eksperymentalny — jednorazowa analiza przypadku może się okazać jedyną dostępną
techniką.
Ponieważ w określonych dziedzinach liczba badań polegających na analizie przy-
David Nachmias, Gary T. Henry (1980), The Utilization of Evaluation Research:
Problems and mtpects, w: David Nachmias (red.), The Practice of Policy Evaluation, New
York: St. Martin's Press,
s. 461-476
3
Head

ten
r-
tics
163
padków stale rośnie, przeto — aby przezwyciężyć ograniczenia wynikające z
jednorazowego zastosowania tej metody — należy integrować wyniki pochodzące z
różnorodnych badań. Taką metodę integrowania analiz przypadków zaproponował Mi-chael
Berger. W metodzie tej — przeglądowej analizie przypadków — dokonuje się analizy treści
poszczególnych badań, agreguje kolejne wnioski i następnie dokonuje się generalizacji
wniosków w stosunku do wszystkich badań jako całości16.
¦ Porównanie planów badawczych
W tym rozdziale podobnie jak i w rozdziale 5 skoncentrowaliśmy się na dwóch
podstawowych problemach badań naukowych: wnioskowaniu przyczynowo--skutkowym i
uogólnianiu wyników. Problemy te są źródłem istotnego dylematu: starania o to, aby uzyskać
jednoznaczne dane dotyczące przyczynowości (trafność wewnętrzna), prowadzą często do
obniżenia możliwości generalizowania (trafność zewnętrzna). Plany badawcze, które są
mocne z punktu widzenia trafności wewnętrz-1 nej, takie jak plany eksperymentalne,
zazwyczaj są słabe, jeśli chodzi o trafność zewnętrzną. Z kolei plany, które są słabe z punktu
widzenia trafności wewnętrznej. jak np. jednorazowa analiza przypadku, są na mocy definicji
również słabe z punktu widzenia trafności zewnętrznej. Brak trafności wewnętrznej
uniemożliwia bowiem I dokonywanie jakichkolwiek uogólnień.
Być może największe ograniczenie trafności wewnętrznej planu badawczego wynika z
braku właściwej kontroli czynników wewnętrznych i zewnętrznych w stosunku do planu
badawczego. Aby wyniki badania mogły być uogólnione, plan ba-1 dawczy powinien
umożliwiać przeprowadzenie badania na próbie reprezentatywnej I dla populacji w
rzeczywistych warunkach społecznych lub w rzeczywistej sytuacji. I Można czasami
poprawić trafność zewnętrzną planu badawczego, zwiększając he-1 terogeniczność próby i
sytuacji eksperymentalnej. Zwiększanie realizmu badania I oraz heterogeniczności może
jednak prowadzić do zmniejszenia możliwości stoso-l wania procedur kontroli.
Porównajmy teraz słabości i zalety różnych schematów badawczych. I tak, podł czas
gdy eksperymenty są silne ze względu na możliwość kontroli, a słabe, jeśli I idzie o
reprezentatywność, to quasi-eksperymenty i badania przekrojowe są silne I z punktu widzenia
reprezentatywności i słabe ze względu na możliwość kontroli. I Badania eksperymentalne
mają wiele zalet. Przede wszystkim, i to jest najważniej-1 sze, umożliwiają wyprowadzanie
wniosków przyczynowo-skutkowych dzięki moż-l liwości kontroli — szczególnie poprzez
randomizację — większości czynników! wewnętrznych i zewnętrznych w stosunku do planu
badawczego. Po drugie, ekspe-1 rymenty umożliwiają kontrolowanie procedury
wprowadzania zmiennej niezalez-l nej, co pozwala określić kierunek zależności
przyczynowo-skutkowej. NąjważniejM szym ograniczeniem quasi-eksperymentów, badań
przekrojowych i zwłaszcza prfrB eksperymentów jest brak tych właściwości. Brak właściwej
kontroli nad alternatyw nymi wyjaśnieniami i trudności w manipulowaniu zmienną niezależną
sprawiaj™ że badaczom trudno jest formułować jednoznaczne wnioski.
16 Michael A. Berger (1986), Studying Enrollment Decline (and Other Timely Issues)
via the Goj Survey, „Evaluation Studies", 11, s. 720-730.
164
Zalety i wady planów badawczych stosowanych w naukach społecznych
Plany eksperymentalne Zalety
¦ Badania eksperymentalne w dużym stopniu umożliwiają kontrolowanie czynników
wewnętrznych i zewnętrznych w stosunku do planu badawczego, co zwiększa trafność
wnioskowania przyczynowo-skutkowego (trafność wewnętrzną).
¦ Badania eksperymentalne umożliwiają kontrolowanie procedury wprowadzania
zmiennej niezależnej, co pozwala określić kierunek zależności przyczynowo-skutkowej.
Wady
¦ Trafność zewnętrzna planu jest słaba, ponieważ schematy eksperymentalne nie
pozwalają na odtwarzanie rzeczywistych sytuacji społecznych.
¦ Eksperymentatorzy muszą często korzystać z ochotników lub z osób, które same
przydzieliły się do grupy badawczej. Dlatego próba może nie być reprezentatywna dla
badanej populacji, co uniemożliwia dokonywanie uogólnień i ogranicza zakres uzyskanych
wyników.
Plany przekrojowe i plany quasi-eksperymentalne Zalety
¦ Umożliwiają prowadzenie badań w warunkach naturalnych i rzeczywistych, co
zwiększa trafność zewnętrzną badań.
¦ Nie wymagają losowego przyporządkowywania osób badanych do grup
porównawczych. Mimo że ogranicza to trafność wewnętrzną badań opartych na tych
schematach, równocześnie pozwala na badanie takich sytuacji, w których przydzielanie osób
badanych czy to do grupy kontrolnej, czy do grupy eksperymentalnej może być nieetyczne
lub niemożliwe.
Wady
¦ Brak właściwej kontroli nad alternatywnymi wyjaśnieniami sprawia, że trudno jest
formułować jednoznaczne wnioski.
¦ Ponieważ badacze często nie mogą manipulować zmienną niezależną, więc mogą
określić kierunek związku przyczynowo-skutkowego jedynie przez wnioskowanie logiczne
lub teoretyczne.
Plany preeksperymentalne
Zalety
¦ Pozwalają na zbieranie informacji wtedy, kiedy nie można zastosować żadnych
innych planów badawczych. Mogą też stanowić uzasadnienie prowadzenia dalszych, bardziej
trafnych badań.
Wady
¦ Są bardzo słabe zarówno pod kątem trafności wewnętrznej, jak i zewnętrznej i nie
pozwalają na wyprowadzanie wniosków przyczynowo-skutkowych.
Eksperymenty jednak, mimo że par excellence są akceptowane jako metody naukowe,
mają również liczne ograniczenia. Eksperymenty, a szczególnie eksperymenty laboratoryjne,
krytykuje się ze względu na ich sztuczność i brak przystawalności do rzeczywistych sytuacji
życiowych. Zdaniem krytyków, o czym będziemy mówić w rozdziale 9, w sytuacji
eksperymentalnej nie da się odtworzyć realnych warunków i dlatego eksperymenty nie nadają
się do badania istotnych problemów. Drugie ograniczenie dotyczy schematu doboru próby. W
planach eksperymentalnych trudno zapewnić reprezentatywność badanej populacji. W wielu
eksperymentach korzysta się po prostu z ochotników lub w najlepszym razie z próby
przypadkowej. Brak reprezentatywności próby uniemożliwia dokonywanie uogólnień i
ogranicza zakres uzyskanych wyników. Z kolei odwrotnie, większość badań przekrojowych
prowadzonych jest w warunkach naturalnych i umożliwia korzystanie z próby
probabilistycznej. Dzięki temu badacze mogą przenosić wnioski statystyczne na większe
populacje i uogólniać otrzymane wyniki na realne sytuacje życiowe.
Ponieważ żaden z planów badawczych nie rozwiązuje jednocześnie problemu, kontroli
i reprezentatywności, przeto badacz stoi przed trudnym wyborem. Chociaż w praktyce natura
badania dyktuje, co wybrać, badacze na ogół akceptują zasadę. że zapewnienie trafności
wewnętrznej badania jest ważniejsze niż zapewnienie trafności zewnętrznej. Co więcej,
eksperymenty, badania przekrojowe i quasi-ekspery-menty można poprawić. Badacze
stosujący eksperymenty mogą zwiększyć ich trafność zewnętrzną przez wyraźne definiowanie
badanej populacji i przez losowy do-1 bór badanych obiektów z populacji za pomocą
probabilistycznego schematu pobie-l ranią próby. Badacze stosujący badania przekrojowe i
quasi-eksperymenty mogą. w dużym stopniu zwiększyć trafność wewnętrzną poprzez
włączanie dodatkowych] informacji jako formy kontroli nad alternatywnymi wyjaśnieniami.
Stosowanie bar-1 dziej zaawansowanych technik statystycznych, takich jak analiza ścieżek
czy ana-l liza przyczynowości, pozwala badaczom prowadzącym badania przekrojowe czyi
quasi-eksperymentalne na poprawienie jakości wniosków przyczynowo-skutkowych.1
¦ Podsumowanie
1. Randomizacja, wraz ze staranną kontrolą eksperymentalną, daje badaczom fl łę i
moc przekonywania, jakich nie dają żadne inne, powszechnie stosowane meto-1 dy. Jednakże
związki typu właściwość-dyspozycja nie poddają się łatwo ekspery-1 mentowaniu, a
problemy natury społecznej, politycznej i etycznej mogą zniechęć™ lub uniemożliwić
zastosowanie planów eksperymentalnych w przypadku związków I typu bodziec-reakcja.
2. Plany przekrojowe, najczęściej stosowane w badaniach sondażowych, wyk™
rzystuje się w badaniach dotyczących związków pomiędzy właściwościami a dn pozycjami.
Plany te mogą w przybliżeniu osiągnąć status planów z grupą kontrotał i pomiarem
końcowym przez zastosowanie statystycznych technik analizy danydH
3. Plany quasi-eksperymentalne są podobne do planów przekrojowych pódl
względem słabszej trafności wewnętrznej niż w planach eksperymentalnych orał konieczności
stosowania statystycznych technik analizy danych jako metody koM troli. Przewyższają one
jednak plany przekrojowe, ponieważ zazwyczaj obejmujB badanie więcej niż jednej próby, w
większym przedziale czasu. Plany z grupaB
166
kontrastowymi i plany z zaplanowanym zróżnicowaniem to plany quasi-eksperymen-
talne. Badania panelowe i analiza szeregów czasowych oparte są na planach quasi--
eksperymentalnych rozciągniętych w czasie.
4. Badania oparte na planach preeksperymentalnych takie, jak jednorazowa analiza
przypadku, są tradycyjnie wykorzystywane wtedy, gdy przeprowadzenie eksperymentu nie
jest możliwe. Preeksperymenty to najsłabsze plany badawcze, ponieważ badacze nie mogą
kontrolować większości czynników determinujących trafność zewnętrzną i wewnętrzną planu.
plany quasi-eksperymentalne 147 plany szeregów czasowych
z grupą kontrolną 158 plany z zaplanowanym zróżnicowaniem 150 związek pomiędzy
bodźcem
a reakcją 143 związek pomiędzy właściwościami
a dyspozycjami 143
1. Opisz rodzaje związków, które można badać za pomocą planów eksperymentalnych
i quasi-eksperymentalnych. Podaj po jednym przykładzie każdego z nich.
2. Opracuj plan quasi-eksperymentalny, który można by wykorzystać w badaniu
wpływu edukacji seksualnej na odsetek ciąż u nastolatek. Wyjaśnij dokładnie swój sposób
myślenia oraz omów wady i zalety skonstruowanego przez siebie planu.
3. Omów różnice pomiędzy planami łączonymi, planami przekrojowymi oraz planami
panelowymi, wskazując ich słabe i mocne strony.
4. Omów ograniczenia planów preeksperymentalnych.
5. Wyjaśnij, dlaczego plany z wysoką trafnością wewnętrzną mają zazwyczaj niską
trafność zewnętrzną.
I Literatura dodatkowa
Brzeziński J. (1997). Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd.
Nauk. PWN. Mayntz R.. Holm K., Hubner P. (1985), Wprowadzenie do metod socjologii
empirycznej, Warszawa:
PWN. Nowak S. (1985), Metodologia badań społecznych, Warszawa: PWN. Sulek A.
(1979), Eksperyment w badaniach społecznych, Warszawa: PWN. Sulek A. (1986), Metody
analizy socjologicznej. Wybór tekstów, Warszawa: Wyd. UW.
¦ Podstawowe terminy
analiza rozszerzonych
szeregów czasowych 155 analiza szeregów czasowych 154 badania panelowe 153
grupy kontrastowe 148 jednorazowa analiza przypadku 162 plany łączone 160 plany
przekrojowe 145
¦ Pytania sprawdzajqce
Rozdział 7
Pomiar
Natura pomiaru 170
Definicja pomiaru 171 Struktura pomiaru 171
Poziomy pomiaru 173
Poziom nominalny 173 Poziom porządkowy 174 Poziom interwałowy 176
Poziom stosunkowy 177
Transformacja danych 178
Błąd pomiaru 179
Trafność 180
Trafność treściowa 180 Trafność empiryczna 181 Trafność teoretyczna 183
Rzetelność 185
Metoda powtórnego testowania 1 Metoda form równoległych 187 Metoda
połówkowa 188
Podsumowanie 189
Podstawowe terminy 190
Pytania sprawdzające 190
Literatura dodatkowa 190
W jaki sposób ekonomiści mogą sprawdzić, czy bezpieczeństwo społeczne, dobrobyt
lub emerytury wypłacane w stanie Illinois są porównywalne z tymi, które się wypłaca w
stanie Missisipi czy we Francji? To, czego ekonomiści potrzebują, to instrumenty mierzące
koszty dóbr i usług, które można stosować konsekwentnie prawie we wszystkich
współczesnych ekonomiach. Takim instrumentem jest wskaźnik kosztów utrzymania.
Wskaźnik ten dostarcza wzorów matematycznych pozwalających obliczyć i porównać zmiany
w wysokości cen, niezależnie od wykorzystywanej waluty. Stosuje się go, ponieważ jest
precyzyjny, rzetelny i trafny. Zanim został stworzony, ekonomiści nigdy nie byli w stanie
dokładnie wskazać, które strefy ekonomii były odpowiedzialne za inflację. Również
instytucje rządowe nie potrafiły właściwie dostosować płac do potrzeb. Ponieważ badacze w
naukach społecznych w ogromnej mierze opierają się na miarach takich jak wskaźnik
kosztów utrzymania, przeto muszą bardzo dokładnie określić, na ile takie miary
odzwierciedlają rzeczywistość. Jednym z problemów omawianych w tym rozdziale jest
dokładność tego typu miar.
W tym rozdziale zajmiemy się naturą pomiaru w naukach społecznych oraz omówimy
pojęcie izomorfizmu, które dotyczy tego, w jaki sposób instrument pomiarowy jest powiązany
z mierzoną rzeczywistością. Przedstawimy następnie cztery poziomy pomiaru: nominalny,
porządkowy, interwałowy i stosunkowy. Dalej przedyskutujemy zagadnienie błędu pomiaru.
Rozdział zakończymy opisem pojęcia trafności — tj. czy instrument pomiarowy mierzy to, co
z założenia miał mierzyć — oraz rzetelności — tj. czy i na ile wyniki otrzymane za pomocą
instrumentu pomiarowego nie zmieniają się z jednego pomiaru na drugi.
Kiedy zdecydujemy się na wybór problemu badawczego i określimy hipotezy
badawcze, natychmiast stajemy wobec dwóch problemów: w jaki sposób zaprojektować
badanie i jak zmierzyć zmienne. W rozdziale 5 i 6 omówiliśmy zagadnienia związane z
wyborem planu badawczego. W tym rozdziale skoncentrujemy się na pomiarze, jego naturze i
strukturze, poziomach pomiaru oraz na trafności i rzetelności narzędzi pomiarowych. Istotą
zagadnień związanych z pomiarem jest, odwołując się do klasycznych dziś słów Norberta
Wienera to, że „obiekty [...] nie poruszają się z naklejonymi na sobie informacjami, na
przykład o ładowności — ustalenie ich miar wymaga nieco więcej poszukiwań"1. W
niektórych sytuacjach będzie to poszukiwanie miar już istniejących i omawianych w
literaturze fachowej, w innych — badacz musi sam opracować miary, które pozwolą zamienić
obserwacje empiryczne na formy wymagane przez problem i plan badawczy. Badacze muszą
ponadto uzasadnić, że wybrane przez nich miary są trafne i rzetelne.
1 Norbert Wiener (1920), A New Theory of Measurement: A Study in the Logic of
Mathematics, „Proceedings of the London Mathematical Society", 19, s. 181. Praca ta
cytowana jest w: Billy J. Franklin, Harold W. Osborne (red.) (1971), Research Methods:
Issues and Insights, Belmont, Calif.: Wads-wotth, s. 118.
169
¦ Natura pomiaru
Pojęcie pomiaru jest ściśle powiązane z pojęciem definicji operacyjnych, które
omówiliśmy w rozdziale 2. Definicje operacyjne to procedury pomiarowe łączące poziom
pojęciowo-teoretyczny z poziomem empiryczno-obserwacyjnym. Mówiąc dokładniej, pomiar
to procedura, w której przyporządkowuje się, zgodnie z określonymi zasadami, wartości
liczbowe — cyfry lub inne symbole — właściwościom empirycznym (zmiennym)2.
Przypuśćmy, że chcemy kupić nowy samochód. Ponieważ okazało się, że różnica w cenie
pomiędzy różnymi samochodami średniej klasy jest niewielka, więc zdecydowaliśmy się na
kupno takiego modelu, który najlepiej nam odpowiada pod względem kształtu, parametrów
ekonomicznych i warunków serwisowania. Każda z tych trzech cech może przybierać różne
wartości. I tak na przykład, jeden model może mieć dobrze zaprojektowaną sylwetkę oraz
dobre parametry ekonomiczne, ale warunki serwisowe określone przez producenta nie
zadowalają nas. W związku z tym decydujemy się porangować każdą z tych cech,
wykorzystując skalę składającą się z pięciu wartości: 10, 11, 12, 13 i 14, gdzie 10 oznacza
całkowity brak zadowolenia, a 14 — pełne zadowolenie. Wartości 11, li i 13 wskazują na
rosnące zadowolenie w stosunku do analizowanej cechy. Teraz możemy ocenić każdy z
pięciu modeli. W tabeli 7.1 przedstawiliśmy ocenę każdego modelu zgodnie z wybranymi
kryteriami. Po przeanalizowaniu wyników zdecydowaliśmy się na kupno samochodu C,
ponieważ otrzymał on najwyższą ocenę we wszystkich trzech punktach. Ocena ta oznacza, że
biorąc pod uwagę trzy wybrane kryteria, model C najbardziej nas zadowoli.
Przedstawiony tu system uporządkowania marek samochodów choć jest najbar-1 dziej
uproszczonym przykładem pomiaru, obrazuje istotę idei pomiaru — zgodnie bowiem z
określonymi regułami przyporządkowaliśmy wartości liczbowe określonym cechom.
Własności czy zmienne, liczby i reguły przyporządkowania znalazły się w instrukcji, którą
wcześniej opracowaliśmy. Możemy dalej wykorzystać wartości liczbowe, które otrzymaliśmy
w wyniku pomiaru, aby porównać, ocenić i określić relacje pomiędzy różnymi mierzonymi
cechami. Możemy, na przykład, obliczyć stopień powiązania pomiędzy kształtem a
parametrami ekonomicznymi, czy pomiędzy kształtem a oferowanymi usługami
serwisowymi.
Tabela 7.1. Rangowanie preferencji
Sylwetka Parametry ekonomiczne Usługi serwisowe
Samochód A 10 11 10
Samochód B 13 14 12
Samochód C 14 14 14
Samochód D 14 12 13
Samochód E 10 12 14
2 S.S. Stevens (1951), Mathematics, Measurement and Psychophysics, w: S.S. Stevens
(red.). Hani-book of Experimental Psychology, New York: Wiley, s. 8.
170
Definicja pomiaru
Zacznijmy od sprecyzowania, co rozumiemy przez trzy pojęcia wykorzystywane do
definiowania pomiaru, tj. co to są cyfry, przyporządkowanie i reguły. Cyfry to symbole
przedstawiane w postaci I, II, III,..., lub 1, 2, 3,... Cyfry nie mają znaczenia ilościowego,
dopóki im takiego sensu nie nadamy. Cyfry można wykorzystywać do opisywania zjawisk,
obiektów czy osób. Możemy za ich pomocą określać miesiące, prawa jazdy, ulice, książki,
zmienne czy graczy w futbol. Cyfry, które mają znaczenie ilościowe, stają się liczbami i same
umożliwiają wykorzystywanie technik matematycznych i statystycznych w procesie
opisywania, wyjaśniania i przewidywania. Innymi słowy, liczby nadają się do analiz
ilościowych, które mogą dostarczyć nowych informacji o badanym zjawisku.
W definicji pomiaru termin „przyporządkowanie" oznacza przydzielanie. Cyfry lub
liczby są przydzielane obiektom czy zdarzeniom. Na rycinie 7.1 zobrazowaliśmy ideę
przydzielania w procesie pomiaru: w zbiorze okręgów i kwadratów, cyfrę 1 przydzielono
okręgom, a 2 kwadratom.
Trzecim pojęciem wykorzystywanym w definicji pomiaru jest pojecie reguł. Reguła
określa procedurę, jaką posłużono się w trakcie przypisywania cyfr lub liczb obiektom czy
zdarzeniom. Reguła może stanowić: „Przyporządkuj systemom politycznym liczby od 10 do
15, zgodnie ze stopniem ich demokratyczności. Jeżeli system polityczny jest w wysokim
stopniu demokratyczny, to przyporządkuj mu liczbę 15. Jeżeli jest całkowicie
niedemokratyczny, to przyporządkuj mu liczbę 10. Systemom politycznym, mieszczącym się
pomiędzy tymi stopniami demokracji, przyporządkuj liczby mieszczące się pomiędzy
liczbami 10 i 15". Na przykład przypuśćmy, że pewna grupa składa się z trzech demokratów i
dwóch republikanów. Badacz może tu zastosować następującą regułę przyporządkowywania:
„Jeżeli dana osoba jest demokratą, to przydziel jej cyfrę 1; jeżeli jest republikaninem —
przydziel jej cyfrę 2". Ilustrację zastosowania tej reguły przedstawiliśmy na rycinie 7.2.
Ryc. 7.1. Przyporządkowywanie — przekształcanie Ryc. 7.2.
Przyporządkowywanie według reguły
Struktura pomiaru
Pomiar zatem to przyporządkowywanie cyfr lub liczb obiektom, zdarzeniom lub
zmiennym zgodnie z określonymi regułami. Reguły są najbardziej istotnym elementem
procedury pomiarowej, ponieważ wyznaczają jakość pomiaru. Złe reguły sprawiają, że
pomiar jest pozbawiony sensu. Pomiar jest bezsensowny wówczas, kiedy nie przystaje do
rzeczywistości, kiedy brakuje mu podstaw empirycznych. Funkcją reguł właśnie jest wiązanie
procedury pomiarowej z rzeczywistością. Przy-
171
puśćmy na przykład, że chcemy dokonać pomiaru miękkości trzech obiektów. Jeżeli
obiekt A może zarysować obiekt B i nie vice versa, to obiekt B jest bardziej miękki niż obiekt
A. Podobnie, jeżeli obiekt A może zarysować obiekt B i obiekt B może zarysować obiekt C,
to A prawdopodobnie również zarysuje C. Możemy zatem wyciągnąć wniosek, że obiekt C
jest bardziej miękki niż obiekt A. Ponieważ możemy to sprawdzić, więc — po
przeprowadzeniu kilku testów na zarysowanie — możemy przyporządkować każdemu
obiektowi liczby wskazujące na stopień jego miękkości. W tej sytuacji procedura pomiarowa i
system liczbowy są izomorficzne w stosunku do rzeczywistości.
Izomorfizm oznacza „podobieństwo lub identyczność struktury". Podstawowym
pytaniem w dziedzinie pomiaru jest pytanie o to, czy wykorzystany system liczbowy ma
podobną strukturę do struktury mierzonych pojęć. W naukach fizycznych problem
izomorfizmu ma zazwyczaj znaczenie drugorzędne, ponieważ relacja pomiędzy mierzonymi
pojęciami a liczbami przypisanymi dokonanym obserwacjom jest najczęściej bezpośrednio
dana. W naukach społecznych natomiast naukowcy muszą zawsze być świadomi tego, że
podobieństwo to nie musi być ani oczywiste, ani wprost określone:
aby mogli oni dokonywać określonych operacji na liczbach, które zostały
przyporządkowane obserwacjom, struktura zastosowanej przez nich metody
przyporządkowania liczb obiektom musi być izomorficzna względem określonej struktury
liczbowej zawierającej te operacje3.
Kiedy mówimy, że dwa systemy są izomorficzne, mamy na myśli to, że mają one
podobne struktury i że relacje pomiędzy ich elementami lub dopuszczanymi przez nie
operacjami są również identyczne. Dlatego też, kiedy badacz przyporządkowuje liczby
obiektom lub systemom, a następnie manipuluje tymi liczbami przez, powiedzmy, ich
dodawanie, to tym samym przyjmuje, że struktura tego systemu pomiam jest izomorficzna
względem relacji zachodzących wewnątrz lub pomiędzy badanymi zjawiskami.
W naukach społecznych bardzo często dokonujemy pomiaru wskaźników po-1 jęć.
Pojęć takich, jak: demokracja, motywacja, wrogość czy władza nie można obserwować
bezpośrednio; badacze wyprowadzają wnioski dotyczące tych pojęć na podstawie pomiaru ich
empirycznych, obserwowalnych wskaźników. Jeżeli w sys-1 ternie politycznym regularnie
przeprowadza się wybory, to można sądzić, że jest to jeden ze wskaźników demokracji. Jeżeli
rozwiązując test dotyczący motywacji, otrzymamy określony wynik, to psycholog może na tej
podstawie wyciągnąć wnioski I o naszym poziomie motywacji. W przykładach tych określone
zachowanie zostało potraktowane jako wskaźnik pojęcia teoretycznego. Uczeni, badając
pojęcia abstrakcyjne, bardzo często opracowują wskaźniki złożone. Wiele istotnych pojęć
stosowanych w naukach społecznych to właśnie pojęcia wielopłaszczyznowe, wymagające
tworzenia złożonych wskaźników uwzględniających różne aspekty badanego pojęcia. I tak na
przykład w pojęciu demokracji mieści się znacznie więcej niż zjawisko wyborów. Uczciwość
wyborów, wolność prasy, swoboda w tworzeniu or-
3 Sidney N. Siegel (1988), Nonparametric Statistics for the Behavioral Sciences, New
York: Mci Graw-Hill, s. 22.
172
ganizacji i prawa mniejszości to przykład innych istotnych cech. Dlatego
systematyczność wyborów nie jest wystarczającym wskaźnikiem stopnia demokratyzacji
społeczeństwa. Każda z wymienionych cech może zostać potraktowana jako dodatkowy
wskaźnik globalnego procesu.
Wskaźników nie można tworzyć arbitralnie. Powinny one mieć odniesienia zarówno
w teorii, jak i w empirii. I tak wskaźniki demokracji opisane w poprzednim przykładzie
zostały wyprowadzone i z teorii demoracji, i z rzeczywistego funkcjonowania systemu
politycznego. I chociaż sam proces pomiaru pojęć bezpośrednio obserwowalnych jest taki
sam jak proces pomiaru wskaźników pojęć, to określenie regut przyporządkowania w drugim
przypadku sprawia więcej kłopotów, ponieważ proces pomiaru wskaźników wymaga
szerszego zakresu wnioskowania. Trafność wyprowadzanych wniosków może z kolei zależeć
od zastosowanej metodologii i logicznej struktury teorii leżącej u podstaw badań. I wreszcie,
procedura pomiaru ma sens z punktu widzenia nauki jedynie wtedy, kiedy można ją powiązać
z jakąś teorią wyjaśniającą.
Podsumowując, wskaźniki są określane przez definicje operacyjne. Po dokonaniu
obserwacji wskaźników badacze mogą zastąpić obserwowane wartości tych wskaźników za
pomocą cyfr lub liczb i przeprowadzić analizę ilościową. Struktura numeryczna narzędzia
pomiarowego musi być taka sama, pod względem relacji i operacji, jak struktura wskaźnika;
zatem obie struktury muszą być izomorficzne.
I Poziomy pomiaru
Ponieważ system numeryczny i mierzone właściwości empiryczne (wskaźniki) muszą
być izomorficzne, można wyróżnić różne sposoby pomiaru czy, używając języka
technicznego, różne poziomy pomiaru. (Czasami zamiast terminu „poziom pomiaru" używa
się terminu „skala". Skale można traktować jako instrument pomiarowy — skalą jest licznik
szybkości, podobnie jak linijka czy kwestionariusz). Operacje matematyczne i statystyczne,
jakie można przeprowadzić na określonym zbiorze liczb, zależą od osiągniętego poziomu
pomiaru. Omówimy cztery podstawowe poziomy pomiaru — nominalny, porządkowy,
interwałowy i stosunkowy — oraz istotę podstawowych operacji dopuszczanych na każdym z
nich.
Poziom nominalny
Najniższym poziomem pomiaru jest poziom nominalny. Na tym poziomie
wykorzystuje się cyfry lub inne symbole do klasyfikowania obiektów lub obserwacji do
określonej liczby kategorii. Te cyfry lub symbole tworzą skalę nominalną lub inaczej
klasyfikacyjną. Na przykład za pomocą cyfr 1 i 2 można poklasyfikowac określoną populację
na mężczyzn i kobiety, gdzie 1 reprezentuje mężczyzn, a 2 kobiety. Ta sama populacja może
zostać poklasyfikowana ze względu na religię: chrześcijanie mogą być reprezentowani przez
cyfrę 6, żydzi przez 7, a muzułmanie przez 8. W pierwszym wypadku populacja została
podzielona na dwie kategorie, w drugim — na trzy. Nominalny poziom pomiaru zostanie
osiągnięty wówczas, kiedy zbiór obiektów zostanie poklasyfikowany na kategorie, które będą
wyczerpujące (tzn. będą zawierać wszystkie obiekty określonego rodzaju), wzajemnie
rozłączne (tzn. żaden obiekt nie zostanie jednocześnie zaliczony do więcej niż jednej katego-
173
rii) i każdej kategorii zostanie przypisany inny symbol, który będzie ją reprezentował.
Płeć, narodowość, pochodzenie etniczne, stan cywilny, miejsce zamieszkania (na przykład —
miasto czy wieś) czy przynależność partyjna to zmienne nominalne.
Od strony matematycznej podstawową cechą nominalnego poziomu pomiaru jest to,
że właściwości obiektów wpadających do jednej kategorii są traktowane ja- I ko identyczne
dla wszystkich przypadków, tj. dla wszystkich przypadków wpada- I jących do jednej
kategorii. Na przykład wszyscy mieszkańcy Kanady i Stanów Zje- I dnoczonych mogą być
traktowani jako członkowie kategorii nominalnej określanej jako mieszkańcy kontynentu
północnoamerykańskiego, pomimo ich różnego oby-1 watelstwa. Podobnie wszyscy
mieszkańcy pięćdziesięciu stanów należą do tej sa-1 mej kategorii określanej z punktu
widzenia obowiązku płacenia podatków federal- I nych; ich adresy określają, czy zostaną oni
włączeni do innych kategorii nominał- I nych, takich jak listy podatników w konkretnym
stanie czy mieście.
Na nominalnym poziomie pomiaru naukowcy mogą klasyfikować obiekty, sto-l sując
każdy zbiór symboli. Badacz może również zmieniać symbole, nie zmieniając I
otrzymywanych informacji, jeśli uczyni się to jednolicie i dla wszystkich kategorii. I Tym
samym, na tym poziomie pomiaru dopuszczalne są jedynie takie metody sta-1 tystyczne,
które nie są wrażliwe na dokonywanie takich transformacji. Do metod tych można zaliczyć
obliczanie mody, miar zróżnicowania jakościowego i odpo-1 wiednich miar związku.
Przedstawimy je w rozdziale 15 i 16.
Poziom porzqdkowy
W naukach społecznych analizuje się wiele zmiennych, które nie tylko można kia-1
syfikować, ale też porządkować ze względu na określone relacje. Typowymi rela-1 cjami są
„wyższy", „większy", „bardziej pożądany", „trudniejszy" itd. Relacje te I można przedstawiać
za pomocą symbolu >, który oznacza „większy niż". Relacja I > w odniesieniu do
konkretnych własności może oznaczać „jest wyższy niz",,Jest 11 większy niż", „jest bardziej
pożądany niż" itp. Na przykład możemy założyć, żel Francja jest bardziej demokratyczna niż
Rosja, lecz mniej niż Anglia. Ogólnie rzecz biorąc, osiągnęliśmy porządkowy poziom
pomiaru, jeżeli relacja > (obok równo- I ważności) zachodzi dla wszystkich obserwacji
tworzących zbiór w pełni uporząd- I kowany (na przykład od „największego" do
„najmniejszego"). Relacja równoważ-1 ności zachodzi pomiędzy przypadkami posiadającymi
tę samą rangę, natomiast re-B lacja > zachodzi pomiędzy każdą parą rang.
Relacja > nie jest zwrotna, nie jest symetryczna i jest przechodnia. Brak zwrdB ności
relacji to właściwość logiczna zachodząca dla każdego a wtedy, kiedy nie I jest prawdą, że a>
a. Niesymetryczność oznacza, że jeżeli a> b, to bi-a. Nato-miast przechodniość relacji
oznacza, że jeżeli a > b i b > c, to a > c. Innymi słowy, I jeżeli dokonamy pomiaru takiej
zmiennej jak „konserwatyzm" na skali porządkowej, to można wyciągnąć wniosek, że jeżeli
osoba w grupie A jest bardziej konserwatywna niż osoba w grupie B, i jeżeli grupa B jest
bardziej konserwatywna niż grupa C, to osoba z grupy A jest bardziej konserwatywna niż
osoba z grupy C i relacja zachodzi dla wszystkich osób należących odpowiednio do którejś z
tych trzech grup.
174
Jako przykład pomiaru na poziomie porządkowym rozważmy stosowany powszechnie
pomiar postaw. Badacze mierzą postawy za pomocą zestawu pytań, porządkując uzyskane
odpowiedzi na każde pytanie w porządku rosnącym lub malejącym. Na przykład jedno z
twierdzeń wykorzystanych do pomiaru poczucia alienacji politycznej brzmi: „Ludzie podobni
do mnie mają ogromny wpływ na decyzje rządu". Zadanie osoby badanej polega na
zaznaczeniu stopnia zgody lub braku zgody z treścią tego twierdzenia. W tabeli 7.2
przedstawiliśmy jedną z możliwości przypisania wartości liczbowych możliwym kategoriom
odpowiedzi. Osobie badanej przedstawia się dalej kolejne twierdzenia dotyczące tej samej
postawy i następnie — biorąc pod uwagę odpowiedzi na wszystkie twierdzenia — przypisuje
się tej osobie odpowiednią rangę.
Tabela 7.2. Skala porządkowa Tabela 7.3. Porangowanie osób
badanych ze
______________________________________względu na wyniki uzyskane w
kwestionariuszu
Ranga Wartość alienacji politycznej
całkowicie się zgadzam Respondent Wynik Ranga
zgadzam się
3 nie zgadzam się
4 całkowicie się nie zgadzam
Przypuśćmy, że badacz zastosował dziesięć twierdzeń, z których każde miało cztery
możliwe odpowiedzi: 1 za „całkowicie się zgadzam", 2 za „zgadzam się", 3 za ..nie zgadzam
się" i 4 za „całkowicie się nie zgadzam". W tym wypadku najwyższy wynik, jaki może
otrzymać osoba badana, to 40 punktów (tj. 4 punkty w każdym z dziesięciu twierdzeń),
najniższy zaś wynik to 10 punktów. Aby uprościć nasze rozumowanie, załóżmy, że osoba
badana udzieli odpowiedzi na wszystkie 10 twierdzeń. Osoba z wynikiem 40 punktów będzie
traktowana jako najbardziej wyalienowana i będzie pierwsza na skali stopnia alienacji. Inna
osoba, której wynik jest najbliższy 40 — powiedzmy 36 — zostanie umieszczona na drugim
miejscu i tak dalej dla wszystkich osób badanych w grupie. Proces nadawania porządku
zakończy się, gdy wszystkie osoby badane zostaną uporządkowane ze względu na wyniki,
jakie uzyskały w kwestionariuszu alienacji politycznej. W tabeli 7.3 przedstawiamy
hipotetyczne wyniki i odpowiadające im rangi dla siedmiu osób. Zgodnie z danymi osoba
oznaczona jako S6 jest najbardziej wyalienowana, a osoba S, najmniej.
Dane uzyskane na porządkowym poziomie pomiaru można poddawać dowolnej
transformacji monotonicznej, bez względu na to, jak przyporządkowano wartości liczbowe,
otrzymane informacje nie ulegną zmianie. Nie ma również znaczenia to, które liczby zostały
przyporządkowane parom obiektów czy całej kategorii, jeśli uczyniono to w sposób stały.
Kierując się względami natury praktycznej, zazwyczaj przypisuje się mniejsze wartości
liczbowe „wyższym" wynikom, ponieważ najczęściej, mówiąc o najlepszych wynikach,
myślimy o nich jak o „pierwszej klasie",
S, 10 7
S2 27 3
S, 36 2
S4 25 4
S_, 20 5
56 40 1
57 12 6
175
a odpowiednio gorsze wyniki traktujemy jako „drugą klasę" i „trzecią klasę"
wyników. Obok postaw innymi zmiennymi porządkowymi, często badanymi w naukach
społecznych są klasy społeczne, stopnie szkolne, stopnie wojskowe, pozycje zajmowane w
hierarchii danej instytucji czy zaangażowanie w działanie partii politycznych. Jeżeli tylko
określone zjawisko lub proces można opisać na skali od najlepszego do najgorszego (np. film)
czy od najwyższego do najniższego (jak w wypadku klas społecznych), to mamy do czynienia
z pomiarem porządkowym.
Liczby wykorzystane do uporządkowania obiektów nazywamy wartość iw mi
rangowymi. Zazwyczaj rangi przyporządkowuje się obiektom zgodnie z następującą regułą:
obiekt znajdujący się na jednym krańcu skali (największy lub najmniejszy) otrzymuje wartość
1, następny pod względem wielkości — 2, trzeci pod względem wielkości — 3 itd., aż
dotrzemy do obiektu znajdującego się na drugim końcu skali, który otrzyma ostatnią wartość
liczbową z całej serii. W przykładzie przedstawionym w tabeli 7.3 osobie oznaczonej jako S6
przypisano wartości, S3 przypisano 2, S2 przypisano 3, S4 przypisano 4, S5 przypisano 5, S7
przypisano 6, a Si przypisano 7. Podkreślmy wyraźnie, że liczby porządkowe wskazują
jedynie na sposób uporządkowania obiektów i na nic więcej. Na podstawie tych wartości
liczbowych nie można twierdzić, że odległości pomiędzy poszczególnymi wartościami są
równe ani że mają one wartości absolutne. Nie możemy zatem przyjąć, że chociaż wartości
liczbowe są równo rozłożone, to właściwości odpowiadające tyra wartościom są też równo
rozłożone. Jeżeli dwie osoby otrzymały rangę 7 i 5, a dwie inne 4 i 2, to nie oznacza to wcale,
że różnica pomiędzy osobami w każdej parze jest taka sama.
Na poziomie porządkowym dopuszczalne są wszelkie transformacje nie zmieniające
uporządkowania właściwości. Dlatego badacze mogą przeprowadzać operacje matematyczne
i statystyczne, które nie zmieniają uporządkowania właściwości. Na przykład statystyką
opisującą tendencję centralną w wypadku danych porządkowych jest mediana. Wartość
mediany nie zależy od zmian wyników znajdujących się powyżej lub poniżej mediany tak
długo, jak długo liczba obserwacji powyżej i poniżej mediany pozostanie taka sama. W
rozdziale 15 i 16 omówimy inne statystyki stosowane dla danych porządkowych, takie jak
rozstęp, współczynnik gamma i tau-b.
Poziom interwałowy
Jeżeli, obok możliwości porządkowania zbioru obserwacji w terminach relacji >.
można również określić dokładną odległość pomiędzy kolejnymi obserwacjami i ta odległość
jest stała, to zrealizowaliśmy interwałowy poziom pomiaru. Oprócz możliwości stwierdzenia,
że jeden obiekt jest większy niż drugi, możemy teraz określić, o ile dokładnie jednostek
pierwszy jest większy od drugiego. Na przykład dokonując pomiaru interwałowego, możemy
powiedzieć nie tylko, że Sue zarabia więcej niż Mikę, ale również, że Sue zarabia o 5000$
więcej niż Mikę. Aby można było dokonać takiego ilościowego porównania, musimy
dysponować dokładną jednostką pomiaru. Interwałowy poziom pomiaru ma zatem określoną i
stałą jednostkę pomiaru, która przyporządkowuje liczbę rzeczywistą każdej parze obiektów w
uporządkowanym zbiorze. Przy tego rodzaju pomiarze stosunek dwóch interwałów
(odległości) jest niezależny od jednostki pomiaru. Powiedzmy, że mamy zmienić
176
800-punktowy system oceniania z jednostek nominalnych na jednostki procentowe.
Stosunek pomiędzy wynikiem równym 66% i 99% będzie taki sam jak pomiędzy wynikami
528 i 792, tj. 2:3. Wielkość odległości w tych dwóch systemach pozostanie taka sama.
Przykładami zmiennych mierzonych na poziomie interwałowym są dochody, iloraz
inteligencji (IQ), wyniki otrzymywane w teście SAT, głosy wyborców czy odsetek
przestępstw.
Na interwałowym poziomie pomiaru różnice pomiędzy obiektami są izomorficzne
względem systemu arytmetycznego. Przypisując liczby pozycjom obiektów na określonej
skali, możemy w sposób sensowny wykonywać szereg operacji arytmetycznych na różnicach
pomiędzy tymi liczbami. Dla interwałowego poziomu pomiaru zachodzą następujące
własności formalne:
1. Jednoznaczność: jeżeli a i b oznaczają liczby rzeczywiste, to wynikiem działań a +
b i a x b jest jedna i tylko jedna liczba rzeczywista.
2. Symetryczność: jeżeli a = b, to b-a.
3. Przemienność: jeżeli a i b oznaczają liczby rzeczywiste, to a + b = b + a oraz ab =
ba.
4. Podstawianie: jeżeli a = b i a + c-d, to b + c-d; i jeżeli a-b i ac = d, to bc=d.
5. Łączność: jeżeli a, b i c oznaczają liczby rzeczywiste, to (a + b) + c = = a + (b + c) i
(ab)c = a(bc).
Każda zmiana wartości liczbowych przypisanych obserwacjom musi zachowywać nie
tylko ich uporządkowanie, ale również względne różnice pomiędzy nimi. Dlatego też
informacje otrzymywane na tym poziomie pomiaru nie ulegną zmianie, jeżeli każdą liczbę
pomnożymy przez stałą wartość dodatnią i następnie dodamy stałą do wyniku mnożenia.
Wszystkie metody statystyki opisowej i indukcyjnej można stosować dla danych
interwałowych.
Poziom stosunkowy
Zmienne, które mają naturalny punkt zerowy (tj. na przykład taki punkt, w którym
zamarza woda), można mierzyć na poziomie stosunkowym. Zmienne takie, jak: waga, czas,
długość czy powierzchnia mają naturalny punkt zerowy i można je mierzyć na poziomie
stosunkowym. Na tym poziomie iloraz dwóch liczb jest również niezależny od jednostki
pomiaru. Poziom interwałowy i stosunkowy są do siebie podobne i podobne są zasady
przyporządkowywania liczb obiektom — z jednym wyjątkiem. Na poziomie stosunkowym
liczby przyporządkowujemy mierzonym wielkościom, począwszy od zera absolutnego; na
poziomie interwałowym punkt zerowy jest ustalany arbitralnie. Stosunkowy poziom pomiaru
jest najczęściej osiągany w naukach ścisłych (np. w fizyce) i jest realizowany jedynie wtedy,
gdy są spełnione wszystkie cztery następujące warunki: (1) zachodzi relacja równoważności,
(2) zachodzi relacja „większy niż", (3) znana jest wielkość dwóch dowolnych interwałów oraz
(4) istnieje prawdziwy punkt zerowy4.
4 Więcej szczegółów na temat poziomów pomiaru można znaleźć w pracy Siegla
Nonparametric ttatistics, którą w dużej mierze wykorzystano w tym rozdziale.
177
Cztery poziomy pomiaru
¦ Poziom nominalny. Na poziomie nominalnym cyfry lub symbole są
wykorzystywane do klasyfikowania obiektów lub wyników obserwacji. Zjawiska znajdujące
się w jednej kategorii są sobie równe, lecz nie są równe zjawiskom znajdującym się w innej
kategorii (oznacza to, że na poziomie nominalnym zachodzi relacja równoważności).
¦ Poziom porządkowy. Jeżeli między zmiennymi zachodzi relacja porządku, to można
je mierzyć na poziomie porządkowym. Relację tego rodzaju oznacza się symbolem >
(większy niż). Na poziomie porządkowym również zachodzi relacja równoważności.
¦ Poziom interwałowy. Jeżeli znana jest dokładna odległość między wynikami dwóch
obserwacji i jest ona stała, to możemy dokonać pomiaru na poziomie interwałowym. Między
zjawiskami mierzonymi na tym poziomie również zachodzi relacja równoważności, a także
jeden wynik może być większy (lub mniejszy) od drugiego.
¦ Poziom stosunkowy. Jeżeli zmienne mają naturalny punkt zerowy, to można je
mierzyć na poziomie stosunkowym. Na poziomie stosunkowym również zachodzi relacja
równoważności, także relacja porządku (jeden obiekt jest większy niż inny) oraz istnieje stały
interwał.
¦ Transformacja danych
Zmienne, które da się zmierzyć na skali stosunkowej, można również mierzyć
poziomie interwałowym, porządkowym i nominalnym. Generalnie obowiązuje stępująca
zasada: wielkości, które można zmierzyć na poziomie wyższym, m być również zmierzone na
poziomie niższym, ale nigdy na odwrót. Zmienna t jak przynależność partyjna może zostać
zmierzona tylko na poziomie nominalnym. W tabeli 7.4 przedstawiliśmy właściwości
formalne charakteryzujące każdy z poziomów pomiaru. I tak na przykład, relacja
równoważności zachodzi dla wszystkich czterech poziomów, ale zero naturalne występuje
tylko na poziomie stosunkowym.
Tabela 7.4. Poziomy pomiaru i ich podstawowe właściwości
Poziom Równoważność Większy niż Stały interwał Zero naturalne
Nominalny tak nie nie nie
Porządkowy tak tak nie nie
Interwałowy tak tak tak nie
Stosunkowy tak tak tak tak
Wcześniej wymieniliśmy rodzaje operacji na liczbach oraz rodzaje metod sta-j
tystycznych, jakie są właściwe i dopuszczalne na każdym poziomie. Niektórzy badacze zdają
się nie przykładać wystarczającej wagi do tej sprawy. Problem ten jaj jednak na tyle istotny,
że warto mu poświęcić nieco więcej miejsca.
178
są wy-ji- Zja-równe pozio-
>orząd-rodza-cowym
i wymiaru na pozio-k może
i można
m rów-
(jeden
mierzyć na wiązuje na-;zym, mogą mienna taka ominalnym. każdy z po-i wszystkich
punkowym.
tturalne
iie lie iie ak
e metod sta-liektórzy bakiem ten jest
Matematyka i statystyka to języki atreściowe. Operują na liczbach i nie roz-strzygają,
czy liczby reprezentują świat empiryczny. Są użyteczne z powodu swojej precyzji i
możliwości odkrywania takich informacji o zjawiskach, które bez nich pozostałyby ukryte.
Na pytanie „W jakim zakresie zmienne są ze sobą powiązane?" można sensownie i
precyzyjnie odpowiedzieć, obliczając miarę siły związku. Przyporządkowując liczby, można
przeprowadzić każdą operację statystyczną. Pamiętajmy jednak, że badaczy w dziedzinie
nauk społecznych interesują zjawiska empiryczne. Posługują się liczbami i miarami
statystycznymi, aby lepiej zrozumieć związki pomiędzy tymi zjawiskami. Jeżeli jednak
zastosują systemy liczbowe i statystyczne, które nie są izomorficzne względem struktury
badanych zjawisk empirycznych, to efekt ich działań nie poszerzy naszej wiedzy.
¦ Błqd pomiaru
Procedury pomiarowe są wykorzystywane w celu przyporządkowania wartości
liczbowych, cyfr lub wyników badanym właściwościom. Kiedy wyniki zostaną juz
przyporządkowane, różnice między wynikami otrzymanymi w powtarzanych pomiarach
można przypisać dwóm źródłom. Jednym ze źródeł jest zakres, w jakim wyniki
odzwierciedlają rzeczywiste różnice pomiędzy mierzonymi właściwościami. Drugim źródłem
różnic w wynikach jest zakres, w którym sam pomiar oraz otoczenie, w którym następuje akt
pomiaru, wpływają na otrzymane wyniki. W tym wypadku pomiary odzwierciedlają różnice
nierzeczywiste. Pomiary idealne odzwierciedlają wyłącznie rzeczywiste różnice pomiędzy
właściwościami. Jednakże pomiary idealne zdarzają się bardzo rzadko i często otrzymane
miary, oprócz różnic rzeczywistych, odzwierciedlają różnice będące artefaktem, tj.
odzwierciedlaj;! zróżnicowanie wynikające z samej procedury pomiarowej. Wszelkie
zróżnicowanie nie wynikające z rzeczywistych różnic między mierzonymi właściwościami
nazywamy błędem pomiaru.
Istnieje wiele typowych źródeł błędu pomiaru. Po pierwsze, otrzymane wyniki można
przypisać pewnej innej właściwości powiązanej z mierzoną właściwością, której badacz
intencjonalnie nie zamierzał mierzyć. Na przykład, aby zrozumieć pytania kwestionariusza
dotyczącego rozwoju moralnego, respondenci muszą mieć określony poziom inteligencji i
określony poziom świadomości społecznej. Indywidualne odpowiedzi na pytania tego
kwestionariusza będą w efekcie odzwierciedlały rzeczywiste różnice w rozwoju moralnym,
lecz również ujawnią różnice w inteligencji i świadomości społecznej badanych osób. Na błąd
pomiaru składa się oddziaływanie właśnie takich zmiennych towarzyszących. Po drugie, błąd
pomiaru może być wynikiem chwilowego samopoczucia (choroby czy nastroju), które może
wpłynąć na odpowiedzi udzielane w badaniach kwestionariuszowych lub na zachowanie
osoby badanej. Po trzecie, różnice otoczenia, w którym dokonuje się pomiaru, także
przyczyniają się do powstania błędu pomiaru. Na przykład wiek, rasa i płeć osób
przeprowadzających wywiad może wpłynąć na odpowiedzi respondentów w badaniach
sondażowych. Po czwarte, różnice w sposobie stosowania narzędzia pomiarowego (np. słabe
oświetlenie, hałas, zmęczony ankieter) mogą powodować błąd pomiaru. Po piąte, błąd
pomiaru może również wynikać z różnic w przetwarzaniu danych (np. wtedy, kiedy różne
osoby niejednakowo kodują po-
179
dobne odpowiedzi). Ostatnim, podstawowym źródłem zakłóceń jest niejednakowa
interpretacja wyników tego samego narzędzia pomiarowego.
Błędy wynikające z wymienionych wyżej źródeł są albo systematyczne, albd losowe.
Błędy systematyczne pojawiają się wraz z zastosowaniem narzędzia pomiarowego i
występują w odniesieniu do wszystkich osób badanych i wszystkich badań. W sposób
systematyczny przyczyniają się one do zmniejszenia trafności otrzymanych wyników. W
przeciwieństwie do nich błędy losowe pojawiają się również wraz z każdym zastosowaniem
narzędzia pomiarowego, jednakże mają one charakter przypadkowy. Ze względu na rolę, jaką
odgrywa tu problematyka trafności i rzetelności, od niej rozpoczniemy omawianie technik
pozwalających zmniejszyć błąd pomiaru.
¦ Trafność
Trafność dotyczy następującego pytania: „Czy udało nam się zmierzyć to, co
zamierzaliśmy zmierzyć?" Problem trafności pojawia się dlatego, że w naukach społecznych,
z nielicznymi tylko wyjątkami, mamy do czynienia z pomiarem pośrednim. W takiej sytuacji
badacze nigdy nie są do końca pewni, czy dokonują pomiani zmiennych, dla których
zaprojektowali procedurę pomiarową. Na przykład, czy liczba oddanych głosów rzeczywiście
mierzy rozwój polityczny? Jeżeli respondent zgadza się z twierdzeniem „Tym światem
kieruje niewielu ludzi posiadających władzę i tal ki mały człowiek jak ja niewiele może
zrobić", to czy taką odpowiedź respondenta możemy potraktować jako właściwy
wskaźnik takiej zmiennej jak „aliena-l cja"? Aby odpowiedzieć na takie pytania, badacz
musi udowodnić, że zastosowany I przez niego instrument pomiarowy mierzy w
rzeczywistości to, co wydaje się rnie-l rzyć.
Możemy wyróżnić trzy podstawowe rodzaje trafności, z których każdy jestl związany
z innym aspektem sytuacji pomiarowej. Są to: trafność treściowa, traf-1 ność empiryczna i
trafność teoretyczna. Każda z nich ma swoje miary i w okres-1 lonych warunkach osiąga
konkretną wartość.
Trafność treściowa
Można mówić o dwóch typowych rodzajach trafności treściowej: trafności fasadfl wej
oraz trafności doboru próby. Trafność fasadowa* odwołuje się do subiekt™ nej oceny
trafności narzędzia pomiarowego dokonanej przez badacza. W praktycfl trafność fasadowa
nie dotyczy pytania, czy narzędzie pomiarowe mierzy to, cobfl dacz chciałby, aby mierzyło,
lecz dotyczy raczej stopnia, w jakim badacz jest prztfl konany, że jego narzędzie pomiarowe
jest właściwe. Na przykład za pomocą kwefl tionariusza składającego się z dziesięciu
twierdzeń badacz chciałby dokonać pomiął ru takiej zmiennej jak „liberalizm". Po ułożeniu
kwestionariusza badacz ponownie anafl lizuje każde twierdzenie, aby sprawdzić, w jakim
stopniu każde z nich jest powił zane z liberalizmem. Może w tym celu zaprosić specjalistów
(sędziów). Jeżeli ocefl ny sędziów będą zgodne, to badacz może przyjąć, że jego
kwestionariusz jest traw fasadowo i — konsekwentnie — mierzy liberalizm. Jeżeli jednak
oceny sędztół
* W psychometru nie traktuje się poważnie tzw. trafności fasadowej (przyp. red.
nauk.).
180
nie będą zgodne, to jest to podstawa do wyciągnięcia wniosku o braku trafności
fasadowej narzędzia pomiarowego.
Główny problem dotyczący trafności fasadowej polega na tym, że nie istnieją
dokładne i powtarzalne procedury, które pozwoliłyby na ocenę narzędzia pomiarowego.
Ponieważ dokładne powtórzenie procedury pomiarowej jest rzeczą niezwykle trudną, badacz
musi polegać na ocenach subiektywnych.
W wypadku trafności doboru próby interesujemy się przede wszystkim tym, czy
określona populacja (np. zbiór wszystkich przypadków w świecie rzeczywistym) jest
adekwatnie reprezentowana przez dane narzędzie pomiarowe. Innymi słowy, czy twierdzenia,
pytania lub wskaźniki — tj. treść narzędzia pomiarowego — adekwatnie odzwierciedlają
mierzoną właściwość. Założenie leżące u podstaw trafności doboru próby to założenie
dotyczące istnienia populacji treści składającej się z dużej liczby pozycji (wyrażanych w
postaci twierdzeń, pytań lub wskaźników). Przyjmuje się także, że narzędzie o dużej trafności
jest reprezentatywną próbką tych pozycji. W praktyce problemem okazuje się definiowanie
populacji treści, ponieważ jest to zagadnienie natury teoretycznej, a nie praktycznej. (W
rozdziale 8 omówimy szerzej to zagadnienie, a także przedstawimy techniki tworzenia próby
losowej). Wpływa to na zmniejszenie trafności doboru próby i w rezultacie na zmniejszenie
całkowitej trafności narzędzia pomiarowego. Trafność doboru próby odgrywa jednak ważną
rolę: wymusza znajomość wszystkich pozycji składających się na populację treści. Jest
szczególnie użyteczna w badaniach eksploracyjnych, w których badacze konstruują narzędzia
pomiarowe i stosują je po raz pierwszy. Po pierwszym zastosowaniu narzędzia pomiarowego
badacze mogą porównać jego trafność z innymi testami.
Trafność empiryczna
Trafność empiryczna odwołuje się do związku pomiędzy dwoma narzędziami
pomiarowymi i ich wynikami. Naukowcy przyjmują, że jeżeli narzędzie pomiarowe jest
trafne, to powinien istnieć silny związek pomiędzy wynikami uzyskanymi dzięki
zastosowaniu tego narzędzia a rzeczywistym związkiem zachodzącym pomiędzy mierzonymi
zmiennymi. Na przykład możemy być zainteresowani, czy wyniki uzyskane w teście
inteligencji (tzw. IQ) naprawdę odzwierciedlają inteligencję osoby badanej. Badacze
poszukują danych potrzebnych do potwierdzenia istnienia takiej relacji przez określanie miar
korelacji właściwych dla danego poziomu pomiaru. (Współczynnik korelacji to wskaźnik siły
związku pomiędzy dwiema mierzonymi zmiennymi — więcej szczegółów na ten temat
można znaleźć w rozdziale 16). Spośród różnych testów stosowanych do pomiaru trafności
empirycznej najczęściej wykorzystuje się testy określające trafność prognostyczną. Dlatego
teraz krótko ją omówimy.
Badacze analizują trafność prognostyczną, dokonując prognozy na podstawie
wyników swojego narzędzia pomiarowego, wyników pewnej zmiennej zewnętrznej (zwanej
kry ter i u m) lub porównując wyniki swojego narzędzia z wynikami otrzymanymi za pomocą
innych narzędzi pomiarowych. Innymi słowy, trafność prognostyczna jest wyrażana przez siłę
związku (współczynnik korelacji) pomiędzy wynikami danego narzędzia pomiarowego i
zewnętrznym kryterium. Badacz może na przykład określić trafność testu inteligencji,
analizując związek pomiędzy wcześniej otrzymanymi wynikami testowymi dla grupy
studentów college'u a późniejszymi
181
ich stopniami otrzymanymi w trakcie pierwszego roku studiów (kryterium). Analiza ta
polega na obliczeniu współczynnika korelacji pomiędzy dwoma zbiorami pomiarów. Ten
konkretny współczynnik korelacji nazywa się współczynnikiem trafności. Innymi kryteriami,
które można wykorzystać do badania trafności testów inteligencji, są na przykład wyniki
testów społecznego przystosowania czy oceny funkcjonowania.
0----—;0
Ryc. 7.3. Szacowanie trafności prognostycznej
Na rycinie 7.3 przedstawiliśmy proces badania trafności prognostycznej narze-l dzia
pomiarowego. Zmienną V mierzymy za pomocą określonego narzędzia pomia-1 rowego /.
Aby ocenić trafność prognostyczną, badacz stosuje kryterium C. którego! trafność jest już
ustalona. Następnie pomiary otrzymane za pomocą narzędzia/¦ korelowane z pomiarami
otrzymanymi za pomocą kryterium C. Wielkość współ-1 czynnika korelacji rlc określa
trafność prognostyczną tego narzędzia.
Badając trafność prognostyczną, należy uwzględnić dwa problemy ogólne. Pierw-1
szy dotyczy wyboru kryterium. I tak na przykład w wielu college"ach porównuje! się wyniki
testu SAT (narzędzie pomiarowe) z uzyskiwanymi wcześniej przeciffl nymi ocenami
(kryterium) po to, aby przewidywać przyszłe osiągnięcia potencjaH nego studenta. Drugi
problem dotyczy trafności kryterium.
Problem pierwszy dotyczy takich sytuacji, w których zastosowanie określonego I
kryterium może okazać się zbyt trudne lub zbyt kosztowne. Na przykład badariB jakości
każdego stanowiska komputerowego opuszczającego linię produkcyjną jefl bardzo
kosztowne: dlatego bada się tylko niektóre z nich (próbę). Czasami z koH trzeba
przeprowadzić wstępne pomiary zmiennych, zanim dokona się ich wybfflB i pomiaru jako
kryterium. Taką zmienną są na przykład umiejętności szkolne-trzeba je zmierzyć, zanim
zostaną wybrane jako kryterium sukcesu w nauce szkow nej.
Drugi problem rozwiązywany jest natomiast poprzez zastosowanie którejś I z dwóch,
powszechnie używanych metod oceny trafności kryterium. Pierwsza mtfl toda odwołuje się
do zasady akceptacji przez badaczy trafności danego kryteriuił wykorzystywanego do oceny
określonego narzędzia pomiarowego. Zgoda ta jefl przedmiotem badań w procesie oceniania
trafności fasadowej i trafności próbW Druga metoda polega na określaniu procentu osób (czy
innych jednostek analizyB prawidłowo sklasyfikowanych przez narzędzie pomiarowe ze
względu na ich znaofl właściwości i wyrażeniu związku pomiędzy narzędziem pomiarowym i
kryteriw w terminach tych procentów5.
5 CG. Helmstadter (1970), Research Concepts in Humań Behavior, Englewood Cliffs,
N.J.: Praj tice Hall.
182
I Przypuśćmy, że badacz chciałby ocenić trafność narzędzia przeznaczonego do
pomiaru konserwatyzmu politycznego. Jeżeli istnieją teoretycznie uzasadnione przyczyny,
aby przyjąć, że ludzie z niższych klas społecznych są bardziej konserw uywni niż ludzie
należący do klasy średniej, to może on porównać osoby wpadające do każdej z tych kategorii
i potraktować to jako test trafności prognostycznej. W tym wypadku klasa społeczna została
wykorzystana jako pośrednie kryterium trafności prognostycznej narzędzia pomiarowego.
Jeżeli jednak okaże się, że osoby z niższej klasy społecznej są równie konserwatywne jak
osoby zaliczone do średniej klasy społecznej, to należy przyjąć, że narzędzie to ma niską
trafność prognostyczną. I odwrotnie, wysoki współczynnik korelacji pomiędzy stopniem
konserwatyzmu i przynależnością do klasy społecznej wskazuje na wysoką trafność
prognostyczną. Wysoka korelacja jest jednak warunkiem koniecznym, ale nie wystarczającym
do określenia trafności prognostycznej narzędzia pomiarowego. Jest tak dlatego, bo kryterium
pośrednie (klasa społeczna) może być powiązane nie tylko z konserwatyzmem, ale również z
innymi zmiennymi (np. wykształceniem). Narzędzie pomiarowe może mierzyć inne zmienne
niż tylko konserwatyzm polityczny jako taki. Kryterium pośrednie jest zatem bardziej
użyteczne do wykrywania braku trafności niż do wykrywania trafności narzędzia
pomiarowego.
Trafność teoretyczna
Badacze określają trafność teoretyczną, badając narzędzie pomiarowe w świetle
szerszego kontekstu teoretycznego po to, aby sprawdzić, czy narzędzie pomiarowe jest
powiązane z pojęciami i teoretycznymi założeniami tego kontekstu. Lee J. Cronbach,
pierwszy orędownik koncepcji trafności teoretycznej, uważał, że „jeżeli osoba badająca
testem pyta, jakie psychologiczne znaczenie mają wyniki testowe lub dlaczego dana osoba
uzyskuje określony wynik testowy, to pyta ona o to, za pomocą jakich pojęć można właściwie
wyjaśnić wykonanie testu"6. Oczekiwania teoretyczne dotyczące mierzonej zmiennej
pozwalają badaczowi na sformułowanie twierdzeń o rodzaju i stopniu związku pomiędzy
określoną zmienną i innymi zdefiniowanymi zmiennymi. Aby określić trafność teoretyczną
narzędzia pomiarowego, badacz musi sprawdzić, czy takie związki rzeczywiście zachodzą.
Przedstawimy użyteczność badań dotyczących trafności teoretycznej na przykładzie badań
Miltona Rokeacha nad dogmatyzmem7.
Przyjmując określone założenia teoretyczne, Rokeach skonstruował kwestionariusz
dogmatyzmu. Kwestionariusz składał się z twierdzeń mierzących sztywność umysłu, cechę
osobowości ujawniającą się w każdym wyznawanym systemie przekonań czy ideologii, bez
względu na jej treść. Rokeach twierdził, że przekonania jednostki mające charakter
ideologiczny są powiązane z jej osobowością, procesami myślowymi i zachowaniem. Dlatego
sądził, że dogmatyzm jest cechą ujawniającą się poprzez sztywne kanony myślenia.
Przeprowadził on wiele badań sprawdzających zarówno teorię, jak i trafność teoretyczną
skonstruowanego przez siebie kwestionariusza. W jednym z badań posłużył się techniką
znanych grup. Technika
6 Lee J. Cronbach (1984), Essentials of Psychological Testing, wyd. 4, New York:
Harper & Row, s. 121.
' Milton Rokeach (1960), The Open and the Closed Mind, New York: Basic Books.
183
ta polega na przebadaniu określonym narzędziem pomiarowym grup ludzi o znał nych
cechach po to, aby na tej podstawie określić kierunek różnic pomiędzy grol parni. Rokeach
poprosił profesorów college'u i studentów ostatnich lat, aby wskfl zali przyjaciół, którzy ich
zdaniem mają umysł otwarty, a którzy zamknięty. Oka zało się, że kwestionariusz
dogmatyzmu dobrze różnicował obie grupy. Ten wynB stał się podstawą uznania, że miara
dogmatyzmu jest trafna teoretycznie.
Cronbach i Meehl opisali proces badania trafności teoretycznej ze względu ml logikę
postępowania w sposób następujący: najpierw naukowiec formułuje twiefl dzenie, że
narzędzie pomiarowe mierzy określoną własność (powiedzmy własnoB A); następnie
twierdzenie to wbudowuje w ramy teorii dotyczącej własności^ dalej, analizując teorię,
określa, które cechy powinny być powiązane z narzc-B dziem pomiarowym, a dla których
takiego związku nie da się określić; na koniecB zbiera dane empiryczne, które staną się
podstawą przyjęcia lub odrzucenia okreś-1 lonych wcześniej relacji. Jeżeli określone
wcześniej relacje zostaną potwierdzfflB to narzędzie pomiarowe może zostać uznane za trafne
teoretycznie. Jeżeli natoł miast tak się nie stanie, to wyjaśnienia można szukać w jednym z
trzech powoł dów: (1) narzędzie pomiarowe nie mierzy własności A, (2) ramy teoretyczne,
him re były podstawą określania prawdopodobnych związków, zostały źle określoaM (3)
zastosowany schemat badawczy nie pozwalał adekwatnie ocenić, czy zacbfl dzą poszukiwane
związki. Badacz musi zatem ocenić, która z tych trzech nwfl liwości zachodzi w jego
przypadku. Decyzja ta powinna wynikać z dokładał analizy każdego z czterech kroków
składających się na proces walidacji narzędzifl pomiarowego8.
Campbell i Fiske zaproponowali inną metodę badania trafności teoretycznej
polegającą na budowaniu macierzy korelacji9. Metoda ta, odwołująca i do pojęcia aspektu
zbieżnego i różnicowego trafności znanaj jako technika wielu c e c h-w i e 1 u m e t o d. U
podstaw tej techniki leży za żenię, że różne metody mierzące tę samą własność powinny
dawać te same wyi ki, natomiast różne własności powinny prowadzić do otrzymania różnych
wyi ków, bez względu na zastosowaną metodę pomiaru. Operacyjnie oznacza to, I
współczynniki korelacji pomiędzy wynikami narzędzi pomiarowych mierzącyi tę samą cechę
powinny być wyższe niż współczynniki korelacji pomiędzy wyi kami podobnych narzędzi
pomiarowych, lecz mierzących różne cechy. Abyj twierdzić trafność teoretyczną narzędzia
pomiarowego, badacz powinien przeai lizować oba aspekty trafności, tj. zbieżny (dwa
pomiary tej samej cechy powij ze sobą wysoko korelować, nawet jeżeli uzyskano je za
pomocą różnych meto oraz różnicowy (dwa pomiary różnych własności nie powinny ze sobą
wysoki korelować, nawet jeżeli uzyskano je za pomocą podobnych narzędzi pomiar wych).
8 Lee J. Cronbach, Paul Meehl (1955), Construct Validity in Psychological Tests,
„Psycholo Bulletin", 52, s. 281-302.
9 Donald T. Campbell, Donald W. Fiske (1959), Convergent and Discriminant
Validation by Multitrait-Multimethod Matrix, „Psychological Bulletin", 56, s. 81-105.
184
Izi o zna-ędzy gru-iby wska-ięty. Oka-
ren wynik
zględu na uje twier-własność isności A; : z narzę-na koniec nia okreś-vierdzone, ;żeli
nato-;ch powo-czne, któ-określone, :zy zacho-zech moż-dokladnej narzędzia
oretycznej ałująca się znana jest leży zało-ame wyni-ych wyni-icza to, że nierzących
:dzy wyni-'. Aby po-n przeana-y powinny ich metod) bą wysoko < pomiaro-
'sychological iation by the
Trzy rodzaje trafności
¦ Trafność treściowa. Przekonanie badacza, że narzędzie pomiarowe mierzy określoną
charakterystykę, jest odzwierciedlone w postaci tzw. trafności fasadowej — subiektywnej
oceny trafności narzędzia pomiarowego. Z kolei trafność doboru próby pozwala określić
zakres, w jakim pytania, twierdzenia i inne wskaźniki wbudowane w narzędzie pomiarowe
odzwierciedlają mierzoną właściwość.
¦ Trafność empiryczna. Jeżeli narzędzie pomiarowe jest trafne, to powinien zachodzić
silny związek pomiędzy wynikami, jakie można prognozować na jego podstawie i wynikami
otrzymanymi za jego pomocą. Trafność empiryczną można również oszacować, porównując
wyniki danego narzędzia z wynikami otrzymanymi za pomocą innych narzędzi pomiarowych.
¦ Trafność teoretyczna. Ten rodzaj trafności można oszacować, badając narzędzie
pomiarowe w świetle szerszego kontekstu teoretycznego.
Przyjmując, że istnieją trzy rodzaje trafności, postawmy pytanie: Jaki test należy
zastosować do oszacowania trafności określonego narzędzia pomiarowego? Jest to istotny
problem i nie ma prostej odpowiedzi na to pytanie. Dlatego zespół złożony z ekspertów z
różnych dyscyplin zalecił, aby badając określone narzędzie pomiarowe, oceniać wszystkie
trzy rodzaje trafności10. Zatem przystępując do konstruowania narzędzia pomiarowego,
należy najpierw przeanalizować teorię, która zostanie wykorzystana jako podstawa
teoretyczna dla narzędzia pomiarowego (trafność teoretyczna). Następnie należy określić
uniwersum treści pozycji testowych, z którego zostanie wybrana ich reprezentatywna próba
(trafność treściowa). Na koniec należy ocenić trafność prognostyczną (empiryczną) narzędzia
pomiarowego, korelując je z kryterium zewnętrznym.
I Rzetelność
Rzetelność to szczególnie ważny problem dla osób prowadzących badania w
dziedzinie nauk społecznych, ponieważ stosowane narzędzia badawcze rzadko są całkowicie
trafne. W wielu wypadkach dane na rzecz trafności są niemal w ogóle niedostępne. Dlatego
badacz musi ocenić narzędzie pomiarowe, odwołując się do innych jego właściwości i na tej
podstawie ocenić trafność. Metodą często stosowaną do oceny narzędzi pomiarowych w
naukach społecznych jest badanie stopnia jego rzetelności. Rzetelność dotyczy wielkości
błędu związanego z danym narzędziem pomiarowym, tj. błędu, który powstaje w sposób
losowy, w kolejnych pomiarach do-
10 Por. American Psychological Association Committee on Psychological Tests
(1954), Technical Recommendations for Psychological Tests and Diagnostic Techniques,
„Psychological Bulletin Suppl.", 51. s. 1-38; Donald Campbell (1960), Recommendations for
APA Test Standards Regarding Construct, Tran and Discriminant Validity, „American
Psychologist", 15, s. 546-553. [Por. też: Standardy dla testu/losowanych w psychologii i
pedagogice (1985), Warszawa: Polskie Towarzystwo Psychologiczne, Laboratorium Technik
Diagnostycznych, tłum. E. Hornowska (przyp. red. nauk.)].
185
konywanych za pomocą tego samego narzędzia pomiarowego. Na przykład, jeżeli
dwukrotnie zmierzymy długość biurka za pomocą tego samego narzędzia pomiarowego —
powiedzmy linijki — i otrzymamy nieco inne wyniki, to narzędzie to jest źródłem błędu
pomiaru. Ponieważ narzędzia stosowane w naukach społecznych do-1 starczają generalnie
miar pośrednich, zatem liczba błędów popełnianych w wypad-1 ku zmiennych o charakterze
społecznym jest znacznie wyższa niż w wypadku I zmiennych fizykalnych. Czynniki takie jak
chwilowe wahania uwagi respondenta I przy wypełnianiu kwestionariusza, niejasna instrukcja
czy trudności natury technicznej I (np. złamanie ołówka w trakcie wypełniania
kwestionariusza) przyczyniają siędfl powstania błędu pomiaru.
Każdy pomiar składa się z dwóch elementów: komponentu prawdzi-l w e g o oraz
komponentu błędu. Rzetelność można zatem zdefiniować jako I stosunek wariancji wyników
prawdziwych do wariancji całkowitej otrzymanych I wyników". (Wariancja jest miarą
rozproszenia wyników; opisuje, w jakim stopniu I wyniki różnią się od siebie, tj.
X(*,-Jt)2
CT2 =
N
Por. również rozdział 15). Algebraicznie wynik obserwowany każdej osoby możemy
przedstawić jako:
xi = t, + eh (7.1]
gdzie x, — wynik obserwowany dla /-tej osoby, r, — wynik prawdziwy dla i-t osoby,
e, — wielkość błędu popełnianego w trakcie pomiaru dla /-tej osoby. Wyrażając to równanie
w postaci wariancyjnej, otrzymamy:
a2 = of+er2,
gdzie o\ — wariancja wyników otrzymanych, o] — wariancja wyników prawd wych,
oj — wariancja błędu.
Rzetelność definiowaną jako stosunek wariancji wyniku prawdziwego do I riancji
wyników obserwowanych można przedstawić następująco:
,, ,, of (Ź ~ o] rzetelność = — =------=—.
Odwołując się do równania (7.2), możemy stwierdzić, że jeżeli pomiar zawiera wy-j
łącznie błąd, to o\ = oj i rzetelność wynosi zero. Jeżeli z kolei w ogóle nie po| niamy błędu, to
oj - 0, a rzetelność definiowana jako stosunek dwóch wari; wynosi
opętanej.
1' Definicja ta i dalsze wnioskowanie zostało zaczerpnięte z pracy CG. Helmstadtera.
Researi Concepts, s. 169-176.
186
a-1-
Współczynnik rzetelności może zatem przyjmować wartości od 0 (kiedy pomiar nic
zawiera niczego ponad błąd) do 1 (kiedy błąd został całkowicie wyeliminowany).
W praktyce nie można obliczyć wyniku prawdziwego niezależnie od błędów, które
mogą się pojawić w każdym akcie pomiaru. Dlatego należy oszacować wielkość stosunku
o;/o].
Istnieją trzy podstawowe sposoby szacowania rzetelności: metoda powtórnego
testowania, metoda form równoległych oraz metoda połówkowania.
Metoda powtórnego testowania
Metoda powtórnego testowania wywodzi się wprost z definicji rzetelności. Polega na
dwukrotnym przebadaniu tej samej grupy osób tym samym narzędziem pomiarowym i na
obliczeniu współczynnika korelacji pomiędzy dwoma zbiorami wyników (obserwacji).
Współczynnik ten nazywa się współczynnikiem rzetelności. W tym wypadku błąd obejmuje
wszystkie te czynniki, które powodują, że wynik otrzymany przez daną osobę w jednym
badaniu jest inny niż wynik tej osoby w drugim badaniu. Symbolicznie:
Sl r«-SY (7-3)
gdzie x — wynik w pierwszym badaniu, x — wynik w drugim badaniu, rrf
współczynnik korelacji pomiędzy miarami x i x\ S; — oszacowana wariancja wyników
prawdziwych, S2X — obliczona wariancja wyników obserwowanych. Korelacja ra pozwala
na oszacowanie rzetelności definiowanej jako stosunek wariancji wyników prawdziwych do
wariancji wyników obserwowanych. (Metody obliczania współczynnika korelacji
przedstawiamy w rozdziale 16).
Metoda powtórnego testowania ma duże ograniczenia. Po pierwsze, pomiar dokonany
za pierwszym razem może wpłynąć na pomiar dokonany za drugim razem. Jeżeli na przykład
narzędziem pomiarowym jest kwestionariusz, to respondent może zapamiętać treść pytań i za
drugim razem udzielić tych samych odpowiedzi. Otrzymana wartość współczynnika
rzetelności będzie w tej sytuacji wysoka, lecz jednocześnie przeszacowana. Po drugie,
ponieważ wiele zjawisk podlega ciągłym zmianom, może się zdarzyć tak, że zmiany te
wydarzą się w przerwie pomiędzy dwoma pomiarami i wpłyną na obniżenie współczynnika
rzetelności. Metoda powtórnego testowania może zatem przeszacowywać (lub nie
doszacowywać) prawdziwą rzetelność narzędzia pomiarowego i często trudno określić, która
z tych dwóch sytuacji zaistniała.
Metoda form równoległych
Jednym ze sposobów przezwyciężenia ograniczeń metody powtórnego testowania jest
wykorzystanie techniki form równoległych. Aby zastosować tę technikę, badacz musi
stworzyć dwie równoległe wersje narzędzia pomiarowego. Następnie do-
187
konuje się pomiaru tej samej grupy osób badanych za pomocą obu form i koreluje
otrzymane dwa zbiory wyników w celu otrzymania miary rzetelności. Stosowanie tej techniki
rodzi jednak nowy problem, a mianowicie, czy dwie formy testu sąrzi czywiście równoległe.
Chociaż istnieją testy statystyczne pozwalające sprawdzić, czy dwie formy testu są
równoległe w terminach wskaźników statystycznych, to| oceniając wyniki, badacze nadal
muszą polegać na własnych sądach12.
Metoda połówkowa
Szacowanie rzetelności w metodzie połówkowej polega na traktowaniu każdej z
dwóch lub więcej części testu jako niezależnej skali. Przypuśćmy, że naszym narzędziem
pomiarowym jest kwestionariusz. Kwestionariusz dzielimy na dwie czJ ści w ten sposób, że
pytania nieparzyste tworzą jedną część, a pytania parzyste drugą. Każda z dwóch części
kwestionariusza jest oceniana i traktowana niezależnie. Uzyskane w ten sposób dwa zbiory
wyników są następnie korelowane ze sobą. a współczynnik korelacji jest traktowany jako
miara rzetelności. Aby na podstawie korelacji połówek testu oszacować rzetelność całego
testu, należy zastosować tza proroczy wzór Spearmana-Browna:
gdzie rxv. — rzetelność całego testu, roe — współczynnik rzetelności otrzymany
przez skorelowanie połowy testu składającej się z pozycji nieparzystych i polo* testu
składającej się z pozycji parzystych.
Stosując tę poprawkę, przyjmujemy, że narzędzie pomiarowe liczące 2;i pytań jest
bardziej rzetelne niż narzędzie składające się z n pytań. Ponieważ nasze narzl dzie pomiarowe
zostało przepołowione na pozycje parzyste i nieparzyste i dla każdej części obliczono
niezależny wynik, zatem rzetelność całego narzędzia pomiarowego będzie większa niż
rzetelność każdej połowy testu stosowanej oddziel™
Cronbach, Rajaratnam i Glesser dokonali rewizji klasycznego pojęcia rzetelnc-j ści13.
Ich zdaniem podstawowym problemem teorii rzetelności powinna byćodpi wiedź na pytanie:
„Jak dalece (na jakie uniwersum) chcemy uogólniać potencjala wyniki testowe?" Zamiast
pojęcia rzetelności wprowadzili oni pojęcie uniwersali-i zacji. Zgodnie z teorią
uniwersalizacji tym, co naprawdę nas interesuje, jest zabB w jakim jeden zbiór pomiarów jest
podobny do innego zbioru pomiarów pochodzi cego z uniwersum wszystkich potencjalnych
miar oraz pod kątem jakich właściwi ści są one do siebie podobne. Ta sama zasada odnosi się
do różnic pomiędzy zbifl rami pomiarów pochodzących z uniwersum potencjalnych miar.
Pytając o pódl bieństwa czy różnice, pytamy o ograniczenia możliwości dokonywania
uogól™ opartych na wynikach jednego zbioru pomiarów. To, czy określony związek pom*
dzy pomiarami uznamy za wskaźnik rzetelności czy uniwersalizacji, zależy od tęgi w jaki
sposób zdefiniujemy różnice i podobieństwa warunków i miar. Natomił to, w jaki sposób
badacze konstruują listę pozycji czy właściwości, które są tan
12 Por. Harold Gulliksen (1962), Theory of Mental Tests, New York: Wiley.
13 Lee J. Cronbach, Nageswars Rajaratnam, Goldine C. Glesser (1963), A Theory of
Generałom lity: A Liberalization of Reliability Theory, „British Journal of Statistical
Psychology", 16, s. 137-11
188
same czy różne w każdym zbiorze pomiarów, zależy oczywiście od problemu
badawczego14.
¦ Podsumowanie
1. Pomiar polega na przyporządkowywaniu liczb zmiennym, właściwościom czy
zdarzeniom zgodnie z określonymi regułami. Istotą tej definicji jest sformułowanie ..zgodnie
z określonymi regułami". Reguły te wiążą procedury pomiarowe z rzeczywistością, tj. ustalają
homomorfizm pomiędzy określoną strukturą liczbową a strukturą mierzonej zmiennej.
Określenie izomorfizmu jest warunkiem przeprowadzenia takich operacji matematycznych na
liczbach, które odpowiadają rzeczywistym właściwościom.
2. Izomorfizm pomiędzy systemem liczbowym i właściwościami empirycznymi
pozwala na rozróżnienie czterech poziomów pomiaru: nominalnego, porządkowego,
interwałowego i ilorazowego. Ogólnie rzecz biorąc, poziom pomiaru określa, jakie analizy
ilościowe można przeprowadzać na określonym zbiorze wartości liczbowych.
3. Procedury pomiarowe są bardzo wrażliwe na zabieg transformacji danych i błąd
pomiaru. Właściwości, które można zmierzyć z większym poziomem precyzji, można
również zmierzyć z mniejszą precyzją, ale nie odwrotnie. Oznacza to, że niektóre dane można
przekształcić z poziomu ilorazowego na nominalny, ale żadnych danych z poziomu
nominalnego nie można przekształcić na poziom ilorazowy.
4. Błąd pomiaru odnosi się do dokładności i stałości samego narzędzia pomiarowego.
Źródło błędu może leżeć w złym określeniu tego, co rzeczywiście jest mierzone (np. raczej
inteligencja niż postawy), lub we wrażliwości pomiarów na czynniki sytuacyjne (np. zdolność
respondenta do koncentrowania się w pokoju pełnym hałasu). W każdym wypadku błąd
odzwierciedla problemy związane z mierzeniem, a nie rzeczywiste różnice w wielkościach
mierzonej zmiennej.
5. Pojęcia trafności i rzetelności są ściśle związane z pomiarem. Określają one źródła
btędu pomiaru. Trafność dotyczy pytania, z jaką dokładnością badacze mierzą to. co chcieliby
mierzyć. Tradycyjnie wyróżnia się trzy rodzaje trafności: trafność treściową, trafność
empiryczną i trafność teoretyczną. Każda z nich odnosi się do innego aspektu sytuacji
pomiarowej. Aby określić trafność narzędzia pomiarowego, badacz musi zebrać dane na
temat wszystkich trzech rodzajów trafności.
6. Rzetelność wskazuje na wielkość błędu popełnianego w trakcie pomiaru.
Operacyjnie zakłada się, że każdy pomiar składa się z wartości prawdziwej i komponenty
błędu. Miarą rzetelności jest stosunek wariancji prawdziwej do całkowitej wariancji
wyników. Badacze oceniają rzetelność, stosując jedną z trzech następujących metod: metodę
powtórnego testowania, technikę form równoległych lub metodę połówkową. W teorii
uniwersalizacji przyjmuje się, że podstawowe zagadnienie rzetelności dotyczy zakresu, w
jakim jeden zbiór pomiarów jest podobny do innego zbioru pomiarów pochodzącego z
uniwersum wszystkich potencjalnych miar.
" Informacje na temat statystycznego wskaźnika uniwersalizacji można znaleźć w
pracy: Goldine C.GIesser. Lee J. Cronbach, Nageswars Rajaratnam (1965), Generalizability
of Scores Influenced by Muhipk Scores of Variance. „Psychometrika", 30, s. 395-418.
189
¦ Podstawowe terminy
błąd pomiaru 179 technika znanych grup 183
izomorfizm 172 trafność 180
metoda połówkowa 188 trafność doboru próby 181
metoda powtórnego testowania 187 trafność empiryczna 181
pomiar 170 trafność fasadowa 180
poziom interwałowy 176 trafność prognostyczna 181
poziom nominalny 173 trafność teoretyczna 183
poziom porządkowy 174 uniwersalizacja 188
poziom stosunkowy 177 wskaźnik 172
rzetelność 185 współczynnik rzetelności 187
technika form równoległych 187
Pytania sprawdzajgce
1. Zdefiniuj, co to jest pomiar, i wyjaśnij, dlaczego pomiar jest tak ważny wm daniach
naukowych?
2. Jakie znasz podstawowe poziomy pomiaru? Dlaczego różnice pomiędzy różnymi
poziomami pomiaru mają istotne znaczenie?
3. Podaj przykład danych, które po transformacji mogą zostać przeniesiffl z jednego
poziomu na inny, oraz takich danych, których nie można przetraw formować.
4. Zdefiniuj pojęcie rzetelności i omów sposoby jej szacowania.
5. W jaki sposób rzetelność jest powiązana z trafnością? Podaj przykład.
¦ Literatura dodatkowa
American Psychological Association (1985), Standardy dla testów stosowanych w
psychologii i ptĄ
gogice, „Biblioteka Psychologa Praktyka", t. I, Warszawa: Pol. Tow. Psychol.
Brzeziński J. (1997), Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd. Nauk.
PWN. Brzeziński J. (red.) (1988), Problemy teorii, rzetelności, konstrukcji i analizy wyników
testów \mó»
logicznych, „Biblioteka Psychologa Praktyka", t. II, Warszawa: Pol. Tow. Psychol.
Coombs C.H., Dawes R.M., Tversky A. (1977), Wprowadzenie do psychologii
matematycznej, Warsaj
wa: PWN. Nowakowska M. (1975), Psychologia ilościowa z elementami naukometrii,
Warszawa: Wyd. liĄ
PWN. Walenta K. (1971), Podstawowe pojęcia teorii pomiaru, w: J. Kozielecki (red.),
Problemy psychom
matematycznej, Warszawa: PWN.
Rozdział 8
Dobór próby i schematy doboru próby
Po co jest potrzebna próba? 193
Populacja 193 Jednostka doboru próby 194 Populacje skończone i nieskończone
195 Podstawa doboru próby (operat) 195
Btędy w konstrukcji podstawy doboru próby: wybory prezydenckie w roku 1936 197
Schematy doboru próby 197
Dobór losowy i nielosowy 198 Nielosowe schematy doboru próby 198 Losowe
schematy doboru próby 200 Losowy dobór próby: podsumowanie 206 Losowy dobór
próby: przykład 206
Wielkość próby 208 Btąd standardowy 209 Przedziały ufności 211 Określanie
wielkości próby 213
Błędy nielosowe 214
Podsumowanie 216
Podstawowe terminy 216
Pytania sprawdzające 217
Literatura dodatkowa 217
Organizowanie sondaży przedwyborczych, na podstawie których można przewidywać
wyniki wyborów, stało się ostatnio bardzo popularne. W trakcie kampanii roku 1992 wyniki
sondaży prowadziły do przeszacowywania prognozowanego zwycięstwa Clintona i
niedoszacowywania siły Perota. Co można powiedzieć na temat głosowania i procedur
doboru próby, biorąc pod uwagę te niedokładności? Badając sposób organizowania sondaży,
Richard Lau sformułował istotne wnioski metodologiczne dotyczące głosowania w ogóle1.
Według Laua zróżnicowanie wyników, podobnie jak błąd, jest wynikiem zbyt małej
liczebności próby, specyfiki populacji, z której się wybiera osoby badane i (np.
„zarejestrowani wyborcy" vs „prawdopodobni wyborcy"), niewłaściwie określonego odsetka
braku odpowiedzi (zwłaszcza że pora dnia lub dzień tygodnia, w którym przeprowadza się
sondaż, może skutecznie ograniczyć włączenie pewnych grup), proporcji osób
„niezdecydowanych" oraz tego, na ile dni przed właściwymi wyborami przeprowadza się
badania. Jeżeli te czynniki wpływają na wyniki sondaży, to czy wpływają również na wyniki
innych badań, w których korzysta się z określonej próby osób badanych?
W tym rozdziale zajmiemy się podstawami teorii doboru próby oraz omów™ sposoby
doboru próby. W pierwszej części omawiamy cele doboru próbji Następnie przechodzimy do
definicji i omawiamy podstawowe pojęcia — populł cji; jednostki, z której składa się próba;
podstawy, z której wybiera się próbę; próbł a także schematy losowego i nielosowego doboru
próby. Dalej zajmujemy sięproB lemem określania wielkości próby. Na koniec
przedstawiamy procedury szacowH nia wielkości błędu nie wynikającego ze sposobu doboru
próby.
Badacze zbierają dane po to, aby przetestować postawione hipotezy oraz uzys-l kać
empiryczne podstawy wyjaśniania i przewidywania. Mając skonstruowane nal rzędzie
pomiarowe pozwalające uzyskiwać odpowiednie dane z punktu widzenia problemu
badawczego, musimy zadbać o to, aby wyprowadzane wnioski i prognoB zy można było
uogólnić. Tylko wówczas bowiem będą one miały wartość nauko™ Jak podkreślaliśmy to w
rozdziale 1 (ryc. 1.1), uogólnianie jest jednym z podstawo* wych etapów procesu
badawczego. Uogólnianie jest ważne nie tylko z punktu wi-I dzenia testowanych hipotez, lecz
również z powodu możliwości dokonywania szer-l szego opisu. Na przykład pytania takie,
jak: „Jaki jest poziom politycznego zaufłB nia wśród Amerykanów?" lub: „Czy osoby
głosujące bardziej się interesują spraw-mi środowiska obecnie niż dziesięć lat temu?"
wymagają opisowych uogólnień.! Zazwyczaj uogólnienia nie są oparte na danych
pochodzących ze wszystkichl możliwych pomiarów, od wszystkich respondentów czy
wynikających ze wszyJI kich zdarzeń zdefiniowanych w problemie badawczym. Badacze
posługują się i I czej stosunkowo małą liczbą przypadków (próbą) jako podstawą wyciągania
wniMI ków o całej zbiorowości (populacji). Sondaże przedwyborcze są tego dobrym przfl
kładem. Oparte na odpowiedziach stosunkowo małej grupy respondentów pozwł
' Richard R. Lau (1994), An Analysis of the Accuracy of 'Trial Heat' Polis During the
I992P4 sidential Election, „Public Opinion Quarterly", 58, s. 2-20.
192
Wl
u, przewidywać, jak głosowaliby wszyscy głosujący, gdyby wybory odbyły się wtedy,
kiedy został przeprowadzony sondaż. Na ich podstawie można rowmez przewidywać, jaki
będzie rozkład głosów w czasie rzeczywistych wyborów^Zarówno naukowcy prowadzący
badania w ramach nauk społecznych, jak i osoby organizujące sondaże przedwyborcze stosują
różne kryteria przy doborze próby, lo zas zkolei wpływa na rodzaj wniosków, jakie — na
podstawie danych z próby — można wyprowadzić o populacji.
I Po co jest potrzebna próba?
U podstaw uogólnień opartych na danych empirycznych leżą zazwyczaj wyniki
cząstkowe, ponieważ —jak to stwierdziliśmy wyżej — zebranie danych od wszystkich osób
objętych problemem badawczym nie jest zazwyczaj możliwe, jest niepraktyczne lub jest
zdecydowanie za drogie. Badacze mogą wyprowadzać precyzyjne wnioski dotyczące
wszystkich analizowanych obiektów (całego zbioru) na podstawie niewielkiej liczby
obiektów (podzbioru), pod warunkiem ze ow podzbiór jest reprezentatywny dla całego zbioru.
W badaniach marketingowych, na przykład, wykorzystuje się dane na temat preferencji
pochodzące z badań niewielkiej liczby gospodyń domowych po to, aby wprowadzić nowe
produkty na wielomilionowy rynek konsumentów. Agencja Ochrony Środowiska prowadzi
badania, testując niewielką liczbę samochodów, aby określić ich wpływ na środowisko. Dane
zebrane dla podzbioru samochodów wykorzystuje się w celu określenia i wprowadzenia
odpowiednich przepisów regulujących dopuszczalną emisję spalin przez wszystkie
samochody. . ., , , Całkowity
zbiór obiektów poddawanych analizie czy całkowity zbiór danych nazywamy populacją.
Natomiast podzbiór danych pochodzący z populacji i będący podstawą uogólnień na całą
populację nazywamy próbą. Wartość określonej zmiennej charakteryzującej populację - na
przykład medianę dochodów czy poziom formalnego wykształcenia — nazywamy
parametrem; jego odpowiednik w próbie nosi nazwę statystyki. Podstawowym celem teorii
doboru próby jest dostarczanie metod szacowania nieznanych wartości parametrów na
podstawie — dających się łatwo obliczyć — wartości odpowiednich statystyk.
Aby poprawnie oszacować nieznane wartości parametrów na podstawie znanych
wartości statystyk, należy wcześniej odpowiedzieć na trzy podstawowe pytania: (1) Jak
definiujemy populację? (2) Jaki wybieramy schemat doboru próby, (i) Jaka powinna być
wielkość próby?
I Populacja
Populacja - ujmując rzecz metodologicznie — to „zbiór wszystkich przypadków
wykazujących określone cechy"2. Na przykład, określając cechy jako „ludzie ...mieszkający
w Wielkiej Brytanii", możemy określić populację jako zbiorowość
' Isidor Chein (1981), An lntroduction to Sampling, w: Claire Selltiz i in. (red.),
Research Methods nSocial Relations, wyd. 4. New York: Holt, Rinehart and Winston, s. 419.
193
składającą się z wszystkich ludzi mieszkających w Wielkiej Brytanii. I podobnie,
jeżeli ¦ tymi cechami będą „studenci" i „przyjęci na studia w uniwersytetach stanowych
USA", I to naszą populację będą stanowić wszyscy studenci przyjęci na studia w
uniwersytetacli stanowych USA. W taki sam sposób możemy zdefiniować populację
składającą sięzel wszystkich gospodarstw domowych w określonej gminie, z wszystkich
zarejestrowa-1 nych wyborców w danym okręgu czy z wszystkich książek w bibliotece
publicznej. I Populację mogą stanowić wszyscy mieszkańcy określonej dzielnicy, instytucje
ustawodawcze, domy czy rejestry. To, jaka jest to populacja, zależy od problemu
badawczego. I Badając zachowania konsumentów w określonym mieście, możemy
zdefiniować I populację jako wszystkie gospodarstwa domowe w tym mieście. Możemy też,
jtf żeli interesuje nas konkretny produkt — powiedzmy karma dla psów — do populacji
zaliczyć wszystkich tych mieszkańców, którzy posiadają psy.
Podstawowym problemem przy określaniu wartości parametru (dla populacji) na
podstawie wartości zarejestrowanej w próbie jest zatem właściwe zdefiniowa populacji. Jeżeli
politolog interesuje się zachowaniami wyborców w Wielkiej Bn tanii i chciałby skonstruować
próbę, na podstawie której będzie mógł przewidywał wyniki głosowania, to powinien z niej
wykluczyć wszystkie osoby poniżej osie nastego roku życia, ponieważ nie mają one praw
wyborczych. Zdefiniowanie popu-J lacji jako „wszystkie osoby powyżej osiemnastego roku
życia, mieszkające w Wid kiej Brytanii" jest jednak określeniem zbyt szerokim, ponieważ aby
móc głosowat trzeba spełnić określone wymogi prawne. Osoby, które nie spełnią tych
wymogó* nie mają praw wyborczych i powinny zostać wyłączone z populacji, z której I
pobierana próba. Populacja powinna zatem zostać określona w terminach: (1) ofej któw, które
się na nią składają, (2) zakresu, (3) czasu — na przykład (a) wszyaj mieszkańcy powyżej
osiemnastego roku życia mieszkający na stałe w danym oki gu, (b) mieszkający w Wielkiej
Brytanii, (c) począwszy od 1 maja 1995 roku.
Jednostka doboru próby
Pojedynczy obiekt z populacji, z której będzie pobierana próba (np. głosujący, {
podarstwo domowe czy zdarzenie), jest określany jako jednostka doboru prób Jednostki
doboru próby są zazwyczaj charakteryzowane przez cechy ilościowe,! re mają istotne
znaczenie z punktu widzenia problemu badawczego. Na przyk jeżeli populacja jest
definiowana jako wszyscy trzecioklasiści, którzy konkretne] dnia poszli do szkół publicznych
w danym mieście, to jednostką doboru próby l trzecioklasiści. Trzecioklasiści jednak mają
wiele różnych cech (zmiennych), ta jak otrzymywane stopnie, nawyki, posiadane opinie czy
oczekiwania. Projekt l dawczy może dotyczyć tylko jednej z tych zmiennych, na przykład
stopni z i matyki czy związków pomiędzy kilkoma zmiennymi, np. ilorazów inteligencji i f<Ą
malnego wykształcenia rodziców.
Jednostką doboru próby nie zawsze musi być osoba. Może nią być zdarzeń;
uniwersytet, miasto czy naród. Rudolph J. Rummel, badając zachowanie się 1 w trakcie
konfliktów wewnętrznych i międzynarodowych, zebrał przez trzy lata i ne dotyczące
zachowania się ludzi (takie jak zabójstwa, walki partyzanckie, cz; ki, rozruchy, rewolucje,
akcje wojskowe, wojny) w 22 konfliktach wewnętrzny) i międzynarodowych dla 77 różnych
narodów1. W badaniu tym jednostką dob
3 Rudolph J. Rummel (1971), Dimentions of Conflict Behavior within and between
Natiom,w.\
194
próby były narody, ale nie wszystkie narody zostały wybrane. Jednostki doboru próby
musiały spełnić dwa kryteria, aby mogły zostać włączone do badań: (1) posiadać polityczną
suwerenność przynajmniej przez dwa lata i wyrażającą się w nawiązaniu dyplomatycznych
stosunków z innymi państwami, jak też posiadaniem ministerstwa spraw zagranicznych, oraz
(2) liczbę ludności nie mniejszą niż 800 000.
Populacje skończone i nieskończone
Populacja może być skończona lub nieskończona w zależności od tego, czy jednostka
doboru próby jest skończona lub nieskończona. Populacja skończona — na mocy definicji —
składa się z przeliczalnej liczby jednostek, np. wszyscy zarejestrowani wyborcy w danym
mieście i w danym roku. Populacja nie-ikończona natomiast składa się z nieskończenie wielu
jednostek, jak np. nieograniczona liczba rzutów monetą. Pobieranie próby po to, aby
otrzymać informacje o określonej właściwości konkretnej skończonej populacji nazywane jest
zazwyczaj doborem reprezentacyjnym.
Podstawa doboru próby (operat)
Mając zdefiniowaną populację, badacze pobierają próbę, która ma adekwatnie
reprezentować tę populację. Odpowiednie procedury polegają na pobieraniu próby z
podstawy doboru próby, którą tworzy pełna lista jednostek doboru próby. W sytuacji idealnej
podstawa doboru próby, czyli operat zawiera wszystkie jednostki Badające się na daną
populację. W praktyce jednak takie listy rzadko istnieją — badacze zazwyczaj tworzą listę
zastępczą. Na przykład w dużych badaniach obejmujących cały kraj trudno opracować listę,
która zawierałaby spis wszystkich mieszkańców Stanów Zjednoczonych. Z problemem tym
regularnie stykają się nawet duże instytucje badawcze, takie jak urząd statystyczny, który co
dziesięć lat podaje dane na temat wielkości populacji. Spis powszechny przeprowadzony w
roku 1990 kosztował prawie 2,6 miliarda dolarów i wymagał 277 milionów formularzy.
Urząd statystyczny uzyskał około 3,3 miliardów indywidualnych odpowiedzi zebranych
wiatach 1988-1991 przez prawie 480 tysięcy pracowników. Pracownicy ci opracowali i
sprawdzili listy adresowe oraz zebrali i zakodowali informacje dotyczące życia około 250
milionów ludzi i 106 milionów gospodarstw domowych w całych Stanach Zjednoczonych.
Urząd zatrudnił też doraźnie około 35 tysięcy pracowników, którzy w latach 1988-1989
chodzili od drzwi do drzwi, przeprowadzając bezpośrednie rozmowy. Opracowali oni listę
zawierającą około 43 milionów adresów gospodarstw domowych, często mieszczących się
poza dużymi metropoliami. Oprócz tego — na podstawie list adresowych posiadanych przez
komercyjne firmy wysyłkowe — urząd statystyczny dostarczył listę około 55 milionów
adresów mieszkańców dużych metropolii. Listy te zostały następnie sprawdzone przez
pracowników urzędu i pracowników poczty i dopiero na ich podstawie wydrukowano adresy,
które naklejono na koperty zawierające kwestionariusze4. Szacuje się jednak, że mimo
wszystkich tych wysiłków około 5 milionów Amerykanów nie znalazło
Gillespie. B.A. Nesvold (red.), Macroquantitative Analysis: Conflict, Development
and Democratiza-tion.Newbury Park, Calif.: Sagę.
Na podstawie: Census 90 Basics, U.S. Department of Commerce, Bureau of the
Census, Decem-
berlTO.s. 1.
195
się na żadnej liście. Podobnie jak w czasie spisu przeprowadzonego w roku 1980
rosnąca mobilność mieszkańców Stanów Zjednoczonych sprawiła, że opracowanie
kompletnej listy adresowej stało się bardzo trudne.
W badaniach prowadzonych na mniejszą skalę operat doboru próby możezoj stać
opracowany na podstawie książki telefonicznej, spisu mieszkańców danego miasta czy list
członków organizacji państwowych lub prywatnych.
Pomiędzy podstawą doboru próby a rzeczywistą populacją powinien istnieć bard dzo
wysoki stopień odpowiedniości. To, czy próba okaże się właściwa, zależy głównie i przede
wszystkim od podstawy doboru próby. I rzeczywiście, każdy aspekt schematu doboru próby
— populacja, etapy doboru i zastosowana procedura seleł-j cji — jest powiązany z podstawą
losowania. Zanim badacz pobierze próbę, najpierw musi ocenić jakość podstawy doboru
próby. Leslie Kish przedstawił listę* powych problemów związanych z tworzeniem podstawy
doboru próby. Lista ta obejmuje problemy takie, jak: niepełna podstawa doboru próby,
grupowanie elementowi oraz problem tzw. elementów pustych znajdujących się poza badaną
populacją.!
Niepełna podstawa doboru próby. Problem niepełnej podstawy doboru próby pol jawią
się wtedy, kiedy nie wszystkie jednostki doboru próby, z których składa m populacja,
znalazły się na liście. Na przykład, jeżeli populacja składa się z wszj nowych mieszkańców
danego miasta, to podstawa doboru próby oparta na liślfl właścicieli posiadłości w tym
mieście stworzy niepełną podstawę doboru prótł Znajdą się bowiem na niej wszyscy nowi
mieszkańcy, którzy kupili domy, alenfl znajdą się na niej ci nowi mieszkańcy, którzy
wynajmują domy lub mieszkania* Kiedy podstawa doboru próby jest niepełna, to jednym z
rozwiązań może bw stosowanie listy dodatkowej. Można, na przykład, stworzyć listę
wszystkich osdl które od niedawna wynajmują mieszkania, posługując się spisem
mieszkańców.jB śli ten spis zawiera informacje identyfikujące nowych mieszkańców.
Grupowanie elementów. Drugim potencjalnym problemem związanym z two™ niem
podstawy doboru próby jest grupowanie elementów. Problem ten pojawiał wtedy, kiedy
jednostki doboru próby tworzą raczej grupy, niż mają charakter indfl widualny. Podstawa
doboru próby może się na przykład składać z bloków mień kalnych, podczas gdy badanie
dotyczy osób. Jednym z możliwych rozwiązań tejfl problemu może być stworzenie najpierw
próby z bloków, a potem sporządzenie ¦ ty wszystkich mieszkań w każdym z wybranych
bloków. Następnie z każdego n» szkania wybiera się jedną osobę (w wielu mieszkaniach
mieszka bowiem więcł osób) zgodnie z przyjętymi wcześniej kryteriami, takimi jak osoby
powyżej 18rotfl życia czy wyłącznie głowy rodziny.
Puste elementy spoza populacji. Problem pustych elementów spoza populacji jefl dość
powszechny. Pojawia się on wtedy, kiedy niektóre z jednostek doboru próbflB które znalazły
się na liście tworzącej podstawę doboru próby, nie należą do popfl lacji będącej przedmiotem
badania. Z takim przypadkiem mamy do czynienia nil przykład wtedy, gdy populacja zostaje
zdefiniowana jako osoby posiadające prawi wyborcze, natomiast w podstawie doboru próby
znajdą się osoby, które są zbyli
5 Leslie Kish (1965), Sumey Sampling, New York: Wiley, paragraf 2.7. 196

młode, aby głosować. Problem ten powstaje też wtedy, gdy korzysta się z
nieaktualnych list. Może się tak zdarzyć, gdy korzystamy ze spisu mieszkańców danego
miasta, a spis ten zawiera jedynie adresy, a nie nazwiska mieszkańców. Brak nazwisk nie
oznacza jednak, że pod danym adresem nikt nie mieszka. Mieszkańcy mogli się niedawno
wprowadzić i jeszcze nie zostali wprowadzeni na taką listę. Takie przypadki należy traktować
jako puste i po prostu nie uzwględniać ich w próbie. Dobrze jest pobrać nieco większą próbę,
aby później móc zastąpić takie przypadki.
Błędy w konstrukcji podstawy doboru próby: wybory prezydenckie w roku 1936
Nasza analiza błędów popełnianych przy konstruowaniu podstawy doboru próby nie
byłaby pełna, gdybyśmy nie wspomnieli o najgłośniejszym takim przykładzie, tj. sondażu
przedwyborczym przeprowadzonym w roku 1936 przez magazyn „Li-terary Digest". Franklin
Delano Roosevelt, kończąc swoją pierwszą kadencję jako prezydent Stanów Zjednoczonych,
konkurował z kandydatem republikanów, Alfem Landonem z Kansas. „Literary Digest" w
największym sondażu przedwyborczym, który objął około 2,4 miliony ludzi, przewidział
zwycięstwo Landona przewagą 57% procent głosów do 43%. Mimo tej tak niekorzystnej
prognozy Roosevełt wygra! wybory z ogromną przewagą, bo 62% do 38% głosów6.
Pomimo że pobrana próba była bardzo duża, popełniony błąd okazał się ogromny —
największy, jaki kiedykolwiek popełniła instytucja organizująca badania sondażowe.
Podstawowym źródłem błędu okazała się podstawa doboru próby. Magazyn „Digest" wysłał
kwestionariusze do 10 milionów ludzi, których nazwiska i adresy pochodziły z takich źródeł
jak książki telefoniczne czy listy członków różnych klubów. Jednakże w roku 1936 ludzie
biedni nie posiadali telefonów jak również nie należeli do organizacji klubowych. Tym
samym tak skonstruowana podstawa doboru próby nie była pełna, albowiem w sposób
systematyczny wyeliminowano z niej ludzi biednych. To zaś okazało się szczególnie istotne
właśnie w roku 1936, w którym ludzie biedni głosowali głównie na Roosevelta, a dobrze
sytuowani na Landona7. Tak więc podstawa doboru próby nie odzwierciedlała w tym
przypadku populacji osób rzeczywiście głosujących.
¦ Schematy doboru próby
W poprzednich paragrafach omówiliśmy problemy związane z doborem próby w
odniesieniu do takich zagadnień jak sposób definiowania populacji i tworzenie podstawy
doboru próby. Kolejny problem związany z pobieraniem próby pojawia się wtedy, kiedy
badacze chcą skonstruować próbę reprezentatywną. Podstawowym wymogiem stawianym
wobec każdej próby jest to, aby była ona w maksymalnym stopniu reprezentatywna w
stosunku do populacji, z której została pobrana. Dana próba jest uważana za próbę
reprezentatywną wtedy, gdy wyprowadzane przez badacza wnioski na podstawie badania
próby są podobne do wniosków, które badacz otrzymałby, gdyby przebadał całą populację.
6David Freedman, Robert Pisani, Roger Purves (1978), Statistics, New York: Norton,
s. 302-307. 7 Ibidem.
197
Dobór losowy i nielosowy*
We współczesnej teorii doboru próby wprowadza się rozróżnienie na dobór losów; i
dobór nielosowy. Istotą doboru losowego jest to, że dla każdej jednostki dobom próby
wchodzącej w skład populacji możemy określić prawdopodobieństwo, zjJ kim jednostka ta
może znaleźć się w próbie. W najprostszym przypadku wszystkie jednostki mają jednakowe
prawdopodobieństwo znalezienia się w próbie. W pia padku doboru nielosowego natomiast
nie ma możliwości określenia prawdopodobieństwa włączenia określonego elementu do
próby i nie ma gwarancji, że każd} element może zostać włączony do próby z równym
prawdopodobieństwem. Jeżeli jakiś zbiór elementów nie ma żadnej szansy na to, aby znaleźć
się w próbie, ton leżałoby zawęzić definicję populacji. Oznacza to, że cechy tego zbioru
elementón pozostaną nieznane i nie będzie można poznać dokładnej charakterystyki
populacji8. Wracając do prognoz wyborczych w roku 1936, możemy powiedzieć, km
poznano wówczas intencji wyborczych ludzi biednych. Dlatego też, aby dobni próbę
reprezentatywną, należy posłużyć się wyłącznie doborem losowym.
Dobry projekt doboru próby pozwala przyjąć, że badania przeprowadzone ml różnych
próbach pobranych z tej samej populacji będą dawały rezultaty nie różnił ce się od
parametrów populacyjnych o więcej niż o określoną wartość. LosoB schematy doboru próby
pozwalają badaczom określić zakres, w jakim wyniki otm mane na podstawie badania próby
będą się różniły od wyników otrzymanych vi tuacji, w której badano by całą populację.
Posługując się losowym schematem al boru próby, można oszacować parametry populacyjne
na podstawie statystyk ona czonych z próby.
Chociaż parametry populacyjne można oszacować jedynie na podstawie próbl
losowych, w naukach społecznych często korzysta się z prób nielosowych. WplyB na to, z
jednej strony, wygoda, z drugiej — czynniki ekonomiczne. W niektórjł przypadkach (np.
badania eksploracyjne) mogą one przeważyć nad korzyściafl wynikającymi ze stosowania
prób losowych. W naukach społecznych korzystał z prób nielosowych również wtedy, kiedy
trudno jest precyzyjnie zdefiniować pol pulację lub kiedy nie da się stworzyć listy elementów
składających się na poptfl cję. Nie da się np. stworzyć listy osób nałogowo zażywających
narkotyki czy osfl nielegalnie mieszkających w Stanach Zjednoczonych.
Nielosowe schematy doboru próby
W naukach społecznych zazwyczaj wykorzystuje się trzy rodzaje prób, które zosofl ły
pobrane w sposób nielosowy. Są to: próba okolicznościowa, próba celowa i pnfl ba kwotowa.
Próba okolicznościowa. Próba okolicznościowa to próba, którą tworzą osoby¦ wo
dostępne. Profesorowie college'u mogą wybrać studentów ze swojej grupy;bfl
* Autorzy posługują się terminami: probability sampling i nonprobability sampling. co
moi tłumaczyć jako „probabilistyczny dobór próby" oraz „nieprobabilistyczny dobór próby".
W polskiej! teraturze dotyczącej metody reprezentacyjnej używa się terminu „dobór losowy" i
„dobór nielosowjH por. np. Steczkowski J. (1995), Metoda reprezentacyjna w badaniu
zjawisk ekonomiczno-spokrjm Warszawa-Kraków: Wyd. Nauk. PWN.
8 Chein, An lntroduction to Sampling, s. 421.
198
iwy oru
ja-
na-
u lanie dobrać
na róznią-Losowe otrzy-sy-do-obli-
prób Wpływa których zyściami się po-popula-osób
zosta-
pró-
łat-; ba-
dacz może wybrać pierwsze 200 osób, które spotka na ulicy i które wyrażą zgodę na
przeprowadzenie wywiadu. Nie ma żadnych możliwości określenia stopnia
reprezentatywności próby okolicznościowej i dlatego na jej podstawie nie można
oszacowywać parametrów populacyjnych.
Próba celowa. Do próby celowej (określanej czasami jako próba eksperc-ka) badacze
dobierają osoby w sposób subiektywny, starając się otrzymać próbę, która wydaje się
reprezentować populację. Innymi słowy, szansa zakwalifikowania określonej osoby do próby
zależy od subiektywnej oceny badacza. Ponieważ najczęściej trudno jest określić, dlaczego
badacze kwalifikują niektóre osoby jako należące do próby, dlatego trudno jest w przypadku
każdej osoby określić jej prawdopodobieństwo zakwalifikowania się do próby. Mimo to
próby celowe były z sukcesem wykorzystywane w naukach społecznych w badaniach,
których celem było prognozowanie wyników wyborów. W Stanach Zjednoczonych, na
przykład, badacze w każdym ze stanów wybierali określoną liczbę małych okręgów
wyborczych, w których wyniki w poprzednich wyborach odzwierciedlały wyniki otrzymane
wcatym stanie. Następnie wszystkim uprawnionym wyborcom zadano pytanie, na kogo będą
glosowali. Prognozy przedwyborcze zostały oparte na tak zebranych danych. Ryzykownym
założeniem, jakie przyjęto w tym przypadku, jest to, że wybrane okręgi nadal są
reprezentatywne dla całego stanu.
Próba kwotowa. Podstawowym celem tworzenia próby kwotowej jest uzyskanie
maksymalnego podobieństwa do populacji wyjściowej. I tak na przykład, jeżeli wiadomo, że
populacja składa się w równej części z kobiet i mężczyzn, to należy wybrać do próby taką
samą liczbę kobiet i mężczyzn. Jeżeli wiadomo, że 15% populacji to osoby o czarnym kolorze
skóry, to w próbie również powinno się znaleźć tyle osób o tym kolorze skóry. W doborze
kwotowym dobiera się osoby badane ze względu na takie parametry, jak: płeć, wiek, miejsce
zamieszkania czy pochodzenie etniczne, kierując się rozkładem tych zmiennych w populacji.
Na przykład prowadzący badania ankieter może otrzymać instrukcję przebadania 14 osób, z
których 1 mieszka na terenach podmiejskich, a 7 w mieście, 7 to kobiety, a 7 to mężczyźni,
oraz że spośród 7 mężczyzn 3 powinno być żonatych, a 4 kawalerami i że taki sam podział
ma zastosować w grupie kobiet. Analizując ten przykład, widać wyraźnie, ze dysproporcje
pomiędzy próbą i populacją mogą się pojawić w stosunku do tych wszystkich zmiennych,
które nie zostały uwzględnione w kwotach zdefiniowanych przez badacza. W przypadku
próby kwotowej, podobnie jak w przypadku innych prób opartych na doborze nielosowym,
nie możemy dokładnie oszacować parametrów populacyjnych na podstawie danych
otrzymanych z badania próby.
Osoby przygotowujące sondaże przedwyborcze posługiwały się próbami kwotowymi
aż do wyborów prezydenckich w roku 1948, kiedy to błędnie wyprogno-zowano zwycięstwo
Thomasa E. Deweya9. Przeprowadzono wówczas trzy sondaże przedwyborcze i we
wszystkich prognozowano zwycięstwo Deweya. Tymczasem okazało się, ze wybory wygrał
Harry S. Truman, uzyskując prawie 50% głosów, podczas gdy Dewey uzyskał niecałe 45%.
We wszystkich trzech sondażach wykorzystano próby kwotowe zbudowane
'Freedman i in., Slatistics, s. 302-307.
199
względem takich zmiennych, o których sądzono, że mają wpływ na sposób gfosoJ
wania. Do tych zmiennych należały: miejsce zamieszkania, płeć, wiek i pochodł nie etniczne.
I chociaż założenie, że te zmienne są istotne z punktu widzenia sptl sobu głosowania wydaje
się racjonalne, to można wskazać na wiele innych czyn-1 ników, które odegrały ważną rolę w
trakcie tych wyborów. Co ważniejsze, nie uwzględniono kwot zbudowanych ze względu na
głosy demokratów i republM nów, ale też rozkład opinii politycznych był dokładnie tym,
czego nie znano ił chciano poznać poprzez sondaż. I wreszcie najbardziej wątpliwym
elementem sow dąży z 1948 roku było przyjęcie strategii badania każdej dowolnej osoby
wewnąB określonej kwoty. To sprawiło, że ankieterzy prowadzili badania wedle własnejB
uznania, przyczyniając się w ten sposób do powstania istotnego błędu10.
Losowe schematy doboru próby
Jak wskazywaliśmy wcześniej, dobór losowy — w przeciwieństwie do doboru nid
losowego — pozwala na określenie prawdopodobieństwa, z jakim każdy elemej populacji
może zostać włączony do próby. W paragrafie tym przedstawimy cztd podstawowe metody
doboru losowego: losowanie indywidualne nieograniczone,! sowanie indywidualne
systematyczne, losowanie warstwowe i losowanie grupofl^
Losowanie indywidualne nieograniczone. Losowanie indywidualne nieograni ne jest
podstawowym sposobem doboru probabilistycznego i elementem wszysJ bardziej złożonych
losowych schematów doboru próby. W losowaniu indywid nym nieograniczonym każdy z
elementów składających się na całą populację (o czaną dużą literą AO ma takie same,
niezerowe prawdopodobieństwo dostania się próby. I tak na przykład prawdopodobieństwo
wyrzucenia orła lub reszki w tr' rzutu idealną monetą jest jednakowe i znane (wynosi 50%), a
każdy kolejny jest niezależny od wyników poprzednich. Aby skonstruować próbę losową, na
wcy najczęściej posługują się specjalnymi programami komputerowymi lub tab" mi liczb
losowych. Przykład tablicy liczb losowych przedstawiliśmy w dodatku Posługiwanie się taką
tablicą jest bardzo proste. Najpierw należy ponumero wszystkie elementy składające się na
populację i nadać im kolejne numery od 1 N. Następnie zaczynamy czytanie tablicy liczb
losowych od dowolnie wybran punktu. Czytamy kolejne liczby w dowolnym porządku (w
dół, w górę, po prze' nej), pilnując jednak, aby czytać je zawsze tak samo. Każda odczytana
liczba wiadająca numerowi na naszej liście wskazuje, który element populacji zos wybrany do
próby. Proces ten kontynuujemy tak długo, aż wylosujemy żądaną" bę elementów. Przy tej
metodzie doboru próby decyzja o wybraniu określonego mentu ma charakter losowy, tj.
niezależny od tego, jakie elementy zostały wcześ wybrane. Stosując tę procedurę konstrukcji
próby, eliminujemy wszelką systematy stronniczość w jej doborze i możemy oszacować
wartości parametrów, które reprezentować rzeczywiste wartości w ogólnej populacji.
Procedura doboru losowego gwarantuje, że prawdopodobieństwo włączenia dego
elementu populacji do próby będzie jednakowe. Prawdopodobieństwo to nosi n/N, gdzie n
oznacza wielkość próby, a N wielkość populacji". Jeżeli na
10 Ibidem, s. 305-307.
1' Matematyczny dowód tego równania można znaleźć w pracy Kisha, Sumey
Sampling, s. 3
200
kład populacja składa się z 50 389 osób posiadających prawa wyborcze w danym
mieście i mamy pobrać próbę liczącą 1800 osób, to prawdopodobieństwo wybrania do próby
każdego elementu populacji wynosi 1800/50 389, czyli 0,0357 (por. też przykład 8.1).
Przykład 8.1
W jaki sposób dokonać losowania indywidualnego nieograniczonego
Problem
W badaniu kosztów ponoszonych przez szpital regionalny analizowane będą karty
chorobowe pacjentów 7. V = 100 kart chorobowych należy wybrać losową próbę składającą
się z n = 10 kart.
1. Zaczynamy od ponumerowania kart, rozpoczynając od przypisania liczby 001
pierwszej karcie i kończąc na liczbie 100, którą przypiszemy setnej karcie. Zauważmy, że
każdej karcie składającej się na naszą populację przyporządkowaliśmy liczbę składającą się z
trzech cyfr. Gdyby liczba kart chorobowych wynosiła 1250, posługiwalibyśmy się liczbami
czterocyfrowymi. W naszym przypadku musimy odczytać trzycyfrowe liczby losowe, aby
każda karta chorobowa miała tę samą, znaną szansę dostania się do próby.
2. Otwórzmy teraz dodatek D i przyjrzyjmy się pierwszej kolumnie. Widzimy, że
każda kolumna składa się z liczb pięciocyfrowych. Jeżeli opuścimy dwie ostatnie cyfry w
każdej liczbie i zaczniemy tak otrzymane liczby czytać z góry w dół, to otrzymamy
następujące liczby trzycyfrowe:
521 007*
070* 053*
486 919
541 005*
326 007
293 690
024* 259
815 097*
296
Ostatnią liczbą jest 097 i znalazła się ona w 35 wierszu (kolumna 1). Nie musimy
czytać więcej liczb, ponieważ odczytaliśmy już dziesięć liczb, które wskazują, które elementy
zostaną zakwalifikowane do naszej próby (liczba 007 pojawiła się dwa razy, ale
wykorzystaliśmy ją tylko jeden raz). Liczby oznaczone gwiazdkami wskazują, które karty
chorobowe zostaną wybrane do próby, ponieważ tylko te liczby mieszczą się w określonym
przez nas zakresie od 001 do 100. Nasza próba losowa składa się teraz z dziesięciu
elementów:
094 070 005
071 024 097
023 007
010 053
• Nie musimy rozpoczynać od pierwszego wiersza w kolumnie pierwszej. Możemy
wybrać dowolny początek, na przykład siódmy wiersz kolumny drugiej. Możemy również
czytać liczby w dowolny sposób: z góry w dół, z lewej do prawej czy po przekątnej,
bylebyśmy tylko opracowali wcześniej określony plan.
104 854
223 289
241 635
421 094*
375 103
779 071*
995 510
963 023*
895 010*
201
Losowanie systematyczne. Losowanie systematyczne polega na wybieraniu każdego
K-tego elementu z populacji, począwszy od pierwszego elementu, który zostaje wybrany w
sposób losowy. I tak, jeżeli chcemy pobrać próbę składającą się ze 100 osób, pochodzącą z
populacji składającej się z 10 000 osób, to będziemy wybierać co setną osobę (K = N/n = 10
000/100 = 100). Pierwszy element wybieramy w spoJ sób losowy, na przykład korzystając z
tablic liczb losowych. Powiedzmy, że począ-l tek losowania ustaliliśmy od osoby czternastej.
Do próby wejdą zatem osoby mai jące następujące numery: 14, 114, 214, 314, 414 itd.
Losowanie systematyczne jest wygodniejsze niż losowanie indywidualne nieJ
ograniczone. W sytuacji, gdy badacz bez doświadczenia w stosowaniu różnych tediniłl
pobierania próby ma skonstruować próbę, łatwiej mu będzie wybierać co K-ty efl ment, niż
korzystać z tablic liczb losowych. Próby systematyczne jest także łat™ pobierać wtedy, gdy
populacja jest bardzo duża, lub wtedy, gdy pobrana próba™ być bardzo liczna.
Przykład 8.2
W jaki sposób dokonać losowania systematycznego
Problem
Chcielibyśmy poznać, jaki jest związek pomiędzy zawodem rodziców a średnią ocen
studentów wl żym ośrodku miejskim (N= 35 000). Niezbędne informacje można otrzymać na
podstawie danych pet nalnych studentów, dlatego też wylosowanych zostanie n = 700 teczek
z danymi personalnymi. Ichoa w tym przypadku możemy dokonać losowania indywidualnego
nieograniczonego (por. przykład 81 jednak wymagałoby to dużego nakładu pracy. Zamiast
tego możemy zastosować następującą procedu
1. Pierwszym krokiem jest ustalenie odstępu losowania K. Ponieważ N = 35 000, a
próba n =71 dlatego K wynosi 35 000/700, tj. K = 50.
2. Następnie, z pierwszych pięćdziesięciu teczek wybieramy losowo tę, od której
zaczniemy*) bierać co pięćdziesiątą osobę, aż otrzymamy pożądaną wielkość próby, równą
700 osobom.* todę tę można nazwać systematycznym losowaniem co pięćdziesiątego
elementu.
W losowaniu systematycznym każdy element populacji może zostać wylosowanj do
próby z prawdopodobieństwem l/K. W losowaniu tym może się jednak pojaw cykliczne
wahanie (określony wzorzec) danych, przypadające co każde ATelementói Zjawisko to może
być przyczyną pobrania próby stronniczej. Możemy na przykŁ prowadzić badania nad
przeciętną wielkością domu zajmowanego przez jedną rod nę i pierwszy wybrany dom okaże
się domem narożnym. Może się dalej tak zdarz] ze nie zauważymy, i/ każdy K-ty dom jest
również domem narożnym. W ten sposl nasza próba będzie próbą stronniczą, ponieważ domy
narożne są najczęściej więks Gdybyśmy wiedzieli, że taki wzorzec opisuje naszą populację, to
przesuwając nieci początek losowania, moglibyśmy ten problem zminimalizować12 .
Losowanie warstwowe. Badacze posługują się próbą warstwową przede wszyi kim po
to, aby mieć pewność, że różne grupy składające się na populację są wił
12 Inne procedury pozwalające uniknąć stronniczości wynikającej z systematecznego
wzorca H sującego populację zostały opisane w pracy Williama Cochrana (1977). Sampling
Techniąues, wjl New York: Wiley.
202
ciwie reprezentowane w próbie. Zwiększa to poziom dokładności przy
oszacowywaniu wartości parametrów. Co więcej, posiadając wszystkie cechy poprzednich
technik, losowanie warstwowe jest zdecydowanie korzystniejsze ze względów
ekonomicznych. Istotą losowania warstwowego jest podzielenie populacji „na grupy w taki
sposób, aby elementy należące do jednej grupy były do siebie bardziej podobne uż elementy
należące do populacji jako całości"13. Innymi słowy, oznacza to, że tworzymy zbiór
homogenicznych grup wyodrębnionych ze względu na badane zmienne. Dokonując losowania
z każdej grupy oddzielnie, otrzymujemy zbiór homogenicznych prób, które połączone razem
tworzą próbę bardziej heterogenicznej populacji. Zabieg ten zwiększa poziom dokładności
oszacowań parametrów.
Wyobraźmy sobie na przykład, że określona populacja składa się z 700 białych, 200
czarnych i 100 Meksykano-Amerykanów. Gdybyśmy pobrali próbę losową liczącą 100 osób,
to najprawdopodobniej do próby tej nie wejdzie dokładnie 70 białych, 20 czarnych i 10
Meksykano-Amerykanów — liczba Meksykano-Amerykanów może na przykład być zbyt
mała. Próba warstwowa składająca się z 70 białych, 20 czarnych i 10 Meksykano-
Amerykanów będzie lepiej reprezentować populację. Proces warstwowania nie łamie
założenia o losowości, ponieważ wewnątrz każdej warstwy próba jest pobierana właśnie w
sposób losowy.
Warunkiem koniecznym przy dzieleniu populacji na homogeniczne warstwy jest to, że
kryterium podziału musi pozostawać w związku z badanymi zmiennymi. Ponadto
zastosowane kryteria podziału nie powinny prowadzić do pobrania zbyt wielu prób.
Całkowita wielkość próby otrzymanej poprzez losowanie warstwowe nie powinna bowiem
przewyższać wielkości próby, którą uzyskalibyśmy przy zastosowaniu losowania
indywidualnego nieograniczonego. Przypuśćmy, że chcemy oszacować medianę dochodów
rodziny w małym mieście i znamy cechy charakteryzujące pojedynczą rodzinę. Ponieważ
wiadomo, że wielkość dochodów koreluje z zawodem, wykształceniem, pochodzeniem
etnicznym, wiekiem i płcią, zatem oparcie podziału na warstwy na tych kryteriach wydaje się
logiczne. Gdybyśmy jednak wykorzystali wszystkie te kryteria, to korzyści płynące z
losowania warstwowego zdecydowanie się zmniejszą, albowiem liczba prób, które
musielibyśmy pobrać, staje się ogromna.
Przeanalizujmy, co się wydarzy, jeżeli będą istniały cztery kategorie zawodu, trzy
wykształcenia, trzy pochodzenia etnicznego, trzy wieku i dwie kategorie płci. Liczba prób,
które trzeba by wylosować, będzie zatem wynosić: 4x3x3x3x2, czyli 216. Ponieważ ze
statytystycznego punktu widzenia liczba osób w każdej komórce me może być mniejsza niż
dziesięć, musimy wybrać przynajmniej 2160 osób, zakładając, że liczebność w
poszczególnych komórkach jest równa. Nikt nie uzna, że tń duża próba jest konieczna do
reprezentacji małego miasta. Aby rozwiązać ten problem, możemy przyjąć, że wiele
zmiennych będących podstawą podziału na warstwy to zmienne powiązane (tj. właściwości,
które razem występują). I tak na przykład, jeżeli przyjmiemy, że status społeczny jest
powiązany z zawodem, wykształceniem i pochodzeniem etnicznym, to liczbę prób możemy
zredukować do: 4 (wyodrębnione ze względu na status) x 3 (wyodrębnione ze względu na
wiek) x 2 (wyodrębnione ze względu na płeć) = 24, które łącznie liczą 240 osób. Taki
schemat

Morris H. Hansen, William N. Hurwitz, William G. Madow (1953), Sample Survey


Methods and Tkory, New York: Wiley; s. 40.
203
doboru próby jest bardziej użyteczny i lepiej reprezentuje populację niż próba
wylosowana w sposób indywidualny nieograniczony.
Losowanie wewnątrz każdej warstwy może być dokonywane w sposób
proporcjonalny lub nieproporcjonalny. Jeżeli z każdej warstwy wylosujemy jednakową liczbę
elementów lub stałą ich frakcję (n/N), to taka próba nazywa się proporcjonalną próbą
warstwową. Wielkość próby pobranej z każdej warstwj («) jest bowiem proporcjonalna do
wielkości warstwy w populacji (/V). Jeżeli jednak całkowite liczebności poszczególnych
warstw nie są sobie równe, to otrzymamy nieproporcjonalną próbę warstwową. Innymi słowy,
jeżeli liczba osób charakteryzowanych przez każdą zmienną (czyli wpadających do każdej
warstwy) jest inna, to musimy zdecydować — biorąc pod uwagę wymagania problemu
badawczego — jaka powinna być wielkość próby pochodzącej z każdej waJ stwy. Zazwyczaj
nieproporcjonalna próba warstwowa jest wykorzystywana do pa równywania dwóch lub
więcej konkretnych warstw lub do poszerzonej analizy jefl nej warstwy. Posługiwanie się
nieproporcjonalną próbą warstwową wymaga waza nia oszacowanych parametrów populacji
ze względu na liczbę osób wpadający* do każdej warstwy14 (por. przykład 8.3).
Przykład 8.3
W jaki sposób dokonać losowania warstwowego
Problem
W badaniu dotyczącym odnawiania się środowisk miejskich interesowano się
postawami nowych miał kańców w stosunku do własnej społeczności. Założono, że postawy
osób posiadających własne doa będą się różniły od postaw osób wynajmujących mieszkania.
Dlatego też, aby zapewnić sobie wlaściw reprezentację obu grup, posłużono się schematem
losowania warstwowego. Określono dwie warstw posiadaczy domów i wynajmujących
mieszkania.
1. Populacja składa się z N = Nt + N2 osób, gdzie /V, oznacza nowych
mieszkańców posiadający!! własne domy, a /V, nowych mieszkańców wynajmujących
mieszkania. N] = 200, a Af, = 30Q| czyli N = 500. Zdecydowaliśmy się dokonać losowania
proporcjonalnego w wysokości l/IOM dej warstwy. Do próby wejdzie zatem 20 osób
posiadających domy i 30 osób wynajmującym mieszkania.
2. W każdej warstwie dokonujemy losowania indywidualnego nieograniczonego
(patrz przykład 8.1
Losowanie grupowe. Czwartym rodzajem pobierania próby iosowej w naukackj
społecznych jest losowanie grupowe. Najczęściej stosuje sieje w badaniach prowadzonych na
dużą skalę, ponieważ jest to najmniej kosztowny schemat pobieraniii próby. Losowanie
grupowe polega na wcześniejszym określeniu dużych zbiorowi ści zwanych grupami i
następnie losowaniu określonej liczby grup za pomoc! losowania indywidualnego
nieograniczonego lub losowania warstwowego. Wzaifl ności od problemu badawczego do
próby można włączyć wszystkie elementy z dl nej grupy lub wybrać określoną ich liczbę,
stosując losowanie indywidualne nil ograniczone lub losowanie warstwowe.
Załóżmy, że chcemy zbadać postawy polityczne osób dorosłych w róż™
14 Metody ważenia zob. w pracy Kisha, Survey Sampling, s. 77-82.
204
okręgach wyborczych w danym mieście. Nie ma jednak żadnej listy zawierającej
nazwiska wszystkich dorosłych mieszkańców, a stworzenie takiej listy jest zbyt drogie.
Istnieje natomiast mapa okręgów wyborczych w tym mieście. Możemy zatem - korzystając z
tej listy — wylosować określoną liczbę okręgów wyborczych (etap pierwszy — losowanie
grup). Następnie w każdym okręgu możemy wylosować kwartały mieszkalne (etap drugi —
losowanie grup) i przeprowadzić wywiady z wszystkimi mieszkańcami tych kwartałów.
Możemy również dokonać losowania indywidualnego nieograniczonego wewnątrz każdego
kwartału. W takim przypadku nasze losowanie będzie losowaniem trójetapowym. (Ta metoda
losowania jest też czasami nazywana losowaniem na płaszczyźnie). W podobny sposób
przeprowadzając badania sondażowe dotyczące gospodarstw domowych, można się posłużyć
próbą miast; w każdym mieście wylosować dzielnice, a w każdej dzielnicy wylosować próbę
gospodarstw domowych (por. przykład 8.4).
Przykład 8.4
W jaki sposób dokonać losowania grupowego
Problem
Celem badania jest przeprowadzenie wywiadów z mieszkańcami społeczności
miejskiej. Ponieważ lista dorosłych mieszkańców nie jest dostępna, posłużymy się schematem
losowania grupowego.
Etapl
1. Na podstawie aktualnej mapy określ obszar, którego będzie dotyczyć losowanie.
Kieruj się zaznaczonymi na niej granicami i wyłącz z losowania te obszary, na których nie ma
żadnych budynków mieszkalnych.
2. Podziel obszar na kwartały mieszkaniowe. Narysowane granice nie powinny
przechodzić przez poszczególne domy i być łatwe do zidentyfikowania przez pracowników
terenowych.
J. Ponumeruj kolejno kwartały, najlepiej w porządku przypominającym serpentynę.
4. Wylosuj — w sposób indywidualny lub systematyczny — określoną liczbę
kwartałów.
Etap 2
1. Sporządź listę i ponumeruj wszystkie domy mieszkalne znajdujące się w każdym z
wybranych kwartałów. Sporządzenie takiej listy wymaga czasami pomocy pracowników
terenowych, którzy sprawdzą, czy na liście znalazły się wszystkie nowo postawione domy.
2. Wylosuj —w sposób indywidualny lub systematyczny — określoną liczbę domów
mieszkalnych.
3. Przeprowadź wywiady z wybranymi osobami mieszkającymi w każdym z
wylosowanych domów. To, jakie to mają być osoby, ustala się zazwyczaj na podstawie
wskazówek badacza.
Pnykiad len częściowo oparty na pracy Matildy White Riley (1963), Sociological
Research: Exercises and Manuał, Orlando, Ha.: Hart-
camBrace Jovanovich, vol. 2, s. 172.
Wybór grup zależy od celu badania i dostępnych informacji. Grupami mogą być
gospodarstwa domowe, kwartały, szkoły, okręgi czy miasta. Według Lesliego Kisha:
Populacja Stanów Zjednoczonych może być rozpatrywana jako zagregowany zbiór
elementów, którymi są poszczególne stany, hrabstwa, miasta, dzielnice, kwartały
mieszkaniowe, domy mieszkalne i wreszcie poszczególne osoby.
205
Wszystkie te elementy są następnie wykorzystywane przy konstruowaniu próby I
losowej populacji Stanów Zjednoczonych15.
Losowy dobór próby: podsumowanie
Opisane cztery metody losowego doboru próby to podstawowe schematy losowania
stosowane w naukach społecznych. Nie wyczerpują one oczywiście wszystkich możliwych
procedur losowania, zachęcamy więc czytelników do skorzystania z literatury dodatkowej,
którą zamieściliśmy na końcu rozdziału.
Losowy dobór próby: przykład
Aby zilustrować pełen proces pobierania próby w sposób losowy, przeanalizujmy
procedury zastosowanie przez Institute for Social Research — ISR (Instytut Badań
Społecznych) University of Michigan na rzecz prowadzonych przezeń badań sondażowych16.
Zastosowana procedura losowania składała się z trzech schematów: losowania grupowego,
losowania warstwowego i losowania indywidualnego nieograniczonego. I
Charakterystyka czterech prób losowych
¦ Prosta próba losowa. Każdej jednostce losowania przyporządkuj kolejne liczby;
dokonaj losowania określonej liczby elementów, posługując się tablicą liczb losowych
¦ Próba systematyczna. Ustal odstęp losowania (n/N); losowo wybierz początek
losowania; wylosuj kolejne elementy, posługując się odstępem losowania.
¦ Próba warstwowa.
Schemat proporcjonalny: zdefiniuj warstwę; pobierz losową próbę z każdej warstwy,
proporcjonalnie do wielkości każdej warstwy w populacji.
Schemat nieproporcjonalny: zdefiniuj warstwę; pobierz losową próbę z każdej
warstwy; jej wielkość ustal na podstawie analitycznych analiz.
¦ Próba oparta na losowaniu grup. Określ liczbę poziomów losowania grupowego; z
każdego poziomu pobierz próbę losową; podstawowymi jednostkami analizy są grupy
należące do populacji, z której dokonano losowania.
Por. Russell Ackoff (1953), The Design of Social Research, Chicago: University of
Chicago Press.
ISR to największy w Stanach Zjednoczonych uniwersytecki ośrodek prowadzący
badania w dziedzinie nauk społecznych. Projekty badawcze realizowane przez Instytut są
sponsorowane przez agencje rządowe, prywatne przedsiębiorstwa i c
15 Ibidem, s. 150.
16 Survey Research Center, Intemiewer's Manuał (1976), wyd. popr., Ann Arbor:
Institute tor ciał Research, University of Michigan, rozdz. 8.
206

Ryc. 8.1. Pobieranie próby narodowej


Na podstawie: Survey Research Center, Inteniewer's Manuał, wyd. popr., Ann Arbor:
Institute for Social Research, ¦Wlityof Michigan, 1976, s. 8-2.
nizacje społeczne. W wielu badaniach wykorzystywano duże próby narodowe, niżej
przedstawiamy przybliżoną listę kroków, realizowanych przez ISR w trakci pobierania próby
narodowej17 (por. ryc. 8.1):
1. Cały obszar geograficzny Stanów Zjednoczonych został podzielony nai obszary,
które nazwano pod sta w o wy mi jednostkami losowania (PSU). PSU stanowiły zazwyczaj
obszary wiejskie lub miejskie. Z pełnej listy! wierającej spis wszystkich PSU za pomocą
losowania warstwowego badacze wy-l brali 74 jednostki. W ten sposób starano się zapewnić,
aby zarówno okręgi wiejski małe miasta, miasta średniej wielkości, jak i regiony były
odpowiednio reprezi towane w próbie.
2. Każdą z wylosowanych 74 jednostek podzielono na mniejsze okręgi. Itaki przykład
hipotetyczna jednostka PSU składająca się z dwóch dużych miast. sześ< miast średniej
wielkości i okolic wiejskich zostałaby podzielona na trzy warsti (1) duże miasta, (2) średnie
miasta i (3) okolice wiejskie. Elementy w każdej wa stwie nazwano miejscami losowania. W
każdej warstwie wybrano je lub więcej miejsc losowania.
3. Każde miejsce losowania zostało podzielone na c z ę ś c i, a każda część i
liniowana jako obszar o określonych granicach: na przykład na obszarze miejskim część
odpowiada kwartałowi; na obszarze wiejskim część będzie wyznaczona i gami lub granicami
okręgów. W ramach każdego miejsca losowania dokonano I sowania części.
4. Na tym etapie główną rolę w procesie pobierania próby będzie odgrywać ( ba
przeprowadzająca wywiad. Odwiedza ona każdą część, spisuje wszystkie je mieszkalne i
proponuje podział części na mniejsze obszary zawierające od 4doi jednostek mieszkalnych.
Te obszary nazwano segmentami. Z każdej en pobrano losową próbę segmentów.
5. Ostatni etap polegał na wybraniu w ramach każdego segmentu określonej lici by
jednostek mieszkalnych, które stanowiły ostateczną próbę. Procedura wybiel nia jednostek
mieszkalnych była zróżnicowana. I tak, jeżeli dany segment zawis tylko kilka jednostek
mieszkalnych, to wszystkie one zostały włączone do bad Jeżeli natomiast dany segment
składał się z wielu jednostek mieszkalnych, to ( badania wchodziła jedynie określona ich
frakcja.
¦ Wielkość próby
Próbą jest każdy podzbiór pochodzący z populacji. Podzbiorem jest każdy ukl
elementów należących do populacji, który nie obejmuje wszystkich elementów c finiowanych
jako populacja. Próba może zawierać tylko jeden element, wszystkiH elementy z wyjątkiem
jednego, czy jakąkolwiek inną ich liczbę. W jaki sposób maj żemy zatem określić wielkość
próby?
Istnieje wiele nieporozumień co do tego, jak duża powinna być próba. Jednył z nich
jest na przykład pogląd, że próba musi stanowić określoną proporcję (częstł ustalaną na
poziomie 5%) populacji; innym, że próba powinna liczyć 2000 elemeiH tów; jeszcze innym,
że wraz ze zwiększaniem wielkości próby rośnie precyzja
17 Ibidem. 208
wnioskowania na podstawie danych z próby. Przekonania te są fałszywe, ponieważ nie
wynikają z teorii pobierania próby. Aby właściwie oszacować wielkość próby, należy ustalić
oczekiwany poziom dokładności oszacowań, tzn. określić wielkość akceptowanego błędu
standardowego.
Błqd standardowy
Pojęcie błędu standardowego (można się również spotkać z terminem „błąd próby")
jest głównym pojęciem teorii pobierania próby i odgrywa zasadniczą rolę w określaniu
wielkości próby. Jest to jedna z miar statystycznych wskazująca, na ile dokładnie wyniki
otrzymane na podstawie badania próby odzwierciedlają rzeczywiste wartości parametrów w
populacji. Zilustrujemy ideę błędu standardowego, posługując się przykładem niewielkiej
populacji, z której należy pobrać prostą próbę losową.
Nasza hipotetyczna populacja składa się z pięciu studentów zarabiających
odpowiednio: 500$, 650$, 400$, 700$ i 600$ miesięcznie. Średnia zarobków w populacji
(oznaczana literą fi) wynosi 570$18. Powiedzmy, że pobieramy próbę składającą się z dwóch
elementów po to, aby oszacować wielkość parametru fi i że wybraliśmy osoby o zarobkach
500$ i 400$ dolarów. Średnia z próby (x) wynosi zatem (500$+400$)/2 = 450$ i traktujemy ją
jako oszacowanie populacyjnego parametru fi. Ponieważ jednak wiemy już, że średnia
zarobków w populacji wynosi 570$, to na pierwszy rzut oka widać, że wartość 450$ jako
oszacowanie parametru populacji jest bardzo niedokładna. Gdybyśmy wybrali dwie osoby
zarabiające 650$ i 700$, lo średnia w próbie wynosiłaby 675$ i również byłaby niedokładnym
oszacowaniem średniej populacyjnej. W podobny sposób możemy pobrać wszystkie możliwe
dwuelementowe (n = 2) próby z tej populacji.
W tabeli 8.1 przedstawiliśmy dziesięć możliwych prób i obliczone dla nich średnie
zarobki będące oszacowaniem parametru populacyjnego fi. Jak widać, niektóre wartości
średnich obliczone z próby (na przykład 500$ i 650$) lepiej przybliżają średnią w populacji fi
niż inne. Jeżeli nieskończenie wiele razy pobierać będziemy próbę o liczebności n = 2, to
każda z prób przedstawionych w tabeli 8.1 zostanie wybrana więcej niż jeden raz. Możemy
zatem sporządzić wykres rozkładu wszystkich średnich obliczonych z próby. Rozkład
wartości średnich z próby (x) obliczonych dla nieskończonej liczby prób nazywa się
rozkładem z próby średnich albo prościej rozkładem średnich. W naszym przykładzie szanse
otrzymania każdej z dziesięciu prób są jednakowe (są to bowiem proste próby losowe) i jeżeli
proces pobierania próby będziemy kontynuować nieskończenie długo, to wszystkie próby
zostaną wybrane jednakową liczbę razy. Tym samym średnia z wszystkich oszacowań
wartości średniej dokonanych na wszystkich możliwych próbach wynosi 5700/10 = 570, czyli
dokładnie tyle, ile wynosi średnia populacyjna.
Ogólnie rzecz biorąc, można zatem założyć, że wartość średnia obliczona z
nieskończenie wielu prób równa się średniej w populacji. Im bardziej wartości średniej i
próby odchylają się od średniej populacyjnej, tym większe staje się zróżnicowanie wyników
uzyskanych z każdej próby. Tym większe również staje się ryzyko popełnienia dużego błędu
przy oszacowaniu wartości parametru w populacji na podstawie wyników jednej próby lub
ograniczonej liczby prób.
Por. rozdział 15, w którym przedstawiliśmy pojęcie średniej i odchylenia
standardowego.
209
Tabela 8.1. Oszacowanie wartości średniej w populacji
Możliwe próby składające się z n = 2 elementów x
(dochody wybranych studentów w $) (oszacowanie wartość fi w $)
500 i 650 575
500 i 400 450
500 i 700 600
500 i 600 550
650 i 400 525
650 i 700 675
650 i 600 625
400 i 700 550
400 i 600 500
700 i 600 650
Razem 5700
Ponieważ populacja w naszym przykładzie nie była duża, możemy łatwo o czyć
wartość średniej w populacji i porównać ją ze średnią otrzymaną na podsta prób. W
rzeczywistości wartość średnia w populacji nie jest znana, a badacz po' ra tylko jedną próbę
po to, aby oszacować wartość parametru w populacji. Rozkt wartości otrzymanych w jednej
próbie jest traktowany jako wskaźnik całego kładu z próby. Miarą rozproszenia wartości w
jednej próbie jest odchylenie dardowe s (por. rozdział 15). Rozkład wszystkich wartości
średnich wokół śred tych wartości nazywany jest błędem standardowym (SE).
Możemy obliczyć odchylenie standardowe i następnie oszacować wartość (por.
rozdział 15). Nie można obliczyć wartości SE bezpośrednio, ponieważ nie mo' pobrać
nieskończenie wielu prób potrzebnych dla tych obliczeń. Możemy natomi przyjąć, że
rozproszenie wartości zmiennej w ramach pojedynczej, losowo pobr próby reprezentatywnej
odzwierciedla rozproszenie tych wartości w ramach lacji.
Odchylenie standardowe rozkładu z próby w naszym przykładzie wynosi:
[(575 - 570)2 + (450 - 570)2 + (600 - 570)2 + (550 - 570)2
+ (525 - 570)2 + (675 - 570)2 + (625 - 570)2 + (550 - 570)2
+ (500 - 570)2 + (650 - 570)2]/10 = V4350 = 65,95.
Możemy teraz oszacować wartość SE poprzez podzielenie odchylenia stand wego z
próby przez pierwiastek kwadratowy z wielkości próby («):
gdzie s — odchylenie standardowe, n — wielkość próby. Jeżeli populacja jest ła, to do
przedstawionego równania musimy włączyć czynnik 1 — n/N, czyli poprawkę dla populacji
skończonej:
210
gdzie 5- — wariancja w próbie, n — wielkość próby, N — wielkość populacji.
Zauważmy, że w tym wzorze wyrażenie n/N zostało odjęte od 1, ponieważ populacja jest
mata. W naszym przykładzie N = 5 i n = 2, dlatego
, _ (500 - 570)2 + (650 - 570)2 + (400 - 570)2 + (700 - 570)2 + (600 - 570)2 _
4
Standardowy błąd średniej z próby będzie zatem wynosił:
STO. V(^?)( 4^-^-65.95.
który jest identyczny jak poprzednio otrzymany rezultat.
Przedziały ufności
Zanim przedstawimy metodę określania wielkości próby, należy omówić jeszcze
jedno pojęcie, a mianowicie pojęcie przedziału ufności. Mówiliśmy już, że średnia w
populacji jest równa średniej ze wszystkich średnich z prób, które można pobrać 2 populacji, i
że możemy obliczyć odchylenie standardowe dla średnich z prób. Jeżeli rozkład z próby
średnich jest normalny lub bliski rozkładowi normalnemu, to łby oszacować położenie
średniej w populacji, możemy się odwołać do własności rozkładu normalnego19. Gdybyśmy
znali średnią wszystkich średnich z próby (średnią w populacji) i odchylenie standardowe
średnich z próby (standardowy błąd średniej), to moglibyśmy obliczyć wartość wyniku Z i
określić, jaki procent wartości średnich z próby może się pojawić w określonym przedziale
wyników. I tak w przedziale pomiędzy -IZ i +1Z możemy oczekiwać 68% wartości średnich z
próby; pomiędzy -1,96Z a +1,96Z około 95%, a pomiędzy -2,58Z a +2,58Z około 99%
wartości średnich z próby. Ponieważ jednak nie znamy średniej w populacji, musimy ją
oszacować na podstawie pojedynczej próby.
W tym celu możemy się posłużyć krzywą normalną (por. ryc. 8.2). Średnia z próby,
która wynosi 1,96Z lub — w przybliżeniu — dwa odchylenia standardowe powyżej średniej
populacyjnej, może się pojawić z prawdopodobieństwem 0,025. Innymi słowy,
prawdopodobieństwo, że wszystkie średnie z próby będą się różniły od średniej populacyjnej
o mniej niż ±1,96Z wynosi 95,5%. Podobnie jak rzadko się zdarza, aby średnia z próby
wynosiła 1,96 lub 2 odchylenia standardowe powyżej średniej populacyjnej, tak równie
rzadko się zdarza, aby średnia z próby wynosiła
Pojęcie rozkładu normalnego dotyczy określonego kształtu rozkładu zmiennej w
populacji generalnej. Por. strony 397-398, na których przedstawiliśmy szczegółowe
omówienie krzywej normalnej i jej
właściwości.
211
1,96 lub 2 odchylenia standardowe poniżej średniej populacyjnej. Nie wiemy jedna
czy średnia z próby jest mniejsza czy większa od prawdziwej średniej w populac Jeżeli jednak
skonstruujemy przedział od — l,96Zdo +1,96Z wokół średniej z prób to możemy być pewni,
że 95,5% populacji wpada do tego przedziału. Nie oczekuj my oczywiście, że średnia z próby
rzeczywiście będzie leżeć tak daleko jak+2 o chylenia standardowe od średniej populacyjnej;
możemy natomiast przyjąć, żeśre nia populacyjna nie leży dalej jak ±2 odchylenia
standardowe od średniej z prófl
2,28%
13,59%
' 99,44%
----------------------------------»>
Ryc. 8.2, Krzywa normalna: wielkość obszaru pod krzywą od średniej do określonej
wartości odchy standardowego (w procentach)
Jeżeli skonstruujemy przedział ufności równy ±1,96Z (w przybliżeniu 2 lenia
standardowe powyżej i poniżej średniej z próby), to z prawdopodobieńs równym 95%
możemy się spodziewać, iż średnia populacyjna będzie leżała w przedziale. Oznacza to, że
prawdopodobieństwo popełnienia błędu polegającego przyjęciu, że średnia populacyjna nie
wpada do tego przedziału, wynosi 5%. dopodobieństwo, że średnia populacyjna będzie leżała
w przedziale od —2,582 +2,58Z (czyli w przybliżeniu około 3 odchylenia standardowe
powyżej i po" średniej z próby) wynosi z kolei 99% na 100% — inaczej nazywamy taki 99-
procentowym przedziałem ufności. Na rycinie 8.2 przyjęliśmy dla celów ii racyjnych, że
obszar pomiędzy 3 odchylenia standardowe pokrywa 100% próby przy założeniu, że
populacja, z której pobrano próbę, jest duża. Szerokość prz" łu ufności, jaki chcemy
zbudować wokół średniej z próby, zależy od przyjętego ziomu dokładności przewidywania.
Innymi słowy, szerokość przedziału ufności determinowana wielkością ryzyka popełnienia
błędu, jakie badacz jest skłonny nieść. Możemy skonstruować przedział ufności równy
jedynie ±0,68 odchy standardowego powyżej i poniżej średniej i podejmując decyzję, że
średnia lacyjna leży w tym przedziale, mieć tylko 50% szans niepopełnienia błędu.
Podsumowując, jeżeli możemy przyjąć, że określony rozkład z próby w przybliżeniu
rozkładem normalnym, to możemy założyć, iż około 68% w oszacowanych na podstawie
próby będzie leżało w przedziale pomiędzy ±1
212
lenie standardowe, a około 95% pomiędzy ±2 odchylenia standardowe. Poziomy
ufności i błędy standardowe są rutynowo wykorzystywane w badaniach sondażowych, w tym
w sondażach przedwyborczych. Bez zastosowania tych miar statystycznych organizatorzy
sondaży przedwyborczych nigdy nie wiedzieliby, w jakim stopniu otrzymane przez nich
wyniki są trafne, a pracownicy działów marketingu nie potrafiliby określić stopnia
powodzenia nowego produktu.
Określanie wielkości próby
Możemy teraz ustalić wielkość próby. Jeżeli przy podejmowaniu decyzji o wielkości
próby koszty i inne czynniki natury praktycznej nie mają znaczenia, to określenie wymaganej
wielkości próby nie jest trudne. Przypomnijmy wzór na standardowy błąd średniej:
SE =

gdzie s — odchylenie standardowe badanej zmiennej, n nując przekształcenia tego
wzoru, otrzymamy:
wielkość próby. Doko-

n=
s2 (SE)2
Aby obliczyć wielkość próby, musimy mieć jakieś wyobrażenie o wielkości
odchylenia standardowego w populacji i należy zdecydować, jak duży standardowy błąd
pomiaru możemy tolerować. Jeżeli na przykład mamy pobrać próbę losową z po-i liczącej
10000 elementów, a s2 = 0,20 oraz wartość akceptowanego
$L=0.016, to oszacowana wielkość próby wynosi
n—
0,20
0,000256
781,25.
Jeżeli wielkość próby okaże się zbyt duża w stosunku do populacji, to należy
wprowadzić poprawkę dla populacji nieskończenie dużych. W tym przypadku do 1 dodajemy
wartość ułamka n/N. Ostateczna wielkość próby powinna zatem zostać obliczona następująco:
n=
1 + (n/N)'
gdzieN — wielkość populacji, n — wielkość próby, n' by. W naszym przykładzie,
jeżeli N = 10 000, to
optymalna wielkość pró-
781>25 n' =--------=L7T-^ = 725.

1+
781,25
To ooo
213
W praktyce decyzje dotyczące wielkości próby są bardziej złożone. Badacze muszą
przede wszystkim zdecydować, jak precyzyjne wyniki chcieliby otrzymać, tj. muszą podjąć
decyzję o akceptowalnej wielkości standardowego błędu pomiaru. Po drugie, muszą określić
sposób analizy otrzymanych danych. Po trzecie wreszcie, jeżeli badacze analizują
jednocześnie więcej niż jedną zmienną, to powinni się upewnić, czy próba, która jest
wystarczająca dla jednej zmiennej, będzie również wystarczająca dla innej zmiennej20.
¦ Błędy nielosowe
W teorii losowego doboru próby rozważa się błędy wynikające z procedury loso-l
wania. Stosując idealny plan losowania, minimalizujemy ten rodzaj błędu. Jest toj błąd
wyznaczający różnicę pomiędzy tym, czego się spodziewamy, a tym, co otrzy-j mujemy,
stosując określony zbiór procedur. Jeżeli nawet błąd losowy zostaje zminimalizowany, to
nadal istnieje wiele innych źródeł błędu (np. błąd pomiaru — por. I rozdział 7). W badaniach
sondażowych najbardziej dominującym błędem jest błąd wynikający z braku odpowiedzi.
Nieudzielenie odpowiedzi prowadzi do braku danych i jest zazwyczaj spowodowane odmową
odpowiedzi, nieobecnością cza przeoczeniem określonych kategorii. Brak odpowiedzi może
w istotny sposób ob-1 ciążać otrzymane wyniki.
Przypomnijmy sondaż przedwyborczy przeprowadzony przez czasopismo ..Lite-1 rary
Digest" w 1936 roku. Prezentując to badanie, omówiliśmy błędy, jakie „Dii gest" popełniło w
procesie pobierania próby. Ale „Digest" popełniło później jesł cze inne istotne błędy,
opierając swoje szacunki na bardzo niskim procencie udzie-1 lonych odpowiedzi.
Opracowując wyniki sondażu, wykorzystano bowiem odpowiedzi, których udzieliło 2,4
miliona osób spośród 10 milionów wylosowanych do próby21. Ten fakt w istotny sposób
wpłynął na wyniki, jako że już w trakcie badań I sondażowych okazało się, że wśród osób nie
udzielających odpowiedzi przeważał zwolennicy Roosevelta, a wśród osób udzielających
odpowiedzi ponad połowa preB ferowała Landona.
Ogólnie rzecz biorąc, przyczyny zniekształcenia wyników mogą być nastf-1 pujące:
1. Im większa proporcja osób nie udzielających odpowiedzi, tym większy będziB
popełniany błąd. Proporcję udzielonych odpowiedzi możemy obliczyć w następfl jacy sposób:
n— r
R= 1------------,
n
gdzie R — proporcja udzielonych odpowiedzi, n — wielkość próby. I tak na przyn
kład, jeżeli wielkość próby wynosi 1200 osób i otrzymano 1000 odpowiedzi, topro-
20 Więcej informacji na ten temat można znaleźć w pracy Kisha, Survey Sampling
oraz w pracy CA. Mosera, Grahama Kaltona (1972), Survey Methods in Social Investigation,
wyd. 2. New York: Basic Books.
21 Freedman i in., Statistics, s. 302-307.
214
porcja otrzymanych odpowiedzi wynosi 1 - (1200 - 1000)/1200 = 0,83, a proporcja
braku odpowiedzi wynosi 0,17, czyli 17%.
2. Istotność błędu wynikającego z braku odpowiedzi zależy od zakresu, w jakim
średnia populacyjna obliczona w próbie dla warstwy osób nie udzielających^odpowiedzi
różni się od średniej obliczonej dla warstwy osób odpowiadających .
3. Każdy z wymienionych niżej powodów nieudzielenia odpowiedzi w inny sposób
wpływa na otrzymane wyniki. (Dotyczą one zarówno wyników całego kwestionariusza, jego
części, jak i pojedynczych pytań23).
¦ Brak możliwości przeprowadzenia wywiadu: ludzie chorzy, niepiśmienni czy
posiadający bariery językowe.
¦ Nieodnalezieni respondenci — osoby, które się przeprowadziły i nie są dostępne, na
przykład, z którymi ankieter nie może się umówić na spotkanie.
¦ Nieobecni w domu — osoby nieobecne w domu w momencie przeprowadzania
wywiadu, lecz dostępne kiedy indziej. Ich wyniki są dodawane w późniejszym terminie.
¦ Odmowa odpowiedzi — osoby, które odmawiają współpracy lub udzielenia
odpowiedzi na wszystkie pytania kwestionariusza. Odmowa odpowiedzi może zależeć od
rodzaju zadawanych pytań.
Proporcja osób nie udzielających odpowiedzi zależy od takich czynników, jak: rodzaj
populacji, metoda zbierania danych, rodzaj zadawanych pytań, umiejętności ankietera i liczba
ponawianych kontaktów z respondentem. Zle zaprojektowany i/lub źle przeprowadzony
wywiad może dawać wysoką proporcję nie udzielonych odpowiedzi.
. „.
Aby oszacować efekt, jaki wywiera brak odpowiedzi, ankieter może zebrać informacje
o osobach, które nie udzieliły odpowiedzi, ponownie się z nimi kontaktując. Przypuśćmy, ze z
osobami głosującymi w niewielkiej społeczności jest przeprowadzany wywiad po to, aby
można było określić, jaka część populacji utożsamia się z tą czy inną partią. Przypuśćmy też,
że w badaniach tych proporcja osób, które nie udzieliły odpowiedzi, wynosiła 10%. Wyniki te
przyniosą znacznie więcej informacji, jeżeli zostaną wzbogacone o dane na temat
wykształcenia czy dochodów osób, które nie udzieliły odpowiedzi. Załóżmy, że 10% oznacza
300 osób głosujących i ze wiemy z innych źródeł, iż 70% spośród nich zarabia około 25 000
rocznie. Jeżeli wiemy również, że 90% ludzi uzyskujących dochody w tym przedziale to
demokraci to możemy oszacować, że 189 osób, które nie udzieliły odpowiedzi w naszych
badaniach (0,70 x 300 x 0,90 = 189), to prawdopodobnie demokraci. Ponieważ jednak nie
możemy obliczyć błędu takiego oszacowania, to — aby poprawić wyniki ze względu na
osoby, które nie udzieliły odpowiedzi — tego typu oszacowania można wykorzystywać
jedynie wówczas, kiedy procent osób odpowiadających jest stosunkowo niski.
HMoser, Kalton, Survey Methods in Social lnvestigation, s. 166-167.
u Dennis J. Palumbo (1977), Statistics in Political and Behavioral Science, wyd. popr.,
New York: Columbia University Press, s. 296.

215
¦ Podsumowanie
1. W tym rozdziale skoncentrowaliśmy się na zagadnieniu, w jaki sposób można
oszacować parametry populacyjne na podstawie statystyk obliczonych w próbie. Aby
otrzymać dokładne oszacowania parametrów, badacz musi skutecznie rozwiązać trzy
problemy: (1) zdefiniować populację, (2) pobrać próbę reprezentatywni! oraz (3) określić
wielkość próby.
2. Populacja powinna zostać zdefiniowana w terminach treści, zakresu i czasu. Próbą
jest każdy podzbiór jednostek, z których się składa populacja. Próba może zawierać od
jednego elementu do wszystkich elementów z wyjątkiem jednego lub składać się z dowolnej
liczby elementów z tego zakresu.
3. Po zdefiniowaniu populacji i określeniu wielkości próby należy wybrać taki
schemat doboru próby, który gwarantuje jej reprezentatywność. Próba jest reprezentatywna
wtedy, kiedy analizy przeprowadzone na danych z próby dają wyniki równoważne tym, jakie
otrzymano by, analizując całą populację. Badacze korzystają z losowych schematów doboru
próby najczęściej wtedy, gdy potrafią określić prawdopodobieństwo włączenia każdego
elementu populacji do próby. W ramce na stronie 192 przedstawiliśmy podsumowanie
czterech podstawowych schematów lo-1 sowania — indywidualnego nieograniczonego,
indywidualnego systematycznego. I warstwowego i grupowego.
4. Określenie wielkości próby zależy bezpośrednio od wartości standardowej błędu
pomiaru i od szerokości przedziału ufności określonego przez badacza. Pflm dział ufności
może być skrajnie wąski, gdy badacz decyduje się na ponoszenie »n sokiego ryzyka
popełnienia błędu, lub bardzo szeroki, jeżeli chce, aby ryzyko pf pełnienia błędu było
minimalne.
5. W badaniach sondażowych, obok błędu losowania, mamy do czynienia z dem
spowodowanym nieudzielaniem odpowiedzi przez respondentów. Brak od] wiedzi może być
spowodowany odmową, nieobecnością, przeoczeniem kategi odpowiedzi itp. Brak
odpowiedzi może się przyczyniać do popełniania istotni błędu w trakcie analizowania
wyników. Jeżeli procent udzielonych odpowiedzi niski, to badacze powinni stosować którąś
ze wspomnianych technik rekompem wania.
¦ Podstawowe terminy
błąd standardowy 209 losowanie warstwowe 202
błąd wynikający parametr 193
z braku odpowiedzi 214 podstawa doboru próby 195
dobór losowy 198 podzbiór 208
dobór nielosowy 198 populacja 193
jednostka doboru próby 194 próba 193
losowanie grupowe 204 próba reprezentatywna 197
losowanie indywidualne przedział ufności 211
nieograniczone 200 statystyka 193
losowanie systematyczne 202
216
¦ Pytania sprawdzajgce
1. Dlaczego opisując populację, można korzystać z danych uzyskanych z badania
próby? Wymień podstawowe rodzaje prób i podaj przykłady.
2. Czym się różni losowy dobór próby od nielosowego doboru próby? Omów zalety i
wady każdego z tych sposobów. Jaki typ problemów społecznych nadaje się do analizowania
przy wykorzystaniu jednego i drugiego sposobu pobierania próby?
3. Omów podstawowe rodzaje losowego doboru próby. Omów ich wady i zalety i
wyjaśnij, w jaki sposób można pobierać próbę, wykorzystując każdy z tych sposobów.
4. Omów ideę błędu losowania. W jaki sposób — wykorzystując błąd losowania —
można kostruować przedziały ufności dla wartości oszacowanych na podstawie danych z
próby? Podaj przykład, w jaki sposób te informacje mogą wpłynąć na oczekiwane wyniki
sondaży?
5. Jakie czynniki mogą spowodować powstanie nielosowego błędu pomiaru w
badaniach sondażowych?
¦ Literatura dodatkowa
Brzeziński J. (1997). Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd.
Nauk. PWN. Sieczkowski J. (1995). Metoda reprezentacyjna w badaniach zjawisk
ekonomiczno-społecznych, War-cawa-Kraków: Wyd. Nauk. PWN.
CZĘSC III
ZBIERANIE DANYCH
Rozdział 9
Metody obserwacyjne
Triangulacja 222 Rola obserwacji 223
Rodzaje zachowań 225
Zachowania niewerbalne 225 Zachowania przestrzenne 225 Zachowania
parajęzykowe 226 Zachowania językowe 227
Określanie czasu obserwacji i rejestrowanie danych 227
Wnioskowanie 229
Rodzaje obserwacji 230
Obserwacja kontrolowana 230
Eksperymenty laboratoryjne 230
Realizm eksperymentalny i życiowy 232
Źródła stronniczości w eksperymencie laboratoryjnym 233
Rejestrowanie wyników obserwacji 235
Eksperyment terenowy 235
Podsumowanie 237
Podstawowe terminy 238
Pytania sprawdzające 238
Literatura dodatkowa 239
Zarówno przemysł perfumeryjny, jak i nowa dziedzina zwana aromatoterapią są
oparte na założeniu, że ludzie mają pozytywny stosunek do przyjemnych zapachów. Jednakże
niewielu zastanawiało się, w jaki sposób zapachy wpływają na nasze uczucia czy działania.
Problematyką tą zajęli się Robert Baron i Marna Bronfen1. W swych ostatnich badaniach
usiłowali odpowiedzieć na pytanie, czy wprowadzanie przyjemnych zapachów w miejscu
pracy przyczynia się do redukowania stresu i tym samym zwiększa wydajność pracowników.
Baron i Bronfen stworzyli dwie kontrolowane sytuacje, w których manipulowali zadaniem,
zapachem i nagrodą. Badanie to ujawniło dwa problemy metodologiczne, z którymi musi się
zetknąć każdy badacz. Po pierwsze, czy w warunkach laboratoryjnych daje się stworzyć
realistyczne warunki eksperymentalne, tzn. czy osoby badane spostrzegają sytuację
eksperymentalną jako realistyczną i sensowną. I po drugie, czy sytuację eksperymentalną
cechuje realizm życiowy. Czy zawiera ona takie elementy, jakie można znaleźć w
codziennym życiu? Innymi słowy, jaki jest związek pomiędzy sytuacją laboratoryjną a
życiem i czy rodzaj tego związku może wpłynąć na trafność wniosków wyprowadzanych
przez badacza?
Rozdział ten rozpoczniemy od omówienia czterech sposobów zbierania danych, z
jakimi możemy się zetknąć w naukach społecznych, oraz przedstawimy ideę tńangulacji —
metody polegającej na wykorzystywaniu danych otrzymywanych w różny sposób w celu
przetestowania danej hipotezy. Następnie omówimy, kiedy i jak stosować metodę obserwacji
w badaniach społecznych. Dalej przedstawimy rodzaje zachowań, jakie badacze obserwują,
oraz zaprezentujemy strategie prowadzenia obserwacji bezpośredniej i sposoby rejestracji
otrzymanych danych. Rozdział zakończymy omówieniem obserwacji kontrolowanej
prowadzonej w warunkach laboratoryjnych i w terenie.
Kiedy już zdecydujemy, co i jak chcemy badać, przechodzimy do etapu zbierania
danych. W naukach społecznych dane otrzymujemy, rejestrując wyniki dotyczące badanego
zjawiska. Możemy wyróżnić cztery podstawowe metody zbierania danych: techniki
obserwacyjne, badania sondażowe, wtórną analizę danych oraz badania jakościowe. Badacze
stosują wiele różnych konkretnych metod, gromadząc dane w każdy z tych sposobów.
Najbardziej rozpowszechnione metody omówiliśmy w kolejnych rozdziałach. Jednak już
teraz chcemy podkreślić, że każdy spośród tych czterech sposobów ma nie tylko swoje
unikatowe zalety, lecz także wewnętrzne ograniczenia. I tak na przykład, jeżeli badacz prosi
respondenta o wskazanie najbardziej wpływowego członka w swojej grupie pracowniczej
(badania sondażowe), to otrzymane dane mogą znacznie odbiegać od danych, jakie uzyskano
by z bezpośredniej obserwacji. Przykład ten wskazuje na fakt istnienia pewnej
„specyficzności danej metody" w każdym ze sposobów zbierania danych wykorzystywanych
Robert A. Baron, Marna I. Bronfen (1994), A Whiff of Reality: Empirical Evidence
Concerning iheEffects ofPleasant Fmgrances on Work-Related Behavior, „Journal of Applied
Social Psychology", 24. s. 1179-1203.
221
przez naukowców. Dlatego też, gdy tylko to możliwe, korzystają oni z technl
triangulacji metod, tzn. stosują więcej niz jeden sposób zbierania danych w cd przetestowania
tej samej hipotezy.
¦ Triangulacja
W naukach społecznych dane uzyskuje się w sytuacjach sformalizowanych i nil
sformalizowanych. Dotyczą one zachowań lub reakcji werbalnych (ustnych lubpi-l semnych)
i niewerbalnych. Połączenie dwóch typów sytuacji i dwóch rodzajowi akcji pozwala na
wyróżnienie czterech podstawowych metod zbierania danych: ml tod obserwacyjnych, badań
sondażowych (wywiady bezpośrednie i badania kw tionariuszowe, tak jak przedstawiono to w
rozdziale 10 i 11), wtórną analizę da™ (na przykład analiza istniejących dokumentów
omówiona w rozdziale 13) i badani jakościowe (zaprezentowane w rozdziale 12). Na jednym
krańcu znajdują się ofl tody stosowane przez badaczy wtedy, gdy są oni zainteresowani
badaniem zacni wań niewerbalnych w sytuacjach niesformalizowanych (np. obserwacja
uczesał cząca będąca forma badań jakościowych), a na drugim krańcu metody stosowali w
badaniu zachowań werbalnych (ustnych lub pisemnych) w sytuacjach sformall zowanych (np.
eksperymenty laboratoryjne i kwestionariusze ustrukturowane). I Jak już wspomnieliśmy
wcześniej, każda z wymienionych metod zbierania dal nych ma określone zalety, lecz
również i wewnętrzne ograniczenia. Na przyklał jeżeli obserwujemy zachowania w trakcie
ich trwania (obserwacja bezpośredni* to możemy nie dostrzec przyczyn ich pojawiania się (a
te można zidentyfikow na podstawie odpowiedzi udzielonych w ustrukturowanym
kwestionariuszu). Podobni* prosząc respondentów, aby nam słownie opowiedzieli o swoich
zachowania* (przeprowadzanie wywiadu), nie mamy żadnej gwarancji, że ich rzeczywistej
chowanie (poznane na podstawie obserwacji uczestniczącej lub na podstawieistnifl jących
zapisów) jest identyczne z zachowaniem deklarowanym. Na przykładw hi daniach, w których
celem było określenie trafności odpowiedzi udzielonych przefl matki objęte opieką społeczną
na pytania wywiadu dotyczącego głosowania, Canł Weiss stwierdziła:
Na pytania dotyczące głosowania i rejestracji 827r matek objętych opie łeczną
odpowiedziało dokładnie. Szesnaście procent zgłosiło nie istniejącąB jestrację, a 2% nie
podało faktu rzeczywistej rejestracji. Wielkość i kierund zniekształceń odpowiadają tym,
jakie zostały stwierdzone w badaniach nad W nością samoopisów zachowań wyborczych,
przeprowadzonych na dużych M pulacjach osób należących do klasy średniej2.
Istnieje duża rozbieżność pomiędzy zachowaniami werbalnymi ludzi a ich rzeczjl
wistymi zachowaniami zarówno w zakresie zachowań wyborczych, jak i innych a chowań.
Na wyniki badań wpływa do pewnego stopnia natura zastosowanej meto(| I
2 Carol Weiss (1968), Validity ofWelfare Mother's Intemiew Responses. ..Public
Opinion Quartaj ly", 32, s. 622-633.
222
zbierania danych. Wyniki, które w dużej mierze zależą od wykorzystanej metody,
mogą się okazać raczej artefaktami (tj. efektami zastosowanej metody analizy danych—por.
niżej i rozdział 5) niż faktami empirycznymi. Według Donalda Fiskego:
Wiedza w naukach społecznych jest rozdrobniona; składa się z oddzielnych części [...]
Odseparowanie czy specyficzność tych części wiedzy jest konsekwencją nie tylko różnych
przedmiotów poszukiwań, ale również specyficzności metody. Każda metoda tworzy jedną
podstawę poznania, jeden z odróżnialnych sposobów poznania1.
Aby zminimalizować stopień wpływu specyficzności określonych metod na konkretne
dziedziny wiedzy, badacz może wykorzystać dwie metody zbierania danych do
przetestowania tej samej hipotezy. Jest to istota metody triangulacji. I tak na przykład, oprócz
ustrukturowanego kwestionariusza można zastosować wywiad głęboki, przeanalizować
istniejące dokumenty albo dokonać obserwacji w terenie. Jeżeli dane otrzymane za pomocą
różnych metod są stałe, to trafność tych danych zdecydowanie wzrasta. Wykorzystywana jako
strategia badawcza, metoda triangulacji pozwala badaczom przezwyciężyć „osobiste
uprzedzenia i ograniczenia wynikające z przyjęcia jednej metodologii. Dzięki łączeniu
różnych metod w jednym badaniu badacze mogą częściowo pokonać brak dokładności
wynikający z zastosowania jednej tylko metody i przeprowadzenia badań tylko przez jednego
badacza"4.
I Rola obserwacji
Nauki społeczne wyrastają z obserwacji. Politycy obserwują między innymi
zachowania osób pełniących różne funkcje polityczne; antropolodzy obserwują zachowania
rytualne w prostych społecznościach; psychologowie społeczni obserwują interakcje w
małych grupach. W pewnym sensie każde badanie w naukach społecznych rozpoczyna się i
kończy empiryczną obserwacją.
Podstawową zaletą obserwacji jest jej bezpośredniość. Pozwala badaczom na
studiowanie zachowań w trakcie ich trwania. Badacz nie musi pytać ludzi o ich własne
zachowania i działania innych. Może po prostu obserwować zachowania poszczególnych
osób. To z kolei pozwala badaczowi na zbieranie danych bezpośrednich i zapobiega
oddziaływaniu czynników stojących pomiędzy nim a przedmiotem badań. Na przykład
zaburzenia pamięci mogą istotnie wpłynąć na wypowiedzi ludzi dotyczące ich przeszłych
zachowań, podczas gdy w metodzie obserwacji czynnik pamięci nie ma żadnego znaczenia.
Co więcej, podczas gdy inne metody zbierania danych mogą wprowadzić element
sztuczności do sytuacji badania, to dane zbierane za pomocą obserwacji opisują obserwowane
zjawisko tak, jak przebiega ono w naturalnych warun-
1 Donald W. Fiske (1986), Specificity of Method and Knowledge in Social Science,
w: Donald W. fisie. Richard A. Shweder (red.), Metalherapy in Social Science, Chicago:
University of Chicago Press, $.62.
'Norman K. Denzin (1986), The Research Act: A Theoretical Introduction to
Sociological Me-**fe. Englewood Cliffs. N.J.: Prentice-Hall, s. 236.
223
k a c h. Wywiad na przykład jest formą interakcji pomiędzy dwiema osobami. Jako I
taki staje się źródłem specyficznych problemów związanych z brakiem zgody col do roli, jaką
odgrywa badacz i respondent. W takiej sytuacji respondent może się 1 zachowywać
niestandardowo (por. rozdział 10). Zmienne tego typu można wyeli-l minować w badaniach
obserwacyjnych, zwłaszcza wtedy, kiedy osoba badana nie I jest świadoma tego, że jest
obserwowana, lub kiedy przyzwyczaja się do obserwal torą i nie postrzega go jako intruza.
Niektóre badania koncentrują się na tych osobach badanych, które nie potrafił!
sformułować odpowiedzi słownej lub nie potrafią sensownie zdawać relacji o sobjB samych.
Na przykład w większości badań nad dziećmi badacze powinni stosofl^ metodę obserwacji,
ponieważ dziecku trudno jest stosować introspekcję, werbalizł wać i pozostawać aktywnym w
długo trwających zadaniach. David Riesman i Jeafl ne Watson w bardzo ciekawych badaniach
dotyczących uspołecznienia dziecka pol sługiwali się metodą obserwacji, ponieważ dziecko
„nie włada językiem pozwalł jącym na omawianie spotkań towarzyskich, nie zna słów
pozwalających opisyw™ strony interakcji inaczej jak »byli dobrzy lub źli« i nie potrafi
odpowiedzieć napjfl tanie »Co robisz, aby się zabawić?«5
Badacze mogą również stosować metody obserwacyjne wtedy, kiedy ludzie nie mają
ochoty na opisywanie siebie samych za pomocą słów. Obserwacja w porółB naniu z
przekazami słownymi wymaga mniejszego zaangażowania osób badanydB Co więcej, dzięki
obserwacji badacze mogą określać trafność przekazów słown™ przez porównywanie ich z
rzeczywistym zachowaniem. I wreszcie, ponieważ w H daniach obserwacyjnych relacja
pomiędzy daną osobą a jej środowiskiem niejea zakłócana, badacz może obserwować wpływ
środowiska na badane osoby. To zł ułatwia analizę kontekstualnych podstaw zachowania.
Należy pamiętać, że obserwacja może przyjmować wiele postaci. Może < legać na
prostym obserwowaniu codziennych doświadczeń, a także może się j giwać tak
skomplikowaną aparaturą jak lustro weneckie (jednostronne) czy kai wideo. Ta wielorakość
technik sprawia, że obserwacja staje się dogodną metodąd wielu celów badawczych. Badacze
stosują metody obserwacyjne w badaniach ( serwacyjnych po to, aby uzyskać dane, które
staną się podstawą sformułowanial potez badawczych. Mogą je również wykorzystywać do
zbierania dodatkowych d nych pomocnych przy interpretowaniu wyników otrzymanych za
pomocą innyi metod lub jako podstawową metodę zbierania danych w badaniach opisowych.
Obserwacja zatem jest techniką bardzo zróżnicowaną. Może być przeprowat na w
warunkach naturalnych lub w laboratorium, pozwalając na badanie takich z wisk jak
schematy uczenia się w rzeczywistych sytuacjach życiowych (np. wl szkolnej czy na boisku)
lub w kontrolowanych warunkach eksperymentalnych, nocześnie metody obserwacyjne są
bardzo elastyczne. Niektóre zależą jedynie o postępu w badanej dziedzinie. Inne mogą być
wysoce specyficzne i operow wcześniej zaprojektowanymi ustrukturowanymi narzędziami
dla wąsko ok nych potrzeb. Badacze mogą sami stać się członkami obserwowanej grupy (obi
wacja uczestnicząca); mogą być postrzegani jako członkowie grupy, lecz mogąl ograniczać
swoją aktywność; mogą przyjąć rolę obserwatora, nie będąc człon
5 David Riesman, Jeanne Watson (1964), The Sociability Project: A Chronicie of
Fmstrutimt Achievement, w: Phillip E. Hammond (red.), Sociologist at Work, New York:
Basic Books. s. 313.
224

obserwowanej grupy czy wreszcie ich obecność w ogóle może nie być dostrzegana
poobserwowane osoby. Tak czy inaczej, jakikolwiek byłby cel badania czy zastosowana
metoda obserwacji, badacz musi umieć odpowiedzieć na trzy podstawowe pytania, aby mieć
gwarancję, że otrzymane przez niego dane są danymi systematycznymi i sensownymi, tj. musi
wiedzieć, co chce obserwować, kiedy obserwować i jak rejestrować dane oraz jaki stopień
interpretacji wyników jest wymagany od obserwatora.
I Rodzaje zachowań
Pierwszym istotnym pytaniem jest pytanie o to, co należy obserwować. Przypuśćmy,
że interesujemy się badaniem związków pomiędzy frustracją i agresją i że hipotetycznie
zakładamy, iż frustracja prowadzi do agresji. Aby przetestować tę hipotezę, musimy dokonać
obserwacji zarówno zjawiska agresji, jak i frustracji. Aby obserwacja taka była możliwa,
musimy wcześniej sformułować jasne i wyraźne definicje operacyjne tych dwóch zmiennych.
Pomiar tych zmiennych może obejmować zachowania niewerbalne, przestrzenne,
parajęzykowe i językowe6.
Zachowania niewerbalne
Zachowania niewerbalne to „ruchy ciała wykonywane przez organizm" i „będące
ekspresją motoryczną [...] inicjowaną przez różne części ciała"7. Mimika twarzy na przykład
wyraża emocje takie, jak: strach, zdumienie, gniew, niesmak czy smutek. Zachowania
niewerbalne są intensywnie analizowane w naukach społecznych iokazaty się trafnym
wskaźnikiem procesów społecznych, politycznych i psychologicznych. Zdaniem Paula
Ekmana obserwowanie zachowań niewerbalnych pozwala uzyskać dane, które można
wykorzystać do „potwierdzania, zaprzeczania lub zastępowania przekazów słownych, jak też
do uwypuklania określonych słów, do podtrzymywania kanału komunikacji, odzwierciedlania
zmian w powiązaniach pomiędzy konkretnymi przekazami słownymi i określania odczuć
danej osoby w stosunku do wypowiedzianych przez nią słów"8. Dlatego badacze często
analizują zachowania niewerbalne jako sposób na określanie trafności innych wypowiedzi
udzielonych przez respondentów w sytuacjach badawczych.
Zachowania przestrzenne
Zachowania przestrzenne to działania jednostki zmierzające do strukturahzacji
przestrzeni, która ją otacza. Na przykład ludzie podchodzą lub odsuwają się od innych osób
czy obiektów; utrzymują małą lub dużą odległość. Zakres, częstość i re-
'Przykład ten pochodzi z pracy Karla E. Weicka (1985), Systematic Obsewational
Methods, w: Ganlner Lindzey. Elliot Aronson (red.), The Handbook ofSocial Psychology,
wyd. 3, New York: Random House.
'Paul Ekman (1957), A Methodologlcal Discussion ofNonverbal Behavior, .Journal of
Psycholo-
U 14. 136. 8 Paul Ekman (1965), Communication through Nonverbal Behavior: A
Source of Information aboM herpersonal Relationship, w: Silvan S. Tomkins, Caroll E. Izard
(red.), Affect, Cognition, and Perso-iialil>-, New York-. Springer, s. 441; Pau\ Ekman, W.
Eńesen (\969), The Repertoire oj Nonverbal Be-mior: Categories, Origins, U sagę and
Coding, „Semiotica", 1, s. 1-20.
225
zultaty takich ruchów dostarczają danych istotnych do realizacji wielu celów bada#
czych. Naruszenie naszej przestrzeni osobistej powoduje, że czujemy napięcie i 1(
Psychologiczne oznaki stresu to szybsza reakcja galwaniczna skóry, wzrost tętn i ciśnienia
krwi9. Badacze uważają te reakcje za wskaźniki kulturowo zorientowł nych norm
społecznych i włączają je w badania dotyczące zachowań interpersoi nych występujących w
różnych warunkach fizycznych, np. w tłumie.
Na przykład można określić różne sposoby wykorzystywania przestrzeni ofl czającej
ludzi w trakcie nawiązywania przez nich kontaktów z innymi osobami. Ka^ kultura tworzy
niepisany kodeks postępowania regulujący to, jak blisko dni| osoby możemy się znaleźć.
Mieszkańcy Ameryki Południowej tworzą mniejs przestrzeń niż na przykład mieszkańcy
Ameryki Północnej, Niemiec czy Ang| Zróżnicowanie kulturowe przestrzeni osobistej może
mieć istotne znaczenie dla ki turowo heterogenicznych społeczeństw czy miast. Osoba
niemieckiego pochodź nia może czuć się niezręcznie, wchodząc w interakcję z mieszkańcem
Ameryki Bj łudniowej ze względu na trudności w określeniu satysfakcjonującej przestrzeni
terpersonalnej między nimi. Może dojść do nieporozumień między nimi, ponic jeden drugiego
może postrzegać jako osobę niegrzeczną. W rzeczywistości ol próbują ustalić właściwą
przestrzeń, która dałaby się zaakceptować z punktu wi nia ich kultur. Co więcej, normy
dotyczące przestrzeni osobistej mogą być zróżnicowane w ramach jednej kultury. Aiello i
Thompson ustalili na przykład, w młodszym wieku czarni wchodzą w bliższe interakcje niż
biali. Z kolei doi czarni zachowują większy dystans niż dorośli biali10.
Zachowania parajęzykowe
Słowa oraz kontekst językowy to tylko niewielki fragment dającego się obsen wać
zachowania. Pozatreściowe aspekty zachowania takie, jak: szybkość mów nia, głośność,
tendencja do przerywania, specyficzne akcentowanie stanowią isto ne źródło danych,
określane generalnie jako dodatkowe zachowania werbalne 1 zachowania parajęzykowe.
Aktualnie stosowany termin „język ciała" odnosił zasadniczo do tego samego zjawiska.
Naukowcy w wielu badaniach udokumentowali znaczenie parajęzyka w zacbi waniu
ludzi. Na przykład parametry głosu takie jak wysokość są dobrą miarą s nów emocjonalnych".
Z kolei przeciętny czas trwania spontanicznej mowy \ra wraz ze wzrostem wielkości grupy12.
Częstość przerywania odzwierciedla różi w poczuciu własnej siły. Ludzie wyrażają emocje
bierne takie jak smutek, mów wolno, ciszej i niżej, emocje czynne zaś mówiąc szybciej,
głośniej i wyżej, kłady te są jedynie ilustracją możliwości wykorzystania zachowań
parajęzykow do analizowania zachowania ludzi. Wskazują na potencjalną istotność tego ty
chowania dla wielu celów badań społecznych.
9 S. Worchel, C. Teddlie (1976), The Experience of Crowding: A Two-Factor Theory.
Joui Personality and Social Psychology", 34, s. 30-40.
10 A.J. Aiello, E.D. Thompson (1980), Personal Space, Crowding, and Spatial
Behavior inaC tural Context, w: I. Altman i in. (red.), Humań Behavior and Environment,
New York: Plenum I
1' William F. Soskin, Paul E. Kauffman (1961), Judgement ofEmotion in Word-free
Voice i „Journal of Communication", 11, s. 73-80.
12 William F. Soskin, John P. Vera (1963), The Study of Spontaneous Talk, w: Roger
C. (red.), The Stream of Humań Behavior, Norwalk Conn.: Appleton & Lang.
226
Zachowania językowe
Zachowania językowe odnoszą się do obserwowanej treści wypowiedzi i
różnorodnych właściwości komunikacji werbalnej. Badanie tych właściwości jest istotne
zpunktu widzenia wielu celów badawczych. Badacze szeroko wykorzystywali mia-ty
zachowań werbalnych, szczególnie w badaniach nad interakcjami społecznymi. Robert Bales
na przykład opracował znany system kodowania procesów interakcji zachodzących w grupie
pracującej nad rozwiązaniem określonych problemów. System Balesa, tzw. analiza procesu
interakcji (API) składa się z 12 typów niezależnych zachowań, które można wykorzystywać
do kodowania i analizowania interakcji wewnątrz grupy (por. przykład 9.1). Osoby badające
kultury polityczne mogą lównież wykorzystywać zachowania językowe do analizowania
zarówno stylów przewodzenia, jak i różnych subkultur.
Rodzaje zachowań
¦ Zachowania niewerbalne: ruchy ciała takie jak wyraz twarzy.
¦ Zachowania przestrzenne: zabiegi podejmowane przez ludzi, a dotyczące
strukturowania przestrzeni, która ich otacza, takie jak kontrolowanie wielkości przestrzeni
osobistej.
¦ Zachowania parajęzykowe: formalne aspekty mowy takie, jak szybkość mówienia
czy tendencja do przerywania.
¦ Zachowania językowe: treść mowy i strukturalne charakterystyki mówienia.
I Określanie czasu obserwacji i rejestrowanie danych
Dmgie podstawowe pytanie dotyczące badań obserwacyjnych dotyczy określania
czasu obserwacji oraz sposobu rejestrowania danych obserwacyjnych. Nie można oczywiście
przeprowadzić niezliczonej liczby obserwacji — badacz musi określić, kiedy ma dokonać
obserwacji. Jednym z możliwych rozwiązań tego problemu jest przestrzeganie czasowego
terminarza dokonywania obserwacji. Tworzenie takie-goterminarza polega na wybieraniu
jednostek obserwacji w różnym czasie. Technika ta zapewnia reprezentatywność działań,
które mają ciągły charakter. Aby z kolei zagwarantować reprezentatywność określonej
populacji zachowań, badacz określa jednostki obserwacji w sposób systematyczny. Na
przykład dokonując podziału próby ze względu na dzień tygodnia i godzinę dnia, badacz
może dokonywać obserwacji w czasie losowo wybranych 15 minut w każdej godzinie. Inną
użyteczną procedurą jest losowanie jednostek, znane też jako rejestrowanie próbek zachowań.
W tym przypadku badacz wybiera jedną jednostkę i rejestruje wszystkie zachowania i
zdarzenia dotyczące tej jednostki. Na przykład może wybrać jedno dziecko i zarejestrować
wszystkie przypadki agresji fizycznej pomiędzy tym dzieckiem i innymi dziećmi w klasie, w
określonym przedziale czasu. W każdych kolejnych 30 minutach zostanie wybrane i będzie
obserwowane inne dziecko. Pełen zbiór zebranych danych będzie odzwierciedlał zachowanie
wszystkich dzieci w klasie.
227
Przykład 9.1
API — kodowanie kategorii
o5
E >>
S •* o. -
fi
fil
1. Okazuje solidarność, podkreśla czyjąś pozycję, udziela pomocy, nagradza.
2. Rozładowuje napięcie, żartuje, śmieje się, okazuje
zadowolenie.
3. Zgadza się, okazuje bierną akceptację, okazuje zrozumienie, podziela zdanie
innych, podporządkowuje się.
4. Udziela wskazówek, wskazuje kierunek rozwiązania,
zgadzając się na autonomiczne postępowanie innych osób.
5. Wyraża opinie, ocenia, analizuje, wyraża uczucia, życzenia.
6. Przekazuje wiadomości, informuje, powtarza, wyjaśnia, potwierdza.
1 -•a S
a5 C
S °-
fi
•2, u
S S E >> V m
8g
o _* a, -
=
c
D
7. Prosi o wskazówki, informację, powtórzenie, potwierdzenie.
o. Prosi o opinię, ocenę, analizę, wyraża uczucia.
9. Prosi o wytyczne, pokazanie kierunku, wskazanie ewentualnych sposobów
postępowania.
10. Nie zgadza się, odrzuca w sposób bierny, formalizuje, odmawia pomocy.
11. Okazuje napięcie, prosi o pomoc, usuwa się.
12. Przejawia antagonizm, podważa pozycję innej osoby, broni się lub domaga dla
siebie uznania.
Klucz: a. Zagadnienia związane z orientacją d. Zagadnienia związane z
decyzją
b. Zagadnienia związane z oceną e. Zagadnienia związane z napięciem
c. Zagadnienia związane z kontrolą f. Zagadnienia związane z integracją
Na podstawie: Robert F. Bales (1976). Interaction Process Analysis, Unwersity of
Chicago Press; za zgodą University of Chicago hfl
Tworząc czasowy terminarz dokonywania obserwacji, badacz musi jednoczesna
opracować system kodowania, który będzie wykorzystywany przy rejestrowaniu obserwacji.
Aby przełożyć zachowania o charakterze ciągłym na zbiór danych mających charakter
ilościowy i dających się wyrazić w postaci liczbowej, badacz mmi najpierw pokategoryzować
dane i przyporządkować każdej kategorii odpowiedni
228
kod. Taki system kodowania można skonstruować, stosując albo podejście
dedukcyjne, albo podejście indukcyjne. Stosując podejście dedukcyjne, badacz rozpoczy-| na
od sformułowania definicji pojęciowej, określa wskaźniki obserwowanego zachowania, a
następnie dokonuje standaryzacji i walidacji tak powstałego narzędzia. W tym podejściu
badacz przyporządkowuje obserwacje do wcześniej zdefiniowanych kategorii w czasie
dokonywania obserwacji. Z kolei przeciwnie, podejście indukcyjne wymaga, aby na
pierwszym etapie zbierania danych badacz określił wskaźniki i odsunął formułowanie
definicji do czasu zidentyfikowania schematu czy wzorca. Każde podejście jest na swój
sposób ryzykowne. W podejściu dedukcyjnym trudno przewidzieć, czy sformułowana
definicja pojęciowa jest precyzyjna. Z drugiej strony, podejście indukcyjne (empiryczne)
stwarza trudności w interpretowaniu zebranych obserwacji (por. rozdział 14). Dobrym
sposobem zmniejszenia takich kłopotów jest połączenie tych dwóch podejść. Zdaniem Karla
Weicka:
idealny porządek zdarzeń powinien wyglądać następująco: obserwator rozpoczyna od
podejścia empirycznego, zbiera obszerne dane dotyczące zdarzeń naturalnych, z danych tych
wyprowadza określone pojęcia, a następnie dokonuje kolejnej obserwacji, bardziej
specyficznej i wprost dotyczącej wyprowadzonych pojęć13.
Niezależnie od tego, czy badacz wykorzystuje podejście dedukcyjne czy indukcyjne,
kategorie, do których badacz zalicza swoje obserwacje, muszą spełniać określone kryteria.
Skonstruowany system kategoryzowania musi:
ograniczać obserwacje do jednego segmentu lub aspektu [...] zachowania i tworzyć
taki skończony zbiór kategorii, aby każda obserwacja mogła zostać zaklasyfikowana do
jednej i tylko jednej kategorii14.
Mówiąc krótko, kategorie muszą być wyraźne, wyczerpujące i wzajemnie rozłączne.
Szersze omówienie problemu kategoryzowania czytelnik znajdzie w rozdziale 14).
I Wnioskowanie
Trzecie podstawowe pytanie dotyczące ustrukturowanych badań owacyjnych dowozy
zakresu interpretacji wymaganej od obserwatora. Większość danych zebranych za pomocą
obserwacji wymaga interpretacji. Badacz obserwujący określone działanie czy zachowanie
musi przetworzyć zebrane obserwacje i wyciągnąć wnioski, czy zachowanie to jest
wskaźnikiem określonej zmiennej. Niektóre systemy obserwacji wymagają niewielkiego
stopnia interpretacji, na przykład rejestrowanie bezpośrednich aktów zachowania takich, jak:
„zadaje pytanie", „sugeruje kierunek działania", „przerywa innemu członkowi grupy". Wiele
zachowań jednakże wymaga większego stopnia interpretacji. Załóżmy, że badacz obserwuje
zachowanie osoby dorosłej, która bije dziecko. Musi on dokonać wyboru, czy zachowanie to
odzwier-
"Wekk, SystematicObservationalMethods, s. 102.
"Donald M. Medley. Harold E. Mitzel (1963), Measuring Classroorn ^'»&TT °".* " L
w: Nathaniel L. Gage (red.), Handbook of Research on Teaching, Skolae, 111, Rand
McNally, s. 298.
229

ciedla „agresję", „zachowanie agresywne", „wrogość", „przemoc" czy jakąś iii


zmienną. Trafność wyciąganych wniosków zależy w ogromnym stopniu od kompd tencji
obserwatora. Zakładając, że pozostałe warunki pozostają takie same, dobffl przygotowany
obserwator wyprowadzi prawdopodobnie bardziej rzetelne wniosl Aby zwiększyć rzetelność
wnioskowania, badacze opracowują specjalne progfll my ćwiczące umiejętność obserwania w
różnych sytuacjach badawczych. Zazwi czaj taki progam rozpoczyna się od wyłożenia teorii i
hipotez badawczych sforrai łowanych w ramach danego problemu oraz rodzaju kategorii i
systemu kodowani skonstruowanych po to, aby można było rejestrować obserwacje. Kiedy
osoB szkolone potrafią już tworzyć pytania, ćwiczą one zastosowanie systemu kategon w
rzeczywistych sytuacjach życiowych. Dopiero po takim cyklu szkolenia osoby te mogą
przystąpić do rzeczywistego zbierania danych.
¦ Rodzaje obserwacji
Biorąc pod uwagę zakres, w jakim decyzje dotyczące zachowania, określania czał
obserwacji, sposobu rejestrowania i wnioskowania są systematycznie podejmowana
wyróżniamy obserwację kontrolowaną i nie kontrolowaną. Obserwację kontrolo! waną
charakteryzują jasne i wyraźne decyzje dotyczące tego, co, gdzie i kiedy ni być obserwowane.
Dla obserwacji nie kontrolowanej natomiast charakterystyce jest znacznie mniejsza
systematyczność i większa płynność. W wypadku obserwacl kontrolowanej punkty czasowe
są zazwyczaj określane, zanim rozpocznie się obsei wację. W wypadku obserwacji nie
kontrolowanej zaś takie punkty czasowe są rzadko wyznaczane. Wybór pomiędzy obserwacją
kontrolowaną i nie kontrolowaną zależ! w dużej mierze od problemu badawczego i przyjętego
schematu badania, tj. badacze I stosują częściej obserwację kontrolowaną wraz z planami
eksperymentalnymi, rza-l dziej natomiast w wypadku planów preeksperymentalnych i badań
jakościowydi W tym rozdziale omówimy systemy obserwacji kontrolowanej, natomiast
systenfl obserwacji nie kontrolowanej (badania jakościowe) przedstawimy w rozdziale Ul
¦ Obserwacja kontrolowana
Obserwację kontrolowaną można przeprowadzić zarówno w laboratorium, ja i podczas
badań terenowych. W obu sytuacjach badacz — wykorzystując którysl / licznych planów
eksperymentalnych i rejestrując dane z obserwacji —chciaM wnioskować o związkach
przyczynowo-skutkowych, maksymalizując przy tjfl kontrolowanie zmiennych zewnętrznych
i wewnętrznych.
U Eksperymenty laboratoryjne
Eksperyment laboratoryjny stanowi najbardziej kontrolowaną metodę zbierania ¦ nych
w naukach społecznych. Polega on na tworzeniu takich warunków sytuacji warunków
laboratoryjnych, które mogą być regulowane pr/e/ badacza, tj. nastwol rżeniu kontrolowanej
sytuacji badawczej. Warunki laboratoryjne pozwalają nał
230
miłowanie określonych cech środowiska naturalnego oraz na manipulowanie jednym
lub więcej elementami (zmiennymi niezależnymi) po to, aby obserwować po-
wstsły efekt
Eksperyment Solomona Ascha nad wpływem grupy jest klasycznym przykładem
eksperymentu laboratoryjnego. Celem Ascha było zbadanie, jakie czynniki społeczne i
osobowościowe sprawiają, że jednostka poddaje się lub stawia opór naciskowi grupy w
sytuacji, w której zachowanie grupy jest sprzeczne z faktami. Asch wypracował procedurę
umieszczania danej osoby w sytuacji skrajnego braku zgody z rówieśnikami. Opracował tez
metodę pomiaru powstających relacji pomiędzy tymi osobami. W jednym z eksperymentów
zadaniem ośmiu osób było porównanie długości danej linii z trzema innymi liniami o
nierównej długości, a następnie głośne wypowiedzenie własnej oceny. W jednym z testów
badana osoba zderzała się nagle? przeciwnym zdaniem pozostałych siedmiu osób, które Asch
wcześniej poinstruował, aby udzielały odpowiedzi niezgodnych z prawdą. Błąd większości
byt oczywisty i wahał się w zakresie od 1/2 cala do 1 i 3/4 cala.
Ósma osoba badana znalazła się zatem w sytuacji, w której cała grupa jedno-myślnie
przeciwstawiała się temu, co ta osoba widziała. Osoba ta, określana jako osoba te s to w a.
była rzeczywistym obiektem badań. Asch wykorzystywał również srupę kontrolną, w której
błędy popełniane przez większość w sytuacji ekspe-rymentalnej były wprowadzane w innym
porządku. Jednym z interesujących wyników tego eksperymentu było wyraźne przesunięcie
się osób badanych w kierunku większości w grupie eksperymentalnej:
Jedna trzecia wszystkich ocen [dokonanych przez osoby testowe] w grupie
eksperymentalnej była błędna i identyczna lub zgodna z kierunkiem nieprawidłowych ocen
podawanych przez większość. Wynik ten nabiera szczególnego znaczenia w świetle
zaobserwowanego braku błędów w grupie kontrolnej .
Eksperyment Ascha jest dobrym przykładem korzyści, jakie daje eksperyment
laboratoryjny: pozwala na dokładną kontrolę czynników zewnętrznych i wewnętrznych i
dostarcza wyraźnych dowodów na rzecz związków przyczynowo-¦skutkowych. Asch
wyeliminował efekty oddziaływania wielu zmiennych, które mogłyby spowodować, ze osoby
testowe poddawały się lub opierały naciskowi grupy. W ten sposób zwiększył
prawdopodobieństwo tego, że obserwowane różnice zostały spowodowane przez zmiany
celowo wprowadzone w procedurze eksperymentalnej. Co więcej, Asch mógł w sposób
jednoznaczny okreshc, coj^Powodowa-loprzesuniecie opinii osób testowych w kierunku
opinii większości, pon ewaz oso bikie kontrolował i manipulował zmienną niezależną tj
™d™°™°™^™ z grupy, które przedtem poinformował, kiedy mają udzielać ^^^ ~ powiedzi.
1 dalej, Asch różnicował postępowanie ^™nt*ln^2 Lk tematyczny, poprzez precyzyjne
definiowane ważnych rożnie. Wreszcie^ Asch skonsLwał eksperyment w taki sposób, który
pozwolił mu na ^^ryw^ efektu spowodowanego postępowaniem eksperymentalnym: osoby
testowe musiały
- So,omon E. Asch (.958), Effects of Group Pressure upon ^f^^^J^ L w: Eleanor
Maccoby. Theodore Newcomb, Eugen Hartley (red.), Readmgs m Socud Psychology,
New York: Rinehart i Winston. s. 177.
231
głośno podać swoje oceny. Zmuszone do podania własnej opinii i zajmując pozycję
vis-a-vis swoich rówieśników, osoby testowe nie mogły uniknąć dylematu stworzonego przez
sytuację eksperymentalną.
Złożoność eksperymentu Ascha może służyć jedynie jako skromna ilustracjij
możliwości, jakie stwarza eksperyment. Eksperymenty laboratoryjne, w zależności od
problemu badawczego i pomysłowości badacza, rzeczywiście różnią się złoża nością i
planami postępowania. Badacze muszą opracować zbiór procedur dobra oddających ich
sposób konceptualizacji problemu badawczego, a także pozwalających na przetestowanie
sformułowanych hipotez. Ten wymóg z kolei wymusza* wencję w tworzeniu narzędzi
pomiarowych oraz konieczność określania sposobu oddziaływania narzędzia na zachowania
uczestników eksperymentu. Innymi słów eksperymentator musi skonstruować taką sytuację,
w której manipulowanie zmiel nymi niezależnymi staje się sensowne, a otrzymane wyniki są
trafne i rzetelne.
Realizm eksperymentalny i życiowy
Ponieważ sytuacja laboratoryjna nie odzwierciedla rzeczywistej sytuacji życiowa
można zadać pytanie o znaczenie sytuacji kreowanej w eksperymencie laboratora nym. W
eksperymencie Ascha osoby testowe postawione naprzeciwko swoich ¦ wieśników
dokonywały, poza wszystkim, oceny wyraźnego, fizycznie istniejącej zadania (ocena długości
linii). W codziennym życiu jednakże sytuacja, w którejjH dnoznaczne informacje płynące z
naszych zmysłów zostaną skonfrontowane z jefl nomyślną, odmienną opinią równieśników,
jest mało prawdopodobna.
Ten problem sprawił, że naukowcy rozróżniają dwa znaczenia nadawane pojęcil
realizmu sytuacji eksperymentalnej16. W pierwszym znaczeniu eksperyment jestfl alistyczny,
jeżeli sytuacja eksperymentalna jest traktowana przez uczestników eka perymentu jako
rzeczywista, tzn. jeżeli ich angażuje i na nich oddziałuje. Tenł d/aj realizmu jest zazwyczaj
określany jako realizm eksperymentalny*. WekspB rymencie Ascha osoby testowe
przejawiały oznaki napięcia i lęku. Reagowały ¦ sytuację tak, jak gdyby była ona dla nich tak
rzeczywista jak każde wydarzeniepł za laboratorium.
Drugie znaczenie pojęcia „realizm" jest związane z zakresem, w jakim zdarzenia
zachodzące w sytuacji laboratoryjnej zachodzą w rzeczywistym życiu. Ten typił alizmu
nazywa się realizmem życiowym. Eksperyment, który cechuje wysokił alizm życiowy i niski
realizm eksperymentalny, nie musi koniecznie dawać ba dziej znaczących wyników niż
eksperyment, który cechuje niski realizm życiwB i wysoki realizm eksperymentalny. Gdyby
Asch obserwował oddziaływania inter-l personalne w życiu rzeczywistym, prawdopodobnie
sytuacja badawcza nie pozwł lałaby na obserwowanie nacisku grupy na jednostkę w takiej
czystej postaci, fl więcej, gdybyśmy nawet założyli, że taką sytuację można stworzyć, to ze
względB na to, że badacz nie mógłby kontrolować wpływu czynników zewnętrznych i wfl
* Zamiast terminu „realizm eksperymentalny" Aronson wprowadził termin „realizm
psychologio-ny". Por. E. Aronson, T.D. Wilson, R.M. Akert (1997), Psychologia społeczna.
Serce i umysł, PoznB Zysk i S-ka Wydawnictwo, s. 63 (przyp. red. nauk.).
16 Przedstawiona argumentacja została oparta na pracy Elliota Aronsona, Marilynn B.
BreweriJi mesa Carlsmitha (1985), Experimentation in Social Psychology, w: Gardner
Lindzey, Elliot AroM (red.), Handbook of Social Psychology, wyd. 3, New York: Random
House, s. 481-483.
232
iiętrznych, otrzymane wyniki byłyby niejasne i niekonkluzywne. Dlatego też bacz,
starając się stworzyć dwa typy realistycznych warunków, wywołuje w ramach
lacji eksperymentalnej efekty mające większe znaczenie i tym samym zwiększa
iiość wewnętrzną eksperymentu.
—dła stronniczości w eksperymencie laboratoryjnym
Eksperymenty laboratoryjne, niezależnie od zalet, mają też określone ograniczenia.
Można je podzielić na trzy grupy: stronniczość wynikającą ze wskazówek sugerujących,
zawartych w samej sytuacji eksperymentalnej, stronniczość wynikającą z nieintencjonalnych
wpływów eksperymentatora oraz artefakty pomiarowe.
(Wskazówki sugerujące. Ze stronniczością, której źródłem są wskazówki sugerujące,
zawarte w sytuacji eksperymentalnej, mamy do czynienia wówczas, kiedy osoby badane zdają
sobie sprawę, że znajdują się w sytuacji eksperymentalnej, są świadome, że są obserwowane,
i sądzą, że oczekuje się od nich określonych reakcji. Tym samym mogą one reagować
bezpośrednio na inne czynniki niż manipulacja
E' erymentalna. Ich reakcje mogą odzwierciedlać to, jakie zachowania — ich iem —
ma w zamierzeniu wywołać manipulacja eksperymentalna. Nawet wte-7,bdy eksperymentator
zapewnia, że nie ma dobrych i złych reakcji, osoby badane mogą nadal sądzić, że oczekuje się
od nich określonych zachowań i starać się spełnić te oczekiwania17. Osoby badane mogą
również rozszyfrować hipotezę badawczą i zareagować tak, by zadowolić eksperymentatora.
Jednym ze sposobów przeciwdziałania tak rozumianej stronniczości jest stworzenie sytuacji
eksperymentalnej, w której osoba badana ma mniejszą świadomość, że jest obserwowana.
Inną strategią jest omówienie z osobami badanymi ogólnych, zamiast szczegółowych, celów
badawczych. Istotą tej metody jest stworzenie warunków, w których osoba badana chcąca
modyfikować swoje zachowanie, aby wesprzeć albo zaprzeczyć hipotezie badawczej, nie
wpływała w sposób systematyczny na wyniki badania dotyczące prawdziwej hipotezy
badawczej18.
Stronniczość eksperymentatora. Zachowanie eksperymentatora, które nie jest
zamierzoną manipulacją eksperymentalną, a które tak czy inaczej wpływa na osoby badane,
określa się jako stronniczość eksperymentatora lub efekt oczekiwań eksperymentatora.
Eksperymentator może bowiem w sposób niezamierzony przekazywać swoje oczekiwania co
do zachowania osób badanych, ujawniając na przykład oznaki napięcia czy ulgi lub
potakując, kiedy padnie odpowiedź. Robert Rosenthal i jego zespół stwierdzili, że gdy ośmiu
na dwunastu eksperymentatorów posługujących się tą samą metodyką otrzymało stronnicze
dane od pierwszych dwóch osób badanych (współpracujących z Rosenthalem i jego
zespołem), to dane te wpłynęły na wyniki zebrane później od prawdziwych osób badanych.
Czterej eksperymentatorzy, którzy od pierwszych dwóch osób badanych otrzymali dane
potwierdzające ich hipotezę, otrzymali od nic nie wiedzących osób badanych, udzie-
" M.T. Orne (1969), Demand Characteristics and the Concept ofQuasi-controls, w:
Robert Rosen-thal. R.L. Rosnow (red.). Artifacts in BehavioraI Research, Orlando, Fla.:
Academic Press.
11 Petne omówienie metod redukujących stronniczość można znaleźć w pracy
Aronsona i in., Ex-
pirimentation in Social Psychology.
233

r
łających odpowiedzi w dalszej kolejności, dane jeszcze silniej potwierdzające tę ¦
potezę. Natomiast czterej eksperymentatorzy, którzy od podstawionych osób badanych
otrzymali dane nie potwierdzające ich hipotezy, otrzymali od nic nie wiedzących osób
badanych dane, które jeszcze bardziej nie potwierdzały tej hipotea Z kolei porównawcza
grupa eksperymentatorów, którzy testowali wyłącznie nic nie wiedzące osoby badane,
otrzymała wyniki mieszczące się pomiędzy wynikami otrzymanymi przez poprzednie dwie
grupy. Dlatego autorzy tych badań wyciągni wniosek, że pierwsze wyniki stronniczo
wpływają na otrzymywane później dana Stronniczość eksperymentora jest zatem wynikiem
motywacji badaczy.
Posługując się magnetofonem, kamerą telewizyjną czy innymi zautomatyzowani mi
technikami w celu zminimalizowania interakcji pomiędzy eksperymentatorem i osobami
badanymi, można wyeliminować przekazywanie oczekiwań i w ten spon zminimalizować
niezamierzoną stronniczość eksperymentatora. Można również laguj dzić efekty
stronniczości, wykorzystując eksperymentatorów mających różne oczekiwania co do
wyników badań. W jednym z projektów badawczych włączono oczekiwania dotyczące
efektów manipulowania zmiennymi w schemat eksperymentalii Badacze oceniali wówczas,
czy ich własne, różne oczekiwania dawały w efekcie różne wyniki20. Innym zalecanym
postępowaniem pozwalającym zredukować stroi niczość eksperymentatora jest
wykorzystywanie więcej niż jednej osoby obserwują* czy zbierającej wyniki. Technika ta
zmniejsza efekty oddziaływania cech osobowo* badacza, jego cech fizycznych i subtelnych
różnic w traktowaniu osób badanychl
Trzy źródła stronniczości w badaniach eksperymentalnych
¦ Wskazówki sugerujące: wtedy, kiedy osoba badana wie, że uczestniczy w
eksperymencie i stara się zareagować w sposób, jakiego, jej zdaniem, eksperymentator
oczekuje.
¦ Stronniczość eksperymentatora: wtedy, kiedy eksperymentator niezamie-rzenie
przekazuje swoje oczekiwania osobom badanym.
¦ Artefakty pomiarowe: stosowane procedury pomiarowe mogą być dla osób
badanych źródłem wskazówek dotyczących tego, o co właściwie chodzi w eksperymencie.
Instrumenty pomiarowe takie, jak kamera czy arkusze testowe również mogą uwrażliwić
osoby badane i spowodować efekt stronniczości.
Artefakty pomiarowe. Pomiar jest decydującą częścią postępowania badawczega W
eksperymencie laboratoryjnym, w którym efekty oddziaływania zmiennej niezaj leżnej mogą
być niewielkie, krótkie i czułe, niezbędne jest dokonanie precyzyjnej!
19 Robert Rosenthal i in. (1963), The Effects ofEarly Data Returns on Data
Subsequently ObUÓm by Outcome-biased Experimenters, „Sociometry", 26, s. 487-493.
20 J. Merrill Carlsmith, Barry E. Collins, Robert L. Helmreich (1966), Studies in
Forced ComplĄ ce: I. The Effect of Pressure for Compliance on Attitude Change Produced by
Face-to-Face RolePIm ing and Anonymous Essay Writing, „Journal of Personality and Social
Psychology", 4, s. 1-13.
234

Lr, Co więcej, procedury pomiarowe nie są mezalezne ^^™*Z ^stepowania


badawczego. Procedury pormarowe mogą ^°^^T^h Serpretacje danych, ponieważ mogą być
źródłem wskazówek "P^^g^ eksperymentu, co sprawia, ze osoby badane mają mozhwosc
wywarcia pożądanego
"niety pomiarowe same mogą być uwrażliwiające w tympensieże mogą zmieniać
mierzone zjawisko. Na przykład, jeżeli badacze ^^^JJ "^erę do rejestrowania danych, to osoby
badane mogą się zachowywać ™^2VlTn2-<e o, ze Są świadome obecności kamery.
Znajomość narzędzia V^^^f .w fazie pomiaru początkowego może uwrażliwić
osoby.bad^^fb"ca JJ. nikiwfazie pomiaru końcowego. Nawet ^f^^^J^^^S-
diemnieprawdziwych danych. Badacz może dokonywać P0^^^*. wan>a zmiennych
niezależnych, zanim upłynie T^^S^L^^S Sm wpłynąć na zmienną zależną, lub po tym, jak ich
efekt ^^^^ samym ukrywając ich rzeczywisty efekt. W swoim J"™^™*^™^-landi jego zespół
stwierdzili, ze skompromitowani ™w%™J^TailTte-miast na przekonania swoich słuchaczy,
natomiast istotny efekt by zauważany piero miesiąc później, jeśli słuchacze nie przypomnieli
sobie zrodła .
Rejestrowanie wyników obserwacji reiestro-
Przedstawiona wyżej dyskusja powinna uwrażliwić nas na ^^nTslt^y-warna wyników
obserwacji. Obserwacje przeprowadzane w laboratormm są zapisy wane natychmiast, w
trakcie sesji eksperymentalnej. ^^^1^1 to co sie działo często wykorzystuje się pomoce
mechaniczne takie, jak kamera id SySra Siwi magnetofon i telewizja. Następnie=
wyodrębmo^e jednostki obserwacji klasyfikuje się zgodnie z dobrze ^^^^T^^Z.
syftkacyjnym, takim jak na przykład przedstawiony na rycin e ™-™^™L nemo następować
w trakcie sesji eksperymentalnej, jeżeli sy tern zapsywam danvch został wcześniej
przygotowany i przetestowany. ^^^^^0 gotowanym systemem zapisywania i odpowiednio
trenując ^^Sorów Lmum ograniczamy stopień niezbędnej interpretacji ze strony
obserwatorów.
I Eksperyment terenowy
Podstawowa różnicą pomiędzy eksperymentem ^^W™*^™^ terenowym jest -
odwołując się do samych terminów - rodzą^ ^acJi ekspery ^ mentalnej. W eksperymencie
laboratoryjnym badacz }™Wj™^™^^ w sytuac i, która symuluje określone cechy środowisk
a naftimtaega Jymczas we sperymencie terenowym, ze względu na to, ze badanie odbywaj^J°
wisku naturalnym, badacz manipuluje jedną lub więcej zm ennymi meza ezny w warunkach,
które są na tyle kontrolowane, na ile ^^^JJZLi,-schematu badawczego różnica}V^^^lX^^^^^
mi terenowymi nie jest ostra (por. rozdział 5). lrudnosci
, i ¦ u««W H Kellev (1953), Communication and Persuation, New :l Carl I.
Hovland, Irving/L. Jams, Harold H. Reney u*-«*
Haven. Conn.: Yale UnWersity Press.
235
ków wewnętrznych i zwłaszcza czynników zewnętrznych są jednak zdecydowanie
większe w przypadku eksperymentów terenowych.
Ciekawym przykładem eksperymentu terenowego jest często cytowane badanie
przeprowadzone przez Piliavina, Rodin i Piliavin nad zachowaniami nastawionymi na
pomaganie innym — altruizmem22. Autorzy ci przeprowadzili eksperyment te-1 renowy, aby
zbadać wpływ wielu zmiennych na zachowania nastawione na pomaganie innym, traktując
pociągi ekspresowe linii New York Eight Avenue Independent Subway jako laboratorium na
kółkach. Cztery zespoły studentów, składające się z ofiary, osoby modelującej i dwóch
obserwatorów, inscenizowały standardowe sytuacje zasłabnięcia, różniące się typem ofiary
(chora lub pijana), rasą ofiary (czarna lub biała) i obecnością lub nieobecnością osoby
modelującej. Zebrane dane doty-l czyły liczby i rasy przypadkowych świadków, chęci do
niesienia pomocy (lub odroczenia takiej reakcji), rasy osoby pomagającej, liczby osób
pomagających, opusz-1 czania „krytycznego obszaru" i spontanicznych komentarzy. Na
rycinie 9.1 zilust-1 rowaliśmy sytuacje aranżowane w tym eksperymencie terenowym.
obserwator 2 -.
połączenie | wagonów
obszar sąsiedni
drzwi wyjściowe
obszar krytyczny
drzwi wyjściowe
obserwator 1
drzwi wyjściowe
drzwi wyjściowe
drzwi do
następnego
wagonu
przedział dla obsługi pociągu
Ryc. 9.1. Plan eksperymentu terenowego
Badacze otrzymali następujące wyniki: (1) osoba wyraźnie chora ma większe szanse
otrzymania pomocy niż osoba, która wydaje się pijana; (2) rasa ofiary miała niewielki wpływ
na rasę osoby pomagającej, z wyjątkiem sytuacji, kiedy ofiara była pijana; (3) mężczyźni
zdecydowanie chętniej udzielali pomocy niż kobiety: (4) im dłużej, bez zaoferowania
pomocy, trwała sytuacja niebezpieczna, tym bardziej było prawdopodobne, że ktoś po prostu
opuści obszar niebezpieczeństwa.
W tym badaniu badacze wykorzystywali głównie metodę obserwacji systematycznej
w sytuacji naturalnych zdarzeń. Eksperymentatorzy nie kontrolowali sytuacji. a w celu
zbadania zachowań przypadkowych świadków i sprawdzenia, czy są one nastawione na
pomaganie innym w szerokim kontekście nie kontrolowanej sytuacji występującej w pociągu,
wprowadzili systematyczne zróżnicowanie, tj. różne zachowanie osób współpracujących w
tworzeniu eksperymentu.
Badacze prowadzący eksperymentalne badania terenowe mogą zatem tworzyć
22 Irving M. Piliavin, Judith Rodin, Jane Allyn Piliavin (1969), Good Samaritanism:
An Unda* ground Phenomenon?, „Journal of Personality and Social Psychology", 13, s. 289-
299.
236
różne sytuacje eksperymentalne, a także wprowadzać zróżnicowanie eksperymentalne
do naturalnie dziejących się sytuacji. W drugim wypadku badacze nie manipulują
bezpośrednio zmienną niezależną, ale raczej — odwołując się do badanego pojęcia
teoretycznego — określają bodźce odzwierciedlające to pojęcie w sytuacji naturalnych
zdarzeń.
Jak podkreślaliśmy wcześniej, podstawową zaletą eksperymentów terenowych jest to,
że umożliwiają one badanie złożonych interakcji, procesów i zmian w naturalnym otoczeniu.
Ich podstawowa słabość dotyczy problemu kontroli: eksperymentatorzy nie mogą
kontrolować wewnętrznych i zewnętrznych źródeł trafności w tak systematyczny sposób jak
w eksperymencie laboratoryjnym. Poważnym problemem jest tez samowybieranie się osób
badanych i powszechny brak możliwości zastosowania techniki randomizacji. Często jako
jeden ze sposobów określania wpływu zmiennych nie kontrolowanych przeprowadza się
badanie pilotażowe. Badanie pilotażowe pozwala badaczowi upewnić się, że osoby badane
nie różnią się w sposób systematyczny ze względu na jakiś istotny czynnik inny niż ich
reakcja w badanym procesie przyczynowo-skutkowym23.
W eksperymentach terenowych istotne też są zagadnienia natury etycznej. Czy jest
rzeczą etyczną stawianie niewinnych, przypadkowych świadków w sytuacji, w której ktoś
słabnie i wydaje się poważnie chory? W eksperymencie laboratoryjnym prawa jego
uczestników są zagwarantowane przez wyrażenie przez nich zgody i udzielenie informacji po
zakończeniu eksperymentu: osoby badane są świadome tego. ze biorą udział w
eksperymencie. Nawet wtedy, kiedy osoby badane biorące udziat w eksperymencie nie mają
żadnych informacji o celach eksperymentu, wiedzą, że zostaną o nim poinformowane po
zakończeniu badań. W eksperymencie terenowym osoby często nie są świadome tego, że
biorą udział w badaniu. W takich sytuacjach obowiązkiem badacza jest upewnienie się, że
dobra osobiste osoby, która stalą się uczestnikiem badania, nie zostały naruszone i że nie
będzie się ona czuła zakłopotana i zestresowana. (Sposoby ochrony dóbr osobistych i
zapewnienia poufności omówiliśmy w rozdziale 4).
I Podsumowanie
1. Obserwacja jest uważana za prototypową metodę stosowaną w naukach
społecznych. Jeżeli chcemy zrozumieć, wyjaśnić i przewidzieć to, co istnieje, możemy to po
prostu obserwować. Jeżeli jednak nasze wyniki mają być systematyczne, to obserwacja musi
zostać przeprowadzona tak, aby spełnione zostały trzy zasadnicze jej warunki: musimy
odpowiedzieć na pytanie, co chcemy obserwować, gdzie i kiedy chcemy obserwować i jaki
stopień interpretacji wyników wymagany jest od obserwatora.
2. Problem badawczy wymaga, po pierwsze i przede wszystkim, określenia, jakie
zachowanie ma być obserwowane: niewerbalne, przestrzenne, parajęzykowe czy językowe.
3. Sposób prowadzenia obserwacji jest podstawowym zagadnieniem problemu
23 Opis innych metod wykorzystywanych w celu minimalizowania problemu
obniżenia trafności można znaleźć u Aronsona i in., Experimentation in Social Psychology.
237
badawczego i planu badawczego. Gdy celem badań jest eksperymentalne sprawdzenie
hipotezy badawczej, jednostki obserwacji są wyraźnie definiowalne. Sytuacja badawcza jest
ustalona — laboratorium lub badania w terenie. Czas obserwacji zo-1 staje określony, a
dokonywane obserwacje są systematycznie rejestrowane. Zastosowane procedury powinny
wymagać tylko tyle interpretacji, ile to niezbędne. Przykładem takiej procedury jest
obserwacja kontrolowana. Rejestrując i kategoryzując dokonane obserwacje, badacze stosują
metodę triangulacji, tj. posługują siei dwiema lub więcej metodami zbierania danych
dotyczących tego samego zjawiska, I aby zwiększyć trafność otrzymanych wyników.
4. Użytecznym rozróżnieniem jest podział na realizm eksperymentalny — stopień, w
jakim sytuacja eksperymentalna jest traktowana przez osoby badane jako rzeczywista, oraz
realizm życiowy — stopień podobieństwa sytuacji eksperymen-1 talnej do świata
rzeczywistego. W badaniach eksperymentalnych możemy się spot-1 kać z systematyczną
stronniczością, która może być wynikiem wskazówek sugeni- j jących, stronniczości
eksperymentatora lub artefaktów pomiarowych.
5. Eksperyment terenowy jest wyzwaniem dla badaczy ze względu na trudności j
związane z kontrolowaniem sytuacji eksperymentalnej (środowiska naturalnego| doborem
osób badanych i manipulowaniem zmienną niezależną. Podstawow problemem są
zagadnienia natury etycznej, jako że osoby badane nie są świadom tego, że biorą udział w
eksperymencie.
Podstawowe terminy
artefakty pomiarowe 234 czasowy terminarz 227 eksperyment terenowy 235
losowanie jednostek 227 obserwacja kontrolowana 230 obserwacja nie kontrolowana 230
realizm eksperymentalny 232 realizm życiowy 232
stronniczość eksperymentatora 233 triangulacja 222 wskazówki sugerujące 233
zachowania językowe 227 zachowania niewerbalne 225 zachowania parajęzykowe 226
zachowania przestrzenne 225
Pytania sprawdzajqce
1. Dlaczego badacze wybierają metodę triangulacji? Czy triangulacja jest ważniejsza
w kontrolowanej sytuacji badawczej czy w badaniach terenowych?!
2. Wymień różne cele badawcze i dostosuj do nich — właściwe twoim zdaniem —
formy obserwacji. Uzasadnij swój wybór.
3. Opisz podstawowe techniki określania czasu obserwacji i rejestrowania j wyników.
4. Omów zalety i wady eksperymentu laboratoryjnego i eksperymentu terem wego
jako sposobów na przeprowadzanie obserwacji.
5. Omów korzyści i wady eksperymentu terenowego.
238
I Literatura dodatkowa
AronsonE., Wilson T.D., Akert R.M. (1997), Psychologia społeczna. Serce i umysł,
Poznań: Zysk i S-ka
| Wyd.
Mayntz R.. Holm K., Hubner P. (1985), Wprowadzenie do metod socjologii
empirycznej, Warszawa: PWN.
OmeM.T. (1991), Eksperyment psychologiczny z punktu widzenia psychologii
społecznej ze szczególnym uwzględnieniem wpływu zmiennych sugerujących hipotezę i ich
implikacji, w: J. Brzeziński, J. Siuta (red.), Społeczny kontekst badań psychologicznych i
pedagogicznych. Wybór tekstów, Poznań: Wyd. Nauk. UAM.
OmeM.T. (1993), Komunikowanie się w sytuacji eksperymentalnej: dlaczego jest
istotne, jak jest oceniane i jakie ma znaczenie dla trafności ekologicznej, w: J. Brzeziński
(red.), Psychologiczne i psy-chometryczne problemy diagnostyki psychologicznej, Poznań:
Wyd. Nauk. UAM.
Rosemhal R. (1991), O społecznej psychologii samospetniającego się proroctwa.
Dalsze dane potwierdzające istnienie efektów Pigmaliona i mechanizmów pośredniczących w
ich występowaniu, w: I. Brzeziński, J. Siuta (red.), Społeczny kontekst badań
psychologicznych i pedagogicznych. Wybór tekstów, Poznań: Wyd. Nauk. UAM.
Rosemhal R. (1991), Oczekiwania interpersonalne. Skutki przyjętej przez badacza
hipotezy, w: J. Brzeziński, J. Siuta (red.), Społeczny kontekst badań psychologicznych i
pedagogicznych. Wybór tekstów, Poznań: Wyd. Nauk. UAM.
SzustrowaT. (red.) (1987), Swobodne techniki diagnostyczne. Wywiad i obserwacja,
Warszawa: Wyd. UW.
Rozdział 10
Badania sondażowe
Ankiety pocztowe 242
Zalety ankiety pocztowej 242 Wady ankiety pocztowej 242 Czynniki wpływające na
odsetek odpowiedzi w badaniach
pocztowych 244 Ocena odsetka odpowiedzi 248
Wywiad osobisty 249
Wywiad według ustrukturowanego planu 249 Wywiad zogniskowany 251 Wywiad
nieukierunkowany 251
Wywiad osobisty a ankieta pocztowa 254
Zalety wywiadu osobistego 254 Wady wywiadu osobistego 254
Zasady prowadzenia wywiadu 256
Sondowanie 257
Wywiad telefoniczny 258
Porównanie trzech metod prowadzenia badań sondażowych
Wnioski 262
Podsumowanie 263
Podstawowe terminy 264
Pytania sprawdzające 264
E-mail (poczta elektroniczna) staje się coraz popularniejszą metodą komunikowanm
się stron posiadających dostęp do komputera wyposażonego w modem. Informacje i
wiadomości przesyłane za pomocą poczty elektronicznej docierają do adresata wciągu kilku
minut zamiast dni, jak to się dzieje w wypadku konwencjonalnej poczty, a jej użytkownicy
mogą — po rozsądnych kosztach — przesyłać ^ puk. o dużej objętości. Badacze szukający
nowych metod prowadzenia badan sondażowych mogą w najbliższym czasie potraktować e-
ma,l jako alternatywę dla tradycyjnej poczty i telefonicznych badań sondażowych. Profesor
Samuel Brown z uniwersytetu w Fordham przeanalizował możliwości wykorzystania e-mailu
jako metody zbierania danych w badaniach sondażowych . Wystał, przyjąwszy przybrane
nazwisko i przedstawiając się jako student poszukujący informacji dla potrzeb pracy
seminaryjnej, wiadomość skierowaną do 150 subskrybentów e-ma.lowych mieszkających w
Abilene, w stanie Teksas. I chociaż wybrał Abilene po prostu dlatego, że miasto to
znajdowało się na czele alfabetycznej listy miast, to Brown opisał je jako miasto „idealne i
poprosił jego mieszkańców o wyrażenie opinii na jego temat. Brown był nieco zaskoczony
reakcją na przesłaną przez siebie wiadomość. Niektórzy z potencjalnych respondentów
skontaktowali się bowiem z lokalną gazetą, aby przekazać informację, ze Abilene zostało
uznane za idealne miasto. Kiedy gazeta sprawdziła wiarygodność badacza, okazało się, że taki
student w ogóle nie istnieje i Brown został rozszyfrowany. Brown ogłosił, że - tak czy inaczej
- otrzymał JU odpowiedzi na postawione pytanie i ma zamiar namówić swoich studentów
socjologii do przeprowadzenia e-mailowych badań sondażowych.
W tym rozdziale omówimy zalety i wady tradycyjnych metod przeprowadzania badań
sondażowych. Po przeczytaniu tego rozdziału czytelnik powinien przeanalizować zalety i
wady poczty elektronicznej jako metody zbierania danych.
?D adacze prowadzący badania w ramach nauk społecznych mogą wykorzystać D
którąś spośród trzech metod zbierania danych sondażowych: ankietę pocztową, wywiad
bezpośredni i wywiad telefoniczny. W tym rozdziale przeanalizujemy działania, jakie należy
podjąć, prowadząc trzy różne rodzaje badan sondażowych oraz omówimy zalety i wady
każdego z nich. Zakończymy porównaniem tych metod
Zbieranie danych za pomocą metody obserwacji jest możliwe wówczas kiedy badane
zjawisko jest bezpośrednio obserwowalne. Nie wszystkie zjawiska jednak można
bezpośrednio obserwować: bardzo często badacze muszą zbierać dane, pytając ludzi
mających określone doświadczenia o odtworzenie tych doświadczeń. Fa-miętając o
ograniczeniach budżetu i możliwościach zespołu badawczego, badacz musi określić metodę
zbierania danych, która dostarczy mu możliwie pełnych, odpowiedzi udzielonych przez
osoby, w stosunku do których można założyć, ze mają interesujące nas doświadczenia.
Odpowiedzi tworzą zbiór danych wykorzystywanych jako podstawa weryfikowania hipotez
badawczych.
' Richard Perez-Pena (1994), ProfessorS Plan Blackfires: E-Mail Project Was Hoax,
„New York Times". Juty 11, s. B2.
241
¦ Ankiety pocztowe
Ankieta pocztowa jest metodą zbierania danych bez pośrednictwa ankietera. W
pewnych warunkach i dla określonych celów badawczych może się ona okazać użyteczna. Jak
w przypadku każdej metody ankieta pocztowa ma i wady. i zalety.
Zalety ankiety pocztowej
1. Niski koszt. Ekonomia jest jedną z najbardziej oczywistych zalet ankiet poj
cztowych. Ankieta pocztowa nie wymaga bowiem wyszkolonego zespołu ankieterów. Jej
koszty ograniczają się do kosztów planowania, doboru próby, powielania. wysyłania i
dostarczenia kopert zwrotnych opatrzonych znaczkiem pocztowym, Przetwarzanie i
analizowanie danych jest również zazwyczaj łatwiejsze i tańsze niż w innych metodach
stosowanych w badaniach sondażowych. Niższe koszty badań za pomocą ankiety pocztowej
są szczególnie wyraźne wtedy, gdy badana populacja jest rozproszona na dużym obszarze
geograficznym. W takich warunkach koszty i przeprowadzenia wywiadów bezpośrednich
byłyby wygórowane, a ankieta pocztowa wydaje się tu jedynym rozsądnym rozwiązaniem.
2. Obniżenie błędu stronniczości. Posługiwanie się ankietą pocztową obniża błąd
stronniczości, którego źródłem mogą być indywidualne cechy ankieterfł i zróżnicowanie ich
umiejętności. Sytuacja wywiadu bezpośredniego jest najeżona niebezpieczeństwami
stronniczego zbierania danych, wynikającego z charakteru™ terakcji pomiędzy ankieterem i
respondentem. Można uniknąć tych pułapek, stosfl jąc właśnie ankietę pocztową.
3. Większa anonimowość. Nieobecność ankietera również przyczynia się dd
zwiększenia poczucia przez respondenta anonimowości. Gwarancja anonimowo™ jaką daje
ankieta pocztowa, jest szczególnie ważna, gdy pytania sondażowe dotm kwestii drażliwych,
takich jak na przykład zachowania seksualne czy molestował dzieci. Badane osoby chętniej
odpowiadają na pytania drażliwe, gdy nie musząpł rżeć w oczy ankieterowi czy bezpośrednio
komuś odpowiadać.
4. Udzielanie przemyślanych odpowiedzi i możliwość konsultacji. Ankieta! pocztowa
jest również preferowaną metodą zbierania danych wtedy, gdy udzielona I odpowiedź
powinna być raczej przemyślana (a nie natychmiastowa) lub gdy udzfl lenie odpowiedzi
wymaga odwołania się do dokumentów osobistych lub przep™ wadzenia konsultacji z
innymi osobami.
5. Dostępność. Ankieta pocztowa umożliwia przeprowadzenie badań na szerokim
obszarze geograficznym po minimalnych kosztach. Kiedy badania sondażoł wymagają
zbadania populacji rozproszonej na dużym obszarze geograficzny™ przeprowadzenie
wywiadu osobistego wymagałoby wysokich opłat za koszty fH droży i pochłonęłoby dużo
czasu.
Wady ankiety pocztowej
1. Wymaga prostych pytań. Badacze mogą stosować ankietę pocztową jtll narzędzie
zbierania danych jedynie wtedy, gdy pytania są na tyle prosto formulB wane, że mogą być
zrozumiane jedynie na podstawie wydrukowanej instrukcji i ofl jaśnień.
2. Brak możliwości sondowania. Odpowiedzi muszą być traktowane jako I
ostateczne. Badacz nie ma żadnej możliwości sondowania osoby badanej, zanial
242
*
me padnie ostateczna odpowiedź, wyjaśniania odpowiedzi niejasnych czy oceny
zachowania niewerbalnego.
3. Utrata kontroli nad tym, kto udziela odpowiedzi. Badacz nie ma możliwości
kontrolowania środowiska respondenta. Stąd nie może być pewny, że ankietę wypełniała
właściwa osoba. Ankietę mógł bowiem wypełnić ktoś inny niż wytypowany respondent.
4. Niski odsetek odpowiedzi. Ostatnią wadą ankiet pocztowych — i prawdopodobnie
najpoważniejszym problemem —jest trudność w uzyskaniu odpowiednio wysokiego odsetka
odpowiedzi. Odsetek odpowiedzi to procent respondentów w próbie, którzy zwrócili
wypełnione ankiety. W wypadku wielu badań pocztowych uzyskany odsetek odpowiedzi jest
znacznie niższy niż przy wywiadach osobistych. Typowy odsetek odpowiedzi w wywiadach
osobistych wynosi około 95%, podczas gdy w badaniach pocztowych waha się w granicach
od 20 do 40%. Badacze, którzy posługują się ankietą pocztową, muszą niemal zawsze
zmierzyć się zproblemem oszacowania wpływu braku odpowiedzi na końcowe wyniki.
(Odsetek odpowiedzi odgrywa istotną rolę wtedy, kiedy chcemy uogólniać wyniki — por.
rozdział 19). Osoby, które nie udzieliły odpowiedzi, są zazwyczaj inne niż osoby udzielające
odpowiedzi. Często są to osoby gorzej wykształcone, mające kłopoty ze zrozumieniem pytań,
osoby starsze, nie potrafiące sformułować odpowiedzi lub osoby bardzo ruchliwe, które
trudno jest zlokalizować. Tym samym grupa respondentów nie jest dobrą reprezentacją
zdefiniowanej wyjściowo przez badacza populacji. Jest to z całą pewnością źródłem
stronniczości badania.
Zalety i wady ankiety pocztowej
Zalety
¦ Niskie koszty w porównaniu z innymi metodami.
¦ Obniżenie błędu wynikającego ze stronniczego wpływu cech ankietera lub
stosowanych przez niego technik.
¦ Ankiety zapewniają respondentom wysoki stopień anonimowości. Jest to szczególnie
ważne w wypadku pytań dotyczących drażliwych tematów.
¦ Respondenci mają czas, aby się zastanowić nad odpowiedzią i odwołać do innych
źródeł.
¦ Ankiety pozwalają na zbadanie, po niskich kosztach, prób osób rozproszonych na
dużym obszarze geograficznym.
Wady
¦ Ankieta wymaga prostych, łatwo zrozumiałych pytań i czytelnych instrukcji.
¦ Ankieta nie zapewnia badaczom możliwości sondowania respondentów, aby uzyskać
dodatkowe informacje lub wyjaśnić odpowiedź.
¦ Badacze nie mogą kontrolować, kto wypełnia ankietę.
¦ Odsetek odpowiedzi jest niski.
243
Czynniki wpływające na odsetek odpowiedzi w badaniach pocztowych
Badacze stosują liczne strategie pozwalające przezwyciężyć trudności w zapewnie-H
niu sobie odpowiedniego odsetka odpowiedzi w ankietach pocztowych, a także po-1
zwalające zwiększyć odsetek odpowiedzi.
Sponsoring. Sponsorowanie badań ankietowych wywiera istotny wpływ na respon-1
dentów, często motywując ich do wypełnienia ankiety. Dlatego badacze powinni I umieszczać
informacje o sponsorze, najlepiej w postaci listu dołączonego do ankiet™ Sponsorowanie
wpływa na odsetek odpowiedzi, gdyż przekonuje respondentów o\(m galnosci badań i ich
wartości oraz wpływa na spostrzegane przez nich sankcje z pol wodu nieudzielenia
odpowiedzi. I tak na przykład w USA Bureau of the Censi« (Główny Urząd Statystyczny)
odnotował aż 95% odpowiedzi w badaniach dotyczjł cych zdrowia Amerykanów (National
Health Interview Survey), gdyż badania te byljfl sponsorowane przez rząd — co
gwarantowało legalność i sugerowało sankcje -a sam problem zdrowia jest ważny dla opinii
publicznej. Z drugiej strony można wskazać na badania, w których odsetek odpowiedzi nie
przekraczał 5c/c2. Generalnie rzecz biorąc, ankiety sponsorowane przez rząd dają znacznie
większy odsetek odpowiedzi niż ankiety rozsyłane przez mało znane organizacje handlowe.
Zachęcanie do odpowiadania. Badacze, którzy wykorzystują ankietę pocztowi muszą
przekonywać respondentów, że powinni oni uczestniczyć w badaniach przez wypełnienie
ankiety i jej zwrot. Można zastosować kilka metod. Metody te różnią się stopniem
skuteczności. Jedną z nich jest odwoływanie się do dobrej woli li spondentów i informowanie,
że badacz potrzebuje ich pomocy. Na przykład studeł prowadzący badania do pracy
seminaryjnej może wspomnieć, że jego stopień zależy od odpowiedzi udzielonych w
ankiecie3.
Inną, szeroko stosowaną metodą jest oferowanie respondentom nagrody w postał ci
upominku lub pewnej kwoty pieniędzy. Oferując pieniądze, można jednak spotj kać się z
oburzeniem ze strony niektórych respondentów, którzy mogą sądzić, a ich czas jest tak mało
wart dla badacza, iż mogą w ogóle nie udzielić odpowiedzij Najczęściej jednak respondenci
traktują nagrodę jako symboliczny gest i wspótpnj cują, ponieważ uważają, że badanie jest
tego warte.
Jeszcze inną zachętą jest dołączanie do ankiety listu od profesjonalnych instytucja w
którym popierają one prowadzone badania, a także zamieszczanie ogłoszeń o puN likacji
wyników badań w profesjonalnych wydawnictwach. Jednakże najbardziej skul teczną
strategią jest —jak się wydaje — odwoływanie się do altruistycznych postał respondentów i
przekonywanie ich o znaczeniu prowadzonych badań. Poniżej zamiej szczamy przykład listu,
który został dołączony do ankiety i w którym jego autaj podkreślał wagę badań i potencjalny
wkład respondenta do ich powodzenia:
Jak Państwo wiedzą, przyjmowanie do pracy w służbach publicznych jest jednym z
elementów strategii władz federalnych, stanowych i lokalnych; strategii,
Floyd J. Fowler, Jr. (1989), Suryey Research Methods, Newbury Park, Calif.: Sagę, s.
4 Kenneth D. Bailey (1987), Methods of Social Research, New York: Free Press, s. 156.
Ibidem, s. 157.
244
której celem jest rozwiązanie problemu zatrudnienia i dochodów osób bezrobotnych,
znajdujących się w ekonomicznie niekorzystnej sytuacji. Nie ma wątpliwości, że taki program
powinien być wdrożony w całym kraju [...] Prawdopodobnie są Państwo również świadomi
tego, że program przyjmowania do pracy w służbach publicznych budzi kontrowersje i że
jego dalsze losy są zagrożone. Jedną z przyczyn, dla których program ten okazał się tak
kontrowersyjny, jest brak systematycznych badań nad jego korzyściami, zarówno dla
konkretnych osób, jak i dla społeczeństwa.
Ze względu na to, że taka ocena ma ogromne znaczenie dla Państwa, zwracam się z
prośbą, aby poświęcili Państwo tej ankiecie należytą uwagę i z góry dziękuję za współpracę5.
Wygląd ankiety i sposoby jej wysyłania. Projektowanie ankiety pocztowej wymaga
podjęcia wielu decyzji dotyczących rodzaju druku, koloru, długości oraz rodzaju listu
towarzyszącego. Większe nakłady poświęcone na wygląd ankiety i rodzaj druku Inp. papier
wysokiej jakości) zwrócą się w postaci wyższego odsetka odpowiedzi. Nie zaleca się
stosowania nietypowej kolorystyki, ponieważ może to wywołać negatywny efekt6.
List towarzyszący. Kolejnym czynnikiem, jaki należy wziąć pod uwagę przy
projektowaniu ankiety, jest list towarzyszący. List towarzyszący musi odnieść pożądany
skutek w przekonywaniu respondentów, że powinni wypełnić ankietę i ją odesłać. Powinien
zatem zawierać dane identyfikujące sponsora, wyjaśnić cel badań, przekonać respondenta do
powodów, dla których powinien wypełnić ankietę oraz zapewnić goocałkowitej
anonimowości zebranych danych. Badacz wybiera list formalny lub osobisty. Badania
wykazały, że osobista forma listu przyczynia się do uzyskania większego odsetka odpowiedzi,
niż obserwuje się to w przypadku listu formalnego.
Sposób wysyłania. Ważna jest decyzja dotycząca sposobu wysłania ankiety. Ankiety,
do których nie dołączono kopert zwrotnych, wracają bardzo rzadko.Trudno bowiem
oczekiwać od respondenta, że nie tylko wypełni ankietę, ale jeszcze znajdzie kopertę i pójdzie
na pocztę, aby kupić i nakleić na niego znaczek. Dlatego rutynowo dołącza się do ankiety
własnoręcznie zaadresowaną kopertę z naklejonym znaczkiem. (Koperta wyglądająca jak
oficjalne pismo urzędowe zmniejsza odsetek odpowiedzi).
Czas wysyłania. Czas wysyłania okazał się również czynnikiem wpływającym na
odsetek odpowiedzi. I tak na przykład, ponieważ latem i w okresie wakacyjnym odsetek
odpowiedzi jest mniejszy, nie zaleca się wysyłania ankiet w tym czasie.
Metoda kompletnego planu. Ostatnio badacze zwiększają ilość zebranych danych w
badaniach pocztowych, stosując tzw. metodę kompletnego planu (TDM — total design
method). Jest to zbiór wystandaryzowanych, kolejno realizo-
Mickey L. Burnim (1978), An Evaluation of the Public Sernice Employment Projects
in Florida Created under Tille VI of the Comprehensive Employment and Training Act of
1973, Tallahassee: Florida Department of Community Affairs, s. 164.
'Pamela L. Arleck, Robert B. Settle (1985), The Survey Research Handbook,
Homewood. 111.: Irwin.
245
wanych procedur7, które można podzielić na dwie grupy: konstruowanie kwestio-1
nariusza i wdrażanie badania.
Zasady obowiązujące przy konstruowaniu kwestionariuszy metodą TDM don czą
zwracania szczególnej uwagi na takie szczegóły, jak: wygląd zewnętrzny kol perty
zawierającej ankietę, wygląd pierwszej strony ankiety, porządek pytań. Bada-1 cze stosujący
metodę TDM starają się uczynić wszystko, aby koperta zawierającB ankietę wyróżniała się
spośród poczty „śmieciowej" (reklamowej).
Procedura TDM dotycząca wdrażania badania polega przede wszystkim na prm
pominaniu. Najbardziej popularną metodą przypominania jest wysyłanie przypS minającej
pocztówki do tych respondentów, którzy nie odpowiedzieli w ciągu pieni I szego tygodnia po
wysłaniu ankiety. Następnie, pod koniec trzeciego tygodni I wysyła się drugi list
przypominający i nowy egzemplarz ankiety wraz z kopertą zwid ną. Po siedmiu tygodniach
do wszystkich respondentów, którzy się jeszcze nie zwali, można wysłać kolejny list —
najlepiej polecony — z nowym egzempl ankiety.
Skuteczność metody przypominania przetestowano na dużej próbie, reprezen tywnej
dla populacji czterech stanów. W tabeli 10.1 przedstawiono średnie i skumulowane odsetki
odpowiedzi otrzymane na końcu każdego etapu procedury pi pominania. Otrzymane wyniki
wskazują na istotność procedury wieloetapow przypominania. Widać wyraźnie, że każdy
kolejny etap — przy bardzo racjo nym rozłożeniu kosztów — zwiększa istotnie odsetek
odpowiedzi. Kartki poc we, najtańszy sposób przypominania, są wysyłane do największej
liczby osób.I' polecone, najdroższy sposób wysyłki, są rozsyłane do najmniejszej liczby o I
rzeczywiście „dysponując rozbudowaną metodologią badań pocztowych, pozwala w sposób
stały zapewnić sobie wysoki odsetek odpowiedzi, niewielką li bę zwrotów można wyjaśnić
tylko tak, jak się wyjaśnia nieadekwatny wybór czy wybór złej statystyki"8. Ostatnio pojawiły
się też dane na temat specyficzn znaczenia korzystania z listów poleconych9. Konieczność
podpisania dowodu d czenia przesyłki może być odbierana przez respondentów jako forma
przym a gdy respondent musi pójść na pocztę, aby odebrać ankietę, jego koszty cz~" i
pieniężne mogą być jeszcze większe. Dlatego jako alternatywną formę prz mnienia można
zastosować przypomnienie telefoniczne, które tak samo skutec zmniejsza liczbę braku
odpowiedzi jak list polecony.
Chociaż metoda przypominania jest ważnym mechanizmem zwiększania odpowiedzi,
stwarza jednak wiele problemów. Po pierwsze, ponieważ listy p minające i ankiety wysyła się
jedynie do tych respondentów, którzy nie odpo dzieli, trzeba zidentyfikować wszystkich
respondentów, a zatem anonimowość dania nie może być zachowana. Można obejść tę
trudność, zapewniając respo tów, że ich odpowiedzi będą ściśle poufne. Innym ograniczeniem
jest to, że
7 Donald A. Dillman (1983), Mail and Other Self-administered Questionnaires, w:
Peter H. James D. Wright, Andy B. Anderson (red.), Handbook of Sumey Research, Orlando,
Ha.: A Press; Anton J. Nederhof (1988), Effects of a Finał Telephone Reminder and
Questionnaire Co sign in Mail Sumey s, „Social Science Research", 17, s. 353-361.
8 Donald A. Dillman, James A. Christensen, Edward H. Carpenter, Ralph M. Brooks
(197 creasing Mail Questionnaire Response: A Four-State Comparison, „American
Sociological R 39, s. 755.
9 Nederhof, Effects, s. 354.
246
wiedzi otrzymywane po kolejnych przypomnieniach są gorszej jakości. Istnieje duże
prawdopodobieństwo, że osoby, które nie odpowiedziały za pierwszym razem, mogą podejść
do badania mniej poważnie i zwrócić niekompletnie wypełnioną ankietę, czy też ich
odpowiedzi mogą być nierzetelne. Można oszacować to źródło bledu. porównując odpowiedzi
osób, które odpowiedziały natychmiast., z odpowiedziami osób, które zwróciły ankietę po
jednym lub po kilku kolejnych przypomnieniach1".
Tabela 10.1. Średnie i skumulowane odsetki odpowiedzi otrzymane po czterech turach
wysyłki
kwestionariusza
Wysyłka
Czas
Średni Skumulowany
odsetek odsetek
odpowiedzi odpowiedzi
[%] [*]
23,8 23,8
18,2 42,0
17,0 59,0
13,4 72,4
1. Pierwsza wysyłka tydzień 1
-.Przypomnienie za pomocą kartki pocztowej tydzień 2
3. Pierwsza powtórna wysyłka kwestionariusza tydzień 3
4. Druga powtórna wysyłka kwestionariusza tydzień 7
Napodstawie pracy Donalda A. Dillmana. Jamesa A. Chrislensena, Edwarda H.
Carpentera. Ralpha M. Brooksa (1974), lncreasing Mail ifitilionnaire Response: A Four-State
Comparison, „American Sociological Review", 39, s. 755; oraz pracy Donalda A. Dillmana,
D.E. M(x>rj 11983). lmpro\inf> Response Ratę to Mail Suneys: Results from Five Surveys,
przedstawionej na zjeździe American Association tor Public Opinion Research, Hershey. Pa.
Dobór respondentów. Dobór respondentów jest w dużej mierze wyznaczony naturą
badania i charakterystycznymi cechami populacji. Badacz, chcąc zwiększyć odsetek
odpowiedzi, dobierając respondentów, nie może zrobić wiele więcej, jak zdefiniować
populację. Pewne cechy przyszłych respondentów są jednak powiązane z niskim odsetkiem
odpowiedzi. Pamiętając o tym, można jednak zdecydować, czy w ogóle warto rozpoczynać
badania za pomocą ankiet pocztowych, czy też warto zastosować inne techniki zwiększające
odsetek odpowiedzi. Najbardziej istotnym parametrem, jaki badacz powinien wziąć pod
uwagę przy doborze respondentów, jest homogeniczność lub heterogeniczność badanej grupy.
Grupa heterogeniczna składa się z osób, które różnią się między sobą w określony sposób, co
może wpłynąć na badane zjawisko. Na przykład grupa heterogeniczna może się składać z
osób o różnym pochodzeniu etnicznym, różnej rasie, dochodach czy mieszkających na
obszarach miejskich lub wiejskich. Grupy homogeniczne natomiast składają się z osób o
podobnych cechach. Grupy heterogeniczne są zazwyczaj wykorzystywane w badaniach opinii
wyborczych, podczas gdy w badaniach bardziej wyspecjalizowanych ankiety kieruje się do
wybranych grup osób, na przykład lekarzy, prawników, pracowników administracji miejskiej,
profesorów uniwersytetów czy członków lokalnej izby handlowej. Uzyskany odsetek
odpowiedzi w grupach wyselekcjonowanych jest zazwyczaj wyższy niż dla populacji
generalnej ze względu na to, iż członkowie tych grup chętniej identyfikują się z celami badań
i dlatego chętniej udzielają odpowiedzi. Można wskazać także na inne cechy — oprócz
wymienione-
1 Fowler, Survey Research Methods, s. 54.
247
go wyżej podziału — związane z różnicami w odsetkach odpowiedzi. Respondenci
lepiej wykształceni częściej wypełniają i odsyłają ankiety. Zainteresowanie cza znajomość
tematyki badań jest inną ważną cechą determinującą odsetek zwrotów. I wreszcie,
wyspecjalizowani fachowcy to osoby odpowiadające znacznie częściej w porównaniu z
przedstawicielami innych grup zawodowych.
W tabeli 10.2 uporządkowaliśmy omówione do tej pory procedury ze względni na ich
skuteczność w zwiększaniu odsetka odpowiedzi. Odpowiednie rangi zostaB ustalone na
podstawie wyników wielu badań, w których analizowano potencjał wzrost ogólnej liczby
zwróconych ankiet przy zastosowaniu wybranej procedury. Dla ostatnich trzech procedur nie
udało sie określić takich rang.
Tabela 10.2. Techniki zwiększania odsetka odpowiedzi
Ranga
Metoda (od najwyższej
do najniższej)
Przypominanie 1
Zachęcanie 2
Sponsorowanie 3
List wprowadzający 4
Metoda zwrotu —
Format —
Dobór respondentów —
Warunki optymalne
Więcej niż jedno przypomnienie. W procedurze prz
minania można wykorzystać telefon.
Ankiety zapewniające otrzymanie gratyfikacji pieni
dają lepsze wyniki niż ankiety nie zapewniające I
tyfikacji. Należy jednak wziąć pod uwagę badaną popul
i rodzaj ankiety.
Odwoływanie się do osób, których znają respondenci, i
najlepsze wyniki.
Odwoływanie się do postaw altruistycznych wydaje sied
najlepsze wyniki.
Zwyczajnie zaadresowana koperta z naklejonym i
daje lepsze rezultaty niż koperta wyglądająca jak <
pismo urzędowe.
Estetycznie wyglądająca strona tytułowa, tytuł wywol
zainteresowanie i atrakcyjny format kolejnych stron s
• Analfabeci powinni zostać wykluczeni z badań.
• Zainteresowanie lub znajomość tematu badań jest g nym czynnikiem
zwiększającym odsetek odpo*
• Im lepiej wykształcone są osoby badane, tym \ jest zwrot ankiet.
• Wyspecjalizowani fachowcy chętniej odsyłają a
Na podstawie: Delbert C. Miller (1991), Handbook of Research Design and Social
Measurement, wyd. 5, Newbury Park. Calif.:! Pamela L. Alreck, Robert B. Settle (1985), The
Survey Research Handbook, Homewood, III.: Irwin; Francis J, Yammarino, Siei Skinner,
Terry L. Childers (1991), Understanding Mail Survey Response Behayior: A Meta-Analysis,
„Public Opinion Ouarterly",! s. 613-639.
Ocena odsetka odpowiedzi
Jaki odsetek odpowiedzi można zaakceptować w badaniach za pomocą ankie cztowej?
Większość badaczy stara się zwiększyć odsetek odpowiedzi poprzez ? korzystywanie jednej
lub wszystkich strategii wyżej omówionych. Jednak mirt wysiłków w badaniach pocztowych
na ogół nie przekracza się progu 50% oti nych ankiet. Brak odpowiedzi jest tu poważnym
problemem, jako że osoby i
248
. powiadające różnią się w sposób istotny od osób, które udzieliły odpowiedzi.
Wykazano na przykład, że ankiety pocztowe adresowane do populacji generalnej sprzyjają
błędnemu zawyżaniu poziomu wykształcenia: osoby lepiej wykształcone szybciej
odpowiadają na ankiety pocztowe". Tym samym błąd wynikający z braku odpowiedzi może
ograniczyć możliwości uogólniania wniosków na całą populację.
Napytanie dotyczące tego, jaki jest akceptowalny odsetek odpowiedzi, nie daje się
tatwo odpowiedzieć, ponieważ naukowcy nie zgadzają się co do wielkości standardowego,
minimalnego odsetka odpowiedzi. Na przykład w badaniach sondażowych zleconych przez
władze federalne oczekuje się odsetka odpowiedzi większego niż 15%. I podczas gdy
organizacje akademickie zajmujące się badaniami sondażowymi uzyskują zazwyczaj taki
odsetek odpowiedzi, większość nieznanych organizacji uzyskuje znacznie mniejszy procent
zwrotów.
Na koniec warto podkreślić, że istnieją dane świadczące o tym, iż można poprawić
odsetek odpowiedzi, zwiększając standaryzację procedury przypominania12.
Badania sondażowe stały się ostatnio szeroko wykorzystywanym sposobem
prowadzenia badań nie tylko przez organizacje badawcze czy marketingowe, ale też przez
wtadze państwowe i lokalne. Niektórzy mieszkańcy, chociaż przekonani o istotności celu
badań, mogą się znaleźć w sytuacji, w której muszą zadecydować, jakie i ile ankiet spośród
tych, które otrzymują w ciągu roku, zasługuje na odpowiedź. Satyryczny przykład ankiety
przedstawiony w przykładzie 10.1 jest próbą uwrażliwienia osób, które nurtuje ten problem.
¦ Wywiad osobisty
Wywiad osobisty to sytuacja bezpośredniej relacji interpersonalnej, w której osoba
prowadząca wywiad zadaje respondentowi pytania opracowane w taki sposób, aby udzielone
odpowiedzi pozostawały w związku z hipotezą badawczą. Pytania, sposób ich formułowania i
ich kolejność to struktura kwestionariusza.
Wywiad według ustrukturowanego planu
Najmniej elastyczną formą wywiadu osobistego jest wywiad według
ustrukturowanego planu. W wywiadach prowadzonych według planu liczba zadawanych
pytań oraz sposób ich formułowania są identyczne dla wszystkich respondentów. Osoba
prowadząca wywiad nie powinna zatem przeformułowywać pytań czy wyjaśniać, czego one
dotyczą, gdy respondent prosi o wskazówki. W wywiadzie ustruk-turowanym zaś każdego
ankietera obowiązuje ta sama kolejność zadawania pytań. W wywiadzie prowadzonym
według ustrukturowanego planu łączy się oba te elementy. Badacze posługują się wywiadem
prowadzonym według ustrukturowanego planu wtedy, gdy chcą mieć pewność, że
zróżnicowanie odpowiedzi można przypisać rzeczywistym różnicom pomiędzy
respondentami a nie różnicom między ankieterami. Metoda ta pozwala na zmniejszenie
ryzyka uzależnionego od sposobu formułowania pytań. Wywiad prowadzony według
ustrukturowanego planu oparty |<jeśt na trzech podstawowych założeniach:
---------—
" Ibidem, s. 355-356.
11 Nederhof, Effects, s. 356.
249
Przykład 10.1
Ankieta dla ankietujących
Drodzy ankietujący
Na pewno zdajecie sobie sprawę z tego, że liczba krążących ankiet wyraźnie rośnie,
podczas gdy długość dnia pracy, w najlepszym razie, pozostaje stała. Aby rozwiązać ten
problem, nie widzę innej możliwości, jak ograniczyć się tylko do tych ankiet, których autorzy
najpierw określą bona fide własne zamiaiy, wypełniając załączoną ankietę.
1. Ile ankiet rocznie Pan/i rozprowadza?
____
2. Ile ankiet rocznie Pan/i otrzymuje?
____
3. Na jaki procent otrzymanych ankiet Pan/i odpowiada?
____
4. Jaki procent rozprowadzonych przez Pana/ią ankiet wraca?
____
5. Czy zdaniem Pana/i stosunek frakcji 3:4 powinien być większy niż 1, mniejszy niż
1 czy też wynosić jakąś inną wartość?
(Proszę wyjaśnić dlaczego).
____
6. Ile czasu Pan/i poświęca na:
a) opracowywanie ankiet? ____
b) wypełnianie ankiet? ____
c) ocenianie odpowiedzi na własne ankiety?
d) ocenianie odpowiedzi na ankiety innych osób?
e) wyprowadzanie wniosków z danych ankietowych?
f) inne działania? (a+b+c+d+f powinno się równać 100%. Jeżeli tak nie jest, proszę
wyjaśnić dlaczego)
7. Czy Pana/i zdaniem stosunek (a+b+c+d)/f jest:
a) zbyt mały?
b) zbyt duży?
c) inna odpowiedź (proszę wybrać tylko jedną możliwość).
8. Czy kiedykolwiek wysyłał(a) Pan/i ankiety wyłącznie do tych osób, o których Pan/i
wie, że wysyłają ankiety?
9. Czy oczekuje Pan/i, że osoby, które same rozprowadzają ankiety o ankietach,
wypełnią ankietę?
10. Czy Pana/i zdaniem warto rozprowadzić ankietę — biorąc pod uwagę odpowiedzi
udzielone w ankiecie — do tych osób, które otrzymują ankiety dotyczące rozprowadzania
ankiet?
Tak ______
Nie ______ (proszę wybrać tylko jedną możliwość).
Inna odpowiedź? Proszę wyjaśnić.
Wypełniona ankieta musi zostać podpisana. Jak się Państwo domyślają, nie jest ona
sensowna i nie stanie wykorzystana do celów statystycznych.
Na podstawie: Samuel Devons (1975), A Questionnaire for Questioners. „Public
Opinion Quarterly", 39, s. 255-256.
250
1. Można przyjąć, że w przypadku każdego celu badawczego „respondenci posługują
się wystarczająco podobnym słownictwem, co pozwala na formułowanie pytań mających
takie samo znaczenie dla każdego z nich"13.
2. Wszystkie pytania można sformułować w takiej postaci, która jest jednakowo
czytelna dla wszystkich respondentów.
3. „Jeżeli znaczenie każdego pytania ma być identyczne dla wszystkich
respondentów, to również identyczny musi być ich kontekst, a ponieważ wszystkie
wcześniejsze pytania tworzą częściowo ten kontekst, to kolejność pytań musi być
identyczna"14.
Wywiad zogniskowany
Drugim podstawowym rodzajem wywiadu osobistego jest wywiad prowadzony
według planu, czyli inaczej wywiad zogniskowany. Ten rodzaj wywiadu ma cztery
cechy charakterystyczne15:
1. Odbywa się z udziałem tych respondentów, o których wiadomo, że mają określone
doświadczenia.
2. Odwołuje się do sytuacji, które były analizowane przed rozpoczęciem wywiadu.
3. Przeprowadzany jest zgodnie z planem, który określa tematy istotne z punktu
widzenia hipotezy badawczej.
4. Skupia się na tych doświadczeniach badanych osób, które dotyczą badanej
sytuacji.
Chociaż spotkanie ankietera i respondenta ma charakter ustrukturowany, a
podstawowe cele badania zostają omówione, respondentom zostawia się dużą swobodę w
określaniu własnej definicji sytuacji, która jest im prezentowana. Stacey Oliker, badając
przyjaźnie i małżeństwa kobiet, posłużyła się metodą wywiadu zogniskowanego, który okazał
się „na tyle swobodny, że pozwolił na nagłą zmianę kierunków rozmowy, i na tyle
standaryzowany, że pozwolił uchwycić wyraźne wzorce"16. Wywiad zogniskowany
umożliwia otrzymywanie szczegółowych informacji o reakcjach badanych osób, o ich
konkretnych emocjach itp. Osoba przeprowadzająca wywiad, dokonując wcześniejszej
analizy sytuacji, jest świadoma i wrażliwa na brak spójności danych i pomijanie tych
informacji, które mogą być istotne z punktu widzenia problemu badawczego.
Wywiad nieukierunkowany
Najbardziej swobodną formą wywiadu osobistego jest wywiad nieustrukturowany
(swobodny), czyli wywiad nieukierunkowany. W tym wypadku badacz, stawiając
" Stephen Richardson, Barbara D. Dohrenwend, David Klein (1965), Interviewing: Its
Forms and Fmions, New York: Basic Books. s. 40.
; Ibidem, s. 43.
15 Robert K. Merton, Patricia L. Kendal (1946), The Focused lnterview, „American
Journal of So-¦D", 51, s. 541-557.
"Stacey J. Oliker (1989), Best Friends and Marriage, Berkeley: University of
California Press, s. xvi.
251
pytania, nie kieruje się wcześniej przygotowanym planem ani ich nie zadaje w
ustalonej kolejności. Zachęca natomiast osobę badaną (niekiedy lekko ją ukierunkowu- < jąc)
do swobodnego opisywania swoich doświadczeń, opisywania ważnych dla niej zdarzeń,
tworzenia własnej definicji sytuacji i do ujawniania istotnych opinii i pol staw. Osoba
prowadząca wywiad ma ogromną swobodę w wybieraniu różnych tematów rozmowy i
zadawaniu szczegółowych pytań w trakcie wywiadu. Badanie Eleanor Miller nad prostytucją
kobiet zostało oparte właśnie na wywiadzie nieukie-runkowanym17:
Siedemdziesiąt kobiet zgodziło się na nagranie prowadzonych ze mną rozmów na
temat ich życia. Szczególną uwagę zwracałam na moment inicjacji i późniejsze ich życie jako
ulicznych prostytutek. Chociaż w każdym wywiadzie pojawiły się te same, szeroko
definiowane zagadnienia, to wiele moich pytań zmieniało się w każdej rozmowie. Oryginalne
wersje wywiadów były przeze mnie wielokrotnie przesłuchiwane. Efektem tych
wielogodzinnych przesłuchań było sformułowanie próbnych hipotez i określenie istotnych
kategorii zachowania Podczas kolejnych wywiadów [...] zadawałam już pytania mające na
celu przetestowanie moich wstępnych hipotez18.
Przykład 10.2
Wywiad prowadzony według ustrukturowanego planu
Instrukcja, jaką należy przekazać respondentowi: Jesteśmy zainteresowani tym, jakie
problemy mają dzisiejsze nastolatki w kontaktach ze swoimi rodzicami. Chcielibyśmy się
dowiedzieć, jak częste są konflikt)' nastolatków z rodzicami i jakiego typu są to konflikty.
Mam listę sytuacji, jakie czasami mogą się wydarzyć Weź pod uwagę własną sytuację i
zaznacz, jakiego typu konflikty przydarzyły się tobie i jak często występowały. Upewnij się,
że wypełnileś(łaś) każdy wiersz tabeli. Jeżeli w twoim przypadku wymieniony w I konflikt
nigdy nie zaistanial, to postaw odpowiedni znak w kolumnie oznaczonej jako „nigdy".
(Należy wręczyć respondentowi pierwszą kartę dotyczącą konfliktów związanych z
korzystaniem / samochodu, mówiąc: .Jeżeli czegoś nie rozumiesz lub chciałbyś(labyś) coś
jeszcze dodać o tym. jak bardzo nit zgadzasz się ze swoimi rodzicami na temat samochodu, to
daj mi znać, a porozmawiamy na ten temat później'1
SAMOCHÓD
Nigdy
Jedynie raz
Więcej Wiele niż raz razy
1. Chęć nauczenia się jazdy samochodem
2. Chęć zdobycia prawa jazdy
3. Chęć korzystania z rodzinnego samochodu
4. Zbyt częste korzystanie
5. Dbanie, aby samochód był czysty
6. Reperowanie samochodu
7. Prowadzenie cudzego samochodu
8. Chęć posiadania własnego samochodu
9. Sposób prowadzenia samochodu
10. Inne
17 Eleanor M. Miller (1986), Street Woman, Philadelphia: Tempie University Press.
18 Ibidem, s. 26.
252
¦
(Kiedy respondent zakończy wypełnianie wszystkich wierszy, należy mu wręczyć
kartę nr 2, mówiąc: „Tutaj ¦ z kolei jest lista konfliktów, jakie nastolatki mają ze swoimi
rodzicami na temat swoich przyjaciół tej samej płci. Postępuj tak samo jak w wypadku
poprzedniej listy").
mpaistawle pracy Raymonda L. Gordena (1980), lnlerviewing: Strategy, and Taetics,
wyd. 3, Homewood, 111.: Dorsey, s. 49-50.
Przykłady 10.2, 10.3 i 10.4 ilustrują różnice w stylu prowadzenia trzech rodzajów
wywiadu. Wszystkie trzy wywiady dotyczą tego samego problemu badawczego. Celem
badania jest ustalenie, jakiego typu konflikty zdarzają się pomiędzy rodzicami i ich
nastoletnimi dziećmi i związku zachodzącego pomiędzy tymi konfliktami a przestępstwami
popełnianymi przez młodocianych. Wywiady są prowadzone z dwiema grupami dzieci.
Pierwsza grupa składa się z nastolatków, którzy nie popełnili żadnego przestępstwa, druga zaś
z tych, o których wiadomo, że są młodocianymi przestępcami.
Przykład 103
Wywiad zogniskowany
Instrukcja dla prowadzącego wywiad: Twoje zadanie polega na ujawnieniu możliwie
wielu różnych typów tonfliktów i napięć, jakie mogą się zdarzyć pomiędzy dziećmi i ich
rodzicami. Im bardziej konkretnyi szczegółowy będzie opis każdego rodzaju konfliktu, tym
lepiej. I chociaż określiliśmy cztery obszary potencjalnych konfliktów, które chcielibyśmy
zbadać (wymienione niżej w pytaniu 3), to nie należy wspominać o żadnym konkretnym
obszarze przed zadaniem pierwszych dwóch pytań, w ustalonej tu kolejności. Pierwsze
pytanie nu charakter nieukierunkowany, co daje czas na zbudowanie odpowiedniej relacji z
respondentem.
1. Jakiego rodzaju problemy powstają pomiędzy nastolatkami a ich rodzicami?
(Dopuszczalne pytania pomocnicze: Czy zawsze dzieci zgadzają się ze swoimi rodzicami?
Czy któryś z twoich przyjaciół ma „problemy z rodzicami"?)
2. Jakiego rodzaju nieporozumienia zdarzają się między tobą a twoimi rodzicami?
(Dopuszczalne pytania pomocnicze: Czy jest to dla ciebie problem? W jaki sposób rodzice
próbują cię ograniczać? Czy twoi rodzice lubią to samo co ty?)
3. Czy kiedykolwiek nie zgadzałeś(łaś) się ze swoimi rodzicami na temat:
a) korzystania z rodzinnego samochodu?
b) przyjaciół tej samej płci?
c) chodzenia na randki?
d) palenia papierosów?
fc podstawie pracy Raymonda L. Gordena (1980). Interviewing: Strategy, Techniąues,
and Taetics, wyd. 3, Homewood, 111.: Dorsey, s. 48-49.
Przykład 10.4
Wywiad nieukierunkowany
Instrukcja dla osoby prowadzącej wywiad: Ustal rodzaje konfliktów, jakie mają
nastoletnie dzieci ze swoimi rodzicami. Konflikty te powinny dotyczyć niezgadzania się z
rodzicami, napięć, jakie zaistniały w przeszłości, jakie istnieją aktualnie lub mogą się zdarzyć,
stosowanej argumentacji i konfliktów fizycznych. Staraj się uchwycić tyle kategorii i
przykładów konfliktów oraz napięć, ile to możliwe.
Ihpodslawie pracy Raymonda L. Gordena (1980), Interviewing: Strategy, Techniąues,
and Taetics, wyd. 3. Homewood, 111.: Dorsey, s. 48.
253
Wywiad może mieć postać całkowicie ustrukturowaną lub nieustrukturowaną, jak to
pokazano w powyższych przykładach. W zależności od celu badania wywiad może także
łączyć elementy strukturowane i niestrukturowane. I tak na przykład badacz może się
posłużyć wywiadem prowadzonym według ustrukturowanego planu w przypadku większości
pytań, ale opierać się na nieukierunkowanym formacie w przypadku pytań szczególnie
wrażliwych.
¦ Wywiad osobisty a ankieta pocztowa Zalety wywiadu osobistego
1. Elastyczność. Wywiad pozwala na stosowanie bardziej elastycznej procedury
zadawania pytań, a im większa elastyczność, tym wywiad jest mniej ustrukturo-wany. W
niektórych wywiadach osoba prowadząca może swobodnie formułować pytanie, wyjaśniać
nieznane terminy, kontrolować porządek zadawania pytań oraz pytać o szczegóły i dodatkowe
informacje.
2. Kontrolowanie sytuacji, w której prowadzony jest wywiad. Jedną z pod-1
stawowych zalet wywiadu jest możliwość sprawowania większej kontroli nadsjl tuacją, w
której przeprowadzany jest wywiad. Osoba prowadząca wywiad może al dbać o to, aby osoby
badane odpowiadały na pytania we właściwej kolejności luli aby odpowiedziały na określone
pytania, zanim zadane zostaną pytania następ™ Co więcej, w sytuacji wywiadu badacz może
dokonać standaryzacji warunków oto-l czenia, aby mieć pewność, że wywiad prowadzony
jest na osobności, a poszczeg™ ni respondenci nie mogą się ze sobą kontaktować przed
udzieleniem odpowiedl Sytuacja taka stwarza również możliwość zapisywania dokładnego
czasu trwał
i miejsca przeprowadzania wywiadu. To zaś umożliwia dokładniejsze interpretoM nie
otrzymanych odpowiedzi, zwłaszcza wtedy, kiedy jakieś zdarzenia trwajai w czasie wywiadu
mogły wpłynąć na odpowiedzi respondenta19.
3. Wyższy odsetek otrzymanych odpowiedzi. Wywiad osobisty daje wyżsi odsetek
odpowiedzi w porównaniu z ankietą pocztową. Respondenci, którzy a zwyczaj nie mają
czasu, aby wypełnić bezosobową ankietę pocztową, często™ dzają się na udział w wywiadzie
osobistym. To samo można również odnieść fl ludzi mających kłopoty z czytaniem lub
pisaniem, czy też z rozumieniem językaH
4. Zbieranie dodatkowych informacji. Osoba prowadząca wywiad może I zbierać
dodatkowe informacje o respondentach. Informacje te mogą dotyczyć po™ stawowych
informacji o ich charakterystykach osobowych i ich otoczeniu, comoH pomóc badaczom w
interpretowaniu wyników. Co więcej, w sytuacji wywiadu poł jawią się wiele reakcji
spontanicznych, które można zarejestrować i które równieł mogą się okazać użyteczne na
etapie analizy danych.
Wady wywiadu osobistego
1. Wyższe koszty. Koszty prowadzenia wywiadu są zdecydowanie wyższeB
kosztów badań pocztowych. Koszty te dotyczą dobierania, trenowania i nadzorowi!
nia osób prowadzących wywiad, ich wynagrodzenia, kosztów podróży orazkosz-l tów
związanych z czasem niezbędnym do przeprowadzenia wywiadu. Również ko-1
19 Bailey, Methods of Social Research, s. 174.
254
[Bty zapisywania i przetwarzania informacji otrzymanych w wywiadzie nieustruk-
turowanym są wysokie.
2. Stronniczość osoby prowadzącej wywiad. Duża elastyczność, która jest główną
zaletą wywiadu, może być przyczyną stronniczego wpływu osoby prowadzącej wywiad na
otrzymane wyniki. Również brak standaryzacji procesu zbierania danych sprawia, że
prowadzenie wywiadu może być źródłem stronniczych oddziaływań. Chociaż osoby
prowadzące wywiad zostają poinstruowane o konieczności zachowania obiektywizmu i
unikania przekazywania własnych opinii, to często bywają źródłem wskazówek mogących
wpłynąć na odpowiedzi respondenta20. Nawet jeżeli nie przekazują one słownych
wskazówek, to mogą nie kontrolować przekazu niewerbalnego. Bywa, że rasa czy pteć osoby
prowadzącej wywiad może wpłynąć na respondenta, który wówczas udziela odpowiedzi
społecznie pożądanych, ale wprowadzających w błąd, ponieważ zostały one udzielone tylko
po to, aby zadowolić osobę przeprowadzającą wywiad.
3. Brak anonimowości. W wywiadzie nie można zachować anonimowości
charakterystycznej dla ankiet pocztowych. Bardzo często osoba prowadząca wywiad zna
wielu z potencjalnych respondentów (a przynajmniej ich nazwiska, adresy i numery
telefonów). Respondent może się zatem czuć zagrożony lub zastraszony przez osobę
prowadzącą wywiad, zwłaszcza gdy jest przewrażliwiony na punkcie tematu badań czy
niektórych pytań.
Zalety i wady wywiadu osobistego
Zalety
¦ Elastyczność procedury zadawania pytań. W zależności od problemu badawczego
wywiady mogą się rozciągać od wysoko ustrukturowanych do nieustrukturowanych. W
wywiadzie zogniskowanym i nieukierunkowa-nym osoba prowadząca wywiad może
wyjaśniać znaczenie pytań i zbierać dodatkowe dane.
¦ Kontrolowanie sytuacji, w jakiej prowadzony jest wywiad. Osoba prowadząca
wywiad określa, kto odpowiada na pytania, gdzie wywiad jest przeprowadzany i odpowiada
za porządek zadawania pytań.
i Wysoki odsetek odpowiedzi.
¦ Pełniejsze informacje. Osoby prowadzące wywiad mogą zarówno pytać
respondentów o dodatkowe informacje (włącznie z danymi dotyczącymi pochodzenia), jak i
rejestrować spontaniczne reakcje.
Wady
¦ Wyższe koszty. Wywiad może się okazać techniką drogą, zwłaszcza gdy respondenci
są rozrzuceni na dużym obszarze geograficznym.
i Stronniczość osoby prowadzącej wywiad. Cechy charakterystyczne osób
prowadzących wywiad i różnice w technice jego przeprowadzania mogą wpłynąć na
odpowiedzi respondentów.
¦ Brak anonimowości. Obecność osoby przeprowadzającej wywiad może sprawić, że
respondent będzie się czuł zagrożony lub zastraszony.
20 John B. Williamson, David A. Konk, John R. Dalphin (1977), The Research Craft,
Boston: Little,
Brown.
255
¦ Zasady prowadzenia wywiadu
Przejdziemy teraz do bardziej szczególowego omówienia zasad i procedur
prowadzenia wywiadu. Pierwszym krokiem w prowadzeniu wywiadu jest nakłonienie
respondenta do współpracy i przekazanie mu niezbędnych informacji. Zachęcając* spondenta
do współpracy, warto uwzględnić trzy następujące zasady21:
1. Respondent musi czuć, że jego kontakt z osobą prowadzącą wywiad będś,
przyjemny i satysfakcjonujący. To osoba prowadząca wywiad musi przekonać* spondenta, że
zostanie on zrozumiany, a rozmowa będzie łatwa.
2. Respondent musi postrzegać badanie jako warte wysiłku z jego strony. Respondent
musi zostać przekonany nie tylko o tym, że badanie może jemu samemu przynieść korzyści,
ale również o tym, że dotyczy ono ważnej problematyki i ¦ jego współpraca jest bardzo
ważna. Osoba prowadząca wywiad powinna zainteresować respondenta badaniem,
podkreślając znaczenie badania i wkład, jaki ram wnieść respondent.
3. Należy przezwyciężyć przeszkody, jakie zdaniem respondenta utrudniają ffli udział
w badaniu. Osoba prowadząca wywiad musi wyjaśnić błędną interpretację badania. Niektórzy
respondenci mogą być podejrzliwi i postrzegać osobę proflB dzącą wywiad jako sprzedawcę
lub przedstawiciela rządu. Dlatego też osoba™ wadząca wywiad powinna w przyjacielski
sposób wyjaśnić cel badania, metodcł boru respondentów i zapewnić o poufnym charakterze
wywiadu.
Centrum Badań Sondażowych przy Instytucie Badań Społecznych uniwersytetu w
Michigan sformułowało użyteczne wskazówki mówiące o tym, w jaki sposfl osoby
prowadzące wywiad powinny się przedstawiać respondentom22:
1. Powiedz respondentowi, kim jesteś i kogo reprezentujesz.
2. Powiedz respondentowi, co robisz, w sposób wzbudzający jego zaintereso-j wanie.
3. Powiedz respondentowi, w jaki sposób został wybrany.
4. Dostosuj swoje postępowanie do sytuacji.
5. Postaraj się wytworzyć atmosferę zaufania i zrozumienia (dobrego kontaktu) I
pomiędzy tobą a respondentem.
Po wstępnym przedstawieniu się osoba prowadząca może rozpocząć wywiad. Ist-I
nieje wiele konkretnych zasad, których warto przestrzegać23:
1. Można się posługiwać kwestionariuszem, ale powinno się z niego korzystali w
sposób nieformalny.
2. Wywiad powinien być prowadzony w nieformalnej i przyjemnej atmosferĄi a
osoba prowadząca wywiad powinna unikać stwarzania wrażenia, że to, co sil dzieje, ma
charakter egzaminacyjnego przepytywania czy quizu.
3. Pytania powinny być zadawane dokładnie i formułowane tak, jak to zostało!
21 Survey Research Center (1976), Interviewer's Manuał, Ann Arbor, Mich.: Inslitute
forSocal Research, University of Michigan, s. 3-1.
22 Ibidem.
23 Survey Research Center (1976), Interviewer's Manuał, wyd. popr.. Ann Arbor.
Mich.: Institute for Social Research, University of Michigan, s. 11-13.
256

zapisane w kwestionariuszu. Jest to szczególnie ważne, gdyż nawet najmniejsze


zmiany w sposobie zadawania pytań mogą zmienić odpowiedź. W wielu badaniach
stwierdzono, że nawet małe opuszczenia czy zmiany w sposobie formułowania pytań mogą
zniekształcić wyniki.
4. Pytania należy czytać powoli. W badaniach stwierdzono, że optymalne tempo
czytania to dwa słowa na sekundę. Wolne tempo pozwala osobie prowadzącej wywiad na
wyraźniejsze artykułowanie słów, a respondentom daje czas na zrozumienie pytania i
sformułowanie odpowiedzi.
5. Pytania powinny być prezentowane w takim samym porządku jak w
kwestionariuszu. Badacz ustalił kolejność pytań po to, aby zapewnić ich ciągłość oraz zadbać,
aby odpowiedzi respondenta na pytania poprzednie nie wpływały na jego aktualne
odpowiedzi lub też aby wpływ ten był taki sam dla wszystkich respondentów.
6. Należy zadać wszystkie pytania, które znalazły się w kwestionariuszu. Czasami
respondenci udzielają odpowiedzi, zanim określone pytanie zostało zadane. Jeżeli się to
zdarzy, osoba prowadząca wywiad powinna mimo wszystko zadać pytane we właściwym
czasie i wspomnieć o poprzedniej odpowiedzi, na przykład: "Wiem, że odpowiedział(a) już
Pan(i) na to pytanie wcześniej, ale...".
7. Pytania, które zostały źle zrozumiane lub źle zinterpretowane, powinny być
powtórzone i wyjaśnione. W większości wypadków respondenci nie mają żadnych
problemów w rozumieniu czy interpretowaniu pytań. W najgorszym razie niektórzy mogą
potrzebować więcej czasu na sformułowanie odpowiedzi na konkretne pytanie. Czasami
jednak respondenci mający kłopoty językowe czy kłopoty ze słyszeniem mogą mieć trudności
ze zrozumieniem pytania. Osoba prowadząca wywiad powinna wówczas powtórzyć pytanie.
Jedynie w wyjątkowych sytuacjach można przeformułować pytanie, i to tylko wówczas, gdy
jesteśmy przekonani, że w obecnej formie respondent go nie zrozumie.
Sondowanie
W podręczniku Intewiewer's Manuał opracowanym przez Centrum Badań
Sondażowych przy Instytucie Badań Społecznych uniwersytetu w Michigan sondowanie
zdefiniowano jako technikę stosowaną przez osobę prowadzącą wywiad do stymulowania
dyskusji i otrzymywania większej ilości informacji. Pytanie zostało zadane i odpowiedź
została udzielona. Z różnych powodów odpowiedź ta może być niewłaściwa i może wymagać
od osoby prowadzącej wywiad poszukiwania dalszych informacji potrzebnych do
zrealizowania celu sondażu. Sondowanie jest działaniem pozwalającym na uzyskanie takich
informacji24.
Sondowanie spełnia dwie funkcje: motywuje respondentów do rozszerzania,
objaśniania własnej odpowiedzi, czy też do wyjaśniania powodów udzielenia takiej właśnie
odpowiedzi, a także pomaga zogniskować rozmowę na konkretnym celu wywiadu.
Ogólnie rzecz biorąc, im wywiad jest mniej ustrukturowany, tym ważniejszą funkcję
pełni sondowanie jako instrument wydobywania i zachęcania respondenta do udzielania
dalszych informacji.
I Przedstawiona poniżej rozmowa pokazuje, w jaki sposób — po to, aby wydobyć
dalsze informacje — osoba prowadząca wywiad stosuje metodę sondowania, po-
24 Ibidem, s. 5-1.
257
przez „powtarzanie stwierdzeń wypowiedzianych przez respondenta, bez przypo-1
minania mu pierwotnego pytania"25:
RESPONDENT: Podstawowym powodem, dla którego wstąpiłem do Antioch Col-1
legę, była szansa połączenia dobrego kształcenia akademickiego i możliwości I pracy. Bardzo
mi się to podobało. ANKIETER: Bardzo ci się to podobało? Respondent: Tak jest.
Ankieter: Czy możesz powiedzieć coś więcej o tym, dlaczego ci się to podobało? I
RESPONDENT: Nie wiem — po prostu to miejsce wydawało się mniej staroświeckie i
zamknięte w porównaniu z wieloma innymi miejscami, w których również I można zdobyć
dobre wykształcenie akademickie. Ankieter: Nie lubisz miejsc, które są staroświeckie i
zamknięte? RESPONDENT: Mogę powiedzieć tak: wiele szkół poświęca większość swojego
czasu na wypracowanie sposobu kontrolowania studentów, zakładając, że niej potrafią oni
sami dbać o siebie.
Ankieter: Dlaczego sądzisz, że w Antioch College władze szkoły mniej nadzorują
studentów?
Respondent: No cóż, jest to częścią filozofii kształcenia... Ankieter: Sprawdźmy, czy
dobrze rozumiem wszystko, co powiedziałeś -j lubisz szkoły o wysokich standardach
akademickich, ale nie takie, które są zbyt zamknięte. Lubisz szkoły, w których przyjmuje się
założenie, że studenci sami potrafią siebie kontrolować... Respondent: Właśnie tak.
¦ Wywiad telefoniczny
Wywiad telefoniczny, nazywany też sondażem telefonicznym możml
scharakteryzować jako paraosobistą metodę zbierania danych. Jeszcze nie tak daw- I no temu
specjaliści z zakresu nauk społecznych traktowali sondaż telefoniczny scol ptycznie i bez
zaufania. Niektóre podręczniki wręcz zalecały, aby go unikać26. Poi stawową przyczyną tej
niechęci do wykorzystywania wywiadu telefonicznegobn wysokie prawdopodobieństwo
otrzymania stronniczej próby. Kiedy znaczna części populacji nie ma dostępu do telefonu,
dochodzi do nadreprezentowania w próbfl tych osób, które są stosunkowo dobrze sytuowane i
które mogą pozwolić sobie m posiadanie telefonu. Wywiad telefoniczny został jednak
współcześnie zaakceptil wany jako dopuszczalna metoda zbierania danych w naukach
społecznych.
Podstawowym uzasadnieniem stosunkowo szerokiego wykorzystywania dzisiaj!
wywiadu telefonicznego jest możliwość dotarcia do więcej niż dziewięć dziesiątyeB
populacji. W roku 1958 jedynie 72,5% gospodarstw domowych w USA posiadało I telefony;
pod koniec 1980 roku liczba gospodarstw z telefonami wzrosła do 9811
25 Gorden, lnterviewing, s. 436.
26 William R. Kiecka, Alfred J. Tuchfarber (1978), Random Digit Dialing: A
Compańsonlc sonal Suiyey, „Public Opinion Quarterly", 42, s 105-114. Wiele z
przedstawionych tu argumentó' chodzi z tej właśnie pracy.
258
Również powody natury ekonomicznej zadecydowały, że wywiad telefoniczny stał się
bardziej atrakcyjny. Rosnące płace i koszty paliwa sprawiły bowiem, ze metoda wywiadu
osobistego stała się niezwykle droga. Tymczasem telefon jest powszechnie dostępny a jego
wykorzystanie pozwala na istotną oszczędność kosztów. Co więcej, wprzypadku wywiadu
telefonicznego odsetek odpowiedzi jest większy niz w przypadku wywiadu osobistego. W
niektórych metropoliach ludzie niechętnie otwierają drzwi osobom obcym. Biorąc pod uwagę
coraz większy udział zamężnych kobiet w rynku pracy, zastanie respondentów w domu
również staje się coraz trudniejsze.
Zmiany technologiczne i ulepszenia techniki telefonicznej sprawiły, ze wywiad
telefoniczny stat się łatwiejszy. Można też pobrać losową próbę numerów telefonicznych,
stosując metodę zwaną wybieraniem numerów za pomocą liczb losowych (RUD — random
digit dialing). Aby zastosować tę metodę, należy najpierw określić wszystkie czynne centrale
telefoniczne na wybranym obszarze. Następnie należy wybrać potencjalny numer telefonu,
losowo określając centralę telefoniczną, i przypisać jej losowe numery mieszczące się między
0001 a 9999. Dodatkowe numery telefonu uzyskuje się, powtarzając te dwa kroki W trakcie
wywiadu eliminuje się nieczynne numery telefoniczne i te, które nie dają połączenia z
gospodarstwami domowymi. Zastosowame komputerów usprawniło i ułatwiło stosowanie
metody wybierania numerów za pomocą liczb loso-wych. Można bowiem je tak
zaprogramować, aby wybierały losowo zarówno centrale telefoniczne, jak i końcowe numery,
dzwoniły pod wybrany numer i eliminowały z listy te numery telefonów, pod którymi
przeprowadzono juz wywiad, czy tez te, które są nieczynne lub nie są połączeniami z
gospodarstwami domowymi Mimo że sondaż telefoniczny ma oczywiste zalety w postaci
niskich kosztów ,'bkiego tempa pracy, nadal otwarte pozostaje pytanie o to, czy sondaż
telefoniczny jest alternatywą dla wywiadu przeprowadzanego twarzą w twarz W pierwszym z
eksperymentów poświęconych temu problemowi William Kłecka i Alfred Tuchfarber
powtórzyli duże badanie przeprowadzone metodą wywiadu osobistego stosując sondaż
telefoniczny wraz z techniką RDD27. Badanie to dotyczyło metod zwalczania przestępczości
i zostało przeprowadzone przez Urząd Statystyczny USA w roku 1974 Kiecka i Tuchfarber
porównali dwie próby ze względu na zmienne demograficzne, za pomocą których opisano
akceptowane metody zwalczania przestępczości, oraz ze względu na postawy wobec
przestępstw i policji. Utrzymali bardzo podobne rezultaty, co wskazuje, że metoda wybierania
numerów za pomocą liczb losowych jest dobrą i mniej kosztowną alternatywą wywiadu
osobis-1 tego. Również w badaniach przeprowadzanych współcześnie, w których
porównywano ze sobą odpowiedzi udzielone na te same pytania w trakcie wywiadu
osobistego, telefonicznego i zamieszczone w ankiecie pocztowej otrzymano porównywalne
rezultaty i metody te uznano za niewiele się różniące pod względem trafności . Wywiad
telefoniczny, pominąwszy jego względną stronniczość, pozwala na zwiększenie jakości
otrzymanych danych. Na ogół osoby prowadzące wywiad telefoniczny pracują w jednym
pomieszczeniu, a osoby nadzorujące ich pracę mogą śledzić ich działania w sposób ciągły.
Dzięki temu można się upewnić, ze osoby prowadzące wywiad właściwie zadają pytania,
natomiast badacze mogą natychmiast reagować w przypadku jakichś problemów.
17 Ibidem.
. T D
1 Seymour Sudman, Norman N. Bradburn (1982), Asking Questions, San Francisco:
Jossey-Bass.
259
Jedną z najnowszych metod wykorzystywaną w sondażach telefonicznych jd
stosowanie skomputeryzowanych kwestionariuszy. W wywiadzie telefonicznym ze
wspomaganiem komputerowym (CATI — computer assisted telephone intti viewing) osoba
prowadząca wywiad siedzi przy terminalu komputerowym i zada pytanie przez telefon po
wyświetleniu go na ekranie monitora. Następnie koduje odpowiedź respondenta i zapisuje ją
na dysku, a wtedy na ekranie pojawia się nil stępne pytanie. Spośród zalet CATI można
wymienić szybkość badania oraz mol liwość stosowania złożonych, wcześniej
przygotowanych instrukcji. W dobrychSH Sternach CATI osoby kodujące nie mają
możliwości wprowadzenia niepoprawny!! danych czy danych nie mieszczących się w
przewidzianym zakresie. Na ekranie pojawia się instrukcja nakazująca ich poprawienie. CATI
nie nadaje się jednak do stosowania w przypadku pytań otwartych29*.
Zalety i wady wywiadu telefonicznego
Zalety
¦ Przeciętne koszty.
¦ Wywiad telefoniczny pozwala na dotarcie w krótkim czasie do dużej liczby
respondentów. Osoby prowadzące wywiad mogą wykorzystywać komputer do
bezpośredniego kodowania danych, które później złożą się na bazę danych.
¦ Wywiad telefoniczny umożliwia dotarcie do osób, które niechętnie udzielają
odpowiedzi w badaniach pocztowych lub odmawiają udziału I w wywiadach osobistych.
¦ Umieszczenie osób prowadzących wywiady telefoniczne w jednym centralnym
pomieszczeniu pozwala na kontrolowanie poprawności zadawa- ; nia pytań i poprawność
rejestrowania danych.
Wady
¦ Możliwość odmowy odpowiedzi na drażliwe pytania. Respondenci mogą \ nie
zechcieć rozmawiać przez telefon na niektóre tematy.
¦ „Przerywanie" wywiadu. Respondenci mogą przerwać wywiad, zanim zostanie on
zakończony.
¦ Mniej informacji. Osoby prowadzące wywiad nie mogą zebrać dodatko- ' wych
informacji o cechach respondenta czy jego otoczeniu.
Nie można jednak zapomnieć o słabościach wywiadu telefonicznego. Wywiad j
telefoniczny stworzył nowy rodzaj braku odpowiedzi — „przerwanie" wywiadj W przypadku
4% rozmów respondenci przerywają wywiad, zanim zostanie on zakończony — co rzadko się
zdarza w wywiadach osobistych30. Wywiad telefoniczni
* Czytelnikowi polecam dwie prace polskich socjologów na te tematy: J. Sawiński
(1996), daże telefoniczne, „ASK", 1 (3), s. 1-36; P.B. Sztabiński, F. Sztabiński (1997),
Wartość odpowi w wywiadach telefonicznych ze wspomaganiem komputerowym (CATI),
„ASK", 1-2 (5-6), s. 73-92.
29 Ibidem.
30 Institute for Social Research, University of Michigan, „Newsletter", 4 (Autumn
1976).
260
daje również mniej informacji. Osoby prowadzące wywiad nie mogą opisać
szczegółowo ani respondentów, ani ich otoczenia. Poza tym stosunkowo więcej respondentów
telefonicznych zgłasza obiekcje co do rozmawania przez telefon na niektóre tematy,
zwłaszcza dotyczące statusu finansowego i postaw politycznych.
Podsumowując, wywiad telefoniczny może — pod pewnymi warunkami — byc
traktowany jako alternatywa wywiadu osobistego, na przykład wtedy, gdy plan wywiadu jest
stosunkowo prosty. Pytanie o to, czy wywiad osobisty i wywiad telefoniczny mogą się
wzajemnie zastępować, nadal jednak wymaga odpowiedzi. W przyszłość, większość sondaży
może być prowadzona wyłącznie przez telefon, inne mogą łączyć elementy wywiadu
osobistego i telefonicznego, tak by uzupełniały się wzajemnie, dając większą precyzję i
zwiększony odsetek odpowiedzi.
I Porównanie trzech metod prowadzenia badań
sondażowych
Aby podjąć decyzję, która z metod prowadzania badań sondażowych jest najlepsza w
naszym przypadku, trzeba określić, jakie kryteria - z punktu widzenia celu badań - są
najbardziej istotne. I tak na przykład, jeżeli planujemy przeprowadzenie długiego wywiadu na
reprezentatywnej próbie wylosowanej z populacji generalnej, chcemy kontrolować
zachowania niewerbalne i posiadamy niezbędne fundusze, to najbardziej preferowaną formą
będzie wywiad osobisty31. Z kolei, jezeh można
Tabela 10.3. Ocena porównawcza trzech metod prowadzenia badań sondażowych
Kryterium
Wywiad osobisty
Poczta
Telefon

Koszty
Odsetek odpowiedzi
Kontrolowanie sytuacji, w której
przeprowadzany jest wywiad Możliwość zbadania populacji
rozproszonych na szerokim
obszarze geograficznym Możliwość zbadania populacji
heterogenicznych Zbieranie szczegółowych informacji Szybkość
wysokie wysoki
wysokie
przeciętna
wysoka
wysokie
niska
niskie niski
niskie
wysoka
niska
przeciętne
niska
przeciętne wysoki
przeciętne
przeciętna
wysoka
przeciętne
wysoka
uprościć wywiad, a koszty i szybkość badań mają istotne znaczenie, to wywiad te-
lefoniczny będzie najlepszą metodą zbierania informacji. Jeżeli natomiast posk.gu-,erm się
stosunkowo długim kwestionariuszem lub takim, który zawiera^drazl we pytana a zwłaszcza
wtedy, kiedy interesująca nas populacja rozproszona jest na
• Próba jest reprezentatywna, jeżeli dane otrzymane w wyniku pomiaru jej elementów
pozwalają na wyprowadzenie wniosków o całej populacji. Por. rozdział 8.
261
dużym obszarze geograficznym lub została wybiórczo określona, to należy rozważyć
możliwość wykorzystania ankiety pocztowej.
W tabeli 10.3 przedstawiliśmy porównawczo niektóre zalety i ograniczenia trzech
metod prowadzenia badań sondażowych.
¦ Wnioski
Metoda sondażu jest jedną z najważniejszych metod zbierania danych w naukach
społecznych i jako taka jest szeroko stosowana do zbierania informacji o wieli obiektach
badań. Ostatnio wraz ze wzrostem wymagań opinii publicznej codooB powiedzialności
władz, wzrosło też znaczenie badań sondażowych. Sondaże stal się narzędziem szeroko
wykorzystywanym przez rozmaite organizacje rządowe. rl podstawie częstości badań
prowadzonych przez władze lokalne można pokazać, ¦ w 50% miast liczących ponad 100000
mieszkańców i w hrabstwach, których pol pulacja przekracza 250 000 osób, przeprowadzono
jakiś sondaż. Wraz ze wzrósł liczby prowadzonych sondaży metoda ta stała się obiektem
rosnącej krytyki. KI mentarze w rodzaju: „Właściwe ustawienie problemu w badaniach
społecznych™ jest łatwe", „Próba potencjalnych respondentów okazała się mieszanką różnjj
procedur", czy też „Nie ufam żadnemu sondażowi, który ma taki odsetek odpowii dzi" są
typowe. I chociaż c/asami uwagi takie mają swoje uzasadnienie, toczęł nie są oparte na
faktach, a źródłem krytyki są obiegowe prawdy na temat sondaił Nie oznacza to, że nie
widzimy konieczności określenia listy kryteriów, które pB mogłyby ocenić użyteczność
badań sondażowych, wykrywać i kontrolować bfl oraz — gdy tylko to możliwe — je
równoważyć32.
Mniej więcej pięćdziesiąt lat temu Edward Deming napisał, dziś klasyczny, ar-j tykuł
zatytułowany ..O błędach w badaniach sondażowych"33. Deming wymieł trzynaście
mogących się zdarzyć błędów, o których trzeba pamiętać, planującbfl dania sondażowe i
oceniając ich wyniki. Najistotniejsze czynniki, które mogą $¦ się źródłem potencjalnych
błędów, zostały już omówione w tym rozdziale. Są to: I stronniczość osoby prowadzącej
wywiad, niski odsetek odpowiedzi i trudnościj w zadawaniu drażliwych pytań. Reuben Cohen
w przemówieniu przewodniczącego, adresowanym do Amerykańskiego Towarzystwa Badań
Opinii Publiczngj (American Association for Public Opinion Research) sformułował
następują* uwagę dotyczącą potencjalnych błędów:
Jakieś trzydzieści lat temu otrzymałem kopię listy błędów opracowań;] przez W.
Edwarda Deminga. Wiadomość, jaką mi w ten sposób przekazał, byta oczywista: teraz, gdy
wiesz, jakie są to błędy, nie popełniaj ich. Ponieważ byłem niezbyt doświadczony i
posiadałem wewnętrzny optymizm, przyjąłem tow\ zwanie. Najpierw postanowiłem
przeprowadzić doskonały sondaż. Nadal pró buję, choć powinienem już wiedzieć, jak to się
robi. Szybko odkryłem prai Murphy'ego — jeżeli coś ma się nie udać, to się na pewno nie
uda. Odkryłem
32 Gregory Daneke, Patricia Klobus Edwards (1979). Surrey Research for Public
AdmimsirM ..Public Administration Review", 39, s. 421-426.
33 W. Edward Deming (1950), Some Theory of Sampling, New York: Wiley.
262
jednak coś jeszcze. Jeżeli nawet nie będzie ograniczeń czasowych i finasowych, na
które większość z nas skarży się najbardziej, to i tak nie będzie idealnego sondażu. Każdy
sondaż ma swoje stabe strony. Świat nie jest najlepiej dobrany do naszej pracy. To, co
możemy najlepszego zrobić, to starać się idealnie zaplanować schemat sondażu, jego
przeprowadzenie czy etap analizy — a więc to, co byśmy zrobili, gdybyśmy spełnili swoje
marzenia — a następnie, pamiętając o ograniczeniach czasu i budżetu warunkujących naszą
pracę, starać się zbliżyć do idealnego stanu34.
A dla czytelników, którzy być może poczuli się zniechęceni stawianiem sobie celów,
które nie mogą zostać doskonale zrealizowane, mamy następującą radę:
Rzeczywista praca składa się w dużej części z odgadywania tego, jakie niere-
gularności, gdzie i jak wiele możemy tolerować [...] To samo można powiedzieć o badaniach
sondażowych. Powinny być robione dobrze. Mogą i powinny się zbliżać — nawet jeżeli
niecałkowicie — do wersji idealnej35.
I Podsumowanie
1. W tym rozdziale omówiliśmy sondaż jako metodę zbierania danych. Opisaliśmy
trzy metody prowadzenia badań sondażowych: ankietę pocztową, wywiad osobisty i wywiad
telefoniczny.
2. Ankieta pocztowa jest nieosobistą metodą prowadzenia badań sondażowych. Do jej
podstawowych zalet należą: niskie koszty, stosunkowo niski błąd wypływający ze
stronniczości, anonimowość i dostępność. Do podstawowych wad należą: niski odsetek
odpowiedzi, brak możliwości dalszego sondowania, brak kontroli nad tym. kto wypełnia
ankietę.
3. Ze względu na trudności w uzyskaniu dającego się zaakceptować odsetka
odpowiedzi w ankietach pocztowych badacze stosują różne strategie pozwalające na
zwiększenie liczby otrzymanych odpowiedzi. Do najbardziej skutecznych należy strategia
przypominania, informowania o sponsorze badań i zachęcania do wypełnienia ankiety.
Format ankiety i sposób jej wysłania także może wpłynąć na odsetek odpowiedzi.
4. Wywiad osobisty to sytuacja, w której osoba prowadząca wywiad zadaje
respondentowi pytania bezpośrednio. Wywiad prowadzony według ustrukturowanego planu
jest najbardziej ustrukturowaną formą wywiadu. Pytania, sposób ich sformułowania, ich
kolejność są stałe i identyczne dla każdego respondenta. Z kolei wywiad zogniskowany
przebiega według ogólnego planu określającego tematy rozmowy powiązane z hipotezą
badawczą. Daje to respondentom dużą swobodę w wyrażaniu swoich poglądów. I wreszcie
wywiady prowadzone w sposób swobodny są najmniej ustrukturowane i nie opierają się na
żadnym, wcześniej przygotowanym zbiorze pytań. Osoba prowadząca wywiad ma duży
zakres swobody w sondowaniu
"Reuben Cohen (1979), Close Enough for AU Practical Purposes, „Public Opinion
Quarterly",
.421-422.
" Ibidem, s. 424.
263
różnych obszarów tematycznych i do zadawania w trakcie wywiadu konkretnych
pytań.
5. Wywiad telefoniczny został generalnie zaakceptowany jako alternatywa dla
wywiadu osobistego. Sondaż telefoniczny jest wygodny i mało kosztowny. Ponadto daje
często wyższy odsetek odpowiedzi w porównaniu z wywiadem osobistym Zmiany
technologiczne i ulepszenia aparatury telefonicznej sprawiły również, że wywiad telefoniczny
stał się łatwiejszy, zwłaszcza gdy badacze stosują metodę wybierania numerów za pomocą
liczb losowych, a sam wywiad telefoniczny jest wspomagany komputerowo.
Podstawowe terminy
ankieta pocztowa 242 odsetek odpowiedzi 243 przypominanie 246 sondowanie 257
wybieranie numerów za pomocą liczb losowych 259
Pytania sprawdzajgce
wywiad nieukierunkowany 251 wywiad telefoniczny ze
wspomaganiem komputerowym wywiad według ustrukturowanego
planu 249 wywiad zogniskowany 251
1. Opisz podstawowe techniki zbierania danych sondażowych.
2. Przedyskutuj zalety i wady ankiety pocztowej, wywiadu telefonicznego on
wywiadu osobistego.
3. Wymień i opisz podstawowe zasady obowiązujące przy przeprowadź wywiadu.
4. Jaki rodzaj badań sondażowych byłbyś(łabyś) skłonny(a) wybrać, badajj, problem
narkomanii? Wyjaśnij podstawy swojego wyboru.
5. Przypuśćmy, że jesteś zaangażowany(a) w projekt badawczy, którego cela jest
określenie postaw mieszkańców małego miasta wobec dobrobytu. Zapl nowałeś(łaś)
wykorzystanie ankiety pocztowej i pobrałeś(łaś) próbę. Napi list przewodni.
¦ Literatura dodatkowa
Gostkowski Z. (red.), Analizy i próby technik badawczych w socjologii, Wrocław:
Ossolin
t.: I (1996), II (1968), III (1970), IV (1972), V (1975), VII (1989), VIII (1990).
Gostkowski Z. (red.) (1992), Analizy i próby technik badawczych w socjologii, t. IX,
Warszawa:!
IFiS PAN. Johnson R.F.Q. (1991), Pułapki w badaniu: wywiad jako model
przykładowy, w: J. Brzeziński, J.!
(red.), Społeczny kontekst badań psychologicznych i pedagogicznych. Wybór tekstów,
Poznań: |
Nauk. UAM.
264
btfft, K. (1993), Sur.eye w Polsce. Spojrzenie socjologiczno-antropologiczne.
Wybrane zagadnie-
l nia. Warszawa: Wyd. lFiS PAN. „;„;„„;; i
VI Wrocław
bryńska K.. Lutyńsk, J. (red.) (1986), Analizy i próby technik badawczych w
socjologu, t. VI, Wrocław.
uS! J.7994). Metod, badań społecznych. Wybrane zagadnienia, red., wstep,
opracowame K. Lu-
MaJZkR.ŁHlŁ™ HUbner P. (.985). Wprowadzenie do metod socjologii empirycznej,
Warszawa:
NoTs. (red., (1965). Metody badań socjologicznych. Wybór tekstów, Warszawa:
PWN.
Sawiński Z. (1996). Sondaże telefoniczne, „ASK", 1, s. 7-35.
<„rininvn Warszawa'
Sułek A. (1990), W terenie, w archiwum i w laboratorium. Studia nad warsztatem
socjologa, Warszawa.
Srl^R (1997). Ankieta pocztowa czy wywiad kwestionariuszowy? Wybór strategii
badawczej,
^^Zn^erzy i ich respondenci. Od kogo zaleź, wyniki badań ankietowych, War-
i szawa: Wyd. IFiS PAN. : Wallen R. (1964). Psychologia kliniczna, Warszawa:
PWN.
Rozdział 11
Konstruowanie kwestionariusza
Pytania 267
Treść pytań 268
Pytania dotyczące faktów 268
Pytania dotyczące subiektywnych doświadczeń 269
Rodzaje pytań 270
Pytania zamknięte i otwarte 270 Pytania alternatywne 272
Format pytania 274
Skalowanie 275
Pytania tabelaryczne (macierzowe) 276 Dyferencjał semantyczny 276 Rangowanie
277
Porządek pytań 277
Strategia lejka 278
Strategia odwróconego lejka 278
Ograniczanie stronniczości: błędy w konstrukcji kwestionariusza
Słownictwo 280
Schematyzacja (styl) odpowiadania 280
Pytania sugerujące 281
Pytania zagrażające 282
Pytania o podwójnej treści 283
List wprowadzający 284
Instrukcja 286
Konstruowanie kwestionariusza: analiza przypadku 287
Podsumowanie 294
Podstawowe terminy 295
Pytania sprawdzające 296
Literatura dodatkowa 296
W jaki sposób odpowiedzielibyście na pytanie: „Czy wydaje ci się możliwe lub
niemożliwe to, że eksterminacja Żydów dokonana przez nazistów nigdy nie nastąpiła?" Ile
razy musieliście przeczytać to pytanie, zanim mogliście na nie odpowiedzieć? Czy jesteście
pewni, że wasza odpowiedź rzeczywiście odzwierciedla wasze przekonania? Jeżeli pytanie to
sprawiło wam kłopot, to pocieszcie się — nie tylko wam. Okazuje się bowiem — powołując
się na artykuł zamieszczony w „New York Timesie" — że na podstawie odpowiedzi na to
pytanie pracownicy agencji Ropera przeprowadzającej badania sondażowe ustalili, że jedna
piąta Amerykanów jest przekonana, iż holocaustu nie było1. Czy wniosek ten jest
prawidłowy? Prawdopodobnie nie. Zgodnie z Roperem wysitki w celu stworzenia
niestronniczego pytania dały efekt w postaci tak nieczytelnego tekstu, który okazał się
niezrozumiały dla wielu respondentów i spowodował, że odpowiadali oni nie tak, jak chcieli.
Instytut Gallupa, który przeprowadził drugie, niezależne badanie sprawdzające trafność
wniosków Ropera stwierdził, że w sytuacji, kiedy respondentom przedstawiono prostsze
pytanie, tylko mniej niż 3% Amerykanów wątpiło w istnienie holocaustu. Roper
przeprowadził potem kolejne badanie, wprowadzając bardziej czytelne pytanie i publicznie
przeprosił za swój błąd.
Ponieważ wyniki badań sondażowych często wpływają na decyzje polityczne i tym
samym mają wpływ na życie ludzi i ponieważ czasami mogą być jedynym źródłem informacji
na tematy interesujące opinię publiczną, więc pytania wykorzystywane w badaniach
sondażowych muszą być starannie konstruowane i ustawiane w takim porządku, aby
otrzymać rzetelne dane. Jak się przekonacie w tym rozdziale, konstruowanie pytań nie jest
łatwym zadaniem, jak się może wydawać.
W tym rozdziale skoncentrujemy się na kwestionariuszu jako podstawowym narzędziu
wykorzystywanym w badaniach sondażowych. Rozpoczniemy od omówienia istoty
wszystkich kwestionariuszy, tj. ich pytań. Następnie zajmiemy się treścią pytań,
wprowadzimy rozróżnienie na pytania zamknięte i otwarte, a także pytania alternatywne —
analizując ich format i kolejność. Następnie przedyskutujemy potencjalne źródła
stronniczości wynikające ze sposobu sformułowania pytania—takie jak sugerowanie,
podwójne znaczenie i treści zagrażające. Na koniec podann wskazówki pozwalające
skonstruować list przewodni dołączany do kwestionariusza oraz instrukcję, w którą jest on
wyposażany.
¦ Pytania
Podstawą wszystkich kwestionariuszy są pytania. Kwestionariusz musi przekładać de
badawcze na konkretne pytania. Odpowiedzi na te pytania będą źródłem danych
wykorzystywanych do testowania hipotez badawczych. Pytanie musi również
John Kifner (1994), Pollster Finds Error on Holocaust Doubts, „New York Times", 20
May, A12.
267
motywować respondenta do udzielania poszukiwanych informacji. Podstawowe
zagadnienia związane z tworzeniem pytań dotyczą ich treści, struktury, formatu i kolejności.
¦ Treść pytań
Pytania wykorzystywane w badaniach sondażowych mogą dotyczyć faktów, postaw,
motywacji respondenta czy stopnia znajomości określonego zagadnienia. Większość pytań
można zaliczyć do jednej z dwóch klas: pytań dotyczących faktów (pytań metryczkowych) i
pytań dotyczących subiektywnych doświadczeń.
Pytania dotyczqce faktów
Pytania dotyczące faktów, inaczej pytania metryczkowe, tworzy się po to, aby
otrzymać od respondenta obiektywne infomacje uwzględniające jego pochodzenie,
środowisko, nawyki itp. Najbardziej popularnym typem pytania metryczko-wego jest pytanie
o dane demograficzne respondentów, które zadawane jest głównie po to, aby można było
później dokonać ich klasyfikacji. Pytania dotyczące danych demograficznych obejmują takie
informacje, jak: płeć, wiek, stan cywilny, wykształcenie, dochody. Klasyfikacje oparte na
tych danych mogą być z kolei wykorzystane do wyjaśniania zaobserwowanych różnic w
postawach czy zachowaniach respondentów. Poniżej przedstawiamy przykład pytania
metryczkowego:
Którą klasę ukończyłeś(aś) w szkole? (Proszę wybrać jedną możliwość)
— ósmą lub niższą
— dziewiątą lub dziesiątą
— jedenastą lub dwunastą. Czy ukończyleś(aś) liceum ogólnokształcące? — Tak —
Nie
— rok lub dwa lata college'u
— trzy lub cztery lata college'u. Czy ukończyleś(aś) college? — Tak — Nie
— pięć lub więcej lat college'u
Inne rodzaje pytań metryczkowych mają w zamierzeniu dostarczyć informacji
otoczeniu społecznym respondenta („Proszę powiedzieć, kto mieszka z Panem nią) w jednym
gospodarstwie domowym?"), środkach transportu („W jaki s dojeżdża Pan(Pani) do pracy"),
sposobach spędzania wolnego czasu („Jak c chodzi Pan(Pani) do kina?").
Niektórzy sądzą, że pytania metryczkowe można łatwiej zaprojektować niż inni
rodzaje pytań. Nawet pytania metryczkowe jednak mogą być źródłem problemów. To, czy
ludzie podają swoje dane dokładnie, zależy od tego, o co i w jaki sposóN ich zapytano.
Można wskazać cztery przyczyny otrzymywania niedokładnych informacji po zadaniu pytań
metryczkowych. Dzieje się tak dlatego, gdyż ludzie2:
1. Nie posiadają informacji.
2. Nie mogą przypomnieć sobie informacji.
3. Nie rozumieją pytania.
4. Nie mają ochoty odpowiadać.
2 Floyd J. Fowler, Jr. (1989), Survey Research Methods, Newbury Park, Calif.: Sagę.
268
adacz może poczynić wiele kroków, aby zwiększyć dokładność odpowiedzi, .
zachęcać do konsultowania się z innymi członkami rodziny, zadawać więcej jedno pytanie na
dany temat, powtarzać pytanie czy starać się, aby respondent czuł się zażenowany w trakcie
zadawania mu pytań, które mogą go wprawiać zakłopotanie.
nia dotyczące subiektywnych doświadczeń
'wiadczenia subiektywne dotyczą wierzeń, postaw, uczuć i opinii respondenta3, -^ania
sondażowe prowadzone w naukach społecznych, zwłaszcza te nastawione
ujawniane relacji typu właściwość-dyspozycja (por. rozdział 6), często zawie-
ą pytania dotyczące postaw. Postawy to ogólne ukierunkowanie, które może wiać, że
dana osoba — gdy pojawią się określone bodźce — zachowuje się lub tje w określony
sposób. Poniżej przedstawiamy przykład pytania dotyczącego
taw wobec aborcji. Pytanie to pochodzi z Ogólnego Sondażu Społecznego
SS — General Social Survey):
Proszę powiedzieć, czy Pana(i) zdaniem kobieta będąca w ciąży może dokonać
legalnej aborcji, jeżeli istnieje duże prawdopodobieństwo, że dziecko urodzi się z poważnymi
wadami: l.Tak.
2. Nie.
3. Nie wiem.
4. Brak odpowiedzi.
Osoby badane wyrażają swoje postawy poprzez mowę lub zachowanie jedynie " Jy,
kiedy spostrzegają przedmiot postawy. Dana osoba może mieć silną postawę aborcją lub
przeciwko aborcji, lecz zostanie ona wzbudzona lub dostrzeżona je-e wówczas, kiedy osoba
ta zetknie się z jakimś problemem związanym z abor-\ czy też z bodźcem takim, jak pytanie w
trakcie wywiadu. Postawy można opisać poprzez ich treść (czego dotyczy postawa), ich
kierunek "zytywne, neutralne lub negatywne uczucia w stosunku do przedmiotu postawy lub
tematu pytania) czy ich intensywność (postawa może mieć większe lub mniejsze natężenie).
Dla jednej osoby temat aborcji ledwo może się mieścić w sferze jej zainteresowań, dla innej
zaś może mieć ogromne znaczenie i być powodem jej wstępowania do organizacji broniących
życia poczętego. Można też założyć, że ta druga osoba będzie się silniej zgadzać lub nie
zgadzać z treścią pytań dotyczących, powiedzmy, tego, czy powinno się wprowadzić
konstytucyjny zakaz aborcji.
Ogólnie rzecz biorąc, jesteśmy zainteresowani pomiarem postaw, ponieważ mogą one
wyjaśnić pewne generalne skłonności respondentów. Badanie opinii jest interesujące jedynie
w takim zakresie, w jakim opinie te symbolizują postawy. Podstawowa różnica pomiędzy
pytaniem o opinie a mierzeniem postaw polega na tym, że mierząc opinie, badacze
oszacowują, jaki procent badanej populacji będzie się zgadzał z pojedynczym twierdzeniem
dotyczącym opinii. Natomiast mierząc postawy, posługują się skalami składającymi się od
pięciu do wielu twierdzeń dotyczą-
'Royce Singleton, Jr., Bruce C. Straits, Margaret M. Straits, Ronald J. McAllister
(1988), Appro-acks lo Social Research, Oxford: Oxford UnWersity Press, s. 272.
269
cych postaw, z którymi respondent może się zgodzić lub nie. Podstawowym
wymaganiem przy pomiarze postaw jest wymóg skalowalności twierdzeń dotyczących
postaw, tj. możliwość wybrania określonych twierdzeń z większej puli twierdzeń i
zestawienia ich razem według określonych metod. Metody te omawiamy w rozdziale 18.
Konstruowanie pytań sondażowych dotyczących opinii i postaw tworzy więcej
problemów niż konstruowanie pytań metryczko wych. Można stosunkowo ławo otrzymać
informacje o tym, czy dana osoba jest mężatką (żonatym), czy tez osobą stanu wolnego.
Badacz może rozsądnie założyć, że respondent wie, czy pozostaje w związku małżeńskim.
Badając opinie czy postawy, nie zawsze można założyć, że respondenci wiedzą, co myślą.
Rospondent może nie mieć postawy wobec problemu nielegalności aborcji, lub też jego
postawa może być ukryta. Co więcej, ponieważ wiele postaw to postawy o wielu aspektach
czy wymiarach, więc respondent może się zgadzać z jednym aspektem postawy, a nie zgadzać
z innym. Dlatego też postaw nie można mierzyć za pomocą jednego pytania. Na przykład,
jeżeli ktoś sil-; nie nie zgadza się z twierdzeniem: „Aborcja powinna być dostępna dla każdej
kobiety, która tego chce", to nie oznacza to jeszcze szerokiej postawy antyaborcyjnej. Opinia
tej osoby mogłaby być inna, gdyby, na przykład, zagrożone było życie kol biety, do ciąży
doszło w wyniku kazirodztwa czy gwałtu, lub też gdyby lekarz i stwierdził, że dziecko będzie
posiadało wiele wad. Wykorzystując twierdzenia mierzące postawę, można dokładniej
określić zarówno siłę postawy respondenta, jak i warunki, w jakich postawa ta może ulec
zmianie.
Na koniec warto powiedzieć, że pytania dotyczące opinii i postaw — w porowi naniu
z pytaniami metryczkowymi — są bardziej wrażliwe na zmiany słownictwa podkreślenia i ich
kolejność. Częściowo jest to odzwierciedleniem wielowymiaro-1 wości postaw. Pytania
przedstawione w różny sposób mogą czasami wzbudzić róS ne aspekty postawy, a tym
samym prowadzić do innych odpowiedzi.
¦ Rodzaje pytań
Treść pytań jest tylko jednym z ważnych elementów konstruowania kwestionarił szy
sondażowych. Badacz musi również wziąć pod uwagę strukturę pytań i formB kategorii
odpowiedzi, w jakie pytania te zostały wyposażone. Omówimy teraz tam rodzaje pytań ze
względu na ich strukturę: pytania zamknięte, pytania otwarte i pył tania alternatywne.
Pytania zamknięte i otwarte
Pytanie w kwestionariuszu może być albo zamknięte, albo otwarte. W pytaniach i
zamkniętych respondentowi przedstawia się zbiór odpowiedzi, a jego zadanie pol lega na
wybraniu tej odpowiedzi, która najlepiej odzwierciedla jego poglądy. I taH na przykład, aby
/mierzyć stopień zadowolenia respondenta z życia rodzinnego w Ogólnym Sondażu
Społecznym — badaniu corocznie przeprowadzanym przfl National Opinion Research Center
— posłużono się następującym pytaniem zamki niętym:
270
Proszę podać numer odpowiedzi, która wskazuje na Pana(i) stopień zadowolenia z
życia rodzinnego:
6. Bardzo niski.
7. Żaden.
8. Nie wiem.
9. Brak odpowiedzi.
Odpowiedzi na pytania zamknięte mogą być też bardziej rozbudowane, jak na
przykład w poniższym pytaniu pochodzącym z sondażu dotyczącego postaw kobiet i
mężczyzn wobec miejsca i roli kobiet4:
Przypuśćmy, że zarówno mąż, jak i żona mają dobrą i ciekawą pracę, a mężowi
właśnie zaoferowano posadę w innym mieście. Jeżeli przyjmiemy, że nie mają oni dzieci, to
które z przedstawionych niżej rozwiązań będą — Twoim zdaniem — preferować:
• mąż powinien zrezygnować z nowej propozycji,
• żona powinna zrezygnować ze swojej pracy i przeprowadzić się wraz z mężem,
• mąż powinien podjąć nową pracę i się przeprowadzić / żona powinna utrzymać
swoją pracę i pozostać na miejscu,
• nie wiem,
• brak odpowiedzi.
Pytania zamknięte zadaje się łatwo i szybko się na nie odpowiada. Nie wymagają one
wpisania w kwestionariuszu ani przez respondenta, ani ankietera, a ich analiza jest prosta.
Wadą jest jednak możliwość wprowadzania zjawiska stronniczości czy to przez zmuszanie
respondenta do dokonania wyboru spośród przedstawionych mu możliwości, czy przez
przedstawianie mu takich alternatyw, które same nie przy-szlyby mu na myśl.
Pytania otwarte nie są wyposażane w żadną konkretną odpowiedź, a to, co mówi
respondent, jest w całości zapisywane. Na przykład pytanie: „Jakie Twoim zdaniem są
najważniejsze problemy, którymi rząd w Waszyngtonie powinien się zająć?" jest pytaniem
otwartym, często wykorzystywanym w kwestionariuszach przeznaczonych do badania opinii
publicznej. Zaletą pytań otwartych jest to, że nie zmuszają respondentów do wybrania jednej
z wcześniej przygotowanych odpowiedzi. Jeżeli tylko respondent zrozumie istotę pytania, to
może na nie odpowiedzieć całkowicie swobodnie, spontanicznie i posługując się swoim
własnym językiem. Jeżeli odpowiedzi udzielone na pytania otwarte nie są jasne, to ankieter
— stosując technikę sondowania — może poprosić respondenta o dalsze wyjaśnienia lub o
uzasadnienie tego, co wcześniej zostało powiedziane. Pytania otwarte pozwalają na
wyjaśnianie nieporozumień i stwarzają możliwość nawiązywania dobrego kontaktu z
respondentem. Na pytania otwarte trudno się jednak odpowiada i jeszcze trudniej się je
analizuje. Badacz musi zaprojektować specjalny system kodowania, aby otrzymane
odpowiedzi mogły zostać poklasyfikowane. W procesie klasyfikowania zaś wiele
szczegółowych informacji może ulec zagubieniu (por. rozdział 14).
1 Rita J. Simon, Jean M. Landis (1989), Report: Women's and Men's Attitudes about a
Woman's Place and Role, „Public Opinion Quarterly", 53, s. 265-279.
1. Bardzo wysoki.
2. Wysoki.
3. Przeciętny.
4. Niewielki.
5. Niski.
271
To, kiedy należy stosować pytania zamknięte, a kiedy otwarte, zależy od wielu
czynników. Kilkadziesiąt lat temu Paul Lazarsfeld sformułował następujący zbiór kryteriów
determinujących poprawność ich stosowania5:
1. Cel kwestionariusza. Pytania zamknięte są odpowiednie wówczas, kiedy celem
badania jest uzyskanie aprobaty lub dezaprobaty wobec jasno wyrażonego punktu widzenia.
Kiedy badacz chce się dowiedzieć, w jaki sposób respondent tworzy określony punkt
widzenia, powinien zastosować raczej pytania otwarte.
2. Poziom wiedzy respondenta na temat problematyki pytania. Pytania otwarte
stwarzają możliwości sprawdzenia, w jakim stopniu respondent jest nie doinformowany,
podczas gdy pytania zamknięte takiej możliwości nie dają. Oczywiście, tworzenie pytań,
które całkowicie wychodzą poza zakres doświadczeń respondenta, mija się z celem.
3. Stopień, w jaki problematyka pytania została przemyślana przez respondenta.
Pytania otwarte są preferowane w sytuacji, w której respondent nie ma jeszcze
skrystalizowanej opinii. Stosowanie wówczas pytań zamkniętych stwarza ryzyko akceptacji
którejś z przedstawionych możliwości, odmiennej od opinii respondenta wyrażonej wtedy,
kiedy brałby on pod uwagę i oceniał swoje poprzednie doświadczenia.
4. Łatwość, z jaką respondent może komunikować treść odpowiedzi, lub zakres, w
jakim respondent jest motywowany do przedstawiania swojej opinii na dany temat. Pytania
zamknięte wymagają mniejszej motywacji do wyrażania własnych opinii, a sama odpowiedź
zazwyczaj mniej ujawnia (tym samym jest mniej zagrażająca) niż w wypadku pytań
otwartych. Badacze stosujący pytania zamknięte rzadziej też spotykają się z odmową
odpowiedzi.
Czasami istnieją powody, dla których warto zadać to samo pytanie zarówno w formie
otwartej, jak i zamkniętej. Na przykład odpowiedź na pytanie otwarte: „Kto rządzi
Ameryką?" dostarczy informacji na temat spostrzegania systemu politycznego przez
respondenta i znaczenia, jakie dana osoba przypisuje różnym grupom rządzących. I chociaż
takie dane są najbardziej wartościowe, to na ich podstawie może być trudno porównać jedną
grupę respondentów z drugą. Co więcej. badacz nie może być pewny, że respondent podał
wszystkie istotne informacje. Czynniki takie jak nieumiejętność wyrażania własnych myśli
czy chwilowe wahania mogą sprawić, że respondent pominie istotne elementy. Dlatego
później w trakcie wywiadu badacz może zadać to samo pytanie jeszcze raz, ale tym razem w
postaci zamkniętej.
Pytania alternatywne
Bardzo często bywa tak, że pytania dotyczące jednych respondentów nie dotyczą
innych. Na przykład pytanie: „Wymień najistotniejsze powody, dla których chcesz pójść do
college'u" dotyczy oczywiście tylko tych uczniów szkół średnich, którzy planują naukę w
college'u. Bardzo często istnieje konieczność włączenia do kwestionariusza pytań, które będą
dotyczyć jednych i nie dotyczyć innych respondentów. Niektóre pytania mogą dotyczyć tylko
kobiet, inne mężczyzn, jeszcze inne tylko osób pracujących na własny rachunek itd.
5 Paul F. Lazarsfeld (1944), The Controversy over Detailed Interviews: An Offer for
Negotialion, „Public Opinion Quarterly", 8, s. 38-60.
272
Pytania alternatywne to specjalny rodzaj pytań zamkniętych — dotyczą tylko
wybranych grup respondentów. Badacz określa istotność każdego pytania dla określonej
grupy respondentów, wprowadzając wcześniej tzw. pytanie filtrujące. Na przykład w sondażu
dotyczącym tematyki informacyjnej w różnych mediach pytanie filtrujące może brzmieć
następująco: „Czy regularnie czyta Pan(i) bieżące informacje w gazetach?" Pytanie
alternatywne można wtedy sformułować następują--co:„0 jakim wydarzeniu Pan(i) czytał(a)
ostatnio? (Proszę je krótko opisać)". Drugie pytanie dotyczy tylko tych respondentów, którzy
w odpowiedni sposób odpowiedzieli na pytanie filtrujące. Tylko respondenci, którzy na
pytanie filtrujące odpowiedzieli „Tak", będą mogli udzielić odpowiedzi na zgodne z nim
pytanie alternatywne. Zatem kategorie odpowiedzi na pytania filtrujące są następujące: 1. Tak
(odpowiedź na kolejne pytania); 2. Nie (przejdź do pytania nr 3).
Format pytań filtrujących i alternatywnych jest zróżnicowany. Można umieszczać
wskazówki zaraz po odpowiedniej kategorii odpowiedzi pytania filtrującego. Innym
powszechnym formatem jest stosowanie strzałek kierujących respondenta albo do następnego
pytania, albo do pytania alternatywnego. Na przykład:
Czy jest to Pana(i) pierwsza pełnoetatowa praca od czasu ukończenia college'u? , 1.
Tak. 2. Nie.
Co się stato z Pana(i) poprzednią pracą — został(a) Pan (i) awansowany(a),
zwolniony(a) czy były jakieś inne powody? (Proszę wybrać jedną z możliwości).
1. Instytucja została zlikwidowana.
2. Zostatem(łam) zwolniony(a).
3. Okres zatrudnienia się skończył. Praca była sezonowa.
4. Odszedłem (Odeszłam) dobrowolnie.
5. Zostatem(tam) awansowany(a) i przeniesiony(a).
6. Inne powody.
Przykład 11.1
Pytania alternatywne
Odpowiedź na poniższe pytania, jeżeli jesteś uczniem ostatniej klasy szkoły średniej i
planujesz pójście <Jocollege'u. Osoby nie będące uczniami ostatniej klasy przechodzą do
pytania 144.
137. Czy zdawałeś(aś) już egzamin do college'u? _____ tak
,_____ nie
138. Czy wiesz już ostatecznie, do którego college'u będziesz chodzić? _____ tak
_____ nie
Inny format polega na ujęciu pytań alternatywnych w ramkę i umieszczeniu ich poza
zwykłymi pytaniami przeznaczonymi dla wszystkich. Ilustrację takiego formatu
zamieściliśmy w przykładzie 11.1. Jeżeli dany kwestionariusz jest adresowany do kilku
podgrup i dla każdej grupy przeznaczono po kilka pytań alaternatyw-nych, to warto —
podając numer — wskazać respondentowi, na które pytania ma odpowiadać. Wówczas w
pytaniu filtrującym odpowiednie instrukcje podaje się obok właściwej kategorii odpowiedzi,
tak jak w poniższym przykładzie:
273
22. Czy teraz szukasz nowej pracy?
_____tak
_____nie 1
_____nie wiem [ PrzeJdź do Pytania 25-
_____nie dotyczy J
W wywiadzie telefonicznym wspomaganym komputerowo (CATI) programuje; się
komputer w taki sposób, aby automatycznie przechodził do właściwych pytań. Jeżeli
respondent odpowie „nie", „nie wiem" czy „nie dotyczy" na poprzednie pytanie, na ekranie
automatycznie pojawi się pytanie 25.
Trzy rodzaje pytań
¦ Pytania zamknięte. Respondentom przedstawia się zbiór odpowiedzi i prosi o
wybranie tej, która najlepiej opisuje ich cechy czy postawy.
¦ Pytania otwarte. Respondentom nie przedstawia się zdefiniowanego zbioru
odpowiedzi. Prosi się natomiast o opisanie swoich cech czy postaw własnymi słowami. Ich
odpowiedzi są w całości zapisywane albo przez samych respondentów, albo przez ankietera.
¦ Pytania alternatywne. Jest to rodzaj pytań zamkniętych zadawanych tylko podgrupie
respondentów. Podgrupa jest wyodrębniana za pomocą pytania filtrującego, kierującego
odpowiednich respondentów do właściwych dla nich pytań lub za pomocą instrukcji, która
wskazuje członkom podgrupy, na które pytanie lub zbiór pytań powinni odpowiadać, a osoby
nie należące do tej grupy informuje, do którego pytania powinny przejść.
¦ Format pytania
Badacze stosują wiele technik, aby nadać odpowiednią strukturę kategoriom
odpowiedzi w pytaniach zamkniętych. Podstawowy format to przedstawienie wszystkich
możliwych odpowiedzi i sprawienie, aby respondent wybrał właściwą dla niego kM tegorię.
Respondent może otoczyć kółkiem, napisać numer, postawić krzyżyk w oi powiednim
kwadracie czy w pustym miejscu obok, w sposób, jak pokazano niżej:
Jaki jest Pana(i) stan cywilny?
___ pozostaję w związku ? pozostaję w związku 1) pozostaję w
związku
małżeńskim małżeńskim małżeńskim
___jestem stanu wolnego ? jestem stanu wolnego 2) jestem stanu
wolnego
___jestem rozwiedziony(a) ? jestem rozwiedziony(a) 3) jestem
rozwiedziony(a)
___jestem wdowcem/wdową ? jestem wdowcem/wdową 4) jestem
wdowcem/wdo'
Oczywiście, respondent musi otrzymać odpowiednie wskazówki, czy ma okólko-j wać
odpowiedni numer, zaznaczać krzyżykiem kwadrat czy stawiać go w pustyni miejscu.
Spośród trzech przedstawionych tu metod najmniej rekomendowana jea
274
metoda z pustymi miejscami, ponieważ respondent może postawie znak między
miejscami i tym samym trudno będzie rozstrzygnąć, o którą kategorię naprawdę chodzi.
Otoczenie kółkiem odpowiedniego numeru jest najbardziej preferowane, jako że numer
kodowy odpowiedzi można łatwo przenieść do odpowiedniego oprogramowania
komputerowego.
Skalowanie . .
Jednym z najczęściej stosowanych formatów w przypadku pytań wykorzystywanych
w sondażach społecznych jest format skali szacunkowej. Badacze posługują się skalą
szacunkową wtedy, kiedy respondent ma wyrazić swój sąd, odwołując się do
uporządkowanego zbioru kategorii, takich jak „całkowicie się zgadzam , „pożądane" czy
..bardzo często". Na przykład:
Policja powinna mieć prawo do pełnego zrewidowania każdego kierowcy
aresztowanego za prze-
kroczenie szybkości:
1. Całkowicie się zgadzam.
2. Zgadzam się.
3. Ani się zgadzam, ani się nie zgadzam.
4. Nie zgadzam się.
5. Całkowicie się nie zgadzam.
Kategorie odpowiedzi na takie pytania nazywane są kwantyfikatorami.
Odzwierciedlają one stopień intensywności każdej konkretnej oceny. Poniżej przedsta-I
wiamy najczęściej stosowane zbiory takich odpowiedzi:
. Całkowicie się zgadzam.
1. Za mało. 1. Więcej.
2. Zgadzam się. 2. Prawie dobrze. 2. Tak samo.
3. Ani się zgadzam, ani się nie zgadzam. 3. Za dużo. 3. Mniej.
4. Nie zgadzam się.
5. Całkowicie się nie zgadzam.
Kod numeryczny znajdujący się przy każdej kategorii jest zazwyczaj interpretowany
jako odzwierciedlenie stopnia aprobaty kategorii odpowiedzi — im większy numer
odpowiedzi, tym większy stopień aprobaty. I chociaż przyjmujemy, że kwantyfikatory są
uporządkowane ze względu na stopień aprobaty, jednak nie oznacza to jeszcze, że odległości
pomiędzy poszczególnymi kategoriami są równe. Skale szacunkowe, takie jak te tu
przedstawione, są bowiem skalami porządkowymi, informującymi jedynie o tym, która
kategoria jest wyższa lub niższa od innej kategorii, ale nie pozwalają na odpowiedź „o ile"
(por. rozdział 7).
Pomijając trudność związaną z szacowaniem aprobaty, trudno jest prosić
respondentów o dokładną odpowiedź, gdyż dla większości z nich będzie to zadanie bardzo
trudne. I chociaż na ogół respondenci potrafią bez większych problemów powiedzieć, ile
godzin poświęcili na oglądanie telewizji w zeszłym tygodniu, to podanie dokładnej
odpowiedzi na pytania dotyczące tematyki mającej dla nich niewielkie znaczenie — np.
postaw wobec polityki zagranicznej — staje się bardzo trudne6.
'Norman M. Bradburn, Seymour Sudman (1974), Itnproving lnterview Method and
Questionnaire Design. San Francisco: Jossey-Bass, s. 152-162.
275
Pytania tabelaryczne (macierzowe)
Pytania tabelaryczne (macierzowe) jest to metoda organizowania w całość dużego
zbioru pytań szacunkowych i posiadających te same kategorie odpowiedzi. Przedstawiony
poniżej przykład jest ilustracją takiej właśnie metody postępowania:
Wskaż swój stosunek do każdego z poniżej przedstawionych twierdzeń
Całkowicie Zgadzam się To zależy Nie Całkowicie I
się zgadzam zgadzam się się nie zgadza™
Mój głos oznacza dla mnie wpływ na sprawy rządowe w takim zakresie, w jakim tego
pragnę.
? ? ? ? D
Jeżeli złożę skargę pracownikom urzędu miasta, to postarają się oni naprawić to, co
jest złe. ? ? ? ? D
Czasami chciał-bym(łabym), aby urzędnicy państwowi zwracali więcej uwagi na to,
co myślę.
? ? ? ? D
Dyferencjał semantyczny
Dyferencjał semantyczny to inny typ skali szacunkowej. Umożliwia on pomiar reakcji
respondenta na pewien obiekt lub pojęcie i polega na wskazaniu swojego wjl boru na
dwubiegunowej skali, opisanej na każdym z krańców kontrastowymi przymiotnikami7:
Bardzo Dosyć Niewiele Wcale Niewiele Dosyć Bardzo Dobry ____
____ ____ ____ ____ ____ ___ Zły
Poniżej przedstawiamy przykład wykorzystania dyferencjału semantycznego':
Poniżej przedstawiamy listę par słów, które możesz wykorzystać do opisania służb
publicznych. Pomiędzy każdą parą przymiotników znajduje się siedem poziomych linii.
Weźmy dla przykładu pierwszą parę słów, tj. dobry/zły. Linia pozioma umieszczona najbliżej
lewej strony oznacza.żel oceniany urzędnik służby publicznej jest bardzo dobry, następna
linia oznacza, że on czy onajesl dość dobry itd. Słowa umieszczone na górze tej karty pomogą
Ci wybrać tę linię, która Twoim j zdaniem jest właściwa.
7 David R. Heise (1970), The Semantic Differential and Attitude Research, w: Gene
F. Summffl (red.), Attitude Measurement, Skokie, 111.: Rand Mc Nally, s. 235.
8 David Nachmias, David H. Rosenbloom (1978), Bureaucratic Culture: Citizens
andAdminiM tors in Israel, New York: St. Martin's Press, s. 110-115.
276
Proszę, powiedz zatem, która z linii najlepiej opisuje pracowników służby cywilnej?
Bardzo Dosyć Niewiele Wcale Niewiele Dosyć Bardzo
ny
Zły
Nieuczciwy
Nieskuteczny
Płytki
Bierny
'-L wykorzystują w kwestionariuszach metodę rangowania wtedy, kiedy chcą skać
informacje o stopniu ważności czy pierwszeństwa, jaki ^zie przypisują orowi postaw czy
obiektów. Na przykład w sondażu dotyczącym jakości życia -roszono respondentów o
porangowanie różnych wymiarów ze względu na przy-ywaną im ważność.
Proszę powiedzieć, co dla Pana(i) okazało się w życiu ważne. Proszę spojrzeć na tę
kartęJpwjto-dzieć. która z wymienionych niżej rzeczy stanowi dla Pana(i) najważniejszy cel
w życiu, która jest lochę mniej ważna, która znajduje się na trzecim, a która na czwartym
m.ejscu.
Ranga
12 3 4
12 3 4
12 3 4
12 3 4
Życie w dobrobycie (dobre zarobki
i możliwość życia na wysokim poziomie) Życie rodzinne (życie całkowicie
skoncentrowane
na własnej rodzinie) Życie pełne ważnych osiągnięć (osiągnięcia,
które przynoszą szacunek innych) Życie bezpieczne (dbanie o to, aby stać mnie było
na wszystkie podstawowe potrzeby)
Rangowanie jest użytecznym narzędziem z tego względu iż pozwala ustalić reny
porządek zbioru obiektów czy ocen. Jest to szczególnie przydatne, gdyż wtlu własnościom
mierzonym w naukach społecznych (na przykład "J^i życia", „statusowi") nie można
przypisać dokładnej wartości liczbowej. Stosuj rangowanie, możemy jednak, co najwyżej,
otrzymać informacje dotyczące relatywne-ouporzadkowania. Podobnie jak w przypadku skal
szacunkowych rangowanie nie dostarcza bowiem żadnych informacji dotyczących odległości
pomiędzy rangami. Różnica pomiędzy rangą 1 i 2 może nie być taka sama jak pomiędzy
rangą 2 i 3.
I Porządek pytań
Kiedy ustalimy już format pytań, musimy określić porządek, w-jakim te-pytania
zostaną umieszczone w kwestionariuszu. Zazwyczaj stosuje się dwa rodzajesche-matów
porządkowania pytań, które z punktu widzenia motywowania responden a do udzielania
odpowiedzi wydają się najwłaściwsze. Są to: strategia lejka i strategia
odwróconego lejka.
277
Strategia lejka
W strategii lejka każde kolejne pytanie jest powiązane z pytaniem poprzednim, a jego
zakres jest coraz mniejszy. Na przykład, jeżeli jesteśmy zainteresowani tym, w jakiej mierze
poglądy respondentów na problemy natury politycznej, ekonomicznej i społecznej wynikają z
czytanych przez nich gazet, to możemy chcieć ustalić, jaki rodzaj zagadnień to problemy w
oczach respondentów, jaka jest spostrzegana względna istotność każdego problemu, jakie
informacje posiadają oni na każdy temat, jakie są źródła tych informacji i czy gazety
wpłynęły na sposób widzenia problemu. Poniżej przedstawiamy przykład pytań
uporządkowanych według strategii lejka:
1. Jakie najważniejsze problemy stoją — Twoim zdaniem — przed narodem?
2. Który z wymienionych przez Ciebie problemów uważasz za najważniejszy?
3. Skąd czerpałeś(laś) informacje na temat tego problemu?
4. Czy czytasz „Washington Post"?
Jeżeli celem sondażu jest otrzymanie szczegółowych informacji i jeżeli respondent jest
wystarczająco motywowany do udzielania takich informacji, to strategia lejka pozwala
respondentom na bardziej skuteczne ujawnianie szczegółów. Co wic-1 cej, zadając na
początku pytanie o szerokim zakresie, badacz nie narzuca respondentowi żadnego kontekstu,
zanim ten nie ujawni własnej perspektywy. Jeżeli celem sondażu jest ujawnienie wielu
różnych odpowiedzi, to należy zaczynać od zadawania pytania o szerokim zakresie9.

Strategia odwróconego lejka


W strategii odwróconego lejka pytanie wąsko sformułowane wyprzedza pytanie o
szerokim zakresie. Jeżeli tematyka sondażu nie motywuje respondentów do wyrażania swoich
opinii — ponieważ jest albo nieistotna z ich punktu widzenia, albo nie mają oni aktualnych,
określonych doświadczeń — to można rozpocząć od pytania o wąskim zakresie tematycznym,
na które jest łatwiej odpowiedzieć, i zostawić sobie pytania szersze (trudniejsze) na koniec.
Jeżeli celem badania jest okres- j lenie sposobu generalizowania wniosków wynikających z
oceny konkretnej sytuacji i jeżeli badacz nie zna faktów, które zna respondent, to wąskie
pytania pozwalające ustalić określone fakty powinny wyprzedzać pytania wymagające
ogólnej oceny . I W przedstawionym niżej przykładzie badacz chce opisać, w jaki sposób
respondenci oceniają skuteczność działań ratowniczych podejmowanych w sytuacji klęski ży-
1 wiołowej. Aby oceny dokonywane przez ludzi nie były stronnicze, zdecydował, że lepiej
będzie rozpocząć od pytań dotyczących konkretów, a później poprosić o ogólną ocenę11.
1. Ile osób zginęło z powodu tornado?
2. Ile osób — Twoim zdaniem — było tak ciężko rannych, że musieli się znaleźć w
szpitalu'1
3. Ile czasu minęło, zanim większość rannych znalazła się w szpitalu?
9 Raymond L. Gorden (1980), lnterviewing: Strategy, Techniąues, and Tactics, wyd.
3. Homewood, 111.: Dorsey, s. 415-416.
10 Ibidem.
11 Ibidem.
278
4. Czy widziałeś(łaś) kogoś, komu udzielano pierwszej pomocy — czy to stosując
sztuczne oddychanie, czy też tamując krwawienie? Kto to był?
5. Ogólnie rzecz biorąc, jak oceniasz niesienie pierwszej pomocy i podjęte działania
ratownicze?
W wielu badaniach wykazano, że porządek, w jakim pytania są prezentowane
"ndentom, wpływa na rodzaj otrzymanej odpowiedzi. Istnieją na przykład dane azujące, że
odpowiedzi na pytania dotyczące postaw mogą się istotnie różnić zależności od tego, jakie
pytania je poprzedzają w kwestionariuszu. W jednym tatnich badań ponad 1100
respondentom zadano pytania na temat takich spraw, aborcja, wydatki na cele obronne czy
dobrobyt12. W jednej z wersji kwestiona-za pytania dotyczące istoty badań zostały
poprzedzone pytaniami tworzącymi
kst, a w innej pytaniami neutralnymi. Na przykład pytanie dotyczące aborcji:
zgadzasz się, czy jesteś przeciwko decyzji Sądu Najwyższego legalizującej reję?"
zostało — w pierwszej wersji — poprzedzone wieloma pytaniami kontowymi dotyczącymi
tradycyjnych wartości i problemu gwałtu. Okazało się, że
ndenci zostali uwrażliwieni przez pytania kontekstowe, zwłaszcza wtedy, gdy li
rozbieżne przekonania co do podstawowego tematu badań. Istnieją również e wskazujące na
to, że dla wyboru, którego dokonują respondenci, istotne znanie ma miejsce danej kategorii
odpowiedzi. Respondenci wybierają bowiem naj-ściej te kategorie, które na liście pojawiają
się pierwsze13. Wykazano również, jeżeli prosi się respondentów o przypisanie wartości
liczbowych zbiorowi kate-
(na przykład zgodnie ze stopniem ich ważności), to kategorie, które pojawiają
pierwsze, najczęściej uzyskują najwyższą rangę.
W przedstawionym niżej przykładzie respondenci będą chętniej przypisywać rwszą
rangę pierwszej kategorii wyłącznie dlatego, że pojawia się ona właśnie
'sza na liście.
Które z poniższych kategorii opisują najważniejsze i najbardziej podziwiane cechy
przez uczniów tej szkoły? (Poranguj od 1 do 6).
______ pochodzenie z dobrej rodziny,
______ kierowanie różnymi typami działalności,
______ posiadanie ładnego samochodu,
______ dobre oceny, honorowe miejsce na liście najlepszych uczniów,
______ bycie gwiazdą sportową,
______bycie osobą popularną.
Problem ten może się pojawić zwłaszcza w sytuacji, w której pytania mają for-
subiektywnych sądów, jak w wypadku postaw, i nie odgrywają centralnej ani znaczącej roli w
życiu respondenta. W takiej sytuacji kategoria, która pojawia się "ierwsza, pełni funkcję
punktu odniesienia dla wszystkich pozostałych kategorii. Można przezwyciężyć ten problem,
przedstawiając respondentom pełną listę kategorii, zanim poprosi się ich o dokonanie oceny.
Można też losowo określić porzą-
12 Roger Tourangeau, Kenneth A. Rasinski, Norman M. Bradburn, Roy D'Andrade
(1989), Carry-cner Effects in Attitude Surveys, „Public Opinion Quarterly", 53, s. 495-524.
'William A. Belson (1966), The Effects of Reversing the Presentation Order on Verbal
Rating s, .Journal of Advertising Research", 6:4, s. 30-37.
279
dek prezentacji tak. aby efekt porządku miał również charakter losowy i niebgJJ
źródłem systematycznej stronniczości14.
I wreszcie pytania, które są prezentowane pierwsze, powinny dać szansę »¦
spondentom na zrelaksowanie się — pierwsze pytanie powinno być formą nawią-zania
dobrego kontaktu pomiędzy respondentem a osobą prowadzącą wywiad. Tak I więc pytanie
znajdujące się na początku powinno być łatwe, interesujące i niekon- I trowersyjne. Na
przykład pytanie dotyczące nawyków picia alkoholu czy życia sdfl sualnego umieszczone na
początku kwestionariusza sprawi, że respondenci częściej I będą odmawiać odpowiedzi.
Zaleca się również, aby pytania otwarte były umiesz-czane później, ponieważ wymagają one
zazwyczaj więcej czasu i zastanowienia się I i dlatego — jeżeli pojawiają się na początku —
mogą zmniejszyć motywację «¦ spondenta do współpracy.
¦ Ograniczanie stronniczości:
błędy w konstrukcji kwestionariusza
Słownictwo
Pytanie powinno zostać tak sformułowane, aby respondent je zrozumiał. Na przy-1
kład, badacz może swobodnie posługiwać się słowem „syntetyzować", które możtB być
jednak niezrozumiałe dla innych osób. Jeżeli grupę respondentów stanowią I ludzie o pełnym
przekroju społecznym, to należy korzystać z takiego słownictwH które może być zrozumiane
przez przeciętnego sześcioklasistę. Co więcej, należy I unikać takich słów, które można
dowolnie interpretować. Na przykład pytanie: „Czy jesteś liberałem?" jest za szerokie. Nie
wiadomo bowiem, czy odnosi się ono do wykształcenia, polityki, zawodu czy życia
seksualnego. Jednak pytanie takiej jak: „Czy uważasz siebie za osobę liberalną? Mam na
myśli politykę" mówiilj spondentowi, że polityka ma być dla niego punktem odniesienia przy
formułowa- I niu odpowiedzi na nie. Każde pytanie powinno zostać sformułowane tak, aby
refl spondent zrozumiał jego sens i aby miało ono taki sam sens dla wszystkich respołB
dentów.
Schematyzacja (styl) odpowiadania
Schematyzacja (styl) odpowiadania to tendencja do odpowiadania na wszystkie py-j
tania w jeden określony sposób, bez względu na ich treść15. Problem ten możesia pojawić
wtedy, gdy zestaw pytań wyposażono w ten sam format odpowiedzi, a szczególnie wtedy,
gdy pytania odnoszą się do jednego zagadnienia. Na przykład, jeżeli pytania dotyczą
aprobującej postawy względem aborcji, to respondent, który nie akceptuje aborcji, może
ciągle wybierać te same kategorie odpowiedzi (wyłąca nie „całkowicie się nie zgadzam" lub
wyłącznie „całkowicie się zgadzam") tylko dlatego, że dla niego te kategorie wyrażają jego
sprzeciw wobec aborcji. MożnJ uniknąć stronniczości wynikającej ze schematyzacji
odpowiadania, zmieniając format odpowiedzi albo poprzez różnicowanie kategorii
odpowiedzi dla każdego pył
14 Edwin H. Carpenter, Larry G. Blackwood (1979), The Effects ofQuestion Position
on Responsa to Attitudinal Questions, „Rural Sociology", 44, s. 56-72.
15 Kenneth D. Bailey (1987), Methods ofSocial Research, New York: Free Press, s.
133.
280
lania, albo poprzez umieszczanie pytań tyczących jednego zagadnienia w różnych ;
miejscach kwestionariusza, zamiast grupowania ich w jednym miejscu.
Pytania sugerujące
Pytanie sugerujące to pytanie tak sformułowane, że respondent odczytuje je jako
wymagające określonej odpowiedzi. Pytanie sformułowane po to, aby zmierzyć postawy
wobec legalnej aborcji, może na przykład zostać sformułowane następująco: ..Czy jesteś za
czy przeciwko legalnej aborcji?" To samo pytanie sformułowane w sposób sugerujący może
brzmieć: „Nie zgodziłbyś się z tym, że jesteś przeciwko legalnej aborcji, nieprawdaż?" Na
ostatnie pytanie respondentom jest łatwiej odpowiedzieć „nie" niż „tak", ponieważ większość
osób czuje się lepiej, odpowiadając w tak wyraźnie określonym kierunku, stając tym samym
po tej samej stronie co ankieter.
Respondenci mają również tendencję do zgadzania się z twierdzeniami, które dotyczą
akceptowanych powszechnie norm, czy też z twierdzeniami, których treść jest odczytywa
jako społecznie pożądana. Natomiast rzadziej aprobują twierdzenia dotyczące społecznie
niepożądanych zachowań czy postaw w porównaniu z twierdzeniami formułowanymi zgodnie
z aprobatą społeczną. Także sposób wprowadza-tnia i uwypuklania określonej tematyki może
w ogromnej mierze wpłynąć na stanowisko opinii publicznej w tej mierze. Analiza
zróżnicowania słownictwa pytań wykorzystanych w Ogólnym Sondażu Społecznym
wykazała istotne zróżnicowanie odpowiedzi w zależności od sposobu wprowadzania danej
tematyki. Na przykład napytanie dotyczące dobrobytu, a sformułowane: „Czy na dobra
materialne wydajemy za dużo. za mało czy w sam raz?", 23% osób odpowiedziało, że za
mało. Jednak kiedy to samo pytanie zostało sformułowane następująco: „Czy na pomoc dla
osób biednych wydajemy za dużo, za mało czy w sam raz", prawie 63% osób odpowiedziało,
że za mało16.
W roku 1994 w sondażu ABC przeprowadzonym przez „Washington Post" znalazło
się pytanie: „Czy Clinton to demokrata w starym stylu, demokrata o postawie podatki-
wydatki czy demokrata w nowym stylu, który będzie prowadził wyważoną politykę w
zakresie finansów państwa?" W przeprowadzonej przez siebie analizie krytycznej prasy
krajowej Jeff Faux podkreśla, że pytanie to jest zarówno stronnicze, jak i sugerujące17.
Ponieważ w pytaniu tym liberałowie są opisani negatywnie, a konserwatyści pozytywnie,
zatem sugeruje ono, że jeżeli respondent jest niezadowolony z polityki Clintona, to jest tak
dlatego, że sam jest liberalnym demokratą w starym stylu. Gdyby wprowadzić pytanie mniej
wartościujące, na przykład: „Czy Clinton jest demokratą liberalnym czy konserwatywnym",
to moglibyśmy otrzymać zupełnie inne odpowiedzi.
Jeżeli chcemy otrzymać rzetelne odpowiedzi, to należy unikać pytań sugerujących. W
pewnych okolicznościach jednak pytanie sugerujące może pomóc zrealizować cel badań.
Pytanie: „Czy zgadzasz się na eksport żywności, aby nakarmić głodujących ludzi w Indiach?"
wprowadzono celowo po to, aby określić, jak duża jest grupa osób tak silnie
przeciwstawiających się eksportowi żywności, że odrzuca
16 Kenneth A. Radinski (1989), The Effect ofQuestion Wording on Public Supportfor
Government Spmdmg, „Public Opinion Quarterly", 53, s. 388-394.
17 Jeff Faux (1994), Hey, Big Spender, „The Nation", 31 October, s. 480.
281
ten pomysł nawet w tak silnie emocjonalnym kontekście jak kontekst „głodujących
ludzi"18.
Pytania zagrażajgce
Bardzo często istnieje konieczność włączenia do kwestionariusza takich pytań, które
mogą wprowadzić respondenta w zakłopotanie, i tym samym trudno na nie odpowiedzieć.
Pytania zagrażające to — według Normana Bradburna i jego współpracowników — „pytania
wywołujące lęk i dotyczące — na przykład — zachowań, które są traktowane jako nielegalne
lub niezgodne z normami, a także zachowań, które chociaż nie są uważane za społecznie
naganne, to są zachowaniami. o których nie da się publicznie dyskutować bez emocjonalnego
napięcia"19. Pytania zagrażające mogą dotyczyć takich problemów jak alkoholizm
respondenta, uprawianie hazardu czy preferencje seksualne.
Istnieje wiele dowodów empirycznych wskazujących na to, że pytania zagrażające
prowadzą do stronniczych odpowiedzi — respondenci bowiem albo zaprzeczają
występowaniu zachowań, którego dotyczy dane pytanie, albo je osłabiają. Generalnie rzecz
biorąc, wraz ze wzrostem zagrożenia, jakie niesie określone pytanie, maleje chęć ujawniania
przez respondenta tych zachowań, o których mówi się w pytaniu. Respondent stojący wobec
problemu odpowiedzi na pytanie zagrażające znajduje się w sytuacji konfliktu pomiędzy
chęcią sprostania roli „dobrego respondenta" odpowiadającego wiarygodnie na wszystkie
pytania a tendencją do przedstawiania się w korzystnym świetle, właściwą wszystkim
ludziom. Respondenci zazwyczaj rozwiązują ten konflikt nie tyle poprzez odmowę
odpowiedzi, ile poprzez stwierdzanie, że nie angażują się w określony rodzaj działalności,
podczas gdy w rzeczywistości są w nią zaangażowani20.
Ponieważ pytania zagrażające mogą prowadzić do stronniczych odpowiedzi, trzeba
przede wszystkim określić, czy dane pytanie jest zagrażające, czy też nie. Norman Bradburn i
Seymour Sudman twierdzą, że najlepszą metodą określania względnego zagrożenia
niesionego przez pytanie jest poproszenie respondentów o wskazanie tematyki pytań, jaka —
ich zdaniem — jest kłopotliwa dla większości ludzi21. Osoby przeprowadzające wywiad
mogą też poprosić respondentów o opisanie swoich reakcji na dane pytanie lub o
porangowanie tematów poruszanych w trakcie wywiadu ze względu na stopień trudności, jaki
tematy te sprawiły im w trakcie wy- j wiadu.
Co można uczynić z pytaniami zagrażającymi, gdy już je zidentyfikujemy?) W
obszernym studium dotyczącym wpływu pytań zagrażających na odpowiedzi w badaniach
sondażowych, Bradburn i Sudman stwierdzili, że sposób konstrukcji pytania ma tu zasadnicze
znaczenie22. Prawdopodobnie do ich najbardziej istotnych wniosków należy stwierdzenie, że
dokładność odpowiedzi wyraźnie wzrasta raczej
18 Robert I. Kahn, Charles F. Cannell (1957), The Dynamics of Intemiewing, New
York: Wiley. s. 129.
19 Norman M. Bradburn, Seymour Sudman, Ed Blair, Carol Stocking (1978),
Questions Threutand Response Bias, „Public Opinion Quarterly", 42, s. 221-222.
20 Ibidem, s. 221-234.
21 Bradburn, Sudman, Improving lnterview Method and Questionnaire Design, s.
165.
22 Ibidem, s. 14-25.
282
wtedy, gdy pytaniom towarzyszy rozbudowana instrukcja, niż wtedy, gdy zadaje się
krótkie pytania; gdy stosuje się pytania otwarte, nie pytania zamknięte, i wreszcie — w
mniejszym zakresie — wtedy, gdy respondent może odpowiadać na tematy drażliwe,
używając własnego języka. Kwestionariusz skonstruowany przez Bradburna i Sudmana
zawierał pytanie o to, ile razy w ciągu ostatniego roku respondent był nietrzeźwy. W wersji,
w której pytanie to było krótkie i posiadało format zamknięty, brzmiało ono: „Jak często — w
ciągu ostatniego roku — był(a) Pan(i) nietrzeź-wy(a) po wypiciu jakiegokolwiek rodzaju
alkoholu?" Zadanie respondentów polegało na wybraniu jednej z następujących kategorii
odpowiedzi: nigdy, raz w roku lub mniej, co kilka miesięcy, raz w miesiącu, co kilka tygodni,
raz w tygodniu, kilka razy w tygodniu, codziennie. Natomiast w wersji, gdy pytanie to było
rozbudowane i otwarte, najpierw proszono respondenta o podanie własnego określenia na stan
bycia nietrzeźwym: „Czasami ludzie wypijają zbyt wiele piwa, wina czy whisky i dlatego
zachowują się inaczej niż zwykle. Jakim słowem — Twoim zdaniem — powinniśmy opisać
ludzi będących w takim stanie, tak aby wiadomo było, o co chodzi, i można było swobodnie o
tym mówić?" Właściwe pytanie dotyczące bycia nietrzeźwym brzmiało natomiast
następująco: „Czasami ludzie piją alkohol na pusty żołądek, piją zbyt mało lub zbyt wiele i
stają się... (tu: słowo wskazane przez respondenta). Jak często, w ciągu ostatniego roku Tobie
zdarzyło się być... (tu: słowo wskazane przez respondenta) po wypiciu jakiegokolwiek
rodzaju alkoholu?" Do pytania tego nie dołączono żadnych kategorii odpowiedzi23.
Pytania o podwójnej treści
Pytania o podwójnej treści łączą w sobie dwa lub więcej pytań. Poniżej
przedstawiamy przykład zaczerpnięty z sondażu dotyczącego problemu przemocy w rodzinie.
Pr/emoc w rodzinie i AIDS to dwa najpoważniejsze problemy trapiące dzisiaj
Amerykę.
_____ zgadzam się ______ nie zgadzam się
_____ to zależy ______ całkowicie się nie zgadzam
Problem związany z tego typu pytaniami polega na tym, że mogą się one okazać
kłopotliwe dla respondentów, którzy zgadzają się tylko z jedną częścią tego pytania —
powiedzmy z przemocą w rodzinie — a nie zgadzają się z drugą, czyli z AIDS. Wiele pytań
zawierających łącznik „i" to prawdopodobnie pytania o podwójnej treści. Pytania zawierające
łącznik „i" można jednak stosować wtedy, gdy wymiary nim oddzielane są wzajemnie
rozłączne i respondenta prosi się o wybranie jednego z nich lub o ich porangowanie ze
względu na określone kryterium, na przykład:
Państwo stoi dzisiaj wobec dwóch podstawowych problemów: ochrony środowiska i
przemocy w rodzinie. Który z tych problemów jest, Twoim zdaniem, ważniejszy?
_____ ochrona środowiska
_____ przemoc w rodzinie
:3 Ibidem, s. 18
283
¦ List wprowadzajgcy
Kiedy kwestionariusz zostanie już skonstruowany, kolejnym krokiem jest napisanie
zdania wprowadzającego (w wypadku wywiadu osobistego czy telefonicznego) lub listu
wprowadzającego (w wypadku ankiety pocztowej) po to, aby wyjaśnić respondentom cel
sondażu i zachęcić ich do udzielania odpowiedzi. Treść listu wprowadzającego jest
szczególnie ważna w metodzie ankiety pocztowej, w której — co dobrze wiadomo — trudno
jest uzyskać zadowalający odsetek odpowiedzi, zwłaszcza wtedy gdy zadaje się więcej niż
kilka prostych pytań (por. rozdział 10).
List wprowadzający musi skutecznie przezwyciężyć opór respondenta czyjego
uprzedzenia dotyczące sondażu. Powinien on: 1) identyfikować instytucję sponsorującą
badanie lub osobę, która je przeprowadza, 2) wyjaśniać cel badania, 3) wyjaśniać powody, dla
których respondent powinien udzielić odpowiedzi, 4) przekonać respondenta, że wszystkie
otrzymane od niego informacje pozostaną całkowicie poufne.
Ogólnie rzecz biorąc, list wprowadzający dołączony do ankiety pocztowej powinien
być bardziej szczegółowy niż zdanie wprowadzające przygotowane na rzecz wywiadu
osobistego. Osoba prowadząca wywiad ma zawsze szansę wyjaśnić czy przekonać
respondenta, jeżeli tylko okaże się to konieczne. Ankiecie pocztowej towarzyszy tylko list
wprowadzający i dlatego odgrywa on tak ważną rolę.
Poniżej przedstawiamy dwa przykłady listów wprowadzających, wykorzystanych w
różnych badaniach sondażowych. Pierwszy, przedstawiony w przykładzie 11.2, został
wykorzystany w ankiecie pocztowej zaprojektowanej przez Instytut Badań Społecznych
Uniwersytetu Stanowego na Florydzie, pod auspicjami Stanowego Departamentu ds.
Zatrudnienia dla stanu Floryda w celu oceny ustawy dotyczącej zatrudniania w sektorze prac
publicznych (Public Service Employment and Trai-ning Act, Title VI — CETA)24.
Przykład 11.2
List wprowadzający z kwestionariusza stanu Floryda
Do osób kierujących programem:
Biuro ds. Zatrudnienia Departamentu Spraw Społecznych wraz ze Stanową Radą ds.
Zatrudnienia chciałoby uzyskać od Państwa ocenę projektu zatrudniania w sektorze prac
publicznych. Zebrania danych dotyczących takiej oceny podjął się dr M.L. Burnim z Instytutu
Badań Społecznych Uniwersytetu Stanowego na Florydzie. Celem tych badań jest określenie
wpływu projektu zatrudniania w sektorze prac publicznych na sytuację osób bezrobotnych w
stanie Floryda oraz określenie korzyści płynących z takich projektów dla społeczności, w
których są one realizowane.
Jak Państwo wiedzą, zatrudnianie w sektorze spraw publicznych jest podstawowym
elementem strategii realizowanej przez władze federalne i lokalne; strategii, której celem jest
rozwiązanie problemu ludzi bezrobotnych, posiadających niskie dochody. Jest rzeczą
oczywistą, że w całym kraju potrzebny jest program pozwalający na tworzenie nowych
stanowisk pracy i dokształcanie ogromnej rzeszy bezrobotnych. Prawdopodobnie są Państwo
również świadomi tego, że zatrudnianie w sektorze spraw publicznych jest kontrowersyjne i
przyszłość tego programu nie jest pewna. Jednym z powodów, dla których
24 Mickey L. Burnim (1978), An Evaluation ofthe Public Sernice Employment
Projects in Flońia Created under Title VI ofthe Comprehensive Employment and Training Act
of 1973, Tallahassee: Flo-rida State University, s. 164.
284
:st napisanie omcznego) lub yjaśnić respon-stu wprowa-której — co '., zwłasz-10). czy
jego tytucję sponso-' , 3) wy-4) przeko-całkowicie
ztowej po-
owane na rzecz
wyjaśnić czy
pocztowej to-
rolę.
wykorzysta-
przykladzie
Instytut Ba-
Stanowego
dotyczącej
ment and Trai-
;. Zatrudnienia . Zebrania da-
Uniwersytetu lia w sektorze
ści płynących
elementem problemu kraju potrzebny Tinej rzeszy bez-ektorze spraw pub-*<odów, dla
których
Projects in Florida Tallahassee: Flo-
program ten okazał się kontrowersyjny, jest brak danych na temat korzyści, jakie
mógłby on przynieść zarówno poszczególnym osobom, jak i społeczeństwu.
Ze względu na to, że taka ocena ma ogromne znaczenie dla polityki państwa, usilnie
Państwa proszę o wzięcie udziału w tych badaniach i umożliwienie zespołowi badawczemu
zebrania niezbędnych danych. To bardzo ważne, abyście Państwo wypełnili ten
kwestionariusz tak szybko, jak tylko to możliwe.
Dziękujemy za współpracę
Z poważaniem
dyrektor Edward A. Feaver
Biuro ds. Zatrudnienia
Przykład 11.3
List wprowadzający w kwestionariuszu stanu Wisconsin
Drodzy Państwo
Przeprowadzamy badanie sondażowe sponsorowane przez Uniwersytet Wisconsin-
Milwaukee i wspomagane przez Amerykański Związek Wolności Obywatelskich.
Chcielibyśmy dowiedzieć się czegoś więcej o tym, co ludzie, tacy jak Państwo, sądzą na
temat określonych aspektów wolności obywatelskich i w jaki sposób przekonania te są
powiązane z zachowaniami. Zostali Państwo wylosowani do wzięcia udziału w tym sondażu,
dlatego też Państwa opinie będą reprezentować opinie tysiąca ludzi podobnych do Państwa.
W kopercie znajdą Państwo egzemplarz kwestionariusza. Ponieważ jest on dość długi
i wymaga poświęcenia około 20 minut na jego wypełnienie, mamy nadzieję, że znajdą
Państwo na to czas i odeślą nam go w kopercie, która została zaadresowana i dołączona do
kwestionariusza. Otrzymane od Państwa informacje zostaną wykorzystane w naszych
badaniach.
Dwa słowa na temat poufności danych. Zapewniamy, że udzielone przez Państwo
informacje będą całkowicie poufne, jak wymagają tego standardy etyczne sformułowane
przez Amerykańskie Towarzystwo Nauk Politycznych. Państwa nazwisko nie zostanie
ujawnione ani powiązane z żadną konkretną odpowiedzią, a prawo do wglądu do Państwa
odpowiedzi będą mieli jedynie członkowie zespołu badawczego z Uniwersytetu Wisconsin-
Milwaukee. Dlatego też, chociaż sponsor badań może być zainteresowany ich wynikami, nie
otrzyma żadnych informacji mogących — w jakikolwiek sposób — Państwa zidentyfikować.
Prosimy, abyście Państwo w prawym górnym rogu kwestionariusza napisali numer. Numer
ten pozwoli nam chwilowo Państwa zidentyfikować. Znając ten numer, będziemy wiedzieć,
że odpowiedzieli Państwo na nasz kwestionariusz i nie będziemy Państwu przysyłać listów
przypominających, które pozwolimy sobie przesłać tym, którzy nie odeślą nam
kwestionariuszy.
Bardzo dziękujemy za Państwa chęć wzięcia udziału w tych badaniach. Jeżeli chcą
Państwo otrzymać kopię całego badania, prosimy zaznaczyć to w odpowiednim miejscu na
ostatniej stronie kwestionariusza. Dopilnujemy, aby otrzymali Państwo kopię uzyskanych
przez nas wyników. Mamy nadzieję, że kwestionariusz ten okaże się zarówno interesujący,
jak i prowokujący i z niecierpliwością oczekujemy na Państwa odpowiedź.
Z poważaniem
prof. Richard D. Bingham
prof. L. Gibson
Uwaga: Jeżeli otrzymali Państwo już ten kwestionariusz i go wypełnili, to prosimy
uprzejmie o odesłanie pustego egzemplarza z adnotacją „duplikat"' na pierwszej stronie.
285
Drugi przykład listu wprowadzającego (przykład 11.3) pochodzi z badań nad
problemem wolności obywatelskich, które zostały przeprowadzone przez zespół badawczy
Uniwersytetu Wisconsin w Milwaukee25. W liście tym położono nacisk na poufność danych i
szczegółowe objaśnienie sposobu wykorzystania zebranych informacji.
I wreszcie, należy starannie wybrać właściwy styl listu wprowadzającego,!
zdecydować, czy ma to być list formalny czy bardziej osobisty. W przedstawionych powyżej
przykładach wszyscy respondenci otrzymali list o charakterze formalnym. Można było jednak
nadać tym listom nieco bardziej osobisty charakter, wprowadzając zamiast nagłówka „Drogi
respondencie" czy „Drodzy przyjaciele" imię, nazwisko i adres respondenta. Większość
komputerowych procesorów tekstów posiada opcję pozwalającą na automatyczne (zatem
mało kosztowne) wpisywanie w listach imion i nazwisk z przygotowanej listy adresowej, a
wykazano, że nieco bardziej osobisty ton listu daje wyższy odsetek odpowiedzi niż list
formalny26.
¦ Instrukcja
Innym elementem, który należy wziąć pod uwagę, konstruując kwestionariusz, jest
instrukcja, dołączana do każdego pytania lub zbioru pytań. Instrukcja powinna się znaleźć
przy każdym pytaniu, które samo w sobie nie jest czytelne. Instrukcje mogą być bardzo
proste, takie jak „otocz kółkiem właściwą kategorię", lub bardziej złożone w postaci
wyjaśnień jak, na przykład, porangować zbiór priorytetów. Kiedy badanie kwestionariuszowe
jest przeprowadzane przez ankietera, instrukcje te pisane są dla osoby przeprowadzającej
wywiad i dlatego są krótkie i zwięzłe, instruujące, co zrobić, gdy respondent udzieli
określonej odpowiedzi, kiedy należy sondować, aby uzyskać dokładniejsze informacje, lub w
jaki sposób można wyjaśnić sens pytania. Poniżej przedstawiamy przykład instrukcji
przygotowanej dla ankietera:
Kto ostatnio zatrudnia! Pana(ią):
(USTAL PRAWIDŁOWĄ KATEGORIĘ)
osoba prywatna miasto hrabstwo I__I stan
? urząd federalny
? pracowałem(am) na własny rachunek instytucja publiczna, niedochodowa
? inne ______ (jakie?)
I__I nie wiem
Gdy przeprowadzamy badanie metodą wywiadu osobistego lub telefonicznego,
ankieter może udzielić odpowiedzi na każde pytanie respondenta. Inaczej przedstawia się
sytuacja w wypadku stosowania ankiety pocztowej, kiedy to na pytanie nie-
25 Richard D. Bingham, James L. Gibson (1979), Conditions of Commitment to Civil
Liberties.pir ca nie opublikowana, Milwaukee: Department of Political Science, University of
Wisconsin.
26 Michael T. Matteson (1974), Type of Transmittal Letter and Questionnaire Color
as Two Vaim les Influencing Response Rates in a Mail Survey, „Journal of Applied
Psychology", 59, s. 532-536.
286
jasne czy wieloznaczne zostanie najprawdopodobniej udzielona niewłaściwa
odpowiedź, jeżeli w ogóle takie pytanie nie zostanie pominięte. Dlatego opracowanie
właściwych instrukcji jest rzeczą bardzo ważną. Mogą się one rozciągać od instrukcji
ogólnych, wprowadzających cały kwestionariusz czy poszczególne jego części, do instrukcji
szczegółowych, wprowadzających poszczególne pytania.
Poniżej przedstawiamy przykład instrukcji ogólnej, umieszczonej na początku
kwestionariusza poświęconego postawom wobec wolności obywatelskich27:
Instrukcja: W przypadku każdego z zamieszczonych niżej pytań, zaznacz tę
odpowiedź, która jest najbliższa temu, co czujesz. Nie ma „dobrych" czy „złych" odpowiedzi
— staraj się odpowiadać tak szczerze, jak to możliwe. Na każde pytanie odpowiadaj w takim
porządku, w jakim zostało ono umieszczone w kwestionariuszu. Jeżeli chciałbyś(abyś) dodać
coś więcej, czy do konkretnego pytania, czy w stosunku do całego kwestionariusza, to
wykorzystaj wolne miejsce na końcu kwestionariusza. Twoje opinie są niezwykle ważne i
pomogą nam zrozumieć złożony problem wolności obywatelskich — serdecznie dziękujemy
za współpracę!
Drugi przykład pochodzi z Ogólnego Sondażu Społecznego i dotyczy instrukcji
wprowadzającej pytanie, do którego dołączono skalę szacunkową:
Instrukcja: Niektórzy sądzą, że rząd w Waszyngtonie powinien działać na rzecz
likwidowania różnic pomiędzy zarobkami osób biednych i bogatych — na przykład poprzez
zwiększanie podatków dla ludzi dobrze uposażonych lub poprzez wprowadzanie większych
ulg podatkowych dla ludzi biednych. Zdaniem innych rząd nie powinien się w ogóle
zajmować tym problemem. Tutaj mam kartę, na której przedstawiono skalę od 1 do 7. Jeden
(1) punkt oznacza, że rząd powinien obniżyć różnicę w zarobkach pomiędzy osobami
biednymi i bogatymi, a siedem (7) punktów oznacza, że rząd w ogóle nie powinien się
zajmować tym problemem. Jaka liczba punktów najlepiej odzwierciedla twoje poglądy?
(Zaznacz jedną wartość):
Wręczamy kartę O
Rząd powinien coś zrobić, Rząd nie powinien się
ABY ZMNIEJSZYĆ RÓŻNICĘ DOCHODÓW
ZAJMOWAĆ
LUDZI BOGATYCH I BIEDNYCH
DOCHODAMI LUDNOŚCI
12 3 4 5 6 7
I wreszcie przykład instrukcji dołączonej do jednego, konkretnego pytania:
W ilu stanach mieszkałeś(aś) w ciągu swego życia? (Proszę policzyć tylko te stany, w
których mie-szkałe(aś) przynajmniej rok).
I Konstruowanie kwestionariusza: analiza przypadku
Konstruowanie kwestionariusza przebiega według wielu etapów. Badacz rozpoczyna
od sformułowania problemu badawczego, następnie opracowuje pytania, okreś-
Bungham, Gibson, Conditions of Commitment to Civil Liberties.
287

łając format i rodzaj pytania, jakie może zadać. Aby zilustrować etapy tworzenia
kwestionariusza, w przykładzie 11.4 przedstawiamy kwestionariusz wykorzystany I w
rzeczywistym badaniu, przeprowadzonym przez Instytut Badań Społecznych Uniwersytetu w
Michigan28.
Celem badań było przeanalizowanie postaw wobec problemów życia w mieście i
problemów rasowych w 15 miastach na północy Stanów Zjednoczonych. Badacze starali się
określić cechy społeczne i psychologiczne, a także aspiracje czarnych i białych mieszkańców.
W każdym z badanych miast wybrano próbę białych i czarnych mieszkańców, liczącą około
175 białych i 175 czarnych osób. Ponadto j w okręgach wiejskich przebadano dodatkowo
około 366 białych osób. Łącznie zbadano 2950 białych i 2809 czarnych respondentów.
Wszyscy respondenci byli ! w wieku między 16 a 69 lat i mieszkali w prywatnych domach.
Badacze skonstruowali dwie wersje kwestionariusza —jedną dla białych i jedną dla
czarnych osób badanych. Pytania dotyczące danych metryczkowych byty niemal identyczne
w obu wersjach kwestionariusza. Pytania dotyczące postaw rów- '• nież były identyczne w
obu wersjach kwestionariusza, jednakże w każdej wersji większość pytań dotyczyła jednej lub
drugiej grupy rasowej. W kwestionariuszu znalazły się również pytania sondujące stopień
zadowolenia respondenta z sąsiedz- I twa, z działań rządu dotyczących rozwiązywania
problemów życia w mieście, związków z osobami innej rasy, postaw wobec integracji i
wreszcie spostrzeganej I uczciwości współżycia pomiędzy rasami. Kwestionariusz
przedstawiony w przykładzie 11.4 jest skróconą wersją oryginalnego kwestionariusza
adresowanego do czar- I nych mieszkańców.
Zauważmy, że kwestionariusz rozpoczyna się od wprowadzenia numerów
identyfikacyjnych dla osób, z którymi przeprowadzono wywiad, jak również od danych
identyfikujących ich miejsce zamieszkania. Przygotowano kwestionariusz tak, aby osoba
przeprowadzająca wywiad mogła wpisać, kiedy badanie się rozpoczęło. Pytanie pierwsze jest
przykładem pytania dotyczącego postaw i mierzy stopień satysfakcji respondenta z usług
gwarantowanych przez miasto. Pytanie to zostało wyposażone w macierzowy format
odpowiedzi. Zauważmy również, że przygotowano instrukcję zarówno dla ankietera (zaznacz
kod dla opcji A, a następnie zadaj pytanie o opcje od B do E), jak i dla respondenta.
Pytanie 2 to pytanie zamknięte z komponentą otwartą (2A). Pytanie 2A to
jednocześnie pytanie alternatywne. Pytania 3, 5, 6 i 7 to pytania podobne do pytań
alternatywnych. W pierwszej części zawierają one pytanie filtrujące, a w drugiej pytanie
alternatywne, które odnosi się tylko do tych respondentów, którzy wybrali określoną
kategorię odpowiedzi w pierwszej części. We wszystkich pytaniach sto- I sowane są kody
numeryczne wybierane przez ankietera.
Ostatnia część kwestionariusza ilustruje zalety wywiadu w porównaniu z inny- I mi
metodami wypełniania kwestionariusza (poczta, telefon). Ankieter może dostar- I czyć
dodatkowych informacji o ogólnych postawach respondenta, co w efekcie mo- I że pomóc
badaczom przy wyjaśnianiu zaobserwowanego schematu odpowiedzi.
28 Przykład oparto na pracy Angusa Campbella i Howarda Schumana (1973), Racial
Attitudam Fifteen American Cities, Ann Arbor, Mich.: Social Science Archive.
288
tworzenia _ stany Społecznych
mieście Badacze ~ rnych
czar-Ponadto
zba-byli
i jed-były rów-wersji mariuszu sąsiedz-mieście, spostrzeganej przykła-czar-
iden-
danych
, aby
• Py-
atys-wypo-owano
pyta-
jed-
pytań
irugiej
wybrali
sto-
mny-
dostar-
mo-
les in
Przykład 11.4
Kwestionariusz postaw wobec problemów życia w mieście
Czas przeprowadzenia wywiadu początek
numer zm. 3

numer zn
Wykształcenie numer

Osoba numer z m. 19
Wyłącznie dla celów służbowych
zm. 2
zm. 10
I. Przede wszystkim chciałbym(abym) się dowiedzieć, w jakim stopniu Pan(i) jest
zadowolona z podstawowych usług świadczonych przez miasto w Pana(i) najbliższym
sąsiedztwie. Co sądzi Pan(i) na temat poziomu szkół publicznych mieszczących się w
sąsiedztwie — jest Pan(i) generalnie zadowo-lony(a), całkiem zadowolony(a),
niezadowolony(a).
(Zaznacz kod dla opcji A. a następnie zadaj pytanie o opcje od B do E)
A. Poziom szkół publicznych
B. Parki i miejsca do zabawy dla dzieci, znajdujące się w sąsiedztwie
C. Ośrodki sportowe i rekreacyjne dla młodzieży, znajdujące się w sąsiedztwie
D. Ochrona przez policję na Pana(i) terenie
E. Wywóz śmieci na Pana(i) terenie
Generalnie Całkiem Bardzo Nie wiem
zadowolony zadowolony niezadowolony
i 2 3 8
1
Biorąc pod uwagę takie usługi świadczone przez miasto, jak prowadzenie szkół
publicznych czy wywóz śmieci, jak Pan(i) sądzi, czy w Pana(i) sąsiedztwie są one na lepszym
poziomie, takim samym czy gorszym, w porównaniu z innymi częściami miasta?
Na lepszym .... (zapytać A)............ 1
Takim samym...................................2
Na gorszym .... (zapytać A)........... 3
Nie wiem...........................................8
A. Jeżeli na lepszym lub na gorszym: Jaka jest Pana(i) zdaniem przyczyna, że usługi te
świadczone są na lepszym/gorszym poziomie?
3. Jeżeli ma Pan(i) poważne zastrzeżenia co do jakości usług świadczonych przez
wartości
miasto, to czy sądzi Pan(i), że może Pan(i) wpłynąć na urzędników miejskich,
zapisane
aby coś zrobili w tej sprawie?
Tak.........(zapytać A).................... 1
Nie..........(zapytać A)................... 5
Nie wiem..........(zapytać A)..........8

289
A. Czy kiedykolwiek dzwonil(a) Pan(i) do urzędu miasta, aby złożyć skargę na słabą
jakość usług?
Tak.................................... 1
Nie.................................... 5
4. Ogólnie rzecz biorąc, czy sądzi Pan(i), że urzędnicy miejscy w (miasto)
poświęcają tyle samo uwagi prośbom czy skargom składanym przez czarnych jak i białych
mieszkańców?
Więcej .............................. 1 1
Mniej................................ 2 3
Tak samo.......................... 3 2
Nie wiem.......................... 8 8
Porozmawiajmy teraz o problemach (miasto) jako całości.
5. Czy sądzi Pan(i), że prezydent (miasto) robi wszystko, aby rozwiązać podstawowe
problemy miasta, czy też Pana(i) zdaniem, nie robi wszystkiego, aby te problemy zostały
rozwiązane?
Robi wszystko, co można...................................... 1
Nie robi wszystkiego, co można (zapytać A)..... X
Nie wiem................................................................8
A. Jeżeli nie robi wszystkiego, co można: Czy sądzi Pan(i), że prezydent stara się
rozwiązać problemy miasta, czy też w ogóle się nie stara?
Stara się............................. 2
W ogóle się nie stara........ 3
6. Co sądzi Pan(i) na temat władz stanowych? Czy Pana(i) zdaniem, robią wszystko,
co
można, aby rozwiązać podstawowe problemy takich miast jak (miasto), czy też nic
nie robią, aby problemy te zostały rozwiązane?
Robią wszystko, co można.................................... 1
Nie robią wszystkiego, co można (zapytać A) .. X Nie
wiem................................................................8
A. Jeżeli nie robią wszystkiego, co można: Czy sądzi Pan(i), że starają się
rozwiązać problemy miasta, czy też w ogóle się nie starają?
Starają się ......................... 2
W ogóle się nie starają..... 3
7. Co sądzi Pan(i) na temat rządu w Waszyngtonie? Czy Pana(i) zdaniem rząd robi
wszystko, co można, aby rozwiązać podstawowe problemy takich miast jak (miasto),
czy też nic nie robi, aby problemy te zostały rozwiązane?
Robi wszystko, co można...................................... 1
Nie robi wszystkiego, co można (zapytać A)..... X
Nie wiem................................................................8
A. Jeżeli nie robi wszystkiego, co można: Czy sądzi Pan(i), że stara się on
rozwiązać problemy miasta, czy też w ogóle się nie stara?
Stara się............................ 2
W ogóle się nie stara....... 3
290
. W Cleveland oraz w Gary, w stanie Indiana, wybrano osobę o czarnym kolorze skóry
na prezydenta miasta. Jaki efekt — Pana(i) zdaniem — fakt ten może wywrzeć na
rozwiązywanie problemów w Cleveland i w Gary? Czy dzięki temu sprawy potoczą się lepiej,
gorzej, czy też nie przyniesie to żadnych zmian?
Lepiej ......................................................................1
Gorzej.....................................................................2
Niewiele zmian...................................................... 3
Nie wiem......................(zapytać A)...................8
A. Jeżeli nie wiem: A gdyby miat(a) Pan(i) zgadywać, to czy sprawy potoczą się
lepiej, gorzej, czy też nie przyniesie to żadnych
Lepiej . Gorzej
Niewiele zmian...................................................... 3
Teraz chciatbym(abym) porozmawiać o zarzutach, jakie ludzie mają w stosunku do
policji miejskiej
W (MIASTO).
9. Po pierwsze, wiele osób twierdzi, że policja nie przyjeżdża dość szybko, kiedy sieją
wzywa na pomoc. Czy sądzi Pan(i), że dzieje się tak również w Pana(i) sąsiedztwie?
Tak........(zapytać A)................ 1
Nie.........(przejść do 10).............. 5
Nie wiem.........(zapytać A)......8
A. Jeżeli tak lub nie wiem: Czy kiedykolwiek zdarzyło się to Panu(i) osobiście?
Tak........(zapytać B i C)...........1
Nie..........(zapytać C)............... 5
B. Jeżeli tak na opcję A: Kiedy to się stało (ostatni raz)?
_______ lat temu
C. Jeżeli tak lub nie na opcję A: Czy zdarzyło się to komuś, kogo Pan(i) zna?
Tak Nie .
10. Niektórzy twierdzą, że policja nie szanuje ludzie i używa wulgarnego języka. Czy
zdaniem Pana(i) zdarzyło się tak również w Pana(i) sąsiedztwie?
Tak........(zapytać A).................1
Nie........(przejść do 11).............5
Nie wiem.........(zapytać A)......8
A. Jeżeli tak lub nie wiem: Czy kiedykowiek zdarzyło się to Panu(i) osobiście?
Tak........(zapytać B i C)........... 1
Nie........(zapytać C)................. 5
B. Jeżeli tak na opcję A: Kiedy to się stało (ostatni raz)?
______ lat temu
291
C. Jeżeli tak lub nie na opcję A: Czy zdarzyło się to komuś, kogo Pan(i) zna?
Tak................................................1
Nie................................................5
11. Niektórzy twierdzą, że policja często dokonuje przeszukania bez wyraźnego
wartości
uzasadnienia. Czy zdaniem Pana(i) zdarzyło się tak również w Pana(i) sąsiedztwie?
Tak.........(zapytać A)................1
Nie..........(przejść do 12).......... 5
Nie wiem.......(zapytać A)........8
A. Jeżeli tak lub nie wiem: Czy kiedykowiek zdarzyło się to Panu(i) osobiście?
Tak........(zapytać B i C)...........1
Nie.........(zapytać C)................ 5
B. Jeżeli tak na opcję A: Kiedy to się stało (ostatni raz)?
lat ______ temu
C. Jeżeli tak lub nie na opcję A: Czy zdarzyło się to komuś, kogo Pan(i) zna?
Tak................................................1
Nie................................................5
12. Niektórzy twierdzą, że policja źle traktuje ludzie w trakcie aresztowania lub po
aresztowaniu. Czy zdaniem Pana(i) zdarzyło się tak również w Pana(i) sąsiedztwie?
Tak.........(zapytać A)................1
Nie..........(przejść do 13).......... 5
Nie wiem.........(zapytać A)......8
A. Jeżeli tak lub nie wiem: Czy kiedykowiek zdarzyło się to Panu(i) osobiście?
Tak.........(zapytać B i C).......... 1
Nie.........(zapytać C)................ 5
B. Jeżeli tak na opcję A: Kiedy to się stało (ostatni raz)?
lat _______ temu
C. Jeżeli tak lub nie na opcję A: Czy zdarzyło się to komuś, kogo Pan(i) zna?
Tak................................................1
Nie................................................5
13. Czy Pana(i) zdaniem czarni mieszkańcy miasta są lepiej traktowani przez
czarnych policjantów, białych policjantów, czy też kolor skóry policjantów nie ma tu żadnego
znaczenia?
Przez czarnych policjantów.....(zapytać A)........... 1 1
Przez białych policjantów........(zapytać A).......... 2 2
Kolor skóry policjantów nie ma znaczenia...............3 2
Nie wiem....................................................................8 8
A. Jeżeli przez czarnych lub białych policjantów: Dlaczego Pana(i) zdaniem tak się
dzieje?
292
14. Ogólnie rzecz biorąc, czy Pana(i) zdaniem sędziowie w (miasto) wydają wyroki
surowsze dla białych mieszkańców, czarnych mieszkańców czy kolor skóry mieszkańców nie
ma tu żadnego znaczenia?
Surowsze dla czarnych............................................ 1
Surowsze dla białych............................................... 2
Kolor skóry mieszkańców nie ma znaczenia.......... 3
Nie wiem.................................................................. 8
15. Czy czuje się Pan(i) obecnie bezpieczniej niż dwa czy trzy lata temu, czuje się
Pan(i) tak samo bezpiecznie, czy też mniej bezpiecznie?
Obecnie bezpieczniej ................................................. 1
Bez zmian.................................................................. 2
Mniej bezpiecznie......................................................3
16. Mam tu listę skarg, które czasami padają pod adresem sklepów i ich obsługi.
Proszę mi powiedzieć, czy któraś z wymienionych tu rzeczy przydarzyła się Panu(i) w trakcie
pobytu w sklepie w Pana(i) okolicy?
Często Czasami Rzadko Nigdy w sąsiedztwie Nie robię zakupów
(PRZEJDŹ DO D)
A. Czy uważasz, że często, czasami, rzadko lub nigdy policzono Panu(i) zbyt dużo za
zakupiony towar?
B. Czy często, czasami,
rzadko lub nigdy
1 2 3
zdarzyło się Panu(i)
kupić towar zepsuty
lub złej jakości?
C. Czy w takich sklepach często, czasami, rzadko lub nigdy tra-kuje się Pana(ią) bez
szacunku?
D. Jeżeli nigdy nie robi zakupów w sąsiedztwie: Dlaczego nie robi Pan(i) zakupów w
pobliżu?
WYPEŁNIĆ NATYCHMIAST PO WYJŚCIU RESPONDENTA
A. Całkowity czas trwania wywiadu:
______ minut
B. Współpraca ze strony respondenta
Zdecydowanie współpracuje............ 1
Współpracuje................................... 2
Nie współpracuje..............................3
C. Zainteresowanie problemami rasowymi ze strony respondenta
Duże.................................................. 1
Przeciętne..........................................2
Małe..................................................3
D. Stopień zrozumienia pytań przez respondenta
Dobre.................................................1
Przeciętne..........................................2
Słabe..................................................3
E. Kto z osób powyżej 14 roku życia był obecny w trakcie wywiadu?
Zaznaczyć wszystkie właściwe odpowiedzi
zm. 63 Nikt....................................................0
Małżonek/małżonka..........................1
Rodzice..............................................2
Dzieci powyżej 14 lat.......................3
Inni krewni lub przyjaciele...............4
Inne osoby (wymienić).....................5
F. Czystość gospodarstwa domowego
zm. 64 Bardzo schludnie i czysto..................1
Raczej czysto i schludnie..................2
Raczej bałagan..................................3
Ogromny bałagan..............................4
G. Data przeprowadzenia wywiadu zm. 69
H. Podpis ankietera:
I. Opisz krótko osobę respondenta i ewentualnie wszystkie czynniki, które mogły
wpłynąć na treść wywiadu.
¦ Podsumowanie
1. Podstawowym problemem omawianym w tym rozdziale są zasady konstruowania
kwestionariusza. Kwestionariusz to nic innego jak przełożenie celów badawczych na pytania.
Odpowiedzi na te pytania dostarczą danych pozwalających na przetestowanie hipotezy
badawczej.
2. Większość pytań można zaliczyć do jednej z dwóch klas: pytań dotyczących faktów
(pytań metryczkowych) i pytań dotyczących subiektywnych doświadczeń. Pytania dotyczące
faktów, inaczej pytania metryczkowe, tworzy się po to, aby otrzymać od respondenta dane
obiektywne. Pytania dotyczące danych subiektyw-
294
nych pozwalają na uzyskanie informacji o skłonnościach, preferencjach,
uprzedzeniach, wierzeniach, lękach i przekonaniach. Ogólnie rzecz biorąc, znacznie trudniej
jest skonstruować pytania dotyczące danych subiektywnych niż pytania dotyczące faktów.
Odpowiedzi na pytania dotyczące danych subiektywnych również zmieniają się częściej wraz
ze zmianą słownictwa, sposobem uwypuklania treści czy kolejnością pytań niż w wypadku
pytań dotyczących faktów.
3. Można wyróżnić trzy rodzaje pytań kwestionariusza: pytania zamknięte, pytania
otwarte i pytania alternatywne. W pytaniach zamkniętych respondentowi przedstawia się
zbiór odpowiedzi, a jego zadanie polega na wybraniu tej odpowiedzi, która najlepiej
odzwierciedla jego poglądy. Pytania otwarte nie są wyposażane w żadną konkretną
odpowiedź, a to, co mówi respondent, jest w całości zapisywane. Pytania alternatywne
dotyczą tylko wybranych grup respondentów. To, czy dane pytanie odnosi się do tej grupy
respondentów, jest ustalane na podstawie odpowiedzi wszystkich respondentów na
poprzedzające je pytanie filtrujące.
4. Jednym z najczęściej stosowanych formatów w pytaniach wykorzystywanych w
sondażach społecznych jest format skali szacunkowej. Zadanie respondenta polega na
wyrażaniu własnego sądu poprzez odwołanie się do uporządkowanego zbioru kategorii.
Istnieje kilka rodzajów skal szacunkowych, w tym dyferencjał semantyczny. Pytania
tabelaryczne to metoda organizowania w całość dużego zbioru pytań szacunkowych i
posiadających te same kategorie odpowiedzi. Metodę rango-wania wykorzystuje się w
kwestionariuszach wtedy, gdy chcemy uzyskać informacje o stopniu ważności czy
pierwszeństwa, jaki ludzie przypisują zbiorowi postaw czy obiektów.
5. Pytanie powinno zostać tak sformułowane, aby respondent je zrozumiał. Pytanie
sugerujące to pytanie tak sformułowane, że respondent odczytuje je jako wymagające
określonej odpowiedzi. Pytania zagrażające to pytania wywołujące lęk respondenta. Oba
rodzaje pytań mogą być źródłem stronniczej odpowiedzi. Należy unikać wprowadzania
zarówno pytań stronniczych, jak i zagrażających mogących uwrażliwiać respondentów,
poprzez stosowanie takich specyficznych technik jak rozbudowywanie określonego pytania
oraz stosowanie formatu otwartego pytań zamiast formatu zamkniętego.
I Podstawowe terminy
dyferencjał semantyczny 276 pytanie o podwójnej treści 283
kwantyfikatory 275 pytanie otwarte 271
opinia 269 pytanie sugerujące 281
postawa 269 pytanie tabelaryczne 276
pytanie 267 pytanie zagrażające 282
pytanie alternatywne 273 pytanie zamknięte 270
pytanie dotyczące faktów 268 rangowanie 277
pytanie filtrujące 273 skala szacunkowa 275
295
¦ Pytania sprawdzające
1. Omów różne sposoby pytania o informacje metryczkowe, opinie i postawy
respondentów.
2. Wyjaśnij, kiedy stosujemy pytania zamknięte, kiedy pytania otwarte, a kiedy
pytania alternatywne.
3. Wymień i opisz formaty pytań w zależności od celu, któremu one służą.
4. Omów rolę, jaką odgrywa kolejność pytań w kwestionariuszu.
5. Wymień problemy, które mogą się pojawić w trakcie konstruowania
kwestionariusza.
¦ Literatura dodatkowa
Brzezińska A., Brzeziński J. (1984), Skale szacunkowe, w: J. Brzeziński, Elementy
metodologii badań psychologicznych, Warszawa: PWN.
Czapiński J. (1978), Dyferencjal semantyczny, w: E. Paszkiewicz (red.), Materiały do
nauczania psychologii, seria III, t. 3, Warszawa: PWN.
Daniłowicz P., Sawiński Z., Sztabiński F., Sztabiński P.B., Wejland A.P. (1992),
Podręcznik socjologicznych badań ankietowych, Warszawa: Wyd. IFiS PAN.
Gostkowski Z. (red.), Analizy i próby technik badawczych w socjologii, Wrocław:
Ossolineum, t.: I (1966), II (1968), III (1970), IV (1972), V (1975), VII (1989), VIII (1990).
Gostkowski Z. (red.) (1992), Analizy i próby technik badawczych w socjologii, t. IX,
Warszawa: Wyd. IFiS PAN.
Lutynska K. (1984), Wywiad kwestionariuszowy. Przygotowanie i sprawdzenie
narzędzia badawczego. Wrocław: Ossolineum.
Lutynska K., Lutyński J. (red.) (1986), Analizy i próby technik badawczych w
socjologii, t. VI, Wrocław: Ossolineum.
Lutyński J. (1994), Metody badań społecznych. Wybrane zagadnienia, red., wstęp,
opracowanie K. Lutynska, Łódź: ŁTN.
Mayntz R., Holm K., Hubner P. (1985), Wprowadzenie do metod socjologii
empirycznej, Warszawa: PWN.
Nowak S. (red.) (1965), Metody badań socjologicznych. Wybór tekstów, Warszawa:
PWN.
Sztabiński P.B. (1997), Ankieterzy i ich respondenci. Od kogo zależą wyniki badań
ankietowych, Warszawa: Wyd. IFiS PAN.
Rozdział 12
Badania jakościowe
Badania terenowe 299
Obserwacja uczestnicząca 300
Obserwator w pełni uczestniczący (obserwacja niejawna) 300 Uczestnik jako
obserwator (obserwacja jawna) 303
Praktyczne problemy badań terenowych 304
Wybór tematu badawczego 304
Wybór miejsca i uzyskanie do niego dostępu 305
Nawiązywanie kontaktów z członkami grupy 307
Jak szukać osób dostarczających rzetelnych informacji 309
Opuszczanie terenu 309
Rejestrowanie obserwacji 310
Analizowanie danych 311
Podstawy teoretyczne badań terenowych 313
Społeczność robotników: przykład badań terenowych 315
Wybór tematu badawczego i terenu badań 315 Uzyskiwanie dostępu 316
Nawiązywanie kontaktów z członkami grupy 316 Opuszczanie terenu 317
Etyczne i polityczne aspekty badań terenowych 317
Podsumowanie 318
Podstawowe terminy 319
Pytania sprawdzające 319
Literatura dodatkowa 319
Co się dzieje wewnątrz uniwersyteckiego ośrodka pomocy dla ofiar gwałtu i jak się
tego można dowiedzieć? Amy Fried zainteresowała się, czy przekonania osób pracujących
ochotniczo w takim ośrodku wpływają na ich pracę, modyfikują cele organizacji oraz czy
wpływają na rodzaj pomocy oferowanej ofiarom gwałtu1. Fried włączyła się w prace nowo
tworzonego ośrodka kryzysowego dla ofiar gwałtu, podejmując —jako wolontariuszka —
pracę doradcy. Wraz z piętnastoma innymi kobietami i czterema mężczyznami pracującymi w
ośrodku uczęszczała na zajęcia treningowe i spotkania organizacyjne, na których
obserwowała interakcje zachodzące pomiędzy innymi wolontariuszami i koncentrowała się na
tym, w jaki sposób definiowali oni gwałt oraz jakim językiem posługiwali się, opisując ofiary
gwałtu. Stwierdziła, że w badanej grupie można wyróżnić dwie podkultury. Jedna z grup
posiadała to, co nazwała perspektywą polityczną. Grupa ta składała się z feministek, które
wierzyły, że gwałt jest rezultatem społecznej przewagi mężczyzn nad kobietami. Ich celem
byto zarówno pomaganie bezpośrednim ofiarom gwałtów, jak i wywoływanie określonych
zmian społecznych. Druga grupa kierowała się natomiast perspektywą pomagania. Jej
członkowie wierzyli, że pojęcie gwałtu dotyczy obu płci oraz problemu przemocy, ale
uważali, że celem organizacji powinno być niesienie ludziom pomocy — zarówno kobietom,
jak i mężczyznom — aby mogli oni przezwyciężyć cierpienie związane z tym, że byli
ofiarami gwałtu. Uogólniając swoje wnioski, Fried stwierdziła, że sprzeczność pomiędzy tymi
dwiema postawami osłabiała możliwości feministek w reformowaniu społeczeństwa i
wskazywała na to, że — być może — feministki powinny założyć własną organizację, która
lepiej pozwoli im realizować misję. W badaniach Fried zastosowała jakościowe metody
zbierania danych. Przyjmując na siebie rolę uczestniczącego obserwatora, mogła ujawnić, w
jaki sposób przekonania i wierzenia wpływają na cele organizacji.
W tym rozdziale skoncentrujemy się na badaniach terenowych jako formie badań
jakościowych, omawiając szczegółowo, na czym polega rola obserwatora w pełni
uczestniczącego, a także uczestnika występującego w roli obserwatora. Przeanalizujemy, w
jaki sposób badacze określają cele badawcze, identyfikują osoby badane i do nich docierają,
określają relacje oraz zapisują swoje obserwacje. Rozważymy również, w jaki sposób badacze
pracujący w terenie określają — na podstawie zebranych danych — założenia teoretyczne
leżące u podstaw ich badań, posługując się metodą analitycznej indukcji. Na koniec zajmiemy
się stroną etyczną i polityczną badań terenowych.
Do tej pory zajmowaliśmy się przede wszystkim metodami zbierania danych
charakterystycznych dla analiz ilościowych. W tym rozdziale omówimy prototyp badań
jakościowych — badania terenowe. Korzeni badań jakościowych jako metody zbierania
danych można upatrywać w tradycji Yerstehen, którą omówiliśmy
1 Amy Fried (1994), It's Hard to Change What We Want to Change, „Gender and
Society", 8:4, s. 562-583.
298
w rozdziale 1. Badacze powinni głęboko rozumieć zjawiska społeczne i być świadomi
zarówno historycznego kontekstu ludzkiego zachowania, jak i subiektywnych aspektów
doświadczenia ludzi. Badając zakłady dla obłąkanych, Erving Goffman tak opisał proces
aktywnego uczestniczenia w życiu obserwowanych osób i intro-spekcyjnego poznawania
rzeczywistości:
Bezpośrednim celem badań terenowych realizowanych przeze mnie na terenie szpitala
św. Elżbiety, była próba poznania społecznego świata jego pacjentów, w taki sposób, w jaki
ten świat jest przez nich subiektywnie doświadczany... Wierzyłem wtedy i nadal wierzę, że
każda grupa ludzi (więźniów, ludzi pierwotnych, pilotów czy pacjentów) tworzy swoje
własne życie, które — kiedy się je pozna — staje się znaczące, racjonalne i normalne.
Dobrym sposobem poznania któregokolwiek z tych światów jest wejście samemu do takiej
grupy i branie udziału we wszystkich codziennych, drobnych wydarzeniach, które są jej
udziałem2.
Podejmując badania jakościowe, staramy się zrozumieć zachowania i instytucje,
poznając zaangażowane w nie osoby, ich wartości, rytuały, symbole, wierzenia i emocje.
Przyjmując taką perspektywę, badacze będą badać problem ubóstwa, biorąc raczej udział w
życiu ludzi biednych, zamiast zbierać dane za pomocą ustruk-turowanego kwestionariusza.
I Badania terenowe
Badania terenowe to podstawowa strategia zbierania danych związana z metodologią
jakościową. Generalnie rzecz biorąc, badania terenowe określa się jako „badanie zachowania
ludzi w naturalnych warunkach ich codziennego życia. Osoby prowadzące badania terenowe
wkraczają w świat innych po to, aby z pierwszej ręki dowiedzieć się, jak inni ludzie żyją, jak
mówią, jak się zachowują, co ich zachwyca, a co martwi"3. Mówiąc dokładniej, badania
terenowe są charakteryzowane przez miejsce i sposób ich prowadzenia4. Badania terenowe są
przeprowadzane w warunkach naturalnych, jak na przykład w przypadku antropologów
mieszkających w badanych przez siebie plemionach, czy socjologów dzielących i
obserwujących codzienne życie społeczności lokalnych. Badania terenowe pozwalają na
głębokie zrozumienie subiektywnych znaczeń przypisywanych przez badanych ludzi.
Zazwyczaj osoby wykonujące badania terenowe starają się uwzględnić obie te cechy.
Współczesne badania terenowe w dziedzinie socjologii mają swoje korzenie w ruchach
społecznych, jakie nastąpiły na przełomie dziewiętnastego i dwudziestego wieku.
Reformatorzy byli przekonani, że opisanie warunków, w jakich żyją ludzie biedni, zwróci
uwagę na ich trudne położenie i doprowadzi do zmian społecznych i poprawy ich życia. Ruch
reformatorski znalazł swoje najsilniejsze akademickie odbicie w tzw. szkole chicagowskiej,
powstałej na początku lat dwudziestych.
2 Erving Goffman (1961), Asylums, Garden City, N.Y.: Doubleday, s. ix-x.
3 Robert M. Emerson (red.) (1983), Contemporary Field Research, Boston: Little
Brown, s. 1.
4 Ibidem.

299
Socjologowie ze szkoły chicagowskiej byli aktywnie zaangażowani w działania
reformatorskie podejmowane poza uniwersytetem. Robert Park, najbardziej znacząca osoba
ze szkoły chicagowskiej, traktował miasto jako niezwykle istotny teren badań
socjologicznych i przekonywał studentów do bezpośredniego obserwowania życia w różnych
miejskich enklawach:
Wejdźcie i usiądźcie w holu luksusowego hotelu lub na schodach prowadzących do
zrujnowanych domów; usiądźcie na sofach hotelu Gold Coast lub na chwiejących się
krzesłach w slumsach; pójdźcie na koncert do Orchestra Hall lub na przedstawienie do Star
and Garter Burlesk. Mówiąc krótko, panowie, ubrudźcie własne tyłki, prowadząc prawdziwe
badania5.
W tym czasie metodologia badań jakościowych ograniczała się do zbierania
różnorodnych dokumentów osobistych — autobiografii, historii życia, listów i dzienników.
Osoby prowadzące badania jakościowe miały zaledwie ograniczone pojęcie o tym, w jaki
sposób można uczestniczyć w życiu badanych ludzi. W ciągu następnych dwóch dekad, kiedy
to badania terenowe znalazły swoje miejsce w socjologii, wypracowano zasady
uczestniczenia w życiu badanych ludzi tak, aby badacze mogli dzielić — a tym samym lepiej
zrozumieć — subiektywną perspektywę badanych osób.
¦ Obserwacja uczestniczgca
Metodą zbierania danych, najbardziej powiązaną ze współczesnymi badaniami
terenowymi, jest obserwacja uczestnicząca, w której badacz staje się członkiem grupy, którą
chce badać6. Będąc członkiem grupy, obserwator uczestniczący przejmuje perspektywę
badanych osób na daną sytuację. Rola obserwatora uczestniczącego polega na „świadomym i
systematycznym uczestniczeniu — tak dalece, jak na to pozwalają okoliczności — w
codziennym życiu i w poszczególnych sytuacjach będących udziałem grupy"7. Bezpośrednie
uczestniczenie w życiu obserwowanych osób pozwala na poznanie ich języka, nawyków,
wzorców pracy, sposobów spędzania wolnego czasu i innych aspektów ich codziennego
życia. W każdej z takich sytuacji badacz może się pojawić w roli obserwatora w pełni
uczestniczącego lub uczestnika jako obserwatora.
Obserwator w pełni uczestniczqcy (obserwacja niejawna)
Podejmując rolę obserwatora w pełni uczestniczącego, nie ujawnionego, obserwator
jest całkowicie ukryty. Osoby badane nie znają celu badań, a obserwator staje się członkiem
danej grupy. Wchodzi w interakcje z badanymi osobami „w sposób
John C. McKinney (1966), Constructive Typology and Social Theory, Norwalk,
Conn.: Appleton and Lang, s. 71.
6 Rosalie H. Wax (1968), Participant Obsemation, w: International Encyclopedia
ofSocial Sciences, New York: Macmillan, s. 238.
7 Florence Kluckhohn (1940), The Participant-Obseryer Techniąue in Smali
Communities, „American Journal of Sociology", 46, s. 331.
300
naturalny, jak to możliwe, i w tych sytuacjach życiowych, które są dla niego teresujące
i dostępne"8.
I tak na przykład Festinger, Riecken i Schachter badali grupę osób wierzących w
rychłe nadejście końca świata. Grupa była tak specyficzna, iż badacze uznali, że nigdy nie
otrzymają pozwolenia na obserwowanie grupy z zewnątrz. Dlatego przedstawili się jako
osoby podzielające wierzenia grupy i stali się jej pełnoprawnymi członkami, starając się być
osobami „nie wpływającymi na innych, słuchającymi z sympatią, biernymi uczestnikami,
którzy byli wścibscy i chętnie uczyli się wszystkiego, o czym inni zechcieli im powiedzieć"9.
Richard Mitchell opisuje niektóre z trudności, jakie on i członkowie jego zespołu napotkali,
prowadząc badania terenowe nad paramilitarnymi organizacjami przetrwania10. Aby można
było odsłonić nieco tajemnicy otaczającej większość takich paramilitarnych organizacji,
badacze skorzystali z okazji werbowania nowych członków, zgłaszając się jako potencjalni
rekruci. I mimo że, gdy przybyli na swój pierwszy weekend na obozie przetrwania, byli nieco
przesadnie ubrani, zostali zaakceptowani i byli chwaleni za swój entuzjazm, chociaż ich strój
zupełnie odstawał od reszty osób. Aby zostać członkami grupy, badacze musieli uczestniczyć
w ćwiczeniach fizycznych i w działaniach społecznych, które pozostawały w niezgodzie z ich
własnymi wierzeniami. Mitchell tak opisał sytuację, kiedy miał rozwiązać sprawę, którą
grupa uznała za problem społeczny:
Kiedy zacząłem, dosiadł się do nas nowy mężczyzna. Wysłuchał mojego pomysłu i go
zaakceptował. Następnie się przedstawił i opowiedział mi o rzeczach, o których nie wszyscy
wiedzieli, o planach na przyszłość i o akcjach, jakie miały wkróce zostać podjęte. Powiedział
też, że chciałby wykorzystać osoby takie jak ja i abym był gotów do wspólnych działań.
Potraktowałem to wszystko poważnie. Inni również. Okazało się, że ten mężczyzna był jedną
z dziesięciu najbardziej poszukiwanych osób na liście FBI".
Propozycja Mitchella była na tyle interesująca, że otworzyła mu drzwi do
wewnętrznego koła grupy, ale wymagało to poniesienia kosztów z jego strony. Istniała
nowiem szansa, że zaproponowane przez niego rozwiązanie, odrażające dla niego, mogło
zostać przyjęte przez grupę. Tak opowiada o tym, co wtedy czuł:
Jeżeli istnieją badacze, którzy mogą uczestniczyć w takiej sytuacji bez żadnych uczuć,
to ja do nich nie należę i wierzę, że nigdy nie będę należał. Mam natomiast nadzieję, że
kiedyś uda mi się zapomnieć; zapomnieć te dźwięki, mój własny głos, moje własne słowa,
kiedy [...] to opowiadałem12.
Raymond L. Gold (1958), Roles in Sociological Field Observation, „Social Forces",
36, s. 219.
9 Leon Festinger, Henry Riecken, Stanley Schachter (1956), When Prophecy Fails,
New York: Har-per and Row, s. 234.
10 Richard Mitchell Jr. (1991), The Secrecy and Disclosure in Field Work, w: William
B. Shaffir, Robert A. Stebbins (red.), Experiencing Field Work: An Insight View of
Qualitative Research, Newbury Park, Calif.: Sagę, s. 97-108.
" Ibidem, s. 107. 12 Ibidem, s. 107.
301
Pełne uczestnictwo jest uzasadnione zawsze wtedy, kiedy dzięki temu można poznać
grupę, do której dostęp jest utrudniony, lub grupę, która nie ujawnia osobom z zewnątrz
swoich aspektów ich życia. Osoba prowadząca badania terenowe jest wówczas
najprawdopodobniej traktowana jako inny członek grupy. Mimo tej niewątpliwej zalety
obserwacji uczestniczącej wielu badaczy krytykuje pełne uczestnictwo zarówno z powodów
metodologicznych, jak i etycznych. Kai Erikson odrzuca na przykład wszelkie badania
terenowe, w których i rola badacza, i cel badań nie zostały wcześniej ujawnione. Jego
zdaniem takie badania naruszają prywatność i mogą być krzywdzące dla badanych osób:
Sam akt wchodzenia w układy międzyludzkie dzięki celowemu oszustwu może być
bolesny dla ludzi wprowadzonych w błąd. I jeżeli nawet tak się nie stanie, to istnieje
nieskończenie wiele możliwości, że osoba obca — udająca kogoś innego — będzie
denerwować resztę tym, że nie rozumie zasad prywatności obowiązujących w grupie, do
której próbuje wkroczyć13.
Erikson wskazuje na trudności, jakie mogą się pojawić wtedy, gdy badacz decyduje
się na pełne uczestniczenie w grupie, i jako przykład przytacza sytuację opisaną przez
Festingera, Rieckena i Schachtera w pracy When Prophecy Fails:
W pewnym momencie badania na jednym ze spotkań grupy pojawili się dwaj
obserwatorzy, którzy zgodnie ze zwyczajem mieli opowiedzieć o swoich doświadczeniach ze
spirytualizmem, starając się jednak wywołać jak najmniej zamieszania. Jednakże kilka dni
później liderce grupy doniesiono, że owi dwaj obserwatorzy wydawali się w trakcie swojej
wizyty zmartwieni, podekscytowani, zakłopotani i niepewni. To zaś potwierdziło jej
podejrzenia, że zostali oni w jakiś sposób „przysłani" z innej planety. W pewnym sensie,
oczywiście, incydent ten dostarczył nam interesujących obserwacji na temat struktury wierzeń
dotyczących kultu. Patrząc jednak z innego punktu widzenia, trzeba przyznać, że ocena
sytuacji dokonana przez liderkę była bardzo trafna: poza wszystkim obserwatorzy zostali
przysłani z innego świata, jeżeli nie z innej planety i miała ona rację, sądząc, że byli nieco
zakłopotani i niepewni z powodu swojego przybycia i pierwszych chwil w nowej pracy.
Rakcje ludzi „w obu przypadkach" są dowodem na to, że wizyta obserwatorów została
potraktowana jako „przykład na to, że dzieje się coś dziwnego". A rzeczy dziwne działy się
naprawdę — choć zupełnie nie wiemy, na ile były one dziwne. Ocena reakcji grupy na
pojawienie się pary obserwatorów jest rzeczą prawie niemożliwą, ponieważ nie wiemy, czy
zostali oni potraktowani jako zwykli neofici, czy też jako niezwykłe istoty. A nie jest to bez
znaczenia, jako że w pierwszym przypadku badacze obserwowaliby reakcję będącą częścią
normalnego zachowania się grupy; w drugim zaś — obserwowaliby reakcję, która nigdy nie
nastąpiłaby, gdyby grupie pozwolono żyć własnym życiem14.
13 Kai T. Erikson (1967), A Comment on Disguised Observation in Sociology,
„Social Problems", 14, s. 368.
14 Ibidem, s. 371-372.
302
Rola pełnego uczestnika rodzi też wiele problemów natury metodologicznej. Przede
wszystkim obserwatorzy mogą się tak bardzo kontrolować, aby nie odkryć swojego
prawdziwego ja, że pojawią się kłopoty w przekonującym zagraniu przyjętej roli. Z drugiej
strony mogą się tak identyfikować z przyjętą rolą, że włączą ją w obraz siebie i tym samym
zatracą konieczny dystans badawczy15. Po drugie, badacze mają kłopoty z podejmowaniem
decyzji, co należy obserwować, ponieważ nie wolno im wywoływać żadnych reakcji czy
zachowań i muszą dbać o to, aby nie zadawać pytań, które mogłyby spowodować podejrzenia
u obserwowanych osób. Po trzecie, nie można na miejscu rejestrować obserwacji ani
sporządzać notatek — można je robić dopiero wtedy, gdy obserwator jest sam. Tym samym
czas, jaki upłynął do momentu zapisania obserwacji, może być źródłem stronniczego błędu
oraz przekłamań wynikających z gorszej pamięci.
Dwa rodzaje badań terenowych
¦ Pełne uczestnictwo. Obserwatorzy stają się członkami badanej grupy, nie ujawniając
grupie ani własnej tożsamości, ani celu badania.
¦ Obserwator jako uczestnik. Obserwatorzy stają się członkami badanej grupy,
ujawniając grupie własną tożsamość i cel badania.
Uczestnik jako obserwator (obserwacja jawna)
Biorąc pod uwagę ograniczenia, o których pisaliśmy wyżej, należy rozważyć
możliwość podjęcia badań terenowych w roli uczestnika jako obserwatora. Przyjmując tę rolę,
badacze informują grupę o prowadzonych badaniach. Starają się stać aktywnymi członkami
grupy, angażując się w jej życie przez dłuższy czas, a także usiłują nawiązać bliskie stosunki
z członkami grupy, którzy pełnią funkcję informatorów, a także respondentów. Badania Johna
van Maanena nad szkoleniem policji są dobrą ilustracją wykorzystania tego rodzaju
obserwacji:
Będąc na ostatnim roku studiów na Uniwersytecie Kalifornijskim [...] zacząłem
kontaktować się z urzędnikami policji w całym kraju, szukając możliwości przeprowadzenia
jednosobowego badania terenowego wewnątrz dużej, miejskiej agencji egzekwującej prawo
[...] I chociaż niełatwo było mi znaleźć taki departament, który zgodziłby się tolerować mój
planowany najazd na jego centrum organizacyjne, w końcu udało mi się otrzymać pozwolenie
na przeprowadzenie badań w jednej z instytucji policyjnych [...] W trakcie badań
zachowywałem się jak typowy etnograf czy obserwator w roli uczestnika, starając się w żaden
sposób nie maskować moich naukowych celów czy swojej tożsamości i tylko z rzadka
spotykałem się z otwartą wrogością ze strony tych, którzy byli obiektem moich badań. W
większości sytuacji uznałem ten sposób badania za dobrze przystający zarówno do materii,
jak i ducha klasycznej definicji techniki
15 Gold, Roles in Sociological Field Observation, s. 220.
303
badań etnograficznych, sformułowanej przez Evansa-Pritcharda: „Dobrze poznać
osoby działające oraz zobaczyć i usłyszeć, co robią i co mówią"16.
Jak widać z przedstawionego wyżej przykładu, rola obserwatora jako uczestnika i
pełne uczestniczenie różnią się od siebie tym, że w pierwszym przypadku cel badań zostaje
jawnie określony. Jednakże i tutaj bycie członkiem grupy i uczestniczenie w jej życiu nadal
pozostaje ważnym elementem badania. Stosując tę metodę, badacz lepiej rozumie grupę oraz
jej sposób życia, a także zyskuje możliwość lepszego wglądu w to, co się rzeczywiście dzieje,
niż wtedy, gdyby był tylko obserwatorem17.
¦ Praktyczne problemy badań terenowych
Wybór tematu badawczego
Pierwszym etapem badań terenowych jest wybór problemu badawczego. Bardzo
często na wybór problemu wpływają zainteresowania czy sprawy angażujące badacza, a mogą
one wynikać z pracy badacza, jego związków osobistych, historii rodziny, klasy społecznej
czy jego pochodzenia etnicznego. Lofland i Lofland, w napisanym przez siebie przewodniku
dla osób prowadzących badania jakościowe, opisali ten proces jako „zacznij od miejsca, w
którym się znajdujesz"18. Początków takiej praktyki postępowania można upatrywać w latach
dwudziestych w szkole chicagowskiej, w której wiele bardzo znanych badań jakościowych
powstało z unikatowych doświadczeń studentów mających niewielką wiedzę na temat badań
społecznych. Everett Hughes tak opisał początki nowej tradycji:
Większość z tych ludzi nie miała żadnego wykształcenia socjologicznego [...] Nie
przyszli do nas po to, aby stać się socjologami. Przyszli, aby się czegoś nauczyć, i Park szukał
w posiadanych przez nich doświadczeniach czegoś, na czym można byłoby budować [...]
Zaczął z nimi pracować i wyciągnął na światło dzienne to, co udało mu się znaleźć [...] To
mogli być menonici, którzy czuli się nieszczęśliwi [...] z tego powodu, że musieli nosić
jednolite stroje [...] dziewczęta, które nie chciały nosić długich sukien i śmiesznych małych
czepków, czy synowie ortodoksyjnych Żydów, którzy nie chcieli nosić brody [...] I tak
nawiązywał kontakty z ludźmi, wyszukiwał w nich to, co samo w sobie było interesujące, a
co dla nich stanowiło krępujący przymus. I następnie zmienił ową „przymusową
ortodoksyjność" w coś, co cieszyło się szerokim zainteresowaniem. I tak stało się w
przypadku większości z tych ludzi. Sprawił, że ich przeszłość stała się dla nich interesująca;
znacznie bardziej interesująca, niż kiedykolwiek sądzili19.
16 John Van Maanen, The Morał Fix: On the Ethics of Fieldwork, w: Emerson (red.),
Contemporary Field Research, s. 269-270.
17 Ibidem, s. 270.
18 John Lofland, Lyn H. Lofland (1984), Analyzing Social Settings, Belmont, Calif.:
Wadsworth, s. 7.
19 Ibidem, s. 9-10.
304
Badania terenowe wymagają, aby badacze najpierw określili, co jest dla nich ważne,
niezależnie od naukowych rozważań. Emocjonalne zaangażowanie we własną prace tworzy
pomost pomiędzy osobistym i emocjonalnym życiem badacza, a także wzbudza potrzebę
prowadzenia konkretnych badań społecznych. Owo emocjonalne zaangażowanie nie tylko
sprawia, że badania społeczne są bardziej nagradzające z osobistego punktu widzenia, lecz
również pomaga rozwiązywać problemy, nieuchronnie pojawiające się w każdym projekcie
badawczym20.
Wybór miejsca i uzyskanie do niego dostępu
Następnym etapem badań terenowych, po wybraniu przez badacza problemu
badawczego, jest określenie właściwego miejsca badań i uzyskanie do niego dostępu. Wybór
tematu w dużej mierze wyznacza zakres właściwych terenów badawczych. I tak na przykład
Festinger i jego współpracownicy byli zainteresowani, w jaki sposób sekta religijna radzi
sobie z faktem niespełnienia się przepowiedni21. Taki temat badań automatycznie ograniczył
ich wybór do takich miejsc (grup), w których istniała szansa, że któreś z proroctw
dotyczących przyszłych wydarzeń się nie spełni. Zdecydowali się zatem na sektę religijną,
której członkowie wierzyli, że koniec świata nastąpi w określonym dniu. To pozwoliło na
prowadzenie obserwacji, zanim przewidywany kataklizm miał nastąpić i po tym, jak
proroctwo się nie spełniło. W tym przypadku wybór miejsca badań został podyktowany istotą
badań oraz teoretycznymi zainteresowaniami badaczy.
Bardzo często wybór zależy również od wymagań natury praktycznej, takich jak na
przykład położenie geograficzne. Niewątpliwie kuszące jest wybranie miejsca łatwo
dostępnego, w którym badacz może mieć wpływowe kontakty czy być już członkiem danej
grupy. Jednak w sytuacjach, w których potencjalni obserwatorzy znajdują się blisko grupy i
mają do niej łatwy dostęp, muszą pamiętać o konieczności utrzymania dystansu
emocjonalnego w trakcie prowadzonych przez siebie analiz. Z drugiej strony, badacze stojący
na zewnątrz terenu badań mogą mieć więcej trudności z uzyskaniem dostępu do grupy i
muszą umieć określić, jak dalece powinni zmniejszyć dystans, kiedy już znajdą się wewnątrz
niej. Jeżeli badacz zmniejszy dystans zbyt mocno, to ryzykuje silne utożsamienie się z grupą,
co powoduje, że przejmuje styl życia grupy, traci obiektywność, co może wpłynąć na wyniki
badań. Niektórzy badacze potrafią nawet porzucić projekt badawczy, aby chronić grupę, która
ich adoptowała. Jeżeli jednak dystans między grupą a badaczem będzie za duży, to nie będą
oni w stanie zrozumieć grupy ani w pełni wczuć się w sytuację jej członków.
Również charakterystyczne cechy badacza mogą stanowić istotny czynnik
wyznaczający dostęp badacza do grupy. Na przykład płeć, wiek, rasa czy pochodzenie
etniczne obserwatorów, jeżeli są bardzo odmienne od cech osób obserwowanych, mogą
stanowić trudność w dostępie do grupy czy być przyczyną barier w komunikowaniu się22.
Jak powiedziała Rosalie Wax:
Wiele społeczności plemiennych czy innych społeczności przestrzega
rygorystycznego podziału pracy ze względu na płeć i wiek osób pracujących, a ludzie
20 Ibidem.
21 Festinger i in., When Prophecy Fails.
22 Lofland, Lofland, Analyzing Social Settings.
305
należący do różnych tego typu kategorii nie rozmawiają ze sobą swobodnie czy
spontanicznie [...] Sama, jako kobieta w średnim wieku, nigdy nie potrafiłam rozmawiać
otwarcie i szczerze czy to ze starym, czy z młodym Indianinem I ry
z Trashing Buffalo. Starsi mężczyźni starali się mnie pouczać, i to nawet wtedy, kiedy
znałam ich całkiem dobrze. Z kolei młodsi byli zawsze — co było poprawnym zachowaniem
— zbyt nieśmiali lub tak formalnie pełni szacunku, że nigdy nie powiedzieli wiele. Natomiast
z indiańskimi kobietami-matronami mogłam rozmawiać godzinami23.
Biorąc pod uwagę własne doświadczenia, Wax stwierdziła, że można uniknąć
stronniczego spojrzenia na „całą" kulturę, wykorzystując zespół badaczy, którego członkowie
sami mają różne cechy indywidualne podobne do cech osób będących członkami badanej
grupy.
Trudności młodych kobiet — badaczy terenowych w uzyskaniu dostępu do grup
zdominowanych przez mężczyzn opisała Lois Easterday i jej współpracowniczki:
Jedna z nas nawiązała kontakt z fotografami zatrudnionymi w specjalnym programie
dotyczącym fotografii militarnej dlatego, że sama była fotografem i znała ich język. Związek
ten udało się utrzymać, gdyż nalegała ona, aby nie fotografować jej jak modelki, lecz
traktować jak „jednego z chłopców" znajdujących się z drugiej strony obiektywu. Kiedy
starała się o zgodę dyrektora programu na prowadzenie badań, ten odmawiając pełnego
dostępu do grupy, tak to uzasadnił: „To się nie uda. Mężczyźni biorący udział w tym
szkoleniu tworzą zamkniętą paczkę i wyrażają się mało parlamentarnie. Nie będą sobą, jeżeli
pani się tam znajdzie"24.
Chociaż powyższe przykłady ukazują, że status i płeć badacza mogą być przeszkodą w
badaniach terenowych, istnieją jednak sytuacje, w których różnice te są zdecydowanie
korzystne. Blanche Geer tak pisała o kobietach:
Najbardziej upośledzonym obserwatorem jest osoba obserwująca ludzi czy sytuacje
najbardziej sobie znane. Kobiety jednak mają szczęście w świecie mężczyzn. Są w stanie
dostrzec, jak „skromne szaty nosi cesarz, sprawy, jakie przyjął do wiadomości" — czego
często się jednak nie docenia25.
Innymi słowy, osoba z zewnątrz może się czasami okazać mniej zagrażająca dla
obserwowanych osób. Może to ułatwić badaczowi dostęp do badanej grupy i wyostrzyć jego
spostrzegawczość.
23 Rosalie H. Wax, The Ambiguities of Fieldwork, w: Emerson (red.), Conlemporary
Field Research, s. 194-195.
24 Lois Easterday, Diana Papedemas, Laura Schorr, Catherine Valentine (1982), The
Making of a Female Researcher: Role Problems in Fieldwork, w: Robert G. Burgess (red.),
Field Research: A Sour-cebook and Field Manuał, London: Allen and Unwin, s. 63-64.
25 Ibidem, s. 66.
306

czy am lnem tedy, o po-że mi


ląć
go ych
rup i:
pro-zna-foto-
pro-
tak
arzą
i-

Nawiqzywanie kontaktów z członkami grupy


Łatwość nawiązywania kontaktów z członkami grupy zależy w dużej mierze od natury
grupy oraz od umiejętności badacza. Edward Evans-Pritchard daje taki przykład:
Azande nie zgodzili się, abym stał się jednym z nich; Nuerowie nie zgodzili się, abym
żył inaczej. Przez Azande zostałem zmuszony do życia poza społecznością; przez Nuerów
byłem zmuszony zostać członkiem ich plemienia. Azande traktowali mnie jako kogoś
lepszego; Nuerowie jako sobie równego26.
Współcześni badacze terenowi podkreślają, że faza budowania relacji społecznych jest
prawdopodobnie najważniejszym elementem pracy terenowej:
Dobre badanie terenowe [...] zależy w sposób decydujący od ujawniania znaczenia
relacji społecznych, i to nie tylko tych, które rdzenni mieszkańcy nawiązują między sobą. W
równym stopniu zależy ono od ujawnienia znaczenia relacji, jakie antropolog nawiązuje z
ludźmi, których bada27.
Jednym z podstawowych wymagań, istotnym zwłaszcza wtedy, gdy przedmiotem
badań są podkultury, jest umiejętność rozumienia żargonu, jakim posługują się różne grupy.
Eleanor Miller, która badała „kobiety ulicy", tak opisuje swoją frustrację, jakiej doświadczyła
w trakcie pierwszych kontaktów z badanymi kobietami:
Bardzo dobrze pamiętam swoją pierwszą wizytę w Horizon House. Zostałam
zaproszona na kolację, po której miałam opisać cel moich badań i starać się zdobyć
informatorki. Kolacja została podana, toteż zdecydowałam się usiąść. Przy stole siedziało już
osiem osób, głównie czarne kobiety [...] Wszyscy rozmawiali i żartowali, a także śpiewali
piosenki. Nie zrozumiałam połowy z tego, co zostało powiedziane. Z uczuciem, że tonę,
zaczęłam zadawać pytania, żeby się przekonać, czy w ogóle mam szansę, aby przeprowadzić
to badanie28.
Rodzaj relacji społecznych, jakie tworzą się pomiędzy obserwatorem i osobą
obserwowaną, zależy od wielu czynników. Zdaniem Rosalie Wax postać, w jaką wcielił się
obserwator, i rola, jaką gra w badaniach terenowych, mają podstawowe znaczenie w tym
procesie. Twierdzi ona, że w dobrze wyważonych relacjach badacz terenowy „stara się być
świadomy i mieć wzgląd na to, kim sam jest, jak też być świadomy i mieć wzgląd na to, kim
są jego gospodarze"29. Chęć stania się jednym z „rdzennych" członków grupy jest
największym błędem, jaki może popełnić badacz terenowy. Ned Polsky, w swoim badaniu
nad przestępcami, tak przestrzegał przed niebezpieczeństwem utożsamiania się z badaną
grupą:
26 Edward E. Evans-Pritchard (1940), The Nuer, Oxford: Clarendon, s. 15.
27 Ivan Karp, Martha B. Kendall (1982), Reflexivity in Field Work, w: Paul F. Secord
(red.), Ex-plaining Humań Behavior: Conseiousness, Humań Action, and Social Structure,
Newbury Park. Calif.: Sagę, s. 250.
28 Eleanor Miller (1986), Street Woman, Philadelphia: Tempie University Press, s.
221-222.
29 Wax, Ambiguities of Fieldwork, s. 197.
307
Prowadząc badania terenowe nad przestępcami, lepiej, do diabła, żebyś nie został
„jednym z nich", ponieważ będą chcieli to sprawdzić i wtedy może się zdarzyć jedna z dwóch
rzeczy: albo [...] zostaniesz wciągnięty w ten rodzaj obserwacji uczestniczącej, jakiej byś
raczej nie chciał prowadzić, albo zostaniesz zdemaskowany, co również ma duże negatywne
konsekwencje. Przestępcy powinni wiedzieć, kim jesteś, i jeżeli zrobisz to we właściwy
sposób, to nie będzie to przeszkodzą w twoich badaniach30.
Nie ma żadnej magicznej formuły, która by uczyła, jak się odgradzać od grupy.
Badaczom terenowym generalnie zaleca się rozpoczynanie obserwacji od uczestniczenia w
codziennym życiu obserwowanych osób, czyli mówiąc inaczej „kręcenia się wokół"31.
Umiejętność odgradzania się i nawiązywania właściwych kontaktów wymaga grania wielu
ról. Czasami role te są wymyślane spontanicznie, w zgodzie z wymaganiami konkretnej
sytuacji badawczej. Rosalie Wax tak opisuje własne doświadczenia z badań terenowych
prowadzonych w ośrodkach, do których przenoszono Japończyków w czasie II wojny
światowej:
Nie miałabym szansy przeprowadzenia badań terenowych w Gila i Tulę Lakę,
gdybyśmy — moi respondenci i ja — nie nawiązali i nie utrzymywali wielu kontaktów.
Niektórzy Amerykanie japońskiego pochodzenia czuli się lepiej, gdy uważali mnie za
sympatycznego dziennikarza prasowego. Nie wiedziałam zbyt wiele o tym, jak powinien
zachowywać się dziennikarz (tak naprawdę, nigdy z żadnym nie rozmawiałam), ale starałam
się reagować jak dziennikarz i wtedy rozmawiało się nam o wiele swobodniej. W Tulę Lakę
zarówno wielcy patrioci, jak i agitatorzy chętniej ze mną rozmawiali, kiedy byli przekonani,
że jestem niemiecką Nisei, „posiadającą walecznego, niemieckiego ducha". I choć ten pomysł
był dla mnie osobiście raczej żenujący, nie zrobiłam niczego, co by mogło ujawnić, że nie
mam niemieckich przodków. W końcu nie byłam gejszą, choć Issei, który był przenikliwym
człowiekiem, powiedział kiedyś, że jestem traktowana jak jedna z nich, albowiem jedynie
dlatego udało mi się tak wiele dowiedzieć o tym, co się działo w Tulę Lakę. Wyjaśnił to tak:
japońscy mężczyźni — a zwłaszcza japońscy politycy — nie rozmawiają o swoich planach
ani sukcesach z innymi mężczyznami czy z własnymi żonami, natomiast ich kultura pozwala
im na prowadzenie takich rozmów z inteligentnymi i rozumnymi kobietami32.
Przykład ten pokazuje, że nabieranie dystansu i przyjmowanie różnych ról
badawczych jest elastycznym procesem, wymagającym od badacza dużej pomysłowości i
wrażliwości, uwzględniającej zarówno cechy osobowości, jak i sposób patrzenia
obserwowanych osób.
30 Ned Polsky (1967), Hustlers, Beats, and Others, Hawthorne, N.Y.: Aldine, s. 124. "
William B. Shaffir, Robert A. Stebbins, Allan Turowetz (red.) (1980), Fieldwork Experience:
Qualitative Approaches to Social Research, New York: St. Martin's Press, s. 113. 32 Wax,
Ambiguities of Fieldwork, s. 200.
308

bła, żebyś nie zo-edy może się zda-ten rodzaj obser-:, albo zostaniesz e. Przestępcy
po-sób, to nie będzie
radząc od grupy, /acji od uczestni-naczej „kręcenia wych kontaktów cznie, w zgodzie
)isuje własne do-których przeno-
Hla i Tulę Lakę, zymywali wielu czuli się lepiej, Nie wiedziałam ik naprawdę, nijak
dziennikarz zarówno wielcy i przekonani, że ) ducha". I choć i niczego, co by e byłam gejszą,
edyś, że jestem ii się tak wiele japońscy męż-;woich planach , natomiast ich nymi i rozum-
ych ról badaw-pomysłowości osób patrzenia
'24.
ork Experience:
Jak szukać osób dostarczających rzetelnych informacji
Obserwator uczestniczący, który nawiązał już kontakty z grupą, staje się
tymczasowym członkiem grupy. Sam uczy się, jak się zachowywać w grupie, a członków
grupy uczy zachowania w stosunku do siebie. Następnie zostaje on zaakceptowany jako
pełnoprawny członek grupy. Zatem kontakty z członkami grupy zostały już nawiązane,
obszary obserwacji ustalone, a informatorzy zaczynają dostarczać informacji. Doświadczenia
Williama Whyte'a są dobrą ilustracją tego procesu:
Rozpocząłem od ogólnie sformułowanego pomysłu badania dzielnic slumsów [...]
Miejsce badania wybrałem z powodów zdecydowanie nienaukowych: Cornerville najlepiej
odpowiadało moim wyobrażeniom o tym, jak powinna wyglądać dzielnica slumsów [...] W
trakcie mojego pobytu w Cornerville bardzo szybko uzmysłowiłem sobie, jak ważną rzeczą
jest posiadanie wsparcia ze strony ważnych osób w każdej z grup czy instytucji, którą chcę
badać. Zorientowałem się, że zamiast objaśniania każdemu, kim jestem, zdecydowanie więcej
o sobie i swoich badaniach mówiłem przywódcom grupy takim jak Doc niż typowemu
ulicznikowi. Zawsze starałem się wywołać wrażenie, że mam chęć i zamiar opowiedzieć o
swoich badaniach tyle, ile ktoś tego oczekuje, jednak tak naprawdę pełne informacje starałem
się przekazać tylko przywódcom grupy [...] Ponieważ przywódcy cieszyli się pozycją w
społeczności, która dawała im większe szanse na znacznie lepszą obserwację tego, co się
dzieje, i ponieważ byli zazwyczaj lepszymi obserwatorami niż inni, stwierdziłem, że mogę
znacznie więcej dowiedzieć się, aktywnie z nimi współpracując33.
Bliskie kontakty z informatorami mogą jednak wpłynąć stronniczo na relacje, jakie
badacz nawiązuje z obserwowanymi osobami, co stwierdził sam Whyte:
Dla Doca współpraca ze mną okazała się interesująca i przyjemna, ale w końcu
okazało się, że ma ona i swoje wady. Kiedyś powiedział: „Od czasu, kiedy się tu znalazłeś,
działam znacznie mniej. Teraz, kiedy cokolwiek robię, myślę, co Bill Whyte chciałby o tym
wiedzieć i jak mam mu to wyjaśnić. Przedtem działałem zazwyczaj instynktownie34.
Opuszczanie terenu
Społeczny aspekt badań terenowych nie ogranicza się jedynie do uzyskiwania dostępu
do grupy i nawiązywania kontaktów z badanymi osobami. Opuszczanie terenu jest nie mniej
ważne. Etap ten zależy od stopnia porozumienia osiągniętego przez obserwatora i osoby
obserwowane w momencie rozpoczęcia badania oraz od rodzaju relacji społecznych, jakie
rozwinęły się w trakcie procesu badawczego. Już sam podstawowy warunek badań
terenowych, aby „być zaangażowanym" w trakcie badań stwarza problem w momencie ich
zakończenia. Jak napisała Wax:
Murray i ja, będąc już doświadczonymi badaczami terenowymi, zaplanowaliśmy
nasze kolejne badania na sześć miesięcy, a przez sześć dalszych chcieliśmy
33 William F. Whyte (1955), Street Corner Society, wyd. 2, Chicago: University of
Chicago Press, s. 279-358.
34 Ibidem, s. 301.
309
napisać raport. Ale jak to w życiu bywa, tak się przywiązałam do niektórych moich
indiańskich przyjaciół, że zaproponowałam Murrayowi, abyśmy zostali miesiąc dłużej, mimo
że temperatura sięgała powyżej 30 stopni. Nie chciałam stamtąd odchodzić, a przecież
musiałam35.
Innym problemem związanym z zakończeniem badań jest wpływ, jaki wywiera ta
sytuacja na osoby badane.
Według nich nasze wyniki badań dają im niewiele, jeżeli w ogóle cokolwiek. lub
wręcz mogą im przynieść straty. Inną przyczyną ich oporu jest przekonanie, że nasza praca
niewiele wnosi do ich życia36.
Proces opuszczania terenu może przebiegać gwałtownie i ostro, ale też powolnie i
łagodnie. Samo odchodzenie może być zjawiskiem powtarzającym się, kiedy badanie
wymaga od badacza wielokrotnych odejść i powrotów. Procedura, jaką badacz wybiera, jest
funkcją jego zaangażowania się w proces badawczy37.
Rejestrowanie obserwacji
W badaniach terenowych to, co ludzie robią i mówią, jest podstawowym źródłem
danych. Badacze mogą rejestrować obserwowane zachowania, robiąc notatki, nagrywając na
taśmę magnetofonową, czasami fotografując czy rejestrując kamerą wideo. W niektórych
przypadkach, kiedy tożsamość obserwatora i cel badań są znane osobom obserwowanym,
notatki można sporządzić od razu, w miejscu zdarzenia. Na ogół jednak badacz oczekuje, że
członkowie grupy zapomną, iż są obserwowani, i ich zachowanie oraz tworzące się interakcje
będą miały naturalny charakter. Notowanie w obecności członków grupy przypomina im o
prowadzonych badaniach, co może wpłynąć na ich zachowanie, jak też ograniczyć
możliwości badacza w uczestniczeniu w życiu grupy. Kiedy osoby obserwowane nie znają
tożsamości badacza i celu badań, trudno jest badaczowi rejestrować każde zdarzenie w
momencie jego zajścia.
Jeśli badacz nie może w sposób jawny rejestrować obserwacji, to musi wykorzystać
metody pozwalające mu zapamiętać to, co się dzieje, aby — przy pierwszej okazji — móc to
zapisać. Wielu badaczy korzysta z chwili prywatności — takich jak na przykład wypoczynek
— aby zanotować podstawowe słowa pozwalające zapamiętać sekwencje zdarzeń, istotne
zachowania i ważne wypowiedzi. Jeżeli jednak chwile prywatności nie są możliwe, to — aby
ułatwić sobie zapamiętywanie — badacz powinien korzystać z mnemotechnik. Podstawą
mnemotechniki jest skojarzenie tego, co należy zapamiętać, z tym, co jest znane i co łatwo
można sobie przypomnieć.
Jeżeli badacz nie może natychmiast zanotować swoich obserwacji, to istnieje
niebezpieczeństwo zniekształcenia i nieintencjonalnej, złej ich interpretacji. Im dłużej badacz
musi czekać z zapisaniem obserwacji, tym większe jest prawdopodo-
93 David R. Maines, William B. Shaffir, Allan Turowetz, Leming the Field in
Etnographk Research: Reflections on the Entrance Exit Hypothesis, w: Shaffir i in. (red.),
Fieldwork Experience, s. 277. 36 Shaffir i in., Fieldwork Experience, s. 258. 17 Maines i in.,
Leaving the Field, s. 273.
310
bieństwo przekłamań w przypominanym materiale. Dlatego warto sobie przygotować
pewien umowny sposób zapisu, aby zminimalizować te zniekształcenia. Na przykład badacz
może posługiwać się cudzysłowem do zaznaczania rzeczywistych wypowiedzi, a zapisane
przez siebie wnioski czy własne spostrzeżenia pozostawiać bez cudzysłowu. Taka metoda nie
jest jednak doskonała, ponieważ wykorzystuje się w niej wnioski wyprowadzane przez
badacza. Lofland i Lofland zalecają, aby przed ustaleniem zbioru danych odpowiedzieć sobie
na następujące pytania38:
1. Czy zapis pochodzi z pierwszej ręki?
2. Jaka była pozycja przestrzenna obserwatora?
3. Czy obserwator miał jakiekolwiek powody, aby przekazać stronnicze lub fałszywe
informacje?
4. Czy przedstawiony raport jest wewnętrznie zgodny?
5. Czy można sprawdzić trafność raportu, posługując się innym, niezależnym
raportem?
I chociaż informacje otrzymane z odpowiedzi na te pytania nie gwarantują wcale, że
otrzymany raport jest prawdziwy, jednak pozwalają ocenić rzetelność danych.
Analizowanie danych
Analizowanie danych w jakościowych badaniach terenowych jest procesem ciągłym.
Obserwatorzy formułują hipotezy i w trakcie prowadzonych przez siebie badań rejestrują
istotne wydarzenia. Niektóre hipotezy są następnie odrzucane, inne natomiast
uszczegółowiane i ciągle formułowane na nowo. Bogdan i Taylor dali taki przykład tego
procesu:
W badaniu dotyczącym szkoleń zawodowych obserwator pierwotnie założył, że
mężczyźni biorący w nim udział będą wyraźnie odróżniać „prace kobiece" od „prac męskich".
Hipotezę tę sformułował po tym, jak jedna osoba z personelu powiedziała mu: „Kiedy
mężczyźni zobaczą, że przy linii montażowej pracuje kobieta, nie zechcą wziąć niczego, co
ona zmontowała". Ponieważ uznał, że zróżnicowanie osób szkolonych ze względu na płeć
może mieć duży wpływ na skuteczność szkolenia oraz na spostrzegane znaczenie pracy, w
trakcie kolejnej wizyty w miejscu prowadzenia badań przedstawił swoją hipotezę. Podczas
badań stwierdził jednak, że chociaż mężczyźni i kobiety cenią sobie odmienne rodzaje prac,
mężczyźni odrzucając pewne prace, robią to nie dlatego, że uważają je za „kobiece". Nie byli
oni na przykład dumni z pracy fizycznej i w sposób zdecydowany odrzucali prace
niebezpieczne i „zbyt trudne". W efekcie obserwator zrezygnował ze swojej pierwotnej
hipotezy i zgodził się z koncepcją innych39.
Ważnym aspektem analizy danych dokonywanej na etapie ich zbierania jest ustalanie
zapisanych danych i ich kodowanie (por. rozdział 14, w którym można znaleźć więcej
informacji na temat kodowania indukcyjnego). Jest to proces polegający
38 Lofland, Lofland, Analyzing Social Settings, s. 51.
39 Robert Bogdan, Steven J. Taylor (1975), lntroduction to Qualitative Research
Methods, New York: Wiley, s. 80-81.
311
w istocie na analizowaniu notatek. Na wczesnych etapach pracy terenowej badacz
może tworzyć proste kategorie danych oparte na charakterystykach obserwowanych osób i
cechach zdarzeń, które wystąpiły. Badacz może na przykład poklasyfikować członków
badanej grupy na przywódców, naśladowców i odszczepieńców. Notatki z badań terenowych
dotyczące zachowania każdej obserwowanej grupy są następnie kodowane zgodnie z
właściwym systemem klasyfikacji. W ramach każdegu systemu klasyfikacyjnego badacz
rejestruje interakcje społeczne powstające pomiędzy osobami należącymi do różnych grup.
Wraz z rozwijaniem się pracy terenowej badacze — na podstawie tego, czego się już
dowiedzieli — uzupełniają bądź ponownie definiują stosowane przez siebie kategorie. Po
każdej zmianie należy ponownie przejrzeć wszystkie notatki i włączyć odpowiednie dane do
tworzonego zbioru. To właśnie w trakcie procesu kategoryzacji danych powstają pierwsze
hipotezy.
Badacze tworzą pliki danych, tnąc na części kopie zrobionych przez siebie notatek i
następnie łącząc te części w większe zbiory. Mogą też korzystać z procesorów tekstów
pozwalających łączyć fragmenty notatek w odrębne pliki. Nazwy plików odzwierciedlają
utworzone kategorie.
W swoich badaniach nad uczelniami medycznymi Becker i Geer stwierdzili, że
użytecznym sposobem przygotowywania danych do analizy jest bieżące streszczanie notatek
z badań terenowych. Kodowali oni dane dla oddzielnych wydarzeń, podsumowując swoje
obserwacje dotyczące zachowania studentów w ramach każdego wydarzenia. Na początku
prowizorycznie zdefiniowali główne obszary (kategorie) swoich badań terenowych.
Następnie, przeglądając streszczone wydarzenia, opisywali je liczbą odpowiadającą temu
obszarowi badań, do którego można je było zaklasyfikować. Poniżej przedstawiamy fragment
ich notatek i propozycję analizy będącą dobrą ilustracją tego procesu:
„Mann mówi właśnie, że zarówno on, jak i inni studenci wiedzą, jaki jest dr Prince —
lekarz wydziałowy — i wiedzą już, na czym będzie próbował ich złapać, postarają się zatem
wyprowadzić go w pole". To wydarzenie jest przykładem rodzaju relacji pomiędzy
studentami a gronem profesorskim i powinno zostać zaliczone do tej kategorii. W sposób
pośredni opisuje ono również stosunek studentów do działań podejmowanych przez szkołę i
dlatego powinno zostać zaliczone do takiej właśnie kategorii. Następnym etapem analizy
powinno być sprawdzenie każdego elementu zaliczonego do jednego obszaru i sformułowanie
bardziej szczegółowych twierdzeń dotyczących treści tego obszaru oraz podanie przykładów
działań czy wypowiedzi, które je charakteryzują40.
Kiedy badacz wyodrębni działania i wypowiedzi potwierdzające hipotezę, kolejnym
jego krokiem jest poszukiwanie przypadków negatywnych, tj. przypadków przemawiających
na rzecz odrzucenia hipotezy. Aby określić, czy sformułowana hipoteza powinna zostać
przeformułowana, by lepiej przystawała do wszystkich danych lub powinna zostać w ogóle
odrzucona, badacze muszą przeanalizować zarówno przypadki pozytywne, jak i negatywne.
Ponadto analizują oni perspektywę, tj. określają, jak szeroki zakres sytuacji potwierdzają
otrzymane dane.
40 Howard S. Becker, Blanche Geer, Participant Obsemation: The Analysis of
Qualitative Field Data, w: Burgess (red.), Field Research, s. 245.
312

następ-
sy-
pomię-
ź ponowię . To
no-proceso-pli-
, że
arzeń, każ-
(kate-arzenia, je było analizy
Prince złapać,
zostać stu-' za-być
po-
kolej-ów
da-zaró-.tj.
Field
Analizując dane jakościowe, warto zwrócić uwagę na pewne regularności czy wzorce
wynikające z wielu obserwacji dokonanych w trakcie badań terenowych. Zadanie to można
zrealizować, stawiając sobie następujące pytania41:
1. Jaki jest to rodzaj zachowania?
2. Jaka jest jego struktura?
3. Jak często się ono zdarza?
4. Jakie są jego przyczyny?
5. Jaki jest jego przebieg?
6. Jakie są jego konsekwencje?
7. Jakie strategie realizują ludzie?
Raport pisemny jest kulminacją badań terenowych. W raporcie końcowym
przedstawia się podstawy badań, ich teoretyczne uzasadnienie oraz plan i metodologię badań.
W raporcie powinna się też znaleźć szczegółowa analiza i interpretacja danych oraz
wynikające z nich wnioski zarówno dla dalszych analiz, jak i dla decyzji podejmowanych w
sprawach publicznych.
¦ Podstawy teoretyczne badań terenowych
Badacze prowadzą badania o charakterze ilościowym po to, aby falsyfikować,
modyfikować, czy też akceptować istniejące teorie. Zadanie to realizują w sposób
dedukcyjny, wyprowadzając hipotezy z przyjętej teorii i wykorzystując zebrane dane do ich
testowania. Jakościowe badania terenowe są tego przeciwieństwem, wykorzystują bowiem
metodę analizy indukcyjnej. Badacze zbierają dane, na bazie danych formułują hipotezy,
testują hipotezy, odwołując się do danych i wreszcie podejmują próbę zbudowania teorii.
Teoria taka jest nazywana teorią bazową, ponieważ wyprowadza się ją z konkretnych sytuacji
badawczych i jest bezpośrednio powiązana z określonymi sytuacjami:
Prowadząc badania terenowe, badacz stale sprawdza, czy wyłonione przez niego
kategorie są właściwe i czy poprawnie zostały określone relacje między nimi. Stawiając
pytania tego typu w różnym czasie, badacz zawsze ma dostęp do danych. W efekcie
dopasowuje on swoje decyzje do danych, weryfikując je podczas badania42.
Do badań terenowych należy przystępować z otwartym umysłem, aby można było
sprawdzić, czy sformułowana wstępna teoria może zostać uznana za teorię bazową. Ponieważ
badania terenowe oparte są na obserwacji, zatem wcześniejsze pomysły oraz sformułowane
wcześniej hipotezy mogą wpływać na to, jakie obserwacje badacz będzie wybierał do analizy
i w ten sposób mogą wpłynąć na ostateczną wersję teorii. Ponieważ większość badaczy nie
spędza całego swojego czasu w terenie, więc wybierając moment i miejsce pierwszych
obserwacji, kierują się oni luźno sformułowanymi wcześniej hipotezami. Obserwacje te będą
następnie wykorzysty-
Lofland, Lofland, Analyzing Social Settings, s. 94.
Barney G. Glaser (1978), Theoretical Sensitivity, Mili Yalley, Calif.: Sociology Press,
s. 39.
313
wane do poprawiania, odrzucania czy przeformułowywania hipotez podczas procesu
badawczego. Blanche Geer podała taki przykład tej metody:
Mój sposób posługiwania się hipotezami można z grubsza podzielić na trzy kolejne
etapy. Pierwsza operacja to testowanie ostro sformułowanych twierdzeń typu tak-nie.
Zbierając informacje od osób badanych, czy też przypominając sobie wcześniej zdobyte
informacje [...] sformułowałam hipotezę roboczą i przeszłam do drugiej operacji, czyli do
wyszukania przypadków lub sytuacji negatywnych oraz starannego gromadzenia
pozytywnych. Poszukiwanie przypadków negatywnych pozwala zrealizować specyficzny cel.
Jedna sytuacja, która nie potwierdza tego, co mówię, jest już bowiem wystarczającym
uzasadnieniem do zmodyfikowania hipotezy [...] Trzeci etap operowania hipotezami w
badaniach terenowych polega na ich dwukrokowym przeformułowaniu i ewentualnie na
wstępnym opracowaniu modeli. Hipotezy przyjmują postać zdań przewidujących przyszłe
wydarzenia, które mogą nastąpić w specyficznych warunkach, lub zdań orzekających o
zmianach zachodzących w czasie w osobach badanych; zmianach powiązanych z tym, co się
wydarzyło43.
Budowanie teorii za pomocą metody analizy indukcyjnej polega na określaniu i
opisywaniu związków zachodzących pomiędzy kategoriami obserwacji. Badacze często
podejmują próbę określenia osiowej kategorii i wyjaśnienia związków zachodzących
pomiędzy kategorią osiową a subkategoriami. Celem tworzenia bazowej teorii jest
zbudowanie zbioru twierdzeń w całości wyjaśniających dane zjawisko. Aby potwierdzić
swoją teorię, badacze stosujący metody jakościowe odwołują się do przykładów z własnych
obserwacji oraz cytują wypowiedzi członków badanych grup. W niektórych wypadkach
wykorzystują zbudowaną teorię do wygenerowania testowalnych empirycznie hipotez, które
można poddać obróbce statystycznej.
Klasycznym przykładem badań terenowych wykorzystujących metodę analizy
indukcyjnej są badania Donalda Cresseya dotyczące problemu defraudacji44. Cressey
zdefiniował defraudację jako zjawisko zdobywania czyjegoś zaufania udzielanego w dobrej
wierze, a następnie nadużywanie tego zaufania poprzez popełnienie przestępstwa. Na
początku sformułował on hipotezę, że zjawisko nadużywania cudzego zaufania pojawia się
wtedy, gdy defraudanci traktują kradzież jako formę „technicznego nadużycia". Kiedy jednak
spotkał defraudantów, który zdawali sobie sprawę z tego, że ich zachowanie jest złe i
nielegalne, odrzucił tę hipotezę. W kolejnej hipotezie przyjął zatem, że osoby dokonujące
nadużyć definiują nielegalne wykorzystanie środków finansowych jako sytuację nagłej
potrzeby, której nie można sprostać za pomocą legalnych środków. Jednak i tę hipotezę
przeformułował, gdy spotkał defraudantów nie będących w sytuacji przymusowej, ani nawet
znajdujących się w sytuacjach trudniejszych. Teraz Cressey stwierdził, że osoby dokonujące
nadużyć to osoby, które czuły przymus wykorzystania „niejawnych środków". Ponownie
przeformułował i tę hipotezę, kiedy poznał przypadki o charakterze dewia-
43 Blanche Geer (1967), The First Days in the Field, w; Phillip Hammond (red.),
Sociologisls al Work, Garden City, N.Y.: Doubleday, s. 389-390.
44 Donald R. Cressey (1953), Other People's Money: A Study in the Social
Psychology of Embez-zlement, New York: Free Press.
314

podczas proce-
elić na trzy ko-nych twierdzeń przypominając )otezę roboczą )w lub sytuacji ukiwanie
przy-edna sytuacja, jącym uzasadnia hipotezami ;formułowaniu yjmują postać : w specyficz-
:ych w czasie jrzyło43.
na określaniu 'acji. Badacze ązków zachodnia bazowej ane zjawisko, odwołują się ów
badanych /generowania 'stycznej. Jtodę analizy dacji44. Cres-ania udziela-'. popełnienie
lżywania cu-'- jako formę dawali sobie :zę. W kolej-'legalne wy-' nie można iłował, gdy ;t
znajdują-dokonujące dków". Podrze dewia-
ociologists at
gy ofEmbez-
cyjnym. Ostateczna hipoteza według Cresseya, uwzględniająca wszystkie
zaobserwowane przypadki, może zatem brzmieć następująco:
Osoby obdarzone zaufaniem nadużywają go, gdy spostrzegają siebie jako osoby
posiadające problemy finansowe, którymi nie mogą podzielić się z innymi, i mają
świadomość, że problemy te można potajemnie rozwiązać przez nadużycie zaufania
finansowego. Osoby te potrafią opisać swoje zachowanie w takiej sytuacji w sposób
pozwalający im pogodzić spostrzeganie siebie jako osób obdarzonych zaufaniem ze
spostrzeganiem siebie jako osób korzystających z powierzonych sobie pieniędzy czy dóbr45.
I Społeczność robotników: przykład badań terenowych
Zanim podsumujemy naszą dyskusję na temat badań terenowych, chcielibyśmy
zilustrować ich etapy za pomocą przykładu jednego wyczerpującego badania znanego jako
„Społeczność robotników" i przeprowadzonego przez Williama Kornbluma w południowym
Chicago46. Zbierając dane, Kornblum wykorzystał wiele metod, w tym rozmowy z
mieszkańcami, materiały archiwalne, dane z roczników statystycznych, prowadzenie
wywiadów i uczęszczanie na spotkania społeczności. Jednakże przede wszystkim badanie to
opiera się na danych zebranych dzięki bezpośredniemu zaangażowaniu Kornbluma i jego
udziałowi w życiu społeczności. Jest to dobry przykład badań terenowych wykorzystujących
jako podstawową metodę analizy metodę obserwacji uczestniczącej.
Wybór tematu badawczego i terenu badań
Ogólny temat badania zaproponowali Kornblumowi jego wykładowcy ze szkoły,
którzy byli zainteresowani sponsorowaniem badań nad grupami etnicznymi pochodzenia
słowiańskiego, mieszkającymi w południowych dzielnicach Chicago. Kornblum
przeprowadził już pewne badania nad organizacją lokalnych społeczności w środowisku
jugosłowiańskich imigrantów. Teraz zdecydował się skoncentrować na środowiskach
pochodzenia słowiańskiego w południowym Chicago i w części północnej ograniczonej
ulicami Pulawski-Miłwaukee. Postanowił rozpocząć badania od imigrantów z Serbii i
Chorwacji. Odwiedzał więc kawiarnie, w których spo-tykałi się imigranci, kluby piłki nożnej,
gospody i powoli zbliżał się do okolic stalowni
znajdującej się w południowym Chicago. Kornblum tak opisuje dokonany przez
siebie wybór społeczności:
Południowe Chicago fascynowało mnie. Nigdy przedtem nie widziałem tak ciężkiego
przemysłu na tak małym obszarze i byłem pełen podziwu dla ogromu stalowni i
skomplikowanych arterii wodnych i kolejowych, które przecinały sąsiadujący obszar. Na
twarzach ludzi widziałem zróżnicowanie pochodzenia kulturowego tych, którzy się tu
osiedlili i zbudowali swoją społeczność. Dlatego zro-

45 Ibidem, s. 273.
46 William Kornblum (1974), Blue-Collar Community, Chicago: University of
Chicago Press.
315
zumiałem, że moje badanie powinno dotyczyć większych społeczności w takim
samym stopniu, w jakim dotyczyć będzie problemów adaptacji kulturowej i społecznej
Serbów i Chorwatów47.
Kornblum znalazł restaurację odwiedzaną przez serbskich imigrantów, gdzie został
przedstawiony niektórym stałym gościom. Na ogół byli to mężczyźni między trzydziestym a
czterdziestym rokiem życia, w większości pracownicy stalowni. I chociaż było to przyjemne
miejsce, jednak miało marginalne znaczenie społeczne, ponieważ jego gośćmi byli przede
wszystkim niedawni imigranci. Kornblum chciał nawiązać kontakty z mieszkańcami
pochodzenia serbskiego i chorwackiego, ale urodzonymi już w Ameryce, dlatego szukał
innego miejsca, w którym mógłby prowadzić swoje badania.
Uzyskiwanie dostępu
Wkrótce po wejściu do społeczności Kornblum zaczął uczęszczać na otwarte
spotkania, aby zidentyfikować lokalnych przywódców i zaaranżować pierwsze z nimi
spotkanie. Jedynie kilku osobom przedstawił się jako badacz. Raczej informował, że jest
wykładowcą na pobliskim uniwersytecie w Indianie, a jego żona studiuje na uniwersytecie
stanu Illinois, i że to miejsce znajduje się w połowie drogi dla nich obojga. Z czasem
Kornblum zaprzyjaźnił się z wieloma aktywistami i przywódcami politycznymi, a szczególnie
z grupą pracowników stalowni, którzy w jednej z fabryk tworzyli lokalny związek. Stwierdził
wkrótce, że powinien przejąć styl życia obowiązujący w południowym Chicago:
Czułem się jak wszystkowiedzący obcy, który nie dostrzega niektórych z
najważniejszych stron życia w społeczności [...] Przyjaciel, którego zdanie bardzo sobie
ceniłem, serbski przewodniczący lokalnego związku pracowników stalowni, rzucił mi
prawdziwe wyzwanie: „Jak możesz naprawdę rozumieć, co się tutaj dzieje [...] jeżeli nie
spędziłeś ani chwili w stalowni?"48
Kornblum wynajął się więc jako pomocnik nadzorcy w jednej ze stalowni i to miejsce
stało się centralnym terenem jego badań.
Nawiązywanie kontaktów z członkami grupy
Stanowisko Kornbluma jako pomocnika nadzorcy okazało się idealną pozycją z
perspektywy badań. Jako pomocnik nadzorcy musiał zrozumieć, na czym polega praca przy
wytapianiu stali, a także poznać podział pracy w fabryce. Jako osoba zarządzająca mógł bez
przeszkód poruszać się po całej fabryce i swobodnie rozmawiać z robotnikami. Dzięki temu
obserwował interakcje zachodzące pomiędzy ludźmi, a zwłaszcza rolę, jaką odgrywały
związki zawodowe. Zrozumiał, jak dzięki produkcji stali tworzy się społeczność zawodowa
wśród zatrudnionych.
Kornblum szczególnie chciał poznać przywódców politycznych, a zwłaszcza liderów
związków zawodowych. W tym czasie cała społeczność była zaangażowana w wybory
kierownictwa swoich organizacji. Dlatego wielu z jego przyjaciół i informatorów
47 Ibidem, s. 232.
48 Ibidem, s. 235-236.
316

było aktywnie włączonych w politykę i czasami wchodzili do opozycyjnych frakcji.


Pojawił się problem częsty w badaniach terenowych. Kornblum tak o tym pisał:
Zacząłem czuć, że nie mogę pozostawać z dala od polityki, kiedy wszyscy, których
znałem, uczestniczyli w tej grze. Pomijając aspekty osobiste tej decyzji, to i tak — ze
względu na liczne ograniczenia — trudno dowiedzieć się wiele o polityce od informatorów.
Jeżeli chcemy rzeczywiście poznać decyzje podejmowane w ramach opozycyjnego systemu
politycznego, to często trzeba stać się częścią jego ciała decyzyjnego. Tak było i ze mną,
kiedy zdecydowałem się zagrać rolę zdeklarowanego stronnika — aczkolwiek pozostającego
„poza sceną" — większości politycznych kampanii opisanych w tym badaniu. Strategia taka
wymaga jednak dużej odpowiedzialności i dlatego warto ją szerzej skomentować. Po
pierwsze, jest rzeczą oczywistą, że im bardziej ktoś włącza się w działalność którejś partii,
tym mniej może się nauczyć, przede wszystkim o innych. W konsekwencji, gdy tylko
zaangażowałem się w działalność jakiejś partii, starałem się podejmować w niej takie funkcje,
które wymagały ekspozycji społecznej w możliwie małym stopniu. Aby śledzić wydarzenia
zachodzące w opozycyjnej partii, usiłowałem — tak szczerze, jak to tylko możliwe —
wyjaśnić przyjaciołom z przeciwnej strony moje powiązania z daną partią, używając takich
słów, jakich użyłby każdy inny członek tej społeczności. Dzięki temu mogłem funkcjonować
jako stronnik jednej partii, a jednocześnie komunikować się z przyjaciółmi z partii
opozycyjnej, którzy byli moimi informatorami. Innym problemem związanym z graniem
przez badacza roli stronnika jest pojawiająca się — prawie zawsze — możliwość
stronniczości na rzecz tych, z którymi badacz się utożsamia. Ja poradziłem sobie z tym
problemem, starając się utrzymać dobre kontakty z informatorami po obu stronach i podczas
analizy zdarzeń — stać na straży własnych skłonności, korygować je i świadomie je
wykorzystywać49.
Opuszczanie terenu
Kornblum i jego rodzina przeprowadzili się z południowego Chicago do Seattle, gdzie
całe badanie opisał. Od czasu do czasu wracał do Chicago, aby brać udział w lokalnym życiu
politycznym.
¦ Etyczne i polityczne aspekty badań terenowych
Ponieważ badanie terenowe cechuje długotrwałe i aktywne uczestniczenie w
codziennym życiu badanych osób, dlatego też rodzi ono liczne problemy natury etycznej,
prawnej i politycznej. Można generalnie wskazać na dwa rodzaje problemów etycznych
związanych z badaniami terenowymi: problem potencjalnego wprowadzania w błąd i wpływ,
jaki badanie terenowe może mieć na życie badanych osób50.
We wcześniejszych paragrafach tego rozdziału pisaliśmy o tym, że aby uzyskać dostęp
do grupy, pracownicy terenowi prowadzą swoje badania pod fałszywą tożsamością i że ten
rodzaj badań terenowych budzi wiele kontrowersji i jest przed-
Ibidem, s. 240-241.
Emerson, Contemporary Field Research, s. 255.
317
miotem szerokiej krytyki. Niektórzy badacze terenowi bronią jednak metody
obserwacji ukrytej, twierdząc, że jest to jedyny sposób dostępu do niektórych sytuacji
badawczych. Uważają oni również, że obserwacja ukryta nigdy nie wyrządziła bezpośredniej
krzywdy badanym osobom w żaden istotny sposób.
Oczywiście, jest to ważny problem, którego nie można łatwo rozwiązać. Musimy
podkreślić jednakże, że każdy, kto planuje wykorzystanie fałszywej tożsamości w badaniach
terenowych, musi być świadomy etycznych konsekwencji takiej strategii. Jeżeli tylko jest to
możliwe, badacz powinien wykorzystać alternatywne sposoby uzyskania dostępu do terenu
badań.
Innym ważnym problemem etycznym jest — nie dający się przewidzieć — wpływ
każdego rodzaju badań terenowych na osoby badane. Badacze terenowi bardzo często mają
większą władzę niż ich gospodarze. Osoby badane mogą postrzegać badaczy jako źródło dóbr
materialnych, koneksji politycznych i społecznego prestiżu. I tak na przykład w badaniach
prowadzonych w Nowej Gwinei mieszkający tam Papuasi błędnie sądzili, że badacze
pomagają rządowi w pracach nad zmianą niektórych przepisów dotyczących gruntów51.
Takie wrażenie może być oczywiście bardzo niekorzystne z punktu widzenia relacji pomiędzy
badaczem a badaną populacją, szczególnie jeżeli badacz nie będzie się zachowywał tak, jak
oczekują tego ludzie.
Problemy polityczne związane z badaniami terenowymi zaczęły się pojawiać w
badanych społecznościach wraz z rosnącym zainteresowaniem rządu i innych grup
politycznych tym, kto jest badany i w jaki sposób jest badany52. Problem ten staje się
szczególnie istotny wtedy, gdy wyniki badań dotyczących grup znajdujących się w
niekorzystnym położeniu mogą mieć konsekwencje polityczne i społeczne. Wiele z takich
grup domaga się obecnie prawa do rewizji zarówno propozycji sformułowanych na podstawie
badań, jak i projektu raportu przed jego publikacją.
Mimo wymienionych tu problemów natury etycznej i politycznej jakościowe badania
terenowe mogą dostarczyć bogatego opisu kultur, jakiego nie dałoby się uzyskać za pomocą
badań ilościowych. Kiedy o jakiejś grupie czy podkulturze mamy niewiele informacji lub nie
mamy ich wcale, wówczas badania terenowe mogą służyć jako narzędzie uzyskiwania
informacji dla potrzeb tworzenia miar ilościowych. Osoby, które angażują się w badania
terenowe, muszą się zachowywać odpowiedzialnie, aby nauki społeczne nie straciły
możliwości korzystania z tak użytecznego narzędzia.
¦ Podsumowanie
1. Badania terenowe stanowią podstawową strategię zbierania danych w grupie metod
jakościowych. Badacze prowadzą badania terenowe w naturalnych warunkach po to, aby
poznać badane osoby z ich punktu widzenia.
2. Metodą zbierania danych, najściślej związaną z badaniami terenowymi, jest metoda
obserwacji uczestniczącej, tj. proces, w trakcie którego badacz stara się zostać członkiem
badanej grupy lub nawiązać jak najbliższe kontakty z badanymi osobami. Badacz może zostać
albo obserwatorem w pełni uczestniczącym w grupie, albo zająć pozycję obserwatora
będącego uczestnikiem. Obserwator uczestni-
51 Ibidem.
52 Ibidem, s. 266.
318
dnak metody obser-niektórych sytuacji nie wyrządziła bez-
rozwiązać. Musimy Lszywej tożsamości kwencji takiej stra-: alternatywne spo-
ewidzieć — wpływ nowi bardzo często >ostrzegać badaczy 10 prestiżu. I tak na ający
tam Papuasi ią niektórych prze-bardzo niekorzyst-jlacją, szczególnie ludzie.
żęły się pojawiać m rządu i innych my52. Problem ten eh grup znajdują-yczne i
społeczne. o propozycji sfor-20 publikacją, jakościowe bada-ałoby się uzyskać ze mamy
niewiele "nogą służyć jako ciowycb. Osoby, wiedzialnie, aby nego narzędzia.
lanych w grupie iralnych warun-
erenowymi, jest acz stara się zo-kty z badanymi iczącym w gru-wator uczestni-
czący ukrywa swoją tożsamość i nie ujawnia celu badań, podczas gdy obserwator jako
uczestnik ujawnia swoją obecność w badanej grupie.
3. W przebiegu badań terenowych można wyróżnić następujące, rozłączne etapy:
wybór tematu badawczego, wybór terenu badania i uzyskanie do niego dostępu, nawiązanie
kontaktów z członkami grupy, szukanie osób dostarczających rzetelnych informacji oraz
opuszczanie terenu i wreszcie analiza danych.
4. Celem badań terenowych jest tworzenie bazowej teorii za pomocą metody analizy
indukcyjnej. Badacz — na podstawie danych — tworzy szersze kategorie, a następnie — na
podstawie relacji pomiędzy tymi kategoriami — buduje hipotezy. Uwzględnianie przypadków
pozytywnych i negatywnych sprawia, że zarówno kategorie, jak i hipotezy są w trakcie badań
rewidowane i przeformułowywane.
5. W badaniach terenowych występują problemy natury zarówno etycznej, jak i
politycznej. Pierwszy problem dotyczy potencjalnego oszukiwania; szczególnie
prawdopodobnego w badaniach, w których badacz utajnia swoją tożsamość. Innym
problemem etycznym są nieprzewidywane konsekwencje badań. Osoby badane mogą
postrzegać badaczy terenowych jako źródło dóbr materialnych, koneksji politycznych i
społecznego prestiżu; źródło nie mające nic wspólnego z samym procesem badawczym czy
celem badań.
¦ Podstawowe terminy
analiza indukcyjna 313 badania terenowe 299 informator 309 obserwacja
uczestnicząca 300
Pytania sprawdzające
obserwator w pełni uczestniczący 300
przypadek negatywny 312
teoria bazowa 313
uczestnik jako obserwator 303
1. Omów podstawowe różnice pomiędzy badaniami jakościowymi i ilościowymi.
2. Porównaj i wymień różnice pomiędzy rolą obserwatora w pełni uczestniczącego a
rolą obserwatora jako uczestnika.
3. Opisz trudności związane z uzyskiwaniem dostępu do miejsca badań.
4. Na czym polega analiza indukcyjna?
5. Jakie podstawowe problemy natury etycznej i politycznej wiążą się z badaniami
terenowymi?
¦ Literatura dodatkowa
Denzin N.K., Lincoln Y.S. (1997), Wkraczanie na pole badań jakościowych.
Wprowadzenie do podręcznika, „Acta Universitatis Nicolai Copernici: Socjologia
Wychowania", t. XIII, s. 4-47.
Lutyński J. (1994), Metody badań społecznych. Wybrane zagadnienia (red., wstęp,
opracowanie K. Lu-tyńska), Łódź: ŁTN.
Nowak S. (red.) (1965), Metody badań socjologicznych. Wybór tekstów, Warszawa:
PWN.
Sutek A., Nowak K., Wyka A. (red.) (1989), Poza granicami socjologii ankietowej,
Warszawa: Wyd. UW.

Rozdział 13
Wtórna analiza danych
Dlaczego wtórna analiza danych? 322
Powody natury ogólnej 322 Powody natury metodologicznej 323 Powody natury
ekonomicznej 324
Opinia publiczna i polityka społeczna: przykład 324
Ograniczenia wtórnej analizy danych 325
Spis ludności 326
Spis ludności w Stanach Zjednoczonych 327 Błędy popełniane w spisach ludności
328 Dane uzyskane ze spisu ludności 329 Inne dane zbierane przez urząd statystyczny 330
Szukanie danych wtórnych 331
Pomiary nieinwazyjne 333
Obserwacja prosta 333
Dokumenty archiwalne 335
Dokumenty oficjalne 335 Dokumenty osobiste 338
Analiza treści 341
Zastosowania analizy treści 342 Jednostki i kategorie 344
Podsumowanie 346
Podstawowe terminy 348
Pytania sprawdzające 348
Literatura dodatkowa 348
Sztuka czasem towarzyszy nauce, jak na przykład w powieści Umberto Eco Wahadło
Foucaulta1. Jacopo Belbo, ekscentryczny, ale i intrygujący wydawca, uciekając, aby ratować
własne życie, prosi swojego przyjaciela Casaubona o pomoc. Opisując owe niezwykłe i
niepokojące wydarzenia, w których Belbo bierze udział, Eco — włoski profesor lingwistyki
— opisuje główne postacie powieści, łącząc elementy fantastyki z podstawowowymi
zasadami empirycznej metodologii analizy treści. W poszukiwaniu informacji prowadzi on
Casaubona przez tomy starożytnych tekstów, w postaci zarówno biografii, jak i plików
komputerowych, których kody wejściowe muszą być złamane. Casaubon szuka
powtarzających się wyrażeń, wspólnych tematów jak i wzmianek o konkretnych
wydarzeniach. Jak każdy dobry naukowiec zajmujący się naukami społecznymi sprawdza
zgodność wykorzystywanych źródeł z faktami historycznymi i stawianymi przez siebie
hipotezami, prowadzony chęcią rozwiązania zagadki i udzielenia pomocy przyjacielowi. W
tym rozdziale zetkniemy się z rzeczywistością empiryczną i przedstawimy zasady
prowadzenia systematycznej wtórnej analizy danych.
Rozpoczniemy od przedstawienia powodów coraz częstszego wykorzystywania
danych wtórnych. Następnie wskażemy na zalety i wewnętrzne ograniczenia wtórnej analizy
danych. Dalej omówimy podstawowe źródła danych wtórnych, w tym dane pochodzące ze
spisu ludności, specjalnych sondaży, prostej obserwacji i wreszcie dane archiwalne. Na
koniec przedstawimy analizę treści jako metodę systematycznej analizy danych pochodzących
z zapisów archiwalnych, dokumentów i gazet.
Metody zbierania danych, które omówiliśmy do tej pory, pozwalają na uzyskiwanie
danych pierwotnych. Dane takie zbiera się w warunkach sztucznych lub naturalnych (np. w
czasie eksperymentu terenowego), w których osoby badane są często nieświadome, że są
badane, i w których badacz zbiera dane osobiście lub przy pomocy wytrenowanych
obserwatorów czy ankieterów. Coraz częściej jednak badacze korzystają z danych zebranych
już przez innych badaczy dla celów innych niż te przez nich realizowane. Wtórna analiza
danych odwołuje się zatem do wyników uzyskanych na podstawie analizy danych zebranych
przez innych. Na przykład w naukach społecznych badacze posługują się danymi ze spisów
ludności przeprowadzanych przez rząd dla celów administracyjnych czy publicznych, aby —
między innymi — zbadać strukturę gospodarstw domowych, rozkład dochodów i wydatków,
wzorce imigracji i migracji, cechy charakterystyczne grup rasowych i etnicznych, zmiany w
strukturze rodziny, strukturę zawodów, mobilność społeczną oraz cechy obszarów wiejskich,
miejskich i metropolii. Dane zbierane przez Instytut Gallupa czy inne instytucje prowadzące
sondaże ogólnokrajowe były wykorzystywane do badania wielu problemów, takich jak
zmiany opinii publicznej, postawy polityczne czy schematy głosowania oraz ich
determinanty.
1 Umberto Eco (1988), Wahadło Foucaulta, tłum. Adam Szymanowski, Warszawa:
PIW.
321
¦ Dlaczego wtórna analiza danych?
Wtórna analiza danych ma bogatą tradycję intelektualną w naukach społecznych. Emil
Durkheim analizował oficjalne dane statystyczne dotyczące samobójstw w różnych obszarach
i stwierdził, że odsetek samobójstw w krajach protestanckich jest wyższy niż w krajach
katolickich2. Karol Marks wykorzystywał oficjalne statystyczne dane ekonomiczne, aby
uzasadnić swoją tezę o „walce klas" i koncepcję ekonomicznego determinizmu3. Max Weber
studiował oficjalne założenia ideologiczne wczesnych kościołów protestanckich, a także
analizował inne dokumenty historyczne po to, aby podważyć tezę Marksa i uzasadnić, że to
raczej religia, a nie determinizm ekonomiczny jest źródłem zachowań społeczno-
politycznych4.
W naukach społecznych coraz częściej korzysta się z danych zebranych przez różnych
badaczy czy instytucje, realizując cele badawcze odmienne od pierwotnych powodów
zbierania tych danych. Biorąc pod uwagę zwłaszcza badania sondażowe, Norval Glenn
zauważył, że
właśnie zachodzi niemal rewolucyjna zmiana w badaniach sondażowych. Jeszcze
niedawno dane z sondaży były analizowane przede wszystkim przez osoby prowadzące te
sondaże. Teraz zaś obserwuje się silną tendencję do rozdzielania planu sondażu od analizy
danych. Można sobie wyobrazić czas, kiedy niektórzy badacze prowadzący badania
sondażowe będą się specjalizować w tworzeniu planów takich badań, a inni w
przeprowadzaniu analiz danych pochodzących z tych badań5.
Istnieją trzy podstawowe powody, dla których rośnie zainteresowanie
wykorzystywaniem danych wtórnych. Są to powody natury ogólnej, metodologicznej i
ekonomicznej.
Powody natury ogólnej
Z ogólnego punktu widzenia dane wtórne mogą być jedynymi dostępnymi danymi dla
określonych problemów badawczych. Historycy społeczni i polityczni, na przykład, muszą
polegać niemal wyłącznie na danych wtórnych.
W badaniu bardziej współczesnej problematyki —jak podkreśla to Herbert Hy-man —
badacz korzysta z szerokiego zakresu materiałów dotyczących różnych obszarów i wieków,
co sprzyja większej rozpiętości i większemu pogłębieniu analizy, niż byłoby to możliwe w
przypadku wykorzystania danych pierwotnych pochodzących z pojedynczego projektu
badawczego6. Dzięki źródłom wtórnym możemy lepiej zrozumieć kontekst historyczny.
Analizując dane zebrane w różnym czasie i dotyczące podobnej problematyki, możemy
również opisać i wyjaśnić zmiany. Na
2 Emil Durkheim (1966), Suicide, New York: Free Press (wyd. 1 — 1897).
3 Karol Marks (1965), Kapitał, Warszawa: Książka i Wiedza.
4 Max Weber (1994), Etyka protestancka w duchu kapitalizmu, tłum. Jan Miziński,
Lublin: test.
5 Norval D. Glenn (1978), The General Social Surveys: Editorial Introduction to a
Symposium, „Contemporary Sociology", 7, s. 532.
6 Herbert H. Hyman (1987), Secondary Analysis ofSample Surveys, Middletown,
Conn.: Wesleyan University Press, rozdz. 1.
322
przykład Międzyuniwersytecki Zespół ds. Badań Politycznych i Społecznych (In-
teruniversity Consortium for Political and Social Research — ICPSR) przy uniwersytecie w
Michigan dysponuje danymi z sondaży przedwyborczych w Stanach Zjednoczonych,
począwszy od 1952 roku7. Naukowcy wykorzystali te dane, aby opisać i wyjaśnić stabilność i
zmianę ideologii, zaufanie, identyfikację z partią i zmiany głosowania w czasie.
Dane wtórne można również wykorzystywać do celów porównawczych. Porównania
wewnątrz i pomiędzy narodami i społeczeństwami mogą zwiększyć zakres generalizacji, jak
też tworzyć dodatkowy kontekst. I tak na przykład ICPSR posiada dane z badań dotyczących
wyborów w demokracjach europejskich. Ponieważ w badaniach tych mierzono wiele
zmiennych podobnych do tych uwzględnianych w badaniach amerykańskich, taka baza
danych umożliwia analizowanie problemów porównawczych, np. uczestnictwo w życiu
politycznym oraz strukturę konfliktów czy porozumień, i to zarówno w aspekcie narodowym,
jak i międzynarodowym. Hyman twierdzi, biorąc szczególnie pod uwagę badania sondażowe,
że:
Wtórna analiza wielu porównywalnych ze sobą badań sondażowych,
przeprowadzonych w różnym czasie, stwarza nietypową możliwość dokonania empirycznego
opisu długofalowych zmian, a także zbadania, jak różnią się określone zjawiska, biorąc pod
uwagę zróżnicowane warunki w ramach jednego społeczeństwa (łub kilku społeczeństw) w
różnym czasie8.
Powody natury metodologicznej
Można wskazać wiele zalet wtórnej analizy danych. Po pierwsze, dane wtórne —
jeżeli są rzetelne i dokładne — stwarzają możliwość replikacji. Wyniki badań cieszą się
większym zaufaniem, jeżeli powtórzyły się w wielu badaniach. Zamiast osobistego
prowadzenia wielu badań badacz może — w połączeniu z własnymi danymi — wykorzystać
dane zebrane przez innych. Po drugie, dostępność danych zbieranych w różnym czasie
pozwala na stosowanie longitudinalnych planów badawczych. Można znaleźć podstawowe
dla siebie dane w badaniach prowadzonych wiele lat temu i następnie starać się zlokalizować
podobne dane w badaniach prowadzonych bardziej współcześnie. I rzeczywiście, kiedy
badacze chcą porównywać zebrane przez siebie dane pierwotne z danymi zebranymi
wcześniej, muszą z konieczności iść ścieżką wytyczoną przez badania oryginalne. Po trzecie,
analiza danych wtórnych może poprawić jakość pomiaru przez rozszerzanie zakresu
zmiennych niezależnych uzwględnionych w procesie operacjonalizacji pojęć. Odwołując się
do słów Hymana, osoba dokonująca analizy danych wtórnych
musi przeanalizować szeroki zakres szczegółowych wskaźników, różnorodne
zachowania czy postawy [...] Ma większe szanse na bardziej wyczerpujące zdefiniowanie
pojęcia, może bowiem o nim myśleć nie tylko w mniej zwyczajowy sposób, ale analizować je
na wszystkie nietypowe sposoby9.
7 Warren E. Miller i in. (1980), American National Elections Studies Data
Sourcebook, 1952-1978, Cambridge, Mass.: Harvard University Press.
8 Hyman, Secondary Analysis, s. 17.
9 Ibidem, s. 24.
323
Po czwarte, korzystanie z danych wtórnych zwiększa wielkość próby, jej
reprezentatywność i liczbę obserwacji prowadzących do szerszych wniosków. I wreszcie,
danymi wtórnymi można się posługiwać w metodzie triangulacji, zwiększając w ten sposób
trafność wyników uzyskanych na podstawie analizy danych pierwotnych.
Powody natury ekonomicznej
Badania, w których się zbiera dane pierwotne, to przedsięwzięcia bardzo kosztowne.
Badanie sondażowe przeprowadzone na próbie ogólnokrajowej liczącej od 1500 do 2000 osób
może kosztować około 200 000 dolarów, a nawet więcej*. Jest to suma niedostępna — bez
pomocy ze strony sponsorów wspomagających badania — dla profesorów uniwersytetów,
niezależnych badaczy czy studentów ostatnich lat studiów. Korzystanie z już istniejących
danych jest zdecydowanie tańsze niż zbieranie nowych danych.
¦ Opinia publiczna i polityka społeczna: przykład
Jaki efekt, jeżeli w ogóle, wywiera opinia publiczna na politykę rządu? Aby
odpowiedzieć na tak istotne pytanie, Benjamin Page i Robert Shapiro przeanalizowali kilkaset
badań sondażowych przeprowadzonych na narodowej próbie Stanów Zjednoczonych, między
rokiem 1935 a 1979, przez Instytut Gallupa, Narodowe Centrum Badania Opinii Publicznej
(National Opinion Research Center) oraz Centrum Badań Politycznych (Center for Political
Studies Survey) przy uniwersytecie w Michigan10. Stworzyli oni zbiór składający się z 3319
pozycji kwestionariuszowych dotyczących preferencji politycznych, z których około 600
powtarzało się w identycznej formie, dwa lub więcej razy w czasie objętym badaniami.
Autorzy zidentyfikowali następnie każdy przypadek, w którym wystąpiła istotna zmiana
opinii z jednego sondażu na drugi (6% lub więcej w próbach liczących 1500 osób, z prawie
jednakowym rozproszeniem opinii). W sumie znaleźli oni 357 przypadków zmian preferencji
politycznych Amerykanów, obejmujących szeroki zakres problemów dotyczących polityki,
wydatków, regulacji prawnych, handlu i działań militarnych".
Dla każdego przypadku zmiany opinii Page i Shapiro zmierzyli wskaźniki dotyczące
prowadzonej polityki, biorąc pod uwagę okres, którego początek przypadał na dwa lata przed
czasem, kiedy odbyły się sondażowe badania opinii publicznej, a koniec cztery lata po
ostatnim sondażu. Posługując się tymi dwoma zbiorami danych, autorzy zakodowali dane
świadczące o zgodności i braku zgodności pomiędzy przypadkami zmiany opinii i
wskaźnikami dotyczącymi polityki. Na podstawie analizy danych stwierdzili duży stopień
zgodności pomiędzy zmianami polityki
* W Polsce cena badania sondażowego przeprowadzonego na losowej próbie imiennej
liczącej 1500 osób kształtuje się na poziomie 120 000 zł. Sam koszt uzyskania próby to 5000-
6000 zł (przyp. red. nauk.).
10 Benjamin I. Page, Robert Y. Shapiro (1983), Ęffects of Public Opinion on Policy,
„American Political Science Review", 77, s. 175-190.
11 Ibidem, s. 189.
324
a zmianami opinii publicznej, w trakcie badanej przez nich połowy wieku. Co więcej,
zgodność zdarzała się częściej wtedy, gdy istniało dość czasu, aby w procesie podejmowania
decyzji mogły zostać uwzględnione zmiany opinii publicznej. Autorzy postawili wniosek, że
„opinia publiczna — jakiekolwiek byłyby jej źródła i cechy — jest czynnikiem rzeczywiście
wpływającym na politykę Stanów Zjednoczonych".
¦ Ograniczenia wtórnej analizy danych
Podobnie jak w przypadku innych metod zbierania danych wtórna analiza danych
również ma swoje ograniczenia. Największym problemem wtórnej analizy danych jest to, że
często jedynie w przybliżeniu odpowiadają one danym, jakie badacz chciałby wykorzystać w
procesie testowania hipotez. Istnieje nieunikniona przepaść pomiędzy danymi pierwotnymi,
które badacz zbiera osobiście dla określonego celu badawczego i z określonych powodów, a
danymi zbieranymi dla innych celów. Różnice te mogą dotyczyć wielkości próby, planu
badawczego, sposobu formułowania pytań, szczegółów dotyczących planu wywiadu i
techniki jego przeprowadzania oraz sposobu tworzenia sytuacji badania laboratoryjnego.
Drugi problem związany z korzystaniem z danych wtórnych jest związany z dostępem
do tych danych. Chociaż w archiwach przechowuje się tysiące badań, to można mieć
trudności ze znalezieniem tych, które dotyczą badanych zmiennych. Czasami potrzebne dane
mogą być niedostępne, ponieważ pierwszy badacz ich nie ujawnił. Nie ma bowiem
obowiązku udostępniania danych na rzecz ich wtórnej analizy. Dlatego problem ten często
dopinguje badaczy do twórczego wykorzystywania własnych umiejętności w poszukiwaniu
właściwych danych wtórnych i mierzonych zmiennych.
Trzeci problem dotyczący wtórnej analizy danych może się pojawić wtedy, gdy
badacz nie dysponuje wystarczającymi informacjami o tym, w jaki sposób dane zostały
zebrane. Informacje te są niezbędne do określenia potencjalnych źródeł stronniczości, błędów
czy kłopotów związanych z trafnością wewnętrzną czy zewnętrzną. ICPSR radzi sobie z
takimi problemami, dzieląc dane na cztery klasy ze względu na liczbę informacji,
udokumentowanie i wkład pierwotnych autorów badań w procedurę standaryzacji i
sprawdzania danych (por. przykład 13.1).
Przykład 13.1
Klasy danych tworzone przez ICPSR
Ostatnio ICPSR, aby opisać stopień przetworzenia danych w trakcie procesu ich
zbierania, stosuje dwa systemy. Pierwszy, przedstawiony poniżej, polega na kategoryzowaniu
zbiorów ze względu na stopień przetworzenia oryginalnych danych przez ICPSR. Drugi
system, wdrożony w 1992 roku, zastępuje system klasyfikowania danych kodami opisującymi
odrębne kroki podejmowane przy przetwarzaniu danych, czy to przez ICPSR czy przez
głównych badaczy lub osoby tworzące dane.
Wszystkie zbiory stworzone przez ICPSR są sprawdzane w celu stwierdzenia, czy
dane są dobrze udokumentowane i czy informacje, które powinny zostać tajne — takie jak
nazwiska czy daty — zostały zabezpieczone przez ich ujawnieniem. Dostępna jest także
książka kodowa zawierająca dane bibliograficzne oraz materiały opisujące sposób zbierania
danych.
325
Kategoria I
Zbiory danych kategorii I zostały sprawdzone, poprawione — jeżeli to konieczne — i
sformatowane według wskazówek ICPSR. W celu zwiększenia ich użyteczności i dostępności
dane te — po konsultacji z badaczem — mogą zostać przekodowane lub przeorganizowane.
Dostępna jest książka kodowa w wersji, która może być odczytana przez komputer. Książka
ta w pełni dokumentuje dane i czasami zawiera statystyki opisowe, takie jak częstości czy
średnie. Dane kategorii I są często dostępne w różnych formatach i wiele zbiorów danych
kategorii I jest dostępnych w formatach wymaganych przez pakiety statystyczne SAS i SPSS.
Kategoria II
Badania kategorii II zostały sprawdzone i sformatowane według wskazówek ICPSR.
Usunięto większość kodów nienumerycznych. Wiele badań zaliczonych do tej klasy jest
dostępnych w różnych formatach, często odpowiadających formatom danych w pakietach
SAS i SPSS. Wszelkie osobliwości danych zostały uwzględnione w dokumentacji.
Kategoria III
Badania zaliczone do kategorii III zostały sprawdzone przez pracowników ICSPR pod
względem właściwej liczby rekordów dla każdego przypadku i właściwego — zgodnie z
książką kodową — określenia danych. Często dla zbiorów tych dostępne są dane
częstościowe. Rozbieżności w danych, które są znane, oraz inne problemy (jeżeli występują),
są przekazywane użytkownikom w chwili udostępniania danych.
Kategoria IV
Badania zaliczone do kategorii IV są rozprowadzane w takiej postaci, w jakiej badacz
przekazał je
ICPSR. Dokumentacja badań kategorii IV jest powieleniem oryginalnie otrzymanych
materiałów.
Na podstawie: Inter-university Consortium for Political and Social Research (1994),
Guide to Resources and Ser\'tces, 1994-1995, Ann Arbor: University ot' Michigan, Institute
for Social Research, Center for Political Studies, s. xxiii.
¦ Spis ludności
Spis ludności polega na zbieraniu danych demograficznych, opisujących populację na
dokładnie zdefiniowanym terytorium, przeprowadzanym na zlecenie agencji rządowych, w
określonym czasie i w regularnych odstępach. Spis ludności, czy inaczej enumeracja
populacji, powinien zasadniczo być uniwersalny i obejmować każdą osobę żyjącą na
wytypowanym obszarze12.
Istnieją dane wskazujące na to, że początki spisów ludności sięgają 3800 roku p.n.e. w
Babilonii, 3800 roku p.n.e. w Chinach i 2500 roku p.n.e. w Egipcie. Znane są także dane na
temat enumeracji populacji w starożytnej Grecji i Rzymie, a także w państwie Inków.
Współczesne spisy ludności rozpoczęły się od spisu przeprowadzonego w 1666 roku w
Kanadzie i w roku 1790 w Stanach Zjednoczonych. Od tego czasu w obu państwach co
dziesięć lat przeprowadza się spisy ludności13.
Podstawowym powodem, dla którego zaczęto enumerować populację zarówno w
czasach historycznych, jak i współczesnych, była chęć uzyskania danych, które by ułatwiły
działania rządu dotyczące polityki wewnętrznej w dziedzinie podatków, poboru do wojska,
celowości pomocy udzielanej przez rząd czy wykorzystywania urzędników. Zakres
współczesnych spisów ludności coraz bardziej się poszerza,
12 William Peterson (1975), Population, New York, Macmillan.
13 Mortimer Spiegelman (1968), Introduction to Demography, Cambridge, Mass.:
Harvard Univer-sity Press.
326
a zebrane dane mogą dostarczać informacji wykorzystywanych w badaniach
prowadzonych przez rząd, przemysł czy społeczności akademickie14.
Spis ludności w Stanach Zjednoczonych
Pierwszy spis ludności został przeprowadzony w Stanach Zjednoczonych w roku 1790
przez urzędników pod nadzorem Thomasa Jeffersona. W roku 1902 Kongres powołał stałe
biuro ds. spisu ludności, Urząd Statystyczny (Bureau of the Census), które dzisiaj odpowiada
za dokonywanie enumeracji populacji co dziesięć lat. Ponadto Urząd Statystyczny prowadzi
wiele dodatkowych badań sondażowych dotyczących populacji: gospodarki mieszkaniowej i
budownictwa, handlu i przemysłu, federalnych, stanowych i lokalnych rządów oraz handlu
zagranicznego.
Urząd Statystyczny zainicjował lub uczestniczył w tworzeniu wielu innowacji
technicznych i rozwijaniu metod statystycznych. Do najbardziej istotnych należą metody
pobierania próby zwiększające zakres spisów; tworzenie pierwszego komputera do masowego
przetwarzania danych i — bardziej współcześnie — stworzenie zintegrowanego systemu
kodowania geograficznego (TIGER — Typologically Integrated Geographic Encoding and
Referencing). TIGER to skomputeryzowana baza danych geograficznych, dostarczająca
informacji opartych na współrzędnych i dotyczących cyfrowej mapy zawierającej granice
obszarów politycznych i statys-fycznych (wraz z ich kodami) dla terytorium całych Stanów
Zjednoczonych wraz z wszystkimi podległymi terytoriami. Użytkownicy mogą niezależnie
otrzymać dane ze spisu i inne dane statystyczne i mogą włączyć je do bazy danych TIGER.
Wówczas baza ta, wyposażona w odpowiedni software, pozwala na tworzenie nowych granic
obszarów politycznych czy administracyjnych, wytyczanie obszarów o wysokim zagrożeniu
przestępczością czy określanie przewidywanego wzrostu populacji w określonych okręgach
sądowniczych15.
Spis ludności i gospodarstw domowych przeprowadzany co dziesięć lat nazywany jest
pełnym spisem ludności i powinien objąć każde gospodarstwo domowe w państwie. W spisie
dziesięcioletnim używa się dwóch kwestionariuszy: krótkiej formy, która pozwala zbierać
podstawowe informacje demograficzne o każdym członku gospodarstwa domowego oraz
zawiera kilka pytań na temat samego gospodarstwa; długiej formy, która dodatkowo zawiera
pytania na temat statusu socjoekonomicznego oraz mieszkania. Pełen spis ludności jest
przeprowadzany przy użyciu krótkiej formy. W próbie pobranej z populacji, zawierającej
około 17% wszystkich badanych gospodarstw domowych, stosuje się dodatkowo długą wersję
kwestionariusza. W kwietniu 1990 roku, to jest w czasie ostatniego pełnego spisu ludności
przeprowadzonego w Stanach Zjednoczonych, długą wersję kwestionariusza rozesłano do
17,7 milionów gospodarstw spośród pełnej ich liczby stanowiącej około 106 milionów
gospodarstw.
Pełen spis ludności populacji Stanów Zjednoczonych jest niezbędny, gdyż na
podstawie otrzymanych statystyk wyznacza się proporcjonalnie liczbę miejsc przyznawaną
każdemu stanowi w Izbie Reprezentantów. Co więcej, fundusze federalne przeznaczane dla
władz stanowych i lokalnych są rozdzielane na podstawie danych
14 Ibidem.
15 Więcej informacji można znaleźć w: TIGER: The Coast-to-Coast Digital Map Data
Base, Washington, D.C: U.S. Department of Commerce, Bureau of the Cenus, November
1990.
327

spisu dziesięcioletniego. Ponadto jedynie pełen spis ludności może dostarczyć danych
o małych obszarach geograficznych takich jak małe miasta czy kwartały spisowe —
najmniejsze obszary geograficzne, dla których zbiera się dane spisowe. Ponieważ jednak
pełen spis ludności jest bardzo kosztowny, a jego przeprowadzenie jest technicznie bardzo
skomplikowane, więc wykorzystuje się go do gromadzenia podstawowych informacji. Stosuje
się również pobieranie próby z populacji (pytania zadawane są wówczas jedynie części
populacji objętej sondażem). W porównaniu z pełnym spisem ludności ma ono wiele zalet.
Badanie takie jest bardziej ekonomiczne, bardziej skuteczne i szybsze. Pozwala zmniejszyć
czas pomiędzy terminem przeprowadzenia badań a opublikowaniem jego wyników. Co
więcej, posługiwanie się próbami umożliwia Urzędowi Statystycznemu rozszerzyć zakres i
stopień szczegółowości zbieranych danych w odniesieniu do aspektu mieszkaniowego i
statusu wynikającego z zatrudnienia. Ponadto niektóre z sonadaży przeprowadzonych na
próbach przez Urząd Statystyczny zostały zaprojektowane w celu uzyskania informacji o
postawach społeczeństwa dotyczących różnych spraw.
Dane ze spisu ludności są zazwyczaj grupowane w dwie wiązki geograficzne:
jednostek politycznych (takich jak stany, hrabstwa czy okręgi kongresowe) oraz obszarów
statystycznych, które są obszarami definiowanymi w celach statystycznych, głównie na
podstawie kryteriów geograficznych. Do najbardziej powszechnych obszarów statystycznych
należą metropolitalne obszary statystyczne (MSA — Metropolitan Statistical Areas), miejsca
objęte spisem (CDP — Census Designated Pla-ces) oraz ścieżki spisowe. MSA są
definiowane jako jedno hrabstwo (lub więcej), cechujące się dużym skupieniem populacji i
okolicznych społeczności, które pozostają ze sobą w ścisłej interakcji16. Wytyczone CDP to
gęsto zaludnione okręgi, które nie mają własnych, prawnie określonych władz17. Ścieżki
spisowe to małe, definiowane na poziomie lokalnym, obszary statystyczne w okręgach
metropolitarnych i niektóre hrabstwa, których przeciętna populacja waha się w granicach
400018.
Błędy popełniane w spisach ludności
Współczesne spisy ludności stanowią ważne źródło rzetelnych informacji
statystycznych. Mogą się w nim jednak zdarzyć błędy, zatem użytkownicy muszą być
świadomi metodologicznych ograniczeń tych danych.
Dane ze spisu ludności mogą być źródłem dwojakiego rodzaju błędów: błędów
zakresu i błędów treści. Błędy w zakresie oznaczają, że dana osoba lub grupa osób nie zostały
w ogóle policzone lub zostały policzone dwukrotnie. Podwójne dane stanowią mniejszy
problem niż ich brak. Zjawisko niedoszacowania populacji od dawna znajduje się w centrum
zainteresowania osób, które zwyciężyły w wyborach, badaczy i opinii publicznej, ponieważ
osoby, które nie zostały ujęte w spisie (a zwłaszcza grupy takie, jak bezdomni czy migrujący
pracownicy), tracą szansę na znalezienie swojej reprezentacji w rządzie narodowym,
stanowym czy lokalnym.
Jedna z kategorii osób, które nie zostały ujęte w spisie, składa się z ludzi, których nie
można było zlokalizować ze względu na brak stałego adresu. Inną katego-
16 Na podstawie: Census '90 Basics (1985), Washington, D.C.: U.S. Department of
Commerce, Bu-reau of the Census, December, s. 5.
17 Ibidem.
18 Ibidem.
328
rię tworzą osoby, które nie chcą zostać znalezione, jak na przykład nielegalni
mieszkańcy. W takim przypadku Urząd Statystyczny ma trudności z oszacowaniem błędu,
ponieważ nielegalni mieszkańcy nie zostaną ujawnieni także w innych oficjalnych rejestrach,
na przykład w dokumentach posiadanych przez administrację, a wykorzystywanych do
weryfikowania statystyk spisu.
Błędy treści pojawiają się wtedy, kiedy otrzymane informacje zostały nieprawidłowo
zarejestrowane lub stabularyzowane. Pomijając błędy wynikające z braku uwagi, błędy treści
zdarzają się dlatego, gdyż osoby badane często udzielają błędnych odpowiedzi na pytania
mierzące status społeczny. Na przykład w konsekwencji wprowadzających w błąd
odpowiedzi badani mogą zostać źle zaklasyfikowani do grup o wysokich czy niskich
dochodach czy do grup o różnym stopniu wykształcenia. Błędy takie mogą w dużym stopniu
wpływać na trafność wyników badań, a w konsekwencji mieć znaczenie dla prowadzonej
polityki wewnętrznej.
Dane uzyskane ze spisu ludności
Dane uzyskane ze spisu ludności są dostępne w Urzędzie Statystycznym w różnych
formatach: drukowanych raportów, taśm magnetofonowych, mikrofisz, a ostatnio także w
postaci CD-ROM-ów. Drukowane raporty statystyczne są wygodne i od razu dostępne. Dane
w takich raportach są przedstawiane w postaci tabel zawierających określone zbiory danych
dla określonych obszarów geograficznych. Raporty te przedstawiają dane w różnym
porządku. Niektóre przedstawiają informacje dla wszystkich poziomów: państwa jako całości,
stanów, metropolii, obszarów miejskich, miast i hrabstw. Część zatytułowana „The Smali
Area" zawiera dane dia kwartałów i ścieżek spisowych. Część dotycząca osób badanych
przedstawia dane dla wybranych osób na poziomie ogólnokrajowym.
Części raportu dotyczące osób badanych zawierają głównie dane dotyczące
gospodarstw domowych i problemów populacyjnych. Każda publikacja koncentruje się
jednak na wybranym aspekcie zdefiniowanych ogólnie obszarów. Na przykład raport
zatytułowany „Droga do pracy: Ścieżki komunikacyjne w metropolii" {Journey to Work:
Metropolitan Community Flows) zawiera statystyki dotyczące lokalnych i ogólnokrajowych
schematów podróżowania dla każdej z metropolii Stanów Zjednoczonych, a także informacje
o miejscach pracy i zamieszkania pracowników. Inny raport „Związki między dziećmi a
dorosłymi" (Living Arrangements ofChildren and Adults), użyteczny w badaniach
amerykańskich gospodarstw domowych, gromadzi dane na temat relacji pomiędzy dziećmi a
dorosłymi na poziomie ogólnokrajowym. Informacje te podawane są dla dzieci w różnych
grupach wiekowych, z uwzględnieniem ich relacji z głową domu i stanu cywilnego rodziców.
Dla użytkowników potrzebujących bardziej szczegółowych danych czy danych dla
mniejszych obszarów geograficznych, a także statystyk, które są rozrzucone po różnych
raportach, Urząd Statystyczny przygotowuje dane na taśmach komputerowych w dwóch
formach: Summary Tape Files (STFs), które zawierają zebrane w tabelach znacznie bardziej
szczegółowe dane niż prezentowane w drukowanych raportach, oraz Public-Use Microdata
Sample Files (PUMS) zawierające dane dla niewielkich prób nie identyfikowanych
gospodarstw domowych i zawierające wszystkie dane spisu zebrane dla każdej osoby w
gospodarstwie domowym. Pliki PUMS pozwalają użytkownikom na przygotowywanie
indywidualnych tabel prostych i tabel krzyżowych na podstawie wybranych pytań
kwestionariusza spisowego.
329
Ma to ogromne znaczenie dla naukowców potrzebujących bardziej pogłębionych
danych19.
Mikrofisze zawierające statystyki dla zbiorów kwartałów spisowych począwszy od
spisu z 1980 roku, również są dostępne. Mikrofisze zawierają zbiory tabel dla kwartałów
definiowanych w pliku STF IB. W roku 1990 cały kraj po raz pierwszy został podzielony na
„kwartały". Zwiększyło to liczbę kwartałów z 2,5 miliona (w roku 1980) do ponad 7
milionów (w roku 1990), dla których Urząd Statystyczny zbiera teraz dane. Koszty i
przechowywanie takiej ilości danych w wersji drukowanej są niewyobrażalne20.
Płyta kompaktowa, czyli CD-ROM, rodzaj dysku optycznego czy laserowego to
najbardziej współczesna technika gromadzenia danych. Na jednym, 4 i 1/4 calowym dysku
może się zmieścić zawartość około 1500 dyskietek 5 i 1/4 cala lub 3 do 4 taśm wysokiej
gęstości21. Specjalne urządzenia peryferyczne pozwalają na korzystanie z CD-ROM-ów w
komputerach osobistych. Ze względu na nieocenioną wygodę w ich stosowaniu można
oczekiwać, że coraz więcej danych spisowych będzie dostępnych w tej formie.
Inne dane zbierane przez urzqd statystyczny
Chociaż spis powszechny odbywający się co dziesięć lat jest podstawowym źródłem
informacji o populacji Amerykanów, to nie jest w stanie dostarczyć informacji na każdy
interesujący temat. Ponadto dla wielu potrzeb dane te mogą się okazać nieaktualne już za
kilka lat. Dlatego też urząd statystyczny przeprowadza dodatkowe specjalne spisy i sondaże
na mniejszych próbach. Niektóre z nich, które mogą być przydatne dla badaczy w naukach
społecznych, przedstawiamy poniżej.
Aktualny sondaż populacji (CPS — Current Population Survey). Aktualny sondaż
populacji to sondaż przeprowadzany co miesiąc na wylosowanej próbie z populacji Stanów
Zjednoczonych rozumianej nieinstytucjonalnie (tj. z wyłączeniem żołnierzy, więźniów czy
osób przewlekle chorych). Jego podstawowym celem jest dostarczenie statystyk dotyczących
bezrobocia i aktualnych informacji na temat danych osobowych osób zatrudnionych, takich
jak: płeć, wiek, rasa, stan cywilny i rodzinny oraz wykształcenie. Sondaż taki dostarcza
również informacji na inne tematy, które okresowo są dodawane do podstawowej listy
problemów objętych sondażem. Urząd statystyczny publikuje wiele raportów opartych na
tych danych pod wspólnym tytułem Current Population Reports.
Sondaż dotyczący amerykańskich gospodarstw domowych (AHS — American
Housing Survey). Co dwa lata, jako część programu AHS, urząd statystyczny przeprowadza
badania ankietowe na próbie respondentów ze wszystkich gospodarstw domowych w całych
Stanach Zjednoczonych. Sondaż dotyczący amerykańskich gospodarstw domowych zawiera
pogłębione dane na temat warunków mieszkania, powodów wybrania danego mieszkania,
oceny usług w^ektorze publicznym i ogólnej jakości życia w najbliższej okolicy. Sondaż ten
pozwala na badanie zmian wy-
19 Ibidem, s. 13.
20 Ibidem, s. 16.
21 Ibidem.
330
mkających ze strat w substancji mieszkaniowej, nowego budownictwa, mobilności
mieszkaniowej i charakterystyk demograficznych badanych osób22.
Sondaż na temat wydatków konsumentów (Consumer Expenditure Survey). Sondaże
na temat wydatków konsumentów zostały przygotowane w celu monitorowania zmian w
cenach. Dane z tych sondaży mają podstawowe znaczenie dla pomiaru wielkości inflacji w
Stanach Zjednoczonych i jej wpływu na koszty utrzymania. Dane z tych sondaży są również
wykorzystywane przez Biuro Pracy (Bureau of Labor Statistics) do uaktualniania ukazującego
się co miesiąc „Consumer Price Index" (CPI). Sondaż na temat wydatków konsumentów jest
przeprowadzany w trzech formach: wywiadu kwartalnego, sondażu dzienniczkowego i
sondażu w miejscach sprzedaży.
Wywiad kwartalny (The Quarterly Interview Survey) jest przeprowadzany co miesiąc
w postaci wywiadu w gospodarstwach domowych. Dostarcza danych na temat kosztów
utrzymania poniesionych w ciągu trzech miesięcy przed wywiadem23.
Sondaż dzienniczkowy (The Diary Survey) również przeprowadzany co miesiąc
dostarcza danych na temat kosztów utrzymania osób mieszkających stale w danym
gospodarstwie domowym przez kolejne dwa tygodnie24. Informacje zapisywane są w
specjalnym dzienniczku — stąd nazwa sondażu.
Przeprowadzany co rok sondaż w miejscach sprzedaży (Point of Purchase Survey)
pozwala na zidentyfikowanie rodzaju sklepów i innych punktów, które konsumenci
najczęściej odwiedzają, dokonując zakupów dóbr i usług. Jest on szczególnie użyteczny do
analizowania trendów ekonomicznych i planowania działań reklamowych.
Urząd statystyczny publikuje również wiele użytecznych przewodników.
Podstawowym przewodnikiem po danych uzyskanych ze spisu w roku J 990 jest 1990 Census
User's Guide. Z kolei Census and Kom jest comiesięczną gazetką adresowaną do
użytkowników danych, natomiast Census Catalog and Guide publikuje wyczerpującą listę
wszystkich nowych publikacji, plików komputerowych, nietypowych tabel i wszystkich
innych oferowanych przez urząd produktów. Obok głównego biura, które mieści się w
Waszyngtonie, Urząd Statystyczny ma dwanaście filii w całych Stanach Zjednoczonych, w
których pracują specjaliści udzielający odpowiedzi przez telefon, osobiście lub drogą
pocztową. Zbiory danych mogą być nabywane przez uniwersytety, główne biblioteki miejskie
i inne duże instytucje prowadzące badania.
¦ Szukanie danych wtórnych
Biorąc pod uwagę, że w Stanach Zjednoczonych i na świecie przeprowadzono tysiące
badań, powstaje oczywiste pytanie: W jaki sposób można precyzyjnie zlokalizować dane,
które są nam potrzebne? William Trochim jest autorem następujących wskazówek dla osób
poszukujących danych25:
22 Na podstawie: Census Suryeys: Measuring America, Washington, D.C.: U.S.
Department of Commerce, Bureau of the Census, December, 1985, s. 6.
23 Ibidem, s. 12.
24 Ibidem.
25 William M.K. Trochim (1981), Resources for Locałing Public and Private Data, w:
Robert F. Boruch (red.), Reanalyzing Program Evaluations, San Francisco: Jossey-Bass, s. 57-
67.
331
1. Określ swoje potrzeby: sprawdź indeksy rzeczowe w materiałach archiwalnych i
określ odpowiednie podstawowe słowa.
2. Zaznajom się: przeszukaj indeksy, katalogi i dane archiwalne, a także informacje
publikowane przez różne instytucje, które mogą posiadać interesujące dane.
3. Nawiąż pierwsze kontakty: przede wszystkim nawiąż kontakty z osobami I
znającymi materiały archiwalne i zdobądź informacje na temat korzystania I z tych danych.
4. Nawiąż kolejne kontakty: poproś profesjonalistów o zweryfikowanie uzyskanych
informacji i naucz się, w jaki sposób należy oficjalnie poprosić o udostępnienie danych.
5. Sprawdź dostępność: zdobądź informacje na temat ewentualnych trudności, jakie
mogą stwarzać osoby posiadające dane.
6. Przeprowadź analizę podstawową i analizy dodatkowe: po przeprowadzeniu
podstawowej analizy postaraj się — jeżeli to konieczne — o dodatkowe dane.
Podstawowymi źródłami informacji dla analityków poszukujących danych wtórnych
są katalogi, przewodniki, spisy danych archiwalnych i danych posiadanych przez instytucje
wspomagające badaczy. Do użytecznych katalogów danych archiwalnych należą: Statistics
Sources (wyd. 17 — P. Wasserman (red.), 1994) oraz Research Centers Directory (wyd. 14 —
A.M. Palmer (red.), Detroit: Gale Research Co., 1989). Głównymi przewodnikami po
rządowych bazach danych są natomiast: A Frameworkfor Planning U.S. Federal Statistics i
The Directory ofCom-puterized Data Files and Related Software, oba tytuły opublikowane
przez U.S. Department of Commerce, a także Federal Information Sources and Systems: A
Directory for the Congress.
Zespół ICPSR przy uniwersytecie w Michigan i Ośrodek Ropera przy uniwersytecie w
Connecticut dysponują największymi archiwami danych wtórnych w Stanach Zjednoczonych.
ICPSR publikuje co roku Guide to Resources and Services („Przewodnik po źródłach i
usługach")- Do innych ważnych instytucji należą: Biuro Stosowanych Badań Społecznych
(Bureau of Applied Social Research) przy uniwersytecie Columbia, Laboratorium Nauk
Politycznych, Archiwum dla Nauk Społecznych (Laboratory for Political Research, Social
Science Data Archive) przy uniwersytecie w Iowa, Krajowy Ośrodek Badania Opinii
(National Opinion Research Center — NORC) przy uniwersytecie w Chicago oraz
Europejskie Stowarzyszenie Ośrodków Dystrybucji Informacji Naukowych (European
Association of Scientific Information Dissemination Centers)26.
Źródła, które wymieniliśmy, to jedynie maleńka cząstka z przeogromnej obfitości
dostępnych baz danych i opublikowanych źródeł informacji. Ciągle rosnąca ich liczba i jakość
wymaga, aby studenci i badacze byli w stałym kontakcie z ośrodkami zajmującymi się
dystrybucją informacji, a mieszczącymi się przy uniwersytetach, biurach rządowych czy
innych instytucjach.
26 Por. także ibidem, s. 65 oraz Catherine Hakim (1982), Secondary Analysis in
Social Research: A Guide to Data Sources and Methods with Examples, Boston: Allen &
Unwin.
332
¦ Pomiary nieinwazyjne
Pomiar nieinwazyjny, znany także pod nazwą pomiaru niereaktywne-go to każda
metoda zbierania danych, która wyłącza badacza z badanych interakcji, zdarzeń czy
zachowań. I tak na przykład studiowanie powszechnie dostępnych dokumentów archiwalnych
jest pomiarem nieinwazyjnym, ponieważ badacz nie ma żadnego wpływu na warunki, w
jakich zostały zebrane te dane. Pomiary nieinwazyjne pozwalają na uniknięcie kontaminacji
danych, która może się pojawić, gdy badacz i osoby badane spotykają się w czasie
gromadzenia danych. Kiedy pomiar jest nieinwazyjny, osoba badana „nie jest świadoma tego,
że jest poddawana pomiarowi, i istnieje niewielkie niebezpieczeństwo, że akt pomiaru jako
taki będzie wymuszał zmiany zachowania lub będzie się przyczyniać do grania roli,
zmieniając w ten sposób dane"27. Pomiary takie obejmują działania od analizowania
prywatnych i publicznych archiwów do prostej obserwacji ludzi podczas pracy czy zabawy,
od analizy ścieżek fizycznych do wymyślnej obserwacji. Na przykład ślady (i znaki) fizyczne
są wytyczane bez wiedzy osób je tworzących o przyszłym ich wykorzystaniu przez badaczy.
Eugene Webb i współautorzy wprowadzili rozróżnienie na dwie klasy znaków
fizycznych: pomiary erozji i pomiary przyrostu28. Pomiary erozji dotyczą znaków
zostawianych po użyciu jakiegoś obiektu. Na przykład stopień zużycia książek w bibliotece
może być wskaźnikiem ich popularności, a liczba kilometrów znajdujących się na licznikach
samochodów patrolowych może być wskaźnikiem aktywności jeżdżących nimi policjantów.
Badacz może zatem porównać złożony przez policjantów raport z liczbą przejechanych przez
nich kilometrów.
Pomiary przyrostu obejmują znaki zostawiane przez ludzi w trakcie ich działań. W
tym przypadku badacz analizuje pozostałości będące efektem jakiegoś ludzkiego zachowania.
Na przykład ilość kurzu na urządzeniach może być potraktowana przez badaczy jako
wskaźnik częstości korzystania z nich. Podobnie badacz może oszacować popularność
różnych stacji radiowych, zapisując, na której stacji ustawione były odtwarzacze
samochodowe, gdy samochód został oddany do serwisu.
Zarówno czas potrzebny do ich zebrania, jak i wątpliwa jakość danych sprawiają, że
analiza śladów jest problematyczna. A co jeszcze ważniejsze, w wielu przypadkach badacz
nie otrzymuje wystarczających informacji o populacji, którą poddano pomiarowi; informacji
pozwalających na dokonywanie trafnych generalizacji.
Obserwacja prosta
Obserwacja prosta to inny przykład pomiaru nieinwazyjnego. Stosowana jest w
sytuacji, „w której osoba obserwująca nie ma żadnej kontroli nad objętymi pomiarem
zachowaniami czy znakami i pełni funkcję biernego i nie ingerującego w sytuację badawczą
obserwatora29. Chociaż badacze dokonujący prostych obserwacji posługują się w każdym
względzie metodologią innych metod obserwacyjnych, to prosta obserwacja jest niezależną
metodą, ponieważ badacz nie interwe-
Eugene J. Webb i in. (1981), Nonreactive Measures in the Social Sciences, Boston:
Houghton Mifflin, s. 175.
28 Ibidem, s. 35-52.
29 Ibidem, s. 112.
333
niuje w procesie tworzenia danych (w odróżnieniu od metodologii obserwacji w
sytuacji eksperymentalnej, która została opisana w rozdziale 8). Możemy wyróżnić cztery
typy prostej obserwacji: obserwację zewnętrznego wyglądu ciała i obserwację znaków
fizycznych, analizę zachowań ekspresyjnych, analizę zajmowanych pozycji fizycznych oraz
obserwację zachowań językowych.
Obserwacja zewnętrznego wyglądu ciała i obserwacja znaków fizycznych. Ten
rodzaj prostej obserwacji polega na rejestrowaniu zewnętrznego wyglądu ciała i
elementów fizycznych traktowanych jako wskaźniki czy znaki wzorcowych zachowań lub
postaw. Przykładami takich znaków są: tatuaże, fryzury, ubranie, elementy zdobiące (np.
biżuteria). Na przykład zmiana wykorzystywanych znaków może zostać potraktowana jako
pomiar zmian społecznych, ponieważ może to być wskaźnik osiedlania się w sąsiedztwie grup
imigrantów.
Analiza zachowań ekspresyjnych. Drugim rodzajem prostej obserwacji jest
analizowanie ekspresji. Obserwacja koncentruje się na autoekspresji i interpretacji zachowań
ekspresyjnych jako wskaźników interakcji społecznych. Za pomocą języka ciała ludzie
komunikują wiele uczuć, a także norm społecznych. Obserwatorzy rejestrują, jak blisko
ludzie stoją obok siebie, jak często patrzą na siebie, jak często siebie dotykają.
Badacze rejestrujący mimikę twarzy i ruchy ciała stają wobec podstawowego
problemu: co oznaczają różne gesty. Na przykład uśmiech może być oznaką ulgi lub
szczęścia. Określenie znaczenia poszczególnych gestów zarówno dla osoby, która jest ich
źródłem, jak i dla osoby, która je odbiera, w ramach kontekstu, w jakim występują, należy do
badacza. Te same ruchy w różnych sytuacjach mogą bowiem oznaczać różne emocje.
Analiza zajmowanych pozycji fizycznych. Podstawowym celem analizy zajmowanych
pozycji fizycznych jest badanie sposobów, w jaki ludzie poruszają się w naturalnie
powstającej przestrzeni społecznej. Na przykład obserwatorzy polityki wewnętrznej Związku
Radzieckiego rejestrowali — przed upadkiem imperium rosyjskiego — kto stoi obok kogo na
trybunie honorowej w czasie pochodu w dniu Święta Pracy na placu Czerwonym. Innym
przykładem jest protokół —jego reguły w sposób istotny instytucjonalizują fizyczne oznaki
statusu. Dlatego badacz, analizując zmiany statusu społecznego czy politycznego, powinien
być wrażliwy na zróżnicowanie dystansu, w jakim stoją w stosunku do siebie liderzy życia
politycznego.
Obserwacja zachowań językowych. Czwarty rodzaj prostej obserwacji dotyczy
obserwowania prowadzonych rozmów i wzajemnych związków pomiędzy sposobami
mówienia po to, aby je przyporządkować do kategorii społecznych. Analiza taka łączy
badanie zajmowanych pozycji i zachowań ekspresyjnych. W swojej popularnej książce
Deborah Tannen wykorzystuje analizę zachowań językowych do badania, w jaki sposób
strukturalizowane i podtrzymywane są związki między ludźmi. Opierając się na dokładnym
obserwowaniu prowadzonych rozmów, stwierdziła ona, że mężczyźni są bardziej wrażliwi na
„przekaz", tj. bezpośrednie znaczenie tego, co jest mówione. Kobiety zaś są bardziej wrażliwe
na „metaprzekazy", tj. in-
334
formacje pośrednio zawarte w tym, co zostało powiedziane; informacje dotyczące
postaw wobec tego, co jest mówione, i postaw wobec ludzi, którzy mówią i słuchają30.
Problemy związane z prowadzeniem prostej obserwacji. Podstawową zaletą prostej
obserwacji jest to, że badacz nie jest odpowiedzialny za sposób strukturalizacji sytuacji, w
jakiej dokonywana jest obserwacja, i sam nie jest spostrzegany. Dzięki temu można
wyeliminować potencjalne źródła stronniczości (por. rozdział 5 i 9). Jednak z obserwacją
prostą również związane są określone problemy. Po pierwsze, zarejestrowane obserwacje
mogą nie reprezentować całej populacji, tym samym ograniczając zakres możliwych
generalizacji. Po drugie, zbyt aktywny czy zbyt angażujący się obserwator może być źródłem
stronniczości. Stronniczość ta może być rezultatem nieintencjonalnych i nie kontrolowanych
zmian w sposobie prowadzenia obserwacji. Po trzecie, nawet jeżeli obserwator pozostanie nie
zauważony, to sytuacje dostępne prostej obserwacji muszą być sytuacjami publicznymi, co
ogranicza zakres dostępnych obserwacji zachowań. Po czwarte, większość obserwacji
zebranych za pomocą metody prostej obserwacji nie prowadzi w sposób automatyczny do
bezdyskusyjnych wniosków: „Dane [...] nie pozwalają stwierdzić dlaczego, lecz jedynie
pozwalają określić powiązania"31. Ta wieloznaczność ogranicza możliwości stosowania
prostej obserwacji i trafność interpretacji jej wyników, i to nawet wtedy, kiedy obserwowane
sytuacje można łatwo zreplikować.
¦ Dokumenty archiwalne
Dokumenty archiwalne to kolejne źródło nieinwazyjnych danych. Dane te pochodzą z
różnych źródeł, na przykład danych aktuarialnych, dokumentów sądowych i wyborczych,
dokumentów rządowych, należących do mass mediów i dokumentów osobistych (takich jak
biografie, pamiętniki czy listy). Niektóre z tych dokumentów zostały opracowane w celu ich
szerokiego wykorzystania, inne przygotowano jedynie z myślą o badaniach naukowych.
Zatem badacze prowadzący badania w naukach społecznych mają do dyspozycji ogromną
liczbę gotowych do wykorzystania dokumentów archiwalnych, dostępnych zarówno
publicznie, jak i prywatnie.
Dokumenty oficjalne
Dokumenty oficjalne można podzielić na cztery kategorie. Do pierwszej grupy należą
dane aktuarialne, które zawierają dane o cechach demograficznych populacji, takie jak
statystyki urodzin i śmierci czy statystyki dotyczące ślubów i rozwodów. Do grupy drugiej
należą rejestry sądowe i inne dokumenty oficjalne, na przykład wyroki sądowe, działania
legislacyjne, głosy oddane podczas głosowania, decyzje dotyczące budżetu itp. Do grupy
trzeciej należą dokumenty rządowe i quasi-rządo-we takie, jak statystyki dotyczące
przestępczości, dane dotyczące programów pomocy społecznej, dokumenty szpitalne i raporty
meteorologiczne. Grupa czwarta to artykuły czy informacje o aktualnych wydarzeniach
zamieszczane w gazetach i in-
"' Deborah Tannen (1999), Ty nic nie rozumiesz! Kobieta i mężczyzna w rozmowie,
ttum. Agnieszka Sylwanowicz, Poznań: Zysk i S-ka Wydawnictwo. " Webb i in., Nonreactive
Measures, s. 127.
335
ne informacje przekazywane przez mass media. Wszystkie te dokumenty były
wykorzystywane jako źródło danych w licznych badaniach naukowych.
Dane aktuarialne. Większość społeczeństw gromadzi dane dotyczące urodzin, śmierci,
ślubów i rozwodów. W naukach społecznych korzysta się z takich danych zarówno w celach
opisowych, jak i przy wyjaśnianiu. Russell Middleton, na przykład, badał poziom płodności,
analizując dwa zbiory danych: dane dotyczące płodności przedstawiane w opowiadaniach
publikowanych w czasopismach oraz rzeczywiste dane dotyczące płodności w latach 1916,
1936 i 1956. Middleton pierwszy oszacował wskaźnik płodności, opisując wielkość
fikcyjnych rodzin, których losy śledził w ośmiu amerykańskich czasopismach. Kiedy
porównał te wartości z danymi populacyjnymi dla tych samych lat, okazało się, że dane
fikcyjne wykazują taką samą zmianę w wielkości rodziny, jaką wykazała analiza
rzeczywistych danych dotyczących populacji Stanów Zjednoczonych32.
Lloyd Warner w swoich badaniach dotyczących śmierci i związanych z nią ceremonii
w dużych miastach amerykańskich wykorzystał liczne oficjalne dokumenty. Aby ustalić
społeczną historię śmierci, analizował oficjalne dokumenty pogrzebowe. Ustalił, że struktura
społeczna miasta jest odzwierciedlana na cmentarzach. Na przykład ojcowie byli najczęściej
chowani w centrum rodzinnego grobu, a nagrobki mężczyzn były większe niż nagrobki
kobiet. Co więcej rodziny, które podniosły swój status społeczny, przeniosły groby swoich
najbliższych z cmentarza o mniejszym prestiżu na cmentarz o większym prestiżu33.
Rejestry sądowe i inne dokumenty oficjalne. Politolodzy często wykorzystują
statystyki dotyczące głosowania, aby badać zachowania wyborcze. Zbiory takie jak A Review
ofthe Elections ofthe World wydawane co dwa lata przez Institute of Electoral Research w
Londynie i kolejne tomy America at the Polis: A Handbook of American Presi-dential
Election Statistics, 1920-1965 pod redakcją Richarda M. Scammona (Salem, N.H.: Ayer,
1976), a także Kennedy to Clinton, 1960-1992, autorstwa Alice V. McGillivray i Richarda M.
Scammona (Washington, D.C.: Congressional Quarterly Inc., 1994) dostarczają bardzo
użytecznych danych na temat głosowania. The Congressional Quarterly Almanac dostarcza
informacji na temat Kongresu Stanów Zjednoczonych, łącznie z danymi dotyczącymi
wykształcenia członków Kongresu, a także informacje na temat podstawowych aktów
ustawodawczych czy obecności na posiedzeniach. Z kolei w książce World Handbook of
Political and Social Indicators (New Haven, Conn.: Yale University Press, 1983) Charles L.
Taylor i David Jodice przedstawili ponadnarodowe dane dla 148 polityków, takie jak:
poparcie elektoratu, liczbę rozruchów, jaką zanotowano w ciągu roku, liczbę nie planowanych
zmian w rządzie i nierównomiemości podziału dochodów. Natomiast Harold W. Stanley i
Richard G. Niemi w pracy Vital Statistics on American Politics (wyd. 3, Washington, D.C.:
Congressional Quarterly Inc., 1991) przedstawiają dane w postaci szeregów czasowych na
temat instytucji politycznych, opinii publicznej i polityki rządu.
32 Russell Middleton (1960), Fertility Values in American^Magazine Fiction, 1916-
1956, „Public Opinion Quarterly", 24, s. 139-143. /^
33 Lloyd W. Warner (1965), The Living and the Dead: A Study ofthe Symbolic Life
of Americans, New Haven: Conn.: Yale University Press.
336
Publikacja The Congressional Record zawiera informacje, które można wykorzystać
do badania zachowań nie tylko członków Kongresu, ale również osób spoza Kongresu. Na
przykład powszechną praktyką wśród członków Kongresu jest publikowanie w The
Congressional Record wystąpień odzwierciedlających ich poglądy. Eugene Webb w jednym z
pierwszych badań felietonistów politycznych wykorzystał zawarte tam dane do analizowania
konserwatyzmu i liberalizmu wśród felietonistów w Waszyngtonie. Webb określił pozycję
każdego członka Kongresu na wymiarze konserwatyzm-liberalizm, kierując się wynikami ich
głosowań, jakie zostały opublikowane przez dwie opozycyjne grupy: Conservative Americans
for Constitutional Actions oraz Liberał Committee on Political Action, należący do związków
zawodowych AFL-CIO. Następnie porangował felietonistów ze względu na średni wynik,
jaki uzyskali członkowie Kongresu, którzy opublikowali swoje artykuły w The Record^.
Dokumenty rządowe. Podobnie jak analiza urodzeń i śmierci może dostarczać
interesujących danych, również analiza dokumentów rządowych i quasi-rządowych może być
sposobem zbierania danych. I tak na przykład Lombroso interesował się, jakie czynniki (obok
czynników ekonomicznych i osobowych) wpływają na twórczość naukową. Wykorzystał on
dokumenty rządowe do zbadania wpływu pogody i pory roku na twórczość naukową. Po
stworzeniu próby składającej się z 52 odkryć naukowych w dziedzinie medycyny, chemii i
matematyki określił porę roku, w której zostały one dokonane. Okazało się, że 22 ważnych
wynalazków dokonano wiosną, 15 jesienią, 10 latem i 5 zimą35.
Budżety miast stanowią bogate źródło danych dla wielu badań z dziedziny nauk
społecznych. Robert Angell wykorzystał takie dane w swoich unikatowych badaniach
poświęconych integracji moralnej w amerykańskich miastach. Skonstruował on „wskaźnik
pomocy społecznej", obliczając wydatki per capita na pomoc społeczną. Miarę tę połączył ze
„wskaźnikiem przestępczości" opartym na danych FBI, tworząc globalny „wskaźnik
integracji"36. Dane na temat budżetu zostały wykorzystane jako wskaźniki aktywności w
zakresie polityki społecznej. Wydatki budżetu to dane na temat „kto otrzymuje co" z funduszy
publicznych, wpływy zaś pokazują, „kto za to płaci". Co ważniejsze, mechanizm budżetu
może zostać wykorzystany do oceny programów rządowych, ich kosztów, powiązania ze
źródłami finansowymi, wybierania pomiędzy alternatywnymi wydatkami i określania
finansowego wysiłku, jaki włożył rząd w rozwój tych programów. W klasycznym dziś
badaniu Otto Da-vis, M.A.H. Dempster i Aaron Wildavsky badali w kolejnych okresach
budżet federalny i wskazali na dwie zmienne, które mogą wyjaśniać corocznie większy
podział budżetu:
1. Coroczne zapotrzebowanie na pieniądze z budżetu wynika ze stałego procentu
przyznawanego przez Kongres w minionych latach oraz komponentu losowego w danym
roku;
34 Eugene J. Webb (1963), How to Tell a Columnist, „Columbia Journalism Review",
2, s. 20.
35 Webb i in., Nonreactive Measures, s. 72.
36 Robert C. Angell (1951), The Morał Integration of American Cities, „American
Journal of So-ciobiology", 57, s. 1-140.
337
2. Na przyznane w określonym roku przez Kongres pieniądze składają się: stały
procent złożonego zapotrzebowania w danym roku oraz składowa odzwierciedlająca różnicę
pomiędzy Kongresem a instytucją składającą zapotrzebowanie, jaka wystąpiła w poprzednim
roku37.
Mass media. Mass media tworzą najłatwiej dostępny zbiór danych. Mass media
rejestrują werbalne zachowania ludzi, a badacze analizują te zachowania i testują twierdzenia
ogólne. Metoda analizy treści, którą skrótowo przedstawiamy niżej, pozwala badaczom na
szerokie stosowanie mass mediów jako podstawowego źródła danych. Badania
wykorzystujące dane z mass mediów mogą być bardzo różnorodne38. Przedstawimy tu tylko
jeden przykład. Giną Daddario analizowała opisy i komentarze sprawozdawców sportowych
wygłaszane podczas komentowania dyscyplin kobiecych na olimpiadzie zimowej w 1992
roku. Otrzymane przez nią wyniki wskazują, że styl komentarzy oraz język ukazują
atletycznie zbudowaną kobietę raczej jako postać odpowiadającą wizerunkowi idealnej
kobiety niż osobę, która uprawia sport, i to niezależnie od pokazujących się na ekranie
zdarzeń czy działań wymagających siły fizycznej i zaprzeczających stereotypowemu
obrazowi kobiecości. Na koniec stwierdziła ona, że nieadekwatne odwoływanie się do
kobiecości w kometarzach sportowych wpływa na marginalizację sportów kobiecych39.
Dokumenty osobiste
Do dokumentów osobistych jest znacznie trudniej dotrzeć niż do dokumentów
oficjalnych. Mimo to mogą one stanowić wartościowe źródło danych dla tych wszystkich
badaczy, których interesuje indywidualny punkt widzenia na określone sytuacje czy
wydarzenia. Do dokumentów osobistych zaliczamy autobiografie, pamiętniki, opowiadania,
listy itp. Autobiografie to najczęściej spotykane dokumenty osobiste. Można w nich znaleźć
własną interpretację doświadczeń autora. Pamiętniki (dzienniki) mają charakter bardziej
spontaniczny, gdyż zazwyczaj autor czuje się mniej związany pewnego rodzaju misją, która
często wyznacza sposób pisania autobiografii. Zarówno autobiografie, jak i pamiętniki są
pierwotnie przeznaczane dla jednej osoby — autora. Z kolei listy są własnością dwóch stron
— autora i odbiorcy — i często są wyrazem związków zachodzących między nimi40. Te trzy
rodzaje dokumentów osobistych koncentrują się na osobistych doświadczeniach autorów i są
wyrazem ich osobistych refleksji. Najczęściej powstają z własnej inicjatywy autora. Jednym z
podstawowych problemów związanych z korzystaniem z dokumentów osobistych jest pytanie
dotyczące ich autentyczności. Zazwyczaj spotyka się dwa rodzaje nieautentycznych
dokumentów: dokumenty, które stworzono w celu świadomego oszustwa, oraz dokumenty,
które nieświadomie źle zinterpretowano. Dokumenty najczęściej fałszuje się z chęci zdobycia
prestiżu lub nagrody material-
37 Otto A. Davis, M.A.H. Dempster, Aaron Wildavsky (1966), A Theory of
Budgetary Process, „American Political Science Review", 60, s. 529-547.
38 Liczne badania z wykorzystaniem danych pochodzących z mass mediów można
znaleźć w pracy Webb i in., Nonreactive Measures.
39 Giną Daddario (1994), Chilly Sciences ofthe 1992 Winter Games: The Mass
Media and the Mar-ginalization of Female Athletes, „Sociology of Sport Journal", 11, s. 275-
288.
40 Norman K. Denzin (1989), The Research Act: A Theoretical Introduction to
Sociological Me-thods, wyd. 3, Englewood Cliffs, N.J.: Prentice Hall, rozdział 8.
338
nej. Osoby dobrze znające życie danej osoby mają większą szansę na sprzedanie
domniemanej biografii jakiemuś wydawnictwu. Taki los spotkał jedno ze znanych
wydawnictw, które w 1972 roku kupiło fałszywą biografię ekscentrycznego milionera
Howarda Hughesa.
Aby ustrzec się przed zakupem fałszywych dokumentów, można zastosować jedną z
następujących procedur. Po pierwsze, należy dokładnie zbadać autorstwo dokumentu. Po
drugie, należy ustalić datę pochodzenia dokumentu i zweryfikować inne daty, o których jest
mowa w tym dokumencie. Na przykład, jeżeli autor dokumentu opisuje konkretne
wydarzenie, powiedzmy powódź, to można sprawdzić autentyczność tego wydarzenia,
odwołując się do innych źródeł, chociażby do informacji, jakie w tym czasie znalazły się w
prasie. Jeżeli autor opisuje wydarzenie, które nie wystąpiło w czasie, w którym dokument
prawdopodobnie został napisany, to mamy podstawy wątpić w jego autentyczność.
Drugi rodzaj braku autentyczności jest znacznie trudniejszy do wykrycia. Chociaż
dokumenty nie muszą być fałszywe, mogą nie przedstawiać prawdy z następujących
powodów: autorzy listów, pamiętników czy autobiografii mogą nie pamiętać dokładnie
faktów, mogą się starać zadowolić lub rozbawić swoich czytelników, wyolbrzymiając to, co
opisują, lub też mogą się czuć zobowiązani do bycia w zgodzie z obowiązującymi
społecznymi normami i tym samym przedstawiać nieco zniekształcony obraz rzeczywistości.
Stuart Chapin twierdzi, że każdy badacz, zanim uzna jakiś dokument za autentyczny,
powinien najpierw odpowiedzieć na następujące pytania41:
1. Co autor rozumie przez konkretną wypowiedź? Czy faktyczny sens tej wypowiedzi
jest inny od sensu literackiego?
2. Czy wypowiedź została sformułowana w dobrej wierze? Czy autorem kierowało
uczucie sympatii czy antypatii? Może próżność? A może opinia publiczna?
3. Czy wypowiedź jest precyzyjna? Czy może autor był złym obserwatorem,
ponieważ nie był całkowicie sprawny umysłowo lub cierpiał na jakąś chorobę psychiczną?
Czy mógł się znaleźć w określonym czasie i miejscu, aby zaobserwować to, co opisuje? Czy
był nonszalancki? Czy był obojętny?
Kiedy badacz odpowie na te pytania, zdobędzie wskazówki pozwalające mu lepiej
ocenić zebrane dokumenty i wybrać tylko te, do których można mieć zaufanie.
Autobiografie. Unikatowość autobiografii polega na tym, że opisują one życie i
doświadczenia danej osoby, w postaci nieskażonej interpretacjami opisywanych wydarzeń
dokonywanymi przez inne osoby. Dzięki temu badacz może poznać cudze życie w jego
naturalnym przebiegu, poprzez bezpośredni opis wolny od zniekształcających wpływów.
Gordon Allport wprowadził rozróżnienie na trzy typy autobiografii, z których każdy
może być wykorzystywany do realizacji innych celów badawczych42. Pierwszy to
autobiografia pełna obejmująca całe życie danej osoby, począwszy od
41 Stuart F. Chapin (1979), Field Work and Social Research, New York: Ayer, s. 37
(wyd. 1 — 1920).
42 Gordon W. Allport (1941), The Use of Personal Documents in Psychological
Research, New York: Social Science Research Council.
339
najwcześniejszych wspomnień, i obejmująca większość jej przeżyć. Przykładem
pełnej autobiografii jest spisana przez Hellen Keller historia jej życia jako osoby niewidomej i
głuchoniemej. Drugim rodzajem autobiografii jest autobiografia tematyczna, w której autor
koncentruje się na jakimś aspekcie swojego życia. Edwin Sutherland, na przykład, analizował
tylko jeden aspekt życia profesjonalnego złodzieja:
Zasadniczą część tej książki stanowi opis złodziejskiego fachu dokonany przez osobę,
która przez ponad dwadzieścia lat uprawiała tę profesję. Opis ten uzyskano w następujący
sposób: najpierw złodziej napisał około dwóch trzecich objętości, realizując tematy i
odpowiadając na pytania, które zostały przeze mnie przygotowane; następnie spędziliśmy
około dwunastu tygodni, dyskutując przez siedem godzin tygodniowo o tym, co napisał. Po
każdej takiej konferencji zapisywałem dosłownie wszystko, co on powiedział w trakcie naszej
rozmowy43.
Trzecim rodzajem autobiografii jest autobiografia redagowana, będąca książkową
wersją czyichś wspomnień. Badacz wybiera z niej opis tylko takich doświadczeń, które mają
związek z jego problemem badawczym. Redagując materiał zebrany w autobiografii, badacz
klasyfikuje i strukturalizuje to, co zostało napisane, aby materiał dobrze ilustrował przyjęte
hipotezy badawcze.
Pamiętniki. Pamiętnik to najbardziej bezpośrednia relacja z życia jego autora. Pisane
w czasie, kiedy określone wydarzenia się działy, przekazują informacje o tym, co się
wydarzyło, bez zniekształceń spowodowanych pamięcią. Ludzie piszący dzienniki nie
obawiają się zazwyczaj reakcji opinii publicznej, dlatego piszą o wszystkim, co się zdarzyło i
co ich zdaniem ma znaczenie.
Pamiętniki (dzienniki) również można podzielić na trzy grupy. Do pierwszej należą
tzw. pamiętniki osobiste. Są to regularne zapiski subiektywnych odczuć i wrażeń,
prowadzone przez dłuższy czas. Drugi rodzaj, wspomnienia, są raczej mniej osobiste i pisane
są w stosunkowo krótkim czasie. Mają one charakter sprawozdania z indywidualnych
przeżyć. I wreszcie trzeci rodzaj, terminarze, również mają charakter mało osobisty i
zawierają zapis wydarzeń, spotkań, wizyt i innych sytuacji, które nastąpiły w określonym
czasie. Terminarz nie zawiera zazwyczaj subiektywnej oceny sytuacji, w jakiej odbyło się
wydarzenie.
Niektórzy badacze w naukach społecznych uważają pamiętniki osobiste za użyteczne
źródło danych, ponieważ zawierają one opis autentycznych wrażeń, i to zapisywanych w
dłuższym okresie. Na przykład w biografii poety Dylana Thomasa znalazł się fragment jego
pamiętników zawierający notatki na temat tworzonych utworów, uwagi na temat jego pozycji
finansowej oraz komentarze dotyczące jego stosunków ze światem artystycznym44.
Pamiętnik osobisty zawiera nie tylko chronologiczny opis wrażeń danej osoby zapisywanych
przez dłuższy czas, ale również pozwala na porównywanie różnych okresów z życia jego
autora i wychwytywanie ciągłości i zmian.
Edwin H. Sutherland (1988), The Profesional Thief, Chicago: University of Chicago
Press, s. v. Bill Read (1964), The Days ofDylan Thomas, New York: MacGraw-Hill.
340
Listy. Historycy i krytycy literaccy, odtwarzając życie jakiejś postaci historycznej czy
literackiej, w dużej mierze korzystają z listów. Jedną z najwcześniejszych prób wykorzystania
listów jako źródła danych w badaniach naukowych była praca Williama Thomasa i Floriana
Znanieckiego nad polskimi chłopami, którzy wyemigrowali do Stanów Zjednoczonych.
Autorzy zebrali listy przesyłane pomiędzy Polską aStanami Zjednoczonymi w latach 1901-
1914 i potraktowali je jako źródło danych w badaniu problemu emigracji społeczności
etnicznej. Listy te pozwoliły na zbadanie, między innymi, osobowości ich autorów oraz
rodzaju związków, jakie były utrzymywane pomiędzy nimi a osobami, które zostały w starym
kraju45.
Miary nieinwazyjne wykorzystywane w analizie danych wtórnych
¦ Wskaźniki fizyczne. Znaki zużycia obiektu (miary erozji) lub rzeczy (materiały)
pozostawione przez populację (miary przyrostu).
¦ Obserwacja prosta. Obserwacja prowadzona bez ingerowania w sytuacje
obserwowanych osób. Do obserwacji prostej zalicza się obserwację wyglądu zewnętrznego
ciała i znaków fizycznych, zachowań ekspresyjnych, zajmowanych pozycji fizycznych i
obserwację zachowań językowych.
¦ Dokumenty archiwalne. Dane zebrane z takich źródeł jak dane aktuarial-ne, rejestry
sądowe i dokumenty polityczne, dokumenty rządowe, medialne i dokumenty osobiste.
¦ Analiza treści
Dane otrzymane ze źródeł archiwalnych, dokumentów i z mass mediów są często
analizowane w sposób systematyczny przez badaczy. Listy, dzienniki, artykuły z gazet, zapisy
spotkań i reportaże na żywo (jak w przypadku zimowej olimpiady z 1992 roku, o czym
wspominaliśmy wyżej), filmy oraz widowiska radiowe i telewizyjne to źródła danych
wykorzystywanych w analizie treści — metodzie analizowania danych, ale też metodzie ich
zbierania. Zamiast bezpośredniego obserwowania zachowań ludzi lub zadawania im pytań
dotyczących tych zachowań można wykorzystać kopie tego, co ludzie wytworzyli, i zadać
pytania dotyczące tych zapisów. Podstawą wnioskowania jest treść przekazu. I tak na
przykład John Naisbitt w swojej pracy Megatrendy analizował bieżące prądy w zakresie
ekonomii, działań społecznych i polityki po to, aby na tej podstawie przewidywać przyszłe
trendy i kierunki46. W swoim badaniu zastosował analizę treści do ponad 2 milionów
artykułów o lokalnych wydarzeniach, opublikowanych w lokalnych gazetach w ca-
45 William I. Thomas, Florian Znaniecki (1976), Chłop polski w Europie i Ameryce,
t. 1-5, tłum. Anna Bartkowicz, Maryla Metelska, Endla Oengo-Knoche, Irena Wyrzykowska,
Warszawa: Ludowa Spółdzielnia Wydawnicza.
46 John Naisbitt (1997), Megatrendy. Dziesięć nowych kierunków zmieniających
nasze życie, tłum. Paweł Kwiatkowski, Poznań: Zysk i S-ka Wydawnictwo.
341
łym kraju w okresie dwunastu lat. Naisbitt stwierdził, między innymi, że pięć stanów
(Kalifornia, Floryda, Waszyngton, Kolorado i Connecticut) to stany, w których zaszło
najwięcej zmian o charakterze społecznym.
Analiza treści — definiowana swobodnie — to „każda technika wyprowadzania
wniosków na podstawie systematycznie i obiektywnie określanych cech przekazu"47.
Obiektywność tej metody wynika z przestrzegania przez wszystkich badaczy tych samych,
jasno określonych reguł gwarantujących, że różni badacze uzyskają takie same rezultaty z
analizowania takich samych przekazów czy dokumentów. Zatem w systematycznej analizie
treści „włączanie i wyłączanie treści odbywa się zgodnie z określonymi kryteriami selekcji.
Wymóg ten eleminuje takie analizy, w których uwzględnia się jedynie te materiały, które
potwierdzają hipotezę badacza"48.
Zastosowania analizy treści
Chociaż najczęściej przeprowadza się analizę treści na przekazach słownych, to można
ją wykorzystywać w sytuacjach, kiedy szuka się odpowiedzi na pytania dotyczące innych
aspektów komunikacji. Harold Lasswell tak określił podstawowe pytania stawiane przez
badaczy: „Kto, co mówi, do kogo i z jakim skutkiem?" Badacz może więc analizować
przekaz, aby sprawdzić hipotezę dotyczącą cech tekstu — tego, co zainspirowało komunikat
— oraz skutków komunikacji. Te trzy wymiary różnią się ze względu na rodzaj
analizowanych danych, uwzględnionych wymiarów komunikacji oraz zastosowanych planów
badawczych.
Analiza treści jest stosowana najczęściej wtedy, gdy trzeba opisać cechy przekazu. Na
przykład wczesne badania dotyczące zmian rewolucyjnych i tworzenia się relacji
interpersonalnych polegały na badaniu symboli politycznych. W badaniach tych plany
badawcze były dobierane tak, aby można było sprawdzić hipotezę o „światowej rewolucji" za
pomocą określania sposobów posługiwania się symbolami wyrażającymi podstawowe cele i
wartości współczesnej polityki. W jednym z badań poddano analizie artykuły wstępne
opublikowane w najbardziej prestiżowych gazetach wydawanych w Stanach Zjednoczonych,
w Anglii, Francji, Niemczech i w Związku Radzieckim, w okresie od 1890 do 1949 roku.
Artykuły, które się ukazały pierwszego i piętnastnego każdego miesiąca, zostały zakodowane
ze względu na obecność w nich 416 podstawowych symboli. Symbole te obejmowały 206
terminów geograficznych, takich jak nazwy państw i organizacji międzynarodowych i 210
terminów ideologicznych, takich jak równość, demokracja i komunizm. Kiedy pojawiał się
dany symbol, osoby kodujące punktowały go jako obecny i zaliczały związane z nim postawy
do jednej z trzech kategorii: aprobaty, dezaprobaty i stanowiska neutralnego. Aby prześledzić,
co się znajdowało w centrum zainteresowania i jakie wokół tego tworzyły się postawy,
autorzy badań przeanalizowali dane pochodzące z 19 553 artykułów wstępnych50.
Analiza treści to technika, którą można stosować również do analizowania in-
47 Ole R. Holsti (1968), Content Analysis, w: Gardney Lindzey, Elliot Aronson
(red.), The Hand-book of Social Psychology, Reading Mass.: Addison-Wesley, s. 601.
Przedstawione niżej opracowanie oparte jest właśnie na tej pracy.
48 Ibidem, s. 598.
49 Harold D. Lasswell (1965), Detection: Propaganda Detection and the Courts, w:
Harold D. Lasswell i in. (red.), The Language ofPolitics: Studies in Quantitative Semantics,
Cambridge, Mass.: MIT Press, s. 12.
50 Ithiel de Sola Pool (1981), Symbols of Democracy, Westport, Conn.: Greenwood
Press (wyd. 1 — 1952).
342
nych danych niż dane werbalne. Philip White i James Gillett przeanalizowali 916
reklam opublikowanych w popularnym magazynie poświęconym kulturystyce, a
zatytułowanym „Flex". Celem badania było określenie podstawowych tematów komunikacji.
Wyróżniono następujące tematy: ukazywanie czytelnika jako osobę gorszą (43% treści),
obietnice przemiany (64,5% treści) i przedstawianie muskularnego ciała jako dominującego
obrazu męskości (70,6%). Następnie, aby wyjaśnić otrzymane wyniki, badacze odwołali się
do modeli kulturowych i ideologicznych. Stwierdzili, że takie reklamy zastępują
rzeczywistość emocjami i że dla czytelników tego magazynu męska muskulatura jest
symbolem wyższości mężczyzn i formą kompensacji ograniczonych przywilejów w innych
obszarach. Ten proces z kolei podtrzymuje ideologię męskości, w której cechy biologiczne są
podstawą różnic w społeczno-kulturowym i ekonomicznym znaczeniu płci51.
Drugim obszarem zastosowań analizy treści — kto, co mówi, dlaczego i do kogo —
jest analiza tekstu pod kątem wyprowadzania wniosków o nadawcy komunikatu, jego
poprzednikach i przyczynach sformułowania tego komunikatu. Bardzo dobrze znanym
przykładem określania tożsamości nadawcy jest praca Frederica Mostellera i Davida
Wallace'a nad autorstwem numerów 49-58, 62 i 63 „Federalist Papers". Mosteller i Wallace
rozpoczęli od analizy następujących zbiorów dokumentów: tych, o których wiadomo było, że
zostały napisane przez Madisona, napisanych przez Madisona lub Hamiltona oraz napisanych
przez obu. Po przeanalizowaniu potwierdzonego zbioru dokumentów badaczom udało się
wyodrębnić słowa, którymi niezależnie posługiwali się obaj autorzy. I tak na przykład
Hamilton — w odróżnieniu od Madisona — miał tendencję do posługiwania się słowem
„dosyć". Mosteller i Wallace wykorzystali następnie owe różnicujące słowa kluczowe — w
połączeniu z innymi terminami — do określenia autorstwa spornych dokumentów. Otrzymane
rezultaty wyraźnie potwierdziły tezę, że ich autorem był Madison52. Ustalenia te pomogły
rozwiązać pytania natury historycznej dotyczące intelektualnego wkładu do Konstytucji.
Analiza treści była również wykorzystywana do wyprowadzania wniosków o
elementach kultury i zmianach kulturowych. David McClelland sprawdzał swoją teorię
„potrzeby osiągnięć", analizując treść dzieł literackich, które ukazały się w różnych krajach.
Według McClellanda osoba z wysoką potrzebą osiągnięć to osoba pragnąca sukcesu,
niekonformistyczna, lubiąca zadania zawierające element ryzyka. Wynikiem świadczącym o
potrzebie osiągnięć będzie zatem „suma obrazów czy idei osiągnięć", jaką można znaleźć w
dziełach literackich należących do określonej kultury. McClelland sformułował następującą
hipotezę: „Społeczeństwo, do którego należy stosunkowo duży procent osób z wysokim
wynikiem w zakresie potrzeby osiągnięć, będzie posiadało silną klasę przedsiębiorców,
aktywnych zwłaszcza w dziedzinie biznesu, dzięki czemu będzie ono coraz silniejsze i
bardziej wpływowe". Aby sprawdzić tę hipotezę, dokonał punktacji wybranych dzieł
literackich pochodzących z różnych okresów cywilizacji greckiej53.
51 Philip G. White, James Gillett (1994), Reading the Muscular Body, A Critical
Decoding of Ad-vertisements in Flex Magazine, „Sociology of Sport Journal", 11, s. 18-39.
52 Frederic Mosteller, David L. Wallace (1964), Inference and Disputed Authorship:
The Federalist, Reading, Mass.: Addison-Wesley.
51 David C. McClelland (1966), The Use of Measures of Humań Motivation in the
Study ofSociety, w: John W. Atkinson (red.), Motives in Fantasy, Action and Society, New
York: Van Nostrand, s. 518.
343
Trzecim podstawowym zastosowaniem analizy treści jest wyprowadzanie wniosków
na temat skutków, jakie dany przekaz wywiera na jego odbiorę. Badacz określa skutki
przekazu A na B, analizując treść przekazu ze strony B. Można też badać efekty komunikacji,
analizując inne elementy zachowania odbiorcy. Podsumowując, analiza treści pomaga
określić istotne zmienne niezależne dotyczące zachowania odbiorcy w procesie
komunikowania się.
Trzy zastosowania analizy treści
¦ Opis cech przekazu.
¦ Wyprowadzanie wniosków o nadawcy przekazu, jego poprzednikach
lub
przyczynach sformułowania przekazu.
¦ Wyprowadzanie wniosków o skutkach, jakie dany przekaz wywiera
na
jego odbiorców.
Jednostki i kategorie
Analiza treści to interakcja dwóch procesów: określania cech treści, które badacz chce
mierzyć, i wykorzystania reguł, które badacz musi zastosować, aby ustalić i zapisać cechy
analizowanego tekstu. Kategorie wykorzystywane do kodowania treści różnią się ze względu
na rodzaj danych i stawiane cele badawcze. Zanim omówimy ogólne procedury
konstruowania takich kategorii, przedstawimy pojęcie jednostki analizy wykorzystywanej w
badaniach i wprowadzimy rozróżnienie pomiędzy jednostką analizy a jednostką kontekstu.
Jednostka analizy jest to najmniejszy element treści, który występuje w przekazie. Jednostką
kontekstu natomiast jest większy fragment treści, który można analizować w trakcie
charakteryzowania jednostek analizy. Jednostkami analizy mogą być pojedyncze terminy.
Aby jednak można było określić, czy terminy te mają zabarwienie pozytywne, badacz musi
przeanalizować całe zdanie (jednostkę kontekstu), w którym znajduje się to słowo. Zatem
analizując dany termin (i go kodując), badacz bierze pod uwagę całe zdanie.
Można wyróżnić pięć podstawowych kategorii jednostek analizy: słowa czy terminy,
tematy, postacie, akapity i pozycje. Słowo to najmniejsza jednostka, najczęściej też
wykorzystywana w badaniach. Kiedy jednostką analizy jest słowo, sporządza się listę
częstości pojawiania się określonych słów lub terminów. Dla wielu celów badawczych
użyteczną jednostką analizy jest temat, zwłaszcza w badaniach nad propagandą, w badaniach
postaw, wyobrażeń czy wartości. W najprostszej postaci temat jest prostym zdaniem, tj.
zdaniem zawierającym podmiot i orzeczenie. Ponieważ w większości tekstów tematy można
określić w członach zdań lub akapitach, badacz musi więc określić, co ma brać pod uwagę
osoba kodująca wykorzystująca temat jako jednostkę analizy. Na przykład osoba kodująca
może zapisywać jedynie pierwszy temat pojawiający się w danym akapicie lub też każdy
temat pojawiający się w tekście.
W niektórych badaniach jednostką analizy są postacie. Wówczas badacz ustala liczbę
osób pojawiających się w tekście, a nie liczbę słów czy tematów. Taki wybór pozwala na
analizowanie cech osobowości postaci przedstawianych w różnych tekstach.
344
Akapit jest rzadko stosowaną jednostką analizy ze względu na jego złożoność. Osoby
kodujące mają zazwyczaj trudności w klasyfikowaniu i kodowaniu licznych i zróżnicowanych
elementów znajdujących się w pojedynczym paragrafie.
Pozycją jest z kolei cala, wykorzystywana przez badacza praca. Pozycją może być cała
książka, artykuł, przemówienie itp. Analiza całych pozycji jest szczególnie przydatna, gdy
zróżnicowanie w ramach poszczególnych pozycji jest niewielkie i nieistotne. Arykuły
gazetowe mogą na przykład zostać podzielone według ich tematyki na artykuły kryminalne,
dotyczące rynku pracy czy sportu.
Na koniec jednostki analizy zostają poklasyfikowane na kategorie. Konstruowanie
kategorii, jak wskazuje Bernard Berelson, jest najważniejszym etapem analizy treści:
To, czy analiza treści kończy się powodzeniem czy niepowodzeniem, zależy od
zastosowanych kategorii. Prowadzone badania okazały się owocne w takim zakresie, w jakim
wykorzystane kategorie były jasno sformułowane i dobrze przystawały do badanego
problemu i analizowanej treści. Badania z wykorzystaniem analizy treści, oparte na doraźnie
formułowanych podstawach, bez jasno określonego problemu badawczego i z niejasno
sformułowanymi kategoriami prawie na pewno okażą się nieistotne z punktu widzenia ich
wkładu do nauki [...] Ponieważ kategorie są istotą badań, analiza treści nie może być lepsza
od systemu stosowanych przez siebie kategorii54.
W analizie treści najczęściej stosuje się następujące kategorie55: Kategorie typu „co
zostało powiedziane"
Przedmiot: Czego dotyczy komunikat?
Kierunek: W jaki sposób przedmiot został przedstawiony (pozytywnie czy
negatywnie)?
Podstawy: Na jakich podstawach dokonano klasyfikacji?
Wartości: Jakie wartości, cele czy pragnienia zostały ujawnione?
Metody: Za pomocą jakich metod można osiągnąć cele?
Cechy: Za pomocą jakich cech opisuje się ludzi?
Aktor: Kto podejmuje określone działania?
Autorytet: W czyim imieniu formułowane są określone wypowiedzi?
Początek: Gdzie rozpoczął się komunikat?
Mieisce: Gdzie przebiegają określone działania?
Konflikt: Jakie są źródła i poziomy konfliktu?
Zakończenie: Czy konflikty kończą się szczęśliwie, bez rozwiązania czy tragicznie?
Czas: Kiedy określone działanie nastąpiło?
Kategorie typu „jak to zostało powiedziane"
Formy lub rodzaje komunikacji: W jaki sposób przekazano komunikat (radio, gazeta,
rozmowa, telewizja itp.)?
Forma wypowiedzi: Jaka jest gramatyczna czy syntaktyczna forma wypowiedzi?
Środki: Jakie wykorzystano środki retoryczne lub perswazyjne?
54 Bernard Berelson (1971), Content Analysis in Communication Research, New
York: Hafner, s. 147.
55 Holsti, Content Analysis.
345
Kategorie muszą być powiązane z celem badania, muszą być wyczerpujące i
wzajemnie rozłączne. Dzięki temu, że kategorie są wyczerpujące, każda jednostka analizy
może zostać gdzieś zaklasyfikowana. Warunek wzajemnej rozłączności oznacza natomiast, że
żadna jednostka analizy nie może zostać zaliczona do więcej niż jednej kategorii w ramach
danego systemu (por. rozdział 14). Badacz musi również wyraźnie określić kryteria zaliczania
określonych jednostek analizy do każdej z kategorii. W ten sposób możliwa staje się
replikacja, czyli podstawowe wymaganie obiektywnej i systematycznej analizy treści.
Większość z badań wykorzystujących analizę treści to badania mniej czy bardziej
ilościowe. Aby analiza ilościowa była możliwa, należy zastosować jeden z poniższych
systemów enumeracji:
1. System czasowo-przestrzenny oparty na pomiarach przestrzeni (na przykład
szerokości kolumny tekstu) lub wykorzystujący jednostki czasu (na przykład liczbę minut
poświęconych określonej wiadomości nadanej przez radio). Ten system pozwala opisać
względne znaczenie różnych kategorii w analizowanym materiale.
2. System oparty na występowaniu cech, w którym osoby kodujące poszukują
materiału świadczącego o obecności pewnych cech. Wielkość jednostki kontekstowej
wyznacza częstotliwość, z jaką powtarzające się jednostki analizy pozostające blisko siebie
będą niezależnie liczone.
3. System częstościowy, w którym zlicza się każde pojawienie się określonej cechy.
4. System oparty na analizowaniu stopnia nasilenia, który jest generalnie stosowany w
badaniach dotyczących postaw i wartości.
Metody kwantyfikacji w badaniu stopnia nasilenia polegają na konstruowaniu skal
(por. rozdział 18). Na przykład posługując się techniką porównywania par opracowaną przez
Thurstone'a, można określić, która para wskaźników nasilenia lokuje się wyżej na skali
postaw. Otrzymane oceny są następnie wykorzystywane do konstruowania kategorii, do
których zaliczane będą jednostki analizy56.
¦ Podsumowanie
1. Wtórna analiza jest przeprowadzana na danych zebranych przez inne osoby. W
niektórych badaniach dane wtórne mogą stanowić jedyne dostępne źródło danych. Można je
również wykorzystywać do celów porównawczych. Wtórna analiza danych ma wiele zalet:
stwarza możliwość replikacji badań, umożliwia stosowanie longitudinalnych planów
badawczych, może poprawić pomiar niektórych zmiennych i często umożliwia zwiększenie
wielkości badanej próby. Uzyskanie danych wtórnych jest zdecydowanie mniej kosztowne w
porównaniu z danymi pierwotnymi.
56 Najbardziej współczesnym kierunkiem rozwoju analizy treści jest tworzenie
programów komputerowych pozwalających na przeprowadzanie różnorodnych operacji
stosowanych w analizie tekstu. Omówienie tego problemu wykracza poza zakres tej książki,
ale osobom zainteresowanym polecamy pracę Roberta F. Webera (1990), Basic Content
Analysis, Thousand Oaks, Calif.: Sagę.
346
2. Szeroko stosowanym źródłem danych wtórnych są dane statytystyczne, zwłaszcza
pochodzące ze spisów ludności przeprowadzanych przez rząd dla potrzeb administracyjnych i
publicznych. Dane ze spisu ludności są wykorzystywane do określania, między innymi,
struktury gospodarstw domowych, badania cech charakterystycznych sąsiedztwa i rodzajów
problemów mieszkaniowych, czy też struktury rodziny. Drukowane raporty statystyczne,
czyli pierwotne źródło danych spisowych, są łatwo dostępne i wygodne w użyciu. Dla
użytkowników, którzy potrzebują bardziej szczegółowych danych lub danych opracowanych
dla mniejszych obszarów geograficznych niż w drukowanych raportach, Urząd Statystyczny
rozprowadza dane również w postaci taśm magnetofonowych. Urząd Statystyczny zaczyna
też do tego celu wykorzystywać CD-ROM-y.
3. Miary nieinwazyjne to kolejne źródło danych oddzielające badacza od badanej
przez niego populacji. W trakcie dokonywania pomiarów nieinwazyjnych osoby badane nie
zdają sobie sprawy, że uczestniczą w badaniu, i w związku z tym istnieje małe
prawdopodobieństwo, że akt pomiaru jako taki będzie wymuszał zmiany zachowania osób
badanych lub będzie się przyczyniać do grania przez nich jakiejś roli, zmieniając dane.
Omówiliśmy trzy źródła danych nieinwazyjnych: ślady fizyczne, obserwację prostą i
materiały archiwalne.
4. Ludzie zostawiają za sobą ślady fizyczne, nie myśląc, że kiedyś mogą zostać one
wykorzystane przez badaczy. Podstawowe dwie kategorie śladów fizycznych stanowią miary
erozji i miary przyrostu. Miary erozji to znaki świadczące o stopniu zużycia obiektów,
stanowiące wskaźniki aktywności populacji. Na miary przyrostu składają się natomiast rzeczy
i materiały pozostawione przez populację.
5. O obserwacji prostej mówimy wtedy, gdy obserwator nie kontroluje badanego
zachowania i sam nie jest spostrzegany w trakcie dokonywania obserwacji. Możemy
wyróżnić cztery rodzaje obserwacji prostej: obserwację wyglądu zewnętrznego ciała i znaków
fizycznych, obserwację zachowań ekspresyjnych, obserwację zajmowanych pozycji
fizycznych i obserwację zachowań językowych.
6. Inną grupę miar nieinwazyjnych stanowią dane uzyskane na podstawie analizy
materiałów i dokumentów archiwalnych. Dane tego typu można otrzymać, analizując tak
różnorodne źródła, jak dane aktuarialne, rejestry sądowe i dokumenty polityczne, dokumenty
rządowe, dane z mass mediów czy wreszcie dokumenty osobiste takie, jak autobiografie,
dzienniki i listy. Podstawowym problemem związanym z analizowaniem dokumentów
osobistych jest problem ich autentyczności. Badacze muszą określić, czy opisane przez autora
wydarzenia zostały przez niego świadomie lub nieświadomie błędnie przedstawione.
7. Analiza treści pozwala badaczom na prowadzenie systematycznej analizy danych
uzyskanych ze źródeł i dokumentów archiwalnych. Zamiast bezpośredniego obserwowania
ludzkich zachowań, czy też pytania o nie, badacz może się odwołać do tego, co ludzie mają
sobie do powiedzenia i zadać pytania dotyczące treści takich komunikatów. Procedura analizy
treści to interakcja dwóch procedur: określania przez badaczy cech analizowanego materiału i
wyszukiwanie tych cech w badanym tekście. Oczywiście kategorie będące podstawą
kodowania treści różnią się w zależności od natury problemu badawczego i wykorzystanych
danych.
347
¦ Podstawowe terminy
analiza treści 342 miejsca objęte spisem 328
analiza zajmowanych pozycji obserwacja prosta 333
fizycznych 334 pełny spis 327
autentyczność 338 pomiar erozji 333
dane aktuarialne 336 pomiar nieinwazyjny 333
jednostka analizy 344 pomiar przyrostu 333
jednostka kontekstu 344 ścieżki spisowe 328 metropolitalne
obszary statystyczne 328
¦ Pytania sprawdzajgce
1. Jakie są korzyści wynikające z wtórnej analizy danych?
2. Zaproponuj problem badawczy i określ, w jaki sposób można otrzymać
odpowiadające twoim hipotezom dane wtórne.
3. Zdefiniuj podstawowe rodzaje danych pochodzących ze spisu ludności i wskaż
cele badawcze, dla których są one najbardziej odpowiednie.
4. Wyjaśnij różnice w metodologii badań za pomocą obserwacji prostej i obserwacji
w warunkach eksperymentalnych.
5. Omów podstawowe problemy metodologiczne związane z analizą treści i
przedstaw sposoby ich rozwiązania.
¦ Literatura dodatkowa
Lutyński J. (1994), Metody badań społecznych. Wybrane zagadnienia (red., wstęp,
opracowanie K. Lu-
tyńska). Łódź: ŁTN. Mayntz R., Holm K., Hubner P. (1985), Wprowadzenie do metod
socjologii empirycznej, Warszawa:
PWN. Rzepa T. (red.) (1993), O biografii i metodzie biograficznej, Poznań: NAKOM.
Sulek A. (1990), W terenie, w archiwum i w laboratorium. Studia nad warsztatem socjologa,
Warszawa:
Wyd. UW. Sułek A., Nowak K., Wyka A. (red.) (1989), Poza granicami socjologii
ankietowej, Warszawa: Wyd.
UW. Włodarek J., Ziółkowski M. (red.) (1990), Metoda biograficzna w socjologii,
Poznań: PWN.
33
otrzymać odpisu ludności ednie.
prostej i ob-
analizą treści
icowanie K. Lu-;nej, Warszawa:
oga, Warszawa: 'arszawa: Wyd. 'WN.
CZĘSC IV
PRZETWARZANIE I ANALIZOWANIE DANYCH
Rozdział 14
Przygotowanie i analiza danych
Schematy kodowania 352
Reguły kodowania 352
Konstruowanie zeszytów kodowych 357
Rzetelność kodowania i rzetelność sposobów wprowadzania danych 359 Rzetelność
kodowania 359 Sposoby wprowadzania danych 361 Przeglądanie i czyszczenie danych
363
Wykorzystywanie komputerów w naukach społecznych 365
Rodzaje komputerów 365 Komputery pracujące w sieci 366
Podsumowanie 366
Podstawowe terminy 367
Pytania sprawdzające 367
Ćwiczenia komputerowe 367
Literatura dodatkowa 368
Urząd statystyczny potrzebował około siedmiu łat, aby opracować i stabelaryzować
dane zebrane w czasie dziesiątego spisu ludności przeprowadzonego w 1880 roku. Zanim
pracę tę ukończono dziesięć lat później, posiadane informacje były już w zasadzie zbyt
przestarzałe, aby można je było wykorzystać dla celów polityki podatkowej czy ocenić na ich
podstawie preferencje polityczne. Stało się jasne, że Urząd Statystyczny musi opracować
nowe techniki, aby dane dotyczące populacji Amerykanów były szybciej dostępne. Herman
Hollerith, pracownik Urzędu, skonstruował elektryczną maszynę liczącą, która w 1890 roku
— w czasie jedenastego spisu ludności — umożliwiła opracowanie i stabelaryzowanie danych
w ciągu dwóch i pół roku. Urządzenie Holleritha „rejestrowało dane dzięki wykorzystaniu
prądu elektrycznego, który przełączał proste, podobne do zegara urządzenie liczące. Kiedy
prąd przepływał przez otwór w kartoniku nie przewodzącym prądu, elektromagnes aktywował
licznik impulsów"'.
Teraz, kiedy Urząd Statystyczny przygotowuje się do dwudziestego drugiego spisu
ludności, który ma być przeprowadzony w 2000 roku, elektryczna maszyna licząca Holleritha
wydaje się reliktem przeszłości. W roku 1890 urządzenie Holleritha mogło na przykład
przetworzyć od 10 000 do 20 000 kart dziennie, podczas gdy aparatura komputerowa, którą
dzisiaj dysponuje Urząd Statystyczny, może przetworzyć około miliona danych w ciągu
minuty.
Historia ta pokazuje, jak bardzo — w porównaniu ze spisem z 1890 roku — zostały
udoskonalone metody opracowywania i analizowania danych. W tym rozdziale przedstawimy
powszechnie stosowane współczesne metody wstępnego opracowywania i kodowania danych.
Omówimy metody kodowania dedukcyjnego — gdy zasady kodowania są wyprowadzane z
teorii — oraz indukcyjnego — gdy źródłem budowanych kategorii są dane — a także
przedstawimy zasady kodowania oraz zasady tworzenia zeszytów kodowych.
Przeanalizujemy również problem rzetelności kodowania i wskażemy, za pomocą jakich
metod można tę rzetelność zwiększyć. Na koniec opiszemy różne sposoby kodowania oraz
omówimy wykorzystanie komputerów w procesie przechowywania, przetwarzania i
analizowania zbiorów danych.
Dane wykorzystywane współcześnie są prawie zawsze kodowane, przechowywane,
wyszukiwane i analizowane za pomocą systemów komputerowych. Bez względu na to, czy
korzysta się z komputerów osobistych, minikomputerów czy komputerów profesjonalnych,
logika zbierania i opracowywania danych jest podobna. W rozdziale tym przedstawimy też
najczęściej spotykane metody przetwarzania danych w procesie kodowania i tworzenia
zeszytów kodowych. Przyporządkowanie kodów liczbowych zebranym danym zwiększa
możliwości wykorzystania komputerów w procesie ich wyszukiwania i analizowania.
1 George E. Biles, Alfred A. Bolton, Bernadettę DiRe (1989), Herman Hollerith:
Inventor, Manager, Entrepreneur — A Centennial Remembrance. „The Journal of
Management", 15, s. 603-615.
351

¦ Schematy kodowania
Jak przekonaliśmy się w rozdziale 6, pomiar polega na tworzeniu zasad
przyporządkowywania liczb obserwacjom. Przyporządkowanie może być całkowicie
arbitralne (jak w przypadku zmiennych nominalnych), czy też może odzwierciedlać
uporządkowanie danych porządkowych lub interwałowych. Liczba przypisana obserwacji
nazywana jest kodem. Wszystkim przypadkom lub jednostkom spełniającym te same warunki
przypisuje się te same kody. Na przykład, jeżeli kod „1" oznacza „kobietę", to kodując dane
dla zmiennej płci, należy przyporządkować 1 wszystkim kobietom. Znaczenie każdego kodu
powinno zostać objaśnione w zeszycie kodowym, który należy dołączyć do każdego zbioru
danych. W tej części omówimy, w jaki sposób badacze przypisują kody zgromadzonym
danym.
Kody mogą być również wykorzystywane do grupowania danych dotyczących
określonego pojęcia. Przypuśćmy, że badacz zebrał informacje dotyczące zawodów kilkuset
osób badanych. Poniżej pokazujemy przykład listy zarejestrowanych zawodów:
Prawnik
Fryzjer
Stolarz
Makler
Operator dźwigu
Weterynarz
Pielęgniarka
Sezonowy pracownik rolny
Pracownik szczebla kierowniczego
Inżynier
Elektryk
Pracownik agencji reklamowej
Zanim dane te będzie można przeanalizować, należy poszczególne zawody
pogrupować w kategorie. Poniżej przedstawiamy jeden z możliwych sposobów klasyfikacji
zawodów:
1. Wolne zawody i osoby zatrudnione na szczeblu kierowniczym: prawnik,
weterynarz, pracownik szczebla kierowniczego, inżynier.
2. Pracownicy techniczni i sprzedawcy: pracownik agencji reklamowej, makler.
3. Pracownicy sektora usług i robotnicy wykwalifikowani: fryzjer, stolarz, operator
dźwigu, pielęgniarka, elektryk.
4. Robotnicy niewykwalifikowani: sezonowy pracownik rolny.
Ten system kategoryzowania zawodów uwzględnia poziom dochodów, prestiż oraz
wykształcenie i pozwala badaczom na posługiwanie się w analizach czterema dobrze
zdefiniowanymi kategoriami zawodów, zamiast kilkunastoma konkretnymi zawodami.
Systemy kategorii, takie jak wyżej przedstawiony, wykorzystywane w procesie
klasyfikowania odpowiedzi czy zachowań odnoszących się do pojedynczej pozycji
kwestionariusza lub pojedynczej zmiennej, nazywane są schematami kodowania. Poniżej
omawiamy zasady konstruowania takich schematów.
Reguły kodowania
Ponieważ kodowanie jest procesem przyporządkowywania danych do zdefiniowanych
wcześniej kategorii, więc pierwszym etapem kodowania jest nadanie intuicyjnego znaczenia
wykorzystywanym liczbom. Na przykład wyższe wyniki powinny
nej 28 być w
nie
„2 ry na
la pa
352

otrzymywać wyższe kody niż wyniki niższe. Zasadę tę najłatwiej ukazać na danych
interwałowych. Osobie starszej od innej osoby należy przypisać wyższy kod dla zmiennej
wieku. Osoba mająca 28 lat powinna intuicyjnie otrzymać kod dla wieku równy 28. Osoba
mająca 46 lat powinna zatem otrzymać wyższy kod niż osoba 28-letnia — być może 46,
gdyby kodowanie odbywało się w latach. Nawet wtedy, gdy kategorie wieku mają charakter
porządkowy, wyższa wartość kodowa powinna być związana z wyższym wiekiem. Na tym
właśnie polega nadawanie intuicyjnego znaczenia.
W przypadku niektórych zmiennych (zmiennych nominalnych) trudno intuicyjnie
uzasadnić wybrany sposób przypisywania liczb. Osoba, której przypisano kod t2" dla
zmiennej płci (kobiety) nie „ma" więcej płci w porównaniu z osobami, którym przypisano
kod „1" (mężczyźni). Co więcej, to, czy przypiszemy im 6 i 4 lub nawet 4 i 6, nie ma żadnego
znaczenia. Aby jednak zapewnić rzetelność systemu kodowania, będziecie prawdopodobnie
chcieli ograniczyć numery kodowe do liczb rozpoczynających się od 0 i zwiększających się o
jeden dla każdej następnej kategorii. Przypisywanie kolejnych wartości liczbowych,
począwszy od 0 czy 1, pozwala minimalizować ryzyko opuszczenia jakichś kategorii w
trakcie kodowania (por. paragraf zatytułowany „Przeglądanie i czyszczenie danych" dalej w
tym rozdziale).
Teoria i kodowanie dedukcyjne. Intuicja badacza to jeden z kilku czynników istotnych
w procesie podejmowania decyzji dotyczących kodowania. Należy również uwzględnić
teorię, zasadę wzajemnego wykluczania się, zasadę wyczerpywalności oraz problem
szczegółowości. Badacze angażujący się w badania ilościowe najczęściej testują hipotezy
wyprowadzone z teorii. Dlatego też system kodowania, jakim się posługują, powinien być
powiązany z teorią, którą zamierzają potwierdzić lub sfalsyfikować. Analiza teorii pozwala
badaczowi określić typ odpowiedzi, jakich może oczekiwać od osób badanych. Wiele
badanych problemów to problemy wielowymiarowe wymagające stworzenia niezależnych
kategorii dla każdego wymiaru. Na przykład badacz zainteresowany badaniem liberalizmu
może wnioskować na podstawie teorii, że jest to zjawisko wielowymiarowe. Osoba, którą
można określić jako liberalną w sprawach społecznych (np. ktoś, kto przyznaje kobietom
prawo do kontroli urodzin), może nie być człowiekiem liberalnym w sprawach finansowych
(np. ta sama osoba może uważać, że rząd nie powinien dofinansowywać środków
antykoncepcyjnych). W tym przypadku wysoki wynik dla zmiennej liberalizmu społecznego
nie będzie korelował z wysokim wynikiem dla zmiennej liberalizmu finansowego. Badacz
powinien zatem stworzyć kategorie zarówno dla zmiennej liberalizmu społecznego, jak i dla
zmiennej liberalizmu finansowego.
Rzeczywiste kategorie, które badacz tworzy, muszą się wzajemnie wyłączać i być
wyczerpujące. Oznacza to, że każda odpowiedź może zostać zaliczona tylko do jednej
kategorii (rozłączność) i że każda musi zostać zaliczona do jakiejś kategorii
(wyczerpywalnośc). Badacze muszą się również upewnić, że wybrane przez nich kategorie
nie są zbyt szerokie, a ważne różnice nie uległy zatarciu (szczegółowość).
Rozłączność. Zgodnie z regułą rozłączności opracowane dla każdej zmiennej
kategorie powinny być tak zaprojektowane, aby każdy przypadek czy jednostka analizy
mogły być zaliczone do jednej i tylko jednej kategorii. Rozważmy na przykład następujące
kategorie opisujące warunki mieszkaniowe studentów:
353
1) mieszka w domu studenckim,
2) mieszka z rodzicami,
3) mieszka poza miasteczkiem uniwersyteckim,
4) mieszka z małżonkiem.
Kategorie te nie wyłączają się wzajemnie, ponieważ studenci, którzy mieszkają ze
swoimi rodzicami, najczęściej mieszkają poza miasteczkiem uniwersyteckim, a studenci
mieszkający ze współmałżonkiem mogą mieszkać zarówno w domu studenckim, jak i poza
miasteczkiem uniwersyteckim. Respondenci mogą zatem mieć kłopot z wyborem tej
kategorii, którą powinni zaznaczyć, a osoby mieszkające w takich samych warunkach mogą
wybrać różne kategorie. Cel badań oraz teoria, z której wyprowadzono pytania badawcze,
pomagają dookreślić wybrane kategorie. Jeżeli chcemy się dowiedzieć, czy studenci
pozostający pod kontrolą dorosłych, pod kontrolą częściową lub bez żadnej kontroli ze strony
dorosłych różnią się ze względu na ich funkcjonowanie akademickie, to możemy zastosować
następujące kategorie:
1) mieszka z rodzicami (kontrola dorosłych),
2) mieszka w domu studenckim (częściowa kontrola),
3) mieszka poza miasteczkiem uniwersyteckim albo samodzielnie, albo z
przyjaciółmi, albo z małżonkiem (bez kontroli).
Wyczerpywalność. Reguła wyczerpywalności nakazuje, aby liczba kategorii byta
wystarczająca i obejmowała wszystkie możliwe odpowiedzi respondentów —każda
odpowiedź czy zachowanie powinno zostać sklasyfikowane bez nadmiernego rozszerzania
kategorii „inne". Teoria i znajomość badanej próby pomagają badaczom spełnić warunek
wyczerpywalności. Przykładem braku wyczerpywalności jest popularna klasyfikacja stanu
cywilnego na cztery kategorie: „żonaty/zamężna", „stanu wolnego", „rozwiedziony(a)",
„wdowiec/wdowa". Ponieważ respondenci mieszkający razem i nie będący w formalnym
związku nie mogą się zaliczyć do żadnej z tych kategorii, zatem warunek wyczerpywalności
nie jest w tym przypadku spełniony. Gdyby badana próba składała się jedynie z uczniów
szkół średnich, to ten schemat kodowania nie tylko nie byłby wyczerpujący, ale przede
wszystkim byłby niemeryto-ryczny (zmienna stałaby się stałą), gdyż wszyscy uczniowie
byliby stanu wolnego.
Szczegółowość. Szczegółowość kategorii wykorzystanych w schemacie kodowania
zależy od pytania badawczego, można jednak i tu sformułować pewne zasady ogólne. Po
pierwsze, jeżeli masz wątpliwości, dodaj następną kategorię. Możesz zawsze rozdzielić
kategorie, uogólniając odpowiedzi (por. dodatek A, w którym przedstawiono przykład takiego
właśnie zabiegu przy wykorzystaniu pakietu statystycznego SPSS). Nie możesz jednak
podzielić odpowiedzi zakodowanych na zbyt ogólnym poziomie. Po drugie, teoria i twoja
wiedza na temat badanego obszaru i badanej próby również może zostać wykorzystana przy
określaniu poziomu szczegółowości kategorii. Zadawanie lekarzom pytania o to, czy ich
zarobki mieszczą się w następujących kategoriach: poniżej 5000$, od 5000$ do 10000$, od
10000$ do 15 000$, od 15 000$ do 20000$ i powyżej 20000$, jest bez sensu, ponieważ taki
poziom szczegółowości kategorii jest dobry w wypadku badania ludzi biednych.
354
Kodowanie dedukcyjne pozwala badaczom na wykorzystanie teorii w procesie
konstruowania kategorii, zanim zbadają oni danym narzędziem próbę respondentów. Badacze
wykorzystujący kodowanie dedukcyjne często przeprowadzają badanie wstępne na małej
próbie osób pochodzących z interesującej ich populacji, aby tak zmodyfikować kategorie
wyprowadzone z teorii, by odpowiadały one badanej populacji. Pytania zamknięte są
przykładem wstępnego kodowania, w którym odpowiedzi są bezpośrednio przekładane na
kategorie.
Kodowanie indukcyjne. Kiedy badanie ma charakter eksploracyjny lub kiedy brak jest
teorii pozwalającej badaczowi wyciągnąć wnioski na temat spodziewanych odpowiedzi osób
badanych, właściwą metodą może być kodowanie indukcyjne. W kodowaniu indukcyjnym
badacz tworzy schemat kodowania na podstawie reprezentatywnej próbki odpowiedzi na dane
pytanie (zwłaszcza pytania otwarte), na podstawie danych z dokumentów lub danych
zebranych w trakcie obserwacji uczestniczącej (por. rozdział 12). Gdy badacz zbuduje już
schemat kodowania, to wykorzystuje go do pozostałych danych. Weźmy dla przykładu
odpowiedzi na pytanie mające mierzyć reakcje kobiet na przemoc ze strony męża2:
Jeżeli mężczyzna stosuje przemoc fizyczną wobec swojej żony, to co, Twoim
zdaniem, kobieta powinna zrobić?
1. Powinna pozostać w domu i starać się rozwiązać problem.
2. Powinna wyprowadzić się z domu.
3. Powinna zadzwonić do instytucji zajmującej się tego typu problemami i poprosić o
pomoc.
4. Powinna zadzwonić na policję.
5. Powinna uzyskać czasowy nakaz aresztowania męża.
6. Powinna zadzwonić do swoich przyjaciół lub krewnych po pomoc.
7. Inne rozwiązanie (jakie?).............................................................
8. Nie wiem/odmowa odpowiedzi.
9. Pytanie opuszczone.
W indukcyjnym schemacie kodowania odpowiedzi, które pojawiły się najczęściej,
zostają włączone do schematu kodowania wykorzystywanego do analizowania danych. W
przykładzie przedstawionym wyżej odpowiedzi od 1 do 6 zostały wybrane na tyle często, aby
mogły stworzyć niezależne kategorie. Odpowiedzi od 7 do 9 zostały wzięte pod uwagę po
wygenerowaniu pierwszych kategorii. W ostatecznym schemacie kodowania wszystkie
odpowiedzi rzadziej spotykane będą zaliczane do kategorii „inne".
Nie zawsze łatwo jest zidentyfikować kategorie, a skonstruowanie pełnego schematu
kodowania może zabrać wiele czasu. Badacz tak długo przegląda dane oraz tworzone
kategorie, aż będą one dobrze odpowiadać ogólnemu celowi badania. Paul Lazarsfeld oraz
Alan Barton, analizując ogólne zasady kodowania, jako przykład takich zasad wykorzystali
niektóre schematy kodowania, które zastosowano w klasycznym dziś badaniu The American
Soldier3. Aby określić, jakie czynniki
" Na podstawie: Spouse Abuse in Texas: A Study oj Woman 's Attiludes and
Experiences, Huntsville, Texas: Criminal Justice Center, 1983.
3 Paul F. Lazarsfeld, Alan Barton (1951), Qualitative Measurement in the Social
Sciences: Clas-
355
pozwalają przezwyciężyć stres wynikający z walki, osoby badające amerykańskich
żołnierzy stworzyły — na podstawie zebranych odpowiedzi — wstępną listę kategorii:
1. Nacisk ze strony formalnego autorytetu.
2. Umiejętności przewodzenia (np. zachęcanie).
3. Grupa nieformalna:
a) wsparcie emocjonalne,
b) kodeks zachowania,
c) zapewnianie rzeczywistego bezpieczeństwa i siły.
4. Przeświadczenie o roli wojny i niebezpieczeństwie ze strony wroga.
5. Chęć wygrania wojny jako warunek powrotu do domu.
6. Modlitwa i osobiste przekonania.
Owe wstępne kategorie pozwoliły badaczom sklasyfikować dane surowe i w sposób
istotny zmniejszyć liczbę analizowanych odpowiedzi. Gdy jednak zauważyli, że sankcje
formalne są bardziej skuteczne wówczas, kiedy nakładają się na nie sankcje ze strony
nieformalnej grupy i sankcje wewnętrzne, wprowadzili dalsze modyfikacje. I odwrotnie, na
normy tworzone przez grupę nieformalną wpływają zarówno sankcje formalne, jak i sumienie
jednostki. Badacze — na tej podstawie — przeanalizowali wszystkie odpowiedzi i otrzymali
dodatkowe informacje, które stały się powodem zmodyfikowania schematu odpowiedzi
(tabela 14.1).
Przedstawione niżej odpowiedzi odpowiadają zmodyfikowanym kategoriom opisanym
w tabeli 14.1:
1. Biorę udział w walce, bo jeżeli przestanę, to zostanę ukarany.
2. Biorę udział w walce, bo jest to obowiązek wobec mojego kraju, armii i rządu;
jeżeli przestanę, to będzie źle.
3. Biorę udział w walce, bo jeżeli przestanę, to stracę szacunek moich przyjaciół.
4. Biorę udział w walce, ponieważ pozostawienie przyjaciół jest złe.
5. Należy dbać o przyjaciół nawet wtedy, gdy oznacza to złamanie rozkazów, a
nawet wtedy, gdy oni nie dbają o ciebie.
6. Należy dbać o przyjaciół nawet wtedy, gdy wiąże się to ze złamaniem rozkazów,
gdyż pozostawienie ich jest złe.
7. Walczę, ponieważ wierzę w demokrację i nienawidzę faszyzmu.
Podstawową zaletą podejścia indukcyjnego jest jego elastyczność i szeroki zakres, co
umożliwia badaczom generowanie wyjaśnień otrzymanych wyników. Co więcej, pozwala na
stosowanie różnych schematów kodowania do tych samych danych i często umożliwia
tworzenie nowych kategorii. Wadą tej metody są trudności w opanowaniu ogromnej liczby
szczegółów pojawiających się w trakcie prób wyjaśniania danych. Czasami osoba kodująca
nie zna dostatecznie kontekstu badania, by zdecydować, które szczegóły są nieistotne, aby
można je było wyeliminować.
sifwation, Typologies, and Indices, w: Daniel Lerner, Harold D. Lasswell (red.), The
Policy Sciences, Stanford, Calif.: Stanford University Press, s. 160; Samuel A. Stouffer
(1965), The American Soldier, New York: Wiley.
356
Tabela 14.1. Sposób, w jaki normy wpływają na zachowania w trakcie walki
Normy tworzone przez autorytety formalne
Źródło norm Kanały
Bezpośrednie:
(a) sankcje formalne
(b) sankcje wewnętrzne
Via normy grupowe:
(a) sankcje ze strony grupy nieformalnej
(b) sankcje wewnętrzne
Normy tworzone przez grupy nieformalne (a) sankcje ze strony grupy
formalnej
(b) sankcje wewnętrzne
Normy jednostkowe (a) sankcje wewnętrzne
Na podstawie: Paul F. Lazarsfeld, Alan Barton (1951), Qualitative Measurement in rhe
Social Sciences: Classifacation, Typologies, and Indices. w: Daniel Lerner, Harold D.
Lasswell (red.), The Policy Sciences, Stanford, Calif.: Stanford University Press, s. 161.
Przedruk za zgodą autorów.
Reguły kodowania
¦ W przypadku zmiennych dających się uporządkować liczby kodujące powinny mieć
intuicyjny sens — na przykład wyższe liczby kodujące powinny zostać przypisane wyższym
wynikom.
¦ W kodowaniu dedukcyjnym kategorie powinny zostać powiązane z teorią będącą
inspiracją badań. Kodowanie dedukcyjne jest najczęściej stosowane w badaniach ilościowych.
W badaniach jakościowych natomiast, tworząc teorię podstawową, badacze zazwyczaj stosują
schematy indukcyjne.
¦ Kategorie kodujące muszą być wzajemnie rozłączne — każdy wynik może wpadać
tylko do jednej kategorii i niewiele wyników powinno zostać zaliczonych do kategorii „inne".
¦ Kategorie muszą być na tyle specyficzne, aby pozwalały wychwycić różnice wtedy,
gdy posługujemy się najmniejszą możliwą liczbą kategorii (kryterium szczegółowości).
¦ Konstruowanie zeszytów kodowych
Kiedy opracujemy już schemat kodowania dla każdej z badanych zmiennych, należy
przedstawić skompilowane informacje na temat tego schematu w zeszycie kodowym. Zeszyty
kodowe różnią się szczegółami, jednakże wszystkie dobre zeszyty kodowe zawierają
informacje na temat nazwy lub numeru zmiennej, schematu kodowania oraz kodów
oznaczających brak danych. Zeszyt kodowy jest dla osób kodujących rodzajem przewodnika.
Osoby te przekładają dane surowe na dane wejściowe wykorzystywane w późniejszych
analizach statystycznych. Są one również
357
pomocą dla autora badań oraz dla innych badaczy analizujących później ten zbiór
danych. Zeszyty kodowe opracowane dla badań mających postać sondażu często zawierają
wykorzystywane pytania sondażowe. W przykładzie 14.1 przedstawiamy fragment zeszytu
kodowego wykorzystanego w sondażu na temat ubóstwa przeprowadzonego w Cleveland.
Przykład 14.1
Przykład zeszytu kodowego: Cleveland Poverty Survey
Nazwa zmiennej
Numer kolumny
nr ident. Numer identyfikacyjny o.b.
1 -3
Zakoduj faktyczny numer
(001-528) Ql Najwyższa ukończona klasa
4
1 = 1-8
2 = 9-11 3= 12 4= 13-15 5= 16 6= 17+
Q4 Płeć 7
1 = mężczyzna
2 = kobieta
Q5 Tygodniowe zarobki aktualne/ostatnia praca
8-11
Podać liczbę dolarów Q6 Liczba godzin pracy tygodniowo
aktualnie/ostatnia praca 12-13
Podać liczbę godzin Q7 Ogólny stan zdrowia
14
1 = znakomity
2 = bardzo dobry
3 = dobry
4 = przeciętny
5 = slaby
9 = nie wiem/brak odpowiedzi Q8 Wykształcenie jako sposób na awans
15
1 = całkowicie się zgadzam
2 = zgadzam się
3 = trochę się zgadzam
4 = trochę się nie zgadzam
5 = nie zgadzam się
6 = całkowicie się nie zgadzam 9 = nie wiem/brak odpowiedzi
Q9 Umiejętność czytania
16
1 = znakomita
2 = dobra
3 = przeciętna
4 = słaba
9 = nie wiem/brak odpowiedzi
358
Zauważmy, że każda zmienna uwzględniona w przykładzie 14.1 ma swoją nazwę (np.
Ql), skrót treści pytania, zastosowany schemat kodowania (wartości liczbowe), numery
kolumn, określenie wartości odpowiadających brakującym danym i wszystkie specyficzne
zasady kodowania dla każdej zmiennej. Programy komputerowe wymagają wprowadzenia
danych w postaci odpowiedniego arkusza danych. Zmienne są ustawiane w kolumnach, a
kolejne przypadki w wierszach. Wymieniony w przykładzie 14.1 numer kolumny informuje o
tym, w której kolumnie znajdują się dane dotyczące określonej zmiennej. Każdy badacz — na
podstawie informacji zawartych w zeszycie kodowym — powinien umieć zrekonstruować
zbiór danych.
Rzetelność kodowania i rzetelność sposobów wprowadzania danych
Kiedy zeszyt kodowy został już opracowany, należy „zakodować" dane, czy też
przetworzyć je tak, aby mogły być wprowadzone do komputerowego programu statystycznej
analizy danych. Na przykład należy przełożyć zakreśloną odpowiedź w kwestionariuszu na
właściwą kolumnę czy „pole" odpowiadające zmiennej (i zdefiniowanej w książce kodowej).
Osobą kodującą może być sam badacz, student lub osoba wynajęta specjalnie do tego celu.
Dane surowe można wprowadzać do programu komputerowego na różne sposoby. Po
omówieniu rzetelności związanej z osobą kodującą przedyskutujemy problem rzetelności
różnych sposobów wprowadzania danych: arkuszy danych, kodowania na marginesie kartki,
skanowania optycznego oraz bezpośredniego wprowadzania danych.
Rzetelność kodowania
Badania, w których korzystano z dobrze opracowanych zeszytów kodowych,
zastosowano standaryzowane pytania zamknięte oraz zatrudniono dobrze wytrenowane osoby
kodujące, ujawniają mniej problemów związanych z rzetelnością osób kodujących niż
badania, w których osoby kodujące muszą samodzielnie podejmować decyzję o tym, jakie
kody należy przyporządkować określonym odpowiedziom. Jednym z największych
problemów tego typu badań jest upewnienie się, że osoba kodująca wprowadza właściwy kod
do odpowiedniej kolumny. Standardową procedurą jest wyrywkowe sprawdzanie pracy
każdego kodującego, aby sprawdzić, czy nie pracują oni niedbale. Sposoby wprowadzania
danych, które omówimy niżej, są źródłem różnych problemów dotyczących rzetelności
związanej z osobami kodującymi dane.
Osoby kodujące częściej odwołują się do własnych sądów, gdy klasyfikują
odpowiedzi udzielone na pytania otwarte lub gdy opracowują nieustrukturowany materiał.
Jeżeli reguły klasyfikowania odpowiedzi nie odnoszą się wyraźnie do klasyfikowanego
materiału, to różne osoby kodujące mogą w różny sposób klasyfikować te same odpowiedzi.
W takim wypadku proces kodowania staje się nierzetelny, a problem ten jest tak poważny jak
przy braku rzetelności obserwatorów czy ankieterów. I rzeczywiście faza kodowania danych
jest najczęściej największym źródłem błędów. Aby zwiększyć rzetelność kodowania, należy
dbać, aby stosowane schematy kodowania były tak proste, jak to tylko możliwe. Należy też
odpowiednio przygotować osoby kodujące. Najprostszą metodą jest porównanie efektów
pracy dwóch lub więcej osób kodujących i ustalenie przyczyn wszystkich rozbieżności.
Przykład instrukcji dla osób kodujących wpływającej na rzetelność ich działań przedstawiamy
w przykładzie 14.2.
W instrukcji tej można znaleźć odpowiedź na wszystkie pytania, które mogą
359
się pojawić w trakcie przygotowywania danych do obróbki komputerowej. Jeżeli
osoby kodujące nanoszą kody bezpośrednio na arkusz pomiarowy, to warto w tym celu
używać czerwonego ołówka, aby odróżnić znaki kodowe od innych uwag znajdujących się na
arkuszu. Gdy trzeba będzie poprawić błędy popełnione w trakcie kodowania, znaki naniesione
ołówkiem można wymazać. Zielonym długopisem zaleca się natomiast nanosić uwagi
dotyczące badań, aby odróżnić je od uwag poczynionych przez ankieterów czy osoby
kodujące. Osoby kodujące nie powinny nigdy wymazywać uwag poczynionych przez
ankieterów, gdyż są one niezbędne przy sprawdzaniu poprawności kodowania. Jeżeli osoba
kodująca ma trudności w zinterpretowaniu odpowiedzi, to może postawić specjalny znak
zwracający uwagę osoby kontrolującej, aby to ona podjęła decyzję dotyczącą właściwego
kodu.
Przykład 14.2
Ogólna instrukcja kodowania
A. Znaki kodowe należy nanosić czerwonym ołówkiem.
B. Nie wolno wymazywać żadnych znaków ani komentarzy naniesionych przez
osoby przeprowadzające wywiad. Jeżeli trzeba poprawić kwestionariusz, to należy przekreślić
błędny kod. Nie wolno zamazywać tego, co zostało wcześniej napisane. Należy pamiętać, że
uwagi napisane zielonym kolorem są uwagami naniesionymi przez instytucję organizującą
badania.
C. Każda kolumna musi mieć swój kod, lecz nie może mieć więcej niż jeden kod.
D. Dotyczy pytań oznaczonych jako problem: instrukcja ta dotyczy pytań, w
których mogą się pojawić problemy dotyczące kodowania. Osoby kodujące otrzymają
niewielkie karteczki, które należy przykleić na tej stronie, na której wystąpią takie problemy.
Osoby kodujące mogą w len sam sposób zaznaczyć wszystkie miejsca w kwestionariuszu, w
których brak jest jakichś informacji, są one niejasne i wymagają sprawdzenia przez osobę
kontrolującą.
E. Dotyczy pytań oznaczonych jako lista: należy sporządzić listę wszystkich
odpowiedzi zaliczonych do kategorii „inne" i przedstawić w dosłownym brzmieniu wszystkie
komentarze dotyczące takich odpowiedzi. Dla każdego pytania trzeba sporządzić oddzielną
listę. Jeżeli dla jednego pytania przewidziano więcej niż jeden kod, to należy sporządzić
oddzielną listę dla każdego kodu. U góry każdej listy należy napisać numer badania, numer
pytania, numer kolumny i numer kodu, dla którego sporządza się listę. W większości sondaży
sporządza się listy dla wszystkich odpowiedzi typu „inne, jakie?"
F. Brak odpowiedzi (bo) i „odmowę" odpowiedzi należy kodować za pomocą cyfry
9 w kolumnie zawierającej jedno pole, za pomocą liczby 99 w kolumnie zawierającej dwa
pola itd. Kategorię bo koduje się wówczas, gdy respondent nie udzielił żadnej odpowiedzi,
ankieter przeoczył pytanie lub wtedy, gdy udzielona odpowiedź jest zbyt wewnętrznie
sprzeczna lub niejasna, aby ją zakodować, lub wtedy, gdy trzeba wprowadzić jakiś kod, aby
przejść dalej. Dopuszcza się uznanie BO dla każdego pytania, z wyjątkiem tych, które zostały
wymienione w zeszycie kodowym (np. pytania o płeć czy rasę).
G. Kategoria „nie dotyczy" (ndt) jest kodowania jako 0, co oznacza „pominięcie"
lub „pytanie puste" dla osób kodujących. Kategorię ndt koduje się wówczas, gdy nie planuje
się zadania danego pytania (np. ze względu na sposób przechodzenia od pytania do pytania).
H. Kategoria „nie wiem" (nw) nie ma swojego wcześniej zapisanego kodu, dlatego
należy ją kodować za pomocą cyfry 8 w kolumnie zawierającej jedno pole, za pomocą liczby
98 w kolumnie zawierającej dwa pola, za pomocą liczby 998 w kolumnie zawierającej trzy
pola itd. Jeżeli kategoria nw została wymieniona wśród innych odpowiedzi przewidzianych
dla danego pytania, to kategorii tej nie należy odrębnie kodować.
Na podstawie: National Opinion Research Center, University of Chicago, General
Social Survey, 1972-1989: Cumulative Codebook (Storrs, Conn.: Roper Center for Public
Opinion Research, 1989).

360
W niektórych sytuacjach nie da się zakodować odpowiedzi. W przykładzie 14.2
proponujemy, aby osoby kodujące sporządzały listę odpowiedzi — dosłownie zapisanych —
na wszystkie te pytania, dla których nie opracowano specyficznych kodów. Na przykład
możemy być zainteresowani tym, jakie konkretnie odpowiedzi ludzie traktują jako „inne" i
dlatego do kwestionariusza można wprowadzić pytanie „inne, jakie?" Jeżeli osoba kodująca
przydziela kody, kierując się jedynie rodzajem kategorii, to informacje szczegółowe znikną.
Osoby kodujące muszą wiedzieć, jakich kodów należy używać w przypadku różnego
typu braku odpowiedzi. W przykładzie 14.2 uwzględniono trzy rodzaje braku odpowiedzi: 1)
respondent odmówił udzielenia odpowiedzi, 2) pytanie nie odnosi się do respondenta, 3)
respondent nie zna odpowiedzi na pytanie. Instrukcja kodowania dokładnie określa, jakie
kody liczbowe lub literowe powinny zostać przydzielone w każdym przypadku.
W interpretacjach odpowiedzi czynionych przez respondentów i osoby, które ją
kodują, mogą się pojawić różnice. W literaturze problem ten jest rzadko omawiany. Pojawił
się w badaniach Kennetha Kammeyera i Juliusa Rotha poświęconych ocenie zgodności
znaczenia, jakie nadają odpowiedzi respondent i osoba kodująca4. Zbadali oni, w jaki sposób
zakodowaliby swoje odpowiedzi sami respondenci, dysponując zbiorem kategorii
dostarczonych przez badacza. Gdyby respondenci grali również rolę osób kodujących, to czy
kody przypisane przez nich różniłyby się od kodów przypisanych przez inne osoby, czy
zakodowaliby je tak samo? Kammeyer i Roth poprosili 64 studentów college'u o wypełnienie
kwestionariusza zawierającego pytania zarówno zamknięte, jak i otwarte. Następnie każda
osoba badana niezależnie zakodowała swój kwestionariusz oraz kwestionariusze innych osób
badanych. Dalej dla każdej osoby badanej badacze porównali sposób kodowania własnego
kwestionariusza i kwestionariuszy wypełnionych przez innych. Porównanie to ujawniło, że
osoby kodujące inaczej rozumiały odpowiedź niż respondent, co prowadziło do niewłaściwej
interpretacji rzeczywistych postaw respondentów. Kierunek odchylenia zależał od treści
pytania. Im mniej ustrukturowane było pytanie, tym większa była różnica pomiędzy
interpretacją dokonaną przez respondenta i osobę kodującą. Wyniki te zwracają uwagę na
ważny problem kodowania materiału nieustrukturowanego. Jest oczywiste, że taka forma
stronniczości może zniekształcać wyniki dotyczące związków pomiędzy badanymi
zmiennymi.
Sposoby wprowadzania danych
Arkusze wprowadzania danych. Dawniej przenoszono dane, odpowiednio perforując
specjalne karty komputerowe. Osoby kodujące posługiwały się arkuszami wprowadzania
danych, które były papierową formą kart perforowanych i pozwalały na zapisywanie danych
w kolumnach określonych w zeszytach kodowych. Osoby perforujące karty przenosiły
następnie te dane na karty. Chociaż dzisiaj nie posługujemy się już takimi kartami, to
posługiwanie się jakąś formą arkuszy wprowadzania danych — zwłaszcza w wypadku
złożonych kwestionariuszy czy danych pochodzących z różnych źródeł — może okazać się
użyteczne. Osoby kodujące mogą korzystać z arkuszy kalkulacyjnych, w których przypadki
wprowadza się w wier-
4 Kenneth C.W. Kammeyer, Julius A. Roth (1971), Coding Response to Open-ended
Questions, w: Herbert L. Costner (red.), Sociological Methodology, San Francisco: Jossey-
Bass.
361
szach, a zmienne w kolumnach. Większość programów statystycznych wymaga
danych przygotowanych właśnie w ten sposób i są one dużym ułatwieniem dla osób
wprowadzających dane. Posługiwanie się arkuszami wprowadzania danych wymaga jednak
wielokrotnego przeglądania danych, co zwiększa możliwość złego ich wprowadzenia i tym
samym może zmniejszyć ich rzetelność.
Kodowanie na marginesie. Kodowanie na marginesie jest jednym ze sposobów
wyeliminowania arkuszy wprowadzania danych. W metodzie tej osoby kodujące przenoszą
informacje z kwestionariusza bezpośrednio na wolne miejsca na marginesie arkusza z
pytaniami. Na rycinie 14.1 numer kolumny dotyczącej każdej zmiennej umieszczono z prawej
strony kartki i oznaczono „tylko dla celów badawczych". Gdy dane kodujemy na marginesie,
osoby wprowadzające dane do komputera przenoszą je bezpośrednio do bazy danych. W tym
wypadku rzetelność się zwiększa, ponieważ osoby kodujące pracują bezpośrednio na
kwestionariuszu i wprowadzając dane, nie muszą wyszukiwać właściwych kolumn, jak w
przypadku arkuszy wprowadzania danych.
Skanowanie optyczne. Osoby kodujące mogą również przenieść dane na specjalne
arkusze nadające się do skanowania (jak wykorzystywane w egzaminach testowych). Skaner
czyta znaki naniesione czarnym ołówkiem i automatycznie tworzy plik danych. Metoda ta
zwiększa rzetelność, ponieważ eliminuje błędy wynikające z ręcznego wprowadzania danych.
Trzeba jednak pamiętać, że źle zaprojektowane arkusze do skanowania mogą utrudniać
przestrzeganie prawidłowej kolejności wprowadzania danych.
Ponieważ skanowanie optyczne stało się powszechne, a procedura wypełniania
takiego arkusza jest prosta, można prosić respondentów, aby sami zaznaczali swoje
odpowiedzi bezpośrednio na takim arkuszu. Dla każdego narzędzia pomiarowego należy
zaprojektować odpowiedni arkusz do skanowania, aby ułatwić respondentom udzielanie
odpowiedzi na pytania sondażowe.
Bezpośrednie wprowadzanie danych. Prawdopodobnie najważniejsze innowacje w
kodowaniu pojawiły się wraz z możliwościami bezpośredniego wprowadzania danych.
Istnieją dwie formy bezpośredniego kodowania danych: kodowanie z kwestionariusza i
kodowanie w trakcie wywiadu telefonicznego. W obu formach wykorzystuje się programy
komputerowe, w których każde zadawane pytanie jest wyświetlane na ekranie monitora i
wymaga wprowadzenia odpowiedzi przez osobę kodującą.
Materiał kodowany z kwestionariusza musi być wyświetlony, aby mieć pewność, że
opuszczone odpowiedzi również mają swój kod na wejściu. Następnie koduje się odpowiedzi.
Po wprowadzeniu danych dla każdego przypadku komputer automatycznie dodaje te
informacje do pliku z danymi surowymi. Metoda ta również zmniejsza liczbę osób kolejno
zajmujących się danymi, co wpływa na zwiększenie rzetelności.
Wywiad telefoniczny ze wspomaganiem komputerowym (Computer-Assisted
Telephone Interviewing — CATI) to wysoce rozwinięty system w ogromnym stopniu
redukujący błędy złego kodowania. Osoby prowadzące wywiad czytają pytania bezpośrednio
z ekranu monitora i wprowadzają odpowiedzi w chwili ich udzielania.
362
Jeżeli osoba kodująca wprowadzi niewłaściwy kod (wartość, której nie ma w spisie
kodów dla danego pytania), to program domaga się wpisania właściwej wartości. W
zależności od odpowiedzi na pytanie filtrujące CATI przechodzi automatycznie do
właściwych pytań i osoba prowadząca wywiad nie musi przeglądać kolejnych danych w
poszukiwaniu odpowiedniego pytania. Taki program nie tylko zwiększa rzetelność
kodowania, lecz również sprawia, że respondenci nie muszą odpowiadać na pytania, które ich
nie dotyczą. Ulepszenie technologii CATI wpłynęło na poprawienie odsetka odpowiedzi,
zwiększyło łatwość stosowania, zwiększyło rzetelność danych i rzetelność procesu
kodowania, a tym samym przyczyniło się do istotnego zmniejszenia liczby sondaży
pocztowych.
Przeglądanie i czyszczenie danych
Przeglądanie i poprawianie danych to bardzo ważne etapy w procesie przetwarzania
danych. Powinny one zawsze poprzedzać analizę zebranych informacji.
Przeglądanie danych odbywa się zarówno w czasie trwania, jak i po zakończeniu fazy
kodowania. Osoby kodujące przeglądają dane, sprawdzając, czy nie popełniono błędów lub
czy jakieś dane nie zostały opuszczone. Dane przegląda się również wtedy, gdy chcemy się
upewnić, czy wszystkie arkusze kwestionariusza wypełniono jak należy. Jednakże
podstawowa procedura przeglądania danych — zwłaszcza w wypadku dużych sondaży — jest
przeprowadzana przez osoby kontrolujące, które w ten sposób sprawdzają każdy
kwestionariusz, oceniają rzetelność wywiadów, a także szukają braku zgodności w
udzielonych odpowiedziach. Krajowy Ośrodek Badania Opinii (National Opinion Research
Center) prowadzący ogólne sondaże społeczne wymaga od osób kontrolujących sprawdzania,
czy wszystkie pytania filtrujące zostały poprawnie wypełnione i czy pozostałe dane są zgodne
z utworzonym w ten sposób wzorcem wypełniania kwestionariusza. Jeżeli na pytanie
filtrujące udzielono więcej niż jednej odpowiedzi lub jeżeli pytanie filtrujące pozostawiono
puste, to osoba kontrolująca musi określić, jakie należy przydzielić kody.
Czyszczenie danych to procedura polegająca na sprawdzaniu poprawności i
kompletności danych oraz poprawianiu błędów i niespójnych kodów. Większość dużych
zbiorów danych można wyczyścić, stosując specjalne programy komputerowe, które
sprawdzają logiczną zgodność danych dla określonych wcześniej kodów5. Chociaż na wiele
pytań udziela się niezależnych odpowiedzi, a odpowiedzi te są niezależnie kodowane, wiele
pytań jest ze sobą powiązanych i odpowiedzi na te pytania również powinny być ze sobą
powiązane. Na przykład, jeżeli respondent nie ma dzieci, to wszystkie pytania dotyczące
dzieci powinny zostać zakodowane jako BO (brak odpowiedzi) albo powinny pozostać puste.
Podobnie, jeżeli respondent podający, że ma pięć lat, informuje również, że ma dwoje dzieci,
to świadczy to o błędzie w danych. Inną funkcją procedury czyszczenia danych jest
wykrywanie nieprawidłowych kodów. Jeżeli pytanie „Czy wierzysz w życie po śmierci?"
można zakodować jako 1 dla „tak", 2 dla „nie", 8 dla „nie potrafię się zdecydować" i 9 dla
„brak odpowiedzi", to każdą wartość spoza tego zbioru należy traktować jako nieprawidłową.
5 Na przykład: Winona Ailkins (1975), EDIT: The NORC Cleaning Program: A
Program to De-vełop Seąuential Files, Chicago: National Opinion Research Center.
363
THE UNIVERSITY OF WISCONSIN-MILWAUKEE College of Letters and Science
Department of Political Science
Tylko dla celów badawczjd
Nr 2183
Badanie dotyczące wolności obywatelskich
INSTRUKCJA: Dla każdego z niżej wymienionych pytań prosimy wybrać odpowiedź,
która najbardziej odpowiada Pana(i) poglądom na dany temat i postawić krzyżyk w
odpowiedniej kratce. Nie ma tu ani „dobrych", ani „złych" odpowiedzi — dlatego prosimy
odpowiadać na każde pytanie szczerze. Proszę odpowiadać na pytania w takiej kolejności, w
jakiej zostały one umieszczone w arkuszu. Jeżeli Pan(i) chciałbyś ałaby) przekazać
dodatkowe uwagi na temat któregoś z pytań lub poruszanych tematów, to prosimy skorzystać
z wolnego miejsca znajdującego się na końcu kwestionariusza. Państwa uwagi pomogą nam
lepiej zrozumieć tak złożony problem, jakim są wolności obywatelskie — z góry serdecznie
dziękujemy za współpracę.
Chcielibyśmy rozpocząć od zadania kilku pytań dotyczących Państwa kontaktów z
American Civil Liberties Union -Amerykańską Unią Praw Obywatelskich.
¦ (ACLU), czyh
la. Od ilu lat jest Pan(i) członkiem ACLU?........lat
Ib. Dlaczego wstąpiła) Pan(i) do ACLU? Czy istniały jakieś specjalne powody, które
skłoniły Pana(ią) do wstąpienia do tej organizacji?
? specjalne powody.....Jakie?..............................................................
D brak specjalnych powodów
? nie pamiętam .............................................................
1 c. Czy aktywnie działa Pan(i) w Związku? Na przykład, czy wziął(ęła) Pan(i) udział
w którejś z wymienionych aktywności:
a. Dofinansowywanie Związku (niezależnie od składek członkowskich)..............
b. Pisanie listów do władz Związku ........................................
c. Pełnienie jakiejś funkcji we władzach Związku .............................
d. Uczęszczanie na lokalne spotkania Związku................................
e. Czytanie biuletynów i pism wydawanych przez ACLU.........................
f. Pisanie listów do przedstawicieli władz w imieniu ACLU.......................,
g. Uczęszczanie na przyjęcia i imprezy dobroczynne organizowane przez ACLU.......
h. Zgłaszanie się na ochotnika do prac w Związku (np. pełnienie funkcji asystenta,
odbieranie telefonów..................................................
i. Uczestniczenie w sprawach sądowych wytoczonych z ramienia ACLU.............
Id. ACLU publikuje wiele specjalistycznych biuletynów i magazynów, które nie
docierają do wszystkich członków Związku. Chcielibyśmy się dowiedzieć, czy dostał(a)
Pan(i) którąś z tych publikacji, a jeżeli tak, to jak często znajduje Pan(i) czas na ich
przeczytanie? Proszę postawić znak x w odpowiednim miejscu.
Tak Nie Nie pamiętam
? ? D
D D ?
D ? D
D ? D
a D a
a ? 0
D ? D
D ? D
D ? D
a. Civil Liberties Review..............
b. Children's Rights Report............
c. First Principles....................
d. Notes from the Women's Rights Project
e. Civil Liberties Alert................
f. The Privacy Report................
g. Civil Liberties....................
Otrzymuję tę publikację,
Otrzymuję tę ale zazwyczaj
publikację mam zbyt mato
Nie otrzymuję i zazwyczaj ją czasu, aby ją
tej publikacji czytam przeczytać Nie wiem
? D ? ?
? ? ? ?
D D ? ?
? D D ?
? D D ?
n ? D ?
n ? ? D
1 e. Biorąc pod uwagę okres swojego członkostwa, jak ocenia Pan(i) stanowisko, jakie
ACLU zajmuje w najważniejszych sprawach?
D zawsze się z nim zgadzam D zazwyczaj się z nim nie zgadzam
? nie wiem
D czasami się z nim zgadzam D nigdy się z nim nie zgadzam
2a. Zawsze znajdą się ludzie, których poglądy przez innych ludzi są traktowane jako
niebezpieczne. Na przykład ludzie, którzy
występują przeciwko każdej religii i każdemu kościołowi.
Tak Nie Nie mam zdani;
a. Gdyby taka osoba chciała wygłosić przemówienie przeciwko religii i kościołom
dla Pana(i) społeczności, to czy otrzymałaby pozwolenie?.................... D
D ?
b. Czy taka osoba otrzymałaby pozwolenie na zorganizowanie marszu przeciwko
religii i kościołom?..................................................
c. Czy taka osoba mogłaby wykładać na uniwersytecie lub college*u?.............
d. Gdyby ktoś z Pana(i) społeczności zażądał usunięcia z biblioteki książki napisanej
przeciwko religii i kościołom, której autorem jest ta osoba, to czy popierałby(łaby) Pan(i) tę
decyzję?...................................................
?
a
aa
aD
Ryc. 14.1. Kodowanie na marginesie kwestionariusza
Źródło: Przedruk za zgodą Greewood Publishing Group, Inc., Westport, CT, z pracy
Jamesa L. Gibsona i Richarda D. Binghama (1985), Civil Liberties and the Nazis, New York:
Praeger Publishers.
Najprostszą procedurą sprawdzenia, czy pojawiły się nieprawidłowe kody, jest
wygenerowanie rozkładu częstości kodów dla każdej zmiennej (por. rozdział 15). Tę metodę
poprawiania danych przedstawiamy również w dodatku A.
I Wykorzystywanie komputerów w naukach społecznych
W dzisiejszych czasach każdy poznał możliwości stosowania komputerów w różnych
dziedzinach życia. W naukach społecznych z komputerów zaczęto korzystać już dziesiątki lat
temu. W tym czasie wydatnie zmieniła się technologia komputerowa, lecz istota stosowania
komputerów dla potrzeb badań pozostała nie zmieniona. Komputery to narzędzia ułatwiające
magazynowanie danych, przetwarzanie ich, a także umożliwiające szybki do nich dostęp i
łatwiejszą analizę zbiorów danych. Kiedy zrozumiemy istotę metod badawczych i poznamy
elementy statystyki, możemy wykorzystać komputery do obliczania odpowiednich statystyk i
korzystać z wydruku rezultatów. Pamiętajmy jednak, że to badacz musi dostarczyć
prawidłowych i rzetelnych danych, wybrać metody statystyczne właściwe dla zrealizowanego
poziomu pomiaru i poprawnie zinterpretować otrzymane rezultaty.
Rodzaje komputerów
Do analizowania danych w naukach społecznych stosuje się trzy rodzaje komputerów:
duże komputery stacjonarne, minikomputery i komputery osobiste (PC). Duże komputery to
jednostki, które jednocześnie są w stanie sprostać potrzebom wielu użytkowników. Jednostka
centralna tak organizuje pracę, aby jak najwięcej użytkowników mogło z niej korzystać w
każdym czasie. Komputery stacjonarne czytają również magnetyczne taśmy danych
przesyłane przez użytkowników dużych baz danych. Międzyuniwersytecki Zespół ds. Badań
Politycznych i Społecznych przy uniwersytecie w Michigan to największa składnica danych
wykorzystywanych w naukach społecznych. Oprócz danych pochodzących z badań
naukowych ośrodek ten gromadzi również dane zebrane przez takie firmy badające opinie,
jak: Roper, Harris czy Krajowy Ośrodek Badania Opinii. Dane te są podstawą wielu
projektów badawczych. Ponieważ komputery stacjonarne są również wyposażone w
podstawowe pakiety statystyczne wykorzystywane do analizowania danych w naukach
społecznych, więc indywidualni badacze oraz studenci nie muszą kupować pakietów
statystycznych.
Minikomputery również są wyposażone w pakiety statystyczne, z których może
korzystać wielu użytkowników, jednak nie są w stanie przyjąć tylu użytkowników jak duży
komputer. Terminale i połączone w sieci komputery osobiste (PC) stwarzają dostęp do
programów i plików danych w zminiaturyzowanej wersji w porównaniu z dużymi
komputerami.
Instytucje zajmujące się tworzeniem oprogramowania statystycznego stworzyły wersje
podstawowych, od lat używanych w naukach społecznych programów statystycznych, dla
użytkowników komputerów osobistych. Statistical Package for the Social Sciences (SPSS) —
opisany w dodatku A — posiada wersję na PC. Tworzy się również programy przeznaczone
specjalnie dla użytkowników komputerów osobistych. Ponieważ można dokonywać transferu
danych pomiędzy większością programów statystycznych, użytkownicy komputerów
osobistych sami mogą wybrać pakiet statystyczny, z którego najlepiej im się korzysta.
365
Podstawowa różnica pomiędzy komputerami osobistymi i innymi komputerami polega
na tym, że PC są „samowystarczalne". Większość profesjonalnych wersji pakietów
statystycznych przeznaczonych na PC wymaga jedynie twardego dysku i odpowiedniego
koprocesora. I chociaż komputery osobiste nie muszą być połączone z dużym komputerem
czy z minikomputerem, można podać wiele zalet wynikających z ujęcia komputerów
osobistych w sieć.
Komputery pracujqce w sieci
Nie tak dawno badacze musieli wybrać albo sposób (duży komputer, minikomputer
lub PC), za pomocą którego mogli przetwarzać dane, albo zmuszeni byli sami uczyć się wielu
różnych systemów. Modemy stworzono po to, aby ludzie mogli regularnie korzystać z linii
telefonicznych w celu połączenia swoich terminali z dużymi jednostkami centralnymi. W
czasach pierwszych modemów transmitowanie danych wymagało specjalnych linii. Dzisiaj
można równocześnie przesyłać dane i rozmawiać przez telefon. Modemy dla tego typu linii
znajdują się zazwyczaj wewnątrz telefonu.
Dzisiaj, aby połączyć się z jednostką centralną, nie trzeba specjalnego terminalu. Aby
połączyć jeden komputer z drugim, konieczne jest jedynie odpowiednie oprogramowanie i
szybki modem. Badacze mogą bez trudu przesyłać informacje z własnego PC do jednostki
centralnej oraz odbierać informacje z jednostki centralnej i przekazywać je do własnego PC.
Począwszy od roku 1970, zaczęto stosować lokalne sieci komputerowe (Local Area
Networks — LAN), aby połączyć stacje robocze z centralnym systemem komputerowym.
Partnerzy pracujący w sieci korzystają z tej samej linii przesyłania danych i w tym samym
czasie tylko jeden komputer może przesyłać dane poprzez sieć. Niewielka szybkość transmisji
danych w pierwszych sieciach sprawiała, że sieci szybko się blokowały i były niewydolne.
Nowsze technologie pozwalają na szybszą transmisję danych i zmniejszyły zatory powstające
w sieci. Sieci multimedialne tworzone w latach dziewięćdziesiątych łączą przekaz dźwięku,
danych i obrazu.
Komputery można łączyć za pomocą specjalnego oprogramowania. Wyniki analiz
statystycznych generowanych przez jeden program mogą być wczytywane przez procesor
tekstów innego programu, a ten ostatni może służyć do pisania raportów. Niektóre starsze
programy wymagają przekonwertowania danych na bardziej ogólny format, zanim zostaną
one przeczytane przez inny program i czasami graficzna strona danych może ulec zmianie.
Istnieje wiele specjalistycznych pakietów programów przeznaczonych do specjalnych celów.
Pakiety takie umożliwiają bezpośrednie wczytywanie danych przez każdy program z pakietu.
Ponieważ konwersja danych nie jest już tu potrzebna, format graficzny danych pozostaje nie
zmieniony.
¦ Podsumowanie
1. Przetwarzanie danych to procedura łącząca etap zbierania danych i etap analizy
danych. Polega ona na przekształcaniu zebranych informacji w kody, które można poddać
analizie. Na pierwszym etapie procedury przetwarzania danych badacze dokonują klasyfikacji
zebranych informacji na mniejszą liczbę kategorii, aby uprościć i ułatwić analizę danych.
Taki system klasyfikowania danych nazywa się schematem kodowania.
366
2. Schemat kodowania powinien być powiązany zarówno z teorią, jak i z celem badań,
który decyduje o tym, jakie kategorie powinny zostać uwzględnione. Innym wymogiem
dotyczącym schematu kodowania jest warunek wyczerpywalności i wzajemnej rozłączności,
co oznacza, że każda obserwacja powinna być zaklasyfikowana do jakiejś kategorii, lecz
żadna nie może zostać zaklasyfikowana do więcej niż jednej kategorii. Badacze posługują się
schematami kodowania, aby przekształcić dane na taki format, jaki nadaje się do
komputerowej analizy danych. Sposób przekształcania jest zazwyczaj opisany w zeszycie
kodowym, w którym znajdują się zarówno informacje na temat kodów, jak i instrukcje
dotyczące kodowania.
3. Do opracowywania danych surowych można zastosować wiele różnych narzędzi
ułatwiających późniejsze kodowanie, m.in.: arkusze wprowadzania danych, kodowanie na
marginesie arkusza, skanowanie optyczne i bezpośrednie wprowadzanie danych. Wybór
metody zależy od formatu badań i dostępnego instrumentarium technicznego. Każda metoda
ma swój wpływ na rzetelność kodowania. Ogólnie rzecz biorąc, im mniej kolejnych
przekształceń, tym dane są bardziej rzetelne. W wywiadzie wspomaganym komputerowo, ze
względu na kodowanie odpowiedzi w chwili ich udzielania, rzetelność danych jest bardzo
wysoka.
4. W naukach społecznych od wielu lat korzysta się z komputerów. Postęp techniczny
w tej dziedzinie jest ogromny i studenci mogą się zetknąć z dużymi komputerami
stacjonarnymi, z minikomputerami oraz z komputerami osobistymi. Ważną innowacją w tej
dziedzinie jest tworzenie bogatego oprogramowania komputerowego, a także możliwość
łączenia komputerów w sieć.
¦ Podstawowe terminy
arkusze wprowadzania danych 361 przeglądanie danych 363
bezpośrednie wprowadzanie danych 362 rozłączność 353
czyszczenie danych 363 schemat kodowania 352
duży komputer 365 skanowanie optyczne 362
kod 352 szczegółowość 354
kodowanie dedukcyjne 354 wyczerpywalność 354
kodowanie indukcyjne 355 zeszyt kodowy 357 kodowanie na
marginesie 362
¦ Pytania sprawdzajgce
1. Omów różnicę pomiędzy indukcyjnym i dedukcyjnym schematem kodowania.
2. Jakie są podstawowe kryteria schematu kodowania?
3. Opisz kolejne kroki procesu określania rzetelności kodowania.
4. Jakie znasz różne sposoby przekształcania danych?
¦ Ćwiczenie komputerowe
Posługując się arkuszem wprowadzania danych lub wprowadzając dane bezpośrednio
do programu SPSS (np. korzystając z modułu REVIEW w SPSS/PC+ lub NEW-DATA),
wprowadź następujące dane:
367
NR IDENT. STAN
001 WI
002 WI
003 WI
004 OH
005 OH
006 OH
007 CA
008 CA
009 CA
010 CA
STANOWISKO
dyrektor
burmistrz
burmistrz
burmistrz
burmistrz
dyrektor
dyrektor
dyrektor
dyrektor
burmistrz
POPULACJA 68 000 42 860 285 000 573 803 29386 88421 436 798 55 390 125 800
3134 388
BUDŻET/1000$ 2685 3489 42 330 88 677 1483 7456 72 698 6331 55 896 90444
wac swój plik danych. Dla wszystkich ™i™„ h ' Z d°kiadntej wyspecyfiko-
CIES i wyczyść swój zbtór d^^S^^^Tf105"011 FREQUEN' A, s. 517-528).
y ' P°szukuJ3c Wedow w kodowaniu (por. dodatek
¦ Literatura dodatkowa
Wywiał J. (1994), Przykłady wnioskowania statystycznego za pomocą
komputerowego pakietu SPSS, Warszawa: Wyd. PLJ.
Stanisz A. (1998), Przystępny kurs statystyki w oparciu o program STATISTICA PL
na przykładach
z medycyny, Kraków: StatSoft Polska Sp. z o.o. STATISTICA PL (1997), Poradnik
użytkownika, t. I: Ogólne konwencje i statystyki 1; t. II: Grafika;
t. III: Statystyki //, Kraków: StatSoft Polska Sp. z o.o.
Rozdział 15
Rozkład jednej zmiennej
Rola statystyki 371
Rozkłady częstości 371
Rozkład częstości dla zmiennych interwałowych 372 Rozkład procentowy 373
Graficzna prezentacja rozkładów 375
Wykres kołowy 375 Wykres słupkowy 376 Histogram 378
Miary tendencji centralnej 379
Wartość modalna 379
Mediana 380
Inne miary położenia 382
Średnia arytmetyczna 383
Porównanie mody, mediany i średniej 385
Podstawowe miary rozproszenia 386
Miara zróżnicowania jakościowego 387 Rozstęp i rozstęp ćwiartkowy 390
Miary rozproszenia oparte na średniej 391
Wariancja i odchylenie standardowe 391
Wariancja i odchylenie standardowe dla danych pogrupowanych Odchylenie
standardowe — zalety i zastosowania 394 Współczynnik zmienności 394
Rodzaje rozkładów częstości 396
Krzywa normalna 397 Wyniki standardowe 398
Podsumowanie 400
Podstawowe terminy 401
Pytania sprawdzające 401
Ćwiczenia komputerowe 403
Literatura dodatkowa 403
W jaki sposób zmiany ekonomiczne kształtują życie kobiet? Po II wojnie światowej,
wspólnym wysiłkiem rządów Porto Rico i Stanów Zjednoczonych, Porto Rico zostało
uprzemysłowione. Transformacja kraju rolniczego w kraj nisko płatnych usług i przemysłu
fabrycznego zwiększyła zapotrzebowanie na pracę kobiet i zmniejszyła zapotrzebowanie na
pracę mężczyzn. Barbara Zsembik i Chuck Peek starali się zbadać potencjalne przyczyny, dla
których zamężne Portorykanki powszechnie podejmowały płatną pracę w okresie dwunastu
miesięcy od urodzenia swojego pierwszego dziecka1. Zauważyli, że począwszy od roku 1950,
Portorykanki coraz więcej inwestowały we własne wykształcenie, co przyczyniło się do
ponoszenia większych kosztów przez te kobiety, które zrezygnowały z pracy, aby
wychowywać dzieci.
Aby stwierdzić, czy inwestowanie w daną formę kształcenia jest różne u kobiet i u
mężczyzn, badacze porównali przeciętny poziom wykształcenia mężczyzn i kobiet, obliczając
dla każdej grupy średnią liczbę lat poświęconą na naukę. Okazało się, że kobiety
przeznaczyły średnio 11,74 lat na zdobywanie formalnego wykształcenia, podczas gdy
mężczyźni 11,84 lat. Można zatem sądzić, że zarówno Portorykanki, jak i Portorykańczycy
poświęcają podobną liczbę lat na zdobycie wykształcenia. Aby sprawdzić, czy niemal
jednakowe średnie wynikały z podobnych rozkładów, badacze obliczyli odchylenia
standardowe — pokazujące, jaki jest stopień rozproszenia wyników wokół średniej — dla obu
rozkładów. Otrzymana wartość odchylenia standardowego wynosiła 3,69 dla kobiet i 3,71 dla
mężczyzn. Rozkłady wyników były zatem również do siebie podobne.
W rozdziale tym opiszemy, jakie są podstawowe charakterystyki jednej zmiennej,
czyli inaczej rozkładu jednozmiennowego. Rozpoczniemy od zdefiniowania rozkładu
częstości, za pomocą którego badacze strukturalizują swoje dane dla potrzeb analizy
statystycznej. Następnie skoncentrujemy się na miarach tendencji centralnej i miarach
rozproszenia, które są wykorzystywane do opisania takiego rozkładu. Na koniec zajmiemy się
ogólnym kształtem rozkładu, zwracając szczególną uwagę na krzywą normalną.
Począwszy od roku 1950, wszystkie dyscypliny w ramach nauk społecznych zaczęły
intensywnie wykorzystywać statystykę, która się stała istotnym elementem tych nauk. Bez
statystyki nie moglibyśmy poznać wzorców ani stałych elementów badanych zjawisk. Metody
statystyczne są niezbędne, aby ustrukturalizować dane, przedstawić ważne informacje w
klarowny sposób oraz opisać i zinterpretować dane w taki sposób, aby łatwiej było ocenić
nasze hipotezy.
Słowo „statystyka" ma dwojakie znaczenie. Chociaż najczęściej wiąże sieją z liczbami
— na przykład dochodami per capita czy ze średnią liczbą rzutów do celu — to jest to
również dziedzina nauki. Tutaj rozumieć ją będziemy w drugim znaczeniu i przedstawimy
podstawowe jej zastosowania w naukach społecznych.
1 Barbara A. Zsembik, Chuck W. Peek (1994), The Effect of Economic Restructuring
on Puerto Rican Women's Labor Force Participation in the Formal Sector, „Gender and
Society", Vol. 8, Nr 4, s. 525-540.
370
I Rola statystyki
Statystyka dostarcza metod opisu i analizy danych oraz metod umożliwiających
podejmowanie decyzji czy inaczej wnioskowania o zjawisku reprezentowanym przez dane.
Metody należące do pierwszej kategorii znane są jako statystyka opisowa, należące zaś do
drugiej kategorii składają się na wnioskowanie statystyczne. Statystyka opisowa umożliwia
opracowanie i ustrukturalizowanie danych w skuteczny i sensowny sposób. Dostarcza
narzędzi pozwalających na opisanie dużych zbiorów danych i zredukowanie otrzymanych
informacji do czytelnej formy.
Wnioskowanie statystyczne pozwala podejmować decyzje na podstawie układu
danych. Badacze posługują się wnioskowaniem statystycznym, aby stwierdzić, czy otrzymane
dane są zgodne z teorią i postawionymi hipotezami. Możemy na przykład założyć, że
robotnicy są bardziej konserwatywni niż pracownicy szczebla kierowniczego. Aby stwierdzić,
czy hipoteza ta jest prawdziwa, możemy zapytać robotników i kierowników o ich poglądy
polityczne. Następnie wykorzystamy metody statystyki opisowej, aby porównać obie grupy, a
metody wnioskowania statystycznego, aby określić, czy zaobserwowane różnice są zgodne z
naszymi oczekiwaniami.
Zarówno statystyka opisowa, jak i wnioskowanie statystyczne pomaga naukowcom w
budowaniu wyjaśnień złożonych zjawisk społecznych dotyczących związków pomiędzy
zmiennymi. Statystyka dostarcza narzędzi analizowania, reprezentowania i interpretowania
tych związków.
¦ Rozkłady częstości
Po zakodowaniu i przygotowaniu danych do obróbki komputerowej można przystąpić
do ich analizy. Pierwszym zadaniem badacza jest skonstruowanie rozkładu częstości, aby
określić układ danych dla każdej ze zmiennych zależnych i niezależnych wykorzystanych w
badaniu. (Używamy zamiennie słów: reakcje, odpowiedzi, obserwacje, przypadki, działania i
zachowania). Rozkład częstości jednej zmiennej, znany jako jednozmiennowy rozkład
częstości, jest rozkładem pokazującym liczbę obserwacji w każdej kategorii tej zmiennej. Na
przykład, aby określić, jaki jest układ odpowiedzi dla takiej zmiennej jak „przekonania
religijne", można policzyć, ilu respondentów określiło się jako protestanci, katolicy, żydzi,
muzułmanie itd.
Aby skonstruować rozkład częstości, należy jedynie sporządzić listę kategorii
zmiennej i policzyć liczbę obserwacji wpadających do każdej kategorii. W tabeli 15.1
przedstawiliśmy przykład standardowej postaci jednozmiennowego rozkładu częstości.
Tabela składa się z pięciu wierszy, z których pierwsze cztery to kategorie zmiennej
(wymienione w kolumnie po lewej stronie). W kolumnie po prawej stronie podano liczbę
obserwacji wpadających do każdej kategorii. Liczba ta nazywana jest częstością i jest
zazwyczaj opisywana małą literą/. Ostatni wiersz (oznaczony jako AO pokazuje sumę
wszystkich częstości. Jeżeli kategorie są wzajemnie rozłączne, tzn. każda obserwacja została
sklasyfikowana tylko jeden raz, to ogólna liczba wszystkich częstości jest równa ogólnej
liczbie obserwacji w próbie.
371
Tabela 15.2. Rozkład częstości przypadków przemocy wobec dzieci w roku 1992
Kategoria /
Przemoc fizyczna 212281
Przemoc seksualna 129982
Zaniedbanie 449442
Ogółem 791705
Na podstawie: Alison Landes, Jacquelyn Quiram, Nancy R. Jacobs (red.) (1995),
Child Abuse: Belraying a Trust, Wyle. Texas: Information Plus, s. 33.
Porządek, w jakim badacz wymienia kategorie zmiennej w rozkładzie częstości
określany jest przez poziom pomiaru danych. Jak pisaliśmy w rozdziale 7, mamy cztery
rodzaje poziomu pomiaru danych: nominalny, porządkowy, interwałowy i ilorazowy. Na
każdym poziomie kategorie muszą być wzajemnie rozłączne i wyczerpujące. Na nominalnym
poziomie pomiaru kategorie są jedynie nazwami nie implikującymi żadnego porządku. Płeć,
pochodzenie etniczne, preferencje religijne to przykłady zmiennych nominalnych. Na
poziomie porządkowym możemy już kategorie uporządkować od najwyższych do najniższych
lub odwrotnie. Kategorie te nie odzwierciedlają jednak tego, jak dalece się różnią między
sobą. Na poziomie interwałowym i stosunkowym kategorie zmiennej odzwierciedlają
zarówno porządek, jak i wielkość różnic pomiędzy kategoriami. Jedyną różnicą pomiędzy
interwałowym i ilorazowym poziomem pomiam jest rzeczywisty punkt zerowy skali
ilorazowej, który pozwala powiedzieć na przykład, że jedna kategoria jest dwa razy większa
niż inna.
W przypadku zmiennych nominalnych można sporządzić listę kategorii w dowolnym
porządku. Na przykład w przypadku zmiennej „płeć" zarówno kategoria „mężczyzna", jak i
„kobieta" może się pojawić pierwsza. Ponieważ jednak kategorie zmiennej porządkowej
reprezentują określony porządek, powinny być wymienione w porządku rosnącym lub
malejącym. Weźmy dla przykładu rozkład częstości przedstawiony w tabeli 15.2, który
dotyczy rządowych danych na temat przemocy wobec dzieci. Zmienna „przemoc wobec
dzieci" została podzielona na następujące kategorie: „fizyczna", „seksualna" i „zaniedbanie".
Rozkład częstości dla zmiennych interwałowych
Kiedy przedstawiamy zmienne interwałowe w postaci rozkładu częstości, musimy
najpierw podjąć decyzję dotyczącą liczby kategorii, które zastosujemy, i określić punkty
odcięcia pomiędzy nimi. Ponieważ zmienne interwałowe to zazwyczaj zmienne ciągłe, więc
podział na rozłączne kategorie ma zazwyczaj charakter arbitralny. Na przykład wiek możemy
podzielić na kategorie, licząc je co rok, co dwa lata czy co pięć lat. Podobnie, na wiele
sposobów możemy poklasyfikować dochody.
Stosowane przedziały są zazwyczaj jednakowej szerokości, jednak sama szerokość
zależy od liczby obserwacji i celu badania. Im większa liczba obserwacji, tym szerszy
przedział. Jednakże zbyt szerokie kategorie powodują, że w efekcie tracimy dużo
szczegółowych informacji. Ogólna zasada, której warto tu przestrzegać, mówi, że przedział
nie powinien być tak szeroki, aby różnica pomiędzy dwoma po-
labela 15.1. Ogólna forma jednozmiennowego rozkładu częstości
Kategoria Częstość (/)
I /
II /
III /
IV /
Ogółem N
372
miarami, które do niego wpadają, miała istotne znaczenie. Na przykład, jeżeli badamy
rozwój poznawczy i uważamy, że różnica jednego roku w wieku badanych osób nie ma
znaczenia, lecz różnica dwóch lat jest już istotna, to powinniśmy wybrać przedziały 1-2, 3-4,
5-6. W tabeli 15.3 przedstawiliśmy przedziały i częstości dla hipotetycznej populacji.
Tabela 15.3. Rozkład częstości wielkości rodzin
Wiek w latach / Granice dokładne Środek przedziału (*)
1-2 6 0,5-2,5 1,5
3-4 4 2,5-4,5 3,5
5-6 10 4,5-5,6 5,5
7-8 3 6,5-8.5 7,5
W dwóch kolumnach znajdujących się po prawej stronie podano granice przedziałów i
środki przedziałów. Posługujemy się dokładnymi wartościami granic, aby pokazać, że
zmienna ma charakter ciągły — jest to istotne wymaganie w przypadku niektórych technik
graficznego przedstawiania danych i analizy statystycznej danych. Środek przedziału jest
pojedynczą wartością, za pomocą której możemy opisać każdy przedział i można ją
wykorzystywać w obliczeniach statystycznych. Dokładne granice to granice zmiennej
interwałowej obejmujące połowę jednego roku więcej dodaną do każdej ze stron przedziału.
Szerokość przedziału w jest różnicą dokładnych wartości granic przedziału:
w=U-L,
gdzie U oznacza górną granicę, a L dolną. Szerokość dla ostatniego przedziału z tabeli
15.3 wynosi:
2 = 8,5-6,5.
Środek każdego przedziału (oznaczony jako x) to pojedyncza wartość reprezentująca
cały przedział. Uzyskuje się ją, dodając połowę szerokości przedziału do jego dolnej granicy:
x=l + wl2.
Zatem dla drugiego przedziału klasowego z tabeli 15.3 środek przedziału wynosi:
x = 2,5 + 2/2 = 3,5.
Rozkład procentowy
Przedstawienie danych w postaci rozkładu częstości dla jednej zmiennej jest zaledwie
pierwszym krokiem analizy. Częstości trzeba teraz zamienić w takie miary,
373
które mają znaczenie interpretacyjne. Sam rozkład częstości nie ma znaczenia
interpretacyjnego — musi zostać porównany z innymi rozkładami. Można na przykład ocenić,
czy 2000 zarejestrowanych demokratów to istotna liczba jedynie w stosunku do mieszkańców
pewnej społeczności, w stosunku do wszystkich zarejestrowanych wyborców, w stosunku do
liczby zarejestrowanych republikanów czy w stosunku do liczby zarejestrowanych
demokratów w innych okręgach.
Aby ułatwić porównania, można przekształcić częstości w proporcje procenty.
Proporcje otrzymamy, dzieląc częstość danej kategorii przez ogólną liczbę odpowiedzi. Kiedy
pomnożymy je przez 100, proporcja staje się procentem. Proporcje wyraża się symbolicznie
jako f/N, a procenty jako f/Nx 100. Zarówno proporcje, jak i procenty odzwierciedlają
względną wagę określonej kategorii rozkładu. Na przykład względna waga kategorii
„przemoc fizyczna" z tabeli 15.2 jest wyrażana proporcją 212281/791705 = 0,268 lub w
postaci procent 212281/791 705 x 100 = 26,8%. Dane te wskazują, że przynajmniej jedno
dziecko na dwoje, które doświadcza przemocy, doświadcza przemocy fizycznej.
Tabela 15.4. Klasa społeczna — rozkład danych: populacja
białych (częstości bezwzględne i procenty)
KJasa społeczna / Procent
Klasa wyższa 25 5
Klasa średnia 221 48
Klasa robotnicza 201 43
Klasa niższa 16 4
Ogółem (N) 463 100
Zródlo: General Social Survey, 1988-1991.
Proporcje i procenty pozwalają na porównanie dwóch lub więcej rozkładów częstości.
Weźmy na przykład przedstawiony w tabelach 15.4 i 15.5 rozkład danych dotyczących klasy
społecznej czarnych i białych respondentów. Dane te zostafy uzyskane w Generalnym
Sondażu Społecznym — GSS (1988-1991). (Więcej infor-
Tabela 15.5. Klasa społeczna — rozkład danych: populacja czarnych (częstości
bezwzględne i procenty)
Klasa społeczna f Procent
Klasa wyższa 14 7
Klasa średnia 82 39
Klasa robotnicza 93 44
Klasa niższa 22 10
Ogółem (N) 211 100
Zródlo: General Social Survey, 1988-1991.
374
macji na temat Generalnego Sondażu Społecznego można znaleźć w dodatku A).
Chociaż liczba osób należących do klasy pracującej jest większa w przypadku białych niż
czarnych respondentów (201 w stosunku do 93), to bezpośrednie porównanie częstości
bezwględnych prowadzi do błędu, gdyż różna jest liczba respondentów JV w każdej z
populacji. Aby ocenić względną wagę każdej z klas w każdym z rozkładów, trzeba
przekształcić częstości na procenty. Dane procentowe pokazują, że nasze pierwsze wrażenie
wypływające z oceny częstości bezwględnych było błędne. Klasa pracująca jest niemal
jednakowa w każdej z populacji — 43% w populacji białych i 44% w populacji czarnych.
Nowe dane sprawiają, że porównania między populacjami stają się łatwiejsze.
I Graficzna prezentacja rozkładów
Rozkład częstości jest sposobem prezentacji danych w społeczności badaczy —
czasami również dla opinii publicznej. Niektórzy mają jednak kłopoty z czytaniem i
rozumieniem danych tabelarycznych. Graficzna prezentacja danych jest alternatywną metodą
przedstawiania informacji wyrażonych w postaci rozkładu częstości. Posługując się
wykresami graficznymi, można przekazywać informacje w bardziej skuteczny sposób.
Najczęściej wykorzystywanymi rodzajami wykresów graficznych są: wykres kołowy, wykres
słupkowy i histogram. Zarówno wykres kołowy, jak i słupkowy można stosować do
przedstawiania danych nominalnych i porządkowych. Dla danych interwałowych używa się
histogramu.
Wykres kołowy
Wykres kołowy obrazuje różnice pomiędzy częstościami czy procentami uzyskanymi
dla zmiennych nominalnych i porządkowych, wyrażając je w postaci części koła.
Poszczególne segmenty, aby je wyodrębnić, są albo w różnym stopniu zacienio-wane, albo
różnie zakreskowane. Ich suma wynosi 100% lub jest równa ogólnej liczbie obserwacji. Jeden
wykres kołowy może być wykorzystywany do reprezentowania pojedynczego rozkładu —
dwa lub więcej do porównywania rozkładów. Jeżeli chcemy podkreślić jakiś rodzaj danych,
to możemy „wyciąć" jeden z segmentów wykresu, aby w ten sposób zwrócić na niego uwagę.
W tabeli 15.6 przedstawiliśmy rozkład częstości opinii na temat wydatków rządowych
przeznaczonych na opiekę nad dziećmi pochodzącymi z biednych rodzin oraz dziećmi,
których rodzice pracują. Dane te świadczą, że ludzie chętniej popierają wydatki rządu
przeznaczone dla dzieci biednych (16% odpowiedzi w kategorii „znacznie więcej" i 45%
odpowiedzi w kategorii „więcej") niż dla dzieci, których rodzice pracują (11% odpowiedzi w
kategorii „znacznie więcej" i 26% odpowiedzi w kategorii „więcej").
Na wykresie kołowym na rycinie 15.1 przedstawiono te same informacje co w tabeli
15.6. Zauważmy, że części odpowiadające kategoriom „znacznie więcej" i „więcej" zostały
wycięte, aby uwypuklić różnice pomiędzy poparciem dla wydatków rządu w obu grupach.
Wykres kołowy umożliwia szybkie dostrzeżenie różnic między grupami bez konieczności
analizowania rozkładu częstości.
375
Tabela 15.6. Opinie dotyczące wydatków rządu dla dzieci

Dzieci Dzieci
Rząd powinien z biednych rodzin rodziców pracujących
% %
Znacznie zwiększyć wydatki 16 11
Zwiększyć 45 26
Zostawić je bez zmian 33 39
Zmniejszyć 5 16
Znacznie zmniejszyć wydatki 1 8
Ogółem 100 100
Źródło: General Social Survey, 1991.
Znacznie zwiększyć 16%
Zwiększyć
Zwiększyć 26%
Znacznie zmniejszyć 1%
Zmniejszyć 5%
Zostawić je bez zmian 33%
Opinie dotyczące poziomu
wydatków dla dzieci
z biednych rodzin
Opinie dotyczące poziomu wydatków dla dzieci rodziców pracujących
Ryc. 15.1. Opinie dotyczące wydatków rządu na pomoc dla dzieci z biednych rodzin i
dla dzieci rodziców pracujących
Wykres słupkowy
Podobnie jak wykres kołowy, wykres słupkowy jest narzędziem przedstawiania
danych nominalnych i porządkowych. W odróżnieniu od wykresu kołowego na wykresie
słupkowym można jednocześnie przedstawić więcej niż jeden rozkład częstości. Wykres
słupkowy tworzy się, nanosząc kategorie zmiennej na osi poziomej i rysując — dla każdej
kategorii — prostokąty o jednakowej szerokości. Wysokość każdego prostokąta jest
proporcjonalna do liczby lub procentu przypadków w tej kategorii. Wykres słupkowy można
konstruować albo poziomo, albo pionowo. Na rycinie 15.2 przedstawiliśmy wykres pionowy.
Wykres poziomy jest konstruowany w ten sam sposób, lecz kategorie zmiennej są
umieszczane na osi pionowej, a prostokąty rysuje się poziomo.
376
zbyt małe
wystarczające Postawy wobec wydatków
zbyt duże
Ryc. 15.2. Postawy wobec wydatków rządu na pomoc społeczną i zasiłki
Tabela 15.7. Opinie dotyczące wydatków rządu na pomoc społeczną i zasiłki
Wydatki rządu Pomoc społeczna Zasiłki
% . %
Zbyt małe 54,7 23,5
Wystarczające 41,0 36,9
Zbyt duże 4,3 39,6
Ogółem 100 100
Źródło: General Social Survey, 1991.
W tabeli 15.7 przedstawiliśmy rozkład częstości postaw wobec wydatków rządu
przeznaczanych na pomoc społeczną i zasiłki. Rozkład częstości odpowiedzi dla zmiennej
„pomoc społeczna" pokazuje, że większość respondentów popiera ten sposób pomocy ze
strony rządu (jedynie 4,3% respondentów uważa, że pomoc ta jest zbyt duża). Rozkład
częstości dla drugiej zmiennej („zasiłki") pokazuje natomiast, że opinie ludzi są tu bardziej
wyrównane i że wiele osób zaakceptowałoby cięcia rządu w tym zakresie (aż 39,6% uważa,
że wydatki te są za duże).
Na rozkładzie słupkowym na rycinie 15.2 zobrazowano odmienne postawy wobec
wydatków rządu na pomoc społeczną i zasiłki. Przylegające do siebie dwa prostokąty
reprezentują dwie zmienne — pomoc społeczną i zasiłki. Zauważmy, że prostokąty
reprezentujące różne zmienne są ukazane kontrastowo, co ułatwia porównania i każda
kategoria zmiennej „postawa wobec wydatków" obejmuje dwa prostokąty.
377
Histogram
Histogramami posługujemy się po to, aby graficznie przedstawić rozkład częst dla
zmiennej interwałowej i stosunkowej. Histogram przypomina wykres słupko jednak bez
przerw pomiędzy kolejnymi prostokątami. Prostokąty są umieszc jeden po drugim, aby
pokazać, że zmienna ma charakter ciągły, a interwały -w miejsce rozłącznych kategorii — są
umieszczane wzdłuż osi poziomej. Wysokość prostokątów histogramów odzwierciedla
procent lub częstość w danym interwale. W odróżnieniu od wykresu słupkowego histogram
nie pozwala na przedstawienie informacji dotyczących więcej niż jednego rozkładu. W tabeli
15.8 i na rycinie 15.3 przedstawiono rozkład zgonów z powodu AIDS, jaki zanotowano
wiatach 1982-1991 w różnych grupach wiekowych.
Tabela 15.8. Rozkład danych dotyczących liczby zgonów z powodu AIDS w latach
1982-1991
Procent zgonów z powodu AIDS wieK
%
Poniżej 13 1
13-29 19
30-39 45
40-49 23
50-59 8
60 i więcej 4
Ogółem 100
Źródło: Statistical Abslracl, 1992.
poniżej 13 13-29 30-39 40-49 50-59
60 i więcej
wiek
Ryc. 15.3. Rozkład danych dotyczących liczby zgonów z powodu AIDS w latach
1982-1991
Źródło: United States Bureau of the Census: Statistical Abstracts oflhe United States:
1992, Washington. DC., 1992.
378
I Miary tendencji centralnej
Jeżeli wymagany jest jedynie skrótowy opis wyników, to nie ma konieczności
przedstawiania całego rozkładu. Gdybyśmy — opisując poziom wykształcenia Amerykanów
— posłużyli się rozkładem częstości, byłoby to raczej mało efektywne. Zamiast tego można
podkreślić, że większość Amerykanów ma wykształcenie średnie i że bredni poziom
wykształcenia w Stanach Zjednoczonych to dwanaście lat nauki.
W większości rozkładów zebrane obserwacje mają tendencję do gromadzenia się
wokół centralnej wartości. Na przykład, rozkład dochodów można scharakteryzować za
pomocą najczęściej powtarzającej się wartości lub średnich dochodów. Podobnie rozkład
opinii również ma tendencję do skupiania się wokół pewnego zakresu. Cecha ta sprawia, że
cały rozkład można przedstawić za pomocą jednej wartości zamiast rozbudowanej tabeli.
Zatem porównanie dwóch rozkładów staje się znacznie łatwiejsze. Na przykład można
porównać przeciętne dochody w Stanach Zjednoczonych z przeciętnymi dochodami w
Wielkiej Brytanii, czy też porównać przeciętne wyniki w teście inteligencji studentów w Rosji
z przeciętnymi wynikami studentów amerykańskich.
Miary statystyczne odzwierciedlające „typowe" czy „przeciętne" charakterystyki
rozkładu częstości nazywane są miarami tendencji centralnej. Naukowcy najczęściej
posługują się trzema miarami: wartością modalną, medianą i średnią arytmetyczną.
Wartość modalna
Wartość modalna to kategoria lub obserwacja, która w rozkładzie powtarza się
najczęściej. Stosowana jest jako miara tendencji centralnej przeważnie w stosunku do
zmiennych nominalnych. Określa się ją, znajdując tę kategorię, do której wpada największa
liczba przypadków. Rozważmy na przykład rozkład częstości w kategoriach religijnych
przedstawiony w tabeli 15.9. Rozkład ten składa się z pięciu kategorii. Pierwsza kategoria,
protestanci, jest najbardziej dominująca, dlatego ta kategoria jest wartością modalną naszego
rozkładu.
Tabela 15.9. Rozkład częstości w kategoriach religijnych
Kategorie religijne /
Protestanci 62
Katolicy 52
Żydzi 10
Muzułmanie 12
Buddyści 2
Ogółem (AO 138
Większość rozkładów to rozkłady jednomodalne, tzn. zawierające tylko jedną
kategorię, w której mieści się większość przypadków. Czasami jednak rozkład jest
dwumodalny, tj. zawiera dwie takie kategorie. Z sytuacją taką mamy najczęściej do
379
ryla-
czynienia wówczas, gdy rozkład opisuje dwie populacje. Na przykład rozkład wzro- j
stu jest dwumodalny, łączy bowiem dane zarówno dla kobiet, jak i dla mężczyzn. Każda płeć
natomiast jest charakteryzowana przez inną typową wartość wzrostu. |
Zaletą wartości modalnej jest łatwość jej określania na podstawie rozkładu częstości.
Może zatem być stosowana jako pierwszy i szybki wskaźnik tendencji centralnej rozkładu.
Chociaż wartość modalną można bardzo łatwo określić, trzeba jednak pamiętać, że jest to
wskaźnik bardzo wrażliwy. Jej pozycja może się przesuwać wraz ze zmianami sposobu
kategoryzacji zmiennej. Dlatego nie jest to stabilna miara tendencji centralnej.
Mediana
Mediana to miara pozycyjna dzieląca rozkład na dwie równoliczne części.
Definiowana jest jako wartość rozkładu, która znajduje się dokładnie w połowie pomiędzy
najmniejszą i największą wartością rozkładu. Na przykład w szeregu 1, 3, 4. 6, 7 mediana
wynosi 4. Medianę można obliczyć jedynie dla tych danych, które dadzą się uporządkować,
dlatego można ją stosować dla danych porządkowych i wyższych.
Medianę oblicza się z danych nie pogrupowanych poprzez znajdowanie środkowej
obserwacji. Przy nieparzystej liczbie przypadków medianą jest (N+ l)/2 obserwacja, gdzie N
oznacza liczbę przypadków. Rozważmy następujący zbiór dziewięciu obserwacji:
6,9, 11, 12, 16, 18,21,24,30
T
mediana
Piąta obserwacja [(9+ l)/2] dzieli ten zbiór na połowy. Medianą zatem jest piąta
obserwacja w szeregu, a jej wartość wynosi 16. W przypadku zbioru parzystego mediana
mieści się w środku pomiędzy dwoma środkowymi obserwacjami i oblicza się ją jako średnią
z N/2 i zV/2 + 1 obserwacji. Na przykład w zbiorze obserwacji:
1, 3, 4, 5, 6, 7, 8, 9
T
mediana
medianą jest średnia wartości czwartej (8/2) i piątej (8/2+1) obserwacji, tj. (5 + 6)/2 =
5,5.
Dla danych pogrupowanych medianę oblicza się, dokonując interpolacji wewnątrz
przedziału zawierającego środkową obserwację. Wzór pozwalający znaleźć medianę jest
następujący:
Md=L +
/V(0,5) - cl
poniżej
/
w,
(15.1)
gdzie Md — mediana, L — dolna granica przedziału zawierającego medianę,
c/poniżej — skumulowana suma częstości poniżej przedziału zawierającego medianę,
380
/— częstość przedziału zawierającego medianę, w — szerokość przedziału
zawierającego medianę, N — ogólna liczba przypadków.
Tabela 15.10. Hipotetyczny rozkład wieku dla 134 przypadków
Dokładne granice Częstość Procent
Wiek przedziałów / skumulowana cf skumulowany c
1-10 0,5-10,5 10 10 7
11-20 10,5-20,5 12 22 16
21-30 20,5-30,5 17 39 29
31-40 30,5-40,5 21 60 45
41-50 40,5-50,5 25 85 63
51-60 50,5-60,5 20 105 78
61-70 60,5-70,5 18 123 92
71-80 70,5-80,5 11 134 100
N 134 134
Aby zilustrować sposób obliczania mediany z danych pogrupowanych, posłużymy się
danymi przedstawionymi w tabeli 15.10, w której przedstawiono rozkład wieku dla 134 osób.
Dane te zostały podzielone na osiem grup o szerokości 10 lat. Ponieważ mamy 134
obserwacje (7V= 134), więc medianą będzie wartość sześćdziesiątej siódmej obserwacji
[134(0,5) = 67]. W kolumnie, w której przedstawiono częstości skumulowane, możemy
odczytać, że poniżej przedziału 41-50 znajduje się 60 obserwacji, a sam przedział 41-50
zawiera jeszcze 25 obserwacji. Sześćdziesiąta siódma obserwacja będzie się zatem
znajdowała w tym przedziale. Aby ustalić, ile dokładnie wynosi mediana, musimy określić,
jaki wiek odpowiada siódmemu przypadkowi w tym przedziale. Te siedem przypadków to
7/25 = 28% wszystkich przypadków w tym przedziale. Ponieważ szerokość przedziału
wynosi 10, przeto należy dodać 28% z 10 (2,8) do dolnej granicy przedziału zawierającego
medianę. Mediana wynosi zatem 40,5 + 2,8 = 43,3. Poniższe równanie obejmuje wszystkie te
kroki:

10 = 40,5+ (—ll0 = 40,5 + 2,8=:43,3-


Bardzo często chcemy raczej znaleźć przedział, w którym znajduje się mediana, niż
określić jej dokładną wartość. Aby wyznaczyć taki przedział, możemy wykorzystać
skumulowany rozkład częstości. W tabeli 15.10 zostały również przedstawione skumulowane
dane procentowe. Chcąc znaleźć przedział mediany, należy określić, w jakim przedziale
znajduje się 50% skumulowanych obserwacji. Przedział wiekowy 31-40 zawiera 45%
skumulowanych obserwacji, a przedział wiekowy 41-50 63%, dlatego też 50%
skumulowanych obserwacji musi znajdować się w przedziale 41-50.
Md = 40,5 +
134(0,5) - 60 25
381
Tabela 15.11. Mediana lat nauki
Biali Czarni
Mężczyźni
Mieszkańcy ośrodków miejskich 12,1 8,7
Mieszkańcy dzielnic podmiejskich 12,1 9.7
Mieszkańcy okręgów wiejskich 12,3 8,9
Kobiety
Mieszkanki ośrodków miejskich 12,1 10,5
Mieszkanki dzielnic podmiejskich 12,3 10,7
Mieszkanki okręgów wiejskich 11,8 8,0
Tabela 15.11, podająca dane obrazujące poziom wykształcenia dla dwunastu grup, jest
przykładem wykorzystania mediany. Badacze porównali medialne wy- i kształcenie obliczone
dla każdej grupy. Mediana jest sposobem przedstawienia danych dotyczących wykształcenia
dla każdej z dwunastu populacji w postaci jednej wartości. Na przykład 50% białych
mężczyzn mieszkających na wsi uczyło się przynajmniej przez 12,3 roku, podczas gdy
mediana dla czarnych mężczyzn mieszkających na wsi wynosi tylko 8,9 roku.
Inne miary położenia
Czasami warto znaleźć wartości, które dzielą rozkład nie na dwie, lecz na trzy, cztery
lub dziesięć grup. Na przykład dział przyjęć uniwersytetu, który zdecydował przyjąć jedną
czwartą spośród wszystkich kandydatów, będzie zainteresowany wyodrębnieniem grupy 25%
osób, które na egzaminie wstępnym uzyskały najwyższe oceny. Mediana zatem to
specyficzny przypadek ogólniejszego zbioru miar położenia, nazywanych centylami. N-ty
centyl to liczba, poniżej której znajduje się n procent przypadków i powyżej której znajduje
się (100-«) przypadków. Mediana jest więc równa 50 centylowi. Innymi słowy jest to liczba,
powyżej której i poniżej której znajduje się 50% obserwacji. Wspomniany dział przyjęć
uniwersytetu będzie chciał wiedzieć, ile wynosi 75 centyl, nazywany również kwartylem
górnym {Q}). Kwartyl górny jest to punkt, powyżej którego znajduje się 25% wyników.
Równanie (15.1) można tak przekształcić, aby pozwalało na obliczenie wartości 75
centyla, 25 centyla (nazywanego też kwartylem dolnym Q,) czy na przykład 10 centyla (D,).
Aby przekształcić to równanie, wystarczy wstawić odpowiednią proporcję przypadków, która
nas interesuje, i określić przedział, w którym znajduje się wynik naszych poszukiwań.
Przedstawione niżej równania (15.2)-(15.4) pozwalają na obliczenie Qu Q3 i Dx:
Q,=L +
/V(0,25) - c/pc /
w,
(15.2)
382
e3=i+
JV(0,75) ~ c/pt /
w,
(15.3)
D,=L +
M0,10)-c/pc
./'
w.
(15.4)
Na przykład na podstawie danych z tabeli 15.10 można obliczyć 10 centyl:
D, = 10,5 +
134(0,10)- 10
12
l^-|l
Średnia arytmetyczna
Średnia arytmetyczna jest najczęściej stosowaną miarą tendencji centralnej. Chociaż
zarówno wartość modalna, jak i mediana są traktowane jak wartości przeciętne, to średnia
arytmetyczna jest tym, co większość ludzi rozumie przez to pojęcie. Kiedy mówimy o
średnich wynikach w teście czy o średnim wzroście zawodowego koszykarza, zazwyczaj
mamy na myśli średnią arytmetyczną. Średnia arytmetyczna jest miarą, którą można stosować
dla danych interwałowych, a określenie jej wartości wymaga obliczeń matematycznych. Jest
ona również wykorzystywana jako podstawa konstruowania innych miar statystycznych.
Średnia arytmetyczna jest definiowana jako suma wszystkich obserwacji podzielona przez ich
liczbę. W zapisie symbolicznym średnia arytmetyczna to
X=
^1
N'
(15.5)
gdzie X — średnia arytmetyczna, Lx — suma wszystkich obserwacji, N — liczba
obserwacji. Dla następujących danych: 6, 7, 12, 11, 10, 3, 4, 1 średnia arytmetyczna X wynosi
zatem: 54/8 = 6,75.
Obliczając średnią z rozkładu częstości, nie trzeba dodawać do siebie wszystkich
wartości. Wystarczy przypisać każdej kategorii właściwą wagę, mnożąc ją przez częstość, i
zastosować następujące równanie:
N
(15.6)
gdzie EfX — suma wszystkich kategorii pomnożonych przez ich częstość.
W tabeli 15.12 przedstawiono dane dotyczące liczby lat nauki dla 34 osób. Średnią
liczbę lat nauki możemy obliczyć, stosując równanie (15.6). Aby obliczyć wartość LfX
(kolumna 3), pomnożyliśmy wartość każdej kategorii (kolumna 1) przez jej częstość
(kolumna 2) i zsumowaliśmy wszystkie iloczyny. Średnia liczba lat nauki wynosi zatem:
- 278
X=----=8,18.
34
383
Równanie (15.6) można również stosować dla danych pogrupowanych. Wówczas za
środek przedziału przyjmujemy wartość x. Na przykład, obliczając średnią wielkość rodziny
dla danych przedstawionych w tabeli 15.13, do obliczeń wykorzystujemy jedynie środek
każdego przedziału:
- 51
X= — = 2,83. 18
Tabela 15.12. Rozkład lat nauki
Liczba lat nauki / &
(1) (2) (3)
2 3 6
3 2 6
6 5 30
8 10 80
10 8 80
12 4 48
14 2 28
Ogółem W=34 2!/2r*278
Tabela 15.13. Wielkość rodziny dla wybranej grupy respondentów
Wielkość rodziny
Środek przedziału
/
fX
0-2 1 10 10
3-5 4 5 20
6-8 7 3 21
Ogółem /V=18 ZfX=5i
W odróżnieniu od wartości modalnej i mediany, obliczając średnią arytmetyczną,
uwzględniamy wszystkie wartości rozkładu, co sprawia, że jest ona szczególnie wrażliwa na
wartości skrajne. Na przykład, jeżeli jedna osoba na dziesięć zarabia 60000$ rocznie, a
pozostałe osoby zarabiają po 5000$, to średnie zarobki w tej grupie wyniosą 10500$. Wartość
ta nie jest jednak dobrą reprezentacją tego rozkładu. Średnia arytmetyczna jako miara
tendencji centralnej może zatem wprowadzać w błąd, gdy niektóre z wartości w zbiorze
danych są bardzo niskie lub bardzo wysokie.
Przykład 15.1 ilustruje procedurę obliczania trzech miar tendencji centralnej.
384
Przykład 15.1
Obliczanie trzech miar tendencji centralnej
Wartość modalna = kategoria, do której wpada najwięcej przypadków = 9
Każda * reprezentuje jedną obserwację Ogólna liczba przypadków = 39
6* 8 * **9 * ** * 5
4 * * * *
* * * * * 3
2 * * * * * *
* * * * » * * 1 1
* * * * * * * * *
5 6 7 8 9 10 11 12 13
wartość zmiennej
Mediana = punkt środkowy = (N + l)/2 = (39+ l)/2 = 20 5 5
666677777788888888999999999 10 10 10 10 10 11 11 11 12 13
T Punkt środkowy = dwudziesty przypadek = 8 Średnia arytmetyczna =
5x2= 10
6 x 4 = 24
7 x 6 = 42
8 x 8 = 64 9x9 = 81
10 x 5 = 50
11 x3 = 33
12 x 1 = 12 13x1 = 13
329 / 39 = 8,44 (ogółem) (przypadki) (średnia)
Porównanie mody, mediany i średniej
Wszystkie trzy miary tendencji centralnej można wykorzystywać do opisywania
rozkładów jećmozmiermowych. Każda z ruch ma jednak swoje właściwości, które określają i
ograniczają ich stosowanie. Wartość modalna wskazuje na ten punkt, który ma największą
gęstość, mediana jest środkowym punktem rozkładu, a średnia arytmetyczna to przeciętna
wartość wszystkich obserwacji. Dlatego miar tych nie można stosować automatycznie. Skąd
zatem badacz wie, kiedy zastosować daną miarę tendencji centralnej? Na to pytanie nie ma
prostej odpowiedzi — zależy ona
385
od celu badania. I tak na przykład, jeżeli badacz chciałby poznać przeciętny pozi
dochodów całej grupy, aby określić, ile każda z osób zarabiałaby, gdyby wszys mieli
jednakowe dochody, to średnia arytmetyczna byłaby tu najbardziej odpowiednia, ponieważ
dzięki niej zostałyby uwzględnione zarówno najniższe, jak i najniższe dochody. Jeżeli
natomiast urzędnik chciałby się dowiedzieć, która z osób z tej grupy ma prawo do pomocy
społecznej, to najlepszą miarą będzie wartość modalna. ponieważ pokaże nam, jakie dochody
są najbardziej typowe, a na miarę tę nie wpłyną dochody skrajne.
Badacz powinien również wziąć pod uwagę poziom pomiaru analizowanej zmiennej,
podejmując decyzję o wyborze miary tendencji centralnej. Wartość modalna można stosować
dla wszystkich poziomów pomiaru, lecz dla zmiennych nominalnych, takich jak
przynależność partyjna, jest to jedyna poprawna miara. Medianę można wykorzystać dla
zmiennych porządkowych takich, jak postawy polityczne, lecz można za jej pomocą opisywać
również dane uzyskane na wyższym poziomie pomiaru. Średnią arytmetyczną możemy
natomiast zastosować w przypadku danych interwałowych i ilorazowych, takich jak dochody
czy wiek.
Trzy miary tendencji centralnej
¦ Wartość modalna. Jest to kategoria, do której wpada najwięcej przypadków, lub
obserwacja pojawiająca się najczęściej w zbiorze danych.
¦ Mediana. Jest to obserwacja, kategoria lub przedział, który dzieli rozkład na dwie
równe części. Aby znaleźć medianę dla nieparzystej liczby danych nie pogrupowanych,
należy uporządkować wszystkie obserwacje w porządku rosnącym i znaleźć wynik środkowy.
W wypadku parzystej liczby obserwacji mediana znajduje się między dwoma środkowymi
wynikami. Aby znaleźć medianę dla danych pogrupowanych, należy wykorzystać równanie
(15.1). Mediana jest jednym z przykładów grupy miar nazywanych centylami. Równanie
(15.1) można tak przekształcić, aby na jego podstawie obliczać dowolny centyl. Równania
(15.2), (15.3) i (15.4) są przykładami takich przekształceń.
¦ Średnia arytmetyczna. Średnia jest równa sumie wszystkich obserwacji podzielonej
przez ich liczbę. Równanie (15.5) pozwala obliczyć średnią dla danych nie pogrupowanych, a
równanie (15.6) dla danych pogrupowanych.
¦ Podstawowe miary rozproszenia
Miary tendencji centralnej pozwalają na ustalenie najbardziej reprezentatywnej
wartości rozkładu i pozwalają badaczom na przedstawienie danych w skomasowanej postaci.
Jednak nie zawsze miary te dostarczają wszystkich niezbędnych informacji o rozkładzie.
Weźmy na przykład pod uwagę następujące dwa rozkłady:
1) 8, 8, 9, 9, 9, 10, 10, 10, 10, 10, 11, 11, U, 12, 12;
2) 4, 5, 6, 7, 8, 9, 10, 10, 10, 11, 12, 13, 14, 15, 16.
386
W obu grupach średnia, mediana i wartość modalna wynoszą dokładnie 10 i możemy
opisać oba rozkłady za pomocą którejś z miar tendencji centralnej. Jednakże taki opis może
sugerować, że oba rozkłady są takie same, podczas gdy wyraźnie widać, że tak nie jest. W
pierwszym rozkładzie uzyskane wartości koncentrują się wokół centralnej wartości, w drugim
są zdecydowanie bardziej rozproszone. Pełen opis każdego rozkładu wymaga zmierzenia
również stopnia rozproszenia wyników wokół wartości centralnej. (W tym omówieniu
będziemy się zamiennie posługiwać terminami „rozproszenie", „rozrzut" i „zmienność").
Rzeczywiste obserwacje są rozproszone wokół wielu wartości i w różnych rozkładach zakres
tego rozproszenia jest różny. Dwie klasy mogą na przykład uzyskiwać te same średnie
stopnie, jednak jedna z klas może się składać zarówno z dobrych, jak i słabych uczniów,
podczas gdy do drugiej mogą chodzić uczniowie przeciętni. Podobnie rozkłady dochodów
posiadające tę samą średnią mogą się różnić rozproszeniem obserwacji. W niektórych
rozkładach większość dochodów koncentruje się wokół średniej, w innych dochody są bardzo
rozproszone. Aby opisać stopień rozproszenia wyników wokół średniej arytmetycznej,
posługujemy się tzw. miarami rozproszenia. Z miar tych omówimy miary zróżnicowania
jakościowego, rozstęp, odchylenie średnie, wariancję, odchylenie standardowe i
współczynnik zmienności.
Miara zróżnicowania jakościowego
Zakres rozproszenia rozkładu zmiennych nominalnych można oszacować, posługując
się wskaźnikiem heterogeniczności, znanym jako miara zróżnicowania jakościowego (1QV).
Wskaźnik ten odzwierciedla liczbę różnic pomiędzy kategoriami rozkładu, a jest oparty na
liczbie kategorii i ich liczebnościach. Ogólnie rzecz biorąc, im większa liczba kategorii, tym
większe są całkowite różnice pomiędzy nimi, a więc tym większy jest stopień zróżnicowania.
Zatem im mniejsza liczba kategorii i mniejsze różnice pomiędzy nimi, tym mniejsze
zróżnicowanie rozkładu. Weźmy pod uwagę dane dotyczące rasy i pochodzenia etnicznego
dla dwóch stanów — Nowy Meksyk i Vermont. Populacja stanu Vermont składa się przede
wszystkim (choć nie jedynie) z białych mieszkańców. Z kolei w stanie Nowy Meksyk jedynie
około połowy populacji to osoby białe. Część populacji stanowią głównie osoby pochodzenia
hiszpańskiego, w mniejszym stopniu amerykańscy Indianie, a także przedstawiciele innych
ras. Stopień zróżnicowania zależy od składu „rasowo-etnicznego" danego stanu. Jeżeli
większość osób należy do jednej grupy rasowo-etnicznej, to liczba różnic w zakresie rasy
będzie stosunkowo niewielka. I odwrotnie, jeżeli większość osób wpada do różnych grup
rasowo-etnicznych, to liczba różnic będzie duża. W stanie Vermont zróżnicowanie jest
niewielkie, a w Nowym Meksyku duże. Miara zróżnicowania jakościowego oparta jest na
stosunku ogólnej liczby różnic w rozkładzie do maksymalnej liczby różnic możliwych dla
tego rozkładu.
Obliczanie ogólnej Wczby różnic, kty xv\a\eić o%óYcą \\cx\^ różnic &\a danego
rozkładu, należy policzyć i zsumować kolejne różnice pomiędzy daną kategorią a każdą
pozostałą kategorią. Na przykład w grupie składającej się z 50 osób białych i 50 osób
czarnych będziemy mieli 50 x 50 = 2500 różnic rasowych. Z kolei w grupie składającej się z
70 białych i 30 czarnych osób pojawi się 2100 takich różnic, a w grupie składającej się ze 100
białych i żadnej osoby o czarnym kolorze skóry takich różnic będzie 100x0 = 0.
387
Procedurę obliczania ogólnej liczby różnic możemy wyrazić w postaci następu- !
jącego równania:
ogólna liczba różnic = Efjj, iźj, (15.7)
gdzie /, — liczebność kategorii i,fj — liczebność kategorii j. Na przykład w grupie
składającej się z 20 katolików, 30 żydów i 10 muzułmanów wystąpi (2Ox30)ł + (20 x 10) +
(30 x 10) = 1100 różnic dotyczących wyznania religijnego.
Obliczanie maksymalnie możliwej liczby różnic. Ponieważ każdy rozkład ma różną
liczbę kategorii i różna jest ich liczebność, więc wielkość ogólnej liczby zaobserwowanych
różnic może zostać zinterpretowana jedynie wtedy, gdy przedstawimy ją na tle maksymalnie
możliwej liczby różnic. Porównując zaobserwowaną liczbę różnic z maksymalnie możliwą
liczbą różnic, kontrolujemy te czynniki. Z maksymalną liczbą różnic mamy do czynienia
wtedy, kiedy liczebności wszystkich kategorii są takie same. Zatem maksymalnie możliwą
liczbę różnic obliczamy, przy jmując założenie, że liczebności wszystkich kategorii są
identyczne:
maksymalnie możliwa liczba różnic =---------- —
(15.8)
2 \nj
gdzie n — liczba kategorii rozkładu, F — liczebność ogólna. W naszym przykładzie
(grupa 20 katolików, 30 żydów i 10 muzułmanów) liczba maksymalnie możliwych różnic
wynosi
(3x2\ /60V
l—J ItJ ¦,m I
Miarą zróżnicowania jakościowego jest stosunek ogólnej zaobserwowanej liczby
obserwacji do liczby maksymalnie możliwych obserwacji. Innymi słowy:
ogólna liczba zaobserwowanych różnic
miara zróżnicowania jakościowego =----------------------------------------------,
maksymalna możliwa liczba różnic
co możemy wyrazić jako:
Ififj n(n-l) (FY ' (li9>
W powyższym przykładzie miara zróżnicowania wynosi zatem 1100/1200 = 0,92.
Miara zróżnicowania jakościowego przyjmuje wartości od zera do jedności. Zero oznacza
całkowity brak zróżnicowania, a jeden — maksymalne zróżnicowanie. Miara ta ma wartość
zero wtedy, gdy ogólna liczba różnic będzie wynosiła zero. Będzie ona natomiast równa
jeden, gdy ogólna liczba zaobserwowanych różnic będzie równa maksymalnie możliwej
liczbie różnic.
388

El
§ 3 5. »
"< o a
Ł
o
< (u
5r< O- co
— J> >— oj
O J> -fc- J>
Ul NO H-
NOONUtJi.-JJi.ONKi
OJ U> K> O <—' -O Ki NO
K>00>—'•—'00ONKi00OJO000ON00UiJ>— 4^
O -O VO OJ — On *-*
no Ki ON Ki NO OO On
J^ONaNJ^KiNOOOUiKiUiKłKiONONOOO 4>
h— On -~i
_ -o Id o 261 UJ 072 545 372 128 111 to
984 701 911 976
dc g* dc 986 040 dc ON dc 360 283 459 527 762 057
011 799 845 103 360
\ „_ ro 4> KJ K) Ui w OJ DC ksj to to _
DC KJ UJ oc Ui to
ment o Ul Ul OJ KJ Ui DC Ui DC KJ sO Ul o Ul DC OJ U) o Oj
p dc UJ dc Ui -o O o UJ DC
fComm

sl W i- h- W J> i-'Ul ONKi-0.-J4^-OKiONOOOOJ>.ONKiUJ K>


¦—'KiKi4>KłUiOO —
OO -O, UJ t—» Ut OO Ui
UiUiKJNOOOOU»004>--OUiOJ4Ni.UiJ>K> OO NOKiNOO*— 4>ON-
J4>OJJ>0—'NOOJUi -Oj
Ki - ^ >J W
Ni 4> 4i. OO Ki >—'OJ4>4>KiJ>UJONSJOJNO "UJ
NO KI NO — O O
OnJ>UinOOOOOOJOJ OO
Uii— MO OJ i—'-OjUłNOOONOOJUiUiUi-O-O,
h- 4^
Ki J> -O Ui OJ Ul
UiOOKi-PkUJONi—'Kii— f—UJ-Ojn-UJ -O.
OJOOOJJ>—'UiKi — NOJ>Ui--ONOJ>UiWD ^O
On 4> oo Ui no -O, Ki
OOOJOOOOOO^-NONO
ONOOOO>OiOOUiONO-OOKiOON4*OJO Kl i— \OJ>-JJ>-
K)KiKiONKiOUJi— OJ — Ui J>
po o o p p o o p p p p p p p p p
"O "»-* t- V* ">— "to 'Ki "to "oj "oj J> J4> "ui "ui "ui "*On "-J
4>©J>OONOUJOnOOUiNOUJOO<— Ki-JON O
1. I
3- 5' s
° g 3 i. 2- t
-< 3
(Cl
g
¦
N
¦EL <«" a ¦ 5* s_ S* 3
-5q dii
OJ3Z 1 3IUEA<
T6'0
(6-Cl)
DI
i_______•
om;
-2DII [
IO
-ZOUI
(8ST
-Azjd
-BUI rA -Z3IJ i
-qoB2
-OJ BI
+ (oe
aidru (Z.'SI
-ndS]
Na początku tej części przytoczyliśmy przykład dotyczący zróżnicowania raso- I wo-
etnicznego w dwóch stanach: Nowy Meksyk i Vermont. Stwierdziliśmy, że zróż-1 nicowanie
to jest duże w Nowym Meksyku i małe w stanie Vermont. Aby doklad-nie ocenić
zróżnicowanie w tych dwóch stanach, możemy się posłużyć miarą zróż- I nicowania
jakościowego. W tabeli 15.14 przedstawiliśmy skład populacji ze wzglę- I du na rasę i
pochodzenie etniczne i obliczyliśmy miarę zróżnicowania jakościowe- I go (IQV) dla 17
stanów. W tabeli dane zostały podane w porządku rosnącego zróż- i nicowania. Widać
wyraźnie, że w Stanach Zjednoczonych mamy do czynienia z dużym zróżnicowaniem
rasowo-etnicznym. Najbardziej zróżnicowanym stanem jes! I Nowy Meksyk, dla którego IQV
wynosi 0,70, a najbardziej homogenicznym stanem jest Vermont ze współczynnikiem
IQV=0,04.
Rozstęp i rozstęp ćwiartkowy
Rozstęp jest miarą odległości pomiędzy najwyższym i najniższym wynikiem w
rozkładzie. Na przykład w zbiorze wyników: 4, 6, 8,9, 17 rozstęp jest różnicą pomiędzy 17 a
4, czyli wynosi 13 (17 — 4 = 13). Aby obliczyć rozstęp, wszystkie obserwacje muszą zostać
uporządkowane pod względem wielkości. Zatem rozstęp 1 można stosować wtedy, kiedy
rozkład wyników osiągnął przynajmniej porządkowy I poziom pomiaru. Rozstęp ma
szczególne znaczenie, gdy zbyt mała liczba obserwa- I cji może zniekształcić obraz
rzeczywistości. Przypuśćmy na przykład, że dwie fab- 1 ryki wypłacają rocznie przeciętnie 15
000$ pensji. Rozstęp jednak jest różny dla I każdej z fabryk. W pierwszej fabryce wynosi
2000$, a w drugiej 9000$. Bez dodatkowych informacji dostarczonych przez rozstęp
wyprowadzilibyśmy błędny wnio- I sek, że skala wypłat w obu fabrykach jest taka sama.
Rozstęp jest bardzo użytecz- I nym narzędziem szybkiego uzyskiwania informacji o
zróżnicowaniu danych, jed- i nak jest to miara bardzo powierzchowna, ponieważ oparta jest
tylko na dwóch skrajnych wartościach rozkładu. Jest więc wrażliwa na zmianę wartości tylko
jed- I nego z tych wyników.
Alternatywną miarą w stosunku do rozstępu jest rozstęp ćwiartkowy będący różnicą
pomiędzy dolnym i górnym kwartylem (tj. Qx i Q3). Ponieważ jest to miara i rozproszenia
jedynie środkowej części rozkładu, nie jest tak wrażliwa na wyniki j skrajne. Zarówno dolny,
jak i górny kwarty/ będą się mniej różnić z rozkładu na I rozkład niż wyniki skrajne. Aby
zilustrować sposób obliczania rozstępu między-kwartylowego, wróćmy do przykładu
przedstawionego wcześniej w tabeli 15.10. I Dolny kwartyl Qt dla tych danych wynosi 27,76,
a kwartyl górny Q3 58,75. Wartości i te obliczyliśmy za pomocą równania (15.2) oraz (15.3).
Rozstęp międzyćwiartkowy wynosi zatem 58,75 — 27,76 = 30,99. Rozstęp możemy również
obliczyć dla innych miar położenia. Na przykład możemy obliczyć rozstęp pomiędzy 10
centylem i 90 centylem, aby podać wielkość rozproszenia wyników środkowych 80%
obserwacji.
Ograniczenia. Podstawowe ograniczenie zarówno rozstępu, jak i rozstępu ćwiartkowe-
I go wynika z faktu, że miary te oparte są jedynie na dwóch wynikach, a zatem
odzwierciedlają zróżnicowanie tylko w pewnej zdefiniowanej części rozkładu. Aby otrzymać
bardziej dokładny obraz rozkładu, trzeba się odwołać do rozproszenia wszystkich wyników.
Należy więc skonstruować taką miarę, która będzie oparta na rozproszeniu wszystkich
wyników rozkładu wokół jakiegoś kryterium. Innymi słowy, badacz musi przyjąć jakąś
normę, pozwalającą mu podjąć decyzję, której wartość jest niższa lub
390

wyższa od wartości oczekiwanej. Na przykład określenie dochodów jako „niskie" lub


„wysokie" ma sens jedynie w stosunku do określonego kryterium. Dochody ocenione jako
wysokie w Indiach będą traktowane jako niskie w Stanach Zjednoczonych.
Każda miara tendencji centralnej może służyć jako norma. Można mierzyć
rozproszenie wyników wokół wartości modalnej, mediany czy średniej arytmetycznej, jednak
średnia arytmetyczna jest miarą najczęściej stosowaną.
I Miary rozproszenia oparte na średniej
Najprostszym sposobem obliczenia wielkości rozproszenia wyników wokół średniej
jest obliczenie odchylenia przeciętnego wyników od średniej:
I(X-X) odchylenie przeciętne =------------,
gdzie X — każda pojedyncza obserwacja, X — średnia arytmetyczna, N — całkowita
liczba obserwacji.
Ponieważ suma odchyleń od średniej zawsze równa się zero2, więc odchylenie
przeciętne zawsze byłoby zerowe, gdyż tyle wynosiłby mianownik tego wyrażenia. Aby
ominąć tę własność średniej, podnosimy każde odchylenie do kwadratu i otrzymujemy
wyrażenie na odchylenie standardowe wyników, najczęściej stosowaną miarę rozproszenia
stosowaną dla danych interwałowych.
Wariancja i odchylenie standardowe
Gdy tylko to możliwe, badacze posługują się wariacją i odchyleniem standardowym
jako miarami rozproszenia, ponieważ można je później wykorzystywać w bardziej
zaawansowanych obliczeniach statystycznych. Wariancję i odchylenie standardowe oblicza
się, podnosząc do kwadratu i sumując wszystkie odchylenia, a następnie dzieląc tę sumę przez
liczbę obserwacji. Wariancja .v2 zatem3:
s2 = i(x-x)2 (1510)
N
Innymi słowy, od każdego wyniku odejmujemy średnią arytmetyczną, otrzymane
różnice podnosimy do kwadratu i dzielimy przez ogólną liczbę obserwacji. Przedstawiony w
tabeli 15.15 przykład liczbowy pokazuje kolejne kroki niezbędne do obliczenia wariancji. Po
zastosowaniu równania (15.10) do tych danych otrzymamy:
, 200
s2 = —- = 40.
2 Na przykład średnia z następujących wartości 2, 4, 6 i 8 wynosi 5. Jeżeli od każdej
wartości odejmiemy 5, to otrzymamy —3, —1, 1 i 3. Suma wszystkich tych różnic —(—3) +
(—1)+ 1 +3 — wynosi zero.
1 Przedstawione w tym rozdziale wzory na odchylenie standardowe i wariancję to
wzory pozwalające obliczyć te parametry w populacji. Odpowiednie wzory dla próby mają w
mianowniku (N— 1), zamiast N.
391
Aby obliczyć wariancję, warto skorzystać z wzoru wygodniejszego od wzoru
definicyjnego. Wówczas kwadrat średniej arytmetycznej odejmujemy od sumy kwadratów
wszystkich wyników podzielonej przez liczbę obserwacji, czyli:
s = ^r - OO2. (15.11)
Stosując równanie (15.11) do tych samym danych z tabeli 15.15, otrzymamy
, 605 s2 = —- - (9)2 = 121 - 81 = 40.
Wariancja wyraża przeciętne odchylenie wyników w rozkładzie nie w oryginalnych
jednostkach, lecz w jednostkach podniesionych do kwadratu. Możemy rozwiązać ten
problem, wyprowadzając pierwiastek kwadratowy z wariancji, a zatem przekształcając
wariancję w odchylenie standardowe. Odchylenie standardowe jest miarą rozproszenia
wyrażoną w oryginalnych jednostkach. Możemy je wyrazić za pomocą równania (15.12) i
(15.13), które odpowiadają równaniom (15.10) i (15.11):
s=
I(X - Xf
—^--------. (15.12)
\EX
gdzie s oznacza odchylenie standardowe. Dla naszego przykładu wartość odchylenia
standardowego obliczonego za pomocą równania (15.12)
„/20Ó r— s = "Y------= V40 = 6>3-
Dane w tabeli 15.15 przedstawiają nie pogrupowany rozkład częstości zawierający po
jednej liczebności dla każdej wartości X. Jeżeli dane w nie pogrupowanym rozkładzie
częstości będą zawierać więcej liczebności dla którejś lub dla wszystkich wartości zmiennej
X, to obliczając wariancję, możemy się posłużyć następującym wzorem definicyjnym:
2 if(x-x)\ 2 ifx2 (ifxY
s =-------------lub s —
N N
ffi-
392
Tabela 15.15. Obliczanie wariancji
X X-X (X-X)2X2
3 -6 36 9
4 -5 25 16
6 -3 9 36
12 3 9 144
20 11 121 400
Ogółem 200 605
X=9
Wariancja i odchylenie standardowe dla danych pogrupowanych
Jeżeli dane zostały pogrupowane, to do obliczenia wariancji i odchylenia
standardowego musimy zastosować inne procedury. Do obliczenia wariancji możemy
wówczas wykorzystać równanie (15.14), w którym X oznaczać będzie środek przedziału,
a/odpowiadające mu liczebności:
s2 =________*L_ (15.14)
N
Wzór ten zastosowaliśmy do danych z tabeli 15.16 i otrzymaliśmy:
(136)2 18496
1094 -------- 1094----------
20 20 1094-924,8 169,20 „ „
r =-------------------------------------=----------------=--------= 8,46.
20 20 20 20
Wartość odchylenia standardowego otrzymamy, wyciągając pierwiastek kwadratowy z
wariancji, czyli z wartości 8,46. Zatem
s = ^8,46 = 2,91.
Tabela 15.16. Rozkład wieku dla dwudziestu respondentów
Środek przedziału Wiek X f X2
jX2 JX
1-3 2 4 4 16 8
4-6 5 3 25 75 15
7-9 8 10 64 640 80
10-12 11 3 121 363 33
Ogółem 20 m2-- = 1094 2yx=136
393
Odchylenie standardowe — zalety i zastosowania
Odchylenie standardowe — w porównaniu z innymi miarami rozproszenia — ma
wiele zalet. Po pierwsze, jest najbardziej stabilną miarą w próbie (problematykę I próby
omówiliśmy w rozdziale 8). Po drugie, ma ważne właściwości matematyczne I umożliwiające
obliczanie wartości odchylenia standardowego dla dwóch lub więcej I połączonych grup. Co
więcej, właściwości matematyczne odchylenia standardowe- I go sprawiają, że jest to miara
wykorzystywana w zaawansowanych obliczeniach I statystycznych, zwłaszcza w dziedzinie
statystyki indukcyjnej (omówionej w roz-1 dziale 8 i 19).
Ilustracją zastosowania odchylenia standardowego jest następujący przykład. I W
tabeli 15.17 przedstawiliśmy dane porównawcze dotyczące odczuwanej satysfakcji I z życia
przez mieszkańców różnych państw. Dane te zawierają informacje o śred-1 niej
arytmetycznej i odchyleniu standardowym dla zmiennej „satysfakcja z życia", I obliczonych
dla różnych państw. Uzyskane średnie są niemal identyczne, co mogłoby sugerować, że w
czterech krajach satysfakcja z życia jest podobna. Odchylenia I standardowe w
poszczególnych krajach są jednak różne. W Anglii, Niemczech I i Stanach Zjednoczonych
odchylenia standardowe są stosunkowo małe, co świad- I czy o tym, że państwa te są
homogeniczne ze względu na stopień odczuwanej satys- I fakcji. Innymi słowy, osoby badane
otrzymują wyniki bliskie średniemu wynikowi w ich krajach. We Włoszech natomiast
odchylenie standardowe jest większe, co I oznacza, że odczuwany stopień satysfakcji
reprezentowany przez średnią nie jest podzielany przez wszystkich Włochów.
Tabela 15.17. Średnie i odchylenia standardowe wskaźnika satysfakcji z życia dla
czterech zachodnich narodowości (dane hipotetyczne)
Wielka Brytania Niemcy Włochy Stany Zjednoczone
Średnia 6,7 6,7 6,6 6,5
Odchylenie standardowe 1,0 1,2 3,2 1,3
Współczynnik zmienności
W przypadkach, w których porównywane rozkłady mają różne średnie, nie możemy
porównywać absolutnych wartości odchyleń standardowych. Odchylenie standardowe równe
na przykład 2 oznacza co innego, gdy średnia wynosi 6, niż gdy średnia równa się 60. Dlatego
należy obliczyć wartość odchylenia standardowego w odniesieniu do średniej rozkładu.
Możemy to uczynić, obliczając tzw. współczynnik zmienności, który pozwala poznać
względne zróżnicowanie.
V = ^, (15.15)1
gdzie V — współczynnik zmienności, i — odchylenie standardowe, X — średnia
arytmetyczna.
394
Tabela 15.18. Postawy wobec poparcia aborcji przez władze stanowe (dane
hipotetyczne dla czterech stanów)
Wisconsin Illinois Alabama Massachusetts
Średnia Odchylenie standardowe 5,48 2,9 4,82 2,9 3,67 2,8 5,82
2,7
Miary rozproszenia
¦ Miara zróżnicowania jakościowego. Jest nią wskaźnik heterogeniczności czy
homogeniczności populacji. Otrzymuje się go poprzez porównanie ogólnej liczby
zaobserwowanych różnic w rozkładzie z maksymalnie możliwą liczbą różnic dla tego
rozkładu. Do obliczenia wykorzystuje się równanie (15.7), (15.8) i (15.9).
¦ Rozstęp. Jest to odległość pomiędzy najwyższym i najniższym wynikiem w
rozkładzie. Rozstęp może prowadzić do błędów interpretacyjnych, ponieważ uwzględnia
jedynie dwa najbardziej skrajne wyniki w rozkładzie.
¦ Rozstęp ćwiartkowy. Jest to różnica pomiędzy dolnym kwartylem (55 centyl) i
górnym kwartylem (75 centyl). Ponieważ jest to miara rozproszenia wyników w środkowej
połowie rozkładu, przeto wyniki skrajne nie wpływają na wartość rozstępu ćwiartkowego.
¦ Wariancja. Jest to średnia wartość podniesionych do kwadratu odchyleń wyników od
średniej. Można ją obliczyć albo za pomocą wzoru definicyjnego, albo prostszych wzorów
obliczeniowych. Wybór właściwego wzoru zależy od tego, czy dane zostały pogrupowane,
czy są to dane nie pogrupowane i czy dana wartość zmiennej pojawia się więcej niż jeden raz.
Wariancję można obliczyć za pomocą równania (15.10), (15.11) i (15.14).
¦ Odchylenie standardowe. Jest równe pierwiastkowi kwadratowemu z wariancji. W
odróżnieniu od wariancji odchylenie standardowe wyraża się w oryginalnych jednostkach
pomiaru. Możemy je obliczyć, posługując się równaniem (15.12) i (15.13) lub wyciągając
pierwiastek kwadratowy z wariancji.
W tabeli 15.18 przedstawiliśmy średnie oraz odchylenia standardowe dla danych
dotyczących postaw wobec poparcia aborcji przez władze stanowe w czterech stanach.
Porównując absolutne wartości odchyleń standardowych, widzimy, że są one prawie
identyczne. Istnieją natomiast duże różnice pomiędzy średnimi, co wskazuje na różny stopień
poparcia dla aborcji. W stanie Alabama, na przykład, średnia ta jest najmniejsza w
porównaniu z innymi stanami, przy prawie identycznym odchyleniu standardowym jak w
pozostałych stanach. Przyjmując, że postawy zostały zmierzone na skali od 1 do 10, gdzie 1
oznacza brak poparcia, a 10 silne poparcie dla akceptacji aborcji przez władze stanowe,
możemy intuicyjnie sądzić, że odchylenie standardowe równe 2,8 przy średniej 3,67 ma
większe znaczenie niż
395
przy średniej 4,82 czy 5,48, ponieważ średnia równa 3,67 odzwierciedla skrajniej-sze
postawy niż średnia 4,82 czy 5,48. Aby uwzględnić te rozbieżności, wartości odchyleń
standardowych zostały przekształcone we współczynniki zmienności. Wyniki tego
przekształcenia podano w tabeli 15.19. Zauważmy, że relatywne zróżnicowanie w stosunku
do średniej jest najwyższe w stanie Alabama, co odzwierciedla niższy stopień
homogeniczności postaw w stosunku do aborcji.
Tabela 15.19. Postawy wobec poparcia aborcji przez władze stanowe (dane
hipotetyczne dla czterech stnów)
Wisconsin Illinois Alabama Massachusetts
Średnia Współczynnik zmienności 5,48 0,53 4,82 0,60 3,67 0,76 5,82
0,46
¦ Rodzaje rozkładów częstości
Dotychczas omawialiśmy możliwości charakteryzowania jednozmiennowego rozkładu
częstości za pomocą miar tendencji centralnej i miar rozproszenia. Kolejny etap opisywania
danych polega na określaniu ogólnego kształtu ich rozkładu. Rozkłady danych mogą
przyjmować różne formy. Mogą mieć mało niskich i mało wysokich wyników, a dużo
wyników skoncentrowanych w środku, czy też mało niskich i dużo wysokich wyników.
Najprostszym sposobem opisania rozkładu jest jego graficzna prezentacja. Na rycinie 15.4
przedstawiliśmy przykłady rozkładów o różnym kształcie.
i Ai ___
Md 25 35 0 X Md 0 Md X
a) rozkład symetryczny b) rozkład lewoskośny
c) rozkład prawoskośny
Ryc. 15.4. Rodzaje rozkładów częstości
Wartości zmiennej umieszczamy na osi poziomej, a otrzymane pole powierzchni pod
krzywą reprezentuje liczebności. W przykładzie pierwszym liczebność rozkładu w przedziale
25-35 jest reprezentowana przez pole powierzchni tego przedziału. Rozkład przedstawiony na
rycinie 15.4a jest symetryczny, tzn. częstości znajdujące się po prawej i lewej stronie
rozkładu są identyczne. Gdybyśmy zatem podzielili taki rozkład na pół, to każda połowa
byłaby zwierciadlanym odbiciem drugiej. Najczęściej oznacza to, że większość obserwacji
jest skoncentrowana w środku rozkładu, a niewiele obserwacji znajduje się na jego krańcach.
Wysokość wzrostu mężczyzn jest przykładem rozkładu symetrycznego. Niewielu mężczyzn
bowiem to mężczyźni bardzo niscy lub bardzo wysocy, większość jest przeciętnego wzrostu.
Bardzo wiele innych zmiennych również ma rozkład normalny i ten kształt rozkładu odgrywa
szczególnie ważną rolę we wnioskowaniu statystycznym.
396
W rozkładach niesymetrycznych, czy inaczej rozkładach skośnych natomiast więcej
przypadków pojawia się na jednym krańcu rozkładu. Rozkład niesymetryczny, w którym
przeważają skrajnie niskie wyniki, jest nazywany rozkładem lewoskośny m (ryc. 15.4b).
Jeżeli więcej jest wyników skrajnie wysokich, to jest to rozkład prawoskośny (ryc. 15.4c). Na
ogół rozkłady dotyczące dochodów są rozkładami prawoskośnymi — niewiele rodzin zarabia
bardzo dużo.
Skośność rozkładu można również określać w stosunku do pozycji, jaką zajmują
miary tendencji centralnej. W rozkładzie symetrycznym średnia pokrywa się z medianą i
wartością modalną. W rozkładzie skośnym można dostrzec różnice pomiędzy tymi miarami.
W rozkładzie lewoskośnym średnia przesunie się w kierunku niskich wyników, w rozkładzie
prawoskośnym zaś — w kierunku wyników wysokich. Ta właściwość rozkładu skośnego
sprawia, że wybór odpowiedniej miary tendencji centralnej jest kwestią podstawową.
Ponieważ średnia przesuwa się w kierunku wyników skrajnych, więc nie informuje o
typowości i przestaje być miarą użyteczną. Wówczas należy rozważyć możliwość
wykorzystania mediany lub wartości modalnej.
Krzywa normalna
Jedną z form rozkładu symetrycznego, szczególnie istotną w statystyce, jest krzywa
normalna (ryc. 15.5). Krzywa normalna ma następujące właściwości podstawowe:
1. Jest symetryczna i gładka.
2. Wartość modalna, mediana i średnia są położone dokładnie w środku rozkładu.
3. Obejmuje nieskończoną liczbę przypadków.
4. Związek pomiędzy liczebnościami a wartościami zmiennej jest wyrażony za
pomocą jednego wzoru matematycznego.
Najbardziej wyróżniającą właściwością krzywej normalnej jest jednak to, że w
każdym rozkładzie normalnym pomiędzy średnią a określoną wartością zmiennej, wyrażoną
w jednostkach odchylenia standardowego, znajduje się stała proporcja przypadków. Proporcje
te przedstawiliśmy na rycinie 15.5. Średnia arytmetyczna dzieli rozkład dokładnie na dwie
połowy. Pomiędzy średnią i jednym odchyleniem standardowym na prawo od niej znajduje
się 34,13% przypadków. Tyle samo przypadków znajduje się pomiędzy średnią i jednym
odchyleniem standardowym na lewo od niej. Znak plus oznacza, że dana wartość odchylenia
standardowego znajduje się powyżej niej; znak minus — że wartość ta znajduje się poniżej
średniej. Zatem 68,26% wszystkich obserwacji znajduje się w przedziale pomiędzy X±h;
95,46% wszystkich przypadków w przedziale pomiędzy X±2s; a 99,73% wszystkich
przypadków w przedziale pomiędzy X ± 3s.
Dla każdego rozkładu normalnego można określić proporcję przypadków
znajdujących się w przedziale pomiędzy średnią tego rozkładu a dowolnie wybranym
punktem. Na przykład analizując rozkład ilorazów inteligencji, którego średnia wynosi 110, a
odchylenie standardowe 10, możemy stwierdzić, że 68,26% wszystkich osób badanych będzie
miało IQ mieszczący się w przedziale pomiędzy 110 ±ls, czyli pomiędzy 100 a 110 punktów,
a 95,46% osób pomiędzy 90 a 130.
397
y^ es 6S * ^\.
— »•« a>
m ^, TT
¦' 1 fN 1---------—J ro rO <n T^——
-3s -2s -* X +j
Ryc. 15.5. Proporcje pod krzywą normalną
+2r
+3s
Wyniki standardowe
Dla każdego rozkładu jednozmiennowego, który jest rozkładem normalnym, możemy
określić proporcję przypadków znajdujących się w każdym konkretnym przedziale. Aby
zabieg taki był możliwy, musimy przekształcić wyniki surowe na jednostki odchylenia
standardowego. Wówczas będziemy mogli skorzystać z tablic zawierających wartości pola
powierzchni pod krzywą normalną. Po przekształceniu danych surowych na jednostki
odchylenia standardowego możemy korzystać zawsze z tej samej tabeli pól powierzchni pod
krzywą, i to niezależnie od skali pomiarowej, na której otrzymano dane. Możemy również
bezpośrednio porównywać ze sobą dwa różne rozkłady. Jeżeli chcemy wiedzieć, jaka
proporcja osób ma ilorazy inteligencji pomiędzy 110 a 130, to musimy określić, ile jednostek
odchylenia standardowego znajduje się pomiędzy średnią a wynikiem równym 130. Wyniki
surowe możemy wyrażać w jednostkach odchylenia standardowego, stosując wzór:
Z=
x-x
(15.16)
gdzie Z — liczba jednostek odchylenia standardowego, X — wynik surowy, X -
średnia arytmetyczna, s — odchylenie standardowe.
Wyniki Z — należy podkreślić, że odległość pomiędzy wynikiem surowym X a
średnią jest wyrażana w jednostkach odchylenia standardowego — są nazywane wynikami
standardowymi. Wynik Z=2 oznacza, że odległość pomiędzy średnią rozkładu a punktem X
wynosi dwa odchylenia standardowe. Jeżeli na przykład średnia rozkładu wynosi 40, a
odchylenie standardowe 5, to wynik surowy równy 50 możemy wyrazić w postaci jednostek
Z jako:
50 - 40 10
z.__._.z
Wynik równy 50 leży w odległości dwóch odchyleń standardowych od średniej.
Również wynik równy 30 leży w odległości dwóch odchyleń standardowych od średniej:
398
30-40 -10 Z =----------=------= -2.
Dla standardowej formy rozkładu normalnego zostały skonstruowane specjalne
tablice, które pozwalają na określenie proporcji obserwacji znajdujących się pomiędzy średnią
i każdym dowolnym wynikiem rozkładu. (Przykład takiej tablicy przedstawiamy w dodatku
E). W tablicy tej można znaleźć proporcje dla różnych wartości Z. Pierwsze dwie cyfry
określające wartość Z znajdują się w kolumnie umieszczonej po lewej stronie tabeli, trzecia
cyfra znajduje się w pierwszym wierszu. Na przykład proporcja przypadków wpadających do
przedziału pomiędzy średnią a Z= 1 wynosi 0,3413 lub inaczej 34,13%, a pomiędzy wartością
średnią a Z= 1,65 wynosi 0,4505. W tabeli tej — ponieważ rozkład jest symetryczny —
umieszczono jedynie dane dotyczące proporcji dla połowy rozkładu. Oznacza to, że odległość
pomiędzy średnią a punktem Z= — 1 jest taka sama jak odległość pomiędzy średnią a
punktem Z= 1. Aby można było skorzystać z tej tabeli, należy najpierw — za pomocą
równania (15.16) —obliczyć wynik Z odpowiadający określonemu wynikowi surowemu, a
następnie odczytać właściwą wartość z tabeli znajdującej się w dodatku E.
Aby zilustrować sposób posługiwania się tablicą wartości standaryzowanego rozkładu
normalnego, przyjmijmy, że rozkład dochodów w pewnej społeczności jest normalny i ma
średnia równą 15 000$ oraz odchylenie standardowe równe 2000$. Chcielibyśmy się
dowiedzieć, jaka jest proporcja osób, których dochody znajdują się w przedziale pomiędzy 11
000$ a 15 000$. Zaczynamy od przekształcenia wyniku równego 11 000$ na jednostki
odchylenia standardowego:
11000 - 15 000
Z =----------------------= -2.
2000
Następnie, z tablicy znajdującej się w dodatku E, odczytujemy, że pomiędzy średnią a
wynikiem Z= — 2 znajduje się ogółem proporcjonalnie 0,4773 wszystkich obserwacji.
Innymi słowy, 47,73% wszystkich osób z tej społeczności zarabia pomiędzy 11000$ a 15
000$. Wynik naszych obliczeń przedstawiliśmy na rycinie 15.6.
11000 15000
Ryc. 15.6. Proporcja populacji zarabiająca pomiędzy 11 000$ a 15 000$
399
Jaka część tej społeczności zarabia pomiędzy 16000$ a 20000$? Proporcję obliczymy,
zamieniając każdy wynik surowy na odpowiadające mu jednostki chylenia standardowego:
16000 - 15 000
20000 - 15 000 2000
2,5.
Korzystając z tablicy w dodatku E, widzimy, że proporcja przypadków znajdujących
się pomiędzy średnią a Z =2,5 wynosi 0,4938, a pomiędzy średnią i Z=0,5 — 0,1915. Zatem
pole powierzchni znajdujące się pomiędzy 16000$ a 20000$ wynosi 0,4938 - 0,1915 = 0,3023
(tj. 30,23%). Na rycinie 15.7 przedstawiliśmy interesujące nas pole powierzchni.
x
10000 16000
20 000
Ryc. 15.7. Proporcja populacji zarabiająca pomiędzy 16000$ a 20000$
Podsumowanie
1. Na wstępnym etapie analizy badacze posługują się typowymi metodami
pozwalającymi w prosty sposób opisać dane. Jednym z takich sposobów jest przedstawienie
danych w formie tabelarycznej. Podstawowe właściwości danych można przedstawić za
pomocą wartości przeciętnej lub obliczając odpowiednie procenty. Analizę danych
najczęściej rozpoczyna się od skonstruowania rozkładu wszystkich otrzymanych odpowiedzi.
Rozkład taki pozwala odczytać, że na przykład 20 na 80 respondentów w próbie to kobiety, a
pozostali respondenci to mężczyźni; że 46 osób to demokraci, 20 republikanie, a 14 osób nie
identyfikuje się z żadną partią. Określenie liczby obserwacji wpadających do każdej z wielu
kategorii nazywa się rozkładem częstości. Częstości są na ogół przekształcane na proporcje
lub procenty, co ułatwia określanie wagi pojedynczej kategorii w stosunku do pozostałych
kategorii rozkładu lub innych rozkładów.
2. Bardzo często warto obliczyć jakąś wartość przeciętną, która reprezentowałaby
rozkład. Na przykład można chcieć odpowiedzieć na pytanie: „Jaka jest najbardziej typowa
orientacja polityczna tej grupy respondentów?" czy: „Jakie są ich przeciętne dochody?" Na
pytania te możemy odpowiedzieć, obliczając którąś
400
z miar tendencji centralnej. Trzema najczęściej używanymi w statystyce miarami
tendencji centralnej są: wartość modalna, mediana i średnia arytmetyczna.
3. Miary tendencji centralnej mogą wprowadzać w błąd, jeżeli nie towarzyszy im
miara rozproszenia danych. Podczas gdy miary tendencji centralnej odzwierciedlają typowe
czy przeciętne charakterystyki grupy, miary rozproszenia wskazują, ile osób odchyla się od
tej miary i jaki jest stopień tego odchylenia. Małe odchylenie oznacza, że większość
respondentów skupia się wokół miary tendencji centralnej; duże zaś, że miara tendencji
centralnej nie jest dobrą reprezentacją rozkładu.
4. Jednym z najważniejszych kroków w badaniu rozkładu jest określanie jego ogólnej
formy. Niektóre formy są charakterystyczne dla różnych zjawisk empirycznych. Na przykład
wiele rozkładów opisujących dochody zawiera niewiele skrajnie wysokich dochodów, a
większość dochodów jest skupiona wokół środkowych lub niskich wartości. Rozkłady takie to
rozkłady prawoskośne. Z kolei rozkłady ilorazów inteligencji są najczęściej symetryczne —
większość wyników koncentruje się w środku, a niewiele wyników to wyniki skrajnie niskie
lub skrajnie wysokie.
¦ Podstawowe terminy
centyl 382
krzywa normalna 397
mediana 380
miara zróżnicowania jakościowego 387
odchylenie przeciętne 391
odchylenie standardowe 392
rozkład częstości 371
rozkład niesymetryczny 397
rozkład symetryczny 396
rozstęp 390 rozstęp ćwiartowy 390 statystyka opisowa 371 średnia arytmetyczna 383
wariancja 391 wartość modalna 379 wnioskowanie statystyczne 371 współczynnik
zmienności 394 wynik standardowy 398
Pytania sprawdzające
W poniższej tabeli znajdują się dane dotyczące stanowisk pracy zajmowanych przez
kobiety w dwóch społecznościach. Jakie wnioski możemy wyciągnąć z tych danych, kierując
się bezwzględnymi wartościami liczbowymi, a jakie na podstawie procentów?
Społeczność A Społeczność B
Na rynku pracy
Specjalistki 20000 4% 20000 10%
Wykwalifikowane 45000 9% 24000 12%
Częściowo wykwalifikowane 70000 14% 28000 14%
Niewykwalifikowane 170000 34% 28000 14%
Poza rynkiem pracy 195000 39% 100000 50%
Ogółem 500000 100% 200000 100%
401
2. Podaj po dwa przykłady problemów, w których (a) najlepszą miarą tendencji
centralnej będzie średnia, (b) najlepszą miarą tendencji centralnej będzie! wartość modalna,
(c) najlepszą miarą tendencji centralnej będzie mediana.
3. Oblicz średnią, medianę i wartość modalną dla następującego zbioru danych:
22, 41, 43, 56, 33, 22, 20, 37.
4. Poniżej przedstawiono rozkład dochodów dla grupy robotników
Dochody Częstość
$18000 6
22 000 3
27500 3
30000 2
75 000 1
N= 15
a. Jaką miarę tendencji centralnej należy zastosować do opisania dochodów tej
grupy?
b. Oblicz wartość wybranej przez siebie miary tendencji centralnej.
5. Na przedstawionej niżej krzywej zaznacz przypuszczalne położenie śn niej,
mediany, wartości modalnej. Opisz, jaki jest to rozkład, uwzględniaj? jego skośność.
a. b. c.
Przypuśćmy, że od grupy respondentów uzyskaliśmy zbiór odpowiedzi opisujących
ich postawy wobec legalnej aborcji i że odchylenie standardowe tego zbioru wyników wynosi
zero. Jaki z tego wynika wniosek dotyczący tej grupy?
Postawy wobec władzy są często traktowane jako zmienna interwałowa. Przypuśćmy,
że zmienna ta ma rozkład normalny ze średnią równą 60 i odchyleniem standardowym
równym 10. Jaka proporcja osób uzyskuje wyniki pomiędzy 60 i 63? Jaka proporcja osób
uzyskuje wyniki mniejsze niż 48? Jaka proporcja osób uzyskuje wyniki pomiędzy 72 i 83, a
jaka pomiędzy 52 i 55?
402

I Ćwiczenia komputerowe
1. Posługując się plikiem GSS* lub jakimś innym zbiorem danych, opracuj rozkład
częstości dla jednej zmiennej nominalnej, jednej zmiennej porządkowej i jednej zmiennej
interwałowej. Oblicz tylko te miary tendencji centralnej i te miary rozproszenia, które są
właściwe dla danego poziomu pomiaru.
2. Oblicz ręcznie wszystkie statystyki z ćwiczenia 1 i sprawdź, czy otrzymałeś takie
same rezultaty.
3. Opracuj wykres kołowy i wykres słupkowy dla zmiennej nominalnej i dla
zmiennej porządkowej.
(Por. dodatek A, s. 528)
I Literatura dodatkowa
Blalock H.M. (1975), Statystyka dla socjologów. Warszawa: PWN.
Ferguson G.A., Takane Y. (1997), Analiza statystyczna w psychologii i pedagogice,
Warszawa: Wyd. Nauk. PWN.
* Plik GSS jest dostępny w pakiecie statystycznym SPPS+ (przyp. tłum.).
Rozdział ló
Analiza dwuzmiennowa
Pojęcie związku między dwiema zmiennymi 405
W jaki sposób tworzy się tabelę dla dwóch zmiennych 406
Współzmienność: przykład 407
Przedstawianie danych z tabeli dla dwóch zmiennych w postaci
procentowej 409 Mediana i średnia arytmetyczna jako miary współzmienności 413
Miara związku 414
Proporcjonalne zmniejszenie liczby błędów 416
Miary związku dla danych nominalnych 417
Lambda — współczynnik przewidywalności Guttmana 417
Miary związku pomiędzy zmiennymi dla skali porządkowej 421
Pojęcie pary danych 421 Rodzaje par 422 Współczynnik gamma 424
Współczynnik tau-i> Kendalla 427
Miary siły związku dla danych interwałowych 428
Reguły predykcji 428
Regresja liniowa 429
Kryterium najmniejszych kwadratów 430
Błędy predykcji 433
Współczynnik korelacji według momentu iloczynowego Pearsona (r) 434
Podsumowanie 436
Podstawowe terminy 436
Pytania sprawdzające 436
Ćwiczenia komputerowe 438
Literatura dodatkowa 438
Wyobrażenia na temat seksu są tak stare jak ludzkość, jednakże to, co Amerykanie
robią w łóżkach, z kim i jak często, bada się systematycznie dopiero od pięćdziesięciu lat. W
roku 1992 zespół badaczy z uniwersytetu w Chicago opublikował rezultaty szerokich badań,
które objęły około 3500 Amerykanów w wieku od 18 do 59 lat. Uzyskane dane,
opublikowane w pracy Sex in America: A Definitive Survey, świadczą m.in. o tym, że
większość Amerykanów żyje w związkach monogamicznych, że 75% osób ma w ciągu roku
tylko jednego partnera seksualnego i przeciętnie około trzech partnerów od czasu ukończenia
18 roku życia. Badanie to potwierdziło również, że dzisiejsze nastolatki wcześniej
rozpoczynają życie seksualne, a połowa młodzieży zdobywa pierwsze doświadczenia
seksualne przed ukończeniem 17 lat1.
Wspomniane badanie jest istotne nie tylko dlatego, że opisuje wzorce zachowań
seksualnych Amerykanów, ale również dlatego, że analizuje, jak się zmieniają zachowania
seksualne zależnie od wieku, rasy czy wyznania religijnego. Potwierdziło na przykład, że
mężczyźni częściej niż kobiety myślą o seksie, że mężczyźni i kobiety inaczej rozumieją, co
to znaczy dopasowanie partnerów. Praktyki seksualne zależą również od wyznania
religijnego: dziewczęta wyznania rzymskokatolickiego są dłużej dziewicami, a osoby
pochodzenia żydowskiego mają najwięcej partnerów seksualnych.
Badanie różnic w zachowaniach seksualnych mężczyzn i kobiet czy katolików i osób
pochodzenia żydowskiego nazywa się analizą dwuzmiennową. Analiza dwuzmiennowa
pozwala na badanie związku pomiędzy dwiema zmiennymi. W powyższym przykładzie
badacze przeanalizowali związki pomiędzy płcią i praktykami seksualnymi, porównując życie
seksualne mężczyzn i kobiet. Zbadali również związki pomiędzy wyznaniem religijnym a
praktykami seksualnymi, porównując życie seksualne katolików i żydów (a także innych grup
religijnych).
W tym rozdziale omówimy pojęcie związku pomiędzy dwiema zmiennymi i opiszemy
różne metody badania związku pomiędzy nimi. W pierwszej części ukażemy związek dwóch
zmiennych, w drugiej opiszemy miary związku dla zmiennych nominalnych, w trzeciej dla
zmiennych porządkowych, a w ostatniej dla zmiennych interwałowych.
¦ Pojęcie zwiqzku między dwiema zmiennymi
Każdy wie, co to jest związek dwóch zmiennych. Wiemy, że rzeczy nas otaczające są
ze sobą powiązane. Obserwujemy, jak rosną dzieci, jak zwiększa się ich waga; widzimy, że
miasta stają się bardziej zanieczyszczone niż okręgi wiejskie i że kobiety zarabiają mniej niż
mężczyźni. Każda z tych obserwacji to stwierdzenie związku: pomiędzy wiekiem i wagą,
pomiędzy stopniem urbanizacji i zanieczyszczeniem, pomiędzy płcią i zarobkami.
' Robert T. Michael i in. (1994), Sex in America: A Definitive Survey, New York:
Little, Brown.
405
Aby można było powiedzieć, że miasta stają się bardziej zanieczyszczone niż okręgi
wiejskie, musimy opisać związek pomiędzy urbanizacją i zanieczyszczeniem. Będzie to
możliwe jedynie wtedy, gdy pokażemy, że stopień zanieczyszczenia występujący w miastach
jest większy niż stopień zanieczyszczenia na wsiach. Innymi słowy, aby stwierdzić, że istnieje
związek pomiędzy X i Y, musimy pokazać, że pewne kategorie zmiennej X zmieniają się
wraz z pewnymi kategoriami zmiennej Y. Prawidłowość ta, nazywana współzmiennością, jest
podstawowym pojęciem definiującym związek czy relację.
Pierwszym etapem badania związku pomiędzy dwiema zmiennymi jest
skonstruowanie tabeli (rozkładu) dwuzmiennowej.
W jaki sposób tworzy się tabelę dla dwóch zmiennych
W tabeli dla dwóch zmiennych zestawia się wartości tych zmiennych. Tabela zawiera
wiersze i kolumny. Kategorie jednej zmiennej są nazwami wierszy, a kategorie drugiej —
kolumn. W kolumnach najczęściej umieszcza się zmienną niezależną (na górze), a w
wierszach zmienną zależną (po lewej stronie tabeli). Przykład 16.1 jest ilustracją sposobu
konstrukcji tabeli dwuzmiennowej. Najpierw dla szesnastu osób badanych wypisano dane
dotyczące ich pici i satysfakcji z pracy. Następnie dane te zliczono i zaklasyfikowano do
odpowiednich komórek tabeli 16.1. biorąc jednocześnie pod uwagę ich wartości dla obu
zmiennych. Tabela ta jest tabelą 3x2, ponieważ ma trzy wiersze i dwie kolumny
reprezentujące zmienną „płeć" i zmienną „zadowolenie z pracy". W czwartym wierszu i w
trzeciej kolumnie umieszczono odpowiednie sumy brzegowe.
Przykład 16.1
Tworzenie tabeli dla dwóch zmiennych
Płeć Satysfakcja z pracy
Mężczyźni = M Wysoka = W
Kobiety = K Średnia = S Niska = N
Nr ident. Pleć Satysfakcja z pracy
1 M W
2 M W
3 K W
4 M ś
5 K N
6 K N
7 K N
8 M Ś
9 M W
10 K ś
11 M w
12 M w
13 M N
14 K Ś
15 K N
16 K W
406
Tabela 16.1. Satysfakcja z pracy a płeć
Satysfakcja z pracy Płeć Suma w wierszu
mężczyźni kobiety
Wysoka Średnia Niska Suma w kolumnie 5218 2 2 4 8 7 4 5 16
Współzmienność: przykład
Tabele 16.2, 16.3 i 16.4 ilustrują istotę pojęcia współzmienności. Przedstawiliśmy w
nich hipotetyczne dane dotyczące dwóch zmiennych: wyznania religijnego i klasy społecznej.
Tabela 16.2 przedstawia idealną współzmienność zmiennych: wszyscy katolicy znaleźli się w
niższej klasie społecznej, wszyscy żydzi w średniej, a protestanci w wyższej klasie
społecznej. Zmienne te są współzmienne, ponieważ kolejnym kategoriom zmiennej
„wyznanie religijne" towarzyszy określona kategoria drugiej zmiennej „klasa społeczna".
Ten sam schemat powtarza się w tabeli 16.3, jednakże nie w tak doskonały sposób,
ponieważ nie wszystkie osoby o określonym wyznaniu religijnym należą do tej samej klasy.
Można jednak nadal twierdzić, że większość osób o określonym wyznaniu religijnym należy
do określonej klasy społecznej.
Kiedy zmienne nie są ze sobą powiązane, mówimy, że są niezależne, tzn. że się nie
współzmieniają. Tabela 16.4 jest ilustracją takiego przypadku. Nie ujawnia żadnego
określonego wzorca dla jakiejkolwiek grupy religijnej. Katolicy znajdują się zarówno w
klasie wyższej, średniej, jak i niższej. Podobnie sytuacja przedstawia się dla żydów i
protestantów. Innymi słowy, nie możemy nic powiedzieć o statusie spoleczno-ekonomicznym
danej osoby na podstawie jej wyznania religijnego.
Tabela 16.2. Klasa społeczna a wyznanie religijne (idealna współzmienność)
Przynależność religijna
Klasa społeczna katolicy żydzi protestanci Ogółem
Wyższa 0 0 8 8
Średnia 0 8 0 8
Niższa 8 0 0 8
Ogółem 8 8 8 24
Tabele 16.2, 16.3 i 16.4 to przykłady rozkładów dwuzmiennowych przedstawionych w
formie tabelarycznej. Rozkład dwuzmiennowy składa się z kategorii dla dwóch zmiennych
oraz łącznych liczebności w tych kategoriach. Każda tabela składa się z dwóch wymiarów, po
jednym dla każdej zmiennej. Każda ze zmiennych została podzielona na określoną liczbę
kategorii. Zmienna „klasa społeczna" została na przykład podzielona na trzy kategorie:
„wyższa", „średnia" i „niższa", a zmienna „przynależność religijna" ma również trzy
kategorie: „katolicy", „żydzi"
407
i „protestanci". Komórki tabeli znajdują się na skrzyżowaniu dwóch kategorii, z
których każda należy do innej zmiennej. Liczebności znajdujące się w każdej komórce
oznaczają liczbę przypadków posiadających jednocześnie obie cechy. Na przykład w tabeli
16.4 możemy przeczytać, że dwóch katolików należy do klasy wyższej, trzech do klasy
średniej i trzech do klasy niższej. Z kolei w grupie osób pochodzenia żydowskiego mamy trzy
osoby należące do klasy wyższej, dwie osoby do klasy średniej i trzy do klasy niższej.
Wreszcie wśród protestantów trzy osoby należą do klasy wyższej, trzy do średniej i dwie do
klasy niższej.
Tabela 16.3. Klasa społeczna a wyznanie religijne (umiarkowana współzmienności
Przynależność religijna
Klasa społeczna katolicy żydzi protestanci Ogółem
Wyższa 0 2 6 8
Średnia 1 6 1 8
Niższa 7 0 1 8
Ogółem 8 8 8 24
Tabela 16.4. Klasa społeczna a wyznanie religijne (współzmienność
prawie zerowa)
Przynależność religijna
Klasa społeczna katolicy żydzi protestanci Ogółem
Wyższa 2 3 3 8
Średnia 3 2 3 8
Niższa 3 3 2 8
Ogółem 8 8 8 24
Tabelę dwuzmiennową można również przedstawić w postaci zbioru rozkładów
jednozmiennowycłr. Dzieląc tabelę według kolumn i wydzielając każdą kolumnę,
otrzymaliśmy trzy rozkłady jednozmiennowe odpowiednio dla katolików, żydów i
protestantów. Jeżeli porównamy trzy rozkłady jednozmiennowe na przykład z tabeli 16.3, to
przekonamy się, że każdy rozkład różni się od pozostałych stopniem rozproszenia danych. W
rozkładzie opisującym protestantów większość respondentów mieści się w górnej, skrajnej
części rozkładu; w grupie żydów — w środku rozkładu, a w grupie katolików — w jego
dolnej części. Ta tendencja jest jeszcze wyraźniejsza w tabeli 16.2 —jest ona bowiem
doskonała (tj. wszyscy protestanci należą do klasy wyższej itd.). W tabeli 16.4 z kolei nie ma
żadnej szczególnej różnicy pomiędzy trzema rozkładami. Rozproszenie wyników jest w
każdym z tych rozkładów identyczne. Badacz może zatem określić wielkość współzmienności
dla tabeli dwuzmiennowej, porównując rozkłady jednozmiennowe tworzące tę tabelę. Im
większa różnica, tym większy stopień współzmienności dwóch zmiennych.
2 Theodore R. Anderson, Morris Zelditch, Jr. (1968), A Basic Course in Statistics,
Fort Worth: Holt, Rinehart i Winston (rozdz. 6).
408
Przedstawianie danych z tabeli dla dwóch zmiennych w postaci procentowej
Użytecznym sposobem przedstawiania danych w tabeli dwuzmiennowej ułatwiającym
porównywanie rozkładów jednozmiennowych w celu określenia powiązania między nimi jest
przedstawianie danych w postaci procentów. Jest ono właściwe dla skali nominalnej, jednak
badacze często obliczają procenty również dla danych porządkowych lub interwałowych. W
tabeli 16.5 przedstawiono rozkład płci i stanu cywilnego dla osób publicznych. Dane te mają
być podstawą do weryfikacji hipotezy, że życie prywatne kobiet pracujących w biurze
wyborczym jest inne niż życie prywatne mężczyzn. Tabelę tę zbudowano w sposób
konwencjonalny: „płeć" (zmienna niezależna) znajduje się na górze tabeli, a „stan cywilny"
(zmienna zależna) po lewej stronie. Każda kategoria płci tworzy rozkład jednozmiennowy, a
właściwe dla niej liczebności można przekształcić na procenty, wykorzystując sumy ogólne
jako podstawę ich obliczania (tzn. 72 kobiety i 66 mężczyzn stanowią po 100% w swojej
kategorii). Procenty te podaliśmy w tabeli 16.6. Następnym krokiem jest porównanie
rozkładów jednozmiennowych w celu określenia stopnia korelacji pomiędzy płcią i stanem
cywilnym wśród osób publicznych. Procenty obliczamy w kolumnach, natomiast dane
porównujemy w wierszach. I tak proporcję zamężnych kobiet porównujemy z proporcją
żonatych mężczyzn (68,1% i 89,4%). W tabeli 16.6 przedstawiliśmy wyraźny obraz korelacji:
wśród osób publicznych płeć jest związana ze stanem cywilnym. Dla każdej zmiennej
otrzymaliśmy inny rozkład jednozmiennowy: kobiety są rzadziej zamężne, są częściej
rozwiedzione i są częściej wdowami. Związek pomiędzy płcią a stanem cywilnym ilustruje
również rycina 16.1.
Tabela 16.5. Rozkład stanu cywilnego względem płci wśród osób publicznych
Stan cywilny Kobiety Mężczyźni
Zamężne/żonaci Stanu wolnego, nigdy zamężna/żonaty Rozwiedziony(a), w separacji
Wdowa/wdowiec Ogółem 49 2 10 11 72 59 2 5 66
Źródło: Susan J. Carroll (1989), The Persona! is Poiitical: The Intersection of Private
Lives and Public Roles among Women and Men in Elective and Appointive Office, „Women
and Politics", 9, s. 2.
Tabela 16.6. Rozkład stanu cywilnego względem płci wśród osób publicznych (w
procentach)
Stan cywilny Kobiety Mężczyźni
Zamężna/żonaty Stanu wolnego, nigdy zamężna/żonaty Rozwiedziony(a), w separacji
Wdowa/wdowiec Ogółem 68,1 2,8 13,9 15,3 100 (W =72) 89,4 3,0 7,6 100 (JV=66)
409
rozwiedziony
- wdowa
stanu wolneqo

rozwiedziona
sianu woinego

żonaty
— zamężna
mężczyźni kobiety
Ryc. 16.1. Stan cywilny a płeć wśród osób publicznych
Jeżeli przyjmujemy założenie, że jedna ze zmiennych jest zmienną niezależną, a druga
zmienną zależną, to procenty należy obliczyć dla zmiennej niezależnej. Jeżeli płeć
potraktowalibyśmy jako zmienną zależną, a stan cywilny jako zmienną niezależną (co raczej
nie jest możliwe w naszym przykładzie), to procenty należałoby obliczyć wzdłuż wierszy, a
nie wzdłuż kolumn.
Wprawy w czytaniu takich tabel można nabyć, analizując przykład 16.2 oraz dodatek
A.
Przykład 16.2
Zasady czytania tabeli
Tabelaryzacja danych jest użytecznym sposobem przedstawiania wyników badań w
naukach społecznych. Poniżej przedstawiamy prosty przewodnik mówiący, jak czytać takie
tabele.
1. Przeczytaj tytuł. Tytuł zawiera informacje o tym, co zawiera tabela. Tytuł tabeli
16.7 mówi, że tabela ta zawiera dane dotyczące różnic postaw wobec aborcji między
kobietami a mężczyznami.
2. Przeanalizuj źródło. Najczęściej informacje dotyczące źródła danych umieszczane
są na dole tabeli, jak w tabeli 16.7. Określenie źródła pomoże w ocenie rzetelności danych, a
także będzie wskazówką, gdzie szukać innych informacji na dany temat.
3. Określ, w jakim kierunku obliczono procenty. Ten etap jest bardzo ważny i należy
go starannie zrealizować. Trzeba mieć pełną jasność, czy procenty obliczono wzdłuż kolumn,
wierszy czy na podstawie danych całej tabeli. Należy sprawdzić, czy prezentowana tabela nie
jest fragmentem całości i czy w związku z tym przedstawione procenty sumują się do 100%.
Kierunek obliczania procentów można ustalić, znajdując miejsce, w którym umieszczono
dane w kategorii „ogółem". W tabeli 16.7 procenty obliczono w kolumnach. Z kolei w tabeli
16.8 obliczono je w wierszach. Na rycinie 16.2a i 16.2b przedstawiono proste wykresy
słupkowe ilustrujące dwie metody obliczania procentów wykorzystane w tabeli 16.7 i 16.8.
410
Tabela 16.7. Postawy wobec aborcji w grupie mężczyzn i kobiet (w procentach) (na
podstawie Generalnego Sondażu Społecznego, 1988-1991)
Postawy wobec aborcji
Mężczyźni
Kobiety
Ogółem
Obrona życia poczętego
Relatywiści
Za wolnym wyborem
Ogółem
41 37 39
53 54 53
6 9 S
100 100 100
(W =1300) (N= 1600) (A? =2900)
Na podstawie: Elizabeth Addel Cook, Ted G. Jeleń, Clyde Wilcox (1992), The Social
Bases of Abortion Attitudes, rozdz. 2, w: Between TwoAhsolules: Public Opinions and the
Politics of Abortion, Boulder, Colo.: Westview Press.
4. Porównaj. Porównanie różnic w otrzymanych procentach jest szybką metodą
oszacowania wielkości związku pomiędzy zmiennymi. Należy zawsze porównywać różnice w
kierunku przeciwnym niż sposób obliczania procentów. Jeżeli procenty obliczono w
kolumnach, to różnice należy porównywać w wierszach. Procent mężczyzn, którzy są za
ochroną życia poczętego, można porównać z procentem kobiet mających taką samą postawę
(41 do 37%). Możemy również porównać procent mężczyzn i kobiet przyjmujących postawę
relatywistyczną (53 do 54%) lub będących za wolnym wyborem (6 do 9%). Porównując te
dane, widzimy, że nie ma różnic w postawach ze względu na płeć. Kobiety i mężczyźni w
jednakowym stopniu popierają lub są przeciwko aborcji.
Tabela 16.8. Poziom wykształcenia a klasa społeczna (w procentach)
Nie ukończona Ukończona Rozpoczęta Ukończona
szkoła szkoła i nie ukończona czteroletnia
Klasa średnia średnia, ale nie nauka nauka Ogółem
społeczna rozpoczęta nauka w college'u w college'u w college'u
Wyższa i wyższa
średnia 5 15 10 70 100 (TV = 600)
Niższa średnia 3 12 36 49 100 (#=420)
Klasa pracująca 16 23 41 20 100 (/V=510)
W tabeli 16.8 — ponieważ procenty obliczono w wierszach — będziemy porównywać
różnice w kolumnach. Na przykład, możemy porównać, jaki procent osób należących do
klasy pracującej, niższej średniej i wyższej średniej ukończyło czteroletnią naukę w college'u
(20, 49 i 70%). Podobne porównania możemy przeprowadzić dla pozostałych poziomów
wykształcenia. Otrzymane dane wskazują, że poziom wykształcenia jest powiązany z
przynależnością do klasy społecznej.
Czasami, aby uprościć sposób prezentacji, przedstawia się jedynie część tabeli. Tabela
16.9 jest tego przykładem. Dane te pochodzą z raportu Sex in America, o którym
wspominaliśmy wcześniej. W tabeli tej przedstawiono dane pozwalające porównać kontakty z
tą samą płcią wśród kobiet i mężczyzn. Warto zauważyć, że podane procenty nie sumują się
do 100 i można je bezpośrednio porównywać. Dane te ukazują proporcje osób w dwóch
kategoriach zmiennej niezależnej (płeć), które udzieliły odpowiedzi wpadających do tej samej
kategorii zmiennej zależnej (kontakty seksualne z tą samą płcią).
411
100
80
60
40
20 -
za wolnym wyborem
relatywizm
obrona życia poczętego
za wolnym wyborem
relatywizm
obrona życia poczętego
mężczyźni
kobiety
a. Postawy wobec aborcji a płeć (procenty w kolumnach)
klasa
pracująca
niższa średnia
wyższa i wyższa średnia
brak szkoły średniej
szkoła średnia
szkoła średnia
nie ukończony college
szkoła średnia
nie
jkonczony
college
—I— 20
40
nie ukończony college
ukończony college
ukończony college
ukończony college
60
-1 100
b. Wykształcenie a klasa społeczna
Ryc. 16.2. Wykres słupkowy dla danych procentowych z tabeli 16.7 i 16.8
Tabela 16.9. Płeć a procent osób deklarujących kontakty lub doświadczenia seksualne
z tą samą płcią
Pleć
Procent osób deklarujących kontakty z tą samą płcią
Mężczyźni Kobiety
10,1 (N* 1700) 8,6 (#= 1650)

Na podstawie: „New York Times", So, Now We Know What Americans Do in Bed.
So? October 9, 1994, s. 3.
Na podstawie: Roberta G. Simmons (1968), Basic Principles ofTable Reading, w:
Morris Rosenberg (red.), The Logic o/Survey Analysis, New York: Basic Books, s. 251-258.
Mediana i średnia arytmetyczna jako miary współzmienności
Jeżeli zmienne uwzględnione w rozkładzie dwuzmiennowym są zmiennymi
porządkowymi, to jako miarę współzmienności można wykorzystać medianę odpowiednich
rozkładów jednozmiennowych, jak to pokazuje tabela 16.10 307 badanych osób
sklasyfikowano ze względu na wyznanie religijne i postrzeganą przez nich jakość życia.
Zmienna zależna „jakość życia" została umieszczona po lewej stronie tabeli, a poszczególne
wyznania religijne tworzą kolejne rozkłady jednozmienno-we. Zmienna „jakość życia" może
przybierać wartości od 1 (znakomita) do 4 (bardzo zła). Właściwą miarą tendencji centralnej
dla danych porządkowych jest mediana i za jej pomocą możemy przedstawić trzy rozkłady
danych — dla katolików, żydów i protestantów. Analizując procenty kumulowane dla
każdego rozkładu i znajdując kategorię, w której procent kumulowany jest najbliższy 50%,
stwierdzamy, że mediana dla katolików wynosi 2, dla żydów 1 i dla protestantów 2. Na
podstawie tych danych możemy wnioskować, że osoby pochodzenia żydowskiego wyżej
oceniają jakość swojego życia niż katolicy czy protestanci. Różnica ta jest wskaźnikiem siły
związku czy inaczej współzmienności pomiędzy jakością życia a wyznaniem religijnym.
Tabela 16.10. Jakość życia a wyznanie religijne
Jakość Katolicy Żydzi Protestanci
zycia procent procent procent
procent kumulowany procent kumulowany procent
kumulowany
Znakomita 20 20 67 67 22 22
Dobra 55 75 17 84 43 65
Przeciętna 22 97 16 100 29 94
Słaba 3 100 — — 6 100
Ogółem 100 (#=151) 100 (N = 6) 100 (N =150)
Na podstawie: Social and Political Survey: Winter 1989, Social Science Research
Facility, University of Wisconsin, Milwaukee (nie publikowane).
413
Tabela 16.11. Wyniki testu inteligencji a wiek (dane hipotetyczne)
Wyniki testu Wiek
inteligencji 6-10 11-15
0-4 10 6
5-9 8 10
10-14 6 7
15-19 4 3
Ogółem 28 26
21-25
1 21
2 23
8 29
10 20
21 93
Tabela 16.12. Średnie ilorazy inteligencji w czterech gru pach wiekowych
Grupa wiekowa Średnia
6-10 7,7
11-15 8,3
16-20 9,8
21-25 13,4
Dla zmiennych porządkowych jako podstawę porównań możemy wykorzystać średnią
arytmetyczną. W tabeli 16.11 przedstawiliśmy rozkład inteligencji względem wieku. Każda
grupa wiekowa tworzy rozkład jednozmiennowy i może zostać opisana za pomocą wartości
średniej arytmetycznej. W tabeli 16.12 pokazano średnie arytmetyczne dla każdego rozkładu.
Możemy porównać każdą parę średnich. Zauważmy, że wartości średnie rosną wraz z
wiekiem, a to pozwala stwierdzić, że „wiek" i „inteligencja" pozostają ze sobą w związku.
¦ Miara zwiqzku
Dotychczas ocenialiśmy stopień współzmienności dwóch zmiennych, porównując
rozkłady jednozmiennowe, które tworzą tabelę skonstruowaną dla dwóch zmiennych. Istnieją
jednak takie techniki statystyczne, które pozwalają ocenić siłę związku pomiędzy zmiennymi
na podstawie jednej miary. Miary związku, nazywane współczynnikami korelacji
odzwierciedlają siłę i kierunek związku między zmiennymi, a także stopień, w jakim na
podstawie wartości jednej zmiennej można przewidywać wartości drugiej zmiennej.
Pojęcie przewidywania (predykcji) jest ściśle związane z pojęciem współzmienności.
Kiedy dwie zmienne się współzmieniają, to jedną z nich można wykorzystać do tego, aby
przewidywać drugą. Jeżeli między dwiema zmiennymi nie ma żadnego związku, to na
podstawie informacji dotyczących jednej zmiennej nie można przewidywać drugiej. Raz
jeszcze przeanalizujmy tabelę 16.2, 16.3 i 16.4. Przyjmijmy, że nie dysponujemy żadnymi
informacjami na temat wyznania religijnego 24 osób i że musimy odgadnąć, do której klasy
społecznej należy każda z tych osób. Najlepszą metodą zgadywania jest odwołanie się do
kategorii, do której wpada najwięcej przypadków. Analizując wspomniane tabele, widzimy
jednak,
414
ze wszystkie zaobserwowane częstości w poszczególnych kategoriach są identyczne.
Możemy zatem arbitralnie wybrać jakąkolwiek kategorię. Przypuśćmy, że wybraliśmy klasę
średnią jako najbardziej prawdopodobną kategorię opisującą każdą osobę. Ponieważ jednak w
każdej tabeli do klasy średniej wpada tylko po 8 przypadków, więc podejmując taką decyzję,
popełnimy 16 błędów na 24 podjęte decyzje.
Przykład 16.3
Wspótzmienność i predykcja
Liczba popełnionych błędów, gdybyśmy uznali, że każda osoba należy do klasy
średniej: 16
¦ Dla tabeli 16.2: Idealna współzmienność
Klasa wyższa Predykcja
PPPPPPPP Wszyscy protestanci należą do klasy wyższej
Liczba popełnionych błędów: 0
Klasa średnia
ŻŻŻŻŻŻŻŻ Wszyscy żydzi należą do klasy średniej
Liczba popełnionych błędów: 0
Klasa niższa
KKKKKKKK Wszyscy katolicy należą do klasy niższej
Liczba popełnionych błędów: 0
OGÓLNA LICZBA BŁĘDÓW 0
¦ Dla tabeli 16.3: Przeciętna współzmienność
Klasa wyższa Predykcja
ŻŻPPPPPP Wszyscy protestanci należą do klasy wyższej
Liczba popełnionych błędów: 2
Klasa średnia
KŻŻŻŻŻŻP Wszyscy żydzi należą do klasy średniej
Liczba popełnionych błędów: 2
Klasa niższa
KKKKKKKP Wszyscy katolicy należą do klasy niższej
Liczba popełnionych błędów: 1
OGÓLNA LICZBA BŁĘDÓW 5
¦ Dla tabeli 16.4: Prawie zerowa współzmienność
Klasa wyższa Predykcja
KKŻŻŻPPP Wszyscy protestanci należą do klasy wyższej
Liczba popełnionych błędów: 5
Klasa średnia
KKKŻŻPPP Wszyscy żydzi należą do klasy średniej
Liczba popełnionych błędów: 6
Klasa niższa
KKKŻŻŻPP Wszyscy katolicy należą do klasy niższej
Liczba popełnionych błędów: 5
OGÓLNA LICZBA BŁĘDÓW 16
415
Wyznanie religijne możemy wykorzystać do przewidywania klasy społecznej jedynie
wtedy, kiedy zmniejszy to liczbę popełnionych błędów w procesie predykcji. Załóżmy, że
przewidujemy, iż wszyscy protestanci należą do klasy wyższej, wszyscy żydzi do klasy
średniej, a wszyscy katolicy do klasy niższej. W odniesieniu do tabeli 16.2 nie popełnimy
żadnego błędu (wszystkie nasze predykcje będą dokładne), dla danych z tabeli 16.3
popełnimy 5 błędów, a dla tabeli 16.4 — 16 błędów.
W przykładzie 16.3 pokazujemy, w jaki sposób można ocenić korzyści wynikające z
wykorzystania danych o wyznaniu religijnym do przewidywania klasy społecznej poprzez
określanie nowej liczby błędów w stosunku do liczby błędów popełnionych wcześniej. W
tabeli 16.2 korzyści są ogromne, albowiem zmniejszenie liczby błędów jest największe (16 -
0= 16). Dla danych z tabeli 16.3 korzyści są znaczne, ponieważ o 11 zmniejszamy liczbę
błędów (15 — 5= 11), a dla danych z tabeli 16.4 nie ma żadnych zmian, gdyż liczba błędów
nie ulegnie zmianie (16 — 16 = 0). W tym ostatnim przypadku liczba popełnionych błędów
wtedy, kiedy przewidujemy przynależność klasową na podstawie wyznania religijnego, jest
taka sama jak wtedy, kiedy przyjęlibyśmy, że wszystkie osoby należą do klasy średniej.
Proporcjonalne zmniejszenie liczby błędów
Siłę związku pomiędzy klasą społeczną a wyznaniem religijnym możemy oszacować,
obliczając proporcjonalne zmniejszenie błędu predykcji w sytuacji, gdy jedną zmienną
wykorzystujemy do przewidywania drugiej. Proporcjonalne zmniejszenie błędu definiujemy
w sposób następujący3:
(16.1)
gdzie b — wyjściowa liczba błędów (przed zastosowaniem zmiennej niezależnej jako
predyktora), a — nowa liczba błędów (po zastosowaniu zmiennej niezależnej jako
predyktora). Proporcja ta może przyjmować wartości od 0 do 1 i jest wyrażana w procentach,
gdzie 0 oznacza brak redukcji liczby błędów (0%), a wartość 1 oznacza 100-procentowe
zmniejszenie liczby błędów predykcji.
Posługując się równaniem (16.1), możemy obliczyć proporcjonalne zmniejszenie
liczby błędów predykcji dla danych z tabeli 16.2, 16.3 i 16.4:
dla tabeli 16.2:
16-0_ 16_
16-5 11
dla tabeli 16.3: ---------= — = 0,69,
16 16
dla tabeli 16.4: ----------= — = 0.
16 16
! Mueller i in., Statistical Reasoning in Sociology, s. 248.
416
Analizując otrzymane wyniki, widzimy, że w przypadku tabeli 16.2 mamy do
czynienia z całkowitym zmniejszeniem błędu (wartość obliczonego współczynnika ! wynosi
1, co oznacza 100-procentowe zmniejszenie błędu). Wynik ten odzwierciedla idealny związek
między dwiema zmiennymi: wyznaniem religijnym i statusem społecznym. Dla danych z
tabeli 16.3, gdy wykorzystaliśmy wyznanie religijne jako predyktor statusu społecznego,
liczba błędów zmniejszyła się o prawie 70%. Wartość współczynnika wynosi dla tych danych
0,69. Natomiast w przypadku tabeli 16.4 nie mamy żadnych korzyści z oparcia predykcji na
wyznaniu religijnym — wartość współczynnika wynosi 0 i oznacza całkowity brak związku
między zmiennymi.
Odwołując się do tej samej logiki, możemy wyprowadzić dowolną miarę siły związku
między zmiennymi, pamiętając, że musi ona być oparta na dwóch regułach:
1) na regule pozwalającej badaczowi przewidywać zmienną zależną (np.
przynależność do klasy społecznej) na podstawie zmiennej niezależnej (np. wyznania
religijnego);
2) na regule pozwalającej przewidywać zmienną zależną bez odwoływania się do
zmiennej niezależnej4.
Biorąc pod uwagę powyższe dwie reguły, możemy zdefiniować dowolną miarę
związku między zmiennymi w sposób następujący:
błąd otrzymany po zastosowaniu reguły 2 — błąd otrzymany po zastosowaniu reguły
1 błąd otrzymany po zastosowaniu reguły 2
Poniżej przedstawimy miary związku między zmiennymi, wyprowadzając je z tej
właśnie definicji. Omówimy współczynnik lambda pozwalający mierzyć siłę związku między
danymi nominalnymi, współczynnik gamma oraz tau-b Kendalla dla danych porządkowych, a
także współczynnik korelacji r Pearsona dla danych interwałowych.
I Miary zwigzku dla danych nominalnych
Lambda — współczynnik przewidywalności Guttmana
Współczynnik korelacji lambda (A), znany również jako współczynnik
przewidywalności Guttmana, jest współczynnikiem, który można stosować dla zmiennych
nominalnych5. Przypuśćmy, że chcielibyśmy przewidzieć, z którą partią identyfikują się biali
Amerykanie nie mieszkający na południu, biorący udział w wyborach lokalnych w 1996 roku.
Jedną z możliwości jest zebranie danych o przynależności partyjnej ludzi w 1996 roku i
wykorzystanie ich w celach predykcyjnych przy zastosowaniu reguły 2. Jednozmiennowy
rozkład danych dotyczących przynależności partyjnej przedstawiliśmy w tabeli 16.13.
4 Herbert L. Costner (1965), Criteria for Measures of Association, „American
Sociological Review", 30, s. 344.
5 Louis Guttman (1941), An Outline of the Statistical Theory of Prediction, w: Paul
Horst (red.), The Prediction oj PersortoA A.djustment,New YotW. Social Science Research
Counci\.
417
Tabela 16.13. Partia, z którą identyfikowali się biali Amerykanie nie mieszkający na
południu w roku 1996 (dane hipotetyczne)
Partia /
Demokraci 126
Niezależni 78
Republikanie 96
Ogółem 300
Najbardziej skutecznym sposobem przewidywania na podstawie przedstawionego
rozkładu jest wykorzystanie miary tendencji centralnej. Pozwoli to na dokonanie predykcji z
minimalną liczbą błędów. Przynależność partyjna jest zmienną nominalną, dlatego właściwą
miarą tendencji centralnej jest w tym przypadku wartość modalna. Ponieważ kategorią, do
której wpada najwięcej przypadków, są demokraci (N= 126), przeto najlepszą predykcją jest
przyjęcie, iż każda z osób glosujących będzie się identyfikować właśnie z Partią
Demokratyczną. W tej sytuacji liczba błędów nie przekroczy 174 (78 osób niezależnych i 96
republikanów). Każdy inny sposób przewidywania będzie prowadzić do większej liczby
błędów. Jeżeli zatem chcielibyśmy przewidywać, z którą partią identyfikują się osoby jedynie
na podstawie zmiennej zależnej, to jako podstawę przewidywania powinniśmy wybrać tę
kategorię, do której wpada najwięcej przypadków. Zgodnie z oczekiwaniami popełnimy 174
błędy na 300 decyzji, tj. 58%.
Procent popełnionych błędów możemy zmniejszyć, jeżeli jako podstawę
przewidywania (predyktor) wykorzystamy inną zmienną, na przykład to, z którą partią osoby
te utożsamiały się w roku 1992. Na tej podstawie możemy skonstruować tabelę dwuzmien-
nową (tabela 16.14), w której wszyscy głosujący zostaną sklasyfikowani ze względu na dwie
zmienne: to, z którą partią utożsamiały się w roku 1992 i 1996. Posiadając dodatkowe
informacje, możemy przewidzieć jeszcze przed wyborami w 1996 roku, z którą partią będą
się utożsamiali biali Amerykanie nie mieszkający na południu. Zacznijmy od osób, które w
roku 1992 określiły się jako demokraci. Spośród 108 osób 93 ponownie w roku 1996
zadeklarowały się jako demokraci. Ponieważ do tej kategorii wpada najwięcej przypadków,
możemy przyjąć, że wszyscy, którzy w roku 1992 zadeklarowali się jako demokraci, tak samo
określą się w roku 1996. Przyjmując takie założenie, popełnimy jednak 15 błędów, ponieważ
15 osób ze 108 w roku 1996 określiło się inaczej.
Tabela 16.14. Partia, z którą identyfikowali się biali Amerykanie nie mieszkający na
południu w roku 1992 i 1996 (dane hipotetyczne)
Identyfikacja z partią w roku 1996 Identyfikacja z partią w roku 1992
Ogółem
demokraci niezależni republikanie
Demokraci 93 27 6 126
Niezależni 15 48 15 78
Republikanie -- 15 81 96
Ogółem 108 90 102 300
418

Spośród 90 głosujących, którzy w roku 1992 określili siebie jako niezależni, 48


zrobiło tak samo w roku 1996. Możemy zatem przyjąć, że każdy, kto określił siebie w roku
1992 jako osobę niezależną, zrobi też tak w roku 1996. Zatem popełnimy 27+14 = 42 błędy
(taka liczba osób określiła siebie inaczej w roku 1996). I wreszcie, gdybyśmy założyli, że
żadna spośród 102 osób, które w roku 1992 utożsamiały się z Partią Republikańską, nie
zmieni zdania w roku 1996, to popełnilibyśmy 15 + 6 = 21 błędów.
Ogólna liczba błędów popełnionych przy zastosowaniu reguły 1 wynosi 15+42 + 21
=78 na 300 predykcji, czyli inaczej 26%. Posłużenie się zmienną niezależną jako predyktorem
zmniejszyło liczbę błędów predykcji, co wyraża się w wielkości współczynnika korelacji,
który możemy obliczyć następująco:
liczba błędów otrzymanych po zastosowaniu reguły 1 = 174
liczba błędów otrzymanych po zastosowaniu reguły 2 = 78
, 174-78
X =------------= 0,55.
174
W ten sposób przewidując — na podstawie decyzji podjętych w roku 1992 — z którą
partią będą się utożsamiać głosujący w roku 1996, wyeliminowaliśmy 55% błędów. Lambda
jest współczynnikiem niesymetrycznym, ponieważ odzwierciedla związek między zmiennymi
tylko w jednym kierunku. Bardzo często przedstawia się ją jako km gdzie a określa, że jest to
współczynnik niesymetryczny. Wielkość współczynnika A równa 0,55 oznacza siłę związku
pomiędzy wyborem partii w roku 1992 i 1996, gdzie decyzje z roku 1992 są traktowane jako
zmienna niezależna. Współczynnik korelacji można również obliczyć w przeciwnym
kierunku, gdyby decyzje z roku 1996 potraktować jako zmienną niezależną, a te z roku 1992
jako zmienną zależną. Metoda obliczania jest identyczna: obliczamy liczbę błędów, jaką
popełnilibyśmy, dokonując predykcji akceptacji danej partii w roku 1992 bez odwoływania
się do danych z roku 1996 i odejmujemy od otrzymanej wartości liczbę błędów, jaką
otrzymalibyśmy, opierając predykcję na danych z roku 1996. Zmieniając porządek
zmiennych, otrzymalibyśmy zatem:
, 192-78
X =------------= 0,60.
193
Zauważmy, że lambda obliczona w przeciwnym kierunku ma inną wartość.
Wykorzystując dane z 1996 roku do przewidywania, z którą partią utożsamiali się wyborcy w
roku 1992, zmniejszyliśmy liczbę błędów predykcji o 60%.
Alternatywne metody obliczania \am\Mty. Y^rriod^ «\oxe,«vy tónntwit. o\>Yvcxnjć,
posługując się nieco prostszą metodą6:
K = ^TT"' (16-3)
1 Linton C. Freeman (1965), Elementary Applied Statistics, New York: Wiley, s. 74.
419
gdzie/ — liczebność modalna w każdej kategorii zmiennej niezależnej, Fd —
największa liczebność brzegowa dla zmiennej zależnej, TV — ogólna liczba przypadków.
Powtórzmy teraz nasze obliczenia współczynnika korelacji dla danych z roku 1992 i 1996,
gdy dane z roku 1992 są traktowane jako zmienna niezależna:
Sfi = 93+48 + 81 =222, Fd= 126, N = 300,
222 - 126 96
X. =------------=----= 0,55.
300-126 174
Podsumowując, wielkość współczynnika lambda odzwierciedla proporcjonalne
zmniejszenie błędu oszacowania w sytuacji, gdy przechodzimy z reguły 2 na regułę 1. Siła
związku pomiędzy zmiennymi odzwierciedla wzrost jakości predykcji wtedy, gdy
wprowadzimy drugą zmienną. Lambda przybiera wartości od 0 do 1. Zero oznacza, że nie ma
żadnego przyrostu jakości predykcji przy przejściu z jednej reguły na drugą, natomiast
wartość równa jeden opisuje sytuację, w której przewidywanie zmiennej zależnej na
podstawie zmiennej niezależnej jest całkowicie bezbłędne.
Ograniczenia lambdy. Jeśli wszystkie liczebności modalne koncentrują się w jednej
kategorii zmiennej zależnej, to współczynnik lambda ma swoje ograniczenia. Lambda będzie
zawsze wynosić zero, nawet wtedy gdy dwie zmienne są rzeczywiście powiązane. Na
przykład w przypadku rozkładu dwuzmiennowego przedstawionego w tabeli 16.15 widać
wyraźnie, że miejsce zamieszkania jest powiązane z samooceną. Większość mieszkańców
obszarów wiejskich (75%) ma wyższą samoocenę niż mieszkańcy miast (66%). Ponieważ
jednak suma wszystkich liczebności modalnych dla zmiennej „miejsce zamieszkania" (Zft =
300 + 200 = 500) jest równa największej liczebności brzegowej obliczonej dla zmiennej
„samoocena" (7^ = 500), zatem wartość lambdy wyniesie zero. Z takim rozkładem możemy
się spotkać wtedy, gdy liczebności brzegowe dla zmiennej zależnej są skrajnie nierówne. Nie
należy wówczas stosować współczynnika lambda.
Tabela 16.15. Miejsce zamieszkania i samoocena
Samoocena Miejsce zamieszkania Ogółem
okręg wiejski okręg miejski
Wysoka Niska Ogółem 300 100 400 200 100 300 500 200 700
420
¦ Miary zwigzku pomiędzy zmiennymi dla skali porządkowej
Jeśli obie zmienne rozkładu dwuzmiennowego są zmiennymi porządkowymi, to
konstrukcja miary siły związku między zmiennymi jest oparta na podstawowych
własnościach skali porządkowej. Skalę porządkową wykorzystujemy po to, aby
uporządkować (porangować) obserwacje ze względu na mierzone zmienne. W przypadku
jednej zmiennej jesteśmy zazwyczaj zainteresowani oceną względnych pozycji, jakie zajmują
poszczególne jej wartości. Na przykład możemy uporządkować zawody ze względu na
prestiż, jaki jest im przypisywany, a studentów ze względu na stopień ich tolerancji
politycznej. Tę samą zasadę można zastosować w przypadku dwóch zmiennych. W tej
ostatniej sytuacji jesteśmy zainteresowani oceną, czy porządek wartości zmiennych jest taki
sam, podobny czy różny. Porównujemy zatem dwie obserwacje i oceniamy, czy obserwacja,
która ma wyższą rangę w przypadku jednej zmiennej, ma również wyższą rangę w przypadku
drugiej zmiennej. Możemy na przykład sprawdzić, czy uporządkowanie zawodów ze względu
na ich prestiż w latach pięćdziesiątych jest podobne do tego, jakie istniało w latach
dziewięćdziesiątych, czy osoby o konserwatywnej postawie wobec polityki zagranicznej są
równie konserwatywne w sprawach polityki wewnętrznej.
Jeśli zebrane dane wykazują ten sam porządek dla obu zmiennych, to mówimy, że
związek między nimi jest pozytywny. Natomiast jeśli porządek dla obu zmiennych jest
odwrotny, tzn. kiedy ta sama osoba ma wysoką rangę w jednej zmiennej i niską rangę w
drugiej, to mówimy, że związek między nimi jest negatywny. Jeżeli zaś uporządkowanie
wartości obu zmiennych nie układa się w żaden wzorzec, to mówimy, że zmienne są
niezależne. Rozważmy następujący przykład: jeżeli osoby personelu wojskowego wysokiej
rangi są bardziej liberalne w sprawach politycznych niż osoby personelu niższej rangi, to
możemy powiedzieć, że ranga wojskowa i liberalizm polityczny są pozytywnie powiązane.
Gdyby natomiast oficerowie wysokiej rangi byli mniej liberalni, to byłby to związek
negatywny. Gdyby zaś część oficerów wysokiej rangi była bardziej liberalna, a część mniej
liberalna, to ranga wojskowa i liberalizm byłyby niezależne.
Pojęcie pary danych
Większość porządkowych miar związku oparta jest na parze jako jednostce analizy i
na względnym uporządkowaniu wartości wewnątrz każdej pary. Przypuśćmy, że sześciu
oficerów sklasyfikowaliśmy ze względu na ich rangę wojskową i poziom liberalizmu. Dane te
przedstawiliśmy w tabeli 16.16. Każdej osobie, której dane umieściliśmy w tabeli 16.16,
nadaliśmy imię dla celów ilustracyjnych. Imiona te przedstawia tabela 16.17. W tabeli 16.18
połączyliśmy te osoby w pary i określiliśmy ich uporządkowanie względem dwóch
zmiennych: rangi wojskowej i liberalizmu politycznego*. Pierwsza kolumna zawiera imiona
każdej pary, druga numer komórki rozkładu dwuzmiennowego, trzecia i czwarta rangę
wojskową i poziom liberalizmu. Ostatnia kolumna opisuje względną pozycję pary ze względu
na dwie zmienne.
* Nie wymieniliśmy tych par, które można utworzyć w ramach jednej komórki — np.
John i Ruth — ponieważ osoby tworzące taką parę mają tę samą rangę w obu zmiennych.
Dlatego nie są one istotne z punktu widzenia tych miar związku dla danych porządkowych,
które omawiamy w tym rozdziale.
421
Tabela 16.16. Liberalizm a ranga wojskowa (dane hipotetyczne)
Liberalizm (Y) Ranga wojskowa (X) kolumna 1 kolumna 2
Ogółem
niska wysoka
Wiersz 1 Niski Wiersz 2 Wysoki Ogółem 2 'on 1(21) 3 (12> 2 '(22)
3 336
Tabela 16.17. Liberalizm a ranga wojskowa dla sześciu ofice rów
Liberalizm (Y) Ranga wojskowa (X) niska wysoka
Ogółem
Niski Wysoki Ogółem John, Ruth(ll Alice(2|) 3 Susan( Jim, Glenn(22) 3
336
Na przykład John znajdujący się w komórce 11 i Suzan, która znajduje się w komórce
12, mają taką samą pozycję (pary wiązane) dla zmiennej Y (liberalizm). Mają oni różną rangę
wojskową, ale podzielają te same poglądy polityczne. Pary wiązane dla zmiennej Y składają
się natomiast z oficerów mających różną rangą wojskową, ale podzielających te same poglądy
polityczne. Natomiast pary wiązane dla zmiennej X (na przykład John i Alice) to oficerowie o
tej samej randze, ale różniący się poglądami politycznymi. Z kolei pary, który zostały opisane
jako „takie same", składają się z osób zajmujących podobną pozycję względem obu
zmiennych (np. wyższa ranga wojskowa i bardziej liberalne poglądy polityczne). I wreszcie
pary opisane jako „przeciwne" zajmują różną pozycję względem dwóch zmiennych, tj. osoba
o wyższej randze wojskowej deklaruje mniej liberalne poglądy polityczne.
Rodzaje par
Analizując tabelę 16.18, widzimy, że można wyróżnić następujące rodzaje par:
1.
3. 4.
Pary wykazujące takie same uporządkowanie dla obu zmiennych (XiY) — opisywane
dalej jako Ns.
Pary wykazujące odwrotne uporządkowanie dla zmiennej X i Y — opisywane dalej
jako Nd.
Pary wiązane dla zmiennej X — opisywane jako Tx. Pary wiązane dla zmiennej Y —
opisywane jako Ty.
1. Aby znaleźć pary opisane jako Ns w tabeli dwuzmiennowej, należy pomnożyć
liczebność każdej komórki przez ogólną liczebność wszystkich komórek znajdujących się
poniżej i na prawo od niej i dodać do siebie otrzymane iloczyny. Dla tabeli 16.16 liczba par
wykazujących takie samo uporządkowanie dla obu zmiennych wynosi 2x2 = 4.
422
Tabela 16.18. Pozycja, jaką zajmują oficerowie względem dwóch zmiennych: rangi
wojskowej i liberalizmu
Osoba
Komórka
Ranga wojskowa (X)
Poziom liberalizmu
(Y)
Porządek
John 11 N N zakotwiczony na Y
Susan 12 W N
Ruth 11 N N zakotwiczony na Y
Susan 12 W N
John 11 N N zakotwiczony na X
Alice 21 N W
Ruth 11 N N zakotwiczony na X
Alice 21 N W
John 11 N N taki sam
Jim 22 W W
Ruth 11 N N taki sam
Jim 22 W W
John 11 N N taki sam
Glenn 22 W W
Ruth 11 N N taki sam
Glenn 22 W W
Susan 12 W N odwrotny
Alice 21 N W
Susan 12 W N zakotwiczony na X
Jim 22 W W
Susan 12 W N zakotwiczony na X
Glenn 22 w W
Alice 21 N W zakotwiczony na Y
Jim 22 W W
Alice 21 N w zakotwiczony na Y
Glenn 22 W w
2. Aby znaleźć pary opisane jako Nd w tabeli dwuzmiennowej należy pomnożyć
liczebność każdej komórki przez ogólną liczebność wszystkich komórek znajdujących się
poniżej i na lewo od niej i dodać do siebie otrzymane iloczyny. Dla tabeli 16.16 liczba par
wykazujących różne uporządkowanie dla obu zmiennych wynosi 1x1 = 1.
3. Aby w tabeli dwuzmiennowej znaleźć pary wiązane dla zmiennej X, należy
pomnożyć liczebność każdej komórki przez ogólną liczebność wszystkich komórek
znajdujących się w tej samej kolumnie co dana komórka i dodać do siebie otrzymane
iloczyny. Liczba par wiązanych dla zmiennej X wynosi (2x 1) + (1 x2) = 4.
4. Aby w tabeli dwuzmiennowej znaleźć pary wiązane dla zmiennej Y, należy
pomnożyć liczebność każdej komórki przez ogólną liczebność wszystkich komórek
423
znajdujących się w tym samym wierszu co dana komórka i dodać do siebie otrzymane
iloczyny. Liczba par wiązanych dla zmiennej Y wynosi (2x 1) + (1 x2)=4.
Współczynnik gamma
Współczynnik gamma (y lub inaczej G) jest wykorzystywany do pomiaru sity związku
pomiędzy zmiennymi porządkowymi. Został opracowany przez Leo Go-odmana i Williama
Kruskala7. Jest to statystyka symetryczna oparta na liczbie par wykazujących taki sam
porządek (Ns) oraz liczbie par wykazujących odwrotne uporządkowanie (Nd). Pary wiązane
dla jednej lub drugiej zmiennej nie są brane pod uwagę w definicji gammy. Współczynnik
gamma jest dany wzorem8:
0,5 (Ns + Nd) - minimum (Ns, Nd)
y =-----------------------------------------------------------. (16.4)
r 0,5 (Ns+Nd)
Aby zilustrować sposób obliczania współczynnika gamma, weźmy pod uwagę dane z
tabeli 16.19, które dotyczą stażu studiowania oraz politycznej tolerancji wśród studentów.
Zostały one zebrane, aby sprawdzić hipotezę, że wraz ze stażem studiowania studenci stają się
bardziej liberalni. Badacze przyjęli, że jeżeli obie zmienne okażą się ze sobą powiązane, to —
z minimalnym błędem — będzie można przewidywać tolerancję studentów na podstawie
tego, na którym są roku studiów.
Nasze obliczenia rozpoczynamy od ustalenia liczby par, jakie można utworzyć z 1032
danych. Jeżeli nie uwzględnimy par wiązanych, to ogólna liczba par, jaką można utworzyć z
tych danych, wynosi Ns+Nd. Ns i Nd obliczamy zgodnie z wcześniej przedstawioną definicją:
Aft = 30(75+ 51+79 +59 +79+ 63+ 120+151+45+ 34) + 66(51+59 + 63 + 151+34) +
30(79 + 59 + 79 + 63 + 120+151+45 + 34) + 75(59 + 63 + 151+34) + 34(79 + 63 +
120+151+45 + 34) + 79(63+151+34) + 33(120 +151+45 + 34) + 79(151+34)+ 40(45+
34)+120(34) = 157 958
Nd = 15(120+151+79 + 63 + 79 + 59 + 75 + 51+66 + 28) + 45(151+63 + 59 + 51+28)
+ 40(79 + 63 + 79 + 59 + 75 + 51+66 + 28) + 120(63 + 59 + 51+28) + 33(79 + 59 + 75 + 51 +
66 + 28) + 79(59+ 51+28)+ 34(75+ 51+66+ 28)+ 79(51+28) + 30(66+ 28)+ 75(28) = 112 882
7 Leo A. Goodman, William H. Kruskal (1954), Measure of Association for Cross
Classification, „Journal of the American Statistical Association", 49, s. 732-764.
8 Mueller i in., Statistical Reasoning in Sociology, s. 282.
424
Tabela 16.19. Tolerancja polityczna studentów college'u a staż studiowania
Staż studiowania
pierwszy drugi trzeci czwarty absolwent absolwent
rok rok rok rok (studia dzienne) (studia zaoczne)
Razem
Mało tolerancyjny 30 30 34 33 40 15 182
Przeciętnie tolerancyjny 66 75 79 79 120 45 464
Bardzo tolerancyjny 28 51 59 63 151 34 386
Ogółem 124 156 172 175 311 94 1032
Ogólna liczba par (pary wiązane wyłączone) wynosi zatem: Ns + Nd=l51958 + 112
882 = 270 840.
Następnym krokiem jest określenie stopnia tolerancji studentów jedynie na podstawie
zmiennej zależnej — reguła 2. Aby określić względną pozycję każdej z 270 840 par,
odwołamy się do systemu losowego. Możemy na przykład oznaczyć jedną z osób tworzących
parę jako „orzeł", a drugą jako „reszka". Następnie rzucając monetą, można zdecydować,
która osoba jest bardziej tolerancyjna. Jeżeli ten proces powtórzymy dla każdej pary, to przy
bardzo wielu powtórzeniach należy oczekiwać, że w 50% przypadków prawidłowo
odgadniemy pozycję danej osoby i pomylimy się w pozostałych 50% przypadków.
Zastosowanie drugiej reguły pre-dykcyjnej daje zatem (Ns + Nd)l2 =135 420 błędów.
Zgodnie z pierwszą regułą predykcyjną istnienie wielu par tak samo uporządkowanych
(Ns) pozwala przyjąć taki sam porządek dla wszystkich innych par. W tym przypadku liczba
popełnionych błędów będzie równa Nd, czyli liczbie par odwrotnie uporządkowanych dla
dwóch zmiennych. I oczywiście, gdyby liczba par odwrotnie uporządkowanych była większa
(Nd), to taki sam porządek moglibyśmy przewidzieć dla wszystkich pozostałych par i
popełnilibyśmy Ns błędów.
Obliczenia przeprowadzane dla danych z tabeli 16.19 wskazują, że liczba par tak samo
uporządkowanych jest większa niż liczba par odwrotnie uporządkowanych (Ns > Nd).
Możemy zatem przewidywać poziom tolerancji politycznej na podstawie stażu studiowania.
Otóż studenci z większym stażem studiowania wykazują większą tolerancję polityczną. Jeżeli
Mary jest studentką drugiego roku, a John jest studentem pierwszego roku, to Mary będzie
bardziej tolerancyjna niż John. Ponieważ jednak nie wszystkie pary mają takie samo
uporządkowanie, zatem liczba popełnionych błędów przy zastosowaniu tej reguły wyniesie
Nd= 112 882.
Możemy teraz określić związek pomiędzy stażem studiowania a poziomem tolerancji
politycznej, wykorzystując w tym celu ogólny wzór miary siły związku między zmiennymi-.
b—a
gdzie b = (Ns + Nd)/2, a a = (Ns, Nd)min. Tym samym:
(Ns + Nd)
-Nd
Y=
135 420-112 882 22 538
(Ns + Nd)
135 420
135 420
= 0,17.
Wartość gamma = 0,17 pokazuje, o ile zwiększa się dokładność naszej prognozy, gdy
do przewidywania poziomu tolerancji politycznej wykorzystamy staż studiowania.
Wykorzystując tę zmienną, możemy zredukować liczbę popełnionych błędów o 17%.
Inny sposób obliczania współczynnika gamma.
również obliczyć, stosując poniższy wzór:
Współczynnik gamma możemy
y=
Ns-Nd 7Js + Nd'
(16
Wzór ten pozwala obliczyć względną dominację par o takim samym porządku 1 o
porządku odwrotnym. Jeżeli dominować będą pary o tym samym porządku, współczynnik
będzie miał wartość dodatnią, jeżeli zaś pary o porządku odwrotn to współczynnik będzie
ujemny. Współczynnik gamma przybiera wartości od 0 ±1. Jeśli wszystkie pary wykazują ten
sam porządek (Nd = 0), to współczynnik gamma równa się 1 :
Ns - 0 Ns
y =---------= — = 1,0.
r Ns + 0 Nd
Jeśli wszystkie pary wykazują odwrotny porządek (Ns = 0), to współczynnik gamma
równa się — 1:
0 - Nd -Nd y =---------=------= -1,0.
' 0 + Nd Nd
Współczynnik ±1 oznacza, że bez żadnego błędu możemy przewidywać wartości
zmiennej zależnej na podstawie zmiennej niezależnej.
Jeżeli liczba par wykazujących taki sam porządek jest równa liczbie par wykazujących
różny porządek, to współczynnik gamma będzie równy zero:
Ns-Nd
0
y=
Ns-Nd Ns+Nd
= 0.
Współczynnik gamma równy 0 oznacza, że przewidywanie wartości zmiennej zależnej
na podstawie wartości zmiennej niezależnej w żadnym stopniu nie zwiększy poprawności
predykcji.
Ograniczenia współczynnika gamma. Podstawową wadą współczynnika gamma jako
miary związku pomiędzy zmiennymi porządkowymi jest wyłączenie z obli-
426
czeń par wiązanych. Dlatego współczynnik y może osiągnąć wartość ±1 nawet wtedy,
gdy związek między zmiennymi nie jest związkiem idealnym. Weźmy na przykład pod uwagę
idealny związek opisywany już wcześniej w tym rozdziale, który można przedstawić w
następującej tabeli:
50 0
0 50
7
1
Ponieważ jednak współczynnik gamma nie uwzględnia par wiązanych, przeto osiągnie
on wartość równą 1 również w następującej sytuacji:
50 50
0 50
y=l
Ogólnie rzecz biorąc, jeżeli dużo danych wpada do niewielu kategorii, to może się
wówczas pojawić wiele par wiązanych i współczynnik gamma zostanie oparty na mniejszej
proporcji par niewiązanych.
Współczynnik tau-b Kendalla
Jeśli istnieje wiele par wiązanych, to można wykorzystać miary, które uwzględniają
problem par wiązanych. Jedną z nich jest współczynnik tau-fe Kendalla:
Tb =
Ns-Nd
AJ (Ns + Nd + TyHNs + ~Nd + Tx)
(16.6)
Współczynnik tau-b przyjmuje wartości od -1 do +1 i jest współczynnikiem
symetrycznym. Ma taki sam licznik jak współczynnik gamma, natomiast w mianowniku
została wprowadzona poprawka na rangi wiązane (Tx i Ty). Na przykład dla następujących
danych tworzących rozkład dwuzmiennowy
X
100
50
60 90 150 otrzymamy: iVs = 600, Ty = 2700, Nd=2100, Tx = 2300. Zatem
30 70
30 20
<tt.l
1(600 + 2100 + 2300) 5196
mych wartość współczynnika gamma jest zdecy-:a tau-b:
2100 _ -1500 łi00~ 2700
;, to współczynnik gamma zawsze będzie miał
tau-b. Gdy pary wiązane w ogóle się nie poja-
/ identyczne wartości.
danych interwałowych
poziom pomiaru, to nasze możliwości dokony->vet wtedy, gdy brane pod uwagę
zmienne są ze na wskazać jedynie na współzależność określo-ti jak na przykład to, że katolicy
mają tendencję też przewidywać relatywnie taką samą pozycję i przykład wtedy, gdy
przyjmujemy, że ranga zmem. Predykcje tego rodzaju są jednak mato potrzeba formułowania
dokładniejszych stwier-widywać przyszłe dochody danej osoby na pod-ib wielkości dochodu
narodowego na podstawie
tymi interwałowymi, to rodzaj i forma zwi liej opisana. Większość związków pomię ć
opisana w terminach związku liniowego. Da dy wartości dla wszystkich par (X, Y) spełniaj ;t
linią prostą. Wszystkie funkcje tego rodzaj ą wartościami stałymi.
Istnieje na przykład doskonały związek :dzy odległością i czasem jazdy samochode
itałą prędkością (tabela 16.20). Jeżeli prędkość iy samochodu wynosi 60 mil na godzinę, to
iągu godziny przejedzie on 60 mil, czy inaczej iii w czasie Y. Funkcja liniowa wyraża zwią-
pomiędzy czasem i odległością, jaką przeby-samochód. Funkcja ta ma postać Y= IX i
ozna-
że zmiana jednej jednostki odległości (
spowoduje zmianę jednej jednostki czasu (minut). Stała 1 poprzedzająca zmienną X
jest wartością b, nazywaną nachyleniem prostej, i mówi, o jaką liczbę jednostek zmieni się Y,
gdy X zmieni się o jedną jednostkę.
Regresja liniowa
Metoda pozwalająca określić naturę związku pomiędzy dwiema zmiennymi interwa-
łowymi, która wykorzystuje funkcję liniową, nazywa się analizą regresji. Naukowcy
wykorzystują analizę regresji do budowania wyrażenia algebraicznego reprezentującego
funkcjonalny związek pomiędzy zmiennymi. Równanie Y=a + bX jest równaniem liniowym,
co oznacza, że funkcja reprezentująca związek pomiędzy Xi Kjest funkcją liniową.
Najczęstszym sposobem przedstawiania punktów odpowiadających wartościom X i Y oraz
łączącej je linii regresji jest umieszczenie ich na wykresie współrzędnych. Zmienna X i
zmienna Y są reprezentowane odpowiednio przez osie wykresu. Każda obserwacja jest
punktem, którego współrzędne odpowiadają wartościom X i Y. Aby zilustrować graficzny
sposób przedstawiania danych z rozkładu dwuzmiennowego oraz typ funkcji opisującej ich
związek, przedstawiliśmy dane z tabeli 16.20 na rycinie 16.3. Zmienna niezależna X została
umieszczona na osi poziomej, a zmienna zależna Yna osi pionowej. Każda obserwacja tworzy
punkt w miejscu przecięcia się wartości dwóch zmiennych. Na przykład ostatnia obserwacja z
tabeli 16.20 została zaznaczona w miejscu przecięcia się prostej wyprowadzonej z punktu
równego 15 dla jednej zmiennej i punktu równego \5 d\a drugiej zmiennej.
16 r
15
14
13 -
12 -
11
10 -
9 -
8
7
6
5
4
3
2 -
1 _
/l I I I I I I ' I ' I____I____I____I____I____I
• 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
X(mile)
Ryc. 16.3. Regresja Y względem X
Linia regresji nie zawsze przechodzi przez początek układu współrzędnych (miejsce
przecięcia osi X i Y). Jeżeli prosta regresji przecina oś Y, to do równania regresji musimy
wprowadzić jeszcze jedną stałą. Stała ta, oznaczana literą a, nazywana jest punktem
przecięcia z osią Y. Punkt ten pokazuje, jaka jest wartość Y, gdy zmienna
429
Xjest równa zeru. Przedstawione na rycinie 16.4 trzy linie regresji mają różne wartości
wielkości a i b. Trzy różne wartości stałej a (6, 1, 2) znajdują swoje odzwierciedlenie w trzech
różnych punktach przecięcia prostej regresji z osią Y. Z kolei różne wartości b (—3, 0,5, 3)
pokazują, jakie jest nachylenie prostej regresji. Im wyższa wartość b, tym bardziej stromo
wznosi się prosta regresji. I wreszcie, znak wielkości b określa kierunek związku pomiędzy X
i Y. Jeżeli wartość b jest dodatnia, to wzrostowi wartości zmiennej X towarzyszy wzrost
wartości zmiennej Y (ryc. 16.4b i 16.4c). Jeżeli zaś wartość b jest ujemna, to wraz ze
wzrostem X maleje Y (ryc. 16.4a).
W naukach społecznych funkcja liniowa jest dobrym przybliżeniem większości
związków. Na przykład równanie F=5000+ 1000X może wyrażać związek pomiędzy
poziomem wykształcenia a dochodami. Wówczas a odpowiada rocznym zarobkom (5000)
osób, które nie mają żadnego wykształcenia, a wartość b oznacza wzrost zarobków (o 1000)
wraz z każdym rokiem wykształcenia więcej. Korzystając z tej reguły predykcyjnej, możemy
przewidzieć, że osoba mająca za sobą dziesięć lat kształcenia może zarabiać 15 000$
[T=5000+ 1000(10)].

a = 6 Z>=-3
J___i i i i i
12 3 4 5 6 7 8X
a) ujemny współczynnik nachylenia
Ryc. 16.4. Linie regresji
•¦1
fc = 0,5
t*\l
A.
_1___L
fl=2 6=3
1 2 3
4 5X
6 7 8
2 3 4X
5 6 7 8
b) dodatni współczynnik nachylenia
c) niewielki dodatni współczynnik nachylenia
Kryterium najmniejszych kwadratów
Równanie regresji jest tylko pewną regułą predykcyjną, tym samym możemy
zaobserwować rozbieżności pomiędzy rzeczywistymi danymi a danymi przewidywanymi.
Naszym celem jest zatem skonstruowanie takiego równania, w którym te odchylenia, czyli
błąd predykcji będzie jak najmniejszy. Jeżeli określając wartości a i b równania prostej,
przyjmiemy specyficzne kryterium, to możemy zdefiniować taką funkcję, która będzie
minimalizować wariancję wokół linii regresji. Kryterium to, nazywane kryterium
najmniejszych kwadratów, minimalizuje sumę kwadratów różnic pomiędzy rzeczywistą a
przewidywaną wartością Y. Takie równanie pre-dykcyjne ma następującą postać:
Y = a + bX,
(16.7)
gdzie Y oznacza przewidywany wynik dla zmiennej Y.
Zgodnie z kryterium najmniejszych kwadratów wartości a i b można obliczyć,
korzystając z następujących równań:
430
b=
I(X-X)(Y-Y)
I(X - X)2 ZY-bY.X
a=
N
= Y-bX.
(16.8) (16.9)
Wygodniejszym sposobem obliczania wartości b może być równanie:
NZXY-{EX)(ZY)
b=
NIX2 - (IX)2
(16.10)
Przykład. Aby pokazać, w jaki sposób można skonstruować precyzyjną regułę
predykcyjną, rozpatrzmy dane przedstawione w tabeli 16.21 dotyczące liczby kradzieży (na
100000 mieszkańców) i procentu mieszkańców okręgów wielkomiejskich. Dane te, dla
dziesięciu stanów, zostały zebrane po to, aby można było określić związek pomiędzy
stopniem urbanizacji a poziomem przestępczości. Zmienna, którą chcemy przewidywać
(zmienna zależna), to „liczba kradzieży na 100 000 mieszkańców", a zmienna niezależna to
„procent mieszkańców okręgów wielkomiejskich".
Tabela 16.21. Liczba kradzieży a stopień urbanizacji na obszarzch wielkomiejskich
(rok 1986)
Procent populacji Liczba kradzieży
Stan mieszkającej w miastach na 100000 mieszkańców
(X) (Y) XY X2 Y2
Massachusetts 91 193 17 563 8281 37 249
Wisconsin 67 73 4891 4489 5329
Dakota Południowa 28 16 448 784 256
Wirginia 72 106 7632 5184 11236
Carolina Południowa 60 99 5940 3600 9801
Teksas 81 240 19440 6561 57 600
Arizona 75 169 12675 5625 28 561
Kalifornia 96 343 32 928 9216 117 649
Arkansas 44 88 3872 1936 7744
Hawaje 77 106 8162 5929 11236
Ogółem 691 1433 113551 51605 286661
Źródło: United States Bureau of the Census (1988), Statistical Abstracts of the United
States: 1988, wyd. 10, Washington, D.C.
Aby bez żadnych dodatkowych informacji przewidzieć liczbę kradzieży w każdym
stanie, powinniśmy wybrać taką wartość, która da najmniejszą liczbę błędów przy szacowaniu
liczby kradzieży w każdym stanie. Dla danych interwałowych najlepszą podstawą szacowania
będzie średnia arytmetyczna, ponieważ średni kwadrat
431
odchyleń poszczególnych obserwacji od średniej jest właśnie najmniejszą możliwą
wartością. Dla naszych danych średnia liczba kradzieży na 100000 mieszkańców wynosi
zatem:
IY 1433
Y= — =------= 143,3-
N 10
Aby obliczyć błąd predykcji, musimy odjąć każdą obserwację od średniej (aby
obliczyć odchylenie) i podnieść te odchylenia do kwadratu. Następnie obliczamy sumę
kwadratów odchyleń, która jest ogólnym zróżnicowaniem wartości wokół Y. Suma ta jest
oszacowaniem wielkości błędu predykcji — reguła 2 — gdyż daje najmniejszą liczbę błędów.
Ogólne zróżnicowanie wartości wokół F można obliczyć jako
I(Y-Yf. (16.11)
Następnym krokiem jest zmniejszenie liczby błędów popełnionych przy
przewidywaniu liczby kradzieży poprzez wprowadzenie drugiej zmiennej („procent
urbanizacji") jako predyktora. Możemy to osiągnąć przez skonstruowanie reguły predykcyj-
nej w postaci równania regresji. Równanie to najlepiej opisze związek pomiędzy tymi dwiema
zmiennymi i pozwoli przewidzieć — z minimalnym błędem — liczbę kradzieży w każdym
stanie na podstawie procentu mieszkańców okręgów miejskich.
Dane przedstawione w tabeli 16.21 można nanieść na wykres rozproszenia, który jest
graficzną reprezentacją przybliżonego obrazu związku pomiędzy dwiema zmiennymi (ryc.
16.5). Każda para liter (będąca skrótem nazwy danego stanu) znajduje się w miejscu, które
jest opisane przed dwie wartości: X i Y. Na przykład punkt WI oznacza stan Wisconsin, w
którym zanotowano 73 kradzieże na 100 000 mieszkańców i 67% populacji mieszkańców
tego stanu mieszka w miastach. Po naniesieniu na wykres wszystkich punktów rysujemy linię,
która odzwierciedla istniejący trend. Oczywiście pomiędzy punktami możemy narysować
wiele takich linii, lecz jedynie jedna — linia średnich kwadratów — będzie linią najlepiej
odpowiadającą poszczególnym danym. Zanim jednak będziemy mogli tę linie narysować,
najpierw należy obliczyć stałe a i b:
10(113551)-(691)(1433)
b = —-----------'-—------~—- = 3,76, a = 143,3 - 3,76(69,1) = -117,0.
10(51605)-(691)2 ^ '
Otrzymamy następujące równanie prostej regresji:
Y= -117,0 + 3,76*.
Teraz można już narysować linię regresji i wykorzystać ją do przewidywania poziomu
kradzieży na podstawie stopnia urbanizacji. Na przykład, jeżeli 50% mieszkańców danego
miasta mieszka w metropoliach, to przewidywana liczba kradzieży na 100000 mieszkańców:
f = 117,0 + 3,76(50) = 71.
432
Błędy predykcji
Jak widzimy na rycinie 16.5, większość obserwacji jest rozrzucona wokół linii
regresji. Odchylenia danych rzeczywistych od danych przewidywanych odzwierciedlają
wielkość błędu, jaki popełniamy, przewidując poziom kradzieży na podstawie stopnia
urbanizacji (czyli stosujemy regułę 1).
Wielkość tego błędu można oszacować, mierząc odchylenia rzeczywistych danych od
linii regresji. Najpierw odejmujemy przewidywaną liczbę kradzieży dla danego stanu od
zarejestrowanej liczby kradzieży w tym stanie (dane z tabeli 16.21). W Teksasie, na przykład,
przewidywana liczba kradzieży na 100000 mieszkańców— zgodnie z regułą predykcyjną—
Y= 117,0 + 3,76(81) = 187,56. Rzeczywista
60
poziom urbanizacji
Ryc. 16.5. Liczba kradzieży na 100000 mieszkańców a poziom urbanizacji
liczba kradzieży zanotowanych w Teksasie wyniosła 240, zatem błąd predykcji jest:
240-187,56 = 52,44.
Suma wszystkich błędów predykcji podniesionych do kwadratu jest interpretowana
jako wielkość zróżnicowania, która nie jest wyjaśniona przez zmienną niezależną. Można ją
obliczyć według wzoru:
2(7,-yY,
(16.12)
gdzie Y, oznacza dane rzeczywiste, a Y — dane przewidywane.
Inną często stosowaną miarą błędu jest błąd standardowy oszacowania— Syjc, oparty
na wielkości nie wyjaśnionego zróżnicowania wokół linii regresji. Definiuje się go jako:
*=4
2(Y, - Y)2
N
(16.13)
Standardowy błąd oszacowania jest miarą bardzo zbliżoną do odchylenia
standardowego, które omówiliśmy w rozdziale 15.
433
Współczynnik korelacji według momentu iloczynowego Pearsona (/)
Przyjmijmy, że mamy dwie miary zróżnicowania zmiennej Y. Pierwsza — całkowite
zróżnicowanie wokół Y — określa wielkość błędu popełnianego przy przewidywaniu
wartości Kbez żadnej wcześniejszej znajomości zmiennej X— reguła 2. (Reguła 2 to właśnie
całkowite zróżnicowanie wokół Y). Druga miara — zróżnicowanie nie wyjaśnione,
zdefiniowane w postaci równania (16.12) — określa wielkość błędu popełnianego, gdy jako
regułę predykcyjną wykorzystujemy równanie regresji — reguła 1.
Te dwa sposoby szacowania wielkości błędu umożliwiają skonstruowanie miary
związku między zmiennymi interwałowymi. Miara ta odzwierciedla proporcjonalne
zmniejszenie wielkości błędu popełnianego przy szacowaniu wartości Y, jakie uzyskamy,
wprowadzając zamiast reguły 2 (średniej) regułę 1 (równanie regresji). Miarę tę, r2, można
przedstawić jako
zróżnicowanie ogólne — zróżnicowanie nie wyjaśnione
r2-----------------------^-rr-:---------:-------~,---------------------------• (16.14)
zróżnicowanie ogólne
Aby oszacować proporcjonalne zmniejszenie wielkości błędu, musimy odjąć
zróżnicowanie nie wyjaśnione od wyjściowej wielkości błędu predykcji. Proporcjonalne
zmniejszenie wielkości błędu, gdy Xjest wykorzystywane do przewidywania Y, określa
wielkość r2.
Jeżeli zróżnicowanie nie wyjaśnione wynosi zero, to oznacza to, że wprowadzenie
równania regresji wyeliminowało wszystkie błędy w przewidywaniu wartości Y. Wartość r2
będzie się wówczas równać jeden, co oznacza, że każde zróżnicowanie Fmoże być
wyjaśnione przez X. I odwrotnie, jeżeli zróżnicowanie nie wyjaśnione jest takie samo jak
zróżnicowanie ogólne, to r2 będzie wynosić zero. Oznacza to, że pomiędzy X i Y nie ma
żadnej współzależności.
Konwencjonalnie jako miary korelacji używa się pierwiastka kwadratowego z r2, czyli
r. Miara ta znana jest jako w s p ó ł c z y n n i k korelacji według momentu iloczynowego
Pearsona, w skrócie r Pearsona. Współczynnik r Pearsona przybiera wartości od — 1 do +1.
Wartości ujemne oznaczają związek odwrotnie proporcjonalny. Wartość r możemy łatwo
obliczyć według następującego wzoru:
NIXY-{IX){IY) r ~ V [NIX2 - (IX)2} [NIY2 - (2Y)2]'
W naszym przykładzie współczynnik korelacji
10 (113 551) — (691) (1433)
V[10(51 605) - (691)2] [10(28666TP7l433)2j:
= 0,82.
Zatem r2 wynosi 0,822 = 0,67, co oznacza zredukowanie błędu predykcji o 67%,
jeżeli będziemy przewidywać liczbę popełnionych kradzieży na 100000 mieszkańców na
podstawie stopnia urbanizacji. To samo można ująć inaczej, a mianowicie, że 67% wariancji
liczby popełnianych kradzieży jest wyjaśniane stopniem urbanizacji.
434
Miary związku
Miary związku pozwalają określić, o ile proporcjonalnie zmniejszy się błąd
szacowania, jeżeli predykcji wartości zmiennej zależnej będziemy dokonywać na podstawie
wartości zmiennej niezależnej (reguła 1) zamiast niezależnie od niej (reguła 2).
¦ Lambda (A). Współczynnik lambda jest używany w przypadku zmiennych
nominalnych. Można go obliczyć, korzystając ze wzoru (16.2) lub (16.3).
¦ Gamma (y). Współczynnik gamma jest stosowany do pomiaru siły związku
pomiędzy dwiema zmiennymi porządkowymi. Można go obliczyć, korzystając ze wzoru
(16.4) lub (16.5).
¦ Tau-/? Kendalla. Współczynnik tau-fo jest wykorzystywany do pomiaru siły
związku między zmiennymi porządkowymi, kiedy wśród danych występuje wiele par
wiązanych. Można go obliczyć, posługując się wzorem (16.6).
¦ Regresja liniowa. Jest to metoda określania związku pomiędzy dwiema zmiennymi
interwałowymi wykorzystująca funkcję liniową postaci: Y=a + bx.
¦ r Pearsona. Współczynnik jest wykorzystywany do pomiaru związku pomiędzy
zmiennymi interwałowymi. Wartości zmiennych można nanieść na układ współrzędnych.
Można go obliczyć według wzoru (16.15).
¦ Kryterium najmniejszych kwadratów. Metoda określania równania regresji, która
minimalizuje sumę kwadratów różnic pomiędzy rzeczywistymi i przewidywanymi
wartościami Y.
a) silny związek dodatni b) słaby związek dodatni
c) brak związku
Ryc. 16.6. Rozpoznawanie sity związku na podstawie wykresu rozproszenia
Wielkość r2 lub r zależy od rozproszenia rzeczywistych obserwacji wokół linii
regresji. Jeżeli wszystkie obserwacje będą leżeć na linii regresji, to r będzie wynosić 1,0.
Jeżeli natomiast będą one losowo rozrzucone po całym wykresie, to r będzie równie zero. Na
rycinie 16.6 przedstawiliśmy hipotetyczny silny związek dodatni, slaby związek dodatni oraz
brak związku. Należy jednak pamiętać, że gdy r lub r2 jest bliskie lub równe zeru, nie należy
się spieszyć z wnioskiem, że pomiędzy zmiennymi nie ma żadnego związku. Związek między
nimi może być bowiem związkiem krzywoliniowym, tj. nie będzie opisywany za pomocą linii
prostej. Zatem współczynnik korelacji oparty na modelu liniowym nie da poprawnego obrazu
związku statystycznego. Ogólnie rzecz biorąc, dokładna analiza diagramu korela-
435

cyjnego pozwoli stwierdzić, w jakiej mierze uzyskane przez nas dane układają się
wzdłuż prostej, krzywej, czy też nie ma między nimi żadnego związku9.
¦ Podsumowanie
1. W rozdziale tym skoncentrowaliśmy się na analizowaniu natury związku pomiędzy
dwiema zmiennymi oraz na tworzeniu miar tego związku. Zmienne, które są ze sobą
powiązane, wykazują współzależność: określone kategorie jednej zmiennej zmieniają się
wraz ze zmianą kategorii drugiej zmiennej lub wartości zmiennych zajmują podobne pozycje.
2. Można oszacować związek pomiędzy dwiema zmiennymi, porównując rozkłady
jednozmiennowe, które tworzą tabelę dwuzmiennową za pomocą globalnej miary takiej jak
mediana czy średnia. Można też opisać związek między zmiennymi za pomocą specjalnych
współczynników, które pokazują, w jakim stopniu użyteczne jest korzystanie z jednej
zmiennej, aby przewidzieć drugą.
3. Miary związku pomiędzy zmiennymi zależą zazwyczaj od osiągniętego poziomu
pomiaru zmiennych. Dla zmiennych nominalnych stosuje się współczynnik lambda. Dla
zmiennych porządkowych można zastosować współczynnik gamma lub tau-b Kendalla.
4. Czasami związek pomiędzy zmiennymi interwałowymi można opisać za pomocą
konkretnej funkcji pozwalającej na dokonywanie dokładnych predykcji. Równanie regresji
liniowej jest przykładem takiej funkcji. Współczynnik r Pearsona jest miarą związku
pomiędzy zmiennymi interwałowymi mówiącą, o ile proporcjonalnie zmniejszy się błąd, gdy
zamiast średniej jako reguły predykcyjnej wprowadzimy równanie regresji.
¦ Podstawowe terminy
błąd predykcji 430 proporcjonalne zmniejszenie błędu 416
kryterium najmniejszych r Pearsona 434
kwadratów 430 współczynnik gamma 424
lambda — współczynnik współczynnik korelacji 414
przewidywalności Guttmana 417 współczynnik tau-b Kendalla 427 linia regresji
429
¦ Pytania sprawdzajqce
1. Omów pojęcie związku pomiędzy zmiennymi w terminach proporcjonalnego
zmniejszania błędu.
9 Problem związku krzywoliniowego nie mieści się w zakresie tej pracy. Więcej
informacji na ten temat można znaleźć w pracy: George W. Bohrnstedt, David Knoke (1988),
Statistics for Social Dala Analysis, Itaca, 111.: Peacock. [Por. też: J. Brzeziński (1997),
Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd. Nauk. PWN, rozdz. 10
(przyp. red. nauk.)]
436
2. Podaj przykład rozkładu dwuzmiennowego, dla którego lambda nie będzie
właściwą miarą związku pomiędzy zmiennymi. Jakiej miary należałoby użyć zamiast niej?
3. Poniżej przedstawiono dwuzmiennowy rozkład alienacji i statusu społecznego.
Porównując rozkłady procentowe zmiennych, odpowiedz na pytanie: Czy status wzrasta wraz
ze spadkiem alienacji? Jakie inne miary związku można zastosować, aby odpowiedzieć na to
pytanie?
Alienacja Status społeczny Ogółem
niski przeciętny wysoki
Wysoka Przeciętna Niska Ogótem 93 77 68 238 41 78 128 247 10 46 140 196 144
201 336 681
Opracuj tabelę 2x2 uwzględniającą dane od 200 respondentów, z których 69% to
demokraci, a 58% jest za zalegalizowaniem marihuany. Oblicz współczynnik lambda,
traktując postawy wobec legalizacji marihuany jako zmienną zależną. Omów związek
pomiędzy tymi zmiennymi. Przypuśćmy, że pomiędzy klasą społeczną a chęcią nauki w
college'u istnieje korelacja r=0,28. Co to oznacza?
W naukach społecznych podejmuje się próby określenia, które zmienne społeczne są
powiązane ze zmiennymi ekonomicznymi. Wykorzystaj przedstawione niżej dane do
zbadania związku pomiędzy stopniem bezrobocia a innymi zmiennymi. Omów rodzaje
związków pomiędzy bezrobociem a każdą ze zmiennych niezależnych. W swojej analizie
wykorzystaj następujące miary: b, r, r2.
Państwo Stopień bezrobocia Polityczna stabilizacja Poziom rozwoju
ekonomicznego Stopień urbanizacji
Stany Zjednoczone 4,7. &,0 2,34 1,8
Nowa Zelandia 4,0 8.6 1,71 0.8
Norwegia 3.1 8.6 1,41 1,2
Finlandia 3.6 8.1 0,83 0,7
Urugwaj 6.2 3,2 0,46 0.9
Izrael 4.8 8,1 0,40 0,9
Tajwan 5.8 7,2 0,80 0.6
Ghana 8.1 5,0 0,02 0.2
Anglia 8.2 2.6 1,46 1.1
Grecja 8.8 2.1 0,09 0,9
437
Ćwiczenia komputerowe
1. Korzystając z danych GSS lub z innego zbioru danych, zbuduj — wykorzystując
CROSSTABS — tabele dla dwóch zmiennych nominalnych, a następnie dla dwóch
zmiennych porządkowych. Wybierz z każdej tabeli jedną komórkę i opisz słowami znajdujące
się w niej procenty, biorąc pod uwagę wiersz i kolumnę, w których znajduje się ta komórka.
Na przykład: 70% kobiet opowiada się za eliminowaniem segregacji rasowej (przykład
hipotetyczny).
2. Jakie są właściwe miary związku dla tabel zbudowanych w zadaniu 1 ? Jaka jest
siła związku pomiędzy analizowanymi przez ciebie zmiennymi?
3. Wybierz z GSS dwie zmienne interwałowe i oblicz współczynnik r Pear-sona,
posługując się programem CORRELATIONS. Jak silny jest ten związek?
(Por. dodatek A, s. 534-539)
¦ Literatura dodatkowa
Blalock H.M. (1975), Statystyka dla socjologów, Warszawa: PWN.
Brzeziński J. (1997), Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd.
Nauk. PWN. Ferguson G.A., Takane Y. (1997), Analiza statystyczna w psychologii i
pedagogice, Warszawa: Wyd. Nauk. PWN.
Rozdział 17
Kontrola, poziom złożoności i analiza wielozmiennowa
Kontrola 441
Metody kontroli 442
Tabele wielodzielcze jako forma kontroli 442 Tabele cząstkowe 443
Poziom złożoności 449
Zmienna pośrednicząca 450
Interakcja 451
Korelacja cząstkowa jako forma kontroli 454
Regresja wielokrotna jako metoda kontroli 455
Analiza wielozmiennowa: korelacje wielokrotne 459
Modele przyczynowe i analiza zmiennych 460
Wybrane przykłady schematów przyczynowych 461 Analiza ścieżek 463
Podsumowanie 465
Podstawowe terminy 466
Pytania sprawdzające 466
Ćwiczenia komputerowe 468
Literatura dodatkowa 468
Czy przynależność do klasy społecznej wpływa na stopień uczestnictwa mężcz w
obowiązkach domowych w rodzinach, w których obie strony pracują? Wright i
współpracownicy — wychodząc z teorii marksistowskiej — twierdzili, że tak właśnie się
dzieje'. Wykorzystując metody analizy dwuzmiennowej, stwierdzili, że przynależność do
klasy społecznej wywiera jedynie bardzo niewielki wpływ na podział obowiązków w tych
rodzinach, w których oboje partnerzy zarabiają. W związku z tym badacze postanowili
sprawdzić, które inne zmienne wywierają wpływ na rodzaj obowiązków wykonywanych
przez mężczyzn. Posługując się technikami wielozmiennowymi, zbadali względny wpływ
ośmiu zmiennych: klasy społecznej, poziomu wykształcenia żony, czasu pracy żony, wkładu
żony do dochodu rodziny, ogólnego dochodu rodziny, wyznawanego stereotypu płci (jakie
zachowania przypisywano roli kobiety i mężczyny), wieku i liczby dzieci poniżej 16 roku
życia. W sytuacji, gdy kontrolowano wszystkie zmienne, okazało się, że niewielki efekt klasy
społecznej znika zupełnie. Jedynie czas pracy żony i wiek respondentów miał duży wpływ na
rodzaj obowiązków mężczyzn. Wyznawany stereotyp płci nie odgrywał natomiast żadnej roli.
Gdyby analizując związek pomiędzy klasą społeczną a stopniem uczestnictwa
mężczyzn w obowiązkach domowych, posłużono się jedynie analizą dwuzmiennową, to
można by błędnie wyciągnąć wniosek, że przynależność do klasy społecznej wywiera
przynajmniej niewielki wpływ. Analiza wielozmiennowa umożliwia kontrolowanie wpływu
innych zmiennych i chroni przed wyciąganiem błędnych wniosków.
W rozdziale tym skoncentrujemy się na metodach wykorzystywanych do analizowania
więcej niż dwóch zmiennych. W naukach społecznych analiza więcej niż dwóch zmiennych
pełni trzy podstawowe funkcje: kontroluje, określa poziom złożoności oraz umożliwia
predykcję. Pierwsza z funkcji jest substytutem mechanizmu kontroli eksperymentalnej w
sytuacji, gdy mechanizm taki nie został uruchomiony. Druga dookreśla związek dwóch
zmiennych poprzez wprowadzenie zmiennych pośredniczących czy warunkowych. Trzecia
funkcja dotyczy możliwości analizowania dwóch lub więcej zmiennych niezależnych po to,
aby określić ich wkład w wyjaśnianie zmienności zmiennej zależnej. W rozdziale tym
omawiamy sposoby wprowadzania trzeciej zmiennej do badań empirycznych. Zaczynamy od
omówienia strategii kontrolowania trzeciej zmiennej poprzez jej dookreślenie. Następnie
dyskutujemy możliwości analizy wielozmiennowej w stosunku do analizy dwuzmiennowej.
Na koniec omawiamy techniki modelowania przyczynowego oraz analizę ścieżek.
Badanie związku dwuzmiennowego jest pierwszym krokiem analizy danych.
Następny krok polega na ocenie implikacji otrzymanych wyników i wyprowadzeniu
wniosków przyczynowo-skutkowych. Innymi słowy, na podstawie analizy dwuzmiennowej
badacze ustalają wielkość współzmienności i jej kierunek, następnie
1 Erik Olin Wright, Karen Shire, Shu-Ling Hwang, Maureen Dolan, Janeen Baxter
(1992). The Non-Effects of Class on the Gender Division of Labor in the Home: A
Comparatwe Study of Sweden and the United States, „Gender and Society", Vol. 6, nr 2, s.
252-282.

440
interpretują wyniki i określają podstawowe związki przyczynowe pomiędzy badanymi
zmiennymi poprzez wprowadzenie do analizy nowych zmiennych. Przypuśćmy, że
określiliśmy związek pomiędzy wiekiem rodziców a stosowanymi przez nich metodami
wychowawczymi, tj. że starsi rodzice są bardziej restryktywni w stosunku do swoich dzieci
niż rodzice młodsi. W jaki sposób można zinterpretować te dane? Możemy twierdzić, że
zmienne te są przyczynowo powiązane i że wraz ze wzrostem wieku rodziców obserwujemy
przesunięcie od pobłażliwego do restrykcyjnego stylu wychowania. Może jednak być tak, że
różnice w sposobie wychowania nie zależą od wieku rodziców, lecz od ich poglądów: starsi
rodzice są bardziej restryktywni, natomiast młodsi wyznają bardziej liberalne poglądy, a
zatem są bardziej pobłażliwi. Innymi słowy, związek pomiędzy wiekiem rodziców i
stosowanymi przez nich metodami wychowawczymi może wynikać z faktu, że zarówno jedna
zmienna „wiek", jak i druga zmienna „metody wychowawcze" są powiązane z trzecią
zmienną, tj. „poglądami".
Obserwowany związek pomiędzy dwiema lub więcej zmiennymi nie jest jeszcze
wystarczającym uzasadnieniem wniosków przyczynowo-skutkowych. Zaobserwowany
związek dwóch zmiennych może być wynikiem przypadku lub może być spowodowany tym,
że obie zmienne są powiązane z inną, trzecią zmienną. Co istotne, badane zjawisko można
często wyjaśnić za pomocą więcej niż jedna zmienna niezależna. W każdym przypadku
wprowadzenie dodatkowej zmiennej pozwala na do-określenie wyjściowego związku między
zmiennymi.
¦ Kontrola
Zachodzenie związku pomiędzy dwiema zmiennymi nie stanowi wystarczającej
podstawy do wyprowadzenia wniosku, że dwie zmienne są ze sobą powiązane przy-czynowo-
skutkowo. Należy wyłączyć inne zmienne, które mogą być podstawą alternatywnych
wyjaśnień. Na przykład związek pomiędzy wzrostem i wielkością dochodów można
najprawdopodobniej wyjaśnić, wprowadzając trzecią zmienną, tj. „wiek". Wiek bowiem jest
powiązany zarówno z dochodami, jak i ze wzrostem i ten właśnie związek sprawia, że
statystyczna zależność pomiędzy wzrostem i dochodami nie ma charakteru przyczynowo-
skutkowego. Wyjściowy związek, tj. związek pomiędzy wzrostem i dochodami jest
związkiem pozornym. Pojęcie związku pozornego odnosi się do sytuacji, w których zmienna
uboczna jest przyczyną „fałszywego" związku pomiędzy zmienną zależną i zmienną
niezależną. Dlatego ważne jest ujawnienie zmiennych ubocznych zniekształcających
zależności między zebranym danymi. Ważnym więc krokiem — w procedurze określania
trafności związku pomiędzy dwiema zmiennymi — jest wyeliminowanie możliwie dużej
liczby zmiennych, które mogłyby istotnie wyjaśnić obserwowany związek. Eliminacji tej
dokonuje się poprzez wprowadzanie metod kontroli, czyli podstawowej zasady wszystkich
planów badawczych.
Podstawową metodą kontroli w planach eksperymentalnych jest losowe
przyporządkowywanie osób badanych do grupy kontrolnej oraz do grupy eksperymentalnej.
Metodyka eksperymentu kontrolowanego pozwala przyjąć, że wszystkie zmienne uboczne są
kontrolowane i że różnice między dwiema grupami są spowodowane jedynie zróżnicowanym
oddziaływaniem zmiennej niezależnej. Jak się jed-
441
nak przekonaliśmy w poprzednich rozdziałach, w naukach społecznych trudno
manipulować grupami społecznymi i zawsze konsekwentnie stosować procedurę manipulacji
eksperymentalnej. Bardzo często nie sposób kontrolować wielu czynników, co zwiększa
wątpliwości co do badanej zależności pomiędzy zmienną zależną i zmienną niezależną.
W planach quasi-eksperymentalnych eksperymentalne metody kontroli zmiennych są
zastępowane odpowiednimi technikami statystycznymi. Techniki te stosowane są raczej w
trakcie analizy danych, a nie na etapie ich zbierania. Znane są trzy metody kontroli
statystycznej. Pierwsza polega na porównywaniu podgrup za pomocą tworzenia tabel
wielodzielczych. Druga metoda — obliczanie korelacji cząstkowych — obejmuje procedury
matematyczne pozwalające poprawić wartość współczynnika korelacji dla dwóch zmiennych.
Trzecia metoda to metoda regresji wielokrotnej. Pozwala ona oszacować wpływ zmiennej
niezależnej na zmienną zależną przy założeniu, że inne zmienne są kontrolowane.
¦ Metody kontroli
Tabele wielodzielcze jako forma kontroli
Metodę kontroli za pomocą tabel wielodzielczych możemy porównać do procedury
doboru wiązanego wykorzystywanej w badaniach eksperymentalnych. W obu technikach
badacz stara się wyrównać badane grupy ze względu na zmienne, które mogą zakłócić wyniki
badań. W badaniach eksperymentalnych zanim zadziała zmienna niezależna, dobieramy
osoby badane w taki sposób, aby tworzyły one pary osób identycznych ze względu na
kontrolowane czynniki. Jedna osoba z każdej pary zostaje następnie przyporządkowana do
grupy eksperymentalnej, a druga do grupy kontrolnej. Z kolei tworząc tabelę wielodzielczą,
badacz przypisuje osoby badane do odpowiednich grup jedynie na etapie analizy danych.
Dobór wiązany to fizycznie istniejący mechanizm kontroli, natomiast tworzenie tabel
wielodzielczych jest operacją statystyczną.
Tworzenie tabel wielodzielczych polega na dzieleniu próby na podgrupy ze względu
na kategorie zmiennej, którą chcemy kontrolować, tzw. zmiennej kontrolowanej. Następnie
należy ponownie oszacować związek między dwiema zmiennymi wewnątrz każdej podgrupy.
Dzieląc próbę na podgrupy, badacz likwiduje działające zakłócająco nierówności i oblicza
siłę związku między zmiennymi w grupach, które są wewnętrznie homogeniczne ze względu
na zakłócający czynnik.
Ogólnie rzecz biorąc, jedynie zmienne, które są powiązane i ze zmienną niezależną, i
ze zmienną zależną mogą zakłócająco wpłynąć na wyniki badań. Dlatego jako zmienne
kontrolowane należy wybrać te zmienne, które pozostają w związku zarówno z analizowaną
zmienną niezależną, jak i zależną.
Przykład. Poniższy przykład ilustruje kolejne kroki procedury kontrolowania j trzeciej
zmiennej za pomocą tworzenia tabeli wielodzielczej. Przypuśćmy, że pobraliśmy próbę
składającą się z 900 respondentów, aby sprawdzić hipotezę, że osoby mieszkające w okręgach
miejskich są bardziej liberalne politycznie niż mieszkańcy wsi. W tabeli 17.1 i na rycinie 17.1
przedstawiliśmy otrzymane dane. Analizując je, możemy zauważyć, że 50% mieszkańców
miast to osoby politycznie li-
442
beralne, natomiast na wsi osoby o takich poglądach stanowią jedynie 28%. Możemy
zatem postawić wniosek, że liberalizm polityczny jest powiązany z miejscem zamieszkania.
Można więc postawić pytanie: Czy stwierdzona zależność jest zależnością bezpośrednią (i
wtedy możemy mówić o potwierdzeniu hipotezy), czy też jest zależnością pozorną z inną
zmienną? Taką zmienną może być poziom wykształcenia, który jest powiązany zarówno z
miejscem zamieszkania, jak i z liberalizmem politycznym. Odpowiednie dane ilustrujące te
zależności przedstawiliśmy w tabeli 17.2 i 17.3 oraz na rycinie 17.2.
Tabela 17.1. Liberalizm poltyczny a miejsce zamieszkania
Liberalizm polityczny Okręgi miejskie
Okręgi wiejskie
Wysoki Niski
Ogółem
50% 28%
(200) (140)
50% 72%
(200) (360)
100% 100%
(400) (500)
80
60 -
8 40 -
20 -
0
wysoki liberalizm
niski liberalizm
50% 72%
50%
- 28%
okręgi miejskie
okręgi wiejskie
miejsce zamieszkania
Ryc. 17.1. Liberalizm a miejsce zamieszkania
Tabele cząstkowe
Aby kontrolować wykształcenie, podzieliliśmy grupę 900 osób na dwie podgrupy o
różnym poziomie wykształcenia (wysoki, niski). W ramach każdej grupy zbudowaliśmy
tabelę wielodzielczą miejsca zamieszkania (miasto, wieś) względem poglądów politycznych.
Następnie w ramach każdej grupy oszacowaliśmy związek pomiędzy badany™ zm\eivr\yvM.
Dane, kontrolowane przedstawiliśmy w tabeli 17.4 i na rycinie 17.3.
443
100
80 -
60 -
40
20

| wysoKie wykształcenie (_ __1 niskie wykształcenie

80%
1 1 1 75% 25%
20%
okręgi miejskie
okręgi wiejskie
a. Wykształcenie a miejsce zamieszkania

100
80 -
60 -
40 -
20 -

| wysoki liberalizm J niski liberalizm

80%
- 60% 40%
20%
wysokie wykształcenie
niskie wykształcenie
b. Liberalizm polityczny a wykształcenie
Ryc. 17.2. Związek pomiędzy liberalizmem, miejscem zamieszkania i wykształceniem
Tabela 17.2. Wykształcenie a miejsce zamieszkania
Liberalizm polityczny Okręg i miejskie Okręgi wiejskie
Wysoki 75% 20%
(300) (100)
Niskie 25% 80%
(100) (400)
Ogółem 100% 100%
(400) (500)
Tabela 17.3. Liberalizm polityczny a wykształcenie
Liberalizm polityczny Wykształcenie
wysokie niskie
Wysoki 60% 20%
(240) (100)
Niski 40% 80%
(160) (400)
Ogółem 100% 100%
(400) (500)
Dwie tabele dla dwóch zmiennych zawarte w tabeli 17.4 nazywane są tabelami
cząstkowymi, ponieważ każda odzwierciedla jedynie część całkowitego związku. Suma
liczebności każdej pary odpowiadających sobie komórek daje liczebność odpowiadającej im
komórki w tabeli wyjściowej (tabela 17.1). Na przykład 180 osób wysoko wykształconych,
mieszkających na wsi i posiadających liberalne poglądy polityczne oraz 20 osób nisko
wykształconych daje razem z wyjściowej tabeli 200 osób mieszkających na wsi i
posiadających liberalne poglądy polityczne.
Tabela 17.4. Liberalizm polityczny a miejsce zamieszkania (wykształcenie jako
zmienna kontrolowana) — związek pozorny
Liberalizm polityczny Wysokie wykształcenie Niskie wykształcenie
miasto wieś miasto wieś
Wysoki 60% 60% 20% 20%
(180) (60) (20) (80)
Niski 40% 40% 80% 80%
(120) (40) (80) (320)
Ogółem 100% 100% 100% 100%
(300) (100) (100) (400)
Aby oszacować korelację cząstkową, należy obliczyć miarę związku w każdej
kontrolowanej grupie i porównać rezultaty z wcześniej otrzymanym wynikiem. Wybieramy
taką miarę związku jak w przypadku zwykłego rozkładu dwuzmienno-
445
100
80
wysoki liberalizm
niski liberalizm
60%
wysokie wykształcenie
60%
40%
40%
niskie wykształcenie
80%
80%
20%
20%
okręgi miejskie
okręgi wiejskie
okręgi miejskie
okręgi wiejskie
Ryc. 17.3. Liberalizm polityczny a miejsce zamieszkania (wykształcenie jako zmienna
kontrolowana) — związek pozorny
wego. Możemy wykorzystać różnicę pomiędzy procentami, współczynnik gamma czy
r Pearsona w zależności od poziomu pomiaru danych.
Wartość korelacji cząstkowej może być identyczna lub prawie identyczna z wielkością
wyjściowego związku, może zniknąć lub może się zmienić. Z punktu widzenia istnienia
związku pozornego istotne są jedynie dwie pierwsze możliwości. Jeżeli związek cząstkowy
jest identyczny lub prawie identyczny ze związkiem wyjściowym, to mamy podstawy, aby
stwierdzić, że zmienna kontrolowana nie wpływa na wyjściowy związek między zmiennymi i
związek ten ma charakter bezpośredni. Jeżeli natomiast ów związek zanika, to mówimy, że
związek wyjściowy jest związkiem pozornym. (Trzecia zmienna może pośredniczyć
pomiędzy zmienną zależną a zmienną niezależną. Wtedy związek cząstkowy również znika
lub jest prawie równy zeru. Przykład takiej sytuacji krótko omówimy poniżej).
Jeżeli związek cząstkowy nie zanika, lecz ma inną wartość niż związek wyjściowy lub
ma inną wartość w każdej z tablic cząstkowych, to mówimy, że zmienna zależna i zmienna
niezależna pozostają ze sobą w interakcji*. Do problemu interakcji wrócimy później.
Związek wyjściowy jest związkiem pozornym. Analizując tabelę 17.4, widzimy, że
poziom wykształcenia całkowicie wyjaśnia związek pomiędzy miejscem zamieszkania i
liberalizmem. Jest tak dlatego, gdyż nie obserwujemy żadnych różnic w poglądach
politycznych mieszkańców wsi i miast wewnątrz każdej z dwóch grup wyłonionych ze
względu na poziom wykształcenia. Sześćdziesiąt procent wysoko wykształconych
mieszkańców wsi to osoby o liberalnych poglądach politycznych. Z kolei w grupie osób z
niskim wykształceniem liberalne poglądy polityczne ma 20% osób bez względu na miejsce
zamieszkania. Związek pomiędzy zmienną nie-
* Pomyłka! To zmienna niezależna i zmienna kontrolowana pozostają ze sobą w
interakcji względem zmiennej zależnej (por. p. „Interakcja", s. 451) (przyp. red. nauk.).
446
wykształcenie
liberalizm miejsce
polityczny zamieszkania
Ryc. 17.4. Pełen związek między zmiennymi przedstawionymi w tabeli 17.4
zależną i zmienną zależną jest całkowicie wyjaśniany przez związek każdej zmiennej z
poziomem wykształcenia, jak to przedstawiliśmy na rycinie 17.3. Tę samą zależność można
przedstawić w postaci diagramu (ryc. 17.4).
Wykształcenie determinuje zarówno liberalizm polityczny, jak i miejsce zamieszkania.
Oznacza to, że ludzie wysoko wykształceni mieszkają raczej w miastach i są politycznie
bardziej liberalni. Nie ma natomiast żadnego rzeczywistego związku pomiędzy liberalizmem
politycznym i miejscem zamieszkania, a obserwowane powiązanie między nimi ma charakter
pozorny.
Związek wyjściowy zachodzi bezpośrednio pomiędzy badanymi zmiennymi.
Kontrolowanie trzeciej zmiennej może jednak prowadzić do zupełnie innych
wyników. W hipotetycznym przykładzie przedstawionym w tabeli 17.5 wyjściowy związek
pomiędzy dwiema zmiennymi nie uległ zmianie po wprowadzeniu trzeciej zmiennej, tj.
wykształcenia. W całej próbie, podobnie jak w grupach wyodrębnionych ze względu na
poziom wykształcenia, porównanie odpowiednich wartości procentowych pokazuje, że 50%
mieszkańców miast ma liberalne poglądy polityczne, natomiast na wsi jedynie 28%. Wykres
słupkowy zeprezentowany na rycinie 17.5 wyraźnie pokazuje, że zmienna kontrolna nie
wywiera żadnego wpływu na wyjściowy związek między zmiennymi. Badacz może zatem
zasadnie twierdzić, że w przypadku tego konkretnego związku wykształcenie jest czynnikiem
nieistotnym, a związek zachodzi bezpośrednio między dwiema wyjściowymi zmiennymi.
Tabela 17.5. Liberalizm polityczny a miejsce zamieszkania (wykształcenie jako
zmienna kontrolowana) — związek nie będący związkiem pozornym
Liberalizm polityczny Wysokie wykształcenie Niskie
wykształcenie
miasto wieś miasto wieś
Wysoki 50% 28% 50% 28%
(50) (35) (150) (105)
Niski 50% 72% 50% 72%
(50) (90) (150) (270)
Ogótem 100% 100% 100% 100%
(100) (125) (300) (375)
W praktyce otrzymane wyniki nie są zazwyczaj tak wyraźne jak przedstawione tutaj.
Bardzo rzadko się zdarza, aby związek całkowicie zniknął lub był dokładnie
447
100
80
wysoki liberalizm
niski liberalizm
s 60 -
40 -
wysokie wykształcenie niskie wykształcenie

72% 72%
50% 50% 50% 50%
1 28% 1 1 28% 1
okręgi miejskie okręgi wiejskie okręgi miejskie
miejsce zamieszkania
okręgi wiejskie
Ryc. 17.5. Liberalizm polityczny a miejsce zamieszkania (wykształcenie jako zmienna
kontrolowana) — związek nie będący związkiem pozornym
taki sam jak związek wyjściowy. Bardzo często dane otrzymane dla tabel cząstkowych
wykazują znacznie mniejsze powiązanie, a czasami tylko niewielkie zmniejszenie korelacji.
Dzieje się tak, ponieważ na wyjściowy związek między dwiema zmiennymi może wpływać
wiele czynników. W naszym przykładzie takie zmienne, jak dochody, przynależność do partii
czy wyznanie religijne również w znaczący sposób mogą wyjaśnić związek pomiędzy
miejscem zamieszkania a liberalizmem politycznym. Statystycy nazywają tę cechę zmiennych
zblokowanie m2. Termin ten odzwierciedla wielowymiarowość ludzi, ludzkich działań i
społecznych interakcji. Porównując ludzi na przykład w terminach klasy społecznej, bierzemy
pod uwagę jedynie jeden wymiar ludzkich doświadczeń. Ludzie mogą się różnić pod wieloma
innymi względami i wszystkie te czynniki mogą wpływać na wyjaśniane zjawisko. Czynniki
zblokowane to nasze zmienne kontrolowane; ponieważ jednak możemy kontrolować tylko
niektóre z nich, reszta może nadal wyjaśniać pozostałą część zróżnicowania zmiennej
zależnej.
Procedura kontroli powinna zatem polegać na utrzymywaniu wszystkich pozostałych
zmiennych mogących mieć wpływ na badane zjawisko. Wybór tych zmiennych jest operacją
logiczną i teoretyczną, a jedynym wymaganiem statystycznym jest spełnienie warunku
powiązania potencjalnej zmiennej kontrolnej zarówno ze zmienną zależną, jak i ze zmienną
niezależną. Oczywiście nigdy nie będziemy całkowicie pewni, że w swojej analizie
uwzględniliśmy wszystkie zmienne. Jednakże im więcej istotnych zmiennych kontrolujemy,
tym większa pewność, że nasz zwi zek nie jest związkiem pozornym.
2 Morris Rosenberg (1968), The Logic of Sumey Analysis, New York: Basic Books, s.
26-28. [Por. też skróconą i zmodyfikowaną wersję tej książki wydaną w Polsce jako: Adrian
de Winter (1981), Zmienne kontrolne (faktory testujące) w badaniach socjologicznych,
Lublin: RW KUL (opracował i tłumaczył Marian Radwan). Inne streszczenie książki M.
Rosenberga: M Rosenberg (1979), Logika anali socjologicznej, w: A. Sułek (red.), Logika
analizy socjologicznej. Wybór tekstów. Warszawa: Wyd. UW (streścił Antoni Sułek) (s. 161-
211) (przyp. red. nauk.)]
448
I Poziom złożoności
Mechanizm kontroli został zaprojektowany po to, aby można było wykryć wszystkie
czynniki, które wpływają zakłócająco na trafność analizowanego związku między dwiema
zmiennymi. Badacze najprawdopodobniej wybiorą wówczas inne zmienne niezależne i
powtórzą proces sprawdzania trafności analizowanego związku. Jeżeli jednak badany związek
nie jest związkiem pozornym, to można zastosować bardziej złożoną analizę i bardziej
skomplikować badaną zależność. Technika rozbudowywania polega zazwyczaj na
wprowadzeniu innych zmiennych, aby określić sposób powiązania zmiennej zależnej i
zmiennych niezależnych lub określić warunki, w jakich może zachodzić związek między
zmiennymi.
Konkretne przykłady pomogą nam zilustrować istotę techniki rozbudowywania. W
ostatnim dziesięcioleciu w naukach społecznych zwracano szczególną uwagę na wpływ
wczesnego urodzenia dziecka na szanse życiowe młodocianych rodziców. Naukowcy
zajmujący się tą problematyką stwierdzili, że wczesne posiadanie dzieci powoduje większe
trudności ekonomiczne i kłopoty rodzinne niż posiadanie dzieci w wieku późniejszym3.
Wczesne posiadanie dzieci wydaje się przyczyniać do rzucania szkoły, zwłaszcza w
przypadku młodocianych matek. Z kolei niższe wykształcenie sprawia, że nastoletnie matki
mają kłopoty ze znalezieniem stałej i opłacalnej pracy. Związek ten możemy schematycznie
przedstawić w następujący sposób:
wczesne posiadanie dzieci —» niższe wykształcenie —» niekorzystne położenie
ekonomiczne.
Zatem niższe wykształcenie wiąże wczesne posiadanie dzieci z niekorzystnym
położeniem ekonomicznym. Jest to zmienna pośrednicząca pomiędzy zmienną niezależną
(wczesne urodzenie dziecka) a zmienną zależną (niekorzystne położenie ekonomiczne).
I chociaż niższe wykształcenie wpływa na niekorzystne położenie ekonomiczne wielu
nastoletnich matek, życie tych kobiet bywa bardzo różne. W jednym z ostatnich badań
stwierdzono na przykład, że 1/4 dzieci młodocianych rodziców przyszło na świat w rodzinach
dobrze zarabiających, a około 1/4 w rodzinach zarabiających powyżej 25 000$ rocznie4. Aby
wyjaśnić te różnice, badacze poddali kontroli wiele zmiennych. Jedną z tych zmiennych była
rasa. Okazało się, że białe matki częściej osiągały wyższy poziom ekonomiczny w
porównaniu z matkami o czarnym kolorze skóry. W tym przykładzie wyjściowy związek
pomiędzy wczesnym posiadaniem dziecka a niekorzystnym położeniem ekonomicznym
ujawnia się tylko w jednej podgrupie, tj. w grupie matek czarnych. Zmienna kontrolowana —
rasa — pełni funkcję zmiennej warunkowej, a wzorzec takiej zależności nazywany jest
interakcją, co schematycznie można przedstawić następująco:
, . . czarni —> niekorzystne położenie ekonomiczne wczesne urodzenie -"
** biali —> brak niekorzystnego położenia ekonomicznego
3 Frank F. Furstenberg, Jr., J. Brooks-Gunn, S. Philip Morgan (1987), Adolescent
Mothers in Later Life, Cambridge: Cambridge University Press.
4 Ibidem, s. 48.
449
Poniżej przedstawimy przykład empiryczny sytuacji, w której występuje zmienna
pośrednicząca oraz interakcja.
Zmienna pośrednicząca
Wróćmy do pierwszego przypadku, w którym zmienna kontrolowana pośredniczy
pomiędzy zmienną niezależną i zmienną zależną. Tabela 17.6 zawiera dane dotyczące
wczesnego posiadania dzieci i statusu ekonomicznego. Analizując te dane. widać, że obie
zmienne są ze sobą powiązane: wczesne posiadanie dzieci pociąga za sobą niekorzystne
położenie ekonomiczne. Zdaniem badaczy prawidłowość te można wyjaśnić, wprowadzając
trzecią zmienną, tj. osiągnięte wykształcenie. Innymi słowy, wczesne posiadanie dzieci
wpływa pośrednio na status ekonomiczny poprzez poziom wykształcenia. Młode matki
bowiem wcześniej rzucają szkołę w porównaniu z nastolatkami nie będącymi matkami.
Tabela 17.6. Urodzenie dziecka a status ekonomiczny (dane hipotetyczne)
Wczesne urodzenie dziecka _ ,,
Status ekonomiczny ---------¦----------------------:---------- Ogółem
tak nie
Niski 54% 33%
(869) (653) (1522) Wysoki 46% 67%
(731) (1347) (2078)
Ogółem 100% 100% 100%
(1600) (2000) (3600)
Aby sprawdzić tę hipotezę, badacze wprowadzili grupy o stałym poziomie kształcenia
i ponownie przeanalizowali badany związek. Jeżeli, jak sugerowali, we ne posiadanie dzieci
ma jedynie pośredni wpływ na status ekonomiczny, to kontrolując zmienną pośredniczącą,
powinniśmy otrzymać wynik w postaci braku związku pomiędzy wczesnym posiadaniem
dzieci a statusem ekonomicznym. Dane przedstawione w tabeli 17.7 potwierdzają tę hipotezę:
nie ma różnic statusu ekonomicznego pomiędzy matkami i niematkami, gdy ich poziom
wykształcenia jest taki sam. Wyjściowy związek pomiędzy zmiennymi znika, gdy zmienną
kontrolowaną jest wykształcenie.
Aby sprawdzić, czy zmienna kontrolowana wiąże zmienną niezależną i zmienną
zależną, musimy wykazać, że zmienna ta jest powiązana zarówno ze zmienną niezależną, jak
i ze zmienną zależną i że po wprowadzeniu zmiennej kontrolowanej wyjściowy związek
między zmiennymi znika (lub zdecydowanie słabnie) we wszystkich kategoriach
kontrolowanej zmiennej. Czytelnik może zauważyć, że identyczne warunki musiały zostać
spełnione, aby można było uznać dany związek za związek pozorny, i rzeczywiście jest to
prawda. Stosowane w obu przypadkach testy statystyczne są identyczne, ale interpretacja jest
różna. W wypadku związku pozornego wyniki testu statystycznego stanowią podstawę do
odrzucenia hipotezy o związku pomiędzy zmienną niezależną i zmienną zależną, a w
wypadku zmiennej pośredniczącej — odwrotnie — są podstawą wyjaśnienia takiego związku.
W jaki sposób zatem możemy te dwie sytuacje od siebie odróżnić?
450
Tabela 17.7. Urodzenie dziecka i status ekonomiczny a uzyskane wykształcenie (dane
hipotetyczne)
Wysoki poziom wykształcenia Niski poziom wykształcenia Status ekonomiczny
wczesne urodzenie dziecka______wczesne urodzenie dziecka Ogółem
tak nie tak nie
Niski 18% 18% 64% 65%
(90) (216) (704) (512) (1522)
Wysoki 82% 82% 36% 36%
(410) (984) (396) (288) (2078)
Ogółem 100% 100% 100% 100%
(500) (1200) (1100) (800) (3600)
Morris Rosenberg twierdzi, że różnica ta ma charakter raczej teoretyczny, a nie
statystyczny, i że jej istota leży w zakładanym związku przyczynowym pomiędzy
zmiennymi5. Interpretując dany związek jako związek pozorny, zakładamy, że pomiędzy
zmienną niezależną i zmienną zależną nie zachodzi związek przyczynowy. Natomiast myśląc
o zmiennej pośredniczącej, przyjmujemy, że zmienna niezależna i zmienna zależna są ze sobą
pośrednio powiązane właśnie za pomocą zmiennej pośredniczącej, czyli zmiennej
kontrolowanej.
Interakcja
Drugi sposób rozbudowywania związku, czyli interakcja, polega na określaniu
warunków niezbędnych do zaistnienia związku. Zilustrujemy znaczenie interakcji,
wykorzystując przykład wczesnego posiadania dzieci, statusu ekonomicznego i rasy. Związek
pomiędzy wczesnym posiadaniem dzieci a statusem ekonomicznym można oszacować na
podstawie danych zawartych w tabeli 17.6. Jak widzimy, zmienne te są ze sobą powiązane.
Aby dowiedzieć się czegoś więcej o tym związku, możemy kontrolować rasę. Odpowiednie
dane zostały przedstawione w tabeli 17.8.
Tabela 17.8. Urodzenie dziecka i status ekonomiczny a rasa (dane hipotetyczne)
Murzyni Biali
Status ekonomiczny wczesne urodzenie dziecka wczesne urodzenie dziecka
Ogółem
tak nie tak nie
Niski 66% 31% 36% 38%
(594) (372) (252) (304) (1522)
Wysoki 34% 69% 64% 62%
(306) (828) (448) (496) (2078)
Ogółem 100% 100% 100% 100%
(900) (1200) (700) (800) (3600)

Rosenberg, Logic of Suryey Analysis, s. 54-66.


451
wisko interakcji, jako że związek pomiędzy wczes-
sem ekonomicznym jest inny w wypadku kobiet bia-
adanie dzieci przez kobiety czarne wywiera istotny
:zny (66% młodocianych matek miało niski status
dynie 31 % ich rówieśniczek, które nie były matka-
t białych nie ma żadnego związku pomiędzy tymi
kobiet, bo ponad 1/3 (36% i 38%) to kobiety o nis-
pierając się na tych wynikach, możemy wyciągnąć
: dzieci i rasa to zmienne wchodzące ze sobą w in-
iją wpływ na status ekonomiczny. Innymi słowy,
zależną i zmienną zależną jest związkiem uwarun-
nożliwych interpretacji jest przyjęcie, że wczesne
:ne konsekwencje jedynie w wypadku kobiet, które
ej sytuacji ekonomicznej.
isany wyżej, jest związkiem powszechnie opisywa-
)żna przyjąć, że zachodzi on wtedy, gdy wyjściowy
wyraźniejszy w jednej kategorii zmiennej kontrol-
różnice pomiędzy podgrupami odzwierciedlają na-
/ której każda ze zmiennych może zostać roztożo-
/wiście niemal z każdym związkiem zachodzącym
ąże się wiele czynników warunkowych. Ta złożo-
a, że analiza interakcji jest jednym z nąjważniej-
cznej.
nie jako zmienna warunkowa. Herbert Hyman
mazane zazwyczaj za warunki decydujące o ujaw-
na zmiennymi. Podzielił je na trzy podstawowe
;ył zmienne dookreślające badany związek w ter-
vania. W wielu sytuacjach zainteresowania okreś-
wdziej ujawnia się siła oddziaływania zmiennej
d względem swoich zainteresowań, a te z kolei
zachowania się. Te same bodźce społeczne mogą
udzi, a określenie różnych wzorców zachowania
^o ważne. Weźmy na przykład pod uwagę wyniki
erga, dotyczące związku pomiędzy samooceną
ityczne7. Nastolatki z niską samooceną, posiada-
mają tendencję do unikania wyrażania swoich
)senberg, biorąc pod uwagę stopień zaintereso-
srdził, że związek taki zachodzi tylko dla tych
Dsoby, które nie interesują się polityką, nie pro-
polityczne nawet wtedy, gdy cechuje je wyższa
imiennej warunkowej pomogło dookreślić wy-
li.
ńgn and Analysis, New York: Free Press, s. 295-311. and Concern with Public Affairs,
„Public Opinion Quar-
Czas i miejsce jako zmienna warunkowa. Drugą klasę czynników dookreślają-cych
związek między zmiennymi stanowi czas i miejsce. Związek między dwiema zmiennymi
może się różnić w zależności od czasu i miejsca, w jakich jest badany. W badaniach
poświęconych polityce zazwyczaj wprowadza się „miejsce" jako zmienną kontrolowaną. Na
przykład stwierdza się, że wpływ klasy społecznej, płci i rasy na sposób glosowania jest różny
w różnych krajach.
Czas jest również istotnym czynnikiem. Bardzo często związek zachodzący w
określonym czasie przestaje się ujawniać w innym. W bardzo wielu badaniach wykazano na
przykład istnienie związku pomiędzy płcią a poparciem dla kobiet pracujących w polityce.
Kobiety częściej niż mężczyźni odrzucają stereotypowy pogląd, że „polityka jest dla
mężczyzn"8. W licznych badaniach porównawczych, w których badano wpływ płci na
postawy wobec kobiet w polityce w różnym czasie przyjęto hipotezę, że wraz z upływem
czasu różnice między płciami będą coraz mniejsze, albowiem w polityce zaczęło się pojawiać
coraz więcej kobiet. Innego przykładu dostarczają badania poświęcone problemowi rozwoju i
socjalizacji. Wiadomo na przykład, że rodzina wpływa na sposób zachowania się dzieci.
Ujawnia się to mocniej na wczesnych etapach rozwoju, kiedy dziecko jest silniej związane ze
swoją rodziną. W późniejszych etapach rozwoju zaczynają odgrywać rolę inne aspekty
socjalizacji i wpływ rodziny zaczyna maleć. Zatem związek pomiędzy rodziną a
zachowaniem dzieci nie będzie związkiem stałym, jeżeli będzie badany w różnym czasie.
Sposoby rozbudowywania związku między zmiennymi
¦ Zmienne pośredniczące. Są to zmienne wiążące zmienną niezależną i zmienną
zależną, a także wyjaśniające związek między nimi. Aby można było stwierdzić, że dana
zmienna wiąże ze sobą zmienną niezależną i zmienną zależną, trzeba wykazać, że zmienna
kontrolowana jest powiązana zarówno ze zmienną niezależną, jak i zależną. Należy również
wykazać, że gdy kontrolujemy daną zmienną, wyjściowy związek między zmiennymi istotnie
się zmniejsza lub całkowicie zanika.
¦ Interakcja. Aby wykazać interakcję, trzeba określić warunki konieczne do
ujawnienia się związku. Można przyjąć, że dany związek jest związkiem warunkowym
zawsze wtedy, gdy siła związku między dwiema wyjściowymi zmiennymi ujawnia się
wyraźniej w jednej kategorii zmiennej kontrolowanej niż w innej.
Zmienne demograficzne jako zmienne warunkowe. Ostatnią klasę czynników
stanowią zmienne demograficzne. Bardzo często badany związek pomiędzy zmiennymi jest
inny dla osób lub grup różniących się w zakresie różnych zmiennych demograficznych. I tak
związek pomiędzy klasą społeczną a sposobem głosowania jest różny dla mężczyzn i kobiet,
a wpływ pozytywnych ocen nauczyciela na samo-
8 Dianę Gillespie, Cassie Spohn (1990), Adolescents Attitudes toward Women in
Politics: A Fol-low-up Study, „Women and Politics", 10, s. 1-16.
453
ocenę jest różny dla dzieci białych i czarnych. Zmienne demograficzne są
prawdopodobnie jedną z najbardziej powszechnych kategorii zmiennych warunkowych w
naukach społecznych. Niektórzy badacze uwzględniają takie zmienne kontrolowane jak: i
„klasa społeczna", „poziom wykształcenia", „płeć" czy „wiek" niemal automatycznie, I gdy
ponownie badają analizowany przez siebie związek między zmiennymi.
Korelacja czgstkowa jako forma kontroli
Kontrolowanie poprzez budowanie tabel wielodzielczych jest popularną metoda, w
badaniach empirycznych i można ją stosować na wszystkich poziomach pomiaru. Technika ta
ma jednak swoje ograniczenia, gdy liczba zbadanych przypadków jest stosunkowo niewielka.
Aby można było zastosować technikę tabel wielodziel- I czych, należy — zgodnie z liczbą
kategorii kontrolowanego czynnika — podzielić badaną grupę na mniejsze podgrupy.
Dzielenie grupy na podgrupy prowadzi do I zmniejszenia liczby przypadków, dla których
oblicza się współczynnik korelacji. Zbyt mała próba z kolei sprawia, że trafność i rzetelność
otrzymanych wniosków staje się wątpliwa. Problem ten nabiera szczególnego znaczenia, gdy
kontrolujemy jednocześnie wiele zmiennych.
Drugą metodą kontroli, która nie jest ograniczana liczbą przypadków, jest metoda
korelacji cząstkowej. Metoda ta — matematyczne korygowanie korelacji dwóch zmiennych
— została zaprojektowana po to, aby wyeliminować wpływ zmiennej kon- i trałowanej na
zmienną zależną i niezależną. U podstaw konstrukcji tej miary przyjęto te same założenia
logiczne co przy tworzeniu tabel wielodzielczych. Wyjściowy zwią- j zek pomiędzy zmienną
niezależną i zależną jest również analizowany w celu sprawdzenia, czy jest to związek
zachodzący bezpośrednio pomiędzy zmienną niezależną i i zależną, bez względu na związek
tych zmiennych z trzecią, uboczną zmienną.
Wzór, na podstawie którego możemy obliczyć korelację pozorną, odwołuje się i do
pewnego sposobu zapisu danych, który chcemy teraz przedstawić. Zmienna nie- i zależna jest
oznaczana jako Xu zmienna zależna jako X2, a zmienna kontrolowana jako X3. Dodatkowe
zmienne kontrolowane oznaczane są jako X4, X5, X6 i tak dalej. Symbol r oznacza
współczynnik korelacji, a indeks dolny przy r wskazuje korelację, którą obliczamy. Na
przykład r12 oznacza korelację pomiędzy zmienną niezależną (X,) i zmienną zależną (X2).
Współczynnik korelacji pomiędzy zmienną kontrolowaną (X3) a zmienną niezależną i
zależną oznaczymy zatem odpowiednio jako r}l i r32. i
Przypuśćmy, że korelacja r,2 = 0,60 opisuje związek pomiędzy samooceną (I,) j a
planami dotyczącymi dalszego kształcenia (X)- Aby sprawdzić charakter tego i związku,
można wprowadzić trzecią zmienną taką, jak klasa społeczna (X,), która jest powiązana
zarówno z samooceną (r31 = 0,30), jak i z planami dotyczącymi dal- , szego kształcenia (r32
= 0,40). Możemy wykorzystać metodę obliczania korelacji cząstkowej, aby otrzymać miarę
siły związku pomiędzy zmiennymi po wyeliminowaniu wpływu klasy społecznej. Wzór
pozwalający obliczyć korelację cząstkową ma następującą postać:
rn ~ (r3l) (r32)
r,2'3 = 7n^rr^' 07.D
gdzie X, oznacza zmienną niezależną (w naszym przykładzie samoocenę),
454
X2 zmienną zależną (plany dotyczące dalszego kształcenia), X3 zmienną
kontrolowaną (klasę społeczną). Cyfra znajdująca się po prawej stronie kropki wskazuje,
którą zmienną kontrolujemy. Zatem r12 3 to korelacja pomiędzy zmienną X, a X2, gdy
kontrolowana jest trzecia zmienna X3. Podobnie współczynnik korelacji cząstkowej
pomiędzy X, aX3, gdy kontrolowana jest zmiennaX2, oznaczymy jako r,32. Współczynnik
korelacji cząstkowej z jedną zmienną kontrolowaną to współczynnik k o r e 1 a-cj i
cząstkowej pierwszego rzęduw odróżnieniu od prostego współczynnika między zmiennymi,
często nazywanego współczynnikiem korelacji rzę-duzerowego. Współczynnik korelacji
czątkowej przy dwóch zmiennych kontrolowanych nazywamy współczynnikiem drugiego
rzędui tak dalej. Jeśli kontrolujemy jednocześnie więcej niż jedną zmienną, to dodajemy ich
nazwy po prawej stronie kropki. Tak więc kontrolowanie zmiennej X3 i X4 oznaczymy jako
r12 34. Możemy teraz obliczyć współczynnik korelacji cząstkowej pomiędzy samooceną a
planami dotyczącymi dalszego kształcenia:
0,60 - (0,30) (0,40) 0,48 _ 0,48 _
123 ~ aJ 1 - (0,30)2aJ 1 - (0,40)2 ~~ i| 0,7644 ~ 0,87 ~
Współczynnik korelacji cząstkowej podniesiony do kwadratu informuje nas o tym,
jaka część zróżnicowania nie została wyjaśniona przez zmienną kontrolowaną, a jest
wyjaśniona przez zmienną niezależną. Tak więc około 30% [(0,55)2 x 100] zróżnicowania w
zakresie planów dotyczących dalszego kształcenia można — po wyeliminowaniu wpływu
klasy społecznej — wyjaśnić samooceną.
W odróżnieniu od metody tabel wielodzielczych współczynnik korelacji cząstkowej
jest pojedynczą, całościową miarą odzwierciedlającą stopień korelacji pomiędzy dwiema
zmiennymi, gdy kontrolowana jest trzecia zmienna. Współczynnik korelacji cząstkowej nie
odzwierciedla zatem wariancji związku cząstkowego w różnych kategoriach zmiennej
kontrolowanej. Jest to miara, która uśrednia współczynniki cząstkowe otrzymane dla różnych
kategorii tej zmiennej. Ta właściwość jest główną wadą miar tego typu, ponieważ może ona
przysłaniać ważne informacje. W sytuacji, w której badacz zakłada, że istnieją różnice
pomiędzy współczynnikami cząstkowymi dla różnych podgrup, powinien on stosować raczej
technikę budowania tabel wielodzielczych.
Regresja wielokrotna jako metoda kontroli
Inną metodą pozwalającą oszacować związek między dwiema zmiennymi, gdy
kontrolowany jest wpływ innych zmiennych, jest regresja wielokrotna. Jest ona prostym
rozszerzeniem regresji dla dwóch zmiennych, którą omówiliśmy w rozdziale 16. Równanie
regresji wielokrotnej opisuje związek pomiędzy zmienną zależną z zbiorem zmiennych
niezależnych:
Y = a + blX\+b2X2, (17.2)
gdzie Y oznacza zmienną zależną, a X, i X2 to zmienne niezależne. Wielkości bx\b2,
nazywane współczynnikami regresji wielokrotnej, są współczynnikami nachylenia
455
regresji zmiennej zależnej względem odpowiedniej zmiennej niezależnej przy
założeniu, że druga zmienna niezależna jest kontrolowana. I tak b, odzwierciedla wielkość
zmian wartości Y pod wpływem zmian wartości X,, gdy X2 przyjmuje stalą wartość. Z kolei
b2 oznacza zmiany wartości Y spowodowane zmianami wartości X2, gdy Xt przyjmuje stałą
wartość. Wielkość a to punkt przecięcia linii regresji z osią Y zarówno dla zmiennej Xu jak i
dla X2. Tak jak w wypadku regresji dla dwóch zmiennych, również i w odniesieniu do
regresji wielokrotnej dokonuje się estymacji stałych wielkości, aby zminimalizować średni
kwadrat predykcji. Estymacji tej dokonuje się, stosując kryterium najmniejszych kwadratów,
które pozwala na otrzymanie linii regresji najlepiej dopasowanej do danych. Oszacowania
wartości a, bx i b2 (spełnione kryterium najmniejszych kwadratów) można dokonać za
pomocą poniższych wzorów:
* - (2
T^f> (I")
a = Y-blXl-b2X2. (17.5)
Zilustrujemy sposób obliczania stałych wielkości równania regresji wielokrotnej za
pomocą równań (17.3), (17.4) i (17.5) na przykładzie badania wpływu samooceny i
wykształcenia na liberalizm polityczny.
Przyjmijmy, że liberalizm polityczny to nasza zmienna Y, wykształcenie to Xh a
samoocena to X2. Przyjmijmy też, że liberalizm mierzono na skali od 1 do 10, a samoocenę
na skali od 1 do 9. Im wyższa wartość na skali, tym wyższy poziom mierzonej cechy.
Wykształcenie natomiast mierzono liczbą lat nauki. Poniżej przedstawiamy hipotetyczne
wartości średnie, odchylenia standardowe i współczynniki korelacji dla tych zmiennych:
ryi = 0,86 (pomiędzy liberalizmem a wykształceniem), ry2 = 0,70 (pomiędzy
liberalizmem a samooceną), rl2 = 0,75 (pomiędzy wykształceniem a samooceną).
W naszym przykładzie bx oznacza wpływ wykształcenia na liberalizm, gdy
kontrolowana jest samoocena, natomiast b2 oznacza wpływ samooceny na liberalizm, gdy
kontrolowane jest wykształcenie. Podstawiając te dane do wzorów na i, i b2, otrzymamy:
mOję-(0,70)(0,75) f^0J0~i0mą^
U, U l-(0,75)2 2 {2,2) 1 - (0,75)2
Współczynnik przesunięcia:
a = 6,5 - (0,56)(8,9) - (0,17)(5,8) = 0,53.
y=6,5 Sy = 3
Xt = 6,5 s{ - 3
X2 = 6,5 ^2 = 3
456
Mając obliczone wartości bub2i a, możemy napisać równanie regresji wielokrotnej
pozwalające przewidywać liberalizm polityczny na podstawie wykształcenia i samooceny:
Y = 0,53 + 0,56X, + 0,17X2.
Na podstawie tego równania można dokonać prognozy średniego poziomu liberalizmu
dla danego poziomu wykształcenia i samooceny. Na przykład dla osoby, która ma za sobą 10
lat nauki, a jej wynik na skali samooceny wynosi 8, przewidywany poziom liberalizmu
będzie:
F= 0,53+ (0,56)(10) +(0,17)(8) = 7,49.
Ponieważ współczynniki b odzwierciedlają czysty efekt każdej zmiennej, więc
możemy te współczynniki porównywać ze sobą, aby określić względną istotność badanych
zmiennych niezależnych. Ze względu jednak na to, że każda ze zmiennych mierzona jest na
skali o różnej liczbie jednostek, aby je można było porównać, należy je najpierw
wystandaryzować. Wystandaryzowany współczynnik b nazywany jest wagą beta lub
współczynnikiem beta i jest przedstawiany za pomocą litery j3. Współczynniki /? otrzymamy,
mnożąc współczynniki b przez iloraz odchyleń standardowych zmiennej niezależnej i
zmiennej zależnej. Zatem ft i (52 można obliczyć w sposób następujący:
a-(*)*•¦ Mr>
W naszym przykładzie zatem:
js, = f^-J (0'56) = °'765' & = (t) (0,17) = °'125-
W równaniu standaryzowanym wielkość a, czyli współczynnik przesunięcia, równa
się zero. Dlatego ostatecznie równanie ma postać:
Y = X]z+X2z.
Litera z w indeksie dolnym wskazuje, że zmienne zostały wystandaryzowane.
Standardyzowane równanie regresji pokazuje, że wraz ze wzrostem wykształcenia o
jedno odchylenie standardowe liberalizm rośnie o 0,765 odchylenia standardowego, a wzrost
samooceny o jedno odchylenie standardowe pociąga za sobą wzrost liberalizmu o 0,125
odchylenia standardowego. Jedną z podstawowych korzyści wynikających z posługiwania się
standardowym równaniem regresji jest przekształcanie zmiennych na jednolitą skalę i
możliwość bezpośredniego porównywania względnej siły oddziaływania wykształcenia i
samooceny na liberalizm polityczny. Widać wyraźnie, że wykształcenie wpływa znacznie
mocniej na liberalizm (0,765) w porównaniu z samooceną (0,125).
457
Trzy metody kontroli statystycznej
¦ Tabele wielodzielcze. Jeśli posługujemy się tabelami wielodzielczymi jako
metodami kontroli, to musimy podzielić badaną próbę na podgrupy zgodnie z liczbą kategorii
zmiennej kontrolowanej i ponownie oszacować siłę związku między dwiema zmiennymi dla
każdej podgrupy. Jako zmienne kontrolowane należy wybrać jedynie te zmienne, które są
powiązane z badaną zmienną zależną i niezależną. Otrzymane w rezultacie podziału
cząstkowe tabele analizuje się po to, aby sprawdzić, czy związek między zmiennymi jest
związkiem pozornym, zachodzącym bezpośrednio między badanymi zmiennymi, czy jest
uwarunkowany zmienną pośredniczącą, czy być może jest wynikiem interakcji. Budowanie
tabel wielodzielczych pozwala na dookreślenie badanego związku pomiędzy zmiennymi
nominalnymi, porządkowymi, a także interwałowymi.
¦ Korelacja cząstkowa. Metodę korelacji cząstkowej można stosować tylko dla danych
interwałowych. Korelację cząstkową oblicza się po to, aby matematycznie skorygować
związek między dwiema zmiennymi w celu wyeliminowania efektu oddziaływania zmiennej
kontrolowanej na zmienną niezależną i zmienną zależną oraz po to, by otrzymany wynik
odzwierciedlał jedynie bezpośrednie powiązanie między zmienną niezależną a zależną.
Współczynnik korelacji cząstkowej z jedną zmienną kontrolowaną nazywany jest
współczynnikiem korelacji cząstkowej pierwszego rzędu, z dwiema zmiennymi
kontrolowanymi — współczynnikiem korelacji cząstkowej drugiego rzędu i tak dalej.
Współczynnik korelacji cząstkowej podniesiony do kwadratu odzwierciedla proporcję
wariancji nie wyjaśnioną przez zmienną kontrolowaną, lecz wyjaśnioną przez zmienną
niezależną. Współczynnik korelacji cząstkowej można obliczyć, stosując wzór (17.1).
¦ Regresja wielokrotna. Równanie regresji wielokrotnej opisuje zakres związku
liniowego pomiędzy zmienną zależną a zbiorem zmiennych niezależnych czy
kontrolowanych. Do oszacowania tego związku stosuje się równania (17.2), (17.3), (17.4) i
(17.5). Aby można było porównać względną istotność zmiennych niezależnych mierzonych
na różnych skalach i/lub w różnych jednostkach, efekty oddziaływania zmiennych — czyli
inaczej współczynnik b — muszą zostać wystandaryzowane. Standaryzacji dokonuje się,
obliczając wagi beta czy inaczej współczynniki beta oznaczane jako (5.
Tak jak współczynnik korelacji cząstkowej mierzy wpływ jednej zmiennej niezależnej
na zmienną zależną przy kontrolowaniu innej zmiennej, tak współczynnik regresji
wielokrotnej jest miarą wielkości zmian zmiennej zależnej, gdy zmienna niezależna zmieniła
się o jednostkę, a wszystkie pozostałe zmienne uwzględnione w równaniu są kontrolowane.
W rzeczywistości wagi beta i współczynniki korelacji cząstkowej można bezpośrednio
porównywać. Są one zazwyczaj podobne co do wielkości i zawsze mają ten sam znak
wskazujący na kierunek związku.
458
I Analiza wielozmiennowa: korelacje wielokrotne
Dotąd rozważaliśmy jedynie sytuacje, w których jedna zmienna niezależna wpływała
na badaną zmienną zależną. W świecie zjawisk społecznych rzadko mamy do czynienia z
sytuacją, w której tylko jedna zmienna jest istotna dla wyjaśnianego zjawiska. Ze zmienną
zależną bardzo często jest związanych wiele zmiennych niezależnych. Zmiany populacji na
przykład można wyjaśnić za pomocą czterech zmiennych: „odsetka urodzeń", „odsetka
zgonów", „wielkości imigracji" i „wielkości emigracji". Podobnie różnice w postawach
wobec legalnej aborcji możemy wyjaśnić, odwołując się do różnic w „postawach religijnych",
„płci" i „wieku". Tak więc zazwyczaj można wskazać wiele zmiennych niezależnych, z
których każda może mieć własny wkład codo możliwości przewidywania badanej zmiennej
zależnej.
W typowym problemie badawczym — gdy badacz chce wyjaśnić różnice w sposobie
głosowania — można wykorzystać wiele zmiennych niezależnych, na przykład „klasę
społeczną, „religię", „płeć" czy „postawy polityczne". Możemy następnie sprawdzić wpływ
każdej zmiennej niezależnej przy kontrolowaniu wpływu pozostałych zmiennych. Można
jednak sprawdzić też łączny wpływ wszystkich zmiennych niezależnych na sposób
głosowania.
Technika regresji wielokrotnej jest najbardziej właściwą techniką, którą można
zastosować do analizowania problemów, gdzie występują dwie lub więcej zmiennych.
Przekonaliśmy się, że standaryzowane współczynniki regresji — wagi beta — umożliwiają
szacowanie wpływu na zmienną zależną każdej ze zmiennych niezależnych uwzględnionej w
równaniu regresji.
Aby oszacować łączny wpływ wszystkich zmiennych niezależnych, należy obliczyć
współczynnik determinacji^?2.
Podobnie jak w równaniu regresji dla dwóch zmiennych, tak i w równaniu regresji
wielokrotnej, trzeba oszacować, jak dobrze równanie regresji jest dopasowane do
rzeczywistych danych. W prostym równaniu regresji stopień dopasowania (i-naczej
zmniejszenie błędu) mierzyliśmy, obliczając wielkość r2, którą definiowaliśmy jako stosunek
wariancji wyjaśnionej do całkowitej wariancji zmiennej zależnej. Również wtedy, gdy
predykcja oparta jest na wielu zmiennych, można wykorzystać stosunek wariancji
wyjaśnionej przez kilka zmiennych do wariancji całkowitej jako podstawę oszacowania, jak
zmniejszy się błąd predykcji. Miara ta, R2, pokazuje, jaki jest procent wariancji wyjaśnionej
przez wszystkie zmienne niezależne uwzględnione w równaniu regresji. Pierwiastek
kwadratowy ze współczynnika R2 informuje o wielkości korelacji pomiędzy wszystkimi
zmiennymi niezależnymi* a zmienną zależną. Jest to zatem współczynnik korelacji
wielokrotnej.
Współczynnik R2 dla trzech zmiennych możemy obliczyć według następującego
wzoru:
R\.n = -^—f , /2 y (17.6)
1 Kr\2)
* Trzeba dodać, że pozostając w obrębie modelu liniowego, mówić możemy jedynie o
liniowej kombinacji zmiennych niezależnych. Związek zmiennych niezależnych ze zmienną
zależną jest związkiem liniowym (przyp. red. nauk.).
459
lub
R2=/3irvl+/32ry2. (17.7)
Aby zilustrować sposób obliczania współczynnika R2, oszacujmy, jaki procent
wariancji wyjaśnionej liberalizmu politycznego (Y) można przypisać wykształceniu (Xt) i
samoocenie (X2). Skorzystajmy w tym celu z danych przedstawionych wcześniej na stronach
xxx i wykorzystajmy równanie (17.7):
R2 = (0,765)(0,86)+ (0,125)(0,70) = 0,745.
Wynik ten oznacza, że prawie 75% zmienności liberalizmu politycznego możemy
przypisać łącznemu wpływowi wykształcenia i samooceny.
¦ Modele przyczynowe i analiza zmiennych
Dotąd koncentrowaliśmy się na metodach kontroli pozwalających zinterpretować
współczynnik korelacji otrzymany dla dwóch zmiennych. Mówiliśmy, że bezpośredni
związek pomiędzy dwiema zmiennymi może być związkiem pozornym. To, czy tak jest
rzeczywiście, zależy od sekwencji czasowej zmiennych i od wielkości związku cząstkowego.
Zdaniem Paula Lazarsfelda dwa elementy — wielkość współczynników korelacji
cząstkowej w porównaniu z wielkością wyjściowego związku między zmiennymi oraz
czasowe następstwo zmiennych — to dowody pozwalające na przyjęcie hipotezy o związku
przyczynowo-skutkowym pomiędzy zmiennymi:
Możemy mianowicie zaproponować wyraźną definicję zależności przyczynowej
pomiędzy dwiema cechami. Jeżeli między cechami X oraz Y zachodzi związek i jeśli dla
wszystkich wyprzedzających zmiennych kontrolowanych zależności częściowe pomiędzy
zmiennymi X i Y przyjmują wartość różną od zera, to nazwiemy ów związek zależnością
przyczynową9.
I chociaż na podstawie danych korelacyjnych nigdy nie da się wprost wykazać
przyczynowości, wnioski o charakterze przyczynowym możemy wyciągnąć pośrednio,
odwołując się do konkretnych modeli przyczynowych.
Modele statystyczne pozwalające na wyprowadzanie wniosków przyczynowych to
modele zakładające istnienie skończonego zbioru dobrze określonych zmiennych, w których
przyjmuje się założenia o sposobie powiązania tych zmiennych i o sposobie oddziaływania
zmiennych zewnętrznych na zmienne włączone do modelu10.
9 Paul F. Lazarsfeld (1959), The Algebra of Dichotomous Systems, w: Herbert
Solomon (red.), Stu-dies in Items Analysis and Prediction, Stanford, Calif.: Stanford
University Press, s. 146 (wyd. polskie: Paul F. Lazarsfeld (1968), Algebra systemów
dychotomicznych. Zastosowania matematyki w badaniach socjologicznych, tłum. Tadeusz
Pawłowski, Warszawa: PWN).
10 Herbert A. Simon (1957), Models ofMan: Social and Rational, New York: Wiley.
460
Wybrane przykłady schematów przyczynowych
Jeśli analizujemy trzy zmienne X,, X2 i X3, to możemy opisać sześć hipotetycznych
powiązań przyczynowych pomiędzy zmiennymi:
Na powyższym schemacie powiązania przyczynowe między dwiema zmiennymi
przedstawiono za pomocą pojedynczej strzałki, której grot wskazuje na efekt oddziaływania, a
początek na jego przyczynę. Przyjmijmy upraszczające założenie", że nie zachodzi wzajemne
przyczynowe oddziaływanie ani w formie bezpośredniej X,^± X2, ani pośredniej
Co więcej, przy tym założeniu zmienna zależna nie może być przyczyną żadnej ze
zmiennych występujących wcześniej w łańcuchu przyczynowym. Tak więc w modelu
przyczynowym, w którym X, jest zmienną niezależną, X2 zmienną pośredniczącą, a X3
zmienną zależną, X2 nie może być przyczyną X,, a X3 nie może być przyczyną ani X2, ani
X,.
Przyjmując te założenia, możemy opisać podstawowe modele przedstawiające związki
pomiędzy Xb X2 i X3. Niektóre z tych modeli zostały przedstawione na rycinie 17.6.
Prezentowane diagramy są ilustracją związku bezpośredniego między zmiennymi, związku
pośredniego oraz braku związku. Diagram 17.6a przedstawia bezpośredni efekt przyczynowy
pomiędzy X! a X2 oraz X2 a X3, a także pośredni efekt przyczynowy pomiędzy X{ a X3.
Funkcję zmiennej pośredniczącej pełni zmienna X2. Diagram 17.6b obrazuje bezpośredni
efekt przyczynowy X, i X2 na X3 oraz brak związku pomiędzy zmiennymi Xj i X2.
Aby pokazać praktyczne wykorzystanie zarysowanej wyżej idei, rozważmy przykład
zachowań wyborczych i ich determinant. Zazwyczaj przyjmuje się, że na zachowania
wyborcze (X4) bezpośrednio wpływają: utożsamianie się z określoną partią polityczną (X,),
ocena kandydata (X2) oraz percepcja problematyki podejmowanej w kampanii wyborczej
(X3). Przyjmuje się także, że ocena kandydata i problematyka podejmowana w kampanii są
bezpośrednio powiązane z utożsamianiem się z określoną partią polityczną. Co więcej,
utożsamianie się z określoną partią polityczną wpływa pośrednio na zachowania wyborcze
poprzez ocenę kandydata
" Hubert M. Blalock, Jr. (1964), Causal Inference in Nonexperimental Research,
Chapel Hill: Uni-versity of North Carolina Press.
461
x,
x,
Ryc. 17.6. Modele powiązań pomiędzy trzema zmiennymi
i percepcję problematyki podejmowanej w kampanii wyborczej. Zależności te ukazuje
rycina 17.7.
Ryc. 17.7. Diagram ścieżek dla zachowań wyborczych
Zmienne U, V, i W nazywane są zmiennymi resztowymi. Powiązania pomiędzy nimi i
każdą ze zmiennych zależnych wskazują, że wariancja zmiennych zależnych nie jest
całkowicie wyjaśniana przez zmienne uzwględnione w modelu. Na przykład zmienna W
odzwierciedla wariancję zachowań wyborczych nie wyjaśnioną przez utożsamianie się z
określoną partią polityczną, oceną kandydata i percepcją problematyki podejmowanej w
kampanii wyborczej.
462
Analiza ścieżek
Analiza ścieżek jest techniką wykorzystującą zarówno dwuzmiennową, jak i wielo-
zmiennową analizę regresji. Jest to metoda testowania związków przyczynowych pomiędzy
zmiennymi uwzględnionymi w modelu. Składa się z trzech etapów:
1. Wyrysowanie, na podstawie teorii lub zbioru hipotez, diagramu powiązań
(ścieżek).
2. Obliczenie współczynników ścieżek (bezpośredni efekt) za pomocą analizy
regresji.
3. Ustalenie efektów pośrednich.
Rozważania (s. 442-448) na temat zachowań wyborczych są przykładem realizacji
pierwszego etapu analizy ścieżek. Teraz zatem omówimy kolejne kroki realizowane na etapie
2. Zwróćcie uwagę, że na rycinie 17.7 naniesiono współczynniki opisane jako Ptj, gdzie i
oznacza zmienną zależną, aj zmienną niezależną. Współczynniki te nazywane są
współczynnikami ścieżek. Na przykład P32 to współczynnik ścieżki łączącej X, z X3, gdzie
X3 jest efektem oddziaływania X,. Podobnie, P4vt to współczynnik ścieżki łączącej X4 ze
zmienną resztową W.
Aby oszacować współczynniki ścieżek, należy najpierw napisać zbiór równań regresji
reprezentujących strukturę modelu. Powinniśmy mieć tyle równań, ile jest zmiennych
zależnych. Zatem dla sytuacji przedstawionej na rycinie 17.7 można napisać następujące
równania:
X2 = P2,X1 + P2ut/, Xi = PMX,+PivV,
x4 = p4,x,+p42x2+p4Jx3+pĄww.
Zauważmy, że każde równanie zawiera tyle wyrażeń, ile strzałek prowadziło do
zmiennej zależnej. I tak, do X4 dochodzą cztery strzałki, z których każda reprezentuje jeden z
determinujących ją czynników: X,, X2, X3 i W.
Aby obliczyć współczynniki ścieżek, budujemy po prostu równania regresji każdej
zmiennej zależnej względem zmiennej niezależnej. Aby obliczyć P2I, musimy zatem
zbudować równanie regresji X2 względem Xu aby obliczyć P31, trzeba zbudować równanie
regresji X3 względem X,, a dla P41, P42 i P43 równanie regresji X4 względem X,, X2 i X3.
Współczynniki ścieżek są równe wagom beta z każdego równania. I tak: P21 =/32l, P31
=/?31, P41 =fi4l, PA2 =/?42, P43 =/?43. Współczynniki ścieżek dla reszt (P2„, P3r, P4lv) są
równe pierwiastkom kwadratowym z wariancji nie wyjaśnionej analizowanej zmiennej
zależnej. Dla modelu z ryciny 17.7 ścieżki reszt są następujące:
P3v = ^ 1 - P3.i2,
' 4h = \ 1 — ^M.123 •
Obliczając wielkość współczynnika ścieżki, otrzymujemy informację o bezpośrednim
efekcie oddziaływania wszystkich zmiennych w modelu. I tak, P21 opisuje
463
Ryc. 17.8. Diagram ścieżek z zaznaczonymi współczynnikami ścieżek i ścieżkami
resztowyrai dla wydatków na cele socjalne w Stanach Zjednoczonych
Na podstawie: Gary L. Tompkins (1975), A Causal Model of State Welfare
Eipenditures, .Journal of Polilics", 37, s. 406.
bezpośredni efekt przyczynowy X, na X2, P3I bezpośredni efekt przyczynowy X, na
X,, P4I bezpośredni efekt przyczynowy Xl na X4 i tak dalej. Analizując rycinę 17.7, widzimy
jednak, że X, wpływa na X4 również pośrednio, poprzez X2 i X3.
Aby oszacować pośredni efekt przyczynowy, należy pomnożyć współczynniki ścieżek
łączące dwie zmienne poprzez zmienną pośredniczącą. Dla ryciny 17.7 pośredni efekt
przyczynowy zmiennej Xt na X4 poprzez zmienną X2 wyrazimy zatem jako iloczyn P2XP42,
a pośredni efekt przyczynowy zmiennej Xt na X4 poprzez zmienną X3 jako iloczyn P3lP4i.
Jednym z interesujących zastosowań analizy ścieżek12 jest — stworzony przez
Tompkinsa — model wydatków na cele socjalne w Stanach Zjednoczonych. Odwołując się do
literatury naukowej, Gary Tompkins opracował diagram ścieżek składający się z sześciu
zmiennych: industrializacji (X,), dochodów (X2), pochodzenia etnicznego (X3), rywalizacji
między partiami (X4), frekwencji wyborczej (X5) oraz wydatków na cele socjalne (X6)n.
Przyjmując założenie o istnieniu tylko zależności jednokierunkowych, określił piętnaście
możliwych ścieżek między sześcioma zmiennymi. Na rycinie 17.8 przedstawiono również
współczynniki ścieżek i współczynniki ścieżek resztowych. I chociaż model ten jest dobrym
przybliżeniem empirycznie obserwowanych zależności między sześcioma zmiennymi,
Tompkins opracował model prostszy, eliminując z modelu wyjściowego niskie współczynniki
ścieżek (tj. takie, których wartość bezwględna była mniejsza niż 0,200). Następnie ponownie
obliczył pozostałe współczynniki. Eliminując sześć słabych współczyn-
12 David Nachmias (1979), Public Policy Evaluation, New York: St. Martin's Press.
13 Gary L. Tompkins (1975), A Causal Model of State Welfare Expenditures,
.Journal of Politics", 37, s. 392-416.
464
Ryc. 17.9. Zmodyfikowany diagram ścieżek z zaznaczonymi współczynnikami
ścieżek i ścieżkami resztowymi dla wydatków na cele socjalne w Stanach Zjednoczonych
Na podstawie: Gary L. Tompkins (1975), A Causal Model of Stale Welfare
Expenditures, .Journal of Politics", 37. s. 409.
ników ścieżek, Tompkins stworzył bardziej ekonomiczny i nie mniej mocny model,
który pokazuje rycina 17.9. Możemy teraz określić bezpośredni i pośredni efekt przyczynowy
różnych zmiennych na wydatki na cele socjalne.
I tak na przykład pochodzenie etniczne (X3) ma silny bezpośredni wpływ na poziom
wydatków na cele socjalne (P63 = 0,499) i stosunkowo niewielki pośredni wpływ poprzez
rywalizację między partiami (PMPĄ^ = 0,102). Dochody nie wywierają żadnego
bezpośredniego wpływu na wydatki na cele społeczne. Dochody natomiast mają na nie silny
pośredni wpływ poprzez pochodzenie etniczne i rywalizację między partiami: (P63P32) +
(PM[P42 + (PĄ3Pi2)] = (0,499 x 0,766)+0,423[0,588 + (0,243 x 0,766)] = =0,710.
Podsumowanie
1. Analiza wielozmiennowa pozwala zrealizować trzy podstawowe funkcje: kontroli,
interpretacji i predykcji. Kontrola statystyczna jest substytutem kontroli eksperymentalnej i
można ją zrealizować poprzez budowanie tabel wielodziel-czych, obliczanie współczynników
korelacji cząstkowej czy budowanie równania regresji wielokrotnej. Budując tabele
wielodzielcze, badacz stara się wyrównać — ze względu na wszystkie istotne czynniki —
grupy poddane oddziaływaniu zmiennej niezależnej i te, na które zmienna niezależna nie
oddziałuje. Wyboru istotnych zmiennych kontrolnych dokonuje się na podstawie teorii lub
informacji statystycznych. Zmienna kontrolowana musi być powiązana zarówno ze zmienną
niezależną, jak i ze zmienną zależną. Jeżeli badacz posługuje się metodą obliczania
współczynników korelacji cząstkowej, to statystycznie koryguje on związek między dwiema
465
zmiennymi po to, aby wyeliminować wpływ zmiennej kontrolowanej na zmienną
zależną i zmienną niezależną. Równanie regresji wielokrotnej natomiast pozwala oszacować
wpływ jednej zmiennej na drugą, gdy pozostałe zmienne są kontrolowane.
2. Jeżeli techniki kontroli stosujemy w odniesieniu do związku pomiędzy dwiema
zmiennymi, to w ich efekcie możemy otrzymać informację o braku związku między
wyjściowymi zmiennymi, bądź też zastosowanie takiej techniki niczego nie zmieni. W
pierwszym wypadku wyjściowy związek między zmiennymi może być albo związkiem
pozornym, albo związkiem pośrednim, w którym zmienna kontrolowana jest zmienną
pośredniczącą. W drugim wypadku związek wyjściowy jes! związkiem bezpośrednio
zachodzącym między zmiennymi i może być poddany dalszej analizie. W sytuacji związku
pozornego wyniki testu statystycznego są podstawa. do odrzucenia hipotezy o związku
pomiędzy zmienną niezależną i zmienną zależną; a w razie zmiennej pośredniczącej —
odwrotnie — są podstawą wyjaśnienia, w jaki sposób zmienne są ze sobą powiązane. W
drugim wypadku określamy warunki zachodzenia związku pomiędzy zmiennymi. Do
warunków tych należą: zainteresowania i zaangażowanie, czas i miejsce oraz specyficzne
kwalifikacje i cechy.
3. Regresja wielokrotna i analiza korelacji stanowią technikę szacowania, jaki wpływ
na badaną zmienną zależną wywiera jednocześnie wiele zmiennych niezależnych. Tworząc
równanie regresji, badacz ustala regułę predykcyjną określającą wielkość zmian zmiennej
zależnej pod wpływem określonych zmian zmiennej niezależnej, gdy wszystkie pozostałe
zmienne pozostają na stałym poziomie. Współczynnik korelacji wielokrotnej pozwala
oszacować stopień dopasowania równania regresji do danych empirycznych. Natomiast R2,
kwadrat współczynnika korelacji, pozwala ocenić procent wariancji zmiennej zależnej, która
została wyjaśniona przez uzwzględnione zmienne niezależne.
4. Analiza ścieżek to technika wielozmiennowa oparta na analizie regresji liniowej.
Jest to technika pozwalająca na testowanie zależności przyczynowych pomiędzy zmiennymi.
Badacze stosujący analizę ścieżek rysują — na podstawie teorii —diagramy, a następnie
określają bezpośrednie i pośrednie efekty przyczynowe zmiennych.
Podstawowe terminy
analiza ścieżek 463 dobór wiązany 442 interakcja 449 korelacja cząstkowa 454
pośredni efekt przyczynowy 464 regresja wielokrotna 455 tabele cząstkowe 445
tabele wielodzielcze 442 technika rozbudowywania 449 współczynnik ścieżki 463
zmienna kontrolowana 442 zmienna pośrednicząca 449 zmienna warunkowa 449 związek
pozorny 441
Pytania sprawdzające
1. W pierwszej tabeli zamieszczonej poniżej przedstawiono dane dotyczące związku
pomiędzy wyznaniem religijnym a zadowoleniem z życia. W dru-
466
giej tabeli przedstawiono dane dotyczące związku pomiędzy wyznaniem religijnym a
zadowoleniem z życia, gdy trzecia zmienna przyjmuje stałą wartość.
a. Zbadaj — porównując dane procentowe — związek pomiędzy zmienną niezależną
a zmienną zależną w obu tabelach.
b. Zdefiniuj zmienną kontrolowaną. W jaki sposób wpływa ona na wyjściowy
związek pomiędzy zmiennymi?
Zadowolenie z życia a wyznanie religijne
Wyznanie religij ne
protestanci katolicy
Zadowoleni Niezadowoleni Ogółem 256 258 514 126 139 265
Zadowolenie z życia a wyznanie religijne, gdy kontrolowana jest trzecia zmienna
Wykształcenie
wysokie średnie niskie
protestanci katolicy protestanci katolicy protestanci
katolicy
Zadowoleni Niezadowoleni Ogółem 89 104 193 13 20 33 116 124 240 35 59
94 51 30 81 78 60 138
2. W przedstawionej poniżej tabeli znajdują się dane dotyczące związku pomiędzy
glosowaniem a klasą społeczną, gdy zmienną kontrolowaną jest pleć.
a. Zbadaj i opisz (porównując dane procentowe) związek pomiędzy zmienną
zależną i niezależną w kolejnych tabelach cząstkowych.
b. Zrekonstruuj tabelę dla dwóch zmiennych, na podstawie której będzie można
ocenić związek pomiędzy płcią a klasą społeczną.
c. Zrekonstruuj tabelę dla dwóch zmiennych, na podstawie której będzie można
ocenić związek pomiędzy płcią a głosowaniem.
d. Zrekonstruuj tabelę dla dwóch zmiennych, na podstawie której będzie można
ocenić związek pomiędzy głosowaniem a klasą społeczną.
Glosowanie a klasa społeczna, gdy zmienną kontrolną jest płeć
Mężczyźni Kobiety
klasa wyższa klasa niższa ogółem klasa wyższa klasa niższa
ogółem
Głos na demokratów Głos na republikanów Ogółem 55 545 600 45 355 400
100 900 1000 115 285 400 285 615 900 400 900 1300
467
3. Korzystając z danych przedstawionych w zadaniu 6 w rozdziale 16:
a. Oblicz współczynnik korelacji cząstkowej pomiędzy bezrobociem a stabilnością
polityczną, gdy zmienną kontrolowaną jest rozwój ekonomiczny.
b. Oblicz współczynnik korelacji cząstkowej pomiędzy bezrobociem a rozwojem
ekonomicznym, gdy zmienną kontrolowaną jest stabilność polityczna.
c. Utwórz równanie regresji wielokrotnej, w którym zmiennymi niezależnymi będzie
stabilność polityczna i poziom rozwoju ekonomicznego, a bezrobocie będzie zmienną
zależną. Oszacuj — porównując wagi beta — względny wpływ każdej ze zmiennych
niezależnych.
d. Jaki procent wariancji bezrobocia wyjaśniają obie zmienne?
¦ Ćwiczenia komputerowe
1. Wykorzystując plik GSS lub inny zbiór danych, skonstruuj tabelę wielo-dzielczą,
posługując się trzecią zmienną jako zmienną kontrolowaną. Czy po wprowadzeniu zmiennej
kontrolowanej wyjściowy związek pomiędzy zmiennymi uległ zmianie? Jeżeli tak, to w jaki
sposób? (por. dodatek A, s. 534).
2. Wybierając z pliku zmienne interwałowe, uruchom opcję PARTIAL CORR,
sprawdź, jaką otrzymałeś korelację i zinterpretuj wynik. Czy otrzymałeś dowody
przemawiające za istnieniem związku pozornego? Dlaczego tak lub dlaczego nie? (por.
dodatek A, s. 539).
3. Zdefiniuj zmienną zależną mierzoną na poziomie interwałowym, której wariancję
chciałbyć wyjaśnić. Określ przynajmniej trzy inne zmienne interwałowe, które będą
zmiennymi niezależnymi. Uruchom opcję REGRESSION. Zinterpretuj wpływ każdej
zmiennej niezależnej na wartość zmiennej zależnej (por. dodatek A, s. 545).
¦ Literatura dodatkowa
Brzeziński J. (1997), Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd.
Nauk. PWN.
Domański H. (1996), Analiza zależności między zmiennymi kategorialnymi.
Przykłady zastosowania programu GUM, „ASK", 2, s. 103-130.
Gaul M., Machowski A. (1987), Elementy analizy ścieżek, w: J. Brzeziński (red.),
Wielozmiennowe modele statystyczne w badaniach psychologicznych, Warszawa-Poznań:
PWN.
Heise D.R. (1986), Problemy analizy ścieżkowej i wnioskowań przyczynowych, w: A.
Sułek (red.). Metody analizy socjologicznej. Wybór tekstów. Warszawa: Wyd. UW.
Lissowski G. (1985), Zastosowanie modeli logarytmiczno-liniowych do analizy
związków między wieloma zmiennymi jakościowymi, w: E. Paszkiewicz (red.), Materiały do
nauczania psychologii, seria III, t. 4, Warszawa: PWN.
Rosenberg M. (1979), Logika analizy sondażowej (streścił A. Sułek), w: A. Sułek
(red.), Logika analiz) socjologicznej. Wybór tekstów, Warszawa: Wyd. UW.
Winter de Adrian (1981), Zmienne kontrolne (faktory testujące) w badaniach
socjologicznych, Lublin: Wyd. RW KUL.
Rozdział 18
Konstruowanie indeksu i metody skalowania
Konstruowanie indeksu 471
Definiowanie celu tworzenia indeksu 472 Dobór i zbieranie danych 472 Wybór
podstawy porównania 472 Metody agregacji i ważenia 474 Konstruowanie indeksu:
przykład 476 Wskaźniki postaw 477
Metody skalowania 479
Skala Likerta 479 Inne miary złożone 481 Skalowanie guttmanowskie 482
Wykorzystanie skali Guttmana: przykład 484 Analiza czynnikowa 485
Podsumowanie 487
Podstawowe terminy 488
Pytania sprawdzające 488
Ćwiczenia komputerowe 489
Literatura dodatkowa 489
Jacy jesteśmy? Osoby, które chciałyby odpowiedzieć na to pytanie, odwołują się
zazwyczaj do „barometrów" społecznych takich jak Consumer Price Index. który podaje
wzrosty i spadki inflacji, czy FBI Uniform Crime Raport, który jest miarą społecznego
porządku. Grupa badaczy społecznych, skoncentrowana wokół Fordham Institute for
Innovation in Social Policy, mającego swoją siedzibę w Tarrytown w stanie Nowy Jork,
zaproponowała sposób pomiaru stopnia, w jakim społeczeństwo radzi sobie z problemami
społecznymi. Index of Social Health pozwala na ocenę postępu w rozwiązywaniu problemów
społecznych. Badacze prześledzili zmiany szesnastu wskaźników społeczno-ekonomicznych,
w tym samobójstwa nastolatków, porzucanie przez nich szkoły średniej oraz wydatki na
ochronę zdrowia ludzi starszych. Na podstawie tych danych obliczyli jeden wskaźnik
mieszczący się w zakresie od Odo 100. Im wyższa wartość wskaźnika, tym zdrowsze było
badane społeczeństwo. W przedstawionym przez nich w roku 1992 raporcie, dziewięć na
szesnaście badanych wskaźników nie zmieniło się w ogóle lub ich wartość spadła. Wzrost
wartości pozostałych siedmiu wystarczył, aby wartość całego indeksu wzrosła, co oznacza, że
całościowo traktowane zdrowie społeczne poprawia się. Marc L. Miringoff — dyrektor
instytutu i autor raportu — stwierdził, że indeks ten często rośnie w roku wyborów
prezydenckich, co może być reakcją na zwiększone nakłady na cele społeczne w tym
okresie1. Sposób konstruowania takich indeksów oraz próba odpowiedzi na pytanie, po co są
one potrzebne, to problematyka tego rozdziału.
W rozdziale 7 zdefiniowaliśmy pomiar jako procedurę przyporządkowywania —
zgodnie z określonymi regułami — symboli lub liczb własnościom empirycznym.
Omówiliśmy również strukturę pomiaru, ideę izomorfizmu oraz techniki szacowania trafności
i rzetelności. W tym rozdziale przedstawimy natomiast bardziej zaawansowane techniki
konstruowania indeksu i skalowania.
Rozpoczniemy od logiki procesu tworzenia indeksu i przedstawimy kilka technik jego
konstruowania. Następnie omówimy technikę skalowania Likerta, pozwalającą na
dokonywanie pomiaru postaw na poziomie porządkowym i internatowym. Dalej zilustrujemy
technikę skalowania Guttmana (analizę skalogramu) jako inną metodę skalowania. Technika
Guttmana może być stosowana dla danych nominalnych i porządkowych.
Indeksy i skale to instrumenty pomiarowe. Tworzy się je w celu rzetelniejszego
odzwierciedlania złożoności ludzkiego zachowania. Pojęcia takie, jak: władza, równość,
wolność, inteligencja czy biurokracja są szczególnie trudne do zmierzenia, ponieważ —
między innymi — same składają się z kilku własności empirycznych. Indeksy i skale to
środki mierzenia złożonych zjawisk społecznych.
Indeksy i skale to na ogół miary złożone, konstruowane przez złożenie dwóch lub
więcej zmiennych — wskaźników. Zmienne te nazywa się pozycjami (składowymi). Status
społeczno-ekonomiczny na przykład jest globalnym indeksem zbudowanym na trzech
zmiennych: dochodach, wykształceniu i zawodzie.
1 Social Health is Improving. A Study Says, „New York Times", 24 October 1994, s.
A15. 470
W naukach społecznych posługujemy się skalami i indeksami z kilku powodów. Po
pierwsze, pozwalają one na przedstawianie kilku zmiennych za pomocą jednego wyniku, co
ułatwia analizowanie danych złożonych. Po drugie, skale i indeksy dostarczają miar
ilościowych nadających się do precyzyjnej obróbki statystycznej. I wreszcie, indeksy i skale
zwiększają rzetelność pomiaru. Wynik otrzymany na skali lub wartość indeksu są traktowane
jako bardziej rzetelne wskaźniki mierzonej własności niż miara oparta na odpowiedzi na
pojedyncze pytanie czy na reakcji na pojedyncze twierdzenie. Dobrym przykładem są tu
stopnie z egzaminu. Mało który student chciałby, aby jego ocena egzaminacyjna wynikała
jedynie z odpowiedzi na jedno pytanie w teście z wielokrotnym wyborem czy w teście z
pytaniami typu prawda—fałsz. Przede wszystkim trudno sobie wyobrazić, aby cały materiał
przedmiotu nauczania zmieścił się w jednym pytaniu. Po drugie, jeżeli student źle zrozumie
lub się pomyli, udzielając odpowiedzi na jedno tylko pytanie, to może to być podstawą do
wyciągnięcia niewłaściwych wniosków o całej jego wiedzy z danego przedmiotu. Gdyby test
zawierał więcej pytań, to i ocena byłaby bardziej rzetelna. Odwołując się do tej argumentacji,
możemy stwierdzić, że badacze stosują wielopozycyjne skale i indeksy, aby zwiększyć
rzetelność i precyzję pomiaru.
Skale różnią się od indeksów większą dokładnością. Indeksy są konstruowane przez
proste złożenie wyników, natomiast przy tworzeniu skal większe znaczenie mają takie ich
cechy, jak trafność i rzetelność. Co więcej, większość skal jest konstruowana zgodnie z
zasadą jednowymiarowości, co oznacza, że poszczególne pozycje odzwierciedlają pojedynczy
wymiar i mogą zostać umieszczone na kontinuum odnoszącym się do jednego i tylko jednego
pojęcia.
Jednowymiarowość jednak jest czynnikiem nie pozwalającym na realizację wielu
różnych celów skalowania, a także ogranicza możliwości stosowania wielu technik. Analiza
pozycji stosowana w niektórych technikach skalowania jest wykorzystywana do znajdowania
pytań lub pozycji, które nie należą do określonego zbioru. Inne techniki skalowania
umożliwiają porządkowanie pozycji ze względu na stopień trudności czy nasilenia. Niektóre
metody skalowania pozwalają ponadto stworzyć skale inter-walowe, co usuwa ograniczenia
związane z danymi nominalnymi czy porządkowymi.
Zanim podejmiemy decyzję o skonstruowaniu nowej skali, należy przejrzeć literaturę
przedmiotu, aby się upewnić, czy potrzebna nam skala nie jest już dostępna.
¦ Konstruowanie indeksu
Łączenie dwóch lub więcej zmiennych czy wskaźników w jedną złożoną miarę
nazywa się budowaniem indeksu. Indeks cen (CPI) na przykład jest złożoną miarą zmian cen
detalicznych. Ceny detaliczne tworzące indeks składają się z cen ośmiu grup produktów:
żywności, opłat mieszkaniowych, odzieży, transportu, opieki medycznej, kosztów
utrzymania, wypoczynku oraz cen innych dóbr i usług. Około czterystu produktów i usług
tworzących CPI wybrano dlatego, że uznano je za reprezentatywne dla podstawowego profilu
cen w określonej grupie produktów czy usług. Należą do nich takie produkty i usługi, jak: ryż,
benzyna, fryzjer, męskie rękawice robocze, wełniane kostiumy kobiece, czynsz czy kredyty.
Ministerstwo Handlu zebrało dane dotyczące cen tych produktów i usług w pięćdziesięciu
ośrodkach miejskich. Ośrodki te tak dobrano, by reprezentowały charakterystyczne cechy
471
miast — na przykład wielkość miasta, klimat, stopień zaludnienia i poziom dochodów
— które wpływają na strukturę wydawania pieniędzy przez rodziny. W każdym mieście w
sklepach, w których robotnicy dokonywali zakupów dóbr i usług, sporządzono spis cen.
Następnie dla każdego produktu lub usługi łączono informacje o cenach zebrane z różnych
źródeł, aby obliczyć przeciętną cenę dla danego miasta. Ministerstwo Handlu przygotowuje
taki indeks cen zarówno dla całego kraju, jak i dla pięciu największych miast co miesiąc, a
kwartalnie także dla innych miast2. Procedura konstruowania indeksu obejmuje cztery
podstawowe problemy: zdefiniowanie celu tworzenia indeksu, dobór źródeł danych, wybór
podstawy porównywania oraz wybór metody agregowania i ważenia danych.
Definiowanie celu tworzenia indeksu
W procesie konstruowania indeksu zasadnicze znaczenie mają odpowiedzi na dwa
pytania: Co zamierzamy mierzyć? i W jaki sposób chcemy wykorzystywać otrzymane miary?
Logicznie rzecz biorąc, jeżeli A jest indeksem X, to A pozostaje tylko jednym z kilku
możliwych indeksów X. Oznacza to, że potrzebujemy jakiegoś dowodu świadczącego o tym,
że wartość A odzwierciedla wartość X precyzyjniej i trafniej w porównaniu z innymi
indeksami. Bardzo często X to szerokie pojęcia, takie jak pomoc społeczna czy udział w życiu
politycznym. Pojęcia te opisują złożone zjawiska, które różnie można interpretować. Zatem
żaden pojedynczy wskaźnik nie obejmie wszystkich wymiarów pojęcia i trzeba by stosować
wiele różnych wskaźników. Każdy wskaźnik natomiast pozwala na realizację konkretnego
celu, a cel ten powinien zostać wyeksplikowany przed zbudowaniem indeksu.
Dobór i zbieranie danych
Tworząc indeks, badacze mogą stosować bezpośrednie lub pośrednie (albo obie
łącznie) metody zbierania danych. Decydując się, które ze źródeł danych chcemy
wykorzystać, należy pamiętać, jakiemu celowi ma służyć indeks i zastosowany plan
badawczy. Zawsze jednak badacz musi się upewnić, czy zebrane dane dokładnie odpowiadają
mierzonemu zjawisku. Decyzja ta wymaga uwzględnienia problemów trafności i rzetelności,
które omówiliśmy w rozdziale 7.
Wybór podstawy porównania
Aby można było dokonywać porównań, indeksy najczęściej wyraża się w postaci
proporcji, procentu lub stosunku dwóch wartości. Każda z tych miar może być obliczona na
podstawie albo aktualnych danych (bezpośrednich lub pośrednich), albo danych
pochodzących z innych lat. Otrzymane miary tworzą numeryczną podstawę porównywania
liczb, których nie można bezpośrednio porównać. I tak, proporcję definiujemy jako stosunek
liczby obserwacji w danej kategorii (/j) do ogólnej liczby obserwacji (TV), czyli fJfjN.
Wartości proporcji mieszczą się w przedziale od 0 do 1. Jeśli pomnożymy proporcje przez
100, to przekształcimy je w procenty (fi/fiNx 100). Procenty — z definicji — mieszczą się w
przedziale
2 Przykład ten oparto na danych U.S. Bureau of Labor Statistics, (1964), The
Consumer Price In-dex: A Short Description ofthe Index as Revised, Washington, D.C.: U.S.
Government Printing Office; a także na pracy Williama H. Wallace'a (1970), Measuring Price
Changes: A Study of Price Indexes, Richmond, Va: Federal Reserve Bank of Richmond.
472
od0do 100. Z kolei stosunki to ułamki wyrażające względną wielkość dwóch
liczebności. Aby obliczyć stosunek dwóch liczebności, należy pierwszą liczebność podzielić
przez drugą. Na przykład, jeżeli badana grupa składa się z 500 kobiet i 250 mężczyzn, to
stosunek kobiet do mężczyzn w tej grupie równa się 2/1 (500/250).
Tabela 18.1 ilustruje sposób wykorzystania tych miar. W tabeli podano — na
podstawie danych pochodzących ze źródeł oficjalnych — liczebności, proporcje i procenty
dla wybranych przestępstw popełnionych na terenie New Jersey3. Jednym ze źródeł danych
były informacje na temat przestępczości w New Jersey (CNJ), publikowane corocznie przez
Biuro Prokuratora Generalnego. Drugim źródłem danych były informacje pochodzące z
rejestrów sądów municypalnych (MCD).
Tabela 18.1. Wybrane przestępstwa a różne źródła informacji
Wybrane przestępstwa / CNJ proporcje % / MCD proporcje
%
Rabunek z użyciem
broni 23 0,04 4,0 0 0,00 0,0
Rabunek 17 0,03 3,0 5 0,01 1,0
Napad ze szczególnym
0krttC\MYi\>NOTl Vi Q,ttl 1,0 1 ftjjffl Q,l
Napad 223 0,40 40,0 250 0,89 89,0
Włamanie 206 0,37 37,0 1 0,003 0,3
Kradzież 78 0,14 14,0 24 0,09 9,0
Ogótem 560 1,00 100,0 282 1,00 100,0
Analiza tabeli pozwala zauważyć duże dysproporcje pomiędzy danymi. Po pierwsze,
są różnice w liczbie przestępstw oficjalnie podawanych przez różne źródła: liczby podane
przez CNJ są większe niż liczby wynikające z rejestrów sądów municypalnych. Wynika to z
faktu, że dane rejestrów sądów municypalnych to informacje posiadane przez ośrodki wyższej
jurysdykcji niż CNJ. CNJ bowiem to dane policyjne, podczas gdy w rejestrach sądowych
znajdują się tylko te sprawy, które rozpoznano, w których dokonano aresztowań i w których
wniesiono oficjalną skargę. Pamiętając, że w przypadku wielu przestępstw nie udaje się
ustalić ich sprawców, możemy oczekiwać, że wraz z wyższym poziomem jurysdykcji
będziemy mieć do czynienia z coraz mniejszą liczbą oficjalnie zgłaszanych spraw. Po drugie,
dane dla kategorii „rabunek" to dane budzące duże wątpliwości, ponieważ z analizy tabeli
wynika, że sądy municypalne rozpoznają więcej spraw dotyczących konkretnych przestępstw,
niż wiadomo o nich policji w tych miastach, w których sądy i policja mają identyczne
kompetencje. Taka sytuacja wydaje się mało prawdopodobna. Przykład ten wyraźnie
pokazuje, że indeks oparty na tych danych byłby bardzo mylący.
3 Przedstawione tu dane można znaleźć w pracy W. Boyda Littrella (1976), The
Problem ofJuris-diction and OJficial Statistics of Crime, w: W. Boyd Littrell, Gideon Sjoberg
(red.), Current Issues of Social Policy, Newbury Park, Calif.: Sagę, s. 236.
473
Zmiana podstawy. Aby porównywanie różnych indeksów lub tych samych indeksów,
lecz uzyskanych w różnych latach, było sensowne, należy często zmieniać podstawę indeksu.
Zmiana podstawy indeksu oznacza dokonanie konwersji danych lub ich wystandaryzowanie
w taki sposób, aby można je było porównywać. Procedura ta jest często konieczna ze
względów metodologicznych, ponieważ jedynie konwersja danych (przedstawienie ich w
jednolity sposób) umożliwia analizowanie zmian zachodzących w badanym zjawisku.
Możemy, na przykład, zmienić podstawę indeksu opracowanego w danym roku na inny rok.
Jednolitość danych uzyskamy, jeśli wartości dla danego roku ustalimy na poziomie 100. Jak
się później przekonamy, indeks kosztów utrzymania (Cost of Living Index) oparty jest
właśnie na takiej procedurze. Ceny dla wybranego roku tworzą podstawę porównywania cen
na następne pięć lub dziesięć lat.
W przedstawionym niżej przykładzie (por. tabela 18.2) dokonano konwersji wartości
starego indeksu opartego na danych z 1990 na wartości nowego indeksu wykorzystującego
dane z 1986 roku. Zdecydowaliśmy się na to, ponieważ założyliśmy, że to, co się działo w
roku 1986, może mieć znacznie poważniejszy wpływ na obserwowane zmiany, niż to, co się
działo w latach późniejszych, tj. w roku 1990. Aby otrzymać wartości nowego indeksu
(wartości oparte na danych z 1986 roku) dla danych z roku 1990, podzieliliśmy wyjściowe
wartości liczbowe (oparte na danych z 1990 roku) przez 70, a następnie pomnożyliśmy je
przez 100. Daje to (70/70) x 100= 100. Nowa wartość indeksu dla roku 1987 będzie zatem
wynosić (80/70) x 100= 114,3 i tak dalej dla wszystkich wartości indeksu.
Tabela 18.2. Zmiana podstawy indeksu
Wartości starego indeksu Wartości nowego indeksu
(1990=100) (1986=100)
100,0 114,3 85,7 135,7 142,9 164,3 171,4 168,6 150.0
Metody agregacji i ważenia
Typową metodą konstruowania indeksu jest agregowanie wartości. Agregowane dane
— w zależności od celu tworzenia indeksu — mogą być albo danymi surowymi, albo danymi
ważonymi.
Agregowanie danych surowych. Tabela 18.3 jest przykładem konstrukcji prostego,
zagregowanego indeksu cen. Ceny każdego produktu (C,) w każdym danym roku zostały do
siebie dodane i tak powstał indeks cen dla tego roku. Jak powiedzie-
1986 70
1987 80
1988 60
1989 95
1990 100
1991 115
1992 120
1993 118
1994 105
474
liśmy wcześniej, wygodnie jest wybrać jakiś rok jako podstawę porównań i ustalić
wartość indeksu dla tego roku na 100. W naszym przykładzie wszystkie indeksy w ostatnim
wierszu zostały wyrażone w procentach względem roku 1990. Dane te otrzymaliśmy, dzieląc
każdą z wartości przez wartość dla roku bazowego (20,13$) i mnożąc otrzymany wynik przez
100. Symbolicznie możemy to zapisać w sposób następujący:
PI = 2 p„l'2 Pox 100,
(18.1)
gdzie PI to indeks cen, p — cena konkretnego produktu, o — rok bazowy, względem
którego dokonujemy pomiaru zmian cen, n — rok, który porównujemy z rokiem bazowym.
Dla konkretnego roku (na przykład dla roku 1994, gdy podstawę porównań tworzy rok 1990)
wzór ten będzie miał postać:
P/90,94 = 2p94/Sp9oXlOO.
(18.2)
Zatem
6,10 + 7,18 + 7,90 + 6,80
PI<*<* = . ,. . .„-----—-----^X 100
'90.94
3,12 + 5,40 + 6,62 + 4,90'
27,98 20,13
xl00= 139,00.
Tabela 18.3. Konstruowanie zagregowanego indeksu dla danych surowych (ceny
hipotetyczne)
Produkty 1990 1991 1992 1993 1994
C, $3,21 $4,14 $4,90 $5,80 $6,10
c, 5,40 5,60 5,10 6,40 7,18
c, 6,62 8,10 9,00 8,35 7,90
c4 4,90 5,40 5,10 7,25 6,80
Wartości zagregowane $20,13 $ 23,24 $24,10 $ 27,80 $ 27,98
Indeks 100,00 115,45 119,72 138,10 139,00
Agregowanie danych ważonych. Agregowanie danych surowych może zamazać
wpływ poszczególnych wskaźników na wartość całego indeksu. Aby tego uniknąć, często
agreguje się dane ważone. Chcąc skonstruować zagregowany indeks cen dla danych z tabeli
18.3, należy sporządzić listę liczby poszczególnych produktów, a następnie obliczyć wartość
indeksu w celu sprawdzenia, co oznacza taka zagregowana miara wyrażona w aktualnych
cenach. Aby obliczyć indeks, musimy pomnożyć każdą cenę jednostkową przez liczbę
produktów, a otrzymane wartości dodać do siebie. Zatem
PI = 2 p„ql2 p„qx 100,
(18.3)
gdzie ą oznacza liczbę wyprodukowanych lub zakupionych produktów. W naszym
przypadku q jest mnożnikiem, czyli wagą. Procedura wykorzystywania liczby sprzedanych
produktów w roku 1990 jako mnożnika została zilustrowana w tabeli
475
18.4. Ponieważ wartości globalne indeksu zmieniają się, a nie zmieniają się jego
składowe, przeto obserwowane różnice możemy przypisać zmianom cen. Gdy więc
agregujemy te same elementy, możemy potraktować wartość zagregowanego indeksu jako
miarę zmian poziomu cen.
Tabela 18.4. Konstruowanie zagregowanego indeksu ważonego a konsumpcja w roku
1990
Liczba produk ów kupion ych w roku 1990,
Produkty Konsumpcja wyrażona w cenach dli danego roku

1990 1991 1992 1993 1994


c, 800 $2568 $3312 $3920 $4640 $4880
c2 300 1620 1680 1530 1920 2154
c, 450 2979 3645 4050 3758 3555
c4 600 2940 3240 3060 4350 4080
Wartość
zagregowana $ 10107 $ 11 877 $ 12 560 $ 14668
S 14669
Indeks 100,0 117,5 124,3 145,1 145.1
Konstruowanie indeksu: przykład
Zacznijmy od przeanalizowania prostego indeksu stworzonego w celu oceny
podręczników do nauki statystyki pod kątem ich przystawalności do celów edukacyjnych4.
Indeks ten, Test lęku przed podręcznikami statystyki — Statistics Textbook Anxiety Rating
Test (START) — składa się z siedmiu wymiarów odpowiadających różnym cechom
podręczników statystyki. Wymiary te odzwierciedlają określone braki wiedzy matematycznej
studentów i odpowiadające tym brakom lęki przed studiowaniem statystyki:
1. Zawiera omówienie podstawowych operacji matematycznych.
2. Zawiera materiał dotyczący sposobu zapisu danych.
3. Zawiera odpowiedzi na pytania sprawdzające.
4. Wyjaśnia odpowiedzi na pytania sprawdzające.
5. Nie posługuje się wzorami jako definicjami.
6. Zawiera odpowiednie przykłady.
7. Odwołuje się wprost do lęku przed statystyką lub matematyką.
Indeks ten skonstruowano w następujący sposób: każdy oceniany podręcznik otrzymał
1 punkt, jeżeli zostało spełnione dane kryterium, i 0 punktów, jeżeli tak nie było. Po
zsumowaniu wszystkich punktów otrzymano wynik globalny, mieszczący się w przedziale od
0 do 7. Gdy za pomocą tego indeksu opisano 12 popularnych podręczników statystyki,
okazało się, że wyniki mieszczą się w zakresie od 0 do 4 punktów.
Innym przykładem, który chcemy omówić, jest Indeks przestępczości (Index of
Delinquency) Sellina i Wolfganga. Aby ocenić zwalczanie przestępczości, politycy
4 Steven P. Schacht (1990), Statistics Textbooks: Pedagogical Tools or Impediments
to Learning?, „Teaching Sociology", 18, s. 390-396.
476
potrzebują przynajmniej trzech różnych informacji: danych dotyczących nasilenia
przestępczości, danych dotyczących działania systemu sądownictwa oraz danych dotyczących
charakterystyk demograficznych. Jeżeli chodzi o nasilenie przestępczości, to podstawowy
problem wynika stąd, że poszczególne przestępstwa różnią się zarówno rodzajem, jak i
stopniem ciężkości. Niektóre przestępstwa bowiem kończą się śmiercią, inne utratą mienia, a
jeszcze inne są jedynie dokuczliwe. Tradycyjnym sposobem porównywania stopnia
przestępczości w jednym roku z przestępczością w innym roku było proste zliczanie liczby
przestępstw z pominięciem różnic w ich charakterze. Z uwagi jednak na to, że przestępstwa są
bardzo zróżnicowane i mają inny stopień ciężkości, taki indeks jest bardzo mylący. Raport
policyjny wykazujący ogólny spadek lub wzrost liczby popełnianych przestępstw może zostać
źle zinterpretowany, jeżeli nie weźmie się pod uwagę rodzaju popełnionych przestępstw. Na
przykład niewielki spadek liczby kradzieży samochodów i duży wzrost liczby napadów z
bronią w ręku będą dawać spadek nieważonego indeksu, gdyż liczba kradzieży samochodów
jest zazwyczaj większa niż liczba zbrojnych napadów.
W pionierskiej próbie rozwiązania tego problemu Thorsten Sellin i Marvin Wolfgang
stworzyli system ważenia, prosząc trzy grupy osób (oficerów policji, sędziów sądów dla
nieletnich oraz studentów college'u) o uszeregowanie 141 starannie dobranych przypadków
przestępstw5. Każdy przypadek był kombinacją takich czynników, jak śmierć czy
hospitalizacja ofiary, rodzaj broni, wartość skradzionego lub zniszczonego mienia, na
przykład: „Przestępca dokonuje rabunku z użyciem broni", „Ofiara się broni i zostaje
śmiertelnie ranna", „Przestępca siłą otwiera kasę fiskalną w sklepie i kradnie $5", „Przestępca
pali marihuanę". W każdej z tych trzech grup poproszono osoby o porangowanie listy
przestępstw na „skali kategorii" i na „skali ciężkości". Otrzymane rangi zostały następnie
wykorzystane do stworzenia systemu ważenia. Na przykład przestępstwo o takich cechach
otrzymałoby następującą liczbę punktów:
Dokonano włamania do domu 1
Osoba została zamordowana 26
Współmałżonek został lekko ranny 1
Ukradziono pomiędzy $25la $2000 2
Ogółem 30
Politycy i badacze, dysponując takim indeksem, mogą dokonywać porównań zarówno
w czasie, jak i w ramach różnych społeczeństw, gdyż indeks ten uwzględnia i ciężkość, i
częstość popełniania określonych przestępstw.
Wskaźniki postaw
Aby skonstruować wskaźnik (indeks) postawy, badacze przygotowują zbiór pytań lub
twierdzeń dobranych a priori. Następnie przyporządkowują arbitralne wartości liczbowe od 0
do 4 lub od 1 do 5 określonym kategoriom odpowiedzi i dodają te wartości, aby otrzymać
wynik ogólny, który jest interpretowany jako wskaźnik (indeks) postawy. Weźmy dla
przykładu pięć następujących twierdzeń mających mierzyć alienację:
5 Thorsten Sellin, Marvin E. Wolfgang (1964), The Measurement of Delinquency,
New York: Wiley.
477
1. Czasami wydaje mi się, że inni ludzie posługują się mną.
O Całkowicie się zgadzam Cd Nie zgadzam się
O Zgadzam się dl Całkowicie się nie zgadzam
D Nie mam zdania
2. Jesteśmy jedynie małymi trybikami w machinie życia.
Q Całkowicie się zgadzam O Nie zgadzam się
[J Zgadzam się CU Całkowicie się nie zgadzam
O Nie mam zdania
3. Przyszłość rysuje się bardzo ponuro.
Cd Całkowicie się zgadzam O Nie zgadzam się
Cd Zgadzam się D Całkowicie się nie zgadzam
Q Nie mam zdania
4. Coraz częściej czuję się bezradny(a) w obliczu tego, co się dzisiaj dzieje.
Q Całkowicie się zgadzam CJ Nie zgadzam się
Cd Zgadzam się O Całkowicie się nie zgadzam
Q Nie mam zdania
5. Ludzie tacy jak ja nie mają żadnego wpływu na społeczeństwo.
D Całkowicie się zgadzam O Nie zgadzam się
D Zgadzam się D Całkowicie się nie zgadzam
Q Nie mam zdania
Załóżmy, że przyjęliśmy następujący sposób punktacji odpowiedzi: całkowicie się
zgadzam = 4, zgadzam się = 3, nie mam zdania = 2, nie zgadzam się = 1, całkowicie się nie
zgadzam = 0. Osoba, która całkowicie zgodziłaby się ze wszystkimi pięcioma twierdzeniami,
otrzymałaby 20 punktów (wysoki stopień alienacji), a osoba, która całkowicie nie zgodziłaby
się ze wszystkimi pięcioma twierdzeniami, otrzymałaby 0 punktów (całkowity brak alienacji).
W rzeczywistych badaniach większość respondentów otrzymuje wyniki mieszczące się
pomiędzy tymi dwoma krańcami. Badacz — biorąc pod uwagę ogólne wyniki — musi zatem
opracować system klasyfikowania respondentów ze względu na stopień ich alienacji. Na
przykład respondenci, którzy uzyskali wyniki w przedziale od 0 do 6, będą uważani za osoby
niewyalienowane, ci, którzy uzyskali wyniki w przedziale od 7 do 13. jako przeciętnie
wyalienowane, a ci, którzy uzyskali wyniki w przedziale od 14 do 20, jako osoby wysoce
wyalienowane.
Taki indeks jest czasem nazywany skalą arbitralną, ponieważ w zastosowanej
procedurze nic nie gwarantuje, że wszystkie twierdzenia dotyczą tej samej postawy. Czy
twierdzenie 3 dotyczy tego samego wymiaru alienacji co twierdzenie 5? Czy twierdzenie 4
jest podobne do pozostałych twierdzeń? Czy inny badacz, stosujący identycznie zbudowany
indeks, uzyskałby takie same wyniki? Innymi słowy, czy zastosowany indeks jest rzetelny?
Na pytania te odpowiemy poniżej.
478
¦ Metody skalowania
Skala Likerta
Skalowanie metodą Likerta pozwala na skonstruowanie skali postaw. Konstruowanie
skali Likerta składa się zazwyczaj z sześciu kroków, sporządzenie listy potencjalnych
twierdzeń skali, przedstawienie tych twierdzeń losowej próbie respondentów, obliczenie
ogólnego wyniku dla każdego respondenta, określenie mocy dyskryminacyjnej twierdzeń,
wybór ostatecznych twierdzeń skali i obliczenie rzetelności skali.
Sporządzenie listy potencjalnych twierdzeń skali. Pierwszym krokiem jest
sporządzenie listy potencjalnych twierdzeń skali pokrywających szeroki zakres postawy: od
skrajnie pozytywnej do skrajnie negatywnej. Dla każdego twierdzenia respondent wybiera
jedną z pięciu możliwych odpowiedzi — na przykład „całkowicie się zgadzam", „zgadzam
się", „nie mam zdania", „nie zgadzam się" i „całkowicie się nie zgadzam" — tworzących
kontinuum. (Czasami stosuje się 3, 4, 6 lub 7 kategorii odpowiedzi. Można też zastosować
inne określenia słowne, jak na przykład „prawie zawsze", „często", „czasami", „rzadko",
„prawie nigdy"). W przypadku skali pięciokategorialnej odpowiedziom przyporządkowuje się
następujące punkty: 1, 2, 3, 4, 5 lub 5, 4, 3, 2, 1. Punkty te wyrażają odpowiednie wagi i ich
kierunek, który wyznaczony jest pozytywnym lub negatywnym odzwierciedleniem postawy
przez dane twierdzenie.
Wayne Kirchner, w klasycznym przykładzie zastosowania metody Likerta, stworzył
24-pozycyjną skalę postaw wobec zatrudniania ludzi starych. Przedstawione niżej cztery
twierdzenia ilustrują zastosowaną technikę punktowania6.
1. Większość przedsiębiorstw niechętnie zatrudnia starszych pracowników.
] Całkowicie się zgadzam ? Nie zgadzam się
] Zgadzam się D Całkowicie się nie zgadzam
D Nie mam zdania
2. Sądzę, że starsze osoby to lepsi pracownicy.
D Całkowicie się zgadzam \Z\ Nie zgadzam się
tZl Zgadzam się D Całkowicie się nie zgadzam
Q Nie mam zdania
3. Jeżeli dwie osoby wykonują swoją pracę jednakowo dobrze, to przy-
jąłbym(ęłabym) do pracy osobę starszą.
] Całkowicie się zgadzam Q Nie zgadzam się
Q Zgadzam się D Całkowicie się nie zgadzam
? Nie mam zdania
6 Wayne K. Kirchner (1957), The Attitudes of Special Groups toward the
Employment of Older Persons, „Journal of Gerontology", 12, s. 216-220.
479
4. Sądzę, że osoby starsze uczą się nowych metod równie dobrze jak inni
pracownicy.
O Całkowicie się zgadzam d Nie zgadzam się
Q Zgadzam się ? Całkowicie się nie zgadzam
? Nie mam zdania
Kirchner zastosował sposób punktacji polegający na przypisywaniu wyższych
wartości odpowiedziom świadczącym o pozytywnej postawie (akceptacja zatrudniania
starszych ludzi). Punkty te przyznawał w sposób następujący: całkowicie się zgadzam = 5,
zgadzam się = 4, nie mam zdania = 3, nie zgadzam się-2, całkowicie się nie zgadzam = 1.
Jeśli w skali znalazły się twierdzenia mierzące negatywną postawę (tj. twierdzenia mówiące o
niechęci do zatrudniania starszych osób), to sposób punktacji powinien zostać odwrócony.
Uzyskanie odpowiedzi na wszystkie twierdzenia. Drugi krok polega na poproszeniu
dużej grupy respondentów, dobranych losowo z mierzonej populacji, o wskazanie swoich
postaw wobec wszystkich twierdzeń, które znalazły się na liście.
Obliczanie wyniku ogólnego. Na tym etapie dla każdego respondenta badacz oblicza
wynik ogólny, sumując wartości poszczególnych odpowiedzi. Przypuśćmy, że osoba badana
odpowiedziała „całkowicie się zgadzam" na twierdzenie 1 (5 punktów), „nie mam zdania" na
twierdzenie 2 (3 punkty), „zgadzam się" na twierdzenie 3 (4 punkty) i „nie zgadzam się" na
twierdzenie 4 (2 punkty). Wynik tej osoby wynosi zatem 5 + 3 + 4 + 2 = 14.
Obliczanie mocy dyskryminacyjnej. Czwartym krokiem jest określenie podstaw
wyboru twierdzeń do ostatecznej wersji skali. Niezależnie od zastosowanej metody celem
tego etapu jest znalezienie twierdzeń pozwalających na odróżnienie osób mieszczących się
wysoko na kontinuum postawy od osób, które mieszczą się nisko. Można to osiągnąć,
stosując albo metodę zgodności wewnętrznej — tj. obliczając korelację każdej pozycji z
ogólnym wynikiem i zostawiając te pozycje, dla których otrzymamy najwyższe
współczynniki korelacji — albo analizę pozycji. Obie metody dają skalę zgodną wewnętrznie.
Analiza pozycji pozwala badaczowi sprawdzić, czy wybrana przez niego pozycja umożliwia
odróżnianie ludzi o wysokich wynikach (zdecydowanie pozytywna postawa) od ludzi o
niskich wynikach (zdecydowanie negatywna postawa). Taka miara nazywa się mocą
dyskryminacyjną pozycji. Chcąc ją obliczyć, dodajemy do siebie wyniki wszystkich pozycji
dla danego respondenta i porządkujemy je, najczęściej od niskich do wysokich. Następnie
porównujemy wyniki mieszczące się powyżej górnego kwar-tyla (Qt) z wynikami
mieszczącymi się poniżej dolnego kwartyla (Q3) i obliczamy różnicę pomiędzy średnią
wyników powyżej Qt i średnią wyników znajdujących się poniżej Q3, co przedstawiono w
tabeli 18.5.
Dobór pozycji skali. Wartości mocy dyskryminacyjnej oblicza się dla każdej
proponowanej pozycji skali i następnie wybiera się pozycje o najwyższych wartościach
480
skali. Są to pozycje najlepiej różnicujące osoby o różnych postawach wobec badanego
obiektu.
Badanie rzetelności. Rzetelność skali można określić w ten sam sposób jak rzetelność
innych procedur pomiarowych. Na przykład możemy zbudować wystarczająco dużo pozycji
dla dwóch skal (przynajmniej 100) i podzielić je na dwa zbiory tworzące dwie skale.
Następnie jako test rzetelności można zastosować metodę połówkową — por. rozdział 7.
Tabela 18.5. Obliczanie mocy dyskryminacyjnej dla jednej pozycji skali
Liczba osób Grupa . 12 3 4 w grupie 5 Wynik
ogółem Średni wynik DP <e, - e3)
Górna (górne 25%) 9 0 12 3 Dolna (dolne 25%) 9 18 0
0 30 35 17 3.89 1,89 2,00
*wynik ogółem = wynik x liczba osób, które uzyskały ten wynik
TŚredni wynik = wynik ogółem/liczba osób w grupie
Inne miary złożone
W naukach społecznych stworzono wiele procedur wykorzystujących wybrane
elementy techniki skalowania Likerta. Procedury te niemal zawsze zawierają kroki opisane
wyżej, tj. zebranie wstępnych propozycji pozycji skali, zbadanie wstępną wersją skali
możliwie dużej grupy respondentów i wybraną metodę selekcji pozycji do ostatecznej wersji
skali. Najczęściej wykorzystywanym formatem dla pozycji skali jest skala rangowa, a zadanie
respondentów polega na wyborze odpowiedzi spośród zbioru uporządkowanych kategorii.
Większość współczesnych komputerowych programów statystycznych zawiera
procedury i statystyki ułatwiające selekcję pozycji i ocenę tego, jak dobrze poszczególne
pozycje mierzą badane zjawisko.
Jedną z najprostszych statystyk wykorzystywanych do oceny pozycji skali jest
współczynnik korelacji (r Pearsona), który wiąże wynik danej pozycji z ogólnym wynikiem
skali. Pozycje skali silnie powiązane z innymi pozycjami będą wykazywały większą korelację
z ogólnym wynikiem w skali. Analiza współczynnika korelacji pozwala podjąć decyzję, które
pozycje powinny zostać włączone do ostatecznej wersji skali, a które należy odrzucić. Inną
pomocną statystyką jest współczynnik alfa (a) Cronbacha, który jest średnią wartością ze
wszystkich potencjalnie możliwych współczynników rzetelności otrzymanych metodą
połówkową. (O rzetelności mówiliśmy w rozdziale 7). Współczynnik alfa mierzy stopień, w
jakim poszczególne pozycje tworzące skalę są powiązane7. Wysoki współczynnik alfa (0,70
to już wartość do przyjęcia) wskazuje, że pozycje testowe są w wysokim stopniu ze sobą
powiązane.
7 Por. William Sims Bainbridge (1989), Survey Research: A Computer-assisted
Introduction, Bel-mont. Calif.: Wadsworth.
481
Skalowanie gułtmanowskie Skala Guttmana, stworzona przez Louisa Guttmana we
wczesnych latach czterdziestych, została opracowana z myślą włączenia empirycznego testu
jednowymia-rowości zbioru pozycji do procesu konstrukcji skali. Zdaniem Guttmana, jeżeli
zbiór pozycji skali pokrywa ten sam wymiar postawy, to poszczególne pozycje można
uporządkować na tym kontinuum ze względu na stopień, w jakim dotyczą one tego
kontinuum. Mówiąc dokładniej, skala Guttmana jest jednowymiarowa i kumulatywna.
Kumulatywność oznacza, że można uporządkować pozycje testowe ze względu na stopień ich
trudności oraz że respondent odpowiadający zgodnie z kluczem (pozytywnie) na trudne
pozycje odpowie również zgodnie z kluczem na pozycje mniej trudne. Posłużmy się
przykładem ze świata przedmiotów fizycznych. Wiemy, że jeżeli dany obiekt ma cztery metry
długości, to jest dłuższy od jednego, dwóch lub trzech metrów. W świecie zjawisk
społecznych natomiast wiemy, że jeżeli dyrektor dużego przedsiębiorstwa pozwoli swojej
córce wyjść za mąż za elektryka, to pozwoli jej również wyjść za mąż za elektryka
należącego do te; samego klubu. I dalej, jeżeli nie ma on nic przeciwko temu, żeby osoba ta
należała do jego klubu, to również nie będzie się sprzeciwiał, aby została ona jego sąsiadem.
W tabeli 18.6 przedstawiliśmy skalę, która powstałaby, gdyby grupie respondentów
przedstawić trzy pozycje testowe dotyczące tego problemu. Skala ta jest zarówno
jednowymiarowa, jak i kumulatywna — pozycje można uporządkować na jednym wymiarze
takim, jak społeczna akceptacja. Skala jest kumulatywna, ponieważ wszyscy respondenci
udzielili odpowiedzi zgodnych z porządkiem, w jakim pozycje te zostały im przedstawione.
Przeto znajomość pierwszej odpowiedzi zgodnej z kluczem dla danego respondenta pozwoli
nam przewidzieć, jakie będą jego dalsze odpowiedzi.
Tabela 18.6. Hipotetyczna idealna skala Guttmana
Pozycje skali
„ , pożycia 1: Respondent , .... . . zgoda na bliskie
związki pozycja 2: zgoda na członkostwo pozycja 3: zgoda na związki
Wynik ogólny
w wyniku małżeństwa w tym samym klubie sąsiedzkie
A + + + 3
B - + + 2
C - - + 1
D - - - 0
+ oznacza zgodę z treścią stwierdzenia; — oznacza brak zgody
W praktyce doskonała skala Guttmana zdarza się rzadko. Na ogół mamy do czynienia
z wieloma niekonsekwentnymi odpowiedziami. W związku z tym konieczne jest znalezienie
kryterium pozwalającego ocenić stopień spełnienia założenia o jed-nowymiarowości i
kumulatywności. W tym celu Guttman opracował współczynnik odtwarzalności. Poniżej
omówimy metodę pozwalającą oszacować stopień dopasowania do idealnego skalogramu
jako metodę badania trafności skali.
482
Dobór pozycji skali. Raymond L. Gorden, omawiając problemy związane z doborem
pozycji do skali Guttmana, wymienił trzy warunki, które muszą zostać spełnione w
następującym porządku8:
1. Musi istnieć postawa wobec obiektu (klasy obiektów, zdarzeń lub idei) w
umysłach ludzi należących do badanej populacji, z której wylosowana zostanie próba.
2. Należy stworzyć zbiór twierdzeń dotyczących obiektu, które będą miały sens dla
osób należących do próby i które będą bodźcem do udzielania odpowiedzi będących trafnym
wskaźnikiem postawy.
3. Poszczególne twierdzenia lub pytania z tego zbioru muszą reprezentować różny
stopień nasycenia na pojedynczym kontinuum.
Tworząc pozycje skali, można wykorzystywać różne metody pochodzące ze
wszystkich dostępnych źródeł: gazet, książek, artykułów naukowych i własnej wiedzy na
temat badanego zjawiska. Można również skorzystać z pomocy ekspertów lub małej grupy
respondentów. Gdy już zbudujemy duży zbiór potencjalnych pozycji, należy dokonać
pierwszej jego selekcji. Pozycje testowe należy przejrzeć pod kątem ich związku z mierzoną
postawą i stopniem powiązania z całym kontinuum — od krańca zdecydowanie pozytywnego
do krańca zdecydowanie negatywnego. Dla każdego twierdzenia trzeba następnie opracować
od dwóch do siedmiu kategorii odpowiedzi. Najczęściej wykorzystuje się format pięciu
kategorii odpowiedzi, takich jak w skali Likerta, na przykład:
Proszę zaznaczyć, w jakim stopniu zgadza się Pan/Pani z następującym twierdzeniem:
Ludzie muszą obecnie żyć dniem dzisiejszym, a przyszłość zostawić jej własnemu
losów.
? Całkowicie się zgadzam ? Nie zgadzam się
] Zgadzam się ? Całkowicie się nie zgadzam
D Nie mam zdania
Po przejrzeniu pozycji testowych układa się je w kwestionariusz, którym następnie
bada się próbę z docelowej populacji. Zanim dokona się oceny odpowiedzi na pozycje
kwestionariusza, należy ułożyć pozycje w taki sposób, aby wyższe wartości kategorii
odpowiedzi zawsze jednolicie wskazywały albo na uczucia najbardziej pozytywne, albo na
uczucia najbardziej negatywne. Jeżeli pozycje nie spełniają tego kryterium, to należy
odwrócić schemat odpowiedzi.
Obliczanie współczynnika odtwarzalności. Współczynnik odtwarzalności jest
definiowany jako stopień, w jakim można odtworzyć ogólny schemat odpowiedzi
udzielonych na zbiór pozycji nawet wtedy, gdy znany jest tylko ogólny wynik otrzymany w
kwestionariuszu. To zaś zależy od stopnia, w jakim schemat odpowiedzi konweniuje z
idealnym wzorcem odpowiedzi, który przedstawiliśmy w tabeli
8 Raymond L. Gorden (1977), Unidimensional Scaling ofSocial Variables, New York:
Macmillan, s.46.
483
18.6. Jeżeli wartość otrzymanego współczynnika odtwarzalności będzie mniejsza niż
wymagana wartość kryterialna równa 0,90, to skala powinna zostać przepracowana tak, aby
współczynnik odtwarzalności spełnił wymagane kryterium. Współczynnik ten obliczamy
według następującego wzoru:
gdzie Ee — ogólna liczba niekonsekwentnych odpowiedzi, Nr — ogólna liczba
odpowiedzi (liczba osób x liczba pozycji). Liczba 0,90 to minimalna wartość pozwalająca
uznać skalę za skalę jednowymiarową.
Wykorzystanie skali Guttmana: przykład
Gdy już stworzymy i udoskonalimy skalę Guttmana, możemy przedstawić wyniki
opisujące rozkład mierzonej zmiennej oraz odnieść skalę do innych badanych zmiennych.
Przykładu stworzenia i wykorzystania skali Guttmana dostarcza badanie przeprowadzone
przez Julesa Wanderera poświęcone natężeniu rozruchów w miastach amerykańskich9.
Badanie to jest szczególnie interesującym zastosowaniem techniki skalowania Guttmana,
ponieważ oparte zostało na wskaźnikach behawioralnych, a nie na wskaźnikach postaw.
Autor przeanalizował 75 przypadków rozruchów i zakłóceń porządku o charakterze
kryminalnym, które wystąpiły latem 1967 roku. Informacje, które Wanderer wykorzystał do
budowy skali, pochodziły z biur burmistrza i zostały dostarczone na prośbę podkomisji
Senatu Stanów Zjednoczonych. W skali znalazły się twierdzenia dotyczące następujących
elementów związanych z natężeniem rozruchów: zabójstw, udziału Gwardii Narodowej,
udziału policji stanowej, ran kłutych, grabieży, bójek ze strażakami i aktów wandalizmu.
Pozycje skali zostały uporządkowane albo w kierunku od największego do najsłabszego
natężenia rozruchów, albo w kierunku od najsłabszego do największego natężenia rozruchów.
Współczynnik odtwarzalności skali Guttmana dotyczącej natężenia rozruchów wynosi 0,92.
W tabeli 18.7 przedstawiliśmy skale i rozkład danych dotyczących miast na kontinuum skali.
Miasta ze względu na zanotowany w nich stopień natężenia rozruchów zostały pogrupowane
w osiem wielkości skalowych, gdzie 8 oznacza najmniejsze natężenie, a 1 największe
natężenie rozruchów.
Na drugim etapie analizy Wanderer potraktował natężenie rozruchów — w sensie
mierzonym przez skalę Guttmana — jako zmienną zależną i zbadał związek z wybranego
zbioru zmiennych niezależnych z natężeniem rozruchów. Stwierdził na przykład związek
pomiędzy większą liczbą uczestników, którzy nie byli białymi, a większym natężeniem
rozruchów mierzonym przez skalę. Innymi słowy, im większy procent uczestników
rozruchów o innym niż biały kolor skóry, tym większe natężenie rozruchów.
Na podstawie skali Guttmana dotyczącej natężenia rozruchów, która została stworzona
w tym badaniu, można postawić wniosek, że zdarzenia inicjujące rozruchy i zakłócenia
porządku o charakterze kryminalnym nie są ani pozbawione wewnętrznej logiki, ani nie
występują zupełnie przypadkowo. Przeciwnie, zastosowa-
9 Jules J. Wanderer (1969), An Index ofRiot Severity and Some Correlates,
„American Journal of Sociology", 74, s. 503.
484
nie skali Guttmana pozwoliło przewidzieć sekwencję zdarzeń, które mogą się pojawić
na każdym poziomie intensywności rozruchów.
Tabela 18.7. Skala Guttmana dotycząca natężenia rozruchów
Pozycje, na które uzyskano odpowiedź zgodną z kluczem
brak takich pozycji
„wandalizm"
wszystkie powyższe oraz „bójki ze strażakami"
wszystkie powyższe oraz „grabież"
wszystkie powyższe oraz „rany kłute"
wszystkie powyższe oraz „udział policji stanowej"
wszystkie powyższe oraz „udział Gwardii Narodowej"
wszystkie powyższe oraz „zabójstwo policjanta lub osoby cywilnej"
Kategoria Procent miast
skalowa (n = 75)
8 4
7 19
6 13
5 16
4 13
3 7
2 17
1 11
Ogółem
100
Na podstawie: Jules J. Wanderer (1969), An lndex of Riot Seveńty and Some
Correlates, „American Journal of Sociology", 74, s. 503.
Analiza czynnikowa
Analiza czynnikowa jest techniką statystyczną pozwalającą na dokonanie klasyfikacji
dużej liczby powiązanych ze sobą zmiennych na ograniczona liczbę wymiarów czy inaczej
czynników. Jest to użyteczna metoda konstruowania skal zawierających pozycje z
wielokrotnym wyborem. Każda taka skala reprezentuje określony wymiar lub wysoko
abstrakcyjne pojęcie. Weźmy na przykład takie pojęcie, jak zadowolenie z życia w
społeczności. Można stworzyć wiele pytań i twierdzeń opisujących zadowolenie z życia w
społeczności: zadowolenie ze szkół publicznych, liczba placówek handlowych,
organizowanie wywozu śmieci, lokalne kościoły, związki sąsiedzkie i tym podobne. Można
jednak uprościć pomiar zadowolenia z życia w społeczności, określając pewną liczbę
wymiarów leżących u podstaw badanego zjawiska.
W niektórych badaniach dotyczących zadowolenia z życia w społeczności
zastosowano właśnie takie podejście. Badacze podzielili daną społeczność czy grupy
powiązane stosunkami sąsiedzkimi na następujące węższe pojęcia: zadowolenie z usług,
zadowolenie ze struktur organizacyjnych, zadowolenie z jakości związków sąsiedzkich oraz
zadowolenie z instytucji kulturalnych. Związek między węższymi pojęciami a ogólnym
pojęciem zadowolenia z życia w społeczności możemy zatem wyrazić w następujący sposób:
zadowolenie z życia w społeczności = S (usługi) + S (struktury organizacyjne)
+ S (jakość związków sąsiedzkich) + + S (instytucje kulturalne)
gdzie 5=zadowolenie z ...
W powyższej zależności zadowolenie jest pojęciem rozłożonym na kilka czynników.
W analizie czynnikowej czynniki nie są bytami bezpośrednio obserwowal-nymi. Są
definiowane przez grapę zmiennych "mb pozycji, Y\ótt sWaaają s\ę na aa-ny czynnik.
Badania rozpoczyna się, dobierając dużą liczbę pozycji definiujących
485
każdy z czynników. Następnie, za pomocą kwestionariusza, prezentuje się te cje
grupie respondentów.
Na pierwszym etapie analizy czynnikowej należy obliczyć współczynniki relacji (r
Pearsona) pomiędzy wszystkimi pozycjami. Następnie trzeba zbudować macierz korelacji.
Macierz korelacji jest wykorzystywana jako podstawowy plik danych do celów analizy
czynnikowej. Wyodrębnianie czynników jest oparte na określaniu wariancji wspólnej dla
zbioru pozycji. W metodzie tej przyjmuje się, że zmienne lub pozycje reprezentujące
pojedynczy wymiar będą — dla tego wymiaru — wysoko ze sobą skorelowane.
Oznacza to, że korelacja pomiędzy pozycją a czynnikiem może być wyrażona za
pomocą tzw. ładunku czynnikowego. Ładunek czynnikowy przypomina współczynnik
korelacji: mieści się w przedziale od 0 do 1 i jest podobnie interpretowany. W tabeli 18.8
przedstawiliśmy ładunki czynnikowe dla czternastu pozycji mierzących zadowolenie z życia
w społeczności w czterech czynnikach. Pozycje o najwyższych ładunkach czynnikowych w
każdym czynniku zostały podkreślone. Są to te pozycje, które zostały potraktowane jako
najlepsze wskaźniki tych czynników. Spośród czternastu pozycji jedynie trzy mają wysokie
ładunki w czynniku 1. Wszystkie te pozycje dotyczą zadowolenia z usług. Możemy zatem
określić czynnik pierwszy jako czynnik odzwierciedlający dostępność usług. Czynnik drugi
reprezentuje zadowolenie ze struktur organizacyjnych, czynnik trzeci — zadowolenie z
jakości związków sąsiedzkich oraz czynnik czwarty — zadowolenie z instytucji kulturalnych.
Ładunki czynnikowe wynoszące 0,30 lub mniej są zazwyczaj traktowane jako zbyt słabo
reprezentujące dany czynnik. Analiza wyników pokazuje, że chociaż wszystkie pozycje mają
jakieś ładunki czynnikowe w każdym z czynników, to większość ładunków jest zbyt niska,
aby odpowiadające im pozycje można było potraktować jako dobre wskaźniki badanego
wymiaru.
Tabela 18.8. Ładunki czynnikowe dla pozycji dotyczących zadowolenia z życia w
społeczności
Opis pozycji Czynnik 1 Czynnik 2 Czynnik 3 Czynnik 4
1. Sąsiedztwo 0,12361 0,03216 0,76182 0,32101
2. Parki, miejsca zabaw 0,62375 0,33610 0,32101 0,02120
3. Szkoły publiczne 0,74519 0,34510 0,12102 0,01320
4. Placówki handlowe 0,32100 0,06121 0,68123 0,12356
5. Ochrona ze strony policji 0,90987 0,12618 0,21361 0,01320
6. Lokalne kościoły 0,21032 0,75847 0,21362 0,11620
7. Grupy kościelne i inne organizacje
w społeczności 0,01362 0,83210 0,01231 0,11632
8. Możliwości rozrywki i rekreacji 0,25617 0,01320 0,12341
0,75642
9. Instytucje kulturalne 0,16320 0,12310 0,32134 0,82316
10. Czystość powietrza 0,02313 0,11621 0,83612 0,32131
11. Poziom hałasu 0,26154 0,21320 0,78672 0,21368
12. Przeludnienie 0,24321 0,02151 0,91638 0,02016
13. Problemy rasowe 0,08091 0,11320 0,82316 0,16342
14. Duma z sąsiadów 0,18642 0,11218 0,71321 0,18321
Procent wariancji 18,2 5,6 40,1 2,4
486
Tabela 18.9. Standaryzowane
współczynniki wartości
czynnikowej
Pozycja Współczynnik
1 0,6812
10 0,7234
11 0,6916
12 0,8162
13 0,8110
14 0,6910
Stopień, w jakim dany czynnik może zostać wyjaśniony za pomocą ładunków
czynnikowych obliczonych dla pozycji, znajduje swoje odzwierciedlenie w procencie
wariancji wyjaśnionej. Ogólnie rzecz biorąc, czynniki o najwyższym procencie wariancji
wyjaśnionej to czynniki o najwęższej charakterystyce. Taki czynnik może więc być
wykorzystywany jako jedyna reprezentacja badanego wymiaru. W tabeli czynnikiem o
najwęższej charakterystyce jest jakość życia (40,1%), a czynnikiem o najszerszej
charakterystyce jest zadowolenie z instytucji kulturalnych (2,4%).
Ostatnim krokiem w analizie czynnikowej jest zbudowanie łącznej skali dla
wszystkich czynników. W tym celu dla każdej pozycji należy obliczyć wartość czynnikową
(wynik skalowy). Wartość czynnikowa to wartość, jaką dany wymiar otrzymał w danym
czynniku. Oblicza się ją, posługując się jeszcze innym typem współczynnika —
współczynnikiem wartości czynnikowej. Aby obliczyć wartość czynnikową dla danego
przypadku, należy pomnożyć współczynniki wartości czynnikowej dla każdej zmiennej przez
standaryzowane wartości tej zmiennej obliczone dla tego przypadku. W tabeli 18.9
przedstawiliśmy współczynniki wartości czynnikowej dla ładunków pozycji w czynniku
trzecim. Możemy teraz obliczyć wartość czynnikową dla przypadku/3, tj. łączną wartość w
skali reprezentującej trzeci czynnik, a mianowicie:
/3 = 0,6812Z1 + 0,7234Z10 + 0,6916Z11+0,8162Z,2 + 0,8110Z13 + 0,6910Z,4.
Z, do Z14 to wartości standaryzowane obliczone dla kolejnych pozycji, od 1 do 14 dla
tego wymiaru.
Analiza czynnikowa jest skuteczną metodą przegrupowywania pozycji analizowanych
przez badacza w bardziej precyzyjne pojęciowo grupy zmiennych.
¦ Podsumowanie
1. Indeks to miara złożona, zbudowana na dwóch lub więcej wskaźnikach lub
pozycjach. Indeks cen (CPI), który jest złożoną miarą zmian cen detalicznych, to jeden z
najczęściej stosowanych indeksów. Procedura tworzenia indeksu obejmuje cztery
podstawowe problemy wymagające omówienia: zdefiniowanie celu tworzenia indeksu, dobór
źródeł danych, wybór podstawy porównywania oraz wybór metody agregowania i ważenia
danych.
2. Skalowanie jest metodą pomiaru ilości cechy (właściwości) danej klasy obiektów
czy zdarzeń. Najczęściej wykorzystywane jest w pomiarze postaw. Skale postaw składają się
z określonej liczby twierdzeń wyrażających postawę, z którymi respondent zgadza się bądź
nie.Techniki skalowania stosuje się po to, aby kolejne twierdzenia można było uporządkować
wzdłuż tego samego kontinuum. Pozwalają one przekształcić dane jakościowe na ilościowe
ciągi. Wszystkie skale omawiane w tym rozdziale to skale, o których zakłada się, że są
jednowymiarowe, lub skale,
487
których jednowymiarowość można oszacować. Oznacza to, że pozycje tworzące skalę
można uporządkować na kontinuum, o którym się zakłada, że odzwierciedla jedno i tylko
jedno pojęcie.
3. Jedną z technik konstrukcji skal jest technika Likerta. Skalowanie Likerta wymaga,
aby badacz opracował listę potencjalnych pozycji skali, przedstawił je losowo wybranej
grupie respondentów, obliczył wynik ogólny dla wszystkich respondentów, obliczył moc
dyskryminacyjną dla każdej pozycji oraz dokonał selekcji pozycji do ostatecznej wersji skali.
4. Inną metodą skalowania jest technika skalowania Guttmana. Metodę tę opracowano
z myślą włączenia empirycznego testu jednowymiarowości zbioru pozycji do procesu
tworzenia skali. Skala Guttmana jest jednowymiarowa — pozycje skali można uporządkować
na jednym wymiarze — oraz kumulatywna. Kumulatywność oznacza, że na podstawie
znajomości pierwszej odpowiedzi zgodnej z kluczem możemy przewidzieć, jakie będą dalsze
odpowiedzi respondenta. Aby oszacować stopień dopasowania do idealnego skalogramu,
Guttman opracował miarę zwaną współczynnikiem odtwarzalności. Wartość współczynnika
odtwarzalności wynosząca 0,90 to minimalna wartość pozwalająca uznać skalę za skalę
jednowymiarową.
5. Analiza czynnikowa jest techniką statystyczną pozwalającą na dokonanie
klasyfikacji dużej liczby powiązanych ze sobą zmiennych na ograniczoną liczbę wymiarów
czy inaczej czynników. Jest to użyteczna metoda konstruowania skal zawierających pozycje z
wielokrotnym wyborem. Każda taka skala reprezentuje określony wymiar lub wysoko
abstrakcyjne pojęcie.
¦ Podstawowe terminy
analiza czynnikowa 485 budowanie indeksu 471 dane ważone 475 ładunek
czynnikowy 486 moc dyskryminacyjna 480 pozycja (składowa) 470
¦ Pytania sprawdzajgce
1. Jaka jest różnica pomiędzy skalą a indeksem? Podaj najczęściej stosowane
przykłady skali i indeksu.
2. Dlaczego w naukach społecznych posługujemy się skalami i indeksami?
3. Opracuj indeks mierzący „popularność" wśród studentów college'u. Zbadaj około
dziesięciu osób, aby otrzymać dane dla swojej skali. Zastosuj metodę agregacji pozycji, które
powinny mieć następujący format: „Ile razy...?", I „Jak często...?", „Ile...?" Weź pod uwagę
możliwość ważenia danych i zastosuj odpowiednią technikę, jeżeli to konieczne. Omów
problem trafności
i rzetelności swojego indeksu. Odwołując się do swoich danych, zaproponuj
zrewidowaną wersję indeksu popularności.
skala Guttmana 482
skala Likerta 479
współczynnik odtwarzalności 482
współczynnik wartości czynnikowej 487
zasada jednowymiarowości 471
488
4. Wykorzystując wyniki otrzymane w zadaniu 3, przedstaw sposób przekształcenia
indeksu w skalę.
5. W jakiej sytuacji analiza czynnikowa będzie lepszą metodą od skalowania?
Uwzględnij powody natury metodologicznej i teoretycznej.
¦ Ćwiczenia komputerowe
1. Posługując się plikiem GSS czy innym własnym plikiem danych, skonstruuj skalę
(np. wykorzystując moduł COMPUTE), która wydaje ci się sensowna. Uruchom moduł
FREQUENCIES, wprowadź swoje dane i sprawdź, czy mają one rozkład normalny (por.
dodatek A, s. 529).
2. Posługując się modułem RELIABILITY, oszacuj rzetelność swojej skali (por.
dodatek A, s. 530).
¦ Literatura dodatkowa
Brzeziński J. (1984), Elementy metodologii badań psychologicznych, Warszawa:
Wyd. Nauk. PWN.
Brzeziński J. (1997), Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd.
Nauk. PWN.
Górniak J. (1998), Analiza czynnikowa i analiza głównych składowych, „ASK", 7, s.
83-102.
Hornowska E. (1989), Operacjonalizacja wielkości psychologicznych. Założenia —
struktura — konsekwencje, Wrocław: Ossolineum.
Mayntz R., Holm K., Hubner P. (1985), Wprowadzenie do metod socjologii
empirycznej, Warszawa: PWN.
Nowak S. (1985), Metodologia badań społecznych. Warszawa: PWN.
Nowak S. (red.) (1965), Metody badań socjologicznych. Wybór tekstów, Warszawa:
PWN.
Suchocka R., Suchocki B., Walkowiak J. (1985), Techniki pomiaru w socjologii,
Poznań: Wyd. Nauk. U AM.
Zakrzewska M. (1994), Analiza czynnikowa w budowaniu i sprawdzaniu modeli
psychologicznych, Poznań: Wyd. Nauk. UAM.
Rozdział 19
Wnioskowanie statystyczne
Strategia testowania hipotez 492 Hipoteza zerowa i hipoteza badawcza 493
Rozkład z próby 494
Poziom istotności i obszar odrzuceń 496
Testy jednostronne i testy dwustronne 498 Błąd I i II rodzaju 499
Parametryczne i nieparametryczne testy istotności
Wybrane testy parametryczne 501 Wybrane testy nieparametryczne 507
Podsumowanie 513
Podstawowe terminy 514
Pytania sprawdzające 514
Ćwiczenia komputerowe 514
Literatura dodatkowa 514
W Stanach Zjednoczonych, historycznie rzecz biorąc, biali mężczyźni cieszyli się
większym prestiżem zawodowym niż kobiety czy członkowie mniejszości rasowych i
etnicznych. W wielu badaniach analizowano wpływ rasy, pochodzenia etnicznego oraz pici na
prestiż zawodowy, lecz jedynie niewielka część badań była poświęcona interakcyjnemu
oddziaływaniu tych zmiennych. Jednak dwa badania poświęcono właśnie analizie takich
efektów. Wu Xu i Ann Leffler na podstawie danych ze spisu statystycznego z roku 1980
pobrali próbę zawodów, które następnie wykorzystali do oszacowania względnego wpływu
rasy/pochodzenia etnicznego i płci na prestiż zawodowy1. Porównali prestiż w czterech
grupach rasowo-etnicznych (biali, czarni, Amerykanie azjatyckiego i hiszpańskiego
pochodzenia), w grupach różniących się ze względu na płeć oraz w grupach wydzielonych ze
względu na rasę i różniących się ze względu na płeć. Stwierdzili, że rasa wywiera silniejszy
wpływ na prestiż zawodowy niż płeć, lecz z kolei płeć wywiera różny wpływ w różnych
grupach rasowo-etnicznych. Otrzymane wyniki wskazują, że osoby białe i osoby pochodzenia
azjatyckiego obu płci cieszą się większym prestiżem zawodowym niż osoby czarne i osoby
pochodzenia hiszpańskiego. Natomiast wewnątrz grup okazało się, że choć białe kobiety i
kobiety pochodzenia azjatyckiego cieszą się mniejszym prestiżem zawodowym niż mężczyźni
tego samego pochodzenia, to jednak większy wpływ płci pojawił się w grupie osób
pochodzenia azjatyckiego niż w grupie osób białych. Okazało się również, że kobiety czarne
oraz kobiety pochodzenia hiszpańskiego cieszą się większym prestiżem zawodowym niż
mężczyźni, z tym że różnica prestiżu w grupie osób pochodzenia hiszpańskiego byta
niewielka. Biorąc pod uwagę wszystkie cztery grupy, autorzy stwierdzili, że płeć najbardziej
wpływa na status zawodowy w grupie osób pochodzenia azjatyckiego, a najmniej w grupie
osób pochodzenia hiszpańskiego.
Autorzy tego badania, aby potwierdzić swoją teorię o tym, że zarówno płeć, jak i rasa
wpływają na prestiż zawodowy, posłużyli się techniką testowania hipotez. Dzięki technikom
statystycznym uzyskali — opierając się na wynikach badania próby pochodzącej z popu\ac}\
— podstawa do wypto^a&zaTfia. vm\oc>Vświ o całej populacji Stanów Zjednoczonych.
W tym rozdziale opiszemy strategię testowania hipotez, koncentrując się na takich
pojęciach, jak rozkład z próby, błąd I i II rodzaju oraz poziom istotności. Omówimy też kilka
metod testowania hipotez dotyczących związku między zmiennymi: hipotezę dotyczącą
różnic pomiędzy średnimi, współczynnik r Pearso-na, Manna-Whitneya oraz test chi-kwadrat.
W rozdziale 8 wprowadziliśmy ogólną ideę wnioskowania statystycznego, która
zajmuje się problemem szacowania charakterystyk populacji, gdy dostępne są jedynie dane z
próby. Pokazaliśmy, że statystyki z próby mogą być dobrymi estymatorami parametrów
konkretnej populacji, jednak praktycznie — ze względu na
' Wu Xu, Ann Leffler (1992), Gender and Race Effects on Occupational Prestige,
Segregation and Eamings, „Gender and Society", Vol. 6, s. 376-391.
491
wahania próby — każde oszacowanie będzie się odchylać od wartości prawdziwej. I
Procedura wnioskowania statystycznego pozwala nam na ocenę dokładności na-ł szych
oszacowań.
Wnioskowanie statystyczne jest również wykorzystywane w celu określeniw
prawdopodobieństwa otrzymania konkretnych wyników z próby, gdy przyjmiemy I określone
założenia dotyczące populacji. Ten rodzaj wnioskowania statystycznego I nazywany jest
testowaniem hipotez. Dokonując estymacji, badacz dobiera próbę. I aby oszacować parametr
populacji. Natomiast testując hipotezy, przeciwnie, naj-1 pierw przyjmuje założenia co do
parametru populacyjnego, a dane z próby stanowią I test tych założeń. W przypadku
estymacji próba dostarcza informacji o pojedyn- I czym parametrze populacji, takim jak
średnie dochody czy wariancja wykształcę- I nia. W testowaniu hipotez badacz zazwyczaj
wyprowadza wnioski o związku pomiędzy zmiennymi, na przykład związku pomiędzy
wykształceniem i dochodami ! czy pomiędzy zawodem a postawami politycznymi.
¦ Strategia testowania hipotez
Pierwszy krok testowania hipotez polega na sformułowaniu hipotezy w terminacli
statystycznych. Omówiliśmy już, w jaki sposób wyprowadza się hipotezy z teorii oraz jak
formułuje się problem badawczy w postaci hipotezy. Aby jednak przetestować hipotezę,
trzeba sformułować ją w terminach, które można analizować za pomocą narzędzi
statystycznych. Na przykład, jeżeli celem badania jest próba określenia, czy osoby bardziej
wykształcone uzyskują wyższe dochody w porównaniu z osobami mniej wykształconymi, to
hipoteza statystyczna może dotyczyć tego, że pomiędzy wykształceniem a dochodami istnieje
dodatnia korelacja lub że średnie dochody w grupie osób bardziej wykształconych są wyższe
niż średnie dochody w grupie osób mniej wykształconych. W obu wypadkach hipoteza
statystyczna została sfomułowana w terminach statystyki opisowej (takich jak dodatnia
korelacja czy różnica między średnimi).
Hipoteza statystyczna zawsze dotyczy badanej populacji. Gdyby można było
bezpośrednio zbadać populację, nie byłoby potrzebne żadne wnioskowanie ani źad- i na
różnica pomiędzy średnimi (czy korelacja dodatnia dowolnej wielkości), by po- I twierdzić
hipotezę. Jednakże dane z próby podlegają wahaniom próby, które rów- I nież mogą być
przyczyną różnic między średnimi czy dodatniej wartości współczynnika korelacji. Oznacza
to, że wyniki potwierdzające hipotezę możemy otrzy- i mać wtedy, kiedy hipoteza jest
prawdziwa, lub wtedy, kiedy hipoteza jest fałszywa, I a otrzymane wyniki są efektem
działania błędu losowego. I odwrotnie, jeżeli dane z próby odchylają się od oczekiwanej
wartości populacyjnej, to owo odchylenie może oznaczać albo, że hipoteza jest fałszywa, albo
że jest prawdziwa, a otrzymane wartości trzeba przypisać czynnikom losowym. W tabeli 19.1
przedstawiliśmy wszystkie cztery możliwości.
Jeśli dane z próby odpowiadają lub odchylają się od naszych oczekiwań, to w każdym
wypadku oznacza to, że hipoteza jest albo prawdziwa, albo fałszywa. Danych z próby nie
można więc interpretować wprost — potrzebujemy reguły decyzyjnej pozwalającej — na
podstawie danych z próby — odrzucić lub utrzymać hipotezę dotyczącą populacji. Procedura
wnioskowania statystycznego pozwala
492
Tabela 19.1. Możliwe interpretacje wyników z próby
Status hipotezy Wyniki z próby
zgodnie z oczekiwaniami odchylenia od oczekiwań
Prawdziwa Fałszywa wyniki potwierdzają hipotezę wyniki są efektem wahań próby
wyniki są efektem wahań próby wyniki potwierdzają hipotezę
określić, czy konkretne dane z próby mieszczą się w zakresie dopuszczalnego
poziomu losowości. Procedura ta składa się z następujących kroków, które teraz pokrótce
omówimy:
1. Sformułowanie hipotezy zerowej i hipotezy badawczej.
2. Wybór — zgodnie z hipotezą zerową — rozkładu z próby i testu statystycznego.
3. Określenie poziomu istotności a i zdefiniowanie obszaru odrzuceń.
4. Obliczenie wartości testu statystycznego i odrzucenie lub utrzymanie hipotezy
zerowej.
¦ Hipoteza zerowa i hipoteza badawcza
W procesie testowania hipotez bierze się pod uwagę dwie hipotezy. Pierwsza to
hipoteza badawcza*, oznaczana zazwyczaj jako //,. Druga, oznaczana jako H0, jest hipotezą
zerową. Hipoteza H0 jest określana przez Hu która jest naprawdę tym, czego chcemy się
dowiedzieć. H0 jest antytezą H{.
Przypuśćmy, że w hipotezie badawczej przyjmujemy, iż katolicy posiadają większe
rodziny niż protestanci. Jeżeli średnią wielkość rodziny w grupie katolików oznaczymy jako
fiu a średnią wielkość rodziny w grupie protestantów jako /z2> to hipoteza badawcza będzie
miała następującą postać:
//, = ju{ >ju2.
Hipoteza zerowa natomiast będzie:
H0 =,«, = n2-
Hipotezę zerową można wyrazić na kilka sposobów. Zazwyczaj jednak formułuje się
ją w postaci wyrażenia stwierdzającego brak różnic lub brak związku pomiędzy zmiennymi.
Zarówno hipoteza zerowa, jak i hipoteza badawcza jest formułowana w terminach
parametrów populacyjnych, a nie w terminach statystyk z próby. Hipoteza zerowa jest
hipotezą, którą badacz bezpośrednio testuje. Hipoteza badawcza zostaje uznana za
potwierdzoną wtedy, gdy hipoteza zerowa zostaje odrzucona jako nieprawdopodobna.
Potrzeba formułowania dwóch hipotez jest wynikiem logicznej konieczności: hipoteza
zerowa oparta jest na wnioskowaniu negatywnym, aby uniknąć błędu potwierdzania rezultatu.
Innymi słowy, badacz powinien raczej elimino-
* Jest też zwana hipotezą roboczą (przyp. red. nauk.).
493
wać hipotezę fałszywą, niż przyjmować hipotezę prawdziwą. Przypuśćmy na
przykład, że teoria A prowadzi do danych empirycznych typu B. Jeżeli dane B są fał- j szywe,
to możemy przyjąć, że teoria A również musi być fałszywa. Jeżeli jedni dane B są prawdziwe,
to teoria A nie może jeszcze zostać przyjęta jako prawdziwa, ponieważ dane B mogą być
empirycznymi konsekwencjami wielu różnych teorii, niekoniecznie teorii A. Zatem, jeżeli
przyjmiemy teorię A jako prawdziwą, to popełnimy błąd potwierdzania rezultatu.
Jako przykład można przytoczyć teorię samobójstw Durkheima. Jedno z jej twierdzeń
(A) mówi, że indywidualiści częściej popełniają samobójstwa. Empiryczną konsekwencją (B)
wyprowadzoną z tego twierdzenia jest przyjęcie, że odsetek samobójstw powinien być
wyższy wśród osób samotnych niż wśród małżeństw. Jeżeli B okaże się fałszywe (tzn. jeżeli
nie będzie żadnych różnic pomiędzy odsetkiem samobójstw wśród osób samotnych i wśród
małżeństw), to teoria A jest fałszywa. Ale co się stanie, gdy B będzie prawdziwe? Nie
możemy przyjąć teorii A jako prawdziwej — istnieje bowiem wiele wyjaśnień dla danych B,
które niekoniecznie muszą być teorią A. Na przykład wyższy odsetek samobójstw wśród osób
samotnych można wyjaśnić nie tyle indywidualizmem, ile raczej nadmiernym piciem
alkoholu prowadzącym do depresji i samobójstw. Zatem dane B mogą świadczyć, że A! — tj.
inna teoria —jest prawdziwa.
Zazwyczaj wiele różnych teorii może wyjaśnić te same dane — zadanie badacza
polega na wybraniu tej, która jest najbardziej wiarygodna. Wiarygodność teorii można
określić jedynie poprzez eliminowanie teorii alternatywnych:
Dla każdej obserwacji, która wynika z A, powiedzmy B„ można wskazać kilka
alternatywnych teorii, z których wynika, że nie-Bj. Jeżeli następnie wykażemy, że zachodzi
B,, to teorie alternatywne zostaną sfalsyfikowane. A to zostawia mniej alternatywnych teorii2.
¦ Rozkład z próby
Mając sformułowaną hipotezę zerową, możemy ją przetestować na podstawie danych
z próby. Na przykład, jeżeli zgodnie z hipotezą nie ma żadnej różnicy pomiędzy średnimi
dwóch populacji (ju, = fi2), to powinniśmy wylosować próbę z każdej populacji, porównać
dwie średnie z próby (X, =X2) i na podstawie próby wyciągnąć wnioski dotyczące populacji.
Jednakże dane z próby obarczone są błędem próby, nie zawsze więc odzwierciedlają
prawdziwą wartość w populacji. Jeżeli z populacji pobiera się próby o tej samej wielkości, to
zazwyczaj każda próba daje inne wyniki. Aby określić dokładność statystyki z próby, należy
porównać ją z modelem statystycznym określającym prawdopodobieństwo uzyskania takiego
wyniku. Taki model statystyczny nazywa się rozkładem z próby. Rozkład statystyki z próby
otrzymamy, pobierając z określonej populacji dużą liczbę prób losowych tej samej wielkości,
następnie obliczymy wartość statystyki dla każdej próby i sporządzimy rozkład częstości
wartości statystyki. W rozdziale 8 podaliśmy przykład takiego
2 Arthur L. Stinchcombe (1968), Constructing Social Theories, Orlando, Fla.:
Harcourt BraceJo-vanovich, s. 20.
494
rozkładu: rozkład z próby średnich. Można też opracować rozkład z próby innych
statystyk, na przykład wariancji (s2), odchylenia standardowego (s), różnicy pomiędzy
średnimi (X, i X2) czy proporcji (p).
Wróćmy jednak do przykładu teorii samobójstw Durkheima. Testowaną hipotezą jest
w niej hipoteza, że odsetek samobójstw jest wyższy w grupie osób samotnych niż w populacji
generalnej. Jednym ze sposobów oszacowania proporcji samobójstw wśród osób samotnych
jest porównanie liczby samobójstw w tej grupie ze średnią proporcją samobójstw w całej
populacji. Przypuśćmy, że z danych pochodzących z ośrodków medycznych wynika, iż
odsetek samobójstw osób dorosłych w społeczeństwie wynosi 20 na 100 mieszkańców, czyli
inaczej 0,20. W hipotezie badawczej zatem przyjmujemy, że odsetek samobójstw wśród ludzi
samotnych jest większy od 0,20, więc
H\. proporcja samobójstw wśród ludzi samotnych > 0,20.
W hipotezie zerowej natomiast przyjmujemy, że odsetek samobójstw wśród ludzi
samotnych wynosi tyle samo, ile wynosi średnia populacyjna:
H0: proporcja samobójstw wśród ludzi samotnych = 0,20.
Przypuśćmy, że pobraliśmy próbę liczącą 100 kart samotnych pacjentów ośrodków
medycznych i okazało się, że ustalony przez nas odsetek samobójstw wynosi 0,30. Czy ten
wynik jest istotnie wyższy niż 0,20 i czy na tej podstawie możemy odrzucić hipotezę zerową?
Aby określić prawdopodobieństwo otrzymania wartości 0,30 przy założeniu hipotezy
zerowej, należy porównać otrzymaną proporcję z rozkładem proporcji samobójstw dla całej
populacji ludzi dorosłych. Przypuśćmy, że pobraliśmy \000 losowych prób i każda próba liczy
po 100 kart dorosłych pacjentów ośrodków medycznych. Przypuśćmy też, że dla każdej próby
obliczyliśmy odsetek samobójstw. W tabeli 19.2 przedstawiamy hipotetyczny rozkład z
próby3. Rozkład z próby możemy wykorzystać jako model statystyczny pozwalający określić,
jakie jest prawdopodobieństwo otrzymania odsetka samobójstw wynoszącego 0,30 wśród
ludzi samotnych, gdyby odsetek ten był równoważny odsetkowi samobójstw w populacji
generalnej. Prawdopodobieństwo otrzymania konkretnego wyniku można obliczyć, dzieląc
odpowiednią częstość wynikającą z rozkładu przez całkowitą liczbę prób.
W tabeli 19.2 przedstawiliśmy odpowiednie prawdopodobieństwa, jakie można
otrzymać. Na przykład odsetek samobójstw wynoszący od 0,38 do 0,39 pojawił się pięć razy.
Zatem prawdopodobieństwo, że w każdej próbie o n= 100 mamy taki sam odsetek
samobójstw, wynosi 5/1000, czyli 0,005. Innymi słowy, spodziewamy się otrzymać taki
wynik w 0,5% prób o wielkości 100 pobranych z populacji. I podobnie, prawdopodobieństwo
otrzymania odsetka samobójstw między 0,30 a 0,31 wynosi 0,015, czyli 1,5%.
Prawdopodobieństwo otrzymania odsetka samobójstw 0,30 lub wyższego jest równe
sumie prawdopodobieństw dla przedziałów 0,30-0,31, 0,32-0,33, 0,34-0,35,
3 Taki rozkład jest często nazywany eksperymentalnym rozkładem z próby, ponieważ
uzyskuje się go na podstawie danych obserwowanych.
495
0,36-0,37, 0,38-0,39 oraz 0,40 i więcej. Prawdopodobieństwo to wynosi: 0,015+1 +
0,010 + 0,010 + 0,010 + 0,005 + 0,000 = 0,050. Oczekujemy zatem, że w 5% wszystj kich
100 prób pobranych z populacji otrzymamy odsetek samobójstw równy 0,301 lub więcej.
Tabela 19.2. Hipotetyczny rozkład z próby odsetka samobójstw dla wszystkich osób
dorosłych dla 1000 prób losowych (n = 100)
Odsetek samobójstw Liczba prób (/) Proporcja prób (p=f/n)
0,40 lub więcej 0 0,000
0,28-0,39 5 0,005
0,36-0,37 10 0,010
0,34-0,35 10 0,010
0,32-0,33 10 0,010
0,30-0,31 15 0,015
0,28-0,29 50 0,050
0,26-0,27 50 0,050
0,24-0,25 50 0,050
0,22-0,23 150 0,150
0,20-0,21 200 0,200
0,18-0,19 150 0,150
0,16-0,17 100 0,100
0,14-0,15 100 0,100
0,12-0,13 50 0,050
0,10-0,11 15 0,015
0,08-0,09 10 0,010
0,06-0,07 10 0,010
0,04-0,05 10 0,010
0,02-0,03 5 0,005
0,01 lub mniej 0 0,000
Ogółem 1000 1,000
¦ Poziom istotności i obszar odrzuceń
Kiedy skonstruowaliśmy już rozkład z próby, możemy oszacować
prawdopodobieństwo otrzymania wyniku równego 0,30 (przy założeniu hipotezy zerowej).
Decyzja o tym, jaki wynik jest wystarczająco mało prawdopodobny, aby uzasadnić
odrzucenie hipotezy zerowej, jest raczej arbitralna. Jako podstawę odrzucenia hipotezy
zerowej możemy wybrać każdy zbiór skrajnych wyników. Zakres tych wyników jest
określany jako obszar odrzucenia. Suma prawdopodobieństw wyników wpadających do
obszaru odrzucenia nazywana jest poziomem istotności i oznaczana jako a. Zazwyczaj
poziom istotności ustala się na poziomie 0,05 lub 0,01, co oznacza, że hipotezę zerową należy
odrzucić, gdy wynik z próby jest wynikiem, który można otrzymać losowo nie częściej niż w
5% lub w 1% przypadków.
496
Na rycinie 19.1 przedstawiliśmy graficznie rozkład z próby zamieszczony w tabeli
19.2 oraz obszar odrzuceń, gdy a = 0,05. Obszar odrzuceń obejmuje wszystkie odsetki
samobójstw równe 0,30 i więcej. Jak się przekonaliśmy wcześniej, suma prawdopodobieństw
takich wyników jest równa poziomowi istotności i wynosi 0,05.
Uzyskany przez nas wynik z próby równy 0,30 wpada do obszaru odrzucenia, dlatego
możemy odrzucić hipotezę zerową na poziomie istotności równym 0,05. Odrzucenie hipotezy
zerowej pozwala utrzymać hipotezę badawczą, że odsetek samobójstw wśród osób samotnych
jest wyższy niż w populacji generalnej ludzi dorosłych.
200
180
160
140
o 120
100
80
60
40
20
obszar odrzucenia a = 0,05
J____L
J____I------1___I____I____L
J____L
0,01 0,04 0,08- 0,12- 0,16- 0,20- 0,24- 0,28- 0,32-
0,36- 0,40 lub mniej 0,09 0,13 0,17 0,21 0,25 0,29
0,33 0,37 lub więcej
Ryc. 19.1. Rozkład z próby odsetka samobójstw dla 1000 prób (n= 100)
497
Testy jednostronne i testy dwustronne
W poprzednim przykładzie posługiwaliśmy się zbiorem skrajnych wyników znaj-1
dujących się po prawej stronie rozkładu z próby. Oczywiście skrajne wyniki mogą I się
również znajdować po lewej stronie rozkładu. W tabeli 19.2 prawdopodobień- I stwo odsetka
samobójstw równego 0,11 i mniej jest równe prawdopodobieństwu I otrzymania odestka
samobójstw równego 0,30 i więcej. W obu wypadkach wynosi I ono 0,05.
Test statystyczny może być jedno- lub dwustronny. W teście dwustronnym obszar
odrzucenia znajduje się po prawej i po lewej stronie rozkładu. W teście jednostronnym
skrajne wyniki pozwalające na odrzucenie hipotezy zerowej znajdują 1 się po jednej lub po
drugiej stronie. Decyzja o tym, czy umieścić obszar odrzucenia I po jednej stronie czy po obu
stronach rozkładu, zależy od tego, czy w hipotezie Hx założyliśmy określony kierunek
przewidywanych wyników i czy dotyczy ona dużych czy małych wartości. Jeżeli hipoteza H,
przewiduje duże wartości, to obszar odrzucenia zostanie umieszczony po prawej stronie
rozkładu z próby (tak jak w przykładzie dotyczącym samobójstw). Natomiast jeżeli hipoteza
//, przewiduje małe wartości, to jako obszar odrzuceń wybierana jest lewa strona rozkładu.
Przypuśćmy na przykład, że w hipotezie badawczej założyliśmy, iż odsetek samobójstw
wśród ludzi samotnych jest mniejszy niż wśród dorosłych osób z populacji generalnej. Innymi
słowy:
//,: odsetek samobójstw wśród ludzi samotnych < 0,20.
Wyniki, które w wypadku tej hipotezy potraktujemy jako mało prawdobodob-ne,
mieszczą się po lewej stronie rozkładu. Na poziomie istotności równym 0,05 obszar
krytyczny będzie się składał z następujących proporcji: 0,10-0,11, 0,08-0,09, 0,06-0,07, 0,04-
0,05, 0,02-0,03, 0,01 lub mniej. Suma prawdopodobieństw pojawienia się tych wyników
wynosi: 0,015 + 0,010 + 0,010 + 0,010 + 0,005 + 0,000 = 0,050. Na rycinie 19.2
przedstawiamy rozkład prawo- i lewostronny.
Istnieją sytuacje, w których nie potrafimy określić dokładnie kierunku hipotezy
badawczej. Przypuśćmy na przykład, iż zakładamy, że odsetek samobójstw wśród osób
samotnych jest inny, jednak nie potrafimy określić kierunku tej różnicy. Możemy wtedy
sformułować hipotezę badawczą w sposób następujący:
Hx: odsetek samobójstw wśród ludzi samotnych ^ 0,20.
Jeżeli nie potrafimy dokładnie określić kierunku Hu to odrzucimy H0 zawsze wtedy,
gdy otrzymamy skrajne wyniki z jednego bądź drugiego krańca rozkładu.
a) test prawostronny; cc = 0,05 b) test
lewostronny; a = 0,05
Ryc. 19.2. Test prawostronny i test lewostronny 498
a = 0.05
Ryc. 19.3. Test dwustronny
Stosowany wówczas test statystyczny jest testem dwustronnym, a poziom istotności
jest dzielony przez dwa. Zatem poziom istotności równy 0,05 będzie oznaczać, że hipoteza
H0 zostanie odrzucona, gdy dane z próby znajdą się w najniższej 2,5-pro-centowej lub
najwyższej 2,5-procentowej części rozkładu z próby. Możliwość taką przedstawia rycina
19.3.
Wybierzmy, do przykładu dotyczącego samobójstw, poziom istotności równy 0,05 i
zastosujmy test dwustronny. W obszarze krytycznym znajdą się następujące możliwe wyniki:
0,34-0,35, 0,36-0,37, 0,38-0,39 oraz 0,40 i więcej (0,010 + 0,010 + +0,005 + 0,000 = 0,025)
oraz 0,06-0,07, 0,04-0,05, 0,02-0,03, 0,01 lub mniej (0,010 + + 0,010 + 0,005+0,000 = 0,025).
Dla testu dwustronnego otrzymany wynik z próby równy 0,30 nie wpada do obszaru
odrzucenia. Zatem hipoteza zerowa nie zostanie odrzucona.
Błqd I i II rodzaju
Ponieważ w procedurze statystycznego testowania hipotez nie dokonujemy
bezpośredniego pomiaru całej populacji, test statystyczny nie jest wystarczającym dowodem
na to, że hipoteza zerowa jest prawdziwa lub fałszywa. Jedynym dowodem jest odpowiedź na
pytanie, czy dane z próby są wystarczająco prawdopodobne lub nieprawdopodobne, aby
uzasadniały decyzję o przyjęciu lub odrzuceniu hipotezy zerowej.
Hipoteza zerowa może być albo prawdziwa, albo fałszywa i w obu wypadkach może
zostać odrzucona lub przyjęta. Jeżeli hipoteza zerowa jest prawdziwa i mimo to zostanie
odrzucona, to podjęta przez nas decyzja jest błędna. Błąd tego typu — odrzucenie hipotezy
prawdziwej — nazywa się błędem I rodzaju. Jeżeli hipoteza zerowa jest fałszywa, ale zostanie
przyjęta, to błąd, jaki popełniamy, polega na zaakceptowaniu hipotezy fałszywej. Ten rodzaj
błędu nazywa się błędem II rodzaju. Cztery możliwe sytuacje przedstawiliśmy w tabeli 19.3.
Tabela 19.3. Możliwe decyzje w procesie sumowania hipotez
Decyzja Hipoteza zerowa jest prawdziwa Hipoteza zerowa jest
fałszywa
Hipoteza odrzucona błąd I rodzaju brak
błędu
Hipoteza przyjęta brak błędu błąd II
rodzaju
499
Prawdopodobieństwo odrzucenia hipotezy prawdziwej — błąd I rodzaju —jest
definiowane jako poziom istotności. Gdyby więc badacz podejmował bardzo wiele decyzji, to
przyjęcie poziomu istotności równego 0,05 oznacza błędne odrzucenie 5% testowanych
hipotez (były one prawdziwe). Oczywiście, badacze są zainteresowani minimalizowaniem
błędu odrzucenia hipotezy prawdziwej i mogą to uzyskać, zmniejszając poziom istotności tak
bardzo, jak to możliwe. Jednakże błędy I i II rodzaju są odwrotnie skorelowane: zmniejszenie
prawdopodobieństwa odrzucenia hipotezy prawdziwej prowadzi do wzrostu
prawdopodobieństwa przyjęcia hipotezy fałszywej. W tych warunkach wybór wielkości a
zależy od rodzaju badanego problemu oraz od konsekwencji odrzucenia hipotezy prawdziwej
lub przyjęcia hipotezy fałszywej. Jeżeli na przykład badacz interesuje się skutkami
eksperymentalnej metody uczenia kalekich dzieci i wyniki badania zadecydują o tym, czy
metoda ta zostanie wdrożona w całym systemie oświatowym, to musi on dokładnie rozważyć
konsekwencje popełnienia błędu. Przypuśćmy, że w hipotezie zerowej przyjęto, iż nowa
metoda uczenia daje negatywne skutki. Jeżeli badacz odrzuci hipotezę zerową, a była ona
prawdziwa, to konsekwencje tego faktu będą bardzo poważne. Setkom tysięcy kalekich dzieci
zostanie wyrządzona krzywda. Jeżeli odwrotnie, nie zostanie ona odrzucona, mimo że jest
fałszywa, to system szkolny mógłby odroczyć wprowadzenie nowej metody, aż nie będą
dostępne dalsze dowody. A zatem korzystniejsze jest wtedy zmniejszenie wartości a,
ponieważ konsekwencje odrzucenia hipotezy prawdziwej są poważniejsze niż konsekwencje
przyjęcia hipotezy fałszywej.
Jeżeli dane badanie nie ma konsekwencji praktycznych, to wybór wartości a będzie
decyzją arbitralną, jednak zawsze będziemy się odwoływać do przyjętych konwencji.
Najczęściej stosowanymi wielkościami poziomu istotności w naukach społecznych są
wartości 0,001, 0,01 i 0,05.
¦ Parametryczne i nieparametryczne testy istotności
Testy istotności najczęściej stosowane w naukach społecznych dzieli się na dwie
grupy: testy parametryczne i testy nieparametryczne. Test parametryczny to test statystyczny
oparty na wielu założeniach dotyczących parametrów populacji, z której pochodzi pobrana
próba. Do najważniejszych założeń należą: założenie, że obserwacje muszą pochodzić z
populacji o rozkładzie normalnym, oraz założenie, że zmienne zostały zmierzone
przynajmniej na poziomie interwałowym4. Wyniki testów parametrycznych mają sens tylko
wtedy, gdy te założenia zostaną spełnione.
Test nieparametryczny nie wymaga ani założenia o normalności rozkładu, ani
uzyskania interwałowego poziomu pomiaru. Z testami nieparametrycznymi także związane są
określone założenia, jednak są one słabsze i jest ich mniej niż w wypadku testów
parametrycznych.
W praktyce badacze nie muszą powielać żmudnej procedury konstruowania rozkładu z
próby. Często rozkład z próby został już skonstruowany przez innych
4 Sidney N. Siegel (1956), Nonparametric Statistics for łhe Behavioral Sciences, New
York: McGraw-Hill, s. 2-3.
500
badaczy i jest znany. Co więcej, znane rozkłady mogą zostać wykorzystane jako
przybliżenie określonych rozkładów z próby. Na przykład rozkład z próby średnich jest
dobrym przybliżeniem rozkładu normalnego, dlatego można się posługiwać rozkładem
normalnym, gdy testujemy hipotezy dotyczące średnich.
W zamieszczonym niżej omówieniu konkretnych testów będziemy się odwoływać do
istniejących rozkładów z próby, które zostały wcześniej skonstruowane, lub do tych, które są
dobrym przybliżeniem potrzebnego rozkładu (rozkłady te zostały przedstawione w dodatkach
od E do I).
Wybrane testy parametryczne
Różnica pomiędzy średnimi. Wiele hipotez stawianych w badaniach empirycznych
dotyczy porównania różnych populacji. Na przykład, aby oszacować związek pomiędzy klasą
społeczną a sposobem głosowania, można porównać różne klasy społeczne pod kątem
właściwego dla nich wzorca głosowania. Podobnie, porównując Amerykanów pochodzenia
azjatyckiego i hiszpańskiego ze względu na ich osiągnięcia, wiążemy ze sobą pochodzenie
etniczne i osiągnięcia.
Jeżeli badana zmienna zależna została zmierzona na skali interwałowej, to aby
odzwierciedlić wielkość związku pomiędzy dwiema zmiennymi, możemy porównać ze sobą
średnie (por. rozdział 16). Chcąc ocenić istotność różnicy pomiędzy średnimi, będziemy
stosować test istotności różnic pomiędzy średnimi.
Aby zilustrować proces testowania hipotez dotyczących istotności różnic pomiędzy
średnimi, skorzystajmy z danych przedstawionych w tabeli 19.4. Dane te dotyczą wyników
uzyskanych na skali postaw wobec roli płci w dwóch grupach: kobiet wyznania
ewangelickiego i kobiet wyznania nieewangelickiego. Zgodnie z literaturą ewangeliczki
rzadziej akceptują kobiety feministki niż nieewangelicz-ki5. Wyższy średni wynik wskazuje
na bardziej feministyczną postawę wobec roli pici. To zaś pozwoliło sformułować
następującą hipotezę badawczą: H^.fii >iu2, gdzie fii oznacza średni wynik w populacji
kobiet nieewangeliczek, afi2 średni wynik w populacji kobiet ewangeliczek. Hipoteza zerowa
będzie zatem sformułowana w postaci braku różnic pomiędzy średnimi wynikami w obu
populacjach, czyli H0:fi]=fi2-
Tabela 19.4. Średnie wyniki na skali postaw wobec roli płci dla kobiet ewangeliczek i
dla pozostałych kobiet (dane hipotetyczne)
Ewangeliczki Pozostałe
n 126 101
X 3,60 6,\0
s 3,04 4,52
Analiza danych pozwala stwierdzić, że różnica pomiędzy średnimi w dwóch próbach
wynosi 2,50 (6,10-3,60). Chociaż kierunek różnicy jest zgodny z oczekiwaniami, jednak
musimy określić — w ramach założeń — prawdopodobieństwo
5 Clyde Wilcox, Elizabeth Adeli Cook (1989), Evangelical Women and Feminism:
Some Additional Evidence, „Women and Politics", 9, s. 27-49.
501
pojawienia się hipotezy zerowej. Jeżeli — zakładając, że średnie populacyjnej
identyczne — taka różnica jest mało prawdopodobna, to hipotezę zerową powinnM my
odrzucić.
Wybór rozkładu z prób}' do testowania różnicy pomiędzy średnimi zależyoifl
wielkości próby. Jeżeli próba jest większa niż 30 (n > 30), to rozkład z próby różnił pomiędzy
średnimi jest w przybliżeniu rozkładem normalnym. Możemy zatem jato I model statystyczny
wykorzystać krzywą normalną (por. dodatek E). Procedurajofl podobna do tej, którą
stosowaliśmy przy szacowaniu średnich z populacji (por.roł dział 8). Możemy dokonać
transformacji różnic pomiędzy średnimi na wyniki sław dardowe Z i następnie — odwołując
się do krzywej normalnej — określić prawtw podobieństwo jej pojawienia się. Dla testu
dwustronnego, przy poziomie istotności I równym 0,05, wyrażony w wartościach Z obszar
krytyczny obejmuje wszystkie doB datnie wyniki równe 1,96 i powyżej oraz wszystkie
ujemne wyniki równe 1,96 i p«J niżej. Prawdopodobieństwo pojawienia się tych wyników
wynosi 0,025. Dla testu I jednostronnego natomiast obszar krytyczny obejmuje wszystkie
dodatnie wyniki ró-; I wne 1,64 i powyżej lub wszystkie ujemne wyniki równe —1,96 i
mniej. Gdy zaś I poziom istotności wynosi 0,01, to wartości Z wynoszą odpowiednio: ±2,58 i
±2,3311
Chcąc przetestować hipotezę zerową dotyczącą różnic w postawach na tema roli płci,
możemy wybrać test prawostronny, ponieważ Ht jest hipotezą kierunkową, w której
przyjmuje się duże wartości. Wybrany poziom istotności wynosi 0,01, I dlatego każda
wartość większa niż 2,33 będzie prowadzić do odrzucenia hipotezy I zerowej.
Aby — wykorzystując krzywą normalną — określić istotność różnic pomiędzy I
średnimi, musimy przekonwertować tę różnicę na wyniki standardowe. Konwersji I tej można
dokonać, posługując się testem statystycznym znanym jako test t.
^(g.-lj-fr,-^ (I91J
AI A2
gdzie X, — X2 — różnica pomiędzy średnimi z próby, /z, — /n2 — średnie rozkładu I
z próby różnic między średnimi, Oxx-x^ — oszacowanie błędu standardowego6 roz-1 kładu z
próby różnic między średnimi. Podobnie jak wyniki Z, również wartości j testu t podają
wielkość odchylenia od średniej w terminach jednostek odchylenia I standardowego; Xt —
X2 zastępuje X, fi, — ju2 zastępuje X, a a zastępuje s. Nie mo- I żerny jednak obliczyć
wartości Z, ponieważ wariancje dwóch populacji (o\ i o]) nie są znane. Dlatego test t
zastępuje wyniki Z zawsze wtedy, gdy wariancje z próby (s\ i $§) są wykorzystywane do
oszacowania parametrów populacji. Ponieważ wa- j riancje populacyjne prawie nigdy nie są
dostępne, przeto — dla wszystkich celów praktycznych — wykorzystuje się statystykę t jako
metodę przekształcania różnic między średnimi na wyniki Z. Kiedy n > 30, wartości
statystyki t mają rozkład j normalny. Gdy więc wielkość każdej próby jest większa od 30,
możemy się posługiwać rozkładem normalnym. Natomiast gdy n < 30, przybliżenie do
rozkładu normalnego nie jest właściwe i powinniśmy się posługiwać statystyką t.
b Błąd standardowy jest równy odchyleniu standardowemu rozkładu z próby (por.
rozdziat 8. w którym omawiamy to pojęcie).
502
Błąd standardowy (ó> _*) możemy oszacować na dwa sposoby. W pierwszej metodzie
przyjmuje się, że dwie wariancje populacyjne są równe — np. o\-a\ — co pozwala na
połączenie dwóch wariancji z próby w jedną łączną miarę a, czy a2. Przy tych założeniach
błąd standardowy

<Vx, = V-Jt-----~ \-----", (19.2)


gdzie n, i n2 to odpowiednio liczebności próby 1 i próby 2, a s] i Sj to wariancja w
próbie 1 i wariancja w próbie 2.
Jeżeli nie ma podstaw, aby przyjąć założenie, że wariancje w populacji są identyczne,
to nie ma możliwości łączenia wariancji z próby. W takim wypadku dokonamy niezależnego
oszacowania obu wariancji, a wzór pozwalający obliczyć błąd standardowy będzie miał
następującą postać:

T + -±-. (19.3)
1 n-,-1
Aby znaleźć wartość t dla danych przedstawionych w tabeli 19.4, przyjęliśmy, ka]=ol,
i obliczyliśmy łączne oszacowanie błędu standardowego:
J(101)(4^27T(T26)(3,04)2 1101 + 126
Oy _ y -\\ ------------------------------- \i------------- = 0,50.
x' *2 i 101 + 126-2 H101)(126)
Ponieważ w hipotezie zerowej przyjęliśmy, że/*, =,m2, więc wzór definicyjny f
można sprowadzić do postaci:
Al At
t = -------L (19.4)
Oxt~X2
W naszym przykładzie zatem otrzymamy:
_6,1 -3,6 _ 2,5 0,50 ~ (X50 "
Gdy odwołamy się do rozkładu normalnego (dodatek E), przekonamy się, że wartość t
jest większa niż wartość tego rozkładu potrzebna do odrzucenia hipotezy zerowej (2,33) na
poziomie istotności równym 0,01. Innymi słowy, jest raczej mało prawdopodobne, by różnica
pomiędzy średnimi z próby w grupie ewangeliczek i nie-ewangeliczek powstała jako wynik
błędu pomiaru. Przeto odrzucamy H0 i przyjmujemy, że różnica pomiędzy średnimi
odzwierciedla różne postawy wobec roli płci.
Rozkład t. Jeżeli jedna lub obie próby są mniejsze niż 30, to krzywa normalna nie jest
dobrym przybliżeniem rozkładu z próby różnic między średnimi. Czasem więc
503
posługiwanie się krzywą normalną do określania prawdopodobieństwa Hf) będzie
prowadziło do błędnych wniosków. Należy wówczas posłużyć się rozkładem /. Rozkład t jest
rodziną krzywych, z których każda jest determinowana przez wielkość próby. I tak, rozkład t
jest inny dla próby równej 7, a inny dla próby równej 10. Rozkład t z próby przedstawiono w
dodatku F. Wartości rozkładu zostały przedstawione dla różnych poziomów istotności (test
jednostronny i dwustronny) oraz dla różnych wartości stopni swobody.
Stopnie swobody. Pojęcie stopni swobody (df) jest podstawowym pojęciem, którym
się posługujemy w wypadku wielu testów statystycznych, w tym także testem t stosowanym
wtedy, gdy nie możemy wykorzystać krzywej normalnej. Jeśli posługujemy się krzywą
normalną, to nasze obliczenia oparte są na ogólnej liczebności próby (AO, a kształt krzywej
jest zawsze taki sam. Jeśli do testowania hipotez wykorzystujemy inne rozkłady, to musimy
skorygować wielkość próby, aby odzwierciedlić ograniczenia wynikające z dokonanego przez
nas wyboru przypadków tworzących próbę. Jest to konieczne, albowiem kształt rozkładu
zmienia się wraz z liczbą przypadków włączonych swobodnie do próby. Stopnie swobody
określają liczbę swobodnych wyborów, w sytuacji gdy tworzymy rozkład z próby przez
powtarzanie losowego doboru próby, i pokazują dopasowanie do wielkości próby. Aby
obliczyć stopnie swobody, musimy znać wielkość próby oraz wiedzieć, czy istnieją
ograniczenia nałożone na dobór przypadków do próby. Otrzymujemy je, odejmując od
ogólnej liczebności próby liczbę ograniczeń nałożonych na nasze wybory.
Przypuśćmy na przykład, że mamy wybrać jakieś dwie liczby ze zbioru liczb od 1 do
10. W tym wypadku wielkość próby wynosi dwa i nie ma żadnych ograniczeń nałożonych na
liczby, jakie możemy wybrać. Liczba stopni swobody wynosi zatem 2 (2 przypadki — 0
ograniczeń = 2df). Przypuśćmy dalej, że z tego samego zbioru mamy wybrać dwie liczby,
których suma będzie wynosiła 10. Wprowadziliśmy teraz ograniczenie na to, jakie liczby
możemy swobodnie wybierać. Pierwszą z liczb można wybrać bez ograniczeń, natomiast
jesteśmy zupełnie pozbawieni tej swobody w wypadku drugiej liczby. Jeżeli pierwszą liczbą,
którą wybierzemy, będzie 10, to draga liczba musi wynosić 0, a liczba stopni swobody będzie
się równać 1 (2 przypadki — 1 ograniczenie = \df). Liczba stopni swobody dla rozkładu t jest
ograniczona tym, że dla każdej próby musimy oszacować wariancję w populacji, dlatego w
każdej próbie możemy swobodnie wybierać tylko n - 1 wielkości (1 ograniczenie w każdej
próbie). Jeżeli wykorzystujemy rozkład t do testowania hipotezy o różnicy między dwiema
próbami, to ogólną liczbę stopni swobody określamy, dodając stopnie swobody dla dwóch
prób. Wtedy df równa się: («, — \) + (n2 — 1) = «, + n2 - 2.
Aby zilustrować sposób posługiwania się wartościami z tablicy wartości t,
przetestujmy hipotezę dotyczącą związku pomiędzy osiągnięciami studentów a ścieżką
edukacyjną wybieraną w szkole średniej. Potrzebne dane zostały przedstawione w tabeli 19.5.
Naszym zdaniem osiągnięcia i ścieżka edukacyjna są ze sobą powiązane w taki sposób, że
wśród osób realizujących ścieżkę przygotowującą do college^ jest więcej osób mających duże
osiągnięcia niż wśród osób, które nie realizowały tej ścieżki. Testowana hipoteza zerowa
zakłada, że średnie dwóch populacji są identyczne, a hipoteza badawcza przyjmuje, że średnia
osiągnięć w grupie osób realizujących ścieżkę przygotowującą do college'u (a,) jest wyższa
niż wśród osób, które nie realizowały tej ścieżki {/j,2):
504
H0: [ix=[x2
Korzystając z równań (19.2) i (19.4), możemy obliczyć błąd standardowy oraz wartość
testu t:
Jl3(23,6)2 + 6(12,2)\|l3T6
CTy _y = V ------------------------------ V--------- = 10,8,
x< *2 ' 13 + 6-2 M3(6)
48,3 - 20,5 27,8
t = —----------- = ~ = 2,574.
10,8 10,8
Otrzymaną wartość t należy porównać z odpowiednią wartością rozkładu t z próby.
Liczba stopni swobody dla prób o liczebności 13 i 6 wynosi 17 (13 + 6-2). Dla testu
jednostronnego (prawostronnego), na poziomie istotności równym 0,01 wartość t, przy której
odrzucimy H0, wynosi 2,567. Istnieje znikome prawdopodobieństwo uzyskania wartości t
większej niż 2,567, jeżeli hipoteza H0 jest prawdziwa. Ponieważ wartość otrzymana t równa
2,574 jest większa niż wartość 2,567, możemy odrzucić hipotezę zerową i przyjąć, że różnica
osiągnięć w dwóch różnych ścieżkach edukacyjnych jest istotna statystycznie.
Tabela 19.5. Średnie wyniki na skali osiągnięć w grupie studentów realizujących
ścieżkę przygotowującą do college'u i w grupie studentów, którzy nie realizowali tej ścieżki
Ścieżka przygotowująca Ścieżka nie przygotowująca
do college'u do colIege'u
n 13 6
X 48,3 20,5
s 23,6 12,2
Test istotności dla współczynnika r Pearsona. Współczynnik korelacji r Pearso-na —
podobnie jak X, Md czy b — jest statystyką otrzymaną dla danych z próby. Jest zatem
oszacowaniem odpowiedniego parametru w populacji. Współczynnikowi r Pearsona
odpowiada współczynnik korelacji w populacji określany jako p czy inaczej ro. Podobnie jak
w innych statystykach z próby, wartość r również podlega wahaniom próby. Statystyczny test
istotności współczynnika korelacji polega na oszacowaniu prawdopodobieństwa, z jakim
otrzymaną wartość współczynnika korelacji można przypisać błędowi próby. Na przykład
możemy testować hipotezę, że liberalizm jest skorelowany z dochodami, pobrać próbę losową
liczącą 24 osoby i otrzymać współczynnik korelacji równy 0,30. Jest prawdopodobne, że obie
te zmienne nie są wcale ze sobą skorelowane w populacji i że otrzymany współczynnik
będzie rezultatem działania błędu losowego. Innymi słowy, czy wartość r równa 0,30 jest
wystarczająco duża, aby można było przyjąć, że hipoteza o braku zależności między
zmiennymi jest bardzo mało prawdopodobna?
505
Strategia testowania takiej hipotezy jest podobna do tej, którą wykorzystaliśfł w teście
różnicy między średnimi. W hipotezie zerowej przyjmujemy, że wspfl czynnik korelacji w
populacji wynosi 0, a w hipotezie badawczej, że jest różny odB
Ha:p=0, #,:/>* 0.
Testowanie istotności r, gdyp wynosi zero. Jeśli w ramach hipotezy zerowej przy- i
jmuje się, żep równa się zero, to możemy przetestować istotność statystyczną r,J dokonując
transformacji wartości r na wyniki standardowe. Transformacji tejmo-j żerny dokonać za
pomocą statystyki t o n-2 stopniach swobody. Test t jest definiowany w sposób następujący:
ryn — 2
Aby zilustrować posługiwanie się testem t do badania istotności statystycznej
współczynnika korelacji r Pearsona, załóżmy, że badając zależność pomiędzy dochodami a
liczbą lat nauki, otrzymaliśmy współczynnik korelacji równy 0,30. Liczebność próby
wynosiła n = 24 (df= 22), a zatem:
0,30 V 22
t= , V == 1,475.
yi-0,302
Korzystając z rozkładu t przedstawionego w dodatku F, widzimy, że dla testu
dwustronnego, na poziomie istotności równym 0,05 i dla df= 22, wartość t upoważniająca nas
do odrzucenia hipotezy zerowej wynosi 2,074. Ponieważ otrzymana wartość t jest mniejsza
od wartości z tablic, zatem nie możemy odrzucić hipotezy zerowej i związek pomiędzy
dochodami a liczbą lat nauki powinniśmy uznać za nieistotny, Możemy również przetestować
istotność współczynnika r, posługując się statystyką znaną jako test F. Statystyka Fjest
zbudowana jako stosunek wariancji wyjaśnionej (r2) do wariancji nie wyjaśnionej (1 — r2).
Jest ona zdefiniowana w postaci równania (19.6), w którym n-2 oznacza liczbę stopni
swobody:
F = —^(n-2). (19.6)
Wykorzystując dane z przykładu dotyczącego dochodów i liczby lat nauki,
otrzymamy:
0,302
Aby ocenić wartość statystyki F, posłużymy się rozkładem F przedstawionym w
dodatku G. Wartości F zostały podane dla cc = 0,05 (jasny druk) i dla a=0,01 (druk
pogrubiony). Stopnie swobody dla wariancji wyjaśnionej (w główce tabeli)
506
są równe liczbie porównywanych grup — 1 (w naszym przykładzie porównywaliśmy
dwie grupy, dlatego liczba stopni swobody wynosi 2—1 = 1). Natomiast liczba stopni
swobody dla wariancji nie wyjaśnionej równa jest n — 2 (w kolumnie po lewej stronie). W
naszym przykładzie wynosi ona 24 — 2 = 22. Hipotezę H0 odrzucimy, jeśli obliczona
wartość F będzie większa lub równa wartości F odczytanej z tabeli. Aby więc ocenić istotność
wartości F = 2,17, wyszukujemy w tabeli wartość Podpowiadającą 1 (na górze tabeli) i 22
(kolumna po lewej Stronie) stopniom swobody. Mamy tam dwie wartości F: F = 4,30 dla a =
0,05 i F = 7,94 dla a = 0,01. Otrzymana wartość F = 2,17 zawsze jest mniejsza od wymaganej
wartości F pozwalającej odrzucić H0. Należy zatem wyciągnąć wniosek, że związek
pomiędzy dochodami a liczbą lat nauki jest nieistotny.
Parametryczne testy istotności
¦ Podstawowe założenia obowiązujące dla testów parametrycznych. Obserwacje
(dane) muszą pochodzić z populacji o rozkładzie normalnym, a badane zmienne powinny być
zmierzone przynajmniej na poziomie in-terwałowym.
¦ Różnica pomiędzy średnimi. Aby ocenić istotność różnicy pomiędzy średnimi
pochodzącymi z różnych populacji, badacze posługują się testem t. Prawdopodobieństwo, że
określona różnica pomiędzy średnimi została spowodowana czynnikami losowymi (gdy
prawdziwa jest hipoteza zerowa), można obliczyć za pomocą wzoru (19.1). Jeżeli można
przyjąć, że wariancje w populacji są równe, to błąd standardowy oblicza się za pomocą wzoru
(19.2). Jeżeli nie ma podstaw do przyjęcia założenia, że wariancje w populacji są takie same,
to obliczając błąd standardowy, trzeba się posłużyć wzorem (19.3). Jeżeli liczebność obu prób
wynosi przynajmniej 30, to aby oszacować wartość f, posługujemy się krzywą normalną.
Jeżeli liczebność którejkolwiek próby jest mniejsza niż 30, to w celu oszacowania wartości t
korzystamy z tablic rozkładu t.
¦ Testy istotności dla współczynnika r Pearsona. Aby ocenić istotność
wspó\cz^m\\Va Yove\acyv, moma s\% postawić, dwoma testami, leżeli w hipotezie
zerowej przyjmuje się, że współczynnik korelacji w populacji wynosi zero (p = 0), to możemy
się posłużyć rozkładem f, a wartość f obliczyć według wzoru (19.5). W celu oceny istotności
współczynnika korelacji możemy również wykorzystać rozkład F. Statystyka F jest
zbudowana na stosunku wariancji wyjaśnionej do wariancji nie wyjaśnionej, a obliczając jej
wartość, korzystamy ze wzoru (19.6).
Wybrane testy nieparametryczne
Test Manna-Whitneya. Jest stosowany wtedy, gdy trzeba przetestować hipotezę
zerową, że dwie próby zostały pobrane z tej samej populacji względem hipotezy badawczej,
że populacje różnią się od siebie7. Jedynym założeniem wymaganym
7 Siegel, Nonparametric Statistics, s. 116-126.
507
w tym teście jest założenie, że dwie próby pobrano niezależnie i losowo, a badanel
zmienne zostały zmierzone przynajmniej na poziomie interwałowym. Przypuśćmy, że
wylosowaliśmy 13 mężczyzn («, = 13) i 14 kobiet («2=14)iB każdej osoby obliczyliśmy
wynik odzwierciedlający jej stopień alienacji.
Próba mężczyzn: 5, 7, 10, 13, 19, 24, 25, 28, 30, 32, 33, 36, 37. Próba kobiet: 1, 3, 4,
6, 9, 12, 14, 15, 17, 18, 20, 21, 22, 23.
Jeżeli przyjmiemy, że populacja kobiet jest identyczna jak populacja meżczya ze
względu na stopień alienacji, to oczekujemy, że wartości otrzymane w dwói próbach będą
podobne. Jeżeli wartości te będą podobne, to mężczyźni powi mieć wyższe wyniki na skali
alienacji w niemal połowie par mężczyzna-kobii W pozostałej części par wyniki kobiet
powinny być wyższe od wyników mężczyzn, Możemy obliczyć liczbę par, w których wyniki
mężczyzn przewyższają wyniki kobiet, i oznaczyć je jako L/, a liczbę par, w których zachodzi
odwrotna relacja, ji U'. Jeżeli hipoteza zerowa o równości populacji jest prawdziwa, to
będziemy oczekiwać, że wartości U i U' będą w przybliżeniu równe8:
H0: U=U',
H,: U* U'.
Aby obliczyć wartość U, możemy się posłużyć następującym równaniem:
n?(n2+ 1) U = ntn2+-~----- -R2, (19.7]
gdzie nx — wielkość 1 próby, n2 — wielkość 2 próby, R2 — suma rang dla próby 2.
Rangi otrzymamy, porządkując wyniki dla wszystkich osób pod kątem ich wielkości. Na
przykład trzy pierwsze kobiety (1, 3, 4) rozpoczną listę, a pierwszy mężczyzna (wynik równy
5) będzie miał rangę równą 4. Mężczyźni otrzymają zatem rangi: 4, 6, 8, 10, 15, 20, 21, 22,
23, 24, 25, 26, 27, a kobiety: 1, 2, 3, 5, 7, 9.11. 12, 13, 14, 16, 17, 18, 19. Aby obliczyć U',
należy odjąć wartość U od ogólnej liczby par:
U' = nxn2 - U. (19.8)
Dla naszych danych zatem:
14(14+1) U= (13)(14) + ~------ 147= 140,
U' = (13)(14) - 140 = 182 - 140 = 42.

8 John H. Mueller, Karl F. Schuessler, Herbert L. Costner (1970), Slatistical


Reasoning in Socio-logy, Boston: Houghton Mifflin, s. 423.
508
dla

Aby określić istotność HQ, należy porównać mniejszą z dwóch wartości U lub U'
zwartością U odczytaną z rozkładu U przedstawionego w dodatku H9. Na poziomie istotności
równym 0,05 wartość U powinna być równa lub mniejsza od 50 (gdy nie przewidujemy
kierunku) i równa lub mniejsza od 56 (gdy przewidujemy kierunek). Zawsze wartość
obliczona (42) jest mniejsza i dlatego możemy odrzucić hipotezę zerową mówiącą o tym, że
mężczyźni i kobiety są w takim samym stopniu wyalienowani.
Wraz ze wzrostem wielkości próby wartości U mają w przybliżeniu rozkład normalny.
Jeżeli każda z prób jest większa od 20, to możemy obliczyć wyniki standaryzowane i
skorzystać z rozkładu normalnego. Wówczas średnia rozkładu z próby
M» =
nxn2
2 '
a błąd standardowy
ott =
Ąnxn2{n^ + n2 + 1) 12

Wartości Z otrzymamy, korzystając z następującego wzoru:


nxn2
U-
Z=
l«iw2(/ii+?h+T
V 19

Test chi-kwadrat (#2). Chi-kwadrat to ogólny test opracowany do oceny, czy — przy
założeniu zbioru założeń teoretycznych — różnica pomiędzy liczebnościami otrzymanymi a
liczebnościami oczekiwanymi jest istotna statystycznie. Test chi--kwadrat stosuje się
najczęściej do analizowania sytuacji, w których dla dwóch zmiennych można zbudować
tabelę dwudzielczą. Dane przedstawione w tabeli 19.6 to przykład, gdy możemy zastosować
test^2. Tabela 19.6 jest tabelą dwudzielczą, a przedstawiono w niej dane z roku 1970 i z roku
1980 dotyczące postaw mężczyzn wobec tradycyjnych ról związanych z płcią. Po
przeliczeniu liczebności na procenty (w nawiasach) widać, że w 1970 roku 69% mężczyzn
było przekonanych, iż lepiej jest, gdy mężczyzna pracuje poza domem, a kobieta zajmuje się
domem i rodziną. W roku 1980 natomiast jedynie 47% mężczyzn podzielało ten pogląd.
Chcielibyśmy się zatem przekonać, czy ta różnica jest istotna statystycznie. W ramach
9 Jeżeli liczebność którejś próby jest mniejsza od 9, to należy zastosować inny rozkład
prawdopodobieństw.
509
hipotezy zerowej przyjmujemy, że nie ma różnic w przekc rażanych w roku 1970 i w
roku 1980. Przyjmując hipotezę czebności oczekiwane i porównujemy je z liczebnościami o
nice pomiędzy liczebnościami otrzymanymi a oczekiwanym miały szansę pojawić się rzadko
(5% czy 1% wszystkich pr; zerową będzie można odrzucić.
Tabela 19.6. Procent mężczyzn opowiadających się w roku 1970 i 1980 roli
mężczyzny
Lepiej, jeżeli mężczyzna realizuje Rok
się poza domem, a kobieta zajmuje się domem i rodziną
1970 i98o
36 (69%) 80 (47%) Nie 16(31%) 90(53%)
Ogółem 52 170
Na podstawie: Jane Riblett Wilkie (1993), Changes in U.S. Men's Altiludes Toward
the Family Pro\ Soviety", vol. 7, nr 2, s. 261-279.
Statystyką, z której skorzystamy, oceniając wielkość tych chi-kwadrat (x2), która jest
definiowana następująco:
Je
gdzie f0 — liczebności otrzymane, fe — liczebności oczekiw komórki obliczyć
liczebności oczekiwane, należy zastosować
(suma w wierszu) (suma w kolumnie^
n
Tabela 19.7 przedstawia liczebności oczekiwane w sytuacji czyzn w stosunku do
tradycyjnych ról związanych z płcią byłyb 1980 i w roku 1970.
Tabela 19.7. Procent mężczyzn opowiadających się w roku 1970 i 1980 za i roli
mężczyzny (liczebności oczekiwane)
Lepiej, jeżeli mężczyzna realizuje się poza domem, a kobieta zajmuje Rok

1970 1980
Tak Nie Ogółem 27 25 52 89 81 170
510
Obliczanie wartości chi-kwadrat (%2). Aby obliczyć wartość ^2, musimy w każdej
komórce odjąć liczebność oczekiwaną od liczebności otrzymanej, różnicę podnieść do
kwadratu i podzielić ją przez liczebność oczekiwaną dla tej komórki. Następnie należy
zsumować wyniki dla wszystkich komórek. Obliczenia te przedstawiliśmy w tabeli 19.8.
Zwróćmy uwagę, że wartość %2 będzie równa zero, jeśli liczebności otrzymane będą równe
liczebnościom oczekiwanym. Im większe więc różnice pomiędzy tym, co obserwujemy, a
tym, czego oczekujemy, tym większe będą wartości L.
Tabela 19.8. Obliczanie wartości x2 dla danych z tabeli 19.6 i 19.7
JO Je Jf) Je '¦/() Je'
36 27 9 81 3,0
16 25 -9 81 3,2
80 89 -9 81 0,9
90 81 9 81 1,0
r=s,i
Aby ocenić wielkość otrzymanej statystyki %\ należy ją porównać z rozkładem z
próby wartości %2 i sprawdzić, czy otrzymana wartość 8,1 jest wystarczająco duża i pozwoli
przyjąć, iż hipoteza zerowa jest mało prawdopodobna. Rozkład z próby wartości %2 został
zamieszczony w dodatku I. Wartości rozkładu zależą od dwóch czynników: poziomu
istotności (a) oraz liczby stopni swobody. Zatem %2 to w rzeczywistości rodzina rozkładów,
z których każdy określany jest przez inne parametry. Wybierzmy, dla naszego problemu,
poziom istotności równy 0,01. Oznacza to, że odrzucimy hipotezę zerową jedynie wtedy, gdy
otrzymamy wartość x2 większą od tej, jakiej oczekiwalibyśmy w nie więcej niż 1 na 100
pobranych prób.
Liczba stopni swobody dla rozkładu %2 z próby jest określana przez liczbę komórek,
dla których możemy swobodnie określić liczebności oczekiwane. Dla każdej tabeli
dwudzielczej liczba arbitralnie wybranych wartoścA w komórkach jest ograniczona przez
sumy brzegowe obu zmiennych. Na przykład dla tabeli 2 x 2 jedynie wartości jednej komórki
mogą się swobodnie zmieniać. Wartości w trzech pozostałych komórkach zależą od sum
brzegowych. Ogólnie rzecz biorąc, liczbę stopni swobody możemy obliczyć, stosując
następujący wzór:
4f=(r-l)(c-l), (19.12)
gdzie r — liczba wierszy, c — liczba kolumn. W związku z tym:
w tabeli 2x2: df=(2-l)(2- 1)=1, w tabeli 3x3: df= (3- 1)(3-1)=4, w tabeli 4x3: df={4-
1)(3- 1) = 6.
511
W dodatku I prawdopodobieństwa — przy założeniu prawdziwości HQ — pfrl dano
na górze tabeli (nazwy kolumn), a liczby stopni swobody w kolumnie po lewa stronie (nazwy
wierszy).
Rozkład %2 z próby jest rozkładem prawoskośnym i osiąga wyższe wartośdl w górnej
części rozkładu (do prawej strony). Dlatego w wypadku testu %~ obszł krytyczny jest
lokowany w górnej części rozkładu.
Nieparametryczne testy istotności
¦ Test Manna-Whitneya. Stosuje się go, gdy dwie próby pobrano niezależnie i losowo,
a badane zmienne zostały zmierzone przynajmniej na poziomie interwałowym. Test Manna-
Whitneya polega na porównywaniu par obserwacji w celu przetestowania hipotezy zerowej
mówiącej o tym, że dwie próby pochodzą z tej samej populacji, wobec hipotezy badawczej,
że badane populacje się różnią. Dane otrzymane dla każdej próby porządkuje się ze względu
na ich wielkość, a następnie ranguje się cały zbiór danych. Jeżeli wielkość obu prób jest
mniejsza od 20, to wartość statystyki L/i U' oblicza się za pomocą wzoru (19.7) i (19.8). Aby
podjąć decyzję w stosunku do hipotezy zerowej, należy porównać mniejszą z dwóch wartości
U lub U' z wartością krytyczną U odczytaną z tablic (patrz dodatek H). Wartość krytyczną
odczytuje się dla danej wielkości prób oraz dla wymaganego poziomu istotności. Jeżeli
wartość U lub U' będzie mniejsza od wartości odczytanej z tablic, to odrzucimy hipotezę
zerową. Jeżeli wielkość którejkolwiek próby będzie większa niż 20, to możemy obliczyć
wyniki standardowe jako wartość statystyki i dalej posłużyć się rozkładem normalnym.
¦ Test chi-kwadrat. Stosuje się go dla zmiennych nominalnych, jeśli badane zmienne
zostały umieszczone w tabeli dwudzielczej. Za pomocą testu X określa się, czy różnica
pomiędzy liczebnościami otrzymanymi a oczekiwanymi jest istotna statystycznie. Wartość
chi-kwadrat oblicza się za pomocą wzorów (19.10) i (19.11). Posługując się rozkładem chi--
kwadrat, ustalamy — korzystając z dodatku I — minimalną wartość tej statystyki niezbędną
do odrzucenia hipotezy zerowej. Wartość minimalną odczytujemy, znajdując wiersz
odpowiadający właściwej liczbie stopni swobody i kolumnę odpowiadającą założonemu
poziomowi istotności. Otrzymaną wartość chi-kwadrat należy następnie porównać z wartością
minimalną. Jeżeli wartość otrzymana jest większa, to mamy podstawy do odrzucenia hipotezy
zerowej.
W naszym przykładzie przy df= 1 i poziomie istotności równym 0,01 wartość
odczytana z tablic wynosi 6,635, co wskazuje, że wartość 6,635 pojawi się w 1% pobranych
prób. Otrzymana wartość równa 8,1 jest większa od 6,635 i jest bardzo mało prawdopodobna
przy założeniu prawdziwości H0. Gdybyśmy jednak wybrali mocniejszy poziom istotności —
na przykład 0,001 (x2~ 10,827) — to nie byłoby
512
podstaw do odrzucenia hipotezy zerowej. Poziom istotności wybiera się zazwyczaj
przed obliczeniem wartości statystyki. Wybiera się go, uwzględniając konsekwencje
popełnienia błędu I i II rodzaju. W naukach społecznych większość badaczy decyduje się na
poziom istotności równy 0,05 lub 0,01. Przyjmując tę zasadę, możemy odrzucić hipotezę
zerową, że postawy mężczyzn wobec tradycyjnych ról związanych z płcią były takie same w
roku 1970 jak i roku 1980.
¦ Podsumowanie
1. Wnioskowanie statystyczne to procedura pozwalająca badaczowi podjąć decyzję na
podstawie danych z próby, którą hipotezę dotyczącą parametrów populacji może on wybrać.
2. Pierwszym krokiem w testowaniu hipotezy jest sformułowanie jej w terminach
statystycznych. Hipoteza statystyczna zawsze dotyczy badanej populacji. W procesie
testowania hipotez uwzględnia się dwie hipotezy. Pierwszą jest hipoteza badawcza,
oznaczana jako //,. Druga oznaczana jako H0, jest hipotezą zerową, która jest niezbędna z
powodów logicznych. Hipoteza zerowa jest testowana bez-"ośrednio. Jeżeli hipoteza zerowa
zostanie odrzucona jako mało prawdopodobna, to przyjęta zostanie hipoteza badawcza.
3. Potrzeba formułowania dwóch hipotez wynika z konsekwencji logicznych.
Hipoteza zerowa wymaga wnioskowania negatywnego, aby wyeliminować błąd
potwierdzania rezultatu. Innymi słowy, badacz powinien raczej wyeliminować hipotezę
fałszywą, niż potwierdzać hipotezę prawdziwą.
4. Po sformułowaniu określonej hipotezy zerowej należy ją przetestować w świetle
otrzymanych danych. Testowanie polega na porównywaniu wyniku otrzymanego z próby z
modelem statystycznym podającym prawdopodobieństwo pojawienia się takiego rezultatu.
Taki model statystyczny nazywany jest rozkładem z próby. Rozkład z próby danej statystyki
otrzymuje się, pobierając dużą liczbę tak samo licznych prób losowych z określonej
populacji. Dla każdej próby trzeba obliczyć wartość statystyki, a otrzymane wartości
przedstawia się graficznie w postaci rozkładu częstości wartości tej statystyki.
5. Rozkład z próby pozwala oszacować prawdopodobieństwo otrzymania wartości
statystyki z próby. Prawdopodobieństwo to nazywane jest poziomem istotności, inaczej a,
które jednocześnie jest prawdopodobieństwem odrzucenia hipotezy prawdziwej (błąd I
rodzaju). Jeżeli — przy założeniu prawdziwości hipotezy zerowej — prawdopodobieństwo
otrzymania danej wartości z próby jest bardzo małe, to odrzucamy H0 i zwiększamy pewność
co do prawdziwości hipotezy badawczej.
6. Testuj •5,VdX^'i\>)cme, Azteląs\ę, war. testy parametryczne i testy
nieparametryczne. Test parametryczny jest testem statystycznym opartym na kilku
założeniach dotyczących parametrów populacji, z której pobrano próbę. Jednym z
najważniejszych założeń jest założenie mówiące o tym, że dane pochodzą z populacji o
rozkładzie normalnym i że badane zmienne zostały zmierzone przynajmniej na poziomie
interwalowym. Test nieparametryczny natomiast to taki test, którego model nie wymaga, aby
populacja miała rozkład normalny, nie wymaga też pomiaru na poziomie interwalowym.
Testy różnicy pomiędzy średnimi i test istotności współczynnika r Pearsona to testy
parametryczne. Test Manna-Whitneya oraz test chi-kwadrat to nieparametryczne testy
istotności.
513
¦ Podstawowe terminy
błąd próby 494 błąd I rodzaju 499 błąd II rodzaju 499 hipoteza badawcza 493 hipoteza
zerowa 493 obszar odrzucenia 496 poziom istotności 496 rozkład z próby 494 stopnie
swobody 504
test chi-kwadrat 509
test dwustronny 498
test jednostronny 498
test Manna-Whitneya 507
test nieparametryczny 500
test parametryczny 500
test istotności różnic pomiędzy średnimi 501
test t 504
testowanie hipotez 492
Pytania sprawdzajgce
1. Omów rolę hipotezy zerowej i hipotezy badawczej z punktu widzenia logiki
testowania hipotez.
2. Jaka jest różnica pomiędzy wybraniem poziomu istotności wynoszącego 0,50 a
równego 0,05?
3. Jaka jest różnica pomiędzy testem jednostronnym a dwustronnym?
4. Pokaż w postaci diagramu różnicę pomiędzy błędem I i II rodzaju.
5. Określ różnice pomiędzy testami parametrycznymi a testami nieparametrycznymi.
Ćwiczenia komputerowe
1. Posługując się plikiem GSS czy innym plikiem danych, oblicz statystykę chi-
kwadrat dla dwóch zmiennych nominalnych (skorzystaj z modułu STA-TISTICS w
połączeniu z procedurą CROSS-TABS). Czy otrzymany przez ciebie związek jest istotny
statystycznie? Uzasadnij odpowiedź (por. dodatek A, s. 533).
2. Wykorzystując test t, zbadaj różnicę pomiędzy średnimi obliczonymi dla dwóch
zmiennych interwałowych, gdy zmienną grupującą jest zmienna nominalna. Czy różnica ta
jest istotna statystycznie i na jakim poziomie? Czy I zastosowałeś test jednostronny czy
dwustronny? Dlaczego?
¦ Literatura dodatkowa
Blalock H.M. (1975), Statystyka dla socjologów, Warszawa: PWN.
Brzeziński J. (1997), Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd.
Nauk. PWN. Ferguson G.A., Takane Y. (1997), Analiza statystyczna w psychologii i
pedagogice. Warszawa: Wyd Nauk. PWN.

DODATEK A: WSTĘP DO SPSS*


Claire L. Felbinger, Stephen F. Schwełgien
Pakiet Statystyczny dla Nauk Społecznych (Statistical Package for the Social Sciences
— SPSS) wersja 4 jest jednym z najbardziej popularnych ogólnie dostępnych programów
przeznaczonych do przygotowywania i wykonywania komputerowych analiz danych. SPSS
został zaprojektowany specjalnie do analiz danych w naukach społecznych i zawiera
większość procedur, jakimi posługują się badacze reprezentujący te dyscypliny naukowe.
Wszystkie opisane w tym tekście procedury analizy danych można wykonać za pomocą
programów SPSS. Badacze społeczni cenią w szczególności łatwość, z jaką program radzi
sobie z wymogami, które stale powtarzają się w trakcie analizy danych. I tak na przykład
SPSS pozwala na przeko-dowywanie zmiennych, na rozwiązywanie problemu brakujących
danych, na dobieranie, selekcję i ważenie obserwacji, na obliczanie nowych zmiennych i na
dokonywanie stałych albo tymczasowych przekształceń (transformacji).
W niniejszym dodatku zostaną zaprezentowane narzędzia potrzebne do utworzenia
pliku oraz do wykonania podstawowych analiz w pakiecie SPSS. Tekst ten nie jest w żadnej
mierze ani wyczerpującym opisem dużej różnorodności dostępnych programów, ani
przewodnikiem po bardziej skomplikowanych typach analizy danych, które można wykonać
za pomocą SPSS. Odwołamy się tu tylko do tych przykładów, które odpowiadają zakresowi
zagadnień omówionych w niniejszej książce. By zasięgnąć informacji o innych dostępnych
procedurach oraz zapoznać się z bardziej szczegółowym opisem tych programów, które
zostały omówione w ni-
• W Polsce dostępna jest, aktualnie (sierpień 1999), wtórna wersja pakietu SPSS
obejmująca następujące moduły:
• Base System 8.0(1998)
• Professional Statistics 7.5 (1997)
• Advanced Statistics 7.5 (1997)
• Tables 8.0 (1998)
• Categories 8.0 (1998)
• AMOS
• Missing Value Analysis 7.5 (1997)
• AnswerTree 2.0(1998)
• Exact Tests 7.0 (1997)
• Trendsó.l (1994)
• Conjoint 8.0 (\997)
• Data Entry Builder
• Data Entry Station
• Sample Power 1.0 (1997)
• TextSmart
• Remark Office OMR
• GoldMiner
• Graphics 8.0(1998)
• TrialRun 1.0(1997)
• Wes Var Complex Samples 3.0 (1998)
Pakiet dostępny jest w: SPSS Polska Sp. z o.o., ul. Królewska 57, 30-081 Kraków,
tel./fax (12) 6369680, 6360791, 6364535 (przyp. red. nauk.).
515
niejszym dodatku, należy odwołać się do odpowiedniego podręcznika użytkownika
SPSS1.
Trzy główne środowiska, w których pracuje SPSS, to komputer główny, K| oraz
Windows. Oprócz pełnej wersji programu istnieją również jego skrócone vnT sje studenckie
(Studentware) na PC i dla Windows. W niniejszym dodatku omawiając przykłady,
odwołujemy się do działania wersji pełnych. Można jednak. po| uwzględnieniu niewielkich
poprawek, używać pakietów dla studentów, poniewf wersje studenckie tym tylko różnią się
od wersji profesjonalnych, że zawierają mniej programów, pozwalają na analizowanie
mniejszych macierzy danych i obejmują mniejszą liczbę opcji. Wszystkie opisane poniżej
procedury mogą zostać przeprowadzone za pomocą studenckiej wersji pakietu. Jako że
operacje i komendy używane w komputerze głównym są bardziej zbliżone do środowiska PC
niż środowisko PC do Windows, najpierw omówimy aplikacje dla komputera głównego
(SPSS) i PC (SPSS PC+), później zaś jego adaptacje dla Windows.
Grupa danych wykorzystanych w przykładach, które zostaną przedstawione na
dalszych stronach niniejszego tekstu, pochodzi z Generalnego Sondażu Społecznego (GSS) z
roku 1993. [Klucz kodowy dla zbioru wykorzystanych zmiennych znaleźć można w
przykładzie A.l, który został zamieszczony na końcu tego dodatku (s. 563-567)].
GSS bada problemy społeczne i zdefiniowane wskaźniki społeczne oraz ich
zmienność w czasie. Pierwszy pomiar został przeprowadzony w 1972 roku. W następujących
po sobie kolejnych badaniach zastosowano pytania stałe (pojawiające się w każdym badaniu),
rotacyjne (pojawiające się w dwóch spośród trzech badań) albo okazjonalne (pojawiające się
w pojedynczym badaniu). Dane gromadzono, przeprowadzając wywiady z osobami, które
skończyły co najmniej 18 lat, posługiwały się językiem angielskim, nie były pensjonariuszami
domów pomocy społecznej ani innych podobnych instytucji i mieszkały na terenie Stanów
Zjednoczonych. Dla potrzeb analiz przedstawionych w niniejszym tekście wylosowano próbę
liczącą 1500 respondentów. Jak łatwo można się zorientować, analizując książkę kodów,
autorzy wybrali pytania demograficzne, pytania o opinie respondentów na temat działalności
rządu oraz pytania o poczucie osobistego szczęścia. Zebrane dane zostaną tu wykorzystane do
przedstawienia sposobu, w jaki badacze zaangażowani w realizację projektu badawczego
tworzą plik SPSS, czyszczą dane i wykonują procedury statystyczne. Podsumowując to, co
zostało do tej pory powiedziane, dane zostaną przygotowane w formie czytelnej dla
komputera (patrz rozdział 14), będą wyczyszczone poprzez analizowanie rozkładów
jednowymiarowych (rozdział 15), zostaną wykorzystane do wykonania rozkładów
dwuwymiarowych (rozdział 16) i wielowymiarowych (rozdział 17) procedur testowania
hipotez (rozdział 19) i konstrukcji skal (rozdział 18).
1 Marija J. Norusis/SPSS Inc., SPSS Base System User's Guide (Chicago: SPSS Inc.,
1990), Nora-sis/SPSS Inc., SPSS PC+ Base System User's Guide Version 5 (Chicago: SPSS
Inc., 1992), Nora-sis/SPSS Inc., SPSS Base System Syntax Reference Guide (Chicago: SPSS
Inc., 1993).
516
¦ Wersje dla komputera głównego i dla PC
Przygotowanie danych
Kwestie związane z przygotowywaniem danych zostały omówione w rozdziale 14.
Dane mogą być przygotowane i przechowywane na taśmie lub na dysku (w komputerze
głównym) albo na dyskietce lub dysku twardym (na PC). Dane surowe można wprowadzać w
dwojakiego rodzaju formacie: ze standardowej ścieżki tekstowej lub z arkusza danych.
Standardowe pliki tekstowe. Dane wprowadzane ze standardowego pliku tekstowego
można zaimportować z pliku utworzonego za pomocą procesora lub edytora tekstowego lub
też można je wpisać bezpośrednio do programu przy użyciu wewnętrznego edytora SPSS. W
wersji SPSS PC+ do utworzenia zbioru danych można użyć edytora REVIEW.
Najłatwiejszym sposobem formatowania danych jest wykorzystanie formatu ustalonego. W
najprostszym przypadku rejestracji danych w tym formacie wszystkie informacje dotyczące
jednej obserwacji zawarte będą w jednym wierszu. SPSS traktuje ten wiersz jako rekord. W
formacie ustalonym wartości tej samej zmiennej dla wszystkich obserwacji umieszczone są w
tej samej kolumnie. Itak na przykład zbiór GSS wykorzystany w niniejszym dodatku zawiera
1500 obserwacji, a na jedną obserwację przypada 80 kolumn. Każdy wiersz nazywany jest
rekordem. Zmienna ID (identyfikator) umieszczona została w pierwszych czterech kolumnach
każdego rekordu. Obserwację identyfikuje się, zazwyczaj posługując się numerem, który
zapisuje się na początku zbioru danych (każdy użytkownik doceni użyteczność takiego
sposobu postępowania, gdy będzie „czyścił" dane). Informacja o zmiennej AGE (wiek)
zlokalizowana została z kolei w kolumnach 5 i 6, itd.
Jeśli dane dotyczące jednej obserwacji zawierają więcej informacji, niż może
pomieścić rekord, to należy rozpocząć kolejny rekord, wpisując nową zmienną. Najlepiej
byłoby, gdyby pierwsza zmienna, któta pojawia się w każdym kolejnym rekordzie, była kopią
informacji identyfikacyjnej. Zmienna ta powinna być jednak opatrzona nową nazwą, np. ID2
dla drugiego rekordu i ID3 dla trzeciego. Wszystkie rekordy związane zjedna obserwacją są
uporządkowane i zapisane jeden pod drugim (obserwacja 1, rekord 1; obserwacja 1, rekord 2;
... obserwacja n, rekord ostatni).
Arkusz danych. SPSS został przystosowany do wykorzystania rozpowszechnionych
arkuszy danych poprzez umożliwienie zaimportowania ich bezpośrednio do programu. Można
uporządkować dane tak, by poszczególne wiersze zawierały wszystkie informacje dotyczące
kolejnych obserwacji, poszczególne kolumny zaś wartości kolejnych zmiennych. Na przykład
kolumna A zawierałaby ID dla każdej obserwacji, kolumna B natomiast AGE (wiek) dla
każdej obserwacji itd. Jeżeli w pierwszym wierszu umieścimy nazwy zmiennych i
rozpoczniemy wpisywanie danych dla pierwszej obserwacji w wierszu drugim, to SPSS
przeczyta oraz zarejestruje nazwy zmiennych i odpowiadające im wartości dla każdej
obserwacji. Trzeba się tylko upewnić, czy zawartość arkusza została utrwalona na dysku.
Może bowiem zaistnieć potrzeba odwołania się do niego w trakcie „czyszczenia" danych.
Dostęp do SPSS w komputerze głównym. Aby uzyskać dostęp do wersji SPSS dla
komputera głównego w ośrodku obliczeniowym, trzeba użyć zbioru poleceń
517
znanych jako Job Control Language lub JCL. Komendy te są specyficzne dla sys-1
temu komputera głównego i dla danego ośrodka obliczeniowego. Umożliwiają do-1 stęp do
komputera, inicjują procedury obliczeniowe, zapewniają wolną przestrzel I na dysku lub na
taśmie i uruchamiają pakiet SPSS. Wykonują też inne ważne opera- I cje na zbiorach, które są
niezbędne do wprowadzania danych i zachowywania pli- I ków systemowych. Ponieważ nie
we wszystkich ośrodkach obliczeniowych obo-1 wiązuje ten sam JCL, należy więc
skontaktować się ze specjalistą w danym ośrod- j ku, aby poznać odpowiednie polecenia tego
języka.
Tworzenie pliku systemowego w SPSS
Język SPSS jest logiczny i bardzo prosty. Łatwo można dostrzec, że język, jakim
posługuje się SPSS, oraz nazwy oprogramowanych w pakiecie modeli wychodzą naprzeciw
oczekiwaniom użytkownika. Kiedy na przykład chcemy policzyć częstości dla jednej
zmiennej, posługujemy się procedurą FREQUENCIES (częstości). Jeżeli chcemy utworzyć
listę danych, to określamy ich format, odwołując się do DATA LIST (lista danych). Jednak by
móc swobodnie posługiwać się pakietem SPSS, trzeba zapoznać się z pewną liczbą różnego
rodzaju plików.
1. Pliki poleceń zawierają komendy SPSS, które użytkownik pakietu ma zamiar
uruchomić. Taka sekwencja komend nazywana jest często strumieniem poleceń. Przyjmujemy
tu założenie, że polecenia użytkownika pakietu będą utrwalone w pliku (i że nie będzie on
posługiwał się menu z managera SPSS). Użytkownicy wersji SPSS PC+ mogą użyć
procedury INCLUDE (włącz), aby uruchomić zapisaną w pliku sekwencję poleceń, ale mogą
też uruchomić sek-wencję poleceń wprost z edytora REVIEW.
2. Pliki danych zawierają dane surowe. Dane mogą zostać zapisane przy użyciu
jakiegokolwiek czytelnego dla komputera medium. SPSS może przystosować się do danych
zapisanych w każdej formie. Ponieważ jednak tradycyjnie przy kodowaniu zachowuje się 80-
kolumnowy format, przeto będziemy tego formatu używać i tutaj.
3. Pliki raportów powstają w konsekwencji wykonania przez program sekwencji
komend utrwalonych w pliku poleceń i zawierają wyniki przeprowadzonych procedur. Jest to
raport, który można oglądać na ekranie monitora, albo też wydrukować za pomocą drukarki.
4. Pliki systemowe SPSS zawierają informacje o danych zapisanych w pliku
wyjściowym zdefiniowane poprzez sekwencję poleceń uruchamianą z pliku poleceń. Plik
poleceń używany jest do tworzenia pliku systemowego oraz do wykonywania różnych
transformacji danych utrwalanych później w pliku systemowym. Plik systemowy zawiera
więc słownik definiujący zmienne oraz informacje na temat etykiet, brakujących danych i
innych parametrach zmiennych. Korzystanie z tego właśnie pliku jest dla użytkownika
najbardziej dogodne, ponieważ nie pociąga za sobą konieczności uruchamiania wszystkich
poleceń tworzących plik za każdym razem, gdy chce on korzystać z danych. Wszystkie
informacje na temat sposobu tworzenia pliku są w pliku systemowym zachowane. W czasie
gdy plik systemowy jest używany, nazywamy go plikiem aktywnym.
518
Definiowanie danych i plików. Teraz przedstawimy polecenia, które są potrzebne do
utworzenia pliku systemowego SPSS. Program wykonuje polecenia wiersz po wierszu,
zaczynając od tych, które rozpoczynają się w pierwszej kolumnie każdego wiersza. W
niniejszym tekście polecenia będą zapisywane DUŻYMI LITERAMI. (I tu znowu ustalmy
długość wiersza w pliku poleceń na 80 znaków. Jest to najczęściej używana długość wiersza.
Trzeba jednak pamiętać, że wiele systemów akceptuje i dłuższe wiersze). Do zapisania
polecenia można użyć takiej liczby wierszy, jaka jest konieczna. Pole polecenia to zbiór
kolumn, który zaczyna się od kolumny pierwszej i zawiera polecenia sterujące organizacją
danych, ich modyfikowaniem i wykonywaniem procedur statystycznych.
Wyrażenia, które „określają", co zrobić z poleceniami, znajdują się w polu spe-
cyfikacyjnym. Specyfikacje poleceń nie mogą się pojawić w pierwszej kolumnie. Innymi
słowy, tekst dalszego ciągu specyfikacji polecenia należy przesunąć co najmniej o jedną
kolumnę w każdym następnym wierszu po wierszu, w którym to polecenie się pojawia.
Można więc kontynuować specyfikację polecenia w następnym wierszu, ale trzeba zadbać o
to, by rozpocząć ją w drugiej kolumnie i nie przerywać jej użyciem wyrażenia albo operatora
logicznego (na przykład „and" (i) albo „or" (lub)). Musimy pamiętać, że komputer nie potrafi
ani czytać po angielsku, ani interpretować życzeń użytkownika. Czyta jedynie sygnały
(znaki), na które zosta! zaprogramowany. Dlatego trzeba być ostrożnym i używać słów
kluczowych oraz wyrażeń zgodnie z ich przeznaczeniem. SPSS akceptuje polecenia wpisane
tak małymi, jak i dużymi literami.
W wersji SPSS PC+ wszystkie specyfikacje muszą zostać zakończone kropką (.).
Kropka jest sygnałem dla programu, że bez względu na liczbę wykorzystanych do
dookreślenia polecenia wierszy specyfikacja polecenia została już zakończona.
Pierwszym krokiem w analizie danych jest utworzenie oraz zapisanie (SAVE) pliku
zawierającego nie tylko dane, ale również szczegóły na temat typu zawartych w tychże
danych informacji, lokalizacji zmiennych oraz ich nazw. Jest to plik systemowy. Trzeba
pamiętać, że zmienna musi zostać zdefiniowana, zanim zostanie użyta.
Polecenia. Definicje pliku dostarczają podstawowych informacji o plikach
wykorzystywanych w procesie tworzenia pliku systemowego. Ustalają, gdzie zostały zapisane
dane, gdzie ma zostać zapisany utworzony w konsekwencji uruchomienia sekwencji poleceń
plik systemowy itd. Definicje zmiennej dostarczają z kolei informacji na temat lokalizacji,
struktury i znaczenia danych z pliku wyjściowego. Tabela A.l przedstawia kolejne polecenia
definiujące plik i zmienną rMYnpoYetycinego p\\Yw.
1. TITLE (tytuł). Ta opcja pozwala na nazwanie zbioru poleceń poprzez przypisanie
mu tytułu o długości do 60 znaków. Tytuł ten będzie drukowany na górze każdej strony
raportu.
2. FILE HANDLE (plik obsługi). [Polecenie z wersji SPSS dla komputera głównego].
To polecenie identyfikuje plik, który już został zachowany w komputerze głównym, lub też
plik, który zostanie w nim zachowany w konsekwencji wykonania przez program sekwencji
poleceń zapisanej w pliku poleceń. Wpisywana tu nazwa nie może przekroczyć ośmiu
znaków i musi zaczynać się od litery lub innego symbolu akceptowanego przez komputer lub
przez system w ośrodku ob-
519
liczeniowym. Dysponujemy wystarczającą liczbą wierszy do zidentyfikowana
każdego pliku wykorzystywanego w trakcie uruchamiania sekwencji poleceń bfl względu na
to, czy to będą pliki zawierające dane surowe, czy też pliki systemoł SPSS2. „Specyfikacje
pliku" odnoszą się do tych charakterystycznych dla ośrodki| obliczeniowego określeń, które
definiują pliki zapisane w komputerze głównym|
3. DATA LIST (lista zmiennych). To polecenie, omówione szczegółowo w następnym
punkcie, określa nazwy zmiennych, ich lokalizację, typ danych oraz liczbę rekordów
zapisanych w wyjściowym pliku.
4. MISSING VALUES (brakujące dane). Ta opcja definiuje wartości dla zmiennycli
(maksymalnie trzy), które zostaną oznaczone jako brakujące dane. SPSS automatycznie
zapisuje jako systemowy brak danych wszystkie puste pola arkusza. Polecenie SET (wstaw)
powoduje, że nie tylko puste pola arkusza zostaną potraktowane jako brakujące dane, ale
również te wartości, które zostaną zapisane przez użytkownika jako dookreślenie polecenia
SET. Możliwość zadeklarowania MISSING VALUES umożliwia badaczom tak włączanie do
procedur statystycznych zmiennych zawierających brakujące dane, jak i wyłączanie ich z
kolejnych analiz.
5. VARIABLE LABELS (etykiety zmiennych). Ta opcja pozwala na dodatkowy opis
zmiennych. Rozszerza definiowane w poleceniu DATA LIST nazwy zmiennych, dołączając
do nich etykiety. Jest to opcja bardzo wygodna w użyciu, jeśli nazywamy zmienne,
przydzielając każdej tę samą literę i kolejne numery (np. vi, v2,v3 itd.). Jest to pomocne
również wtedy, gdy interpretujemy wyniki analiz, ponieważ opis etykiety zawsze pojawia się
obok zwykle krótszej nazwy zmiennej. Jak pokazano w tabeli A. 1, format tego polecenia
składa się z VARIABLE NAME (nazwy zmiennej), spacji i opisowej VARIABLE LABEL
(etykiety zmiennej), umieszczonej w pojedynczym lub podwójnym cudzysłowie. Etykietę
poprzedza ukośnik (I), który SPSS interpretuje jako znak, że pojawią się dalsze dookreślenia
polecenia.
6. VALUE LABELS (etykiety wartości). Ta opcja pozwala dołączyć etykietę do
każdej wartości zmiennej. Na przykład, jeżeli dla danej zmiennej wyrażenie „nisko"
zakodujemy jako wartość 1, „średnio" jako wartość 2, a „wysoko" jako wartość 3, to gdy
zmienna ta zostanie wykorzystana w jakiejś procedurze statystycznej w pliku raportów, jej
wartości kodowe zostaną połączone z odpowiadającymi im etykietami. Jeżeli dysponujemy
pewną liczbą zmiennych, których wartości zdefiniowane są jako niskie, średnie i wysokie, to
można je wszystkie kolejno wypisać w pliku poleceń. Można też zmienne sąsiadujące ze sobą
połączyć za pomocą słowa kluczowego TO (do) i przydzielić etykiety wartościom we
wszystkich tych zmiennych równocześnie. Dookreślenia specyfikacji polecenia VALUE
LABELS są poprzedzane ukośnikiem (/). Trzeba zawsze pamiętać, że w SPSS PC+ każda
specyfikacja polecenia musi się zakończyć kropką (.).
7. SAVE (zachowaj). To polecenie umożliwia zachowanie danych i ich etykiet oraz
dokonanych na danych modyfikacji w formie stałego pliku systemowego. Zachowujemy
(SAVE) dane, jeżeli wiemy, że będziemy chcieli wrócić do nich po pewnym czasie.
Eliminujemy w ten sposób wiele czynności związanych z utworzeniem pliku na nowo i
możemy od razu rozpocząć wykonywanie procedur statys-
2 Zauważmy, że niektóre systemy operacyjne wykorzystują do identyfikacji plików
JCL i dlatego niekiedy włączanie FILE HANDLE (plik roboczy) do sekwencji nie jest
potrzebne. Konsultant z ośrodka obliczeniowego udzieli informacji, czy trzeba użyć tego
polecenia, czy też nie jest to konieczne.
520
tycznych, odszukując tylko przedtem zapisany plik za pomocą polecenia FILE
HANDLE i/albo GET. Polecenie GET zostanie krótko opisane w dalszej części niniejszego
tekstu. Określenie MAP (mapa) zapisane przy poleceniu SAVE spowoduje wyświetlenie
kompletnej listy zmiennych w porządku, w jakim zostały one zachowane w pliku. Tak jak to
się dzieje w przypadku hipotetycznego pliku, który utworzy sekwencja poleceń zapisana w
tabeli A.l, skoro raz plik został zapisany (SAVE) pod nazwą określoną w OUTFILE =
specyfikacja, nie będzie już nigdy konieczności definiowania go od początku.
Tabela A.l przedstawia sekwencję poleceń w kolejności, w jakiej zostaną one
włączone do pliku poleceń. Porządek poleceń w SPSS jest stosunkowo elastyczny. Trzeba
jednak pamiętać, że zmienna musi najpierw zostać zdefiniowana, zanim będziemy mogli jej
użyć. Porządek poleceń przedstawiony w tabeli A. 1 jest przykładem sekwencji, która
doprowadzi do utworzenia i zachowania pliku systemowego.
Tabela A.l. Określenie formatu dla poleceń definiujących dane w SPSS
Pole specyfikacji Pole polecenia (ani specyfikacja, ani jej
kontynuacja
(musi rozpoczynać się w kolumnie 1) nie może się pojawić w kolumnie
1)
TTTLE (tytut) Tekst o długości do 60 znaków
FILE HANDLE * (plik roboczy) Specyfikacje pliku obsługi
(dodatkowe pliki obsługi, jeśli jest to konieczne) DATA LIST (lista danych)
FILE = [nazwa]
RECORDS = [N]
/l LISTA ZMIENNYCH, numer kolumny-
-numer kolumny, LISTA ZMIENNYCH2...
[/2.../N...] MISSING VALUES* (brakujące dane) LISTA ZMIENNYCH,
(lista
wartości ,)/[LISTA ZMIENNYCH2 (lista wartości,)] VARIABLE LABELS*
(etykiety zmiennych) NAZWA ZMIENNEJ, 'etykieta,' [/NAZWA
ZMIENNEJ., 'etykieta.,'] VALUE LABELS* (etykiety wartości) LISTA
ZMIENNYCH, wartość, 'etykieta,'
wartość2 'etykieta,' [/LISTA ZMIENNYCH, ...]
[tutaj mogą zostać zamieszczone dodatkowe modyfikacje oraz procedury] SA VE
(zachowaj) OUTFILE = (nazwa)
Opcja
Tylko w wersji SPSS dla komputera głównego
Polecenie DATA LIST (lista danych). Polecenie DATA LIST identyfikuje plik
wyjściowy i określa format pliku oraz liczbę rekordów przypadających na jedną obserwację w
pliku danych zapisanych w formacie ustalonym. SPSS może czytać różne typy plików
danych. Następujący przykład wykorzystujący zbiór danych z GSS wprowadza format
ustalony, o którym była mowa w rozdziale 14:
521
FILE HANDLE GSS93/specyfikacje pliku [komputer główny] DATA LIST FILE =
GSS93 FIXED RECORDS = 1 /l ID 1-4 AGE 5-6 SEX 1...
Wyrażenie FILE (plik), które pojawia się po DATA LIST, wskazuje na plik roboczy
zdefiniowany wcześniej przez polecenie FILE HANDLE w wersji dla k" putera głównego,
natomiast w wersji SPSS PC+ wyznacza nazwę pliku zapisane na dyskietce (np. a:\gss93.dat).
Plikiem roboczym jest plik GSS93.
Słowo kluczowe FIXED (ustalony) oznacza, że dane zapisane są w forma' ustalonym.
W SPSS format ustalony (FIXED) jest formatem domyślnym. Je" specyfikacja formatu nie
pojawi się w pliku komend, to SPSS domyślnie założy, dane są zapisane w formacie
ustalonym.
Wyrażenie RECORDS (rekordy) określa liczbę rekordów, czy też wierszy zwi zanych
z każdą obserwacją w pliku danych o formacie ustalonym. W naszym p"' kładzie w pliku
GSS93 na jedną obserwację przypada jeden rekord.
Pozostałe elementy specyfikacji definiują zmienne. Liczba, która pojawia się ukośniku
(/), oznacza numer rekordu, w którym SPSS ma szukać zmiennych wy~ nionych w dalszej
części specyfikacji. Zmienne zostaną więc odczytane z rekordu numer 1 (jedynego w tym
zbiorze danych). Trzy zmienne, o których mowa w specyfikacji, zostały zapisane w rekordzie
pierwszym i są zlokalizowane w następujących kolumnach: ID (identyfikator) od 1 do 5,
AGE (wiek) w 5 i 6, a SEX (płeć) w 7.
Jak łatwo zauważyć w powyższym przykładzie, każda zmienna ma nazwę
przydzieloną jej za pomocą polecenia DATA LIST. Nazwy zmiennych mogą się składać z co
najwyżej ośmiu znaków i muszą rozpoczynać się literą alfabetu lub znakiem @, # albo $.
Początkujący użytkownicy powinni, jeśli to możliwe, unikać wykorzystywania znaków
specjalnych, ponieważ znaki te stosowane są do szczególnych typów zmiennych. Nazwa
zmiennej powinna być unikatowa. Znaczy to, że dwie zmienne nie mogą się nazywać tak
samo. Jeżeli użytkownik przez pomyłkę będzie chciał nadać dwóm zmiennym tę samą nazwę,
to na monitorze pojawi się komunikat o błędzie. Najlepiej wybierać takie nazwy dla
zmiennych, które odzwierciedlają ich naturę, np. GENDER (płeć), AGE (wiek) czy ID
(identyfikator). Jeżeli nazwa zmiennej będzie unikatowa i jeżeli jej długość nie przekroczy
ośmiu znaków, to program ją zaakceptuje. Można też definiując nazwę, użyć samego
przedrostka (np. Q- dla numerów pytań, a v- dla numerów zmiennych). SPSS będzie wtedy
sukcesywnie przydzielał nazwy zmiennym, dołączając do przedrostka kolejne numery.
Jednym z najprostszych sposobów identyfikowania lokalizacji zmiennych w rekordzie
jest odwołanie się do numeracji kolumn. W omawianym tutaj przykładzie SPSS oczekuje, że
dla każdej kolejnej obserwacji zmienną o nazwie ID odnajdzie w pierwszym rekordzie w
kolumnach od 1 do 4, zmienną o nazwie AGE w tyra samym rekordzie w kolumnach 5 i 6 itd.
Polecenie DATA LIST definiuje tu trzy pierwsze zmienne z książki kodów. Czytelnik może
porównać specyfikację polecenia DATA LIST z informacjami zawartymi w książce kodów w
przykładzie A.l.
Niektóre dane wymagają uwzględnienia dziesiętnych części liczb. Możemy mieć na
przykład do czynienia z procentami zaokrąglonymi do jednego miejsca po przecinku lub z
cenami wyrażonymi w dolarach i centach (dwa miejsca po przecinku). W poleceniu DATA
LIST trzeba wtedy określić, czy odczytanie części dziesiętnych liczb ze zbioru jest zadaniem
pliku poleceń, czy też przecinki zostały po prostu wpi-
522
sanę bezpośrednio do pliku danych. Rozważmy następującą hipotetyczną specyfikację
polecenia:
DATA LIST FILE = HYPSET RECORDS = 2 /l IDNUMBER 1-5 Q2 6-11 Q3 12 12
PCTSPENT 1-3 (!) TOTSPENT 4-9 (2)
Nawiasy występujące w rekordzie drugim po numerach kolumn oznaczają, że zmienna
PCTSPENT została zapisana z dokładnością do jednego miejsca po przecinku, a zmienna
TOTSPENT z dokładnością do dwóch miejsc po przecinku. Dlatego, jeżeli SPSS napotka w
drugim rekordzie sekwencję: 231028954, to przydzieli zmiennej PCSPENT wartość 23,1, a
zmiennej TOTSPENT wartość 289,54. Jeżeli program natrafi w pliku danych na przecinki, to
zignoruje ten fragment specyfikacji, który określa liczbę miejsc po przecinku (liczby w
nawiasach) i postawi przecinek w tym samym miejscu, w którym znajduje się on w pliku
danych (tzn. liczba ze specyfikacji polecenia ulega zatarciu).
SPSS umożliwia też równoczesne zdefiniowanie wielu sąsiadujących ze sobą
zmiennych za pomocą skróconej notacji. Jeżeli na przykład mamy do dyspozycji grupę
zapisanych obok siebie zmiennych, a wartości każdej z tych zmiennych zajmują w pliku
danych taką samą liczbę kolumn (dwie), to możemy nadać im nazwy, posługując się
specyfikacją: /3 VI TO V10 1-20. SPSS nada kolejnym zmiennym nazwy: vi, v2 i tak dalej,
aż do vl0, i będzie szukał każdej z nich w polach złożonych z dwóch kolumn. Rozpocznie od
zmiennej vi, którą odczyta w kolumnach 1 i 2, zakończy zaś odczytaniem z kolumn 19 i 20
wartości dla zmiennej vl0. Innymi słowy, kolumny wyszczególnione w specyTfK&ć^
to^Ymą tonwwg ^&lns\rknL, pomiędzy v zmiennych. Liczba kolumn musi być podzielna
przez liczbę wprowadzanych w specyfikacji zmiennych. Jeżeli czytelnik ma do dyspozycji
pięć zarejestrowanych w jednym wierszu zmiennych opisujących wydatki, a każda z nich
zajmuje taką samą liczbę kolumn, to może, używając wyrażenia SPEND1 TO SPEND5,
przeprowadzić podobną procedurę. SPSS nada kolejnym zmiennym nazwy (SPEND1,
SPEND2 itd.) i przydzieli każdej z nich odpowiednią liczbę kolumn, jeśli oczywiście liczba
kolumn, którą czytelnik poda w specyfikacji, będzie podzielna przez 5. Zauważmy, że w
przypadku wykorzystania skróconej specyfikacji trzeba znać numer ostatniej kolumny w
rekordzie.
Modyfikacje danych i procedury. Kiedy już wyrażone w języku JCL oraz SPSS
informacje potrzebne do zdefiniowania danych zostały zebrane, jesteśmy gotowi do
wykonania ostatniego kroku w procedurze tworzenia pliku. Trzeba teraz tylko przekazać do
komputera instrukcję, co ma zrobić z informacją, której mu dostarczyliśmy. Możemy
uruchomić w programie proces znany pod ogólną nazwą DATA MODIFICATIONS
(modyfikacje danych) lub inny proces określany jako PROCEDURES (procedury).
Ogólnie rzecz biorąc, modyfikacje danych (DATA MODIFICATIONS) stosujemy
wtedy, gdy chcemy danymi manipulować lub je przekształcać. Do procedur (PROCEDURES)
natomiast odwołujemy się wtedy, gdy chcemy policzyć statystyki. Przydatne do naszych
celów dostępne w SPSS techniki modyfikacji danych (DATA MODIFICATION) to
RECODE (rekoduj), COMPUTE (oblicz wartości),
523
IF (jeżeli), SELECT IF (wybierz jeżeli) oraz LIST (listuj), użyteczne zaś procedur* to
FREQUENCIES (częstości), DESCRIPTWE (statystyki opisowe), CROSS-TABS (tabele
krzyżowe), CORRELATIONS (korelacje), SCATTERGRAM (wykres rozrzutu), PARTIAL
CORR (korelacje cząstkowe), RELIABILITY (rzetelność) i REGRESSION (regresja).
Wstępne uruchomienie programu. Wstępne uruchomienie programu powinno mieć cel
dwojakiego rodzaju. Po pierwsze, trzeba stwierdzić, czy dane z pliku wyjściowego zostały
przetworzone na plik systemowy SPSS dokładnie tak, jak zaplanował to użytkownik. Po
drugie, należy sprawdzić, czy w pliku nie pojawiły się przypadkowe i nieprawidłowe kody i
czy w związku z tym nie zachodzi potrzeba uruchomienia procesu weryfikującego. Po
wstępnym uruchomieniu programu SPSS wyświetla tę informację, która w tabeli A.l została
zawarta w wierszu polecenia DATA LIST, Na ekranie monitora pojawi się więc lista
zmiennych, numery rekordów oraz numery kolumn, w których komputer czytał wartości
każdej zmiennej, szerokość pola dla każdej zmiennej oraz odpowiadająca im liczba miejsc po
przecinku. Informacje te trzeba sprawdzić bardzo dokładnie, aby upewnić się, że dane zostały
poprawnie przekształcone w plik systemowy. Jeżeli okaże się, że format danych jest
poprawny, to można przejść do następnego etapu i wprowadzić polecenie PROCEDURES,
aby policzyć FRECjUENCIES lub jednowymiarowe rozkłady dla każdej zmiennej. Raport,
który pojawi się na monitorze w wyniku wykonania przez program tego polecenia, pozwoli
określić, ile poprawek trzeba wprowadzić do danych, zanim będzie można przejść do
uruchomienia procedur statystycznych (patrz rozdział 14).
Ogólny format polecenia FRECjUENCIES przedstawia się w sposób następujący:
FREQUENCIES VARIABLES = NAZWA ZMIENNEJ,, NAZWA ZMIENNEJ2, ... ,
NAZWA ZMIENNEJ,,.
Zmienne wpisane obok siebie mogą zostać tu wprowadzone za pomocą skróconej
formuły NAZWA ZMIENNEJpierwej TO NAZWA ZMIENNEJostalnieJ, wszystkie zaś
zmienne równocześnie można włączyć do analizy, wpisując wyrażenie ALL zaraz za znakiem
równości. Tabela A.2 przedstawia sekwencję poleceń dla danych GSS93 wykorzystaną w
niniejszym przykładzie.
Tabela A.2. Tworzenie systemowego pliku SPSS dla zbioru danych z GSS 1993
TITLE (tytuł)
FILE HANDLE (plik roboczy) FILE HANDLE (plik roboczy) DATA LIST (lista
zmiennych)
[Wstaw tutaj wstępny JCL dla komputera głównego) TWORZENIE PLIKU
SYSTEMOWEGO DLA ZBIORU DANYCH GSS 1993 DATA/[specyfikacja pliku]
GSS93/[specyfikacja pliku] FILE = DATA RECORDS= 1 /l ID 1-4, AGE 5-6, SEX 7, RACE
8, REGION 9, MARITAL 10, EDUC 11-12, DEGREE 13, INCOME 14-15, PARTYID 16,
EQWLTH 17, CAPPUN 18, RACSEG 19, HAPPY 20, HOMOSEX 21, HELPPOOR 22,
HELPNOT23, HELPSICK 24, HELPBLK 25, POLYIEWS 26,
524
NATFARE 27, NATCITY 28, NATRACĘ 29
VARIABLE LABELS (etykiety zmiennych) SEX 'PŁEĆ RESPONDENTA'
/RACE 'RASA RESPONDENTA' /REGION 'REGION STANÓW
ZIEDNOCZONYCH' [Wstaw tutaj etykiety dla kolejnych zmiennych] /NATRACĘ
'POLEPSZENIE WARUNKÓW DLA CZARNYCH OBYWATELI'
VALUE LABELS (etykiety wartości) SEX 1 'MĘŻCZYŹNI' 2
'KOBIETY'
/REGION 0 'NIE USTALONO' 1 'NOWA ANGLIA' 2
'ŚRODKOWOATLANTYCKI' 3 'CENTRALNY PN WSCH.' 4 'CENTRALNY PN ZACH.'
5 'POŁUDNIOWOATLANTYCKT 6 'CENTRALNY PD WSCH.' 7 'CENTRALNY PD
ZACH.' 8. GÓRSKI' 9. 'REG. PACYFIKU' [Tutaj wstaw pozostałe etykiety]
MISSING VALUES (brakujące dane) AGE, INCOME (0, 98, 99)/
EDUC (97, 98, 99)/ REGION (0)/ MARITAL (9)/ DEGREE (7, 8, 9)1 PARTYID (8,
9)1 EQWLTH TO NATRACĘ (0, 8, 9)
FREQUENCIES (częstości) VARIABLES = ALL
SA VE (zachowaj) OUTFILE =GSS93/MAP
Kolejne uruchomienia programu. Kiedy już plik systemowy SPSS raz został
utworzony, można go przywołać, używając odpowiednich wyrażeń języka JCL oraz poleceń
FILE HANDLE [w wersji dla komputera głównego] oraz GET. Polecenie GET (użyj)
wyznacza aktywny plik systemowy SPSS, w którym użytkownik chce wykonać operacje
zapisane w pliku poleceń.
Format polecenia GET przedstawia się w sposób następujący:
GET FILE = [specyfikacja pliku systemowego lub roboczego] Czyszczenie danych
Kiedy użytkownik upewni się, że specyfikacja polecenia DATA LIST jest poprawna i
że wszystkie dane zostały odczytane w odpowiednim formacie, powinien się przyjrzeć
raportowi, który pojawi się na ekranie monitora w wyniku przeprowadzenia procedury
FREQUENCIES. Trzeba sprawdzić, czy wśród wyświetlonych przez program vjartóś>c\ cj\a
YaiAe,} V.o\e.yve\ zmiennej me, nojawity się jakieś nieprawidłowe kody. Weźmy jako
przykład zmienną MARITAL (stan cywilny), która została zakodowana w sposób
następujący: 1 = ŻONATY/MĘŻATKA, 2=WDOWIEC/ WDOWA, 3 =
ROZWODNIK/ROZWÓDKA, 4 = POZOSTAJĄCY/(A) W SEPARACJI, 5 =
KAWALER/PANNA oraz 9 = NIE DOTYCZY. Jeżeli w wyświetlonych przez program
częstościach (FREQUENCIES) dla tej zmiennej pojawi się wartość 7, to przy powtórnym
uruchomieniu pliku poleceń można albo zadeklarować tę liczbę jako MISSING VALUE, albo
zamienić ją na inną wartość, uwzględnioną w kluczu odpowiedzi do kwestionariusza lub w
arkuszu kodów. Jeżeli nie mamy dostępu do oryginalnego źródła kodowania i nie jesteśmy w
stanie sprawdzić, co przypuszczalnie znaczy wartość 7, to możemy użyć następującej
sekwencji poleceń, która „wyczyści" nieprawidłową odpowiedź:
525
GET FILE = [nazwa]
MISSING VALUES MARITAL (7, 9)
[tutaj wstaw pozostałe modyfikacje, a następnie procedury]
SAVE OUTFILE = [nazwa]
Włączenie polecenia SAVE do powyższej sekwencji poleceń sprawi, że wszystł kie
modyfikacje oraz zmiany w pliku systemowym zostaną zachowane. Odtejl chwili za każdym
razem, kiedy zmienna MARITAL zostanie włączona do analizfl SPSS będzie uważał liczbę 7
za brakującą wartość (MISSING VALUE) i będzieB traktował tak jak wszystkie inne
brakujące dane. Na przykład program nie będ^H uwzględniał tej wartości przy wykonywaniu
obliczeń statystycznych aż do momen-l tu, w którym użytkownik nie zmieni polecenia i nie
przekaże wyraźnej instrukcji. I żeby jej użyć. Odnotujmy też, że system w niektórych
ośrodkach obliczeniowych I nie pozwala na wykorzystanie w tej samej sekwencji poleceń tej
samej nazwy pliku I w poleceniach GET i SAVE. Najlepiej zasięgnąć porady konsultanta
ośrodka I w kwestii najbardziej skutecznego sposobu eliminacji niepoprawnych odpowiedzi. I
Na użytek dalszych przykładów przyjmiemy założenie, że sekwencja poleceń za- I wiera
odpowiedni JCL oraz właściwą specyfikację poleceń FILE HANDLE oraz GET.
Jeżeli użytkownik utworzył zbiór danych i natrafił w nim na niewłaściwe kate-j gorie
odpowiedzi, to może użyć poleceń SELECT IF (wybierz jeżeli) oraz LIST (listuj) po to, by
zidentyfikować i wyświetlić obserwacje zawierające błędne kody. I Analiza tej listy pozwoli
określić, jakiej odpowiedzi udzieliła osoba badana. Można I potem zmienić nieprawidłowe
kody za pomocą poleceń IF (jeżeli) albo RECODE I (rekoduj) i utrwalić je w pliku
systemowym, włączając do listy polecenie SAVE I (o tej sekwencji będzie mowa w dalszej
części niniejszego tekstu).
Polecenie SELECT IF umożliwia wybranie ze zbioru pewnej grupy obserwacji^ która
następnie zostanie poddana analizie. W naukach społecznych badacze często; zainteresowani
są analizą odpowiedzi pewnej grupy osób, na przykład „kobiet", „ludzi starych" albo
„demokratów". Odpowiedzi tych osób zapisane są w zbiorze danych razem z odpowiedziami
badanych, którzy charakteryzują się innymi wartościami interesującej badacza cechy.
Polecenie SELECT IF umożliwia szybkie wybranie ze zbioru grupy takich obserwacji, które
mają daną właściwość. Jest to najbardziej powszechne zastosowanie polecenia SELECT IF.
Można jednak używać tego polecenia także podczas czyszczenia danych. Załóżmy, że
użytkownik znalazł wśród wartości zmiennej MARITAL dwie odpowiedzi zakodowane cyfrą
7 (przyjmując, że w zmiennej tej nie pojawiły się inne niepoprawne kody). Może wtedy za
pomocą polecenia SELECT IF wyizolować te niepoprawne odpowiedzi. Formuła polecenia
SELECT IF przedstawia się następująco:
SELECT IF NAZWA ZMIENNEJ [operatory logiczne] wartość,
gdzie operatory logiczne to:
Operator Znaczenie
EQ albo = równe
LT albo < mniejsze niż
526
LE albo <= mniejsze niż lub równe
GT albo > większe niż
GE albo >= większe niż lub równe
NE albo < > nierówne,
a wartość może być liczbą lub nazwą innej zmiennej. Można użyć polecenia SE-LECT
IF w sposób bardziej skomplikowany, formułując złożone wyrażenie logiczne. Używamy w
takim wypadku operatorów AND (i) (wszystkie warunki muszą zostać spełnione, by
obserwacja została wybrana), OR (lub) (jeden z warunków musi zostać spełniony, by
obserwacja została wybrana) lub też NOT (nie) (wartość charakteryzująca wybrane
obserwacje nie jest wynikiem wyrażenia).
Oczywiście samo wyizolowanie obserwacji zawierających niepoprawne kody w
zmiennej MARITAL nie wystarczy, by wyczyścić dane. Trzeba też użyć polecenia LIST, by
wyświetlić wartości niektórych zmiennych dla wybranych obserwacji. W omawianym tutaj
przykładzie do identyfikacji i wyczyszczenia niepoprawnych odpowiedzi dla zmiennej
MARITAL wystarczy wylistowanie wartości zmiennej ID. Można wtedy odwołać się do
oryginalnego źródła kodowania (kwestionariusza albo arkusza kodowego) i odtworzyć
poprawne odpowiedzi. Format polecenia LIST przedstawia się:
LIST VARIABLE = [lista zmiennych].
Sekwencja pomocnych w czyszczeniu zmiennej MARITAL poleceń jest następująca:
SELECT IF MARITAL EQ 7 LISTVARIABLES = ID
Załóżmy, że po analizie raportu okazało się, iż w wypadku obserwacji o numerach
identyfikacyjnych (ID) 24 i 87 wartość zmiennej MARITAL wynosi 7. Załóżmy dodatkowo,
że poprawne odpowiedzi to: 1 dla obserwacji nr 24 i NIE DOTYCZY dla obserwacji nr 87.
Trzeba więc dla pierwszej z tych obserwacji zamienić kod 7 na kod 1, dla drugiej zaś liczbę 7
zadeklarować jako brakującą wartość (MIS-SING VALUE). Możemy dokonać tych
przekształceń przy kolejnym uruchomieniu programu, włączając do sekwencji polecenie IF
po to, by określić konieczne do speł-j nienia warunki. Ogólny format wyrażenia IF jest
następujący:
IF [warunek logiczny] zmienna docelowa = wartość,
gdzie warunek logiczny oraz wartość zdefiniowane są tak samo jak w polu specy-
fikacyjnym polecenia SELECT IF, a zmienna docelowa jest zmienną, do której wartości mają
zostać dołączone. Sekwencja poleceń, która wyczyści dwie obserwacje wykorzystane w
powyższym przykładzie, jest następująca:
IF ID EQ 24 MARITAL = 1 MISSING VALUES MARITAL (7,9) [inne modyfikacje]
SAVE OUTFILE = [nazwa]
527
Wyrażenie IF zmieni liczbę 7 na liczbę 1 w zmiennej MARITAL dla obserwacji
numer 24. Polecenie MISSING VALUES dołączy błędny kod dla obserwacji numer 87 do
listy brakujących danych. Polecenie SAVE utrwali te przekształcenia w pliku systemowym.
Kiedy użytkownik upewni się, że wszystkie zmienne zostały wyczyszczone, mo-j że
wygenerować kompletny i uaktualniony opis danych zdefiniowanych w pliku systemowym
poprzez zastosowanie procedury zwanej DISPLAY (wyświetl). Można ją zapisać jako:
DISPLAY DICTIONARY
Im dokładniej użytkownik zdefiniuje swoje dane poprzez zastosowanie optymalnych
etykiet, tym lepiej raport otrzymany po zastosowaniu polecenia DISPLAY będzie mógł
spełniać funkcję książki kodowej. (Tak naprawdę do konstrukcji książki kodów
zamieszczonej w przykładzie A. 1 posłużyły informacje wygenerowane po użyciu tego
właśnie polecenia). Im ostrożniej będziemy kodować odpowiedzi badanych w arkuszu danych
surowych i zapisywać polecenia definiujące dane. tyra mniej czasu trzeba poświęcić na
czyszczenie tych danych. Od tego momentu użytkownik jest gotowy do analizy swojego
zbioru danych.
Rozkłady jednowymiarowe (rozdział 15)
Kiedy użytkownik wstępnie analizuje raport, który ukaże się na ekranie monitora po
uruchomieniu polecenia FREQUENCIES (częstości), traktuje go jako jednowymiarowy
rozkład odpowiedzi dla każdej zmiennej. Kiedy dane już zostały wyczyszczone, może on
procedurę tę powtórzyć, by otrzymać dla poszczególnych zmiennych statystyki
podsumowujące. Statystyki te to: średnia (mean), błąd standardowy (standard error), mediana
(median), wartość modalna (modę), odchylenie standardowe (standard deviation), wariancja
(variance), kurtoza (kurtosis), skośność (skew-ness), rozstęp (rangę) oraz wartość minimalna
(minimum) i wartość maksymalna (maximum). Jeżeli użytkownik chce, by program policzył
dla grupy zmiennych wszystkie te statystyki, to powinien użyć następującej sekwencji
poleceń:
FREQUENCIES VARIABLES = DEGREE, HAPY /STATISTICS =ALL
Jeżeli użytkownik chce uzyskać tylko niektóre z dostępnych statystyk i w ten sposób
zaoszczędzić trochę czasu potrzebnego komputerowi do wykonania obliczeń, to może po
prostu wypisać nazwy tych statystyk w wyrażeniu: STATISTICS=specyfikacja. W
specyfikacji należy wymienić tylko te statystyki, którymi użytkownik jest zainteresowany
[np. mean (średnia), modę (wartość modalna)].
Jeżeli użytkownik chce, by program policzył statystyki opisowe (np. średnią, błąd
standardowy) dla zmiennych mierzonych na poziomie interwałowym (np. wiek,
wynagrodzenie, populacje miejskie) i nie jest mu potrzebny rozkład częstości, to może użyć
procedury DESCPJPTIVES (statystyki opisowe). Procedura ta ma następujący format:
DESCRIPTIVES VARIABLES = LISTA ZMIENNYCH /STATISTICS = ALL
528
Polecenie DESCRIPTIVES wpisane bez dookreślenia STATISTICS (statystyki)
spowoduje, że program policzy średnią, odchylenie standardowe, wartość minimalną, wartość
maksymalną, błąd standardowy średniej (standard error of the mean), kurtozę, skośność,
rozstęp oraz sumę (sum).
W pakiecie SPSS oraz SPSS PC+ da się narysować pewne elementarne wykresy.
Jednak, aby uzyskać rysunki od strony jakościowej porównywalne chociażby z
podstawowymi pakietami graficznymi dla PC, trzeba posiadać moduł graficzny SPSS.
Grafika dostępna w wersji SPSS dla Windows jest znacznie lepsza. Na stronach 556-559
niniejszego dodatku można zobaczyć, jak pakiet dla Windows radzi sobie z
jednowymiarowymi wykresami.
Pomiar: konstrukcja skal i wskaźników (rozdział 18)
W rozdziale 18 zostały omówione zasady konstruowania skal i wskaźników służących
do mierzenia postaw respondentów. SPSS oferuje badaczom możliwości tworzenia
jednowymiarowych i wielowymiarowych skal na wiele różnych sposobów. Wraz ze wzrostem
umiejętności metodologicznych i statystycznych użytkownik może pokusić się o
wykorzystanie do skalowania wielowymiarowego różnych opcji w procedurze FACTOR
analysis (analiza czynnikowa). Tu ograniczymy się jedynie do omówienia pewnych
podstawowych operacji, które wykorzystują polecenia COM-PUTE, RELIABILITY oraz IF.
Polecenie COMPUTE (oblicz wartości). Badacze społeczni często uznają za użyteczne
tworzenie nowych lub przekształcanie już zapisanych w zbiorze zmiennych. Ważą je,
przeliczają lub stosują inne transformacje, wykonując na wartościach tychże zmiennych różne
operacje matematyczne. Do tego celu używają zwykle przekształcenia COMPUTE. Format
polecenia COMPUTE nie jest skomplikowany. Aby utworzyć złożone wyrażenia, trzeba po
prostu użyć operacji logicznych i matematycznych. Można na przykład dodawać (+),
odejmować ( —), dzielić (/) i potęgować (**N). Polecenie to jest też w dodatku bardzo
elastyczne, ponieważ jako argumenty mogą tu występować tak nazwy zmiennych, jak i liczby
rzeczywiste oraz całkowite. Ogólny format polecenia COMPUTE przedstawia się
następująco:

COMPUTE OBLICZANA ZMIENNA = WYRAŻENIE ARYTMETYCZNE


Aby przedstawić w niniejszym dodatku statystyki dla interwałowego poziomu
pomiaru autorzy policzyli (COMPUTEd) kilka nowych zmiennych. I tak na przykład
GOVACT jest skalą, która mierzy postawy respondentów wobec ogólnie pojętej aktywności
rządu. Wysoki wynik w tej skali znaczy, że respondent jest przeciwny takiej aktywności.
GOVACT jest kombinacją odpowiedzi na pozycje kwestionariusza reprezentowane przez
zmienne EQWLTH, HELPBLK, HELPNOT, HELPPOOR oraz HELPSICK. Początkowo do
tej listy dołączona była również zmienna NATCITY, ponieważ treść pozycji, którą zmienna
ta reprezentuje, sugerowała, że mogłaby ona pasować do koncepcji pojedynczej skali
mierzącej stosunek do rządowej aktywności. Jednak z uwagi na fakt, że była to dopiero faza
eksploracji problemu, autorzy zdecydowali się na przeanalizowanie rzeczywistego udziału
poszczególnych zmiennych z powyższej listy w jednowymiarowym skalowaniu pojęcia
aktywności rządu. Chcieli policzyć skalę, odwołując się tylko do
529
tych zmiennych, które mają w niej duży udział, odrzucając równocześnie te zmień-1
ne, które nie spełniają kryteriów akceptowalności.
Analiza rzetelności (RELIABILITY). Aby oszacować udział poszczególnydB
zmiennych w tworzonej skali, trzeba policzyć średnią z interkorelacji zmiennych! i odnieść ją
do liczby zmiennych, które tę skalę tworzą. Dostępną w SPSS statys-1 tyką, która pomaga ten
cel osiągnąć, jest alfa-Cronbacha, a procedurą SPSS, która I szacuje tak definiowaną
rzetelność, jest RELIABILITY (rzetelność).
Jednak zanim uruchomimy procedurę RELIABILITY dla tworzonej skali, musi-1 my
się upewnić, czy wszystkie tworzące tę skalę zmienne są kodowane w tym sa-1 mym
kierunku. Sprawdzamy więc, czy wysoka wartość (4 albo 5) na każdej ze I zmiennych jest
wskaźnikiem postawy opozycyjnej wobec aktywności rządu. I W przypadku skali
GOVACT jest tak, że wszystkie zmienne z wymienionej listy są kodowane w tym samym
kierunku. Znaczy to, że niski wynik na każdej ze zmiennych tworzących skalę wskazuje na
postawę przychylną rządowemu interwencjonizmowi, wysoki zaś wynik na tych samych
zmiennych wskazuje na postawę, która jest opozycyjna wobec interwencjonizmu rządu.
Dlatego rekodowanie wartości zmiennych nie jest tu potrzebne.
W procesie konstrukcji innego wskaźnika wykorzystanego w niniejszym dodatku
wykorzystanie procedury RECODING (rekoduj) było konieczne. Wskaźnik LIBERAŁ,
mierzący postawy liberalne respondentów, utworzony został poprzez skalowanie
następujących zmiennych: CAPPUN, HOMOSEX, NATCITY, NATFARE, NATRACĘ,
POLVIEWS oraz RACSEG. W zbiorze danych nie wszystkie te zmienne były kodowane w
tym samym kierunku. Niski wynik dla czterech spośród nich wskazywał na odpowiedzi
liberalne, niski zaś wynik na pozostałych trzech wskazywał na odpowiedzi konserwatywne.
Autorzy zastosowali procedurę RECO-DE po to, by wartości pomiarów wskazujących na
niski poziom liberalizmu były zgodne w kierunku z wartościami pomiarów wskazujących na
niski poziom konserwatyzmu. W przedstawionym poniżej przykładzie niskie wartości na
zmiennych identyfikowanych w wierszu RECODE wskazują na liberalizm, a wartości niskie
na wszystkich pozostałych zmiennych wskazują na konserwatyzm. Trzeba było więc użyć
procedury RECODE po to, by tak zmienić wartości dla zmiennych wskazujących na niski
poziom liberalizmu, aby były one zgodne z pozostałymi zmiennymi. W celu przekodowania
zmiennych należy użyć następującej sekwencji poleceń:
RECODE NATCITY
(1=3) (2 = 2) (3 = 1) INTO NATCITY2 RECODE NATFARE
(1=3) (2 = 2) (3 = 1) INTO NATFARE2 RECODE NATRACĘ
(1 = 3) (2 = 2) (3 = 1) INTO NATRACE2 RECODE POLVIEWS
(1 = 7) (2 = 6) (3 = 5) (4 = 4) (5=3) (6=2) (7= 1) INTO POLVIEW2
Można zmieniać wartości zmiennych za pomocą polecenia RECODE bez użycia w
specyfikacji wyrażenia INTO (na). Wykorzystanie INTO w powyższej sekwencji
530
poleceń spowoduje, że w pliku systemowym zostaną zachowane zarówno oryginalne,
jak i nowe zmienne.
Tabela A.3. Reliability Analysis: Scalę (AU) [Analiza rzetelności: skaluj (wszystkie)]
Item-Total Statistics [Statystyki: pozycja-wynik ogólny]
Scalę Corrected
Scalę Mean if Variance if Item-Total
Item Deleted Item Deleted Correlation Alpha if Item
[Średnia dla [Wariancja dla [Poprawiona Deleted
skali, kiedy skali, kiedy korelacja [Alfa, gdy
pozycja pozycja pozycjipozycja
zostanie zostanie z wynikiem zostanie
wyłączona] wyłączona] ogólnym] wyłączona]
EQWLTH 13,3485 12,4605 0,4460 0,6611
HELPBLK 13,5379 17,2821 0,3772 0,6513
HELPNOT 13,9520 16,0863 0,5281 0,6033
HELPPOR 14,0354 16,5608 0,5511 0,6025
HELPS1CK 14,6187 16,9656 0,4304 0,6350
NATC1TY 15,4571 20,2842 0,2529 0,6841
Reliability Coefficients [wskaźniki rzetelności]
N of Cases [liczba obserwacji] = 396 N of Items [liczba
pozycji] = 6
Alpha (alfa) =0,6814
Jeżeli użytkownik upewni się, że wszystkie zmienne, z których chce utworzyć skale
kodowane, są w tym samym kierunku, to może je wprowadzić do procedury RELIABILITY.
Format tego polecenia jest następujący:
RELIABILITY/VARIABLES = NAZWA ZMIENNEJ 1,
NAZWA ZMIENNEJ 2 ITD. /SUMMARY = TOTAL
W pierwszej analizie rzetelności skali GOVACT należy użyć wszystkich zmiennych,
które skalę tę miałyby tworzyć, uruchamiając następujące polecenie:
RELIABILITY/VARIABLES = EQWLTH HELPBLK HELPNOT
HELPPOOR HELPSICK NATCITY /SUMMARY = TOTAL
Raport z wykonania przez program powyższego polecenia przedstawia tabela A.3.
Podstawowym w interpretacji rzetelności skali wskaźnikiem statystycznym jest alfa,
drukowana na końcu raportu w tej części tabeli, która jest przeznaczona dla współczynników
rzetelności (reliability coefficients). Współczynnik alfa może przybierać wartości od 0 (brak
zgodności wewnętrznej) do 1 (całkowita zgodność wewnętrzna). Jaka wysokość tego
współczynnika wskazuje na taki poziom zgodności wewnętrznej, który możemy
zaakceptować? Nunnally proponuje zastosowanie
531
tzw. szybkiej reguły, która stanowi, że akceptujemy wszystkie wartości nie
mniejsze niż 0,703. Jak wynika z raportu otrzymanego po wstępnym uruchomieniu procedury
RELIABILITY, współczynnik alfa dla skali GOVACT wyniósł 0,6814. Jest to trochę za
mało, by spełnić kryterium wprowadzone przez szybką regułę. Jeżeli jednak popatrzymy na
część raportu zatytułowaną „Item-total statis-1 tics" (Statystyki: pozycja-wynik ogólny), to w
kolumnie opatrzonej nagłówkiem „Alpha if Item Deleted" (Alfa, gdy pozycja zostanie
wyłączona) zobaczymy, że I jeżeli usuniemy zmienną NATCITY ze skali, to współczynnik
alfa wzrośnie do wartości 0,6841. Znaczy to, że jeżeli nie włączymy do skali zmiennej
NATCITY, j to skala będzie bardziej rzetelna. Różnica pomiędzy wartościami 0,6841 i
0,6814 nie jest wielka. Jednak niejednokrotnie zdarza się, że rzeczywista wielkość
współczynnika alfa otrzymana w wyniku powtórnego zastosowania procedury
RELIABILITY już po usunięciu „słabej" pozycji trochę różni się od tej, która zapisana jest w
kolumnie „Alpha if Item Deleted" (Alfa, gdy pozycja zostanie wyłączona).
Sekwencja poleceń zapisana poniżej spowoduje ukazanie się raportu przedstawionego
w tabeli A.4.
RELIABILITY/VARIABLES = EQWLTH HELPBLK HELPNOT
HELPPOOR HELPSICK /SUMMARY = TOTAL
Tabela A.4. Reliability Analysis: Scalę (Ali) [Analiza rzetelności: skaluj (wszystkie)]
Item-Total Statistics [Statystyki: pozycja-wynik ogólny]
Scalę Corrected
Scalę Mean if Variance if Item-Total
Item Deleted Item Deleted Correlation Alpha if Item
[Średnia dla [Wariancja dla [Poprawiona Deleted
skali, kiedy skali, kiedy korelacja [Alfa, gdy
pozycja pozycja pozycjipozycja
zostanie zostanie z wynikiem zostanie
wyłączona] wyłączona] ogólnym] wyłączona]
EQWLTH 11,9288 11,6635 0,4517 0,6948
HELPBLK 12,0825 16,4242 0,3610 0,6923
HELPNOT 12,5684 14,6144 0,5739 0.6141
HELPPOR 12,6418 15,2754 0,5716 0,6225
HELPSICK 13,1740 15,7457 0,4589 0,6583
Reliability Coefficients [wskaźniki rzetelności]
N of Cases [liczba obserwacji] = = 885,0 N of Items [liczba
pozycji]=5
Alpha (alfa) = = 0,7040

3 J. Nunnally (1978), Psychometric Theory, New York: McGraw-Hill.


532
Jak wynika z raportu przedstawionego w tabeli A.4, współczynnik alfa dla skali
utworzonej już bez zmiennej NATCITY wynosi 0,7040. Wyłączenie ze zbioru zmiennej
NATCITY spowodowało, że zmieniła się liczba obserwacji z 396 na 885. Wzrastająca liczba
obserwacji tłumaczy różnicę pomiędzy współczynnikiem i wartością równą 0,6841 zapisaną
w poprzednim raporcie. Innymi słowy, wyłączenie ze skali zmiennej NATCITY poprawia
współczynnik alfa nie tylko dlatego, że zmienna ta miała relatywnie niskie korelacje z
pozostałymi pozycjami skali (wzrost z 0,6814 do 0,6841), lecz również dlatego, że wszystkie
te obserwacje, które na zmiennej NATCITY miały brakujące dane, teraz mogły znaleźć się w
próbie i przyczyniły się do zwiększenia rzetelności skali (wzrost z 0,6841 do 0,7040).
COMPUTE (oblicz wartości) po RELIABILITY (rzetelność). Teraz, kiedy się
okazało, że współczynnik alfa dla skali GOVACT wyniósł 0,7040, czyli osiągnął
akceptowalny poziom rzetelności, trzeba tylko obliczyć (COMPUTE) nową zmienną.
Polecenie, które pozwoli ten cel zrealizować, ma następujący format:
COMPUTE GOVACT = EQWLTH + HELPBLK + HELPNOT + HELPPOOR +
HELPSICK
Wszystkie obliczane nowe zmienne albo wskaźniki można zachować za pomocą
polecenia SAVE i w ten sposób utrwalić je w pliku systemowym. W obliczanym wskaźniku
lub zmiennej obserwacji zostanie przypisany systemowy brak danej wtedy, gdy przynajmniej
na jednej ze zmiennych składających się na ten wskaźnik lub nową zmienną pojawi się
brakująca wartość.
Wyrażenie IF (jeżeli). Wyrażenie IF jest szczególnie użyteczne wtedy, gdy trzeba
konstruować wskaźniki lub typologie (kombinacje cech, które są zwykle odnoszone raczej do
etykiet niż do wartości, np. typ idealny w socjologii) za pomocą zmiennych nominalnych albo
porządkowych (albo jednych i drugich). Format polecenia IF został już omówiony wcześniej.
Załóżmy, że chcemy skonstruować miarę statusu socjoekonomicznego respondentów. Do
tego celu możemy użyć wyrażenia IF oraz polecenia VALUE LABELS (etykiety wartości),
zapisując następującą sekwencję:
IF EDUC LE 8 AND INCOME LE 8 SES = 1 IF EDUC GE 9 AND EDUC LT 16
AND INCOME LE 8 SES = 2 [kontynuuj, dopóki wszystkie kombinacje nie zostaną
wyczerpane] VALUE LABELS SES (1) NAJNIŻSZY (2) NISKI ...
Zauważmy, że w takiej sekwencji trzeba uwzględnić wszystkie możliwe kombinacje
wartości wykorzystanych zmiennych. Innymi słowy, kategoryzacja musi być rozłączna i
wyczerpująca. Każdego respondenta trzeba zaliczyć do jakiegoś typu, ale można go zaliczyć
tylko do jednego. Zwróćmy również uwagę na to, że możemy różne kombinacje włączyć do
jednej kategorii (np. średnie wykształcenie i niski dochód). Jeżeli tak będzie, to obie kategorie
otrzymują ten sam kod.
533
Rozkłady dwuwymiarowe (rozdział 16)
Jak już wspominano w rozdziale 16, analiza dwuwymiarowa umożliwia dostrzeżenit
związków albo relacji pomiędzy dwiema zmiennymi. Można wtedy obserwować, jat jedna
zmienna zmienia się w obecności innej zmiennej (współzmienność). Wykorzystując statystyki
dwuwymiarowe, możemy nie tylko określić, czy taka relacja w ogóle istnieje (test istotności),
ale również poznać jej silę oraz kierunek (miary związku).
Pomiary nominalne i porządkowe. W pakiecie SPSS CROSSTABS (tabele
krzyżowe) jest procedurą przeznaczoną przede wszystkim do generowania
dwuwymiarowych tabel i statystyk dla zmiennych nominalnych i porządkowych. Przybiera
ona następującą formę:
CROSSTABS TABLES = NAZWA ZMIENNEJ, BY NAZWA ZMIENNEJ,
[BY NAZWA ZMIENNEJ3] /NAZWA ZMIENNEJ4 BY NAZWA ZMIENNEJ5
[BY NAZWA ZMIENNEJ6]
ZMIENNA, oraz ZMIENNA4 będą w tabelach traktowane jako zmienne zależne
(drukowane w pierwszej kolumnie, licząc od lewej strony albo, jak przyjęliśmy w niniejszym
podręczniku, na osi Y). ZMIENNA2 i ZMIENNA5 to w tych tabelach zmienne niezależne.
ZMIENNA, i ZMIENNA6 spełniają funkcję zmiennych kontrolnych. Dla każdej wartości
danej zmiennej kontrolnej program wygeneruje jedną tabelę. Użycie zmiennych kontrolnych
to opcja w SPSS.
Załóżmy, że chcemy przeanalizować relację pomiędzy poziomem wykształcenia oraz
ogólnym poczuciem szczęścia respondentów. Aby zbadać tę relację, trzeba użyć następującej
sekwencji poleceń:
CROSSTABS TABLES = HAPPY BY DEGREE /CELLS = ROW, COL,
TOT/STATISTICS = ALL
W tabeli A.5 przedstawiono raport wyświetlany na monitorze w wyniku uruchomienia
powyższego polecenia. W komórce otoczonej ramką pojawiły się wartości, które
charakteryzują osoby z wykształceniem wyższym licencjackim (DEGREE=3), które
równocześnie określają swoje życie jako raczej szczęśliwe (HAPPY = 2). Lewa górna
opisowa komórka tabeli (COUNT, ROW PCT, COL PCT, TOT PCT) informuje o kolejności,
w jakiej liczby zostały zapisane w każdej komórce. W zaznaczonej komórce liczba 122
oznacza, że 122 respondentów [count (liczebność)] ma wykształcenie wyższe licencjackie i
równocześnie swoje życie określa jako raczej szczęśliwe. Spośród wszystkich respondentów,
którzy czują się raczej szczęśliwi, 14,4% ma wykształcenie wyższe licencjackie [row percent
(procent w wierszu)], a 52,1 % respondentów z wykształceniem wyższym licencjackim
określa swoje życie jako raczej szczęśliwe [column percent (procent w kolumnie)].
Liczebność (N) równa 122 to 8,2% [total percent (procent z całości)] w stosunku do
całkowitej liczebności badanej grupy respondentów (N= 1492).
Tabela A.5 składa się z trzech wierszy i z pięciu kolumn. Wiemy, że wartość
współczynników korelacji, na przykład chi-kwadrat (^2), jest funkcją liczby komórek w
tabeli. Ponieważ 112 respondentów ma wykształcenie wyższe magisterskie,
534
więc możemy zmniejszyć liczbę komórek w tabeli, wyłączając z niej osoby z takim
właśnie wykształceniem. Aby to zrobić, należy użyć polecenia:
SELECT IF DEGREE LE 3
Innym sposobem redukcji liczby komórek w tabeli jest łączenie kategorii. Można na
przykład respondentów z wykształceniem wyższym licencjackim i respondentów z
wykształceniem wyższym magisterskim włączyć do jednej kategorii, ponieważ wszystkie te
osoby mają wykształcenie wyższe. Łączymy kategorie za pomocą polecenia RECODE:
RECODE DEGREE (3, 4-3)
Można też pójść jeszcze dalej i połączyć badanych tak, by w konsekwencji włączyć
wszystkich respondentów, którzy nie studiowali, do jednej kategorii, natomiast wszystkich
respondentów, którzy ukończyli studia wyższe, do drugiej:
RECODE DEGREE (0 THRU 2= 1) (3, 4 = 2)
Badacze społeczni często są zainteresowani analizowaniem relacji pomiędzy grupami
respondentów. Badania takie można przeprowadzać, posługując się procedurą CROSSTABS
(tabele krzyżowe). Trzeba wtedy w polu TABLES = specyfikacja wpisać trzecią zmienną
(kontrolną). Jeżeli jednak badacz jest zainteresowany tylko jedną wartością zmiennej
kontrolnej (albo gdy używa procedury, która nie dopuszcza możliwości włączania zmiennych
kontrolnych), to musi się posłużyć polece-
Tabela A.5. Tabela krzyżowa dla zmiennych HAPPY i DEGREE
HAPPY GENERAL HAPPINESS by DEGREE RS HIGHEST DEGREE
DEGREE
Page 1 of 1
Count
Row Pet LT HIGH HIGH SCH JUNIOR C BACHELOR
GRADUATE
Col Pet SCHOOL OOL OLLEGE Row
Tot Pet0 1 2 3 4 Total
1 80 234 26 91 44 475
VERY HAPPY 16.8 49.3 5.5 19.2 9.3 31.8
' 28.8 30.1 28.9 38.9 39.3
5.4 \ 15.7 \ 1.1 \ 6.1 1 2.9 \
2 152 459 56 122 60 849
PRETTY HAPPY 17.9 54.1 6.6 14.4 7.1 56.9
54.7 59.0 62.2 52.1 53.6
10.2 30.8 3.8 8.2 4.0
3 46 85 8 21 8 168
NOT TOO HAPPY 27.4 50.6 4.8 12.5 4.8 11.3
16.5 10.9 8.9 9.0 7.1
3.1 5.7 .5 1.4 .5
Column 278 778 90 234 112 1492
Total 18.6 52.1 6.0 15.7 7.5 100.0
535
cd. tabeli A.5.
Chi-Sguare
Fearson
Likelihood Ratio Mantel-Haenszel test for linear association
Minimum Expected Freguency -
Value
20.06834 19.24346 13.84328
DF
Significance
.01008 .01361 .00020
10.134
Statistic
Phi
Cramer's V Contingency Coefficient
Lambda :
symmetric
with HAPPY dependent with DEGREE dependent Goodman t Kruskal Tau : with
HAPPY dependent with DEGREE dependent Uncertainty Coefficient : symmetric
with HAPPY dependent with DEGREE dependent
Kendall-s Tau-b
Kendall's Tau-c
Gamma
Somers' D : symmetric with HAPPY with DEGREE
dependent dependent
Pearson's R Spearman Correlation
sssa zss
Value
-11598 •08201 ¦11520
.00000 .00000 .00000
.00585 .00354
.00576 .00693 .00493
-.08272 -.07555 -.13496
-.08246 -.07638 -.08960
-09636 .09237
.09859 .09703
ASE1
.00000 .00000 .00000
.00308 .00186
-00267 .00320 .00228
.02350 •02154 -03810
¦02343 .02173 •02546
.02585 .02624
*1 Pearson chi-square probability
*2 Based on chi-square approximation
*3 Likelihood ratio chi-square probability
*4 VAL/ASE0 is a t-value based on a normal approximation.
Val/ASE0
2.15880 2.15880 2.15880
-3.50764 -3.50764 -3.50764
-3.50764 -3.50764 -3.50764
-3.73680 -3.58084
Approximate Significanc
.01008 '1 -01008 M •01008 n
.02593 »2 .00692 -2
-01361 *3 .01361 «3 .01361 -3
.00019 M .00035 <4
Number of Missing Obserwations:
°s is the significance
niem SELECT IF, aby tę grupę odpowiedzi wybrać. Można użyć jednocześnie poleceń
SELECT IF oraz RECODE po to, by wybrać obserwacje oraz połączyć kategorie.
Następująca sekwencja poleceń:
SELECT IF SEX EQ 2 AND MARITAL EQ 1 RECODE DEGREE (0 THRU 2= 1)
(3, 4 = 2)
536
CROSSTABS TABLES = HAPPY BY DEGREE /STATISTICS ALL
spowoduje, że w raporcie pojawi się tabela uwzględniająca odpowiedzi jedynie
zamężnych kobiet. (Zauważmy, że zmienne użyte w poleceniu SELECT IF nie muszą
pojawić się ani w poleceniu CROSSTABS, ani w poleceniach uruchamiających inne
procedury).
Pomiary interwałowe. Procedura CORRELATIONS (korelacje) liczy współczynnik
korelacji według momentu iloczynowego Pearsona (r Pearsona) i inne statystyki powiązania
przeznaczone dla zmiennych mierzonych na interwałowym poziomie pomiaru oraz bada
istotność statystyczną tych wskaźników, używając do tego celu dwustronnego testu t. W
większości przypadków współczynniki policzone przy użyciu procedury CORRELATIONS
są ekwiwalentne do współczynnika korelacji rangowej Spearmana. Współczynnik ten zawiera
procedura NONPAR CORR (korelacje nieparametryczne) i jest przeznaczony do pomiaru
związku dwóch zmiennych porządkowych lub zmiennej interwałowej i zmiennej porządkowej
albo też dwóch zmiennych interwałowych. Sekwencja:
CORRELATIONS VARIABLES = AGE, EDUC, INCOME, LIBERAŁ,
GOVACT /STATISTICS ALL
spowoduje pojawienie się raportu przedstawiającego średnie oraz odchylenia
standardowe dla zmiennych, tabelę wariancji-kowariancji, tabelę zawierającą współczynniki
korelacji, N, dla którego obliczenia zostały wykonane, oraz poziom istotności.
W tabeli A.6 w komórce otoczonej ramką znajduje się korelacja pomiędzy zmienną
AGE (wiek) oraz skalą LIBERAŁ (liberalizm). Im wyższy wynik respondenta w skali
LIBERAŁ, tym jest on bardziej liberalny. W przedostatnim wierszu raportu znajduje się opis
tabeli. W pierwszym wierszu każdej komórki pojawia się r Pearsona (współczynnik), drugi
wiersz przeznaczony jest na N (liczbę obserwacji), trzeci zaś na istotność testu dwustronnego.
Interpretacja wskaźników z zaznaczonej komórki jest taka, że im starszy jest respondent, tym
jest on mniej liberalny. Siła związku pomiędzy tymi zmiennymi wynosi —0,2784. Nie jest to
więc związek bardzo silny, jest on jednak statystycznie istotny na poziomie p = 0,000.
(Powtórzmy raz jeszcze, że im wyższe N, tym większe prawdopodobieństwo uzyskania
statystycznej istotności relacji pomiędzy zmiennymi. W omawianym przypadku bardziej
właściwa byłaby więc dyskusja na temat siły związku niż na temat jego istotności
statystycznej).
Można też narysować wykres rozrzutu, aby wzrokowo oszacować relacje pomiędzy
dwiema zmiennymi. Jeżeli w komputerze zamstałowarry został moduł graftcztry SPSS, to
procedura PLOT (wykres) wygeneruje wykres dla tej relacji. Sekwencja:
PLOT PLOT = AGE WITH LIBERAŁ
spowoduje pojawienie się raportu, gdzie relacja pomiędzy wiekiem i poziomem
liberalizmu zostanie przedstawiona w formie graficznej (ryc. A.l).
537
Tabela A.6. Raport z procedury korelacyjnej dla zmiennych mierzonych na
interwałowym po» mie pomiaru
Variable
AGE
EDUC
INCOME
LIBERAŁ
GOVACT
Variables
Cases
1495
1496
1434
345
885
AGE
AGE
AGE
AGE
EDUC
EDUC
EDUC
INCOME
INCOME
LIBERAŁ
AGE
EDUC
INCOME
LIBERAŁ
GOYACT
EDUC
INCOME
LIBERAŁ
GOVACT
INCOME
LIBERAŁ
GOVACT
LIBERAŁ
GOVACT
GOVACT
AGE
1.0000 ( 1495) P- .
-.2593
( 1491) P- .000
-.0949 ( 1429) P- .000
-.2784 ( 345) P- .000
.1929 ( 882) P- .000
Mean
46.2268 13.0374 10.4777 16.7797 15.5989
Std Dev
17.4180 3.0741 2.6535 3.4427 4.6315
Cases Cross-Prod Dev Variance-Covar
1491
1429
345
882
1430
344
882
334
849
159
-20667
-6186
-5541
13315.
4446.
803.
2713.
-49.
2242.
-1224
.0463
9643
2029
5556
1888
3663
3039
4072
5830
7107
-13.8705
-4 .3326
-16 .1081
15 .1141
3 .1114
2, ,3422
3. 0798
-. 1484
2. 6446
-7. 7513
Correlation Coefficient:
EDUC
-.2593 ( 1491) P- .000
1.0000 ( 1496) P- .
.3819 ( 1430) P- .000
.2205 ( 344) P- .000
.2227 ( 882) P- .000
INCOME
LIBERAŁ G0VAC1
-.0949 ( 1429) P- .000 -.2784 ( 345) P- .000 .192? ( 882) P- .OOC
.3819 ( 1430) P- .000 .2205 ( 344) P- .000 .2227 ( 882) P- .000
1.0000 ( 1434) P- . -.0168 ( 334) P- .760 .2181 ( 849) P- .000
-.0168 ( 334) P- .760 1.0000 ( 345) P- . -.4807 ( 159) P- .000
.2181 ( 849) P- .000 i -.4807 ( 159) P- .000 1.0000 ( 885) P- .
(Coefficient / (Cases) / 2-tailed Significance)
' • " 1. Printed if . coefficient cannot be computed
E30
wiek respondenta Ryc. A.l. Wykres rozrzutu dla zmiennych LIBERAŁ i AGE
Analizy wielowymiarowe (rozdział 17)
Jak już wspominano w rozdziale 17, trzy główne funkcje analizy wielowymiarowej to
kontrola, interpretacja oraz predykcja. Z punktu widzenia technicznego potrzeby w zakresie
dwóch pierwszych funkcji zaspokaja użycie w równaniach zmiennych kontrolnych.
Procedury CROSSTABS oraz PARTIAL CORR (korelacja cząstkowa) dopuszczają
możliwość zastosowania tego typu kontroli. Predykcja jest domeną regresji (REGRESSION).
Wielowymiarowe tabele krzyżowe (CROSSTABS). Podstawowe zasady zapisu
polecenia CROSSTABS zostały już omówione. Fragment specyfikacji tego polecenia ujęty w
nawiasy kwadratowe zawiera zmienne kontrolne. Jeżeli na przykład zmienną kontrolną
byłaby „płeć respondenta", to raport powinien się składać z dwóch tabel zawierających te
same zmienne zależne i niezależne, ale różniących się płcią respondentów. Pierwsza tabela
zawierałaby wyniki policzone tylko dla mężczyzn, druga zaś tylko dla kobiet. Liczebności
(N) w obu tabelach oczywiście różniłyby się, ale struktura wierszy i kolumn byłaby taka
sama.
PARTIAL CORR (korelacja cząstkowa). Koncepcja korelacji cząstkowej jest
pojęciowo zbliżona do wielowymiarowej procedury CROSSTABS, w której w trakcie
analizowania relacji pomiędzy dwiema zmiennymi kontrolowany jest efekt innych
zmiennych. Podczas gdy procedura CROSSTABS fizycznie eliminuje ten efekt poprzez
podziać obserwacji zgodnie z wartościami zmiennej 'WonticAnej, procedura PARTIAL
CORR eliminuje go statystycznie. Różnica pomiędzy tymi procedurami może się okazać
bardzo istotna, jeżeli chcemy kontrolować więcej niż jedną zmienną, ponieważ rozdzielanie
obserwacji prowadzi do zmniejszania się liczebności w komórkach tabeli. Jeżeli więc analiza
obejmuje zmienne mierzone na interwałowym poziomie pomiaru, to powinniśmy użyć
PARTIAL CORR.
539
Tabela A.7. Raport dla korelacji cząstkowej
Variable
GOVACT AGE
LIBERAŁ INCOME
Mean
15.4091 44.5519 16.8571 10.6364
Standard Dev
4.4511
17.1083 3.6343 2.4755
Cases
154
154 154 154
--------PARTIAL
Zero Order Partials GOVACT
G0VACT AGE
LIBERAŁ INCOME
1.0000 ( 0) P- .
.2337
( 152) P- .004
-.4707
( 152) P- .000
.0943
( 152) P- .245
C0RRELATION
.2337 152) .004
1.0000 ( 0) P- .
-.3031 ( 152) P- .000
-.1638 ( 152) P- .042
-.4707 ( 152) P- .000
-.3031 ( 152) P- .000
1.0000 ( 0)
p- .
.0647 ( 152) P- .426
COEFFICIENT
AGE LIBERAŁ INC0ME
.0943 ( 152) P- .245
-.1638 ( 152) P- .042
.0647
152)
' .426
1.0000
( 0)
p- .
'Coemcient/a,,.,,^.^^^^ " " i- Printed U . coefficient ^ ^ ^^
""-PARTIAL CORRELATr0N ^ Co-ollingfor.. LIBERA1
AGE
G0VACT
.1083 ( 151) P- .183
• " « P-nted „ a coerficient cannot be ^^
cd. tabeli A.7
--- PARTIAL CORRELATION COEFFICIENTS----
Controlling for.. INCOME
AGE
G0VACT .2537
( 151) P- .002
(Coefficient / (D.F.) / 2-tailed Significance)
" . " is printed if. a coefficient cannot be computed
------PARTIAL CORRELATION COEFFICIENTS-------
Controlling for. . LIBERAŁ INCOME
AGE
GOTACT .1326
( 150) P- .103
(Coefficient / (D.F.) / 2-tailed Significance)
" . " is printed if a coefficient cannot be computed
Następujący wiersz w pliku poleceń:
PARTIAL CORR GOVACT WITH AGE BY LIBERAŁ, INCOME (1, 2)
/STATISTICS =ALL
spowoduje, że program policzy korelacje cząstkowe zerowego, pierwszego oraz
drugiego rzędu dla każdej kombinacji zmiennej zależnej (GOVACT) i zmiennej niezależnej
(AGE). Funkcję zmiennych kontrolnych spełniają tu pojedynczo oraz jednocześnie zmienne
LIBERAŁ oraz INCOME. Powtórzmy raz jeszcze, że korelacje cząstkowe zerowego rzędu są
tym samym, co współczynnik korelacji r Pearsona pomiędzy zmienną zależną i zmienną
niezależną. Korelacja cząstkowa pierwszego rc.edu je,?>V korelacją kontrolowaną przai.
clerwszą zmienną kontrolną. Z korelacją cząstkową drugiego rzędu mamy natomiast do
czynienia wtedy, gdy do pierwszej zmiennej kontrolnej dołączymy drugą i obie zmienne będą
spełniały funkcje kontrolne jednocześnie. W specyfikacji polecenia w nawiasach może
pojawić się co najwyżej rząd równy pięć. Rząd nie może przekroczyć liczby zmiennych
kontrolnych. Przykład procedury PARTIAL CORR przedstawia tabela A.7.
541
Tabela A.8. Raport z regresji, gdzie GOYACT jest zmienną zależną
MULTIPLE REGRESSION
***#
Listwise Deletion of Missing Data Mean Std Dev Label
GOVACT LIBERAŁ INCOME EDUC
15.409 16.857 10.636 13.442
4.451 Scalę of Government Inactlvlsm
3.634 Scalę of Liberał Attitudes
2.476 TOTAL FAMILY INCOME
3.160 HIGHEST YEAR OF SCHOOL COMPLETED
N of Cases =
154
Correlation:
GOVACT LIBERAŁ INCOME EDUC
GOVACT
1.000
-.471
.094
.141
LIBERAŁ
-.471
1.000 .065 .267
INCOME
.094
.065
1.000
.311
EDUC
.141
.267
.311
1.000
Eguation Number 1
MULTIPLE REGRESSION **** Dependent Variable. . GOVACT Scalę of
Goverrunent Inactlv
Błock Number 1. Method: Stepwise
Criteria PIN .0500 POUT .1000
Variable(s) Entered on Step Number
1.. LIBERAŁ Scalę of Liberał Attitudes
Multiple R .47071
R Square .22156
Adjusted R Square .21644
Standard Error 3.94003
R Sguare Change .22156 F Change 43.26314 Signif F Change .0000
Analysis of Variance
DF Regression 1
Residual 152
Sum of Squares
671.60858
2359.61869
F= 43.26314 Signif F = .0000 AIC 424.31262
PC .79892
CP 16.80225
SBC 430.38652
Mean Square
671.60858
15.52381
Var-Covar Matrix of Regression Coefficients (B) Below Dlagonal: Covariance
Above: Correlation
LIBERAŁ
LIBERAŁ .00768
[542]
cd. tabeli A.8
XTX Matrix
LIBERAŁ LIBERAŁ 1.00000 GOVACT .47071 INCOME -.06466
EDUC -.26731
GOVACT -.47071 .77844 .12469 .26670
INCOME EDUC .06466 .26731 .12469 .26670 .99582 .29328 .29328 .92855
**** MULTIPLE REGRESSION *••• Equation Number 1
Dependent Varlable.. GOVACT Scalę of Government Inactiv
--------------------------------------- Variables in the Eauation --------------------------------
-----------
yariable B SE B 95% Confdnce Intrvl B
Beta
LIBERAŁ -.576488 .087646 -.749649 -.403327 -
.470705
(Constant) 25.127032 1.511187 22.141389 28.112676
----------------------------------------------- Variables in the Eauation ---------------------
-----------------------------
Variable SE Beta Correl Part Cor Partial Tolerance VIF
T
LIBERAŁ .071563 -.470705 -.470705 -.470705 1.000000
1.000 -6.577
(Constant)
16.627
-------- in-----------
Variable Sig T
LIBERAŁ .0000 (Constant) .0000
---------------------------- Variables not in the Eauation -----------------------------
Variable Beta In Partial Tolerance VIF Min Toler T Sig T
INCOME .125216 .141624 .995820 1.004 .995820 1.T58 .0404 EDUC
.287220 .313694 .928548 1.077 .928548 4.060 .0001
Collinearity Diagnostics
Number Eigenval
1.97768 .02232
Cond Variance Proportions
Index Constant LIBERAŁ 1.000 .01116 .01116 9.413 .98884 .98884
1543]
cd. tabeli A. 8
*** MULTIPLE REGRESSION Eguation Number 1 Dependent Variable..
GOVACT Scalę
Variable(s) Entered on Step Number
2. . EDUC HIGHEST YEAR OF SCHOOL COMPLETED
Multiple R .54604
R Square .29816
Adjusted R Sguare .28887
Standard Error 3.75352
Analysis of Variance
DF Regression 2
Residual 151
R Sguare Change .07 F Change 16.48 Signif F Change .00
Sum of Squares
903.80358
2127.42369
F = AIC PC CP
SBC
32.07503 Signif F = .0000
410.36002
.72972
2.38831
419.47087
Mean Sguare
451.90179
14.08890
Var-Covar Matrix of Regression Coefficients (B) Below Diagonal: Covariance
Above: Correlatic
LIBERAŁ EDUC
LIBERAŁ
.00751 -.00231
EDUC
-.26731 .00993
XTX Matrix
LIBERAŁ EDUC
GOYACT
INCOME
LIBERAŁ
1.07695 -.28787
-.54748
-.01977
EDUC
-.28787 1.07695
¦28722
.31585
GOVACT
.54748 -.28722
.70184
.04046
INCOME
.01977 -.31585
.04046
.90319
Eguation Number 1
MULTIPLE REGRESSION * Dependent Variable.. GOVACT Scalę of
<
Variable
LIBERAŁ
EDUC
(Constant)
-.67051B
-404545
21.274394
- Variables in the Equatlon_____........
SE B 95% confdnce Intrvl b
.086650
.099650
1.724302
-.841721
.207656
17.867519
-.499315
.601433
24.681268
cd. tabeli A.8
-----------:-----------------------------Variables in the Equation--------------------------------
------------
Variable SE Beta Correl Part Cor Partial Tolerance VIF
T
LIBERAŁ .070750 -.470705 -.527559 -.532873 .92854B
1.077 -7.738
EDUC .070750 .140876 .276769 .313694 .928548
1.077 4.060
(Constant)
12.338
...... in-----------
Variable sig T
LIBERAŁ .0000 EDUC . 0001 (Constant) .0000-
......-------------------Variables not in the Equation-------------------------
Variable Beta In partial Tolerance VIF Min Toler T Sig T INCOME
.044793 .050814 .903188 1.107 .842174 .623 .5341
Collinearity Diagnostics
Number Eigenval Cond Variance Proportions
Index Constant LIBERAŁ EDUC
1 2.94402 1.000 .00350 .00464 .00545
2 .03566 9.086 .01361 .46364 .78741
3 .02032 12.035 .98289 .53173 .20714
End Błock Number 1 PIN = .050 Limits reached.
**** MULTIPLE REGRESSION •»•• Eąuation Number 1 Dependent
Variable.. GOVACT Scalę of Government Inactiv
Summary table
Step MultR Rsq F(Eqn) SigF Variable Betain
1 .4707 .2216 43.263 .000 In: LIBERAŁ -.4707
2 .5460 .2982 32.075 .000 In: EDUC .2872
REGRESSION (regresja) (Relacje wielowymiarowe). Często badacze formułują
hipotezy, że duża liczba zmiennych niezależnych tłumaczy wariancję pojedynczej zmiennej
zależnej. W SPSS taki jednoczesny efekt kilku zmiennych można zbadać za pomocą
procedury wielowymiarowej regresji.
Dookreślenie polecenia REGRESSION zawiera deklarację zmiennych włączonych do
analizy oraz opis procedury, która ma być przeprowadzona. Raport, który zostanie
wyświetlony w konsekwencji uruchomienia poniższej sekwencji, przedstawia tabela A.8.
545
REGRESSION/VARIABLES = GOVACT, LIBERAŁ, INCOME, EDUC
/DESCRIPTIVES/STATISTICS = ALL/DEPENDENT = GO VACT /METHOD =
STEPWISE
W kolejnych wierszach polecenia przekazujemy instrukcję, by SPSS policzył I
statystyki opisowe dla wszystkich zmiennych wymienionych w wyrażeniu VAR1A-BLES =
lista zmiennych. Ponieważ REGRESSION jest statystyką asymetryczną, musimy więc
określić, która zmienna jest zmienną zależną, by można było szacować regresję Y na
podstawie X. W sekwencji wybrano metodę STEPWISE (krokową), tak więc w raporcie
pojawią się wyniki każdego kolejnego kroku procedury. | Warto odnotować, że raport zawiera
też wynik analizy wariancji dla grupy zmiennych, błąd standardowy, kilka statystyk
opisowych, współczynnik r Pearsona dla zmiennej zależnej i każdej zmiennej niezależnej,
współczynniki b i beta dla każdej zmiennej oraz współczynnik przesunięcia a.
¦ SPSS dla Windows
Kolejne części niniejszego tekstu będą dotyczyły wyłącznie profesjonalnej i
studenckiej wersji SPSS dla Windows. Informacje, które zostaną tutaj zaprezentowane, mają
na celu dostosowanie do popularnego środowiska Windows wszystkiego, co zostało do tej
pory powiedziane o procedurach SPSS i o rezultatach zastosowania tych procedur. Mimo że
Windows ma wiele cech i możliwości specyficznych dla tego systemu operacyjnego, jednak
podstawowe procedury i polecenia dostępne dla użytkowników wersji SPSS dla komputera
głównego oraz dla wersji SPSS dla środowiska DOS (PC) są również dostępne w systemie
operacyjnym Windows. Dlatego nie będziemy „odkrywać na nowo koła", przedstawiając
Windows jako zupełnie odmienny sposób obsługi i działania SPSS. Opierając się na
założeniu, że czytelnik rozumie podstawowe funkcje SPSS oraz procedury opisane w
poprzednich częściach tego tekstu, postaramy się tylko pokazać, jak porównywalne operacje
można przeprowadzać w środowisku Windows. Już wkrótce okaże się, że jeżeli użytkownik
dysponuje wersją profesjonalną SPSS, to może się posłużyć tymi samymi sekwencjami
poleceń SPSS, które zostały zaprezentowane w poprzedniej części tekstu, by otrzymać
dokładnie taki sam raport w wersji SPSS dla Windows. Dlatego nie pojawią się tu nowe
przykłady raportów, ponieważ byłyby one powieleniem raportów przedstawionych w
poprzedniej części niniejszego dodatku. Będziemy raczej odnosić „sposób obsługi SPSS
specyficzny dla środowiska Windows" do standardowych raportów, które już raz zostały tu
przedstawione, odsyłając czytelnika, jeżeli to będzie uzasadnione, do poprzednich części
niniejszego tekstu.
Zapoznanie się z wersja SPSS dla Windows
Wersja 6 pakietu SPSS dla Windows jest dobrze zintegrowanym z tym środowiskiem
programem, który stosuje się do wielu typowych dla Windows konwencji i poleceń. I tak na
przykład na górze głównego okna aplikacji znajduje się zwyczajowy pasek menu zawierający
kilka konwencjonalnych pozycji, takich jak File (Plik), Edit (Edycja) czy Help (Pomoc).
Pojedyncze kliknięcie myszą lub operatorem kulkowym danej pozycji z menu spowoduje jej
otwarcie. Tak więc pojedyn-
546
cze kliknięcie pozycji File (Plik) otworzy menu File (Plik). Menu File zawiera takie
polecenia, jak: New (Nowy), Open (Otwórz), Save (Zachowaj) oraz Ęxit (Zakończ), które
doświadczeni użytkownicy Windows spodziewają się tutaj odnaleźć. Kolejne kliknięcie
jednej z tych pozycji spowoduje albo wykonanie polecenia, albo otwarcie okna dialogowego,
w którym będzie można wykorzystać dalsze opcje programu. Użytkownik może również
uaktywnić dane polecenie z menu, używając klawisza ALT w połączeniu z klawiszem z
podkreśloną w poleceniu literą (np. ALT + F (P) dla polecenia File (Plik)). W celu
ujednolicenia instrukcji przyjmijmy jednak założenie, że każdy użytkownik systemu
Windows ma dostęp do myszy lub operatora kulkowego i że będzie to preferowany sposób
poruszania się po oknach SPSS. Dlatego w dalszej części tego tekstu, mimo że pozycje z
menu SPSS nadal będą zapisywane pogrubionym drukiem, litera łączona z klawiszem ALT w
poleceniach (np. F (P) w File (Plik)) nie będzie już podkreślana.
Użytkownicy wykorzystujący Studencką Wersję 6 SPSS zauważą, że w dużej części
pakiet ten wygląda oraz działa tak jak pełna profesjonalna wersja SPSS dla Windows. Dlatego
instrukcje, które zostaną podane w dalszej części tekstu (opisujące profesjonalną wersję
SPSS), zwykle dają się zastosować również do wersji studenckiej. Jednakże wersja dla
studentów jest „ograniczoną wersją systemu" i dlatego ma kilka zasadniczych dla
użytkownika ograniczeń. Po pierwsze, plików danych, które zawierają więcej niż 50
zmiennych lub więcej niż 1500 obserwacji, nie można w tej aplikacji ani utworzyć, ani do niej
wczytać. Po drugie, w tej wersji pewne opcje dodatkowe, jak na przykład Professional
Statistics (statystyki profesjonalne) czy Trends (trendy) nie są dostępne. Po trzecie wreszcie,
nie jest tu dostępna możliwość tworzenia, wklejania oraz uruchamiania plików poleceń przy
użyciu okna poleceń SPSS. Dodatkowo do tego w niektórych procedurach wersji studenckiej
pakietu pojawiają się mniej ważne ograniczenia, o których będziemy wspominać w dalszej
części tekstu.
Preferencje (opcje). Kiedy użytkownik po raz pierwszy uruchomi SPSS dla Windows,
musi się zapoznać z ustawieniami konfiguracji, które sterują sesją podczas działania SPSS.
Aby przyjrzeć się ustawieniom domyślnym, należy wybrać z menu pozycję Edit (edycja), a
następnie Preferences (opcje)... Najważniejszym parametrem w pojawiającym się na
monitorze oknie dialogowym (patrz ryc. A.2), który użytkownik być może będzie chciał
zmienić, aby zoptymalizować działanie programu w systemie, jest Working Memory
(zarezerwowany obszar pamięci roboczej). Można wielkość tego obszaru zmienić, klikając na
okno z liczbą i wprowadzając tam odpowiednią wartość (w kilobajtach). Nie można podać
konkretnej liczby, która byłaby zawsze ustawieniem optymalnym, ponieważ wielkość
zarezerwowanej pamięci musi być dostosowana do obszaru pamięci dostępnej w danym
systemie po uruchomieniu Windows. Jednak jak wykazuje doświadczenie, wielkość pamięci
we wstępnych ustawieniach domyślnych jest zwykle nieco mniejsza od optymalnej i
zwiększenie jej obszaru często istotnie poprawia działanie PC podczas wykonywania różnych
procedur SPSS. Jeżeli użytkownik dysponuje profesjonalną wersją SPSS, to może też wybrać
z okna dialogowego Preferences następujące opcje: 1) otwórz na starcie okno języka poleceń,
2) wyświetl w oknie raportów polecenia SPSS obok wyników procedur, 3) dostosuj dziennik
sesji (log dla sesji) do domyślnego pliku dla dziennika albo do pliku o nazwie, którą wybierze
użytkownik.
547
Session Journal Cr\WNDOWSVrEMPVSPSS.JNL BiRecord syntag in Journal
O Append
® Overwr«e B|e-

Woridng Memory: 6000 K bytes


"Transformation & Merge Options" ® Calculate vaiues immediately O Calculate
values fcefore used
OK
fleset
'Display Order for Variable Lists"
# Ałehabetical O File
Cancel
Help
"Display Format for New Variables Wid*:
8
Decłmal Places:
ISI Open a syntax jgrindow at startup to run SPSS command syntax
Graphics..
Custom Currsncy..
Oytput...
Ryc. A.2. Okno dialogowe Preferences (opcje)
W wersji SPSS dla studentów: 1) jak już wcześniej zostało powiedziane, niema okna
języka poleceń, 2) przywoływane z menu polecenia nie mogą być wyświetlone w oknie
raportów, 3) plikiem domyślnym dla dziennika sesji jest plik C:\WIN-
DOWS\TEMP\SPSS.JNL i nie można go zmienić. W wersji tej zastosowane polecenia są
jednak dołączane do dziennika sesji. Jeżeli użytkownik zna język poleceń SPSS, to może
zajrzeć do dziennika sesji, by sprawdzić, czy w efekcie pracy w trybie Windows uzyskuje
odpowiednie sekwencje poleceń. Jeżeli jednak użytkownik chce wykorzystać język poleceń
SPSS do tworzenia sekwencji poleceń w wersji pakietu dla Windows, to będzie mógł to
zrobić jedynie wtedy, gdy będzie się posługiwał pełną profesjonalną wersją tego programu.
Wprowadzanie danych. Kiedy uruchomimy SPSS w wersji dla Windows, oi rzy się
okno edytora danych o domyślnej nazwie Newdata (nowe dane) oraz puste okno edytora
raportów o nazwie !Output (!raport). W wersji profesjonalnej programu otworzy się
dodatkowo okno edytora poleceń o nazwie !Syntax (.'polecenia), jeśli wcześniej użytkownik
zaznaczy tę opcję w oknie dialogowym Preferences (patrz ryc. A.3). Jeżeli użytkownik chce
wprowadzać dane ręcznie bezpośrednio do edytora danych, to w tym momencie może już
zacząć to robić. Trzeba się tylko upewnić, czy okno edytora danych o nazwie Newdata jest
oknem aktywnym. Jeżeli tak jest, to będzie ono umieszczone z przodu ekranu (przed
pozostałymi oknami), a pasek tytułu (długi pasek z nazwą Newdata umieszczony na górze
monitora) będzie podświetlony. Można uaktywnić każde okno widoczne na ekranie monitora
poprzez pojedyncze kliknięcie dowolnej jego części.
Metoda wprowadzania danych do okna edytora danych SPSS jest bardzo podobna do
sposobu, w jaki wprowadzamy dane w typowych arkuszach danych oprogramowanych dla
systemu Windows. Kolejne dane wprowadzamy do kolejnych aktywnych komórek arkusza.
Komórkę, w której właśnie zapisujemy liczbę, nazywamy komórką aktywną, ponieważ jest
ona w każdej chwili gotowa do wprowadzania danych lub ich edytowania. Można ją zawsze
łatwo zidentyfikować,
ii., inste
548
ikając ją po :najduje się
rtości poje-obserwacji. ej zmiennej wną komór-nnie, zatem iter. Jak łat-więc w wy-ie
klawisza vprowadzo-niejscowio-rym wcześ-'. Po trzecie pna komór-zą komórką ugiej obser-
;ż, jeżeli na 5 kursora ze to program ych i będzie tość.
ma Het-IIN-ble-
Jceń Itry-łnik Jrsji jpo-
leniame za-
komórki złą zy po prostu
549

—J SPSS for Windows

ENe Łdlt Bata Iranaform Statisflcs firaphs Utilities WJndow Help


- lOutputl |' 1» ||

- ISynłax1 hj*j

a -| Newdata 1'
»
¦

¦1 1

SPSS Processor Is ready

Ryc. A.3. Okna edytora danych


ponieważ otacza ją cienka ramka. Każdą komórkę można uaktywnić, ki prostu myszą,
ale domyślnie aktywną komórką jest zawsze ta, która i w pierwszym wierszu i w pierwszej
kolumnie.
W oknie edytora danych SPSS dana kolumna zawiera wszystkie wa
dynczej zmiennej, a dany wiersz — wszystkie wartości dla pojedynczej
Wprowadzanie danych zaczynamy zwykle od wpisania wartości pierwsz
dla pierwszej obserwacji. Ponieważ przy ustawieniach domyślnych akty
ką jest ta, która znajduje się w pierwszym wierszu i w pierwszej kolur
wystarczy po prostu wpisać odpowiednią wartość i nacisnąć klawisz Er
wo zauważyć, zapisywana wartość pojawi się tam, gdzie miga kursor, a
dłużonej komórce umieszczonej na górze arkusza. Pierwsze naciśnięć
Enter spowoduje trzy operacje. Po pierwsze, wpisana wartość zostanie \
na do pierwszej komórki. Po drugie, w nagłówku kolumny pierwszej ui
nym powyżej komórki, do której wprowadzona została wartość i w któ
niej widniała ogólna etykieta „var", pojawi się teraz nazwa ,,var00001'
wreszcie, uaktywni się i będzie gotowa do wprowadzania danych nastę
ka, która znajduje się w kolumnie numer jeden bezpośrednio pod pierws
i która przeznaczona jest na wpisanie wartości pierwszej zmiennej dla dr
wacji (wiersz drugi). Można teraz wprowadzić kolejną wartość lub te
przykład nie mamy wartości dla drugiej obserwacji, przycisnąć klawis;
strzałką skierowaną w dół (i). Jeżeli opuścimy w ten sposób komórkę,
sam wpisze do niej kropkę. Kropka reprezentuje tu systemowy brak dan
w różnych procedurach rozpoznawana przez SPSS jako brakująca war
Proste edytowanie: poprawianie źle wprowadzonych danych i zm wartości komórek.
Jeżeli zdarzyło się, że użytkownik wprowadził do wartość, albo też zawartość danej komórki
wymaga zmiany, to wystarc
Ryc. A.4. Okno dialogowe Define Variable (definiuj zmienną)
jeden raz kliknąć komórkę, w ten sposób uaktywniając ją, i wpisać nową wartość.
Naciśnięcie klawisza Enter spowoduje zakończenie tej operacji.
Etykietowanie zmiennej. W momencie zapisywania wartości danej zmiennej lub zaraz
po jej wprowadzeniu użytkownik zwykle nadaje zmiennej nazwę. Etykietowanie zmiennych
w SPSS dla Windows jest operacją bardzo prostą. W oknie dialogowym, którego używamy do
zmiany nazw zmiennych, można ponadto: 1) zmienić typ zmiennej, jej logiczną szerokość
oraz liczbę miejsc dziesiętnych, 2) dodać. zmienić lub usunąć etykietę dla zmiennej i etykiety
dla wartości zmiennej, 3) ustalić wartości dla oznaczenia brakujących danych, 4) zdefiniować
format kolumny (szerokość oraz wyrównanie tekstu). Aby uzyskać dostęp do tego okna
dialogowego, trzeba kliknąć pozycję Data (dane), a następnie Define Variable (definiuj
zmienną)... albo po prostu dwa razy kliknąć nagłówek kolumny „var00001" lub „var00002"
itd. Gdy tylko pojawi się okno dialogowe Define Variable, można od razu zmienić nazwę
zmiennej oraz wybrać inne opcje, które zapewnią dostęp do kolejnych okien dialogowych,
które z kolei pozwolą na zdefiniowanie wszystkich pozostałych wymienionych wyżej
charakterystyk dla zmiennej (patrz ryc. A.4). W środku okna dialogowego Define Variable
znajduje się obszar Variable Descrip-tion, który informuje użytkownika o aktualnych
opisowych charakterystykach zmiennej (typ, etykieta, braki danych, wyrównanie tekstu).
Jeżeli jedna z tych charakterystyk zostanie zmieniona, informacja zawarta w tym obszarze też
ulegnie zmianie. Aby zatwierdzić wszystkie wprowadzone przez użytkownika zmiany w
definicji zmiennej, wystarczy kliknąć przycisk OK w głównym oknie dialogowym. Kiedy
wrócimy do głównego edytora danych, wszystkie zmiany dokonane w oknie dialogowym
Define Variable zostaną już do arkusza wprowadzone.
550
0

age ¦ Variablc Information:


cappun degree Label: RS HIGHEST DEGREE
¦
educ Type: F1
eąwlth Missing Values: 7, 8, 9

filter $
govact Vaiue Labels:
happy 0 LT HIGH SCHOOL

helpblk 1 HIGH SCHOOL

helpnot 2 JUNIOR COLLEGE

helppoor 3 BACHELOR

helpsick 4 GRADUATE

homosex 7 NAP
id income 8 DK ¦

liberał ¦ Go To Pastę Close Help

Ryc. A.5. Okno dialogowe Utilities (narzędzia), Yariables (zmienne)


Informacje o zmiennej. Po zdefiniowaniu zmiennych użytkownik może zechcieć raz
jeszcze sprawdzić informacje dotyczące etykiety danej zmiennej, etykiet dla jej wartości, typu
zmiennej oraz zdefiniowanych wartości dla brakujących danych. Może wtedy znowu odwołać
się do okna dialogowego Define Variable, które zawiera opis tej zmiennej. Istnieje jednak
prostsza i szybsza metoda. Kliknięcie pozycji Utilities (narzędzia), następnie Variables
(zmienne)... spowoduje pojawienie się okna dialogowego Variables, które zawiera
podsumowanie informacji o wybranej zmiennej (patrz ryc. A.5). Jeżeli użytkownik przewinie
listę zmiennych umieszczoną po lewej stronie okna i zaznaczy jedną z nich, to po prawej
stronie natychmiast pojawi się informacja o wybranej zmiennej.
Okna dialogowego Variables (zmienne) można także użyć, by w edytorze danych
przenieść aktywną komórkę z jednej zmiennej do innej zmiennej. Jest to szczególnie
użyteczne, jeśli tworzymy duży zbiór danych złożony z wielu kolumn i większość z tych
kolumn nie jest widoczna na ekranie. Trzeba tylko zaznaczyć zmienną, do której chcemy się
przenieść, klikając jeden raz jej nazwę, nacisnąć przycisk Go To (przejdź do), a następnie
przycisk Close (zamknij). Aktywna komórka zostanie w ten sposób przeniesiona do kolumny,
w której została zapisana wybrana zmienna.
Zapisywanie danych. Kiedy już użytkownik wprowadzi dane albo dokona na nich
różnych transformacji, powinien od czasu do czasu zapisać plik, aby nie stracić efektów
swojej pracy chociażby w wyniku usterki komputera. Najlepiej nadawać plikom danych
unikatowe i opisowe nazwy, aby było łatwo je potem odnaleźć. Wystarczy wprowadzić tylko
pierwszą część wybranej nazwy pliku, ponieważ system SPSS przyjmuje rozszerzenie .sav
jako rozszerzenie domyślne dla wszystkich pli-
551
ków danych. Jeżeli użytkownik zdecyduje się na konkretną nazwę dla pliku (np.
mojedane.sav), to powinien kliknąć File, następnie Save As (zapisz jako)..., i wprowadzić
wybraną nazwę, zastępując nią gwiazdkę w wyrażeniu „*.sav", które pojawi się w oknie File
Name (nazwa pliku). Teraz wystarczy kliknąć przycisk OK i dane zostaną zapisane.
Otwieranie zapisanych plików. Kiedy już raz dane zostały zapisane, można opuścić
system SPSS, a potem w każdej chwili wrócić do niego i znowu otworzyć zapisany plik. Dane
pojawią się na monitorze zawsze w takiej formie, w jakiej zostały po raz ostatni zapisane.
Aby otworzyć plik danych, trzeba kliknąć pozycję File, następnie Open, potem Data..., a
następnie wybrać plik z listy plików. Jeżeli dane zostały zachowane nie w katalogu SPSS,
który jest katalogiem domyślnym, ale w innym miejscu w komputerze, to trzeba dodatkowo
wybrać dysk oraz katalog, w którym plik został zapisany. Potem wystarczy kliknąć przycisk
OK i dane pojawią się w edytorze danych. Należy się jednak upewnić, że w tym samym
czasie zostało otwarte tylko jedno okno z danymi. Jeżeli okno z danymi zostało otwarte i
użytkownik zdecyduje się na otwarcie innego, to program dostosowując się do nowej
instrukcji, zamknie okno otwarte jako pierwsze.
Organizowanie i zapisywanie okna raportów. Jeżeli użytkownik uruchamia w trakcie
jednej sesji dużą liczbę procedur, to wyniki każdej z nich będą domyślnie umieszczane w tym
samym aktywnym oknie raportów. Aby nie tworzyć raportu, który zawiera zbyt duży i
niewygodny w interpretacji zbiór wyników dla wszystkich zastosowanych procedur, można
spowodować, by raporty z poszczególnych kroków analizy zostały skierowane do różnych
dodatkowych edytorów raportów. W każdym momencie trwania sesji można otworzyć
dodatkowe okno raportów, klikając pozycję File, następnie New (nowy) oraz SPSS Output
(raport). Sekwencja ta spowoduje pojawienie się na ekranie monitora nowego edytora
raportów, który oznaczony zostanie kolejnym numerem. Jednak aby uzyskać dostęp do
aktywnego edytora raportów, trzeba kliknąć przycisk !, który pojawi się po prawej stronie
okna menu. Kiedy użytkownik kliknie ten przycisk, zauważy, że w wybranym edytorze
raportów nastąpiła zmiana (na przykład zamiast nazwy Output2 (raport2) pojawiła się nazwa
!Output2 (!raport2)). Znak ! oznacza zatem, że wybrane okno jest aktywnym edytorem
raportów.
Systemowy raport, który został utworzony i wyświetlony w aktywnym edytorze
raportów, może być zachowany w taki sam sposób jak dane w edytorze danych. Jeżeli więc
użytkownik chce zachować zawartość aktywnego edytora raportów, to powinien kliknąć
pozycję File, następnie Save As... i wprowadzić nazwę pliku. Wystarczy, że wpisze tylko
pierwszą część wybranej nazwy pliku raportu, ponieważ system SPSS przewiduje
rozszerzenie .lst jako rozszerzenie domyślne dla tego typu plików. Jeżeli użytkownik wybrał
nazwę dla pliku (na przykład nowyrap.lst), to powinien kliknąć pozycję File, następnie Save
As... i wpisać nazwę nowyrap.lst, zastępując wyrażenie *.lst, które pojawi się w oknie File
Name. Teraz wystarczy kliknąć przycisk OK i raport zostanie zapisany.
Aby otworzyć zapisany raport, wystarczy kliknąć File, następnie Open, potem SPSS
Output... i wybrać plik zawierający raport.
552
Uruchamianie procedur SPSS z edytora poleceń
Jedynie w profesjonalnej wersji SPSS dostępny jest edytor poleceń. Można w nim
tworzyć sekwencje poleceń w języku SPSS, można do niego wklejać polecenia wybrane
wcześniej z menu, można też uruchamiać zapisane w nim sekwencje poleceń. Jak już
wspominano wcześniej, użytkownik może w oknie Preferences ustawić wyjściowe parametry
programu tak, by edytor poleceń otwierał się automatycznie przy jego rozpoczęciu. W
każdym momencie trwania sesji można też otworzyć nowe okno edytora poleceń, klikając
sekwencję File, New, SPSS Syntax (edytor poleceń).
Uruchamianie procedur SPSS z okien menu
Aby wykorzystywać wersję SPSS dla Windows, nie trzeba wcale używać edytora
poleceń. Wymiana plików poleceń w edytorze jest tylko opcją dla użytkowników, którzy
preferują ten styl pracy. Jeżeli ktoś woli obsługiwać program za pomocą okien menu oraz
okien dialogowych, to dalsza część tego tekstu powinna mu pomóc zrozumieć, jak w wersji
dla Windows tworzyć polecenia uruchamiające te same procedury, które zostały opisane w
poprzednich częściach niniejszego dodatku. Dobrze byłoby jednak, aby użytkownik zdawał
sobie sprawę z tego, że jeżeli w tej wersji SPSS uruchomi jeden z plików poleceń
przedstawionych w poprzednich częściach tego tekstu, używając do tego celu okna lOutput
(Sraport), to otrzyma zawsze dokładnie taki sam raport jak ten, który omówiony już został na
poprzednich stronach dodatku. Natomiast odtwarzanie w wersji dla Windows zawartości
edytora poleceń za pomocą okien z menu czasami daje w konsekwencji trochę inny raport.
Czyszczenie danych
MISSING VALUES (Braki danych). (Patrz s. 525-528). Aby zadeklarować brakującą
wartość dla zmiennej, należy dwa razy kliknąć na nagłówek kolumny z nazwą zmiennej,
następnie kliknąć przycisk Missing Values i zdefiniować brakującą wartość w oknie
dialogowym Define Missing, Values (definiuj braki danych). Kiedy już to uczynimy,
wystarczy kliknąć najpierw przycisk Continue (dalej), a potem przycisk OK. Dla przykładu ze
strony 525 należy:
1. Kliknąć dwukrotnie na nagłówek kolumny z nazwą zmiennej MARITAL (stan
cywilny).
2. Kliknąć przycisk Missing Values..., a następnie zaznaczyć puste pole przy kategorii
Discrete missing values (wartości dyskretne braków).
3. Wpisać jako nową brakującą wartość liczbę 7 (wcześniej zadeklarowana brakująca
wartość równa 9 pojawi się w sąsiednim oknie).
4. Kliknąć przyciski Continue oraz OK.
SELECT IF/LIST (wybierz jeżeli/listuj). (Patrz s. 526-528). W poprzednich częściach
niniejszego tekstu polecenia SELECT IF oraz LIST były wykorzystywane do czyszczenia
danych. W wersji dla Windows można również do tego celu użyć kombinacji tych dwóch
poleceń. Do czyszczenia danych można jednak wykorzystać również inne, specyficzne dla
Windows polecenia (na przykład Search for Data (wybierz obserwacje)).
553
^^^
Jeżeli użytkownik do wyczyszczenia danych wybrał kombinację poleceń SELECT IF
oraz LIST, powinien uruchomić z menu następującą sekwencję:
1. Kliknąć Data i Select Cases (wybierz obserwacje)...
2. Następnie w oknie dialogowym Select Cases kliknąć opcjonalny przycisk If
condition is satisfied (jeśli spełniony jest warunek).
3. Po kliknięciu przycisku If pojawi się robocze okno zawierające listę wszystkich
zmiennych, klawiatura przypominająca klawiaturę kalkulatora zawierająca cyfry i operatory
logiczne oraz lista funkcji, do których można wstawiać argumenty (patrz ryc. A.6).
4. Teraz trzeba wybrać zmienną (na przykład MARITAL), klikając jeden raz na jej
nazwę, potem kliknąć przycisk ze strzałką skierowaną w prawo (=*) po to, by przenieść
zmienną do obszaru operacyjnego. Aby zmienną przenieść do tego obszaru, wystarczy też
dwukrotnie kliknąć jej nazwę.
5. Za pomocą klawiatury przypominającej klawiaturę kalkulatora należy kliknąć
sekwencję tych operatorów i tych wartości, które pozwolą wydzielić grupę obserwacji. W tym
przykładzie trzeba kliknąć znak równości (=), a następnie przycisk z cyfrą 7.
6. Kiedy już to zostało zrobione, trzeba kliknąć przycisk Continue, a następnie
przycisk OK. Uwaga: Jeżeli użytkownik nie zrobi nic więcej, to od tego momentu każde
polecenie oraz każda procedura, którą uruchomi w trakcie sesji, będzie uwzględniała tylko tę
grupę obserwacji, która została określona w wyrażeniu If. Jeżeli w jakimś momencie
użytkownik będzie chciał analizować znowu wszystkie obserwacje, to musi wrócić do okna
dialogowego Select Cases, wybrać zmienną i kliknąć przycisk Ali Cases (wszystkie
obserwacje), który anuluje warunek If...
7. Teraz należy kliknąć sekwencję Statistics (statystyki), Summarize (opis
statystyczny), List Cases (podsumowania obserwacji)... po to, by na ekranie pojawiło się okno
dialogowe List Cases.
8. Trzeba następnie wybrać zmienną identyfikacyjną (w tym przypadku zmienną o
nazwie ID) i kliknąć w polu Number cases (pokaż numery obserwacji) tak, by pojawił się w
nim znak x. Potem wystarczy kliknąć przycisk OK. W edytorze raportów pojawi się lista
zawierająca wartości zmiennej identyfikacyjnej oraz numery tylko dla tych obserwacji, które
wcześniej zostały wybrane.
Można zamiast metody lokalizowania nieprawidłowych kodów za pomocą sekwencji
poleceń SELECT IF/LIST (wybierz jeżeli/listuj), zastosować następującą technikę:
1. Należy kliknąć którąkolwiek komórkę w kolumnie, w której zapisana jest
analizowana zmienna (na przykład MARITAL).
2. Trzeba kliknąć pozycje Edit oraz Search for Data (znajdź)... Po takiej sekwencji na
ekranie pojawi się okno dialogowe Search for Data (znajdź dane).
3. Należy teraz wpisać wartość, której użytkownik chce poszukać (na przykład 7).
Potem trzeba kliknąć albo przycisk Search Forward (szukaj w przód), albo przycisk Search
Backward (szukaj wstecz) w zależności od tego, w jaki sposób użytkownik zamierza
przeszukiwać zmienną. Uwaga: Aby te poszukiwania przeprowadzić bardziej metodycznie,
należy w opisanym po-
554
eqwlth
govact happy
helpblk
helpnot
helppoor
helpsick
homg«ex
Id
liberał
marital
natcłty
natełtyz
natfare
marital ¦ 7
El 00 SUE ? EE EEE B EJH EHE Euncilons: a
ANY|testvalue.value....] ARSIN[numexpr) ARTAN(numexpr)
CDFNORM|zvalue| COF.BERNOULU(q.p)
l/llill II o ||. |
|«*| I" HM II Delete |
| ConMnue II Cancel
Help
Ryc. A.6. Okno robocze SELECT IF (wybierz jeżeli)
wyżej kroku nr 1 kliknąć najwyższą komórkę (odpowiadającą pierwszej obserwacji) w
kolumnie, w której zapisana jest interesująca badacza zmienna, a następnie konsekwentnie
posługiwać się tylko przyciskiem Search Forward (szukaj w przód). 4. Ponieważ okno
dialogowe Search for data (znajdź)... pozostanie otwarte, dopóki użytkownik nie posłuży się
przyciskiem Close (zamknij), można przechodzić od jednej poszukiwanej obserwacji do
kolejnych, klikając wielokrotnie jeden z przycisków Search (szukaj). Uwaga: Istnieje
możliwość przeniesienia okna dialogowego Search for Data w bardziej dogodne miejsce na
monitorze, aby użytkownik mógł oglądać wynik swoich poszukiwań w edytorze danych. Aby
to zrobić, należy kliknąć na ramkę z tytułem okna dialogowego i przytrzymując przycisk
myszy, przeciągnąć całe okno w bardziej dogodne miejsce, a następnie zwalniając przycisk
myszy, upuścić je.
Przekształcenie IF (Jeżeli). (Patrz s. 533). Polecenie przekształcenia IF jest traktowane
przez wersję SPSS dla Windows jako specjalny przypadek polecenia COM-PUTE (policz
wartości). Weźmy jako przykład polecenie:
IFIDEQ33EDUC=1
Aby uruchomić takie przekształcenie w SPSS dla Windows, należy wykonać
następujące kroki:
1. Kliknąć sekwencję Transform (przekształcenia), Compute... Okno dialogowe
Compute (oblicz wartości zmiennej), które się pojawi na monitorze, jest bardzo podobne do
okna dialogowego Select cases.
2. Do okna Target Variable (zmienna wynikowa) trzeba wpisać nazwę zmiennej, na
której mają zostać zarejestrowane przekształcone wartości dla danej obserwacji lub grupy
obserwacji. Wpiszmy tu nazwę EDUC.
3. W oknie Numeric Expression (wyrażenie numeryczne) należy wpisać wartość,
która ma być przypisana danej obserwacji lub pewnej liczbie obserwacji. Wpiszmy w tym
miejscu wartość 1.
555
4. Następnie należy kliknąć przycisk If... Trzeba się również upewnić, czy została
zaznaczona opcja Include if case satisfies condition (uwzględnij, jeśli obserwacja spełnia
warunek).
5. Teraz należy zdefiniować warunek logiczny wyznaczający tę grupę obserwacji,
której to przekształcenie ma dotyczyć. Kliknijmy więc kolejne przyciski w następującym
porządku:
¦ zmienna ID z listy zmiennych,
¦ strzałka w prawo (=>), aby przenieść ID do obszaru operacyjnego,
¦ przycisk ze znakiem =,
¦ przyciski z liczbą 33,
¦ przycisk Continue (dalej).
Po powrocie do poprzedniego ekranu zauważymy, że warunek ID = 33 jest teraz
zapisany obok przycisku If.
6. Teraz wystarczy kliknąć przycisk OK, by uruchomić to przekształcenie.
DISPLAY Dictionary (słownik danych). (Patrz s. 528). Aby uzyskać informa-je o
wszystkich zmiennych zapisanych w zbiorze danych, należy kliknąć sekwen-ię Utilities
(narzędzia), File Info (słownik danych).
ozkłady jednowymiarowe
FREQUENCIES (częstości). (Patrz s. 528). Aby otrzymać statystyki generowa-: przez
procedurę FREQUENCIES, należy wykonać następujące czynności:
1. Kliknąć sekwencję Statistics (statystyki), Summarize (opis statystyczny),
Freąuencies (częstości)...
2. Wybrać zmienną lub zmienne, które użytkownik chce analizować (na przykład
DEGREE i HAPPY).
3. Upewnić się, że zaznaczona jest opcja Display freąuencies tables (pokaż tabele
częstości).
4. Kliknąć przycisk Statistics.
5. Wybrać wszystkie opcje umieszczone pod ramkami otaczającymi kategorie
wskaźników, a więc Dispersion (rozproszenie), Distribution (rozkład) oraz Central Tendency
(tendencja centralna).
6. Kliknąć pozycję Continue, a następnie OK.
DESCRIPTIVES (statystyki opisowe). (Patrz s. 528). Aby otrzymać statystyki sowę
(DESCRIPTIVES) dla danych, należy wykonać następujące czynności:
1. Kliknąć sekwencję Statistics, Summarize, Freąuencies...
2. Wybrać zmienną lub zmienne, które użytkownik chce analizować.
3. Upewnić się, że opcja Display Iabels (pokaż etykiety) jest zaznaczona.
4. Kliknąć przycisk Options (opcje).
5. Wybrać wszystkie dostępne opcje.
6. Kliknąć pozycję Continue, a następnie OK.
JRAPH (wykresy). Wykorzystując procedurę GRAPH, można narysować wy-
słupkowy albo wykres kołowy dla rozkładu jednowymiarowego. Program ob-
ujący procedury graficzne w wersji dla Windows jest o wiele lepszy niż grafika
3
o
1000 800 600 400 200' 0. .
Missing HIGH SCHOOL BACHELOFt
ŁT HIGH SCHOOL JUNIOR COLLEGE GRAOUATE
RS HIGHEST DEGREE
Ryc. A.7. Wykres słupkowy wygenerowany przez SPSS dla Windows
GRAPH/BAR (SIMPLE) = COUNT BY DEGREE/MISSING = REPORT.
GRAPH/PIE = COUNT BY HAPPY/MISSING = REPORT
NOT TOO HAPPY
Missing
Ryc. A.8. Wykres kołowy wygenerowany przez SPSS dla Windows
dostępna w SPSS lub też SPSS PC+. Następująca sekwencja poleceń spowoduje
pojawienie się w raporcie wykresów przedstawionych na rycinach A.7 oraz A.8.
Pomiar: konstrukcja skal i wskaźników
RECODE (rekoduj) przed RELIABILITY (rzetelność). (Patrz s. 530). Jak już
wspominano w poprzednich częściach niniejszego tekstu, wszystkie zmienne, które mają
tworzyć jeden wskaźnik, muszą być kodowane w tym samym kierunku. Wiemy już, że
zmienne NATCITY, NATFARE, NATRACĘ oraz POLVIEWS nie są kodowane w tym
samym kierunku co pozostałe zmienne, które mają utworzyć skalę
557
LIBERAŁ. Dlatego przekodujmy je, odwracając w nich porządek wartości.
Wykonanie następującej sekwencji kroków spowoduje przekodowanie wartości trzech
spośród tych zmiennych w taki sposób, że ani same wartości, ani zakres tych wartości się nie
zmieni:
1. Należy kliknąć sekwencję Transform, Recode, Into Different Variables (na inne
zmienne)... To spowoduje pojawienie się okna dialogowego Recode into Different Variables
(rekoduj na inne zmienne).
2. Trzeba wybrać pierwszą ze zmiennych (NATCITY) i kliknąć przycisk ze strzałką
w prawo (=»), by przenieść tę zmienną do obszaru Numeric Variab-le => Output Variable
(zmienna źródłowa => wynikowa).
3. W obszarze Output Variable (zmienna wynikowa) należy kliknąć przycisk Name
(nazwa) i wpisać nową nazwę dla przekodowywanej zmiennej (NAT-CITY2). Następnie
trzeba kliknąć przycisk Change (zmień).
4. Trzeba powtórzyć 3 krok dla zmiennych NATFARE oraz NATRACĘ, zmieniając
ich nazwy na NATFARE2 i NATRACE2.
5. Należy kliknąć przycisk Old and New Values (wartości źródłowe i wynikowe),
następnie kliknąć Old Value (wartość źródłowa) — Value i wpisać liczbę 1. Potem trzeba
kliknąć New Value (wartość wynikowa) — Value i wpisać liczbę 3. Teraz wystarczy kliknąć
przycisk Add (dodaj).
6. Trzeba teraz powtórzyć 5 krok, pozostawiając liczbę 2 oraz zmieniając liczbę 3 na
liczbę 1.
7. Po zakończeniu tej czynności wystarczy kliknąć przyciski Continue (dalej) oraz
OK.
Czwarta zmienna, POLVIEWS, ma większy zakres wartości i musi zostać
przekodowana oddzielnie. Kierując się opisanym powyżej schematem postępowania,
czytelnik może podjąć samodzielną próbę przekodowania zmiennej POLVIEWS na zmienną
POLVIEWS2, zamieniając kolejne wartości tej zmiennej w sposób następujący: 1 = 7,2 = 6,3
= 5,4 = 4,5 = 3,6 = 2 i 7 = 1.
Uwaga: Pamiętajmy, że powyższe zmienne przekodowane zostały w celu
wykorzystania ich do skonstruowania skali LIBERAŁ. W przypadku skali GOVACT. o której
będziemy pisać w następnej części tego tekstu, przekodowywanie zmiennych nie było
konieczne.
RELIABILITY (rzetelność). (Patrz s. 530-533). Aby uruchomić procedurę RE-
LIABILITY, trzeba wykonać następujące kroki:
1. Kliknąć na sekwencję Statistics, Scalę (skalowanie), Reliability Analysis (analiza
rzetelności)... Na monitorze pojawi się okno dialogowe Reliability Analysis (patrz ryc. A.9).
2. Upewnić się, że opcja Model (model) na opadającym menu zawiera wyrażenie
Alpha (alfa).
3. Wybrać wszystkie zmienne, które mają utworzyć skalę (EQWLTH, HELPBLK.
HELPNOT, HELPPOOR, HELPSICK i NATCITY).
4. Kliknąć przycisk Statistics... i wybrać opcję Scalę if item deleted (skala przy
wykluczeniu pozycji).
5. Kliknąć przyciski Continue, a następnie OK.
558
a Reliability Analysis

natcity2 natfare natfare2 natracę natrace2 partyid poMew2 poMews race racseg ¦ 7
ttems: OK
M eqwlth helpbik heipnot heippoor heipsick
Pastę
Beset
Cancel
Help

Model: Alpha ¦
D Ust item labels Statistics...

Ryc. A.9. Okno dialogowe Reliability Analysis (analiza rzetelności)


COMPUTE (oblicz wartości) po RELIABILITY. (Patrz s. 533). Aby obliczyć skalę
GOVACT, posługując się menu w wersji SPSS dla Windows, należy:
1. Kliknąć sekwencję Transform, Compute...
2. Kliknąć obszar Target Variable (zmienna wynikowa) i wpisać nazwę twojej
zmiennej (tu GOVACT).
3. Wybrać pierwszą zmienną z listy zmiennych (EQWLTH), użyć przycisku ze
strzałką skierowaną w prawo (=>), aby przenieść tę zmienną do okna Nume-ric Expression
(wyrażenie numeryczne), a następnie kliknąć przycisk ze znakiem plus (+).
4. Powtórzyć krok 3 dla zmiennych HELPBLK, HELPNOT, HELPPOOR oraz
HELPSICK, omijając znak plus (+) tylko po wprowadzeniu ostatniej zmiennej (HELPSICK).
5. Po wykonaniu wszystkich czynności wystarczy kliknąć przycisk OK.
Rozkłady dwuwymiarowe
Pomiary nominalne i porządkowe — CROSSTABS (tabele krzyżowe). (Patrz s. 534-
537). W wersji SPSS dla Windows procedurze CROSSTABS omawianej w poprzednich
częściach tej pracy towarzyszą następujące kroki:
1. Na\ei\( k\\kr\ąć sekwencję Statistics, Summariie, Crosstabs...
2. Trzeba następnie wybrać zmienną zależną (HAPPY) i kliknąć przycisk ze strzałką
skierowaną w prawo, aby przenieść tę zmienną do okna Row(s) (zmienne w wierszach).
559
3. Teraz trzeba wybrać zmienną niezależną (DEGREE) i kliknąć przycisk ze strzałką
skierowaną w prawo, aby przenieść tę zmienną do okna Column(s) (zmienne w kolumnach).
4. Należy kliknąć przycisk Cells (komórki)... i zaznaczyć opcję Counts (liczebności)
— Observed (obserwowane) oraz wszystkie opcje w obszarze Per-centages (procenty).
Następnie trzeba kliknąć przycisk Continue.
5. Teraz należy kliknąć przycisk Statistics..., wybrać wszystkie opcje i kliknąć
przycisk Continue.
6. Teraz wystarczy kliknąć przycisk OK, by uruchomić procedurę.
RECODE into the Same Variable (rekoduj na te same zmienne). (Patrz s. 535). Aby
uruchomić procedurę RECODE tak, by odpowiednio połączyć kategorie w zmiennej
wynikowej, należy wykonać następujące kroki:
1. Kliknąć sekwencję Transform, Recode, Into Same Variables...
2. Wybrać zmienną wynikową (w tym przypadku DEGREE) z listy zmiennych i
kliknąć przycisk ze strzałką w prawo (=>), aby przenieść tę zmienną do obszaru Numeric
Variables (zmienne).
3. Kliknąć przycisk Old and New Values (wartości źródłowe i wynikowe).
Następnie wpisać jedną wartość źródłową (3) do okna Old Value (wartość źródłowa),
a nową odpowiadającą jej wartość (3) wpisać do okna New Va-lue (wartość wynikowa) i
kliknąć przycisk Add. Tę ostatnią operację trzeba powtórzyć po to, by przekodować inną
wartość źródłową (4) na odpowiadającą jej wartość wynikową (3).
4. Teraz wystarczy kliknąć przycisk Continue oraz OK, uruchamiając w ten sposób
powyższe polecenia. Uwaga: Aby przekodować wartości dla pozostałych przykładów
przedstawionych w poprzednich częściach tego tekstu. należy powtarzać 3 krok dla
wszystkich źródłowych wartości, które zawierają się w przedziale od 0 do 4.
Pomiary interwałowe — CORRELATIONS (korelacje). (Patrz s. 537). Aby policzyć
korelację dla dwóch zmiennych, należy uruchomić następującą sekwencję:
1. Kliknąć pozycje Statistics, Correlate, Bivariate (parami)...
2. Wybierać zmienne (AGE, EDUC, INCOME, LIBERAŁ oraz GOVACT) i kliknąć
przycisk ze strzałką skierowaną w prawo (=>), aby przenieść je do okna Variables.
3. Upewnić się, że zaznaczone są opcje Display actual significance level (oznacz
korelacje istotne) oraz Two-tailed (dwustronna).
4. Kliknąć przycisk Options... i zaznaczyć wszystkie Statistics.
5. Kliknąć przyciski Continue oraz OK.
GRAPH (wykres). (Patrz s. 537). Aby narysować wykres rozrzutu w celu oszacowania
relacji pomiędzy dwiema zmiennymi, należy:
1. Kliknąć sekwencję Graphs, Scatter (rozrzutu)..., Simple (prosty) oraz Define
(definiuj).
560
SPSS for Windows
ple E<m Carousel Wjndow tjelp
Chart Carousel
1 :Scatter ot govact educ
ł - -
Edit Discard
-10 0 10 20
HIGHEST YEAR OF SCHOOL COMPLETED
SPSS Processor Is ready
Ryc. A.IO. Okno Chart Carousel (edytora wykresów)
2. Wybrać zmienną zależną (LIBERAŁ) z listy zmiennych i kliknąć przycisk ze
strzałką skierowaną w prawo (=>), aby przesunąć ją do okna Y Axis (oś Y). Następnie
wybrać zmienną niezależną (AGE) i przesunąć ją do okna X Axis (oś X).
3. Kliknąć przycisk OK.
4. Wykres powinien się pojawić w oddzielnym oknie nazwanym Chart Carousel
(edytor wykresów) (patrz ryc. A.10). Jeżeli Chart Carousel pojawia się jako ikona, to
wystarczy dwa razy kliknąć na tę ikonę i okno się otworzy.
Analizy wielowymiarowe
PARTIAL CORR (korelacja cząstkowa). (Patrz s. 539-541). Posługując się oknami
menu SPSS dla Windows, użytkownik może policzyć tylko takie korelacje cząstkowe, które
uwzględniają wariancję wszystkich wprowadzonych do analizy zmiennych kontrolnych
równocześnie. Jeżeli na przykład chciałby za pomocą okien menu odtworzyć plik poleceń z
przykładu na stronie 541:
P ARTIM. CORR GOV A,CT mTH \GE BY UBESJsL, TNCCftAE (\, 1)
to nie może wybrać opcji (1, 2), która powoduje policzenie korelacji cząstkowych
zerowego, pierwszego oraz drugiego rzędu. Tak więc zamiast otrzymać trzy rodzaje
współczynników korelacji cząstkowej dla zmiennych GOVACT i AGE kontrolowanych przez
1) zmienną LIBERAŁ i zmienną INCOME, 2) tylko zmienną LIBERAŁ oraz 3) tylko
zmienną INCOME, przy uruchomieniu polecenia z menu użytkownik uzyska pojedynczy
współczynnik korelacji cząstkowej drugiego rzędu (GOVACT z AGE kontrolowana i przez
LIBERAŁ, i przez INCOME). Można oczywiście uruchamiać kilka razy polecenia z menu,
aby odtworzyć wszystkie pozostałe współczynniki korelacji cząstkowej. Kiedy jednak
użytkownik dysponuje
561
profesjonalną wersją pakietu, z pewnością będzie mu łatwiej użyć edytora poleceń,
wpisując, a następnie uruchamiając własną specyfikację polecenia PARTIAL CORR.
Następujące kroki spowodują policzenie współczynników korelacji cząstkowej dla GOVACT
z AGE kontrolowanych równocześnie przez zmienną LIBERAŁ i przez zmienną INCOME
(korelacje drugiego rzędu):
1. Należy kliknąć sekwencję Statistics, Correlate, Partial...
2. Trzeba przenieść zmienne GOVACT oraz AGE z listy zmiennych do okna
Variables za pomocą przycisku ze strzałką skierowaną w prawo (=>).
3. Trzeba przenieść zmienne LIBERAŁ oraz INCOME z listy zmiennych do okna
Controlling for (kontrolowane przez) przy użyciu tej samej co wyżej opisana metody.
4. Należy upewnić się, że opcja Display actual significance level (pokaż rzeczywisty
poziom istotności) jest zaznaczona i że został wybrany przycisk Two-tiled (dwustronny).
5. Trzeba teraz kliknąć Options... i wybrać wszystkie statystyki.
6. Należy kliknąć przyciski Continue oraz OK.
REGRESSION (regresja). (Patrz s. 545-546). Mimo że uruchomienie procedury
REGRESSION za pomocą okien menu w wersji dla Windows daje raport trochę inny niż ten,
który uzyskamy, uruchamiając sekwencję poleceń ze strony 546, istota obu raportów jest taka
sama. Kolejne kroki, które trzeba wykonać, są następujące:
1. Należy kliknąć sekwencję Statistics, Regression, Linear (liniowa), aby otworzyć
okno dialogowe Linear Regression (regresja liniowa) (patrz ryc. A. 11).
2. Trzeba wybrać zmienną zależną (GOVACT) i przenieść ją z listy zmiennych do
okna Dependent (zmienna zależna) za pomocą przycisku ze strzałką skierowaną w prawo
(=>).
3. Teraz wybierz zmienne niezależne (LIBERAŁ, INCOME, EDUC) i przenieś je z
listy zmiennych do okna Independent! s) (zmienne niezależne) za pomocą przycisku ze
strzałką skierowaną w prawo (=>).
4. Należy kliknąć przycisk Statistics i wybrać wszystkie statystyki.
5. Trzeba sie upewnić, że w opadającym menu przy pozycji Method (metoda)
zapisane jest wyrażenie Stepwise (krokowa).
6. Należy kliknąć przycisk OK.
¦ Zakończenie
Podręczniki do SPSS i do innych pakietów statystycznych mogą wydawać się na
pierwszy rzut oka skomplikowane i przytłaczające, jednak na dłuższą metę ułatwiają one
życie. Ten dodatek został napisany po to, by pomóc czytelnikowi uczynić pierwszy duży krok
w stronę komputerowej analizy danych. Mamy nadzieję, że takie potraktowanie tematu
zachęci badaczy do wybierania tych elementów pakietu, które pasują do ich potrzeb oraz
poziomu wiedzy metodologicznej. Jeżeli czytelnik będzie pracował z takim pakietem jak
SPSS, to pozna więcej jego właściwości i możliwości. Wraz ze wzrostem własnych
umiejętności będzie mógł analizować te możliwości za pomocą podręcznika.
562
—| Linear Regression

eąwtth fllter_3 happy helpbik heipnot helppoor helpslck Immmm Id income liberał
marital natetty natdty2 ¦ dependent |govact
OK
>
Easte
Błock 1 oi 1 Beset

Preyłoijs Next

|ndependent(s|:
Cancel
liberał income educ
Help
1 k
I W

Method: Stepwlse i

WJS» Stali stics... Ploto... Save... Options...

Ryc. A.ll. Okno dialogowe Linear Regression (regresja liniowa)


Przykład A.l
Książka kodów dla zbioru GSS93
Nazwa zmiennej
ID
AGE
SEX
RACE
REGION
NUMER IDENTYFIKACYJNY RESPONDENTA WIEK RESPONDENTA
Brakujące dane: 0, 98, 99 Wartość Etykieta
98 M NIE MA ZDANIA
99 M NIE USTALONO PŁEĆ RESPONDENTA Wartość Etykieta
1 MĘŻCZYZNA
2 KOBIETA RASA RESPONDENTA Wartość Etykieta
1 BIAŁA
2 CZARNA
3 INNA
REGION STANÓW ZJEDNOCZONYCH Brakujące dane: 0 Wartość Etykieta
0 M NIE USTALONO
1 NOWA ANGLIA
2 ŚRODKOWOATLANTYCKI
4 CENTRALNY PD WSCH.
5 POŁUDNIOWOATLANTYCKI
6 CENTRALNY PN ZACH.
7 CENTRALNY PD ZACH.
8 GÓRSKI
9 REG. PACYFIKU
Numery kolumn
1-4
5-6
MARITAL STAN CYWILNY RESPONDENTA Brakujące dane: 9 Wartość
Etykieta
1 ŻONATY/MĘŻATKA
2 WDOWIEC/WDOWA
3 ROZWODNIK/ROZWÓDKA
4 POZOSTAJĄCY(A) W SEPARACJI
5 KAWALER/PANNA 9 M NIE USTALONO
EDUC LATA NAUKI SZKOLNEJ RESPONDENTA
Brakujące dane: 97, 98, 99 Wartość Etykieta
97 M NIE DOTYCZY
98 M NIE MA ZDANIA
99 M NIE USTALONO DEGREE WYKSZTAŁCENIE RESPONDENTA
Brakujące dane: 7, 8, 9
1
13
Wartość Etykieta
0 MNIEJ NIŻ ŚREDNIE
1 ŚREDNIE BEZ MATURY
2 ŚREDNIE Z MATURĄ
3 WYŻSZE LICENCJACKIE
4 WYŻSZE MAGISTERSKIE
7 M NIE DOTYCZY
8 M NIE MA ZDANIA
9 M NIE USTALONO
INCOME CAŁKOWITY DOCHÓD W RODZINIE RESPONDENTA

Brakujące dane: 0, 98, 99


Wartość Etykieta
0 M NIE DOTYCZY
1 MNIEJ NIŻ 1000 DOLARÓW
2 1000 DO 2999 DOLARÓW
3 3000 DO 3999 DOLARÓW
4 4000 DO 4999 DOLARÓW
5 5000 DO 5999 DOLARÓW
6 6000 DO 6999 DOLARÓW
7 7000 DO 7999 DOLARÓW
8 8000 DO 9999 DOLARÓW
9 10000 DO 14999 DOLARÓW
10 15 000 DO 19999 DOLARÓW
11 20000 DO 24999 DOLARÓW
12 25000 DOLARÓW I WIĘCEJ
13 ODMOWA ODPOWIEDZI
98 M NIE MA ZDANIA
99 M NIE USTALONO
PARTYID SYMPATIE WOBEC PARTII POLITYCZNYCH
14-
16
Brakujące dane: 8, 9 Wartość Etykieta
0 SKRAJNY DEMOKRATA
1 UMIARKOWANY DEMOKRATA
2 NIEZALEŻNY, RACZEJ DEMOKRATA
3 NIEZALEŻNY
[564]
EQWLTH
CAPPUN
RACSEG
HAPPY
HOMOSEX
MM
4 NIEZALEŻNY, RACZEJ REPUBLIKANIN
5 UMIARKOWANY REPUBLIKANIN
6 SKRAJNY REPUBLIKANIN
7 INNE PARTIE
8 M NIE MA ZDANIA
9 M NIE USTALONO
CZY RZĄD POWINIEN REDUKOWAĆ RÓŻNICE W DOCHODACH 17
Brakujące dane: 0, 8, 9 Wartość Etykieta
0 M NIE DOTYCZY
1 POWINIEN
7 NIE POWINIEN NIE MA ZDANIA NIE USTALONO
ZWOLENNIK CZY PRZECIWNIK KARY ŚMIERCI DLA MORDERCÓW 18
Brakujące dane: 0, 8, 9 Wartość Etykieta
0 NIE DOTYCZY
1 ZWOLENNIK
2 PRZECIWNIK
8 NIE MA ZDANIA
9 NIE USTALONO
BIALI MAJĄ PRAWO DO WYBIERANIA SĄSIADÓW Brakujące dane: 0, 8, 9
Wartość Etykieta
0 NIE DOTYCZY
1 ZDECYDOWANIE SIĘ ZGADZA
2 ZGADZA SIĘ
3 NIE ZGADZA SIĘ
4 ZDECYDOWANIE SIĘ NIE ZGADZA
8 NIE MA ZDANIA
9 NIE USTALONO OGÓLNE POCZUCIE SZCZĘŚCIA Brakujące dane:
0, 8, 9
19
20
Wartość 0 1
23
M
MM
Etykieta
NIE DOTYCZY BARDZO SZCZĘŚLIWY RACZEJ SZCZĘŚLIWY NIEZBYT
SZCZĘŚLIWY NIE MA ZDANIA NIE USTALONO
STOSUNKI HOMOSEKSUALNE
Brakujące dane: 0, 8, 9
Wartość Etykieta
0 M NIE DOTYCZY
1 ZAWSZE SĄ ZŁE
2 PRAWIE ZAWSZE SĄ ZŁE
3 CZASAMI SĄ ZŁE
4 WCALE NIE SĄ ZŁE
5 INNE
8 M NIE MA ZDANIA
9 M NIE USTALONO
21
[565]
HELPPOOR CZY RZĄD POWINIEN PODNOSIĆ STANDARD ŻYCIA?
Brakujące dane: 0, 8, 9
22
HELPNOT
HELPSICK
HELPBLK
POLYIEWS
Wartość Etykieta
0 M NIE DOTYCZY
1 POWINIEN
3 ZGODA NA OBA TWIERDZENIA
5 LUDZIE POWINNI POMÓC SOBIE SAMI
8 M NIE MA ZDANIA
9 M NIE USTALONO
CZY RZĄD POWINIEN ROBIĆ WIĘCEJ CZY MNIEJ? 23
Brakujące dane: 0, 8, 9 Wartość Etykieta
0 M NIE DOTYCZY
1 RZĄD POWINIEN ROBIĆ WIĘCEJ 3 ZGODA NA OBA
TWIERDZENIA 5 RZĄD ROBI ZBYT DUŻO
8 M NIE MA ZDANIA
9 M NIE USTALONO
CZY RZĄD POWINIEN POMÓC W PŁACENIU ZA POMOC MEDYCZNĄ724
Brakujące dane: 0, 8, 9
Wartość
M
M
M
Etykieta
NIE DOTYCZY
RZĄD POWINIEN POMÓC
ZGODA NA OBA TWIERDZENIA
LUDZIE POWINNI POMÓC SOBIE SAMI
NIE MA ZDANIA
NIE USTALONO
CZY RZĄD POWINIEN WSPIERAĆ CZARNYCH OBYWATELI? 25
Brakujące dane: 0, 8, 9 Wartość Etykieta
0 M NIE DOTYCZY
1 RZĄD POWINIEN POMÓC
3 ZGODA NA OBA TWIERDZENIA
5 NIE MA POTRZEBY SPECJALNEGO TRAKTOWANIA
NIE MA ZDANIA NIE USTALONO MYŚLENIE O SOBIE W KATEGORIACH:
LIBERAŁ CZY KONSERWATYSTA 26
Brakujące dane: 0, 8, 9
MM
rtośc Etykieta
0 M NIE DOTYCZY
1 SKRAJNY LIBERAŁ
2 LIBERAŁ
3 UMIARKOWANY, RACZEJ LIBERAŁ
4 UMIARKOWANY
5 UMIARKOWANY, RACZEJ KONSERWATYSTA
6 KONSERWATYSTA
7 SKRAJNY KONSERWATYSTA
8 M NIE MA ZDANIA
9 M NIE USTALONO
[566]
NATFARE DOBROBYT
Brakujące dane: 0, 8, 9
Wartość Etykieta
0 M NIE DOTYCZY
1 ZBYT MAŁO
2 W SAM RAZ
3 ZBYT DUŻO
8 M NIE MA ZDANIA
9 M NIE USTALONO
NATCITY ROZWIĄZYWANIE PROBLEMÓW DUŻYCH MIAST
Brakujące dane: 0, 8, 9
Wartość Etykieta
0 M NIE DOTYCZY
1 ZBYT MAŁO
2 W SAM RAZ
3 ZBYT DUŻO
8 M NIE MA ZDANIA
9 M NIE USTALONO
NATRACĘ POLEPSZENIE WARUNKÓW DLA CZARNYCH OBYWATELI

Brakujące dane: 0, 8, 9
Wartość Etykieta
0 M NIE DOTYCZY
1 ZBYT MAŁO
2 W SAM RAZ
3 ZBYT DUŻO
8 M NIE MA ZDANIA
9 M NIE USTALONO
27
28
29
Literatura dodatkowa
Wywiał J. (1994), Przykłady wnioskowania statystycznego za pomocą
komputerowego pakietu SPSS, Warszawa: Wyd. PLJ.
Dodatek B: Zasady pisania raportu z badań
Nina Reshef
Pisanie raportu z badań jest wyspecjalizowaną umiejętnością, której można się
nauczyć. Chociaż poszczególne dyscypliny akademickie różnią się szczegółami dotyczącymi
tego, co powinno zostać przedstawione w ramach ich przedmiotu badań, to podstawowe
elementy raportu są takie same dla wszystkich raportów — od opisujących testy
przeprowadzane w domu do rozpraw doktorskich i artykułów naukowych. W tym dodatku
przedstawimy wskazówki ułatwiające pisanie raportu z badań.
Cel raportu określa jego strukturę. Z kolei forma raportu wynika z funkcji, jaką ma on
pełnić. Funkcją raportu z badań, w odróżnieniu od innych raportów, jest nie tylko
przekazywanie wyników, ale także bezpośrednie powiązanie tych wyników z modelem
teoretycznym lub z jedną czy wieloma testowanymi empirycznie hipotezami. Struktura
raportu z badań została ujednolicona i można ją ująć w postaci schematu organizującego
sposób prezentacji w spójną i logiczną całość. Dzięki temu pisanie raportu staje się łatwiejsze.
Dlaczego należy pisać raport z badań?
Podstawowym pytaniem poprzedzającym podejmowanie każdego działania jest
pytanie: Po co to robić? W badaniach naukowych odpowiemy, że jest to chęć rozszerzania
horyzontów ludzkiej wiedzy, poprawianie metodologii i zwiększanie dokładności analiz.
Jednak te podniosłe cele nie gwarantują jeszcze, że raport zostanie dobrze napisany, a także
nie zawsze stanowią podstawową motywację studentów.
Gdy — z drugiej strony — przeanalizujemy reguły pisania dobrego raportu, to dwa
elementy wysuną się na plan pierwszy. Pierwszy to stopień zaangażowania autora w
problematykę badawczą, stopień zafascynowania procesem badawczym i wynikami badań.
Drugim elementem jest staranność zdefiniowania i przedstawienia przedmiotu badań. Jeżeli
temat jest interesujący dla autora, to również będzie interesujący dla czytelnika, na pewno dla
osoby prowadzącej zajęcia, a być może i dla szerszego audytorium. Czytelnicy będą ponadto
przekonani o wartości raportu, jeżeli sposób przedstawienia podstawowych idei, wyników
oraz sposób pisania będą profesjonalne. Naszym celem jest zatem przedstawienie wskazówek
umożliwiających skuteczne przedstawianie innym osobom wyników własnych wysiłków
badawczych.
Dopasowywanie formatu raportu do odbiorcy
Odbiorca raportu jest równie ważny dla jego autora jak rodzaj audytorium dla mówcy
przygotowującego przemówienie. Im bardziej zróżnicowane będzie audytorium, tym
ogólniejsze przedstawiane treści i tym luźniejszy będzie ich format. Raporty przeznaczone dla
profesjonalistów powinny mieć charakter wysoce techniczny i powinny być mocno
wyspecjalizowane. Pamiętając o audytorium, autor raportu może zatem wybrać właściwy
format, określić stopień jego szczegółowości i słownictwo zrozumiałe dla odbiorcy.
Odwoływanie się do odbiorcy pomaga również autorowi ustalić, czy założenia leżące u
podstaw raportu zostaną dostrzeżone i zrozumiane. Mówiąc krótko, strategia autora —
wyrażona przez wewnętrzną strukturę
568
raportu — powinna uwzględniać docelowego odbiorcę, nigdy zaś nie powinna być
przypadkowa.
Rodzaje raportów
Badania realizowane w ramach nauk społecznych generalnie dzielimy na dwa rodzaje:
badania jakościowe i badania ilościowe. W badaniach jakościowych można wykorzystywać
takie elementy opisu badań ilościowych, jak diagramy i wykresy. Opis badań ilościowych zaś
może wykraczać poza liczby i dotyczyć analizowania powiązań pomiędzy formalnym
wzorem a miejscem mierzonej zmiennej w teorii. Dlatego nie należy mylić narzędzi
wykorzystywanych do prezentacji wyników z charakterem raportu. Niezależnie jednak od
celu i treści raportu podstawowe zasady dotyczące struktury raportu zarówno z badań
jakościowych, jak i ilościowych są w gruncie rzeczy takie same.
Raporty z badań jakościowych. Badania jakościowe, wyrastające z tradycji Ver-
stehen, tj. głębokiego rozumienia zjawisk społecznych, mają zasadniczo charakter
indukcyjny. Osoby prowadzące badania jakościowe wykorzystują badania terenowe,
zwłaszcza analizę przypadku i obserwację uczestniczącą (por. rozdział 12). Badacz stara się
nie ingerować w przebieg zjawisk. Raport z takich badań będzie zatem zawierać dużo
materiału opisowego. W raporcie powinno się również wykazać, w jaki sposób zebrane
obserwacje stały się podstawą wyodrębienia i analizowania zmiennych (indukcja) oraz w jaki
sposób można te zmienne wbudować w teorię. Ważną rzeczą, o której należy pamiętać, pisząc
raport z badań jakościowych, jest przestrzeganie podstawowych założeń i pojęć teoretycznych
oraz unikanie włączania zbyt wielu szczegółowych danych uzyskanych w badaniach
terenowych. Może to bowiem przeszkadzać i utrudniać przedstawianie podstawowej linii
argumentacji.
Raport z badań ilościowych. Ponieważ badania ilościowe są dedukcyjne, więc badacze
przeprowadzają operacjonalizację zmiennych, manipulują zmiennymi empirycznymi,
dokonują predykcji i testowania. W badaniach ilościowych kładzie się duży nacisk na
metodologię, procedurę badawczą i statystyczne miary trafności. W rapc>tc\e, iMto
\\oicvovN^cV\ ccwmno się zatem wyraźnie pokazywać drogę od teorii do operacjonalizacji
pojęć, od wyboru metodologii i procedur badawczych do zebranych danych, od testów
statystycznych do otrzymanych rezultatów i — w efekcie — wniosków.
Jeżeli w raporcie przedstawia się procedurę testowania hipotez, to każda hipoteza
powinna być jasno nazwana (np. 1, 2 itd. czy A, B itd.), a nawet uwydatniona za pomocą
innej czcionki czy podkreślenia. Metoda ta ułatwia czytelnikowi identyfikowanie
postawionych pytań i ich związku z wynikami badań. Wyróżnianie pytań ułatwia
organizowanie wywodu oraz przyciąga uwagę czytelnika. Jest to ważny element, ponieważ
większość tekstu w raportach z badań ilościowych to słowny opis danych prezentowanych w
tabelach. Dlatego wyraźne zaznaczanie pytań badawczych pomaga czytelnikowi śledzić
prowadzony wywód, a także analizować wnioski końcowe będące podsumowaniem danych w
kontekście metodologicznym i teoretycznym.
Raport ustny. Raporty z badań wygłaszane na zajęciach to powszechnie stosowane
narzędzie wprowadzające studenta nie tylko w proces pisania raportów, ale
569
także w świat naukowych opinii. Krótki raport ustny z własnych badań wymaga nie
tylko opracowania materiału pod kątem treści, ale również uwzględnienia zarówno sposobu
jego wygłaszania, jak i audytorium, dla którego jest przeznaczony. Krótko mówiąc, raport
słowny może być traktowany jako streszczenie czy zakończenie ostatecznej wersji raportu
pisemnego. Dlatego też wszystko to, co powiedzieliśmy o organizacji raportu pisemnego, ma
tu zastosowanie, chociaż inaczej rozłożone zostaną poszczególne akcenty. W prezentacji
słownej musimy zwracać większą uwagę na główne punkty naszego raportu, tempo mówienia
i ton głosu — nie chcemy bowiem, aby odbiorcy zasnęli bądź wpadli w nadmierny
krytycyzm. Próbne wygłoszenie raportu pomoże nie tylko kontrolować ilość materiału, jaką
można przedstawić w przeznaczonym na to czasie, ale również pomoże znaleźć takie sposoby
wygłaszania, które sprawią, że raport będzie interesujący dla słuchaczy.
Prezentacje ustne wygłaszane dla profesjonalnego odbiorcy w czasie konferencji
powinny uwzględniać te same podstawowe zasady, ale na poziomie bardziej wyrafinowanym.
Dlatego warto myśleć o referatach wygłaszanych na zajęciach jako o sposobie ćwiczenia
umiejętności mówienia i prezentowania.
Wybór tematu
Wybór tematu badań jest najważniejszym i chyba najtrudniejszym etapem procesu
badawczego. Aktualne wydarzenia, doświadczenie życiowe czy zagadki intelektualne
pobudzają ciekawość i są źródłem oryginalnych tematów badawczych. Unikajcie tematów,
które były już wiele razy realizowane przez innych studentów czy naukowców, i to bez
względu na to, jak kuszące wydają się wam na pierwszy rzut oka. Jeżeli macie wątpliwości, to
skonsultujcie się ze swoim opiekunem. Jednak nawet nadmiernie często realizowane tematy,
takie jak alkoholizm, mogą być interesujące, jeżeli podchodzi się do nich w sposób
oryginalny.
Można sprawdzić, czy właściwie i poprawnie rozumie się realizowany temat poprzez
ujęcie celu raportu w postaci jednego z następujących pytań: Czego chcę się dowiedzieć? Co
chcę zbadać? Do czego chcę się przyczynić? Czy cel badania można sformułować w postaci
pytań typu „kto", „co" lub „kiedy" i odpowiedzieć na nie kolejno, w sposób analityczny, czy
też należy ująć temat historycznie? Czy temat można przedstawić w postaci hipotezy, która
następnie zostanie przetestowana za pomocą ściśle eksperymentalnych metod? Unikajcie
problemów, których nie można przetłumaczyć na jasne i precyzyjne tematy badawcze. Takie
problemy bowiem są albo niejasne, albo zbyt szerokie, lub też nie nadają się do badania w
sposób, jaki wybraliście.
Dwoma najważniejszymi kryteriami wyboru tematu dla studentów jest jego zgodność
z realizowanymi zajęciami i możliwość zebrania danych empirycznych. Szybki przegląd
dostępnej literatury nie tylko wprowadzi was w realizowany temat i będzie źródłem wielu
pomysłów, ale również pomoże się upewnić, czy wybrany temat da się zrealizować, czy też
powinien zostać przeformułowany lub zawężony. Możecie zaoszczędzić wiele cennego czasu
i trudu, jeżeli wcześniej przeczytacie podstawową literaturę.
Wykonalność. Termin „wykonalność" jest często traktowany jako kryterium wyboru
problemu badawczego, ale co tak naprawdę oznacza? W obszarze badań podstawowe
znaczenie terminu „wykonalność" najczęściej jest wiązane z teoretyczną
570
złożonością wyjaśnianych zdarzeń lub pojęć, z ilością i dostępnością adekwatnych
danych i czasem koniecznym na zebranie i przeanalizowanie danych, zanim będzie można
rozpocząć pisanie raportu. Dla studenta wykonalność może oznaczać liczbę książek i
artykułów, które musi przeczytać w ramach przeglądu literatury. Dla naukowca zaś
wykonalność może oznaczać liczbę wyjazdów zagranicznych niezbędnych do zebrania
danych znajdujących się w archiwach rządowych czy liczbę i złożoność modeli teoretycznych
potrzebnych do wyjaśnienia badanego zjawiska.
Każdy badacz musi sam odpowiedzieć na pytanie, w jakim stopniu jego temat
badawczy jest wykonalny, i określić w ten sposób ramy przygotowywanego raportu. Zawsze
lepiej ograniczyć temat i dokładnie go przeanalizować, niż rozszerzać jego zakres do takich
rozmiarów, że nie ma ani czasu, ani źródeł, ani przestrzeni, aby adekwatnie przedstawić
sensowną dyskusję. Dla badacza z uniwersytetu w Chicago na przykład analiza dochodów
pochodzących z podatków od własności zebranych wstanie Illinois w latach 1919-1929 może
być bardziej wykonalnym tematem niż problem zbierania podatków od własności w Chicago
w okresie przed Wielkim Kryzysem. W tym przypadku, jeżeli dane dotyczące stanu Illinois są
lepiej zorganizowane w ramach istniejących plików, to większa dostępność danych ułatwi
przeprowadzenie procedur analitycznych i statytystycznych nawet wtedy, kiedy zebranie
wszystkich danych może zabrać więcej czasu.
Główny cel raportu
Po wybraniu tematu badawczego badacz musi zadecydować, jaki jest podstawowy cel
raportu. Jeżeli cel ten jest wąsko określony, specyficzny i wyznacza strukturę raportu, to
pisanie raportu będzie znacznie łatwiejsze.
Raporty z badań są zazwyczaj skoncentrowane wokół odpowiedzi na pięć
zasadniczych pytań: „kto", „co", gdzie", „kiedy" i „jak". Szóste pytanie, „dlaczego", jest
pytaniem podstawowym. Celem raportu badawczego jest zatem przedstawienie wyników,
które są empirycznie i logicznie powiązane z jakąś koncepcją przyczynowo-ści, czyli teorią.
Autor ma wolną rękę w uwypuklaniu tylko jednego z tych pytań, w każdej konkretnej części
raportu. Wybór celu powinien być podyktowany przez własne zainteresowania (mimo że w
niektórych przypadkach temat mógł zostać narzucony przez opiekuna) i oczywiście
dostępność danych.
Cel większości raportów z badań można również określić, organizując go wokół
trzech ogólnych kategorii: opisu wydarzenia czy techniki badawczej, bada-n i a nowych
pomysłów czy nietypowych wydarzeń i wyjaśnienia związków przyczynowych. Czwartą
kategorią obejmującą zarówno wyniki, jak i wnioski są propozycje rozwiązań problemów
społecznych'.
We wprowadzeniu do raportu należy jasno przedstawić swoje cele i założenia.
Raporty badawcze, na przykład, przedstawiają wstępne wyniki poszukiwań i wyznaczają
etapy dalszych badań. Treść i uzasadnienie propozycji zmian nie muszą być oparte na
podzielanych powszechnie wartościach i powszechnie przyjmowanych założeniach. Przez
jasne określenie własnych celów i założeń możecie się upewnić, czy wasz raport został
umieszczony we właściwym kontekście. Tym samym czytelnik może lepiej ocenić wasz
raport.
1 Earl Babbie (1995), The Practice ofSocial Research, New York: Wadsworth,
dodatek B, s. A-10.
571
Struktura raportu
Raporty badawcze mają zawyczaj stosunkowo jasną strukturę ułatwiającą
komunikowanie treści. Nic nie jest bardziej frustrujące od czytania niejasnych raportów
dotyczących interesujących badań czy wyników. Dlatego chociaż każdy autor ma pewien
stopień swobody co do wyboru własnego stylu i narzędzi prezentacji (np. tabel czy
rysunków), to opisując swoje badania, należy przestrzegać podanego niżej wzoru.
Wprowadzenie. Wprowadzenie powinno w sposób jasny i zwięzły określać cel pisania
raportu. Powinno wiązać rodzaj raportu (ljp. badawczy) z postawionymi konkretnymi
pytaniami i otrzymanymi wnioskami. (Streszczenie jest jeszcze bardziej zwięzłym
wprowadzeniem i generalnie wyprzedza tekst w publikowanych artykułach). We
wprowadzeniu zatem prezentuje się przegląd treści i, co ważniejsze, wkład badań do danej
dyscypliny. I chociaż to ostatnie stwierdzenie można uważać za wychodzące poza zakres
raportów przygotowywanych przez studentów, jednak w ten sposób określa się wprost
wartość naukową postawionych pytań czy analizowanych problemów.
Odwołajcie się do własnej wyobraźni, pisząc zdanie rozpoczynające wprowadzenie.
Zdanie to jest po tytule elementem najbardziej przyciągającym uwagę2. Wasze umiejętności
stylistyczne będą tutaj najważniejsze. Można wskazać wiele możliwych strategii: można na
przykład zacytować dramatyczne wydarzenie, które opisano w wiadomościach, można
przytoczyć istotny i mający związek z tematem komentarz, wskazać na paradoks, jaki ujawnił
się w badaniach, czy wyraźnie uwypuklić cel badania. Następnie należy zwięźle określić cel
raportu. Unikajcie rozwlekłych wyjaśnień dotyczących celu badania w częściach raportu nie
poświęconych omówieniu wyników. W tej części należy również omówić ograniczenia
metodologiczne i teoretyczne raportu, ale w sposób, który nie lekceważy waszego wkładu.
Jeżeli opiekun pracy studenta uważa, iż badanie warto było przeprowadzić, to jest to
wystarczający argument.
Wielu początkujących autorów sądzi, że ponieważ wprowadzenie otwiera raport,
przeto powinno zostać napisane na początku. To błędny pogląd. Dla wielu autorów napisanie
pierwszych słów tekstu jest bardzo trudne i może opóźniać cały proces pisania. Jeżeli
zorganizujecie swoją pracę właściwie i naszkicujecie cały tekst i jeżeli jesteście w pełni
przekonani, co chcecie powiedzieć (chociaż mogą wam się przydarzyć interesujące
niespodzianki — pisanie bowiem zawsze wymaga myślenia i myślenie zawsze gdzieś was
zaprowadzi), to zanim napiszecie wprowadzenie, przygotujcie najpierw projekt całego
raportu.
Przegląd literatury. Dzięki temu, że nauka powstaje w sposób systematyczny,
realizowane badania naukowe opierają się na wynikach i pomysłach innych osób. Zatem
badania naukowe nigdy nie są prowadzone w pustce, bez względu na to, jak bardzo
innowacyjny jest realizowany temat czy zastosowana procedura. Dlatego przegląd literatury
jest konieczny, aby można było określić miejsce własnych badań.
W przeglądzie literatury streszcza się wcześniejsze badania i przegląd ten można
2 Michael Meyer (1991), The Little, Brown Guide to Writing Research Papers, New
York: Harper-Collins, s. 113-114.
572
przedstawić na wiele sposobów. Wykorzystywane strategie mogą się różnić, jednak
zawsze powinny wynikać z celu raportu. Badając trafność konkretnego testu statystycznego,
można na przykład dokonać przeglądu sposobu wykorzystywania tego testu w określonym
obszarze problemowym. Po jasnym i krótkim omówieniu zalet i wad testu można określić
wkład własnego badania do dyskusji nad jego trafnością. Przegląd literatury można również
zorganizować wokół szkół myślenia takich, jak szkoła Freuda, Junga i Skinnera w
psychologii, wokół sposobów rozwiązywania problemu inflacji czy okresów historycznych,
takich jak na przykład wojna wietnamska. Niezależnie od wybranej strategii przegląd
literatury powinien być dokonany selektywnie i odwoływać się jedynie do tych źródeł, które
są silnie powiązane z raportem i końcowymi wnioskami.
Należy pamiętać, że dokonując przeglądu literatury, nie zawsze w sposób uprawniony
można odwołać się do wszystkich źródeł. Korzystajcie z tekstów naukowych, w których
przedstawia się określone teorie lub omawia określone hipotezy badawcze. Artykuły
umieszczane w gazetach nie będą tu zatem właściwe3. Można z nich korzystać na etapie
zbierania danych, gdyż ich celem jest raczej przekazywanie informacji niż ich
interpretowanie. Tym samym można je traktować jako źródło informacji o tym, co się
zdarzyło, lub informacji o danych statystycznych wtedy, gdy inne, właściwsze — z
metodologicznego punktu widzenia — źródła nie są dostępne.
Metodologia i wyniki. Tę część raportu poświęca się szczegółowemu omówieniu
zastosowanej procedury badawczej, jej podstaw metodologicznych, czynników decydujących
o wyborze przypadku lub procedury oraz wynikom. Nie należy w tym miejscu raz jeszcze
opisywać celu badania, chyba że pomoże to czytelnikowi prześledzić rozwiązania
metodologiczne. W tej części trzeba przedstawić przyjęte hipotezy, wzory wykorzystane do
testowania wyników, tabele zawierające wyniki analiz statystycznych (por. s. 577, na której
omówiono zasady prezentacji tabel) w sposób tym bardziej uporządkowany, im bardziej
prowadzone badania miały charakter empiryczny czy ilościowy. Jak powiedzieliśmy już
'wcześniej, kolejne numerowanie hipotez ułatwia organizowanie tekstu. Ponieważ tabele
powinny zostać włączone do tekstu w takim porządku, w jakim omówiono kolejne zmienne,
więc wprowadzając odpowiednie dane do tekstu, wystarczy odnieść się jedynie do numeru
tabeli (np. por. tabela 3), kiedy włączasz odpowiednie dane do tekstu.
Wyniki badań jakościowych można — w zależności od zastosowanej metodologii —
omówić zgodnie z ich historycznym powstawaniem, czy też zorganizować tekst wokół
badanych pojęć.
Omówienie wyników. W tej części raportu przedstawia się większość informacji
dotyczących analizy otrzymanych rezultatów — waszą interpretację wyników, ich związek z
pytaniem badawczym, z poprzednimi badaniami (na przykład to, czy je potwierdzają, czy też
nie) oraz konsekwencje dla dalszych badań. Pisząc tę część, wykorzystajcie swoje
umiejętności analityczne i wyobraźnię, stawiając dodatkowe pytania, wyciągając wnioski,
oceniając poprawność zastosowanej metody czy istotność otrzymanych wyników. Dlatego
warto rozpocząć od przypomnienia celu badania, a następnie pokazania, czy otrzymane
wyniki potwierdzają lub nie wyjścio-
1 Ibidem.
573
wą hipotezę badawczą, czy też trafność przyjętej strategii postępowania. Warto
również ocenić własny wkład bez zbytniego podkreślania negatywnych wyników czy
problemów, jakie pojawiły się w trakcie badań. Mówiąc krótko — wasza prezentacja powinna
być jasna, zwięzła, wyważona i na temat.
Wnioski. Wnioski pisze się po to, aby zamknąć cykl badań, przejść od wcześniejszych
badań do miejsca raportu w zgromadzonej wiedzy naukowej. Wymaga to powiązania
wniosków teoretycznych czy metodologicznych z aktualnym stanem badań. Wnioski to
również możliwość sugerowania nowych dróg badań — pomysłów, w jaki sposób można
kontynuować to, co sami zrobiliście. Chociaż rekomendacje dla dalszych badań mogą
wydawać się wielkim ciężarem dla osoby początkującej, to stwarzają one możliwość
popisania się swoją wyobraźnią, pomagają umieścić własne wyniki w ciągu badań,
podkreślają skromność i świadomość tego, że raport to jedynie niewielki wkład do ciągle
powiększającego się obszaru wiedzy. Ta część może mieć objętość jedynie paragrafu, ale bez
niej zabraknie zakończenia pracy. Jeżeli wyprowadzone wnioski są bardzo krótkie, to można
je włączyć do części poświęconej omówieniu wyników.
Pisanie raportu
Szkic raportu. Napisanie raportu, po wysiłku włożonym w prowadzenie badań, może
okazać się rzeczą najtrudniejszą. Pisanie jest wyzwaniem, ponieważ zmusza do myślenia i do
krytycyzmu. O stylu pisania powiemy jedynie tyle, że proste, krótkie zdania są lepsze
zwłaszcza wtedy, gdy macie zamiar przedstawić złożone pomysły lub procedury.
Wczesny start jest dobry dla pisania raportu. Mniej lub bardziej chronologicznie
opiszcie zastosowane procedury i to, co ustaliliście. Strategia taka — oprócz ułatwienia
podsumowania i zapamiętania całego materiału — stwarza możliwość zweryfikowania
starych pomysłów i tworzenia nowych. Ta forma streszczenia staje się w zasadzie pierwszym
szkicem ostatecznego raportu.
Po napisaniu wstępnego szkicu przejrzyjcie go kilka razy i poprawcie, jeżeli będzie to
konieczne. W trakcie któregoś z przeglądów spójrzcie na swój tekst z pozycji' czytelnika, a
nie autora. Jeżeli jako czytelnik jesteście w stanie śledzić przyjętą linię argumentacji, to
następnie poszukajcie słabych punktów w przedstawionym rozumowaniu oraz podkreślcie
usterki stylu. Taki przegląd może sprawić, że zweryfikujecie swój sposób myślenia i być
może zechcecie coś zmienić. Bywa też inspiracją do nowych pomysłów, o których można
wspomnieć teraz, a zrealizować w innych badaniach. Dlatego warto przygotować tyle
szkiców, ile się uda i na ile jest czas.
Redagowanie. Raport z badań musi być nie tylko napisany zgodnie ze strukturą, jaką
opisaliśmy, ale również musi zostać dobrze zredagowany. Redagowanie oznacza
sprawdzanie, czy w tekście pojawiły się jedynie te szczegóły, które są istotne z punktu
widzenia zastosowanej metody lub przyjętej argumentacji. Bądźcie świadomi jednak tego, że
jest taki moment, który kończy całą pracę — moment, w którym zdacie sobie sprawę z tego,
że dalsze czytanie tekstu nie odsłania wam już więcej problemów. To moment zakończenia
pracy.
Tekst należy redagować, pamiętając o jego odbiorcy. Przypuśćmy na przykład,
574
że piszemy raport z badań terenowych poświęconych postawom wobec nieregulowa-
nego dnia pracy. Jeżeli wasz raport jest przeznaczony dla osób prowadzących badania
terenowe lub dla statystyków, to prawdopodobnie włączycie do niego więcej szczegółów
metodologicznych i matematycznych niż wtedy, gdy waszymi czytelnikami byliby
sprzedawcy. W raporcie przeznaczonym dla tych ostatnich możecie przekazać więcej
informacji na temat badanej populacji czy rodzaju zadanych pytań.
Na koniec, kiedy będziecie już zadowoleni z przygotowanego raportu, powinniście
przejrzeć go pod kątem stylu oraz błędów gramatycznych i ortograficznych. Komputery
osobiste są tu ogromnym ułatwieniem, można bowiem skorzystać z programów
poprawiających ortografię i styl, a samo przenoszenie paragrafów nie nastręcza żadnych
technicznych trudności. Proces ten — pomijając stronę techniczną — tak czy inaczej wymaga
dużej koncentracji. Jeżeli nie macie dostępu do drukarki i przynajmniej część poprawek
trzeba będzie nanieść ręcznie, to pamiętajcie, że zbyt wiele odręcznych poprawek — nawet
jeżeli są to tylko błędy maszynowe — może sprawiać wrażenie nieprofesjonalizmu i
zmniejszyć zainteresowanie czytelników tym fragmentem pracy. Jeżeli na stronie pojawi się
więcej niż dwie poprawki, to należy ją na nowo wydrukować lub przepisać.
Długość. Dwa czynniki decydują o długości raportu badawczego: jego cel i temat.
Cele pisania raportu są różne i dla studenta takim celem może być na przykład zwiększenie
własnych umiejętności badawczych. Innym czynnikiem wpływającym na długość tekstu
może być liczba stron, jaką mamy do dyspozycji. Opiekun waszej pracy może wymagać
napisania jedynie trzech stron, jeżeli jest to ćwiczenie, ale już trzydziestu stron w przypadku
pracy ocenianej na stopień. Prace magisterskie i doktorskie są oczywiście jeszcze dłuższe.
Artykuły w czasopismach mogą zostać ograniczone przez wydawców do czterdziestu stron, a
artykuły monograficzne do około pięćdziesięciu. Artykuły dotyczące statystyki bywają z kolei
krótkie, ponieważ wiele informacji podawanych jest w postaci równań. Jeżeli długość pracy
jest ograniczona, to posługujcie się skrótowymi sposobami prezentowania materiału, takimi
jak na przykład wykresy ilustrujące modele przyczynowe.
Tonacja i problem seksizmu. Przygotowując raport, należy uwzględnić dwa czynniki
stylistyczne: tonację i język seksistowski. Decydując o tym, jak formalny czy nieformalny
powinien być nasz sposób pisania, trzeba zawsze pamiętać o odbiorcach tekstu. Formalizacja
narzuca bardziej sztywną strukturę zdań i większą wewnętrzną organizację. Ani styl
formalny, ani styl nieformalny nie wyłącza humoru, natomiast jeden i drugi wymaga
spójności. Jakikolwiek styl wybierzecie, upewnijcie się, że dobrze się w nim czujecie, aby
uniknąć ciężkiej, niezręcznej prozy, pisania nie na temat czy utraty naukowego celu pracy.
Należy unikać w raporcie języka seksistowskiego, i to bez względu na to, czy
posługujecie się stylem formalnym czy nieformalnym. Współczesne podręczniki stylistyki
dostarczają wielu propozycji zdań, które można wprowadzić zamiast tradycyjnych,
męskoosobowych sformułowań.
Plagiaty. Dlaczego w podręczniku dotyczącym metodologiii badań społecznych
zamieszczamy część poświęconą p\agiatomr! Czy rne }esl ocz^vńs>te, że wytotz^s-tywanie
pomysłów i słów innych osób bez poinformowania o tym jest niemoralne
575
i nielegalne? Niestety, plagiaty pojawiają się wszędzie, także i w akademiach. Ze
względu na presję publikowania czy konieczność zaliczenia przedmiotu, ludzie mają często
wielką ochotę „pożyczyć" od innych, zakładając, że nikt tego nie odkryje. Jednakże, jak
powiedzieliśmy wcześniej, rozwój wiedzy oparty jest na pracy poprzedników. Wiedza
przyrasta krok po kroku i dlatego naprawdę łatwo jest kogoś „złapać" na popełnianiu plagiatu.
Co więcej, opiekun pracy zna najprawdopodobniej wystarczająco dobrze to, czego się
wymaga od studenta, oraz na tyle dobrze zna materiał objęty tematem badawczym, aby się
zorientować, że popełniono plagiat. P/agiatorstwo zatem to nie tylko zła, lecz również
ryzykowna strategia.
Większość studentów może popełniać plagiat nieintencjonalnie. Nie zawsze jest do
końca jasne, kiedy należy stosować cudzysłów lub kiedy podać numer strony obok informacji
o autorze tekstu i jego tytule. Dlatego poniżej przedstawiamy reguły pozwalające uniknąć
plagiatu. Reguły te mają wspomóc tych, którzy wstydzą się plagiatu, oraz zniechęcić tych,
którzy chcieliby go popełnić.
1. Kiedy dokładnie przytaczacie słowa innej osoby we własnym tekście, zawsze
używajcie cudzysłowu i podawajcie autora, tytuł pracy i numer strony. W USA, ogólnie rzecz
biorąc, prawa atorskie zostają naruszone wtedy, gdy ciąg co najmniej ośmiu słów jest
cytowany bez wskazania źródła. Poniżej przedstawiamy przykłady — oparte na punkcie 69 z
przykładu 4.1 — które można potraktować jako wskazówki.
Plagiat: Procedury badawcze powinny zostać w raporcie w pełni i dokładnie opisane,
łącznie z wszelkimi dowodami, bez względu na to, w jakim stopniu potwierdzają one
hipotezy badawcze.
Prawidłowo: Przedstawiając wyniki, „procedury badawcze powinny zostać w raporcie
w pełni i dokładnie opisane, łącznie z wszelkimi dowodami, bez względu na to, na ile
potwierdzają one hipotezy badawcze..." (Reynolds, 1979, s. 447-448).
2. Jeżeli parafrazujecie autora, to należy podać jego nazwisko i tytuł pracy.
Prawidłowo: Bez względu na to, czy wyniki potwierdzają hipotezy badawcze, należy w
raporcie w pełni i dokładnie opisać stosowane procedury badawcze (Reynolds, 1979, s. 447-
448).

3. Nigdy nie wolno przedstawiać pomysłu innego autora — nawet jeżeli został on
przerobiony — jako własnego. Należy powołać się na tego autora i podać oryginalne źródło.
Jeżeli sami, niezależnie, doszliście do takich samych wniosków, jakie można znaleźć w
literaturze, to należy to jasno powiedzieć i zacytować autorów myślących podobnie.
Prawidłowo: Sądzę, że zgodnie z zasadami normatywnymi naukowej metodologii
przedstawionymi w pracy Frankfort-Nachmias i Nachmiasa (1995), wszystkie procedury
wykorzystane do zbierania danych, bez względu na to, czy wyniki potwierdzają hipotezy
badawcze, powinny zostać w raporcie w pełni i dokładnie opisane. Reguła ta została ujęta w
postaci zasady normatywnej przez Paula Davisona Reynoldsa (1979, s. 447-448).
4. Nie należy pisać o rzeczach powszechnie znanych tak długo, jak długo jesteście
przekonani, że informacje te są wszystkim dostępne. Fakt, że Waszyngton, stolica kraju, nie
ma swojej reprezentacji w Senacie, może być na przykład znany wszystkim studentom
studiującym historię Ameryki, natomiast przyczyny tego sta-
576
nu rzeczy mogą być im nie znane. Dlatego też omawiając te przyczyny, należy podać
wykorzystane źródło.
Wydaje się, że najlepszym sposobem uniknięcia plagiatu jest po prostu uczciwość.
Jeżeli macie wątpliwości, to cytujcie źródła, z których korzystacie. Pamiętajcie, że pisanie o
zasługach innych świadczy też o waszych umiejętnościach badawczych.
Tabele
Tabele i ryciny pozwalają na zwięzłe przedstawienie otrzymanych wyników.
Wykorzystuje sieje we wszystkich badaniach ilościowych. Można je stosować również w
badaniach jakościowych, aby ułatwić przedstawianie argumentów teoretycznych — por. na
przykład rycina 1.1 i 2.1. Ryciny te zawierają jedynie słowa — pojęcia — streszczające to, co
zostało omówione w tekście.
Poniżej przedstawiamy podstawowe wskazówki techniczne ułatwiające konstruowanie
tabel4:
1. Tabele powinny być samoobjaśniające, tj. zrozumiałe bez odwoływania się do
tekstu. Dlatego powinny być one jasne, zaplanowane w terminach badanego związku i
dokładne. Kolumny, w których dane są podsumowywane, należy umieścić na końcu.
2. Każda tabela czy wykres powinny mieć własne kolejne oznaczenie (np. tabela 1,
rycina 2).
3. Tytuł powinien w jasny i zwięzły sposób odwoływać się do treści tabeli (co, gdzie,
kiedy). Pod tytułem należy umieścić informację o rodzaju danych zawartych w tabeli (np.
procenty, liczebności, waluta). Jeżeli informacje takie nie znajdą się pod tytułem, to powinny
być przedstawione w główkach odpowiednich kolumn tabeli.
4. Należy wyraźnie odróżnić od siebie nagłówki wierszy i kolumn i ewentualnie je
ponumerować, aby stały się bardziej czytelne.
5. Nagłówki kolumn powinny zawierać zmienne niezależne, a nagłówki wierszy —
zmienne zależne.
6. Wartości liczbowe przedstawione w tabeli powinny zostać wyśrodkowane,
przecinki powinny wypadać w tym samym miejscu, a dane powinny być wpisywane na tym
samym poziomie co nagłówki wierszy.
7. Jedynymi dostępnymi skrótami, jakie można stosować w tabeli, są „b.d." (brak
danych) oraz N (liczebność). Wartość N można umieścić w nawiasie zaraz po
przedstawionych w tabeli danych procentowych (jeżeli są niskie), a zawsze na dole kolumny
po informacji „ogółem 100%" (por. tabelę 16.6).
8. Można używać gwiazdek czy innych symboli jako sposobu oznaczania przypisów
lub źródeł danych. Starajcie się jednak ograniczać te środki do minimum, aby nie „zaśmiecać"
teksu i nie narażać czytelników na popełnienie b\ędu (por. tabelę \&.5).
9. Przypisy wyjaśniające powinny być umieszczone zaraz pod tabelą, w pełnej
formie. Źródła danych, również kompletne, należy podać pod przypisami.
4 Na podstawie wskazówek przygotowanych przez Davida G. Wegge'a, St. Norbert
College.
577
Trzeba pamiętać, że tabela ma pomagać czytelnikowi. Dlatego numery tabel, liczby
czy inne środki wizualne powinny być konsekwencją zarówno przyjętego sposobu pisania,
jak i ilości zebranych danych. Nie przytłaczajcie czytelnika tabelami, które nic nie wnoszą do
tekstu.
Dokumentacja
Wiele dyscyplin opracowało swój własny format dokumentowania wykorzystanych
źródeł. Przedstawione niżej trzy sposoby podawania informacji o tytułach książkowych są
ilustracją trzech najczęściej stosowanych form w tym zakresie:
American Psychological Association, Publication Manuał ofthe American Psycho-
logical Association, wyd. 4, Washington, D.C.: APA, 1994.
The Chicago Manuał of Style, wyd. 14, Chicago: University of Chicago Press, 1993.
Gibaldi Joseph, MLA Handbookfor Writers of Research Papers, wyd. 4, New York:
The Modern Language of America, 1995.
Czasopisma także mają własny styl dokumentowania. Podstawowe podręczniki można
kupić w księgarniach uniwersyteckich lub znaleźć w bibliotekach. Najczęściej wyboru
formatu dokonuje promotor pracy. I chociaż różne dyscypliny preferują różne formaty, to
wiadomo jedno — zawsze należy konsekwentnie stosować ten sam sposób.
¦ Literaturo dodatkowa
Brzeziński J. (1997), Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd.
Nauk. PWN. Morison M. (1999), Jak pisać prace pisemne i prace badawcze oraz jak zdać
egzamin z psychologii,
Poznań: Zysk i S-ka Wydawnictwo. Morison M., Pey J. (1999), Pisanie esejów z
socjologii. Poradnik dla studentów, Poznań: Zysk i S-ka
Wydawnictwo.
¦HHH1
Dodatek C: Znak sumowania (X)
W statystyce często korzysta się ze wzorów zawierających sumę wielu składników.
Aby uprościć zapis takiej sumy, stosuje się grecką literę X(duża sigma), która oznacza
operację sumowania (dodawania). Zatem pojawienie się X oznacza, że wszystkie wielkości
znajdujące się po prawej stronie od niej powinny zostać zsumowane. Jeżeli chcemy dodać
dziesięć wyników, to zazwyczaj piszemy to w sposób następujący:
X, + X2 + X3 + X4 + X5 + X6 + X7 + X8 + X9 + X10.
To samo wyrażenie możemy zapisać prościej
A1+A2 + ...+A10,
co oznacza dokładnie to samo. Trzy kropki (...) oznaczają „i tak dalej". To samo
polecenie można też zapisać jeszcze inaczej:
10
Ix,,
Znak X nakazuje dodać do siebie wszystko to, co po nim występuje (wartości X,),
rozpoczynając od przypadku wskazanego w wyrażeniu poniżej X0 = 1) i kończąc na tym,
który został wymieniony powyżej (10). Przykład ten możemy przeczytać następująco: dodaj
(X) wszystkie obserwacje (X,), począwszy od pierwszej (/= 1), a kończąc na dziesiątej (10).
Jeślibyśmy chcieli dodać do siebie tylko wielkość czwartą i piątą, to zapisalibyśmy to jako:
5
1=4
Chcąc z kolei wskazać, że należy dodać wszystkie przypadki i nie wymieniać
konkretnej ich liczby, możemy posłużyć się literą N i zapisać to tak:
N
lx,.
n=\
Zgodnie z tym zapisem dodamy wszystkie wielkości od pierwszej do N-tej. W ten
sposób generalnie zapisujemy polecenie dodania wszystkich wielkości, bez względu na ich
liczbę. W sytuacji, w której zakres sumowania jest oczywisty, pomija się zazwyczaj
podawanie zakresu pizy l/\ zapisuje się w sposób następujący.
Ix,.
579
czy nawet
lx.
Zapis ten mówi, że należy dokonać sumowania wszystkich przypadków branych pod
uwagę.
Zasady czytania zapisu ze znakiem X
Jest wiele zasad posługiwania się znakiem X- Na przykład zapis:
N N N
!(Xi+Yi) = lXl + lYi
1=1 1=1 1=1
oznacza, że dodawanie sumy dwóch zmiennych (A" i Y) jest tym samym co dodanie
ich sum. Nie ma zatem znaczenia, czy ktoś dodaje każdą wartość Xt do każdej wartości Yt i
następnie sumuje wyniki dodawania od 1 do N, czy też najpierw dodaje do siebie wszystkie
wartości Xh następnie wszystkie wartości Y„ a potem dodaje dwie sumy do siebie. Wyniki w
obu wypadkach będą takie same. Kolejną zasadę ilustruje równanie:
N N
/ . fCJi.j — K / . Aj. i=l i=l
Stała k może zajmować różną pozycję względem znaku sumowania. Oznacza to, że
mając polecenie mnożenia każdej z wartości przez stałą
kXl+kX2 + ...+kXN,
możemy dodać do siebie wszystkie wartości i następnie pomnożyć otrzymaną sumę
przez stałą. Otrzymany wynik będzie taki sam. Trzecia zasada jest następująca:
N
2,k = kN.
i=i
Dodawanie stałych wartości jest zatem równe iloczynowi tej stałej i liczby
wskazującej na to, ile razy została ona dodana. Zgodnie z jeszcze inną regułą:
[lXiJ = (X,+X2 + ...+XN)2
= X]+Xl + ...+X2N + 2X,X2 + 2X,Xi + ... + 2XN_]XN *Xj+X22 + ...+X2N.
580
¦¦
Musimy zatem odróżniać od siebie dwa wyrażenia:
X Xj oraz
(H
1
CD
O to
O
>> A
NO
UJ
i— <
O
©ioa*-a\coOCNt-- —¦ rN oc <n <n oo t--oo<Nt^—•oovi0^1-tooorjv>^L>©
r-to^OrO^OOOt^rOOs^ —' n O oo t^
a o »o -1 "o rj- - ro«ri^ir^cj\r^ooa

ONrOvOON©^^^©^ONrnroCJ<Nr--©ONrO(N<?\ON — r*-iV) O^v^r^r~-


>^ONrnr--00O'--'^0V~i-^OC7\<O(N^^L't-----¦ tJ- o^
^O*O00Tf--H-fst^r^^-m--©r^OrOroro — fNf-J — ^DOO
os ^o ^o oo — ant^twrs^-fi^oo^h^t^om^ <n v> ro o — (N^-in-o-ooooNh^^^ocmM —¦
—m
t~- "O ^ t N n O
O o-s oo o t-~ "O t|-
<N O O O \Q O oO
^D 't N r^ O >n co
co co co vi ^O •—< Tf
to^cotnr-cNoor-Ot/^oo^oosOCNtooo ¦^t^C'oo^-^-r-»nr-o«or^v^or^'^i- — roto
©Vł(>viOOC-JcOOC7vC"J©co-- — \Q C?\ ~~ "O ^O—'—¦
cnf\10cNOCV)sOOO\OTfrc\l©0^f,«0
© to © —¦ ^ to co -<3- — oc ^o © v> —
V)0NcorosOl>0©©c0'—' — -—'©vj <NfOOv — ONO^-ON«oooorNO —
^o-^-r^^ra^-^-^r-joostoroo
vi ts oo w vi >—' m '—> »o r— •-• mTroooooviov)OV)0 r^Tf-in^oo-^-ooinO r^os —
i — m — onoovi^oo
^©coco©vicoior^©ioON^as'0'^-™vico©rooocNONOO
^^oov^co\0(^cxDcocooo^^co©^occ<jr---\op-cor---co<N tj- co ^j- co —'Ooo^Tj-tNirir-
Jr^m^^r^^tooom-f^ooctY-)^-™vic^v^oot^~i/^ix>^©r^^osc»o^^c^as—'©cn<n-^\C>
O^tNOOOOM^mOhiOmOOsf^MtOOOaoONtCJ
t^oor^ri-^o^c^^i-^o^o^rsioc^otofNłos-^-oor-j^OTffntn
^^^^sf-^sO^t/ir^oooOyOcO^Otnr^rOto.—«Os<N^J-rO0OOs
os r- to o-* © oo —¦ Ttt^oo^ooo^r^r--oioocco^o©ic>Tfio© so cnj •—< co ^o —
r^otofoto-^rn^^^oto-—•oor-c^r-c^^f^o
^ooc^^oioo^cł^n^^ooh^M/i^fO^ooofi^o
rJ-t^Or^OOO-^fNOrOrO^OO^O —< O 00 Tf —> OS ^O O O V) fN
so — oofnh^oa-vio\t^(NO\noo-vivc«r)0(Nt "O^^-rnr-oooa-^^MoiM^oufTr^o^ocOM
OsoosO^ONV^cors1r—«vsr~^©fOVii—-~h.—¦©—h©co«Nco©Os
t^VscO^ — ^rNSOcOOr^sO^rr^cofNOOco^oorNIOco — ^
^a\ONv^cNV)r^i>.v(^osr^r^rorotosor^^^r--r--^>coro
\OOscooo — r^ooooTf©assoosc^cst'«3-cocNcg\L)'-H©cor-~r--
— osc>r^vL>r^oooor~co©osoooor-r-as —< co cn Os r^- co oo o> ooror-oofsc^ —
— tnr-^ooTj-r-r-oofOfNrt-o^t — vi —
— nviox»«'j'(N'-lOo^hhONOo^oo^^oo^wooo-*—
as\ooov>ioosr^ooccr^rNcooor^toso©ooas,3-©©©to
On(M'C^hC>OrvJC>fS4h^>-(N(NC^Vi^(fl--(Nrnr'l
cNvtr- — so<NOsr-©cococoeNtooo —'O^-oooN^-^^tr^r-
O oo ^ \o - ^i- so © —'toco©0\oo©to^oa>v)0 —¦ r- cn oo ©
v©v)r-~cor^ooocO'— cn —'tosoosoo — TtNOsr-oo^-r^r-'*^
M^fN^flOM^^O^nwnMtMO^C^OOOMfN^rort v)invifNooo^i-^t^Oror^(N^ovłOoo,^-
rofor~oo-^'in^ooc)
— vi(N>L)--^viMnoooorjh«i-<cNco^©coiorN|tor--oc OrsrvjooO'^v)o^oviooTfv)oor-
-v^vifn'^rooor-jioc<)r4
— r-^oasr^©©[-~-^-vir^sc>iocNicosoooas — (n ¦* o »c o «
Ovico©OsasasosroooviOsON-Jcor--ro©OssocN-^-co©© V)\O0ona\C(N~ ^t-^OONOrO
— r-(N-HTfror--^00(Nr-ro
oooohO-ifN-^^oom^yicAyioo-N^rtt^^M oosoco^r^cN^©r^r^--vicN^c>--oo^c>--
'^L>V)\C)iOcocooo
orN|rł-rNjr^r--c>^ca^vioor*-iavOr--^fS-^rsr--oO'^-(N(^(N
—'rNc0Tfrv'i>or-.000sO—-CNco^
[582]
«*i o rn Os ~r
oj V. vi ¦t
r- oj oj -t O
1*1 i/l X O T
Ot N * o- o
V O m -T
•O 01 O (T -T
sc -r O O V
o r^ •r. -t r-»
p- DC os rn o
-f ri «» O ^
P- O V oj
VI m -r
p- r- ¦* o 01
V- »Ai <; -o -ł
P -> O o oi
es «ri sC r*- O
m oj r- -^f ^r
m r-i -f VI
i—i Os sC r> o*
o O r- t -/-
V in kfi rn o
r- o C^ VI
-T oi ^-. ^'; *-f
—¦ CN ^c o
r- VI r* sC —
O" -p *t -r. r^
r-~ vCJ os r- i/-,
^ sO / vi
r-- X. c^ -f r-
ao O oj -r r>
r- r<\ <¦; Q o
r- <n m Os oj
-1- m OJ
— dc -c ^c n
O X oj r— ri
o O m m p-
t/1 P- • os Os
^'; O* OJ r- Os
sO dc rn m t*1
—i r^ p- r O
VI T OJ -t *f
tO -y. O :: T
ri O O -r </i
DC ri -r -1- oj
oc — m r- o
p- Q h- i.-. o
V -r p-
-r <C "± 3 O
oi ^t DC oi
rn (N (N fN W)
oi m TT) rj O
-t t "* -t m
O sC to ^O -^r
o~ (N SC Ol o^
Os sO s* o* r-
m -/¦¦ <, s.-;
/. — C5 SC
-r ¦¦/. O" «n '-r
o sC c*-, CS sO
'O, _ rs rn OT
os Os r>
n U", m Ol ^
n C- o- -T SC
r* Ol 1/1 O O]
v, sO Ol sfi —
Ol r- 'i- « OJ
lt, >c r- m Os
o* o m
iC Ol o o ^~
^O r- oo os o
(N M (N n M
er. «o — p- O
ro Q o ^r 'r,
« O »n iy i O
só V ¦/ r*i ¦:/:
o- X: -* O DC
90 os r- (-*". l^-
r- >o
c~; OS r- Os Os
OJ r- Ol in /
<i r*- — DC rn
i/l ł#1 O O] V.
«n i/i 1/1 sC V;
sO D< Ol ->r
« i/'. c^ •* r-
O O DC vn r»i
V. M ,—i — Ol
o ni ¦* If >
V. c^ DC ^C o>
r*l « ¦rr r*1 -i-
-* r- Ol m t<i
r- — O tt 00
C5 « Ol r- V;
*c T- r- ^T.
Ol r*i OS r>
* Os i/', O -i-
r- r- — ^r DC
m O oi o>
ry. SO DC ^t Os
-T C~:- VI i/,
DC X. -t O O
r- tC lO, — r-
-* ;y. Ol r- ->
i/, o sC OJ r-
Os « r Ol i/i
Os m O 00 r*i
1"- oi '/-, Ol O
-V". OJ r- *
O o| 1*1 Os Ol
"t sO >o 00 V:
r- t- fM — Ol
•r. O] -t DC r-
Ol r- i/") —
O m r- rn
i/i V. r- V -y.
ci DC oi -t —
O -t DC r- r*i
O OJ Jf. DC
Ol r«i ~ r> V.
Ol « ;y. r- O
^ DC — *o m
—i O f#1 ^r DC
-«ł r- :-- C-5 O
r«l OJ sO Os
r- so <r, :/-. OJ
r- u-i >/1 00 —
r- r- O D^- p*
r^ r- ¦/-. r-
Os r- V :jc ir,
P- o| </-) r> rn
DC o O* Ol P--
_ '-r ł/1 -/- r^
00 rr M" r^-
r- /; r- Os n
'i- ~>- i/i r~- r^
O sO sC «n DC
Ol i/i — sO r*-
V Ol P- sO
'/, r- p Os r-
c^ O o* i/l o^
O o o OJ o
- N rn 't <n r*i c*i fn r*i m
— — M 00 OJ
r> r-i S.O SC
Ol P- r*i Tf r:
r*l OJ r- O y
r^ <* DC Ol —
sC m OJ ¦T- r-:
t/1 o „o r: 0*
-r. 1/ 1 i/i ^t
O" SC O io> t^
r- m Ol r-, p-
O r- Os ^o r*i
1/1 00 ¦* O
Ol i/, r*i n
:> r*l m c^
o DC wi Ol Ol
o 00 Ol iv^< tO
-r o 1- 1/I i/l
O p- Os 1/1 o
O- m to l/l Os
Ol r- m Ol DC
1/1 DC </1 f*l on
>r, O r-
V; O 'Tf ^ m
^t O] i/i 00 T-
DC O — ^r ^t
O Cr- 00 r- r~-
rn ir, o n", p
i/1 O sO
i/i / 00 Tf
i/i — OJ 1- ^C
O oj r*- r^ r-
rn -t Ol O
r- i/i r- ^r r*i
r> o 00 i/i sO
o OJ 1/1 Ol i/i
O 'C, 1/1 Ol rn
r lOi (-1 r~
DC <D ^ DC
rr- to O o> O
Ol O O] O l/,
IV. _l DC ^t 00
V m m r*\ 1/1
m '.> C3 -/ m
sO rr- n r-
DC i/l yr> DC *t
¦¦ Tf "i- o r~
ri ^r ;- SC
O — rn te «
¦<t o r-i ¦* r>
O r-j a 3C fi
^r p- DC — rn
rn OJ o- sr;
SO ri
O 0> o* :/--
rn ^ ~t o- DC
DC a^ t/1 ^t i/i
1/1 c> T o| CJ
Os r> :>n V SC
P^ r^ OC '-r i/,
Ol Os — c> rn
i-O, o> -r -T iA
r> ^, / m *c
>/i m in to r-
Ol sC V; rr o.
»<¦ VI — DC tO
r- i/l m r- P--
o VI '-> i/i P-
i/i Os »c. V
r- sO Ol ^1-
Ot >—' -ł C^
\0 r- oo on o m m m m ^t
T> X "^r "> m
O t Os o ¦¦-/-.
r- m r~- dc; VI
VI r> s.O r^ o*
•^r ^D O Os VI
O VI OJ —1 r~-
oc 1> O •^t rr-
:*- P- 1/1 to
sO p- O sT. O
^r r- O O O
O] m X ^ O]
O ^ Ol m OJ
-r ¦y to Ol
'"t Y CA tO ^r
'O DC r- t ¦—
'n m i—i m —
SO tO sC sO VI
VI sO tO rn
to o 0> r-
-ł r- —i -i- 'i-
i/l O) ^r r^ Os
dc; :~ ¦y te r
VI p rr OJ
VI p ^1- "/¦: SO
*r P«- c^ DC cr
O r- VI o- ^-i
DC Ol r-» V.
V -t r> r] ^
^r oi Os O rr
o m sO JC m
o so OJ DC r>
OJ m rn p-~ i/i
^r :./-. 00 /¦ i;
DC O VI o| O
c^ ¦<r Ol "* DC
Tv er- O DC r-
sC ¦¦/. l^~ r> V
Os <r, 0* rn r>
sO o- ¦T Ol
SC DC Os — Ol
r- Ol tO DC ^r
r- m ¦<t p*-
^t o ^r O" o-
OJ r- rn OJ VI
CN —i VI DC OJ
X tO Os O VI
m r- VI TT
sO "^1- OJ rn r-
^r ro, / dc;
O rn OJ SC VI
O VI m VI —i
p- tO r~- 'i- r>
OJ r- ¦* O) m
Tf Ol O r- r-
^C DC V sC o
O] o VI er. o
,o Ol r- Os ¦y.
m p- ^i- "> »
m DC r> tO r^
m DC m -o «»
r^, o r* n VI
OJ r- p-
l/l O* OJ r> V"
p- m V; ¦* o-
to to Ol VI CN
r^ ^f o <: OJ
Ol sh P- r-
-t Os p Os C
DC -r o m sC
Os rn r- VI o-
•—h rN m tj- vi -^ ^ -3- Tj ^t
>o r-, DC r- m
^1- p V- r- VI
VI O" l~- OJ sO
OJ i/i
^3- VI DC o~ DC
DC tO P- o —
fN OJ ^f rn o
OJ P- 1/1 r- OJ
O rf; dc; OJ OJ
Vj fN r- o i-'-.
i/i O DC r- m
r- r~~ P- OJ
o1', VI r- Os
p- ^t VI ^r Ol
VI p -* rN
o — m VI 1—
Ol m o- nH 1*1
P- Os m X r-
VI X V; tO
m m ¦*t OJ -i-
i— sO OJ r- rO
sO -c 1*1 ^r OJ
m rn Ol OJ
<*¦ Os O" o- V
JC tO — ^
r- m —i O* VI
i/i r- r> ¦«t Os
sO -T X rn
VI r- ^; Ol r-
VI Os i/i O OJ
VI — TC DC Ol
O VI ^r Ol VI
r- m %o rn to
rn OJ i/i •^1-
DC O^ m VI DC
P 1- r> rn o
rr- -r -t tO
^r p- oi ^T VI
T-, Os sO r>
i/. VI DC P*- •/,
r- fn OJ OJ r^
vi r~ --1- r>
/ ^* O 1*1 Os
-/. i- -1- -r
m CN m o Ol
>—¦ rn tN CnI fN
m oc tp o m
co oo o in -
OJ O DC vi —
r> OJ X sC Os
r> Os rn r-- m
Os VI o DC
OJ Cl OJ r- m
^i- r^ O] sC Oj
r- m -:; Ol OS
rr rn O l/-, Tf
m rn m O
DC m m o PM
O Ol DC o rn
i/i o- r>
O] T m m ¦*
OJ r- o X O
VI sC o SO I—1
VI * OJ Ol t
Ol o tO o
r- rn rr ^_; to
o -f DC VI VI
a~ sO O o* —
no r- oo on o "* ^ ^t ¦«*¦ */i
[583]
oooNOesaNr-NONov)OOoocS''3-—< -<t r- cs cs —¦ ti ^ ^ m o
e^00TtO0Ncn^t-TfrcSrSCSr--0Nen0NOaNenr--©N0eS0NCS00
encsoes^^r^cocnoooNenc^oo — oviviV)V)OONOoaNcs
m oo n -¦iri'tOvOv(Nr~^0\^^'t»o- csenoinor^^oo a t o\ n t -'VłONoo^-ONNo~-
enocsoNt-- vi oo t-- o en •"3"
Tfr Vi ~ V) —'enC^CS — OOViNOOOViCSNOONeSenNO©CSt--vi
r^^rł-irł-1^cooor^O'—'OONNoesr^ooNOooenONONt--oor--t^ — ONr~-
ONenenen©ocoocs^tr--viencSNOviNor--r^encs
ooenONr--Ti-NO©Nococnvi —'irifS-no-aoNxrjooo
cS"3-v)ONen—'nocs©© n M m - cs cs o> oo r- en r-
hOOO\i/lTt«ltNOOO\in
— "<1- es es © es — On en oo v> ©r^ — enenONCScnOeS
esNOrtvir^viNO©vi — r-^r-ON —
ONONr-CSVi©QOViaNViOC — On©
•¦3-viONNooNoor^Nor--ON©Noesen Tj-r--vt©viencsvi — ^j- ^o 't >n ^ r- on © r-
—'Tt-^esr-- — v)ONesr--
ON©cncsoor^cSQO,*1-1Oen©viON
On vi — \o — vi —¦ — © en r- r- oo
_ O — OONOOO©enNOOOOOONenNO ONvim^oom-rnłNrtooooo\h ł/irnes^Nor-
— no — enNOoor--"^-
enoNooaNvioooocs©enooNoesr--
M1-Mmm^O-i\On(NNO'-'ł -NOOm^ocONON---os—i oo —'On © es -^ r- m —¦
—' m m o oo in (s
©^©encsenc-^tcsr-^
ONenenooooenOOC^*/"!^©^-
~r--r--r--oNr--©ONvi — no — v>o "3"oo©ONCsviviNoesvimNONO
cno — oooooenenr--r--©t-- — oo
m no m -h
O o v, ł/i — C*l r- Y1 (S cs o
<* o^ (N o ^c o o f C*l
\ft ri O v, C^ Cl DC 5 ri m
r*- vi DC DC m ON -l- r- * es
r~~ O ^c DC ON DC «ł fr) tri o- O
r- •O •o * _ (N x~~- o- m -3- VI
o ri nC r- g* © 1- m DC o-
nD CS -t ON o r» CS ©
r-- sC DC rn in m DC oc v, vj l>
sC © ^t O CS *r •O * o "
m O m O" ^c * , en t-» ri CS
rn o DC r- ^T o^ O fS '-r, DC
o m Tf ^t DC nC DC O^ sC c*
o m r- O DC O o^ cN sC Ot
o rn o^ —' nC DC fi O * m en
Vics- cnONONcsviNo©©cs- vi
enoo©©r--esesvicnoooNooooen tj- — ~-ONON^j-viv-i©ONenoo —
ON(NhTj-«\0"/inhNnhKiW
esr--©r-^i-enNooocsen-
en oo
en vi ©
no -^- (N
vi en tt
ON VI NO
en ^ es
© en vi
NO ON —
en r- ^r (N r-
-<t oo v> on ©
Tf no oo en On
— o t r- Tf
vieS'<i--<frNOviONr^oo©viesesv) cnNoes^l- — — NOONVioocsr--vien
— Nooovir--oocnNor--Nooooov>V)
t~~00(N(NN0^OTt^(N(NO^
ooonoo — es — es©NOenNovi©No
o vi vi es cni r-
^f en r- o — On
es o o on m on
¦^i- vi r- no on en
r- — Tt oo r- ^t
NO — ON CS NO
— vi tj- oo en
es — vi ^t vi
VI CS V) Tt VI
en — CS nO NO
CO CS O CS
en on no en
-o o —
r*~> —* r*~t
CS — t- en
ON O ^t en
on on no en
r- en — —
Vi CS CS ^t
^- Ti (N Tf
no Tj* — vi -^r
CO OO NO ^O V)
Tt V) en no t^-
^t cs r~- vn vi
NO O - - \t
oo cs o —< en
O \t rf fS r-
V) NO 00 NO OO
tj- vi i—¦ r- tj-
O no cs en cs
en en cs oo r-- on c~-
no cs no en -^ — oo
v-j o ^t vi — no rr
O - T On On 00 NO
no nd O O en O •—
- On NO -h
O en ¦—i CS
Tt r- o o
On Tf ON V)
r^ o on ^>
On OO O en
V") OO O CS
O en en v~i
<n cs »n no
—' en O no
r-~ ^t v-j r- oo
NO —' Tf — Tfr
— ON Tf ON NO
Tf t~- en On CS
^ ^ NO 0O On
On On O t-- O
r- v-) o en —
ON ON Tf ON OO
o - on r^ vi
CS OO CS ^^ O
en On t"~- en no en On
no Tt- no no o r- vn
Tf On O —• ^ V^ On
^t r- ^f cs — o o
oo en oo r- oo — o
-^esr^enesv^v^TtenON-^ONCsr^,=fenoocS'—'cncs^tONines ooNoencscsr~--
oor^NOoo'-'--«/^No,^-oocsenoor^cscsor~--en enONNOen^csON^encocs--^l-csr---r--r---
r^csoNOONN^1(^1vo en-—'t--ON-*i-oooocscnt--^rovN.''3-—¦ >o a n -'•—'C—onoo —
on
V-)ONOO-<t—'ONr--OOV-lCSt--—'ON—'"^-ON0Oenv-i0OCS — CS^OO
ooor^csoONONencsr-
V-)CSONNOONOVlTtOen^-
'-^'t-r^ON<rn^NOO ¦^¦•nr-rnenincs^i-r-enr-
oor-^roNv-) — oo i- h _ csv-iONcs^tencsv^Tt — ONr^ov~iooo^-
enoNONenoNON^-ONCSenONNO-^NOcsenON csooooNTfenNor^ooen
ONen —'enNDNONOcs^rTj-ONOOenNocs
ONinoo^ooocor-or^ocso ooon — r-ONOcscsen^i-mcsoN^j-o ^^-^vNNOenvto^1-
NOONenenOcsoo
ooooen^^ooencs^Or-^^eneno — O
CSCSV-iOnOnOnO"^-—'—'
^-ooNONr-ON^tcsenm r^ooooNON — — cs — oo or-ooNO^-^ooi^No^ Tj-v^r--
NOoccsenoONON
coonv) — vi—>env-i"<fON — NONooomr- — csr-or--—i o \t on — CS-—
ONOenr— encs^-encSNOenv)V)00—iV)tTcsOOnOno no — ¦^¦•^¦Nor-ONNOONONTtocs
— -^viNONOencsOenvi — NOooenr^ONONOoo-Hooen-^roNcsNo—• ¦—• vj ^j- — -^ovir-
r— ^^^Hr--vien^^ONenenr--or--OTr^Hcscsv),^-ONONviNocsrn
~S3
[584]
ooaoo^n^hinin-^ain^^inno-- es tN so r-- *o o
¦^¦•—¦\oooow^v-iin^j-łn-—¦t~~-0'-«c^oo<rifnoi>»n»^iChoav inr-o—i»<-)r-(NTtfNO-
^ — r^isO»nv"i<N©ON'—< tn (N r- r- m
^O Os — MMMM^OOOO^hiNfSoO^O^OO-' rJ ^O »0 Cl t--
m^roNTj-T— _^oort—'OO-M^nOfN-t^t^oo-¦ r^ es ^o vi
f^^rr-OOOOONr^rs)^D—'^-WIO-O^^O — 1>- r*1 O OO r- r<)
o\NOooa-^b-Noo^cc--*-. -^ ,—¦ \or-ccun©r-c*"i — <i^noow-imv^»ri^-icy«ov-)r-'—¦
1/-1 oc © »n —¦ oo o r^ ~ on © v~i
co<rirtr^r--r--ONrnrnf<iOr^(NONr*^rOfN'^-'— CS C\ © •—> -rj- m © \D d ci r«l
OO ¦— i^irtirir^Omr^M3r-OTimt--r^(N(N'^^)
t - vo t o - (^rsu-ioooow-i-^-i^ir-ooooo^oom^or^o oooo^OTiMtin-a-ooowm-
oooomr^hoo^oos'-'
vi r*i o <— — ^ »ri ł— v-ir*icsoo*nd^-r*iooTr,r--aN'~ rn ^o O oo
oo — ~ r— n oo >n — m o m oo oo o - ci^j-ONw-iomuioomrs r^--\ooooc»OTf-
^fv4c>oo^)0'^r^r<ic>r^r^r^<rtr^Trso
•^'iX5,^tr-<NO(NOON'^-'— CN -^t © fi t-1- V")
w oc iri 1/1 m ^ >o wi — t-^ •—' m o -g- t-- <n ~ — r---^r©o>o(Noor-'^-
<Nooa^<5©(N —
i^©^c^tr-<j^^c
Moo^(N^^Oi>o-h~^^nxm"nnl'Minn'Ooci
aNQommor*im»^©sooi ©m^rNoo^-Tfr^ior-—¦
«^r^^-»n--'--,io>^i<>(Nos,ri-©(>fNr^,^'r^--rvi\0(NooTt© r^^oofioor^sorNfNc-ir^r-
©^^^)^—- © »n o ^ oo oo m
on — ^©(Nr^i^oo-rt^omrNir^o^i^tOiooOfMoooTry^r^
Tf — r-v-i—•o^cooNOrNoo,or--txi^or-—•-— — ^omot^
^o 1^1 in o oo o - aNc*->cs<N\o—'^o^or^t^r^^-^oON^t^Cfn
^io — mr— •nuiirimoor- — -3-—¦ —-rs© — r^r-m — o\Tt
Tf «n ^- m ^o —^ON^O^noinoołrirr-^-oor^ooNtNrno-^r^oo 'toOT)-(N(S'Dfn'-'r-
i>>or^ycmOfsn(J'-tNooo\y3 O\^t^--^c^^rn^or~-inr-->ocstoirir^rsooov-^t—-©•^¦*^
~©ONr^»ri(NOoo©«^t(Nooosr^GOoQrr^D — r^r-r-(Nrsoo «nON{N>rioor*-
iiov^Nor--ooio(Nr--r^^Of^©©^t»n — oooooo r^^cofor^^©^^c^ON^^ —
^^^©OAC^^ooc^^nc^! cc^coooo^r^ONf^«n^cor^rn^o^o,or4r^r--fS-^rnf*-i-— t-*
f^inm^O^OO^Oł^f^ —¦ O © r*1 — rn^OON^OOO^O^OGO
-'t^^^>n'1¦•-ooowoo^¦o^^^(Nrs'noo'n^)m^^'t — ONCN-—•oou-tmo — ©-—
r^fif^(N^-r^»n©ONQo©'—¦ -o o
r^rnrnr^ONooONr^oo--cN^r^fivX5©'«cioor*-)r*-iOCNTi-^tr^
Tf GO
tnTtv^ONr^^c<)r^ONNOr-i,>ovo©r<ii^^ooNON©^rr^r-i»n»r)
—> r- ^o © r*i <n —« omr-fnON*r)oooca\cNma^. 0(Nvomvooo —ir*-i-^-
m^OGorJ1o^tON©r~-oo--©t^ONfNO>o^i--^rooom
[585]
Dodatek E: Powierzchnia pod krzywg normalng
Proporcje całkowitego pola powierzchni (1,00) pod krzywą normalną odpowiadające
odległościom pomiędzy średnią a współrzędnymi Z wyrażonymi w postaci jednostek
odchylenia standardowego od średniej.
Z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0.0 0000 0040 0080 0120 0159 0199 0239 0279 0319 0359
0.1 0398 0438 0478 0517 0557 0596 0636 0675 0714 0753
0.2 0793 0832 0871 0910 0948 0987 1026 1064 1103 1141
0,3 1179 1217 1255 1293 1331 1368 1406 1443 1480 1517
0.4 1554 1591 1628 1664 1700 1736 1772 1808 1844 1879
0.5 1915 1950 1985 2019 2054 2088 2123 2157 2190 2224
0.6 2257 2291 2324 2357 2389 2422 2454 2486 2518 2549
0.7 2580 2612 2642 2673 2704 2734 2764 2794 2823 2852
0.8 2881 2910 2939 2967 2995 3023 3051 3078 3106 3133
0.9 3159 3186 3212 3238 3264 3289 3315 3340 3365 3389
1.0 3413 3438 3461 3485 3508 3531 3554 3577 3599 3621
1.1 3643 3665 3686 3718 3729 3749 3770 3790 3810 3830
1.2 3849 3869 3888 3907 3925 3944 3962 3980 3997 4015
1.3 4032 4049 4066 4083 4099 4115 4131 4147 4162 4177
1.4 4192 4207 4222 4236 4251 4265 4279 4292 4306 4319
1.5 4332 4345 4357 4370 4382 4394 4406 4418 4430 4441
1.6 4452 4463 4474 4485 4495 4505 4515 4525 4535 4545
1.7 4554 4564 4573 4582 4591 4599 4608 4616 4625 4633
1.8 4641 4649 4656 4664 4671 4678 4686 4693 4699 4706
1.9 4713 4719 4726 4732 4738 4744 4750 4758 4762 4767
2.0 4773 4778 4783 4788 4793 4798 4803 4808 4812 4817
2.1 4821 4826 4830 4834 4838 4842 4846 4850 4854 4857
2.2 4861 4865 4868 4871 4875 4878 4881 4884 4887 4890
2.3 4893 4896 4898 4901 4904 4906 4909 4911 4913 4916
2,4 4918 4920 4922 4925 4927 4929 4931 4932 4934 4936
2.5 4938 4940 4941 4943 4945 4946 4948 4949 4951 4952
2.6 4953 4955 4956 4957 4959 4960 4961 4962 4963 4964
2.7 4965 4966 4967 4968 4969 4970 4971 4972 4973 4974
2,8 4974 4975 4976 4977 4977 4978 4979 4980 4980 4981
2.9 4981 4982 4983 4984 4984 4984 4985 4985 4986 4986
3,0 4986,5 4987 4987 4988 4988 4988 4989 4989 4989 4990
3,1 4990,0 4991 4991 4991 4992 4992 4992 4992 4993 4994
3.2 4993,129
3.3 4995,166
3.4 4996,631
3.5 4997,674
3.6 4998,409
3.7 4998,922
3.8 4999,277
3.9 4999,519
4.0 4999,683
4.5 4999,966
5.0 4999,997133
Na podstawie: Harold O. Rugg(1917), Statisticał Methods Applied to Education,
Boston; Houghton Mifflin, s. 389-390. Przedruk za zgodą wydawcy.
1586]
Dodatek F: Rozkład t
Poziom istotności dla testu jednostronnego
df 0,10_________0^05________0,025__________Ofll________0,005
0,0005
Poziom istotności dla testu dwustronnego
0,20 0,10 0,05 0,02 0,01 0,001
1 3,078 6,314 12,706 31,821 63,657 636,619
2 1,886 2,920 4,303 6,965 9,925 31,598
3 1,638 2,353 3,182 4,541 5,841 12,941
4 1,533 2,132 2,776 3,747 4,604 8,610
5 1,476 2,015 2,571 3,365 4,032 6,859
6 1,440 1,943 2,447 3,143 3,707 5,959
7 1,415 1,895 2,365 2,998 3,499 5,405
8 1,397 1,860 2,306 2,896 3,355 5,041
9 1,383 1,833 2,262 2,821 3,250 4,781
10 1,372 1,812 2,228 2,764 3,169 4,587
11 1,363 1,796 2,201 2,718 3,106 4,437
12 1,356 1,782 2,179 2,681 3,055 4,318
13 1,350 1,771 2,160 2,650 3,012 4,221
14 1,345 1,761 2,145 2,624 2,977 4,140
15 1,341 1,753 2,131 2,602 2,947 4,073
16 1,337 1,746 2,120 2,583 2,921 4,015
17 1,333 1,740 2,110 2,567 2,898 3,965
18 1,330 1,734 2,101 2,552 2,878 3,922
19 1,328 1,729 2,093 2,539 2,861 3,883
20 1,325 1,725 2,086 2,528 2,845 3,850
21 1,323 1,721 2,080 2,518 2,831 3,819
22 1,321 1,717 2,074 2,508 2,819 3,792
23 1,319 1,714 2,069 2,500 2,807 3,767
24 1,318 1,711 2,064 2,492 2,797 3,745
25 1,316 1,708 2,060 2,485 2,787 3,725
26 1,315 1,706 2,056 2,479 2,779 3,707
27 1,314 1,703 2,052 2,473 2,771 3,690
28 1,313 1,701 2,048 2,467 2,763 3,674
29 1,3 \\ \,699 2,045 2,462 2,156 3, ,659
30 1,310 1,697 2,042 2,457 2,750 3,646
40 1,303 1,684 2,021 2,423 2,704 3,551
60 1,296 1,671 2,000 2,390 2,660 3,460
120 1,289 1,658 1,980 2,358 2,617 3,373
oo 1,282 1,645 1,960 2,326 2,576 3,291
Skrót na podstawie: R.A. Fisher, F. Yates (1974), Statistical Tables for Biological,
Agriculturał and Medical Research, wyd. 6, London: Longman, tab. III. Wykorzystano za
zgodą autorów i Kongman Group Ltd.
[587]
Dodatek G. Wartości krytyczne rozkładu F
0,05 poziom istotności równy 0,05 0,01 poziom istotności równy 0,01
Liczba stopni swobody w mianowniku 1 2 3 4 5 6
7 8 Liczba stopni swobody 9 10 11 12
w liczniku 14 16 20 24 30 40 50 75 100 200
500 00
1 161 200 216 225 230 234 237 239 241 242 243
244 245 246 248 249 250 251 252 253 253 254 254
254
4052 4999 5403 5625 5764 5859 5928 5981 6022 6056 6082
6106 6142 6169 6208 6234 6258 6286 6302 6323 6334 6352 6361
6366
2 18,51 19,00 19,16 19,25 19,30 19,53 19,36 19,37 19,38 19,39 19,40
19,41 19,42 19,43 19,44 19,45 19,46 19,47 19,47 19,48 19,49 19,49 19,50
19,50
98,49 99,00 99,17 99,25 99,30 99,33 99,34 99,36 99,38 99,40 99,41
99,42 99,43 99,44 99,45 99,46 99,47 99,48 99,48 99,49 99,49 99,49 99,50
99,50
3 10,13 9,55 9,28 9,12 9,01 8,94 8,88 8,84 8,81 8,78 8,76
8,74 8,71 8,69 8,66 8,64 8,62 8,60 8,58 8,57 8,56 8,54 8,54
8,53
34,12 30,82 29,46 28,71 28,24 27,91 27,67 27,49 27,34 27,23 27,13
27,05 26,92 26,83 26,69 26,60 26,50 26,41 26,35 26,27 26,23 26,18 26,14
26,12
4 7,71 6,94 6.5') 6,39 6,26 6,16 6,09 6,04 6,00 5,96 5,93
5,91 5,87 5,84 5,80 5,77 5,74 5,71 5,70 5,68 5.66 5,65 5,64
5,63
21,20 18,00 16,69 15,98 15,52 15,21 14,98 14,80 14,66 14,54 14,45
14,37 14,24 14,15 14,02 13,93 13,83 13,74 13,69 13,61 13,57 13,52 13,48
13,46
5 6,61 5,79 5,41 5,19 5,05 4,95 4,88 4,82 4,78 4,74 4,70
4,68 4,64 4,60 4.56 4,53 4,50 4,46 4,44 4,42 4,40 4,38 4,37
4,36
16,26 13,27 12,06 11,39 10,97 10,67 10,45 10,27 10,15 10,05 9,96
9,89 9,77 9,68 9,55 9,47 9,38 9,29 9,24 9,17 9,13 9,07 9,04
9,02
6 5,99 5,14 4,76 4,53 4,39 4,28 4,21 4,15 4,10 4,06 4,03
4,00 3,96 3.92 3,87 3,84 3,81 3,77 3,75 3,72 3,71 3,69 3,68
3,67
13,74 10,92 9,78 9,15 8,75 8,47 8,26 8,10 7,98 7,87 7,79
7,72 7,60 7,52 7,39 7,31 7,23 7,14 7,09 7,02 6,99 6,94 6,90
6,88
7 5,59 12,25 4,47 9.55 4.35 8,45 4,12 7,85 3,97 7,46 3,87
7.19 3,79 7,00 3,73 6,84 3,68 6,71 3,63 6,62 3,60 6,54 3,57 6,47
3,52 6,35 3,49 6,27 3,44 6,15 3,41 6,07 3,38 5,98 3,34 5,90
3,32 5,85 3,29 5,78 3,28 5,75 3,25 5,70 3,24 5,67 3.23 5.65
5,32 4,46 4,07 3,84 3,69 3,58 3,50 !¦ 11,26 8,65 7,59
7,01 6,63 6,37 6,19 6
5,12 4,26 3,i
4,84
3,59 3,36 3,20 3,09
9,65 7,20 6,22 5,67 5,32
3,74
44 3,39 3,34 3,31 3,28 03 5,91 5,82 5,74 5,67
3,63 3,48 3,37 3,29
8,40 6,11
3,23 3,18
10,56 8,02 6,99 6,42 6,06 5,80 5,62
4,96 4,10 3,71 3,48 3,33 3,22 3,14 10,04 7,56 6,55 5,99
5,64 5,39 5,21
5,07
3,00 2,92
4,75 3,88 3,49 3,26 3,11
9,33 6,93 5,95 5,41 5,06 4,82 4,65
4,67 3,80 3,41 3,18 3,02 2,92 2,84
9,07 6,70 5,74 5,20 4,86 4,62 4,44
4,41 3,55 3,16 2,93
2,77 4,30
3,34 3,11 2,96 2,85 2,77
8,86 6,51 5,56 5,03 4,69 4,46 4,28
4,54 3,68 3,29 3,06 2,90 2,79 2,70
8,68 6,36 5,42 4,89 4,56 4,32 4,14
4,49 3,63 3,24 3,01 2,85 2,74 2,66
8,53 6,23 5,29 4,77 4,44 4,20 4,03
4,45 3,59 3,20 2,96 2,81 2,70 2,62
5,18 4,67 4,34 4,10 3,93
2,66 2,58
8,28 6,01 5,09 4,58 4,25 4,01 3,85
2,64
3,13 3,10
1,07
3,23 3,20 3,15 3,12 3,08 3,05 3,03 3,00 2,98 2,96
2,94 2,93 5,56 5,48 5,36 5,28 5,20 5,11 5,06 5,00 4,96 4,91
4,88 4,86
3,02 2,98 2,93 2,90 2,86 2,82 2,80 2,77 2,76 2,73
2,72 2,71
5,47 5,35 5,26 5,18
5,11 5,00 4,92
4,73 4,64 4,56 4,51 4,45 4,41 4,36 4,33 4,31
3,07 3,02
5,06
2,94 2,91
4,95 4,85 4,78 4,71
2,82 2,77 2,74 2,70
2,67 2,64 2,61 2,59 2,56 2,55 2,54
2,95 2,90 2,8
2,82 2,79 2,74 2,70
4,60 4,52 4,41 4,33 4,25 4,17 4,12 4,05 4,01 3,96
3,93 3,91
2,61 2,57 2,53 2,50 2,47 2,45 2,42 2,41 2,40
4,74 4,63
2,85
3,89
2,55 3,79
2,51
4,54 4,46 4,40 4,29 4,21
4,02 3,94 3,86
3,74 3,70 3,66 3,62 3,60
2,72 2,69
2,64 2,60 2,54 2,50 2,46 2,42 2,40 2,36 2,35 2,32
2,31
2,30
4,50 4,39 4,30 4,22 4,16 4,05 3,98 3,86 3,78 3,70
3,61 3,56 3,49 3,46 3,41 3,38 3,36
2,72 2,67
2,63 2,60
2,55 2,51 2,46 2,42 2,38 2,34 2,32 2,28 2,26 2,24
2,22 2,21
4,19 4,10 4,02 3,96 3,85 3,78 3,67 3,59 3,51
2,70 2,65 2,60 2,56 2,53 4,14 4,03 3,94 3,86 3,80
2,48 2,44 2,39 2,35 2,31
3,70 3,62 3,51
3,42 3,37 3,30 3,27 3,21 3,18 3,16
2,27 2,24 2,21 2,19 2,16 2,14 2,13 3,06 3,02 3,00
3,43 3,34 3,26 3,21 3,14
2,59 2,55 2,51
2,43 2,39 2,33 2,29 2,25
2,21 2,18 2,15 2,12 2,10 2,08 2,07
4,00 3,89 3,i
!,59 2,54 2,49
3,73 3,67
2,45 2,42
3,56 3,48 3,36 3,29 3,20 3,12 3,07 3,00 2,97 2,92
2,89 2,87
2,37 2,33 2,28 2,24 2,20 2,16 2,13 2,09 2,07 2,04 2,02
2,01
2,89 2,86 2,80 2,77 2,75
3,78 3,69 3,61 3,55 3,45 3,37 3,25 3,18 3,10 3,01
2,50 2,45 2,41 2,38 2,33 2,29 2,23 2,19 2,15 2,11
2,08 2,04 2,02
1,97 1,96
3,68 3,59 3,52 3,45
3,35 3,27 3,16 3,08 3,00
2,92 2,86 2,79 2,76 2,70 2,67 2,65
2,46 2,41
2,37 2,34 2,29 2,25 2,19 2,15
Ul 2,07 2,04 2,00 1,98 1,95 1,93 1,92
3,71 3,60 3,51 3,44
3,27 3,19 3,07 3,00 2,91
2,83 2,78 2,71 2,68 2,62 2,59 2,57
cd. dodatku G
Liczba stopni swobody w mianowniku i
Liczba stopni swobody w liczniku 9 10 11 12 14 16
100 200 500 oo
19 4,38 3,52 3,13 2,90 2,74 2,63 2,55 2,48 2,43 2,38 2,34
2,31 2,26 2,21 2,15 2,11 2,07 2,02 2,00 1,96 1,94 1,91 1,90
1,88
8,18 5,93 5,01 4,50 4,17 3,94 3,77 3,63 3,52 3,43 3,36
3,30 3,19 3,12 3,00 2,92 2,84 2,76 2,70 2,63 2,60 2,54 2,51
2,49
20 4,35 3,49 3,10 2,87 2,71 2,60 2,52 2,45 2,40 2,35 2,31
2,28 2,23 2,18 2,12 2,08 2,04 1,99 1,96 1,92 1,90 1,87 1,85
1,84
8,10 5,85 4,94 4,43 4,10 3,87 3,71 3,56 3,45 3,37 3,30
3,23 3,13 3,05 2,94 2,86 2,77 2,69 2,63 2,56 2,53 2,47 2,44
2,42
21 4,32 3,47 3,07 2,84 2,68 2,57 2,49 2,42 2,37 2,32 2,28
2,25 2,20 2,15 2,09 2,05 2,00 1,96 1,93 1,89 1,87 1,84 1,82
1,81
8,02 5,78 4,87 4,37 4,04 3,81 3,65 3,51 3,40 3,31 3,24
3,17 3,07 2,99 2,88 2,80 2,72 2,63 2,58 2,51 2,47 2,42 2,38
2,36
22 4,30 3,44 3,05 2,82 2,66 2,55 2,47 2,40 2,35 2,30 2,26
2,23 2,18 2,13 2,07 2,03 1,98 1,93 1,91 1,87 1,84 1,81 1,80
1,78
7,94 5,72 4,82 4,31 3,99 3,76 3,59 3,45 3,35 3,26 3,18
3,12 3,02 2,94 2,83 2,75 2,67 2,58 2,53 2,46 2,42 2,37 2,33
2,31
23 4,28 3,42 3,03 2,80 2,84 2,53 2,45 2,38 2,32 2,28 2,24
2,20 2,14 2,10 2,04 2,00 1,96 1,91 1,88 1,84 1,82 1,79 1,77
1,76
7,88 5,66 4,76 4,26 3,94 3,71 3,54 3,41 3,30 3,21 3,14
3,07 2,97 2,89 2,78 2,70 2,62 2,53 2,48 2,41 2,37 2,32 2,28
2,26
24 4,26 3,40 3,01 2,78 2,62 2,51 2,43 2,36 2,30 2,26 2,22
2,18 2,13 2,09 2,02 1,98 1,94 1,89 1,86 1,82 1,80 1,76 1,74
1,73
7,82 5,61 4,72 4,22 3,90 3,67 3,50 3,36 3,25 3,17 3,09
3,03 2,93 2,85 2,74 2,66 2,58 2,49 2,44 2,36 2,33 2,27 2,23
2,21
25 4,24 3,38 2,99 2,76 2,60 2,49 2,41 2,34 2,28 2,24 2,20
2,16 2,11 2,06 2,00 1,96 1,92 1,87 1,84 1,80 1,77 1,74 1,72
1,71
7,77 5,57 4,68 4,18 3,86 3,63 3,46 3,32 3,21 3,13 3,05
2,99 2,89 2,81 2,70 2,62 2,54 2,45 2,40 2,32 2,29 2,23 2,19
2,17
26 4,22 3,37 2,98 2,74 2,59 2,47 2,39 2,32 2,27 2,22 2,18
2,15 2,10 2,05 1,99 1,95 1,90 1,85 1,82 1,78 1,76 1,72 1,70
1,69
7,72 5,53 4,64 4,14 3,82 3,59 3,42 3,29 3,17 3,09 3,02
2,96 2,86 2,77 2,66 2,58 2,50 2,41 2,36 2,28 2,25 2,19 2,15
2,13
27 4,21 3,35 2,96 2,73 2,57 2,46 2,37 2,30 2,25 2,20 2,16
2,13 2,08 2,03 1,97 1.93 1,88 1,84 1,80 1,76 1,74 1,71 1,68
1,67
7,68 5,49 4,60 4,11 3,79 3,56 3,39 3,26 3,14 3,06 2,98
2,93 2,83 2,74 2,63 2,55 2,47 2,38 2,33 2,25 2,21 2,16 2,12
2,10
28 4,20 3,34 2,95 2,71 2,56 2,44 2,36 2,29 2,24 2,19 2,15
2,12 2,06 2,02 1,96 1.91 1,87 1,81 1,78 1.75 1,72 1,69 1,67
1,65
7,64 5,45 4,57 4,07 3,76 3,53 3,36 3,23 3,11 3,03 2,95
2,90 2,80 2,71 2,60 2,52 2,44 2,35 2,30 2,22 2,18 2,13 2,09
2,06
29 4,18 3,33 2,93 2,70 2,54 2,43 2,35 2,28 2,22 2,18 2,14
2,10 2,05 2,00 1,94 1,90 1,85 1,80 1,77 1,73 1.71 1,68 1.65
1,64
7,60 5,42 4,54 4,04 3,73 3,50 3,33 3,20 3,08 3,00 2,92
2,87 2,77 2,68 2,57 2,49 2,41 2,32 2,27 2,19 2,15 2,10 2,06
2,03
I
3. s 5 Os r~- s T. 5 5 § - 5
* p 3C 1- w, sO ? -- * •* !- t !•
c^ s
5 3 3 90 Os Os 5 SO 5 5 5 R 5
3 !• Q oc F 5 P- 5? P- r^ ¦* !•
T
A 5 s. MO SO Ą O. ł R * 8 "ł
- « K 00 L ą ą ~ oo R SO P
"i- g
o 3 r-sO 5 5 3 ^C 5 s o> 3
- s JC OC oc -ł 5 R 00 v> OO Q P
— 5
r- 3 Os SO rr L ¦ •6 5 s© s, tfi '•
Q s- V"! p* 5 sO 00 00 u-i se m oe IN
q ą p
53
!• S
SO OS SO Os
3 5
?- S-
o- r- so im
b 5 P P r^
r< — r* r^
3 g s 35 8 R
rł »^» rs
5 2,47 1,87 2,43 s 2,40
l,M 2,58 1,93 2,54 1,92 2,51
- 1 oo 9 3^
ri H ł-< r-l — «-^
OC; f^
—* rf
SO "* ** ri
53
* -.
fS —
fs| —
— fS —
r* —
R 3
— sc ri ri
r» oo °- ^ ri ri
o r*
p- r-j •—
— » os
5I
oc r-
oo r| ri •*/
— »s
55 3I
— Vt —
[591]
cd. dodatku G
Liczba stopni swobody w liczniku
Liczba stopni swobody
w mianowniku ! 2 3 4 5 6 7 8
9 10 11 12 14 16 20 24 30 40 50 75
100 200 500 oo
65 3,99 3,14 2,75 2,51 2,36 2,24 2,15 2,08
2,02 1,98 1,94 1,90 1,85 1,80 1,73 1,68 1,63 1,57 1,54
1,49 1,46 1,42 1,39 1,37
7,04 4,95 4,10 3,62 3,31 3,09 2,93 2,79 2,70 2,61 2,54
2,47 2,37 2,30 2,18 2,09 2,00 1,90 1,84 1,76 1,71 1,64
1,60 1,56
70 3,98 3,13 2,74 2,50 2,35 2,23 2,14 2,07
2,01 1,97 1,93 1,89 1,84 1,79 1,72 1,67 1,62 1,56 1,53
1,47 1,45 1,40 1,37 1,35
7,01 4,92 4,08 3,60 3,29 3,07 2,91 2,77 2,67 2,59 2,51
2,45 2,35 2,28 2,15 2,07 1,98 1,88 1,82 1,74 1,69 1,62
1,56 1,53
80 3,96 3,11 2,72 2,48 2,33 2,21 2,12 2,05
1,99 1,95 1,91 1,88 1,82 1,77 1,70 1,65 1,60 1,54 1,51
1,45 1,42 1,38 1,35 1,32
6,96 4,88 4,04 3,56 3,25 3,04 2,87 2,74 2,64 2,55 2,48
2,41 2,32 2,24 2,11 2,03 1,94 1,84 1,78 1,70 1,65 1,57
1,52 1,49
100 3,94 3,09 2,70 2,46 2,30 2,19 2,10 2,03
1,97 1,92 1,88 1,85 1,79 1,75 1,68 1,63 1,57 1,51 1,48
1,42 1,39 1,34 1,30 1,28
6,90 4,82 3,98 3,51 3,20 2,99 2,82 2,69 2,59 2,51 2,43
2,36 2,26 2,19 2,06 1,98 1,89 1,79 1,73 1,64 1,59 1,51
1,46 1,43
125 3,92 3,07 2,68 2,44 2,29 2,17 2,08 2,01
1,95 1,90 1,86 1,83 1,77 1,72 1,65 1,60 1,55 1,49 1,45
1,39 1,36 1,31 1,27 1,25
6,84 4,78 3,94 3,47 3,17 2,95 2,79 2,65 2,56 2,47 2,40
2,33 2,23 2,15 2,03 1,94 1,85 1,75 1,68 1,59 1,54 1,46
1,40 1,37
150 3,91 3,06 2,67 2,43 2,27 2,16 2,07 2.00
1,94 1,89 1,85 1,82 1,76 1,71 1,64 1,59 1,54 1,47 1,44
1,37 1,34 1,29 1,25 1,22
6,81 4,75 3,91 3,44 3,14 2,92 2,76 2,62 2,53 2,44 2,37
2,30 2,20 2,12 2,00 1,91 1,83 1,72 1,66 1,56 1,51 1,43
1,37 1,33
200 3,89 3,04 2,65 2,41 2,26 2,14 2,05 1,98
1,92 1,87 1,83 1,80 1,74 1,69 1,62 1,57 1,52 1,45 1,42
1,35 1,32 1,26 1,22 1,19
6,76 4,71 3,88 3,41 3,11 2,90 2,73 2,60 2,50 2,41 2,34
2,28 2,17 2,09 1.97 1,88 1,79 1,69 1,62 1,53 1.48 1,39
1,33 1,28
400 3,86 3,02 2,62 2,39 2,23 2,12 2,03 1,96
1,90 1,85 1,81 1,78 1,72 1,67 1,60 1,54 1,49 1,42 1,38
1,32 1,28 1,22 1,16 1,13
6,70 4,66 3,83 3,36 3,06 2,85 2,69 2,55 2,46 2,37 2,29
2,23 2,12 2,04 1,92 1,84 1,74 1,64 1,57 1,47 1,42 1,32
1,24 1,19
1000 3,85 3,00 2,61 2,38 2,22 2,10 2,02 1,95
1,89 1,84 1,80 1,76 1,70 1,65 1,58 1,53 1,47 1,41 1,36
1,30 1,26 1,19 1,13 1,08
6,66 4,62 3,80 3,34 3,04 2,82 2,66 2,53 2,43 2,34 2,26
2,20 2,09 2,01 1,89 1,81 1,71 1,61 1,54 1,44 1,38 1,28
1,19 1,11
co 3,84 2,99 2,60 2,37 2,21 2,09 2,01 1,94
1,88 1,83 1,79 1,75 1,69 1,64 1,57 1,52 1,46 1,40 1,35
1,28 1,24 1,17 1,11 1,00
6,64 4,60 3,78 3,32 3,02 2,80 2,64 2,51 2,41 2,32 2,24
2,18 2,07 1,99 1,87 1,79 1,69 1,59 1,52 1,41 1,36 1,25
1,15 1,00
Na podstawie: George W. Snedecor, William G. Cochran, Stałistical Methods, wyd. 7,
© 1980 by the Iowa State Uniyersity Press, 2121 South State Avenue, Ames, Iowa 50010.
Dodatek H: Wartości krytyczne statystyki U w teście Manna-Whitneya
Wartości krytyczne U na poziomie a = 0,001 (założony kierunek) i a = 0,002 (brak
założeń co do kierunku)
\v2 9 10 11 12 13 14 15 16 17 18 19
20
123 0 0 0
0
4 0 0 0 1 1 1 2 2 3 3
3
5 1 1 2 2 3 3 4 5 5 6 7
7
6 2 3 4 4 5 6 7 8 9 10 11
12
7 3 5 6 7 8 9 10 11 13 14 15
16
8 5 6 8 9 11 12 14 15 17 18 20
21
9 7 8 10 12 14 15 17 19 21 23 25
26
10 8 10 12 14 17 19 21 23 25 27 29
32
11 10 12 15 17 20 22 24 27 29 32 34
37
12 12 14 17 20 23 25 28 31 34 37 40
42
13 14 17 20 23 26 29 32 35 38 42 45
48
14 15 19 22 25 29 32 36 39 43 46 50
54
15 17 21 24 28 32 36 40 43 47 51 55
59
16 19 23 27 31 35 39 43 48 52 56 60
65
17 21 25 29 34 38 43 47 52 57 61 66
70
18 23 27 32 37 42 46 51 56 61 66 71
76
19 25 29 34 40 45 50 55 60 66 71 77
82
20 26 32 37 42 48 54 59 65 70 76 82
88
Wartości krytyczne U na poziomie a = 0,01 (założony kierunek) i a = 0,02 (brak
założeń co do kierunku)
9 10 11 12 13 14 15 16 17 18 19
20
12 0 0 0 0 0 0 1
1
3 1 1 1 2 2 2 3 3 4 4 4
5
4 3 3 4 5 5 6 7 7 8 9 9
10
5 5 6 7 8 9 10 11 12 13 14 15
16
6 7 8 9 11 12 13 15 16 18 19 20
22
7 9 11 12 14 16 17 19 21 23 24 26
28
8 11 13 15 17 20 22 24 26 28 30 32
34
9 14 16 18 21 23 26 28 31 33 36 38
40
10 16 19 22 24 27 30 33 36 38 41 44
47
11 18 22 25 28 31 34 37 41 44 47 50
53
12 21 24 28 31 35 38 42 46 49 53 56
60
13 23 27 31 35 39 43 47 51 55 59 63
67
14 26 30 34 38 43 47 51 56 60 65 69
73
15 28 33 37 42 47 51 56 61 66 71 76
82
16 31 36 41 46 51 56 61 66 71 76 82
87
17 33 38 44 49 55 60 66 71 77 82 88
93
18 36 41 47 53 59 65 70 76 82 88 94
100
19 38 44 50 56 63 69 75 82 88 94 101
107
20 40 47 53 60 67 73 80 87 93 100 107
114
Wartości krytyczne U na poziomie a = 0,025 (założony kierunek) i a = 0,05 (brak
założeń co do kierunku)
\ Ni 9 10 11 12 13 14 15 16 17 18 19
20
12 0 0 0 1 1 1 1 1 2 2 2
2
3 2 3 3 4 4 5 5 6 6 7 7
8
4 4 5 6 7 8 9 10 11 11 12 13
13
5 7 8 9 11 12 13 14 15 17 18 19
20
6 10 11 13 14 16 17 19 21 22 24 25
27
7 12 14 16 18 20 22 24 26 28 30 32
34
8 15 17 19 22 24 26 29 31 34 36 38
41
9 17 20 23 26 28 31 34 37 39 42 45
48
10 20 23 26 29 33 36 39 42 45 48 52
55
11 23 26 30 33 37 40 44 47 51 55 58
62
12 26 29 33 37 41 45 49 53 57 61 65
69
13 28 33 37 41 45 50 54 59 63 67 72
76
14 31 36 40 45 50 55 59 64 67 74 78
83
15 34 39 44 49 54 59 64 70 75 80 85
90
16 37 42 47 53 59 64 70 75 81 86 92
98
17 39 45 51 57 63 67 75 81 87 93 99
105
18 42 48 55 61 67 74 80 86 93 99 106
112
19 45 52 58 65 72 78 85 92 99 106 113
119
20 48 55 62 69 76 83 90 90 105 112 119
127
[594]
Wartości krytyczne U na poziomie a kierunku)
0,05 (założony kierunek) i a = 0,10 (brak założeń co do
\^ N2 9 10 11 12 13 14 15 16 17 18 19
20
1 0
0
2 1 1 1 2 2 2 3 3 3 4 4
4
3 3 4 5 5 6 7 7 8 9 9 10
11
4 6 7 8 9 10 11 12 14 15 16 17
18
5 9 11 12 13 15 16 18 19 20 22 23
25
6 12 14 16 17 19 21 23 25 26 28 30
32
7 15 17 19 21 24 26 28 30 33 35 37
39
8 18 20 23 26 28 31 33 36 39 41 44
47
9 21 24 27 30 33 36 39 42 45 48 51
54
10 24 27 31 34 37 41 44 48 51 55 58
62
11 27 31 34 38 42 46 50 54 57 61 65
69
12 30 34 38 42 47 51 55 60 64 68 72
77
13 33 37 42 47 51 56 61 65 70 75 80
84
14 36 41 46 51 56 61 66 71 77 82 87
92
15 39 44 50 55 61 66 72 77 83 88 94
100
16 42 48 54 60 65 71 77 83 89 95 101
107
17 45 51 57 64 70 77 83 89 96 102 109
115
18 48 55 61 68 75 82 88 95 102 109 116
123
19 51 58 65 72 80 87 94 101 109 116 123
130
20 54 62 69 77 84 92 100 107 115 123 130
138
Na podstawie: D. Auble (1953), Exlended Tables for the Mann-Whilney Statistks,
„Bullelin of the Institute of Educational Research at Indiana University", 1:2: tab. I, 3, 5 i 7 za
zgodą wydawcy; przedruk z Sidney Siegel (1956), Nonparametric Statistics for the
Behavioral Sciences, New York: Mc Graw-Hill, tab. K.
r~ vi oo vi r-
fN — NO NO —
oo_ oo^ oj^ ^ ^
o" m" no" oo" d
— -"< — ^ CN
r-» cn vj r- oo •^¦ONOomr-
VI M (N h M no © CN fN On
tJ- r^ -h oo i^ fN On vi ~- no
es" n-' no' r-" on" ^-* cn" ^t-" no" r-"
CN N (N o) N mmmmm
•o O —i t~- no
m —< tj- r*- oo
^o (N m rs o
no" on" «-J m" vT
fN vi © ^o on <n r~ oo - oo
—* r- ON ^O © fN — OO t h.
oo^ -t o ^o (N r-^ r^ <i —^ u\
\D oc o" --" m" Tf" no" r-" o" ©"
~-< —' (N rJ (N (S fN N (N r^
fN "* f- 00 0O
r- (N ^ 'O OO
^ oo oo m n
fs| OO O ~
fN no r- no
no —¦ ^o —
oo <f N m o^ m •—< vi r~~ r- vi m
^o o t oo rj no
in t^ o -< m vi ^ oo o\ -
— —• m oo o
rf O —' OO r-
OO O OO Tj" O
m" vT r--" o" f-«
r-- on r-- vi \o fN vi no
o-^o r- rN no oo on
w c>\ rn no O^ m ^d, on
vi" o" oo' on" —" fN" m" ¦¦
_^ ,_ ,_ —> CN fN CN fN
^O Ti — o> \o vi r^ cn -^- r~ o o vi r- m
r-- o <n
1^
r- on o oi m ^ vi o
vi cr> cn ^f- r^
r- Tf -* no o
fN vi oo © m
oo" o" *-T cn"
—< <—¦ fN cn
cn on cn on o oo mi tj- —i tt oo oo vi O
NO fN NO ON CN VI OO
—• m ^r m t~- oo
rN fN —¦ fN vi <—• —
^ tj- m ~ oo vi .—
(» o n t \q oo o> -^ rn
on" —" fN" m" ^f-" vT no" oo" on"
t oo n oo i- -*
r-- o n© r- \o -
O rf^ no_ o© O
¦-h1 (sf m"
mi «^- no — OO CN V> 00
(N m vj ^o r-
On — on cn rN oo
QN .— — CN CN —'
oo o —• cn m -rf
no f- x a o " rs)TfrV)*or-- oo
oo *o ^j- m cn — o o on on t 't t Tt Ti-^^rmm
i/") OO no vi in tt T T tj- tt "<T T T m m
¦3" m m m m m mmir^mi m m en m m eS i-* oT m" ¦<t' vT no' t-^ oo' os o"
¦—' rf m' ¦*
oorn-rtv)0 oo ^^r~mr~ ooxj-\o-^— Tf
•rt —' (N ON O (N r-(NONNO t n fN fN| fN OJ
^r--^r;-^o oo ov^mrN — o on oo r- ^o
o" o" ** rf m' m^ "5-' vT no" r-" oo' on" on' o" —' c>f
(N »C VI 0> « O
Tf -<t o -^ -tf- r-
NO ^ 0_ ^ r*^ O
°^ o' —' "" rN" m" o
fN-^ooN o\ r- t r- h- rN
(NONOor^ ooomNOO vi
oo vi n -- o 00^ vo tj n -^
m" tj-' vT no" >o" r-~" oo" oC o" t—•
» - ^t 4 o ^t- r^ooovi in -h x \d - o moNNO^o —> fN vi o no <n oo ^ —i oo v>m
^ cn o r- (N
O 4 0\ tt -
O tN in m
, o o ~* —'•' fN rN m Tf tj-" vi ^o' r-" r--" oo" on"
m m (Nj -- <n
OlO VI -- ^
m — m r-~ -^
vi r- cn vi o m <5 m fN rj-no —' r- m on
v^ no fN —i — r~ fN on r-» no
V) fN OO Vi fN
o o o <—' •—' fNcNmm rr <o vi \o h
oc ^t vi o m
fN O OO fN V) NO tj- -- Tf t~-
^t t CS (N ON ON 0O VI 0O VI Tf
m Nommvi ©i--nonooo*— —¦ <novio ,0^^r--mON no
©OO ~- —i N (N fi mrfTj-ViV) ^O
r- —< vi r-- tj- fN
vi O — On Vi r~-
•—' fN —' fN Vi OO
*h 3- O" O" O" O"
on^oooo m —' r~- o On fN
f) Tt oo in Vi r— O ^ (N —<
fN^NO^O^V^ O^V^-^NO^fN^ 0O^
»-« —'" fN" fN" m" ro" V ^" vT vT
^ (N fi ^T V) NO h OO ON O ^-fNmTfVl NO
[596]
o cs O vi r- oo oo on o es no en es en
o^ __ r^ ^- (^ no cs r- es vi f- on © ©
r— en oo en t-^ es^ r» --_ no_ ©^ ^ oc^ en_ t-^
©" es' en" vT no" oo" oC .—^ cs" ^ vi o oo On
it 't ^ Tf tj- Tj-Tj-i/-)i/-i vi >n vi >ri "^
on vi — no es a oo o *t
© © On no m oo n co —
tJ- OO —' VI ON CS NO On en
en Tf no r- DC o -^ es
en en en en ci Tf * Tf
v» no t-- © en om o vo
on ^r oo es ¦<*¦ vi no r- no
On en^ nc^ ©^ r*\ vO_ On^ cS^ v^
o" es" en' vT no" r-" oo o —;
enenenen en en en tJ- ~<3"
m 00 00 rs
<Q r- 00 C*
O^ rs m X

so 1X3 0* o
«* «» ^r V)
o r>. Ci CS
^r C* NC
^t vC r>

^ v-, vO f-
n ^t * *
© — ^t- rs m rs vi Cl f-
r- O
r» V, oo

^T « r> ^r «c oo Cl
v-,

Cl vi ^L: r^ oe
rs rs rn m ci O ci Cl ci ci *
+
O * rN iv-, m r- vfi IN m _ nO
r- xC
o 0> 00 nO ¦*

nO ao rs rn łfl r*-
o

m 1— ze r> o rs Cl * v-, ^c l-»


Ov
N rs CS rs rs Cl ci m rn Cl Cl
Cl
o oc r> ci V", v-, rs r-
o^ o
sC o r-- o rs m r- r>
fi
m <* VI r^

v, r- 00 r> o rs "^r
V")
es rs CS es tN (S rs rs en Cl Cl Cl
Cl Cl
m or. r> M sC rs sc O" _,
— o
O vi ci Cft r- ^r

m o sC f- JC o- O o — rs ci Cl

&\ © ^" CS rn t **j c™ ^-< ¦-»> i™«> •—¦ v-i \-i


-— cs cs cs cs cscscscs cs enenenen
ooooooc^ r~~ r-or-t-- no n©nonono
mmmm m enenenen m mmmm
en en en en m m^ en e*\ r*\ en^ en^ cn^ m^ m^
no" c-~" oo" on" o" *-* cs" en" -*T vi" no t— oo On
__^_^_-- fsj eseseses cs cscscscs
r- cs on r- o oo
— o cs no cs —¦ ¦—
m-^twiNO oo ©cstnu cj\
i/1 tJ- f*-! CS_ >— ^- O On OO^ r~^
00 Oa On O ~-
r^ — w-* CS CS,
en "^ vi no
CS en "3" *• CS CS, CS CS \
csr-NOoo vi ^ h (N o o en oo >r» ¦ .
ovi^-ir- t^- .-i oo \d •**¦ cs ooor--^
O oo r-~ v-) rt en —¦ o on^ oo^ r~^ v^ ^ r
r-resen^i/C^crt-roo"©© on o •—• es ¦
in vi ^ m o •—< OO On en CS ¦^¦OnOOOn
OO no vi ^f -^- ^-Tl"V->r^ On •—! en NO On
O OO NO^ ^ CS^ O^ 00^ NO^ -^ CS^ "-J ON^ t--^ VI
o" o" •—<" es" en" ^ ^ vT no" t-^ oo" oo" On"
S -H 1H — ^H ^-H^H^ ^- ^^H^CN|
CNOt^^^ i—i OO >— OO •—' On ^^OOOOen
r~ a - vi on moN^t—i t~- vicsoon
no en ¦—i oo vi en o oo^ 'O en^ —^ O^ t-^
oo" On" o" o" •—" esT en" en" -^ vT no no" r-
»/-i no r— c— vi Oencsr-- on vi t*- ^
v-»ONOen -^ OOnOnOn O CS^r—
CS^ Os Vj^ CS^ On^ NO^ CS^ G\ NO^ -^ --^ OO^ v^ en^
l-T r-T oo" On" On" gT —' — e>|" en ^t Tl" vj no
oovimo r— rs no no Tf oo os vi no n
O-^enNO On 't On Vi rs On r-NOV1Vi
Tf O NO N OO Vl-—OOV~t ł—t OO Vi Ol ON
no" r-" r-" oo" oo" on" o" o" —* cs" cs en ^f Tf
[597]
Słowniczek
analiza czynnikowa (ang. factor analysis) technika statystyczna polegająca na
klasyfikowaniu dużej liczby powiązanych zmiennych do ograniczonej liczby wymiarów, czyli
czynników.
analiza procesu interakcji (ang. interaction process analysis) pomiar dwunastu typów
niezależnych zachowań, które można wykorzystywać do kodowania i analizowania interakcji
wewnątrz grupy. Jest to technika wysoce ustrukturowana wykorzystująca zarówno
ustrukturowane kategorie obserwacji, jak i elementy eksperymentu laboratoryjnego.
analiza szeregów czasowych (ang. time-series design) plan quasi-eksperymentalny, w
którym pomiar początkowy i pomiar końcowy dokonywany jest w wielu momentach przed i
po wprowadzeniu zmiennej niezależnej.
analiza ścieżek (ang. path analysis) technika wykorzystująca zarówno dwuzmiennową,
jak i wielo-zmiennową analizę regresji do testowania związków przyczynowych pomiędzy
zmiennymi uwzględnionymi w modelu. Składa się z trzech etapów: wyrysowania, na
podstawie teorii lub zbioru hipotez, diagramu powiązań (ścieżek), obliczenia współczynników
ścieżek (efektów bezpośrednich) za pomocą analizy regresji oraz ustalenia efektów
pośrednich.
analiza treści (ang. content analysis) systematyczna, ilościowa analiza danych, których
źródłem są rejestry i dokumenty archiwalne.
analiza zajmowanych pozycji fizycznych (ang. physical location analysis) badanie
sposobów, w jaki ludzie poruszają się w naturalnie powstającej przestrzeni społecznej.
ankieta pocztowa (ang. mail ąuestionnaire) metoda badań sondażowych, w której
ankiety są wysyłane pocztą do respondentów, a ich odpowiedzi tworzą zbiór danych będący
podstawą testowania hipotez.
anonimowość (ang. anonymity) ochrona osób uczestniczących w badaniach poprzez
oddzielenie danych identyfikujących te osoby od udzielonych przez nie informacji.
artefakty pomiarowe (ang. measurement artifacts) stronnicze wyniki będące rezultatem
sytuacji, w której stosowane procedury pomiarowe, takie jak kamera czy arkusze testowe,
mogą być źródłem wskazówek dotyczących tego, co jest przedmiotem eksperymentu.
autentyczność (ang. authenticity) szczerość prywatnych zapisów.
autobiografia tematyczna (ang. topical autobiography) prywatne zapiski koncentrujące
się na jakimś aspekcie osobistego życia.
badania panelowe (ang. panel) badania sondażowe, w których stwarza się warunki
bardzo zbliżone do wymaganych w planach eksperymentalnych, polegających na
przeprowadzeniu badania przed i po wprowadzeniu zmiennej niezależnej. Efekt ten osiąga się
dzięki badaniu tej samej próby osób w dwóch lub więcej punktach czasowych.
błąd ekologizmu (ang. ecological fallacy) przenoszenie wniosków z bardziej złożonej
na prostszą jednostkę analizy, z wyższego na niższy poziom.
błąd fałszywej konkretyzacji (ang. fallacy of reification) błąd polegający na
traktowaniu abstrakcji jako rzeczywistości, zamiast jako wytworu myślenia.
błąd I rodzaju (ang. Type I error) błąd odrzucenia prawdziwej hipotezy zerowej.
błąd II rodzaju (ang. Type II error) błąd zaakceptowania fałszywej hipotezy zerowej.
błąd indywidualizmu (ang. individualistic fallacy) powstaje, gdy wnioski dotyczące
grup, społeczeństw czy narodów są bezpośrednio wyprowadzane z danych otrzymanych dla
jednostek.
599
Wąd pomiaru (ang. measurement error) wszelkie zróżnicowanie nie wynikające z
rzeczywistych różnic między mierzonymi właściwościami.
błąd predykcji (ang. error of prediction) odchylenie rzeczywistych obserwacji od tych
przewidzianych na podstawie linii regresji.
błąd standardowy (ang. standard error) miara statystyczna wskazująca, jak dalece
dokładnie otrzymane wyniki odzwierciedlają rzeczywiste wartości parametrów w populacji.
Oblicza się go z rozkładu wszystkich wartości średnich wokół średniej tych wartości; jest to
odchylenie standardowe rozkładu z próby.
błąd wynikający z braku odpowiedzi (ang. nonresponse error) stronniczość badania
wynikająca z faktu, że część respondentów nie udziela odpowiedzi w badaniach
sondażowych, a zatem nie zostaje uwzględniona w badanej próbie.
czasowy terminarz (ang. time sampling) procedura wybierania jednostek obserwacji w
różnych punktach czasu w taki sposób, aby zapewnić reprezentatywność obserwacji
wybranych ciągłych działań.
czynniki pojawiające się poza planem badawczym (ang. extrinsic factors) stronniczość
wynikająca z różnego doboru osób do grupy kontrolnej i grupy eksperymentalnej.
czynniki związane z planem badawczym (ang. intrinsic factors) obejmują te zmienne,
które pojawiły się w trakcie prowadzenia badania i mogły spowodować zmiany w badanych
osobach lub obiektach, a także w narzędziu pomiarowym. Do czynników tych zaliczamy też
efekt oddziaływania samego badania.
czyszczenie danych (ang. data cleaning) proces poprzedzający analizę zebranych
informacji, w którym wychwytuje się i poprawia błędnie wprowadzone dane i niespójne
kody. Na ogół dane są czyszczone za pomocą specjalnych programów komputerowych, które
testują, czy kody zostały wprowadzone konsekwentnie.
definicja ostensywna (ang. ostensive definition) definicja opisująca znaczenie danego
pojęcia poprzez przykłady. Może zostać wykorzystana jako termin pierwotny zarówno w
procesie budowania teorii, jak i w badaniach.
definicja pojęciowa (ang. conceptual definition) definicja, w której dane pojęcie jest
opisywane za pomocą terminów pierwotnych i terminów pochodnych.
definicje operacyjne (ang. operational definitions) zbiór procedur łączących poziom
pojęciowo-teore-tyczny z poziomem empiryczno-obserwacyjnym. Definicje operacyjne
składają się ze zbioru procedur opisujących działania, jakie musi podjąć badacz, aby ustalić
istnienie lub stopień istnienia zjawiska opisywanego przez pojęcie.
dobór wiązany (ang. matching) metoda kontroli polegająca na wyrównywaniu grupy
eksperymentalnej i grupy kontrolnej ze względu na czynniki nie związane z planem
badawczym, o których można założyć, że mają związek z hipotezą badawczą.
dobrowolność (ang. voluntarism) wolny wybór, czy uczestniczyć w badaniach
naukowych, czy też nie. Zasada ta gwarantuje, że zgoda na narażenie się na znane ryzyko
została wyrażona całkowicie dobrowolnie.
dodatkowe zachowania werbalne (ang. extralinguistic behavior) pozatreściowe
aspekty zachowania, takie jak: szybkość mówienia, głośność, tendencja do przerywania,
specyficzne akcentowanie. Słowa i kontekst językowy to tylko niewielki fragment dającego
się obserwować zachowania. Stanowią istotne źródło danych, często określane jako
zachowania parajęzykowe albo język ciała.
dojrzewanie (ang. maturation) procesy biologiczne, psychologiczne lub społeczne,
które mogą — wraz z upływem czasu — przyczynić się do powstawania zmian w badanych
osobach lub obiektach. Zmiany te mogą wpłynąć na zmienną zależną i prowadzić do
błędnych wniosków.
dyferencjał semantyczny (ang. semantic differential) rodzaj skali szacunkowej,
umożliwiającej pomiar reakcji respondenta na pewien obiekt lub pojęcie, polegający na
wskazaniu swojego wyboru na skali dwubiegunowej, opisanej na każdym z krańców
kontrastowymi przymiotnikami.
600
dylemat etyczny (ang. ethical dilemma) powstaje, gdy badacz musi podjąć decyzję,
czy prowadzić badania pomimo wątpliwej etycznie procedury.
efekt pośredni (ang. indirect effect) powstaje, gdy wpływ jednej zmiennej na drugą
odbywa się poprzez trzecią zmienną, tzw. zmienną pośredniczącą.
eksperyment terenowy (ang. field experimentation) badania odbywające się w
środowisku naturalnym; badacz manipuluje jedną lub więcej zmiennymi niezależnymi w
warunkach, które są na tyle kontrolowane, na ile pozwala sytuacja.
empirycyści logiczni (ang. logie empiricists) badacze wychodzący z założenia, że
można uzyskać wiedzę obiektywną, badając zarówno świat społeczny, jak i świat
przyrodniczy.
empiryczny (ang. empirical) odwołujący się do spostrzeżeń, doświadczenia i
zachowania.
epistemologia (ang. epistemology) badanie podstaw wiedzy.
gamma (ang. gamma) współczynnik związku wskazujący na kierunek i siłę związku
pomiędzy zmiennymi porządkowymi.
grupa eksperymentalna (ang. experimental group) grupa wystawiona na działanie
zmiennej niezależnej w planie eksperymentalnym.
grupa kontrolna (ang. control group) grupa w planie eksperymentalnym, która nie jest
poddawana oddziaływaniu zmiennej niezależnej.
grupy kontrastowe (ang. contrasted groups) porównywanie grup, o których wiadomo,
że różnią się pod względem jakichś istotnych cech.
hipoteza (ang. hypothesis) proponowana przez nas odpowiedź, jakiej można udzielić
na pytanie badawcze. Jest wyrażana w formie związku pomiędzy zmienną zależną i zmienną
niezależną.
hipoteza badawcza (ang. research hypothesis) hipoteza formułowana w procesie
statystycznej weryfikacji hipotez, odzwierciedlająca to, co badacz spodziewa się potwierdzić
w swoich badaniach. Nie jest bezpośrednio weryfikowana. Przyjmuje się ją, gdy badacz
odrzuci hipotezę zerową.
hipoteza zerowa (ang. nuli hypothesis) stwierdzenie braku związku pomiędzy
zmiennymi. Hipoteza zerowa zostaje odrzucona, jeśli otrzymana wartość statystyki jest mało
prawdopodobna przy założeniu prawdziwości tej hipotezy.
histogram (ang. histogram) graficzny sposób przedstawiania rozkładu częstości dla
zmiennej interwa-łowej i stosunkowej. Histogram przypomina wykres słupkowy, jednak bez
przerw pomiędzy kolejnymi prostokątami. Prostokąty są umieszczane jeden po drugim, aby
pokazać, że zmienna ma charakter ciągły; ich wysokość odzwierciedla procent lub częstość w
danym interwale.
historia (ang. history) wszelkie zdarzenia zewnętrzne pojawiające się w czasie
badania, które mogą wpłynąć na osoby badane i stworzyć podstawy konkurencyjnego
wyjaśnienia zmian wartości zmiennej zależnej.
indeks (ang. index) złożona miara zbudowana na dwóch lub więcej wskaźnikach czy
pozycjach kwestionariuszowych.
indukcja analityczna (ang. analytic inductioń) podejście teoretyczne w badaniach
terenowych, w którym badacz rozpoczyna od sformułowania wstępnych hipotez,
weryfikowanych następnie na podstawie obserwacji niewielkiej liczby przypadków. Jeżeli
zbadane przypadki nie spełniają hipotezy, to jest ona albo odrzucana, albo
przeformułowywana.
instrumentacja (ang. instrumentation) proces zmian w narzędziu pomiarowym w
okresie pomiędzy pomiarem początkowym a pomiarem końcowym. Aby powiązać różnicę
pomiędzy wynikami w pomiarze początkowym i pomiarze końcowym ze zmienną niezależną,
należy wykazać, że powtórny pomiar dokonany za pomocą identycznego narzędzia, w nie
zmienionych warunkach, dostarczy takich samych wyników.
interakcja (ang. interaction) wykazanie różnego związku pomiędzy zmiennymi w
różnych kategoriach zmiennej kontrolnej.
601
intersubiektywnosc (ang. intersubjectivity) możliwość wymiany informacji, dzięki
którym naukowcy mogą poznać i ocenić metody stosowane przez innych i przeprowadzić
podobne badania, aby ocenić trafność otrzymanych danych i wyprowadzonych wniosków.
interwałowy poziom pomiaru (ang. interval level) poziom pomiaru, na którym można
określić dokładną odległość pomiędzy kolejnymi obserwacjami i wyrazić ją w stałych
jednostkach.
istotność informacji (ang. sensitivity of Information) odnosi się do zakresu, w jakim
informacje zbierane przez badacza mają charakter prywatny lub potencjalnie zagrażający
osobie badanej. Im bardziej osobiste są informacje udzielane przez osobę badaną, tym
większy obowiązek zapewnienia ich ochrony spoczywa na badaczu.
izomorfizm (ang. isomorphism) podobieństwo lub identyczność struktur.
jednorazowa analiza przypadku (ang. one-shot case study) dokonanie pomiaru jednej
grupy lub jednego zdarzenia w jednym punkcie czasowym, zazwyczaj po wystąpieniu tego
zjawiska, które, naszym zdaniem, jest przyczyną obserwowanych zmian.
jednostka analizy (ang. unit ofanalysis) najbardziej elementarna część badanego
zjawiska. Określa wybór schematu badawczego, metod zbierania danych oraz metod analizy
danych.
jednostka analizy treści (ang. recording unit) najmniejszy element treści, który
występuje w przekazie (jednostką jest pojedyncze wystąpienie określonego elementu treści).
jednostka doboru próby (ang. sampling unit) pojedynczy element populacji, z której
pobierana jest próba lub — jak w przypadku losowania grupowego — grupa takich
elementów.
jednostka kontekstu (ang. context unit) większy fragment treści, który można
analizować w trakcie charakteryzowania jednostek analizy.
jednowymiarowość (ang. unidimentionality) zasada, zgodnie z którą poszczególne
pozycje składające się na skalę odzwierciedlają pojedynczy wymiar i mogą zostać
umieszczone na kontinuum odnoszącym się do jednego i tylko jednego pojęcia.
klasyczny plan eksperymentalny (ang. classic experimental design) plan
eksperymentalny, stosowany zazwyczaj w naukach biologicznych i społecznych, składający
się z dwóch porównywanych ze sobą grup: grupy eksperymentalnej i grupy kontrolnej. Grupy
te są równoważne z wyjątkiem tego, że w grupie eksperymentalnej działa zmienna niezależna,
natomiast nie ma jej w grupie kontrolnej.
kod (ang. codę) liczba przyporządkowana obserwacji. Kody powinny być zawsze takie
same dla tych przypadków czy jednostek analizy, dla których zachodzą identyczne warunki.
kodowanie (ang. coding) przypisywanie kodów w postaci liczb (lub innych symboli)
każdej kategorii składającej się na analizowaną zmienną.
kodowanie dedukcyjne (ang. deductive coding) kodowanie wymagające zapisywania
danych zgodnie ze schematem opracowanym, zanim zostanie zastosowane narzędzie
pomiarowe.
kodowanie indukcyjne (ang. inductive coding) badacz tworzy schemat kodowania na
podstawie reprezentatywnej próbki odpowiedzi czy próby innych danych i następnie
wykorzystuje go do pozostałych danych.
kompetencja (ang. competence) założenie, że każda decyzja jest podejmowana przez
osobę odpowiedzialną, dojrzałą, posiadającą niezbędne informacje do podjęcia tej decyzji.
komputery duże (ang. mainframe computers) komputery, które organizują pracę
użytkowników poprzez uruchamianie programów i monitorowanie urządzeń wejścia i
wyjścia.
kontekst odkrycia (ang. context of discovery) działania prowadzące do odkrycia; na
początkowych etapach poszukiwań ani sformalizowane reguły, ani logika nie powinny być
traktowane jako przewodnik tych działań.
kontekst uzasadniania (ang. context of justifwation) działania naukowców
podejmowane wtedy, gdy próbują oni zweryfikować — w sposób logiczny i empiryczny —
twierdzenia nauki.
kontrola (ang. control) procedura umożliwiająca wyeliminowanie możliwych źródeł
wariancji mogą-
602
cych zniekształcić wyniki badań. Do metod kontroli należy technika wprowadzania
stałej wartości zmiennej albo w warunkach eksperymentalnych, albo w trakcie analizy
statystycznej. korelacja cząstkowa (ang. partial correlation) metoda statystycznej kontroli
polegająca na matematycznym korygowaniu korelacji dwóch zmiennych, która została
stworzona po to, aby wyeliminować wpływ innych zmiennych na zmienną zależną i
niezależną. kowariancja (ang. covariatiion) współzmienność dwóch lub więcej zjawisk.
kryterium najmniejszych kwadratów (ang. criterion ofleast sąuares) kryterium, według
którego minimalizuje się sumę kwadratów pionowych odległości pomiędzy linią regresji a
rzeczywistymi obserwacjami. krzywa normalna (ang. normal curve) jeden z rozkładów
teoretycznych posiadających ogromne znaczenie w statystyce. Podstawowe własności to: (1)
jest krzywą symetryczną i gładką, (2) wartość modalna, mediana i średnia leżą dokładnie w
środku rozkładu, (3) jest oparta na nieskończonej liczbie przypadków, (4) związek pomiędzy
liczebnościami a wartościami zmiennej jest wyrażony za pomocą jednego wzoru
matematycznego, (5) pomiędzy średnią a określoną wartością zmiennej wyrażoną w
jednostkach odchylenia standardowego istnieje stała proporcja przypadków. książka kodowa
(ang. codebook) książka tworzona przez badacza, w której znajdują się informacje o tym,
jakie kody liczbowe zostały przypisane każdej kategorii składającej się na określoną
jednostkę obserwacji. kwantyfikatory (ang. ąuantifiers) kategorie odpowiedzi stosowane w
skalach szacunkowych, które odzwierciedlają stopień intensywności każdej konkretnej oceny.
kwartały spisowe (ang. census błock) najmniejsze obszary geograficzne, dla których zbiera
się dane do
spisu powszechnego. lambda — współczynnik przewidywalności Guttmana (ang.
lambda — Guttman coefficient of pre-dictability) miara związku wskazująca na kierunek i
silę zależności pomiędzy zmiennymi nominalnymi. linia regresji (ang. regression linę) linia
spełniająca kryterium najmniejszych kwadratów, tzn. jest to
linia najlepiej dopasowana do danych empirycznych. list intencyjny (ang. cover letter)
list dołączony do ankiety pocztowej.
logika (ang. logie) stwierdzenia uniwersalnie trafne, pewne i niezależne od świata
empirycznego. losowanie grupowe (ang. cluster sample) rodzaj losowania probabilistycznego
często stosowanego w badaniach prowadzonych na dużą skalę, ponieważ jest to najmniej
kosztowny schemat doboru próby. Polega na losowaniu najpierw większych zbiorowości
(grup), a następnie na losowaniu jednostek w ramach Vyc\\ grap. ładunek czynnikowy (ang.
factor loading) współczynnik korelacji pomiędzy zmienną a czynnikiem. manipulacja (ang.
manipulation) procedura ułatwiająca badaczom wprowadzenie pewnych form kontroli
zmiennej niezależnej — zwłaszcza w warunkach laboratoryjnych. Procedura ta gwarantuje, że
zmienna niezależna wyprzedziła zmienną zależną. mediana (ang. median) miara tendencji
centralnej definiowana jako punkt, poniżej i powyżej którego
znajduje się 50% obserwacji. metoda połówkowa (ang. split-half method) metoda
szacowania rzetelności polegająca na podzieleniu narzędzia pomiarowego na dwie
odpowiadające sobie części i skorelowaniu wyników otrzymanych w każdej z części
oddzielnie. metoda powtórnego testowania (ang. test-retest method) metoda szacowania
rzetelności narzędzia pomiarowego polegająca na dwukrotnym przebadaniu tej samej grupy
osób tym samym narzędziem pomiarowym i obliczeniu współczynnika korelacji pomiędzy
dwoma zbiorami wyników. metodologia (ang. methodology) system jasno określonych regut i
procedur, do których odwołują się badania będące podstawą ewaluacji wiedzy.
603
metropolitalne obszary statystyczne (ang. Metropolitan Statistical Areas — MSA)
jedno lub więcej hrabstw o dużym skupieniu populacji i okolicznych społeczności, które
pozostają ze sobą w ścisłej interakcji.
miara nieinwazyjna (ang. unobtrusive measure) metoda zbierania danych, w której
osoba badana nie jest świadoma tego, że jest poddawana pomiarowi, i istnieje niewielkie
niebezpieczeństwo, że akt pomiaru będzie wymuszał zmiany zachowania mogące stronniczo
wpłynąć na zebrane dane.
miara rzetelności (ang. reliability measure) miara statystyczna przyjmująca wartości
od 0 (kiedy pomiar nie zawiera niczego ponad błąd) do 1 (kiedy błąd został całkowicie
wyeliminowany).
miara zróżnicowania jakościowego (ang. measure of qualitative variation) wskaźnik
zróżnicowania oparty na stosunku ogólnej, zaobserwowanej liczby różnic do liczby
maksymalnie możliwych różnic w danym rozkładzie.
miary erozji (ang. erosion measures) nieinwazyjne miary oparte na analizie znaków
pozostawianych po użyciu jakiegoś obiektu.
miary przyrostu (ang. accretion measures) nieinwazyjne miary składowanych
obiektów fizycznych.
miary rozproszenia (ang. measures of dispersion) statystyczne miary
odzwierciedlające stopień zróżnicowania wyników w rozkładzie.
miary tendencji centralnej (ang. measures of central tendency) miary statystyczne
odzwierciedlające „typowe" czy „przeciętne" charakterystyki rozkładu częstości.
miejsca objęte spisem (ang. Census Designated Places — CDS) gęsto zaludnione
okręgi, które nie mają własnych, prawnie określonych granic czy władz.
moc dyskryminacyjna (ang. discriminative power — DP) właściwość testu
pozwalająca na sprawdzenie, czy wybrana przez niego pozycja umożliwia odróżnianie ludzi o
wysokich wynikach (zdecydowanie pozytywna postawa) od ludzi o niskich wynikach
(zdecydowanie negatywna postawa).
moda (ang. modę) miara tendencji centralnej definiowana jako kategoria danych, która
powtarza się najczęściej.
model (ang. model) abstrakcyjne przedstawienie rzeczywistości w celu
uporządkowania i uproszczenia naszego spojrzenia na tę rzeczywistość poprzez odtworzenie
podstawowych jej cech charakterystycznych.
nauka (ang. science) całokształt wiedzy osiąganej za pomocą środków naukowej
metodologii.
nauka normalna (ang. normal science) rutynowa weryfikacja teorii (czy paradygmatu)
dominującej w danym momencie historycznym.
nauka rewolucyjna (ang. revolutionary science) nagły rozwój konkurencyjnego
paradygmatu, który jest stopniowo przyjmowany przez naukowców.
obserwacja kontrolowana (ang. controlled obseryation) metoda, której istotąjest jasne i
wyraźne określenie, co, jak i gdzie należy obserwować; metoda wysoce usystematyzowana i
mało elastyczna.
obserwacja nie kontrolowana (ang. noncontrolled observation) metoda obserwacji
mało usystematyzowanej, w której momenty obserwacji są rzadko określane i która jest
często związana z badaniami jakościowymi.
obserwacja prosta (ang. simple observation) metoda pomiaru nieinwazyjnego, w
którym osoba obserwująca nie jest rozpoznawana przez osoby obserwowane.
obserwacja uczestnicząca (ang. participant observation) metoda zbierania danych,
najbardziej powiązana ze współczesnymi badaniami terenowymi, w której badacz staje się
członkiem grupy, którą chce badać.
obserwator w pełni uczestniczący (ang. complete participant) pozycja przyjmowana
przez obserwatora, gdy jego rola jest całkowicie utajniona, ceł badania nie jest znany osobom
badanym, a badacz stara się zostać członkiem obserwowanej grupy.
obszar odrzucenia (ang. region of rejection) obszar wyznaczony pod krzywą rozkładu
z próby określony przez hipotezę zerową i obejmujący te wartości otrzymanej statystyki,
które pozwalają na odrzucenie hipotezy zerowej. W teście jednostronnym obszar odrzuceń
znajduje się po jednej stronie rozkładu, w teście dwustronnym mamy dwa obszary odrzuceń
leżące po dwóch stronach rozkładu.
604
odchylenie przeciętne (ang. mean deviation) miara otrzymana przez obliczenie różnic
pomiędzy każdym wynikiem a średnią, dodanie bezwzględnych wartości tych różnic i
podzielenie otrzymanej sumy przez liczbę obserwacji.
odchylenie standardowe (ang. standard deviatioń) powszechnie stosowana miara
zróżnicowania, której wielkość zależy od stopnia rozproszenia wyników.
odpowiedniość (ang. congruence) zgodność pomiędzy definicjami pojęciowymi i
definicjami operacyjnymi.
odsetek odpowiedzi (ang. response ratę) procent osób, które udzieliły odpowiedzi w
badaniach kwestionariuszowych.
opinia (ang. opinion) werbalny przejaw postawy.
paradygmat (ang. paradigm) dominująca teoria w określonym momencie
historycznym.
parajęzyk (ang. paralanguage) pozatreściowe aspekty zachowania, takie jak szybkość
mówienia, głośność czy tendencja do przerywania. Zachowania te są znane również jako
dodatkowe zachowania werbalne.
parametr (ang. parameter) wartość zmiennej określona dla populacji.
pełen spis statystyczny (ang. complete cout census) spis populacji i gospodarstw
domowych realizowany co dziesięć lat, który w zamierzeniu ma objąć wszystkie rodziny w
państwie. Zawiera jedynie podstawowe dane demograficzne każdego członka rodziny oraz
kilka pytań na temat gospodarstwa domowego.
plan badawczy (ang. research design) rodzaj „projektu" kierującego badaczem na
etapie zbierania, analizowania i interpretowania danych.
plan czynnikowy (ang. factorial design) plan badawczy pozwalający na jednoczesne
badanie wpływu dwóch lub więcej zmiennych niezależnych na zmienną zależną i na
wykrywanie interakcji pomiędzy zmiennymi.
plan dla rozszerzonych szeregów czasowych (ang. extended time-series design) plan
badawczy, w którym dane są traktowane jako część szerszych szeregów czasowych, dzięki
czemu możliwe jest kontrolowanie czynnika dojrzewania.
plan korelacyjny (ang. correlational design) najpowszechniejszy plan badawczy
stosowany w naukach społecznych, najczęściej kojarzony z badaniami sondażowymi. Polega
na wykorzystywaniu danych do badania związku pomiędzy właściwościami i dyspozycjami,
pozwala na określenie związków przyczynowych pomiędzy tymi właściwościami i
dyspozycjami lub na prosty opis związku przed podjęciem próby jego przyczynowej
interpretacji.
plan przekrojowy (ang. cross-sectional design) plan badawczy najczęściej
wykorzystywany w badaniach sondażowych, służący do badania związku pomiędzy
właściwościami a dyspozycjami. Dzięki zastosowaniu odpowiednich metod statystycznych
może osiągnąć status planu jedynie z pomiarem końcowym grupy kontrolnej.
plan z pomiarem początkowym i pomiarem końcowym (ang. pretest-posttest design)
plan preekspe-rymentalny, w którym dokonuje się porównania wartości zmiennej zależnej
otrzymanej przed i po wprowadzeniu zmiennej niezależnej.
plany łączone (ang. combined designs) łączenie dwóch lub więcej planów badawczych
w jeden schemat, dzięki czemu zwiększają się możliwości wyprowadzania wniosków.
plany z kontrolą szeregów czasowych (ang. control-series designs) plany ąuasi-
eksperymentalne, które stwarzają możliwość kontrolowania czynnika historii, dojrzewania i
efektu powtórnego badania, występujących zarówno w grupie eksperymentalnej, jak i w
grupie kontrolnej.
podejście rozumiejące (ang. interpretive approach) przekonanie, że zjawiska
znajdujące się w centrum zainteresowania nauk społecznych są zdecydowanie mniej stabilne
niż zjawiska, którymi zajmują się nauki przyrodnicze.
605
podstawa doboru próby (ang. sampling frame) lista jednostek doboru próby
wykorzystywana w procesie pobierania próby z populacji.
podzbiór (ang. subset) każdy układ elementów należących do populacji, który nie
obejmuje wszystkich elementów definiowanych jako populacja.
pojęcie (ang. concept) abstrakcja reprezentująca obiekt, własność obiektu lub pewne
zjawiska, które badacze wykorzystują do opisywania świata empirycznego.
pomiar (ang. measurement) przypisywanie — zgodnie z określonymi regułami —
liczb lub innych symboli własnościom empirycznym.
pomiar końcowy (ang. posttest) pomiar przeprowadzany po zadziałaniu zmiennej
niezależnej.
pomiar początkowy (ang. pretest) pomiar przeprowadzany przed wprowadzeniem
zmiennej niezależnej.
populacja (ang. population) całkowity zbiór obiektów poddawanych analizie.
porównanie (ang. comparison) procedura polegająca na wykazaniu, że dwie zmienne
są ze sobą powiązane.
porządkowy poziom pomiaru (ang. ordinal level) poziom pomiaru, który umożliwia
uporządkowanie wszystkich obserwacji (na przykład od „największej" do „najmniejszej"), nie
pozwala natomiast na precyzyjne zmierzenie odległości pomiędzy dwoma obiektami.
postawa (ang. attitude) wszelkie skłonności, uprzedzenia, opinie, lęki i przekonania co
do określonego obiektu.
poufność (ang. confidentiality) nieujawnianie tożsamości osób badanych.
poziom istotności (ang. level of significance) prawdopodobieństwo odrzucenia
hipotezy zerowej, gdy jest ona prawdziwa. Jest to prawdopodobieństwo popełnienia błędu I
rodzaju.
poziom nominalny (ang. nominał level) poziom pomiaru, na którym właściwości
obiektów wpadających do jednej klasy są identyczne, a różne, gdy obiekty wpadają do
różnych kategorii. Jest to najniższy poziom pomiaru.
poziom pomiaru (ang. level of measurement) stopień, w jakim liczby opisują cechy
badanej zmiennej. Im wyższy poziom pomiaru, tym więcej możliwości zastosowania
odpowiednich metod statystycznych.
prawo do prywatności (ang. rightprivavy) prawo jednostki do wyboru czasu i
okoliczności — i co ważniejsze — zakresu, w jakim chce ona lub nie chce ujawniać swoich
postaw, wierzeń, zachowań i opinii.
problem badawczy (ang. research problem) problem intelektualny wymagający
rozwiązania w postaci badań naukowych.
proces badawczy (ang. research process) całościowy schemat działań, które naukowcy
podejmują w celu wytworzenia wiedzy; paradygmat naukowych dociekań.
proporcjonalne zmniejszenie błędu (ang. proportional reduction oferror) metoda
wykorzystywana do pomiaru siły związku pomiędzy dwiema zmiennymi, gdy jedną zmienną
wykorzystujemy do przewidywania drugiej.
prosta próba losowa (ang. simple random sample) podstawowy sposób doboru
probabilistycznego, w którym każdy element składający się na całą populację ma takie samo,
niezerowe prawdopodobieństwo dostania się do próby.
próba (ang. sample) część populacji.
próba kwotowa (ang. ąuota sample) próba nieprobabilistyczna tworzona w taki
sposób, aby uzyskać maksymalne podobieństwo próby do wyjściowej populacji.
próba nieprobabilistyczna (ang. nonprobability sample) metoda doboru próby, w
której nie ma możliwości określenia prawdopodobieństwa włączenia określonego elementu
do próby.
próba probabilistyczna (ang. probabilistic sample) próba, dla której możemy określić
prawdopodobieństwo, z jakim każda jednostka może znaleźć się w próbie. Dzięki temu
gwarantujemy, że wyniki otrzymane na podstawie badania różnych prób pochodzących z tej
samej populacji nie będą się różniły od wartości parametrów populacji o więcej niż określoną
wielkość.
606
próba reprezentatywna (ang. representative sample) część badanej populacji, która jest
w maksymalnym stopniu reprezentatywna w stosunku do populacji, z której została pobrana.
Dana próba jest uważana za próbę reprezentatywną, jeśli wyprowadzane przez badacza
wnioski na podstawie badania próby są podobne do wniosków, które badacz otrzymałby,
gdyby przebadał całą populację. próba systematyczna (ang. systematic sample) próba, do
której włączany jest co fc-ty element z populacji, począwszy od pierwszego elementu, który
zostaje wybrany w sposób losowy. Liczba * jest wartością stałą. próba warstwowa (ang.
stratified sample) schemat probabilistycznego doboru próby, w którym najpierw dzieli się
populację na homogeniczne warstwy, a następnie przeprowadza się losowanie w każdej z
warstw. przedział ufności (ang. confidence interval) miara określająca przedział wartości, do
którego wpada
określony procent średnich z próby. przeglądanie danych (ang. data editing) proces,
który trwa zarówno w trakcie, jak i po zakończeniu fazy kodowania i polega na sprawdzaniu,
czy nie popełniono błędów, czy jakieś dane nie zostały opuszczone oraz czy wszystkie
arkusze kwestionariusza wypełniono jak należy. przewidywanie (ang. prediction) proces
przewidywania przyszłych zdarzeń na podstawie zdarzeń, które
wystąpiły wcześniej. przypadki negatywne (ang. negative cases) stwierdzenia i
działania przemawiające na rzecz odrzucenia hipotezy badawczej. Badacze porównują
przypadki negatywne i pozytywne, aby określić, czy można zmodyfikować hipotezę w taki
sposób, by lepiej pasowała do danych, lub też, czy należy badaną hipotezę całkowicie
odrzucić. przypominanie (ang. follow up) strategia wykorzystywana w ankietach pocztowych
do zapewnienia sobie właściwego odsetka odpowiedzi (np. wysyłanie przypominających
pocztówek lub powtórne przesyłanie kwestionariusza). pytania alternatywne (ang.
contingency ąuestions) pytania dotyczące jednej grupy respondentów, gdyż
odnoszą się one tylko do niektórych osób. pytania dotyczące faktów (ang. factual
ąuestions), inaczej pytania metryczkowe, tworzy się po to, aby otrzymać od respondenta
obiektywne informacje dotyczące ich pochodzenia, środowiska, nawyków. pytania o
podwójnej treści (ang. double-barreled ąuestions) łączą dwa lub więcej pytań, które mogą się
okazać kłopotliwe dla respondentów, którzy zgadzają się tylko z jedną częścią tego pytania, a
nie zgadzają się z drugą. pytania tabelaryczne (ang. matrix ąuestions) zwane też
macierzowymi, metoda organizowania w całość dużego zbioru pytań szacunkowych, które
mają te same kategorie odpowiedzi. pytanie (ang. ąuestion) podstawa wszystkich
kwestionariuszy. Kwestionariusz musi przekładać cele badawcze na konkretne pytania.
Odpowiedzi na te pytania są źródłem danych wykorzystywanych do testowania hipotez
badawczych. pytanie fdtrujące (ang. filter ąuestion) w kwestionariuszu pytanie, które
poprzedza pytanie alternatywne: pytanie alternatywne zadaje się w zależności od odpowiedzi
na pytanie filtrujące. pytanie otwarte (ang. open-ended ąuestion) pytanie, które nie jest
wyposażane w żadną konkretną odpowiedź, a wszystko, co mówi respondent, jest w całości
zapisywane. pytanie sugerujące (ang. leading ąuestion) tak sformułowane pytanie, że
respondent odczytuje je jako
wymagające od niego określonej odpowiedzi. pytanie zagrażające (ang. threatening
ąuestion) pytanie, które może wprowadzić respondenta w zakłopotanie. pytanie zamknięte
(ang. close-ended ąuestion) pytanie wyposażone w zbiór odpowiedzi, z którego respondenci
wybierają tę, która jest najbliższa ich poglądom, r Pearsona (ang. Pearson's r) współczynnik
korelacji Pearsona według momentu iloczynowego. Jest to
607
statystyka pozwalająca ustalić wielkość i kierunek zależności pomiędzy zmiennymi
interwałowymi. Jest najczęściej wykorzystywany w analizie korelacji.
racjonalizm (ang. rationalism) wykorzystywanie twierdzeń zasadniczo prawdziwych,
logicznie możliwych i dopuszczalnych.
randomizacja (ang. randomization) metoda kontroli dających się przewidzieć oraz nie
dających się przewidzieć efektów zakłócających, polegająca na losowym
przyporządkowywaniu osób badanych do grupy eksperymentalnej i do grupy kontrolnej.
rangowanie (ang. ranking) metoda stosowana w badaniach kwestionariuszowych, gdy
badacze chcą uzyskać informacje o stopniu ważności czy pierwszeństwa, jaki ludzie
przypisują zbiorowi postaw czy obiektów. Rangowanie jest użytecznym narzędziem,
ponieważ pozwala ustalić relatywny porządek zbioru obiektów czy ocen.
realizm eksperymentalny (ang. experimental realism) stopień, w jakim sytuacja
eksperymentalna jest traktowana przez uczestników eksperymentu jako rzeczywista.
realizm życiowy (ang. mundane realism) zakres, w jakim zdarzenia z sytuacji
laboratoryjnej zachodzą w rzeczywistym życiu.
regresja wielokrotna (ang. multiple regression) technika statystyczna umożliwiająca
określenie związku pomiędzy zmienną interwalową a dwiema lub więcej zmiennymi
interwałowymi, porządkowymi lub nominalnymi.
rejestry aktuarialne (ang. actuarial records) oficjalne dokumenty zawierające
charakterystyki demograficzne danej populacji, udostępniane przez instytucje przechowujące
takie dokumenty.
replikacja (ang. replication), czyli powtarzanie badań dokładnie w taki sam sposób, w
jaki przeprowadzili je badacze i naukowcy; chroni przed niezamierzonymi błędami i
oszustwami.
rozkład częstości (ang. freąuency distribution) liczba danych posiadających taką samą
wartość dla danej zmiennej.
rozkład normalny (ang. normal distribution) rodzaj rozkładu symetrycznego o
ogromnym znaczeniu w statystyce. Jest to krzywa zdefiniowana matematycznie. W pewnych
warunkach można traktować rozkład częstości danej zmiennej jako dobre przybliżenie do
rozkładu normalnego.
rozkład skośny (ang. skewed distribution) rozkład, w którym więcej przypadków
pojawia się na jednym z krańców rozkładu.
rozkład z próby (ang. sampling distribution) teoretyczny rozkład każdej statystyki,
którą można obliczyć dla prób pobranych z populacji.
rozstęp (ang. rangę) miara odległości pomiędzy najwyższym i najniższym wynikiem
w rozkładzie.
rozstęp ćwiartkowy (ang. interąuartile rangę) różnica pomiędzy dolnym i górnym
kwartylem (tj. L?, i Q3)- Ponieważ jest to miara rozproszenia jedynie środkowej części
rozkładu, więc jest mniej wrażliwa na wyniki skrajne.
równanie liniowe (ang. linear relation) związek pomiędzy dwiema zmiennymi X i Y
przedstawiony w postaci równania Y=a + bX, gdzie aibto wartości stałe. Wykresem tego
równania jest linia prosta.
rzetelność (ang. reliability) stałość instrumentu pomiarowego; określa wielkość błędu
związanego z danym narzędziem pomiarowym.
rzetelność kodowania (ang. coding reliability) stopień zgodności pomiędzy różnymi
osobami kodującymi, które dokonują klasyfikacji odpowiedzi osób badanych zgodnie ze
schematem kodowania.
siła związku (ang. magnitude of relation) stopień, w jakim dwie zmienne
współzmieniają się wprost proporcjonalnie lub odwrotnie proporcjonalnie.
skala Guttmana (ang. Guttman scalę) metoda skalowania opracowana z myślą
włączenia empirycznego testu jednowymiarowości zbioru pozycji do procesu konstrukcji
skali. Jeżeli zbiór pozycji skali pokrywa ten sam wymiar postawy, to poszczególne pozycje
można uporządkować na tym kontinuum ze względu na stopień, w jakim dotyczą one tego
kontinuum.
608
skala Likerta (ang. Likert scalę) skala oparta na sumowaniu rang, przeznaczona do
badania postaw.
skalowanie (ang. rating) wyrażanie sądu przez respondenta poprzez wykorzystanie
uporządkowanego zbioru kategorii takich, jak: „całkowicie się zgadzam", „pożądane" czy
„bardzo często".
skanowanie optyczne (ang. optical scanning) metoda przenoszenia i przetwarzania
danych w gotowy format komputerowy. Skaner czyta znaki naniesione czarnym ołówkiem i
automatycznie tworzy plik danych.
sondowanie (ang. probing) technika stosowana przez osobę prowadzącą wywiad do
stymulowania dyskusji i otrzymywania większej ilości informacji.
statystyka (ang. statistic) wartość parametru otrzymana na podstawie danych z próby,
a nie z populacji.
statystyka opisowa (ang. descriptive statistics) procedury statystyczne
wykorzystywane do opisywania i analizowania danych, umożliwiające badaczowi
opracowanie i ustrukturalizowanie danych w skuteczny i sensowny sposób. Dostarcza
narzędzi pozwalających na opisanie dużych zbiorowości danych i zredukowanie otrzymanych
informacji do czytelnej formy.
stopnie swobody (ang. degrees offreedom — df) właściwość statystyki z próby
określająca rozkład z próby.
stosunkowy poziom pomiaru (ang. ratio level) poziom pomiaru, na którym
zdefiniowano punkt zerowy.
strategia badań-przed-teorią (ang. research-then-theory strategy) plan badawczy, w
którym obserwacja empiryczna, opis cech, pomiar i analiza otrzymanych wyników
poprzedzają etap budowania teorii.
strategia lejka (ang. funnel seąuence) technika tworzenia kwestionariusza polegająca
na rozpoczynaniu od pytań ogólnych, a następnie na stopniowym ich zawężaniu.
strategia teorii-przed-badaniami (ang. theory-then research strategy) plan badawczy, w
którym najpierw formułuje się założenia teoretyczne, a następnie prowadzi badania
empiryczne pozwalające na przyjęcie lub odrzucenie tych założeń.
stronniczość eksperymentatora (ang. experimenter bias) sytuacja, która powstaje, gdy
eksperymentator przekazuje swoje oczekiwania co do zachowania osób badanych.
Zachowanie to, chociaż nie jest zamierzonym elementem postępowania badawczego, może
wpłynąć na osoby uczestniczące w badaniu.
struktury pojęciowe (ang. conceptual framework) poziom zaawansowania teorii
polegający na systematycznym wbudowywaniu kategorii deskryptywnych w szerszą strukturę
formułowanych twierdzeń.
system klasyfikacji ad hoc (ang. ad hoc classificatory system) ustalenia teoretyczne
dotyczące kategorii arbitralnych, skonstruowanych w celu ustrukturalizowania i opracowania
obserwacji empirycznych.
system teoretyczny (ang. theoretical system) połączenie taksonomii, struktur
pojęciowych, opisów, wyjaśnień i predykcji w strukturę pozwalającą na pełne wyjaśnienie
zjawiska empirycznego.
ścieżki spisowe (ang. census tracts) małe, definiowane na poziomie lokalnym, obszary
statystyczne w okręgach metropolitalnych, a także hrabstwa, których przeciętna populacja
waha się w granicach 4000 mieszkańców.
średnia arytmetyczna (ang. arithmetic mean) suma wszystkich obserwacji podzielona
przez ich liczbę.
tabela wielodzielcza (ang. cross tabulation) tabela obrazująca związek pomiędzy
dwiema lub więcej zmiennymi, w postaci prezentacji wszystkich kombinacji kategorii
badanych zmiennych.
tabele cząstkowe (ang. partial tables) odzwierciedlają jedynie część całkowitego
związku pomiędzy zmienną zależną i zmienną niezależną.
taksonomia (ang. taxonomy) poziom zaawansowania teorii, która składa się z systemu
kategorii skonstruowanych odpowiednio do obserwacji empirycznych w taki sposób, że
można opisać związki pomiędzy kategoriami.
tsai-b Kendalla (ang. KendaWs tau-b) współczynnik związku pomiędzy zmiennymi
porządkowymi oparty na rangach.
tautologia (ang. tautology) twierdzenia, które są prawdziwe tylko na mocy ich formy
logicznej.
technika form równoległych (ang. parallel-forms techniąue) technika, która ma
przezwyciężyć ograniczenia metody powtórnego testowania (test-retest). Aby zastosować tę
technikę, badacz musi stwo-
609
rzyć dwie równolegle wersje narzędzia pomiarowego. Następnie dokonuje się pomiaru
tej samej grupy osób badanych za pomocą obu form i koreluje otrzymane dwa zbiory
wyników w celu otrzymania miary rzetelności.
technika rozbudowywania (ang. elaboration) metoda wprowadzania innej zmiennej po
to, aby określić sposób powiązania zmiennej niezależnej i zmiennej zależnej.
technika znanej grupy (ang. known-group techniaue) polega na przebadaniu
określonym narzędziem pomiarowym grup ludzi o znanych cechach, aby na tej podstawie
określić kierunek różnic pomiędzy grupami.
teoria aksjomatyczna (ang. ajciomatic theory) system teoretyczny składający się ze
zbioru pojęć i definicji operacyjnych; zbiór twierdzeń opisujących sytuacje, w których teoria
ta ma zastosowanie; zbiór powiązanych ze sobą stwierdzeń (aksjomatów i twierdzeń); a także
system reguł logicznych wykorzystanych do powiązania wszystkich pojęć w ramach systemu
oraz do dedukcyjnego wyprowadzania twierdzeń.
teoria bazowa (ang. grounded theory) w badaniach terenowych tworzenie teorii, która
jest ściśle bezpośrednio powiązana z konkretnymi sytuacjami badania. Tworząc taką teorię,
badacz najpierw — na podstawie danych — tworzy kategorie pojęciowe, a następnie zbiera
nowe dane, aby ujednoznacznić i dopracować te kategorie. Pojęcia i hipotezy są
wyprowadzane bezpośrednio z danych.
termin pierwotny (ang. primitive terms) pojęcie, którego nie można zdefiniować za
pomocą innych pojęć.
termin pochodny (ang. derived term) termin, który można zdefiniować za pomocą
terminów pierwotnych.
terminarz (ang. log) zapis wydarzeń, spotkań, wizyt i innych zdarzeń, jakie nastąpiły
w określonym czasie.
test chi-kwadrat — X1 (ang- chi-sąuare test — %2) test statystyczny opracowany do
oceny, czy różnica pomiędzy liczebnościami otrzymanymi a liczebnościami oczekiwanymi na
podstawie modelu teoretycznego jest istotna statystycznie. Wyniki testu pozwalają na
podjęcie decyzji, czy liczebności poszczególnych kategorii są jednakowe, czy rozkład jest
rozkładem normalnym lub czy dwie zmienne są niezależne.
test dwustronny (ang. two-tailed test) test statystyczny, w którym skrajne wyniki
pozwalające na odrzucenie hipotezy zerowej znajdują się zarówno po prawej, jak i po lewej
stronie rozkładu.
test jednostronny (ang. one-tailed) test statystyczny, w którym skrajne wyniki
pozwalające na odrzucenie hipotezy zerowej znajdują się po jednej lub po drugiej stronie
rozkładu.
test Manna-Whitneya (ang. Mann-Whitney test) test nieparametryczny stosowany
wtedy, gdy badacz chce przetestować hipotezę zerową mówiącą o tym, że dwie próby zostały
pobrane z tej samej populacji wobec hipotezy alternatywnej mówiącej o tym, że dwie
populacje różnią się od siebie.
test nieparametryczny (ang. nonparametric test) test statystyczny, który nie wymaga
wcale lub wymaga przyjęcia niewielu założeń dotyczących rozkładu w populacji.
test parametryczny (ang. parametric test) test, w którym przyjmuje się określone
założenia co do wartości parametru w populacji.
test różnic między średnimi (ang. difference-between-means-test) jest
wykorzystywany do oceny istotności różnicy pomiędzy średnimi, aby można było określić
stopień powiązania między zmiennymi.
test t (ang. t test) test weryfikacji hipotez pozwalający przyjąć lub odrzucić hipotezę
zerową, w którym wykorzystywana jest statystyka t mająca rozkład t.
trafność (ang. validity) stopień, w jakim narzędzie pomiarowe mierzy to, co z
założenia powinno mierzyć.
trafność doboru próby (ang. sampling validity) stopień, w jakim określona populacja
(np. zbiór wszystkich przypadków w świecie rzeczywistym) jest adekwatnie reprezentowana
przez dane narzędzie pomiarowe.
trafność fasadowa (ang. face validity) subiektywna ocena trafności narzędzia
pomiarowego dokonana przez badacza. Dotyczy zakresu, w jakim narzędzie pomiarowe
wydaje się mierzyć to, co założy! sobie badacz.
trafność prognostyczna (ang. predictive yalidity) ocena narzędzia pomiarowego
poprzez porównywa-
610
nie wyników jednego narzędzia z wynikami otrzymanymi za pomocą innego narzędzia
pomiarowego, tzw. kryterium.
trafność teoretyczna (ang. construct validity) proces wiązania narzędzia pomiarowego
z ogólnymi podstawami teoretycznymi w celu określenia, czy narzędzie pomiarowe jest
powiązane z wykorzystywanymi pojęciami i założeniami teoretycznymi.
trafność wewnętrzna (ang. internat validity) w badaniach eksperymentalnych dane
pozwalające wyeliminować możliwość, że to inne czynniki — a nie zmienna niezależna — są
odpowiedzialne za zróżnicowanie zmiennej zależnej.
trafność zewnętrzna (ang. external validity) zakres, w jakim wyniki badań można
uogólniać na większe zbiorowości osób i przenosić na inne warunki społeczne czy polityczne.
triangulacja (ang. triangulation) więcej niż jeden sposób zbierania danych w ramach
jednolitego planu badawczego w celu przetestowania tej samej hipotezy.
uczestnik jako obserwator (ang. participant-as-observer) rola przyjmowana przez
badaczy w badaniach terenowych. Przyjmując tę rolę, badacze informują grupę o
prowadzonych badaniach i starają się stać aktywnymi członkami grupy.
uniwersalizacja (ang. generalizability) stopień, w jakim wyniki badań można uogólnić
na większe populacje i na inne sytuacje badawcze.
utrata osób badanych (ang. experimental mortality) czynnik opisujący problemy
związane ze zmniejszeniem próby, który powoduje, iż badacz nie jest w stanie zebrać
kompletu danych do wszystkich badanych przypadków. Jeżeli osoby badane wypadają
selektywnie z próby eksperymentalnej i próby kontrolnej, to końcowa próba osób, dla których
zebrano wszystkie dane, może być stronnicza.
Verstehen rozumienie ludzkiego zachowania oparte na empatii.
wariancja (ang. variance) miara zróżnicowania ilościowego odzwierciedlająca
przeciętne rozproszenie rozkładu. Jest to kwadrat odchylenia standardowego.
wartość czynnikowa (ang. factor score) wartość otrzymana dla danego przypadku w
czynniku, którą oblicza się poprzez pomnożenie współczynników wartości czynnikowej dla
każdej zmiennej przez standaryzowane wartości tej zmiennej obliczone dla tego przypadku.

wnioskowanie (ang. inference) wyprowadzanie twierdzeń nauki z przyjętych


wcześniej założeń.
wnioskowanie statystyczne (ang. inferential statistics) pozwala badaczowi na
podejmowanie decyzji dotyczących całej populacji na podstawie danych otrzymanych z próby
pochodzącej z tej populacji.
wskazówki sugerujące (ang. demand characteristics) stronniczość pojawiająca się
wtedy, gdy osoby badane zdają sobie sprawę, że znajdują się w sytuacji eksperymentalnej, są
świadome tego, że są obserwowane, i sądzą, że oczekuje się od nich określonych reakcji.
Mogą zatem reagować bezpośrednio na inne czynniki niż manipulacja eksperymentalna. Ich
reakcje mogą natomiast odzwierciedlać, jakie zachowania — ich zdaniem — ma w
zamierzeniu wywołać manipulacja eksperymentalna.
wskaźnik (ang. indicator) empiryczny, obserwowany element pojęcia.
wskaźnik postawy (ang. attitude index) wynik globalny obliczony dla
skonstruowanego a priori zbioru pytań, który jest traktowany jako wskaźnik stopnia nasilenia
postawy danej osoby.
współczynnik korelacji (ang. correlation coefficient) miara liniowego związku
pomiędzy dwiema zmiennymi interwałowymi. Współczynnik korelacji według momentu
iloczynowego r Pearsona pozwala określić kierunek i wielkość związku.
współczynnik korelacji wielokrotnej (ang. coefficient of multiple correlation)
współczynnik korelacji pomiędzy wieloma zmiennymi niezależnymi i zmienną zależną.
współczynnik odtwarzalności (ang. coefficient of reproducibility — CR) miara
pozwalająca ocenić, w jakim zakresie można odtworzyć ogólny wzorzec odpowiedzi na
pozycje skali typu Guttmana na podstawie wyniku globalnego uzyskanego w tej skali. Im
mniejsza liczba błędnie przewidzianych wyników dla pozycji skali, tym wyższy będzie
współczynnik odtwarzalności.
611
współczynnik zmienności (ang. coejficient of variation) miara zróżnicowania oparta
na odchyleniu standardowym i średniej odzwierciedlająca względne zróżnicowanie. Jest
definiowana jako stosunek odchylenia standardowego do średniej rozkładu.
współczynniki ścieżek (ang. path coefficients) standaryzowane współczynniki regresji
odzwierciedlające w analizie ścieżek powiązania przyczynowe pomiędzy zmiennymi.
wybieranie numerów telefonicznych za pomocą liczb losowych (ang. random-digit
dialing — RDD) losowe wybieranie numerów telefonicznych polegające na losowym doborze
centrali telefonicznej i przypisaniu jej losowych numerów mieszczących się między 0001 a
9999.
wyczerpywalnosc (ang. exhaustiveness) reguła nakazująca, aby liczba kategorii była
wystarczająca i obejmowała wszystkie możliwe odpowiedzi respondentów.
wyjaśnianie (ang. explanation) systematyczna i empiryczna analiza czynników
wywołujących jakieś zdarzenie czy zjawisko.
wyjaśnianie dedukcyjne (ang. deductive explanation) polega na pokazaniu, że dane
zjawisko może być wyprowadzone z ustalonego prawa ogólnego.
wyjaśnianie probabilistyczne (ang. probabilistic explanation) odwołuje się do
uogólnień wyrażających albo arytmetyczny stosunek jednego zjawiska do drugiego (n procent
zX=Y), albo jest uogólnieniem wyrażającym określone tendencje/skłonności: (X ma
skłonność do wywoływania Y).
wykres kołowy (ang. pie chart) graficzny sposób przedstawiania różnic pomiędzy
częstościami czy procentami uzyskanymi dla zmiennych nominalnych i porządkowych.
Liczebności lub procenty w odpowiednich kategoriach są wyrażane w postaci części koła.
wykres słupkowy (ang. bar chart) graficzne narzędzie przedstawiania danych
nominalnych i porządkowych. Tworzy się go przez naniesienie kategorii zmiennej na osi
poziomej i narysowanie — dla każdej kategorii — prostokątów o jednakowej szerokości.
Kolejne prostokąty są od siebie oddzielone, a wysokość każdego jest proporcjonalna do liczby
lub procentu przypadków w danej kategorii.
wynik standardowy (ang. standard score) punkt rozkładu, którego średnia wynosi 0, a
odchylenie standardowe równe jest 1.
wyrażanie zgody w sposób racjonalny (ang. reasonably informed consent) strategia
takiego przekazywania informacji osobom badanym, aby znalazło się w nich sześć
podstawowych elementów.
wyrażenie zgody na podstawie przedstawionych informacji (ang. informed consent)
wyrażenie zgody przez osoby biorące udział w badaniach po poinformowaniu ich o faktach,
które mogą wpłynąć na ich chęć wzięcia udziału w tych badaniach.
wywiad nieukierunkowany (ang. nondirective interview) najmniej ustrukturowana
forma wywiadu, w której badacz nie kieruje się wcześniej przygotowanym planem, a także
nie zadaje pytań w ustalonej kolejności. Badacz może swobodnie wybierać obszary badania i
zadawać specyficzne pytania w trakcie wywiadu.
wywiad osobisty (ang. personal intemiew) sytuacja bezpośredniej relacji
interpersonalnej, w której osoba prowadząca wywiad zadaje respondentowi pytania
opracowane w taki sposób, aby udzielone odpowiedzi pozostawały w związku z hipotezą
badawczą.
wywiad telefoniczny ze wspomaganiem komputerowym (ang. computer-assisted
telephone intemie-wing — CATI) rodzaj sondażu telefonicznego, w którym osoba
prowadząca wywiad siedzi przed terminalem komputerowym i zadaje pytanie przez telefon,
gdy pojawi się ono na monitorze komputera. Gdy odpowiedź respondenta zostanie wpisana i
zakodowana, na dysku pojawi się kolejne pytanie.
wywiad według ustrukturowanego planu (ang. schedule-structured interview) wywiad,
w którym zadawane pytania (ich sposób sformułowania i kolejność zadawania) są ustalone i
identyczne dla wszystkich respondentów.
wywiad zogniskowany (ang. focused intemiew) rodzaj wywiadu osobistego (według
ustalonego planu), w którym porusza się tematy istotne z punktu widzenia hipotezy
badawczej, a respondentom zosta-
612
wia się duży margines swobody w wyrażaniu własnych poglądów. Wywiad ogniskuje
się na tych doświadczeniach badanych osób, które dotyczą badanej sytuacji.
wzajemna rozłączność (ang. mutual exclusivity) zgodnie z regułą wzajemnej
rozłączności kategorie opracowane dla każdej zmiennej powinny być tak zaprojektowane, aby
każdy przypadek czy jednostka analizy mogły być zaliczone do jednej i tylko jednej kategorii.
zachowania niewerbalne (ang. nonverbal behavior) ruchy ciała (np. mimika twarzy),
które wyrażają emocje, takie jak gniew, zdumienie czy strach.
zachowania przestrzenne (ang. spatial behavior) działania jednostki zmierzające do
strukturalizacji przestrzeni, która ją otacza, np. kontrolowanie odległości od innych osób czy
obiektów.
zachowanie językowe (ang. linguistic behavior) treść wypowiedzi i strukturalne cechy
mowy.
zagregowane dane ważone (ang. weighted aggregate) dane wykorzystywane do
konstruowania indeksu, które odzwierciedlają względny wpływ poszczególnych wskaźników
na wartość całego indeksu.
założenia nauki (ang. assumption of science) podstawowe przesłanki, które nie są
dowiedzione i których się nie dowodzi, a które stanowią warunki wstępne konieczne do
prowadzenia naukowej dyskusji.
zaplanowane zróżnicowanie (ang. planned variation design) schemat badawczy, w
którym badacze wprowadzają systematycznie zróżnicowane bodźce (zmienne niezależne) po
to, aby ocenić ich efekt przyczynowy.
zasady etyki (ang. codes ofethics) reguły postępowania opracowane przez
stowarzyszenia profesjonalne, dotyczące specyficznych problemów i zagadnień często
spotykanych w czasie prowadzenia badań w określonej dyscyplinie, które są wykorzystywane
jako wskazówki etycznego sposobu prowadzenia badań.
zjawisko artefaktu regresji (ang. regression artifact) błąd pojawiający się wtedy, gdy
osoby badane zostały przyporządkowane do grupy eksperymentalnej na podstawie skrajnie
wysokich wyników zmiennej zależnej, uzyskanych przez nie w pomiarze początkowym.
Kiedy się zdarzy, a zebrane miary nie będą rzetelne, to osoby, które uzyskały wyniki poniżej
średniej w pomiarze początkowym, będą uzyskiwać lepsze wyniki w powtórnym badaniu. I
odwrotnie, osoby, które uzyskały wyniki powyżej średniej w pomiarze początkowym, będą
— w powtórnym badaniu — wypadać gorzej.
zmienna (ang. variable) własność empiryczna, która może przybierać dwie lub więcej
wartości.
zmienna ciągła (ang. continuous variable) zmienna, która nie ma określonej
minimalnej jednostki.
zmienna dyskretna (ang. discrete variable) zmienna mająca minimalną jednostkę.
zmienna kontrolowana (ang. control variable) zmienna, która jest kontrolowana, czy
też inaczej utrzymywana na stałym poziomie w celu zbadania, czy wpływa ona na związek
pomiędzy zmienną niezależną i zależną; jest wykorzystywana po to, aby sprawdzić, czy
obserwowany związek pomiędzy zmienną niezależną i zależną nie jest związkiem pozornym.
zmienna niezależna (ang. independent variable) zmienna wyjaśniająca, tj. zakładana
hipotetycznie przyczyna zmian wartości zmiennej zależnej.
zmienna pośrednicząca (ang. intervening variable) zmienna pośrednicząca pomiędzy
zmienną niezależną a zmienną zależną. Zmienna niezależna wpływa na zmienną zależną
poprzez zmienną pośredniczącą.
zmienna warunkowa (ang. conditional variable) warunek konieczny istnienia związku
pomiędzy zmienną niezależną i zmienną zależną.
zmienna wyjaśniająca (ang. explanatory variable) nazywana także zmienną niezależną.
Zmienna, o której badacz zakłada, że jest przyczyną zmian wartości zmiennej zależnej.
zmienna zależna (ang. dependent variable) zmienna, którą badacz chce wyjaśnić.
znaczenie teoretyczne (ang. theoretical impact) znaczenie, jakie ma dane pojęcie w
kontekście teorii, w której się pojawiło.
zrozumienie (ang. comprehension) ważny element zgody na udział w badaniach,
wyrażający się w przekonaniu, że osoby uczestniczące w badaniach wyraziły zgodę na
podstawie właściwej wiedzy o procedurze badawczej, jeśli jest ona mniej lub bardziej
ryzykowna.
związek (ang. relatioń) współwystępowanie czy współzmienność dwóch lub więcej
zmiennych.
613
związek dodatni (ang. positive relation) związek, w którym wraz ze wzrostem
wartości jednej zmiennej rosną wartości drugiej zmiennej.
związek pozorny (ang. spurious relation) związek między zmienną niezależną i
zmienną zależną, który wydaje się oczywisty, a który jest fałszywy, ponieważ można go
wyjaśnić za pomocą zmiennych innych niż uwzględnione w hipotezie badawczej.
związek typu bodziec—reakcja (ang. stimulus-response relationship) związek, w
którym badacz może manipulować zmienną niezależną.
związek typu właściwość—dyspozycja (ang. property-disposition relationship)
związek pomiędzy jakąś cechą charakteryzującą osobę (właściwością) a odpowiadającymi jej
postawami czy skłonnościami (dyspozycjami).
związek ujemny (ang. negative relation) związek, w którym wraz ze wzrostem
wartości jednej zmiennej maleją wartości drugiej zmiennej.
Podziękowania
Tabela 10.1 na podstawie: Don A. Dillman, James A. Christensen, Edward H.
Carpenter, Ralph M. Brooks, Increasing Mail Questionnaire Response: A Four State
Comparison, „American Sociological Review", 39 (1974): 755 oraz Don A. Dillman, Dan E.
Moore, Improving Response Rates to Mail Sur-veys: Results from Five Surveys, referat nie
opublikowany przedstawiony na corocznej konferencji American Association for Public
Opinion Research, Hershey, Pa., 1983. Przedruk za zgodą American Sociological Association
i Dona D. Dillmana.
Przykład 10.1 na podstawie: Samuel Devons, A Questionnaire for Questioners,
„Public Opinion Quar-terly", 39, (1975): 255-256. Przedruk za zgodą UnWersity of Chicago
Press.
Przykład 10.2, 10.3 i 10.4 na podstawie: Raymond L. Gorden, Intenriewing: Strategy,
Techniąues, and Tactics. wyd. 3 (Homewood, 111.: Dorsey Press, 1980), s. 48-50. Copyright
© 1975 by Raymond L. Gorden. Przedruk za zgodą autora.
Przykład 11.4 na podstawie: Angus Campbell, Howard Shuman, Racial Attitudes in
Fifteen American Cities (Ann Arbor: Social Science ArchWe, 1973). Przedruk za zgodą
Institute for Social Research, Center for Political Studies, UnWersity of Michigan.
Przykład 13.1 na podstawie: Inter-university Consortium for Political and Social
Research, Guide to Resources and Semices, 1994-1995 (Ann Arbor: UnWersity of Michigan,
Institute for Social Research, Center for Political Studies, 1994), s. xxiii. Przedruk za zgodą
ICPSR.
Tabela 14.1 na podstawie: Paul F. Lazarsfeld, Alan Barton Qualitative Measurement
in the Social Sciences: Classification, Typologies, and Indices, w: „The Policy Science", red.
Daniel Lerner, Harold D. Lasswell (Stanford, Calif.: Stanford UnWersity Press, 1951), s. 161.
Przedruk za zgodą Stanford Uni-versity Press.
Przykład 14.2 na podstawie: National Opinion Research Center, UnWersity of
Chicago, General Social Survey, 1972-1989: Cummulative Codebook (Storrs, Conn.: Roper
Center for Public Opinion Research, 1989). Przedruk za zgodą wydawcy.
Rycina 14.1 na podstawie: James L. Gibson, Richard D. Bingham, dvii Liberties and
the Nazis. Copyright © 1985 by Praeger Publishers. Przedruk za zgodą wydawcy.
Tabela 15.2 na podstawie: Alison Landes, Jacąuelyn Quiram, Nancy R. Jacobs, red.,
Child Abuse: Betraying a Trust (Wylie, Tex.: Information Plus, 1995), s. 33. Przedruk za
zgodą Information Plus.
Tabela 16.5 na podstawie: Susan J. Carroll, The Personal ls Political: The Intersection
of Private Lives and Public Roles among Women and Men in Ellective and Appointive
Office, „Women and Poli-tics", 9, ni 2 (1989). Przedruk za zgodą Haworth Press, Inc.
Tabela 16.7 na podstawie: Elizabeth Addel Cook, Ted G. Jeleń, Clyde Wilcox, The
Social Bases of Abortion Attitudes, (Boulder, Colo.: Westview Press, 1992). Copyright ©
1992 by Westview Press. Przedruk za zgodą wydawcy.
Tabela 16.10 na podstawie: Social and Political Survey: Winter 1989, Social Science
Research Fa-cility, UnWersity of Winsconsin, Milwaukee. Przedruk za zgodą.
615
Rycina 17.8 i 17.9 na podstawie: Gary L. Tomkins, A Causal Model of State Welfare
Expenditures, „Journal of Politics", 37 (1975): 406, 409. Copyright © 1975 by the University
of Texas Press. Przedruk za zgodą autora i wydawcy.
Tabela 18.7 na podstwie: Jules J. Wanderer, An lndex of Riot Severity and Sonie
correlates, „American Journal of Sociology", 74 (1969): 503. Przedruk za zgodą University of
Chicago Press.
Tabela 19.6 na podstawie: Jane Riblett Wilkie, Changes in U.S. Men 's Attitudes
Toward the Family Provider Role, 1972-1989, „Gender and Society", 7, nr 2 (June 1993):
261-279. Copyright © 1993 by Sagę Publications, Inc. Przedruk za zgodą wydawcy.
Rycina A.2 do A.6 i A.9 do A.ll (wszystkie pochodzą z programu SPSS dla Windows
Release 5.0). Przedruk za zgodą SPSS Inc.
Dodatek B (wskazówki dotyczące opracowywania tabel) przygotowano na podstawie
konspektu zajęć opracowanego przez Davida Wegge'a z St. Norbert College. Przedruk za
zgodą autora.
Dodatek D skrót z: William H. Beyer (red.), Handbook of Tables for Probability abd
Statistics, Se-cond Edition (Cleveland: Chemical Rubber Company, 1968). Copyright © 1968
by The Chemical Rubber Company, CRC Press, Inc. Przedruk za zgodą wydawcy.
Dodatek E na podstawie: Harold O. Rugg, Statistical Methods Applied to Education
(Boston: Hough-ton Mifflin Company, 1917), s. 389-390. Przedruk za zgodą wydawcy.
Dodatek F oraz I skrót na podstawie: Ronald A. Fisher, Frank Yates, Statistical Tables
for Biolo-gical, Agricultural and Medical Research, Sixth Edition, tabela III i IV. Przedruk za
zgodą Longman Group, Ltd. działającej w imieniu osób zarządzających spuścizną literacką
Sir Ronalda A. Fishera, F.R.S. i Dr. Franka Yatesa, F.R.S.
Dodatek G na podstawie: George W. Snedecor, William G. Cochran, Statistical
Methods, Seventh Edition, Copyright © 1980 by the Iowa State University Press. Przedruk za
zgodą wydawcy.
Dodatek H na podstawie: D. Auble, Extended Tables for the Mann-Whitney Statistics,
„Bulletin of the Institute of Educational Research at Indiana University", I, nr 2 (1953), tabele
1, 3, 5 i 7. Przedruk za zgodą Department of Education, Indiana University.

You might also like