Professional Documents
Culture Documents
Frankfort - Nachmias CH., Nachmias D. - Metody Badawcze W Naukach Spoå Ecznych
Frankfort - Nachmias CH., Nachmias D. - Metody Badawcze W Naukach Spoå Ecznych
Frankfort - Nachmias CH., Nachmias D. - Metody Badawcze W Naukach Spoå Ecznych
Metody badawcze
w naukach społecznych
Przekład
Elżbieta Hornowska
Zysk i S-ka Wydawnictwo
Tytuł oryginału
Research Methods in the Social Sciences
Copyright © 1996 by Scientific American/St. Martin's College Publishing Group, Inc.
Published by arrangement with Scientific American/St. Martin's College Publishing
Group, Incorporate
in association with Zysk i S-ka Publishers
Ali rights reserved
Copyright © 2001 for the Polish translation by Zysk i S-ka Wydawnictwo s.c, Poznań
Opracowanie graficzne i projekt okładki Dariusz Jasiczak
Dodatek A przełożyła Marzenna Zakrzewska Literaturę dodatkową przygotował Jerzy
Brzeziński
Redaktor naukowy wydania polskiego prof. dr hab. Jerzy Brzeziński
Uniwersytet im. Adama Mickiewicza w Poznaniu
Redaktor Zofia Domańska
Wydanie I
ISBN 83-7150-702-X
Zysk i S-ka Wydawnictwo s.c.
ul. Wielka 10, 61-774 Poznań
tel. (0-61) 853 27 51, 853 27 67, fax 852 63 26
Dział handlowy, ul. Zgoda 54, 60-122 Poznań
tel. (0-61) 864 14 03, 864 14 04
e-mail: sklep@zysk.com.pl
nasza strona: www.zysk.com.pl
Skład
dtp Marek Barłóg
Druk i oprawa: Poznańskie Zakłady Graficzne SA
Zarys treści
Wprowadzenie...................................... 11
Część I — Podstawy badań empirycznych
1. Podejście naukowe................................ 16
2. Badanie — podstawowe pojęcia.......................... 41
3. Podstawowe elementy procesu badawczego..................... 66
4. Problemy etyczne badań w naukach społecznych...................88
Część II — Plany badawcze i struktura procesu badawczego
5. Plany badawcze: eksperymenty........................... 112
6. Plany badawcze: plany badań przekrojowych i plany quasi-eksperymentalne......
141
7. Pomiar...................................... 168
8. Dobór próby i schematy doboru próby....................... 191
Część III — Zbieranie danych
9. Metody obserwacyjne............................... 220
10. Badania sondażowe................................ 240
11. Konstruowanie kwestionariusza........................... 266
12. Badania jakościowe................................ 297
13. Wtórna analiza danych............................... 320
Część IV — Przetwarzanie i analizowanie danych
14. Przygotowanie i analiza danych.......................... 350
15. Rozkład jednej zmiennej.............................. 369
16. Analiza dwuzmiennowa.............................. 404
17. Kontrola, poziom złożoności i analiza wielozmiennowa............... 439
18. Konstruowanie indeksu i metody skalowania.................... 469
19. Wnioskowanie statystyczne............................ 490
Dodatki
A. Wstęp do SPSS.................................. 515
B. Zasady pisania raportu z badań........................... 568
C. Znak sumowania (X)................................ 579
D. Liczby losowe................................... 582
E. Powierzchnia pod krzywą normalną......................... 586
F. Rozkład t..................................... 587
G. Wartości krytyczne rozkładu F........................... 588
H. Wartości krytyczne statystyki U w teście Manna-Whitneya.............. 593
I. Rozkład z2.................................... 596
Słowniczek........................................ 599
Podziękowania...................................... 615
I
Szczegółowy spis treści
Wprowadzenie...................................... 11
Część I — Podstawy badań empirycznych
1 ¦ Podejście naukowe.................................. 16
Co to jest nauka? 17. Koncepcje wiedzy 18. Podstawowe założenia przyjmowane w
nauce 20. Cele nauk społecznych 23. Rola metodologii 28. Rewolucja naukowa 32. Proces
badawczy 36. Plan książki 37. Podsumowanie 39. Podstawowe terminy 39. Pytania
sprawdzające 40. Literatura dodatkowa 40
2 ¦ Badanie — podstawowe pojęcia............................41
Pojęcia 42. Definicje 44. Teoria: jej funkcje i rodzaje 51. Modele 59. Teoria, modele i
badania empiryczne 61. Podsumowanie 63. Podstawowe terminy 64. Pytania sprawdzające
65. Literatura dodatkowa 65
3 ¦ Podstawowe elementy procesu badawczego......................66
Problemy badawcze 67. Zmienne 70. Związki 74. Hipotezy 77. Problemy i hipotezy:
wybrane przykłady 80. Źródła informacji o badaniach i hipotezach naukowych 81.
Podsumowanie 86. Podstawowe terminy 87. Pytania sprawdzające 87. Literatura dodatkowa
87
4 ¦ Problemy etyczne badań w naukach społecznych....................88
Dlaczego etyka w badaniach naukowych? 90. Wyrównywanie kosztów i zysków 93.
Wyrażanie zgody na podstawie posiadanych informacji 95. Prywatność 99. Anonimowość i
poufność 102. Zawodowy kodeks postępowania etycznego 104. Podsumowanie 109.
Podstawowe terminy 109. Pytania sprawdzające 110. Literatura dodatkowa 110
Część II — Plany badawcze i struktura procesu badawczego
5 ¦ Plany badawcze: eksperymenty............................112
Plan badawczy: przykład 114. Klasyczny plan eksperymentalny 116. Wyprowadzanie
wniosków o charakterze przyczynowo-skutkowym 119. Podstawowe cechy planu
badawczego 120. Rodzaje planów badawczych 131. Podsumowanie 139. Podstawowe
terminy 140. Pytania sprawdzające 140. Literatura dodatkowa 140
6 ¦ Plany badawcze: plany badań przekrojowych i plany quasi-
eksperymentalne.......141
Rodzaje zmiennych i plany badawcze 143. Plany przekrojowe 145. Plany quasi-
eksperymentalne 147. Plany łączone 159. Plany preeksperymentalne 162. Porównanie planów
badawczych 164. Podsumowanie 166. Podstawowe terminy 167. Pytania sprawdzające 167.
Literatura dodatkowa 167
7 ¦ Pomiar.......................................168
Natura pomiaru 170. Poziomy pomiaru 173. Transformacja danych 178. Błąd pomiaru
179. Trafność 180. Rzetelność 185. Podsumowanie 189. Podstawowe terminy 190. Pytania
sprawdzające 190. Literatura dodatkowa 190
8 ¦ Dobór próby i schematy doboru próby.........................191
Po co jest potrzebna próba? 193. Populacja 193. Schematy doboru próby 197.
Wielkość próby 208. Błędy nielosowe 214. Podsumowanie 216. Podstawowe terminy 216.
Pytania sprawdzające 217. Literatura dodatkowa 217
Część III — Zbieranie danych
9 ¦ Metody obserwacyjne................................220
Triangulacja 222. Rola obserwacji 223. Rodzaje zachowań 225. Określanie czasu
obserwacji i rejestrowanie danych 227. Wnioskowanie 229. Rodzaje obserwacji 230.
Obserwacja kontrolowana 230. Ekspe-
rymenty laboratoryjne 230. Eksperyment terenowy 235. Podsumowanie 237.
Podstawowe terminy 238. Pytania sprawdzające 238. Literatura dodatkowa 239
10 ¦ Badania sondażowe.................................240
Ankiety pocztowe 242. Wywiad osobisty 249. Wywiad osobisty a ankieta pocztowa
254. Zasady prowadzenia wywiadu 256. Wywiad telefoniczny 258. Porównanie trzech metod
prowadzenia badań sondażowych 261. Wnioski 262. Podsumowanie 263. Podstawowe
terminy 264. Pytania sprawdzające 264. Literatura dodatkowa 264
11 ¦ Konstruowanie kwestionariusza............................266
Pytania 267. Treść pytań 268. Rodzaje pytań 270. Format pytania 274. Porządek pytań
277. Ograniczanie stronniczości: błędy w konstrukcji kwestionariusza 280. List
wprowadzający 284. Instrukcja 286. Konstruowanie kwestionariusza: analiza przypadku 287.
Podsumowanie 294. Podstawowe terminy 295. Pytania sprawdzające 296. Literatura
dodatkowa 296
12 ¦ Badania jakościowe.................................297
Badania terenowe 299. Obserwacja uczestnicząca 300. Praktyczne problemy badań
terenowych 304. Podstawy teoretyczne badań terenowych 313. Społeczność robotników:
przykład badań terenowych 315. Etyczne i polityczne aspekty badań terenowych 317.
Podsumowanie 318. Podstawowe terminy 319. Pytania sprawdzające 319. Literatura
dodatkowa 319
13 ¦ Wtórna analiza danych................................320
Dlaczego wtórna analiza danych? 322. Opinia publiczna i polityka społeczna:
przykład 324. Ograniczenia wtórnej analizy danych 325. Spis ludności 326. Szukanie danych
wtórnych 331. Pomiary nieinwazyjne 333. Dokumenty archiwalne 335. Analiza treści 341.
Podsumowanie 346. Podstawowe terminy 348. Pytania sprawdzające 348. Literatura
dodatkowa 348
Część IV — Przetwarzanie i analizowanie danych
14 ¦ Przygotowanie i analiza danych............................350
Schematy kodowania 352. Konstruowanie zeszytów kodowych 357.
Wykorzystywanie komputerów w naukach społecznych 365. Podsumowanie 366.
Podstawowe terminy 367. Pytania sprawdzające 367. Ćwiczenia komputerowe 367. Literatura
dodatkowa 368
15 ¦ Rozkład jednej zmiennej...............................369
Rola statystyki 371. Rozkłady częstości 371. Graficzna prezentacja rozkładów 375.
Miary tendencji centralnej 379. Podstawowe miary rozproszenia 386. Miary rozproszenia
oparte na średniej 391. Rodzaje rozkładów częstości 396. Podsumowanie 400. Podstawowe
terminy 401. Pytania sprawdzające 401. Ćwiczenia komputerowe 403. Literatura dodatkowa
403
16 ¦ Analiza dwuzmiennowa................................404
Pojęcie związku między dwiema zmiennymi 405. Miara związku 414. Miary związku
dla danych nominalnych 417. Miary związku pomiędzy zmiennymi dla skali porządkowej
421. Miary siły związku dla danych interwałowych 428. Podsumowanie 436. Podstawowe
terminy 436. Pytania sprawdzające 436. Ćwiczenia komputerowe 438. Literatura dodatkowa
438
17 ¦ Kontrola, poziom złożoności i analiza wielozmiennowa.................439
Kontrola 441. Metody kontroli 442. Poziom złożoności 449. Analiza
wielozmiennowa: korelacje wielokrotne 459. Modele przyczynowe i analiza zmiennych 460.
Podsumowanie 465. Podstawowe terminy 466. Pytania sprawdzające 466. Ćwiczenia
komputerowe 468. Literatura dodatkowa 468
18 ¦ Konstruowanie indeksu i metody skalowania......................469
Konstruowanie indeksu 471. Metody skalowania 479. Podsumowanie 487.
Podstawowe terminy 488. Pytania sprawdzające 488. Ćwiczenia komputerowe 489. Literatura
dodatkowa 489
19 ¦ Wnioskowanie statystyczne..............................490
Strategia testowania hipotez 492. Hipoteza zerowa i hipoteza badawcza 493. Rozkład
z próby 494. Poziom istotności i obszar odrzuceń 496. Parametryczne i nieparametryczne
testy istotności 500. Podsumowanie 513. Podstawowe terminy 514. Pytania sprawdzające
514. Ćwiczenia komputerowe 514. Literatura dodatkowa 514
Dodatki
A ¦ Wstęp do SPSS...................................515
Wersje dla komputera głównego i dla PC 517. SPSS dla Windows 546. Zakończenie
562. Literatura dodatkowa 567
B ¦ Zasady pisania raportu z badań............................568
Literatura dodatkowa 578
C ¦ Znak sumowania (L).................................579
D ¦ Liczby losowe....................................582
E ¦ Powierzchnia pod krzywą normalną..........................586
F ¦ Rozkład I......................................587
G ¦ Wartości krytyczne rozkładu F............................588
H ¦ Wartości krytyczne statystyki U w teście Manna-Whitneya...............593
I ¦ Rozkład x2......................................596
Słowniczek........................................599
Podziękowania
615
¦ Wprowadzenie
Celem piątego wydania Metod badawczych w naukach społecznych — podobnie jak
poprzednich wydań — jest przedstawienie pełnego, usystematyzowanego przeglądu wiedzy
na temat podejścia naukowego w obszarze nauk społecznych. Szczególny nacisk kładziemy
na związki pomiędzy teorią, badaniami a praktyką, a także na włączenie działań badawczych
w usystematyzowany obszar wiedzy po to, aby czytelnik mógł łatwiej zrozumieć naturę badań
w naukach społecznych.
Naszym zdaniem badania prowadzone w naukach społecznych to autokorekcyj-ny
proces cykliczny składający się z siedmiu następujących etapów: definicji problemu
badawczego, sformułowania hipotez, wybrania planu badawczego, pomiaru, zbierania
danych, analizy danych i uogólniania. Każdy z tych etapów jest powiązany z teorią w tym
sensie, że zarówno z niej wynika, jak i na nią wpływa. Książka ta prowadzi czytelnika kolejno
przez owe etapy.
Nowe wydanie
Piąte wydanie zostało w dużym stopniu poprawione i zmienione:
¦ Rozdział 15 „Rozkład jednej zmiennej" rozszerzono o tekst dotyczący
wykorzystania grafiki do przedstawiania rozkładów. Omawiamy wykresy kołowe, słupkowe
oraz histogramy.
¦ W każdym wprowadzeniu do rozdziału przedstawiamy zarys prezentowanej
tematyki jak również przykład ilustrujący omawiane zagadnienia w rzeczywistych sytuacjach
życiowych. Wprowadzenia te mają zainteresować studentów danym problemem.
¦ W całej książce znajdują się ramki podsumowujące przedstawiony materiał i
ułatwiające przegląd najważniejszych pojęć.
¦ Dodatek A „Wstęp do SPSS" został rozszerzony. Omawiamy w nim SPSS/PC+
oraz SPSS dla Windows. Dodatek A ma pomóc studentom w przygotowaniu i
przeprowadzeniu komputerowej analizy danych za pomocą tego znanego i często
stosowanego pakietu statystycznego. W rozdziałach 14-19 wprowadziliśmy nowe ćwiczenia
komputerowe, aby umożliwić studentom wykorzystanie SPSS do analizy danych.
¦ Nowy dodatek B „Zasady pisania raportu z badań" dostarcza wskazówek co do
pisania raportów zarówno dla początkujących studentów, jak i dla studentów
zaawansowanych.
W nowym wydaniu staramy się nadal łączyć szeroki zakres klasycznych badań
podejmowanych w naukach społecznych z przykładami współczesnych problemów
rozwiązywanych w tym obszarze. Wprowadzone zmiany odzwierciedlają rozwój, który
dokonał się w tej dziedzinie od czasu poprzedniego wydania książki. Dzięki konstruktywnym
uwagom krytycznym sformułowanym przez osoby prowadzące zajęcia z metod badawczych
w różnych dyscyplinach na terenie całego kraju — zarówno korzystających, jak i nie
korzystających z tego podręcznika — książka zyskała bardzo wiele. Idąc za ich radą,
zmieniliśmy sposób pisania tak, aby książka była mniej formalna, a wprowadzenia do
rozdziałów bardziej przystępne.
11
Plan ksigżki
Książka została zorganizowana w sposób następujący: przechodzimy od bloków
(cegiełek) o charakterze teoretycznym, wyjaśniających pojęcia i określających proces
badawczy, do analizy danych i wykorzystania komputerów. Dzięki temu studenci otrzymują
pełne i w sposób systematyczny budowane podstawy do rozumienia istoty i zakresu badań
naukowych prowadzonych w naukach społecznych. Poszczególne rozdziały książki stanowią
niezależne (choć jednocześnie powiązane ze sobą) całości, co ułatwia elastyczne
organizowanie zajęć w zależności od indywidualnych potrzeb i zainteresowań prowadzącego.
Monografię tę można wykorzystywać na dwóch rodzajach zajęć: wprowadzenia do metod
badawczych oraz zajęć, na których na zmianę omawia się tematy dotyczące metod
badawczych i statystyki.
W rozdziale 1 przedstawiamy podstawy wiedzy, cele badań naukowych i podstawowe
założenia podejścia naukowego. W rozdziale 2 i 3 omawiamy zasadnicze problemy badań
empirycznych oraz związki pomiędzy teorią i badaniami. W rozdziałach tych poruszamy
zagadnienia tworzenia pojęć, roli i typów teorii, modeli, zmiennych i różnych źródeł
problemów i hipotez badawczych. Rozdział 4 koncentruje się na etycznych problemach badań
w naukach społecznych i ukazuje sposoby zapobiegania łamaniu praw oraz sposoby ochrony
dóbr osób badanych, łącznie z prawem do prywatności.
W rozdziale 5 i 6 przedstawiamy etap wybierania planu badawczego. Plan badawczy
to strategia obowiązująca badacza, to logiczny model pozwalający na wyprowadzanie
wniosków o charakterze przyczynowo-skutkowym. Plany eksperymentalne zostały
przedstawione i omówione w rozdziale 5, a quasi- i preekspery-mentalne w rozdziale 6. W
rozdziale 7 koncentrujemy się na pomiarze i ilościowym ujmowaniu danych. Dokonaliśmy
również przeglądu zagadnień trafności i rzetelności — nierozerwalnie związanych z teorią
pomiaru. W rozdziale 8 przedstawiliśmy podstawy teorii doboru próby, najczęściej stosowane
schematy doboru próby oraz metody określania niezbędnej wielkości próby.
W rozdziałach od 9 do 13 omawiamy różne metody zbierania danych stosowane w
naukach społecznych. Metody obserwacji, eksperymentu laboratoryjnego i naturalnego są
tematem rozdziału 9. W rozdziale 10 natomiast przedstawiamy badania sondażowe —
zwłaszcza ankietę pocztową, wywiad osobisty i wywiad telefoniczny. Rozdział 11 zawiera
opis konstruowania metody kwestionariuszowej: omawiamy treść pytań, rodzaje pytań,
format pytań i sekwencję pytań. Ukazując błędy popełniane przy konstruowaniu
kwestionariusza, poruszamy problem stronniczości. Rozdział 12 został poświęcony teorii i
praktyce badań jakościowych ze szczególnym naciskiem na obserwację uczestniczącą i
badania terenowe. W rozdziale 13 omawiamy podstawowe zagadnienia wtórnej analizy
danych — danych pochodzących z powszechnego spisu statystycznego, danych
nieinwazyjnych takich jak dokumenty prywatne i oficjalne — oraz analizę treści.
Kolejne rozdziały dotyczą przetwarzania i analizy danych. W rozdziale 14
przedstawiamy najnowsze techniki przygotowywania książki kodowej, schematy i narzędzia
kodowania, sposoby przygotowywania danych do obróbki komputerowej, wykorzystanie
komputerów w badaniach prowadzonych w naukach społecznych oraz sieci komputerowe.
Rozdział 15 wprowadza czytelnika w problematykę rozkładów jednozmiennowych, miar
tendencji centralnej i rozproszenia oraz różnych rodzajów rozkładów liczebności. Rozdział 16
przedstawia podstawowe poję-
12
cia analizy dwuzmiennowej, w tym miary związku dla danych nominalnych,
porządkowych i interwałowych, które zostały omówione i porównane. Tematem rozdziału 17
jest analiza wielozmiennowa, statystyczne techniki kontroli i interpretacji, analiza
przyczynowa oraz analiza ścieżek. W rozdziale 18 przedstawiamy podstawowe techniki
wykorzystywane przy konstruowaniu indeksów i skal, a w rozdziale 19 strategie testowania
hipotez, pojęcia poziomu istotności, obszaru odrzuceń oraz wybrane parametryczne i
nieparametryczne testy istotności.
Książka ta, wraz z dodatkowymi materiałami, pomoże czytelnikom prześledzić
podstawowe etapy procesu badawczego.
Podziękowania
Mamy wiele długów wdzięczności. Od czasu pierwszego wydania książki w 1976
roku studenci, wykładowcy, recenzenci i nasi koledzy przekazali nam wiele pomysłów i
uwag.
Szczególną wdzięczność niech zechcą przyjąć: Michael Baer, Bruce S. Bowen, Jeffrey
Brudney, Gary T. Henry i Allen Rubin. Dziękujemy również osobom zarządzającym
spuścizną literacką Sir Ronalda A. Fishera, F.R.S. i dr. Franka Yatesa, F.R.S., tj. Longman
Group Ltd. z Londynu za zgodę na przedruk dodatków z książki Statistical Tables for
Biological, Agricultural, and Medical Research (wyd. 6, 1974) oraz recenzentom wydania
piątego naszej książki: Lydii Andrade z San Jose State University, Claire L. Felbinger z
Cleveland State University, Richardowi Na-gasawie z Arizona State University, Marcellinie
Offoha z Ithaca College, Alfredowi Powellowi z University of Texas w San Antonio, Johnowi
K. Price'owi z Louisiana Tech University, Julesowi J. Wandererowi z University of Colorado
w Boulder oraz Davidowi G. Wegge'owi z St. Norbert College.
Dziękujemy też Claire L. Felbinger z Levin College of Public Administration i jej
asystentowi Stephenowi F. Schwelgienowi za przygotowanie dodatku o SPSS, Ninie Reshef,
członkowi The Public Policy Program z Tel-Aviv University, która pomagała Davidowi
Nachmiasowi i której pracę można dostrzec w całym tekście, a także Pat Pawasarat
współpracującej z Chavą Frankfort-Nachmias przy poprawianiu tekstu.
Na koniec chcielibyśmy wyrazić naszą wdzięczność zespołowi St. Martin's Press, a
zwłaszcza Carli Samodulski, która w mistrzowski sposób opracowała piąte wydanie. Szczerze
dziękujemy też Sabrze Scribner, sumiennej asystentce Elizabeth Bast oraz Douglasowi
Bellowi za cierpliwość i wsparcie w trakcie pisania tej książki.
Chava Frankfort-Nachmias David Nachmias
CZĘŚĆ I
PODSTAWY BADAŃ EMPIRYCZNYCH
Rozdział 1
Podejście naukowe
Co to jest nauka? 17
Koncepcje wiedzy 18
Model oparty na autorytecie 18 Model oparty na wierze 19 Model racjonalny 19
Podstawowe założenia przyjmowane w nauce 20
Cele nauk społecznych 23
Wyjaśnianie naukowe 23 Przewidywanie 25 Rozumienie 27
Rola metodologii 28
Metodologia dostarcza reguł komunikowania 29 Metodologia dostarcza reguł
wnioskowania 30 Metodologia dostarcza reguł intersubiektywności 30
Rewolucja naukowa 32
Nauka normalna a nauka rewolucyjna 32 Nauka rewolucyjna 34 Logika odkrycia?
34
Proces badawczy 36
Plan książki 37
Podsumowanie 39
Podstawowe terminy 39
Pytania sprawdzające 40
Literatura dodatkowa 40
Czy skomplikowane problemy społeczne można rowiązywać, prowadząc szerokie i
złożone badania? Niedawno* rozpoczęty projekt badawczy dotyczący rozwoju osób
zamieszkałych w okręgu Chicago (Humań Development in Chicago Neighborhoods) może
być przykładem takiego właśnie badania. Aby można było uzyskać szczegółowy obraz
specyfiki dorastania w Chicago, a także określić, jakie sposoby wychowania prowadzą do
popełniania przestępstw, a jakie do społecznie akceptowanych zachowań, badacze będą przez
ponad osiem lat obserwować około 11 000 osób mieszkających w 75 okręgach leżących w
okolicach Chicago. Badanie to będzie miało charakter interdyscyplinarny. Jego autorzy będą
szukać przyczyn indywidualnych i rodzinnych (czynniki psychologiczne), a także wpływów
środowiskowych i społecznych (czynniki socjologiczne). Wykorzystując otrzymane wyniki w
celu udowodnienia wcześniej przyjętych hipotez, badacze będą przestrzegać reguł
metodologii nauk1.
Rozdział ten jest poświęcony nauce. Rozpoczynamy go od przedstawienia definicji
nauki i porównania podejścia naukowego z trzema innymi koncepcjami wiedzy. Następnie
omawiamy podstawowe założenia nauki, jej cele, a także rolę metodologii w badaniach
naukowych. Definiujemy podejście naukowe najpierw z punktu widzenia tego, czym jest
rzeczywistość i doświadczenie, a następnie z punktu widzenia metodologii, biorąc pod uwagę
reguły komunikowania, wnioskowania i intersubiektywności. Dalej przedstawiamy ideę
rewolucji naukowej, odkryć i postępu. Na koniec pokazujemy model procesu badawczego,
którego etapy będziemy prezentować w kolejnych rozdziałach.
Stawiamy też wiele pytań. Jakich korzyści na przykład dostarcza podejście naukowe
osobom, które interesują się problemami społecznymi? W jaki sposób możemy zdobyć
rzetelną wiedzę o takich ludzkich doświadczeniach, które opisujemy jako „społeczne",
„polityczne", „ekonomiczne" czy „psychologczne"? A dokładniej, w jaki sposób podejście
naukowe pomaga zrozumieć zjawiska takie, jak: inflacja, bezrobocie, demokracja,
biurokracja, zbrodnie i przestępstwa czy samorealizacja? Innymi słowy, w jaki sposób i
dlaczego nauki społeczne należą do rodziny nauk?
Jednym ze sposobów odpowiedzi na te pytania jest najpierw zdefiniowanie, czym jest
nauka, następnie bliższe przyjrzenie się podejściu naukowemu — jego założeniom, celom i
właściwościom — a na koniec porównanie podejścia naukowego z innymi koncepcjami
wiedzy.
¦ Co to jest nauka?
Pojęcie nauki jest, niestety, często źle rozumiane. Laicy, dziennikarze, politycy,
uczniowie i naukowcy stosują termin „nauka" w różny sposób i w różnych kontek-
* Pierwsze wydanie tej książki ukazało się w 1976 roku — przyp. red. nauk. 1 Ellen
K. Coughlin (1994), Pathways to Crime, „The Chronicie of Higher Education", April 27, s.
A8-A9.
17
stach. Dla niektórych nauka oznacza prestiżowe przedsięwzięcie, dla drugich
prawdziwą wiedzę, a jeszcze dla innych obiektywne badanie zjawisk empirycznych.
„Nauka" to termin trudny do zdefiniowania głównie dlatego, że ludzie często mylą to,
czym jest nauka, z jej metodologią. Chociaż sama nauka nie ma własnego przedmiotu
badawczego, to nie każde badanie jakiegoś zjawiska traktujemy jako naukę. I tak na przykład
astrologowie studiują położenie gwiazd oraz analizują zdarzenia w ludzkim życiu, starając się
ustalić relacje między nimi po to, aby można było przewidywać przyszłe wydarzenia. Badania
te nie pozwalają jednak zakwalifikować astrologii jako jednej z nauk. Jeśli nawet prestiżowy
uniwersytet powołałby do życia instytut astrologii, zatrudnił pracowników, opracował
program kształcenia w zakresie studiów magisterskich, to i tak astrologia nie stałaby się
dyscypliną naukową. Powód, dla którego odrzucamy astrologię jako naukę, nie leży bowiem
w jej przedmiocie badań, ale w metodologii stosowanej przez astrologów, która jest uważana
za nienaukową. Odrzucenie przez naukowców jakiejś dziedziny wiedzy, traktowanej przez
wielu ludzi jako wiedzy rzeczywistej, oparte jest zawsze na przesłankach metodologicznych.
Co więcej, sama nauka także ciągle się zmienia — wiedza dzisiaj uznawana za naukową,
jutro może się okazać nienaukowa.Ter-min „nauka" nie odnosi się zatem do jakiejś ogólnej
lub konkretnej wiedzy, lecz do odmiennej metodologii. Z tych powodów będziemy w naszej
książce używać terminu „nauka" na oznaczenie całokształtu wiedzy osiąganej za pomocą
metodologii naukowej.
¦ Koncepcje wiedzy
Słowo „nauka" (ang. science) pochodzi od łacińskiego słowa scire oznaczającego
„wiedzieć". Historycznie rzecz biorąc, ludzie zdobywali wiedzę w różny sposób. Podejście
naukowe jest z całą pewnością jedynym sposobem, dzięki któremu ludzie zrozumieli swoje
otoczenie i siebie samych. Można jednak wskazać trzy inne sposoby zdobywania wiedzy:
sposób odwołujący się do autorytetu, do wiary oraz sposób racjonalny. Podstawowej cechy
różniącej te podejścia można upatrywać w sposobie, w jaki każde z nich uwiarygadnia źródła
wiedzy lub osoby szerzące tę wiedzę (tj. „Kto to mówi?"), w procedurach za pomocą, których
wiedza ta jest zdobywana (tj. „J ak się tego dowiedzieliśmy?") oraz w efektach tej wiedzy
(„Jakie widzimy różnic e?")2. Omówimy krótko owe trzy modelowe sposoby zdobywania
wiedzy, aby na ich tle przedstawić odmienność podejścia naukowego.
Model oparły na autorytecie
W modelu opartym na autorytecie ludzie poszukują wiedzy, odwołując się do tych
osób, które z powodów społecznych lub politycznych są uważane za jej źródło. Są nimi na
przykład czarownicy w społeczeństwach plemiennych, dostojnicy kościelni w
społeczeństwach teokratycznych (np. mułłowie we współczesnym Iranie), królowie w
monarchiach i naukowcy w społeczeństwach technokratycznych. W każdym
2 Walter L. Wallace (1971), The Logic of Science in Sociology, Hawthorne, N.Y.:
Aldine, s. 11; por. również Anthony 0'Hear (1989), An Introduction to the Philosophy of
Science, New York: Oxford University Press.
18
społeczeństwie różne osoby obdarzone autorytetem mogą stanowić źródła wiedzy o
odmiennych zjawiskach. Dla większości pobożnych katolików, na przykład, niepodważalny
autorytet w sprawach religijnych tradycyjnie ma papież. Z kolei w czasach rewolucji
kulturalnej w Chinach (począwszy od 1965 roku) taki sam autorytet we wszystkich sprawach
miał przewodniczący Mao Tse-tung i jego żona. Mała czerwona książeczka zawierająca
aforyzmy Mao służyła jako „biblia" i decydowała o tym, co można było uważać za poprawne
myślenie i poprawne zachowanie. Muł-łowie we współczesnym Iranie to inny, aktualny,
przykład. W modelu opartym na autorytecie zdolność generowania wiedzy przypisywana jest
autorytetom społecznym, politycznym i religijnym. Sposób, w jaki ludzie zdobywają tę
wiedzę (np. ceremoniał), wpływa na tryb jej przekazywania przez autorytety, nie wpływa zaś
na zaufanie ludzi do samej wiedzy. Ci, którzy chcieliby zdyskredytować lub zdelegi-
tymizować autorytet osoby uważanej za źródło wiedzy, muszą być przygotowani na szybkie
odpieranie zarzutów pod swoim adresem oraz umieć wskazać alternatywne źródła tej wiedzy.
Model oparły na wierze
W modelu opartym na wierze osoby poszukujące prawdy znajdują wiedzę u
autorytetów ponadnaturalnych takich, jak wróżbici, wyrocznie czy media. W tym aspekcie
model oparty na wierze przypomina model oparty na autorytecie. Modele te różnią się jednak
obecnością zdarzeń ponadnaturalnych i stanem psychologicznym osób szukających wiedzy
charakterystycznej dla modelu drugiego. Model oparty na wierze zależy bowiem w dużym
stopniu od wykorzystania ceremoniału i rytuału. Obrzęd związany z przepowiedniami
astrologicznymi, na przykład, ma na celu przekonanie laików o ponadnaturalnej mocy
astrologów.
Co więcej, w sytuacjach depresji i bezradności istnieje duże zapotrzebowanie na
wiedzę opartą na wierze. Zaufanie do wiedzy zdobywanej w ten sposób spada natomiast wraz
ze wzrostem liczby osób, które ją odrzucają, ze wzrostem poziomu wykształcenia
społeczeństwa oraz z poprawą kondycji psychologicznej jednostki.
Model racjonalny
Zgodnie z kierunkiem filozofii określanym jako racjonalizm istnieje możliwość
zdobycia wiedzy poprzez proste odwołanie się do reguł i metod logiki. U podstaw
racjonalizmu leżą następujące założenia: (1) istnieje możliwość poznania świata niezależnie
od zjawisk dostępnych obserwacji, (2) wiedza jest niezależna od naszego osobistego
doświadczenia. Innymi słowy, model racjonalny dotyczy wiedzy zasadniczo prawdziwej,
logicznie możliwej i dopuszczalnej.
Dla racjonalisty myśleć racjonalnie oznacza respektować zasady abstrakcyjnej logiki
formalnej. Logika jest nauką normatywną, a jej reguły pozwalają na sformułowanie kryteriów
odróżniania naukowych pytań od nienaukowego myślenia. Jeden z klasycznych racjonalistów,
grecki filozof Arystoteles (384-322 p.n.e.) intensywnie studiował podstawy logiki, a co się z
tym wiąże — strukturę wiedzy i prawdy. Niemiecki filozof Immanuel Kant (1724-1804)
oświadczył:
Od czasów Arystotelesa nie musiała ona [tj. logika] zrobić żadnego kroku wstecz, o ile
do poprawek nie zechcemy zaliczyć np. usunięcia niektórych zbędnych subtelności lub
wyraźniejszego określenia tego, co już zostało wyłożone,
19
należy to jednak raczej do elegancji niż do pewności nauki. Osobliwe jest jeszcze to,
że nie mogła dotychczas zrobić także ani kroku naprzód i że przeto, wedle wszelkich danych,
wydaje się zamknięta i wykończona3.
Pogląd, że wiedza istnieje a priori i że jest niezależna od ludzkiego doświadczenia,
utrzymał się po okresie klasycznego racjonalizmu. Najwyższym ucieleśnieniem racjonalizmu
we współczesnej nauce jest matematyka. Czysta matematyka składa się z twierdzeń, które są
uniwersalne, trafne, pewne i niezależne od świata empirycznego. Twierdzenia czystej
geometrii, na przykład, są — z definicji — traktowane jako bezwzględne i prawdziwe. Czysta
geometria nie mówi nic na temat rzeczywistości. Jej twierdzenia są tautologiami, tj.
twierdzeniami, które są prawdziwe tylko na mocy ich formy logicznej. Chociaż czysta
matematyka i logika formalna są podstawowe dla podejścia naukowego, to ich wartość dla
nauk społecznych „istnieje o tyle, o ile służą one jako środki owocnego postępu tych nauk.
Powinny być stosowane w taki sposób, w jaki stosuje się skomplikowane narzędzia: jedynie
wtedy i tam, gdzie mogą pomóc i nie przeszkadzają postępowi"4.
¦ Podstawowe założenia przyjmowane w nauce
Podejście naukowe opiera się na zbiorze założeń, które nie są dowiedzione i których
się nie dowodzi. Te podstawowe przesłanki stanowią warunki wstępne konieczne do
prowadzenia naukowej dyskusji. Epistemologia, badanie podstaw wiedzy, zajmuje się naturą
tych przesłanek i rolą, jaką one odgrywają. Badając je, możemy lepiej zrozumieć istotę
podejścia naukowego i przypisywaną mu przewagę nad innymi źródłami wiedzy.
1. Natura jest uporządkowana. Podstawowym założeniem przyjmowanym w nauce
jest założenie o istnieniu rozpoznawalnej regularności i o porządku w świecie rzeczywistym
— zdarzenia nie pojawiają się losowo. Naukowcy zakładają, że nawet w intensywnie
zmieniającym się środowisku istnieje określony stopień uporządkowania i ustrukturowania.
Każda zmiana ma własny schemat i może być zrozumiana.
Racjonalna koncepcja rzeczywistości nie odnosi się do sił ponadnaturalnych czy
wszechmocnych. W nauce rzeczywistość (natura) składa się z wszystkich empirycznie
obserwowalnych obiektów, warunków i zdarzeń, które istnieją niezależnie od ludzkiej
interwencji (włączając w to ludzi jako systemy biologiczne). Prawa natury raczej opisują, niż
wyznaczają to, co rzeczywiście się wydarza. Uporządkowanie i regularność natury nie są
jednak nieodłącznymi cechami zjawisk. Nie ma, na przykład, żadnej logicznie sprawczej
przyczyny, dla której wiosna powinna następować po zimie, zima po jesieni, jesień po lecie, a
lato po wiośnie. Ponieważ
3 Immanuel Kant (1881), Critiąue of Pure Reason, London: Macmillan, s. 688; wyd.
polskie: Im-manuel Kant (1957), Krytyka czystego rozumu.Warszawa: PWN, tłum. Roman
Ingarden, tom I, s. 21 (cytowany fragment pochodzi z „Przedmowy do drugiego wydania"
napisanej przez Kanta. W wydaniu angielskim przedmowa ta zamyka książkę; w wydaniu
polskim znajduje się na początku — przyp- tłum.).
4 Kurt Lewin (1975), Field Theory in Social Science, Westport, Conn.: Greenwood
Press, s. 12.
20
jednak tak się dzieje, i to regularnie, więc zakładamy, że podobne regularności leżą u
podstaw również innych zjawisk.
2. Natura jest poznawalna. Założenia, że można poznać naturę, nie możemy bardziej
dowieść niż założenia o uporządkowaniu natury i istnieniu praw natury. Wyraża ono
podstawowe przekonanie, że istoty ludzkie są na tyle częścią natury, na ile są nią inne
obiekty, warunki i zdarzenia. Chociaż posiadamy jedyne w swoim rodzaju, odmienne cechy
charakterystyczne, to jednak możemy wyjaśniać i rozumieć siebie, korzystając z tych samych
metod, za pomocą których badamy inne naturalne zjawiska. Jednostki i zjawiska społeczne
wykazują wystarczającą powtarzalność, uporządkowanie i dające się empirycznie udowodnić
wzorce, aby zostały one poddane badaniu naukowemu. Ludzki umysł może zatem nie tylko
poznawać naturę, lecz również poznawać siebie i umysły innych.
3. Wszystkie naturalne zjawiska mają naturalne przyczyny. Założenie, że wszystkie
naturalne zjawiska mają naturalne przyczyny lub da się wskazać inne zjawiska je
poprzedzające, jest najbardziej skrótowym opisem istoty rewolucji naukowej. W podejściu
naukowym odrzucamy bowiem wiarę w to, że przyczynami zdarzeń mogą być inne siły niż
odkryte w badaniach natury. Podejście naukowe w tym sensie znajduje się w opozycji
zarówno w stosunku do religii fundamentalistycznych, jak i do spirytualizmu czy magii. Co
więcej, tak długo, jak długo naukowcy potrafią wyjaśniać zjawiska w terminach natury, będą
odrzucać argumenty o konieczności innych, ponadnaturalnych wyjaśnień. Założenie to
sytuuje badania naukowe z dala od poszukiwania wszechobecnych sił ponadnaturalnych, a
ustawia je w kierunku empirycznego poszukiwania regularności i porządku leżącego u
podstaw zjawisk naturalnych. Regularności te, raz określone, mogą służyć jako dowód
związków przyczynowo-skutkowych.
4. Nic nie jest dowiedzione samo w sobie. Wiedza naukowa nie jest prawdziwa sama
w sobie. Jej prawdziwość musi zostać dowiedziona obiektywnie. Naukowcy nie mogą
polegać jedynie na tradycyjnych, subiektywnych wierzeniach czy na zdrowym rozsądku, gdy
weryfikują wiedzę naukową. Akceptują oni, że zawsze istnieją możliwości popełnienia błędu
i że najprostsze wnioski wymagają obiektywnego dowodu. Myślenie naukowe jest więc i
sceptyczne, i krytyczne.
5. Wiedza jest wyprowadzana z nabywanego doświadczenia. Jeżeli nauka ma nam
pomóc w zrozumieniu rzeczywistego świata, to musi być empiryczna. Oznacza to, że musi się
ona opierać na spostrzeżeniach, doświadczeniu i obserwacji. Spostrzeganie jest podstawową
zasadą podejścia naukowego i zależy od naszych zmysłów:
W nauce zakłada się, że komunikacyjny pomost pomiędzy człowiekiem i światem
zewnętrznym jest możliwy dzięki jego własnym wrażeniom zmysłowym. Wiedza jest
uważana za produkt naszego doświadczenia tak dalece, jak fizyczne, biologiczne i społeczne
cechy naszego świata oddziaływują na nasze zmysły5.
5 Gideon Sjoberg, Roger Nett (1968), A Methodology for Social Research, New York:
Harper & Row, s. 26.
21
Wiedza nie jest jednak zdobywana wyłącznie na drodze percepcji za pomocą pięciu
zmysłów: dotyku, węchu, smaku, słuchu i wzroku. Wielu zdarzeń nie można bezpośrednio
doświadczyć ani zaobserwować. Obserwowanie jako aktywność psychiczna nie jest
„prawdziwe samo w sobie" ani całkowicie niezależne od terminów, pojęć czy teorii
wykorzystywanych przez naukowców. Jak powiedział brytyjski filozof nauki Karl Popper
(1902-1994):
Naiwny empirysta [...] sądzi, że wspinanie się po drabinie nauki rozpoczynamy od
gromadzenia i przetwarzania naszych doświadczeń [...] Ale gdybym otrzymał polecenie:
„zdaj sprawę z tego, czego w tej chwili doświadczasz", nie bardzo wiedziałbym, w jaki
sposób spełnić to niejasne żądanie. Czy mam zdać sprawę, że piszę, że słyszę dźwięk
dzwonka, okrzyki gazeciarza, monotonny dźwięk głośnika, czy też mam zdać sprawę z tego,
że dźwięki te mnie drażnią? [...] Nauka zakłada przyjęcie pewnego punktu widzenia i
postawienie problemów teoretycznych6.
Historycznie rzecz biorąc, założenie mówiące o tym, że wiedza naukowa powinna być
oparta wyłącznie na empirycznych obserwacjach, było reakcją skierowaną przeciwko wierze,
że wiedza jest ludziom dana i że do jej weryfikacji wystarczą jedynie „czyste przyczyny".
6. Wiedza przewyższa ignorację. Przekonanie o tym, że należy uprawiać naukę ze
względu na jej wewnętrzny rozwój jak i ze względu na możliwość poprawienia kondycji
ludzi, jest ściśle związane z założeniem o możliwości poznawania tak siebie samych, jak i
natury. Teza, że wiedza przewyższa ignorancję, nie oznacza jednak, że wszystko, co dotyczy
natury, może zostać poznane. Naukowcy zakładają raczej, że wszelka wiedza ma charakter
względny i że się zmienia. To, czego nie poznaliśmy w przeszłości, znamy teraz, a wiedza
aktualna może zostać zmodyfikowana w przyszłości. Prawda w nauce zawsze zależy od
dowodów, metod i branych pod uwagę teorii. Zawsze dopuszcza modyfikacje.
Przekonanie, że wiedza względna jest lepsza niż ignorancja, pozostaje w całkowitej
opozycji do systemów wiedzy opartych na prawdzie absolutnej. Według Gideona Sjoberga i
Rogera Netta:
Idea, że ludzka godność jest tym większa, im bardziej człowiek jest niespokojny,
poszukujący i rozumiejący, stoi na pewno w sprzeczności z wieloma systemami przekonań
mającymi charakter zamkniętego systemu opartego na prawdzie absolutnej. Historia
współczesnej nauki i jej ścierania się z takimi systemami jest dowodem na to twierdzenie7.
Osoby przekonane, że znają prawdę, „wiedzą" wszystko, co jest do poznania. Wiedza
naukowa zagraża ich utartym sposobom postępowania oraz ich spokojowi,
6 Karl R. Popper (1961), The Logic of Scientific Discovery, New York: Science
Editions, s. 106; wyd. polskie: Karl R. Popper (1977), Logika odkrycia naukowego.
Warszawa: PWN, tłum. Urszula Niklas, s. 254.
7 Sjoberg, Nett, A Methodology for Social Research, s. 25.
22
trwałości i status quo. Podejście naukowe oferuje im w zamian jedynie przypuszczalną
prawdę, uwzględniającą istniejący stan wiedzy. Siła i słabość podejścia naukowego leży w
naturze prawdy, która nie jest pewna i ma charakter względny.
Jest siłą w tym sensie, że człowiek racjonalny, w długiej perspektywie, zachowuje się
tak, aby poprawić popełniane przez siebie błędy. Jest słabością, ponieważ naukowcy, w
odróżnieniu od opinii publicznej, nie mają tak dużego zaufania do trafności własnych
twierdzeń. Toteż często, w momentach kryzysu groźnego dla bezpieczeństwa publicznego,
mogą zostać zakrzyczani przez absolu-tystów. Nauka często jest czasowo bezradna,
zwłaszcza wtedy, gdy jej bastiony są szturmowane przez nadgorliwych propagatorów
absolutnych systemów przekonań8.
¦ Cele nauk społecznych
Po przedstawieniu założeń przyjmowanych w nauce możemy teraz ponownie zadać
pytanie, które pojawiło się już na początku: Co nauka ma do zaoferowania ludziom, którzy
interesują się problemami społecznymi? Podstawowym celem nauki, w tym nauk
społecznych, jest dostarczanie — dającej się zweryfikować — wiedzy. Wiedza pomaga nam
wyjaśnić, przewidzieć i zrozumieć interesujące nas zjawiska empiryczne. Co więcej,
całokształt wiedzy może zostać wykorzystany do poprawy kondycji ludzi. Czym jest zatem
wyjaśnianie naukowe? Kiedy możemy przewidywać? Kiedy mamo prawo twierdzić, że
rozumiemy zjawiska empiryczne?
Wyjaśnianie naukowe
Dlaczego wydatki rządowe w Szwecji są — per capita — wyższe niż w Stanach
Zjednoczonych? „Ponieważ — może ktoś odpowiedzieć — Szwedzi chcą, aby ich rząd
wydawał więcej". Takie wyjaśnienie może usatysfakcjonować laika, lecz nie będzie
wystarczające dla przedstawicieli nauk społecznych, jeżeli nie będą mogli oni zastosować
takiego samego sposobu myślenia, aby wyjaśnić wydatki rządowe per capita w innych
systemach politycznych. I tak na przykład całkowite wydatki rządowe w Wielkiej Brytanii
spadły od czasu wygrania wyborów powszechnych przez Partię Konserwatywną, chociaż z
badań wynika, że większość Brytyjczyków chce, aby rząd wydawał więcej.
Celem specjalistów w dziedzinie nauk społecznych jest znalezienie ogólnego
wyjaśnienia, dlaczego określone zdarzenie lub zachowanie następuje. W sposób
systematyczny i empiryczny analizują oni wcześniejsze czynniki, które spowodowały to
zdarzenie lub zachowanie.
Od czasów, gdy szkocki filozof Dawid Hume (1711-1776) przedstawił swoją teorię
myślenia naukowego, termin wyjaśnianie opisuje sytuację, w której jedno zjawisko jest
wyjaśniane za pomocą innego zjawiska poprzez odwołanie się do praw ogólnych. Prawa
ogólne tworzą podstawy wyjaśniania konkretnych zjawisk. Według Richarda Braithwaite'a:
8 Ibidem, s. 26.
23
Funkcją nauki [...] jest ustalanie praw ogólnych dotyczących zdarzeń empirycznych
lub zachowań obiektów, którymi zajmuje się dana dyscyplina wiedzy. W ten sposób możemy
powiązać naszą wiedzę o oddzielnych zdarzeniach i rzetelnie przewidzieć te zdarzenia, o
których dzisiaj jeszcze nic nie wiemy [...] Jeżeli nauka znajduje się na wysokim poziomie
rozwoju [...] to ustalone prawa będą tworzyć hierarchię, w której wiele praw szczegółowych
będzie logicznymi konsekwencjami niewielkiej liczby praw bardzo ogólnych [...] Jeżeli nauka
znajduje się na wczesnym etapie rozwoju [...] to budowane prawa mogą być jedynie
generalizacjami wynikającymi z przyporządkowywania obiektów różnym klasom9.
Wraz z rozwojem danej dyscypliny naukowej zmieniają się stosowane przez nią formy
wyjaśniania. Carl Hempel wprowadził dwa rodzaje wyjaśniania naukowego: wyjaśnianie
dedukcyjne i probabilistyczne. Podział ten wynika ze sposobów generalizowania wniosków w
ramach danego sposobu wyjaśniania10.
Wyjaśnianie dedukcyjne. Wyjaśnianie dedukcyjne wymaga: (a) uniwersalnych
generalizacji, (b) ustalenia warunków, w jakich te generalizacje są prawdziwe; (c) zdarzenia,
które ma zostać wyjaśnione; (d) reguł logiki formalnej. W wyjaśnianiu dedukcyjnym dane
zjawisko wyjaśniamy, pokazując, że może zostać ono wyprowadzone z ustalonego prawa
ogólnego. I tak na przykład wyjaśnienie zjawiska powrotu obiektu rzuconego w powietrze na
ziemię będzie oparte na prawie grawitacji. Naukowiec może stwierdzić, że jeżeli wzajemne
przyciąganie dotyczy wszystkich obiektów, to możemy oczekiwać, że każdy konkretny obiekt
będzie się zachowywał tak samo w stosunku do Ziemi. Niezbędnym warunkiem prawa
ogólnego jest zatem to, że musi ono dotyczyć wszystkich możliwych przypadków.
W myśleniu dedukcyjnym przesłanki prowadzą w sposób konieczny do wniosków.
Oznacza to, że wtedy i tylko wtedy, gdy przesłanki są prawdziwe, prawdziwe też będą
wnioski. Jeżeli jednak przesłanki nie są prawdziwe, to i wnioski są nieprawdziwe.
Przypuśćmy, że urzędnicy państwowi wybrani spośród demokratów powinni zostać ponownie
przegłosowani (przesłanka nieprawdziwa). Jeżeli John Brown jest urzędnikiem państwowym i
został wybrany spośród demokratów, to jego kandydatura wymaga zatem ponownego
głosowania (wniosek nieprawdziwy). Wyjaśnianie dedukcyjne jest najmocniejszym rodzajem
wyjaśniania, ponieważ wnioski dzięki niemu wyprowadzane są zawsze prawdziwe, jeżeli
prawdziwe są przesłanki, i ponieważ zdarzenia jednostkowe są tu równie dobrze wyjaśniane
jak powszechne zachowania.
Wyjaśnianie probabilistyczne. Nie każde wyjaśnienie naukowe jest oparte na prawdzie
uniwersalnej (ogólnej). Dzieje się tak szczególnie w naukach społecznych, gdyż w ich ramach
istnieje niewiele istotnych uniwersalnych generalizacji. Przedstawiciel nauk politycznych
może, na przykład, wyjaśniać konkretny wzrost wydat-
9 Richard B. Braithwaite (1960), Scientific Explanation, New York: Harper & Row,
s. 1.
10 Carl G. Hempel (1966), Philosophy of Natural Science, Englewood Cliffs, N.J.:
Prentice Hall, rozdz. 5; wyd. polskie: Carl Hempel (1968), Podstawy nauk przyrodniczych,
Warszawa: WNT, tłum. Barbara Stanosz.
24
ków rządowych w Stanach Zjednoczonych, twierdząc, że wzrost ten był wynikiem
niekorzystnych warunków ekonomicznych. Jego wniosek wynika stąd, że w przeszłości
wzrost wydatków rządowych następował po okresie ciężkich warunków ekonomicznych. W
wyjaśnieniu tym zjawisko, które ma zostać wyjaśnione, zostało powiązane z jego
wcześniejszymi przejawami — warunkami ekonomicznymi państwa. Naukowcy
zaproponowali takie wyjaśnienie, ponieważ okazało się, że istnieje związek pomiędzy
warunkami ekonomicznymi i wydatkami państwa. Związek ten nie może jednak zostać
opisany w postaci prawa ogólnego, ponieważ nie każdy przypadek nie sprzyjających
warunków ekonomicznych prowadzi do wzrostu wydatków rządowych. Naukowcy mogą
jedynie przypuszczać, że istnieje wysokie prawdopodobieństwo, iż trudne warunki
ekonomiczne będą powodowały wzrost wydatków rządowych, lub pokazać, że w dużej
liczbie badanych wypadków ciężkie warunki ekonomiczne prowadziły do wzrostu wydatków
rządowych. Wyjaśnienia tego typu są określane jako wyjaśnienia probabilistyczne lub
indukcyjne i wynikają one z uogólnień probabilistycznych. Innymi słowy, wyjaśnianie
probabilistyczne odwołuje się do uogólnień wyrażających albo arytmetyczny stosunek
jednego zjawiska do drugiego (n procent z X - Y), albo jest uogólnieniem wyrażającym
określone tendencje/skłonności: (X ma skłonność do wywoływania Y).
Głównym ograniczeniem generalizacji probabilistycznych czy indukcyjnych jest, w
porównaniu z prawami ogólnymi, to, że wnioski dotyczące konkretnych wypadków nie mogą
zostać wyprowadzone z całkowitą pewnością. Jeżeli na przykład wiadomo, że 70% członków
danej grupy etnicznej głosowało na Partię Demokratyczną przez ostatnie dwadzieścia lat, to
nadal nie można wnioskować z całkowitą pewnością, że prawdopodobieństwo, iż konkretny
członek tej grupy etnicznej będzie głosował na demokratów, wynosi 7/10. Na zachowanie
pojedynczej osoby mogły bowiem wpłynąć inne, oprócz przynależności do grupy etnicznej,
czynniki. Osoba ta może należeć również do organizacji społecznej o długich tradycjach
republikańskich i to może przewyższyć wpływ przynależności etnicznej. Do problemu
wnioskowania wrócimy jeszcze w rozdziale 10.
Przewidywanie
Wyjaśnianie dedukcyjne i probabilistyczne tworzą jeden z ważnych składników
wiedzy naukowej. Innym jest przewidywanie. Umiejętność właściwego przewidywania jest
uważana za podstawową cechę myślenia naukowego. Jeżeli wiedza jest niedostateczna, to
przewidywanie nie jest możliwe. Jeżeli wiadomo, że 2 x 6 = 12, to możemy przewidzieć, jaki
będzie wynik zliczenia obiektów należących do dwóch grup, jeżeli do każdej należy po sześć
obiektów. Jeżeli wiadomo, że temperatura zamarzania wody wynosi 32°F lub 0°C, to można
przewidzieć, co się stanie, jeżeli w zimie nie dodamy przeciwzamrażacza do wody wlewanej
do chłodnicy samochodu. Jeżeli wiadomo, że rząd zwiększa swoje wydatki w czasie
ekonomicznej recesji, to można przewidywać, że przyszłe recesje będą przynosić wzrost
wydatków rządowych. Jeżeli wiadomo, że program poszukiwania pracy przyczynia się do
rozwiązania problemu bezrobocia, to można przewidywać, że stopa bezrobocia będzie
spadała wraz z uruchamianiem takich programów.
Oczekiwanie, że wiedza naukowa powinna prowadzić do dokładnych przewidywań,
jest oparte na tezie, że jeżeli X powoduje Y i zaszło X, to można przewidywać, że zajdzie Y.
U źródeł tej tezy leży założenie, że zarówno prawa ogólne, jak
25
i generalizacje probabilistyczne są rozpoznawalne i prawdziwe — zostały spełnione
przyczyny warunkujące pojawienie się skutku. Przewidywanie może się okazać nietrafne, gdy
(1) prawo lub generalizacja nie są prawdziwe lub (2) przyczyny (warunki poprzedzające)
zostały źle zinterpretowane. Powiedzmy zatem, że jeżeli problem bezrobocia nie został
rozwiązany, to stało się tak dlatego, że programy poszukiwania pracy nie rozwiązują
problemu bezrobocia (nieprawdziwa generalizacja) lub że program poszukiwania pracy został
mylnie potraktowany jako działanie sprzyjające rozwiązaniu problemu bezrobocia.
Odwołując się do dedukcyjnego modelu wyjaśniania, możemy pokazać, że proces
przewidywania jest — logicznie rzecz biorąc — odwrotnością procesu wyjaśniania. W
procesie przewidywania wcześniejsze obserwacje wskazywały jedynie na to, że wystąpiły
warunki wyjściowe. Prawa uniwersalne czy generalizacje probabilistyczne są
wykorzystywane do uzasadniania przewidywania —jeżeli zaszły określone warunki wstępne,
to po nich będą następować określone konsekwencje.
Możemy teraz pokazać, jaka jest logiczna struktura wyjaśniania naukowego".
Struktura ta składa się z trzech następujących części:
1. Twierdzenia E opisującego konkretne zjawisko lub zdarzenie, które ma być
wyjaśnione.
2. Zbioru twierdzeń Ax do An opisujących specyficzne warunki, które poprzedzają
zjawisko E lub są przyczynowo z nim powiązane.
3. Zbioru praw ogólnych lub generalizacji probabilistycznych L, do L„ mówiących,
że: „Jeżeli zajdzie jakiekolwiek zdarzenie z rodzaju opisanych przez A{ do An, to zajdzie
zdarzenie opisane przez E".
Aby te trzy części umożliwiały wyjaśnienie jakiegoś zjawiska czy zdarzenia, muszą
zostać spełnione przynajmniej dwa warunki:
1. Twierdzenie E musi być dedukcyjnie wyprowadzane z twierdzeń A i L łącznie, a
nie z każdego z tych zbiorów oddzielnie.
2. Twierdzenia A i L muszą być prawdziwe.
Poniżej przedstawiamy symboliczny zapis struktury logicznej wyjaśniania i
przewidywania naukowego:
Lj, . . ., L„
A\, . . ., A„
wynika stąd, że E
Struktura logiczna wyjaśniania jest identyczna jak struktura przewidywania. Różnica
tkwi w perspektywie przyjmowanej przez naukowców. W wypadku wyjaśniania zdarzenie L
jest zdarzeniem należącym do przeszłości i wynika z aktualnego stanu wiedzy. Naukowcy
poszukują właściwych twierdzeń typu A lub praw typu
" Przedstawiony tu przykład został zaczerpnięty z książki Richarda S. Rudnera (1966),
Philosophy of Social Science, Englewood Cliffs, N.J.: Prentice Hall, s. 60.
26
L będących podstawą wyjaśnienia zdarzenia E. W wypadku przewidywania natomiast
twierdzenia typu A lub prawa typu L są już znane, a naukowcy poszukują przyszłych zdarzeń
z nich wynikających.
Rozumienie
Trzecią cechą wiedzy naukowej jest rozumienie. Termin „rozumienie" jest stosowany
na dwa różne sposoby —jako Verstehen (albo rozumienie oparte na empatii) lub jako
rozumienie predyktywne. Przyczyną dwóch sposobów wykorzystywania tego terminu jest to,
że z jednej strony przedmiotem badania nauk społecznych jest człowiek, a z drugiej —
przedstawiciele nauk społecznych są zarówno obserwatorami, jak i częścią przedmiotu
badawczego swojej dyscypliny. Zgodnie z Hansem Zetterbergiem:
Symbole są materią, z której zostały utkane kultury i społeczeństwa [...] Na przykład
sekwencja pojęć: narodziny, karmienie i odłączenie od piersi odzwierciedla biologiczną treść
rodzicielstwa. Analizując psychologiczny wymiar rodzicielstwa, okazuje się, że oprócz
rzeczywistości biologicznej możemy wskazać na zespół symboli (np. wartości, normy), które
dotyczą chęci posiadania dzieci, odpowiedzialności za opiekę nad nimi i nad ich
wykształceniem, prawa do podejmowania niektórych decyzji w ich imieniu, umożliwiania im
udziału w niektórych społecznych rytuałach [...] Język nasz zawiera zatem kodyfikację tego,
kim są rodzice, co powinni oni robić i jakie powinności obowiązują nas w stosunku do nich.
Te wszystkie zdania w naszym języku reprezentują społeczny wymiar rodzicielstwa.
Rzeczywistość społeczna składa się, tak w tym, jak i w innych przykładach, z symboli12.
Czy w takim razie symbole, a co za tym idzie, również zachowanie ludzi, mogą być
badane przy wykorzystaniu tej samej metodologii, którą stosuje się w naukach
przyrodniczych? Czy przedmiot badania nauk społecznych nie jest tak złożony i odmienny, że
powinno się dla niego wypracować specyficzną metodologię? Czy przedstawiciele nauk
społecznych, -w przeciwieństwie do przedstawicieli nauk przyrodniczych, nie powinni
patrzeć „z głębi" własnego przedmiotu badawczego, aby lepiej go zrozumieć?
Tradycja Verstehen. Zgodnie z tradycyjnym rozumieniem słowa Verstehen
(niemieckie określenie terminu „empatia")* nauki przyrodnicze i nauki społeczne tworzą
dwie odmienne dziedziny wiedzy. Powodem tej odmienności jest natura właściwego im
przedmiotu badawczego.
Zwolennicy tej tradycji utrzymują, że nauki przyrodnicze i nauki społeczne mu-
* Według S. Blackburne'a (Oksfordzki słownik filozoficzny, Warszawa 1997, KiW, s.
421-422) termin verstehen oznacza: „nasze rozumienie czynności ludzkich. W ramach
tradycji verstehen czynności te rozumiane są od wewnątrz dzięki zupełnie innym środkom niż
te, które umożliwiają poznanie przedmiotu przez obiektywną obserwację lub przez określenie
jego miejsca w sieci regularności naukowych". Werstehen — z niem. „rozumieć" (przyp. red.
nauk.).
12 Hans L. Zetterberg (1965), On Theory and Verification in Sociology, wyd. 3, N.J.:
Bedminster Press, s. 1-2; por. również Kenneth J. Gergen (1982), Toward Transformation
ofSocial Knowledge, New York: Springer-Yerlag.
27
szą stosować różne metody badawcze. Przedstawiciele nauk społecznych powinni, na
przykład, rozumieć zarówno historyczny wymiar ludzkiego zachowania, jak i subiektywny
aspekt ludzkiego doświadczenia. Max Weber (1864-1930), socjolog niemiecki, uważał że
jeżeli w naukach społecznych mamy zrozumieć zachowanie jednostek i grup, to musimy się
nauczyć „stawać na miejscu badanych". Musimy zrozumieć cudzy punkt widzenia
rzeczywistości, rozumieć cudze symbole, wartości i postawy13.
Już współcześnie podejście rozumiejące pojawiło się jako wytwór tradycji Ver-stehen.
Kenneth Gergen, wybitny przedstawiciel tego podejścia, uważał, że:
Istnieje podstawowa różnica pomiędzy większością zjawisk, którymi zajmują się
nauki przyrodnicze, i tymi, którymi zajmują się socjobehawioryści. Istnieje wiele przyczyn
pozwalających wierzyć, że — w wypadku tych ostatnich — zjawiska, które są traktowane
przez nich jako podstawowe, są mniej stabilne (trwałe, pewne czy powtarzalne) w
porównaniu z naukami przyrodniczymi [...] Chcąc rzecz ująć uczciwie, należy śmiało
stwierdzić, że przy całym wysiłku, aby rywalizować z metodami nauk przyrodniczych, ostatni
wiek badań i teorii socjobehawioralnych nie przyniósł tak rzetelnego prawa jak prawo
hydrostatyki Archimedesa czy ruchu jednostajnie przyśpieszonego Galileusza14.
Metodologia podejścia opartego na pojęciu Verstehen zostanie przedstawiona w
rozdziale 12.
Rozumienie predyktywne. W przeciwieństwie do nurtu Verstehen przedstawiciele tzw.
empiryzmu logicznego wychodzili z założenia, że można uzyskać wiedzę obiektywną w
naukach społecznych, badając zarówno świat społeczny, jak i świat przyrodniczy. Uważali
oni, że można studiować tak nauki społeczne, jak i nauki przyrodnicze, odwołując się do tych
samych reguł metodologicznych. Co więcej, według empirystów logicznych rozumienie
oparte na empatii może prowadzić do odkryć naukowych. Jeżeli jednak odkrycia te mają
zostać włączone do całokształtu wiedzy, to muszą zostać zweryfikowane obserwacjami
empirycznymi (pojęcie odkrycia naukowego w odróżnieniu od pojęcia weryfikacji zostanie
bardziej szczegółowo omówione dalej w tym rozdziale).
¦ Rola metodologii
Naukowców łączy stosowana metodologia, a nie przedmiot ich badań. Założenia
metodologii nauk sprawiają, że podejście naukowe jest zdecydowanie odmienne od innych
sposobów zdobywania wiedzy.
Metodologia nauk to system jasno określonych reguł i procedur, do których odwołują
się badania będące podstawą ewaluacji wiedzy. System ten nie jest ani niezmienny, ani
niezawodny — jest ciągle ulepszany. Naukowcy szukają nowych metod obserwacji, analizy,
logicznego wnioskowania i generahzacji. Ich powstanie
13 Max Weber (1964), The Theory of Social and Economic Organization, New York:
Free Press.
14 Gergen, Toward Transformation of Social Knowledge, s. 12.
28
oraz wykazanie, że spełniają one założenia właściwe dla podejścia naukowego, jest
warunkiem włączenia ich do systemu reguł rządzących metodologią naukową. Dlatego też
naukowa metodologia to system przede wszystkim samokorygujący:
Nauka nie wymaga potwierdzania jej twierdzeń za wszelką cenę. Twierdzenie musi
zostać poparte dającym się zaakceptować, logicznym dowodem. Dowód musi być starannie
przemyślany oraz sprawdzony za pomocą dobrze znanych kanonów wnioskowania. Oznacza
to, że metody nauki są bardziej niezmienne i ważniejsze dla naukowców niż jakikolwiek
rezultat szczegółowy uzyskany za pomocą jej środków. Dzięki nim realizacja zadań
naukowych jest procesem samokorygującym. Nie odwołuje się on do jakichś specjalnych
objawień czy niepodważalnych autorytetów. Nie oczekuje się od niego nieomylności, lecz
uwzględnienia metod budowania i testowania hipotez. Analizowanie realizowanych zadań
prowadzi z kolei do odkrywania kanonów prowadzenia badań, które w czasie trwania badań
mogą być modyfikowane15.
Metodologia nauk społecznych rozwijała się wolno. Następowała ciągła wymiana idei,
informacji i uwag krytycznych, co umożliwiło mocne osadzenie, a także pozwoliło na
zinstytucjonalizowanie powszechnie akceptowanych reguł i procedur oraz stworzenie
właściwych metod i technik. Ten system reguł i procedur jest normatywnym składnikiem
metodologii naukowej. Ponieważ to one definiują „reguły gry", więc normy naukowe tworzą
standardy powielane w badaniach i analizach naukowych. Reguły z kolei umożliwiają
komunikację, konstruktywną krytykę i naukowy postęp.
Metodologia dostarcza reguł komunikowania
Anatol Rapoport zilustrował ogólny problem komunikowania się dwóch osób, których
nie łączy wspólne doświadczenie, za pomocą następującej anegdoty.
Ślepiec poprosił, aby wyjaśniono mu, co oznacza „biały".
— Biały to jeden z kolorów — powiedziano mu. — Na przykład jak biały śnieg.
— Rozumiem — odrzekł ślepiec. — To jest zimny i mokry kolor.
— Nie, nie musi on być zimny i mokry. Zapomnij o śniegu. Papier, na przykład, też
jest biały.
— Ach, więc on szeleści? — zapytał ślepiec.
— Nie musi szeleścić. Przypomina też futro królika albinosa. —Miękki, puszysty
kolor? — dopytywał się ślepiec.
— Nie musi wcale być miękki. Porcelana też jest biała.
— Może w takim razie ten kolor jest kruchy? — zapytał ślepiec16.
Podstawową funkcją metodologii jest pomaganie ślepcowi w „patrzeniu", ułatwianie
komunikowania się badaczy, których łączy lub którzy chcą, aby ich łączyło
15 Morris R. Cohen, Ernest Nagel (1962), An Introduction to Logic and Scientific
Method, Orlando, Fla.: Harcourt Brace Jovanovich, s. 395-396.
16 Anatol Rapoport (1969), Operational Philosophy, New York: Wiley, s. 12.
29
wspólne doświadczenie. Co więcej, dzięki ujawnianiu reguł metodologii, sprawianiu,
że jest ona publiczna i dostępna, tworzy się podstawa do powtarzania badań i ich
konstruktywnej krytyki. Replikacja — czyli powtarzanie badań dokładnie w taki sposób, w
jaki przeprowadzili je badacze i naukowcy — ma chronić przed niezamierzonymi błędami i
oszustwami. Mówiąc o konstruktywnej krytyce, przyjmujemy, że gdy tylko zostaną
sformułowane twierdzenia nauki, mamy prawo zadawać następujące pytania: Czy
wyjaśnianie (przewidywanie) logicznie wynika z założeń?, Czy obserwacje są dokładne?,
Jakie zastosowano metody obserwacji?, Czy procedura testowania była trafna?, Czy jakieś
inne wyniki wpłynęły na wyprowadzone wnioski?, Czy otrzymane wyniki mogą zostać
wykorzystane w procesie dowodzenia poprawności innego wnioskowania? itd. W czasie
lektury tej książki przekonamy się, że powyższe pytania składają się na kryteria ewaluacji
wiedzy naukowej — tak starej, jak i nowej.
Metodologia dostarcza reguł wnioskowania
Chociaż obserwacje empiryczne są podstawowe w podejściu naukowym, to nie
„mówią one same za siebie". Obserwacje lub fakty empiryczne muszą być uporządkowane i
powiązane w logiczną, systematyczną strukturę. Głównym narzędziem podejścia naukowego
(też rejestrowania faktów) jest logika — system reguł wnioskowania pozwalających na
wyprowadzanie rzetelnych wniosków z zaobserwowanych faktów. Procedury logiczne mają
formę ściśle powiązanych ze sobą twierdzeń, wzajemnie się wspomagających. Stosując logikę
jako podstawę naukowego myślenia, metodologia nauki powiększa wewnętrzną spójność
twierdzeń formułowanych przez naukę. Fundamentalna dla podejścia naukowego logika — tj.
badanie podstaw i zasad wnioskowania — jest obecna w korzeniach nazw wielu dziedzin
badań, np. biologia, antropologia, socjologia, kryminologia czy geologia.
Metodologia (czy metodologie) wymaga zatem kompetencji w logicznym
wnioskowaniu oraz analizowaniu. W kolejnych rozdziałach omówimy elementy logiki, tj.
reguły budowania definicji, klasyfikacji oraz formy wnioskowania dedukcyjnego i
probabilistycznego (indukcyjnego), teorię prawdopodobieństwa, procedury losowania,
systemy rachunkowe oraz reguły pomiaru tworzące metodologiczny warsztat naukowca
prowadzącego badania w dziedzinie nauk społecznych. Podkreślmy, że korzystając z logiki,
nauka systematycznie — a niekiedy w sposób rewolucyjny — czyni postępy.
Metodologia dostarcza reguł intersubiektywności
Metodologia wyjaśnia akceptowane kryteria empirycznej obiektywności (prawdy)
oraz metody i techniki jej weryfikacji. Obiektywność i trafność są w dużym stopniu zależne.
Obiektywność zależy od weryfikacji tak dalece, że naukowcy nie mogą mówić o
obiektywności, aż inni naukowcy nie zweryfikują ich wyników. Intersubiektywność, która
jest wymianą informacji wśród naukowców, informacji dotyczących wyników obserwacji i
faktów, jest niezbędna, ponieważ samo myślenie logiczne nie gwarantuje jeszcze
emipirycznej obiektywności.
Wspomnieliśmy wyżej, że logika zajmuje się trafnym wnioskowaniem, a nie prawdą
empiryczną czy potwierdzonymi faktami. Fakt jest albo na pewno prawdziwy, albo
prawdziwy z określonym prawdopodobieństwem wtedy, gdy istnieje obie-
30
I
poję skład cia __ owe bezs Iność bezsen sowność braf norm
1- acja 1 Isamooc rzucenie 1
¦ przeko nanie. spostr ^egany przekc nanie, ucz ucie odra. cenie
1 1
I
Ryc. 2.2. System polityczny — schemat pojęciowy
Na podstawie: David Easton, A System Anafysisys of Polilical Life (Chicago:
University of Chicago Press, 1979).
Struktury pojęciowe znajdują się na wyższym poziomie niż taksonomie, ponieważ
twierdzenia formułowane w ich ramach równie dobrze opisują zachowania, jak też pozwalają
wyjaśniać i przewidywać szerokie klasy obserwacji empirycznych. To, co dzisiaj uważamy za
teorie, to w większości struktury pojęciowe, które można wykorzystywać do prowadzenia
systematycznych obserwacji. Twierdzenia wyprowadzane z systemów pojęciowych nie są
jednak ustalane dedukcyjnie. Ta zależność twierdzeń od obserwacji empirycznych na
wczesnych etapach teoretyzowania i prowadzenia badań ogranicza ich rolę w wyjaśnianiu i
przewidywaniu, a także zmniejsza ich użyteczność dla przyszłych badań.
Systemy teoretyczne. Systemy teoretyczne łączą taksonomie oraz struktury pojęciowe,
dostarczając w sposób systematyczny opisów, wyjaśnień i predykcji. Jest to najwyższy
poziom teorii wymagający najbardziej rygorystycznych definicji. System teoretyczny składa
się z twierdzeń powiązanych ze sobą w sposób, który umożliwia wyprowadzanie jednych
twierdzeń z innych. Kiedy tak rozumiany system teoretyczny zostanie stworzony, badacze
społeczni mają prawo twierdzić, że wyjaśnili i potrafią przewidywać interesujące ich
zjawiska.
System teoretyczny, jak np. ten sformułowany przez Durkheima, dostarcza struktur
wyjaśniających zjawiska empiryczne. Jego zakres nie jest ograniczony do jednego aspektu
wyjaśnianych zdarzeń. Składa się on ze zbioru pojęć, w tym abstrakcyjnych, opisujących to,
czego dana teoria dotyczy (np. samobójstwo), jak też pojęć mających empirycznie mierzalne
właściwości (np. odsetek samobójstw). Te właściwości empiryczne nazywamy zmiennymi.
(Szczegółowe omówienie zmiennych i ich rodzajów czytelnik znajdzie w rozdziale 3).
System teoretyczny składa się również ze zbioru twierdzeń. W przeciwieństwie
jednakże do ich statusu w ramach struktur pojęciowych tutaj twierdzenia tworzą system
dedukcyjny. Innymi słowy, zbiór twierdzeń tworzy rachunek (tj. metodę analizy lub
rachowania za pomocą specjalnych określeń symbolicznych). I tak, odwołując się do reguł
operowania nimi, naukowcy mogą dedukcyjnie
55
wyprowadzać jedne twierdzenia z innych. Formułowane w ten sposób twierdzenia
mają zarówno wartość wyjaśniającą, jak i predykcyjną.
Teoria samobójstw Durkheima, przedstawiona przez George'a Homansa, to klasyczny
przykład systemu teoretycznego20:
1. W każdej grupie społecznej odsetek samobójstw zależy wprost od stopnia
indywidualizmu.
2. Stopień indywidualizmu zależy od zasięgu wpływu protestantyzmu.
3. Zatem odsetek samobójstw zależy od zasięgu wpływu protestantyzmu.
4. Zasięg wpływu protestantyzmu w Hiszpanii jest mały.
5. Stąd, odsetek samobójstw w Hiszpanii jest niski.
W powyższym przykładzie twierdzenie 3 jest wyprowadzane z twierdzenia 1 i 2, a
twierdzenie 5 z twierdzenia 3 i 4. Wobec tego, jeżeli np. nie znamy odsetka samobójstw w
Bułgarii, ale wiemy, że zasięg wpływu protestantyzmu jest tam mały, to informacja ta oraz
twierdzenie 3 pozwolą nam na przewidywanie niskiego odsetka samobójstw w Bułgarii.
System teoretyczny zatem zarówno dostarcza wyjaśnień, jak i umożliwia przewidywanie
współczynnika samobójstw.
Niektóre z twierdzeń systemu teoretycznego są względne i zależą od rzeczywistości
empirycznej, w tym sensie, że „doświadczenie ma znaczenie dla ich prawdziwości czy
fałszywości, a także dla twierdzeń z nich wyprowadzanych"21. Akceptacja systemu
teoretycznego zależy zatem ostatecznie od tego, czy naukowcy są w stanie empirycznie
zweryfikować formułowane przez siebie twierdzenia.
Cztery poziomy teorii
¦ Systemy klasyfikacyjne ad hoc. Arbitralne kategorie skonstruowane po to, aby
uporządkować i zebrać obserwacje empiryczne.
¦ Taksonomie. System kategorii skonstruowanych odpowiednio do obserwacji
empirycznych. Taksonomie pozwalają badaczom opisywać związki pomiędzy kategoriami.
¦ Struktury pojęciowe. Kategorie deskryptywne racjonalnie wbudowane w strukturę
formułowanych explicite twierdzeń. Twierdzenia włączone do struktury pojęciowej opisują
zachowania oraz pozwalają wyjaśniać i przewidywać obserwacje empiryczne. Nie są jednak
ustalane dedukcyjnie.
¦ Systemy teoretyczne. Łączą taksonomie oraz struktury pojęciowe, wiążąc w sposób
racjonalny opisy, wyjaśnienia i predykcje. Twierdzenia formułowane w ramach systemu
teoretycznego są ze sobą powiązane w taki sposób, że jedne twierdzenia mogą być
wyprowadzone z innych.
20 Homas, Contemporary Theory in Sociology, s. 959.
21 Ibidem.
56
Teorie aksjomatyczne
Jednym z systemów teoretycznych zasługujących na specjalną uwagę jest teoria aks-
jomatyczna czy inaczej formalna. Aksjomaty to nietestowalne twierdzenia czy założenia
dotyczące badanego zjawiska, o których zakłada się, że są prawdziwe. Aksjomaty opisują
bezpośrednie zależności przyczynowe pomiędzy dwoma pojęciami. Zależności te mają tak
podstawowy charakter, że nie wymagają dalszych dowodów empirycznych. Bez takich
podstawowych założeń proces tworzenia, formułowania i testowania hipotez staje się
niemożliwy. Teoria aksjomatyczna składa się zatem ze:
1. Zbioru pojęć i definicji zarówno pojęciowych, jak i operacyjnych.
2. Zbioru stwierdzeń opisujących sytuacje, do których odnosi się dana teoria.
3. Zbioru powiązanych ze sobą stwierdzeń, podzielonych na:
a) aksjomaty — nietestowalne stwierdzenia czy założenia dotyczące badanego
zjawiska, o których zakłada się, że są prawdziwe. Na przykład zakłada się, że aksjomaty
przyjmowane w geometrii są prawdziwe bez względu na to, czy się odnoszą czy nie do świata
empirycznego;
b) twierdzenia — wyrażenia wyprowadzone dedukcyjnie z aksjomatów i podlegające
weryfikacji empirycznej.
4. Systemu reguł logicznych zastosowanych do:
a) powiązania wszystkich pojęć w ramach systemu;
b) wyprowadzania dedukcyjnego twierdzeń z aksjomatów, zbiorów aksjomatów i
twierdzeń.
Jednym z pierwszych i często cytowanym przykładem teorii aksjomatycznej jest teoria
Durkheima w wersji sformułowanej przez Hansa Zetterberga. Zetterberg wyprowadził
dziesięć następujących twierdzeń22:
1. Im większy podział pracy, tym więcej uniformizmu (zgody co do podstawowych
wartości i kwestii).
2. Im większa solidarność (w sensie przynależności), tym większa liczba więzi
społecznych przypadających na jednostkę (większa liczba kontaktów z innymi członkami
grupy).
3. Im większa liczba więzi społecznych przypadających na jednostkę, tym większy
uniformizm.
4. Im większy uniformizm, tym mniejsza liczba odrzuconych dewiantów (osób, które
nie akceptują podstawowych wartości lub zachowują się w sposób społecznie
nieaprobowany).
5. Im większy podział pracy, tym mniejsza liczba odrzuconych dewiantów.
6. Im większa liczba więzi społecznych przypadających na jednostkę, tym mniejsza
liczba odrzuconych dewiantów.
7. Im większy podział pracy, tym większa solidarność.
8. Im większa solidarność, tym większy uniformizm.
9. Im większa liczba więzi społecznych przypadających na jednostkę, tym większy
podział pracy.
10. Im większa solidarność, tym mniejsza liczba odrzuconych dewiantów.
Zetterberg, On Theory and Yerification in Sociology, s. 159-160.
57
Ostatnie cztery twierdzenia zostały potraktowane przez Zetterberga jako aksjomaty.
Pozostałe można — jego zdaniem — logicznie wyprowadzić z przyjętego zbioru aksjomatów.
Najtrudniejszym problemem dotyczącym teorii aksjomatycznych jest wybór
aksjomatów. Jakie kryteria powinni zastosować naukowcy, wybierając określone stwierdzenia
jako aksjomaty? Dlaczego tworząc zbiór aksjomatów, Zetterberg wybrał jedynie cztery
ostatnie twierdzenia ze swojej listy? Jednym z kryteriów dokonywania wyboru jest zgodność
wewnętrzna: aksjomaty nie powinny prowadzić do sprzecznych twierdzeń. Innym kryterium
jest liczba: teoretycy powinni wybierać najmniejszy z możliwych zbiór aksjomatów, z
którego da się dedukcyjnie wyprowadzić wszystkie twierdzenia. Kryteria te odzwierciedlają
zgodę naukowców co do tego, że oszczędność czy prostota powinny być brane pod uwagę w
procesie budowania teorii. Trzecim kryterium wyboru aksjomatów, które sprawia, że
konstruowanie teorii aksjomatycznych w naukach społecznych jest najtrudniejsze, jest nakaz
wybierania jako aksjomatów tych twierdzeń, które osiągnęły status praw. Aby dane
twierdzenie mogło zostać uznane za prawo, musi zostać wyposażone w bardzo mocne
dowody empiryczne. Jak dotąd niewiele twierdzeń formułowanych w ramach nauk
społecznych osiągnęło taki status.
W najnowszych badaniach naukowcy starają się wybierać aksjomaty ze zbioru
twierdzeń w taki sposób, aby teoria była wyraźnie określona i łatwa do zrozumienia.
Realizują ten cel, uznając za aksjomaty te twierdzenia, które opisują bezpośrednie zależności
przyczynowe pomiędzy dwoma pojęciami. Według Huberta Blaloc-ka „Aksjomat może
zostać sformułowany w następującej postaci: wzrost wartości X spowoduje (jest przyczyną)
niemal natychmiastowy wzrost wartości Y; wzrost wartości Y spowoduje z kolei dalszy
wzrost wartości X, chociaż w znacznie wolniejszym tempie"23. Posługując się regułą
uwzględniania bezpośrednich związków przyczynowych, Blalock przeformułował cztery
aksjomaty Zetterberga, tworząc łańcuch przyczynowo-skutkowy24:
1. Wzrost liczby więzi społecznych przypadających na jednostkę spowoduje wzrost
podziału pracy (twierdzenie 9).
2. Wzrost podziału pracy spowoduje wzrost solidarności (twierdzenie 7).
3. Wzrost solidarności spowoduje wzrost zgodności (twierdzenie 8).
4. Wzrost solidarności spowoduje spadek liczby odrzuconych dewiantów (twierdzenie
10).
Aksjomaty te, mające charakter zdań przyczynowo-skutkowych, są z kolei źródłem
empirycznie sprawdzalnych twierdzeń.
Zalety teorii aksjomatycznych. Ze względu na złożoność ludzkiego zachowania i
badań im poświęconych (por. rozdział 1) niewiele twierdzeń formułowanych w ramach nauk
społecznych osiągnęło status praw. Dlaczego zatem naukowcy nadal próbują konstruować
teorie aksjomatyczne w ramach nauk społecznych?
Teorie aksjomatyczne mają wiele zalet. Po pierwsze, wymagają one dobrego
Hubert M. Blalock (1969), Theory Construction, Englewood Cliffs, N.J.: Prentice-
Hall, s. 18. Ibidem, s. 19.
58
opisu i jasnego wyjaśnienia głównych pojęć i założeń wykorzystywanych w
niezależnych teoriach. Po drugie, ponieważ każde pojęcie musi być wyraźnie zdefiniowane,
wszystkie terminy — pierwotne i pochodne — a także definicje operacyjne muszą zostać
sformułowane explicite. Po trzecie, teoria aksjomatyczna pozwala na zwarte podsumowanie
aktualnych i planowanych badań. Zamiast tworzenia dużej liczby twierdzeń w teoriach
aksjomatycznych uwzględnia się jedynie twierdzenia podstawowe. Po czwarte, teorie
aksjomatyczne mogą być wykorzystywane do „koordynowania badań tak, aby wiele
niezależnych wyników potwierdzało się wzajemnie, dając najwyższą akceptowalność teorii w
świetle określonych wyników"25. Ponieważ teoria składa się ze zbioru powiązanych ze sobą
twierdzeń, więc dowiedzenie empiryczne dowolnego twierdzenia staje się jednocześnie
potwierdzeniem całej teorii. Na przykład teoria Durkheima stała się źródłem badań
empirycznych nad społecznymi dewiacjami. Po piąte, forma aksjomatyczna sprawia, że
badacze mogą w sposób systematyczny badać wszystkie konsekwencje przyjętych przez
siebie aksjomatów. To z kolei pozwala im określić, które elementy teorii zostały
zweryfikowane, a które wymagają dalszych badań. Jest to szczególnie użyteczne wtedy, gdy
badacze podejmują decyzje o tym, jakie badania wniosą największy wkład do teorii26.1
wreszcie, forma aksjomatyczna jest najwygodniejsza dla analizy przyczy-nowo-skutkowej
(patrz rozdział 17).
¦ Modele
Ściśle związane z rozumieniem teorii jako systemu pojęciowego jest pojęcie modelu.
Teoretycy często starają się tworzyć systemy pojęciowe przez opracowywanie modeli. Tak
jak w innych dyscyplinach i profesjach model może oznaczać wizerunek czegoś. Na przykład
inżynier może dysponować modelem pojazdu takiego jak prom kosmiczny. Model jest
miniaturowym odtworzeniem rzeczywistego promu, łącznie z uzwględnieniem jego
specyficznych cech w odpowiedniej skali (Jeg° struktury). Model pomija natomiast inne
cechy charakterystyczne takie jak np. instrumenty kontrolne. Ponieważ model służy jako
fizyczna, wizualna reprezentacja struktury i cech promu kosmicznego, można się nim
posługiwać w czasie eksperymentów i procedur testowych. Inżynierowie mogą go np.
testować w tunelu aerodynamicznym, aby sprawdzić jego zachowanie w specyficznych
warunkach.
W naukach społecznych modele mają raczej postać symboliczną aniżeli fizyczną.
Oznacza to, że cechy charakterystyczne zjawisk empirycznych, włączając w to ich składowe
oraz powiązania między nimi, są odtwarzane poprzez logiczne uporządkowanie pojęć. I tak
modelem w naukach społecznych jest abstrakcyjne przedstawienie rzeczywistości w taki
sposób, aby uporządkować i uprościć nasze spojrzenie na daną rzeczywistość poprzez
odtworzenie jej podstawowych cech charakterystycznych:
Charakterystycznym sposobem konstrukcji modeli jest metoda abstrakcji; pewne
elementy sytuacji mogą zostać rozmyślnie pominięte, gdyż są traktowane
25 Zetterberg, On Theory and Verification in Sociology, s. 163.
26 Te zalety teorii aksjomatycznych zostały znakomicie wyłożone w: Gerald Hagę
(1980), Theories ofOrganizations: Forms, Process, and Transformation, New York: Wiley-
Interscience.
59
jako nieistotne. Stworzony w ten sposób uproszczony opis sytuacji może się okazać
użyteczny przy jej analizowaniu oraz w celu jej zrozumienia. W budowaniu modeli, oprócz
abstrakcji, czasami stosuje się również procedurę przetwarzania pojęć. Zamiast
bezpośredniego rozważania danej sytuacji może się zdarzyć, że każdy element rzeczywistej
sytuacji zostaje wysymulowany za pomocą obiektów matematycznych lub fizycznych.
Odpowiednie cechy charakterystyczne sytuacji oraz ich związki z innymi elementami są
wówczas odzwierciedlane przez odpowiadające im wysymulowane właściwości i relacje;
organizacja ruchu drogowego w mieście może zostać wysymulowana za pomocą
miniaturowego modelu zawierającego siatkę dróg, sygnały świetlne i pojazdy27.
Model zatem to reprezentacja rzeczywistości. Opisuje on te cechy świata
rzeczywistego, które — według naukowców — mają największy związek z badanym
problemem. Model pozwala wyeksplikować istotne związki między tymi cechami, a także
budować empirycznie sprawdzalne twierdzenia dotyczące natury tych związków. Po
zakończeniu procedur sprawdzających i lepszym zrozumieniu niektórych elementów świata
rzeczywistego naukowcy mogą zdecydować się zmienić model tak, aby był zgodny z ich
najnowszą wiedzą. Modele stosuje się również po to, aby uzyskać wiedzę o zjawiskach,
których nie można obserwować bezpośrednio, jak np. o zjawisku władzy. I tak w badaniach
nad polityką badacze konstruują modele struktur i procesów decyzyjnych, wyprowadzając z
nich twierdzenia dotyczące zachowań osób podejmujących decyzje. Następnie oceniają te
twierdzenia w świetle danych empirycznych. Analitycy zajmujący się polityką używają
modeli również do szacowania konsekwencji alternatywnych kierunków działania, które
mogliby wybrać decydenci. Model dostarcza zatem bardziej racjonalnych podstaw do
wyborów politycznych niż sądy subiektywne.
Przykład: model wdrażania polityki
Interesującym przykładem modelowania złożonych aspektów świata rzeczywistego,
których nie da się bezpośrednio obserwować, jest sformułowany przez Thomasa Smitha
model wdrażania polityki28. Wiele osób jest przekonanych, że gdy raz zostanie określony
kierunek polityki (np. gdy Kongres Stanów Zjednoczonych zatwierdzi projekt ustawy),
osiągnięcie oczekiwanych przez polityków celów nastąpi w sposób naturalny i wręcz
automatycznie. Ale tak dzieje się bardzo rzadko. Problemy techniczne związane z
wdrażaniem polityki są tak złożone, że wdrożenie to niemal nigdy nie przebiega w sposób, w
jaki zostało zaplanowane. Poza tym polityczni biurokraci, zainteresowane grupy oraz osoby i
organizacje, których to dotyczy, często starają się wymóc zmiany w ustawach już w trakcie
ich wdrażania.
Smith w swoim modelu abstrahuje od określonych aspektów procesu wdrażania, a
skupia się na czterech jego podstawowych składowych:
1. Polityce wyidealizowanej, tj wyidealizowanych schematach oddziaływania, które
politycy chcieliby zastosować.
2. Grupie celowej definiowanej jako grupa osób zobowiązanych do przyjęcia
Olaf Helmer (1966), Social Technology, New York: Basic Books, s. 127-128.
Thomas B. Smith (1973), The Policy Implementation Process, „Policy Sciences", 4, s.
197-209.
60
nowych schematów oddziaływania wprowadzonych przez politykę. Są to osoby,
których polityka dotyczy najbardziej bezpośrednio i które muszą się zmienić, aby sprostać jej
wymaganiom.
3. Organizacji, której zadaniem jest wdrożenie polityki. Najczęściej są to
odpowiednie agendy rządu.
4. Czynników środowiskowych, na które wpływa proces wdrażania polityki. Mowa
tu, między innymi, o opinii publicznej oraz o różnych, specyficznych grupach interesów.
Te cztery komponenty i zakładane między nimi relacje zostały przedstawione na
rycinie 2.3. Efektem procesu uprawiania polityki jest wypracowanie określonych kursów
polityki państwowej. Polityka państwowa jest z kolei źródłem stanu napięcia społecznego:
wdrożenie polityki bowiem powoduje napięcia i konflikty tak wśród osób odpowiedzialnych
za proces wdrożenia, jak i wśród tych, których wdrożenie to dotyczy. Napięcia prowadzą do
zawarcia ugody, czyli transakcji. Terminem tym Smith określa reakcję na istniejące napięcia i
konflikty. Zainicjowany przez transakcje i instytucje mechanizm sprzężenia zwrotnego
oddziałuje z kolei zarówno na wszystkie cztery komponenty procesu wdrożeniowego, jak i na
przyszłe uprawianie polityki.
Modele zatem to narzędzia wyjaśniania i przewidywania. Dobrze opracowane wiernie
przybliżają rzeczywistość. Modele jednak nie są tożsame z rzeczywistością. Są one często
zmieniane, aby rzeczywistość została dokładniej odzwierciedlona i aby można było
uwzględnić nową wiedzę. Istotną cechą modeli naukowych jest to, że mogą być one
testowane w sposób empiryczny, tj. że można udowodnić ich fałszywość i następnie je
zmienić lub odrzucić.
proces
tworzenia
polityki
¦^•polityka.
Ryc. 2.3. Model procesu wdrażania polityki
sprzężenie *^_ zwrotne
organizacje wdrażające ~* grupa docelowa
, ' u łł }
polityka wyidealizowana 1 11 11 1
' H 1 •ił
czynniki środowiskowe
transakcje
instytucje
Teoria, modele i badania empiryczne
Nauki społeczne jako dyscypliny naukowe opierają się na dwóch podstawowych
elementach: teoriach i badaniach empirycznych. Badacze w naukach społecznych działają w
dwóch „światach": w świecie obserwacji i doświadczenia oraz w świecie
61
idei, teorii oraz modeli. Tworzenie racjonalnych połączeń między tymi dwoma
światami pozwala realizować cel nauk społecznych, czyli wyjaśniać zjawiska i dokonywać
dokładnych predykcji. W jaki sposób jednak tworzy się to połączenie? Czy powinniśmy
najpierw konstruować teorie i modele, a następnie przenosić się do świata badań
empirycznych, czy też badania empiryczne powinny poprzedzać teorię?*
Teoria przed badaniami
Zgodnie z jedną z głównych szkół myślenia najpierw powinna być formułowana
teoria, a potem dopiero powinny następować badania empiryczne. Ten sposób postępowania
nazywa się strategią teorii przed badaniami. Strategię tę, w sposób najbardziej systematyczny,
opracował Karl Popper (1902-1994). Twierdził on, że wiedza naukowa czyni największe
postępy, gdy naukowcy tworzą idee (przypuszczenia), a następnie korzystając z badań
empirycznych, starają sieje odrzucić (odrzucenia)29. Popper wykluczał ewentualność, że
badania empiryczne mogą w sposób systematyczny wpływać na teorie. Jego zdaniem badania
rzadko są źródłem nowych teorii, a także nie są źródłem logicznych metod tworzenia teorii.
Teorie „można tworzyć jedynie intuicyjnie, odwołując się do czegoś w rodzaju intelektualnej
miłości do przedmiotu doświadczenia"30.
Strategia teorii przed badaniami składa się z następujących, bardzo uproszczonych,
pięciu kroków31:
1. Skonstruuj explicite teorię lub model.
2. Z teorii lub modelu wybierz twierdzenie, które poddasz empirycznej weryfikacji.
3. Opracuj plan badawczy pozwalający zweryfikować twierdzenie.
4. Jeżeli na podstawie danych empirycznych twierdzenie wyprowadzone z teorii
zostanie odrzucone, to wprowadź zmiany do teorii lub planu badawczego (np. badanie, plan,
pomiar — por. ryc. 1.1) i powróć do etapu 2.
5. Jeżeli twierdzenie nie zostanie odrzucone, to wybierz inne twierdzenie w celu
weryfikacji lub staraj się poprawić teorię.
Badania przed teoriq
Przeciwieństwem strategii teorii przed badaniami jest, sformułowana przez Roberta
Mertona, strategia badań przed teorią:
Twierdzę, iż funkcja badań empirycznych wykracza daleko poza bierną rolę
weryfikowania oraz sprawdzania teorii: czynią one więcej niż potwierdzanie
* Autorzy w skrótowej formie przedstawiają tu cechy charakterystyczne dwóch metod
naukowych stosowanych w naukach empirycznych (w tym społecznych) — indukcjonizmu
oraz hipotetyzmu (fal-syfikacjonizmu, inaczej: metody stawiania i krytyki hipotez). Na
gruncie nauk społecznych w sporze zwolenników tych dwóch przeciwstawnych podejść
więcej zwolenników ma metoda hipotetyzmu, której głównym przedstawicielem jest K.R.
Popper (przyp. red. nauk.).
29 Karl R. Popper (1968), Conjectures and Refutations: The Growth ofScientific
Knowledge, New York: Harper & Row.
30 Karl R. Popper (1961), The Logic of Scientific Discovery, New York: Science
Editions; wyd. polskie: K.R. Popper (1977), Logika odkrycia naukowego, Warszawa: PWN,
tłum. Urszula Niklas.
31 Reynolds, A Primer in Theory Construction, s. 140-144.
62
lub obalanie hipotez. Badania empiryczne odgrywają rolę aktywną: spełniają co
najmniej cztery podstawowe funkcje, które przyczyniają się do kształtowania rozwoju teorii.
Zapoczątkowują, przeformułowują, nadają inny kierunek i precyzują teorię"32.
Zgodnie z tym poglądem badania empiryczne stanowią nowe wyzwanie dla teorii.
Wymagają one bowiem kontynuowania prac teoretycznych prowadzących do zmian
istniejących teorii, a także pełnią funkcję narzędzia ich weryfikacji. Strategia badań przed
teorią składa się z czterech następujących etapów:
Analiza zjawiska i określenie jego podstawowych cech. Zmierzenie tych cech w
różnych sytuacjach (problematyka pomiaru i procedury pomiarowe zostały omówione w
rozdziale 7).
Analiza otrzymanych danych w celu określenia, czy są one systematycznym źródłem
wariancji.
Jeżeli zostanie ustalone systematyczne źródło wariancji, to należy opracować teorię.
Może to być teoria w jednej z form, które omówiliśmy wcześniej, choć najbardziej
preferowane są tu systemy teoretyczne.
Obie strategie traktują teorie jako formę przejawiania się postępu naukowego.
Rzeczywisty dylemat dotyczy miejsca teorii w procesie badawczym. Naszym zdaniem, aby
prowadzić badania, nie trzeba zajmować stanowiska dogmatycznie akceptującego
którąkolwiek ze strategii. Nauki społeczne rozwijały się niezależnie od tej kontrowersji, a
działania naukowe podejmowano, wykorzystując obie strategie. W rzeczywistości teoria i
badania wchodzą ze sobą w ciągłe interakcje, jak to pokazano na rycinie 1.1. Co więcej,
Ernest Nagel utrzymuje, że różnica między tymi strategiami jest raczej pozorna aniżeli
rzeczywista:
Wybitni uczeni twierdzili wielokrotnie, że teorie są »dowolnymi tworami umysłu*.
Nie znaczy to oczywiście, że dane z obserwacji nie mogą sugerować teorii lub że teorie nie
wymagają uzasadnienia przez dane obserwacyjne. Natomiast twierdzi się w ten sposób
słusznie, że podstawowe terminy teorii nie mają znaczeń wyznaczonych przez określone
operacje eksperymentalne oraz że teoria może być zadowalająca i owocna, mimo iż dane na
jej poparcie mają z konieczności charakter pośredni33 .
¦ Podsumowanie
1. Jednym z najbardziej istotnych elementów nauki są pojęcia. Nauka bierze swój
początek od stworzenia pojęć opisujących świat empiryczny i rozwija się, łącząc te pojęcia w
system empiryczny. Pojęcia umożliwiają efektywną komunikację,
12 Robert K. Merton (1968), Social Theory and Social Structure, wyd. popr. i posz.
New York: Free Press, s. 103; wyd. polskie: Robert K. Merton (1982), Teoria socjologiczna i
struktura społeczna. Warszawa: PWN. tłum. Ewa Morawska, Jerzy Wertenstein-Żulawski, s.
170.
13 Emest Nagel (1979), The Structure of Science, New York: Heckett, s. 86; wyd.
polskie: Ernest Nagel (1970). Struktura nauki, Warszawa: PWN, tłum. Jerzy Giedymin,
Bożydar Rassalski, Helena Eilstein, s. 85.
1.
2. 3. 4.
63
precyzują punkt widzenia, są środkami klasyfikacji i generalizacji, i wreszcie są
klockami, z których buduje się twierdzenia, teorie i hipotezy — co dokładnie omówimy w
rozdziale 3.
2. Aby pojęcia mogły skutecznie pełnić swoją funkcję, powinny być wyraźnie i jasno
formułowane oraz powinny być powszechnie akceptowane. Można to osiągnąć poprzez
tworzenie definicji pojęciowych i operacyjnych. Definicje pojęciowe opisują pojęcia za
pomocą terminów pierwotnych i pochodnych. Definicje operacyjne kładą nacisk na zbiór
procedur i działań, które powinny zostać podjęte przez badaczy, aby empirycznie
zaobserwować zjawisko opisywane przez pojęcia. Definicje operacyjne zatem są pomostem
pomiędzy poziomem pojęciowo-teoretycznym a poziomem empiryczno-obserwacyjnym.
3. Chociaż badacze w dziedzinie nauk społecznych zgadzają się co do tego, że
podstawowym celem działań naukowych jest teoria, to różnią się oni poglądami dotyczącymi
znaczenia i rodzajów teorii. Dzisiaj mówimy o czterech rodzajach teorii: systemach
klasyfikacyjnych ad hoc, taksonomiach, strukturach pojęciowych i systemach teoretycznych.
Jedną z podstawowych form systemów teoretycznych jest teoria aksjomatyczna. Teoria
aksjomatyczna składa się ze zbioru pojęć i definicji, zbioru stwierdzeń, zbioru stwierdzeń
dotyczących zależności podzielonego na aksjomaty i twierdzenia oraz systemu logiki, za
pomocą którego wiąże się pojęcia z twierdzeniami oraz wyprowadza twierdzenia z
aksjomatów.
4. Naukowcy wykorzystują modele do systematycznego odzwierciedlania wybranych
aspektów świata rzeczywistego. Modele są abstrakcjami pozwalającymi porządkować i
upraszczać obraz rzeczywistości tak, by zachować wszystkie jej podstawowe cechy.
Naukowcy posługują się modelami również po to, aby lepiej poznać zjawisko, którego nie
można bezpośrednio obserwować, jak np. system ekonomiczny.
5. Naukowcy tworzą systematyczne powiązania pomiędzy światem empirii i światem
pojęć za pomocą jednej z dwóch ogólnych strategii: strategii teorii przed badaniami oraz
strategii badań przed teorią. I chociaż trwa spór o to, która ze strategii jest bardziej owocna i
prowadzi do postępu w nauce, to naszym zdaniem teoria i badania pozostają ze sobą w
ścisłych związkach, a różnica pomiędzy strategiami jest raczej pozorna aniżeli rzeczywista.
¦ Podstawowe terminy
definicja operacyjna 46 struktura pojęciowa 54
definicja ostensywna 45 system klasyfikacyjny 53
definicja pojęciowa 45 system teoretyczny 55
fałszywa konkretyzacja 43 taksonomia 53
model 59 teoria aksjomatyczna 57
odpowiedniość 50 termin pierwotny 45
pojęcie 42 termin pochodny 45
strategia badań przed teorią 62 znaczenie teoretyczne 51
strategia teorii przed badaniami 62
64
¦ Pytania sprawdzajgce
1. Omów cztery funkcje, jakie pełnią pojęcia w naukach społecznych.
2. Czym się różnią definicje pojęciowe od definicji operacyjnych? Podaj przykład
każdej definicji z dziedziny nauk społecznych, którą studiujesz.
3. Omów typowe nieporozumienia dotyczące teorii. Czy możesz podać jeszcze inne?
4. Opisz i wyjaśnij sposób stosowania modeli w naukach społecznych. Czy znasz
przykłady z innych dziedzin?
5. Omów różnicę pomiędzy strategią teorii przed badaniami a strategią badań przed
teorią. Która ze strategii — twoim zdaniem — lepiej odtwarza proces badań naukowych?
Dlaczego?
¦ Literatura dodatkowa
Hempel CG. (1968), Podstawy nauk przyrodniczych, Warszawa: WNT.
HomowskaE. (1989), Operacjonalizacja wielkości psychologicznych. Założenia —
struktura — konsekwencje, Wrocław: Ossolineum.
Marciszewski W. (red.)(1988), Mata encyklopedia nauki, wyd. 2, Wrocław:
Ossolineum.
Mokrzycki E. (1980), Filozofia nauki a socjologia, Warszawa: PWN.
Nagel E. (1970), Struktura nauki. Warszawa: PWN.
Nowak S. (red.)(1965), Metody badań socjologicznych. Wybór tekstów, Warszawa:
PWN.
Pawłowski T. (1986), Tworzenie pojąć i definiowanie w naukach humanistycznych,
Warszawa: PWN.
Przetęcki M. (1966), Operacjonizm, w: T. Pawłowski (red.), Logiczna teoria nauki, s.
99-121, Warszawa: PWN.
Rozdział 3
Podstawowe elementy procesu badawczego
Problemy badawcze 67
Jednostki analizy 68 Błąd ekologizmu 69 Błąd indywidualizmu 70
Zmienne 70
Zmienne zależne i zmienne niezależne 71
Zmienne kontrolne 72
Zmienne ciągłe i zmienne dyskretne 73
Związki 74
Rodzaje związków 75
Hipotezy 77
Problemy i hipotezy: wybrane przykłady 80
Źródła informacji o badaniach i hipotezach naukowych 81
Bibliografie, indeksy i streszczenia 82 Czasopisma fachowe 83 Publikacje
statystyczne 84 Monografie 86
Podsumowanie 86
Podstawowe terminy 87
Pytania sprawdzające 87
Literatura dodatkowa 87
Na początku rozdziału 1 przedstawiliśmy przykład badań długofalowych
obejmujących tysiące mieszkańców Chicago, mających na celu zrozumienie, czym jest
przestępczość. Jakie wnioski naukowe możemy wyprowadzić z tak złożonych badań? Jaka
jest jakość tych wniosków? Czy możemy dokładnie określić każde analizowane zagadnienie?
Czy analizowane problemy zostały sfomułowane poprawnie i czy zastosowano właściwe
techniki testowania hipotez? Takie pytania stawiamy sobie, planując każde badanie w
naukach społecznych. Odpowiedzi na nie pokazują, w jaki sposób stosujemy podstawowe
narzędzia badawcze.
W niniejszym rozdziale zastanowimy się, w jaki sposób naukowcy formułują
problemy badawcze oraz omówimy dwa rodzaje popełnianych błędów: błąd ekologizmu i
błąd indywidualizmu. Następnie podamy definicje zmiennych, omówimy ich rodzaje oraz
przedyskutujemy powiązania między nimi. Dalej zajmiemy się procesem tworzenia hipotez.
Na koniec dokonamy przeglądu podstawowych źródeł informacji na temat opublikowanych
badań, w tym materiałów drukowanych oraz baz danych dostępnych w sieciach
komputerowych.
Niezależnie od tego, czy badania naukowe są prowadzone zgodnie ze strategią teorii
przed badaniami czy strategią badań przed teorią, terminy takie, jak: „problem badawczy",
„zmienna", „związek" i „hipoteza" pojawiają się bardzo często. Są one podstawowe dla
procesu badawczego, gdyż umożliwiają przełożenie idei teoretycznej na konkretne operacje
badawcze. W tym rozdziale zdefiniujemy, omówimy i podamy przykłady ich
wykorzystywania w kontekście procesu badawczego.
¦ Problemy badawcze
Na początku jest problem. Problem badawczy to bodziec intelektualny wywołujący
reakcję w postaci badań naukowych. Na przykład: Kto rządzi Ameryką? Jakie czynniki
zachęcają do oszczędzania energii? W jaki sposób można zmniejszyć inflację? Czy klasa
społeczna wpływa na zachowania wyborcze? — to problemy badawcze.
Nie wszystkie bodźce intelektualne mogą być badane w sposób empiryczny i nie
każde ludzkie zachowanie jest sterowane wiedzą naukową. W rzeczywistości — co
pokazaliśmy w rozdziale 1 — podstawowych założeń przyjmowanych w nauce nie da się
badać empirycznie. Nie są one dowiedzione i nie da się ich dowieść. Takich zagadnień, jak:
Czy cywilizacja Zachodu zniknie? Czy kolor niebieski jest ładniejszy od zielonego? oraz: Czy
impresjonizm wpłynął w największym stopniu na rozwój sztuki? nie da się badać w sposób
empiryczny. Generalnie rzecz biorąc, problemy, których nie można empirycznie uzasadnić
(tzn. nie można zidentyfikować z ob-serwowalnymi zachowaniami), lub te, które dotyczą
subiektywnych preferencji, wierzeń, wartości czy upodobań, nie poddają się badaniom
empirycznym.
Uwaga, że naukowcy nie zajmują się w sposób naukowy subiektywnymi
preferencjami, nie oznacza oczywiście, że spełniając zadania obywateli, rodziców czy
67
przyjaciół nie mają takich preferencji. Ponieważ jednak preferencje czy wierzenia
subiektywne nie mogą zostać empirycznie zweryfikowane, pozostają one poza obszarem
wiedzy naukowej.
Mimo to niektóre z preferencji czy wierzeń subiektywnych można badać, stosując
środki naukowe w taki sam sposób, w jaki naukowcy badają inne zjawiska empirycznie.
Można, na przykład, zbadać, dlaczego niektórzy ludzie wierzą, że zniknie cywilizacja
Zachodu, i dlaczego inni nie podzielają tego poglądu; można zbadać, czy przekładanie
impresjonizmu nad inne kierunki ma związek z przynależnością dla klasy społecznej i
cechami osobowości. Podkreślmy jednak, że to nie preferencje subiektywne są przedmiotem
badania, lecz przyczyny, dla których ludzie zajmują określone stanowiska, a także niekiedy
zachowania wynikające z tych wierzeń.
Ponadto, aby problem badawczy był empirycznie uzasadniony, musi zostać w sposób
jasny i dokładny sformułowany. Na przykład problem „Jakie czynniki zachęcają do
oszczędzania energii?" jest zbyt ogólny i zbyt niejasny, aby się stać podstawą projektowania
badań. Różni ludzie mogą go różnie rozumieć. Nie precyzuje się w nim ani rodzajów
czynników (ekonomicznych, społecznych czy patriotycznych), ani rodzajów energii (ropa
naftowa, benzyna, gaz ziemny czy węgiel). Nie precyzuje się także, czy oszczędzanie dotyczy
przemysłu czy odbiorców indywidualnych. Brak jasności i dokładności może prowadzić do
niejasnych wyników, które mogą być sprzecznie interpretowane.
Jednostki analizy
Formułując problem, badacz musi rozważyć jednostki analizy, tj. określić, jakie są
podstawowe elementy badanego zjawiska. Jednostka (czy poziom) analizy warunkuje wybór
planu badawczego, metod zbierania danych oraz metod analizy danych. Czy problem
badawczy dotyczy spostrzeżeń, postaw czy zachowania? Czy badacz powinien się
koncentrować na jednostkach czy grupach, instytucjach czy społeczeństwach? Abraham
Kapłan nazwał problem wyboru jednostek analizy problemem umiejscowienia:
Problem umiejscowienia można opisać jako wybór podstawowego przedmiotu badań
w naukach behawioralnych, przestrzeni cech do jego opisu i struktur pojęciowych, w ramach
których będą formułowane hipotezy dotyczące tego przedmiotu. Istnieje wiele możliwych
przedmiotów badań i wiele z nich zostaje wybranych w różnych badaniach: stany
świadomości, działania (elementy istotnych zachowań), role, osoby, osobowości, relacje
interpersonalne, grupy, klasy, instytucje, cechy lub wzorce społeczne, społeczeństwa i
kultury. Czy instytucje prawne, na przykład, różnią się od instytucji państwowych, czy też są
ich częścią? A jeżeli są ich częścią, to co to oznacza?1
Zasadniczo nie ma żadnych ograniczeń co do wyboru jednostek analizowanych w
badaniach naukowych. Jednakże kiedy badacz dokonał już wyboru, musi dostosować
procedury badawcze, zwłaszcza poziom i zakres uogólnień oraz sformułowań teoretycznych
tak, aby były one zgodne z wybranymi jednostkami analizy. Ta
1 Abraham Kapłan (1968), The Conduct oflnąuiry, New York: Harper & Row, s. 78.
68
część procesu badawczego ma zasadnicze znaczenie, gdyż jednostki analizy posiadają
na tyle unikatowe właściwości, że przechodzenie od jednej jednostki do drugiej może być
źródłem błędów. Uogólnienia wyników badań, w których jednostkami analizy były
pojedyncze osoby, i uogólnienia badań, w których analizowano grupy, mogą być zupełnie
różne.
Podstawową przyczyną tych niejasności jest podobieństwo pojęć wykorzystywanych
do opisywania badanych właściwości; pojęć, które mogą się różnić swoimi obserwowalnymi
odniesieniami w zależności od jednostki analizy. Na przykład pojęcie „przetrwanie" jest
wykorzystywane do wyjaśniania zachowań takich odrębnych jednostek analizy, jak
poszczególne osoby, grupy, organizacje i narody. I w zależności od jednostki analizy termin
„przetrwanie" ma różne znaczenia. Nie istnieje przyczyna dająca się sformułować a priori,
która pozwoli przyjąć, że związek pomiędzy przetrwaniem a innymi właściwościami będzie
identyczny dla wszystkich jednostek. Na przykład konsekwencje behawioralne przetrwania
mogą być podobne dla poszczególnych osób — ich fizyczne przetrwanie. Jednakże, gdy
weźmiemy pod uwagę organizacje, to przetrwanie może oznaczać utrzymanie statusu
prawnego firmy, nawet jeżeli jej podstawowa linia produkcyjna uległa całkowitej zmianie. W
wypadku narodów przetrwanie może oznaczać powrót do dawnych granic politycznych —
sytuacja, z jaką mamy do czynienia w trakcie wojny domowej w byłej Jugosławii (1993-do
dzisiaj).
Błqd ekologizmu
Badacze muszą określić jednostki analizy również z powodów metodologicznych.
Jeżeli dany związek jest badany na określonym poziomie analizy lub dla danej jednostki (np.
grup), a wyniki są przenoszone na inny poziom (np. jednostek), to łatwo o zniekształcenia.
Innymi słowy, przenoszenie wniosków z bardziej złożonej na prostszą jednostkę analizy, z
wyższego na niższy poziom jest niewłaściwe. Ten rodzaj zniekształceń nazywa się błędem
ekologizmu.
W klasycznym już dziś badaniu William Robinson w sposób bardzo przekonujący
zademonstrował skutki błędu ekologizmu2. Analizując związki pomiędzy umiejętnością
czytania i pisania a miejscem urodzenia w latach trzydziestych, Robinson porównywał ze
sobą regiony Stanów Zjednoczonych. Ustalił, że w regionach z wyższym odsetkiem osób
urodzonych za granicą istnieje też wyższy odsetek osób umiejących czytać i pisać, w
porównaniu z regionami, w których mieszka mniejszy odstetek osób urodzonych za granicą.
Kiedy jednak przeanalizował ten sam związek na poziomie jednostek, otrzymał dokładnie
odwrotne rezultaty: w ramach danego regionu rdzenni mieszkańcy w większym stopniu
posiadali umiejętność czytania i pisania niż osoby urodzone za granicą. Czym można by
wyjaśnić tak sprzeczne rezultaty? Jak się wydaje, istnieją dwie możliwe przyczyny: (a) istotne
różnice w jakości powszechnej edukacji między regionami — poziom grup, (b) tendencja
imigrantów do osiedlania się w regionach, w których edukacja powszechna była lepsza —
poziom jednostek. Robinson zwraca uwagę, że gdyby zastosował tylko pierwsze wyjaśnienie
dotyczące określonej jednostki analizy, to byłby to błąd ekologizmu.
2 William S. Robinson (1950), Ecological Correlations and the Behavior of
/ndividuals, „American Sociological Review", 15, s. 351-357.
69
Dwa rodzaje błędów, których badacze powinni być świadomi
¦ Błąd ekologizmu. Wyprowadzanie wniosków o jednostkach bezpośrednio z
wyników otrzymanych dla grup, społeczeństw czy narodów.
¦ Błąd indywidualizmu. Wyprowadzanie wniosków o grupach, społeczeństwach czy
narodach bezpośrednio z danych dotyczących zachowań jednostek.
Błqd indywidualizmu
Przeciwieństwem błędu ekologizmu jest błąd indywidualizmu. Błąd indywidualizmu
powstaje wtedy, gdy wnioski dotyczące grup, społeczeństw czy narodów są bezpośrednio
wyprowadzane z danych otrzymanych dla jednostek. Jeżeli na przykład badacz obliczył
odsetek osób, które zgadzają się z określonym twierdzeniem dotyczącym demokracji, a
następnie uznał te dane za wskaźnik akceptacji demokracji jako systemu politycznego, to
popełnił błąd indywidualizmu. System polityczny danego państwa może np. być oparty na
reżimie autorytarnym nawet wtedy, gdy większość jego mieszkańców ceni sobie wartości
demokratyczne. Co więcej, pojęcie demokracji nie oznacza tego samego na obu poziomach
analizy. Dla jednostek oznacza ono wartości, postawy i zachowanie; w wypadku systemu
politycznego pojęcie to odnosi się do struktur politycznych, instytucji i metod podejmowania
decyzji. Nie możemy wyjaśnić ani przewidzieć struktury czy zachowania systemu
politycznego jedynie na podstawie wiedzy o jego indywidualnych członkach.
¦ Zmienne
Problemy badawcze są zawsze formułowane dzięki wykorzystaniu określonych pojęć.
Jak pokazaliśmy to w rozdziale 2, pojęcia są abstrakcjami odzwierciedlającymi zjawiska
empiryczne. Aby przejść z poziomu pojęciowego na poziom empiryczny, pojęcia muszą
zostać przekształcone w zmienne. To właśnie w postaci zmiennych pojęcia są uwzględniane
w hipotezach badawczych.
Pojęcia są przekształcane w zmienne poprzez ich zamianę lub przekształcenie w zbiór
wartości. Kiedy np. badacz przypisuje liczby (jeden ze zbiorów wartości) obiektom,
przekształca te obiekty w zbiór liczb. Zmienna to właściwość empiryczna mająca dwie lub
więcej wartości. Innymi słowy, jeżeli badana przez nas właściwość może przybierać różne
wartości, to możemy ją potraktować jako zmienną. „Klasa społeczna" na przykład jest
zmienną, gdyż można jej przypisać przynajmniej pięć różnych wartości: niższa, niższa
średnia, średnia, średnia wyższa, wyższa. „Oczekiwania" to też zmienna, gdyż można im
przypisać co najmniej dwie wartości: wysokie i niskie.
Zmienna, która ma tylko dwie wartości, nazywana jest zmienną dychotomie z n ą.
Innym ważnym rozróżnieniem — z punktu widzenia badaczy — jest podział zmiennych na
zmienne zależne i niezależne, zmienne kontrolne oraz na zmienne ciągłe i dyskretne.
70
Zmienne zależne i zmienne niezależne
Zmienną, która badacz chce wyjaśnić, nazywamy zmienną zależną. Natomiast
zmienną, za pomocą której badacz chciałby wyjaśnić zmiany wartości zmiennej zależnej,
nazywamy zmienną niezależną. Zmienna niezależna nazywana jest również zmienną
wyjaśniającą; jest ona zakładaną przyczyną zmian wartości zmiennej zależnej. Zmienna
niezależna jest zatem traktowana jako powiązana ze zmienną zależną lub jako przyczyna
zmian jej wartości. (Zmienne zależne są również nazywane zmiennymi kryterialnymi, a
zmienne niezależne — zmiennymi predykcyj ny mi).
W matematyce zmienna zależna to zmienna, która jest umieszczona po lewej stronie
równania. Jeżeli na przykład zapiszemy Y = f(X), to Y potraktujemy jako zmienną zależną, a
X jako zmienną niezależną. W tym wypadku powiemy, że Fjest funkcj ą X (co
zaznaczyliśmy, wprowadzając literę/). Powiemy, że zmiany wartości X są powiązane ze
zmianami wartości Y lub że X wpływa na Y.
Badacz może na przykład starać się wyjaśnić, dlaczego niektórzy ludzie częściej biorą
udział w życiu politycznym w porównaniu z innymi. Odwołując się do teorii podziału klas
społecznych, badacz może przyjąć, że im wyższa klasa społeczna, do której należy jednostka,
tym aktywniej będzie ona uczestniczyć w życiu politycznym. W tym wypadku badacz
hipotetycznie zakłada, że udział w życiu politycznym (zmienna zależna) zależy od klasy
społecznej. O klasie społecznej (zmiennej niezależnej) zakłada natomiast, że jest ona źródłem
zróżnicowania udziału w życiu społecznym.
Należy podkreślić, że rozróżnienie na zmienne zależne i zmienne niezależne ma
charakter analityczny i odnosi się jedynie do celu badania. W świecie rzeczywistym zmienne
nie są ani zależne, ani niezależne: to badacz decyduje, jak je interpretować, a decyzja ta
wynika z celu badania. Zmienna niezależna w jednym badaniu może się stać zmienną zależną
w innym. Ten sam badacz, biorąc udział w różnych projektach badawczych, może
klasyfikować tę samą zmienną w różny sposób. Chcąc wyjaśnić zróżnicowanie udziału w
życiu politycznym, potraktuje udział w życiu politycznym jako zmienną zależną. Jedną ze
zmiennych wyjaśniających udział w życiu politycznym jest klasa społeczna, która z kolei jest
traktowana jako zmienna niezależna. Jeżeli jednak chcemy wyjaśnić zróżnicowanie takiej
zmiennej jak klasa społeczna (np.: Dlaczego niektórzy ludzie należą do klasy niższej, a inni
do klasy średniej?), to klasa społeczna będzie w tym momencie traktowana jako zmienna
zależna. Jedną ze zmiennych, które mogą wyjaśnić zróżnicowanie klas społecznych, jest
udział w życiu politycznym, które tym razem jest traktowane jako zmienna niezależna.
Większość zjawisk, którymi zajmują się badacze w naukach społecznych, wymaga
określenia, które zmienne niezależne (najczęściej kilka) wpływają na jedną lub więcej
zmiennych zależnych. Dzieje się tak dlatego, gdyż zjawiska społeczne są bardzo złożone.
Jedna zmienna niezależna wyjaśnia zazwyczaj tylko pewną cześć zróżnicowania zmiennej
zależnej, co powoduje konieczność wprowadzenia dodatkowych zmiennych niezależnych
wyjaśniających pozostałą część zróżnicowania. I tak, jeżeli przedmiotem badania jest udział
w życiu politycznym (zmienna zależna), to przynależność do klasy społecznej wyjaśnia,
dlaczego niektórzy ludzie częściej w nim uczestniczą niż inni. Wyjaśnienie to jest jednak
niepełne, gdyż zróżni-
71
cowanie udziału w życiu politycznym można także przypisać innym czynnikom. Te
dodatkowe czynniki (zmienne niezależne) to między innymi wiek, płeć, wykształcenie czy
znaczenie przypisywane działalności politycznej (zakres, w jakim dana osoba jest
przekonana, że jej działalność będzie miała wpływ na wyniki działań politycznych).
Zmienne kontrolne
Naukowcy posługują się w badaniach empirycznych zmiennymi kontrolnymi po to,
aby zmniejszyć ryzyko przypisywania mocy wyjaśniającej tym zmiennym, które w
rzeczywistości nie odpowiadają za zróżnicowanie zmiennej zależnej. Zmienne kontrolne są
wykorzystywane do sprawdzania, czy obserwowany empirycznie związek pomiędzy zmienną
zależną i niezależną nie jest związkiem pozornym. Związek pozorny to taki związek, który
można wyjaśnić za pomocą zmiennych innych niż uwzględnione w hipotezie badawczej.
Innymi słowy, jeżeli wpływ innych zmiennych zostanie wyeliminowany (lub będzie
kontrolowany), a związek pomiędzy zmienną zależną i zmienną niezależną będzie nadal
obserwowany, to związek ten nie jest związkiem pozornym. Posługując się zmiennymi
kontrolnymi, badacz może się upewnić, że pomiędzy zmiennymi istnieje rzeczywiste,
przyczynowe powiązanie, takie jak to zostało określone w hipotezie, i że obserwowany
związek nie wynika z innego, nie zakładanego związku z innymi zjawiskami.
Załóżmy na przykład, że zaobserwowaliśmy, iż liczba wozów straży pożarnej
obecnych przy pożarze jest powiązana z wysokością strat spowodowanych przez ten pożar.
Hipoteza nasza może zostać sformułowana następująco: im więcej wozów straży pożarnej
przyjeżdża do pożaru, tym większe są straty poniesione w tym pożarze. W istocie wozy
strażackie nie są traktowane jako przyczyna strat. Zatem wielkość strat (zmienna zależna) nie
powinna być wyjaśniana liczbą wozów straży pożarnej obecnych przy gaszeniu pożaru
(zmienna niezależna), ale za pomocą innej zmiennej, na przykład wielkości pożaru. Duże
pożary wymagają udziału większej liczby wozów strażackich i mogą spowodować większe
straty. Tym samym obserwowany pierwotnie związek pomiędzy liczbą wozów strażackich
gaszących pożar i wielkością poniesionych w tym pożarze strat jest związkiem pozornym,
gdyż można go wyjaśnić za pomocą trzeciej zmiennej (wielkości pożaru). W tym wypadku
wielkość pożaru jest zmienną kontrolną pozwalającą sprawdzić trafność wyjściowo
założonego związku. Bez określenia wpływu zmiennej kontrolnej obserwowany związek
pomiędzy liczbą wozów strażackich gaszących pożar i wielkością strat poniesionych w tym
pożarze byłby związkiem pozornym. Ten sposób rozumowania przedstawiono na rycinie 3.1.
Innym przykładem ilustrującym wagę zmiennych kontrolnych jest obserwowany
empirycznie związek pomiędzy udziałem w życiu poltycznym a wydatkami rządowymi. Czy
wielkość wydatków rządowych (zmienna zależna) jest spowodowana wielkością udziału w
życiu politycznym (zmienna niezależna)? Pozornie tak. Liczne badania wykazały jednak, że
empiryczny związek pomiędzy udziałem w życiu politycznym a wydatkami rządowymi znika,
kiedy wprowadzimy zmienną kontrolną taką, jak rozwój ekonomiczny1. Poziom rozwoju
ekonomicznego wpływa zarówno na wielkość wydatków rządowych, jak i na udział w życiu
politycznym. Bez
3 Więcej informacji o pierwszym badaniu na ten temat można znaleźć u Haywarda R.
Alkera (1965), Mathematics and Politics, New York: Macmillan.
72
zmienna kontrolna wielkość pożaru
obserwacja wyjściowa liczba wozów strażackich
związek pozorny
obserwacja wyjściowa
wielkość strat
spowodowanych
pożarem
Ryc. 3.1. Istota zmiennych kontrolnych
wyjaśniającego wpływu poziomu rozwoju ekonomicznego obserwowany związek
pomiędzy udziałem w życiu politycznym a wydatkami rządowymi mógłby się wydawać
trafny. Zmienna kontrolna odgrywa więc istotną rolę w sprawdzaniu, czy obserwowany
związek pomiędzy zmienną zależną i zmienną niezależną jest związkiem pozornym, czy też
nie (więcej informacji na temat związków pozornych czytelnik znajdzie w rozdziale 5).
Zmienne ciqgłe i zmienne dyskretne
Inną, ważną cechą zmiennych jest to, czy mają one charakter ciągły, czy też dyskretny.
Cecha ta, jak się przekonamy w późniejszych rozdziałach, ma znaczenie dla operacji
badawczych, zwłaszcza dla procedur pomiarowych, metod analizy danych oraz metod
wnioskowania statystycznego i logicznego uogólniania wyników.
Zmienna ciągła nie ma a priori określonej swojej najmniejszej jednostki. Długość to
przykład zmiennej ciągłej, gdyż nie istnieje naturalna, minimalna jednostka długości. Długość
konkretnego przedmiotu możemy określić jako przynajmniej 10 cm, 10,5 cm czy np.
10,5431697 cm. Generalnie rzecz biorąc, możemy mówić o jednej dziesiątej centymetra,
jednej tysięcznej centymetra czy jednej milionowej centymetra. I chociaż nie możemy
zmierzyć wszystkich możliwych długości z absolutną dokładnością (niektóre z wartości będą
zbyt małe, aby instrument pomiarowy mógł je zarejestrować), długość każdego przedmiotu
może być konceptualnie wyrażona za pomocą nieskończonej liczby miar.
W przeciwieństwie do zmiennych ciągłych zmienne dyskretne mają swoją minimalną
jednostkę. Ilość pieniędzy na rachunku bankowym to przykład zmiennej dyskretnej, gdyż
pieniądze mają określoną minimalną jednostkę monetarną. I tak możemy posiadać w banku
101,21$, 101,22$, ale już nie 101,21843$. Różne ilości pieniędzy nie mogą się różnić między
sobą o mniej, niż wynosi minimalna jednostka monetarna, tu: jeden cent. Liczba dzieci w
rodzinie to inny przykład zmiennej ciągłej. Rodzina może mieć troje lub czworo dzieci, ale
już nie 3,5 dziecka. Jeżeli jakaś ilość zmiennej nie może zostać dalej podzielona, to mamy do
czynienia ze zmienną dyskretną. Jeżeli czytamy w prasie, że przeciętna amerykańska rodzina
ma 2,2 dziecka lub 1,8 samochodu, to nie oznacza to oczywiście, że dyskretne jednostki
analizy liczby dzieci czy samochodów można dalej dzielić w rzeczywistym życiu. Liczby 2,2
i 1,8 to wielkości statystyczne — produkty opracowania matematycznego (por. także rozdział
7 i 14).
73
Rodzaje zmiennych
¦ Zmienna zależna. Zmienna, którą badacz stara się wyjaśnić.
¦ Zmienna niezależna. Zmienna, która powoduje zmiany wartości zmiennej zależnej.
¦ Zmienna kontrolna. Zmienna używana przez badaczy do sprawdzania możliwości,
że związek pomiędzy zmienną zależną i zmienną niezależną jest związkiem pozornym —
innymi słowy, może zostać wyjaśniony jedynie przy obecności innej zmiennej.
¦ Zmienna ciągła. Zmienna, która nie ma określonej swojej minimalnej jednostki, np.
długość.
¦ Zmienna dyskretna. Zmienna, która ma swoją minimalną jednostkę, np. liczba dzieci
w rodzinie.
¦ Zwiqzki
W poprzednich rozdziałach mogliśmy się przekonać, że wyjaśnianie i przewidywanie
naukowe polega na określeniu relacji pomiędzy wyjaśnianym zjawiskiem (zmienna zależna) a
innymi zjawiskami (zmienne niezależne, wyjaśniające) za pomocą ogólnych praw czy teorii.
Co to jednak jest związek?
Związek w badaniach naukowych to zawsze związek pomiędzy dwoma zjawiskami.
Jeżeli powiemy, że zmienna Xi Ysą ze sobą powiązane, to mamy na myśli,
Tabela 3.1. Związek pomiędzy wykształceniem a dochodami
Obserwacje Liczba lat Dochody
nauki [$]
Dan 16 35 000
Ann 15 30 000
Marie 14 27 000
Jacob 13 19 000
Phillip 12 15 000
Suzanne 11 12 000
że istnieje coś wspólnego dla tych obu zmiennych. Jeżeli powiemy, że wykształcenie i
dochody są ze sobą powiązane, to zakładamy, że jednocześnie się zmieniają, są współzmienne
czy że zmiana wartości jednej zmiennej powoduje zmianę wartości drugiej zmiennej.
Współzmienność (inaczej kowariancja) jest właśnie tym, co wiąże wykształcenie i dochody:
osoby o wyższym wykształceniu mają wyższe dochody. Przyjmując w badaniach
empirycznych, że istnieje związek pomiędzy dwiema czy więcej zmiennymi, zakładamy tym
samym, że wartości jednej zmiennej będą się zmieniać wraz ze zmianami wartości innych
zmiennych. Prowadząc badania, badacze zestawiają ze sobą wartości analizowanych
zmiennych. W tabeli 3.1 pokazaliśmy przykład dwóch zbiorów wyników otrzymanych dla
sześciu osób: wykształcenia (operacyjnie definiowanego jako lata nauki) oraz dochodów.
Analizując te dane (zostały one uporządkowane), widać wyraźnie, że są one
74
współzmienne — wyższe wykształcenie występuje z wyższymi dochodami, a niższe
wykształcenie z dochodami niższymi.
Rodzaje zwiqzków
Powiemy, że dwie zmienne są ze sobą powiązane, jeżeli zmiany wartości jednej
zmiennej powodują systematyczne zmiany wartości drugiej. W ostatnim przykładzie zmiana
liczby lat nauki prowadziła do zmiany wysokości dochodów. Prowadząc badania empiryczne,
naukowcy szczególnie interesują się dwiema właściwościami takich związków: ich
kierunkiem i siłą.
Kierunek. Gdy mówimy o kierunku związku, mamy na myśli to, czy jest on dodatni
(pozytywny) czy ujemny (negatywny). Związek dodatni oznacza, że wraz ze wrostem
wartości jednej zmiennej rosną także wartości drugiej. Na przykład związek pomiędzy
wykształceniem a dochodami jest dodatni, ponieważ wzrost liczby lat nauki prowadzi do
większych dochodów. Między zainteresowaniem polityką a udziałem w życiu politycznym
również istnieje związek dodatni, jako że im bardziej interesujemy się polityką, tym
aktywniej uczestniczymy w życiu politycznym. Również dodatni związek pomiędzy
wspomnianym wcześniej rozwojem ekonomicznym i wydatkami rządowymi stwierdzono w
badaniach empirycznych.
Związek ujemny (negatywny) oznacza natomiast, że wraz ze wzrostem wartości jednej
zmiennej wartości drugiej maleją. Wysokie wartości jednej zmiennej są powiązane z niskimi
wartościami drugiej. Na przykład stopień zainteresowania zastawami hipotetycznymi jest
ujemnie powiązany z kredytami na zakup nowego domu: im wyższe zainteresowanie
zastawami hipotetycznymi, tym mniej udziela się kredytów. Związek ujemny istnieje również
pomiędzy wykształceniem i uprzedzeniami rasowymi: im bardziej ludzie są wykształceni,
tym mniej są uprzedzeni rasowo. Również pomiędzy stopniem zbiurokratyzowania i udziałem
w życiu politycznym istnieje związek ujemny: im bardziej zbiurokratyzowany staje się system
polityczny, tym mniejszy jest udział ludzi w życiu politycznym.
Związek pomiędzy zmienną niezależną i zmienną zależną można zilustrować na
wykresie współrzędnych (por. ryc. 3.2). Tak jak w matematyce oś pozioma reprezentuje
zmienną X, a oś pionowa zmienną Y. Na osi X zaznaczamy wartości X (zmiennej
niezależnej), a na osi Y — wartości Y (zmiennej zależnej). Najpowszechniejszym sposobem
zilustrowania związku pomiędzy zmiennymi jest naniesienie par wartości XY, uwzględniając
odpowiednio osie X i Y. Załóżmy, że w badaniu osiągnięć akademickich zebraliśmy dwa
zbiory pomiarów: liczbę godzin przeznaczanych przez studentów codziennie na naukę oraz
liczbę bardzo dobrych ocen otrzymanych przez nich w ciągu danego semestru. Hipotetyczne
dane dla dziewięciu studentów przedstawiliśmy w tabeli 3.2, a ich wykres na rycinie 3.2.
Linia prosta na rycinie 3.2 jest wykresem związku pomiędzy liczbą godzin nauki dziennie
(zmienna niezależna) a liczbą ocen bardzo dobrych (zmienna zależna). Jak widać, wysokie
wartości na osi X są powiązane z wysokimi wartościami na osi Y, średnie wartości X ze
średnimi wartościami Y, a niskie wartości X odpowiadają niskim wartościom Y.
Przedstawiony w ten sposób związek pomiędzy wartościami X i Y nazywa się łącznym
rozkładem wartości. Linia prosta przechodząca przez punkty reprezentujące pary wartości
wskazuje na kierunek związku. Co więcej, badacz może wykorzystać informacje o
własnościach prostej (jej nachyleniu
75
i przesunięciu) do przewidywania wartości zmiennej zależnej na podstawie wartości
zmiennej niezależnej (metody obliczania współczynnika nachylenia i współczynnika
przesunięcia prostej omawiamy w rozdziale 16). Innymi słowy, znając nachylenie prostej i
miejsce, w którym przecina ona oś Y, możemy przewidywać, ile godzin dziennie trzeba się
uczyć, aby otrzymać dobre stopnie.
Tabela 3.2. Liczba godzin poświęconych dziennie na naukę a liczba otrzymanych ocen
bardzo dobrych (dane hipotetyczne)
Liczba godzin poświęconych Liczba otrzymanych
dziennie na naukę (X) ocen bardzo dobrych (Y)
8 5
7 5
6 4
5 3
4 2
4 1
3 1
2 0
1 2
Siła. Związki pomiędzy zmiennymi można scharakteryzować nie tylko przez podanie
ich kierunku, ale również przez podanie ich siły. Siła związku to zakres, w jakim zmienne
współzmieniają się dodatnio lub ujemnie. Największą możliwą siłę związku nazywamy
związkiem doskonałym (idealnym). Jeżeli związek pomiędzy dwiema zmiennymi jest
związkiem doskonałym, to wartość jednej lub więcej zmiennych niezależnych dokładnie
wyznacza wartość zmiennej zależnej. Takie prawo fizyczne jak prawo Einsteina E = mc2 to
przykład niemal doskonałego związku, ponieważ odkryto tylko bardzo niewiele odchyleń od
tego prawa. Hipotetyczny przykład przedstawiony w tabeli 3.1 to też przykład doskonałego
związku: nie ma tu bowiem żadnego odstępstwa od reguły, że im większa liczba lat nauki,
tym większe zarobki.
Po stronie przeciwnej mamy najmniejszą siłę związku, tj. związek zerowy. W tym
wypadku w ogóle nie ma współzmienności pomiędzy wartościami zmiennej zależnej i
zmiennej niezależnej. Oznacza to, że zmienne te nie są ze sobą powiązane. Zmiany wartości
jednej zmiennej nie wpływają na zmiany wartości drugiej zmiennej.
Związki, którymi zajmują się zarówno nauki społeczne, jak i inne nauki, oscylują od
zerowych do idealnych. Związek pomiędzy wykształceniem i dochodami okazał się dodatni,
lecz nieidealny: u osób, które miały wyższe wykształcenie, obserwowano tendencję do
osiągania wyższych dochodów, choć pojawiło się tu wiele wyjątków. Związek pomiędzy
wykształceniem a uprzedzeniami rasowymi jest związkiem ujemnym i też nieidealnym — nie
wszystkie osoby z wyższym wykształceniem nie są rasowo uprzedzone, jak też nie wszystkie
osoby z niższym wykształceniem to osoby uprzedzone rasowo. (Miary siły związku takie, jak
współczynniki korelacji, omawiamy dokładnie w rozdziale 16 i 17).
Po poznaniu zmiennych i związków między zmiennymi, tj. podstawowych skła-
76
¦i
10
i
123456789 10
liczba godzin poświęconych dziennie na naukę (X)
Ryc. 3.2. Wykres danych z tabeli 3.2
dowych problemu badawczego, możemy teraz dokładniej przedstawić, w jaki sposób
budujemy odpowiedź na pytania badawcze, a więc czym są hipotezy i jakie są ich cechy
charakterystyczne.
¦ Hipotezy
Hipoteza jest to proponowana przez nas odpowiedź, jakiej można udzielić na pytanie
badawcze. Jest ona wyrażana w postaci jasno określonego związku pomiędzy zmienną
zależną i zmienną niezależną. Hipotezy to proponowane odpowiedzi, ponieważ zostaną one
zweryfikowane dopiero po przeprowadzeniu badań empirycznych. Budując hipotezę, badacz
nie wie, czy zostanie ona potwierdzona czy nie. Najpierw hipotezy tworzymy, a potem je
weryfikujemy. Jeżeli hipoteza zostanie odrzucona, to należy zbudować następną; jeżeli
hipoteza zostanie przyjęta, to będzie ona włączona do wiedzy naukowej. Hipotezy można
wyprowadzać dedukcyjnie — z teorii, indukcyjnie — na podstawie obserwacji, czy
intuicyjnie, albo łącząc elementy tych sposobów. Źródła, z których korzystają badacze,
tworząc swoje hipotezy, są mniej istotne w porównaniu z kryteriami, na podstawie których
podejmują oni decyzje o ich odrzuceniu lub o braku podstaw do ich odrzucenia. Niektórzy
bywają przekonani, że to spadające jabłko doprowadziło Isaaca Newtona (1642-1727) do
sformułowania hipotezy o prawie grawitacji. W jednej ze scen filmu telewizyjnego And the
Band Played On dr Don Francis z Centrum Kontroli Chorób zdał sobie sprawę z faktu, że
wirus HIV uszkadza receptory komórkowe krwi wtedy, gdy zobaczył swojego kolegę dr.
Harolda Jaffe'a grającego w grę PacMan4. Żaden z tych epizodów jednak, pomijając ich
intelek-
4 John D. Piette (1994), Review Symposium "Playing It Safe", „Journal of Health
Politics, Policy and Law"; 19(2), s. 453.
77
tualną atrakcyjność, nie przekonał naukowców o możliwości zaakceptowania hipotez,
które z nich wynikały — akceptacja wymagała bowiem zebrania danych empirycznych.
Hipotezy badawcze są do siebie podobne pod czterema względami: są jasno sformułowane, są
konkretne (specyficzne), poddają się weryfikacji empirycznej za pomocą metod badawczych i
nie są wartościujące. Szczegółowa analiza tych cech da czytelnikom wiedzę pozwalającą na
konstruowanie własnych hipotez i na ocenę hipotez formułowanych przez innych.
1. Hipotezy muszą zostać jasno sformułowane. Aby hipoteza mogła zostać
empirycznie sprawdzona, wszystkie zmienne w niej występujące muszą zostać zdefiniowane.
Definicje pojęciowe i operacyjne, które omówiliśmy w rozdziale 2, są tu bardzo pomocne. W
konstruowaniu hipotez i definiowaniu zmiennych niezwykle przydatna może się okazać
literatura przedmiotu oraz opinie ekspertów. Załóżmy, że w naszej hipotezie przyjmujemy, iż
związek pomiędzy alienacją (zmienna niezależna) i udziałem w życiu politycznym (zmienna
zależna) jest związkiem ujemnym (odwrotnie proporcjonalnym). Analizując literaturę
fachową, możemy się przekonać, jak inni badacze definiują te zmienne. Wśród definicji
prawdopodobnie znajdziemy też takie, które będą odpowiadały naszej hipotezie badawczej.
Jeżeli jednak się to nie uda, to definiując zmienne w sposób nam odpowiadający, zawsze
możemy się odwołać do doświadczenia innych badaczy. W każdym wypadku definicje
operacyjne muszą być konkretne i na tyle precyzyjne, aby możliwe było dokonywanie i
powtarzanie obserwacji.
2. Hipotezy są konkretne. Zadanie badacza polega na określeniu oczekiwanego
związku pomiędzy zmiennymi (z uwzględnieniem jego kierunku: dodatniego lub ujemnego)
oraz warunków, w jakich ten związek zachodzi. Hipoteza stwierdzająca, że X jest powiązane
z Y, jest zbyt ogólna. Związek pomiędzy X i Y może być albo dodatni, albo ujemny. Co
więcej, związki te zmieniają się w czasie i przestrzeni i mogą mieć różną postać w zależności
od jednostki analizy. Jak się przekonaliśmy wcześniej, obserwowany związek pomiędzy
zmiennymi może ulec zmianie, kiedy zmienimy jednostkę analizy (błąd ekologizmu). I tak na
przykład związek pomiędzy wykształceniem a udziałem w życiu politycznym może być
analizowany na poziomie jednostek, grup czy okręgów wyborczych. Różne poziomy analizy
wymagają różnych definicji pojęciowych i różnych definicji operacyjnych zmiennych, które
zostały włączone w proces badawczy.
Formułując hipotezę, należy również jasno określić warunki, w jakich dany związek
będzie badany (obserwowany). Teoria zatem odgrywa niezwykle ważną rolę w procesie
budowania owocnych — i dających się włączyć w proces badawczy — hipotez.
3. Hipotezy są sprawdzalne za pomocą dostępnych metod. Czasami zdarza się, że
badacz sformułuje jasną, konkretną oraz nie wartościującą hipotezę, lecz nie znajdzie metod,
za pomocą których będzie mógł ją sprawdzić (przetestować). W jaki sposób moglibyśmy na
przykład sprawdzić hipotezę, że przedmiot A jest dłuższy o 3 cm od przedmiotu B, gdybyśmy
nie posiadali linijki? W jaki sposób moglibyśmy sprawdzić hipotezę, że wirus C jest dodatnio
powiązany z chorobą D, jeżeli nie dysponujemy instrumentami pozwalającymi
zidentyfikować ten wirus? I wreszcie, w jaki sposób mog-
78
libyśmy zbadać związek pomiędzy wykształceniem a udziałem w życiu politycznym,
gdybyśmy nie dysponowali metodami obserwacji tych zmiennych?
W prostocie tych przykładów kryje się wyraźne wskazanie, że nie można sprawdzić
hipotez badawczych, jeśli nie dysponuje się odpowiednimi metodami. Postęp nauki zależy w
istocie od rozwoju nowych metod badawczych, metod obserwacji, metod zbierania danych
oraz metod analizy danych, i to takich, które są dostępne wszystkim badaczom.
Niektórzy badacze w naukach społecznych przywiązują niewielką wagę do metod w
obawie, że mogą zostać przez nie ujarzmieni. Oczywiście, można zostać usidlonym przez
metodę badawczą, jeżeli badacz stosuje ją dogmatycznie, bez zwracania uwagi na
analizowany problem lub gdy metoda jest traktowana jako cel postępowania, a nie jako
środek. W nauce można formułować nowatorskie hipotezy, dla których brak jest metod ich
sprawdzania. Potwierdzenie trafności tych hipotez zależy jednak od dostępu do odpowiednich
metod badawczych.
4. Hipotezy naukowe nie są wartościujące. Generalnie wartości wyznawane przez
badacza, jego stronniczość czy subiektywne preferencje nie powinny w żadnym wypadku
wpływać na proces badawczy. Biorąc jednak pod uwagę fakt, że badania w naukach
społecznych są w pewnym stopniu także rodzajem działalności społecznej zależnej od
otoczenia, badacze muszą zdawać sobie sprawę z własnej stronniczości i starać się explicite ją
wyrazić. Gunnar Myrdal (1898-1987) w klasycznym dziś badaniu poświęconym problemom
rasowym napisał:
Próba wykorzenienia stronniczości poprzez usunięcie wszelkiego wartościowania jest
beznadziejnym i źle ukierunkowanym przedsięwzięciem [...] Nie ma innego sposobu
wykluczenia stronniczości z nauk społecznych jak stawienie czoła wartościowaniu i
uwzględnienie go w postaci jasno określonego, swoistego i wystarczająco
skonkretyzowanego założenia o wartościach5.
Cechy charakterystyczne hipotez badawczych
¦ Hipotezy muszą być jasno sformułowane. Badacz musi zdefiniować pojęciowo i
operacyjnie wszystkie zmienne.
¦ Hipotezy są konkretne. Badacz określa, jakie są oczekiwane związki pomiędzy
zmiennymi w terminach kierunku (dodatni czy ujemny) i warunków, w jakich dany związek
będzie zachodził.
¦ Hipotezy są sprawdzalne za pomocą dostępnych metod. Ocena hipotezy zależy od
tego, czy istnieją odpowiednie metody pozwalające na jej przetestowanie.
¦ Hipotezy naukowe są pozbawione elementów wartościujących. Ponieważ badania w
naukach społecznych dzieją się w społecznym otoczeniu, badacz musi być świadomy własnej
stronniczości i starać się uczynić ją jawną.
5 Gunnar Myrdal (1944), The American Dilemma, New York: Harper, s. 1043.
79
¦ Problemy i hipotezy: wybrane przykłady
Problemy to ogólne pytania dotyczące związków pomiędzy zmiennymi. Hipotezy to
proponowane odpowiedzi dające się sprawdzić empirycznie. Przedstawione niżej przykłady
pozwolą nam na wyraźne rozróżnienie problemów i hipotez, a także będą ilustracją sposobu,
w jaki hipotezy są konstruowane i formułowane.
Pytania badawcze zostały wyprowadzone z ogólniejszego problemu: „Jak rządzić
państwem demokratycznym?"
¦ Kto rządzi Ameryką?
¦ Jakie są przyczyny inflacji?
¦ Dlaczego biurokracja zagraża demokracji?
¦ Czy pozytywne programy działania osiągają swój cel?
¦ Czy integracja w szkole sprzyja zdobywaniu wykształcenia?
¦ Jakie czynniki wpływają na stopień urbanizacji?
¦ Jakie są przyczyny przemocy politycznej?
W procesie badawczym wymaga się, aby naukowcy przekształcali tak sformułowane
pytania ogólne na zbiór hipotez (proponowanych odpowiedzi) po to, aby możliwe stało się ich
zbadanie. Ted Gurr zbudował zbiór hipotez (łącznie z przedstawionymi niżej), które były jego
propozycją odpowiedzi na pytanie o przyczyny przemocy politycznej6:
¦ Prawdopodobieństwo przemocy grupowej zwiększa się wraz ze wzrostem i
zakresem strat ponoszonych przez członków grupy.
¦ Prawdopodobieństwo przemocy politycznej zmienia się istotnie wraz z
intensywnością i zakresem funkcjonowania sprawiedliwości normatywnej (tj.
sprawiedliwości opartej na powszechnie uznawanych standardach moralnych).
¦ Prawdopodobieństwo przemocy politycznej zmienia się istotnie wraz z
prawdopodobieństwem przemocy grupowej.
¦ Wielkość przemocy politycznej zmienia się istotnie wraz z prawdopodobieństwem
przemocy grupowej.
Inny przykład konstruowania hipotez pochodzi z pracy Gibbsa i Martina poświęconej
czynnikom determinującym stopień urbanizacji7. Autorzy zaproponowali następujący zbiór
hipotez:
¦ Stopień urbanizacji społeczeństwa zależy bezpośrednio od stopnia rozproszenia (tj.
rozkładu na dużym obszarze fizycznym) przedmiotów konsumpcji.
¦ Stopień urbanizacji społeczeństwa zależy bezpośrednio od podziału rynku pracy.
¦ Podział rynku pracy w społeczeństwie zależy bezpośrednio od rozproszenia
przedmiotów konsumpcji.
6 Ted R. Gurr (1970), Why Men Rebel, Princeton, N.J.: Princeton University Press, s.
360-367.
7 Jack P. Gibbs, Walter T. Martin (1976), Urbanization, Technology, and the Division
of Labor: International Patterns, w: Paul Meadows, Ephraim H. Mizruchi (red.), Urbanism,
Urbanization and Change, wyd. 2, Reading, Mass.: Addison-Wesley, s. 132-145.
80
¦ Stopień urbanizacji społeczeństwa zależy bezpośrednio od rozwoju
technologicznego.
¦ Rozwój technologiczny społeczeństwa zależy bezpośrednio od rozproszenia
przedmiotów konsumpcji.
Z kolei praca Geralda Hage'a, będąca próbą syntezy teorii i badań dotyczących
złożonych organizacji, jest znakomitą ilustracją dedukcyjnego sposobu tworzenia hipotez8.
Hagę przetworzył podstawowe pojęcia teorii biurokracji Maxa Webera na kategorię
zmiennych. Na przykład pojęcie „hierarchia autorytetu" zostało przekształcone na zmienną
zdefiniowaną jako „stopień centralizacji w ramach organizacji", a pojęcie „reguły i
procedury" na zmienną zdefiniowaną jako „stopień formalizacji" (stopień, w jakim
zachowania wynikające z wykonywanej pracy zostały skodyfikowane jako reguły i
procedury). Hagę sformułował trzy następujące podstawowe hipotezy:
¦ Im większy stopień centralizacji w ramach organizacji, tym większa produkcja i vice
versa.
¦ Im większy stopień centralizacji w ramach organizacji, tym większa skuteczność i
vice versa.
¦ Im większy stopień centralizacji w ramach organizacji, tym większa formalizacja i
vice versa.
*
¦ Źródła informacji o badaniach i hipotezach naukowych
Problemy badawcze i hipotezy można budować na wiele sposobów. Można korzystać
z teorii, z bezpośrednich obserwacji czy z własnej intuicji, traktując każdy z tych sposobów
niezależnie lub je łącząc. Najlepszym źródłem inspiracji w procesie formułowania problemów
i hipotez jest jednak literatura fachowa. Krytyczny przegląd literatury fachowej pozwala
badaczowi poznać aktualny stan wiedzy, podstawowe pojęcia, teorie, główne zmienne oraz
definicje pojęciowe i operacyjne, problemy i hipotezy analizowane przez innych jak też
stosowane przez nich metody badawcze. Wyprowadzanie nowych badań z wiedzy opisanej w
literaturze fachowej sprawia, że przyczyniamy się do kumulowania wiedzy naukowej.
Przeglądanie literatury fachowej przestało być łatwym zadaniem ze względu na
obszerność dostępnego materiału. Jest to zadanie trudne zarówno dla naukowców, jak i
studentów. Corocznie publikuje się tysiące artykułów i książek poświęconych naukom
społecznym, stąd najlepiej rozpoczynać poszukiwania od jednego z przewodników po
literaturze publikowanej. Przewodniki takie zawierające bibliografie, indeksy i streszczenia są
w coraz większym stopniu skomputeryzowane.
W dodatku B poświęconym pisaniu raportów przedstawimy nieco rad, w jaki sposób
włączyć dawniej prowadzone badania w nasze własne hipotezy i wyniki badań.
8 Gerald Hagę (1980), Theories of Organizations: Forms, Process, and
Transformation, New York: Wiley Interscience, s. 36-40.
81
Bibliografie, indeksy i streszczenia
Poniżej przedstawiamy podstawowe publikacje zawierające wskazówki
bibliograficzne oraz indeksy dotyczące prac opublikowanych w zakresie nauk społecznych.
Biblioteki coraz częściej dysponują takim materiałem w postaci CD-ROM-ów (Compact
Disk-Read Only Memory) lub w postaci dostępnych on linę baz danych, takich jak DIALOG.
CD-ROM przypomina muzyczne płyty CD. Aby można było wykorzystać je komputerowo,
należy wyposażyć sprzęt komputerowy w odpowiednie urządzenia hardwarowe i zakupić
właściwe oprogramowanie. Jest to niezwykle użyteczny sposób gromadzenia ogromnej ilości
informacji, do których bardzo łatwo można dotrzeć. Terminy „on linę", „CD-ROM" oraz
„mikrofilm" oznaczają nie drukowane źródła informacji.
¦ Sheehy Eugene P., red., Guide to Reference Books, wyd. 10, Chicago: American
Library Association, 1986.
¦ Balay Robert, red., Guide to Reference Books, suplement do wyd. 10, Chicago:
American Library Association, 1992.
¦ Katalog rzeczowy dostępny w bibliotece. (W większości bibliotek uniwersyteckich
katalogi zostały skomputeryzowane w postaci baz danych dostępnych on linę. Jeżeli stało się
tak i na waszej uczelni, to możecie skorzystać z terminalu, aby szybko sprawdzić interesujące
was informacje bibliograficzne oraz przekonać się, czy potrzebne wam materiały są dostępne
w bibliotece).
¦ Przedstawiona poniżej lista zawiera informacje o źródłach, w których można znaleźć
dane o poszukiwanej książce czy artykule. Wszystkie one są dostępne także w postaci
drukowanej.
Biography Index
(również: on linę, CD-ROM) Book Review Index
(również: mikrofilm, on linę) Cummulative Book Index
(również on-line, CD-ROM Education Index
(również on-line, CD-ROM) Index of Economic Articles in
Journals and Collective Volumes
(również on-line)
International Bibliography of the
Social Science
(również: on linę) National Union Catalog
(również mikrofilm) PAIS International
(również: on linę, CD-ROM) Social Sciences Citation Index (SSCI)
(również: on linę, CD-ROM) Social Science Index
(również: on linę, CD-ROM)
Niżej podane źródła zawierają abstrakty z krótkimi streszczeniami cytowanych prac:
Current Contents: Social and
Behavioral Sciences (CC:S&BS)
(również: on linę) Dissertation Abstracts
(również: mikrofilm, on linę,
CD-ROM)
Psychological Abstracts
(również: on linę, CD-ROM)
Resources in Education (RIE) (również: mikrofilm, on linę, CD-ROM)
Sagę Public Administration Abstracts
82
Historical Abstracts
(również: on linę, CD-ROM) International Political Science
Abstracts
(również: mikrofilm, on linę,
CD-ROM) Journal of Economic Abstract
(również: on linę, CD-ROM) Political Science Abstracts
Sagę Urban Studies Abstracts
(również: mikrofilm, on linę,
CD-ROM) Social Work Abstracts (również: mikrofilm, on linę,
CD-ROM) Sociological Abstracts
(również: on linę, CD-ROM)
Czasopisma fachowe
Ogromna liczba istniejących na rynku nauk społecznych wysoce wyspecjalizowanych
czasopism sprawia, że znalezienie poszukiwanego artykułu czy zagadnienia wymaga
korzystania z abstraktów, indeksów czy innych źródeł bibliograficznych. Aby ułatwić
pierwsze poszukiwania, zamieszczamy poniżeli listę podstawowych czasopism
pogrupowanych według dyscyplin, których dotyczą. Przedstawione powyżej źródła pozwalają
zidentyfikować artykuł publikowany w czasopiśmie na podstawie nazwiska jego autora,
dyscypliny czy słowa kluczowego w tytule artykułu.
Nauki polityczne
„American Journal of Political
Science" „American Political Science Reviewv „American Politics Quarterly" „British
Journal of Political Science" „Canadian Journal of Political
Science" „Canadian Journal of Political and
Social Theory" „Comparative Political Studies" „Comparative Politics" „European
Journal of Political
Research" „International Studies Quarterly"
„Journal of Policy Analysis and
Management" „Journal of Political Philosophy" „Journal of Politics" „Policy
Sciences" „Policy Studies Journal" „Policy Studies Review" „Political Science Quarterly"
„Polity"
„Public Interest" „Public Opinion Quarterly" „Public Opinion Quarterly" „World
Politics"
Socjologia
„American Journal of Sociology" „American Sociological Review" „British Journal of
Sociology" „Canadian Review of Sociology
and Antropology" „Humań Relations" „International Journal of
Comparative Sociology"
„Journal of Mathematical
Sociology" „Journal of Social Issues" „Social Forces" „Social Problems" „Social
Psychology Quarterly" „Social Science Quarterly" „Sociological Quarterly"
83
Psychologia
„American Behavioral Scientist" „Canadian Journal of Experimental
Psychology" „Journal of Applied Behavioral
Research" „Journal of Applied Psychology"
„Journal of Applied Social
Psychology" „Journal of Personality and Social
Psychology" „Psychological Bulletin" „Psychological Review"
Ekonomia i biznes
„Academy of Management Journal" „Administration and Society" „Administrative
Science Quarterly" „Advanced Management Journal" „American Economic Review"
„American Review of Public
Administration" „Canadian Journal of Administrative
Sciences" „Decision Sciences" „Econometrica" „Economic Journal"
„Evaluation Review" „Fortune Magazine" „Harvard Business Review" „Journal of
Political Economy" „Management Science" „Public Administration Review" „Public Personel
Management" „Quarterly Journal of Economics" „Rand Journal of Economics" „Review of
Economics and
Statistics" „Socio-economic Planning Sciences"
Praca społeczna
„Criminology"
„Journal of Social Service Research'
„Social Service Review"
„Social Work"
„Social Work Abstracts"
„Social Work Research"
Publikacje statystyczne*
Poniżej przedstawiamy listę użytecznych publikacji statystycznych oraz innych
publikacji rządowych.
¦ U.S. Bureau of the Census. Historical Statistics of the United States, Washington,
D.C.: U.S. Government Printing Office. Publikowany nieregularnie. Przedstawia dane
pogrupowane w 26 rozdziałów: ludność; ruch naturalny ludności, zdrowie i opieka medyczna;
migracja; praca; ceny; dochód narodowy; konsumpcja; statystyka społeczna; grunty, woda i
klimat; rolnictwo, leśnictwo i rybołówstwo; minerały; budownictwo; fabryki; transport;
komunikacja; energia; usługi; handel zagraniczny i inne transakcje międzynarodowe;
przedsiębiorstwa prywatne; wielkość produkcji i rozwój technologiczny; banki i finanse; dane
dotyczące kolonii. Zawiera indeks nazwisk i indeks rzeczowy.
*W Polsce Instytut Studiów Społecznych Uniwersytetu Warszawskiego wydaje od
roku 1992 Polski Generalny Sondaż Społeczny (PGSS). Ostatnie wydanie pochodzi z 1995
roku: Cichomski B., Morawski P. (1996), Polski Generalny Sondaż Społeczny, Warszawa:
Instytut Studiów Społecznych UW (przyp. red. nauk.).
84
¦ U.S. Bureau of the Census. Statistical Abstract of the United States. Washington,
D.C.: U.S. Government Printing Office. Publikowany corocznie. Dane pogrupowane w 33
sekcjach: ludność; ruch naturalny ludności; zdrowie i żywienie; imigracja i naturalizacja;
edukacja; władza wykonawcza; sądy i więzienia federalne; powierzchnia; geografia i klimat;
grunty państwowe; parki, rekreacja i podróżowanie; praca; zatrudnienie i zarobki; obrona
narodowa i weterani; ubezpieczenia społeczne i służby społeczne; dochody, wydatki i poziom
życia; ceny; wybory; finanse federalne i zatrudnienie; finanse stanowe i lokalne oraz
zatrudnienie, banki, finanse i ubezpieczenia; przedsiębiorstwa prywatne; łączność; energia;
nauka; transport lądowy; transport powietrzny i wodny; rolnictwo — farmy, grunty i finanse;
rolnictwo — produkcja, marketing i handel; lasy i produkcja leśna; rybołówstwo; kopalnie i
wydobywanie minerałów; budownictwo; fabryki; usługi; handel i pomoc zagraniczna;
pozostałe obszary pozostające pod jurysdykcją Stanów Zjednoczonych; porównawcze dane
międzynarodowe. Sześć dodatków. Indeks nazwisk i indeks rzeczowy. (Również dostępny on
linę).
¦ U.S. Bureau of the Census. Census of Popułation, Washington, D.C.: U.S.
Government Printing Office. Publikowany co dziesięć lat. Zawiera następujące informacje
dotyczące większości miast liczących 2500 mieszkańców i więcej: ludność według płci;
podstawowe grupy zawodowe według płci; rasa według płci; wiek ludności według płci;
liczba ukończonych lat nauki; stan cywilny kobiet i mężczyzn, czternastolatków i starszych;
miejsce urodzenia białej ludności urodzonej za granicą.
¦ Murray Toni, red., The Federal Data Base Finder, wyd. 4, Kensington, Md.:
Information USA, 1995.
¦ U.S. Superintendent of Documents. Monthly Catalog of United States Govern-ment
Publications. Washington, D.C.: U.S. Government Printing Office. Publikowany co miesiąc.
(Dostępny w postaci drukowanej, mikrofilmu, on linę, CD-ROM-u).
¦ Taylor Charles L., David Jodice, World Handbook ofPolitical and Social In-dicators,
wyd. 3, New Haven, Conn.: Yale University Press, 1983, 2 tomy. Zestawienie 75 zmiennych
dotyczących 133 państw i dotyczących zarządzania zasobami ludzkimi, rządu i polityki,
łączności, poziomu życia, zdrowia, edukacji, rodziny i więzi społecznych, rozdziału dóbr i
przychodów oraz religii.
¦ U.S. Bureau of the Census. County and City Data Books, Washington, D.C.: U.S.
Government Printing Office. Publikowany nieregularnie. Zawiera wiele danych
tabelarycznych dotyczących jednostek administracyjnych i miast liczących powyżej 25 000
mieszkańców takich, jak: rynek pracy, przychody, wybory, banki i finanse, przedsiębiorstwa
prywatne i edukacja. (Dostępny w postaci drukowanej, mikrofilmu, on linę, CD-ROM).
¦ Municipal Year Book, Washington D.C.: International City-County Management
Association. Publikowany corocznie. Zbiór danych dotyczących władzy municypalnej.
Zawiera informacje o roli władz miejskich (w tym dane o edukacji, mieszkaniach, opiece i
zdrowiu) oraz umożliwia dokonywanie porównań danych dotyczących uwzględnionych miast
w zakresie bardzo wielu zmiennych.
¦ American Statistics Index, Bethesda, Md.: Congressional Information Servi-ce.
Publikowany co miesiąc. Spis publikacji statystycznych pochodzących z ponad 400 agend
rządu USA. (Również dostępny on linę i na CD-ROM-ie). [Tytuł CD-ROM-u: Statistical
Masterfde].
85
¦ Index to International Statistics, Bethesda, Md.: Congressional Information Service.
Publikowany co miesiąc. Jest to spis organizacji międzynarodowych i międzyrządowych.
(Również dostępny on linę i na CD-ROM-ie). [Tytuł CD-ROM-u: Statistkal Masterfile].
Monografie
Na rynku dostępnych jest kilkanaście monografii szczegółowo opisujących problemy
badawcze, hipotezy oraz dane i przeznaczonych dla badaczy w dziedzinie nauk społecznych.
Między innymi są to następujące wydawnictwa:
¦ Bart Pauline, Linda Frankel, The Student Sociologist Handbook, wyd. 4, New York:
McGraw-Hill, 1986.
¦ Holler Frederick L., Information Sources of Political Science, wyd. 4, Santa Barbara,
Calif.: ABC-Clio, 1986.
¦ Miller Delbert C, Handbook of Research Design and Social Measurement, wyd. 5,
Newbury Park, Calif.: Sagę Publications, 1991.
¦ Murphy Thomas P., red., Urban Indicators: A Guide to Information Sources, Detroit:
Gale Research, 1980.
¦ Wasserman Paul, Jacąueline OBrien, Statistical Sources, wyd. 18, Detroit: Gale
Research, 1994.
¦ Podsumowanie
1. Problemy badawcze to bodźce intelektualne wymagające reakcji w postaci badań
naukowych. Problemy, które można zbadać, są empirycznie dostępne, jasne i konkretne.
Formułując problem, naukowcy poświęcają wiele uwagi jednostkom analizy. Wyprowadzanie
wniosków dotyczących jednostki analizy innej niż ta, której dotyczyło badanie, może
prowadzić do dwóch błędów: błędu ekologizmu i błędu indywidualizmu.
2. Przekształcając pojęcia w zmienne poprzez przełożenie ich na zbiór wartości,
badacze przechodzą z poziomu pojęciowego na poziom obserwacyjny. Zmienna jest to
właściwość empiryczna, która ma dwie lub więcej wartości. Rozróżniamy — z punktu
widzenia istoty badania — zmienne niezależne, zależne oraz zmienne kontrolne. Zmienna
niezależna to zakładana przyczyna zmiennej zależnej, a zmienna zależna to zakładany wynik
oddziaływania zmiennej niezależnej. Zmienne kontrolne są wykorzystywane po to, aby
sprawdzić, czy obserwowany związek pomiędzy zmienną niezależną i zmienną zależną nie
jest związkiem pozornym. Zmienne mogą być również ciągłe i dyskretne. Zmienna dyskretna
ma określoną swoją najmniejszą jednostkę; zmienna ciągła zaś takiej jednostki nie ma.
3. Pojęcie związku w badaniach empirycznych oznacza zawsze związek pomiędzy
dwiema lub więcej zmiennymi. Gdy mówimy, że dwie zmienne są ze sobą powiązane,
oznacza to, że mają one ze sobą coś wspólnego. Badacze ustalają istnienie związku, badając,
czy zmiana wartości jednej zmiennej powoduje zmianę wartości drugiej zmiennej. Dwie
własności związku wymagają szczególnej uwagi: kierunek i siła. Mówiąc o kierunku, mamy
na myśli to, czy związek jest dodatni czy ujemny. Siła związku zaś to stopień, w jakim
zmienne współzmieniają się wprost lub odwrotnie proporcjonalnie.
4. Hipotezy to proponowane odpowiedzi udzielane na pytania badawcze. Tworzy
sieje, określając związek pomiędzy zmiennymi zależnymi i niezależnymi. Hi-
86
potezy badawcze muszą być jasne, konkretne, nie wartościujące oraz poddające się
badaniom empirycznym za pomocą dostępnych metod badawczych.
5. Problemy i hipotezy badawcze mogą zostać wyprowadzone dedukcyjnie z teorii,
bezpośrednio z obserwacji, intuicyjnie lub na podstawie różnych kombinacji tych sposobów.
Najbogatszym źródłem inspiracji w procesie tworzenia problemów i hipotez jest literatura
fachowa. Osoby prowadzące badania w naukach społecznych powinny szukać informacji o
podstawowych przewodnikach po publikowanych badaniach, włączając w to odsyłacze,
bibliografie, indeksy, streszczenia, czasopisma i publikacje statystyczne. Większość bibliotek
uniwersyteckich oferuje bazy danych (skomputeryzowane) dostępne on linę.
¦ Podstawowe terminy
zmienna dyskretna 73 zmienna kontrolna 72 zmienna niezależna 71 zmienna zależna
71 związek 74 związek dodatni 75 związek pozorny 72 związek ujemny 75
¦ Pytania sprawdzajqce
1. Zaproponuj dwa empiryczne problemy badawcze właściwe dla nauk społecznych.
2. Co to jest błąd ekologizmu? Co to jest błąd indywidualizmu? W jaki sposób badacz
może uniknąć tych dwóch rodzajów błędów?
3. Napisz trzy dające się sprawdzić hipotezy badawcze oraz określ, co jest w nich
zmienną zależną, zmienną niezależną i zmienną kontrolną.
4. Posługując się tymi sami hipotezami, określ, jakie są oczekiwane zmiany (biorąc
pod uwagę ich siłę i kierunek) zmiennej zależnej i zmiennej niezależnej.
5. W jakich źródłach szukałbyś podstawowych informacji o problemach badawczych
sformułowanych w pytaniu 1?
¦ Literatura dodatkowa
Ajdukiewicz K. (1965), Logika pragmatyczna. Warszawa: PWN.
Brzeziński J. (1997), Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd.
Nauk. PWN.
Giedymin J. (1964), Problemy, założenia, rozstrzygnięcia, Poznań: PTE.
Nowak S. (red.)(1965), Metody badań socjologicznych. Wybór tekstów, Warszawa:
PWN.
błąd ekologizmu 69 błąd indywidualizmu 70 hipoteza 77 jednostka analizy 68
problem badawczy 67 siła związku 76 współzmienność 74 zmienna 70 zmienna ciągła 73
Rozdział 4
Problemy etyczne badań w naukach społecznych
Dlaczego etyka w badaniach naukowych? 90
Badanie posłuszeństwa wobec autorytetu 90 Badanie zachowania policji 92
Badanie postaw studentów college'u 93
Wyrównywanie kosztów i zysków 93
Wyrażanie zgody na podstawie posiadanych informacji 95
Dlaczego wyrażanie zgody jest niezbędne 95 Co znaczy prawo do wyrażania zgody
96 Odpowiedzialność badacza 99
Prywatność 99
Wymiary prywatności 100
Anonimowość i poufność 102
Anonimowość 102 Poufność 103
Zawodowy kodeks postępowania etycznego 104
Podsumowanie 109
Podstawowe terminy 109
Pytania sprawdzające 110
Literatura dodatkowa 110
Przypuśćmy, że chcielibyśmy zapobiegać występowaniu lub wpływać na obniżenie
częstości występowania raka skóry w populacji. Od czego powinniśmy zacząć? Zobaczmy, co
w tej sprawie zdziałały władze szkolne w Tel Awiwie. Świadome potencjalnych skutków
działania klimatu śródziemnomorskiego charakterystycznego dla Izraela, a także skutków
stylu życia, w którym kocha się opalanie na słońcu, władze szkolne zdecydowały sprawdzić,
czy uruchomienie specjalnego programu uświadamiającego groźbę zachorowania na raka
skóry może wpłynąć na zmianę zachowania ludzi. Specjalny test sprawdzający działanie
takiego programu został przeprowadzony w roku 1991. Program obejmował udzielanie
informacji, o jakich porach najlepiej przebywać na słońcu, jak należy ubierać się podczas
zabaw na słońcu, jak się chronić przed słońcem itp. Badacze wytypowali osiem szkół
średnich. Po sprawdzeniu, co dzieci wiedzą i jaki jest ich stan fizyczny, dzieci z czterech
szkół zostały objęte programem, podczas gdy dzieci z pozostałych czterech szkół nie brały
udziału w programie. Rok później, w roku 1992, wszystkie dzieci zostały ponownie zbadane.
Sprawdzano ich wiedzę i zachowania po to, aby upewnić się co do efektów programu.
Otrzymane rezultaty zostały następnie wykorzystane do stworzenia programu
obowiązującego we wszystkich szkołach.
Pomijając podstawy naukowe i cel, którym była promocja zdrowia, taka procedura
postępowania musi budzić wiele wątpliwości. Czy jest etyczne zatrzymywanie, nawet na
krótko, ważnych informacji przed niektórymi uczestnikami badań? W jaki sposób badacze w
naukach społecznych radzą sobie z takimi problemami, bez ryzyka niezrealizowania celu
własnych badań?1
W tym rozdziale omówimy zagadnienia etyczne związane z prowadzeniem badań w
naukach społecznych. Omówimy też sposoby ochrony praw i dóbr osobistych jednostek i
społeczności, które są przedmiotem prowadzonych badań naukowych. Zaczniemy od
przeglądu powodów, dla których zagadnienia etyczne stały się obecnie tak ważne. Następnie
przedstawimy trzy przykłady badań dotyczących posłuszeństwa wobec autorytetu, zachowań
policji oraz postaw studentów college^ jako ilustrację badań wywołujących podstawowe
pytania natury etycznej. Dalej omówimy dylemat etyczny badacza, tj. konflikt pomiędzy
prawem badacza do prowadzenia badań i prawem osób badanych do samookreślenia,
zachowania prywatności i godności. Zaproponujemy również kryteria podejmowania decyzji
etycznych w określonych sytuacjach. Omówimy też takie ważne zagadnienia etyczne, jak
prawo do informacji oraz prawo do prywatności. Na koniec przedyskutujemy ogólne
zawodowe zasady etyczne i przedstawimy kodeks etyczny dla nauk społecznych.
W rozdziale 1 mówiliśmy, że nauki społeczne to jednocześnie dyscypliny naukowe i
humanistyczne oraz że naukowcy są w nich zarazem obserwatorami i ucze-
1 Michael Fadida, Menashe Hadad, Rafael Shafir (1994), Sun Exposure Among Junior
High School Students in Tel Aviv-Jaffo: Knowledge, Attitudes and Behavior, „Research and
Surveys" (No. 67), Tel Aviv-Jaffo: The Center of Economic and Social Research.
89
stnikami procesu badawczego. Podkreślaliśmy również, że badania w naukach
społecznych nie są prowadzone w izolacji. Badacze cały czas pozostają w interakcji ze
złożnym i wymagającym środowiskiem, które wpływa na ich decyzje badawcze zarówno
formalnie, jak i nieformalnie. Jednym z istotnych sposobów radzenia sobie z tymi
oddziaływaniami jest przestrzeganie zasad etycznych.
¦ Dlaczego etyka w badaniach naukowych?
Wraz z poszerzającym się zakresem nauk społecznych oraz tworzeniem lepszych i
bardziej inwazyjnych metod badawczych zainteresowanie sprawami etyki w naukach
społecznych staje się coraz większe. Zagadnienia dotyczące praw i dóbr osobistych ludzi
uczestniczących w badaniach oraz powinności badaczy stały się przedmiotem dyskusji we
wszystkich dyscyplinach należących do nauk społecznych. Większość towarzystw
naukowych dokonała też adaptacji ogólnych zasad etycznych do własnej konkretnej
działalności.
Oczywiście, prowadzenie badań mogących pogwałcić prawa i dobra osobiste
uczestników badań nie jest ani zamierzone intencjonalnie, ani nie jest głównym celem
badaczy. Istotą badań naukowych jest systematyczne przyczynianie się do budowania dającej
się zweryfikować wiedzy naukowej. Proces badawczy, zgodnie z tym, co mówiliśmy
wcześniej (por. ryc. 1.1), obejmuje wszystkie działania pozwalające naukowcom na tworzenie
takiej wiedzy. Na każdym etapie procesu badawczego jednakże — oprócz rozważań o
charakterze naukowym — mogą się pojawić rozważania natury etycznej.
Problemy natury etycznej wynikają ze specyfiki problemów analizowanych w
naukach społecznych oraz ze specyfiki metod wykorzystywanych do otrzymywania trafnych i
rzetelnych danych. Źródłem problemów etycznych może być sam problem badawczy (np.
inżynieria genetyczna, determinanty inteligencji czy ocena programu); otoczenie, w jakim
odbywa się badanie (szpital, więzienie, szkoła czy agenda rządu); procedury wymagane w
planie badawczym (zastosowanie takiej manipulacji w grupie eksperymentalnej, która może
mieć negatywny wpływ na uczestników badań); metody zbierania danych (obserwacja
uczestnicząca); osoby będące uczestnikami badań (biedni, dzieci, osoby chorujące na AIDS,
politycy); rodzaj zebranych danych (dane osobiste czy procedury rekrutacyjne stosowane w
instytucjach państwowych).
Badanie posłuszeństwa wobec autorytetu
Badanie przeprowadzone przez Milgrama to ważny i kontrowersyjny przykład wart
szczegółowego opisania. Stanley Milgram przeprowadził kontrolowany eksperyment
laboratoryjny po to, aby zbadać, w jakich warunkach osoby badane odmówią wypełnienia
instrukcji udzielanej przez osobę obdarzoną autorytetem2*.
* Polski czytelnik może się też zapoznać z przekładem pracy Milgrama omawiającej
ten eksperyment: Milgram S. (1978), Badanie posłuszeństwa, w: K. Jankowski (red.),
Przełom w psychologii. Warszawa: Czytelnik, s. 83-103 (przyp. red. nauk.).
2 Przedstawione tu omówienie oparte jest na pracy Stanleya Milgrama, Obedience to
Authoritf (New York: Harper & Row, 1975).
90
Do laboratorium psychologicznego zgłaszały się dwie osoby, aby wziąć wspólnie
udział w badaniu dotyczącym procesów uczenia się. Jedna z osób miała być „nauczycielem",
druga zaś „uczniem". Jednakże właściwa osoba badana zawsze zostawała nauczycielem.
Dowiadywała się ona, że celem badania jest sprawdzenie efektu, jaki wywiera kara na uczenie
się. Uczeń, którego sadzano na specjalnym krześle z przypiętymi do nadgarstków elektrodami
i przywiązywano za ramiona do fotela, aby nie mógł się poruszać, został wcześniej
poinstruowany, jak ma się zachowywać. Osoba prowadząca eksperyment informowała
ucznia, że jego zadanie polega na uczeniu się par słów. Uczeń dowiadywał się także, że jeżeli
w trakcie uczenia się popełni błąd, to zostanie ukarany uderzeniem prądu. Nauczyciel
obserwował to wszystko i następnie przechodził do pokoju eksperymentalnego. Tam jego z
kolei informowano, w jaki sposób można korzystać z — robiącego duże wrażenie —
generatora prądu elektrycznego. Generator ten miał na konsoli 30 przycisków, oznaczonych
od 15 do 450 woltów. Przyciski były również opisane słownie od „łagodny wstrząs" do
„niebezpieczeństwo porażenia". Od poziomu 28 (420 woltów) przyciski miały jedynie
czerwone oznaczenia „XXX".
Nauczyciela informowano, że będzie on „uczył" osobę, która znajduje się w drugim
pokoju, czytając mu listę pogrupowanych w pary wyrazów takich jak: „ładny-dzień",
„niebieskie-pudełko". Nauczyciel miał następnie czytać jedno ze stów (bodziec), któremu
towarzyszyły cztery możliwe odpowiedzi. Uczeń miał wskazać, która z tych odpowiedzi jest
prawidłowa, naciskając jeden z czterech przycisków. Jeżeli udzielona odpowiedź była
prawidłowa, nauczyciel przechodził do następnego zadania. Jeżeli odpowiedź była
nieprawidłowa, nauczyciel miał ukarać ucznia, stosując uderzenie prądem. Nauczyciela
poinstruowano również, że po każdej kolejnej złej odpowiedzi ma on stosować coraz większe
napięcia prądu. Jednakże — o czym nauczyciel nie wiedział — uczeń w rzeczywistości nie
otrzymywał żadnych ud.erzeń prądem.
Główną zmienną zależną w tym eksperymencie było posłuszeństwo, czyli skłonność
nauczyciela do postępowania zgodnie ze wskazówkami badacza, a więc osoby uznawanej w
tej sytuacji za autorytet. Badacz dodatkowo zachęcał nauczyciela do stosowania wysokich
dawek prądu w stosunku do mylącego się ucznia. Te dodatkowe ponaglenia miały postać
zdań: „Proszę dalej. Eksperyment wymaga, aby pan kontynuował. Biorę na siebie
odpowiedzialność". Uczeń reagował zawsze standardowo, podobnie jak na sytuację
eksperymentalną. Nie wykazywał oznak dyskomfortu, aż do momentu uderzenia prądem o
napięciu 75 woltów, kiedy zaczynał cicho jęczeć. Jęczał także przy napięciu 90 i 105 woltów,
a przy 120 woltach zaczynał wołać, że uderzenia są bardzo bolesne. Przy 135 woltach uczeń
wydawał z siebie głośne jęki, a przy 150 krzyczał, że chce zostać uwolniony, i odmawiał
dalszego udziału w eksperymencie. Reagował w ten sposób na kolejne uderzenia, aż przy 180
woltach zaczynał krzyczeć, że dłużej nie może już znieść takiego bólu. Przy 270 woltach
zachowywał się tak, jak gdyby był w agonii, przy 300 odmawiał udzielania dalszych
odpowiedzi, a po 330 w ogóle przestawał reagować.
Wyniki tego eksperymentu stoją w sprzeczności z tym, co powszechnie uznaje się za
moralne: większość badanych okazała się bowiem posłuszna i zachowywała się zgodnie z
instrukcjami, choć, jak wiedzieli, było to bolesne i niebezpieczne dla uczniów. W jednym z
eksperymentów 26 na 40 badanych kontynuowało stosowanie uderzeń prądem aż do
maksimum, czyli 450 woltów, 5 osiągnęło poziom 300
91
woltów, po czym odmówiło współpracy, a 8 osiągnęło poziom między 315 a 360
woltów.
Innym ważnym wynikiem uzyskanym w czasie tego eksperymentu był niezwykle
wysoki poziom stresu spowodowanego przez sytuację eksperymentalną i przeżywanego przez
nauczyciela w porównaniu z uczniem, który de facto nigdy naprawdę nie został uderzony
prądem. Według Milgrama „badani [tj. nauczyciele w eksperymencie] pocili się, przygryzali
wargi, jęczeli i wbijali sobie paznokcie w ciało. Były to reakcje raczej typowe niż wyjątkowe
w tym doświadczeniu"3. Wiele oznak potwierdzało przeżywanie bardzo silnego stresu przez
uczestników badania, zwłaszcza tych, którzy byli posłuszni. Stres był dostrzegalny zarówno
dla samych nauczycieli, jak i eksperymentatorów. Świadomi, że zastosowana procedura
badawcza może przynieść długofalowe negatywne skutki dla uczestników, autorzy badań
przeprowadzili dwa spotkania terapeutyczne. Po pierwsze, wszyscy badani otrzymali pełne i
prawdziwe wyjaśnienie celu i mechanizmu eksperymentu, a także spotkali się w miłej
atmosferze ze swoim uczniem. Po drugie, rok po eksperymencie wszyscy zostali poddani
badaniu psychiatrycznemu; nie opisano wtedy żadnych negatywnych skutków eksperymentu.
Eksperyment Milgrama wywołał falę krytyki dotyczącej zastosowanej procedury,
głównie z powodów etycznych. Po pierwsze, nauczyciele byli przekonani, że zadają ból innej
osobie, co nie było prawdą. Zostali oni zatem oszukani na samym początku co do
prawdziwego celu badań. Tym samym zostało złamane ich prawo do pełnej i prawdziwej
informacji o eksperymencie. Po drugie, badani przeżywali ogromny stres; byli bardzo
zmartwieni, zdenerwowani, a niektórzy zachowywali się w sposób nie kontrolowany. Po
trzecie, uwagi krytyczne dotyczyły także tego, że gdy wyniki eksperymentu stały się znane,
badani, zdając sobie sprawę z tego, co mogłoby się stać, gdyby naprawdę stosowali uderzenia
prądem, mogli zostać przytłoczeni poczuciem winy. Po czwarte, eksperyment mógł zmienić
zdolności badanych do zawierzania autorytetom w przyszłości. Innymi słowy, mógł podkopać
zaufanie badanych do osób uznawanych za autorytet. I wreszcie, niektórzy wręcz stwierdzali,
że ponieważ udział w eksperymencie nie przynosił żadnych korzyści badanym, nie powinien
się w ogóle odbyć4. I chociaż Milgram odpowiedział na wszystkie uwagi krytyczne dotyczące
etyki postępowania, wątpliwości, jakie ten eksperyment wywołał, są nadal ważne i istotne5.
Badanie zachowania policji
W roku 1960 w Stanach Zjednoczonych coraz częściej pojawiały się skargi na
brutalność policji. Do tego czasu ani same skargi, ani zachowanie policji nigdy nie było
przedmiotem systematycznych badań. Albert Reiss postanowił zatem poddać obserwacji
zachowanie policji. Wiedział jednak, że jeżeli funkcjonariusze policji poznają prawdziwy cel
badań, to będą unikać wszelkich brutalnych zachowań. Dla-
3 Stanley Milgram (1963), Behavioral Study of Obedience, .Journal of Abnormal and
Social Psy-chology", 67, s. 375.
4 Więcej uwag krytycznych na temat tego eksperymentu zob. Diana Baumrind
(1964), Some Thoughts on Ethics of Research: After Reading Milgram 's Behavioral Study of
Obedience, „American Psychologist", 19, s. 421-423.
5 Odpowiedź Milgrama można znaleźć w jego pracy Obedience to Authority, s. 193-
202.
92
tego też Reiss sprawił, że funkcjonariusze uwierzyli, iż badanie dotyczy przede
wszystkim reakcji mieszkańców na działania policji. W czasie trwania badania Reiss
zarejestrował po stronie policji dużą liczbę zachowań polegających na złym traktowaniu i
stosowaniu brutalności wobec mieszkańców6.
Badanie to można potraktować jako źródło trzech ważnych problemów etycznych. Po
pierwsze, Reiss posłużył się oszustwem, aby uzyskać zgodę na dokonanie obserwacji, która w
innym wypadku nie byłaby możliwa (poszczególni funkcjonariusze policji nie znali
prawdziwego celu badań oraz nie wiedzieli, że to oni byli obserwowani i analizowani). Po
drugie, funkcjonariusze policji nie wyrażali zgody na udział w badaniu. Nie wyrazili oni
rzeczywistej zgody, ponieważ nie powiedziano im, że to oni są osobami badanymi. I po
trzecie, badania tego typu mogą wywoływać brak zaufania wśród potencjalnych przyszłych
osób badanych, np. funkcjonariuszy policji, a przyszli badacze mogą mieć trudności z
uzyskiwaniem informacji czy zgody na współpracę ze strony osób badanych.
Badanie postaw studentów college'u
Badaniem, które przyczyniło się do zwiększenia świadomości istnienia problemów
natury etycznej, było badanie przeprowadzone przez American Council of Educa-tion
poświęcone postawom społecznym i politycznym studentów college'u7. Zaprojektowany w
latach sześćdziesiątych, w okresie niepokojów w miasteczkach uniwersyteckich, eksperyment
miał na celu zebranie informacji o postawach i zachowaniach studentów w trakcie i po
zakończeniu studiów. Badanie miało charakter podłużny i polegało na powtarzaniu
wywiadów z tymi samymi osobami. Kontrowersje wokół tych badań pojawiły się wtedy, gdy
do kwestionariusza wywiadu zostały włączone pytania dotyczące orientacji i aktywności
politycznej osób badanych. Szczególne wątpliwości dotyczyły możliwości ujawnienia
zebranych danych i ich wykorzystania przez władze uczelni lub agendy rządowe do
zidentyfikowania osób aktywnie działających. Podstawowym problemem etycznym była tu
niedoskonała anonimowość i tajność danych. Problem ten jest ściśle związany z tym, jakie są
prawa osób badanych i możliwości ochrony ich dóbr osobistych, co omówimy dalej.
¦ Wyrównywanie kosztów i zysków
Przedstawione wyżej trzy badania są dobrą ilustracją tezy, że problemy natury
etycznej mogą powstawać przed badaniem i po wykonaniu badań prowadzonych zarówno w
ramach nauk społecznych, jak i w innych naukach. Badania, w których jednym z elementów
postępowania jest oszukiwanie*, stają się coraz powszechniejsze, po-
* W oryginale: deception, co też można oddać jako okłamywanie osób badanych czy
utajnianie prawdziwego celu badania (przyp. red. nauk.).
6 Albert J. Reiss (1971), The Police and the Public, New Haven, Conn.: Yale
University Press; Albert J. Reiss (1968), Police Brutality: Answers to Key Questions,
„Transaction", 5, s. 10-19.
7 Por. Robert F. Boruch (1971), Education Research and the Confidentiality ofData: A
Case Study, „Sociology of Education", 44, s. 59-85; J. Walsh (1969), A.C.E. Study on
Campus Unrest: Questions for Bekavioral Scientists, „Science", 165, s. 1243-1245.
93
nieważ mają wiele zalet zarówno metodologicznych, jak i praktycznych. Badacze
często zbierają dane bez wiedzy osób badanych i czasami nie przestrzegają zasady ochrony i
zachowywania tajności danych.
W wielu wypadkach naukowcy stają w obliczu konfliktu pomiędzy dwoma prawami:
prawem badacza do prowadzenia badań i zdobywania wiedzy oraz prawem osób
uczestniczących w badaniach do samookreślenia, prywatności i zachowania godności.
Podjęcie decyzji o nieprowadzeniu badań, ponieważ naruszają one dobra osobiste osób
badanych, to poważne ograniczenie praw badaczy. Decyzja o kontynuowaniu badań pomimo
wątpliwej etycznie procedury (np. oszukiwania) wiąże się z pogwałceniem praw osób
badanych. Ten konflikt stanowi istotę dylematu etycznego osób prowadzących badania w
naukach społecznych.
Rozstrzygając ten dylemat, trudno dać całkowicie dobrą czy całkowicie złą
odpowiedź. Waga, jaką ludzie przypisują korzyściom i kosztom badań w naukach
społecznych, zależy w dużym stopniu od ich pochodzenia, przekonań i doświadczenia. I tak
na przykład podczas gdy polityczni analitycy podkreślają korzyści płynące z możliwości
dokładnego przewidywania efektów działań politycznych, obrońcy wolności zawsze
przestrzegają przed niebezpieczeństwem zagrożenia wolności jednostki, jej prywatności i
prawa do samookreślenia. Zdaniem tych ostatnich zawsze istnieją wątpliwości co do korzyści
badania, jeżeli istnieje choćby najmniejsze ryzyko pogwałcenia praw jednostki.
Planując badania naukowe, obowiązkiem badaczy jest dokładne zestawienie
potencjalnych korzyści czy zysków wynikających z badań z kosztami ponoszonymi przez
osoby badane. Koszty te mogą dotyczyć naruszenia cudzej godności, narażenia na
przeżywanie stanów lękowych, zawstydzenie, utratę zaufania do więzi społecznych między
ludźmi, utratę poczucia autonomii i prawa do samookreślenia oraz zaniżenie ich samooceny.
Dla naukowca korzyści z badań to potencjalne zwiększenie wiedzy teoretycznej i stosowanej,
dla osoby badanej zaś to rekompensata finansowa, satysfakcja płynąca z przyczynienia się do
postępu nauki i lepsze zrozumienie istoty badań naukowych.
Proces wyrównywania potencjalnych zysków i kosztów ma z konieczności charakter
subiektywny. Badacze tworzą czy wybierają procedury badawcze zgodnie z preferowanymi
przez siebie wartościami zawodowymi i osobistymi. Ponieważ nasze wybory powiązane są z
preferowanymi przez nas wartościami, naukowcy — tak jak wszyscy — powinni wziąć te
wartości pod uwagę, zanim podejmą decyzje dotyczące etyki postępowania. Co więcej,
decyzje etyczne muszą być w każdym wypadku podejmowane indywidualnie, ponieważ
proces podejmowania decyzji jest tak samo ważny jak rezultaty. Badacz etyczny „zna
standardy etyczne, dokładnie analizuje moralne alternatywy, dokonuje oceny każdej sytuacji i
bierze odpowiedzialność za swoje decyzje"8. W kontekście zestawiania kosztów i zysków
szczególnie ważne dla badaczy są dwa problemy: prawo osoby badanej do wyrażenia zgody
na podstawie posiadanych informacji oraz jej prawo do prywatności.
8 Eduard Diener, Rick Crandall (1978), Ethics in Social and Behavioral Research,
Chicago: Uni-versity of Chicago Press, s. 4-5.
94
H
¦ Wyrażanie zgody na podstawie posiadanych informacji
Naukowcy są zgodni co do tego, że badania z udziałem ludzi powinny zawsze być
poprzedzone wyrażeniem zgody przez uczestników badań na podstawie przedstawionych im
informacji. Wyrażenie zgody na podstawie posiadanych informacji jest absolutnie niezbędne
w sytuacjach, w których osoby badane są narażane na ryzyko lub utratę wartości osobistych.
Amerykański Department of Health and Humań Services nadzorujący badania przez siebie
finansowane wymaga uzyskania pisemnej zgody wszystkich uczestników badań, jeżeli mogą
się oni znaleźć w „ryzykownej" sytuacji9. Większe uniwersytety dobrowolnie zgodziły się na
przestrzeganie wytycznych rządowych przy recenzowaniu wszystkich prowadzonych przez
siebie badań, i to bez względu na to, czy były one finansowane przez rząd, czy też nie.
Polityka uzyskiwania zgody osób badanych na podstawie posiadanych przez nie informacji
nie wyklucza prowadzenia badań w obrębie nauk społecznych, które mogą zawierać elementy
ryzyka, wymaga natomiast uzyskiwania zgody potencjalnych uczestników badań. Jeżeli
osoby badane mogą zostać narażone na ból, zranienie fizyczne czy emocjonalne, naruszenie
prywatności, stres fizyczny lub psychologiczny czy wreszcie, jeżeli prosi sieje o czasowe
zrezygnowanie z własnej autonomii (np. w badaniach nad skutkami brania narkotyków), to
prawo do wyrażenia zgody musi być w pełni zagwarantowane. Osoby badane muszą
wiedzieć, że ich uczestnictwo w badaniach jest zupełnie dobrowolne oraz powinny wcześniej
otrzymać pełną informację o korzyściach, prawach, o ryzyku i niebezpieczeństwie związanym
z ich uczestniczeniem w badaniach.
Dlaczego wyrażanie zgody jest niezbędne
Idea prawa do wyrażania zgody na podstawie posiadanych informacji powstała
zarówno z akceptacji wartości kulturowych, jak i regulacji prawnych. Jej źródeł można
upatrywać w ogromnym znaczeniu, jakie przypisujemy wolności i samookreś-laniu. Jesteśmy
przekonani, że ludzie powinni być wolni i sami kierować własnym zachowaniem, a do
wolności jako wartości jesteśmy bardzo przywiązani. Zwolennicy takiego poglądu są nawet
skłonni twierdzić, podobnie jak John Locke, że wolność jest naturalnym prawem jednostki, a
ograniczenia wolności muszą zostać w pełni uzasadnione i zaakceptowane przez tych, których
dotyczą. Jeżeli osoby uczestniczące w badaniach mogą zostać narażone na ryzyko
ograniczenia wolności, to muszą się zgodzić na takie ograniczenie.
Co więcej, uzyskiwanie zgody ludzi na ich uczestniczenie w badaniach odzwierciedla
szacunek dla prawa jednostki do samookreślenia. Inną przyczyną, dla której tak ważne jest
wyrażenie zgody przez osoby badane, to przekonanie, że osoby dobrze poinformowane same
najlepiej będą siebie chronić. Ponieważ ludzie chronią swoje własne interesy, przeto
stworzenie im możliwości wolnego wyboru co do ich uczestniczenia w badaniach jest
najlepszym zabezpieczeniem przed korzystaniem z nadmiernie ryzykownych procedur
badawczych10. I wreszcie, patrząc z perspek-
11 U.S. Department of Health, Education and Walfare, Public Health Services and
National Institutes of Health (1971), The Institutional Guide to D.H.E.W. Policy on Protection
of Humań Subjects, DHEW Publication (NIH), December 2, s. 72-102. Por. także Arturo
Gandara (1978), Major Federal Regula-lions Governing Social Science Research, Santa
Monica, Calif.: Rand.
10 Diener. Crandall, Ethics in Social and Behavioral Research, s. 36.
95
tywy badacza, wyrażenie zgody na podstawie posiadanych informacji przenosi część
odpowiedzialności za negatywne skutki badań na osoby w nich uczestniczące. Wyrażenie
zgody zmniejsza także prawną odpowiedzialność badaczy, gdyż oznacza ona dobrowolny
udział osób badanych w prowadzonym badaniu.
Co znaczy prawo do wyrażania zgody
Chociaż zasada uzyskiwania zgody potencjalnych osób badanych na podstawie
posiadanych przez nie informacji zyskała sobie szeroką akceptację, to badacze nadal nie
stosują jej w sposób stały. Dzieje się tak dlatego, że nie zgadzają się oni co do znaczenia tej
zasady w konkretnych przypadkach. Pytania takie, jak: „Co to znaczy, że dana osoba jest
poinformowana?", „Skąd wiemy, że dana osoba badana rozumie przekazane jej informacje?",
, Jakie informacje należy przekazywać?", „Co zrobić, jeżeli jest rzeczą niezmiernie ważną,
aby osoby uczestniczące w badaniach nie dowiedziały się, czy są w grupie kontrolnej czy w
eksperymentalnej?", są w sposób oczywisty pytaniami trudnymi i nie ma na nie
jednoznacznej odpowiedzi. Można jednak — i jest to bardzo użyteczne — spróbować
określić, jaka jest intencja wprowadzenia zasady uzyskiwania zgody potencjalnych osób
badanych. Postaramy się to pokazać, omawiając istotę tej zasady i dyskutując niektóre
zagadnienia związane z jej stosowaniem.
Eduard Diener i Rick Crandall zdefiniowali pojęcie zgody na podstawie posiadanych
informacji następująco: jest to procedura, w trakcie której osoby podejmują decyzję, czy
uczestniczyć w badaniach po tym, jak zostaną poinformowane o faktach, które mogłyby
wpłynąć na ich decyzję"". Procedura ta obejmuje cztery aspekty: kompetencję, dobrowolność,
pełną informację oraz zrozumienie.
Kompetencja. Podstawowym założeniem leżącym u podstaw zasady wyrażania zgody
na podstawie posiadanych informacji jest założenie o kompetencji. Oznacza ono, że każda
decyzja podejmowana przez osobę odpowiedzialną i dojrzałą, której udostępniono wszystkie
niezbędne informacje jest decyzją właściwą. Ponieważ jednak wiele osób to osoby niedojrzałe
lub nieodpowiedzialne, więc podstawowy problem sprowadza się do tego, jak te osoby w
sposób systematyczny można identyfikować.
Ogólnie rzecz biorąc, ludzie nie są w stanie wyrazić zgody, jeżeli mają trudności
natury intelektualnej lub mają kłopoty z samookreśleniem się. Za osoby niekompetentne w
tym sensie generalnie uważa się małe dzieci, pacjentów znajdujących się w stanie śpiączki
oraz pacjentów psychiatrycznych. Jeżeli udział w badaniach (np. sprawdzenie skuteczności
postępowania terapeutycznego) może zakończyć się określonymi bezpośrednimi korzyściami
dla osób badanych, to warto rozważyć możliwość podjęcia decyzji przez ich opiekunów,
rodziców czy inne osoby odpowiedzialne za osoby traktowane tu jako niekompetentne. Jeżeli
w badaniach nie można oczekiwać bezpośrednich korzyści i istnieje pewne ryzyko ujemnych
skutków, to wiele osób sugeruje, że badania takie powinny być w całości zaka-
12
zane .
" Ibidem, s. 34.
12 Paul D. Reynolds (1979), Ethical Dilemmas and Social Science Research, San
Francisco: Jos-sey-Bass, s. 91.
96
124
nic wspólnego z naszymi szkolnymi osiągnięciami. Tuż przed egzaminem testowym
mogła się nam na przykład przydarzyć bezsenna noc lub też inne ważne sprawy nie pozwalały
nam się skupić w trakcie egzaminu. Istnieje duże prawdopodobieństwo, że nie ucząc się
dodatkowo i rozwiązując ten test po raz drugi, wypadlibyśmy znacznie lepiej. Generalnie
rzecz biorąc, zjawisko artefaktu regresji jest czynnikiem zakłócającym trafność badania
wtedy, kiedy postępowanie eksperymentalne może spowodować zmianę wyników tych osób,
które w pomiarze początkowym zmiennej zależnej uzyskały skrajne wyniki.
I tak na przykład korpusy pracy są uważane za skuteczny program przeznaczony dla
nie uczącej się młodzieży z wadami fizycznymi. Program ten zapewnia nauczanie
wyrównawcze, kształcenie zawodowe oraz opiekę medyczną. Jeżeli jednak rekrutacja
kandydatów na kurs byłaby dokonywana na podstawie skrajnie niskich wyników uzyskanych
w nierzetelnym teście, to może się zdarzyć, że osoby te w powtórnym testowaniu uzyskają
znacznie lepsze wyniki, mimo że w ich wypadku program ten okazał się nieskuteczny. Jest to
możliwe dlatego, że uzyskane niskie wyniki nie mogły być już gorsze, a nierzetelny test
wykazał poprawę. Istnieje zatem ryzyko, że stwierdzona poprawa funkcjonowania zostanie
błędnie przypisana efektom oddziaływania programu.
7. Interakcje z selekcją. Wiele czynników związanych z planem badawczym,
wpływających zakłócająco na trafność wewnętrzną badań eksperymentalnych może wchodzić
w interakcję z czynnikiem selekcji i dodatkowo zmniejszać trafność badań
eksperymentalnych. Do najczęściej wymienianych czynników należą czynnik interakcji
selekcji z historią i dojrzewaniem.
Czynnik interakcji selekcji z historią wpływa zakłócająco na trafność planu wtedy,
gdy grupa eksperymentalna i grupa kontrolna zostały wybrane z różnych środowisk. Tym
samym środowisko może wpływać na sposób reagowania osób badanych w trakcie
postępowania eksperymentalnego. Przypuśćmy, że chcemy sprawdzić skuteczność
oddziaływania programu szkolenia pokazującego bezrobotnym, jak szukać pracy. Uczestnicy
tego programu (grupa eksperymentalna) zostali niestarannie dobrani. Pochodzili z rejonów, w
których zamknięto kilkanaście zakładów przemysłowych w momencie zakończenia
programu. W efekcie jego uczestnicy mieli ogromne trudności ze znalezieniem pracy. Mogło
się zatem wydawać, że program ten nie przyniósł żadnych skutków, a tymczasem to
interakcja czynnika selekcji ze specyficznymi warunkami ekonomicznymi w regionie, z
którego pochodziły osoby badane, była przyczyną takich wyników.
Interakcja czynnika selekcji z dojrzewaniem pojawia się wtedy, kiedy grupa
eksperymentalna i grupa kontrolna podlegają procesowi dojrzewania w różnym tempie.
Załóżmy, że w pomiarze początkowym i w pomiarze końcowym porównujemy ze sobą
rozwój poznawczy kobiet i mężczyzn. Może się okazać, że kobiety dojrzewają szybciej niż
mężczyźni i dlatego w pomiarze końcowym uzyskają lepsze wyniki.
Procedury kontroli
Czynniki związane z planem i pojawiające się poza planem, które wpływają
zakłócająco na trafność wewnętrzną wnioskowania o zależnościach przyczynowo-skut-
kowych, można kontrolować za pomocą różnych procedur. Naukowcy korzystają
125
z dwóch metod kontroli czynników zewnętrznych w stosunku do planu badawczego.
Po pierwsze, stosują dobór wiązany pozwalający kontrolować zmienne znane badaczowi
przed rozpoczęciem postępowania eksperymentalnego. Po drugie, stosują randomizację, która
pomaga wyrównać działanie czynników nie dających się z góry ustalić. Stosowanie grupy
kontrolnej pomaga z kolei wyrównać działanie czynników związanych z planem badawczym.
Dobór wiązany jest sposobem wyrównywania grupy eksperymentalnej i grupy
kontrolnej ze względu na czynniki nie związane z planem badawczym, o których można
założyć, że mają związek z hipotezą badawczą. W celu wyrównania grupy eksperymentalnej i
grupy kontrolnej można zastosować dwie metody: dopasowywanie dokładne i
dopasowywanie rozkładów częstości. Dopasowywanie dokładne (znane również jako
dopasowywanie parami) polega na przyporządkowywaniu każdej osobie z grupy
eksperymentalnej jednej osoby z grupy kontrolnej w taki sposób, aby posiadały one
identyczne wyróżnione cechy. Kontrolując na przykład efekt wieku, powinniśmy zapewnić,
aby każdej osobie wpadającej do określonego przedziału wiekowego w jednej grupie
odpowiadała osoba wpadająca do identycznego przedziału wiekowego w drugiej grupie, jak
przedstawiono to na rycinie 5.1. Dopasowując osoby badane ze względu na czynniki
zewnętrzne w stosunku do planu, badacz może wyciągać wnioski, że zmienne, ze względu na
które grupy zostały dopasowane, nie są przyczyną stwierdzanych różnic pomiędzy grupą
eksperymentalną i grupą kontrolną.
Główną wadą tej metody jest trudność w dopasowywaniu osób, gdy liczba czynników
jest duża. Jeżeli chcemy kontrolować wiek, płeć, rasę i wykształcenie, to dla każdego Azjaty,
mężczyzny w wieku 30 lat z wykształceniem wyższym w grupie eksperymentalnej musimy
znaleźć osobę o takiej samej kombinacji cech, która wejdzie do grupy kontrolnej. Dlatego też
w sytuacji, w której chcemy kontrolować wiele cech, trudno znaleźć dopasowane do siebie
pary. Badacze stosujący metodę dopasowania dokładnego często tracą około 90%
przypadków, dla których nie można znaleźć odpowiadającej im pary.
wiek osób z grupy eksperymentalnej
00 0
wiek osób z grupy kontrolnej
00 ©
0000 ©000
©n© © r, ©
(V) (m)
wiek 20-24 lata: 3 osoby wiek 20-24 lata: 3
osoby
wiek 25-29 lat: 2 osoby wiek 25-29 lat: 2
osoby
wiek 30-34 lata: 5 osób wiek 30-34 lata: 5
osób
Ryc. 5.1. Dopasowanie dokładne
126
Alternatywną i bardzo skuteczną metodą dopasowywania jest odwołanie się do
rozkładu częstości. Dzięki tej metodzie grupa eksperymentalna i grupa kontrolna są do siebie
podobne niezależnie pod względem każdej istotnej zmiennej, anie pod względem ich
określonej kombinacji. Dlatego też, zamiast dobierać osoby badane na zasadzie osoba do
osoby, dwie grupy dopasowuje się do siebie ze względu na podstawowe charakterystyki. I
tak, jeżeli interesuje nas dopasowanie ze względu na wiek, to średni wiek w jednej grupie
powinien odpowiadać średniej wieku w grupie drugiej. Jeżeli kontrolujemy płeć, to należy się
upewnić, że w obu grupach jest taka sama proporcja kobiet i mężczyzn. Jak pokazano na
rycinie 5.2, dwie grupy dopasowano do siebie niezależnie ze względu na każdą zmienną nie
związaną z planem. Chociaż dopasowanie ze względu na rozkład częstości jest mniej
precyzyjne, to bywa o wiele łatwiejsze do zrealizowania niż dopasowanie dokładne. Pozwala
też badaczowi kontrolować kilka czynników, bez niebezpieczeństwa utraty dużej liczby
przypadków.
Podstawowy problem związany ze stosowaniem metody dopasowywania jako formy
kontroli wynika z tego, że badacz zazwyczaj nie wie, które z wszystkich ważnych czynników
są najbardziej istotne z punktu widzenia wyjaśniania związku pomiędzy zmienną niezależną i
zmnienną zależną. Co więcej, badacz nigdy nie jest pewien, czy uwzględnił wszystkie istotne
czynniki.
Randomizacja. Dopasowywanie jest metodą pozwalającą kontrolować ograniczoną
liczbę wcześniej zdefiniowanych czynników zewnętrznych w stosunku do planu. Jeżeli
jednak możliwe byłoby wyeliminowanie efektów działania nawet wszystkich zdefiniowanych
czynników, to badacz i tak nigdy nie byłby pewien, czy udałoby mu się zidentyfikować
wszystkie czynniki. Te czynniki, których badacz nie byłby świadom, mogłyby się stać
powodem błędnych wniosków o zależnościach przyczy-nowo-skutkowych. Problem ten
można ominąć, stosując inną procedurę przyporządkowywania osób badanych do grupy
eksperymentalnej i grupy kontrolnej, a mianowicie procedurę randomizacji. Randomizację
można zrealizować, rzucając monetą,
wiek i płeć osób z grupy eksperymentalnej wieki i płeć
osób z grupy kontrolnej
© ® © © @ ©
©©©© ©©©©
©^© 0©®
przeciętny wiek 28,1 lat kobiety: 60% mężczyźni: 40% F — kobiety M —
mężczyźni przeciętny wiek 28,0 lat kobiety: 60% mężczyźni: 40%
Ryc. 5.2. Dopasowanie ze względu na rozkład częstości
127
posługując się tablicami liczb losowych czy wykorzystując jakąkolwiek inną metodę
gwarantującą, że każda osoba będzie miała jednakowe szanse znalezienia się w grupie
eksperymentalnej lub w grupie kontrolnej.
Przypuśćmy, że badacz chce sprawdzić hipotezę o tym, że udział pracowników w
procesie podejmowania decyzji dotyczących ich miejsca pracy wpływa na proces produkcji.
Pracownicy zostali podzieleni na grupę eksperymentalną i kontrolną. Osobom z grupy
eksperymentalnej umożliwiono udział w decyzjach dotyczących planu pracy i jej
organizowania. Poziom produkcji w obu grupach mierzono na początku i na końcu
eksperymentu. Celem badania było stwierdzenie, czy pracownicy, którzy uczestniczą w
procesie decyzyjnym, wytwarzają istotnie więcej w porównaniu z pracownikami z grupy
kontrolnej. Poziom produkcji jednakże jest wyznaczony licznymi czynnikami innymi niż
udział w procesie decyzyjnym, tj. innymi niż czynnik bezpośrednio włączony do badania.
Czynnikami wyjaśniającymi obserwowane różnice mogą być czynniki charakteryzujące
jednostkę, takie jak: wiek, sprawność fizyczna, inteligencja czy motywacja. Być może osoby
najbardziej wydajne to osoby o wysokiej motywacji, większej inteligencji, bardziej sprawne
fizycznie i młodsze. Brak kontrolowania sposobu przydzielania pracowników do grup może
spowodować, że do grupy eksperymentalnej zgłoszą się na ochotnika osoby spośród
młodszych pracowników, o największej motywacji, bardziej inteligentne i sprawne fizycznie.
A to może stanowić wyjaśnienie zwiększonego poziomu produkcji.
Jednym ze sposobów wykluczenia działania tych zmiennych jest dobór parami (por.
ryc. 5.1). Innym sposobem jest randomizacja, czyli losowy przydział pracowników do grupy
eksperymentalnej i kontrolnej, przeprowadzony za pomocą rzutu monetą lub tablicy liczb
losowych (por. dodatek D). Rzut monetą jest prostą metodą — wypadnięcie orła to
przydzielenie do jednej grupy, wypadnięcie reszki —do drugiej. Tablicą liczb losowych
można się natomiast posługiwać z wielu powodów i na wiele różnych sposobów — na stronie
209 opisujemy, w jaki sposób należy z takich tablic korzystać. Procedura randomizacji
zapewnia, że motywacja, inteligencja, sprawność fizyczna i przeciętny wiek będą
wykazywały podobne rozkłady w dwóch grupach. W efekcie każdą różnicę w poziomie
produkcji pomiędzy grupami będzie można wyjaśnić tym, że pracownicy z grupy
eksperymentalnej brali udział w procesie decyzyjnym. Innymi słowy, randomizacja znosi
efekty oddziały-wania stałego błędu spowodowanego czynnikami zewnętrznymi w stosunku
do planu eksperymentalnego, które mogą być powiązane albo ze zmienną zależną (poziom
produkcji), albo ze zmienną niezależną (udział w procesie decyzyjnym). Korzyści tej metody
polegają na tym, że pozwala ona na jednoczesną kontrolę wielu czynników nawet wtedy, gdy
badacz nie jest świadomy ich oddziaływania. Stosując tę metodę, badacz może wyrównać
grupę eksperymentalną i kontrolną pod kątem wszystkich wyjściowych różnic pomiędzy
nimi.
Grupa kontrolna. Tworząc grupę kontrolną, która nie jest poddawana oddziaływaniom
czynnika eksperymentalnego, badacze kontrolują czynniki związane z planem
eksperymentalnym. W sytuacji idealnej grupa eksperymentalna i grupa kontrolna powinny
zostać wybrane w sposób losowy lub dopasowane w taki sposób, aby obie miały dokładnie
takie same cechy charakterystyczne. Obie grupy są poddawane również identycznym
oddziaływaniom w trakcie eksperymentu, z wyjątkiem różnego oddziaływania zmiennej
niezależnej. W efekcie cechy sytuacji eksperymentalnej
128
czy zdarzenia zewnętrzne zachodzące w czasie trwania eksperymentu będą wpływać
w jednakowy sposób na obie grupy i nie będą mylnie utożsamiane z efektem oddziaływania
zmiennej niezależnej.
Tworząc grupę kontrolną, badacz kontroluje większość czynników związanych z
planem badawczym, które mogłyby wpłynąć zakłócająco na trafność eksperymentu. Czynnik
historii nie stanowi konkurencyjnej hipotezy, ponieważ te same wydarzenia zachodzące w
czasie eksperymentu wpływają zarówno na grupę eksperymentalną, jak i na grupę kontrolną.
Czynnik dojrzewania jest również neutralizowany, ponieważ obie grupy przechodzą te same
zmiany. Stworzenie grupy kontrolnej nie chroni jednak przed utratą osób badanych. Może
bowiem zdarzyć się tak, że z jednej grupy wypadnie więcej przypadków niż z drugiej, co
sprawi, że wyniki eksperymentu będą stronnicze. Procedurą dopuszczalną jest włączanie
przez badaczy do końcowej próby jedynie tych przypadków, dla których zebrano komplet
danych, dostarczenie informacji o liczbie utraconych osób badanych i omówienie
konsekwencji tego faktu. Stosowanie grupy kontrolnej pozwala badaczom również na
uniknięcie efektu oddziaływania zmian w narzędziu pomiarowym. Jeżeli zmiana wyników w
pomiarze początkowym i końcowym została spowodowana przez brak rzetelności narzędzia
pomiarowego, to ujawni się to w jednakowy sposób w obu grupach. Metoda ta jest jednakże
rozwiązaniem problemu zmian w narzędziu pomiarowym jedynie wtedy, kiedy warunki
testowania w obu grupach są identyczne. Posługiwanie się grupą kontrolną jest również
odpowiedzią na problem testowania. Ewentualny, uwrażliwiający wpływ procedury
pomiarowej dotyczy obu grup i nie jest przyczyną błędnych interpretacji.
Posługiwanie się grupą kontrolną jest również pomocne przy wyrównywaniu efektów
działania tych czynników, które wchodzą w interakcje z czynnikiem selekcji (np. selekcja-
dojrzewanie, selekcja-historia czy podobne interakcje), jednak jedynie wtedy, gdy badacz
stosuje również inne metody kontroli czynników zewnętrznych w stosunku do planu
eksperymentalnego, takie jak dobór wiązany czy rando-mizację. Metody te gwarantują, że
grupa, która zostanie potraktowana jako grupa kontrolna, będzie miała te same właściwości i
obie grupy będą obowiązywać identyczne warunki w trakcie eksperymentu.
Uogólnianie: trafność zewnętrzna
Trafność zewnętrzna stanowi zasadniczy problem w badaniach społecznych. Można
jednakże postawić inne istotne pytanie dotyczące zakresu, w jakim wyniki badań można
uogólniać na większe zbiorowości osób i przenosić na inne warunki społeczne czy polityczne.
Większość badań koncentruje się nie tylko na analizowaniu wpływu jednej zmiennej na drugą
w określonych warunkach, lecz także stawia pytanie o to, jakie jest to oddziaływanie w
innych warunkach społecznych i czy da sieje przenieść na większe zbiorowości osób.
Odpowiedź na to pytanie mieści się w pojęciu trafności zewnętrznej planu badawczego.
Podstawowymi zagadnieniami związanymi z trafnością zewnętrzną są problemy
reprezentatywności próby oraz uwrażliwiający wpływ warunków badania.
Reprezentatywność próby. Aby zapewnić trafność zewnętrzną badania, należy zadbać
o to, aby cechy charakteryzujące osoby badane odzwierciedlały cechy charakteryzujące
badaną populację. Chociaż procedura randomizacji gwarantuje trafność wewnętrzną planu
badawczego, to nie gwarantuje całkowicie, że badana próba bę-
129
dzie reprezentatywna dla interesującej badacza populacji. Może bowiem zdarzyć się
tak, że wyniki, które są wewnętrznie trafne, mogą być specyficzne dla określonej grupy osób,
które wzięły udział w badaniu. Taki efekt może się pojawić wtedy, kiedy mamy trudności z
doborem osób badanych. Rozważmy przykład badań eksperymentalnych prowadzonych na
grupie studentów college'u, dobrze zaplanowanych, jednak opartych na doborze ochotniczym.
Badacz nie może przyjąć, że ta grupa jest reprezentatywna dla całej populacji studentów. Aby
można było uogólnić wyniki poza ograniczony zakres konkretnego badania, badacz musi
starannie wybrać próbę, posługując się taką metodą doboru, która zapewnia
reprezentatywność. Metody oparte na rachunku prawdopodobieństwa, takie jak dobór losowy,
pozwalają dokonywać generalizacji na większe, wyraźnie zdefiniowane populacje (por.
rozdział 8). Od strony teoretycznej zarówno grupa eksperymentalna, jak i grupa kontrolna
powinny stanowić próbę wylosowaną z populacji. W praktyce jednakże tworzenie próby
losowej dla potrzeb eksperymentu napotyka trudności takie jak wysokie koszty i dużą liczbę
osób, które odmówiły współpracy.
¦ Podsumowanie
1. Plan badawczy to program sterujący badaczem w procesie zbierania, analizowania i
interpretowania wyników. Umożliwia on wyciąganie wniosków przyczy-nowo-skutkowych i
określa zakres możliwych generalizacji.
2. Klasyczny plan badawczy zakłada cztery operacje: porównywanie, manipulowanie,
kontrolowanie i uogólnianie. Porównywanie to operacja pozwalająca badaczowi
zademonstrować, że zmienna niezależna i zmienna zależna są ze sobą powiązane.
Manipulowanie związane jest z określonymi formami kontroli dotyczącymi zainicjowania
działania zmiennej niezależnej, co pozwala badaczowi na określenie czasowego
uporządkowania zmiennych. Operacja kontrolowania pozwala badaczowi na wyeliminowanie
innych czynników, które mogłyby dostarczyć podstaw alternatywnego wyjaśnienia związku
stwierdzonego pomiędzy zmienną niezależną i zmienną zależną. Czwarta operacja,
uogólnianie, pozwala na uogólnienie zebranych wyników na rzeczywiste warunki lub
populacje, które są przez badacza analizowane.
3. Proces kontrolowania jest związany z trafnością wewnętrzną planu
eksperymentalnego. Aby zapewnić trafność wewnętrzną, badacz musi wyeliminować
konkurencyjne wyjaśnienia przyczyn zmian wartości zmiennej zależnej. Czynniki zakłócające
trafność wewnętrzną mogą mieć charakter wewnętrzny lub zewnętrzny w stosunku do
operacji eksperymentalnej. Czynniki zewnętrzne nazywane są czynnikami selekcji. Powodują
stronniczość wynikającą z niejednakowej rekrutacji osób badanych do grupy
eksperymentalnej i grupy kontrolnej. Czynniki związane z planem eksperymentalnym
(wewnętrzne) to: historia, dojrzewanie, utrata osób badanych, instrumentacja, testowanie,
zjawisko artefaktu regresji i czynniki, które wchodzą w interakcję z czynnikiem selekcji
spowodowanym różnym przyporządkowaniem osób badanych do grupy eksperymentalnej i
grupy kontrolnej.
4. Aby przeciwdziałać efektom działania czynników zewnętrznych w stosunku do
planu, stosuje się dwie metody kontroli. Dobór wiązany pozwala badaczom na kontrolowanie
zmiennych, które są im znane przed rozpoczęciem operacji badawczej, a randomizacja
umożliwia wyrównanie efektów działania zarówno czynników przewidywalnych, jak i
nieprzewidywalnych. Czynniki zewnętrzne w stosunku do planu są kontrolowane przez
wprowadzenie grupy kontrolnej.
5. Uogólnianie jest związane z problemem trafności zewnętrznej planu
eksperymentalnego. Dotyczy ono zakresu, w jakim wyniki badań można przenosić na większe
populacje i inne warunki.
6. Plany badań eksperymentalnych są najsilniejszymi modelami logicznego
wnioskowania, ponieważ umożliwiają manipulowanie zmiennymi niezależnymi i stwarzają
warunki maksymalnego kontrolowania czynników zewnętrznych i wewnętrznych w stosunku
do planu. Dwie odmiany planu klasycznego to: czterogru-powy plan Solomona i plan z grupą
kontrolną i tylko z pomiarem końcowym. Inne plany pozwalają na badanie skutków
rozciągniętych w czasie, a plany czynnikowe umożliwiają badaczom analizowanie skutków
więcej niż jednej zmiennej niezależnej. Korzyści planów czynnikowych wynikają stąd, że
zwiększają one trafność zewnętrzną badania i pozwalają badaczowi na ocenę interakcji
pomiędzy zmiennymi niezależnymi.
139
¦ Podstawowe terminy
czynniki poza planem 122
czynniki związane z planem 123
dobór wiązany 126
dojrzewanie 123
grupa eksperymentalna 116
grupa kontrolna 116, 128
historia 123
instrumentacja 124
klasyczny plan eksperymentalny 116
kontrolowanie 122
kowariancja 119
¦ Pytania sprawdzajqce
1. Opisz elementy klasycznego planu badawczego.
2. Jakie są różnice pomiędzy zewnętrzną a wewnętrzną trafnością planu badawczego?
3. Jakie operacje są zaangażowane w procesie stwierdzania przyczynowości?
4. Wymień i opisz różne metody kontrolowania możliwych zakłóceń trafności
wewnętrznej planu badawczego.
5. Jakie są trzy najważniejsze odmiany klasycznego planu badawczego? Podaj ich
zalety i wady.
¦ Literatura dodatkowa
Brzeziński J. (1997), Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd.
Nauk. PWN.
Karpiński J. (1994), Przyczynowość w badaniach socjologicznych, Warszawa: PWN.
Mayntz R., Holm K., Hubner P. (1985), Wprowadzenie do metod socjologii
empirycznej, Warszawa:
PWN. Nowak S. (1985), Metodologia badań społecznych, Warszawa: PWN. Sułek A.
(1979), Eksperyment w badaniach społecznych, Warszawa: PWN.
manipulowanie 121 plan badawczy 114 plan czynnikowy 137 pomiar końcowy 116
pomiar początkowy 116 porównywanie 121 randomizacja 127 trafność wewnętrzna 122
trafność zewnętrzna 129 utrata osób badanych 124 zjawisko artefaktu regresji 124
Rozdział 6
Plany badawcze: plany badań przekrojowych i plany quasi-eksperymentalne
Rodzaje zmiennych i plany badawcze 143 Plany przekrojowe 145
Plany quasi-eksperymentalne 147
Plany z grupami kontrastowymi 147
Plany z zaplanowanym zróżnicowaniem 150
Badania panelowe i szeregi czasowe 153
Plany szeregów czasowych z grupą kontrolną 158
Plany łączone 159
Plany preeksperymentalne 162
Jednorazowa analiza przypadku 162
Porównanie planów badawczych 164 Podsumowanie 166 Podstawowe terminy
167 Pytania sprawdzające 167 Literatura dodatkowa 167
Czy mężczyźni są lepszymi lekarzami niż kobiety? Zdaniem badaczy jest tak, jeżeli I
przyjmiemy, że wyniki egzaminu państwowego z medycyny są trafnym wskaźnikiem I
sukcesu w uprawianiu zawodu lekarza1. Egzamin ten, zdawany przez studentów w USA dwa
lata przed uzyskaniem dyplomu, składa się z 900 do 1000 pytań dotyczących siedmiu różnych
przedmiotów, istotnych z punktu widzenia wiedzy lekarza. Ponieważ wyniki tego egzaminu
odgrywają ważną rolę w przyszłej I karierze studentów i są warunkiem uzyskania miejsca
rezydenta w szpitalu, dlatego test ten powinien być zarówno trafny, jak i niestronniczy. Aby
sprawdzić, czy tak jest, badacze — w czerwcu 1986, 1987 i 1988 roku — podzielili
wszystkich studentów rozwiązujących test według rasy i pochodzenia etnicznego. Ponieważ
nie można było tu manipulować zmienną niezależną — płcią, rasą czy pochodzeniem
etnicznym — nie można było również zastosować planu eksperymentalnego, aby
odpowiedzieć na postawione pytania. Dlatego też badacze przeprowadzili badania
przekrojowe i stwierdzili, że średnie wyniki białych studentów były wyższe od średnich
wyników studentów pochodzenia azjatyckiego, hiszpańskiego i murzyńskiego. We
wszystkich grupach kobiety uzyskiwały wyniki niższe niż mężczyźni. Ponieważ przez
ostatnie dwadzieścia lat szkoły medyczne preferowały przyjmowanie kobiet oraz
przedstawicieli mniejszości narodowych i w niektórych przypadkach obniżały nawet kryteria
przyjęcia dla osób z tych grup, dlatego też sprawdzono, jakie było przygotowanie studentów
do studiów medycznych. Stwierdzono, że wcześniejsze doświadczenia i sukcesy akademickie
wyjaśniają dużą część zróżnicowania wyników pomiędzy studentami białymi a studentami
pochodzenia hiszpańskiego i murzyńskiego, ale nie wyjaśniają niższych wyników u Azjatów i
kobiet.
Zdaniem autorów przyczyną tego, że na egzaminie Azjaci wypadają gorzej, niż można
by oczekiwać, mogą być różnice kulturowe. Twierdzą również, że wykładowcy nie motywują
kobiet do osiągania wysokich wyników w dziedzinach mierzonych przez test. Wyniki
otrzymane w tym badaniu pozwoliły zarówno na przygotowanie dodatkowych miar
posiadanej wiedzy po to, aby lepiej przygotowywać studentów mniejszości narodowych do
egzaminu państwowego, jak i na zaproponowanie dalszych badań sprawdzających, czy na
podstawie wyników egzaminu można dokonywać trafnych prognoz co do jakości pracy w
zawodzie lekarza.
Tematem tego rozdziału są plany alternatywne w stosunku do planów
eksperymentalnych, takie jak opisany wyżej.
Chociaż plany eksperymentalne omówione w rozdziale 5 są najsilniejszymi modelami
logicznego wnioskowania, to wiele zjawisk interesujących badaczy w naukach społecznych
nie poddaje się bezpośredniemu eksperymentowaniu. W tym rozdziale przedstawimy plany
badawcze, które są powszechnie stosowane
1 Beth Dawson, Carrolyn K. Iwamoto, Linette Postell Ross, Ronald J. Nungester,
David B. Swan-son, Robert L. Volle (1994), Performance on the National Board of Medical
Examiners Part 1 Exami-nation by Men and Women of Different Race and Ethnicity, „Journal
of the American Medical Associa-tion", 272.9, s. 674-679.
142
w naukach społecznych. Na początku omówimy związki pomiędzy różnymi typami
badanych zmiennych a planami badawczymi, które stosujemy. Następnie przedstawimy plany
badań przekrojowych, plany quasi-eksperymentalne i preeksperymen-talne. Przeanalizujemy
też plany łączone, będące kombinacją różnych planów oraz dokonamy porównania
wszystkich rodzajów planów.
Eksperyment kontrolowany pozwala na jednoznaczne określenie związków przy-
czynowo-skutkowych pomiędzy dwiema lub więcej zmiennymi. Jednakże, jak widzieliśmy w
rozdziale 5, naukowcy nie zawsze mogą kontrolować badane zmienne. Co więcej, rozważania
natury społecznej, politycznej i etycznej mogą zniechęcać badaczy do przeprowadzania
kontrolowanych eksperymentów. Chociaż można zaindukować strach w sytuacji
laboratoryjnej i eksperymentalnie manipulować osobami badanymi, to pytanie o to, czy mamy
prawo to czynić, nawet w celach naukowych, jest niezwykle ważne. Ogólnie rzecz biorąc, nie
można stosować planów eksperymentalnych wtedy, kiedy nie można spełnić warunku
randomizacji i kontroli eksperymentalnej.
Plany, które omawiamy w tym rozdziale, stanowią alternatywę klasycznego planu
eksperymentalnego. Każdy z tych planów ma swoje zalety i wady, ale wszystkie umożliwiają
badanie zmiennych w realnych warunkach życiowych. Zanim jednak przedstawimy kolejne
plany, powinniśmy przeanalizować rodzaje zmiennych zazwyczaj badanych przez
naukowców.
I Rodzaje zmiennych i plany badawcze
W rozdziale 5 omówiliśmy przykłady badań, w których badacz mógł manipulować
zmiennymi niezależnymi. Niestety, wieloma zmiennymi, które są badane w ramach nauk
społecznych, nie da się manipulować. Nie możemy manipulować rasą ani płcią osób
badanych, jak też nie możemy sprawić, aby były one młodsze lub starsze wtedy, kiedy
chcemy przeanalizować wpływ, jaki mogą mieć te zmienne na jakąś zmienną zależną. W
naukach społecznych badamy zazwyczaj związek typu właś-ciwość-dyspozycja.
Związek typu właściwość-dyspozycja to związek pomiędzy jakąś cechą
charakteryzującą osoby (właściwością) a odpowiadającymi jej postawami czy skłonnościami
(dyspozycjami). Takim związkiem jest na przykład związek pomiędzy klasą społeczną a
postawą taką jak polityczna tolerancja czy związek pomiędzy rasą a uprzedzeniami. Z kolei w
badaniach określanych najczęściej jako eksperymentalne analizuje się związki typu bodziec-
reakcja. Cechą charakterystyczną związku typu bodziec-reakcja jest możliwość
manipulowania zmienną niezależną. Badacz może na przykład zaindukować stres lub poddać
osoby badane działaniu kampanii reklamowej. Zmienną zależną będzie tu zatem bezpośrednia
reakcja na zmienną niezależną. Może to być określona reakcja psychologiczna na stres czy
wzrost konsumpcji, jaki nastąpił po kampanii reklamowej.
Tak jak związki typu bodziec-reakcja dobrze poddają się badaniom
eksperymentalnym, tak związki typu właściowość-dyspozycja raczej nie. Dzieje się tak
dlatego, ponieważ te dwa typy związków różnią się przerwą czasową, stopniem swoistości,
naturą porównywanych grup i sekwencją czasową zdarzeń2.
Morris Rosenberg (1968), The Logic of Survey Analysis, New York: Basic Books,
rozdz. 1.
143
1. Przerwa czasowa. W związkach typu bodziec-reakcja przerwa czasowa pomiędzy
wprowadzeniem zmiennej niezależnej a reakcją na tę zmienną jest stosunkowo krótka. Z kolei
w związkach typu właściowość-dyspozycja przerwa czasów może być znacznie dłuższa.
Badacz może na przykład zarejestrować reakcję na 1 czy kampanię reklamową w stosunkowo
krótkim czasie, jednak efekty oddziaływ nia właściwości takich jak wiek, rasa czy klasa
społeczna ujawnią się dopiero dłuższym czasie.
2. Stopień swoistości. Druga różnica dotyczy stopnia swoistości zmiennej ni zależnej.
Bodziec można zazwyczaj łatwo wyizolować i zidentyfikować, a skut działania tego bodźca
można wyraźnie sprecyzować. Natomiast właściwości tak jak klasa społeczna mają charakter
ogólny i zawierają wiele innych czynników, ta kich jak na przykład prestiż, zawód i
wykształcenie. Każdy z tych czynników wy wiera wpływ na zmienną zależną. Dlatego też,
badając ten rodzaj zmiennych, moż na mieć trudności w określeniu właściwych przyczyn oraz
eksperymentalnym i manipulowaniu.
3. Natura porównywanych grup. Badając związek typu bodziec—reakcja, dacz może
porównywać ze sobą dwie podobne grupy. W jednej z tych grup wpr wadzą się bodziec (to
grupa eksperymentalna), a w drugiej bodźca nie ma (to gru kontrolna). Można też porównać
tę samą grupę przed i po zadziałaniu bodźca. Ba dając natomiast związek typu właściwość-
dyspozycja, porównanie typu przed i jest niemożliwe, zwłaszcza w wypadku właściwości,
które się nie zmieniają, np. płeć czy rasa. Trudno też przyjąć, że dwie grupy różniące się pod
względem określonych właściwości są porównywalne pod każdym innym względem. I
rzeczywiście, niższa klasa społeczna i wyższa klasa społeczna różnią się nie tylko ze względt
na klasę, lecz również ze względu na wiele innych wymiarów takich, jak: wartości, orientacje,
sposób wychowywania dzieci, zachowania wyborcze itd. Stosując plan przekrojowy lub
quasi-eksperymentalny, badacze raczej porównują tę samą grupę zamiast porównywania
grupy eksperymentalnej i kontrolnej, wprowadzając od" więdnie metody statystyczne w
miejsce procedury manipulacji i kontroli.
4. Sekwencja czasowa zdarzeń. W przypadku relacji typu bodziec-reakcja kierunek
zależności przyczynowej jest raczej oczywisty, zwłaszcza jeżeli zastosowany plan badawczy
umożliwiał przeprowadzenie porównania typu przed i po zadziałaniu bodźca. W wypadku
niektórych własności ustalenie sekwencji czasowej staje się jednak trudne. Kiedy właściwości
mają charakter stały, jak np. płeć czy rasa, badacz ustala kierunek związku przyczynowo-
skutkowego, odwołując się do faktu, że zmienne te mogą być jedynie czynnikami
determinującymi, a nie wywołanymi skutkami. Na przykład płeć może wpływać na postawy
w stosunku do kary śmierci, ale nie odwrotnie. Jednakże właściwości, które są nabywane, jak
na przykład inteligencja, wykształcenie czy orientacja polityczna, mogą zarówno same
determinować, jak i być determinowane przez inne czynniki, co sprawia, że trudno jest w tej
sytuacji ustalić porządek czasowy.
W wypadku relacji typu właściwość-dyspozycja, z uwagi na wymienione cztery
trudności, badacze nie mogą spełnić — w ścisłym eksperymentalnym sensie — wymogów
planu badawczego, tj. porównywania, manipulowania i kontrolowania. Nie wszystkie
zjawiska, które są interesujące dla badaczy społecznych, można poddać manipulacji w czasie
eksperymentu. Co więcej, nie zawsze można losowo przy-
144
porządkować analizowane obiekty do grupy eksperymentalnej i grupy kontrolnej, a
wiele procesów społecznych, politycznych i ekonomicznych można badać jedynie po upływie
dłuższego czasu. Mimo to naukowcy starają się jak najbardziej zbliżyć do modelu
eksperymentalnego, stosując wyspecjalizowane techniki analizowania danych
rekompensujących ograniczenia związane z badaniem relacji typu właści-wość-dyspozycja.
(Techniki te omawiamy w rozdziale 17).
I Plany przekrojowe
W badaniach prowadzonych w ramach nauk społecznych najbardziej
rozpowszechnione są plany przekrojowe. Plany te są często utożsamiane z badaniami
sondażowymi. W naukach społecznych jest to bardzo popularna metoda zbierania danych. W
badaniach sondażowych (omówionych dokładnie w rozdziale 10 i 11) osoby badane dobrane
losowo odpowiadają na pytania o swoje pochodzenie, doświadczenie i postawy. W
większości wypadków badania sondażowe dostarczają danych będących podstawą określania
związku pomiędzy właściwościami a dyspozycjami. 1 chociaż bardzo często badacze starają
się określić relacje przyczynowo-skutkowe pomiędzy właściwościami a dyspozycjami, to
celem wielu badań — zanim zostanie podjęty trud określenia zależności przyczynowo-
skutkowych — jest po prostu opis zależności pomiędzy zmiennymi.
Przykładem typowego problemu, który można zbadać, stosując plan przekrojowy, jest
pytanie o akceptację elektrowni jądrowych. Postawy wobec elektrowni jądrowych mają
znaczące konsekwencje dla środowiska i bezpieczeństwa ludności3. I tak, w wielu badaniach
okazało się, że istnieje duże zróżnicowanie postaw wobec elektrowni jądrowych ze względu
na płeć: kobiety przyjmują postawę mniej akceptującą niż mężczyźni.
Badanie z wykorzystaniem planu przekrojowego rozpoczyna się od utworzenia
losowej, reprezentatywnej próby mężczyzn i kobiet. Następnie osobom badanym zadaje się
liczne pytania dotyczące ich postaw wobec elektrowni jądrowych. Ze względu na naturę
badanych zmiennych — zwłaszcza zmiennej niezależnej, tj. płci — taki problem badawczy
można sklasyfikować jako problem typu właści-wość-dyspozycja. Ponieważ badacz nie może
tu manipulować zmienną niezależną, aby dokonać porównania wyników przed manipulacją i
po manipulacji, taki problem badawczy nie może być analizowany w ramach modelu
eksperymentalnego. Co więcej, czas, w jakim płeć może wykształcić postawy wobec
elektrowni jądrowych, jest bardzo długi. Z powodu tych ograniczeń, włączenie do planu
badawczego elementu manipulacji i kontroli, niezbędnych w analizach przyczynowo-
skutkowych, byłoby bardzo trudne. Na rycinie 6.1 przedstawiliśmy schemat planu
badawczego, jaki można tu zastosować. Litera X narysowana linią przerywaną oznacza płeć,
a 0, — postawy wobec elektrowni jądrowych. Taki plan oczywiście ma wiele poważnych
ograniczeń metodologicznych, zwłaszcza dotyczących jego trafności wewnętrznej.
Przykład ten pochodzi z pracy Lawrence'a S. Solomona, Donalda Tomaskovica-
Deveya i Barbary J. Risman (1989), The Gender Gap and Nuclear Power: Attitudes in a
Politicized Environment, „Sex
Roles". 21, s. 401-414.
145
Ryc. 6.1. Najprostszy plan
Aby przezwyciężyć ograniczenia metodologiczne wynikające z planów badan
przekrojowych, badacze wykorzystują metody statystyczne odpowiadające w przybliżeniu
niektórym operacjom naturalnie wbudowanym w plan eksperymentalny. W badaniu postaw
wobec elektrowni jądrowych badacz musi najpierw stwierdzić. czy płeć i postawy wobec
elektrowni jądrowych są ze sobą powiązane. W tabeli 6.1 przedstawiono wyniki analizy
statystycznej przeprowadzonej w celu określenia związku pomiędzy tymi zmiennymi.
Wykorzystując metody statystyczne do kategoryzowania, opisywania i zestawiania zebranych
danych, możemy się przekonać. że 59% mężczyzn i jedynie 29% kobiet popiera elektrownie
jądrowe; różnica w akceptacji między płciami wynosi 30%. Wniosek ten został
wyprowadzony na podstawie dwóch technik analizy danych: krzyżowego grupowania danych
i dwu-zmiennowej analizy danych procentowych, które omawiamy w rozdziale 16.
Dzięki zastosowaniu tych metod analizy danych nasz plan stał się mocniejszy i w
przybliżeniu odpowiada planowi z grupą kontrolną i pomiarem końcowym (opisanemu w
rozdziale 5). Na rycinie 6.2 przedstawiliśmy schemat graficzny takiego ulepszonego planu.
Komórka opisana jako 02 i obwiedziona linią przerywaną oznacza dodatkowe informacje,
które uzyskaliśmy na etapie statystycznej analizy danych. Jeżeli dane te zostaną
pokategoryzowane i zestawione tak, jak to uczyniono w tabeli 6.1, to zyskujemy możliwość
dokonania wielu porównań między różnymi grupami.
Tabela 6.1. Płeć a postawy wobec elektrowni jądrowych
Mężczyźni Kobiety
Zwolennicy Przeciwnicy 59% 41% 29% 71%
100% 100%
Na podstawie: Lawrence S. Solomon, Donald Tomaskovic-Devey, Barbara J. Risman
(1989), The Gender Gap and Nitclear Power: Attititdes in a Politicized Environmenl, „Sex
Roles", 21, s. 407.
Chociaż plan przekrojowy przedstawiony na rycinie 6.2 umożliwia oszacowanie
związku (korelacji) pomiędzy płcią a poparciem dla elektrowni jądrowych, to na tej podstawie
nie możemy wyciągnąć wniosku, że pomiędzy tymi zmiennymi zachodzi związek
przyczynowo-skutkowy, jak też nie jesteśmy w stanie wyjaśnić, dlaczego kobiety w
porównaniu z mężczyznami wyrażają mniejsze poparcie dla elektrowni jądrowych. Można
wskazać na wiele przyczyn takiego zróżnicowania postaw między płciami. Na przykład
badane kobiety mogły mieć mniejszą wiedzę na temat spraw technicznych i dlatego mniej
chętnie popierały budowanie elektrowni jądrowych. Mogły też być bardziej zainteresowane
sprawami bezpieczeństwa, co powodowało, że częściej — w porównaniu z mężczyznami —
oponowały przeciwko energii jądrowej.
146
po
X
Ryc. 6.2. Plan badań przekrojowych
Kiedy wykorzystujemy plan eksperymentalny, te czynniki są kontrolowane za pomocą
procedury randomizacji i wprowadzenia grupy kontrolnej. Kiedy badacze wykorzystują plan
przekrojowy, muszą kontrolować te czynniki za pomocą metod statystycznych. W wypadku
planów przekrojowych najczęściej wykorzystywanymi metodami stanowiących alternatywę
eksperymentalnych metod kontroli i wnioskowania o zależnościach przyczynowo-
skutkowych są takie statystyczne metody analizy wielozmiennowej, jak kategoryzowanie
krzyżowe, regresja wielokrotna i analiza ścieżek. (Więcej na ten temat i opis tych metod
można znaleźć w rozdziale 17).
Warto w tym miejscu zaznaczyć, że w planach przekrojowych badacze nie mają
możliwości zastosowania technik statystycznych, aby określić porządek czasowy zmiennych.
Następstwo czasowe zmiennych musi zostać określone na podstawie rozważań teoretycznych
lub logicznych. W naszym przykładzie dotyczącym energii jądrowej to płeć — logicznie
rzecz biorąc — jest powodem różnic w postawach wobec energii jądrowej, a postawy wobec
energii jądrowej nie mogą zmienić pici, która jest stałą właściwością.
Podstawowa zaleta badań przekrojowych dotyczy możliwości prowadzenia ich w
warunkach naturalnych i wykorzystywania losowych prób badanych osób. Dzięki temu
badacze mogą uogólniać wyprowadzone wnioski na szersze populacje oraz przenosić zebrane
wyniki na realne sytuacje życiowe, co przyczynia się do zwiększenia trafności zewnętrznej
badania.
¦ Plany quasi-eksperymentalne
Posługując się klasycznym planem badawczym jako modelem logicznego
wnioskowania, badacze opracowali wiele planów quasi-eksperymentalnych. Podobnie jak w
wypadku planu przekrojowego plany te są słabsze od planów eksperymentalnych pod
względem ich trafności wewnętrznej i badacze muszą stosować techniki analizy danych jako
sposób kontroli. Stosując plany quasi-eksperymentalne, można losowo pobierać próbę z
populacji, lecz nie można losowo przyporządkowywać osób badanych do porównywanych
grup. Są one jednak mocniejsze niż plany przekrojowe, ponieważ badanie jest zazwyczaj
prowadzone na więcej niż jednej próbie i może być rozciągnięte w czasie. Poniżej
przedstawimy najważniejsze, obecnie stosowane plany quasi-eksperymentalne.
Plany z grupami kontrastowymi
W badaniach prowadzonych w ramach nauk społecznych często się zdarza, że w wielu
wypadkach badacz nie może losowo przyporządkowywać osób badanych
147
o,
°> i
______I
czy innych analizowanych obiektów do porównywanych grup. Na przykład badacz nie
może losowo przyporządkowywać osób do rasy, płci, klasy społecznej czy religii — żeby
wymienić tylko niektóre. Niekiedy badacze stosują pełne grupy porównawcze albo w fazie
pomiaru początkowego, albo jedynie w fazie pomiaru końcowego. Wnioski dotyczące
zależności przyczynowo-skutkowych determinowanych przez zmienną niezależną są
szczególnie narażone na błędy w sytuacji, kiedy badacze nie mogą zastosować procedury
randomizacji, aby przyporządkować osoby badane do porównywanych grup, o których
wiadomo, że różnią się pod względem istotnych cech. Tak będzie wtedy, gdy badacze zechcą
porównywać ze sobą grupy dzieci pochodzących z biednych i bogatych środowisk, grupy o
różnym pochodzeniu etnicznym czy mężczyzn i kobiety. Jeżeli w wypadku tak kontrastowych
grup badacz wykorzystuje plan z pomiarem końcowym, to różnice otrzymane w pomiarze
końcowym można raczej przypisać pierwotnym różnicom pomiędzy grupami niż wpływowi
zmiennej niezależnej. Tak czy inaczej, kiedy badacze muszą oszacować różnice pomiędzy
grupami kontrastowymi, można wprowadzić kilka modyfikacji planu badawczego, które
pełnić będą funkcję zabezpieczeń przed możliwością oddziaływania innych czynników poza
zmienną niezależną.
_______i----------------------------------1------------------
przed wprowadzeniem po wprowadzeniu
kampanii kampanii
(1955) (1956)
Ryc. 6.5. Liczba wypadków samochodowych w latach 1955 i 1956
jąc z 324 wypadkami w roku poprzednim, dało 12,3-procentowy spadek. Otrzymane
wyniki przedstawiono na rycinie 6.5, na której świadomie uwypuklono otrzymaną różnicę. Na
podstawie tych danych władze zdecydowały, że „kampania ta okazała się zdecydowanie
opłacalna". Ponieważ jednak wniosek ten został wyprowadzony przy zastosowaniu planu z
pomiarem początkowym i pomiarem końcowym, przeto można sformułować wiele
interpretacji alternatywnych. Na przykład, że rok 1956 mogl być rokiem szczególnie suchym,
co sprzyjało mniejszej liczbie wypadków samochodowych spowodowanych przez deszcz lub
śnieg.
Można by wyciągnąć bardziej trafne wnioski przyczynowe, gdyby dane przedstawić
jako część analizy rozszerzonych szeregów czasowych, jak uczyniono to na rycinie 6.6. Ten
plan analizy szeregów czasowych pozwala na kontrolowanie czynnika dojrzewania. Dane
zbierane przez wiele lat, zanim nastąpił wyraźny wzrost liczby wypadków samochodowych,
pozwoliły na odrzucenie alternatywnej hipotezy, w której przyjmowano, że współczynnik
śmiertelności w wypadkach samochodowych i tak maleje z roku na rok. Nie byłoby to
możliwe, gdyby dane na temat nieszczęśliwych wypadków zostały zebrane jedynie na rok
przed wprowadzeniem i rok po wprowadzeniu kampanii.
Chociaż w analizie rozszerzonych szeregów czasowych uwzględnia się trzy zbiory
danych zebranych przed wprowadzeniem kampanii i trzy zbiory danych po jej wprowadzeniu,
mimo to kontrolowanie innych potencjalnych źródeł braku trafności nie jest możliwe. Na
przykład czynnik historii nadal może stanowić źródło prawdopodobnych, alternatywnych
wyjaśnień. W takiej sytuacji jedną ze strategii zwiększających siłę wnioskowania jest
wykorzystywanie — jeśli to możliwe — dodatkowych danych. Badacze mogą na przykład
sprawdzić dane meteorologiczne, aby stwierdzić, czy warunki pogodowe mogły wpłynąć na
obniżenie liczby śmiertelnych wypadków samochodowych.
Dane zbierane dla potrzeb analizy szeregów czasowych są — o czym pisaliśmy
320 310 300 290 280
155
325 -
200 -
L____i____i____i____i____i i i i i
'51 '52 '53 '54 '55 '56 '57 '58 '59
lata
Ryc. 6.6. Analiza rozszerzonych szeregów czasowych w zastosowaniu do liczby
wypadków samochodowych
już wcześniej — wrażliwe na zmiany związane z upływem czasu, nawet wówc gdy nie
wprowadzono zmiennej niezależnej. Stopień tego naturalnego braku stał tak został określony
przez Campbella: „Zasadniczym problemem i jedną z podsta wych korzyści stosowania
rozszerzonych szeregów czasowych jest to, że dostarc one próbki braku stałości"9. W
omawianym przykładzie z Connecticut władze czywiście założyły, że zarejestrowana zmiana
liczby wypadków pomiędzy ro'": 1955 a 1956 została spowodowana przez prowadzoną
kampanię. Jeżeli jednak p rżymy się rycinie 6.6, to zauważymy stosunkowo wysoką
fluktuację liczby wy ków samochodowych przed wprowadzeniem kampanii, co raczej
świadczy o nie teczności prowadzonej polityki: „spadek zanotowany pomiędzy latami 1955-1
jest mniejszy niż sukces (w postaci mniejszej liczby wypadków samochodowy zanotowany
pomiędzy latami 1954-1955 i 1952-1953. Jest to rzeczywiście najwi szy skok w serii
pomiarów, jednak przewyższa skoki zaobserwowane pomiędzy r mi 1951-1952, 1953-1954 i
1957-1958 jedynie bardzo niewiele"10. Zgodnie z. można by też zasadnie twierdzić, że
spadek zanotowany pomiędzy rokiem 19 i 1956 jest wynikiem jedynie braku stabilności serii
danych. Pomijając jednak t: prawdopodobne wyjaśnienie, można też zauważyć, że po etapie
wyraźnego wzr liczby wypadków samochodowych nie zanotowano już w kolejnych latach
żadn wzrostu, co może sugerować, że charakter szeregów czasowych uległ zmianie.
9 Ibidem, s. 413. 10 Ibidem.
156
Zjawisko artefaktu regresji, które ma charakter statystyczny i wynika z nietypowych,
skrajnych wartości danych (por. rozdział 5), również może obniżyć trafność planów z
wykorzystaniem szeregów czasowych, zwłaszcza jeżeli obserwujemy brak stałości danych.
Jako zasadę należy traktować to, że w przypadku zróżnicowanych szeregów czasowych
wybór aktualnie „najwyższego" lub „najniższego" punktu prowadzi do tego, że następny
punkt, przeciętnie, wypadnie w pobliżu ogólnego trendu. W przykładzie z Connecticut
najbardziej dramatyczna zmiana wartości w całej serii to wzrost, jaki pojawił się tuż przed
podjęciem akcji. Można zatem przypuszczać, że raczej — lub dodatkowo — ten właśnie
wzrost był przyczyną uruchomienia kampanii, a nie spodziewana jej skuteczność w obniżeniu
liczby wypadków samochodowych. Dlatego też — przynajmniej częściowo — spadek
zanotowany w roku 1956 jest artefaktem wynikającym ze skrajnie wysokiej liczby wypadków
zanotowanych w roku 1955. Oznacza to, że liczba wypadków samochodowych spadłaby tak
czy inaczej. Podstawowym problemem pozostaje zatem pytanie: Jak bardzo?
Na rycinie 6.7 przedstawiono przypadek ilustrujący sytuację, z której można by
wyciągnąć wniosek, że zmienna niezależna nie wywiera żadnego wpływu na zmienną
zależną. Wykreślona linia wznosi się zarówno przed wprowadzeniem zmiennej niezależnej,
jak i po jej wprowadzeniu. Tym, co jest tu szczególnie ważne, jest jednak to, że linia ta
wznosi się w tym samym tempie przed wprowadzeniem i po wprowadzeniu zmiennej
niezależnej.
wyniki zmiennej zależnej !1 1 l i i i
3 4 5
punkty pomiaru
Ryc. 6.7. Analiza szeregów czasowych wskazująca na brak skutku
Jeszcze trudniej zinterpretować hipotetyczne dane przedstawione na rycinie 6.8.
Narysowana krzywa zaczyna rosnąć przed wprowadzeniem zmiennej niezależnej i podobnie
dzieje się po jej wprowadzeniu. Jednakże duże zróżnicowanie zanotowane
157
I—,—I---------------1__________1__________1__________I__________l_
12 3 4 5 6
punkty pomiaru
Ryc. 6.8. Analiza szeregów czasowych ilustrująca pozorny efekt oddziaływania
przyczynowo-skutkowego
zarówno przed wprowadzeniem, jak i po wprowadzeniu zmiennej niezależnej pozwala
badaczom na uzasadnione wyprowadzanie wniosków przyczynow -skutkowych.
Ryciny 6.7 i 6.8 przedstawiają jedynie dwa rodzaje wyników, jakie można uzyskać
przy zastosowaniu metody analizy szeregów czasowych. Są one jednak do ilustracją tego, że
plany z zastosowaniem analizy szeregów czasowych, podoi jak inne plany quasi-
eksperymentalne, w których nie ma grupy porównawczej, d starczają jedynie częściowego
uzasadnienia wniosków o charakterze przyczyno-wo-skutkowym.
Plany szeregów czasowych z grupq kontrolng
Jak już wspominaliśmy wcześniej, jedną z głównych przeszkód w konstruowaniu
planów eksperymentalnych jest trudność w spełnieniu warunku losowego przyporządkowania
badanych osób lub innych badanych obiektów do grupy eksperymentalnej i grupy kontrolnej.
Procedury doboru wiązanego również mogą się ok" niewystarczające, jeżeli badacz nie
uwzględni istotnych czynników zewnętrzny Stosowanie nierównoważnych grup
porównawczych w analizie szeregów czasowych dostarcza jednak bardziej rzetelnych
uzasadnień wniosków przyczynow -skutkowych. Plany te nazywają się planami szeregów
czasowych z grupą k trolną, ponieważ stwarzają one możliwość kontrolowania czynnika
historii, doj wania i efektu powtórnego badania, które występują zarówno w grupie ekspe
mentalnej, jak i w grupie kontrolnej.
Na rycinie 6.9 przedstawiono pomiary zebrane w ramach akcji ogranicz szybkości w
Connecticut wraz z dodatkowymi danymi dotyczącymi liczby w ków samochodowych w
sąsiadujących stanach (grupa porównawcza). Aby oba s regi czasowe można było ze sobą
porównywać, Campbell przedstawił dane w staci odsetka wypadków w stosunku do liczby
ludności. Plan szeregów czasowy
158
stany kontrolne
j____i____i—i-------1-------1—i—i-------1—
*51 '52 '53 '54 '55 '56 '57 '58 '59
lata
Ryc. 6.9. Zastosowanie planu szeregów czasowych z grupą kontrolną do porównania
liczby wypadków samochodowych w stanie Connecticut i w czterech innych stanach
Na podstawie: Donald T. Campbell (1969), Reforms as Experimenls, „American
Psychologist", 24. s. 419.
z grupą kontrolną pokazuje, że w latach 1955-1956 zanotowano tendencję spadkową
w sąsiednich stanach, będącą wynikiem czynnika historii i dojrzewania (pogoda,
wprowadzenie automatycznych zabezpieczeń itd.). Te same dane wskazują także, że ogólny
układ danych dotyczących liczby wypadków zarejestrowanych w Connecticut przed rokiem
1955 jest podobny jak w pozostałych stanach. Jednakże po roku 1956 liczba wypadków w
Connecticut maleje zdecydowanie bardziej niż w pozostałych stanach i jest to tendencja stała.
Opierając się na tych danych, można postawić wniosek, że oddziaływanie wprowadzonej
kampanii przewyższyło działanie czynnika artefaktu regresji.
I Plany łqczone
Skoncentrowaliśmy się jak dotąd na najważniejszych, z wielu możliwych, planach
quasi-eksperymentalnych". Plany takie jak w przypadku klasycznego eksperymen-
1 Omówienie innych typów planów quasi-eksperymentalnych można znaleźć w pracy
Thomasa D. Cooka i Donalda T. Campbella (1979), Quasi-experimentation: Design and
Analysis Issues for Field Stttings, Skokie, 111.: Rand McNally; oraz E.A. Suchmana (1987),
Evaluation Research, Englewood Cliffs. N.J.: Prentice-Hall.
17 16 15
141-13
12 -11 -10 -
9-
8
7
159
tu kontrolowanego, omówione w rozdziale 5, umożliwiają w znacznie większym
stopniu kontrolowanie tych czynników wewnętrznych (np. czynnika historii, dojrzewania,
artefaktu regresji), które mogą wpływać na zmniejszenie trafności wniosków o charakterze
przyczynowo-skutkowym. Najsłabsze plany quasi-eksperymen-talne, jak plan z grupami
kontrastowymi, są zdecydowanie mniej pewne, jeżeli chodzi o trafność wniosków
wyprowadzanych na ich podstawie.
Plany quasi-eksperymentalne
¦ Plany quasi-eksperymentalne pozwalają na badanie więcej niż jednej próby, często
w dłuższym przedziale czasu. Mają mniejszą trafność wewnętrzną niż klasyczny eksperyment
kontrolowany i zależą od zastosowanych metod analizy danych jako metod kontroli.
¦ Plany z grupami kontrastowymi. Osoby lub inne badane obiekty są przypisywane do
określonej kategorii (np. kobiety, demokraci).
¦ Plany z zaplanowanym zróżnicowaniem. W tych planach osoby badane są
poddawane oddziaływaniu systematycznie zróżnicowanych bodźców (np. metod nauczania),
aby można było wyprowadzać wnioski o przyczynowym działaniu bodźca.
¦ Badania panelowe. W tych planach ocenia się wyniki przed wprowadzeniem i po
wprowadzeniu zmiennej niezależnej, badając tę samą próbę w kolejnych przedziałach
czasowych.
¦ Analiza szeregów czasowych. W tych planach badawczych dokonuje się wielu
pomiarów, przynajmniej trzech, przed wprowadzeniem i po wprowadzeniu zmiennej
niezależnej (takich jak wprowadzenie nowego prawa o ruchu drogowym).
¦ Plany szeregów czasowych z grupą kontrolną. Plany te łączą analizę szeregów
czasowych z analizą podobnych danych, pochodzących z innej, nierównoważnej grupy, w
celu kontrolowania wpływu takich czynników, jak: historia, dojrzewanie i efekt powtórnego
testowania.
Każdy z omówionych planów może dostarczyć trafnych informacji, lecz różnią się one
zarówno rodzajem danych, jakie generują, jak i ograniczeniami, jakie na-1 kładają na
wyprowadzanie wniosków o charakterze przyczynowo-skutkowym. Aby I przezwyciężyć te
trudności, często stosuje się podejście łączące w sobie wiele me-1 tod. Podejście to zwiększa
możliwość postawienia wniosków o charakterze przw czynowo-skutkowym, poprzez
sytematyczne łączenie dwóch łub więcej planów ba-1 dawczych dla potrzeb jednego
badania12.
Być może jednym z najbardziej pouczających zastosowań planów łączonych (tj.1
takich, w których łączy się wiele cech kilku planów badawczych) są badania nad I
szczepionką Salka przeciwko poliomyelitis, po raz pierwszy przeprowadzone wroł ku
195413. W pierwotnym planie badawczym przyjęto, że szczepionka zostanie pol
12 John Brewer, Albert Hunter (1989), Multimethod Research: A Synthesis of Styles,
Newbury Park,! Calif.: Sagę.
13 Ten akapit został oparty na pracy Paula Meiera (1972), The Biggest Health
Experiment Eva,
160
dana jedynie uczniom klas drugich, których rodzice wyrażą zgodę na udział w
badaniu, i nie zostanie podana uczniom klas pierwszych i trzecich, którzy będą traktowani
jako grupa porównawcza. Założono, że dzięki porównaniu wyników uzyskanych w grupie
eksperymentalnej i grupie porównawczej będzie można się dowiedzieć, czy szczepionka była
skuteczna. Taki plan badawczy jest jednak wysoce nieprecyzyjny, okazało się bowiem, że
polio pojawiało się częściej w okolicach, w których panowały warunki bardziej higieniczne,
niż tam, gdzie panowały warunki mniej higieniczne. Z kolei warunki bardziej higieniczne są
związane z wyższym statusem społeczno-ekonomicznym. Osoby o wyższym statusie
społeczno-ekonomicz-nym częściej wyrażają zgodę na udział w badaniu w porównaniu z
osobami o niższym statusie społeczno-ekonomicznym, dlatego też większość drugoklasistów
pochodziła właśnie z tej grupy społecznej. Można było również oczekiwać, że drugo-klasiści
zgłoszeni na ochotnika będą częściej kontaktować się z tą chorobą niż dru-goklasiści w ogóle,
a także częściej niż pierwszo- i trzecioklasiści. Taka stronniczość w doborze próby może
zatem wpłynąć na zmniejszenie trafności wnioskowania. Co więcej, jeżeli zaszczepiono by
jedynie drugoklasistów, to lekarze mogliby podejrzewać, że część spośród dzieci zachorowała
na polio właśnie z powodu szczepienia, co może z kolei spowodować istotną różnicę
pomiędzy liczbą pozytywnych diagnoz w grupie ochotników i nieochotników.
Świadomi tych problemów pracownicy publicznej służby zdrowia w niektórych
stanach zaproponowali przeprowadzenie eksperymentu terenowego, który randomi-zowatby
rozkład szczepień wśród ochotników ze wszystkich grup wiekowych. Szczepienia podano by
połowie ochotników, a połowa otrzymałaby placebo (zastrzyk ze słonej wody), aby lekarze
podejmowali decyzje diagnostyczne w warunkach „ślepej" diagnozy (tj. nie mogli odróżnić
osób z grupy eksperymentalnej i kontrolnej). Dzięki temu lekarze, dokonując diagnozy, nie
kierowaliby się własnymi oczekiwaniami.
W efekcie niektóre ze stanów wdrożyły pierwotny projekt, inne kontrolowany plan z
randomizacją. Wyniki otrzymane w drugim wypadku wskazały na wyraźne zmniejszenie
liczby zachorowań na polio, z 57 przypadków na 100 000 osób w grupie porównawczej do 16
przypadków na 100 000 w grupie eksperymentalnej. Natomiast w tych stanach, w których
zaszczepiono tylko drugoklasistów, zanotowano podobną liczbę przypadków (17 na 100 000)
zarówno w grupie eksperymentalnej, jak i w grupie, w której podano placebo. Oczekiwany
efekt stronniczości doboru próby, polegający na wzroście stwierdzonej liczby przypadków w
grupie ochotników w porównaniu z nieochotnikami, ujawnił się w całej próbie. Wśród osób
otrzymujących placebo największą liczbę zachorowań stwierdzono u ochotników (57 na 100
000), podczas gdy w grupie nieochotników 36 przypadków na 100 000. W stanach, w których
zastosowano pierwotny plan quasi-eksperymentalny, pierwszo- i trzecioklasiści, którym nie
zaproponowano ochotniczego udziału w badaniu i którzy nie zostali zaszczepieni, mieścili się
pośrodku obu tych skrajnych wyników i zanotowano u nich 46 przypadków na 100 000. W
badaniach nad szczepionką Salka posłużono się zatem równolegle dwoma planami
badawczymi, które się wzajemnie uzupełniały.
w. Judith M. Tamur i in. (red.), Statistics: A Guide to the Unknown, Oakland, Calif.:
Holden Day, I 213; także K.A. Brownlee (1955), Statistics of the 1954 Polio Vaccine Trials,
,Journal of the American Statistical Association", 50, s. 1005-1013.
161
W wielu innych sytuacjach posługiwanie się jedynie planem quasi-eksperymentalnym
nie jest wystarczającą podstawą otrzymania rzetelnych wyników. Kiedy analizujemy złożone
problemy, często — jedną lub więcej głównych składowych tego problemu — możemy badać
eksperymentalnie, podczas gdy pozostałe komponenty mogą się nie nadawać do badań
eksperymentalnych. Wybór czynników, które zostaną włączone w złożone plany, zależy od
specyfiki badanego problemu i pomysłowości badaczy.
¦ Plany preeksperymentalne
W planach preeksperymentalnych nie można stosować manipulacji eksperymentalnej i
nie można losowo przyporządkowywać badanych osób do grupy eksperymentalnej i grupy
kontrolnej. W rzeczywistości plany te bardzo często w ogóle nie mają grupy kontrolnej.
Ponadto w badaniach preekspery mentalnych respondenci nie są losowo wybierani z większej
populacji, a także nie stosuje się metod statystyki wie-lozmiennowej jako substytutu grupy
kontrolnej. Plan preeksperymentalny jest najsłabszym planem badawczym, ponieważ nie
kontroluje się tu większości źródeł trat-ności zewnętrznej i wewnętrznej planu. Ryzyko
popełnienia błędu przy wyprowadzaniu wniosków przyczynowo-skutkowych na podstawie
planu preekspery mentalnego jest szczególnie duże i dlatego plany te najczęściej stosuje się
przy wstępnym testowaniu niektórych hipotez badawczych oraz w badaniach
eksploracyjnych. Przykładem zastosowania planu preeksperymentalnego jest jednorazowa
analiza przypadku.
Jednorazowa analiza przypadku
Jednorazowa analiza przypadku polega na dokonaniu pomiaru jednej grupy lub
jednego zdarzenia w jednym punkcie czasowym, zazwyczaj po wystąpieniu tego zjawiska,
które naszym zdaniem jest przyczyną obserwowanych zmian. Na przy-1 kład badanie takie
może dotyczyć określonej społeczności po wprowadzeniu pro-1 gramu renowacji miasta,
systemu politycznego po wyborach powszechnych czyj szkoły po wprowadzeniu nowych
technik nauczania.
Przykład programu Head Start jest bardzo żywą ilustracją pułapek stwarzanych I przez
jednorazową analizę przypadku. W styczniu 1965 roku prezydent LyndonB. I Johnson
poinformował opinię publiczną, że do programu działań na rzecz spole-j czeństwa,
Community Action Program, zostanie włączony program o nazwie Head I Start,
przeznaczony dla dzieci w wieku przedszkolnym. Początkowo rząd przezna-1 czył 17
milionów dolarów, aby w lecie 1965 roku 100 000 dzieci mogło wziąB udział w tym
programie14. Rozgłos, jaki zyskał program Head Start, zaowocowali licznymi żądaniami ze
strony władz lokalnych domagających się funduszy na tefl cel. Odpowiedzią na te żądania
było przyznanie przez Office of Economic Oppor-1 tunity (OEO) 103 milionów dolarów,
które przeznaczono na to, aby 560 000 dzieci I w lecie 1965 roku mogło wziąć w nim udział.
Później, w tym samym roku. program I
14 Ten fragment został oparty na pracy Waltera Williamsa i Johna W. Evansa (1969),
The PoWm of Evaluation: The Case of Head Start, „Annals of the American Academy of
Political and Social Science", 385, s. 118-132.
162
Head Start stał się trwałym elementem programu walki z ubóstwem. Według
prezydenta Johnsona program ten został sprawdzony „w walce" i „okazał się wartościowy", i
w efekcie został uznany za program całoroczny. W roku 1968 przeznaczono 330 milionów
dolarów dla 473 000 dzieci biorących udział w letnim programie i 218 000 dzieci biorących
udział w programie całorocznym. Program Head Start stał się największym pojedynczym
elementem działań w ramach Community Action Program.
Aż do połowy 1967 roku nie uzyskano jednak żadnych wyraźnych dowodów
świadczących o skuteczności tego programu. Członkowie Kongresu, Komisji Budżetowej i
władze OEO domagali się potwierdzenia jego efektywności. Dlatego też dziat zajmujący się
badaniami w Office of Research, Plans, Programs and Evalua-tions zaproponował
przeprowadzenie jednorazowej analizy przypadku dla programu Head Start polegającej na
tym, że dzieci, które brały udział w programie i są aktualnie w klasie pierwszej, drugiej i
trzeciej, zostaną przebadane zestawami testów odnoszących się do umiejętności poznawczych
i procesów emocjonalnych. Wyniki uzyskane przez dzieci w tych testach zostaną następnie
potraktowane jako dowód skuteczności programu Head Start.
Kierownictwo programu Head Start oponowało przeciwko temu, twierdząc, że
badania oparte na takim planie badawczym nie mogą dostarczyć solidnego wsparcia na rzecz
przyczynowego oddziaływania tego programu. Uzyskane różnice w poziomie wykonania
testów można będzie bowiem uzasadnić za pomocą wyjaśnień i hipotez alternatywnych.
Twierdzono, że badania przeprowadzone jedynie w momencie działania programu nie
dostarczą żadnych danych porównawczych, a właśnie porównywanie jest istotą
wnioskowania przyczynowo-skutkowego. Co więcej, taki plan badawczy nie pozwoli na
zebranie danych, na podstawie których można by wyciągnąć wniosek, że program ten w ogóle
ma jakiś wpływ na funkcjonowanie dzieci. Aby można było wyprowadzić trafne wnioski
przyczynowo-skutkowe, należy przeprowadzić badanie, zanim program zostanie wdrożony.
Jednorazowa analiza przypadku nie pozwala na kontrolowanie czynników zewnętrznych i
wewnętrznych. Nie umożliwia również porównywania danych zebranych przed i po
wprowadzeniu zmiennej manipulacyjnej, a także pomiędzy grupą eksperymentalną i
kontrolną. Jednorazowej analizy przypadku nie można zatem wykorzystać do badania
związków przyczynowo-skutkowych.
Jednorazowa analiza przypadku jest jednak użyteczna w badaniach eksploracyjnych.
Umożliwia ona wgląd w badany program, a to z kolei pozwala na sformułowanie hipotez
badawczych. Jednakże w przypadku programu Head Start tak słaby plan badawczy został
wykorzystany do sprawdzenia skuteczności programu, a kiedy uzyskano odpowiednie dane,
zostały one zignorowane właśnie z powodu „problemów wynikających z planu
badawczego"15.
Pomijając te ograniczenia, w przypadku wielu pytań dotyczących polityki —
zwłaszcza spornych problemów, kiedy trudno jest zastosować plan eksperymentalny lub
quasi-eksperymentalny — jednorazowa analiza przypadku może się okazać jedyną dostępną
techniką.
Ponieważ w określonych dziedzinach liczba badań polegających na analizie przy-
David Nachmias, Gary T. Henry (1980), The Utilization of Evaluation Research:
Problems and mtpects, w: David Nachmias (red.), The Practice of Policy Evaluation, New
York: St. Martin's Press,
s. 461-476
3
Head
ał
ten
r-
tics
163
padków stale rośnie, przeto — aby przezwyciężyć ograniczenia wynikające z
jednorazowego zastosowania tej metody — należy integrować wyniki pochodzące z
różnorodnych badań. Taką metodę integrowania analiz przypadków zaproponował Mi-chael
Berger. W metodzie tej — przeglądowej analizie przypadków — dokonuje się analizy treści
poszczególnych badań, agreguje kolejne wnioski i następnie dokonuje się generalizacji
wniosków w stosunku do wszystkich badań jako całości16.
¦ Porównanie planów badawczych
W tym rozdziale podobnie jak i w rozdziale 5 skoncentrowaliśmy się na dwóch
podstawowych problemach badań naukowych: wnioskowaniu przyczynowo--skutkowym i
uogólnianiu wyników. Problemy te są źródłem istotnego dylematu: starania o to, aby uzyskać
jednoznaczne dane dotyczące przyczynowości (trafność wewnętrzna), prowadzą często do
obniżenia możliwości generalizowania (trafność zewnętrzna). Plany badawcze, które są
mocne z punktu widzenia trafności wewnętrz-1 nej, takie jak plany eksperymentalne,
zazwyczaj są słabe, jeśli chodzi o trafność zewnętrzną. Z kolei plany, które są słabe z punktu
widzenia trafności wewnętrznej. jak np. jednorazowa analiza przypadku, są na mocy definicji
również słabe z punktu widzenia trafności zewnętrznej. Brak trafności wewnętrznej
uniemożliwia bowiem I dokonywanie jakichkolwiek uogólnień.
Być może największe ograniczenie trafności wewnętrznej planu badawczego wynika z
braku właściwej kontroli czynników wewnętrznych i zewnętrznych w stosunku do planu
badawczego. Aby wyniki badania mogły być uogólnione, plan ba-1 dawczy powinien
umożliwiać przeprowadzenie badania na próbie reprezentatywnej I dla populacji w
rzeczywistych warunkach społecznych lub w rzeczywistej sytuacji. I Można czasami
poprawić trafność zewnętrzną planu badawczego, zwiększając he-1 terogeniczność próby i
sytuacji eksperymentalnej. Zwiększanie realizmu badania I oraz heterogeniczności może
jednak prowadzić do zmniejszenia możliwości stoso-l wania procedur kontroli.
Porównajmy teraz słabości i zalety różnych schematów badawczych. I tak, podł czas
gdy eksperymenty są silne ze względu na możliwość kontroli, a słabe, jeśli I idzie o
reprezentatywność, to quasi-eksperymenty i badania przekrojowe są silne I z punktu widzenia
reprezentatywności i słabe ze względu na możliwość kontroli. I Badania eksperymentalne
mają wiele zalet. Przede wszystkim, i to jest najważniej-1 sze, umożliwiają wyprowadzanie
wniosków przyczynowo-skutkowych dzięki moż-l liwości kontroli — szczególnie poprzez
randomizację — większości czynników! wewnętrznych i zewnętrznych w stosunku do planu
badawczego. Po drugie, ekspe-1 rymenty umożliwiają kontrolowanie procedury
wprowadzania zmiennej niezalez-l nej, co pozwala określić kierunek zależności
przyczynowo-skutkowej. NąjważniejM szym ograniczeniem quasi-eksperymentów, badań
przekrojowych i zwłaszcza prfrB eksperymentów jest brak tych właściwości. Brak właściwej
kontroli nad alternatyw nymi wyjaśnieniami i trudności w manipulowaniu zmienną niezależną
sprawiaj™ że badaczom trudno jest formułować jednoznaczne wnioski.
16 Michael A. Berger (1986), Studying Enrollment Decline (and Other Timely Issues)
via the Goj Survey, „Evaluation Studies", 11, s. 720-730.
164
Zalety i wady planów badawczych stosowanych w naukach społecznych
Plany eksperymentalne Zalety
¦ Badania eksperymentalne w dużym stopniu umożliwiają kontrolowanie czynników
wewnętrznych i zewnętrznych w stosunku do planu badawczego, co zwiększa trafność
wnioskowania przyczynowo-skutkowego (trafność wewnętrzną).
¦ Badania eksperymentalne umożliwiają kontrolowanie procedury wprowadzania
zmiennej niezależnej, co pozwala określić kierunek zależności przyczynowo-skutkowej.
Wady
¦ Trafność zewnętrzna planu jest słaba, ponieważ schematy eksperymentalne nie
pozwalają na odtwarzanie rzeczywistych sytuacji społecznych.
¦ Eksperymentatorzy muszą często korzystać z ochotników lub z osób, które same
przydzieliły się do grupy badawczej. Dlatego próba może nie być reprezentatywna dla
badanej populacji, co uniemożliwia dokonywanie uogólnień i ogranicza zakres uzyskanych
wyników.
Plany przekrojowe i plany quasi-eksperymentalne Zalety
¦ Umożliwiają prowadzenie badań w warunkach naturalnych i rzeczywistych, co
zwiększa trafność zewnętrzną badań.
¦ Nie wymagają losowego przyporządkowywania osób badanych do grup
porównawczych. Mimo że ogranicza to trafność wewnętrzną badań opartych na tych
schematach, równocześnie pozwala na badanie takich sytuacji, w których przydzielanie osób
badanych czy to do grupy kontrolnej, czy do grupy eksperymentalnej może być nieetyczne
lub niemożliwe.
Wady
¦ Brak właściwej kontroli nad alternatywnymi wyjaśnieniami sprawia, że trudno jest
formułować jednoznaczne wnioski.
¦ Ponieważ badacze często nie mogą manipulować zmienną niezależną, więc mogą
określić kierunek związku przyczynowo-skutkowego jedynie przez wnioskowanie logiczne
lub teoretyczne.
Plany preeksperymentalne
Zalety
¦ Pozwalają na zbieranie informacji wtedy, kiedy nie można zastosować żadnych
innych planów badawczych. Mogą też stanowić uzasadnienie prowadzenia dalszych, bardziej
trafnych badań.
Wady
¦ Są bardzo słabe zarówno pod kątem trafności wewnętrznej, jak i zewnętrznej i nie
pozwalają na wyprowadzanie wniosków przyczynowo-skutkowych.
Eksperymenty jednak, mimo że par excellence są akceptowane jako metody naukowe,
mają również liczne ograniczenia. Eksperymenty, a szczególnie eksperymenty laboratoryjne,
krytykuje się ze względu na ich sztuczność i brak przystawalności do rzeczywistych sytuacji
życiowych. Zdaniem krytyków, o czym będziemy mówić w rozdziale 9, w sytuacji
eksperymentalnej nie da się odtworzyć realnych warunków i dlatego eksperymenty nie nadają
się do badania istotnych problemów. Drugie ograniczenie dotyczy schematu doboru próby. W
planach eksperymentalnych trudno zapewnić reprezentatywność badanej populacji. W wielu
eksperymentach korzysta się po prostu z ochotników lub w najlepszym razie z próby
przypadkowej. Brak reprezentatywności próby uniemożliwia dokonywanie uogólnień i
ogranicza zakres uzyskanych wyników. Z kolei odwrotnie, większość badań przekrojowych
prowadzonych jest w warunkach naturalnych i umożliwia korzystanie z próby
probabilistycznej. Dzięki temu badacze mogą przenosić wnioski statystyczne na większe
populacje i uogólniać otrzymane wyniki na realne sytuacje życiowe.
Ponieważ żaden z planów badawczych nie rozwiązuje jednocześnie problemu, kontroli
i reprezentatywności, przeto badacz stoi przed trudnym wyborem. Chociaż w praktyce natura
badania dyktuje, co wybrać, badacze na ogół akceptują zasadę. że zapewnienie trafności
wewnętrznej badania jest ważniejsze niż zapewnienie trafności zewnętrznej. Co więcej,
eksperymenty, badania przekrojowe i quasi-ekspery-menty można poprawić. Badacze
stosujący eksperymenty mogą zwiększyć ich trafność zewnętrzną przez wyraźne definiowanie
badanej populacji i przez losowy do-1 bór badanych obiektów z populacji za pomocą
probabilistycznego schematu pobie-l ranią próby. Badacze stosujący badania przekrojowe i
quasi-eksperymenty mogą. w dużym stopniu zwiększyć trafność wewnętrzną poprzez
włączanie dodatkowych] informacji jako formy kontroli nad alternatywnymi wyjaśnieniami.
Stosowanie bar-1 dziej zaawansowanych technik statystycznych, takich jak analiza ścieżek
czy ana-l liza przyczynowości, pozwala badaczom prowadzącym badania przekrojowe czyi
quasi-eksperymentalne na poprawienie jakości wniosków przyczynowo-skutkowych.1
¦ Podsumowanie
1. Randomizacja, wraz ze staranną kontrolą eksperymentalną, daje badaczom fl łę i
moc przekonywania, jakich nie dają żadne inne, powszechnie stosowane meto-1 dy. Jednakże
związki typu właściwość-dyspozycja nie poddają się łatwo ekspery-1 mentowaniu, a
problemy natury społecznej, politycznej i etycznej mogą zniechęć™ lub uniemożliwić
zastosowanie planów eksperymentalnych w przypadku związków I typu bodziec-reakcja.
2. Plany przekrojowe, najczęściej stosowane w badaniach sondażowych, wyk™
rzystuje się w badaniach dotyczących związków pomiędzy właściwościami a dn pozycjami.
Plany te mogą w przybliżeniu osiągnąć status planów z grupą kontrotał i pomiarem
końcowym przez zastosowanie statystycznych technik analizy danydH
3. Plany quasi-eksperymentalne są podobne do planów przekrojowych pódl
względem słabszej trafności wewnętrznej niż w planach eksperymentalnych orał konieczności
stosowania statystycznych technik analizy danych jako metody koM troli. Przewyższają one
jednak plany przekrojowe, ponieważ zazwyczaj obejmujB badanie więcej niż jednej próby, w
większym przedziale czasu. Plany z grupaB
166
kontrastowymi i plany z zaplanowanym zróżnicowaniem to plany quasi-eksperymen-
talne. Badania panelowe i analiza szeregów czasowych oparte są na planach quasi--
eksperymentalnych rozciągniętych w czasie.
4. Badania oparte na planach preeksperymentalnych takie, jak jednorazowa analiza
przypadku, są tradycyjnie wykorzystywane wtedy, gdy przeprowadzenie eksperymentu nie
jest możliwe. Preeksperymenty to najsłabsze plany badawcze, ponieważ badacze nie mogą
kontrolować większości czynników determinujących trafność zewnętrzną i wewnętrzną planu.
plany quasi-eksperymentalne 147 plany szeregów czasowych
z grupą kontrolną 158 plany z zaplanowanym zróżnicowaniem 150 związek pomiędzy
bodźcem
a reakcją 143 związek pomiędzy właściwościami
a dyspozycjami 143
1. Opisz rodzaje związków, które można badać za pomocą planów eksperymentalnych
i quasi-eksperymentalnych. Podaj po jednym przykładzie każdego z nich.
2. Opracuj plan quasi-eksperymentalny, który można by wykorzystać w badaniu
wpływu edukacji seksualnej na odsetek ciąż u nastolatek. Wyjaśnij dokładnie swój sposób
myślenia oraz omów wady i zalety skonstruowanego przez siebie planu.
3. Omów różnice pomiędzy planami łączonymi, planami przekrojowymi oraz planami
panelowymi, wskazując ich słabe i mocne strony.
4. Omów ograniczenia planów preeksperymentalnych.
5. Wyjaśnij, dlaczego plany z wysoką trafnością wewnętrzną mają zazwyczaj niską
trafność zewnętrzną.
I Literatura dodatkowa
Brzeziński J. (1997). Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd.
Nauk. PWN. Mayntz R.. Holm K., Hubner P. (1985), Wprowadzenie do metod socjologii
empirycznej, Warszawa:
PWN. Nowak S. (1985), Metodologia badań społecznych, Warszawa: PWN. Sulek A.
(1979), Eksperyment w badaniach społecznych, Warszawa: PWN. Sulek A. (1986), Metody
analizy socjologicznej. Wybór tekstów, Warszawa: Wyd. UW.
¦ Podstawowe terminy
analiza rozszerzonych
szeregów czasowych 155 analiza szeregów czasowych 154 badania panelowe 153
grupy kontrastowe 148 jednorazowa analiza przypadku 162 plany łączone 160 plany
przekrojowe 145
¦ Pytania sprawdzajqce
Rozdział 7
Pomiar
Natura pomiaru 170
Definicja pomiaru 171 Struktura pomiaru 171
Poziomy pomiaru 173
Poziom nominalny 173 Poziom porządkowy 174 Poziom interwałowy 176
Poziom stosunkowy 177
Transformacja danych 178
Błąd pomiaru 179
Trafność 180
Trafność treściowa 180 Trafność empiryczna 181 Trafność teoretyczna 183
Rzetelność 185
Metoda powtórnego testowania 1 Metoda form równoległych 187 Metoda
połówkowa 188
Podsumowanie 189
Podstawowe terminy 190
Pytania sprawdzające 190
Literatura dodatkowa 190
W jaki sposób ekonomiści mogą sprawdzić, czy bezpieczeństwo społeczne, dobrobyt
lub emerytury wypłacane w stanie Illinois są porównywalne z tymi, które się wypłaca w
stanie Missisipi czy we Francji? To, czego ekonomiści potrzebują, to instrumenty mierzące
koszty dóbr i usług, które można stosować konsekwentnie prawie we wszystkich
współczesnych ekonomiach. Takim instrumentem jest wskaźnik kosztów utrzymania.
Wskaźnik ten dostarcza wzorów matematycznych pozwalających obliczyć i porównać zmiany
w wysokości cen, niezależnie od wykorzystywanej waluty. Stosuje się go, ponieważ jest
precyzyjny, rzetelny i trafny. Zanim został stworzony, ekonomiści nigdy nie byli w stanie
dokładnie wskazać, które strefy ekonomii były odpowiedzialne za inflację. Również
instytucje rządowe nie potrafiły właściwie dostosować płac do potrzeb. Ponieważ badacze w
naukach społecznych w ogromnej mierze opierają się na miarach takich jak wskaźnik
kosztów utrzymania, przeto muszą bardzo dokładnie określić, na ile takie miary
odzwierciedlają rzeczywistość. Jednym z problemów omawianych w tym rozdziale jest
dokładność tego typu miar.
W tym rozdziale zajmiemy się naturą pomiaru w naukach społecznych oraz omówimy
pojęcie izomorfizmu, które dotyczy tego, w jaki sposób instrument pomiarowy jest powiązany
z mierzoną rzeczywistością. Przedstawimy następnie cztery poziomy pomiaru: nominalny,
porządkowy, interwałowy i stosunkowy. Dalej przedyskutujemy zagadnienie błędu pomiaru.
Rozdział zakończymy opisem pojęcia trafności — tj. czy instrument pomiarowy mierzy to, co
z założenia miał mierzyć — oraz rzetelności — tj. czy i na ile wyniki otrzymane za pomocą
instrumentu pomiarowego nie zmieniają się z jednego pomiaru na drugi.
Kiedy zdecydujemy się na wybór problemu badawczego i określimy hipotezy
badawcze, natychmiast stajemy wobec dwóch problemów: w jaki sposób zaprojektować
badanie i jak zmierzyć zmienne. W rozdziale 5 i 6 omówiliśmy zagadnienia związane z
wyborem planu badawczego. W tym rozdziale skoncentrujemy się na pomiarze, jego naturze i
strukturze, poziomach pomiaru oraz na trafności i rzetelności narzędzi pomiarowych. Istotą
zagadnień związanych z pomiarem jest, odwołując się do klasycznych dziś słów Norberta
Wienera to, że „obiekty [...] nie poruszają się z naklejonymi na sobie informacjami, na
przykład o ładowności — ustalenie ich miar wymaga nieco więcej poszukiwań"1. W
niektórych sytuacjach będzie to poszukiwanie miar już istniejących i omawianych w
literaturze fachowej, w innych — badacz musi sam opracować miary, które pozwolą zamienić
obserwacje empiryczne na formy wymagane przez problem i plan badawczy. Badacze muszą
ponadto uzasadnić, że wybrane przez nich miary są trafne i rzetelne.
1 Norbert Wiener (1920), A New Theory of Measurement: A Study in the Logic of
Mathematics, „Proceedings of the London Mathematical Society", 19, s. 181. Praca ta
cytowana jest w: Billy J. Franklin, Harold W. Osborne (red.) (1971), Research Methods:
Issues and Insights, Belmont, Calif.: Wads-wotth, s. 118.
169
¦ Natura pomiaru
Pojęcie pomiaru jest ściśle powiązane z pojęciem definicji operacyjnych, które
omówiliśmy w rozdziale 2. Definicje operacyjne to procedury pomiarowe łączące poziom
pojęciowo-teoretyczny z poziomem empiryczno-obserwacyjnym. Mówiąc dokładniej, pomiar
to procedura, w której przyporządkowuje się, zgodnie z określonymi zasadami, wartości
liczbowe — cyfry lub inne symbole — właściwościom empirycznym (zmiennym)2.
Przypuśćmy, że chcemy kupić nowy samochód. Ponieważ okazało się, że różnica w cenie
pomiędzy różnymi samochodami średniej klasy jest niewielka, więc zdecydowaliśmy się na
kupno takiego modelu, który najlepiej nam odpowiada pod względem kształtu, parametrów
ekonomicznych i warunków serwisowania. Każda z tych trzech cech może przybierać różne
wartości. I tak na przykład, jeden model może mieć dobrze zaprojektowaną sylwetkę oraz
dobre parametry ekonomiczne, ale warunki serwisowe określone przez producenta nie
zadowalają nas. W związku z tym decydujemy się porangować każdą z tych cech,
wykorzystując skalę składającą się z pięciu wartości: 10, 11, 12, 13 i 14, gdzie 10 oznacza
całkowity brak zadowolenia, a 14 — pełne zadowolenie. Wartości 11, li i 13 wskazują na
rosnące zadowolenie w stosunku do analizowanej cechy. Teraz możemy ocenić każdy z
pięciu modeli. W tabeli 7.1 przedstawiliśmy ocenę każdego modelu zgodnie z wybranymi
kryteriami. Po przeanalizowaniu wyników zdecydowaliśmy się na kupno samochodu C,
ponieważ otrzymał on najwyższą ocenę we wszystkich trzech punktach. Ocena ta oznacza, że
biorąc pod uwagę trzy wybrane kryteria, model C najbardziej nas zadowoli.
Przedstawiony tu system uporządkowania marek samochodów choć jest najbar-1 dziej
uproszczonym przykładem pomiaru, obrazuje istotę idei pomiaru — zgodnie bowiem z
określonymi regułami przyporządkowaliśmy wartości liczbowe określonym cechom.
Własności czy zmienne, liczby i reguły przyporządkowania znalazły się w instrukcji, którą
wcześniej opracowaliśmy. Możemy dalej wykorzystać wartości liczbowe, które otrzymaliśmy
w wyniku pomiaru, aby porównać, ocenić i określić relacje pomiędzy różnymi mierzonymi
cechami. Możemy, na przykład, obliczyć stopień powiązania pomiędzy kształtem a
parametrami ekonomicznymi, czy pomiędzy kształtem a oferowanymi usługami
serwisowymi.
Tabela 7.1. Rangowanie preferencji
Sylwetka Parametry ekonomiczne Usługi serwisowe
Samochód A 10 11 10
Samochód B 13 14 12
Samochód C 14 14 14
Samochód D 14 12 13
Samochód E 10 12 14
2 S.S. Stevens (1951), Mathematics, Measurement and Psychophysics, w: S.S. Stevens
(red.). Hani-book of Experimental Psychology, New York: Wiley, s. 8.
170
Definicja pomiaru
Zacznijmy od sprecyzowania, co rozumiemy przez trzy pojęcia wykorzystywane do
definiowania pomiaru, tj. co to są cyfry, przyporządkowanie i reguły. Cyfry to symbole
przedstawiane w postaci I, II, III,..., lub 1, 2, 3,... Cyfry nie mają znaczenia ilościowego,
dopóki im takiego sensu nie nadamy. Cyfry można wykorzystywać do opisywania zjawisk,
obiektów czy osób. Możemy za ich pomocą określać miesiące, prawa jazdy, ulice, książki,
zmienne czy graczy w futbol. Cyfry, które mają znaczenie ilościowe, stają się liczbami i same
umożliwiają wykorzystywanie technik matematycznych i statystycznych w procesie
opisywania, wyjaśniania i przewidywania. Innymi słowy, liczby nadają się do analiz
ilościowych, które mogą dostarczyć nowych informacji o badanym zjawisku.
W definicji pomiaru termin „przyporządkowanie" oznacza przydzielanie. Cyfry lub
liczby są przydzielane obiektom czy zdarzeniom. Na rycinie 7.1 zobrazowaliśmy ideę
przydzielania w procesie pomiaru: w zbiorze okręgów i kwadratów, cyfrę 1 przydzielono
okręgom, a 2 kwadratom.
Trzecim pojęciem wykorzystywanym w definicji pomiaru jest pojecie reguł. Reguła
określa procedurę, jaką posłużono się w trakcie przypisywania cyfr lub liczb obiektom czy
zdarzeniom. Reguła może stanowić: „Przyporządkuj systemom politycznym liczby od 10 do
15, zgodnie ze stopniem ich demokratyczności. Jeżeli system polityczny jest w wysokim
stopniu demokratyczny, to przyporządkuj mu liczbę 15. Jeżeli jest całkowicie
niedemokratyczny, to przyporządkuj mu liczbę 10. Systemom politycznym, mieszczącym się
pomiędzy tymi stopniami demokracji, przyporządkuj liczby mieszczące się pomiędzy
liczbami 10 i 15". Na przykład przypuśćmy, że pewna grupa składa się z trzech demokratów i
dwóch republikanów. Badacz może tu zastosować następującą regułę przyporządkowywania:
„Jeżeli dana osoba jest demokratą, to przydziel jej cyfrę 1; jeżeli jest republikaninem —
przydziel jej cyfrę 2". Ilustrację zastosowania tej reguły przedstawiliśmy na rycinie 7.2.
Ryc. 7.1. Przyporządkowywanie — przekształcanie Ryc. 7.2.
Przyporządkowywanie według reguły
Struktura pomiaru
Pomiar zatem to przyporządkowywanie cyfr lub liczb obiektom, zdarzeniom lub
zmiennym zgodnie z określonymi regułami. Reguły są najbardziej istotnym elementem
procedury pomiarowej, ponieważ wyznaczają jakość pomiaru. Złe reguły sprawiają, że
pomiar jest pozbawiony sensu. Pomiar jest bezsensowny wówczas, kiedy nie przystaje do
rzeczywistości, kiedy brakuje mu podstaw empirycznych. Funkcją reguł właśnie jest wiązanie
procedury pomiarowej z rzeczywistością. Przy-
171
puśćmy na przykład, że chcemy dokonać pomiaru miękkości trzech obiektów. Jeżeli
obiekt A może zarysować obiekt B i nie vice versa, to obiekt B jest bardziej miękki niż obiekt
A. Podobnie, jeżeli obiekt A może zarysować obiekt B i obiekt B może zarysować obiekt C,
to A prawdopodobnie również zarysuje C. Możemy zatem wyciągnąć wniosek, że obiekt C
jest bardziej miękki niż obiekt A. Ponieważ możemy to sprawdzić, więc — po
przeprowadzeniu kilku testów na zarysowanie — możemy przyporządkować każdemu
obiektowi liczby wskazujące na stopień jego miękkości. W tej sytuacji procedura pomiarowa i
system liczbowy są izomorficzne w stosunku do rzeczywistości.
Izomorfizm oznacza „podobieństwo lub identyczność struktury". Podstawowym
pytaniem w dziedzinie pomiaru jest pytanie o to, czy wykorzystany system liczbowy ma
podobną strukturę do struktury mierzonych pojęć. W naukach fizycznych problem
izomorfizmu ma zazwyczaj znaczenie drugorzędne, ponieważ relacja pomiędzy mierzonymi
pojęciami a liczbami przypisanymi dokonanym obserwacjom jest najczęściej bezpośrednio
dana. W naukach społecznych natomiast naukowcy muszą zawsze być świadomi tego, że
podobieństwo to nie musi być ani oczywiste, ani wprost określone:
aby mogli oni dokonywać określonych operacji na liczbach, które zostały
przyporządkowane obserwacjom, struktura zastosowanej przez nich metody
przyporządkowania liczb obiektom musi być izomorficzna względem określonej struktury
liczbowej zawierającej te operacje3.
Kiedy mówimy, że dwa systemy są izomorficzne, mamy na myśli to, że mają one
podobne struktury i że relacje pomiędzy ich elementami lub dopuszczanymi przez nie
operacjami są również identyczne. Dlatego też, kiedy badacz przyporządkowuje liczby
obiektom lub systemom, a następnie manipuluje tymi liczbami przez, powiedzmy, ich
dodawanie, to tym samym przyjmuje, że struktura tego systemu pomiam jest izomorficzna
względem relacji zachodzących wewnątrz lub pomiędzy badanymi zjawiskami.
W naukach społecznych bardzo często dokonujemy pomiaru wskaźników po-1 jęć.
Pojęć takich, jak: demokracja, motywacja, wrogość czy władza nie można obserwować
bezpośrednio; badacze wyprowadzają wnioski dotyczące tych pojęć na podstawie pomiaru ich
empirycznych, obserwowalnych wskaźników. Jeżeli w sys-1 ternie politycznym regularnie
przeprowadza się wybory, to można sądzić, że jest to jeden ze wskaźników demokracji. Jeżeli
rozwiązując test dotyczący motywacji, otrzymamy określony wynik, to psycholog może na tej
podstawie wyciągnąć wnioski I o naszym poziomie motywacji. W przykładach tych określone
zachowanie zostało potraktowane jako wskaźnik pojęcia teoretycznego. Uczeni, badając
pojęcia abstrakcyjne, bardzo często opracowują wskaźniki złożone. Wiele istotnych pojęć
stosowanych w naukach społecznych to właśnie pojęcia wielopłaszczyznowe, wymagające
tworzenia złożonych wskaźników uwzględniających różne aspekty badanego pojęcia. I tak na
przykład w pojęciu demokracji mieści się znacznie więcej niż zjawisko wyborów. Uczciwość
wyborów, wolność prasy, swoboda w tworzeniu or-
3 Sidney N. Siegel (1988), Nonparametric Statistics for the Behavioral Sciences, New
York: Mci Graw-Hill, s. 22.
172
ganizacji i prawa mniejszości to przykład innych istotnych cech. Dlatego
systematyczność wyborów nie jest wystarczającym wskaźnikiem stopnia demokratyzacji
społeczeństwa. Każda z wymienionych cech może zostać potraktowana jako dodatkowy
wskaźnik globalnego procesu.
Wskaźników nie można tworzyć arbitralnie. Powinny one mieć odniesienia zarówno
w teorii, jak i w empirii. I tak wskaźniki demokracji opisane w poprzednim przykładzie
zostały wyprowadzone i z teorii demoracji, i z rzeczywistego funkcjonowania systemu
politycznego. I chociaż sam proces pomiaru pojęć bezpośrednio obserwowalnych jest taki
sam jak proces pomiaru wskaźników pojęć, to określenie regut przyporządkowania w drugim
przypadku sprawia więcej kłopotów, ponieważ proces pomiaru wskaźników wymaga
szerszego zakresu wnioskowania. Trafność wyprowadzanych wniosków może z kolei zależeć
od zastosowanej metodologii i logicznej struktury teorii leżącej u podstaw badań. I wreszcie,
procedura pomiaru ma sens z punktu widzenia nauki jedynie wtedy, kiedy można ją powiązać
z jakąś teorią wyjaśniającą.
Podsumowując, wskaźniki są określane przez definicje operacyjne. Po dokonaniu
obserwacji wskaźników badacze mogą zastąpić obserwowane wartości tych wskaźników za
pomocą cyfr lub liczb i przeprowadzić analizę ilościową. Struktura numeryczna narzędzia
pomiarowego musi być taka sama, pod względem relacji i operacji, jak struktura wskaźnika;
zatem obie struktury muszą być izomorficzne.
I Poziomy pomiaru
Ponieważ system numeryczny i mierzone właściwości empiryczne (wskaźniki) muszą
być izomorficzne, można wyróżnić różne sposoby pomiaru czy, używając języka
technicznego, różne poziomy pomiaru. (Czasami zamiast terminu „poziom pomiaru" używa
się terminu „skala". Skale można traktować jako instrument pomiarowy — skalą jest licznik
szybkości, podobnie jak linijka czy kwestionariusz). Operacje matematyczne i statystyczne,
jakie można przeprowadzić na określonym zbiorze liczb, zależą od osiągniętego poziomu
pomiaru. Omówimy cztery podstawowe poziomy pomiaru — nominalny, porządkowy,
interwałowy i stosunkowy — oraz istotę podstawowych operacji dopuszczanych na każdym z
nich.
Poziom nominalny
Najniższym poziomem pomiaru jest poziom nominalny. Na tym poziomie
wykorzystuje się cyfry lub inne symbole do klasyfikowania obiektów lub obserwacji do
określonej liczby kategorii. Te cyfry lub symbole tworzą skalę nominalną lub inaczej
klasyfikacyjną. Na przykład za pomocą cyfr 1 i 2 można poklasyfikowac określoną populację
na mężczyzn i kobiety, gdzie 1 reprezentuje mężczyzn, a 2 kobiety. Ta sama populacja może
zostać poklasyfikowana ze względu na religię: chrześcijanie mogą być reprezentowani przez
cyfrę 6, żydzi przez 7, a muzułmanie przez 8. W pierwszym wypadku populacja została
podzielona na dwie kategorie, w drugim — na trzy. Nominalny poziom pomiaru zostanie
osiągnięty wówczas, kiedy zbiór obiektów zostanie poklasyfikowany na kategorie, które będą
wyczerpujące (tzn. będą zawierać wszystkie obiekty określonego rodzaju), wzajemnie
rozłączne (tzn. żaden obiekt nie zostanie jednocześnie zaliczony do więcej niż jednej katego-
173
rii) i każdej kategorii zostanie przypisany inny symbol, który będzie ją reprezentował.
Płeć, narodowość, pochodzenie etniczne, stan cywilny, miejsce zamieszkania (na przykład —
miasto czy wieś) czy przynależność partyjna to zmienne nominalne.
Od strony matematycznej podstawową cechą nominalnego poziomu pomiaru jest to,
że właściwości obiektów wpadających do jednej kategorii są traktowane ja- I ko identyczne
dla wszystkich przypadków, tj. dla wszystkich przypadków wpada- I jących do jednej
kategorii. Na przykład wszyscy mieszkańcy Kanady i Stanów Zje- I dnoczonych mogą być
traktowani jako członkowie kategorii nominalnej określanej jako mieszkańcy kontynentu
północnoamerykańskiego, pomimo ich różnego oby-1 watelstwa. Podobnie wszyscy
mieszkańcy pięćdziesięciu stanów należą do tej sa-1 mej kategorii określanej z punktu
widzenia obowiązku płacenia podatków federal- I nych; ich adresy określają, czy zostaną oni
włączeni do innych kategorii nominał- I nych, takich jak listy podatników w konkretnym
stanie czy mieście.
Na nominalnym poziomie pomiaru naukowcy mogą klasyfikować obiekty, sto-l sując
każdy zbiór symboli. Badacz może również zmieniać symbole, nie zmieniając I
otrzymywanych informacji, jeśli uczyni się to jednolicie i dla wszystkich kategorii. I Tym
samym, na tym poziomie pomiaru dopuszczalne są jedynie takie metody sta-1 tystyczne,
które nie są wrażliwe na dokonywanie takich transformacji. Do metod tych można zaliczyć
obliczanie mody, miar zróżnicowania jakościowego i odpo-1 wiednich miar związku.
Przedstawimy je w rozdziale 15 i 16.
Poziom porzqdkowy
W naukach społecznych analizuje się wiele zmiennych, które nie tylko można kia-1
syfikować, ale też porządkować ze względu na określone relacje. Typowymi rela-1 cjami są
„wyższy", „większy", „bardziej pożądany", „trudniejszy" itd. Relacje te I można przedstawiać
za pomocą symbolu >, który oznacza „większy niż". Relacja I > w odniesieniu do
konkretnych własności może oznaczać „jest wyższy niz",,Jest 11 większy niż", „jest bardziej
pożądany niż" itp. Na przykład możemy założyć, żel Francja jest bardziej demokratyczna niż
Rosja, lecz mniej niż Anglia. Ogólnie rzecz biorąc, osiągnęliśmy porządkowy poziom
pomiaru, jeżeli relacja > (obok równo- I ważności) zachodzi dla wszystkich obserwacji
tworzących zbiór w pełni uporząd- I kowany (na przykład od „największego" do
„najmniejszego"). Relacja równoważ-1 ności zachodzi pomiędzy przypadkami posiadającymi
tę samą rangę, natomiast re-B lacja > zachodzi pomiędzy każdą parą rang.
Relacja > nie jest zwrotna, nie jest symetryczna i jest przechodnia. Brak zwrdB ności
relacji to właściwość logiczna zachodząca dla każdego a wtedy, kiedy nie I jest prawdą, że a>
a. Niesymetryczność oznacza, że jeżeli a> b, to bi-a. Nato-miast przechodniość relacji
oznacza, że jeżeli a > b i b > c, to a > c. Innymi słowy, I jeżeli dokonamy pomiaru takiej
zmiennej jak „konserwatyzm" na skali porządkowej, to można wyciągnąć wniosek, że jeżeli
osoba w grupie A jest bardziej konserwatywna niż osoba w grupie B, i jeżeli grupa B jest
bardziej konserwatywna niż grupa C, to osoba z grupy A jest bardziej konserwatywna niż
osoba z grupy C i relacja zachodzi dla wszystkich osób należących odpowiednio do którejś z
tych trzech grup.
174
Jako przykład pomiaru na poziomie porządkowym rozważmy stosowany powszechnie
pomiar postaw. Badacze mierzą postawy za pomocą zestawu pytań, porządkując uzyskane
odpowiedzi na każde pytanie w porządku rosnącym lub malejącym. Na przykład jedno z
twierdzeń wykorzystanych do pomiaru poczucia alienacji politycznej brzmi: „Ludzie podobni
do mnie mają ogromny wpływ na decyzje rządu". Zadanie osoby badanej polega na
zaznaczeniu stopnia zgody lub braku zgody z treścią tego twierdzenia. W tabeli 7.2
przedstawiliśmy jedną z możliwości przypisania wartości liczbowych możliwym kategoriom
odpowiedzi. Osobie badanej przedstawia się dalej kolejne twierdzenia dotyczące tej samej
postawy i następnie — biorąc pod uwagę odpowiedzi na wszystkie twierdzenia — przypisuje
się tej osobie odpowiednią rangę.
Tabela 7.2. Skala porządkowa Tabela 7.3. Porangowanie osób
badanych ze
______________________________________względu na wyniki uzyskane w
kwestionariuszu
Ranga Wartość alienacji politycznej
całkowicie się zgadzam Respondent Wynik Ranga
zgadzam się
3 nie zgadzam się
4 całkowicie się nie zgadzam
Przypuśćmy, że badacz zastosował dziesięć twierdzeń, z których każde miało cztery
możliwe odpowiedzi: 1 za „całkowicie się zgadzam", 2 za „zgadzam się", 3 za ..nie zgadzam
się" i 4 za „całkowicie się nie zgadzam". W tym wypadku najwyższy wynik, jaki może
otrzymać osoba badana, to 40 punktów (tj. 4 punkty w każdym z dziesięciu twierdzeń),
najniższy zaś wynik to 10 punktów. Aby uprościć nasze rozumowanie, załóżmy, że osoba
badana udzieli odpowiedzi na wszystkie 10 twierdzeń. Osoba z wynikiem 40 punktów będzie
traktowana jako najbardziej wyalienowana i będzie pierwsza na skali stopnia alienacji. Inna
osoba, której wynik jest najbliższy 40 — powiedzmy 36 — zostanie umieszczona na drugim
miejscu i tak dalej dla wszystkich osób badanych w grupie. Proces nadawania porządku
zakończy się, gdy wszystkie osoby badane zostaną uporządkowane ze względu na wyniki,
jakie uzyskały w kwestionariuszu alienacji politycznej. W tabeli 7.3 przedstawiamy
hipotetyczne wyniki i odpowiadające im rangi dla siedmiu osób. Zgodnie z danymi osoba
oznaczona jako S6 jest najbardziej wyalienowana, a osoba S, najmniej.
Dane uzyskane na porządkowym poziomie pomiaru można poddawać dowolnej
transformacji monotonicznej, bez względu na to, jak przyporządkowano wartości liczbowe,
otrzymane informacje nie ulegną zmianie. Nie ma również znaczenia to, które liczby zostały
przyporządkowane parom obiektów czy całej kategorii, jeśli uczyniono to w sposób stały.
Kierując się względami natury praktycznej, zazwyczaj przypisuje się mniejsze wartości
liczbowe „wyższym" wynikom, ponieważ najczęściej, mówiąc o najlepszych wynikach,
myślimy o nich jak o „pierwszej klasie",
S, 10 7
S2 27 3
S, 36 2
S4 25 4
S_, 20 5
56 40 1
57 12 6
175
a odpowiednio gorsze wyniki traktujemy jako „drugą klasę" i „trzecią klasę"
wyników. Obok postaw innymi zmiennymi porządkowymi, często badanymi w naukach
społecznych są klasy społeczne, stopnie szkolne, stopnie wojskowe, pozycje zajmowane w
hierarchii danej instytucji czy zaangażowanie w działanie partii politycznych. Jeżeli tylko
określone zjawisko lub proces można opisać na skali od najlepszego do najgorszego (np. film)
czy od najwyższego do najniższego (jak w wypadku klas społecznych), to mamy do czynienia
z pomiarem porządkowym.
Liczby wykorzystane do uporządkowania obiektów nazywamy wartość iw mi
rangowymi. Zazwyczaj rangi przyporządkowuje się obiektom zgodnie z następującą regułą:
obiekt znajdujący się na jednym krańcu skali (największy lub najmniejszy) otrzymuje wartość
1, następny pod względem wielkości — 2, trzeci pod względem wielkości — 3 itd., aż
dotrzemy do obiektu znajdującego się na drugim końcu skali, który otrzyma ostatnią wartość
liczbową z całej serii. W przykładzie przedstawionym w tabeli 7.3 osobie oznaczonej jako S6
przypisano wartości, S3 przypisano 2, S2 przypisano 3, S4 przypisano 4, S5 przypisano 5, S7
przypisano 6, a Si przypisano 7. Podkreślmy wyraźnie, że liczby porządkowe wskazują
jedynie na sposób uporządkowania obiektów i na nic więcej. Na podstawie tych wartości
liczbowych nie można twierdzić, że odległości pomiędzy poszczególnymi wartościami są
równe ani że mają one wartości absolutne. Nie możemy zatem przyjąć, że chociaż wartości
liczbowe są równo rozłożone, to właściwości odpowiadające tyra wartościom są też równo
rozłożone. Jeżeli dwie osoby otrzymały rangę 7 i 5, a dwie inne 4 i 2, to nie oznacza to wcale,
że różnica pomiędzy osobami w każdej parze jest taka sama.
Na poziomie porządkowym dopuszczalne są wszelkie transformacje nie zmieniające
uporządkowania właściwości. Dlatego badacze mogą przeprowadzać operacje matematyczne
i statystyczne, które nie zmieniają uporządkowania właściwości. Na przykład statystyką
opisującą tendencję centralną w wypadku danych porządkowych jest mediana. Wartość
mediany nie zależy od zmian wyników znajdujących się powyżej lub poniżej mediany tak
długo, jak długo liczba obserwacji powyżej i poniżej mediany pozostanie taka sama. W
rozdziale 15 i 16 omówimy inne statystyki stosowane dla danych porządkowych, takie jak
rozstęp, współczynnik gamma i tau-b.
Poziom interwałowy
Jeżeli, obok możliwości porządkowania zbioru obserwacji w terminach relacji >.
można również określić dokładną odległość pomiędzy kolejnymi obserwacjami i ta odległość
jest stała, to zrealizowaliśmy interwałowy poziom pomiaru. Oprócz możliwości stwierdzenia,
że jeden obiekt jest większy niż drugi, możemy teraz określić, o ile dokładnie jednostek
pierwszy jest większy od drugiego. Na przykład dokonując pomiaru interwałowego, możemy
powiedzieć nie tylko, że Sue zarabia więcej niż Mikę, ale również, że Sue zarabia o 5000$
więcej niż Mikę. Aby można było dokonać takiego ilościowego porównania, musimy
dysponować dokładną jednostką pomiaru. Interwałowy poziom pomiaru ma zatem określoną i
stałą jednostkę pomiaru, która przyporządkowuje liczbę rzeczywistą każdej parze obiektów w
uporządkowanym zbiorze. Przy tego rodzaju pomiarze stosunek dwóch interwałów
(odległości) jest niezależny od jednostki pomiaru. Powiedzmy, że mamy zmienić
176
800-punktowy system oceniania z jednostek nominalnych na jednostki procentowe.
Stosunek pomiędzy wynikiem równym 66% i 99% będzie taki sam jak pomiędzy wynikami
528 i 792, tj. 2:3. Wielkość odległości w tych dwóch systemach pozostanie taka sama.
Przykładami zmiennych mierzonych na poziomie interwałowym są dochody, iloraz
inteligencji (IQ), wyniki otrzymywane w teście SAT, głosy wyborców czy odsetek
przestępstw.
Na interwałowym poziomie pomiaru różnice pomiędzy obiektami są izomorficzne
względem systemu arytmetycznego. Przypisując liczby pozycjom obiektów na określonej
skali, możemy w sposób sensowny wykonywać szereg operacji arytmetycznych na różnicach
pomiędzy tymi liczbami. Dla interwałowego poziomu pomiaru zachodzą następujące
własności formalne:
1. Jednoznaczność: jeżeli a i b oznaczają liczby rzeczywiste, to wynikiem działań a +
b i a x b jest jedna i tylko jedna liczba rzeczywista.
2. Symetryczność: jeżeli a = b, to b-a.
3. Przemienność: jeżeli a i b oznaczają liczby rzeczywiste, to a + b = b + a oraz ab =
ba.
4. Podstawianie: jeżeli a = b i a + c-d, to b + c-d; i jeżeli a-b i ac = d, to bc=d.
5. Łączność: jeżeli a, b i c oznaczają liczby rzeczywiste, to (a + b) + c = = a + (b + c) i
(ab)c = a(bc).
Każda zmiana wartości liczbowych przypisanych obserwacjom musi zachowywać nie
tylko ich uporządkowanie, ale również względne różnice pomiędzy nimi. Dlatego też
informacje otrzymywane na tym poziomie pomiaru nie ulegną zmianie, jeżeli każdą liczbę
pomnożymy przez stałą wartość dodatnią i następnie dodamy stałą do wyniku mnożenia.
Wszystkie metody statystyki opisowej i indukcyjnej można stosować dla danych
interwałowych.
Poziom stosunkowy
Zmienne, które mają naturalny punkt zerowy (tj. na przykład taki punkt, w którym
zamarza woda), można mierzyć na poziomie stosunkowym. Zmienne takie, jak: waga, czas,
długość czy powierzchnia mają naturalny punkt zerowy i można je mierzyć na poziomie
stosunkowym. Na tym poziomie iloraz dwóch liczb jest również niezależny od jednostki
pomiaru. Poziom interwałowy i stosunkowy są do siebie podobne i podobne są zasady
przyporządkowywania liczb obiektom — z jednym wyjątkiem. Na poziomie stosunkowym
liczby przyporządkowujemy mierzonym wielkościom, począwszy od zera absolutnego; na
poziomie interwałowym punkt zerowy jest ustalany arbitralnie. Stosunkowy poziom pomiaru
jest najczęściej osiągany w naukach ścisłych (np. w fizyce) i jest realizowany jedynie wtedy,
gdy są spełnione wszystkie cztery następujące warunki: (1) zachodzi relacja równoważności,
(2) zachodzi relacja „większy niż", (3) znana jest wielkość dwóch dowolnych interwałów oraz
(4) istnieje prawdziwy punkt zerowy4.
4 Więcej szczegółów na temat poziomów pomiaru można znaleźć w pracy Siegla
Nonparametric ttatistics, którą w dużej mierze wykorzystano w tym rozdziale.
177
Cztery poziomy pomiaru
¦ Poziom nominalny. Na poziomie nominalnym cyfry lub symbole są
wykorzystywane do klasyfikowania obiektów lub wyników obserwacji. Zjawiska znajdujące
się w jednej kategorii są sobie równe, lecz nie są równe zjawiskom znajdującym się w innej
kategorii (oznacza to, że na poziomie nominalnym zachodzi relacja równoważności).
¦ Poziom porządkowy. Jeżeli między zmiennymi zachodzi relacja porządku, to można
je mierzyć na poziomie porządkowym. Relację tego rodzaju oznacza się symbolem >
(większy niż). Na poziomie porządkowym również zachodzi relacja równoważności.
¦ Poziom interwałowy. Jeżeli znana jest dokładna odległość między wynikami dwóch
obserwacji i jest ona stała, to możemy dokonać pomiaru na poziomie interwałowym. Między
zjawiskami mierzonymi na tym poziomie również zachodzi relacja równoważności, a także
jeden wynik może być większy (lub mniejszy) od drugiego.
¦ Poziom stosunkowy. Jeżeli zmienne mają naturalny punkt zerowy, to można je
mierzyć na poziomie stosunkowym. Na poziomie stosunkowym również zachodzi relacja
równoważności, także relacja porządku (jeden obiekt jest większy niż inny) oraz istnieje stały
interwał.
¦ Transformacja danych
Zmienne, które da się zmierzyć na skali stosunkowej, można również mierzyć
poziomie interwałowym, porządkowym i nominalnym. Generalnie obowiązuje stępująca
zasada: wielkości, które można zmierzyć na poziomie wyższym, m być również zmierzone na
poziomie niższym, ale nigdy na odwrót. Zmienna t jak przynależność partyjna może zostać
zmierzona tylko na poziomie nominalnym. W tabeli 7.4 przedstawiliśmy właściwości
formalne charakteryzujące każdy z poziomów pomiaru. I tak na przykład, relacja
równoważności zachodzi dla wszystkich czterech poziomów, ale zero naturalne występuje
tylko na poziomie stosunkowym.
Tabela 7.4. Poziomy pomiaru i ich podstawowe właściwości
Poziom Równoważność Większy niż Stały interwał Zero naturalne
Nominalny tak nie nie nie
Porządkowy tak tak nie nie
Interwałowy tak tak tak nie
Stosunkowy tak tak tak tak
Wcześniej wymieniliśmy rodzaje operacji na liczbach oraz rodzaje metod sta-j
tystycznych, jakie są właściwe i dopuszczalne na każdym poziomie. Niektórzy badacze zdają
się nie przykładać wystarczającej wagi do tej sprawy. Problem ten jaj jednak na tyle istotny,
że warto mu poświęcić nieco więcej miejsca.
178
są wy-ji- Zja-równe pozio-
>orząd-rodza-cowym
i wymiaru na pozio-k może
i można
m rów-
(jeden
mierzyć na wiązuje na-;zym, mogą mienna taka ominalnym. każdy z po-i wszystkich
punkowym.
tturalne
iie lie iie ak
e metod sta-liektórzy bakiem ten jest
Matematyka i statystyka to języki atreściowe. Operują na liczbach i nie roz-strzygają,
czy liczby reprezentują świat empiryczny. Są użyteczne z powodu swojej precyzji i
możliwości odkrywania takich informacji o zjawiskach, które bez nich pozostałyby ukryte.
Na pytanie „W jakim zakresie zmienne są ze sobą powiązane?" można sensownie i
precyzyjnie odpowiedzieć, obliczając miarę siły związku. Przyporządkowując liczby, można
przeprowadzić każdą operację statystyczną. Pamiętajmy jednak, że badaczy w dziedzinie
nauk społecznych interesują zjawiska empiryczne. Posługują się liczbami i miarami
statystycznymi, aby lepiej zrozumieć związki pomiędzy tymi zjawiskami. Jeżeli jednak
zastosują systemy liczbowe i statystyczne, które nie są izomorficzne względem struktury
badanych zjawisk empirycznych, to efekt ich działań nie poszerzy naszej wiedzy.
¦ Błqd pomiaru
Procedury pomiarowe są wykorzystywane w celu przyporządkowania wartości
liczbowych, cyfr lub wyników badanym właściwościom. Kiedy wyniki zostaną juz
przyporządkowane, różnice między wynikami otrzymanymi w powtarzanych pomiarach
można przypisać dwóm źródłom. Jednym ze źródeł jest zakres, w jakim wyniki
odzwierciedlają rzeczywiste różnice pomiędzy mierzonymi właściwościami. Drugim źródłem
różnic w wynikach jest zakres, w którym sam pomiar oraz otoczenie, w którym następuje akt
pomiaru, wpływają na otrzymane wyniki. W tym wypadku pomiary odzwierciedlają różnice
nierzeczywiste. Pomiary idealne odzwierciedlają wyłącznie rzeczywiste różnice pomiędzy
właściwościami. Jednakże pomiary idealne zdarzają się bardzo rzadko i często otrzymane
miary, oprócz różnic rzeczywistych, odzwierciedlają różnice będące artefaktem, tj.
odzwierciedlaj;! zróżnicowanie wynikające z samej procedury pomiarowej. Wszelkie
zróżnicowanie nie wynikające z rzeczywistych różnic między mierzonymi właściwościami
nazywamy błędem pomiaru.
Istnieje wiele typowych źródeł błędu pomiaru. Po pierwsze, otrzymane wyniki można
przypisać pewnej innej właściwości powiązanej z mierzoną właściwością, której badacz
intencjonalnie nie zamierzał mierzyć. Na przykład, aby zrozumieć pytania kwestionariusza
dotyczącego rozwoju moralnego, respondenci muszą mieć określony poziom inteligencji i
określony poziom świadomości społecznej. Indywidualne odpowiedzi na pytania tego
kwestionariusza będą w efekcie odzwierciedlały rzeczywiste różnice w rozwoju moralnym,
lecz również ujawnią różnice w inteligencji i świadomości społecznej badanych osób. Na błąd
pomiaru składa się oddziaływanie właśnie takich zmiennych towarzyszących. Po drugie, błąd
pomiaru może być wynikiem chwilowego samopoczucia (choroby czy nastroju), które może
wpłynąć na odpowiedzi udzielane w badaniach kwestionariuszowych lub na zachowanie
osoby badanej. Po trzecie, różnice otoczenia, w którym dokonuje się pomiaru, także
przyczyniają się do powstania błędu pomiaru. Na przykład wiek, rasa i płeć osób
przeprowadzających wywiad może wpłynąć na odpowiedzi respondentów w badaniach
sondażowych. Po czwarte, różnice w sposobie stosowania narzędzia pomiarowego (np. słabe
oświetlenie, hałas, zmęczony ankieter) mogą powodować błąd pomiaru. Po piąte, błąd
pomiaru może również wynikać z różnic w przetwarzaniu danych (np. wtedy, kiedy różne
osoby niejednakowo kodują po-
179
dobne odpowiedzi). Ostatnim, podstawowym źródłem zakłóceń jest niejednakowa
interpretacja wyników tego samego narzędzia pomiarowego.
Błędy wynikające z wymienionych wyżej źródeł są albo systematyczne, albd losowe.
Błędy systematyczne pojawiają się wraz z zastosowaniem narzędzia pomiarowego i
występują w odniesieniu do wszystkich osób badanych i wszystkich badań. W sposób
systematyczny przyczyniają się one do zmniejszenia trafności otrzymanych wyników. W
przeciwieństwie do nich błędy losowe pojawiają się również wraz z każdym zastosowaniem
narzędzia pomiarowego, jednakże mają one charakter przypadkowy. Ze względu na rolę, jaką
odgrywa tu problematyka trafności i rzetelności, od niej rozpoczniemy omawianie technik
pozwalających zmniejszyć błąd pomiaru.
¦ Trafność
Trafność dotyczy następującego pytania: „Czy udało nam się zmierzyć to, co
zamierzaliśmy zmierzyć?" Problem trafności pojawia się dlatego, że w naukach społecznych,
z nielicznymi tylko wyjątkami, mamy do czynienia z pomiarem pośrednim. W takiej sytuacji
badacze nigdy nie są do końca pewni, czy dokonują pomiani zmiennych, dla których
zaprojektowali procedurę pomiarową. Na przykład, czy liczba oddanych głosów rzeczywiście
mierzy rozwój polityczny? Jeżeli respondent zgadza się z twierdzeniem „Tym światem
kieruje niewielu ludzi posiadających władzę i tal ki mały człowiek jak ja niewiele może
zrobić", to czy taką odpowiedź respondenta możemy potraktować jako właściwy
wskaźnik takiej zmiennej jak „aliena-l cja"? Aby odpowiedzieć na takie pytania, badacz
musi udowodnić, że zastosowany I przez niego instrument pomiarowy mierzy w
rzeczywistości to, co wydaje się rnie-l rzyć.
Możemy wyróżnić trzy podstawowe rodzaje trafności, z których każdy jestl związany
z innym aspektem sytuacji pomiarowej. Są to: trafność treściowa, traf-1 ność empiryczna i
trafność teoretyczna. Każda z nich ma swoje miary i w okres-1 lonych warunkach osiąga
konkretną wartość.
Trafność treściowa
Można mówić o dwóch typowych rodzajach trafności treściowej: trafności fasadfl wej
oraz trafności doboru próby. Trafność fasadowa* odwołuje się do subiekt™ nej oceny
trafności narzędzia pomiarowego dokonanej przez badacza. W praktycfl trafność fasadowa
nie dotyczy pytania, czy narzędzie pomiarowe mierzy to, cobfl dacz chciałby, aby mierzyło,
lecz dotyczy raczej stopnia, w jakim badacz jest prztfl konany, że jego narzędzie pomiarowe
jest właściwe. Na przykład za pomocą kwefl tionariusza składającego się z dziesięciu
twierdzeń badacz chciałby dokonać pomiął ru takiej zmiennej jak „liberalizm". Po ułożeniu
kwestionariusza badacz ponownie anafl lizuje każde twierdzenie, aby sprawdzić, w jakim
stopniu każde z nich jest powił zane z liberalizmem. Może w tym celu zaprosić specjalistów
(sędziów). Jeżeli ocefl ny sędziów będą zgodne, to badacz może przyjąć, że jego
kwestionariusz jest traw fasadowo i — konsekwentnie — mierzy liberalizm. Jeżeli jednak
oceny sędztół
* W psychometru nie traktuje się poważnie tzw. trafności fasadowej (przyp. red.
nauk.).
180
nie będą zgodne, to jest to podstawa do wyciągnięcia wniosku o braku trafności
fasadowej narzędzia pomiarowego.
Główny problem dotyczący trafności fasadowej polega na tym, że nie istnieją
dokładne i powtarzalne procedury, które pozwoliłyby na ocenę narzędzia pomiarowego.
Ponieważ dokładne powtórzenie procedury pomiarowej jest rzeczą niezwykle trudną, badacz
musi polegać na ocenach subiektywnych.
W wypadku trafności doboru próby interesujemy się przede wszystkim tym, czy
określona populacja (np. zbiór wszystkich przypadków w świecie rzeczywistym) jest
adekwatnie reprezentowana przez dane narzędzie pomiarowe. Innymi słowy, czy twierdzenia,
pytania lub wskaźniki — tj. treść narzędzia pomiarowego — adekwatnie odzwierciedlają
mierzoną właściwość. Założenie leżące u podstaw trafności doboru próby to założenie
dotyczące istnienia populacji treści składającej się z dużej liczby pozycji (wyrażanych w
postaci twierdzeń, pytań lub wskaźników). Przyjmuje się także, że narzędzie o dużej trafności
jest reprezentatywną próbką tych pozycji. W praktyce problemem okazuje się definiowanie
populacji treści, ponieważ jest to zagadnienie natury teoretycznej, a nie praktycznej. (W
rozdziale 8 omówimy szerzej to zagadnienie, a także przedstawimy techniki tworzenia próby
losowej). Wpływa to na zmniejszenie trafności doboru próby i w rezultacie na zmniejszenie
całkowitej trafności narzędzia pomiarowego. Trafność doboru próby odgrywa jednak ważną
rolę: wymusza znajomość wszystkich pozycji składających się na populację treści. Jest
szczególnie użyteczna w badaniach eksploracyjnych, w których badacze konstruują narzędzia
pomiarowe i stosują je po raz pierwszy. Po pierwszym zastosowaniu narzędzia pomiarowego
badacze mogą porównać jego trafność z innymi testami.
Trafność empiryczna
Trafność empiryczna odwołuje się do związku pomiędzy dwoma narzędziami
pomiarowymi i ich wynikami. Naukowcy przyjmują, że jeżeli narzędzie pomiarowe jest
trafne, to powinien istnieć silny związek pomiędzy wynikami uzyskanymi dzięki
zastosowaniu tego narzędzia a rzeczywistym związkiem zachodzącym pomiędzy mierzonymi
zmiennymi. Na przykład możemy być zainteresowani, czy wyniki uzyskane w teście
inteligencji (tzw. IQ) naprawdę odzwierciedlają inteligencję osoby badanej. Badacze
poszukują danych potrzebnych do potwierdzenia istnienia takiej relacji przez określanie miar
korelacji właściwych dla danego poziomu pomiaru. (Współczynnik korelacji to wskaźnik siły
związku pomiędzy dwiema mierzonymi zmiennymi — więcej szczegółów na ten temat
można znaleźć w rozdziale 16). Spośród różnych testów stosowanych do pomiaru trafności
empirycznej najczęściej wykorzystuje się testy określające trafność prognostyczną. Dlatego
teraz krótko ją omówimy.
Badacze analizują trafność prognostyczną, dokonując prognozy na podstawie
wyników swojego narzędzia pomiarowego, wyników pewnej zmiennej zewnętrznej (zwanej
kry ter i u m) lub porównując wyniki swojego narzędzia z wynikami otrzymanymi za pomocą
innych narzędzi pomiarowych. Innymi słowy, trafność prognostyczna jest wyrażana przez siłę
związku (współczynnik korelacji) pomiędzy wynikami danego narzędzia pomiarowego i
zewnętrznym kryterium. Badacz może na przykład określić trafność testu inteligencji,
analizując związek pomiędzy wcześniej otrzymanymi wynikami testowymi dla grupy
studentów college'u a późniejszymi
181
ich stopniami otrzymanymi w trakcie pierwszego roku studiów (kryterium). Analiza ta
polega na obliczeniu współczynnika korelacji pomiędzy dwoma zbiorami pomiarów. Ten
konkretny współczynnik korelacji nazywa się współczynnikiem trafności. Innymi kryteriami,
które można wykorzystać do badania trafności testów inteligencji, są na przykład wyniki
testów społecznego przystosowania czy oceny funkcjonowania.
0----—;0
Ryc. 7.3. Szacowanie trafności prognostycznej
Na rycinie 7.3 przedstawiliśmy proces badania trafności prognostycznej narze-l dzia
pomiarowego. Zmienną V mierzymy za pomocą określonego narzędzia pomia-1 rowego /.
Aby ocenić trafność prognostyczną, badacz stosuje kryterium C. którego! trafność jest już
ustalona. Następnie pomiary otrzymane za pomocą narzędzia/¦ korelowane z pomiarami
otrzymanymi za pomocą kryterium C. Wielkość współ-1 czynnika korelacji rlc określa
trafność prognostyczną tego narzędzia.
Badając trafność prognostyczną, należy uwzględnić dwa problemy ogólne. Pierw-1
szy dotyczy wyboru kryterium. I tak na przykład w wielu college"ach porównuje! się wyniki
testu SAT (narzędzie pomiarowe) z uzyskiwanymi wcześniej przeciffl nymi ocenami
(kryterium) po to, aby przewidywać przyszłe osiągnięcia potencjaH nego studenta. Drugi
problem dotyczy trafności kryterium.
Problem pierwszy dotyczy takich sytuacji, w których zastosowanie określonego I
kryterium może okazać się zbyt trudne lub zbyt kosztowne. Na przykład badariB jakości
każdego stanowiska komputerowego opuszczającego linię produkcyjną jefl bardzo
kosztowne: dlatego bada się tylko niektóre z nich (próbę). Czasami z koH trzeba
przeprowadzić wstępne pomiary zmiennych, zanim dokona się ich wybfflB i pomiaru jako
kryterium. Taką zmienną są na przykład umiejętności szkolne-trzeba je zmierzyć, zanim
zostaną wybrane jako kryterium sukcesu w nauce szkow nej.
Drugi problem rozwiązywany jest natomiast poprzez zastosowanie którejś I z dwóch,
powszechnie używanych metod oceny trafności kryterium. Pierwsza mtfl toda odwołuje się
do zasady akceptacji przez badaczy trafności danego kryteriuił wykorzystywanego do oceny
określonego narzędzia pomiarowego. Zgoda ta jefl przedmiotem badań w procesie oceniania
trafności fasadowej i trafności próbW Druga metoda polega na określaniu procentu osób (czy
innych jednostek analizyB prawidłowo sklasyfikowanych przez narzędzie pomiarowe ze
względu na ich znaofl właściwości i wyrażeniu związku pomiędzy narzędziem pomiarowym i
kryteriw w terminach tych procentów5.
5 CG. Helmstadter (1970), Research Concepts in Humań Behavior, Englewood Cliffs,
N.J.: Praj tice Hall.
182
I Przypuśćmy, że badacz chciałby ocenić trafność narzędzia przeznaczonego do
pomiaru konserwatyzmu politycznego. Jeżeli istnieją teoretycznie uzasadnione przyczyny,
aby przyjąć, że ludzie z niższych klas społecznych są bardziej konserw uywni niż ludzie
należący do klasy średniej, to może on porównać osoby wpadające do każdej z tych kategorii
i potraktować to jako test trafności prognostycznej. W tym wypadku klasa społeczna została
wykorzystana jako pośrednie kryterium trafności prognostycznej narzędzia pomiarowego.
Jeżeli jednak okaże się, że osoby z niższej klasy społecznej są równie konserwatywne jak
osoby zaliczone do średniej klasy społecznej, to należy przyjąć, że narzędzie to ma niską
trafność prognostyczną. I odwrotnie, wysoki współczynnik korelacji pomiędzy stopniem
konserwatyzmu i przynależnością do klasy społecznej wskazuje na wysoką trafność
prognostyczną. Wysoka korelacja jest jednak warunkiem koniecznym, ale nie wystarczającym
do określenia trafności prognostycznej narzędzia pomiarowego. Jest tak dlatego, bo kryterium
pośrednie (klasa społeczna) może być powiązane nie tylko z konserwatyzmem, ale również z
innymi zmiennymi (np. wykształceniem). Narzędzie pomiarowe może mierzyć inne zmienne
niż tylko konserwatyzm polityczny jako taki. Kryterium pośrednie jest zatem bardziej
użyteczne do wykrywania braku trafności niż do wykrywania trafności narzędzia
pomiarowego.
Trafność teoretyczna
Badacze określają trafność teoretyczną, badając narzędzie pomiarowe w świetle
szerszego kontekstu teoretycznego po to, aby sprawdzić, czy narzędzie pomiarowe jest
powiązane z pojęciami i teoretycznymi założeniami tego kontekstu. Lee J. Cronbach,
pierwszy orędownik koncepcji trafności teoretycznej, uważał, że „jeżeli osoba badająca
testem pyta, jakie psychologiczne znaczenie mają wyniki testowe lub dlaczego dana osoba
uzyskuje określony wynik testowy, to pyta ona o to, za pomocą jakich pojęć można właściwie
wyjaśnić wykonanie testu"6. Oczekiwania teoretyczne dotyczące mierzonej zmiennej
pozwalają badaczowi na sformułowanie twierdzeń o rodzaju i stopniu związku pomiędzy
określoną zmienną i innymi zdefiniowanymi zmiennymi. Aby określić trafność teoretyczną
narzędzia pomiarowego, badacz musi sprawdzić, czy takie związki rzeczywiście zachodzą.
Przedstawimy użyteczność badań dotyczących trafności teoretycznej na przykładzie badań
Miltona Rokeacha nad dogmatyzmem7.
Przyjmując określone założenia teoretyczne, Rokeach skonstruował kwestionariusz
dogmatyzmu. Kwestionariusz składał się z twierdzeń mierzących sztywność umysłu, cechę
osobowości ujawniającą się w każdym wyznawanym systemie przekonań czy ideologii, bez
względu na jej treść. Rokeach twierdził, że przekonania jednostki mające charakter
ideologiczny są powiązane z jej osobowością, procesami myślowymi i zachowaniem. Dlatego
sądził, że dogmatyzm jest cechą ujawniającą się poprzez sztywne kanony myślenia.
Przeprowadził on wiele badań sprawdzających zarówno teorię, jak i trafność teoretyczną
skonstruowanego przez siebie kwestionariusza. W jednym z badań posłużył się techniką
znanych grup. Technika
6 Lee J. Cronbach (1984), Essentials of Psychological Testing, wyd. 4, New York:
Harper & Row, s. 121.
' Milton Rokeach (1960), The Open and the Closed Mind, New York: Basic Books.
183
ta polega na przebadaniu określonym narzędziem pomiarowym grup ludzi o znał nych
cechach po to, aby na tej podstawie określić kierunek różnic pomiędzy grol parni. Rokeach
poprosił profesorów college'u i studentów ostatnich lat, aby wskfl zali przyjaciół, którzy ich
zdaniem mają umysł otwarty, a którzy zamknięty. Oka zało się, że kwestionariusz
dogmatyzmu dobrze różnicował obie grupy. Ten wynB stał się podstawą uznania, że miara
dogmatyzmu jest trafna teoretycznie.
Cronbach i Meehl opisali proces badania trafności teoretycznej ze względu ml logikę
postępowania w sposób następujący: najpierw naukowiec formułuje twiefl dzenie, że
narzędzie pomiarowe mierzy określoną własność (powiedzmy własnoB A); następnie
twierdzenie to wbudowuje w ramy teorii dotyczącej własności^ dalej, analizując teorię,
określa, które cechy powinny być powiązane z narzc-B dziem pomiarowym, a dla których
takiego związku nie da się określić; na koniecB zbiera dane empiryczne, które staną się
podstawą przyjęcia lub odrzucenia okreś-1 lonych wcześniej relacji. Jeżeli określone
wcześniej relacje zostaną potwierdzfflB to narzędzie pomiarowe może zostać uznane za trafne
teoretycznie. Jeżeli natoł miast tak się nie stanie, to wyjaśnienia można szukać w jednym z
trzech powoł dów: (1) narzędzie pomiarowe nie mierzy własności A, (2) ramy teoretyczne,
him re były podstawą określania prawdopodobnych związków, zostały źle określoaM (3)
zastosowany schemat badawczy nie pozwalał adekwatnie ocenić, czy zacbfl dzą poszukiwane
związki. Badacz musi zatem ocenić, która z tych trzech nwfl liwości zachodzi w jego
przypadku. Decyzja ta powinna wynikać z dokładał analizy każdego z czterech kroków
składających się na proces walidacji narzędzifl pomiarowego8.
Campbell i Fiske zaproponowali inną metodę badania trafności teoretycznej
polegającą na budowaniu macierzy korelacji9. Metoda ta, odwołująca i do pojęcia aspektu
zbieżnego i różnicowego trafności znanaj jako technika wielu c e c h-w i e 1 u m e t o d. U
podstaw tej techniki leży za żenię, że różne metody mierzące tę samą własność powinny
dawać te same wyi ki, natomiast różne własności powinny prowadzić do otrzymania różnych
wyi ków, bez względu na zastosowaną metodę pomiaru. Operacyjnie oznacza to, I
współczynniki korelacji pomiędzy wynikami narzędzi pomiarowych mierzącyi tę samą cechę
powinny być wyższe niż współczynniki korelacji pomiędzy wyi kami podobnych narzędzi
pomiarowych, lecz mierzących różne cechy. Abyj twierdzić trafność teoretyczną narzędzia
pomiarowego, badacz powinien przeai lizować oba aspekty trafności, tj. zbieżny (dwa
pomiary tej samej cechy powij ze sobą wysoko korelować, nawet jeżeli uzyskano je za
pomocą różnych meto oraz różnicowy (dwa pomiary różnych własności nie powinny ze sobą
wysoki korelować, nawet jeżeli uzyskano je za pomocą podobnych narzędzi pomiar wych).
8 Lee J. Cronbach, Paul Meehl (1955), Construct Validity in Psychological Tests,
„Psycholo Bulletin", 52, s. 281-302.
9 Donald T. Campbell, Donald W. Fiske (1959), Convergent and Discriminant
Validation by Multitrait-Multimethod Matrix, „Psychological Bulletin", 56, s. 81-105.
184
Izi o zna-ędzy gru-iby wska-ięty. Oka-
ren wynik
zględu na uje twier-własność isności A; : z narzę-na koniec nia okreś-vierdzone, ;żeli
nato-;ch powo-czne, któ-określone, :zy zacho-zech moż-dokladnej narzędzia
oretycznej ałująca się znana jest leży zało-ame wyni-ych wyni-icza to, że nierzących
:dzy wyni-'. Aby po-n przeana-y powinny ich metod) bą wysoko < pomiaro-
'sychological iation by the
Trzy rodzaje trafności
¦ Trafność treściowa. Przekonanie badacza, że narzędzie pomiarowe mierzy określoną
charakterystykę, jest odzwierciedlone w postaci tzw. trafności fasadowej — subiektywnej
oceny trafności narzędzia pomiarowego. Z kolei trafność doboru próby pozwala określić
zakres, w jakim pytania, twierdzenia i inne wskaźniki wbudowane w narzędzie pomiarowe
odzwierciedlają mierzoną właściwość.
¦ Trafność empiryczna. Jeżeli narzędzie pomiarowe jest trafne, to powinien zachodzić
silny związek pomiędzy wynikami, jakie można prognozować na jego podstawie i wynikami
otrzymanymi za jego pomocą. Trafność empiryczną można również oszacować, porównując
wyniki danego narzędzia z wynikami otrzymanymi za pomocą innych narzędzi pomiarowych.
¦ Trafność teoretyczna. Ten rodzaj trafności można oszacować, badając narzędzie
pomiarowe w świetle szerszego kontekstu teoretycznego.
Przyjmując, że istnieją trzy rodzaje trafności, postawmy pytanie: Jaki test należy
zastosować do oszacowania trafności określonego narzędzia pomiarowego? Jest to istotny
problem i nie ma prostej odpowiedzi na to pytanie. Dlatego zespół złożony z ekspertów z
różnych dyscyplin zalecił, aby badając określone narzędzie pomiarowe, oceniać wszystkie
trzy rodzaje trafności10. Zatem przystępując do konstruowania narzędzia pomiarowego,
należy najpierw przeanalizować teorię, która zostanie wykorzystana jako podstawa
teoretyczna dla narzędzia pomiarowego (trafność teoretyczna). Następnie należy określić
uniwersum treści pozycji testowych, z którego zostanie wybrana ich reprezentatywna próba
(trafność treściowa). Na koniec należy ocenić trafność prognostyczną (empiryczną) narzędzia
pomiarowego, korelując je z kryterium zewnętrznym.
I Rzetelność
Rzetelność to szczególnie ważny problem dla osób prowadzących badania w
dziedzinie nauk społecznych, ponieważ stosowane narzędzia badawcze rzadko są całkowicie
trafne. W wielu wypadkach dane na rzecz trafności są niemal w ogóle niedostępne. Dlatego
badacz musi ocenić narzędzie pomiarowe, odwołując się do innych jego właściwości i na tej
podstawie ocenić trafność. Metodą często stosowaną do oceny narzędzi pomiarowych w
naukach społecznych jest badanie stopnia jego rzetelności. Rzetelność dotyczy wielkości
błędu związanego z danym narzędziem pomiarowym, tj. błędu, który powstaje w sposób
losowy, w kolejnych pomiarach do-
10 Por. American Psychological Association Committee on Psychological Tests
(1954), Technical Recommendations for Psychological Tests and Diagnostic Techniques,
„Psychological Bulletin Suppl.", 51. s. 1-38; Donald Campbell (1960), Recommendations for
APA Test Standards Regarding Construct, Tran and Discriminant Validity, „American
Psychologist", 15, s. 546-553. [Por. też: Standardy dla testu/losowanych w psychologii i
pedagogice (1985), Warszawa: Polskie Towarzystwo Psychologiczne, Laboratorium Technik
Diagnostycznych, tłum. E. Hornowska (przyp. red. nauk.)].
185
konywanych za pomocą tego samego narzędzia pomiarowego. Na przykład, jeżeli
dwukrotnie zmierzymy długość biurka za pomocą tego samego narzędzia pomiarowego —
powiedzmy linijki — i otrzymamy nieco inne wyniki, to narzędzie to jest źródłem błędu
pomiaru. Ponieważ narzędzia stosowane w naukach społecznych do-1 starczają generalnie
miar pośrednich, zatem liczba błędów popełnianych w wypad-1 ku zmiennych o charakterze
społecznym jest znacznie wyższa niż w wypadku I zmiennych fizykalnych. Czynniki takie jak
chwilowe wahania uwagi respondenta I przy wypełnianiu kwestionariusza, niejasna instrukcja
czy trudności natury technicznej I (np. złamanie ołówka w trakcie wypełniania
kwestionariusza) przyczyniają siędfl powstania błędu pomiaru.
Każdy pomiar składa się z dwóch elementów: komponentu prawdzi-l w e g o oraz
komponentu błędu. Rzetelność można zatem zdefiniować jako I stosunek wariancji wyników
prawdziwych do wariancji całkowitej otrzymanych I wyników". (Wariancja jest miarą
rozproszenia wyników; opisuje, w jakim stopniu I wyniki różnią się od siebie, tj.
X(*,-Jt)2
CT2 =
N
Por. również rozdział 15). Algebraicznie wynik obserwowany każdej osoby możemy
przedstawić jako:
xi = t, + eh (7.1]
gdzie x, — wynik obserwowany dla /-tej osoby, r, — wynik prawdziwy dla i-t osoby,
e, — wielkość błędu popełnianego w trakcie pomiaru dla /-tej osoby. Wyrażając to równanie
w postaci wariancyjnej, otrzymamy:
a2 = of+er2,
gdzie o\ — wariancja wyników otrzymanych, o] — wariancja wyników prawd wych,
oj — wariancja błędu.
Rzetelność definiowaną jako stosunek wariancji wyniku prawdziwego do I riancji
wyników obserwowanych można przedstawić następująco:
,, ,, of (Ź ~ o] rzetelność = — =------=—.
Odwołując się do równania (7.2), możemy stwierdzić, że jeżeli pomiar zawiera wy-j
łącznie błąd, to o\ = oj i rzetelność wynosi zero. Jeżeli z kolei w ogóle nie po| niamy błędu, to
oj - 0, a rzetelność definiowana jako stosunek dwóch wari; wynosi
opętanej.
1' Definicja ta i dalsze wnioskowanie zostało zaczerpnięte z pracy CG. Helmstadtera.
Researi Concepts, s. 169-176.
186
a-1-
Współczynnik rzetelności może zatem przyjmować wartości od 0 (kiedy pomiar nic
zawiera niczego ponad błąd) do 1 (kiedy błąd został całkowicie wyeliminowany).
W praktyce nie można obliczyć wyniku prawdziwego niezależnie od błędów, które
mogą się pojawić w każdym akcie pomiaru. Dlatego należy oszacować wielkość stosunku
o;/o].
Istnieją trzy podstawowe sposoby szacowania rzetelności: metoda powtórnego
testowania, metoda form równoległych oraz metoda połówkowania.
Metoda powtórnego testowania
Metoda powtórnego testowania wywodzi się wprost z definicji rzetelności. Polega na
dwukrotnym przebadaniu tej samej grupy osób tym samym narzędziem pomiarowym i na
obliczeniu współczynnika korelacji pomiędzy dwoma zbiorami wyników (obserwacji).
Współczynnik ten nazywa się współczynnikiem rzetelności. W tym wypadku błąd obejmuje
wszystkie te czynniki, które powodują, że wynik otrzymany przez daną osobę w jednym
badaniu jest inny niż wynik tej osoby w drugim badaniu. Symbolicznie:
Sl r«-SY (7-3)
gdzie x — wynik w pierwszym badaniu, x — wynik w drugim badaniu, rrf
współczynnik korelacji pomiędzy miarami x i x\ S; — oszacowana wariancja wyników
prawdziwych, S2X — obliczona wariancja wyników obserwowanych. Korelacja ra pozwala
na oszacowanie rzetelności definiowanej jako stosunek wariancji wyników prawdziwych do
wariancji wyników obserwowanych. (Metody obliczania współczynnika korelacji
przedstawiamy w rozdziale 16).
Metoda powtórnego testowania ma duże ograniczenia. Po pierwsze, pomiar dokonany
za pierwszym razem może wpłynąć na pomiar dokonany za drugim razem. Jeżeli na przykład
narzędziem pomiarowym jest kwestionariusz, to respondent może zapamiętać treść pytań i za
drugim razem udzielić tych samych odpowiedzi. Otrzymana wartość współczynnika
rzetelności będzie w tej sytuacji wysoka, lecz jednocześnie przeszacowana. Po drugie,
ponieważ wiele zjawisk podlega ciągłym zmianom, może się zdarzyć tak, że zmiany te
wydarzą się w przerwie pomiędzy dwoma pomiarami i wpłyną na obniżenie współczynnika
rzetelności. Metoda powtórnego testowania może zatem przeszacowywać (lub nie
doszacowywać) prawdziwą rzetelność narzędzia pomiarowego i często trudno określić, która
z tych dwóch sytuacji zaistniała.
Metoda form równoległych
Jednym ze sposobów przezwyciężenia ograniczeń metody powtórnego testowania jest
wykorzystanie techniki form równoległych. Aby zastosować tę technikę, badacz musi
stworzyć dwie równoległe wersje narzędzia pomiarowego. Następnie do-
187
konuje się pomiaru tej samej grupy osób badanych za pomocą obu form i koreluje
otrzymane dwa zbiory wyników w celu otrzymania miary rzetelności. Stosowanie tej techniki
rodzi jednak nowy problem, a mianowicie, czy dwie formy testu sąrzi czywiście równoległe.
Chociaż istnieją testy statystyczne pozwalające sprawdzić, czy dwie formy testu są
równoległe w terminach wskaźników statystycznych, to| oceniając wyniki, badacze nadal
muszą polegać na własnych sądach12.
Metoda połówkowa
Szacowanie rzetelności w metodzie połówkowej polega na traktowaniu każdej z
dwóch lub więcej części testu jako niezależnej skali. Przypuśćmy, że naszym narzędziem
pomiarowym jest kwestionariusz. Kwestionariusz dzielimy na dwie czJ ści w ten sposób, że
pytania nieparzyste tworzą jedną część, a pytania parzyste drugą. Każda z dwóch części
kwestionariusza jest oceniana i traktowana niezależnie. Uzyskane w ten sposób dwa zbiory
wyników są następnie korelowane ze sobą. a współczynnik korelacji jest traktowany jako
miara rzetelności. Aby na podstawie korelacji połówek testu oszacować rzetelność całego
testu, należy zastosować tza proroczy wzór Spearmana-Browna:
gdzie rxv. — rzetelność całego testu, roe — współczynnik rzetelności otrzymany
przez skorelowanie połowy testu składającej się z pozycji nieparzystych i polo* testu
składającej się z pozycji parzystych.
Stosując tę poprawkę, przyjmujemy, że narzędzie pomiarowe liczące 2;i pytań jest
bardziej rzetelne niż narzędzie składające się z n pytań. Ponieważ nasze narzl dzie pomiarowe
zostało przepołowione na pozycje parzyste i nieparzyste i dla każdej części obliczono
niezależny wynik, zatem rzetelność całego narzędzia pomiarowego będzie większa niż
rzetelność każdej połowy testu stosowanej oddziel™
Cronbach, Rajaratnam i Glesser dokonali rewizji klasycznego pojęcia rzetelnc-j ści13.
Ich zdaniem podstawowym problemem teorii rzetelności powinna byćodpi wiedź na pytanie:
„Jak dalece (na jakie uniwersum) chcemy uogólniać potencjala wyniki testowe?" Zamiast
pojęcia rzetelności wprowadzili oni pojęcie uniwersali-i zacji. Zgodnie z teorią
uniwersalizacji tym, co naprawdę nas interesuje, jest zabB w jakim jeden zbiór pomiarów jest
podobny do innego zbioru pomiarów pochodzi cego z uniwersum wszystkich potencjalnych
miar oraz pod kątem jakich właściwi ści są one do siebie podobne. Ta sama zasada odnosi się
do różnic pomiędzy zbifl rami pomiarów pochodzących z uniwersum potencjalnych miar.
Pytając o pódl bieństwa czy różnice, pytamy o ograniczenia możliwości dokonywania
uogól™ opartych na wynikach jednego zbioru pomiarów. To, czy określony związek pom*
dzy pomiarami uznamy za wskaźnik rzetelności czy uniwersalizacji, zależy od tęgi w jaki
sposób zdefiniujemy różnice i podobieństwa warunków i miar. Natomił to, w jaki sposób
badacze konstruują listę pozycji czy właściwości, które są tan
12 Por. Harold Gulliksen (1962), Theory of Mental Tests, New York: Wiley.
13 Lee J. Cronbach, Nageswars Rajaratnam, Goldine C. Glesser (1963), A Theory of
Generałom lity: A Liberalization of Reliability Theory, „British Journal of Statistical
Psychology", 16, s. 137-11
188
same czy różne w każdym zbiorze pomiarów, zależy oczywiście od problemu
badawczego14.
¦ Podsumowanie
1. Pomiar polega na przyporządkowywaniu liczb zmiennym, właściwościom czy
zdarzeniom zgodnie z określonymi regułami. Istotą tej definicji jest sformułowanie ..zgodnie
z określonymi regułami". Reguły te wiążą procedury pomiarowe z rzeczywistością, tj. ustalają
homomorfizm pomiędzy określoną strukturą liczbową a strukturą mierzonej zmiennej.
Określenie izomorfizmu jest warunkiem przeprowadzenia takich operacji matematycznych na
liczbach, które odpowiadają rzeczywistym właściwościom.
2. Izomorfizm pomiędzy systemem liczbowym i właściwościami empirycznymi
pozwala na rozróżnienie czterech poziomów pomiaru: nominalnego, porządkowego,
interwałowego i ilorazowego. Ogólnie rzecz biorąc, poziom pomiaru określa, jakie analizy
ilościowe można przeprowadzać na określonym zbiorze wartości liczbowych.
3. Procedury pomiarowe są bardzo wrażliwe na zabieg transformacji danych i błąd
pomiaru. Właściwości, które można zmierzyć z większym poziomem precyzji, można
również zmierzyć z mniejszą precyzją, ale nie odwrotnie. Oznacza to, że niektóre dane można
przekształcić z poziomu ilorazowego na nominalny, ale żadnych danych z poziomu
nominalnego nie można przekształcić na poziom ilorazowy.
4. Błąd pomiaru odnosi się do dokładności i stałości samego narzędzia pomiarowego.
Źródło błędu może leżeć w złym określeniu tego, co rzeczywiście jest mierzone (np. raczej
inteligencja niż postawy), lub we wrażliwości pomiarów na czynniki sytuacyjne (np. zdolność
respondenta do koncentrowania się w pokoju pełnym hałasu). W każdym wypadku błąd
odzwierciedla problemy związane z mierzeniem, a nie rzeczywiste różnice w wielkościach
mierzonej zmiennej.
5. Pojęcia trafności i rzetelności są ściśle związane z pomiarem. Określają one źródła
btędu pomiaru. Trafność dotyczy pytania, z jaką dokładnością badacze mierzą to. co chcieliby
mierzyć. Tradycyjnie wyróżnia się trzy rodzaje trafności: trafność treściową, trafność
empiryczną i trafność teoretyczną. Każda z nich odnosi się do innego aspektu sytuacji
pomiarowej. Aby określić trafność narzędzia pomiarowego, badacz musi zebrać dane na
temat wszystkich trzech rodzajów trafności.
6. Rzetelność wskazuje na wielkość błędu popełnianego w trakcie pomiaru.
Operacyjnie zakłada się, że każdy pomiar składa się z wartości prawdziwej i komponenty
błędu. Miarą rzetelności jest stosunek wariancji prawdziwej do całkowitej wariancji
wyników. Badacze oceniają rzetelność, stosując jedną z trzech następujących metod: metodę
powtórnego testowania, technikę form równoległych lub metodę połówkową. W teorii
uniwersalizacji przyjmuje się, że podstawowe zagadnienie rzetelności dotyczy zakresu, w
jakim jeden zbiór pomiarów jest podobny do innego zbioru pomiarów pochodzącego z
uniwersum wszystkich potencjalnych miar.
" Informacje na temat statystycznego wskaźnika uniwersalizacji można znaleźć w
pracy: Goldine C.GIesser. Lee J. Cronbach, Nageswars Rajaratnam (1965), Generalizability
of Scores Influenced by Muhipk Scores of Variance. „Psychometrika", 30, s. 395-418.
189
¦ Podstawowe terminy
błąd pomiaru 179 technika znanych grup 183
izomorfizm 172 trafność 180
metoda połówkowa 188 trafność doboru próby 181
metoda powtórnego testowania 187 trafność empiryczna 181
pomiar 170 trafność fasadowa 180
poziom interwałowy 176 trafność prognostyczna 181
poziom nominalny 173 trafność teoretyczna 183
poziom porządkowy 174 uniwersalizacja 188
poziom stosunkowy 177 wskaźnik 172
rzetelność 185 współczynnik rzetelności 187
technika form równoległych 187
Pytania sprawdzajgce
1. Zdefiniuj, co to jest pomiar, i wyjaśnij, dlaczego pomiar jest tak ważny wm daniach
naukowych?
2. Jakie znasz podstawowe poziomy pomiaru? Dlaczego różnice pomiędzy różnymi
poziomami pomiaru mają istotne znaczenie?
3. Podaj przykład danych, które po transformacji mogą zostać przeniesiffl z jednego
poziomu na inny, oraz takich danych, których nie można przetraw formować.
4. Zdefiniuj pojęcie rzetelności i omów sposoby jej szacowania.
5. W jaki sposób rzetelność jest powiązana z trafnością? Podaj przykład.
¦ Literatura dodatkowa
American Psychological Association (1985), Standardy dla testów stosowanych w
psychologii i ptĄ
gogice, „Biblioteka Psychologa Praktyka", t. I, Warszawa: Pol. Tow. Psychol.
Brzeziński J. (1997), Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd. Nauk.
PWN. Brzeziński J. (red.) (1988), Problemy teorii, rzetelności, konstrukcji i analizy wyników
testów \mó»
logicznych, „Biblioteka Psychologa Praktyka", t. II, Warszawa: Pol. Tow. Psychol.
Coombs C.H., Dawes R.M., Tversky A. (1977), Wprowadzenie do psychologii
matematycznej, Warsaj
wa: PWN. Nowakowska M. (1975), Psychologia ilościowa z elementami naukometrii,
Warszawa: Wyd. liĄ
PWN. Walenta K. (1971), Podstawowe pojęcia teorii pomiaru, w: J. Kozielecki (red.),
Problemy psychom
matematycznej, Warszawa: PWN.
Rozdział 8
Dobór próby i schematy doboru próby
Po co jest potrzebna próba? 193
Populacja 193 Jednostka doboru próby 194 Populacje skończone i nieskończone
195 Podstawa doboru próby (operat) 195
Btędy w konstrukcji podstawy doboru próby: wybory prezydenckie w roku 1936 197
Schematy doboru próby 197
Dobór losowy i nielosowy 198 Nielosowe schematy doboru próby 198 Losowe
schematy doboru próby 200 Losowy dobór próby: podsumowanie 206 Losowy dobór
próby: przykład 206
Wielkość próby 208 Btąd standardowy 209 Przedziały ufności 211 Określanie
wielkości próby 213
Błędy nielosowe 214
Podsumowanie 216
Podstawowe terminy 216
Pytania sprawdzające 217
Literatura dodatkowa 217
Organizowanie sondaży przedwyborczych, na podstawie których można przewidywać
wyniki wyborów, stało się ostatnio bardzo popularne. W trakcie kampanii roku 1992 wyniki
sondaży prowadziły do przeszacowywania prognozowanego zwycięstwa Clintona i
niedoszacowywania siły Perota. Co można powiedzieć na temat głosowania i procedur
doboru próby, biorąc pod uwagę te niedokładności? Badając sposób organizowania sondaży,
Richard Lau sformułował istotne wnioski metodologiczne dotyczące głosowania w ogóle1.
Według Laua zróżnicowanie wyników, podobnie jak błąd, jest wynikiem zbyt małej
liczebności próby, specyfiki populacji, z której się wybiera osoby badane i (np.
„zarejestrowani wyborcy" vs „prawdopodobni wyborcy"), niewłaściwie określonego odsetka
braku odpowiedzi (zwłaszcza że pora dnia lub dzień tygodnia, w którym przeprowadza się
sondaż, może skutecznie ograniczyć włączenie pewnych grup), proporcji osób
„niezdecydowanych" oraz tego, na ile dni przed właściwymi wyborami przeprowadza się
badania. Jeżeli te czynniki wpływają na wyniki sondaży, to czy wpływają również na wyniki
innych badań, w których korzysta się z określonej próby osób badanych?
W tym rozdziale zajmiemy się podstawami teorii doboru próby oraz omów™ sposoby
doboru próby. W pierwszej części omawiamy cele doboru próbji Następnie przechodzimy do
definicji i omawiamy podstawowe pojęcia — populł cji; jednostki, z której składa się próba;
podstawy, z której wybiera się próbę; próbł a także schematy losowego i nielosowego doboru
próby. Dalej zajmujemy sięproB lemem określania wielkości próby. Na koniec
przedstawiamy procedury szacowH nia wielkości błędu nie wynikającego ze sposobu doboru
próby.
Badacze zbierają dane po to, aby przetestować postawione hipotezy oraz uzys-l kać
empiryczne podstawy wyjaśniania i przewidywania. Mając skonstruowane nal rzędzie
pomiarowe pozwalające uzyskiwać odpowiednie dane z punktu widzenia problemu
badawczego, musimy zadbać o to, aby wyprowadzane wnioski i prognoB zy można było
uogólnić. Tylko wówczas bowiem będą one miały wartość nauko™ Jak podkreślaliśmy to w
rozdziale 1 (ryc. 1.1), uogólnianie jest jednym z podstawo* wych etapów procesu
badawczego. Uogólnianie jest ważne nie tylko z punktu wi-I dzenia testowanych hipotez, lecz
również z powodu możliwości dokonywania szer-l szego opisu. Na przykład pytania takie,
jak: „Jaki jest poziom politycznego zaufłB nia wśród Amerykanów?" lub: „Czy osoby
głosujące bardziej się interesują spraw-mi środowiska obecnie niż dziesięć lat temu?"
wymagają opisowych uogólnień.! Zazwyczaj uogólnienia nie są oparte na danych
pochodzących ze wszystkichl możliwych pomiarów, od wszystkich respondentów czy
wynikających ze wszyJI kich zdarzeń zdefiniowanych w problemie badawczym. Badacze
posługują się i I czej stosunkowo małą liczbą przypadków (próbą) jako podstawą wyciągania
wniMI ków o całej zbiorowości (populacji). Sondaże przedwyborcze są tego dobrym przfl
kładem. Oparte na odpowiedziach stosunkowo małej grupy respondentów pozwł
' Richard R. Lau (1994), An Analysis of the Accuracy of 'Trial Heat' Polis During the
I992P4 sidential Election, „Public Opinion Quarterly", 58, s. 2-20.
192
Wl
u, przewidywać, jak głosowaliby wszyscy głosujący, gdyby wybory odbyły się wtedy,
kiedy został przeprowadzony sondaż. Na ich podstawie można rowmez przewidywać, jaki
będzie rozkład głosów w czasie rzeczywistych wyborów^Zarówno naukowcy prowadzący
badania w ramach nauk społecznych, jak i osoby organizujące sondaże przedwyborcze stosują
różne kryteria przy doborze próby, lo zas zkolei wpływa na rodzaj wniosków, jakie — na
podstawie danych z próby — można wyprowadzić o populacji.
I Po co jest potrzebna próba?
U podstaw uogólnień opartych na danych empirycznych leżą zazwyczaj wyniki
cząstkowe, ponieważ —jak to stwierdziliśmy wyżej — zebranie danych od wszystkich osób
objętych problemem badawczym nie jest zazwyczaj możliwe, jest niepraktyczne lub jest
zdecydowanie za drogie. Badacze mogą wyprowadzać precyzyjne wnioski dotyczące
wszystkich analizowanych obiektów (całego zbioru) na podstawie niewielkiej liczby
obiektów (podzbioru), pod warunkiem ze ow podzbiór jest reprezentatywny dla całego zbioru.
W badaniach marketingowych, na przykład, wykorzystuje się dane na temat preferencji
pochodzące z badań niewielkiej liczby gospodyń domowych po to, aby wprowadzić nowe
produkty na wielomilionowy rynek konsumentów. Agencja Ochrony Środowiska prowadzi
badania, testując niewielką liczbę samochodów, aby określić ich wpływ na środowisko. Dane
zebrane dla podzbioru samochodów wykorzystuje się w celu określenia i wprowadzenia
odpowiednich przepisów regulujących dopuszczalną emisję spalin przez wszystkie
samochody. . ., , , Całkowity
zbiór obiektów poddawanych analizie czy całkowity zbiór danych nazywamy populacją.
Natomiast podzbiór danych pochodzący z populacji i będący podstawą uogólnień na całą
populację nazywamy próbą. Wartość określonej zmiennej charakteryzującej populację - na
przykład medianę dochodów czy poziom formalnego wykształcenia — nazywamy
parametrem; jego odpowiednik w próbie nosi nazwę statystyki. Podstawowym celem teorii
doboru próby jest dostarczanie metod szacowania nieznanych wartości parametrów na
podstawie — dających się łatwo obliczyć — wartości odpowiednich statystyk.
Aby poprawnie oszacować nieznane wartości parametrów na podstawie znanych
wartości statystyk, należy wcześniej odpowiedzieć na trzy podstawowe pytania: (1) Jak
definiujemy populację? (2) Jaki wybieramy schemat doboru próby, (i) Jaka powinna być
wielkość próby?
I Populacja
Populacja - ujmując rzecz metodologicznie — to „zbiór wszystkich przypadków
wykazujących określone cechy"2. Na przykład, określając cechy jako „ludzie ...mieszkający
w Wielkiej Brytanii", możemy określić populację jako zbiorowość
' Isidor Chein (1981), An lntroduction to Sampling, w: Claire Selltiz i in. (red.),
Research Methods nSocial Relations, wyd. 4. New York: Holt, Rinehart and Winston, s. 419.
193
składającą się z wszystkich ludzi mieszkających w Wielkiej Brytanii. I podobnie,
jeżeli ¦ tymi cechami będą „studenci" i „przyjęci na studia w uniwersytetach stanowych
USA", I to naszą populację będą stanowić wszyscy studenci przyjęci na studia w
uniwersytetacli stanowych USA. W taki sam sposób możemy zdefiniować populację
składającą sięzel wszystkich gospodarstw domowych w określonej gminie, z wszystkich
zarejestrowa-1 nych wyborców w danym okręgu czy z wszystkich książek w bibliotece
publicznej. I Populację mogą stanowić wszyscy mieszkańcy określonej dzielnicy, instytucje
ustawodawcze, domy czy rejestry. To, jaka jest to populacja, zależy od problemu
badawczego. I Badając zachowania konsumentów w określonym mieście, możemy
zdefiniować I populację jako wszystkie gospodarstwa domowe w tym mieście. Możemy też,
jtf żeli interesuje nas konkretny produkt — powiedzmy karma dla psów — do populacji
zaliczyć wszystkich tych mieszkańców, którzy posiadają psy.
Podstawowym problemem przy określaniu wartości parametru (dla populacji) na
podstawie wartości zarejestrowanej w próbie jest zatem właściwe zdefiniowa populacji. Jeżeli
politolog interesuje się zachowaniami wyborców w Wielkiej Bn tanii i chciałby skonstruować
próbę, na podstawie której będzie mógł przewidywał wyniki głosowania, to powinien z niej
wykluczyć wszystkie osoby poniżej osie nastego roku życia, ponieważ nie mają one praw
wyborczych. Zdefiniowanie popu-J lacji jako „wszystkie osoby powyżej osiemnastego roku
życia, mieszkające w Wid kiej Brytanii" jest jednak określeniem zbyt szerokim, ponieważ aby
móc głosowat trzeba spełnić określone wymogi prawne. Osoby, które nie spełnią tych
wymogó* nie mają praw wyborczych i powinny zostać wyłączone z populacji, z której I
pobierana próba. Populacja powinna zatem zostać określona w terminach: (1) ofej któw, które
się na nią składają, (2) zakresu, (3) czasu — na przykład (a) wszyaj mieszkańcy powyżej
osiemnastego roku życia mieszkający na stałe w danym oki gu, (b) mieszkający w Wielkiej
Brytanii, (c) począwszy od 1 maja 1995 roku.
Jednostka doboru próby
Pojedynczy obiekt z populacji, z której będzie pobierana próba (np. głosujący, {
podarstwo domowe czy zdarzenie), jest określany jako jednostka doboru prób Jednostki
doboru próby są zazwyczaj charakteryzowane przez cechy ilościowe,! re mają istotne
znaczenie z punktu widzenia problemu badawczego. Na przyk jeżeli populacja jest
definiowana jako wszyscy trzecioklasiści, którzy konkretne] dnia poszli do szkół publicznych
w danym mieście, to jednostką doboru próby l trzecioklasiści. Trzecioklasiści jednak mają
wiele różnych cech (zmiennych), ta jak otrzymywane stopnie, nawyki, posiadane opinie czy
oczekiwania. Projekt l dawczy może dotyczyć tylko jednej z tych zmiennych, na przykład
stopni z i matyki czy związków pomiędzy kilkoma zmiennymi, np. ilorazów inteligencji i f<Ą
malnego wykształcenia rodziców.
Jednostką doboru próby nie zawsze musi być osoba. Może nią być zdarzeń;
uniwersytet, miasto czy naród. Rudolph J. Rummel, badając zachowanie się 1 w trakcie
konfliktów wewnętrznych i międzynarodowych, zebrał przez trzy lata i ne dotyczące
zachowania się ludzi (takie jak zabójstwa, walki partyzanckie, cz; ki, rozruchy, rewolucje,
akcje wojskowe, wojny) w 22 konfliktach wewnętrzny) i międzynarodowych dla 77 różnych
narodów1. W badaniu tym jednostką dob
3 Rudolph J. Rummel (1971), Dimentions of Conflict Behavior within and between
Natiom,w.\
194
próby były narody, ale nie wszystkie narody zostały wybrane. Jednostki doboru próby
musiały spełnić dwa kryteria, aby mogły zostać włączone do badań: (1) posiadać polityczną
suwerenność przynajmniej przez dwa lata i wyrażającą się w nawiązaniu dyplomatycznych
stosunków z innymi państwami, jak też posiadaniem ministerstwa spraw zagranicznych, oraz
(2) liczbę ludności nie mniejszą niż 800 000.
Populacje skończone i nieskończone
Populacja może być skończona lub nieskończona w zależności od tego, czy jednostka
doboru próby jest skończona lub nieskończona. Populacja skończona — na mocy definicji —
składa się z przeliczalnej liczby jednostek, np. wszyscy zarejestrowani wyborcy w danym
mieście i w danym roku. Populacja nie-ikończona natomiast składa się z nieskończenie wielu
jednostek, jak np. nieograniczona liczba rzutów monetą. Pobieranie próby po to, aby
otrzymać informacje o określonej właściwości konkretnej skończonej populacji nazywane jest
zazwyczaj doborem reprezentacyjnym.
Podstawa doboru próby (operat)
Mając zdefiniowaną populację, badacze pobierają próbę, która ma adekwatnie
reprezentować tę populację. Odpowiednie procedury polegają na pobieraniu próby z
podstawy doboru próby, którą tworzy pełna lista jednostek doboru próby. W sytuacji idealnej
podstawa doboru próby, czyli operat zawiera wszystkie jednostki Badające się na daną
populację. W praktyce jednak takie listy rzadko istnieją — badacze zazwyczaj tworzą listę
zastępczą. Na przykład w dużych badaniach obejmujących cały kraj trudno opracować listę,
która zawierałaby spis wszystkich mieszkańców Stanów Zjednoczonych. Z problemem tym
regularnie stykają się nawet duże instytucje badawcze, takie jak urząd statystyczny, który co
dziesięć lat podaje dane na temat wielkości populacji. Spis powszechny przeprowadzony w
roku 1990 kosztował prawie 2,6 miliarda dolarów i wymagał 277 milionów formularzy.
Urząd statystyczny uzyskał około 3,3 miliardów indywidualnych odpowiedzi zebranych
wiatach 1988-1991 przez prawie 480 tysięcy pracowników. Pracownicy ci opracowali i
sprawdzili listy adresowe oraz zebrali i zakodowali informacje dotyczące życia około 250
milionów ludzi i 106 milionów gospodarstw domowych w całych Stanach Zjednoczonych.
Urząd zatrudnił też doraźnie około 35 tysięcy pracowników, którzy w latach 1988-1989
chodzili od drzwi do drzwi, przeprowadzając bezpośrednie rozmowy. Opracowali oni listę
zawierającą około 43 milionów adresów gospodarstw domowych, często mieszczących się
poza dużymi metropoliami. Oprócz tego — na podstawie list adresowych posiadanych przez
komercyjne firmy wysyłkowe — urząd statystyczny dostarczył listę około 55 milionów
adresów mieszkańców dużych metropolii. Listy te zostały następnie sprawdzone przez
pracowników urzędu i pracowników poczty i dopiero na ich podstawie wydrukowano adresy,
które naklejono na koperty zawierające kwestionariusze4. Szacuje się jednak, że mimo
wszystkich tych wysiłków około 5 milionów Amerykanów nie znalazło
Gillespie. B.A. Nesvold (red.), Macroquantitative Analysis: Conflict, Development
and Democratiza-tion.Newbury Park, Calif.: Sagę.
Na podstawie: Census 90 Basics, U.S. Department of Commerce, Bureau of the
Census, Decem-
berlTO.s. 1.
195
się na żadnej liście. Podobnie jak w czasie spisu przeprowadzonego w roku 1980
rosnąca mobilność mieszkańców Stanów Zjednoczonych sprawiła, że opracowanie
kompletnej listy adresowej stało się bardzo trudne.
W badaniach prowadzonych na mniejszą skalę operat doboru próby możezoj stać
opracowany na podstawie książki telefonicznej, spisu mieszkańców danego miasta czy list
członków organizacji państwowych lub prywatnych.
Pomiędzy podstawą doboru próby a rzeczywistą populacją powinien istnieć bard dzo
wysoki stopień odpowiedniości. To, czy próba okaże się właściwa, zależy głównie i przede
wszystkim od podstawy doboru próby. I rzeczywiście, każdy aspekt schematu doboru próby
— populacja, etapy doboru i zastosowana procedura seleł-j cji — jest powiązany z podstawą
losowania. Zanim badacz pobierze próbę, najpierw musi ocenić jakość podstawy doboru
próby. Leslie Kish przedstawił listę* powych problemów związanych z tworzeniem podstawy
doboru próby. Lista ta obejmuje problemy takie, jak: niepełna podstawa doboru próby,
grupowanie elementowi oraz problem tzw. elementów pustych znajdujących się poza badaną
populacją.!
Niepełna podstawa doboru próby. Problem niepełnej podstawy doboru próby pol jawią
się wtedy, kiedy nie wszystkie jednostki doboru próby, z których składa m populacja,
znalazły się na liście. Na przykład, jeżeli populacja składa się z wszj nowych mieszkańców
danego miasta, to podstawa doboru próby oparta na liślfl właścicieli posiadłości w tym
mieście stworzy niepełną podstawę doboru prótł Znajdą się bowiem na niej wszyscy nowi
mieszkańcy, którzy kupili domy, alenfl znajdą się na niej ci nowi mieszkańcy, którzy
wynajmują domy lub mieszkania* Kiedy podstawa doboru próby jest niepełna, to jednym z
rozwiązań może bw stosowanie listy dodatkowej. Można, na przykład, stworzyć listę
wszystkich osdl które od niedawna wynajmują mieszkania, posługując się spisem
mieszkańców.jB śli ten spis zawiera informacje identyfikujące nowych mieszkańców.
Grupowanie elementów. Drugim potencjalnym problemem związanym z two™ niem
podstawy doboru próby jest grupowanie elementów. Problem ten pojawiał wtedy, kiedy
jednostki doboru próby tworzą raczej grupy, niż mają charakter indfl widualny. Podstawa
doboru próby może się na przykład składać z bloków mień kalnych, podczas gdy badanie
dotyczy osób. Jednym z możliwych rozwiązań tejfl problemu może być stworzenie najpierw
próby z bloków, a potem sporządzenie ¦ ty wszystkich mieszkań w każdym z wybranych
bloków. Następnie z każdego n» szkania wybiera się jedną osobę (w wielu mieszkaniach
mieszka bowiem więcł osób) zgodnie z przyjętymi wcześniej kryteriami, takimi jak osoby
powyżej 18rotfl życia czy wyłącznie głowy rodziny.
Puste elementy spoza populacji. Problem pustych elementów spoza populacji jefl dość
powszechny. Pojawia się on wtedy, kiedy niektóre z jednostek doboru próbflB które znalazły
się na liście tworzącej podstawę doboru próby, nie należą do popfl lacji będącej przedmiotem
badania. Z takim przypadkiem mamy do czynienia nil przykład wtedy, gdy populacja zostaje
zdefiniowana jako osoby posiadające prawi wyborcze, natomiast w podstawie doboru próby
znajdą się osoby, które są zbyli
5 Leslie Kish (1965), Sumey Sampling, New York: Wiley, paragraf 2.7. 196
młode, aby głosować. Problem ten powstaje też wtedy, gdy korzysta się z
nieaktualnych list. Może się tak zdarzyć, gdy korzystamy ze spisu mieszkańców danego
miasta, a spis ten zawiera jedynie adresy, a nie nazwiska mieszkańców. Brak nazwisk nie
oznacza jednak, że pod danym adresem nikt nie mieszka. Mieszkańcy mogli się niedawno
wprowadzić i jeszcze nie zostali wprowadzeni na taką listę. Takie przypadki należy traktować
jako puste i po prostu nie uzwględniać ich w próbie. Dobrze jest pobrać nieco większą próbę,
aby później móc zastąpić takie przypadki.
Błędy w konstrukcji podstawy doboru próby: wybory prezydenckie w roku 1936
Nasza analiza błędów popełnianych przy konstruowaniu podstawy doboru próby nie
byłaby pełna, gdybyśmy nie wspomnieli o najgłośniejszym takim przykładzie, tj. sondażu
przedwyborczym przeprowadzonym w roku 1936 przez magazyn „Li-terary Digest". Franklin
Delano Roosevelt, kończąc swoją pierwszą kadencję jako prezydent Stanów Zjednoczonych,
konkurował z kandydatem republikanów, Alfem Landonem z Kansas. „Literary Digest" w
największym sondażu przedwyborczym, który objął około 2,4 miliony ludzi, przewidział
zwycięstwo Landona przewagą 57% procent głosów do 43%. Mimo tej tak niekorzystnej
prognozy Roosevełt wygra! wybory z ogromną przewagą, bo 62% do 38% głosów6.
Pomimo że pobrana próba była bardzo duża, popełniony błąd okazał się ogromny —
największy, jaki kiedykolwiek popełniła instytucja organizująca badania sondażowe.
Podstawowym źródłem błędu okazała się podstawa doboru próby. Magazyn „Digest" wysłał
kwestionariusze do 10 milionów ludzi, których nazwiska i adresy pochodziły z takich źródeł
jak książki telefoniczne czy listy członków różnych klubów. Jednakże w roku 1936 ludzie
biedni nie posiadali telefonów jak również nie należeli do organizacji klubowych. Tym
samym tak skonstruowana podstawa doboru próby nie była pełna, albowiem w sposób
systematyczny wyeliminowano z niej ludzi biednych. To zaś okazało się szczególnie istotne
właśnie w roku 1936, w którym ludzie biedni głosowali głównie na Roosevelta, a dobrze
sytuowani na Landona7. Tak więc podstawa doboru próby nie odzwierciedlała w tym
przypadku populacji osób rzeczywiście głosujących.
¦ Schematy doboru próby
W poprzednich paragrafach omówiliśmy problemy związane z doborem próby w
odniesieniu do takich zagadnień jak sposób definiowania populacji i tworzenie podstawy
doboru próby. Kolejny problem związany z pobieraniem próby pojawia się wtedy, kiedy
badacze chcą skonstruować próbę reprezentatywną. Podstawowym wymogiem stawianym
wobec każdej próby jest to, aby była ona w maksymalnym stopniu reprezentatywna w
stosunku do populacji, z której została pobrana. Dana próba jest uważana za próbę
reprezentatywną wtedy, gdy wyprowadzane przez badacza wnioski na podstawie badania
próby są podobne do wniosków, które badacz otrzymałby, gdyby przebadał całą populację.
6David Freedman, Robert Pisani, Roger Purves (1978), Statistics, New York: Norton,
s. 302-307. 7 Ibidem.
197
Dobór losowy i nielosowy*
We współczesnej teorii doboru próby wprowadza się rozróżnienie na dobór losów; i
dobór nielosowy. Istotą doboru losowego jest to, że dla każdej jednostki dobom próby
wchodzącej w skład populacji możemy określić prawdopodobieństwo, zjJ kim jednostka ta
może znaleźć się w próbie. W najprostszym przypadku wszystkie jednostki mają jednakowe
prawdopodobieństwo znalezienia się w próbie. W pia padku doboru nielosowego natomiast
nie ma możliwości określenia prawdopodobieństwa włączenia określonego elementu do
próby i nie ma gwarancji, że każd} element może zostać włączony do próby z równym
prawdopodobieństwem. Jeżeli jakiś zbiór elementów nie ma żadnej szansy na to, aby znaleźć
się w próbie, ton leżałoby zawęzić definicję populacji. Oznacza to, że cechy tego zbioru
elementón pozostaną nieznane i nie będzie można poznać dokładnej charakterystyki
populacji8. Wracając do prognoz wyborczych w roku 1936, możemy powiedzieć, km
poznano wówczas intencji wyborczych ludzi biednych. Dlatego też, aby dobni próbę
reprezentatywną, należy posłużyć się wyłącznie doborem losowym.
Dobry projekt doboru próby pozwala przyjąć, że badania przeprowadzone ml różnych
próbach pobranych z tej samej populacji będą dawały rezultaty nie różnił ce się od
parametrów populacyjnych o więcej niż o określoną wartość. LosoB schematy doboru próby
pozwalają badaczom określić zakres, w jakim wyniki otm mane na podstawie badania próby
będą się różniły od wyników otrzymanych vi tuacji, w której badano by całą populację.
Posługując się losowym schematem al boru próby, można oszacować parametry populacyjne
na podstawie statystyk ona czonych z próby.
Chociaż parametry populacyjne można oszacować jedynie na podstawie próbl
losowych, w naukach społecznych często korzysta się z prób nielosowych. WplyB na to, z
jednej strony, wygoda, z drugiej — czynniki ekonomiczne. W niektórjł przypadkach (np.
badania eksploracyjne) mogą one przeważyć nad korzyściafl wynikającymi ze stosowania
prób losowych. W naukach społecznych korzystał z prób nielosowych również wtedy, kiedy
trudno jest precyzyjnie zdefiniować pol pulację lub kiedy nie da się stworzyć listy elementów
składających się na poptfl cję. Nie da się np. stworzyć listy osób nałogowo zażywających
narkotyki czy osfl nielegalnie mieszkających w Stanach Zjednoczonych.
Nielosowe schematy doboru próby
W naukach społecznych zazwyczaj wykorzystuje się trzy rodzaje prób, które zosofl ły
pobrane w sposób nielosowy. Są to: próba okolicznościowa, próba celowa i pnfl ba kwotowa.
Próba okolicznościowa. Próba okolicznościowa to próba, którą tworzą osoby¦ wo
dostępne. Profesorowie college'u mogą wybrać studentów ze swojej grupy;bfl
* Autorzy posługują się terminami: probability sampling i nonprobability sampling. co
moi tłumaczyć jako „probabilistyczny dobór próby" oraz „nieprobabilistyczny dobór próby".
W polskiej! teraturze dotyczącej metody reprezentacyjnej używa się terminu „dobór losowy" i
„dobór nielosowjH por. np. Steczkowski J. (1995), Metoda reprezentacyjna w badaniu
zjawisk ekonomiczno-spokrjm Warszawa-Kraków: Wyd. Nauk. PWN.
8 Chein, An lntroduction to Sampling, s. 421.
198
iwy oru
ja-
na-
u lanie dobrać
na róznią-Losowe otrzy-sy-do-obli-
prób Wpływa których zyściami się po-popula-osób
zosta-
pró-
łat-; ba-
dacz może wybrać pierwsze 200 osób, które spotka na ulicy i które wyrażą zgodę na
przeprowadzenie wywiadu. Nie ma żadnych możliwości określenia stopnia
reprezentatywności próby okolicznościowej i dlatego na jej podstawie nie można
oszacowywać parametrów populacyjnych.
Próba celowa. Do próby celowej (określanej czasami jako próba eksperc-ka) badacze
dobierają osoby w sposób subiektywny, starając się otrzymać próbę, która wydaje się
reprezentować populację. Innymi słowy, szansa zakwalifikowania określonej osoby do próby
zależy od subiektywnej oceny badacza. Ponieważ najczęściej trudno jest określić, dlaczego
badacze kwalifikują niektóre osoby jako należące do próby, dlatego trudno jest w przypadku
każdej osoby określić jej prawdopodobieństwo zakwalifikowania się do próby. Mimo to
próby celowe były z sukcesem wykorzystywane w naukach społecznych w badaniach,
których celem było prognozowanie wyników wyborów. W Stanach Zjednoczonych, na
przykład, badacze w każdym ze stanów wybierali określoną liczbę małych okręgów
wyborczych, w których wyniki w poprzednich wyborach odzwierciedlały wyniki otrzymane
wcatym stanie. Następnie wszystkim uprawnionym wyborcom zadano pytanie, na kogo będą
glosowali. Prognozy przedwyborcze zostały oparte na tak zebranych danych. Ryzykownym
założeniem, jakie przyjęto w tym przypadku, jest to, że wybrane okręgi nadal są
reprezentatywne dla całego stanu.
Próba kwotowa. Podstawowym celem tworzenia próby kwotowej jest uzyskanie
maksymalnego podobieństwa do populacji wyjściowej. I tak na przykład, jeżeli wiadomo, że
populacja składa się w równej części z kobiet i mężczyzn, to należy wybrać do próby taką
samą liczbę kobiet i mężczyzn. Jeżeli wiadomo, że 15% populacji to osoby o czarnym kolorze
skóry, to w próbie również powinno się znaleźć tyle osób o tym kolorze skóry. W doborze
kwotowym dobiera się osoby badane ze względu na takie parametry, jak: płeć, wiek, miejsce
zamieszkania czy pochodzenie etniczne, kierując się rozkładem tych zmiennych w populacji.
Na przykład prowadzący badania ankieter może otrzymać instrukcję przebadania 14 osób, z
których 1 mieszka na terenach podmiejskich, a 7 w mieście, 7 to kobiety, a 7 to mężczyźni,
oraz że spośród 7 mężczyzn 3 powinno być żonatych, a 4 kawalerami i że taki sam podział
ma zastosować w grupie kobiet. Analizując ten przykład, widać wyraźnie, ze dysproporcje
pomiędzy próbą i populacją mogą się pojawić w stosunku do tych wszystkich zmiennych,
które nie zostały uwzględnione w kwotach zdefiniowanych przez badacza. W przypadku
próby kwotowej, podobnie jak w przypadku innych prób opartych na doborze nielosowym,
nie możemy dokładnie oszacować parametrów populacyjnych na podstawie danych
otrzymanych z badania próby.
Osoby przygotowujące sondaże przedwyborcze posługiwały się próbami kwotowymi
aż do wyborów prezydenckich w roku 1948, kiedy to błędnie wyprogno-zowano zwycięstwo
Thomasa E. Deweya9. Przeprowadzono wówczas trzy sondaże przedwyborcze i we
wszystkich prognozowano zwycięstwo Deweya. Tymczasem okazało się, ze wybory wygrał
Harry S. Truman, uzyskując prawie 50% głosów, podczas gdy Dewey uzyskał niecałe 45%.
We wszystkich trzech sondażach wykorzystano próby kwotowe zbudowane
'Freedman i in., Slatistics, s. 302-307.
199
względem takich zmiennych, o których sądzono, że mają wpływ na sposób gfosoJ
wania. Do tych zmiennych należały: miejsce zamieszkania, płeć, wiek i pochodł nie etniczne.
I chociaż założenie, że te zmienne są istotne z punktu widzenia sptl sobu głosowania wydaje
się racjonalne, to można wskazać na wiele innych czyn-1 ników, które odegrały ważną rolę w
trakcie tych wyborów. Co ważniejsze, nie uwzględniono kwot zbudowanych ze względu na
głosy demokratów i republM nów, ale też rozkład opinii politycznych był dokładnie tym,
czego nie znano ił chciano poznać poprzez sondaż. I wreszcie najbardziej wątpliwym
elementem sow dąży z 1948 roku było przyjęcie strategii badania każdej dowolnej osoby
wewnąB określonej kwoty. To sprawiło, że ankieterzy prowadzili badania wedle własnejB
uznania, przyczyniając się w ten sposób do powstania istotnego błędu10.
Losowe schematy doboru próby
Jak wskazywaliśmy wcześniej, dobór losowy — w przeciwieństwie do doboru nid
losowego — pozwala na określenie prawdopodobieństwa, z jakim każdy elemej populacji
może zostać włączony do próby. W paragrafie tym przedstawimy cztd podstawowe metody
doboru losowego: losowanie indywidualne nieograniczone,! sowanie indywidualne
systematyczne, losowanie warstwowe i losowanie grupofl^
Losowanie indywidualne nieograniczone. Losowanie indywidualne nieograni ne jest
podstawowym sposobem doboru probabilistycznego i elementem wszysJ bardziej złożonych
losowych schematów doboru próby. W losowaniu indywid nym nieograniczonym każdy z
elementów składających się na całą populację (o czaną dużą literą AO ma takie same,
niezerowe prawdopodobieństwo dostania się próby. I tak na przykład prawdopodobieństwo
wyrzucenia orła lub reszki w tr' rzutu idealną monetą jest jednakowe i znane (wynosi 50%), a
każdy kolejny jest niezależny od wyników poprzednich. Aby skonstruować próbę losową, na
wcy najczęściej posługują się specjalnymi programami komputerowymi lub tab" mi liczb
losowych. Przykład tablicy liczb losowych przedstawiliśmy w dodatku Posługiwanie się taką
tablicą jest bardzo proste. Najpierw należy ponumero wszystkie elementy składające się na
populację i nadać im kolejne numery od 1 N. Następnie zaczynamy czytanie tablicy liczb
losowych od dowolnie wybran punktu. Czytamy kolejne liczby w dowolnym porządku (w
dół, w górę, po prze' nej), pilnując jednak, aby czytać je zawsze tak samo. Każda odczytana
liczba wiadająca numerowi na naszej liście wskazuje, który element populacji zos wybrany do
próby. Proces ten kontynuujemy tak długo, aż wylosujemy żądaną" bę elementów. Przy tej
metodzie doboru próby decyzja o wybraniu określonego mentu ma charakter losowy, tj.
niezależny od tego, jakie elementy zostały wcześ wybrane. Stosując tę procedurę konstrukcji
próby, eliminujemy wszelką systematy stronniczość w jej doborze i możemy oszacować
wartości parametrów, które reprezentować rzeczywiste wartości w ogólnej populacji.
Procedura doboru losowego gwarantuje, że prawdopodobieństwo włączenia dego
elementu populacji do próby będzie jednakowe. Prawdopodobieństwo to nosi n/N, gdzie n
oznacza wielkość próby, a N wielkość populacji". Jeżeli na
10 Ibidem, s. 305-307.
1' Matematyczny dowód tego równania można znaleźć w pracy Kisha, Sumey
Sampling, s. 3
200
kład populacja składa się z 50 389 osób posiadających prawa wyborcze w danym
mieście i mamy pobrać próbę liczącą 1800 osób, to prawdopodobieństwo wybrania do próby
każdego elementu populacji wynosi 1800/50 389, czyli 0,0357 (por. też przykład 8.1).
Przykład 8.1
W jaki sposób dokonać losowania indywidualnego nieograniczonego
Problem
W badaniu kosztów ponoszonych przez szpital regionalny analizowane będą karty
chorobowe pacjentów 7. V = 100 kart chorobowych należy wybrać losową próbę składającą
się z n = 10 kart.
1. Zaczynamy od ponumerowania kart, rozpoczynając od przypisania liczby 001
pierwszej karcie i kończąc na liczbie 100, którą przypiszemy setnej karcie. Zauważmy, że
każdej karcie składającej się na naszą populację przyporządkowaliśmy liczbę składającą się z
trzech cyfr. Gdyby liczba kart chorobowych wynosiła 1250, posługiwalibyśmy się liczbami
czterocyfrowymi. W naszym przypadku musimy odczytać trzycyfrowe liczby losowe, aby
każda karta chorobowa miała tę samą, znaną szansę dostania się do próby.
2. Otwórzmy teraz dodatek D i przyjrzyjmy się pierwszej kolumnie. Widzimy, że
każda kolumna składa się z liczb pięciocyfrowych. Jeżeli opuścimy dwie ostatnie cyfry w
każdej liczbie i zaczniemy tak otrzymane liczby czytać z góry w dół, to otrzymamy
następujące liczby trzycyfrowe:
521 007*
070* 053*
486 919
541 005*
326 007
293 690
024* 259
815 097*
296
Ostatnią liczbą jest 097 i znalazła się ona w 35 wierszu (kolumna 1). Nie musimy
czytać więcej liczb, ponieważ odczytaliśmy już dziesięć liczb, które wskazują, które elementy
zostaną zakwalifikowane do naszej próby (liczba 007 pojawiła się dwa razy, ale
wykorzystaliśmy ją tylko jeden raz). Liczby oznaczone gwiazdkami wskazują, które karty
chorobowe zostaną wybrane do próby, ponieważ tylko te liczby mieszczą się w określonym
przez nas zakresie od 001 do 100. Nasza próba losowa składa się teraz z dziesięciu
elementów:
094 070 005
071 024 097
023 007
010 053
• Nie musimy rozpoczynać od pierwszego wiersza w kolumnie pierwszej. Możemy
wybrać dowolny początek, na przykład siódmy wiersz kolumny drugiej. Możemy również
czytać liczby w dowolny sposób: z góry w dół, z lewej do prawej czy po przekątnej,
bylebyśmy tylko opracowali wcześniej określony plan.
104 854
223 289
241 635
421 094*
375 103
779 071*
995 510
963 023*
895 010*
201
Losowanie systematyczne. Losowanie systematyczne polega na wybieraniu każdego
K-tego elementu z populacji, począwszy od pierwszego elementu, który zostaje wybrany w
sposób losowy. I tak, jeżeli chcemy pobrać próbę składającą się ze 100 osób, pochodzącą z
populacji składającej się z 10 000 osób, to będziemy wybierać co setną osobę (K = N/n = 10
000/100 = 100). Pierwszy element wybieramy w spoJ sób losowy, na przykład korzystając z
tablic liczb losowych. Powiedzmy, że począ-l tek losowania ustaliliśmy od osoby czternastej.
Do próby wejdą zatem osoby mai jące następujące numery: 14, 114, 214, 314, 414 itd.
Losowanie systematyczne jest wygodniejsze niż losowanie indywidualne nieJ
ograniczone. W sytuacji, gdy badacz bez doświadczenia w stosowaniu różnych tediniłl
pobierania próby ma skonstruować próbę, łatwiej mu będzie wybierać co K-ty efl ment, niż
korzystać z tablic liczb losowych. Próby systematyczne jest także łat™ pobierać wtedy, gdy
populacja jest bardzo duża, lub wtedy, gdy pobrana próba™ być bardzo liczna.
Przykład 8.2
W jaki sposób dokonać losowania systematycznego
Problem
Chcielibyśmy poznać, jaki jest związek pomiędzy zawodem rodziców a średnią ocen
studentów wl żym ośrodku miejskim (N= 35 000). Niezbędne informacje można otrzymać na
podstawie danych pet nalnych studentów, dlatego też wylosowanych zostanie n = 700 teczek
z danymi personalnymi. Ichoa w tym przypadku możemy dokonać losowania indywidualnego
nieograniczonego (por. przykład 81 jednak wymagałoby to dużego nakładu pracy. Zamiast
tego możemy zastosować następującą procedu
1. Pierwszym krokiem jest ustalenie odstępu losowania K. Ponieważ N = 35 000, a
próba n =71 dlatego K wynosi 35 000/700, tj. K = 50.
2. Następnie, z pierwszych pięćdziesięciu teczek wybieramy losowo tę, od której
zaczniemy*) bierać co pięćdziesiątą osobę, aż otrzymamy pożądaną wielkość próby, równą
700 osobom.* todę tę można nazwać systematycznym losowaniem co pięćdziesiątego
elementu.
W losowaniu systematycznym każdy element populacji może zostać wylosowanj do
próby z prawdopodobieństwem l/K. W losowaniu tym może się jednak pojaw cykliczne
wahanie (określony wzorzec) danych, przypadające co każde ATelementói Zjawisko to może
być przyczyną pobrania próby stronniczej. Możemy na przykŁ prowadzić badania nad
przeciętną wielkością domu zajmowanego przez jedną rod nę i pierwszy wybrany dom okaże
się domem narożnym. Może się dalej tak zdarz] ze nie zauważymy, i/ każdy K-ty dom jest
również domem narożnym. W ten sposl nasza próba będzie próbą stronniczą, ponieważ domy
narożne są najczęściej więks Gdybyśmy wiedzieli, że taki wzorzec opisuje naszą populację, to
przesuwając nieci początek losowania, moglibyśmy ten problem zminimalizować12 .
Losowanie warstwowe. Badacze posługują się próbą warstwową przede wszyi kim po
to, aby mieć pewność, że różne grupy składające się na populację są wił
12 Inne procedury pozwalające uniknąć stronniczości wynikającej z systematecznego
wzorca H sującego populację zostały opisane w pracy Williama Cochrana (1977). Sampling
Techniąues, wjl New York: Wiley.
202
ciwie reprezentowane w próbie. Zwiększa to poziom dokładności przy
oszacowywaniu wartości parametrów. Co więcej, posiadając wszystkie cechy poprzednich
technik, losowanie warstwowe jest zdecydowanie korzystniejsze ze względów
ekonomicznych. Istotą losowania warstwowego jest podzielenie populacji „na grupy w taki
sposób, aby elementy należące do jednej grupy były do siebie bardziej podobne uż elementy
należące do populacji jako całości"13. Innymi słowy, oznacza to, że tworzymy zbiór
homogenicznych grup wyodrębnionych ze względu na badane zmienne. Dokonując losowania
z każdej grupy oddzielnie, otrzymujemy zbiór homogenicznych prób, które połączone razem
tworzą próbę bardziej heterogenicznej populacji. Zabieg ten zwiększa poziom dokładności
oszacowań parametrów.
Wyobraźmy sobie na przykład, że określona populacja składa się z 700 białych, 200
czarnych i 100 Meksykano-Amerykanów. Gdybyśmy pobrali próbę losową liczącą 100 osób,
to najprawdopodobniej do próby tej nie wejdzie dokładnie 70 białych, 20 czarnych i 10
Meksykano-Amerykanów — liczba Meksykano-Amerykanów może na przykład być zbyt
mała. Próba warstwowa składająca się z 70 białych, 20 czarnych i 10 Meksykano-
Amerykanów będzie lepiej reprezentować populację. Proces warstwowania nie łamie
założenia o losowości, ponieważ wewnątrz każdej warstwy próba jest pobierana właśnie w
sposób losowy.
Warunkiem koniecznym przy dzieleniu populacji na homogeniczne warstwy jest to, że
kryterium podziału musi pozostawać w związku z badanymi zmiennymi. Ponadto
zastosowane kryteria podziału nie powinny prowadzić do pobrania zbyt wielu prób.
Całkowita wielkość próby otrzymanej poprzez losowanie warstwowe nie powinna bowiem
przewyższać wielkości próby, którą uzyskalibyśmy przy zastosowaniu losowania
indywidualnego nieograniczonego. Przypuśćmy, że chcemy oszacować medianę dochodów
rodziny w małym mieście i znamy cechy charakteryzujące pojedynczą rodzinę. Ponieważ
wiadomo, że wielkość dochodów koreluje z zawodem, wykształceniem, pochodzeniem
etnicznym, wiekiem i płcią, zatem oparcie podziału na warstwy na tych kryteriach wydaje się
logiczne. Gdybyśmy jednak wykorzystali wszystkie te kryteria, to korzyści płynące z
losowania warstwowego zdecydowanie się zmniejszą, albowiem liczba prób, które
musielibyśmy pobrać, staje się ogromna.
Przeanalizujmy, co się wydarzy, jeżeli będą istniały cztery kategorie zawodu, trzy
wykształcenia, trzy pochodzenia etnicznego, trzy wieku i dwie kategorie płci. Liczba prób,
które trzeba by wylosować, będzie zatem wynosić: 4x3x3x3x2, czyli 216. Ponieważ ze
statytystycznego punktu widzenia liczba osób w każdej komórce me może być mniejsza niż
dziesięć, musimy wybrać przynajmniej 2160 osób, zakładając, że liczebność w
poszczególnych komórkach jest równa. Nikt nie uzna, że tń duża próba jest konieczna do
reprezentacji małego miasta. Aby rozwiązać ten problem, możemy przyjąć, że wiele
zmiennych będących podstawą podziału na warstwy to zmienne powiązane (tj. właściwości,
które razem występują). I tak na przykład, jeżeli przyjmiemy, że status społeczny jest
powiązany z zawodem, wykształceniem i pochodzeniem etnicznym, to liczbę prób możemy
zredukować do: 4 (wyodrębnione ze względu na status) x 3 (wyodrębnione ze względu na
wiek) x 2 (wyodrębnione ze względu na płeć) = 24, które łącznie liczą 240 osób. Taki
schemat
n=
s2 (SE)2
Aby obliczyć wielkość próby, musimy mieć jakieś wyobrażenie o wielkości
odchylenia standardowego w populacji i należy zdecydować, jak duży standardowy błąd
pomiaru możemy tolerować. Jeżeli na przykład mamy pobrać próbę losową z po-i liczącej
10000 elementów, a s2 = 0,20 oraz wartość akceptowanego
$L=0.016, to oszacowana wielkość próby wynosi
n—
0,20
0,000256
781,25.
Jeżeli wielkość próby okaże się zbyt duża w stosunku do populacji, to należy
wprowadzić poprawkę dla populacji nieskończenie dużych. W tym przypadku do 1 dodajemy
wartość ułamka n/N. Ostateczna wielkość próby powinna zatem zostać obliczona następująco:
n=
1 + (n/N)'
gdzieN — wielkość populacji, n — wielkość próby, n' by. W naszym przykładzie,
jeżeli N = 10 000, to
optymalna wielkość pró-
781>25 n' =--------=L7T-^ = 725.
1+
781,25
To ooo
213
W praktyce decyzje dotyczące wielkości próby są bardziej złożone. Badacze muszą
przede wszystkim zdecydować, jak precyzyjne wyniki chcieliby otrzymać, tj. muszą podjąć
decyzję o akceptowalnej wielkości standardowego błędu pomiaru. Po drugie, muszą określić
sposób analizy otrzymanych danych. Po trzecie wreszcie, jeżeli badacze analizują
jednocześnie więcej niż jedną zmienną, to powinni się upewnić, czy próba, która jest
wystarczająca dla jednej zmiennej, będzie również wystarczająca dla innej zmiennej20.
¦ Błędy nielosowe
W teorii losowego doboru próby rozważa się błędy wynikające z procedury loso-l
wania. Stosując idealny plan losowania, minimalizujemy ten rodzaj błędu. Jest toj błąd
wyznaczający różnicę pomiędzy tym, czego się spodziewamy, a tym, co otrzy-j mujemy,
stosując określony zbiór procedur. Jeżeli nawet błąd losowy zostaje zminimalizowany, to
nadal istnieje wiele innych źródeł błędu (np. błąd pomiaru — por. I rozdział 7). W badaniach
sondażowych najbardziej dominującym błędem jest błąd wynikający z braku odpowiedzi.
Nieudzielenie odpowiedzi prowadzi do braku danych i jest zazwyczaj spowodowane odmową
odpowiedzi, nieobecnością cza przeoczeniem określonych kategorii. Brak odpowiedzi może
w istotny sposób ob-1 ciążać otrzymane wyniki.
Przypomnijmy sondaż przedwyborczy przeprowadzony przez czasopismo ..Lite-1 rary
Digest" w 1936 roku. Prezentując to badanie, omówiliśmy błędy, jakie „Dii gest" popełniło w
procesie pobierania próby. Ale „Digest" popełniło później jesł cze inne istotne błędy,
opierając swoje szacunki na bardzo niskim procencie udzie-1 lonych odpowiedzi.
Opracowując wyniki sondażu, wykorzystano bowiem odpowiedzi, których udzieliło 2,4
miliona osób spośród 10 milionów wylosowanych do próby21. Ten fakt w istotny sposób
wpłynął na wyniki, jako że już w trakcie badań I sondażowych okazało się, że wśród osób nie
udzielających odpowiedzi przeważał zwolennicy Roosevelta, a wśród osób udzielających
odpowiedzi ponad połowa preB ferowała Landona.
Ogólnie rzecz biorąc, przyczyny zniekształcenia wyników mogą być nastf-1 pujące:
1. Im większa proporcja osób nie udzielających odpowiedzi, tym większy będziB
popełniany błąd. Proporcję udzielonych odpowiedzi możemy obliczyć w następfl jacy sposób:
n— r
R= 1------------,
n
gdzie R — proporcja udzielonych odpowiedzi, n — wielkość próby. I tak na przyn
kład, jeżeli wielkość próby wynosi 1200 osób i otrzymano 1000 odpowiedzi, topro-
20 Więcej informacji na ten temat można znaleźć w pracy Kisha, Survey Sampling
oraz w pracy CA. Mosera, Grahama Kaltona (1972), Survey Methods in Social Investigation,
wyd. 2. New York: Basic Books.
21 Freedman i in., Statistics, s. 302-307.
214
porcja otrzymanych odpowiedzi wynosi 1 - (1200 - 1000)/1200 = 0,83, a proporcja
braku odpowiedzi wynosi 0,17, czyli 17%.
2. Istotność błędu wynikającego z braku odpowiedzi zależy od zakresu, w jakim
średnia populacyjna obliczona w próbie dla warstwy osób nie udzielających^odpowiedzi
różni się od średniej obliczonej dla warstwy osób odpowiadających .
3. Każdy z wymienionych niżej powodów nieudzielenia odpowiedzi w inny sposób
wpływa na otrzymane wyniki. (Dotyczą one zarówno wyników całego kwestionariusza, jego
części, jak i pojedynczych pytań23).
¦ Brak możliwości przeprowadzenia wywiadu: ludzie chorzy, niepiśmienni czy
posiadający bariery językowe.
¦ Nieodnalezieni respondenci — osoby, które się przeprowadziły i nie są dostępne, na
przykład, z którymi ankieter nie może się umówić na spotkanie.
¦ Nieobecni w domu — osoby nieobecne w domu w momencie przeprowadzania
wywiadu, lecz dostępne kiedy indziej. Ich wyniki są dodawane w późniejszym terminie.
¦ Odmowa odpowiedzi — osoby, które odmawiają współpracy lub udzielenia
odpowiedzi na wszystkie pytania kwestionariusza. Odmowa odpowiedzi może zależeć od
rodzaju zadawanych pytań.
Proporcja osób nie udzielających odpowiedzi zależy od takich czynników, jak: rodzaj
populacji, metoda zbierania danych, rodzaj zadawanych pytań, umiejętności ankietera i liczba
ponawianych kontaktów z respondentem. Zle zaprojektowany i/lub źle przeprowadzony
wywiad może dawać wysoką proporcję nie udzielonych odpowiedzi.
. „.
Aby oszacować efekt, jaki wywiera brak odpowiedzi, ankieter może zebrać informacje
o osobach, które nie udzieliły odpowiedzi, ponownie się z nimi kontaktując. Przypuśćmy, ze z
osobami głosującymi w niewielkiej społeczności jest przeprowadzany wywiad po to, aby
można było określić, jaka część populacji utożsamia się z tą czy inną partią. Przypuśćmy też,
że w badaniach tych proporcja osób, które nie udzieliły odpowiedzi, wynosiła 10%. Wyniki te
przyniosą znacznie więcej informacji, jeżeli zostaną wzbogacone o dane na temat
wykształcenia czy dochodów osób, które nie udzieliły odpowiedzi. Załóżmy, że 10% oznacza
300 osób głosujących i ze wiemy z innych źródeł, iż 70% spośród nich zarabia około 25 000
rocznie. Jeżeli wiemy również, że 90% ludzi uzyskujących dochody w tym przedziale to
demokraci to możemy oszacować, że 189 osób, które nie udzieliły odpowiedzi w naszych
badaniach (0,70 x 300 x 0,90 = 189), to prawdopodobnie demokraci. Ponieważ jednak nie
możemy obliczyć błędu takiego oszacowania, to — aby poprawić wyniki ze względu na
osoby, które nie udzieliły odpowiedzi — tego typu oszacowania można wykorzystywać
jedynie wówczas, kiedy procent osób odpowiadających jest stosunkowo niski.
HMoser, Kalton, Survey Methods in Social lnvestigation, s. 166-167.
u Dennis J. Palumbo (1977), Statistics in Political and Behavioral Science, wyd. popr.,
New York: Columbia University Press, s. 296.
215
¦ Podsumowanie
1. W tym rozdziale skoncentrowaliśmy się na zagadnieniu, w jaki sposób można
oszacować parametry populacyjne na podstawie statystyk obliczonych w próbie. Aby
otrzymać dokładne oszacowania parametrów, badacz musi skutecznie rozwiązać trzy
problemy: (1) zdefiniować populację, (2) pobrać próbę reprezentatywni! oraz (3) określić
wielkość próby.
2. Populacja powinna zostać zdefiniowana w terminach treści, zakresu i czasu. Próbą
jest każdy podzbiór jednostek, z których się składa populacja. Próba może zawierać od
jednego elementu do wszystkich elementów z wyjątkiem jednego lub składać się z dowolnej
liczby elementów z tego zakresu.
3. Po zdefiniowaniu populacji i określeniu wielkości próby należy wybrać taki
schemat doboru próby, który gwarantuje jej reprezentatywność. Próba jest reprezentatywna
wtedy, kiedy analizy przeprowadzone na danych z próby dają wyniki równoważne tym, jakie
otrzymano by, analizując całą populację. Badacze korzystają z losowych schematów doboru
próby najczęściej wtedy, gdy potrafią określić prawdopodobieństwo włączenia każdego
elementu populacji do próby. W ramce na stronie 192 przedstawiliśmy podsumowanie
czterech podstawowych schematów lo-1 sowania — indywidualnego nieograniczonego,
indywidualnego systematycznego. I warstwowego i grupowego.
4. Określenie wielkości próby zależy bezpośrednio od wartości standardowej błędu
pomiaru i od szerokości przedziału ufności określonego przez badacza. Pflm dział ufności
może być skrajnie wąski, gdy badacz decyduje się na ponoszenie »n sokiego ryzyka
popełnienia błędu, lub bardzo szeroki, jeżeli chce, aby ryzyko pf pełnienia błędu było
minimalne.
5. W badaniach sondażowych, obok błędu losowania, mamy do czynienia z dem
spowodowanym nieudzielaniem odpowiedzi przez respondentów. Brak od] wiedzi może być
spowodowany odmową, nieobecnością, przeoczeniem kategi odpowiedzi itp. Brak
odpowiedzi może się przyczyniać do popełniania istotni błędu w trakcie analizowania
wyników. Jeżeli procent udzielonych odpowiedzi niski, to badacze powinni stosować którąś
ze wspomnianych technik rekompem wania.
¦ Podstawowe terminy
błąd standardowy 209 losowanie warstwowe 202
błąd wynikający parametr 193
z braku odpowiedzi 214 podstawa doboru próby 195
dobór losowy 198 podzbiór 208
dobór nielosowy 198 populacja 193
jednostka doboru próby 194 próba 193
losowanie grupowe 204 próba reprezentatywna 197
losowanie indywidualne przedział ufności 211
nieograniczone 200 statystyka 193
losowanie systematyczne 202
216
¦ Pytania sprawdzajgce
1. Dlaczego opisując populację, można korzystać z danych uzyskanych z badania
próby? Wymień podstawowe rodzaje prób i podaj przykłady.
2. Czym się różni losowy dobór próby od nielosowego doboru próby? Omów zalety i
wady każdego z tych sposobów. Jaki typ problemów społecznych nadaje się do analizowania
przy wykorzystaniu jednego i drugiego sposobu pobierania próby?
3. Omów podstawowe rodzaje losowego doboru próby. Omów ich wady i zalety i
wyjaśnij, w jaki sposób można pobierać próbę, wykorzystując każdy z tych sposobów.
4. Omów ideę błędu losowania. W jaki sposób — wykorzystując błąd losowania —
można kostruować przedziały ufności dla wartości oszacowanych na podstawie danych z
próby? Podaj przykład, w jaki sposób te informacje mogą wpłynąć na oczekiwane wyniki
sondaży?
5. Jakie czynniki mogą spowodować powstanie nielosowego błędu pomiaru w
badaniach sondażowych?
¦ Literatura dodatkowa
Brzeziński J. (1997). Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd.
Nauk. PWN. Sieczkowski J. (1995). Metoda reprezentacyjna w badaniach zjawisk
ekonomiczno-społecznych, War-cawa-Kraków: Wyd. Nauk. PWN.
CZĘSC III
ZBIERANIE DANYCH
Rozdział 9
Metody obserwacyjne
Triangulacja 222 Rola obserwacji 223
Rodzaje zachowań 225
Zachowania niewerbalne 225 Zachowania przestrzenne 225 Zachowania
parajęzykowe 226 Zachowania językowe 227
Określanie czasu obserwacji i rejestrowanie danych 227
Wnioskowanie 229
Rodzaje obserwacji 230
Obserwacja kontrolowana 230
Eksperymenty laboratoryjne 230
Realizm eksperymentalny i życiowy 232
Źródła stronniczości w eksperymencie laboratoryjnym 233
Rejestrowanie wyników obserwacji 235
Eksperyment terenowy 235
Podsumowanie 237
Podstawowe terminy 238
Pytania sprawdzające 238
Literatura dodatkowa 239
Zarówno przemysł perfumeryjny, jak i nowa dziedzina zwana aromatoterapią są
oparte na założeniu, że ludzie mają pozytywny stosunek do przyjemnych zapachów. Jednakże
niewielu zastanawiało się, w jaki sposób zapachy wpływają na nasze uczucia czy działania.
Problematyką tą zajęli się Robert Baron i Marna Bronfen1. W swych ostatnich badaniach
usiłowali odpowiedzieć na pytanie, czy wprowadzanie przyjemnych zapachów w miejscu
pracy przyczynia się do redukowania stresu i tym samym zwiększa wydajność pracowników.
Baron i Bronfen stworzyli dwie kontrolowane sytuacje, w których manipulowali zadaniem,
zapachem i nagrodą. Badanie to ujawniło dwa problemy metodologiczne, z którymi musi się
zetknąć każdy badacz. Po pierwsze, czy w warunkach laboratoryjnych daje się stworzyć
realistyczne warunki eksperymentalne, tzn. czy osoby badane spostrzegają sytuację
eksperymentalną jako realistyczną i sensowną. I po drugie, czy sytuację eksperymentalną
cechuje realizm życiowy. Czy zawiera ona takie elementy, jakie można znaleźć w
codziennym życiu? Innymi słowy, jaki jest związek pomiędzy sytuacją laboratoryjną a
życiem i czy rodzaj tego związku może wpłynąć na trafność wniosków wyprowadzanych
przez badacza?
Rozdział ten rozpoczniemy od omówienia czterech sposobów zbierania danych, z
jakimi możemy się zetknąć w naukach społecznych, oraz przedstawimy ideę tńangulacji —
metody polegającej na wykorzystywaniu danych otrzymywanych w różny sposób w celu
przetestowania danej hipotezy. Następnie omówimy, kiedy i jak stosować metodę obserwacji
w badaniach społecznych. Dalej przedstawimy rodzaje zachowań, jakie badacze obserwują,
oraz zaprezentujemy strategie prowadzenia obserwacji bezpośredniej i sposoby rejestracji
otrzymanych danych. Rozdział zakończymy omówieniem obserwacji kontrolowanej
prowadzonej w warunkach laboratoryjnych i w terenie.
Kiedy już zdecydujemy, co i jak chcemy badać, przechodzimy do etapu zbierania
danych. W naukach społecznych dane otrzymujemy, rejestrując wyniki dotyczące badanego
zjawiska. Możemy wyróżnić cztery podstawowe metody zbierania danych: techniki
obserwacyjne, badania sondażowe, wtórną analizę danych oraz badania jakościowe. Badacze
stosują wiele różnych konkretnych metod, gromadząc dane w każdy z tych sposobów.
Najbardziej rozpowszechnione metody omówiliśmy w kolejnych rozdziałach. Jednak już
teraz chcemy podkreślić, że każdy spośród tych czterech sposobów ma nie tylko swoje
unikatowe zalety, lecz także wewnętrzne ograniczenia. I tak na przykład, jeżeli badacz prosi
respondenta o wskazanie najbardziej wpływowego członka w swojej grupie pracowniczej
(badania sondażowe), to otrzymane dane mogą znacznie odbiegać od danych, jakie uzyskano
by z bezpośredniej obserwacji. Przykład ten wskazuje na fakt istnienia pewnej
„specyficzności danej metody" w każdym ze sposobów zbierania danych wykorzystywanych
Robert A. Baron, Marna I. Bronfen (1994), A Whiff of Reality: Empirical Evidence
Concerning iheEffects ofPleasant Fmgrances on Work-Related Behavior, „Journal of Applied
Social Psychology", 24. s. 1179-1203.
221
przez naukowców. Dlatego też, gdy tylko to możliwe, korzystają oni z technl
triangulacji metod, tzn. stosują więcej niz jeden sposób zbierania danych w cd przetestowania
tej samej hipotezy.
¦ Triangulacja
W naukach społecznych dane uzyskuje się w sytuacjach sformalizowanych i nil
sformalizowanych. Dotyczą one zachowań lub reakcji werbalnych (ustnych lubpi-l semnych)
i niewerbalnych. Połączenie dwóch typów sytuacji i dwóch rodzajowi akcji pozwala na
wyróżnienie czterech podstawowych metod zbierania danych: ml tod obserwacyjnych, badań
sondażowych (wywiady bezpośrednie i badania kw tionariuszowe, tak jak przedstawiono to w
rozdziale 10 i 11), wtórną analizę da™ (na przykład analiza istniejących dokumentów
omówiona w rozdziale 13) i badani jakościowe (zaprezentowane w rozdziale 12). Na jednym
krańcu znajdują się ofl tody stosowane przez badaczy wtedy, gdy są oni zainteresowani
badaniem zacni wań niewerbalnych w sytuacjach niesformalizowanych (np. obserwacja
uczesał cząca będąca forma badań jakościowych), a na drugim krańcu metody stosowali w
badaniu zachowań werbalnych (ustnych lub pisemnych) w sytuacjach sformall zowanych (np.
eksperymenty laboratoryjne i kwestionariusze ustrukturowane). I Jak już wspomnieliśmy
wcześniej, każda z wymienionych metod zbierania dal nych ma określone zalety, lecz
również i wewnętrzne ograniczenia. Na przyklał jeżeli obserwujemy zachowania w trakcie
ich trwania (obserwacja bezpośredni* to możemy nie dostrzec przyczyn ich pojawiania się (a
te można zidentyfikow na podstawie odpowiedzi udzielonych w ustrukturowanym
kwestionariuszu). Podobni* prosząc respondentów, aby nam słownie opowiedzieli o swoich
zachowania* (przeprowadzanie wywiadu), nie mamy żadnej gwarancji, że ich rzeczywistej
chowanie (poznane na podstawie obserwacji uczestniczącej lub na podstawieistnifl jących
zapisów) jest identyczne z zachowaniem deklarowanym. Na przykładw hi daniach, w których
celem było określenie trafności odpowiedzi udzielonych przefl matki objęte opieką społeczną
na pytania wywiadu dotyczącego głosowania, Canł Weiss stwierdziła:
Na pytania dotyczące głosowania i rejestracji 827r matek objętych opie łeczną
odpowiedziało dokładnie. Szesnaście procent zgłosiło nie istniejącąB jestrację, a 2% nie
podało faktu rzeczywistej rejestracji. Wielkość i kierund zniekształceń odpowiadają tym,
jakie zostały stwierdzone w badaniach nad W nością samoopisów zachowań wyborczych,
przeprowadzonych na dużych M pulacjach osób należących do klasy średniej2.
Istnieje duża rozbieżność pomiędzy zachowaniami werbalnymi ludzi a ich rzeczjl
wistymi zachowaniami zarówno w zakresie zachowań wyborczych, jak i innych a chowań.
Na wyniki badań wpływa do pewnego stopnia natura zastosowanej meto(| I
2 Carol Weiss (1968), Validity ofWelfare Mother's Intemiew Responses. ..Public
Opinion Quartaj ly", 32, s. 622-633.
222
zbierania danych. Wyniki, które w dużej mierze zależą od wykorzystanej metody,
mogą się okazać raczej artefaktami (tj. efektami zastosowanej metody analizy danych—por.
niżej i rozdział 5) niż faktami empirycznymi. Według Donalda Fiskego:
Wiedza w naukach społecznych jest rozdrobniona; składa się z oddzielnych części [...]
Odseparowanie czy specyficzność tych części wiedzy jest konsekwencją nie tylko różnych
przedmiotów poszukiwań, ale również specyficzności metody. Każda metoda tworzy jedną
podstawę poznania, jeden z odróżnialnych sposobów poznania1.
Aby zminimalizować stopień wpływu specyficzności określonych metod na konkretne
dziedziny wiedzy, badacz może wykorzystać dwie metody zbierania danych do
przetestowania tej samej hipotezy. Jest to istota metody triangulacji. I tak na przykład, oprócz
ustrukturowanego kwestionariusza można zastosować wywiad głęboki, przeanalizować
istniejące dokumenty albo dokonać obserwacji w terenie. Jeżeli dane otrzymane za pomocą
różnych metod są stałe, to trafność tych danych zdecydowanie wzrasta. Wykorzystywana jako
strategia badawcza, metoda triangulacji pozwala badaczom przezwyciężyć „osobiste
uprzedzenia i ograniczenia wynikające z przyjęcia jednej metodologii. Dzięki łączeniu
różnych metod w jednym badaniu badacze mogą częściowo pokonać brak dokładności
wynikający z zastosowania jednej tylko metody i przeprowadzenia badań tylko przez jednego
badacza"4.
I Rola obserwacji
Nauki społeczne wyrastają z obserwacji. Politycy obserwują między innymi
zachowania osób pełniących różne funkcje polityczne; antropolodzy obserwują zachowania
rytualne w prostych społecznościach; psychologowie społeczni obserwują interakcje w
małych grupach. W pewnym sensie każde badanie w naukach społecznych rozpoczyna się i
kończy empiryczną obserwacją.
Podstawową zaletą obserwacji jest jej bezpośredniość. Pozwala badaczom na
studiowanie zachowań w trakcie ich trwania. Badacz nie musi pytać ludzi o ich własne
zachowania i działania innych. Może po prostu obserwować zachowania poszczególnych
osób. To z kolei pozwala badaczowi na zbieranie danych bezpośrednich i zapobiega
oddziaływaniu czynników stojących pomiędzy nim a przedmiotem badań. Na przykład
zaburzenia pamięci mogą istotnie wpłynąć na wypowiedzi ludzi dotyczące ich przeszłych
zachowań, podczas gdy w metodzie obserwacji czynnik pamięci nie ma żadnego znaczenia.
Co więcej, podczas gdy inne metody zbierania danych mogą wprowadzić element
sztuczności do sytuacji badania, to dane zbierane za pomocą obserwacji opisują obserwowane
zjawisko tak, jak przebiega ono w naturalnych warun-
1 Donald W. Fiske (1986), Specificity of Method and Knowledge in Social Science,
w: Donald W. fisie. Richard A. Shweder (red.), Metalherapy in Social Science, Chicago:
University of Chicago Press, $.62.
'Norman K. Denzin (1986), The Research Act: A Theoretical Introduction to
Sociological Me-**fe. Englewood Cliffs. N.J.: Prentice-Hall, s. 236.
223
k a c h. Wywiad na przykład jest formą interakcji pomiędzy dwiema osobami. Jako I
taki staje się źródłem specyficznych problemów związanych z brakiem zgody col do roli, jaką
odgrywa badacz i respondent. W takiej sytuacji respondent może się 1 zachowywać
niestandardowo (por. rozdział 10). Zmienne tego typu można wyeli-l minować w badaniach
obserwacyjnych, zwłaszcza wtedy, kiedy osoba badana nie I jest świadoma tego, że jest
obserwowana, lub kiedy przyzwyczaja się do obserwal torą i nie postrzega go jako intruza.
Niektóre badania koncentrują się na tych osobach badanych, które nie potrafił!
sformułować odpowiedzi słownej lub nie potrafią sensownie zdawać relacji o sobjB samych.
Na przykład w większości badań nad dziećmi badacze powinni stosofl^ metodę obserwacji,
ponieważ dziecku trudno jest stosować introspekcję, werbalizł wać i pozostawać aktywnym w
długo trwających zadaniach. David Riesman i Jeafl ne Watson w bardzo ciekawych badaniach
dotyczących uspołecznienia dziecka pol sługiwali się metodą obserwacji, ponieważ dziecko
„nie włada językiem pozwalł jącym na omawianie spotkań towarzyskich, nie zna słów
pozwalających opisyw™ strony interakcji inaczej jak »byli dobrzy lub źli« i nie potrafi
odpowiedzieć napjfl tanie »Co robisz, aby się zabawić?«5
Badacze mogą również stosować metody obserwacyjne wtedy, kiedy ludzie nie mają
ochoty na opisywanie siebie samych za pomocą słów. Obserwacja w porółB naniu z
przekazami słownymi wymaga mniejszego zaangażowania osób badanydB Co więcej, dzięki
obserwacji badacze mogą określać trafność przekazów słown™ przez porównywanie ich z
rzeczywistym zachowaniem. I wreszcie, ponieważ w H daniach obserwacyjnych relacja
pomiędzy daną osobą a jej środowiskiem niejea zakłócana, badacz może obserwować wpływ
środowiska na badane osoby. To zł ułatwia analizę kontekstualnych podstaw zachowania.
Należy pamiętać, że obserwacja może przyjmować wiele postaci. Może < legać na
prostym obserwowaniu codziennych doświadczeń, a także może się j giwać tak
skomplikowaną aparaturą jak lustro weneckie (jednostronne) czy kai wideo. Ta wielorakość
technik sprawia, że obserwacja staje się dogodną metodąd wielu celów badawczych. Badacze
stosują metody obserwacyjne w badaniach ( serwacyjnych po to, aby uzyskać dane, które
staną się podstawą sformułowanial potez badawczych. Mogą je również wykorzystywać do
zbierania dodatkowych d nych pomocnych przy interpretowaniu wyników otrzymanych za
pomocą innyi metod lub jako podstawową metodę zbierania danych w badaniach opisowych.
Obserwacja zatem jest techniką bardzo zróżnicowaną. Może być przeprowat na w
warunkach naturalnych lub w laboratorium, pozwalając na badanie takich z wisk jak
schematy uczenia się w rzeczywistych sytuacjach życiowych (np. wl szkolnej czy na boisku)
lub w kontrolowanych warunkach eksperymentalnych, nocześnie metody obserwacyjne są
bardzo elastyczne. Niektóre zależą jedynie o postępu w badanej dziedzinie. Inne mogą być
wysoce specyficzne i operow wcześniej zaprojektowanymi ustrukturowanymi narzędziami
dla wąsko ok nych potrzeb. Badacze mogą sami stać się członkami obserwowanej grupy (obi
wacja uczestnicząca); mogą być postrzegani jako członkowie grupy, lecz mogąl ograniczać
swoją aktywność; mogą przyjąć rolę obserwatora, nie będąc człon
5 David Riesman, Jeanne Watson (1964), The Sociability Project: A Chronicie of
Fmstrutimt Achievement, w: Phillip E. Hammond (red.), Sociologist at Work, New York:
Basic Books. s. 313.
224
obserwowanej grupy czy wreszcie ich obecność w ogóle może nie być dostrzegana
poobserwowane osoby. Tak czy inaczej, jakikolwiek byłby cel badania czy zastosowana
metoda obserwacji, badacz musi umieć odpowiedzieć na trzy podstawowe pytania, aby mieć
gwarancję, że otrzymane przez niego dane są danymi systematycznymi i sensownymi, tj. musi
wiedzieć, co chce obserwować, kiedy obserwować i jak rejestrować dane oraz jaki stopień
interpretacji wyników jest wymagany od obserwatora.
I Rodzaje zachowań
Pierwszym istotnym pytaniem jest pytanie o to, co należy obserwować. Przypuśćmy,
że interesujemy się badaniem związków pomiędzy frustracją i agresją i że hipotetycznie
zakładamy, iż frustracja prowadzi do agresji. Aby przetestować tę hipotezę, musimy dokonać
obserwacji zarówno zjawiska agresji, jak i frustracji. Aby obserwacja taka była możliwa,
musimy wcześniej sformułować jasne i wyraźne definicje operacyjne tych dwóch zmiennych.
Pomiar tych zmiennych może obejmować zachowania niewerbalne, przestrzenne,
parajęzykowe i językowe6.
Zachowania niewerbalne
Zachowania niewerbalne to „ruchy ciała wykonywane przez organizm" i „będące
ekspresją motoryczną [...] inicjowaną przez różne części ciała"7. Mimika twarzy na przykład
wyraża emocje takie, jak: strach, zdumienie, gniew, niesmak czy smutek. Zachowania
niewerbalne są intensywnie analizowane w naukach społecznych iokazaty się trafnym
wskaźnikiem procesów społecznych, politycznych i psychologicznych. Zdaniem Paula
Ekmana obserwowanie zachowań niewerbalnych pozwala uzyskać dane, które można
wykorzystać do „potwierdzania, zaprzeczania lub zastępowania przekazów słownych, jak też
do uwypuklania określonych słów, do podtrzymywania kanału komunikacji, odzwierciedlania
zmian w powiązaniach pomiędzy konkretnymi przekazami słownymi i określania odczuć
danej osoby w stosunku do wypowiedzianych przez nią słów"8. Dlatego badacze często
analizują zachowania niewerbalne jako sposób na określanie trafności innych wypowiedzi
udzielonych przez respondentów w sytuacjach badawczych.
Zachowania przestrzenne
Zachowania przestrzenne to działania jednostki zmierzające do strukturahzacji
przestrzeni, która ją otacza. Na przykład ludzie podchodzą lub odsuwają się od innych osób
czy obiektów; utrzymują małą lub dużą odległość. Zakres, częstość i re-
'Przykład ten pochodzi z pracy Karla E. Weicka (1985), Systematic Obsewational
Methods, w: Ganlner Lindzey. Elliot Aronson (red.), The Handbook ofSocial Psychology,
wyd. 3, New York: Random House.
'Paul Ekman (1957), A Methodologlcal Discussion ofNonverbal Behavior, .Journal of
Psycholo-
U 14. 136. 8 Paul Ekman (1965), Communication through Nonverbal Behavior: A
Source of Information aboM herpersonal Relationship, w: Silvan S. Tomkins, Caroll E. Izard
(red.), Affect, Cognition, and Perso-iialil>-, New York-. Springer, s. 441; Pau\ Ekman, W.
Eńesen (\969), The Repertoire oj Nonverbal Be-mior: Categories, Origins, U sagę and
Coding, „Semiotica", 1, s. 1-20.
225
zultaty takich ruchów dostarczają danych istotnych do realizacji wielu celów bada#
czych. Naruszenie naszej przestrzeni osobistej powoduje, że czujemy napięcie i 1(
Psychologiczne oznaki stresu to szybsza reakcja galwaniczna skóry, wzrost tętn i ciśnienia
krwi9. Badacze uważają te reakcje za wskaźniki kulturowo zorientowł nych norm
społecznych i włączają je w badania dotyczące zachowań interpersoi nych występujących w
różnych warunkach fizycznych, np. w tłumie.
Na przykład można określić różne sposoby wykorzystywania przestrzeni ofl czającej
ludzi w trakcie nawiązywania przez nich kontaktów z innymi osobami. Ka^ kultura tworzy
niepisany kodeks postępowania regulujący to, jak blisko dni| osoby możemy się znaleźć.
Mieszkańcy Ameryki Południowej tworzą mniejs przestrzeń niż na przykład mieszkańcy
Ameryki Północnej, Niemiec czy Ang| Zróżnicowanie kulturowe przestrzeni osobistej może
mieć istotne znaczenie dla ki turowo heterogenicznych społeczeństw czy miast. Osoba
niemieckiego pochodź nia może czuć się niezręcznie, wchodząc w interakcję z mieszkańcem
Ameryki Bj łudniowej ze względu na trudności w określeniu satysfakcjonującej przestrzeni
terpersonalnej między nimi. Może dojść do nieporozumień między nimi, ponic jeden drugiego
może postrzegać jako osobę niegrzeczną. W rzeczywistości ol próbują ustalić właściwą
przestrzeń, która dałaby się zaakceptować z punktu wi nia ich kultur. Co więcej, normy
dotyczące przestrzeni osobistej mogą być zróżnicowane w ramach jednej kultury. Aiello i
Thompson ustalili na przykład, w młodszym wieku czarni wchodzą w bliższe interakcje niż
biali. Z kolei doi czarni zachowują większy dystans niż dorośli biali10.
Zachowania parajęzykowe
Słowa oraz kontekst językowy to tylko niewielki fragment dającego się obsen wać
zachowania. Pozatreściowe aspekty zachowania takie, jak: szybkość mów nia, głośność,
tendencja do przerywania, specyficzne akcentowanie stanowią isto ne źródło danych,
określane generalnie jako dodatkowe zachowania werbalne 1 zachowania parajęzykowe.
Aktualnie stosowany termin „język ciała" odnosił zasadniczo do tego samego zjawiska.
Naukowcy w wielu badaniach udokumentowali znaczenie parajęzyka w zacbi waniu
ludzi. Na przykład parametry głosu takie jak wysokość są dobrą miarą s nów emocjonalnych".
Z kolei przeciętny czas trwania spontanicznej mowy \ra wraz ze wzrostem wielkości grupy12.
Częstość przerywania odzwierciedla różi w poczuciu własnej siły. Ludzie wyrażają emocje
bierne takie jak smutek, mów wolno, ciszej i niżej, emocje czynne zaś mówiąc szybciej,
głośniej i wyżej, kłady te są jedynie ilustracją możliwości wykorzystania zachowań
parajęzykow do analizowania zachowania ludzi. Wskazują na potencjalną istotność tego ty
chowania dla wielu celów badań społecznych.
9 S. Worchel, C. Teddlie (1976), The Experience of Crowding: A Two-Factor Theory.
Joui Personality and Social Psychology", 34, s. 30-40.
10 A.J. Aiello, E.D. Thompson (1980), Personal Space, Crowding, and Spatial
Behavior inaC tural Context, w: I. Altman i in. (red.), Humań Behavior and Environment,
New York: Plenum I
1' William F. Soskin, Paul E. Kauffman (1961), Judgement ofEmotion in Word-free
Voice i „Journal of Communication", 11, s. 73-80.
12 William F. Soskin, John P. Vera (1963), The Study of Spontaneous Talk, w: Roger
C. (red.), The Stream of Humań Behavior, Norwalk Conn.: Appleton & Lang.
226
Zachowania językowe
Zachowania językowe odnoszą się do obserwowanej treści wypowiedzi i
różnorodnych właściwości komunikacji werbalnej. Badanie tych właściwości jest istotne
zpunktu widzenia wielu celów badawczych. Badacze szeroko wykorzystywali mia-ty
zachowań werbalnych, szczególnie w badaniach nad interakcjami społecznymi. Robert Bales
na przykład opracował znany system kodowania procesów interakcji zachodzących w grupie
pracującej nad rozwiązaniem określonych problemów. System Balesa, tzw. analiza procesu
interakcji (API) składa się z 12 typów niezależnych zachowań, które można wykorzystywać
do kodowania i analizowania interakcji wewnątrz grupy (por. przykład 9.1). Osoby badające
kultury polityczne mogą lównież wykorzystywać zachowania językowe do analizowania
zarówno stylów przewodzenia, jak i różnych subkultur.
Rodzaje zachowań
¦ Zachowania niewerbalne: ruchy ciała takie jak wyraz twarzy.
¦ Zachowania przestrzenne: zabiegi podejmowane przez ludzi, a dotyczące
strukturowania przestrzeni, która ich otacza, takie jak kontrolowanie wielkości przestrzeni
osobistej.
¦ Zachowania parajęzykowe: formalne aspekty mowy takie, jak szybkość mówienia
czy tendencja do przerywania.
¦ Zachowania językowe: treść mowy i strukturalne charakterystyki mówienia.
I Określanie czasu obserwacji i rejestrowanie danych
Dmgie podstawowe pytanie dotyczące badań obserwacyjnych dotyczy określania
czasu obserwacji oraz sposobu rejestrowania danych obserwacyjnych. Nie można oczywiście
przeprowadzić niezliczonej liczby obserwacji — badacz musi określić, kiedy ma dokonać
obserwacji. Jednym z możliwych rozwiązań tego problemu jest przestrzeganie czasowego
terminarza dokonywania obserwacji. Tworzenie takie-goterminarza polega na wybieraniu
jednostek obserwacji w różnym czasie. Technika ta zapewnia reprezentatywność działań,
które mają ciągły charakter. Aby z kolei zagwarantować reprezentatywność określonej
populacji zachowań, badacz określa jednostki obserwacji w sposób systematyczny. Na
przykład dokonując podziału próby ze względu na dzień tygodnia i godzinę dnia, badacz
może dokonywać obserwacji w czasie losowo wybranych 15 minut w każdej godzinie. Inną
użyteczną procedurą jest losowanie jednostek, znane też jako rejestrowanie próbek zachowań.
W tym przypadku badacz wybiera jedną jednostkę i rejestruje wszystkie zachowania i
zdarzenia dotyczące tej jednostki. Na przykład może wybrać jedno dziecko i zarejestrować
wszystkie przypadki agresji fizycznej pomiędzy tym dzieckiem i innymi dziećmi w klasie, w
określonym przedziale czasu. W każdych kolejnych 30 minutach zostanie wybrane i będzie
obserwowane inne dziecko. Pełen zbiór zebranych danych będzie odzwierciedlał zachowanie
wszystkich dzieci w klasie.
227
Przykład 9.1
API — kodowanie kategorii
o5
E >>
S •* o. -
fi
fil
1. Okazuje solidarność, podkreśla czyjąś pozycję, udziela pomocy, nagradza.
2. Rozładowuje napięcie, żartuje, śmieje się, okazuje
zadowolenie.
3. Zgadza się, okazuje bierną akceptację, okazuje zrozumienie, podziela zdanie
innych, podporządkowuje się.
4. Udziela wskazówek, wskazuje kierunek rozwiązania,
zgadzając się na autonomiczne postępowanie innych osób.
5. Wyraża opinie, ocenia, analizuje, wyraża uczucia, życzenia.
6. Przekazuje wiadomości, informuje, powtarza, wyjaśnia, potwierdza.
1 -•a S
a5 C
S °-
fi
•2, u
S S E >> V m
8g
o _* a, -
=
c
D
7. Prosi o wskazówki, informację, powtórzenie, potwierdzenie.
o. Prosi o opinię, ocenę, analizę, wyraża uczucia.
9. Prosi o wytyczne, pokazanie kierunku, wskazanie ewentualnych sposobów
postępowania.
10. Nie zgadza się, odrzuca w sposób bierny, formalizuje, odmawia pomocy.
11. Okazuje napięcie, prosi o pomoc, usuwa się.
12. Przejawia antagonizm, podważa pozycję innej osoby, broni się lub domaga dla
siebie uznania.
Klucz: a. Zagadnienia związane z orientacją d. Zagadnienia związane z
decyzją
b. Zagadnienia związane z oceną e. Zagadnienia związane z napięciem
c. Zagadnienia związane z kontrolą f. Zagadnienia związane z integracją
Na podstawie: Robert F. Bales (1976). Interaction Process Analysis, Unwersity of
Chicago Press; za zgodą University of Chicago hfl
Tworząc czasowy terminarz dokonywania obserwacji, badacz musi jednoczesna
opracować system kodowania, który będzie wykorzystywany przy rejestrowaniu obserwacji.
Aby przełożyć zachowania o charakterze ciągłym na zbiór danych mających charakter
ilościowy i dających się wyrazić w postaci liczbowej, badacz mmi najpierw pokategoryzować
dane i przyporządkować każdej kategorii odpowiedni
228
kod. Taki system kodowania można skonstruować, stosując albo podejście
dedukcyjne, albo podejście indukcyjne. Stosując podejście dedukcyjne, badacz rozpoczy-| na
od sformułowania definicji pojęciowej, określa wskaźniki obserwowanego zachowania, a
następnie dokonuje standaryzacji i walidacji tak powstałego narzędzia. W tym podejściu
badacz przyporządkowuje obserwacje do wcześniej zdefiniowanych kategorii w czasie
dokonywania obserwacji. Z kolei przeciwnie, podejście indukcyjne wymaga, aby na
pierwszym etapie zbierania danych badacz określił wskaźniki i odsunął formułowanie
definicji do czasu zidentyfikowania schematu czy wzorca. Każde podejście jest na swój
sposób ryzykowne. W podejściu dedukcyjnym trudno przewidzieć, czy sformułowana
definicja pojęciowa jest precyzyjna. Z drugiej strony, podejście indukcyjne (empiryczne)
stwarza trudności w interpretowaniu zebranych obserwacji (por. rozdział 14). Dobrym
sposobem zmniejszenia takich kłopotów jest połączenie tych dwóch podejść. Zdaniem Karla
Weicka:
idealny porządek zdarzeń powinien wyglądać następująco: obserwator rozpoczyna od
podejścia empirycznego, zbiera obszerne dane dotyczące zdarzeń naturalnych, z danych tych
wyprowadza określone pojęcia, a następnie dokonuje kolejnej obserwacji, bardziej
specyficznej i wprost dotyczącej wyprowadzonych pojęć13.
Niezależnie od tego, czy badacz wykorzystuje podejście dedukcyjne czy indukcyjne,
kategorie, do których badacz zalicza swoje obserwacje, muszą spełniać określone kryteria.
Skonstruowany system kategoryzowania musi:
ograniczać obserwacje do jednego segmentu lub aspektu [...] zachowania i tworzyć
taki skończony zbiór kategorii, aby każda obserwacja mogła zostać zaklasyfikowana do
jednej i tylko jednej kategorii14.
Mówiąc krótko, kategorie muszą być wyraźne, wyczerpujące i wzajemnie rozłączne.
Szersze omówienie problemu kategoryzowania czytelnik znajdzie w rozdziale 14).
I Wnioskowanie
Trzecie podstawowe pytanie dotyczące ustrukturowanych badań owacyjnych dowozy
zakresu interpretacji wymaganej od obserwatora. Większość danych zebranych za pomocą
obserwacji wymaga interpretacji. Badacz obserwujący określone działanie czy zachowanie
musi przetworzyć zebrane obserwacje i wyciągnąć wnioski, czy zachowanie to jest
wskaźnikiem określonej zmiennej. Niektóre systemy obserwacji wymagają niewielkiego
stopnia interpretacji, na przykład rejestrowanie bezpośrednich aktów zachowania takich, jak:
„zadaje pytanie", „sugeruje kierunek działania", „przerywa innemu członkowi grupy". Wiele
zachowań jednakże wymaga większego stopnia interpretacji. Załóżmy, że badacz obserwuje
zachowanie osoby dorosłej, która bije dziecko. Musi on dokonać wyboru, czy zachowanie to
odzwier-
"Wekk, SystematicObservationalMethods, s. 102.
"Donald M. Medley. Harold E. Mitzel (1963), Measuring Classroorn ^'»&TT °".* " L
w: Nathaniel L. Gage (red.), Handbook of Research on Teaching, Skolae, 111, Rand
McNally, s. 298.
229
r
łających odpowiedzi w dalszej kolejności, dane jeszcze silniej potwierdzające tę ¦
potezę. Natomiast czterej eksperymentatorzy, którzy od podstawionych osób badanych
otrzymali dane nie potwierdzające ich hipotezy, otrzymali od nic nie wiedzących osób
badanych dane, które jeszcze bardziej nie potwierdzały tej hipotea Z kolei porównawcza
grupa eksperymentatorów, którzy testowali wyłącznie nic nie wiedzące osoby badane,
otrzymała wyniki mieszczące się pomiędzy wynikami otrzymanymi przez poprzednie dwie
grupy. Dlatego autorzy tych badań wyciągni wniosek, że pierwsze wyniki stronniczo
wpływają na otrzymywane później dana Stronniczość eksperymentora jest zatem wynikiem
motywacji badaczy.
Posługując się magnetofonem, kamerą telewizyjną czy innymi zautomatyzowani mi
technikami w celu zminimalizowania interakcji pomiędzy eksperymentatorem i osobami
badanymi, można wyeliminować przekazywanie oczekiwań i w ten spon zminimalizować
niezamierzoną stronniczość eksperymentatora. Można również laguj dzić efekty
stronniczości, wykorzystując eksperymentatorów mających różne oczekiwania co do
wyników badań. W jednym z projektów badawczych włączono oczekiwania dotyczące
efektów manipulowania zmiennymi w schemat eksperymentalii Badacze oceniali wówczas,
czy ich własne, różne oczekiwania dawały w efekcie różne wyniki20. Innym zalecanym
postępowaniem pozwalającym zredukować stroi niczość eksperymentatora jest
wykorzystywanie więcej niż jednej osoby obserwują* czy zbierającej wyniki. Technika ta
zmniejsza efekty oddziaływania cech osobowo* badacza, jego cech fizycznych i subtelnych
różnic w traktowaniu osób badanychl
Trzy źródła stronniczości w badaniach eksperymentalnych
¦ Wskazówki sugerujące: wtedy, kiedy osoba badana wie, że uczestniczy w
eksperymencie i stara się zareagować w sposób, jakiego, jej zdaniem, eksperymentator
oczekuje.
¦ Stronniczość eksperymentatora: wtedy, kiedy eksperymentator niezamie-rzenie
przekazuje swoje oczekiwania osobom badanym.
¦ Artefakty pomiarowe: stosowane procedury pomiarowe mogą być dla osób
badanych źródłem wskazówek dotyczących tego, o co właściwie chodzi w eksperymencie.
Instrumenty pomiarowe takie, jak kamera czy arkusze testowe również mogą uwrażliwić
osoby badane i spowodować efekt stronniczości.
Artefakty pomiarowe. Pomiar jest decydującą częścią postępowania badawczega W
eksperymencie laboratoryjnym, w którym efekty oddziaływania zmiennej niezaj leżnej mogą
być niewielkie, krótkie i czułe, niezbędne jest dokonanie precyzyjnej!
19 Robert Rosenthal i in. (1963), The Effects ofEarly Data Returns on Data
Subsequently ObUÓm by Outcome-biased Experimenters, „Sociometry", 26, s. 487-493.
20 J. Merrill Carlsmith, Barry E. Collins, Robert L. Helmreich (1966), Studies in
Forced ComplĄ ce: I. The Effect of Pressure for Compliance on Attitude Change Produced by
Face-to-Face RolePIm ing and Anonymous Essay Writing, „Journal of Personality and Social
Psychology", 4, s. 1-13.
234
Koszty
Odsetek odpowiedzi
Kontrolowanie sytuacji, w której
przeprowadzany jest wywiad Możliwość zbadania populacji
rozproszonych na szerokim
obszarze geograficznym Możliwość zbadania populacji
heterogenicznych Zbieranie szczegółowych informacji Szybkość
wysokie wysoki
wysokie
przeciętna
wysoka
wysokie
niska
niskie niski
niskie
wysoka
niska
przeciętne
niska
przeciętne wysoki
przeciętne
przeciętna
wysoka
przeciętne
wysoka
uprościć wywiad, a koszty i szybkość badań mają istotne znaczenie, to wywiad te-
lefoniczny będzie najlepszą metodą zbierania informacji. Jeżeli natomiast posk.gu-,erm się
stosunkowo długim kwestionariuszem lub takim, który zawiera^drazl we pytana a zwłaszcza
wtedy, kiedy interesująca nas populacja rozproszona jest na
• Próba jest reprezentatywna, jeżeli dane otrzymane w wyniku pomiaru jej elementów
pozwalają na wyprowadzenie wniosków o całej populacji. Por. rozdział 8.
261
dużym obszarze geograficznym lub została wybiórczo określona, to należy rozważyć
możliwość wykorzystania ankiety pocztowej.
W tabeli 10.3 przedstawiliśmy porównawczo niektóre zalety i ograniczenia trzech
metod prowadzenia badań sondażowych.
¦ Wnioski
Metoda sondażu jest jedną z najważniejszych metod zbierania danych w naukach
społecznych i jako taka jest szeroko stosowana do zbierania informacji o wieli obiektach
badań. Ostatnio wraz ze wzrostem wymagań opinii publicznej codooB powiedzialności
władz, wzrosło też znaczenie badań sondażowych. Sondaże stal się narzędziem szeroko
wykorzystywanym przez rozmaite organizacje rządowe. rl podstawie częstości badań
prowadzonych przez władze lokalne można pokazać, ¦ w 50% miast liczących ponad 100000
mieszkańców i w hrabstwach, których pol pulacja przekracza 250 000 osób, przeprowadzono
jakiś sondaż. Wraz ze wzrósł liczby prowadzonych sondaży metoda ta stała się obiektem
rosnącej krytyki. KI mentarze w rodzaju: „Właściwe ustawienie problemu w badaniach
społecznych™ jest łatwe", „Próba potencjalnych respondentów okazała się mieszanką różnjj
procedur", czy też „Nie ufam żadnemu sondażowi, który ma taki odsetek odpowii dzi" są
typowe. I chociaż c/asami uwagi takie mają swoje uzasadnienie, toczęł nie są oparte na
faktach, a źródłem krytyki są obiegowe prawdy na temat sondaił Nie oznacza to, że nie
widzimy konieczności określenia listy kryteriów, które pB mogłyby ocenić użyteczność
badań sondażowych, wykrywać i kontrolować bfl oraz — gdy tylko to możliwe — je
równoważyć32.
Mniej więcej pięćdziesiąt lat temu Edward Deming napisał, dziś klasyczny, ar-j tykuł
zatytułowany ..O błędach w badaniach sondażowych"33. Deming wymieł trzynaście
mogących się zdarzyć błędów, o których trzeba pamiętać, planującbfl dania sondażowe i
oceniając ich wyniki. Najistotniejsze czynniki, które mogą $¦ się źródłem potencjalnych
błędów, zostały już omówione w tym rozdziale. Są to: I stronniczość osoby prowadzącej
wywiad, niski odsetek odpowiedzi i trudnościj w zadawaniu drażliwych pytań. Reuben Cohen
w przemówieniu przewodniczącego, adresowanym do Amerykańskiego Towarzystwa Badań
Opinii Publiczngj (American Association for Public Opinion Research) sformułował
następują* uwagę dotyczącą potencjalnych błędów:
Jakieś trzydzieści lat temu otrzymałem kopię listy błędów opracowań;] przez W.
Edwarda Deminga. Wiadomość, jaką mi w ten sposób przekazał, byta oczywista: teraz, gdy
wiesz, jakie są to błędy, nie popełniaj ich. Ponieważ byłem niezbyt doświadczony i
posiadałem wewnętrzny optymizm, przyjąłem tow\ zwanie. Najpierw postanowiłem
przeprowadzić doskonały sondaż. Nadal pró buję, choć powinienem już wiedzieć, jak to się
robi. Szybko odkryłem prai Murphy'ego — jeżeli coś ma się nie udać, to się na pewno nie
uda. Odkryłem
32 Gregory Daneke, Patricia Klobus Edwards (1979). Surrey Research for Public
AdmimsirM ..Public Administration Review", 39, s. 421-426.
33 W. Edward Deming (1950), Some Theory of Sampling, New York: Wiley.
262
jednak coś jeszcze. Jeżeli nawet nie będzie ograniczeń czasowych i finasowych, na
które większość z nas skarży się najbardziej, to i tak nie będzie idealnego sondażu. Każdy
sondaż ma swoje stabe strony. Świat nie jest najlepiej dobrany do naszej pracy. To, co
możemy najlepszego zrobić, to starać się idealnie zaplanować schemat sondażu, jego
przeprowadzenie czy etap analizy — a więc to, co byśmy zrobili, gdybyśmy spełnili swoje
marzenia — a następnie, pamiętając o ograniczeniach czasu i budżetu warunkujących naszą
pracę, starać się zbliżyć do idealnego stanu34.
A dla czytelników, którzy być może poczuli się zniechęceni stawianiem sobie celów,
które nie mogą zostać doskonale zrealizowane, mamy następującą radę:
Rzeczywista praca składa się w dużej części z odgadywania tego, jakie niere-
gularności, gdzie i jak wiele możemy tolerować [...] To samo można powiedzieć o badaniach
sondażowych. Powinny być robione dobrze. Mogą i powinny się zbliżać — nawet jeżeli
niecałkowicie — do wersji idealnej35.
I Podsumowanie
1. W tym rozdziale omówiliśmy sondaż jako metodę zbierania danych. Opisaliśmy
trzy metody prowadzenia badań sondażowych: ankietę pocztową, wywiad osobisty i wywiad
telefoniczny.
2. Ankieta pocztowa jest nieosobistą metodą prowadzenia badań sondażowych. Do jej
podstawowych zalet należą: niskie koszty, stosunkowo niski błąd wypływający ze
stronniczości, anonimowość i dostępność. Do podstawowych wad należą: niski odsetek
odpowiedzi, brak możliwości dalszego sondowania, brak kontroli nad tym. kto wypełnia
ankietę.
3. Ze względu na trudności w uzyskaniu dającego się zaakceptować odsetka
odpowiedzi w ankietach pocztowych badacze stosują różne strategie pozwalające na
zwiększenie liczby otrzymanych odpowiedzi. Do najbardziej skutecznych należy strategia
przypominania, informowania o sponsorze badań i zachęcania do wypełnienia ankiety.
Format ankiety i sposób jej wysłania także może wpłynąć na odsetek odpowiedzi.
4. Wywiad osobisty to sytuacja, w której osoba prowadząca wywiad zadaje
respondentowi pytania bezpośrednio. Wywiad prowadzony według ustrukturowanego planu
jest najbardziej ustrukturowaną formą wywiadu. Pytania, sposób ich sformułowania, ich
kolejność są stałe i identyczne dla każdego respondenta. Z kolei wywiad zogniskowany
przebiega według ogólnego planu określającego tematy rozmowy powiązane z hipotezą
badawczą. Daje to respondentom dużą swobodę w wyrażaniu swoich poglądów. I wreszcie
wywiady prowadzone w sposób swobodny są najmniej ustrukturowane i nie opierają się na
żadnym, wcześniej przygotowanym zbiorze pytań. Osoba prowadząca wywiad ma duży
zakres swobody w sondowaniu
"Reuben Cohen (1979), Close Enough for AU Practical Purposes, „Public Opinion
Quarterly",
.421-422.
" Ibidem, s. 424.
263
różnych obszarów tematycznych i do zadawania w trakcie wywiadu konkretnych
pytań.
5. Wywiad telefoniczny został generalnie zaakceptowany jako alternatywa dla
wywiadu osobistego. Sondaż telefoniczny jest wygodny i mało kosztowny. Ponadto daje
często wyższy odsetek odpowiedzi w porównaniu z wywiadem osobistym Zmiany
technologiczne i ulepszenia aparatury telefonicznej sprawiły również, że wywiad telefoniczny
stał się łatwiejszy, zwłaszcza gdy badacze stosują metodę wybierania numerów za pomocą
liczb losowych, a sam wywiad telefoniczny jest wspomagany komputerowo.
Podstawowe terminy
ankieta pocztowa 242 odsetek odpowiedzi 243 przypominanie 246 sondowanie 257
wybieranie numerów za pomocą liczb losowych 259
Pytania sprawdzajgce
wywiad nieukierunkowany 251 wywiad telefoniczny ze
wspomaganiem komputerowym wywiad według ustrukturowanego
planu 249 wywiad zogniskowany 251
1. Opisz podstawowe techniki zbierania danych sondażowych.
2. Przedyskutuj zalety i wady ankiety pocztowej, wywiadu telefonicznego on
wywiadu osobistego.
3. Wymień i opisz podstawowe zasady obowiązujące przy przeprowadź wywiadu.
4. Jaki rodzaj badań sondażowych byłbyś(łabyś) skłonny(a) wybrać, badajj, problem
narkomanii? Wyjaśnij podstawy swojego wyboru.
5. Przypuśćmy, że jesteś zaangażowany(a) w projekt badawczy, którego cela jest
określenie postaw mieszkańców małego miasta wobec dobrobytu. Zapl nowałeś(łaś)
wykorzystanie ankiety pocztowej i pobrałeś(łaś) próbę. Napi list przewodni.
¦ Literatura dodatkowa
Gostkowski Z. (red.), Analizy i próby technik badawczych w socjologii, Wrocław:
Ossolin
t.: I (1996), II (1968), III (1970), IV (1972), V (1975), VII (1989), VIII (1990).
Gostkowski Z. (red.) (1992), Analizy i próby technik badawczych w socjologii, t. IX,
Warszawa:!
IFiS PAN. Johnson R.F.Q. (1991), Pułapki w badaniu: wywiad jako model
przykładowy, w: J. Brzeziński, J.!
(red.), Społeczny kontekst badań psychologicznych i pedagogicznych. Wybór tekstów,
Poznań: |
Nauk. UAM.
264
btfft, K. (1993), Sur.eye w Polsce. Spojrzenie socjologiczno-antropologiczne.
Wybrane zagadnie-
l nia. Warszawa: Wyd. lFiS PAN. „;„;„„;; i
VI Wrocław
bryńska K.. Lutyńsk, J. (red.) (1986), Analizy i próby technik badawczych w
socjologu, t. VI, Wrocław.
uS! J.7994). Metod, badań społecznych. Wybrane zagadnienia, red., wstep,
opracowame K. Lu-
MaJZkR.ŁHlŁ™ HUbner P. (.985). Wprowadzenie do metod socjologii empirycznej,
Warszawa:
NoTs. (red., (1965). Metody badań socjologicznych. Wybór tekstów, Warszawa:
PWN.
Sawiński Z. (1996). Sondaże telefoniczne, „ASK", 1, s. 7-35.
<„rininvn Warszawa'
Sułek A. (1990), W terenie, w archiwum i w laboratorium. Studia nad warsztatem
socjologa, Warszawa.
Srl^R (1997). Ankieta pocztowa czy wywiad kwestionariuszowy? Wybór strategii
badawczej,
^^Zn^erzy i ich respondenci. Od kogo zaleź, wyniki badań ankietowych, War-
i szawa: Wyd. IFiS PAN. : Wallen R. (1964). Psychologia kliniczna, Warszawa:
PWN.
Rozdział 11
Konstruowanie kwestionariusza
Pytania 267
Treść pytań 268
Pytania dotyczące faktów 268
Pytania dotyczące subiektywnych doświadczeń 269
Rodzaje pytań 270
Pytania zamknięte i otwarte 270 Pytania alternatywne 272
Format pytania 274
Skalowanie 275
Pytania tabelaryczne (macierzowe) 276 Dyferencjał semantyczny 276 Rangowanie
277
Porządek pytań 277
Strategia lejka 278
Strategia odwróconego lejka 278
Ograniczanie stronniczości: błędy w konstrukcji kwestionariusza
Słownictwo 280
Schematyzacja (styl) odpowiadania 280
Pytania sugerujące 281
Pytania zagrażające 282
Pytania o podwójnej treści 283
List wprowadzający 284
Instrukcja 286
Konstruowanie kwestionariusza: analiza przypadku 287
Podsumowanie 294
Podstawowe terminy 295
Pytania sprawdzające 296
Literatura dodatkowa 296
W jaki sposób odpowiedzielibyście na pytanie: „Czy wydaje ci się możliwe lub
niemożliwe to, że eksterminacja Żydów dokonana przez nazistów nigdy nie nastąpiła?" Ile
razy musieliście przeczytać to pytanie, zanim mogliście na nie odpowiedzieć? Czy jesteście
pewni, że wasza odpowiedź rzeczywiście odzwierciedla wasze przekonania? Jeżeli pytanie to
sprawiło wam kłopot, to pocieszcie się — nie tylko wam. Okazuje się bowiem — powołując
się na artykuł zamieszczony w „New York Timesie" — że na podstawie odpowiedzi na to
pytanie pracownicy agencji Ropera przeprowadzającej badania sondażowe ustalili, że jedna
piąta Amerykanów jest przekonana, iż holocaustu nie było1. Czy wniosek ten jest
prawidłowy? Prawdopodobnie nie. Zgodnie z Roperem wysitki w celu stworzenia
niestronniczego pytania dały efekt w postaci tak nieczytelnego tekstu, który okazał się
niezrozumiały dla wielu respondentów i spowodował, że odpowiadali oni nie tak, jak chcieli.
Instytut Gallupa, który przeprowadził drugie, niezależne badanie sprawdzające trafność
wniosków Ropera stwierdził, że w sytuacji, kiedy respondentom przedstawiono prostsze
pytanie, tylko mniej niż 3% Amerykanów wątpiło w istnienie holocaustu. Roper
przeprowadził potem kolejne badanie, wprowadzając bardziej czytelne pytanie i publicznie
przeprosił za swój błąd.
Ponieważ wyniki badań sondażowych często wpływają na decyzje polityczne i tym
samym mają wpływ na życie ludzi i ponieważ czasami mogą być jedynym źródłem informacji
na tematy interesujące opinię publiczną, więc pytania wykorzystywane w badaniach
sondażowych muszą być starannie konstruowane i ustawiane w takim porządku, aby
otrzymać rzetelne dane. Jak się przekonacie w tym rozdziale, konstruowanie pytań nie jest
łatwym zadaniem, jak się może wydawać.
W tym rozdziale skoncentrujemy się na kwestionariuszu jako podstawowym narzędziu
wykorzystywanym w badaniach sondażowych. Rozpoczniemy od omówienia istoty
wszystkich kwestionariuszy, tj. ich pytań. Następnie zajmiemy się treścią pytań,
wprowadzimy rozróżnienie na pytania zamknięte i otwarte, a także pytania alternatywne —
analizując ich format i kolejność. Następnie przedyskutujemy potencjalne źródła
stronniczości wynikające ze sposobu sformułowania pytania—takie jak sugerowanie,
podwójne znaczenie i treści zagrażające. Na koniec podann wskazówki pozwalające
skonstruować list przewodni dołączany do kwestionariusza oraz instrukcję, w którą jest on
wyposażany.
¦ Pytania
Podstawą wszystkich kwestionariuszy są pytania. Kwestionariusz musi przekładać de
badawcze na konkretne pytania. Odpowiedzi na te pytania będą źródłem danych
wykorzystywanych do testowania hipotez badawczych. Pytanie musi również
John Kifner (1994), Pollster Finds Error on Holocaust Doubts, „New York Times", 20
May, A12.
267
motywować respondenta do udzielania poszukiwanych informacji. Podstawowe
zagadnienia związane z tworzeniem pytań dotyczą ich treści, struktury, formatu i kolejności.
¦ Treść pytań
Pytania wykorzystywane w badaniach sondażowych mogą dotyczyć faktów, postaw,
motywacji respondenta czy stopnia znajomości określonego zagadnienia. Większość pytań
można zaliczyć do jednej z dwóch klas: pytań dotyczących faktów (pytań metryczkowych) i
pytań dotyczących subiektywnych doświadczeń.
Pytania dotyczqce faktów
Pytania dotyczące faktów, inaczej pytania metryczkowe, tworzy się po to, aby
otrzymać od respondenta obiektywne infomacje uwzględniające jego pochodzenie,
środowisko, nawyki itp. Najbardziej popularnym typem pytania metryczko-wego jest pytanie
o dane demograficzne respondentów, które zadawane jest głównie po to, aby można było
później dokonać ich klasyfikacji. Pytania dotyczące danych demograficznych obejmują takie
informacje, jak: płeć, wiek, stan cywilny, wykształcenie, dochody. Klasyfikacje oparte na
tych danych mogą być z kolei wykorzystane do wyjaśniania zaobserwowanych różnic w
postawach czy zachowaniach respondentów. Poniżej przedstawiamy przykład pytania
metryczkowego:
Którą klasę ukończyłeś(aś) w szkole? (Proszę wybrać jedną możliwość)
— ósmą lub niższą
— dziewiątą lub dziesiątą
— jedenastą lub dwunastą. Czy ukończyleś(aś) liceum ogólnokształcące? — Tak —
Nie
— rok lub dwa lata college'u
— trzy lub cztery lata college'u. Czy ukończyleś(aś) college? — Tak — Nie
— pięć lub więcej lat college'u
Inne rodzaje pytań metryczkowych mają w zamierzeniu dostarczyć informacji
otoczeniu społecznym respondenta („Proszę powiedzieć, kto mieszka z Panem nią) w jednym
gospodarstwie domowym?"), środkach transportu („W jaki s dojeżdża Pan(Pani) do pracy"),
sposobach spędzania wolnego czasu („Jak c chodzi Pan(Pani) do kina?").
Niektórzy sądzą, że pytania metryczkowe można łatwiej zaprojektować niż inni
rodzaje pytań. Nawet pytania metryczkowe jednak mogą być źródłem problemów. To, czy
ludzie podają swoje dane dokładnie, zależy od tego, o co i w jaki sposóN ich zapytano.
Można wskazać cztery przyczyny otrzymywania niedokładnych informacji po zadaniu pytań
metryczkowych. Dzieje się tak dlatego, gdyż ludzie2:
1. Nie posiadają informacji.
2. Nie mogą przypomnieć sobie informacji.
3. Nie rozumieją pytania.
4. Nie mają ochoty odpowiadać.
2 Floyd J. Fowler, Jr. (1989), Survey Research Methods, Newbury Park, Calif.: Sagę.
268
adacz może poczynić wiele kroków, aby zwiększyć dokładność odpowiedzi, .
zachęcać do konsultowania się z innymi członkami rodziny, zadawać więcej jedno pytanie na
dany temat, powtarzać pytanie czy starać się, aby respondent czuł się zażenowany w trakcie
zadawania mu pytań, które mogą go wprawiać zakłopotanie.
nia dotyczące subiektywnych doświadczeń
'wiadczenia subiektywne dotyczą wierzeń, postaw, uczuć i opinii respondenta3, -^ania
sondażowe prowadzone w naukach społecznych, zwłaszcza te nastawione
ujawniane relacji typu właściwość-dyspozycja (por. rozdział 6), często zawie-
ą pytania dotyczące postaw. Postawy to ogólne ukierunkowanie, które może wiać, że
dana osoba — gdy pojawią się określone bodźce — zachowuje się lub tje w określony
sposób. Poniżej przedstawiamy przykład pytania dotyczącego
taw wobec aborcji. Pytanie to pochodzi z Ogólnego Sondażu Społecznego
SS — General Social Survey):
Proszę powiedzieć, czy Pana(i) zdaniem kobieta będąca w ciąży może dokonać
legalnej aborcji, jeżeli istnieje duże prawdopodobieństwo, że dziecko urodzi się z poważnymi
wadami: l.Tak.
2. Nie.
3. Nie wiem.
4. Brak odpowiedzi.
Osoby badane wyrażają swoje postawy poprzez mowę lub zachowanie jedynie " Jy,
kiedy spostrzegają przedmiot postawy. Dana osoba może mieć silną postawę aborcją lub
przeciwko aborcji, lecz zostanie ona wzbudzona lub dostrzeżona je-e wówczas, kiedy osoba
ta zetknie się z jakimś problemem związanym z abor-\ czy też z bodźcem takim, jak pytanie w
trakcie wywiadu. Postawy można opisać poprzez ich treść (czego dotyczy postawa), ich
kierunek "zytywne, neutralne lub negatywne uczucia w stosunku do przedmiotu postawy lub
tematu pytania) czy ich intensywność (postawa może mieć większe lub mniejsze natężenie).
Dla jednej osoby temat aborcji ledwo może się mieścić w sferze jej zainteresowań, dla innej
zaś może mieć ogromne znaczenie i być powodem jej wstępowania do organizacji broniących
życia poczętego. Można też założyć, że ta druga osoba będzie się silniej zgadzać lub nie
zgadzać z treścią pytań dotyczących, powiedzmy, tego, czy powinno się wprowadzić
konstytucyjny zakaz aborcji.
Ogólnie rzecz biorąc, jesteśmy zainteresowani pomiarem postaw, ponieważ mogą one
wyjaśnić pewne generalne skłonności respondentów. Badanie opinii jest interesujące jedynie
w takim zakresie, w jakim opinie te symbolizują postawy. Podstawowa różnica pomiędzy
pytaniem o opinie a mierzeniem postaw polega na tym, że mierząc opinie, badacze
oszacowują, jaki procent badanej populacji będzie się zgadzał z pojedynczym twierdzeniem
dotyczącym opinii. Natomiast mierząc postawy, posługują się skalami składającymi się od
pięciu do wielu twierdzeń dotyczą-
'Royce Singleton, Jr., Bruce C. Straits, Margaret M. Straits, Ronald J. McAllister
(1988), Appro-acks lo Social Research, Oxford: Oxford UnWersity Press, s. 272.
269
cych postaw, z którymi respondent może się zgodzić lub nie. Podstawowym
wymaganiem przy pomiarze postaw jest wymóg skalowalności twierdzeń dotyczących
postaw, tj. możliwość wybrania określonych twierdzeń z większej puli twierdzeń i
zestawienia ich razem według określonych metod. Metody te omawiamy w rozdziale 18.
Konstruowanie pytań sondażowych dotyczących opinii i postaw tworzy więcej
problemów niż konstruowanie pytań metryczko wych. Można stosunkowo ławo otrzymać
informacje o tym, czy dana osoba jest mężatką (żonatym), czy tez osobą stanu wolnego.
Badacz może rozsądnie założyć, że respondent wie, czy pozostaje w związku małżeńskim.
Badając opinie czy postawy, nie zawsze można założyć, że respondenci wiedzą, co myślą.
Rospondent może nie mieć postawy wobec problemu nielegalności aborcji, lub też jego
postawa może być ukryta. Co więcej, ponieważ wiele postaw to postawy o wielu aspektach
czy wymiarach, więc respondent może się zgadzać z jednym aspektem postawy, a nie zgadzać
z innym. Dlatego też postaw nie można mierzyć za pomocą jednego pytania. Na przykład,
jeżeli ktoś sil-; nie nie zgadza się z twierdzeniem: „Aborcja powinna być dostępna dla każdej
kobiety, która tego chce", to nie oznacza to jeszcze szerokiej postawy antyaborcyjnej. Opinia
tej osoby mogłaby być inna, gdyby, na przykład, zagrożone było życie kol biety, do ciąży
doszło w wyniku kazirodztwa czy gwałtu, lub też gdyby lekarz i stwierdził, że dziecko będzie
posiadało wiele wad. Wykorzystując twierdzenia mierzące postawę, można dokładniej
określić zarówno siłę postawy respondenta, jak i warunki, w jakich postawa ta może ulec
zmianie.
Na koniec warto powiedzieć, że pytania dotyczące opinii i postaw — w porowi naniu
z pytaniami metryczkowymi — są bardziej wrażliwe na zmiany słownictwa podkreślenia i ich
kolejność. Częściowo jest to odzwierciedleniem wielowymiaro-1 wości postaw. Pytania
przedstawione w różny sposób mogą czasami wzbudzić róS ne aspekty postawy, a tym
samym prowadzić do innych odpowiedzi.
¦ Rodzaje pytań
Treść pytań jest tylko jednym z ważnych elementów konstruowania kwestionarił szy
sondażowych. Badacz musi również wziąć pod uwagę strukturę pytań i formB kategorii
odpowiedzi, w jakie pytania te zostały wyposażone. Omówimy teraz tam rodzaje pytań ze
względu na ich strukturę: pytania zamknięte, pytania otwarte i pył tania alternatywne.
Pytania zamknięte i otwarte
Pytanie w kwestionariuszu może być albo zamknięte, albo otwarte. W pytaniach i
zamkniętych respondentowi przedstawia się zbiór odpowiedzi, a jego zadanie pol lega na
wybraniu tej odpowiedzi, która najlepiej odzwierciedla jego poglądy. I taH na przykład, aby
/mierzyć stopień zadowolenia respondenta z życia rodzinnego w Ogólnym Sondażu
Społecznym — badaniu corocznie przeprowadzanym przfl National Opinion Research Center
— posłużono się następującym pytaniem zamki niętym:
270
Proszę podać numer odpowiedzi, która wskazuje na Pana(i) stopień zadowolenia z
życia rodzinnego:
6. Bardzo niski.
7. Żaden.
8. Nie wiem.
9. Brak odpowiedzi.
Odpowiedzi na pytania zamknięte mogą być też bardziej rozbudowane, jak na
przykład w poniższym pytaniu pochodzącym z sondażu dotyczącego postaw kobiet i
mężczyzn wobec miejsca i roli kobiet4:
Przypuśćmy, że zarówno mąż, jak i żona mają dobrą i ciekawą pracę, a mężowi
właśnie zaoferowano posadę w innym mieście. Jeżeli przyjmiemy, że nie mają oni dzieci, to
które z przedstawionych niżej rozwiązań będą — Twoim zdaniem — preferować:
• mąż powinien zrezygnować z nowej propozycji,
• żona powinna zrezygnować ze swojej pracy i przeprowadzić się wraz z mężem,
• mąż powinien podjąć nową pracę i się przeprowadzić / żona powinna utrzymać
swoją pracę i pozostać na miejscu,
• nie wiem,
• brak odpowiedzi.
Pytania zamknięte zadaje się łatwo i szybko się na nie odpowiada. Nie wymagają one
wpisania w kwestionariuszu ani przez respondenta, ani ankietera, a ich analiza jest prosta.
Wadą jest jednak możliwość wprowadzania zjawiska stronniczości czy to przez zmuszanie
respondenta do dokonania wyboru spośród przedstawionych mu możliwości, czy przez
przedstawianie mu takich alternatyw, które same nie przy-szlyby mu na myśl.
Pytania otwarte nie są wyposażane w żadną konkretną odpowiedź, a to, co mówi
respondent, jest w całości zapisywane. Na przykład pytanie: „Jakie Twoim zdaniem są
najważniejsze problemy, którymi rząd w Waszyngtonie powinien się zająć?" jest pytaniem
otwartym, często wykorzystywanym w kwestionariuszach przeznaczonych do badania opinii
publicznej. Zaletą pytań otwartych jest to, że nie zmuszają respondentów do wybrania jednej
z wcześniej przygotowanych odpowiedzi. Jeżeli tylko respondent zrozumie istotę pytania, to
może na nie odpowiedzieć całkowicie swobodnie, spontanicznie i posługując się swoim
własnym językiem. Jeżeli odpowiedzi udzielone na pytania otwarte nie są jasne, to ankieter
— stosując technikę sondowania — może poprosić respondenta o dalsze wyjaśnienia lub o
uzasadnienie tego, co wcześniej zostało powiedziane. Pytania otwarte pozwalają na
wyjaśnianie nieporozumień i stwarzają możliwość nawiązywania dobrego kontaktu z
respondentem. Na pytania otwarte trudno się jednak odpowiada i jeszcze trudniej się je
analizuje. Badacz musi zaprojektować specjalny system kodowania, aby otrzymane
odpowiedzi mogły zostać poklasyfikowane. W procesie klasyfikowania zaś wiele
szczegółowych informacji może ulec zagubieniu (por. rozdział 14).
1 Rita J. Simon, Jean M. Landis (1989), Report: Women's and Men's Attitudes about a
Woman's Place and Role, „Public Opinion Quarterly", 53, s. 265-279.
1. Bardzo wysoki.
2. Wysoki.
3. Przeciętny.
4. Niewielki.
5. Niski.
271
To, kiedy należy stosować pytania zamknięte, a kiedy otwarte, zależy od wielu
czynników. Kilkadziesiąt lat temu Paul Lazarsfeld sformułował następujący zbiór kryteriów
determinujących poprawność ich stosowania5:
1. Cel kwestionariusza. Pytania zamknięte są odpowiednie wówczas, kiedy celem
badania jest uzyskanie aprobaty lub dezaprobaty wobec jasno wyrażonego punktu widzenia.
Kiedy badacz chce się dowiedzieć, w jaki sposób respondent tworzy określony punkt
widzenia, powinien zastosować raczej pytania otwarte.
2. Poziom wiedzy respondenta na temat problematyki pytania. Pytania otwarte
stwarzają możliwości sprawdzenia, w jakim stopniu respondent jest nie doinformowany,
podczas gdy pytania zamknięte takiej możliwości nie dają. Oczywiście, tworzenie pytań,
które całkowicie wychodzą poza zakres doświadczeń respondenta, mija się z celem.
3. Stopień, w jaki problematyka pytania została przemyślana przez respondenta.
Pytania otwarte są preferowane w sytuacji, w której respondent nie ma jeszcze
skrystalizowanej opinii. Stosowanie wówczas pytań zamkniętych stwarza ryzyko akceptacji
którejś z przedstawionych możliwości, odmiennej od opinii respondenta wyrażonej wtedy,
kiedy brałby on pod uwagę i oceniał swoje poprzednie doświadczenia.
4. Łatwość, z jaką respondent może komunikować treść odpowiedzi, lub zakres, w
jakim respondent jest motywowany do przedstawiania swojej opinii na dany temat. Pytania
zamknięte wymagają mniejszej motywacji do wyrażania własnych opinii, a sama odpowiedź
zazwyczaj mniej ujawnia (tym samym jest mniej zagrażająca) niż w wypadku pytań
otwartych. Badacze stosujący pytania zamknięte rzadziej też spotykają się z odmową
odpowiedzi.
Czasami istnieją powody, dla których warto zadać to samo pytanie zarówno w formie
otwartej, jak i zamkniętej. Na przykład odpowiedź na pytanie otwarte: „Kto rządzi
Ameryką?" dostarczy informacji na temat spostrzegania systemu politycznego przez
respondenta i znaczenia, jakie dana osoba przypisuje różnym grupom rządzących. I chociaż
takie dane są najbardziej wartościowe, to na ich podstawie może być trudno porównać jedną
grupę respondentów z drugą. Co więcej. badacz nie może być pewny, że respondent podał
wszystkie istotne informacje. Czynniki takie jak nieumiejętność wyrażania własnych myśli
czy chwilowe wahania mogą sprawić, że respondent pominie istotne elementy. Dlatego
później w trakcie wywiadu badacz może zadać to samo pytanie jeszcze raz, ale tym razem w
postaci zamkniętej.
Pytania alternatywne
Bardzo często bywa tak, że pytania dotyczące jednych respondentów nie dotyczą
innych. Na przykład pytanie: „Wymień najistotniejsze powody, dla których chcesz pójść do
college'u" dotyczy oczywiście tylko tych uczniów szkół średnich, którzy planują naukę w
college'u. Bardzo często istnieje konieczność włączenia do kwestionariusza pytań, które będą
dotyczyć jednych i nie dotyczyć innych respondentów. Niektóre pytania mogą dotyczyć tylko
kobiet, inne mężczyzn, jeszcze inne tylko osób pracujących na własny rachunek itd.
5 Paul F. Lazarsfeld (1944), The Controversy over Detailed Interviews: An Offer for
Negotialion, „Public Opinion Quarterly", 8, s. 38-60.
272
Pytania alternatywne to specjalny rodzaj pytań zamkniętych — dotyczą tylko
wybranych grup respondentów. Badacz określa istotność każdego pytania dla określonej
grupy respondentów, wprowadzając wcześniej tzw. pytanie filtrujące. Na przykład w sondażu
dotyczącym tematyki informacyjnej w różnych mediach pytanie filtrujące może brzmieć
następująco: „Czy regularnie czyta Pan(i) bieżące informacje w gazetach?" Pytanie
alternatywne można wtedy sformułować następują--co:„0 jakim wydarzeniu Pan(i) czytał(a)
ostatnio? (Proszę je krótko opisać)". Drugie pytanie dotyczy tylko tych respondentów, którzy
w odpowiedni sposób odpowiedzieli na pytanie filtrujące. Tylko respondenci, którzy na
pytanie filtrujące odpowiedzieli „Tak", będą mogli udzielić odpowiedzi na zgodne z nim
pytanie alternatywne. Zatem kategorie odpowiedzi na pytania filtrujące są następujące: 1. Tak
(odpowiedź na kolejne pytania); 2. Nie (przejdź do pytania nr 3).
Format pytań filtrujących i alternatywnych jest zróżnicowany. Można umieszczać
wskazówki zaraz po odpowiedniej kategorii odpowiedzi pytania filtrującego. Innym
powszechnym formatem jest stosowanie strzałek kierujących respondenta albo do następnego
pytania, albo do pytania alternatywnego. Na przykład:
Czy jest to Pana(i) pierwsza pełnoetatowa praca od czasu ukończenia college'u? , 1.
Tak. 2. Nie.
Co się stato z Pana(i) poprzednią pracą — został(a) Pan (i) awansowany(a),
zwolniony(a) czy były jakieś inne powody? (Proszę wybrać jedną z możliwości).
1. Instytucja została zlikwidowana.
2. Zostatem(łam) zwolniony(a).
3. Okres zatrudnienia się skończył. Praca była sezonowa.
4. Odszedłem (Odeszłam) dobrowolnie.
5. Zostatem(tam) awansowany(a) i przeniesiony(a).
6. Inne powody.
Przykład 11.1
Pytania alternatywne
Odpowiedź na poniższe pytania, jeżeli jesteś uczniem ostatniej klasy szkoły średniej i
planujesz pójście <Jocollege'u. Osoby nie będące uczniami ostatniej klasy przechodzą do
pytania 144.
137. Czy zdawałeś(aś) już egzamin do college'u? _____ tak
,_____ nie
138. Czy wiesz już ostatecznie, do którego college'u będziesz chodzić? _____ tak
_____ nie
Inny format polega na ujęciu pytań alternatywnych w ramkę i umieszczeniu ich poza
zwykłymi pytaniami przeznaczonymi dla wszystkich. Ilustrację takiego formatu
zamieściliśmy w przykładzie 11.1. Jeżeli dany kwestionariusz jest adresowany do kilku
podgrup i dla każdej grupy przeznaczono po kilka pytań alaternatyw-nych, to warto —
podając numer — wskazać respondentowi, na które pytania ma odpowiadać. Wówczas w
pytaniu filtrującym odpowiednie instrukcje podaje się obok właściwej kategorii odpowiedzi,
tak jak w poniższym przykładzie:
273
22. Czy teraz szukasz nowej pracy?
_____tak
_____nie 1
_____nie wiem [ PrzeJdź do Pytania 25-
_____nie dotyczy J
W wywiadzie telefonicznym wspomaganym komputerowo (CATI) programuje; się
komputer w taki sposób, aby automatycznie przechodził do właściwych pytań. Jeżeli
respondent odpowie „nie", „nie wiem" czy „nie dotyczy" na poprzednie pytanie, na ekranie
automatycznie pojawi się pytanie 25.
Trzy rodzaje pytań
¦ Pytania zamknięte. Respondentom przedstawia się zbiór odpowiedzi i prosi o
wybranie tej, która najlepiej opisuje ich cechy czy postawy.
¦ Pytania otwarte. Respondentom nie przedstawia się zdefiniowanego zbioru
odpowiedzi. Prosi się natomiast o opisanie swoich cech czy postaw własnymi słowami. Ich
odpowiedzi są w całości zapisywane albo przez samych respondentów, albo przez ankietera.
¦ Pytania alternatywne. Jest to rodzaj pytań zamkniętych zadawanych tylko podgrupie
respondentów. Podgrupa jest wyodrębniana za pomocą pytania filtrującego, kierującego
odpowiednich respondentów do właściwych dla nich pytań lub za pomocą instrukcji, która
wskazuje członkom podgrupy, na które pytanie lub zbiór pytań powinni odpowiadać, a osoby
nie należące do tej grupy informuje, do którego pytania powinny przejść.
¦ Format pytania
Badacze stosują wiele technik, aby nadać odpowiednią strukturę kategoriom
odpowiedzi w pytaniach zamkniętych. Podstawowy format to przedstawienie wszystkich
możliwych odpowiedzi i sprawienie, aby respondent wybrał właściwą dla niego kM tegorię.
Respondent może otoczyć kółkiem, napisać numer, postawić krzyżyk w oi powiednim
kwadracie czy w pustym miejscu obok, w sposób, jak pokazano niżej:
Jaki jest Pana(i) stan cywilny?
___ pozostaję w związku ? pozostaję w związku 1) pozostaję w
związku
małżeńskim małżeńskim małżeńskim
___jestem stanu wolnego ? jestem stanu wolnego 2) jestem stanu
wolnego
___jestem rozwiedziony(a) ? jestem rozwiedziony(a) 3) jestem
rozwiedziony(a)
___jestem wdowcem/wdową ? jestem wdowcem/wdową 4) jestem
wdowcem/wdo'
Oczywiście, respondent musi otrzymać odpowiednie wskazówki, czy ma okólko-j wać
odpowiedni numer, zaznaczać krzyżykiem kwadrat czy stawiać go w pustyni miejscu.
Spośród trzech przedstawionych tu metod najmniej rekomendowana jea
274
metoda z pustymi miejscami, ponieważ respondent może postawie znak między
miejscami i tym samym trudno będzie rozstrzygnąć, o którą kategorię naprawdę chodzi.
Otoczenie kółkiem odpowiedniego numeru jest najbardziej preferowane, jako że numer
kodowy odpowiedzi można łatwo przenieść do odpowiedniego oprogramowania
komputerowego.
Skalowanie . .
Jednym z najczęściej stosowanych formatów w przypadku pytań wykorzystywanych
w sondażach społecznych jest format skali szacunkowej. Badacze posługują się skalą
szacunkową wtedy, kiedy respondent ma wyrazić swój sąd, odwołując się do
uporządkowanego zbioru kategorii, takich jak „całkowicie się zgadzam , „pożądane" czy
..bardzo często". Na przykład:
Policja powinna mieć prawo do pełnego zrewidowania każdego kierowcy
aresztowanego za prze-
kroczenie szybkości:
1. Całkowicie się zgadzam.
2. Zgadzam się.
3. Ani się zgadzam, ani się nie zgadzam.
4. Nie zgadzam się.
5. Całkowicie się nie zgadzam.
Kategorie odpowiedzi na takie pytania nazywane są kwantyfikatorami.
Odzwierciedlają one stopień intensywności każdej konkretnej oceny. Poniżej przedsta-I
wiamy najczęściej stosowane zbiory takich odpowiedzi:
. Całkowicie się zgadzam.
1. Za mało. 1. Więcej.
2. Zgadzam się. 2. Prawie dobrze. 2. Tak samo.
3. Ani się zgadzam, ani się nie zgadzam. 3. Za dużo. 3. Mniej.
4. Nie zgadzam się.
5. Całkowicie się nie zgadzam.
Kod numeryczny znajdujący się przy każdej kategorii jest zazwyczaj interpretowany
jako odzwierciedlenie stopnia aprobaty kategorii odpowiedzi — im większy numer
odpowiedzi, tym większy stopień aprobaty. I chociaż przyjmujemy, że kwantyfikatory są
uporządkowane ze względu na stopień aprobaty, jednak nie oznacza to jeszcze, że odległości
pomiędzy poszczególnymi kategoriami są równe. Skale szacunkowe, takie jak te tu
przedstawione, są bowiem skalami porządkowymi, informującymi jedynie o tym, która
kategoria jest wyższa lub niższa od innej kategorii, ale nie pozwalają na odpowiedź „o ile"
(por. rozdział 7).
Pomijając trudność związaną z szacowaniem aprobaty, trudno jest prosić
respondentów o dokładną odpowiedź, gdyż dla większości z nich będzie to zadanie bardzo
trudne. I chociaż na ogół respondenci potrafią bez większych problemów powiedzieć, ile
godzin poświęcili na oglądanie telewizji w zeszłym tygodniu, to podanie dokładnej
odpowiedzi na pytania dotyczące tematyki mającej dla nich niewielkie znaczenie — np.
postaw wobec polityki zagranicznej — staje się bardzo trudne6.
'Norman M. Bradburn, Seymour Sudman (1974), Itnproving lnterview Method and
Questionnaire Design. San Francisco: Jossey-Bass, s. 152-162.
275
Pytania tabelaryczne (macierzowe)
Pytania tabelaryczne (macierzowe) jest to metoda organizowania w całość dużego
zbioru pytań szacunkowych i posiadających te same kategorie odpowiedzi. Przedstawiony
poniżej przykład jest ilustracją takiej właśnie metody postępowania:
Wskaż swój stosunek do każdego z poniżej przedstawionych twierdzeń
Całkowicie Zgadzam się To zależy Nie Całkowicie I
się zgadzam zgadzam się się nie zgadza™
Mój głos oznacza dla mnie wpływ na sprawy rządowe w takim zakresie, w jakim tego
pragnę.
? ? ? ? D
Jeżeli złożę skargę pracownikom urzędu miasta, to postarają się oni naprawić to, co
jest złe. ? ? ? ? D
Czasami chciał-bym(łabym), aby urzędnicy państwowi zwracali więcej uwagi na to,
co myślę.
? ? ? ? D
Dyferencjał semantyczny
Dyferencjał semantyczny to inny typ skali szacunkowej. Umożliwia on pomiar reakcji
respondenta na pewien obiekt lub pojęcie i polega na wskazaniu swojego wjl boru na
dwubiegunowej skali, opisanej na każdym z krańców kontrastowymi przymiotnikami7:
Bardzo Dosyć Niewiele Wcale Niewiele Dosyć Bardzo Dobry ____
____ ____ ____ ____ ____ ___ Zły
Poniżej przedstawiamy przykład wykorzystania dyferencjału semantycznego':
Poniżej przedstawiamy listę par słów, które możesz wykorzystać do opisania służb
publicznych. Pomiędzy każdą parą przymiotników znajduje się siedem poziomych linii.
Weźmy dla przykładu pierwszą parę słów, tj. dobry/zły. Linia pozioma umieszczona najbliżej
lewej strony oznacza.żel oceniany urzędnik służby publicznej jest bardzo dobry, następna
linia oznacza, że on czy onajesl dość dobry itd. Słowa umieszczone na górze tej karty pomogą
Ci wybrać tę linię, która Twoim j zdaniem jest właściwa.
7 David R. Heise (1970), The Semantic Differential and Attitude Research, w: Gene
F. Summffl (red.), Attitude Measurement, Skokie, 111.: Rand Mc Nally, s. 235.
8 David Nachmias, David H. Rosenbloom (1978), Bureaucratic Culture: Citizens
andAdminiM tors in Israel, New York: St. Martin's Press, s. 110-115.
276
Proszę, powiedz zatem, która z linii najlepiej opisuje pracowników służby cywilnej?
Bardzo Dosyć Niewiele Wcale Niewiele Dosyć Bardzo
ny
Zły
Nieuczciwy
Nieskuteczny
Płytki
Bierny
'-L wykorzystują w kwestionariuszach metodę rangowania wtedy, kiedy chcą skać
informacje o stopniu ważności czy pierwszeństwa, jaki ^zie przypisują orowi postaw czy
obiektów. Na przykład w sondażu dotyczącym jakości życia -roszono respondentów o
porangowanie różnych wymiarów ze względu na przy-ywaną im ważność.
Proszę powiedzieć, co dla Pana(i) okazało się w życiu ważne. Proszę spojrzeć na tę
kartęJpwjto-dzieć. która z wymienionych niżej rzeczy stanowi dla Pana(i) najważniejszy cel
w życiu, która jest lochę mniej ważna, która znajduje się na trzecim, a która na czwartym
m.ejscu.
Ranga
12 3 4
12 3 4
12 3 4
12 3 4
Życie w dobrobycie (dobre zarobki
i możliwość życia na wysokim poziomie) Życie rodzinne (życie całkowicie
skoncentrowane
na własnej rodzinie) Życie pełne ważnych osiągnięć (osiągnięcia,
które przynoszą szacunek innych) Życie bezpieczne (dbanie o to, aby stać mnie było
na wszystkie podstawowe potrzeby)
Rangowanie jest użytecznym narzędziem z tego względu iż pozwala ustalić reny
porządek zbioru obiektów czy ocen. Jest to szczególnie przydatne, gdyż wtlu własnościom
mierzonym w naukach społecznych (na przykład "J^i życia", „statusowi") nie można
przypisać dokładnej wartości liczbowej. Stosuj rangowanie, możemy jednak, co najwyżej,
otrzymać informacje dotyczące relatywne-ouporzadkowania. Podobnie jak w przypadku skal
szacunkowych rangowanie nie dostarcza bowiem żadnych informacji dotyczących odległości
pomiędzy rangami. Różnica pomiędzy rangą 1 i 2 może nie być taka sama jak pomiędzy
rangą 2 i 3.
I Porządek pytań
Kiedy ustalimy już format pytań, musimy określić porządek, w-jakim te-pytania
zostaną umieszczone w kwestionariuszu. Zazwyczaj stosuje się dwa rodzajesche-matów
porządkowania pytań, które z punktu widzenia motywowania responden a do udzielania
odpowiedzi wydają się najwłaściwsze. Są to: strategia lejka i strategia
odwróconego lejka.
277
Strategia lejka
W strategii lejka każde kolejne pytanie jest powiązane z pytaniem poprzednim, a jego
zakres jest coraz mniejszy. Na przykład, jeżeli jesteśmy zainteresowani tym, w jakiej mierze
poglądy respondentów na problemy natury politycznej, ekonomicznej i społecznej wynikają z
czytanych przez nich gazet, to możemy chcieć ustalić, jaki rodzaj zagadnień to problemy w
oczach respondentów, jaka jest spostrzegana względna istotność każdego problemu, jakie
informacje posiadają oni na każdy temat, jakie są źródła tych informacji i czy gazety
wpłynęły na sposób widzenia problemu. Poniżej przedstawiamy przykład pytań
uporządkowanych według strategii lejka:
1. Jakie najważniejsze problemy stoją — Twoim zdaniem — przed narodem?
2. Który z wymienionych przez Ciebie problemów uważasz za najważniejszy?
3. Skąd czerpałeś(laś) informacje na temat tego problemu?
4. Czy czytasz „Washington Post"?
Jeżeli celem sondażu jest otrzymanie szczegółowych informacji i jeżeli respondent jest
wystarczająco motywowany do udzielania takich informacji, to strategia lejka pozwala
respondentom na bardziej skuteczne ujawnianie szczegółów. Co wic-1 cej, zadając na
początku pytanie o szerokim zakresie, badacz nie narzuca respondentowi żadnego kontekstu,
zanim ten nie ujawni własnej perspektywy. Jeżeli celem sondażu jest ujawnienie wielu
różnych odpowiedzi, to należy zaczynać od zadawania pytania o szerokim zakresie9.
łając format i rodzaj pytania, jakie może zadać. Aby zilustrować etapy tworzenia
kwestionariusza, w przykładzie 11.4 przedstawiamy kwestionariusz wykorzystany I w
rzeczywistym badaniu, przeprowadzonym przez Instytut Badań Społecznych Uniwersytetu w
Michigan28.
Celem badań było przeanalizowanie postaw wobec problemów życia w mieście i
problemów rasowych w 15 miastach na północy Stanów Zjednoczonych. Badacze starali się
określić cechy społeczne i psychologiczne, a także aspiracje czarnych i białych mieszkańców.
W każdym z badanych miast wybrano próbę białych i czarnych mieszkańców, liczącą około
175 białych i 175 czarnych osób. Ponadto j w okręgach wiejskich przebadano dodatkowo
około 366 białych osób. Łącznie zbadano 2950 białych i 2809 czarnych respondentów.
Wszyscy respondenci byli ! w wieku między 16 a 69 lat i mieszkali w prywatnych domach.
Badacze skonstruowali dwie wersje kwestionariusza —jedną dla białych i jedną dla
czarnych osób badanych. Pytania dotyczące danych metryczkowych byty niemal identyczne
w obu wersjach kwestionariusza. Pytania dotyczące postaw rów- '• nież były identyczne w
obu wersjach kwestionariusza, jednakże w każdej wersji większość pytań dotyczyła jednej lub
drugiej grupy rasowej. W kwestionariuszu znalazły się również pytania sondujące stopień
zadowolenia respondenta z sąsiedz- I twa, z działań rządu dotyczących rozwiązywania
problemów życia w mieście, związków z osobami innej rasy, postaw wobec integracji i
wreszcie spostrzeganej I uczciwości współżycia pomiędzy rasami. Kwestionariusz
przedstawiony w przykładzie 11.4 jest skróconą wersją oryginalnego kwestionariusza
adresowanego do czar- I nych mieszkańców.
Zauważmy, że kwestionariusz rozpoczyna się od wprowadzenia numerów
identyfikacyjnych dla osób, z którymi przeprowadzono wywiad, jak również od danych
identyfikujących ich miejsce zamieszkania. Przygotowano kwestionariusz tak, aby osoba
przeprowadzająca wywiad mogła wpisać, kiedy badanie się rozpoczęło. Pytanie pierwsze jest
przykładem pytania dotyczącego postaw i mierzy stopień satysfakcji respondenta z usług
gwarantowanych przez miasto. Pytanie to zostało wyposażone w macierzowy format
odpowiedzi. Zauważmy również, że przygotowano instrukcję zarówno dla ankietera (zaznacz
kod dla opcji A, a następnie zadaj pytanie o opcje od B do E), jak i dla respondenta.
Pytanie 2 to pytanie zamknięte z komponentą otwartą (2A). Pytanie 2A to
jednocześnie pytanie alternatywne. Pytania 3, 5, 6 i 7 to pytania podobne do pytań
alternatywnych. W pierwszej części zawierają one pytanie filtrujące, a w drugiej pytanie
alternatywne, które odnosi się tylko do tych respondentów, którzy wybrali określoną
kategorię odpowiedzi w pierwszej części. We wszystkich pytaniach sto- I sowane są kody
numeryczne wybierane przez ankietera.
Ostatnia część kwestionariusza ilustruje zalety wywiadu w porównaniu z inny- I mi
metodami wypełniania kwestionariusza (poczta, telefon). Ankieter może dostar- I czyć
dodatkowych informacji o ogólnych postawach respondenta, co w efekcie mo- I że pomóc
badaczom przy wyjaśnianiu zaobserwowanego schematu odpowiedzi.
28 Przykład oparto na pracy Angusa Campbella i Howarda Schumana (1973), Racial
Attitudam Fifteen American Cities, Ann Arbor, Mich.: Social Science Archive.
288
tworzenia _ stany Społecznych
mieście Badacze ~ rnych
czar-Ponadto
zba-byli
i jed-były rów-wersji mariuszu sąsiedz-mieście, spostrzeganej przykła-czar-
iden-
danych
, aby
• Py-
atys-wypo-owano
pyta-
jed-
pytań
irugiej
wybrali
sto-
mny-
dostar-
mo-
les in
Przykład 11.4
Kwestionariusz postaw wobec problemów życia w mieście
Czas przeprowadzenia wywiadu początek
numer zm. 3
numer zn
Wykształcenie numer
Osoba numer z m. 19
Wyłącznie dla celów służbowych
zm. 2
zm. 10
I. Przede wszystkim chciałbym(abym) się dowiedzieć, w jakim stopniu Pan(i) jest
zadowolona z podstawowych usług świadczonych przez miasto w Pana(i) najbliższym
sąsiedztwie. Co sądzi Pan(i) na temat poziomu szkół publicznych mieszczących się w
sąsiedztwie — jest Pan(i) generalnie zadowo-lony(a), całkiem zadowolony(a),
niezadowolony(a).
(Zaznacz kod dla opcji A. a następnie zadaj pytanie o opcje od B do E)
A. Poziom szkół publicznych
B. Parki i miejsca do zabawy dla dzieci, znajdujące się w sąsiedztwie
C. Ośrodki sportowe i rekreacyjne dla młodzieży, znajdujące się w sąsiedztwie
D. Ochrona przez policję na Pana(i) terenie
E. Wywóz śmieci na Pana(i) terenie
Generalnie Całkiem Bardzo Nie wiem
zadowolony zadowolony niezadowolony
i 2 3 8
1
Biorąc pod uwagę takie usługi świadczone przez miasto, jak prowadzenie szkół
publicznych czy wywóz śmieci, jak Pan(i) sądzi, czy w Pana(i) sąsiedztwie są one na lepszym
poziomie, takim samym czy gorszym, w porównaniu z innymi częściami miasta?
Na lepszym .... (zapytać A)............ 1
Takim samym...................................2
Na gorszym .... (zapytać A)........... 3
Nie wiem...........................................8
A. Jeżeli na lepszym lub na gorszym: Jaka jest Pana(i) zdaniem przyczyna, że usługi te
świadczone są na lepszym/gorszym poziomie?
3. Jeżeli ma Pan(i) poważne zastrzeżenia co do jakości usług świadczonych przez
wartości
miasto, to czy sądzi Pan(i), że może Pan(i) wpłynąć na urzędników miejskich,
zapisane
aby coś zrobili w tej sprawie?
Tak.........(zapytać A).................... 1
Nie..........(zapytać A)................... 5
Nie wiem..........(zapytać A)..........8
289
A. Czy kiedykolwiek dzwonil(a) Pan(i) do urzędu miasta, aby złożyć skargę na słabą
jakość usług?
Tak.................................... 1
Nie.................................... 5
4. Ogólnie rzecz biorąc, czy sądzi Pan(i), że urzędnicy miejscy w (miasto)
poświęcają tyle samo uwagi prośbom czy skargom składanym przez czarnych jak i białych
mieszkańców?
Więcej .............................. 1 1
Mniej................................ 2 3
Tak samo.......................... 3 2
Nie wiem.......................... 8 8
Porozmawiajmy teraz o problemach (miasto) jako całości.
5. Czy sądzi Pan(i), że prezydent (miasto) robi wszystko, aby rozwiązać podstawowe
problemy miasta, czy też Pana(i) zdaniem, nie robi wszystkiego, aby te problemy zostały
rozwiązane?
Robi wszystko, co można...................................... 1
Nie robi wszystkiego, co można (zapytać A)..... X
Nie wiem................................................................8
A. Jeżeli nie robi wszystkiego, co można: Czy sądzi Pan(i), że prezydent stara się
rozwiązać problemy miasta, czy też w ogóle się nie stara?
Stara się............................. 2
W ogóle się nie stara........ 3
6. Co sądzi Pan(i) na temat władz stanowych? Czy Pana(i) zdaniem, robią wszystko,
co
można, aby rozwiązać podstawowe problemy takich miast jak (miasto), czy też nic
nie robią, aby problemy te zostały rozwiązane?
Robią wszystko, co można.................................... 1
Nie robią wszystkiego, co można (zapytać A) .. X Nie
wiem................................................................8
A. Jeżeli nie robią wszystkiego, co można: Czy sądzi Pan(i), że starają się
rozwiązać problemy miasta, czy też w ogóle się nie starają?
Starają się ......................... 2
W ogóle się nie starają..... 3
7. Co sądzi Pan(i) na temat rządu w Waszyngtonie? Czy Pana(i) zdaniem rząd robi
wszystko, co można, aby rozwiązać podstawowe problemy takich miast jak (miasto),
czy też nic nie robi, aby problemy te zostały rozwiązane?
Robi wszystko, co można...................................... 1
Nie robi wszystkiego, co można (zapytać A)..... X
Nie wiem................................................................8
A. Jeżeli nie robi wszystkiego, co można: Czy sądzi Pan(i), że stara się on
rozwiązać problemy miasta, czy też w ogóle się nie stara?
Stara się............................ 2
W ogóle się nie stara....... 3
290
. W Cleveland oraz w Gary, w stanie Indiana, wybrano osobę o czarnym kolorze skóry
na prezydenta miasta. Jaki efekt — Pana(i) zdaniem — fakt ten może wywrzeć na
rozwiązywanie problemów w Cleveland i w Gary? Czy dzięki temu sprawy potoczą się lepiej,
gorzej, czy też nie przyniesie to żadnych zmian?
Lepiej ......................................................................1
Gorzej.....................................................................2
Niewiele zmian...................................................... 3
Nie wiem......................(zapytać A)...................8
A. Jeżeli nie wiem: A gdyby miat(a) Pan(i) zgadywać, to czy sprawy potoczą się
lepiej, gorzej, czy też nie przyniesie to żadnych
Lepiej . Gorzej
Niewiele zmian...................................................... 3
Teraz chciatbym(abym) porozmawiać o zarzutach, jakie ludzie mają w stosunku do
policji miejskiej
W (MIASTO).
9. Po pierwsze, wiele osób twierdzi, że policja nie przyjeżdża dość szybko, kiedy sieją
wzywa na pomoc. Czy sądzi Pan(i), że dzieje się tak również w Pana(i) sąsiedztwie?
Tak........(zapytać A)................ 1
Nie.........(przejść do 10).............. 5
Nie wiem.........(zapytać A)......8
A. Jeżeli tak lub nie wiem: Czy kiedykolwiek zdarzyło się to Panu(i) osobiście?
Tak........(zapytać B i C)...........1
Nie..........(zapytać C)............... 5
B. Jeżeli tak na opcję A: Kiedy to się stało (ostatni raz)?
_______ lat temu
C. Jeżeli tak lub nie na opcję A: Czy zdarzyło się to komuś, kogo Pan(i) zna?
Tak Nie .
10. Niektórzy twierdzą, że policja nie szanuje ludzie i używa wulgarnego języka. Czy
zdaniem Pana(i) zdarzyło się tak również w Pana(i) sąsiedztwie?
Tak........(zapytać A).................1
Nie........(przejść do 11).............5
Nie wiem.........(zapytać A)......8
A. Jeżeli tak lub nie wiem: Czy kiedykowiek zdarzyło się to Panu(i) osobiście?
Tak........(zapytać B i C)........... 1
Nie........(zapytać C)................. 5
B. Jeżeli tak na opcję A: Kiedy to się stało (ostatni raz)?
______ lat temu
291
C. Jeżeli tak lub nie na opcję A: Czy zdarzyło się to komuś, kogo Pan(i) zna?
Tak................................................1
Nie................................................5
11. Niektórzy twierdzą, że policja często dokonuje przeszukania bez wyraźnego
wartości
uzasadnienia. Czy zdaniem Pana(i) zdarzyło się tak również w Pana(i) sąsiedztwie?
Tak.........(zapytać A)................1
Nie..........(przejść do 12).......... 5
Nie wiem.......(zapytać A)........8
A. Jeżeli tak lub nie wiem: Czy kiedykowiek zdarzyło się to Panu(i) osobiście?
Tak........(zapytać B i C)...........1
Nie.........(zapytać C)................ 5
B. Jeżeli tak na opcję A: Kiedy to się stało (ostatni raz)?
lat ______ temu
C. Jeżeli tak lub nie na opcję A: Czy zdarzyło się to komuś, kogo Pan(i) zna?
Tak................................................1
Nie................................................5
12. Niektórzy twierdzą, że policja źle traktuje ludzie w trakcie aresztowania lub po
aresztowaniu. Czy zdaniem Pana(i) zdarzyło się tak również w Pana(i) sąsiedztwie?
Tak.........(zapytać A)................1
Nie..........(przejść do 13).......... 5
Nie wiem.........(zapytać A)......8
A. Jeżeli tak lub nie wiem: Czy kiedykowiek zdarzyło się to Panu(i) osobiście?
Tak.........(zapytać B i C).......... 1
Nie.........(zapytać C)................ 5
B. Jeżeli tak na opcję A: Kiedy to się stało (ostatni raz)?
lat _______ temu
C. Jeżeli tak lub nie na opcję A: Czy zdarzyło się to komuś, kogo Pan(i) zna?
Tak................................................1
Nie................................................5
13. Czy Pana(i) zdaniem czarni mieszkańcy miasta są lepiej traktowani przez
czarnych policjantów, białych policjantów, czy też kolor skóry policjantów nie ma tu żadnego
znaczenia?
Przez czarnych policjantów.....(zapytać A)........... 1 1
Przez białych policjantów........(zapytać A).......... 2 2
Kolor skóry policjantów nie ma znaczenia...............3 2
Nie wiem....................................................................8 8
A. Jeżeli przez czarnych lub białych policjantów: Dlaczego Pana(i) zdaniem tak się
dzieje?
292
14. Ogólnie rzecz biorąc, czy Pana(i) zdaniem sędziowie w (miasto) wydają wyroki
surowsze dla białych mieszkańców, czarnych mieszkańców czy kolor skóry mieszkańców nie
ma tu żadnego znaczenia?
Surowsze dla czarnych............................................ 1
Surowsze dla białych............................................... 2
Kolor skóry mieszkańców nie ma znaczenia.......... 3
Nie wiem.................................................................. 8
15. Czy czuje się Pan(i) obecnie bezpieczniej niż dwa czy trzy lata temu, czuje się
Pan(i) tak samo bezpiecznie, czy też mniej bezpiecznie?
Obecnie bezpieczniej ................................................. 1
Bez zmian.................................................................. 2
Mniej bezpiecznie......................................................3
16. Mam tu listę skarg, które czasami padają pod adresem sklepów i ich obsługi.
Proszę mi powiedzieć, czy któraś z wymienionych tu rzeczy przydarzyła się Panu(i) w trakcie
pobytu w sklepie w Pana(i) okolicy?
Często Czasami Rzadko Nigdy w sąsiedztwie Nie robię zakupów
(PRZEJDŹ DO D)
A. Czy uważasz, że często, czasami, rzadko lub nigdy policzono Panu(i) zbyt dużo za
zakupiony towar?
B. Czy często, czasami,
rzadko lub nigdy
1 2 3
zdarzyło się Panu(i)
kupić towar zepsuty
lub złej jakości?
C. Czy w takich sklepach często, czasami, rzadko lub nigdy tra-kuje się Pana(ią) bez
szacunku?
D. Jeżeli nigdy nie robi zakupów w sąsiedztwie: Dlaczego nie robi Pan(i) zakupów w
pobliżu?
WYPEŁNIĆ NATYCHMIAST PO WYJŚCIU RESPONDENTA
A. Całkowity czas trwania wywiadu:
______ minut
B. Współpraca ze strony respondenta
Zdecydowanie współpracuje............ 1
Współpracuje................................... 2
Nie współpracuje..............................3
C. Zainteresowanie problemami rasowymi ze strony respondenta
Duże.................................................. 1
Przeciętne..........................................2
Małe..................................................3
D. Stopień zrozumienia pytań przez respondenta
Dobre.................................................1
Przeciętne..........................................2
Słabe..................................................3
E. Kto z osób powyżej 14 roku życia był obecny w trakcie wywiadu?
Zaznaczyć wszystkie właściwe odpowiedzi
zm. 63 Nikt....................................................0
Małżonek/małżonka..........................1
Rodzice..............................................2
Dzieci powyżej 14 lat.......................3
Inni krewni lub przyjaciele...............4
Inne osoby (wymienić).....................5
F. Czystość gospodarstwa domowego
zm. 64 Bardzo schludnie i czysto..................1
Raczej czysto i schludnie..................2
Raczej bałagan..................................3
Ogromny bałagan..............................4
G. Data przeprowadzenia wywiadu zm. 69
H. Podpis ankietera:
I. Opisz krótko osobę respondenta i ewentualnie wszystkie czynniki, które mogły
wpłynąć na treść wywiadu.
¦ Podsumowanie
1. Podstawowym problemem omawianym w tym rozdziale są zasady konstruowania
kwestionariusza. Kwestionariusz to nic innego jak przełożenie celów badawczych na pytania.
Odpowiedzi na te pytania dostarczą danych pozwalających na przetestowanie hipotezy
badawczej.
2. Większość pytań można zaliczyć do jednej z dwóch klas: pytań dotyczących faktów
(pytań metryczkowych) i pytań dotyczących subiektywnych doświadczeń. Pytania dotyczące
faktów, inaczej pytania metryczkowe, tworzy się po to, aby otrzymać od respondenta dane
obiektywne. Pytania dotyczące danych subiektyw-
294
nych pozwalają na uzyskanie informacji o skłonnościach, preferencjach,
uprzedzeniach, wierzeniach, lękach i przekonaniach. Ogólnie rzecz biorąc, znacznie trudniej
jest skonstruować pytania dotyczące danych subiektywnych niż pytania dotyczące faktów.
Odpowiedzi na pytania dotyczące danych subiektywnych również zmieniają się częściej wraz
ze zmianą słownictwa, sposobem uwypuklania treści czy kolejnością pytań niż w wypadku
pytań dotyczących faktów.
3. Można wyróżnić trzy rodzaje pytań kwestionariusza: pytania zamknięte, pytania
otwarte i pytania alternatywne. W pytaniach zamkniętych respondentowi przedstawia się
zbiór odpowiedzi, a jego zadanie polega na wybraniu tej odpowiedzi, która najlepiej
odzwierciedla jego poglądy. Pytania otwarte nie są wyposażane w żadną konkretną
odpowiedź, a to, co mówi respondent, jest w całości zapisywane. Pytania alternatywne
dotyczą tylko wybranych grup respondentów. To, czy dane pytanie odnosi się do tej grupy
respondentów, jest ustalane na podstawie odpowiedzi wszystkich respondentów na
poprzedzające je pytanie filtrujące.
4. Jednym z najczęściej stosowanych formatów w pytaniach wykorzystywanych w
sondażach społecznych jest format skali szacunkowej. Zadanie respondenta polega na
wyrażaniu własnego sądu poprzez odwołanie się do uporządkowanego zbioru kategorii.
Istnieje kilka rodzajów skal szacunkowych, w tym dyferencjał semantyczny. Pytania
tabelaryczne to metoda organizowania w całość dużego zbioru pytań szacunkowych i
posiadających te same kategorie odpowiedzi. Metodę rango-wania wykorzystuje się w
kwestionariuszach wtedy, gdy chcemy uzyskać informacje o stopniu ważności czy
pierwszeństwa, jaki ludzie przypisują zbiorowi postaw czy obiektów.
5. Pytanie powinno zostać tak sformułowane, aby respondent je zrozumiał. Pytanie
sugerujące to pytanie tak sformułowane, że respondent odczytuje je jako wymagające
określonej odpowiedzi. Pytania zagrażające to pytania wywołujące lęk respondenta. Oba
rodzaje pytań mogą być źródłem stronniczej odpowiedzi. Należy unikać wprowadzania
zarówno pytań stronniczych, jak i zagrażających mogących uwrażliwiać respondentów,
poprzez stosowanie takich specyficznych technik jak rozbudowywanie określonego pytania
oraz stosowanie formatu otwartego pytań zamiast formatu zamkniętego.
I Podstawowe terminy
dyferencjał semantyczny 276 pytanie o podwójnej treści 283
kwantyfikatory 275 pytanie otwarte 271
opinia 269 pytanie sugerujące 281
postawa 269 pytanie tabelaryczne 276
pytanie 267 pytanie zagrażające 282
pytanie alternatywne 273 pytanie zamknięte 270
pytanie dotyczące faktów 268 rangowanie 277
pytanie filtrujące 273 skala szacunkowa 275
295
¦ Pytania sprawdzające
1. Omów różne sposoby pytania o informacje metryczkowe, opinie i postawy
respondentów.
2. Wyjaśnij, kiedy stosujemy pytania zamknięte, kiedy pytania otwarte, a kiedy
pytania alternatywne.
3. Wymień i opisz formaty pytań w zależności od celu, któremu one służą.
4. Omów rolę, jaką odgrywa kolejność pytań w kwestionariuszu.
5. Wymień problemy, które mogą się pojawić w trakcie konstruowania
kwestionariusza.
¦ Literatura dodatkowa
Brzezińska A., Brzeziński J. (1984), Skale szacunkowe, w: J. Brzeziński, Elementy
metodologii badań psychologicznych, Warszawa: PWN.
Czapiński J. (1978), Dyferencjal semantyczny, w: E. Paszkiewicz (red.), Materiały do
nauczania psychologii, seria III, t. 3, Warszawa: PWN.
Daniłowicz P., Sawiński Z., Sztabiński F., Sztabiński P.B., Wejland A.P. (1992),
Podręcznik socjologicznych badań ankietowych, Warszawa: Wyd. IFiS PAN.
Gostkowski Z. (red.), Analizy i próby technik badawczych w socjologii, Wrocław:
Ossolineum, t.: I (1966), II (1968), III (1970), IV (1972), V (1975), VII (1989), VIII (1990).
Gostkowski Z. (red.) (1992), Analizy i próby technik badawczych w socjologii, t. IX,
Warszawa: Wyd. IFiS PAN.
Lutynska K. (1984), Wywiad kwestionariuszowy. Przygotowanie i sprawdzenie
narzędzia badawczego. Wrocław: Ossolineum.
Lutynska K., Lutyński J. (red.) (1986), Analizy i próby technik badawczych w
socjologii, t. VI, Wrocław: Ossolineum.
Lutyński J. (1994), Metody badań społecznych. Wybrane zagadnienia, red., wstęp,
opracowanie K. Lutynska, Łódź: ŁTN.
Mayntz R., Holm K., Hubner P. (1985), Wprowadzenie do metod socjologii
empirycznej, Warszawa: PWN.
Nowak S. (red.) (1965), Metody badań socjologicznych. Wybór tekstów, Warszawa:
PWN.
Sztabiński P.B. (1997), Ankieterzy i ich respondenci. Od kogo zależą wyniki badań
ankietowych, Warszawa: Wyd. IFiS PAN.
Rozdział 12
Badania jakościowe
Badania terenowe 299
Obserwacja uczestnicząca 300
Obserwator w pełni uczestniczący (obserwacja niejawna) 300 Uczestnik jako
obserwator (obserwacja jawna) 303
Praktyczne problemy badań terenowych 304
Wybór tematu badawczego 304
Wybór miejsca i uzyskanie do niego dostępu 305
Nawiązywanie kontaktów z członkami grupy 307
Jak szukać osób dostarczających rzetelnych informacji 309
Opuszczanie terenu 309
Rejestrowanie obserwacji 310
Analizowanie danych 311
Podstawy teoretyczne badań terenowych 313
Społeczność robotników: przykład badań terenowych 315
Wybór tematu badawczego i terenu badań 315 Uzyskiwanie dostępu 316
Nawiązywanie kontaktów z członkami grupy 316 Opuszczanie terenu 317
Etyczne i polityczne aspekty badań terenowych 317
Podsumowanie 318
Podstawowe terminy 319
Pytania sprawdzające 319
Literatura dodatkowa 319
Co się dzieje wewnątrz uniwersyteckiego ośrodka pomocy dla ofiar gwałtu i jak się
tego można dowiedzieć? Amy Fried zainteresowała się, czy przekonania osób pracujących
ochotniczo w takim ośrodku wpływają na ich pracę, modyfikują cele organizacji oraz czy
wpływają na rodzaj pomocy oferowanej ofiarom gwałtu1. Fried włączyła się w prace nowo
tworzonego ośrodka kryzysowego dla ofiar gwałtu, podejmując —jako wolontariuszka —
pracę doradcy. Wraz z piętnastoma innymi kobietami i czterema mężczyznami pracującymi w
ośrodku uczęszczała na zajęcia treningowe i spotkania organizacyjne, na których
obserwowała interakcje zachodzące pomiędzy innymi wolontariuszami i koncentrowała się na
tym, w jaki sposób definiowali oni gwałt oraz jakim językiem posługiwali się, opisując ofiary
gwałtu. Stwierdziła, że w badanej grupie można wyróżnić dwie podkultury. Jedna z grup
posiadała to, co nazwała perspektywą polityczną. Grupa ta składała się z feministek, które
wierzyły, że gwałt jest rezultatem społecznej przewagi mężczyzn nad kobietami. Ich celem
byto zarówno pomaganie bezpośrednim ofiarom gwałtów, jak i wywoływanie określonych
zmian społecznych. Druga grupa kierowała się natomiast perspektywą pomagania. Jej
członkowie wierzyli, że pojęcie gwałtu dotyczy obu płci oraz problemu przemocy, ale
uważali, że celem organizacji powinno być niesienie ludziom pomocy — zarówno kobietom,
jak i mężczyznom — aby mogli oni przezwyciężyć cierpienie związane z tym, że byli
ofiarami gwałtu. Uogólniając swoje wnioski, Fried stwierdziła, że sprzeczność pomiędzy tymi
dwiema postawami osłabiała możliwości feministek w reformowaniu społeczeństwa i
wskazywała na to, że — być może — feministki powinny założyć własną organizację, która
lepiej pozwoli im realizować misję. W badaniach Fried zastosowała jakościowe metody
zbierania danych. Przyjmując na siebie rolę uczestniczącego obserwatora, mogła ujawnić, w
jaki sposób przekonania i wierzenia wpływają na cele organizacji.
W tym rozdziale skoncentrujemy się na badaniach terenowych jako formie badań
jakościowych, omawiając szczegółowo, na czym polega rola obserwatora w pełni
uczestniczącego, a także uczestnika występującego w roli obserwatora. Przeanalizujemy, w
jaki sposób badacze określają cele badawcze, identyfikują osoby badane i do nich docierają,
określają relacje oraz zapisują swoje obserwacje. Rozważymy również, w jaki sposób badacze
pracujący w terenie określają — na podstawie zebranych danych — założenia teoretyczne
leżące u podstaw ich badań, posługując się metodą analitycznej indukcji. Na koniec zajmiemy
się stroną etyczną i polityczną badań terenowych.
Do tej pory zajmowaliśmy się przede wszystkim metodami zbierania danych
charakterystycznych dla analiz ilościowych. W tym rozdziale omówimy prototyp badań
jakościowych — badania terenowe. Korzeni badań jakościowych jako metody zbierania
danych można upatrywać w tradycji Yerstehen, którą omówiliśmy
1 Amy Fried (1994), It's Hard to Change What We Want to Change, „Gender and
Society", 8:4, s. 562-583.
298
w rozdziale 1. Badacze powinni głęboko rozumieć zjawiska społeczne i być świadomi
zarówno historycznego kontekstu ludzkiego zachowania, jak i subiektywnych aspektów
doświadczenia ludzi. Badając zakłady dla obłąkanych, Erving Goffman tak opisał proces
aktywnego uczestniczenia w życiu obserwowanych osób i intro-spekcyjnego poznawania
rzeczywistości:
Bezpośrednim celem badań terenowych realizowanych przeze mnie na terenie szpitala
św. Elżbiety, była próba poznania społecznego świata jego pacjentów, w taki sposób, w jaki
ten świat jest przez nich subiektywnie doświadczany... Wierzyłem wtedy i nadal wierzę, że
każda grupa ludzi (więźniów, ludzi pierwotnych, pilotów czy pacjentów) tworzy swoje
własne życie, które — kiedy się je pozna — staje się znaczące, racjonalne i normalne.
Dobrym sposobem poznania któregokolwiek z tych światów jest wejście samemu do takiej
grupy i branie udziału we wszystkich codziennych, drobnych wydarzeniach, które są jej
udziałem2.
Podejmując badania jakościowe, staramy się zrozumieć zachowania i instytucje,
poznając zaangażowane w nie osoby, ich wartości, rytuały, symbole, wierzenia i emocje.
Przyjmując taką perspektywę, badacze będą badać problem ubóstwa, biorąc raczej udział w
życiu ludzi biednych, zamiast zbierać dane za pomocą ustruk-turowanego kwestionariusza.
I Badania terenowe
Badania terenowe to podstawowa strategia zbierania danych związana z metodologią
jakościową. Generalnie rzecz biorąc, badania terenowe określa się jako „badanie zachowania
ludzi w naturalnych warunkach ich codziennego życia. Osoby prowadzące badania terenowe
wkraczają w świat innych po to, aby z pierwszej ręki dowiedzieć się, jak inni ludzie żyją, jak
mówią, jak się zachowują, co ich zachwyca, a co martwi"3. Mówiąc dokładniej, badania
terenowe są charakteryzowane przez miejsce i sposób ich prowadzenia4. Badania terenowe są
przeprowadzane w warunkach naturalnych, jak na przykład w przypadku antropologów
mieszkających w badanych przez siebie plemionach, czy socjologów dzielących i
obserwujących codzienne życie społeczności lokalnych. Badania terenowe pozwalają na
głębokie zrozumienie subiektywnych znaczeń przypisywanych przez badanych ludzi.
Zazwyczaj osoby wykonujące badania terenowe starają się uwzględnić obie te cechy.
Współczesne badania terenowe w dziedzinie socjologii mają swoje korzenie w ruchach
społecznych, jakie nastąpiły na przełomie dziewiętnastego i dwudziestego wieku.
Reformatorzy byli przekonani, że opisanie warunków, w jakich żyją ludzie biedni, zwróci
uwagę na ich trudne położenie i doprowadzi do zmian społecznych i poprawy ich życia. Ruch
reformatorski znalazł swoje najsilniejsze akademickie odbicie w tzw. szkole chicagowskiej,
powstałej na początku lat dwudziestych.
2 Erving Goffman (1961), Asylums, Garden City, N.Y.: Doubleday, s. ix-x.
3 Robert M. Emerson (red.) (1983), Contemporary Field Research, Boston: Little
Brown, s. 1.
4 Ibidem.
299
Socjologowie ze szkoły chicagowskiej byli aktywnie zaangażowani w działania
reformatorskie podejmowane poza uniwersytetem. Robert Park, najbardziej znacząca osoba
ze szkoły chicagowskiej, traktował miasto jako niezwykle istotny teren badań
socjologicznych i przekonywał studentów do bezpośredniego obserwowania życia w różnych
miejskich enklawach:
Wejdźcie i usiądźcie w holu luksusowego hotelu lub na schodach prowadzących do
zrujnowanych domów; usiądźcie na sofach hotelu Gold Coast lub na chwiejących się
krzesłach w slumsach; pójdźcie na koncert do Orchestra Hall lub na przedstawienie do Star
and Garter Burlesk. Mówiąc krótko, panowie, ubrudźcie własne tyłki, prowadząc prawdziwe
badania5.
W tym czasie metodologia badań jakościowych ograniczała się do zbierania
różnorodnych dokumentów osobistych — autobiografii, historii życia, listów i dzienników.
Osoby prowadzące badania jakościowe miały zaledwie ograniczone pojęcie o tym, w jaki
sposób można uczestniczyć w życiu badanych ludzi. W ciągu następnych dwóch dekad, kiedy
to badania terenowe znalazły swoje miejsce w socjologii, wypracowano zasady
uczestniczenia w życiu badanych ludzi tak, aby badacze mogli dzielić — a tym samym lepiej
zrozumieć — subiektywną perspektywę badanych osób.
¦ Obserwacja uczestniczgca
Metodą zbierania danych, najbardziej powiązaną ze współczesnymi badaniami
terenowymi, jest obserwacja uczestnicząca, w której badacz staje się członkiem grupy, którą
chce badać6. Będąc członkiem grupy, obserwator uczestniczący przejmuje perspektywę
badanych osób na daną sytuację. Rola obserwatora uczestniczącego polega na „świadomym i
systematycznym uczestniczeniu — tak dalece, jak na to pozwalają okoliczności — w
codziennym życiu i w poszczególnych sytuacjach będących udziałem grupy"7. Bezpośrednie
uczestniczenie w życiu obserwowanych osób pozwala na poznanie ich języka, nawyków,
wzorców pracy, sposobów spędzania wolnego czasu i innych aspektów ich codziennego
życia. W każdej z takich sytuacji badacz może się pojawić w roli obserwatora w pełni
uczestniczącego lub uczestnika jako obserwatora.
Obserwator w pełni uczestniczqcy (obserwacja niejawna)
Podejmując rolę obserwatora w pełni uczestniczącego, nie ujawnionego, obserwator
jest całkowicie ukryty. Osoby badane nie znają celu badań, a obserwator staje się członkiem
danej grupy. Wchodzi w interakcje z badanymi osobami „w sposób
John C. McKinney (1966), Constructive Typology and Social Theory, Norwalk,
Conn.: Appleton and Lang, s. 71.
6 Rosalie H. Wax (1968), Participant Obsemation, w: International Encyclopedia
ofSocial Sciences, New York: Macmillan, s. 238.
7 Florence Kluckhohn (1940), The Participant-Obseryer Techniąue in Smali
Communities, „American Journal of Sociology", 46, s. 331.
300
naturalny, jak to możliwe, i w tych sytuacjach życiowych, które są dla niego teresujące
i dostępne"8.
I tak na przykład Festinger, Riecken i Schachter badali grupę osób wierzących w
rychłe nadejście końca świata. Grupa była tak specyficzna, iż badacze uznali, że nigdy nie
otrzymają pozwolenia na obserwowanie grupy z zewnątrz. Dlatego przedstawili się jako
osoby podzielające wierzenia grupy i stali się jej pełnoprawnymi członkami, starając się być
osobami „nie wpływającymi na innych, słuchającymi z sympatią, biernymi uczestnikami,
którzy byli wścibscy i chętnie uczyli się wszystkiego, o czym inni zechcieli im powiedzieć"9.
Richard Mitchell opisuje niektóre z trudności, jakie on i członkowie jego zespołu napotkali,
prowadząc badania terenowe nad paramilitarnymi organizacjami przetrwania10. Aby można
było odsłonić nieco tajemnicy otaczającej większość takich paramilitarnych organizacji,
badacze skorzystali z okazji werbowania nowych członków, zgłaszając się jako potencjalni
rekruci. I mimo że, gdy przybyli na swój pierwszy weekend na obozie przetrwania, byli nieco
przesadnie ubrani, zostali zaakceptowani i byli chwaleni za swój entuzjazm, chociaż ich strój
zupełnie odstawał od reszty osób. Aby zostać członkami grupy, badacze musieli uczestniczyć
w ćwiczeniach fizycznych i w działaniach społecznych, które pozostawały w niezgodzie z ich
własnymi wierzeniami. Mitchell tak opisał sytuację, kiedy miał rozwiązać sprawę, którą
grupa uznała za problem społeczny:
Kiedy zacząłem, dosiadł się do nas nowy mężczyzna. Wysłuchał mojego pomysłu i go
zaakceptował. Następnie się przedstawił i opowiedział mi o rzeczach, o których nie wszyscy
wiedzieli, o planach na przyszłość i o akcjach, jakie miały wkróce zostać podjęte. Powiedział
też, że chciałby wykorzystać osoby takie jak ja i abym był gotów do wspólnych działań.
Potraktowałem to wszystko poważnie. Inni również. Okazało się, że ten mężczyzna był jedną
z dziesięciu najbardziej poszukiwanych osób na liście FBI".
Propozycja Mitchella była na tyle interesująca, że otworzyła mu drzwi do
wewnętrznego koła grupy, ale wymagało to poniesienia kosztów z jego strony. Istniała
nowiem szansa, że zaproponowane przez niego rozwiązanie, odrażające dla niego, mogło
zostać przyjęte przez grupę. Tak opowiada o tym, co wtedy czuł:
Jeżeli istnieją badacze, którzy mogą uczestniczyć w takiej sytuacji bez żadnych uczuć,
to ja do nich nie należę i wierzę, że nigdy nie będę należał. Mam natomiast nadzieję, że
kiedyś uda mi się zapomnieć; zapomnieć te dźwięki, mój własny głos, moje własne słowa,
kiedy [...] to opowiadałem12.
Raymond L. Gold (1958), Roles in Sociological Field Observation, „Social Forces",
36, s. 219.
9 Leon Festinger, Henry Riecken, Stanley Schachter (1956), When Prophecy Fails,
New York: Har-per and Row, s. 234.
10 Richard Mitchell Jr. (1991), The Secrecy and Disclosure in Field Work, w: William
B. Shaffir, Robert A. Stebbins (red.), Experiencing Field Work: An Insight View of
Qualitative Research, Newbury Park, Calif.: Sagę, s. 97-108.
" Ibidem, s. 107. 12 Ibidem, s. 107.
301
Pełne uczestnictwo jest uzasadnione zawsze wtedy, kiedy dzięki temu można poznać
grupę, do której dostęp jest utrudniony, lub grupę, która nie ujawnia osobom z zewnątrz
swoich aspektów ich życia. Osoba prowadząca badania terenowe jest wówczas
najprawdopodobniej traktowana jako inny członek grupy. Mimo tej niewątpliwej zalety
obserwacji uczestniczącej wielu badaczy krytykuje pełne uczestnictwo zarówno z powodów
metodologicznych, jak i etycznych. Kai Erikson odrzuca na przykład wszelkie badania
terenowe, w których i rola badacza, i cel badań nie zostały wcześniej ujawnione. Jego
zdaniem takie badania naruszają prywatność i mogą być krzywdzące dla badanych osób:
Sam akt wchodzenia w układy międzyludzkie dzięki celowemu oszustwu może być
bolesny dla ludzi wprowadzonych w błąd. I jeżeli nawet tak się nie stanie, to istnieje
nieskończenie wiele możliwości, że osoba obca — udająca kogoś innego — będzie
denerwować resztę tym, że nie rozumie zasad prywatności obowiązujących w grupie, do
której próbuje wkroczyć13.
Erikson wskazuje na trudności, jakie mogą się pojawić wtedy, gdy badacz decyduje
się na pełne uczestniczenie w grupie, i jako przykład przytacza sytuację opisaną przez
Festingera, Rieckena i Schachtera w pracy When Prophecy Fails:
W pewnym momencie badania na jednym ze spotkań grupy pojawili się dwaj
obserwatorzy, którzy zgodnie ze zwyczajem mieli opowiedzieć o swoich doświadczeniach ze
spirytualizmem, starając się jednak wywołać jak najmniej zamieszania. Jednakże kilka dni
później liderce grupy doniesiono, że owi dwaj obserwatorzy wydawali się w trakcie swojej
wizyty zmartwieni, podekscytowani, zakłopotani i niepewni. To zaś potwierdziło jej
podejrzenia, że zostali oni w jakiś sposób „przysłani" z innej planety. W pewnym sensie,
oczywiście, incydent ten dostarczył nam interesujących obserwacji na temat struktury wierzeń
dotyczących kultu. Patrząc jednak z innego punktu widzenia, trzeba przyznać, że ocena
sytuacji dokonana przez liderkę była bardzo trafna: poza wszystkim obserwatorzy zostali
przysłani z innego świata, jeżeli nie z innej planety i miała ona rację, sądząc, że byli nieco
zakłopotani i niepewni z powodu swojego przybycia i pierwszych chwil w nowej pracy.
Rakcje ludzi „w obu przypadkach" są dowodem na to, że wizyta obserwatorów została
potraktowana jako „przykład na to, że dzieje się coś dziwnego". A rzeczy dziwne działy się
naprawdę — choć zupełnie nie wiemy, na ile były one dziwne. Ocena reakcji grupy na
pojawienie się pary obserwatorów jest rzeczą prawie niemożliwą, ponieważ nie wiemy, czy
zostali oni potraktowani jako zwykli neofici, czy też jako niezwykłe istoty. A nie jest to bez
znaczenia, jako że w pierwszym przypadku badacze obserwowaliby reakcję będącą częścią
normalnego zachowania się grupy; w drugim zaś — obserwowaliby reakcję, która nigdy nie
nastąpiłaby, gdyby grupie pozwolono żyć własnym życiem14.
13 Kai T. Erikson (1967), A Comment on Disguised Observation in Sociology,
„Social Problems", 14, s. 368.
14 Ibidem, s. 371-372.
302
Rola pełnego uczestnika rodzi też wiele problemów natury metodologicznej. Przede
wszystkim obserwatorzy mogą się tak bardzo kontrolować, aby nie odkryć swojego
prawdziwego ja, że pojawią się kłopoty w przekonującym zagraniu przyjętej roli. Z drugiej
strony mogą się tak identyfikować z przyjętą rolą, że włączą ją w obraz siebie i tym samym
zatracą konieczny dystans badawczy15. Po drugie, badacze mają kłopoty z podejmowaniem
decyzji, co należy obserwować, ponieważ nie wolno im wywoływać żadnych reakcji czy
zachowań i muszą dbać o to, aby nie zadawać pytań, które mogłyby spowodować podejrzenia
u obserwowanych osób. Po trzecie, nie można na miejscu rejestrować obserwacji ani
sporządzać notatek — można je robić dopiero wtedy, gdy obserwator jest sam. Tym samym
czas, jaki upłynął do momentu zapisania obserwacji, może być źródłem stronniczego błędu
oraz przekłamań wynikających z gorszej pamięci.
Dwa rodzaje badań terenowych
¦ Pełne uczestnictwo. Obserwatorzy stają się członkami badanej grupy, nie ujawniając
grupie ani własnej tożsamości, ani celu badania.
¦ Obserwator jako uczestnik. Obserwatorzy stają się członkami badanej grupy,
ujawniając grupie własną tożsamość i cel badania.
Uczestnik jako obserwator (obserwacja jawna)
Biorąc pod uwagę ograniczenia, o których pisaliśmy wyżej, należy rozważyć
możliwość podjęcia badań terenowych w roli uczestnika jako obserwatora. Przyjmując tę rolę,
badacze informują grupę o prowadzonych badaniach. Starają się stać aktywnymi członkami
grupy, angażując się w jej życie przez dłuższy czas, a także usiłują nawiązać bliskie stosunki
z członkami grupy, którzy pełnią funkcję informatorów, a także respondentów. Badania Johna
van Maanena nad szkoleniem policji są dobrą ilustracją wykorzystania tego rodzaju
obserwacji:
Będąc na ostatnim roku studiów na Uniwersytecie Kalifornijskim [...] zacząłem
kontaktować się z urzędnikami policji w całym kraju, szukając możliwości przeprowadzenia
jednosobowego badania terenowego wewnątrz dużej, miejskiej agencji egzekwującej prawo
[...] I chociaż niełatwo było mi znaleźć taki departament, który zgodziłby się tolerować mój
planowany najazd na jego centrum organizacyjne, w końcu udało mi się otrzymać pozwolenie
na przeprowadzenie badań w jednej z instytucji policyjnych [...] W trakcie badań
zachowywałem się jak typowy etnograf czy obserwator w roli uczestnika, starając się w żaden
sposób nie maskować moich naukowych celów czy swojej tożsamości i tylko z rzadka
spotykałem się z otwartą wrogością ze strony tych, którzy byli obiektem moich badań. W
większości sytuacji uznałem ten sposób badania za dobrze przystający zarówno do materii,
jak i ducha klasycznej definicji techniki
15 Gold, Roles in Sociological Field Observation, s. 220.
303
badań etnograficznych, sformułowanej przez Evansa-Pritcharda: „Dobrze poznać
osoby działające oraz zobaczyć i usłyszeć, co robią i co mówią"16.
Jak widać z przedstawionego wyżej przykładu, rola obserwatora jako uczestnika i
pełne uczestniczenie różnią się od siebie tym, że w pierwszym przypadku cel badań zostaje
jawnie określony. Jednakże i tutaj bycie członkiem grupy i uczestniczenie w jej życiu nadal
pozostaje ważnym elementem badania. Stosując tę metodę, badacz lepiej rozumie grupę oraz
jej sposób życia, a także zyskuje możliwość lepszego wglądu w to, co się rzeczywiście dzieje,
niż wtedy, gdyby był tylko obserwatorem17.
¦ Praktyczne problemy badań terenowych
Wybór tematu badawczego
Pierwszym etapem badań terenowych jest wybór problemu badawczego. Bardzo
często na wybór problemu wpływają zainteresowania czy sprawy angażujące badacza, a mogą
one wynikać z pracy badacza, jego związków osobistych, historii rodziny, klasy społecznej
czy jego pochodzenia etnicznego. Lofland i Lofland, w napisanym przez siebie przewodniku
dla osób prowadzących badania jakościowe, opisali ten proces jako „zacznij od miejsca, w
którym się znajdujesz"18. Początków takiej praktyki postępowania można upatrywać w latach
dwudziestych w szkole chicagowskiej, w której wiele bardzo znanych badań jakościowych
powstało z unikatowych doświadczeń studentów mających niewielką wiedzę na temat badań
społecznych. Everett Hughes tak opisał początki nowej tradycji:
Większość z tych ludzi nie miała żadnego wykształcenia socjologicznego [...] Nie
przyszli do nas po to, aby stać się socjologami. Przyszli, aby się czegoś nauczyć, i Park szukał
w posiadanych przez nich doświadczeniach czegoś, na czym można byłoby budować [...]
Zaczął z nimi pracować i wyciągnął na światło dzienne to, co udało mu się znaleźć [...] To
mogli być menonici, którzy czuli się nieszczęśliwi [...] z tego powodu, że musieli nosić
jednolite stroje [...] dziewczęta, które nie chciały nosić długich sukien i śmiesznych małych
czepków, czy synowie ortodoksyjnych Żydów, którzy nie chcieli nosić brody [...] I tak
nawiązywał kontakty z ludźmi, wyszukiwał w nich to, co samo w sobie było interesujące, a
co dla nich stanowiło krępujący przymus. I następnie zmienił ową „przymusową
ortodoksyjność" w coś, co cieszyło się szerokim zainteresowaniem. I tak stało się w
przypadku większości z tych ludzi. Sprawił, że ich przeszłość stała się dla nich interesująca;
znacznie bardziej interesująca, niż kiedykolwiek sądzili19.
16 John Van Maanen, The Morał Fix: On the Ethics of Fieldwork, w: Emerson (red.),
Contemporary Field Research, s. 269-270.
17 Ibidem, s. 270.
18 John Lofland, Lyn H. Lofland (1984), Analyzing Social Settings, Belmont, Calif.:
Wadsworth, s. 7.
19 Ibidem, s. 9-10.
304
Badania terenowe wymagają, aby badacze najpierw określili, co jest dla nich ważne,
niezależnie od naukowych rozważań. Emocjonalne zaangażowanie we własną prace tworzy
pomost pomiędzy osobistym i emocjonalnym życiem badacza, a także wzbudza potrzebę
prowadzenia konkretnych badań społecznych. Owo emocjonalne zaangażowanie nie tylko
sprawia, że badania społeczne są bardziej nagradzające z osobistego punktu widzenia, lecz
również pomaga rozwiązywać problemy, nieuchronnie pojawiające się w każdym projekcie
badawczym20.
Wybór miejsca i uzyskanie do niego dostępu
Następnym etapem badań terenowych, po wybraniu przez badacza problemu
badawczego, jest określenie właściwego miejsca badań i uzyskanie do niego dostępu. Wybór
tematu w dużej mierze wyznacza zakres właściwych terenów badawczych. I tak na przykład
Festinger i jego współpracownicy byli zainteresowani, w jaki sposób sekta religijna radzi
sobie z faktem niespełnienia się przepowiedni21. Taki temat badań automatycznie ograniczył
ich wybór do takich miejsc (grup), w których istniała szansa, że któreś z proroctw
dotyczących przyszłych wydarzeń się nie spełni. Zdecydowali się zatem na sektę religijną,
której członkowie wierzyli, że koniec świata nastąpi w określonym dniu. To pozwoliło na
prowadzenie obserwacji, zanim przewidywany kataklizm miał nastąpić i po tym, jak
proroctwo się nie spełniło. W tym przypadku wybór miejsca badań został podyktowany istotą
badań oraz teoretycznymi zainteresowaniami badaczy.
Bardzo często wybór zależy również od wymagań natury praktycznej, takich jak na
przykład położenie geograficzne. Niewątpliwie kuszące jest wybranie miejsca łatwo
dostępnego, w którym badacz może mieć wpływowe kontakty czy być już członkiem danej
grupy. Jednak w sytuacjach, w których potencjalni obserwatorzy znajdują się blisko grupy i
mają do niej łatwy dostęp, muszą pamiętać o konieczności utrzymania dystansu
emocjonalnego w trakcie prowadzonych przez siebie analiz. Z drugiej strony, badacze stojący
na zewnątrz terenu badań mogą mieć więcej trudności z uzyskaniem dostępu do grupy i
muszą umieć określić, jak dalece powinni zmniejszyć dystans, kiedy już znajdą się wewnątrz
niej. Jeżeli badacz zmniejszy dystans zbyt mocno, to ryzykuje silne utożsamienie się z grupą,
co powoduje, że przejmuje styl życia grupy, traci obiektywność, co może wpłynąć na wyniki
badań. Niektórzy badacze potrafią nawet porzucić projekt badawczy, aby chronić grupę, która
ich adoptowała. Jeżeli jednak dystans między grupą a badaczem będzie za duży, to nie będą
oni w stanie zrozumieć grupy ani w pełni wczuć się w sytuację jej członków.
Również charakterystyczne cechy badacza mogą stanowić istotny czynnik
wyznaczający dostęp badacza do grupy. Na przykład płeć, wiek, rasa czy pochodzenie
etniczne obserwatorów, jeżeli są bardzo odmienne od cech osób obserwowanych, mogą
stanowić trudność w dostępie do grupy czy być przyczyną barier w komunikowaniu się22.
Jak powiedziała Rosalie Wax:
Wiele społeczności plemiennych czy innych społeczności przestrzega
rygorystycznego podziału pracy ze względu na płeć i wiek osób pracujących, a ludzie
20 Ibidem.
21 Festinger i in., When Prophecy Fails.
22 Lofland, Lofland, Analyzing Social Settings.
305
należący do różnych tego typu kategorii nie rozmawiają ze sobą swobodnie czy
spontanicznie [...] Sama, jako kobieta w średnim wieku, nigdy nie potrafiłam rozmawiać
otwarcie i szczerze czy to ze starym, czy z młodym Indianinem I ry
z Trashing Buffalo. Starsi mężczyźni starali się mnie pouczać, i to nawet wtedy, kiedy
znałam ich całkiem dobrze. Z kolei młodsi byli zawsze — co było poprawnym zachowaniem
— zbyt nieśmiali lub tak formalnie pełni szacunku, że nigdy nie powiedzieli wiele. Natomiast
z indiańskimi kobietami-matronami mogłam rozmawiać godzinami23.
Biorąc pod uwagę własne doświadczenia, Wax stwierdziła, że można uniknąć
stronniczego spojrzenia na „całą" kulturę, wykorzystując zespół badaczy, którego członkowie
sami mają różne cechy indywidualne podobne do cech osób będących członkami badanej
grupy.
Trudności młodych kobiet — badaczy terenowych w uzyskaniu dostępu do grup
zdominowanych przez mężczyzn opisała Lois Easterday i jej współpracowniczki:
Jedna z nas nawiązała kontakt z fotografami zatrudnionymi w specjalnym programie
dotyczącym fotografii militarnej dlatego, że sama była fotografem i znała ich język. Związek
ten udało się utrzymać, gdyż nalegała ona, aby nie fotografować jej jak modelki, lecz
traktować jak „jednego z chłopców" znajdujących się z drugiej strony obiektywu. Kiedy
starała się o zgodę dyrektora programu na prowadzenie badań, ten odmawiając pełnego
dostępu do grupy, tak to uzasadnił: „To się nie uda. Mężczyźni biorący udział w tym
szkoleniu tworzą zamkniętą paczkę i wyrażają się mało parlamentarnie. Nie będą sobą, jeżeli
pani się tam znajdzie"24.
Chociaż powyższe przykłady ukazują, że status i płeć badacza mogą być przeszkodą w
badaniach terenowych, istnieją jednak sytuacje, w których różnice te są zdecydowanie
korzystne. Blanche Geer tak pisała o kobietach:
Najbardziej upośledzonym obserwatorem jest osoba obserwująca ludzi czy sytuacje
najbardziej sobie znane. Kobiety jednak mają szczęście w świecie mężczyzn. Są w stanie
dostrzec, jak „skromne szaty nosi cesarz, sprawy, jakie przyjął do wiadomości" — czego
często się jednak nie docenia25.
Innymi słowy, osoba z zewnątrz może się czasami okazać mniej zagrażająca dla
obserwowanych osób. Może to ułatwić badaczowi dostęp do badanej grupy i wyostrzyć jego
spostrzegawczość.
23 Rosalie H. Wax, The Ambiguities of Fieldwork, w: Emerson (red.), Conlemporary
Field Research, s. 194-195.
24 Lois Easterday, Diana Papedemas, Laura Schorr, Catherine Valentine (1982), The
Making of a Female Researcher: Role Problems in Fieldwork, w: Robert G. Burgess (red.),
Field Research: A Sour-cebook and Field Manuał, London: Allen and Unwin, s. 63-64.
25 Ibidem, s. 66.
306
bła, żebyś nie zo-edy może się zda-ten rodzaj obser-:, albo zostaniesz e. Przestępcy
po-sób, to nie będzie
radząc od grupy, /acji od uczestni-naczej „kręcenia wych kontaktów cznie, w zgodzie
)isuje własne do-których przeno-
Hla i Tulę Lakę, zymywali wielu czuli się lepiej, Nie wiedziałam ik naprawdę, nijak
dziennikarz zarówno wielcy i przekonani, że ) ducha". I choć i niczego, co by e byłam gejszą,
edyś, że jestem ii się tak wiele japońscy męż-;woich planach , natomiast ich nymi i rozum-
ych ról badaw-pomysłowości osób patrzenia
'24.
ork Experience:
Jak szukać osób dostarczających rzetelnych informacji
Obserwator uczestniczący, który nawiązał już kontakty z grupą, staje się
tymczasowym członkiem grupy. Sam uczy się, jak się zachowywać w grupie, a członków
grupy uczy zachowania w stosunku do siebie. Następnie zostaje on zaakceptowany jako
pełnoprawny członek grupy. Zatem kontakty z członkami grupy zostały już nawiązane,
obszary obserwacji ustalone, a informatorzy zaczynają dostarczać informacji. Doświadczenia
Williama Whyte'a są dobrą ilustracją tego procesu:
Rozpocząłem od ogólnie sformułowanego pomysłu badania dzielnic slumsów [...]
Miejsce badania wybrałem z powodów zdecydowanie nienaukowych: Cornerville najlepiej
odpowiadało moim wyobrażeniom o tym, jak powinna wyglądać dzielnica slumsów [...] W
trakcie mojego pobytu w Cornerville bardzo szybko uzmysłowiłem sobie, jak ważną rzeczą
jest posiadanie wsparcia ze strony ważnych osób w każdej z grup czy instytucji, którą chcę
badać. Zorientowałem się, że zamiast objaśniania każdemu, kim jestem, zdecydowanie więcej
o sobie i swoich badaniach mówiłem przywódcom grupy takim jak Doc niż typowemu
ulicznikowi. Zawsze starałem się wywołać wrażenie, że mam chęć i zamiar opowiedzieć o
swoich badaniach tyle, ile ktoś tego oczekuje, jednak tak naprawdę pełne informacje starałem
się przekazać tylko przywódcom grupy [...] Ponieważ przywódcy cieszyli się pozycją w
społeczności, która dawała im większe szanse na znacznie lepszą obserwację tego, co się
dzieje, i ponieważ byli zazwyczaj lepszymi obserwatorami niż inni, stwierdziłem, że mogę
znacznie więcej dowiedzieć się, aktywnie z nimi współpracując33.
Bliskie kontakty z informatorami mogą jednak wpłynąć stronniczo na relacje, jakie
badacz nawiązuje z obserwowanymi osobami, co stwierdził sam Whyte:
Dla Doca współpraca ze mną okazała się interesująca i przyjemna, ale w końcu
okazało się, że ma ona i swoje wady. Kiedyś powiedział: „Od czasu, kiedy się tu znalazłeś,
działam znacznie mniej. Teraz, kiedy cokolwiek robię, myślę, co Bill Whyte chciałby o tym
wiedzieć i jak mam mu to wyjaśnić. Przedtem działałem zazwyczaj instynktownie34.
Opuszczanie terenu
Społeczny aspekt badań terenowych nie ogranicza się jedynie do uzyskiwania dostępu
do grupy i nawiązywania kontaktów z badanymi osobami. Opuszczanie terenu jest nie mniej
ważne. Etap ten zależy od stopnia porozumienia osiągniętego przez obserwatora i osoby
obserwowane w momencie rozpoczęcia badania oraz od rodzaju relacji społecznych, jakie
rozwinęły się w trakcie procesu badawczego. Już sam podstawowy warunek badań
terenowych, aby „być zaangażowanym" w trakcie badań stwarza problem w momencie ich
zakończenia. Jak napisała Wax:
Murray i ja, będąc już doświadczonymi badaczami terenowymi, zaplanowaliśmy
nasze kolejne badania na sześć miesięcy, a przez sześć dalszych chcieliśmy
33 William F. Whyte (1955), Street Corner Society, wyd. 2, Chicago: University of
Chicago Press, s. 279-358.
34 Ibidem, s. 301.
309
napisać raport. Ale jak to w życiu bywa, tak się przywiązałam do niektórych moich
indiańskich przyjaciół, że zaproponowałam Murrayowi, abyśmy zostali miesiąc dłużej, mimo
że temperatura sięgała powyżej 30 stopni. Nie chciałam stamtąd odchodzić, a przecież
musiałam35.
Innym problemem związanym z zakończeniem badań jest wpływ, jaki wywiera ta
sytuacja na osoby badane.
Według nich nasze wyniki badań dają im niewiele, jeżeli w ogóle cokolwiek. lub
wręcz mogą im przynieść straty. Inną przyczyną ich oporu jest przekonanie, że nasza praca
niewiele wnosi do ich życia36.
Proces opuszczania terenu może przebiegać gwałtownie i ostro, ale też powolnie i
łagodnie. Samo odchodzenie może być zjawiskiem powtarzającym się, kiedy badanie
wymaga od badacza wielokrotnych odejść i powrotów. Procedura, jaką badacz wybiera, jest
funkcją jego zaangażowania się w proces badawczy37.
Rejestrowanie obserwacji
W badaniach terenowych to, co ludzie robią i mówią, jest podstawowym źródłem
danych. Badacze mogą rejestrować obserwowane zachowania, robiąc notatki, nagrywając na
taśmę magnetofonową, czasami fotografując czy rejestrując kamerą wideo. W niektórych
przypadkach, kiedy tożsamość obserwatora i cel badań są znane osobom obserwowanym,
notatki można sporządzić od razu, w miejscu zdarzenia. Na ogół jednak badacz oczekuje, że
członkowie grupy zapomną, iż są obserwowani, i ich zachowanie oraz tworzące się interakcje
będą miały naturalny charakter. Notowanie w obecności członków grupy przypomina im o
prowadzonych badaniach, co może wpłynąć na ich zachowanie, jak też ograniczyć
możliwości badacza w uczestniczeniu w życiu grupy. Kiedy osoby obserwowane nie znają
tożsamości badacza i celu badań, trudno jest badaczowi rejestrować każde zdarzenie w
momencie jego zajścia.
Jeśli badacz nie może w sposób jawny rejestrować obserwacji, to musi wykorzystać
metody pozwalające mu zapamiętać to, co się dzieje, aby — przy pierwszej okazji — móc to
zapisać. Wielu badaczy korzysta z chwili prywatności — takich jak na przykład wypoczynek
— aby zanotować podstawowe słowa pozwalające zapamiętać sekwencje zdarzeń, istotne
zachowania i ważne wypowiedzi. Jeżeli jednak chwile prywatności nie są możliwe, to — aby
ułatwić sobie zapamiętywanie — badacz powinien korzystać z mnemotechnik. Podstawą
mnemotechniki jest skojarzenie tego, co należy zapamiętać, z tym, co jest znane i co łatwo
można sobie przypomnieć.
Jeżeli badacz nie może natychmiast zanotować swoich obserwacji, to istnieje
niebezpieczeństwo zniekształcenia i nieintencjonalnej, złej ich interpretacji. Im dłużej badacz
musi czekać z zapisaniem obserwacji, tym większe jest prawdopodo-
93 David R. Maines, William B. Shaffir, Allan Turowetz, Leming the Field in
Etnographk Research: Reflections on the Entrance Exit Hypothesis, w: Shaffir i in. (red.),
Fieldwork Experience, s. 277. 36 Shaffir i in., Fieldwork Experience, s. 258. 17 Maines i in.,
Leaving the Field, s. 273.
310
bieństwo przekłamań w przypominanym materiale. Dlatego warto sobie przygotować
pewien umowny sposób zapisu, aby zminimalizować te zniekształcenia. Na przykład badacz
może posługiwać się cudzysłowem do zaznaczania rzeczywistych wypowiedzi, a zapisane
przez siebie wnioski czy własne spostrzeżenia pozostawiać bez cudzysłowu. Taka metoda nie
jest jednak doskonała, ponieważ wykorzystuje się w niej wnioski wyprowadzane przez
badacza. Lofland i Lofland zalecają, aby przed ustaleniem zbioru danych odpowiedzieć sobie
na następujące pytania38:
1. Czy zapis pochodzi z pierwszej ręki?
2. Jaka była pozycja przestrzenna obserwatora?
3. Czy obserwator miał jakiekolwiek powody, aby przekazać stronnicze lub fałszywe
informacje?
4. Czy przedstawiony raport jest wewnętrznie zgodny?
5. Czy można sprawdzić trafność raportu, posługując się innym, niezależnym
raportem?
I chociaż informacje otrzymane z odpowiedzi na te pytania nie gwarantują wcale, że
otrzymany raport jest prawdziwy, jednak pozwalają ocenić rzetelność danych.
Analizowanie danych
Analizowanie danych w jakościowych badaniach terenowych jest procesem ciągłym.
Obserwatorzy formułują hipotezy i w trakcie prowadzonych przez siebie badań rejestrują
istotne wydarzenia. Niektóre hipotezy są następnie odrzucane, inne natomiast
uszczegółowiane i ciągle formułowane na nowo. Bogdan i Taylor dali taki przykład tego
procesu:
W badaniu dotyczącym szkoleń zawodowych obserwator pierwotnie założył, że
mężczyźni biorący w nim udział będą wyraźnie odróżniać „prace kobiece" od „prac męskich".
Hipotezę tę sformułował po tym, jak jedna osoba z personelu powiedziała mu: „Kiedy
mężczyźni zobaczą, że przy linii montażowej pracuje kobieta, nie zechcą wziąć niczego, co
ona zmontowała". Ponieważ uznał, że zróżnicowanie osób szkolonych ze względu na płeć
może mieć duży wpływ na skuteczność szkolenia oraz na spostrzegane znaczenie pracy, w
trakcie kolejnej wizyty w miejscu prowadzenia badań przedstawił swoją hipotezę. Podczas
badań stwierdził jednak, że chociaż mężczyźni i kobiety cenią sobie odmienne rodzaje prac,
mężczyźni odrzucając pewne prace, robią to nie dlatego, że uważają je za „kobiece". Nie byli
oni na przykład dumni z pracy fizycznej i w sposób zdecydowany odrzucali prace
niebezpieczne i „zbyt trudne". W efekcie obserwator zrezygnował ze swojej pierwotnej
hipotezy i zgodził się z koncepcją innych39.
Ważnym aspektem analizy danych dokonywanej na etapie ich zbierania jest ustalanie
zapisanych danych i ich kodowanie (por. rozdział 14, w którym można znaleźć więcej
informacji na temat kodowania indukcyjnego). Jest to proces polegający
38 Lofland, Lofland, Analyzing Social Settings, s. 51.
39 Robert Bogdan, Steven J. Taylor (1975), lntroduction to Qualitative Research
Methods, New York: Wiley, s. 80-81.
311
w istocie na analizowaniu notatek. Na wczesnych etapach pracy terenowej badacz
może tworzyć proste kategorie danych oparte na charakterystykach obserwowanych osób i
cechach zdarzeń, które wystąpiły. Badacz może na przykład poklasyfikować członków
badanej grupy na przywódców, naśladowców i odszczepieńców. Notatki z badań terenowych
dotyczące zachowania każdej obserwowanej grupy są następnie kodowane zgodnie z
właściwym systemem klasyfikacji. W ramach każdegu systemu klasyfikacyjnego badacz
rejestruje interakcje społeczne powstające pomiędzy osobami należącymi do różnych grup.
Wraz z rozwijaniem się pracy terenowej badacze — na podstawie tego, czego się już
dowiedzieli — uzupełniają bądź ponownie definiują stosowane przez siebie kategorie. Po
każdej zmianie należy ponownie przejrzeć wszystkie notatki i włączyć odpowiednie dane do
tworzonego zbioru. To właśnie w trakcie procesu kategoryzacji danych powstają pierwsze
hipotezy.
Badacze tworzą pliki danych, tnąc na części kopie zrobionych przez siebie notatek i
następnie łącząc te części w większe zbiory. Mogą też korzystać z procesorów tekstów
pozwalających łączyć fragmenty notatek w odrębne pliki. Nazwy plików odzwierciedlają
utworzone kategorie.
W swoich badaniach nad uczelniami medycznymi Becker i Geer stwierdzili, że
użytecznym sposobem przygotowywania danych do analizy jest bieżące streszczanie notatek
z badań terenowych. Kodowali oni dane dla oddzielnych wydarzeń, podsumowując swoje
obserwacje dotyczące zachowania studentów w ramach każdego wydarzenia. Na początku
prowizorycznie zdefiniowali główne obszary (kategorie) swoich badań terenowych.
Następnie, przeglądając streszczone wydarzenia, opisywali je liczbą odpowiadającą temu
obszarowi badań, do którego można je było zaklasyfikować. Poniżej przedstawiamy fragment
ich notatek i propozycję analizy będącą dobrą ilustracją tego procesu:
„Mann mówi właśnie, że zarówno on, jak i inni studenci wiedzą, jaki jest dr Prince —
lekarz wydziałowy — i wiedzą już, na czym będzie próbował ich złapać, postarają się zatem
wyprowadzić go w pole". To wydarzenie jest przykładem rodzaju relacji pomiędzy
studentami a gronem profesorskim i powinno zostać zaliczone do tej kategorii. W sposób
pośredni opisuje ono również stosunek studentów do działań podejmowanych przez szkołę i
dlatego powinno zostać zaliczone do takiej właśnie kategorii. Następnym etapem analizy
powinno być sprawdzenie każdego elementu zaliczonego do jednego obszaru i sformułowanie
bardziej szczegółowych twierdzeń dotyczących treści tego obszaru oraz podanie przykładów
działań czy wypowiedzi, które je charakteryzują40.
Kiedy badacz wyodrębni działania i wypowiedzi potwierdzające hipotezę, kolejnym
jego krokiem jest poszukiwanie przypadków negatywnych, tj. przypadków przemawiających
na rzecz odrzucenia hipotezy. Aby określić, czy sformułowana hipoteza powinna zostać
przeformułowana, by lepiej przystawała do wszystkich danych lub powinna zostać w ogóle
odrzucona, badacze muszą przeanalizować zarówno przypadki pozytywne, jak i negatywne.
Ponadto analizują oni perspektywę, tj. określają, jak szeroki zakres sytuacji potwierdzają
otrzymane dane.
40 Howard S. Becker, Blanche Geer, Participant Obsemation: The Analysis of
Qualitative Field Data, w: Burgess (red.), Field Research, s. 245.
312
następ-
sy-
pomię-
ź ponowię . To
no-proceso-pli-
, że
arzeń, każ-
(kate-arzenia, je było analizy
Prince złapać,
zostać stu-' za-być
po-
kolej-ów
da-zaró-.tj.
Field
Analizując dane jakościowe, warto zwrócić uwagę na pewne regularności czy wzorce
wynikające z wielu obserwacji dokonanych w trakcie badań terenowych. Zadanie to można
zrealizować, stawiając sobie następujące pytania41:
1. Jaki jest to rodzaj zachowania?
2. Jaka jest jego struktura?
3. Jak często się ono zdarza?
4. Jakie są jego przyczyny?
5. Jaki jest jego przebieg?
6. Jakie są jego konsekwencje?
7. Jakie strategie realizują ludzie?
Raport pisemny jest kulminacją badań terenowych. W raporcie końcowym
przedstawia się podstawy badań, ich teoretyczne uzasadnienie oraz plan i metodologię badań.
W raporcie powinna się też znaleźć szczegółowa analiza i interpretacja danych oraz
wynikające z nich wnioski zarówno dla dalszych analiz, jak i dla decyzji podejmowanych w
sprawach publicznych.
¦ Podstawy teoretyczne badań terenowych
Badacze prowadzą badania o charakterze ilościowym po to, aby falsyfikować,
modyfikować, czy też akceptować istniejące teorie. Zadanie to realizują w sposób
dedukcyjny, wyprowadzając hipotezy z przyjętej teorii i wykorzystując zebrane dane do ich
testowania. Jakościowe badania terenowe są tego przeciwieństwem, wykorzystują bowiem
metodę analizy indukcyjnej. Badacze zbierają dane, na bazie danych formułują hipotezy,
testują hipotezy, odwołując się do danych i wreszcie podejmują próbę zbudowania teorii.
Teoria taka jest nazywana teorią bazową, ponieważ wyprowadza się ją z konkretnych sytuacji
badawczych i jest bezpośrednio powiązana z określonymi sytuacjami:
Prowadząc badania terenowe, badacz stale sprawdza, czy wyłonione przez niego
kategorie są właściwe i czy poprawnie zostały określone relacje między nimi. Stawiając
pytania tego typu w różnym czasie, badacz zawsze ma dostęp do danych. W efekcie
dopasowuje on swoje decyzje do danych, weryfikując je podczas badania42.
Do badań terenowych należy przystępować z otwartym umysłem, aby można było
sprawdzić, czy sformułowana wstępna teoria może zostać uznana za teorię bazową. Ponieważ
badania terenowe oparte są na obserwacji, zatem wcześniejsze pomysły oraz sformułowane
wcześniej hipotezy mogą wpływać na to, jakie obserwacje badacz będzie wybierał do analizy
i w ten sposób mogą wpłynąć na ostateczną wersję teorii. Ponieważ większość badaczy nie
spędza całego swojego czasu w terenie, więc wybierając moment i miejsce pierwszych
obserwacji, kierują się oni luźno sformułowanymi wcześniej hipotezami. Obserwacje te będą
następnie wykorzysty-
Lofland, Lofland, Analyzing Social Settings, s. 94.
Barney G. Glaser (1978), Theoretical Sensitivity, Mili Yalley, Calif.: Sociology Press,
s. 39.
313
wane do poprawiania, odrzucania czy przeformułowywania hipotez podczas procesu
badawczego. Blanche Geer podała taki przykład tej metody:
Mój sposób posługiwania się hipotezami można z grubsza podzielić na trzy kolejne
etapy. Pierwsza operacja to testowanie ostro sformułowanych twierdzeń typu tak-nie.
Zbierając informacje od osób badanych, czy też przypominając sobie wcześniej zdobyte
informacje [...] sformułowałam hipotezę roboczą i przeszłam do drugiej operacji, czyli do
wyszukania przypadków lub sytuacji negatywnych oraz starannego gromadzenia
pozytywnych. Poszukiwanie przypadków negatywnych pozwala zrealizować specyficzny cel.
Jedna sytuacja, która nie potwierdza tego, co mówię, jest już bowiem wystarczającym
uzasadnieniem do zmodyfikowania hipotezy [...] Trzeci etap operowania hipotezami w
badaniach terenowych polega na ich dwukrokowym przeformułowaniu i ewentualnie na
wstępnym opracowaniu modeli. Hipotezy przyjmują postać zdań przewidujących przyszłe
wydarzenia, które mogą nastąpić w specyficznych warunkach, lub zdań orzekających o
zmianach zachodzących w czasie w osobach badanych; zmianach powiązanych z tym, co się
wydarzyło43.
Budowanie teorii za pomocą metody analizy indukcyjnej polega na określaniu i
opisywaniu związków zachodzących pomiędzy kategoriami obserwacji. Badacze często
podejmują próbę określenia osiowej kategorii i wyjaśnienia związków zachodzących
pomiędzy kategorią osiową a subkategoriami. Celem tworzenia bazowej teorii jest
zbudowanie zbioru twierdzeń w całości wyjaśniających dane zjawisko. Aby potwierdzić
swoją teorię, badacze stosujący metody jakościowe odwołują się do przykładów z własnych
obserwacji oraz cytują wypowiedzi członków badanych grup. W niektórych wypadkach
wykorzystują zbudowaną teorię do wygenerowania testowalnych empirycznie hipotez, które
można poddać obróbce statystycznej.
Klasycznym przykładem badań terenowych wykorzystujących metodę analizy
indukcyjnej są badania Donalda Cresseya dotyczące problemu defraudacji44. Cressey
zdefiniował defraudację jako zjawisko zdobywania czyjegoś zaufania udzielanego w dobrej
wierze, a następnie nadużywanie tego zaufania poprzez popełnienie przestępstwa. Na
początku sformułował on hipotezę, że zjawisko nadużywania cudzego zaufania pojawia się
wtedy, gdy defraudanci traktują kradzież jako formę „technicznego nadużycia". Kiedy jednak
spotkał defraudantów, który zdawali sobie sprawę z tego, że ich zachowanie jest złe i
nielegalne, odrzucił tę hipotezę. W kolejnej hipotezie przyjął zatem, że osoby dokonujące
nadużyć definiują nielegalne wykorzystanie środków finansowych jako sytuację nagłej
potrzeby, której nie można sprostać za pomocą legalnych środków. Jednak i tę hipotezę
przeformułował, gdy spotkał defraudantów nie będących w sytuacji przymusowej, ani nawet
znajdujących się w sytuacjach trudniejszych. Teraz Cressey stwierdził, że osoby dokonujące
nadużyć to osoby, które czuły przymus wykorzystania „niejawnych środków". Ponownie
przeformułował i tę hipotezę, kiedy poznał przypadki o charakterze dewia-
43 Blanche Geer (1967), The First Days in the Field, w; Phillip Hammond (red.),
Sociologisls al Work, Garden City, N.Y.: Doubleday, s. 389-390.
44 Donald R. Cressey (1953), Other People's Money: A Study in the Social
Psychology of Embez-zlement, New York: Free Press.
314
podczas proce-
elić na trzy ko-nych twierdzeń przypominając )otezę roboczą )w lub sytuacji ukiwanie
przy-edna sytuacja, jącym uzasadnia hipotezami ;formułowaniu yjmują postać : w specyficz-
:ych w czasie jrzyło43.
na określaniu 'acji. Badacze ązków zachodnia bazowej ane zjawisko, odwołują się ów
badanych /generowania 'stycznej. Jtodę analizy dacji44. Cres-ania udziela-'. popełnienie
lżywania cu-'- jako formę dawali sobie :zę. W kolej-'legalne wy-' nie można iłował, gdy ;t
znajdują-dokonujące dków". Podrze dewia-
ociologists at
gy ofEmbez-
cyjnym. Ostateczna hipoteza według Cresseya, uwzględniająca wszystkie
zaobserwowane przypadki, może zatem brzmieć następująco:
Osoby obdarzone zaufaniem nadużywają go, gdy spostrzegają siebie jako osoby
posiadające problemy finansowe, którymi nie mogą podzielić się z innymi, i mają
świadomość, że problemy te można potajemnie rozwiązać przez nadużycie zaufania
finansowego. Osoby te potrafią opisać swoje zachowanie w takiej sytuacji w sposób
pozwalający im pogodzić spostrzeganie siebie jako osób obdarzonych zaufaniem ze
spostrzeganiem siebie jako osób korzystających z powierzonych sobie pieniędzy czy dóbr45.
I Społeczność robotników: przykład badań terenowych
Zanim podsumujemy naszą dyskusję na temat badań terenowych, chcielibyśmy
zilustrować ich etapy za pomocą przykładu jednego wyczerpującego badania znanego jako
„Społeczność robotników" i przeprowadzonego przez Williama Kornbluma w południowym
Chicago46. Zbierając dane, Kornblum wykorzystał wiele metod, w tym rozmowy z
mieszkańcami, materiały archiwalne, dane z roczników statystycznych, prowadzenie
wywiadów i uczęszczanie na spotkania społeczności. Jednakże przede wszystkim badanie to
opiera się na danych zebranych dzięki bezpośredniemu zaangażowaniu Kornbluma i jego
udziałowi w życiu społeczności. Jest to dobry przykład badań terenowych wykorzystujących
jako podstawową metodę analizy metodę obserwacji uczestniczącej.
Wybór tematu badawczego i terenu badań
Ogólny temat badania zaproponowali Kornblumowi jego wykładowcy ze szkoły,
którzy byli zainteresowani sponsorowaniem badań nad grupami etnicznymi pochodzenia
słowiańskiego, mieszkającymi w południowych dzielnicach Chicago. Kornblum
przeprowadził już pewne badania nad organizacją lokalnych społeczności w środowisku
jugosłowiańskich imigrantów. Teraz zdecydował się skoncentrować na środowiskach
pochodzenia słowiańskiego w południowym Chicago i w części północnej ograniczonej
ulicami Pulawski-Miłwaukee. Postanowił rozpocząć badania od imigrantów z Serbii i
Chorwacji. Odwiedzał więc kawiarnie, w których spo-tykałi się imigranci, kluby piłki nożnej,
gospody i powoli zbliżał się do okolic stalowni
znajdującej się w południowym Chicago. Kornblum tak opisuje dokonany przez
siebie wybór społeczności:
Południowe Chicago fascynowało mnie. Nigdy przedtem nie widziałem tak ciężkiego
przemysłu na tak małym obszarze i byłem pełen podziwu dla ogromu stalowni i
skomplikowanych arterii wodnych i kolejowych, które przecinały sąsiadujący obszar. Na
twarzach ludzi widziałem zróżnicowanie pochodzenia kulturowego tych, którzy się tu
osiedlili i zbudowali swoją społeczność. Dlatego zro-
45 Ibidem, s. 273.
46 William Kornblum (1974), Blue-Collar Community, Chicago: University of
Chicago Press.
315
zumiałem, że moje badanie powinno dotyczyć większych społeczności w takim
samym stopniu, w jakim dotyczyć będzie problemów adaptacji kulturowej i społecznej
Serbów i Chorwatów47.
Kornblum znalazł restaurację odwiedzaną przez serbskich imigrantów, gdzie został
przedstawiony niektórym stałym gościom. Na ogół byli to mężczyźni między trzydziestym a
czterdziestym rokiem życia, w większości pracownicy stalowni. I chociaż było to przyjemne
miejsce, jednak miało marginalne znaczenie społeczne, ponieważ jego gośćmi byli przede
wszystkim niedawni imigranci. Kornblum chciał nawiązać kontakty z mieszkańcami
pochodzenia serbskiego i chorwackiego, ale urodzonymi już w Ameryce, dlatego szukał
innego miejsca, w którym mógłby prowadzić swoje badania.
Uzyskiwanie dostępu
Wkrótce po wejściu do społeczności Kornblum zaczął uczęszczać na otwarte
spotkania, aby zidentyfikować lokalnych przywódców i zaaranżować pierwsze z nimi
spotkanie. Jedynie kilku osobom przedstawił się jako badacz. Raczej informował, że jest
wykładowcą na pobliskim uniwersytecie w Indianie, a jego żona studiuje na uniwersytecie
stanu Illinois, i że to miejsce znajduje się w połowie drogi dla nich obojga. Z czasem
Kornblum zaprzyjaźnił się z wieloma aktywistami i przywódcami politycznymi, a szczególnie
z grupą pracowników stalowni, którzy w jednej z fabryk tworzyli lokalny związek. Stwierdził
wkrótce, że powinien przejąć styl życia obowiązujący w południowym Chicago:
Czułem się jak wszystkowiedzący obcy, który nie dostrzega niektórych z
najważniejszych stron życia w społeczności [...] Przyjaciel, którego zdanie bardzo sobie
ceniłem, serbski przewodniczący lokalnego związku pracowników stalowni, rzucił mi
prawdziwe wyzwanie: „Jak możesz naprawdę rozumieć, co się tutaj dzieje [...] jeżeli nie
spędziłeś ani chwili w stalowni?"48
Kornblum wynajął się więc jako pomocnik nadzorcy w jednej ze stalowni i to miejsce
stało się centralnym terenem jego badań.
Nawiązywanie kontaktów z członkami grupy
Stanowisko Kornbluma jako pomocnika nadzorcy okazało się idealną pozycją z
perspektywy badań. Jako pomocnik nadzorcy musiał zrozumieć, na czym polega praca przy
wytapianiu stali, a także poznać podział pracy w fabryce. Jako osoba zarządzająca mógł bez
przeszkód poruszać się po całej fabryce i swobodnie rozmawiać z robotnikami. Dzięki temu
obserwował interakcje zachodzące pomiędzy ludźmi, a zwłaszcza rolę, jaką odgrywały
związki zawodowe. Zrozumiał, jak dzięki produkcji stali tworzy się społeczność zawodowa
wśród zatrudnionych.
Kornblum szczególnie chciał poznać przywódców politycznych, a zwłaszcza liderów
związków zawodowych. W tym czasie cała społeczność była zaangażowana w wybory
kierownictwa swoich organizacji. Dlatego wielu z jego przyjaciół i informatorów
47 Ibidem, s. 232.
48 Ibidem, s. 235-236.
316
Rozdział 13
Wtórna analiza danych
Dlaczego wtórna analiza danych? 322
Powody natury ogólnej 322 Powody natury metodologicznej 323 Powody natury
ekonomicznej 324
Opinia publiczna i polityka społeczna: przykład 324
Ograniczenia wtórnej analizy danych 325
Spis ludności 326
Spis ludności w Stanach Zjednoczonych 327 Błędy popełniane w spisach ludności
328 Dane uzyskane ze spisu ludności 329 Inne dane zbierane przez urząd statystyczny 330
Szukanie danych wtórnych 331
Pomiary nieinwazyjne 333
Obserwacja prosta 333
Dokumenty archiwalne 335
Dokumenty oficjalne 335 Dokumenty osobiste 338
Analiza treści 341
Zastosowania analizy treści 342 Jednostki i kategorie 344
Podsumowanie 346
Podstawowe terminy 348
Pytania sprawdzające 348
Literatura dodatkowa 348
Sztuka czasem towarzyszy nauce, jak na przykład w powieści Umberto Eco Wahadło
Foucaulta1. Jacopo Belbo, ekscentryczny, ale i intrygujący wydawca, uciekając, aby ratować
własne życie, prosi swojego przyjaciela Casaubona o pomoc. Opisując owe niezwykłe i
niepokojące wydarzenia, w których Belbo bierze udział, Eco — włoski profesor lingwistyki
— opisuje główne postacie powieści, łącząc elementy fantastyki z podstawowowymi
zasadami empirycznej metodologii analizy treści. W poszukiwaniu informacji prowadzi on
Casaubona przez tomy starożytnych tekstów, w postaci zarówno biografii, jak i plików
komputerowych, których kody wejściowe muszą być złamane. Casaubon szuka
powtarzających się wyrażeń, wspólnych tematów jak i wzmianek o konkretnych
wydarzeniach. Jak każdy dobry naukowiec zajmujący się naukami społecznymi sprawdza
zgodność wykorzystywanych źródeł z faktami historycznymi i stawianymi przez siebie
hipotezami, prowadzony chęcią rozwiązania zagadki i udzielenia pomocy przyjacielowi. W
tym rozdziale zetkniemy się z rzeczywistością empiryczną i przedstawimy zasady
prowadzenia systematycznej wtórnej analizy danych.
Rozpoczniemy od przedstawienia powodów coraz częstszego wykorzystywania
danych wtórnych. Następnie wskażemy na zalety i wewnętrzne ograniczenia wtórnej analizy
danych. Dalej omówimy podstawowe źródła danych wtórnych, w tym dane pochodzące ze
spisu ludności, specjalnych sondaży, prostej obserwacji i wreszcie dane archiwalne. Na
koniec przedstawimy analizę treści jako metodę systematycznej analizy danych pochodzących
z zapisów archiwalnych, dokumentów i gazet.
Metody zbierania danych, które omówiliśmy do tej pory, pozwalają na uzyskiwanie
danych pierwotnych. Dane takie zbiera się w warunkach sztucznych lub naturalnych (np. w
czasie eksperymentu terenowego), w których osoby badane są często nieświadome, że są
badane, i w których badacz zbiera dane osobiście lub przy pomocy wytrenowanych
obserwatorów czy ankieterów. Coraz częściej jednak badacze korzystają z danych zebranych
już przez innych badaczy dla celów innych niż te przez nich realizowane. Wtórna analiza
danych odwołuje się zatem do wyników uzyskanych na podstawie analizy danych zebranych
przez innych. Na przykład w naukach społecznych badacze posługują się danymi ze spisów
ludności przeprowadzanych przez rząd dla celów administracyjnych czy publicznych, aby —
między innymi — zbadać strukturę gospodarstw domowych, rozkład dochodów i wydatków,
wzorce imigracji i migracji, cechy charakterystyczne grup rasowych i etnicznych, zmiany w
strukturze rodziny, strukturę zawodów, mobilność społeczną oraz cechy obszarów wiejskich,
miejskich i metropolii. Dane zbierane przez Instytut Gallupa czy inne instytucje prowadzące
sondaże ogólnokrajowe były wykorzystywane do badania wielu problemów, takich jak
zmiany opinii publicznej, postawy polityczne czy schematy głosowania oraz ich
determinanty.
1 Umberto Eco (1988), Wahadło Foucaulta, tłum. Adam Szymanowski, Warszawa:
PIW.
321
¦ Dlaczego wtórna analiza danych?
Wtórna analiza danych ma bogatą tradycję intelektualną w naukach społecznych. Emil
Durkheim analizował oficjalne dane statystyczne dotyczące samobójstw w różnych obszarach
i stwierdził, że odsetek samobójstw w krajach protestanckich jest wyższy niż w krajach
katolickich2. Karol Marks wykorzystywał oficjalne statystyczne dane ekonomiczne, aby
uzasadnić swoją tezę o „walce klas" i koncepcję ekonomicznego determinizmu3. Max Weber
studiował oficjalne założenia ideologiczne wczesnych kościołów protestanckich, a także
analizował inne dokumenty historyczne po to, aby podważyć tezę Marksa i uzasadnić, że to
raczej religia, a nie determinizm ekonomiczny jest źródłem zachowań społeczno-
politycznych4.
W naukach społecznych coraz częściej korzysta się z danych zebranych przez różnych
badaczy czy instytucje, realizując cele badawcze odmienne od pierwotnych powodów
zbierania tych danych. Biorąc pod uwagę zwłaszcza badania sondażowe, Norval Glenn
zauważył, że
właśnie zachodzi niemal rewolucyjna zmiana w badaniach sondażowych. Jeszcze
niedawno dane z sondaży były analizowane przede wszystkim przez osoby prowadzące te
sondaże. Teraz zaś obserwuje się silną tendencję do rozdzielania planu sondażu od analizy
danych. Można sobie wyobrazić czas, kiedy niektórzy badacze prowadzący badania
sondażowe będą się specjalizować w tworzeniu planów takich badań, a inni w
przeprowadzaniu analiz danych pochodzących z tych badań5.
Istnieją trzy podstawowe powody, dla których rośnie zainteresowanie
wykorzystywaniem danych wtórnych. Są to powody natury ogólnej, metodologicznej i
ekonomicznej.
Powody natury ogólnej
Z ogólnego punktu widzenia dane wtórne mogą być jedynymi dostępnymi danymi dla
określonych problemów badawczych. Historycy społeczni i polityczni, na przykład, muszą
polegać niemal wyłącznie na danych wtórnych.
W badaniu bardziej współczesnej problematyki —jak podkreśla to Herbert Hy-man —
badacz korzysta z szerokiego zakresu materiałów dotyczących różnych obszarów i wieków,
co sprzyja większej rozpiętości i większemu pogłębieniu analizy, niż byłoby to możliwe w
przypadku wykorzystania danych pierwotnych pochodzących z pojedynczego projektu
badawczego6. Dzięki źródłom wtórnym możemy lepiej zrozumieć kontekst historyczny.
Analizując dane zebrane w różnym czasie i dotyczące podobnej problematyki, możemy
również opisać i wyjaśnić zmiany. Na
2 Emil Durkheim (1966), Suicide, New York: Free Press (wyd. 1 — 1897).
3 Karol Marks (1965), Kapitał, Warszawa: Książka i Wiedza.
4 Max Weber (1994), Etyka protestancka w duchu kapitalizmu, tłum. Jan Miziński,
Lublin: test.
5 Norval D. Glenn (1978), The General Social Surveys: Editorial Introduction to a
Symposium, „Contemporary Sociology", 7, s. 532.
6 Herbert H. Hyman (1987), Secondary Analysis ofSample Surveys, Middletown,
Conn.: Wesleyan University Press, rozdz. 1.
322
przykład Międzyuniwersytecki Zespół ds. Badań Politycznych i Społecznych (In-
teruniversity Consortium for Political and Social Research — ICPSR) przy uniwersytecie w
Michigan dysponuje danymi z sondaży przedwyborczych w Stanach Zjednoczonych,
począwszy od 1952 roku7. Naukowcy wykorzystali te dane, aby opisać i wyjaśnić stabilność i
zmianę ideologii, zaufanie, identyfikację z partią i zmiany głosowania w czasie.
Dane wtórne można również wykorzystywać do celów porównawczych. Porównania
wewnątrz i pomiędzy narodami i społeczeństwami mogą zwiększyć zakres generalizacji, jak
też tworzyć dodatkowy kontekst. I tak na przykład ICPSR posiada dane z badań dotyczących
wyborów w demokracjach europejskich. Ponieważ w badaniach tych mierzono wiele
zmiennych podobnych do tych uwzględnianych w badaniach amerykańskich, taka baza
danych umożliwia analizowanie problemów porównawczych, np. uczestnictwo w życiu
politycznym oraz strukturę konfliktów czy porozumień, i to zarówno w aspekcie narodowym,
jak i międzynarodowym. Hyman twierdzi, biorąc szczególnie pod uwagę badania sondażowe,
że:
Wtórna analiza wielu porównywalnych ze sobą badań sondażowych,
przeprowadzonych w różnym czasie, stwarza nietypową możliwość dokonania empirycznego
opisu długofalowych zmian, a także zbadania, jak różnią się określone zjawiska, biorąc pod
uwagę zróżnicowane warunki w ramach jednego społeczeństwa (łub kilku społeczeństw) w
różnym czasie8.
Powody natury metodologicznej
Można wskazać wiele zalet wtórnej analizy danych. Po pierwsze, dane wtórne —
jeżeli są rzetelne i dokładne — stwarzają możliwość replikacji. Wyniki badań cieszą się
większym zaufaniem, jeżeli powtórzyły się w wielu badaniach. Zamiast osobistego
prowadzenia wielu badań badacz może — w połączeniu z własnymi danymi — wykorzystać
dane zebrane przez innych. Po drugie, dostępność danych zbieranych w różnym czasie
pozwala na stosowanie longitudinalnych planów badawczych. Można znaleźć podstawowe
dla siebie dane w badaniach prowadzonych wiele lat temu i następnie starać się zlokalizować
podobne dane w badaniach prowadzonych bardziej współcześnie. I rzeczywiście, kiedy
badacze chcą porównywać zebrane przez siebie dane pierwotne z danymi zebranymi
wcześniej, muszą z konieczności iść ścieżką wytyczoną przez badania oryginalne. Po trzecie,
analiza danych wtórnych może poprawić jakość pomiaru przez rozszerzanie zakresu
zmiennych niezależnych uzwględnionych w procesie operacjonalizacji pojęć. Odwołując się
do słów Hymana, osoba dokonująca analizy danych wtórnych
musi przeanalizować szeroki zakres szczegółowych wskaźników, różnorodne
zachowania czy postawy [...] Ma większe szanse na bardziej wyczerpujące zdefiniowanie
pojęcia, może bowiem o nim myśleć nie tylko w mniej zwyczajowy sposób, ale analizować je
na wszystkie nietypowe sposoby9.
7 Warren E. Miller i in. (1980), American National Elections Studies Data
Sourcebook, 1952-1978, Cambridge, Mass.: Harvard University Press.
8 Hyman, Secondary Analysis, s. 17.
9 Ibidem, s. 24.
323
Po czwarte, korzystanie z danych wtórnych zwiększa wielkość próby, jej
reprezentatywność i liczbę obserwacji prowadzących do szerszych wniosków. I wreszcie,
danymi wtórnymi można się posługiwać w metodzie triangulacji, zwiększając w ten sposób
trafność wyników uzyskanych na podstawie analizy danych pierwotnych.
Powody natury ekonomicznej
Badania, w których się zbiera dane pierwotne, to przedsięwzięcia bardzo kosztowne.
Badanie sondażowe przeprowadzone na próbie ogólnokrajowej liczącej od 1500 do 2000 osób
może kosztować około 200 000 dolarów, a nawet więcej*. Jest to suma niedostępna — bez
pomocy ze strony sponsorów wspomagających badania — dla profesorów uniwersytetów,
niezależnych badaczy czy studentów ostatnich lat studiów. Korzystanie z już istniejących
danych jest zdecydowanie tańsze niż zbieranie nowych danych.
¦ Opinia publiczna i polityka społeczna: przykład
Jaki efekt, jeżeli w ogóle, wywiera opinia publiczna na politykę rządu? Aby
odpowiedzieć na tak istotne pytanie, Benjamin Page i Robert Shapiro przeanalizowali kilkaset
badań sondażowych przeprowadzonych na narodowej próbie Stanów Zjednoczonych, między
rokiem 1935 a 1979, przez Instytut Gallupa, Narodowe Centrum Badania Opinii Publicznej
(National Opinion Research Center) oraz Centrum Badań Politycznych (Center for Political
Studies Survey) przy uniwersytecie w Michigan10. Stworzyli oni zbiór składający się z 3319
pozycji kwestionariuszowych dotyczących preferencji politycznych, z których około 600
powtarzało się w identycznej formie, dwa lub więcej razy w czasie objętym badaniami.
Autorzy zidentyfikowali następnie każdy przypadek, w którym wystąpiła istotna zmiana
opinii z jednego sondażu na drugi (6% lub więcej w próbach liczących 1500 osób, z prawie
jednakowym rozproszeniem opinii). W sumie znaleźli oni 357 przypadków zmian preferencji
politycznych Amerykanów, obejmujących szeroki zakres problemów dotyczących polityki,
wydatków, regulacji prawnych, handlu i działań militarnych".
Dla każdego przypadku zmiany opinii Page i Shapiro zmierzyli wskaźniki dotyczące
prowadzonej polityki, biorąc pod uwagę okres, którego początek przypadał na dwa lata przed
czasem, kiedy odbyły się sondażowe badania opinii publicznej, a koniec cztery lata po
ostatnim sondażu. Posługując się tymi dwoma zbiorami danych, autorzy zakodowali dane
świadczące o zgodności i braku zgodności pomiędzy przypadkami zmiany opinii i
wskaźnikami dotyczącymi polityki. Na podstawie analizy danych stwierdzili duży stopień
zgodności pomiędzy zmianami polityki
* W Polsce cena badania sondażowego przeprowadzonego na losowej próbie imiennej
liczącej 1500 osób kształtuje się na poziomie 120 000 zł. Sam koszt uzyskania próby to 5000-
6000 zł (przyp. red. nauk.).
10 Benjamin I. Page, Robert Y. Shapiro (1983), Ęffects of Public Opinion on Policy,
„American Political Science Review", 77, s. 175-190.
11 Ibidem, s. 189.
324
a zmianami opinii publicznej, w trakcie badanej przez nich połowy wieku. Co więcej,
zgodność zdarzała się częściej wtedy, gdy istniało dość czasu, aby w procesie podejmowania
decyzji mogły zostać uwzględnione zmiany opinii publicznej. Autorzy postawili wniosek, że
„opinia publiczna — jakiekolwiek byłyby jej źródła i cechy — jest czynnikiem rzeczywiście
wpływającym na politykę Stanów Zjednoczonych".
¦ Ograniczenia wtórnej analizy danych
Podobnie jak w przypadku innych metod zbierania danych wtórna analiza danych
również ma swoje ograniczenia. Największym problemem wtórnej analizy danych jest to, że
często jedynie w przybliżeniu odpowiadają one danym, jakie badacz chciałby wykorzystać w
procesie testowania hipotez. Istnieje nieunikniona przepaść pomiędzy danymi pierwotnymi,
które badacz zbiera osobiście dla określonego celu badawczego i z określonych powodów, a
danymi zbieranymi dla innych celów. Różnice te mogą dotyczyć wielkości próby, planu
badawczego, sposobu formułowania pytań, szczegółów dotyczących planu wywiadu i
techniki jego przeprowadzania oraz sposobu tworzenia sytuacji badania laboratoryjnego.
Drugi problem związany z korzystaniem z danych wtórnych jest związany z dostępem
do tych danych. Chociaż w archiwach przechowuje się tysiące badań, to można mieć
trudności ze znalezieniem tych, które dotyczą badanych zmiennych. Czasami potrzebne dane
mogą być niedostępne, ponieważ pierwszy badacz ich nie ujawnił. Nie ma bowiem
obowiązku udostępniania danych na rzecz ich wtórnej analizy. Dlatego problem ten często
dopinguje badaczy do twórczego wykorzystywania własnych umiejętności w poszukiwaniu
właściwych danych wtórnych i mierzonych zmiennych.
Trzeci problem dotyczący wtórnej analizy danych może się pojawić wtedy, gdy
badacz nie dysponuje wystarczającymi informacjami o tym, w jaki sposób dane zostały
zebrane. Informacje te są niezbędne do określenia potencjalnych źródeł stronniczości, błędów
czy kłopotów związanych z trafnością wewnętrzną czy zewnętrzną. ICPSR radzi sobie z
takimi problemami, dzieląc dane na cztery klasy ze względu na liczbę informacji,
udokumentowanie i wkład pierwotnych autorów badań w procedurę standaryzacji i
sprawdzania danych (por. przykład 13.1).
Przykład 13.1
Klasy danych tworzone przez ICPSR
Ostatnio ICPSR, aby opisać stopień przetworzenia danych w trakcie procesu ich
zbierania, stosuje dwa systemy. Pierwszy, przedstawiony poniżej, polega na kategoryzowaniu
zbiorów ze względu na stopień przetworzenia oryginalnych danych przez ICPSR. Drugi
system, wdrożony w 1992 roku, zastępuje system klasyfikowania danych kodami opisującymi
odrębne kroki podejmowane przy przetwarzaniu danych, czy to przez ICPSR czy przez
głównych badaczy lub osoby tworzące dane.
Wszystkie zbiory stworzone przez ICPSR są sprawdzane w celu stwierdzenia, czy
dane są dobrze udokumentowane i czy informacje, które powinny zostać tajne — takie jak
nazwiska czy daty — zostały zabezpieczone przez ich ujawnieniem. Dostępna jest także
książka kodowa zawierająca dane bibliograficzne oraz materiały opisujące sposób zbierania
danych.
325
Kategoria I
Zbiory danych kategorii I zostały sprawdzone, poprawione — jeżeli to konieczne — i
sformatowane według wskazówek ICPSR. W celu zwiększenia ich użyteczności i dostępności
dane te — po konsultacji z badaczem — mogą zostać przekodowane lub przeorganizowane.
Dostępna jest książka kodowa w wersji, która może być odczytana przez komputer. Książka
ta w pełni dokumentuje dane i czasami zawiera statystyki opisowe, takie jak częstości czy
średnie. Dane kategorii I są często dostępne w różnych formatach i wiele zbiorów danych
kategorii I jest dostępnych w formatach wymaganych przez pakiety statystyczne SAS i SPSS.
Kategoria II
Badania kategorii II zostały sprawdzone i sformatowane według wskazówek ICPSR.
Usunięto większość kodów nienumerycznych. Wiele badań zaliczonych do tej klasy jest
dostępnych w różnych formatach, często odpowiadających formatom danych w pakietach
SAS i SPSS. Wszelkie osobliwości danych zostały uwzględnione w dokumentacji.
Kategoria III
Badania zaliczone do kategorii III zostały sprawdzone przez pracowników ICSPR pod
względem właściwej liczby rekordów dla każdego przypadku i właściwego — zgodnie z
książką kodową — określenia danych. Często dla zbiorów tych dostępne są dane
częstościowe. Rozbieżności w danych, które są znane, oraz inne problemy (jeżeli występują),
są przekazywane użytkownikom w chwili udostępniania danych.
Kategoria IV
Badania zaliczone do kategorii IV są rozprowadzane w takiej postaci, w jakiej badacz
przekazał je
ICPSR. Dokumentacja badań kategorii IV jest powieleniem oryginalnie otrzymanych
materiałów.
Na podstawie: Inter-university Consortium for Political and Social Research (1994),
Guide to Resources and Ser\'tces, 1994-1995, Ann Arbor: University ot' Michigan, Institute
for Social Research, Center for Political Studies, s. xxiii.
¦ Spis ludności
Spis ludności polega na zbieraniu danych demograficznych, opisujących populację na
dokładnie zdefiniowanym terytorium, przeprowadzanym na zlecenie agencji rządowych, w
określonym czasie i w regularnych odstępach. Spis ludności, czy inaczej enumeracja
populacji, powinien zasadniczo być uniwersalny i obejmować każdą osobę żyjącą na
wytypowanym obszarze12.
Istnieją dane wskazujące na to, że początki spisów ludności sięgają 3800 roku p.n.e. w
Babilonii, 3800 roku p.n.e. w Chinach i 2500 roku p.n.e. w Egipcie. Znane są także dane na
temat enumeracji populacji w starożytnej Grecji i Rzymie, a także w państwie Inków.
Współczesne spisy ludności rozpoczęły się od spisu przeprowadzonego w 1666 roku w
Kanadzie i w roku 1790 w Stanach Zjednoczonych. Od tego czasu w obu państwach co
dziesięć lat przeprowadza się spisy ludności13.
Podstawowym powodem, dla którego zaczęto enumerować populację zarówno w
czasach historycznych, jak i współczesnych, była chęć uzyskania danych, które by ułatwiły
działania rządu dotyczące polityki wewnętrznej w dziedzinie podatków, poboru do wojska,
celowości pomocy udzielanej przez rząd czy wykorzystywania urzędników. Zakres
współczesnych spisów ludności coraz bardziej się poszerza,
12 William Peterson (1975), Population, New York, Macmillan.
13 Mortimer Spiegelman (1968), Introduction to Demography, Cambridge, Mass.:
Harvard Univer-sity Press.
326
a zebrane dane mogą dostarczać informacji wykorzystywanych w badaniach
prowadzonych przez rząd, przemysł czy społeczności akademickie14.
Spis ludności w Stanach Zjednoczonych
Pierwszy spis ludności został przeprowadzony w Stanach Zjednoczonych w roku 1790
przez urzędników pod nadzorem Thomasa Jeffersona. W roku 1902 Kongres powołał stałe
biuro ds. spisu ludności, Urząd Statystyczny (Bureau of the Census), które dzisiaj odpowiada
za dokonywanie enumeracji populacji co dziesięć lat. Ponadto Urząd Statystyczny prowadzi
wiele dodatkowych badań sondażowych dotyczących populacji: gospodarki mieszkaniowej i
budownictwa, handlu i przemysłu, federalnych, stanowych i lokalnych rządów oraz handlu
zagranicznego.
Urząd Statystyczny zainicjował lub uczestniczył w tworzeniu wielu innowacji
technicznych i rozwijaniu metod statystycznych. Do najbardziej istotnych należą metody
pobierania próby zwiększające zakres spisów; tworzenie pierwszego komputera do masowego
przetwarzania danych i — bardziej współcześnie — stworzenie zintegrowanego systemu
kodowania geograficznego (TIGER — Typologically Integrated Geographic Encoding and
Referencing). TIGER to skomputeryzowana baza danych geograficznych, dostarczająca
informacji opartych na współrzędnych i dotyczących cyfrowej mapy zawierającej granice
obszarów politycznych i statys-fycznych (wraz z ich kodami) dla terytorium całych Stanów
Zjednoczonych wraz z wszystkimi podległymi terytoriami. Użytkownicy mogą niezależnie
otrzymać dane ze spisu i inne dane statystyczne i mogą włączyć je do bazy danych TIGER.
Wówczas baza ta, wyposażona w odpowiedni software, pozwala na tworzenie nowych granic
obszarów politycznych czy administracyjnych, wytyczanie obszarów o wysokim zagrożeniu
przestępczością czy określanie przewidywanego wzrostu populacji w określonych okręgach
sądowniczych15.
Spis ludności i gospodarstw domowych przeprowadzany co dziesięć lat nazywany jest
pełnym spisem ludności i powinien objąć każde gospodarstwo domowe w państwie. W spisie
dziesięcioletnim używa się dwóch kwestionariuszy: krótkiej formy, która pozwala zbierać
podstawowe informacje demograficzne o każdym członku gospodarstwa domowego oraz
zawiera kilka pytań na temat samego gospodarstwa; długiej formy, która dodatkowo zawiera
pytania na temat statusu socjoekonomicznego oraz mieszkania. Pełen spis ludności jest
przeprowadzany przy użyciu krótkiej formy. W próbie pobranej z populacji, zawierającej
około 17% wszystkich badanych gospodarstw domowych, stosuje się dodatkowo długą wersję
kwestionariusza. W kwietniu 1990 roku, to jest w czasie ostatniego pełnego spisu ludności
przeprowadzonego w Stanach Zjednoczonych, długą wersję kwestionariusza rozesłano do
17,7 milionów gospodarstw spośród pełnej ich liczby stanowiącej około 106 milionów
gospodarstw.
Pełen spis ludności populacji Stanów Zjednoczonych jest niezbędny, gdyż na
podstawie otrzymanych statystyk wyznacza się proporcjonalnie liczbę miejsc przyznawaną
każdemu stanowi w Izbie Reprezentantów. Co więcej, fundusze federalne przeznaczane dla
władz stanowych i lokalnych są rozdzielane na podstawie danych
14 Ibidem.
15 Więcej informacji można znaleźć w: TIGER: The Coast-to-Coast Digital Map Data
Base, Washington, D.C: U.S. Department of Commerce, Bureau of the Cenus, November
1990.
327
spisu dziesięcioletniego. Ponadto jedynie pełen spis ludności może dostarczyć danych
o małych obszarach geograficznych takich jak małe miasta czy kwartały spisowe —
najmniejsze obszary geograficzne, dla których zbiera się dane spisowe. Ponieważ jednak
pełen spis ludności jest bardzo kosztowny, a jego przeprowadzenie jest technicznie bardzo
skomplikowane, więc wykorzystuje się go do gromadzenia podstawowych informacji. Stosuje
się również pobieranie próby z populacji (pytania zadawane są wówczas jedynie części
populacji objętej sondażem). W porównaniu z pełnym spisem ludności ma ono wiele zalet.
Badanie takie jest bardziej ekonomiczne, bardziej skuteczne i szybsze. Pozwala zmniejszyć
czas pomiędzy terminem przeprowadzenia badań a opublikowaniem jego wyników. Co
więcej, posługiwanie się próbami umożliwia Urzędowi Statystycznemu rozszerzyć zakres i
stopień szczegółowości zbieranych danych w odniesieniu do aspektu mieszkaniowego i
statusu wynikającego z zatrudnienia. Ponadto niektóre z sonadaży przeprowadzonych na
próbach przez Urząd Statystyczny zostały zaprojektowane w celu uzyskania informacji o
postawach społeczeństwa dotyczących różnych spraw.
Dane ze spisu ludności są zazwyczaj grupowane w dwie wiązki geograficzne:
jednostek politycznych (takich jak stany, hrabstwa czy okręgi kongresowe) oraz obszarów
statystycznych, które są obszarami definiowanymi w celach statystycznych, głównie na
podstawie kryteriów geograficznych. Do najbardziej powszechnych obszarów statystycznych
należą metropolitalne obszary statystyczne (MSA — Metropolitan Statistical Areas), miejsca
objęte spisem (CDP — Census Designated Pla-ces) oraz ścieżki spisowe. MSA są
definiowane jako jedno hrabstwo (lub więcej), cechujące się dużym skupieniem populacji i
okolicznych społeczności, które pozostają ze sobą w ścisłej interakcji16. Wytyczone CDP to
gęsto zaludnione okręgi, które nie mają własnych, prawnie określonych władz17. Ścieżki
spisowe to małe, definiowane na poziomie lokalnym, obszary statystyczne w okręgach
metropolitarnych i niektóre hrabstwa, których przeciętna populacja waha się w granicach
400018.
Błędy popełniane w spisach ludności
Współczesne spisy ludności stanowią ważne źródło rzetelnych informacji
statystycznych. Mogą się w nim jednak zdarzyć błędy, zatem użytkownicy muszą być
świadomi metodologicznych ograniczeń tych danych.
Dane ze spisu ludności mogą być źródłem dwojakiego rodzaju błędów: błędów
zakresu i błędów treści. Błędy w zakresie oznaczają, że dana osoba lub grupa osób nie zostały
w ogóle policzone lub zostały policzone dwukrotnie. Podwójne dane stanowią mniejszy
problem niż ich brak. Zjawisko niedoszacowania populacji od dawna znajduje się w centrum
zainteresowania osób, które zwyciężyły w wyborach, badaczy i opinii publicznej, ponieważ
osoby, które nie zostały ujęte w spisie (a zwłaszcza grupy takie, jak bezdomni czy migrujący
pracownicy), tracą szansę na znalezienie swojej reprezentacji w rządzie narodowym,
stanowym czy lokalnym.
Jedna z kategorii osób, które nie zostały ujęte w spisie, składa się z ludzi, których nie
można było zlokalizować ze względu na brak stałego adresu. Inną katego-
16 Na podstawie: Census '90 Basics (1985), Washington, D.C.: U.S. Department of
Commerce, Bu-reau of the Census, December, s. 5.
17 Ibidem.
18 Ibidem.
328
rię tworzą osoby, które nie chcą zostać znalezione, jak na przykład nielegalni
mieszkańcy. W takim przypadku Urząd Statystyczny ma trudności z oszacowaniem błędu,
ponieważ nielegalni mieszkańcy nie zostaną ujawnieni także w innych oficjalnych rejestrach,
na przykład w dokumentach posiadanych przez administrację, a wykorzystywanych do
weryfikowania statystyk spisu.
Błędy treści pojawiają się wtedy, kiedy otrzymane informacje zostały nieprawidłowo
zarejestrowane lub stabularyzowane. Pomijając błędy wynikające z braku uwagi, błędy treści
zdarzają się dlatego, gdyż osoby badane często udzielają błędnych odpowiedzi na pytania
mierzące status społeczny. Na przykład w konsekwencji wprowadzających w błąd
odpowiedzi badani mogą zostać źle zaklasyfikowani do grup o wysokich czy niskich
dochodach czy do grup o różnym stopniu wykształcenia. Błędy takie mogą w dużym stopniu
wpływać na trafność wyników badań, a w konsekwencji mieć znaczenie dla prowadzonej
polityki wewnętrznej.
Dane uzyskane ze spisu ludności
Dane uzyskane ze spisu ludności są dostępne w Urzędzie Statystycznym w różnych
formatach: drukowanych raportów, taśm magnetofonowych, mikrofisz, a ostatnio także w
postaci CD-ROM-ów. Drukowane raporty statystyczne są wygodne i od razu dostępne. Dane
w takich raportach są przedstawiane w postaci tabel zawierających określone zbiory danych
dla określonych obszarów geograficznych. Raporty te przedstawiają dane w różnym
porządku. Niektóre przedstawiają informacje dla wszystkich poziomów: państwa jako całości,
stanów, metropolii, obszarów miejskich, miast i hrabstw. Część zatytułowana „The Smali
Area" zawiera dane dia kwartałów i ścieżek spisowych. Część dotycząca osób badanych
przedstawia dane dla wybranych osób na poziomie ogólnokrajowym.
Części raportu dotyczące osób badanych zawierają głównie dane dotyczące
gospodarstw domowych i problemów populacyjnych. Każda publikacja koncentruje się
jednak na wybranym aspekcie zdefiniowanych ogólnie obszarów. Na przykład raport
zatytułowany „Droga do pracy: Ścieżki komunikacyjne w metropolii" {Journey to Work:
Metropolitan Community Flows) zawiera statystyki dotyczące lokalnych i ogólnokrajowych
schematów podróżowania dla każdej z metropolii Stanów Zjednoczonych, a także informacje
o miejscach pracy i zamieszkania pracowników. Inny raport „Związki między dziećmi a
dorosłymi" (Living Arrangements ofChildren and Adults), użyteczny w badaniach
amerykańskich gospodarstw domowych, gromadzi dane na temat relacji pomiędzy dziećmi a
dorosłymi na poziomie ogólnokrajowym. Informacje te podawane są dla dzieci w różnych
grupach wiekowych, z uwzględnieniem ich relacji z głową domu i stanu cywilnego rodziców.
Dla użytkowników potrzebujących bardziej szczegółowych danych czy danych dla
mniejszych obszarów geograficznych, a także statystyk, które są rozrzucone po różnych
raportach, Urząd Statystyczny przygotowuje dane na taśmach komputerowych w dwóch
formach: Summary Tape Files (STFs), które zawierają zebrane w tabelach znacznie bardziej
szczegółowe dane niż prezentowane w drukowanych raportach, oraz Public-Use Microdata
Sample Files (PUMS) zawierające dane dla niewielkich prób nie identyfikowanych
gospodarstw domowych i zawierające wszystkie dane spisu zebrane dla każdej osoby w
gospodarstwie domowym. Pliki PUMS pozwalają użytkownikom na przygotowywanie
indywidualnych tabel prostych i tabel krzyżowych na podstawie wybranych pytań
kwestionariusza spisowego.
329
Ma to ogromne znaczenie dla naukowców potrzebujących bardziej pogłębionych
danych19.
Mikrofisze zawierające statystyki dla zbiorów kwartałów spisowych począwszy od
spisu z 1980 roku, również są dostępne. Mikrofisze zawierają zbiory tabel dla kwartałów
definiowanych w pliku STF IB. W roku 1990 cały kraj po raz pierwszy został podzielony na
„kwartały". Zwiększyło to liczbę kwartałów z 2,5 miliona (w roku 1980) do ponad 7
milionów (w roku 1990), dla których Urząd Statystyczny zbiera teraz dane. Koszty i
przechowywanie takiej ilości danych w wersji drukowanej są niewyobrażalne20.
Płyta kompaktowa, czyli CD-ROM, rodzaj dysku optycznego czy laserowego to
najbardziej współczesna technika gromadzenia danych. Na jednym, 4 i 1/4 calowym dysku
może się zmieścić zawartość około 1500 dyskietek 5 i 1/4 cala lub 3 do 4 taśm wysokiej
gęstości21. Specjalne urządzenia peryferyczne pozwalają na korzystanie z CD-ROM-ów w
komputerach osobistych. Ze względu na nieocenioną wygodę w ich stosowaniu można
oczekiwać, że coraz więcej danych spisowych będzie dostępnych w tej formie.
Inne dane zbierane przez urzqd statystyczny
Chociaż spis powszechny odbywający się co dziesięć lat jest podstawowym źródłem
informacji o populacji Amerykanów, to nie jest w stanie dostarczyć informacji na każdy
interesujący temat. Ponadto dla wielu potrzeb dane te mogą się okazać nieaktualne już za
kilka lat. Dlatego też urząd statystyczny przeprowadza dodatkowe specjalne spisy i sondaże
na mniejszych próbach. Niektóre z nich, które mogą być przydatne dla badaczy w naukach
społecznych, przedstawiamy poniżej.
Aktualny sondaż populacji (CPS — Current Population Survey). Aktualny sondaż
populacji to sondaż przeprowadzany co miesiąc na wylosowanej próbie z populacji Stanów
Zjednoczonych rozumianej nieinstytucjonalnie (tj. z wyłączeniem żołnierzy, więźniów czy
osób przewlekle chorych). Jego podstawowym celem jest dostarczenie statystyk dotyczących
bezrobocia i aktualnych informacji na temat danych osobowych osób zatrudnionych, takich
jak: płeć, wiek, rasa, stan cywilny i rodzinny oraz wykształcenie. Sondaż taki dostarcza
również informacji na inne tematy, które okresowo są dodawane do podstawowej listy
problemów objętych sondażem. Urząd statystyczny publikuje wiele raportów opartych na
tych danych pod wspólnym tytułem Current Population Reports.
Sondaż dotyczący amerykańskich gospodarstw domowych (AHS — American
Housing Survey). Co dwa lata, jako część programu AHS, urząd statystyczny przeprowadza
badania ankietowe na próbie respondentów ze wszystkich gospodarstw domowych w całych
Stanach Zjednoczonych. Sondaż dotyczący amerykańskich gospodarstw domowych zawiera
pogłębione dane na temat warunków mieszkania, powodów wybrania danego mieszkania,
oceny usług w^ektorze publicznym i ogólnej jakości życia w najbliższej okolicy. Sondaż ten
pozwala na badanie zmian wy-
19 Ibidem, s. 13.
20 Ibidem, s. 16.
21 Ibidem.
330
mkających ze strat w substancji mieszkaniowej, nowego budownictwa, mobilności
mieszkaniowej i charakterystyk demograficznych badanych osób22.
Sondaż na temat wydatków konsumentów (Consumer Expenditure Survey). Sondaże
na temat wydatków konsumentów zostały przygotowane w celu monitorowania zmian w
cenach. Dane z tych sondaży mają podstawowe znaczenie dla pomiaru wielkości inflacji w
Stanach Zjednoczonych i jej wpływu na koszty utrzymania. Dane z tych sondaży są również
wykorzystywane przez Biuro Pracy (Bureau of Labor Statistics) do uaktualniania ukazującego
się co miesiąc „Consumer Price Index" (CPI). Sondaż na temat wydatków konsumentów jest
przeprowadzany w trzech formach: wywiadu kwartalnego, sondażu dzienniczkowego i
sondażu w miejscach sprzedaży.
Wywiad kwartalny (The Quarterly Interview Survey) jest przeprowadzany co miesiąc
w postaci wywiadu w gospodarstwach domowych. Dostarcza danych na temat kosztów
utrzymania poniesionych w ciągu trzech miesięcy przed wywiadem23.
Sondaż dzienniczkowy (The Diary Survey) również przeprowadzany co miesiąc
dostarcza danych na temat kosztów utrzymania osób mieszkających stale w danym
gospodarstwie domowym przez kolejne dwa tygodnie24. Informacje zapisywane są w
specjalnym dzienniczku — stąd nazwa sondażu.
Przeprowadzany co rok sondaż w miejscach sprzedaży (Point of Purchase Survey)
pozwala na zidentyfikowanie rodzaju sklepów i innych punktów, które konsumenci
najczęściej odwiedzają, dokonując zakupów dóbr i usług. Jest on szczególnie użyteczny do
analizowania trendów ekonomicznych i planowania działań reklamowych.
Urząd statystyczny publikuje również wiele użytecznych przewodników.
Podstawowym przewodnikiem po danych uzyskanych ze spisu w roku J 990 jest 1990 Census
User's Guide. Z kolei Census and Kom jest comiesięczną gazetką adresowaną do
użytkowników danych, natomiast Census Catalog and Guide publikuje wyczerpującą listę
wszystkich nowych publikacji, plików komputerowych, nietypowych tabel i wszystkich
innych oferowanych przez urząd produktów. Obok głównego biura, które mieści się w
Waszyngtonie, Urząd Statystyczny ma dwanaście filii w całych Stanach Zjednoczonych, w
których pracują specjaliści udzielający odpowiedzi przez telefon, osobiście lub drogą
pocztową. Zbiory danych mogą być nabywane przez uniwersytety, główne biblioteki miejskie
i inne duże instytucje prowadzące badania.
¦ Szukanie danych wtórnych
Biorąc pod uwagę, że w Stanach Zjednoczonych i na świecie przeprowadzono tysiące
badań, powstaje oczywiste pytanie: W jaki sposób można precyzyjnie zlokalizować dane,
które są nam potrzebne? William Trochim jest autorem następujących wskazówek dla osób
poszukujących danych25:
22 Na podstawie: Census Suryeys: Measuring America, Washington, D.C.: U.S.
Department of Commerce, Bureau of the Census, December, 1985, s. 6.
23 Ibidem, s. 12.
24 Ibidem.
25 William M.K. Trochim (1981), Resources for Locałing Public and Private Data, w:
Robert F. Boruch (red.), Reanalyzing Program Evaluations, San Francisco: Jossey-Bass, s. 57-
67.
331
1. Określ swoje potrzeby: sprawdź indeksy rzeczowe w materiałach archiwalnych i
określ odpowiednie podstawowe słowa.
2. Zaznajom się: przeszukaj indeksy, katalogi i dane archiwalne, a także informacje
publikowane przez różne instytucje, które mogą posiadać interesujące dane.
3. Nawiąż pierwsze kontakty: przede wszystkim nawiąż kontakty z osobami I
znającymi materiały archiwalne i zdobądź informacje na temat korzystania I z tych danych.
4. Nawiąż kolejne kontakty: poproś profesjonalistów o zweryfikowanie uzyskanych
informacji i naucz się, w jaki sposób należy oficjalnie poprosić o udostępnienie danych.
5. Sprawdź dostępność: zdobądź informacje na temat ewentualnych trudności, jakie
mogą stwarzać osoby posiadające dane.
6. Przeprowadź analizę podstawową i analizy dodatkowe: po przeprowadzeniu
podstawowej analizy postaraj się — jeżeli to konieczne — o dodatkowe dane.
Podstawowymi źródłami informacji dla analityków poszukujących danych wtórnych
są katalogi, przewodniki, spisy danych archiwalnych i danych posiadanych przez instytucje
wspomagające badaczy. Do użytecznych katalogów danych archiwalnych należą: Statistics
Sources (wyd. 17 — P. Wasserman (red.), 1994) oraz Research Centers Directory (wyd. 14 —
A.M. Palmer (red.), Detroit: Gale Research Co., 1989). Głównymi przewodnikami po
rządowych bazach danych są natomiast: A Frameworkfor Planning U.S. Federal Statistics i
The Directory ofCom-puterized Data Files and Related Software, oba tytuły opublikowane
przez U.S. Department of Commerce, a także Federal Information Sources and Systems: A
Directory for the Congress.
Zespół ICPSR przy uniwersytecie w Michigan i Ośrodek Ropera przy uniwersytecie w
Connecticut dysponują największymi archiwami danych wtórnych w Stanach Zjednoczonych.
ICPSR publikuje co roku Guide to Resources and Services („Przewodnik po źródłach i
usługach")- Do innych ważnych instytucji należą: Biuro Stosowanych Badań Społecznych
(Bureau of Applied Social Research) przy uniwersytecie Columbia, Laboratorium Nauk
Politycznych, Archiwum dla Nauk Społecznych (Laboratory for Political Research, Social
Science Data Archive) przy uniwersytecie w Iowa, Krajowy Ośrodek Badania Opinii
(National Opinion Research Center — NORC) przy uniwersytecie w Chicago oraz
Europejskie Stowarzyszenie Ośrodków Dystrybucji Informacji Naukowych (European
Association of Scientific Information Dissemination Centers)26.
Źródła, które wymieniliśmy, to jedynie maleńka cząstka z przeogromnej obfitości
dostępnych baz danych i opublikowanych źródeł informacji. Ciągle rosnąca ich liczba i jakość
wymaga, aby studenci i badacze byli w stałym kontakcie z ośrodkami zajmującymi się
dystrybucją informacji, a mieszczącymi się przy uniwersytetach, biurach rządowych czy
innych instytucjach.
26 Por. także ibidem, s. 65 oraz Catherine Hakim (1982), Secondary Analysis in
Social Research: A Guide to Data Sources and Methods with Examples, Boston: Allen &
Unwin.
332
¦ Pomiary nieinwazyjne
Pomiar nieinwazyjny, znany także pod nazwą pomiaru niereaktywne-go to każda
metoda zbierania danych, która wyłącza badacza z badanych interakcji, zdarzeń czy
zachowań. I tak na przykład studiowanie powszechnie dostępnych dokumentów archiwalnych
jest pomiarem nieinwazyjnym, ponieważ badacz nie ma żadnego wpływu na warunki, w
jakich zostały zebrane te dane. Pomiary nieinwazyjne pozwalają na uniknięcie kontaminacji
danych, która może się pojawić, gdy badacz i osoby badane spotykają się w czasie
gromadzenia danych. Kiedy pomiar jest nieinwazyjny, osoba badana „nie jest świadoma tego,
że jest poddawana pomiarowi, i istnieje niewielkie niebezpieczeństwo, że akt pomiaru jako
taki będzie wymuszał zmiany zachowania lub będzie się przyczyniać do grania roli,
zmieniając w ten sposób dane"27. Pomiary takie obejmują działania od analizowania
prywatnych i publicznych archiwów do prostej obserwacji ludzi podczas pracy czy zabawy,
od analizy ścieżek fizycznych do wymyślnej obserwacji. Na przykład ślady (i znaki) fizyczne
są wytyczane bez wiedzy osób je tworzących o przyszłym ich wykorzystaniu przez badaczy.
Eugene Webb i współautorzy wprowadzili rozróżnienie na dwie klasy znaków
fizycznych: pomiary erozji i pomiary przyrostu28. Pomiary erozji dotyczą znaków
zostawianych po użyciu jakiegoś obiektu. Na przykład stopień zużycia książek w bibliotece
może być wskaźnikiem ich popularności, a liczba kilometrów znajdujących się na licznikach
samochodów patrolowych może być wskaźnikiem aktywności jeżdżących nimi policjantów.
Badacz może zatem porównać złożony przez policjantów raport z liczbą przejechanych przez
nich kilometrów.
Pomiary przyrostu obejmują znaki zostawiane przez ludzi w trakcie ich działań. W
tym przypadku badacz analizuje pozostałości będące efektem jakiegoś ludzkiego zachowania.
Na przykład ilość kurzu na urządzeniach może być potraktowana przez badaczy jako
wskaźnik częstości korzystania z nich. Podobnie badacz może oszacować popularność
różnych stacji radiowych, zapisując, na której stacji ustawione były odtwarzacze
samochodowe, gdy samochód został oddany do serwisu.
Zarówno czas potrzebny do ich zebrania, jak i wątpliwa jakość danych sprawiają, że
analiza śladów jest problematyczna. A co jeszcze ważniejsze, w wielu przypadkach badacz
nie otrzymuje wystarczających informacji o populacji, którą poddano pomiarowi; informacji
pozwalających na dokonywanie trafnych generalizacji.
Obserwacja prosta
Obserwacja prosta to inny przykład pomiaru nieinwazyjnego. Stosowana jest w
sytuacji, „w której osoba obserwująca nie ma żadnej kontroli nad objętymi pomiarem
zachowaniami czy znakami i pełni funkcję biernego i nie ingerującego w sytuację badawczą
obserwatora29. Chociaż badacze dokonujący prostych obserwacji posługują się w każdym
względzie metodologią innych metod obserwacyjnych, to prosta obserwacja jest niezależną
metodą, ponieważ badacz nie interwe-
Eugene J. Webb i in. (1981), Nonreactive Measures in the Social Sciences, Boston:
Houghton Mifflin, s. 175.
28 Ibidem, s. 35-52.
29 Ibidem, s. 112.
333
niuje w procesie tworzenia danych (w odróżnieniu od metodologii obserwacji w
sytuacji eksperymentalnej, która została opisana w rozdziale 8). Możemy wyróżnić cztery
typy prostej obserwacji: obserwację zewnętrznego wyglądu ciała i obserwację znaków
fizycznych, analizę zachowań ekspresyjnych, analizę zajmowanych pozycji fizycznych oraz
obserwację zachowań językowych.
Obserwacja zewnętrznego wyglądu ciała i obserwacja znaków fizycznych. Ten
rodzaj prostej obserwacji polega na rejestrowaniu zewnętrznego wyglądu ciała i
elementów fizycznych traktowanych jako wskaźniki czy znaki wzorcowych zachowań lub
postaw. Przykładami takich znaków są: tatuaże, fryzury, ubranie, elementy zdobiące (np.
biżuteria). Na przykład zmiana wykorzystywanych znaków może zostać potraktowana jako
pomiar zmian społecznych, ponieważ może to być wskaźnik osiedlania się w sąsiedztwie grup
imigrantów.
Analiza zachowań ekspresyjnych. Drugim rodzajem prostej obserwacji jest
analizowanie ekspresji. Obserwacja koncentruje się na autoekspresji i interpretacji zachowań
ekspresyjnych jako wskaźników interakcji społecznych. Za pomocą języka ciała ludzie
komunikują wiele uczuć, a także norm społecznych. Obserwatorzy rejestrują, jak blisko
ludzie stoją obok siebie, jak często patrzą na siebie, jak często siebie dotykają.
Badacze rejestrujący mimikę twarzy i ruchy ciała stają wobec podstawowego
problemu: co oznaczają różne gesty. Na przykład uśmiech może być oznaką ulgi lub
szczęścia. Określenie znaczenia poszczególnych gestów zarówno dla osoby, która jest ich
źródłem, jak i dla osoby, która je odbiera, w ramach kontekstu, w jakim występują, należy do
badacza. Te same ruchy w różnych sytuacjach mogą bowiem oznaczać różne emocje.
Analiza zajmowanych pozycji fizycznych. Podstawowym celem analizy zajmowanych
pozycji fizycznych jest badanie sposobów, w jaki ludzie poruszają się w naturalnie
powstającej przestrzeni społecznej. Na przykład obserwatorzy polityki wewnętrznej Związku
Radzieckiego rejestrowali — przed upadkiem imperium rosyjskiego — kto stoi obok kogo na
trybunie honorowej w czasie pochodu w dniu Święta Pracy na placu Czerwonym. Innym
przykładem jest protokół —jego reguły w sposób istotny instytucjonalizują fizyczne oznaki
statusu. Dlatego badacz, analizując zmiany statusu społecznego czy politycznego, powinien
być wrażliwy na zróżnicowanie dystansu, w jakim stoją w stosunku do siebie liderzy życia
politycznego.
Obserwacja zachowań językowych. Czwarty rodzaj prostej obserwacji dotyczy
obserwowania prowadzonych rozmów i wzajemnych związków pomiędzy sposobami
mówienia po to, aby je przyporządkować do kategorii społecznych. Analiza taka łączy
badanie zajmowanych pozycji i zachowań ekspresyjnych. W swojej popularnej książce
Deborah Tannen wykorzystuje analizę zachowań językowych do badania, w jaki sposób
strukturalizowane i podtrzymywane są związki między ludźmi. Opierając się na dokładnym
obserwowaniu prowadzonych rozmów, stwierdziła ona, że mężczyźni są bardziej wrażliwi na
„przekaz", tj. bezpośrednie znaczenie tego, co jest mówione. Kobiety zaś są bardziej wrażliwe
na „metaprzekazy", tj. in-
334
formacje pośrednio zawarte w tym, co zostało powiedziane; informacje dotyczące
postaw wobec tego, co jest mówione, i postaw wobec ludzi, którzy mówią i słuchają30.
Problemy związane z prowadzeniem prostej obserwacji. Podstawową zaletą prostej
obserwacji jest to, że badacz nie jest odpowiedzialny za sposób strukturalizacji sytuacji, w
jakiej dokonywana jest obserwacja, i sam nie jest spostrzegany. Dzięki temu można
wyeliminować potencjalne źródła stronniczości (por. rozdział 5 i 9). Jednak z obserwacją
prostą również związane są określone problemy. Po pierwsze, zarejestrowane obserwacje
mogą nie reprezentować całej populacji, tym samym ograniczając zakres możliwych
generalizacji. Po drugie, zbyt aktywny czy zbyt angażujący się obserwator może być źródłem
stronniczości. Stronniczość ta może być rezultatem nieintencjonalnych i nie kontrolowanych
zmian w sposobie prowadzenia obserwacji. Po trzecie, nawet jeżeli obserwator pozostanie nie
zauważony, to sytuacje dostępne prostej obserwacji muszą być sytuacjami publicznymi, co
ogranicza zakres dostępnych obserwacji zachowań. Po czwarte, większość obserwacji
zebranych za pomocą metody prostej obserwacji nie prowadzi w sposób automatyczny do
bezdyskusyjnych wniosków: „Dane [...] nie pozwalają stwierdzić dlaczego, lecz jedynie
pozwalają określić powiązania"31. Ta wieloznaczność ogranicza możliwości stosowania
prostej obserwacji i trafność interpretacji jej wyników, i to nawet wtedy, kiedy obserwowane
sytuacje można łatwo zreplikować.
¦ Dokumenty archiwalne
Dokumenty archiwalne to kolejne źródło nieinwazyjnych danych. Dane te pochodzą z
różnych źródeł, na przykład danych aktuarialnych, dokumentów sądowych i wyborczych,
dokumentów rządowych, należących do mass mediów i dokumentów osobistych (takich jak
biografie, pamiętniki czy listy). Niektóre z tych dokumentów zostały opracowane w celu ich
szerokiego wykorzystania, inne przygotowano jedynie z myślą o badaniach naukowych.
Zatem badacze prowadzący badania w naukach społecznych mają do dyspozycji ogromną
liczbę gotowych do wykorzystania dokumentów archiwalnych, dostępnych zarówno
publicznie, jak i prywatnie.
Dokumenty oficjalne
Dokumenty oficjalne można podzielić na cztery kategorie. Do pierwszej grupy należą
dane aktuarialne, które zawierają dane o cechach demograficznych populacji, takie jak
statystyki urodzin i śmierci czy statystyki dotyczące ślubów i rozwodów. Do grupy drugiej
należą rejestry sądowe i inne dokumenty oficjalne, na przykład wyroki sądowe, działania
legislacyjne, głosy oddane podczas głosowania, decyzje dotyczące budżetu itp. Do grupy
trzeciej należą dokumenty rządowe i quasi-rządo-we takie, jak statystyki dotyczące
przestępczości, dane dotyczące programów pomocy społecznej, dokumenty szpitalne i raporty
meteorologiczne. Grupa czwarta to artykuły czy informacje o aktualnych wydarzeniach
zamieszczane w gazetach i in-
"' Deborah Tannen (1999), Ty nic nie rozumiesz! Kobieta i mężczyzna w rozmowie,
ttum. Agnieszka Sylwanowicz, Poznań: Zysk i S-ka Wydawnictwo. " Webb i in., Nonreactive
Measures, s. 127.
335
ne informacje przekazywane przez mass media. Wszystkie te dokumenty były
wykorzystywane jako źródło danych w licznych badaniach naukowych.
Dane aktuarialne. Większość społeczeństw gromadzi dane dotyczące urodzin, śmierci,
ślubów i rozwodów. W naukach społecznych korzysta się z takich danych zarówno w celach
opisowych, jak i przy wyjaśnianiu. Russell Middleton, na przykład, badał poziom płodności,
analizując dwa zbiory danych: dane dotyczące płodności przedstawiane w opowiadaniach
publikowanych w czasopismach oraz rzeczywiste dane dotyczące płodności w latach 1916,
1936 i 1956. Middleton pierwszy oszacował wskaźnik płodności, opisując wielkość
fikcyjnych rodzin, których losy śledził w ośmiu amerykańskich czasopismach. Kiedy
porównał te wartości z danymi populacyjnymi dla tych samych lat, okazało się, że dane
fikcyjne wykazują taką samą zmianę w wielkości rodziny, jaką wykazała analiza
rzeczywistych danych dotyczących populacji Stanów Zjednoczonych32.
Lloyd Warner w swoich badaniach dotyczących śmierci i związanych z nią ceremonii
w dużych miastach amerykańskich wykorzystał liczne oficjalne dokumenty. Aby ustalić
społeczną historię śmierci, analizował oficjalne dokumenty pogrzebowe. Ustalił, że struktura
społeczna miasta jest odzwierciedlana na cmentarzach. Na przykład ojcowie byli najczęściej
chowani w centrum rodzinnego grobu, a nagrobki mężczyzn były większe niż nagrobki
kobiet. Co więcej rodziny, które podniosły swój status społeczny, przeniosły groby swoich
najbliższych z cmentarza o mniejszym prestiżu na cmentarz o większym prestiżu33.
Rejestry sądowe i inne dokumenty oficjalne. Politolodzy często wykorzystują
statystyki dotyczące głosowania, aby badać zachowania wyborcze. Zbiory takie jak A Review
ofthe Elections ofthe World wydawane co dwa lata przez Institute of Electoral Research w
Londynie i kolejne tomy America at the Polis: A Handbook of American Presi-dential
Election Statistics, 1920-1965 pod redakcją Richarda M. Scammona (Salem, N.H.: Ayer,
1976), a także Kennedy to Clinton, 1960-1992, autorstwa Alice V. McGillivray i Richarda M.
Scammona (Washington, D.C.: Congressional Quarterly Inc., 1994) dostarczają bardzo
użytecznych danych na temat głosowania. The Congressional Quarterly Almanac dostarcza
informacji na temat Kongresu Stanów Zjednoczonych, łącznie z danymi dotyczącymi
wykształcenia członków Kongresu, a także informacje na temat podstawowych aktów
ustawodawczych czy obecności na posiedzeniach. Z kolei w książce World Handbook of
Political and Social Indicators (New Haven, Conn.: Yale University Press, 1983) Charles L.
Taylor i David Jodice przedstawili ponadnarodowe dane dla 148 polityków, takie jak:
poparcie elektoratu, liczbę rozruchów, jaką zanotowano w ciągu roku, liczbę nie planowanych
zmian w rządzie i nierównomiemości podziału dochodów. Natomiast Harold W. Stanley i
Richard G. Niemi w pracy Vital Statistics on American Politics (wyd. 3, Washington, D.C.:
Congressional Quarterly Inc., 1991) przedstawiają dane w postaci szeregów czasowych na
temat instytucji politycznych, opinii publicznej i polityki rządu.
32 Russell Middleton (1960), Fertility Values in American^Magazine Fiction, 1916-
1956, „Public Opinion Quarterly", 24, s. 139-143. /^
33 Lloyd W. Warner (1965), The Living and the Dead: A Study ofthe Symbolic Life
of Americans, New Haven: Conn.: Yale University Press.
336
Publikacja The Congressional Record zawiera informacje, które można wykorzystać
do badania zachowań nie tylko członków Kongresu, ale również osób spoza Kongresu. Na
przykład powszechną praktyką wśród członków Kongresu jest publikowanie w The
Congressional Record wystąpień odzwierciedlających ich poglądy. Eugene Webb w jednym z
pierwszych badań felietonistów politycznych wykorzystał zawarte tam dane do analizowania
konserwatyzmu i liberalizmu wśród felietonistów w Waszyngtonie. Webb określił pozycję
każdego członka Kongresu na wymiarze konserwatyzm-liberalizm, kierując się wynikami ich
głosowań, jakie zostały opublikowane przez dwie opozycyjne grupy: Conservative Americans
for Constitutional Actions oraz Liberał Committee on Political Action, należący do związków
zawodowych AFL-CIO. Następnie porangował felietonistów ze względu na średni wynik,
jaki uzyskali członkowie Kongresu, którzy opublikowali swoje artykuły w The Record^.
Dokumenty rządowe. Podobnie jak analiza urodzeń i śmierci może dostarczać
interesujących danych, również analiza dokumentów rządowych i quasi-rządowych może być
sposobem zbierania danych. I tak na przykład Lombroso interesował się, jakie czynniki (obok
czynników ekonomicznych i osobowych) wpływają na twórczość naukową. Wykorzystał on
dokumenty rządowe do zbadania wpływu pogody i pory roku na twórczość naukową. Po
stworzeniu próby składającej się z 52 odkryć naukowych w dziedzinie medycyny, chemii i
matematyki określił porę roku, w której zostały one dokonane. Okazało się, że 22 ważnych
wynalazków dokonano wiosną, 15 jesienią, 10 latem i 5 zimą35.
Budżety miast stanowią bogate źródło danych dla wielu badań z dziedziny nauk
społecznych. Robert Angell wykorzystał takie dane w swoich unikatowych badaniach
poświęconych integracji moralnej w amerykańskich miastach. Skonstruował on „wskaźnik
pomocy społecznej", obliczając wydatki per capita na pomoc społeczną. Miarę tę połączył ze
„wskaźnikiem przestępczości" opartym na danych FBI, tworząc globalny „wskaźnik
integracji"36. Dane na temat budżetu zostały wykorzystane jako wskaźniki aktywności w
zakresie polityki społecznej. Wydatki budżetu to dane na temat „kto otrzymuje co" z funduszy
publicznych, wpływy zaś pokazują, „kto za to płaci". Co ważniejsze, mechanizm budżetu
może zostać wykorzystany do oceny programów rządowych, ich kosztów, powiązania ze
źródłami finansowymi, wybierania pomiędzy alternatywnymi wydatkami i określania
finansowego wysiłku, jaki włożył rząd w rozwój tych programów. W klasycznym dziś
badaniu Otto Da-vis, M.A.H. Dempster i Aaron Wildavsky badali w kolejnych okresach
budżet federalny i wskazali na dwie zmienne, które mogą wyjaśniać corocznie większy
podział budżetu:
1. Coroczne zapotrzebowanie na pieniądze z budżetu wynika ze stałego procentu
przyznawanego przez Kongres w minionych latach oraz komponentu losowego w danym
roku;
34 Eugene J. Webb (1963), How to Tell a Columnist, „Columbia Journalism Review",
2, s. 20.
35 Webb i in., Nonreactive Measures, s. 72.
36 Robert C. Angell (1951), The Morał Integration of American Cities, „American
Journal of So-ciobiology", 57, s. 1-140.
337
2. Na przyznane w określonym roku przez Kongres pieniądze składają się: stały
procent złożonego zapotrzebowania w danym roku oraz składowa odzwierciedlająca różnicę
pomiędzy Kongresem a instytucją składającą zapotrzebowanie, jaka wystąpiła w poprzednim
roku37.
Mass media. Mass media tworzą najłatwiej dostępny zbiór danych. Mass media
rejestrują werbalne zachowania ludzi, a badacze analizują te zachowania i testują twierdzenia
ogólne. Metoda analizy treści, którą skrótowo przedstawiamy niżej, pozwala badaczom na
szerokie stosowanie mass mediów jako podstawowego źródła danych. Badania
wykorzystujące dane z mass mediów mogą być bardzo różnorodne38. Przedstawimy tu tylko
jeden przykład. Giną Daddario analizowała opisy i komentarze sprawozdawców sportowych
wygłaszane podczas komentowania dyscyplin kobiecych na olimpiadzie zimowej w 1992
roku. Otrzymane przez nią wyniki wskazują, że styl komentarzy oraz język ukazują
atletycznie zbudowaną kobietę raczej jako postać odpowiadającą wizerunkowi idealnej
kobiety niż osobę, która uprawia sport, i to niezależnie od pokazujących się na ekranie
zdarzeń czy działań wymagających siły fizycznej i zaprzeczających stereotypowemu
obrazowi kobiecości. Na koniec stwierdziła ona, że nieadekwatne odwoływanie się do
kobiecości w kometarzach sportowych wpływa na marginalizację sportów kobiecych39.
Dokumenty osobiste
Do dokumentów osobistych jest znacznie trudniej dotrzeć niż do dokumentów
oficjalnych. Mimo to mogą one stanowić wartościowe źródło danych dla tych wszystkich
badaczy, których interesuje indywidualny punkt widzenia na określone sytuacje czy
wydarzenia. Do dokumentów osobistych zaliczamy autobiografie, pamiętniki, opowiadania,
listy itp. Autobiografie to najczęściej spotykane dokumenty osobiste. Można w nich znaleźć
własną interpretację doświadczeń autora. Pamiętniki (dzienniki) mają charakter bardziej
spontaniczny, gdyż zazwyczaj autor czuje się mniej związany pewnego rodzaju misją, która
często wyznacza sposób pisania autobiografii. Zarówno autobiografie, jak i pamiętniki są
pierwotnie przeznaczane dla jednej osoby — autora. Z kolei listy są własnością dwóch stron
— autora i odbiorcy — i często są wyrazem związków zachodzących między nimi40. Te trzy
rodzaje dokumentów osobistych koncentrują się na osobistych doświadczeniach autorów i są
wyrazem ich osobistych refleksji. Najczęściej powstają z własnej inicjatywy autora. Jednym z
podstawowych problemów związanych z korzystaniem z dokumentów osobistych jest pytanie
dotyczące ich autentyczności. Zazwyczaj spotyka się dwa rodzaje nieautentycznych
dokumentów: dokumenty, które stworzono w celu świadomego oszustwa, oraz dokumenty,
które nieświadomie źle zinterpretowano. Dokumenty najczęściej fałszuje się z chęci zdobycia
prestiżu lub nagrody material-
37 Otto A. Davis, M.A.H. Dempster, Aaron Wildavsky (1966), A Theory of
Budgetary Process, „American Political Science Review", 60, s. 529-547.
38 Liczne badania z wykorzystaniem danych pochodzących z mass mediów można
znaleźć w pracy Webb i in., Nonreactive Measures.
39 Giną Daddario (1994), Chilly Sciences ofthe 1992 Winter Games: The Mass
Media and the Mar-ginalization of Female Athletes, „Sociology of Sport Journal", 11, s. 275-
288.
40 Norman K. Denzin (1989), The Research Act: A Theoretical Introduction to
Sociological Me-thods, wyd. 3, Englewood Cliffs, N.J.: Prentice Hall, rozdział 8.
338
nej. Osoby dobrze znające życie danej osoby mają większą szansę na sprzedanie
domniemanej biografii jakiemuś wydawnictwu. Taki los spotkał jedno ze znanych
wydawnictw, które w 1972 roku kupiło fałszywą biografię ekscentrycznego milionera
Howarda Hughesa.
Aby ustrzec się przed zakupem fałszywych dokumentów, można zastosować jedną z
następujących procedur. Po pierwsze, należy dokładnie zbadać autorstwo dokumentu. Po
drugie, należy ustalić datę pochodzenia dokumentu i zweryfikować inne daty, o których jest
mowa w tym dokumencie. Na przykład, jeżeli autor dokumentu opisuje konkretne
wydarzenie, powiedzmy powódź, to można sprawdzić autentyczność tego wydarzenia,
odwołując się do innych źródeł, chociażby do informacji, jakie w tym czasie znalazły się w
prasie. Jeżeli autor opisuje wydarzenie, które nie wystąpiło w czasie, w którym dokument
prawdopodobnie został napisany, to mamy podstawy wątpić w jego autentyczność.
Drugi rodzaj braku autentyczności jest znacznie trudniejszy do wykrycia. Chociaż
dokumenty nie muszą być fałszywe, mogą nie przedstawiać prawdy z następujących
powodów: autorzy listów, pamiętników czy autobiografii mogą nie pamiętać dokładnie
faktów, mogą się starać zadowolić lub rozbawić swoich czytelników, wyolbrzymiając to, co
opisują, lub też mogą się czuć zobowiązani do bycia w zgodzie z obowiązującymi
społecznymi normami i tym samym przedstawiać nieco zniekształcony obraz rzeczywistości.
Stuart Chapin twierdzi, że każdy badacz, zanim uzna jakiś dokument za autentyczny,
powinien najpierw odpowiedzieć na następujące pytania41:
1. Co autor rozumie przez konkretną wypowiedź? Czy faktyczny sens tej wypowiedzi
jest inny od sensu literackiego?
2. Czy wypowiedź została sformułowana w dobrej wierze? Czy autorem kierowało
uczucie sympatii czy antypatii? Może próżność? A może opinia publiczna?
3. Czy wypowiedź jest precyzyjna? Czy może autor był złym obserwatorem,
ponieważ nie był całkowicie sprawny umysłowo lub cierpiał na jakąś chorobę psychiczną?
Czy mógł się znaleźć w określonym czasie i miejscu, aby zaobserwować to, co opisuje? Czy
był nonszalancki? Czy był obojętny?
Kiedy badacz odpowie na te pytania, zdobędzie wskazówki pozwalające mu lepiej
ocenić zebrane dokumenty i wybrać tylko te, do których można mieć zaufanie.
Autobiografie. Unikatowość autobiografii polega na tym, że opisują one życie i
doświadczenia danej osoby, w postaci nieskażonej interpretacjami opisywanych wydarzeń
dokonywanymi przez inne osoby. Dzięki temu badacz może poznać cudze życie w jego
naturalnym przebiegu, poprzez bezpośredni opis wolny od zniekształcających wpływów.
Gordon Allport wprowadził rozróżnienie na trzy typy autobiografii, z których każdy
może być wykorzystywany do realizacji innych celów badawczych42. Pierwszy to
autobiografia pełna obejmująca całe życie danej osoby, począwszy od
41 Stuart F. Chapin (1979), Field Work and Social Research, New York: Ayer, s. 37
(wyd. 1 — 1920).
42 Gordon W. Allport (1941), The Use of Personal Documents in Psychological
Research, New York: Social Science Research Council.
339
najwcześniejszych wspomnień, i obejmująca większość jej przeżyć. Przykładem
pełnej autobiografii jest spisana przez Hellen Keller historia jej życia jako osoby niewidomej i
głuchoniemej. Drugim rodzajem autobiografii jest autobiografia tematyczna, w której autor
koncentruje się na jakimś aspekcie swojego życia. Edwin Sutherland, na przykład, analizował
tylko jeden aspekt życia profesjonalnego złodzieja:
Zasadniczą część tej książki stanowi opis złodziejskiego fachu dokonany przez osobę,
która przez ponad dwadzieścia lat uprawiała tę profesję. Opis ten uzyskano w następujący
sposób: najpierw złodziej napisał około dwóch trzecich objętości, realizując tematy i
odpowiadając na pytania, które zostały przeze mnie przygotowane; następnie spędziliśmy
około dwunastu tygodni, dyskutując przez siedem godzin tygodniowo o tym, co napisał. Po
każdej takiej konferencji zapisywałem dosłownie wszystko, co on powiedział w trakcie naszej
rozmowy43.
Trzecim rodzajem autobiografii jest autobiografia redagowana, będąca książkową
wersją czyichś wspomnień. Badacz wybiera z niej opis tylko takich doświadczeń, które mają
związek z jego problemem badawczym. Redagując materiał zebrany w autobiografii, badacz
klasyfikuje i strukturalizuje to, co zostało napisane, aby materiał dobrze ilustrował przyjęte
hipotezy badawcze.
Pamiętniki. Pamiętnik to najbardziej bezpośrednia relacja z życia jego autora. Pisane
w czasie, kiedy określone wydarzenia się działy, przekazują informacje o tym, co się
wydarzyło, bez zniekształceń spowodowanych pamięcią. Ludzie piszący dzienniki nie
obawiają się zazwyczaj reakcji opinii publicznej, dlatego piszą o wszystkim, co się zdarzyło i
co ich zdaniem ma znaczenie.
Pamiętniki (dzienniki) również można podzielić na trzy grupy. Do pierwszej należą
tzw. pamiętniki osobiste. Są to regularne zapiski subiektywnych odczuć i wrażeń,
prowadzone przez dłuższy czas. Drugi rodzaj, wspomnienia, są raczej mniej osobiste i pisane
są w stosunkowo krótkim czasie. Mają one charakter sprawozdania z indywidualnych
przeżyć. I wreszcie trzeci rodzaj, terminarze, również mają charakter mało osobisty i
zawierają zapis wydarzeń, spotkań, wizyt i innych sytuacji, które nastąpiły w określonym
czasie. Terminarz nie zawiera zazwyczaj subiektywnej oceny sytuacji, w jakiej odbyło się
wydarzenie.
Niektórzy badacze w naukach społecznych uważają pamiętniki osobiste za użyteczne
źródło danych, ponieważ zawierają one opis autentycznych wrażeń, i to zapisywanych w
dłuższym okresie. Na przykład w biografii poety Dylana Thomasa znalazł się fragment jego
pamiętników zawierający notatki na temat tworzonych utworów, uwagi na temat jego pozycji
finansowej oraz komentarze dotyczące jego stosunków ze światem artystycznym44.
Pamiętnik osobisty zawiera nie tylko chronologiczny opis wrażeń danej osoby zapisywanych
przez dłuższy czas, ale również pozwala na porównywanie różnych okresów z życia jego
autora i wychwytywanie ciągłości i zmian.
Edwin H. Sutherland (1988), The Profesional Thief, Chicago: University of Chicago
Press, s. v. Bill Read (1964), The Days ofDylan Thomas, New York: MacGraw-Hill.
340
Listy. Historycy i krytycy literaccy, odtwarzając życie jakiejś postaci historycznej czy
literackiej, w dużej mierze korzystają z listów. Jedną z najwcześniejszych prób wykorzystania
listów jako źródła danych w badaniach naukowych była praca Williama Thomasa i Floriana
Znanieckiego nad polskimi chłopami, którzy wyemigrowali do Stanów Zjednoczonych.
Autorzy zebrali listy przesyłane pomiędzy Polską aStanami Zjednoczonymi w latach 1901-
1914 i potraktowali je jako źródło danych w badaniu problemu emigracji społeczności
etnicznej. Listy te pozwoliły na zbadanie, między innymi, osobowości ich autorów oraz
rodzaju związków, jakie były utrzymywane pomiędzy nimi a osobami, które zostały w starym
kraju45.
Miary nieinwazyjne wykorzystywane w analizie danych wtórnych
¦ Wskaźniki fizyczne. Znaki zużycia obiektu (miary erozji) lub rzeczy (materiały)
pozostawione przez populację (miary przyrostu).
¦ Obserwacja prosta. Obserwacja prowadzona bez ingerowania w sytuacje
obserwowanych osób. Do obserwacji prostej zalicza się obserwację wyglądu zewnętrznego
ciała i znaków fizycznych, zachowań ekspresyjnych, zajmowanych pozycji fizycznych i
obserwację zachowań językowych.
¦ Dokumenty archiwalne. Dane zebrane z takich źródeł jak dane aktuarial-ne, rejestry
sądowe i dokumenty polityczne, dokumenty rządowe, medialne i dokumenty osobiste.
¦ Analiza treści
Dane otrzymane ze źródeł archiwalnych, dokumentów i z mass mediów są często
analizowane w sposób systematyczny przez badaczy. Listy, dzienniki, artykuły z gazet, zapisy
spotkań i reportaże na żywo (jak w przypadku zimowej olimpiady z 1992 roku, o czym
wspominaliśmy wyżej), filmy oraz widowiska radiowe i telewizyjne to źródła danych
wykorzystywanych w analizie treści — metodzie analizowania danych, ale też metodzie ich
zbierania. Zamiast bezpośredniego obserwowania zachowań ludzi lub zadawania im pytań
dotyczących tych zachowań można wykorzystać kopie tego, co ludzie wytworzyli, i zadać
pytania dotyczące tych zapisów. Podstawą wnioskowania jest treść przekazu. I tak na
przykład John Naisbitt w swojej pracy Megatrendy analizował bieżące prądy w zakresie
ekonomii, działań społecznych i polityki po to, aby na tej podstawie przewidywać przyszłe
trendy i kierunki46. W swoim badaniu zastosował analizę treści do ponad 2 milionów
artykułów o lokalnych wydarzeniach, opublikowanych w lokalnych gazetach w ca-
45 William I. Thomas, Florian Znaniecki (1976), Chłop polski w Europie i Ameryce,
t. 1-5, tłum. Anna Bartkowicz, Maryla Metelska, Endla Oengo-Knoche, Irena Wyrzykowska,
Warszawa: Ludowa Spółdzielnia Wydawnicza.
46 John Naisbitt (1997), Megatrendy. Dziesięć nowych kierunków zmieniających
nasze życie, tłum. Paweł Kwiatkowski, Poznań: Zysk i S-ka Wydawnictwo.
341
łym kraju w okresie dwunastu lat. Naisbitt stwierdził, między innymi, że pięć stanów
(Kalifornia, Floryda, Waszyngton, Kolorado i Connecticut) to stany, w których zaszło
najwięcej zmian o charakterze społecznym.
Analiza treści — definiowana swobodnie — to „każda technika wyprowadzania
wniosków na podstawie systematycznie i obiektywnie określanych cech przekazu"47.
Obiektywność tej metody wynika z przestrzegania przez wszystkich badaczy tych samych,
jasno określonych reguł gwarantujących, że różni badacze uzyskają takie same rezultaty z
analizowania takich samych przekazów czy dokumentów. Zatem w systematycznej analizie
treści „włączanie i wyłączanie treści odbywa się zgodnie z określonymi kryteriami selekcji.
Wymóg ten eleminuje takie analizy, w których uwzględnia się jedynie te materiały, które
potwierdzają hipotezę badacza"48.
Zastosowania analizy treści
Chociaż najczęściej przeprowadza się analizę treści na przekazach słownych, to można
ją wykorzystywać w sytuacjach, kiedy szuka się odpowiedzi na pytania dotyczące innych
aspektów komunikacji. Harold Lasswell tak określił podstawowe pytania stawiane przez
badaczy: „Kto, co mówi, do kogo i z jakim skutkiem?" Badacz może więc analizować
przekaz, aby sprawdzić hipotezę dotyczącą cech tekstu — tego, co zainspirowało komunikat
— oraz skutków komunikacji. Te trzy wymiary różnią się ze względu na rodzaj
analizowanych danych, uwzględnionych wymiarów komunikacji oraz zastosowanych planów
badawczych.
Analiza treści jest stosowana najczęściej wtedy, gdy trzeba opisać cechy przekazu. Na
przykład wczesne badania dotyczące zmian rewolucyjnych i tworzenia się relacji
interpersonalnych polegały na badaniu symboli politycznych. W badaniach tych plany
badawcze były dobierane tak, aby można było sprawdzić hipotezę o „światowej rewolucji" za
pomocą określania sposobów posługiwania się symbolami wyrażającymi podstawowe cele i
wartości współczesnej polityki. W jednym z badań poddano analizie artykuły wstępne
opublikowane w najbardziej prestiżowych gazetach wydawanych w Stanach Zjednoczonych,
w Anglii, Francji, Niemczech i w Związku Radzieckim, w okresie od 1890 do 1949 roku.
Artykuły, które się ukazały pierwszego i piętnastnego każdego miesiąca, zostały zakodowane
ze względu na obecność w nich 416 podstawowych symboli. Symbole te obejmowały 206
terminów geograficznych, takich jak nazwy państw i organizacji międzynarodowych i 210
terminów ideologicznych, takich jak równość, demokracja i komunizm. Kiedy pojawiał się
dany symbol, osoby kodujące punktowały go jako obecny i zaliczały związane z nim postawy
do jednej z trzech kategorii: aprobaty, dezaprobaty i stanowiska neutralnego. Aby prześledzić,
co się znajdowało w centrum zainteresowania i jakie wokół tego tworzyły się postawy,
autorzy badań przeanalizowali dane pochodzące z 19 553 artykułów wstępnych50.
Analiza treści to technika, którą można stosować również do analizowania in-
47 Ole R. Holsti (1968), Content Analysis, w: Gardney Lindzey, Elliot Aronson
(red.), The Hand-book of Social Psychology, Reading Mass.: Addison-Wesley, s. 601.
Przedstawione niżej opracowanie oparte jest właśnie na tej pracy.
48 Ibidem, s. 598.
49 Harold D. Lasswell (1965), Detection: Propaganda Detection and the Courts, w:
Harold D. Lasswell i in. (red.), The Language ofPolitics: Studies in Quantitative Semantics,
Cambridge, Mass.: MIT Press, s. 12.
50 Ithiel de Sola Pool (1981), Symbols of Democracy, Westport, Conn.: Greenwood
Press (wyd. 1 — 1952).
342
nych danych niż dane werbalne. Philip White i James Gillett przeanalizowali 916
reklam opublikowanych w popularnym magazynie poświęconym kulturystyce, a
zatytułowanym „Flex". Celem badania było określenie podstawowych tematów komunikacji.
Wyróżniono następujące tematy: ukazywanie czytelnika jako osobę gorszą (43% treści),
obietnice przemiany (64,5% treści) i przedstawianie muskularnego ciała jako dominującego
obrazu męskości (70,6%). Następnie, aby wyjaśnić otrzymane wyniki, badacze odwołali się
do modeli kulturowych i ideologicznych. Stwierdzili, że takie reklamy zastępują
rzeczywistość emocjami i że dla czytelników tego magazynu męska muskulatura jest
symbolem wyższości mężczyzn i formą kompensacji ograniczonych przywilejów w innych
obszarach. Ten proces z kolei podtrzymuje ideologię męskości, w której cechy biologiczne są
podstawą różnic w społeczno-kulturowym i ekonomicznym znaczeniu płci51.
Drugim obszarem zastosowań analizy treści — kto, co mówi, dlaczego i do kogo —
jest analiza tekstu pod kątem wyprowadzania wniosków o nadawcy komunikatu, jego
poprzednikach i przyczynach sformułowania tego komunikatu. Bardzo dobrze znanym
przykładem określania tożsamości nadawcy jest praca Frederica Mostellera i Davida
Wallace'a nad autorstwem numerów 49-58, 62 i 63 „Federalist Papers". Mosteller i Wallace
rozpoczęli od analizy następujących zbiorów dokumentów: tych, o których wiadomo było, że
zostały napisane przez Madisona, napisanych przez Madisona lub Hamiltona oraz napisanych
przez obu. Po przeanalizowaniu potwierdzonego zbioru dokumentów badaczom udało się
wyodrębnić słowa, którymi niezależnie posługiwali się obaj autorzy. I tak na przykład
Hamilton — w odróżnieniu od Madisona — miał tendencję do posługiwania się słowem
„dosyć". Mosteller i Wallace wykorzystali następnie owe różnicujące słowa kluczowe — w
połączeniu z innymi terminami — do określenia autorstwa spornych dokumentów. Otrzymane
rezultaty wyraźnie potwierdziły tezę, że ich autorem był Madison52. Ustalenia te pomogły
rozwiązać pytania natury historycznej dotyczące intelektualnego wkładu do Konstytucji.
Analiza treści była również wykorzystywana do wyprowadzania wniosków o
elementach kultury i zmianach kulturowych. David McClelland sprawdzał swoją teorię
„potrzeby osiągnięć", analizując treść dzieł literackich, które ukazały się w różnych krajach.
Według McClellanda osoba z wysoką potrzebą osiągnięć to osoba pragnąca sukcesu,
niekonformistyczna, lubiąca zadania zawierające element ryzyka. Wynikiem świadczącym o
potrzebie osiągnięć będzie zatem „suma obrazów czy idei osiągnięć", jaką można znaleźć w
dziełach literackich należących do określonej kultury. McClelland sformułował następującą
hipotezę: „Społeczeństwo, do którego należy stosunkowo duży procent osób z wysokim
wynikiem w zakresie potrzeby osiągnięć, będzie posiadało silną klasę przedsiębiorców,
aktywnych zwłaszcza w dziedzinie biznesu, dzięki czemu będzie ono coraz silniejsze i
bardziej wpływowe". Aby sprawdzić tę hipotezę, dokonał punktacji wybranych dzieł
literackich pochodzących z różnych okresów cywilizacji greckiej53.
51 Philip G. White, James Gillett (1994), Reading the Muscular Body, A Critical
Decoding of Ad-vertisements in Flex Magazine, „Sociology of Sport Journal", 11, s. 18-39.
52 Frederic Mosteller, David L. Wallace (1964), Inference and Disputed Authorship:
The Federalist, Reading, Mass.: Addison-Wesley.
51 David C. McClelland (1966), The Use of Measures of Humań Motivation in the
Study ofSociety, w: John W. Atkinson (red.), Motives in Fantasy, Action and Society, New
York: Van Nostrand, s. 518.
343
Trzecim podstawowym zastosowaniem analizy treści jest wyprowadzanie wniosków
na temat skutków, jakie dany przekaz wywiera na jego odbiorę. Badacz określa skutki
przekazu A na B, analizując treść przekazu ze strony B. Można też badać efekty komunikacji,
analizując inne elementy zachowania odbiorcy. Podsumowując, analiza treści pomaga
określić istotne zmienne niezależne dotyczące zachowania odbiorcy w procesie
komunikowania się.
Trzy zastosowania analizy treści
¦ Opis cech przekazu.
¦ Wyprowadzanie wniosków o nadawcy przekazu, jego poprzednikach
lub
przyczynach sformułowania przekazu.
¦ Wyprowadzanie wniosków o skutkach, jakie dany przekaz wywiera
na
jego odbiorców.
Jednostki i kategorie
Analiza treści to interakcja dwóch procesów: określania cech treści, które badacz chce
mierzyć, i wykorzystania reguł, które badacz musi zastosować, aby ustalić i zapisać cechy
analizowanego tekstu. Kategorie wykorzystywane do kodowania treści różnią się ze względu
na rodzaj danych i stawiane cele badawcze. Zanim omówimy ogólne procedury
konstruowania takich kategorii, przedstawimy pojęcie jednostki analizy wykorzystywanej w
badaniach i wprowadzimy rozróżnienie pomiędzy jednostką analizy a jednostką kontekstu.
Jednostka analizy jest to najmniejszy element treści, który występuje w przekazie. Jednostką
kontekstu natomiast jest większy fragment treści, który można analizować w trakcie
charakteryzowania jednostek analizy. Jednostkami analizy mogą być pojedyncze terminy.
Aby jednak można było określić, czy terminy te mają zabarwienie pozytywne, badacz musi
przeanalizować całe zdanie (jednostkę kontekstu), w którym znajduje się to słowo. Zatem
analizując dany termin (i go kodując), badacz bierze pod uwagę całe zdanie.
Można wyróżnić pięć podstawowych kategorii jednostek analizy: słowa czy terminy,
tematy, postacie, akapity i pozycje. Słowo to najmniejsza jednostka, najczęściej też
wykorzystywana w badaniach. Kiedy jednostką analizy jest słowo, sporządza się listę
częstości pojawiania się określonych słów lub terminów. Dla wielu celów badawczych
użyteczną jednostką analizy jest temat, zwłaszcza w badaniach nad propagandą, w badaniach
postaw, wyobrażeń czy wartości. W najprostszej postaci temat jest prostym zdaniem, tj.
zdaniem zawierającym podmiot i orzeczenie. Ponieważ w większości tekstów tematy można
określić w członach zdań lub akapitach, badacz musi więc określić, co ma brać pod uwagę
osoba kodująca wykorzystująca temat jako jednostkę analizy. Na przykład osoba kodująca
może zapisywać jedynie pierwszy temat pojawiający się w danym akapicie lub też każdy
temat pojawiający się w tekście.
W niektórych badaniach jednostką analizy są postacie. Wówczas badacz ustala liczbę
osób pojawiających się w tekście, a nie liczbę słów czy tematów. Taki wybór pozwala na
analizowanie cech osobowości postaci przedstawianych w różnych tekstach.
344
Akapit jest rzadko stosowaną jednostką analizy ze względu na jego złożoność. Osoby
kodujące mają zazwyczaj trudności w klasyfikowaniu i kodowaniu licznych i zróżnicowanych
elementów znajdujących się w pojedynczym paragrafie.
Pozycją jest z kolei cala, wykorzystywana przez badacza praca. Pozycją może być cała
książka, artykuł, przemówienie itp. Analiza całych pozycji jest szczególnie przydatna, gdy
zróżnicowanie w ramach poszczególnych pozycji jest niewielkie i nieistotne. Arykuły
gazetowe mogą na przykład zostać podzielone według ich tematyki na artykuły kryminalne,
dotyczące rynku pracy czy sportu.
Na koniec jednostki analizy zostają poklasyfikowane na kategorie. Konstruowanie
kategorii, jak wskazuje Bernard Berelson, jest najważniejszym etapem analizy treści:
To, czy analiza treści kończy się powodzeniem czy niepowodzeniem, zależy od
zastosowanych kategorii. Prowadzone badania okazały się owocne w takim zakresie, w jakim
wykorzystane kategorie były jasno sformułowane i dobrze przystawały do badanego
problemu i analizowanej treści. Badania z wykorzystaniem analizy treści, oparte na doraźnie
formułowanych podstawach, bez jasno określonego problemu badawczego i z niejasno
sformułowanymi kategoriami prawie na pewno okażą się nieistotne z punktu widzenia ich
wkładu do nauki [...] Ponieważ kategorie są istotą badań, analiza treści nie może być lepsza
od systemu stosowanych przez siebie kategorii54.
W analizie treści najczęściej stosuje się następujące kategorie55: Kategorie typu „co
zostało powiedziane"
Przedmiot: Czego dotyczy komunikat?
Kierunek: W jaki sposób przedmiot został przedstawiony (pozytywnie czy
negatywnie)?
Podstawy: Na jakich podstawach dokonano klasyfikacji?
Wartości: Jakie wartości, cele czy pragnienia zostały ujawnione?
Metody: Za pomocą jakich metod można osiągnąć cele?
Cechy: Za pomocą jakich cech opisuje się ludzi?
Aktor: Kto podejmuje określone działania?
Autorytet: W czyim imieniu formułowane są określone wypowiedzi?
Początek: Gdzie rozpoczął się komunikat?
Mieisce: Gdzie przebiegają określone działania?
Konflikt: Jakie są źródła i poziomy konfliktu?
Zakończenie: Czy konflikty kończą się szczęśliwie, bez rozwiązania czy tragicznie?
Czas: Kiedy określone działanie nastąpiło?
Kategorie typu „jak to zostało powiedziane"
Formy lub rodzaje komunikacji: W jaki sposób przekazano komunikat (radio, gazeta,
rozmowa, telewizja itp.)?
Forma wypowiedzi: Jaka jest gramatyczna czy syntaktyczna forma wypowiedzi?
Środki: Jakie wykorzystano środki retoryczne lub perswazyjne?
54 Bernard Berelson (1971), Content Analysis in Communication Research, New
York: Hafner, s. 147.
55 Holsti, Content Analysis.
345
Kategorie muszą być powiązane z celem badania, muszą być wyczerpujące i
wzajemnie rozłączne. Dzięki temu, że kategorie są wyczerpujące, każda jednostka analizy
może zostać gdzieś zaklasyfikowana. Warunek wzajemnej rozłączności oznacza natomiast, że
żadna jednostka analizy nie może zostać zaliczona do więcej niż jednej kategorii w ramach
danego systemu (por. rozdział 14). Badacz musi również wyraźnie określić kryteria zaliczania
określonych jednostek analizy do każdej z kategorii. W ten sposób możliwa staje się
replikacja, czyli podstawowe wymaganie obiektywnej i systematycznej analizy treści.
Większość z badań wykorzystujących analizę treści to badania mniej czy bardziej
ilościowe. Aby analiza ilościowa była możliwa, należy zastosować jeden z poniższych
systemów enumeracji:
1. System czasowo-przestrzenny oparty na pomiarach przestrzeni (na przykład
szerokości kolumny tekstu) lub wykorzystujący jednostki czasu (na przykład liczbę minut
poświęconych określonej wiadomości nadanej przez radio). Ten system pozwala opisać
względne znaczenie różnych kategorii w analizowanym materiale.
2. System oparty na występowaniu cech, w którym osoby kodujące poszukują
materiału świadczącego o obecności pewnych cech. Wielkość jednostki kontekstowej
wyznacza częstotliwość, z jaką powtarzające się jednostki analizy pozostające blisko siebie
będą niezależnie liczone.
3. System częstościowy, w którym zlicza się każde pojawienie się określonej cechy.
4. System oparty na analizowaniu stopnia nasilenia, który jest generalnie stosowany w
badaniach dotyczących postaw i wartości.
Metody kwantyfikacji w badaniu stopnia nasilenia polegają na konstruowaniu skal
(por. rozdział 18). Na przykład posługując się techniką porównywania par opracowaną przez
Thurstone'a, można określić, która para wskaźników nasilenia lokuje się wyżej na skali
postaw. Otrzymane oceny są następnie wykorzystywane do konstruowania kategorii, do
których zaliczane będą jednostki analizy56.
¦ Podsumowanie
1. Wtórna analiza jest przeprowadzana na danych zebranych przez inne osoby. W
niektórych badaniach dane wtórne mogą stanowić jedyne dostępne źródło danych. Można je
również wykorzystywać do celów porównawczych. Wtórna analiza danych ma wiele zalet:
stwarza możliwość replikacji badań, umożliwia stosowanie longitudinalnych planów
badawczych, może poprawić pomiar niektórych zmiennych i często umożliwia zwiększenie
wielkości badanej próby. Uzyskanie danych wtórnych jest zdecydowanie mniej kosztowne w
porównaniu z danymi pierwotnymi.
56 Najbardziej współczesnym kierunkiem rozwoju analizy treści jest tworzenie
programów komputerowych pozwalających na przeprowadzanie różnorodnych operacji
stosowanych w analizie tekstu. Omówienie tego problemu wykracza poza zakres tej książki,
ale osobom zainteresowanym polecamy pracę Roberta F. Webera (1990), Basic Content
Analysis, Thousand Oaks, Calif.: Sagę.
346
2. Szeroko stosowanym źródłem danych wtórnych są dane statytystyczne, zwłaszcza
pochodzące ze spisów ludności przeprowadzanych przez rząd dla potrzeb administracyjnych i
publicznych. Dane ze spisu ludności są wykorzystywane do określania, między innymi,
struktury gospodarstw domowych, badania cech charakterystycznych sąsiedztwa i rodzajów
problemów mieszkaniowych, czy też struktury rodziny. Drukowane raporty statystyczne,
czyli pierwotne źródło danych spisowych, są łatwo dostępne i wygodne w użyciu. Dla
użytkowników, którzy potrzebują bardziej szczegółowych danych lub danych opracowanych
dla mniejszych obszarów geograficznych niż w drukowanych raportach, Urząd Statystyczny
rozprowadza dane również w postaci taśm magnetofonowych. Urząd Statystyczny zaczyna
też do tego celu wykorzystywać CD-ROM-y.
3. Miary nieinwazyjne to kolejne źródło danych oddzielające badacza od badanej
przez niego populacji. W trakcie dokonywania pomiarów nieinwazyjnych osoby badane nie
zdają sobie sprawy, że uczestniczą w badaniu, i w związku z tym istnieje małe
prawdopodobieństwo, że akt pomiaru jako taki będzie wymuszał zmiany zachowania osób
badanych lub będzie się przyczyniać do grania przez nich jakiejś roli, zmieniając dane.
Omówiliśmy trzy źródła danych nieinwazyjnych: ślady fizyczne, obserwację prostą i
materiały archiwalne.
4. Ludzie zostawiają za sobą ślady fizyczne, nie myśląc, że kiedyś mogą zostać one
wykorzystane przez badaczy. Podstawowe dwie kategorie śladów fizycznych stanowią miary
erozji i miary przyrostu. Miary erozji to znaki świadczące o stopniu zużycia obiektów,
stanowiące wskaźniki aktywności populacji. Na miary przyrostu składają się natomiast rzeczy
i materiały pozostawione przez populację.
5. O obserwacji prostej mówimy wtedy, gdy obserwator nie kontroluje badanego
zachowania i sam nie jest spostrzegany w trakcie dokonywania obserwacji. Możemy
wyróżnić cztery rodzaje obserwacji prostej: obserwację wyglądu zewnętrznego ciała i znaków
fizycznych, obserwację zachowań ekspresyjnych, obserwację zajmowanych pozycji
fizycznych i obserwację zachowań językowych.
6. Inną grupę miar nieinwazyjnych stanowią dane uzyskane na podstawie analizy
materiałów i dokumentów archiwalnych. Dane tego typu można otrzymać, analizując tak
różnorodne źródła, jak dane aktuarialne, rejestry sądowe i dokumenty polityczne, dokumenty
rządowe, dane z mass mediów czy wreszcie dokumenty osobiste takie, jak autobiografie,
dzienniki i listy. Podstawowym problemem związanym z analizowaniem dokumentów
osobistych jest problem ich autentyczności. Badacze muszą określić, czy opisane przez autora
wydarzenia zostały przez niego świadomie lub nieświadomie błędnie przedstawione.
7. Analiza treści pozwala badaczom na prowadzenie systematycznej analizy danych
uzyskanych ze źródeł i dokumentów archiwalnych. Zamiast bezpośredniego obserwowania
ludzkich zachowań, czy też pytania o nie, badacz może się odwołać do tego, co ludzie mają
sobie do powiedzenia i zadać pytania dotyczące treści takich komunikatów. Procedura analizy
treści to interakcja dwóch procedur: określania przez badaczy cech analizowanego materiału i
wyszukiwanie tych cech w badanym tekście. Oczywiście kategorie będące podstawą
kodowania treści różnią się w zależności od natury problemu badawczego i wykorzystanych
danych.
347
¦ Podstawowe terminy
analiza treści 342 miejsca objęte spisem 328
analiza zajmowanych pozycji obserwacja prosta 333
fizycznych 334 pełny spis 327
autentyczność 338 pomiar erozji 333
dane aktuarialne 336 pomiar nieinwazyjny 333
jednostka analizy 344 pomiar przyrostu 333
jednostka kontekstu 344 ścieżki spisowe 328 metropolitalne
obszary statystyczne 328
¦ Pytania sprawdzajgce
1. Jakie są korzyści wynikające z wtórnej analizy danych?
2. Zaproponuj problem badawczy i określ, w jaki sposób można otrzymać
odpowiadające twoim hipotezom dane wtórne.
3. Zdefiniuj podstawowe rodzaje danych pochodzących ze spisu ludności i wskaż
cele badawcze, dla których są one najbardziej odpowiednie.
4. Wyjaśnij różnice w metodologii badań za pomocą obserwacji prostej i obserwacji
w warunkach eksperymentalnych.
5. Omów podstawowe problemy metodologiczne związane z analizą treści i
przedstaw sposoby ich rozwiązania.
¦ Literatura dodatkowa
Lutyński J. (1994), Metody badań społecznych. Wybrane zagadnienia (red., wstęp,
opracowanie K. Lu-
tyńska). Łódź: ŁTN. Mayntz R., Holm K., Hubner P. (1985), Wprowadzenie do metod
socjologii empirycznej, Warszawa:
PWN. Rzepa T. (red.) (1993), O biografii i metodzie biograficznej, Poznań: NAKOM.
Sulek A. (1990), W terenie, w archiwum i w laboratorium. Studia nad warsztatem socjologa,
Warszawa:
Wyd. UW. Sułek A., Nowak K., Wyka A. (red.) (1989), Poza granicami socjologii
ankietowej, Warszawa: Wyd.
UW. Włodarek J., Ziółkowski M. (red.) (1990), Metoda biograficzna w socjologii,
Poznań: PWN.
33
otrzymać odpisu ludności ednie.
prostej i ob-
analizą treści
icowanie K. Lu-;nej, Warszawa:
oga, Warszawa: 'arszawa: Wyd. 'WN.
CZĘSC IV
PRZETWARZANIE I ANALIZOWANIE DANYCH
Rozdział 14
Przygotowanie i analiza danych
Schematy kodowania 352
Reguły kodowania 352
Konstruowanie zeszytów kodowych 357
Rzetelność kodowania i rzetelność sposobów wprowadzania danych 359 Rzetelność
kodowania 359 Sposoby wprowadzania danych 361 Przeglądanie i czyszczenie danych
363
Wykorzystywanie komputerów w naukach społecznych 365
Rodzaje komputerów 365 Komputery pracujące w sieci 366
Podsumowanie 366
Podstawowe terminy 367
Pytania sprawdzające 367
Ćwiczenia komputerowe 367
Literatura dodatkowa 368
Urząd statystyczny potrzebował około siedmiu łat, aby opracować i stabelaryzować
dane zebrane w czasie dziesiątego spisu ludności przeprowadzonego w 1880 roku. Zanim
pracę tę ukończono dziesięć lat później, posiadane informacje były już w zasadzie zbyt
przestarzałe, aby można je było wykorzystać dla celów polityki podatkowej czy ocenić na ich
podstawie preferencje polityczne. Stało się jasne, że Urząd Statystyczny musi opracować
nowe techniki, aby dane dotyczące populacji Amerykanów były szybciej dostępne. Herman
Hollerith, pracownik Urzędu, skonstruował elektryczną maszynę liczącą, która w 1890 roku
— w czasie jedenastego spisu ludności — umożliwiła opracowanie i stabelaryzowanie danych
w ciągu dwóch i pół roku. Urządzenie Holleritha „rejestrowało dane dzięki wykorzystaniu
prądu elektrycznego, który przełączał proste, podobne do zegara urządzenie liczące. Kiedy
prąd przepływał przez otwór w kartoniku nie przewodzącym prądu, elektromagnes aktywował
licznik impulsów"'.
Teraz, kiedy Urząd Statystyczny przygotowuje się do dwudziestego drugiego spisu
ludności, który ma być przeprowadzony w 2000 roku, elektryczna maszyna licząca Holleritha
wydaje się reliktem przeszłości. W roku 1890 urządzenie Holleritha mogło na przykład
przetworzyć od 10 000 do 20 000 kart dziennie, podczas gdy aparatura komputerowa, którą
dzisiaj dysponuje Urząd Statystyczny, może przetworzyć około miliona danych w ciągu
minuty.
Historia ta pokazuje, jak bardzo — w porównaniu ze spisem z 1890 roku — zostały
udoskonalone metody opracowywania i analizowania danych. W tym rozdziale przedstawimy
powszechnie stosowane współczesne metody wstępnego opracowywania i kodowania danych.
Omówimy metody kodowania dedukcyjnego — gdy zasady kodowania są wyprowadzane z
teorii — oraz indukcyjnego — gdy źródłem budowanych kategorii są dane — a także
przedstawimy zasady kodowania oraz zasady tworzenia zeszytów kodowych.
Przeanalizujemy również problem rzetelności kodowania i wskażemy, za pomocą jakich
metod można tę rzetelność zwiększyć. Na koniec opiszemy różne sposoby kodowania oraz
omówimy wykorzystanie komputerów w procesie przechowywania, przetwarzania i
analizowania zbiorów danych.
Dane wykorzystywane współcześnie są prawie zawsze kodowane, przechowywane,
wyszukiwane i analizowane za pomocą systemów komputerowych. Bez względu na to, czy
korzysta się z komputerów osobistych, minikomputerów czy komputerów profesjonalnych,
logika zbierania i opracowywania danych jest podobna. W rozdziale tym przedstawimy też
najczęściej spotykane metody przetwarzania danych w procesie kodowania i tworzenia
zeszytów kodowych. Przyporządkowanie kodów liczbowych zebranym danym zwiększa
możliwości wykorzystania komputerów w procesie ich wyszukiwania i analizowania.
1 George E. Biles, Alfred A. Bolton, Bernadettę DiRe (1989), Herman Hollerith:
Inventor, Manager, Entrepreneur — A Centennial Remembrance. „The Journal of
Management", 15, s. 603-615.
351
¦ Schematy kodowania
Jak przekonaliśmy się w rozdziale 6, pomiar polega na tworzeniu zasad
przyporządkowywania liczb obserwacjom. Przyporządkowanie może być całkowicie
arbitralne (jak w przypadku zmiennych nominalnych), czy też może odzwierciedlać
uporządkowanie danych porządkowych lub interwałowych. Liczba przypisana obserwacji
nazywana jest kodem. Wszystkim przypadkom lub jednostkom spełniającym te same warunki
przypisuje się te same kody. Na przykład, jeżeli kod „1" oznacza „kobietę", to kodując dane
dla zmiennej płci, należy przyporządkować 1 wszystkim kobietom. Znaczenie każdego kodu
powinno zostać objaśnione w zeszycie kodowym, który należy dołączyć do każdego zbioru
danych. W tej części omówimy, w jaki sposób badacze przypisują kody zgromadzonym
danym.
Kody mogą być również wykorzystywane do grupowania danych dotyczących
określonego pojęcia. Przypuśćmy, że badacz zebrał informacje dotyczące zawodów kilkuset
osób badanych. Poniżej pokazujemy przykład listy zarejestrowanych zawodów:
Prawnik
Fryzjer
Stolarz
Makler
Operator dźwigu
Weterynarz
Pielęgniarka
Sezonowy pracownik rolny
Pracownik szczebla kierowniczego
Inżynier
Elektryk
Pracownik agencji reklamowej
Zanim dane te będzie można przeanalizować, należy poszczególne zawody
pogrupować w kategorie. Poniżej przedstawiamy jeden z możliwych sposobów klasyfikacji
zawodów:
1. Wolne zawody i osoby zatrudnione na szczeblu kierowniczym: prawnik,
weterynarz, pracownik szczebla kierowniczego, inżynier.
2. Pracownicy techniczni i sprzedawcy: pracownik agencji reklamowej, makler.
3. Pracownicy sektora usług i robotnicy wykwalifikowani: fryzjer, stolarz, operator
dźwigu, pielęgniarka, elektryk.
4. Robotnicy niewykwalifikowani: sezonowy pracownik rolny.
Ten system kategoryzowania zawodów uwzględnia poziom dochodów, prestiż oraz
wykształcenie i pozwala badaczom na posługiwanie się w analizach czterema dobrze
zdefiniowanymi kategoriami zawodów, zamiast kilkunastoma konkretnymi zawodami.
Systemy kategorii, takie jak wyżej przedstawiony, wykorzystywane w procesie
klasyfikowania odpowiedzi czy zachowań odnoszących się do pojedynczej pozycji
kwestionariusza lub pojedynczej zmiennej, nazywane są schematami kodowania. Poniżej
omawiamy zasady konstruowania takich schematów.
Reguły kodowania
Ponieważ kodowanie jest procesem przyporządkowywania danych do zdefiniowanych
wcześniej kategorii, więc pierwszym etapem kodowania jest nadanie intuicyjnego znaczenia
wykorzystywanym liczbom. Na przykład wyższe wyniki powinny
nej 28 być w
nie
„2 ry na
la pa
352
otrzymywać wyższe kody niż wyniki niższe. Zasadę tę najłatwiej ukazać na danych
interwałowych. Osobie starszej od innej osoby należy przypisać wyższy kod dla zmiennej
wieku. Osoba mająca 28 lat powinna intuicyjnie otrzymać kod dla wieku równy 28. Osoba
mająca 46 lat powinna zatem otrzymać wyższy kod niż osoba 28-letnia — być może 46,
gdyby kodowanie odbywało się w latach. Nawet wtedy, gdy kategorie wieku mają charakter
porządkowy, wyższa wartość kodowa powinna być związana z wyższym wiekiem. Na tym
właśnie polega nadawanie intuicyjnego znaczenia.
W przypadku niektórych zmiennych (zmiennych nominalnych) trudno intuicyjnie
uzasadnić wybrany sposób przypisywania liczb. Osoba, której przypisano kod t2" dla
zmiennej płci (kobiety) nie „ma" więcej płci w porównaniu z osobami, którym przypisano
kod „1" (mężczyźni). Co więcej, to, czy przypiszemy im 6 i 4 lub nawet 4 i 6, nie ma żadnego
znaczenia. Aby jednak zapewnić rzetelność systemu kodowania, będziecie prawdopodobnie
chcieli ograniczyć numery kodowe do liczb rozpoczynających się od 0 i zwiększających się o
jeden dla każdej następnej kategorii. Przypisywanie kolejnych wartości liczbowych,
począwszy od 0 czy 1, pozwala minimalizować ryzyko opuszczenia jakichś kategorii w
trakcie kodowania (por. paragraf zatytułowany „Przeglądanie i czyszczenie danych" dalej w
tym rozdziale).
Teoria i kodowanie dedukcyjne. Intuicja badacza to jeden z kilku czynników istotnych
w procesie podejmowania decyzji dotyczących kodowania. Należy również uwzględnić
teorię, zasadę wzajemnego wykluczania się, zasadę wyczerpywalności oraz problem
szczegółowości. Badacze angażujący się w badania ilościowe najczęściej testują hipotezy
wyprowadzone z teorii. Dlatego też system kodowania, jakim się posługują, powinien być
powiązany z teorią, którą zamierzają potwierdzić lub sfalsyfikować. Analiza teorii pozwala
badaczowi określić typ odpowiedzi, jakich może oczekiwać od osób badanych. Wiele
badanych problemów to problemy wielowymiarowe wymagające stworzenia niezależnych
kategorii dla każdego wymiaru. Na przykład badacz zainteresowany badaniem liberalizmu
może wnioskować na podstawie teorii, że jest to zjawisko wielowymiarowe. Osoba, którą
można określić jako liberalną w sprawach społecznych (np. ktoś, kto przyznaje kobietom
prawo do kontroli urodzin), może nie być człowiekiem liberalnym w sprawach finansowych
(np. ta sama osoba może uważać, że rząd nie powinien dofinansowywać środków
antykoncepcyjnych). W tym przypadku wysoki wynik dla zmiennej liberalizmu społecznego
nie będzie korelował z wysokim wynikiem dla zmiennej liberalizmu finansowego. Badacz
powinien zatem stworzyć kategorie zarówno dla zmiennej liberalizmu społecznego, jak i dla
zmiennej liberalizmu finansowego.
Rzeczywiste kategorie, które badacz tworzy, muszą się wzajemnie wyłączać i być
wyczerpujące. Oznacza to, że każda odpowiedź może zostać zaliczona tylko do jednej
kategorii (rozłączność) i że każda musi zostać zaliczona do jakiejś kategorii
(wyczerpywalnośc). Badacze muszą się również upewnić, że wybrane przez nich kategorie
nie są zbyt szerokie, a ważne różnice nie uległy zatarciu (szczegółowość).
Rozłączność. Zgodnie z regułą rozłączności opracowane dla każdej zmiennej
kategorie powinny być tak zaprojektowane, aby każdy przypadek czy jednostka analizy
mogły być zaliczone do jednej i tylko jednej kategorii. Rozważmy na przykład następujące
kategorie opisujące warunki mieszkaniowe studentów:
353
1) mieszka w domu studenckim,
2) mieszka z rodzicami,
3) mieszka poza miasteczkiem uniwersyteckim,
4) mieszka z małżonkiem.
Kategorie te nie wyłączają się wzajemnie, ponieważ studenci, którzy mieszkają ze
swoimi rodzicami, najczęściej mieszkają poza miasteczkiem uniwersyteckim, a studenci
mieszkający ze współmałżonkiem mogą mieszkać zarówno w domu studenckim, jak i poza
miasteczkiem uniwersyteckim. Respondenci mogą zatem mieć kłopot z wyborem tej
kategorii, którą powinni zaznaczyć, a osoby mieszkające w takich samych warunkach mogą
wybrać różne kategorie. Cel badań oraz teoria, z której wyprowadzono pytania badawcze,
pomagają dookreślić wybrane kategorie. Jeżeli chcemy się dowiedzieć, czy studenci
pozostający pod kontrolą dorosłych, pod kontrolą częściową lub bez żadnej kontroli ze strony
dorosłych różnią się ze względu na ich funkcjonowanie akademickie, to możemy zastosować
następujące kategorie:
1) mieszka z rodzicami (kontrola dorosłych),
2) mieszka w domu studenckim (częściowa kontrola),
3) mieszka poza miasteczkiem uniwersyteckim albo samodzielnie, albo z
przyjaciółmi, albo z małżonkiem (bez kontroli).
Wyczerpywalność. Reguła wyczerpywalności nakazuje, aby liczba kategorii byta
wystarczająca i obejmowała wszystkie możliwe odpowiedzi respondentów —każda
odpowiedź czy zachowanie powinno zostać sklasyfikowane bez nadmiernego rozszerzania
kategorii „inne". Teoria i znajomość badanej próby pomagają badaczom spełnić warunek
wyczerpywalności. Przykładem braku wyczerpywalności jest popularna klasyfikacja stanu
cywilnego na cztery kategorie: „żonaty/zamężna", „stanu wolnego", „rozwiedziony(a)",
„wdowiec/wdowa". Ponieważ respondenci mieszkający razem i nie będący w formalnym
związku nie mogą się zaliczyć do żadnej z tych kategorii, zatem warunek wyczerpywalności
nie jest w tym przypadku spełniony. Gdyby badana próba składała się jedynie z uczniów
szkół średnich, to ten schemat kodowania nie tylko nie byłby wyczerpujący, ale przede
wszystkim byłby niemeryto-ryczny (zmienna stałaby się stałą), gdyż wszyscy uczniowie
byliby stanu wolnego.
Szczegółowość. Szczegółowość kategorii wykorzystanych w schemacie kodowania
zależy od pytania badawczego, można jednak i tu sformułować pewne zasady ogólne. Po
pierwsze, jeżeli masz wątpliwości, dodaj następną kategorię. Możesz zawsze rozdzielić
kategorie, uogólniając odpowiedzi (por. dodatek A, w którym przedstawiono przykład takiego
właśnie zabiegu przy wykorzystaniu pakietu statystycznego SPSS). Nie możesz jednak
podzielić odpowiedzi zakodowanych na zbyt ogólnym poziomie. Po drugie, teoria i twoja
wiedza na temat badanego obszaru i badanej próby również może zostać wykorzystana przy
określaniu poziomu szczegółowości kategorii. Zadawanie lekarzom pytania o to, czy ich
zarobki mieszczą się w następujących kategoriach: poniżej 5000$, od 5000$ do 10000$, od
10000$ do 15 000$, od 15 000$ do 20000$ i powyżej 20000$, jest bez sensu, ponieważ taki
poziom szczegółowości kategorii jest dobry w wypadku badania ludzi biednych.
354
Kodowanie dedukcyjne pozwala badaczom na wykorzystanie teorii w procesie
konstruowania kategorii, zanim zbadają oni danym narzędziem próbę respondentów. Badacze
wykorzystujący kodowanie dedukcyjne często przeprowadzają badanie wstępne na małej
próbie osób pochodzących z interesującej ich populacji, aby tak zmodyfikować kategorie
wyprowadzone z teorii, by odpowiadały one badanej populacji. Pytania zamknięte są
przykładem wstępnego kodowania, w którym odpowiedzi są bezpośrednio przekładane na
kategorie.
Kodowanie indukcyjne. Kiedy badanie ma charakter eksploracyjny lub kiedy brak jest
teorii pozwalającej badaczowi wyciągnąć wnioski na temat spodziewanych odpowiedzi osób
badanych, właściwą metodą może być kodowanie indukcyjne. W kodowaniu indukcyjnym
badacz tworzy schemat kodowania na podstawie reprezentatywnej próbki odpowiedzi na dane
pytanie (zwłaszcza pytania otwarte), na podstawie danych z dokumentów lub danych
zebranych w trakcie obserwacji uczestniczącej (por. rozdział 12). Gdy badacz zbuduje już
schemat kodowania, to wykorzystuje go do pozostałych danych. Weźmy dla przykładu
odpowiedzi na pytanie mające mierzyć reakcje kobiet na przemoc ze strony męża2:
Jeżeli mężczyzna stosuje przemoc fizyczną wobec swojej żony, to co, Twoim
zdaniem, kobieta powinna zrobić?
1. Powinna pozostać w domu i starać się rozwiązać problem.
2. Powinna wyprowadzić się z domu.
3. Powinna zadzwonić do instytucji zajmującej się tego typu problemami i poprosić o
pomoc.
4. Powinna zadzwonić na policję.
5. Powinna uzyskać czasowy nakaz aresztowania męża.
6. Powinna zadzwonić do swoich przyjaciół lub krewnych po pomoc.
7. Inne rozwiązanie (jakie?).............................................................
8. Nie wiem/odmowa odpowiedzi.
9. Pytanie opuszczone.
W indukcyjnym schemacie kodowania odpowiedzi, które pojawiły się najczęściej,
zostają włączone do schematu kodowania wykorzystywanego do analizowania danych. W
przykładzie przedstawionym wyżej odpowiedzi od 1 do 6 zostały wybrane na tyle często, aby
mogły stworzyć niezależne kategorie. Odpowiedzi od 7 do 9 zostały wzięte pod uwagę po
wygenerowaniu pierwszych kategorii. W ostatecznym schemacie kodowania wszystkie
odpowiedzi rzadziej spotykane będą zaliczane do kategorii „inne".
Nie zawsze łatwo jest zidentyfikować kategorie, a skonstruowanie pełnego schematu
kodowania może zabrać wiele czasu. Badacz tak długo przegląda dane oraz tworzone
kategorie, aż będą one dobrze odpowiadać ogólnemu celowi badania. Paul Lazarsfeld oraz
Alan Barton, analizując ogólne zasady kodowania, jako przykład takich zasad wykorzystali
niektóre schematy kodowania, które zastosowano w klasycznym dziś badaniu The American
Soldier3. Aby określić, jakie czynniki
" Na podstawie: Spouse Abuse in Texas: A Study oj Woman 's Attiludes and
Experiences, Huntsville, Texas: Criminal Justice Center, 1983.
3 Paul F. Lazarsfeld, Alan Barton (1951), Qualitative Measurement in the Social
Sciences: Clas-
355
pozwalają przezwyciężyć stres wynikający z walki, osoby badające amerykańskich
żołnierzy stworzyły — na podstawie zebranych odpowiedzi — wstępną listę kategorii:
1. Nacisk ze strony formalnego autorytetu.
2. Umiejętności przewodzenia (np. zachęcanie).
3. Grupa nieformalna:
a) wsparcie emocjonalne,
b) kodeks zachowania,
c) zapewnianie rzeczywistego bezpieczeństwa i siły.
4. Przeświadczenie o roli wojny i niebezpieczeństwie ze strony wroga.
5. Chęć wygrania wojny jako warunek powrotu do domu.
6. Modlitwa i osobiste przekonania.
Owe wstępne kategorie pozwoliły badaczom sklasyfikować dane surowe i w sposób
istotny zmniejszyć liczbę analizowanych odpowiedzi. Gdy jednak zauważyli, że sankcje
formalne są bardziej skuteczne wówczas, kiedy nakładają się na nie sankcje ze strony
nieformalnej grupy i sankcje wewnętrzne, wprowadzili dalsze modyfikacje. I odwrotnie, na
normy tworzone przez grupę nieformalną wpływają zarówno sankcje formalne, jak i sumienie
jednostki. Badacze — na tej podstawie — przeanalizowali wszystkie odpowiedzi i otrzymali
dodatkowe informacje, które stały się powodem zmodyfikowania schematu odpowiedzi
(tabela 14.1).
Przedstawione niżej odpowiedzi odpowiadają zmodyfikowanym kategoriom opisanym
w tabeli 14.1:
1. Biorę udział w walce, bo jeżeli przestanę, to zostanę ukarany.
2. Biorę udział w walce, bo jest to obowiązek wobec mojego kraju, armii i rządu;
jeżeli przestanę, to będzie źle.
3. Biorę udział w walce, bo jeżeli przestanę, to stracę szacunek moich przyjaciół.
4. Biorę udział w walce, ponieważ pozostawienie przyjaciół jest złe.
5. Należy dbać o przyjaciół nawet wtedy, gdy oznacza to złamanie rozkazów, a
nawet wtedy, gdy oni nie dbają o ciebie.
6. Należy dbać o przyjaciół nawet wtedy, gdy wiąże się to ze złamaniem rozkazów,
gdyż pozostawienie ich jest złe.
7. Walczę, ponieważ wierzę w demokrację i nienawidzę faszyzmu.
Podstawową zaletą podejścia indukcyjnego jest jego elastyczność i szeroki zakres, co
umożliwia badaczom generowanie wyjaśnień otrzymanych wyników. Co więcej, pozwala na
stosowanie różnych schematów kodowania do tych samych danych i często umożliwia
tworzenie nowych kategorii. Wadą tej metody są trudności w opanowaniu ogromnej liczby
szczegółów pojawiających się w trakcie prób wyjaśniania danych. Czasami osoba kodująca
nie zna dostatecznie kontekstu badania, by zdecydować, które szczegóły są nieistotne, aby
można je było wyeliminować.
sifwation, Typologies, and Indices, w: Daniel Lerner, Harold D. Lasswell (red.), The
Policy Sciences, Stanford, Calif.: Stanford University Press, s. 160; Samuel A. Stouffer
(1965), The American Soldier, New York: Wiley.
356
Tabela 14.1. Sposób, w jaki normy wpływają na zachowania w trakcie walki
Normy tworzone przez autorytety formalne
Źródło norm Kanały
Bezpośrednie:
(a) sankcje formalne
(b) sankcje wewnętrzne
Via normy grupowe:
(a) sankcje ze strony grupy nieformalnej
(b) sankcje wewnętrzne
Normy tworzone przez grupy nieformalne (a) sankcje ze strony grupy
formalnej
(b) sankcje wewnętrzne
Normy jednostkowe (a) sankcje wewnętrzne
Na podstawie: Paul F. Lazarsfeld, Alan Barton (1951), Qualitative Measurement in rhe
Social Sciences: Classifacation, Typologies, and Indices. w: Daniel Lerner, Harold D.
Lasswell (red.), The Policy Sciences, Stanford, Calif.: Stanford University Press, s. 161.
Przedruk za zgodą autorów.
Reguły kodowania
¦ W przypadku zmiennych dających się uporządkować liczby kodujące powinny mieć
intuicyjny sens — na przykład wyższe liczby kodujące powinny zostać przypisane wyższym
wynikom.
¦ W kodowaniu dedukcyjnym kategorie powinny zostać powiązane z teorią będącą
inspiracją badań. Kodowanie dedukcyjne jest najczęściej stosowane w badaniach ilościowych.
W badaniach jakościowych natomiast, tworząc teorię podstawową, badacze zazwyczaj stosują
schematy indukcyjne.
¦ Kategorie kodujące muszą być wzajemnie rozłączne — każdy wynik może wpadać
tylko do jednej kategorii i niewiele wyników powinno zostać zaliczonych do kategorii „inne".
¦ Kategorie muszą być na tyle specyficzne, aby pozwalały wychwycić różnice wtedy,
gdy posługujemy się najmniejszą możliwą liczbą kategorii (kryterium szczegółowości).
¦ Konstruowanie zeszytów kodowych
Kiedy opracujemy już schemat kodowania dla każdej z badanych zmiennych, należy
przedstawić skompilowane informacje na temat tego schematu w zeszycie kodowym. Zeszyty
kodowe różnią się szczegółami, jednakże wszystkie dobre zeszyty kodowe zawierają
informacje na temat nazwy lub numeru zmiennej, schematu kodowania oraz kodów
oznaczających brak danych. Zeszyt kodowy jest dla osób kodujących rodzajem przewodnika.
Osoby te przekładają dane surowe na dane wejściowe wykorzystywane w późniejszych
analizach statystycznych. Są one również
357
pomocą dla autora badań oraz dla innych badaczy analizujących później ten zbiór
danych. Zeszyty kodowe opracowane dla badań mających postać sondażu często zawierają
wykorzystywane pytania sondażowe. W przykładzie 14.1 przedstawiamy fragment zeszytu
kodowego wykorzystanego w sondażu na temat ubóstwa przeprowadzonego w Cleveland.
Przykład 14.1
Przykład zeszytu kodowego: Cleveland Poverty Survey
Nazwa zmiennej
Numer kolumny
nr ident. Numer identyfikacyjny o.b.
1 -3
Zakoduj faktyczny numer
(001-528) Ql Najwyższa ukończona klasa
4
1 = 1-8
2 = 9-11 3= 12 4= 13-15 5= 16 6= 17+
Q4 Płeć 7
1 = mężczyzna
2 = kobieta
Q5 Tygodniowe zarobki aktualne/ostatnia praca
8-11
Podać liczbę dolarów Q6 Liczba godzin pracy tygodniowo
aktualnie/ostatnia praca 12-13
Podać liczbę godzin Q7 Ogólny stan zdrowia
14
1 = znakomity
2 = bardzo dobry
3 = dobry
4 = przeciętny
5 = slaby
9 = nie wiem/brak odpowiedzi Q8 Wykształcenie jako sposób na awans
15
1 = całkowicie się zgadzam
2 = zgadzam się
3 = trochę się zgadzam
4 = trochę się nie zgadzam
5 = nie zgadzam się
6 = całkowicie się nie zgadzam 9 = nie wiem/brak odpowiedzi
Q9 Umiejętność czytania
16
1 = znakomita
2 = dobra
3 = przeciętna
4 = słaba
9 = nie wiem/brak odpowiedzi
358
Zauważmy, że każda zmienna uwzględniona w przykładzie 14.1 ma swoją nazwę (np.
Ql), skrót treści pytania, zastosowany schemat kodowania (wartości liczbowe), numery
kolumn, określenie wartości odpowiadających brakującym danym i wszystkie specyficzne
zasady kodowania dla każdej zmiennej. Programy komputerowe wymagają wprowadzenia
danych w postaci odpowiedniego arkusza danych. Zmienne są ustawiane w kolumnach, a
kolejne przypadki w wierszach. Wymieniony w przykładzie 14.1 numer kolumny informuje o
tym, w której kolumnie znajdują się dane dotyczące określonej zmiennej. Każdy badacz — na
podstawie informacji zawartych w zeszycie kodowym — powinien umieć zrekonstruować
zbiór danych.
Rzetelność kodowania i rzetelność sposobów wprowadzania danych
Kiedy zeszyt kodowy został już opracowany, należy „zakodować" dane, czy też
przetworzyć je tak, aby mogły być wprowadzone do komputerowego programu statystycznej
analizy danych. Na przykład należy przełożyć zakreśloną odpowiedź w kwestionariuszu na
właściwą kolumnę czy „pole" odpowiadające zmiennej (i zdefiniowanej w książce kodowej).
Osobą kodującą może być sam badacz, student lub osoba wynajęta specjalnie do tego celu.
Dane surowe można wprowadzać do programu komputerowego na różne sposoby. Po
omówieniu rzetelności związanej z osobą kodującą przedyskutujemy problem rzetelności
różnych sposobów wprowadzania danych: arkuszy danych, kodowania na marginesie kartki,
skanowania optycznego oraz bezpośredniego wprowadzania danych.
Rzetelność kodowania
Badania, w których korzystano z dobrze opracowanych zeszytów kodowych,
zastosowano standaryzowane pytania zamknięte oraz zatrudniono dobrze wytrenowane osoby
kodujące, ujawniają mniej problemów związanych z rzetelnością osób kodujących niż
badania, w których osoby kodujące muszą samodzielnie podejmować decyzję o tym, jakie
kody należy przyporządkować określonym odpowiedziom. Jednym z największych
problemów tego typu badań jest upewnienie się, że osoba kodująca wprowadza właściwy kod
do odpowiedniej kolumny. Standardową procedurą jest wyrywkowe sprawdzanie pracy
każdego kodującego, aby sprawdzić, czy nie pracują oni niedbale. Sposoby wprowadzania
danych, które omówimy niżej, są źródłem różnych problemów dotyczących rzetelności
związanej z osobami kodującymi dane.
Osoby kodujące częściej odwołują się do własnych sądów, gdy klasyfikują
odpowiedzi udzielone na pytania otwarte lub gdy opracowują nieustrukturowany materiał.
Jeżeli reguły klasyfikowania odpowiedzi nie odnoszą się wyraźnie do klasyfikowanego
materiału, to różne osoby kodujące mogą w różny sposób klasyfikować te same odpowiedzi.
W takim wypadku proces kodowania staje się nierzetelny, a problem ten jest tak poważny jak
przy braku rzetelności obserwatorów czy ankieterów. I rzeczywiście faza kodowania danych
jest najczęściej największym źródłem błędów. Aby zwiększyć rzetelność kodowania, należy
dbać, aby stosowane schematy kodowania były tak proste, jak to tylko możliwe. Należy też
odpowiednio przygotować osoby kodujące. Najprostszą metodą jest porównanie efektów
pracy dwóch lub więcej osób kodujących i ustalenie przyczyn wszystkich rozbieżności.
Przykład instrukcji dla osób kodujących wpływającej na rzetelność ich działań przedstawiamy
w przykładzie 14.2.
W instrukcji tej można znaleźć odpowiedź na wszystkie pytania, które mogą
359
się pojawić w trakcie przygotowywania danych do obróbki komputerowej. Jeżeli
osoby kodujące nanoszą kody bezpośrednio na arkusz pomiarowy, to warto w tym celu
używać czerwonego ołówka, aby odróżnić znaki kodowe od innych uwag znajdujących się na
arkuszu. Gdy trzeba będzie poprawić błędy popełnione w trakcie kodowania, znaki naniesione
ołówkiem można wymazać. Zielonym długopisem zaleca się natomiast nanosić uwagi
dotyczące badań, aby odróżnić je od uwag poczynionych przez ankieterów czy osoby
kodujące. Osoby kodujące nie powinny nigdy wymazywać uwag poczynionych przez
ankieterów, gdyż są one niezbędne przy sprawdzaniu poprawności kodowania. Jeżeli osoba
kodująca ma trudności w zinterpretowaniu odpowiedzi, to może postawić specjalny znak
zwracający uwagę osoby kontrolującej, aby to ona podjęła decyzję dotyczącą właściwego
kodu.
Przykład 14.2
Ogólna instrukcja kodowania
A. Znaki kodowe należy nanosić czerwonym ołówkiem.
B. Nie wolno wymazywać żadnych znaków ani komentarzy naniesionych przez
osoby przeprowadzające wywiad. Jeżeli trzeba poprawić kwestionariusz, to należy przekreślić
błędny kod. Nie wolno zamazywać tego, co zostało wcześniej napisane. Należy pamiętać, że
uwagi napisane zielonym kolorem są uwagami naniesionymi przez instytucję organizującą
badania.
C. Każda kolumna musi mieć swój kod, lecz nie może mieć więcej niż jeden kod.
D. Dotyczy pytań oznaczonych jako problem: instrukcja ta dotyczy pytań, w
których mogą się pojawić problemy dotyczące kodowania. Osoby kodujące otrzymają
niewielkie karteczki, które należy przykleić na tej stronie, na której wystąpią takie problemy.
Osoby kodujące mogą w len sam sposób zaznaczyć wszystkie miejsca w kwestionariuszu, w
których brak jest jakichś informacji, są one niejasne i wymagają sprawdzenia przez osobę
kontrolującą.
E. Dotyczy pytań oznaczonych jako lista: należy sporządzić listę wszystkich
odpowiedzi zaliczonych do kategorii „inne" i przedstawić w dosłownym brzmieniu wszystkie
komentarze dotyczące takich odpowiedzi. Dla każdego pytania trzeba sporządzić oddzielną
listę. Jeżeli dla jednego pytania przewidziano więcej niż jeden kod, to należy sporządzić
oddzielną listę dla każdego kodu. U góry każdej listy należy napisać numer badania, numer
pytania, numer kolumny i numer kodu, dla którego sporządza się listę. W większości sondaży
sporządza się listy dla wszystkich odpowiedzi typu „inne, jakie?"
F. Brak odpowiedzi (bo) i „odmowę" odpowiedzi należy kodować za pomocą cyfry
9 w kolumnie zawierającej jedno pole, za pomocą liczby 99 w kolumnie zawierającej dwa
pola itd. Kategorię bo koduje się wówczas, gdy respondent nie udzielił żadnej odpowiedzi,
ankieter przeoczył pytanie lub wtedy, gdy udzielona odpowiedź jest zbyt wewnętrznie
sprzeczna lub niejasna, aby ją zakodować, lub wtedy, gdy trzeba wprowadzić jakiś kod, aby
przejść dalej. Dopuszcza się uznanie BO dla każdego pytania, z wyjątkiem tych, które zostały
wymienione w zeszycie kodowym (np. pytania o płeć czy rasę).
G. Kategoria „nie dotyczy" (ndt) jest kodowania jako 0, co oznacza „pominięcie"
lub „pytanie puste" dla osób kodujących. Kategorię ndt koduje się wówczas, gdy nie planuje
się zadania danego pytania (np. ze względu na sposób przechodzenia od pytania do pytania).
H. Kategoria „nie wiem" (nw) nie ma swojego wcześniej zapisanego kodu, dlatego
należy ją kodować za pomocą cyfry 8 w kolumnie zawierającej jedno pole, za pomocą liczby
98 w kolumnie zawierającej dwa pola, za pomocą liczby 998 w kolumnie zawierającej trzy
pola itd. Jeżeli kategoria nw została wymieniona wśród innych odpowiedzi przewidzianych
dla danego pytania, to kategorii tej nie należy odrębnie kodować.
Na podstawie: National Opinion Research Center, University of Chicago, General
Social Survey, 1972-1989: Cumulative Codebook (Storrs, Conn.: Roper Center for Public
Opinion Research, 1989).
360
W niektórych sytuacjach nie da się zakodować odpowiedzi. W przykładzie 14.2
proponujemy, aby osoby kodujące sporządzały listę odpowiedzi — dosłownie zapisanych —
na wszystkie te pytania, dla których nie opracowano specyficznych kodów. Na przykład
możemy być zainteresowani tym, jakie konkretnie odpowiedzi ludzie traktują jako „inne" i
dlatego do kwestionariusza można wprowadzić pytanie „inne, jakie?" Jeżeli osoba kodująca
przydziela kody, kierując się jedynie rodzajem kategorii, to informacje szczegółowe znikną.
Osoby kodujące muszą wiedzieć, jakich kodów należy używać w przypadku różnego
typu braku odpowiedzi. W przykładzie 14.2 uwzględniono trzy rodzaje braku odpowiedzi: 1)
respondent odmówił udzielenia odpowiedzi, 2) pytanie nie odnosi się do respondenta, 3)
respondent nie zna odpowiedzi na pytanie. Instrukcja kodowania dokładnie określa, jakie
kody liczbowe lub literowe powinny zostać przydzielone w każdym przypadku.
W interpretacjach odpowiedzi czynionych przez respondentów i osoby, które ją
kodują, mogą się pojawić różnice. W literaturze problem ten jest rzadko omawiany. Pojawił
się w badaniach Kennetha Kammeyera i Juliusa Rotha poświęconych ocenie zgodności
znaczenia, jakie nadają odpowiedzi respondent i osoba kodująca4. Zbadali oni, w jaki sposób
zakodowaliby swoje odpowiedzi sami respondenci, dysponując zbiorem kategorii
dostarczonych przez badacza. Gdyby respondenci grali również rolę osób kodujących, to czy
kody przypisane przez nich różniłyby się od kodów przypisanych przez inne osoby, czy
zakodowaliby je tak samo? Kammeyer i Roth poprosili 64 studentów college'u o wypełnienie
kwestionariusza zawierającego pytania zarówno zamknięte, jak i otwarte. Następnie każda
osoba badana niezależnie zakodowała swój kwestionariusz oraz kwestionariusze innych osób
badanych. Dalej dla każdej osoby badanej badacze porównali sposób kodowania własnego
kwestionariusza i kwestionariuszy wypełnionych przez innych. Porównanie to ujawniło, że
osoby kodujące inaczej rozumiały odpowiedź niż respondent, co prowadziło do niewłaściwej
interpretacji rzeczywistych postaw respondentów. Kierunek odchylenia zależał od treści
pytania. Im mniej ustrukturowane było pytanie, tym większa była różnica pomiędzy
interpretacją dokonaną przez respondenta i osobę kodującą. Wyniki te zwracają uwagę na
ważny problem kodowania materiału nieustrukturowanego. Jest oczywiste, że taka forma
stronniczości może zniekształcać wyniki dotyczące związków pomiędzy badanymi
zmiennymi.
Sposoby wprowadzania danych
Arkusze wprowadzania danych. Dawniej przenoszono dane, odpowiednio perforując
specjalne karty komputerowe. Osoby kodujące posługiwały się arkuszami wprowadzania
danych, które były papierową formą kart perforowanych i pozwalały na zapisywanie danych
w kolumnach określonych w zeszytach kodowych. Osoby perforujące karty przenosiły
następnie te dane na karty. Chociaż dzisiaj nie posługujemy się już takimi kartami, to
posługiwanie się jakąś formą arkuszy wprowadzania danych — zwłaszcza w wypadku
złożonych kwestionariuszy czy danych pochodzących z różnych źródeł — może okazać się
użyteczne. Osoby kodujące mogą korzystać z arkuszy kalkulacyjnych, w których przypadki
wprowadza się w wier-
4 Kenneth C.W. Kammeyer, Julius A. Roth (1971), Coding Response to Open-ended
Questions, w: Herbert L. Costner (red.), Sociological Methodology, San Francisco: Jossey-
Bass.
361
szach, a zmienne w kolumnach. Większość programów statystycznych wymaga
danych przygotowanych właśnie w ten sposób i są one dużym ułatwieniem dla osób
wprowadzających dane. Posługiwanie się arkuszami wprowadzania danych wymaga jednak
wielokrotnego przeglądania danych, co zwiększa możliwość złego ich wprowadzenia i tym
samym może zmniejszyć ich rzetelność.
Kodowanie na marginesie. Kodowanie na marginesie jest jednym ze sposobów
wyeliminowania arkuszy wprowadzania danych. W metodzie tej osoby kodujące przenoszą
informacje z kwestionariusza bezpośrednio na wolne miejsca na marginesie arkusza z
pytaniami. Na rycinie 14.1 numer kolumny dotyczącej każdej zmiennej umieszczono z prawej
strony kartki i oznaczono „tylko dla celów badawczych". Gdy dane kodujemy na marginesie,
osoby wprowadzające dane do komputera przenoszą je bezpośrednio do bazy danych. W tym
wypadku rzetelność się zwiększa, ponieważ osoby kodujące pracują bezpośrednio na
kwestionariuszu i wprowadzając dane, nie muszą wyszukiwać właściwych kolumn, jak w
przypadku arkuszy wprowadzania danych.
Skanowanie optyczne. Osoby kodujące mogą również przenieść dane na specjalne
arkusze nadające się do skanowania (jak wykorzystywane w egzaminach testowych). Skaner
czyta znaki naniesione czarnym ołówkiem i automatycznie tworzy plik danych. Metoda ta
zwiększa rzetelność, ponieważ eliminuje błędy wynikające z ręcznego wprowadzania danych.
Trzeba jednak pamiętać, że źle zaprojektowane arkusze do skanowania mogą utrudniać
przestrzeganie prawidłowej kolejności wprowadzania danych.
Ponieważ skanowanie optyczne stało się powszechne, a procedura wypełniania
takiego arkusza jest prosta, można prosić respondentów, aby sami zaznaczali swoje
odpowiedzi bezpośrednio na takim arkuszu. Dla każdego narzędzia pomiarowego należy
zaprojektować odpowiedni arkusz do skanowania, aby ułatwić respondentom udzielanie
odpowiedzi na pytania sondażowe.
Bezpośrednie wprowadzanie danych. Prawdopodobnie najważniejsze innowacje w
kodowaniu pojawiły się wraz z możliwościami bezpośredniego wprowadzania danych.
Istnieją dwie formy bezpośredniego kodowania danych: kodowanie z kwestionariusza i
kodowanie w trakcie wywiadu telefonicznego. W obu formach wykorzystuje się programy
komputerowe, w których każde zadawane pytanie jest wyświetlane na ekranie monitora i
wymaga wprowadzenia odpowiedzi przez osobę kodującą.
Materiał kodowany z kwestionariusza musi być wyświetlony, aby mieć pewność, że
opuszczone odpowiedzi również mają swój kod na wejściu. Następnie koduje się odpowiedzi.
Po wprowadzeniu danych dla każdego przypadku komputer automatycznie dodaje te
informacje do pliku z danymi surowymi. Metoda ta również zmniejsza liczbę osób kolejno
zajmujących się danymi, co wpływa na zwiększenie rzetelności.
Wywiad telefoniczny ze wspomaganiem komputerowym (Computer-Assisted
Telephone Interviewing — CATI) to wysoce rozwinięty system w ogromnym stopniu
redukujący błędy złego kodowania. Osoby prowadzące wywiad czytają pytania bezpośrednio
z ekranu monitora i wprowadzają odpowiedzi w chwili ich udzielania.
362
Jeżeli osoba kodująca wprowadzi niewłaściwy kod (wartość, której nie ma w spisie
kodów dla danego pytania), to program domaga się wpisania właściwej wartości. W
zależności od odpowiedzi na pytanie filtrujące CATI przechodzi automatycznie do
właściwych pytań i osoba prowadząca wywiad nie musi przeglądać kolejnych danych w
poszukiwaniu odpowiedniego pytania. Taki program nie tylko zwiększa rzetelność
kodowania, lecz również sprawia, że respondenci nie muszą odpowiadać na pytania, które ich
nie dotyczą. Ulepszenie technologii CATI wpłynęło na poprawienie odsetka odpowiedzi,
zwiększyło łatwość stosowania, zwiększyło rzetelność danych i rzetelność procesu
kodowania, a tym samym przyczyniło się do istotnego zmniejszenia liczby sondaży
pocztowych.
Przeglądanie i czyszczenie danych
Przeglądanie i poprawianie danych to bardzo ważne etapy w procesie przetwarzania
danych. Powinny one zawsze poprzedzać analizę zebranych informacji.
Przeglądanie danych odbywa się zarówno w czasie trwania, jak i po zakończeniu fazy
kodowania. Osoby kodujące przeglądają dane, sprawdzając, czy nie popełniono błędów lub
czy jakieś dane nie zostały opuszczone. Dane przegląda się również wtedy, gdy chcemy się
upewnić, czy wszystkie arkusze kwestionariusza wypełniono jak należy. Jednakże
podstawowa procedura przeglądania danych — zwłaszcza w wypadku dużych sondaży — jest
przeprowadzana przez osoby kontrolujące, które w ten sposób sprawdzają każdy
kwestionariusz, oceniają rzetelność wywiadów, a także szukają braku zgodności w
udzielonych odpowiedziach. Krajowy Ośrodek Badania Opinii (National Opinion Research
Center) prowadzący ogólne sondaże społeczne wymaga od osób kontrolujących sprawdzania,
czy wszystkie pytania filtrujące zostały poprawnie wypełnione i czy pozostałe dane są zgodne
z utworzonym w ten sposób wzorcem wypełniania kwestionariusza. Jeżeli na pytanie
filtrujące udzielono więcej niż jednej odpowiedzi lub jeżeli pytanie filtrujące pozostawiono
puste, to osoba kontrolująca musi określić, jakie należy przydzielić kody.
Czyszczenie danych to procedura polegająca na sprawdzaniu poprawności i
kompletności danych oraz poprawianiu błędów i niespójnych kodów. Większość dużych
zbiorów danych można wyczyścić, stosując specjalne programy komputerowe, które
sprawdzają logiczną zgodność danych dla określonych wcześniej kodów5. Chociaż na wiele
pytań udziela się niezależnych odpowiedzi, a odpowiedzi te są niezależnie kodowane, wiele
pytań jest ze sobą powiązanych i odpowiedzi na te pytania również powinny być ze sobą
powiązane. Na przykład, jeżeli respondent nie ma dzieci, to wszystkie pytania dotyczące
dzieci powinny zostać zakodowane jako BO (brak odpowiedzi) albo powinny pozostać puste.
Podobnie, jeżeli respondent podający, że ma pięć lat, informuje również, że ma dwoje dzieci,
to świadczy to o błędzie w danych. Inną funkcją procedury czyszczenia danych jest
wykrywanie nieprawidłowych kodów. Jeżeli pytanie „Czy wierzysz w życie po śmierci?"
można zakodować jako 1 dla „tak", 2 dla „nie", 8 dla „nie potrafię się zdecydować" i 9 dla
„brak odpowiedzi", to każdą wartość spoza tego zbioru należy traktować jako nieprawidłową.
5 Na przykład: Winona Ailkins (1975), EDIT: The NORC Cleaning Program: A
Program to De-vełop Seąuential Files, Chicago: National Opinion Research Center.
363
THE UNIVERSITY OF WISCONSIN-MILWAUKEE College of Letters and Science
Department of Political Science
Tylko dla celów badawczjd
Nr 2183
Badanie dotyczące wolności obywatelskich
INSTRUKCJA: Dla każdego z niżej wymienionych pytań prosimy wybrać odpowiedź,
która najbardziej odpowiada Pana(i) poglądom na dany temat i postawić krzyżyk w
odpowiedniej kratce. Nie ma tu ani „dobrych", ani „złych" odpowiedzi — dlatego prosimy
odpowiadać na każde pytanie szczerze. Proszę odpowiadać na pytania w takiej kolejności, w
jakiej zostały one umieszczone w arkuszu. Jeżeli Pan(i) chciałbyś ałaby) przekazać
dodatkowe uwagi na temat któregoś z pytań lub poruszanych tematów, to prosimy skorzystać
z wolnego miejsca znajdującego się na końcu kwestionariusza. Państwa uwagi pomogą nam
lepiej zrozumieć tak złożony problem, jakim są wolności obywatelskie — z góry serdecznie
dziękujemy za współpracę.
Chcielibyśmy rozpocząć od zadania kilku pytań dotyczących Państwa kontaktów z
American Civil Liberties Union -Amerykańską Unią Praw Obywatelskich.
¦ (ACLU), czyh
la. Od ilu lat jest Pan(i) członkiem ACLU?........lat
Ib. Dlaczego wstąpiła) Pan(i) do ACLU? Czy istniały jakieś specjalne powody, które
skłoniły Pana(ią) do wstąpienia do tej organizacji?
? specjalne powody.....Jakie?..............................................................
D brak specjalnych powodów
? nie pamiętam .............................................................
1 c. Czy aktywnie działa Pan(i) w Związku? Na przykład, czy wziął(ęła) Pan(i) udział
w którejś z wymienionych aktywności:
a. Dofinansowywanie Związku (niezależnie od składek członkowskich)..............
b. Pisanie listów do władz Związku ........................................
c. Pełnienie jakiejś funkcji we władzach Związku .............................
d. Uczęszczanie na lokalne spotkania Związku................................
e. Czytanie biuletynów i pism wydawanych przez ACLU.........................
f. Pisanie listów do przedstawicieli władz w imieniu ACLU.......................,
g. Uczęszczanie na przyjęcia i imprezy dobroczynne organizowane przez ACLU.......
h. Zgłaszanie się na ochotnika do prac w Związku (np. pełnienie funkcji asystenta,
odbieranie telefonów..................................................
i. Uczestniczenie w sprawach sądowych wytoczonych z ramienia ACLU.............
Id. ACLU publikuje wiele specjalistycznych biuletynów i magazynów, które nie
docierają do wszystkich członków Związku. Chcielibyśmy się dowiedzieć, czy dostał(a)
Pan(i) którąś z tych publikacji, a jeżeli tak, to jak często znajduje Pan(i) czas na ich
przeczytanie? Proszę postawić znak x w odpowiednim miejscu.
Tak Nie Nie pamiętam
? ? D
D D ?
D ? D
D ? D
a D a
a ? 0
D ? D
D ? D
D ? D
a. Civil Liberties Review..............
b. Children's Rights Report............
c. First Principles....................
d. Notes from the Women's Rights Project
e. Civil Liberties Alert................
f. The Privacy Report................
g. Civil Liberties....................
Otrzymuję tę publikację,
Otrzymuję tę ale zazwyczaj
publikację mam zbyt mato
Nie otrzymuję i zazwyczaj ją czasu, aby ją
tej publikacji czytam przeczytać Nie wiem
? D ? ?
? ? ? ?
D D ? ?
? D D ?
? D D ?
n ? D ?
n ? ? D
1 e. Biorąc pod uwagę okres swojego członkostwa, jak ocenia Pan(i) stanowisko, jakie
ACLU zajmuje w najważniejszych sprawach?
D zawsze się z nim zgadzam D zazwyczaj się z nim nie zgadzam
? nie wiem
D czasami się z nim zgadzam D nigdy się z nim nie zgadzam
2a. Zawsze znajdą się ludzie, których poglądy przez innych ludzi są traktowane jako
niebezpieczne. Na przykład ludzie, którzy
występują przeciwko każdej religii i każdemu kościołowi.
Tak Nie Nie mam zdani;
a. Gdyby taka osoba chciała wygłosić przemówienie przeciwko religii i kościołom
dla Pana(i) społeczności, to czy otrzymałaby pozwolenie?.................... D
D ?
b. Czy taka osoba otrzymałaby pozwolenie na zorganizowanie marszu przeciwko
religii i kościołom?..................................................
c. Czy taka osoba mogłaby wykładać na uniwersytecie lub college*u?.............
d. Gdyby ktoś z Pana(i) społeczności zażądał usunięcia z biblioteki książki napisanej
przeciwko religii i kościołom, której autorem jest ta osoba, to czy popierałby(łaby) Pan(i) tę
decyzję?...................................................
?
a
aa
aD
Ryc. 14.1. Kodowanie na marginesie kwestionariusza
Źródło: Przedruk za zgodą Greewood Publishing Group, Inc., Westport, CT, z pracy
Jamesa L. Gibsona i Richarda D. Binghama (1985), Civil Liberties and the Nazis, New York:
Praeger Publishers.
Najprostszą procedurą sprawdzenia, czy pojawiły się nieprawidłowe kody, jest
wygenerowanie rozkładu częstości kodów dla każdej zmiennej (por. rozdział 15). Tę metodę
poprawiania danych przedstawiamy również w dodatku A.
I Wykorzystywanie komputerów w naukach społecznych
W dzisiejszych czasach każdy poznał możliwości stosowania komputerów w różnych
dziedzinach życia. W naukach społecznych z komputerów zaczęto korzystać już dziesiątki lat
temu. W tym czasie wydatnie zmieniła się technologia komputerowa, lecz istota stosowania
komputerów dla potrzeb badań pozostała nie zmieniona. Komputery to narzędzia ułatwiające
magazynowanie danych, przetwarzanie ich, a także umożliwiające szybki do nich dostęp i
łatwiejszą analizę zbiorów danych. Kiedy zrozumiemy istotę metod badawczych i poznamy
elementy statystyki, możemy wykorzystać komputery do obliczania odpowiednich statystyk i
korzystać z wydruku rezultatów. Pamiętajmy jednak, że to badacz musi dostarczyć
prawidłowych i rzetelnych danych, wybrać metody statystyczne właściwe dla zrealizowanego
poziomu pomiaru i poprawnie zinterpretować otrzymane rezultaty.
Rodzaje komputerów
Do analizowania danych w naukach społecznych stosuje się trzy rodzaje komputerów:
duże komputery stacjonarne, minikomputery i komputery osobiste (PC). Duże komputery to
jednostki, które jednocześnie są w stanie sprostać potrzebom wielu użytkowników. Jednostka
centralna tak organizuje pracę, aby jak najwięcej użytkowników mogło z niej korzystać w
każdym czasie. Komputery stacjonarne czytają również magnetyczne taśmy danych
przesyłane przez użytkowników dużych baz danych. Międzyuniwersytecki Zespół ds. Badań
Politycznych i Społecznych przy uniwersytecie w Michigan to największa składnica danych
wykorzystywanych w naukach społecznych. Oprócz danych pochodzących z badań
naukowych ośrodek ten gromadzi również dane zebrane przez takie firmy badające opinie,
jak: Roper, Harris czy Krajowy Ośrodek Badania Opinii. Dane te są podstawą wielu
projektów badawczych. Ponieważ komputery stacjonarne są również wyposażone w
podstawowe pakiety statystyczne wykorzystywane do analizowania danych w naukach
społecznych, więc indywidualni badacze oraz studenci nie muszą kupować pakietów
statystycznych.
Minikomputery również są wyposażone w pakiety statystyczne, z których może
korzystać wielu użytkowników, jednak nie są w stanie przyjąć tylu użytkowników jak duży
komputer. Terminale i połączone w sieci komputery osobiste (PC) stwarzają dostęp do
programów i plików danych w zminiaturyzowanej wersji w porównaniu z dużymi
komputerami.
Instytucje zajmujące się tworzeniem oprogramowania statystycznego stworzyły wersje
podstawowych, od lat używanych w naukach społecznych programów statystycznych, dla
użytkowników komputerów osobistych. Statistical Package for the Social Sciences (SPSS) —
opisany w dodatku A — posiada wersję na PC. Tworzy się również programy przeznaczone
specjalnie dla użytkowników komputerów osobistych. Ponieważ można dokonywać transferu
danych pomiędzy większością programów statystycznych, użytkownicy komputerów
osobistych sami mogą wybrać pakiet statystyczny, z którego najlepiej im się korzysta.
365
Podstawowa różnica pomiędzy komputerami osobistymi i innymi komputerami polega
na tym, że PC są „samowystarczalne". Większość profesjonalnych wersji pakietów
statystycznych przeznaczonych na PC wymaga jedynie twardego dysku i odpowiedniego
koprocesora. I chociaż komputery osobiste nie muszą być połączone z dużym komputerem
czy z minikomputerem, można podać wiele zalet wynikających z ujęcia komputerów
osobistych w sieć.
Komputery pracujqce w sieci
Nie tak dawno badacze musieli wybrać albo sposób (duży komputer, minikomputer
lub PC), za pomocą którego mogli przetwarzać dane, albo zmuszeni byli sami uczyć się wielu
różnych systemów. Modemy stworzono po to, aby ludzie mogli regularnie korzystać z linii
telefonicznych w celu połączenia swoich terminali z dużymi jednostkami centralnymi. W
czasach pierwszych modemów transmitowanie danych wymagało specjalnych linii. Dzisiaj
można równocześnie przesyłać dane i rozmawiać przez telefon. Modemy dla tego typu linii
znajdują się zazwyczaj wewnątrz telefonu.
Dzisiaj, aby połączyć się z jednostką centralną, nie trzeba specjalnego terminalu. Aby
połączyć jeden komputer z drugim, konieczne jest jedynie odpowiednie oprogramowanie i
szybki modem. Badacze mogą bez trudu przesyłać informacje z własnego PC do jednostki
centralnej oraz odbierać informacje z jednostki centralnej i przekazywać je do własnego PC.
Począwszy od roku 1970, zaczęto stosować lokalne sieci komputerowe (Local Area
Networks — LAN), aby połączyć stacje robocze z centralnym systemem komputerowym.
Partnerzy pracujący w sieci korzystają z tej samej linii przesyłania danych i w tym samym
czasie tylko jeden komputer może przesyłać dane poprzez sieć. Niewielka szybkość transmisji
danych w pierwszych sieciach sprawiała, że sieci szybko się blokowały i były niewydolne.
Nowsze technologie pozwalają na szybszą transmisję danych i zmniejszyły zatory powstające
w sieci. Sieci multimedialne tworzone w latach dziewięćdziesiątych łączą przekaz dźwięku,
danych i obrazu.
Komputery można łączyć za pomocą specjalnego oprogramowania. Wyniki analiz
statystycznych generowanych przez jeden program mogą być wczytywane przez procesor
tekstów innego programu, a ten ostatni może służyć do pisania raportów. Niektóre starsze
programy wymagają przekonwertowania danych na bardziej ogólny format, zanim zostaną
one przeczytane przez inny program i czasami graficzna strona danych może ulec zmianie.
Istnieje wiele specjalistycznych pakietów programów przeznaczonych do specjalnych celów.
Pakiety takie umożliwiają bezpośrednie wczytywanie danych przez każdy program z pakietu.
Ponieważ konwersja danych nie jest już tu potrzebna, format graficzny danych pozostaje nie
zmieniony.
¦ Podsumowanie
1. Przetwarzanie danych to procedura łącząca etap zbierania danych i etap analizy
danych. Polega ona na przekształcaniu zebranych informacji w kody, które można poddać
analizie. Na pierwszym etapie procedury przetwarzania danych badacze dokonują klasyfikacji
zebranych informacji na mniejszą liczbę kategorii, aby uprościć i ułatwić analizę danych.
Taki system klasyfikowania danych nazywa się schematem kodowania.
366
2. Schemat kodowania powinien być powiązany zarówno z teorią, jak i z celem badań,
który decyduje o tym, jakie kategorie powinny zostać uwzględnione. Innym wymogiem
dotyczącym schematu kodowania jest warunek wyczerpywalności i wzajemnej rozłączności,
co oznacza, że każda obserwacja powinna być zaklasyfikowana do jakiejś kategorii, lecz
żadna nie może zostać zaklasyfikowana do więcej niż jednej kategorii. Badacze posługują się
schematami kodowania, aby przekształcić dane na taki format, jaki nadaje się do
komputerowej analizy danych. Sposób przekształcania jest zazwyczaj opisany w zeszycie
kodowym, w którym znajdują się zarówno informacje na temat kodów, jak i instrukcje
dotyczące kodowania.
3. Do opracowywania danych surowych można zastosować wiele różnych narzędzi
ułatwiających późniejsze kodowanie, m.in.: arkusze wprowadzania danych, kodowanie na
marginesie arkusza, skanowanie optyczne i bezpośrednie wprowadzanie danych. Wybór
metody zależy od formatu badań i dostępnego instrumentarium technicznego. Każda metoda
ma swój wpływ na rzetelność kodowania. Ogólnie rzecz biorąc, im mniej kolejnych
przekształceń, tym dane są bardziej rzetelne. W wywiadzie wspomaganym komputerowo, ze
względu na kodowanie odpowiedzi w chwili ich udzielania, rzetelność danych jest bardzo
wysoka.
4. W naukach społecznych od wielu lat korzysta się z komputerów. Postęp techniczny
w tej dziedzinie jest ogromny i studenci mogą się zetknąć z dużymi komputerami
stacjonarnymi, z minikomputerami oraz z komputerami osobistymi. Ważną innowacją w tej
dziedzinie jest tworzenie bogatego oprogramowania komputerowego, a także możliwość
łączenia komputerów w sieć.
¦ Podstawowe terminy
arkusze wprowadzania danych 361 przeglądanie danych 363
bezpośrednie wprowadzanie danych 362 rozłączność 353
czyszczenie danych 363 schemat kodowania 352
duży komputer 365 skanowanie optyczne 362
kod 352 szczegółowość 354
kodowanie dedukcyjne 354 wyczerpywalność 354
kodowanie indukcyjne 355 zeszyt kodowy 357 kodowanie na
marginesie 362
¦ Pytania sprawdzajgce
1. Omów różnicę pomiędzy indukcyjnym i dedukcyjnym schematem kodowania.
2. Jakie są podstawowe kryteria schematu kodowania?
3. Opisz kolejne kroki procesu określania rzetelności kodowania.
4. Jakie znasz różne sposoby przekształcania danych?
¦ Ćwiczenie komputerowe
Posługując się arkuszem wprowadzania danych lub wprowadzając dane bezpośrednio
do programu SPSS (np. korzystając z modułu REVIEW w SPSS/PC+ lub NEW-DATA),
wprowadź następujące dane:
367
NR IDENT. STAN
001 WI
002 WI
003 WI
004 OH
005 OH
006 OH
007 CA
008 CA
009 CA
010 CA
STANOWISKO
dyrektor
burmistrz
burmistrz
burmistrz
burmistrz
dyrektor
dyrektor
dyrektor
dyrektor
burmistrz
POPULACJA 68 000 42 860 285 000 573 803 29386 88421 436 798 55 390 125 800
3134 388
BUDŻET/1000$ 2685 3489 42 330 88 677 1483 7456 72 698 6331 55 896 90444
wac swój plik danych. Dla wszystkich ™i™„ h ' Z d°kiadntej wyspecyfiko-
CIES i wyczyść swój zbtór d^^S^^^Tf105"011 FREQUEN' A, s. 517-528).
y ' P°szukuJ3c Wedow w kodowaniu (por. dodatek
¦ Literatura dodatkowa
Wywiał J. (1994), Przykłady wnioskowania statystycznego za pomocą
komputerowego pakietu SPSS, Warszawa: Wyd. PLJ.
Stanisz A. (1998), Przystępny kurs statystyki w oparciu o program STATISTICA PL
na przykładach
z medycyny, Kraków: StatSoft Polska Sp. z o.o. STATISTICA PL (1997), Poradnik
użytkownika, t. I: Ogólne konwencje i statystyki 1; t. II: Grafika;
t. III: Statystyki //, Kraków: StatSoft Polska Sp. z o.o.
Rozdział 15
Rozkład jednej zmiennej
Rola statystyki 371
Rozkłady częstości 371
Rozkład częstości dla zmiennych interwałowych 372 Rozkład procentowy 373
Graficzna prezentacja rozkładów 375
Wykres kołowy 375 Wykres słupkowy 376 Histogram 378
Miary tendencji centralnej 379
Wartość modalna 379
Mediana 380
Inne miary położenia 382
Średnia arytmetyczna 383
Porównanie mody, mediany i średniej 385
Podstawowe miary rozproszenia 386
Miara zróżnicowania jakościowego 387 Rozstęp i rozstęp ćwiartkowy 390
Miary rozproszenia oparte na średniej 391
Wariancja i odchylenie standardowe 391
Wariancja i odchylenie standardowe dla danych pogrupowanych Odchylenie
standardowe — zalety i zastosowania 394 Współczynnik zmienności 394
Rodzaje rozkładów częstości 396
Krzywa normalna 397 Wyniki standardowe 398
Podsumowanie 400
Podstawowe terminy 401
Pytania sprawdzające 401
Ćwiczenia komputerowe 403
Literatura dodatkowa 403
W jaki sposób zmiany ekonomiczne kształtują życie kobiet? Po II wojnie światowej,
wspólnym wysiłkiem rządów Porto Rico i Stanów Zjednoczonych, Porto Rico zostało
uprzemysłowione. Transformacja kraju rolniczego w kraj nisko płatnych usług i przemysłu
fabrycznego zwiększyła zapotrzebowanie na pracę kobiet i zmniejszyła zapotrzebowanie na
pracę mężczyzn. Barbara Zsembik i Chuck Peek starali się zbadać potencjalne przyczyny, dla
których zamężne Portorykanki powszechnie podejmowały płatną pracę w okresie dwunastu
miesięcy od urodzenia swojego pierwszego dziecka1. Zauważyli, że począwszy od roku 1950,
Portorykanki coraz więcej inwestowały we własne wykształcenie, co przyczyniło się do
ponoszenia większych kosztów przez te kobiety, które zrezygnowały z pracy, aby
wychowywać dzieci.
Aby stwierdzić, czy inwestowanie w daną formę kształcenia jest różne u kobiet i u
mężczyzn, badacze porównali przeciętny poziom wykształcenia mężczyzn i kobiet, obliczając
dla każdej grupy średnią liczbę lat poświęconą na naukę. Okazało się, że kobiety
przeznaczyły średnio 11,74 lat na zdobywanie formalnego wykształcenia, podczas gdy
mężczyźni 11,84 lat. Można zatem sądzić, że zarówno Portorykanki, jak i Portorykańczycy
poświęcają podobną liczbę lat na zdobycie wykształcenia. Aby sprawdzić, czy niemal
jednakowe średnie wynikały z podobnych rozkładów, badacze obliczyli odchylenia
standardowe — pokazujące, jaki jest stopień rozproszenia wyników wokół średniej — dla obu
rozkładów. Otrzymana wartość odchylenia standardowego wynosiła 3,69 dla kobiet i 3,71 dla
mężczyzn. Rozkłady wyników były zatem również do siebie podobne.
W rozdziale tym opiszemy, jakie są podstawowe charakterystyki jednej zmiennej,
czyli inaczej rozkładu jednozmiennowego. Rozpoczniemy od zdefiniowania rozkładu
częstości, za pomocą którego badacze strukturalizują swoje dane dla potrzeb analizy
statystycznej. Następnie skoncentrujemy się na miarach tendencji centralnej i miarach
rozproszenia, które są wykorzystywane do opisania takiego rozkładu. Na koniec zajmiemy się
ogólnym kształtem rozkładu, zwracając szczególną uwagę na krzywą normalną.
Począwszy od roku 1950, wszystkie dyscypliny w ramach nauk społecznych zaczęły
intensywnie wykorzystywać statystykę, która się stała istotnym elementem tych nauk. Bez
statystyki nie moglibyśmy poznać wzorców ani stałych elementów badanych zjawisk. Metody
statystyczne są niezbędne, aby ustrukturalizować dane, przedstawić ważne informacje w
klarowny sposób oraz opisać i zinterpretować dane w taki sposób, aby łatwiej było ocenić
nasze hipotezy.
Słowo „statystyka" ma dwojakie znaczenie. Chociaż najczęściej wiąże sieją z liczbami
— na przykład dochodami per capita czy ze średnią liczbą rzutów do celu — to jest to
również dziedzina nauki. Tutaj rozumieć ją będziemy w drugim znaczeniu i przedstawimy
podstawowe jej zastosowania w naukach społecznych.
1 Barbara A. Zsembik, Chuck W. Peek (1994), The Effect of Economic Restructuring
on Puerto Rican Women's Labor Force Participation in the Formal Sector, „Gender and
Society", Vol. 8, Nr 4, s. 525-540.
370
I Rola statystyki
Statystyka dostarcza metod opisu i analizy danych oraz metod umożliwiających
podejmowanie decyzji czy inaczej wnioskowania o zjawisku reprezentowanym przez dane.
Metody należące do pierwszej kategorii znane są jako statystyka opisowa, należące zaś do
drugiej kategorii składają się na wnioskowanie statystyczne. Statystyka opisowa umożliwia
opracowanie i ustrukturalizowanie danych w skuteczny i sensowny sposób. Dostarcza
narzędzi pozwalających na opisanie dużych zbiorów danych i zredukowanie otrzymanych
informacji do czytelnej formy.
Wnioskowanie statystyczne pozwala podejmować decyzje na podstawie układu
danych. Badacze posługują się wnioskowaniem statystycznym, aby stwierdzić, czy otrzymane
dane są zgodne z teorią i postawionymi hipotezami. Możemy na przykład założyć, że
robotnicy są bardziej konserwatywni niż pracownicy szczebla kierowniczego. Aby stwierdzić,
czy hipoteza ta jest prawdziwa, możemy zapytać robotników i kierowników o ich poglądy
polityczne. Następnie wykorzystamy metody statystyki opisowej, aby porównać obie grupy, a
metody wnioskowania statystycznego, aby określić, czy zaobserwowane różnice są zgodne z
naszymi oczekiwaniami.
Zarówno statystyka opisowa, jak i wnioskowanie statystyczne pomaga naukowcom w
budowaniu wyjaśnień złożonych zjawisk społecznych dotyczących związków pomiędzy
zmiennymi. Statystyka dostarcza narzędzi analizowania, reprezentowania i interpretowania
tych związków.
¦ Rozkłady częstości
Po zakodowaniu i przygotowaniu danych do obróbki komputerowej można przystąpić
do ich analizy. Pierwszym zadaniem badacza jest skonstruowanie rozkładu częstości, aby
określić układ danych dla każdej ze zmiennych zależnych i niezależnych wykorzystanych w
badaniu. (Używamy zamiennie słów: reakcje, odpowiedzi, obserwacje, przypadki, działania i
zachowania). Rozkład częstości jednej zmiennej, znany jako jednozmiennowy rozkład
częstości, jest rozkładem pokazującym liczbę obserwacji w każdej kategorii tej zmiennej. Na
przykład, aby określić, jaki jest układ odpowiedzi dla takiej zmiennej jak „przekonania
religijne", można policzyć, ilu respondentów określiło się jako protestanci, katolicy, żydzi,
muzułmanie itd.
Aby skonstruować rozkład częstości, należy jedynie sporządzić listę kategorii
zmiennej i policzyć liczbę obserwacji wpadających do każdej kategorii. W tabeli 15.1
przedstawiliśmy przykład standardowej postaci jednozmiennowego rozkładu częstości.
Tabela składa się z pięciu wierszy, z których pierwsze cztery to kategorie zmiennej
(wymienione w kolumnie po lewej stronie). W kolumnie po prawej stronie podano liczbę
obserwacji wpadających do każdej kategorii. Liczba ta nazywana jest częstością i jest
zazwyczaj opisywana małą literą/. Ostatni wiersz (oznaczony jako AO pokazuje sumę
wszystkich częstości. Jeżeli kategorie są wzajemnie rozłączne, tzn. każda obserwacja została
sklasyfikowana tylko jeden raz, to ogólna liczba wszystkich częstości jest równa ogólnej
liczbie obserwacji w próbie.
371
Tabela 15.2. Rozkład częstości przypadków przemocy wobec dzieci w roku 1992
Kategoria /
Przemoc fizyczna 212281
Przemoc seksualna 129982
Zaniedbanie 449442
Ogółem 791705
Na podstawie: Alison Landes, Jacquelyn Quiram, Nancy R. Jacobs (red.) (1995),
Child Abuse: Belraying a Trust, Wyle. Texas: Information Plus, s. 33.
Porządek, w jakim badacz wymienia kategorie zmiennej w rozkładzie częstości
określany jest przez poziom pomiaru danych. Jak pisaliśmy w rozdziale 7, mamy cztery
rodzaje poziomu pomiaru danych: nominalny, porządkowy, interwałowy i ilorazowy. Na
każdym poziomie kategorie muszą być wzajemnie rozłączne i wyczerpujące. Na nominalnym
poziomie pomiaru kategorie są jedynie nazwami nie implikującymi żadnego porządku. Płeć,
pochodzenie etniczne, preferencje religijne to przykłady zmiennych nominalnych. Na
poziomie porządkowym możemy już kategorie uporządkować od najwyższych do najniższych
lub odwrotnie. Kategorie te nie odzwierciedlają jednak tego, jak dalece się różnią między
sobą. Na poziomie interwałowym i stosunkowym kategorie zmiennej odzwierciedlają
zarówno porządek, jak i wielkość różnic pomiędzy kategoriami. Jedyną różnicą pomiędzy
interwałowym i ilorazowym poziomem pomiam jest rzeczywisty punkt zerowy skali
ilorazowej, który pozwala powiedzieć na przykład, że jedna kategoria jest dwa razy większa
niż inna.
W przypadku zmiennych nominalnych można sporządzić listę kategorii w dowolnym
porządku. Na przykład w przypadku zmiennej „płeć" zarówno kategoria „mężczyzna", jak i
„kobieta" może się pojawić pierwsza. Ponieważ jednak kategorie zmiennej porządkowej
reprezentują określony porządek, powinny być wymienione w porządku rosnącym lub
malejącym. Weźmy dla przykładu rozkład częstości przedstawiony w tabeli 15.2, który
dotyczy rządowych danych na temat przemocy wobec dzieci. Zmienna „przemoc wobec
dzieci" została podzielona na następujące kategorie: „fizyczna", „seksualna" i „zaniedbanie".
Rozkład częstości dla zmiennych interwałowych
Kiedy przedstawiamy zmienne interwałowe w postaci rozkładu częstości, musimy
najpierw podjąć decyzję dotyczącą liczby kategorii, które zastosujemy, i określić punkty
odcięcia pomiędzy nimi. Ponieważ zmienne interwałowe to zazwyczaj zmienne ciągłe, więc
podział na rozłączne kategorie ma zazwyczaj charakter arbitralny. Na przykład wiek możemy
podzielić na kategorie, licząc je co rok, co dwa lata czy co pięć lat. Podobnie, na wiele
sposobów możemy poklasyfikować dochody.
Stosowane przedziały są zazwyczaj jednakowej szerokości, jednak sama szerokość
zależy od liczby obserwacji i celu badania. Im większa liczba obserwacji, tym szerszy
przedział. Jednakże zbyt szerokie kategorie powodują, że w efekcie tracimy dużo
szczegółowych informacji. Ogólna zasada, której warto tu przestrzegać, mówi, że przedział
nie powinien być tak szeroki, aby różnica pomiędzy dwoma po-
labela 15.1. Ogólna forma jednozmiennowego rozkładu częstości
Kategoria Częstość (/)
I /
II /
III /
IV /
Ogółem N
372
miarami, które do niego wpadają, miała istotne znaczenie. Na przykład, jeżeli badamy
rozwój poznawczy i uważamy, że różnica jednego roku w wieku badanych osób nie ma
znaczenia, lecz różnica dwóch lat jest już istotna, to powinniśmy wybrać przedziały 1-2, 3-4,
5-6. W tabeli 15.3 przedstawiliśmy przedziały i częstości dla hipotetycznej populacji.
Tabela 15.3. Rozkład częstości wielkości rodzin
Wiek w latach / Granice dokładne Środek przedziału (*)
1-2 6 0,5-2,5 1,5
3-4 4 2,5-4,5 3,5
5-6 10 4,5-5,6 5,5
7-8 3 6,5-8.5 7,5
W dwóch kolumnach znajdujących się po prawej stronie podano granice przedziałów i
środki przedziałów. Posługujemy się dokładnymi wartościami granic, aby pokazać, że
zmienna ma charakter ciągły — jest to istotne wymaganie w przypadku niektórych technik
graficznego przedstawiania danych i analizy statystycznej danych. Środek przedziału jest
pojedynczą wartością, za pomocą której możemy opisać każdy przedział i można ją
wykorzystywać w obliczeniach statystycznych. Dokładne granice to granice zmiennej
interwałowej obejmujące połowę jednego roku więcej dodaną do każdej ze stron przedziału.
Szerokość przedziału w jest różnicą dokładnych wartości granic przedziału:
w=U-L,
gdzie U oznacza górną granicę, a L dolną. Szerokość dla ostatniego przedziału z tabeli
15.3 wynosi:
2 = 8,5-6,5.
Środek każdego przedziału (oznaczony jako x) to pojedyncza wartość reprezentująca
cały przedział. Uzyskuje się ją, dodając połowę szerokości przedziału do jego dolnej granicy:
x=l + wl2.
Zatem dla drugiego przedziału klasowego z tabeli 15.3 środek przedziału wynosi:
x = 2,5 + 2/2 = 3,5.
Rozkład procentowy
Przedstawienie danych w postaci rozkładu częstości dla jednej zmiennej jest zaledwie
pierwszym krokiem analizy. Częstości trzeba teraz zamienić w takie miary,
373
które mają znaczenie interpretacyjne. Sam rozkład częstości nie ma znaczenia
interpretacyjnego — musi zostać porównany z innymi rozkładami. Można na przykład ocenić,
czy 2000 zarejestrowanych demokratów to istotna liczba jedynie w stosunku do mieszkańców
pewnej społeczności, w stosunku do wszystkich zarejestrowanych wyborców, w stosunku do
liczby zarejestrowanych republikanów czy w stosunku do liczby zarejestrowanych
demokratów w innych okręgach.
Aby ułatwić porównania, można przekształcić częstości w proporcje procenty.
Proporcje otrzymamy, dzieląc częstość danej kategorii przez ogólną liczbę odpowiedzi. Kiedy
pomnożymy je przez 100, proporcja staje się procentem. Proporcje wyraża się symbolicznie
jako f/N, a procenty jako f/Nx 100. Zarówno proporcje, jak i procenty odzwierciedlają
względną wagę określonej kategorii rozkładu. Na przykład względna waga kategorii
„przemoc fizyczna" z tabeli 15.2 jest wyrażana proporcją 212281/791705 = 0,268 lub w
postaci procent 212281/791 705 x 100 = 26,8%. Dane te wskazują, że przynajmniej jedno
dziecko na dwoje, które doświadcza przemocy, doświadcza przemocy fizycznej.
Tabela 15.4. Klasa społeczna — rozkład danych: populacja
białych (częstości bezwzględne i procenty)
KJasa społeczna / Procent
Klasa wyższa 25 5
Klasa średnia 221 48
Klasa robotnicza 201 43
Klasa niższa 16 4
Ogółem (N) 463 100
Zródlo: General Social Survey, 1988-1991.
Proporcje i procenty pozwalają na porównanie dwóch lub więcej rozkładów częstości.
Weźmy na przykład przedstawiony w tabelach 15.4 i 15.5 rozkład danych dotyczących klasy
społecznej czarnych i białych respondentów. Dane te zostafy uzyskane w Generalnym
Sondażu Społecznym — GSS (1988-1991). (Więcej infor-
Tabela 15.5. Klasa społeczna — rozkład danych: populacja czarnych (częstości
bezwzględne i procenty)
Klasa społeczna f Procent
Klasa wyższa 14 7
Klasa średnia 82 39
Klasa robotnicza 93 44
Klasa niższa 22 10
Ogółem (N) 211 100
Zródlo: General Social Survey, 1988-1991.
374
macji na temat Generalnego Sondażu Społecznego można znaleźć w dodatku A).
Chociaż liczba osób należących do klasy pracującej jest większa w przypadku białych niż
czarnych respondentów (201 w stosunku do 93), to bezpośrednie porównanie częstości
bezwględnych prowadzi do błędu, gdyż różna jest liczba respondentów JV w każdej z
populacji. Aby ocenić względną wagę każdej z klas w każdym z rozkładów, trzeba
przekształcić częstości na procenty. Dane procentowe pokazują, że nasze pierwsze wrażenie
wypływające z oceny częstości bezwględnych było błędne. Klasa pracująca jest niemal
jednakowa w każdej z populacji — 43% w populacji białych i 44% w populacji czarnych.
Nowe dane sprawiają, że porównania między populacjami stają się łatwiejsze.
I Graficzna prezentacja rozkładów
Rozkład częstości jest sposobem prezentacji danych w społeczności badaczy —
czasami również dla opinii publicznej. Niektórzy mają jednak kłopoty z czytaniem i
rozumieniem danych tabelarycznych. Graficzna prezentacja danych jest alternatywną metodą
przedstawiania informacji wyrażonych w postaci rozkładu częstości. Posługując się
wykresami graficznymi, można przekazywać informacje w bardziej skuteczny sposób.
Najczęściej wykorzystywanymi rodzajami wykresów graficznych są: wykres kołowy, wykres
słupkowy i histogram. Zarówno wykres kołowy, jak i słupkowy można stosować do
przedstawiania danych nominalnych i porządkowych. Dla danych interwałowych używa się
histogramu.
Wykres kołowy
Wykres kołowy obrazuje różnice pomiędzy częstościami czy procentami uzyskanymi
dla zmiennych nominalnych i porządkowych, wyrażając je w postaci części koła.
Poszczególne segmenty, aby je wyodrębnić, są albo w różnym stopniu zacienio-wane, albo
różnie zakreskowane. Ich suma wynosi 100% lub jest równa ogólnej liczbie obserwacji. Jeden
wykres kołowy może być wykorzystywany do reprezentowania pojedynczego rozkładu —
dwa lub więcej do porównywania rozkładów. Jeżeli chcemy podkreślić jakiś rodzaj danych,
to możemy „wyciąć" jeden z segmentów wykresu, aby w ten sposób zwrócić na niego uwagę.
W tabeli 15.6 przedstawiliśmy rozkład częstości opinii na temat wydatków rządowych
przeznaczonych na opiekę nad dziećmi pochodzącymi z biednych rodzin oraz dziećmi,
których rodzice pracują. Dane te świadczą, że ludzie chętniej popierają wydatki rządu
przeznaczone dla dzieci biednych (16% odpowiedzi w kategorii „znacznie więcej" i 45%
odpowiedzi w kategorii „więcej") niż dla dzieci, których rodzice pracują (11% odpowiedzi w
kategorii „znacznie więcej" i 26% odpowiedzi w kategorii „więcej").
Na wykresie kołowym na rycinie 15.1 przedstawiono te same informacje co w tabeli
15.6. Zauważmy, że części odpowiadające kategoriom „znacznie więcej" i „więcej" zostały
wycięte, aby uwypuklić różnice pomiędzy poparciem dla wydatków rządu w obu grupach.
Wykres kołowy umożliwia szybkie dostrzeżenie różnic między grupami bez konieczności
analizowania rozkładu częstości.
375
Tabela 15.6. Opinie dotyczące wydatków rządu dla dzieci
Dzieci Dzieci
Rząd powinien z biednych rodzin rodziców pracujących
% %
Znacznie zwiększyć wydatki 16 11
Zwiększyć 45 26
Zostawić je bez zmian 33 39
Zmniejszyć 5 16
Znacznie zmniejszyć wydatki 1 8
Ogółem 100 100
Źródło: General Social Survey, 1991.
Znacznie zwiększyć 16%
Zwiększyć
Zwiększyć 26%
Znacznie zmniejszyć 1%
Zmniejszyć 5%
Zostawić je bez zmian 33%
Opinie dotyczące poziomu
wydatków dla dzieci
z biednych rodzin
Opinie dotyczące poziomu wydatków dla dzieci rodziców pracujących
Ryc. 15.1. Opinie dotyczące wydatków rządu na pomoc dla dzieci z biednych rodzin i
dla dzieci rodziców pracujących
Wykres słupkowy
Podobnie jak wykres kołowy, wykres słupkowy jest narzędziem przedstawiania
danych nominalnych i porządkowych. W odróżnieniu od wykresu kołowego na wykresie
słupkowym można jednocześnie przedstawić więcej niż jeden rozkład częstości. Wykres
słupkowy tworzy się, nanosząc kategorie zmiennej na osi poziomej i rysując — dla każdej
kategorii — prostokąty o jednakowej szerokości. Wysokość każdego prostokąta jest
proporcjonalna do liczby lub procentu przypadków w tej kategorii. Wykres słupkowy można
konstruować albo poziomo, albo pionowo. Na rycinie 15.2 przedstawiliśmy wykres pionowy.
Wykres poziomy jest konstruowany w ten sam sposób, lecz kategorie zmiennej są
umieszczane na osi pionowej, a prostokąty rysuje się poziomo.
376
zbyt małe
wystarczające Postawy wobec wydatków
zbyt duże
Ryc. 15.2. Postawy wobec wydatków rządu na pomoc społeczną i zasiłki
Tabela 15.7. Opinie dotyczące wydatków rządu na pomoc społeczną i zasiłki
Wydatki rządu Pomoc społeczna Zasiłki
% . %
Zbyt małe 54,7 23,5
Wystarczające 41,0 36,9
Zbyt duże 4,3 39,6
Ogółem 100 100
Źródło: General Social Survey, 1991.
W tabeli 15.7 przedstawiliśmy rozkład częstości postaw wobec wydatków rządu
przeznaczanych na pomoc społeczną i zasiłki. Rozkład częstości odpowiedzi dla zmiennej
„pomoc społeczna" pokazuje, że większość respondentów popiera ten sposób pomocy ze
strony rządu (jedynie 4,3% respondentów uważa, że pomoc ta jest zbyt duża). Rozkład
częstości dla drugiej zmiennej („zasiłki") pokazuje natomiast, że opinie ludzi są tu bardziej
wyrównane i że wiele osób zaakceptowałoby cięcia rządu w tym zakresie (aż 39,6% uważa,
że wydatki te są za duże).
Na rozkładzie słupkowym na rycinie 15.2 zobrazowano odmienne postawy wobec
wydatków rządu na pomoc społeczną i zasiłki. Przylegające do siebie dwa prostokąty
reprezentują dwie zmienne — pomoc społeczną i zasiłki. Zauważmy, że prostokąty
reprezentujące różne zmienne są ukazane kontrastowo, co ułatwia porównania i każda
kategoria zmiennej „postawa wobec wydatków" obejmuje dwa prostokąty.
377
Histogram
Histogramami posługujemy się po to, aby graficznie przedstawić rozkład częst dla
zmiennej interwałowej i stosunkowej. Histogram przypomina wykres słupko jednak bez
przerw pomiędzy kolejnymi prostokątami. Prostokąty są umieszc jeden po drugim, aby
pokazać, że zmienna ma charakter ciągły, a interwały -w miejsce rozłącznych kategorii — są
umieszczane wzdłuż osi poziomej. Wysokość prostokątów histogramów odzwierciedla
procent lub częstość w danym interwale. W odróżnieniu od wykresu słupkowego histogram
nie pozwala na przedstawienie informacji dotyczących więcej niż jednego rozkładu. W tabeli
15.8 i na rycinie 15.3 przedstawiono rozkład zgonów z powodu AIDS, jaki zanotowano
wiatach 1982-1991 w różnych grupach wiekowych.
Tabela 15.8. Rozkład danych dotyczących liczby zgonów z powodu AIDS w latach
1982-1991
Procent zgonów z powodu AIDS wieK
%
Poniżej 13 1
13-29 19
30-39 45
40-49 23
50-59 8
60 i więcej 4
Ogółem 100
Źródło: Statistical Abslracl, 1992.
poniżej 13 13-29 30-39 40-49 50-59
60 i więcej
wiek
Ryc. 15.3. Rozkład danych dotyczących liczby zgonów z powodu AIDS w latach
1982-1991
Źródło: United States Bureau of the Census: Statistical Abstracts oflhe United States:
1992, Washington. DC., 1992.
378
I Miary tendencji centralnej
Jeżeli wymagany jest jedynie skrótowy opis wyników, to nie ma konieczności
przedstawiania całego rozkładu. Gdybyśmy — opisując poziom wykształcenia Amerykanów
— posłużyli się rozkładem częstości, byłoby to raczej mało efektywne. Zamiast tego można
podkreślić, że większość Amerykanów ma wykształcenie średnie i że bredni poziom
wykształcenia w Stanach Zjednoczonych to dwanaście lat nauki.
W większości rozkładów zebrane obserwacje mają tendencję do gromadzenia się
wokół centralnej wartości. Na przykład, rozkład dochodów można scharakteryzować za
pomocą najczęściej powtarzającej się wartości lub średnich dochodów. Podobnie rozkład
opinii również ma tendencję do skupiania się wokół pewnego zakresu. Cecha ta sprawia, że
cały rozkład można przedstawić za pomocą jednej wartości zamiast rozbudowanej tabeli.
Zatem porównanie dwóch rozkładów staje się znacznie łatwiejsze. Na przykład można
porównać przeciętne dochody w Stanach Zjednoczonych z przeciętnymi dochodami w
Wielkiej Brytanii, czy też porównać przeciętne wyniki w teście inteligencji studentów w Rosji
z przeciętnymi wynikami studentów amerykańskich.
Miary statystyczne odzwierciedlające „typowe" czy „przeciętne" charakterystyki
rozkładu częstości nazywane są miarami tendencji centralnej. Naukowcy najczęściej
posługują się trzema miarami: wartością modalną, medianą i średnią arytmetyczną.
Wartość modalna
Wartość modalna to kategoria lub obserwacja, która w rozkładzie powtarza się
najczęściej. Stosowana jest jako miara tendencji centralnej przeważnie w stosunku do
zmiennych nominalnych. Określa się ją, znajdując tę kategorię, do której wpada największa
liczba przypadków. Rozważmy na przykład rozkład częstości w kategoriach religijnych
przedstawiony w tabeli 15.9. Rozkład ten składa się z pięciu kategorii. Pierwsza kategoria,
protestanci, jest najbardziej dominująca, dlatego ta kategoria jest wartością modalną naszego
rozkładu.
Tabela 15.9. Rozkład częstości w kategoriach religijnych
Kategorie religijne /
Protestanci 62
Katolicy 52
Żydzi 10
Muzułmanie 12
Buddyści 2
Ogółem (AO 138
Większość rozkładów to rozkłady jednomodalne, tzn. zawierające tylko jedną
kategorię, w której mieści się większość przypadków. Czasami jednak rozkład jest
dwumodalny, tj. zawiera dwie takie kategorie. Z sytuacją taką mamy najczęściej do
379
ryla-
czynienia wówczas, gdy rozkład opisuje dwie populacje. Na przykład rozkład wzro- j
stu jest dwumodalny, łączy bowiem dane zarówno dla kobiet, jak i dla mężczyzn. Każda płeć
natomiast jest charakteryzowana przez inną typową wartość wzrostu. |
Zaletą wartości modalnej jest łatwość jej określania na podstawie rozkładu częstości.
Może zatem być stosowana jako pierwszy i szybki wskaźnik tendencji centralnej rozkładu.
Chociaż wartość modalną można bardzo łatwo określić, trzeba jednak pamiętać, że jest to
wskaźnik bardzo wrażliwy. Jej pozycja może się przesuwać wraz ze zmianami sposobu
kategoryzacji zmiennej. Dlatego nie jest to stabilna miara tendencji centralnej.
Mediana
Mediana to miara pozycyjna dzieląca rozkład na dwie równoliczne części.
Definiowana jest jako wartość rozkładu, która znajduje się dokładnie w połowie pomiędzy
najmniejszą i największą wartością rozkładu. Na przykład w szeregu 1, 3, 4. 6, 7 mediana
wynosi 4. Medianę można obliczyć jedynie dla tych danych, które dadzą się uporządkować,
dlatego można ją stosować dla danych porządkowych i wyższych.
Medianę oblicza się z danych nie pogrupowanych poprzez znajdowanie środkowej
obserwacji. Przy nieparzystej liczbie przypadków medianą jest (N+ l)/2 obserwacja, gdzie N
oznacza liczbę przypadków. Rozważmy następujący zbiór dziewięciu obserwacji:
6,9, 11, 12, 16, 18,21,24,30
T
mediana
Piąta obserwacja [(9+ l)/2] dzieli ten zbiór na połowy. Medianą zatem jest piąta
obserwacja w szeregu, a jej wartość wynosi 16. W przypadku zbioru parzystego mediana
mieści się w środku pomiędzy dwoma środkowymi obserwacjami i oblicza się ją jako średnią
z N/2 i zV/2 + 1 obserwacji. Na przykład w zbiorze obserwacji:
1, 3, 4, 5, 6, 7, 8, 9
T
mediana
medianą jest średnia wartości czwartej (8/2) i piątej (8/2+1) obserwacji, tj. (5 + 6)/2 =
5,5.
Dla danych pogrupowanych medianę oblicza się, dokonując interpolacji wewnątrz
przedziału zawierającego środkową obserwację. Wzór pozwalający znaleźć medianę jest
następujący:
Md=L +
/V(0,5) - cl
poniżej
/
w,
(15.1)
gdzie Md — mediana, L — dolna granica przedziału zawierającego medianę,
c/poniżej — skumulowana suma częstości poniżej przedziału zawierającego medianę,
380
/— częstość przedziału zawierającego medianę, w — szerokość przedziału
zawierającego medianę, N — ogólna liczba przypadków.
Tabela 15.10. Hipotetyczny rozkład wieku dla 134 przypadków
Dokładne granice Częstość Procent
Wiek przedziałów / skumulowana cf skumulowany c
1-10 0,5-10,5 10 10 7
11-20 10,5-20,5 12 22 16
21-30 20,5-30,5 17 39 29
31-40 30,5-40,5 21 60 45
41-50 40,5-50,5 25 85 63
51-60 50,5-60,5 20 105 78
61-70 60,5-70,5 18 123 92
71-80 70,5-80,5 11 134 100
N 134 134
Aby zilustrować sposób obliczania mediany z danych pogrupowanych, posłużymy się
danymi przedstawionymi w tabeli 15.10, w której przedstawiono rozkład wieku dla 134 osób.
Dane te zostały podzielone na osiem grup o szerokości 10 lat. Ponieważ mamy 134
obserwacje (7V= 134), więc medianą będzie wartość sześćdziesiątej siódmej obserwacji
[134(0,5) = 67]. W kolumnie, w której przedstawiono częstości skumulowane, możemy
odczytać, że poniżej przedziału 41-50 znajduje się 60 obserwacji, a sam przedział 41-50
zawiera jeszcze 25 obserwacji. Sześćdziesiąta siódma obserwacja będzie się zatem
znajdowała w tym przedziale. Aby ustalić, ile dokładnie wynosi mediana, musimy określić,
jaki wiek odpowiada siódmemu przypadkowi w tym przedziale. Te siedem przypadków to
7/25 = 28% wszystkich przypadków w tym przedziale. Ponieważ szerokość przedziału
wynosi 10, przeto należy dodać 28% z 10 (2,8) do dolnej granicy przedziału zawierającego
medianę. Mediana wynosi zatem 40,5 + 2,8 = 43,3. Poniższe równanie obejmuje wszystkie te
kroki:
El
§ 3 5. »
"< o a
Ł
o
< (u
5r< O- co
— J> >— oj
O J> -fc- J>
Ul NO H-
NOONUtJi.-JJi.ONKi
OJ U> K> O <—' -O Ki NO
K>00>—'•—'00ONKi00OJO000ON00UiJ>— 4^
O -O VO OJ — On *-*
no Ki ON Ki NO OO On
J^ONaNJ^KiNOOOUiKiUiKłKiONONOOO 4>
h— On -~i
_ -o Id o 261 UJ 072 545 372 128 111 to
984 701 911 976
dc g* dc 986 040 dc ON dc 360 283 459 527 762 057
011 799 845 103 360
\ „_ ro 4> KJ K) Ui w OJ DC ksj to to _
DC KJ UJ oc Ui to
ment o Ul Ul OJ KJ Ui DC Ui DC KJ sO Ul o Ul DC OJ U) o Oj
p dc UJ dc Ui -o O o UJ DC
fComm
I Ćwiczenia komputerowe
1. Posługując się plikiem GSS* lub jakimś innym zbiorem danych, opracuj rozkład
częstości dla jednej zmiennej nominalnej, jednej zmiennej porządkowej i jednej zmiennej
interwałowej. Oblicz tylko te miary tendencji centralnej i te miary rozproszenia, które są
właściwe dla danego poziomu pomiaru.
2. Oblicz ręcznie wszystkie statystyki z ćwiczenia 1 i sprawdź, czy otrzymałeś takie
same rezultaty.
3. Opracuj wykres kołowy i wykres słupkowy dla zmiennej nominalnej i dla
zmiennej porządkowej.
(Por. dodatek A, s. 528)
I Literatura dodatkowa
Blalock H.M. (1975), Statystyka dla socjologów. Warszawa: PWN.
Ferguson G.A., Takane Y. (1997), Analiza statystyczna w psychologii i pedagogice,
Warszawa: Wyd. Nauk. PWN.
* Plik GSS jest dostępny w pakiecie statystycznym SPPS+ (przyp. tłum.).
Rozdział ló
Analiza dwuzmiennowa
Pojęcie związku między dwiema zmiennymi 405
W jaki sposób tworzy się tabelę dla dwóch zmiennych 406
Współzmienność: przykład 407
Przedstawianie danych z tabeli dla dwóch zmiennych w postaci
procentowej 409 Mediana i średnia arytmetyczna jako miary współzmienności 413
Miara związku 414
Proporcjonalne zmniejszenie liczby błędów 416
Miary związku dla danych nominalnych 417
Lambda — współczynnik przewidywalności Guttmana 417
Miary związku pomiędzy zmiennymi dla skali porządkowej 421
Pojęcie pary danych 421 Rodzaje par 422 Współczynnik gamma 424
Współczynnik tau-i> Kendalla 427
Miary siły związku dla danych interwałowych 428
Reguły predykcji 428
Regresja liniowa 429
Kryterium najmniejszych kwadratów 430
Błędy predykcji 433
Współczynnik korelacji według momentu iloczynowego Pearsona (r) 434
Podsumowanie 436
Podstawowe terminy 436
Pytania sprawdzające 436
Ćwiczenia komputerowe 438
Literatura dodatkowa 438
Wyobrażenia na temat seksu są tak stare jak ludzkość, jednakże to, co Amerykanie
robią w łóżkach, z kim i jak często, bada się systematycznie dopiero od pięćdziesięciu lat. W
roku 1992 zespół badaczy z uniwersytetu w Chicago opublikował rezultaty szerokich badań,
które objęły około 3500 Amerykanów w wieku od 18 do 59 lat. Uzyskane dane,
opublikowane w pracy Sex in America: A Definitive Survey, świadczą m.in. o tym, że
większość Amerykanów żyje w związkach monogamicznych, że 75% osób ma w ciągu roku
tylko jednego partnera seksualnego i przeciętnie około trzech partnerów od czasu ukończenia
18 roku życia. Badanie to potwierdziło również, że dzisiejsze nastolatki wcześniej
rozpoczynają życie seksualne, a połowa młodzieży zdobywa pierwsze doświadczenia
seksualne przed ukończeniem 17 lat1.
Wspomniane badanie jest istotne nie tylko dlatego, że opisuje wzorce zachowań
seksualnych Amerykanów, ale również dlatego, że analizuje, jak się zmieniają zachowania
seksualne zależnie od wieku, rasy czy wyznania religijnego. Potwierdziło na przykład, że
mężczyźni częściej niż kobiety myślą o seksie, że mężczyźni i kobiety inaczej rozumieją, co
to znaczy dopasowanie partnerów. Praktyki seksualne zależą również od wyznania
religijnego: dziewczęta wyznania rzymskokatolickiego są dłużej dziewicami, a osoby
pochodzenia żydowskiego mają najwięcej partnerów seksualnych.
Badanie różnic w zachowaniach seksualnych mężczyzn i kobiet czy katolików i osób
pochodzenia żydowskiego nazywa się analizą dwuzmiennową. Analiza dwuzmiennowa
pozwala na badanie związku pomiędzy dwiema zmiennymi. W powyższym przykładzie
badacze przeanalizowali związki pomiędzy płcią i praktykami seksualnymi, porównując życie
seksualne mężczyzn i kobiet. Zbadali również związki pomiędzy wyznaniem religijnym a
praktykami seksualnymi, porównując życie seksualne katolików i żydów (a także innych grup
religijnych).
W tym rozdziale omówimy pojęcie związku pomiędzy dwiema zmiennymi i opiszemy
różne metody badania związku pomiędzy nimi. W pierwszej części ukażemy związek dwóch
zmiennych, w drugiej opiszemy miary związku dla zmiennych nominalnych, w trzeciej dla
zmiennych porządkowych, a w ostatniej dla zmiennych interwałowych.
¦ Pojęcie zwiqzku między dwiema zmiennymi
Każdy wie, co to jest związek dwóch zmiennych. Wiemy, że rzeczy nas otaczające są
ze sobą powiązane. Obserwujemy, jak rosną dzieci, jak zwiększa się ich waga; widzimy, że
miasta stają się bardziej zanieczyszczone niż okręgi wiejskie i że kobiety zarabiają mniej niż
mężczyźni. Każda z tych obserwacji to stwierdzenie związku: pomiędzy wiekiem i wagą,
pomiędzy stopniem urbanizacji i zanieczyszczeniem, pomiędzy płcią i zarobkami.
' Robert T. Michael i in. (1994), Sex in America: A Definitive Survey, New York:
Little, Brown.
405
Aby można było powiedzieć, że miasta stają się bardziej zanieczyszczone niż okręgi
wiejskie, musimy opisać związek pomiędzy urbanizacją i zanieczyszczeniem. Będzie to
możliwe jedynie wtedy, gdy pokażemy, że stopień zanieczyszczenia występujący w miastach
jest większy niż stopień zanieczyszczenia na wsiach. Innymi słowy, aby stwierdzić, że istnieje
związek pomiędzy X i Y, musimy pokazać, że pewne kategorie zmiennej X zmieniają się
wraz z pewnymi kategoriami zmiennej Y. Prawidłowość ta, nazywana współzmiennością, jest
podstawowym pojęciem definiującym związek czy relację.
Pierwszym etapem badania związku pomiędzy dwiema zmiennymi jest
skonstruowanie tabeli (rozkładu) dwuzmiennowej.
W jaki sposób tworzy się tabelę dla dwóch zmiennych
W tabeli dla dwóch zmiennych zestawia się wartości tych zmiennych. Tabela zawiera
wiersze i kolumny. Kategorie jednej zmiennej są nazwami wierszy, a kategorie drugiej —
kolumn. W kolumnach najczęściej umieszcza się zmienną niezależną (na górze), a w
wierszach zmienną zależną (po lewej stronie tabeli). Przykład 16.1 jest ilustracją sposobu
konstrukcji tabeli dwuzmiennowej. Najpierw dla szesnastu osób badanych wypisano dane
dotyczące ich pici i satysfakcji z pracy. Następnie dane te zliczono i zaklasyfikowano do
odpowiednich komórek tabeli 16.1. biorąc jednocześnie pod uwagę ich wartości dla obu
zmiennych. Tabela ta jest tabelą 3x2, ponieważ ma trzy wiersze i dwie kolumny
reprezentujące zmienną „płeć" i zmienną „zadowolenie z pracy". W czwartym wierszu i w
trzeciej kolumnie umieszczono odpowiednie sumy brzegowe.
Przykład 16.1
Tworzenie tabeli dla dwóch zmiennych
Płeć Satysfakcja z pracy
Mężczyźni = M Wysoka = W
Kobiety = K Średnia = S Niska = N
Nr ident. Pleć Satysfakcja z pracy
1 M W
2 M W
3 K W
4 M ś
5 K N
6 K N
7 K N
8 M Ś
9 M W
10 K ś
11 M w
12 M w
13 M N
14 K Ś
15 K N
16 K W
406
Tabela 16.1. Satysfakcja z pracy a płeć
Satysfakcja z pracy Płeć Suma w wierszu
mężczyźni kobiety
Wysoka Średnia Niska Suma w kolumnie 5218 2 2 4 8 7 4 5 16
Współzmienność: przykład
Tabele 16.2, 16.3 i 16.4 ilustrują istotę pojęcia współzmienności. Przedstawiliśmy w
nich hipotetyczne dane dotyczące dwóch zmiennych: wyznania religijnego i klasy społecznej.
Tabela 16.2 przedstawia idealną współzmienność zmiennych: wszyscy katolicy znaleźli się w
niższej klasie społecznej, wszyscy żydzi w średniej, a protestanci w wyższej klasie
społecznej. Zmienne te są współzmienne, ponieważ kolejnym kategoriom zmiennej
„wyznanie religijne" towarzyszy określona kategoria drugiej zmiennej „klasa społeczna".
Ten sam schemat powtarza się w tabeli 16.3, jednakże nie w tak doskonały sposób,
ponieważ nie wszystkie osoby o określonym wyznaniu religijnym należą do tej samej klasy.
Można jednak nadal twierdzić, że większość osób o określonym wyznaniu religijnym należy
do określonej klasy społecznej.
Kiedy zmienne nie są ze sobą powiązane, mówimy, że są niezależne, tzn. że się nie
współzmieniają. Tabela 16.4 jest ilustracją takiego przypadku. Nie ujawnia żadnego
określonego wzorca dla jakiejkolwiek grupy religijnej. Katolicy znajdują się zarówno w
klasie wyższej, średniej, jak i niższej. Podobnie sytuacja przedstawia się dla żydów i
protestantów. Innymi słowy, nie możemy nic powiedzieć o statusie spoleczno-ekonomicznym
danej osoby na podstawie jej wyznania religijnego.
Tabela 16.2. Klasa społeczna a wyznanie religijne (idealna współzmienność)
Przynależność religijna
Klasa społeczna katolicy żydzi protestanci Ogółem
Wyższa 0 0 8 8
Średnia 0 8 0 8
Niższa 8 0 0 8
Ogółem 8 8 8 24
Tabele 16.2, 16.3 i 16.4 to przykłady rozkładów dwuzmiennowych przedstawionych w
formie tabelarycznej. Rozkład dwuzmiennowy składa się z kategorii dla dwóch zmiennych
oraz łącznych liczebności w tych kategoriach. Każda tabela składa się z dwóch wymiarów, po
jednym dla każdej zmiennej. Każda ze zmiennych została podzielona na określoną liczbę
kategorii. Zmienna „klasa społeczna" została na przykład podzielona na trzy kategorie:
„wyższa", „średnia" i „niższa", a zmienna „przynależność religijna" ma również trzy
kategorie: „katolicy", „żydzi"
407
i „protestanci". Komórki tabeli znajdują się na skrzyżowaniu dwóch kategorii, z
których każda należy do innej zmiennej. Liczebności znajdujące się w każdej komórce
oznaczają liczbę przypadków posiadających jednocześnie obie cechy. Na przykład w tabeli
16.4 możemy przeczytać, że dwóch katolików należy do klasy wyższej, trzech do klasy
średniej i trzech do klasy niższej. Z kolei w grupie osób pochodzenia żydowskiego mamy trzy
osoby należące do klasy wyższej, dwie osoby do klasy średniej i trzy do klasy niższej.
Wreszcie wśród protestantów trzy osoby należą do klasy wyższej, trzy do średniej i dwie do
klasy niższej.
Tabela 16.3. Klasa społeczna a wyznanie religijne (umiarkowana współzmienności
Przynależność religijna
Klasa społeczna katolicy żydzi protestanci Ogółem
Wyższa 0 2 6 8
Średnia 1 6 1 8
Niższa 7 0 1 8
Ogółem 8 8 8 24
Tabela 16.4. Klasa społeczna a wyznanie religijne (współzmienność
prawie zerowa)
Przynależność religijna
Klasa społeczna katolicy żydzi protestanci Ogółem
Wyższa 2 3 3 8
Średnia 3 2 3 8
Niższa 3 3 2 8
Ogółem 8 8 8 24
Tabelę dwuzmiennową można również przedstawić w postaci zbioru rozkładów
jednozmiennowycłr. Dzieląc tabelę według kolumn i wydzielając każdą kolumnę,
otrzymaliśmy trzy rozkłady jednozmiennowe odpowiednio dla katolików, żydów i
protestantów. Jeżeli porównamy trzy rozkłady jednozmiennowe na przykład z tabeli 16.3, to
przekonamy się, że każdy rozkład różni się od pozostałych stopniem rozproszenia danych. W
rozkładzie opisującym protestantów większość respondentów mieści się w górnej, skrajnej
części rozkładu; w grupie żydów — w środku rozkładu, a w grupie katolików — w jego
dolnej części. Ta tendencja jest jeszcze wyraźniejsza w tabeli 16.2 —jest ona bowiem
doskonała (tj. wszyscy protestanci należą do klasy wyższej itd.). W tabeli 16.4 z kolei nie ma
żadnej szczególnej różnicy pomiędzy trzema rozkładami. Rozproszenie wyników jest w
każdym z tych rozkładów identyczne. Badacz może zatem określić wielkość współzmienności
dla tabeli dwuzmiennowej, porównując rozkłady jednozmiennowe tworzące tę tabelę. Im
większa różnica, tym większy stopień współzmienności dwóch zmiennych.
2 Theodore R. Anderson, Morris Zelditch, Jr. (1968), A Basic Course in Statistics,
Fort Worth: Holt, Rinehart i Winston (rozdz. 6).
408
Przedstawianie danych z tabeli dla dwóch zmiennych w postaci procentowej
Użytecznym sposobem przedstawiania danych w tabeli dwuzmiennowej ułatwiającym
porównywanie rozkładów jednozmiennowych w celu określenia powiązania między nimi jest
przedstawianie danych w postaci procentów. Jest ono właściwe dla skali nominalnej, jednak
badacze często obliczają procenty również dla danych porządkowych lub interwałowych. W
tabeli 16.5 przedstawiono rozkład płci i stanu cywilnego dla osób publicznych. Dane te mają
być podstawą do weryfikacji hipotezy, że życie prywatne kobiet pracujących w biurze
wyborczym jest inne niż życie prywatne mężczyzn. Tabelę tę zbudowano w sposób
konwencjonalny: „płeć" (zmienna niezależna) znajduje się na górze tabeli, a „stan cywilny"
(zmienna zależna) po lewej stronie. Każda kategoria płci tworzy rozkład jednozmiennowy, a
właściwe dla niej liczebności można przekształcić na procenty, wykorzystując sumy ogólne
jako podstawę ich obliczania (tzn. 72 kobiety i 66 mężczyzn stanowią po 100% w swojej
kategorii). Procenty te podaliśmy w tabeli 16.6. Następnym krokiem jest porównanie
rozkładów jednozmiennowych w celu określenia stopnia korelacji pomiędzy płcią i stanem
cywilnym wśród osób publicznych. Procenty obliczamy w kolumnach, natomiast dane
porównujemy w wierszach. I tak proporcję zamężnych kobiet porównujemy z proporcją
żonatych mężczyzn (68,1% i 89,4%). W tabeli 16.6 przedstawiliśmy wyraźny obraz korelacji:
wśród osób publicznych płeć jest związana ze stanem cywilnym. Dla każdej zmiennej
otrzymaliśmy inny rozkład jednozmiennowy: kobiety są rzadziej zamężne, są częściej
rozwiedzione i są częściej wdowami. Związek pomiędzy płcią a stanem cywilnym ilustruje
również rycina 16.1.
Tabela 16.5. Rozkład stanu cywilnego względem płci wśród osób publicznych
Stan cywilny Kobiety Mężczyźni
Zamężne/żonaci Stanu wolnego, nigdy zamężna/żonaty Rozwiedziony(a), w separacji
Wdowa/wdowiec Ogółem 49 2 10 11 72 59 2 5 66
Źródło: Susan J. Carroll (1989), The Persona! is Poiitical: The Intersection of Private
Lives and Public Roles among Women and Men in Elective and Appointive Office, „Women
and Politics", 9, s. 2.
Tabela 16.6. Rozkład stanu cywilnego względem płci wśród osób publicznych (w
procentach)
Stan cywilny Kobiety Mężczyźni
Zamężna/żonaty Stanu wolnego, nigdy zamężna/żonaty Rozwiedziony(a), w separacji
Wdowa/wdowiec Ogółem 68,1 2,8 13,9 15,3 100 (W =72) 89,4 3,0 7,6 100 (JV=66)
409
rozwiedziony
- wdowa
stanu wolneqo
rozwiedziona
sianu woinego
żonaty
— zamężna
mężczyźni kobiety
Ryc. 16.1. Stan cywilny a płeć wśród osób publicznych
Jeżeli przyjmujemy założenie, że jedna ze zmiennych jest zmienną niezależną, a druga
zmienną zależną, to procenty należy obliczyć dla zmiennej niezależnej. Jeżeli płeć
potraktowalibyśmy jako zmienną zależną, a stan cywilny jako zmienną niezależną (co raczej
nie jest możliwe w naszym przykładzie), to procenty należałoby obliczyć wzdłuż wierszy, a
nie wzdłuż kolumn.
Wprawy w czytaniu takich tabel można nabyć, analizując przykład 16.2 oraz dodatek
A.
Przykład 16.2
Zasady czytania tabeli
Tabelaryzacja danych jest użytecznym sposobem przedstawiania wyników badań w
naukach społecznych. Poniżej przedstawiamy prosty przewodnik mówiący, jak czytać takie
tabele.
1. Przeczytaj tytuł. Tytuł zawiera informacje o tym, co zawiera tabela. Tytuł tabeli
16.7 mówi, że tabela ta zawiera dane dotyczące różnic postaw wobec aborcji między
kobietami a mężczyznami.
2. Przeanalizuj źródło. Najczęściej informacje dotyczące źródła danych umieszczane
są na dole tabeli, jak w tabeli 16.7. Określenie źródła pomoże w ocenie rzetelności danych, a
także będzie wskazówką, gdzie szukać innych informacji na dany temat.
3. Określ, w jakim kierunku obliczono procenty. Ten etap jest bardzo ważny i należy
go starannie zrealizować. Trzeba mieć pełną jasność, czy procenty obliczono wzdłuż kolumn,
wierszy czy na podstawie danych całej tabeli. Należy sprawdzić, czy prezentowana tabela nie
jest fragmentem całości i czy w związku z tym przedstawione procenty sumują się do 100%.
Kierunek obliczania procentów można ustalić, znajdując miejsce, w którym umieszczono
dane w kategorii „ogółem". W tabeli 16.7 procenty obliczono w kolumnach. Z kolei w tabeli
16.8 obliczono je w wierszach. Na rycinie 16.2a i 16.2b przedstawiono proste wykresy
słupkowe ilustrujące dwie metody obliczania procentów wykorzystane w tabeli 16.7 i 16.8.
410
Tabela 16.7. Postawy wobec aborcji w grupie mężczyzn i kobiet (w procentach) (na
podstawie Generalnego Sondażu Społecznego, 1988-1991)
Postawy wobec aborcji
Mężczyźni
Kobiety
Ogółem
Obrona życia poczętego
Relatywiści
Za wolnym wyborem
Ogółem
41 37 39
53 54 53
6 9 S
100 100 100
(W =1300) (N= 1600) (A? =2900)
Na podstawie: Elizabeth Addel Cook, Ted G. Jeleń, Clyde Wilcox (1992), The Social
Bases of Abortion Attitudes, rozdz. 2, w: Between TwoAhsolules: Public Opinions and the
Politics of Abortion, Boulder, Colo.: Westview Press.
4. Porównaj. Porównanie różnic w otrzymanych procentach jest szybką metodą
oszacowania wielkości związku pomiędzy zmiennymi. Należy zawsze porównywać różnice w
kierunku przeciwnym niż sposób obliczania procentów. Jeżeli procenty obliczono w
kolumnach, to różnice należy porównywać w wierszach. Procent mężczyzn, którzy są za
ochroną życia poczętego, można porównać z procentem kobiet mających taką samą postawę
(41 do 37%). Możemy również porównać procent mężczyzn i kobiet przyjmujących postawę
relatywistyczną (53 do 54%) lub będących za wolnym wyborem (6 do 9%). Porównując te
dane, widzimy, że nie ma różnic w postawach ze względu na płeć. Kobiety i mężczyźni w
jednakowym stopniu popierają lub są przeciwko aborcji.
Tabela 16.8. Poziom wykształcenia a klasa społeczna (w procentach)
Nie ukończona Ukończona Rozpoczęta Ukończona
szkoła szkoła i nie ukończona czteroletnia
Klasa średnia średnia, ale nie nauka nauka Ogółem
społeczna rozpoczęta nauka w college'u w college'u w college'u
Wyższa i wyższa
średnia 5 15 10 70 100 (TV = 600)
Niższa średnia 3 12 36 49 100 (#=420)
Klasa pracująca 16 23 41 20 100 (/V=510)
W tabeli 16.8 — ponieważ procenty obliczono w wierszach — będziemy porównywać
różnice w kolumnach. Na przykład, możemy porównać, jaki procent osób należących do
klasy pracującej, niższej średniej i wyższej średniej ukończyło czteroletnią naukę w college'u
(20, 49 i 70%). Podobne porównania możemy przeprowadzić dla pozostałych poziomów
wykształcenia. Otrzymane dane wskazują, że poziom wykształcenia jest powiązany z
przynależnością do klasy społecznej.
Czasami, aby uprościć sposób prezentacji, przedstawia się jedynie część tabeli. Tabela
16.9 jest tego przykładem. Dane te pochodzą z raportu Sex in America, o którym
wspominaliśmy wcześniej. W tabeli tej przedstawiono dane pozwalające porównać kontakty z
tą samą płcią wśród kobiet i mężczyzn. Warto zauważyć, że podane procenty nie sumują się
do 100 i można je bezpośrednio porównywać. Dane te ukazują proporcje osób w dwóch
kategoriach zmiennej niezależnej (płeć), które udzieliły odpowiedzi wpadających do tej samej
kategorii zmiennej zależnej (kontakty seksualne z tą samą płcią).
411
100
80
60
40
20 -
za wolnym wyborem
relatywizm
obrona życia poczętego
za wolnym wyborem
relatywizm
obrona życia poczętego
mężczyźni
kobiety
a. Postawy wobec aborcji a płeć (procenty w kolumnach)
klasa
pracująca
niższa średnia
wyższa i wyższa średnia
brak szkoły średniej
szkoła średnia
szkoła średnia
nie ukończony college
szkoła średnia
nie
jkonczony
college
—I— 20
40
nie ukończony college
ukończony college
ukończony college
ukończony college
60
-1 100
b. Wykształcenie a klasa społeczna
Ryc. 16.2. Wykres słupkowy dla danych procentowych z tabeli 16.7 i 16.8
Tabela 16.9. Płeć a procent osób deklarujących kontakty lub doświadczenia seksualne
z tą samą płcią
Pleć
Procent osób deklarujących kontakty z tą samą płcią
Mężczyźni Kobiety
10,1 (N* 1700) 8,6 (#= 1650)
Na podstawie: „New York Times", So, Now We Know What Americans Do in Bed.
So? October 9, 1994, s. 3.
Na podstawie: Roberta G. Simmons (1968), Basic Principles ofTable Reading, w:
Morris Rosenberg (red.), The Logic o/Survey Analysis, New York: Basic Books, s. 251-258.
Mediana i średnia arytmetyczna jako miary współzmienności
Jeżeli zmienne uwzględnione w rozkładzie dwuzmiennowym są zmiennymi
porządkowymi, to jako miarę współzmienności można wykorzystać medianę odpowiednich
rozkładów jednozmiennowych, jak to pokazuje tabela 16.10 307 badanych osób
sklasyfikowano ze względu na wyznanie religijne i postrzeganą przez nich jakość życia.
Zmienna zależna „jakość życia" została umieszczona po lewej stronie tabeli, a poszczególne
wyznania religijne tworzą kolejne rozkłady jednozmienno-we. Zmienna „jakość życia" może
przybierać wartości od 1 (znakomita) do 4 (bardzo zła). Właściwą miarą tendencji centralnej
dla danych porządkowych jest mediana i za jej pomocą możemy przedstawić trzy rozkłady
danych — dla katolików, żydów i protestantów. Analizując procenty kumulowane dla
każdego rozkładu i znajdując kategorię, w której procent kumulowany jest najbliższy 50%,
stwierdzamy, że mediana dla katolików wynosi 2, dla żydów 1 i dla protestantów 2. Na
podstawie tych danych możemy wnioskować, że osoby pochodzenia żydowskiego wyżej
oceniają jakość swojego życia niż katolicy czy protestanci. Różnica ta jest wskaźnikiem siły
związku czy inaczej współzmienności pomiędzy jakością życia a wyznaniem religijnym.
Tabela 16.10. Jakość życia a wyznanie religijne
Jakość Katolicy Żydzi Protestanci
zycia procent procent procent
procent kumulowany procent kumulowany procent
kumulowany
Znakomita 20 20 67 67 22 22
Dobra 55 75 17 84 43 65
Przeciętna 22 97 16 100 29 94
Słaba 3 100 — — 6 100
Ogółem 100 (#=151) 100 (N = 6) 100 (N =150)
Na podstawie: Social and Political Survey: Winter 1989, Social Science Research
Facility, University of Wisconsin, Milwaukee (nie publikowane).
413
Tabela 16.11. Wyniki testu inteligencji a wiek (dane hipotetyczne)
Wyniki testu Wiek
inteligencji 6-10 11-15
0-4 10 6
5-9 8 10
10-14 6 7
15-19 4 3
Ogółem 28 26
21-25
1 21
2 23
8 29
10 20
21 93
Tabela 16.12. Średnie ilorazy inteligencji w czterech gru pach wiekowych
Grupa wiekowa Średnia
6-10 7,7
11-15 8,3
16-20 9,8
21-25 13,4
Dla zmiennych porządkowych jako podstawę porównań możemy wykorzystać średnią
arytmetyczną. W tabeli 16.11 przedstawiliśmy rozkład inteligencji względem wieku. Każda
grupa wiekowa tworzy rozkład jednozmiennowy i może zostać opisana za pomocą wartości
średniej arytmetycznej. W tabeli 16.12 pokazano średnie arytmetyczne dla każdego rozkładu.
Możemy porównać każdą parę średnich. Zauważmy, że wartości średnie rosną wraz z
wiekiem, a to pozwala stwierdzić, że „wiek" i „inteligencja" pozostają ze sobą w związku.
¦ Miara zwiqzku
Dotychczas ocenialiśmy stopień współzmienności dwóch zmiennych, porównując
rozkłady jednozmiennowe, które tworzą tabelę skonstruowaną dla dwóch zmiennych. Istnieją
jednak takie techniki statystyczne, które pozwalają ocenić siłę związku pomiędzy zmiennymi
na podstawie jednej miary. Miary związku, nazywane współczynnikami korelacji
odzwierciedlają siłę i kierunek związku między zmiennymi, a także stopień, w jakim na
podstawie wartości jednej zmiennej można przewidywać wartości drugiej zmiennej.
Pojęcie przewidywania (predykcji) jest ściśle związane z pojęciem współzmienności.
Kiedy dwie zmienne się współzmieniają, to jedną z nich można wykorzystać do tego, aby
przewidywać drugą. Jeżeli między dwiema zmiennymi nie ma żadnego związku, to na
podstawie informacji dotyczących jednej zmiennej nie można przewidywać drugiej. Raz
jeszcze przeanalizujmy tabelę 16.2, 16.3 i 16.4. Przyjmijmy, że nie dysponujemy żadnymi
informacjami na temat wyznania religijnego 24 osób i że musimy odgadnąć, do której klasy
społecznej należy każda z tych osób. Najlepszą metodą zgadywania jest odwołanie się do
kategorii, do której wpada najwięcej przypadków. Analizując wspomniane tabele, widzimy
jednak,
414
ze wszystkie zaobserwowane częstości w poszczególnych kategoriach są identyczne.
Możemy zatem arbitralnie wybrać jakąkolwiek kategorię. Przypuśćmy, że wybraliśmy klasę
średnią jako najbardziej prawdopodobną kategorię opisującą każdą osobę. Ponieważ jednak w
każdej tabeli do klasy średniej wpada tylko po 8 przypadków, więc podejmując taką decyzję,
popełnimy 16 błędów na 24 podjęte decyzje.
Przykład 16.3
Wspótzmienność i predykcja
Liczba popełnionych błędów, gdybyśmy uznali, że każda osoba należy do klasy
średniej: 16
¦ Dla tabeli 16.2: Idealna współzmienność
Klasa wyższa Predykcja
PPPPPPPP Wszyscy protestanci należą do klasy wyższej
Liczba popełnionych błędów: 0
Klasa średnia
ŻŻŻŻŻŻŻŻ Wszyscy żydzi należą do klasy średniej
Liczba popełnionych błędów: 0
Klasa niższa
KKKKKKKK Wszyscy katolicy należą do klasy niższej
Liczba popełnionych błędów: 0
OGÓLNA LICZBA BŁĘDÓW 0
¦ Dla tabeli 16.3: Przeciętna współzmienność
Klasa wyższa Predykcja
ŻŻPPPPPP Wszyscy protestanci należą do klasy wyższej
Liczba popełnionych błędów: 2
Klasa średnia
KŻŻŻŻŻŻP Wszyscy żydzi należą do klasy średniej
Liczba popełnionych błędów: 2
Klasa niższa
KKKKKKKP Wszyscy katolicy należą do klasy niższej
Liczba popełnionych błędów: 1
OGÓLNA LICZBA BŁĘDÓW 5
¦ Dla tabeli 16.4: Prawie zerowa współzmienność
Klasa wyższa Predykcja
KKŻŻŻPPP Wszyscy protestanci należą do klasy wyższej
Liczba popełnionych błędów: 5
Klasa średnia
KKKŻŻPPP Wszyscy żydzi należą do klasy średniej
Liczba popełnionych błędów: 6
Klasa niższa
KKKŻŻŻPP Wszyscy katolicy należą do klasy niższej
Liczba popełnionych błędów: 5
OGÓLNA LICZBA BŁĘDÓW 16
415
Wyznanie religijne możemy wykorzystać do przewidywania klasy społecznej jedynie
wtedy, kiedy zmniejszy to liczbę popełnionych błędów w procesie predykcji. Załóżmy, że
przewidujemy, iż wszyscy protestanci należą do klasy wyższej, wszyscy żydzi do klasy
średniej, a wszyscy katolicy do klasy niższej. W odniesieniu do tabeli 16.2 nie popełnimy
żadnego błędu (wszystkie nasze predykcje będą dokładne), dla danych z tabeli 16.3
popełnimy 5 błędów, a dla tabeli 16.4 — 16 błędów.
W przykładzie 16.3 pokazujemy, w jaki sposób można ocenić korzyści wynikające z
wykorzystania danych o wyznaniu religijnym do przewidywania klasy społecznej poprzez
określanie nowej liczby błędów w stosunku do liczby błędów popełnionych wcześniej. W
tabeli 16.2 korzyści są ogromne, albowiem zmniejszenie liczby błędów jest największe (16 -
0= 16). Dla danych z tabeli 16.3 korzyści są znaczne, ponieważ o 11 zmniejszamy liczbę
błędów (15 — 5= 11), a dla danych z tabeli 16.4 nie ma żadnych zmian, gdyż liczba błędów
nie ulegnie zmianie (16 — 16 = 0). W tym ostatnim przypadku liczba popełnionych błędów
wtedy, kiedy przewidujemy przynależność klasową na podstawie wyznania religijnego, jest
taka sama jak wtedy, kiedy przyjęlibyśmy, że wszystkie osoby należą do klasy średniej.
Proporcjonalne zmniejszenie liczby błędów
Siłę związku pomiędzy klasą społeczną a wyznaniem religijnym możemy oszacować,
obliczając proporcjonalne zmniejszenie błędu predykcji w sytuacji, gdy jedną zmienną
wykorzystujemy do przewidywania drugiej. Proporcjonalne zmniejszenie błędu definiujemy
w sposób następujący3:
(16.1)
gdzie b — wyjściowa liczba błędów (przed zastosowaniem zmiennej niezależnej jako
predyktora), a — nowa liczba błędów (po zastosowaniu zmiennej niezależnej jako
predyktora). Proporcja ta może przyjmować wartości od 0 do 1 i jest wyrażana w procentach,
gdzie 0 oznacza brak redukcji liczby błędów (0%), a wartość 1 oznacza 100-procentowe
zmniejszenie liczby błędów predykcji.
Posługując się równaniem (16.1), możemy obliczyć proporcjonalne zmniejszenie
liczby błędów predykcji dla danych z tabeli 16.2, 16.3 i 16.4:
dla tabeli 16.2:
16-0_ 16_
16-5 11
dla tabeli 16.3: ---------= — = 0,69,
16 16
dla tabeli 16.4: ----------= — = 0.
16 16
! Mueller i in., Statistical Reasoning in Sociology, s. 248.
416
Analizując otrzymane wyniki, widzimy, że w przypadku tabeli 16.2 mamy do
czynienia z całkowitym zmniejszeniem błędu (wartość obliczonego współczynnika ! wynosi
1, co oznacza 100-procentowe zmniejszenie błędu). Wynik ten odzwierciedla idealny związek
między dwiema zmiennymi: wyznaniem religijnym i statusem społecznym. Dla danych z
tabeli 16.3, gdy wykorzystaliśmy wyznanie religijne jako predyktor statusu społecznego,
liczba błędów zmniejszyła się o prawie 70%. Wartość współczynnika wynosi dla tych danych
0,69. Natomiast w przypadku tabeli 16.4 nie mamy żadnych korzyści z oparcia predykcji na
wyznaniu religijnym — wartość współczynnika wynosi 0 i oznacza całkowity brak związku
między zmiennymi.
Odwołując się do tej samej logiki, możemy wyprowadzić dowolną miarę siły związku
między zmiennymi, pamiętając, że musi ona być oparta na dwóch regułach:
1) na regule pozwalającej badaczowi przewidywać zmienną zależną (np.
przynależność do klasy społecznej) na podstawie zmiennej niezależnej (np. wyznania
religijnego);
2) na regule pozwalającej przewidywać zmienną zależną bez odwoływania się do
zmiennej niezależnej4.
Biorąc pod uwagę powyższe dwie reguły, możemy zdefiniować dowolną miarę
związku między zmiennymi w sposób następujący:
błąd otrzymany po zastosowaniu reguły 2 — błąd otrzymany po zastosowaniu reguły
1 błąd otrzymany po zastosowaniu reguły 2
Poniżej przedstawimy miary związku między zmiennymi, wyprowadzając je z tej
właśnie definicji. Omówimy współczynnik lambda pozwalający mierzyć siłę związku między
danymi nominalnymi, współczynnik gamma oraz tau-b Kendalla dla danych porządkowych, a
także współczynnik korelacji r Pearsona dla danych interwałowych.
I Miary zwigzku dla danych nominalnych
Lambda — współczynnik przewidywalności Guttmana
Współczynnik korelacji lambda (A), znany również jako współczynnik
przewidywalności Guttmana, jest współczynnikiem, który można stosować dla zmiennych
nominalnych5. Przypuśćmy, że chcielibyśmy przewidzieć, z którą partią identyfikują się biali
Amerykanie nie mieszkający na południu, biorący udział w wyborach lokalnych w 1996 roku.
Jedną z możliwości jest zebranie danych o przynależności partyjnej ludzi w 1996 roku i
wykorzystanie ich w celach predykcyjnych przy zastosowaniu reguły 2. Jednozmiennowy
rozkład danych dotyczących przynależności partyjnej przedstawiliśmy w tabeli 16.13.
4 Herbert L. Costner (1965), Criteria for Measures of Association, „American
Sociological Review", 30, s. 344.
5 Louis Guttman (1941), An Outline of the Statistical Theory of Prediction, w: Paul
Horst (red.), The Prediction oj PersortoA A.djustment,New YotW. Social Science Research
Counci\.
417
Tabela 16.13. Partia, z którą identyfikowali się biali Amerykanie nie mieszkający na
południu w roku 1996 (dane hipotetyczne)
Partia /
Demokraci 126
Niezależni 78
Republikanie 96
Ogółem 300
Najbardziej skutecznym sposobem przewidywania na podstawie przedstawionego
rozkładu jest wykorzystanie miary tendencji centralnej. Pozwoli to na dokonanie predykcji z
minimalną liczbą błędów. Przynależność partyjna jest zmienną nominalną, dlatego właściwą
miarą tendencji centralnej jest w tym przypadku wartość modalna. Ponieważ kategorią, do
której wpada najwięcej przypadków, są demokraci (N= 126), przeto najlepszą predykcją jest
przyjęcie, iż każda z osób glosujących będzie się identyfikować właśnie z Partią
Demokratyczną. W tej sytuacji liczba błędów nie przekroczy 174 (78 osób niezależnych i 96
republikanów). Każdy inny sposób przewidywania będzie prowadzić do większej liczby
błędów. Jeżeli zatem chcielibyśmy przewidywać, z którą partią identyfikują się osoby jedynie
na podstawie zmiennej zależnej, to jako podstawę przewidywania powinniśmy wybrać tę
kategorię, do której wpada najwięcej przypadków. Zgodnie z oczekiwaniami popełnimy 174
błędy na 300 decyzji, tj. 58%.
Procent popełnionych błędów możemy zmniejszyć, jeżeli jako podstawę
przewidywania (predyktor) wykorzystamy inną zmienną, na przykład to, z którą partią osoby
te utożsamiały się w roku 1992. Na tej podstawie możemy skonstruować tabelę dwuzmien-
nową (tabela 16.14), w której wszyscy głosujący zostaną sklasyfikowani ze względu na dwie
zmienne: to, z którą partią utożsamiały się w roku 1992 i 1996. Posiadając dodatkowe
informacje, możemy przewidzieć jeszcze przed wyborami w 1996 roku, z którą partią będą
się utożsamiali biali Amerykanie nie mieszkający na południu. Zacznijmy od osób, które w
roku 1992 określiły się jako demokraci. Spośród 108 osób 93 ponownie w roku 1996
zadeklarowały się jako demokraci. Ponieważ do tej kategorii wpada najwięcej przypadków,
możemy przyjąć, że wszyscy, którzy w roku 1992 zadeklarowali się jako demokraci, tak samo
określą się w roku 1996. Przyjmując takie założenie, popełnimy jednak 15 błędów, ponieważ
15 osób ze 108 w roku 1996 określiło się inaczej.
Tabela 16.14. Partia, z którą identyfikowali się biali Amerykanie nie mieszkający na
południu w roku 1992 i 1996 (dane hipotetyczne)
Identyfikacja z partią w roku 1996 Identyfikacja z partią w roku 1992
Ogółem
demokraci niezależni republikanie
Demokraci 93 27 6 126
Niezależni 15 48 15 78
Republikanie -- 15 81 96
Ogółem 108 90 102 300
418
a = 6 Z>=-3
J___i i i i i
12 3 4 5 6 7 8X
a) ujemny współczynnik nachylenia
Ryc. 16.4. Linie regresji
•¦1
fc = 0,5
t*\l
A.
_1___L
fl=2 6=3
1 2 3
4 5X
6 7 8
2 3 4X
5 6 7 8
b) dodatni współczynnik nachylenia
c) niewielki dodatni współczynnik nachylenia
Kryterium najmniejszych kwadratów
Równanie regresji jest tylko pewną regułą predykcyjną, tym samym możemy
zaobserwować rozbieżności pomiędzy rzeczywistymi danymi a danymi przewidywanymi.
Naszym celem jest zatem skonstruowanie takiego równania, w którym te odchylenia, czyli
błąd predykcji będzie jak najmniejszy. Jeżeli określając wartości a i b równania prostej,
przyjmiemy specyficzne kryterium, to możemy zdefiniować taką funkcję, która będzie
minimalizować wariancję wokół linii regresji. Kryterium to, nazywane kryterium
najmniejszych kwadratów, minimalizuje sumę kwadratów różnic pomiędzy rzeczywistą a
przewidywaną wartością Y. Takie równanie pre-dykcyjne ma następującą postać:
Y = a + bX,
(16.7)
gdzie Y oznacza przewidywany wynik dla zmiennej Y.
Zgodnie z kryterium najmniejszych kwadratów wartości a i b można obliczyć,
korzystając z następujących równań:
430
b=
I(X-X)(Y-Y)
I(X - X)2 ZY-bY.X
a=
N
= Y-bX.
(16.8) (16.9)
Wygodniejszym sposobem obliczania wartości b może być równanie:
NZXY-{EX)(ZY)
b=
NIX2 - (IX)2
(16.10)
Przykład. Aby pokazać, w jaki sposób można skonstruować precyzyjną regułę
predykcyjną, rozpatrzmy dane przedstawione w tabeli 16.21 dotyczące liczby kradzieży (na
100000 mieszkańców) i procentu mieszkańców okręgów wielkomiejskich. Dane te, dla
dziesięciu stanów, zostały zebrane po to, aby można było określić związek pomiędzy
stopniem urbanizacji a poziomem przestępczości. Zmienna, którą chcemy przewidywać
(zmienna zależna), to „liczba kradzieży na 100 000 mieszkańców", a zmienna niezależna to
„procent mieszkańców okręgów wielkomiejskich".
Tabela 16.21. Liczba kradzieży a stopień urbanizacji na obszarzch wielkomiejskich
(rok 1986)
Procent populacji Liczba kradzieży
Stan mieszkającej w miastach na 100000 mieszkańców
(X) (Y) XY X2 Y2
Massachusetts 91 193 17 563 8281 37 249
Wisconsin 67 73 4891 4489 5329
Dakota Południowa 28 16 448 784 256
Wirginia 72 106 7632 5184 11236
Carolina Południowa 60 99 5940 3600 9801
Teksas 81 240 19440 6561 57 600
Arizona 75 169 12675 5625 28 561
Kalifornia 96 343 32 928 9216 117 649
Arkansas 44 88 3872 1936 7744
Hawaje 77 106 8162 5929 11236
Ogółem 691 1433 113551 51605 286661
Źródło: United States Bureau of the Census (1988), Statistical Abstracts of the United
States: 1988, wyd. 10, Washington, D.C.
Aby bez żadnych dodatkowych informacji przewidzieć liczbę kradzieży w każdym
stanie, powinniśmy wybrać taką wartość, która da najmniejszą liczbę błędów przy szacowaniu
liczby kradzieży w każdym stanie. Dla danych interwałowych najlepszą podstawą szacowania
będzie średnia arytmetyczna, ponieważ średni kwadrat
431
odchyleń poszczególnych obserwacji od średniej jest właśnie najmniejszą możliwą
wartością. Dla naszych danych średnia liczba kradzieży na 100000 mieszkańców wynosi
zatem:
IY 1433
Y= — =------= 143,3-
N 10
Aby obliczyć błąd predykcji, musimy odjąć każdą obserwację od średniej (aby
obliczyć odchylenie) i podnieść te odchylenia do kwadratu. Następnie obliczamy sumę
kwadratów odchyleń, która jest ogólnym zróżnicowaniem wartości wokół Y. Suma ta jest
oszacowaniem wielkości błędu predykcji — reguła 2 — gdyż daje najmniejszą liczbę błędów.
Ogólne zróżnicowanie wartości wokół F można obliczyć jako
I(Y-Yf. (16.11)
Następnym krokiem jest zmniejszenie liczby błędów popełnionych przy
przewidywaniu liczby kradzieży poprzez wprowadzenie drugiej zmiennej („procent
urbanizacji") jako predyktora. Możemy to osiągnąć przez skonstruowanie reguły predykcyj-
nej w postaci równania regresji. Równanie to najlepiej opisze związek pomiędzy tymi dwiema
zmiennymi i pozwoli przewidzieć — z minimalnym błędem — liczbę kradzieży w każdym
stanie na podstawie procentu mieszkańców okręgów miejskich.
Dane przedstawione w tabeli 16.21 można nanieść na wykres rozproszenia, który jest
graficzną reprezentacją przybliżonego obrazu związku pomiędzy dwiema zmiennymi (ryc.
16.5). Każda para liter (będąca skrótem nazwy danego stanu) znajduje się w miejscu, które
jest opisane przed dwie wartości: X i Y. Na przykład punkt WI oznacza stan Wisconsin, w
którym zanotowano 73 kradzieże na 100 000 mieszkańców i 67% populacji mieszkańców
tego stanu mieszka w miastach. Po naniesieniu na wykres wszystkich punktów rysujemy linię,
która odzwierciedla istniejący trend. Oczywiście pomiędzy punktami możemy narysować
wiele takich linii, lecz jedynie jedna — linia średnich kwadratów — będzie linią najlepiej
odpowiadającą poszczególnym danym. Zanim jednak będziemy mogli tę linie narysować,
najpierw należy obliczyć stałe a i b:
10(113551)-(691)(1433)
b = —-----------'-—------~—- = 3,76, a = 143,3 - 3,76(69,1) = -117,0.
10(51605)-(691)2 ^ '
Otrzymamy następujące równanie prostej regresji:
Y= -117,0 + 3,76*.
Teraz można już narysować linię regresji i wykorzystać ją do przewidywania poziomu
kradzieży na podstawie stopnia urbanizacji. Na przykład, jeżeli 50% mieszkańców danego
miasta mieszka w metropoliach, to przewidywana liczba kradzieży na 100000 mieszkańców:
f = 117,0 + 3,76(50) = 71.
432
Błędy predykcji
Jak widzimy na rycinie 16.5, większość obserwacji jest rozrzucona wokół linii
regresji. Odchylenia danych rzeczywistych od danych przewidywanych odzwierciedlają
wielkość błędu, jaki popełniamy, przewidując poziom kradzieży na podstawie stopnia
urbanizacji (czyli stosujemy regułę 1).
Wielkość tego błędu można oszacować, mierząc odchylenia rzeczywistych danych od
linii regresji. Najpierw odejmujemy przewidywaną liczbę kradzieży dla danego stanu od
zarejestrowanej liczby kradzieży w tym stanie (dane z tabeli 16.21). W Teksasie, na przykład,
przewidywana liczba kradzieży na 100000 mieszkańców— zgodnie z regułą predykcyjną—
Y= 117,0 + 3,76(81) = 187,56. Rzeczywista
60
poziom urbanizacji
Ryc. 16.5. Liczba kradzieży na 100000 mieszkańców a poziom urbanizacji
liczba kradzieży zanotowanych w Teksasie wyniosła 240, zatem błąd predykcji jest:
240-187,56 = 52,44.
Suma wszystkich błędów predykcji podniesionych do kwadratu jest interpretowana
jako wielkość zróżnicowania, która nie jest wyjaśniona przez zmienną niezależną. Można ją
obliczyć według wzoru:
2(7,-yY,
(16.12)
gdzie Y, oznacza dane rzeczywiste, a Y — dane przewidywane.
Inną często stosowaną miarą błędu jest błąd standardowy oszacowania— Syjc, oparty
na wielkości nie wyjaśnionego zróżnicowania wokół linii regresji. Definiuje się go jako:
*=4
2(Y, - Y)2
N
(16.13)
Standardowy błąd oszacowania jest miarą bardzo zbliżoną do odchylenia
standardowego, które omówiliśmy w rozdziale 15.
433
Współczynnik korelacji według momentu iloczynowego Pearsona (/)
Przyjmijmy, że mamy dwie miary zróżnicowania zmiennej Y. Pierwsza — całkowite
zróżnicowanie wokół Y — określa wielkość błędu popełnianego przy przewidywaniu
wartości Kbez żadnej wcześniejszej znajomości zmiennej X— reguła 2. (Reguła 2 to właśnie
całkowite zróżnicowanie wokół Y). Druga miara — zróżnicowanie nie wyjaśnione,
zdefiniowane w postaci równania (16.12) — określa wielkość błędu popełnianego, gdy jako
regułę predykcyjną wykorzystujemy równanie regresji — reguła 1.
Te dwa sposoby szacowania wielkości błędu umożliwiają skonstruowanie miary
związku między zmiennymi interwałowymi. Miara ta odzwierciedla proporcjonalne
zmniejszenie wielkości błędu popełnianego przy szacowaniu wartości Y, jakie uzyskamy,
wprowadzając zamiast reguły 2 (średniej) regułę 1 (równanie regresji). Miarę tę, r2, można
przedstawić jako
zróżnicowanie ogólne — zróżnicowanie nie wyjaśnione
r2-----------------------^-rr-:---------:-------~,---------------------------• (16.14)
zróżnicowanie ogólne
Aby oszacować proporcjonalne zmniejszenie wielkości błędu, musimy odjąć
zróżnicowanie nie wyjaśnione od wyjściowej wielkości błędu predykcji. Proporcjonalne
zmniejszenie wielkości błędu, gdy Xjest wykorzystywane do przewidywania Y, określa
wielkość r2.
Jeżeli zróżnicowanie nie wyjaśnione wynosi zero, to oznacza to, że wprowadzenie
równania regresji wyeliminowało wszystkie błędy w przewidywaniu wartości Y. Wartość r2
będzie się wówczas równać jeden, co oznacza, że każde zróżnicowanie Fmoże być
wyjaśnione przez X. I odwrotnie, jeżeli zróżnicowanie nie wyjaśnione jest takie samo jak
zróżnicowanie ogólne, to r2 będzie wynosić zero. Oznacza to, że pomiędzy X i Y nie ma
żadnej współzależności.
Konwencjonalnie jako miary korelacji używa się pierwiastka kwadratowego z r2, czyli
r. Miara ta znana jest jako w s p ó ł c z y n n i k korelacji według momentu iloczynowego
Pearsona, w skrócie r Pearsona. Współczynnik r Pearsona przybiera wartości od — 1 do +1.
Wartości ujemne oznaczają związek odwrotnie proporcjonalny. Wartość r możemy łatwo
obliczyć według następującego wzoru:
NIXY-{IX){IY) r ~ V [NIX2 - (IX)2} [NIY2 - (2Y)2]'
W naszym przykładzie współczynnik korelacji
10 (113 551) — (691) (1433)
V[10(51 605) - (691)2] [10(28666TP7l433)2j:
= 0,82.
Zatem r2 wynosi 0,822 = 0,67, co oznacza zredukowanie błędu predykcji o 67%,
jeżeli będziemy przewidywać liczbę popełnionych kradzieży na 100000 mieszkańców na
podstawie stopnia urbanizacji. To samo można ująć inaczej, a mianowicie, że 67% wariancji
liczby popełnianych kradzieży jest wyjaśniane stopniem urbanizacji.
434
Miary związku
Miary związku pozwalają określić, o ile proporcjonalnie zmniejszy się błąd
szacowania, jeżeli predykcji wartości zmiennej zależnej będziemy dokonywać na podstawie
wartości zmiennej niezależnej (reguła 1) zamiast niezależnie od niej (reguła 2).
¦ Lambda (A). Współczynnik lambda jest używany w przypadku zmiennych
nominalnych. Można go obliczyć, korzystając ze wzoru (16.2) lub (16.3).
¦ Gamma (y). Współczynnik gamma jest stosowany do pomiaru siły związku
pomiędzy dwiema zmiennymi porządkowymi. Można go obliczyć, korzystając ze wzoru
(16.4) lub (16.5).
¦ Tau-/? Kendalla. Współczynnik tau-fo jest wykorzystywany do pomiaru siły
związku między zmiennymi porządkowymi, kiedy wśród danych występuje wiele par
wiązanych. Można go obliczyć, posługując się wzorem (16.6).
¦ Regresja liniowa. Jest to metoda określania związku pomiędzy dwiema zmiennymi
interwałowymi wykorzystująca funkcję liniową postaci: Y=a + bx.
¦ r Pearsona. Współczynnik jest wykorzystywany do pomiaru związku pomiędzy
zmiennymi interwałowymi. Wartości zmiennych można nanieść na układ współrzędnych.
Można go obliczyć według wzoru (16.15).
¦ Kryterium najmniejszych kwadratów. Metoda określania równania regresji, która
minimalizuje sumę kwadratów różnic pomiędzy rzeczywistymi i przewidywanymi
wartościami Y.
a) silny związek dodatni b) słaby związek dodatni
c) brak związku
Ryc. 16.6. Rozpoznawanie sity związku na podstawie wykresu rozproszenia
Wielkość r2 lub r zależy od rozproszenia rzeczywistych obserwacji wokół linii
regresji. Jeżeli wszystkie obserwacje będą leżeć na linii regresji, to r będzie wynosić 1,0.
Jeżeli natomiast będą one losowo rozrzucone po całym wykresie, to r będzie równie zero. Na
rycinie 16.6 przedstawiliśmy hipotetyczny silny związek dodatni, slaby związek dodatni oraz
brak związku. Należy jednak pamiętać, że gdy r lub r2 jest bliskie lub równe zeru, nie należy
się spieszyć z wnioskiem, że pomiędzy zmiennymi nie ma żadnego związku. Związek między
nimi może być bowiem związkiem krzywoliniowym, tj. nie będzie opisywany za pomocą linii
prostej. Zatem współczynnik korelacji oparty na modelu liniowym nie da poprawnego obrazu
związku statystycznego. Ogólnie rzecz biorąc, dokładna analiza diagramu korela-
435
cyjnego pozwoli stwierdzić, w jakiej mierze uzyskane przez nas dane układają się
wzdłuż prostej, krzywej, czy też nie ma między nimi żadnego związku9.
¦ Podsumowanie
1. W rozdziale tym skoncentrowaliśmy się na analizowaniu natury związku pomiędzy
dwiema zmiennymi oraz na tworzeniu miar tego związku. Zmienne, które są ze sobą
powiązane, wykazują współzależność: określone kategorie jednej zmiennej zmieniają się
wraz ze zmianą kategorii drugiej zmiennej lub wartości zmiennych zajmują podobne pozycje.
2. Można oszacować związek pomiędzy dwiema zmiennymi, porównując rozkłady
jednozmiennowe, które tworzą tabelę dwuzmiennową za pomocą globalnej miary takiej jak
mediana czy średnia. Można też opisać związek między zmiennymi za pomocą specjalnych
współczynników, które pokazują, w jakim stopniu użyteczne jest korzystanie z jednej
zmiennej, aby przewidzieć drugą.
3. Miary związku pomiędzy zmiennymi zależą zazwyczaj od osiągniętego poziomu
pomiaru zmiennych. Dla zmiennych nominalnych stosuje się współczynnik lambda. Dla
zmiennych porządkowych można zastosować współczynnik gamma lub tau-b Kendalla.
4. Czasami związek pomiędzy zmiennymi interwałowymi można opisać za pomocą
konkretnej funkcji pozwalającej na dokonywanie dokładnych predykcji. Równanie regresji
liniowej jest przykładem takiej funkcji. Współczynnik r Pearsona jest miarą związku
pomiędzy zmiennymi interwałowymi mówiącą, o ile proporcjonalnie zmniejszy się błąd, gdy
zamiast średniej jako reguły predykcyjnej wprowadzimy równanie regresji.
¦ Podstawowe terminy
błąd predykcji 430 proporcjonalne zmniejszenie błędu 416
kryterium najmniejszych r Pearsona 434
kwadratów 430 współczynnik gamma 424
lambda — współczynnik współczynnik korelacji 414
przewidywalności Guttmana 417 współczynnik tau-b Kendalla 427 linia regresji
429
¦ Pytania sprawdzajqce
1. Omów pojęcie związku pomiędzy zmiennymi w terminach proporcjonalnego
zmniejszania błędu.
9 Problem związku krzywoliniowego nie mieści się w zakresie tej pracy. Więcej
informacji na ten temat można znaleźć w pracy: George W. Bohrnstedt, David Knoke (1988),
Statistics for Social Dala Analysis, Itaca, 111.: Peacock. [Por. też: J. Brzeziński (1997),
Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd. Nauk. PWN, rozdz. 10
(przyp. red. nauk.)]
436
2. Podaj przykład rozkładu dwuzmiennowego, dla którego lambda nie będzie
właściwą miarą związku pomiędzy zmiennymi. Jakiej miary należałoby użyć zamiast niej?
3. Poniżej przedstawiono dwuzmiennowy rozkład alienacji i statusu społecznego.
Porównując rozkłady procentowe zmiennych, odpowiedz na pytanie: Czy status wzrasta wraz
ze spadkiem alienacji? Jakie inne miary związku można zastosować, aby odpowiedzieć na to
pytanie?
Alienacja Status społeczny Ogółem
niski przeciętny wysoki
Wysoka Przeciętna Niska Ogótem 93 77 68 238 41 78 128 247 10 46 140 196 144
201 336 681
Opracuj tabelę 2x2 uwzględniającą dane od 200 respondentów, z których 69% to
demokraci, a 58% jest za zalegalizowaniem marihuany. Oblicz współczynnik lambda,
traktując postawy wobec legalizacji marihuany jako zmienną zależną. Omów związek
pomiędzy tymi zmiennymi. Przypuśćmy, że pomiędzy klasą społeczną a chęcią nauki w
college'u istnieje korelacja r=0,28. Co to oznacza?
W naukach społecznych podejmuje się próby określenia, które zmienne społeczne są
powiązane ze zmiennymi ekonomicznymi. Wykorzystaj przedstawione niżej dane do
zbadania związku pomiędzy stopniem bezrobocia a innymi zmiennymi. Omów rodzaje
związków pomiędzy bezrobociem a każdą ze zmiennych niezależnych. W swojej analizie
wykorzystaj następujące miary: b, r, r2.
Państwo Stopień bezrobocia Polityczna stabilizacja Poziom rozwoju
ekonomicznego Stopień urbanizacji
Stany Zjednoczone 4,7. &,0 2,34 1,8
Nowa Zelandia 4,0 8.6 1,71 0.8
Norwegia 3.1 8.6 1,41 1,2
Finlandia 3.6 8.1 0,83 0,7
Urugwaj 6.2 3,2 0,46 0.9
Izrael 4.8 8,1 0,40 0,9
Tajwan 5.8 7,2 0,80 0.6
Ghana 8.1 5,0 0,02 0.2
Anglia 8.2 2.6 1,46 1.1
Grecja 8.8 2.1 0,09 0,9
437
Ćwiczenia komputerowe
1. Korzystając z danych GSS lub z innego zbioru danych, zbuduj — wykorzystując
CROSSTABS — tabele dla dwóch zmiennych nominalnych, a następnie dla dwóch
zmiennych porządkowych. Wybierz z każdej tabeli jedną komórkę i opisz słowami znajdujące
się w niej procenty, biorąc pod uwagę wiersz i kolumnę, w których znajduje się ta komórka.
Na przykład: 70% kobiet opowiada się za eliminowaniem segregacji rasowej (przykład
hipotetyczny).
2. Jakie są właściwe miary związku dla tabel zbudowanych w zadaniu 1 ? Jaka jest
siła związku pomiędzy analizowanymi przez ciebie zmiennymi?
3. Wybierz z GSS dwie zmienne interwałowe i oblicz współczynnik r Pear-sona,
posługując się programem CORRELATIONS. Jak silny jest ten związek?
(Por. dodatek A, s. 534-539)
¦ Literatura dodatkowa
Blalock H.M. (1975), Statystyka dla socjologów, Warszawa: PWN.
Brzeziński J. (1997), Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd.
Nauk. PWN. Ferguson G.A., Takane Y. (1997), Analiza statystyczna w psychologii i
pedagogice, Warszawa: Wyd. Nauk. PWN.
Rozdział 17
Kontrola, poziom złożoności i analiza wielozmiennowa
Kontrola 441
Metody kontroli 442
Tabele wielodzielcze jako forma kontroli 442 Tabele cząstkowe 443
Poziom złożoności 449
Zmienna pośrednicząca 450
Interakcja 451
Korelacja cząstkowa jako forma kontroli 454
Regresja wielokrotna jako metoda kontroli 455
Analiza wielozmiennowa: korelacje wielokrotne 459
Modele przyczynowe i analiza zmiennych 460
Wybrane przykłady schematów przyczynowych 461 Analiza ścieżek 463
Podsumowanie 465
Podstawowe terminy 466
Pytania sprawdzające 466
Ćwiczenia komputerowe 468
Literatura dodatkowa 468
Czy przynależność do klasy społecznej wpływa na stopień uczestnictwa mężcz w
obowiązkach domowych w rodzinach, w których obie strony pracują? Wright i
współpracownicy — wychodząc z teorii marksistowskiej — twierdzili, że tak właśnie się
dzieje'. Wykorzystując metody analizy dwuzmiennowej, stwierdzili, że przynależność do
klasy społecznej wywiera jedynie bardzo niewielki wpływ na podział obowiązków w tych
rodzinach, w których oboje partnerzy zarabiają. W związku z tym badacze postanowili
sprawdzić, które inne zmienne wywierają wpływ na rodzaj obowiązków wykonywanych
przez mężczyzn. Posługując się technikami wielozmiennowymi, zbadali względny wpływ
ośmiu zmiennych: klasy społecznej, poziomu wykształcenia żony, czasu pracy żony, wkładu
żony do dochodu rodziny, ogólnego dochodu rodziny, wyznawanego stereotypu płci (jakie
zachowania przypisywano roli kobiety i mężczyny), wieku i liczby dzieci poniżej 16 roku
życia. W sytuacji, gdy kontrolowano wszystkie zmienne, okazało się, że niewielki efekt klasy
społecznej znika zupełnie. Jedynie czas pracy żony i wiek respondentów miał duży wpływ na
rodzaj obowiązków mężczyzn. Wyznawany stereotyp płci nie odgrywał natomiast żadnej roli.
Gdyby analizując związek pomiędzy klasą społeczną a stopniem uczestnictwa
mężczyzn w obowiązkach domowych, posłużono się jedynie analizą dwuzmiennową, to
można by błędnie wyciągnąć wniosek, że przynależność do klasy społecznej wywiera
przynajmniej niewielki wpływ. Analiza wielozmiennowa umożliwia kontrolowanie wpływu
innych zmiennych i chroni przed wyciąganiem błędnych wniosków.
W rozdziale tym skoncentrujemy się na metodach wykorzystywanych do analizowania
więcej niż dwóch zmiennych. W naukach społecznych analiza więcej niż dwóch zmiennych
pełni trzy podstawowe funkcje: kontroluje, określa poziom złożoności oraz umożliwia
predykcję. Pierwsza z funkcji jest substytutem mechanizmu kontroli eksperymentalnej w
sytuacji, gdy mechanizm taki nie został uruchomiony. Druga dookreśla związek dwóch
zmiennych poprzez wprowadzenie zmiennych pośredniczących czy warunkowych. Trzecia
funkcja dotyczy możliwości analizowania dwóch lub więcej zmiennych niezależnych po to,
aby określić ich wkład w wyjaśnianie zmienności zmiennej zależnej. W rozdziale tym
omawiamy sposoby wprowadzania trzeciej zmiennej do badań empirycznych. Zaczynamy od
omówienia strategii kontrolowania trzeciej zmiennej poprzez jej dookreślenie. Następnie
dyskutujemy możliwości analizy wielozmiennowej w stosunku do analizy dwuzmiennowej.
Na koniec omawiamy techniki modelowania przyczynowego oraz analizę ścieżek.
Badanie związku dwuzmiennowego jest pierwszym krokiem analizy danych.
Następny krok polega na ocenie implikacji otrzymanych wyników i wyprowadzeniu
wniosków przyczynowo-skutkowych. Innymi słowy, na podstawie analizy dwuzmiennowej
badacze ustalają wielkość współzmienności i jej kierunek, następnie
1 Erik Olin Wright, Karen Shire, Shu-Ling Hwang, Maureen Dolan, Janeen Baxter
(1992). The Non-Effects of Class on the Gender Division of Labor in the Home: A
Comparatwe Study of Sweden and the United States, „Gender and Society", Vol. 6, nr 2, s.
252-282.
440
interpretują wyniki i określają podstawowe związki przyczynowe pomiędzy badanymi
zmiennymi poprzez wprowadzenie do analizy nowych zmiennych. Przypuśćmy, że
określiliśmy związek pomiędzy wiekiem rodziców a stosowanymi przez nich metodami
wychowawczymi, tj. że starsi rodzice są bardziej restryktywni w stosunku do swoich dzieci
niż rodzice młodsi. W jaki sposób można zinterpretować te dane? Możemy twierdzić, że
zmienne te są przyczynowo powiązane i że wraz ze wzrostem wieku rodziców obserwujemy
przesunięcie od pobłażliwego do restrykcyjnego stylu wychowania. Może jednak być tak, że
różnice w sposobie wychowania nie zależą od wieku rodziców, lecz od ich poglądów: starsi
rodzice są bardziej restryktywni, natomiast młodsi wyznają bardziej liberalne poglądy, a
zatem są bardziej pobłażliwi. Innymi słowy, związek pomiędzy wiekiem rodziców i
stosowanymi przez nich metodami wychowawczymi może wynikać z faktu, że zarówno jedna
zmienna „wiek", jak i druga zmienna „metody wychowawcze" są powiązane z trzecią
zmienną, tj. „poglądami".
Obserwowany związek pomiędzy dwiema lub więcej zmiennymi nie jest jeszcze
wystarczającym uzasadnieniem wniosków przyczynowo-skutkowych. Zaobserwowany
związek dwóch zmiennych może być wynikiem przypadku lub może być spowodowany tym,
że obie zmienne są powiązane z inną, trzecią zmienną. Co istotne, badane zjawisko można
często wyjaśnić za pomocą więcej niż jedna zmienna niezależna. W każdym przypadku
wprowadzenie dodatkowej zmiennej pozwala na do-określenie wyjściowego związku między
zmiennymi.
¦ Kontrola
Zachodzenie związku pomiędzy dwiema zmiennymi nie stanowi wystarczającej
podstawy do wyprowadzenia wniosku, że dwie zmienne są ze sobą powiązane przy-czynowo-
skutkowo. Należy wyłączyć inne zmienne, które mogą być podstawą alternatywnych
wyjaśnień. Na przykład związek pomiędzy wzrostem i wielkością dochodów można
najprawdopodobniej wyjaśnić, wprowadzając trzecią zmienną, tj. „wiek". Wiek bowiem jest
powiązany zarówno z dochodami, jak i ze wzrostem i ten właśnie związek sprawia, że
statystyczna zależność pomiędzy wzrostem i dochodami nie ma charakteru przyczynowo-
skutkowego. Wyjściowy związek, tj. związek pomiędzy wzrostem i dochodami jest
związkiem pozornym. Pojęcie związku pozornego odnosi się do sytuacji, w których zmienna
uboczna jest przyczyną „fałszywego" związku pomiędzy zmienną zależną i zmienną
niezależną. Dlatego ważne jest ujawnienie zmiennych ubocznych zniekształcających
zależności między zebranym danymi. Ważnym więc krokiem — w procedurze określania
trafności związku pomiędzy dwiema zmiennymi — jest wyeliminowanie możliwie dużej
liczby zmiennych, które mogłyby istotnie wyjaśnić obserwowany związek. Eliminacji tej
dokonuje się poprzez wprowadzanie metod kontroli, czyli podstawowej zasady wszystkich
planów badawczych.
Podstawową metodą kontroli w planach eksperymentalnych jest losowe
przyporządkowywanie osób badanych do grupy kontrolnej oraz do grupy eksperymentalnej.
Metodyka eksperymentu kontrolowanego pozwala przyjąć, że wszystkie zmienne uboczne są
kontrolowane i że różnice między dwiema grupami są spowodowane jedynie zróżnicowanym
oddziaływaniem zmiennej niezależnej. Jak się jed-
441
nak przekonaliśmy w poprzednich rozdziałach, w naukach społecznych trudno
manipulować grupami społecznymi i zawsze konsekwentnie stosować procedurę manipulacji
eksperymentalnej. Bardzo często nie sposób kontrolować wielu czynników, co zwiększa
wątpliwości co do badanej zależności pomiędzy zmienną zależną i zmienną niezależną.
W planach quasi-eksperymentalnych eksperymentalne metody kontroli zmiennych są
zastępowane odpowiednimi technikami statystycznymi. Techniki te stosowane są raczej w
trakcie analizy danych, a nie na etapie ich zbierania. Znane są trzy metody kontroli
statystycznej. Pierwsza polega na porównywaniu podgrup za pomocą tworzenia tabel
wielodzielczych. Druga metoda — obliczanie korelacji cząstkowych — obejmuje procedury
matematyczne pozwalające poprawić wartość współczynnika korelacji dla dwóch zmiennych.
Trzecia metoda to metoda regresji wielokrotnej. Pozwala ona oszacować wpływ zmiennej
niezależnej na zmienną zależną przy założeniu, że inne zmienne są kontrolowane.
¦ Metody kontroli
Tabele wielodzielcze jako forma kontroli
Metodę kontroli za pomocą tabel wielodzielczych możemy porównać do procedury
doboru wiązanego wykorzystywanej w badaniach eksperymentalnych. W obu technikach
badacz stara się wyrównać badane grupy ze względu na zmienne, które mogą zakłócić wyniki
badań. W badaniach eksperymentalnych zanim zadziała zmienna niezależna, dobieramy
osoby badane w taki sposób, aby tworzyły one pary osób identycznych ze względu na
kontrolowane czynniki. Jedna osoba z każdej pary zostaje następnie przyporządkowana do
grupy eksperymentalnej, a druga do grupy kontrolnej. Z kolei tworząc tabelę wielodzielczą,
badacz przypisuje osoby badane do odpowiednich grup jedynie na etapie analizy danych.
Dobór wiązany to fizycznie istniejący mechanizm kontroli, natomiast tworzenie tabel
wielodzielczych jest operacją statystyczną.
Tworzenie tabel wielodzielczych polega na dzieleniu próby na podgrupy ze względu
na kategorie zmiennej, którą chcemy kontrolować, tzw. zmiennej kontrolowanej. Następnie
należy ponownie oszacować związek między dwiema zmiennymi wewnątrz każdej podgrupy.
Dzieląc próbę na podgrupy, badacz likwiduje działające zakłócająco nierówności i oblicza
siłę związku między zmiennymi w grupach, które są wewnętrznie homogeniczne ze względu
na zakłócający czynnik.
Ogólnie rzecz biorąc, jedynie zmienne, które są powiązane i ze zmienną niezależną, i
ze zmienną zależną mogą zakłócająco wpłynąć na wyniki badań. Dlatego jako zmienne
kontrolowane należy wybrać te zmienne, które pozostają w związku zarówno z analizowaną
zmienną niezależną, jak i zależną.
Przykład. Poniższy przykład ilustruje kolejne kroki procedury kontrolowania j trzeciej
zmiennej za pomocą tworzenia tabeli wielodzielczej. Przypuśćmy, że pobraliśmy próbę
składającą się z 900 respondentów, aby sprawdzić hipotezę, że osoby mieszkające w okręgach
miejskich są bardziej liberalne politycznie niż mieszkańcy wsi. W tabeli 17.1 i na rycinie 17.1
przedstawiliśmy otrzymane dane. Analizując je, możemy zauważyć, że 50% mieszkańców
miast to osoby politycznie li-
442
beralne, natomiast na wsi osoby o takich poglądach stanowią jedynie 28%. Możemy
zatem postawić wniosek, że liberalizm polityczny jest powiązany z miejscem zamieszkania.
Można więc postawić pytanie: Czy stwierdzona zależność jest zależnością bezpośrednią (i
wtedy możemy mówić o potwierdzeniu hipotezy), czy też jest zależnością pozorną z inną
zmienną? Taką zmienną może być poziom wykształcenia, który jest powiązany zarówno z
miejscem zamieszkania, jak i z liberalizmem politycznym. Odpowiednie dane ilustrujące te
zależności przedstawiliśmy w tabeli 17.2 i 17.3 oraz na rycinie 17.2.
Tabela 17.1. Liberalizm poltyczny a miejsce zamieszkania
Liberalizm polityczny Okręgi miejskie
Okręgi wiejskie
Wysoki Niski
Ogółem
50% 28%
(200) (140)
50% 72%
(200) (360)
100% 100%
(400) (500)
80
60 -
8 40 -
20 -
0
wysoki liberalizm
niski liberalizm
50% 72%
50%
- 28%
okręgi miejskie
okręgi wiejskie
miejsce zamieszkania
Ryc. 17.1. Liberalizm a miejsce zamieszkania
Tabele cząstkowe
Aby kontrolować wykształcenie, podzieliliśmy grupę 900 osób na dwie podgrupy o
różnym poziomie wykształcenia (wysoki, niski). W ramach każdej grupy zbudowaliśmy
tabelę wielodzielczą miejsca zamieszkania (miasto, wieś) względem poglądów politycznych.
Następnie w ramach każdej grupy oszacowaliśmy związek pomiędzy badany™ zm\eivr\yvM.
Dane, kontrolowane przedstawiliśmy w tabeli 17.4 i na rycinie 17.3.
443
100
80 -
60 -
40
20
80%
1 1 1 75% 25%
20%
okręgi miejskie
okręgi wiejskie
a. Wykształcenie a miejsce zamieszkania
100
80 -
60 -
40 -
20 -
80%
- 60% 40%
20%
wysokie wykształcenie
niskie wykształcenie
b. Liberalizm polityczny a wykształcenie
Ryc. 17.2. Związek pomiędzy liberalizmem, miejscem zamieszkania i wykształceniem
Tabela 17.2. Wykształcenie a miejsce zamieszkania
Liberalizm polityczny Okręg i miejskie Okręgi wiejskie
Wysoki 75% 20%
(300) (100)
Niskie 25% 80%
(100) (400)
Ogółem 100% 100%
(400) (500)
Tabela 17.3. Liberalizm polityczny a wykształcenie
Liberalizm polityczny Wykształcenie
wysokie niskie
Wysoki 60% 20%
(240) (100)
Niski 40% 80%
(160) (400)
Ogółem 100% 100%
(400) (500)
Dwie tabele dla dwóch zmiennych zawarte w tabeli 17.4 nazywane są tabelami
cząstkowymi, ponieważ każda odzwierciedla jedynie część całkowitego związku. Suma
liczebności każdej pary odpowiadających sobie komórek daje liczebność odpowiadającej im
komórki w tabeli wyjściowej (tabela 17.1). Na przykład 180 osób wysoko wykształconych,
mieszkających na wsi i posiadających liberalne poglądy polityczne oraz 20 osób nisko
wykształconych daje razem z wyjściowej tabeli 200 osób mieszkających na wsi i
posiadających liberalne poglądy polityczne.
Tabela 17.4. Liberalizm polityczny a miejsce zamieszkania (wykształcenie jako
zmienna kontrolowana) — związek pozorny
Liberalizm polityczny Wysokie wykształcenie Niskie wykształcenie
miasto wieś miasto wieś
Wysoki 60% 60% 20% 20%
(180) (60) (20) (80)
Niski 40% 40% 80% 80%
(120) (40) (80) (320)
Ogółem 100% 100% 100% 100%
(300) (100) (100) (400)
Aby oszacować korelację cząstkową, należy obliczyć miarę związku w każdej
kontrolowanej grupie i porównać rezultaty z wcześniej otrzymanym wynikiem. Wybieramy
taką miarę związku jak w przypadku zwykłego rozkładu dwuzmienno-
445
100
80
wysoki liberalizm
niski liberalizm
60%
wysokie wykształcenie
60%
40%
40%
niskie wykształcenie
80%
80%
20%
20%
okręgi miejskie
okręgi wiejskie
okręgi miejskie
okręgi wiejskie
Ryc. 17.3. Liberalizm polityczny a miejsce zamieszkania (wykształcenie jako zmienna
kontrolowana) — związek pozorny
wego. Możemy wykorzystać różnicę pomiędzy procentami, współczynnik gamma czy
r Pearsona w zależności od poziomu pomiaru danych.
Wartość korelacji cząstkowej może być identyczna lub prawie identyczna z wielkością
wyjściowego związku, może zniknąć lub może się zmienić. Z punktu widzenia istnienia
związku pozornego istotne są jedynie dwie pierwsze możliwości. Jeżeli związek cząstkowy
jest identyczny lub prawie identyczny ze związkiem wyjściowym, to mamy podstawy, aby
stwierdzić, że zmienna kontrolowana nie wpływa na wyjściowy związek między zmiennymi i
związek ten ma charakter bezpośredni. Jeżeli natomiast ów związek zanika, to mówimy, że
związek wyjściowy jest związkiem pozornym. (Trzecia zmienna może pośredniczyć
pomiędzy zmienną zależną a zmienną niezależną. Wtedy związek cząstkowy również znika
lub jest prawie równy zeru. Przykład takiej sytuacji krótko omówimy poniżej).
Jeżeli związek cząstkowy nie zanika, lecz ma inną wartość niż związek wyjściowy lub
ma inną wartość w każdej z tablic cząstkowych, to mówimy, że zmienna zależna i zmienna
niezależna pozostają ze sobą w interakcji*. Do problemu interakcji wrócimy później.
Związek wyjściowy jest związkiem pozornym. Analizując tabelę 17.4, widzimy, że
poziom wykształcenia całkowicie wyjaśnia związek pomiędzy miejscem zamieszkania i
liberalizmem. Jest tak dlatego, gdyż nie obserwujemy żadnych różnic w poglądach
politycznych mieszkańców wsi i miast wewnątrz każdej z dwóch grup wyłonionych ze
względu na poziom wykształcenia. Sześćdziesiąt procent wysoko wykształconych
mieszkańców wsi to osoby o liberalnych poglądach politycznych. Z kolei w grupie osób z
niskim wykształceniem liberalne poglądy polityczne ma 20% osób bez względu na miejsce
zamieszkania. Związek pomiędzy zmienną nie-
* Pomyłka! To zmienna niezależna i zmienna kontrolowana pozostają ze sobą w
interakcji względem zmiennej zależnej (por. p. „Interakcja", s. 451) (przyp. red. nauk.).
446
wykształcenie
liberalizm miejsce
polityczny zamieszkania
Ryc. 17.4. Pełen związek między zmiennymi przedstawionymi w tabeli 17.4
zależną i zmienną zależną jest całkowicie wyjaśniany przez związek każdej zmiennej z
poziomem wykształcenia, jak to przedstawiliśmy na rycinie 17.3. Tę samą zależność można
przedstawić w postaci diagramu (ryc. 17.4).
Wykształcenie determinuje zarówno liberalizm polityczny, jak i miejsce zamieszkania.
Oznacza to, że ludzie wysoko wykształceni mieszkają raczej w miastach i są politycznie
bardziej liberalni. Nie ma natomiast żadnego rzeczywistego związku pomiędzy liberalizmem
politycznym i miejscem zamieszkania, a obserwowane powiązanie między nimi ma charakter
pozorny.
Związek wyjściowy zachodzi bezpośrednio pomiędzy badanymi zmiennymi.
Kontrolowanie trzeciej zmiennej może jednak prowadzić do zupełnie innych
wyników. W hipotetycznym przykładzie przedstawionym w tabeli 17.5 wyjściowy związek
pomiędzy dwiema zmiennymi nie uległ zmianie po wprowadzeniu trzeciej zmiennej, tj.
wykształcenia. W całej próbie, podobnie jak w grupach wyodrębnionych ze względu na
poziom wykształcenia, porównanie odpowiednich wartości procentowych pokazuje, że 50%
mieszkańców miast ma liberalne poglądy polityczne, natomiast na wsi jedynie 28%. Wykres
słupkowy zeprezentowany na rycinie 17.5 wyraźnie pokazuje, że zmienna kontrolna nie
wywiera żadnego wpływu na wyjściowy związek między zmiennymi. Badacz może zatem
zasadnie twierdzić, że w przypadku tego konkretnego związku wykształcenie jest czynnikiem
nieistotnym, a związek zachodzi bezpośrednio między dwiema wyjściowymi zmiennymi.
Tabela 17.5. Liberalizm polityczny a miejsce zamieszkania (wykształcenie jako
zmienna kontrolowana) — związek nie będący związkiem pozornym
Liberalizm polityczny Wysokie wykształcenie Niskie
wykształcenie
miasto wieś miasto wieś
Wysoki 50% 28% 50% 28%
(50) (35) (150) (105)
Niski 50% 72% 50% 72%
(50) (90) (150) (270)
Ogótem 100% 100% 100% 100%
(100) (125) (300) (375)
W praktyce otrzymane wyniki nie są zazwyczaj tak wyraźne jak przedstawione tutaj.
Bardzo rzadko się zdarza, aby związek całkowicie zniknął lub był dokładnie
447
100
80
wysoki liberalizm
niski liberalizm
s 60 -
40 -
wysokie wykształcenie niskie wykształcenie
72% 72%
50% 50% 50% 50%
1 28% 1 1 28% 1
okręgi miejskie okręgi wiejskie okręgi miejskie
miejsce zamieszkania
okręgi wiejskie
Ryc. 17.5. Liberalizm polityczny a miejsce zamieszkania (wykształcenie jako zmienna
kontrolowana) — związek nie będący związkiem pozornym
taki sam jak związek wyjściowy. Bardzo często dane otrzymane dla tabel cząstkowych
wykazują znacznie mniejsze powiązanie, a czasami tylko niewielkie zmniejszenie korelacji.
Dzieje się tak, ponieważ na wyjściowy związek między dwiema zmiennymi może wpływać
wiele czynników. W naszym przykładzie takie zmienne, jak dochody, przynależność do partii
czy wyznanie religijne również w znaczący sposób mogą wyjaśnić związek pomiędzy
miejscem zamieszkania a liberalizmem politycznym. Statystycy nazywają tę cechę zmiennych
zblokowanie m2. Termin ten odzwierciedla wielowymiarowość ludzi, ludzkich działań i
społecznych interakcji. Porównując ludzi na przykład w terminach klasy społecznej, bierzemy
pod uwagę jedynie jeden wymiar ludzkich doświadczeń. Ludzie mogą się różnić pod wieloma
innymi względami i wszystkie te czynniki mogą wpływać na wyjaśniane zjawisko. Czynniki
zblokowane to nasze zmienne kontrolowane; ponieważ jednak możemy kontrolować tylko
niektóre z nich, reszta może nadal wyjaśniać pozostałą część zróżnicowania zmiennej
zależnej.
Procedura kontroli powinna zatem polegać na utrzymywaniu wszystkich pozostałych
zmiennych mogących mieć wpływ na badane zjawisko. Wybór tych zmiennych jest operacją
logiczną i teoretyczną, a jedynym wymaganiem statystycznym jest spełnienie warunku
powiązania potencjalnej zmiennej kontrolnej zarówno ze zmienną zależną, jak i ze zmienną
niezależną. Oczywiście nigdy nie będziemy całkowicie pewni, że w swojej analizie
uwzględniliśmy wszystkie zmienne. Jednakże im więcej istotnych zmiennych kontrolujemy,
tym większa pewność, że nasz zwi zek nie jest związkiem pozornym.
2 Morris Rosenberg (1968), The Logic of Sumey Analysis, New York: Basic Books, s.
26-28. [Por. też skróconą i zmodyfikowaną wersję tej książki wydaną w Polsce jako: Adrian
de Winter (1981), Zmienne kontrolne (faktory testujące) w badaniach socjologicznych,
Lublin: RW KUL (opracował i tłumaczył Marian Radwan). Inne streszczenie książki M.
Rosenberga: M Rosenberg (1979), Logika anali socjologicznej, w: A. Sułek (red.), Logika
analizy socjologicznej. Wybór tekstów. Warszawa: Wyd. UW (streścił Antoni Sułek) (s. 161-
211) (przyp. red. nauk.)]
448
I Poziom złożoności
Mechanizm kontroli został zaprojektowany po to, aby można było wykryć wszystkie
czynniki, które wpływają zakłócająco na trafność analizowanego związku między dwiema
zmiennymi. Badacze najprawdopodobniej wybiorą wówczas inne zmienne niezależne i
powtórzą proces sprawdzania trafności analizowanego związku. Jeżeli jednak badany związek
nie jest związkiem pozornym, to można zastosować bardziej złożoną analizę i bardziej
skomplikować badaną zależność. Technika rozbudowywania polega zazwyczaj na
wprowadzeniu innych zmiennych, aby określić sposób powiązania zmiennej zależnej i
zmiennych niezależnych lub określić warunki, w jakich może zachodzić związek między
zmiennymi.
Konkretne przykłady pomogą nam zilustrować istotę techniki rozbudowywania. W
ostatnim dziesięcioleciu w naukach społecznych zwracano szczególną uwagę na wpływ
wczesnego urodzenia dziecka na szanse życiowe młodocianych rodziców. Naukowcy
zajmujący się tą problematyką stwierdzili, że wczesne posiadanie dzieci powoduje większe
trudności ekonomiczne i kłopoty rodzinne niż posiadanie dzieci w wieku późniejszym3.
Wczesne posiadanie dzieci wydaje się przyczyniać do rzucania szkoły, zwłaszcza w
przypadku młodocianych matek. Z kolei niższe wykształcenie sprawia, że nastoletnie matki
mają kłopoty ze znalezieniem stałej i opłacalnej pracy. Związek ten możemy schematycznie
przedstawić w następujący sposób:
wczesne posiadanie dzieci —» niższe wykształcenie —» niekorzystne położenie
ekonomiczne.
Zatem niższe wykształcenie wiąże wczesne posiadanie dzieci z niekorzystnym
położeniem ekonomicznym. Jest to zmienna pośrednicząca pomiędzy zmienną niezależną
(wczesne urodzenie dziecka) a zmienną zależną (niekorzystne położenie ekonomiczne).
I chociaż niższe wykształcenie wpływa na niekorzystne położenie ekonomiczne wielu
nastoletnich matek, życie tych kobiet bywa bardzo różne. W jednym z ostatnich badań
stwierdzono na przykład, że 1/4 dzieci młodocianych rodziców przyszło na świat w rodzinach
dobrze zarabiających, a około 1/4 w rodzinach zarabiających powyżej 25 000$ rocznie4. Aby
wyjaśnić te różnice, badacze poddali kontroli wiele zmiennych. Jedną z tych zmiennych była
rasa. Okazało się, że białe matki częściej osiągały wyższy poziom ekonomiczny w
porównaniu z matkami o czarnym kolorze skóry. W tym przykładzie wyjściowy związek
pomiędzy wczesnym posiadaniem dziecka a niekorzystnym położeniem ekonomicznym
ujawnia się tylko w jednej podgrupie, tj. w grupie matek czarnych. Zmienna kontrolowana —
rasa — pełni funkcję zmiennej warunkowej, a wzorzec takiej zależności nazywany jest
interakcją, co schematycznie można przedstawić następująco:
, . . czarni —> niekorzystne położenie ekonomiczne wczesne urodzenie -"
** biali —> brak niekorzystnego położenia ekonomicznego
3 Frank F. Furstenberg, Jr., J. Brooks-Gunn, S. Philip Morgan (1987), Adolescent
Mothers in Later Life, Cambridge: Cambridge University Press.
4 Ibidem, s. 48.
449
Poniżej przedstawimy przykład empiryczny sytuacji, w której występuje zmienna
pośrednicząca oraz interakcja.
Zmienna pośrednicząca
Wróćmy do pierwszego przypadku, w którym zmienna kontrolowana pośredniczy
pomiędzy zmienną niezależną i zmienną zależną. Tabela 17.6 zawiera dane dotyczące
wczesnego posiadania dzieci i statusu ekonomicznego. Analizując te dane. widać, że obie
zmienne są ze sobą powiązane: wczesne posiadanie dzieci pociąga za sobą niekorzystne
położenie ekonomiczne. Zdaniem badaczy prawidłowość te można wyjaśnić, wprowadzając
trzecią zmienną, tj. osiągnięte wykształcenie. Innymi słowy, wczesne posiadanie dzieci
wpływa pośrednio na status ekonomiczny poprzez poziom wykształcenia. Młode matki
bowiem wcześniej rzucają szkołę w porównaniu z nastolatkami nie będącymi matkami.
Tabela 17.6. Urodzenie dziecka a status ekonomiczny (dane hipotetyczne)
Wczesne urodzenie dziecka _ ,,
Status ekonomiczny ---------¦----------------------:---------- Ogółem
tak nie
Niski 54% 33%
(869) (653) (1522) Wysoki 46% 67%
(731) (1347) (2078)
Ogółem 100% 100% 100%
(1600) (2000) (3600)
Aby sprawdzić tę hipotezę, badacze wprowadzili grupy o stałym poziomie kształcenia
i ponownie przeanalizowali badany związek. Jeżeli, jak sugerowali, we ne posiadanie dzieci
ma jedynie pośredni wpływ na status ekonomiczny, to kontrolując zmienną pośredniczącą,
powinniśmy otrzymać wynik w postaci braku związku pomiędzy wczesnym posiadaniem
dzieci a statusem ekonomicznym. Dane przedstawione w tabeli 17.7 potwierdzają tę hipotezę:
nie ma różnic statusu ekonomicznego pomiędzy matkami i niematkami, gdy ich poziom
wykształcenia jest taki sam. Wyjściowy związek pomiędzy zmiennymi znika, gdy zmienną
kontrolowaną jest wykształcenie.
Aby sprawdzić, czy zmienna kontrolowana wiąże zmienną niezależną i zmienną
zależną, musimy wykazać, że zmienna ta jest powiązana zarówno ze zmienną niezależną, jak
i ze zmienną zależną i że po wprowadzeniu zmiennej kontrolowanej wyjściowy związek
między zmiennymi znika (lub zdecydowanie słabnie) we wszystkich kategoriach
kontrolowanej zmiennej. Czytelnik może zauważyć, że identyczne warunki musiały zostać
spełnione, aby można było uznać dany związek za związek pozorny, i rzeczywiście jest to
prawda. Stosowane w obu przypadkach testy statystyczne są identyczne, ale interpretacja jest
różna. W wypadku związku pozornego wyniki testu statystycznego stanowią podstawę do
odrzucenia hipotezy o związku pomiędzy zmienną niezależną i zmienną zależną, a w
wypadku zmiennej pośredniczącej — odwrotnie — są podstawą wyjaśnienia takiego związku.
W jaki sposób zatem możemy te dwie sytuacje od siebie odróżnić?
450
Tabela 17.7. Urodzenie dziecka i status ekonomiczny a uzyskane wykształcenie (dane
hipotetyczne)
Wysoki poziom wykształcenia Niski poziom wykształcenia Status ekonomiczny
wczesne urodzenie dziecka______wczesne urodzenie dziecka Ogółem
tak nie tak nie
Niski 18% 18% 64% 65%
(90) (216) (704) (512) (1522)
Wysoki 82% 82% 36% 36%
(410) (984) (396) (288) (2078)
Ogółem 100% 100% 100% 100%
(500) (1200) (1100) (800) (3600)
Morris Rosenberg twierdzi, że różnica ta ma charakter raczej teoretyczny, a nie
statystyczny, i że jej istota leży w zakładanym związku przyczynowym pomiędzy
zmiennymi5. Interpretując dany związek jako związek pozorny, zakładamy, że pomiędzy
zmienną niezależną i zmienną zależną nie zachodzi związek przyczynowy. Natomiast myśląc
o zmiennej pośredniczącej, przyjmujemy, że zmienna niezależna i zmienna zależna są ze sobą
pośrednio powiązane właśnie za pomocą zmiennej pośredniczącej, czyli zmiennej
kontrolowanej.
Interakcja
Drugi sposób rozbudowywania związku, czyli interakcja, polega na określaniu
warunków niezbędnych do zaistnienia związku. Zilustrujemy znaczenie interakcji,
wykorzystując przykład wczesnego posiadania dzieci, statusu ekonomicznego i rasy. Związek
pomiędzy wczesnym posiadaniem dzieci a statusem ekonomicznym można oszacować na
podstawie danych zawartych w tabeli 17.6. Jak widzimy, zmienne te są ze sobą powiązane.
Aby dowiedzieć się czegoś więcej o tym związku, możemy kontrolować rasę. Odpowiednie
dane zostały przedstawione w tabeli 17.8.
Tabela 17.8. Urodzenie dziecka i status ekonomiczny a rasa (dane hipotetyczne)
Murzyni Biali
Status ekonomiczny wczesne urodzenie dziecka wczesne urodzenie dziecka
Ogółem
tak nie tak nie
Niski 66% 31% 36% 38%
(594) (372) (252) (304) (1522)
Wysoki 34% 69% 64% 62%
(306) (828) (448) (496) (2078)
Ogółem 100% 100% 100% 100%
(900) (1200) (700) (800) (3600)
T + -±-. (19.3)
1 n-,-1
Aby znaleźć wartość t dla danych przedstawionych w tabeli 19.4, przyjęliśmy, ka]=ol,
i obliczyliśmy łączne oszacowanie błędu standardowego:
J(101)(4^27T(T26)(3,04)2 1101 + 126
Oy _ y -\\ ------------------------------- \i------------- = 0,50.
x' *2 i 101 + 126-2 H101)(126)
Ponieważ w hipotezie zerowej przyjęliśmy, że/*, =,m2, więc wzór definicyjny f
można sprowadzić do postaci:
Al At
t = -------L (19.4)
Oxt~X2
W naszym przykładzie zatem otrzymamy:
_6,1 -3,6 _ 2,5 0,50 ~ (X50 "
Gdy odwołamy się do rozkładu normalnego (dodatek E), przekonamy się, że wartość t
jest większa niż wartość tego rozkładu potrzebna do odrzucenia hipotezy zerowej (2,33) na
poziomie istotności równym 0,01. Innymi słowy, jest raczej mało prawdopodobne, by różnica
pomiędzy średnimi z próby w grupie ewangeliczek i nie-ewangeliczek powstała jako wynik
błędu pomiaru. Przeto odrzucamy H0 i przyjmujemy, że różnica pomiędzy średnimi
odzwierciedla różne postawy wobec roli płci.
Rozkład t. Jeżeli jedna lub obie próby są mniejsze niż 30, to krzywa normalna nie jest
dobrym przybliżeniem rozkładu z próby różnic między średnimi. Czasem więc
503
posługiwanie się krzywą normalną do określania prawdopodobieństwa Hf) będzie
prowadziło do błędnych wniosków. Należy wówczas posłużyć się rozkładem /. Rozkład t jest
rodziną krzywych, z których każda jest determinowana przez wielkość próby. I tak, rozkład t
jest inny dla próby równej 7, a inny dla próby równej 10. Rozkład t z próby przedstawiono w
dodatku F. Wartości rozkładu zostały przedstawione dla różnych poziomów istotności (test
jednostronny i dwustronny) oraz dla różnych wartości stopni swobody.
Stopnie swobody. Pojęcie stopni swobody (df) jest podstawowym pojęciem, którym
się posługujemy w wypadku wielu testów statystycznych, w tym także testem t stosowanym
wtedy, gdy nie możemy wykorzystać krzywej normalnej. Jeśli posługujemy się krzywą
normalną, to nasze obliczenia oparte są na ogólnej liczebności próby (AO, a kształt krzywej
jest zawsze taki sam. Jeśli do testowania hipotez wykorzystujemy inne rozkłady, to musimy
skorygować wielkość próby, aby odzwierciedlić ograniczenia wynikające z dokonanego przez
nas wyboru przypadków tworzących próbę. Jest to konieczne, albowiem kształt rozkładu
zmienia się wraz z liczbą przypadków włączonych swobodnie do próby. Stopnie swobody
określają liczbę swobodnych wyborów, w sytuacji gdy tworzymy rozkład z próby przez
powtarzanie losowego doboru próby, i pokazują dopasowanie do wielkości próby. Aby
obliczyć stopnie swobody, musimy znać wielkość próby oraz wiedzieć, czy istnieją
ograniczenia nałożone na dobór przypadków do próby. Otrzymujemy je, odejmując od
ogólnej liczebności próby liczbę ograniczeń nałożonych na nasze wybory.
Przypuśćmy na przykład, że mamy wybrać jakieś dwie liczby ze zbioru liczb od 1 do
10. W tym wypadku wielkość próby wynosi dwa i nie ma żadnych ograniczeń nałożonych na
liczby, jakie możemy wybrać. Liczba stopni swobody wynosi zatem 2 (2 przypadki — 0
ograniczeń = 2df). Przypuśćmy dalej, że z tego samego zbioru mamy wybrać dwie liczby,
których suma będzie wynosiła 10. Wprowadziliśmy teraz ograniczenie na to, jakie liczby
możemy swobodnie wybierać. Pierwszą z liczb można wybrać bez ograniczeń, natomiast
jesteśmy zupełnie pozbawieni tej swobody w wypadku drugiej liczby. Jeżeli pierwszą liczbą,
którą wybierzemy, będzie 10, to draga liczba musi wynosić 0, a liczba stopni swobody będzie
się równać 1 (2 przypadki — 1 ograniczenie = \df). Liczba stopni swobody dla rozkładu t jest
ograniczona tym, że dla każdej próby musimy oszacować wariancję w populacji, dlatego w
każdej próbie możemy swobodnie wybierać tylko n - 1 wielkości (1 ograniczenie w każdej
próbie). Jeżeli wykorzystujemy rozkład t do testowania hipotezy o różnicy między dwiema
próbami, to ogólną liczbę stopni swobody określamy, dodając stopnie swobody dla dwóch
prób. Wtedy df równa się: («, — \) + (n2 — 1) = «, + n2 - 2.
Aby zilustrować sposób posługiwania się wartościami z tablicy wartości t,
przetestujmy hipotezę dotyczącą związku pomiędzy osiągnięciami studentów a ścieżką
edukacyjną wybieraną w szkole średniej. Potrzebne dane zostały przedstawione w tabeli 19.5.
Naszym zdaniem osiągnięcia i ścieżka edukacyjna są ze sobą powiązane w taki sposób, że
wśród osób realizujących ścieżkę przygotowującą do college^ jest więcej osób mających duże
osiągnięcia niż wśród osób, które nie realizowały tej ścieżki. Testowana hipoteza zerowa
zakłada, że średnie dwóch populacji są identyczne, a hipoteza badawcza przyjmuje, że średnia
osiągnięć w grupie osób realizujących ścieżkę przygotowującą do college'u (a,) jest wyższa
niż wśród osób, które nie realizowały tej ścieżki {/j,2):
504
H0: [ix=[x2
Korzystając z równań (19.2) i (19.4), możemy obliczyć błąd standardowy oraz wartość
testu t:
Jl3(23,6)2 + 6(12,2)\|l3T6
CTy _y = V ------------------------------ V--------- = 10,8,
x< *2 ' 13 + 6-2 M3(6)
48,3 - 20,5 27,8
t = —----------- = ~ = 2,574.
10,8 10,8
Otrzymaną wartość t należy porównać z odpowiednią wartością rozkładu t z próby.
Liczba stopni swobody dla prób o liczebności 13 i 6 wynosi 17 (13 + 6-2). Dla testu
jednostronnego (prawostronnego), na poziomie istotności równym 0,01 wartość t, przy której
odrzucimy H0, wynosi 2,567. Istnieje znikome prawdopodobieństwo uzyskania wartości t
większej niż 2,567, jeżeli hipoteza H0 jest prawdziwa. Ponieważ wartość otrzymana t równa
2,574 jest większa niż wartość 2,567, możemy odrzucić hipotezę zerową i przyjąć, że różnica
osiągnięć w dwóch różnych ścieżkach edukacyjnych jest istotna statystycznie.
Tabela 19.5. Średnie wyniki na skali osiągnięć w grupie studentów realizujących
ścieżkę przygotowującą do college'u i w grupie studentów, którzy nie realizowali tej ścieżki
Ścieżka przygotowująca Ścieżka nie przygotowująca
do college'u do colIege'u
n 13 6
X 48,3 20,5
s 23,6 12,2
Test istotności dla współczynnika r Pearsona. Współczynnik korelacji r Pearso-na —
podobnie jak X, Md czy b — jest statystyką otrzymaną dla danych z próby. Jest zatem
oszacowaniem odpowiedniego parametru w populacji. Współczynnikowi r Pearsona
odpowiada współczynnik korelacji w populacji określany jako p czy inaczej ro. Podobnie jak
w innych statystykach z próby, wartość r również podlega wahaniom próby. Statystyczny test
istotności współczynnika korelacji polega na oszacowaniu prawdopodobieństwa, z jakim
otrzymaną wartość współczynnika korelacji można przypisać błędowi próby. Na przykład
możemy testować hipotezę, że liberalizm jest skorelowany z dochodami, pobrać próbę losową
liczącą 24 osoby i otrzymać współczynnik korelacji równy 0,30. Jest prawdopodobne, że obie
te zmienne nie są wcale ze sobą skorelowane w populacji i że otrzymany współczynnik
będzie rezultatem działania błędu losowego. Innymi słowy, czy wartość r równa 0,30 jest
wystarczająco duża, aby można było przyjąć, że hipoteza o braku zależności między
zmiennymi jest bardzo mało prawdopodobna?
505
Strategia testowania takiej hipotezy jest podobna do tej, którą wykorzystaliśfł w teście
różnicy między średnimi. W hipotezie zerowej przyjmujemy, że wspfl czynnik korelacji w
populacji wynosi 0, a w hipotezie badawczej, że jest różny odB
Ha:p=0, #,:/>* 0.
Testowanie istotności r, gdyp wynosi zero. Jeśli w ramach hipotezy zerowej przy- i
jmuje się, żep równa się zero, to możemy przetestować istotność statystyczną r,J dokonując
transformacji wartości r na wyniki standardowe. Transformacji tejmo-j żerny dokonać za
pomocą statystyki t o n-2 stopniach swobody. Test t jest definiowany w sposób następujący:
ryn — 2
Aby zilustrować posługiwanie się testem t do badania istotności statystycznej
współczynnika korelacji r Pearsona, załóżmy, że badając zależność pomiędzy dochodami a
liczbą lat nauki, otrzymaliśmy współczynnik korelacji równy 0,30. Liczebność próby
wynosiła n = 24 (df= 22), a zatem:
0,30 V 22
t= , V == 1,475.
yi-0,302
Korzystając z rozkładu t przedstawionego w dodatku F, widzimy, że dla testu
dwustronnego, na poziomie istotności równym 0,05 i dla df= 22, wartość t upoważniająca nas
do odrzucenia hipotezy zerowej wynosi 2,074. Ponieważ otrzymana wartość t jest mniejsza
od wartości z tablic, zatem nie możemy odrzucić hipotezy zerowej i związek pomiędzy
dochodami a liczbą lat nauki powinniśmy uznać za nieistotny, Możemy również przetestować
istotność współczynnika r, posługując się statystyką znaną jako test F. Statystyka Fjest
zbudowana jako stosunek wariancji wyjaśnionej (r2) do wariancji nie wyjaśnionej (1 — r2).
Jest ona zdefiniowana w postaci równania (19.6), w którym n-2 oznacza liczbę stopni
swobody:
F = —^(n-2). (19.6)
Wykorzystując dane z przykładu dotyczącego dochodów i liczby lat nauki,
otrzymamy:
0,302
Aby ocenić wartość statystyki F, posłużymy się rozkładem F przedstawionym w
dodatku G. Wartości F zostały podane dla cc = 0,05 (jasny druk) i dla a=0,01 (druk
pogrubiony). Stopnie swobody dla wariancji wyjaśnionej (w główce tabeli)
506
są równe liczbie porównywanych grup — 1 (w naszym przykładzie porównywaliśmy
dwie grupy, dlatego liczba stopni swobody wynosi 2—1 = 1). Natomiast liczba stopni
swobody dla wariancji nie wyjaśnionej równa jest n — 2 (w kolumnie po lewej stronie). W
naszym przykładzie wynosi ona 24 — 2 = 22. Hipotezę H0 odrzucimy, jeśli obliczona
wartość F będzie większa lub równa wartości F odczytanej z tabeli. Aby więc ocenić istotność
wartości F = 2,17, wyszukujemy w tabeli wartość Podpowiadającą 1 (na górze tabeli) i 22
(kolumna po lewej Stronie) stopniom swobody. Mamy tam dwie wartości F: F = 4,30 dla a =
0,05 i F = 7,94 dla a = 0,01. Otrzymana wartość F = 2,17 zawsze jest mniejsza od wymaganej
wartości F pozwalającej odrzucić H0. Należy zatem wyciągnąć wniosek, że związek
pomiędzy dochodami a liczbą lat nauki jest nieistotny.
Parametryczne testy istotności
¦ Podstawowe założenia obowiązujące dla testów parametrycznych. Obserwacje
(dane) muszą pochodzić z populacji o rozkładzie normalnym, a badane zmienne powinny być
zmierzone przynajmniej na poziomie in-terwałowym.
¦ Różnica pomiędzy średnimi. Aby ocenić istotność różnicy pomiędzy średnimi
pochodzącymi z różnych populacji, badacze posługują się testem t. Prawdopodobieństwo, że
określona różnica pomiędzy średnimi została spowodowana czynnikami losowymi (gdy
prawdziwa jest hipoteza zerowa), można obliczyć za pomocą wzoru (19.1). Jeżeli można
przyjąć, że wariancje w populacji są równe, to błąd standardowy oblicza się za pomocą wzoru
(19.2). Jeżeli nie ma podstaw do przyjęcia założenia, że wariancje w populacji są takie same,
to obliczając błąd standardowy, trzeba się posłużyć wzorem (19.3). Jeżeli liczebność obu prób
wynosi przynajmniej 30, to aby oszacować wartość f, posługujemy się krzywą normalną.
Jeżeli liczebność którejkolwiek próby jest mniejsza niż 30, to w celu oszacowania wartości t
korzystamy z tablic rozkładu t.
¦ Testy istotności dla współczynnika r Pearsona. Aby ocenić istotność
wspó\cz^m\\Va Yove\acyv, moma s\% postawić, dwoma testami, leżeli w hipotezie
zerowej przyjmuje się, że współczynnik korelacji w populacji wynosi zero (p = 0), to możemy
się posłużyć rozkładem f, a wartość f obliczyć według wzoru (19.5). W celu oceny istotności
współczynnika korelacji możemy również wykorzystać rozkład F. Statystyka F jest
zbudowana na stosunku wariancji wyjaśnionej do wariancji nie wyjaśnionej, a obliczając jej
wartość, korzystamy ze wzoru (19.6).
Wybrane testy nieparametryczne
Test Manna-Whitneya. Jest stosowany wtedy, gdy trzeba przetestować hipotezę
zerową, że dwie próby zostały pobrane z tej samej populacji względem hipotezy badawczej,
że populacje różnią się od siebie7. Jedynym założeniem wymaganym
7 Siegel, Nonparametric Statistics, s. 116-126.
507
w tym teście jest założenie, że dwie próby pobrano niezależnie i losowo, a badanel
zmienne zostały zmierzone przynajmniej na poziomie interwałowym. Przypuśćmy, że
wylosowaliśmy 13 mężczyzn («, = 13) i 14 kobiet («2=14)iB każdej osoby obliczyliśmy
wynik odzwierciedlający jej stopień alienacji.
Próba mężczyzn: 5, 7, 10, 13, 19, 24, 25, 28, 30, 32, 33, 36, 37. Próba kobiet: 1, 3, 4,
6, 9, 12, 14, 15, 17, 18, 20, 21, 22, 23.
Jeżeli przyjmiemy, że populacja kobiet jest identyczna jak populacja meżczya ze
względu na stopień alienacji, to oczekujemy, że wartości otrzymane w dwói próbach będą
podobne. Jeżeli wartości te będą podobne, to mężczyźni powi mieć wyższe wyniki na skali
alienacji w niemal połowie par mężczyzna-kobii W pozostałej części par wyniki kobiet
powinny być wyższe od wyników mężczyzn, Możemy obliczyć liczbę par, w których wyniki
mężczyzn przewyższają wyniki kobiet, i oznaczyć je jako L/, a liczbę par, w których zachodzi
odwrotna relacja, ji U'. Jeżeli hipoteza zerowa o równości populacji jest prawdziwa, to
będziemy oczekiwać, że wartości U i U' będą w przybliżeniu równe8:
H0: U=U',
H,: U* U'.
Aby obliczyć wartość U, możemy się posłużyć następującym równaniem:
n?(n2+ 1) U = ntn2+-~----- -R2, (19.7]
gdzie nx — wielkość 1 próby, n2 — wielkość 2 próby, R2 — suma rang dla próby 2.
Rangi otrzymamy, porządkując wyniki dla wszystkich osób pod kątem ich wielkości. Na
przykład trzy pierwsze kobiety (1, 3, 4) rozpoczną listę, a pierwszy mężczyzna (wynik równy
5) będzie miał rangę równą 4. Mężczyźni otrzymają zatem rangi: 4, 6, 8, 10, 15, 20, 21, 22,
23, 24, 25, 26, 27, a kobiety: 1, 2, 3, 5, 7, 9.11. 12, 13, 14, 16, 17, 18, 19. Aby obliczyć U',
należy odjąć wartość U od ogólnej liczby par:
U' = nxn2 - U. (19.8)
Dla naszych danych zatem:
14(14+1) U= (13)(14) + ~------ 147= 140,
U' = (13)(14) - 140 = 182 - 140 = 42.
Aby określić istotność HQ, należy porównać mniejszą z dwóch wartości U lub U'
zwartością U odczytaną z rozkładu U przedstawionego w dodatku H9. Na poziomie istotności
równym 0,05 wartość U powinna być równa lub mniejsza od 50 (gdy nie przewidujemy
kierunku) i równa lub mniejsza od 56 (gdy przewidujemy kierunek). Zawsze wartość
obliczona (42) jest mniejsza i dlatego możemy odrzucić hipotezę zerową mówiącą o tym, że
mężczyźni i kobiety są w takim samym stopniu wyalienowani.
Wraz ze wzrostem wielkości próby wartości U mają w przybliżeniu rozkład normalny.
Jeżeli każda z prób jest większa od 20, to możemy obliczyć wyniki standaryzowane i
skorzystać z rozkładu normalnego. Wówczas średnia rozkładu z próby
M» =
nxn2
2 '
a błąd standardowy
ott =
Ąnxn2{n^ + n2 + 1) 12
Test chi-kwadrat (#2). Chi-kwadrat to ogólny test opracowany do oceny, czy — przy
założeniu zbioru założeń teoretycznych — różnica pomiędzy liczebnościami otrzymanymi a
liczebnościami oczekiwanymi jest istotna statystycznie. Test chi--kwadrat stosuje się
najczęściej do analizowania sytuacji, w których dla dwóch zmiennych można zbudować
tabelę dwudzielczą. Dane przedstawione w tabeli 19.6 to przykład, gdy możemy zastosować
test^2. Tabela 19.6 jest tabelą dwudzielczą, a przedstawiono w niej dane z roku 1970 i z roku
1980 dotyczące postaw mężczyzn wobec tradycyjnych ról związanych z płcią. Po
przeliczeniu liczebności na procenty (w nawiasach) widać, że w 1970 roku 69% mężczyzn
było przekonanych, iż lepiej jest, gdy mężczyzna pracuje poza domem, a kobieta zajmuje się
domem i rodziną. W roku 1980 natomiast jedynie 47% mężczyzn podzielało ten pogląd.
Chcielibyśmy się zatem przekonać, czy ta różnica jest istotna statystycznie. W ramach
9 Jeżeli liczebność którejś próby jest mniejsza od 9, to należy zastosować inny rozkład
prawdopodobieństw.
509
hipotezy zerowej przyjmujemy, że nie ma różnic w przekc rażanych w roku 1970 i w
roku 1980. Przyjmując hipotezę czebności oczekiwane i porównujemy je z liczebnościami o
nice pomiędzy liczebnościami otrzymanymi a oczekiwanym miały szansę pojawić się rzadko
(5% czy 1% wszystkich pr; zerową będzie można odrzucić.
Tabela 19.6. Procent mężczyzn opowiadających się w roku 1970 i 1980 roli
mężczyzny
Lepiej, jeżeli mężczyzna realizuje Rok
się poza domem, a kobieta zajmuje się domem i rodziną
1970 i98o
36 (69%) 80 (47%) Nie 16(31%) 90(53%)
Ogółem 52 170
Na podstawie: Jane Riblett Wilkie (1993), Changes in U.S. Men's Altiludes Toward
the Family Pro\ Soviety", vol. 7, nr 2, s. 261-279.
Statystyką, z której skorzystamy, oceniając wielkość tych chi-kwadrat (x2), która jest
definiowana następująco:
Je
gdzie f0 — liczebności otrzymane, fe — liczebności oczekiw komórki obliczyć
liczebności oczekiwane, należy zastosować
(suma w wierszu) (suma w kolumnie^
n
Tabela 19.7 przedstawia liczebności oczekiwane w sytuacji czyzn w stosunku do
tradycyjnych ról związanych z płcią byłyb 1980 i w roku 1970.
Tabela 19.7. Procent mężczyzn opowiadających się w roku 1970 i 1980 za i roli
mężczyzny (liczebności oczekiwane)
Lepiej, jeżeli mężczyzna realizuje się poza domem, a kobieta zajmuje Rok
1970 1980
Tak Nie Ogółem 27 25 52 89 81 170
510
Obliczanie wartości chi-kwadrat (%2). Aby obliczyć wartość ^2, musimy w każdej
komórce odjąć liczebność oczekiwaną od liczebności otrzymanej, różnicę podnieść do
kwadratu i podzielić ją przez liczebność oczekiwaną dla tej komórki. Następnie należy
zsumować wyniki dla wszystkich komórek. Obliczenia te przedstawiliśmy w tabeli 19.8.
Zwróćmy uwagę, że wartość %2 będzie równa zero, jeśli liczebności otrzymane będą równe
liczebnościom oczekiwanym. Im większe więc różnice pomiędzy tym, co obserwujemy, a
tym, czego oczekujemy, tym większe będą wartości L.
Tabela 19.8. Obliczanie wartości x2 dla danych z tabeli 19.6 i 19.7
JO Je Jf) Je '¦/() Je'
36 27 9 81 3,0
16 25 -9 81 3,2
80 89 -9 81 0,9
90 81 9 81 1,0
r=s,i
Aby ocenić wielkość otrzymanej statystyki %\ należy ją porównać z rozkładem z
próby wartości %2 i sprawdzić, czy otrzymana wartość 8,1 jest wystarczająco duża i pozwoli
przyjąć, iż hipoteza zerowa jest mało prawdopodobna. Rozkład z próby wartości %2 został
zamieszczony w dodatku I. Wartości rozkładu zależą od dwóch czynników: poziomu
istotności (a) oraz liczby stopni swobody. Zatem %2 to w rzeczywistości rodzina rozkładów,
z których każdy określany jest przez inne parametry. Wybierzmy, dla naszego problemu,
poziom istotności równy 0,01. Oznacza to, że odrzucimy hipotezę zerową jedynie wtedy, gdy
otrzymamy wartość x2 większą od tej, jakiej oczekiwalibyśmy w nie więcej niż 1 na 100
pobranych prób.
Liczba stopni swobody dla rozkładu %2 z próby jest określana przez liczbę komórek,
dla których możemy swobodnie określić liczebności oczekiwane. Dla każdej tabeli
dwudzielczej liczba arbitralnie wybranych wartoścA w komórkach jest ograniczona przez
sumy brzegowe obu zmiennych. Na przykład dla tabeli 2 x 2 jedynie wartości jednej komórki
mogą się swobodnie zmieniać. Wartości w trzech pozostałych komórkach zależą od sum
brzegowych. Ogólnie rzecz biorąc, liczbę stopni swobody możemy obliczyć, stosując
następujący wzór:
4f=(r-l)(c-l), (19.12)
gdzie r — liczba wierszy, c — liczba kolumn. W związku z tym:
w tabeli 2x2: df=(2-l)(2- 1)=1, w tabeli 3x3: df= (3- 1)(3-1)=4, w tabeli 4x3: df={4-
1)(3- 1) = 6.
511
W dodatku I prawdopodobieństwa — przy założeniu prawdziwości HQ — pfrl dano
na górze tabeli (nazwy kolumn), a liczby stopni swobody w kolumnie po lewa stronie (nazwy
wierszy).
Rozkład %2 z próby jest rozkładem prawoskośnym i osiąga wyższe wartośdl w górnej
części rozkładu (do prawej strony). Dlatego w wypadku testu %~ obszł krytyczny jest
lokowany w górnej części rozkładu.
Nieparametryczne testy istotności
¦ Test Manna-Whitneya. Stosuje się go, gdy dwie próby pobrano niezależnie i losowo,
a badane zmienne zostały zmierzone przynajmniej na poziomie interwałowym. Test Manna-
Whitneya polega na porównywaniu par obserwacji w celu przetestowania hipotezy zerowej
mówiącej o tym, że dwie próby pochodzą z tej samej populacji, wobec hipotezy badawczej,
że badane populacje się różnią. Dane otrzymane dla każdej próby porządkuje się ze względu
na ich wielkość, a następnie ranguje się cały zbiór danych. Jeżeli wielkość obu prób jest
mniejsza od 20, to wartość statystyki L/i U' oblicza się za pomocą wzoru (19.7) i (19.8). Aby
podjąć decyzję w stosunku do hipotezy zerowej, należy porównać mniejszą z dwóch wartości
U lub U' z wartością krytyczną U odczytaną z tablic (patrz dodatek H). Wartość krytyczną
odczytuje się dla danej wielkości prób oraz dla wymaganego poziomu istotności. Jeżeli
wartość U lub U' będzie mniejsza od wartości odczytanej z tablic, to odrzucimy hipotezę
zerową. Jeżeli wielkość którejkolwiek próby będzie większa niż 20, to możemy obliczyć
wyniki standardowe jako wartość statystyki i dalej posłużyć się rozkładem normalnym.
¦ Test chi-kwadrat. Stosuje się go dla zmiennych nominalnych, jeśli badane zmienne
zostały umieszczone w tabeli dwudzielczej. Za pomocą testu X określa się, czy różnica
pomiędzy liczebnościami otrzymanymi a oczekiwanymi jest istotna statystycznie. Wartość
chi-kwadrat oblicza się za pomocą wzorów (19.10) i (19.11). Posługując się rozkładem chi--
kwadrat, ustalamy — korzystając z dodatku I — minimalną wartość tej statystyki niezbędną
do odrzucenia hipotezy zerowej. Wartość minimalną odczytujemy, znajdując wiersz
odpowiadający właściwej liczbie stopni swobody i kolumnę odpowiadającą założonemu
poziomowi istotności. Otrzymaną wartość chi-kwadrat należy następnie porównać z wartością
minimalną. Jeżeli wartość otrzymana jest większa, to mamy podstawy do odrzucenia hipotezy
zerowej.
W naszym przykładzie przy df= 1 i poziomie istotności równym 0,01 wartość
odczytana z tablic wynosi 6,635, co wskazuje, że wartość 6,635 pojawi się w 1% pobranych
prób. Otrzymana wartość równa 8,1 jest większa od 6,635 i jest bardzo mało prawdopodobna
przy założeniu prawdziwości H0. Gdybyśmy jednak wybrali mocniejszy poziom istotności —
na przykład 0,001 (x2~ 10,827) — to nie byłoby
512
podstaw do odrzucenia hipotezy zerowej. Poziom istotności wybiera się zazwyczaj
przed obliczeniem wartości statystyki. Wybiera się go, uwzględniając konsekwencje
popełnienia błędu I i II rodzaju. W naukach społecznych większość badaczy decyduje się na
poziom istotności równy 0,05 lub 0,01. Przyjmując tę zasadę, możemy odrzucić hipotezę
zerową, że postawy mężczyzn wobec tradycyjnych ról związanych z płcią były takie same w
roku 1970 jak i roku 1980.
¦ Podsumowanie
1. Wnioskowanie statystyczne to procedura pozwalająca badaczowi podjąć decyzję na
podstawie danych z próby, którą hipotezę dotyczącą parametrów populacji może on wybrać.
2. Pierwszym krokiem w testowaniu hipotezy jest sformułowanie jej w terminach
statystycznych. Hipoteza statystyczna zawsze dotyczy badanej populacji. W procesie
testowania hipotez uwzględnia się dwie hipotezy. Pierwszą jest hipoteza badawcza,
oznaczana jako //,. Druga oznaczana jako H0, jest hipotezą zerową, która jest niezbędna z
powodów logicznych. Hipoteza zerowa jest testowana bez-"ośrednio. Jeżeli hipoteza zerowa
zostanie odrzucona jako mało prawdopodobna, to przyjęta zostanie hipoteza badawcza.
3. Potrzeba formułowania dwóch hipotez wynika z konsekwencji logicznych.
Hipoteza zerowa wymaga wnioskowania negatywnego, aby wyeliminować błąd
potwierdzania rezultatu. Innymi słowy, badacz powinien raczej wyeliminować hipotezę
fałszywą, niż potwierdzać hipotezę prawdziwą.
4. Po sformułowaniu określonej hipotezy zerowej należy ją przetestować w świetle
otrzymanych danych. Testowanie polega na porównywaniu wyniku otrzymanego z próby z
modelem statystycznym podającym prawdopodobieństwo pojawienia się takiego rezultatu.
Taki model statystyczny nazywany jest rozkładem z próby. Rozkład z próby danej statystyki
otrzymuje się, pobierając dużą liczbę tak samo licznych prób losowych z określonej
populacji. Dla każdej próby trzeba obliczyć wartość statystyki, a otrzymane wartości
przedstawia się graficznie w postaci rozkładu częstości wartości tej statystyki.
5. Rozkład z próby pozwala oszacować prawdopodobieństwo otrzymania wartości
statystyki z próby. Prawdopodobieństwo to nazywane jest poziomem istotności, inaczej a,
które jednocześnie jest prawdopodobieństwem odrzucenia hipotezy prawdziwej (błąd I
rodzaju). Jeżeli — przy założeniu prawdziwości hipotezy zerowej — prawdopodobieństwo
otrzymania danej wartości z próby jest bardzo małe, to odrzucamy H0 i zwiększamy pewność
co do prawdziwości hipotezy badawczej.
6. Testuj •5,VdX^'i\>)cme, Azteląs\ę, war. testy parametryczne i testy
nieparametryczne. Test parametryczny jest testem statystycznym opartym na kilku
założeniach dotyczących parametrów populacji, z której pobrano próbę. Jednym z
najważniejszych założeń jest założenie mówiące o tym, że dane pochodzą z populacji o
rozkładzie normalnym i że badane zmienne zostały zmierzone przynajmniej na poziomie
interwalowym. Test nieparametryczny natomiast to taki test, którego model nie wymaga, aby
populacja miała rozkład normalny, nie wymaga też pomiaru na poziomie interwalowym.
Testy różnicy pomiędzy średnimi i test istotności współczynnika r Pearsona to testy
parametryczne. Test Manna-Whitneya oraz test chi-kwadrat to nieparametryczne testy
istotności.
513
¦ Podstawowe terminy
błąd próby 494 błąd I rodzaju 499 błąd II rodzaju 499 hipoteza badawcza 493 hipoteza
zerowa 493 obszar odrzucenia 496 poziom istotności 496 rozkład z próby 494 stopnie
swobody 504
test chi-kwadrat 509
test dwustronny 498
test jednostronny 498
test Manna-Whitneya 507
test nieparametryczny 500
test parametryczny 500
test istotności różnic pomiędzy średnimi 501
test t 504
testowanie hipotez 492
Pytania sprawdzajgce
1. Omów rolę hipotezy zerowej i hipotezy badawczej z punktu widzenia logiki
testowania hipotez.
2. Jaka jest różnica pomiędzy wybraniem poziomu istotności wynoszącego 0,50 a
równego 0,05?
3. Jaka jest różnica pomiędzy testem jednostronnym a dwustronnym?
4. Pokaż w postaci diagramu różnicę pomiędzy błędem I i II rodzaju.
5. Określ różnice pomiędzy testami parametrycznymi a testami nieparametrycznymi.
Ćwiczenia komputerowe
1. Posługując się plikiem GSS czy innym plikiem danych, oblicz statystykę chi-
kwadrat dla dwóch zmiennych nominalnych (skorzystaj z modułu STA-TISTICS w
połączeniu z procedurą CROSS-TABS). Czy otrzymany przez ciebie związek jest istotny
statystycznie? Uzasadnij odpowiedź (por. dodatek A, s. 533).
2. Wykorzystując test t, zbadaj różnicę pomiędzy średnimi obliczonymi dla dwóch
zmiennych interwałowych, gdy zmienną grupującą jest zmienna nominalna. Czy różnica ta
jest istotna statystycznie i na jakim poziomie? Czy I zastosowałeś test jednostronny czy
dwustronny? Dlaczego?
¦ Literatura dodatkowa
Blalock H.M. (1975), Statystyka dla socjologów, Warszawa: PWN.
Brzeziński J. (1997), Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd.
Nauk. PWN. Ferguson G.A., Takane Y. (1997), Analiza statystyczna w psychologii i
pedagogice. Warszawa: Wyd Nauk. PWN.
- ISynłax1 hj*j
a -| Newdata 1'
»
¦
¦1 1
filter $
govact Vaiue Labels:
happy 0 LT HIGH SCHOOL
helppoor 3 BACHELOR
helpsick 4 GRADUATE
homosex 7 NAP
id income 8 DK ¦
natcity2 natfare natfare2 natracę natrace2 partyid poMew2 poMews race racseg ¦ 7
ttems: OK
M eqwlth helpbik heipnot heippoor heipsick
Pastę
Beset
Cancel
Help
Model: Alpha ¦
D Ust item labels Statistics...
eąwtth fllter_3 happy helpbik heipnot helppoor helpslck Immmm Id income liberał
marital natetty natdty2 ¦ dependent |govact
OK
>
Easte
Błock 1 oi 1 Beset
Preyłoijs Next
|ndependent(s|:
Cancel
liberał income educ
Help
1 k
I W
Method: Stepwlse i
Brakujące dane: 0, 8, 9
Wartość Etykieta
0 M NIE DOTYCZY
1 ZBYT MAŁO
2 W SAM RAZ
3 ZBYT DUŻO
8 M NIE MA ZDANIA
9 M NIE USTALONO
27
28
29
Literatura dodatkowa
Wywiał J. (1994), Przykłady wnioskowania statystycznego za pomocą
komputerowego pakietu SPSS, Warszawa: Wyd. PLJ.
Dodatek B: Zasady pisania raportu z badań
Nina Reshef
Pisanie raportu z badań jest wyspecjalizowaną umiejętnością, której można się
nauczyć. Chociaż poszczególne dyscypliny akademickie różnią się szczegółami dotyczącymi
tego, co powinno zostać przedstawione w ramach ich przedmiotu badań, to podstawowe
elementy raportu są takie same dla wszystkich raportów — od opisujących testy
przeprowadzane w domu do rozpraw doktorskich i artykułów naukowych. W tym dodatku
przedstawimy wskazówki ułatwiające pisanie raportu z badań.
Cel raportu określa jego strukturę. Z kolei forma raportu wynika z funkcji, jaką ma on
pełnić. Funkcją raportu z badań, w odróżnieniu od innych raportów, jest nie tylko
przekazywanie wyników, ale także bezpośrednie powiązanie tych wyników z modelem
teoretycznym lub z jedną czy wieloma testowanymi empirycznie hipotezami. Struktura
raportu z badań została ujednolicona i można ją ująć w postaci schematu organizującego
sposób prezentacji w spójną i logiczną całość. Dzięki temu pisanie raportu staje się łatwiejsze.
Dlaczego należy pisać raport z badań?
Podstawowym pytaniem poprzedzającym podejmowanie każdego działania jest
pytanie: Po co to robić? W badaniach naukowych odpowiemy, że jest to chęć rozszerzania
horyzontów ludzkiej wiedzy, poprawianie metodologii i zwiększanie dokładności analiz.
Jednak te podniosłe cele nie gwarantują jeszcze, że raport zostanie dobrze napisany, a także
nie zawsze stanowią podstawową motywację studentów.
Gdy — z drugiej strony — przeanalizujemy reguły pisania dobrego raportu, to dwa
elementy wysuną się na plan pierwszy. Pierwszy to stopień zaangażowania autora w
problematykę badawczą, stopień zafascynowania procesem badawczym i wynikami badań.
Drugim elementem jest staranność zdefiniowania i przedstawienia przedmiotu badań. Jeżeli
temat jest interesujący dla autora, to również będzie interesujący dla czytelnika, na pewno dla
osoby prowadzącej zajęcia, a być może i dla szerszego audytorium. Czytelnicy będą ponadto
przekonani o wartości raportu, jeżeli sposób przedstawienia podstawowych idei, wyników
oraz sposób pisania będą profesjonalne. Naszym celem jest zatem przedstawienie wskazówek
umożliwiających skuteczne przedstawianie innym osobom wyników własnych wysiłków
badawczych.
Dopasowywanie formatu raportu do odbiorcy
Odbiorca raportu jest równie ważny dla jego autora jak rodzaj audytorium dla mówcy
przygotowującego przemówienie. Im bardziej zróżnicowane będzie audytorium, tym
ogólniejsze przedstawiane treści i tym luźniejszy będzie ich format. Raporty przeznaczone dla
profesjonalistów powinny mieć charakter wysoce techniczny i powinny być mocno
wyspecjalizowane. Pamiętając o audytorium, autor raportu może zatem wybrać właściwy
format, określić stopień jego szczegółowości i słownictwo zrozumiałe dla odbiorcy.
Odwoływanie się do odbiorcy pomaga również autorowi ustalić, czy założenia leżące u
podstaw raportu zostaną dostrzeżone i zrozumiane. Mówiąc krótko, strategia autora —
wyrażona przez wewnętrzną strukturę
568
raportu — powinna uwzględniać docelowego odbiorcę, nigdy zaś nie powinna być
przypadkowa.
Rodzaje raportów
Badania realizowane w ramach nauk społecznych generalnie dzielimy na dwa rodzaje:
badania jakościowe i badania ilościowe. W badaniach jakościowych można wykorzystywać
takie elementy opisu badań ilościowych, jak diagramy i wykresy. Opis badań ilościowych zaś
może wykraczać poza liczby i dotyczyć analizowania powiązań pomiędzy formalnym
wzorem a miejscem mierzonej zmiennej w teorii. Dlatego nie należy mylić narzędzi
wykorzystywanych do prezentacji wyników z charakterem raportu. Niezależnie jednak od
celu i treści raportu podstawowe zasady dotyczące struktury raportu zarówno z badań
jakościowych, jak i ilościowych są w gruncie rzeczy takie same.
Raporty z badań jakościowych. Badania jakościowe, wyrastające z tradycji Ver-
stehen, tj. głębokiego rozumienia zjawisk społecznych, mają zasadniczo charakter
indukcyjny. Osoby prowadzące badania jakościowe wykorzystują badania terenowe,
zwłaszcza analizę przypadku i obserwację uczestniczącą (por. rozdział 12). Badacz stara się
nie ingerować w przebieg zjawisk. Raport z takich badań będzie zatem zawierać dużo
materiału opisowego. W raporcie powinno się również wykazać, w jaki sposób zebrane
obserwacje stały się podstawą wyodrębienia i analizowania zmiennych (indukcja) oraz w jaki
sposób można te zmienne wbudować w teorię. Ważną rzeczą, o której należy pamiętać, pisząc
raport z badań jakościowych, jest przestrzeganie podstawowych założeń i pojęć teoretycznych
oraz unikanie włączania zbyt wielu szczegółowych danych uzyskanych w badaniach
terenowych. Może to bowiem przeszkadzać i utrudniać przedstawianie podstawowej linii
argumentacji.
Raport z badań ilościowych. Ponieważ badania ilościowe są dedukcyjne, więc badacze
przeprowadzają operacjonalizację zmiennych, manipulują zmiennymi empirycznymi,
dokonują predykcji i testowania. W badaniach ilościowych kładzie się duży nacisk na
metodologię, procedurę badawczą i statystyczne miary trafności. W rapc>tc\e, iMto
\\oicvovN^cV\ ccwmno się zatem wyraźnie pokazywać drogę od teorii do operacjonalizacji
pojęć, od wyboru metodologii i procedur badawczych do zebranych danych, od testów
statystycznych do otrzymanych rezultatów i — w efekcie — wniosków.
Jeżeli w raporcie przedstawia się procedurę testowania hipotez, to każda hipoteza
powinna być jasno nazwana (np. 1, 2 itd. czy A, B itd.), a nawet uwydatniona za pomocą
innej czcionki czy podkreślenia. Metoda ta ułatwia czytelnikowi identyfikowanie
postawionych pytań i ich związku z wynikami badań. Wyróżnianie pytań ułatwia
organizowanie wywodu oraz przyciąga uwagę czytelnika. Jest to ważny element, ponieważ
większość tekstu w raportach z badań ilościowych to słowny opis danych prezentowanych w
tabelach. Dlatego wyraźne zaznaczanie pytań badawczych pomaga czytelnikowi śledzić
prowadzony wywód, a także analizować wnioski końcowe będące podsumowaniem danych w
kontekście metodologicznym i teoretycznym.
Raport ustny. Raporty z badań wygłaszane na zajęciach to powszechnie stosowane
narzędzie wprowadzające studenta nie tylko w proces pisania raportów, ale
569
także w świat naukowych opinii. Krótki raport ustny z własnych badań wymaga nie
tylko opracowania materiału pod kątem treści, ale również uwzględnienia zarówno sposobu
jego wygłaszania, jak i audytorium, dla którego jest przeznaczony. Krótko mówiąc, raport
słowny może być traktowany jako streszczenie czy zakończenie ostatecznej wersji raportu
pisemnego. Dlatego też wszystko to, co powiedzieliśmy o organizacji raportu pisemnego, ma
tu zastosowanie, chociaż inaczej rozłożone zostaną poszczególne akcenty. W prezentacji
słownej musimy zwracać większą uwagę na główne punkty naszego raportu, tempo mówienia
i ton głosu — nie chcemy bowiem, aby odbiorcy zasnęli bądź wpadli w nadmierny
krytycyzm. Próbne wygłoszenie raportu pomoże nie tylko kontrolować ilość materiału, jaką
można przedstawić w przeznaczonym na to czasie, ale również pomoże znaleźć takie sposoby
wygłaszania, które sprawią, że raport będzie interesujący dla słuchaczy.
Prezentacje ustne wygłaszane dla profesjonalnego odbiorcy w czasie konferencji
powinny uwzględniać te same podstawowe zasady, ale na poziomie bardziej wyrafinowanym.
Dlatego warto myśleć o referatach wygłaszanych na zajęciach jako o sposobie ćwiczenia
umiejętności mówienia i prezentowania.
Wybór tematu
Wybór tematu badań jest najważniejszym i chyba najtrudniejszym etapem procesu
badawczego. Aktualne wydarzenia, doświadczenie życiowe czy zagadki intelektualne
pobudzają ciekawość i są źródłem oryginalnych tematów badawczych. Unikajcie tematów,
które były już wiele razy realizowane przez innych studentów czy naukowców, i to bez
względu na to, jak kuszące wydają się wam na pierwszy rzut oka. Jeżeli macie wątpliwości, to
skonsultujcie się ze swoim opiekunem. Jednak nawet nadmiernie często realizowane tematy,
takie jak alkoholizm, mogą być interesujące, jeżeli podchodzi się do nich w sposób
oryginalny.
Można sprawdzić, czy właściwie i poprawnie rozumie się realizowany temat poprzez
ujęcie celu raportu w postaci jednego z następujących pytań: Czego chcę się dowiedzieć? Co
chcę zbadać? Do czego chcę się przyczynić? Czy cel badania można sformułować w postaci
pytań typu „kto", „co" lub „kiedy" i odpowiedzieć na nie kolejno, w sposób analityczny, czy
też należy ująć temat historycznie? Czy temat można przedstawić w postaci hipotezy, która
następnie zostanie przetestowana za pomocą ściśle eksperymentalnych metod? Unikajcie
problemów, których nie można przetłumaczyć na jasne i precyzyjne tematy badawcze. Takie
problemy bowiem są albo niejasne, albo zbyt szerokie, lub też nie nadają się do badania w
sposób, jaki wybraliście.
Dwoma najważniejszymi kryteriami wyboru tematu dla studentów jest jego zgodność
z realizowanymi zajęciami i możliwość zebrania danych empirycznych. Szybki przegląd
dostępnej literatury nie tylko wprowadzi was w realizowany temat i będzie źródłem wielu
pomysłów, ale również pomoże się upewnić, czy wybrany temat da się zrealizować, czy też
powinien zostać przeformułowany lub zawężony. Możecie zaoszczędzić wiele cennego czasu
i trudu, jeżeli wcześniej przeczytacie podstawową literaturę.
Wykonalność. Termin „wykonalność" jest często traktowany jako kryterium wyboru
problemu badawczego, ale co tak naprawdę oznacza? W obszarze badań podstawowe
znaczenie terminu „wykonalność" najczęściej jest wiązane z teoretyczną
570
złożonością wyjaśnianych zdarzeń lub pojęć, z ilością i dostępnością adekwatnych
danych i czasem koniecznym na zebranie i przeanalizowanie danych, zanim będzie można
rozpocząć pisanie raportu. Dla studenta wykonalność może oznaczać liczbę książek i
artykułów, które musi przeczytać w ramach przeglądu literatury. Dla naukowca zaś
wykonalność może oznaczać liczbę wyjazdów zagranicznych niezbędnych do zebrania
danych znajdujących się w archiwach rządowych czy liczbę i złożoność modeli teoretycznych
potrzebnych do wyjaśnienia badanego zjawiska.
Każdy badacz musi sam odpowiedzieć na pytanie, w jakim stopniu jego temat
badawczy jest wykonalny, i określić w ten sposób ramy przygotowywanego raportu. Zawsze
lepiej ograniczyć temat i dokładnie go przeanalizować, niż rozszerzać jego zakres do takich
rozmiarów, że nie ma ani czasu, ani źródeł, ani przestrzeni, aby adekwatnie przedstawić
sensowną dyskusję. Dla badacza z uniwersytetu w Chicago na przykład analiza dochodów
pochodzących z podatków od własności zebranych wstanie Illinois w latach 1919-1929 może
być bardziej wykonalnym tematem niż problem zbierania podatków od własności w Chicago
w okresie przed Wielkim Kryzysem. W tym przypadku, jeżeli dane dotyczące stanu Illinois są
lepiej zorganizowane w ramach istniejących plików, to większa dostępność danych ułatwi
przeprowadzenie procedur analitycznych i statytystycznych nawet wtedy, kiedy zebranie
wszystkich danych może zabrać więcej czasu.
Główny cel raportu
Po wybraniu tematu badawczego badacz musi zadecydować, jaki jest podstawowy cel
raportu. Jeżeli cel ten jest wąsko określony, specyficzny i wyznacza strukturę raportu, to
pisanie raportu będzie znacznie łatwiejsze.
Raporty z badań są zazwyczaj skoncentrowane wokół odpowiedzi na pięć
zasadniczych pytań: „kto", „co", gdzie", „kiedy" i „jak". Szóste pytanie, „dlaczego", jest
pytaniem podstawowym. Celem raportu badawczego jest zatem przedstawienie wyników,
które są empirycznie i logicznie powiązane z jakąś koncepcją przyczynowo-ści, czyli teorią.
Autor ma wolną rękę w uwypuklaniu tylko jednego z tych pytań, w każdej konkretnej części
raportu. Wybór celu powinien być podyktowany przez własne zainteresowania (mimo że w
niektórych przypadkach temat mógł zostać narzucony przez opiekuna) i oczywiście
dostępność danych.
Cel większości raportów z badań można również określić, organizując go wokół
trzech ogólnych kategorii: opisu wydarzenia czy techniki badawczej, bada-n i a nowych
pomysłów czy nietypowych wydarzeń i wyjaśnienia związków przyczynowych. Czwartą
kategorią obejmującą zarówno wyniki, jak i wnioski są propozycje rozwiązań problemów
społecznych'.
We wprowadzeniu do raportu należy jasno przedstawić swoje cele i założenia.
Raporty badawcze, na przykład, przedstawiają wstępne wyniki poszukiwań i wyznaczają
etapy dalszych badań. Treść i uzasadnienie propozycji zmian nie muszą być oparte na
podzielanych powszechnie wartościach i powszechnie przyjmowanych założeniach. Przez
jasne określenie własnych celów i założeń możecie się upewnić, czy wasz raport został
umieszczony we właściwym kontekście. Tym samym czytelnik może lepiej ocenić wasz
raport.
1 Earl Babbie (1995), The Practice ofSocial Research, New York: Wadsworth,
dodatek B, s. A-10.
571
Struktura raportu
Raporty badawcze mają zawyczaj stosunkowo jasną strukturę ułatwiającą
komunikowanie treści. Nic nie jest bardziej frustrujące od czytania niejasnych raportów
dotyczących interesujących badań czy wyników. Dlatego chociaż każdy autor ma pewien
stopień swobody co do wyboru własnego stylu i narzędzi prezentacji (np. tabel czy
rysunków), to opisując swoje badania, należy przestrzegać podanego niżej wzoru.
Wprowadzenie. Wprowadzenie powinno w sposób jasny i zwięzły określać cel pisania
raportu. Powinno wiązać rodzaj raportu (ljp. badawczy) z postawionymi konkretnymi
pytaniami i otrzymanymi wnioskami. (Streszczenie jest jeszcze bardziej zwięzłym
wprowadzeniem i generalnie wyprzedza tekst w publikowanych artykułach). We
wprowadzeniu zatem prezentuje się przegląd treści i, co ważniejsze, wkład badań do danej
dyscypliny. I chociaż to ostatnie stwierdzenie można uważać za wychodzące poza zakres
raportów przygotowywanych przez studentów, jednak w ten sposób określa się wprost
wartość naukową postawionych pytań czy analizowanych problemów.
Odwołajcie się do własnej wyobraźni, pisząc zdanie rozpoczynające wprowadzenie.
Zdanie to jest po tytule elementem najbardziej przyciągającym uwagę2. Wasze umiejętności
stylistyczne będą tutaj najważniejsze. Można wskazać wiele możliwych strategii: można na
przykład zacytować dramatyczne wydarzenie, które opisano w wiadomościach, można
przytoczyć istotny i mający związek z tematem komentarz, wskazać na paradoks, jaki ujawnił
się w badaniach, czy wyraźnie uwypuklić cel badania. Następnie należy zwięźle określić cel
raportu. Unikajcie rozwlekłych wyjaśnień dotyczących celu badania w częściach raportu nie
poświęconych omówieniu wyników. W tej części należy również omówić ograniczenia
metodologiczne i teoretyczne raportu, ale w sposób, który nie lekceważy waszego wkładu.
Jeżeli opiekun pracy studenta uważa, iż badanie warto było przeprowadzić, to jest to
wystarczający argument.
Wielu początkujących autorów sądzi, że ponieważ wprowadzenie otwiera raport,
przeto powinno zostać napisane na początku. To błędny pogląd. Dla wielu autorów napisanie
pierwszych słów tekstu jest bardzo trudne i może opóźniać cały proces pisania. Jeżeli
zorganizujecie swoją pracę właściwie i naszkicujecie cały tekst i jeżeli jesteście w pełni
przekonani, co chcecie powiedzieć (chociaż mogą wam się przydarzyć interesujące
niespodzianki — pisanie bowiem zawsze wymaga myślenia i myślenie zawsze gdzieś was
zaprowadzi), to zanim napiszecie wprowadzenie, przygotujcie najpierw projekt całego
raportu.
Przegląd literatury. Dzięki temu, że nauka powstaje w sposób systematyczny,
realizowane badania naukowe opierają się na wynikach i pomysłach innych osób. Zatem
badania naukowe nigdy nie są prowadzone w pustce, bez względu na to, jak bardzo
innowacyjny jest realizowany temat czy zastosowana procedura. Dlatego przegląd literatury
jest konieczny, aby można było określić miejsce własnych badań.
W przeglądzie literatury streszcza się wcześniejsze badania i przegląd ten można
2 Michael Meyer (1991), The Little, Brown Guide to Writing Research Papers, New
York: Harper-Collins, s. 113-114.
572
przedstawić na wiele sposobów. Wykorzystywane strategie mogą się różnić, jednak
zawsze powinny wynikać z celu raportu. Badając trafność konkretnego testu statystycznego,
można na przykład dokonać przeglądu sposobu wykorzystywania tego testu w określonym
obszarze problemowym. Po jasnym i krótkim omówieniu zalet i wad testu można określić
wkład własnego badania do dyskusji nad jego trafnością. Przegląd literatury można również
zorganizować wokół szkół myślenia takich, jak szkoła Freuda, Junga i Skinnera w
psychologii, wokół sposobów rozwiązywania problemu inflacji czy okresów historycznych,
takich jak na przykład wojna wietnamska. Niezależnie od wybranej strategii przegląd
literatury powinien być dokonany selektywnie i odwoływać się jedynie do tych źródeł, które
są silnie powiązane z raportem i końcowymi wnioskami.
Należy pamiętać, że dokonując przeglądu literatury, nie zawsze w sposób uprawniony
można odwołać się do wszystkich źródeł. Korzystajcie z tekstów naukowych, w których
przedstawia się określone teorie lub omawia określone hipotezy badawcze. Artykuły
umieszczane w gazetach nie będą tu zatem właściwe3. Można z nich korzystać na etapie
zbierania danych, gdyż ich celem jest raczej przekazywanie informacji niż ich
interpretowanie. Tym samym można je traktować jako źródło informacji o tym, co się
zdarzyło, lub informacji o danych statystycznych wtedy, gdy inne, właściwsze — z
metodologicznego punktu widzenia — źródła nie są dostępne.
Metodologia i wyniki. Tę część raportu poświęca się szczegółowemu omówieniu
zastosowanej procedury badawczej, jej podstaw metodologicznych, czynników decydujących
o wyborze przypadku lub procedury oraz wynikom. Nie należy w tym miejscu raz jeszcze
opisywać celu badania, chyba że pomoże to czytelnikowi prześledzić rozwiązania
metodologiczne. W tej części trzeba przedstawić przyjęte hipotezy, wzory wykorzystane do
testowania wyników, tabele zawierające wyniki analiz statystycznych (por. s. 577, na której
omówiono zasady prezentacji tabel) w sposób tym bardziej uporządkowany, im bardziej
prowadzone badania miały charakter empiryczny czy ilościowy. Jak powiedzieliśmy już
'wcześniej, kolejne numerowanie hipotez ułatwia organizowanie tekstu. Ponieważ tabele
powinny zostać włączone do tekstu w takim porządku, w jakim omówiono kolejne zmienne,
więc wprowadzając odpowiednie dane do tekstu, wystarczy odnieść się jedynie do numeru
tabeli (np. por. tabela 3), kiedy włączasz odpowiednie dane do tekstu.
Wyniki badań jakościowych można — w zależności od zastosowanej metodologii —
omówić zgodnie z ich historycznym powstawaniem, czy też zorganizować tekst wokół
badanych pojęć.
Omówienie wyników. W tej części raportu przedstawia się większość informacji
dotyczących analizy otrzymanych rezultatów — waszą interpretację wyników, ich związek z
pytaniem badawczym, z poprzednimi badaniami (na przykład to, czy je potwierdzają, czy też
nie) oraz konsekwencje dla dalszych badań. Pisząc tę część, wykorzystajcie swoje
umiejętności analityczne i wyobraźnię, stawiając dodatkowe pytania, wyciągając wnioski,
oceniając poprawność zastosowanej metody czy istotność otrzymanych wyników. Dlatego
warto rozpocząć od przypomnienia celu badania, a następnie pokazania, czy otrzymane
wyniki potwierdzają lub nie wyjścio-
1 Ibidem.
573
wą hipotezę badawczą, czy też trafność przyjętej strategii postępowania. Warto
również ocenić własny wkład bez zbytniego podkreślania negatywnych wyników czy
problemów, jakie pojawiły się w trakcie badań. Mówiąc krótko — wasza prezentacja powinna
być jasna, zwięzła, wyważona i na temat.
Wnioski. Wnioski pisze się po to, aby zamknąć cykl badań, przejść od wcześniejszych
badań do miejsca raportu w zgromadzonej wiedzy naukowej. Wymaga to powiązania
wniosków teoretycznych czy metodologicznych z aktualnym stanem badań. Wnioski to
również możliwość sugerowania nowych dróg badań — pomysłów, w jaki sposób można
kontynuować to, co sami zrobiliście. Chociaż rekomendacje dla dalszych badań mogą
wydawać się wielkim ciężarem dla osoby początkującej, to stwarzają one możliwość
popisania się swoją wyobraźnią, pomagają umieścić własne wyniki w ciągu badań,
podkreślają skromność i świadomość tego, że raport to jedynie niewielki wkład do ciągle
powiększającego się obszaru wiedzy. Ta część może mieć objętość jedynie paragrafu, ale bez
niej zabraknie zakończenia pracy. Jeżeli wyprowadzone wnioski są bardzo krótkie, to można
je włączyć do części poświęconej omówieniu wyników.
Pisanie raportu
Szkic raportu. Napisanie raportu, po wysiłku włożonym w prowadzenie badań, może
okazać się rzeczą najtrudniejszą. Pisanie jest wyzwaniem, ponieważ zmusza do myślenia i do
krytycyzmu. O stylu pisania powiemy jedynie tyle, że proste, krótkie zdania są lepsze
zwłaszcza wtedy, gdy macie zamiar przedstawić złożone pomysły lub procedury.
Wczesny start jest dobry dla pisania raportu. Mniej lub bardziej chronologicznie
opiszcie zastosowane procedury i to, co ustaliliście. Strategia taka — oprócz ułatwienia
podsumowania i zapamiętania całego materiału — stwarza możliwość zweryfikowania
starych pomysłów i tworzenia nowych. Ta forma streszczenia staje się w zasadzie pierwszym
szkicem ostatecznego raportu.
Po napisaniu wstępnego szkicu przejrzyjcie go kilka razy i poprawcie, jeżeli będzie to
konieczne. W trakcie któregoś z przeglądów spójrzcie na swój tekst z pozycji' czytelnika, a
nie autora. Jeżeli jako czytelnik jesteście w stanie śledzić przyjętą linię argumentacji, to
następnie poszukajcie słabych punktów w przedstawionym rozumowaniu oraz podkreślcie
usterki stylu. Taki przegląd może sprawić, że zweryfikujecie swój sposób myślenia i być
może zechcecie coś zmienić. Bywa też inspiracją do nowych pomysłów, o których można
wspomnieć teraz, a zrealizować w innych badaniach. Dlatego warto przygotować tyle
szkiców, ile się uda i na ile jest czas.
Redagowanie. Raport z badań musi być nie tylko napisany zgodnie ze strukturą, jaką
opisaliśmy, ale również musi zostać dobrze zredagowany. Redagowanie oznacza
sprawdzanie, czy w tekście pojawiły się jedynie te szczegóły, które są istotne z punktu
widzenia zastosowanej metody lub przyjętej argumentacji. Bądźcie świadomi jednak tego, że
jest taki moment, który kończy całą pracę — moment, w którym zdacie sobie sprawę z tego,
że dalsze czytanie tekstu nie odsłania wam już więcej problemów. To moment zakończenia
pracy.
Tekst należy redagować, pamiętając o jego odbiorcy. Przypuśćmy na przykład,
574
że piszemy raport z badań terenowych poświęconych postawom wobec nieregulowa-
nego dnia pracy. Jeżeli wasz raport jest przeznaczony dla osób prowadzących badania
terenowe lub dla statystyków, to prawdopodobnie włączycie do niego więcej szczegółów
metodologicznych i matematycznych niż wtedy, gdy waszymi czytelnikami byliby
sprzedawcy. W raporcie przeznaczonym dla tych ostatnich możecie przekazać więcej
informacji na temat badanej populacji czy rodzaju zadanych pytań.
Na koniec, kiedy będziecie już zadowoleni z przygotowanego raportu, powinniście
przejrzeć go pod kątem stylu oraz błędów gramatycznych i ortograficznych. Komputery
osobiste są tu ogromnym ułatwieniem, można bowiem skorzystać z programów
poprawiających ortografię i styl, a samo przenoszenie paragrafów nie nastręcza żadnych
technicznych trudności. Proces ten — pomijając stronę techniczną — tak czy inaczej wymaga
dużej koncentracji. Jeżeli nie macie dostępu do drukarki i przynajmniej część poprawek
trzeba będzie nanieść ręcznie, to pamiętajcie, że zbyt wiele odręcznych poprawek — nawet
jeżeli są to tylko błędy maszynowe — może sprawiać wrażenie nieprofesjonalizmu i
zmniejszyć zainteresowanie czytelników tym fragmentem pracy. Jeżeli na stronie pojawi się
więcej niż dwie poprawki, to należy ją na nowo wydrukować lub przepisać.
Długość. Dwa czynniki decydują o długości raportu badawczego: jego cel i temat.
Cele pisania raportu są różne i dla studenta takim celem może być na przykład zwiększenie
własnych umiejętności badawczych. Innym czynnikiem wpływającym na długość tekstu
może być liczba stron, jaką mamy do dyspozycji. Opiekun waszej pracy może wymagać
napisania jedynie trzech stron, jeżeli jest to ćwiczenie, ale już trzydziestu stron w przypadku
pracy ocenianej na stopień. Prace magisterskie i doktorskie są oczywiście jeszcze dłuższe.
Artykuły w czasopismach mogą zostać ograniczone przez wydawców do czterdziestu stron, a
artykuły monograficzne do około pięćdziesięciu. Artykuły dotyczące statystyki bywają z kolei
krótkie, ponieważ wiele informacji podawanych jest w postaci równań. Jeżeli długość pracy
jest ograniczona, to posługujcie się skrótowymi sposobami prezentowania materiału, takimi
jak na przykład wykresy ilustrujące modele przyczynowe.
Tonacja i problem seksizmu. Przygotowując raport, należy uwzględnić dwa czynniki
stylistyczne: tonację i język seksistowski. Decydując o tym, jak formalny czy nieformalny
powinien być nasz sposób pisania, trzeba zawsze pamiętać o odbiorcach tekstu. Formalizacja
narzuca bardziej sztywną strukturę zdań i większą wewnętrzną organizację. Ani styl
formalny, ani styl nieformalny nie wyłącza humoru, natomiast jeden i drugi wymaga
spójności. Jakikolwiek styl wybierzecie, upewnijcie się, że dobrze się w nim czujecie, aby
uniknąć ciężkiej, niezręcznej prozy, pisania nie na temat czy utraty naukowego celu pracy.
Należy unikać w raporcie języka seksistowskiego, i to bez względu na to, czy
posługujecie się stylem formalnym czy nieformalnym. Współczesne podręczniki stylistyki
dostarczają wielu propozycji zdań, które można wprowadzić zamiast tradycyjnych,
męskoosobowych sformułowań.
Plagiaty. Dlaczego w podręczniku dotyczącym metodologiii badań społecznych
zamieszczamy część poświęconą p\agiatomr! Czy rne }esl ocz^vńs>te, że wytotz^s-tywanie
pomysłów i słów innych osób bez poinformowania o tym jest niemoralne
575
i nielegalne? Niestety, plagiaty pojawiają się wszędzie, także i w akademiach. Ze
względu na presję publikowania czy konieczność zaliczenia przedmiotu, ludzie mają często
wielką ochotę „pożyczyć" od innych, zakładając, że nikt tego nie odkryje. Jednakże, jak
powiedzieliśmy wcześniej, rozwój wiedzy oparty jest na pracy poprzedników. Wiedza
przyrasta krok po kroku i dlatego naprawdę łatwo jest kogoś „złapać" na popełnianiu plagiatu.
Co więcej, opiekun pracy zna najprawdopodobniej wystarczająco dobrze to, czego się
wymaga od studenta, oraz na tyle dobrze zna materiał objęty tematem badawczym, aby się
zorientować, że popełniono plagiat. P/agiatorstwo zatem to nie tylko zła, lecz również
ryzykowna strategia.
Większość studentów może popełniać plagiat nieintencjonalnie. Nie zawsze jest do
końca jasne, kiedy należy stosować cudzysłów lub kiedy podać numer strony obok informacji
o autorze tekstu i jego tytule. Dlatego poniżej przedstawiamy reguły pozwalające uniknąć
plagiatu. Reguły te mają wspomóc tych, którzy wstydzą się plagiatu, oraz zniechęcić tych,
którzy chcieliby go popełnić.
1. Kiedy dokładnie przytaczacie słowa innej osoby we własnym tekście, zawsze
używajcie cudzysłowu i podawajcie autora, tytuł pracy i numer strony. W USA, ogólnie rzecz
biorąc, prawa atorskie zostają naruszone wtedy, gdy ciąg co najmniej ośmiu słów jest
cytowany bez wskazania źródła. Poniżej przedstawiamy przykłady — oparte na punkcie 69 z
przykładu 4.1 — które można potraktować jako wskazówki.
Plagiat: Procedury badawcze powinny zostać w raporcie w pełni i dokładnie opisane,
łącznie z wszelkimi dowodami, bez względu na to, w jakim stopniu potwierdzają one
hipotezy badawcze.
Prawidłowo: Przedstawiając wyniki, „procedury badawcze powinny zostać w raporcie
w pełni i dokładnie opisane, łącznie z wszelkimi dowodami, bez względu na to, na ile
potwierdzają one hipotezy badawcze..." (Reynolds, 1979, s. 447-448).
2. Jeżeli parafrazujecie autora, to należy podać jego nazwisko i tytuł pracy.
Prawidłowo: Bez względu na to, czy wyniki potwierdzają hipotezy badawcze, należy w
raporcie w pełni i dokładnie opisać stosowane procedury badawcze (Reynolds, 1979, s. 447-
448).
3. Nigdy nie wolno przedstawiać pomysłu innego autora — nawet jeżeli został on
przerobiony — jako własnego. Należy powołać się na tego autora i podać oryginalne źródło.
Jeżeli sami, niezależnie, doszliście do takich samych wniosków, jakie można znaleźć w
literaturze, to należy to jasno powiedzieć i zacytować autorów myślących podobnie.
Prawidłowo: Sądzę, że zgodnie z zasadami normatywnymi naukowej metodologii
przedstawionymi w pracy Frankfort-Nachmias i Nachmiasa (1995), wszystkie procedury
wykorzystane do zbierania danych, bez względu na to, czy wyniki potwierdzają hipotezy
badawcze, powinny zostać w raporcie w pełni i dokładnie opisane. Reguła ta została ujęta w
postaci zasady normatywnej przez Paula Davisona Reynoldsa (1979, s. 447-448).
4. Nie należy pisać o rzeczach powszechnie znanych tak długo, jak długo jesteście
przekonani, że informacje te są wszystkim dostępne. Fakt, że Waszyngton, stolica kraju, nie
ma swojej reprezentacji w Senacie, może być na przykład znany wszystkim studentom
studiującym historię Ameryki, natomiast przyczyny tego sta-
576
nu rzeczy mogą być im nie znane. Dlatego też omawiając te przyczyny, należy podać
wykorzystane źródło.
Wydaje się, że najlepszym sposobem uniknięcia plagiatu jest po prostu uczciwość.
Jeżeli macie wątpliwości, to cytujcie źródła, z których korzystacie. Pamiętajcie, że pisanie o
zasługach innych świadczy też o waszych umiejętnościach badawczych.
Tabele
Tabele i ryciny pozwalają na zwięzłe przedstawienie otrzymanych wyników.
Wykorzystuje sieje we wszystkich badaniach ilościowych. Można je stosować również w
badaniach jakościowych, aby ułatwić przedstawianie argumentów teoretycznych — por. na
przykład rycina 1.1 i 2.1. Ryciny te zawierają jedynie słowa — pojęcia — streszczające to, co
zostało omówione w tekście.
Poniżej przedstawiamy podstawowe wskazówki techniczne ułatwiające konstruowanie
tabel4:
1. Tabele powinny być samoobjaśniające, tj. zrozumiałe bez odwoływania się do
tekstu. Dlatego powinny być one jasne, zaplanowane w terminach badanego związku i
dokładne. Kolumny, w których dane są podsumowywane, należy umieścić na końcu.
2. Każda tabela czy wykres powinny mieć własne kolejne oznaczenie (np. tabela 1,
rycina 2).
3. Tytuł powinien w jasny i zwięzły sposób odwoływać się do treści tabeli (co, gdzie,
kiedy). Pod tytułem należy umieścić informację o rodzaju danych zawartych w tabeli (np.
procenty, liczebności, waluta). Jeżeli informacje takie nie znajdą się pod tytułem, to powinny
być przedstawione w główkach odpowiednich kolumn tabeli.
4. Należy wyraźnie odróżnić od siebie nagłówki wierszy i kolumn i ewentualnie je
ponumerować, aby stały się bardziej czytelne.
5. Nagłówki kolumn powinny zawierać zmienne niezależne, a nagłówki wierszy —
zmienne zależne.
6. Wartości liczbowe przedstawione w tabeli powinny zostać wyśrodkowane,
przecinki powinny wypadać w tym samym miejscu, a dane powinny być wpisywane na tym
samym poziomie co nagłówki wierszy.
7. Jedynymi dostępnymi skrótami, jakie można stosować w tabeli, są „b.d." (brak
danych) oraz N (liczebność). Wartość N można umieścić w nawiasie zaraz po
przedstawionych w tabeli danych procentowych (jeżeli są niskie), a zawsze na dole kolumny
po informacji „ogółem 100%" (por. tabelę 16.6).
8. Można używać gwiazdek czy innych symboli jako sposobu oznaczania przypisów
lub źródeł danych. Starajcie się jednak ograniczać te środki do minimum, aby nie „zaśmiecać"
teksu i nie narażać czytelników na popełnienie b\ędu (por. tabelę \&.5).
9. Przypisy wyjaśniające powinny być umieszczone zaraz pod tabelą, w pełnej
formie. Źródła danych, również kompletne, należy podać pod przypisami.
4 Na podstawie wskazówek przygotowanych przez Davida G. Wegge'a, St. Norbert
College.
577
Trzeba pamiętać, że tabela ma pomagać czytelnikowi. Dlatego numery tabel, liczby
czy inne środki wizualne powinny być konsekwencją zarówno przyjętego sposobu pisania,
jak i ilości zebranych danych. Nie przytłaczajcie czytelnika tabelami, które nic nie wnoszą do
tekstu.
Dokumentacja
Wiele dyscyplin opracowało swój własny format dokumentowania wykorzystanych
źródeł. Przedstawione niżej trzy sposoby podawania informacji o tytułach książkowych są
ilustracją trzech najczęściej stosowanych form w tym zakresie:
American Psychological Association, Publication Manuał ofthe American Psycho-
logical Association, wyd. 4, Washington, D.C.: APA, 1994.
The Chicago Manuał of Style, wyd. 14, Chicago: University of Chicago Press, 1993.
Gibaldi Joseph, MLA Handbookfor Writers of Research Papers, wyd. 4, New York:
The Modern Language of America, 1995.
Czasopisma także mają własny styl dokumentowania. Podstawowe podręczniki można
kupić w księgarniach uniwersyteckich lub znaleźć w bibliotekach. Najczęściej wyboru
formatu dokonuje promotor pracy. I chociaż różne dyscypliny preferują różne formaty, to
wiadomo jedno — zawsze należy konsekwentnie stosować ten sam sposób.
¦ Literaturo dodatkowa
Brzeziński J. (1997), Metodologia badań psychologicznych, wyd. 2, Warszawa: Wyd.
Nauk. PWN. Morison M. (1999), Jak pisać prace pisemne i prace badawcze oraz jak zdać
egzamin z psychologii,
Poznań: Zysk i S-ka Wydawnictwo. Morison M., Pey J. (1999), Pisanie esejów z
socjologii. Poradnik dla studentów, Poznań: Zysk i S-ka
Wydawnictwo.
¦HHH1
Dodatek C: Znak sumowania (X)
W statystyce często korzysta się ze wzorów zawierających sumę wielu składników.
Aby uprościć zapis takiej sumy, stosuje się grecką literę X(duża sigma), która oznacza
operację sumowania (dodawania). Zatem pojawienie się X oznacza, że wszystkie wielkości
znajdujące się po prawej stronie od niej powinny zostać zsumowane. Jeżeli chcemy dodać
dziesięć wyników, to zazwyczaj piszemy to w sposób następujący:
X, + X2 + X3 + X4 + X5 + X6 + X7 + X8 + X9 + X10.
To samo wyrażenie możemy zapisać prościej
A1+A2 + ...+A10,
co oznacza dokładnie to samo. Trzy kropki (...) oznaczają „i tak dalej". To samo
polecenie można też zapisać jeszcze inaczej:
10
Ix,,
Znak X nakazuje dodać do siebie wszystko to, co po nim występuje (wartości X,),
rozpoczynając od przypadku wskazanego w wyrażeniu poniżej X0 = 1) i kończąc na tym,
który został wymieniony powyżej (10). Przykład ten możemy przeczytać następująco: dodaj
(X) wszystkie obserwacje (X,), począwszy od pierwszej (/= 1), a kończąc na dziesiątej (10).
Jeślibyśmy chcieli dodać do siebie tylko wielkość czwartą i piątą, to zapisalibyśmy to jako:
5
1=4
Chcąc z kolei wskazać, że należy dodać wszystkie przypadki i nie wymieniać
konkretnej ich liczby, możemy posłużyć się literą N i zapisać to tak:
N
lx,.
n=\
Zgodnie z tym zapisem dodamy wszystkie wielkości od pierwszej do N-tej. W ten
sposób generalnie zapisujemy polecenie dodania wszystkich wielkości, bez względu na ich
liczbę. W sytuacji, w której zakres sumowania jest oczywisty, pomija się zazwyczaj
podawanie zakresu pizy l/\ zapisuje się w sposób następujący.
Ix,.
579
czy nawet
lx.
Zapis ten mówi, że należy dokonać sumowania wszystkich przypadków branych pod
uwagę.
Zasady czytania zapisu ze znakiem X
Jest wiele zasad posługiwania się znakiem X- Na przykład zapis:
N N N
!(Xi+Yi) = lXl + lYi
1=1 1=1 1=1
oznacza, że dodawanie sumy dwóch zmiennych (A" i Y) jest tym samym co dodanie
ich sum. Nie ma zatem znaczenia, czy ktoś dodaje każdą wartość Xt do każdej wartości Yt i
następnie sumuje wyniki dodawania od 1 do N, czy też najpierw dodaje do siebie wszystkie
wartości Xh następnie wszystkie wartości Y„ a potem dodaje dwie sumy do siebie. Wyniki w
obu wypadkach będą takie same. Kolejną zasadę ilustruje równanie:
N N
/ . fCJi.j — K / . Aj. i=l i=l
Stała k może zajmować różną pozycję względem znaku sumowania. Oznacza to, że
mając polecenie mnożenia każdej z wartości przez stałą
kXl+kX2 + ...+kXN,
możemy dodać do siebie wszystkie wartości i następnie pomnożyć otrzymaną sumę
przez stałą. Otrzymany wynik będzie taki sam. Trzecia zasada jest następująca:
N
2,k = kN.
i=i
Dodawanie stałych wartości jest zatem równe iloczynowi tej stałej i liczby
wskazującej na to, ile razy została ona dodana. Zgodnie z jeszcze inną regułą:
[lXiJ = (X,+X2 + ...+XN)2
= X]+Xl + ...+X2N + 2X,X2 + 2X,Xi + ... + 2XN_]XN *Xj+X22 + ...+X2N.
580
¦¦
Musimy zatem odróżniać od siebie dwa wyrażenia:
X Xj oraz
(H
1
CD
O to
O
>> A
NO
UJ
i— <
O
©ioa*-a\coOCNt-- —¦ rN oc <n <n oo t--oo<Nt^—•oovi0^1-tooorjv>^L>©
r-to^OrO^OOOt^rOOs^ —' n O oo t^
a o »o -1 "o rj- - ro«ri^ir^cj\r^ooa
so 1X3 0* o
«* «» ^r V)
o r>. Ci CS
^r C* NC
^t vC r>
^ v-, vO f-
n ^t * *
© — ^t- rs m rs vi Cl f-
r- O
r» V, oo
^T « r> ^r «c oo Cl
v-,
Cl vi ^L: r^ oe
rs rs rn m ci O ci Cl ci ci *
+
O * rN iv-, m r- vfi IN m _ nO
r- xC
o 0> 00 nO ¦*
nO ao rs rn łfl r*-
o
v, r- 00 r> o rs "^r
V")
es rs CS es tN (S rs rs en Cl Cl Cl
Cl Cl
m or. r> M sC rs sc O" _,
— o
O vi ci Cft r- ^r
m o sC f- JC o- O o — rs ci Cl