Download as pdf or txt
Download as pdf or txt
You are on page 1of 1299

Projekt okładki i stron tytułowych Agata Muszalska

Wydawca Aleksandra Małek

Redaktor prowadzący Barbara Surówka

Redaktor Magdalena Mendys

Korekta Aleksandra Żdan

Produkcja Mariola Iwona Keppel

Projekt wnętrza Maria Czekaj

Recenzent prof. dr hab. Czesław Nosal

Skład wersji elektronicznej na zlecenie Wydawnictwa Naukowego PWN


Karol Ossowski/Woblink

Książka, którą nabyłeś, jest dziełem twórcy i wydawcy. Prosimy, abyś przestrzegał praw, jakie im
przysługują. Jej zawartość możesz udostępnić nieodpłatnie osobom bliskim lub osobiście znanym.
Ale nie publikuj jej w internecie. Jeśli cytujesz jej fragmenty, nie zmieniaj ich treści i koniecznie
zaznacz, czyje to dzieło. A kopiując jej część, rób to jedynie na użytek osobisty.

Szanujmy cudzą własność i prawo.


Więcej na www.legalnakultura.pl
Polska Izba Książki

Copyright © by Wydawnictwo Naukowe PWN SA


Warszawa 2020

ISBN 978-83-01-21245-2
eBook został przygotowany na podstawie wydania papierowego z 2020 r.,
(wyd. II)
Warszawa 2020

Wydawnictwo Naukowe PWN SA


02-460 Warszawa, ul. Gottlieba Daimlera 2
tel. 22 69 54 321, faks 22 69 54 288
infolinia 801 33 33 88
e-mail: pwn@pwn.com.pl; reklama@pwn.pl
www.pwn.pl
Spis treści
Przedmowa do nowego wydania

Przedmowa

Prolog

Rozdział 1
Umysł i poznanie
1.1. Poznanie – umysł – działanie
1.2. Psychologia poznawcza: dziedzina czy paradygmat?
1.3. Ogólna architektura umysłu
1.4. Podsumowanie

CZĘŚĆ I
REPREZENTACJE POZNAWCZE

Rozdział 2
Istota i forma reprezentacji umysłowych
2.1. Pojęcie reprezentacji umysłowej
2.2. Reprezentacje obrazowe
2.3. Reprezentacje werbalne
2.4. Pierwotność czy wtórność nietrwałych reprezentacji umysłowych
2.5. Podsumowanie

Rozdział 3
Pojęcia i schematy
3.1. Konstrukt reprezentacji pojęciowej
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych
3.3. Dynamiczna koncepcja umysłu, czyli o relacjach między pojęciami
3.4. Podsumowanie

Rozdział 4
Wiedza
4.1. Rodzaje wiedzy
4.2. Organizacja wiedzy
4.3. Nabywanie wiedzy
4.4. Wiedza ekspercka
4.5. Podsumowanie

CZĘŚĆ II
ELEMENTARNE PROCESY POZNAWCZE

Rozdział 5
Uwaga i świadomość
5.1. Istota i aspekty uwagi
5.2. Teorie uwagi
5.3. Uwaga a (nie)świadomość
5.4. Podsumowanie

Rozdział 6
Kontrola poznawcza
6.1. Czynności automatyczne i automatyzacja
6.2. Hamowanie jako mechanizm kontrolny
6.3. Funkcje zarządcze
6.4. Podsumowanie

Rozdział 7
Percepcja
7.1. Podstawowe właściwości percepcji
7.2. Spostrzeganie jako proces oddolny
7.3. Spostrzeganie jako proces odgórny
7.4. Teorie percepcji
7.5. Proces spostrzegania w praktyce
7.6. Podsumowanie

Rozdział 8
Pamięć
8.1. Natura pamięci
8.2. Systemy pamięci przemijającej
8.3. Systemy pamięci trwałej
8.4. Podsumowanie

Rozdział 9
Czynności pamięciowe
9.1. Fazy procesu pamięciowego: prawda czy złudzenie?
9.2. Zapamiętywanie
9.3. Przechowywanie
9.4. Odpamiętywanie
9.5. Zawodność pamięci
9.6. Podsumowanie
CZĘŚĆ III
ZŁOŻONE PROCESY POZNAWCZE

Rozdział 10
Myślenie i rozumowanie
10.1. Istota myślenia
10.2. Rodzaje myślenia
10.3. Teorie myślenia
10.4. Struktura myślenia
10.5. Rozumowanie dedukcyjne
10.6. Rozumowanie warunkowe
10.7. Teorie rozumowania dedukcyjnego
10.8. Rozumowanie indukcyjne
10.9. Inne rodzaje rozumowania
10.10. Podsumowanie

Rozdział 11
Rozwiązywanie problemów
11.1. Problem i rozwiązywanie problemu
11.2. Typy problemów
11.3. Teorie rozwiązywania problemów
11.4. Heurystyki rozwiązywania problemów
11.5. Fazy rozwiązywania problemów
11.6. Przeszkody w rozwiązywaniu problemów
11.7. Czynniki wspomagające rozwiązywanie problemów
11.8. Rozwiązywanie złożonych problemów
11.9. Podsumowanie
Rozdział 12
Wydawanie sądów i podejmowanie decyzji
12.1. Wydawanie sądów
12.2. Podejmowanie decyzji
12.3. Podsumowanie

Rozdział 13
Język i mowa
13.1. Natura języka
13.2. Przyswajanie języka
13.3. Mówienie
13.4. Rozumienie przekazów językowych
13.5. Podsumowanie

Bibliografia

O Autorach

Przypisy
Przedmowa do nowego wydania

Nowe wydanie Psychologii poznawczej powstało z inicjatywy


Wydawnictwa Naukowego PWN. Jako współautorzy przyjęliśmy tę
propozycję z jednej strony z satysfakcją, bo odczytaliśmy ją jako przejaw
zainteresowania czytelników i sygnał, że taki podręcznik jest potrzebny.
Z drugiej strony byliśmy pełni obaw. Zdawaliśmy sobie sprawę, jak szybki
jest postęp w dziedzinie nauki, szczególnie nauki eksperymentalnej, jaką
pozostaje dzisiaj psychologia poznawcza. Od pierwszego wydania minęło
przecież blisko 15 lat i wydawało nam się, że nie będziemy w stanie
sensownie zasymilować tej nagromadzonej przez ten czas wiedzy,
a następnie przedstawić jej w strawnej dla czytelnika postaci. Co więcej,
psychologia poznawcza dynamicznie, na naszych oczach, zmienia swój
charakter, coraz śmielej korzystając z dorobku neuronauki poznawczej
(cognitive neuroscience). Pojawiają się nawet opinie, że ze względu na
rozwój metodyki badań nad mózgiem czasy klasycznej psychologii
poznawczej już się skończyły. Należałoby może pomyśleć o polskim
podręczniku neuronauki poznawczej, ale do tego nie czuliśmy się
przygotowani.

Ważną przesłanką naszych wahań co do drugiego wydania była śmierć


naszego Przyjaciela i współautora pierwszego wydania, Błażeja Szymury.
Zdawaliśmy sobie sprawę, że bez Niego praca, która nas czeka, będzie
trudniejsza.

Zmiany w strukturze podręcznika są minimalne. Zmiany w treści nastąpiły


tam, gdzie pojawiły się nowe publikacje w znaczący sposób wzbogacające
stan wiedzy. Co do badań neuronaukowych, które byliśmy w stanie
uwzględnić dzięki pracy i kompetencjom nowego współautora – Szymona
Wicharego – przyjęliśmy zasadę, że odnosimy się przed wszystkim do tych
prac, które wnoszą coś istotnego do problemów podejmowanych przez
psychologię. Niektóre badania neuronaukowe rzucają nowe światło na stare
problemy czy dylematy teoretyczne. Inne pozwalają wzmocnić
argumentację opartą na badaniach ściśle psychologicznych. W takich
przypadkach chętnie korzystaliśmy z dorobku neuronauki poznawczej.
Unikaliśmy natomiast rozważania problemów, które z psychologią mają
związek niewielki, za to są istotne z punktu widzenia badań nad mózgiem.

Jeśli przyjąć, że psychologia poznawcza zajmuje się tym, jak działa umysł,
neuronauka zaś tym, jak działa mózg, obydwie dziedziny muszą się
wzajemnie rozumieć i komunikować, ale powinny też zachować swoją
tożsamość. Umysł powstaje i działa na podłożu mózgowym, zatem wiedza
psychologiczna nie może być sprzeczna z wiedzą o mózgu. Powinna też
wszędzie tam, gdzie to możliwe, korzystać z osiągnięć neuronauki
w rozstrzyganiu rozważanych przez siebie problemów. Z kolei neuronauka
powinna korzystać z osiągnięć psychologii i jej siatki pojęciowej, bo nie
można sensownie badać żadnego organu, w szczególności mózgu, bez
wiedzy o jego funkcjach. A spostrzeganie, myślenie, pamięć czy używanie
języka to właśnie funkcje pełnione przez mózg. Być może w przyszłości
dojdzie do unifikacji tych dwóch podejść. Na razie obydwie dziedziny
cechują się dużym stopniem autonomii. Jest wiele funkcji mózgowych, na
przykład związanych z regulacją procesów fizjologicznych w ciele, które
mało obchodzą psychologię poznawczą czy w ogóle psychologię. A jeśli
chodzi o funkcje poznawcze, wiedza o tym, jakie struktury mózgu lub sieci
neuronalne obsługują pamięć czy myślenie, też nie jest dla psychologa
najważniejsza, choć interesująca. Dlatego raczej nie omawiamy danych
czysto lokalizacyjnych, dotyczących umiejscowienia struktur mózgowych
realizujących poszczególne czynności poznawcze. Te informacje są z kolei
kluczowe dla neuronauki.

Oddając do rąk czytelników nowe wydanie Psychologii poznawczej,


wyrażamy nadzieję, że książka ta pozwoli im nieco lepiej zrozumieć, jak
działa umysł. Pisząc ją, sami mogliśmy się tylko zbliżyć do takiego
zrozumienia.

Edward Nęcka
Jarosław Orzechowski
Błażej Szymura
Szymon Wichary

Kraków, lipiec 2019 r.


Przedmowa

Przygotowując do druku podręcznik, trzeba mieć przekonanie


o sensowności jego wydania. Sprawa jest stosunkowo prosta, gdy na rynku
nie ma żadnego podręcznika z danej dziedziny; w takim przypadku
cokolwiek jest lepsze niż nic. Tymczasem na polskim rynku wydawniczym
jest kilka podręczników z psychologii poznawczej. Co więc motywowało
nas do podjęcia się tej nielekkiej i odpowiedzialnej pracy?

Przede wszystkim wyszliśmy z założenia, że polscy studenci powinni się


posługiwać podręcznikami polskich autorów. Psychologia nie jest
wprawdzie inna w Polsce niż w innych krajach świata, inne są jednak
oczekiwania odbiorców, tradycje nauczania określonych przedmiotów,
systemy edukacyjne. Dotyczy to szczególnie podręczników napisanych
przez autorów z USA. W amerykańskim systemie kształcenia na poziomie
college’u nie ma kierunków studiowania w naszym rozumieniu. Przez
pierwsze dwa lata student studiuje na wydziale o szerokim profilu,
a dopiero na III i IV roku wybiera specjalizację, którą może być
psychologia. Uprawnienia zawodowe uzyskuje się w toku dalszych
studiów, np. magisterskich lub doktorskich. Z tego powodu kursy
z psychologii, zwłaszcza na poziomie podstawowym, muszą być
dostosowane do odbiorców, którzy niewiele wiedzą o psychologii
i w większości nie będą się w tej dziedzinie specjalizować. To samo siłą
rzeczy dotyczy podręczników, które dostosowuje się poziomem i sposobem
prezentacji treści do „studenta-hobbysty”, a niekoniecznie do przyszłego
profesjonalisty. Na bogatym i różnorodnym rynku amerykańskim istnieją
oczywiście podręczniki zaawansowane, ale w Polsce i innych krajach
wybiera się do przekładów raczej te podstawowe.

Pisząc Psychologię poznawczą, mieliśmy świadomość, że będziemy


konkurować nie tylko z kilkoma pozycjami tłumaczonymi, lecz także
z jedną oryginalną pozycją polską: Psychologią poznania Tomasza
Maruszewskiego (20011). Znaczenie tej książki trudno przecenić, ponieważ
jest to pierwszy polski podręcznik o tej tematyce. Nasza publikacja została
zaprojektowana w ten sposób, aby raczej uzupełniała książkę Tomasza
Maruszewskiego, niż ją zastępowała. Znacznie więcej miejsca
poświęciliśmy złożonym procesom poznawczym. Dodaliśmy też bloki
rozszerzające o charakterze merytorycznym i metodologicznym. W wyniku
tych zabiegów niniejszy podręcznik może być podstawą wykładu
z psychologii poznawczej na pierwszych latach psychologii, ale przyda się
też magistrantom, a nawet doktorantom specjalizującym się w innych
działach psychologii, a pragnącym zgłębić podstaw psychologii poznania
i poznawania.

Struktura podręcznika odbiega nieco od standardu powszechnie przyjętego


przez autorów podręczników z psychologii poznawczej. Ów standard
polega na omówieniu poszczególnych obszarów wiedzy o poznaniu,
począwszy od procesów działających „na wejściu” i uważanych za proste
(np. percepcja i uwaga), a skończywszy na procesach działających „na
wyjściu”, którym przypisuje się wysoki stopień złożoności (np.
rozwiązywanie problemów). „Po drodze” omawia się pamięć, wyobrażenia
i inne formy procesów „pośredniczących” między wejściem sensorycznym
a wyjściem motorycznym.

Istotą układu treści naszego podręcznika jest podział na struktury i procesy


poznawcze. Procesy prowadzą do powstania struktur lub operują na nich.
Dlatego uznaliśmy, że przed omówieniem sposobu działania procesów
poznawczych należy zapoznać studentów z rodzajami i sposobem działania
struktur poznawczych, zwanych również reprezentacjami. Pierwsza część
podręcznika, następująca po prologu, czyli rozdziale prezentującym
psychologię poznawczą „z lotu ptaka”, poświęcona jest właśnie
reprezentacjom poznawczym. W rozdziale drugim ukazujemy istotę sporu
o reprezentację poznawczą oraz omawiamy badania nad reprezentacjami
nietrwałymi (wyobrażeniami, sądami, modelami umysłowymi).
W rozdziale trzecim mowa jest o reprezentacjach trwałych, czyli pojęciach
i kategoriach, a w rozdziale czwartym – o strukturach wiedzy. W ten
sposób, poczynając od prostych obrazów umysłowych, a kończąc na
złożonych strukturach wiedzy, przedstawiamy liczne sposoby, dzięki
którym umysł ludzki poznawczo reprezentuje rzeczywistość.

Drugą część podręcznika poświęcono procesom poznawczym


o stosunkowo niewielkim poziomie złożoności. Oczywiście podział na
procesy proste i złożone jest trudny i ryzykowny, a jego efekty będą
zapewne podlegać krytyce. Im więcej wiemy o takich procesach jak uwaga
czy percepcja, tym trudniej nam zaakceptować myśl, że są one proste. Za
spostrzeganiem obiektów przez człowieka kryje się skomplikowany
mechanizm poznawczy, złożony z całej wiązki procesów, a ponadto
wspomagany przez wiedzę, wnioskowanie, przetwarzanie języka i inne
procesy poznawcze. Mimo to, jeśli porównamy percepcję
z rozwiązywaniem problemów albo z przetwarzaniem języka, musimy
uznać, że spostrzeganie jest procesem relatywnie mniej złożonym.
Przemawiają za tym następujące argumenty.

Po pierwsze, percepcja może być wspomagana przez inne procesy (np.


pamięciowe lub związane z wnioskowaniem), ale nie musi. Niektóre formy
percepcji, zwłaszcza dotyczące spostrzegania zjawisk fizycznych
(przedmiotów, kolorów, kształtów, ruchu), zdają się mieć charakter
bezpośredni, to znaczy są w niewielkim stopniu uwikłane w pośredniczącą
rolę reprezentacji poznawczych. Również wiele form funkcjonowania
pamięci nie wymaga współdziałania ze strony innych procesów
poznawczych, co nie oznacza, że pamięć takim oddziaływaniom nie
podlega. Natomiast procesy złożone nie są w ogóle możliwe bez
harmonijnego współdziałania procesów elementarnych; dotyczy to
w szczególności myślenia, rozwiązywania problemów, rozumowania,
podejmowania decyzji i przetwarzania języka.

Po drugie, w procesach, które uznaliśmy za elementarne, bardzo duży


udział mają automatyzmy w przetwarzaniu informacji. Koncentracja
i przerzucanie uwagi, wyodrębnianie przedmiotów z tła, przywołanie
informacji z pamięci i inne procesy z tej kategorii dokonują się
automatycznie, poza świadomością i kontrolą ze strony podmiotu, który co
najwyżej jest świadomy dopiero skutków owych procesów, a i to nie
zawsze. Natomiast procesy złożone opierają się w dużym stopniu na
czynnościach kontrolowanych. Nie znaczy to, że są wykonywane pod pełną
kontrolą, chodzi tylko o to, że udział owej kontroli jest w ich przypadku
relatywnie duży.

Kontroli poznawczej poświęciliśmy zresztą osobny rozdział, umieszczony


w części drugiej, w której omawiamy elementarne procesy poznawcze.
Decyzja ta wynika z kilku przesłanek. Przede wszystkim uznaliśmy, że
kontrola poznawcza to niezwykle istotny aspekt ludzkiego poznania,
w dodatku coraz intensywniej badany. Ponadto przyjęliśmy, że niektóre
formy kontroli są dość proste w swoim przebiegu i charakterze, wywodzą
się bowiem z mechanizmów uwagi – zresztą przez niektórych autorów są
omawiane wraz z uwagą (np. przeciwdziałanie interferencji). Wreszcie,
w naszym przekonaniu, kontrola poznawcza nie służy sama sobie, lecz
innym procesom poznawczym, głównie tym, które uznaliśmy za złożone,
aczkolwiek nie można ignorować roli procesów kontrolnych w procesach
percepcji i pamięci.

Co do pamięci, poświęciliśmy jej dwa rozdziały w części drugiej, dając


w ten sposób wyraz przekonaniu o niezwykle istotnej roli pamięci
w funkcjonowaniu umysłu i olbrzymiemu znaczeniu badań nad pamięcią
we współczesnej psychologii poznawczej. Nie wolno ignorować faktu, że
dla wielu współczesnych autorów psychologia poznawcza to przede
wszystkim psychologia różnych form i odmian pamięci, a wiele modeli
pamięci (np. sieciowe) to w gruncie rzeczy ogólne modele umysłu.
I chociaż nie chcieliśmy stawiać znaku równości między umysłem
a pamięcią, musieliśmy dać wyraz współczesnemu stanowi badań w tym
obszarze. Dodatkowo trzeba było uwzględnić fakt, że w ostatnich latach,
w wyniku gwałtownego rozwoju badań nad pamięcią, wyróżniono wiele
form i odmian tego zjawiska, dawniej nieznanych, a w każdym razie
niezbyt intensywnie badanych. Chodzi o takie konstrukty, jak pamięć
robocza, pamięć prospektywna oraz liczne przejawy pamięci niejawnej
(implicit memory). Dlatego pamięci poświęcono dwa rozdziały. Jeden
z nich (rozdz. 8) zawiera omówienie różnych form i rodzajów pamięci,
a drugi (rozdz. 9) – czynności pamięciowych, takich jak zapamiętywanie,
przechowywanie i odpamiętywanie materiału. Mimo to mamy wrażenie, że
o pamięci można by napisać znacznie więcej. Współczesny stan badań
i teorii pozwalałby na przykład na poświęcenie osobnego rozdziału samej
tylko pamięci roboczej. Niestety, taka decyzja musiałaby mieć niepożądane
skutki co do rozmiaru i wewnętrznej spójności podręcznika.

Trzecia część książki ma za przedmiot złożone procesy poznawcze:


myślenie i rozumowanie (rozdz. 10), rozwiązywanie problemów (rozdz.
11), podejmowanie decyzji i formułowanie sądów (rozdz. 12) oraz
przetwarzanie języka (rozdz. 13). W ten sposób liczba rozdziałów jest
mniejsza o dwa od liczby tygodni w jednym semestrze roku akademickiego
(teoretycznie 15). Zależało nam na takim rozwiązaniu, ponieważ dzięki
temu można co tydzień wykorzystać jeden rozdział podręcznika, mając
w rezerwie dwa tygodnie na czynności wstępne i końcowe. Niestety,
w wyniku takiej decyzji w tomie nie zmieściły się rozdziały, które, być
może, powinny się tam znaleźć. Jeśli mielibyśmy coś jeszcze dodawać,
trzeba by uwzględnić następujące tematy: rozwój poznawczy, różnice
indywidualne w zakresie poznania oraz filozoficzne i teoriopoznawcze
implikacje badań w zakresie psychologii poznawczej. Wydaje się, że wątki
te zasługują na osobne potraktowanie, na przykład w postaci podręczników,
monografii lub prac zbiorowych. W niniejszym podręczniku wymienione
kwestie omawiane są skrótowo i mimochodem, przy okazji dyskutowania
problemów o charakterze ogólnym.

Oprócz tekstu głównego, w podręczniku zamieszczono dwa rodzaje


bloków poszerzających. Pierwsza grupa bloków ma charakter
merytoryczny. Są to opisy konkretnych badań, niekiedy dość szczegółowo
przedstawionych ze względu na wysoko przez nas oceniane walory
poznawcze. W tego rodzaju blokach (ramkach) znajdują się na przykład
empiryczne ilustracje szczególnie interesujących zjawisk, opis badań nad
mózgowymi korelatami procesów poznawczych lub badań o wyjątkowo
zaawansowanej i finezyjnej metodologii. Można czytać tekst, ignorując te
ramki, zwłaszcza gdyby podręcznik miał być wykorzystywany na zajęciach
z pierwszymi rocznikami studentów. Druga grupa bloków rozszerzających
ma charakter metodologiczny. Nazwaliśmy te ramki „paradygmatami”,
zgodnie z niekuhnowską, ale bardzo rozpowszechnioną konwencją
używania słowa „paradygmat” na oznaczenie ustalonego wzorca procedury
eksperymentalnej, wykorzystywanego w badaniach nad wyodrębnionym
procesem lub efektem. W literaturze psychologicznej bardzo często można
się natknąć na informacje, że pewne badania przeprowadzono na przykład
w paradygmacie poprzedzania negatywnego albo w paradygmacie
dychotycznej prezentacji bodźców. Postanowiliśmy dokładniej opisać
najważniejsze paradygmaty eksperymentalne, co powinno ułatwić
zrozumienie, w jaki sposób psychologia bada określone zjawiska i jak
badacze dochodzą do takich, a nie innych konkluzji. Lektura ramek
paradygmatycznych powinna zatem zwiększyć krytycyzm studenta
w zapoznawaniu się z ofertą współczesnej psychologii poznawczej.
Powinna również ułatwić życie tym, którzy chcieliby projektować
i prowadzić własne badania, na przykład magistrantom.

Podczas pisania podręcznika nieustannie natykaliśmy się na rafy


terminologiczne. Polskie słownictwo psychologiczne jest w wielu
obszarach nieustalone, co więcej, obserwuje się żywiołowy przyrost
niekiedy mało refleksyjnych tłumaczeń terminów obcojęzycznych.
Niektóre już zdążyły się utrwalić, mimo że są ewidentnie nietrafne. Na
przykład pojęcie central executive w teorii pamięci roboczej dotyczy
hipotetycznego mechanizmu rozdzielającego zasoby uwagi
i odpowiedzialnego za bieżące przetwarzanie informacji. Jest to więc
struktura zarządzająca, zgodnie ze znaczeniem angielskiego rzeczownika
executive (dyrektor, członek zarządu). Tymczasem polski odpowiednik
„centralny system wykonawczy” sugeruje raczej podrzędną rolę tego
mechanizmu jako systemu wykonującego polecenia, nie zaś je wydającego.
Mimo wątpliwości termin „centralny system wykonawczy” utrzymaliśmy
ze względu na powszechnie przyjęty w polskiej psychologii uzus. Ale już
executive functions przetłumaczyliśmy jako „funkcje zarządcze”, bo taki,
jak się wydaje, jest sens tego pojęcia. Alternatywą byłyby „funkcje
wykonawcze”, co zupełnie nie oddaje istoty rzeczy, zwłaszcza że w tym
wypadku nie ma wspomagania w postaci słówka „centralne”.

Inna kwestia to sposób oddania angielskiego terminu priming.


Proponujemy „poprzedzanie” lub zamiennie „prymowanie”, ponieważ jest
to określenie neutralne i obejmujące wszystkie rodzaje omawianego
zjawiska. Stosowane niekiedy w polskich tekstach słowo „torowanie” nie
wydaje się trafne, bo nie uwzględnia faktu, że bodziec poprzedzający może
utrudniać przetwarzanie bodźca właściwego, jak to się dzieje na przykład
w przypadku poprzedzania negatywnego. Słowo „uprzedzanie” niesie
natomiast niepożądaną konotację, jakoby ktoś chciał kogoś przed czymś
uprzedzić. Dlatego „poprzedzanie” i „prymowanie” wydają się godne
rozważenia. Dodatkowo „prymowanie” ma tę zaletę, że jest spójne
z określaniem bodźca poprzedzającego mianem prymy. Są to spolszczone
wersje słów o proweniencji łacińskiej, co jest częstym rozwiązaniem
w polskiej nomenklaturze naukowej.

Największe problemy wystąpiły jednak z oddaniem angielskich terminów


implicit learning oraz implicit memory. W tekstach angielskich zawarte są
dwa ważne znaczenia: ukryty charakter procesu oraz to, że zdarzenie
wcześniejsze (np. spostrzeżenie bodźca) pociąga za sobą – jak implikacja –
późniejsze skutki behawioralne (np. specyficzny sposób kategoryzowania
obiektów lub uzupełniania niepełnych wyrazów). Według naszej wiedzy
język polski nie dysponuje słowem o takim ładunku znaczeniowym.
W polskiej literaturze psychologicznej można znaleźć kilka rozwiązań tego
problemu: uczenie się mimowolne (akcentuje brak intencji, ale pomija
ukryty charakter procesu), pamięć typu implicite (niezbyt zgrabne), pamięć
implikatywna (jeszcze mniej zgrabne), pamięć utajona lub ukryta. Wydaje
się, że najlepsze – bo neutralne – jest określenie „pamięć niejawna” oraz jej
przeciwieństwo, czyli „pamięć jawna” (explicit memory). To samo dotyczy
uczenia się, które może być jawne lub niejawne, z tym że w niektórych
przypadkach warto używać również określenia „uczenie się mimowolne”,
mianowicie wtedy, gdy rzeczywiście chce się zaakcentować brak intencji
osoby uczącej się. Potrzeba posługiwania się terminem neutralnym wynika
z tego, iż różni autorzy podają różne definicje i kryteria tego zjawiska, nie
mówiąc już o tym, że nie znamy mechanizmu działania pamięci niejawnej.
Na przykład używanie terminu „pamięć utajona” lub „ukryta” może
sugerować, że jest to pamięć, której zawartość ktoś intencjonalnie przed
kimś ukrył. Może też kierować skojarzenia czytelnika w stronę
freudowskich mechanizmów wyparcia i tłumienia. Tego rodzaju konotacje
byłyby niepożądane, bo zbyt silnie sugerują hipotetyczny mechanizm
działania pamięci niejawnej, a w dodatku nie odpowiadają powszechnie
używanym paradygmatom badania tejże pamięci. Choć sami nie polecamy
terminu „pamięć utajona”, z dwojga złego wydaje nam się lepszy, tym
bardziej że pojawił się już termin „poznanie utajone”.

Terminologia dotycząca pamięci nastręcza zresztą wielu innych kłopotów.


Polski termin „zapamiętywanie” nie ma odpowiednika angielskiego;
w literaturze anglojęzycznej jest natomiast używany termin encoding. Nie
zdecydowaliśmy się na zastąpienie zapamiętywania kodowaniem, bo
byłoby to zbyt odległe od rodzimej tradycji terminologicznej, a ponadto
teoretycznie nietrafne. Kodowanie to ważny element procesu
zapamiętywania, ale nie jedyny, bo nie obejmuje na przykład operacji
utrwalenia śladu pamięciowego. Utrzymaliśmy też termin
„odpamiętywanie”, oznaczający odwrotność zapamiętywania, czyli każdy
przypadek korzystania z zasobów pamięci – jawnej lub niejawnej. Mimo że
termin „odpamiętywanie” nie jest powszechnie stosowany w polskiej
literaturze psychologicznej, a niektóre słowniki traktują jego użycie jako
błąd językowy, wydaje nam się logiczny (np. zakręcić i odkręcić),
a ponadto obojętny ze względu na domniemany mechanizm teoretyczny
tego etapu procesu pamięciowego. Ogólny termin „odpamiętywanie”
można teraz rozbić na konkretne odmiany tego zjawiska, na przykład
przypominanie lub rozpoznawanie (w odniesieniu do pamięci jawnej), oraz
liczne formy korzystania z pamięci niejawnej.

Zdajemy sobie sprawę, że nasze rozstrzygnięcia terminologiczne mogą


budzić sprzeciw. Czy się przyjmą, trudno w tej chwili wyrokować.
W każdym razie powinny wywołać dyskusję i stymulować próby
ulepszenia terminologii naukowej w zakresie psychologii poznawczej.
Język jest jednym z najważniejszych narzędzi poznania, więc przyswajanie
terminów obcojęzycznych nie powinno być bezrefleksyjne
i powierzchowne. Gdyby nasza publikacja skłoniła studentów i badaczy do
większej staranności w tym zakresie, czulibyśmy się usatysfakcjonowani.

Przygotowanie niniejszego podręcznika nie byłoby możliwe bez


życzliwości i współpracy wielu osób i instytucji. Przede wszystkim
dziękujemy Wydawnictwu Naukowemu PWN za inicjatywę wydania tej
książki, a Pani Redaktor Joannie Marek za anielską cierpliwość w obliczu
ciągle zmieniających się terminów oddania maszynopisu. Dziękujemy Pani
Redaktor Aleksandrze Małek za inicjatywę przygotowania drugiego
wydania i za opiekę nad całym procesem wydawniczym. Dziękujemy
naszym pracodawcom, Uniwersytetowi Jagiellońskiemu oraz
Uniwersytetowi SWPS, za stworzenie warunków do pracy naukowej
i dydaktycznej, a przede wszystkim za to, że wykładając psychologię
poznawczą przez dłuższy czas dla wielu roczników studentów, mogliśmy
poznać profil i potrzeby przyszłego czytelnika. Dziękujemy recenzentom
wydawniczym, prof. Tomaszowi Maruszewskiemu i prof. Czesławowi
Nosalowi, za inspirujące uwagi krytyczne, obudowane generalną
akceptacją naszego projektu. Na koniec dziękujemy naszym Kolegom
z Zakładu Psychologii Eksperymentalnej Uniwersytetu Jagiellońskiego
oraz z Katedry Psychologii Poznawczej, Interdyscyplinarnego Centrum
Stosowanych Badań Poznawczych i Katedry Psychofizjologii Procesów
Poznawczych Uniwersytetu SWPS. Wszystko, co wiemy o psychologii
poznawczej, narodziło się w związku z dyskusjami, zebraniami
i wspólnymi badaniami, które przeprowadziliśmy w ciągu ostatnich 30 lat.
W pracach technicznych bardzo pomocni byli: Karolina Czernecka, Zofia
Stawowy-Winkler, Łukasz Szych i Kamila Śmigasiewicz, którym
serdecznie dziękujemy.

Edward Nęcka
Jarosław Orzechowski
Błażej Szymura
Szymon Wichary

Kraków, lipiec 2019 r.


Prolog
Rozdział 1

Umysł i poznanie

Poznanie – umysł – działanie


Umysł jako system przetwarzania informacji
Jedność poznania i działania
Psychologia poznawcza: dziedzina czy paradygmat?
Narodziny i rozwój psychologii poznawczej
Psychologia a inne dziedziny badań nad poznaniem
Metody badań nad poznaniem
Ogólna architektura umysłu
Blokowe modele umysłu
Koncepcja poziomów przetwarzania
Umysł jako system modułowy
Sieciowe modele umysłu
Podsumowanie
Poznanie to zdolność człowieka i innych gatunków do odbioru informacji z otoczenia oraz
przetwarzania ich w celu skutecznej kontroli własnego działania, a także lepszego przystosowania
się do warunków środowiska. Poznaniem nazywamy też ogół procesów i struktur psychicznych,
biorących udział w przetwarzaniu informacji.
Psychologia poznawcza to subdyscyplina psychologii naukowej, zajmująca się badaniem procesów
i struktur poznawczych, a także ogólnymi zasadami funkcjonowania umysłu.

Każda nauka określa swoją tożsamość poprzez przedmiot badań i metodę


ich prowadzenia. Psychologia poznawcza (inaczej: kognitywna; łac. cogito
– myślę, rozważam) jest częścią psychologii i zgodnie z tą przynależnością
określa przedmiot swoich zainteresowań jako badanie mechanizmów
sterujących zachowaniem. W odróżnieniu jednak od innych działów tej
dyscypliny, zawęża obszar swoich zainteresowań do mechanizmów
poznawczych, a nie np. emocjonalnych, motywacyjnych,
osobowościowych lub społecznych. Problemy naukowe oczywiście nie
dzielą się na poznawcze i inne, w związku z tym psychologia poznawcza
wchodzi w liczne i różnorodne „sojusze badawcze” z innymi dziedzinami
badań psychologicznych, jak również z innymi naukami. Niemniej jej
podstawowym zadaniem jest badanie tego, jak ludzie poznają świat i w jaki
sposób owo poznanie określa ich zachowanie w różnych sytuacjach życia
codziennego lub podczas zmagania się z rozmaitymi problemami.

Przedmiotem zainteresowania psychologii poznawczej jest złożony system,


wyspecjalizowany w odbiorze i przetwarzaniu informacji. Zgodnie
z przyjętą konwencją terminologiczną będziemy ten system nazywać
umysłem, chociaż pojęcie to powstało znacznie wcześniej niż jakiekolwiek
próby analizowania poznania w kategoriach przetwarzania informacji.
Pamiętajmy jednak, aby tak rozumianego umysłu nie utożsamiać ze
świadomością. Zdecydowana większość procesów badanych przez
psychologów poznawczych to procesy nieświadome. Świadoma część
umysłu to raczej wyjątek niż reguła, choć wyjątek na tyle interesujący, że
stanowi on przedmiot szczególnie intensywnych badań. Na gruncie innych
nauk, zwłaszcza filozofii, termin „umysł” jest używany w węższym
znaczeniu: jako podmiot doznań i myśli (Harnish, 2002). Zatem umysł
w wąskim znaczeniu to świadoma część psychiki, w której rodzą się
subiektywne doświadczenia (np. spostrzeżenia) i która jest zdolna do
uruchomienia procesów myślenia; jest to jak gdyby „miejsce”, w którym
przebiegają nasze myśli. Natomiast umysł w znaczeniu szerszym to po
prostu system odbioru i przetwarzania informacji.

Umysł, zdefiniowany jako system poznawczy, jest przedmiotem


zainteresowania wielu nauk humanistycznych, społecznych
i biologicznych. Granice między tymi naukami nie zawsze są możliwe do
precyzyjnego określenia, nie zawsze też owe rozgraniczenia są potrzebne.
W każdym razie specyficzność podejścia reprezentowanego przez
psychologię poznawczą wynika ze ścisłego jej związku z resztą
psychologii. Związek ten ujawnia się poprzez badanie relacji poznania do
innych aspektów funkcjonowania psychiki, takich jak emocje, motywacja,
rozwój psychiczny lub zaburzenia zachowania, jednak przede wszystkim
przejawia się w metodologii badań – opartej na obserwacji zachowania
i wnioskowaniu na tej podstawie o ukrytych procesach psychicznych. Jest
to podejście typowo psychologiczne. I choć psychologia jako nauka,
a zwłaszcza psychologia poznawcza, coraz śmielej sięga po inne narzędzia
badawcze, takie jak obrazowanie pracy mózgu lub obliczeniowe
modelowanie procesów poznawczych, nie rozstaje się ze swoim
klasycznym instrumentarium badawczym, którego rdzeniem pozostają
obserwacja zachowania i eksperyment laboratoryjny.

Niniejszy rozdział zawiera definicje podstawowych pojęć psychologii


poznawczej, rozważania na temat jej głównych obszarów badawczych,
a także wstępne informacje na temat metodologii badań prowadzonych
w tym obszarze tematycznym.
1.1. Poznanie – umysł – działanie

1.1.1. Umysł jako system przetwarzania informacji


To, co w tradycyjnej psychologii ogólnej traktowane było jako odrębne
jakościowo zjawiska lub procesy psychiczne (np. pamięć, myślenie,
wyobraźnia), w psychologii poznawczej rozumiane jest raczej
w kategoriach różnych faz procesu przetwarzania informacji
(information processing). Pojęcie to wywodzi się z cybernetyki, czyli nauki
o sterowaniu z wykorzystaniem sprzężenia zwrotnego (Wiener, 1948) oraz
z matematycznej teorii informacji (Shannon, Weaver, 1949; zob. też
Bechtel, Abrahamsen, Graham, 1998); ta ostatnia dała teoretyczne
podstawy rozwoju informatyki. Na gruncie tych nauk informację definiuje
się jednoznacznie jako redukcję niepewności. Na przykład przed rzuceniem
monetą nie wiemy, czy padnie orzeł czy reszka. Kiedy po dokonaniu rzutu
stwierdzamy wynik (np. orzeł), redukujemy swoją początkową niepewność
o połowę. Technicznie rzecz biorąc, uzyskujemy w ten sposób informację
o wartości 1 bita, ponieważ bit to jednostka informacji redukująca naszą
wyjściową niepewność dokładnie o połowę. Według formalnego wzoru:

I = log2O,

czyli wartość uzyskanej informacji (I) równa się logarytmowi o podstawie


2 z liczby dostępnych opcji (O). Jeśli tych opcji jest więcej niż dwie,
wartość uzyskanej informacji przekracza 1 bit. Na przykład wiedząc, że
było ośmiu kandydatów do pracy, a przyjęto Kazimierza, uzyskujemy
informację o wartości I = log28 = 3 bity.

W psychologii pojęcie informacji rozumiane jest w sposób mniej


jednoznaczny. Zazwyczaj też nie umiemy dokładnie zmierzyć ilości
informacji przetwarzanych przez umysł w określonej sytuacji lub podczas
zmagania się z konkretnym zadaniem. Nie mamy jednak wątpliwości, że
aktywność umysłu polega na przetwarzaniu informacji. Między
komunikatem na wejściu (np. znak „stop”) a reakcją na wyjściu (np.
zatrzymanie samochodu) zachodzi bardzo złożony proces przetwarzania
danych. Sześciokątny znak „stop” tylko dlatego jest dla kierowcy bodźcem
wzrokowym, że odbija fale optyczne o określonej charakterystyce (długość
i amplituda). Te fale, przedostając się do siatkówki oka, wyzwalają w niej
reakcje fotochemiczne. Już w tym momencie dochodzi do przetwarzania
informacji, ponieważ dane w postaci fal optycznych są kodowane na
reakcje fotochemiczne. Następnie, zmiany na siatkówce są kodowane na
impulsy nerwowe, które – jak wiadomo – mają charakter
elektrofizjologiczny, ponieważ polegają na postępującej depolaryzacji
błony komórki nerwowej. Impulsy te przewodzą informację do
pierwszorzędowej kory wzrokowej i kolejno do innych fragmentów kory
(tzw. kory kojarzeniowej). W czasie tej wędrówki impuls nerwowy jest
przewodzony przez liczne neurony, a za każdą zmianą neuronu informacja
musi być przekodowana, tak aby nadawała się do przekazania za
pośrednictwem innego nośnika. Wynika to z faktu, że choć impulsy
nerwowe mają charakter elektrofizjologiczny, procesy na synapsie
wymagają reakcji chemicznych, w których uczestniczą tzw.
neuroprzekaźniki (np. serotonina, dopamina). W końcu informacja trafia do
kory ruchowej, gdzie jest programowana reakcja kierowcy, przede
wszystkim naciśnięcie hamulca, ewentualnie wysprzęglenie samochodu itp.
Za te reakcje odpowiadają mięśnie szkieletowe, które muszą odebrać
i odpowiednio zinterpretować rozkaz wysłany przez korę. Mimo pozornej
prostoty tego przykładu mamy tu do czynienia z procesem wielokrotnego
przekodowywania informacji z jednego formatu na zupełnie inny. Trudno
byłoby zaprzeczyć, że między bodźcem a reakcją dokonuje się
przetwarzanie informacji, choć nie umiemy powiedzieć, ile dokładnie
bitów zostało przetworzonych.

Ktoś mógłby zauważyć, że w podanym przykładzie mowa o przetwarzaniu


informacji przez układ nerwowy, przede wszystkim mózg, podczas gdy
psychologia poznawcza ma ambicję zajmowania się umysłem,
pozostawiając badanie mózgu neurobiologom. Nie wchodząc w tym
miejscu w szczegółowe dyskusje na temat relacji między umysłem
a układem nerwowym, przyjmijmy, że mózg jako narząd jest materialnym
podłożem działania umysłu jako systemu poznawczego. Nie ma w tym
kartezjańskiego dualizmu, według którego umysł, czyli dusza, miałby być
niematerialnym bytem istniejącym niezależnie od materialnego mózgu.
Nasze stanowisko jest monistyczne, ponieważ zakłada, że funkcje
umysłowe zachodzą na materialnym podłożu tkanki nerwowej, to znaczy
nie mogą istnieć inaczej niż tylko w ścisłej zależności od procesów w niej
przebiegających1. Umysł i mózg to terminy, które w gruncie rzeczy
odnoszą się do tego samego zjawiska, jakim jest zdolność człowieka
i innych gatunków do poznawania świata. Różnice dotyczą przyjętego
poziomu analizy i sposobu wyjaśniania zjawisk. Badania nad umysłem
wymagają spojrzenia ze stosunkowo wysokiego poziomu, czyli od strony
funkcji poznawczych, natomiast badania nad mózgiem polegają na
prowadzeniu obserwacji działania poszczególnych neuronów lub ich grup.
Psycholog bada funkcje poznawcze, np. spostrzeganie lub zapamiętywanie,
niekoniecznie wnikając w to, jakie struktury mózgowe odpowiadają za
wykonanie owych funkcji, choć ich lokalizacja mózgowa może go żywo
interesować. Natomiast neurobiolog bada budowę i aktywność określonych
obszarów mózgowia lub nawet pojedynczych neuronów, nie zawsze
wnikając w pełnione przez nie funkcje. Na przykład badanie propagacji
impulsu nerwowego wzdłuż aksonu komórki nerwowej nie wymaga
znajomości pełnionych przez nią funkcji, podobnie jak badanie procesów
przewodzenia synaptycznego nie zawsze wymaga wiedzy, w jakich
zadaniach poznawczych uczestniczy dana synapsa. Można powiedzieć, że
spojrzenie psychologa jest „odgórne”, to znaczy od strony złożonych
funkcji poznawczych, podczas gdy spojrzenie neurobiologa jest „oddolne”,
czyli od strony elementarnych procesów metabolizmu i przewodzenia
komórkowego. Oczywiście oba spojrzenia logicznie się uzupełniają. Być
może w przyszłości nastąpi ich pełna synteza, o czym może świadczyć
intensywny rozwój dyscypliny zwanej neuronauką poznawczą (cognitive
neuroscience).

Wszystkie teoretyczne pojęcia psychologii poznawczej dotyczą tego, w jaki


sposób umysł przetwarza informacje. Niektóre z nich odnoszą się do
odbioru informacji z otoczenia, inne – ich przechowywania i dokonujących
się na nich transformacji, a jeszcze inne – przekazywania danych
z powrotem do otoczenia. Dlatego niezbędność terminu „przetwarzanie
informacji” jest dla psychologów czymś oczywistym, choć odrzucając
techniczną definicję tego pojęcia, musimy znaleźć inne, bardziej nam
odpowiadające określenie. Według Ulrica Neissera (1967) na procesy
przetwarzania informacji składają się wszystkie operacje, dzięki którym
odbierane przez jednostkę bodźce są transformowane, przekształcane,
redukowane, wzmacniane, zachowywane, przywoływane lub jakkolwiek
inaczej wykorzystywane. Zadaniem psychologii poznawczej jest opis tych
procesów i pokazanie, w jaki sposób kształtują one zachowanie człowieka.

Podstawowe założenie na temat procesów przetwarzania informacji


dotyczy ekonomii ich przebiegu. W myśl tego założenia przetwarzanie
wszystkich dostępnych informacji nie miałoby żadnego sensu – większość
z nich i tak jest „bezużyteczna” z punktu widzenia wymagań sytuacji,
w jakiej znajduje się organizm. Co więcej, człowiek nie jest w stanie
przetworzyć wszystkich docierających do niego informacji, nawet gdyby
były w pełni użyteczne, ponieważ jego umysł cechuje ograniczona
pojemność (Duncan, Humphreys, 1989). Jak piszą Susan Fiske i Shelley
Taylor (1991), człowiek to skąpiec poznawczy (cognitive miser), czyli
istota, która z reguły angażuje tylko część dostępnych jej zasobów
poznawczych, jak gdyby zachowując resztę na wszelki wypadek i chroniąc
się w ten sposób przed niebezpieczeństwem przeciążenia systemu.
Koncepcja „skąpca poznawczego” wyjaśnia wiele faktów wskazujących na
niezbyt efektywne lub odległe od optymalnego wykonanie rozmaitych
zadań poznawczych. Sposobem na uniknięcie przeciążenia informacyjnego
jest selekcja danych, dokonująca się na różnych etapach przetwarzania.
Selekcję tę umożliwia mechanizm zwany uwagą. Ponadto umysł
dysponuje zdolnością do hamowania zbędnych reakcji i procesów
mentalnych, co jest możliwe dzięki procesom kontroli poznawczej.
Skutkiem „skąpienia” zasobów poznawczych jest też wszechobecna
w ludzkim poznaniu skłonność do stosowania heurystyk, schematów,
stereotypów i innych narzędzi poznawczego upraszczania rzeczywistości.

Ekonomia działania poznawczego przejawia się także tym, że człowiek


wielokrotnie wykonujący te same działania tworzy coraz stabilniejsze
i jednocześnie coraz bardziej elastyczne struktury poznawcze.
W przeciwieństwie do procesów poznawczych są to względnie trwałe
elementy umysłu, możliwe do wielokrotnego wykorzystania w różnych
warunkach i sytuacjach. Do struktur poznawczych zaliczamy elementy
wiedzy, a ponadto sądy, przekonania i schematy poznawcze. Struktury
poznawcze powstają dzięki procesom poznawczym i w wyniku ich
działania, lecz od momentu powstania wpływają zwrotnie na przebieg tych
procesów, a niektóre z nich polegają po prostu na przekształcaniu struktur.
Na przykład wiedza tworzy się w wyniku procesów spostrzegania
i zapamiętywania. Jednakże raz wykształcone struktury wiedzy określają
kierunek i przebieg przyszłych procesów spostrzegania oraz przyszłych
procesów zapamiętywania. Z tego punktu widzenia umysł to obszar,
w którym dochodzi do ciągłej i wzajemnej interakcji między procesami
a strukturami poznawczymi. Jako względnie trwałe elementy systemu
poznawczego struktury muszą być przechowywane w odpowiednich
magazynach, w których nie ulegałyby degradacji i skąd łatwo byłoby je
wydobyć. Jest to możliwe dzięki zdolności umysłu do przechowywania
informacji, zwanej pamięcią.

Rozróżnienie dynamicznych procesów i względnie stabilnych struktur


poznawczych może budzić wątpliwości, jednak z filozoficznego punktu
widzenia ich sposób istnienia wydaje się zasadniczo różny (Stróżewski,
2004). Natomiast dla psychologów rozróżnienie to okazuje się szczególnie
przydatne, gdy rozpatrują rodzaje błędów popełnianych przez ludzi
podczas zmagań z rozmaitymi zadaniami. Okazuje się, że niektóre pomyłki
wynikają z niedoskonałości struktur poznawczych, a inne –
z niewydolności procesów przetwarzania informacji. Wyobraźmy sobie, że
wykonując ciąg obliczeń matematycznych, musimy podnieść liczbę 5 do
trzeciej potęgi. Prawidłowy wynik to: 53 = 125. Ktoś mógłby podać inną
wartość, np. 100, bo pomylił się „w procesie”, mianowicie najpierw
pomnożył 5 przez 5 i otrzymał 25, a następnie pomnożył tak otrzymany
wynik jeszcze raz przez 5, ale błędnie uznał, że 5 razy 25 równa się 100,
a nie 125. Ktoś inny mógłby podać wynik 15, gdyby uznał, że trzecia
potęga jakiejś liczby to z definicji wynik mnożenia tej liczby przez trzy.
W tym przypadku przyczyną błędu jest brak wiedzy, co to znaczy trzecia
potęga dowolnej liczby, a nie błąd w obliczeniach. Brak wiedzy, a także
wiedza niepełna lub fałszywa to niedostatek struktur poznawczych,
któremu nie jest w stanie zaradzić choćby najsprawniejszy, najszybszy
i bezbłędny proces poznawczy.

Struktury poznawcze tworzą względnie spójny, dobrze zorganizowany


system, w którym występują procesy kontroli. Kontrola poznawcza to
zdolność systemu do samoorganizacji i samoregulacji. Dzięki procesom
kontroli możliwe jest np. powstrzymanie się od reakcji, ale również jej
wyzwolenie we właściwym momencie. W ten sposób zachowanie
człowieka uwalnia się od bezpośredniej presji ze strony stymulacji
zewnętrznej. Procesy kontroli poznawczej powodują zatem, że nasze
działania nie są prostą reakcją na bodźce z otoczenia ani na impulsy
dochodzące z organizmu. W szczególności procesy kontroli odpowiadają
za zdolność człowieka do samodzielnego inicjowania własnych działań
wyłącznie w wyniku aktywności wewnętrznych stanów psychicznych, a nie
w odpowiedzi na bodźce.

Przetwarzanie informacji dokonuje się na wielu poziomach. Pojęcie


poziomów przetwarzania oznacza, że ta sama informacja może być
poddana obróbce z różną intensywnością i starannością. Bodźce
zewnętrzne mogą być np. interpretowane na poziomie sensorycznym,
obejmującym fizyczne właściwości stymulacji, lub na poziomie
semantycznym, odpowiadającym znaczeniu danej stymulacji lub jej
przynależności kategorialnej. Z kolei przedmioty fizyczne mogą być
ujmowane przez system poznawczy w postaci pojęć, ale też obrazów
umysłowych. To, na jakim poziomie informacja będzie przetworzona,
zależy od wymagań sytuacji lub zadania poznawczego. Może też wynikać
z wcześniej utrwalonego nawyku. W każdym razie wielopoziomowość
przetwarzania informacji jest zjawiskiem powszechnym, czyli
odzwierciedla jedną z elementarnych cech umysłu ludzkiego.
Przetwarzanie jest na każdym poziomie uzależnione od kontekstu,
zarówno zewnętrznego (otoczenia), jak i wewnętrznego (wzbudzonych
stanów organizmu). Obraz zagrażającego przedmiotu bez jego fizycznej
obecności (np. zdjęcie żmii) nie pobudza nas z reguły do ucieczki.
Kontekst zewnętrzny sugeruje bowiem, że to tylko obraz niebezpiecznego
zwierzęcia, a nie prawdziwe niebezpieczeństwo. Bywa też, że realnie
istniejący obiekt, skądinąd zagrażający, nie wzbudza reakcji ucieczki ze
względu na specyficzny kontekst wewnętrzny. Na przykład dla hodowcy
jadowitych węży widok zwierzęcia nie jest bodźcem do ucieczki, ponieważ
dysponuje on wiedzą o sposobach unikania niebezpieczeństwa. Badanie
zależności przebiegu procesów poznawczych od kontekstu jest jednym
z głównych zadań psychologii poznawczej.

Większość psychologów poznawczych uważa, że umysł nie jest prostym


odzwierciedleniem otaczającej go rzeczywistości, lecz aktywnie
i samodzielnie utworzoną konstrukcją. Dzięki konstruktywnej aktywności
umysłu powstaje wewnętrzna, poznawcza reprezentacja świata. Pojęcie
reprezentacji jest jednym z kluczowych terminów psychologii kognitywnej.
Używa się go zarówno w liczbie pojedynczej, na oznaczenie ogólnego
obrazu świata w umyśle, jak i w liczbie mnogiej, w odniesieniu do
poszczególnych składników tego obrazu. W tym drugim znaczeniu można
mówić o reprezentacjach werbalnych lub obrazowych, prostych lub
złożonych, odnoszących się do rzeczy lub relacji itd. Pojęcie reprezentacji
poznawczej jest wobec tego synonimiczne w stosunku do omówionego już
pojęcia struktury poznawczej, ponieważ umysł – rozpatrywany
z perspektywy struktur, a nie procesów – po prostu składa się z licznych
i wzajemnie powiązanych reprezentacji poznawczych (inaczej: mentalnych,
umysłowych). Natomiast umysł rozpatrywany z perspektywy procesów,
a nie struktur, polega na manipulowaniu reprezentacjami umysłowymi
świata w taki sposób, aby informacje docierające czy to ze świata
zewnętrznego, czy to z pamięci można było zinterpretować w świetle
dotychczasowej wiedzy (czyli już istniejących struktur), a następnie
wykorzystać do tworzenia nowych struktur poznawczych (Harnish, 2002;
Maruszewski, 1996).

Poznanie można zatem opisać w postaci cyklu polegającego na aktywnym


tworzeniu reprezentacji poznawczych, interpretowaniu napływającej
informacji poprzez owe reprezentacje, zmianie treści reprezentacji pod
wpływem napływających danych i z powrotem na interpretowaniu nowych
danych poprzez wcześniej zmienione reprezentacje. W ten sposób dochodzi
do ciągłego rozwoju możliwości poznawczych człowieka i poszerzania
jego wiedzy o świecie.

Jak można zdefiniować reprezentację poznawczą? Każda reprezentacja jest


zastępnikiem czegoś. Na przykład piłkarska reprezentacja Polski jest
symbolicznym zastępnikiem wszystkich Polaków, w których imieniu
walczy z innymi reprezentacjami. Poziom piłkarskiej reprezentacji kraju
tylko w przybliżeniu oddaje lokalny poziom piłki nożnej, a już zupełnie nie
oddaje przeciętnej sprawności fizycznej ludności danego państwa. Wynika
to z faktu, że reprezentacje sportowe są formowane w wyniku starannej
selekcji, a nie doboru losowego. Również poznawcza reprezentacja świata
w umyśle jedynie w przybliżeniu oddaje prawdziwe cechy rzeczywistości
istniejącej poza umysłem. Wynika to nie tylko z tego, że reprezentacja ta
jest rezultatem aktywnego konstruowania obrazu świata przez podmiot,
a nie biernego odbicia rzeczywistości, lecz także z tego, że każdy z nas
tworzy własny obraz świata, odpowiadający indywidualnemu
doświadczeniu. Można powiedzieć, że każdy umysł dysponuje swoistą,
indywidualną wersją rzeczywistości fizycznej, społecznej i symbolicznej.
Nie ma dwóch osób o tym samym doświadczeniu indywidualnym, a nawet
gdyby były, każda z nich prawdopodobnie wykorzystałaby to samo
kwantum doświadczeń jednostkowych w całkowicie odmienny sposób.
Dlatego każdy ma indywidualną, niepowtarzalną reprezentację świata, bo
każdy samodzielnie ją utworzył na podstawie własnych doświadczeń. Taki
pogląd na naturę umysłu nazywamy konstruktywizmem.

Z powyższego stwierdzenia nie należy wyciągać wniosku, że poznawcze


reprezentacje świata są zasadniczo błędne. Gdyby tak było, nie
moglibyśmy skutecznie działać w świecie, a praktyczna użyteczność
naszych reprezentacji umysłowych byłaby niewielka. Gdyby porównać
nasze reprezentacje umysłowe do mapy, byłaby to mapa niedokładna,
miejscami mocno zniekształcająca obraz terenu, a także zawierająca
elementy nieistniejące w rzeczywistości – ale jednak mapa zasadniczo
adekwatna. Zakładając tak, przyjmujemy, że umysł jest swoistym
„narządem” przystosowania się do rzeczywistości, więc gdyby miał tę
rzeczywistość fałszować, byłby zbędny, a zatem – z ewolucyjnego punktu
widzenia – nie powinien był się w ogóle pojawić. Nie ma natomiast
żadnych wątpliwości, że treść reprezentacji poznawczych jest wybiórcza,
podporządkowana celom pragmatycznym, niekiedy zniekształcona,
a zawsze – mocno zindywidualizowana.

Jeśli reprezentacja poznawcza jest zastępnikiem, można ją zdefiniować


jako uproszczony model tego, do czego się odnosi (Palmer, 1978).
W związku z tym poznawcza reprezentacja krzesła jest uproszczonym,
zastępczym modelem prawdziwego krzesła jako pewnej kategorii obiektów
lub konkretnego jej egzemplarza. Taka reprezentacja może zawierać proste
wyobrażenie obiektu albo treść pojęcia używanego na jego określenie.
Reprezentacje innych obiektów, zwłaszcza dotyczących świata społecznego
lub innych ludzi albo skomplikowanych problemów naukowych, mogą
zawierać znacznie więcej informacji, zawsze jednak są uproszczonym
modelem tego, co reprezentują. Dzięki tym upraszczającym zastępnikom
umysł może radzić sobie w warunkach, które przez swą złożoność lub
nowość przekraczałyby w przeciwnym razie jego możliwości.

Wszechobecne w psychologii poznawczej pojęcie reprezentacji wywołuje


niekiedy wśród jej przedstawicieli spory o reprezentacjonizm (Harnish,
2002). Jest to stanowisko filozoficzne, zgodnie z którym umysł poznaje
świat nie bezpośrednio, lecz za pośrednictwem własnych kategorii
poznawczych (pojęć, wyobrażeń, sądów, przesądów itd.). W skrajnym
przypadku reprezentacjonizm może prowadzić do solipsyzmu, czyli
poglądu o istnieniu wyłącznie podmiotu, który poznaje już nie świat, lecz
własne miazmaty. Podkreślmy więc, że psycholog poznawczy używa
pojęcia reprezentacji nie w sporze o istnienie świata ani nawet nie
w kontekście rozważań nad naturą poznania, lecz w zamiarze adekwatnego
opisu i wyjaśnienia zachowania ludzi poznających świat i rozwiązujących
rozmaite problemy natury poznawczej. Bez tej kategorii pojęciowej nasze
opisy i wyjaśnienia byłyby znacznie uboższe, a niewykluczone, że wręcz
błędne.

1.1.2. Jedność poznania i działania


Zarzuca się niekiedy psychologii poznawczej, że zajmuje się badaniem
„czystego” poznania, oderwanego od realnego kontekstu sytuacyjnego
i niezależnego od jawnego zachowania. Zgodnie z tym szkodliwym
stereotypem psychologia poznawcza buduje modele idealnych procesów
przetwarzania informacji, które rozgrywają się w nieobserwowalnej
„czarnej skrzynce”, pośredniczącej między sensorycznym „wejściem”
a motorycznym „wyjściem”, i których związek z jawnym zachowaniem jest
trudny do uchwycenia.
Gdyby tak było, psychologia poznawcza zasługiwałaby rzeczywiście na
bardzo surową krytykę, ponieważ dla każdego uważnego obserwatora
zachowania ludzi i zwierząt związek poznania z działaniem jawi się jako
bardzo ścisły i wielowarstwowy. U człowieka, podobnie jak u wielu
gatunków zwierząt, obserwujemy np. odruch orientacyjny. Jest to reakcja
na wydarzenie nagłe i nieoczekiwane (głośny dźwięk, nową sytuację).
Obserwuje się wówczas znieruchomienie i ukierunkowanie receptorów na
odbiór bodźców; za pomocą specjalistycznej aparatury możemy ponadto
zaobserwować zmiany w aktywności serca i innych narządów ciała.
U wielu gatunków zwierząt, analogicznie jak u człowieka, występuje też
specyficzna forma działania zwana zachowaniem eksploracyjnym. Polega
ono na aktywnym poszukiwaniu informacji w otoczeniu, niekoniecznie
w odpowiedzi na konkretne zapotrzebowanie. Czynności eksploracyjne
często interpretujemy jako przejaw tzw. bezinteresownej ciekawości, kiedy
to organizm dąży do poznawczego opanowania jakiegoś przedmiotu lub
jakiejś sytuacji jak gdyby na wszelki wypadek albo ze względu na
satysfakcjonujące właściwości samego zachowania badawczego.

Bardzo dużo faktów świadczących o ścisłym związku poznania


z działaniem zgromadziła psychologia rozwojowa. Rozwój poznawczy
człowieka dokonuje się w ten sposób, że większość czynności
poznawczych najpierw ujawnia się w zachowaniu, aby dopiero potem
stopniowo się uwewnętrznić. W wyniku tego procesu, zwanego
interioryzacją, wiele czynności umysłowych dorosłego człowieka to nic
innego jak symboliczna wersja jawnych czynności poznawczych małego
dziecka, oczywiście wersja odpowiednio zmieniona i rozwinięta. Można
powiedzieć, że w trakcie rozwoju poznawczego umysł ewoluuje,
przekształcając się z postaci jawnej w postać ukrytą. Prawdopodobnie nie
każda czynność mentalna jest ukrytym odpowiednikiem i pochodną
czynności jawnych. Wydaje się, że wiele wyspecjalizowanych modułów
poznawczych, takich jak spostrzeganie ludzkiej twarzy lub automatyczne
przywołanie informacji z pamięci, jest nam danych od razu w postaci
mentalnej, ponieważ ich pochodzenie wiąże się z dojrzewaniem
określonych struktur nerwowych. Niemniej nawet te wyspecjalizowane
moduły rozwijają się i dojrzewają dopiero pod wpływem działania
człowieka w określonym środowisku.

W niniejszym podręczniku przyjęto zasadę jedności działania i poznania,


zgodnie z którą każdy akt poznania albo sam jest aktem działania, albo jest
działaniu podporządkowany. Na przykład zachowanie eksploracyjne samo
w sobie jest aktem działania, natomiast przywołanie informacji z pamięci –
mimo że samo w sobie nie jest jawnym zachowaniem – w ostatecznym
rozrachunku służy jakiemuś działaniu, choćby temu, by sensownie
prowadzić konwersację. Z kolei każde działanie albo jest poznaniem, albo
wymaga poznania, albo też do niego prowadzi. Przez działanie rozumiemy
celowe zachowanie człowieka lub przedstawicieli innych gatunków, a także
niektórych systemów sztucznej inteligencji. Rozróżnienie zachowania
reaktywnego, stanowiącego odpowiedź na bodziec, oraz zachowania
celowego, polegającego na dążeniu do wyróżnionych stanów środowiska
lub własnego organizmu, pochodzi z teorii czynności autorstwa Tadeusza
Tomaszewskiego (1975). Teoretyczne podstawy takiego rozróżnienia
znajdziemy też w koncepcji planów zachowania, rozwiniętej przez
George’a Millera, Eugene’a Galantera i Karla Pribrama (1960/1980).
Według koncepcji Tomaszewskiego czynnością nazywamy każdy
poszczególny przypadek działania, czyli zachowania celowego. Zgodnie
zaś z przyjętą zasadą jedności poznania i działania każdy akt poznania jest
czynnością. Niektóre czynności poznawcze stanowią część jawnego,
obserwowalnego zachowania organizmu (lub systemu sztucznego), podczas
gdy inne czynności są nieobserwowalne – zinternalizowane lub z natury
niedostępne obserwacji. Ale nawet, gdy czynność poznawcza nie podlega
obserwacji, stanowi część większej sekwencji działań, rozumianych jako
dążenie systemu do wyróżnionych stanów. Takim wyróżnionym stanem
może być zdobycie informacji, rozwiązanie problemu, podjęcie decyzji itd.

Psychologia poznawcza uwzględnia zasadę jedności poznania i działania na


wiele sposobów. Po pierwsze, ściśle wiąże procesy i czynności poznawcze
z celowym zachowaniem się organizmów. W tym ujęciu każdy proces
poznawczy to ogniwo w długim łańcuchu czynności, z których jedne są
całkowicie obserwowalne, a inne – całkowicie lub częściowo
zinterioryzowane. Po drugie, psychologia poznawcza intensywnie rozwija
teoretyczne modele procesów zarówno na „wejściu do czarnej skrzynki”,
jak i „na wyjściu” z niej. Te pierwsze to procesy percepcji i uwagi, te
drugie to procesy programowania i kontroli czynności motorycznych, ze
szczególnym uwzględnieniem programowania i kontroli mowy. Po trzecie,
psychologia poznawcza uwzględnia aktywność własną podmiotu
poznającego jako czynnik wpływający na przebieg i ostateczny wynik
czynności poznawczych. Zgodnie z tym ujęciem umysł przetwarza przede
wszystkim te informacje, które sam „pobrał” z otoczenia w wyniku
czynności eksploracyjnych, oraz te, które są mu potrzebne do
zaprogramowania czynności motorycznych „swojego” organizmu.

1.2. Psychologia poznawcza: dziedzina czy


paradygmat?

1.2.1. Narodziny i rozwój psychologii poznawczej


Na początku lat 80. XX w. przeprowadzono badania ankietowe wśród
psychologów amerykańskich. Zapytano ich, z którym ze współczesnych
kierunków psychologii się identyfikują. Ponad trzy czwarte ankietowanych
zadeklarowało, że reprezentuje psychologię poznawczą (Eysenck, 1982).
Wyniki te wydają się bardzo symptomatyczne, m.in. dlatego, że uzyskano
je w kraju, w którym narodziły się lub osiągnęły apogeum swego rozwoju
trzy najważniejsze nurty współczesnej psychologii: neopsychoanaliza
społeczna, neobehawioryzm i psychologia humanistyczna. Co skłoniło tak
znaczną liczbę uczonych, aby określić swoją tożsamość przez akces do
psychologii poznawczej?

Wydaje się, że odpowiedź zawiera się w rozróżnieniu kierunku i dziedziny


badań psychologicznych. Kierunek (prąd, nurt) psychologiczny to
szczególny wzorzec uprawiania nauki, swoisty ze względu na podstawowe
pojęcia, założenia metateoretyczne, metodologię i rodzaj stawianych pytań
badawczych. Jest to pojęcie bliskie wprowadzonemu przez Thomasa
Kuhna (1970) terminowi paradygmat. Natomiast dziedzina lub obszar
badań to po prostu określone pole problemowe, czyli zestaw pytań
badawczych o naturę wybranego zbioru zjawisk. Rzecz jasna, ani stawiane
pytania, ani nawet zbiór badanych zjawisk nie są zawieszone
w teoretycznej próżni. Pewne pytania przestają być ważne po zmianie
paradygmatu, inne z kolei zyskują sens i znaczenie dopiero w szerszym
kontekście teoretyczno-metodologicznym. Mimo to w każdym
z ważniejszych kierunków myśli psychologicznej stawia się dość podobne
pytania i rozwiązuje porównywalne problemy. Jeśli więc prawie wszyscy
badacze, zajmujący się takimi zjawiskami, jak spostrzeganie, uczenie się,
uwaga, pamięć, język, myślenie, rozwiązywanie problemów
i podejmowanie decyzji, nazywają siebie psychologami poznawczymi, to
znaczy, że identyfikują się poprzez dziedzinę, a nie paradygmat. Inaczej
mówiąc, akces do psychologii poznawczej jest w dużej mierze niezależny
od teoretycznego i metodologicznego podejścia do rozważanych zagadnień.
Jest tym samym niezależny od reprezentowanego kierunku czy nurtu
psychologicznego.

Współczesną psychologię poznawczą należy uznać raczej za obszar badań


psychologicznych, choć wcześniej uważano (np. Kozielecki, 1966;
Tomaszewski, 1975), że to kierunek lub paradygmat. Istotnie, wczesne
teorie poznawcze, np. koncepcja Ulrica Neissera (1967) lub George’a
Kelly’ego (1955), nosiły wszelkie znamiona nowego paradygmatu
badawczego, będącego w opozycji przede wszystkim wobec
neobehawioryzmu, choć do pewnego stopnia również wobec psychologii
dynamicznej. Były to ogólne koncepcje psychologiczne, mające ambicje
opisania i wyjaśnienia całości problematyki psychologicznej w języku
procesów przetwarzania informacji (Kozielecki, 1966). Obecnie
obserwujemy wyraźne odejście od prób tworzenia ogólnych koncepcji
psychologicznych na rzecz badania wybranych problemów z zakresu
poznania. Tak więc współczesna psychologia poznawcza jest raczej
dziedziną badań niż spójnym paradygmatem teoretyczno-
metodologicznym. Z tej przyczyny, jak uważa Michael Eysenck (1982),
czasem łatwiej określić, czym psychologia poznawcza się nie zajmuje, niż
wskazać dokładnie obszar jej zainteresowań. Istnieje jednak pojęcie
wspólne wszystkim koncepcjom i teoriom z obszaru poznawczego. Jest to
pojęcie procesów poznawczych lub inaczej – procesów przetwarzania
informacji. Wagę dokładnej analizy procesów poznawczych podkreślają
wszyscy psychologowie poznawczy, niezależnie od swojej orientacji
badawczej i od stosowanej na własny użytek definicji psychologii
poznawczej.
Historia nauki, podobnie jak historia powszechna, to raczej ciąg powolnych
procesów niż pojedyncze wydarzenia. Mimo to historię często opisuje się
poprzez wydarzenia, szczególnie te, które mają znaczenie przełomowe lub
symboliczne. Zdaniem Margaret Matlin (1994) większość psychologów za
umowną datę powstania psychologii poznawczej uznaje rok 1956.
Wówczas to w Massachusetts Institute of Technology (MIT) odbyło się
pierwsze sympozjum kognitywne, o którym George Miller napisał później,
że wzbudziło w nim „silne przekonanie, bardziej intuicyjne niż racjonalne,
że psychologia eksperymentalna, lingwistyka teoretyczna i komputerowa
symulacja procesów poznawczych to kawałki większej całości” (za:
Matlin, 1994, s. 6). Tą całością okazała się wkrótce kognitywistyka
(cognitive science), której psychologia poznawcza jest do dziś istotną
częścią. Rok 1956 był zresztą istotny również dlatego, że autor tych słów
opublikował wówczas klasyczny, ważny do dzisiaj artykuł
o ograniczeniach pamięci krótkotrwałej (Miller, 1956).

Trzy lata później ukazała się słynna praca Noama Chomsky’ego (1959).
Rzadko się zdarza, aby recenzja cudzej książki stała się sama w sobie
fundamentalnym dziełem naukowym. Recenzję, którą napisał Chomsky na
temat książki Skinnera Verbal Behavior, należy więc uznać za rzecz
najzupełniej wyjątkową. W pracy tej autor wykazał nieadekwatność teorii
bodźca i reakcji do wyjaśniania zachowań werbalnych człowieka. Przy
okazji zaatakował behawioryzm jako model nauki o człowieku,
wywodzący się z tradycji logicznego pozytywizmu. Stwierdził, że terminy
używane przez Skinnera, jeśli rozumieć je literalnie, zupełnie nie nadają się
do opisu tego, jak ludzie mówią, choć – być może – nadają się do opisu
zachowania gołębi w ściśle kontrolowanych warunkach
eksperymentalnych. Jeśli natomiast terminy te rozumieć metaforycznie, ich
użycie nie wnosi niczego nowego ponad to, co oferują wyjaśnienia
potoczne. Podstawowy zarzut Chomsky’ego wobec behawiorystów
sprowadzał się do tego, że lekceważą oni rolę wewnętrznych stanów
umysłu w sterowaniu zachowaniem.

Rok wcześniej brytyjski badacz Donald Broadbent (1958) wydał książkę


o ograniczeniach w przetwarzaniu informacji, wynikających z małej
pojemności systemu uwagi. Eksperymenty prowadził już od lat 40. XX w.,
kiedy to – pod wpływem potrzeb wojennych – zainicjowano badania nad
tzw. czynnikiem ludzkim, czyli wpływem ograniczonych możliwości
umysłu ludzkiego na jakość obsługi skomplikowanego sprzętu
technicznego. Dojrzałość teoretyczną i metodologiczną uzyskała
psychologia poznawcza w 1967 r., kiedy to Ulric Neisser (1967)
opublikował pierwszy systematyczny podręcznik tej dyscypliny.

Jeśli natomiast analizować rozwój psychologii poznawczej nie od strony


spektakularnych wydarzeń, lecz procesów historycznych, trzeba wskazać
na kilka uwarunkowań. Po pierwsze, w latach 50. XX w. dla większości
psychologów stało się jasne, że radykalne koncepcje behawiorystyczne,
próbujące opisywać i wyjaśniać zachowanie człowieka w języku ściśle
obserwacyjnym, czyli w kategoriach związków typu bodziec–reakcja
(stimulus–response, S–R), poniosły porażkę. Wprowadzenie między
bodźce a reakcje tzw. zmiennych pośredniczących, oznaczanych literą
O (od organism), niewiele w gruncie rzeczy zmieniło. Model S–O–R jest
wprawdzie mniej podatny na krytykę niż pierwotny model S–R, ale
pamiętajmy, że tajemniczym symbolem O oznaczano przede wszystkim
zjawiska związane z fizjologią organizmu, np. popędy i potrzeby. Z punktu
widzenia rodzących się wówczas nauk kognitywnych było to ustępstwo
idące w dobrym kierunku, lecz zdecydowanie zbyt skromne. Behawioryści,
nawet umiarkowani, unikali „mentalistycznych” terminów i konstruktów
teoretycznych, wkładając je wszystkie do tajemniczej „czarnej skrzynki”.
Natomiast kognitywiści marzyli o tym, aby tę skrzynkę otworzyć
i zobaczyć, co zawiera. Dopiero późniejsze prace wywodzące się z nurtu
behawiorystycznego, np. monografia Daniela Berlyne’a (1969) o myśleniu,
na poważnie zajęły się procesami poznawczymi, opisując je jako ciąg
symbolicznych bodźców i reakcji.

Behawiorystyczny model opisu zachowania okazał się zatem za ciasny dla


badaczy mających ambicje badania wewnętrznych stanów umysłu. Okazał
się również niezbyt zdolny do wyjaśnienia faktu, że człowiek jest
podmiotem i sprawcą swoich zachowań. Istotą behawiorystycznej
koncepcji człowieka była i pozostała idea zewnątrzsterowności, to znaczy
podporządkowania człowieka działaniu czynników zewnętrznych
(bodźców, wzmocnień itd.). Dopiero psychologia poznawcza „przywróciła”
człowiekowi kontrolę nad własnym zachowaniem, choć nie neguje faktu,
że ludzie bardzo często podporządkowują swoje działania czynnikom
zewnętrznym, nawet nie zdając sobie z tego sprawy. Problem kontroli
i samokontroli zachowania wydaje się jednym z centralnych zagadnień
psychologicznych, co psychologia poznawcza od samego początku uznała,
wprowadzając odpowiednie konstrukty teoretyczne i opracowując
stosowne procedury badawcze. Nie zapominajmy jednak, że niektórzy
badacze bliscy behawioryzmowi są do dziś uznawani za prekursorów
kognitywizmu. Wskazać tu należy przede wszystkim Edwarda Tolmana
(1932/1967), który już w latach 30. XX w. wprowadził pojęcie map
poznawczych i oczekiwań jako czynników wewnętrznych zdolnych
modyfikować związki typu bodziec–reakcja. Innym ważnym autorem jest
Donald O. Hebb (1949), który opisał działanie tzw. zespołów
komórkowych; pomysł ten dał początek późniejszemu rozwojowi
sieciowych modeli umysłu (zob. podrozdz. 1.3.4). Poza tym behawioryści
mają olbrzymie zasługi w „unaukowieniu” psychologii. Można
zaryzykować tezę, że choć kognitywiści zasadniczo zmienili przedmiot
zainteresowania psychologii, zachowali behawiorystyczną dbałość
o metodologię badań, ze szczególnym uwzględnieniem koncentracji na
jawnym zachowaniu jako podstawie wnioskowania o ukrytych procesach
umysłowych.

Ważną przesłanką powstania i rozwoju podejścia poznawczego były prace


Jeana Piageta o rozwoju poznawczym dzieci. Jedną z centralnych idei tego
szwajcarskiego biologa, psychologa i filozofa była teza, że rozwój jest
równoważeniem struktur poznawczych (Piaget, 1981). Podmiot asymiluje
nowe informacje z otoczenia z pomocą wrodzonych lub wcześniej
opanowanych schematów poznawczych. Asymilacja trwa dopóty, dopóki
schemat nie utraci przydatności. W pewnym momencie dalsze korzystanie
z niego staje się niemożliwe – zachodzi wówczas stan nierównowagi. Jej
przywrócenie wymaga zmiany samego schematu, czyli akomodacji.
Rozwój poznawczy to nic innego jak nieustający ciąg asymilacji
i akomodacji, dzięki czemu na podstawie starych schematów poznawczych
tworzą się nowe, bardziej dostosowane do zadań, a także bardziej złożone
i wydajne. Ponadto, zdaniem Piageta, rozwój wymaga własnej aktywności
podmiotu. Człowiek rozwijający się jest swego rodzaju badaczem: musi
sam, w wyniku obserwacji i doświadczeń, dojść do tego, że istniejące
schematy stały się nieadekwatne i wymagają akomodacji. Rozwój
poznawczy jest więc dla Piageta analogiczny do procesu badania
naukowego; tę samą myśl znajdziemy u George’a Kelly’ego, który
wprowadził do psychologii określenie człowieka jako „badacza z ulicy”
(Kelly, 1955). Trzecia ważna myśl Piageta to teza o konstruktywistycznej
naturze poznania. Człowiek nie tyle odbiera informacje z otoczenia, ile
samodzielnie konstruuje wewnętrzny obraz świata, czyli reprezentację
świata w umyśle. Obraz ten jest zazwyczaj tylko częściowo trafny. Wynika
to z faktu, że stanowi raczej samodzielną budowlę niż bierne odbicie
rzeczywistości. Jak widać, idee Piageta czynią go jednym z prekursorów
poznawczego podejścia w psychologii. Bez takich pojęć, jak schemat
poznawczy, aktywność podmiotu i konstruktywny charakter poznania,
trudno byłoby sobie wyobrazić współczesną psychologię.

Podejście poznawcze było również inspirowane znaczącymi wydarzeniami


spoza dziedziny psychologii. Zwróciliśmy już uwagę na doniosłość
językoznawczych prac Chomsky’ego. Równie ważny był rozwój
technologii i teorii informatycznych (Shannon, Weaver, 1949) oraz
cybernetycznych (Wiener, 1948). Pozwolił on na wykorzystanie
komputerów w sterowaniu eksperymentami i obliczaniu wyników badań
oraz – co być może okazało się nawet istotniejsze – umożliwił
komputerową symulację procesów poznawczych. Dzięki temu współczesna
psychologia poznawcza coraz bardziej łączy klasyczne badania empiryczne
z komputerowym modelowaniem procesów umysłowych. Nie bez
znaczenia były też nowe idee na gruncie filozofii umysłu, przede
wszystkim prace Jerry’ego Fodora (1975, 1983), Daniela Dennetta (1991)
i Patricii Churchland (1986). Dały one nowy impuls starym sporom
o relacje między umysłem a mózgiem, psychologom zaś unaoczniły
doniosłość problematyki świadomości, skutecznie wyrugowanej
z psychologii w okresie panowania behawioryzmu.

1.2.2. Psychologia a inne dziedziny badań nad poznaniem


Poznaniem i poznawaniem interesują się liczne nauki wywodzące się
z różnych tradycji teoretycznych i metodologicznych. Najwcześniej
rozwiniętą i najbardziej szacowną jest niewątpliwie epistemologia, czyli
filozoficzna teoria poznania (Woleński, 2000, 2001, 2003). Jej
przedstawiciele zajmują się podstawowymi problemami ludzkiego
poznania, takimi jak źródła i charakter wiedzy oraz teoria prawdy.
Początkowo teoria poznania rozwijała się jako nauka spekulatywna,
pomocniczo wykorzystując logikę i potoczne obserwacje. W miarę rozwoju
nauk szczegółowych epistemologia coraz bardziej czerpała z dorobku
fizjologii, psychologii, medycyny, językoznawstwa i innych dyscyplin.

Intensywnie obecnie rozwijanym działem filozofii zajmującym się


poznaniem jest filozofia umysłu (zob. Graham, 1998). W ramach tej
dyscypliny bada się np. klasyczny problem psychofizyczny. W dawnych
wiekach definiowany jako problem relacji między materialnym ciałem
a niematerialną duszą, obecnie jest on raczej stawiany jako kwestia relacji
między mózgiem a świadomością. Chodzi w szczególności o to, w jaki
sposób mózg generuje świadome stany psychiki, a także jaka jest funkcja
i pochodzenie tzw. qualiów, czyli jakościowo swoistych, subiektywnych
stanów świadomości.

Szczególne podejście do badań nad poznaniem reprezentuje sztuczna


inteligencja. Dziedzina ta zajmuje się konstruowaniem systemów
komputerowych zdolnych do wykonywania poszczególnych czynności
poznawczych. Już w latach 50. XX w. powstały pierwsze programy,
których zadaniem była symulacja ludzkich procesów poznawczych, takich
jak dowodzenie twierdzeń lub rozwiązywanie problemów. Później
rozwinęły się badania nad rozpoznawaniem wzorców (pattern recognition),
których wyniki znajdują obecnie wiele praktycznych zastosowań. Sztuczna
inteligencja może być uprawiana na dwa sposoby. W pierwszej wersji to po
prostu dziedzina nauk inżynieryjnych, a jej celem jest konstruowanie
inteligentnych systemów, które mogłyby być wykorzystane w praktyce.
W wersji drugiej chodzi o konstrukcję systemów udatnie naśladujących
procesy poznawcze ludzi. W pierwszym przypadku kryterium sukcesu jest
praktyczna użyteczność systemu, w drugim – możliwości jego
wykorzystania w celu prowadzenia podstawowych badań nad poznaniem.
Modelowanie komputerowe, wymienione przez Alana Allporta (1996) jako
czwarta grupa metod badawczych w psychologii poznawczej (zob.
podrozdz. 1.2.3), jest bardzo bliskie drugiej wersji sztucznej inteligencji.

Najpełniejszy program badawczy cechuje interdyscyplinarną dziedzinę


badań nad poznaniem, zwaną kognitywistyką (cognitive science). Według
tzw. raportu Sloane’a, sporządzonego w 1978 r. (zob. Harnish, 2002),
kognitywistyka jest próbą syntezy problematyki uprawianej przez sześć
tradycyjnych dyscyplin akademickich: filozofię, psychologię,
językoznawstwo (lingwistykę), informatykę, antropologię2 i neuronaukę
(Bechtel i in., 1998). Nie wszystkie tematy badawcze podejmowane na
gruncie owych dyscyplin dotyczą poznania. W przypadku filozofii
poznaniem interesują się epistemolodzy, logicy i filozofowie umysłu. Na
gruncie psychologii badania nad poznaniem prowadzą zarówno
psychologowie poznawczy, jak i wielu neuropsychologów,
psychofizjologów, psychologów rozwojowych i społecznych. W przypadku
pozostałych nauk także można stwierdzić, że choć niektóre problemy ściśle
wiążą się z poznaniem i poznawaniem, inne są od tej tematyki dość
odległe. Zatem tylko część każdej z wymienionych dyscyplin wchodzi
w skład kognitywistyki, tworząc swoistą wartość dodaną. Rycina 1.1
pokazuje sześciokąt, którego wierzchołki – reprezentujące tradycyjne
dyscypliny akademickie – połączono zgodnie z istniejącymi powiązaniami
badawczymi. Linia nr 1 reprezentuje zatem cybernetykę, linia nr 2 –
neurolingwistykę, linia nr 3 – neuropsychologię, linia nr 4 – komputerowe
symulacje procesów poznawczych, linia nr 5 – „obliczeniową” lingwistykę,
linia nr 6 – psycholingwistykę, linia nr 7 – filozofię psychologii, linia nr 8 –
filozofię języka, linia nr 9 – lingwistykę antropologiczną, linia nr 10 –
antropologię poznawczą, a linia nr 11 – badania nad ewolucją mózgu
(tamże).

RYCINA 1.1. Sześciokąt nauk kognitywnych


Źródło: opracowanie własne.

Program badawczy kognitywistyki polega nie tyle na uprawianiu


wszystkich wymienionych dyscyplin szczegółowych, ile na rozwijaniu lub
powoływaniu do życia tych obszarów badawczych, które znajdują się
między wierzchołkami sześciokąta. Niektóre z nich są już intensywnie
uprawiane, inne dopiero czekają na swój rozwój. Szczególnie interesujące
perspektywy wiążą się z powołaniem obszarów badawczych
uwzględniających łącznie więcej niż dwie z sześciu dyscyplin
wyjściowych. Na przykład na styku filozofii, psychologii i lingwistyki
można podejmować problemy badawcze dotyczące natury języka i jego
użycia w różnych zadaniach poznawczych (Harnish, 2002). Podobnie na
styku filozofii, psychologii i informatyki można prowadzić interesujące
badania nad komputerowym modelowaniem kontroli poznawczej
i świadomości. Obecny stan kognitywistyki jest jednak dość daleki od tak
wytyczonego celu ze względu na to, że każda z wymienionych dyscyplin
posługuje się ciągle swoistą metodologią i dość specyficznym językiem
(zob. Duch, 1998).

1.2.3. Metody badań nad poznaniem


Psychologowie poznawczy przejawiają różne orientacje metodologiczne,
dlatego są zwolennikami różnorodnych metod badania procesów i struktur
umysłowych. Allport (1996) wyróżnia cztery podstawowe grupy metod
badawczych. Pierwsza obejmuje metody polegające na obserwacji
i rejestracji wykonania zwykłych, codziennych, dobrze wyuczonych
czynności poznawczych, takich jak mówienie na określony temat,
słuchanie cudzej wypowiedzi, czytanie itd. Analizuje się głównie błędy
popełniane przez badanych w trakcie wykonywania rejestrowanych
czynności. W wyniku takiego postępowania otrzymuje się raport
zawierający poznawczą charakterystykę obserwowanej czynności (np.
tworzące ją etapy), rodzaj procesów poznawczych zaangażowanych w jej
wykonanie (np. uwaga selektywna, pamięć semantyczna) oraz źródło
błędów (np. dekoncentracja, brak dostępu do zasobów pamięci). Raport
taki może sporządzić sama osoba badana, mamy wtedy do czynienia z tzw.
samoopisem (self-report). Najczęściej jednak raport sporządza niezależny
badacz. Niekiedy w wyniku takiego postępowania powstaje studium
przypadku (case study), czyli opis działania konkretnej osoby albo grupy
osób (np. firmy), utworzony na podstawie jego obserwacji w naturalnych
warunkach życia codziennego.

Drugą metodą badania przebiegu procesów przetwarzania informacji jest


eksperyment laboratoryjny. Eksperymenty zwykle prowadzi się
z udziałem „naiwnych”, czyli niedysponujących specjalistyczną wiedzą,
osób badanych. Uczestnicy są proszeni o wykonywanie różnego rodzaju
prostych zadań poznawczych, wymagających np. porównywania bodźców
lub decydowania, czy określony bodziec był prezentowany wcześniej.
W przeciwieństwie do obserwacji w warunkach naturalnych eksperymenty
laboratoryjne są zazwyczaj prowadzone w warunkach sztucznych, choć
dokłada się starań, by jak najbardziej zbliżyć je do realnych sytuacji
życiowych. Nienaturalne i niezwykle uproszczone są również typowe
zadania eksperymentalne. W zamian za nieuniknioną sztuczność sytuacji
laboratoryjnej uzyskuje się możliwość dokładnej kontroli przebiegu
eksperymentu, obejmującej także rodzaj prezentowanych bodźców i czas
ich prezentacji. Eksperyment umożliwia też precyzyjną rejestrację reakcji
osób badanych, a zwłaszcza czasu reakcji, na podstawie którego wnioskuje
się o przebiegu ukrytych procesów poznawczych. Analizie podlega przede
wszystkim średni czas reakcji potrzebny osobie badanej na udzielenie
prawidłowej odpowiedzi, choć niekiedy interesujące są również inne
wskaźniki chronometryczne (np. maksymalny lub minimalny czas reakcji
albo indywidualna zmienność czasu reagowania). Drugim, obok czasu
reakcji, wskaźnikiem interesującym badaczy jest poprawność odpowiedzi,
wyrażona zwykle w procentach maksymalnego wyniku możliwego do
uzyskania w danych warunkach. Coraz częściej tego typu analizy są
wzbogacane o badania neurobiologiczne. Możliwa jest np. równoległa
rejestracja EEG, czasu reakcji i błędów popełnianych w trakcie wykonania
zadania.

Kolejną metodą psychologii poznawczej są badania kliniczne z udziałem


pacjentów z upośledzeniem poszczególnych zdolności poznawczych.
Przyczyną upośledzenia jest uszkodzenie niektórych obszarów mózgu na
skutek wylewu, zatoru, urazu mechanicznego lub operacji
neurochirurgicznej. Przypadki tego rodzaju są dla nauki bezcenne,
ponieważ powstają w wyniku swoistego „eksperymentu” –
niezaplanowanego i okrutnego dla osoby badanej, ale badawczo
intrygującego. Z oczywistych względów nie można zdrowej osobie
uszkodzić wybranych fragmentów mózgu, aby sprawdzić, w jaki sposób
zmieni to jej zdolności poznawcze. Natura, dokonując takiego
„eksperymentu”, pokazuje nam rolę poszczególnych obszarów mózgu
w sterowaniu zachowaniem. Ujawnia też, jak działają poszczególne funkcje
poznawcze, ponieważ nic tak nie mówi o przebiegu jakiegoś procesu, jak
jego niewydolność w wyniku uszkodzenia. Przykładowo to właśnie dzięki
obserwacjom klinicznym stwierdzono, że pamięć krótkotrwała nie
przekazuje danych do pamięci długotrwałej natychmiast i automatycznie,
lecz z pewnym opóźnieniem, co wynika z działania wyspecjalizowanego
mechanizmu, umiejscowionego w strukturze mózgu zwanej hipokampem.
Pewną odmianą podejścia klinicznego są badania nad poznawczym
starzeniem się, w których również obserwuje się deficyty poznawcze
u wybranej grupy osób (w tym wypadku u osób starszych). Badania tego
rodzaju wymagają zazwyczaj porównania między grupą seniorów a grupą
osób młodszych. Takich porównań nie zawsze można dokonać
w przypadku pacjentów; na przeszkodzie stoi zazwyczaj niewielka
liczebność grup klinicznych.

Ostatnią z wyróżnionych przez Allporta (1996) metod badawczych jest


symulacja komputerowa, czyli modelowanie poszczególnych procesów
poznawczych w postaci klasycznego programu komputerowego lub
sztucznej sieci neuropodobnej. Komputerowy model procesu poznawczego
jest szczególną postacią teorii naukowej opisującej ów proces. Badacz
tworzy sztuczny system zdolny do wykonywania określonych zadań,
a następnie porównuje rezultaty jego działania z zachowaniem człowieka.
Jeśli w wyniku porównania badacz stwierdza daleko idącą zgodność
poziomu wykonania, a zwłaszcza liczby i rodzaju popełnianych błędów,
może uznać model komputerowy za wystarczająco wierną symulację
naturalnych procesów poznawczych. A ponieważ model został stworzony
przez badacza, jest mu dokładnie znany pod względem swej architektury
i sposobu działania. Badacz może wówczas stwierdzić, że to, co nieznane,
czyli działanie umysłu ludzkiego, wolno mu opisać poprzez to, co znane,
czyli działanie programu komputerowego lub sieci neuropodobnej.
Wiadomo, że podobieństwo dwóch systemów na wyjściu, dotyczące
poziomu wykonania zadania, nie musi wynikać z podobieństwa sposobu
ich działania, ponieważ ten sam wynik końcowy można uzyskać na wiele
sposobów. Dlatego przedstawione rozumowanie jest wysoce ryzykowne:
umysł ludzki może, ale nie musi działać tak jak system sztuczny. Model
komputerowy można więc przyjąć za teorię procesu poznawczego tylko
z pewnym prawdopodobieństwem. Niemniej korzyści poznawcze
wynikające z modelowania komputerowego wydają się oczywiste, lepiej
bowiem dysponować prawdopodobną teorią przebiegu procesu
umysłowego, niż nie dysponować żadną. Ponadto klasyczne badania
empiryczne też nie dają wiedzy pewnej, a jedynie prawdopodobną,
ponieważ wnioskowanie z danych empirycznych o nieobserwowalnych
procesach umysłowych jest z natury rzeczy zabiegiem poznawczo
ryzykownym.

Kategoryzację Allporta należałoby uzupełnić o metody obrazowania pracy


mózgu (Huettel, Song, McCarthy, 2009). Choć rozwinięte na gruncie nauk
medycznych i neurobiologicznych, metody te znajdują coraz szersze
zastosowanie w badaniach z zakresu psychologii poznawczej. Obecnie
wykorzystuje się wiele technik z tego obszaru: elektroencefalografię
(electroencephalography, EEG), magnetoencefalografię
(magnetoencephalography, MEG), funkcjonalną spektroskopię w bliskiej
podczerwieni (functional near infrared spectroscopy, fNIRS), pozytonową
tomografię emisyjną (positon emmision tomography, PET) oraz przede
wszystkim funkcjonalny rezonans magnetyczny (functional magnetic
resonance imaging, fMRI) (tamże). W przypadku EEG i MEG rejestruje się
aktywność elektrofizjlogiczną mózgu wykrywalną na powierzchni głowy,
natomiast w przypadku fNIRS, PET i fMRI – aktywność metaboliczną
różnych obszarów mózgu. Technika fMRI, szczególnie popularna wśród
badaczy, pozwala na rejestrację poziomu ukrwienia i nasycenia tlenem
wybranych obszarów mózgu. Zakłada się, że wzrost przepływu krwi
i większe zużycie tlenu sygnalizują wzmożoną aktywność określonych
rejonów mózgowia. Jeśli więc damy osobie badanej do rozwiązania jakieś
zadanie poznawcze, a następnie posłużymy się tą techniką obrazowania,
możemy obserwować, które obszary mózgu są szczególnie aktywne
w czasie jego wykonywania. Dzięki temu możemy poznać mózgową
lokalizację interesujących nas funkcji poznawczych, np. wybranych
rodzajów pamięci. Możemy też odnotować różnice w zakresie aktywności
mózgu między osobami mniej i bardziej wprawnymi w wykonywaniu tych
zadań, a także między osobami młodszymi i starszymi, zdrowymi
i chorymi albo mniej i bardziej inteligentnymi. Co więcej, na podstawie
obrazowania pracy mózgu można weryfikować konkurencyjne modele
teoretyczne wybranych czynności poznawczych. Wiemy np., że różne
zadania angażujące pamięć uaktywniają odmienne obszary mózgu, co
wyraźnie sugeruje, że pamięć nie jest zjawiskiem jednolitym, to znaczy
różne grupy procesów pełnią niejednakowe funkcje w czynnościach
pamięciowych. Weryfikacja konkurencyjnych teorii wyłącznie na
podstawie danych z obserwacji zachowania nie zawsze jest możliwa. Wadą
technik obrazowania opartych na pomiarze aktywności metabolicznej jest
stosunkowo słaba rozdzielczość czasowa, wynosząca kilka sekund
w przypadku fMRI i fNIRS i aż około pół minuty w przypadku PET.
Większość elementarnych procesów poznawczych trwa mniej niż sekundę,
np. przeczytanie słowa zajmuje nam około 500 ms. Wobec tego słaba
rozdzielczość czasowa technik neuroobrazowania często stanowi
przeszkodę w ich wykorzystaniu do badania przebiegu procesów
umysłowych, czemu jednak badacze próbują zaradzić, stosując techniki
o większej rozdzielczości czasowej (EEG i MEG) lub wykorzystując dwie
techniki pomiarowe (np. EEG i fMRI) w jednym badaniu.

Niezależnie od rodzaju zastosowanej metody kluczem do uzyskania


odpowiedzi na interesujące badacza pytanie jest skrupulatna analiza
zachowania osoby badanej, a zwłaszcza rejestracja poziomu wykonania
przez nią zadania poznawczego. Poziom ten odzwierciedla bowiem jakość
realizujących to zadanie procesów przetwarzania informacji. Analiza
poziomu wykonania zadania musi więc być prowadzona tak, aby możliwa
była ilościowa oraz jakościowa charakterystyka poszczególnych procesów
przetwarzania informacji odpowiedzialnych za wykonanie zadania.
W przypadku metody obserwacji, eksperymentu laboratoryjnego i badań
klinicznych analiza ta jest jedynym efektem postępowania badawczego,
natomiast w przypadku modelowania i neuroobrazowania dane
behawioralne są niezbędnym elementem całej procedury badawczej. Bez
analizy wykonania zadań przez żywych ludzi nie byłoby możliwe
komputerowe symulowanie procesów poznawczych, a obrazowanie pracy
mózgu utraciłoby psychologiczny sens (choć zachowałoby sens z punktu
widzenia biologii czy medycyny). Dlatego tak ważne w psychologii
poznawczej jest właściwe wykorzystanie wskaźników wykonania przez
osobę badaną przedstawionych jej zadań umysłowych. Najważniejsze
wskaźniki to czas reakcji oraz liczba i jakość popełnionych błędów.

Pomiar czasu reakcji jako sposób badania funkcji poznawczych rozwinięto


w ramach podejścia zwanego chronometrią umysłu (mental chronometry).
Nawet w przypadku stosunkowo prostych zachowań – wymagających np.
naciśnięcia klawisza w odpowiedzi na sygnał świetlny lub dźwiękowy – od
momentu zadziałania bodźca (sygnału) do momentu wykonania reakcji
(naciśnięcia klawisza) upływa pewien czas. Zmienna „czas reakcji”
(reaction time, RT; Exner, 1887) dotyczy tego właśnie odcinka, czyli
okresu utajenia reakcji3. Na czas upływający między bodźcem a reakcją
składają się czasy trwania poszczególnych etapów reagowania: etapu
przesłania informacji na temat bodźca do mózgu, etapu przetwarzania tych
informacji przez system nerwowy oraz etapu zaprogramowania reakcji
i wykonania jej przez mięśnie.
Badanie czasów reakcji ma – jak na psychologię – stosunkowo długą
tradycję, bo już w 1850 r. postulował takie podejście jeden z pionierów
psychologii eksperymentalnej – Hermann von Helmholtz. Trzeba jednak
pamiętać, że czas reakcji ma dla psychologa jakąkolwiek wartość
poznawczą tylko wtedy, gdy zostanie właściwie zinterpretowany, sam
w sobie nie znaczy bowiem nic. Czas reakcji może być np. wskaźnikiem
ogólnego stanu psychofizycznego człowieka lub ogólnego tempa
przewodnictwa neuronalnego. W obu przypadkach nie jest to miara,
z której chcielibyśmy korzystać w badaniu funkcji poznawczych.

Dlatego chronometria umysłu polega na umiejętnym manipulowaniu


warunkami zadania poznawczego, przede wszystkim jego złożonością,
a następnie mierzeniu czasu potrzebnego na rozwiązanie każdej wersji
zadania. Pobrane w ten sposób czasy reakcji są następnie porównywane,
odejmowane, sumowane lub inaczej jeszcze przetwarzane. Teoretyczne
i metodologiczne podstawy takiego postępowania stworzył w XIX w.
holenderski badacz Franciscus Cornelis Donders.

Donders (1868/1969) założył, że wykonanie każdego zadania wymaga serii


operacji umysłowych, które przebiegają w czasie rzeczywistym. Jak na
owe czasy było to bardzo śmiałe założenie, bo oznaczało, że operacje
mentalne nie są bezczasowymi aktami, lecz realnymi, materialnie
zakotwiczonymi procesami. Jeśli operacja mentalna jest procesem, którego
długość można zmierzyć, to znaczy, że – przy wszystkich ograniczeniach
tego porównania – umysł działa podobnie do urządzeń technicznych.
Mówiąc językiem Kartezjusza, operacje umysłowe należałoby zaliczyć
raczej do kategorii „rzeczy rozciągłych”, bo mierzalnych, a nie do kategorii
rzekomo niematerialnych „rzeczy myślących”. Z naszego punktu widzenia
istotne jest przede wszystkim to, że jeśli operacje umysłowe dokonują się
w czasie rzeczywistym, każda z nich wykonywana jest na osobnym etapie,
a wszelkie czynności poznawcze można rozbić na pewną liczbę takich
etapów. Donders założył, że etapy są wzajemnie niezależne. Natychmiast
po zakończeniu przetwarzania na jednym z etapów informacja jest
przesyłana do etapu następnego, a czas niezbędny do jej przetworzenia na
danym etapie nie ma wpływu na czas potrzebny na dalsze przetworzenie
danych na kolejnych etapach. Z tych założeń wynika, że czas potrzebny na
wykonanie zadania jest prostą sumą wszystkich odcinków czasu,
niezbędnych do zrealizowania każdego jego etapu.

Istotą metody Dondersa jest zasada konstrukcji wielu wersji tego samego
zadania, różniących się liczbą niezbędnych operacji umysłowych. Zgodnie
z przyjętymi założeniami wersje te różnią się liczbą etapów przetwarzania
informacji, a ponieważ każdy etap wymaga czasu – wersje różnią się też
długością czasu, który upływa między bodźcem a reakcją. Na przykład
naciśnięcie guzika w odpowiedzi na jeden bodziec wymaga,
w uproszczeniu, trzech etapów: kodowania bodźca, przetworzenia bodźca
na reakcję i wykonania reakcji (ryc. 1.2). Naciśnięcie guzika w odpowiedzi
na jeden z dwóch bodźców (np. reaguj na zielony, nie reaguj na czerwony)
wymaga dodatkowego etapu różnicowania bodźców, dlatego cały proces
staje się czteroetapowy. Jeśli natomiast zadanie polega na tym, aby
nacisnąć prawy guzik w odpowiedzi na światło zielone, a lewy –
w odpowiedzi na światło czerwone, potrzebny jest dodatkowy etap decyzji
co do rodzaju reakcji. Dlatego w tej wersji zadanie wymaga już pięciu
etapów. Mierząc całkowity czas reakcji w każdej wersji zadania, możemy
ocenić, jak długo trwa wykonanie procesu mentalnego, składającego się
z trzech, czterech lub pięciu etapów. Mierzymy więc czas między bodźcem
a reakcją, ale wnioskujemy o długości nieobserwowalnego procesu
umysłowego. Co więcej, odejmując czas reakcji uzyskany w wersji
trzyetapowej od czasu w wersji czteroetapowej, uzyskujemy informację,
jak długo trwa jeden z etapów przetwarzania informacji, mianowicie etap
różnicowania bodźców. Analogicznie, posługując się metodą
odejmowania, możemy ocenić czas trwania etapu decyzji o wyborze
właściwej reakcji. Nie widząc zatem interesujących nas procesów
mentalnych, możemy ocenić czas ich trwania. W szczególności jesteśmy
w stanie stwierdzić, czy wynik odejmowania dwóch wartości czasu reakcji
jest większy od zera, bo to oznacza, że dany etap istnieje. Gdyby wynik
odejmowania był równy zeru, można by wnioskować, że dany etap nie
istnieje, a więc model teoretyczny zakładający jego istnienie jest
nieadekwatny do rzeczywistości. W ten sposób, posługując się logiką
badawczą zaproponowaną przez Dondersa, możemy weryfikować
konkurencyjne modele badanych procesów poznawczych.

RYCINA 1.2. Schemat metody Dondersa


Trzy wersje tego samego zadania na czas reakcji różnią się liczbą etapów przetwarzania informacji,
a tym samym długością czasu potrzebnego do wykonania zadania. Odejmując globalny czas
wykonania zadania w wersji prostszej od czasu potrzebnego na rozwiązanie zadania w wersji
bardziej złożonej, otrzymujemy informację o czasie trwania wybranej, nieobserwowalnej operacji
umysłowej, np. wyboru bodźca lub podjęcia decyzji co do rodzaju reakcji. B1 – bodziec pierwszy,
B2 – bodziec drugi, R1 – reakcja pierwsza, R2 – reakcja druga, RT1 – prosty czas reakcji, RT2 –
RT1 = czas wyboru bodźca, RT3 – RT2 = czas podejmowania decyzji.
Źródło: opracowanie własne na podstawie Donders, 1868/1969.

Wzorując się na metodzie Dondersa i twórczo ją rozwijając, psychologowie


poznawczy opracowali wiele technik wnioskowania o procesach
poznawczych na podstawie analizy czasu reakcji (ramka 1.1).
Charakterystyczną cechą tego podejścia jest konieczność skonstruowania
wyjściowego modelu teoretycznego, stanowiącego podstawę do
późniejszych pomiarów i innych zabiegów (np. odejmowania wartości
czasu reakcji). Model przedstawiony na rycinie 1.2 może się wydawać
nadmiernie uproszczony, ale jego zadaniem nie jest wierny opis procesów
poznawczych, sterujących naciskaniem guzików w odpowiedzi na
dwojakiego rodzaju bodźce, lecz stworzenie warunków do przyszłego
badania empirycznego.

RAMKA 1.1

Zaawansowane wersje chronometrii umysłu


Twórczymi kontynuatorami podejścia Dondersa byli m.in. Saul
Sternberg (1969b) i Robert J. Sternberg (1977b). Zbieżność ich nazwisk
jest przypadkowa, a każdy z tych badaczy dopracował się swojej
metody, działając niezależnie od drugiego. Saul Sternberg jest autorem
bardzo znanej procedury badania pamięci krótkotrwałej, a Robert J.
Sternberg to wybitny badacz inteligencji człowieka. Zaproponowane
przez nich wersje chronometrii umysłu były próbą rozwiązania istotnych
problemów związanych z oryginalną metodą Dondersa. Chodzi o to, że
nie każde zadanie da się skonstruować w kilku wersjach, różniących się
poziomem złożoności. Nawet jeśli byłoby to możliwe, wersja bardziej
złożona może wymagać nieco innych operacji umysłowych albo nieco
innego układu tych operacji, a nie po prostu jednej operacji umysłowej
więcej. Jeśli tak, to trudno mówić o spełnieniu jednego z podstawowych
założeń metody Dondersa, zgodnie z którym odejmowanie wartości
czasu reakcji dotyczącego różnych wersji zadania pozwoli nam ocenić
czas trwania pojedynczej operacji umysłowej. Ponadto odejmowanie
wartości czasu reakcji budzi poważne zastrzeżenia metodologiczne
związane z tym, że wartość różnicy zależy od wartości jej składników.
Jeśli ktoś reaguje bardzo wolno, uzyskana dla takiej osoby różnica
wartości czasu reakcji będzie stosunkowo duża, a w każdym razie
znacznie większa niż w przypadku kogoś, kto reaguje szybko. W wyniku
odejmowania otrzymujemy więc wartości w dużym stopniu
nieporównywalne między osobami.

Istotą zaproponowanego przez Saula Sternberga podejścia, zwanego


metodą addytywną, jest manipulowanie warunkami zadania, np. liczbą
elementów do zapamiętania lub rodzajem wymaganej reakcji (TAK lub
NIE). Manipulując eksperymentalnie warunkami zadania, można
sprawdzić, czy mają one wspólny czy odrębny wpływ na czas
rozwiązania całego zadania. Zakłada się, że jeśli wpływ jest wspólny,
zaobserwujemy statystyczny efekt interakcji dwóch lub więcej
warunków. Na przykład czas reakcji będzie zależał od warunku A,
warunku B, a ponadto od łącznego wpływu obu warunków (interakcja
A×B). Jeśli natomiast wpływ miałby być odrębny, oba warunki dadzą
efekty proste, nie wchodząc w interakcje, to znaczy czas reakcji będzie
zależał od warunku A i osobno od warunku B, ale już nie od łącznego
wpływu obu warunków. Sternberg założył, że jeśli dwa warunki
wpływają na czas wykonania zadania interaktywnie, to znaczy, że
oddziałują na ten sam etap jego wykonania. Jeśli natomiast dwa warunki
nie wykazują wpływów interaktywnych, a jedynie addytywne (tj.
sumujące się), wówczas oddziałują na różne etapy przetwarzania
informacji. W ten sposób, inaczej niż metodą odejmowania, próbuje się
ustalić liczbę etapów przetwarzania informacji w danym zadaniu, a także
czynniki determinujące ten proces na poszczególnych etapach. Próbuje
się również nadawać teoretyczną interpretację kolejnym etapom zadania,
nazywając je kodowaniem danych, porównywaniem dwóch reprezentacji
umysłowych itd.

Z kolei metoda Roberta J. Sternberga (1977b) nazywa się analizą


komponentową, ponieważ polega na dekompozycji złożonego procesu
poznawczego na elementarne składniki (komponenty), operujące na
reprezentacjach poznawczych. Określenie „elementarne” oznacza, że
komponentów nie da się już rozbić na składniki niższego rzędu. Istotą
analizy komponentowej jest operowanie wskazówkami wstępnymi
(precues), czyli bodźcami niezbędnymi do wykonania określonych
operacji umysłowych, pojawiającymi się przed właściwym zadaniem
poznawczym. Jeśli owe wskazówki wstępne dostarczymy osobie badanej
„za darmo”, to znaczy jeszcze przed włączeniem urządzenia
rejestrującego czas reakcji, zmierzona wartość sumarycznego czasu
reakcji będzie pomniejszona o czas potrzebny na wykonanie tych
operacji, które „karmią się” dostarczonymi wskazówkami. Proces
poznawczy i tak będzie pełny, integralny, niepozbawiony ważnych
elementów składowych. Sumaryczny czas reakcji będzie jednak
wyraźnie krótszy, ponieważ osoba badana wykona niektóre komponenty,
jeszcze zanim zaczniemy mierzyć czas.

Na przykład zadanie rozwiązywania prostych sylogizmów werbalnych


należy rozpocząć od kodowania i identyfikowania poszczególnych
informacji składających się na rozwiązywany problem. Można założyć,
że kodowanie i identyfikowanie informacji stanowi pierwszy etap
przetwarzania w procesie rozwiązywania sylogizmów. Osoba badana,
która rozpoczyna zadanie w momencie, gdy zapoznała się już ze
wszystkimi informacjami niezbędnymi do jego prawidłowego
rozwiązania, skraca proces rozwiązywania sylogizmu o ten właśnie
pierwszy etap, zwany etapem kodowania. Możemy oczywiście
dostarczać różnych wskazówek wstępnych, tym samym umożliwiając
osobie badanej wykonanie różnych komponentów „za darmo”, czyli
zanim zaczniemy mierzyć czas. Porównując teraz czas reakcji uzyskany
w warunkach eksperymentalnych, różniących się liczbą i charakterem
dostarczonych wskazówek wstępnych, jesteśmy w stanie ocenić czas
trwania poszczególnych komponentów, a przede wszystkim to, czy dany
komponent w ogóle istnieje. Opisany sposób postępowania pozwala
weryfikować złożone modele przetwarzania informacji, a ponadto badać
różnice indywidualne. Okazuje się bowiem, że ludzie różnią się ze
względu na czas wykonania poszczególnych komponentów, a różnice te
bywają skorelowane z innymi wymiarami, np. z inteligencją ogólną.

Na podstawie takiego modelu tworzymy wersje zadania różniące się liczbą


etapów przetwarzania informacji. Dopiero dysponując modelem, możemy
dokonywać pomiarów, odejmować poszczególne czasy reakcji, a następnie
wnioskować o strukturze badanego procesu poznawczego, np. o liczbie
niezbędnych etapów. Pod wpływem późniejszych zabiegów
metodologicznych możemy ten model poprawić, a nawet całkiem odrzucić,
ponieważ odegrał on już swą rolę jako źródło przewidywań co do
zachowania osób badanych w różnych warunkach eksperymentalnych.
Odrzuciwszy model wyjściowy, przyjmujemy inny – lepiej dopasowany do
obserwacji empirycznych. Model wyjściowy pełni więc wyłącznie funkcję
heurystyczną, to znaczy jest generatorem przewidywań co do wartości
pomiarów w różnych warunkach badania. Nie dysponując takim modelem,
nie bylibyśmy jednak w stanie w ogóle niczego zbadać, ponieważ nawet
gdyby udało nam się zmierzyć jakiś czas reakcji, nie wiedzielibyśmy,
czemu on odpowiada ani o czym świadczy.

Podejście zwane chronometrią umysłu wymaga bardzo starannej obróbki


danych dotyczących czasu reakcji. Nie potrzeba wyrafinowanego
eksperymentu psychologicznego, aby się przekonać, jak bardzo wartość
czasu reakcji jest podatna na zakłócenia. Niekiedy – sami nie zdając sobie
z tego sprawy – tę samą czynność wykonujemy szybko i bezbłędnie,
czasem zaś zdecydowanie wolniej i mniej precyzyjnie. Przy wielokrotnych
powtórzeniach danej czynności – gdy narasta wprawa, ale też zmęczenie –
niektóre powtórki są bardziej, inne zaś mniej udane. Dlatego, przyjmując
za podstawę wnioskowania czas reakcji, musimy przestrzegać pewnych
rygorów metodologicznych. Do zespołu zabezpieczeń przed
przypadkowością pomiaru należy m.in. stosowanie dużej liczby powtórzeń
wykonania tego samego zadania. W typowym eksperymencie
psychologicznym osoba badana wykonuje to samo proste zadanie
kilkadziesiąt razy. W końcowym wnioskowaniu wykorzystuje się średnie
czasy reakcji obliczane na podstawie wszystkich wykonanych prób.
Niektórzy badacze stosują ponadto statystyczne procedury „poprawiania”
wyników, polegające na odrzucaniu wartości skrajnych. Na przykład
w końcowych obliczeniach nie uwzględnia się danych pochodzących od
osoby, której wyniki zdecydowanie odbiegają od przeciętnego
(charakterystycznego dla pozostałych badanych) wzorca reagowania
(Jensen, 1992). Podejście to zakłada, że osoba, która wykonała zadanie
wyraźnie inaczej niż pozostali uczestnicy eksperymentu, albo nie
zrozumiała instrukcji, albo z innych powodów nie była w stanie mu
sprostać, a w konsekwencji zrobiła coś zupełnie innego, niż zakładano.
Może to oznaczać, że badany przez nas proces poznawczy u takich osób po
prostu nie wystąpił. Pierwsze z wymienionych zabezpieczeń przed
przypadkowością pomiaru, czyli duża liczba powtórzeń, zwanych próbami
eksperymentalnymi (trials), jest powszechnie stosowane i z pewnością
korzystne, natomiast drugie wydaje się kontrowersyjne (Nęcka, 1994a).
Nie można bowiem wykluczyć, że osoba reagująca znacznie dłużej lub
krócej od pozostałych uczestników eksperymentu stosuje swoistą strategię
poznawczą, a więc radzi sobie z zadaniem inaczej, niż to przewiduje
wstępny model teoretyczny przyjęty przez badacza. W takiej sytuacji
eliminowanie osób nietypowych może oznaczać niezamierzone
fałszowanie wyników badań.

Natomiast zabiegiem całkowicie uprawnionym i powszechnie stosowanym


jest „czyszczenie” wyników, polegające na usuwaniu wartości odstających
(nienaturalnie krótkich lub długich) czasu reakcji z serii prób pobranych od
tej samej osoby. Takie nienaturalnie długie wartości zwykle wynikają z jej
dekoncentracji lub z wpływu czynników niekontrolowanych. Ponadto
w badaniach z użyciem technik chronometrii umysłu zwykle nie
uwzględnia się czasu reakcji błędnych, nie wliczając tych wartości do sumy
stanowiącej podstawę obliczania średniego czasu reakcji. Uważa się
mianowicie, że czas reakcji błędnej jest czasem nie wiadomo czego. Jeśli
reakcja jest poprawna, jej czas informuje nas o sumarycznej długości
trwania wszystkich zakładanych przez nas etapów przetwarzania
informacji. Ten sumaryczny czas może być następnie odejmowany od
innych wartości itd. Jeśli natomiast reakcja jest błędna, to nie wiemy, co się
stało: czy dany etap został przez badanego wykonany, ale źle, czy po prostu
pominięty. W takiej sytuacji należy czas reakcji błędnej zignorować,
odnotowując sam fakt wystąpienia błędu.

Równie ważnym co czas reakcji wskaźnikiem przebiegu procesów


poznawczych są bowiem błędy popełniane podczas wykonania zadania,
a zwłaszcza ich rodzaj i liczba. Na podstawie błędów możemy wnioskować
nie tylko o tym, czy system poznawczy jest sprawny, lecz także o przebiegu
interesujących nas procesów poznawczych. Specyficzność popełnianych
błędów pozwala czasem wnioskować o przebiegu procesu przetwarzania,
np. o odmiennych strategiach stosowanych przez różne grupy osób
badanych. Nawet w bardzo prostych zadaniach, np. wymagających
reagowania jedną ręką na światło zielone, a drugą na czerwone (zob. ryc.
1.2), zdarzają się błędy. W tym zadaniu można się pomylić co najmniej na
dwa sposoby: (1) nie naciskając przycisku, choć zgodnie z instrukcją
należało to zrobić, lub (2) naciskając przycisk, mimo że warunki zadania
tego nie wymagały. W pierwszym przypadku popełniamy błąd ominięcia
(OM), w drugim – błąd fałszywego alarmu (FA). Informacje dotyczące
błędów analizuje się na kilka sposobów. Czasem uwzględnia się ogólną
liczbę błędów dowolnego rodzaju, czasem zaś wzajemny stosunek ominięć
lub fałszywych alarmów do całkowitej liczby błędów. Skłonność do
popełniania raczej OM niż FA lub odwrotnie zależy od warunków zadania,
instrukcji, indywidualnych preferencji osoby badanej bądź od przyjętej
przez nią strategii radzenia sobie z zadaniem.

1.3. Ogólna architektura umysłu


Przez pojęcie ogólnej architektury umysłu rozumiemy swoisty rodzaj teorii
naukowej. Jest to teoria o bardzo dużym poziomie ogólności, opisująca
najważniejsze elementy budulcowe umysłu oraz ich wzajemne relacje.
Każda z proponowanych architektur poznawczych opisuje więc strukturę
systemu poznawczego, a także wynikające z niej ogólne zasady
przetwarzania informacji. Tworzy ogólne ramy teoretyczne, w których
konstruuje się teorie o węższym zasięgu, opisujące już konkretne procesy
lub czynności poznawcze.

1.3.1. Blokowe modele umysłu


Podstawowe założenie modeli blokowych głosi, że informacja jest
przetwarzana przez system poznawczy sekwencyjnie i „oddolnie” (bottom-
up), czyli od wejścia sensorycznego aż po wyjście behawioralne.
Sekwencja przetwarzania składa się z kilku lub kilkunastu etapów
następujących po sobie i realizowanych w kolejnych blokach procesów
przetwarzania informacji. Blok można zdefiniować jako zespół procesów
przetwarzania informacji o podobnym charakterze i zadaniach, obsługujący
wyróżnioną czynność poznawczą (np. spostrzeganie, pamięć, kontrolę
motoryki). Z reguły w każdym modelu blokowym, mającym ambicję ujęcia
całości systemu poznawczego, uwzględniano następujące bloki: wejście
sensoryczne, uwagę, spostrzeganie, pamięć, procesy myślowe, procesy
decyzyjne, wyjście behawioralne.

Jednym z najpopularniejszych, wczesnych modeli systemu przetwarzania


informacji jest blokowy model Rucharda Atkinsona i Richarda Shiffrina
(1968). W tym ujęciu system przetwarzania informacji składa się z trzech
magazynów pamięci: rejestru sensorycznego, pamięci krótkotrwałej oraz
pamięci długotrwałej. Docierające z otoczenia informacje przechodzą przez
magazyny systemu poznawczego w tej właśnie kolejności (ryc. 1.3), przy
czym na każdym etapie podlegają selekcji. O tym, które informacje przejdą
z rejestru sensorycznego do pamięci krótkotrwałej, decydują procesy
uwagi. Natomiast transfer informacji z magazynu pamięci krótkotrwałej do
magazynu pamięci długotrwałej jest warunkowany jedną z najważniejszych
operacji kontrolnych: powtarzaniem (rehearsal) i organizowaniem
materiału. Informacja niepowtarzana bezpowrotnie zanika wraz z upływem
czasu, podczas gdy informacja wystarczająco długo podtrzymywana dzięki
kolejnym powtórkom zostaje na stałe zapisana w pamięci długotrwałej.
Pojemność magazynu pamięci długotrwałej autorzy uznali za
nieograniczoną, a tzw. zapominanie wyjaśniali raczej brakiem dostępu do
informacji niż jej utratą. Natomiast pojemność rejestru sensorycznego,
a zwłaszcza pamięci krótkotrwałej, uznali za bardzo ograniczoną. Aby
określone informacje mogły być przez właściwy podsystem przetworzone,
muszą zostać wcześniej zapisane w odpowiednim formacie, za co
odpowiedzialne są procesy kodowania pamięciowego. Na przykład pamięć
krótkotrwała, według Atkinsona i Shiffrina (tamże), przetwarza informacje
werbalne, podczas gdy pamięć długotrwała zorganizowana jest raczej
według znaczenia przechowywanych w niej informacji. Za sterowanie
procesem przetwarzania informacji na poszczególnych etapach, jak też za
transfer z jednego magazynu pamięci do innego odpowiedzialne są procesy
kontrolno-regulacyjne. Zarządzają one analizą sensoryczną, regulacją
transferu między magazynami, przebiegiem wydobywania informacji
z pamięci długotrwałej oraz zapominaniem.

Istotnym elementem modelu Atkinsona i Shiffrina jest generator reakcji.


Jak widać (ryc. 1.3), reakcja może wystąpić w odpowiedzi na informacje
dopływające z każdego z trzech bloków pamięci. Sama zawartość rejestru
sensorycznego może dać impuls do wytworzenia reakcji z pominięciem
dwóch pozostałych systemów pamięci. To samo dotyczy pamięci
krótkotrwałej. Natomiast pamięć długotrwała może wytworzyć reakcję
bezpośrednio albo za pośrednictwem pamięci krótkotrwałej.

RYCINA 1.3. Blokowy model przetwarzania informacji Atkinsona i Shiffrina


Źródło: opracowanie własne na podstawie Atkinson, Shiffrin (1968).

W późniejszej wersji swojego modelu Atkinson i Shiffrin (1971) przyjęli,


że reakcja może być wyprodukowana tylko przez system krótkotrwałego
przechowywania informacji (short term store, STS). W systemie tym
działają też procesy kontroli, takie jak powtarzanie materiału, kodowanie
informacji, podejmowanie decyzji i strategie przywoływania informacji
z systemu długotrwałego przechowywania informacji (long term store,
LTS). Blok pamięci krótkotrwałej awansował więc do roli centralnego
systemu przetwarzania informacji. Zachowano jednak dwa pozostałe bloki,
czyli rejestr sensoryczny (wzrokowy, słuchowy, dotykowy i inne) oraz
magazyn pamięci długotrwałej. Ten ostatni komunikuje się obustronnie już
tylko z blokiem pamięci krótkotrwałej, tracąc zdolność do samodzielnego
sterowania zachowaniem.

Model Atkinsona i Shiffrina zbudowano z wykorzystaniem wcześniejszych


badań nad pamięcią. Na przykład rejestr sensoryczny odpowiada odkrytej
przez George’a Sperlinga (1960) pamięci ikonicznej, stanowiącej coś
w rodzaju bardzo krótkotrwałego (200–500 ms) śladu bodźca wzrokowego
na siatkówce oka. Z kolei podział na pamięć krótko- i długotrwałą był
znany już od czasów Williama Jamesa (1890)4, a na pewno od dwóch
słynnych prac, w których wykazano ograniczoną pojemność systemu
pamięci krótkotrwałej (Miller, 1956; Peterson, Peterson, 1959). Wartość
tego modelu należy więc mierzyć nie tym, jak oryginalne były
poszczególne rozwiązania terminologiczne, ale tym, w jaki sposób różne
części systemu poznawczego powiązano w spójny mechanizm zdolny do
przetwarzania informacji i sterowania zachowaniem. Ponadto analizowany
model dał początek nowemu sposobowi uprawiania psychologii
poznawczej, polegającemu na konstruowaniu blokowych koncepcji
umysłu. Wraz z rozwojem badań zwolennicy teorii blokowych rozpoczęli
konstruowanie bardziej szczegółowych modeli dotyczących wcześniej
wyróżnionych, poszczególnych podsystemów czy etapów przetwarzania
informacji. Modele te nie miały już ambicji opisania całości systemu
poznawczego człowieka, a jedynie przedstawienia jego fragmentów. Za
wzór może posłużyć stosunkowo wczesna praca Broadbenta (1958). Autor
skonstruował hydrauliczny model uwagi selektywnej, wyróżniając w nim
trzy bloki: kanały sensoryczne, filtr uwagi i kanał przetwarzania
semantycznego. Modele te będą dokładniej prezentowane przy okazji
omawiania problematyki uwagi i pamięci. Tu warto jedynie nadmienić, że
w ich konstrukcji zostały zachowane podstawowe zasady modeli
blokowych (zasada sekwencyjności oraz „oddolny” kierunek
przetwarzania).

Komputerowa metafora umysłu


Wsparciem dla konstrukcji modeli blokowych była tzw. komputerowa
metafora umysłu. Polega ona na porównywaniu elementów ludzkiego
systemu poznawczego do analogicznych elementów systemu
komputerowego. Komputer składa się z urządzeń wejścia (np. klawiatura,
mysz, skaner, podłączenie sieciowe), urządzeń wyjścia (monitor, drukarka,
podłączenie sieciowe) oraz urządzeń pośredniczących między wejściem
a wyjściem. Nazywa się je niekiedy „czarną skrzynką”, podkreślając w ten
sposób ukryty, nieobserwowalny charakter zarówno samych urządzeń, jak
i wykonywanych przez nie czynności. W komputerowej „czarnej skrzynce”
występują m.in.: procesor, pamięć operacyjna, pamięć masowa.
Zestawiając te urządzenia z wyróżnionymi wcześniej blokami
przetwarzania informacji, łatwo dostrzec wyraźne analogie, uwidocznione
w tabeli 1.1. Co więcej, komputer działa według reguły przetwarzania
„oddolnego”: pobiera dane na wejściu, następnie przetwarza je zgodnie
z dostępnymi algorytmami działania, by w końcu „wyprodukować”
informację na wyjściu. Można więc powiedzieć, że metafora komputerowa
wiernie oddaje działanie blokowego systemu poznawczego, a komputer
prawdopodobnie został stworzony „na obraz i podobieństwo” systemu
poznawczego człowieka.

TABELA 1.1. Komputerowa metafora umysłu


Umysł Komputer

procesy sensoryczne klawiatura, skaner


pamięć robocza pamięć operacyjna
procesy myślowe procesor
pamięć trwała twardy dysk
procesy decyzyjne procesor
wyjście behawioralne monitor, drukarka

Źródło: opracowanie własne.

Zarazem jednak coraz więcej danych wskazuje na nieadekwatność


metafory komputerowej. Przede wszystkim komputer jest – przynajmniej
na razie – urządzeniem działającym sekwencyjnie. Można na nim
wprawdzie imitować równoległość procesów, ale w praktyce polega to na
niezauważalnie krótkich zmianach „zaangażowania uwagi procesora”
w obsługę poszczególnych tzw. równoległych programów. Tymczasem
umysł, a zwłaszcza jego materialne podłoże, czyli mózg, cechuje się
równoległością przetwarzania. W tym samym czasie w wielu miejscach
systemu zachodzą różne procesy, ale nie ma centralnego ośrodka
przetwarzania. Tego rodzaju krytyka doprowadziła do powstania nowego
nurtu w modelowaniu procesów poznawczych, zwanego koneksjonizmem
(zob. podrozdz. 1.3.4).

Koneksjonizm
Modele blokowe poddano ostrej krytyce nie tylko ze względu na zbyt
daleko posuniętą analogię między umysłem a komputerem. Podkreślano
przede wszystkim, że sekwencyjne ujęcie procesu przetwarzania informacji
jest sprzeczne z licznymi danymi empirycznymi (MacKay, 1998). Na
przykład blokowy, sekwencyjny model percepcji liter, zwany
Pandemonium (Selfridge, Neisser, 1960), zakładał, że najpierw
analizujemy pojedyncze cechy (linie, krzywizny itd.), na ich podstawie
rozpoznajemy kształt całej litery, następnie identyfikujemy jej znaczenie
i podejmujemy decyzję na temat tego, co właściwie widzimy. Dość szybko
okazało się, że model Pandemonium słabo pasuje do wyników badań
empirycznych. Według Jamesa McClellanda i Davida Rumelharta (1981),
czołowych prekursorów koneksjonizmu, człowiek nie analizuje
pojedynczych cech, lecz całość wzorca, jakim jest litera. Co więcej, analiza
sensorycznych właściwości bodźca dokonuje się równolegle z analizą
semantyczną, zmierzającą do stwierdzenia, co znaczy widziana przez nas
litera. Ponadto litery zwykle nabierają sensu dopiero w szerszym
kontekście słowa, które tworzą, dlatego proces semantycznej analizy
poszczególnych liter przebiega równolegle z procesem semantycznej
analizy słów. Ponieważ informacje o znaczeniu liter i słów są
przechowywane w pamięci trwałej, analiza sensoryczna musi się
dokonywać równolegle z przywoływaniem danych z tej pamięci, co jest
rażąco sprzeczne z modelem Atkinsona i Shiffrina i w ogóle z większością
blokowych modeli umysłu. Koncepcja umysłu jako systemu działającego
sekwencyjnie i przetwarzającego informacje zawsze w tym samym
kierunku wymagała więc zasadniczej rewizji.

1.3.2. Koncepcja poziomów przetwarzania


Koncepcja poziomów przetwarzania informacji, zaproponowana przez
Fergusa Craika i Roberta Lockharta (1972), miała stworzyć ogólne ramy
teoretyczne badań nad pamięcią. Szybko jednak zyskała popularność jako
alternatywny – w stosunku do modeli blokowych – sposób opisu ogólnej
architektury umysłu. Podstawowe założenie koncepcji poziomów
przetwarzania informacji głosi, że każda informacja jest przetwarzana przez
te same struktury, ale na różnym poziomie „głębokości”. Nie przewiduje
się tu wyodrębnionych etapów przetwarzania i odpowiadających im
struktur, w związku z czym nie ma potrzeby tworzenia modeli blokowych.
Pojęcie głębokości przetwarzania (depth of processing) jest oczywiście
metaforą, ale można je rozumieć jako zakres i intensywność obróbki
danych. Wraz z „pogłębianiem” przetwarzania wzrasta zarówno liczba, jak
i złożoność operacji, jakim w toku procesu przetwarzania poddawane są
docierające do systemu informacje.

Można wyróżnić co najmniej trzy poziomy przetwarzania. Na pierwszym,


płytkim poziomie dokonuje się sensoryczna analiza danych. Rezultaty
płytkiego przetwarzania informacji są nietrwałe i bardzo podatne na
wszelkiego rodzaju zakłócenia. Poziom ten jest jednak wystarczający do
poprawnego wykonania niektórych zadań, np. detekcji dwóch identycznych
znaków (liter, cyfr, błysków światła itp.). Kolejny poziom jest już głębszy –
dokonuje się na nim semantyczna interpretacja odbieranego sygnału. Na
przykład czytając tekst, zazwyczaj sięgamy do znaczenia użytych w nim
słów, chociaż niekiedy wystarczy nam powierzchowna analiza rodzaju
czcionki lub koloru liter. Poziom ten jest również konieczny do
stwierdzenia identyczności dwóch lub więcej elementów należących do
jednej kategorii znaczeniowej (np. owoców, pojazdów, zwierząt).
Przetwarzanie głębokie trwa znacznie dłużej niż płytkie, ale jego rezultaty
są trwalsze i bardziej odporne na wszelkiego rodzaju czynniki zakłócające.
Informacje przetworzone na poziomie głębokim są np. odporne na
zapominanie, podczas gdy dane przetworzone na poziomie płytkim
w większości bezpowrotnie tracimy. Na trzecim, najgłębszym poziomie
przetwarzania aktywizujemy różne skojarzenia związane z wcześniej
odebranym i przeanalizowanym sensorycznie lub semantycznie sygnałem.
Skojarzeniami takimi mogą być np. obrazy czy pojęcia powiązane
znaczeniowo z sygnałem przetwarzanym na poziomie drugim (głębokim).
Na najgłębszym poziomie przetwarzania możliwe jest wzbogacenie naszej
wiedzy o dodatkowe elementy bądź włączenie już istniejących elementów
wiedzy w nowe struktury poznawcze.

Informacja podlegająca przetwarzaniu może pochodzić z dwóch źródeł.


Pierwotny obieg informacji polega na przejściu danych odbieranych na
poziomie płytkim przez poziom głęboki aż do poziomu najgłębszego.
Oczywiście nie każda informacja schodzi na głębsze poziomy
przetwarzania. Zależy to od wielu czynników, m.in. od wymagań sytuacji,
od instrukcji eksperymentalnej, od indywidualnych preferencji czy od
dostępnego czasu. Wtórny obieg informacji polega natomiast na tym, że
dane zakodowane w pamięci mogą zostać włączone do przetwarzania na
którymkolwiek poziomie, krążąc po nim dowolnie długo. Wtórny obieg
dotyczy więc zjawisk pamięciowych, które nie wymagają dopływu
informacji z zewnątrz ani rejestrowania informacji dotyczących własnego
zachowania jednostki.

Oprócz dwóch obiegów informacji Craik i Lockhart (tamże) wyróżnili dwa


typy przetwarzania. Typ I związany jest z wtórnym obiegiem informacji na
tym samym poziomie przetwarzania. Natomiast w przypadku typu II
następuje transfer (przejście) informacji na poziom głębszy na skutek
wtórnego obiegu na poziomie płytszym. W wyniku przetwarzania typu
I dochodzi z reguły do zapominania informacji, chyba że zaczynają one
krążyć w obiegu wtórnym. Zapamiętywanie informacji jest znacznie
lepsze, gdy mamy do czynienia z typem II przetwarzania, a więc
z transferem informacji na głębsze jego poziomy i wtórnym ich obiegiem
na poziomie najgłębszym.

Model Craika i Lockharta (tamże) przedstawia umysł jako system jednolity,


bez wyodrębnionych „pudełek” przekazujących sobie informacje
w określonym porządku. Zamiast poszczególnych bloków mamy tutaj
system o jednolitej strukturze, bez kolejnych etapów przetwarzania, za to
z wydzielonymi poziomami obróbki danych – od płytkiego do
najgłębszego. Wejście do systemu może być zlokalizowane na
którymkolwiek z poziomów, nie ma więc potrzeby wyróżniania
wyspecjalizowanych mechanizmów przewodzenia informacji z rejestru
sensorycznego do pozostałych struktur. Co więcej, informacja może
pozostawać we wtórnym obiegu na którymkolwiek z poziomów
przetwarzania lub go opuścić, ale zawsze w stronę poziomów głębszych.
Z tego względu model ten, podobnie jak modele blokowe, należy uznać za
przykład takiej architektury poznawczej, która zakłada zasadniczo
„oddolny” kierunek przetwarzania.

Zgromadzono wiele danych empirycznych potwierdzających słuszność


modelu jednorodnego systemu poznawczego. Dotyczą one głównie
zależności jakości zapamiętywania od głębokości procesów przetwarzania
informacji uczestniczących w zapamiętywaniu. Badania te zostaną szerzej
omówione w rozdziale 9, poświęconym funkcjonowaniu pamięci. Wnioski
przedstawione przez Craika i Lockharta (tamże) na podstawie całej serii
podobnych eksperymentów były następujące. Po pierwsze, efektywność
pracy systemu poznawczego zależy od głębokości przetworzenia
informacji. Tę samą informację system poznawczy może przetwarzać na
różnych poziomach, ale skutki jego pracy są tym lepsze, im głębszy
poziom przetwarzania zaktywizowano. Po drugie, jeśli informacja jest
przetwarzana na poziomie płytkim, proces ten podlega wielu zakłóceniom,
a dane – szybkiemu zapominaniu. Jeśli natomiast pozwoli się na obieg
informacji na poziomach głębszych, w systemie poznawczym pozostanie
znacznie więcej „niezakłóconych” danych. Po trzecie, o wyborze poziomu
przetwarzania danej informacji decydują wskazówki zewnętrzne (np.
rodzaj zadania) lub wewnętrzne (np. wymagania przyjęte przez sam system
poznawczy). System może też sam narzucić wtórny obieg informacji II
typu, osiągając wówczas najlepsze rezultaty obróbki danych.

1.3.3. Umysł jako system modułowy


Jeden z najważniejszych sporów teoretycznych, toczonych na gruncie nauk
kognitywnych, dotyczy modularnej natury umysłu. Centralne pytanie tej
debaty brzmi: czy umysł jest „urządzeniem” uniwersalnym, zdolnym do
przetwarzania dowolnego rodzaju informacji w dowolnym celu, czy też
składa się z dużej liczby wysoce wyspecjalizowanych struktur niższego
rzędu zwanych modułami? Gdyby umysł miał naturę uniwersalną, najlepiej
byłoby porównać go do komputera, który również jest narzędziem
wszechstronnym: w zależności od zainstalowanego oprogramowania może
przetwarzać tekst, dokonywać obliczeń statystycznych, sterować
przebiegiem różnych procedur i wykonywać tysiące innych zadań, nie
zmieniając swojej budowy i sposobu działania. Natomiast dobrą metaforą
umysłu modularnego jest skrzynka z narzędziami (adaptive toolbox;
Gigerenzer, Todd, the ABC Research Group, 1999), w której znajdziemy
mnóstwo różnych, specjalistycznych przyrządów, ale na próżno
szukalibyśmy narzędzia uniwersalnego.

Chociaż debata nad modularnością umysłu toczy się od dość dawna, nowy
impuls nadał jej filozof Jerry Fodor, autor książki Modularity of mind
(1983). W jego ujęciu umysł składa się z trzech rodzajów budulca:
przetworników (transducers), systemów centralnych i modułów. Rolą
przetworników jest pozyskiwanie energii dopływającej do organizmu
i przekształcanie jej w postać dostępną dla pozostałych mechanizmów
psychologicznych. Rolą systemów centralnych jest wnioskowanie
i tworzenie przekonań; systemy te odpowiadają zatem za myślenie albo za
poznanie w wąskim sensie tego słowa. Natomiast zadanie modułów polega
na pośredniczeniu między przetwornikami a systemami centralnymi. Fodor
obrazowo określa tę funkcję jako „dostarczanie świata myślom”.

Istotą modułów jest ich zależność od dziedziny (domain specificity)


i automatyczność działania (Appelbaum, 1998). Pierwsza cecha oznacza,
że każdy moduł może działać tylko na wyróżnionej klasie bodźców, takich
jak twarz ludzka, dźwięki mowy itd. Co więcej, każdy moduł jest
wyspecjalizowany w jednej funkcji i nie może pełnić żadnej innej. Na
przykład moduł rozpoznawania twarzy nie nadaje się do spostrzegania
figur geometrycznych, a moduł różnicowania głosek, istotny dla
rozumienia mowy, nie nadaje się do rozpoznawania twarzy. Z kolei
automatyczność oznacza, że raz uruchomiony moduł nie może
„wyhamować”, dopóki nie wykona swojego zadania, za to działa szybko
i nie angażuje centralnych zasobów poznawczych (uwagi, pamięci
roboczej). Dzięki modułom możemy szybko i sprawnie wykonywać bardzo
skomplikowane czynności poznawcze. Sterowanie takimi czynnościami
z poziomu systemów centralnych wymagałoby olbrzymich „mocy
obliczeniowych”, a mimo to rezultat byłby mało satysfakcjonujący (dużo
błędów, długi czas działania). Fodor (1983) twierdzi ponadto, że moduły
działają we względnej wzajemnej niezależności, są jak gdyby osobnymi
„kapsułkami” poznawczymi, wyizolowanymi od reszty systemu
poznawczego. Również rozwój poznawczy polega na pojawianiu się
modułów we względnej niezależności od innych „kapsułek” i od całości
systemu poznawczego.

Wbrew szeroko rozpowszechnionemu przekonaniu, Fodor (tamże) nie


tłumaczy wszystkich funkcji poznawczych działaniem wyspecjalizowanych
modułów. Twierdzi, że wyższe funkcje poznawcze, np. myślenie
i rozumowanie, są realizowane inaczej, mianowicie za pośrednictwem
uniwersalnego systemu przetwarzania danych. Domeną modułów jest
przede wszystkim percepcja, a ponadto sterowanie motoryką. Moduły
obsługują więc głównie wejście i wyjście systemu poznawczego, podczas
gdy jego centralne funkcjesą obsługiwane przez uniwersalny „procesor”
wszechstronnego zastosowania. Pogląd ten nie zawsze jest podzielany
przez zwolenników koncepcji modułowych. Niektórzy, np. Gerd
Gigerenzer (Gigerenzer i in., 1999), odwołują się do modułów
w wyjaśnianiu „wyższych” funkcji poznawczych, takich jak rozumowanie,
wnioskowanie i podejmowanie decyzji. To właśnie Gigerenzer jest autorem
metafory umysłu jako „przydatnej skrzynki z narzędziami” (adaptive
toolbox), z której każdy z nas czerpie w miarę potrzeb. Wraz ze
współpracownikami wykazał on, że niektóre zadania wymagające
wnioskowania z przesłanek, stosunkowo trudne dla większości ludzi, stają
się dość łatwe wtedy, gdy zostaną przedstawione w kontekście społecznym
(zob. rozdz. 12). Postuluje się, że istnieje np. wyspecjalizowany moduł
wykrywania oszustów; jego uruchomienie sprawia, że trudne zadania
logiczne, wymagające rozumowania warunkowego, stają się dość łatwe
nawet dla małych dzieci (Cosmides, 1989).

Modułowy charakter wyjaśnień psychologicznych zyskał szczególną


popularność na gruncie psychologii ewolucyjnej (Buss, 1999; Pinker, 2002,
2003). Przedstawiciele tego kierunku widzą umysł jako zestaw wysoce
wyspecjalizowanych funkcji, rozwiniętych w procesie ewolucji w wyniku
działania tzw. nacisku selekcyjnego. Podobnie jak oko, ucho, serce
i wszystkie pozostałe narządy ciała, również umysł jest swoistym
„narządem” przystosowania się organizmu do środowiska, tyle że nie
jednolitym, a właśnie modułowym. Według Anne Campbell (2004)
założenie o modularności ludzkiego poznania jest jedną z cech
wyróżniających psychologię ewolucyjną spośród innych kierunków myśli
psychologicznej. Zauważmy jednak, że gdyby umysł człowieka był
w całości złożony z modułów, prawdopodobnie nie pojawiłyby się w toku
ewolucji adaptacje uniwersalne i wszechstronne w zastosowaniu, takie jak
kontrola poznawcza lub rozwiązywanie problemów. Dlatego warto
pamiętać o umiarkowanym stanowisku Fodora w kwestii modułowej natury
umysłu.

1.3.4. Sieciowe modele umysłu


Sieciowe modele umysłu powstały w odpowiedzi na krytykę formułowaną
zarówno pod adresem tradycyjnej sztucznej inteligencji, jak i modeli
blokowych wraz z leżącą u ich podłoża komputerową metaforą umysłu.
Podkreślano, że modele blokowe i tradycyjne programy sztucznej
inteligencji opierają się na fałszywej, niezgodnej ze współczesną wiedzą,
wizji działania mózgu. Krytykowano też skłonność autorów modeli
blokowych do myślenia w kategoriach homunculusa: inteligentnego
ludzika odpowiedzialnego za kontrolę procesu przetwarzania informacji.
Podkreślano, że umysł ludzki ma zdolność samoorganizacji i samokontroli,
zatem koncepcje jego ogólnej architektury powinny ten fakt brać pod
uwagę.

Narodziny nowego podejścia do modelowania procesów poznawczych,


zwanego koneksjonizmem, przypisuje się dziełu grupy uczonych z MIT,
pracujących pod kierunkiem McClellanda i Rumelharta (McClelland,
Rumelhart, the PDP Research Group, 1986; Rumelhart, McClelland, the
PDP Research Group, 1986). Mimo wielości i różnorodności stworzonych
do tej pory modeli podejście koneksjonistyczne ma źródło w kilku
podstawowych założeniach (Elman, 1998). Przyjmuje się, że przetwarzanie
informacji dokonuje się dzięki aktywności bardzo licznych, ale niezwykle
prostych jednostek (units). Tworzą one sieć, której węzły – tożsame
z jednostkami – aktywizują się nie jeden po drugim, lecz w tym samym
czasie. Wobec tego koneksjoniści twierdzą, że poznanie jest równoległym
i rozproszonym przetwarzaniem informacji (parallel and distributed
processing, PDP). Uważają, że taki model poznania jest bardziej
wiarygodny biologicznie, ponieważ lepiej symuluje pracę mózgu. Organ
ten składa się z wielkiej liczby komórek nerwowych, które nic nie znaczą
pojedynczo, ale tworząc skomplikowaną sieć powiązań, są w stanie nie
tylko kontrolować funkcjonowanie organizmu, lecz także wykonywać
najbardziej złożone operacje intelektualne. Dążenie do ścisłego
naśladowania pracy mózgu przejawia się m.in. w nazewnictwie: modele
koneksjonistyczne są nazywane sieciami neuropodobnymi (lub
neuronowymi, neural networks).

Sieć neuropodobna składa się z neuronów warstwy wejściowej, warstwy


wyjściowej oraz warstw pośredniczących, zwanych ukrytymi (hidden
layers). Sieć może być ponadto wyposażona w warstwę kontekstową,
zawierającą jednostki komunikujące się wyłącznie z warstwami ukrytymi
i modyfikujące ich działanie. Liczba warstw ukrytych, jak też obecność
warstw kontekstowych decydują o poziomie złożoności sieci.
Przetwarzanie informacji polega na odbiorze danych z otoczenia przez
warstwę wejściową i przekazywaniu ich dalej poprzez warstwy ukryte aż
do „efektorów” sterowanych neuronami warstwy wyjściowej. W prostym
przykładzie, przedstawionym na rycinie 1.4, jednostka i, należąca do
warstwy pośredniej, może odbierać sygnały od pięciu neuronów warstwy
wejściowej, wśród których znajduje się jednostka j. O poziomie
wzbudzenia jednostki i decyduje jednak nie tyle liczba, ile waga połączeń
z neuronami warstwy wejściowej. Waga jest jak gdyby mnożnikiem, który
modyfikuje siłę połączeń między jednostkami sieci. O tym więc, czy
jednostka j z warstwy wejściowej zdoła pobudzić do działania jednostkę i
z warstwy ukrytej, decyduje to, czy jednostka j sama jest aktywna, jak silne
jest jej wzbudzenie, a przede wszystkim – jaka jest waga połączenia ij.
Oczywiście jednostka i pobiera sygnały od innych jednostek warstwy
wejściowej. Jeśli zsumowana wartość zważonych pobudzeń przekroczy
wartość progową, jednostka i się uaktywni, a przez to będzie mogła
przekazywać sygnały innym neuronom, przede wszystkim jednostkom
warstwy wyjściowej. Skuteczność takich przekazów będzie rzecz jasna
zależała od wag odpowiednich połączeń między neuronami. Dodajmy, że
niektóre połączenia między neuronami mogą mieć funkcję hamowania
aktywności neuronów wyższej warstwy. Zdarzają się też w sieciach
połączenia zwrotne, polegające na tym, że neuron pobudza lub hamuje sam
siebie.
RYCINA 1.4. Schemat działania sieci neuropodobnej
W górnej części rysunku widzimy ogólną budowę sieci, w dolnej – działanie jednostki i, należącej
do warstwy ukrytej.
Źródło: opracowanie własne.
Modelowanie za pomocą sieci neuropodobnych tym się różni od „starej,
dobrej sztucznej inteligencji”, że operuje strukturami subsymbolicznymi.
Klasyczny program komputerowy napisany jest w języku symboli, które
coś znaczą, np. odnoszą się do twierdzeń rachunku zdań albo do operacji
przekształcania symboli lub do obiektów fizycznych. Oczywiście komputer
„nie rozumie” symboli, trzeba go więc wyposażyć w interpreter, czyli
system przekładu symboli na zero-jedynkowy język maszynowy.
W każdym razie, dzięki przetwarzaniu symboli, starsze modele sztucznej
inteligencji były w stanie, za pomocą właściwego programu, dowodzić
twierdzeń lub sensownie odpowiadać na określony zestaw pytań. Modele
sieciowe zbudowane są z jednostek, które same w sobie nie znaczą
zupełnie nic, nie mogą być więc uznane za symbole czegokolwiek. Sieć
neuropodobna może czytać symbole, np. komunikaty w języku naturalnym,
ale tylko pod warunkiem, że się tego wcześniej nauczy.

Zdolność sieci do uczenia się jest dla psychologa najbardziej frapującym


aspektem modelowania subsymbolicznego. Nowo utworzona sieć jest
niczym tabula rasa: nic „nie wie” i niczego „nie umie”. Wystarczy jednak
zadać jej dowolne zadanie, np. zastąpienia liter w napisie PSYCHOLOGIA
literami zajmującymi następne miejsce w alfabecie, aby już po kilku
tysiącach prób, zwanych epokami, otrzymać poprawną odpowiedź:
RTZDIPMPHJB. Kilka tysięcy prób to dużo w porównaniu
z możliwościami dorosłego, inteligentnego człowieka, pamiętajmy jednak,
że sieć startuje z poziomu „zera absolutnego”. Ponadto dużą liczbę epok
można skompensować olbrzymią – znów w porównaniu z możliwościami
człowieka – szybkością działania maszyny. Zresztą naukowym celem
takich zabiegów nie jest stworzenie sztucznej inteligencji zdolnej pokonać
człowieka, lecz otrzymanie systemu wiernie symulującego ludzkie
czynności poznawcze; koniec końców zawsze chodzi o lepsze ich
poznanie. Warunkiem wyuczenia się przez sieć określonych sprawności jest
dostarczenie jej informacji zwrotnej. Na przykład przesuwając litery
o jedno miejsce w alfabecie, sieć na początku działa zupełnie chaotycznie,
przez co w większości otrzymuje negatywną informację zwrotną (źle!).
Przypadkiem może wykonać poprawny ruch – wtedy otrzymuje pozytywną
informację zwrotną (dobrze!). To wystarczy, aby sieć wyuczyła się
bezbłędnego przesyłania informacji z wejścia do wyjścia, zgodnie
z wymaganiami postawionego jej zadania. Badacz nie poucza sieci, jak ma
działać, mówi jej tylko, czy wynik jest zgodny z jego oczekiwaniami. Sieć
uczy się sama, wykazując zdolność do samoorganizacji.

Postępując w ten sposób, badacze stworzyli tysiące modeli przetwarzania


informacji. Zdecydowana większość to modele bardzo szczegółowe,
opisujące np. rozpoznawanie liter lub innych wzorców. Sieci neuropodobne
okazały się przydatne zwłaszcza do modelowania procesów związanych
z obróbką danych językowych, a także z nabywaniem języka. Zdolność
sieci do uczenia się wykorzystano w badaniach nad rozwojem poznawczym
(Karmiloff-Smith, 1992). Wykazano też przydatność modelowania za
pomocą sieci neuronowych w badaniach nad deterioracją wybranych
funkcji poznawczych. Badacz może np. nauczyć sieć, aby wytwarzała
sensowne reakcje werbalne w odpowiedzi na zadaną stymulację,
a następnie może taką sieć celowo uszkodzić, usuwając z niej poszczególne
jednostki, a nawet całe warstwy. Zachowanie sieci uszkodzonej symuluje
więc zachowanie pacjenta po wylewie lub operacji neurochirurgicznej.
Istotnym rozwinięciem tych wczesnych badań są próby stworzenia
całościowych modeli umysłu na bazie sieci neuronowych. Mają tu
zastosowanie postępy w dotyczących ich badaniach, które zaowocowały
opracowaniem głębokich sieci neuronowych – wielowarstwowych sieci
zdolnych do przetwarzania informacji w wysoce abstrakcyjny sposób. Te
rozwiązania dały podstawę do stworzenia takich modeli jak SPAUN
(Eliasmith, 2013; Eliasmith i in., 2012) – złożony model ludzkiego umysłu,
którego celem jest symulacja wielu procesów poznawczych
z uwzględnieniem realistycznych założeń na temat ich biologicznej
podstawy. Oczywiście w każdym przypadku modelowania musimy
porównać zachowanie sieci z zachowaniem żywych ludzi, np. pacjentów
neurochirurgicznych. Jeśli stwierdzimy, że sieć zachowuje się
porównywalnie do człowieka (np. generuje ten sam typ błędów), możemy
uznać, że dysponujemy trafnym modelem teoretycznym badanej funkcji
poznawczej. Ten rodzaj postępowania badawczego prowadzi do
gromadzenia wiedzy na temat wybranych czynności poznawczych, na razie
zresztą dość wąsko zdefiniowanych. Niemniej jednak cała filozofia
prowadzenia tych badań skłania do wniosku, że koneksjonizm jest czymś
więcej niż tylko szczegółową metodologią badań kognitywnych –
mianowicie ogólną koncepcją działania umysłu ludzkiego, jak również
wszelkich innych umysłów (zwierzęcych i sztucznych).

1.4. Podsumowanie
Omówiony w tym rozdziale podział na stabilne reprezentacje i dynamiczne
procesy poznawcze określił strukturę całego podręcznika. Część pierwszą
poświęcono różnym rodzajom reprezentacji umysłowych, część drugą –
elementarnym procesom poznawczym (uwaga, kontrola poznawcza,
percepcja, pamięć), a część trzecią – złożonym procesom poznawczym
(myślenie, rozwiązywanie problemów, podejmowanie decyzji, używanie
języka). W kolejnych rozdziałach będziemy się wielokrotnie odwoływać do
niniejszego prologu, przez co treści w nim zawarte nabiorą, być może,
nowego i głębszego sensu. A zarazem rozmaite kwestie szczegółowe,
omawiane w następnych rozdziałach, powinny stać się bardziej zrozumiałe
w wyniku odniesienia ich do podstawowych problemów teoretycznych
podjętych w rozdziale 1.
Część I

Reprezentacje poznawcze
Rozdział 2

Istota i forma reprezentacji


umysłowych

Pojęcie reprezentacji umysłowej


Reprezentacje a procesy poznawcze
Realizm a konstruktywizm
Rodzaje reprezentacji umysłowych
Reprezentacje obrazowe
Wyobraźnia, wyobrażenia i obrazy umysłowe
Teoria reprezentacji obrazowych Kosslyna
Hipoteza funkcjonalnej ekwiwalencji percepcji i wyobraźni
Rotacje mentalne
Skaning mentalny
Krytyka stanowiska obrazowego
Reprezentacje werbalne
Weryfikacja sylogizmów i treści zdań
Teoria podwójnego kodowania
Słowo i obraz – wzajemne relacje
Reprezentacje numeryczne
Pierwotność czy wtórność nietrwałych reprezentacji umysłowych
Hipoteza języka myśli
Teoria pierwotnych reprezentacji w formie zbioru sądów Pylyshyna
Teoria modeli mentalnych Johnsona-Lairda
Stanowisko eklektyczne w sporze o kod reprezentacji umysłowych
Podsumowanie
Reprezentacja poznawcza to umysłowy odpowiednik obiektów – zarówno realnie istniejących, jak
i fikcyjnych lub hipotetycznych. Obiektem reprezentacji może być przedmiot, osoba, kategoria lub
relacja. Reprezentacja poznawcza zastępuje swój obiekt w procesach przetwarzania informacji.
Reprezentacje nietrwałe (wyobrażenia, sądy, modele umysłowe) powstają doraźnie, np. w celu
podjęcia decyzji lub rozwiązania problemu, po czym zanikają.
Reprezentacje trwałe, składające się na struktury wiedzy, powstają i zmieniają się w dłuższym
cyklu czasowym.

Według anegdoty trzech ślepców napotkało na swej drodze słonia. Jeden


dotknął trąby i stwierdził, że trzyma w ręku węża. Drugi zderzył się z nogą
słonia i był przekonany, że natknął się na słup. Trzeci złapał za ogon
i wydawało mu się, że chwycił sznur.

Jeśli zgodzimy się, że słoń jest realnym, obiektywnie istniejącym obiektem,


wypowiedzi trzech ślepców odpowiadają trzem różnym sposobom
umysłowej, poznawczej reprezentacji tego obiektu. Nasze poznawcze
reprezentacje świata przypominają wyobrażenia ślepców na temat słonia.
Nie są zasadniczo błędne – raczej niekompletne, wybiórcze i ściśle
powiązane z osobistym doświadczeniem. Każdy człowiek buduje swój
obraz świata, który zazwyczaj jest zasadniczo różny od obrazu
zbudowanego przez inne osoby o podobnych doświadczeniach
i porównywalnych zdolnościach umysłowych. Psychologia poznawcza
bada, w jaki sposób ludzie przedstawiają sobie w umyśle składniki
obiektywnego świata. Zajmuje się też problemem, jaki format przyjmują
poznawcze reprezentacje rzeczywistości oraz jakie pełnią funkcje.

2.1. Pojęcie reprezentacji umysłowej

2.1.1. Reprezentacje a procesy poznawcze


Zdaniem Zenona Pylyshyna (1973) głównym zadaniem psychologii
poznawczej jest rozwiązanie dwóch problemów. Pierwszy polega na
badaniu istoty i charakteru naszej wiedzy, drugi – na ustaleniu, w jaki
sposób tę wiedzę nabywamy i jak jej używamy. Pierwszy problem
sprowadza się do kwestii, dzięki jakim strukturom świat jest
odzwierciedlony czy reprezentowany w naszym umyśle. Istotą drugiego
problemu jest opisanie i wyjaśnienie przebiegu procesów przetwarzania
informacji. Procesy te z jednej strony polegają na tworzeniu struktur
wiedzy, z drugiej zaś – na przekształceniach i operacjach dokonujących się
na wiedzy wcześniej nabytej. Dzięki procesom nabywania i przekształcania
wiedzy możliwe jest generowanie zachowań adekwatnych do sytuacji,
kontekstu, polecenia lub instrukcji.

Z dwóch problemów, sformułowanych przez Pylyshyna, pierwszy wydaje


się bardziej podstawowy i – z tego właśnie powodu – wymagający
rozważenia najpierw. Charakter i przebieg poszczególnych procesów
przetwarzania informacji mogą bowiem wynikać z charakteru i formy
reprezentacji umysłowych, a więc z tego, na jakim operują materiale. Na
przykład zupełnie inne prawa przebiegu procesów poznawczych
obowiązują, gdy pamięć robocza przechowuje i przekształca materiał
wizualny, a inne, gdy rzecz dotyczy materiału werbalnego (zob. podrozdz.
8.2). Zanim więc szczegółowo omówimy przebieg procesów przetwarzania
informacji, takich jak procesy pamięci, percepcji lub uwagi, zatrzymamy
się nieco dłużej nad problemem, w jaki sposób człowiek przedstawia sobie
w umyśle otaczającą go rzeczywistość.

Reprezentacja rozumiana ogólnie to „rzecz coś oznaczająca, zajmująca


miejsce czegoś, symbolizująca lub coś przedstawiająca” (Reber, 2000, s.
623). Funkcją reprezentacji poznawczych jest więc przedstawienie
w obrębie umysłu wszelkich zdarzeń bodźcowych dostępnych zmysłom.
W zależności od orientacji teoretycznej psychologowie uważają, że
reprezentacje powstają albo w wyniku bezpośredniego odwzorowania
(„odciśnięcia”) bodźca w umyśle, albo w procesie budowania złożonej
konstrukcji umysłowej. Proces tworzenia konstrukcji umysłowej ma
polegać na zakodowaniu danych sensorycznych (zmysłowych)
w specjalnym języku, w wyniku czego zostają one „przetłumaczone” na
dane umysłowe. Pierwsze stanowisko określa się mianem realizmu,
natomiast drugie nosi nazwę konstruktywizmu.

2.1.2. Realizm a konstruktywizm


Historycznie rzecz ujmując, realizm w poglądach na naturę reprezentacji
dominował od starożytności aż do czasów średniowiecznych (Kemp,
1998). Niemniej jednak i w późniejszych okresach rozwoju nauki, aż do
nastania „rewolucji poznawczej”, pogląd ten często uznawano za słuszny.
Przekonanie, że umysłowe reprezentacje obiektów rzeczywistych są
strukturami psychicznymi, zachowującymi formę oraz szczegóły wyglądu
ich realnych pierwowzorów, pochodzi od Platona. Metafora umysłu jako
zbioru „pieczęci odciśniętych w wosku” została później przejęta przez
Arystotelesa i dopiero William Ockham wskazał na możliwość istnienia
reprezentacji umysłowych innego rodzaju, niekoniecznie zachowujących
sensoryczną formę rzeczy. Ockham (za: Kemp, 1998) był wprawdzie
zdania, iż pierwsze spostrzeżenie fizycznego kształtu przedmiotu jest
niezbędne do utworzenia jego reprezentacji umysłowej, jednak sama
reprezentacja nie musi przejawiać właściwości obiektu, do którego się
odnosi. Reprezentacja może być bowiem przywołana również wtedy, gdy
obiekt nie jest dany procesom percepcji, a więc gdy pozostaje tylko
wyobrażony, nie zaś spostrzeżony. Nic się wtedy nie „odciska” w umyśle,
a mimo to powstaje poznawcze odzwierciedlenie wyobrażonego obiektu.
Współcześnie psychologowie poznawczy stoją raczej na stanowisku
konstruktywistycznym (Bruner, 1978). Wynika to z olbrzymiej i ciągle
narastającej liczby danych empirycznych pokazujących, że ten sam obiekt
może być umysłowo reprezentowany na wiele sposobów, w zależności od
nastawienia, kontekstu, wcześniej nabytej wiedzy, oczekiwania, stanu
motywacyjnego, nastroju lub emocji, wreszcie trwałych cech intelektu
i osobowości. Jeśli to samo może być widziane, rozumiane, zapamiętywane
i interpretowane na różne sposoby, to znaczy, że obiekty nie „odciskają się”
w żadnym umysłowym „wosku”; przeciwnie, każdy z nas samodzielnie
i aktywnie konstruuje treść swoich przedstawień umysłowych, choć może
nie zdawać sobie sprawy z samego faktu istnienia takiej aktywności.
Współczesna psychologia poznawcza, wraz z naukami pokrewnymi, nie
może istnieć bez pojęcia reprezentacji umysłowych, choć nie brakuje
wyznawców poglądu, że te w ogóle nie biorą udziału w procesach
przetwarzania informacji (Gibson, 1979; zob. podrozdz. 7.4). Autorzy ci
argumentują, że informacja o obiekcie zawarta jest w nim samym, a zmysły
człowieka lub zwierzęcia są ewolucyjnie dostrojone do bezpośredniego
pobierania tych danych.

Wydaje się, że spór o istnienie reprezentacji poznawczych toczy się na


dwóch płaszczyznach: teoretycznej i metodologicznej. Na płaszczyźnie
teoretycznej rozważa się kwestię, czy rzeczywiście istnieją jakieś
poznawcze odpowiedniki świata w umyśle. Natomiast na płaszczyźnie
metodologicznej chodzi o pytanie, czy pojęcie reprezentacji poznawczej
jest niezbędne do prawidłowego opisu i wyjaśnienia funkcjonowania
umysłu. Ktoś może być przekonany, że reprezentacje realnie istnieją, ale
kierując się zasadą, aby nie mnożyć bytów ponad konieczną potrzebę,
próbuje w uprawianiu psychologii obejść się bez tego terminu. Ktoś inny
może wątpić w realne istnienie reprezentacji poznawczych, ale posługuje
się tym konstruktem, budując teoretyczne modele badanych zjawisk.
Zresztą spór o istnienie reprezentacji może mieć bardzo proste
rozstrzygnięcie, jeśli się uzna, że niektóre czynności poznawcze wymagają
przedstawień umysłowych, a inne nie. Zgromadzono np. wiele danych
sugerujących, że niektóre procesy spostrzegania mogą polegać na
bezpośrednim kontakcie umysłu z obiektem (Gibson, 1979). Dotyczy to
w szczególności tzw. artefaktów, czyli przedmiotów wytworzonych przez
człowieka w celu pełnienia pewnych funkcji (np. narzędzi). Mają one
zakodowane informacje na temat przeznaczenia i sposobu użycia, nazwane
przez Jamesa Gibsona (tamże) afordancjami1 (affordances). Nie zmienia to
faktu, że inne przypadki percepcji, występujące w sytuacjach bardziej
złożonych lub wieloznacznych, bez żadnej wątpliwości dowodzą istnienia
indywidualnych, aktywnie i samodzielnie skonstruowanych przedstawień
umysłowych.

Jednakże samo uznanie istnienia reprezentacji, wraz z uznaniem


metodologicznej niezbędności tego konstruktu teoretycznego, nie oznacza
jeszcze zgody co do sposobu ich istnienia i funkcjonowania. Toczący się na
gruncie psychologii poznawczej spór o reprezentacje umysłowe sprowadza
się więc do dwóch kwestii: sposobu kodowania danych zmysłowych
(języka reprezentacji) oraz sposobu organizacji danych umysłowych
(struktury reprezentacji). Ich rozwiązanie zależy od bardziej podstawowego
pytania: W jakim stopniu umysłowe reprezentacje otaczających nas
obiektów mogą odbiegać swoją formą od sensorycznych właściwości
tychże?

2.1.3. Rodzaje reprezentacji umysłowych


W świetle poszczególnych stanowisk teoretycznych reprezentacje
umysłowe mogą przyjmować przeróżne formy. Na przykład Allan Paivio
(1986) zalicza do reprezentacji poznawczych m.in. obrazy umysłowe, ślady
pamięciowe, słowa (elementy języka), sądy, pojęcia (reprezentacje
pojęciowe: prototypy, listy cech) oraz schematy (skrypty, ramy, procedury).
Arthur Reber (2000) za najważniejsze rodzaje reprezentacji umysłowych
uważa obrazy umysłowe, słowa (elementy języka) i idee (abstrakcje).
Wreszcie Michael Eysenck i Mark Keane (2015) w najbardziej chyba
przejrzystym, ale też najbardziej restrykcyjnym podziale reprezentacji
umysłowych, wyróżniają reprezentacje analogowe (obrazy umysłowe,
modele mentalne) oraz reprezentacje w formie zbioru sądów czy twierdzeń
(propositions). Obrazy umysłowe są rodzajem reprezentacji umysłowej
najbardziej zbliżonym do rzeczywistej formy przedstawianych obiektów,
natomiast abstrakcyjne pojęcia są od tej formy bardzo odległe. Na przykład
wyobrażenie domu nosi pewne cechy prawdziwego domu nie tylko ze
względu na obecność typowych szczegółów (takich jak okna czy dach), ale
przede wszystkim odpowiedniość relacji między nimi (np. dach jest u góry
nie tylko w prawdziwym domu, lecz także w jego wyobrażeniu). Natomiast
pojęcie „instytucja finansowa”, choć zawiera istotne elementy obiektu, nie
zachowuje wobec niego żadnej odpowiedniości fizycznej. Pojęcie
abstrakcyjne może być pełne, ścisłe i bogate w treść, ale w niczym nie
przypomina reprezentowanego obiektu, który zresztą w takim wypadku nie
jest obiektem jednostkowym, lecz szeroką i ogólną kategorią nadrzędną.
Niektóre reprezentacje pojęciowe nie mają w ogóle konkretnych,
sensorycznych odpowiedników w świecie rzeczywistym (Paivio, 1986).

Ze względu na różnice w formie odzwierciedlenia rzeczywistości


reprezentacje umysłowe różnią się także trwałością. Na przykład w toku
rozwiązywania problemu w umyśle tworzone są struktury przedtwórcze
(Smith, Ward, Finke, 1995) czy struktury próbne (Nęcka, 1987), którymi
mogą być np. obrazy umysłowe lub utworzone na próbę pojęcia. Są to
struktury ułatwiające twórcze rozwiązanie problemu dzięki przybliżeniu
nas do idealnego, na razie nieosiągalnego stanu docelowego (Newell,
Simon, 1972). Te nietrwałe reprezentacje, tworzone ad hoc w procesie
rozwiązywania problemu, mogą zostać natychmiast zastąpione innymi
reprezentacjami, bardziej adekwatnymi lub lepiej przybliżającymi nas do
celu, czyli rozwiązania. Natomiast reprezentacja pojęciowa matki z reguły
należy do najmniej podatnych na jakiekolwiek zmiany. Kształtuje się
bardzo wcześnie w życiu człowieka i zazwyczaj odpowiada pierwszemu
napotkanemu egzemplarzowi tej kategorii (Reed, 1972). Taką formę
reprezentacji można uznać za względnie trwałą i w niewielkim stopniu
podatną na modyfikacje.

W tym rozdziale rozważymy problem, w jakim języku kodowania mogą


być reprezentowane dane zmysłowe odbierane przez jednostkę. Omówimy
koncepcje reprezentacji w formie konkretnych obrazów umysłowych oraz
słów (elementów języka), jak również w formie bardziej abstrakcyjnych
sądów lub modeli umysłowych. Przedmiotem zainteresowania będą zatem
nietrwałe reprezentacje poznawcze, powstające w umyśle, np. w procesie
rozwiązywania problemów. Rozważymy również kwestię, czy konkretne
reprezentacje analogowe są wtórne wobec trwałych, amodalnych zbiorów
twierdzeń o relacjach między obiektami. Problem struktury
i funkcjonowania trwałych reprezentacji umysłowych, takich jak pojęcia,
schematy, skrypty i ramy, będzie rozpatrywany w rozdziale 3.

2.2. Reprezentacje obrazowe


2.2.1. Wyobraźnia, wyobrażenia i obrazy umysłowe
Często zamiast pojęcia „reprezentacja umysłowa” stosowany bywa
zamiennie termin „wyobrażenie”, choć wyobrażenie to zaledwie jeden
z wielu typów reprezentacji. Wyobrażeniem nazywamy nietrwałą strukturę
poznawczą, nieco przypominającą spostrzeżenie, choć w przeciwieństwie
do percepcji występującą pod nieobecność wyobrażonego obiektu.
Wyobraźnia jest zdolnością umysłu ludzkiego do tworzenia wyobrażeń,
zdolnością ściśle związaną ze spostrzeganiem. Nie znaczy to, że
wyobrażenie musi koniecznie przyjmować formę obrazową; na temat
formy reprezentacji wyobrażeniowych toczy się w psychologii ostry spór
teoretyczny. W każdym razie wyobrażeniem nazywamy umysłowe
przedstawienie przedmiotu, który przestał działać na nasze zmysły, co
podkreślają Ulric Neisser (1967), Tomasz Maruszewski (1996) i wielu
innych autorów. Według Neissera (1976, s. 245) „człowiek tworzy
wyobrażenia (is imaging), kiedy wykorzystuje te same procesy
przetwarzania informacji, które biorą udział w postrzeganiu, ale w sytuacji,
gdy bodźce normalnie wzbudzające takie spostrzeżenie nie są obecne”.
W innym miejscu autor ten traktuje jednak wyobraźnię jako specyficzny
stan uwagi, aby podkreślić, że proces wyobrażania sobie rzeczywistych
obiektów jest związany z aktywną, „odgórną” selekcją informacji (zob.
podrozdz. 5.2.1), w przeciwieństwie do pasywnej „oddolnej” ich percepcji
(zob. podrozdz. 7.2). Wypada jednak zauważyć, że procesy spostrzegania
są w dużej mierze również „odgórne”, tj. zależne od wiedzy i aktywności
podmiotu.

Żeby uniknąć nieporozumień i pułapek terminologicznych, ustalmy, co


następuje. Wyobrażenie jest jedną z postaci poznawczej reprezentacji
obiektu w umyśle. Charakteryzuje się brakiem trwałości oraz ścisłym
powiązaniem z percepcją. Wyobraźnia to zdolność umysłu do
generowania takich właśnie wyobrażeniowych reprezentacji świata.
Tradycyjnie wyróżniano wyobraźnię odtwórczą i twórczą. Pierwsza miała
być odpowiedzialna za tworzenie wyobrażeń obiektów wcześniej
spostrzeganych i dobrze znanych, np. wyobrażenia konia, którego w danym
momencie nie widzimy. Druga miała tworzyć konstrukcje fantazyjne lub
„niemożliwe”, takie jak wyobrażenie Pegaza (skrzydlaty koń) lub syreny
(pół ryba, pół kobieta). Obecnie oba rodzaje konstrukcji umysłowych
uznaje się za twory tej samej zdolności do generowania wyobrażeń,
natomiast wyobraźnią twórczą nazywa się inną zdolność, umożliwiającą
tworzenie nie tylko nowych wyobrażeń, lecz także nowych pojęć i innych
reprezentacji poznawczych. Trzecie ważne pojęcie to obraz umysłowy.
Tym terminem określamy szczególną formę poznawczej reprezentacji
świata w umyśle, cechującą się analogowym charakterem i ścisłą
odpowiedniością reprezentacji w stosunku do obiektu. Na przykład obraz
umysłowy konia to jak gdyby wewnętrzna „fotografia” tego obiektu
w umyśle. Wielu badaczy odrzuca twierdzenie, jakoby każdy z nas tworzył
w umyśle jakieś „fotografie”. Istnienie wyobrażeń tłumaczy się wówczas
inaczej, np. tym, że umysł generuje wyobrażenie z głębszych struktur
wiedzy, zapisanych nie w postaci obrazów, lecz w języku pojęć lub
twierdzeń; będzie o tym mowa w dalszych częściach rozdziału. Obraz
umysłowy jest więc konstruktem teoretycznym, używanym w celu
wyjaśnienia, jak jest możliwe tworzenie przez umysł wyobrażeniowych
reprezentacji świata, natomiast wyobrażenie to jeden z rodzajów takiej
reprezentacji, którego istnienie nie jest w zasadzie przedmiotem sporu
teoretycznego.

Termin „wyobrażenie” wprowadził do języka nauki Arystoteles, natomiast


pierwsze psychologiczne badania nad wyobrażeniami podjął w XIX w.
Francis Galton (1883). Poprosił on osoby badane o wyobrażenie sobie stołu
zastawionego śniadaniem, a następnie o wypełnienie kwestionariusza,
którego wyniki pozwalały stwierdzić, czy wyobrażenia poszczególnych
osób różnią się jakościowo i ilościowo. Okazało się, że reprezentacje
umysłowe przywoływane przez badanych były bardzo zróżnicowane.
Wystąpiły także wyraźne rozbieżności między wyobrażeniami tej samej
osoby testowanej w różnym czasie. Przewidywał to już zresztą wcześniej
Ockham (za: Kemp, 1998), podważając tezę o dokładnym i zawsze
identycznym odwzorowaniu obiektu (tu: śniadania) w formie reprezentacji
umysłowej (tu: wyobrażenia). Co więcej, część osób badanych albo nie
potrafiła sobie wyobrazić niczego, albo ich wyobrażenia były fantazyjne
i wyraźnie odbiegały od własnego, codziennego doświadczenia. Wyniki
uzyskane przez Galtona zdecydowanie podważyły więc stanowisko
realizmu w sporze o reprezentacje umysłowe.

2.2.2. Teoria reprezentacji obrazowych Kosslyna


Według Stephena Kosslyna (Kosslyn, 1975, 1981, 1983; Kosslyn,
Thompson, Ganis, 2006) wyobrażenia składają się z dwóch komponentów:
powierzchniowego (surface) i głębokiego (deep). Składnik
powierzchniowy zawiera to, co jest dostępne w doświadczeniu
wewnętrznym, natomiast składnik głęboki obejmuje to, co jest zapisane
w pamięci długotrwałej. Powierzchniowe elementy wyobrażenia powstają
w wyniku działania elementów głębokich. Świadome i nietrwałe
doświadczenie wyobrażenia dotyczy jedynie komponentu
powierzchniowego, właściwe wyobrażenie zaś ma charakter trwale
przechowywanego, ale niedostępnego świadomemu doświadczeniu obrazu.
Obraz ten koduje informację w sposób przestrzenny i analogowy.
Wszystkie obiekty składające się na konkretne wyobrażenie mają więc
swoją wielkość i znajdują się w pewnym położeniu oraz w pewnej
odległości względem innych obiektów. Zarówno na poszczególnych
elementach wyobrażenia (obiektach), jak i na całym wyobrażeniu można
dokonać takich samych operacji, jakich dokonuje się na prawdziwych
obrazach. Dotyczy to np. operacji przeglądania (inspekcji obrazu),
powiększania czy rotowania. Te właściwości przestrzenno-operacyjne są
dane i realizowane bezpośrednio w wyobrażeniu i nie mają charakteru
symbolicznego. W sposób symboliczny może być natomiast przedstawiana
głęboka reprezentacja umysłowa, ale z prac Kosslyna niewiele można
wyczytać na temat jej formy. Problem głębokich reprezentacji
umysłowych, za pomocą których tworzą się odpowiadające im
powierzchniowe obrazy mentalne, zostanie omówiony w rozdziale 3.

Rozważania Kosslyna dotyczące powierzchniowego komponentu


wyobrażenia prowadzą nas w samo centrum sporu o naturę wyobrażeń.
Część badaczy (Cooper, Shepard, 1973; Kosslyn, 1981; Paivio, 1986)
argumentuje, że wyobrażenia wzrokowe są kodowane w postaci
reprezentacji mających zarówno własności przestrzenne, jak i właściwości
specyficzne dla poszczególnych modalności zmysłowych. Na przykład
wyobrażenie konia zawiera relacje przestrzenne identyczne jak
w przypadku prawdziwego konia: grzywa jest na łbie, a nie przy ogonie itd.
Ponadto, wyobrażając sobie konia, odtwarzamy część doznań
sensorycznych związanych z prawdziwym koniem; chodzi o zmysł wzroku,
słuchu (np. tętent kopyt, rżenie), powonienia itd. Pogląd ten przyjął się
w literaturze pod nazwą stanowiska obrazowego, w przeciwieństwie do
stanowiska nazywanego twierdzeniowym (propozycjonalnym). Zwolennicy
stanowiska propozycjonalnego (np. Anderson, 1997; Pylyshyn, 1973)
wyrażają przekonanie, że dane zmysłowe, podobnie zresztą jak informacje
werbalne, są kodowane w postaci abstrakcyjnych zbiorów twierdzeń,
inaczej – sądów. Ich zdaniem istnienie kodu w formie abstrakcyjnego
zbioru sądów pozwala wyjaśnić, jak to możliwe, że ludzie potrafią
opisywać obrazy słowami bądź tworzyć obrazy w celu ilustrowania treści
słownych (Pylyshyn, 1973). Zwolennicy stanowiska obrazowego uważają
natomiast, że informacjom wizualnym i werbalnym przysługują odrębne
kody (Paivio, 1976).

Oczywiście, z faktu istnienia dwóch wyszczególnionych stanowisk nie


wynika, że ktokolwiek kwestionuje istnienie fenomenu, jakim jest
wyobraźnia wzrokowa. W szczególności nikt nie wątpi, że ludzie
subiektywnie doświadczają wyobrażeń wzrokowych, słuchowych,
dotykowych, smakowych, węchowych lub dotyczących zmysłu
równowagi. Wątpliwości dotyczą jedynie tego, na ile fenomenologiczne
doświadczenie wyobrażania sobie obiektów odzwierciedla prawdziwą
naturę wyobrażeń. Zdaniem propozycjonalistów zawiera się ona
w abstrakcyjnym zapisie w postaci sądów (np. dach jest zielony, na lewo od
drzewa znajduje się kamień). Natomiast zdaniem przedstawicieli
stanowiska obrazowego prawdziwa natura wyobrażeń sprowadza się do
tego, że są one zapisane w postaci analogowych obrazów umysłowych
o dużym stopniu przestrzennej odpowiedniości w stosunku do „oryginału”.

2.2.3. Hipoteza funkcjonalnej ekwiwalencji percepcji


i wyobraźni
Istnieje wiele danych świadczących o tym, że wyobrażenia rzeczywiście
mogą mieć formę obrazową oraz że wyobraźnia i percepcja prowadzą do
podobnych skutków poznawczych. Dane te pochodzą m.in. z badań,
w których uczestnicy mogli wykonywać to samo zadanie w dwóch
warunkach eksperymentalnych. W pierwszym osoby badane mogły
formułować sądy o obiekcie, opierając się na spostrzeganiu (zazwyczaj
percepcji wzrokowej), a więc na danych zmysłowych, w drugim zaś –
jedynie na swoich wyobrażeniach, a więc na poznawczych reprezentacjach
obiektu. Postępując zgodnie z tą procedurą, badacze starali się rozstrzygnąć
spór o naturę wyobrażeń. Argumentów na rzecz tezy o funkcjonalnej
ekwiwalencji wyobraźni i percepcji dostarczają badania prowadzone
zwłaszcza przez Sheparda i jego współpracowników.

Roger Shepard i Susan Chipman (1970) wybrali z mapy Ameryki


Północnej 15 stanów USA. Niektóre były do siebie podobne pod względem
kształtu i powierzchni, inne zdecydowanie różniły się między sobą.
Następnie badacze poprosili uczestników o ocenę podobieństwa pod
względem kształtu i powierzchni 105 par wybranych regionów. Osoby
badane w pierwszym warunku mogły przez cały czas korzystać z mapy.
W warunku drugim pytania zadawano dopiero, gdy mapę usunięto już z ich
pola widzenia. Zatem w pierwszym warunku badani mogli korzystać
z percepcji, podczas gdy w warunku drugim umożliwiono im korzystanie
tylko z wyobrażeń. Okazało się, że poprawność w warunku percepcyjnym
była wysoko i pozytywnie skorelowana z poprawnością w warunku
wyobrażeniowym. Tak więc osoby dobrze korzystające z możliwości, jakie
daje percepcja, skutecznie radzą sobie, gdy mogą posłużyć się tylko
wyobraźnią.

W kolejnym eksperymencie na wstępie poproszono uczestników o ocenę


podobieństwa cyfr arabskich, umieszczonych na tablicy w zasięgu wzroku
(Shepard, 1975). Następnie tablicę usunięto i polecono osobom badanym
wyobrazić sobie cyfry i ponownie określić stopień ich podobieństwa.
Wreszcie poproszono biorących udział w badaniu o przedstawienie sobie
w umyśle każdej z tych cyfr w postaci odpowiedniej liczby kropek, co
wymagało dokonania transformacji umysłowej. Na przykład cyfrę 3
należało przekształcić w trzy kropki, a cyfrę 8 – w osiem kropek. Shepard
stwierdził, że choć przed transformacją cyfry 3 i 8 były przez uczestników
eksperymentu często oceniane jako podobne (zarówno w warunku
spostrzeżeniowym, jak i wyobrażeniowym), to po dokonaniu wymaganej
przez niego transformacji cyfra 3 (reprezentowana przez trzy kropki)
i cyfra 8 (reprezentowana przez osiem kropek) były spostrzegane jako
różne. Po transformacji podobne wydawały się natomiast cyfry 4 i 6,
a także cyfry 8 i 6, ze względu na podobieństwo graficzne ich
przedstawienia w postaci zbioru kropek ulokowanych w dwóch rzędach.
Wyniki tych badań dostarczają bardzo silnych argumentów na rzecz tezy
o funkcjonalnej ekwiwalencji spostrzegania i wyobrażania.

Według Kosslyna (1981) wyniki opisanych wcześniej badań potwierdzają


słuszność jego koncepcji. Autor ten argumentuje, że jeśli w rozwiązywaniu
zadań percepcja (dane zmysłowe) i wyobraźnia (dane umysłowe) prowadzą
do podobnych wyników i podobnych błędów, to procesy te są
funkcjonalnie ekwiwalentne. A skoro tak, to – być może – również mają
podobną formę organizacji i zapisu w umyśle. Pierwszy pogląd jest
centralnym elementem funkcjonalnych teorii wyobraźni (zob. np. Cooper,
Shepard, 1973; przegląd: Finke, 1985), natomiast drugi – koncepcji
strukturalnych (zob. np. Kosslyn, 1981; przegląd: Finke, 1985). Przejście
od empirycznie potwierdzonych tez teorii funkcjonalnych do wysoce
hipotetycznych stwierdzeń teorii strukturalnych należy jednak przyjmować
bardzo ostrożnie, podobnie jak inne twierdzenia psychologiczne, których
podstawą są wyjaśnienia funkcjonalne (Edelman, 1998). Sukces
egzaminacyjny można osiągnąć albo w wyniku samodzielnego uczenia się,
albo ściągania od kolegi. W obu przypadkach rezultat testu jest taki sam,
ale sposób jego osiągnięcia – zupełnie inny. Różne argumenty empiryczne,
które mogą świadczyć na korzyść koncepcji Kosslyna, pochodzą z badań
w zakresie dwóch odmiennych paradygmatów badawczych: rotacji
mentalnych (paradygmat 2.1) oraz skaningu umysłowego (paradygmat 2.2).
Za autora pierwszego z nich uznaje się Sheparda, pomysłodawcą drugiego
jest zaś sam Kosslyn.

2.2.4. Rotacje mentalne


Lynn Cooper i Roger Shepard (1973) prezentowali osobom badanym na
ekranie monitora litery (G, J lub R) albo cyfry (2, 5 lub 7) nachylone pod
różnymi kątami względem ich naturalnego położenia (od 0o do 300o; co
45o lub co 60o). Dodatkowo symbole te mogły być prezentowane
prawidłowo albo w odbiciu lustrzanym. Zadaniem osób badanych było
stwierdzenie, czy symbol jest wyświetlony prawidłowo czy w lustrzanym
odbiciu. Wyniki tego eksperymentu potwierdziły hipotezę funkcjonalnej
ekwiwalencji percepcji i wyobraźni – badani przekształcali obiekty
w wyobraźni tak samo, jak by to robili, gdyby pozwolono im korzystać ze
spostrzegania lub czynności manualnych (Shepard, 1984). Czas decyzji
okazał się bowiem rosnącą funkcją kąta rotacji, przyjmującego wartość od
0o do 180o. Dodatkowym argumentem było także stwierdzenie, że badani
dokonywali mentalnych rotacji symboli zawsze w kierunku
umożliwiającym jak najszybsze przekształcenie ich do pozycji naturalnej.
W ten sposób litera intencjonalnie obrócona przez badacza o 300o była
mentalnie rotowana przez badanych nie o 300o w kierunku zgodnym
z ruchem wskazówek zegara, ale o 60o w kierunku przeciwnym. Wykazano
to na podstawie porównania czasów decyzji – w przypadku rotacji o 60o
i 300o czasy te były porównywalne. Jeśli jednak osoby badane uprzedzono,
że figura, którą za moment zobaczą, jest zrotowana o dany kąt, to
obserwowana zależność zanikała, a czas decyzji był stały (ok. 400 ms)
i niezależny od kąta rotacji (paradygmat 2.1). Hipoteza funkcjonalnej
ekwiwalencji percepcji i wyobraźni uzyskała również wsparcie
w badaniach z użyciem technik neuroobrazowania, które dodatkowo
przyniosły wiedzę na temat mózgowej lokalizacji tych procesów (np.
Cohen i in., 1996). W badaniach tych uzyskano efekty obserwowane
wcześniej w badaniach behawioralnych w paradygmacie rotacji mentalnej,
a przy tym wykazano, że za rotacje mentalne odpowiedzialna jest kora
sensoryczna w płacie ciemieniowym (Zacks, 2008).

Paradygmat 2.1

Rotacja mentalna

Paradygmat rotacji mentalnej polega na prezentowaniu osobie badanej


dwóch bodźców, np. liter, cyfr lub figur geometrycznych, wzajemnie
zrotowanych pod pewnym kątem. W każdej parze bodźce mogą być tylko
zrotowane albo zrotowane i dodatkowo przekształcone, np. na zasadzie
lustrzanego odbicia. Zadaniem uczestnika eksperymentu jest udzielenie
odpowiedzi na pytanie, czy dwa prezentowane bodźce są identyczne. Jeśli
są tylko zrotowane, osoba badana ma odpowiedzieć TAK (identyczne), ale
jeśli bodźce są dodatkowo przekształcone, prawidłowa odpowiedź brzmi
NIE (różne). Zmienną niezależną jest kąt rotacji, a zmienną zależną – czas
udzielania odpowiedzi.

W niektórych eksperymentach zamiast pary bodźców prezentuje się


w każdej próbie tylko jeden element, np. literę lub cyfrę, oczywiście
odpowiednio zrotowaną lub zrotowaną i dodatkowo zniekształconą. Do tej
pory w badaniach wykorzystywano jako bodźce litery i cyfry (Cooper,
Shepard, 1973) oraz złożone figury dwu- i trzywymiarowe (Shepard,
Metzler, 1971). Zadaniem osób badanych była albo identyfikacja symboli
(np. Corballis, Zbrodoff, Shetzer i Butler, 1978), albo porównanie symboli
parami (np. Jolicœur, Regehr, Smith i Smith, 1985), albo podjęcie decyzji,
czy symbol jest napisany prawidłowo czy może w odbiciu lustrzanym
(Koriat, Norman, Kimchi, 1991). Rotacje dotyczyły płaszczyzny (np.
Cooper, Shepard, 1973) lub przestrzeni (np. Bauer, Jolicœur, 1996).

W niemal wszystkich badaniach stwierdzono efekt zależności czasu


podejmowania decyzji od wielkości kąta rotacji. Zależność ta ma charakter
funkcji silnie rosnącej w przedziale kątowym od 0° do 180°, a funkcji silnie
malejącej w przedziale kątowym od 180° do 360°. Efekt rotacji mentalnych
znika na skutek uprzedzenia osób badanych o wielkości kąta rotacji.
Podstawowe prawo rotacji mentalnej oraz typowe bodźce wykorzystane
w eksperymencie przedstawiono na rycinie 2.1.
RYCINA 2.1. Wyniki eksperymentu Coopera i Sheparda
Źródło: opracowanie własne na podstawie Cooper, Shepard, 1973.

Paradygmat rotacji mentalnej był powszechnie wykorzystywany


w badaniach nad wyobraźnią, wyobrażeniami i zdolnościami
przestrzennymi. Nadaje się do badania różnic indywidualnych w zakresie
wyobraźni przestrzennej, zwłaszcza w wersji, w której trzeba porównywać
złożone figury trójwymiarowe w rzucie na płaszczyznę. Eksperyment tego
rodzaju może też służyć jako test do badania indywidualnego tempa rotacji,
na podstawie którego ocenia się ogólne tempo przetwarzania informacji
przez człowieka. Wskaźnikiem tempa umysłowego jest wówczas stromizna
krzywej, przedstawiona na rycinie 2.1. U osób cechujących się szybkim
tempem przetwarzania informacji jest ona mała, natomiast u osób wolniej
przetwarzających informacje – duża.

Podobne zależności ujawniono wtedy, gdy w eksperymentach zastosowano


bodźce trójwymiarowe. W badaniu Rogera Sheparda i Jacqueline Metzler
(1971) uczestnikom prezentowano na monitorze komputera dwie rotowane
względem siebie figury trójwymiarowe (a właściwie ich rzuty na
płaszczyznę). Następnie proszono o decyzję, czy prezentowane obiekty są
identyczne, a jedynie zrotowane względem siebie, czy różne, uzyskane
w wyniku lustrzanego odbicia jednej z nich. Aby rozwiązać to zadanie,
osoby badane musiały ponownie dokonać „w umyśle” rotacji
prezentowanych im figur, tym razem wykonując przekształcenia
w wyobrażonej przestrzeni. Uzyskano wyniki podobne do wcześniejszych
– czas decyzji wzrastał wraz z wielkością kąta rotacji. Płaszczyzna rotacji
nie miała natomiast żadnego znaczenia dla wielkości stwierdzanego efektu
rotacji – czasy decyzji w przypadku rotacji w płaszczyźnie rysunku oraz
w płaszczyźnie do niej prostopadłej były porównywalne przy analogicznej
wielkości koniecznego kąta rotacji mentalnej. Wyniki uzyskane przez
Sheparda i Metzler potwierdził Pierre Jolicœur wraz z współpracownikami
(Jolicœur, Regehr, Smith i Smith, 1985; Bauer, Jolicœur, 1996). Badacze ci
porównali ponadto kształt funkcji zależności czasu decyzji od wielkości
kąta rotacji figur dwu- i trójwymiarowych (ryc. 2.2). Funkcja ta okazała się
znacznie silniej rosnąca w przypadku rotacji figur trójwymiarowych niż
figur dwuwymiarowych.

Interesujące wyniki dotyczące efektu rotacji mentalnej uzyskali także


Michael Corballis i współpracownicy (1978). W swoich trzech
eksperymentach wykorzystali oni ten sam zestaw symboli, którego
wcześniej użyli Cooper i Shepard (1973). Zamiast jednak prosić
uczestników o stwierdzenie, czy litery lub cyfry zostały „napisane”
prawidłowo czy w lustrzanym odbiciu, wymagali identyfikacji
prezentowanych obiektów, czyli po prostu nazywania bodźców. Okazało
się, że identyfikacja symboli prezentowanych w lustrzanym odbiciu
zabierała badanym więcej czasu niż identyfikacja symboli napisanych
prawidłowo, i to przy każdej wielkości kąta rotacji obiektów. Różnica ta
wynosiła dla każdego kąta rotacji 25–30 ms i była względnie stała, ale
dopiero od drugiego bloku zadań, gdy osoby badane nabyły nieco wprawy
w wykonywaniu testu rotacji. Corballis i współpracownicy (1978)
stwierdzili, że w przypadku identyfikacji obiektów prezentowanych
w lustrzanym odbiciu badani dokonują dodatkowego przekształcenia,
polegającego na lustrzanym odbijaniu obiektu, tak by powrócił on w ich
wyobraźni do naturalnej formy. Dzieje się to przed właściwą rotacją kątową
lub po jej wykonaniu. Badacze ci potwierdzili również wyniki uzyskane
przez Coopera i Sheparda (1973) – czas identyfikacji obiektów okazał się
bowiem liniową funkcją kąta rotacji, przyjmującego wartości od 0o do
180o, mentalna rotacja zaś dokonywała się zawsze w kierunku, który
zapewniał pokonanie mniejszej odległości kątowej z dwóch teoretycznie
możliwych wartości.

Można zatem wskazać na dwa argumenty przemawiające za tym, że


nietrwałe reprezentacje wyobrażeniowe mają charakter obrazowy.
Głównym argumentem pozostaje wielokrotnie stwierdzana liniowa
zależność między kątem rotacji obiektu a czasem potrzebnym na podjęcie
w odniesieniu do niego dowolnej decyzji. Warto podkreślić, że ten liniowy
związek wykazywano niezależnie od typu zadania (identyfikacja,
porównanie, decyzja co do pisowni symbolu), typu rotowanego symbolu
(litery, cyfry, symbole wymyślone), jego wymiaru (bodźce dwu- lub
trójwymiarowe), a także formy rotacji (płaszczyzna, przestrzeń).
Zwolennicy stanowiska obrazowego w sporze o naturę reprezentacji
umysłowych interpretują te fakty w ten sposób, że ludzie dokonują
w swojej wyobraźni dokładnie takich samych przekształceń, jakich
dokonywaliby, gdyby pozwolono im kontrolować rotację obiektów za
pomocą zmysłu wzroku albo po prostu manipulować prawdziwymi
obiektami w przestrzeni. Świadczą o tym również wyniki badań, w których
uczestnicy pracowali w dwóch różnych warunkach: percepcji i wyobraźni,
a rezultaty uzyskane w obu niewiele się różniły. Jest to drugi argument na
rzecz tezy, że wyobrażeniowe reprezentacje obiektów mają charakter
obrazów, a przekształcenia, jakim podlegają, niczym się nie różnią od
przekształceń, jakim można poddać obiekty realne lub symulowane
komputerowo.
RYCINA 2.2. Dwu- i trójwymiarowe figury używane w badaniach nad rotacją mentalną
Górna część pokazuje figury o rosnącym stopniu złożoności (dwa, trzy lub cztery zagięcia,
odpowiednio w kolumnach 1, 2 i 3). Dolna część pokazuje dwie identyczne pary identycznych
bodźców (wymagana reakcja: TAKIE SAME). Bodźce te są dwuwymiarowe (rząd górny) lub
trójwymiarowe (rząd dolny), zrotowane względem siebie o 60º.
Źródło: Bauer, Jolicœur, 1996.

2.2.5. Skaning mentalny


W jednych z pierwszych eksperymentów nad obrazami umysłowymi
Kosslyn (1975) podał uczestnikom sześć różnych wymiarów prostokąta,
prosząc ich, aby wyobrazili sobie prostokąt o zadanej wielkości,
a następnie – aby w obrębie wyobrażonego prostokąta dodatkowo
wyobrazili sobie zwierzę, np. tygrysa. Wreszcie zadawał pytania dotyczące
cech wyobrażanego obiektu, przykładowo: „Czy tygrys jest cętkowany?”.
Czas udzielenia prawidłowej odpowiedzi okazał się malejącą funkcją
wielkości wyobrażonego prostokąta, a tym samym – wielkości
wyobrażonego zwierzęcia. Im większy był wyobrażony obiekt, tym mniej
czasu trzeba było na udzielenie odpowiedzi. Wielkość wyobrażonego
obiektu była oczywiście wynikiem manipulacji eksperymentalnej, zależała
bowiem od narzuconych przez instrukcję parametrów wyobrażonego
w pierwszej kolejności prostokąta. Liniowa zależność między wielkością
wyobrażenia a czasem udzielania odpowiedzi dotyczyła zarówno pytań,
w których oczekiwano odpowiedzi pozytywnej (obiekt charakteryzował się
cechą), jak i pytań, w których poprawna była odpowiedź negatywna (obiekt
nie miał cechy). Osoby badane potrzebowały także więcej czasu na
udzielenie odpowiedzi dotyczących mniejszych elementów danego obiektu
(np. „Czy tygrys ma uszy?”) niż większych (np. „Czy tygrys ma ogon?”).
Czas decyzji okazał się więc ponownie zależny od wielkości
reprezentowanych obiektów, które tym razem były częścią pierwotnego
wyobrażenia.

W kolejnych badaniach Kosslyn (1983) prosił uczestników o wyobrażanie


sobie zwierząt parami. Zwierzęta wyraźnie różniły się wielkością w obrębie
każdej z nich. Królik mógł np. wystąpić w parze ze słoniem, a w innym
zestawieniu – z muchą. Okazało się, że różne cechy królika były znacznie
łatwiejsze do wyobrażenia, gdy występował on w parze z muchą, niż gdy
występował w parze ze słoniem. Czas odpowiedzi na pytanie, czy obiekt
charakteryzuje się określoną cechą, zależał od względnej wielkości obu
wyobrażonych obiektów. W parze ze słoniem królik jest znacznie mniejszy
niż w parze z muchą, zatem jego wyobrażenie jest bardziej schematyczne,
brakuje mu wielu szczegółów. Aby udzielić odpowiedzi na pytanie
dotyczące cech budowy królika, osoba badana musi go w wyobraźni
„powiększyć”, tak aby był widoczny bardziej szczegółowo; tym samym
szczegóły budowy słonia zaczynają się „rozmazywać” jako tło. Nie ma
natomiast potrzeby „powiększania”, gdy królik znajduje się na pierwszym
planie w towarzystwie małej, pozbawionej szczegółów muchy. Podobne
wyniki uzyskano, różnicując wyobrażenia ze względu na ich złożoność.
W przypadku wyobrażeń złożonych czas decyzji był dłuższy niż
w przypadku wyobrażeń prostych (tamże). Nazwano to efektem
ziarnistości obrazu.

W innych badaniach Stephen Kosslyn, Thomas Ball i Brian Reiser (1978)


prosili uczestników o zapamiętanie mapy, na której znajdowało się siedem
charakterystycznych obiektów, np. chata, studnia, drzewo (ryc. 2.3).
Poprawność przechowania mapy w pamięci sprawdzano, prosząc o jej
narysowanie. Procedurę tę powtarzano aż do momentu, w którym
szczegóły narysowanego z pamięci rysunku nie odbiegały więcej niż o 6
mm od oryginalnej lokalizacji danego elementu na mapie. We właściwej
części eksperymentu proszono o wyobrażenie sobie zapamiętanej mapy.
Zadaniem uczestników było skupienie uwagi na jednym z wybranych
obiektów, zwanym punktem fiksacji, a następnie wyobrażenie sobie
„plamki” poruszającej się z punktu fiksacji do innego elementu mapy,
podanego w instrukcji. Osoby badane sygnalizowały moment osiągnięcia
żądanego punktu przez poruszającą się w ich wyobraźni „plamkę”. Im
większa była odległość między punktem fiksacji a elementem, do którego
należało dotrzeć, tym więcej czasu badani musieli poświęcić na wykonanie
tej operacji. Powtarzając ten eksperyment w niezmienionej postaci, Zenon
Pylyshyn i Liam Bannon otrzymali identyczną zależność: czas decyzji
okazał się monotonicznie rosnącą funkcją odległości reprezentowanych
w umyśle obiektów od punktu fiksacji (Pylyshyn, 1981).
RYCINA 2.3. Mapa wyspy wykorzystywana w badaniach Kosslyna, Balla i Reisera wraz
z wykresem ilustrującym stwierdzany w paradygmacie skaningu umysłowego efekt odległości
Źródło: Kosslyn, Ball, Reiser, 1978.

Analogiczny efekt uzyskał Hubert Zimmer (2004). Trzy grupy uczestników


jego badania zapoznawały się z mapą terenu w szczególny sposób.
Pierwsza grupa miała okazję obejrzeć mapę w całości, druga – jedynie we
fragmentach, natomiast grupa trzecia otrzymała wyłącznie informacje
werbalne dotyczące ujętego na mapie terenu. Zimmer potwierdził
wcześniejsze wyniki, stwierdzając, że im dalej względem siebie były
położone lokalizowane obiekty, tym więcej czasu zajmowało osobom
badanym określenie ich położenia. Co więcej, nie stwierdził on większych
różnic w zakresie czasu decyzji dotyczącej orientacji obiektów względem
siebie między badanymi należącymi do dwóch pierwszych grup. Oznacza
to według niego, że całościowe wyobrażenie mapy terenu może zostać
utworzone na podstawie jej fragmentów. Natomiast badani dysponujący
informacjami werbalnymi podejmowali decyzje znacznie wolniej, co może
świadczyć albo o większych trudnościach w stworzeniu reprezentacji
obrazowej na podstawie informacji werbalnych, albo o niskiej przydatności
tychże.

Kosslyn (1983) zinterpretował wyniki badań nad skaningiem umysłowym,


opierając się na koncepcji obrazowych reprezentacji poznawczych.
Zgodnie z nią każde wyobrażenie zapisane jest w postaci analogowego
obrazu umysłowego, w którym zachowane są relacje przestrzenne
odpowiadające wyobrażonemu obiektowi. Jeśli w realnym obiekcie jakiś
szczegół jest bliski innemu szczegółowi, obraz umysłowy przechowa tę
zależność i odzwierciedli ją w wyobrażeniu. Jeśli w obiekcie coś jest na
górze lub na dole, tak też będzie umiejscowione w wyobrażeniu. Zakres
odpowiedniości między obiektem a wyobrażeniem jest raz większy, a raz
mniejszy, zależnie od dokładności wyobrażenia. Bywają też wyobrażenia
nieadekwatne lub całkiem błędne. Nie zmienia to faktu, że istotą
obrazowych reprezentacji umysłowych jest zasada fizycznej
odpowiedniości między reprezentowanym obiektem a jego mentalnym
ekwiwalentem. Dlatego właśnie „wycieczka” po obrazie umysłowym, np.
po wyobrażonej mapie terenu, jest tym dłuższa, im więcej wyobrażonej
przestrzeni trzeba pokonać. Podobnie rzecz się ma w odniesieniu do rotacji
mentalnych, z tym zastrzeżeniem, że w przypadku skaningu umysłowego
należy przenieść punkt fiksacji nie o zadany kąt, lecz do zadanego miejsca
w wyobrażonej przestrzeni. Z tego samego powodu zużywamy znacznie
więcej czasu, tworząc wyobrażenie skomplikowane (np. obrazu Bitwa pod
Grunwaldem Jana Matejki), a mniej czasu, gdy jest ono ubogie
w szczegóły (np. obrazu Czarny kwadrat Kazimierza Malewicza). Co
więcej, wyobrażając sobie małe elementy obiektu, człowiek musi
przełamać efekt ziarnistości: aby odpowiedzieć na szczegółowe pytanie
dotyczące takiego elementu, osoby badane muszą go w wyobraźni
„powiększyć”. Taki „mentalny zoom” wymaga oczywiście czasu, co
wykazano empirycznie.

2.2.6. Krytyka stanowiska obrazowego


Argumenty na rzecz stanowiska obrazowego, zgromadzone w badaniach
nad rotacjami mentalnymi i skaningiem umysłowym, próbowano poważnie
osłabić. Rezultaty eksperymentów Ashera Koriata, Johna Normana i Ruth
Kimchi (1991) wskazują na ograniczenia powszechności prawa
dotyczącego rotacji mentalnych. Z badań tych wynika, że ludzie nie zawsze
dokonują rotacji figur w wyobraźni, chcąc je z sobą porównać. Jeśli
konieczne jest potwierdzenie identyczności obiektów, rotacja mentalna
wydaje się niezbędna, bo bez takiego przekształcenia dokładne porównanie
figur nie jest możliwe. Ale już stwierdzenie odmienności dwóch figur
geometrycznych nie zawsze wymaga rotacji, ponieważ decyzja może być
podjęta inaczej niż poprzez porównywanie całości obrazów. Być może
porównaniu podlegają wtedy tylko pewne ich fragmenty, np. centralne lub
szczególnie się wyróżniające. Gdyby tak było, wyniki uzyskane przez
Koriata i współpracowników nie musiałyby godzić w stanowisko
obrazowe; można by utrzymać tezę o obrazowej formie wyobrażeń,
a zmienić tylko postulowany mechanizm porównania obrazów. Możliwe
jest jednak wyjaśnienie znacznie prostsze, zgodnie z którym najpierw
dochodzi do wstępnego porównania pewnych właściwości prezentowanych
figur, np. wypukłości kątów i krawędzi czy liczby elementów składowych.
Jeśli wynik takiego porównania nie prowadzi do stwierdzenia różnic
między figurami, podejmuje się decyzję o identyczności obu figur.
Pierwszy etap tego procesu niekoniecznie wymaga operowania na
reprezentacjach obrazowych, równie dobrze może się odbywać na
podstawie reprezentacji w formie zbioru cech (por. wyjaśnienia procesu
rozpoznawania twarzy przez teorie wzorców i cech; zob. podrozdz. 7.5.2).

Argumenty przeciwko koncepcji obrazowej sformułowali także Gloria


Marmor i Larry Zaback (1976). Poprosili oni osoby niewidome od
urodzenia o wykonanie zadania Coopera i Sheparda. Istnieje przekonanie,
że niewidomi od urodzenia w ogóle nie dysponują obrazowymi
reprezentacjami poznawczymi. W cytowanym eksperymencie badani
wykonywali zadanie, korzystając ze zmysłu dotyku. Mogli dotykiem
zapoznać się z figurą, czyli obiektem rotacji, ale samej rotacji dokonywali
już „w wyobraźni”. Mimo że forma reprezentacji umysłowych nie mogła
być obrazowa, stwierdzono liniową zależność między czasem podjęcia
decyzji co do rotowanego obiektu a wielkością kąta jego rotacji. Wynik ten
nie jest sprzeczny z twierdzeniem o ekwiwalencji percepcji i wyobraźni,
godzi jedynie w pogląd o obrazowej (czyli wizualnej) formie wyobrażeń.
Być może należałoby określić formę wyobrażeń jako sensoryczną, zależną
od użytej modalności zmysłowej. Taki wniosek pozostaje już jednak
w opozycji do skrajnej wersji koncepcji Kosslyna, która w związku z tym
wydaje się zbyt jednostronna.

Do podobnych wniosków prowadzą wyniki niektórych badań


prowadzonych w paradygmacie skaningu umysłowego. W jednym
z eksperymentów (Intons-Peterson, Roskos-Ewaldson, 1989) polecono
osobom badanym przenieść w wyobraźni piłkę między kilkoma punktami
wyobrażonej mapy. W trzech warunkach eksperymentu piłka miała taki
sam kształt, wielkość i rozmiar, ale różniła się ciężarem (odpowiednio: 3
uncje, 3 funty i 30 funtów). Zgodnie z prawem dystansu wykrytym przez
Kosslyna, w każdym z trzech warunków eksperymentalnych czas reakcji
zależał liniowo i rosnąco od odległości między punktem startu (punkt
fiksacji) a punktem docelowym, zadanym przez instrukcję. Stwierdzono
ponadto, że czas reakcji był tym dłuższy, im cięższą piłkę należało
„przenieść” w wyobraźni. Również Timothy Hubbard (1997) wykazał, że
waga obiektów ma wpływ na dokonywaną w wyobraźni ocenę miejsca,
w którym może się znaleźć poruszający się obiekt. Autor wyprowadził na
tej podstawie wniosek, że nietrwałe reprezentacje wyobrażeniowe powstają
z uwzględnieniem ciężaru wyobrażonych obiektów.

Wydaje się więc całkiem możliwe, że powierzchniowe, nietrwałe


reprezentacje umysłowe mają charakter nie tyle obrazowy, ile sensoryczny.
W takim przypadku postulowane przez Kosslyna (1983) obrazy umysłowe
byłyby tylko jednym z kilku rodzajów takich reprezentacji. Można by
wobec tego mówić o wyobrażeniach dotykowych, z których
prawdopodobnie korzystali niewidomi od urodzenia uczestnicy badania
Marmor i Zabacka (1976) czy osoby biorące udział w innych badaniach
(Intons-Peterson, Roskos-Ewaldson, 1989; Hubbard, 1997). Teoria
podwójnego systemu kodowania (Paivio, 1971, 1986) uwzględnia
możliwość niewerbalnego, ale innego niż obrazowe, kodowania danych
zmysłowych (zob. podrozdz. 2.3.2). Wyniki badań nad reprezentacjami
dotykowymi świadczą przeciwko koncepcji obrazów umysłowych jako
jedynej i koniecznej formie wyobrażeń, a ponadto pozwalają na
formułowanie wniosków dotyczących werbalnej formy reprezentacji
umysłowych. Reprezentacje tego rodzaju będą omówione w kolejnym
podrozdziale.

2.3. Reprezentacje werbalne

2.3.1. Weryfikacja sylogizmów i treści zdań


Herbert Clark (1969) poprosił badanych o rozwiązywanie prostych
sylogizmów werbalnych, czyli zadań wymagających wyciągania wniosków
z przesłanek. Mieli oni porównać kilka fikcyjnych osób pod względem
jakiejś cechy, np. wzrostu. Badanym podano na wstępie kilka przesłanek,
np. „Jan jest wyższy od Piotra. Andrzej jest niższy od Piotra”. Na tej
podstawie trzeba było sformułować wniosek, np. odpowiadając na pytanie:
„Kto jest najwyższy?”. Okazało się, że udzielenie odpowiedzi zajmowało
różną ilość czasu w zależności od poznawczej i językowej złożoności
zadania. Stosunkowo szybko odpowiadano na pytania, gdy były ono
językowo zgodne z przesłankami, np. gdy w przesłankach używano słowa
„wyższy”, a pytanie dotyczyło tego, kto jest „najwyższy”. Natomiast
relatywnie więcej czasu wymagało zadanie, w którym przesłanki
operowały relacją wyższości, a pytanie brzmiało: „Kto jest najniższy?”.
Badani zachowywali się więc tak, jak gdyby przekształcenie relacji „A jest
wyższe od B” w relację „B jest niższe od A” wymagało pewnej porcji
czasu. Podobne wyniki uzyskano w przypadku, gdy przesłanki sylogizmu
formułowano za pomocą zdań twierdzących, w pytaniu zaś pojawiało się
przeczenie, np. „Czy Piotr nie jest wyższy od Jana?”. Co więcej, im
bardziej komplikowano pytanie w stosunku do przesłanek (np. użycie
podwójnej negacji), tym więcej czasu trzeba było przeznaczyć na
wypracowanie odpowiedzi.

Gdyby reprezentacje towarzyszące procesowi rozwiązywania sylogizmów


były dostępne w postaci obrazów umysłowych, różnice tego rodzaju nie
powinny wystąpić. Wyobrażenie sobie trzech osób: Jana, Piotra i Andrzeja,
różniących się wzrostem i stojących obok siebie, powinno z równą
łatwością prowadzić do odpowiedzi, kto jest najwyższy, jak też do
stwierdzenia, kto jest najniższy. Obraz umysłowy jest dostępny w całości,
a ponadto zawiera wszystkie ważne relacje między obiektami. Stwierdzenie
wymienionych różnic w czasie reakcji stanowi więc silny argument
przeciwko tezie o obrazowej formie reprezentacji umysłowych, w każdym
razie przeciwko skrajnej wersji tego stanowiska. Tego typu wyniki skłoniły
wielu psychologów do przyjęcia tezy, że wyobrażenia nie przybierają
formy obrazowej, lecz werbalną (Paivio, 1986) lub propozycjonalną, np.
w postaci zbioru sądów o relacjach między obiektami (Pylyshyn, 1973). Im
więcej sądów należy rozważyć bądź im bardziej sąd odpowiadający
pytaniu jest niekompatybilny w stosunku do sądów tworzących przesłanki,
tym dłużej trwa wypracowanie odpowiedzi.

W klasycznym eksperymencie nad weryfikacją treści zdań Herbert Clark


i William Chase (1972) prosili osoby badane o przyswojenie sobie treści
zdania o relacjach przestrzennych łączących dwa symbole, takie jak plus
(+) i gwiazdka (*). Uczestnicy mieli następnie odpowiedzieć na pytanie,
czy na obrazku widać to samo, o czym jest mowa w zdaniu. Prezentowano
np. zdanie: „Plus jest nad gwiazdką”, a po jego przyswojeniu pokazywano
plus nad gwiazdką lub plus pod gwiazdką; badani musieli odpowiedzieć
TAK lub NIE, w zależności od tego, czy uznawali treść zdania za zgodną
z obrazkiem (paradygmat 2.2). Zdania prezentowane w pierwszej fazie
mogły zawierać negację (np. „Plus nie jest nad gwiazdką”), mogły też
wymagać odwrócenia relacji (np. „Plus jest pod gwiazdką”). Podobnie jak
w badaniach Clarka (1969), więcej czasu wymagała weryfikacja zdań,
w których należało użyć negacji lub przekształcić relację, podczas gdy
zdanie niezawierające żadnych przekształceń (np. „Plus jest nad
gwiazdką”) weryfikowano stosunkowo szybko. Co więcej, osoby badane
podzielono ze względu na poziom zdolności werbalnych lub
przestrzennych.

Paradygmat 2.2
Weryfikacja treści zadań

Badania w paradygmacie weryfikacji treści zdań (sentence-picture


verification task) zapoczątkowali Clark i Chase (1972), a kontynuowali
MacLeod, Hunt i Mathews (1978). W tego typu eksperymentach osobom
badanym prezentuje się obrazek przedstawiający dwa elementy (np.
symbole „+”, „*”) w relacji przestrzennej. Zwykle jeden symbol jest
u góry, a drugi na dole. Wcześniej lub później uczestnikom prezentuje się
zdanie opisujące przestrzenną relację obu symboli, np.: „Plus jest nad
gwiazdką”. Eksperyment wymaga prezentacji wszystkich możliwych
typów zdań, a więc twierdzących i przeczących, prawdziwych
i nieprawdziwych, operujących relacją prostą (np. coś jest nad czymś) lub
jej zaprzeczeniem (np. coś jest pod czymś). Pełny układ warunków
eksperymentalnych przedstawia poniższa tabela.
Typ zdania Treść zdania Obraz Wymagana reakcja

Twierdzące Gwiazdka jest nad plusem * TAK


Plus jest pod gwiazdką +

Twierdzące Gwiazdka jest pod plusem * NIE


Plus jest nad gwiazdką +

Twierdzące Gwiazdka jest nad plusem + NIE


Plus jest pod gwiazdką *

Twierdzące Gwiazdka jest pod plusem + TAK


Plus jest nad gwiazdką *

Przeczące Gwiazdka nie jest nad plusem * NIE


Plus nie jest pod gwiazdką +

Przeczące Gwiazdka nie jest pod plusem * TAK


Plus nie jest nad gwiazdką +

Przeczące Gwiazdka nie jest nad plusem + TAK


Plus nie jest pod gwiazdką *

Przeczące Gwiazdka nie jest pod plusem + NIE


Plus nie jest nad gwiazdką *

Osoba badana ma podjąć decyzję, czy treść zdania jest zgodna


z obrazkiem. Wymaga to zwykle naciśnięcia jednego z dwóch przycisków,
przy czym mierzone są czas decyzji i liczba błędów. W zależności od
wariantu tej procedury najpierw prezentuje się obrazek, a potem zdanie
(MacLeod i in., 1978) lub odwrotnie (Clark, Chase, 1972). Można też
spowodować, aby pierwsza część stymulacji (np. zdanie) nie znikała
z monitora wraz z pojawieniem się części drugiej (np. obrazka). Badany
może wówczas weryfikować treść zdania, widząc wszystkie potrzebne
dane. W innym wariancie informacja słowna znika, zanim pojawi się
obrazek (lub odwrotnie), co bardziej angażuje pamięć operacyjną i czyni
całe zadanie trudniejszym.
W badaniach prowadzonych w tym paradygmacie zwykle stwierdza się, że
czas weryfikacji treści zdania zależy od stopnia jego logicznej
i gramatycznej komplikacji. Najprostsze do weryfikacji są proste zdania
twierdzące, wymagające reakcji TAK, np. „Plus jest nad gwiazdką”,
a najtrudniejsze – zdania przeczące, wymagające reakcji NIE i dodatkowo
zawierające odwróconą relację, np. „Gwiazdka nie jest pod plusem”.

Paradygmat weryfikacji treści zdania był często używany


w psycholingwistyce, ponieważ pozwala ocenić koszty poznawcze
związane z przetwarzaniem zdań o różnej konstrukcji i różnym poziomie
komplikacji. Okazało się np., że zdania zawierające negację wymagają
nieco dłuższego czasu weryfikacji niż zdania bez negacji. Wynika to
prawdopodobnie stąd, że zdania z negacją wymagają dodatkowej operacji
umysłowej, tak jakby samo przeczenie było osobnym zabiegiem
poznawczym. Ponadto zdania zawierające słowa typu „pod” lub „za”
wymagają więcej czasu niż niczym się poza tym nieróżniące zdania ze
słowami „nad” i „przed”. Relacja, że coś jest pod czymś lub za czymś, nie
jest, być może, poznawczo naturalna czy pierwotna, gdyż powstaje
w umyśle jako zaprzeczenie relacji, że coś jest nad czymś lub przed czymś.
Innymi słowy, człowiek mówi: „Pies leży pod stołem”, ale poznawczo
reprezentuje tę sytuację w postaci sądu: „Pies leży nie nad stołem”. Tylko
w ten sposób możemy wytłumaczyć fakt, że przetwarzanie pewnych relacji
jest związane z większymi kosztami poznawczymi w postaci wydłużonego
czasu podejmowania decyzji i większej podatności na błędy.

Nie stwierdzono większych różnic w całkowitym czasie weryfikacji zdań


między grupami wyróżnionymi ze względu na poziom owych zdolności.
Uzyskano natomiast znaczne różnice w odniesieniu do czasu trwania obu
faz rozwiązywania zadania: kodowania informacji werbalnej
i weryfikowania jej zgodności z treścią informacji wizualnej. Osoby
charakteryzujące się wyższymi zdolnościami werbalnymi kodowały treść
zdania znacznie szybciej niż osoby o wyższych zdolnościach obrazowych.
W fazie weryfikacji zależność była odwrotna: szybsze okazały się osoby
o wysokim poziomie zdolności przestrzennych (tab. 2.1).

TABELA 2.1. Czas weryfikacji treści zdań przez osoby o wysokim (+) lub niskim (–) poziomie
zdolności werbalnych (W) lub wyobrażeniowych (O), w zależności od fazy przetwarzania
informacji [w ms]

Faza przetwarzania Osoby typu W+/O– Osoby typu O+/W–

kodowanie treści zdania 1652 2579


obserwacja obrazka i decyzja 1210 651
całość zadania 2862 3230

Źródło: opracowanie własne na podstawie Clark, Chase, 1972.

Badania w paradygmacie weryfikacji treści zdań prowadzili również Colin


MacLeod, Earl Hunt i Nancy Mathews (1978). Uczestnikom prezentowano
wzrokowo dwa symbole w pewnej relacji przestrzennej (np. znak „+”
umieszczony nad znakiem „*”), a następnie proszono ich o weryfikację
różnych sądów opisujących tę relację. Jedyna różnica w stosunku do
badania Clarka i Chase’a (1972) polegała więc na tym, że najpierw
podawano informację wzrokową, a w drugiej kolejności – werbalną.
W przypadku większości osób badanych (w liczbie 43) wyniki były bardzo
podobne do tych, które uzyskali Clark i Chase: im większa logiczno-
gramatyczna złożoność zdania, tym dłuższy czas weryfikacji. Można
wnioskować, że osoby te w fazie przyswajania treści obrazka utworzyły
reprezentację poznawczą w formie werbalnej, inaczej mówiąc –
przetłumaczyły obrazek na słowa. W fazie weryfikacji porównywały więc
ze sobą dwie reprezentacje werbalne, przez co traciły na to tym więcej
czasu, im bardziej były one skomplikowane. Jednak 16 osób badanych
zachowywało się zupełnie inaczej, tak jakby w trakcie wykonywania
zadania posługiwało się cały czas kodem obrazowym. W przypadku tych
16 osób sądy zawierające negację czy odwrócenie relacji były
weryfikowane tak samo szybko, jak zupełnie proste twierdzenia. Osoby te
prawdopodobnie nie dokonywały „przekładu” obrazka na słowa, lecz
odwrotnie – pojawiające się w drugiej fazie zdanie „tłumaczyły” na kod
obrazowy. MacLeod i współpracownicy wyciągnęli na tej podstawie
wniosek, że uczestnicy eksperymentu posługiwali się różnymi strategiami
weryfikacji treści zdań: werbalną lub obrazową, a różnice te wynikały ze
względnie trwałych preferencji indywidualnych.

Co więcej, w przypadku 43 badanych, prawdopodobnie rozwiązujących


zadania z wykorzystaniem reprezentacji werbalnych, korelacja między
poziomem zdolności werbalnych a czasem weryfikacji zdania była wysoka
(– 0,44), podczas gdy analogiczna korelacja dotycząca zdolności
przestrzennych okazała się bardzo niska (– 0,07). Natomiast w przypadku
16 osób, rozwiązujących zadania prawdopodobnie z wykorzystaniem
reprezentacji obrazowych, korelacja między poziomem zdolności
werbalnych a czasem weryfikacji była niska (– 0,05), korelacja zaś między
poziomem zdolności przestrzennych a czasem weryfikacji – bardzo wysoka
(– 0,64). Te związki korelacyjne są oczywiście tylko pośrednim
argumentem na rzecz tezy o wykorzystywaniu przez osoby badane różnych
form nietrwałych reprezentacji poznawczych. Argument ten wymaga
bowiem dodatkowego założenia, że wysoki poziom zdolności werbalnych
skłania człowieka do stosowania strategii werbalnej, a wysoki poziom
zdolności przestrzennych – strategii obrazowej. Byłoby jednak wysoce
nieekonomiczne dla systemu poznawczego, gdyby dysponując np. niskim
poziomem zdolności w zakresie operacji obrazowych, preferował on
obrazową formę reprezentacji w rozwiązywaniu sylogizmów.

W innym badaniu Robert Sternberg (1980) analizował związek między


czasem rozwiązywania sylogizmów a zdolnościami przestrzennymi (spatial
ability) oraz werbalnymi (verbal ability). Okazało się, że choć obydwie
zdolności korelują ze sobą dość słabo (r = 0,20), obie wywierają wpływ na
tempo rozwiązywania sylogizmów. Większe znaczenie wydają się mieć
zdolności werbalne (r = – 0,49) niż przestrzenne (r = – 0,35), ale istotna
rola tych ostatnich sprawia, że nie można wykluczyć udziału wyobrażeń
w rozwiązywaniu zadań wymagających weryfikacji prawdziwości
sylogizmów. Zdolności przestrzenne (obrazowe) wydają się mieć
szczególne znaczenie w fazie kodowania danych: im wyższy poziom
zdolności przestrzennych, tym krótszy czas kodowania przesłanek
sylogizmu (r = – 0,51). Zależność między poziomem zdolności werbalnych
a czasem kodowania przesłanek jest znacznie słabsza (r = – 0,25). Z kolei
w fazie przekształcania przesłanek w celu weryfikacji sylogizmu zdolności
przestrzenne niemal w ogóle nie wpływają na czas reakcji (r = – 0,09),
podczas gdy zależność między poziomem zdolności werbalnych a czasem
rozwiązywania jest dość silna (r = – 0,30). Wyniki uzyskane przez
Sternberga mogą świadczyć na korzyść tezy o nierozstrzygalności
problemu języka kodowania nietrwałych reprezentacji umysłowych,
utworzonych w celu rozwiązania problemu. Być może człowiek jest
w stanie wykorzystywać powierzchniowe, nietrwałe reprezentacje zarówno
w formie obrazowej, jak i werbalnej, i to w trakcie wykonywania jednego
zadania. Forma reprezentacji poznawczych byłaby wtedy ściśle powiązana
z fazą procesu przetwarzania informacji (kodowanie, porównywanie), który
te reprezentacje wykorzystuje i na nich operuje.
Podsumowując, weryfikacja prawdziwości sylogizmów i treści zdań opiera
się prawdopodobnie na dwóch typach nietrwałych reprezentacji
umysłowych. Z reprezentacji obrazowych korzystamy przede wszystkim
gdy podawane nam informacje przybierają postać obrazów, jak również
wtedy, gdy cechujemy się wysokim poziomem zdolności w zakresie
przetwarzania obrazów. Natomiast reprezentacje werbalne
wykorzystujemy, gdy trzeba zweryfikować prawdziwość wyrażonego
słowami twierdzenia o relacjach, a także wtedy, gdy dysponujemy wysokim
poziomem kompetencji językowej. Skrajnie obrazowe stanowisko w sporze
o naturę reprezentacji wydaje się zatem nie do utrzymania, a stanowisko
możliwe do przyjęcia musi uwzględniać istnienie co najmniej dwóch
rodzajów reprezentacji umysłowej.

2.3.2. Teoria podwójnego kodowania


Takie umiarkowane stanowisko zaproponował Allan Paivio (1971, 1986).
Zgodnie z jego teorią podwójnego kodowania człowiek reprezentuje
rzeczywistość w dwóch systemach: niewerbalnym (sensorycznym)
i werbalnym (językowym). Oba systemy cechują się specyficzną strukturą
wewnętrzną i swoistym sposobem przetwarzania danych. Paivio twierdził,
że reprezentacje umysłowe są swoiste ze względu na modalność zmysłową
(modality specific), inaczej np. reprezentuje się dane wizualne, a inaczej
słowne. Z tego względu koncepcja podwójnego kodowania, mimo że zrywa
z tezą o zawsze obrazowej reprezentacji rzeczywistości, zajmuje miejsce
pośrednie między stanowiskiem obrazowym (Kosslyn) a stanowiskiem
propozycjonalnym (Pylyshyn, Anderson). Podczas gdy Kosslyn zaprzeczał,
aby nietrwałe reprezentacje umysłowe mogły mieć formę inną niż
obrazowa (np. werbalną), zwolennicy stanowiska propozycjonalnego nie
godzili się z polimodalnym ujęciem reprezentacji umysłowych. W ich
ujęciu sądy mają zawsze charakter amodalny, czyli niezależny od
zaangażowanego kanału sensorycznej recepcji bodźców.

Według Paivio dane zmysłowe mogą być kodowane w jednym z pięciu


podsystemów składających się na system niewerbalny. Każdy podsystem
charakteryzuje się innym językiem kodowania i odpowiada za inną
modalność sensoryczną reprezentowanych obiektów. Dzięki temu możliwe
jest utworzenie odrębnego obrazu sensorycznego (sensory picture) dla
każdego reprezentowanego obiektu. Obrazy umysłowe, opisane przez
Kosslyna, to tylko jedna z pięciu kategorii obejmujących niewerbalne
reprezentacje poznawcze. Pozostałe kategorie to dźwięki, odczucia
dotykowe, smakowe i zapachowe. Mimo że obrazy umysłowe nie mają
monopolu na niewerbalną reprezentację poznawczą, zdają się odgrywać
rolę dominującą, są bowiem najczęściej przywoływane i wymieniane jako
wewnętrzne odpowiedniki obiektów percepcyjnych (Kosslyn, Seger, Pani,
Hillger, 1990).

Wszelkie niewerbalne reprezentacje umysłowe, niezależnie od modalności


sensorycznej, zostały przez Paivio nazwane imagenami. Według tego
badacza imageny są przetwarzane szybko i równolegle, gdyż reprezentują
struktury holistyczne, takie jak całe obiekty, całościowe ich fragmenty bądź
grupy obiektów – w formie zarówno statycznej, jak i dynamicznej.
Imageny charakteryzują się dużym stopniem analogowości w stosunku do
reprezentowanych obiektów. Oznacza to, że zachowują niektóre fizyczne
właściwości obiektu, takie jak wielkość czy relacje przestrzenne między
jego elementami. Wykazano np., że niewielkie rozmiarem fotografie twarzy
ludzkiej są gorzej zapamiętywane niż te same fotografie o większym
rozmiarze, natomiast dla kodowania i zapamiętywania prezentowanych
wzrokowo słów wielkość i rodzaj użytej czcionki nie mają żadnego
znaczenia (Kolers, Duchnicky, Sundstroem, 1985).
System werbalny umożliwia kodowanie informacji w postaci symboli
językowych. Zazwyczaj są to słowa języka naturalnego, ale możliwe jest
też zakodowanie informacji w postaci innych etykiet werbalnych.
Reprezentacje werbalne mogą bowiem wchodzić w skład jakiegokolwiek
języka, również sztucznego, takiego jak symbole matematyczne czy język
programowania komputerowego (Paivio, 1986). W skład systemu
werbalnego wchodzą trzy podsystemy do kodowania informacji
werbalnych, przeznaczone dla danych nadchodzących kanałem wizualnym,
akustycznym lub dotykowym. Niezależnie od zaangażowanego kanału
sensorycznego wszystkie reprezentacje werbalne noszą wspólną nazwę
logogenów. Istotną ich właściwością jest symboliczny charakter, związany
z użytą konwencją wiązania rzeczy lub innych oznaczanych obiektów ze
znakami. Słowa i etykiety werbalne bardzo rzadko przypominają
brzmieniowo reprezentowane obiekty; wyjątkiem są onomatopeje,
dźwiękowo podobne do oznaczanej rzeczy lub czynności (np. charczenie,
szelest). W zdecydowanej większości przypadków słowa w niczym nie
przypominają sensorycznych właściwości reprezentowanych przez siebie
obiektów, a ich znaczenie jest ustalone na zasadzie powszechnego
konsensu i umowy społecznej. Przeciwnie niż w przypadku imagenów
przetwarzanie logogenów dokonuje się w wolnym tempie i szeregowo, co
wynika z samej natury języka jako systemu kodowania (zob. rozdz. 13).

Istnienie systemu niewerbalnego wydaje się dobrze uzasadnione wynikami


badań prowadzonych przez zwolenników stanowiska obrazowego. Badania
te wykazały, że w tworzeniu imagenów uczestniczy przede wszystkim
wzrok, ale również inne modalności sensoryczne. Natomiast argumentów
za istnieniem werbalnego systemu kodowania dostarczył sam Paivio
(1971). Poczynione przez niego obserwacje wskazują, że nie wszystkie
obiekty otaczającego nas świata mają swoją sensoryczną reprezentację.
Dotyczy to w szczególności pojęć abstrakcyjnych, takich jak „zaleta” czy
„kontekst” (Paivio, Yuille, Madigan, 1968). Próby utworzenia sensorycznej
reprezentacji takich pojęć (np. obrazowej) zazwyczaj kończą się
niepowodzeniem. W eksperymentach Paivia i współpracowników
wymienione słowa uznano za najtrudniejsze do wyobrażenia. Ponadto
przypisywano im najniższe rangi na wymiarze konkretności,
zdefiniowanym jako stopień powiązania z fizycznym wymiarem
rzeczywistości.

2.3.3. Słowo i obraz – wzajemne relacje


Dwa systemy kodowania – werbalny i niewerbalny – są względnie
niezależne, co oznacza, że w tym samym czasie można przetwarzać
informacje słowne i obrazowe. Możliwe jest np. wykonanie zadania
podwójnego, polegającego na jednoczesnej grze na pianinie z nut
i powtarzaniu prozy ze słuchu (Allport, Antonis, Reynolds, 1972). Pierwsze
zadanie opiera się bowiem na obrazowych, sensorycznych reprezentacjach
rzeczywistości, podczas gdy drugie – na reprezentacjach werbalnych.
Według Paivia (1986) oba systemy są jednak powiązane wzajemnymi
relacjami. Mają one przede wszystkim charakter referencjalny:
reprezentacjom obrazowym odpowiadają werbalne i odwrotnie (ryc. 2.4).
Połączenia te nie zawsze są kompletne: wprawdzie określony imagen jest
zwykle powiązany z jakimś logogenem, ale zdarzają się wyjątki od tej
reguły. W systemie poznawczym istnieją reprezentacje werbalne, którym
nie odpowiadają żadne reprezentacje obrazowe. Chodzi tu w szczególności
o pojęcia abstrakcyjne, odpowiadające nadrzędnym kategoriom obiektów.
W systemie mogą też istnieć reprezentacje obrazowe, którym nie
odpowiadają żadne reprezentacje werbalne. Chodzi tu o wyobrażenia,
którym nie odpowiada żaden rzeczywisty obiekt, np. wyobrażenia twórcze,
czyli obrazy umysłowe, którym dopiero wtórnie możemy nadać nazwy,
jeśli okażą się wystarczająco nowe i pożyteczne. Mimo owej
niekompletności powiązań między systemem werbalnym i niewerbalnym
ogólną zasadą działania umysłu według koncepcji podwójnego kodowania
jest to, że wzbudzanie jakiejś reprezentacji werbalnej aktywizuje
reprezentację niewerbalną i vice versa. Inaczej mówiąc, wzbudzenie
dowolnej reprezentacji umysłowej powoduje aktywizację reprezentacji
referencjalnej, czyli odnoszącej się do tego, co zostało wzbudzone
wcześniej. Zjawiska te noszą nazwę procesów referencjalnych.
RYCINA 2.4. Wzajemne relacje między werbalnym i niewerbalnym systemem kodowania
Źródło: opracowanie własne na podstawie Paivio, 1986.

W ramach systemu podwójnego kodowania zachodzą ponadto dwa inne


rodzaje procesów (Paivio, 1986). Jako pierwsze wymienić należy procesy
reprezentacyjne. Ich zadanie polega na przyporządkowaniu
poszczególnych obiektów, spostrzeganych w różnych modalnościach
zmysłowych, do jednego z pięciu podsystemów niewerbalnych lub do
jednego z trzech podsystemów werbalnych. Drugi rodzaj to procesy
asocjacyjne. Funkcjonują one wewnątrz każdego z dwóch systemów:
werbalnego i niewerbalnego, odpowiadając za łączenie się poszczególnych
reprezentacji w skojarzone ze sobą grupy. Porządek, w jakim działają
procesy asocjacyjne, jest różny w zależności od systemu. W systemie
werbalnym układ reprezentacji jest raczej hierarchiczny, to znaczy
zdefiniowany relacją znaczeniowej podrzędności–nadrzędności. Natomiast
w systemie niewerbalnym porządek ten jest liniowy – poszczególne obrazy
łączą się ze sobą w dłuższe łańcuchy skojarzeniowe, zgodnie
z klasycznymi regułami opisanymi przez zwolenników asocjacjonizmu.

W zależności od rodzaju stymulacji istnieje większe lub mniejsze


prawdopodobieństwo użycia systemu werbalnego bądź niewerbalnego
w celu zakodowania informacji (Paivio, 1971; tab. 2.2). Obraz może zostać
zakodowany werbalnie, ale jest to znacznie mniej prawdopodobne niż
użycie kodu obrazowego. Analogicznie – słowa mogą być kodowane
obrazowo, ale jest to mało prawdopodobne, a słowa abstrakcyjne w ogóle
się do tego nie nadają (Cornoldi, Paivio, 1982). Tabela 2.2 ilustruje również
postulowany przez Paivia brak równowagi obu systemów. System werbalny
koduje wszystko, jednak obrazy z nieco mniejszym
prawdopodobieństwem, podczas gdy system niewerbalny w zasadzie
koduje tylko obrazy, a słowa bardzo rzadko i tylko, jeśli są konkretne.
Paivio i współpracownicy (1968) stwierdzili wysoką korelację (r = 0,83)
między stopniem konkretności słowa a możliwością jego obrazowej
reprezentacji w umyśle, natomiast John Richardson (1980) wykazał, że
wyobraźnia wspomaga zapamiętywanie słów, ale tylko wtedy, gdy nie są to
słowa abstrakcyjne. Z kolei Carla Johnson, Allan Paivio i Jim Clark (1996)
wykryli, że definicje tworzone dla słów konkretnych są bardziej
precyzyjne, dłuższe i wspomagane wyobraźnią, podczas gdy słowa
abstrakcyjne są definiowane gorzej, często z użyciem nadmiernie
złożonych struktur językowych.

TABELA 2.2. Prawdopodobieństwo użycia systemu werbalnego lub niewerbalnego przy


kodowaniu informacji

Typ bodźca System obrazowy System werbalny

obrazek +++ ++
słowo konkretne + +++
słowo abstrakcyjne – +++

Źródło: opracowanie własne na podstawie Paivio, 1971.

Chociaż system werbalny ma potencjalnie większe możliwości w zakresie


kodowania informacji, kodowanie obrazowe bardziej sprzyja efektywności
zapamiętania. Zjawisko to, nazwane efektem przewagi obrazu nad
słowem (picture-word superiority effect), wykryli w serii eksperymentów
Allan Paivio i Kal Csapo (1969). W każdym eksperymencie osoby badane
odpamiętywały obrazki oraz słowa konkretne i abstrakcyjne. W pierwszym
eksperymencie część uczestników poinformowano przed prezentacją
bodźców o konieczności późniejszego odpamiętania materiału, pozostałym
takiej informacji nie podano. Podczas prezentacji badani zapisywali
w kwestionariuszu nazwy przedstawianych im bodźców. Paivio i Csapo
stwierdzili, że – niezależnie od poinformowania badanych o późniejszym
teście pamięci – obrazki zostały odpamiętane na takim samym, wysokim
poziomie, natomiast słowa odpamiętano znacznie gorzej (choć słowa
konkretne nieco lepiej niż abstrakcyjne). Tylko w przypadku odpamiętania
słów zaobserwowano istotne różnice na korzyść badanych, którzy wiedzieli
o późniejszym teście pamięci w stosunku do osób pozbawionych tej
informacji. W kolejnych eksperymentach badacze zmieniali formę
rejestracji prezentowanych bodźców – np. część uczestników zapisywała je
w formie werbalnej, a część szkicowała ich kontur. Efektywność
zapamiętania okazała się najwyższa w przypadku obrazków, niezależnie od
formy ich rejestracji. Ogólnie, eksperymenty Paivia i Csapa, jak również
eksperymenty innych badaczy (np. Snodgrass, McClure, 1975; Ritchey,
1980) przyniosły wyniki potwierdzające prymat kodowania obrazowego
nad werbalnym, jeśli chodzi o efektywność zapamiętywania.

Potwierdzono również funkcjonalną niezależność dwóch systemów


kodowania informacji. W swoim pierwszym badaniu Paivio (1969)
pokazywał uczestnikom bardzo szybkie sekwencje obrazów lub słów.
Zadanie polegało na odpamiętaniu pokazanego materiału w porządku
dowolnym albo w porządku prezentacji. Paivio ustalił, że badani znacznie
lepiej odpamiętywali obrazki niż słowa, gdy porządek, w jakim mogli to
robić, nie był im narzucony (metoda swobodnego przypominania).
Natomiast sztywny porządek odpamiętywania sprawił, że lepiej pamiętano
słowa niż obrazy. Z badania tego płynie wniosek, że chcąc zapamiętać jak
najwięcej materiału, powinniśmy stosować niewerbalny system
reprezentacji poznawczej, ale jeśli odpamiętanie ma mieć uporządkowany
charakter, lepiej stosować system werbalny. Obserwację Paivio
wykorzystuje wiele mnemotechnik ułatwiających zapamiętywanie, np.
technika wizualizacji (zob. podrozdz. 9.1.4).

W kolejnym badaniu (Paivio, Csapo, 1973) podjęto problem, czy


powtarzanie wcześniej zapamiętanego materiału w innym systemie niż ten,
który był pierwotnie odpowiedzialny za zapamiętywanie, pomaga czy też
przeszkadza w utrwaleniu skutków zapamiętywania. Cztery grupy
eksperymentalne najpierw zapamiętywały, a potem utrwalały materiał
przez powtarzanie. Grupa pierwsza najpierw zapamiętywała słowa, a potem
je powtarzała. Grupa druga uczyła się na pamięć słów, ale później
powtarzała odpowiadające im obrazki. Grupa trzecia najpierw
zapamiętywała obrazki, a potem je powtarzała. Natomiast grupa czwarta
uczyła się obrazków, ale później powtarzała odpowiadające im słowa.
Okazało się, że powtarzanie materiału pomogło wszystkim uczestnikom:
we wszystkich grupach wzrosła liczba prawidłowo odpamiętanych
bodźców. Efekt ten okazał się największy u badanych, którzy zmuszeni
zostali do korzystania z odmiennych systemów kodowania danych na
dwóch różnych etapach procesu pamięciowego.

Istnieją więc przekonujące argumenty na rzecz tezy, że umysł reprezentuje


rzeczywistość co najmniej na dwa sposoby: obrazowy i werbalny. Wymaga
to prawdopodobnie zaangażowania odrębnych systemów reprezentacji,
które działają niezależnie, choć we wzajemnej współpracy. W języku słów
i etykiet werbalnych można zakodować znacznie szersze spektrum
bodźców, ale język obrazów jest o wiele efektywniejszy, jeśli chodzi
o skuteczność zapamiętywania. Wydaje się, że najbardziej skuteczną formą
reprezentowania informacji w umyśle jest kodowanie referencjalne,
wykorzystujące oba dostępne języki kodowania danych zmysłowych:
obrazowy i werbalny.

2.3.4. Reprezentacje numeryczne


Żyjemy w świecie wypełnionym liczbami. Częstość, z jaką przychodzi nam
na co dzień się z nimi zmagać, nakazuje się zastanowić, jak trafne są
umysłowe odzwierciedlenia informacji numerycznych. Bardziej
podstawowe pytanie dotyczy tego, czy liczby wymagają osobnego formatu
reprezentacji umysłowej czy też mogą być kodowane w systemie bardziej
uniwersalnym, np. obrazowym lub werbalnym. Istnieją powody, aby
sądzić, że liczby mogą być reprezentowane zarówno w formie obrazowej,
w postaci wyobrażeń, jak i w formie fonologicznej, w postaci bezgłośnie
artykułowanych głosek (McCloskey, Macaruso, 1995, Ansari, 2008).
Oznaczałoby to, że reprezentacje numeryczne podlegają zasadzie
podwójnego kodowania (Paivio, 1986). Nie można jednak wykluczyć, że
istnieją jakieś głębsze formy odzwierciedlania liczb, zrywające
z powierzchniową formą reprezentacji i uwzględniające semantyczne
aspekty informacji numerycznej. Na przykład liczba 13 może być
umysłowo reprezentowana jako obraz składających się na nią cyfr, jako
osiem fonemów tworzących trzy sylaby (trzy-naś-cie) lub jako oznaczenie
tego wszystkiego, co po zmierzeniu daje wynik 13 (13 złotych, 13 worków
mąki itd.). Reprezentacja obrazowa i fonologiczna jest z natury
powierzchniowa, czyli nietrwała, podczas gdy reprezentacja trzeciego
rodzaju odwołuje się do znaczenia liczby 13 i jako część wiedzy
semantycznej musi być uznana za trwałą. Pytanie, jaką formę przyjmują
umysłowe reprezentacje liczb, wykracza więc poza dylemat: obraz czy
słowo. Jest to problem istnienia specyficzności reprezentacji numerycznej,
ale też problem relacji między reprezentacjami numerycznymi a innymi
formami umysłowego odzwierciedlenia świata. Ponadto chodzi o to, czy
reprezentacje numeryczne mają charakter nietrwały, jak wyobrażenia, czy
trwały, jak elementy wiedzy.

Robert Moyer wraz ze współpracownikami (Moyer, Landauer, 1967;


Moyer, Dumas, 1978) mierzył czas potrzebny do oceny identyczności lub
odmienności liczb prezentowanych badanym. Osoba badana widziała dwie
liczby, a jej zadanie polegało na stwierdzeniu, czy ich wartości są
identyczne (np. 5 i 5) czy nie (np. 5 i 8). Okazało się, że znacznie więcej
czasu zajmuje porównywanie liczb o podobnej wielkości, a znaczniej mniej
– liczb zdecydowanie różniących się wartościami. Na przykład czas
porównywania liczb 2 i 8 był znacznie krótszy niż liczb 2 i 4. Zjawisko to
nazwano efektem dystansu numerycznego. Podobne wyniki uzyskali
m.in. Stanislas Dehaene i Rokny Akhavein (1995) oraz Filip van Opstal
i Tom Verguts (2011). Efekt dystansu sugeruje, że przetwarzając liczby,
człowiek tworzy przestrzenną reprezentację umysłową, w której liczby
o zbliżonych wartościach są umiejscowione blisko siebie, a te
o zdecydowanie różnych wartościach – daleko od siebie. Chcąc porównać
dwie wartości, musi on jak gdyby „spojrzeć” na ową przestrzenną
reprezentację, a w przypadku gdy dwa obiekty znajdują się blisko siebie,
zmuszony jest „przybliżyć” sobie obraz. Taki „umysłowy zoom” wymaga
oczywiście czasu, stąd efekt dystansu numerycznego. Człowiek zachowuje
się więc w kontakcie z liczbami trochę tak, jak w przypadku wyobrażenia
sobie dwóch przedmiotów o różnej wielkości. Szczegóły wyobrażenia
królika są mało „widoczne”, jeśli jest on w towarzystwie słonia (Kosslyn,
1983); tak samo różnica między 2 i 4 wydaje się mało wydatna i aby ją
stwierdzić, trzeba „przybliżyć” obraz i dokładniej się „przyjrzeć”. Wynika
z tego, że reprezentacje numeryczne są po prostu obrazowe albo bardzo
bliskie obrazowym. To z kolei prowadzi do wniosku, że reprezentacje te –
podobnie jak obrazy umysłowe – mają nietrwały charakter, czyli są
tworzone ad hoc w celu porównania dwóch wartości, dokonania obliczeń
lub rozwiązania problemu. Jeśli tak, to po zakończeniu czynności
poznawczej nietrwałe reprezentacje numeryczne po prostu zanikają,
a kolejna czynność poznawcza wymagająca przetwarzania liczb musi
powołać do życia nowy zbiór takich reprezentacji.

Kolejne badania pokazały, że wprawdzie sam efekt dystansu numerycznego


należy wiązać z przetwarzaniem w zakresie trwałych reprezentacji
numerycznych, jednak jego wielkość zależy od reprezentacji nietrwałych.
Jamie Campbell (1994) pokazywał osobom badanym liczby albo
w formacie cyfrowym (np. 13), albo w postaci napisanych słów (np.
trzynaście). Wykazał, że werbalna reprezentacja liczb zmniejsza efekt
dystansu numerycznego, choć go nie likwiduje. Gdyby słowna forma
prezentacji liczb w niczym nie osłabiała efektu dystansu, można by
wnioskować, że liczby są zawsze reprezentowane w umyśle w postaci
wyobrażeń. Bez względu na to, w jakiej modalności dociera do nas
informacja liczbowa, i tak jest przedstawiona w postaci obrazowo-
przestrzennej, co sprawia, że stwierdzenie różnicy między 2 a 8 trwa krócej
niż stwierdzenie różnicy między 2 a 4. Inaczej mówiąc, człowiek
przedstawia sobie liczby w postaci obrazów, a obrazy – co wiadomo
z badań Kosslyna nad mapami umysłowymi – są podatne na efekt dystansu
przestrzennego. Natomiast gdyby forma prezentacji liczb całkowicie
redukowała efekt dystansu, można by sądzić, że liczby są reprezentowane
w umyśle w postaci amodalnych sądów (propositions). W takim kodzie
reprezentacji nie ma najmniejszego znaczenia, czy porównujemy liczbę 2
z liczbą 4, 6, 8 czy 800. Liczba 2 różni się od wszystkich tych liczb,
a stwierdzenie tego faktu powinno być łatwe i szybkie niezależnie od
dystansu między porównywanymi wartościami. Wykrycie przez
Campbella, że werbalny format liczb zmniejsza efekt dystansu, lecz
całkowicie go nie znosi, sugeruje, iż reprezentacje numeryczne są czymś
pośrednim między obrazami a sądami, a być może stanowią odrębny
format umysłowej reprezentacji świata.

Propozycjonalny charakter reprezentacji numerycznych niczego nie


przesądza w kwestii ich trwałości lub nietrwałości. Sąd „dwa jest mniejsze
niż osiem” może być elementem trwałej wiedzy semantycznej, ale równie
dobrze może zostać wyprowadzony ad hoc i zniknąć zaraz po tym, jak
przestanie być potrzebny. Doraźne utworzenie takiego sądu wymaga
przywołania trwałej wiedzy na temat tego, czym jest liczba i czym jest
relacja większości/mniejszości, natomiast obie wartości, czyli 2 i 8, mogą
powstać w wyniku kodowania obrazowego lub werbalnego. W zależności
od tego, jaka modalność zmysłowa bierze udział w percepcji liczb, ich
reprezentacja może mieć charakter obrazowy lub słowny. Łączne użycie
nietrwałych reprezentacji konkretnych liczb oraz trwałych elementów
ogólnej wiedzy na temat tego, czym jest liczba i czym są relacje między
liczbami, skutkuje wyprowadzeniem sądu, że 2 jest mniejsze niż 8. Sąd taki
może już być amodalny, zgodnie z tym, co sugeruje Pylyshyn (1981).
W każdym razie spór o format reprezentacji numerycznych nie jest tym
samym, co spór o ich trwałość. Według McCloskeya i Macarusa (1995)
w procesie porównywania liczb ludzie zawsze odwołują się do głębokich,
trwałych reprezentacji umysłowych. Autorzy argumentują, że poznawcze
wykorzystanie liczby wymaga użycia trwale zakodowanej wiedzy
o relacjach między wartościami liczbowymi a pośrednio – o relacjach
między wielkościami masy, objętości lub innych fizycznych cech
przedmiotów, których abstrakcyjnymi odpowiednikami są liczby.

Natomiast Campbell (1994) broni tezy, że liczby tworzą w umyśle


reprezentacje nietrwałe, w dużym stopniu przypominające wyobrażenia
przestrzenne. Zdaniem tego autora (Campbell, Clark, 1988; Clark,
Campbell, 1991) reprezentacje numeryczne mają charakter analogowy,
związany z modalnością, w jakiej informacje liczbowe docierają do
systemu poznawczego, aby być dalej przetwarzane. Zatem reprezentacje
numeryczne mogą być przetwarzane w modalności niewerbalnej
(wzrokowej, słuchowej) lub werbalnej, ale są wzajemnie powiązane
w złożone struktury, dzięki czemu możliwy jest transfer umiejętności
w zakresie obliczeń numerycznych z jednego rodzaju reprezentacji na inny
(Whetstone, McCloskey, 1994). Na przykład informacje liczbowe
prezentowane wizualnie mogą być wykorzystane do udzielenia słownej
odpowiedzi na pytanie. Ponieważ jednak są tutaj zaangażowane odrębne
modalności, przetwarzanie tego rodzaju musi być podatne na zakłócenia
i błędy – znacznie większe niż w przypadku, gdy zaangażowana jest tylko
jedna modalność. Jednak Stanislas Dehaene, Serge Bossini i Pascal Giraux
(1993; zob. też Dehaene, 2011) nie znaleźli argumentów empirycznych
świadczących na korzyść poglądów Campbella i Clarka. Niezależnie od
formy prezentacji liczb obliczenia wykonywane przez osoby badane nie
różniły się znacząco, jeśli chodzi o czasowe i poprawnościowe parametry
wykonania.

Istotą sporu pomiędzy McCloskeyem a Campbellem jest to, czy istnieją


głębokie, trwałe i amodalne reprezentacje poznawcze w formie sądów
o relacjach między liczbami, decydujące o przebiegu procesów
przetwarzania informacji numerycznych. Spór ten nie odnosi się jedynie do
reprezentacji numerycznych i ma znacznie głębszy sens teoretyczny.
Problem pierwotności lub wtórności nietrwałych odzwierciedleń
umysłowych względem reprezentacji trwałych będzie dyskutowany
w kolejnym podrozdziale.

2.4. Pierwotność czy wtórność nietrwałych


reprezentacji umysłowych

2.4.1. Hipoteza języka myśli


Różnorodność nietrwałych reprezentacji umysłowych ze względu na język
kodowania danych zmysłowych wydaje się dobrze uzasadniona
empirycznie i teoretycznie. Rodzi jednak dodatkowy problem przekładu
jednej formy powierzchniowej reprezentacji umysłowej na inną. Zasada
referencjalności w koncepcji podwójnego kodowania wydaje się trafna, ale
wymaga określenia reguł odpowiedniości imagenów i logogenów
w odniesieniu do tych samych obiektów rzeczywistych. Próbę rozwiązania
tego problemu podjął John Anderson (1978; Anderson, Bower, 1973),
formułując hipotezę trzeciego języka kodowania, zwaną również hipotezą
języka myśli (language of thought, LOT, albo mentalese).

Hipoteza ta głosi, że umysł ludzki nie gromadzi trwałej wiedzy ani


w postaci obrazów, ani etykiet werbalnych, ale wyłącznie w postaci zbioru
sądów (twierdzeń) o relacjach między obiektami. Kod twierdzeniowy,
zwany też propozycjonalnym (propositional), ma postać abstrakcyjnych,
amodalnych twierdzeń opisowych, zorganizowanych w sieć umożliwiającą
odbiór, rozumienie i przetwarzanie informacji. Sąd należałoby zdefiniować
jako taką formę reprezentacji umysłowej, w której będą wyrażone relacje
zachodzące pomiędzy obiektami (Chlewiński, 1999; zob. rozdz. 3). Na
przykład myśl, że podręcznik leży na biurku, można przedstawić w postaci
sądu:

[na (podręcznik, biurko)].

W strukturze tego sądu da się więc wyróżnić relację, że jeden obiekt


znajduje się na drugim, a ponadto dwa obiekty związane są relacją. Sądy
mogą przybierać inną formę, w zależności od rodzaju relacji między
obiektami. Oprócz sądów dotyczących relacji przestrzennych wyróżnia się
sądy o przynależności kategorialnej, np.:

[jest to (kot, zwierzę)],

sądy o atrybutach, np.:

[ma (kot, sierść)],


oraz sądy o działaniach, np.:

[ukraść (złodziej, auto)].

W przedstawionych przykładach mamy do czynienia z sądami o prostej


strukturze. Jednakże dzięki abstrakcyjnej formie zapisu kod
propozycjonalny nadaje się do wyrażenia dowolnej relacji, wiążącej
dowolnie dużo obiektów. Łączenie i przekształcanie sądów jest możliwe
dzięki tzw. rachunkowi predykatów, który jest logicznym systemem
przetwarzania zdań abstrakcyjnych. Elementem rachunku predykatów jest
np. negacja. Dlatego myśl, że podręcznik leży pod biurkiem, a nie na nim,
można zapisać w formie:

[~ na (podręcznik, biurko)],

co oznacza, że pierwotną relację „na” zanegowano, uzyskując relację


„pod”. Negację można powtórnie zanegować, uzyskując sąd pierwotny;
można też łączyć sądy spójnikami logicznymi, takimi jak koniunkcja,
alternatywa itd. Dzięki rachunkowi predykatów można otrzymać sąd
o dowolnym poziomie złożoności, wyrażający dowolną relację między
dowolną liczbą obiektów.

Ze zbioru sądów mogą być w zależności od potrzeb generowane nietrwałe


reprezentacje umysłowe, zarówno słowne, jak i obrazowe. Same sądy
jednak nie mają postaci słownej czy obrazowej, nie zależą też od rodzaju
zaangażowanej modalności zmysłowej – są amodalne. Pogląd ten jest
zgodny z bardziej umiarkowanymi tezami Kosslyna, który przecież
uznawał konieczność istnienia głębokich, trwałych i niespecyficznych ze
względu na modalność sensoryczną reprezentacji umysłowych,
stanowiących podstawę konstrukcji analogowych reprezentacji
obrazowych. Różnice w poglądach Kosslyna i Andersona dotyczą kwestii
pierwotności lub wtórności poszczególnych rodzajów reprezentacji.
Podczas gdy dla Kosslyna znacznie ważniejsze są nietrwałe reprezentacje
obrazowe, mające bezpośredni wpływ na bieżące przetwarzanie informacji,
dla Andersona podstawę stanowią reprezentacje trwałe i zarazem głębokie,
bo z nich można utworzyć dowolną reprezentację powierzchniową.

Hipoteza języka myśli zyskała uznanie z kilku powodów. Po pierwsze, za


pomocą sądów można przedstawić każdy rodzaj informacji, a więc także
opis słowny czy zawartość obrazu, co sprawia, że postulowanie istnienia
innych kodów nie jest już potrzebne. Po drugie, sądy przechowują głębokie
znaczenie informacji, pomijając jej powierzchniową, sensoryczną formę,
a zapamiętywanie na podstawie głębokich reprezentacji umysłowych jest
najskuteczniejszą formą trwałego przechowywania informacji (Craik,
Lockhart, 1972; Craik, Tulving, 1975). W badaniach stwierdzono np., że
znaczenie tekstu jest pamiętane znacznie lepiej od formy językowej,
w jakiej był on prezentowany (Bransford, Barclay, Franks, 1972). Skoro
zjawisko addytywności efektów zapamiętania przy wykorzystaniu kodu
obrazowego i werbalnego (Paivio, Csapo, 1973) miałoby być argumentem
na rzecz tezy o istnieniu dwóch nietrwałych kodów powierzchniowych, to
wielokrotnie potwierdzona teza o znaczeniu głębokości przetwarzania dla
efektywności zapamiętywania musi działać na rzecz hipotezy języka myśli.
Po trzecie, sądy w naturalny sposób wspierają myślenie i podejmowanie
decyzji, a najczęściej te procesy właśnie operują na reprezentacjach
umysłowych. Precyzja i logika informacji zawartych w twierdzeniach
sprawia, że reguły wyciągania wniosków przy operowaniu kodem
propozycjonalnym są jednoznaczne, choć nie zawsze proste i łatwe do
zastosowania.
Fakt, że sądy można przekształcać z wykorzystaniem rachunku
predykatów, a także przyjęty sposób notacji sądów, nie znaczy bynajmniej,
że według hipotezy języka myśli – reprezentacje umysłowe mają postać
struktur logicznych. Jak zauważa R. Sternberg (1996), kod
propozycjonalny jest konstruktem teoretycznym, przyjętym przez wielu
psychologów poznawczych ze względu na związane z tym korzyści
metodologiczne w opisie i wyjaśnianiu funkcjonowania umysłu. Ci sami
psychologowie, którzy postulują istnienie kodu propozycjonalnego,
odżegnują się najczęściej od tezy, jakoby sądy miały przybierać postać
formuł logicznych. Cały sens hipotezy języka myśli sprowadza się do tego,
że sądy przybierają postać swoistą – ani werbalną, ani obrazową – a język
logiki i rachunek predykatów to tylko wygodny sposób notacji tego typu
reprezentacji świata w umyśle.

2.4.2. Teoria pierwotnych reprezentacji w formie zbioru sądów


Pylyshyna
W badaniach prowadzonych w paradygmacie rotacji mentalnych i skaningu
umysłowego instrukcja eksperymentalna z reguły wymusza dokonanie
przez osoby badane specyficznego przekształcenia, typowego dla obrazów;
chodzi o przeglądanie, powiększanie lub rotowanie obiektu. Pojawia się
wobec tego pytanie, czy wyniki tych badań nie są przypadkiem artefaktami,
wywołanymi przez odpowiednio skonstruowane instrukcje
eksperymentalne (Intons-Peterson, 1983; Pylyshyn, 1981; Rinck, Denis,
2004).

Pylyshyn zrealizował swoje badania wspólnie z Bannonem


(nieopublikowana rozprawa doktorska Bannona, omówiona w: Pylyshyn,
1981) w paradygmacie skaningu umysłowego z mapą wyspy jako
zapamiętywanym obiektem. Uczestnikom zadawano pytania o położenie
geograficzne (północ, południe, południowy wschód itd.) konkretnych
obiektów na mapie. W pierwszym warunku mogli oni wykorzystywać
procesy postrzegania, mapa bowiem znajdowała się cały czas w zasięgu ich
wzroku. Stwierdzono wtedy silną zależność (r = 0,50) czasu decyzji od
odległości zadanego elementu od punktu fiksacji. W drugim warunku
uczestnicy badania musieli sobie wyobrazić mapę, przy czym instrukcja
nakazywała zwrócić uwagę na oba obiekty (punkt fiksacji oraz zadany
element), nie sugerując, w jaki sposób należy to zrobić (np. że należy
przenieść „plamkę” z jednego punktu do drugiego). W takim wariancie
procedury nie stwierdzono związku między czasem decyzji a wzajemną
odległością obiektów na mapie (r = – 0,03). Jeśli więc instrukcja udzielona
badanemu wymaga jedynie znalezienia się w odpowiednim miejscu
względem punktu fiksacji, ale nie precyzuje, w jaki sposób można ten cel
osiągnąć, to związek między czasem decyzji a odległością punktów na
„skanowanej” mapie umysłowej zanika. Wynika z tego, że w słynnych
badaniach nad rotacją, a zwłaszcza skaningiem umysłowym, uczestnikom
być może zasugerowano, aby wyobrażali sobie ruch obiektu, który musi
trwać odpowiednio do przebytego dystansu. Wniosek, że wyobraźnia działa
analogicznie do percepcji, a zwłaszcza analogicznie do prawdziwych
manipulacji na obiektach, wydaje się więc pochopny.

W innym badaniu Mike Rinck i Michel Denis (2004) polecili uczestnikom


„przechadzanie się” w wyobraźni po budynku muzeum, składającym się
z 10 pokoi, w których rozmieszczono 24 obrazy znanych mistrzów (ryc.
2.5). Zgodnie z paradygmatem skaningu umysłowego badani najpierw
zapamiętywali plan pomieszczeń (przez 30 minut), a następnie już „w
wyobraźni” pokonywali wyznaczone im odległości. Instrukcja wymagała
np., aby odnaleźć dany obraz, wyjść z pokoju, przejść przez dwa sąsiednie
pomieszczenia i znaleźć się przed innym obrazem. Badani zgłaszali
moment wykonania wymaganej czynności. Rinck i Denis manipulowali
fizycznym oraz kategorialnym (liczba pokoi) dystansem, jaki trzeba było
przebyć. Stwierdzili klasyczny dla stanowiska obrazowego efekt odległości
– im większy fizyczny dystans do pokonania, tym dłuższy czas
„odszukiwania” wskazanego w instrukcji miejsca. Okazało się jednak, że
efekt odległości dotyczy również dystansu kategorialnego: czas
odszukiwania był tym większy, im więcej pokoi trzeba było przejść „w
wyobraźni”, niezależnie od dystansu fizycznego. O ile pierwszy wynik jest
zgodny z przewidywaniami wyprowadzonymi z koncepcji obrazowych,
o tyle wynik drugi świadczy raczej na korzyść stanowiska
propozycjonalnego. Być może uczestnicy tego badania tworzyli
reprezentacje przestrzeni w postaci sądów odzwierciedlających relacje
między pokojami. Każdy pojedynczy sąd dotyczy relacji między pokojami
sąsiednimi (np. „sala nr 2 jest na lewo od sali nr 3”), a sądy dotyczące
innych par pokoi wymagają złożenia odpowiedniej liczby takich sądów
pierwotnych. Nic więc dziwnego, że im większy dystans wyrażony liczbą
pokoi, tym dłuższy czas decyzji.
RYCINA 2.5. Plan muzeum wykorzystany w badaniach nad pokonywaniem dystansu „w
wyobraźni”
Źródło: Rinck, Dennis, 2004.

Margaret Intons-Peterson (1983) wprowadziła jeszcze inną manipulację


instrukcją. Połowie uczestników badania sugerowała, że zadanie z zakresu
skaningu umysłowego lepiej wykonywać w warunku percepcyjnym. Druga
połowa badanych dowiadywała się, że lepsze wyniki można uzyskać
w warunku wyobrażeniowym. Rodzaj zastosowanej instrukcji znalazł
wyraźne odzwierciedlenie w wynikach eksperymentu. W żadnej z dwóch
grup nie stwierdzono funkcjonalnej ekwiwalencji percepcji i wyobraźni. Co
więcej, badani rzeczywiście szybciej wykonywali zadanie w warunku
eksperymentalnym, wskazanym przez badacza jako ten, w którym można
uzyskać lepsze wyniki.

Część rezultatów badań Bannona i Pylyshyna, Intons-Peterson oraz Rincka


i Denisa była więc sprzeczna z teorią powierzchniowych reprezentacji
umysłowych w formie obrazowej oraz z hipotezą ekwiwalencji percepcji
i wyobraźni. Pylyshyn (1981) w swojej krytyce reprezentacji obrazowych
posunął się jeszcze dalej, stwierdzając, że odzwierciedlenia wyobrażeniowe
są epifenomenami, czyli realnie nieistniejącymi, z gruntu
niesamodzielnymi „zdarzeniami” mentalnymi; prawdziwie istniejące są
tylko reprezentacje wyrażone w kodzie propozycjonalnym. Sądził, że
efekty eksperymentalne uzyskane przez zwolenników koncepcji obrazowej
są artefaktami, wynikającymi z zastosowania sugerującej instrukcji dla
osób badanych. Według Pylyshyna (1973, 1981), reprezentacja umysłowa
jest abstrakcyjną strukturą poznawczą, w której odzwierciedlone są relacje,
jakie zachodzą między obiektami i wydarzeniami w otaczającej nas
rzeczywistości. Reprezentacje obrazowe Kosslyna i sensoryczne obrazy
Paivia są, zdaniem Pylyshyna, zjawiskami wtórnymi wobec właściwych
reprezentacji umysłowych i powstają w wyniku przetwarzania tych
ostatnich. Logogeny Paivia są już bliższe reprezentacjom umysłowym
w przekonaniu Pylyshyna, ale przez swoją konkretność i modalność
bardziej pasują do powierzchniowych reprezentacji umysłowych w formie
obrazów sensorycznych niż do amodalnych i abstrakcyjnych
odzwierciedleń otaczającej nas rzeczywistości. Odmienność
poszczególnych koncepcji reprezentacji dobrze ilustruje taki oto przykład.
Według Kosslyna (1983) reprezentacja umysłowa szachownicy ma postać
obrazu naprzemiennie ułożonych pól czarnych i białych. Zdaniem Paivia
(1986) reprezentacją umysłową szachownicy może być albo jej
sensoryczny obraz (jak u Kosslyna), albo werbalny opis koloru
poszczególnych pól. W ujęciu Pylyshyna (1981) reprezentacja szachownicy
to nic innego, jak zbiór sądów (twierdzeń) dotyczących charakteru pól
(czarne lub białe) i ich lokalizacji w obrębie matrycy 64 pól
zdefiniowanych przez litery i cyfry (G3, A8 itd.).

Pylyshyn (1981) uważał więc, że poszczególne obiekty są reprezentowane


w umyśle nie samodzielnie, ale jako część twierdzenia o wzajemnej relacji
dwóch obiektów, przy czym relacje przestrzenne to tylko jedna z wielu
możliwości. Na przykład wyobrażając sobie mapę Europy, „widzimy”, że
Holandia znajduje się na zachód od Niemiec, a Niemcy – na zachód od
Polski. Jeśli kosslynowski punkt fiksacji wypada na Ukrainie, która na
zachodzie graniczy z Polską, odpowiedź na pytanie, co jest położone dalej
od Ukrainy: Holandia czy Niemcy, wymaga rozważenia większej liczby
twierdzeń niż odpowiedź na pytanie, czy dalej od Ukrainy jest Polska czy
Niemcy. W drugim przypadku wystarczy rozważyć tylko dwa twierdzenia:

[leży na zachód od (Polska, Ukraina)],

oraz

[leży na zachód od (Niemcy, Polska)],

podczas gdy w pierwszym przypadku do dwóch przedstawionych sądów


trzeba dodać trzeci:

[leży na zachód od (Holandia, Niemcy)].

Jest oczywiste, że im więcej sądów, tym więcej czasu potrzeba na ich


przetworzenie, dlatego czas decyzji jest dłuższy, gdy porównywane
elementy leżą dalej na mapie. Jeśli jednak efekt odległości nie ujawni się
w badaniach, co czasem się zdarza, trzeba wnioskować, że w takiej sytuacji
wszystkie obiekty są powiązane bezpośrednimi relacjami definiującymi ich
wzajemne położenie w przestrzeni. Jeśli np. ktoś dysponuje gotowym,
utrwalonym sądem o treści:

[leży na zachód od (Holandia, Ukraina)],


wówczas odpowiedź na pytanie o położenie dwóch obiektów wymaga
przetworzenia tylko jednego sądu, co oznacza, że na podjęcie decyzji
trzeba zużyć tyle samo czasu niezależnie od rzeczywistej lub wyobrażonej
odległości dwóch obiektów. Jak widać, kod propozycjonalny jest bardziej
uniwersalnym sposobem zapisu poznawczych reprezentacji świata niż kod
werbalny, a zwłaszcza obrazowy. Jest też lepiej dopasowany do
zaobserwowanych danych empirycznych, ponieważ dobrze wyjaśnia
zarówno to, co jest wyjaśnialne z odwołaniem się do kodu obrazowego, jak
i to, z czym stanowisko obrazowe zupełnie sobie nie radzi.

2.4.3. Teoria modeli mentalnych Johnsona-Lairda


Nietrwałe, powierzchniowe reprezentacje poznawcze, tworzone na
potrzeby bieżącego przetwarzania informacji, mogą przyjmować jeszcze
jedną postać. Oprócz obrazów, słów i sądów umysł ludzki generuje tzw.
modele mentalne, czyli nietrwałe reprezentacje słowno-obrazowe o dość
dużym poziomie złożoności. Powstają one zwykle w toku procesu myślenia
lub rozumowania jako sposób na przedstawienie sobie w umyśle istoty
problemu, a zwłaszcza składających się nań zależności. Wnikliwą analizę
tego typu reprezentacji przeprowadził w swojej koncepcji modeli
mentalnych Philip Johnson-Laird (1983, 2010). Teoria ta wyrosła na
gruncie badań nad wnioskowaniem. Zasadnicza teza autora brzmi, że
wnioskowanie nie jest formalnym procesem syntaktycznym, ale procesem
semantycznym, którego przebieg zależy od wyobrażonych stanów
analizowanej sytuacji. Innymi słowy, przebieg i efekty wnioskowania
zależą od modelu sytuacji, a więc od sposobu reprezentowania problemu
w umyśle osoby się z nim zmagającej.
Wnioskowanie obejmuje trzy główne operacje. W pierwszej kolejności
człowiek buduje w umyśle wyobrażenie stanu rzeczy, o jakim jest mowa
w przesłankach. W ten sposób powstaje mentalny model sytuacji, oparty
zarówno na znaczeniach zawartych w przesłankach, jak i na wiedzy
ogólnej. Taki model jest zawsze uproszczoną reprezentacją problemu,
często błędną i wewnętrznie niespójną, gdyż zazwyczaj – z punktu
widzenia logiki formalnej – treść przesłanek można sobie przedstawić
w różny sposób. Na przykład przesłankę:

Każdy psycholog jest mędrcem,

można rozumieć na wiele sposobów: że poza psychologami jest cała masa


mędrców niepsychologów, że mędrców niepsychologów jest naprawdę
niewielu, wreszcie – że każdy mędrzec jest psychologiem. Z logicznego
punktu widzenia każde z tych stwierdzeń jest poprawnym
uszczegółowieniem treści przesłanki, ale psychologicznie rzecz ujmując, są
to stwierdzenia dość odrębne. Im bardziej złożona przesłanka, tym więcej
modeli mentalnych można na jej podstawie zbudować. Im więcej zaś
możliwych do zbudowania modeli, tym łatwiej o pomyłkę we
wnioskowaniu, ponieważ pomyłka może wynikać z tego, że w swoim
umysłowym przedstawieniu treści przesłanek nie uwzględniliśmy
wszystkich możliwości. Na drugim etapie wnioskowania mentalny model
przesłanek staje się punktem wyjścia do wyprowadzenia próbnych
wniosków, zgodnych z przyjętym modelem. Ostatni etap wnioskowania
polega na budowaniu alternatywnych modeli umysłowych, które mogłyby
ewentualnie sfalsyfikować wnioski i skorygować ostateczną konkluzję.

Modele umysłowe danego obiektu, sytuacji czy zjawiska są tworzone ad


hoc, na potrzeby rozwiązania konkretnego problemu. Może się więc
okazać, że ta sama osoba, na potrzeby dwóch różnych zadań, utworzy dwa
całkowicie odmienne modele tego samego obiektu lub zjawiska. Ta
zadziwiająca własność modeli umysłowych ujawnia się szczególnie
wyraźnie w badaniach nad naiwnymi teoriami zjawisk czy obiektów (zob.
podrozdz. 11.2.2). Z punktu widzenia sporu o naturę reprezentacji
umysłowych najważniejsze jest twierdzenie Johnsona-Lairda (1983), że
nietrwałe modele mentalne powstają zarówno na bazie spostrzeżeń
i wyobrażeń, a więc nietrwałych reprezentacji umysłowych, jak i na bazie
wiedzy, a więc reprezentacji trwałych. W tym ujęciu żadna forma
reprezentacji nie jest przypadkowym bytem pozbawionym znaczenia –
wszystkie biorą ważny udział w tworzeniu modelu stanowiącego materiał
dla bieżących procesów przetwarzania informacji. Modele mentalne należy
zatem uznać za osobną formę nietrwałej reprezentacji świata w umyśle,
wyróżnioną ze względu na mieszany, obrazowo-pojęciowy charakter, jak
również ze względu na stosunkowo wysoki poziom złożoności. Typowy
model umysłowy jest bowiem czymś znacznie bardziej złożonym niż
obraz, etykieta werbalna czy nawet twierdzenie.

2.4.4. Stanowisko eklektyczne w sporze o kod reprezentacji


umysłowych
Co wynika z przedstawionego w tym rozdziale sporu o naturę i formę
reprezentacji świata w umyśle? Czy możliwe jest sformułowanie jakiejś
konkluzji popartej wynikami badań empirycznych?

Wydaje się, że zadania z zakresu rotacji mentalnych, w których


wykorzystuje się wyłącznie materiał niewerbalny (rysunki, figury, rzuty
figur na płaszczyznę), wymagają raczej wyobrażeń w postaci obrazów
sensorycznych (Kosslyn, Paivio). Z kolei zadania z zakresu weryfikacji
sylogizmów, wykorzystujące materiał werbalny, wymagają raczej
reprezentacji w postaci etykiet słownych (Paivio) lub nawet głębszych
reprezentacji umysłowych w postaci zbioru abstrakcyjnych twierdzeń
i sądów o relacjach (Pylyshyn). Natomiast zadania z zakresu skaningu
umysłowego mogą być rozwiązywane zarówno w obrazowej, jak
i werbalnej formie reprezentacji powierzchniowych; mogą wymagać
udziału trwałych reprezentacji w formie sądów o relacjach bądź ich nie
wymagać. Wyniki przedstawionych w tym rozdziale badań nie mogą więc
być interpretowane na korzyść żadnej ze skrajnych teorii reprezentacji
umysłowych. Każde skrajne ujęcie można łatwo sfalsyfikować,
przedstawiając wyniki badań eksperymentalnych, których nie da się w jego
ramach zrozumieć.

Każdy człowiek zapewne dysponuje różnymi reprezentacjami umysłowymi


tych samych obiektów. Ten sam przedmiot, osoba lub sytuacja mogą być
przedstawione w postaci obrazu, etykiet werbalnych lub zbioru twierdzeń.
W zależności od rodzaju stymulacji, kontekstu lub fazy rozwiązywania
problemu człowiek tworzy ad hoc i wykorzystuje obrazową, werbalną lub
propozycjonalną formę reprezentacji; niekiedy też buduje złożony model
mentalny sytuacji lub problemu. Kod obrazowy jest charakterystyczny dla
początkowych faz rozwiązywania zadań, polegających głównie na
przyswajaniu informacji, podczas gdy kod werbalny lub propozycjonalny
działa raczej w późniejszych fazach, gdy należy dokonać logicznych
przekształceń albo innych złożonych operacji umysłowych. Być może
o wyborze rodzaju reprezentacji umysłowej w przetwarzaniu danych
decydują osobiste preferencje jednostki. Gdy rodzaj zadania lub jego
instrukcja nie określa jednoznacznie pożądanego rodzaju reprezentacji
umysłowych, wtedy o ich wyborze decydują właśnie indywidualne
strategie lub preferencje. Ostatecznie w sporze o istotę i rodzaje
reprezentacji umysłowych należałoby przyjąć stanowisko eklektyczne
(Anderson, 1995), dopuszczające możliwość istnienia wielu różnych form
kodowania świata w umyśle.

2.5. Podsumowanie
W rozdziale tym omówiliśmy naturę reprezentacji świata w umyśle.
Reprezentacje dzielą się na trwałe i nietrwałe. Te pierwsze tworzą struktury
wiedzy, podczas gdy te drugie powstają w związku z koniecznością
wykonania konkretnej czynności poznawczej (np. podjęcia decyzji,
wypracowania odpowiedzi na pytanie, rozwiązania problemu), po czym
zanikają. Nietrwałe reprezentacje poznawcze, zwane też
powierzchniowymi, mogą przyjmować postać obrazów umysłowych,
etykiet słownych, sądów o relacjach między obiektami czy złożonych
modeli umysłowych konkretnej sytuacji lub problemu. Powszechnie
obowiązującą zasadą funkcjonowania umysłu jest założenie, że ten sam
obiekt może być reprezentowany w różnym formacie, np. obrazowym
i słownym, a o użyciu określonej formy reprezentacji decydują czynniki
sytuacyjne (np. kontekst, polecenie, instrukcja, rodzaj napływającej
stymulacji) lub trwałe preferencje indywidualne.
Rozdział 3

Pojęcia i schematy

Konstrukt reprezentacji pojęciowej


Istota i funkcje reprezentacji pojęciowych
Ogólne właściwości pojęć
Pojęcia matrycowe i naturalne
Struktura i funkcjonowanie reprezentacji pojęciowych
Teorie klasyczne
Teorie probabilistyczne
Teorie prototypów
Teorie egzemplarzy
Porównanie koncepcji reprezentacji pojęciowych
Dynamiczna koncepcja umysłu, czyli o relacjach między pojęciami
Teorie sieci semantycznej
Złożone struktury sieciowe
Teoria schematów
Teoria ram
Teoria planów, scen i tematów
Porównanie koncepcji struktur sieciowych
Podsumowanie
Pojęcie to poznawcza reprezentacja zbioru obiektów, np. kategorii naturalnych (owoce), sztucznych
(liczba rzeczywista) lub hipotetycznych (UFO).
Schemat poznawczy to złożona forma reprezentacji umysłowej, obejmująca zarówno sens typowej
sytuacji (obiad w restauracji), jak i znaczenie typowych form zachowania (jedzenie, płacenie), jakie
mogą być wygenerowane w reakcji na tę typową sytuację.

Według anegdoty, kiedy pewien prowincjusz odwiedził ogród zoologiczny,


zatrzymał się przy wybiegu dla żyraf, długo się im przyglądał, po czym
stwierdził: „Takiego zwierzęcia nie ma!”. Anegdota jest zapewne
zmyślona, ale dobrze oddaje psychologiczny sens i funkcję pojęć: jeśli
brakuje umysłowej reprezentacji pewnego fragmentu rzeczywistości,
fragment ten zdaje się nie istnieć. Stan umysłu, któremu brakuje
adekwatnych reprezentacji pojęciowych, oddają takie określenia języka
potocznego, jak to, że coś się „nie mieści w głowie” albo że na coś „brak
słów”. W tym rozdziale omówimy trwałe reprezentacje poznawcze, jakimi
są pojęcia i schematy. Przedmiotem analizy będą rodzaje pojęć, ich
struktura i nabywanie oraz wpływ na aktywność poznawczą człowieka.
Osobny podrozdział poświęcimy analizie schematów poznawczych jako
struktur utworzonych z pojęć.

3.1. Konstrukt reprezentacji pojęciowej

3.1.1. Istota i funkcje reprezentacji pojęciowych


Pojęcia (concepts) są sposobem reprezentacji świata w naszym umyśle
(zob. rozdz. 2). Są schematycznymi reprezentacjami zbiorów obiektów,
stanowiąc dla nich nadrzędną kategorię umysłową, punkt odniesienia,
konieczny do ich identyfikacji i rozróżnienia w ramach rozmaitych
kategorii. Problemy z rozpoznawaniem obiektów często wynikają z braku
odpowiednich reprezentacji umysłowych. W myśl przytoczonej anegdoty
prowincjusz nie był w stanie sklasyfikować żyrafy jako egzemplarza
(desygnatu, przedstawiciela) nadrzędnej kategorii zwanej zwierzętami,
gdyż ta właśnie kategoria umysłowa była w jego przypadku reprezentacją
jedynie tych zwierząt, z którymi zetknął się w swoim doświadczeniu
i których szyje, w przeciwieństwie do szyi żyrafy, były proporcjonalne do
reszty ich ciał. Zaburzenie tej proporcji u żyrafy, a więc niespełnienie przez
nią istotnej właściwości kryterialnej, uniemożliwiło prowincjuszowi
potraktowanie nowo napotkanego w ogrodzie zoologicznym obiektu jako
podobnego do innych obiektów klasy zwierząt.

Schematyczna struktura reprezentacji pojęciowych wyraża się poprzez


relację koniunkcyjną („a i b”) lub dysjunkcyjną („a albo b”) istotnych
właściwości (a, b) obiektów, trwale odzwierciedlanych przez system
poznawczy (Lewicki, 1968; Smith, Shoben, Rips, 1974). Pojęcia można
więc definiować jako zbiory cech powiązanych znaczeniowo lub
funkcjonalnie (Obuchowski, 1970). Zbiór obiektów może również zostać
odzwierciedlony schematycznie, w sposób uproszczony, przez pojedynczy
egzemplarz danej kategorii, jeśli charakteryzuje się on właściwościami
typowymi bądź dystynktywnymi dla danej kategorii obiektów (Reed, 1972;
Rosch, 1978). Reprezentacje pojęciowe przyjmują postać głębokich,
trwałych odzwierciedleń obiektów rzeczywistych. W przeciwieństwie do
reprezentacji nietrwałych, wyobrażonych (np. w obrazach umysłowych czy
w etykietach werbalnych; zob. rozdz. 2) są niezależne od formy zmysłowej
i właściwości zmysłu, którym obiekty reprezentowane w ramach pojęcia są
spostrzegane. Reprezentacje pojęciowe mają więc charakter amodalnych
sądów o relacjach zachodzących między właściwościami obiektów
rzeczywistych.

Pojęcia zapewniają systemowi poznawczemu ekonomię funkcjonowania,


działając w zgodzie z priorytetową dla tego systemu zasadą „skąpca
poznawczego” (zob. rozdz. 1). Rola reprezentacji pojęciowych jest tu
zbliżona do podstawowej funkcji uwagi – selektywności (zob. rozdz. 5).
Zadaniem uwagi jest jednak przede wszystkim ograniczenie ilości
docierających do nas informacji i wybór do dalszego przetwarzania tylko
tych, które z punktu widzenia systemu poznawczego są ważne. Natomiast
dzięki reprezentacjom pojęciowym możliwe jest znaczne ograniczenie
różnorodności danych docierających do umysłu. Jak twierdzą Eleanor
Rosch i współpracownicy (1976, s. 382): „[...] jedną z najbardziej
podstawowych funkcji wszystkich organizmów jest ujmowanie otoczenia
w klasyfikacjach, które pozwalają traktować bodźce nieidentyczne jako
równoważne”. W ramach każdej kategorii poszczególne desygnaty mogą
bowiem znacznie się różnić, nadal będąc zaliczane do przedstawicieli
danego pojęcia. Na przykład różnice między egzemplarzami powszechnie
używanej kategorii pojęciowej „samochód” są znaczne, jednak kierujący
ruchem drogowym nie mają żadnych kłopotów z odróżnianiem desygnatów
tej właśnie kategorii od innych jego uczestników. Podobnie nawet tak
precyzyjnie zdefiniowane kategorie pojęciowe, jak „trójkąt” (figura
zamknięta o trzech bokach) posiadają egzemplarze znacznie różniące się od
siebie (trójkąt równoramienny i trójkąt rozwartokątny). W konsekwencji,
w przypadku przynajmniej niektórych reprezentacji pojęciowych,
poszczególne desygnaty wydają się lepszymi bądź gorszymi
przedstawicielami nadrzędnej kategorii. Jednak, mimo tej różnorodności,
zaliczenie ich do wspólnej kategorii nadrzędnej sprawia, że możliwe jest
konsekwentne, niezróżnicowane zachowanie wobec wszystkich jej
przedstawicieli, niezależnie od ich różnorodności. Dlatego policjant może
ukarać mandatem za szybką jazdę zarówno kierowcę małego fiata, jak
i prowadzącego porsche, do obliczenia zaś pola dowolnego trójkąta
wystarcza znajomość długości podstawy i wysokości tej figury, a nie jest
konieczna wiedza dotycząca stopnia rozwartości największego kąta.
3.1.2. Ogólne właściwości pojęć
Reprezentacje pojęciowe mogą mieć charakter zarówno indywidualny, jak
i ogólny. Przykładem pojęcia ogólnego jest pojęcie samochodu.
Przykładem pojęcia mniej ogólnego, a bardziej zindywidualizowanego jest
pojęcie samochodu, którego kierowca łamie przepisy ruchu drogowego,
a pojęcia zupełnie jednostkowego – pojęcie własnego samochodu.
Reprezentacje pojęciowe charakteryzuje więc różny stopień ogólności,
czyli różny stopień redukcji różnorodności wśród obiektów
odzwierciedlanych przez dane pojęcie. Im bardziej ogólne jest pojęcie, tym
bardziej jest ono zbiorem właściwości typowych. Jednocześnie wraz ze
wzrostem ogólności pojęcia rośnie wielkość zbioru jego desygnatów.
Wyprzedzając nieco rozważania dotyczące wzajemnych relacji między
pojęciami, można już teraz stwierdzić, że tworzą one złożoną strukturę,
opartą na zasadzie hierarchii ogólności – pojęcia podrzędne, np. własny
samochód, są podporządkowane pojęciom nadrzędnym, np. samochód,
zgodnie z zasadą inkluzywności właściwości i desygnatów (Collins, Loftus,
1975; Loftus, Loftus, 1976).

Proces redukowania różnorodności w ramach danej reprezentacji


pojęciowej odbywa się poprzez kategoryzację obiektów. Proces
kategoryzacji (categorization) polega na łączeniu obiektów w grupy
charakteryzujące się zestawem wspólnych właściwości. Taką właściwością
dla samochodów jest to, że poruszają się dzięki własnemu napędowi (w
sensie „same jeżdżą”) po drogach publicznych. Warto podkreślić, że
reprezentacja językowa (etykieta werbalna „samochód”), będąca
konsekwencją uchwycenia pewnych wspólnych właściwości grupy
obiektów domagających się wspólnego określenia, niekoniecznie musi się
pokrywać z reprezentacją pojęciową, dla której jest nazwą. W przypadku
pojęcia „samochód” reprezentacja językowa uwzględnia ważną właściwość
kategoryzowanych obiektów, ale często się zdarza, że etykieta werbalna ma
charakter całkowicie arbitralny, nie wskazując na żadne głębsze
właściwości grupy określanych przez nią desygnatów. Na przykład
angielska etykieta bus dla oznaczenia autobusów związana jest bardziej
z charakterystycznym odgłosem wydawanym przez starsze modele tych
środków transportu niż z jakąkolwiek istotną właściwością przedstawicieli
tej kategorii.

Reprezentacje pojęciowe rozwijają się i doskonalą w ciągu życia


człowieka, gromadzącego doświadczenia indywidualne i stojącego wobec
różnorodnych wymagań sytuacji. Są więc zależne od kontekstu ich
nabywania i stosowania (McCloskey, Glucksberg, 1978; Murphy, Medin,
1985). Mieszkaniec tybetańskiej wioski, który nigdy w życiu nie widział
samochodu, samodzielnie raczej nie stworzy odpowiedniej reprezentacji
pojęciowej. Z kolei większość mieszkańców Europy, poruszająca się
wygodnie samochodami, nie stworzyła sobie reprezentacji pojęciowej
tybetańskiego jaka. Brak bowiem bodźców (odpowiedniego kontekstu dla
procesu uczenia się) nie daje podstawy do wytworzenia reprezentacji
pojęciowej. Podane przykłady wydają się potwierdzać średniowieczną
koncepcję reprezentacjonizmu Williama Ockhama (za: Kemp, 1998).
Zgodnie z nią głębokie reprezentacje wprawdzie mogą funkcjonować
w oderwaniu od doświadczenia obiektów rzeczywistych, jednak ich
doświadczenie jest z pewnością niezbędne w procesie nabywania tych
reprezentacji. Koncepcję tę w psychologii rozwijali zwłaszcza zwolennicy
asocjacjonizmu (np. Titchener), a raczej przeciwni jej byli zwolennicy
psychologii Gestalt (np. Wertheimer, Külpe). Ci ostatni opowiadali się za
istnieniem pojęć nieobrazowych, niepochodzących z doświadczenia
percepcyjnego (Maruszewski, 1983).
3.1.3. Pojęcia matrycowe i naturalne
Pojęcia dzielimy na matrycowe i naturalne. Pojęcia matrycowe (inaczej:
klasyczne, classical concepts) są jasno zdefiniowane. Stanowią poznawczą
reprezentację skończonej liczby cech wspólnych wszystkim desygnatom,
które w jednakowym stopniu przysługują wszystkim egzemplarzom
pojęcia. Przykładem pojęcia matrycowego jest „trójkąt”. Trzema cechami
przysługującymi w jednakowym stopniu wszystkim trójkątom są: (1) bycie
figurą płaską; (2) bycie figurą zamkniętą; (3) posiadanie trzech kątów
o sumie stopni kątowych wynoszącej 180. W świetle tej definicji nie ma
sensu mówić o bardziej i mniej typowych trójkątach, bo wszystkie trójkąty
ją spełniają w jednakowym stopniu. Bez wątpienia dla matematyka trójkąt
równoboczny i rozwartokątny są tak samo dobrymi desygnatami trójkątów,
jak każdy inny przedstawiciel tej kategorii figur. Pojęcia matrycowe
dominują w języku nauki, bywają zresztą określane jako „naukowe” lub
„arystotelesowskie” (Trzebiński, 1986). To właśnie Arystoteles
zapoczątkował definiowanie obiektów poprzez wskazanie najbliższego
rodzaju (genus proximum) i specyficznej różnicy (differentia specifica).
Najbliższy rodzaj to kategoria nadrzędna w stosunku do obiektu
definiowanego, czyli najbliższa pod względem poziomu abstrakcji, ale
nazbyt ogólna. Natomiast specyficzna różnica to cecha, która wyróżnia
definiowany obiekt spośród innych przedstawicieli tej kategorii. Na
przykład określenie człowieka jako „zwierzęcia rozumnego” zawiera
najbliższy rodzaj: „zwierzę” i specyficzną różnicę: „rozumne”.

Pojęcia naturalne (natural kind concepts) są mniej precyzyjnie określone


i w związku z tym mogą mieć bardziej indywidualny charakter. One
również stanowią poznawczą reprezentację skończonej liczby cech, jednak
cechy te w różny sposób przysługują poszczególnym desygnatom pojęcia.
Dlatego każde pojęcie naturalne ma bardziej i mniej typowe desygnaty;
podobnie – cechy definiujące daną reprezentację pojęciową mogą być
mniej lub bardziej typowe. Wróbel jest bardzo typowym ptakiem, a kura
nim nie jest, chociażby z tego powodu, że lata ona z wielkim trudem
(Rosch, 1978). Pojęcia naturalne dominują w tworzeniu potocznej
reprezentacji świata w umyśle, podlegając czasami zmianom na skutek
kontaktu z innymi desygnatami danego pojęcia. Zmienność i zależność od
doświadczenia i kontekstu sytuacyjnego wyraźnie odróżniają pojęcia
naturalne od pojęć matrycowych.

Warto jednak zauważyć, że ta sama reprezentacja może być pojęciem


matrycowym dla pewnej grupy ludzi, a naturalnym dla innej. Opisany
wcześniej przykład pojęcia „trójkąt” posłużył jako ilustracja dla pojęć
sztucznych. Matrycowym pojęciem trójkąta posługują się prawdopodobnie
tylko przedstawiciele nauk ścisłych. Tymczasem zdecydowana większość
ludzi uważa, że pewne trójkąty są bardziej typowe (są lepszymi
przedstawicielami kategorii „trójkąt”), podczas gdy inne są mniej typowe
(są gorszymi jej przedstawicielami). Na przykład trójkąt równoboczny lub
prostokątny są często uważane za lepszych przedstawicieli swojej kategorii
niż trójkąt o kącie rozwartym powyżej 120o. Można o tym wnioskować na
podstawie obserwacji procesu kategoryzacji – osobom badanym z reguły
mniej czasu zajmuje identyfikacja „typowego” trójkąta jako desygnatu
swojej klasy niż identyfikacja przedstawiciela „nietypowego”. „Typowe”
trójkąty otrzymują także wyższe oceny w rankingach typowości, pod
warunkiem że oceny nie dokonują przedstawiciele nauk ścisłych.

3.2. Struktura i funkcjonowanie reprezentacji


pojęciowych
3.2.1. Teorie klasyczne
Według teorii klasycznych pojęcie jest syntetycznym opisem pewnej klasy
desygnatów, a nie zbiorem opisów różnych podzbiorów albo pojedynczych
egzemplarzy danej klasy (Bruner, Goodnow, Austin, 1956; Lewicki, 1960,
1968; Loftus, Loftus, 1976). Pojęcie jest reprezentacją zbioru obiektów,
uwzględniającą wszystkie istotne właściwości tego zbioru.
O właściwościach mówimy, że są istotne, jeśli się powtarzają.
Właściwością taką jest więc ta cecha, która występuje u wszystkich
obiektów należących do zbioru. Istotną właściwością zbioru psów jest to,
że wszystkie bez wyjątku wydają głos (i to specyficzny w postaci
szczekania), a nie jest nią posiadanie ogona (pewne rasy mają ogon
zredukowany bądź w ogóle go nie mają). Wszystkie cechy istotne są
zarazem konieczne i wystarczające do określenia danego pojęcia i dlatego
nazywane są również cechami definicyjnymi. Pojęcia podrzędne
w hierarchii ogólności zawierają wszystkie cechy pojęcia nadrzędnego,
a ponadto cechy istotne dla danego poziomu. Chcąc określić zbiór cech
istotnych dla kwadratu, nie można pominąć żadnych istotnych cech
czworoboków, czyli kategorii nadrzędnej.

Przyswajanie pojęć, zgodnie z koncepcjami klasycznymi, odbywa się na


drodze abstrahowania ich właściwości. Abstrahowanie oznacza
wyróżnianie w grupie obiektów pewnych cech przy pominięciu
pozostałych (w oderwaniu od nich; Fleszner, 1960). Andrzej Lewicki
(1960) odrzucił koncepcję jednorodności procesu abstrahowania i wyróżnił
dwa typy abstrakcji. Jego zdaniem abstrakcja negatywna polega na
pomijaniu cech nieistotnych (np. długość sierści u psa), abstrakcja
pozytywna zaś – na wyodrębnianiu tych cech, które są istotne (np.
wydawanie głosu w postaci szczekania). W konsekwencji przyjęcia takiego
rozróżnienia, w procesie nabywania pojęć możliwe są dwa rodzaje błędów.
Błąd pierwszego rodzaju polega na pomijaniu cech istotnych dla definicji
zbioru obiektów. Wieloryb bywa zaliczany do ryb, gdy pominięta zostaje
jego istotna cecha „ssakowatość”. Jest to błąd abstrakcji pozytywnej. Błąd
drugiego rodzaju polega na zaliczeniu do istotnych cech właściwości
niemających znaczenia. Pszczoła bywa zaliczana do ptaków, gdy za cechę
istotną kategorii „ptak” uzna się zdolność do latania (skądinąd nieistotną).
Jest to błąd abstrakcji negatywnej.

Paradygmat 3.1

Nabywanie pojęć metodą recepcji

Badania prowadzone w paradygmacie recepcji mają na celu poznanie


sposobu nabywania przez człowieka wiedzy o otaczającej go
rzeczywistości. Uczestnikowi eksperymentu pokazuje się sukcesywnie
pewną liczbę obiektów, informując go o tym, czy są one czy nie są
przedstawicielami sztucznie wymyślonej na potrzeby badania reprezentacji
pojęciowej. Istnieją dwie podstawowe odmiany tego paradygmatu, które
dokładniej opisują Tomasz Maruszewski (1983) i Józef Kozielecki (1976),
a badania z ich wykorzystaniem prowadził Andrzej Lewicki (1960, 1968).

W pierwszej odmianie paradygmatu recepcji – po prezentacji każdego


z obiektów – badany podejmuje decyzje co do jego przynależności
kategorialnej, a eksperymentator udziela mu każdorazowo informacji
zwrotnej o trafności jego przewidywań. Po przyswojeniu reprezentacji
pojęciowej przez badanego następuje seria testowa, w której kategoryzuje
on nowe obiekty zgodnie z kryteriami przynależności kategorialnej,
nabytymi w fazie uczenia się. W serii testowej nie przewiduje się
udzielenia badanemu informacji zwrotnej.
W drugiej odmianie paradygmatu recepcji uczestnikowi eksperymentu
prezentuje się sukcesywnie serię obiektów. Podczas pierwszej ich
prezentacji udziela się mu informacji o przynależności bądź braku
przynależności kategorialnej jednego z obiektów, po czym przystępuje on
do kategoryzowania pozostałych obiektów, a po zakończeniu całej serii
uzyskuje informację zwrotną – czy udało się mu zaklasyfikować poprawnie
wszystkie obiekty. W kolejnej serii dysponuje on już informacją
o przynależności kategorialnej dwóch obiektów (w następnej serii trzech,
w kolejnej – czterech, itd.). Ponownie dokonuje klasyfikacji pozostałych
bodźców. Powtarza czynność aż do momentu właściwego podziału
obiektów na reprezentantów sztucznie stworzonej kategorii i pozostałe
bodźce bądź do wyczerpania się obiektów, o których przynależności nic
jeszcze nie wiadomo.

W obu odmianach paradygmatu recepcji uczestnik eksperymentu


w pierwszej kolejności nabywa procedury identyfikacyjne umożliwiające
mu poprawną klasyfikację. W dalszej kolejności przedmiotem uczenia staje
się istota pojęcia (zestaw cech je określających), a prośba eksperymentatora
dotyczy sformułowania definicji reprezentacji pojęciowej, na podstawie
której odbywa się dotychczasowa klasyfikacja. Jednak ten drugi, wyższy
poziom osiąga już relatywnie niewielki odsetek badanych. Okazuje się, że
łatwiej posługiwać się pojęciem, dokonując poprawnej klasyfikacji, niż
sformułować jasną definicję pojęcia.

Paradygmat recepcji należy wyraźnie odróżnić od paradygmatu selekcji


(Maruszewski, 1983). W tym ostatnim badany jest aktorem dokonującym
wyboru w zakresie bodźca, na który reaguje, i sposobu reakcji na niego
(np. w zadaniu polegającym na sortowaniu kart do pudełek; Thompson,
1986). Natomiast w paradygmacie recepcji uczestnik badania jest biernym
obserwatorem, któremu pozwala się jedynie na formułowanie hipotez
dotyczących wspólności w zakresie spostrzeganych obiektów czy zjawisk.

Lewicki (1960, 1968) prowadził badania nad nabywaniem pojęć


sztucznych w paradygmacie recepcji, a ściślej w drugiej z możliwych
odmian tego paradygmatu (paradygmat 3.1). Reprezentacją nabywaną
przez badanych było pojęcie „klipiec”, charakteryzowane przez trzy cechy
istotne: dwa kształty – zewnętrzny, dotyczący dużej karty, i wewnętrzny,
dotyczący figury wpisanej w kartę – oraz jedno wypełnienie odnoszące się
do figury wewnętrznej (ryc. 3.1). Cecha wypełnienia samej karty
(zewnętrznego obiektu) była nieistotna dla definicji nabywanego pojęcia.
Klipcem mógł być więc np. czarny kwadrat w trójkącie. Szybkość
nabywania reprezentacji pojęciowej okazała się zależna zarówno od liczby
cech istotnych, jak i nieistotnych nabywanego pojęcia. Im większa
sumaryczna liczba wszystkich cech różnicujących klasyfikowane
egzemplarze, tym wolniejszy proces uczenia się pojęć (Wetherick, 1968).
Uczestnicy eksperymentu Lewickiego potrzebowali czterech–pięciu serii
kart (czterech–pięciu informacji eksperymentatora o poprawności
podejmowanych decyzji), aby dokonać właściwej klasyfikacji bodźców.
Liczba koniecznych serii odpowiadała więc sumarycznej liczbie
wszystkich cech obiektów, które należało zaliczyć do kategorii, a nie tylko
liczbie cech istotnych, definiujących nabywane pojęcie. Badani przez
Lewickiego zachowywali się tak, jakby w każdej serii testowali prostą
hipotezę dotyczącą pojedynczej cechy nabywanej reprezentacji pojęciowej,
decydując – po otrzymaniu informacji zwrotnej od eksperymentatora – czy
dokonać procesu abstrakcji pozytywnej i zaliczyć testowaną cechę do
właściwości istotnych, czy procesu abstrakcji negatywnej i odrzucić
rozważaną cechę jako nieistotną.
RYCINA 3.1. Karty używane w badaniach Lewickiego nad nabywaniem pojęć sztucznych
Źródło: opracowanie własne na podstawie Lewicki, 1968.

W swojej koncepcji nabywania pojęć Lewicki dokonał więc syntezy dwóch


teorii: abstrakcji i testowania hipotez. Stanowisko takie nie jest jednak
powszechne. Co więcej, historycznie rzecz ujmując, oba stanowiska były
sobie przeciwstawiane. Zwolennicy psychologii asocjacjonistycznej byli
przekonani o wystarczającej roli abstrahowania w kształtowaniu się
reprezentacji pojęciowych, natomiast zwolennicy psychologii postaci
(Gestalt) wyrażali przekonanie, że proces ten dokonuje się głównie
w drodze testowania hipotez (Maruszewski, 1983). Darlene Howard (1983)
wyraźnie odróżnia dwa sposoby nabywania pojęć. Pojęcia niejawne
(implicit concepts) są zgodnie z nią nabywane metodą abstrakcji
percepcyjnej bądź wyobrażeniowej właściwości desygnatów z egzemplarzy
typowych dla kategorii, podczas gdy pojęcia jawne (explicit concepts) –
metodą testowania hipotez odnośnie do wcześniej wyabstrahowanych cech
dostępnych egzemplarzy. Być może niejawny sposób nabywania
reprezentacji pojęciowych (tylko metodami abstrakcji) dotyczy w większej
mierze pojęć naturalnych, podczas gdy pojęcia sztuczne są efektywnie
kształtowane w procesie testowania hipotez bez konieczności zbierania
doświadczeń percepcyjnych. Częściowym potwierdzeniem tego
hipotetycznego rozróżnienia w zakresie metod uczenia się reprezentacji
pojęciowych są wyniki badań Michaela Posnera i Stevena Keele’a (1968,
1970) nad nabywaniem pojęć matrycowych (zob. podrozdz. 3.2.3).

Lewicki wykazał również, że pod względem efektywności nabywania


pojęć ludzie dzielą się wyraźnie na trzy grupy. Do pierwszej należą ci,
którzy nie są w stanie w ogóle wyuczyć się pewnych pojęć. Do drugiej zaś
ci, którzy wprawdzie są w stanie poprawnie używać reprezentacji
pojęciowych, ale nie potrafią ich zdefiniować. Znają więc procedurę
identyfikacyjną obiektów jako należących do kategorii, nie znając jednak
istoty pojęcia. Do trzeciej grupy zaliczył Lewicki tych, którzy są w stanie
zarówno poprawnie używać reprezentacji pojęciowych, jak i zdefiniować
samo pojęcie za pomocą cech istotnych (znają procedurę identyfikacyjną
oraz istotę pojęcia). Niestety, nawet wśród badanych studentów matematyki
i medycyny odsetek członków tej ostatniej grupy był zadziwiająco niski
(20%).

Natomiast ze względu na sposób nabywania reprezentacji pojęciowych


ludzie dzielą się, według Lewickiego, na cztery grupy. Pierwsza grupa –
„konsekwentnych” – testuje w sposób nieprzerwany hipotezy dotyczące
pojedynczych właściwości nabywanych pojęć. Druga grupa –
„półkonsekwentnych” – charakteryzuje się częstymi zmianami w zakresie
testowanych hipotez jeszcze przed otrzymaniem informacji zwrotnych od
eksperymentatora, a więc przed momentem, w którym hipoteza może
zostać sfalsyfikowana. Trzecia grupa to osoby reagujące chaotycznie
i przypadkowo. Najciekawszą strategią posługują się członkowie ostatniej
grupy – sprawdzają hipotezy w sposób odwrócony, zaliczając egzemplarze
pojęcia do niereprezentantów i odwrotnie. Właśnie istnienie tej ostatniej
grupy osób pozwala wierzyć, że nabywanie pojęć jest procesem znacznie
bardziej złożonym niż warunkowanie poprzez generalizację i różnicowanie
(Maruszewski, 1983). Mimo że testowanie hipotez wydaje się najbardziej
efektywną metodą nabywania pojęć w paradygmacie recepcji, to jednak
strategię tę preferuje zaledwie 38% uczestników eksperymentów
Lewickiego (1968) i Heleny Sęk (1970).

Klasyczne teorie reprezentacji pojęciowych były i są często poddawane


krytyce. Szerokie omówienie argumentów krytycznych znaleźć można
w wielu polskich pracach (zob. Chlewiński, 1999; Maruszewski, 2001;
Trzebiński, 1986). W tym miejscu zostaną syntetycznie i skrótowo
zaprezentowane ważniejsze zarzuty wobec tego podejścia. Przede
wszystkim, zasadniczo tylko w naukach ścisłych możliwe jest
posługiwanie się pojęciami w rozumieniu klasycznym. Być może więc
teorie klasyczne stosują się wyłącznie do pojęć matrycowych. Twierdzenie
o powszechności obowiązywania modelu klasycznego w odniesieniu do
wszystkich rodzajów pojęć, w szczególności pojęć naturalnych (Trzebiński,
1986), może być zatem nieuzasadnione. Krytyce poddaje się także istnienie
pojęć dysjunktywnych, zawierających w swej definicji wykluczające się
właściwości. Jest ono nieuzasadnione w obliczu klasycznej definicji
reprezentacji pojęciowej, gdyż w przypadku tych właśnie pojęć nie da się
podać zbioru cech istotnych, czyli takich, które są reprezentowane przez
wszystkich przedstawicieli definiowanej kategorii nadrzędnej. Część
desygnatów pojęcia dysjunktywnego ma bowiem zupełnie inne cechy
„istotne” niż pozostały zbiór egzemplarzy tego pojęcia (Chlewiński, 1999).
Laboratoryjnym przykładem arbitralnie zdefiniowanego pojęcia
dysjunktywnego może być coś, co jest „figurą czerwoną albo kwadratem”.
W życiu codziennym pojęcia dysjunktywne to np. meble lub narzędzia: nie
mają ani jednej wspólnej cechy fizycznej, choć łączy je funkcja, którą im
nadajemy. W istocie można tu postawić pytanie, czy dysjunktywność
pewnych pojęć – jeśli nie są czysto arbitralne jak w przypadku „figury
czerwonej albo kwadratu” – jest ich właściwością immanentną czy raczej
sposobem identyfikacji kategorii w procesie uczenia się pojęć.
Argumentuje się (zob. np. Anisfeld, 1968), że na odpowiednio wysokim
poziomie abstrakcji wszystkie egzemplarze każdego pojęcia mają wspólną
cechę (np. narzędzia to coś, dzięki czemu możemy wykonać pewną
czynność). Natomiast dysjunktywne mogą być wskazówki zewnętrze
używane przez ludzi w procesie uczenia się pojęć, jak też w procesie
decydowania, czy konkretny przedmiot należy do kategorii definiowanej
przez pojęcie. Dysjunktywność pojęcia byłaby zatem związana z jego
wymiarem psychologicznym (używanie pojęcia przez umysł ludzki), ale
nie ontologicznym (sposób istnienia pojęcia).

W modelach klasycznych przyjmuje się też założenie, że cechy istotne


pojęcia są równoważne. Carol Conrad (1972) wykazała jednak, że niektóre
z istotnych właściwości reprezentacji pojęciowych są przez badanych
wymieniane przy okazji definiowania pojęć częściej niż inne cechy; są one
także przez nich oceniane jako zdecydowanie ważniejsze dla struktury
pojęcia. Szybkość weryfikacji zdania zawierającego daną cechę istotną –
„pies szczeka” – zależy od tego, na ile cecha ta – „szczekanie” – jest
uważana przez badanych za ważną w definiowaniu danego pojęcia –
„pies”. Inne założenie modelu klasycznego głosi, że wszystkie
reprezentacje pojęciowe definiowane za pomocą zestawu cech istotnych są
równie ważne i w równym stopniu dostosowane do opisu obiektów świata
rzeczywistego. Tymczasem, jak wskazują Gregory Murphy i Douglas
Medin (1985), pojęcia różnią się swoją relatywną wagą – raczej trudno
założyć, że pojęcie definiowane przez dwie cechy: posiadanie więcej niż
jednej nogi i ciężaru w zakresie 11–240 kg, wnosi cokolwiek sensownego
do procesu redukowania różnorodności między obiektami.

Próby ścisłej definicji niektórych pojęć naturalnych są zupełnie


nieprecyzyjne i powodują kłopoty z zaliczaniem desygnatów do kategorii
nadrzędnych. Michael McCloskey i Sam Glucksberg (1978) wykazali, że
dla połowy uczestników ich eksperymentu telewizor miał cechy
umożliwiające zaliczanie go do kategorii... mebli. Gdyby definicja pojęcia
„mebel” zawierała zbiór cech istotnych, a kategoryzacja polegała na
wykryciu ich w kategoryzowanym obiekcie, wówczas badani nie powinni
mieć żadnych problemów z odpowiednim przyporządkowaniem
desygnatów.

W procesie kategoryzowania zmieniają się również treści pojęć,


a w konsekwencji – także zestawy cech istotnych, definiujących to samo
pojęcie. Tym właśnie, co odróżnia człowieka od zwierząt, jest elastyczność
procesu kategoryzacji (Lenneberg, 1967). W rozwoju dziecka nabywanie
pojęć odbywa się w procesie akomodacji, czyli dostosowania starych
struktur pojęciowych do nowych danych (Piaget, 1981). Możliwość
redefiniowania reprezentacji pojęciowych na skutek nowych doświadczeń
jest tym, czego również zdają się nie uwzględniać koncepcje klasyczne.
W wyniku przeglądu argumentów formułowanych przez zwolenników
i przeciwników koncepcji klasycznych należy przyjąć, że definiują one
strukturę reprezentacji pojęciowej w formie listy cech definicyjnych, a więc
właściwości przysługujących w równym stopniu wszystkim desygnatom
pojęcia. Proces kategoryzacji ma polegać na porównaniu zestawów cech
posiadanych przez zaliczany egzemplarz i cech definicyjnych,
charakterystycznych dla kategorii nadrzędnej. Natomiast nabywanie pojęć
dokonuje się dzięki operacjom abstrahowania: pozytywnego (odnajdywanie
cech istotnych) i negatywnego (pomijanie cech nieistotnych). Proces ten
jest najbardziej efektywny, gdy polega na testowaniu hipotez o istotności
abstrahowanej cechy dla definicji pojęcia. Nie zawsze jednak w procesie
nabywania pojęć dochodzi do testowania hipotez – ograniczenia
w wykorzystaniu najbardziej skutecznej strategii są związane zarówno
z różnicami indywidualnymi (nie wszyscy potrafią), jak i z rodzajem
sytuacji bodźcowej (nie wszystkie kategorie się nadają). Ze względu na
precyzyjne definicje struktury i funkcjonowania reprezentacji pojęciowych
jedynymi pojęciami, do których z pewnością mogą się odnosić koncepcje
klasyczne, wydają się pojęcia sztuczne (matrycowe).

3.2.2. Teorie probabilistyczne


Istnienie nadrzędnych kategorii pojęciowych, w przypadku których ludzie
mają problemy z zaliczaniem do nich mniej typowych reprezentantów
(McCloskey, Glucksberg, 1978), sugeruje, że poszczególne desygnaty
można zaliczyć do danego pojęcia tylko z pewnym stopniem
prawdopodobieństwa. Nawet potoczne obserwacje pozwalają na
stwierdzenie, że zaliczenie wróbla do kategorii „ptaki” jest znacznie
bardziej prawdopodobne niż zaliczenie do niej kury. Jest tak dlatego, że
pewnych pojęć, a w szczególności pojęć naturalnych, nie można
sprowadzić do zbioru cech istotnych (Trzebiński, 1986).

Zgodnie z koncepcjami probabilistycznymi (probablistic view)


reprezentacja pojęciowa jest sumarycznym opisem wszystkich cech
egzemplarzy będących desygnatami danego pojęcia. Cechy te różnią się
w zakresie powszechności występowania wśród desygnatów kategorii, co
oznacza, że każdy egzemplarz kategorii ma te właściwości z pewnym tylko
prawdopodobieństwem. Ptaki są opisywane raczej jako obiekty latające,
gdyż większość ptaków lata, a nieloty – np. kiwi – należą do rzadkości.
Oznacza to, że umiejętność latania jest dla ptaków cechą bardzo typową,
o wysokim prawdopodobieństwie występowania. Ptaki są z kolei rzadko
opisywane jako udomowione, gdyż stosunkowo niewiele ich gatunków
udało się oswoić. Oznacza to, że bycie udomowionym jest u ptaków cechą
o bardzo małym prawdopodobieństwie ujawniania się. Definicja kategorii
nadrzędnej „ptak” zawiera cechy będące wypadkowymi cech
poszczególnych jej desygnatów. Wróbel jest więc „bardziej” ptakiem niż
kiwi lub kura, gdyż lata i nie jest udomowiony (jest bliżej średniej
właściwości dla ptaków, przynajmniej jeśli chodzi o latanie i warunki
życia). Ze względu na uznawanie cech za właściwości możliwe, ale
niekonieczne, pojęcia definiowane w ten sposób nazwano
probabilistycznymi (probabilistic concepts).

Lance Rips, Edward Shoben i Edward Smith (1973; Smith i in., 1974)
przeprowadzili badania w paradygmacie podejmowania decyzji
semantycznych (paradygmat 3.2). Polecili uczestnikom eksperymentu
weryfikację prawdziwości prostych zdań, dotyczących tego, czy dany
desygnat jest egzemplarzem nadrzędnej kategorii pojęciowej (np. „Czy
kanarek to ptak?”). Wykazano, że czas podejmowania tej decyzji zależy od
typowości desygnatu – im bardziej typowy egzemplarz kategorii, tym jest
on krótszy Różnice w średnich czasach reakcji były niewielkie
w przypadku egzemplarzy typowych i średnio typowych (zaledwie 19 ms;
w przypadku kategorii „owady” stwierdzono nawet zależność przeciwną: –
35 ms), ulegając zdecydowanemu wydłużeniu w przypadku desygnatów
średnio typowych i nietypowych (aż do 43 ms). Co ciekawe, czasy
weryfikacji zdań, w których wymieniano bardzo nietypowych
przedstawicieli danej kategorii, były zbliżone, niezależnie od tego, na czym
owa nietypowość polegała. Natomiast w przypadku obiektów
nienależących do danej kategorii czas podejmowania decyzji semantycznej
był bardzo krótki.

Paradygmat 3.2

Podejmowanie decyzji semantycznych

W badaniach nad podejmowaniem decyzji semantycznych respondenci


proszeni są o jak najszybsze rozstrzygnięcie kwestii przynależności
kategorialnej danego obiektu. Z reguły badania te prowadzi się w formule
„od reprezentacji pojęciowej do egzemplarzy” (Trzebiński, 1986).
Najpierw uczestnikowi eksperymentu prezentuje się na ekranie monitora
etykietę werbalną, będącą nazwą reprezentacji pojęciowej (np. „ptaki”),
a następnie wyświetla się etykiety odpowiadające różnym obiektom:
ptakom („kanarek”, „wróbel” itd.) i nieptakom („pszczoła”, „wieloryb”
itd.). Zadaniem osoby badanej jest jak najszybciej nacisnąć przycisk
korespondujący z wybraną przez niego odpowiedzią: pozytywną, gdy
egzemplarz jest przedstawicielem pojęcia, lub negatywną, gdy nim nie jest.

Początkowo paradygmat podejmowania decyzji semantycznych służył do


falsyfikowania hipotez w ramach koncepcji struktury i funkcjonowania
reprezentacji pojęciowych (wszystkie teorie z wyjątkiem koncepcji
klasycznych). Później wykorzystywano go do sprawdzania wzajemnych
relacji między pojęciami w ramach struktury sieci semantycznej. Pytano
więc o cechy poszczególnych pojęć (np. „Czy kanarek lata?”), próbując
ustalić, na jakim poziomie ogólności są przechowywane informacje
o poszczególnych właściwościach. Sprawdzano także rodzaj relacji
(pozytywne/negatywne) łączących poszczególne reprezentacje, zestawiając
w zdaniu do weryfikowania obiekty ze sobą niepowiązane (np. „Czy
budynek to koń?”).

Badaczy interesował zarówno czas podejmowania decyzji, jak


i poprawność klasyfikowania. Okazało się, że w przypadku nietypowych
przedstawicieli danej kategorii czas podjęcia decyzji rośnie o mniej więcej
60 ms, a liczba błędów zwiększa się przeciętnie dwukrotnie (Trzebiński,
1986). Wyniki badań w paradygmacie decyzji semantycznych świadczą na
niekorzyść koncepcji klasycznych, ale nie są rozstrzygające w odniesieniu
do pozostałych teorii reprezentacji pojęciowych. Tymczasem ich
zwolennicy wyraźnie interpretują te dane jako potwierdzenie swoich
poglądów.

Według probabilistycznej koncepcji Ripsa i współautorów (1973, Smith


i in., 1974) reprezentacja pojęciowa jest definiowana przez dwa rodzaje
cech. Najważniejsze pozostają nadal cechy definicyjne, w jednoznaczny
sposób pozwalające określić, czy obiekt jest desygnatem pojęcia. Cechy
definicyjne konstytuują rdzeń pojęcia (Trzebiński, 1986) – odznaczają się
nimi wszystkie bez wyjątku jego egzemplarze. Reprezentacja pojęciowa
jako zbiór cech składa się jednak także z cech charakterystycznych,
wskazujących na typowość danego obiektu względem nadrzędnego mu
pojęcia. Są to reprezentatywne cechy egzemplarzy pojęcia, a nie samego
pojęcia. Im więcej cech charakterystycznych ma dany egzemplarz, tym
bardziej jest on typowy (Maruszewski, 1983).

Według Smitha i jego współpracowników decyzja semantyczna dotycząca


przypisywania obiektu do kategorii, tj. proces kategoryzacji, przebiega
w dwóch etapach. Na pierwszym etapie następuje porównanie całościowe,
obejmujące wszystkie cechy kategoryzowanego obiektu i cechy pojęcia, do
którego jest on zaliczany. Jeżeli egzemplarz jest typowy, a więc ma
większość cech definicyjnych nadrzędnego pojęcia i dużą liczbę
możliwych jego cech charakterystycznych, to decyzja pozytywna –
zaliczenie do kategorii – jest podejmowana natychmiast. Typowe desygnaty
spełniają bowiem wszystkie albo większość cech definicyjnych kategorii
nadrzędnej, mając również większość cech charakterystycznych,
podzielanych z wieloma innymi egzemplarzami. Jeżeli obiekt jest
nietypowy i nie spełnia większości cech definicyjnych pojęcia, decyzja
negatywna (niezaliczenie do kategorii) jest równie szybka jak decyzja
pozytywna w przypadku obiektów typowych.

Na drugim etapie procesu kategoryzacji zachodzi porównanie


szczegółowe, dotyczące tylko cech definicyjnych nadrzędnej kategorii
pojęciowej. Chodzi tu o ustalenie proporcji cech definicyjnych,
posiadanych przez klasyfikowany egzemplarz w stosunku do cech
istotnych, których egzemplarzowi brakuje. Porównanie to prowadzi do
szczegółowej analizy cech kategoryzowanego desygnatu. Tego typu analiza
wymaga jednak czasu – czasochłonne jest zarówno abstrahowanie
pojedynczych cech klasyfikowanego egzemplarza, jak i odrębne
porównanie kategoryzowanego obiektu oraz nadrzędnej kategorii ze
względu na poszczególne, wyabstrahowane cechy. Efektem tak
drobiazgowej analizy jest jednak możliwość zaliczenia mniej typowych
desygnatów do kategorii nadrzędnej. Na przykład w przypadku obiektu
„kiwi” przestaje być wtedy istotne to, że nie lata; nadal spełnia bowiem
wiele innych cech definicyjnych ptaków, takich jak znoszenie jaj.

Porównanie egzemplarzy tej samej kategorii naturalnej dotyczy w tym


ujęciu tylko pewnych wyróżnionych właściwości desygnatów, kluczowych
dla zdefiniowania struktury danego pojęcia naturalnego. Strukturę tę Rips,
Shoben i Smith (1973) nazwali przestrzenią semantyczną reprezentacji
pojęciowej. Wykazali oni, że wszystkie desygnaty kategorii „ssak” można
wpisać w ortogonalny układ dwóch podstawowych wymiarów: wielkości
oraz stopnia udomowienia (ryc. 3.2). Stwierdzili również, że reprezentacja
nadrzędnej kategorii „ssak” charakteryzuje się średnimi właściwościami
w zakresie wymiarów definiujących strukturę pojęcia i lokuje się w środku
układu. Co więcej, określenie właściwości egzemplarzy ssaków na
wymiarach wielkości oraz stopnia udomowienia pozwala na
przewidywanie zarówno prostych decyzji osób badanych odnośnie do
określenia stopnia podobieństwa porównywanych przedstawicieli, jak
i złożonych wyborów egzemplarzy analogicznych, dopełniających
skomplikowany układ zależności (np. „koń” do „pies” ma się jak „jeleń” do
„królik”; ryc. 3.2).

RYCINA 3.2. Przestrzeń semantyczna pojęcia „ssak” określona w badaniach Ripsa, Shobena
i Smitha
Źródło: opracowanie własne na podstawie Rips, Shoben, Smith, 1973.

Koncepcje probabilistyczne również poddano surowej krytyce. Ze względu


na to, że szerokie omówienie argumentów krytycznych znaleźć można
w wielu polskich pracach (zob. Chlewiński, 1999; Maruszewski, 2001;
Trzebiński, 1986), w tym miejscu omówimy tylko ważniejsze zarzuty
wobec tych ujęć.
Przede wszystkim zakłada się, że każde pojęcie ma ściśle określony rdzeń
pojęciowy zawierający cechy definicyjne. Twierdzenie to tak samo łatwo
odrzucić jak tezę, że pojęcie składa się tylko z cech definicyjnych (zob.
podrozdz. 3.2.1 – krytyka teorii klasycznych). Większość argumentów
krytycznych wobec teorii klasycznych znajduje więc zastosowanie również
wobec teorii probabilistycznych (Murphy, Medin, 1985), a to z powodu
wyznawanego przez twórców tych koncepcji poglądu, że mogą istnieć
cechy przysługujące wszystkim desygnatom.

Ponadto zestaw najbardziej prawdopodobnych cech niekoniecznie tworzy


spójną pod względem zawieranych desygnatów nadrzędną kategorię
pojęciową (Murphy, Wiśniewski, 1985). Zróżnicowanie między dwiema
kategoriami może bowiem dotyczyć nie tyle cech definicyjnych, ile właśnie
cech charakterystycznych, przejawianych przez poszczególne desygnaty.
Inaczej mówiąc, dwie bliskie kategorie pojęciowe mogą mieć identyczny
zestaw cech istotnych, a mimo to są różnymi kategoriami ze względu na
różnice w zakresie zbioru cech charakterystycznych. Tego jednak ani opis
struktury reprezentacji pojęciowej, ani dwuetapowy model kategoryzacji,
proponowane przez zwolenników koncepcji probabilistycznych, nie
uwzględniają. O tym, że kategorii pojęciowych nie da się zdefiniować za
pomocą zestawu cech o dużym stopniu typowości, świadczy też brak
symetrii w zakresie cech kategorii i cech egzemplarzy. Jeśli w badaniach
prowadzonych w paradygmacie podejmowania decyzji semantycznych
zostanie zamieniona kolejność podawania informacji z „pojęcie –
egzemplarz” (np. „Czy ptakiem jest kanarek?”) na „egzemplarz – pojęcie”
(np. „Czy kanarek to ptak?”), ma to wpływ na czas wykonania zadania.
Wynika to z braku symetryczności w zakresie relacji między
kategoryzowanym obiektem a nadrzędną wobec niego reprezentacją
pojęciową (Loftus, 1973; Loftus, Loftus, 1976).
Jak można zauważyć, koncepcje probabilistyczne próbowały zaadaptować
teorię reprezentacji jako zbioru cech do analizy pojęć naturalnych,
w przypadku których desygnaty mają właściwości kategorii nadrzędnej
jedynie z pewnym prawdopodobieństwem (mogą je mieć, ale nie muszą).
Próba ta doprowadziła do niezbyt klarownych rozróżnień zarówno
w zakresie struktury reprezentacji (cechy definicyjne i charakterystyczne),
jak i w odniesieniu do sposobu kategoryzacji (model dwuetapowy zamiast
prostego porównywania listy cech). Wprawdzie tezy teorii
probabilistycznych znalazły częściowe potwierdzenie w wynikach badań
w paradygmacie podejmowania decyzji semantycznych, jednak wielu
badaczy (zob. Maruszewski, 1983; Trzebiński, 1986 – szersze omówienie)
zwróciło uwagę na inne możliwe wyjaśnienia uzyskiwanych efektów,
nieodwołujące się do proponowanej przez koncepcje probabilistyczne
skomplikowanej struktury reprezentacji pojęciowych i ich funkcjonowania.

W odniesieniu do problemu nabywania pojęć oba stanowiska: klasyczne


i probabilistyczne, nie różniły się istotnie, podkreślając kluczową rolę
procesu abstrahowania cech.

3.2.3. Teorie prototypów


Eleanor Rosch (1978) wyodrębniła dwa wymiary reprezentacji
pojęciowych: poziomy i pionowy. Wymiar pionowy (vertical) dotyczy
stopnia ogólności pojęcia. Według Rosch istnieją trzy jego poziomy.
Poziom nadrzędny (superordinate level) charakteryzuje się tym, że pojęcia
są na nim odzwierciedlane przez niewielką liczbę cech. Z tego powodu
kategorie ogólne charakteryzują się szeroką inkluzywnością – w każdej
mieści się wiele różnych egzemplarzy. Poziom podstawowy (basic level)
różni się od nadrzędnego liczbą cech (na tym poziomie większą)
charakteryzujących reprezentacje pojęciowe. Pojęcia poziomu
podstawowego są wymieniane spontanicznie, gdy ludzie dorośli nazywają
obiekty (tamże). W konsekwencji jest to najczęściej używany poziom
ogólności reprezentacji pojęciowych (Johnson, Mervis, 1997; Mervis,
1983). Jego występowanie i powszechność posługiwania się nim
stwierdzono również poza kulturą zachodnią (Berlin, 1978), a także
w języku migowym (Newport, Bellugi, 1978). Na poziomie podstawowym
małe dzieci uczą się w pierwszej kolejności nazw wielu przedmiotów
(Rosch, 1978), choć zwolennicy koncepcji prototypów przyznają, że proces
nabywania reprezentacji pojęciowych u dzieci rozpoczyna się raczej od
poziomu podrzędnego, a ściślej – od wielu pojęć jednostkowych
(indywidualnych) o klarownych funkcjach (np. „mama”, „lala”; Anglin,
1977). Egzemplarze poziomu podstawowego są szybciej identyfikowane
niż egzemplarze poziomów nadrzędnego i podrzędnego. Ich stosowanie
pozwala uniknąć wielu błędów rozumowania, charakterystycznych dla
poziomów wyższego (zbytnia ogólność) i niższego (zbytnia
szczegółowość; Tversky, 1977). Nie zawsze jednak pojęcia z poziomu
podstawowego są najlepiej zapamiętywane. Dotyczy to szczególnie
rozpoznawania – często efektywniej rozpoznawane są pojęcia specyficzne
i będące rzadko w użyciu, a więc należące do poziomu podrzędnego
(Kintsch, 1970). Poziom podrzędny (subordinate level) uwzględnia
bowiem pojęcia bardzo szczegółowe o dużej liczbie charakteryzujących je
cech. W konsekwencji w porównaniu z poziomem podstawowym
zmniejsza się tu łatwość identyfikowania desygnatów pojęć, gdyż wiele
różnych egzemplarzy charakteryzuje się bardzo podobnym zestawem cech.
Desygnat zidentyfikowany wyróżnia się jednak specyficznością
i rzadkością występowania, co wiąże się z jego lepszym późniejszym
rozpoznaniem.
Wraz z przechodzeniem z poziomu niższego na wyższy w hierarchii
ogólności zmniejsza się liczba cech charakteryzujących reprezentacje
pojęciowe, a wzrasta łatwość w rozróżnianiu między sobą desygnatów tych
pojęć. Zmniejsza się bowiem liczba cech charakterystycznych, które
pojęcia te podzielają. Zarazem jednak wzrasta ogólność tak dokonywanej
kategoryzacji, która sprawia, że bardzo różne desygnaty mogą zostać
zaliczone do tej samej kategorii.

Rosch wykazała różnice w zakresie reprezentowania pojęć na różnych


poziomach wymiaru pionowego w kilku badaniach (Rosch, 1978; Rosch,
Simpson, Miller, 1976b). W eksperymencie pierwszym (Rosch i in., 1976a)
polecono osobom badanym wypisanie cech trzech pojęć: „meble” (poziom
nadrzędny; furniture), „siedziska” (poziom podstawowy; inaczej: krzesła
i fotele; chair) oraz „wygodne fotele” (poziom podrzędny; easy chair). Na
poziomie podstawowym równowaga między specyficznością (łatwość
rozróżnienia desygnatów kategorii) a ekonomią (liczba cech definiujących
kategorię pojęciową) okazała się najlepsza. Ekonomia reprezentowania
w umyśle była bezpowrotnie tracona na poziomie podrzędnym, gdzie
liczba cech charakterystycznych dla kategorii była bardzo duża.
Specyficzność zaś zanikała na poziomie nadrzędnym z powodu dużej
ogólności kategorii pojęciowych. W innym eksperymencie (Rosch i in.,
1976b) badani wypisywali nazwy pojęć z poszczególnych poziomów.
Okazało się, że byli oni w stanie wskazać istotnie mniej reprezentacji
pojęciowych z poziomu nadrzędnego (najogólniejszego) niż z pozostałych.
Znacznie mniejsze różnice w zakresie liczby wypisywanych pojęć
stwierdzono między poziomami podstawowym i podrzędnym (tab. 3.1).

TABELA 3.1. Przykłady egzemplarzy pojęć na różnych poziomach ogólności


Poziom nadrzędny Poziom podstawowy Poziom podrzędny

mebel siedziska taboret kuchenny

fotel

stół stół kuchenny

stół salonowy

lampa lampa stojąca

lampka biurkowa

drzewo dąb dąb czerwony

dąb biały

klon klon srebrzysty

klon cukrowy

brzoza brzoza nadrzeczna

brzoza żółta

Źródło: opracowanie własne na podstawie Rosch, 1999.

Wymiar poziomy (horizontal) reprezentacji pojęciowych dotyczy


desygnatów pojęcia znajdującego się na poziomie wyższym. Nie wszystkie
egzemplarze są „dobrymi” desygnatami pojęcia z poziomu wyższego.
Desygnaty różnią się bowiem typowością. Najbardziej typowy, czy
najbardziej reprezentatywny, egzemplarz Rosch (1973) nazwała
prototypem. Prototyp zajmuje w klasyfikacji desygnatów danej kategorii,
prowadzonej ze względu na cechę typowości, zdecydowanie pierwsze
miejsce. W badaniach Rosch 113 osób (wszyscy uczestnicy eksperymentu!)
wykazało się jednomyślnością w zakresie rangowania typowości
desygnatów w kategoriach: nauka, przestępstwo i pojazd. Za prototypowe
uznały one odpowiednio: chemię, morderstwo i samochód. Warte
podkreślenia jest także to, że klasyfikowanie 48 desygnatów w ramach
sześciu kategorii zajmowało badanym z reguły nie więcej niż 5 minut –
wynik ten świadczy o naturalnej łatwości posługiwania się typowością
obiektów w procesie ich klasyfikacji. W późniejszych pracach Rosch
(1978) określała prototyp jako „najczystszy” desygnat danej kategorii
pojęciowej.

Prototyp reprezentuje w umyśle kategorię nadrzędną – inne egzemplarze tej


samej kategorii nie są już tak dobrymi jej odzwierciedleniami. Wykazała to
również Elizabeth Loftus (1973). Poleciła ona uczestnikom eksperymentu,
aby nadawali prezentowanym desygnatom kategorie nadrzędne. Właściwe
reprezentacje pojęciowe – w sensie: oczekiwane przez prowadzącą
eksperyment – pojawiały się u osób badanych tym szybciej, im bardziej
typowe egzemplarze oczekiwanej kategorii nadrzędnej zostały przez nią
przedstawione. Uczestnicy eksperymentu wskazywali więc reprezentację
pojęcia „ptak” szybciej, gdy zapoznawali się z takimi egzemplarzami tej
kategorii, jak wróbel czy drozd, a czynili to znacznie wolniej, gdy
prezentowano im rzadkie desygnaty tej kategorii, takie jak pingwin czy
struś. Biorąc pod uwagę wymiar poziomy reprezentacji pojęciowych,
Carolyn Mervis i John Pani (1980) wykazali również, że nowe pojęcia są
przyswajane znacznie szybciej i bardziej adekwatnie, gdy badanym
pokazuje się jedynie typowych przedstawicieli nabywanej kategorii. Efekt
ten ma zresztą głęboki sens dydaktyczny – nie uczymy dzieci tego, czym są
ptaki, pokazując im takie desygnaty tej kategorii, jak pingwiny i kiwi.

Z badań zwolenników koncepcji prototypów (prototype view),


dotyczących uczenia się pojęć, wynika zatem, że reprezentacje pojęciowe
są nabywane w procesie doświadczania egzemplarzy. Z punktu widzenia
efektywności tego procesu najlepiej jest, gdy uczenie rozpoczyna się od
prototypu (wymiar poziomy) kategorii pojęciowej z poziomu
podstawowego (wymiar pionowy). W wypadku małych dzieci jako
pierwsze przyswajane są jednak pojęcia z poziomu podrzędnego
o klarownej funkcjonalności.

Mimo że oba zaproponowane tu sposoby rozumienia prototypu („czysty”


lub „najlepszy” desygnat) nie są z pewnością precyzyjne, osoby badane nie
mają większych wątpliwości co do ich znaczenia, na co wskazuje krótki
czas wyróżniania prototypowych desygnatów pojęć naturalnych. Z reguły
ludzie też nie różnią się niemal w ogóle w swoich klasyfikacjach. Sharon
Armstrong, Lila Gleitman i Henry Gleitman (1983) porównali rangi
egzemplarzy tych samych kategorii, których używała także Rosch (1973).
Nie stwierdzono większych różnic w samym układzie klasyfikacji, choć
w wypadku niektórych kategorii (np. „pojazdy”) różnice w rangach na
dalszych pozycjach listy okazały się znaczne (tab. 3.2).

Czasami pojawiają się jednak problemy z klasyfikacją na skali typowości.


Dla Amerykanów niemal równie typowym ptakiem jak drozd okazał się
w jednym z eksperymentów orzeł (Rosch, 1973), a w innym – wróbel
(Rosch, 1978; wróbel nie był brany pod uwagę w badaniach
wcześniejszych), natomiast wśród przestępstw bardzo wiele wykroczeń
okazało się w przybliżeniu podobnie typowych i niemal tak samo typowych
jak prototyp tej kategorii – morderstwo (Rosch, 1973; napad, kradzież,
szantaż i malwersacja uzyskały rangi w przedziale 51,3–1,84, gdzie 1
oznacza prototyp). Jak się wydaje, prototypy są wspólne dla badanych
pochodzących z tej samej populacji, mogą jednak różnić się kulturowo. Dla
Amerykanów drozd może być tak samo typowym ptakiem jak wróbel,
podczas gdy dla Polaków już nie (Kurcz, 1997). Ci ostatni wyraźnie
wskazują na wróbla jako ptaka bardziej typowego niż drozd. Prototypy
mogą również różnić się ze względu na inną cechę, np. płeć; prototypem
ubrania dla studentów są spodnie, podczas gdy dla studentek najbardziej
typowym ubraniem okazuje się sukienka – o czym świadczą wyniki
demonstracji efektu typowości z udziałem studentów I roku psychologii.

TABELA 3.2. Porównanie rang egzemplarzy pojęć naturalnych w badaniach Rosch (1973)
oraz Armstronga i współpracowników (1983). Im niższa wartość, tym większa typowość
(prototyp = 1)
Pojęcie naturalne Rosch (1973) Armstrong i in. (1982) Różnica

Owoce

jabłko 1,3 1,3 –

truskawka 2,3 2,1 + 0,2

śliwka 2,3 2,5 – 0,2

brzoskwinia 2,3 2,7 – 0,4

figa 4,7 5,2 – 0,5

oliwka 6,2 6,4 – 0,2

Sport

football 1,2 1,4 – 0,2

hokej 1,8 1,8 0

gimnastyka 2,6 2,8 – 0,2

wrestling 3,0 3,1 – 0,1

łucznictwo 3,9 4,8 – 0,9

podnoszenie ciężarów 4,7 5,1 – 0,4

Pojazdy

samochód 1,0 1,0 0

łódka 2,7 3,3 – 0,6

skuter 2,5 4,5 – 2,0

rower trzykołowy 3,5 4,7 – 1,2

koń 5,9 5,2 + 0,7

narty 5,7 5,6 + 0,1

Źródło: opracowanie własne.


Na kształtowanie się prototypu jako reprezentanta kategorii pojęciowej
mają więc wpływ doświadczenie indywidualne i dziedzictwo kulturowe.
Nabywanie i stosowanie danego pojęcia odbywa się zawsze w pewnym
kontekście: sytuacji bodźcowej, dotychczasowej wiedzy uczącego się oraz
kultury, której jest przedstawicielem. Murphy i Medin (1985) są
zwolennikami takiego właśnie podejścia. Zrywają oni z poglądem
o powszechności i niezmienności trwałych reprezentacji pojęciowych,
głosząc tezę o kontekstualnej zależności pojęć. Wskazują na wyraźne
różnice w nabywaniu, strukturze i funkcjonowaniu systemu pojęć
u „naiwnego” obserwatora i eksperta w jakiejś dziedzinie. Argumentów
empirycznych, potwierdzających kontekstowe teorie reprezentacji
pojęciowych dostarczyli m.in. Michael McCloskey i Sam Glucksberg
(1978) oraz Emilie Roth i Edward Shoben (1983). Wykazali oni, że
uczestnicy eksperymentu są zdolni do zmiany w zakresie prototypów
reprezentacji pojęciowych w zależności od zmiany warunków badania.
Nawet jeśli sukienka jest rzeczywiście prototypowym ubraniem, to
przestaje nim być w sytuacji plażowania – w takim kontekście najbardziej
typowym desygnatem rozważanej kategorii staje się kostium kąpielowy.
Zmiana na szczycie klasyfikacji – na pozycji najbardziej typowego
przedstawiciela – pociąga za sobą zmiany w hierarchii rang przyznawanych
innym egzemplarzom tej samej kategorii. Jednakże Rosch
i współpracownicy (Rosch, Mervis, 1975; Rosch i in., 1976b) wykazali, że
w obrębie tej samej populacji określanie typowości jest niezależne od
częstości doświadczeń zarówno z klasyfikowanymi obiektami, jak
i z reprezentującymi je etykietami werbalnymi. Mimo sprzecznych
doniesień trudno bronić tezy o bezwzględnej uniwersalności prototypów
reprezentacji pojęciowych, chociaż z pewnością można stwierdzić, że
członkowie tej samej populacji, charakteryzujący się wspólnymi
doświadczeniami, mogą wykorzystywać identyczne prototypy w przypadku
wielu naturalnych kategorii pojęciowych.

Jednakże inne niż operacyjne definicje prototypu (pozycja w rankingu


typowości) nadal budziły wątpliwości co do precyzji. Dlatego Posner
i Keele (1968, 1970) podjęli próbę określenia tego konstruktu w postaci
listy cech. Stwierdzili oni, że egzemplarz prototypowy charakteryzuje się
właściwościami będącymi średnią arytmetyczną cech desygnatów
napotkanych przez jednostkę w indywidualnym doświadczeniu. W swoim
eksperymencie wykorzystali wzorcowe obrazy figur (m.in. figury
geometryczne, takie jak trójkąt, kwadrat itd., oraz litery: M, F itd.),
składające się wyłącznie z kropek (ryc. 3.3). Następnie dokonali
transformacji tych wzorcowych obrazów, zmieniając lokalizację
poszczególnych kropek w ramach matrycy. Utworzyli w ten sposób wiele
obrazów o różnym stopniu podobieństwa do układu wyjściowego.
Wyróżnili też siedem stopni na skali niepodobieństwa danego obrazu do
układu wyjściowego. Niewielka zmiana położenia jednej z kropek
powodowała, że nowo utworzony obraz niewiele się różnił od
wyjściowego. Znacząca zmiana lokalizacji jednocześnie wielu kropek
sprawiała, że podobieństwo obrazu wyjściowego do układu
wygenerowanego było relatywnie duże. Dokonując transformacji na
wyjściowych układach kropek, Posner i Keele zadbali o to, aby figura
wzorcowa stanowiła średnią arytmetyczną z lokalizacji poszczególnych
kropek we wszystkich obrazach utworzonych metodą transformacji.

RYCINA 3.3. Figury wzorcowe oraz ich przekształcenia użyte w badaniach Posnera i Keelego
nad definicją prototypu jako średniej z cech
Źródło: opracowanie własne na podstawie Posner, Keele, 1968, 1970.
Zadaniem osób badanych było najpierw przyswojenie sobie czterech pojęć
sztucznych – każde z nich odnosiło się do jednego z czterech wyjściowych
układów kropek. W tej fazie eksperymentu badanym nie pokazywano
jednak w ogóle obrazów wzorcowych, a więc figur matrycowych sprzed
transformacji. Sortowali oni otrzymane obrazki do czterech różnych
kategorii (paradygmat selekcji; Bruner i in., 1956; zob. paradygmat 3.1).
Kiedy już przyswoili sobie procedury identyfikacyjne i bezbłędnie
rozróżniali desygnaty czterech sztucznych pojęć, otrzymywali kolejną
porcję kart z zadaniem zaliczenia ich do jednej z czterech wcześniej
wyuczonych kategorii. Były to inne egzemplarze właśnie przyswojonych
pojęć niż znajdujące się w zestawie kart przeznaczonych do procesu
uczenia. W nowej serii kart zaprezentowano także osobom badanym
wyjściowe układy kropek, nie informując jednak o tym, że są to wzorce
sprzed transformacji.

Posner i Keele wykazali, że chociaż uczestnicy eksperymentu nigdy nie


doświadczyli wzorcowego układu kropek w fazie przyswajania pojęć,
bardzo często uznawali wzorzec pokazywany im dopiero w końcowej fazie
klasyfikacji za bodziec prezentowany już wcześniej, w fazie uczenia się. Im
bardziej klasyfikowany obraz nowej serii był podobny do matrycy
wyjściowej, tym większe było prawdopodobieństwo jego poprawnego
zaliczenia do odpowiadającej mu kategorii. Tym szybciej była również
podejmowana decyzja o jego przynależności kategorialnej. Posner i Keele
udowodnili w ten sposób, że – przynajmniej w przypadku pojęć sztucznych
– kategoryzujący mogą w procesie przyporządkowywania desygnatów do
kategorii nadrzędnych posługiwać się typowymi reprezentantami tych
kategorii w formie średniej arytmetycznej właściwości egzemplarzy
wcześniej sklasyfikowanych. Wykazali również, że percepcyjne
doświadczenie prototypu nie jest koniecznym warunkiem formowania się
tego typu reprezentacji umysłowej.

Próba zdefiniowania prototypu jako średniej arytmetycznej ma jednak


pewne ograniczenia i wady. Nie wiadomo, po pierwsze, czy wyniki
podobne do omówionych udałoby się uzyskać w przypadku pojęć
naturalnych. Podczas gdy stosunkowo łatwo wyobrazić sobie średnią
arytmetyczną z możliwych lokalizacji punktów w układzie współrzędnych
na płaszczyźnie czy nawet średnią arytmetyczną z odległości między
poszczególnymi elementami twarzy, to jednak znacznie trudniej zrozumieć,
czym mogłaby być np. średnia arytmetyczna cechy „lotność” w przypadku
desygnatów kategorii „ptaki”. Przecież ptaki albo latają, z reguły
znakomicie, albo nie latają niemal w ogóle, a średnia tej właściwości
charakteryzowałaby prototyp na przeciętnym poziomie. Po drugie,
prototyp, zwłaszcza kategorii naturalnej, wydaje się (naiwnie może)
egzemplarzem rzeczywistego obiektu, z którym jednostka już się spotkała,
choćby w najodleglejszej przeszłości. Tymczasem, gdyby zasadę tworzenia
prototypów przez uśrednianie właściwości desygnatów przenieść
z kategorii sztucznych na naturalne, to prototyp byłby raczej nieistniejącym
obiektem, hybrydą złożoną z cech istniejących w rzeczywistości, ale nigdy
niewystępujących razem. Prototyp taki nie miałby w ogóle szansy pojawić
się w indywidualnym doświadczeniu. Takie wyobrażenie prototypu jest
intuicyjnie sprzeczne z zasadą typowości.

Dlatego Paul Neumann (1974) zaproponował, aby za prototypowego


reprezentanta danej kategorii pojęciowej uznać najczęściej napotykany jej
egzemplarz. Zamiast średniej byłaby to swoista wartość „modalna”
desygnatów spotykanych przez jednostkę w indywidualnym
doświadczeniu. Niestety, również ta definicja prototypu nie jest
pozbawiona wad. Czasami bowiem doświadczenie dotyczy takiej samej lub
podobnej liczby różnych egzemplarzy danej kategorii. W takim wypadku
bardzo trudno wyznaczyć modalną; w pewnych warunkach może to nawet
być matematycznie niemożliwe, zwłaszcza w sytuacji równoliczności
desygnatów. Oznacza to, że w odniesieniu do kategorii zawierających
desygnaty o podobnej częstości występowania prototyp może nie istnieć
w ogóle. Tymczasem wyniki badań Rosch i jej współpracowników
przekonują o powszechności zjawiska prototypowości i to zarówno
w przypadku pojęć sztucznych, jak i naturalnych. W bardziej umiarkowanej
wersji swojej koncepcji Neumann (tamże) twierdzi, że prototypem mógłby
być egzemplarz mający najczęstsze cechy desygnatów reprezentowanych
w ramach wspólnej kategorii pojęciowej. Prototyp byłby więc nie tyle
modalną desygnatów, ile modalną z ich właściwości.

Próbując rozstrzygnąć, czy bliższa prawdzie jest koncepcja prototypu jako


średniej arytmetycznej czy modalnej, Piotr Francuz (1991) ustalił, że
podobieństwo klasyfikowanego egzemplarza do prototypu modalnego
w znacznie większym stopniu skraca czas jego klasyfikacji jako desygnatu
kategorii niż jego podobieństwo do prototypu średniego. Wynik ten
świadczy na korzyść koncepcji Neumanna, a przeciwko teorii Posnera
i Keele’a, choć nie wyklucza reprezentowania w umyśle zbioru desygnatów
w postaci obu rodzajów prototypów (modalna, średnia) i korzystania z nich
w zależności od wymagań sytuacji. Koncepcja Neumanna pozostaje też
nadal w sprzeczności z wynikami badań Rosch i współpracowników,
dotyczącymi niezależności procesu klasyfikowania desygnatów na skali
typowości od częstości ich występowania w indywidualnym doświadczeniu
– na pojęciu częstości występowania opiera się przecież matematyczne
wyznaczanie modalnej. Poglądy Neumanna oraz Posnera i Keele’a trudno
pogodzić z przekonaniem, że prototyp jest względnie trwałą reprezentacją
umysłową. Tymczasem zarówno prototyp średni, jak i prototyp modalny
mogą podlegać znacznym wahaniom ze względu na właściwości kolejnych
przyswajanych desygnatów kategorii pojęciowej, której byłyby
reprezentantem.

Definicje prototypu w kategoriach średniej lub modalnej cech oraz


modalnej desygnatów nie spełniły więc oczekiwań. Dlatego Rosch (1975)
spróbowała jeszcze raz doprecyzować konstrukt prototypu. Stwierdziła, że
typowy egzemplarz zawsze służy za punkt odniesienia dla mniej typowego.
Raczej skłonni jesteśmy mówić, że „elipsa jest prawie kołem”, niż
stwierdzać, że „koło jest prawie elipsą”. Świadczy to na korzyść koncepcji
prototypu jako punktu odniesienia dla mniej typowych desygnatów,
a przeciwko teoriom cech, zgodnie z którymi porównanie obiektów ze
względu na ich właściwości powinno być symetryczne.

Do kolejnych badań (Rosch i Mervis 1975; Rosch i in., 1976b) wybrano


więc po 20 desygnatów z sześciu różnych kategorii naturalnych (pojazdy,
broń, ubrania, warzywa, owoce, meble). Osoby badane w pierwszej
kolejności wypisywały cechy wszystkich wybranych desygnatów
niezależnie od ich przynależności kategorialnej. Następnie ich zadaniem
było uszeregowanie każdego desygnatu w obrębie każdej kategorii na skali
typowości. Najwyżej jedna cecha została wymieniona jako właściwość
wspólna wszystkim 20 desygnatom należącym do danej kategorii. Mimo
tak dużej rozbieżności, sugerującej nieistnienie twardych rdzeni
pojęciowych, oceny typowości dokonywane przez badanych pokrywały się,
wskazując wyraźnie na istnienie prototypowych egzemplarzy
poszczególnych kategorii. Uczestnicy eksperymentu za najbardziej
typowych uznawali tych przedstawicieli kategorii, którzy podzielali
najwięcej cech wspólnych z pozostałymi jej egzemplarzami. Za najbardziej
typowych uznawano również tych przedstawicieli kategorii, którzy
podzielali najmniej cech wspólnych z egzemplarzami innych kategorii.
Prawidłowości te posłużyły Rosch do zdefiniowania wskaźnika
podobieństwa rodzinnego (family resemblance)1. Według Rosch prototyp
to ten spośród egzemplarzy, który jest najbardziej podobny do wszystkich
innych desygnatów danej kategorii i najmniej podobny do desygnatów
innych kategorii.

Prowadząc badania w paradygmacie zaproponowanym przez Rosch


i współpracowników, James Hampton (1979) polecił dodatkowo swoim
respondentom wypisać cechy definicyjne, ich zdaniem decydujące
o zaliczeniu jakiegoś desygnatu do konkretnej kategorii pojęciowej. Także
w jego eksperymencie okazało się, że najwyżej jedna cecha definiuje rdzeń
pojęciowy – badani byli zgodni co do uznania tej właściwości zarówno za
cechę definicyjną, decydującą o zaliczeniu desygnatu do kategorii, jak i za
ważną dla opisu samego desygnatu. Posiadanie przez egzemplarz jak
największej liczby cech, w odniesieniu do których większość badanych jest
zgodna w ocenie ich wagi dla definicji kategorii nadrzędnej, okazało się
najlepszym predyktorem typowości. Im więcej było cech ocenianych przez
większość badanych jako typowe dla danej kategorii, tym bardziej
prawdopodobne było to, że desygnat otrzyma wysokie oceny na skali
typowości. Na podstawie uzyskanych wyników Hampton zaproponował
koncepcję pojęcia polimorficznego (polymorphous concept). Według tego
autora pojęcia definiowane są przez pewną liczbę cech
charakterystycznych, których właściwością jest to, że nie przysługują
żadnemu z desygnatów definiowanego pojęcia w stopniu koniecznym
i wystarczającym. Prototypem pojęcia polimorficznego jest natomiast ten
desygnat, który ma największą liczbę cech charakterystycznych.

Kończąc opis badań, których rezultaty odnoszą się do koncepcji prototypu,


warto zauważyć, że wyniki eksperymentu Hamptona wskazują na brak
możliwości rozstrzygnięcia sporu o naturę trwałych reprezentacji
pojęciowych, jaki powstał między zwolennikami koncepcji cech i teorii
wzorców. Prototyp można bowiem określić zarówno jako desygnat
uzyskujący w klasyfikacjach typowości zbieżne i najwyższe oceny, jak
i jako egzemplarz charakteryzujący się największą liczbą cech
charakterystycznych, podzielanych przez inne egzemplarze tej samej
kategorii.

Teoria prototypów doczekała się gruntownej krytyki. Przede wszystkim


stwierdzić należy, że wyniki badań nad posługiwaniem się prototypami
pojęć, chociaż wiele mówią o tym, w jaki sposób ludzie identyfikują
egzemplarze pojęć, czyli jak funkcjonują ich procedury identyfikacyjne, to
jednak nie mówią niemal nic o tym, jaka jest istota – a więc struktura –
pojęcia. Zwolennicy koncepcji pojęcia jako listy cech znacznie więcej
miejsca poświęcali problemom strukturalnym, co doprowadziło zarówno
do wyszczególnienia różnego rodzaju strukturalnych właściwości
reprezentacji pojęciowych (np. cech definicyjnych, cech
charakterystycznych), jak i zdefiniowania przestrzeni semantycznej,
„rozpiętej” na najważniejszych wymiarach danego pojęcia. Badania nad
prototypami skupiały się wokół aspektów funkcjonalnych, czyli wokół
korzystania z prototypu jako punktu odniesienia w procesach kategoryzacji.
Natomiast strukturalny aspekt sporu o naturę reprezentacji prawie nie był
przez zwolenników stanowiska prototypowego poruszany (Murphy, Medin,
1985).

Z badań w paradygmacie podejmowania decyzji semantycznych wynika, że


czas takiej decyzji rośnie wraz ze wzrostem nietypowości obiektu. Z faktu
tego jednak nie wynika jeszcze, że egzemplarze mniej typowe, będąc mniej
podobne rodzinnie, są znacznie bardziej oddalone w przestrzeni
semantycznej od kategorii nadrzędnej niż prototyp. Wyniki uzyskiwane
w tym paradygmacie są bowiem zgodne z koncepcją prototypów, bo
mniejsze podobieństwo rodzinne nietypowego obiektu wiąże się
z większym dystansem między nim a jego odniesieniem w procesie
kategoryzacji, czyli prototypem, a także z koncepcją probabilistyczną, gdyż
nietypowy obiekt wymusza konieczność zapoczątkowania drugiego,
bardziej szczegółowego etapu porównywania cech (Osherson, Smith,
1981).

Koronne dla zwolenników koncepcji prototypów wyniki badań nad


klasyfikowaniem desygnatów także można wyjaśnić zarówno przez
odwołanie się do istnienia prototypów, jak i definiując punkt odniesienia
dla dokonywanych porównań poprzez zbiór cech charakterystycznych,
które są relatywnie powszechne wśród desygnatów i decydują o ich
typowości (Hampton, 1979). Koncepcje probabilistyczne i teorie
prototypów mówią więc o tej samej strukturze i podobnym funkcjonowaniu
reprezentacji pojęciowych. Ujmują jednak proces kategoryzacji z dwóch
różnych perspektyw: egzemplarza mającego określone cechy (koncepcje
prototypów) lub zbioru typowych cech konstytuujących specyficzny
desygnat (koncepcje probabilistyczne).

Z tego, że ktoś nie potrafi podać wspólnych właściwości egzemplarzy


wchodzących w skład jakiegoś pojęcia, nie można wnioskować, że zestaw
takich cech w ogóle nie istnieje (Smith, Medin, 1981). W badaniach
Lewickiego (1968) poprawnie zdefiniować istotę pojęcia potrafiło przecież
tylko 20% osób. Często zdarza się również, że ktoś nie umie
zwerbalizować jakiegoś fragmentu wiedzy, ale skutecznie go stosuje (zob.
rozdz. 4).

Trzeba także podkreślić, że teorie prototypów nie stosują się do wszystkich


reprezentacji pojęciowych (Hampton, 1981). Bardziej abstrakcyjne
kategorie pojęciowe, jak się wydaje, nie mają prototypów. Wprawdzie, jak
wykazała Rosch (1973), istnieją mniej i bardziej prototypowe dyscypliny
nauki czy przestępstwa, ale nie ma mniej i bardziej typowych praw, reguł,
wierzeń, przekonań czy instynktów. Prototypy, według Hamptona (1979,
1981), mają ograniczone zastosowanie, występują tylko tam, gdzie
możliwe jest podanie kompletnej listy desygnatów danej kategorii, lub tam,
gdzie podejrzewa się, że taka kompletna lista istnieje. Reprezentacje takie
można określić jako pojęcia konkretne (concrete concepts). Późniejsze
badania nad możliwymi umysłowymi odzwierciedleniami emocji
w systemie poznawczym (ramka 3.1) złagodziły nieco ten krytyczny wobec
teorii prototypów argument.

Z analizy przedstawionych argumentów wynika, że zwolennikom


koncepcji prototypów udało się sformułować klarowne odpowiedzi na
pytanie o sposób funkcjonowania reprezentacji pojęciowych. Zgodnie
z ustaleniami Rosch zbiór obiektów tej samej kategorii jest reprezentowany
w umyśle przez prototyp, który działa jako punkt odniesienia dla
klasyfikacji pozostałych egzemplarzy kategorii. Prototyp może też być
definiowany jako najbardziej typowy przedstawiciel danej kategorii,
w najwyższym stopniu podobny do innych jej desygnatów (Rosch); jako
egzemplarz charakteryzujący się średnią arytmetyczną właściwości
wszystkich pozostałych egzemplarzy kategorii

(Posner i Keele); lub jako desygnat, który charakteryzowany jest przez


właściwości najczęściej spotykane w ramach kategorii (Neumann).
Niezależnie od sposobu określenia prototyp jest konkretnym
egzemplarzem. Kwestią sporną pozostaje, czy jest on egzemplarzem
rzeczywiście istniejącym, ale problem ten ma znaczenie jedynie
w odniesieniu do pojęć naturalnych. Trzeba przy tym pamiętać, że zgodnie
z koncepcją prototypów proces kategoryzacji polega na określaniu stopnia
podobieństwa (dystansu semantycznego) między kategoryzowanym
egzemplarzem a prototypem, czego empirycznym odzwierciedleniem są
różnice w rankingach typowości. Według zwolenników koncepcji
reprezentacji umysłowych w formie prototypów pojęcia nabywane są na
podstawowym poziomie hierarchii poprzez doświadczanie egzemplarzy
typowych.

RAMKA 3.1

Badania nad umysłowymi reprezentacjami


emocji
Twierdzenie Hamptona (1981), że tylko pojęcia konkretne mogą mieć
prototypy, wywołało falę badań nad prototypami pojęć abstrakcyjnych
(abstract concepts). Jako przykład wybrano reprezentację pojęciową
emocji (Fehr, 1988; Fehr, Russell, 1991; Russell, 1991). W badaniach
wykazano jednak (wbrew temu, co sądził Hampton), że reprezentowanie
emocji w systemie poznawczym spełnia założenia koncepcji prototypów
Rosch.

Na nadrzędnym poziomie odzwierciedlania funkcjonują w umyśle


pojęcia odpowiadające różnym emocjom (Russell, 1991). Są one niezbyt
precyzyjnie zdefiniowane, gdy chodzi o właściwości definicyjne, i słabo
odróżnialne od innych stanów i procesów afektywnych (Kolańczyk,
Fila-Jankowska, Pawłowska-Fusiara, Sterczyński, 2004). Już jednak na
poziomie podstawowym poszczególne rodzaje emocji są znacznie lepiej
określone przez listy cech – definicyjnych i charakterystycznych –
odznaczając się różnym stopniem typowości (Fehr, Russell, 1991).
Przykładem może być lęk, który jest emocją uznawaną za bardzo
typową; duma zaś często bywa stanem w ogóle nieklasyfikowanym
przez ludzi jako przykład emocji. Badani proszeni o nazywanie emocji,
zawartych w prezentowanych im opisach wydarzeń, najczęściej
posługują się określeniami z poziomu podstawowego (Fehr, Russell,
1984); szczególnie dzieci nabywają pojęcia dotyczące emocji na tym
właśnie poziomie (Bretherton, Beeghly, 1982). Na poziomie
podrzędnym reprezentacje poszczególnych rodzajów emocji mają już
strukturę wyłącznie prototypową. Uczestnikom eksperymentu nie
sprawia większych kłopotów klasyfikowanie przykładów bójek
w trakcie meczu hokejowego jako typowych lub mniej typowych
zachowań agresywnych, choć ze zdefiniowaniem takiego zachowania na
podstawie cech definicyjnych mieliby z pewnością duże problemy
(Lysak, Rule, Dobbs, 1989).

Należy więc stwierdzić, że emocje mogą być reprezentowane w umyśle


zarówno w formie list cech, jak i egzemplarzy prototypowych. Im niższy
poziom ogólności reprezentacji, tym większe prawdopodobieństwo
reprezentowania konkretnej emocji w formie prototypu i tym niższe
prawdopodobieństwo odzwierciedlania jej w formie zbioru cech.
Reprezentacja emocji w postaci listy cech dotyczy w zasadzie tylko
najbardziej abstrakcyjnej, nadrzędnej reprezentacji pojęciowej emocji,
niemożliwej do odzwierciedlenia w postaci prototypu.

3.2.4. Teorie egzemplarzy


Zdaniem Douglasa Medina i Marguerite Schaffer (1978) sprawdzanie
przynależności kategorialnej nie zawsze odbywa się poprzez odniesienie
klasyfikowanego desygnatu do prototypu. Czasami w procesie
kategoryzacji wykorzystywane mogą być inne, z jakiegoś powodu ważne,
egzemplarze tego samego pojęcia. Według zwolenników teorii
egzemplarzy (exemplar view) reprezentacja pojęciowa składa się
z odrębnych opisów egzemplarzy danego pojęcia. Mogą nimi być zarówno
odzwierciedlenia pojedynczych przedstawicieli kategorii (wśród nich
egzemplarz prototypowy), jak i ich podzbiory wchodzące w zakres danego
pojęcia. Na przykład właściciel jamnika może mieć reprezentację
pojęciową psów w postaci opisów: własnego psa, wilczura – psa sąsiada,
jamniczki – suczki sąsiadki, oraz reszty napotkanych psów. Własny pies
zapewne będzie w takim przypadku reprezentował egzemplarz
prototypowy kategorii „pies”, z czym nie zgodziłoby się wielu innych
właścicieli tych zwierząt (o czym świadczą dyskusje na spacerze „o
wyższości jamników nad wilczurami”). Wilczur sąsiada i jamniczka
sąsiadki będą ważnymi egzemplarzami wyróżnionymi ze względu na
emocje (zapewne złość i miłość) wzbudzane u własnego ulubieńca, a reszta
desygnatów będzie stanowić jedynie tło dla ważnych przedstawicieli
nadrzędnej kategorii. Zatem reprezentacja pojęciowa psów będzie
u właściciela jamnika przedstawiona w formie czterech opisów
egzemplarzy: trzech indywidualnych (w tym jednego prototypowego)
i jednego zbiorowego. W teorii tu przedstawianej proces kategoryzacji
polega na porównywaniu egzemplarzy. Jeśli napotkany obiekt jest podobny
do opisu jakiegoś ważnego egzemplarza już składającego się na
reprezentację pojęciową, np. jamnika, jamniczki lub wilczura, to zostaje
uznany za przynależny do kategorii i sam staje się z kolei punktem
odniesienia dla następnych porównywanych, potencjalnych jej
przedstawicieli. Podejście egzemplarzowe zdaje się wyjaśniać relatywnie
wysoki poziom wiedzy właścicieli psów na temat swoich ulubieńców
i często niemal całkowity brak wiedzy na temat innych ras (pytania na
spacerze: „A jaka to rasa?”).

Porównywanie opisów wszystkich egzemplarzy tworzących reprezentację


pojęciową z opisem nowego egzemplarza, dopiero aspirującego do
kategorii, byłoby procesem czasochłonnym. Dlatego zwolennicy koncepcji
egzemplarzowych skłaniają się ku twierdzeniu, że w trakcie procesu
kategoryzacji oceniamy podobieństwo nowego egzemplarza z pierwszym
napotkanym desygnatem pojęcia (Reed, 1972). Z tej przyczyny niezwykle
ważne mają być pierwsze doświadczenia z egzemplarzami danej kategorii
pojęciowej, gdyż dzięki nim można uniknąć wielu błędów kategoryzacji.
Jeśli tym pierwszym obiektem będzie typowy egzemplarz, to w trakcie
późniejszej kategoryzacji możliwość popełnienia błędu będzie mniejsza,
jeśli nie tak typowy – większa. Dziecko, które jako pierwszy egzemplarz
psa napotka chihuahua, mieszczącego się zazwyczaj w kieszeni marynarki,
będzie zapewne przez jakiś czas miało kłopoty z klasyfikowaniem nieco
większych przedstawicieli rozważanej kategorii.

Arnold Glass i Keith Holyoak (1975), prowadząc badania w paradygmacie


podejmowania decyzji semantycznych, wykazali, że proces ten może
polegać, w pewnych szczególnych warunkach, na porównywaniu
pojedynczych egzemplarzy. Poprosili oni osoby badane o weryfikację
prostych zdań fałszywych, zawierających duży kwantyfikator (np.
„wszystkie ptaki to psy”). Okazało się, że zdania te były bardzo szybko
weryfikowane przez badanych jako fałszywe – na tyle szybko, że trudno
było przypuszczać, iż podejmują oni decyzje na podstawie porównywania
jakichkolwiek list cech albo zestawiania prototypowych przedstawicieli
obu kategorii pojęciowych (psy vs. ptaki). Tak krótki czas decyzji mógł być
spowodowany odnalezieniem przez badanych w procesie weryfikacji
zdania jednego kontrprzykładu, tj. egzemplarza jednej kategorii
niebędącego desygnatem drugiej (np. „wróbel jest ptakiem i nie jest
psem”). Poczynienie takiego ustalenia pozwala z łatwością sfalsyfikować
przytoczone zdanie.
Także teorie egzemplarzy doczekały się gruntownej krytyki. Wiele
krytycznych argumentów skierowanych przeciwko teoriom prototypów
odnosi się również do teorii egzemplarzy. Obie teorie proponują bowiem
podobne rozwiązania w kwestii opisu i wyjaśnienia procesu kategoryzacji.
Inaczej jednak w koncepcjach egzemplarzowych przedstawia się kwestia
struktury pojęcia i procesu jego nabywania.

Zgodnie z poglądem egzemplarzowym poszczególne desygnaty są często


z różnych względów traktowane jako unikatowe. Można zatem
sformułować pytanie, do jakiego stopnia brak podobieństwa pośród
kategoryzowanych egzemplarzy jest tolerowany przez kategorię nadrzędną.
Teorie cech (zgodność w zakresie rdzenia pojęciowego) czy prototypów
(wskaźnik podobieństwa rodzinnego) wskazują na pewne miary tej
tolerancji; teoria egzemplarzy takiej miary nie podaje. Konsekwencją braku
miary podobieństwa egzemplarzy w ramach pojedynczej kategorii mogą
być problemy z kategoryzacją. Stosując egzemplarzową formę
kategoryzacji, właściciel jamnika nie będzie miał zapewne problemów
z zaliczeniem do kategorii „pies” takiego przedstawiciela czworonożnych,
który niewiele się różni od idącego przy jego nodze (jamnik), lub takiego,
który toczy pianę z pyska na widok jego ulubieńca (wilczur). Próbując
jednak zaklasyfikować inne nieznane desygnaty (chihuahua),
prawdopodobnie nie uniknie błędu kategoryzacji.

Przede wszystkim bardzo trudno byłoby stosować egzemplarzową


procedurę identyfikacji przynależności kategorialnej w naukach ścisłych,
gdzie dowody twierdzeń dotyczą z reguły klas obiektów, a nie
pojedynczych desygnatów. Procedura egzemplarzowej kategoryzacji, jeśli
w ogóle występuje w procesach poznawczych człowieka, dotyczy więc
raczej pojęć naturalnych i konkretnych.
Trudnym do rozwiązania problemem jest również ustalenie, w jaki sposób
w ramach reprezentacji pojęciowej przechowywane są pojedyncze
egzemplarze, a jak tworzą się ich podzbiory. W szczególności nie bardzo
wiadomo, w jaki sposób umysł przechowuje wiedzę o podzbiorze (np. psy
myśliwskie) w postaci pojedynczego egzemplarza. Nie jest też do końca
jasne, w jakim celu mają być przechowywane wszystkie opisy
doświadczanych desygnatów, skoro punktem odniesienia w procesie
kategoryzacji jest tylko pierwszy napotkany w doświadczeniu
indywidualnym bądź ważny z przyczyn osobistych.

Nie można tych krytycznych argumentów pominąć, ponieważ wynika


z nich, że koncepcje egzemplarzowe sugerują najmniej ekonomiczną formę
trwałego reprezentowania obiektów rzeczywistych w umyśle.
Najważniejszy desygnat, będący punktem odniesienia, jest wprawdzie
nabywany na drodze spostrzegania i wyodrębniania egzemplarzy, ale jest
nim z reguły pierwszy napotkany przedstawiciel kategorii. W jakim celu
jest więc przyswajana cała reszta egzemplarzy? Być może tylko
przechowywanie opisów wszystkich wyodrębnionych desygnatów danej
kategorii umożliwia elastyczne zmiany w zakresie ważnych egzemplarzy,
będących punktem odniesienia w procesie kategoryzacji. Bez możliwości
odniesienia nowo napotkanego obiektu zarówno do samego prototypu, jak
i do zbioru wszystkich dotychczas napotkanych egzemplarzy, jakiekolwiek
zmiany w średnich posiadanych właściwości i modalnych częstości
występowania, a w szczególności we wskaźniku podobieństwa rodzinnego
nie byłyby możliwe. A bez takich zmian system pojęć byłby sztywny
i niewydolny.

3.2.5. Porównanie koncepcji reprezentacji pojęciowych


Koncepcje reprezentacji pojęciowych różnią się w zakresie odpowiedzi na
trzy kluczowe pytania. Pierwsza kwestia sporna dotyczy struktury
reprezentacji pojęciowych, a więc sposobu trwałego odzwierciedlania
w systemie poznawczym rzeczywistych obiektów i zjawisk. Zwolennicy
poszczególnych koncepcji reprezentacji pojęciowych różnią się także co do
poglądów na temat sposobu nabywania reprezentacji pojęciowych,
zarówno tych pierwszych, które kształtowane są we wczesnych latach
rozwoju umysłu, jak i późniejszych, przyswajanych w praktyce codziennej
przez osoby dorosłe. Ostatni sporny problem to ustalenie zbioru reguł
procesu kategoryzacji, a więc wskazanie metody klasyfikacji nowo
napotkanych obiektów i prawidłowego włączania ich do już
zdefiniowanych kategorii pojęciowych. Kwestią odrębną wydaje się zakres
stosowalności poszczególnych koncepcji. Z przedstawionych wcześniej
argumentów wynika, że żadna z rozważonych koncepcji nie opisuje ani nie
wyjaśnia struktury oraz funkcjonowania wszystkich rodzajów reprezentacji
pojęciowych. Interesującym, choć nierozstrzygającym argumentem w tym
sporze są dane pochodzące z neuroobrazowania z użyciem techniki fMRI.
Okazało się np. (Mack, Preston i Love, 2013), że aktywność mózgu osób
uczących się kategoryzować obiekty jest bardziej spójna z poglądem
egzemplarzowym niż prototypowym.

Aby zatem opisać i wyjaśnić problem trwałego reprezentowania świata


w systemie pojęć, trzeba zastosować podejście eklektyczne. Zgodnie
z nim teorie cech, w szczególności teorie klasyczne, odnoszą się raczej do
pojęć matrycowych i abstrakcyjnych, a teorie wzorców, w szczególności
teorie prototypów – do pojęć naturalnych i konkretnych. Możliwe też, że ta
sama osoba stosuje różne wzorce nabywania i używania pojęć w zależności
od potrzeb poznawczych lub od stadium uczenia się. Wykazano np.
(Rouder, Ratcliff, 2006), że w procesach kategoryzacji początkowo
posługujemy się regułami, jednak pod wpływem uczenia się coraz bardziej
polegamy na konkretnych egzemplarzach jako podstawie kategoryzacji
nowych obiektów. Podsumowanie poszczególnych stanowisk w sporze
o naturę reprezentacji pojęciowych przedstawiono w tabeli 3.3.

TABELA 3.3. Podsumowanie stanowisk w sporze o naturę pojęć

Teorie Struktura Sposób nabywania Sposób kategoryzacji Zakres


reprezentacji reprezentacji stosowalności

klasyczne zestaw cech abstrahowanie porównanie zestawów cech matrycowe,


definicyjnych i testowanie hipotez definicyjnych abstrakcyjne
(istotnych)

probabilistyczne zestaw cech abstrahowanie porównanie zestawów naturalne, konkretne


definicyjnych wszystkich cech, a następnie
i charakterystycznych ustalenie proporcji cech
definicyjnych

prototypów prototyp (średnia, doświadczanie porównanie z prototypem naturalne, konkretne,


modalna, typowych egzemplarzy (ustalenie dystansu polimorficzne,
podobieństwo z poziomu semantycznego) niektóre abstrakcyjne
rodzinne) podstawowego

egzemplarzy wszystkie napotkane doświadczanie porównanie z pierwszym naturalne, konkretne


egzemplarze wszelkich egzemplarzy napotkanym egzemplarzem

Źródło: opracowanie własne.

3.3. Dynamiczna koncepcja umysłu, czyli


o relacjach między pojęciami

3.3.1. Teorie sieci semantycznej


Reprezentacje pojęciowe nie istnieją w systemie poznawczym w oderwaniu
od siebie. Wiążą je ze sobą złożone relacje opisane w modelu sieci
semantycznej (network model of semantic memory; Collins, Loftus, 1975;
Collins, Quillian, 1969; zob. rozdz. 4). Zgodnie z teorią sieci semantycznej
pojęcia są przechowywane na trwałe w pamięci w postaci
zhierarchizowanej struktury sieciowej, składającej się z punktów
węzłowych i wiążących te punkty relacji. W poszczególnych punktach
węzłowych sieci kodowane są różnorodne reprezentacje pojęciowe.
Podstawowym założeniem modeli sieci semantycznej, mającym
konsekwencje również dla struktury i funkcjonowania pojedynczych
kategorii pojęciowych, jest hipoteza dotycząca właściwości
charakteryzujących pojęcia. Są one przyporządkowane reprezentacjom
pojęciowym na możliwie najwyższym poziomie hierarchii ogólności.
Właściwość „wykonywanie pieśni godowej” jest więc przypisana pojęciu
„ptak”, nie zaś osobno każdej z podrzędnych reprezentacji pojęciowych
poszczególnych rodzajów ptaków (np. kanarka, wróbla). Natomiast cecha
„latanie” nie jest odzwierciedlana przez reprezentację pojęciową „ptak”,
gdyż część ptaków to nieloty (np. kiwi), a część – bezloty (np. pingwin).
Proponowane założenie strukturalne spełnia postulat ekonomii
funkcjonowania poznawczego (hipoteza „skąpca poznawczego” – zob.
rozdz. 1), choć trzeba również zwrócić uwagę na to, że ekonomia struktury
sieci może czasami być związana z kosztami jej funkcjonowania.
Ekonomiczna organizacja strukturalna sieci semantycznej pozwala na
oszczędne wykorzystanie „powierzchni magazynowej” pamięci
długotrwałej, w której zakodowane są reprezentacje pojęciowe. Owo
„oszczędne” zagospodarowanie pamięci związane jest jednak z kosztem
wydłużenia czasu wydobywania informacji bardziej ogólnych,
pochodzących z wyższego poziomu w hierarchii pojęciowej, czy bardziej
specyficznych, przynależnych do niższego jej poziomu.

Zasadę przyporządkowania właściwości odpowiednim – ze względu na


poziom ogólności – reprezentacjom pojęciowym wykazali w swoich
eksperymentach Allan Collins i M. Ross Quillian (1969, 1972). Prowadzili
oni badania w paradygmacie podejmowania decyzji semantycznych,
prosząc uczestników o weryfikowanie zdań zawierających jakieś pojęcie
i przysługującą mu właściwość (np. „Czy ptak lata?”). Collins i Quillian
ustalili, że czas weryfikacji prawdziwości takich zdań jest bardzo krótki
w przypadku właściwości odnoszących się ściśle do wybranego pojęcia
(np. „Czy kanarek jest żółty?”) i relatywnie dłuższy, gdy chodzi
o właściwości odnoszące się do wielu pojęć nadrzędnych (np. „Czy
kanarek ma skórę?”). W pierwszym przypadku, zgodnie z założeniem
dotyczącym organizacji strukturalnej sieci semantycznej, informacja
o właściwości („żółtość”) jest dostępna w węźle reprezentacji pojęciowej
(„kanarek”). Dlatego proces weryfikacji prawdziwości zdania jest bardzo
szybki. Natomiast w przypadku drugim informacja o „posiadaniu skóry”,
umożliwiająca zweryfikowanie prawdziwości zdania, jest przypisana
szerszej kategorii pojęciowej („zwierzęta”), znajdującej się na znacznie
wyższym poziomie ogólności. Aby wykonać zadanie, uczestnik
eksperymentu musi więc odwołać się tu do innej reprezentacji pojęciowej,
pochodzącej z wyższego poziomu hierarchii niż sugerowana przez obiekt
występujący w weryfikowanym zdaniu („ptak”). Konieczność takiego
odwołania powoduje właśnie wydłużenie czasu poszukiwania informacji,
a zatem – pojawienie się kosztów czasowych.

Punkty węzłowe sieci, czyli zakodowane w nich pojęcia, są powiązane


relacjami znaczeniowymi. Relacja semantyczna (semantic relation)
dwóch reprezentacji pojęciowych wyraża się sumą wszystkich połączeń
między ich desygnatami i właściwościami. Dwa pojęcia blisko ze sobą
związane charakteryzuje wielość wzajemnych połączeń w sieci,
odpowiadająca wspólnocie ich właściwości. Połączenia, zwane też
ścieżkami sieci (network paths), są zróżnicowane pod względem wagi – im
silniejszy związek między dwiema reprezentacjami pojęciowymi, tym
większej wagi nabiera łącząca je ścieżka, a w konsekwencji – tym łatwiej
te dwa pojęcia wzajemnie się aktywują w toku przetwarzania (mechanizm
rozprzestrzeniającej się aktywacji – adaptive control of thought, ACT;
Anderson, 1976; zob. rozdz. 4). Oznacza to, że sieć reprezentacji
pojęciowych nie jest symetryczna ze względu na wagę połączeń między
poszczególnymi węzłami – typowi przedstawiciele nadrzędnych kategorii,
a także typowe właściwości pojęć są powiązane silniejszymi relacjami
semantycznymi. Świadczą o tym najkrótsze z możliwych czasy
podejmowania decyzji semantycznych, dotyczących prototypów kategorii
nadrzędnych (Rips i in., 1973; Smith i in., 1974) czy typowych właściwości
pojęć (Conrad, 1972).

Relacje semantyczne między pojęciami mogą być dwojakiego rodzaju. Po


pierwsze, mogą to być relacje zbudowane na połączeniach pozytywnych
(np. „kura jest to ptak”; Collins, Quillian, 1969, 1972). Po drugie, mogą to
być relacje zbudowane na podstawie ścieżek zaprzeczających (np. „kot
nie jest to pies”; Collins, Loftus, 1975). Możliwość istnienia relacji
negatywnych wykazali Glass i Holyoak (1975) w opisywanym wcześniej
(zob. podrozdz. 3.2.4) badaniu nad podejmowaniem decyzji
semantycznych. Stwierdzili oni bowiem, że im większy dystans
semantyczny między dwiema reprezentacjami pojęciowymi, tym szybciej
jest podejmowana decyzja dotycząca fałszywości zdania pozytywnie
łączącego te dwa pojęcia.

Geoffrey Loftus i Elizabeth Loftus (1976) przywołują wiele danych


empirycznych na potwierdzenie słuszności teorii sieci semantycznej jako
strukturalnej i funkcjonalnej organizacji reprezentacji pojęciowych. Dane te
pochodzą z czterech typów eksperymentów: (1) przywoływania
desygnatów kategorii pojęciowych lub podawania nadrzędnych kategorii
dla pojedynczych egzemplarzy (np. Loftus, 1973; zob. podrozdz. 3.2.3); (2)
sortowania egzemplarzy do kilku kategorii (np. Posner, Keele, 1968; zob.
podrozdz. 3.2.3); (3) podejmowania decyzji semantycznych (np. Glass,
Holyoak, 1975; zob. podrozdz. 3.2.4); (4) sortowania egzemplarzy ze
względu na ich typowość (np. Rosch, 1973; zob. podrozdz. 3.2.3). Szersze
omówienie tych danych znaleźć można w pracach Zdzisława
Chlewińskiego (1999), Idy Kurcz (1987, 1997), Tomasza Maruszewskiego
(1983, 2001) oraz Jerzego Trzebińskiego (1981, 1986).

Modele sieci semantycznej pozwalają na wyjaśnienie relacji


znaczeniowych, wiążących poszczególne reprezentacje pojęciowe.
W ramach teorii sieciowych uwzględniono wyniki badań dotyczących
struktury i funkcjonowania indywidualnych pojęć. Węzły sieci definiowane
są bowiem przez zestawy właściwości poszczególnych reprezentacji
pojęciowych (koncepcje cech), a asymetria w zakresie relacji
semantycznych wiąże się z powszechnie stwierdzanym efektem typowości
(koncepcje probabilistyczne, teorie prototypów). Istnienie negatywnych
ścieżek sieciowych jest z kolei konsekwencją stwierdzenia możliwości
klasyfikacji na podstawie porównywania pojedynczych egzemplarzy
(koncepcje egzemplarzowe). Dane empiryczne zarówno na temat modeli
sieci semantycznej, jak i koncepcji reprezentacji pojęciowych pochodzą
zatem z tych samych eksperymentów.

3.3.2. Złożone struktury sieciowe


Podstawowym problemem modeli sieci semantycznej oraz sieciowej
organizacji reprezentacji pojęciowych jest fakt, że „rozbijają” one system
trwałej wiedzy o świecie fizycznym lub społecznym na mniejsze porcje
informacji – pojedyncze reprezentacje pojęciowe. Wprawdzie pojęcia są
powiązane relacjami zależnymi od wielkości dystansu semantycznego, ale
trudno wyobrazić sobie, aby tylko za pomocą mechanizmu
rozprzestrzeniającej się aktywacji możliwe było szybkie łączenie tych
pojedynczych porcji informacji w złożoną wiedzę o świecie. Bez takiej
trwałej, zintegrowanej wiedzy, elastyczne i adekwatne zachowanie
w zmiennych warunkach bodźcowych nie byłoby możliwe. Postępowanie
właściciela wobec psa (np. pójście z nim na spacer) nie wynika z reguły
z faktu, że pies ten wykazuje się jakimiś pojedynczymi właściwościami
(np. szczeka lub macha ogonem). Jest ono natomiast efektem
zintegrowanej wiedzy dotyczącej w swej ogólności zwierząt domowych
i ich zwyczajów oraz w szczególności zasad komunikacji między
człowiekiem a jego udomowionymi zwierzętami.

W celu rozwiązania problemu dostosowania organizacji sieci semantycznej


do systemu zintegrowanej wiedzy zwolennicy modeli sieciowych
zasugerowali istnienie w ramach sieci większych, bardziej złożonych
struktur poznawczych, umożliwiających np. rozumienie nie tylko
pojedynczych pojęć, ale całej komunikacji międzyludzkiej, czy nie tylko
reagowanie na pojedyncze bodźce, ale poprawne zachowanie w złożonych
sytuacjach społecznych, takich jak obiad rodzinny w restauracji (Schank,
Abelson, 1977). Struktury te wyróżniają się szczególnie silnymi
wewnętrznymi powiązaniami między poszczególnymi reprezentacjami
pojęciowymi (Bartlett, 1932; Komatsu, 1992), co zgodnie z mechanizmem
rozprzestrzeniającej się aktywacji powinno gwarantować natychmiastową
aktywizację wszystkich kategorii pojęciowych konstytuujących tę złożoną,
schematyczną strukturę. Wprawdzie zwolennicy koncepcji sieciowych nie
różnią się specjalnie w opisie i próbach wyjaśnienia organizacji
i funkcjonowania owych złożonych struktur sieciowych, jednak liczne
nazwy, które im nadają, wywołują mylne wrażenie dużej ich
różnorodności. Wśród najczęściej stosowanych określeń można wskazać:
schematy, skrypty, tematy, gry, miniteorie, ramy, hipotezy, plany, pakiety
czy oczekiwania (Chlewiński, 1999; Kurcz, 1987). Odrębne przedstawianie
wszystkich teorii złożonych struktur sieciowych wymagałoby wielu
powtórzeń w odniesieniu do kluczowych założeń i stwierdzeń. Koncepcje
te zostały już zresztą w literaturze polskiej opisane przez Chlewińskiego
(1999). Dlatego omówimy tylko ogólne założenia i tezy teorii schematów
(Rumelhart, 1980; Rumelhart, Norman, 1978, 1981; Rumelhart, Ortony,
1977), ram (Minsky, 1975) oraz planów, scen i tematów (Schank, 1982,
1986; Schank, Abelson, 1977).

3.3.3. Teoria schematów


Według Davida Rumelharta (1980; Rumelhart, Ortony, 1977) schematy
(schemas) są dobrze zintegrowanymi fragmentami sieci semantycznej.
W tych fragmentach zakodowany jest zarówno sens typowej sytuacji, do
jakiej dany schemat się odnosi, jak i znaczenie typowej formy zachowania,
która powinna zostać wygenerowana w reakcji na typową sytuację.
Schematy różnią się poziomem ogólności. Reprezentują wiedzę ze
wszystkich poziomów: od pojedynczych reprezentacji pojęciowych do
rozbudowanych ideologii. Wśród schematów są takie o bardzo wąskim
zakresie stosowania, związanym ze specyfiką sytuacji bodźcowej, do której
się odnoszą. Przykładem może być schemat regulacji silnika benzynowego
samochodu marki Nissan. Są jednak i takie, które mają bardzo szeroki
zakres stosowalności – tu przykładem służy schemat zdawania egzaminów.
Struktura schematów jest, zdaniem Rumelharta, hierarchiczna, podobnie
jak struktura sieci reprezentacji pojęciowych. Schematy o szerokim
zakresie stosowalności zawierają więc mniej ogólne struktury tego typu.
Schemat zdawania egzaminu zawiera subschematy nauki do egzaminu czy
rozwiązywania testów egzaminacyjnych. Ponadto złożone struktury
sieciowe o szerokim zakresie stosowania (dużym stopniu ogólności)
zawierają część rdzenną (core), tj. reprezentacje pojęciowe wspólne
wszystkim sytuacjom z tego zakresu, oraz część elastyczną (tracks), która
pozwala na zastosowanie schematu w konkretnej sytuacji bodźcowej,
różniącej się w jakiś sposób od sytuacji typowej (Schank, Abelson, 1977).
W ramach schematów możliwe jest także generowanie brakujących
elementów systemu reprezentacji pojęciowych, jeśli relacje między już
zidentyfikowanymi elementami schematu takie elementy podpowiadają.

Opisując funkcjonowanie schematów, Rumelhart (1980) odwołuje się do


trzech analogii. Stwierdza, że schematy są jak gry. Każdy posiada bowiem
dwa podstawowe elementy każdej gry: sekwencje wydarzeń, czyli swoisty
scenariusz gry, oraz wykonawców poszczególnych czynności – aktorów
z rozpisanymi dla nich rolami. Rumelhart dokonuje też porównania
schematów do teorii, gdyż jego zdaniem zawierają one naiwne, potoczne
przekonania odnośnie do natury rzeczywistości. Kompletny zestaw
schematów tworzy zaś naszą prywatną, zintegrowaną wiedzę na temat praw
funkcjonowania świata. Autor odnajduje także podobieństwo schematów
do programów komputerowych. Wskazuje na to, według niego, przede
wszystkim wewnętrzna budowa schematów, uwzględniająca subprocedury
oraz programy sprawdzające skuteczność działania (por. systemy
produkcji; Anderson, 1983b). Trzeba jednak zauważyć, że schematy są
specyficznymi programami, podobnie bowiem jak sztuczne sieci
neuropodobne (parallel distributed processing, PDP; Rumelhart,
McClleland, 1986) mogą ulegać modyfikacjom na drodze uczenia się.

Można wskazać kilka dróg nabywania i modyfikacji schematów


(Rumelhart, Norman, 1978, 1981). Przede wszystkim już istniejące
schematy są rozwijane przez rejestrację nowych sytuacji bodźcowych,
w których mogą mieć zastosowanie. Ten typ uczenia się schematów można
określić jako nabywanie wiedzy przez przyrost informacji. Dobrze opisuje
go mechanizm asymilacji nowych informacji do już istniejących struktur
poznawczych i związanej z tym akomodacji tych ostatnich (Piaget, 1981).
W rezultacie można zaobserwować powstanie nowych, elastycznych
subprocedur dla już istniejących schematów.

Ponadto schemat może zostać dostrojony. Proces ten polega na


stopniowych zmianach w zakresie poszczególnych subprocedur, tak aby
dostosować już istniejący schemat do innej – niż go wyzwalająca – sytuacji
bodźcowej. Zmiany w zakresie dostrajania nie mogą jednak zmienić
zasadniczej struktury relacji w ramach schematu. W ten sposób nowo
powstały schemat jest analogią schematu wyjściowego.

Modyfikacja schematu może również polegać na całkowitej jego


restrukturalizacji. W jej wyniku relacje łączące poszczególne reprezentacje
pojęciowe zostają, jako zupełnie nieadekwatne do sytuacji bodźcowej,
rozbite, a nowe relacje tworzą się w wyniku procesów abstrahowania
i myślenia indukcyjnego. W ten sposób powstaje zupełnie nowy schemat.
Wprawdzie wykorzystuje on stare formy pojedynczych reprezentacji
pojęciowych, ale ze względu na zupełnie nowe relacje semantyczne,
wiążące poszczególne elementy starej struktury, jest zupełnie nową porcją
wiedzy. Należy więc stwierdzić, że powstawanie nowych schematów
i modyfikacja tych już istniejących dokonują się dzięki twórczym
procesom transformowania, abstrahowania i myślenia indukcyjnego
(Chlewiński, 1999).

Istnieje duża liczba przekonujących danych empirycznych


potwierdzających organizację wiedzy w postaci schematów. Dane te
wskazują jednocześnie na to, w jaki sposób schematy poznawcze wpływają
na przebieg procesów przetwarzania informacji, na istotne jego ogniwa,
czyli percepcję i pamięć, a przez to na całe zachowanie. Gordon Bower,
John Black i Terrence Tuner (1979) przedstawili osobom badanym opis
sytuacji, której tematem było „jedzenie obiadu w restauracji”. Większość
(73%) uczestników eksperymentu wskazała na takie jej elementy jak:
siedzenie przy stole, przeglądanie menu, zamawianie, jedzenie, płacenie
i opuszczanie pomieszczenia, uznając je za najważniejsze wśród 20
zdarzeń, które mogą wystąpić podczas pobytu w restauracji. Natomiast
48% badanych wyróżniło wśród typowych zachowań w tym opisie:
wchodzenie do pomieszczenia, sprawdzanie rezerwacji, zamawianie
drinków, dyskutowanie menu, rozmowę przy stole, jedzenie przystawki,
jedzenie deseru, zostawianie napiwku. Bower i współpracownicy w wyniku
badań stwierdzili, że można wyróżnić 15 elementów wspólnych, które
formują ludzką wiedzę na temat jedzenia obiadu w restauracji i tym samym
składają się na schemat postępowania w takiej sytuacji. Rdzeń tego
schematu wydaje się jednak znacznie węższy i dotyczy najwyżej sześciu
elementów wymienianych przez większość uczestników eksperymentu.

Z kolei Alinda Friedman (1979) pokazywała w swoim eksperymencie sześć


obrazków, na których przedstawiono: miasto, kuchnię, bawialnię, biuro,
przedszkole i farmę. Na każdym znajdowały się rzeczy przynależne do
sytuacji, których osoby badane mogły się spodziewać (np. komputer
w biurze) oraz nieprzynależne, nieoczekiwane (np. garnek w biurze).
Okazało się, że uczestnicy eksperymentu dwukrotnie dłużej przyglądali się
obiektom typowym niż nietypowym. Co więcej, w niezapowiadanym teście
odpamiętywania obiektów z obrazków badani nie mieli większych
kłopotów z prawidłowym przypomnieniem sobie obiektów nietypowych,
natomiast typowe przedmioty były często pomijane. Podobne wyniki
otrzymali także Arthur Graesser i współpracownicy (Graesser, Woll,
Kowalski i Smith, 1980). Smith i Graesser (1980) ustalili jednak, że lepsza
pamięć odnośnie do nietypowych elementów sytuacji zanika z czasem. Im
dłuższa przerwa między pierwotną prezentacją bodźców a późniejszym
przypominaniem, tym lepsza pamięć dotycząca typowych elementów
zapamiętywanej sytuacji (np. komputer w biurze, garnek w kuchni) i tym
gorsze pamiętanie obiektów nieoczekiwanych (np. garnek w biurze,
komputer w kuchni).

Interesujące badania dotyczące efektywności zapamiętywania


przeprowadzili Richard Anderson i James Pichert (1978). Polecili oni
uczestnikom eksperymentu odpamiętywanie elementów opisu domu
z różnych perspektyw (np. z pozycji złodzieja, żebraka, kupca,
ubezpieczyciela). Różnica w perspektywie związana była z przyjętym przez
badanego schematem poznawczym, służącym mu do analizy sytuacji.
Okazało się, że liczba zapamiętanych elementów domu – niezależnie od
perspektywy – była zbliżona. Ale, co ciekawe, badani zapamiętali różne
elementy opisu domu, zgodnie z narzuconą im perspektywą.
Z perspektywy złodzieja ważne były schody przeciwpożarowe na tyłach
domu, zupełnie nieistotne z pozycji żebraka. Anderson i Pichert
podsumowali swoje eksperymenty, stwierdzając, że narzucony schemat
poznawczy wpłynął na jakość, a nie na ilościowo wymowną wydajność
procesów pamięciowych.

Teoria schematów – jak wynika z omówionych badań – przedstawia


organizację i funkcjonowanie złożonych sieciowych struktur poznawczych,
których zadaniem jest umożliwienie człowiekowi szybkiej i adekwatnej
reakcji na zmienne warunki bodźcowe na podstawie wcześniej
ukształtowanej wiedzy o świecie. Struktura schematów poznawczych zdaje
się przypominać probabilistyczną wersję struktury reprezentacji
pojęciowych – schematy mają swoje rdzenie, tj. niezmienne w ramach
schematu części definicyjne, oraz tory modyfikacji, czyli zmienne,
charakterystyczne dla poszczególnych odmian schematu części elastyczne.
Nabywanie schematów poznawczych możliwe jest dzięki abstrahowaniu
wspólnych elementów sytuacji bodźcowych i zachowań odpowiadających
na nie lub dzięki transformacji schematów już istniejących. Mimo
większego stopnia złożoności i innych zadań pełnionych w ramach systemu
poznawczego organizacja i funkcjonowanie schematów poznawczych nie
odbiegają znacznie w swojej istocie od organizacji i funkcjonowania
reprezentacji pojęciowych. Trzeba przy tym podkreślić, że dzięki
schematom nasz system poznawczy może działać zarazem rutynowo
i elastycznie. Ma to szczególne znaczenie w przypadku zadań związanych
ze światem społecznym, gdzie wymaga się od nas elastyczności
w reagowaniu na powtarzające się sceny lub sytuacje.

3.3.4. Teoria ram


Autorem teorii ram (frames) jest Marvin Minsky (1975). W swoich
założeniach teoretycznych koncepcja ram niewiele się różni od teorii
schematów. Minsky wyróżnia – podobnie jak Rumelhart oraz Schank –
dwa poziomy ram. Poziom wyższy zawiera stałe elementy struktury
sieciowej, niezmienne, niezależne od możliwego zakresu stosowalności
ramy. Niższy poziom ramy ma natomiast liczne „okienka”, które są
zapełniane przez części elastyczne zmienne w zakresie różnych wymiarów
(np. czasowych, wielkościowych). W przypadku schematu postępowania
z przestępcami niezmiennym elementem ramy wydaje się konieczność
izolacji w miejscu odosobnienia, natomiast konkretne techniki
postępowania z osadzonymi w więzieniu zależą od zmiennych
elastycznych części ramy (np. okienko czasowe określa długość czasu
poświęconego na resocjalizację). Możliwości nietypowej transformacji
w zakresie ramy wykorzystują niektóre techniki twórczego myślenia (np.
Nęcka, Orzechowski, Słabosz i Szymura, 2005).

Dla każdej ramy najbardziej istotne są trzy rodzaje informacji. Przede


wszystkim ważne jest to, w jaki sposób należy ramę stosować. Relacje
między reprezentacjami pojęciowymi muszą wyznaczać konkretne
programy zachowań. Rama powinna też mieć określoną sekwencję zdarzeń
– scenariusz, z którego jasno wynika ich kolejność i przebieg
podejmowanej w jego ramach akcji. Rama musi także zawierać informację,
co należy uczynić w sytuacji, gdy oczekiwania odnośnie do sekwencji
wydarzeń nie potwierdzają się w rzeczywistości. Tego rodzaju informacje
powinny być punktem wyjścia do ewentualnej modyfikacji ramy.

Warte podkreślenia jest to, że koncepcja ram bardzo wyraźnie kładzie


nacisk na znaczenie tych struktur poznawczych dla regulacji celowych
działań człowieka, zwłaszcza w świecie społecznym. O ile schematy
poznawcze są strukturami wiedzy, które mogą nam służyć zarówno do
lepszego zrozumienia świata w ramach trwałych reprezentacji
umysłowych, jak i do generowania na podstawie tej wiedzy spójnego
i adekwatnego zachowania, o tyle w przypadku ram znacznie ważniejszy
jest aspekt wiedzy proceduralnej, bezpośrednio związany z zachowaniem
generowanym na podstawie ramy. Rama wydaje się także strukturą
poznawczą o wiele bardziej zależną od kontekstu sytuacji, a przez to
znacznie bardziej zróżnicowaną. Można metaforycznie powiedzieć, że
każdy z nas nieustannie nakłada na różnorodną i „kapryśną” rzeczywistość
rozmaite ramy, które redukują nadmiar informacji, porządkują obraz świata
i regulują nasze celowe działania.

3.3.5. Teoria planów, scen i tematów


Główne zarzuty wobec koncepcji złożonych struktur sieciowych,
niezależnie od ich odmian, dotyczą tego, że schemat ma być w założeniu
jednocześnie sztywny i plastyczny, dostosowany do konkretnej sytuacji
(Chlewiński, 1999). Przewidywanie przez te teorie pewnego stopnia
sztywności schematów wynikało po części z elementarnych założeń
dotyczących organizacji strukturalnej systemu poznawczego – jego
ograniczonej pojemności, a po części z poczynionego założenia
o efektywności funkcjonowania tych struktur – nadmiar niewiele
różniących się schematów mógłby bowiem doprowadzić do problemów
z ich wyborem i stosowalnością. Zgodnie z teoriami złożonych struktur
sieciowych istotna część rdzeniowa każdego schematu odzwierciedla cechy
pewnych stereotypowych zachowań, jakie powinny pojawić się w danej
sytuacji bodźcowej. Tymczasem badania dotyczące reprezentacji
pojęciowych dostarczyły przekonujących argumentów na rzecz tezy, że
rdzenie trwałych odzwierciedleń rzeczywistości są albo bardzo wąskie,
albo w przypadku niektórych reprezentacji – takich jak pojęcia
polimorficzne – w ogóle nie istnieją. Oznaczałoby to, że części stałe wielu
schematów czy ram powinny być zawężone do bardzo nielicznych
i ogólnych reprezentacji pojęciowych oraz relacji je wiążących, na tyle
ogólnych, że w zasadzie nie wiadomo, czy warto je w ramach systemu
poznawczego wyodrębniać. Zarzut dotyczący konkretności schematów był
jeszcze poważniejszy. Skoro złożone struktury sieciowe są nabywane
w indywidualnym doświadczeniu przez abstrahowanie, to nie będąc
uczestnikiem konkretnej sytuacji bodźcowej (np. napadu na bank),
człowiek nie ma szansy na wytworzenie schematu takiej sytuacji.
Znalazłszy się jednak w takiej sytuacji po raz pierwszy, potrafi przecież
w jakiś sposób zinterpretować dane i zrozumieć cele oraz czynności innych
ludzi uczestniczących w zdarzeniu. Być może schemat jest zarazem
sztywny i elastyczny, ale nie wynika z tego, że musi być nabywany na
drodze indywidualnego kontaktu z odpowiednią sytuacją.

Zrozumienie funkcjonowania takich struktur sieciowych jak schematy czy


ramy możliwe jest, zdaniem Rogera Schanka (1982, 1986; Schank,
Abelson, 1977), dzięki istnieniu w ramach sieci semantycznej trwałych
reprezentacji umysłowych wielu jeszcze bardziej złożonych struktur
poznawczych. Plany (plans) są według niego schematami zawierającymi
wiedzę na temat abstrakcyjnych lub potencjalnych celów działania
człowieka. MOP-y (Memory Organization Packets) są zbiorami
podobnych fragmentów różnych schematów, np. możliwych form
powitania, rozpoczynających z reguły interakcje społeczne. W tym sensie
MOP-y odnoszą się do pojedynczych rodzajów podobnych do siebie scen
(scenes), które mogą wystąpić w ramach wielu schematów i z których
poszczególne scenariusze tych struktur poznawczych mogą być budowane.
Wreszcie TOP-y (Thematic Organisation Points) są zbiorami ogólnych
tematów (thematics) czy motywów, których złożone scenariusze mogą
dotyczyć. Dzięki planom możliwe jest zrozumienie działania innych ludzi,
mimo niemożności nabycia konkretnych schematów odpowiadających ich
zachowaniom. Dzięki scenom i tematom możliwe wydaje się natomiast
generowanie elastycznych form zachowania w odpowiedzi na wymagania
sytuacji, szczególnie złożonej sytuacji społecznej. Scenariusze takich
zachowań mogłyby być elastycznie konfigurowane z dostępnych scen
w ramach uaktywnionego ogólnego tematu zachowania.

3.3.6. Porównanie koncepcji struktur sieciowych


Porównanie to jest niezwykle trudne, gdyż różnice między poszczególnymi
koncepcjami w większości sprowadzają się do kwestii nazewnictwa. Jak się
jednak wydaje, koncepcje złożonych struktur sieciowych można
przedstawić w ramach przestrzeni trzech podstawowych wymiarów.

Zauważmy najpierw, że koncepcje te różnią się pod względem sugerowanej


przez nie funkcji złożonych struktur sieciowych. W koncepcji schematów
Rumelharta podstawowy akcent położony jest na funkcję reprezentacyjną,
z której wynika funkcja generowania zachowania. Wiedza deklaratywna
(„wiem, że”; Ryle, 1949) staje się w tej koncepcji podstawą wiedzy
proceduralnej („wiem, jak”; tamże; o rodzajach wiedzy zob. rozdz. 4).
W koncepcjach skryptów, ram, scen i tematów Minsky’ego i Schanka
bardziej znacząca wydaje się wiedza proceduralna, a różnorodność bądź
stereotypowość generowanych zachowań (wiedza „jak”) staje się
przesłanką dla formułowania wniosków odnośnie do możliwych struktur
reprezentacji świata (wiedza „że”).

Ponadto poszczególne koncepcje struktur sieciowych w różnym stopniu


dopuszczają elastyczność złożonych struktur sieciowych. Teoria
schematów Rumelharta i teoria ram Minsky’ego są w tym aspekcie zgodne
z poglądami koncepcji probabilistycznych. Sztywność rdzeni
schematowych jest dla tych ujęć ekonomiczna strukturalnie i funkcjonalnie.
Jak jednak uważa Schank, owa sztywność nie pozwala wyjaśnić
różnorodności zachowań człowieka kierującego się tym samym
schematem. Dlatego autor ten sugeruje dynamiczną koncepcję reprezentacji
trwałych, w których złożone struktury sieciowe mogą się kształtować
w procesie rekonfiguracji różnych dostępnych w sieci elementów:
pojedynczych reprezentacji, poszczególnych scen i całościowych tematów.

W końcu, poszczególne teorie złożonych struktur sieciowych dotyczą


innych domen ludzkiego zachowania. Koncepcja Rumelharta bliższa jest
więc teoriom reprezentacji pojęciowych dotyczących poznawczego
reprezentowania obiektów rzeczywistych w naszym umyśle, podczas gdy
koncepcje ram Minsky’ego oraz scen i tematów Schanka odwołują się
przede wszystkim do zachowań społecznych i ich stereotypizacji.
Ulubionym zresztą przykładem funkcjonowania złożonych struktur
poznawczych było dla Schanka zachowanie się w restauracji.

3.4. Podsumowanie
O pojęciach – ich strukturze, nabywaniu i organizacji – mówi się
zazwyczaj w kontekście języka (zob. rozdz. 13). Celem niniejszego
rozdziału było ukazanie poznawczej funkcji pojęć, czyli ich roli
w poznawaniu otaczającego nas świata, innych ludzi i samych siebie.
Z tego punktu widzenia bytem bardziej pierwotnym w stosunku do pojęć są
kategorie. Człowiek nieustannie kategoryzuje obiekty fizyczne, a także
symboliczne i wyobrażone. Kategoryzuje również obiekty społeczne,
w szczególności innych ludzi. Kategoryzując, najpierw tworzy w umyśle
poznawczą reprezentację pewnego zbioru obiektów, który w szczególnym
przypadku może być zbiorem jednostkowym lub pustym, a dopiero wtórnie
– i nie zawsze – przypisuje mu określenie językowe. Zazwyczaj kategorie
często używane i użyteczne w poznaniu potocznym lub naukowym
otrzymują własną „etykietę” w postaci słowa. Kategorie rzadziej używane
mogą być pozbawione takiej etykiety, co nie jest równoznaczne z ich
mniejszą przydatnością w procesach poznawczych. Wielu z nas posługuje
się np. kategorią „rzeczy dawno nieużywane i nie wiadomo, czy potrzebne,
ale których żal wyrzucić”. Jest to dość ważna kategoria poznawcza, która
jak dotychczas nie doczekała się osobnego omówienia w języku polskim.
Warto pamiętać, że etykieta werbalna nie tylko upraszcza komunikowanie
się, bo zamiast kilku czy kilkunastu słów wystarczy jedno, lecz także jak
gdyby „zamraża” kategorię, ustalając jej zakres znaczeniowy, definiując
granice (choćby mało precyzyjne lub rozmyte) oraz kodyfikując społeczny
sposób jej używania. Zbiory pozbawione etykiety werbalnej mogą
funkcjonować jako tzw. kategorie ad hoc, tworzone doraźnie – np.
w procesach twórczych – ale pozbawione trwałości. Dopiero kategoria
opatrzona etykietą daje nam prawdziwe pojęcie, czyli formę poznawczej
reprezentacji świata charakteryzującą się trwałością. Dlatego właśnie
reprezentacje pojęciowe oraz struktury z nich złożone (np. schematy) są
przez nas traktowane jako reprezentacje trwałe, w odróżnieniu od z natury
nietrwałych obrazów umysłowych lub sądów. Z owych trwałych cegiełek
tworzą się w dalszej kolejności rozbudowane struktury wiedzy, o których
traktuje kolejny, czwarty rozdział.
Rozdział 4

Wiedza

Rodzaje wiedzy
Wiedza deklaratywna i proceduralna
Wiedza jawna i niejawna
Organizacja wiedzy
Reprezentacja wiedzy za pomocą cech
Organizacja wiedzy semantycznej
Organizacja wiedzy proceduralnej: systemy reguł
Organizacja wiedzy w modelach ACT, ACT* i ACT-R
Nabywanie wiedzy
Nabywanie wiedzy semantycznej
Nabywanie wiedzy proceduralnej
Nabywanie wiedzy niejawnej
Wiedza ekspercka
Kryteria i właściwości wiedzy eksperckiej
Nabywanie wiedzy eksperckiej
Podsumowanie
Wiedza to forma trwałej reprezentacji rzeczywistości, mająca postać uporządkowanej i wzajemnie
powiązanej struktury informacji, kodowanej w pamięci długotrwałej.
Ekspert to osoba dysponująca wiedzą obszerną, choć ograniczoną do wybranej dziedziny, a ponadto
bardzo dobrze uporządkowaną, sproceduralizowaną i nadającą się do wykorzystania dzięki ogólnym
schematom działania.

Spytano kiedyś Kartezjusza, co jest więcej warte – wiedza czy majątek.


Gdy Kartezjusz odpowiedział, że wiedza, zadano mu kolejne pytanie: „Jeśli
tak, to dlaczego tak często widzi się uczonych pukających do drzwi
bogaczy, a nigdy odwrotnie?”. Odpowiedź filozofa brzmiała: „Ponieważ
uczeni znają dobrze wartość pieniędzy, a bogacze nie znają wartości
wiedzy”. W tym rozdziale zajmiemy się tylko jednym z pojęć, które
porównywał Kartezjusz – wiedzą. I nie o jej wartości będziemy mówić, bo
ona dla czytelnika jest niekwestionowana, ale o sposobie jej organizacji
w umyśle człowieka. Chodzi o odpowiedź na trzy podstawowe pytania:
„Jaka jest struktura wiedzy?”, „W jaki sposób odnajdujemy informacje
w bardzo obszernym magazynie wiedzy?”, „W jaki sposób nabywamy
wiedzę?”.

Zasoby wiedzy gromadzone są w pamięci trwałej, dlatego w większości


podręczników psychologii poznawczej o jej strukturze i nabywaniu mówi
się w rozdziałach poświęconych pamięci. Przyjmując jednak podział na
reprezentacje i procesy poznawcze, a ponadto podział reprezentacji na
nietrwałe i trwałe, zdecydowaliśmy się wyróżnić tę specyficzną formę
trwałych reprezentacji świata w umyśle. Jej specyficzność polega na tym,
że wiedza, jako zapis pamięciowy, jest w szczególny sposób
uporządkowana, a ponadto podlega ewaluacji ze strony jednostki. W języku
teorii poziomów przetwarzania (zob. rozdz. 1) można byłoby powiedzieć,
że wiedza to informacja przetworzona na najgłębszym poziomie,
z odniesieniem do systemu przekonań i sądów włącznie.
O sposobie uporządkowania wiedzy, czyli relacjach między elementami,
decyduje jej treść, podczas gdy organizacja pamięci trwałej rozpatrywana
jest zwykle niezależnie od treści, zatem od strony formalnej. W badaniach
nad pamięcią jako materiał bodźcowy stosuje się np. zestawy
bezsensownych sylab, niemających znaczenia obrazów lub losowo
dobranych liczb. W ten sposób celowo minimalizuje się zarówno
możliwość odniesienia tego materiału do wiedzy semantycznej, jak
i prawdopodobieństwo użycia skutecznych sposobów zapamiętywania
(mnemotechnik). Badaczy pamięci interesuje przede wszystkim formalna
strona funkcjonowania pamięci, ujawniająca uniwersalne mechanizmy
zapamiętywania, przechowywania i odpamiętywania informacji. Badaczy
wiedzy interesuje z kolei sposób łączenia zapisów pamięciowych
w większe całości, zależnie od treści wiedzy, kontekstu jej nabywania,
wiedzy nabytej wcześniej, a także sądów i przekonań. Ponieważ wyróżnia
się wiele rodzajów wiedzy, a co za tym idzie – różne mechanizmy jej
nabywania, odpowiedź na przywołane wcześniej pytania rozpatrzymy
z uwzględnieniem tej różnorodności.

4.1. Rodzaje wiedzy

4.1.1. Wiedza deklaratywna i proceduralna


Wiedza deklaratywna albo wiedza „że” – odnosi się do danych (faktów), kodowanych w pamięci
trwałej. Jest łatwa do werbalizacji, a jej wydobycie ma charakter wolicjonalny.
Wiedza proceduralna albo wiedza „jak” – odnosi się do umiejętności, czyli reguł wykonywania
czynności motorycznych lub umysłowych (inaczej: procedur), kodowanych w pamięci trwałej. Jest
nabywana w drodze treningu albo proceduralizacji, a jej nabywanie wymaga wielokrotnych
powtórzeń czynności. Uruchamiana jest automatycznie, jeśli procedura zostanie dobrze
wytrenowana.

Podział wiedzy na deklaratywną i proceduralną pochodzi od filozofa


Gilberta Ryle’a (1949). Różnicę między nimi przedstawił on obrazowo
w postaci dychotomii: wiedza „że” – wiedza „jak”. Wiedza „że”,
najogólniej rzecz ujmując, odnosi się do danych (faktów), kodowanych
w pamięci trwałej. Danymi może być wiedza ogólna (np. budowa atomu)
albo wiedza epizodyczna (np. kolizja na skrzyżowaniu) czy
autobiograficzna (np. to, że przed chwilą moja córka przyszła się
przytulić). Wiedza ta jest łatwa do werbalizacji, ma bowiem wyraźny
komponent semantyczny. Natomiast wiedza „jak” odnosi się do
kodowanych w pamięci trwałej procedur realizacji czynności o charakterze
umysłowym i ruchowym. Jest to specyficzna wiedza, potocznie zwana
umiejętnościami, przy czym chodzi zarówno o umiejętności wykonawcze
(np. pływanie), jak i poznawcze (np. używanie języka). Zazwyczaj jednak
wiedza proceduralna obejmuje oba te rodzaje, co widać na przykładzie
takich czynności, jak gra na skrzypcach czy projektowanie mostów
(rysunek techniczny). Wiedza proceduralna jest z reguły trudniejsza do
werbalizacji niż wiedza deklaratywna, co wynika z różnic w sposobie ich
reprezentowania w pamięci. Podstawę rozróżnienia stanowi w tym
przypadku zarówno strona formalna, jak i treściowa wiedzy. Różny jest
także charakter procesu nabywania wiedzy deklaratywnej i proceduralnej.
Wiedza deklaratywna nabywana jest dyskretnie, poprzez włączenie jakiejś
informacji w istniejące struktury wiedzy. W sprzyjających warunkach
wystarczy pojedyncza ekspozycja informacji, aby została ona
zasymilowana. Wiedza proceduralna przeciwnie – nabywana jest w toku
treningu, niekiedy długotrwałego, polegającego na wielokrotnym
powtarzaniu czynności.

Przedstawione rozróżnienie, z pozoru klarowne, generuje dwie


podstawowe wątpliwości. Po pierwsze, czy w umyśle istnieją niezależne
zbiory danych i procedur, czy też występuje między nimi jakaś zależność?
Owa zależność mogłaby polegać na ścisłym przyporządkowaniu danych
procedurom czy nawet dominacji tych ostatnich albo – rzecz jasna –
odwrotnie. Po drugie, w jaki sposób wiedza każdego rodzaju jest
przechowywana i wydobywana? Nie ma wątpliwości, że nabywanie
wiedzy deklaratywnej i proceduralnej odbywa się inaczej, co stanowi
definicyjną podstawę ich wyodrębnienia. Nie oznacza to jednak, że różne
są też sposoby przechowywania, wewnętrzna struktura czy mechanizmy
wydobywania wiedzy określonego rodzaju. Niekiedy trudno rozstrzygnąć,
czy wiedza wywodzi się wyłącznie z pamięci deklaratywnej czy też –
nieobecna w niej wcześniej – została wywnioskowana z danych zapisanych
w pamięci proceduralnej dzięki aplikacji reguł (np. dedukcji). W każdym
razie oba problemy wymagają analizy, choć z pozoru wydają się banalne.

Weźmy pod uwagę następującą sytuację. Niekiedy dowiadując się o jakimś


fakcie, uznajemy go za oczywisty, wręcz zastanawiamy się, jak to się stało,
że sami na to nie wpadliśmy. Dowiadujemy się np., że Zosia już nie
przyjaźni się z Piotrkiem, lecz z Szymkiem. Wykluczając chwilowo wpływ
tzw. złudzenia wglądu wstecznego (hindsight bias; Kahneman, Tversky,
1972), autentyczny brak zaskoczenia tymi faktami może wynikać z tego, że
już wcześniej dysponowaliśmy niezbędnymi przesłankami do wyciągnięcia
takiego wniosku. Podobnie jak w rozumowaniu dedukcyjnym, konkluzja
wynikająca z przesłanek nie wnosi nowej informacji, jednak aby ją
sformułować, potrzebne jest właściwe zaaplikowanie pewnej reguły
wnioskowania, czyli swoistej procedury. Wyprowadzony wniosek jest
jednak nowy, zawiera bowiem stwierdzenia nieobecne wcześniej w wiedzy
deklaratywnej. Jej wzbogacenie staje się więc możliwe dzięki zastosowaniu
wiedzy proceduralnej. Dlatego Susan Barnett i Stephen Ceci (2005, s. 209)
uznają, że „wiedza może być wykreowana przez jednostkę dzięki
wnioskowaniu, powiązaniu posiadanych wcześniej informacji i myśleniu
o tych informacjach w nowy sposób”. Przykłady tego typu są bardzo
powszechne (zob. Baddeley, 1998). Odpowiedź na pytania: „Czy
Arystoteles miał pępek?” albo „Jaki numer telefonu miał Beethoven?”,
raczej nie znajduje się explicite w wiedzy deklaratywnej nawet dobrze
wykształconego człowieka. Z powodzeniem może być jednak udzielona
dzięki wnioskowaniu. Często nie da się stwierdzić, czy konkretny fakt, bez
względu na jego prawdziwość lub fałszywość, pochodzi z posiadanej
wiedzy deklaratywnej czy też jest efektem zastosowania pewnej procedury
wnioskowania. Stanowi to utrapienie niektórych egzaminatorów
układających testy sprawdzające wiedzę. Inteligentny student może czegoś
nie wiedzieć, ale wywnioskować odpowiedź na podstawie tego, co wie.
Jeśli w teście znajduje się zbyt dużo takich pytań, mierzy on w większym
stopniu poziom inteligencji niż opanowanie wiedzy.
Metawiedza (metaknowledge) – wiedza typu „wiem, że wiem”; polega na zdawaniu sobie sprawy
z wiedzy, którą jednostka dysponuje. Może ujawnić się wprost, przy próbie uświadomienia sobie
wiedzy lub niewiedzy w jakimś temacie, albo bez uświadomienia, przy podejmowaniu pewnych
zadań, a pomijaniu innych.

Doniosłe znaczenie wiedzy powstałej w wyniku wnioskowania czy innych


procesów poznawczej obróbki wiedzy posiadanej przez jednostkę
podkreślają koncepcje metawiedzy (np. Flavell, 1979; Beran, Perner,
Proust, 2012). Metawiedza, czyli wiedza typu „wiem, że wiem”, byłaby
odrębnym rodzajem wiedzy, zasadniczo różnym od dotychczas
omówionych. Dotyczy ona wiedzy o wiedzy posiadanej przez jednostkę.
Metawiedza może ujawnić się wprost, kiedy próbujemy uświadomić sobie
zakres naszej wiedzy i niewiedzy na jakiś temat, aby np. podczas egzaminu
ustnego zdecydować, czy w ogóle próbujemy odpowiedzieć na zadane
pytanie. Słynna sentencja Sokratesa: „Wiem, że nic nie wiem”, jest
znakomitym przykładem metawiedzy. Niemniej metawiedza może także
ujawniać się bez uświadomienia jej sobie, kiedy człowiek np. podejmuje
pewne zadania, inne zaś pomija, a jeśli je już podejmuje, to przy użyciu
preferowanych przez siebie stylów poznawczych, uwzględniając swoje
poznawcze i temperamentalne „wyposażenie” (Bednarek, Wytykowska,
Orzechowski, 2005; Orzechowski, Bednarek, 2004). Preferencje te wydają
się wynikać z jakiegoś rodzaju metawiedzy.

Rozróżnienie wiedzy deklaratywnej i proceduralnej na podstawie


mechanizmu ich wydobywania wydaje się intuicyjnie zrozumiałe.
Wydobycie wiedzy „że” ma charakter wolicjonalny i polega na jej
werbalizacji, bo dzięki językowi została ona zakodowana. Z kolei wiedza
„jak” uruchamiana jest automatycznie w przypadku zainicjowania dobrze
nam znanej czynności. Możliwe jednak, że wiedza deklaratywna,
pochodząca np. z instrukcji obsługi faksu, zostanie przełożona na wiedzę
„jak”, a więc przekształcona w postać procedury. Niewykluczone również,
że wiedza proceduralna zostanie przekształcona w formę werbalnego opisu
strategii działania, np. utrzymywania i naprawy relacji małżeńskich1.
Odróżnienie znajomości faktów od dysponowania procedurami może być
więc trudne, jeśli za podstawę przyjmiemy sposób wydobycia
odpowiednich elementów wiedzy.

Trwałość wiedzy jako formy reprezentacji poznawczej wydaje się dość


duża, podobnie jak w przypadku pojęć. Nie chodzi o trwałość śladów
pamięciowych, bo ta jest zmienna ze względu na wiele czynników, w tym
różnice indywidualne, lecz o niezmienność właściwości samej
reprezentacji. Zwolennicy ujednolicenia poglądów na wiedzę, czyli
sprowadzenia jej do jednej formy reprezentacji (np. Neisser, 1967),
powołują się na dwa argumenty. Po pierwsze, akcentując proceduralny
charakter wiedzy, sięgają do podstawowego założenia podejścia
poznawczego, mówiącego o dynamicznym charakterze przywołań
pamięciowych. Skoro w efekcie każdej próby przywołania wiedza ulega
modyfikacjom, trudno mówić o trwałości jej reprezentacji. Po drugie, jeżeli
właściwie nie można odróżnić danych bezpośrednio obserwowanych od
uzyskanych w drodze wnioskowania, prościej jest przyjąć istnienie tylko
jednej kategorii jednostek wiedzy. Omówione w rozdziale 3 teorie ram
(Minsky, 1975) czy skryptów (Schank, 1982, 1986; Schank, Abelson,
1977) przyjmują oba te założenia w – jak się wydaje – nieco przerysowanej
formie. Oparte na nich teorie wiedzy nie wymagają bowiem oddzielenia
wiedzy „że” i wiedzy „jak”, ponieważ w ich ujęciu całą wiedzę można
sprowadzić do pewnych procedur operujących na podobnym sposobie
reprezentowania rzeczywistości i podobnej strukturze wewnętrznej.
Większość modeli teoretycznych uznaje jednak zasadność podziału wiedzy
na deklaratywną i proceduralną albo koncentrując się tylko na jednej
z nich, albo próbując połączyć je w ramach jednej teorii (zob. podrozdz.
4.2).

Podział Ryle’a na wiedzę „że” i wiedzę „jak” niemal wprost został


zaadaptowany przez Larry’ego Squire’a (1986) do problematyki pamięci.
Autor dokonał jednak pewnego uogólnienia: pozostał przy pojęciu pamięci
deklaratywnej w oryginalnym znaczeniu, natomiast wiedzę proceduralną
umieścił w szerszej kategorii pamięci niedeklaratywnej. Ta ostatnia
zawiera nie tylko procedury, lecz także wszelkie inne formy pamięci, które
nie mają postaci deklaratywnej, np. zmiany prawdopodobieństwa reakcji
uzyskane w efekcie warunkowania czy habituacji.

4.1.2. Wiedza jawna i niejawna


Wiedza niejawna (implicit knowledge) – efekt mimowolnego uczenia się. Jest zazwyczaj
niedostępna świadomości i werbalizacji. Może być użyta w procesie rozwiązywania problemów
i podejmowania decyzji, gdy sytuacja jest podobna do tej, w której wiedza ta została nabyta.
Wiedza ukryta albo „milcząca” (tacit knowledge) – nie wiemy, że ją posiadamy. Jest trudna do
werbalizacji i nabywana samodzielnie, w wyniku gromadzenia doświadczenia. Ma charakter
proceduralny. Jest stosowana w praktyce.
Pojęcie wiedzy niejawnej funkcjonuje od dawna, choć pod różnymi
etykietami terminologicznymi. Jako pierwszy, w opozycji do wiedzy
jawnej, użył go filozof Michael Polanyi (1966). Wiedzę ukrytą lub
„milczącą” (tacit knowledge) rozumiał on jako taką, o której nie wiemy, że
ją posiadamy. Polanyi akcentował więc przede wszystkim trudności
w werbalizacji wiedzy tego rodzaju, typowe dla osób dysponujących
bogatym osobistym doświadczeniem w jakiejś dziedzinie. Ponownego
„odkrycia” wiedzy niejawnej, tym razem na gruncie psychologii, dokonali
Peter Graf i Daniel Schacter (1985), wyróżniając pamięć jawną (explicit)
i pamięć niejawną (implicit), zwaną również ukrytą lub utajoną. Dlatego
obecnie funkcjonują dwa pojęcia o zbliżonym znaczeniu: wiedza ukryta
(tacit) i wiedza niejawna (implicit). Pierwsze używane jest raczej
w odniesieniu do wiedzy nabywanej długotrwale na drodze praktyki
i doświadczenia, a drugie – do wiedzy będącej efektem mimowolnego
uczenia się (implicit learning). Różnice dotyczą więc raczej kontekstu
i tradycji badań w pewnym paradygmacie, nie zaś istoty rzeczy. Ze
względu na swój charakter i sposób funkcjonowania wiedza niejawna
wydaje się tworzyć jedną kategorię, wymagającą jednego tylko terminu.

Podział Schactera i Grafa wywodzi się z rozróżnienia dwóch grup metod


badania pamięci: bezpośrednich i pośrednich. W pierwszym przypadku
osoba badana ma przywołać z pamięci to, co wie (metoda przypominania),
lub rozpoznać w przedstawionym jej materiale elementy występujące
w uprzednio wyuczonym materiale (metoda rozpoznawania). W przypadku
drugim nie jest w ogóle pytana o to, co wie; ma jedynie wykonać pewną
czynność, której nie da się wykonać poprawnie lub na założonym poziomie
sprawności bez wcześniej nabytej wiedzy. Badanemu pokazuje się np.
elementy spełniające nieznane mu kryteria definicyjne, nie ujawniając
samej definicji, a następnie prosi się go o klasyfikowanie, czyli
samodzielne wskazywanie elementów spełniających definicję lub jej
niespełniających (zob. paradygmat 4.1). Przyjęto, że wiedza niejawna nie
ujawnia się w pomiarze bezpośrednim, podczas gdy można wychwycić jej
obecność w pomiarze pośrednim (Cleeremans, 1997a; Higham, 1997).
Przykładowo osoba badana dość poprawnie klasyfikuje złożony materiał,
którego się wcześniej uczyła, ale nie potrafi prawidłowo zwerbalizować
reguł rządzących jego uporządkowaniem.

Paradygmat 4.1

Uczenie się sztucznej gramatyki (Artificial Grammar Learning, AGL)

Ten schemat badania procesów mimowolnego uczenia się pochodzi od


Arthura Rebera (1967, 1968). Typowe zadanie składa się z dwóch faz.
W fazie pierwszej osoby badane uczą się egzemplarzy ciągów literowych,
zgodnych z systemem reguł „sztucznej gramatyki” (ryc. 4.1). Reguły
gramatyki określają, jakie ciągi będą poprawne (gramatyczne), a jakie
błędne (niegramatyczne). Osób badanych nie informuje się jednak, że ciągi
prezentowanych im liter zostały utworzone według jakichś zasad.
Dowiadują się o tym po zakończeniu fazy uczenia się. Pierwsza faza składa
się zazwyczaj z prezentacji od kilku do kilkunastu ciągów liter. W fazie
drugiej badanych prosi się o klasyfikowanie prezentowanych im ciągów
jako gramatycznych bądź niegramatycznych. Pokazuje się zarówno ciągi
znane z fazy uczenia się, jak i zupełnie nowe. Ponadto manipuluje się
zgodnością ciągów z regułami gramatyki (część jest gramatyczna, a część
nie).
RYCINA 4.1. Sztuczna gramatyka zastosowana przez Rebera (1967) w badaniach nad efektem
uczenia mimowolnego Strzałki ilustrują dozwolone przejścia między poszczególnymi stanami.
Pętle oznaczają możliwość kilkakrotnego powtórzenia danego stanu. Przykładowe ciągi zgodne
z gramatyką: TPPTXXVS, VXVPXXVS, TPTS. Ciągi niezgodne z gramatyką: TPPTXXPS,
VPVPXXVS, TXTS.
Źródło: opracowanie własne na postawie Reber, 1967.

Już w pierwszych badaniach Reber (1967) wykazał, że badani wykonują


zadanie klasyfikacyjne z poprawnością istotnie wyższą niż poziom
przypadku (zazwyczaj w przedziale 60–70%; por. Balas, Żyła, 2002). Nie
potrafią jednak zwerbalizować reguł, którymi się kierują, podejmując
decyzję o tym, czy ciąg jest gramatyczny czy niegramatyczny. Późniejsze
badania z użyciem tego paradygmatu wielokrotnie replikowały przytoczone
wyniki, również po zmianie rodzaju i poziomu złożoności sztucznych
gramatyk (Brooks, 1978; Dulany, Carlson, Dewey, 1984; Pothos, Bailey,
2000).

W badaniach z wykorzystaniem paradygmatu uczenia się sztucznych


gramatyk stosuje się również bezpośrednie miary jawnego uczenia się
(Mathews i in., 1989). W takim przypadku osoby badane proszone są
o odpamiętanie prezentowanych im w fazie uczenia się ciągów lub
o klasyfikowanie prezentowanych im ciągów na znane/nieznane. Okazuje
się, że badani są w stanie poprawnie odpamiętać część ciągów (choć bardzo
małą), co wskazuje na słaby wpływ wiedzy jawnej na pomiar efektów
uczenia się mimowolnego.

Sformułowano precyzyjne kryteria, które powinny spełniać wyniki tych


testów, aby wiarygodnie potwierdzić obecność wiedzy niejawnej (Merikle,
Joordens, 1997; Shanks, St. John, 1994). Pierwsze z nich, tzw. kryterium
wyłączności, nakazuje, aby dana metoda umożliwiała dotarcie tylko do tej
wiedzy, która jest wykorzystywana w wykonaniu danego zadania. Chodzi
o to, aby narzędzie było odporne na wpływ innej, niezwiązanej z zadaniem
wiedzy. Na przykład, kiedy po ekspozycji listy słów pochodzących
z pewnej kategorii prosimy osoby badane o jej odtworzenie, to łatwiej będą
przywoływane pojęcia typowe dla tej kategorii, nawet jeśli nie
występowały na pierwotnej liście (zob. podrozdz. 9.4.2, paradygmat 9.1).
Na wykonanie zadania ma więc pewien wpływ wiedza, która jest
niezwiązana z zawartością listy i kolejnością umieszczonych na niej pojęć.
Z kolei kryterium czułości nakazuje, aby test mierzący zakres wiedzy
jawnej był na tyle wyczerpujący, by ujawnić pełną informację, której
badani są świadomi. W szczególności chodzi o to, aby w wyniku dotarcia
tylko do części wiedzy jawnej nie uznać tej, do której nie dotarto, za
wiedzę niejawną.

Okazało się jednak, że trudno utrzymać założenie o pełnym rozdzieleniu


wpływów wiedzy jawnej w testach bezpośrednich i wiedzy niejawnej
w miarach pośrednich. W testach przypominania albo rozpoznawania
niewątpliwie dominuje wiedza jawna, ale nie można wykluczyć wpływów
wiedzy niejawnej. I odwrotnie, w testach pośrednich ujawniać się może
wiedza jawna, również jeśli jest nieadekwatna do zawartości pamięci
niejawnej. Na przykład w zadaniu wymagającym klasyfikowania osoba
badana może wyabstrahować błędną regułę i stosować się do niej, co
będzie interferować z wpływami ze strony wiedzy niejawnej.
Prawdopodobnie zatem na poziom wykonania testów bezpośrednich
i pośrednich wpływa jednocześnie wiedza jawna i niejawna. Rycina 4.2
ilustruje wzajemne wpływy obu rodzajów wiedzy w zadaniu polegającym
na uczeniu się sztucznych gramatyk.

RYCINA 4.2. Analiza wpływu procesów jawnych i niejawnych w zadaniu uczenia się
sztucznych gramatyk
Etap I – uczenie się ciągów liter zgodnych z pewną regułą gramatyczną. Etap II – testowanie wiedzy
niejawnej (ukrytej) w teście klasyfikacji ciągów, wymagającym różnicowania ciągów
gramatycznych i niegramatycznych. Etap III – test wiedzy jawnej, badający znajomość reguł
klasyfikacji.
Źródło: Wierzchoń, 2004. Przedruk za zgodą autora.

Według Axela Cleeremansa (1997a) wiedza jest niejawna, kiedy wpływa


na przetwarzanie informacji bez uświadomienia jej właściwości. Mimo
braku uświadomienia wiedza niejawna ma swoją reprezentację w pamięci
trwałej, przez co może być z niej wydobywana i wykorzystywana. Oznacza
to, że niekiedy możemy wykonywać pewne zadania, choć nie mamy
jawnego dostępu do wiedzy, która nam to umożliwia. W skrajnym
wypadku nie wiemy nawet, że danego typu wiedza jest w ogóle potrzebna
do wykonania jakiegoś zadania. Przykładowo większość ludzi znakomicie
wykrywa oszustów, łamiących tzw. regułę kontraktu społecznego, głoszącą,
że odnoszenie korzyści z życia w grupie zawsze wymaga poniesienia
pewnych kosztów (Cosmides, 1989; zob. podrozdz. 10.6.3, ramka 10.1).
Użytkownicy tej reguły rzadko jednak zdają sobie sprawę z tego, że stosują
wówczas wyrafinowane metody wnioskowania dedukcyjnego. Przykładem
działania wiedzy niejawnej jest też kompetencja językowa. Mówiąc
i pisząc, stosujemy skomplikowane reguły syntaktyczne, o których
w większości nie mamy pojęcia. Potrafimy też odróżnić poprawne
wyrażenia językowe od niepoprawnych, choć podstawa rozróżnienia nie
jest nam znana.

Nieco inne rozumienie wiedzy ukrytej – dosłownie „milczącej” –


prezentują Richard Wagner i Robert Sternberg (1985; Sternberg, Wagner,
Okagaki, 1993; Sternberg i in., 2000; Wagner, 1987, 2000). Autorzy,
rozwijając koncepcję wiedzy ukrytej, traktują ją jako składnik inteligencji
praktycznej. Wiedza ukryta to taka, która nie jest bezpośrednio wyrażana,
a jej nabywanie odbywa się dzięki indywidualnemu doświadczeniu
jednostki. Wiedza ukryta charakteryzuje się trzema właściwościami: jest
nabywana samodzielnie, ma charakter proceduralny i jest stosowana
w praktyce (Sternberg i in., 2000). To jej rozumienie zostało
skontrastowane z wiedzą jawną, nabywaną bezpośrednio, najczęściej
w trakcie nauki szkolnej, uniwersyteckiej lub kursów zawodowych. Wiedza
ukryta związana jest ze zdolnościami praktycznymi do uczenia się na
podstawie doświadczenia i stosowania uprzednio nabytej wiedzy w dążeniu
do osiągnięcia celów osobistych. Jako że wiedza proceduralna ma postać
złożonych, koniunkcyjnie zdefiniowanych warunków stosowania reguł
dążenia do tych celów, autorzy przyjmują, znaną z innych koncepcji, formę
reprezentacji wiedzy ukrytej w postaci reguł typu „warunek–działanie”
(jeśli spełniony jest warunek A, podejmij działanie X). Nie są to jednak
reguły abstrakcyjne. Wiedza ukryta, i to jest unikatowe w koncepcji
Sternberga, jest konkretna i specyficzna dla kontekstu (context-specific).
Dotyczy skutecznych sposobów działania w specyficznej sytuacji albo
w dość wąskiej klasie sytuacji. Kontekstem dla wiedzy ukrytej może być
doświadczenie życiowe jednostki, ale również środowisko pracy, co
szczególnie interesowało tych badaczy. Wiedza ukryta, szczególnie jeśli
jest rozległa i głęboka, jest również plastyczna, dzięki wielości zawartych
w niej procedur ściśle dopasowanych do różnych sytuacji. Rozległa wiedza
ukryta pozwala też na łączenie znanych procedur, co umożliwia bardziej
elastyczną adaptację do nowych sytuacji.

Podstawą odróżnienia wiedzy jawnej od niejawnej jest zazwyczaj niepełne


uświadomienie zawartości tej ostatniej. Wiedza jawna jest dostępna
i świadoma, podczas gdy niejawna pozostaje niedostępna świadomości,
chociaż ma wpływ na różne procesy przetwarzania informacji.
W literaturze brak jednak zgody co do definicji i typologii świadomości,
a także co do tego, jak bardzo wiedza niejawna jest niedostępna
świadomości. Wydaje się, że w niektórych przypadkach może ona być
łatwa do uświadomienia, np. wtedy, gdy ktoś zapytany o sposoby radzenia
sobie z korkami w ruchu ulicznym formułuje konkretne zalecenia. Zadane
pytanie stymuluje procesy werbalizacji, a przez to prowadzi do
uświadomienia sobie wiedzy, która do tej pory była latentna. W innych
przypadkach, np. w odniesieniu do kompetencji językowych, nawet zadane
wprost pytanie o wykorzystaną regułę niewiele daje. Wszyscy wiemy, że
w języku polskim mówi się „jedno piwo”, „dwa piwa”, ale „pięć piw”. Czy
to znaczy, że potrafimy sformułować regułę rządzącą tworzeniem liczby
mnogiej pewnej klasy rzeczowników? Większość z nas tego nie potrafi,
przez co wiedzę na ten temat trzeba uznać za trudno dostępną świadomości.
W związku z tymi problemami niekiedy zamiast terminu „świadomość”
używa się terminów „dostępność” czy – całkiem już operacyjnie –
„możliwość werbalizacji”. Poza tym wiedza jawna nie zawsze jest w pełni
dostępna świadomości, czego dowodem są trudności w jej aktualizacji
podczas egzaminu. Wydaje się więc, że kryterium świadomości lub jej
braku nie jest najlepszą podstawą definiowania wiedzy niejawnej.

Inny problem to relacje między podziałem na wiedzę jawną i niejawną


a wcześniej omówionym podziałem na wiedzę deklaratywną i proceduralną
(niedeklaratywną). Niektórzy badacze przyjmują, że wiedza jawna jest tym
samym co deklaratywna, a wiedza niejawna – tym samym co
niedeklaratywna (np. Squire, 1986). Dianne Berry i Zoltán Dienes (1993)
dowodzą jednak, że wiedza niejawna jest „mieszanką” wiedzy
deklaratywnej i proceduralnej, a jej cechą wyróżniającą jest specyficzny
transfer, którego dokonujemy – również w sposób niejawny – na nowe
sytuacje. Transfer ten dotyczy abstrakcyjnych reguł czy abstrakcyjnej
struktury zadania (wiedza deklaratywna), ale wymaga zastosowania jakiejś
formy wnioskowania (wiedza proceduralna). Jeśli nawet tak jest, odbywa
się on tylko w ramach zadań izomorficznych, czyli identycznych pod
względem struktury formalnej, ale wyrażonych w różnej postaci. Martin
Davies (1989) twierdzi wręcz, że wiedza niejawna może być w pewnym
sensie izolowana, tj. nie wchodzi w związki z wiedzą już posiadaną albo
nabywaną później. Dzieje się tak głównie dlatego, że nie można jej użyć
w procesie wnioskowania, czyli wyprowadzania nowej wiedzy z uprzednio
nabytej. Zakres użycia wiedzy niejawnej jest więc ograniczony do
konkretnej sytuacji i nie ma mowy o transferze takim jak np.
w rozumowaniu przez analogię, który wymaga całkiem jawnej refleksji.
Z kolei Elena Grigorenko i Robert Strenberg (2001) uważają, że
w przeciwieństwie do specjalistycznej wiedzy zawodowej, która zawiera
wiedzę deklaratywną i proceduralną, wiedza ukryta ma charakter wyłącznie
proceduralny.

Zdaniem Rebera (1989) podstawowym sposobem nabywania wiedzy


niejawnej jest mimowolne uczenie się, czyli takie, które nie stanowi
odpowiedzi na polecenie ani nie wynika z samodzielnie powziętej intencji
(paradygmaty 4.1 i 4.2). Pozwala ono na nabywanie wiedzy niejawnej,
która jest abstrakcyjna i reprezentatywna dla struktury stymulacji
w otoczeniu. Uczenie się mimowolne umożliwia więc budowanie, dzięki
procesowi indukcji, głębokiej reprezentacji wiedzy, uwzględniającej
abstrakcyjne relacje między elementami środowiska. Proces ten odbywa się
bez udziału świadomych strategii uczenia się i bez zamiaru nabycia wiedzy,
a ponadto jest bezwysiłkowy. Przyswojona w ten sposób wiedza niejawna
może być użyta, również bez zdawania sobie z tego sprawy, w procesie
rozwiązywania problemów i podejmowaniu decyzji w sytuacjach mniej lub
bardziej podobnych do sytuacji, w której nastąpiło uczenie się. Chodzi
oczywiście o przypadki, gdy reprezentacja nowej sytuacji „pasuje”
strukturalnie do nabytej wcześniej wiedzy. Podkreślając rolę mimowolnego
uczenia się w nabywaniu wiedzy niejawnej, Reber nie zgadza się ze
stanowiskiem natywistycznym (np. Chomsky, 1980; Fodor, 1975, 1983;
Gleitman, Wanner, 1982), zgodnie z którym wiedza niejawna jest
wrodzona. Natywiści skłonni byli przyjmować, że skoro nie da się
przekonująco wyjaśnić, w jaki sposób nabywana jest wiedza złożona
i abstrakcyjna, a zarazem niejawna, to trzeba przyjąć, iż w jakiś sposób
była już wcześniej obecna w umyśle.

W przeciwieństwie do Rebera (1989) inni autorzy uważają, że wiedza


niejawna nie ma charakteru abstrakcyjnego, lecz zawiera konkretne
egzemplarze lub przypadki (Brooks, Vokey, 1991; Vokey, Brooks, 1992)
albo konkretne fragmenty informacji (Perruchet, Pacteau, 1990),
zapamiętane w trakcie mimowolnego uczenia się. Użycie tej wiedzy
w nowym kontekście odbywa się dzięki stwierdzeniu podobieństwa obu
sytuacji. Proces ten wymaga również abstrakcji, ale nie w momencie
kodowania informacji, tylko jej wydobywania. Interesujące wydaje się
także stanowisko pośrednie, dopuszczające współistnienie różnych
mechanizmów nabywania wiedzy niejawnej (Berry, Dienes, 1993;
Meulemans, Van der Linden, 1997). Okazało się, że modele obliczeniowe
mimowolnego uczenia się, zawierające elementy koncepcji abstrakcyjnych
i egzemplarzowych, wykazują najlepsze dopasowanie do danych
empirycznych (zob. Cleeremans, 1993). Mimo że problem ten jest nadal
przedmiotem debaty, Reber przedstawił jednak przekonujące dowody na to,
że wiedza niejawna ma charakter abstrakcyjny. Takim dowodem,
uzyskanym w badaniu z użyciem techniki fMRI (functional magnetic
resonance imaging – funkcjonalny rezonans magnetyczny), jest „efekt
płynności kategorialnej” (categorical fluency effect), czyli spadek
aktywności struktur mózgowych obserwowany w efekcie uczenia się
mimowolnego w zadaniu kategoryzowania bodźców wzrokowych (Reber,
2013; Reber, Gitelman, Parrish, Mesulam, 2003). Spadek ten jest
obserwowany w korze potylicznej, czyli w obszarach odpowiedzialnych za
kodowanie bodźców wzrokowych, co sugeruje, że abstrahowanie wiedzy
niejawnej odbywa się już na etapie kodowania bodźców, a nie dopiero ich
wydobywania.
Paradygmat 4.2

Sposoby badania mimowolnego uczenia się

Uczenie się sztucznej gramatyki to najpopularniejszy paradygmat badań


nad mimowolnym uczeniem się i nabywaniem wiedzy niejawnej. Oprócz
tego wypracowano dwa inne paradygmaty. Pierwszy wymaga wyuczenia
się sekwencji zdarzeń, a drugi – kontroli systemów dynamicznych.

Uczenie się sekwencji (sequence learning; Nissen, Bullemer, 1987) polega


na reagowaniu na serię bodźców, które pojawiają się na ekranie zgodnie
z ukrytą sekwencją, określającą reguły następstwa bodźców w serii. Na
przykład ekran monitora dzieli się na cztery części, a następnie w jednym
z czterech pól pokazuje się dowolną figurę. Po chwili figura znika, aby za
chwilę pojawić się w innym okienku. Osoba badana ma jak najszybciej
dotknąć pola, na którym właśnie pojawiła się figura. Przeciętne badanie
wymaga wykonania od 1000 do 2000 reakcji. Wyniki eksperymentów
przeprowadzonych z wykorzystaniem tej procedury wskazują na
systematyczne skracanie czasu reakcji w kolejnych próbach. Nie można
tego wyjaśnić jedynie nabywaniem wprawy motorycznej, ponieważ gdy
ukryta reguła określająca sekwencję pojawiania się ciągów zostaje
nieoczekiwanie zmieniona, czasy reakcji istotnie się wydłużają. Ponadto
wykonanie tego zadania wydaje się niezależne od poziomu werbalizacji
wiedzy o ukrytej regule (Willingham, Nissen, Bullemer, 1989).

Kontrola systemów dynamicznych (dynamic system task; Berry,


Broadbent, 1984) polega na osiągnięciu i utrzymaniu określonego stanu
złożonego systemu poprzez manipulację zmiennymi. Systemem może być
np. cukrownia lub inny zakład produkcyjny, którego funkcjonowanie
symuluje program komputerowy. Osoba badana ma zarządzać cukrownią,
używając dostępnych jej narzędzi, takich jak poziom zatrudnienia i płac,
planowanie produkcji itd. Przypomina to symulacyjną grę komputerową –
system „zachowuje się” według niezmiennego algorytmu, który jednak nie
jest znany osobom badanym. Otrzymują one natomiast informację zwrotną
na temat aktualnego stanu systemu. Nawet jeśli chwilowo nic nie robią,
system – podobnie jak w rzeczywistości – podlega dynamicznym zmianom.
Dzięki korzystaniu z informacji zwrotnej osoby badane uczą się bardziej
efektywnej jego kontroli, systematycznie poprawiając poziom wykonania
zadania. Nie są jednak w stanie zwerbalizować reguł działania systemu. Co
więcej, podobnie jak w zadaniu wymagającym uczenia się sekwencji,
wykonanie zadania nie koreluje z dostępnością jawnej wiedzy na temat
reguł rządzących systemem.

W wątpliwość podaje się również brak możliwości świadomego dostępu do


wiedzy niejawnej (Perruchet, Pacteau, 1990; Shanks, St. Jones, 1994;
przegląd w: Berry, 1996). Początkowo taki pogląd głosił Reber, jednak
szybko się z niego wycofał. Okazało się bowiem, że człowiek jest w stanie
częściowo werbalizować wiedzę niejawną. Zwolennicy egzemplarzowej
reprezentacji takiej wiedzy twierdzą, że w zasadzie mimowolne uczenie się
jest w pełni świadome. Polega bowiem na przyswajaniu konkretnych
egzemplarzy, czyli fragmentów wiedzy, które mogą być zwerbalizowane,
a zatem cały proces uczenia się musi być uznany za świadomy (Berry,
Dienes, 1993). Wydaje się, że przyjęcie tego poglądu oznaczałoby
konieczność wyeliminowania podziału wiedzy na jawną i niejawną.
Autorzy o bardziej umiarkowanych poglądach przyjmują, że istnieją
przekonujące dowody na to, iż wiedza niejawna jest potencjalnie dostępna
jawnemu wydobywaniu, choć nie zawsze do tego dochodzi (zob.
Underwood, Bright, 1996). Możliwość jawnego wydobycia wiedzy
niejawnej występuje bowiem tylko wtedy, gdy jej poziom jest dość wysoki.
Innymi słowy, już niezbyt obszerna wiedza niejawna, nabyta np. w ciągu
krótkiego eksperymentu laboratoryjnego, poprawia poziom wykonania
zadań poznawczych, ale aby doszło do jej uświadomienia, potrzebny byłby
długotrwały trening.

W badaniach nad mimowolnym uczeniem się uczestnicy nabywają wiedzę,


która pozwala na wykonanie zadań w niewielkim tylko stopniu
przekraczających poziom przypadku. Wiedza niejawna nie jest w takim
razie w pełni adekwatną i kompletną reprezentacją struktury otoczenia.
Jeśli więc dzięki werbalizacji wiedza niejawna przekształca się w wiedzę
jawną, ta musi być co najmniej tak samo niekompletna i nieadekwatna.
Wyjątek stanowi wiedza nabywana w trakcie długotrwałego uczenia się
mimowolnego (np. Mathews i in., 1989), jak w przypadku języka
ojczystego. I wtedy jednak możliwość jej werbalizacji – jeśli uczenie się
nie zostało poparte jawnym nabywaniem reguł języka – jest ograniczona.
Dlatego niektórzy badacze nie opowiadają się za którąkolwiek ze stron
sporu o (nie)świadomy charakter wiedzy niejawnej, twierdząc jedynie, że
świadomość nie jest niezbędna do jej nabywania i wykorzystania
(Sternberg i in., 2000). Pojawiły się nawet dowody na to, że próba przejęcia
świadomej kontroli nad wiedzą niejawną prowadzi do pogorszenia
poziomu wykonania zadań, które jej wymagają (Reber, 1976; Reber,
Kassin, Lewis, 1980). Co więcej, transfer między wiedzą niejawną i jawną
może również odbywać się w przeciwnym kierunku. Mianowicie pewne
elementy wiedzy jawnej, szczególnie epizodycznej, takie jak traumatyczne
wydarzenia życiowe, mogą ulec „ukryciu”. Chodzi o zjawisko utraty
dostępu do wyselekcjonowanych zapisów pamięciowych. Świadomość
dostępu jest zatem tylko przybliżoną i raczej typową niż generalną
właściwością różnicującą wiedzę jawną od wiedzy niejawnej.
Trzeba też zdawać sobie sprawę z tego, że świadomość lub jej brak może
dotyczyć różnych aspektów mimowolnego uczenia się. Możemy nie być
świadomi ani tego, że w ogóle czegoś się uczymy, ani tego, czego się
nauczyliśmy. Tak przypuszczalnie przebiega proces nabywania pierwszego
języka. Możemy być świadomi faktu, że się uczymy, ale nieświadomi
skutków i efektów uczenia się. W szczególności nie potrafimy
zwerbalizować reguł rządzących opanowywanym przez nas materiałem.
Tak przebiega proces uczenia się sprawności motorycznych, np. jazdy na
nartach lub na rowerze. Możemy być również świadomi i tego, że się
uczymy, i tego, czego się nauczyliśmy – ale dopiero w wyniku procesu
wtórnego, który polega na transformacji wiedzy niejawnej w jawną.
Natomiast wiedza od początku jawna jest nabywana w procesie
intencjonalnego, zamierzonego uczenia się z zachowaniem od pierwszych
chwil świadomości skutków uczenia się, a zwłaszcza znajomości
abstrakcyjnych reguł. Ale nawet w takim wypadku nie jesteśmy świadomi
poznawczego mechanizmu nabywania wprawy lub poszerzania zakresu
wiedzy. Ten mechanizm jest zawsze ukryty, a jego odkrywanie jest
zadaniem psychologów, a nie podmiotu uczącego się. Zgodnie
z proponowaną przez nas definicją wiedza niejawna to taka, która nie jest
całkowicie dostępna świadomości, choć może być dostępna w niektórych
fragmentach, a ponadto może być wtórnie uświadomiona w wyniku
określonych zabiegów (np. werbalizacji). Tak rozumiana wiedza niejawna
zazwyczaj jest wynikiem procesu mimowolnego uczenia się, choć
w niektórych przypadkach tworzy się w wyniku uczenia się
intencjonalnego i zamierzonego.

4.2. Organizacja wiedzy


Problem organizacji wiedzy nierozerwalnie wiąże się z organizacją
pamięci. Z tego względu w późniejszych rozdziałach będziemy
nawiązywać do niektórych koncepcji organizacji wiedzy opisanych
poniżej. Omówione teorie odnoszą się do różnych rodzajów wiedzy albo
różnych jej aspektów. Pierwsza grupa teorii – reprezentacji wiedzy za
pomocą cech – dotyczy składników wiedzy semantycznej, a więc
najmniejszych jej jednostek, najczęściej pojęć. Kolejna grupa dotyczy
relacji semantycznych między elementami, które wyrażają się głównie
w postaci sądów. Trzecia grupa teorii dotyczy wiedzy proceduralnej.
Ostatnia jest próbą pogodzenia wszystkich trzech ujęć, łączy bowiem
wiedzę deklaratywną (ściślej: semantyczną) i proceduralną w jednym
modelu.

4.2.1. Reprezentacja wiedzy za pomocą cech


Podstawowym pojęciem omawianej dalej grupy teorii reprezentacji wiedzy
jest cecha (feature). Cecha to symboliczny i dyskretny (tj. nieciągły,
nieanalogowy) element umysłowej reprezentacji wiedzy o wyraźnie
określonych granicach. Rzeczywistość jest reprezentowana w postaci
zestawu cech oraz relacji, które między nimi zachodzą. Zarówno cechy, jak
i relacje muszą działać jednocześnie, aby powstało znaczenie. Przykładowo
znaczenie, jakie przypisujemy ulicznej sygnalizacji świetlnej, wynika
z integracji cech: kształtu sygnalizatora i koloru światła oraz –
prawdopodobnie – pewnych cech kontekstu. Właściwe znaczenie
informacji pojawia się dopiero, kiedy te cechy są w odpowiedniej relacji
względem siebie. Inne relacje między cechami bądź brak którejkolwiek
z cech nie tworzą żadnego znaczenia albo tworzą zupełnie inne. Na
przykład nie zatrzymujemy się, kiedy w książce zobaczymy zdjęcie
sygnalizatora z zapalonym światłem czerwonym.
W koncepcji Evy Clark (1979), ograniczonej do pojęć języka, na znaczenie
składa się zestaw cech definiujących słowo. Na przykład pojęcie
„człowiek” mogłoby składać się z reprezentacji cech [+zwierzę,
+dwunożny, +inteligentny], gdzie „+” oznacza występowanie pewnej
cechy. Gdyby dodać jeszcze właściwość [– włosy], gdzie „–” oznacza brak
cechy, wówczas powstaje reprezentacja pojęcia „łysy”. Cechy w tym
modelu są niezależne – obecność jednej nie wymaga obecności innej.
Niezależność cech nie wyklucza jednak korelacji między nimi. Dlatego
pewne obiekty będą uznawane za bardziej typowe (częstsze
współwystępowanie cech dystynktywnych), a inne za raczej nietypowe.

Clark (1979) założyła, że definiowanie znaczenia słów wymaga


uformowania zbioru cech unikatowych dla konkretnego pojęcia. Autorka
zaproponowała tzw. mechanizm nawarstwiania się cech, który tłumaczyłby
to zjawisko. Nawarstwianie się cech polega na uzupełnianiu cech
pierwotnych (primitive) cechami dodatkowymi – bardziej szczegółowymi.
Te ostatnie byłyby nadbudowywane (stąd pojęcie nawarstwiania) na
cechach pierwotnych – bardziej podstawowych w danej klasie obiektów.
Clark zaproponowała hipotezę cechy semantycznej (semantic feature),
wyjaśniającą mechanizm nawarstwiania się cech. Cechy te pochodzą
z zestawu cech pierwotnych i są łączone w znaczenie w taki sposób, aby
było ono zgodne z przyjętym użyciem słowa oraz aby dwa różne słowa nie
miały identycznego znaczenia. W pierwszym przypadku chodzi
o utworzenie reprezentacji werbalnej zgodnej z definicją słowa, a w drugim
o rozróżnialność znaczeń słów, jeśli odpowiadają innym obiektom (tzw.
zasada kontrastu według Clark). Przykładowo, jeśli pojęcie „człowiek”
zdefiniowane byłoby jako [+zwierzę, +dwie nogi], zasada kontrastu blokuje
możliwość umieszczenia w strukturze wiedzy np. szympansa czy strusia
pod tą samą nazwą. Aby tego uniknąć, najczęściej znaczenia słów
wymagają uzupełnienia o dodatkowe cechy.

Inni badacze skoncentrowali się z kolei na wyjaśnieniu przebiegu procesu


porównywania znaczeń słów. Edward Smith, Edward Shoben i Lance Rips
(1974) wyróżnili dwa rodzaje cech w reprezentacji znaczenia: rdzenne
(core) i charakterystyczne. Cechy rdzenne to takie, które składają się na
„tożsamość” obiektu; można powiedzieć, że są to cechy definicyjne.
Natomiast cechy charakterystyczne są zaledwie typowe dla obiektu.
Autorzy zaproponowali model dwufazowego porównywania cech.
Pierwsza, wczesna faza polega na porównaniu zarówno cech rdzennych,
jak i charakterystycznych. Jeśli obiekty są bardzo podobne albo bardzo
niepodobne, to efekt porównania jest szybki i – odpowiednio – pozytywny
albo negatywny. Jeśli jednak obiekty nie są ani bardzo podobne, ani bardzo
różne, porównywanie przechodzi do drugiej fazy, w której zestawiane są ze
sobą wyłącznie cechy rdzenne. Jeśli stwierdzone zostanie ich
podobieństwo, to następuje reakcja pozytywna, która jednak wymaga
więcej czasu, jest bowiem efektem udziału obu faz. W przeciwnym razie,
czyli jeśli cechy rdzenne okażą się różne dla porównywanych obiektów,
emitowana jest reakcja negatywna, również stosunkowo powolna.

Amos Tversky (1977) w odmienny sposób wyjaśniał proces porównywania


znaczeń słów. Autor zaproponował mechanizm, który nie wymaga
dodatkowego założenia o różnych typach cech, jak u Smitha
i współpracowników. Polega on na porównaniu zbioru cech definiujących
pojęcie zgodnie z formalizacją:

s(a, b) = θf (A ∩ B) – αf (A – B) – βf (B – A),
gdzie s(a, b) to podobieństwo znaczeń słów a i b; A i B – zestaw cech
reprezentujący a i b; f (X) – funkcja wagi cechy w zbiorze; θ, α i β – stałe
wagi zestawu. Podobieństwo jest tym większe, im więcej para znaczeń ma
cech wspólnych (A ∩ B) i im mniej dystynktywnych (A – B i B – A).
Tversky stwierdził pozytywną korelację oceny stopnia podobieństwa par
znaczeń z liczbą cech wspólnych, zakładanych w modelach reprezentacji za
pomocą cech, i korelację negatywną z liczbą cech je różnicujących. Jego
model dobrze tłumaczy pewne psychologiczne prawidłowości relacji
podobieństwa, np. brak symetryczności i przechodniości. Relacja
podobieństwa jest niesymetryczna, bo z faktu, że a jest podobne do b, nie
wynika, że b jest podobne do a. Na przykład często dostrzegamy
podobieństwo dziecka do rodzica, ale rzadziej – podobieństwo rodzica do
dziecka. W tym przypadku waga cech dystynktywnych dla rodzica
przewyższa wagę cech wspólnych i dystynktywnych dla dziecka. Na tej
samej zasadzie możemy powiedzieć, że Kazachstan jest podobny do Rosji,
ale Rosja nie jest podobna do Kazachstanu. Ponadto relacja podobieństwa
jest nieprzechodnia, bo z faktu, że a jest podobne do b, b zaś jest podobne
do c, nie wynika, że a jest podobne do c. Na przykład Jaś jest podobny do
Rysia (ze względu na kształt podbródka), Ryś jest podobny do Stasia (ze
względu na kolor oczu), ale nie ma żadnego podobieństwa między Jasiem
a Stasiem. Brak symetrii i przechodniości sprawia, że relacja podobieństwa
wyróżnia się spośród większości relacji, takich jak wyższy/niższy,
głupszy/mądrzejszy itd. Model Tversky’ego dobrze też wyjaśnia zależność
oceny podobieństwa od kontekstu. Na przykład z trzech krajów: Rosji,
Kazachstanu i Uzbekistanu, podobne wydają się Kazachstan i Uzbekistan,
natomiast wśród krajów: Rosji, Kazachstanu, Japonii, podobne wydają się
Rosja i Kazachstan. W zależności od kontekstu zmieniają się wagi cech
wspólnych i dystynktywnych, przez co obiekty wydają się mniej lub
bardziej podobne. Analogiczne efekty uzyskano w odniesieniu do materiału
niewerbalnego (ryc. 4.3).

RYCINA 4.3. Zależność oceny podobieństwa od kontekstu


W zestawie pierwszym twarze b i c są oceniane jako mniej więcej tak samo podobne do twarzy
wzorcowej (u góry). W zestawie drugim te same twarze są oceniane inaczej (80% wskazań na twarz
c), o czym zadecydował kontekst – dodanie nowej twarzy q.
Źródło: opracowanie własne na podstawie Tversky, 1977.

Modele reprezentacji za pomocą cech mają jednak pewne ograniczenia. Po


pierwsze, przyjmują założenie o niezależności cech i definiowanych przez
nie obiektów. Jedyne relacje między obiektami, przewidywane przez te
modele, wynikają z podobieństwa cech obiektów. Powszechnie jednak
wiadomo, że wiedza ma pewną strukturę, opartą na niekiedy dość
złożonych relacjach, których nie da się sprowadzić do podobieństwa. Po
drugie, właściwie do dziś nie ma takiego modelu, który w sposób
wiarygodny precyzowałby listę cech składających się na reprezentacje
werbalne. Wiadomo dość dużo o fizycznych cechach stymulacji,
podlegających integracji w procesie percepcji wzrokowej (zob. podrozdz.
5.2.2), natomiast niewiele wiadomo w odniesieniu do pojęć języka. Clark
podjęła próbę stworzenia listy podstawowych cech pojęć języka, jednak
należy ją uznać za raczej niekompletną (por. Markman, 2002).

4.2.2. Organizacja wiedzy semantycznej


Wiedza semantyczna – zawarta w pamięci semantycznej. Zorganizowana jest na kilku poziomach
(pojęć, sądów oraz ich układów), odpowiadających strukturze języka. Ma budowę sieciową
z węzłami i połączeniami między nimi.

Termin pamięć semantyczna pochodzi podobno od M. Rossa Quilliana


(1968, za: Najder, 1992/1997). W postać dojrzałej koncepcji, uzupełnionej
o inne rodzaje pamięci, został jednak rozwinięty przez Endela Tulvinga
(1972). Pojęcie pamięci semantycznej w rozumieniu Tulvinga oznacza
„umysłowy słownik”: zorganizowaną wiedzę o symbolach werbalnych
(głównie języka naturalnego), ich znaczeniu i odniesieniach, o relacjach
między nimi oraz o regułach, formułach i algorytmach manipulacji tymi
symbolami, pojęciami i relacjami. Innymi słowy, zawartość pamięci
semantycznej stanowi wiedza o znaczeniach symboli i relacjach między
nimi. Pamięć semantyczna, w przeciwieństwie do pamięci epizodycznej,
to zapis wiedzy ogólnej „wyrwanej z autobiograficznego kontekstu” (por.
Najder, 1992/1997). Poszczególne koncepcje pamięci semantycznej
ograniczyły się wyłącznie do opisu struktury wiedzy wyrażonej w języku
naturalnym, pomijając wiedzę, której symbolami nie są słowa.

W ramach teorii wiedzy semantycznej przyjmuje się, że kodowaniu


podlega treść pojęć języka, czyli ich struktura głęboka, a nie struktura
powierzchniowa, czyli forma informacji werbalnej. Z kolei dekodowanie
informacji werbalnej polega na ponownym nałożeniu struktury
powierzchniowej na ową treść. Wiedza semantyczna jest zorganizowana na
kilku poziomach odpowiadających strukturze języka. Wyróżnia się poziom
pojęć, sądów oraz ich układów. W tym podrozdziale zajmiemy się teoriami
dotyczącymi głównie poziomu sądów, w których wyrażają się relacje
między pojęciami. W ich prezentacji nacisk położony zostanie na strukturę
wiedzy. Procesami pamięciowymi, stanowiącymi procesualne podłoże
nabywania i korzystania z wiedzy, zajmiemy się szerzej w rozdziale 9.

Allan Collins i M. Ross Quillian (1969) zaproponowali koncepcję struktury


wiedzy semantycznej opartej na dwóch jej właściwościach: budowie
sieciowej i hierarchiczności. Wiedza zawarta w pamięci semantycznej ma
postać sieci, w której węzłom odpowiadają pojęcia, a połączeniom między
nimi – ich wzajemne relacje. Sieć jest zorganizowana hierarchicznie, co
oznacza, że pojęcia bardziej ogólne znajdują się wyżej w hierarchii, przy
czym odległość pojęć w sieci związana jest ściśle z podobieństwem ich
znaczenia (ryc. 4.4). Pojęcia o wyższym stopniu podobieństwa są
reprezentowane przez węzły znajdujące się blisko w sieci i związane są
pewną relacją (chociaż nie zawsze bezpośrednio, jak np. „zwierzę”
i „kanarek”); pojęcia zupełnie różne od siebie będą reprezentowane przez
odległe i niepowiązane ze sobą węzły.

Pojedyncze relacje między pojęciami mają charakter binarny, czyli łączą


tylko dwa węzły. Zdanie: „łosoś i rekin mają skrzela”, odnoszące się do
trzech węzłów sieci, można rozbić na dwa prostsze zdania: „łosoś ma
skrzela” i „rekin ma skrzela”. W podstawowej wersji model zakłada dwa
rodzaje relacji między pojęciami. Pierwszy to relacja przynależności do
klasy, np. łosoś jest rybą. Tego typu relacje obejmują pojęcia z dwóch
różnych poziomów hierarchii sieci semantycznej. Drugi to relacja
predykatywna, czyli pełniąca funkcję orzeczenia. Zawiera ona wiedzę
o właściwościach obiektu, np. „łosoś jest drapieżnikiem” albo „struś chowa
głowę w piasek”. Tego typu relacje kodowane są w sieci na tym samym
poziomie ogólności, na którym w hierarchii znajduje się dany obiekt.

RYCINA 4.4. Fragment sieci semantycznej według Collinsa i Quilliana


Źródło: opracowanie własne na podstawie Collins, Quillian, 1969.

W teorii sieci wiedza reprezentowana jest w sposób najprostszy, a zarazem


najbardziej ekonomiczny. Założenie o ekonomii poznania (zob. podrozdz.
1.1.1) zostało w modelu sieci semantycznej wyrażone w postaci
kluczowego twierdzenia, że relacje predykatywne kodowane są w sieci na
możliwie najwyższym poziomie ogólności. Przykładowo, skoro każde
zwierzę ujęte w przedstawionym fragmencie sieci semantycznej oddycha,
to właściwość ta może zostać zakodowana jako predykat wszystkich
zwierząt. Co więcej, niekiedy ekonomiczne jest wprowadzenie do sieci
pewnej niespójności. Na przykład właściwością ptaków jest to, że potrafią
latać (ryc. 4.4), co jak wiemy, nie zawsze jest prawdą, chociaż
zdecydowana większość ptaków ma tę umiejętność. Jeśli jednak jakiś ptak
nie lata, to wystarczy przypisać mu właśnie taką właściwość. Ponieważ
analizę pojęć zawartych w naszej sieci semantycznej zaczynamy od węzła,
który nas interesuje, np. pojęcia „struś”, od razu natrafiamy na właściwość
„nie lata”. Pojęcie „kanarek” bezpośrednio nie ma predykatu odnoszącego
się do umiejętności latania, ale ta właściwość może być wydobyta z sieci
dzięki inferencji (skoro kanarek jest ptakiem, a ptaki latają, to kanarek
również ma tę umiejętność). Badania Collinsa i Quilliana (1969) wydawały
się potwierdzać tego typu organizację wiedzy (zob. podrozdz. 8.3.1).
Okazało się, że im większa odległość w sieci między danym pojęciem
a jakimś jego predykatem (więcej węzłów na drodze między nimi), tym
dłuższy jest czas dotarcia do tej informacji. Na przykład szybciej
wydobywamy informację, że kanarek śpiewa, niż tę, że ma pióra. Najdłużej
trwa wydobycie informacji, że kanarek oddycha. Predykcje te
potwierdzono w wielu eksperymentach.

Zaprezentowany fragment sieci semantycznej umieszczony jest w większej


strukturze sieci semantycznej naszej wiedzy. Jest to możliwe przede
wszystkim dzięki predykatom. Przykładowo właściwość „potrafi latać”
mają nie tylko ptaki, lecz także samoloty, balony, niektóre zabawki, pyłki
roślin, a nawet ludzie. Podobnie jest z wieloma innymi predykatami.

Badania Collinsa i Quilliana (1969) przyniosły wiele danych


potwierdzających model sieci hierarchicznej (zob. rozdz. 8). Szybko
zgromadzono jednak dane sprzeczne z tym modelem. Okazało się, że
związek między czasem dostępu do wiedzy nie jest liniową funkcją
postulowanej odległości węzłów w sieci. Rips, Shoben i Smith (1973)
wykryli, że stwierdzenie, iż „kot jest zwierzęciem”, jest szybsze niż to, że
„kot jest ssakiem”. Z modelu sieci semantycznej wynikały dokładnie
przeciwne predykcje. „Zwierzę” jest pojęciem bardziej ogólnym niż „ssak”,
a więc w hierarchii wiedzy odległość pojęć „kot – ssak” jest mniejsza niż
odległość pojęć „zwierzę – ssak”. Z kolei Carol Conrad (1972) wykryła, że
stwierdzenie, iż „kanarek jest ptakiem”, jest szybsze niż to, że „struś jest
ptakiem”. Model sieci semantycznej nie przewidywał tego typu różnic,
ponieważ hipotetyczna odległość pojęć „kanarek” i „struś” od pojęcia
„ptak” jest w nim identyczna. Model Collinsa i Quilliana dopuszczał co
prawda różnice indywidualne dotyczące wiedzy, ale odnosiły się one
jedynie do jej treści, a nie samej struktury. Innymi słowy, model dopuszczał
różnice zarówno w liczbie węzłów, jak i bogactwie ich predykatów, ale nie
dopuszczał innej struktury niż hierarchiczna. Pod adresem modelu Collinsa
i Quilliana (1969) wysunięto więcej zastrzeżeń, dotyczących nie tylko
struktury wiedzy, lecz także procesu jej wydobywania z pamięci.
W związku z tym Collins, tym razem wraz z Elisabeth Loftus (1975),
dokonali interesującej rewizji modelu.

Collins i Loftus (1975) utrzymali założenie o sieciowej strukturze wiedzy,


lecz osłabili założenie o jej hierarchicznej organizacji. Za podstawowy
czynnik decydujący o połączeniach między elementami wiedzy uznali siłę
związku skojarzeniowego, który je łączy. Dlatego bardziej typowe obiekty
są szybciej identyfikowane jako należące do określonej kategorii (np.
wróbel jako ptak). Również ze względu na większą siłę skojarzeniową
połączenie „kot – zwierzę” może być mocniejsze niż „kot – ssak”. Jeśli za
podstawowy mechanizm tworzenia struktury wiedzy uznać siłę związków
skojarzeniowych, ewentualna hierarchiczność tej struktury staje się
drugorzędna. Może być ona pełna, np. w grupie osób o dobrym
wykształceniu biologicznym (nawiązując do przykładu sieci z ryciny 4.4),
albo niepełna, jeśli wiedza w danym zakresie jest cząstkowa lub została
wyabstrahowana z doświadczenia.

Collins i Loftus dokonali uszczegółowienia sposobu reprezentowania


pojedynczych elementów wiedzy, zapożyczając pewne elementy modelu
opartego na cechach (zob. podrozdz. 4.2.1). Struktura wiedzy ma postać
sieci, w której węzłom odpowiadają pojęcia, podczas gdy ich etykiety
werbalne są reprezentowane w postaci odrębnej struktury, zwanej
wewnętrznym leksykonem. Leksykon zorganizowany jest według
fonetycznego i semantycznego podobieństwa zawartych w nim nazw pojęć,
które są połączone z jednym lub większą liczbą odpowiadających tym
nazwom węzłów w sieci. Z kolei węzły połączone są ze sobą relacjami
o charakterze semantycznym. Im więcej połączeń między węzłami, tym
większa siła skojarzeniowa danego związku. Większa liczba połączeń jest
możliwa dzięki bogatszej „liście” predykatów. Większa zgodność tych
„list” w obrębie dwóch pojęć sprawia, że więcej jest między nimi połączeń,
a ponadto sposób ich łączenia może być bardzo różnorodny. Na przykład
pojęcia „stół” i „krzesło” są silnie powiązane, być może dzięki sporej liście
wspólnych predykatów (ryc. 4.5). Ich jednoczesne wzbudzenie jest
możliwe dzięki aktywacji wiedzy związanej z charakterystycznymi
miejscami (jadalnia, kawiarnia, biuro projektowe), okolicznościami
(śniadanie, imieniny, sprzątanie) itd. Collins i Loftus wzbogacili listę
relacji, dzięki którym pojęcia i ich predykaty łączą się ze sobą. Główna
zmiana polegała na włączeniu, obok relacji przynależności do kategorii
i relacji predykatywnej, relacji „bycia przedstawicielem kategorii”, np.
mebel ma za egzemplarz krzesło, ptak ma za egzemplarz kanarka.
Zauważmy, że jest to połączenie odwrotne względem relacji przynależności
do kategorii, np. krzesło to mebel albo kanarek to ptak. Zatem – według
Collinsa i Loftus – połączenia między węzłami mogą być obustronne, ale
niekoniecznie symetryczne: ich siła może być różna w zależności od
kierunku relacji. Mówiąc obrazowo, ważniejsze wydaje się, że kanarek
należy do kategorii ptaków, niż że ptak ma jako egzemplarz kanarka.

RYCINA 4.5. Hipotetyczne predykaty pojęć „stół” i „krzesło”. Znaczna ich część może być
wspólna dla obu pojęć
Źródło: opracowanie własne.

Co za tym idzie – struktura wiedzy, oraz oczywiście jej zawartość, nie jest
w modelu Collinsa i Loftus zunifikowana, pojęcia mogą być bowiem
połączone w zasadzie dowolnie. Im pojęcie jest bogatsze semantycznie,
z tym większą liczbą węzłów może być połączone. Przykład sieci
semantycznej w tym ujęciu przedstawia rycina 4.6.

Proces przywoływania wiedzy odbywa się dzięki mechanizmowi


rozprzestrzeniającej się aktywacji. Przywołanie jednego pojęcia
powoduje, że aktywacja rozchodzi się w sieci jednocześnie w wielu
kierunkach. Kierunki rozprzestrzeniania są wyznaczone przez strukturę
połączeń w sieci: aktywacja słabnie wraz z oddalaniem się od pojęcia
wyjściowego, ale też zależy od liczby i siły połączeń między węzłami. Jeśli
dane pojęcie ma bogatą strukturę połączeń, mechanizm rozprzestrzeniającej
się aktywacji może wzbudzić wiele innych węzłów (chyba że niektóre
połączenia będą aktywnie hamowane). Jeśli struktura połączeń jest uboga,
liczba wzbudzonych węzłów będzie niewielka. Wielkość aktywacji podlega
ograniczeniom, co oznacza, że siła wzbudzenia jest odwrotnie
proporcjonalna do liczby wzbudzonych węzłów. W uproszczeniu: jeśli
mechanizm rozprzestrzeniającej się aktywacji wzbudzi sześć węzłów, to
każdy z nich otrzyma dwa razy mniej aktywacji, niż gdyby wzbudzone
zostały tylko trzy węzły. Z kolei siła połączeń wpływa na zakres
rozchodzenia się pobudzenia. Jeśli połączenia są słabe, pobudzenie będzie
szybko zanikać wraz z oddalaniem się od pojęcia wyjściowego.

RYCINA 4.6. Fragment sieci semantycznej według Collinsa i Loftus


Źródło: opracowanie własne na podstawie Collins, Loftus, 1975.

Teoria rozprzestrzeniającej się aktywacji dobrze tłumaczy efekty, które


były kłopotliwe dla teorii sieci semantycznej, w szczególności fakt, że
reakcja zaprzeczenia absurdalnemu twierdzeniu typu „ptak jest cegłą”
następuje bardzo szybko. Wyniki badań empirycznych z użyciem tego typu
zdań okazały się „zabójcze” dla teorii sieci hierarchicznej (zob. podrozdz.
8.3.1). Początkowo zakładano, że czas weryfikacji zdań fałszywych
powinien być bardzo długi. Falsyfikacja wymagałaby bowiem w tym
wypadku poruszania się w hierarchii najprawdopodobniej aż do poziomu
„materii ożywionej”, gdzie odnajdujemy predykat „żywy”, który jest
ewidentnie sprzeczny z właściwościami cegły.

Jednakże już w momencie pierwszej publikacji teorii rozprzestrzeniającej


się aktywacji pojawiły się głosy krytyczne pod jej adresem (np. Woods,
1975). Krytyce poddano niedoprecyzowane charakterystyki węzłów
i połączeń w sieciach. William Woods (tamże) podkreślał, że nie ma
empirycznego sposobu na oddzielenie informacji reprezentowanej
w postaci węzłów i w postaci relacji. W zasadzie jest to więc założenie
nieweryfikowalne, co oznacza, że nie mamy sposobu na stwierdzenie, czy
rzeczywiście wiedza ma organizację sieciową, nawet w rozumieniu
„wirtualnym”. To poważny zarzut. Nie wiadomo także, jakie są cechy
dystynktywne różnego typu relacji między węzłami w sieci. Zakłada się
istnienie co najmniej kilku tego typu relacji, natomiast nie wiadomo, jaki
jest swoisty dla każdej z nich mechanizm rozprzestrzeniania się aktywacji.
W szczególności nie wiadomo, czy aktywacja rozprzestrzenia się tak samo
w przypadku, gdy węzły łączą się na zasadzie przynależności kategorialnej
(stół–mebel), jak i w przypadku, gdy dzieje się to na zasadzie skojarzenia
(stół–krzesło). Inny zarzut dotyczy ograniczenia zakresu wyjaśnień
formułowanych odnośnie do mechanizmu rozprzestrzeniającej się
aktywacji. Mechanizm ten dobrze wyjaśnia zjawiska oparte na
skojarzeniach, związane ze specyficzną treścią i kontekstem używanej
wiedzy. Nie wyjaśnia natomiast udziału innych operacji poznawczych,
takich jak rozumowanie dedukcyjne. Słabo radzi sobie również
z wyjaśnieniem tego, jak korzystamy z wiedzy, np. rozwiązując złożone
problemy. Dopiero połączenie sieciowych teorii organizacji wiedzy
deklaratywnej i regułowych teorii wiedzy proceduralnej pozwoliło na
zwiększenie trafności modeli organizacji wiedzy. Przykładem teorii
ujmującej jednocześnie oba rodzaje wiedzy jest teoria ACT-R Johna
Andersona, opisana w podrozdziale 4.2.4. Zanim przejdziemy do jej
omówienia, przedstawimy ideę systemów regułowych.

4.2.3. Organizacja wiedzy proceduralnej: systemy reguł


Systemy reguł albo systemy produkcji ( production systems) – systemy wiedzy proceduralnej;
poznawcza reprezentacja wiedzy obejmującej czynności poznawcze i motoryczne. Pozwalają na
tworzenie złożonych procedur działania.

Wiedza proceduralna jest uporządkowana i przechowywana inaczej niż


deklaratywna. W koncepcjach tego typu zakłada się, że jeśli człowiek
opanował jakąś czynność, jego wiedza jest poznawczo reprezentowana za
pomocą zestawu reguł. Reprezentacja tego typu pozwala na tworzenie
procedur działania2. W związku z tym systemy wiedzy proceduralnej noszą
nazwę systemów reguł lub systemów produkcji (production systems;
Newell, Simon, 1972). Ze względów językowych od tej pory będziemy
używać wyłącznie pierwszego terminu.
Każda reguła składa się z warunku wyznaczającego zbiór właściwości,
które muszą być spełnione, aby uruchomić daną czynność, i samej
czynności, czyli zbioru produkcji. Niektóre (rzadziej wszystkie)
właściwości danej sytuacji są najpierw zestawiane z warunkami używania
różnych reguł. Jeśli przeprowadzone w ten sposób „testy” wykażą
satysfakcjonujący poziom odpowiedniości dla aplikacji jednej z nich, jest
ona uruchamiana. Na przykład w trakcie jazdy na nartach sytuacja na stoku
i położenie naszego ciała są zestawiane z warunkami zastosowania różnych
reguł korekty toru jazdy i ruchów ciała. Po ustaleniu zgodności warunków
zewnętrznych reguł, którymi dysponujemy, uruchomiona zostaje jedna lub
więcej z nich.

Reguły podlegają indeksacji, aby możliwe było ich odróżnienie ze względu


na różne zestawy warunków (Simon, Kaplan, 1989). Może się jednak
zdarzyć, że kilka reguł wykaże satysfakcjonującą zgodność warunków ich
uruchomienia (np. jednocześnie skręt w lewo, zmiana położenia tułowia
i ruch kijkami). Jeśli nie jest możliwa jednoczesna aplikacja wszystkich
reguł (np. jednocześnie skręt w lewo i w prawo), wówczas struktura
kontrolna (control structure) dokonuje wyboru jednej z nich. Obowiązuje
wtedy tzw. zasada specyficzności reguł, według której prymat ma reguła
bardziej wyspecjalizowana. Przykładowo ogólna reguła mówi, że jeśli
posługujemy się dwoma sztućcami, to widelec należy trzymać w lewej
ręce. Wyjątkiem jest np. konsumpcja spaghetti, kiedy widelec należy
trzymać w ręce prawej. Dzięki wspomnianej zasadzie najpierw sprawdzane
są warunki użycia reguły opisującej odstępstwa od reguły bardziej ogólnej.

Regułę przedstawia się najczęściej w postaci implikacji – „jeżeli


(warunki)..., to (działanie)...”. Na przykład „jeżeli chcę napisać na
komputerze literę A, to muszę wcisnąć kombinację klawiszy shift + a”.
Ponieważ początkowo przyjmowano, że reguła ma postać algorytmu,
okazywało się, że nawet tak prostej czynności odpowiada szereg
elementarnych „produkcji”. Dokładniejszy algorytm systemu reguł dla tego
przykładu zamieszczono dalej. Zwróćmy uwagę, że reguły mogą być
zagnieżdżone w innych, a te w kolejnych, aż do poziomu najbardziej
elementarnego. Zauważmy również, że nawet w tak prostej czynności
różne reguły połączone są systemem złożonych zależności.

Przyjmijmy założenie, że jesteśmy w trakcie pisania jakiegoś tekstu (w


przeciwnym razie wcześniej należałoby wykonać szereg innych procedur,
np. sprawdzić, czy włączony jest komputer i uruchomiony edytor tekstów,
które są o wiele bardziej złożone niż samo pisanie).

Jeżeli chcę napisać na komputerze literę „A”, to:

→ (1) sprawdzam, czy kursor jest na właściwym miejscu ekranu,


jeżeli „tak”, to krok (2);

jeżeli „nie”, to uruchamiam regułę „zmiany lokalizacji kursora”, a potem


krok (2);

→ (2) sprawdzam, czy włączony jest „Caps Lock”, jeżeli „tak”, to


krok (3);

jeżeli nie, to uruchamiam regułę wciśnięcia klawisza „Shift” (która sama


w sobie jest na tyle złożoną czynnością wykonawczą, że może mieć osobną
reprezentację regułową), a potem krok (3);

→ (3) uruchamiam procedurę wciśnięcia klawisza „a”, a potem krok


(4);

→ (4) sprawdzam, czy na ekranie pojawiła się właściwa litera, jeżeli


„tak”, to kończę regułę;
jeżeli „nie”, to uruchamiam regułę wciśnięcia klawisza „Backspace”
i wracam do punktu (2).

W nowszych koncepcjach (np. Charniak, McDermott, 1985) system reguł


odwołuje się do dwóch rodzajów pamięci: proceduralnej (production
memory; bardziej dosłownie: zawierającej „produkcje”) i roboczej
(working memory). Pierwsza zawiera schematyczne reguły w postaci:
„jeżeli (warunki)..., to (działanie)...”. Druga natomiast zawiera
reprezentację aktualnego stanu, np. rozwiązywanego problemu, oraz
inicjuje określone procedury stanowiące wiedzę proceduralną. Korzystanie
z niej jest powtarzalnym cyklem selekcji reguł z pamięci proceduralnej
z wykorzystaniem procedury kontrolnej, sprawdzającej, czy warunki jej
użycia odpowiadają zawartości pamięci roboczej. Jeśli zgodność taka
występuje, to reguła jest realizowana.

Przyjmuje się, że w procesie korzystania z wiedzy proceduralnej może


mieć udział specyficzny bufor pamięci. Zawiera on pewien zbiór reguł,
które zostały użyte w trakcie realizacji bieżącego zadania. Najczęściej
chodzi o procedury zastosowane już w trakcie jego wykonania. Założenie
to wprowadzono, aby wyjaśnić, w jaki sposób mało pojemna pamięć
robocza, zawierająca tylko bieżący stan i wykonywaną w danym momencie
procedurę, chroni się przed perseweracją, czyli uporczywym stosowaniem
jednej procedury, mimo że nie przyniosła ona pożądanego skutku. Jest to
tzw. zasada niepowtarzalności reguł. Dzięki pamiętaniu tych epizodów
użycia różnych reguł możliwe jest również doskonalenie metawiedzy,
dotyczącej – w tym wypadku – skuteczności procedur (a szczególnie jej
braku) w określonych warunkach.

4.2.4. Organizacja wiedzy w modelach ACT, ACT* i ACT-R


Teorię ACT 3 (adaptive control of thought) zapoczątkował w latach 70. XX
w. John Anderson, który ciągle ją rozwija, tworząc kolejne wersje.
Anderson (1976) podjął próbę opracowania modelu pamięci, który byłby
na tyle ogólny, że pozwoliłby na wyjaśnianie złożonych procesów
poznawczych, takich jak myślenie, posługiwanie się językiem lub
podejmowanie decyzji. Model ACT wywodził się z modelu pamięci HAM
(human associative memory) Johna Andersona i Gordona Bowera (1973).
Anderson rozwinął jednak tę koncepcję, uwzględniając w niej nie tylko
strukturę pamięci, lecz także procesy przetwarzania informacji; miał
ambicję opisania w niej całej architektury umysłu (Anderson, 1995). Model
ACT był kilkakrotnie modyfikowany, a w najnowszej wersji pozwala na
tworzenie symulacji komputerowych (ACT* – Anderson, 1983b; ACT-R –
Anderson, 1991; Anderson, Lebiere, 1998; Taatgen, Anderson, 2008).

W swoim modelu Anderson uwzględnił podział Ryle’a (1949) na wiedzę


„że” i wiedzę „jak”, który zaaplikował w postaci rozróżnienia pamięci
deklaratywnej i proceduralnej (ryc. 4.7). Podobnie jak w modelach
sieciowych, wiedza deklaratywna jest reprezentowana w postaci struktury
węzłów i relacji między nimi. Węzły reprezentują jednostki informacji,
a relacje – powiązania między jednostkami. Anderson przyjął eklektyczny
model reprezentacji informacji: wiedza w ACT-R może mieć postać sądów,
ale również obrazów, a nawet następstwa czasowego (np. kolejności
zdarzeń, podobnie jak w teorii ram Marvina Minsky’ego; zob. podrozdz.
3.3.2).

Wiedza deklaratywna reprezentowana jest w postaci jednostek (chunks)


informacji: struktur o charakterze schematów, złożonych z centralnego
węzła (pointer) określającego kategorię, do której należy dana jednostka,
i dodatkowych węzłów, reprezentujących jej właściwości. Rycina 4.8
obrazuje przykład kodowania faktu, że „3 + 4 = 7”.
Połączenia między węzłami charakteryzują się określoną siłą związku
skojarzeniowego. Aktywacja węzła może być wywołana bezpośrednio
dzięki bodźcom pochodzącym ze środowiska albo dzięki przywołaniu
informacji z pamięci bądź pośrednio – poprzez mechanizm
rozprzestrzeniającego się pobudzenia. Każdemu elementowi wiedzy
przypisana jest pewna wartość aktywacji bazowej. Zależy ona od liczby
jego uprzednich przywołań: elementy często przywoływane są bardziej
aktywne; utrwalają się również częściej wykorzystywane połączenia
między węzłami. Aktywacja jest ograniczona pojemnością pamięci
roboczej i czasem: tylko niewielka część węzłów może być jednocześnie
aktywna, a ponadto ich aktywność szybko zanika wraz z upływem czasu.
Aktywacja determinuje zakres wiedzy dostępnej bieżącemu przetwarzaniu
(Anderson, Reder, Lebiere, 1996). O charakterze bieżącego przetwarzania
decyduje zatem z jednej strony struktura wiedzy deklaratywnej, a z drugiej
strony sprawność mechanizmu aktywacji. Pierwszy element determinuje
treść przetwarzania, a drugi jego zakres.

RYCINA 4.7. Model związków między pamięcią deklaratywną i proceduralną a pamięcią


operacyjną w ujęciu Andersona
Wiedza deklaratywna jest zapamiętywana i wydobywana za pośrednictwem pamięci operacyjnej
(roboczej). Ponowne użycie wiedzy wiąże się z jej przywołaniem do pamięci operacyjnej. Wiedza
proceduralna uruchamiana jest po stwierdzeniu dopasowania warunków jej wywołania do sytuacji
w otoczeniu. Jej stosowanie może odbywać się automatycznie, tj. bez udziału pamięci operacyjnej.
Źródło: opracowanie własne na podstawie Anderson, 1983a, 1983b.

Wiedza proceduralna reprezentowana jest w postaci reguł aplikowanych


w celu przetwarzania wiedzy deklaratywnej, a także w postaci informacji
zawartych w tzw. buforach wyspecjalizowanych modułów: wzrokowego,
słuchowego i motorycznego (Anderson, Matessa, Douglass, 1995).
Anderson opisał dość dokładnie mechanizm nabywania tej wiedzy.
Zajmiemy się nim bliżej w podrozdziale 4.3.2. Istotne jest to, że proces ten
przebiega, według niego, od jawnych deklaracji do niejawnych procedur.
W implementacji obliczeniowej ACT-R procedury opatrzone są
parametrami określającymi prawdopodobieństwo osiągnięcia
wyznaczonego celu i czas jej wykonania. System wyposażony jest również
w centralny mechanizm kontrolny, który zajmuje się aplikacją wiedzy
proceduralnej do treści zawartych w sieci semantycznej i modułach.

Przeprowadzono wiele badań poświęconych weryfikacji modelu ACT.


Skupmy się na tych, które dotyczyły problemu struktury wiedzy.
Empirycznie potwierdzono podstawowy dla modelu związek częstości
użycia wiedzy z jej późniejszą dostępnością. Częściej przywoływana
informacja jest łatwiej i szybciej dostępna, co zgadza się z hipotezą
zróżnicowanej siły połączeń w sieci semantycznej (zob. Anderson, 1976).
ACT tłumaczy również zjawisko interferencji, kiedy to jedna
z konkurencyjnych informacji pozostaje niedostępna. Wyjaśnienie oparto
na tzw. efekcie wachlarza (fan effect): połączenia odchodzące od każdego
z węzłów sieci przypominają wachlarz, szczególnie jeśli jest ich wiele.
W teorii Andersona przewiduje się, że im szerszy jest ten wachlarz, na tym
więcej połączeń rozkłada się aktywacja danego węzła. Tym samym więcej
czasu zajmie wzbudzenie odpowiedniej aktywacji innych węzłów. Innymi
słowy, czas uzyskania progowej aktywacji węzłów sąsiadujących z „X” jest
tym dłuższy, im wyższa jest liczba relacji, w jakie „X” wchodzi. Może
wówczas dochodzić do specyficznej interferencji. W warunku presji czasu
wydobyte zostają tylko najmocniej wzbudzone pojęcia, dzięki silnym
asocjacjom istniejącym w sieci (np. stół – krzesło). Inne natomiast nie
uzyskają odpowiedniego poziomu wzbudzenia, pozostaną więc
niedostępne. Interferencja w tym przypadku polega na zakłócaniu
przywołania pojęć bardziej odległych od „X”, które mogą być bardziej
adekwatne do zadania (np. potrzebne do wykonania testu odległych
skojarzeń). Zakłócenie to wywołane jest nadmiernym pobudzeniem pojęć
silnie związanych z „X”.

RYCINA 4.8. Reprezentacja jednostek informacji w ACT-R


Źródło: Anderson, 1996, s. 356.

TABELA 4.1. Zadanie leksykalne użyte w badaniach Lewis i Andersona. Opis w tekście.
Wartość podana w nawiasie obok zdań użytych w drugiej fazie eksperymentu oznacza liczbę zdań,
które dotyczyły danej osoby w pierwszej fazie.

Przykłady zdań fałszywych użytych w pierwszej fazie eksperymentu:


George Washington napisał Przygody Tomka Sawyera.
Napoleon Bonapatre pochodził z Indii.
Napoleon Bonaparte był piosenkarzem.
Napoleon Bonaparte był senatorem liberałów.
Napoleon Bonaparte posiadał ranczo.

Przykłady zdań użytych w drugiej fazie eksperymentu:


Zdania prawdziwe
Fidel Castro jest Kubańczykiem. (0)
George Washington przeprawił się przez rzekę Delaware. (1)
Napoleon Bonaparte był cesarzem. (4)

Zdania fałszywe (stare)


George Washington napisał Przygody Tomka Sawyera. (1)
Napoleon Bonapatre pochodził z Indii. (4)

Zdania fałszywe nowe


Fidel Castro był politykiem z Teksasu. (0)
George Washington jest pływakiem. (1)
Napoleon Bonaparte był komikiem. (4)

Źródło: opracowanie własne na podstawie Lewis, Anderson, 1976.


Clayton Lewis i John Anderson (1976) potwierdzili podstawowe predykcje
modelu ACT. W swoich badaniach użyli specyficznych zadań leksykalnych
(tab. 4.1). W pierwszej fazie eksperymentu osobom badanym prezentowano
serię zdań, przy czym większość z nich, związana z jednym obiektem
(Napoleon Bonaparte), miała wzbudzać szerszy wachlarz odpowiedniego
węzła sieci. W tej fazie eksperymentu inne obiekty były wzbudzane słabiej
(George Washington) albo wcale (Fidel Castro), przy czym prezentowane
zdania były fałszywe. W fazie drugiej – testowej – prezentowano zdania
prawdziwe albo fałszywe. Zadanie osób badanych polegało na weryfikacji
prawdziwości zdań. Okazało się, że czas weryfikacji zdań związanych
z danym obiektem był dłuższy w przypadku postaci, którym przypisano
więcej zdań w fazie pierwszej. Fałszywe zdania pochodzące z tej fazy
wywołały silniejszą interferencję, powodując wydłużenie czasu dostępu do
utrwalonej wiedzy.

Współcześnie przewidywania teorii ACT-R są weryfikowane w badaniach


z użyciem technik neuroobrazowania. Badania te pozwalają na
umiejscowienie procesów postulowanych w teorii ACT-R w określonych
rejonach mózgu. W podejściu tym wykorzystuje się techniki analizy
danych fMRI w oparciu o modelowanie obliczeniowe (model-based fMRI
analysis). Na przykład Jelmer Borst i John Anderson (2013) zbadali
mózgowe podstawy wydobywania wiedzy z pamięci deklaratywnej oraz
uaktualniania zawartości pamięci roboczej. Wykorzystanie modelu ACT-R
pozwoliło im na wyprowadzenie szczegółowych predykcji dotyczących
przebiegu i umiejscowienia tych procesów w mózgu. Predykcje te,
w postaci dokładnych wartości parametrów oszacowanych w trakcie
modelowania, zostały następnie zestawione z wynikami analizy fMRI.
Taka analiza pozwoliła stwierdzić, że wydobywanie materiału z pamięci
deklaratywnej jest związane z aktywacją zakrętu czołowego dolnego
i przedniej części zakrętu obręczy, natomiast aktualizacja informacji
w pamięci roboczej – z aktywacją płacika ciemieniowego dolnego oraz
z aktywacją w okolicach zakrętu czołowego dolnego i przedniej części
zakrętu obręczy.

4.3. Nabywanie wiedzy


Podobnie jak opisane wcześniej modele organizacji wiedzy są częścią
modeli struktury pamięci, nabywanie wiedzy należy do szerszej klasy
procesów zapamiętywania i uczenia się. W pierwszej kolejności dokonajmy
zatem rozróżnienia pojęć kodowania informacji, zapamiętywania i uczenia
się oraz pojęcia nabywania wiedzy. Kodowanie informacji odbywa się
w każdym z hipotetycznych magazynów pamięciowych: sensorycznym (w
formie reprezentacji odpowiadającej specyfice informacji, np. wizualnej,
akustycznej), pamięci krótkotrwałej i długotrwałej (zob. podrozdz. 8.1).
W warunkach laboratoryjnych kodowanie informacji bada się zazwyczaj
niezależnie od wewnętrznego kontekstu posiadanej wiedzy. Badania nad
kodowaniem informacji mają na celu przede wszystkim odpowiedź na
pytanie o formę reprezentacji kodowanej informacji. Zapamiętywanie
dotyczy z kolei pamięci krótkotrwałej i długotrwałej. W tym wypadku
podstawowym celem badań jest z jednej strony próba odpowiedzi na
pytanie o organizację materiału w pamięci, a z drugiej strony – o przebieg
procesów pamięciowych: zapamiętywania, przechowywania
i odpamiętywania informacji. Zarówno w badaniach nad kodowaniem, jak
i zapamiętywaniem badacze koncentrują się przede wszystkim na
sformułowaniu teorii na tyle ogólnych, aby wyjaśniały omawiane zjawiska
na poziomie formalnym (forma reprezentacji: analogowa czy
propozycjonalna należy również do formalnej charakterystyki stymulacji).
Analiza nabywania wiedzy ogranicza się do trwałego jej reprezentowania
w pamięci długotrwałej, przy czym kluczowa wydaje się jej treść,
a zwłaszcza organizowanie jej w większe struktury.

Przedstawione w podrozdziale 4.2 modele organizacji wiedzy przyjmują


założenie, że w warstwie formalnej organizacja ta jest niezależna od treści,
ale zawartość zarówno systemu wiedzy semantycznej, jak i systemu reguł
proceduralnych jest unikalna dla jednostki. Metodą nabywania wiedzy jest
oczywiście proces uczenia się, ale w wąskim jego rozumieniu. Specyfiką
tego procesu jest odniesienie nabywanych treści do posiadanej już wiedzy,
organizowanie jej w większe struktury oraz porządkowanie w postaci
abstrakcyjnych zasad.

4.3.1. Nabywanie wiedzy semantycznej


W modelach pamięci semantycznej (Collins, Loftus, 1975; Collins,
Quillian, 1969) nabywanie wiedzy polega na tworzeniu nowych węzłów
oraz łączeniu zarówno nowych, jak i istniejących węzłów za pomocą
nowych połączeń. Precyzyjniej rzecz ujmując, nowy węzeł zostaje
wbudowany w strukturę sieci poprzez powiązanie go z innymi węzłami.
Aby to mogło nastąpić, niezbędne jest utworzenie zestawu predykatów. Im
jest on większy, tym – przynajmniej potencjalnie – więcej połączeń
z innymi węzłami może zostać utworzonych. Natomiast istniejące już
węzły mogą zostać połączone ze sobą nowymi asocjacjami, również bez
dostarczenia nowej informacji z zewnątrz. Źródłem nowych połączeń,
przewidywanych w teoriach sieciowych, jest odnalezienie wspólnych
predykatów dla co najmniej dwóch węzłów.

Inaczej wyjaśniany jest proces nabywania wiedzy semantycznej w teorii


ACT-R Andersona. Jednostki wiedzy (chunks) tworzone są dzięki regułom
produkcji, aplikowanym do informacji pochodzącej ze środowiska,
a dokładnie jej reprezentacji w pamięci operacyjnej. Jest to bardzo
interesujące ujęcie nabywania wiedzy, w którym wiedza proceduralna
(reguły produkcji) służy budowaniu trwałych reprezentacji wiedzy
deklaratywnej. Anderson opisał ten proces bardzo szczegółowo, ale
wyłącznie w odniesieniu do informacji wzrokowej (Anderson i in., 1995).

4.3.2. Nabywanie wiedzy proceduralnej


Proces nabywania wiedzy proceduralnej dokładnie opisał Anderson
w swojej teorii ACT. W tym ujęciu nabywanie wiedzy proceduralnej jest
powolnym procesem przekształcania jawnej wiedzy deklaratywnej
w niejawne procedury działania. Proces ten, nazwany przez autora
proceduralizacją, zachodzi w trzech etapach: deklaratywnym,
kompilacyjnym i proceduralnym. Na pierwszym etapie jednostka
otrzymuje zestaw instrukcji, które dotyczą określonej umiejętności oraz
sposobu jej nabywania. Za pomocą tzw. ogólnych procedur
interpretacyjnych stosowanych w odniesieniu do dostarczonej wiedzy
deklaratywnej tworzone są procedury działania. Przykładowo w trakcie
nauki pisania dziecko otrzymuje zestaw informacji deklaratywnych (nazwa
litery, jej graficzne składniki, wyrazy rozpoczynające się od tej litery),
opatrzony zazwyczaj omówieniem i ilustracją sposobu zapisywania
konkretnej litery. Etap drugi – kompilacyjny – polega na ćwiczeniu reguł
dostarczonych i wygenerowanych dzięki procedurom interpretacji. Proces
ten jest wysiłkowy i podlega świadomej kontroli. Szczegółowym jego
mechanizmem jest, po pierwsze, tzw. kompozycja, polegająca na łączeniu
dwóch lub więcej procedur w jedną. Anderson uważa, że proces ten
odbywa się w pamięci roboczej, powodując początkowo znaczne jej
obciążenie. Podczas doskonalenia umiejętności pisania odrębne procedury
rysowania części składowych liter (np. „owalu” i „laseczki” w „a”
pisanym, albo innej „laseczki” i poziomej kreski w „t”) łączone są
w całości – zintegrowane procedury. W trakcie dalszej praktyki te
zintegrowane już procedury stawiania pojedynczych znaków liter łączone
są ze sobą w sposób umożliwiający pisanie wyrazów bądź ich części bez
odrywania pióra, co przyspiesza pisanie i decyduje o unikatowym
charakterze pisma jednostki (ryc. 4.9).

RYCINA 4.9. Pojęcie „wiedza proceduralna” napisane przez siedmiolatka (lewa strona)
i autorów niniejszego podręcznika (prawa strona)
Zwróćmy uwagę na sposób łączenia liter w pisowni: u osób dorosłych jest on naturalny
i zróżnicowany indywidualnie. W przypadku siedmiolatka zauważyć można niezakończony jeszcze
proces kompozycji w odniesieniu do litery „r”.
Źródło: opracowanie własne.

Drugi mechanizm kompilacji to automatyzacja, dzięki której


skomponowane w większe całości procedury (tzw. makroprodukcję)
w coraz mniejszym stopniu obciążają pamięć roboczą. Jej odciążenie wiąże
się z wyeliminowaniem udziału wiedzy deklaratywnej, przywoływanej do
pamięci roboczej w procesie wykonania danej procedury. Procedura
wykonywana jest bezpośrednio z poziomu pamięci trwałej, w której została
utrwalona.

Kompilacja prowadzi do trzech efektów: zwiększenia tempa wykonania


danej czynności, wyeliminowania pośrednictwa wiedzy deklaratywnej, a co
za tym idzie – również konieczności werbalizacji oraz połączenia wielu
kroków złożonych czynności w jedną, autonomiczną procedurę.

Ostatni etap – proceduralny – jest już automatyczny i niemal


bezwysiłkowy: pisanie, kontynuując przedstawiony już przykład, staje się
czynnością autonomiczną. Może być więc wykonywane bez kontroli
świadomości, która – uwolniona od tego ciężaru – może zostać w całości
przydzielona generowaniu zapisywanych treści. Pisanie nadal wymaga
jednak kontroli ze strony uwagi wzrokowej, o czym można się przekonać,
próbując napisać coś z zamkniętymi oczyma. Nawet jeśli się to świetnie
uda, niezbędna jest koncentracja na samej czynności pisania. Kontrola taka
jest też konieczna w przypadku wielu innych, wydawałoby się perfekcyjnie
sproceduralizowanych czynności, takich jak chodzenie czy – u wprawnych
kierowców – prowadzenie samochodu.

Proceduralizacji wiedzy towarzyszą dwa istotne zjawiska. Pierwszym jest


generalizacja, czyli uogólnianie nabywanej wiedzy proceduralnej na
szerszą klasę sytuacji. Dwuletniemu dziecku chodzenie po prostej i równej
nawierzchni w znanym mu otoczeniu może nie sprawiać problemów.
Jednak na nierównym chodniku, a nawet po zmianie rodzaju podłoża (z
prostej i gładkiej domowej podłogi na niemal równie prostą, ale szorstką
nawierzchnię alejek w parku) chodzenie staje się niebezpieczne,
jakkolwiek w trakcie nabywania wprawy umiejętność chodzenia
dostosowuje się do szerokiej klasy sytuacji. Drugim zjawiskiem
towarzyszącym proceduralizacji jest różnicowanie, polegające na
odróżnianiu warunków uruchomienia różnych procedur. Chodzi o to, aby
w zmieniającej się sytuacji uruchamiać właściwe procedury, np. różnej
„pracy ciała” podczas spaceru, biegania czy przeskakiwania kałuży.

Anderson przeprowadził szereg badań, w których uzyskał potwierdzenie


swojego modelu nabywania wiedzy. Badania te dotyczyły różnorodnych
zjawisk, takich jak: abstrahowanie ukrytych reguł (Anderson, Kline,
Beasley, 1979), rozwiązywanie problemów geometrycznych (Anderson,
1981a) i przyswajanie języków. Koncepcja ACT radzi sobie dobrze
z wieloma zjawiskami, wyjaśniając nawet typowe błędy pojawiające się
w trakcie nabywania albo używania wiedzy proceduralnej. Anderson
podaje wiele przykładów tego typu, jak stosowanie niewłaściwych reguł
gramatycznych w trakcie nabywania języka (np. w celu wyrażenia czasu
przeszłego w języku angielskim dodawanie przyrostka -ed do każdego
czasownika) jako efekt generalizacji przy braku różnicowania.

Dodatkowo badania z użyciem fMRI pozwoliły stwierdzić, że


automatyzacja wiąże się ze zmianą wzorca aktywacji struktur mózgowych,
które odpowiadają za wykonywanie nabywanej czynności. Yulin Qin
i współpracownicy (2003) wykazali, że nabywanie wprawy
w rozwiązywania równań matematycznych wiąże się ze spadkiem
aktywacji struktur umiejscowionych w korze przedczołowej,
odpowiadających za wydobywanie informacji z pamięci deklaratywnej
i utrzymywanie informacji w pamięci roboczej. Potwierdzono w ten sposób
hipotezę, że automatyzacja łączy się z uwolnieniem zasobów
pamięciowych, które mogą zostać przeznaczone na wykonywanie innych
procesów poznawczych.

Proceduralizacja może wiązać się z utratą wiedzy deklaratywnej, np.


w przypadku pamiętania często wybieranego numeru telefonu4, którego
deklaratywne odtworzenie jest możliwe dopiero w trakcie wykonania
czynności jego wykręcenia albo wystukania. Podobnie niektórym ludziom
zdarza się zapomnieć jakąś zasadę ortograficzną, więc posiłkują się
napisaniem słowa, ufając swojej wiedzy proceduralnej. Mechanizm
nabywania wiedzy ujęty w ramach ACT ma jednak co najmniej jedną
poważną wadę. Nie uwzględnia mianowicie sytuacji uczenia się bez
instrukcji werbalnych, jak np. w nauce chodzenia, które niewątpliwie ma
charakter proceduralny. Dziecko ucząc się chodzić, nie może skorzystać
z instrukcji werbalnych, trudno bowiem zdeklaratywizować tę wiedzę
proceduralną, a nawet gdyby było to możliwe, dziecko i tak nie mogłoby
jeszcze zrozumieć wydawanych mu poleceń.
4.3.3. Nabywanie wiedzy niejawnej
Z problemem nabywania wiedzy proceduralnej bez pośrednictwa wiedzy
deklaratywnej lepiej radzą sobie koncepcje nabywania wiedzy niejawnej.
W podrozdziale 4.1.2 opisane zostały dwie grupy koncepcji, a zarazem
dwie tradycje badania tego rodzaju wiedzy. Teraz przyjrzyjmy się temu, jak
w ich ramach wyjaśniany jest proces nabywania wiedzy.

Reber (1967) uznał, że wiedza niejawna nabywana jest na drodze uczenia


się mimowolnego, rozumianego jako proces poznawczy, w wyniku którego
jednostka, niezależnie od świadomych intencji, nabywa wiedzę niejawną na
temat skomplikowanej struktury środowiska. Spośród definicyjnych cech
uczenia się mimowolnego jedna dotyczy nabywania wiedzy, a mianowicie,
że proces ten odbywa się niezależnie od świadomej kontroli ze strony
jednostki (Reber, 1989) albo bez udziału wiedzy werbalnej o wszystkich
nabywanych regułach (Underwood, Bright, 1996).

W poznawczym modelu wiedzy ukrytej, według Sternberga


i współpracowników (2000), przewidziano dwie drogi nabywania wiedzy
proceduralnej (ryc. 4.10). Pierwsza podobna jest do mechanizmu
proceduralizacji z teorii ACT Andersona. Polega na transformacji
otrzymanej jawnej wiedzy o procedurach w „milczącą” wiedzę
proceduralną. W kontekście zawodowym chodzi o rozmaite treningi,
szkolenia czy coaching, w ramach których ćwiczone są pewne
umiejętności. Wiedza ta zyskuje postać proceduralną, ale nabywana jest
w sposób jawny i nie pochodzi z osobistego doświadczenia. Druga droga
polega na niejawnym uczeniu się reguł proceduralnych. Wiedza ta ma
postać niejawną i nabywana jest na podstawie osobistych doświadczeń. Ma
też zdecydowanie praktyczny charakter. Wiedza ta zwykle nie podlega
werbalizacji i deklaratywizacji, choć jest to możliwe. Zazwyczaj pozostaje
ukryta, często z korzyścią dla szybkości i adekwatności jej użycia. Każda
z tych dwóch ścieżek zasila w wiedzę odpowiednie magazyny pamięciowe.
Pierwsza ścieżka, obejmująca otrzymaną wiedzę deklaratywną, wiąże się
z angażowaniem pamięci semantycznej, natomiast druga – z kodowaniem
doświadczenia w pamięci epizodycznej. Ostatecznie na nasze zachowanie
mogą mieć wpływ różne rodzaje wiedzy: jawna wiedza semantyczna
i epizodyczna oraz niejawna wiedza proceduralna.

RYCINA 4.10. Schemat działania wiedzy ukrytej według Sternberga


Ścieżka A odpowiada nabywaniu wiedzy w wyniku osobistego doświadczenia. Ścieżka B dotyczy
nabywania wiedzy w trakcie szkoleń. W obu przypadkach wiedza jest zapisywana w pamięci
deklaratywnej (epizodycznej lub semantycznej). Ścieżka C odpowiada nabywaniu wiedzy
proceduralnej w wyniku łącznego działania wiedzy otrzymanej i osobistego doświadczenia. Jest to
najbardziej skuteczny sposób nabywania kompetencji zawodowych.
Źródło: opracowanie własne na podstawie Sternberg, 2000.

Badania wykonane w zespołach Sternberga i Wagnera prowadzone były


głównie w kontekście wiedzy zawodowej. Przykładowo Sternberg
i współpracownicy (1993) poddali badaniom eksperymentalnym proces
nabywania wiedzy w grupie handlowców, dostarczając im różnych
wskazówek wspomagających nabywanie wiedzy ukrytej. Osoby badane
wcielały się w rolę menedżerów HR (zajmujących się zarządzaniem
personelem). Pozostając w tej roli, na podstawie stenogramów rozmowy
kwalifikacyjnej mieli ocenić trzech kandydatów na stanowisko handlowca.
Pierwsza grupa otrzymywała wskazówki wspomagające selektywne
kodowanie informacji. Dokonano tego, wyróżniając istotne informacje
w stenogramie i precyzując szczegółowo reguły rekrutacji. Wskazówki
przekazane drugiej grupie wspomagały z kolei selektywne łączenie
informacji. Oprócz wyróżnienia istotnych elementów w stenogramie
i sprecyzowania reguł rekrutacji badani otrzymywali specjalne arkusze
oceny, pozwalające na łączenie ze sobą istotnych informacji. Trzecia grupa
otrzymywała wskazówki dotyczące selektywnego porównywania
informacji. Ponownie informacja istotna w stenogramie była wyróżniona,
jeszcze raz sprecyzowano reguły rekrutacji, a dodatkowo osoby badane
otrzymywały oceny kandydatów dokonane przez innych handlowców.
Ponieważ zadanie oceny kandydatów było wykonywane między pretestem
i posttestem wiedzy ukrytej dotyczącej sprzedaży, w badaniach dodatkowo
udział wzięły dwie grupy kontrolne. Pierwsza wykonywała dwukrotnie test
wiedzy ukrytej bez zadania rekrutacyjnego („czysty” wpływ powtórzonego
pomiaru), natomiast druga wykonywała zadanie rekrutacyjne, ale bez
jakichkolwiek wskazówek. Okazało się, że wykonanie zadania
rekrutacyjnego, nawet bez wskazówek, wpłynęło pozytywnie na przyrost
wiedzy ukrytej: we wszystkich grupach był on większy niż w pierwszej
grupie kontrolnej. Wskazówki dotyczące selektywnego kodowania
i selektywnego łączenia najsilniej wpływały na przyrost wiedzy ukrytej.
Nie stwierdzono natomiast istotnego wpływu wskazówek dotyczących
selektywnego porównywania. Wyniki te są istotne nie tylko
w perspektywie nabywania wiedzy ukrytej, lecz także tzw. inteligencji
praktycznej. Wydaje się, że korzystanie z „podpowiedzi” innych osób
(czyli ocen innych menedżerów HR) nie prowadzi do przyrostu wiedzy
ukrytej najprawdopodobniej dlatego, że nie wymaga głębokiego
przetworzenia dostarczonych informacji. Pozostałe dwa rodzaje
podpowiedzi, czyli jak selekcjonować i łączyć informacje, nie są gotowymi
rozwiązaniami, ale – przy głębokim przetwarzaniu – nie dość, że
skutecznie pomagają osiągnąć cel (trafny wybór kandydata), to dodatkowo
wspierają nabywanie wiedzy niejawnej.

Różnice w nabywaniu wiedzy deklaratywnej i niejawnej można lepiej


zrozumieć dzięki współczesnym badaniom mózgowych podstaw
nabywania wiedzy. Nabywanie wiedzy deklaratywnej wiąże się
z aktywacją struktur korowych w środkowej części płata skroniowego
(medial temporal lobe, MTL), przede wszystkim hipokampa, jak również
struktur sąsiednich (Reber, 2013; Squire, Zola, 1996). Jeśli chodzi
o nabywanie wiedzy niejawnej, przywoływane wcześniej badania
z użyciem techniki fMRI pokazują związek między tym procesem
a spadkiem aktywności w korze wzrokowej, kodującej bodźce używane
w zadaniu (Reber i in., 2003). Ale, co może ważniejsze, badania fMRI
wykazały również wyraźne zaangażowanie struktur podkorowych w proces
nabywania wiedzy niejawnej. Szczególną rolę odgrywa tu prążkowie, które
jest związane z kontrolą ruchu i procesów motywacyjnych. W badaniach
fMRI nad uczeniem mimowolnym prowadzonych z wykorzystaniem
paradygmatu uczenia się sekwencji (Rauch i in., 1997) stwierdzono, że
nabywanie wiedzy niejawnej jest związane ze wzrostem aktywności
właśnie w strukturach prążkowia – jądrze ogoniastym i skorupie.
Świadczyć to może o tym, że korzystanie z wiedzy niejawnej jest
zjawiskiem ewolucyjnie starszym i bardziej pierwotnym w stosunku do
relatywnie nowego „nabytku” ewolucyjnego w postaci wiedzy
deklaratywnej.

4.4. Wiedza ekspercka

4.4.1. Kryteria i właściwości wiedzy eksperckiej


Wiedza ekspercka (expert knowledge) – wiedza obszerna, pogłębiona, ograniczona do jakiejś
konkretnej dziedziny. Obejmuje nie tylko wiedzę deklaratywną, lecz także specyficzne schematy
rozwiązywania problemów. Cechuje się szczególnie dobrą organizacją, a niekiedy również wysokim
stopniem proceduralizacji.

Tym, co wyróżnia wiedzę ekspercką, jest rzecz jasna jej zakres w pewnej
domenie: ekspert ma bardzo obszerną wiedzę, ale jest ona ograniczona do
pewnej dziedziny. Arystoteles, autor dobrze znanego psychologom traktatu
O duszy, zajmował się również medycyną, etyką, polityką, fizyką,
matematyką i różnymi innymi dziedzinami wiedzy. W wielu z nich
niewątpliwie był ekspertem. Dziś, ze względu na gwałtowny przyrost
szczegółowej wiedzy, trudno byłoby być ekspertem w całym obszarze
choćby tylko jednej z tych dyscyplin. Współcześni eksperci są wąsko
wyspecjalizowani, a mimo to rzadko wnoszą do dorobku ludzkości
cokolwiek, co mogłoby się równać z dokonaniami Arystotelesa. Nie tylko
zatem zakres wiedzy decyduje o poziomie ekspertywności, jeśli uznać
ekspertów również za innowatorów w swojej domenie. Obszerna wiedza
może być nawet przeszkodą, np. w rozwiązywaniu problemów
nietypowych lub nowych. Na przykład Albert Einstein twierdził, że brak
formalnego wykształcenia w zakresie fizyki ułatwił mu sformułowanie
ogólnej teorii względności. Co zatem wyróżnia ekspertów? Michelene Chi,
Robert Glaser i Marshall Farr (1988) sformułowali siedem charakterystyk
ekspertywności (expertise):
1. eksperci są najlepsi w swojej dziedzinie;

2. eksperci dostrzegają wzorce czy struktury charakterystyczne dla


problemów specyficznych dla ich dziedziny;
3. eksperci są szybsi niż nowicjusze w zastosowaniu umiejętności (skills)
z ich dziedziny, szybciej rozwiązują problemy, popełniając przy tym
mniej błędów;
4. eksperci wykazują ponadprzeciętną sprawność pamięci krótko-
i długotrwałej;

5. eksperci postrzegają i reprezentują problem z ich domeny na głębszym


poziomie niż nowicjusze, którzy reprezentują problem na poziomie
cech powierzchniowych;
6. eksperci poświęcają więcej czasu niż nowicjusze jakościowej analizie
problemu;
7. eksperci cechują się zdolnością refleksji nad własnymi działaniami
(self-monitoring).

Z przedstawionych charakterystyk wiedzy dotyczą bezpośrednio punkty 2.


i 4. Dostrzeganie wzorców czy struktur w otoczeniu (np. problemie) nie
jest możliwe bez głębokiej i obszernej wiedzy w danej dziedzinie. Wymaga
jednak dodatkowego procesu zestawiania owych przechowywanych
wzorców z sytuacją w otoczeniu. Z kolei pamięć jest „miejscem”
przechowywania wiedzy, chociaż znajdują się w niej również informacje,
których do wiedzy nie zaliczamy (np. efekty warunkowania
i poprzedzania). Inne charakterystyki wiedzy eksperta odnoszą się przede
wszystkim do sposobów reprezentowania i rozwiązywania problemów:
poziomu reprezentacji problemu, jego analizy, efektywności poszukiwania
rozwiązań i monitoringu tego procesu. Współcześnie częściowo
podważono niektóre z przedstawionych charakterystyk wiedzy eksperta
(zob. Robertson, 2001), jednak nie na tyle, aby choć jedną odrzucić. W tym
miejscu zajmiemy się tym, co – poza zakresem – charakteryzuje i wyróżnia
wiedzę eksperta.

Pierwszą właściwością wyróżniającą wiedzę eksperta jest jej organizacja.


Wiedza eksperta jest uporządkowana na wielu poziomach: od poziomu jego
elementarnych składników wiedzy po wyabstrahowane struktury wyższego
rzędu (np. Adelson, 1984). Struktura takiej wiedzy jest hierarchiczna
w danej domenie (np. Chan, 1997), co daje ekspertowi znaczącą przewagę
nad nowicjuszami, szczególnie wówczas, gdy jej ścisłe uporządkowanie
jest trudne bądź arbitralne. Colleen Zeitz (1997) twierdzi, że dominującym
poziomem reprezentacji wiedzy ekspertów jest umiarkowanie abstrakcyjna
reprezentacja pojęciowa (moderately abstract conceptual representation).
Autorka jest zdania, że zbyt abstrakcyjna reprezentacja wiedzy
powodowałaby jej nikłą praktyczną użyteczność, ogólne reguły bowiem
rzadko są możliwe do użycia bez ich dopasowania do konkretnej sytuacji.
Na przykład mało praktyczna byłaby znajomość wzorów matematycznych
bez wiedzy o warunkach ich stosowania. Z kolei wiedza zbyt konkretna
(np. o setkach przypadków rozwiązania jakiegoś problemu
dywergencyjnego) byłaby mało ekonomiczna i słabo podatna na transfer.
Wyższy niż konkretny poziom organizacji wiedzy pozwala na znaczną
elastyczność działania. Kenneth Koedinger i John Anderson (1990)
wykazali, że eksperci w rozwiązywaniu problemów w zakresie geometrii
nie posługują się konkretnym algorytmem, ale bardziej abstrakcyjnym
planem (heurystyką) działania. Dzięki temu mogą np. pominąć pewne
etapy przewidziane w algorytmie. Uporządkowanie wiedzy na różnych
poziomach abstrakcji pozwala na niezwykle szybki dostęp do niej. Jeśli
zadanie tego wymaga, eksperci operują na poziomie detali, a innym razem
– na poziomie ogólnych zasad i reguł działania. Elastyczny i szybki dostęp
do wiedzy niewątpliwie wspomaga rozwiązywanie zarówno rutynowych,
jak i nowych problemów.

Jest jeszcze jedna zaleta „upakowania” wiedzy na różnych poziomach


ogólności. Przywołanie i przetwarzanie zbyt wielu elementów wiedzy
wiązałoby się niewątpliwie z przeciążeniem mało pojemnej pamięci
roboczej. W takiej sytuacji użycie informacji w bardziej abstrakcyjnej
formie (na wyższym poziomie organizacji) pozwala te ograniczenia
ominąć. Dlatego eksperci wykonują szybko i sprawnie zadania, które
laikom wydają się niewykonalne, np. w ciągu kilku sekund zapamiętują
układ wielu figur na szachownicy. Badania nad ekspertami szachowymi
należą już do klasyki psychologii. Zapoczątkowali je William Chase
i Herbert Simon (1973a, 1973b), badając organizację wiedzy w pamięci
ekspertów i laików. Obu grupom prezentowano układ figur na
szachownicy, który był albo zupełnie losowy, albo pochodził z rzeczywistej
rozgrywki. Okazało się, że w pierwszym warunku poziom odpamiętania
zaprezentowanego układu nie różnił się istotnie w obu grupach. Eksperci
i laicy odtwarzali poprawnie nie więcej niż kilka pozycji układu. W drugim
warunku jednak poziom odpamiętania układu na szachownicy znacznie się
różnił w obu grupach: eksperci odtwarzali prawidłowo więcej pozycji figur
niż laicy. W badaniach Adriaana de Groota (1965) okazało się, że różnice
w tego rodzaju zadaniu występują również między mistrzami i „zwykłymi”
ekspertami szachowymi. Ci pierwsi poprawnie rekonstruowali układ figur
na szachownicy w 91%, podczas gdy „zwykli” eksperci osiągnęli 41%
poprawności.

Wyniki te wskazują na dwie istotne właściwości funkcjonowania


poznawczego ekspertów. Po pierwsze, łatwość odtwarzania sensownych
układów figur na szachownicy wskazuje na większą, ale też gotową do
elastycznego wykorzystania wiedzę ekspertów. Chase i Simon tłumaczyli
przewagę ekspertów w tym warunku pamiętaniem układów pochodzących
z wielu partii szachowych. Wiedza ta pozwalała im na kodowanie
prezentowanych układów, bądź ich części, jako zintegrowanych całości.
W przypadku układów losowych była ona jednak bezużyteczna. Po drugie,
brak różnic między ekspertami i laikami w tym właśnie warunku wskazuje
na brak szczególnych predyspozycji pamięci roboczej, których można było
się spodziewać wśród ekspertów. Ich pamięć wydaje się funkcjonować
podobnie jak u laików, a przewaga w jej wykorzystaniu wynika z innej
organizacji informacji kodowanej i przechowywanej w pamięci roboczej.

Fernand Gobet i Herbert Simon (1996a, 1996b, 1996c), korzystając m.in.


z przywołanej metody, poddali serii badań mistrzów szachowych.
Stwierdzili (Gobet, Simon, 1996c), że mistrzowie mogą odtworzyć do
dziewięciu partii z 70-procentową poprawnością (ok. 160 pozycji figur).
Niewątpliwie wyniku tego nie można wyjaśnić, odwołując się wyłącznie do
mechanizmów pamięci roboczej. Autorzy zasugerowali, że eksperci
korzystają w swojej dziedzinie z szablonów zawartych w pamięci
długotrwałej, które pozwalają na kodowanie i przechowywanie informacji.
K. Anders Ericsson i Walter Kintsch (1995) zaproponowali nawet szerszą
koncepcję tzw. długotrwałej pamięci roboczej (long-term working memory)
powiązanej z efektywnością pamięci i poziomem ekspertywności (zob.
podrozdz. 8.2.5). Według autorów eksperci przechowują napływające
informacje związane z ich domeną raczej w pamięci długotrwałej niż
krótkotrwałej. Mechanizm tego zjawiska opiera się na powiązaniu
napływającej informacji z zestawem wskazówek wydobycia, które
wspólnie tworzą tzw. strukturę wydobycia (retrieval structure).
Aktywacja tych wskazówek powoduje przynajmniej częściowe
odtworzenie oryginalnych warunków kodowania. W ten sposób obszerny
materiał może zostać wydobyty, jednak jest to możliwe wtedy, gdy osoba
dysponuje wiedzą ekspercką w zakresie kodowanego materiału i materiał
ten jest jej dobrze znany. Wydaje się zatem, że pamięć ekspertów
funkcjonuje najzupełniej przeciętnie poza ich domeną, mimo to w obrębie
specjalizacji, jaką reprezentują, wykazuje ponadprzeciętną sprawność (Chi
i in., 1988). Jej źródła nie tkwią jednak w formalnych mechanizmach
funkcjonowania systemów pamięci, lecz w efektywności ich wykorzystania
wynikającej z zakresu i organizacji wiedzy eksperckiej.

Drugim czynnikiem wyróżniającym wiedzę ekspercką jest stopień jej


proceduralizacji. Czynnik ten jest oczywisty u ekspertów takich jak
mechanicy samochodowi, którzy muszą wiedzieć, gdzie posłuchać, aby
usłyszeć, i gdzie posmarować, aby auto pojechało. Ich wiedza ma głównie
proceduralny charakter, jednak z jej nabywaniem, jak je rozumie Anderson
w kontekście teorii ACT-R, nie dochodzi do utraty dostępu do wiedzy
deklaratywnej. Dzięki temu rośnie sprawność wykonania procedur przy
utrzymaniu zdolności ich werbalizacji (niezbędne w rozmowie z klientem
warsztatu, jak również w przekazywaniu wiedzy młodszym kolegom).
Proceduralizacja charakteryzuje również inne rodzaje wiedzy eksperckiej,
np. filozoficznej. Dowodzenie twierdzeń, retoryka, selektywne i krytyczne
czytanie tekstów innych autorów i pisanie własnych – to czynności
umysłowe w dużej mierze sprowadzające się do posiadania złożonych
procedur i sprawnej ich realizacji. Pisząc o procedurach, mamy na myśli
wiedzę nabytą dwoma sposobami: dzięki proceduralizacji w rozumieniu
Andersona i z doświadczenia w rozumieniu Sternberga. W pierwszym
przypadku wiedza ta wywodzi się z wiedzy deklaratywnej, a jej nabywanie
wymaga stopniowego przekształcania jednej wiedzy w drugą. Druga droga
nie wymaga gromadzenia wiedzy deklaratywnej, a już na pewno nie jest
ona konieczna do nabywania procedur.
Trzecim czynnikiem charakterystycznym dla wiedzy eksperckiej są
schematy rozwiązywania problemów specyficznych dla danej dziedziny
wiedzy. Przyjmuje się, że schematy zawierają abstrakcyjną wiedzę
pozbawioną kontekstu, w którym została ona pozyskana (zob. Roberts,
2001). Dzięki temu schematy stosunkowo łatwo podlegają transferowi
między różnymi kontekstami. Z kolei David Leake (1998) twierdzi, że
schematy to gotowe sposoby rozumowania opartego na przypadkach (case-
based reasoning). Ich stosowanie wymaga zgromadzenia wiedzy
dotyczącej skutecznych rozwiązań konkretnych problemów wraz
z heurystykami, które do nich prowadzą (zob. Anderson, 1982). Wiedza ta
jest zestawiana z właściwościami bieżącego problemu, a po stwierdzeniu
ich dopasowania do któregoś z posiadanych schematów, jest on
aplikowany. Jeszcze węższe rozumienie schematów proponują Patricia
Cheng i Keith Holyoak (1995), twierdząc, że eksperci stosują tzw.
pragmatyczne schematy wnioskowania. Są one ograniczone do
konkretnych typów problemów, dlatego z trudem poddają się generalizacji.
Ich zaletą jest szybkość aplikacji w konkretnej sytuacji, nie wymagają
bowiem opracowania strategii działania na podstawie abstrakcyjnych reguł.
Zamiast tego stosowany jest konkretny przepis, wcześniej wielokrotnie
sprawdzony.

Dobrze znany efekt eksperta, polegający na większej sztywności


ekspertów w rozwiązywaniu nierutynowych problemów, wskazywałby
jednak na bardziej konkretny poziom reprezentacji schematów. Gdyby były
one abstrakcyjne, ekspert musiałby każdorazowo odnieść dany schemat do
kontekstu i wypracować konkretny sposób jego aplikacji. W tej sytuacji
eksperci byliby zawsze bardziej efektywni i elastyczni niż laicy. Ci ostatni,
nie posiadając abstrakcyjnych schematów, mogliby ewentualnie korzystać
z wiedzy ogólnej (co oznacza niską efektywność) albo z konkretnych
przykładów z danej dziedziny (co wiąże się z małą elastycznością). Tak
jednak nie jest, eksperci bowiem popełniają niekiedy nawet więcej błędów
w swojej domenie niż nowicjusze (Frensch, Sternberg, 1989; Reason,
1990). Peter Frensch i Robert Sternberg uważają, że źródłem tego efektu
jest zjawisko automatyzacji. Automatyzacja prowadzi do uwolnienia
zasobów systemu poznawczego. Wiedza zostaje „skompilowana” i – jak
w modelu ACT Andersona (1987) – przestaje być dostępna świadomości.
Rozpoznanie problemu jako rutynowego powoduje uruchomienie
skompilowanych schematów działania realizowanych przy braku kontroli.
Jeśli jednak rozpoznanie to jest błędne, tj. kiedy problem różni się od
rutynowego, działanie eksperta nie będzie do niego dopasowane. To z kolei
może prowadzić do błędów albo usztywnienia się w próbach
bezskutecznego stosowania niedopasowanych schematów. Dopiero
redefinicja problemu jako nowego powoduje podjęcie prób wytworzenia
nowego schematu.

Z kolei w problemach rutynowych eksperci wykazują większą niż


nowicjusze elastyczność (np. Feltovitch, Johnson, Moller, Swanson, 1984;
ramka 4.1). Polega ona na zdecydowanie lepszym niż u nowicjuszy
dopasowaniu danych sytuacyjnych do posiadanych schematów
poznawczych. Oznacza to zwykle bardziej trafną kategoryzację problemów,
a co za tym idzie – zastosowanie odpowiednich strategii ich
rozwiązywania. Zauważmy, że w przypadku problemów nierutynowych ten
sam mechanizm może wyjaśniać omawiany wcześniej efekt eksperta.
Nieprawidłowa kategoryzacja problemu prowadzi do zastosowania
niewłaściwej strategii. Ekspert, dysponując wielkim bogactwem sposobów
kategoryzacji, może wielokrotnie wpadać w pułapkę „rutyny”. Będzie
wówczas próbował wciąż innych, ale zawsze nieskutecznych sposobów
działania, zanim dostrzeże – jeśli w ogóle to się stanie – że problem nie jest
jednak rutynowy, zatem wymaga myślenia twórczego, a nie odtwórczego.
Michelene Chi, Robert Glaser i Ernest Rees (1982) twierdzą, że
elastyczność w rozwiązywaniu problemów, które są rutynowe, wynika
z większej liczby bardziej wyspecjalizowanych schematów poznawczych
(czyli wiedzy proceduralnej), którymi dysponują eksperci.

RAMKA 4.1

Elastyczność wiedzy ekspertów


Nowsze badania nad ekspertami koncentrują się nie tylko na szachistach.
Ekspertywność bada się w wielu różnych domenach, np. w medycynie
(Feltovitch i in., 1984; Lesgold, Rubinson, Feltovich, Glaser, Klopfer,
1988), fizyce (Chi, Feltovitch, Glaser, 1981), informatyce (McKeithen,
Reitman, Rueter, Hirtle, 1981).

Paul Feltovitch i współpracownicy (1984) przedstawili lekarzom –


ekspertom i nowicjuszom – problem diagnostyczny w postaci listy
symptomów. Symptomy zostały tak dobrane, że łatwo mogły prowadzić
do błędnej diagnozy. Nowicjusze stawiali ją częściej niż eksperci.
Ponadto w większym stopniu opierali się na otrzymanej liście, nie
uwzględniając dodatkowego źródła informacji – wywiadu z pacjentem.
Eksperci, dostrzegając możliwość błędnej diagnozy, opartej na
symptomach, poszukiwali dodatkowych informacji, które pozwoliłyby
im kolejno odrzucać alternatywne hipotezy. Autorzy (zob. też Feltovitch,
Spiro, Couson, 1997) wyjaśniają te rezultaty lepszą organizacją
i większa elastycznością wiedzy ekspertów w porównaniu z wiedzą
laików. Elastyczność wynika w tym wypadku z większego bogactwa
i zróżnicowania schematów poznawczych (zob. Chi i in., 1982)
stosowanych w odniesieniu do diagnozy medycznej. Dzięki nim
możliwe jest precyzyjne rozróżnianie chorób na podstawie większej
liczby wskazówek branych pod uwagę w podejmowaniu decyzji.
Eksperci medyczni wykazują również szczególną wrażliwość na dane,
które nie pasują do schematu, co sugeruje raczej przyjmowanie strategii
falsyfikacji niż konfirmacji hipotez (zob. podrozdz. 10.6.2).

Podobne wnioski płyną z badań Alana Lesgolda (Lesgold i in., 1988),


w których udział wzięli eksperci w zakresie radiologii. Zaprezentowano
im zdjęcia rentgenowskie pacjenta, któremu przed dziesięciu laty
usunięto fragment płuca. W efekcie przesunięciu uległy inne organy
wewnętrzne. Początkowo eksperci postawili hipotezę „zapaści płuca”,
odnajdując na zdjęciu zarówno informacje zgodne z nią, jak i sprzeczne.
Następnie przyjęli hipotezę „usunięcia fragmentu płuca”, którą testowali
tak jak hipotezę pierwszą. Na podstawie szczegółowej analizy
protokołów werbalnych autorzy sformułowali model opisujący przebieg
procesu formułowania diagnozy w grupie badanych przez nich
ekspertów. Początkową jego fazą byłoby budowanie umysłowej
reprezentacji sytuacji. Każdemu z możliwych wariantów diagnozy
odpowiada specyficzny „pretest”, który musi być pozytywny, aby dalej
szczegółowo analizować daną możliwość. W języku teorii modeli
mentalnych (zob. podrozdz. 10.7.2) można by powiedzieć, że dla
każdego wariantu diagnozy budowany jest odrębny model umysłowy.
Ponieważ tylko jeden z nich może być właściwy, w dalszych fazach
poszukuje się informacji zgodnych i niezgodnych z każdym. Różnym
wariantom, które przejdą fazę „pretestu”, opowiadają schematy diagnozy
wymagające sprawdzenia większej bądź mniejszej liczby hipotez. Są one
stosowane aż do momentu, kiedy wszystkie alternatywne warianty, poza
jednym, zostaną odrzucone.
Pomocne w zrozumieniu różnic między ekspertami a nowicjuszami są
również badania psychofizjologiczne z użyciem okulografii
i elektroencefalografii (EEG). Potwierdzają one, że większa sprawność
ekspertów jest ograniczona do dziedziny, w której są ekspertami (Bilalić,
Langner, Erb, Grodd, 2010). Dodatkowo badania te pokazują, że różnice
między ekspertami a nowicjuszami w organizacji wiedzy ujawniają się już
na wczesnych etapach przetwarzania informacji. Na przykład Michael
Wright i współautorzy (Wright, Gobet, Chassy i Ramchandani, 2013)
w badaniu z użyciem EEG wykazali, że eksperci szachowi lepiej niż
nowicjusze rozpoznają wzorce ułożenia figur na szachownicy. Ponadto ta
przewaga jest związana z większą amplitudą potencjałów N2 i P3
w odpowiedzi na prezentowane ułożenia figur szachowych – potencjały te
pojawiają się w sygnale EEG odpowiednio 200 i 300 ms po prezentacji
bodźca. Sugeruje to, że procesy uwagowe, których wskaźnikami są
potencjały N2 i P3, pomagają klasyfikować ekspertom postrzegane bodźce
jako znaczące już na bardzo wczesnym etapie przetwarzania informacji.
Podobnie, Merim Bilalić i współpracownicy (2010), analizując ruchy gałek
ocznych, wykazali, że eksperci szachowi zwracają uwagę na znaczące
układy figur już na etapie percepcji bodźców. Ci sami autorzy dowiedli też
za pomocą techniki fMRI, że przewaga ekspertów szachowych nad
nowicjuszami jest związana z silniejszą aktywacją obszarów w płacie
skroniowym, przede wszystkim bruzdy pobocznej w prawej półkuli.
Obszary te odpowiadają za rozpoznawanie złożonych wzorców (pattern
recognition), co może sugerować, że eksperci szachowi cechują się
lepszym „czytaniem” sytuacji na szachownicy.

Wydaje się zatem, że wiedza ekspertów różni się od wiedzy laików nie
tylko „ilościowo” (np. większy zakres wiedzy, wyższy stopień
proceduralizacji), lecz także „jakościowo” (np. inna organizacja wiedzy,
wyspecjalizowanie schematów poznawczych). Jakościowo odmienne są
również sposoby korzystania z tej wiedzy, zapewniające wysoką
skuteczność przy zachowaniu elastyczności rozwiązywania problemów
w dziedzinie specjalizacji (np. przyjmowanie strategii falsyfikacji, a nie
konfirmacji hipotez, zob. podrozdz. 10.6.2).

4.4.2. Nabywanie wiedzy eksperckiej


Interesujące wyjaśnienie mechanizmu nabywania wiedzy eksperckiej
zaproponował Robert Glaser (1996). Jego model obejmuje trzy stadia
nabywania wiedzy eksperckiej: etap wsparcia zewnętrznego (external
support), etap przejściowy (transitional) i etap samoregulacji (self-
regulatory). Na pierwszym etapie nowicjusz otrzymuje wsparcie od osób
mających obszerną wiedzę, którymi mogą być rodzice, nauczyciele czy
mistrz. Oni pomagają w uporządkowaniu wiedzy o otoczeniu (czy
domenie), w ten sposób wspomagając jej nabywanie. Zbudowane tą
metodą „rusztowanie” (scaffolding) jest na etapie przejściowym stopniowo
wypełniane treścią. Początkujący ekspert rozwija umiejętności
monitorowania i regulacji własnych czynności oraz identyfikuje kryteria
coraz wyższego poziomu wykonywania zadań w danej dziedzinie. Na
ostatnim etapie ekspert zyskuje pełną kontrolę nad procesem nabywania
wiedzy i wykonywaniem różnych zadań w obrębie danej domeny. Nie
wyklucza to jednak dalszego udziału innych osób albo korzystania
z różnych źródeł informacji, jeśli ekspert zidentyfikuje luki lub
uproszczenia w posiadanej wiedzy i umiejętnościach. Niemniej istotą
ekspertywności jest samoregulacja w zakresie korzystania z wiedzy
i umiejętności oraz dalszego ich doskonalenia.
Inny model nabywania wiedzy eksperckiej zaproponowali Robert
Schumacher i Mary Czerwinski (1992). Odnosi się on do budowania
reprezentacji złożonych systemów, takich jak systemy komputerowe.
Autorzy również ujmują nabywanie ekspertywności jako proces składający
się z trzech faz. Pierwsza – przedteoretyczna (pretheoretical) – angażuje
wydobywanie przykładów z pamięci opartych na powierzchniowym
podobieństwie cech danej sytuacji i tych przywołań. Dzięki skorelowaniu
cech powierzchniowych i głębokich możliwe staje się odkrycie związków
przyczynowych obowiązujących w systemie. Na tym polega druga –
doświadczeniowa (experiential) – faza nabywania wiedzy eksperckiej:
pojawiają się w niej abstrakcyjne reprezentacje wiedzy, pochodzące
z doświadczenia dotyczącego wielu przykładów. W ostatniej – eksperckiej
(expert) – fazie możliwe jest dokonywanie abstrakcji na jeszcze wyższym
poziomie. Chodzi o wiedzę pochodzącą z różnych systemów. Dopiero na
tym poziomie można mówić o możliwości transferu wiedzy, np. na
działanie nowego systemu, wyabstrahowane reguły powinny bowiem
obowiązywać w każdym z nich.

Osobny problem w kontekście nabywania wiedzy eksperckiej i wprawy


dotyczy tego, czy sama intensywność i długość procesu uczenia wystarczy,
by wyjaśnić wyjątkowe funkcjonowanie ekspertów. Wcześniejsze analizy
(Ericsson, Krampe, Tesch-Römer, 1993) sugerowały, że długość
i intensywność procesu nabywania wiedzy eksperckiej są jedynym
determinantem jej poziomu. Nowsze analizy sugerują jednak, że wysokiego
poziomu ekspertywności nie sposób wyjaśnić, odwołując się jedynie do
intensywności procesu nabywania wiedzy. Istotną rolę odgrywają w tym
kontekście również takie czynniki, jak wiek rozpoczęcia procesu nauki,
inteligencja, osobowość i podłoże genetyczne (Hambrick i in., 2014).
4.5. Podsumowanie
Nie może istnieć sensowna teoria umysłu ludzkiego bez dobrze
opracowanej teorii wiedzy. Wiedza to sama istota naszego poznawczego
wyposażenia. Bez niej niemożliwe jest zrozumienie czegokolwiek,
a zmaganie się ze skomplikowanymi problemami byłoby bardzo
utrudnione, jeśli w ogóle możliwe. Wiele zadań poznawczych wymaga po
prostu konkretnej wiedzy. W badaniach nad uwagą (zob. rozdz. 5) lub
kontrolą poznawczą (zob. rozdz. 6) podkreśla się, że czynności poznawcze
są limitowane zasobami, czyli możliwościami przetwarzania informacji,
pojemnością pamięci roboczej i innymi „wąskimi gardłami” systemu
poznawczego. To wszystko prawda, ale podkreślając rolę i znaczenie
rozmaicie rozumianych i definiowanych zasobów poznawczych, nie
powinno się ignorować faktu, że czynności poznawcze mogą być
„limitowane danymi”. Jeśli ktoś nie wie, jakim słowem określa się brata
matki w języku fińskim, może zaangażować dowolnie dużo zasobów
poznawczych, a i tak nie znajdzie odpowiedniego wyrazu. Z tego punktu
widzenia wiedza jest bardzo szczególnym zasobem poznawczym, zdolnym
do zastąpienia tych zasobów, które w danym momencie mogą być
wyczerpane.

W rozdziale tym zaprezentowaliśmy koncepcje i badania odnoszące się do


struktury i nabywania wiedzy. Przedstawiliśmy podział wiedzy na
deklaratywną i proceduralną oraz jawną i niejawną. Przybliżyliśmy
również główne sposoby rozumienia organizacji wiedzy deklaratywnej
i proceduralnej oraz metody badania procesu nabywania wiedzy. Ważną
część rozdziału stanowi omówienie ogólnej koncepcji teoretycznej
dotyczącej całego systemu poznawczego, jaką jest teoria ACT-R. Pozwala
ona na opisanie procesu nabywania wiedzy oraz zależności między wiedzą
proceduralną i deklaratywną. Ostatnią część rozdziału poświęciliśmy
teoriom i paradygmatom w badaniach nad nabywaniem i używaniem
wiedzy eksperckiej.

Psychologiczne badania nad nabywaniem wiedzy i korzystaniem z niej


napotykają istotną trudność, jaką stanowi jej treść. Psycholog może
tworzyć ogólne koncepcje wiedzy tylko wtedy, gdy zajmuje się stroną
formalną, np. organizacją wiedzy lub jej rodzajami, ale nie jest w stanie
stworzyć ogólnej teorii tego, jaka jest treść badanej przez niego wiedzy.
Inaczej mówiąc, psychologiczne koncepcje wiedzy są zdolne do
formułowania tez na temat tego, JAK ludzie coś wiedzą, ale nie bardzo
sobie radzą z kwestią, CO ludzie wiedzą. Każdy z nas wie o świecie co
innego, dlatego koncepcje odwołujące się do treści wiedzy nieuchronnie
zmieniają swój charakter z nomotetycznych na idiograficzne. A to dla
psychologa zorientowanego na prowadzenie badań eksperymentalnych jest
zmianą trudną do zaakceptowania. Przyszłe koncepcje i badania nad
wiedzą będą musiały w jakiś sposób zlikwidować napięcie między formą
i treścią tego, co każdy z nas wie o świecie i samym sobie.
Część II

Elementarne procesy poznawcze


Rozdział 5

Uwaga i świadomość

Istota i aspekty uwagi


Teorie uwagi
Teorie selekcji źródła informacji
Teorie przeszukiwania pola percepcyjnego
Teorie przedłużonej koncentracji
Teorie podzielności
Teorie przerzutności
Uwaga a (nie)świadomość
Analiza wskazówek peryferycznych
Reakcje na informacje odrzucane
Poprzedzanie podprogowe
Podsumowanie
Uwaga to system odpowiedzialny za selekcję informacji i zapobieganie negatywnym skutkom
przeładowania systemu poznawczego przez nadmiar danych.
Świadomość to zdawanie sobie przez podmiot sprawy z treści własnych procesów psychicznych, np.
z tego, co jest przedmiotem spostrzegania, myślenia lub doznań emocjonalnych.

Według Williama Jamesa (1890, s. 403–404) „każdy wie, czym jest uwaga:
jest to posiadanie przez umysł w jasnej i żywej postaci jednego z wielu
jednocześnie ujmowanych przedmiotów lub ciągów myśli”. W tej pięknej,
introspekcyjnej definicji zawierają się trzy prawdy. Po pierwsze, istotą
i sensem działania uwagi jest selekcja, czyli wybór jednego obiektu
percepcji, jednego źródła stymulacji lub jednego tematu myślenia spośród
wielu możliwych opcji. Po drugie, selekcja realizowana przez uwagę
dotyczy w równym stopniu spostrzegania, jak też „wyższych” procesów
poznawczych, przede wszystkim myślenia. Dzięki selekcji na wejściu
sensorycznym możemy skupić się na jednym bodźcu lub źródle stymulacji
kosztem innych, a dzięki selekcji w odniesieniu do „wyższych” pięter
przetwarzania informacji możemy kontrolować przebieg procesów
intelektualnych. Po trzecie, uwaga ściśle wiąże się ze świadomością, czyli
ze zdawaniem sobie sprawy z tego, co spostrzegamy lub o czym myślimy.
Dziś wiemy, że świadomość nie jest tożsama z uwagą, ale zawsze stanowi
wynik jej działania. Na peryferiach uwagi znajdują się czasem bodźce,
z których zdajemy sobie sprawę słabo lub w ogóle, ale jeśli coś jest
przedmiotem świadomego doznania, musiało być wcześniej poddane
skutecznej i bardzo surowej selekcji ze strony uwagi.

5.1. Istota i aspekty uwagi


Selektywność (selectivity) – zróżnicowanie w zakresie sposobu przetwarzania informacji,
pochodzących z wielu źródeł.

Istnienie uwagi wynika z ograniczonych możliwości przetwarzania


informacji przez ludzki umysł (Duncan, Humphreys, 1989). Efektywne
funkcjonowanie systemu poznawczego jest możliwe w zasadzie tylko
wtedy, gdy w tym samym czasie analizujemy jedynie niewielkie ilości
informacji (Lehrl, Fischer, 1988). Jeśli skuteczne ich przetwarzanie jest tak
surowo limitowane, konieczne wydaje się istnienie jakiegoś mechanizmu
pozwalającego na wybór informacji istotnych dla dalszego przetwarzania.
Mechanizm taki umożliwia koncentrowanie się na pewnych sygnałach czy
zadaniach oraz odrzucanie bodźców nieistotnych lub zakłócających. Jego
istnienie wydaje się niezbędne również ze względu na konieczność
przystosowania się organizmów żywych do wymagań środowiska
(Broadbent, 1958). Aby zwiększyć swoją szansę przetrwania w trudnych
warunkach środowiska, organizm musi wyłowić wśród szumu
informacyjnego bodźce, które sygnalizują coś ważnego, np. zagrożenie lub
szansę zdobycia pożywienia. Ten hipotetyczny mechanizm, będący
odpowiedzią ewolucji naturalnej na ograniczone możliwości przetwarzania
informacji, został nazwany uwagą (James, 1890). Funkcją stanowiącą
o jego istocie jest selektywność. Zgodnie z definicją Williama Johnstona
i Veroniki Dark (1986) termin „selektywność” odnosi się do
zróżnicowanego przetwarzania informacji pochodzących z wielu różnych
źródeł.

Selektywność uwagi realizuje się w różnych warunkach zadania. To


zróżnicowanie pozwala wyodrębnić kilka podstawowych aspektów
funkcjonowania uwagi. Pierwszy z nich (Broadbent, 1957) dotyczy
problemu selekcji źródła informacji: kiedy, gdzie i w jaki sposób odbywa
się proces wyboru bodźców ważnych (sygnały) ze względu na przyjętą
zasadę selekcji, przy jednoczesnym odrzuceniu informacji nieważnych
(szum) i zakłócających (dystraktory). Wybór źródła stymulacji dokonuje
się np. wtedy, gdy osoba pogrążona w lekturze ignoruje toczącą się w tym
samym pomieszczeniu rozmowę, a zwłaszcza tzw. tło dźwiękowe (odgłosy
ruchu ulicznego, bzyczenie owadów itp.). Tę formę selektywności badano
początkowo wyłącznie w odniesieniu do uwagi słuchowej, prezentując
osobie badanej do dwojga uszu dwa niepowiązane komunikaty (Broadbent,
1957; Cherry, 1953; Deutsch, Deutsch, 1963; Treisman, 1960). Osoba ta
musi się skupić na jednym z nich, ignorując drugi. Można wówczas
obserwować, czy badany słyszy cokolwiek w tzw. kanale ignorowanym
(paradygmat 5.1). Później pojawiły się analogiczne badania w odniesieniu
do uwagi wzrokowej – uczestnikom eksperymentów wyświetlano
jednocześnie dwa różne filmy, np. mecz koszykówki i sceny z życia
rodzinnego (Mack, Rock, 1998; Mack, Tang, Tuma, Kahn, Rock, 1992;
Rock, Linnett, Grant, Mack, 1992). Użycie takiej procedury pozwala
sprawdzić, który z dwóch konkurencyjnych filmów osoba badana
rzeczywiście zobaczy, a przede wszystkim – czy dotrze do niej cokolwiek
z filmu z konieczności zignorowanego. Przeprowadzono też badania,
w których niepowiązane komunikaty prezentowano uczestnikom do
różnych modalności zmysłowych, np. wzrokowo i słuchowo (Allport,
1980a; Allport, Antonis, Reynolds, 1972; Bernstein, 1970; McLeod, 1977).
Wyniki tych badań zostaną omówione w związku z prezentacją teorii filtra
(bramki) i teorii modułów (zob. podrozdz. 5.2.1 i 5.2.4). Selekcję źródła
informacji często uznawano za podstawowe, a nawet wyłączne zadanie
uwagi selektywnej (Allport, 1992). Wydaje się jednak, że także
w przypadku pozostałych aspektów uwagi jej głównym zadaniem jest
selektywność, choć nie w zakresie wyboru źródła stymulacji, lecz
w odniesieniu do innych czynności poznawczych.

Paradygmat 5.1

Dychotyczna prezentacja bodźców i metoda podążania


Czy uczestnicząc w gwarnym przyjęciu, możemy skoncentrować się na
rozmowie z jednym z naszych przyjaciół? Jeśli możemy, to czy odbywa się
to kosztem całkowitego „wyłączenia” słów, wypowiadanych przez innych
uczestników przyjęcia, nawet jeśli mówią wystarczająco głośno i nie są od
nas bardzo oddaleni? Dlaczego, gdy ktoś w innej niż prowadzona przez nas
rozmowie wymieni nasze imię, natychmiast tracimy wątek konwersacji
i automatycznie „przełączamy się” na to, co się dzieje w rozmowie
dotychczas ignorowanej? E. Colin Cherry (1953) przeniósł sytuację
komunikacyjną z gwarnego przyjęcia wprost do laboratorium w stopniu,
w jakim było to technicznie wykonalne. Interesujący go problem
ograniczeń w selektywności informacji nazwał, zgodnie z inspirującymi go
obserwacjami, problemem przyjęcia towarzyskiego (cocktail party
problem). Osoba badana w zaprojektowanych przez niego eksperymentach
odbierała dwa różne przekazy jednocześnie – po jednym do każdego ucha –
z zadaniem skupienia się na którymś z nich, przy równoczesnym
całkowitym ignorowaniu drugiego komunikatu. Następnie proszono
uczestnika eksperymentu o zanotowanie treści przekazu, na którym miał się
skupić. Pytano także o treści, które pojawiły się w komunikacie
ignorowanym. Cherry wykazał, że badani nie mieli większych problemów
z wiernym odtworzeniem ważnego komunikatu, ale nie mogli
odpowiedzieć na jakiekolwiek pytania o treść drugiego przekazu. Nie byli
też w stanie zidentyfikować języka (angielski bądź francuski), w którym
przekaz ignorowany był formułowany. Zgodnie z przyjętą konwencją
językową zjawisko to nazwano efektem przyjęcia towarzyskiego
(cocktail party phenomenon). W przeciwieństwie do semantycznych,
treściowych aspektów komunikatu ignorowanego, które nie były w ogóle
dopuszczane do dalszego przetwarzania, pewne fizyczne parametry tego
przekazu, np. zmiana brzmienia (tonu) wymowy czy zmiana płci spikera,
zostały przez osoby badane zarejestrowane.

Cherry’ego uważa się za twórcę paradygmatu dychotycznej prezentacji


bodźców – techniki eksperymentalnej polegającej na jednoczesnym
prezentowaniu dwóch różnych komunikatów akustycznych osobno do
każdego ucha. Donald Broadbent (1954), a później Neville Moray (1959)
i Anne Treisman (1960) rozwinęli i zmodyfikowali tę technikę, prosząc
badanych nie o zapamiętywanie „oficjalnego” przekazu, ale o jego wierne
powtarzanie. Osoba badana miała podążać za jednym z komunikatów jak
cień, stąd nazwa tej techniki – podążanie (shadowing). Ta zmiana
w procedurze zapewnia lepszą kontrolę zachowania uczestników badania.
Można dzięki niej jednoznacznie stwierdzić, czy badany rzeczywiście
podąża „jak cień” za wskazanym przekazem, czy też próbuje dzielić swoją
uwagę między dwa jednoczesne komunikaty. Każde odstępstwo od reguły
dosłownego powtarzania (np. chwilowe zamilknięcie, zająknięcie, wtręty
ze strony komunikatu ignorowanego) świadczy o próbie dzielenia uwagi na
dwa wykluczające się przekazy. Paradygmat podążania stosowano także
w badaniach uwagi podzielnej (Allport i in., 1972; Ninio, Kahneman, 1974)
z instrukcją jednoczesnego śledzenia dwóch jednakowo ważnych
komunikatów.

Przeszukiwanie pola percepcyjnego (perceptual search) – proces odnajdywania w polu


percepcyjnym bodźców (sygnałów), charakteryzujących się wskazanymi przez zasadę selekcji
właściwościami.

Drugim ważnym aspektem uwagi selektywnej jest jej zdolność do


przeszukiwania pola percepcyjnego. Na przykład na wydruku
komputerowym należy zaznaczyć markerem wszystkie słowa zaczynające
się na literę „m” (zasada selekcji), pozostawiając nietknięte inne słowa
(szum), zwłaszcza te, które zaczynają się na podobnie wyglądającą literę
„n” (dystraktory). Zdaniem niektórych badaczy (Cave, Wolfe, 1990;
Treisman, 1988, 1993; Treisman, Gelade, 1980) przeszukiwanie pola
percepcyjnego dokonuje się zgodnie z mechanizmem automatycznego
kodowania cech i selektywnej integracji właściwości poszukiwanego
obiektu w postać, będącą sumą czy złożeniem tych charakterystyk. Tę
formę selektywności badano wyłącznie w odniesieniu do uwagi wizualnej
(paradygmat 5.2), a prowadzone eksperymenty miały na celu przede
wszystkim wskazanie tzw. cech priorytetowych, automatycznie
przyciągających uwagę w polu wzrokowym. Wśród charakterystyk tego
typu wyodrębniono np. ruch obiektów w polu wzrokowym (Driver, Baylis,
1989; Driver, McLeod, 1992; McLeod, Driver, Crisp, 1988; McLeod,
Driver, Dienes, Crisp, 1991) czy wyróżniający się kolor (D’Zamura, 1991;
Kyllingsbek, Bundesen, 2001; Treisman, Viera, Hayes, 1992). Łatwiej nam
znaleźć wśród nieruchomych obiektów coś, co się rusza, podobnie jak
łatwo zauważyć obiekt czerwony wśród samych białych. Wyniki tych
badań zostaną dokładniej omówione przy okazji prezentacji teorii integracji
cech w obiekt (zob. podrozdz. 5.2.2).

Paradygmat 5.2

Badanie przeszukiwania pola wzrokowego

Dlaczego mimo bałaganu na stole pewne obiekty odnajdujemy łatwo


(wręcz narzucają się nam swoim wyglądem), a innych nie potrafimy
zauważyć nawet w wyniku długich poszukiwań (jesteśmy na nie „ślepi
uwagowo”)? Anne Treisman i Garry Gelade (1980) postanowili zbadać
proces przeszukiwania pola wzrokowego. W ich eksperymencie badani
poszukiwali obiektów zdefiniowanych przez pojedynczą cechę (np. kolor:
„znajdź zieloną figurę”) lub przez koniunkcję cech (np. kolor i położenie:
„znajdź zieloną figurę zorientowaną poziomo”). Pierwszy typ
przeszukiwania pola percepcyjnego nazwano prostym, a drugi –
koniunkcyjnym.

Treisman i Gelade wykazali, że przeszukiwanie koniunkcyjne trwa dłużej


niż przeszukiwanie proste, a ponadto jest zależne od liczby elementów
przeszukiwanego zestawu. Przeszukiwanie koniunkcyjne ma więc
charakter procesu szeregowego, podczas gdy przeszukiwanie proste
dokonuje się raczej równolegle, ponieważ czas reakcji w nie zależy w nim
od liczby elementów w polu percepcyjnym. W paradygmacie
przeszukiwania pola wzrokowego cechy definiujące poszukiwane obiekty
mają postać właściwości sensorycznych. Próbując ustalić, które
z właściwości obiektów mają charakter cech priorytetowych,
przetwarzanych jako pierwsze w kolejności, badano poszukiwanie
koniunkcyjne z udziałem m.in. takich cech, jak: ruch (McLeod, Driver,
1993), kolor (D’Zamura, 1991), głębia (Julesz, Bergen, 1983) czy
położenie przestrzenne (Treisman, 1988). Stwierdzono, że podczas gdy
ruch jest właściwością priorytetową niezależnie od swojej fizycznej
charakterystyki (szybkość, kierunek), to statyczne położenie przestrzenne
(np. horyzontalne, wertykalne) taką właściwością nie jest. Ustalono
również, że kolor i głębia mogą być warunkowo cechami priorytetowymi,
jeśli są wystarczająco wyraziste percepcyjnie (visual salience, inaczej:
dystynktywne, np. rudy kolor włosów).

Manipulowano także liczbą cech w poszukiwanej koniunkcji (Cave, Wolfe,


1990), ich wyrazistością (Yantis, Hillstrom, 1994), a także liczbą cech
wspólnych dla sygnałów i dystraktorów (Duncan, Humphreys, 1989).
Okazało się, że poszukiwanie obiektu stanowiącego koniunkcję licznych
właściwości niepriorytetowych może również być równoległe i szybkie,
a bardzo wyrazista cecha niepriorytetowa może w większym stopniu
przyciągać uwagę niż cecha priorytetowa (np. dystraktor o dystynktywnym
kolorze powoduje spowolnienie procesu detekcji ruchomego sygnału).
Stwierdzono też, że im bardziej podobne do siebie są bodźce zakłócające
i celowe, tym dłużej trwa proces detekcji poszukiwanego sygnału i tym
większe jest w takim przypadku prawdopodobieństwo szeregowości
mechanizmów selekcji informacji.

Początkowo w badaniach prowadzonych w tym paradygmacie osobom


badanym prezentowano jednocześnie cały dostępny zbiór obiektów do
selekcji. Obecnie prowadzi się badania, w których sygnał lub dystraktor
pojawia się w polu percepcyjnym nagle, podczas gdy pozostałe bodźce
(tło) są już wcześniej całkowicie dostępne (Yantis, Jonides, 1988). Tło
może być jednak prezentowane na peryferiach uwagi selektywnej, co
oznacza, że mimo obiektywnej dostępności bodźce te są trudno zauważalne
(Theeuwes, Kramer, Atchley, 1999).

Przedłużona koncentracja uwagi (prolonged concentration lub continuous performance) – proces


umożliwiający monitorowanie otoczenia przez dłuższy czas w poszukiwaniu bodźców określonego
typu (sygnałów).

Trzecim, ostatnio nieco zapomnianym, aspektem selektywnej uwagi jest


przedłużona koncentracja na określonym typie obiektów (Mackworth,
1948, 1950). Dzięki tej cesze uwagi możliwe jest monitorowanie otoczenia
przez dłuższy czas w poszukiwaniu bodźców określonego typu
(paradygmat 5.3). Na przykład żołnierz na warcie przez kilka godzin
„natęża uwagę”, aby wykryć wszelkie sygnały niebezpieczeństwa,
a jednocześnie nie podnieść fałszywego alarmu w odpowiedzi na
zagrożenie pozorne. Czujność uwagi (Davies, Parasuraman, 1982), bo tak
też bywa określany ten aspekt uwagi, podlega wielu ograniczeniom,
zazwyczaj związanym z postępującym w czasie wyczerpaniem czy niskim
poziomem aktywacji systemu poznawczego (tamże). Efekt spadku
czujności uwagi w czasie był przedmiotem wielu badań (tamże;
Parasuraman, Davies, 1976; Thackray, Jones, Touchstone, 1973), których
wyniki zostaną przedstawione podczas prezentacji teorii detekcji sygnałów
i teorii czujności uwagi. Nie ulega jednak wątpliwości, że przedłużona
w czasie koncentracja uwagi jest formą selektywności, dla której
ograniczenie stanowi tym razem nie nadmierna ilość informacji do
przetworzenia, a nieuchronny spadek energii w wyniku wydłużonego czasu
wykonania zadania.

Paradygmat 5.3

Badanie przedłużonej koncentracji uwagi

Jak długo operator radaru jest w stanie koncentrować się na monitorze?


Czy częstość pojawiania się symboli samolotów na monitorze radaru ma
wpływ na koncentrację uwagi obserwatorów? N.H. Mackworth (1948,
1950) badała czasowe ograniczenia możliwości optymalnej obsługi
urządzeń radarowych przez operatorów wojskowych. Jedno
z opracowanych przez nią zadań laboratoryjnych było symulacją zadań,
jakie operatorzy radarów wykonują w codziennej pracy. Zadanie to, znane
jako test zegara, polega na percepcyjnej kontroli dużej tarczy zegarowej.
Wskazówka przemieszcza się rotacyjnie na tle okrągłej tarczy zgodnie
z normalnym kierunkiem ruchu wskazówek zegara, w tempie jednego
przemieszczenia na sekundę, w sposób nieciągły, tzn. pojawia się, znika, po
czym pojawia się w kolejnym miejscu itd. Sygnałem, który powinien
zostać rozpoznany przez obserwatora, jest pojawiający się od czasu do
czasu „podwójny” krok wskazówki, trwający 2 sekundy. Sygnał jest
prezentowany w nieregularnych odstępach czasowych, niezwykle rzadko,
z reguły 12 razy na każde 30 minut. Poziom wykonania zadania ocenia się
na podstawie analizy liczby prawidłowych rozpoznań w trakcie ciągłego,
dwugodzinnego okresu kontroli tarczy zegara przez osobę badaną (żadnych
przerw ani odpoczynku).

Test ten okazał się wzorcowym narzędziem do badania przedłużonej


koncentracji uwagi. Na jego podstawie skonstruowano inne narzędzia do
badania przedłużonej koncentracji, zwane testami ciągłego wykonania
(continuous performance tests, CPT). Zadania tego typu charakteryzują się:
(1) długim czasem trwania (nawet do 2–3 godzin); (2) niskim
prawdopodobieństwem pojawienia się sygnału (od 0,03 do 0,10); (3)
wykorzystaniem stosunkowo płytkiej zasady selekcji informacji w trakcie
analizy bodźców (zasada podobieństwa sensorycznego lub co najwyżej
płytka identyfikacja semantyczna). Osobie badanej można np. pokazywać
serię cyfr z poleceniem zareagowania zawsze na cyfrę 9 (lub jakąkolwiek
inną). Analiza wyników tego typu badań sprowadza się do oszacowania
liczby poprawnych reakcji i liczby błędów w kolejnych blokach analizy,
np. 10-minutowych (Parasuraman, Davies, 1976). W zadaniach tego
rodzaju zwykle obserwuje się prawie bezbłędne wykonanie przez dłuższy
czas. Dopiero po upływie około 45 minut badani zaczynają popełniać
błędy. W przypadku braku spodziewanego efektu spadku poprawności
wykonania w funkcji czasu, analizuje się czas detekcji poszczególnych
bodźców (Jerison, 1959). Czas ten zaczyna się w pewnym momencie
wydłużać, co nawet przy braku spadku dokładności pozwala wykryć
negatywny wpływ wydłużonego okresu koncentracji na sprawność uwagi.

Podzielność uwagi – (divided attention) − zdolność do koncentracji uwagi na kilku źródłach


informacji lub jednoczesnego wykonywania kilku czynności.

Podzielność uwagi, a więc możliwość jej koncentracji na dwóch lub


większej liczbie źródeł informacji, jest czwartym ważnym aspektem uwagi
(paradygmat 5.4). Człowiek jest zdolny do jednoczesnego wykonywania
kilku czynności, np. czytania gazety i słuchania radia. Potrafi też słuchać
np. wykładu i jednocześnie notować lub przygotowywać pytanie, które za
chwilę zada wykładowcy. Zjawisko podzielności uwagi nakazuje postawić
pytanie o wymagania stawiane mechanizmom uwagi selektywnej
w związku z koniecznością dzielenia jej na konkurencyjne zadania, a przez
to równoległego kontrolowania więcej niż jednego procesu przetwarzania
danych (Kahneman, 1973). Podstawowym problemem badawczym
w odniesieniu do podzielności uwagi jest pytanie o to, czy uwaga może
w pewnych warunkach funkcjonować jako zestaw niezależnych modułów
selekcyjnych (Allport, 1980; Allport i in., 1972; McLeod, 1977). Jeśliby
tak było, równoległa kontrola kilku procesów nie musi spowodować
zakłócenia któregokolwiek z nich. Jeśli natomiast podzielność uwagi
oznacza dzielenie pewnej ograniczonej puli „mocy obliczeniowej” na
więcej niż jedno zadanie, równoległa kontrola kilku procesów musi
spowodować zakłócenie przynajmniej jednego z nich (Kahneman, 1973,
1975; Ninio, Kahneman, 1974). Wyniki badań częściowo rozstrzygających
ten problem zostaną przedstawione przy okazji prezentacji teorii modułów
i teorii zasobów uwagi (zob. podrozdz. 5.2.4).

Paradygmat 5.4

Badanie podzielności uwagi i kontroli czynności jednoczesnych

Czy możemy jednocześnie słuchać interesującego wykładu i rozmawiać


z koleżanką ze szkolnej ławki? Na ile pogorszy się wykonanie każdej
z tych czynności w porównaniu z warunkami, w których będziemy
realizować je pojedynczo? Badania wykonania zadań jednoczesnych były
początkowo prowadzone w zmodyfikowanym paradygmacie podążania
(zob. paradygmat 5.1). Jego modyfikacja polegała na tym, że zadaniem
uczestników badania było jednoczesne podążanie za dwoma przekazami,
prezentowanymi im do dwóch różnych kanałów sensorycznych. Na
przykład w badaniu Anat Ninio i Daniela Kahnemana (1974) polecono
osobom badanym śledzić nazwy zwierząt pojawiające się w obu
równoległych przekazach. Mówiąc krótko – modyfikacja paradygmatu
podążania polegała na zastąpieniu kanału ignorowanego drugim,
równoległym kanałem ważnym.

Earl Hunt i Marcy Lansman (1982) zaproponowali inną procedurę


testowania efektywności dwóch jednocześnie wykonywanych czynności.
Zgodnie z ich schematem, zwanym „od łatwego do trudnego”, badani
wykonują zadanie priorytetowe o wzrastającym poziomie trudności.
W badaniach Hunta i Lansman były to matryce progresywne testu
inteligencji Ravena. Dodatkowo uczestnicy przez cały czas rozwiązywania
zadania priorytetowego wykonują zadanie doładowujące; w badaniach
Hunta i Lansman była to kontrola położenia dźwigni. Wzrost trudności
zadania priorytetowego powoduje konieczność inwestowania coraz to
nowych, dodatkowych zasobów, których ilość może się wyczerpać,
zwłaszcza gdy część z nich musi zostać przeznaczona na wykonywanie
zadania doładowującego. Przy założeniu, że badani wykonują oba zadania
z zaangażowaniem tej samej, ograniczonej puli zasobów, można
wyznaczyć w zadaniu priorytetowym taki punkt trudności, powyżej
którego jego rozwiązywanie okaże się niemożliwe. Miarą podzielności
uwagi jest wówczas ów „punkt załamania” na skali trudności zadania
priorytetowego. Im wyżej jest on położony, tym większa jest podzielność.

Jako miarę podzielności uwagi można też traktować różnicę między


poziomem wykonania zadania priorytetowego w warunku wymuszonej
podzielności a poziomem wykonania tego samego zadania wtedy, gdy ma
ono monopol na zasoby poznawcze, tzn. jest wykonywane bez
konieczności równoległej kontroli dodatkowego zadania (Nęcka, 1994a,
2000). Interesujące, że prowadząc badania w paradygmacie „od łatwego do
trudnego”, Lansman, Poltrock i Hunt (1983) ustalili, że poziom wykonania
zadania priorytetowego w warunku pojedynczym jest pozytywnie
skorelowany (r = 0,50 do 0,60) z poziomem wykonania go przez tych
samych badanych w warunku podwójnym. Korelacja dotyczy wprawdzie
tylko osób badanych o wyższym poziomie inteligencji, ale analiz dla
badanych o obniżonym poziomie inteligencji nie przedstawiono.
Pozytywny – istotny i silny – związek między, traktowanymi jako odrębne,
aspektami selektywności i podzielności uwagi przemawia na korzyść tezy
o jednorodnym charakterze uwagi (Nęcka, 1995; Szymura, Nęcka, 2004).

Przerzutność uwagi (shifting of attention, switching between tasks) – zdolność uwagi do


przełączania się między dwoma zadaniami, obsługiwanymi przez różne procesy przetwarzania
informacji.

Ostatnim z ważniejszych aspektów uwagi jest jej przerzutność (Jersild,


1927). Terminem tym oznacza się zdolność uwagi do przełączania się
między dwoma zadaniami, „obsługiwanymi” przez niezależne procesy
przetwarzania informacji. Życie codzienne, podobnie jak czynności
zawodowe, wymaga nieustannego przerzucania uwagi z jednego obiektu na
inny. Zajęci jesteśmy np. pisaniem, ale musimy odebrać telefon, aby za
chwilę znów wrócić do przerwanej czynności. Przerzucanie uwagi oznacza
konieczność zahamowania jednego procesu poznawczego i uruchomienia
procesu alternatywnego. Wiąże się to zwykle z kosztami poznawczymi, np.
ze zwiększoną ilością czasu potrzebnego na wykonanie zadania albo
z podwyższonym ryzykiem popełnienia błędu. Badania nad przerzutnością
uwagi (paradygmat 5.5) zmierzają głównie do ustalenia wielkości tych
kosztów i sposobów ich redukcji (Allport, Wylie, 2000; Meiran, 2000;
Meiran, Chover, Sapir, 2000; Spector, Biedermann, 1976). Ich wyniki
zostaną przedstawione podczas prezentacji teorii przerzutności, zwłaszcza
teorii rekonfiguracji (zob. podrozdz. 5.2.5; Rogers, Monsell, 1995).

Paradygmat 5.5

Badanie przerzutności uwagi

Nie każda zmiana rodzaju aktywności oznacza pogorszenie sprawności


działania. Na przykład przedzielenie wysiłku umysłowego ćwiczeniami
fizycznymi ułatwia ponowne skupienie się na problemie. Również zmiana
jednej aktywności umysłowej na inną nie musi oznaczać chwilowej utraty
sprawności, jeśli podobieństwo między dwoma rodzajami aktywności jest
znikome. Jeśli natomiast mamy przetwarzać ciągle ten sam zestaw danych,
ale według zmieniających się reguł, pogorszenie wykonania jest niemal
pewne. Owo pogorszenie nazywamy poznawczymi kosztami przełączania
się między zadaniami.

Badania w paradygmacie przełączania się między zadaniami (task


switching) zapoczątkował Arthur Jersild (1927). Prezentował on osobom
badanym długie kolumny dwucyfrowych liczb. Zadanie polegało na
wykonywaniu operacji matematycznych: dodawaniu liczby 6 lub
odejmowaniu liczby 3 od każdego kolejno prezentowanego elementu
kolumny. Jersild porównywał czas potrzebny do wykonania dwóch wersji
zadania. W jednej trzeba było naprzemiennie dodawać 6 lub odejmować 3;
była to wersja mieszana, wymagająca przerzutności uwagi. W drugiej
trzeba było wykonywać tylko jeden rodzaj przekształcenia, czyli albo
dodawać 6, albo odejmować 3 – dopóty, dopóki nie skończy się cała
kolumna liczb; była to zatem wersja jednorodna, wymagająca koncentracji
uwagi na jednym zadaniu. W badaniach prowadzonych według tego
paradygmatu stwierdza się zwykle występowanie różnic, jeśli chodzi o czas
potrzebny do wykonania każdej wersji zadania. Dłuższy czas, konieczny do
ukończenia wersji mieszanej, odzwierciedla koszty związane
z koniecznością przełączania uwagi między zadaniami (u Jersilda –
dodawanie lub odejmowanie). Odejmując dwie wartości czasu wykonania
zadania, otrzymujemy oszacowanie wielkości tego kosztu. Można go też
oszacować, porównując wskaźniki poprawności wykonania w obu
wersjach. Jeśli zadanie nie będzie ogólnie zbyt łatwe (efekt podłogowy),
wersja mieszana przyniesie więcej błędów niż wersja jednorodna.
Odejmując wskaźniki poprawności wykonania, możemy oszacować koszt
przełączania uwagi między zadaniami. Zdarza się, że badani dokonują
wymiany kosztów czasowych na poprawnościowe lub odwrotnie. Możemy
więc nie zaobserwować różnic w czasie, potrzebnym na wykonanie obu
wersji, ale ujawnią się różnice w zakresie liczby błędów, albo odwrotnie.
Możliwe jest też oczywiście zaobserwowanie kosztów przełączania
zarówno w odniesieniu do czasu wykonania, jak i ogólnej liczby błędów.

Dalsze badania prowadzone w tym paradygmacie wykazały, że wielkość


kosztów może zależeć od obecności wskazówek dotyczących tego, które
warunki zadania będą obowiązywać w następnej próbie (Spector,
Biedermann, 1976). Na przykład informacja o tym, że za chwilę trzeba
będzie odejmować lub dodawać, zdecydowanie zwiększa efektywność
przełączania uwagi między zadaniami. Wydaje się, że informacja na temat
rodzaju kolejnego zadania uruchamia nastawienie, umożliwiające
przygotowanie się do jego wykonania. Koszty przełączania można też
zmniejszyć, wydłużając przerwę między kolejnymi elementami mieszanej
wersji zadania (Allport, Styles, Hiesh, 1994). Im dłuższa przerwa, tym
mniejsze prawdopodobieństwo błędu i wydłużenia czasu reagowania.
Badania sugerują, że obecność wskazówek na temat następnej próby oraz
wydłużenie czasu między próbami działają niezależnie, co oznacza, że
wykorzystują różne mechanizmy poznawcze, odpowiedzialne za
przerzutność uwagi.

Dodajmy, że dwa używane w tym kontekście terminy mają odmienne


znaczenie. Uwaga przerzuca się z jednego obiektu na inny, człowiek zaś
przełącza się z jednego zadania na inne. Przerzutność (shifting) jest więc
konstruktem teoretycznym, odnoszącym się do hipotetycznego sposobu
funkcjonowania mechanizmu uwagi, podczas gdy przełączanie się między
zadaniami (task switching) to termin obserwacyjny, odnoszący się do
sposobu zachowania osoby badanej w określonych warunkach
eksperymentalnych lub po prostu człowieka w zmieniających się
warunkach otoczenia.

Na zakończenie tego podrozdziału warto podkreślić, że wszystkie


wymienione aspekty uwagi, a w konsekwencji wszystkie omówione dalej
teorie tego zjawiska, dotyczą w istocie tego samego zagadnienia. Jest to
problem ograniczonej zdolności systemu poznawczego do przetwarzania
dużej ilości informacji w tym samym czasie. W związku z tym
ograniczeniem system poznawczy podejmuje pewne istotne decyzje, np.
znacząco redukuje ilość informacji dopuszczonych do dalszego
przetwarzania (selekcja źródła) albo ucieka się do prób pogodzenia
sprzecznych wymagań (podzielność, przerzutność). System może też nie
podejmować żadnych znaczących decyzji, ale wykazuje obniżenie
sprawności w związku z nadmierną liczbą mało wyróżniających się
bodźców (przeszukiwanie pola percepcyjnego) albo wydłużonym okresem
czujności (przedłużona koncentracja). Mimo wieloaspektowości uwagi
i rozmaitości zadań, w których realizacji bierze on udział, mamy tu do
czynienia w gruncie rzeczy z tą samą funkcją poznawczą –
z selektywnością (Driver, 2001). Większość jej przejawów polega na
redukcji nadmiaru bodźców (selekcja źródła, przeszukiwanie pola,
przedłużona koncentracja), ale niektóre polegają na kontroli nadmiaru
możliwych reakcji (podzielność, przerzutność). Uwaga ujawnia się więc
jako mechanizm o niezwykle zróżnicowanym zakresie funkcji, a mimo to
jednolity (Nęcka, 1995; Szymura, Nęcka, 2004).

5.2. Teorie uwagi


Pięć opisanych wcześniej aspektów uwagi odpowiada pięciu funkcjom,
jakie mechanizm ten pełni w ogólnej strukturze umysłu. Natomiast
zarysowane w tym rozdziale teorie opisują poznawczy mechanizm
odpowiedzialny za pełnienie tych funkcji. Wiemy już, co uwaga robi, teraz
opiszemy, jak to robi.

5.2.1. Teorie selekcji źródła informacji


Historycznie najwcześniejsza jest koncepcja filtra uwagi. Istnieje wiele
wersji tej koncepcji, a ich wspólną cechą jest założenie, że informacja,
wędrując od organów zmysłowych do świadomości, napotyka na swej
drodze mechaniczną przeszkodę, czyli filtr, zwany również bramką. Filtr
ten skutecznie blokuje znaczną część docierającej do organizmu stymulacji
sensorycznej, podczas gdy innym informacjom umożliwia dostęp do
kolejnych etapów przetwarzania. Odbywa się to na zasadzie czasowego
zablokowania wszystkich źródeł informacji z wyjątkiem jednego; uwaga
redukuje więc nadmiar informacji na wejściu sensorycznym poprzez
selekcję źródła informacji. Całość stymulacji, pochodząca ze wszystkich
aktywnych źródeł, oczekuje na przejście przez filtr jak gdyby w poczekalni.
Jeśli jednak coś nie zostanie przez niego zaakceptowane, ulega szybkiej
degradacji. Szybkość zanikania zależy m.in. od modalności zmysłowej
(wzrok, słuch itd.), ale zazwyczaj „poczekalnia” jest czynna nie dłużej niż
od kilku do kilkunastu sekund (Sperling, 1960, 1963). Informacja
zatrzymana „w poczekalni” nie może być przetworzona głębiej niż na
poziomie sensorycznym. Być może właśnie dlatego szybko zanika,
ponieważ danych nieprzetworzonych na głębszym poziomie analizy nie
można dłużej przechowywać w pamięci. Natomiast przejście przez filtr
oznacza, że informacja zostaje dopuszczona do dalszego przetwarzania już
na głębszym poziomie (np. semantycznym), co może doprowadzić do jej
ujawnienia się w postaci świadomego doznania. Założenie o istnieniu filtra
uwagi jest wspólne dla wszystkich odmian tej koncepcji, różnice zaś
polegają na postulowaniu odmiennych zasad funkcjonowania mechanizmu
filtrującego informacje.

Autorem pierwszej koncepcji filtra uwagi jest Donald Broadbent (1957,


1958, 1971, 1982). Zaproponowany przez niego model można wizualnie
przedstawić w kształcie litery „Y” (ryc. 5.1). Jej „ramiona” reprezentują
dwa sensoryczne kanały informacyjne wchodzące do systemu; każdy z nich
doprowadza informację z jednego źródła. „Ramiona” te zbiegają się
w „nogę” – pojedynczy kanał, w którym możliwe jest dalsze, już
semantyczne, przetwarzanie informacji. Uwaga działa więc trochę na
zasadzie zwrotnicy, przepuszczającej komunikaty z lewego lub prawego
kanału sensorycznego w zależności od tego, który z nich spełnia zasadę
selekcji. Ta ostatnia ma zawsze charakter fizykalny: o tym, czy dany sygnał
opuści „poczekalnię” w kanale sensorycznym i przejdzie do etapu
przetwarzania semantycznego, decydują fizyczne parametry sygnału, takie
jak jego intensywność, kolejność w szeregu czy współistnienie innych
bodźców. Ze względu na sposób regulowania pracy mechanizmu
filtrującego informacje zasadę tę nazwano dla uproszczenia zasadą
sensoryczną lub zasadą „wszystko albo nic”. Komunikat w danym
momencie nieprzetwarzany oczekuje w zamkniętym kanale sensorycznym,
gdyż w kanale semantycznym nie ma na razie dla niego miejsca. Bardzo
szybko ulega więc degradacji i w efekcie zapomnieniu. Jedyne, co
utrzymuje się po nim w pamięci, to fizyczna charakterystyka sygnałów.
Dlatego badani w paradygmacie dychotycznej prezentacji bodźców
(paradygmat 5.1) są w stanie rozpoznać płeć spikera przekazu w kanale
ignorowanym, ale nie mogą odpowiedzieć na żadne pytanie dotyczące
treści tego przekazu (Cherry, 1953). Płeć spikera można bowiem rozróżnić
na podstawie wysokości tonu głosu, czyli fizycznej charakterystyki
przekazu; na tej podstawie nie sposób jednak powiedzieć niczego
o znaczeniu komunikatu. Gdy nie jest jasne, którego z dwóch przekazów
należy słuchać, ale wiadomo, że któregoś trzeba, rozpoznanie każdego
przekazu utrzymuje się na poziomie 50% (Broadbent, 1952).
RYCINA 5.1. Model filtra uwagi według Broadbenta
Źródło: opracowanie własne na podstawie Broadbent, 1952.

Model Broadbenta poddawano wielokrotnie ostrej krytyce. Badacze


zaakceptowali wprawdzie metaforę uwagi jako filtra (bramki, zwrotnicy),
niektórzy skłonni byli nawet zgodzić się z jednokanałowym charakterem
dalszego przetwarzania informacji już po selekcji (zasada „wszystko albo
nic”), ale nie mogli przystać na sensoryczną zasadę funkcjonowania
mechanizmu selektywności. Zasada ta uwzględnia bowiem jedynie
fizyczne cechy bodźców, tymczasem wydaje się, że wiele decyzji
selekcyjnych jest podejmowanych raczej na podstawie znaczenia sygnałów
niż ich cech fizykalnych. Modyfikując badania w paradygmacie
dychotycznej prezentacji, badacze starali się wykazać, że mechanizm
filtrujący informacje może się kierować także innymi zasadami selekcji. Na
przykład Moray (1959) umieścił w przekazie ignorowanym kilkakrotnie
powtarzane imię osoby poddanej testowi. Okazało się, że po zakończeniu
eksperymentu badani wiedzieli o tym, iż w „niesłuchanym” komunikacie
pojawiało się ich imię. Tej wiedzy nie towarzyszyło pogorszenie poziomu
wykonania zadania podstawowego, polegającego na odtworzeniu z pamięci
treści komunikatu ważnego.

Spektakularne dane na temat roli semantycznych reguł selekcji materiału


przedstawili Jeffrey Gray i Alexander Wadderburn (1960). Zamiast
fragmentów prozy, wykorzystywanych z reguły we wcześniejszych
badaniach jako dychotycznie przekazywane komunikaty, autorzy użyli
naprzemiennych ciągów cyfr i sylab. Każdemu badanemu prezentowano
w tym samym czasie jedną cyfrę i jedną sylabę, po jednym sygnale na
każde ucho. Kolejność cyfr i sylab była naprzemienna: po cyfrze zawsze
następowała sylaba i odwrotnie, np. 4 ha 7 do 3 mi. Dodatkowo połowę
badanych poinformowano o możliwości zgrupowania sygnałów w dwie
różne kategorie, a drugiej połowie nic na ten temat nie mówiono. Gray
i Wadderburn oczekiwali selekcji sygnałów ze względu na ich kategorialną
przynależność, a nie według sensorycznego kanału prezentacji.
Spodziewano się więc, że osoby badane zeznają, iż słyszały 4 7 3, a potem
ha do mi, mimo że te dwa ciągi znaków pojawiały się naprzemiennie
w dwóch różnych kanałach. Wprawdzie nie wszyscy badani zachowali się
w eksperymencie zgodnie z tymi hipotezami, ale zdecydowanie wyższy
poziom wykonania zadania, mierzony liczbą poprawnych odpowiedzi,
zaprezentowali ci spośród uczestników eksperymentu, którzy raportowali
osobno cyfry i osobno sylaby. Okazało się poza tym, że cyfry często
„zbrylano” w liczby, a sylaby w słowa. Grupowanie bodźców zgodnie z ich
znaczeniem, a przeciwko porządkowi, w jakim je prezentowano, było
szczególnie widoczne u tych osób badanych, które poinformowano
o przynależności kategorialnej bodźców. W kolejnym eksperymencie
okazało się jednak, że na to, jaka zasada selekcji jest stosowana przez
mechanizm filtrujący (sensoryczna czy semantyczna), ma wpływ czas
pozostawiony na analizę poszczególnych par bodźców. Donald Broadbent
i Margaret Gregory (1964) wykazali, że stosowanie semantycznej zasady
selekcji jest możliwe jedynie przy relatywnie długich przerwach między
pojawieniem się jednej pary sygnałów a prezentacją następnej. Natomiast
w sytuacji, gdy pary bodźców następowały po sobie bardzo szybko, wyniki
pozostawały zgodne z tymi, jakie uzyskano już wcześniej przy użyciu
jednolitych list bodźców, np. tylko cyfr (Broadbent, 1954), a więc
jednoznacznie wskazywały na wykorzystywanie przez filtr zasady
sensorycznej.

Rozstrzygających danych na temat możliwości kierowania się przez filtr


uwagi kryteriami semantycznymi dostarczyły badania Treisman (1960).
Autorka wykazała, że uwaga automatycznie przełącza się z jednego kanału
sensorycznego na drugi, jeśli może w ten sposób śledzić treść sensownego
komunikatu. Instrukcja, aby ignorować któryś z kanałów sensorycznych,
przestaje obowiązywać w momencie, gdy do tego kanału trafia coś, co
łączy się sensownie z informacją do tej pory uważnie śledzoną. Co więcej,
filtr uwagi okazał się zdolny do „sklejania” fragmentów komunikatów
pochodzących z różnych źródeł, tj. ważnego i ignorowanego, jeśli
w wyniku takiego zabiegu powstanie coś, co ma sens (Treisman, 1970).
Wyniki tych badań sugerują, że pojęcia „kanału ważnego” i „kanału
ignorowanego” powinny być zdefiniowane na podstawie semantycznej
zawartości komunikatów, a nie ze względu na to, czy coś „idzie” do ucha
prawego czy lewego (ramka 5.1).

RAMKA 5.1

Czy nasza uwaga spontanicznie podąża za


sensem komunikatu?
Polecając osobom badanym podążać za zadanym fragmentem prozy,
Anne Treisman (1960) dokonywała niespodziewanej zamiany kanałów
sensorycznych: ważnego z ignorowanym. Proza przeznaczona do
powtarzania, prezentowana w jednym z kanałów (np. lewym), nagle
pojawiała się w drugim kanale (czyli prawym), podczas gdy komunikat
ignorowany „przeskakiwał” do kanału pierwszego. Komunikat ważny
i ignorowany jak gdyby zamieniały się miejscami w sposób dla osoby
badanej zaskakujący i nieprzewidywalny. Treisman zauważyła, że
badani spontanicznie zmieniali kanał pierwszy na drugi i odwrotnie,
śledząc dalszy ciąg tego komunikatu, za którym nakazano im podążać.
Z reguły jednak spóźniali się z przełączeniem filtra uwagi między
kanałami o jedno lub dwa słowa. W każdym razie po tym krótkim
zawahaniu bezbłędnie powtarzali fragmenty prozy, które były
semantycznie zgodne z wcześniejszymi fragmentami, mimo że
pochodziły ze źródła, które na podstawie sensorycznej zasady selekcji
powinno być z góry odrzucone.

W kolejnych eksperymentach z wykorzystaniem tej techniki Treisman


i współpracownicy (Treisman, Squire, Green, 1974; Treisman, Sykes,
Gelade, 1977) prezentowali badanym w obu kanałach sensorycznych
przekazy w różnym stopniu spójne semantycznie lub brzmieniowo. Na
przykład w kanale ważnym pojawiały się wybrane słowa, które trzeba
było szybko rozpoznawać, podczas gdy w kanale ignorowanym mogły
się pojawiać synonimy tych słów lub wyrazy o podobnym brzmieniu.
W wyniku prowadzonych badań stwierdzono efekt synonimu: jeśli
w kanale ważnym pojawiało się słowo-sygnał, czas potrzebny na jego
wykrycie wydłużał się, gdy w kanale ignorowanym pojawił się w tym
samym czasie jego synonim. Osoby badane jak gdyby przez moment
wahały się, na co mają zareagować – czy na „oficjalne” słowo-sygnał
z kanału ważnego, czy na odrzucone – świadomie nierejestrowany
synonim tego słowa, pojawiający się w kanale ignorowanym. Ten
moment zawahania wydłuża czas reakcji, czego nie obserwowano wtedy,
gdy w kanale odrzucanym pojawiały się słowa znaczeniowo niezwiązane
lub bardzo słabo powiązane ze słowami-sygnałami.

W innych badaniach Treisman (1970) udało się wykazać, że ludzie


często dokonują fuzji (zbitek) dwóch słów pochodzących z różnych
kanałów sensorycznych, jeśli taka fuzja daje w efekcie wyraz, który coś
znaczy (back + lack black). Fuzje te – rezultat połączenia wbrew
instrukcji eksperymentatora dwóch odrębnych elementów pochodzących
z różnych źródeł sensorycznych – Treisman nazwała związkami
iluzorycznymi. Prawdopodobieństwo powstania takiej zbitki wzrasta
wraz ze zwiększaniem się liczby cech wspólnych obu składnikom
przyszłej fuzji, takich jak podobne brzmienie lub przynależność do tej
samej kategorii obiektów (Treisman i in., 1977).

Zarówno efekt synonimu, jak i występowanie związków iluzorycznych


mogą świadczyć na korzyść tezy o jednoczesnej analizie (synonim),
a nawet możliwej integracji semantycznej (związek iluzoryczny) danych
pochodzących z różnych kanałów sensorycznych. Hipotetyczny filtr
uwagi byłby zatem zdolny do selekcjonowania informacji ze względu na
znaczenie podlegających selekcji bodźców. Według Treisman oznacza
to, że w procesie selekcji filtr uwagi uwzględnia semantyczne aspekty
odbieranych sygnałów.

Na podstawie wyników badań sprzecznych z zasadą sensoryczną Treisman


(1960, 1970) zaproponowała nowy, konkurencyjny wobec koncepcji
Broadbenta, model mechanizmu selekcji. W modelu tym całkowicie
odrzuciła ideę, zgodnie z którą filtr uwagi dokonuje mechanicznej blokady
odrzuconej informacji ze względu na jej właściwości fizykalne. Nie
zgodziła się też z poglądem, że droga do dalszego przetwarzania jest dla
informacji odrzuconych zamknięta jak gdyby od zewnątrz (stąd
alternatywne określenie filtra: bramka). Zdaniem Treisman filtr uwagi
otwierany jest „od środka”, to znaczy przez te informacje, które już się
przez niego przedostały. Ma to działać w ten sposób, że informacje
przepuszczone wcześniej przez filtr, a przetwarzane na poziomie
semantycznym, wzmacniają wszystkie dane, które dopiero próbują
przedostać się przez filtr i których znaczenie zgadza się z tym, co jest
aktualnie przetwarzane. W ten sposób bodźce semantycznie spójne
z informacjami analizowanymi już w kanale semantycznym miałyby
łatwość w pokonaniu filtra (bramki), ponieważ są przez uwagę
antycypowane. Dzieje się tak niezależnie od tego, którym kanałem
sensorycznym docierają nowe informacje. Mogą docierać kanałem do tej
pory ignorowanym, ale ponieważ są jak gdyby „oczekiwane”, łatwo
przechodzą do dalszych etapów przetwarzania. Dlatego właśnie, zdaniem
Treisman, jeśli to tylko możliwe, badani grupują bodźce zgodnie ze
znaczeniem tychże, a nie według porządku ich prezentacji lub obecności
w określonym kanale (np. ignorowanym). Pozostałe informacje, a więc te,
które nie są semantycznie zbieżne z danymi aktualnie przetwarzanymi,
byłyby wprawdzie również dopuszczane do dalszej obróbki, ale w postaci
mało aktywnej, osłabionej. Decyzja selekcyjna przejawiająca się we
wzmocnieniu lub osłabieniu informacji byłaby podejmowana na podstawie
głębokiej analizy semantycznej wszystkich docierających do systemu
informacji. Z tego względu zasadę selekcji zaproponowaną przez Treisman
nazwano zasadą semantyczną, a stworzony przez nią teoretyczny model
uwagi – modelem osłabiacza (attenuator; Czyżewska, 1991).

Jaroslav A. Deutsch i Diana Deutsch (1963, 1967) zaproponowali jeszcze


inne umiejscowienie filtra. Według nich efektywna selekcja informacji
może zaistnieć dopiero wtedy, gdy spostrzegane sygnały zostają poddane
świadomej obróbce. Osłabienie bądź wzmocnienie znaczenia sygnałów
mogłoby się więc dokonywać dopiero po przekroczeniu bariery
świadomości. Wcześniej wszystkie bodźce byłyby przetwarzane
z jednakową skutecznością aż do poziomu głębokich reprezentacji
umysłowych, jednak bez formułowania jawnej reprezentacji pamięciowej
(Duncan, 1980). Zasadę koniecznej świadomości szybko jednak
odrzucono, wykazując, że nie jest ona w istocie konieczna do
przetwarzania znaczenia sygnałów oraz podejmowania skutecznych
i złożonych decyzji selekcyjnych (Corteen, Dunn, 1974, Corteen, Wood,
1972; Holender, 1986; Lackner, Garrett, 1972). Problem ten zostanie
omówiony szerzej przy okazji prezentacji związków uwagi i świadomości
(zob. podrozdz. 5.3). Jeśli jednak ze sformułowania zasady selekcyjnej
zaproponowanej przez Deutsch i Deutscha usunąć „konieczność”, to jak
najbardziej słuszne wydaje się postulowanie istnienia kolejnego, trzeciego
już filtra uwagi, działającego na poziomie świadomych decyzji
selekcyjnych. Dotyczy to w szczególności selekcji w odniesieniu do
wyższych, złożonych procesów poznawczych. Trudno np. zakładać, że dla
właściwego wyboru kierunku studiów oba wcześniej omówione filtry
informacji: sensoryczny i semantyczny, okażą się wystarczające.

Próby rozwiązania problemu umiejscowienia filtra uwagi doprowadziły do


silnej polaryzacji poglądów. Dwa antagonistyczne stanowiska
reprezentowali zwolennicy modeli wczesnej selekcji informacji,
przypisujący podstawowe znaczenie zasadzie sensorycznej, oraz
zwolennicy modeli późnej selekcji, podkreślający doniosłość zasady
semantycznej lub nawet zasady koniecznej świadomości sygnału.
Pojawiały się także rozwiązania mniej radykalne, wskazujące na obecność
dwóch lub nawet trzech filtrów, zdolnych do wczesnej lub późnej selekcji
informacji w zależności od warunków zadania. Broadbent i Gregory (1964)
sugerowali, że czynnikiem decydującym o wyborze przez system
poznawczy jednego z potencjalnych filtrów może być tempo prezentacji
informacji. Natomiast Nilli Lavie (1995, 2000; Lavie, Tsal, 1994) wskazuje
raczej na czynnik ilościowy jako determinujący decyzje systemu odnośnie
do umiejscowienia „wąskiego gardła” selekcji. Posługując się metaanalizą
wyników wcześniejszych badań, a także wykorzystując rezultaty własnych
eksperymentów, Lavie stwierdziła, że model wczesnej selekcji znajduje
potwierdzenie w badaniach, w których zadanie było percepcyjnie
wymagające. Tego rodzaju zadania o dużym ładunku percepcyjnym
polegają na prezentacji relatywnie dużej liczby bodźców, wśród których
znajdują się zarówno sygnały, jak i liczne oraz różnorodne dystraktory.
Natomiast modele późnej selekcji informacji znajdowały potwierdzenie
w badaniach z wykorzystaniem zadań o małym ładunku percepcyjnym,
gdzie prezentowano zazwyczaj pojedynczy sygnał i dystraktor. Jako
podsumowanie swoich badań Lavie i współpracownicy zaproponowali
obciążeniową teorię uwagi (load theory of attention; Lavie, 2005; Lavie,
Hirst, De Fockert, Viding, 2004), która ma wyjaśnić związki między
modelami wczesnej i późnej selekcji bodźców. Teoria ta wyraźnie postuluje
połączenie selekcji uwagowej na wszystkich etapach z funkcjami
zarządczymi (executive functions), badanymi głównie w kontekście
kontroli poznawczej i pamięci roboczej (zob. rozdz. 6 i 8).

Johnston (1978; Johnston, Heinz, 1978) wskazał na jeszcze jedno możliwe


rozwiązanie problemu umiejscowienia mechanizmu selekcjonującego
informacje. Powrócił on do koncepcji istnienia tylko jednego filtra, za to
zmieniającego charakter w zależności od poziomu przetwarzania informacji
(Craik, Lockhart, 1972). Najważniejszą cechą takiego filtra byłaby jego
elastyczność, przejawiająca się w możliwości szybkiej zmiany poziomu
przetwarzania informacji oraz niemal natychmiastowego przystosowania
się do aktualnego poziomu analizy i selekcji danych. W swoich
eksperymentach Johnston starał się wymiernie określić różnicę w działaniu
elastycznego filtra na różnych poziomach przetwarzania. Stwierdził m.in.,
że czas potrzebny na dokonanie selekcji różni się znacznie ze względu na
poziom przetwarzania: podczas gdy już 100 ms może wystarczyć do
właściwej selekcji na poziomie sensorycznym (zależy to jednak od
modalności bodźca; Woodworth, Schlosberg, 1963), zasada semantyczna
wymaga co najmniej 360 ms (Johnston, 1978). Czas ten może się zresztą
znacznie wydłużyć, jeśli zasada selekcji jest dość złożona (Posner,
Mitchell, 1967). Ponadto wraz z wydłużeniem czasu selekcji, związanego
z przejściem na wyższy poziom przetwarzania informacji, zwiększa się
pojemność samego filtra, mierzona ilością informacji objętej jednoczesnym
przetwarzaniem. Wyniki te znalazły potwierdzenie w kolejnych badaniach
(Johnston, Heinz, 1978). Johnston wraz ze współpracownikami (Johnston,
Heinz, 1979; Johnston, Wilson, 1980; Johnston, Dark, 1982) wykazali
również, że efektywność działania elastycznego filtra na kolejnych
poziomach przetwarzania zależy od skuteczności analizy i selekcji
informacji na poziomach niższych. Percepcja wszelkich bodźców
niezwiązanych z celem (szumu i dystraktorów) może być według nich
powstrzymana już na poziomie sensorycznym: stopień sensorycznego
przetwarzania tych obiektów okazał się odwrotnie proporcjonalny do
stopnia poprawnej selekcji sygnałów. Innymi słowy, im więcej zakłóceń
udaje nam się zablokować na poziomie sensorycznym, tym poprawniej
wychwytujemy później ważne sygnały na poziomie semantycznym.
Możliwości kontrolowanej selekcji informacji na niższych poziomach
przetwarzania są wprawdzie ograniczone, ale proces ten może zachodzić na
wszystkich poziomach, nie wyłączając sensorycznego (Dark, Johnston,
Myles-Worsley, Farah, 1985).

Johnston nie określił wyraźnie, zgodnie z jaką zasadą selekcyjną


funkcjonuje postulowany przez niego elastyczny filtr. Wydaje się, że
mogłaby tu działać zasada przetargu między szybkością a poprawnością
(Meyer, Irwin, Osman, Kounios, 1988; Snodgrass, Luce, Galanter, 1967;
Szymura, Słabosz, 2002). W eksperymentach z presją czasową badani
z reguły nie są w stanie jednocześnie uzyskać dobrych wyników zarówno
w zakresie szybkości, jak i poprawności reakcji. W konsekwencji albo są
szybcy, ale popełniają wiele błędów, albo reagują poprawnie, ale kosztem
znacznego spowolnienia przebiegu procesów przetwarzania informacji.
Zgodnie z modelem Johnstona, im płytszy poziom analizy bodźców, tym
szybszy proces selekcji informacji. Na płytkim poziomie przetwarzania
sygnału nie udaje się jednak zanalizować wielu jego cech. W konsekwencji
mechanizm filtrujący jest narażony na błędy w procesie selekcji informacji,
gdyż może on pominąć niektóre sygnały lub uznać za sygnały niektóre
bodźce zakłócające. Na głębokich poziomach przetwarzania informacji
analiza bodźców jest znacznie bardziej złożona i uwzględnia więcej cech
stymulacji. Wiąże się to z większą poprawnością procesów selekcyjnych
kosztem wydłużenia czasu potrzebnego na dokonanie wyboru. Na płytkich
poziomach selekcji elastyczny filtr „płaci” zatem poprawnością za
szybkość, podczas gdy na poziomach głębokich – szybkością za
poprawność.

Koncepcja Johnstona (1978; Johnston, Heinz, 1978, 1979) integruje różne


wcześniejsze modele filtra uwagi (ryc. 5.2). W jego modelu filtr
funkcjonuje na poziomie sensorycznym zgodnie z zasadą „wszystko albo
nic” (Broadbent), na poziomie semantycznym – zgodnie z zasadą
osłabiacza (Treisman), a na najgłębszym poziomie odniesienia do Ja –
zgodnie z zasadą koniecznej świadomości (Deutsch i Deutsch). Ponadto na
każdym poziomie przetwarzania filtr działa według naczelnej zasady
przetargu między szybkością a poprawnością (Snodgrass). Te cechy
koncepcji Johnstona sprawiają, że zasługuje ona na bardzo wysoką ocenę
ze względu na trafny opis mechanizmu selekcji źródła i dobre wyjaśnienia
dostępnych danych empirycznych. Jej ograniczeniem wydaje się przyjęcie
założenia, że analiza i selekcja informacji następują tylko w jednym kanale
przetwarzania. Tymczasem zdaniem wielu badaczy (Allport, 1980; Pashler,
2000; Wickens, 1984) system poznawczy jest zdolny do jednoczesnej
selekcji informacji w wielu różnych kanałach przetwarzania. Mechanizmy
jednoczesnej selekcji informacji opiszemy przy okazji prezentacji teorii
zasobów i modułów uwagi (zob. podrozdz. 5.2.4).
RYCINA 5.2. Schematyczna prezentacja koncepcji elastycznego filtra uwagi według Johnstona
Źródło: opracowanie własne na podstawie Johnston, 1978.

Przedstawione wnioski znajdują potwierdzenie we współczesnych


badaniach neuroanatomicznych i neurofizjologicznych. Badania te
podkreślają rolę mózgowych układów neuromodulacyjnych w procesach
uwagi (Aston-Jones i Cohen, 2005; Petersen, Posner, 2012; Posner,
Petersen, 1990). Systemy te, przede wszystkim układ noradrenergiczny,
dopaminergiczny i cholinergiczny, regulują poziom pobudzenia
ośrodkowego układu nerwowego. Mimo że biorą one początek w bardzo
małych strukturach pnia mózgu, mają rozległe połączenia z całym układem
nerwowym. Wiele badań wskazuje na to, że układy te modulują procesy
przetwarzania informacji w korze mózgowej, wpływając na ich
selektywność. W połączeniu z mechanizmem hamowania obocznego
wszechobecnym w całej korze mózgowej (Anderson, Spellman, 1995;
Isaacson, Scanziani, 2011; Itti, Koch, 2000; Walley, Weiden, 1973) ich
aktywność wydaje się neuronalnym substratem filtrów uwagi. Biorąc pod
uwagę szerokie połączenia tych układów zarówno z korą sensoryczną,
kojarzeniową, jak i motoryczną oraz ze strukturami podkorowymi
odpowiedzialnymi za kontrolę ruchu, można wysnuć wniosek, że filtry
uwagi mogą rzeczywiście działać na wielu etapach przetwarzania
informacji – od percepcji bodźców do emisji reakcji.

5.2.2. Teorie przeszukiwania pola percepcyjnego


Najbardziej znaczącą koncepcją teoretyczną w tym obszarze jest teoria
integracji cech zaproponowana przez Treisman (1982, 1988; Treisman,
Gelade, 1980). Koncepcja ta podlegała licznym modyfikacjom, jednak jej
podstawowe założenia pozostają niezmienne (Driver, 2001; Pashler, 2000).
Według pierwotnego modelu Treisman selekcja sygnałów odbywa się
w dwóch etapach. Najpierw wszystkie sygnały i ich cechy docierają do tzw.
map lokacyjnych. Są one czymś na kształt książki adresowej, kierują
bowiem zapisem poszczególnych właściwości postrzeganych obiektów,
takich jak kolor, kształt itd. Mapy umożliwiają też wykrycie, czy dany
atrybut (np. czerwony kolor albo kwadratowy kształt) jest obecny
w którymkolwiek z obiektów znajdujących się w polu wzrokowym.
Treisman sądziła, że każdy obiekt w polu percepcyjnym jest kodowany
z uwzględnieniem najprostszych właściwości sensorycznych, takich jak
kolor, orientacja przestrzenna, rozmiar, kształt, kierunek ruchu.
Przekonanie to odpowiada ogólnie przyjętym poglądom na temat percepcji
(zob. podrozdz. 7.4). Poszczególne sygnały docierają więc do map
lokacyjnych, gdzie są automatycznie kodowane zgodnie ze wszystkimi
swoimi charakterystykami w tzw. mapach cech. Kodowanie w obrębie
mapy cechy odbywa się zawsze wtedy, gdy obiekty w polu wzrokowym
różnią się w jakiś sposób pod względem tej cechy. Jeśli np. niektóre
obiekty są czerwone, a inne nie, mapa cech notuje ten fakt. Ten rodzaj
kodowania cech ma, według Treisman, charakter automatyczny
i selektywna uwaga nie ma z nim wiele wspólnego. Jej zadaniem jest
natomiast wybór właściwych map lokacyjnych, co prowadzi do selekcji
właściwych map cech.

Drugi etap selekcji polega na integracji zakodowanych wcześniej cech,


w wyniku czego dochodzi do rozpoznania obiektu. Na przykład integrując
cechę „czerwony kolor” z cechą „kwadratowy kształt”, rozpoznajemy
obiekt, jakim jest czerwony kwadrat. Integracja wymaga wcześniejszego
zakodowania właściwości obiektów w mapach cech, ale podlega wpływom
ze strony wymagań zadania (np. instrukcji eksperymentalnej) lub
wskazówek płynących z otoczenia. Proces selekcji polega więc w istocie na
aktywacji poszczególnych cech – składowych obiektów – znajdujących się
w obrębie map cech, a następnie na ich integracji w żądany obiekt.
Podstawowym kryterium integracji jest tu znaczenie sygnału, które może,
choć nie musi, przejawiać się w jego fizycznych charakterystykach,
a podstawowy czynnik umożliwiający integrację stanowi aktywacja
odpowiednich map cech w fazie automatycznego kodowania wszelkich
właściwości bodźców.

Według pierwotnej wersji koncepcji integracji cech w obiekt proces


przeszukiwania pola percepcyjnego dokonuje się szeregowo: cecha po
cesze, obiekt po obiekcie. Prowadząc badania w paradygmacie
przeszukiwania pola wzrokowego (paradygmat 5.2), Treisman i Gelade
(1980) porównali średni czas potrzebny badanym na odnalezienie obiektu
zdefiniowanego przez pojedynczą cechę (poszukiwanie proste) lub związek
cech (poszukiwanie koniunkcyjne) wśród licznego lub mniej licznego
zbioru bodźców (ryc. 5.3).

Czas potrzebny na wykonanie zadania okazał się znacznie dłuższy


w przypadku poszukiwania koniunkcyjnego niż w warunkach
poszukiwania prostego. Co więcej, w przypadku poszukiwania
koniunkcyjnego przyrost czasu był liniową funkcją zwiększającej się
liczebności zbioru bodźców (ryc. 5.4). Na przykład odnalezienie
czerwonego kwadratu trwało dłużej, jeśli był on zawarty w zbiorze 15
elementów, niż wtedy, gdy było ich pięć. Natomiast czas poszukiwania
prostego nie był w żadnej mierze zależny od rozmiaru zestawu bodźców.
Treisman (1988) uznała więc, że proces poszukiwania prostego polega na
równoległym przeszukiwaniu pola wzrokowego, podczas gdy proces
poszukiwania koniunkcyjnego wymaga szeregowego przetwarzania
danych. Wniosek ten wynika z ogólnie akceptowanego poglądu, że czas
trwania procesu szeregowego zależy od liczby elementów w zestawie
bodźców, natomiast czas procesu równoległego nie wykazuje takiej
zależności (Egeth, Jonides, Wall, 1972; Townsend, 1972). Zauważmy, że
integracja cech w obiekt z natury rzeczy wymaga poszukiwania
koniunkcyjnego, ponieważ polega na złożeniu obiektu z więcej niż jednej
cechy. Dlatego zdaniem Treisman integracja cech w obiekt musi mieć
charakter szeregowy. Tezę tę poddano gruntownej krytyce.
RYCINA 5.3. Bodźce używane w badaniach Treisman nad przeszukiwaniem pola
percepcyjnego
Cechy różniące bodźce: kształt figury (np. trapez, okrąg) oraz położenie kropli (wewnątrz, na
zewnątrz) figury. Przykład bodźca dla poszukiwania prostego: trapez. Przykład dla poszukiwania
koniunkcyjnego: trapez z kropką na zewnątrz.
Źródło: opracowanie własne na podstawie Treisman, 1988.
RYCINA 5.4. Czas detekcji sygnału złożonego (koniunkcja cech) i prostego (pojedyncza cecha)
w zależności od liczby dystraktorów w polu wzrokowym
Źródło: opracowanie własne na podstawie Treisman, 1988.

W badaniach nad przeszukiwaniem prostym (Bergen, Julesz, 1983; Jonides,


Yantis, 1988; Nakayama, Silverman, 1986) okazało się bowiem, że nie
zawsze ten typ selekcji informacji ma charakter procesu równoległego.
James Bergen i Bela Julesz polecili badanym poszukiwać sygnałów, jakimi
były litery, w prezentowanym im wizualnie zbiorze bodźców bardzo
podobnych do siebie pod względem kształtu. Okazało się, że im większe
podobieństwo percepcyjne między sygnałem a dystraktorem (czyli im
trudniej wyróżnić sygnał z szumu percepcyjnego), tym wyższe
prawdopodobieństwo wystąpienia szeregowego procesu przeszukiwania.
Zgodnie z tymi wynikami równoległy lub szeregowy charakter procesu
przeszukiwania pola wzrokowego może w większym stopniu zależeć od
podobieństwa sygnału do dystraktorów niż od liczby integrowanych cech
poszukiwanego bodźca. Hipotezy wpływu podobieństwa sygnału do
dystraktorów na szybkość i jakość procesu integracji bronił później John
Duncan (1989; Duncan, Humphreys, 1989). Znalazła ona także
potwierdzenie w badaniach Aleksandry Słabosz i Błażeja Szymury (2004).
Jak się więc wydaje, wpływ na jakość i szybkość procesu przeszukiwania
pola wzrokowego mają możliwości w zakresie odrzucania dystrakcji na
sensorycznym poziomie przetwarzania. Możliwości te są jednak
uwarunkowane zarówno jakością prezentowanej stymulacji, jak
i zdolnością systemu do obrony przed zakłóceniami (Cave, Wolfe, 1990;
Egeth, Virzi, Garbart, 1984; Szymura, 1999).

Z kolei w badaniach nad przeszukiwaniem koniunkcyjnym Peter McLeod,


Jon Driver i Jennie Crisp (1988) wykazali, że czas potrzebny na
poszukiwanie koniunkcyjne celu charakteryzowanego przez dwie cechy:
kształt i ruch, nie musi być rosnącą funkcją wzrastającej liczebności
bodźców. W kolejnym eksperymencie Jon Driver i Gordon Baylis (1989)
stwierdzili, że poruszające się wraz z sygnałem bodźce zakłócające
wywołują większą interferencję niż dystraktory statyczne, nawet wtedy,
gdy te ostatnie umieszczone są znacznie bliżej poszukiwanego sygnału.
Wreszcie Peter McLeod, Jon Driver, Zoltan Dienes i Jennie Crisp (1991)
wykazali, że proces poszukiwania koniunkcyjnego w przypadku dwóch
cech: ruchu i kształtu obiektów, jest równoległy niezależnie od możliwego
kierunku tego ruchu. Natomiast w ostatnim z prezentowanych tu badań
Driver i McLeod (1992) stwierdzili, że poszukiwanie obiektów
charakteryzowanych przez znacznie zmienioną orientację przestrzenną
(obrót o 45o kątowych) i zdefiniowanych przez ruch jest znacznie
łatwiejsze i szybsze niż wówczas, gdy pozostają one w bezruchu.
Przeciwny efekt został jednak zaobserwowany przy stosunkowo
niewielkich odchyleniach bodźców od wspomnianych osi symetrii (obrót
o 9o kątowych).
Cecha priorytetowa – właściwość bodźca umożliwiająca wczesne, szybkie, automatyczne
i przeduwagowe przetwarzanie informacji związanych z tą cechą.
Przeduwagowa faza procesu selekcji (preattentional stage of selection) – wczesna faza selekcji
informacji, w której dokonuje się przetwarzanie bodźców ze względu na cechy priorytetowe; w fazie
tej następuje segregacja (podział) pola wzrokowego zgodnie z analizowanymi cechami, np. na część
ruchomą i statyczną.

Prowadząc eksperymenty nad prostym i koniunkcyjnym poszukiwaniem


obiektów zdefiniowanych przez cechy statyczne, Treisman (1988, 1993)
nadal jednak uzyskiwała wyniki świadczące o szeregowym charakterze
badanego procesu. Zgodziła się tylko z sugestią Drivera i McLeoda (1992;
McLeod, Driver, 1993), że ruch może być cechą wyjątkową wśród
kodowanych charakterystyk obiektów, przyspieszającą etap integracji i tym
samym cały proces selekcji. Właściwości takie nazwano cechami
priorytetowymi (McLeod i in., 1991). Priorytetowy charakter cechy
oznacza możliwość wczesnego, szybkiego i automatycznego przetwarzania
informacji z nią związanych. Uznano, że przetwarzanie właściwości
priorytetowych następuje we wczesnej fazie selekcji, zwanej
przeduwagową (preattentive). W fazie tej dokonuje się segregacja pola
wzrokowego zgodnie z analizowaną cechą, np. na część ruchomą
i statyczną. Taka wstępna analiza pola wzrokowego możliwa jest jedynie
wtedy, gdy cecha priorytetowa rzeczywiście wyróżnia obiekt w polu
wzrokowym, to znaczy przyjmuje wartości dystynktywne (Treisman i in.,
1992). Dlatego właściwością priorytetową może być ruch obiektu, ale
również jego szczególnie wyrazisty kolor (D’Zamura, 1991; Kyllingsbek,
Bundesen 2001; Słabosz, Szymura, 2004). Z kolei ruch obiektu sam
w sobie nie musi stać się cechą priorytetową (Driver, McLeod, 1992),
zwłaszcza gdy odbywa się poza centrum uwagi, czyli na peryferiach pola
wzrokowego (Mack, Rock, 1998; Mack i in., 1992; Rock i in., 1992;
Szymura, Horbaczewski, 2005).

Modyfikując swoją pierwotną koncepcję, Treisman (1993) uznała, że


priorytetowe właściwości obiektów (np. ruch, dystynktywny kolor) są
kodowane w odpowiadających im mapach cech znacznie szybciej niż
pozostałe cechy. Mapy właściwości priorytetowych znajdują się
w najwyższym stopniu gotowości i uprzywilejowania. Gdy dochodzi do
integracji poszczególnych cech w obiekt, mapy te aktywizują bądź
dezaktywizują pozostałe mapy cech konieczne do identyfikacji obiektu.
Model równoległej i szeregowej integracji cech (Treisman, 1993; Treisman,
Sato, 1990) opisuje działanie dwóch procesów: „odgórnego”, polegającego
na aktywizacji właściwych map cech zgodnie z narzuconą zasadą selekcji,
i „oddolnego”, sprowadzającego się do automatycznej dezaktywacji
pozostałych map cech.

Poprawiony przez Treisman (1998) model przeszukiwania pola


wzrokowego zyskał akceptację, choć różni badacze znajdują wyjątki od
zaproponowanych przez nią reguł przeszukiwania pola wzrokowego.
Jeremy Wolfe, Kyle Cave i Susan Franzel (1989) wykazali np., że selekcja
obiektów charakteryzowanych przez trzy cechy niepriorytetowe może być
szybsza i bardziej poprawna od selekcji celów wybieranych ze względu na
dwie takie właściwości. Cave i Wolfe (1990) wykryli ponadto, że detekcja
unikatowych bodźców w polu wzrokowym, definiowanych jako koniunkcja
wielu różnych cech, niekoniecznie priorytetowych czy dystynktywnych,
może być również procesem szybkim i równoległym. Stwierdzili bowiem
brak zależności czasu potrzebnego na takie przeszukiwanie od liczby
elementów w zbiorze przeszukiwanych bodźców. W sformułowanym na
podstawie tych badań modelu przewodników uwagi Cave i Wolfe (tamże;
Wolfe i in., 1989, 1990) sugerują, że jeśli ilość informacji o obiekcie,
zgromadzona w przeduwagowej fazie kodowania percepcyjnego, jest
dostatecznie duża, wówczas proces integracji cech w obiekt nie jest
konieczny. W takim przypadku brak drugiego etapu, ze swej natury
opartego na zasadzie przetwarzania szeregowego, sprawia, że cały proces
selekcji składa się z procesów przetwarzania równoległego. Taki
specyficzny, bogaty w cechy obiekt wyróżnia się tak bardzo na tle innych
obiektów, jak gdyby „wyskakując” (pop out) z pola wzrokowego, że
automatycznie przyciąga uwagę i może zostać trafnie zidentyfikowany już
na podstawie samej fazy kodowania cech (Irwin, 1981).

Zjawisko przyciągania uwagi przez właściwości bodźców badano także


w inny sposób. Steven Yantis i John Jonides (1984; Yantis, 1993; Jonides,
Yantis, 1988) zmodyfikowali paradygmat przeszukiwania pola
wzrokowego, opóźniając pojawienie się sygnału w stosunku do reszty
prezentowanego zestawu. Dzięki temu sygnał pojawiał się zupełnie
niespodziewanie dla osoby badanej na tle występujących już w polu
wzrokowym innych elementów tego zestawu. Sygnały były w cytowanym
badaniu pojedynczymi, specyficznymi dla całości stymulacji bodźcami;
pytano np. o zieloną literę „X”, gdy w zestawie nie było żadnych innych
zielonych liter. Yantis i Jonides wykazali, że czas potrzebny na
identyfikację takiego sygnału jest niezależny od liczby bodźców
stanowiących tło zestawu. Prowadząc badania w tym samym
paradygmacie, Jan Theeuwes (1994) stwierdził jednak, że nie zawsze nagłe
pojawienie się bodźca w polu wzrokowym jest w stanie skutecznie
przyciągnąć uwagę. Na przykład identyfikacja nagle pojawiającego się
sygnału może być opóźniona, jeśli w polu wzrokowym tkwi bardzo
intensywny, choć statyczny element.

Dwufazowy, równoległo-szeregowy model przeszukiwania pola


wzrokowego, autorstwa Treisman (1993, 1998), jest obecnie uznawany
przez większość badaczy za ważny etap w rozwoju teorii uwagi. W modelu
tym wyróżnia się opartą na procesach równoległych fazę kodowania,
z ewentualną segregacją pola wzrokowego przy wykorzystaniu cech
priorytetowych, oraz opartą na procesach szeregowych fazę integracji cech
niepriorytetowych w obiekt, będący celem przeszukiwania. Prowadzone
obecnie badania zmierzają do ustalenia, które właściwości bodźców mają
zdolność do przyciągania uwagi. Bez wątpienia właściwością priorytetową
jest ruch obiektu w polu wzrokowym, szczególnie pewna odmiana ruchu,
jaką stanowi nagłe pojawienie się bodźca – niezależnie od tego, czy
sygnału, czy dystraktora. Także inne cechy, w szczególności kolor, ale
również umiejscowienie obiektu w głębi lub w tle, mogą uzyskać status
cech priorytetowych, jeśli pozostaną wystarczająco intensywne. Badania
z użyciem technik neuroobrazowania (Downing, Liu i Kanwisher, 2001)
prowadzą do podobnych wniosków jak badania z użyciem technik
behawioralnych i wspierają teorię Treisman, jednak pokazują też, że inne
mechanizmy selekcji uwagowej (np. przyciąganie uwagi przez całe obiekty,
a nie tylko ich cechy) mogą działać równolegle do mechanizmów
postulowanych przez tę badaczkę. Podobnie, techniki neuroobrazowania
pozwoliły potwierdzić rolę cech priorytetowych w przyciąganiu uwagi
(Bekhtereva, Müller, 2017; Kuniecki, Pilarczyk, Wichary, 2015).

Teorie przeszukiwania pola uwagi ewoluują dziś od teorii czysto


psychologicznych (takich jak koncepcja Treisman) w stronę złożonych
modeli obliczeniowych inspirowanych budową mózgu. Dobry przykład
stanowi model Laurenta Ittiego i Christopha Kocha (2000, 2001),
zakładający, że przeszukiwanie pola wzrokowego jest wynikiem
konkurencji między grupami neuronów reprezentujących postrzegane
obiekty. Każda postrzegana scena wzrokowa ma być reprezentowana
w mózgu w postaci mapy wyrazistości (saliency map). Obiekty będące
częściami sceny wzrokowej różnią się wyrazistością (saliency),
reprezentowaną w modelu jako aktywacja grup neuronów. Podstawowy
mechanizm odpowiadający za przenoszenie uwagi z jednego obiektu na
drugi zakłada istotny udział procesów hamowania między grupami
neuronów. Hamowanie aktywacji ma być realizowane poprzez osobne,
wyspecjalizowane neurony hamujące, co jest zgodne z danymi
anatomicznymi dotyczącymi budowy mózgu (Isaacson, Scanziani, 2011).

5.2.3. Teorie przedłużonej koncentracji


Trwała, przedłużona w czasie uwaga to synonim czujności (vigilance),
rozumianej jako „stan gotowości na wykrycie, rozpoznanie i reakcję na
niezwykle subtelne zmiany w środowisku, zachodzące przypadkowo
w dłuższym odcinku czasu” (Mackworth, 1957, s. 389–390). Wiadomo, że
gdy uwaga musi być skupiona przez dłuższy czas na jednym lub kilku
źródłach informacji, a odbierane bodźce są wydarzeniami rzadkimi
i nieprzewidywalnymi, w pewnym momencie zaobserwujemy spadek
czujności. Przejawia się to obniżoną liczbą poprawnych rozpoznań sygnału,
notowanych w dłuższym okresie wykonania jakiegoś zadania. Mackworth
(1950) wykryła, że liczba prawidłowych detekcji sygnału znacznie się
obniża po upływie zaledwie pół godziny; dalszy spadek jest już wolniejszy,
niezależnie od długości trwania testu (ryc. 5.5). Podobne wyniki uzyskano,
badając procesy monitorowania bodźców wzrokowych w innych
eksperymentach, naśladujących realne sytuacje życiowe, takie jak kontrola
jakości produkcji przemysłowej lub nadzór nad operacjami chirurgicznymi.
RYCINA 5.5. Procent niezauważonych sygnałów w teście zegara Mackworth w zależności od
długości jego trwania
Źródło: opracowanie własne na podstawie Mackworth, 1950.

Badania nad spadkiem czujności uwagi długo koncentrowały się wokół


problemu ustalenia empirycznych wskaźników tego procesu.
W eksperymencie Raji Parasuramana i D. Roya Daviesa (1976) badanym
polecono w czasie 45-minutowej ekspozycji stymulacji wzrokowej
rozróżniać bodźce ze względu na ich jasność. Sygnałem był bodziec
jaśniejszy od pozostałych. Liczba prawidłowych rozpoznań zmniejszała się
wraz z czasem trwania zadania. Największą różnicę obserwowano między
pierwszym a drugim 15-minutowym blokiem prób, przy czym spadek
czujności był mniejszy w przypadku osób, którym sygnały prezentowano
częściej, w porównaniu z osobami, które musiały wykrywać sygnały
prezentowane rzadziej. Parasuraman i Davies wykazali także, że czas
reakcji na krytyczny sygnał wzrasta o mniej więcej 100 ms w ciągu 45-
minutowego okresu badania. Wskaźnikiem spadku czujności jest również
wzrost odchyleń od średniego czasu reakcji, co wykryli Richard I.
Thackray, Karen N. Jones i R. Mark Touchstone (1973).

Zachowanie ludzi w warunkach wymagających przedłużonej koncentracji


uwagi analizuje się zazwyczaj w języku teorii detekcji sygnałów (ramka
5.2). Przewiduje ona, że idealny obserwator zauważy każdy sygnał (reakcja
typu trafienie) i zawsze zignoruje szum lub dystraktor (prawidłowe
odrzucenie). Obserwator może jednak popełnić jeden z dwóch rodzajów
błędu, czyli zareagować na szum lub dystraktor (fałszywy alarm, FA) albo
zignorować sygnał (błąd ominięcia, OM). Prawidłowe wykonanie zadania
wymagającego selekcji oznacza, że obserwator dobrze odróżnia sygnały od
szumu i dystrakcji; świadczą o tym duża liczba trafień (a zatem mała liczba
błędów ominięcia) i mała liczba fałszywych alarmów. Teoria przewiduje
ponadto, że popełniając błędy, obserwator może przyjąć różne strategie
wykonania zadania. W szczególności może się skłaniać raczej ku
fałszywym alarmom niż ominięciom lub odwrotnie. Pierwsza strategia
może być korzystna wtedy, gdy konsekwencje wzniecenia fałszywego
alarmu są mniejsze niż konsekwencje ominięcia ważnego sygnału.
Odwrotna strategia pojawia się wtedy, gdy konsekwencje ominięcia
sygnału nie są dramatyczne, natomiast konsekwencje wywołania
fałszywego alarmu mogą być nader dotkliwe. Przyjmuje się, że każdy
obserwator ustawia sobie odpowiedni próg wyzwalania reakcji, zwany też
progiem reaktywności lub kryterium decyzyjnym: im jest on niższy, tym
większe staje się prawdopodobieństwo zauważenia sygnału, ale też tym
większe ryzyko fałszywego alarmu. Im próg wyzwalania reakcji jest
wyższy, tym bardziej ryzyko popełnienia błędu typu FA maleje, natomiast
rośnie ryzyko błędu typu OM. W badaniach nad przedłużoną koncentracją
wykazano, że wraz z upływem czasu maleje liczba prawidłowych detekcji
i liczba fałszywych alarmów, a zwiększa się liczba ominięć (Parasuraman,
Davies, 1976).

RAMKA 5.2

Teoria detekcji sygnałów


Teoria detekcji sygnałów (signal detection theory, SDT) powstała jako
model procesu odróżniania sygnału od szumu (Green, Swets, 1966).
Początkowo wykorzystywano ją przede wszystkim w naukach
technicznych, np. do analizy transmisji sygnałów radiowych i zakłóceń
spowodowanych elektromagnetycznym „tłem”. Później SDT znalazła
zastosowanie w odniesieniu do żywych systemów wykrywania
sygnałów. W psychologii podstawowe założenia i pojęcia tej teorii
wykorzystuje się w badaniu uwagi, spostrzegania, pamięci
i podejmowania decyzji.

Wyobraźmy sobie, że terapeuta ocenia ryzyko podjęcia przez pacjenta


próby samobójczej. Pewne reakcje i wypowiedzi pacjenta sygnalizują
zagrożenie, ale równie dobrze mogą być mylącym „szumem
informacyjnym”. Terapeuta może w tej sytuacji zareagować na dwa
sposoby, to znaczy stwierdzić ryzyko samobójstwa lub je wykluczyć.
W obu przypadkach może mieć rację lub się pomylić. Jeśli wykryje
istniejące ryzyko samobójstwa, zaliczymy mu trafienie (hit), a jeśli
prawidłowo je wykluczy, powiemy, że zastosował poprawne odrzucenie
(correct rejection). Gdy terapeuta stwierdzi zagrożenie, którego nie ma,
popełni błąd fałszywego alarmu (false alarm, FA), a gdy nie zauważy
istniejącego ryzyka, popełni błąd ominięcia (miss, OM). Teoria
przewiduje więc cztery możliwe skutki działalności terapeuty, podobnie
jak każdego systemu wykrywającego sygnały: trafienie, poprawne
odrzucenie, fałszywy alarm i ominięcie. Obserwator, np. psycholog
eksperymentalny, ma pełną wiedzę na temat proporcji każdego z tych
czterech skutków w stosunku do rzeczywistej liczby działających na
system sygnałów i bodźców innego rodzaju (zakłóceń, szumów).

Terapeuta podejmujący decyzję działa w warunkach niepewności, która


wynika z działania szumu. Szum wewnętrzny wynika z zawodności
procesów poznawczych terapeuty, z rozmaitych przekłamań, błędów
i tendencji w procesie stawiania diagnozy, z losowych wahań
koncentracji uwagi, z pojawiających się niekontrolowanych myśli lub
skojarzeń itp. Szum zewnętrzny ma związek z brakiem jednoznaczności
w klinicznym obrazie zachowań poprzedzających samobójstwo
i z zawodnością kryteriów, pozwalających podjąć racjonalną decyzję.
Z jednej strony prawdziwa depresja może wywoływać nietypowe
objawy, a z drugiej strony zdarza się, że całkiem „niedepresyjne”
zachowanie pacjenta sugeruje zagrożenie. Wszystko to może zmylić
mało doświadczonego terapeutę.

Sygnały, zakłócenia i szumy docierające do systemu układają się


w pewien wzorzec, który skłania decydenta do reakcji TAK lub NIE. Na
razie nie ma jeszcze żadnej jawnej decyzji, jest tylko stan wewnętrzny
systemu; w przypadku terapeuty są to jego doznania sensoryczne, myśli,
przywołane elementy wiedzy. Rycina 5.6A pokazuje rozkład
prawdopodobieństwa reakcji NIE (nie ma ryzyka samobójstwa), jak
również analogiczny rozkład prawdopodobieństwa reakcji TAK (jest
zagrożenie). Reakcja NIE jest najbardziej prawdopodobna przy stanie
wewnętrznym N, ale może się też pojawić przy innych stanach
wewnętrznych. Reakcja TAK jest najbardziej prawdopodobna przy
stanie wewnętrznym T, ale może się pojawić kiedy indziej. Oba rozkłady
prawdopodobieństw przyjmują kształt krzywej Gaussa. Jak widać,
częściowo zachodzą one na siebie, co oznacza, że w pewnych stanach
wewnętrznych możliwa jest zarówno reakcja TAK, jak i reakcja NIE.
Nakładanie się obu rozkładów sprawia, że system jest podatny na
popełnianie błędów. Im bardziej rozkłady wzajemnie się rozchodzą, tym
niższe jest ryzyko błędu. Zdarza się to wtedy, gdy sygnał jest bardzo
dobrze odróżnialny od szumu, np. ze względu na swoją intensywność,
jednoznaczność lub kontrast w stosunku do tła. Jeśli natomiast sygnał
jest trudno odróżnialny od szumu (np. dźwięk „c” od dźwięku „cis” dla
kogoś nieuzdolnionego muzycznie), oba rozkłady w znacznym stopniu
na siebie nachodzą, a ryzyko pomyłki wzrasta. Obiektywna
odróżnialność sygnału od szumu decyduje o tym, że oba rozkłady mają
swoje wartości modalne w dużym wzajemnym oddaleniu. Może też być
tak, że wartości modalne znajdują się blisko siebie, ale odchylenia
standardowe są stosunkowo nieduże. Odpowiada to sytuacji, w której
wprawdzie sygnał jest dość podobny do szumu, ale system dobrze
odróżnia jeden od drugiego, bo jest czuły na subtelne różnice między
nimi. Na przykład zawodowy muzyk łatwo odróżni dźwięk „c” od
dźwięku „cis”, chociaż obiektywnie są to wartości bardzo do siebie
podobne. Uzyskujemy wtedy dwa rozkłady leptokurtyczne,
w niewielkim stopniu nakładające się na siebie. Zatem obiektywne
własności stymulacji przekładają się na wewnętrzne stany systemu, a te
– na poziom pewności decydenta co do tego, czy ma do czynienia
z sygnałem czy szumem. Im wyższy poziom pewności, tym mniejszy
zakres nakładania się rozkładów prawdopodobieństw. Im decydent mniej
pewny, z czym ma do czynienia, tym bardziej rozkłady na siebie
nachodzą, co zwiększa ryzyko pomyłki. Subiektywna pewność
decydenta zależy zaś od stopnia obiektywnego podobieństwa sygnałów
i szumu (wartości modalne rozkładów położone są blisko lub daleko od
siebie) oraz od sprawności samego decydenta (odchylenia standardowe
rozkładów są duże lub małe).

RYCINA 5.6a. Rozkład prawdopodobieństwa reakcji NIE i TAK w zależności od


wewnętrznego stanu systemu wykrywającego sygnały
Źródło: opracowanie własne.

Zdolność decydenta do odróżniania sygnałów od szumu oddaje


wskaźnik, oznaczony jako d’ (od: discriminability). Wartość d’ równa się
różnicy między średnią rozkładu dla reakcji NIE a średnią rozkładu dla
reakcji TAK, wyrażonej w jednostkach odchylenia standardowego, czyli
w skali z. Jak wiadomo, standardowa skala z przekształca średnią
arytmetyczną rozkładu normalnego w 0 (zero), a odchylenie
standardowe w 1 (jeden). Dystans między dwiema średnimi, wyrażony
w skali z, wynosi zatem tyle, ile odchyleń standardowych mieści się
między jedną średnią a drugą. Gdyby oba rozkłady – dla reakcji NIE
i TAK – w ogóle się od siebie nie różniły, dystans między średnimi byłby
zerowy, a wartość d’ = 0, czyli system nie byłby w stanie odróżnić
sygnału od szumu. Dystans równy trzem odchyleniom standardowym
oznaczałby, że decydent idealnie rozróżnia sygnały od szumu, bo
rozkłady prawie w ogóle na siebie nie nachodzą. W praktyce d’
przyjmuje wartości między 0 a 3. Aby wyliczyć tę wartość, trzeba znać
proporcję trafień (ile razy powiedziano TAK, gdy sygnał był obecny)
oraz proporcję fałszywych alarmów (ile razy powiedziano TAK, gdy
sygnału nie było). Przypuśćmy, że w konkretnym eksperymencie osoba
badana trafiała w 92% przypadków, a w 14% popełniała błąd fałszywego
alarmu (przykład za: Levine, Parkinson, 1994). Oznacza to np., że na
100 sygnałów 92 razy powiedziała TAK, a na 1000 przypadków
działania szumu bądź dystrakcji 140 razy również powiedziała TAK.
Gdyby reakcje były przypadkowe, należałoby oczekiwać 50% trafień
i 50% fałszywych alarmów. W podanym przykładzie proporcja trafień
odbiega od przypadku na poziomie – 0,42 (bo 0,50 – 0,92 = – 0,42),
a proporcja fałszywych alarmów – na poziomie 0,36 (0,50 – 0,14 =
0,36). Według wzoru:

d’ = zNIE – zTAK,

czyli d’ to różnica między średnią dla NIE a średnią dla TAK wyrażona
w skali z. Z tabeli rozkładu normalnego odczytujemy, że 36% powyżej
średniej (o tyle odbiega od przypadku proporcja FA) odpowiada wartości
z = 1,08. Z kolei 42% poniżej średniej (o tyle odbiega od przypadku
proporcja trafień) odpowiada wartości z = – 1,41. Podstawiając obie
wartości do wzoru, otrzymujemy wynik:

d’ = 1,08 – (– 1,41) = 1,08 + 1,41 = 2,49.

Oznacza on dość dobrą rozróżnialność sygnału od szumu, co może być


konsekwencją obiektywnie dużej różnicy między nimi lub wrażliwości
obserwatora.

O zachowaniu systemu wykrywającego sygnały decyduje nie tylko


rozkład prawdopodobieństw, lecz także przyjęta strategia decyzyjna. Na
przykład terapeuta może uznać, że w sytuacji zagrożenia życia lepiej na
wszelki wypadek zareagować na bardzo nikłe ryzyko samobójstwa, niż
zlekceważyć prawdziwe zagrożenie. Będzie wówczas skłonny raczej
popełnić błąd fałszywego alarmu niż błąd ominięcia. Decydent może też
jednak przyjąć odwrotną strategię. Na przykład terapeuta, aby nie
„płoszyć” pacjenta lub niczego mu nie sugerować, może zignorować
sygnały zagrożenia jako zbyt słabe albo może uznać, że ewentualny
fałszywy alarm byłby emocjonalnie bardzo kosztowny dla pacjenta lub
jego rodziny. Decydent jest w takiej sytuacji skłonny popełnić raczej
błąd ominięcia niż fałszywego alarmu. Jego strategia zależy od miejsca,
w którym ustanowi kryterium rozróżniania między sygnałem a szumem
(ryc. 5.6B). Każdy bodziec słabszy od kryterium będzie wówczas
uznawany za szum, nawet gdyby był sygnałem, a każdy bodziec
silniejszy od kryterium będzie interpretowany jako sygnał, nawet gdyby
był szumem. W sytuacji gdy rozkłady prawdopodobieństw choć trochę
się na siebie nakładają, nie ma możliwości uniknięcia jakichkolwiek
błędów. Można jedynie przyjąć, że tendencja do popełniania fałszywych
alarmów jest mniej szkodliwa od tendencji do popełniania błędów
ominięcia lub odwrotnie. W każdym razie dopiero w momencie
ustanowienia kryterium możliwa jest jawna reakcja typu TAK lub NIE;
wcześniej można było mówić jedynie o stanach wewnętrznych systemu
i związanych z tym prawdopodobieństwach wystąpienia reakcji
określonego rodzaju. Kryterium można zatem zdefiniować jako
minimalny poziom pewności decydenta, że sygnał się pojawił i należy
na niego zareagować.

RYCINA 5.6b. Rola kryterium w wyznaczaniu strategii detekcji sygnałów


Źródło: opracowanie własne.

Wskaźnik przyjętej przez osobę badaną strategii, czyli β (beta), można


wyliczyć z empirycznie stwierdzonej proporcji trafień i fałszywych
alarmów. Trzeba w tym celu odczytać wartość funkcji rozkładu
normalnego, odpowiadającą wcześniej wyliczonym wartościom na skali
z, osobno dla rozkładu NIE i TAK. Każdej wartości na osi odciętej,
traktowanej jako zmienna niezależna, odpowiada określona wartość
rzędnej, reprezentującej zmienną zależną. Gdyby to były wartości realne,
oś pionowa przedstawiałaby empiryczną częstość występowania
odpowiednich wartości na osi poziomej. W przypadku rozkładu
teoretycznego, gdzie na osi poziomej mamy skalę z, oś pionowa
informuje nas o prawdopodobieństwie występowania danych wartości.
Na przykład prawdopodobieństwo wystąpienia wartości z = 0 (czyli
wartości średniej arytmetycznej, tożsamej z medianą i modalną) wynosi
0,3989, prawdopodobieństwo wystąpienia wartości z = 1,08 jest równe
0,2227, a prawdopodobieństwo wystąpienia wartości z = 1,41 sięga
0,1476. Dane te można odczytać z tabeli prawdopodobieństw pod
krzywą rozkładu normalnego. Wzór na wskaźnik b to proporcja
prawdopodobieństwa reakcji NIE do reakcji TAK, czyli:

W omawianym przypadku β = 0,1476 : 0,2227 = 0,6628. Jest to wartość,


która mówi nam, że osoba badana przyjęła strategię reagowania „na
wszelki wypadek” – woli popełnić fałszywy alarm, niż ominąć sygnał,
choć oczywiście zdarza się jej również to ostatnie. Wartości β < 1
świadczą o takiej właśnie tendencji, podczas gdy wartości β > 1 –
o tendencji przeciwnej, czyli skłonności do unikania fałszywych
alarmów, nawet kosztem ominięcia ważnego sygnału. Oczywiście im
bardziej wartość b odbiega od 1 w którąkolwiek stronę, tym silniejsza
jest jedna lub druga tendencja. Gdy natomiast β = 1, system nie
przejawia żadnej tendencji, czyli traktuje oba rodzaje błędów jako
równie kosztowne.
Wskaźniki d’ i β są wzajemnie niezależne. System może się cechować
dużą lub małą zdolnością do dyskryminacji sygnału od szumu (d’), ale
nie zależy to w żaden sposób od przyjętego kryterium, a zatem również
od tendencji do preferowania błędów FA lub OM. I odwrotnie – system
może przyjąć jedną z dwóch strategii, czyli reagować tendencyjnie, a siła
tej tendencji może być mała lub duża, lecz nie zależy to w żaden sposób
od jego ogólnej sprawności w rozróżnianiu sygnałów od szumu. Dlatego
d’ informuje nas o ogólnej sprawności systemu jako detektora sygnałów,
a b – o przyjętej przezeń strategii działania.

Idealny obserwator ma niższe kryterium decyzyjne dla sygnałów


prawdopodobnych niż dla bodźców mniej prawdopodobnych. Wzrost
prawdopodobieństwa pojawienia się sygnału powoduje więc obniżenie się
tego kryterium, a tym samym przyczynia się do wzrostu
prawdopodobieństwa wystąpienia poprawnych odpowiedzi, choć zwiększa
przy tym ryzyko fałszywych alarmów (Baddeley, Colquhoun, 1969; Green,
Swets, 1966; Gregory, 1970; Murrell, 1975; Parasuraman, Davies, 1976;
Williges, 1971, 1973). W eksperymencie Alana D. Baddeleya i W. Petera
Colquhouna (1969) osobom badanym pokazywano serię kół o określonej
średnicy, a ich zadaniem było zauważenie koła większego od innych.
Prawdopodobieństwo pojawienia się sygnału (większe koło) zostało
określone w przedziale 0,02–0,36 dla pięciu grup eksperymentalnych
(czynnik międzygrupowy). Badacze stwierdzili, że wraz ze wzrostem
prawdopodobieństwa pojawienia się sygnału rosła zarówno częstość
prawidłowych odpowiedzi (od 0,34 do 0,52), jak i częstość fałszywych
alarmów (od 0,001 do 0,05). Colquhoun i Baddeley (1964, 1967) pokazali
również, że oczekiwania odnośnie do prawdopodobieństwa pojawienia się
sygnału, narzucone badanym podczas sesji treningowej, mają wpływ na
spadek czujności uwagi w trakcie sesji testowej. Spadek ten był znacznie
większy w przypadku osób, którym pokazywano sygnały częściej podczas
treningu niż w czasie regularnej sesji. Spadek prawdopodobieństwa
pojawienia się sygnału w stosunku do sesji treningowej uśpił więc czujność
badanych. Z kolei Angus Craig (1980) ustalił, że badani informowani
o prawdopodobieństwie pojawiania się bodźców wykazywali się
mniejszym spadkiem czujności uwagi niż ci, którzy byli pozbawieni tej
informacji. Barry MacFarland i Charles Halcomb (1970) oraz Craig
i Colquhoun (1975) sugerują wręcz, że główną przyczyną spadku czujności
uwagi mogą być nieadekwatne oczekiwania badanych odnośnie do
prawdopodobieństwa wystąpienia sygnału, wynikające z uprzednich,
błędnych doświadczeń.

Przytoczone wyniki badań są zgodne z koncepcją czujności uwagi


sformułowaną przez C.H. Bakera (1963). Istotną rolę odgrywają w niej
oczekiwania osób badanych co do wielkości przedziału czasowego,
w którym musi się pojawić sygnał. Baker sugeruje, że zależność między
subiektywnym prawdopodobieństwem pojawienia się sygnału a wielkością
przedziału czasowego, w którym to następuje, jest krzywoliniowa,
w postaci odwróconego „U”. Początkowo wzrost wielkości interwału
czasowego na jeden sygnał powoduje zwiększenie oczekiwań co do jego
pojawienia się, czyli wzrost subiektywnego prawdopodobieństwa
zaistnienia sygnału. Dalszy wzrost szerokości przedziału czasowego
sprawia, że subiektywne prawdopodobieństwo sygnału maleje (Baker,
1959; Deese, 1955). W każdym przypadku badany jednak oczekuje
pojawienia się sygnału mniej więcej w takim odstępie czasowym, w jakim
poprzedni wykryty przez niego sygnał pojawił się po sygnale go
poprzedzającym (Baker, 1963). Dodatkowo Baker (1959) ustalił, że ci
badani, którzy byli najbliżej prawdy w subiektywnej ocenie
prawdopodobieństwa sygnału, notowali także najmniejszy spadek
w zakresie czujności uwagi, a C.H. Baker i A. Harabedian (1962) wykazali,
że badani poinformowani o szerokości interwału czasowego notowali
znacznie mniejszy spadek czujności uwagi (13%) w porównaniu z osobami
pozbawionymi tej wskazówki (20%).

Wyniki eksperymentów sugerują także, że przedłużoną koncentrację uwagi


można poprawić przez trening. John Binford i Michel Loeb (1966) odkryli,
że liczba fałszywych alarmów zmniejsza się znacząco w trzech pierwszych
sesjach wykonania zadania na rozpoznawanie dźwięków w wyniku
nabywania wprawy przez badanych. Gerard Kerkhof, Tjerk van der Schaaf
i H. Jan Korving (1980) ustalili natomiast, że liczba błędów ominięcia
obniża się sukcesywnie w ciągu pierwszych pięciu sesji wykonania.
W kolejnych sesjach, po okresie nabywania wprawy, zarówno liczba
fałszywych alarmów, jak i liczba ominięć utrzymywała się na stałym
poziomie. Z kolei Neville Moray, Mike Fitter, David Ostry, Donna Favreau
i Vera Nagy (1976) oraz David Ostry, Neville Moray i Gerry Marks (1976)
wykazali, że trening pozwala zredukować efekt spadku czujności uwagi
także w zadaniach na przedłużone monitorowanie sygnałów
w paradygmacie podążania.

Spadek czujności uwagi może też wynikać ze zmniejszenia się wrażliwości


na prezentowane bodźce, jeśli te pojawiają się w danym interwale
czasowym bardzo rzadko lub bardzo często. Jane Mackworth i Maurice
Taylor (1963) wykazali, że wrażliwość na sygnały dźwiękowe maleje
w miarę, jak wydłużeniu ulega przedział czasu, w którym pojawia się
pojedynczy sygnał. Z kolei Harry Jerison i Ronald Pickett (1964) pokazali,
że badani testem zegara (paradygmat 5.3) charakteryzują się wysoką i stałą
liczbą prawidłowych rozpoznań (90%), gdy sygnały pojawiają się
z częstotliwością pięciu na minutę. Kiedy proporcja ta wzrosła do 30
sygnałów na minutę, liczba rozpoznań zmalała aż trzykrotnie. Podobnie
było w przypadku, gdy proporcja liczby sygnałów do czasu trwania zadania
zmalała do jednego sygnału na 2,5 minuty (Mackworth, 1948, 1950).
Wyniki te wielokrotnie potwierdzono (Loeb, Binford, 1968; Parasuraman,
Davies, 1976; Warm, 1977).

Co ciekawe, efekt spadku czujności uwagi może się nie ujawnić


w złożonych zadaniach na monitorowanie sygnałów (Adams, 1963;
Frankmann, Adams, 1962; Parasuraman, 1976, 1983), a więc w zadaniach,
które nie są aż tak monotonne i nudne, jak zwykłe testy czujności. Według
Daviesa i Parasuramana (1982) wyjaśnienie efektu spadku koncentracji
uwagi może się kryć w analizie poziomu pobudzenia (aktywacji) osób
badanych w trakcie wykonywania zadania na czujność uwagi. Poziom
wykonania każdego z nich zależy bowiem od aktualnego stanu
energetycznego organizmu (Corcoran, 1965; Eysenck, 1982; Nęcka, 1994a;
Yerkes, Dodson, 1908). Prawo Yerkesa–Dodsona opisuje omawianą
zależność jako krzywoliniową w postaci odwróconego „U”. Poziom
wykonania zadania jest najlepszy przy średnim poziomie pobudzenia,
a daleki od optymalnego zarówno przy niskiej, jak i wysokiej aktywacji.
Potwierdzenie słuszności prawa Yerkesa–Dodsona można również znaleźć
w odniesieniu do czujności uwagi (Davies, Tune, 1969).

W trakcie długich, nudnych i monotonnych zadań na czujność uwagi


można początkowo zaobserwować wzrost poziomu aktywacji, do czego
przyczynia się relatywna nowość zarówno dostarczanej stymulacji, jak
i sytuacji eksperymentalnej, specyficzna sytuacja poddania się badaniom
itp. Pobudzenie osób badanych osiąga wtedy z reguły poziom optymalny,
co sprawia, że zadanie na czujność uwagi jest wykonywane na bardzo
wysokim poziomie, nawet do 100% prawidłowych detekcji (Baker,
Harabedian, 1962). Wkrótce jednak omawiane zadanie przestaje być
ekscytujące, co utrudnia utrzymanie optymalnego poziomu pobudzenia,
koniecznego do zapewnienia czujności uwagi. W konsekwencji obserwuje
się obniżenie poziomu wykonania zadania, świadczące o spadku czujności
uwagi. Koncepcję Daviesa potwierdzają także wyniki badań
psychofizjologicznych. Spadkowi poziomu wykonania zadań na czujność
towarzyszyło z reguły obniżenie się poziomu aktywacji osób badanych,
mierzonej aktywnością fal mózgowych EEG (Daniel, 1967; Davies
i Krkovic, 1965) czy rytmem pracy serca (Davies, Tune, 1969; Stern,
1966), choć należy przyznać, że w kilku eksperymentach odnotowano
zgoła odmienne rezultaty. Współczesne badania neurofizjologiczne
przynoszą dodatkowo wiedzę na temat neuronalnych mechanizmów
czujności, wskazując na istotną rolę układów neuromodulacyjnych pnia
mózgu w regulacji pobudzenia (Aston-Jones, Cohen, 2005; Petersen,
Posner, 2012). Najistotniejszą rolę zdaje się odgrywać układ
noradrenergiczny, którego początkiem jest miejsce sinawe, małe jądro
umiejscowione w moście (pons), stanowiącym część pnia mózgu. Miejsce
sinawe przejawia dwa rodzaje aktywności – toniczną, związaną z rytmem
snu i czuwania, oraz fazową, oznaczającą krótkotrwałą odpowiedź na
pojawiające się bodźce. Według teorii adaptacyjnej regulacji wzmocnienia
(adaptive gain theory; Aston-Jones, Cohen, 2005) relacja między toniczną
i fazową aktywnością miejsca sinawego jest krzywoliniowa – ma kształt
odwróconego „U”, co zdaniem autorów teorii tłumaczy znaną od wielu lat
zależność między pobudzeniem a poziomem wykonania zadań (prawo
Yerkesa–Dodsona). Teorię adaptacyjnej regulacji wzmocnienia
potwierdzają wyniki badań na małpach, w których wykazano, że wysoki
poziom czujności i dobre wykonanie zadania uwagowego wiążą się ze
średnią toniczną aktywnością miejsca sinawego, natomiast epizody
senności i słabego wykonania zadania są związane z niskim poziomem lub
wręcz przerwami w tej aktywności. W badaniach tych zaobserwowano, że
poprawna selekcja bodźców zawsze współwystępuje z wyraźnymi
fazowymi reakcjami miejsca sinawego, które są największe przy średniej
tonicznej aktywności tej struktury (Rajkowski, Kubiak, Aston-Jones, 1994;
Rajkowski, Majczynski, Clayton, Aston-Jones, 2004). Ogólnie rzecz
ujmując, wyniki badań neuropoznawczych sugerują, że czujność uwagowa
należy do ewolucyjnie najstarszych funkcji systemu poznawczego,
wspólnych ludziom i większości gatunków zwierząt.

Efekt spadku czujności uwagi jest jednym z lepiej poznanych zjawisk


z zakresu uwagi selektywnej. Jego opis w terminach teorii detekcji
sygnałów SDT Greena i Swetsa (1966) jest kompletny, a próby jego
wyjaśnienia hipotezami subiektywnego prawdopodobieństwa Bakera
(1963) czy zmieniającej się aktywacji Daviesa i Parasuramana (1982)
wydają się wiarygodne i dobrze udokumentowane wynikami badań.
Dodatkowo, teorie inspirowane badaniami neurofizjologicznymi (Aston-
Jones, Cohen, 2005; Sara, 2009; Sara, Bouret, 2012) wyjaśniają w sposób
mechanistyczny zmiany w czujności i ich związki z wykonywaniem zadań
poznawczych.

5.2.4. Teorie podzielności


Już najwcześniejsze badania nad selektywnością, prowadzone
w paradygmacie dychotycznej prezentacji bodźców (paradygmat 5.1), były
w gruncie rzeczy badaniami nad podzielnością uwagi. Od osób badanych
wymaga się bowiem dzielenia uwagi na dwa zadania w najtrudniejszej dla
nich sytuacji, gdy według instrukcji jedno z nich polega na odrzuceniu
informacji z jednego z kanałów. Trudno przecież przypuszczać, by zgodne
z instrukcją powstrzymanie się od przetwarzania informacji ignorowanych,
co jest istotą badań w paradygmacie podążania, nie wymagało
jakiegokolwiek wysiłku mentalnego. Pierwsze badania nad podzielnością
uwagi prowadzono więc niemal wyłącznie w tym właśnie paradygmacie
(Broadbent, 1952; Allport i in., 1972; Ninio, Kahneman, 1974). Broadbent
(1952, 1954) początkowo bardziej interesował się wykonywaniem w tym
samym czasie dwóch zadań (mówienie i słuchanie; jednoczesne słuchanie)
niż koncentracją na jednym z nich. Doszedł zresztą do wniosku, że
efektywność mechanizmów selekcji informacji w warunkach koniecznej
podzielności uwagi jest bardzo niska, a dalsze badania w paradygmacie
podążania prowadził z użyciem instrukcji odrzucania jednego z dwóch
przekazów. Zdaniem Drivera (2001) Broadbent niesłusznie narzucił
badaczom uwagi przekonanie o tym, że skuteczna analiza i selekcja
informacji muszą być jednokanałowe, jednak było ono na tyle silne, że
przez długi czas hamowało podjęcie badań nad przetwarzaniem
wielokanałowym.

Pytanie o możliwość równoległej selekcji informacji w zakresie dwóch


różnych czynności poznawczych podjął Ira Bernstein wraz ze
współpracownikami (Bernstein, 1970; Bernstein, Edelstein, 1971;
Bernstein, Clark, Edelstein, 1969). Autora nurtowało pytanie, czy możemy
widzieć i słyszeć w tym samym czasie bez ponoszenia kosztów
wykonywania tych dwóch czynności jednocześnie. Wszystkie rezultaty
jego badań świadczyły o pełnej niezależności obu. Okazało się ponadto, że
jeśli obie modalności przetwarzania informacji, czyli wzrokowa
i słuchowa, dotyczą tego samego zadania, informacja słuchowa skraca czas
reakcji na równolegle prezentowany bodziec wzrokowy. Zbliżone wyniki
uzyskał potem Duncan (1984): jednoczesne podjęcie dwóch różnych
decyzji selekcyjnych w odniesieniu do tego samego obiektu nie wymagało
jakichkolwiek kosztów poznawczych. Na podstawie uzyskanych przez
siebie wyników, a także podobnych danych zgromadzonych przez innych
badaczy (Eriksen, Spencer, 1969; Ostry, Moray, Marks, 1976), Duncan
(1984, 1985) sformułował koncepcję uwagi ukierunkowanej na obiekt.
Zgodnie z tą teorią podzielność uwagi w zakresie tego samego zadania czy
w odniesieniu do tego samego obiektu jest możliwa bez ponoszenia
dodatkowych kosztów, np. wydłużenia czasu reakcji lub wzrostu liczby
błędów. Wprawdzie wyników uzyskanych przez Bernsteina, Duncana
i innych nie był w stanie potwierdzić Harold Pashler (1992; Fagot, Pashler,
1992), jednak dane empiryczne zgromadzone przez zwolenników koncepcji
uwagi ukierunkowanej na obiekt świadczą wyraźnie przeciwko
jednokanałowym teoriom filtra, co Bernstein szczególnie silnie akcentował.
Wykonywanie dwóch różnych czynności w tym samym czasie bez
ponoszenia kosztów nie jest bowiem możliwe nawet w świetle teorii
elastycznego filtra uwagi sformułowanej przez Johnstona (1978; Johnston,
Heinz, 1978), chyba że procesy poznawcze obsługujące te czynności są
realizowane na tym samym poziomie przetwarzania informacji,
a pojemność pojedynczej bramki jest wystarczająca do analizy wszystkich
informacji potrzebnych do wykonania obu czynności, co jest praktycznie
niemożliwe.

Na podstawie własnych badań Alan Allport (Allport i in., 1972)


sformułował multikanałową koncepcję selektywnej uwagi. Autor przyjął,
że uwaga może funkcjonować jako zestaw wielu niezależnych kanałów,
zawierających własne filtry i zdolnych do niezależnej selekcji informacji.
Pojedynczy filtr funkcjonuje zgodnie z koncepcją selekcji źródła informacji
Broadbenta, Treisman, Deutsch i Deutscha czy Johnstona. Gdy konieczna
jest koncentracja na jakimś zadaniu czy obiekcie, bez zarzutu może
funkcjonować tylko jeden filtr uwagi. Im bardziej nieprzewidywalne
wymagania ze strony jednocześnie wykonywanych zadań i im większe
ryzyko popełnienia błędu, tym bardziej prawdopodobna jest decyzja
systemu poznawczego o przetwarzaniu szeregowym i jednokanałowym.
W takich warunkach narzucona konieczność jednoczesnego wykonywania
dwóch zadań zawsze będzie się wiązać z kosztami poznawczymi. Allport
nie zgadza się jednak z twierdzeniami zwolenników koncepcji jednego
filtra uwagi, że jednokanałowa forma analizy i selekcji informacji jest dla
systemu poznawczego obligatoryjna.

Wyników zgodnych z koncepcją Allporta dostarczył Anthony Greenwald


(1972; Greenwald, Shulman, 1973). Potwierdził on możliwość
percepcyjnego filtrowania informacji w kanale odrzuconym przy
całkowitym braku kosztów czasowych. Z kolei David Salter (1973) polecił
badanym jednoczesną koncentrację na obu przekazach werbalnych,
prezentowanych po jednym do obu kanałów sensorycznych. Mimo że
przekaz priorytetowy powtarzano bardzo wiernie, także drugi komunikat
był przez osoby badane reprodukowany, wprawdzie już tylko
fragmentarycznie, ale za to z zachowaniem jego formy lingwistycznej.
Poziom wykonania zadania uzupełniającego był zależny od indywidualnej
szybkości artykulacji, jednak samo wykonywanie tego zadania wskazywało
na obecność funkcjonującego równolegle drugiego filtra uwagi.

Rezultatów sprzecznych z koncepcją multikanałową dostarczyli z kolei


Treisman i Davies (1973). Autorzy potwierdzili wprawdzie, że gdy zadania
jednoczesne angażują dwie różne modalności sensoryczne (akustyczną
i wizualną), badani nie mają większych problemów z rozpoznawaniem obu
kategorii sygnałów. Jeśli jednak instrukcja wymaga semantycznej integracji
informacji należących do różnych modalności, zadania jednoczesne
wykonywane są znacznie gorzej. Treisman i Davies stwierdzili więc, że
w systemie poznawczym może istnieć wiele kanałów sensorycznych
wyposażonych w filtry funkcjonujące zgodnie z zasadą „wszystko albo
nic”, jednak kanał semantyczny, wyposażony w filtr działający zgodnie
z zasadą osłabiacza, może być tylko jeden.

Biorąc pod uwagę wyniki przytoczonych badań, w nowej wersji swojej


koncepcji Allport (1980a) dokonał kilku uściśleń. Uznał, że niezależność
kanałów selekcyjnych zależy od tego, czy dwa konkurencyjne zadania
wymagają różnych receptorów, reprezentacji umysłowych i efektorów.
Uwaga może działać jako zbiór niezależnych, selekcjonujących informacje
modułów. To, który moduł zostanie użyty, jest zdefiniowane na wejściu –
przez rodzaj receptora, na wyjściu – przez rodzaj efektora, oraz w kanale
przetwarzania – przez rodzaj reprezentacji umysłowej. Każdy moduł jest
wyspecjalizowanym podsystemem, posiadającym własne zasoby, dzięki
czemu możliwe jest równoległe przetwarzanie informacji. Moduły są
jednak ograniczone zarówno na wejściu, jak i na wyjściu. Tylko jeden
moduł może przetwarzać informację wzrokową, jeden – słuchową,
dotykową itd. Podobnie, tylko jeden moduł może wypracować reakcję
motoryczną, jeden – werbalną itd. Ograniczenia procesu selekcji informacji
nie wynikają więc z obecności w systemie poznawczym jednego tylko
filtra, lecz z limitowanej dostępności niezależnych modułów,
wyposażonych w odrębne mechanizmy filtrujące. Walka o moduły
dokonuje się w ramach tej samej modalności.

Wyniki badań Petera McLeoda (1977) potwierdziły koncepcję modułową.


Osoby badane wykonywały dwa zadania jednocześnie. W pierwszym
eksperymencie zadania były zróżnicowane ze względu na kanał
sensoryczny – wzrokowy lub słuchowy. W badaniu tym uwzględniono
także dwa różne sposoby reagowania na bodźce. W warunku pierwszym
oczekiwano reakcji werbalnych na bodźce akustyczne i reakcji
motorycznych (naciśnięcie klawisza) na bodźce wizualne. W warunku
drugim badani reagowali tylko motorycznie: jedną ręką na bodźce
wizualne, a drugą na akustyczne. Liczba poprawnych reakcji w zadaniu
z bodźcami wzrokowymi okazała się zależna od sposobu reagowania.
Badani popełniali więcej błędów, gdy w drugim zadaniu należało reagować
tylko motorycznie, a mniej – gdy jedna reakcja była motoryczna, a druga
werbalna. W drugim eksperymencie zadanie polegające na werbalnej
reakcji na bodźce akustyczne zastąpiono przez zadanie arytmetyczne
o dwóch stopniach trudności. Poziom wykonania zadania z bodźcami
wzrokowymi był niezależny od stopnia trudności problemu
arytmetycznego rozwiązywanego „w pamięci”. Tym samym zasada
niezależności modułów selekcyjnych, postulowana przez Allporta (1980a),
została potwierdzona.

W przeciwieństwie do Allporta Daniel Kahneman (1970) był zdania, że


uwaga selektywna może skutecznie funkcjonować jedynie pod warunkiem
szeregowego, jednokanałowego przetwarzania informacji. Jeśli
z konieczności dochodzi do równoległego przetwarzania w wielu kanałach,
muszą pojawić się koszty jednoczesnego wykonywania kilku czynności,
wynikające z wzajemnego zakłócania przebiegu współwystępujących
procesów analizy i selekcji informacji (Kahneman, 1973). Wykorzystując
obserwacje dotyczące owego zjawiska interferencji (zob. podrozdz. 6.1),
autor sformułował teorię podzielności uwagi, zwaną teorią zasobów (ryc.
5.7). Każdy system poznawczy dysponuje określoną ilością energii
mentalnej czy mocy obliczeniowej, zwanej zasobami poznawczymi.
System wykorzystuje te zasoby, przeznaczając je na wykonanie
poszczególnych procesów przetwarzania informacji; zjawisko to nosi
nazwę alokacji zasobów.
RYCINA 5.7. Model zasobów uwagi według Kahnemana
Źródło: opracowanie własne na podstawie Kahneman, 1973.

Każde zadanie poznawcze wymaga pewnego wysiłku, co wiąże się ze


zużyciem pewnej ilości „paliwa mentalnego”, czyli zasobów. W systemie
poznawczym trwa więc nieustanna walka równolegle zachodzących
procesów o zasoby uwagi, a nadrzędnymechanizm selekcjonujący
zachowuje się jak centralny dyspozytor energii (Nęcka, 1994a, 1995;
Szymura, Nęcka, 2004), rozdzielając ją między poszczególne procesy. To
do niego należy decyzja, czy trzeba wszystkie siły skupić na jednym
zadaniu, gdy wymagania płynące z jego strony pokrywają się
z możliwościami energetycznymi systemu, czy też zasobów wystarcza
jeszcze na podjęcie zadania konkurencyjnego. Walka o zasoby zawsze
jednak wiąże się z interferencją między procesami poznawczymi
i wynikającymi z tego kosztami jednoczesności przetwarzania. Według
Kahnemana ilość zasobów przeznaczona do podziału w konkretnej sytuacji
jest tylko częścią ogólnej ich puli. Część ta może ulec zwiększeniu, jeśli
system jest w stanie pobudzenia. Liczne i różnorodne źródła pobudzenia
przekładają się na jawne wskaźniki wysiłku i zaangażowania (np. reakcja
elektrodermalna, szybkie tętno, rozszerzenie źrenicy). W takich sytuacjach
organizm mobilizuje zasoby, zbliżając się do całkowitej ich puli w swoich
„wydatkach energetycznych”.

Potwierdzenie teorii zasobów znalazł Kahneman w wynikach badań


własnych z wykorzystaniem paradygmatu podążania (Ninio, Kahneman,
1974). Zadaniem osób badanych było reagowanie na pojawiające się
w kanale słuchowym nazwy zwierząt. W pierwszym warunku
eksperymentalnym uczestnikom prezentowano dwa przekazy jednocześnie,
z zadaniem skupienia się tylko na jednym z nich. W warunku drugim
połowie osób badanych utrudniono zadanie – polecono im monitorować
dwa przekazy jednocześnie. Natomiast drugiej połowie badanych zadanie
ułatwiono – prezentowano im tylko jeden przekaz. Okazało się, że
wskaźniki wykonania zadania (czas reakcji, liczba błędów ominięcia)
zdecydowanie się pogorszyły w przypadku konieczności dzielenia uwagi
między dwa ważne przekazy, w porównaniu z warunkami, gdzie
wymagano koncentracji tylko na jednym komunikacie. Natomiast poziom
wykonania zadania wymagającego koncentracji uwagi na jednym z dwóch
przekazów był tylko minimalnie gorszy od poziomu wykonania zadania,
w którym prezentowano wyłącznie jeden komunikat. W przypadku
pojedynczego komunikatu niemal w ogóle nie było błędnych reakcji,
podczas gdy w warunku uwagi skupionej na jednym z dwóch przekazów
pojawiały się okazjonalne ominięcia.

Na tej podstawie Ninio i Kahneman (1974) wywnioskowali, że


w warunkach dychotycznej prezentacji muszą być przetwarzane –
przynajmniej częściowo – oba przekazy. Gdyby filtr selekcjonujący
informacje z obu kanałów był tylko jeden, musiałby w takim przypadku
ponosić koszty czasowe, związane z przełączaniem się z jednego przekazu
na drugi. Kosztów czasowych jednak nie obserwowano, co wyraźnie
wskazywało na istnienie dwóch mechanizmów filtrujących. Wystąpiły
natomiast koszty związane z obniżoną poprawnością, co sugeruje
wzajemną zależność filtrów, spowodowaną walką o ograniczone zasoby
systemu. W kolejnych badaniach (Kahneman, 1975) nie udało się jednak
wykryć interferencji między dwoma procesami przetwarzania informacji,
polegającymi na zapamiętaniu dwóch konkurencyjnych, jednocześnie
prezentowanych list wyrazów. Udało się natomiast wykazać, że koszty
czasowe związane z przetwarzaniem równoległym i z interferencją
procesów selekcji informacji mogą być zredukowane, jeśli osobom
badanym wcześniej przekaże się informacje o położeniu celów
i dystraktorów (Kahneman, Treisman, Burkell, 1983). W efekcie
Kahneman (1975) wycofał się z twierdzenia, że interferencja
mechanizmów filtrujących informacje jest koniecznym następstwem walki
o ograniczone zasoby systemu (zob. Kahneman i in., 1983; Kahneman,
Treisman, 1984), a David Navon (1984, 1985) i Daniel Gopher (1992),
uzupełniając koncepcję Kahnemana, stwierdzili, że wystąpienie
interferencji jest uzależnione od „ładunku mentalnego” zadań
jednoczesnych, a więc od wymagań, jakie stawiają one systemowi
poznawczemu.
Interferencja strukturalna (structural interference) – zjawisko, zgodnie z którym dwa lub więcej
jednoczesnych procesów przetwarzania informacji, wykorzystujących ten sam kanał sensoryczny lub
efektoryczny albo angażujących podobne pod względem formy reprezentacje poznawcze podlega
wzajemnemu zakłócaniu, co zwiększa koszty jednoczesnego przetwarzania informacji.
Interferencja zasobowa (resource interference) – zjawisko, zgodnie z którym dwa lub więcej
jednoczesnych procesów przetwarzania informacji, walczących o tę samą pulę niewystarczających
zasobów, zakłóca się wzajemnie, zwiększając koszty jednoczesnego przetwarzania informacji.

Należy jednak podkreślić, że Kahneman falsyfikował teorię zasobów na


podstawie badań, w których uczestnikom dostarczano różnych informacji
zawsze tym samym kanałem sensorycznym. Były to np. dwa kanały
akustyczne (Ninio, Kahneman, 1974) lub dwa kanały wizualne (Kahneman
i in., 1983). W takich warunkach teoria modułów Allporta (1980a) również
przewiduje wystąpienie zjawiska interferencji, choć upatruje jego przyczyn
nie w walce o zasoby, lecz w zaangażowaniu jednego modułu do obsługi
różnych czynności. W istocie więc wyniki uzyskane przez Kahnemana
świadczą zarówno na korzyść teorii zasobów, jak i teorii modułów,
zupełnie nie rozstrzygając między konkurencyjnymi wyjaśnieniami
powstawania kosztów: interferencją strukturalną (Allport)
i interferencją zasobową (Kahneman). W wielu badaniach (Allport i in.,
1972; Greenwald, Shulman, 1973; Kahneman, 1975; McLeod, 1977),
w których stworzono możliwości redukcji efektu interferencji strukturalnej,
efekt interferencji zasobowej się nie ujawniał. W konsekwencji, na
podstawie wyników uzyskanych przez Kahnemana i innych badaczy
problematyki alokacji zasobów uwagi, trudno jednoznacznie ustalić,
w jakich warunkach może się pojawić zakłócenie związane z walką
o zasoby i czym różni się ono od interferencji strukturalnej (ramka 5.3).

RAMKA 5.3

Czy uwaga jest konstruktem jednorodnym?


Edward Nęcka oraz Błażej Szymura (Nęcka, 1995; Szymura i Nęcka,
2004) podjęli próbę rozstrzygnięcia kwestii, czy uwaga jest systemem
jednorodnym czy zbiorem kilku niezależnych subsystemów
odpowiedzialnych za poszczególne funkcje uwagowe. Zgodnie
z koncepcjami parcjalistycznymi uwaga jest systemem modułów –
niezależnych struktur uwagowych (Allport, 1980; Allport i in., 1972),
określonych przez wejście sensoryczne, wyjście efektoryczne oraz
specyficzną reprezentację umysłową. Moduły te mogą realizować
niezależne od siebie funkcje uwagowe. Z kolei holiści (Gopher, 1992;
Kahneman, 1973; Navon, 1984) sugerują jednorodność uwagi, która ich
zdaniem miałaby się zajmować dystrybucją jednorodnych zasobów
umysłowych systemu. Zgodnie z koncepcjami parcjalistycznymi
zjawisko interferencji (wzajemnego zakłócenia) dwóch jednoczesnych
procesów uwagowych występuje wtedy, gdy korzystają one z tych
samych podzespołów modułów (np. tego samego wejścia
sensorycznego; tzw. interferencja strukturalna). Natomiast zgodnie
z koncepcjami holistycznymi interferencja pojawia się zawsze wtedy,
gdy wymagania ze strony jednocześnie wykonywanych procesów
przekraczają możliwości systemu (tzw. interferencja zasobowa).
Stanowisko pośrednie między parcjalizmem a holizmem reprezentują
m.in. William Hirst i David Kalmar (1987). Uważają oni, że uwaga
może funkcjonować jako zestaw do pewnego stopnia niezależnych
zasobów specyficznych (związanych z wykonywaniem konkretnych
procesów poznawczych). Jeśli wymagania ze strony jednocześnie
realizowanych różnych procesów nie przekraczają możliwości systemu
w zakresie zasobów specyficznych, które można im przydzielić, to
uwaga funkcjonuje jako system niezależnych podsystemów zasobowych.

Podczas wykonywania zadań jednoczesnych stwierdza się często


występowanie kosztów równoległości procesów przetwarzania
informacji. Mogą one mieć charakter kosztów ogólnych, jeśli
wykonywanie zadania drugiego, „doładowującego”, pogarsza ogólnie
wykonywanie zadania pierwszego lub odwrotnie. Koszty te mogą mieć
również charakter bardziej specyficzny, jeśli jakakolwiek manipulacja
poziomem trudności w zakresie jednego z zadań (zwłaszcza głównego)
ma wpływ na wykonanie drugiego. Brak jakichkolwiek kosztów
wskazuje na niezależność podsystemów odpowiedzialnych za
wykonanie poszczególnych zadań. Występowanie kosztów
specyficznych (silne zjawisko interferencji) przemawia za tezą
o jednorodności uwagi. Występowanie kosztów ogólnych (słabe
zjawisko interferencji) jest z kolei argumentem na korzyść stanowiska
pośredniego w sporze o naturę uwagi. Inaczej mówiąc, podsystemy
uwagi mogą być zupełnie niezależne, częściowo niezależne lub tworzyć
jednorodny, zunifikowany organizm.

W badaniach z użyciem testu selektywnej i podzielnej uwagi DIVA (opis


testu w: Nęcka, 1994a; Szymura, 1999) stwierdzono występowanie
kosztów ogólnych w jego łatwiejszej odmianie i kosztów specyficznych
– w trudniejszej. Gdy zadanie selekcyjne testu DIVA wymagało
zastosowania sensorycznego kryterium odróżniania sygnałów od szumu,
a zadanie doładowujące polegało na kontroli jasności wolno
zmieniających swoją luminancję kwadratów, Nęcka (1995) stwierdził
jedynie ogólny efekt jednoczesności zadań – badani popełniali więcej
błędów selekcji w sytuacji zadania podwójnego niż wtedy, gdy zadanie
selekcyjne miało monopol na zasoby uwagi. Gdy jednak test DIVA
utrudniono poprzez zastosowanie semantycznego kryterium selekcji
informacji oraz zmianę zadania doładowującego (kontrola opadania
szybko poruszającej się linii), Szymura i Nęcka (2004) wykryli zarówno
ogólne, jak i specyficzne koszty jednoczesności zadań poznawczych.
Uczestnicy badań zawsze popełniali więcej błędów w zadaniu
selekcyjnym, gdy wykonywali je jednocześnie z zadaniem
doładowującym, niż wtedy, gdy wykonywali je pojedynczo. Jednakże
manipulacje w zakresie zadania selekcyjnego (m.in. zwiększanie liczby
jednocześnie prezentowanych bodźców, obecność bodźców
zakłócających) miały również wyraźny wpływ na poziom wykonania
zadania doładowującego – im trudniejsze stawało się zadanie selekcyjne,
tym gorzej badani kontrolowali ruch opadającej linii. Na tej podstawie
autorzy formułują wniosek, że uwaga jest mechanizmem jednorodnym,
co ujawnia się szczególnie wyraźnie, gdy zadania jednoczesne są
relatywnie trudne. W warunkach „opresji” system uwagi jak gdyby
zaostrza swoją politykę rozdziału zasobów. Natomiast w sytuacji, gdy
zadania są łatwe, poszczególne składniki systemu uwagi uzyskują
częściową, ale i łatwo odwracalną „suwerenność”.

Broniąc koncepcji zasobów uwagi, Navon i Gopher (1979) stwierdzili, że


obserwowany niekiedy brak spodziewanej interferencji między procesami
selekcji informacji wynika z tego, że jednocześnie wykonywane czynności
nie konkurują o jedną pulę zasobów, jak to zakładał Kahneman (1973).
Navon i Gopher uważają, że istnieje wiele niespecyficznych „zasobników”
energii mentalnej. Dwa łatwe zadania, podobne w swoich wymaganiach,
mogą prowadzić do interferencji, gdyż dochodzi wtedy do walki
o specyficzne zasoby, odpowiedzialne za realizację podobnych czynności.
Z kolei dwa różne, trudne zadania nie muszą wywoływać interferencji, jeśli
nie dojdzie do współzawodnictwa między nimi o moc obliczeniową: ich
realizacja może wymagać różnych, specyficznych pul zasobów. Ani dla
Navona i Gophera, ani dla podzielających ich poglądy Christophera
Wickensa (1984) czy Hirsta i Kalmara (1987), nie jest jednak jasne, jak
dużą liczbą specyficznych pul zasobów dysponuje system poznawczy. Nie
jest także wiadome, jaką pojemnością cechują się rezerwuary zasobów
specyficznych. Pisanie na maszynie wydaje się angażować co najmniej dwa
specyficzne pola zasobów: pierwsze odpowiedzialne za rozpoznawanie
liter i znaków, drugie – za generowanie reakcji motorycznych w postaci
uderzania w odpowiednie klawisze (Gopher, Brickner, Navon, 1982). Być
może jednak w czynności tej bierze również udział specyficzna pula
zasobów, odpowiadająca np. za koordynację psychomotoryczną lub inne
jeszcze rezerwuary mocy obliczeniowej.

5.2.5. Teorie przerzutności


Zwolennicy koncepcji jednokanałowego systemu selekcji informacji są
zdania, że system poznawczy może wykonywać zadania jednoczesne tylko
w ten sposób, iż nieustannie przełącza się z jednego na drugie.
Konsekwencją takiego myślenia jest hipoteza przełącznika (Nęcka,
1994a). Wykonując zadania jednoczesne, hipotetyczny filtr uwagi przez
pewien odcinek czasu pozostaje na usługach jednego z dwóch zadań.
W tym czasie informacje dotyczące drugiego zadania nie podlegają
analizie, przez co jest ono po prostu ignorowane. Jeśli przełączenia między
zadaniami dokonują się dostatecznie szybko i często, koszty powstające
w wyniku takiego funkcjonowania mechanizmów selekcji ograniczają się
do czasu – reakcje po przełączeniu są nieco dłuższe, co wynika
z konieczności dostosowania mechanizmu filtrującego do zadania sprzed
przełączenia. Konieczna może się okazać np. zmiana poziomu analizy
danych, kryteriów selekcji informacji lub tempa przetwarzania bodźców, co
wymaga czasu. Jeśli jednak przełączenia są zbyt wolne lub rzadkie,
zaczynają się ujawniać również koszty w zakresie poprawności; pojawiają
się ominięcia sygnałów i fałszywe alarmy, a więc błędne reakcje będące
efektem spóźnienia w odbiorze bodźców lub wynikające ze stosowania
nieadekwatnej zasady selekcji. W myśl koncepcji jednokanałowych
przełączanie jednego i tego samego filtra uwagi między zadaniami
jednoczesnymi zawsze pociąga za sobą koszty, które niekiedy ograniczają
się do wydłużonego czasu reagowania, a kiedy indziej zwiększają poziom
zawodności systemu.

Robert Rogers i Stephen Monsell (1995) wyróżnili dwa rodzaje procesów


biorących udział w przełączaniu uwagi: wzbudzane wewnętrznie
i zewnętrznie. Pierwsza kategoria obejmuje procesy odgórne, uruchamiane
przez system selekcjonujący informacje. Ich rola polega na przygotowaniu
odpowiednich operacji umysłowych, niezbędnych do wykonania zadania
pojawiającego się jako następne w kolejności. Procesy te zostały nazwane
przygotowawczymi, ponieważ działają proaktywnie: ich uruchomienie
następuje jeszcze przed pojawieniem się bodźców sygnalizujących nowe
zadanie. Możliwość ich uruchomienia istnieje niezależnie od zewnętrznej
stymulacji, również wtedy, gdy dane potrzebne do wykonania kolejnego
nowego zadania nie są jeszcze dostępne przetwarzaniu (Sohn, Anderson,
2001; Sohn, Carlson, 2000). Natomiast procesy wzbudzane zewnętrznie
mają charakter oddolny i działają reaktywnie, ponieważ stanowią
odpowiedź systemu na już zaistniałą, nową sytuację. Rola procesów
wzbudzanych zewnętrznie polega na dokończeniu dzieła
zapoczątkowanego przez procesy przygotowawcze. Jest oczywiste, że te
ostatnie nie są w stanie samodzielnie sterować przerzutnością uwagi,
ponieważ dopiero pojawienie się nowego zadania ostatecznie określa, jakie
wymagania stawia ono systemowi poznawczemu. Procesy przygotowawcze
mają charakter kontrolny (Norman, Shallice, 1986), podczas gdy procesy
wzbudzane zewnętrznie są raczej automatyczne (Styles, 1997; zob.
podrozdz. 6.1). Działanie procesów kontrolnych jest wyraźnie widoczne
wówczas, gdy osoba badana wie, jakie będzie kolejne zadanie w serii, jaki
cel należy w nim zrealizować, a najlepiej – w jaki sposób można ten cel
osiągnąć. Może się wówczas przygotować do wykonania zadania poprzez
zaplanowanie sposobu realizacji celu. Podstawowa rola procesów
kontrolnych w elastycznym reagowaniu na zmianę warunków zadania
polega więc na odpowiednim doborze operacji umysłowych potrzebnych
do realizacji zadania, ustaleniu ich kolejności i następstwa, a także na
kontrolowaniu ich przebiegu (Ruthruff, Remington, Johnston, 2001).
Zestaw zadaniowy (task set) – wyspecjalizowany, dobrze zorganizowany i dopasowany do sytuacji
układ operacji poznawczych, niezbędnych do wykonania zadania.

Próbując wyjaśnić, jak jest możliwe przełączanie uwagi między zadaniami,


Rogers i Monsell (1995) wprowadzili pojęcie zestawu zadaniowego (task-
set). Zestawem jest wyspecjalizowany, dobrze zorganizowany
i dopasowany do sytuacji układ operacji poznawczych niezbędnych do
wykonania zadania. Działanie zestawu zadaniowego polega na skupieniu
uwagi na istotnych elementach stymulacji, uaktywnieniu właściwego
wyjścia motorycznego, uruchomieniu stosownych reguł łączenia wejścia
sensorycznego z wyjściem motorycznym oraz ustaleniu kryteriów
poprawnej reakcji. Procesy składające się na zestaw tworzą więc
funkcjonalny moduł przechowywany w pamięci. Do przełączenia uwagi
z jednego zadania na drugie konieczna jest rekonfiguracja zestawu – dwa
następujące po sobie zadania mogą wymagać udziału tych samych
procesów, ale w innym układzie, albo wręcz nieco innego ich zestawu. Im
więcej czasu damy osobie badanej na rekonfigurację, tym mniejsze będą
czasowe koszty przerzucania uwagi, dlatego wydłużanie przerwy między
próbami nieco je redukuje; zwykle wystarczy na to mniej niż 1000 ms
(tamże). Choć adekwatna zmiana zestawu zadaniowego wydaje się
niezbędnym warunkiem redukcji kosztów, nie jest jasne, w jaki sposób
przebiega sam proces rekonfiguracji (Meiran i in., 2000). Niektórzy
badacze twierdzą, że omawiany proces dokonuje się poprzez wydobywanie
danych z pamięci, hamowanie nieistotnych informacji, monitorowanie
zadań, utrzymywanie lub zmienianie celów oraz aktywację reguł zadania
(Gopher, Armony, Greensphan, 2000; Goschke, 2000; Meiran, 2000;
Rubinstein, Meyer, Evans, 2001). Nie jest to z pewnością lista kompletna;
służy raczej pokazaniu, jakiego typu procesy przetwarzania informacji
mogą mieć znaczenie dla redukcji kosztów przerzucania uwagi.

W wielu eksperymentach sprawdzano efektywność procesów


przygotowawczych w zależności od rodzaju dostarczanej osobom badanym
informacji o tym, jakie zadanie pojawi się jako następne w kolejności
(Arbuthnott, Frank, 2000; Arbuthnott, Woodward, 2002; Sohn, Carlson,
2000). Informacja ta sprowadzała się do regularnego układu zadań, dzięki
czemu badani mogli przewidzieć ich kolejność (Rogers, Monsell, 1995;
Sohn, Anderson, 2001), lub miała postać wskazówki dostarczanej w czasie
przerwy między poszczególnymi zadaniami (DeJong, 2000; Gopher i in.,
2000; Meiran, 2000; Meiran i in., 2000). Wyniki tych badań wyraźnie
wskazują, że jeśli osoby badane wiedzą, jakie zadanie pojawi się jako
następne oraz mają wystarczająco dużo czasu na przygotowanie się do
niego, to koszty przełączania uwagi znacznie maleją. Przerwę między
zadaniami, konieczną do zredukowania kosztów przerzutności, określa się
skrótem RSI (response-stimulus interval), ponieważ obejmuje ona czas
między poprzednią reakcją a bodźcem sygnalizującym nowe zadanie.
Długość tej przerwy zależy od rodzaju zadań, między którymi uwaga się
przełącza. Na przykład w badaniu Myeong-Ho Sohna i Johna Andersona
(2001) efektywna przerwa trwała 200 lub 600 ms, w zależności od tego,
czy osobom badanym prezentowano w jej trakcie wskazówkę informującą
o rodzaju kolejnego zadania do wykonania (krótsza przerwa wystarczająca)
czy nie (długa przerwa konieczna). Jeżeli za powstawanie kosztów
przerzucania uwagi byłyby odpowiedzialne tylko procesy kontrolne, to
koszty te powinny ulec całkowitej redukcji w wyniku działania wskazówki
wyprzedzającej lub wystarczająco długiego RSI; w rzeczywistości redukcja
kosztów nigdy nie jest zupełna (Goschke, 2000; Meiran, 2000; Ruthruff
i in., 2001). Oznacza to, że w generowaniu kosztów przełączenia biorą
udział również procesy automatyczne, wzbudzane i ukierunkowywane
oddolnie przez stymulację zewnętrzną.

Przykładem działania procesów automatycznych jest efekt poprzedzania


pozytywnego. Polega on na szybszym przetwarzaniu w kolejnym zadaniu
z serii tej samej stymulacji, która działała w poprzednim zadaniu, lub
podobnej (Sohn, Anderson, 2001; Sohn, Carlson, 2000). Tego typu
automatyczne procesy ułatwiają przetwarzanie informacji w przypadku
powtórzenia zadania selekcyjnego, ale mogą mieć niekorzystne skutki, gdy
konieczne będzie przełączenie uwagi na inny rodzaj stymulacji. Procesem
automatycznym, odpowiedzialnym za powstawanie kosztów przełączania
uwagi między zadaniami, jest aktywacja struktur poznawczych, stanowiąca
rezultat uprzednio wykonywanego zadania. Wyniki badań prowadzonych
przez Allporta i współpracowników (Allport i in., 1994; Allport, Wylie,
2000) wskazują, że na powstawanie tych kosztów ma wpływ proaktywna
interferencja ze strony zadania wcześniejszego w stosunku do zadania
występującego jako następne w kolejności. Aktywacja reguł koniecznych
do wykonania ukończonego właśnie zadania nie zanika natychmiast po
jego zakończeniu. Przy przejściu do nowego zadania utrzymująca się
aktywacja związana z poprzednim utrudnia wzbudzenie nowej aktywacji,
koniecznej do rekonfiguracji zestawu zadaniowego. Aby zredukować
koszty przerzutności wynikające z interferencji proaktywnej, należy
oddzielić przełączane zadania odpowiednio długą przerwą. Allport
i współautorzy (1994) stwierdzili, że im dłuższa przerwa między
zadaniami, tym mniejsze koszty przełączania uwagi między nimi. Według
nich świadczy to o tym, że aktywacja uprzednio utworzonego zestawu
zadaniowego samoistnie zanika wraz z upływem czasu.

Manipulacje zmierzające do redukcji kosztów przerzutności (wskazówka


dla procesów kontrolnych i przerwa dla procesów automatycznych) są
skuteczne, ale tylko do pewnego stopnia. Ujawniające się mimo wszystko
koszty przerzutności niepodlegające redukcji nazwano kosztami
rezydualnymi. Różni autorzy nie są zgodni co do tego, z czego wynikają te
koszty. Steven Tipper, Bruce Weaver, Sandra Cameron, Jamie Brehaut
i Julie Bastedo (1991) są zdania, że rekonfigurowanie zestawu
zadaniowego może zostać wstrzymane na pewnym etapie i odroczone aż do
momentu, w którym pojawi się stymulacja dotycząca nowego zadania.
Innymi słowy, uruchomienie procesów zewnętrznych może być
koniecznym warunkiem dokończenia procesów przygotowawczych
(Rogers, Monsell, 1995). Źródłem kosztów rezydualnych może być także
mechanizm inhibicji (Mayr, Keele, 2000). Przejście do kolejnego zadania
w serii wymaga bowiem uruchomienia dwóch procesów: pierwszy polega
na wzbudzeniu aktywacji nowego zestawu zadaniowego, natomiast drugi –
na zahamowaniu aktywacji zestawu, który wraz z zakończeniem
poprzedniego zadania utracił przydatność. Ulrich Mayr i Steven Keele
(2000) wykazali, że ponowna aktywacja modułu potrzebnego do realizacji
zadania wcześniej „odłączonego” trwa dłużej (układ zadań ABA) niż
aktywacja modułu koniecznego do wykonania zadania całkiem nowego,
dotychczas niewykonywanego (układ zadań ABC). Jest to zjawisko
analogiczne do efektu poprzedzania negatywnego (Neill, 1977; Tipper,
1985; zob. podrozdz. 6.2): reakcja na bodziec uprzednio ignorowany jest
znacznie utrudniona. Koszty rezydualne mogą więc powstawać w wyniku
konieczności „odhamowania” reakcji wcześniej zahamowanej.

5.3. Uwaga a (nie)świadomość


Zgodnie z tradycją, wprowadzoną przez Jamesa (1890), przez dłuższy czas
uważano, że uwaga jest zdolnością umysłu do świadomej koncentracji na
wybranym podmiocie: myśli bądź rzeczy. Przyjmowano, że jeśli coś się
przedostanie przez filtr uwagi, musi być uświadomione, a jeśli nie jest
uświadomione, to znaczy, że zanikło na bardzo wczesnych etapach
przetwarzania. Obróbkę informacji na wczesnych etapach nazywano
w związku z tym procesami przeduwagowymi (preattentive processes).
Obecnie stanowisko psychologów w tej kwestii uległo złagodzeniu.
Dominuje pogląd, że uwaga skutecznie selekcjonuje informacje nawet
wtedy, gdy ich treść nie przedostaje się do świadomości. Zebrano dane
empiryczne świadczące o możliwości nieświadomej obróbki danych na
najwyższym, semantycznym piętrze przetwarzania. Na określenie tych
zjawisk nadal używa się historycznego terminu „procesy przeduwagowe”,
choć nikt nie wątpi, że są to zjawiska całkowicie uwagowe.
Badanie związków uwagi, percepcji i świadomości wymaga ustalenia
empirycznych kryteriów świadomości. Max Velmans (1999) uważa, że
proces przetwarzania informacji można uznać za świadomy, jeśli są
spełnione następujące warunki: człowiek zdaje sobie sprawę z przebiegu
procesu poznawczego i dysponuje wiedzą o jego rezultatach, a świadomość
procesu ma wpływ na jego przebieg. Natomiast zdaniem Bernarda Baarsa
(1997) proces można uznać za nieświadomy, jeśli nie wyzwala
subiektywnego doświadczenia i nie da się go w żaden sposób
zrelacjonować czy odtworzyć, nawet w warunkach optymalnych, ale
ujawniają się obiektywne skutki jego działania. Anthony Marcel (1983)
oraz Jim Cheesman i Philip Merikle (1984) zaproponowali
eksperymentalne sposoby sprawdzenia, czy głębokie, semantyczne
przetwarzanie informacji może mieć charakter nieświadomy. Chodzi
o wypracowanie operacyjnych definicji tego, czym jest bodziec
podprogowy.
Bodziec podprogowy (subliminal stimulus) – stymulacja, która jest wystarczająco silna, aby
pobudzić narządy zmysłu, ale zbyt słaba, aby można ją było świadomie zauważyć.

Mianem bodźca podprogowego (subliminalnego) określa się stymulację,


która jest wystarczająco silna, aby pobudzić organy sensoryczne, ale zbyt
słaba, aby można ją było świadomie zauważyć. Bodziec podprogowy
działa więc powyżej absolutnego progu percepcji, ale poniżej progu
świadomości. Technicznie rzecz ujmując, podprogowy charakter stymulacji
najczęściej uzyskuje się poprzez skrócenie czasu jej trwania (nawet do
kilku milisekund). Problem polega na tym, czy inne manipulacje
eksperymentalne – poza skróceniem czasu prezentacji – pozwalają uznać
bodziec za podprogowy.

Zdaniem Marcela (1983) przebiegu nieświadomego procesu przetwarzania


informacji nie można zaobserwować bezpośrednio – o jego występowaniu
świadczy natomiast wpływ, jaki wywiera on pośrednio na inne, świadome
procesy poznawcze. Bezpośrednie efekty oddziaływania bodźców
w zadaniach poznawczych sprawdza się zazwyczaj poprzez wskaźniki
poprawności oceny fizycznych charakterystyk tych bodźców, np. ich
obecności lub lokalizacji w prezentowanym zestawie. Natomiast efekty
pośrednie można ocenić, mierząc wpływ bodźców zdegradowanych, np.
zniekształconych, maskowanych lub prezentowanych w bardzo krótkim
czasie, niewystarczającym do świadomego rozpoznania. Pośredni jest np.
efekt synonimu, uchwycony w paradygmacie podążania jako spowolnienie
reakcji na sygnały pojawiające się w kanale ważnym, gdy w kanale
ignorowanym występują ich synonimy (Treisman i in., 1974, 1977). Badani
nie mają świadomości występowania synonimów w kanale ignorowanym,
a zwłaszcza nie zdają sobie sprawy z ich wpływu. Zgodnie z definicją
Velmansa efekt ten można więc uznać za przykład nieświadomego
przetwarzania informacji. Zdaniem Marcela bodziec można uznać za
subliminalny nawet wtedy, gdy trwa odpowiednio długo, pod warunkiem że
pojawia się na peryferiach pola uwagi – jest np. zamaskowany lub
występuje na obrzeżach pola widzenia (w tle).

Natomiast Cheesman i Merikle (1984) argumentują, że świadome


przetwarzanie może teoretycznie objąć każdy bodziec, działający powyżej
absolutnego progu percepcji. Ich zdaniem nie można wykluczyć, że
synonimy pojawiające się w kanale ignorowanym są w istocie
przetwarzane świadomie, choć badani mogą ich później nie pamiętać, przez
co badacz błędnie wnioskuje o braku świadomości ich występowania
(Holender, 1986; Velmans, 1991). Wynika z tego, że o ile wpływ bodźców
bardzo krótkich, jeśli się ujawni, musi być skutkiem nieświadomej analizy
i selekcji informacji, o tyle wpływ bodźców zdegradowanych w inny
sposób (np. pojawiających się w odrzucanym kanale akustycznym czy na
peryferiach pola wzrokowego) – niekoniecznie. Niezależnie jednak od
ustalenia operacyjnej definicji bodźca podprogowego nie brakuje
argumentów empirycznych świadczących o tym, że jest możliwa
nieświadoma selekcja i analiza informacji.

5.3.1. Analiza wskazówek peryferycznych


Gerald Mendelsohn wraz ze współpracownikami (Mendelsohn, 1976;
Mendelsohn, Griswold, 1964, 1966) prosili osoby badane o wykonanie
kolejno dwóch zadań. Pierwsze polegało na zapamiętywaniu listy wyrazów,
a drugie – na rozwiązywaniu anagramów (układaniu wyrazów z losowo
rozrzuconych liter). Niektóre słowa, stanowiące rozwiązanie anagramów,
były obecne na liście wyrazów do zapamiętania. Mimo że badani nie
zdawali sobie sprawy z relacji między zadaniami, rozwiązywali znacznie
więcej anagramów wtedy, gdy słowa stanowiące ich rozwiązanie
znajdowały się na zapamiętywanej uprzednio liście bodźców. Nazwano to
efektem nieuświadomionej podpowiedzi. Mendelsohn i Ernest Liedholm
(1972) wykazali, że jego wielkość zależy od modalności sensorycznej.
Znacznie większy efekt zaobserwowano wtedy, gdy lista zapamiętywanych
wyrazów prezentowana była w modalności wizualnej, niż wtedy, gdy
przedstawiano ją słuchowo.

Nieco mniej optymistyczne wnioski wynikają z badań Arien Mack, Irvina


Rocka oraz ich współpracowników (Mack i in., 1992; Rock i in., 1992;
Mack, Rock, 1998). Wykonali oni serię eksperymentów w celu zbadania,
czy możliwa jest percepcja bodźców znajdujących się poza centrum uwagi.
Zadaniem osób badanych była ocena, które ramię prezentowanego im na
ekranie krzyża jest dłuższe. W części zadań oprócz krzyża pojawiał się
inny bodziec (w centrum lub na peryferiach pola percepcyjnego), o czym
uczestnicy nie byli uprzedzani. Po zakończonym eksperymencie pytano
ich, czy oprócz krzyża widzieli jeszcze jakieś inne bodźce. W przypadku
odpowiedzi pozytywnej proszono o ich wymienienie, a w przypadku
negatywnej – o wybranie spośród kilku obiektów tych, które mogły być
uprzednio pokazywane. W każdym z cytowanych tu badań, gdy bodźce
dodatkowe prezentowano peryferycznie, 25–35% respondentów udzielało
negatywnej odpowiedzi na pytanie eksperymentatorów. Badani ci nie byli
również w stanie rozpoznać sygnału wśród sześciu prezentowanych im
później figur. Jeśli natomiast sygnał pojawiał się tuż obok krzyża (w
centrum uwagi), praktycznie nie zdarzyło się, aby pozostał niezauważony.
W dostrzeżeniu bodźca peryferycznego pomagały cechy priorytetowe, takie
jak ruch czy kolor, jeśli były dystynktywne (zob. też Horbaczewski,
Szymura, 2005; Szymura, Horbaczewski, 2005). Wykryto ponadto, że aż
90% osób badanych zauważało pojawienie się na peryferiach pola
wzrokowego, poza centrum uwagi, własnego imienia (por. Moray, 1959).
Jeśli jednak na ekranie pojawiało się jakieś inne imię, zauważało je
niewiele ponad 60% uczestników eksperymentu, a tylko 45% z nich było
w stanie poprawnie je zidentyfikować. Gdy nieoczekiwanym bodźcem było
błędnie napisane własne imię osoby badanej, ta zwykle nie była w stanie go
zidentyfikować ani nawet zauważyć. Podobnie – w przypadku innych
wyrazów niosących ze sobą specyficzne znaczenie, zupełnie jednak
niezwiązane z zadaniem przetwarzanym w centrum uwagi. Bodźce
pojawiające się na peryferiach uwagi są więc przetwarzane tylko na dość
płytkim poziomie, z niewielkim udziałem analizy semantycznej (Mack,
Rock, 1998).

5.3.2. Reakcje na informacje odrzucane


Prowadząc badania w paradygmacie podążania, James Lackner i Merrill
Garrett (1972) prezentowali w ważnym kanale komunikaty o niejasnej
treści, a w kanale ignorowanym – wskazówki pomocne w ich interpretacji.
Stwierdzono, że badani wykorzystywali wskazówki, choć nie byli w stanie
odtworzyć jakichkolwiek informacji pochodzących z kanału ignorowanego.
Interpretacja niejasnego przekazu była tym lepsza, im większa pozostawała
semantyczna zbieżność nieuświadomionej wskazówki z treścią owego
komunikatu. Wyniki te potwierdził następnie Donald Mackay (1973),
a jeszcze silniejsze argumenty za nieświadomym przetwarzaniem
semantycznym w kanale odrzucanym przedstawił Daniel Holender (1986).
Wykorzystując procedurę Lacknera i Garretta, autor dokonał dodatkowej
manipulacji, polegającej na rozdzieleniu w czasie wskazówki
i dwuznacznego przekazu: informacja pomagająca w interpretacji przekazu
znacznie go wyprzedzała. Holender uzyskał wyniki zbliżone do rezultatów
Lacknera i Garretta oraz Mackaya – nieuświadomiona wskazówka nadal
pomagała w wykonywaniu głównego zadania. Ze względu na czasową
rozbieżność prezentacji bodźców w obu kanałach, w interpretacji
niejasnego komunikatu nie mogła pomagać nietrwała reprezentacja
wyobrażeniowa wskazówki, ale raczej jej trwała i głęboka reprezentacja
umysłowa. Przy założeniu, że brak werbalizacji wskazówki oznacza brak
jej uświadomienia, wyniki uzyskane przez Holendra można traktować jako
bardzo ważny argument na rzecz tezy o nieświadomym przetwarzaniu
znaczenia bodźców.

Mark Dallas i Philip Merikle (1976) wykazali, że prawidłowa reakcja na


słowo prezentowane w kanale ważnym (np. samochód) może być znacznie
przyspieszona, gdy w kanale ignorowanym pojawi się słowo semantycznie
z nim związane (np. kierownica). Czas reakcji wydłuża się natomiast
wtedy, gdy w kanale ignorowanym pojawi się synonim słowa, na które
należy zareagować (np. auto), co nosi nazwę efektu synonimu (zob. ramkę
5.1). Nie jest jasne, dlaczego synonim zmniejsza szybkość reagowania,
a słowo bliskie znaczeniowo skraca czas reakcji. Nie ulega jednak
wątpliwości, że informacje pozornie ignorowane przedostają się do kanału
przetwarzania semantycznego, chociaż uczestnicy badań nie zdają sobie
z tego sprawy.

Informacje pojawiające się w kanale ignorowanym mogą również


prowadzić do nieuświadomionych, specyficznych reakcji
psychofizjologicznych organizmu. R.S. Corteen i współpracownicy
(Corteen, Dunn, 1974; Corteen, Wood, 1972) uwarunkowali osoby badane
na określone słowa, poprzedzając ich prezentację delikatnym szokiem
elektrycznym. Zaobserwowano, że reakcja skórno-galwaniczna wystąpiła
w odpowiedzi na bodziec warunkowy, czyli słowo sygnalizujące szok
elektryczny, niezależnie od tego, czy bodziec ten pojawiał się w kanale
ważnym czy ignorowanym, z czego oczywiście badani nie zdawali sobie
sprawy. Co więcej, jak wykazali J.M. Von Wright, K. Anderson i Ulla
Stenman (1975), reakcja skórno-galwaniczna pojawia się także
w odpowiedzi na synonimy słów skojarzonych z szokiem elektrycznym,
prezentowane w kanale ignorowanym. Efekt synonimu Treisman i Daviesa
został więc po raz kolejny potwierdzony, tym razem z wykorzystaniem
miar psychofizjologicznych. Wobec braku świadomości zarówno samego
efektu, jak i występowania słów-synonimów wyniki te uznano za dowód na
istnienie procesów nieświadomego przetwarzania znaczenia sygnałów
(Holender, 1986; Velmans, 1991).

5.3.3. Poprzedzanie podprogowe


Poprzedzanie jest techniką eksperymentalną, polegającą na badaniu
wpływu bodźca prezentowanego wcześniej (prymy) na przetwarzanie
bodźca docelowego, pojawiającego się później (paradygmat 5.6). Dla
dyskusji dotyczącej nieświadomego przetwarzania znaczeń najistotniejsze
są badania nad poprzedzaniem peryferycznym i subliminalnym; inne formy
poprzedzania omówiono w podrozdziale 6.2.

Paradygmat 5.6

Poprzedzanie (prymowanie, priming)

Poprzedzanie zachodzi wtedy, gdy jeden bodziec, zwany prymą (prime),


wpływa na przetwarzanie następującego po nim bodźca docelowego
(target). W starszych pracach psychologicznych podobne efekty nazywano
nastawieniem. Pryma i bodziec docelowy muszą być powiązane
sensorycznie (np. mieć identyczny lub podobny wygląd; Evett, Humphreys,
1981) lub semantycznie (np. mieć identyczne lub bliskie znaczenie; Posner,
Snyder, 1975). Nie jest więc przykładem prymowania jakiekolwiek
oddziaływanie – rzeczywiste lub potencjalne – tego, co było wcześniej, na
to, co pojawia się później. Gdyby definicję prymowania aż tak rozszerzyć,
podpadałoby pod nią w zasadzie całe życie psychiczne człowieka. Chcąc
uniknąć kłopotów związanych z przyjęciem zbyt szerokiej definicji
zjawiska, terminem „prymowanie” oznaczamy technikę badań
eksperymentalnych, czyli paradygmat polegający na poprzedzaniu bodźca
docelowego bodźcem w jakiś sposób z nim powiązanym.

W zależności od rodzaju powiązania rozróżniamy wiele typów


poprzedzania. Poprzedzanie repetytywne polega na krótkiej ekspozycji
tego samego bodźca, który za chwilę ma być przez osobę badaną
rozpoznany, przeczytany, zaliczony do jakiejś kategorii lub w inny sposób
przetworzony. W poprzedzaniu semantycznym pryma nie jest identyczna
z bodźcem docelowym, ale jest z nim znaczeniowo powiązana. Pryma
może być np. synonimem bodźca docelowego (biblioteka → księgozbiór)
lub słowem należącym do tej samej kategorii (długopis → ołówek).
W badaniach tego typu stwierdza się zazwyczaj, że bodziec prymujący
ułatwia przetwarzanie bodźca docelowego, np. skraca czas potrzebny na
jego rozpoznanie, przeczytanie, nazwanie itp. Mamy wtedy do czynienia
z poprzedzaniem pozytywnym, zwanym też niekiedy torowaniem,
ponieważ pryma jak gdyby toruje drogę bodźcowi docelowemu. Może się
jednak zdarzyć, że bodziec poprzedzający wydłuża czas reakcji albo w inny
sposób utrudnia przetwarzanie bodźca docelowego. Nazywamy to efektem
poprzedzania negatywnego, który zwykle ujawnia się tylko
w specyficznym układzie bodźców (zob. rozdz. 6).

Jeśli bodziec poprzedzający działa w bardzo krótkim czasie, od kilku do


kilkudziesięciu milisekund, osoba badana nie jest w stanie go zauważyć.
Jeśli mimo to obserwujemy zmiany w przetwarzaniu bodźca docelowego,
mamy do czynienia z poprzedzaniem podprogowym, inaczej
subliminalnym. Trzeba jednak pamiętać, że poprzedzanie tego typu
niekoniecznie wymaga bardzo krótkiej ekspozycji prymy. Niekiedy efekt
podprogowości można uzyskać inaczej, np. prezentując bodziec o bardzo
małej intensywności. Możemy w tym celu manipulować poziomem
jasności bodźca wzrokowego lub poziomem głośności bodźca słuchowego.
Jeśli bodziec poprzedzający jest wystarczająco intensywny i trwa
wystarczająco długo, a mimo to osoba badana nie zdaje sobie sprawy
z jego oddziaływania, mamy do czynienia z poprzedzaniem
peryferycznym. Bodziec wzrokowy może np. znajdować się na
peryferiach pola widzenia albo w jego centrum, ale doskonale
zamaskowany innymi bodźcami, przez co osoba badana nie jest w stanie go
zauważyć. Jeśli mimo to obserwujemy obiektywny wpływ takiej prymy na
przetwarzanie bodźca docelowego, możemy mówić o efekcie poprzedzania
peryferycznego. Peryferyczna może być też pryma słuchowa, występująca
tuż przed bodźcem docelowym i obiektywnie wystarczająco głośna, ale
pojawiająca się w tzw. kanale ignorowanym (paradygmat 5.1).

Szczególnym przypadkiem jest poprzedzanie afektywne, które polega na


aplikowaniu przed bodźcem docelowym bodźców emocjonalnie
nieobojętnych, np. wizerunków uśmiechniętych lub zasmuconych twarzy,
fotografii przyjemnych albo nieprzyjemnych obiektów bądź scen czy słów
oznaczających uczucia lub kojarzących się z emocjami. W takim
przypadku obserwuje się zwykle, że bodziec docelowy jest inaczej
oceniany pod wpływem działania prymy. Na przykład bodziec pierwotnie
neutralny może nam się wydawać sympatyczny lub niesympatyczny,
w zależności od emocjonalnego znaku zastosowanej prymy.

W większości badań nad poprzedzaniem zachowuje się ścisłe powiązanie


czasowe między prymą a bodźcem docelowym. Typowy eksperyment
polega na zaaranżowaniu szeregu prób, z których każda składa się
z określonej sekwencji zdarzeń, np.:

Pryma trwa zwykle bardzo krótko, chyba że celowo rezygnujemy


z możliwych efektów subliminalnych. Po niej następuje maska, czyli np.
rząd gwiazdek **** lub liter XXXX, które zapobiegają utrzymywaniu się
śladu bodźca – już po jego zniknięciu – na siatkówce oka. Po masce
pojawia się bodziec docelowy, na który należy zareagować zgodnie
z instrukcją. Po krótkiej przerwie następuje kolejna próba, skonstruowana
według tego samego schematu, który nazywamy poprzedzaniem
sekwencyjnym.

W niektórych badaniach nad pamięcią stosuje się inny, niesekwencyjny


paradygmat prymowania. Osoba badana czyta np. krótki fragment prozy,
zawierający pewną liczbę semantycznie powiązanych słów. Mogą to być
słowa należące do tej samej kategorii lub kojarzące się z czymś wspólnym.
Po pewnym czasie, który może trwać około tygodnia, osobie badanej
prezentuje się inny fragment prozy, sprawdzając, czy wcześniej
prezentowane bodźce w jakiś sposób wpłynęły na jego ocenę albo na to,
w jaki sposób będzie on zapamiętany lub zinterpretowany. W badaniach
tego typu udało się wykazać, że bodźce prymujące, prezentowane na długo
przed właściwym tekstem, są w stanie wpłynąć na sposób przetwarzania
bodźców docelowych, choć osoba badana nie zdaje sobie z tego sprawy.
Obfitość i różnorodność badań z użyciem paradygmatu poprzedzania
sprawia, że jest to obecnie jedna z bardziej popularnych technik
eksperymentowania w psychologii poznawczej.

W. Trammell Neill (1977) prosił osoby badane o podejmowanie decyzji


leksykalnych: uczestnicy oceniali, czy prezentowany im na ekranie ciąg
liter jest sensownym, poprawnie napisanym wyrazem ich ojczystego
języka. Niektóre bodźce poprzedzano prymą powiązaną semantycznie
z bodźcem docelowym (np. miód → pszczoła), a inne – prymą
semantycznie niezwiązaną lub neutralną (np. traktor → pszczoła). Było to
poprzedzanie peryferyczne, polegające na podawaniu prymy
odpowiednio długotrwałej, ale trudnej do zauważenia ze względu na sporą
odległość względem punktu fiksacji. Okazało się, że decyzja leksykalna
(np. czy „pszczoła” to słowo języka polskiego?) była znacznie szybsza, gdy
bodziec docelowy (pszczoła) poprzedzono prymą semantyczną. Neill
dostarczył więc argumentów zwolennikom tezy, że peryferyczny,
prawdopodobnie nieuświadomiony bodziec poprzedzający może mieć
wpływ na późniejsze przetwarzanie bodźca właściwego. Rodzą się jednak
wątpliwości, czy w tych badaniach prymy były rzeczywiście
nieuświadomione.

Znacznie mocniejsze argumenty pochodzą więc z badań z wykorzystaniem


poprzedzania subliminalnego, czyli podprogowego (Fowler, Wolford,
Slade, Tassinary, 1981). Prymy prezentowano zbyt krótko, jak na
możliwości percepcyjne osób badanych, a ponadto poddano je
natychmiastowemu maskowaniu. Okazało się, że efekt poprzedzania jest
równie silny w przypadku poprzedzania podprogowego i okołoprogowego.
Co więcej, Ira Fischler i George Goodman (1978) wykazali, że prymy
podprogowe (bardzo krótkie) mogą czasem działać silniej niż prymy
nadprogowe (odpowiednio długie). W obu badaniach upewniono się, że
uczestnicy przetwarzali bodźce poprzedzające bez udziału świadomości,
ponieważ nie byli w stanie ich później rozpoznać (był to tzw. test
świadomości).

Geoffrey Underwood (1977) wskazał jednak na pewne ograniczenia


zdolności systemu poznawczego do nieświadomej analizy znaczenia
bodźców. W jego badaniu poprzedzanie miało charakter nadprogowy, ale
połączono je z procedurą podążania. Bodźce poprzedzające pojawiały się
zarówno w kanale ważnym, jak i w kanale ignorowanym. Autor
zreplikował efekt poprzedzania, i to zarówno w kanale ważnym (co
oczywiste), jak i w kanale ignorowanym (co mniej oczywiste, a bardzo
interesujące). Różna była jednak jakość tego efektu w obu przypadkach.
Podczas gdy poprzedzanie semantyczne w kanale ważnym przyczyniało się
do głębokiej analizy przekazu, ułatwiając zrozumienie dłuższej
wypowiedzi, w kanale ignorowanym działało tylko w odniesieniu do
pojedynczych słów, czyli obejmowało stosunkowo płytki poziom
identyfikacji znaczenia.

Wyniki opisane w trzech ostatnich podrozdziałach świadczą na korzyść


tezy o zdolności umysłu ludzkiego do nieświadomego przetwarzania
informacji na poziomie semantycznym; inne argumenty znaleźć można
w pracy Błażeja Szymury i Aleksandry Słabosz (2002). Wyniki te zebrano
z wykorzystaniem różnych procedur i wielokrotnie replikowano. Rezultaty
badań Mack i Rocka (1998) oraz Underwooda (1977) nakazują jednak
pewną ostrożność interpretacyjną, nieświadome przetwarzanie znaczenia
może bowiem ograniczać się do stosunkowo płytkiego poziomu obróbki
informacji.

5.4. Podsumowanie
Treść niniejszego rozdziału pokazuje, jak wiele funkcji pełni mechanizm
uwagi i jak wieloma metodami można go badać. Mimo licznych
i różnorodnych zadań, takich jak selekcja źródła informacji,
przeszukiwanie pola percepcyjnego, utrzymywanie gotowości do działania,
obsługa zadań jednoczesnych i przerzutność między zadaniami, uwaga
pozostaje mechanizmem jednorodnym, czerpiącym ze wspólnych zasobów
poznawczych. Trzeba tu jednak podkreślić, że w tym rozdziale mowa była
o uwadze rozumianej tradycyjnie: jako mechanizm odpowiedzialny za
ochronę systemu poznawczego przed negatywnymi skutkami
przeładowania informacyjnego. Oprócz tego uwadze przypisuje się również
funkcje kontrolne, te jednak opiszemy w rozdziale 6. Tutaj omówiliśmy
teorie i badania dotyczące selektywności uwagi, przeszukiwania pola
percepcyjnego, podzielności i przerzutności uwagi oraz koncentracji, czyli
utrzymywania czujności uwagi. Zajęliśmy się również związkami uwagi
z percepcją i świadomością, kładąc szczególny nacisk na mechanizmy
uwagi oparte na percepcji bodźców podprogowych, czyli takich, które nie
przekraczają progu świadomości. Przedstawiliśmy ponadto główne
paradygmaty badawcze w dziedzinie uwagi – paradygmat dychotycznej
prezentacji bodźców i metodę podążania, paradygmaty do badania
przeszukiwania pola wzrokowego, testy ciągłego wykonania, paradygmat
przełączania się między zadaniami oraz dużą grupę zadań mierzących
efekty poprzedzania.

Treść tego rozdziału skłania do jeszcze innego wniosku, mianowicie że


uwaga jest ściśle powiązana z energią i jej wydatkowaniem. Zgodnie
z nieco żartobliwą definicją Broadbenta „uwaga to tajemnicza energia,
czasem powiązana z ludzkim działaniem, a czasem nie”. Poznawcze
funkcje uwagi niewątpliwie wymagają nakładu energii, a ich używanie
w dłuższym okresie prowadzi do zmęczenia. Bezwysiłkowe, bo
automatyczne, są natomiast procesy przeduwagowe, co być może stanowi
wystarczający powód, aby je wyróżniać i tak właśnie nazywać. Pojęcie
energii mentalnej jest niezbyt dobrze zdefiniowane i zoperacjonalizowane,
ale jak na razie nie udało się zbudować sensownej teorii psychologicznej,
która mogłaby się bez niego obyć. Dotyczy to w szczególności teorii
opisującej działanie uwagi.
Rozdział 6

Kontrola poznawcza

Czynności automatyczne i automatyzacja


Kryteria automatyczności przetwarzania
Schneidera i Shiffrina teoria kontinuum
Logana teoria rywalizacji egzemplarzy
Konsekwencje automatyzacji czynności
Hamowanie jako mechanizm kontrolny
Istota i funkcje hamowania
Hamowanie dominującej reakcji
Odporność na dystrakcję
Odporność na interferencję proaktywną
Czy hamowanie jest konstruktem jednorodnym?
Funkcje zarządcze
Istota funkcji zarządczych, czyli homunculus odnaleziony
Rodzaje funkcji zarządczych
Mechanizm zarządczy w koncepcji uwagi Posnera
Dwustopniowy system kontroli zachowania w koncepcji Shallice’a
Centralny system wykonawczy pamięci roboczej w modelu Baddeleya
Teoria monitorowania konfliktu
Podsumowanie
Według Daniela Dennetta „umysł to armia idiotów”, w dodatku
pozbawiona sztabu generalnego i naczelnego dowództwa. Wszystkie
funkcje, łącznie z najbardziej złożonymi, są możliwe dzięki współdziałaniu
wielkiej liczby stosunkowo prostych elementów. Czy przy takiej wizji jest
w ogóle możliwe zmierzenie się z problemem kontroli poznawczej? Czy
problem kontroli umysłu nadaje się do badania metodami naukowymi?

Zdolność umysłu do samokontroli i samoregulacji jest dla nauki bardzo


trudnym wyzwaniem, ponieważ problem ten „zahacza” o podstawowe
kwestie religijne i filozoficzne, takie jak pytanie o wolność i wolną wolę.
Nauka szuka wyjaśnień deterministycznych, dlatego dość łatwo oddaje
pole tam, gdzie dostrzega granice deterministycznego sposobu opisu świata
i mechanistycznego wyjaśnienia badanych mechanizmów. Poza tym próby
uchwycenia fenomenu kontroli poznawczej nazbyt często odwołują się –
zwykle nie wprost – do homunculusa: małej istoty tkwiącej w naszym
umyśle i sprawującej nad nim kontrolę (Nęcka, 2004). Ten rodzaj
wyjaśniania jest oczywiście pozorny, ponieważ trzeba by zapytać, kto
steruje naszym homunculusem, a następnie homunculusem homunculusa
itd. Jeśli mimo to podejmuje się próby badania kontroli poznawczej, to
dlatego, że bez tego konstruktu nie sposób wyobrazić sobie trafnego
i względnie kompletnego opisu, jak działa ludzki umysł. Rola procesów
kontroli jest szczególnie duża wtedy, gdy nasze czynności poznawcze
wymagają planowania i podejmowania decyzji, gdy konieczna jest korekta
błędów i reagowanie na pojawiające się problemy, gdy musimy wykonać
czynności nie dość dobrze wyuczone, gdy sytuacja jest nowa,
niebezpieczna lub trudna, a także wtedy, gdy wymagane jest
przezwyciężenie silnego nawyku lub odparcie pokusy (Norman, Shallice,
1986). W innych przypadkach możemy polegać na procesach
automatycznych, wykonywanych poza kontrolą albo z niewielkim jej
udziałem.

Zakres i doniosłość sytuacji, w których kontrola poznawcza jest ważna lub


niezbędna, nakazują poddać procesy kontroli systematycznemu badaniu.
Psychologia poznawcza próbuje więc wykryć, jak działa nasz wewnętrzny
homunculus: jakie czynności wykonuje, z czego się składa i do jakich
skutków prowadzi jego działalność. Podstawowym zabiegiem, który trzeba
podjąć na wstępie, jest podział procesów poznawczych na dwie grupy: te,
które bezpośrednio wykonują czynności poznawcze, oraz te, które
wyspecjalizowały się w nadzorowaniu i kontrolowaniu. Pierwsze
nazwiemy procesami kontrolowanymi, drugie – procesami kontrolnymi.
W literaturze funkcjonują również inne określenia, np. komponenty
i metakomponenty procesu poznawczego (Sternberg, 1977a). Według
Adama Chuderskiego (2008) kontrola poznawcza przyjmuje trzy postaci,
którymi są:

monitorowanie, czyli sprawdzanie przez procesy kontrolne sposobu


przebiegu i skutków działania procesów kontrolowanych, bez aktywnej
ingerencji w ów przebieg;

regulacja, czyli reakcja procesów kontrolnych na błędy i zakłócenia


w przebiegu procesów kontrolowanych;

sterowanie, czyli aktywne i planowane wpływanie przez procesy


kontrolne na przebieg procesów kontrolowanych.

Kontrola poznawcza to zdolność systemu poznawczego do nadzorowania i regulowania własnych


procesów poznawczych, a także do planowanego sterowania ich przebiegiem.
Automatyzacja jest procesem, dzięki któremu czynność poznawcza lub motoryczna stopniowo
uwalnia się spod kontroli poznawczej, przez co jest wykonywana szybko i bez wysiłku, ale
schematycznie.
Funkcje zarządcze to wyspecjalizowane moduły kontroli poznawczej, dzięki którym jesteśmy
zdolni do powstrzymania się od działania (hamowanie), elastycznej zmiany kierunku i charakteru
działania (przełączanie) oraz dostosowania procesów poznawczych i działania do kontekstu
(aktualizacja zawartości pamięci roboczej).

Nie wszystkie aspekty i formy kontroli poznawczej zostały poddane


badaniom. Najczęściej spotyka się prace dotyczące automatyzacji
procesów poznawczych. Automatyzacja, jako uwalnianie się procesu
poznawczego spod kontroli, jest zarazem sposobem na zmniejszenie
kosztów przetwarzania informacji, zwłaszcza kosztów związanych
z kontrolą czynności jednoczesnych lub przerzucaniem się z jednego
zadania na inne. Duża część badań poświęcona jest też hamowaniu
poznawczemu, czyli zdolności systemu poznawczego do „wyłączenia”
procesu, który w danej sytuacji jest niepożądany lub kosztowny. Trzeci
obszar badań, ostatnio niezwykle intensywnie rozwijany, dotyczy samych
procesów kontroli: ich taksonomii, sposobów działania i wzajemnych
związków. Procesy te, zwane niekiedy funkcjami zarządczymi,
odpowiadają za najbardziej złożone, świadome i inteligentne czynności
umysłu ludzkiego. Te trzy obszary badań nad kontrolą poznawczą będą
przedmiotem rozważań w niniejszym rozdziale.

6.1. Czynności automatyczne i automatyzacja

6.1.1. Kryteria automatyczności przetwarzania


Automatyzacja polega na nabywaniu wprawy w zakresie wykonywania
czynności na skutek treningu, czyli powtarzania tej czynności w tych
samych lub zmienionych warunkach zadania (Schneider, Shiffrin, 1977a,
1977b; Shiffrin, Schneider, 1977). Trening jednorodny występuje wtedy,
gdy jedna i ta sama reakcja jest odpowiedzią na zawsze ten sam układ
bodźców. Trening niejednorodny polega natomiast na częstych zmianach
kategorii bodźców (np. liter na cyfry i odwrotnie) przy zachowaniu tego
samego typu reakcji. W wyniku długotrwałego i systematycznego treningu
dochodzi do pełnej automatyzacji, czyli wytworzenia czynności
automatycznej. Przebieg takiej czynności staje się relatywnie szybki,
bezwysiłkowy i pozbawiony większych kosztów poznawczych, a jej
realizacja dokonuje się bez namysłu i kontroli ze strony świadomości
(Czyżewska, 1991; Schneider, Dumais, Shiffrin, 1984).

Automatyzacja czynności pozwala więc na uwolnienie zasobów systemu


poznawczego (Kahneman, 1973; Norman, Bobrow, 1975; zob. podrozdz.
5.2.4), związanych wcześniej z wykonywaniem tej czynności, pozwalając
na inne ich przeznaczenie – np. na jednoczesne wykonanie innej czynności.
Istnienie procesu automatyzacji czynności ma uzasadnienie ewolucyjne
(Bargh, 1999; Bargh, Chartrand, 1999). Jak słusznie zauważył Alfred
Whitehead (1911), postęp cywilizacyjny dokonuje się przez zwiększanie
liczby operacji, które można wykonywać bez konieczności myślenia
o nich. W tym czasie, kiedy właśnie te operacje są wykonywane, system
poznawczy może bowiem zająć się twórczym rozwiązywaniem problemów
oraz podejmowaniem kluczowych decyzji. Whitehead porównuje przebieg
procesów poznawczych do pola bitwy. Uporczywie drążąca je piechota
„czynności automatycznych” daje miejsce i czas dla „kontrolowanej”
kawalerii myśli. Ta jest wprawdzie nieliczna i wymaga „świeżych koni”
(zasobów), ale wysyła się ją na pole bitwy jedynie w momentach
decydujących o przebiegu batalii.

Procesy automatyczne można też opisać poprzez analogię do


automatycznego pilota samolotu (Bargh, Chartrand, 1999; Jaśkowski,
Skalska, Verleger, 2003; Logan, 1988). Pozwala on na kontynuowanie lotu
na określonym poziomie i z określoną szybkością, podobnie jak czynność
automatyczna pozwala na poprawne i szybkie wykonanie zadania, za które
odpowiada. Pilot automatyczny ma jednak pewne wady. Po pierwsze, raz
uruchomiony skutecznie utrudnia zmiany w zakresie parametrów lotu. Ta
korekta musi być wprowadzona w sposób kontrolowany. Po drugie, jego
zastosowanie ograniczają warunki lotu – w sytuacjach trudnych
i nieprzewidywalnych użycie automatycznego pilota może nawet
doprowadzić do katastrofy. Analogicznie, jedną z najważniejszych
charakterystyk czynności automatycznej jest to, że bardzo trudno ją
zmodyfikować. Czynność taka, raz rozpoczęta, musi zostać ukończona,
chyba że – tak samo jak pilot automatyczny – zostanie zatrzymana przez
mechanizm kontrolny wyższego rzędu. Tę cechę procesów automatycznych
określa się jako balistyczność (Hasher, Zacks, 1979). Podobnie,
wykonywanie czynności automatycznych w warunkach niestandardowych
może doprowadzić do wyniku zupełnie nieadekwatnego do okoliczności.
Analogia do pilota automatycznego pokazuje więc doskonale zalety i wady
czynności automatycznych – konsekwencją wysokiego poziomu
wykonania są zarówno ograniczone możliwości ingerencji w przebieg
takiej czynności, jak i wąski zakres jej użyteczności.

Procesom automatycznym często przeciwstawiane są procesy świadome


(Bargh, Chartrand, 1999), choć wydaje się to błędne (Nęcka, 2002). Proces
poznawczy jest świadomy, gdy zdajemy sobie sprawę przynajmniej
z niektórych jego aspektów, w szczególności z tego, że właśnie przebiega.
Proces taki może być automatyczny, jeśli wiemy, że zachodzi, ale nie
możemy go zahamować ani zmodyfikować. Dlatego procesy automatyczne
należy przeciwstawiać nie procesom świadomym, lecz procesom
nieautomatycznym. Aby to jednak było możliwe, potrzebny jest konsens,
którego do tej pory nie osiągnięto, co do kryteriów czynności
automatycznych (Bargh, 1994, 1999). Jak się wydaje, przyczyną braku
porozumienia jest nie dość staranne rozróżnianie kilku różnych klas
procesów automatycznych, charakteryzujących się nieco innymi
właściwościami. Dwie z tych klas: procesy zautomatyzowane i procesy
pierwotnie automatyczne, wydają się najważniejsze.

Badania nad automatyzacją czynności i nabywaniem wprawy (skill


acquisition) pozwoliły na zdefiniowanie pierwszej kategorii, czyli
procesów zautomatyzowanych. W wyniku nabywania wprawy procesy
pierwotnie nieautomatyczne wyzwalają się spod świadomej kontroli ze
strony systemu poznawczego (Anderson, 1983b; Schneider, Shiffrin,
1977a, 1977b; Shiffrin, Schneider, 1977). Automatyzacja tych czynności
nie pozbawia ich jednak intencjonalności czy celowości, a jedynie pozwala
zmniejszyć wysiłek umysłowy konieczny do ich realizacji. Można je więc
określić jako procesy wtórnie automatyczne. Ich przeciwieństwem są
procesy pierwotnie automatyczne, czyli takie, które nie tylko są
bezwysiłkowe, ale których uruchomienie odbywa się w sposób całkowicie
niezależny od naszej woli i intencji (Posner, Snyder, 1975; Treisman, 1988;
Murphy, Zajonc, 1994). Lynn Hasher i Rose Zacks (1979) nazywają te
dwie kategorie procesami słabo i silnie automatycznymi. Istnienie
procesów silnie automatycznych wykazano w wielu badaniach dotyczących
czynności przeduwagowych. Podstawowymi kryteriami wyróżniającymi
wszystkie procesy automatyczne byłyby więc: bezwysiłkowość (nie
konsumują zasobów) i bezrefleksyjność (nie wymagają świadomej
kontroli). Dodatkowo procesy pierwotnie automatyczne
charakteryzowałyby się jeszcze brakiem intencji, czyli zamiaru ich
wzbudzenia.

Przykładem procesu pierwotnie automatycznego jest proces segregacji pola


wzrokowego podczas przeszukiwania pola percepcyjnego w fazie
przeduwagowej (zob. podrozdz. 5.2.2). Jeśli obiekty w polu wzrokowym
charakteryzują się cechami priorytetowymi, to te ostatnie automatycznie,
niezależnie od naszej woli i intencji, stają się podstawą do podziału pola
wzrokowego na część zawierającą obiekty wyposażone w te cechy i część,
która takich bodźców nie zawiera (Treisman, 1993; Treisman, Sato, 1990).
Przykładem procesu wtórnie automatycznego jest przeszukiwanie pola
wzrokowego w fazie uwagowej ze względu na właściwości
niepriorytetowe. Na skutek dużej liczby powtórzeń w warunku treningu
jednorodnego (np. 36 serii po 106 powtórzeń każda; Shiffrin, Dumais,
Schneider, 1981) poszukiwanie koniunkcyjne ze względu na cechy kształtu
i koloru staje się równie szybkie, jak poszukiwanie proste tylko ze względu
na cechę kształtu (zob. podrozdz. 5.2.2, gdzie omówiono rodzaje
przeszukiwania). Pierwotnie kontrolowany i szeregowy proces uwagowego
przeszukiwania pola wzrokowego nabiera zatem cech procesu
bezuwagowego: wtórnie automatycznego, równoległego i pozbawionego
kontroli.

Automatyzm czynności poznawczych jest powszechną ich właściwością,


rozwiniętą w długim procesie ewolucji naszych sprawności poznawczych
(Bargh). Stanowi właściwość adaptacyjną, dzięki której możemy uwolnić
część zasobów poznawczych, przeznaczając je na inne, ważniejsze lub
pilniejsze czynności. Niektóre procesy przetwarzania informacji ulegają
automatyzacji w procesie nabywania wprawy (Shiffrin i Schneider),
podczas gdy inne są automatyczne ze swej natury (Posner). Cecha
automatyczności przysługuje zarówno procesom elementarnym, takim jak
segregacja pola wzrokowego podczas jego przeszukiwania (Treisman), jak
i procesom złożonym, w rodzaju np. spostrzegania i komunikowania
emocji poprzez wyraz mimiczny (Zajonc). Dalej zostaną omówione
koncepcje procesów automatycznych, odnoszące się głównie do
elementarnych procesów przetwarzania informacji. Odniesienie zawartych
w tych teoriach poglądów do złożonych procesów afektywnych
i społecznych znaleźć można w literaturze polskiej w pracach Aliny
Kolańczyk i współpracowników (Kolańczyk, 2009; Kolańczyk, Fila-
Jankowska, Pawłowska-Fusiara, Sterczyński, 2004) oraz Rafała K. Ohme
(2003, 2007).

6.1.2. Schneidera i Shiffrina teoria kontinuum


Większość koncepcji procesów automatycznych przeciwstawia je procesom
kontrolowanym (Styles, 1997). W zasadzie jednak tylko wczesne teorie
czynności automatycznych (Atkinson, Shiffrin, 1968; Posner, Snyder,
1975; Schneider, Shiffrin, 1977a, 1977b; Shiffrin, Schneider, 1977)
lokalizowały te procesy na dwóch biegunach pewnego kontinuum. Teorie
te dotyczyły raczej procesów wtórnie automatycznych, najważniejsze zaś
badania związane z rozwojem tych koncepcji koncentrowały się na
efektach nabywania wprawy i „przesuwania się” procesów wzdłuż
kontinuum od bieguna kontroli w stronę bieguna automatyzmu. Co
ciekawe, tendencja ta nie była zgodna z oryginalnym poglądem w tym
zakresie i pierwszą definicją procesów automatycznych, sformułowaną
przez Richarda Atkinsona i Richarda Shiffrina. Badacze ci zaproponowali
bowiem podział procesów poznawczych na dwie klasy. W swojej koncepcji
systemu poznawczego przeciwstawili oni czynnościom kontrolowanym
procesy będące własnościami strukturalnymi systemu. Te ostatnie mają
charakter stabilny, co oznacza, że są wykonywane zawsze w ten sam
sposób, niezależnie od wymagań stawianych przez warunki zadania. Będąc
niezmiennymi, pozbawione są jakiejkolwiek kontroli ze strony umysłu.
Jako własności strukturalne systemu procesy te, przynajmniej w części,
wydają się pierwotnie automatyczne. Dalsze rozważania Shiffrina i jego
współpracowników skupiały się jednak niemal wyłącznie na procesach
wtórnie automatycznych.
W eksperymentach poprzedzających ogłoszenie koncepcji, Shiffrin wraz ze
współpracownikami (Shiffrin, Gardner, 1972; Shiffrin, McKay, Shaffer,
1976; Shiffrin, Pisoni, Castaneda-Mendez, 1974) starali się empirycznie
wykazać istnienie procesów niewymagających kontroli poznawczej.
Wykorzystując paradygmaty podążania (zob. podrozdz. 5.2.1) oraz
przeszukiwania pola wzrokowego (zob. podrozdz. 5.2.2), udało się im
dowieść, że jeśli badani mają wykonywać zadanie selekcyjne na płytkim,
sensorycznym poziomie przetwarzania informacji (Craik, Lockhart, 1972),
czynią to szybko i bezwysiłkowo, analizują równolegle duże porcje
stymulacji i nie mają świadomości przebiegu tego procesu. Przy płytkim
kryterium selekcyjnym nie miała znaczenia ani liczba jednocześnie
prezentowanych na ekranie liter (zestawy 1–4-literowe; Shiffrin, Gardner,
1972), ani liczba ich możliwych lokalizacji (9 pozycji dla liter lub 49
pozycji dla kropek; Shiffrin i in., 1976). Warunkami skutecznego śledzenia
kilku możliwych bodźców, pojawiających się w kilkudziesięciu możliwych
lokalizacjach, były, po pierwsze, uprzedzenie badanych o możliwym
położeniu bodźców, a po drugie, niewielka liczba samych bodźców.
W podsumowaniu wyniki wczesnych badań Shiffrina i jego
współpracowników, współautor koncepcji kontinuum procesów Walter
Schneider (1984) przyznaje, że replikacja tych wyników z użyciem
zestawów liczniejszych niż 4 litery raczej nie ma szans powodzenia.

Badani w eksperymentach Shiffrina byli też zdolni do reagowania na


informacje pojawiające się w kanale ignorowanym, gdy reakcja na nie była
w prosty sposób skojarzona z prezentowanym bodźcem i nie wymagała
jego dalszego przetworzenia lub zapamiętania (Shiffrin i in., 1974). Wyniki
badań pozwoliły Shiffrinowi na stwierdzenie istnienia dwóch klas
procesów poznawczych, różnych pod względem przebiegu: automatycznej
detekcji i kontrolowanego przeszukiwania. Tym samym udało mu się
rozróżnić wpływ procesów automatycznych i kontrolowanych w badaniach
nad uwagową detekcją sygnałów. Podstawowym czynnikiem
umożliwiającym dokonanie tego rozróżnienia była głębokość procesów
przetwarzania informacji (Craik, Lockhart, 1972; zob. podrozdz. 5.2.1).
Procesy automatyczne operowały bowiem na płytkich poziomach
przetwarzania, podczas gdy konieczność elaboracji bodźca na głębszych
poziomach przetwarzania zmuszała umysł do uruchomienia kontroli
poznawczej i wzbudzenia procesów kontrolowanych.

Shiffrin i Schneider (1977; Schneider, Shiffrin, 1977a, 1977b)


zaproponowali złożony model systemu poznawczego (ryc. 6.1), w ramach
którego możliwe są dwie ścieżki przetwarzania informacji. Pierwsza z nich
wymaga kontroli ze strony uwagi i ujawnia się w przypadku pojawienia się
nowych bodźców i braku adekwatnych strategii postępowania. Nowość
i nieprzewidywalna zmienność warunków zadania zmuszają system
poznawczy do kontrolowanego przetwarzania informacji, zależnego od
ograniczonych jego możliwości (tj. ograniczonych zasobów uwagi
i limitowanej pojemności pamięci roboczej). Ten typ przetwarzania
wymaga czasu i jest podatny na działanie zasady przetargu między
przechowywaniem informacji a jej przetwarzaniem (McElree, Dosher,
1993). Druga ścieżka przetwarzania informacji w ramach systemu
poznawczego związana jest z automatyczną detekcją układu bodźców
i szybkim, pozbawionym kontroli uruchomieniem strategii (programów
działania), zakodowanych w pamięci długotrwałej i dostosowanych do
takiego układu wyzwalającego. Reakcja systemu poznawczego pojawia się
wtedy bez udziału uwagi czy świadomości. Jest ona także niepodatna na
modyfikacje za pomocą instrukcji werbalnych.
Procesy jawne (explicit) – procesy kontrolowane, dostępne świadomości; wyróżniają je możliwość
bieżącej modyfikacji, niewielka wydajność i relatywnie wolny przebieg.
Procesy zawoalowane (veiled processes) – procesy kontrolowane niedostępne świadomości;
wyróżniają je relatywnie szybki przebieg i niewielkie możliwości ich modyfikacji.

Procesy kontrolowane mogą być dwojakiego rodzaju. Po pierwsze, są


wśród nich procesy jawne, dostępne świadomości, takie jak intencjonalne
przywoływanie danych z pamięci czy przeszukiwanie magazynu wiedzy
według zadanego klucza. Wyróżnia je z jednej strony możliwość bieżącej
modyfikacji, a z drugiej – niewielka wydajność i relatywnie najwolniejszy
przebieg. Procesy tego rodzaju uaktywniają się np. wówczas, gdy
zostaniemy poproszeni o wymienienie nazw miesięcy według alfabetu. Po
drugie, wśród procesów kontrolowanych Shiffrin i Schneider wyróżniają
procesy zawoalowane (veiled), niedostępne świadomości. Ich przykładem
jest porównywanie elementów przechowywanych w pamięci świeżej.
Procesy te odróżnia od procesów jawnych relatywnie szybki przebieg i,
w konsekwencji, niewielkie możliwości ich modyfikacji (ze względu na
brak czasu). Procesy zawoalowane podlegają jednak zmianom na skutek
instrukcji werbalnych lub nabywania wprawy. Wszystkie procesy
kontrolowane nadzorują przepływ informacji między poszczególnymi
blokami pamięci (koncepcja umysłu Shiffrina i Schneidera ma charakter
modelu blokowego; zob. rozdz. 1).
RYCINA 6.1. Model procesów automatycznych i kontrolowanych według Shiffrina
i Schneidera
Źródło: opracowanie własne na podstawie Schneider, Shiffrin, 1977b.

Procesy automatyczne są nieświadome i jednorodne z założenia. Mogą być


inicjowane przez umysł, z czego zresztą wynika jedyne wymaganie, jakie
stawiają zasobom poznawczym – nawet procesy automatyczne wymagają
minimalnej ilości zasobów czy wysiłku mentalnego, chociażby w celu ich
sensorycznej i efektorycznej realizacji (Kahneman, Chajczyk, 1983;
Posner, Snyder, 1975; Ryan, 1983). Gdyby procesy te przebiegały zupełnie
bez udziału zasobów, to równolegle w systemie poznawczym mogłaby
zachodzić nieskończona liczba automatycznych procesów przetwarzania
informacji. Tymczasem jednoczesne wykonywanie tylko kilku czynności,
nawet dobrze zautomatyzowanych, może nam sprawić problemy. Wynika
to z ograniczeń strukturalnych: liczba wejść sensorycznych i wyjść
efektorycznych jest ściśle limitowana. Dlatego interferencja strukturalna
jest niemożliwa do całkowitego zredukowania, nawet w przypadku
procesów całkowicie automatycznych (Allport, Antonis, Reynolds, 1972).
Automatyzacja pomaga natomiast ograniczyć rozmiar interferencji
zasobowej, gdyż czynności automatyczne, jak się wydaje, nie walczą o tę
samą, ograniczoną pulę energii mentalnej.

Shiffrin i Schneider (1977; Schneider, Shiffrin, 1977a, 1977b) stwierdzili


różnice w zakresie stopnia automatyzacji różnych procesów detekcji
uwagowej. Badanym w ich eksperymentach (ryc. 6.2) prezentowano
kolejno na ekranie monitora karty zawierające zestawy bodźców (od 1 do 4
elementów). Poszukiwanymi sygnałami mogły być litery lub cyfry. O tym,
jaki bodziec będzie sygnałem w kolejnej serii, uczestnicy byli informowani
tuż przed jej rozpoczęciem. W warunku spójnym prezentowano im na
kartach bodźce tej samej kategorii, z której pochodził sygnał. W warunku
niespójnym bodźce pochodziły z innej kategorii (np. litery) niż sygnał (np.
cyfra). Okazało się, że dla uzyskania wskaźnika poprawności detekcji na
poziomie 95% potrzebne było tylko 80 ms prezentacji kart w warunku
niespójnym i aż 400 ms w warunku spójnym. Na podstawie uzyskanych
wyników Shiffrin i Schneider stwierdzili, że detekcja cyfry z tła liter jest
procesem automatycznym, niewymagającym kontrolowanego
różnicowania bodźców i identyfikacji sygnału. W warunku niespójnym
sygnał był bowiem jedynym bodźcem należącym do swojej klasy w całym
materiale bodźcowym. Natomiast detekcja litery z tła utworzonego przez
inne litery była procesem kontrolowanym, wymagającym identyfikacji
poszczególnych bodźców i złożonej decyzji co do tego, czy
zidentyfikowany bodziec spełnia kryterium selekcji. Uzyskane przez
badaczy wyniki potwierdzały zatem wcześniejsze rezultaty dotyczące
istnienia dwóch różnych klas procesów poznawczych: automatycznych
i kontrolowanych (Shiffrin, Gardner, 1972; Shiffrin i in., 1976; Shiffrin
i in., 1974).

1 – prezentacja zbioru pamięciowego


a – punkt fiksacji wzroku (500 ms)
b, c – zbiór dystraktorów poprzedzający poszukiwany element (pierwsze trzy karty nie zawierające
sygnału – b kolejne karty, na których moża pojawić się sygnał – c)
d – zbiór zawierający element poszukiwany
e, f – zbiór dystraktorów następujacych po elemencie poszukiwanym (ostatnie dwie karty nie
zawierające
sygnału – f, dalsze karty, na których może pojawić się sygnał – e)
RYCINA 6.2. Schemat badania Shiffrina i Schneidera (1977; Schneider, Shiffrin, 1977a)
w warunku spójnym przy liczbie bodźców do zapamiętania wynoszącej 2 (na górze)
i niespójnym przy liczbie bodźców do zapamiętania wynoszącej 4 (na dole)
Źródło: opracowanie własne na podstawie Shiffrin, Schneider, 1977, Schneider, Shiffrin 1977a.

Badacze ci stwierdzili także, że nabywanie procesów automatycznych,


czyli proces automatyzacji, wymaga długotrwałego, bardzo specyficznego
treningu. W tym celu osoby badane wielokrotnie powtarzały proces
kontrolowanej detekcji litery pochodzącej z jednego zbioru bodźców na tle
liter z całkiem innego zestawu. Badani potrzebowali aż 2100 serii
testowych w warunku spójnej prezentacji znaków, aby osiągnąć poziom
wykonania od początku notowany w warunku niespójnym (czyli 95%
poprawnych decyzji przy czasie prezentacji 80 ms). Zatem w procesie
automatyzacji czynności kontrolowane osiągnęły po długim treningu
poziom wykonania czynności automatycznych. Co więcej, wraz
z kolejnymi powtórzeniami proces kontrolowanego przeszukiwania coraz
bardziej zbliżał się w zakresie empirycznych wskaźników swojego
przebiegu do procesu automatycznej detekcji – stawał się np. niezależny od
liczby bodźców prezentowanych w ramach pojedynczej karty. W kolejnym
badaniu tej samej serii Arthur Fisk i Walter Schneider (1981) stwierdzili, że
automatyzacja może usprawniać wykonanie takich kontrolowanych
czynności jak czujność czy koncentracja uwagi (zob. podrozdz. 5.2.3).
Podobne wyniki zależności przedłużonej w czasie koncentracji uwagi od
nabywania wprawy uzyskali jeszcze Gerard Kerkhof, Tjerk van der Schaaf
i H. Jan Korving (1980). Wszystkie te rezultaty wyraźnie przemawiały na
korzyść jednej z podstawowych tez koncepcji Shiffrina i Schneidera –
o kontinuum procesów na wymiarze automatyczne/kontrolowane
i zależności położenia procesu na tym kontinuum od stopnia wtórnie
nabytej wprawy w zakresie jego wykonywania.

Dalsze prowadzone przez Schneidera i jego współpracowników badania


procesów automatycznych i kontrolowanych dotyczyły ich interakcji
(Schneider, Fisk, 1982) oraz zależności transferu wprawy między
procesami od stopnia ich automatyzacji (Schneider, Fisk, 1984). Zgodnie
z wynikami tych badań interakcja procesów automatycznych
i kontrolowanych nie musi wyzwalać efektów interferencji. Do zaburzenia
przebiegu procesów kontrolowanych (procesy automatyczne są
niemodyfikowalne!) może prowadzić automatyczna reakcja na niektóre
elementy kontrolowanej sekwencji przetwarzania. Taką automatyczną
odpowiedź systemu poznawczego wywołują np. bodźce, które są zgodne
z celem detekcji, ale występują w lokalizacji nakazującej – zgodnie
z instrukcją – ich zignorowanie (Godijn, Theeuwes, 2002; Theeuwes,
Kramer, Hahn, Irwin, Zielinsky, 1999; zob. podrozdz. 5.2.5). Schneider
i Fisk wykazali także, że możliwy jest transfer wprawy w zakresie
zautomatyzowanej czynności przeszukiwania pola wzrokowego z jednego
zestawu bodźców na inny. Dzięki transferowi czas reakcji dla nowego
zestawu bodźców był wyraźnie krótszy, porównywalny z czasem, jaki
wcześniej obserwowano w przypadku starego zestawu w wyniku procesu
nabywania wprawy. Co więcej, przeszukiwanie starych i nowych zestawów
miało – jako zadanie doładowujące – podobny wpływ (w sensie
konieczności inwestowania zasobów uwagi) na wykonanie zadania
priorytetowego w paradygmacie zadań jednoczesnych (zob. podrozdz.
5.2.4).

Shiffrin, Schneider i ich współpracownicy przedstawili więc przekonujące


argumenty na rzecz tezy o istnieniu kontinuum procesów kontrolowanych
i wtórnie automatycznych. Udało im się również wykazać istnienie dwóch
rodzajów czynności automatycznych: takich, które są automatyczne
pierwotnie (z natury rzeczy, w sposób wrodzony), i takich, które
automatyzacji dopiero wymagają (tab. 6.1). Proces nabywania wprawy
zdaje się potrzebować wiele wysiłku i czasu ze strony systemu
poznawczego, ale w jego konsekwencji procesy kontrolowane mogą zostać
zautomatyzowane aż do postaci typowej dla procesów pierwotnie
automatycznych, co można zaobserwować, analizując szybkość
i poprawność ich wykonania. Dodatkowo badania z użyciem
funkcjonalnego rezonansu magnetycznego (functional magnetic resonance
imaging, fMRI) dostarczyły dowodów zarówno na neuronalne podstawy
automatyzacji (Kelly, Garavan, 2005), jak i na neuronalne podstawy
procesu przeciwnego, pokazując odwracalność procesu automatyzacji
(Kübler, Dixon, Garavan, 2006). A.M. Clare Kelly i Hugh Garavan (2005),
podsumowując wyniki licznych badań nad automatyzacją, pokazali, że
proces ten wiąże się ze zmniejszaniem się aktywacji wielu struktur
czołowych i ciemieniowych odpowiedzialnych za procesy uwagowe.
Andrea Kübler, Veronica Dixon i Hugh Garavan (2006) wykazali z kolei,
że przywracanie kontroli poznawczej nad wykonaniem
zautomatyzowanych czynności wiąże się ze wzrostem aktywacji tylko
w jednej strukturze mózgu, to jest w grzbietowo-bocznej korze
przedczołowej (dorso-lateral prefrontal cortex, DLPFC). Wynika z tego, że
struktura ta odgrywa kluczową rolę w realizacji funkcji zarządczych
(executive functions).

TABELA 6.1. Porównanie właściwości procesów automatycznych i kontrolowanych według


Schneidera, Dumais i Shiffrina
Właściwość Procesy automatyczne Procesy kontrolowane

zasoby systemu niewymagane wymagane

kontrola niekompletna kompletna

komponentowość holistyczne parcjalne

modyfikacja trudna łatwa

szeregowość/równoległość równoległe szeregowe

poziom wykonania wysoki niski

świadomość niska wysoka

uwaga niewymagana, ale możliwa wymagana

wysiłek niewielki, jeśli jakikolwiek duży

Źródło: opracowanie własne na podstawie Schneider, Dumais i Shiffrin, 1984.

6.1.3. Logana teoria rywalizacji egzemplarzy


Zgodnie z teorią kontinuum jednym z podstawowych kryteriów procesów
automatycznych, wynikającym wprost z przeciwstawienia tych procesów
procesom kontrolowanym, jest ograniczona możliwość sprawowania nad
nimi kontroli (Schneider i in., 1984; tab. 6.1). Wprawdzie autorzy
koncepcji kontinuum dopuszczali pewne formy nadrzędnej kontroli
poznawczej nad automatyzmami, związane np. z możliwością
kontrolowanego uruchomienia procesu wtórnie automatycznego, jednak
w zasadzie uważali, że raz uruchomiony proces automatyczny nie podlega
kontroli (balistyczność automatyzmów; Hasher, Zacks, 1979). Przeciwnego
zdania byli Gordon Logan (1980, 1982; Logan, Zbrodoff, 1998) oraz
Joseph Tzelgov wraz ze współpracownikami (Tzelgov, Henik, 1995;
Tzelgov, Henik, Leiser, 1990), którzy wskazali na możliwości kontroli
procesów automatycznych, a przynajmniej modyfikowania ich w trakcie
przebiegu.

Logan (1982) wykazał np., że osoby biegle piszące na maszynie (proces


wtórnie automatyczny) są w stanie szybko przerwać pisanie na skutek
pojawienia się błędu lub w odpowiedzi na specjalny sygnał, który zgodnie
z instrukcją zmuszał ich do zatrzymania wykonywania czynności („sygnał
stopu”; paradygmat 6.1). Osoby badane wykonywały zaledwie jedno bądź
dwa zbędne uderzenia w klawisze po tym, jak przekazano im sygnał, że
powinny przerwać bieg automatycznej czynności. Peter Ladefoged,
Raymond Silverstein i George Papçun (1973) oraz Willem Levelt (1983)
ustalili, że zatrzymanie na dany znak tak dobrze zautomatyzowanej
czynności, jak mówienie, również jest możliwe. Najkrótsze
zaobserwowane opóźnienie wyniosło tym razem jedną sylabę. Na
podstawie tych wyników Logan (1982, 1988) stwierdził, że możliwe jest
kontrolowanie czynności automatycznych, a przynajmniej procesów
wtórnie automatycznych, do momentu uruchomienia specyficznej reakcji
motorycznej lub werbalnej w odpowiedzi na prezentowany bodziec.

Paradygmat 6.1

Sygnał stopu

Paradygmat sygnał stopu (stop-signal; Logan, 1982) wykorzystuje się


w badaniach nad hamowaniem dobrze wyuczonych, silnie
zautomatyzowanych czynności, głównie motorycznych. Osoby badane
wykonują taką czynność w warunkach presji czasu. W różnych,
nieprzewidywalnych momentach uczestnikom eksperymentu podaje się
umówiony sygnał, który nakazuje im przerwać wykonywaną do tej pory
czynność. Początkowe badania dotyczyły pisania na maszynie (Logan,
1982) i mówienia (Levelt, 1983). Zachowanie osób badanych można
w tych warunkach interpretować jako efekt „wyścigu” (teoria rywalizacji
egzemplarzy; Logan, 1988, 2002) między dwoma procesami. Pierwszy jest
wzbudzany przez instrukcję i bodźce określające rodzaj zadania, a jego
efekt to aktywacja odpowiednich struktur poznawczych i wykonanie
oczekiwanej czynności poznawczej. Drugi proces jest wzbudzany przez
sygnał zatrzymania (stop), powodując powstrzymanie się od dalszego
wykonywania czynności, czyli zahamowanie dominującej reakcji (Logan,
Cowan, 1984). W zgodzie z teorią rywalizacji egzemplarzy badani są
w stanie tym szybciej zahamować wykonywaną czynność, im krótszy jest
interwał między pojawieniem się bodźca wzbudzającego wykonywaną
czynność a pojawieniem się sygnału stopu. Powstrzymanie wykonywanej
czynności jest jednak możliwe nawet przy relatywnie długich interwałach
(De Jong, Coles, Logan, Gratton, 1990).

Interesujące modyfikacje w zakresie omawianego paradygmatu przedstawił


Ritske De Jong (De Jong, Coles, Logan, 1995). Zamiast mówienia czy
pisania na maszynie badani wykonywali prostą czynność motoryczną,
polegającą na ściskaniu umieszczonego w ich dłoni dynamometru.
Sygnałem do zatrzymania był specjalnie dobrany dźwięk. De Jong
porównał trzy rodzaje hamowania dominującej reakcji: przez zwykłe
powstrzymanie się od jej wykonywania (stop ogólny; stop-all), przez
powstrzymanie się od jej wykonania i wzbudzenie w jej zastępstwie reakcji
alternatywnej (stop-zmiana; stop-change; zamiast ściskania dynamometru
badani musieli nacisnąć nogą specjalny pedał) oraz przez powstrzymanie
się od jej wykonania, ale tylko w zakresie jednego z dwóch efektorów (stop
selektywny; selective-stop; badani musieli powstrzymać się od reagowania
jedną z rąk, zazwyczaj dominującą). Badania Logana (1985) wykazały, że
hamowanie dominującej reakcji jest znacznie trudniejsze w warunku
drugim (stop-zmiana) niż pierwszym (stop ogólny), natomiast
w eksperymencie Ritske De Jonga, Michaela Colesa i Gordona Logana
(1995) stwierdzono, że najtrudniejsze jest hamowanie reakcji w zakresie
tylko jednego z dwóch możliwych efektorów (stop selektywny).

Obecnie najczęściej używa się procedury rozwiniętej przez Fredericka


Verbruggena (Verbruggen, Logan, 2008; Verbruggen, Logan, Stevens,
2008, Verbruggen i in., w druku). Umożliwia ona rejestrację nie tylko
poprawnościowych (liczba poprawnie wyhamowanych reakcji), lecz także
chronometrycznych wskaźników hamowania. Te ostatnie polegają na
oszacowaniu tzw. czasu reakcji na sygnał stopu (stop signal reaction time,
SSRT). Ponieważ poprawnie zahamowana reakcja nie występuje, nie
można po prostu zmierzyć czasu upływającego od bodźca do reakcji jako
miary efektywności działania funkcji hamowania. Trzeba więc w jakiś
sposób estymować czas, który by upłynął od sygnału stopu do reakcji –
gdyby ta rzeczywiście wystąpiła. W paradygmacie SSRT osoby badane
mają reagować w umówiony sposób na bodźce wzrokowe (np. na strzałki
ukierunkowane w lewo lub w prawo), przy czym w 20% przypadków po
sygnale wzrokowym pojawia się słuchowy sygnał stopu. Początkowo
opóźnienie sygnału stopu w stosunku do bodźca właściwego wynosi 250
ms. W przypadku skutecznego wyhamowania wydłuża się ono o 25 ms
(utrudnienie hamowania), a jeśli badanemu nie udało się wyhamować –
opóźnienie skraca się o 25 ms (ułatwienie hamowania). W ten sposób po
pewnej liczbie prób można każdej osobie badanej przypisać czas
opóźnienia sygnału stopu, który w jej przypadku skutkuje wyrównaniem
prawdopodobieństwa sukcesu i porażki, jeśli chodzi o skuteczność
wyhamowania reakcji. Tak wyliczony czas opóźnienia sygnału stopu
odejmuje się od średniego czasu reakcji w próbach zwyczajnych (tj. bez
stopu). Otrzymana w ten sposób różnica to właśnie czas reakcji na sygnał
stopu (SSRT) – im mniejsza, tym skuteczniejsze hamowanie. SSRT
interpretuje się jako czas reakcji mentalnej. Skuteczne hamowanie oznacza,
że nie ma reakcji obserwowalnej, jednak zakładamy, że musiała je
spowodować mentalna reakcja na sygnał stopu. Jeśli taka nieobserwowalna
reakcja działa nawet przy dużym opóźnieniu sygnału stopu w stosunku do
bodźca właściwego, to znaczy, że dana osoba cechuje się zdolnością do
skutecznego hamowania. Paradygmat SSRT jest w związku z tym
wykorzystywany głównie w badaniach nad różnicami indywidualnymi
w zakresie funkcji zarządczych (zob. np. Nęcka, Gruszka, Orzechowski,
Nowak, Wójcik, 2018; Senderecka, Szewczyk, Wichary, Kossowska,
2018). Jest też nieoceniony wtedy, gdy zadanie wymagające hamowania
jest proste lub łatwo wyuczalne. W takich przypadkach błędy polegające na
nieskutecznym wyhamowaniu reakcji pojawiają się zbyt rzadko, aby
można było cokolwiek mierzyć, szczególnie w badaniach nad różnicami
indywidualnymi. Natomiast omawiany paradygmat prawie zawsze daje
duże zróżnicowanie międzyosobnicze, jeśli chodzi o estymowaną wartość
czasu mentalnej reakcji na sygnał stopu.

Paradygmat sygnał stopu może być używany w badaniach nad różnicami


indywidualnymi w zakresie skuteczności procesów kontroli i hamowania.
Im skuteczniejsi jesteśmy w kontrolowaniu własnych procesów
poznawczych, oczywiście tylko w aspekcie hamowania, tym krócej
kontynuujemy dobrze wyuczoną czynność, mimo odebrania sygnału stopu.
Tak zdefiniowany wskaźnik skuteczności kontroli pogarsza się wraz ze
starzeniem się, a także w niektórych stanach chorobowych. Obserwujemy
wówczas wydłużenie czasu, w którym czynność jest nadal wykonywana
mimo sygnału stopu. W skrajnych przypadkach obserwuje się nawet
ignorowanie sygnałów stopu. Realistycznym odpowiednikiem takiego
zachowania jest niemożność przerwania raz zaczętej wypowiedzi, mimo
odbieranych z otoczenia sygnałów, że mówimy niepotrzebnie lub nie na
temat.

Efekt Stroopa (Stroop, 1935; paradygmat 6.2) długo uważano za silny


argument za balistycznością procesów automatycznych. Na powszechność
takich interpretacji zwracają uwagę np. Joseph Tzelgov, Avishai Henik
i David Leister (1990). Logan (1980; Logan, Zbrodoff, 1998) stwierdził
jednak, że jeśli badanym prezentuje się listę wymieszanych bodźców
spójnych (np. wyraz „czerwony” napisany czerwonym atramentem)
i bodźców konfliktowych (np. wyraz „czerwony” napisany zielonym
atramentem), to wielkość efektu Stroopa zależy od proporcji tych bodźców.
Gdy lista zawierała tylko 20% bodźców konfliktowych (czyli 80%
bodźców spójnych), efekt Stroopa był istotnie większy niż wtedy, gdy na
liście było aż 80% bodźców konfliktowych (czyli tylko 20% bodźców
spójnych). Wynika z tego, że łatwiej nam zahamować narzucającą się,
automatyczną reakcję, gdy jest ku temu stosunkowo wiele okazji.
Najistotniejsze jest jednak to, że siła automatyzmu zależy od proporcji
bodźców odpowiedniego rodzaju, a zatem – że procesy automatyczne nie
są całkowicie balistyczne. Jednym z warunków redukcji efektu Stroopa jest
też użycie niewielkiej liczby kolorów w konstrukcji bodźców – gdy liczba
kolorów wzrasta, wpływu proporcji bodźców spójnych do konfliktowych
na wielkość efektu Stroopa z reguły się nie stwierdza (Logan, Zbrodoff,
Williamson, 1984).

Paradygmat 6.2

Efekt Stroopa
Efekt interferencji Stroopa (1935) jest jednym z najsłynniejszych zjawisk
w psychologii eksperymentalnej. Na przełomie lat 1980/1990
przywoływano go w blisko 80 pracach rocznie. Tendencja ta ma ciągle
charakter wzrostowy. Dla porównania – równie słynny efekt świeżości,
odkryty przez Lloyda Petersona i Margaret Peterson (1959), przywoływano
tylko w 30 publikacjach rocznie i liczba ta była dość stała (MacLeod,
1992). Zadanie Stroopa wykorzystywano jako metodę badawczą
w przypadku ponad 20 prac rocznie. Popularność tego efektu ma dwie
przyczyny. Po pierwsze, jest on zawsze istotny statystycznie, silny
i powtarzalny. Po drugie, pomimo 80 lat badań nad tym zjawiskiem nadal
pozostaje fenomenem nie do końca wyjaśnionym co do swego podłoża
i mechanizmu.

Istotą efektu Stroopa jest utrudnienie w przetwarzaniu bodźców


niespójnych (np. słowo „czerwony” napisane zielonym atramentem)
w porównaniu z bodźcami spójnymi (np. słowo „czerwony” napisane
czerwonym atramentem; ryc. 6.3). Osoby badane czytają słowa spójne lub
niespójne albo nazywają kolor atramentu użyty do napisania słów spójnych
lub niespójnych. Czytanie słów zwykle wymaga mniej czasu niż nazywanie
kolorów, ponieważ jest czynnością silnie zautomatyzowaną. Jeśli chodzi
o nazywanie kolorów, czynność ta jest zwykle znacznie dłuższa
w przypadku słów niespójnych, w porównaniu ze spójnymi. Nazwano to
efektem interferencji, a jego miarą jest różnica między średnim czasem
potrzebnym na nazwanie koloru słowa niespójnego a średnim czasem
potrzebnym na nazwanie koloru słowa spójnego. Jeśli w badaniu bierze
udział bardzo heterogeniczna próba, w której skład wchodzą osoby
o różnym podstawowym tempie reagowania, lepszą miarą efektu
interferencji jest proporcja średnich czasów reakcji, a nie ich różnica.
RYCINA 6.3. Bodźce używane w badaniach nad efektem interferencji Stroopa oraz rozkłady
czasów reakcji w warunkach neutralnym i konfliktowym
Drugi z bodźców każdej pary jest bodźcem konfliktowym, podczas gdy pierwszy jest bodźcem
spójnym. Interferencja może dotyczyć kierunku, znaczenia, aspektu emocjonalnego lub układu
przestrzennego bodźców
Źródło: opracowanie własne na podstawie Stroop, 1935.

Interpretacja efektu interferencji Stroopa wymaga starannej analizy


procesów biorących udział w jego powstawaniu. Osoba badana musi
zahamować nawykową, dobrze wyuczoną czynność (przeczytanie słowa),
aby zamiast niej wykonać inną czynność, w ogóle niewyuczoną i dość
„egzotyczną” (nazwanie koloru atramentu, jakim napisane jest to słowo).
Długotrwały proces nabywania wprawy w czytaniu polega m.in. na tym,
aby nauczyć się ignorować to, w jaki sposób dane słowo jest napisane (np.
literami dużymi czy małymi, pisanymi czy drukowanymi, czcionką Courier
czy Times New Roman), a skupić się na jego znaczeniu. W eksperymencie
psychologicznym nagle trzeba zachować się zupełnie inaczej, co dla wielu
osób stanowi nie lada problem, a dla wszystkich jest źródłem efektu
interferencji. Dlatego im słabszy ów efekt, tym silniejsza i skuteczniejsza
kontrola poznawcza. Osoba zdolna do uruchomienia silnych, wydajnych
procesów kontrolnych szybciej zahamuje niepotrzebną reakcję, dając wolną
drogę reakcji wymaganej instrukcją eksperymentu. W rezultacie czas
potrzebny na zareagowanie w warunku niespójnym będzie u takiej osoby
relatywnie krótki, choć oczywiście znacząco dłuższy niż w warunku
spójnym. Relatywne skrócenie czasu reakcji w warunku niespójnym
przełoży się jednak na obniżenie wartości wskaźnika interferencji.
Natomiast osoba niedysponująca silnymi, wydajnymi procesami kontroli
będzie miała duże trudności z zahamowaniem niepotrzebnej reakcji. Nawet
jeśli w końcu to uczyni, będzie potrzebowała więcej czasu, co przełoży się
na relatywnie długi czas reakcji w warunku niespójnym i w konsekwencji –
na podwyższenie wskaźnika interferencji. Badania nad różnicami
indywidualnymi zwykle pokazują, że w warunku spójnym wszyscy reagują
mniej więcej z taką samą szybkością, choć oczywiście i tu ujawniają się
cechy indywidualne. Dopiero jednak w warunku niespójnym występuje
prawdziwe wielkie zróżnicowanie. Dlatego relatywne wydłużenie lub
skrócenie czasu reakcji w warunku niespójnym decyduje o wielkości efektu
interferencji, a wielkość ta świadczy o silnej (mała wartość efektu) lub
słabej (duża wartość efektu) kontroli poznawczej. Taką samą logikę
interpretacji stosujemy wobec wszystkich zadań zawierających aspekt
interferencji.

Współczesne wersje zadania Stroopa nieco się różnią od oryginału.


W pierwszym badaniu John Ridley Stroop (1935) porównywał szybkość
czytania słów oznaczających kolory, napisanych czarnym atramentem
(warunek kontrolny) albo atramentem niezgodnym z ich znaczeniem
(bodziec niespójny). Badani potrzebowali średnio 23 ms więcej na
przeczytanie wyrazu niespójnego niż wyrazu kontrolnego. Efekt
interferencji, wynikający z niespójnych aspektów bodźca, okazał się
nieistotny statystycznie. W badaniu drugim Stroop polecił badanym
nazywać kolor atramentu, jakim napisany był wyraz oznaczający kolor,
zamiast czytać słowo. Oprócz tego uczestnicy eksperymentu nazywali
kolory prostokątów, w tej samej liczbie i układzie kolorów, jaki został
utworzony na liście bodźców niespójnych. Potrzebowali oni średnio 470
ms więcej na nazwanie koloru atramentu bodźca niespójnego z kolorowym
paskiem (efekt Stroopa). W badaniu trzecim Stroop poddał osoby badane
procesowi automatyzacji czynności nazywania kolorów. Udało mu się
zaobserwować, że osiem dni praktyki zmniejsza efekt interferencji średnio
o 336 ms, co jednak nie zredukowało statystycznej jego istotności. Co
więcej, badani, którzy nabrali wprawy w nazywaniu kolorów, wykazali
również istotny efekt interferencji w przypadku czynności czytania
bodźców niespójnych – wyrazy te czytali średnio 308 ms na bodziec dłużej
niż w warunku, w którym były one napisane czarnym, zwykłym
atramentem (tzw. odwrócony efekt Stroopa). Ten ostatni efekt zanikał
jednak już w drugim postteście (wielkość efektu interferencji średnio 52 ms
na bodziec, różnica nieistotna statystycznie). Dokładnej replikacji badań
Stroopa (1935) dokonał Colin MacLeod (1986). Uzyskał on analogiczne
efekty, a różnice w zakresie wielkości efektu interferencji w porównaniu
z eksperymentami Stroopa nie przekraczały 80 ms na pojedynczy bodziec
niespójny.

Zadanie Stroopa poddawano licznym modyfikacjom (przegląd w:


MacLeod, 1991). Najbardziej znane z nich to:
Stroop emocjonalny (zob. np. Williams, Mathews, MacLeod, 1996) –
zadaniem osób badanych jest nazwanie koloru, jakim napisano słowa
kojarzące się z lękiem (np. pająk, wąż) albo rzeczami lub sytuacjami
o negatywnym zabarwieniu emocjonalnym (np. gwałt, choroba);

Stroop rozproszony (zob. np. Kahneman, Chajczyk, 1983) – zadaniem


osób badanych jest nazwanie koloru obiektu (np. plamy, ramka)
występującego w towarzystwie wyrazu oznaczającego zupełnie inny
kolor;

Stroop figuralny (zob. np. Navon, 1977) – osoby badane widzą figurę
zbudowaną z innych figur (np. dużą literę H zbudowaną z liter K
o mniejszym rozmiarze; ryc. 6.4); zadanie polega na nazwaniu figury
stanowiącej tworzywo, a zignorowaniu figury głównej.

Stroop kierunkowy (zob. np. Shilling, Chetwynd, Rabbitt, 2002) –


zadaniem osób badanych jest reakcja za pomocą odpowiedniego
klawisza kursora klawiatury na strzałkę pokazującą kierunek przeciwny
niż klawisz; osoba badana widzi np. strzałkę skierowaną ku górze, a ma
zareagować klawiszem reprezentującym ruch kursora w dół;
Stroop numeryczny (zob. np. Chuderski, Taraday, Nęcka, Smoleń,
2012; Fox, Shor, Steinman, 1971) – osoba badana widzi na ekranie
kilka cyfr, których znaczenie jest spójne lub niespójne z ich liczbą (np.
cztery czwórki – spójne, cztery piątki niespójne); zadanie polega na
wskazaniu liczby elementów przy ignorowaniu ich znaczenia.
RYCINA 6.4. Bodźce spójne i niespójne używane w badaniach Navona
Źródło: opracowanie własne na podstawie Navon 1977.

We wszystkich badaniach z wykorzystaniem zadania Stroopa, niezależnie


od modyfikacji, uzyskuje się efekt interferencji. Efekty te wykazują jednak
z reguły swoją specyficzność, ponieważ nie udało się stwierdzić
występującej między nimi korelacji (Shilling i in., 2002).
Ponadto Tzelgov i Henik (1995; Tzelgov i in., 1990) wykazali, że wielkość
efektu Stroopa zależy od ogólnej kompetencji językowej. W przypadku
języka ojczystego krzywa obrazująca tę zależność ma postać odwróconego
„U”. Relatywnie niewielki efekt interferencji stwierdza się u osób o niskiej
i wysokiej biegłości w posługiwaniu się językiem, podczas gdy największy
efekt Stroopa – u osób o przeciętnej kompetencji. Tzelgov i Henik
wykazali również, że redukcja efektu Stroopa w przypadku list
zawierających niewielki procent bodźców spójnych możliwa jest tylko
w języku ojczystym (drugi warunek redukcji efektu Stroopa; Tzelgov i in.,
1990). Dlatego zarówno Logan, jak i Tzelgov oraz Henik sugerują, aby
automatyczność i kontrolę traktować jak dwa aspekty dobrze wyuczonego
zachowania, wskazując ich różną funkcję w ramach systemu poznawczego,
ale nie przeciwstawiając ich, tak jak czynili to Shiffrin i Schneider, na
podstawie długości procesu nabywania wprawy.

Interesujące wyjaśnienie efektu Stroopa przedstawili Adam Chuderski


i Tomasz Smoleń (2016). Zaproponowali oni zintegrowany obliczeniowy
model ewaluacji i rozwiązywania konfliktu w zadaniu Stroopa, jako
mechanizm kontroli poznawczej. Jest to model hybrydowy – łączący
w sobie zarówno cechy modelu regułowego (jak np. ACT-R), jak i modeli
popularnych w badaniach nad uczeniem się przez wzmocnienie (Sutton,
Barto, 2018). Model ten zakłada, że za reakcje w zadaniu Stroopa
odpowiedzialny jest niewielki zestaw reguł produkcyjnych, które są
aktywowane w odpowiedzi na bodźce pojawiające się w zadaniu.
W modelu tym mechanizmem leżącym u podstaw kontroli poznawczej jest
monitorowanie konfliktu powstającego przy aktywowaniu reguł
prowadzących do konkurencyjnych reakcji. Wielkość tego konfliktu jest
obliczana jako proporcja reguł niezgodnych między sobą w stosunku do
wszystkich reguł. Tak obliczona wielkość konfliktu przekłada się na siłę
kontroli poznawczej, która zmienia użyteczność reguł produkujących
określone reakcje w zadaniu. Model ten pozwala zrozumieć zjawisko
automatyzacji i kontroli poznawczej nad procesami zautomatyzowanymi,
ponieważ odwołuje się do mechanizmów uczenia się ze wzmocnieniem
(tamże). Automatyzacja jest tu wynikiem zmiany użyteczności reguł
generujących reakcje w zadaniu Stroopa. Użyteczność reguły, która
prowadzi do poprawnej reakcji, zwiększa się, natomiast użyteczność
reguły, która prowadzi do błędnej reakcji, maleje. Model ten wyjaśnia wiele
efektów empirycznych uzyskanych w badaniach z użyciem zadania
Stroopa. Oprócz podstawowego efektu interferencji, tłumaczy on także
m.in. takie efekty jak wpływ praktyki na odwrócenie interferencji (czyli
właśnie wpływ automatyzacji; MacLeod, Dunbar, 1988), wpływ proporcji
prób spójnych na wielkość interferencji (Logan, Zbrodoff, 1979) czy efekt
spójności próby poprzedzającej (efekt Grattona; Gratton, Coles, Donchin,
1992).

Zaproponowana przez Logana (1988, 1992, 2002) teoria uwagi i pamięci


oparta na rywalizacji egzemplarzy (Instance Theory of Attention and
Memory) uwzględnia możliwość kontroli procesów automatycznych.
Według autora procesy te charakteryzują się określonym zestawem
właściwości. Po pierwsze, są one autonomiczne, gdyż mogą być
uruchamiane oraz wykonywane nieintencjonalnie. Detekcja bodźca
powoduje natychmiastowe przywołanie z pamięci wszystkich związanych
z nim informacji, zarówno deklaratywnych (dotyczących jego znaczenia),
jak i proceduralnych (dotyczących procedur postępowania z bodźcem).
Decyzji o przywołaniu z pamięci nie towarzyszy nasza intencja ani wola.
Po drugie, procesy automatyczne mogą podlegać kontroli, gdyż można je
wykorzystywać intencjonalnie. Autonomiczny proces przywoływania
z pamięci długotrwałej można modyfikować np. poprzez stosowanie
odpowiednich wskazówek przywoławczych, uprzednio skojarzonych
z odpowiednimi śladami pamięciowymi w procesie uczenia się.
Autonomiczność funkcjonowania procesów automatycznych polega więc
na nieintencjonalnym uruchomieniu dostępu do trwałych reprezentacji
umysłowych. Efekty tego dostępu można jednak intencjonalnie
kontrolować aż do momentu zapoczątkowania konkretnych reakcji
motorycznych czy werbalnych, których powstrzymanie jest już
niemożliwe. Po trzecie, ze względu na natychmiastowość dostępu do
pamięci długotrwałej, w przypadku procesów automatycznych występują
duże ograniczenia w zakresie pamiętania tego, co było przetwarzane
i w jaki sposób przetwarzanie informacji się dokonywało. Właściwościami
procesów automatycznych są więc, po czwarte, brak introspekcyjnej
świadomości ich przebiegu oraz, po piąte, bezwysiłkowość.

Najważniejszym konstruktem koncepcji Logana jest pojęcie „egzemplarz”


(instance). Stanowi on jednostkową, trwałą reprezentację umysłową
pojedynczego bodźca (S) i wymaganego sposobu reakcji (R). Egzemplarz
jest kodowany, przechowywany oraz przywoływany w postaci trwałej
wiedzy, odrębnie od pozostałych egzemplarzy tej samej sytuacji bodźcowej
S-R i innych możliwych sytuacji. Każdy egzemplarz składa się
z umysłowego odzwierciedlenia czterech elementów: celu aktywności,
bodźca związanego z realizacją tego celu, interpretacji nadawanej
bodźcowi w kontekście celu oraz odpowiedzi udzielanej w stosunku do
bodźca. Logan (2002) wyraźnie odwołuje się więc w swojej koncepcji
procesów automatycznych do egzemplarzowej teorii trwałych reprezentacji
umysłowych (zob. rozdz. 3), obowiązującej, jego zdaniem, zarówno
w zakresie pamięci semantycznej (znaczenie S i R), jak i pamięci
epizodycznej (przypadki stosowania R wobec S). Sprzeciwia się natomiast
prototypowej koncepcji reprezentacji świata w umyśle, jako że prototypy
niekoniecznie odzwierciedlają konkretne obiekty czy zjawiska świata
rzeczywistego, mogą bowiem być sztucznymi konstruktami, zbudowanymi
na podstawie uśrednionych czy najczęstszych właściwości szerszej klasy
sytuacji bodźcowych. W przeciwieństwie do prototypu egzemplarz zawsze
jest odzwierciedleniem konkretnego elementu rzeczywistości.

Egzemplarze, jako trwałe reprezentacje umysłowe, są nabywane zgodnie


z czterema podstawowymi prawami. Po pierwsze, pojawienie się
odrębnego bodźca powoduje zapis odrębnego egzemplarza w pamięci. Po
drugie, odmienne pojawienie się tego samego bodźca powoduje również
ukształtowanie się odrębnej reprezentacji egzemplarzowej. Po trzecie,
gromadzenie egzemplarzy jest tożsame z procesem nabywania wprawy
w zakresie wykonywania czynności odpowiadających tworzonym dla nich
reprezentacjom egzemplarzowym. Nabyta wprawa ma wpływ zarówno na
wybór konkretnej reakcji na pojawiający się bodziec, jak i na jej szybkość.
Po czwarte, zależność szybkości reakcji od wprawy opisuje opadająca
krzywa wykładnicza (Logan, 1988). Pokazuje ona, że początkowo efekty
gromadzenia egzemplarzy i dowodów ich skuteczności wywołują
gwałtowne skrócenie czasów reakcji (ryc. 6.4). Dalsze ćwiczenie jednak
w coraz mniejszym stopniu przyczynia się do poprawy wykonania,
mierzonej zwykle skracającym się czasem reagowania. W końcu, dalsze
gromadzenie dowodów potwierdzających efektywność wyuczonej
procedury reagowania na bodźce nie wpływa już na poprawę wykonania,
co oznacza, że krzywa osiągnęła poziom asymptoty. W ramach
egzemplarzy gromadzona jest wiedza dotycząca sposobów reagowania
(response-set), a nie kategorii bodźców (stimulus-set). Świadczy o tym
stwierdzony przez Logana (1990) brak transferu wprawy w warunkach
całkowitej zmiany sposobów reagowania na uprzednio prezentowane
bodźce. W wyniku takiej zmiany wszystkie nabyte „egzemplarze reakcji”
przestają być adekwatnymi odpowiedziami na aktualnie prezentowane
bodźce.

W momencie pojawienia się bodźca system poznawczy ma do wyboru dwa


sposoby przetwarzania informacji: zastosowanie ogólnego algorytmu
reakcji dla bodźców podobnego typu lub odwołanie się do skutecznego,
znanego z przeszłości sposobu poradzenia sobie z bodźcem. Jest to wybór
między automatycznym przywołaniem procedury reakcji z pamięci
a kontrolowanym przetwarzaniem danych przez system uwagi. Jeśli
przetarg wygra pamięć, proces przebiega automatycznie, a w obrębie
wiedzy trwałej pojawi się zapis o efektywności zastosowania danego
egzemplarza. Jeśli zaś pamięć nie dysponuje jeszcze odpowiednim do
sytuacji bodźcowej egzemplarzem (dzieje się tak w sytuacjach nowych), to
przetarg wygrywa uwaga, a po wykonaniu czynności – w ramach trwałej
wiedzy – pojawia się pierwszy egzemplarz, będący efektem
kontrolowanego przetwarzania informacji i zastosowania ogólnych
algorytmów radzenia sobie w przypadku szerokiej klasy zjawisk, do której
należy prezentowany bodziec. W konsekwencji Logan (1988) stwierdził, że
problemy z wykonaniem nowych zadań nie wynikają z braku zasobów
(rzekomo zbyt duże wymagania), ale raczej z braku wiedzy (braku
egzemplarzy).

RYCINA 6.5. Poprawa poziomu wykonania zadania (coraz krótszy czas reakcji) jako
wykładnicza funkcja długości czasu nabywania wprawy
Każda funkcja zaczyna się w tym samym punkcie, reprezentującym początkowy poziom wykonania,
i asymptotycznie zbliża się do poziomu idealnego. Każdej krzywej, reprezentującej pojedynczy
przypadek, odpowiada określona wartość wykładnika.
Źródło: opracowanie własne na podstawie Logan, 1988.
Automatyczna reakcja ze strony pamięci jest zdeterminowana przez
pierwszy przywołany egzemplarz. Detekcja bodźca, oprócz rywalizacji
między kontrolowanymi procesami uwagowymi a automatycznymi
procesami pamięciowymi, prowokuje więc „wyścig” o pierwszeństwo
między dostępnymi w pamięci egzemplarzami. Nagrodą jest uruchomienie
sposobu postępowania z bodźcem zgodnie z zakodowaną w egzemplarzu
procedurą. O zwycięstwie w wyścigu decyduje liczba dowodów
dotychczasowej, udanej stosowalności egzemplarza w odpowiedzi na
bodziec. Każde udane współwystąpienie bodźca i specyficznej reakcji
zwiększa wagę egzemplarza reprezentującego to konkretne zachowanie.
Nabywanie wprawy polega więc na zwiększaniu wagi dominującego
egzemplarza, tak by jego zwycięstwo w rywalizacji przypadków nie
ulegało wątpliwości. Model wyścigu egzemplarzy dobrze wyjaśnia
zarówno szybkość procesów wtórnie automatycznych (tym większą, im
większa jest wprawa w zakresie wykonywanych czynności), jak
i podatność na błędy w przypadku bodźców konfliktowych (np. w zadaniu
Stroopa). Bodźce takie uruchamiają tyle rywalizujących ze sobą ścieżek, ile
konfliktowych aspektów stymulacji zawierają. Ze względu na brak jednego
dominującego egzemplarza w reakcji na bodziec mogą pojawić się błędy.
Reakcja może być wtedy korygowana przez instrukcję dla osoby badanej
lub jej intencjonalną decyzję, ale nie bez ponoszenia kosztów czasowych,
wynikających z uruchomienia uwagowych mechanizmów kontrolnych
(zob. podrozdz. 6.2).

Logan potwierdził słuszność swojej koncepcji w kilku badaniach


z wykorzystaniem różnych prostych zadań, w których badani nabywali
wprawę. Były to np. zadania na podejmowanie decyzji leksykalnych
(Logan, 1988), testy arytmetyczno-alfabetyczne, wymagające sprawdzania
poprawności równań matematycznych, w których występowały litery
i cyfry, np. A + 2 = C? (Logan, 1992; Logan, Klapp, 1991), jak również
zadanie Stroopa (Logan, 1980; Logan, Zbrodoff, 1998). Autor zawsze
prosił osoby badane o wykonanie kilkunastu serii zadań tego samego typu,
gdyż podobnie jak Shiffrin i Schneider wierzył, że tylko trening jednorodny
umożliwia szybkie i skuteczne nabywanie wprawy. Mierzył czas reakcji
jako funkcję automatyzacji. Wszystkie jego badania potwierdziły, że
opadająca krzywa wykładnicza dobrze opisuje proces automatyzacji
czynności w poszczególnych zadaniach. Na przykład w teście
arytmetyczno-alfabetycznym (Logan, 1992) badani początkowo
rzeczywiście stosowali algorytm dodawania. Czas weryfikacji równania
wyrażonego ogólną formułą „litera + cyfra = litera” zależał od odległości
w alfabecie dwóch liter występujących w równaniu – im większa
odległość, tym dłuższy czas reakcji (przyrost 400–500 ms na pozycję
alfabetu). Wraz z kolejnymi pozycjami testu, gdy badani uczyli się, które
równania są fałszywe, a które prawdziwe, czas reakcji ulegał znacznemu
skróceniu. Przyrost wprawy, duży z początku wykonywania testu
i niewielki na zakończenie procesu automatyzacji, dobrze opisywała
opadająca krzywa wykładnicza. Pod koniec procesu nabywania wprawy nie
stwierdzono już różnic w weryfikowaniu równań, niezależnie od
manipulowanej odległości między literami równania. Badani weryfikowali
poszczególne pozycje testowe automatycznie, odwołując się do
zgromadzonych w pamięci długotrwałej egzemplarzy poprawnych równań.
Z koncepcji rywalizacji egzemplarzy, a szczególnie z definicji samego
konstruktu egzemplarza wynika, że czynności automatyczne pojawiają się
tylko w odpowiedzi na specyficzne bodźce wyzwalające. Wobec tego
transfer wprawy w zakresie wykonywanej czynności z jednej grupy
bodźców na inną nie powinien w ogóle zaistnieć (Logan, 1990).
Można zatem stwierdzić, że zgodnie z teorią rywalizacji egzemplarzy
większa wprawa w wykonywaniu czynności poznawczej może się wiązać
zarówno z wtórną jej automatyzacją, jak i z możliwością sprawowania nad
nią większej kontroli. Automatyczność i kontrolowalność nie są
przeciwnymi biegunami kontinuum procesów, ale dwoma aspektami tego
samego zjawiska nabywania wprawy. Przywoływane wcześniej badania
z użyciem fMRI (Kübler i in., 2006) wspierają tę tezę, wskazując na
możliwość przywracania kontroli nad procesami zautomatyzowanymi.
Badania te jednocześnie sugerują, że automatyzacja wiąże się ze
zmniejszaniem zaangażowania procesów uwagi, a przywracanie kontroli
poznawczej – z ponowną aktywacją obszarów mózgu kluczowych dla
uwagi i pamięci roboczej.

6.1.4. Konsekwencje automatyzacji czynności


Automatyzacja czynności ma wiele pozytywnych konsekwencji. Część
z nich przedstawiono już wcześniej. Dzięki automatyzacji uwalniane są
zasoby systemu, które można przeznaczyć na wykonywanie innych zadań.
Nabywanie wprawy prowadzi też do istotnego przyspieszenia i zwiększenia
poprawności reagowania. Efekty te opisuje opadająca krzywa wykładnicza.
W konsekwencji automatyzacja czynności powinna prowadzić również do
redukcji efektu przetargu między szybkością a poprawnością, co należy
uznać za kolejny pozytywny skutek nabywania wprawy.

Efekt przetargu między szybkością a poprawnością występuje


w zadaniach z presją czasu (Snodgrass, Luce, Galanter, 1967). W takich
warunkach badani z reguły nie są w stanie uzyskać dobrych wskaźników
wykonania ani w zakresie szybkości, ani poprawności reakcji (Meyer,
Irwin, Osman, Kounios, 1988). Przetarg między szybkością a poprawnością
jest podstawową zasadą funkcjonowania elastycznego filtra uwagi
(Johnston, 1978; Johnston, Heinz, 1978; zob. rozdz. 5). Im płytszy poziom
analizy bodźców, tym szybszy i mniej poprawny proces selekcji informacji.
Na głębokich poziomach przetwarzania informacji analizy selekcyjne są
znacznie bardziej złożone, wymagają więcej czasu, ale – w konsekwencji –
są też bardziej poprawne. Z kolei zgodnie z modelem przewodników uwagi
(Wolfe, 1994; zob. rozdz. 5) proces przeszukiwania pola wzrokowego,
polegający na integracji cech w poszukiwany obiekt, jest uruchamiany
wtedy, gdy suma pobudzenia w zakresie kodowanych cech stymulacji
przekroczy pewien minimalny próg. Im znaczniejsze przekroczenie progu,
tym szybszy proces przeszukiwania pola wzrokowego. Proste, sensoryczne
cechy priorytetowe (np. ruch) charakteryzują się dużym ładunkiem
aktywacyjnym i wymuszają przetwarzanie na relatywnie wczesnych
etapach obróbki bodźca. Jednakże proces selekcji na podstawie tych cech
bodźców przebiega szybko i intuicyjnie – analizie podlegają jedynie
priorytetowe właściwości stymulacji, co prowadzi do zwiększonej liczby
błędów. Gdy proces selekcji obejmuje kilka złożonych cech,
wymagających głębszej i dłuższej analizy, ale mniej stymulujących,
wówczas przebiega wolniej, lecz bardziej poprawnie. Wtedy bowiem
w procesie integracji cech w obiekt uwzględnia się wiele różnych
charakterystyk stymulacji w celu przekroczenia sumarycznego progu
aktywacji i uruchomienia procesu przeszukiwania.

Rafał Bogacz, Eric-Jan Wagenmakers, Birte Forstmann i Sander


Nieuwenhuis (2010) omówili możliwe mózgowe mechanizmy
powstawania przetargu między szybkością a poprawnością. Jako
wyjaśnienie tego efektu często przywołuje się tzw. modele dyfuzyjne (drift
and diffusion models; Ratcliff, 1978; Ratcliff, McKoon, 2008). Modele te
zakładają, że wyemitowanie jednej z dwóch konkurencyjnych reakcji jest
poprzedzone procesem akumulacji dowodów na rzecz którejś z nich.
Proces ten przekracza w pewnym momencie próg jednej z dwóch reakcji,
co prowadzi do jej emisji. Niektórzy badacze sugerują, że za wczesne
reagowanie pod presją czasu (a więc rozstrzygnięcie przetargu na rzecz
szybkości) odpowiada mechanizm obniżającego się progu reakcji (Gluth,
Rieskamp, Büchel, 2013). Bogacz i współpracownicy uważają, że
mechanizm zmieniającego się progu reakcji nie jest zgodny z danymi
z badań neurofizjologicznych. Bardziej prawdopodobne jest ich zdaniem
to, że mózgowy mechanizm przetargu między szybkością a poprawnością
polega na zwiększeniu podstawowego poziomu aktywacji neuronów
w korze motorycznej, co skutkuje szybszym osiągnięciem progu reakcji,
a nie jego obniżeniem. Dane empiryczne z inwazyjnych,
elektrofizjologicznych badań na małpach również świadczą przeciwko
modelom zakładającym zmianę progu reakcji. Na przykład badania
Richarda Heitza i Jeffreya Schalla (2012) pokazują, że za regulację
przetargu między szybkością a poprawnością reakcji odpowiadają dwa
procesy: (1) zwiększenie podstawowej aktywności neuronów
sensorycznych i motorycznych oraz (2) wzmocnienie sygnałów i osłabienie
szumu na wczesnych etapach przetwarzania bodźców (czyli na etapie
percepcji) w warunkach presji czasu.

Koszty poznawcze związane z przyspieszeniem przebiegu procesów


poznawczych pod presją czasu znajdują empiryczne odzwierciedlenie
w zakresie sumarycznej liczby błędów (Dickman, Meyer, 1988; Larson,
Saccuzzo, 1986; Szymura, Nęcka, 1998), a także w zakresie błędów
ominięcia (Lobaugh, Cole, Rovet, 1998; Zenger, Fahle, 1997). Kosztów
polegających na wzroście liczby fałszywych alarmów raczej się nie
stwierdza, nawet jeśli analizy dotyczą osób szczególnie impulsywnych
(Dickman, Meyer, 1988; Larson, Saccuzzo, 1986; Szymura, Nęcka, 1998).
W warunkach szybkiego przetwarzania informacji większość aspektów
stymulacji nie jest uwzględniana przy podejmowaniu decyzji selekcyjnej.
W rezultacie osoby badane często wybierają strategię zgadywania,
podejmując decyzję selekcyjną mimo niepełnych przesłanek. Jak wykazali
Marvin Chun i Jeremy Wolfe (1996), takie zgadywanie w ponad 80%
przypadków kończy się decyzją negatywną (brak detekcji, możliwy błąd
ominięcia), a tylko w niecałych 20% – decyzją pozytywną (detekcja,
możliwy fałszywy alarm).

Efekt przetargu stwierdzili w swoich badaniach nad uwagą selektywną


Błażej Szymura i Aleksandra Słabosz (2002). Osoby badane „płaciły” za
zwiększoną szybkość procesów selekcji informacji wzrostem liczby
błędów ominięcia. Wielkość tego efektu ulegała jednak sukcesywnemu
zmniejszeniu w każdej kolejnej próbie tego samego testu (trening
jednorodny), choć najbardziej istotne różnice stwierdzono na początku
nabywania wprawy – między pierwszym a drugim wykonaniem testu.
Wyniki okazały się więc zgodne z prawem opadającej krzywej
wykładniczej. Co istotne, w omawianym badaniu prawo to ujawniło się nie
tylko poprzez poprawę w zakresie pojedynczych empirycznych
wskaźników wykonania (spadek liczby błędów), lecz także przez
jakościową zmianę sposobu wykonywania czynności selekcji informacji
(redukcja efektu przetargu). Inaczej mówiąc, automatyzacja czynności
poznawczej powoduje ogólną poprawę wskaźników wykonania, a ponadto
redukuje koszty związane z koniecznością „płacenia” szybkością za
poprawność lub poprawnością za szybkość.

Automatyzacja może jednak prowadzić również do konsekwencji


negatywnych. Chodzi szczególnie o trudność w zakresie
deproceduralizacji wtórnie automatycznego procesu. Większość modeli
nabywania wprawy zakłada trzy stadia automatyzacji: poznawcze,
asocjacyjne i autonomiczne (Ackerman, 1988; Anderson, 1983b).
W stadium poznawczym automatyzacja polega na zrozumieniu
i przyswojeniu instrukcji, ogólnym zaznajomieniu się z celem czynności
oraz wstępnym sformułowaniu procedury wykonania. W stadium
asocjacyjnym, na skutek treningu jednorodnego, następuje proceduralizacja
sposobu wykonania czynności (Anderson, 1983b). Jest to właściwe stadium
nabywania wprawy, dzięki któremu skraca się czas reakcji i zmniejsza
liczba błędów. W trzecim stadium czynność automatyzowana uzyskuje
status procesu autonomicznego (Logan, 1988) – raz wyzwolona w jej
ramach reakcja przebiega bezwysiłkowo, a zadanie obsługiwane przez tę
czynność wykonywane jest tak szybko i poprawnie, jak tylko pozwalają na
to możliwości psychomotoryczne organizmu. W stadium autonomicznym
możliwe jest wyzwolenie długiej sekwencji zautomatyzowanych czynności
za pomocą jednego bodźca lub pojedynczej intencji.

W niektórych okolicznościach jednak niezbędna jest deproceduralizacja


czynności. Konieczność taka zachodzi w warunkach minimalnej choćby
zmiany wymagań zadania, co wymusza wprowadzenie zmian w obrębie już
zautomatyzowanej czynności. Mogą się wtedy pojawiać błędy wynikające
z „bezrefleksyjnego” wykonywania automatycznej procedury (zob.
metaforę automatycznego pilota – podrozdz. 6.1.1). Przykładem kosztów
wynikających z procesu automatyzacji jest zjawisko transferu
negatywnego, polegające na tym, że dobrze wyuczona czynność utrudnia
wykonywanie czynności podobnej, ale nie tożsamej z uprzednio wyuczoną.
W badaniu Dana Woltza, Briana Bella, Patricka Kyllonena i Michaela
Gardnera (1996) uczestnicy najpierw nabywali wprawę w wykonywaniu
zadania polegającego na stosowaniu prostych reguł redukcyjnych w celu
zastąpienia liczby trzycyfrowej liczbą jednocyfrową. Osoby, które
opanowały umiejętność stosowania tych reguł w stosunku do jednego
zestawu liczb, cechowały się znacznie wydłużonym czasem
opracowywania nowych zestawów, jeśli reguły postępowania zostały
minimalnie zmienione. Badani z grupy kontrolnej, którzy nie nabywali
wcześniej żadnych reguł, okazali się o wiele szybsi w procesie
przetwarzania nowych zestawów liczb. Przy wykorzystaniu nieco
trudniejszych reguł redukcyjnych Woltz, Gardner i Bell (2000) stwierdzili
negatywny transfer umiejętności również w zakresie poprawności
wykonywania nowej czynności. Należy jednak pamiętać, że efekty
transferu są bardzo zależne od podobieństwa zestawów bodźców
i odpowiadających im wymaganych reakcji. Dlatego Logan (1990) nie
uzyskał w zadaniu na transfer żadnego istotnego efektu, a Tzelgov (1999)
uzyskał nawet efekt transferu pozytywnego.

W badaniach nad uwagą selektywną Szymura i Słabosz (2002) stwierdzili


występowanie transferu negatywnego w przypadku konieczności
dostosowania tego samego typu reakcji do bodźca wyzwalającego
uprzednio inny rodzaj reakcji. W wyniku transferu negatywnego czynność
selekcji powracała pod względem parametrów efektywności do poziomu
wykonania typowego dla asocjacyjnego stadium nabywania wprawy
(Anderson, 1983b). Zwiększył się także efekt przetargu między szybkością
a poprawnością, istotnie uprzednio zredukowany na skutek automatyzacji.
Ponadto na zmianie warunków wykonywania zadania szczególnie tracili ci
badani, którzy wykazali się bardziej skuteczną automatyzacją czynności
selekcji na początkowych etapach nabywania wprawy, charakteryzujących
się bardzo szybkim przyrostem efektów.

Podsumowując, automatyzacja może być skutecznym narzędziem kontroli


poznawczej. Wydaje się, że przeciwstawianie automatyzacji procesom
kontroli nie znajduje potwierdzenia w wynikach badań, które sugerują
raczej, iż automatyzacja i kontrola są dwoma aspektami procesu nabywania
wprawy, który umożliwia redukcję kosztów poznawczych, związanych
z wykonywaniem wielu trudnych zadań jednocześnie lub bezpośrednio po
sobie. Pozytywne efekty związane z automatyzacją przeważają nad
negatywnymi. Należy jednak pamiętać, że automatyzacja może czasami
uniemożliwiać transfer pozytywny, a nawet powodować transfer
negatywny, jeśli trzeba wykonać tę samą czynność w trochę zmienionych
warunkach lub nieco zmodyfikowaną czynność w tych samych warunkach.

6.2. Hamowanie jako mechanizm kontrolny

6.2.1. Istota i funkcje hamowania


Automatyzacja czynności jest jednym ze sposobów redukcji interferencji
zasobowej (zob. podrozdz. 6.1.2). Zjawisko to polega na zakłóceniach
przebiegu czynności nieautomatycznej przez inne czynności:
automatyczne, gdy angażują te same receptory lub efektory, albo
nieautomatyczne, jeśli rywalizują o ograniczoną pulę zasobów. Czynności
automatyczne w znacznie mniejszym stopniu podlegają zakłóceniom,
jednak mogą stać się źródłem interferencji dla czynności nieautomatycznej.
Na przykład wtórnie automatyczna czynność czytania może zakłócać
niezautomatyzowaną czynność nazywania koloru atramentu, co stanowi
istotę efektu Stroopa (1935; zob. paradygmat 6.2). Wprawdzie
automatyzacja jest w stanie nieco osłabić efekt interferencji (Tzelgov,
Henik, 1995), ale nigdy nie redukuje go w pełni. System poznawczy musi
zatem dysponować bardziej skutecznym narzędziem, zapobiegającym
powstawaniu zakłóceń w przebiegu czynności poznawczych lub
zmniejszającym skutki ich pojawienia się.
Hamowanie jest mechanizmem kontrolnym, wspomagającym proces
selekcji informacji. Jego funkcja polega z jednej strony na utrudnieniu
dostępu do informacji nieistotnych (irrelewantnych) względem aktualnie
przetwarzanych danych (Dempster, Brainerd, 1995; Tipper, Weaver,
Cameron, Brehaut, Bastedo, 1991), a z drugiej strony na powstrzymywaniu
niepożądanej w danym momencie aktywności neuronalnej, mentalnej lub
behawioralnej (Aron, Robbins, Poldrack, 2014; Neill, Valdes, 1992).
Podstawowym zadaniem hamowania jest więc blokowanie jakichkolwiek
pobudek, zarówno zewnętrznych (bodźce nieważne, dystraktory), jak
i wewnętrznych (bodźce „symboliczne”, impulsy, czynniki afektywne lub
motywacyjne), które mogłyby wyzwolić reakcje konkurencyjne względem
aktualnie wykonywanych czynności i przez to wywołać zjawisko
interferencji zasobowej (Nigg, 2000). Terminy „hamowanie” i „kontrola
interferencji” były zresztą bardzo długo używane zamiennie (Friedman,
Miyake, 2004). Obecnie kontrola interferencji jest traktowana jako jeden
z możliwych rodzajów hamowania (Nigg, 2000).

Hamowanie jest bowiem konstruktem niejednorodnym. Wskazują na to


badania korelacyjne wielkości efektu interferencji w przypadku różnych
wersji zadania Stroopa. Valerie Shilling, Amanda Chetwynd i Patrick
Rabbitt (2002) poprosili badanych o wykonanie czterech wersji tego
zadania: werbalnej, figuralnej, numerycznej i kierunkowej. Wskaźniki
efektu interferencji, odzwierciedlające zgodnie z założeniem siłę procesu
hamowania, korelowały ze sobą w zakresie od 0,22 do – 0,13. Badania
z wykorzystaniem różnych testów hamowania przynoszą z reguły jeszcze
słabsze wyniki w zakresie korelacji siły tego mechanizmu
w poszczególnych zadaniach (Friedman, Miyake, 2004; Kramer,
Humphrey, Larish, Logan, Strayer, 1994). Brak korelacji jest tutaj
wynikiem trudnym do wyjaśnienia (Miyake, Emmerson, Friedman, 2000).
Może wynikać z różnych przyczyn, niekoniecznie związanych z samą
naturą procesu hamowania. Naomi Friedman i Akira Miyake (2004)
wymieniają trzy możliwe przyczyny. Po pierwsze, nie jest całkiem jasne,
czy wykonanie niektórych zadań testowych rzeczywiście wymaga
wzbudzenia kontrolnych mechanizmów hamowania; jest to argument
o niskiej trafności teoretycznej testów hamowania. Po drugie, wyniki
niektórych testów zależą od wprawy osoby badanej w używaniu
mechanizmów kontrolnych określonego rodzaju, przez co nie zawsze
nadają się do ponownego zastosowania; to argument niskiej stabilności
pomiarów. Po trzecie, nie stworzono jeszcze zadania, które by dostarczało
czystej miary siły hamowania – blokowanie irrelewantnych informacji za
każdym razem dotyczy innego zakresu zjawisk przeszkadzających
w przetwarzaniu informacji; jest to argument nadmiernej zależności
wyników testów hamowania od treści zadania. Jeśli jednak założyć, że brak
korelacji nie wynika z niedoskonałości narzędzi pomiarowych, to nasuwa
się wniosek o istnieniu całej rodziny mechanizmów hamowania
poznawczego, której członkowie nie zawsze są blisko spokrewnieni
(Friedman, Miyake, 2004; Nigg, 2000). Przeciwko tej tezie świadczą
jednak wyniki badań neurofizjologicznych (Posner, Raichle, 1994; Rabbit,
Lowe, Shilling, 2001), które pozwalają na lokalizację mechanizmu
hamowania, niezależnie od jego rodzaju, w obrębie płatów czołowych
mózgu.

Badania te w ostatnich latach skupiły się na roli zakrętu czołowego dolnego


(inferior frontal gyrus, IFG) w prawej półkuli (Aron, Robbins, Poldrack,
2004, 2014). Badania w metodyce fMRI z wykorzystaniem zadania „sygnał
stopu” (paradygmat 6.1.) wykazały istotną rolę tego obszaru w hamowaniu
reakcji (Aron, Poldrack, 2006). Ponadto dowiodły, że efekty aktywności
zakrętu czołowego dolnego są globalne, tzn. prowadzą do ogólnego
wyhamowania lub spowolnienia wszystkich reakcji możliwych w danej
chwili, nawet tych, które nie są bezpośrednio skojarzone z wywołującym je
sygnałem (Wessel, Aron, 2017). Równie istotne jako mózgowy substrat
procesu hamowania wydają się połączenia prawego zakrętu czołowego
dolnego ze strukturami podkorowymi, szczególnie z jądrem
niskowzgórzowym (subthalamic nucleus, STN), które jest częścią jąder
podstawy. Według Jana Wessela i Adama Arona (2017) prawy zakręt
czołowy dolny i jądro niskowzgórzowe stanowią mózgową sieć hamującą,
która aktywuje się w odpowiedzi na bodźce wymagające przerwania
aktualnego działania. Bodźce takie, aktywując ową sieć, prowadzą do
wyhamowania aktywności w innych jądrach podstawy, które, razem z korą
ruchową, są odpowiedzialne za sterowanie motoryką organizmu (np.
chodzeniem).

6.2.2. Hamowanie dominującej reakcji


Badania tej odmiany hamowania często prowadzono z wykorzystaniem
zadania Stroopa (1935; Friedman, Miyake, 2004; Logan, Zbrodoff, 1998;
MacLeod, 1991; Shilling i in., 2002; Tzelgov, Henik, 1995). Ich wyniki
zostały już wcześniej w większości omówione. W tym miejscu,
w kontekście hamowania dominującej reakcji, szerszego omówienia
wymagają natomiast wyniki uzyskane w paradygmacie badawczym
sygnału stopu (zob. paradygmat 6.1). Eksperymenty prowadzone w jego
ramach dotyczą głównie zatrzymywania reakcji motorycznych.

De Jong, Coles i Logan (1995) przeprowadzili badania nad efektywnością


hamowania reakcji motorycznej w różnych warunkach zadania. W ich
wyniku okazało się, że hamowanie ze wzbudzeniem alternatywnej reakcji
motorycznej jest trudniejsze niż proste powstrzymanie dominującej reakcji
– badani uzyskiwali dłuższe o 46 ms czasy reakcji na sygnał zatrzymania
w warunku stop-zmiany niż w warunku stop-ogólny (zob. paradygmat 6.1).
Zdaniem De Jonga i współpracowników w warunku stop-ogólny
powstrzymywaniem dominującej reakcji zajmują się jedynie szybkie
i peryferyczne (w zakresie systemu kontroli motorycznej) mechanizmy
hamowania. Ich zadanie polega na niedopuszczeniu do ekspresji reakcji
poprzez odcięcie niezbędnej do wykonania ruchu energii. Wydłużenie
czasu działania mechanizmów hamowania w sytuacji zmiany sposobu
reakcji motorycznej (np. z ręcznej na nożną) jest natomiast związane
z funkcjonowaniem centralnych mechanizmów hamowania, gdyż odcięcie
energii koniecznej do wykonania ruchu nie jest w tym warunku
efektywnym sposobem sprawowania kontroli (ruch innym efektorem musi
zostać przecież wykonany). W warunku stop-zmiany dłuższe czasy reakcji
związane są więc z kosztami przerzutności w zakresie sposobu reakcji,
które ponosi centralny system hamowania przy udanej próbie kontroli
sytuacji.

Najtrudniejszym zadaniem dla badanych okazało się jednak hamowanie


selektywne, dotyczące powstrzymywania tylko jednej z dwóch możliwych
do wzbudzenia reakcji motorycznych (reakcji jednej z dwóch rąk). Na
selektywne powstrzymanie się od reakcji (warunek stop-selektywny; zob.
paradygmat 6.1) badani potrzebowali o 99 ms więcej niż na reakcję
w warunku stop-ogólny. Wykonanie instrukcji zatrzymania w warunku
stop-selektywny zabierało jednak również więcej czasu (o 53 ms) niż
w warunku stop-zmiana. Co więcej, selektywne powstrzymanie się od
reakcji dominującą ręką było o 44 ms szybsze niż wykonanie tego samego
zadania z użyciem ręki niedominującej. Zdaniem De Jonga
i współpracowników wyniki te odzwierciedlają kosztowną współpracę
peryferycznych i centralnych mechanizmów hamowania dominującej
w danym momencie reakcji. W warunku stop-selektywny należy bowiem
zablokować energię potrzebną do wykonania ruchu (peryferyczne
hamowanie reakcji), ale nie każdego, a jedynie takiego, który zostanie
centralnie wskazany do zablokowania (centralne hamowanie reakcji).
Centralny system hamowania reakcji odpowiadałby więc za selekcję
w zakresie tego, co (rodzaj efektora) i w jaki sposób (zmiana efektora,
selektywny wybór efektora spośród możliwych) jest hamowane. Zadaniem
peryferycznego systemu hamowania dominującej reakcji byłoby
blokowanie energii koniecznej do wykonania reakcji. System centralny
hamowania reakcji można więc określić jako selektywny, podczas gdy
peryferyczny – jako nieselektywny (De Jong i in., 1995; Horstmann, 2003).

W badaniu drugim De Jong i współpracownicy zastosowali tylko warunek


stop-selektywny. W połowie prób dokonali jednak degradacji bodźca
wzbudzającego hamowanie czynności motorycznej poprzez jego
maskowanie. Manipulacja rozróżnialnością bodźca okazała się efektywna –
wydłużyła (o 64 ms) zarówno czas reakcji na bodziec w zakresie
wykonywanej czynności, gdy nie była ona powstrzymywana, jak i czas
reakcji na sygnał do zatrzymania (o 50 ms). W badaniu tym stwierdzono
jednak istotną interakcję obecności sygnału do zatrzymania i trudności
w identyfikacji bodźca wzbudzającego zatrzymaną czynność.
Przetwarzanie sygnału do zatrzymania interferowało z wykonywaniem
zatrzymywanej czynności nawet wtedy, gdy sygnał do zatrzymania nie był
prezentowany, i zwłaszcza wtedy, gdy rozróżnialność bodźców
wzbudzających była niska. Oznacza to, że czynność zatrzymywana
i operacja zatrzymywania zakłócają się wzajemnie. Należy jednak
pamiętać, że z reguły interferencja tego rodzaju nie jest zbyt duża. Gordon
Logan i Jacquelyn Burkell (1986) porównali wielkość możliwej
interferencji między dwiema czynnościami w paradygmacie zadań
jednoczesnych i w paradygmacie sygnał-stop. Wykazali, że interferencja
w paradygmacie hamowania reakcji jest znacznie mniejsza i dotyczy
jedynie selekcji właściwej reakcji (zob. też Logan, 1982, 1988).

Badania nad wielkością efektu interferencji w paradygmacie sygnału stopu


podjął również Gernot Horstmann (2003). Interesował go problem
współzależności interwału czasu potrzebnego na wykonanie
zatrzymywanej czynności i interwału koniecznego do jej zastopowania.
Wykonywaną czynnością motoryczną było pisanie na maszynie. Czynność
tę wybrano ze względu na to, że będąc wtórnie zautomatyzowaną, podlega
ona stosunkowo łatwej kontroli (Logan, 1982) i może być równocześnie
realizowana z wieloma innymi czynnościami poznawczymi, nie wywołując
przy tym nazbyt dużego efektu interferencji (Pashler, 1994). Na ekranie
monitora pojawiały się tylko dwie litery, które sygnalizowały albo
możliwość wykonywania czynności, czyli naciśnięcia klawisza (tap, T),
albo konieczność zatrzymania czynności, czyli powstrzymania się od
uderzania w klawisz (halt, H). Testowano zachowanie badanych, poddając
ich różnym próbom: startu – gdy litera T pokazywała się po jednej lub po
kilku literach H; ciągłego wykonania – bez litery H; ciągłego
powstrzymywania się od wykonania – bez litery T; oraz hamowania – gdy
litera H pokazywała się po jednej lub po kilku literach T. Manipulowano
odstępem (stimulus onset asynchrony, SOA) pojawienia się liter na ekranie.
W wyniku testu Horstmann wykazał, że reakcja na drugi sygnał z każdej
pary jest tym szybsza, im dłuższy jest interwał SOA (200 ms). Jednakże
reakcja na sygnał „stop H” po sygnale do wykonywania czynności T, czyli
zatrzymanie wykonywania czynności, okazała się tym bardziej efektywna
(o 13% więcej zatrzymań), ale jednocześnie trwająca tym dłużej (89 ms),
im krótszy był SOA (100 ms).
Wynik ten pozostaje jedynie w częściowej zgodzie z teorią rywalizujących
egzemplarzy Logana (1988, 2002), który stwierdził, że hamowanie reakcji
może być skuteczne, jeśli pojawi się, zanim reakcja w zakresie
zatrzymywanej czynności zostanie uruchomiona, a więc przy krótkim
odstępie między bodźcem wzbudzającym czynności a sygnałem stopu.
Dokonana przez Horstmanna manipulacja eksperymentalna w zakresie
odstępu czasu między pojawieniem się sygnałów do kontynuowania
i zatrzymania czynności ujawniła jednak, że szybkość przebiegu procesu
hamowania jest zależna od momentu jego rozpoczęcia. Oznacza to
wystąpienie współzależności interwału czasu potrzebnego na wykonanie
zatrzymywanej czynności i interwału koniecznego do jej zastopowania.
Czynność hamowania reakcji nie różni się więc od innych, aktywnych
czynności w swej zależności od psychologicznego okresu refrakcji
(psychological refractory period, PRP; Pashler, 1994). Efekt PRP polega na
tym, że jeśli bodziec S2 pojawi się przed wykonaniem reakcji na bodziec
S1, reakcja na bodziec S2 będzie nienaturalnie wydłużona. Druga reakcja
jak gdyby czeka, aż system „dojdzie do siebie” po wykonaniu pierwszej.
Horstmann w kolejnych eksperymentach wykazał również szereg bardziej
złożonych związków procesu hamowania reakcji i kolejności dokonywanej
zmiany w czasie ciągłego wykonywania czynności. Kolejne wykonania
i zatrzymania okazały się w jeszcze większym stopniu zależne od SOA
i porządku poprzedzających je czynności.

Przeprowadzone badania nasuwają wniosek, że hamowanie dominującej


reakcji jest raczej procesem wysiłkowym i intencjonalnym, o czym
świadczą zależności tego rodzaju hamowania od manipulacji zarówno
w zakresie rozróżnialności sygnałów do wykonania (De Jong), jak
i odstępu czasu między sygnałami do rozpoczęcia i zatrzymania czynności
(Horstmann). Jako proces wysiłkowy i intencjonalny hamowanie
dominującej reakcji wykazuje interferencję z czynnością aktualnie
wykonywaną. Interferencja ta jest jednak słabsza niż wzajemne zakłócanie
się dwóch czynności jednoczesnych (Logan).

6.2.3. Odporność na dystrakcję


Badania w paradygmacie podążania (zob. podrozdz. 5.2.1) wykazały, że
informacje nieistotne są często przetwarzane aż do poziomu identyfikacji
ich znaczenia lub nawet do poziomu selekcji reakcji (zob. podrozdz. 5.3).
Dystrakcja nie jest więc w całości odrzucana przez system poznawczy,
mimo że stopień odporności na zakłócenia na sensorycznym poziomie
przetwarzania informacji jest ważnym czynnikiem determinującym
efektywność głębokiego przetwarzania wyselekcjonowanych treści
(Johnston, Dark, 1982) i, w konsekwencji, ich zapamiętywania (Eriksen,
Eriksen, Hoffman, 1986). Carl Francolini i Howard Egeth (1980) twierdzą,
że w pewnych warunkach proces odrzucania dystrakcji może być
całkowicie skuteczny. Przywołują oni argumenty empiryczne udanych prób
redukcji efektu Stroopa (Kahneman, Chajczyk, 1983) oraz efektu
flankerów (Eriksen, Eriksen, 1974) w wyniku przestrzennej separacji
konfliktowych aspektów bodźca.

Bodźce zakłócające przetwarzane poza ogniskiem uwagi (często bez


udziału świadomości i intencji; Johnston, Dark, 1986) są w stanie wzbudzić
reakcję konkurencyjną względem wykonywanej czynności (Eriksen,
Eriksen, 1974; Eriksen, Schultz, 1979; Eriksen i in., 1986). W Teście
flankerów (Eriksen, Eriksen, 1974; Broadbent, Broadbent, Jones, 1989;
Smith, 1991) badani reagują na literę pojawiającą się w centrum ekranu.
Litera ta jest otoczona przez dwa bodźce zakłócające (flankery), którymi są
inne litery pojawiające się po obu stronach sygnału w jednym rzędzie.
Podstawowa wersja testu uwzględnia dwie manipulacje eksperymentalne.
Po pierwsze, flankery mogą być tożsame z sygnałem lub mogą być
zupełnie innymi literami. Po drugie, zadania testowe różnią się w zakresie
przestrzennej lokalizacji bodźców zakłócających (bliżej lub dalej
względem sygnału). Eriksen i Eriksen stwierdzili (ryc. 6.6), że czas reakcji
na sygnał znacznie wydłuża się, gdy pojawiają się flankery, w porównaniu
z sytuacją, gdy ich nie ma lub są tożsame z sygnałem. Co więcej, czas ten
wydłuża się tym bardziej, im bardziej są do siebie podobne sygnały
i dystraktory (zob. też zależność procesu selekcji od podobieństwa sygnału
i dystraktora; Duncan, Humphreys, 1989) oraz im mniejsza jest wzajemna
odległość bodźców i dystraktorów (zob. też metaforę reflektora; LaBerge,
1995). Efekt flankerów można jednak zredukować, dokonując oddzielenia
(przestrzenna separacja) liter w rzędzie. Donald Broadbent, Margaret
Broadbent i Julian Jones (1989) doszli do wniosku, że wielkość wpływu
zakłóceń na proces selekcji w Teście flankerów, a tym samym odporność na
dystrakcję, oddaje wskaźnik ERIK, który stanowi różnica policzona dla
warunków separacji i współwystępowania dystraktorów oraz sygnału
między różnicami w czasach detekcji sygnału dla flankerów niespójnych
i spójnych z sygnałem. Broadbent i współautorzy (tamże) oraz Smith
(1991) niezależnie potwierdzili efekt flankerów oraz prawa, którym
podlega.
Reakcje na litery: H i K – lewy kursor, S i C – prawy kursor
Warunek 1 – dystraktor taki sam jak sygnał, np. H H H H H H H
Warunek 2 – dystraktor zgodny pod względem klucza reakcji, np. K K K H K K K
Warunek 3 – dystraktor niezgodny pod względem klucza reakcji, np. S S S H S S S
Warunek 4 – dystraktor podobny, np. N W Z H N W Z
Warunek 5 – dystraktor niepodobny, np. Q J Q H Q J Q
RYCINA 6.6. Efekt flankerów stwierdzony w eksperymencie Eriksena i Eriksen
Źródło: opracowanie własne na podstawie Eriksen, Eriksen, 1974.

Zdaniem Barbary Eriksen i Charlesa Eriksena efekt flankerów wynika


z konieczności zahamowania potencjalnej reakcji na bodziec zakłócający.
Hamowanie to jest kosztowne, powoduje bowiem wydłużenie czasu reakcji
w warunkach współwystępujących, dystrakcyjnych flankerów. W zgodzie
z tą interpretacją pozostają wyniki badań Charlesa Eriksena, Michaela
Colesa, L.R. Morrisa i Williama O’Hary (1985), w których wykazano, że
prezentowanie w polu wzrokowym bodźca zakłócającego, który może stać
się alternatywnym sygnałem, prowadzi do wystąpienia reakcji mięśniowej
(mierzonej z pomocą elektromiografii, EMG), mimo że badani zdają sobie
sprawę, iż bodziec ten mają ignorować. Należy zwrócić uwagę, że zgodnie
z interpretacją Eriksena i jego współpracowników wykonanie Testu
flankerów bardziej związane jest z hamowaniem konkurencyjnej reakcji
(na dystraktor) niż z odpornością na dystrakcję traktowaną jako
powstrzymywanie się od przetwarzania bodźców zakłócających. Odmienne
stanowisko zaprezentowali Friedman i Miyake (2004).

Z kolei Gideon Keren, William O’Hara i James Skelton (1977)


wykorzystali w swoim badaniu zadanie Michaela Posnera i Ronalda
Mitchella (1967). Polecili osobom badanym podjęcie decyzji, czy para
prezentowanych im liter spełnia narzucone przez instrukcję kryterium
selekcyjne. Uczestnicy eksperymentu mieli do dyspozycji trzy kryteria:
identyczności fizycznej (np. „AA”), identyczności nominalnej (np. „Aa”)
oraz opartej na regule (np. „Ae”). Osoby badane wykonywały zadanie
w obecności dystraktorów, którymi były inne litery. Na podstawie
uzyskanych wyników, Keren i współpracownicy wykazali, że
przetwarzanie bodźców zakłócających może być powstrzymane bardzo
wcześnie, na poziomie ich rozpoznania, lub bardzo późno, na poziomie
przetwarzania ich znaczenia. W pierwszym przypadku dystraktory
powodowały interferencję tylko w zadaniach, w których zastosowano
kryterium fizycznej identyczności, natomiast były skutecznie odrzucane
w warunkach selekcji wymagających uwzględnienia znaczenia bodźców.
Gdy jednak dystraktory były przetwarzane ze względu na ich znaczenie,
interferencję z ich strony stwierdzono w zakresie wszystkich zadań,
niezależnie od kryterium selekcji.

Wykorzystując dynamiczną wersję zadania Posnera i Mitchella (test


selektywnej i podzielnej uwagi DIVA; zob. Nęcka, 1994a), Szymura (1999)
pokazał, że sposób przeszukiwania pola percepcyjnego jest zależny od
odporności na dystrakcję. Niezależnie od rodzaju kryterium selekcji
(fizyczne vs. nominalne), jeśli tylko badani radzili sobie z odrzucaniem
bodźców zakłócających (brak różnic w efektywności procesu selekcji ze
względu na obecność dystrakcji), proces przeszukiwania pola wzrokowego
był szybki, równoległy i niezależny od liczby elementów w polu. Gdy
jednak hamowanie dystrakcji było mniej efektywne (wzrost czasu reakcji
w warunkach z dystrakcją w porównaniu z jej brakiem), proces
przeszukiwania pola okazywał się wolny, szeregowy i zależny od liczby
prezentowanych bodźców. Prowadzący wcześniej swoje badania Eriksen
i współpracownicy (1986) wykazali, że zakłócanie poprzez prezentację
dystraktorów etapu kodowania bodźców w celu ich przechowania
w pamięci świeżej nie zmienia szeregowego charakteru procesu
przeszukiwania pamięci (Sternberg, 1966), a jedynie wydłuża czas
potrzebny na przeszukanie każdego zestawu bodźców w celu udzielenia
odpowiedzi na pytanie dotyczące obecności sygnału w zapamiętywanym
zestawie.

Efekt tłumienia dystrakcji (distractor-supression effect) badał z kolei W.


Trammell Neill (1977, 1982). W eksperymentach zastosował zadanie
Stroopa (zob. paradygmat 6.2), układając w specyficzny sposób porządek
bodźców na liście niespójnej. N + 1 bodziec tej listy był napisany kolorem
atramentu, który był tożsamy ze znaczeniem N-tego jej bodźca. Na
przykład, jeśli na N-tej pozycji znajdował się wyraz „czerwony” napisany
na zielono, to kolejny, N + 1 wyraz był pisany czerwonym atramentem.
Neill wykrył, że reakcja na uprzednio tłumiony aspekt bodźca
konfliktowego jest wolniejsza niż wówczas, gdy aspekt ten nie był
wcześniej odrzucany. Podobne wyniki uzyskali D. Allan Allport, Steven
Tipper i N.R.J. Chmiel (1985) oraz Steven Tipper i Margaret Cranston
(1985), wykorzystując zadanie na przeszukiwanie pola percepcyjnego,
a także Allport, Tipper i Chmiel (1985) oraz Tipper (1985) w zadaniu na
odróżnianie różnokolorowych kształtów figur. W różnych wersjach tych
testów bodźce ignorowane w poprzednich próbach stawały się sygnałami
w próbach kolejnych, wywołując spowolnienie mechanizmów selekcji
informacji.
Poprzedzanie negatywne (negative priming) – utrudnienie w przetwarzaniu bodźca docelowego
w wyniku uprzedniego działania bodźca poprzedzającego (prymy); utrudnienie może się przejawiać
w wydłużeniu czasu reakcji lub w zwiększeniu błędu.

W toku dalszych badań nad efektem tłumienia dystrakcji W. Trammell


Neill i Richard Westberry (1987) odkryli, że efekt ten jest zależny od
strategii rozwiązania przetargu między szybkością a poprawnością (zob.
podrozdz. 6.1.3). Gdy badani, wykonując zadanie Stroopa, poświęcali
poprawność na rzecz szybkości, nie stwierdzono efektu tłumienia
dystrakcji, gdy zaś poświęcali szybkość na rzecz poprawności – efekt ten
wystąpił z jeszcze większą siłą. Manipulując odstępem między
poszczególnymi pozycjami testu, Neill i Westberry wykazali również, że
tłumienie dystrakcji jest krótkotrwałe – proces ten jest aktywny przez
najwyżej 1000 ms. Paradygmat badawczy, wykorzystany przez Neilla,
został nazwany poprzedzaniem negatywnym (paradygmat 6.3). N-ty
bodziec nazwano prymą, a N + 1 – próbą testową. Własną wersję zadania
w tym paradygmacie stworzył także Tipper (1985; Tipper, Driver, 1988;
Driver, Tipper, 1989). W jego eksperymentach zarówno pryma, jak
i bodziec testowy tworzyły złożone układy symboli (liter i cyfr). Tipperowi
udało się wykazać, że w takich warunkach efekt poprzedzania
negatywnego może trwać nieco dłużej (1500 ms; w badaniach
Kossowskiej, 2005 – nawet 2000 ms). Cynthia May, Michael Kane i Lynn
Hasher (1995), powołując się na wyniki badań Stevena Tippera, Bruce’a
Weavera, Sandry Cameron, Jamiego Brehauta i Julie Bastedo (1991),
twierdzą, że efekt ten w specyficznych warunkach może trwać nawet do
6000 ms (w cytowanych badaniach Tippera i współpracowników
poprzedzanie negatywne dotyczyło nazywania narysowanych obiektów).

Przedstawione tu wyniki badań dowodzą, że odporność na dystrakcję jest


ważnym mechanizmem kontrolnym, choć pokazują również, że możliwości
w zakresie tłumienia zakłóceń ze strony systemu poznawczego są mocno
ograniczone (Johnston i Dark). Dystraktory są często przetwarzane aż do
momentu selekcji i wzbudzenia konkurencyjnej reakcji, wywołując w ten
sposób interferencję procesów (Eriksen i Eriksen). Kontrola tej
interferencji prowadzi z jednej strony do pozytywnych konsekwencji
przetwarzania, takich jak przyspieszenie przeszukiwania pamięci świeżej
(Eriksen, Eriksen i Hoffman) czy zmiana charakteru przeszukiwania pola
percepcyjnego z szeregowego na równoległy (Szymura). Z drugiej jednak
strony wywołuje ona zjawisko tłumienia dystrakcji (Neill), które jest
szczególnie niekorzystne wtedy, gdy dystraktory stają się w kolejnych
zadaniach sygnałami, na które trzeba zwrócić uwagę (poprzedzanie
negatywne; Neill, Tipper).

Paradygmat 6.3
Poprzedzanie negatywne

Poprzedzanie negatywne polega na prezentowaniu bodźca poprzedzającego


(prymy), który utrudnia przetwarzanie bodźca właściwego. Zwykle
obserwuje się wydłużenie czasu potrzebnego na przetworzenie bodźca
właściwego, poprzedzonego odpowiednio dobraną prymą, w porównaniu
z bodźcem niczym niepoprzedzonym lub poprzedzonym prymą neutralną.

Tipper (1985; Driver, Tipper, 1989; Tipper, Driver, 1988) był zdania, że dla
efektywnej selekcji informacji konieczne jest skuteczne hamowanie dwóch
typów dystraktorów: bodźców specyficznie zakłócających, wywołujących
interferencję, i bodźców ogólnie zakłócających, niepowodujących
interferencji. Paradygmat poprzedzania negatywnego miał być tym, który
pozwoli na zbadanie procesu tłumienia dystrakcji specyficznej (Neill,
1977). Zadaniem osób badanych było zliczanie czerwonych bodźców,
rozrzuconych wśród różnych liter i cyfr prezentowanych w tym samym
czasie przez bardzo krótki okres (200 ms) (Driver, Tipper, 1989; Tipper,
Driver, 1988). Wyróżniono dwa rodzaje przedstawień, które nazwano
testowym (probe) i poprzedzającym (prime). Przedstawienia testowe
zawierały tylko czarne i czerwone litery, natomiast przedstawienia
poprzedzające zawierały zarówno czarne litery lub cyfry, jak i czerwone
litery. Ze względu na bodziec poprzedzający (prymę) wyróżniono dwa typy
zadań: (1) zadanie interferencyjne, w którym w kolorze czarnym w ramach
prymy prezentowano cyfrę inną niż oczekiwany wynik zliczania (liczba
czerwonych bodźców), oraz (2) zadanie neutralne, w którym w kolorze
czarnym prezentowano litery pozostające bez żadnego związku
z oczekiwanym wynikiem zliczania. Ze względu na możliwe sposoby
połączenia przedstawienia poprzedzającego i testowego wyróżniono trzy
warunki eksperymentalne: (1) neutralno-kontrolny, w którym
przedstawienia testowego i poprzedzania neutralnego nie łączyła żadna
relacja; (2) interferencyjno-odmienny, w którym po prymie interferencyjnej
prezentowano przedstawienie testowe, zawierające inną liczbę czerwonych
liter niż ignorowana w prymie czarna cyfra, oraz (3) interferencyjno-
jednakowy, w którym po prymie interferencyjnej prezentowano
przedstawienie zawierające liczbę liter zgodną z ignorowaną w prymie
czarną cyfrą.

Trzeci warunek nazywano warunkiem poprzedzania negatywnego.


Uprzednio ignorowany bodziec (czarna cyfra) podpowiada oczekiwaną
reakcję (liczbę czerwonych cyfr). Ponieważ w przedstawieniu
poprzedzającym był on odrzucany, obserwuje się wydłużenie czasu reakcji
w przedstawieniu testowym. Tipper i Driver wykazali zarówno efekt
poprzedzania negatywnego (warunek 3), jak i efekt poprzedzania bodźcem
zakłócającym, wywołującym interferencję (warunek 2). Ich zdaniem
świadczy to o tym, że w procesie selekcji wszystkie bodźce zakłócające,
niezależnie od tego, czy wywołują interferencję, czy nie, są hamowane
i w miarę możliwości odrzucane.

Paradygmat poprzedzania negatywnego obejmuje liczne i różnorodne


zadania poznawcze. Główne manipulacje dotyczą następujących warunków
eksperymentalnych.

1. Odległość (w czasie) prymy i celu


Neill i Westberry (1987) wykazali, że efekt poprzedzania negatywnego nie
ujawnia się przy bardzo krótkich (do 50 ms) interwałach czasowych
między pojawieniem się prymy i bodźca docelowego. Zauważyli także, że
wielkość tego efektu obniża się zdecydowanie, gdy odstęp czasu między
prezentacją prymy i bodźca docelowego jest większy niż 500 ms. Z kolei
Tipper i współpracownicy (1991) potwierdzili możliwość utrzymywania się
efektu poprzedzania negatywnego przez dłuższy okres (nawet 6600 ms).
Co więcej, w przypadku dłuższych interwałów czasowych wielkość efektu
inhibicji ponownie rosła, będąc dwukrotnie większa przy odstępie 6600 ms
niż przy interwale 3100 ms (22 ms vs. 10 ms). Brak efektu poprzedzania
negatywnego w fazie przeduwagowej selekcji informacji i jego
konsekwentne występowanie przez całą fazę uwagową świadczą na
korzyść tezy, że hamowanie jest mechanizmem kontrolnym, występującym
tylko wtedy, gdy kontrola uwagowa może być efektywnie sprawowana.

2. Rodzaj bodźców, rodzaj zadań, rodzaj reakcji


W badaniach nad efektem poprzedzania negatywnego rodzaj bodźców (np.
litery vs. obrazki), rodzaj zadania (np. nazywanie kolorów vs. identyfikacja
kształtów) oraz rodzaj reakcji (np. werbalna vs. motoryczna) wydają się nie
mieć większego znaczenia dla istotności uzyskiwanego efektu (May i in.,
1995). Wprawdzie wielkość efektu interferencji zależy zarówno od rodzaju
reakcji (jest np. o 10 ms większa przy rekcji werbalnej niż motorycznej;
Tipper, MacQueen, Brehaut, 1988), jak i od rodzaju bodźca (o 26 ms
większa dla cyfr niż liter; Driver, Tipper, 1989), jednak manipulacje te nie
mają wpływu na wielkość efektu negatywnego poprzedzania (Tipper, 1985;
Tipper i in., 1988). Zdaniem May i jej współpracowników (1995) oznacza
to, że mechanizm hamowania, ujawniający się w zjawisku poprzedzania
negatywnego, ma charakter centralny i jest związany z blokowaniem
semantycznych, głębokich reprezentacji dystraktorów, niezależnie od ich
powierzchniowego odzwierciedlenia w systemie poznawczym (zob. rozdz.
2).

3. Kontekst zewnętrzny poprzedzania negatywnego


Omawiany efekt występuje tylko w kontekście konieczności dokonywania
procesu selekcji w obrębie pary bodźców. Diuglas Lowe (1979) wykazał
skuteczną redukcję hamowania w warunku reakcji na pojedynczy bodziec,
gdy dystraktor nie był obecny w prezentacji testowej. Udało mu się także
dowieść, że na wielkość efektu poprzedzania negatywnego mają wpływ
oczekiwania osób badanych dotyczące trudności zadania do wykonania.
Jeśli próba testowa wykorzystuje mechanizmy selekcji, to przeświadczenie
respondentów o jej trudności rośnie i – tym samym – wzrasta wielkość
efektu hamowania, co można wyjaśniać większym zaangażowaniem
mechanizmów kontrolnych w przetwarzanie informacji. Z kolei Neill
i Westberry (1987) pokazali, że w celu zwiększenia efektu poprzedzania
negatywnego wystarczy wzbudzić oczekiwania osób badanych odnośnie do
wysokiego poziomu wymagań, niezależne od rzeczywistej trudności
zadania. Efekt ten może więc pojawić się również w prostym zadaniu na
nazwanie koloru atramentu, wykonywanym bez konieczności selekcji, jeśli
tylko badani nabędą przeświadczenie o dużej trudności takiego testu.
Zdaniem May i współpracowników (1995) oznacza to, że mechanizm
poprzedzania negatywnego jest adaptacyjny i elastyczny – możliwe jest
bowiem dostosowanie jego funkcjonowania (aż do całkowitej redukcji) do
zmiennych warunków trudności zadania.

6.2.4. Odporność na interferencję proaktywną


Zapominania z powodu przywoływania (retrieval-induced forgetting) – zjawisko polegające na
tym, że przywoływanie niepowtarzanych egzemplarzy z ćwiczonych kategorii jest znacznie słabsze
niż egzemplarzy z kategorii niećwiczonych.

Pamiętanie czegoś może powodować zapominanie innych informacji.


Odpamiętywanie informacji z konkretnej kategorii, np. numeru telefonu do
przyjaciela, może spowodować brak możliwości przypomnienia innej
informacji z tej samej kategorii, np. numeru telefonu członka rodziny, choć
nie ma wpływu na odpamiętywanie informacji z innych kategorii.
Zagadnieniem odporności na interferencję pamięciową zajęli się Michael
Anderson, Robert Bjork i Elizabeth Bjork (1994). Zaobserwowany przez
siebie efekt nazwali zapominaniem z powodu przywoływania (retrieval-
induced forgetting). W badaniach nad tym efektem uczestnicy
eksperymentu z reguły zapamiętują listę par egzemplarzy, należących
w każdej parze do tej samej kategorii. Następnie ćwiczą się (powtarzając
egzemplarze) w odpamiętywaniu tylko niektórych egzemplarzy
z wybranych kategorii. Wreszcie ich zadaniem jest przywołanie wszystkich
wyuczonych w pierwszym etapie egzemplarzy, przy czym w trakcie
przywoływania dysponują oni nazwą kategorii jako wskazówką
pamięciową.

W wyniku zastosowania takiej właśnie procedury z reguły stwierdza się,


że: (1) odpamiętywane wyrazy należą głównie do ćwiczonych kategorii (co
oczywiste) oraz (2) przywołanie niepowtarzanych egzemplarzy
z ćwiczonych kategorii jest znacznie słabsze niż egzemplarzy
z niećwiczonych kategorii (co intrygujące). Przeprowadzając tego typu
eksperymenty, Timothy Perfect, Christopher Moulin, Martin Conway
i Elizabeth Perry (2002) pokazali dodatkowo, że proces rozpoznawania
niepowtarzanych egzemplarzy z ćwiczonych kategorii jest znacznie
wolniejszy niż proces rozpoznawania pozostałych rodzajów reprezentacji
pamięciowych tworzonych w trakcie badania. W innych badaniach
(Anderson, Spellman, 1995) okazało się, że efekt zapominania z powodu
przywoływania jest niezależny od rodzaju wskazówki pamięciowej.
Michael Anderson i Barbara Spellman umieścili na listach par słów
egzemplarze należące do różnych kategorii, a następnie próbowali
wydobyć od badanych informacje niepowtarzane, stosując różne
wskazówki pamięciowe. Efekt był zawsze ten sam – liczba
niepowtarzanych przedstawicieli ćwiczonych kategorii była istotnie
mniejsza niż liczba innych reprezentacji pamięciowych. Wyniki badań nad
zapominaniem z powodu przywoływania uzupełnili Harm Velling i Ad van
Knippenberg (2004), dowodząc, że czas rozpoznawania niepowtarzanych
egzemplarzy ćwiczonych kategorii jest wolny i niezależny od użytej
wskazówki. Wszystkie te wyniki sugerują, że efekt zapominania z powodu
przywoływania jest niezależny od rodzaju przywoływania
(odpamiętywanie vs. rozpoznawanie) oraz rodzaju wskazówki
w odpamiętywaniu.

Analizując wyniki badań nad zapominaniem z powodu przywoływania,


Perfect i współautorzy (2002) zdefiniowali proces hamowania
pamięciowego jako redukcję w zakresie poziomu aktywacji reprezentacji
pamięciowej. W trakcie ćwiczenia poprzez powtarzanie poszczególnych
egzemplarzy danej kategorii dochodzi bowiem do równoległego procesu
relatywnego wzmacniania poziomu aktywacji ćwiczonych egzemplarzy
i redukcji poziomu aktywacji egzemplarzy niećwiczonych.
W konsekwencji odpamiętywane są przede wszystkim egzemplarze
ćwiczone. W przypadku niećwiczonych kategorii nie tworzy się relatywna
nierównowaga w poziomie aktywacji reprezentacji pamięciowych –
wszystkie uzyskują podobne wzmocnienie w procesie uczenia się,
wszystkie mogą być też odpamiętane ze stosunkowo zbliżonym
prawdopodobieństwem.

Jak słusznie zauważają Velling i van Knippenberg (2004), próba definicji


hamowania pamięciowego, dokonana przez Perry’ego
i współpracowników, bardziej jednak przypomina proces biernego
zapominania nieaktywnych reprezentacji pamięciowych niż proces
czynnego hamowania reprezentacji mniej aktywnych. Chcąc wykazać, że
zapominanie przez przywoływanie ma jednak cechy aktywnego procesu
hamującego, Velling i van Knippenberg w eksperymencie drugim zmienili
zadanie wykorzystywane w celu uzyskania tego efektu. Zamiast testu
pamięci jawnej użyli zadania na pamięć ukrytą w paradygmacie
podejmowania decyzji leksykalnych (lexical decision task, LDT; zob.
podrozdz. 5.3). Zadaniem osób badanych było podjęcie decyzji, czy słowo
w ich ojczystym języku, prezentowane na ekranie, jest napisane poprawnie
czy błędnie. Okazało się, że średni czas decyzji w przypadku egzemplarzy
kategorii niećwiczonych był taki sam jak dla powtarzanych egzemplarzy
kategorii ćwiczonych (542 ms), natomiast średni czas decyzji w przypadku
niepowtarzanych egzemplarzy kategorii ćwiczonych był istotnie dłuższy (o
32 ms). Velling i van Knippenberg w dyskusji wyników swojego badania
wyraźnie podkreślają, że – ze względu na wykorzystany test LDT –
uzyskanych przez nich rezultatów nie można interpretować w kategoriach
biernego zapominania, ale należy je rozumieć jako przykład aktywnego
blokowania dostępu do niektórych egzemplarzy. Sugerują także, iż
zjawisko zapominania przez przywoływanie powinno zmienić nazwę na
efekt hamowania przez przywoływanie.

Badania z użyciem technik neuroobrazowania wspierają wniosek, że


przyczyną zapominania z powodu przywoływania materiału z pamięci jest
proces hamowania. Maria Wimber i jej współpracownicy (2008) z pomocą
techniki fMRI wykazali, że przywoływanie z pamięci egzemplarzy
niećwiczonych, w porównaniu z przywoływaniem egzemplarzy
ćwiczonych, jest skojarzone z większą aktywnością lewej brzuszno-bocznej
kory przedczołowej (ventro-lateral prefrontal cortex, VLPFC) i z mniejszą
aktywacją przyśrodkowej i bocznej kory ciemieniowej w obu półkulach.
Dodatkowo aktywność w przedniej części brzuszno-bocznej kory
przedczołowej i w bocznej korze skroniowej była silnie związana
z wielkością efektu zapominania przy przywoływaniu. Biorąc pod uwagę
funkcjonalne znaczenie brzuszno-bocznej kory przedczołowej
udokumentowane w wielu innych pracach, Wimber i współpracownicy
interpretują swoje wyniki jako wsparcie dla stanowiska, że zapominanie
przy przywoływaniu jest wynikiem aktywnego hamowania. Również
badania EEG wspierają tezę, że zapominanie z powodu przywoływania jest
wynikiem hamowania, przynosząc dodatkowo wiedzę na temat
elektrofizjologicznych korelatów tego zjawiska. Simon Hanslmayr, Tobias
Staudigl, Alp Aslan i Karl-Heinz Bäuml (2010) wykazali, że zapominanie
tego rodzaju jest skojarzone ze zwiększeniem mocy sygnału EEG
w częstotliwości theta (4–7 Hz). W połączeniu z innymi danymi na temat
roli i źródeł fal theta wynik ten pozwala stwierdzić, że efektowi
zapominania w wyniku przywołania towarzyszy interferencja między
różnymi elementami, w danym momencie możliwymi do odpamiętania.
Interferując, elementy te wzajemnie sobie przeszkadzają, co sprawia, że
jeden z nich będzie aktywnie stłumiony, czyli „zapomniany”.

6.2.5. Czy hamowanie jest konstruktem jednorodnym?


Joel Nigg (2000) zaproponował szczegółową klasyfikację rodzajów
hamowania, uwzględniającą sześć podstawowych mechanizmów tego typu.
Wśród wyróżnionych typów znalazły się: (1) kontrola interferencji, czyli
niedopuszczanie do interferencji konfliktowych aspektów bodźców lub
reakcji albo osłabianie skutków takiej interferencji; (2) hamowanie
percepcyjne, czyli tłumienie odruchu sakkadowego; (3) hamowanie
poznawcze, czyli tłumienie irrelewantnych reprezentacji umysłowych; (4)
hamowanie behawioralne, czyli tłumienie zbędnych reakcji; (5)
hamowanie powrotu, czyli niedopuszczanie do powrotu uwagi do miejsca
lokalizacji poprzedniego bodźca; (6) hamowanie uwagowe odruchu
orientacyjnego, polegające na niedopuszczeniu do przekierowania uwagi
do miejsca lokalizacji nowego bodźca. W swojej taksonomii Nigg
uwzględnił trzy wymiary: (1) automatyczność procesu (wysiłkowy lub
bezwysiłkowy); (2) poziom przetwarzania informacji (hamowanie
poznawcze lub behawioralne); (3) aktywność procesu (aktywne hamowanie
lub bierna odporność na zakłócenie). W ten sposób kontrola interferencji
i hamowanie percepcyjne zostały zaliczone do biernych i wysiłkowych
procesów poznawczych (na płytkim poziomie przetwarzania), hamowanie
poznawcze – do aktywnych i wysiłkowych procesów poznawczych (na
głębokim poziomie przetwarzania), hamowanie behawioralne – do
aktywnych i wysiłkowych procesów behawioralnych, a hamowanie
powrotu i hamowanie odruchu orientacyjnego – do aktywnych
i bezwysiłkowych procesów poznawczych (na płytkim poziomie
przetwarzania). Dokładne omówienie klasyfikacji Nigga wraz
z przykładami wskaźników pomiarowych oraz korelatów neuronalnych
poszczególnych rodzajów hamowania znaleźć można w monografii
Małgorzaty Kossowskiej (2005).

Częściowo odmienną taksonomię rodzajów hamowania zaproponowali


Friedman i Miyake (2004). Według tych autorów warto wyróżniać tylko
trzy rodzaje hamowania. Pierwszym jest hamowanie dominującej reakcji
(prepotent response inhibition). Testem pozwalającym mierzyć skuteczność
tego rodzaju hamowania jest – w ich opinii – zadanie Stroopa (1935).
W teście tym badani muszą powstrzymać narzucającą się czynność
czytania słowa, aby móc nazwać kolor atramentu, którym jest ono
napisane. Ten rodzaj hamowania łączy w sobie cechy hamowania
behawioralnego i percepcyjnego – jest ono aktywne, wysiłkowe,
intencjonalne i może przebiegać na różnych poziomach selekcji.

Drugi rodzaj hamowania to odporność na dystrakcję (resistance to


distractor interference). Dzięki temu procesowi kontrolnemu możliwe jest
odrzucenie informacji irrelewantnych, czyli nieistotnych z punktu widzenia
aktualnie przetwarzanych danych. Ten typ hamowania bliski jest więc
w klasyfikacji Nigga kontroli interferencji (jeśli wykluczy się z niej
interferencję reakcji, uwzględnioną już w hamowaniu dominującej reakcji)
i hamowaniu uwagowemu, zarówno odruchu orientacyjnego, jak i powrotu.
Friedman i Miyake nie uwzględniają jednak w ogóle hamowania
w uwadze, sprowadzając odporność na dystrakcję jedynie do kontroli
interferencji. Zadaniem, które według nich pozwala zmierzyć skuteczność
odporności na dystrakcję, jest Test flankerów (Eriksen, Eriksen, 1974).
W teście tym badani muszą dokonać identyfikacji litery w warunku, gdy
jest ona otoczona („oflankowana”) innymi literami. W warunku
kontrolnym litery wymagające rozpoznania prezentuje się bez dystraktorów
lub w otoczeniu liter identycznych (zob. podrozdz. 6.2.3).

Trzeci rodzaj hamowania to odporność na interferencję proaktywną


(resistance to proactive interference). Odpowiada on hamowaniu
poznawczemu – jest procesem aktywnym i wysiłkowym, prowadzonym
przy wykorzystaniu głębokich, trwałych reprezentacji umysłowych.
Zadaniem pozwalającym zmierzyć siłę tego typu hamowania jest, według
Friedman i Miyakego, jeden z wariantów zadania Petersonów (Peterson,
Peterson, 1959). Polega ono na odpamiętywaniu egzemplarzy pojedynczej
kategorii, które wcześniej są sukcesywnie prezentowane. Procedura tego
rodzaju wymusza intruzje w przywoływanym materiale. Jeśli na przykład
lista zawiera tylko nazwy zwierząt, w odpamiętywanym materiale znajduje
się dużo nazw zwierząt niewłączonych do pierwotnej listy. Im większa siła
hamowania, tym mniej takich intruzji.

Badania Friedman i Miyakego (2004) ujawniły, że odporność na


interferencję proaktywną jest jakościowo odmienną formą hamowania. Ten
typ hamowania nie korelował w ogóle z odpornością na dystrakcję (–0,03),
wykazując jedynie słaby, pozytywny związek z hamowaniem dominującej
reakcji (0,18). Z kolei odporność na dystrakcję okazała się silnie powiązana
z hamowaniem dominującej reakcji (0,68), podważając hipotezę
o odrębności tych dwóch rodzajów hamowania. Dodatkowo zadanie
Stroopa okazało się najlepszym zadaniem mierzącym siłę hamowania
dominującej reakcji (korelacja wyniku testu Stroopa i czynnika hamowania
dominującej reakcji wyniosła 0,55), a Test flankerów – najlepszym
sposobem pomiaru siły odporności na dystrakcję (korelacja wyniku Testu
flankerów i czynnika hamowania dystrakcji wyniosła 0,42). Jedynie
zadanie Petersonów zostało uznane za relatywnie słaby test odporności na
interferencję proaktywną (korelacja wyniku testu Petersonów i czynnika
hamowania pamięciowego wyniosła 0,29). Znacznie lepsze pod tym
względem okazało się zadanie odpamiętywania ze wskazówką (Tolan,
Tehan, 1999; korelacja wyniku Testu Tolanów i czynnika hamowania
pamięciowego wyniosła 0,47), w którym badani zapamiętywali najpierw
dwie listy wyrazów, a następnie odpamiętywali tylko drugą z nich, broniąc
się przed interferencją płynącą z zapamiętywania pierwszej listy.
Przezwyciężali tym samym tzw. efekt pierwszeństwa (zob. rozdz. 9), co
należy zinterpretować jako przejaw skutecznej kontroli poznawczej.

Friedman i Miyake (2004) sprawdzili także, czy wyróżnione rodzaje


hamowania wpływają na wykonanie dwóch zadań, wymagających
znaczącej kontroli poznawczej: zadania na poprzedzanie negatywne
(paradygmat 6.3) i testu przerzutności uwagi (paradygmat 5.5).
W pierwszym przypadku badany miał zareagować na jeden z dwóch
bodźców, który w poprzedniej parze znaków powinien być ignorowany
(ryc. 6.7). W drugim przypadku wymagano od osób badanych elastycznej
zmiany w zakresie przetwarzania informacji alfabetycznych albo
numerycznych, w zależności od wskazówki. Wykonanie zadania na
poprzedzanie negatywne w niewielkim stopniu zależało od połączonego
czynnika odporności na dystrakcję i hamowania dominującej reakcji (0,19),
natomiast wyniki testu na przerzutność, jak się okazało, zależą niemal
wyłącznie od tego czynnika (0,91). Odporność na interferencję proaktywną
nie była istotnie związana z wykonaniem żadnego z dwóch wymienionych
zadań.
RYCINA 6.7. Przykłady zadań do badania poprzedzania negatywnego z wykorzystaniem
bodźców werbalnych i niewerbalnych
Źródło: opracowanie własne na podstawie Friedman, Miyake, 2004.

Można więc sformułować wniosek, że próba strukturalnej dywersyfikacji


rodzajów hamowania się nie powiodła. Friedman i Miyake zaproponowali
redukcję sześciu rodzajów hamowania, znanych z taksonomii Nigga, do
trzech tylko typów, pominąwszy zupełnie hamowanie w zakresie uwagi.
Dwa proponowane przez nich typy hamowania: odporność na dystrakcję
i hamowanie dominującej reakcji, okazały się silnie powiązane wzajemnie,
natomiast odporność na interferencję proaktywną nie wykazywała żadnych
związków z pozostałymi formami hamowania. Łatwo zrozumieć związek
pierwszych dwóch typów hamowania, gdy zastanowić się nad procesami
biorącymi udział w wykonywaniu zadania Stroopa i Testu flankerów.
W przypadku obu zadań trzeba zarówno stłumić dominującą reakcję
(przeczytanie słowa w zadaniu Stroopa lub nazwanie bodźca otaczającego
literę w Teście flankerów), jak i obronić się przed dystrakcją (znaczenie
słowa w zadaniu Stroopa i znaczenie dominujących ze względu na swoją
liczbę bodźców otaczających nazywaną literę w Teście flankerów). Zresztą
Test flankerów bywa traktowany jako substytut zadania Stroopa (MacLeod,
1991). Zadania uznane przez Friedman i Miyakego za kluczowe dla
wyróżnionych typów hamowania mogą zatem, jak się wydaje, być
diagnostyczne również dla innych rodzajów tego zjawiska.

W efekcie swych analiz Friedman i Miyake uzyskali więc tylko dwa


czynniki hamowania, z których pierwszy można byłoby określić mianem
uwagowego, a drugi pamięciowego. Tym dwóm rodzajom hamowania
zdają się odpowiadać dwa typy interferencji: zasobowa interferencja
uwagowa i proaktywna interferencja pamięciowa. Chcąc więc
uporządkować strukturalnie przestrzeń różnych rodzajów hamowania,
cytowani badacze sprowadzili je do dwóch, wcześniej dobrze już znanych
mechanizmów (interferencja a zasoby – Kahneman, 1973; interferencja
a odpamiętywanie – Keppel i Underwood, 1962), znacznie upraszczając
problem. Na podstawie dostępnych wyników badań i analiz teoretycznych
trudno więc jednoznacznie rozstrzygnąć kwestię jednorodności
mechanizmu hamowania. Na uwagę zasługują natomiast wyniki dotyczące
przerzutności uwagi i poprzedzania negatywnego. Friedman i Miyakemu
udało się wykazać, że odporność na dystrakcję i hamowanie dominującej
reakcji odpowiadają niemal całkowicie za redukcję kosztów przerzutności,
a ponadto że procesy te nie mają nic wspólnego z odpornością na
poprzedzanie negatywne.

6.3. Funkcje zarządcze

6.3.1. Istota funkcji zarządczych, czyli homunculus odnaleziony


Psychologowie poznawczy od lat opisują różne, często bardzo złożone
procesy przetwarzania informacji. Wiele już wiadomo np. na temat strategii
podejmowania decyzji, sposobów rozwiązywania problemów czy
funkcjonowania reprezentacji umysłowych. Poszczególne rozdziały tego
podręcznika wiedzę tę przedstawiają i ilustrują bogatym materiałem
empirycznym. Nadal jednak nierozwiązany pozostaje problem
homunculusa (Nęcka, 2004) – odnalezienia, opisania i wyjaśnienia
mechanizmów działania Tego, który buduje reprezentacje, steruje
myśleniem i podejmuje ważne dla całości systemu poznawczego decyzje,
a więc Tego, który mówiąc wprost, kontroluje działanie systemu
poznawczego. Próby rozwiązania problemu homunculusa sprowadzają się
w psychologii do podejścia funkcjonalnego, w którym określa się sposób
działania mechanizmów kontrolnych, wskazując przy tym na ich
różnorodne ograniczenia. Posługując się takim podejściem, omówiono
w tym rozdziale mechanizmy automatyzacji (zob. podrozdz. 6.1)
i hamowania (zob. podrozdz. 6.2), a w rozdziale poprzednim – podzielności
(zob. podrozdz. 5.2.4) i przerzutności uwagi (zob. podrozdz. 5.2.5).
Homunculus odnaleziony przez psychologów poznawczych (jakkolwiek
tylko funkcjonalnie) ma różne nazwy. Zazwyczaj jednak określa się go
mianem funkcji zarządczych (executive functions; zob. Diamond, 2013).

Od bardzo dawna (Gall, 1798; Liu, 1704; za: Zhu, 1989) wyrażano
przekonanie, że w przedniej części płatów czołowych mózgu
zlokalizowane są mechanizmy kontrolne procesów przetwarzania
informacji. Ze względu na to, że wydają się odpowiadać za ukierunkowanie
zachowania, mechanizmy te zostały nazwane zarządczymi. Są one
niespecyficzne w tym sensie, że nie jest ich bezpośrednim zadaniem
realizowanie jakiejkolwiek konkretnej formy przetwarzania informacji (np.
myślenia indukcyjnego spostrzegania czy zapamiętywania). Ich
upośledzenie (np. wskutek uszkodzeń strukturalnych mózgu lub lezji
płatów czołowych) zakłóca jednak wykonywanie wszelkich operacji
poznawczych, przebiegających w dowolnych obszarach umysłu (Baddeley,
Della Sala, Papagno, Spinnler, 1997). Deficyty te noszą wspólną nazwę
syndromu czołowego (frontal syndrome; tamże) i mają konsekwencje
w postaci dezorganizacji wszystkich form zachowania. Znaczenie płatów
czołowych jako mózgowej podstawy procesów zarządczych akcentują
również współczesne teorie. Wpływowa teoria Earla Millera i Jonathana
Cohena (2001) podkreśla, że kora czołowa, a dokładnie jej przednia część,
odgrywa szczególną rolę w aktywności i zadaniach wymagających
odgórnej kontroli wykonania planu działania, czyli kontroli zgodności
wykonywanych zadań z założonymi celami i intencjami. Według autorów,
istotą funkcji zarządczych, które realizuje kora przedczołowa, jest m.in.
aktywne utrzymywanie reprezentacji celu i środków prowadzących do jego
realizacji.

Badanie funkcji zarządczych jest jednak bardzo trudne. Kwestia ta w nieco


węższym zakresie – tylko w odniesieniu do badań nad funkcjonowaniem
mechanizmu hamowania – została omówiona już wcześniej (Friedman,
Miyake, 2004; zob. podrozdz. 6.2.1). Główny problem w badaniu funkcji
zarządczych Alan Baddeley i jego współpracownicy (1997) widzą
w zależności wyników ich testów od zdolności w zakresie procesów
przetwarzania informacji, których wykonanie w danym teście nadzoruje
system kontrolny. Nie można badać nadzoru w oderwaniu od tego, co jest
nadzorowane. Dodatkowo jedną z ważnych, immanentnych cech funkcji
zarządczych wydaje się nieustanne dążenie do coraz większej wprawy
w nadzorowaniu czynności – ponawianie badań z użyciem tego samego
testu funkcji zarządczych z udziałem tych samych badanych prowadzi do
znacznego uzależnienia wyników od efektu nabywania wprawy (Reitan,
Wolfson, 1994) czy wręcz od wtórnej automatyzacji wykonania (Duncan,
1995). Co więcej, nie istnieje takie narzędzie, które pozwalałoby na
zmierzenie jednocześnie wszystkich dysfunkcji w zakresie kontroli –
w efekcie poszczególne testy funkcji zarządczych są używane łącznie,
wykazując w różnych badaniach mniejszą lub większą wspólną wariancję
w zakresie mierzonych procesów nadzoru (Baddeley i in., 1997). Prowadzi
to do wyróżniania coraz to nowych funkcji zarządczych i nieustannego
tworzenia ich strukturalnych teorii na podstawie uzyskanych
współczynników korelacji.

6.3.2. Rodzaje funkcji zarządczych


Badaniem struktury funkcji zarządczych zajął się Akira Miyake wraz ze
współpracownikami (Miyake, Friedman, Emerson, Witzik, Howerter,
2000). Przebadano dużą próbę zdrowych ochotników, niewykazujących
dysfunkcji czołowych, przy użyciu baterii różnorodnych testów, o których
sądzono, że wymagają kontroli poznawczej. Testy te odnoszą się do
różnych procesów przetwarzania informacji, zarówno elementarnych (np.
selektywna uwaga w warunku przerzutności – Wisconsin Card Sorting
Test), jak i złożonych (np. rozwiązywanie problemów – Wieża z Hanoi).
W wyniku analiz korelacyjnych, czynnikowych i strukturalnych (structural
equation modeling, SEM), autorom udało się wyodrębnić trzy funkcje
zarządcze. Wprawdzie poziomy wykonania testów diagnostycznych dla
tych funkcji były pozytywnie skorelowane ze sobą, ale relatywnie niewielki
procent wspólnej wariancji sugerował raczej odrębność wyróżnionych
funkcji. Konfirmacyjna analiza czynnikowa nie potwierdziła także istnienia
czynnika wyższego rzędu – generalnego czynnika funkcji zarządczych.

Miyake i współautorzy (tamże) wymieniają więc następujące rodzaje


funkcji zarządczych: (1) hamowanie (niepożądanej reakcji, bodźców
zakłócających, narzucających się reprezentacji umysłowych); (2)
przerzutność (między zadaniami, procesami, czynnościami); (3)
odświeżanie1 informacji w pamięci roboczej. Kluczowe dla
poszczególnych rodzajów funkcji zarządczych okazały się następujące
zadania: (1) Wieża z Hanoi dla hamowania (tu: dominującej reakcji); (2)
Wisconsin Card Sorting Test dla przerzutności; (3) Test Sternberga dla
odświeżania informacji w zakresie pamięci roboczej. Fakt stwierdzonych
korelacji między wyróżnionymi rodzajami funkcji zarządczych Miyake
i współpracownicy wyjaśnili heterogenicznym charakterem użytych testów.
Na przykład wykorzystane przez nich zadanie na generowanie interwałów
losowych (Vandierendonck, de Voight, Van der Gotten, 1998) wymagało
wykorzystania zarówno hamowania dominującej (tu: rytmicznej) reakcji,
jak i odświeżania zawartości pamięci roboczej (Vandierendonck, 2000).
Zadanie to silnie angażuje funkcje zarządcze pamięci roboczej, przez co
jego realizacja jednocześnie z innymi zadaniami, wymagającymi kontroli,
prowadzi do nieuniknionej interferencji.

W badaniu stwierdzono zresztą także korelacje poziomów wykonania


poszczególnych testów funkcji zarządczych. Autorzy analiz zasugerowali,
że korelacje te mogą wynikać z faktu wykorzystywania przez badanych
dwóch ogólnych zdolności, które pomagają w rozwiązaniu każdego testu.
Po pierwsze, wszystkie wykorzystane testy wymagają utrzymywania
w pamięci roboczej uprzednio otrzymanych informacji o celu oraz treści
wykonywanego zadania. Wymagają zatem zarówno zasobów kontroli
uwagowej (aktywne podtrzymanie celu podanego w instrukcji), jak
i pojemności pamięci prospektywnej (przechowanie celu przyszłej
czynności; Marsh, Hicks, 1998). Po drugie, każde z zastosowanych zadań
wymaga generalnych zasobów systemu, które można przeznaczyć na
niespecyficzne hamowanie treści w danym momencie irrelewantnych.
Istnienie generalnej zdolności do hamowania postulowali np. Frank
Dempster i Alice Corkill (1999), jednak Friedman i Miyake (2004) nie byli
w stanie wykazać jej istnienia (zob. podrozdz. 6.2.2). Niestety, nie można
stworzyć zadań niewymagających udziału pamięci celu ani wykonywać ich
w warunkach niewymagających w ogóle hamowania informacji
nieistotnych. Odrębną kwestią pozostaje, czy odwołanie się do tak
ogólnych zdolności czy właściwości sytemu poznawczego dobrze wyjaśnia
stwierdzone korelacje poziomu wykonania poszczególnych zadań
wykorzystanych przez Miyakego i współpracowników.

Miyake z zespołem nazwali swoją koncepcję modelem jedności


i różnorodności funkcji zarządczych (unity and diversity). Ich jedność
przejawia się związkami korelacyjnymi łączącymi poziom wykonania
różnych zadań wymagających kontroli, a na wyższym poziomie abstrakcji
– związkami łączącymi wszystkie trzy zmienne latentne reprezentujące
wyodrębnione funkcje zarządcze. W oryginalnym badaniu (Miyake i in.,
2000b) trzy funkcje zarządcze ujawniły wzajemne powiązania na poziomie
od 0,42 (hamowanie z przełączaniem) poprzez 0,56 (odświeżanie
z przełączaniem), aż do 0,63 (odświeżanie z hamowaniem). W innych
badaniach (np. Friedman i in., 2008) te powiązania były jeszcze silniejsze
(odpowiednio: 0,73; 0,40 i 0,74). Natomiast różnorodność funkcji
zarządczych ma się przejawiać tym, że każda z nich – oprócz wariancji
wspólnej – ma też wariancję unikalną, niesprowadzalną do żadnej
z pozostałych funkcji. W szczególności przez dłuższy czas nie udało się
wykryć funkcji ogólnej, nadrzędnej w stosunku do pozostałych. Dopiero
badania Friedman i współpracowników (tamże) wykazały, że jest możliwe
wyekstrahowanie takiego czynnika ogólnego. Zastąpił on funkcję
hamowania, jak gdyby „wchłaniając” ją, przy czym przełączanie
i aktualizacja zachowały swą odmienność. Takie stanowisko prezentują
autorzy także w swoich ostatnich publikacjach (zob. Friedman, Miyake,
2017), choć w praktyce większość badaczy preferuje oryginalne,
trójczynnikowe rozwiązanie z roku 2000, traktując je jako „złotą regułę”
w badaniach nad funkcjami zarządczymi.

W oryginalnych badaniach (Miyake i in., 2000b) wykryto ponadto, że


rozwiązywanie jednego testu nie było związane z żadną z trzech funkcji
zarządczych. Co ciekawe, było to jedno z najbardziej złożonych zadań
włączonych do baterii testów, w którego wykonywanie powinno być
uwikłanych wiele różnych mechanizmów kontrolnych. Zadaniem tym był
test selektywnej uwagi w warunku koniecznej jej podzielności. Badani
musieli wykonywać jednocześnie dwa zadania: generowania słów
i rozróżniania kształtów geometrycznych. Wprawdzie zadania te
pozbawione były interferencji strukturalnej, ale trudność w ich wykonaniu
polegała na konieczności odpowiedniego zarządzania zasobami uwagi
(interferencja zasobowa) i pojemnością pamięci krótkotrwałej. Dlatego też
Fabienne Collette i Martial Van der Linden (2002) postulują dołączenie do
taksonomii funkcji zarządczych, zaproponowanej przez Miyakego
i współpracowników, kolejnego, czwartego ich rodzaju – koordynacji
wykonywania czynności jednoczesnych.

Collette i Van der Linden (tamże) dokonali także przeglądu badań nad
neuronalnymi korelatami funkcji zarządczych. Zaprzeczyli tezie, że funkcje
zarządcze należy lokalizować tylko w przednich płatach czołowych.
Wykonanie szeregu zadań na wszystkie cztery rodzaje funkcji zarządczych
wymagało aktywacji zarówno przednich płatów czołowych, jak i płatów
tylnych, a w szczególności ciemieniowych obszarów kory mózgowej nawet
wtedy, gdy wpływ obciążenia pamięci treścią zadania został z analiz
wykluczony. W innych badaniach, nad pacjentami z chorobą Alzheimera,
Fabienne Collette, Martial Van der Linden, Gael Delrue i Eric Salmon
(2002) wykazali, że dysfunkcje zarządcze mogą być związane nie tyle
z zaburzeniem funkcjonowania płatów czołowych, ile z uszkodzeniem
połączeń między przednimi a tylnymi rejonami mózgu. Z kolei Adrian
Owen (2000; Duncan, Owen, 2000) stwierdził, że mechanizm hamowania
dominującej reakcji należy lokalizować tylko w części przednich płatów
czołowych, zawierających obszary: środkową część grzbietowo-boczną,
środkową część brzuszno-boczną oraz grzbietową część przedniej części
zakrętu obręczy. Nowsze, omawiane wcześniej badania (Aron, Poldrack,
2006; Aron i in., 2004, 2014; Wessel, Aron, 2017) jeszcze bardziej
zawężają ten obszar, podkreślając rolę prawego płata czołowego dolnego
w hamowaniu reakcji. Jednocześnie wskazują na istotne znaczenie
połączeń tego obszaru kory ze strukturami jąder podstawy, szczególnie
z jądrem niskowzgórzowym.

Z analizy przedstawionych argumentów empirycznych wynika, że z jednej


strony w obrębie płatów czołowych może występować specjalizacja
dotycząca lokalizacji poszczególnych funkcji zarządczych, a z drugiej – że
rejonów mózgu odpowiedzialnych za sprawowanie funkcji zarządczych
należałoby poszukiwać również poza przednimi płatami czołowymi,
a nawet poza korą mózgową. Oznacza to, że poszukiwania w mózgu
lokalizacji homunculusa odpowiadającego za kontrolę są dalekie od
zakończenia. Próba teoretycznego opracowania koncepcji funkcji
zarządczych zaowocowała wieloma modelami kontroli poznawczej.
Najbardziej znanymi wśród nich są koncepcje: markerów somatycznych
(Damasio, Tranel, Damasio, 1991), mechanizmów uwagowych
(Botvinick, Braver, Barch, Carter, Cohen, 2001; Norman, Shallice, 1986;
Posner, 1980, 1994/1999; Shallice, 1988) oraz mechanizmów
pamięciowych (Baddeley, 1986, 1996, 2002). Dalej przedstawione zostaną
teorie uwagowe Posnera, Shallice’a i Botvinicka oraz teoria pamięciowa
Baddeleya, która de facto, jak się okaże, również jest teorią kontroli
uwagowej. Natomiast omówienie koncepcji markerów somatycznych
znaleźć można w pracy Aliny Kolańczyk i współpracowników (2004).

6.3.3. Mechanizm zarządczy w koncepcji uwagi Posnera


Mechanizm aktywacyjny uwagi – odpowiada za podtrzymanie umysłu w stanie pobudzenia
niezbędnego do wykonania określonych czynności poznawczych.

Zgodnie z koncepcją Michaela Posnera (1980, 1994/1999; Petersen,


Posner, 2012) istnieją trzy podstawowe mechanizmy uwagowe, zwane
również sieciami (attentional networks). Pierwszy z nich to mechanizm
aktywacyjny2 (alerting). Zadaniem uwagi jest m.in. podtrzymanie umysłu
w stanie pobudzenia niezbędnego do wykonania danej czynności
poznawczej. Zależność różnych aspektów funkcjonowania uwagi od
mechanizmu pobudzeniowego jest często uwzględniana, zwłaszcza
w koncepcjach uwagi podzielnej (Kahneman, 1973; Nęcka, 1994a; zob.
podrozdz. 5.2.4) oraz w teoriach przedłużonej w czasie koncentracji uwagi
(Davies, Parasuraman, 1982; Davies, Tune, 1969; zob. podrozdz. 5.2.3).
Zgodnie z tymi koncepcjami poziom pobudzenia jest wprost
proporcjonalny do ilości zasobów, jakie można przeznaczyć na jednoczesne
wykonanie różnych czynności poznawczych, oraz do ilości czasu,
w którym można koncentrować uwagę na rzadko pojawiających się
sygnałach.
Mechanizm orientacyjny uwagi – odpowiada za przenoszenie uwagi w polu percepcyjnym
z obiektu na obiekt.

Drugi system uwagi to mechanizm orientacyjny. Odpowiada on za


przenoszenie uwagi w polu percepcyjnym z obiektu na obiekt. Jego
funkcjonowanie opisują wyniki badań w paradygmacie przeszukiwania
pola wzrokowego (Treisman, 1988; Yantis, Jonides, 1984; zob. podrozdz.
5.2.2). Mechanizm orientacyjny włącza się, gdy w polu wzrokowym
nastąpi jakakolwiek zmiana stymulacji, np. wtedy, gdy pojawi się w nim
nowy bodziec (Yantis, Jonides, 1984) lub bodziec już obecny w polu
percepcyjnym zostanie wprawiony w ruch (Tarnowski, Terelak, 1996).
Bodziec taki przyciąga uwagę niezależnie od tego, czy jest sygnałem czy
dystraktorem (Theeuwes, 1994). Włączenie mechanizmu orientacyjnego
w odpowiedzi na zmianę w polu percepcyjnym ma charakter automatyczny,
a sprawowanie nad nim kontroli jest możliwe, ale znacznie utrudnione,
nawet gdy badani znają możliwą lokalizację sygnałów i bodźców
zakłócających (Godijn, Theeuwes, 2002).

Ostatnim z wyróżnionych przez Posnera i jednocześnie najważniejszym


z punktu widzenia tych rozważań systemem uwagi jest mechanizm
zarządczy. Odpowiada on za kontrolę wykonania czynności celowych (np.
za detekcję określonego typu sygnałów). Mechanizm zarządczy bierze górę
nad mechanizmem orientacyjnym w przypadku funkcjonowania uwagi
człowieka dorosłego. Sprawia np., że podróżny poszukuje informacji
o czasie odjazdu pociągów na żółtym rozkładzie jazdy (rozkład odjazdów),
a nie na białym (rozkład przyjazdów). Mechanizm orientacyjny odpowiada
więc z grubsza uwadze mimowolnej, a zarządczy – uwadze dowolnej.
Przewagę mechanizmu zarządczego nad orientacyjnym wykazał w swoich
badaniach Jan Theeuwes wraz ze współpracownikami (1999; Godijn,
Theeuwes, 2002), choć uzyskane w nich wyniki był on skłonny
interpretować przeciwnie (zob. Theeuwes, 2001; Szymura, 2003). W ich
eksperymentach okazało się, że w przypadku tylko jednej trzeciej ogółu
zadań detekcyjnych badani ulegali mechanizmom orientacyjnym,
programując błędny ruch sakkadowy w stronę lokalizacji pojawiającego się
właśnie w ich polu widzenia dystraktora, mimo że zdawali sobie sprawę, że
w tej lokalizacji pojawienie się sygnału nie jest możliwe. Po 100 ms
fiksacji na bodźcu zakłócającym mechanizm zarządczy uwagi dokonywał
korekty, programując ruch sakkadowy w kierunku lokalizacji następnego
sygnału pojawiającego się w polu wzrokowym. Jednakże w przypadku aż
dwóch trzecich ogółu zadań detekcyjnych mechanizm zarządczy
sprawował skuteczną kontrolę nad mechanizmem orientacyjnym,
zapobiegając przekierowaniu uwagi, a w konsekwencji również percepcji,
na bodziec zakłócający.

W innym eksperymencie Jan Theeuwes i Remca Burger (1998) wykazali,


że mechanizm zarządczy może skutecznie ograniczyć interferencję płynącą
z bodźców zakłócających, jeśli system poznawczy z wyprzedzeniem zna
np. kolor odróżniający oba rodzaje bodźców: sygnał i dystraktor. Z kolei
wiadomo, że fałszywe wskazówki dla mechanizmu zarządczego znacznie
pogarszają efektywność uwagi selektywnej – mechanizm zarządczy steruje
wtedy mechanizmem orientacyjnym w stronę, w której sygnał się nie
pojawia, a szybkość detekcji znacznie się obniża (Posner, Nissen, Ogden,
1978; Theeuwes, Kramer, Atchley, 1999).

Z przytoczonych danych wynika, że zarządczy mechanizm uwagi


odpowiada za takie funkcje kontrolne jak hamowanie uwagowego odruchu
orientacyjnego oraz kontrola interferencji pochodzenia zewnętrznego
(odporność na dystrakcję). Niepowodzenie w funkcjonowaniu tego
mechanizmu odpowiada natomiast za hamowanie powrotu (inibition of
return), czyli niedopuszczanie do powrotu uwagi do wskazanego miejsca
pojawienia się sygnału. Hamowanie powrotu zostało stwierdzone po raz
pierwszy przez Michaela Posnera i Yoava Cohena (1984). Zauważyli oni,
że relewantna wskazówka odnośnie do lokalizacji sygnału przyspiesza jego
detekcję do 150 ms po jej prezentacji. Jednak w 300 ms po prezentacji
relewantnej wskazówki dochodzi do zmniejszenia szybkości detekcji
sygnału w pozycji przez nią wskazanej. Po wczesnym ułatwieniu
(facylitacja) następuje zatem późne utrudnienie (hamowanie) reakcji na
sygnał. Dłuższa przerwa (300 ms) jak gdyby unieważnia wcześniejszą
wskazówkę. Uwaga „już była” w miejscu wskazywanym, niczego ważnego
nie wykryła, więc potraktowała to miejsce jako nieistotne. Dlatego powrót
w nie jest trudny, bo wymaga ponownego skupienia uwagi na czymś, co
chwilę wcześniej udowodniło swoją nieprzydatność. Natomiast krótsza
przerwa (150 ms) dostarcza istotnej wskazówki w czasie optymalnym, aby
skupić uwagę na miejscu wskazywanym, ale nie „odkleić” jej z powodu
zbyt długiego oczekiwania. Cały ten proces dokonuje się oczywiście bez
jakiegokolwiek udziału świadomości, choć mechanizm hamowania
powrotu może być świadomie wykorzystywany, np. w sportach walki lub
w grach zespołowych. Doskonałą tego ilustracją są zwody wykonywane
przez zawodnika prowadzącego piłkę w celu zmylenia przeciwnika.

Hamowanie powrotu jest niezależne od modalności sygnału, ale zależne od


jego intensywności, co klasyfikuje ten proces jako uwagowy (Reuter-
Lorenz, Jha, Rosenquist, 1996; Wang, Klein, 2010). Jedno z wyjaśnień
efektu hamowania powrotu, zgodne z teorią Posnera, sugeruje, że czas 200
ms od prezentacji wskazówki (w odchyleniu od 150 do 300 ms) jest
interwałem, w którym mechanizm orientacyjny nakierowany przez
mechanizm zarządczy na lokalizację potencjalnego sygnału (zgodnie ze
wskazówką) oczekuje na pojawienie się spodziewanego bodźca. Brak
oczekiwanego bodźca, interpretowany przez system prawdopodobnie jako
nieskuteczność funkcjonowania mechanizmu zarządczego, powoduje
przejęcie kontroli nad uwagą przez mechanizm orientacyjny i poszukiwanie
bodźca w innej lokalizacji (Kolańczyk i in., 2004).

Kontrola uwagowa jest, zgodnie z modelem Posnera, sprawowana


odgórnie (top-down) i ma charakter wewnętrzny (endogenous) – to
właśnie mechanizm zarządczy efektywnie determinuje, co i w jaki sposób
będzie dalej przetwarzane. Mechanizm ten ma ogólną przewagę nad
mechanizmem orientacyjnym. Percepcja podąża więc z reguły za uwagą,
a nie uwaga za percepcją. Wyjątkiem są sytuacje, w których mechanizm
zarządczy nie jest jeszcze dostatecznie ukształtowany (labilna uwaga
małych dzieci), albo rodzi się niepewność odnośnie do pojawienia się
sygnału (hamowanie powrotu) bądź stosowanej zasady selekcji. Wtedy
mechanizm orientacyjny bierze górę nad zarządczym, a przetwarzanie
informacji sterowane jest oddolnie (bottom-up) i ma charakter zewnętrzny
(exogenous), przez co uwaga podąża za percepcją, jest automatycznie
nakierowana na spostrzegany obiekt (Chun, Wolfe, 2001; Duncan, 1985).

Trzy systemy uwagi opisane przez Posnera i współpracowników są od


siebie niezależne, co ujawnia się na poziomie behawioralnym
i neuronalnym – zarówno w odniesieniu do obwodowego, jak
i ośrodkowego systemu nerwowego. Na poziomie behawioralnym
odrębność wszystkich trzech systemów badano z użyciem testu sieci uwagi
(Attention Network Test, ANT; Fan, McCandliss, Sommer, Raz, Posner,
20023). Interkorelacje wyników tego testu w odniesieniu do każdego
z trzech systemów wahają się od – 0,12 do + 0,08 i są statystycznie
nieistotne (tamże). Równie słabe zależności zaobserwował MacLeod ze
współpracownikami (2010), choć ze względu na dużą liczebność próby
niektóre z nich przekroczyły poziom istotności statystycznej. Na poziomie
obwodowego układu nerwowego odrębność tych trzech systemów ujawnia
się poprzez zróżnicowane reakcje źrenicy oka, rytmu serca
i przewodnictwa elektrycznego skóry podczas wykonywania odpowiednich
zadań z ANT (zob. m.in. Geva, Zivan, Warsha, Olchik, 2013). Natomiast na
poziomie ośrodkowego układu nerwowego obserwuje się zróżnicowany
wzorzec aktywności mózgu podczas wykonywania zadań z ANT
odpowiadających każdej z trzech sieci uwagi (Fan, McCandliss, Fossella,
Flombaum, Posner, 2005). Wyniki niektórych badań sugerują też, że każda
sieć może wykorzystywać osobne szlaki neuroprzekaźnictwa i mieć różne
uwarunkowania genetyczne (Posner, Rothbart, Sheese, Voelker, 2014).
6.3.4. Dwustopniowy system kontroli zachowania w koncepcji
Shallice’a
Zgodnie z koncepcją Tima Shallice’a (1988; Norman, Shallice, 1986)
zachowanie jest kierowane w większości przez automatyzmy (rutyny),
zarówno pierwotne (odruchy), jak i wtórne (nawyki). Czasami zdarza się
jednak, że poszczególne czynności automatyczne pozostają ze sobą
w konflikcie. Na przykład czynność kierowania samochodem w drodze do
domu w miejscu stałego zamieszkania pozostaje w konflikcie z reakcją na
czerwone światło (sygnał stop) w miejscu przejścia dla pieszych.
W przypadku konfliktu czynności automatycznych o tym, która czynność
jest realizowana jako pierwsza, decyduje system kontroli czynności
automatycznych, również działający w sposób automatyczny. Jego
zadaniem jest hamowanie tych wszystkich rutyn, które w mniejszym
stopniu – niż wyselekcjonowana czynność automatyczna – są dostosowane
do sytuacji bodźcowej. Warto zwrócić uwagę, że w koncepcji systemu
kontroli czynności automatycznych Shallice proponuje nieco inne niż
Logan (1988, 2002) w swojej teorii rywalizacji egzemplarzy kryterium
rozstrzygania o tym, który proces wygrywa wyścig o pierwszeństwo
w wykonaniu. To dostosowanie czynności do sytuacji bodźcowej, a nie
liczba dowodów skutecznego stosowania tej czynności, decyduje –
zdaniem Shallice’a – o jej uruchomieniu. W podanym wcześniej
przykładzie czynność prowadzenia samochodu zostanie automatycznie
powstrzymana – jest ona bowiem zupełnie niedostosowana do warunków
jazdy (czerwone światło dla kierunku jazdy). Ogólnym zadaniem
mechanizmu automatycznego, selektywnego hamowania działań
rutynowych jest ustalenie rozkładu jazdy czynności automatycznych
(contention scheduling). Zgodnie z takim rozkładem czynność kierowania
samochodem zostaje uruchomiona jako druga w kolejności, w momencie
gdy zmienią się warunki sytuacji (zapali się zielone światło dla kierunku
jazdy).

System kontroli czynności automatycznych jest jednak nieskuteczny


w sytuacjach nowych, w których stosowanie rutyny kończy się z reguły
niepowodzeniem. W takich bowiem warunkach trzeba zahamować
dominującą reakcję, monitorować i korygować błędy wynikające z prób
dostosowania posiadanych schematów do nowych układów bodźców je
wyzwalających, a także podejmować złożone decyzje i tworzyć nowe plany
działań. Kontrolą przetwarzania informacji w takich warunkach zajmuje się
nadzorczy system uwagi (supervisory attentional subsystem, SAS;
Shallice, 1988; Norman, Shallice, 1986; inna polska nazwa tego systemu to
dominujący system zadaniowy – zob. Kolańczyk i in., 2004). System ten
zaangażowany jest zawsze, kiedy między dwiema celowymi czynnościami
nieautomatycznymi występuje konflikt interesów, powodowany przez
niespójność bodźców, ich reprezentacji w umyśle czy generowanych
w odpowiedzi na nie reakcji. Podobnie jak w przypadku systemu kontroli
czynności automatycznych, zadaniem SAS jest układanie „rozkładu jazdy”
czynności kontrolowanych oraz ich bieżący monitoring (scheduling and
control).

Zadanie to SAS realizuje poprzez tworzenie ad hoc nietrwałej reprezentacji


umysłowej dla sytuacji problemowej, zawierającej plan działania
w odniesieniu do bodźców wyzwalających. Reprezentacja jest tworzona
przez system kontroli, czyli selektywne zestawianie ze sobą danych
umysłowych (pamięć długotrwała) i danych zmysłowych (bodźce
z otoczenia). Działanie SAS można więc z jednej strony (uwagowej) opisać
jako proces rekonfiguracji zestawów zadaniowych (Rogers, Monsell, 1995;
zob. podrozdz. 5.2.5; Shallice, 1988, był zwolennikiem koncepcji
modularności umysłu; zob. rozdz. 1), a z drugiej (pamięciowej) – jako
proces modyfikacji i nabywania schematów pamięciowych (przez przyrost
informacji, dostrajanie i restrukturalizację; Rumelhart, Norman, 1978,
1981). Błędy kontroli ze strony SAS pojawiają się wtedy, gdy schematy
pamięciowe zostają zastosowane automatycznie, bez koniecznej korekty,
uwzględniającej nowość sytuacji bodźcowej. Na przykład gdy zadaniem
jest podrzucenie w drodze do domu kogoś mieszkającego na sąsiednim
osiedlu, SAS dostosowuje plan jazdy do zadania. Jeśli jednak kierowca
zaangażuje się w rozmowę z pasażerem, jego system kontroli czynności
może przełączyć monitoring prowadzenia samochodu z poziomu
kontrolowanego na automatyczny, angażując się na wyższym poziomie
nadzoru w kontrolę rozmowy. W takiej sytuacji prawdopodobnie kierowca
będzie musiał podwozić pasażera znacznie dalszą drogą, przebiegającą
najpierw przez jego osiedle (co zapewne stwierdzi z zażenowaniem).
System kontroli czynności nieautomatycznych posługuje się więc
mechanizmami selektywnej inhibicji i selektywnej aktywacji
w konstruowaniu nowych planów działania.

Z założeń modelu kontroli zachowania według Shallice’a wynikają trzy


istotne konsekwencje. Po pierwsze (wskazuje na to również przywołany
przykład), działanie systemu kontroli czynności nieautomatycznych może
zostać upośledzone w sytuacji wykonywania zadań jednoczesnych
o porównywalnym priorytecie. Słuszność tego przypuszczenia wykazali
Shallice i współpracownicy (1994; Shallice, Burgess, 1996; zob. jednak
Baddeley, Lewis, Eldridge, Thompson, 1984). Osoby badane w ich
eksperymentach miały problemy z przywoływaniem informacji z pamięci
epizodycznej podczas wykonywania jednoczesnego zadania wymagającego
koncentracji uwagi. W pamięci epizodycznej przechowywane są ślady
skuteczności działania schematów w poszczególnych sytuacjach
bodźcowych. Utrudnienie przywoływania tych informacji może
powodować problemy w tworzeniu adekwatnego planu działania w nowej
sytuacji. Po drugie, system kontroli czynności nieautomatycznych może
funkcjonować skutecznie jedynie przy efektywnym hamowaniu
interferencji ze strony danych zawartych w pamięci (Gilbert, Shallice,
2002). W warunkach nowości nie istnieje bowiem gotowa do zastosowania,
automatyczna czynność, a przywoływanie z pamięci dotyczy różnych
schematów lub ich elementów, które muszą być następnie selektywnie
hamowane lub aktywizowane. Po trzecie, ponieważ umysł zmuszony jest
permanentnie funkcjonować w sytuacji zadań jednoczesnych, jednym
z najważniejszych mechanizmów kontrolnych SAS powinien być
mechanizm przerzutności między elementami aktualnie przetwarzanych
schematów działań (Shallice, 1988). Efektywne przełączenia, np. między
czynnościami prowadzenia samochodu i rozmowy z pasażerem,
zapobiegają błędom SAS.

Nadzorczy system uwagi lokalizowano – podobnie jak pozostałe funkcje,


mechanizmy czy systemy zarządcze – w obrębie przednich płatów
czołowych (Shallice, 1988; Norman, Shallice, 1986). W badaniach
pacjentów z uszkodzonymi tymi właśnie strukturami mózgowymi
stwierdzono występowanie błędów perseweratywności (Shallice, 1982).
Osoby te nie były w stanie dostosować planu swojego działania do
zmieniających się warunków stymulacji. Kontynuowały wykonanie starego
planu (rutyny), nawet gdy nie było to im pomocne w danej sytuacji lub nie
było to od nich wymagane (Shallice, Burgess, Schon, Baxter, 1989).
Z kolei Owen i współpracownicy (1993) wykazali istotne zaburzenia
w zakresie funkcjonowania przerzutności uwagi u badanych z deficytami
neuronalnymi przednich płatów czołowych. Dane te potwierdzają zarówno
lokalizację SAS, jak i podstawowe znaczenie dla funkcjonowania tego
systemu, jakie ma mechanizm przerzutności uwagi, pozwalający na
radzenie sobie w sytuacji zadań jednoczesnych.

Dwustopniowy model kontroli poznawczej Shallice’a, obejmujący system


kontroli czynności automatycznych i system kontroli czynności
nieautomatycznych, jest wprawdzie modelem kontroli uwagowej, ale
w znacznie większym stopniu niż model Posnera odnosi się do trwałych
reprezentacji pamięciowych. W modelu tym dużą rolę odgrywają
mechanizmy hamowania interferencji pamięciowej, wśród mechanizmów
uwagowych zaś znacznie większe znaczenie mają procesy uwagowe
wyższego rzędu, związane z zarządzaniem zasobami (kontrola czynności
jednoczesnych) czy rekonfiguracją zestawów zadaniowych (kontrola
przerzutności uwagi), niż procesy uwagowe niższego rzędu, związane
z kontrolą percepcyjną (mechanizm zarządczy sprawujący kontrolę nad
mechanizmem orientacyjnym). Modele uwagowej kontroli Posnera
i Shallice’a są więc komplementarne – wskazują bowiem na inne
mechanizmy kontroli poznawczej, które są realizowane w ramach różnych
aspektów uwagi (selektywność vs. przerzutność i podzielność) i są
wzbudzane w zależności od poziomu złożoności sytuacji (prosta detekcja
vs. złożone zachowanie).

6.3.5. Centralny system wykonawczy pamięci roboczej


w modelu Baddeleya
Alan Baddeley (1986) zapożyczył model SAS od Shallice’a i wykorzystał
go w tworzeniu własnej koncepcji centralnego systemu wykonawczego
(central executive; Baddeley, 2002; Olivie, 2004). System ten jest jednym
z elementów pamięci roboczej (working memory, WM; Baddeley, 1986,
2002; Baddeley, Hitch, 1974). Koncepcja pamięci roboczej omówiona
została w innym miejscu (zob. podrozdz. 8.2.3). Dalej scharakteryzowana
zostanie jedynie rola, jaką odgrywa w systemie poznawczym centralny
system wykonawczy.

Wprawdzie Baddeley (1986, 1996) wyraźnie sugerował, że centralny


system wykonawczy sprawuje swoje funkcje kontrolne w sposób bardzo
zróżnicowany, ale badania mechanizmów jego funkcjonowania skupiły się
jedynie na problemie kontroli wykonania zadań jednoczesnych (Baddeley
i in., 1997). Alan Baddeley i Vivien Lewis (1981) wykazali np. możliwość
jednoczesności przetwarzania dwóch różnych informacji werbalnych.
Badani w paradygmacie podążania byli zdolni do powtarzania zasłyszanej
prozy oraz decydowania o rymach pokazywanych im jednocześnie
wyrazów. Baddeley (1990) poprosił również badanych o jednoczesne
wykonywanie zadania Sternberga (1966) na przeszukiwanie pamięci
krótkotrwałej i weryfikowanie prawdziwości zdań w paradygmacie
podejmowania decyzji semantycznych (Smith, Shoben, Rips, 1974).
Okazało się, że badani radzili sobie z jednoczesnym wykonywaniem obu
zadań, a jedyne koszty, które ponosili, były kosztami czasowymi
(wydłużenie czasu weryfikacji zdań o 33%) w warunku maksymalnego
(osiem elementów) obciążenia pamięci roboczej.

Natomiast badania prowadzone nad pacjentami z chorobą Alzheimera


pokazały, że jednoczesne wykonywanie dwóch zadań (śledzenie obiektów
w polu wzrokowym oraz przechowywanie cyfr w pamięci krótkotrwałej)
jest znacznie upośledzone w przypadku tych pacjentów w porównaniu ze
zdrowymi osobami badanymi z grupy kontrolnej, mimo że w wykonaniu
pojedynczym tych zadań nie stwierdzono żadnych różnic między
wyróżnionymi grupami (Baddeley, Bressi, Della Sala, Logie, Spinnler,
1991; Logie, Della Sala, Wynn, Baddeley, 2000). Badani pacjenci
z chorobą Alzheimera szybciej także ulegali zmęczeniu, gdy zmuszeni byli
kontrolować te dwa zadania jednocześnie (Della Sala, Baddeley, Papagno,
Spinnler, 1995). Baddeley i współpracownicy (1997) zbadali ponadto dwie
grupy pacjentów z lezjami przednich płatów czołowych. Grupy te różniły
się ze względu na występowanie syndromu czołowego. Wszyscy badani
wykonywali test zadań podwójnych, na który składały się test WCST
(Wisconsin Card Sorting Test – test selektywności w warunku przerzutności
uwagi) oraz zadanie na płynność słowną. Nie stwierdzono żadnych
istotnych różnic w zakresie wykonania pojedynczych zadań przy
porównaniu obu badanych grup. Pacjenci z syndromem czołowym
wykazali się jednak znacznie gorszą koordynacją wykonania obu tych
zadań jednocześnie – ich wyniki w warunku zadań podwójnych były
znacznie gorsze niż rezultaty uzyskane przez badanych z grupy
niewykazującej syndromu czołowego.

Centralny system wykonawczy zdaniem Baddeleya (1993, 2002) jest


więc odpowiedzialny za kontrolę zadań jednoczesnych. Jego głównym
zadaniem jest zarządzanie zasobami uwagowymi systemu poznawczego
i przeznaczanie ich do wykonywania czynności jednoczesnych. Kontrola
czynności jednoczesnych, jak pokazały wcześniejsze badania Baddeleya
i współpracowników, jest możliwa, a redukcja kosztów poznawczych
w wyniku efektywnej kontroli – wydajna. Istnieją jednak takie zadania,
które wydają się pobierać całą dostępną moc centralnego systemu
wykonawczego i ich kontrolowanie jednocześnie z innymi zadaniami
okazuje się niemożliwe. Przykładem służy tu test generowania liczb
losowych. Alan Baddeley, Hazel Emslie, Jonathan Kolodny i John Duncan
(1998) wykazali, że jednoczesne generowanie liczb losowych
i wykonywanie równoległych zadań, zarówno werbalnych, jak
i wizualnych, prowadzi do nieredukowalnych kosztów w zakresie
wykonywania tych ostatnich.
Baddeley (1996, 2002) nie widzi zresztą większych funkcjonalnych różnic
między systemem dystrybucji zasobów (Kahneman, 1973) a centralnym
systemem wykonawczym swojej koncepcji pamięci roboczej. Dodatkowym
argumentem za tym, że centralny system wykonawczy ma charakter
uwagowego systemu kontrolnego, były wyniki badań Alana Baddeleya,
Vivien Lewis, Margery Eldridge i Neila Thompsona (1984). Wykazali oni,
że wprawdzie zadanie doładowujące w paradygmacie zadań podwójnych
upośledza zapamiętywanie (co jest przecież funkcją uwagi; zob. hipotezę
uwagową; Logan, Etherton, 1994; Logan, Taylor, Etherton, 1996), jednak
nie wpływa ono w żadnym stopniu na przywołanie informacji z pamięci.
Dlatego nadzorczy system uwagi SAS i centralny system wykonawczy
pamięci roboczej są przypuszczalnie różnymi konstruktami. Podczas gdy
ten pierwszy funkcjonuje na podstawie informacji przywołanych z pamięci
długotrwałej i selektywnego hamowania wybranych trwałych reprezentacji
umysłowych, to mechanizm działania tego drugiego dotyczy kontroli
jedynie w aspekcie hamowania interferencji uwagowej, związanej
z rywalizacją o zasoby systemu.

Centralny system wykonawczy lokalizowany jest w przednich płatach


czołowych, choć jego umiejscowienie należałoby jeszcze doprecyzować,
bo nie wszystkie uszkodzenia tej struktury mózgu są związane z deficytami
w zakresie funkcjonowania tego systemu, a jedynie te, które wiąże się
z syndromem czołowym. Nie do końca jest także jasne, czy centralny
system wykonawczy pamięci roboczej jest jednolity strukturalnie
i funkcjonalnie. Postulowane przez Baddeleya (1996) badania z użyciem
dużej liczby zadań w najprzeróżniejszych ich jednoczesnych kombinacjach,
wraz z zastosowaniem analiz korelacyjnych i czynnikowych (podobnie jak
w przypadku mechanizmu hamowania – zob. Friedman, Miyake, 2004) nie
zostały do tej pory konsekwentnie podjęte. Zdaniem Baddeleya (2002, s.
89) centralny system wykonawczy jest jednak kandydatem na
poszukiwanego przez psychologię poznawczą homunculusa kontrolującego
zachowanie. Nowsze podsumowania badań (np. D’Esposito, Postle, 2015)
wskazują, że mózgowe podłoże centralnego systemu wykonawczego
w koncepcji Baddeleya jest rozproszone, z istotnym udziałem kory
przedczołowej, szczególnie jej grzbietowo-bocznej i środkowej części. Inne
struktury jednak, np. jądra podstawne czy neuromodulacyjne układy pnia
mózgu silnie połączone z korą przedczołową, także odgrywają istotną rolę
w kontroli przetwarzania informacji w pamięci roboczej.

6.3.6. Teoria monitorowania konfliktu


Matthew Botvinick i współpracownicy (2001; Botvinick, Cohen, Carter,
2004, zob. też Botvinick, 2007) zaproponowali jeszcze inną teorię kontroli
poznawczej. Teoria ta stara się odpowiedzieć na trzy kluczowe pytania: (1)
Jakie czynniki sprawiają, że kontrola poznawcza jest aktywowana? (2) Jeśli
procesy kontroli poznawczej są aktywowane w celu nadzorowania
wykonywanych zadań poznawczych, to w jaki sposób są one modulowane
i optymalizowane? (3) Jakie procesy mają wpływ na to, że kontrola
poznawcza jest wycofywana? Ich model kontroli poznawczej jest modelem
koneksjonistycznym (siecią neuropodobną), który odpowiada na te pytania
w sposób mechanistyczny. Jak większość modeli koneksjonistycznych
(Rumelhart, McClelland, 1986) model ten posiada warstwę jednostek
(neuronów) kodujących informacje na wejściu i warstwę jednostek
odpowiadających za emisję reakcji. Podstawowym mechanizmem jego
działania (tak jak wszystkich innych modeli koneksjonistycznych) jest
rozchodzenie się aktywacji w sieci.
Autorzy teorii przyjmują kontrowersyjne założenie, że kontrola poznawcza
dokonuje się na etapie nadzorowania reakcji, czyli na etapie decyzji, którą
reakcję wyemitować (a nie np. na etapie selekcji bodźców czy ich
utrzymywania w pamięci roboczej). Podstawowym pojęciem tej teorii jest
monitorowanie konfliktu. W przypadku dwóch możliwych,
konkurencyjnych reakcji (np. przeczytać słowo lub nazwać kolor w zadaniu
Stroopa) w momencie ich przygotowania w systemie poznawczym
powstaje konflikt. Miarą konfliktu w modelu Botvinicka jest energia
w rozumieniu fizyka Johna Hopfielda (1982). Pojęcie to zostało przezeń
wprowadzone do rozważań nad działaniem sieci neuropodobnych –
energia, jako ogólna właściwość sieci neuronalnej, jest wynikiem
pomnożenia i zsumowania aktywacji wszystkich jednostek w danej sieci.
Jest to więc miara ogólnego poziomu pobudzenia sieci.

Model Botvinicka zakłada, że w systemie poznawczym istnieje jednostka


monitorująca poziom konfliktu. Jej aktywacja zależy od poziomu konfliktu
wyrażonego jako energia Hopfielda. Według tego modelu energia jest
obliczana w warstwie neuronów odpowiadających za reakcję, w związku
z czym to właśnie konflikt na poziomie reakcji istotnie determinuje
aktywację jednostki monitorującej. Jednostka ta przekazuje swoją
aktywację dalej, do neuronów kontekstowych, które sterują procesami
uwagi przez wzmacnianie odpowiednich aktywacji w warstwie neuronów
odpowiadających za percepcję bodźców. Aktywacja z warstwy neuronów
percepcyjnych jest przekazywana do jednostek odpowiadających za emisję
reakcji. Istotną właściwością tej warstwy jednostek jest hamowanie
oboczne – jednostki te nawzajem wyhamowują swoją aktywność,
prowadząc do powstawania efektu „zwycięzca bierze wszystko” (winner-
takes-all). W rezultacie aktywacja najbardziej pobudzonej jednostki
prowadzi do skutecznego wyhamowywania aktywacji jednostek
konkurencyjnych i do emisji jednej reakcji. Innymi słowy, jest to
mechanizm kontroli poznawczej funkcjonujący na gruncie procesu
monitorowania konfliktu, który moduluje selekcję reakcji.

Oprócz opisania w precyzyjny sposób mechanizmu kontroli poznawczej na


podstawie monitorowania konfliktu teoria ta wyraźnie określa mózgowy
mechanizm kontroli poznawczej. Częścią mózgu odpowiedzialną według
Botvinicka za monitorowanie konfliktu jest przednia część zakrętu obręczy
(anterior cingulate cortex, ACC). Dane neuroanatomiczne pokazują, że
struktura ta odgrywa w ludzkim mózgu rolę łącznika – jest silnie połączona
z wieloma innymi strukturami, przede wszystkim w przedniej korze
czołowej, ale również ze strukturami podkorowymi – np. prążkowiem czy
pniem mózgu. Co równie ważne, badania neurofizjologiczne wyraźnie
wspierają tezę, że przednia część zakrętu obręczy reaguje na obecność
konfliktu w zadaniach poznawczych i motorycznych (Carter, Van Veen,
2007). Według Botvinicka i współpracowników (2001, 2004)
prawdopodobne podłoże neuronalne mechanizmu kontroli postulowanego
w ich teorii stanowią połączenia przedniej części zakrętu obręczy ze
strukturami pnia mózgu regulującymi pobudzenie – z układami
dopaminergicznym i noradrenergicznym, które z kolei istotnie modulują
działanie kory przedczołowej (Arnsten, Li, 2005; Aston-Jones i Cohen,
2005; Miller i Cohen, 2001; Servan-Schreiber, Printz, Cohen, 1990). Kora
przedczołowa z kolei, szczególnie boczna kora przedczołowa w prawej
półkuli, odgrywa kluczową rolę w procesach hamowania niepożądanych
reakcji, co obserwujemy w takich zadaniach jak sygnał-stop czy zadanie
Stroopa (Aron i in., 2004, 2014). Teoria ta zyskuje obecnie na znaczeniu,
ponieważ wyjaśnia w precyzyjny sposób szeroki zakres zjawisk
dotyczących kontroli poznawczej. Ważne jest również to, że w wyraźny
sposób łączy ze sobą psychologię i neuronaukę poznawczą – obie te
dziedziny dostarczają coraz więcej dowodów wspierających główne tezy
tej teorii.

6.4. Podsumowanie
Czy teza Daniela Dennetta, że „umysł to armia idiotów”, znajduje
potwierdzenie w treści niniejszego rozdziału? Sens tej przewrotnej
i prowokacyjnej tezy sprowadza się do tego, że nauka musi odrzucić
wszelkie próby wyjaśnienia zjawiska kontroli poznawczej, które w ten czy
inny sposób odwołują się do homunculusa. Jeśli tego nie zrobi, będzie
musiała szukać odpowiedzi na pytanie, kto kontroluje homunculusa itd. Jak
się wydaje, psychologia jest jeszcze dość daleko od tego celu. Liczne
koncepcje kontroli poznawczej w ten czy inny sposób „przemycają”
homunculusa do architektury umysłu, nadając mu inne nazwy, takie jak
centralny system zarządczy, nadzorczy system uwagi lub funkcje
zarządcze4. W rozdziale omówiliśmy te koncepcje oraz wiele badań
empirycznych mających na celu ich weryfikację. Najważniejsze z nich to:
teoria kontinuum Schneidera i Shiffrina, teoria egzemplarzy Logana, teoria
uwagowego systemu wykonawczego Normana i Shallice’a, teorie Posnera,
Baddeleya oraz Botvinicka i współpracowników, oraz paradygmaty:
zadanie Stroopa, sygnał-stopu i poprzedzanie negatywne. Opisane
koncepcje i badania niosą ważną treść i duży ładunek rzetelnej wiedzy,
a jednak ciągle tkwią w pułapce zastawionej przez ukrytego homunculusa.
Prawdziwy przełom w badaniach nad kontrolą i samokontrolą dokona się
prawdopodobnie dopiero gdy psychologia empiryczna zmierzy się
z problemem podmiotu. Wydaje się, że jest to jedno z ważniejszych
wyzwań stojących przed tą dyscypliną.
Rozdział 7

Percepcja

Podstawowe właściwości percepcji


Recepcja sensoryczna i percepcja umysłowa
Naiwne koncepcje spostrzegania
Spostrzeganie a rozpoznawanie wzorców
Spostrzeganie jako proces oddolny
Odbiór i kodowanie wrażeń zmysłowych
Magazyny informacji sensorycznej
Spostrzeganie głębi
Identyfikacja obiektu
Spostrzeganie jako proces odgórny
Stałość spostrzegania
Nastawienie
Złudzenia i błędy percepcji
Wpływ kontekstu na spostrzeganie
Teorie percepcji
Teoria asocjacjonistyczna
Teoria postaciowa
Teoria wzorców
Teoria cech
Teoria obliczeniowa
Teoria ekologiczna
Proces spostrzegania w praktyce
Spostrzeganie twarzy
Czytanie słów
Podsumowanie
Jak zauważył Blaise Pascal: „Jest lepiej patrzeć na coś z punktu widzenia
całości, niż na całość z punktu widzenia jednej rzeczy”. Do tej intuicji
XVII-wiecznego francuskiego filozofa współczesny psycholog poznawczy
mógłby dodać, że najczęściej tak właśnie się dzieje. Patrząc na coś,
widzimy raczej cały obiekt niż składające się nań części. Widzimy
przedmiot, a nie tworzące go kształty, kolory, kontury i inne atrybuty.
Możemy oczywiście nazwać kolor obiektu, ale najpierw rozpoznajemy, co
to za obiekt, a dopiero wtórnie skupiamy uwagę na jego cechach lub
składnikach. W przypadku innych zmysłów, czyli słuchu, dotyku, węchu
i smaku, zasada prymatu całości nad częścią jest trudniejsza do
udowodnienia, ale istnieją poważne argumenty za nią przemawiające. Na
przykład słuch dostarcza nam informacji o tym, jaki obiekt słyszymy,
a smak – co jemy. Do organizmu docierają pojedyncze sygnały pozbawione
znaczenia, np. fale świetlne lub akustyczne o określonych parametrach
amplitudy i częstotliwości. System poznawczy dokonuje olbrzymiego
wysiłku, aby te sygnały zinterpretować, co prowadzi go do identyfikacji
obiektu, stanowiącego źródło stymulacji. Psychologia poznawcza bada
i opisuje czynność identyfikacji obiektów w procesie spostrzegania, a także
rozpoznaje czynniki mające wpływ na przebieg tego procesu.

Percepcja to zresztą nie pojedynczy proces, a zbiór procesów


poznawczych. Ich zadanie polega na zapewnieniu nam kontaktu
z rzeczywistością, czyli z wydarzeniami mającymi miejsce poza
organizmem, a ściślej rzecz biorąc – poza układem nerwowym, bo do
zadań percepcji należy też dostarczanie danych o stanie narządów
wewnętrznych (np. bólu brzucha) i aktualnym położeniu kończyn
(propriocepcja, tj. czucie własne). W wyniku tych procesów pojawiają się
w umyśle spostrzeżenia (percepty), czyli nietrwałe umysłowe reprezentacje
obiektów. Spostrzeżenia mają postać obrazową, są nietrwałe, choć od
samego początku procesy spostrzegania podlegają wpływom ze strony
reprezentacji trwałych (pojęcia, schematy) oraz struktur wiedzy.

7.1. Podstawowe właściwości percepcji

7.1.1. Recepcja sensoryczna i percepcja umysłowa


Recepcja sensoryczna polega na odzwierciedleniu bodźców w receptorach, czyli narządach
zmysłów. Stanowi konieczny warunek i pierwszy etap procesu spostrzegania.
Percepcja (spostrzeganie) to proces aktywnej interpretacji danych zmysłowych z wykorzystaniem
wskazówek kontekstualnych, nastawienia i wcześniej nabytej wiedzy. W wyniku percepcji dochodzi
do rozpoznania obiektu, np. przedmiotu.

Stanowisko konstruktywistyczne w psychologii poznawczej zakłada


aktywność umysłu w poznawaniu rzeczywistości. Proces spostrzegania nie
jest z tego punktu widzenia biernym odzwierciedlaniem w umyśle
rzeczywistych obiektów, ale aktywnym konstruowaniem ich reprezentacji.
Michael Levine i Jeremy Shefner (1981, s. 1) sugerują, że „percepcja
odnosi się do sposobu, w jaki człowiek interpretuje informacje
zgromadzone przez zmysły”. Innymi słowy: człowiek odczuwa obecność
stymulacji, a spostrzega, czym ona jest. Podczas gdy gromadzenie
informacji przez zmysły, czyli recepcja sensoryczna, jest procesem raczej
pasywnym, to ich dalsze odzwierciedlanie w systemie poznawczym, czyli
percepcja umysłowa, nie może się obyć bez aktywności umysłu. Oba
składniki procesu spostrzegania są niezbędne do efektywnej percepcji. Bez
recepcji sensorycznej nie ma bowiem informacji, która może być później
interpretowana, natomiast bez interpretacji zgromadzone dane nic nie
znaczą – nie może być wtedy mowy o identyfikacji spostrzeganych
obiektów. Dlatego też Jerome Bruner (1957; Bruner, Goodman, 1947)
określił spostrzeganie jako proces konfrontacji danych zmysłowych
z danymi umysłowymi, do której dochodzi wtedy, gdy narząd zmysłu (np.
smaku) rozpoczyna gromadzenie informacji (kwaśność, słodkość itd.),
które w procesie interpretacji służą włączeniu poznawanych obiektów do
kategorii nadrzędnej (np. jabłko gatunku lobo). Podstawowym problemem
teorii spostrzegania jest próba opisu procesu przemiany relatywnie prostych
danych zmysłowych w złożone reprezentacje umysłowe. Randolph Blake
i Rober Sekuler (2006) określają ten proces jako przekład informacji
zmysłowych na język kodu, który może być zrozumiały dla złożonych
struktur nerwowych systemu poznawczego. Podobnie Ilona Roth (1986)
opisuje percepcję jako proces transformacji informacji pochodzących ze
środowiska w indywidualne doświadczenie obiektów, wydarzeń czy
zjawisk, wskazując na narządy zmysłów jako stacje przekaźnikowe tej
przemiany.
Bodziec dystalny (distal stimulus) – bodziec początkujący proces spostrzegania, znajdujący się poza
umysłem i odległy względem jego receptorów.
Bodziec proksymalny (proximal stimulus) – bodziec wewnętrzny i bliski, powstający wskutek
bezpośredniego kontaktu bodźca dystalnego z narządem zmysłu.

Fizyczną formę energii, zdolną do zapoczątkowania procesu spostrzegania,


przyjęło się w psychologii nazywać bodźcem. Bodziec w procesie recepcji
sensorycznej zmienia swój charakter. Początkowo jest to bodziec dystalny,
zewnętrzny, znajdujący się poza systemem poznawczym i odległy
względem jego receptorów. Wskutek bezpośredniego kontaktu z narządem
zmysłu bodziec dystalny staje się bodźcem proksymalnym, wewnętrznym
i bliskim. W przypadku zmysłu wzroku bodźcem proksymalnym jest
odwrócony i pomniejszony na siatkówce obraz bodźca dystalnego.
Natomiast w przypadku zmysłu słuchu dystalne dźwięki wywołują
proksymalne drgania błony bębenkowej ucha. Także zmysły dzielą się na
bliskie i dalekie (Sekuler, Blake, 2006). Do tych pierwszych, zwanych
również receptorami kontaktowymi, zaliczamy zmysł smaku, dotyku
i węchu, podczas gdy zmysły dalekie, zwane też telereceptorami, są
reprezentowane przez wzrok i słuch.

Odebranie (rejestracja, recepcja) bodźca proksymalnego prowadzi do


powstania wrażeń. Są one najprostszymi procesami psychicznymi,
w wyniku których dochodzi do odzwierciedlenia w spostrzegającym
umyśle pojedynczych właściwości rejestrowanych obiektów (Hebb, 1969).
Według Donalda Hebba wrażenia należy traktować jako wynik aktywności
receptorów zmysłowych i dróg czuciowych, przekazujących tę aktywność
z narządów zmysłowych do kory czuciowej w mózgu. Odbiór bodźców
wzrokowych zwykle prowadzi do odczucia takich wrażeń, jak kolor,
wielkość czy kształt. Recepcja bodźców słuchowych wywołuje wrażenia
związane ze skalą dźwięku (wysoki, niski), barwą (czysty, mieszany) czy
siłą (cichy, głośny). Spostrzeżenie jest natomiast całościowym
odzwierciedleniem obiektu, składających się nań bodźców dystalnych
i wywoływanych przez nie wrażeń. Jednym z głównych problemów
psychologii percepcji jest określenie wzajemnych relacji pomiędzy
wrażeniami a spostrzeżeniami.
Deprywacja sensoryczna (sensory deprivation) – znaczne obniżenie poziomu stymulacji
sensorycznej, które występuje w wyniku eliminacji bodźców wzrokowych, słuchowych oraz
dotykowych i z reguły prowadzi do pojawienia się halucynacji i urojeń.

Nawet najprostsze spostrzeganie jest procesem biologicznym, wymaga


zatem złożonych interakcji najprzeróżniejszych systemów komórek
nerwowych. Opisując proces percepcji od strony neurofizjologicznej,
próbujemy wskazać układy nerwowe odpowiedzialne za detekcję
poszczególnych właściwości bodźców; zróżnicowanie w ich zakresie
zostanie przedstawione w podrozdziale 7.4.5 przy okazji omówienia teorii
obliczeniowej Davida Marra (1982). Równie ważne w percepcji jest to, że
wymaga ona doznań zmysłowych w optymalnej dawce. Deprywacja
sensoryczna, czyli znaczne obniżenie poziomu stymulacji sensorycznej,
które występuje przy eliminacji bodźców wzrokowych, słuchowych
i dotykowych, prowadzi z reguły do wystąpienia halucynacji i urojeń
(Siegel, 1984). Nieodpowiadające rzeczywistości wrażenia (halucynacje)
i myśli (urojenia) stają się dla systemu poznawczego niezbędną
rekompensatą za braki w zakresie wejściowych danych sensorycznych.
Szkodliwy jest również nadmiar stymulacji, jednak w tym przypadku
system poznawczy dysponuje mechanizmem pozwalającym radzić sobie
z przeciążeniem informacyjnym. Jest nim selektywna uwaga (Broadbent,
1958). Istotne dla spostrzegania jest także to, że percepcja to proces
wymagający działania ze strony podmiotu. Niekiedy jest to działanie
w sensie fizycznym, np. wtedy, gdy obserwując bodźce w polu
wzrokowym, zmieniamy własne położenie w stosunku do obiektu.
Możliwość analizy bodźców z różnej perspektywy i dystansu pozwala
wyeliminować wiele złudzeń optycznych, zatem spostrzeganie musi być
przynajmniej częściowo czynnością motoryczną, co podkreśla w swej
ekologicznej teorii James Gibson (1966; zob. podrozdz. 7.4.6). Aktywność
podmiotu spostrzegającego może się jednak ograniczać do czynności
umysłowych. W każdym razie tylko dzięki aktywności podmiotu możliwa
jest właściwa interpretacja stymulacji. Widać to szczególnie wyraźnie na
przykładzie bodźców zdegradowanych, czyli niepełnych, niekompletnych
lub pojawiających się w nieoptymalnych warunkach czasowych bądź
przestrzennych. Bodźce zdegradowane nie pozwalają na pełną recepcję
sensoryczną, przez co w ich przypadku udział „wyższych” procesów
wnioskowania i interpretacji znacząco wzrasta.

7.1.2. Naiwne koncepcje spostrzegania


Naiwne koncepcje percepcji, zwane też potocznymi, ignorują problem
przekładu danych zmysłowych na dane umysłowe. Zgodnie z tymi
koncepcjami rejestrator zmysłowy pełni funkcje przekaźnika informacji na
drodze do kory mózgowej. Przekazywana informacja ma charakter
zmysłowy – jest więc np. obrazem lub dźwiękiem i w taki sposób, przy
wykorzystaniu właściwej modalności sensorycznej, jest trwale kodowana.
Potoczne koncepcje spostrzegania przyjmowały zatem dodatkowe
założenie dotyczące natury trwałych reprezentacji umysłowych – według
rozważanego stanowiska odzwierciedlenia te mają zawsze formę
odzmysłową.

U źródeł tak uproszczonego myślenia o procesie spostrzegania leżało


przekonanie o słuszności metafory aparatu fotograficznego. Zwolennicy
naiwnych koncepcji wskazywali na wiele strukturalnych i funkcjonalnych
podobieństw narządu wzroku do aparatu fotograficznego. I tak,
strukturalnym odpowiednikiem źrenicy wydaje się przesłona, soczewki –
obiektyw, a siatkówki – błona fotograficzna (film). Efekt rejestracji obrazu
na siatkówce przypomina również wynik czynności robienia zdjęcia –
w obu przypadkach otrzymujemy obraz odwrócony i pomniejszony.
Wskazując na podobieństwa, często jednak zapominano, że te dwa sposoby
rejestracji obrazu wyraźnie się różnią. Istotną strukturalną różnicą
w budowie oka i aparatu fotograficznego wydaje się to, że błona
fotograficzna jest płaska, a siatkówka wklęsła. Zupełnie inaczej przebiega
też w toku spostrzegania i robienia zdjęcia detekcja koloru – komórki
nerwowe odpowiedzialne za ten proces są rozmieszczone w oku w jednej
warstwie, podczas gdy na błonie filmowej warstwy wrażliwe na
poszczególne kolory są umieszczone jedna nad drugą. W oku nie ma także
żadnej struktury analogicznej do migawki w aparacie fotograficznym. Co
więcej, zanik obrazu na siatkówce jest związany ze stopniem złożoności
obrazu i tempem pojawiania się kolejnych obrazów, a nie z ilością światła
emitowanego lub odbijanego przez obiekt.
Pomijając jednak różnice strukturalne i funkcjonalne między narządem
wzroku i tradycyjnym, analogowym aparatem fotograficznym,
rozstrzygającym argumentem na niekorzyść naiwnych teorii spostrzegania
wydaje się fakt, że trwałe reprezentowanie w umyśle informacji w postaci
odzmysłowej byłoby bardzo nieekonomiczne. Ten sam bodziec wzrokowy
(np. twarz dziecka), podlegający przecież nieustannym zmianom (np.
w wyniku rozwoju), musiałby być zapisywany w formie coraz to innego
obrazu wraz z każdym pojedynczym spostrzeżeniem „obiektu”. Trudno
wyobrazić sobie system przechowywania danych, który byłby zdolny
poradzić sobie z takim przeładowaniem informacyjnym. Z wymienionych
powodów naiwne koncepcje spostrzegania zostały w zasadzie uznane za
fałszywe, natomiast współczesne teorie percepcji odwołują się w opisie
i wyjaśnianiu tego procesu do koncepcji trwałych reprezentacji
umysłowych (zob. rozdz. 3). Jedynym modelem procesu spostrzegania,
który wyłamuje się z tego nurtu myślenia o percepcji, jest ekologiczna
teoria Gibsona (1966). W swoich założeniach zaprzecza ona istnieniu
trwałych reprezentacji umysłowych, przez co odrzuca konieczność procesu
translacji danych zmysłowych.

7.1.3. Spostrzeganie a rozpoznawanie wzorców


Badania w zakresie rozpoznawania wzorców (pattern recognition)
dotyczą tego, w jaki sposób ludzie identyfikują rzeczywiste obiekty
w swoim środowisku (Reed, 1988). Jak bardzo ważna jest to umiejętność,
widać na przykładzie czynności czytania pisma ręcznego (zob. podrozdz.
7.5.2). Forma ręcznego pisania jest do tego stopnia indywidualną
właściwością każdego człowieka, że może stać się jego wizytówką, która
pomoże w rozpoznaniu danej osoby jako sprawcy jakiegoś wydarzenia.
Międzyosobnicza zmienność w zakresie takiego wzorca (np. litery „a”) jest
więc ogromna, a zmienność wewnątrzosobnicza również jest duża, bo
pisząc, stawiamy litery za każdym razem nieco inaczej. Mimo to system
percepcyjny człowieka potrafi właściwie rozpoznać konkretny symbol (np.
„koślawe a” dziecka uczącego się dopiero pisać pierwsze litery) jako
przedstawiciela danego wzorca (np. litery „a” jako takiej), niezależnie od
cech charakterystycznych, przynależnych tylko konkretnej egzemplifikacji
wzorca.

W odpowiedzi na pytanie, w jaki sposób możliwy jest proces identyfikacji


obiektów, sformułowano dwie teorie percepcji: koncepcję modeli (zob.
podrozdz. 7.4.3) oraz koncepcję cech (zob. podrozdz. 7.4.4), które
w odmienny sposób opisują proces kategoryzacji, czyli zaliczenia
spostrzeganego obiektu do nadrzędnej kategorii umysłowej (zob. rozdz. 3).
Zgodnie z koncepcją modeli spostrzegany egzemplarz jest porównywany
do modelu wzorca, który reprezentuje nadrzędną kategorię. Modelem może
być specyficzny egzemplarz, czyli pierwszy napotkany przedstawiciel
danego wzorca (np. własna matka może być modelową mamą), lub
prototyp, czyli najczęstszy z dotychczas napotkanych egzemplarzy wzorca
(np. wróbel może być modelowym ptakiem). Z kolei koncepcje cech
sugerują, że decyzja o rozpoznaniu wzorca jest wynikiem porównania cech
kategoryzowanego obiektu i cech wzorcowych. Argumenty na rzecz obu
koncepcji, bynajmniej nie rozstrzygające, stają się zrozumiałe, gdy
rozważy się dokładniej przebieg procesu rozpoznawania twarzy (zob.
podrozdz. 7.5.1).

Niezależnie jednak od słuszności jednej z dwóch koncepcji zwraca uwagę


sposób wyjaśniania przez nie procesu spostrzegania jako procesu
kategoryzacji. Taką możliwość jako pierwszy zasugerował Bruner (1957),
a empirycznie potwierdzili ją Michael Posner i Ronald Mitchell (1967)
w eksperymencie dotyczącym porównywania liter. Badanym prezentowano
pary liter, w stosunku do których trzeba było podjąć decyzję, czy są one
identyczne czy różne, kierując się narzuconymi regułami. Wprowadzono
trzy warunki eksperymentalne. W pierwszym litery uznawano za takie
same, gdy były identyczne fizycznie (np. „AA”), w drugim – gdy były
tożsame nominalnie (np. „Aa”), natomiast w trzecim – gdy były identyczne
zgodnie z abstrakcyjną regułą (np. „AE”). Warunek pierwszy wymagał
tylko identyfikacji fizycznej – porównania z wzorcem (bez konieczności
rozpoznania znaczenia), warunek drugi – identyfikacji fizycznej oraz
ustalenia nominału bodźca (rozpoznania znaczenia litery), natomiast
warunek trzeci – identyfikacji fizycznej, ustalenia nominału oraz
sprawdzenia, czy spełniona jest dodatkowa reguła kategoryzacyjna.
Manipulacja eksperymentalna dotyczyła zatem liczby potencjalnych
kategoryzacji, jakich trzeba było dokonać w celu udzielenia poprawnej
odpowiedzi na pytanie o tożsamość prezentowanych bodźców. Posner
i Mitchell ustalili, że czas reakcji w warunku pierwszym wynosi 400–500
ms, w warunku drugim jest średnio o 80 ms dłuższy, a w warunku
najtrudniejszym – aż o 160 ms dłuższy. Wyniki tego badania mogą
sugerować, że proces rozpoznawania bodźców jako reprezentujących
określone wzorce polega na kategoryzacji, która trwa tym dłużej, im więcej
kategorii system poznawczy musi sprawdzić w procesie spostrzegania.
Dodatkowo można na podstawie tych badań wnosić, że czas prostej
kategoryzacji percepcyjnej wynosi około 80 ms.

7.2. Spostrzeganie jako proces oddolny


Spostrzeganie jest procesem oddolnym (bottom-up). Przebiega w kierunku
od rejestracji wrażeń do identyfikacji obiektów. Na poszczególnych etapach
tego procesu biorą udział różnorodne struktury poznawcze. Mechanizm
orientacyjny uwagi selektywnej umożliwia uchwycenie przez receptory
faktu wystąpienia bodźca w polu percepcyjnym. Za odbiór i kodowanie
wrażeń zmysłowych odpowiedzialne są detektory cech (zob. rozdz. 5), a za
krótkotrwałe przechowywanie efektów recepcji bodźców – magazyny
informacji sensorycznej (pamięć ultrakrótkotrwała, zob. rozdz. 8).
Identyfikacja spostrzeganych bodźców (np. piorun podczas burzy) odbywa
się dzięki wiedzy zgromadzonej w zakresie pamięci trwałej (np. dotyczącej
zjawisk atmosferycznych). Poszczególne podsystemy wchodzące w skład
architektury umysłu włączają się w proces postrzegania kolejno, wraz ze
wzrostem jego złożoności. Jednak właśnie wystąpienie bodźca dystalnego
(np. piorunu podczas burzy) uruchamia cały mechanizm percepcji.

7.2.1. Odbiór i kodowanie wrażeń zmysłowych


Pierwszy krok na drodze do powstania złożonego spostrzeżenia jest raczej
oczywisty. Zadaniem receptorów jest pomiar natężenia danego bodźca
dystalnego. W przypadku zmysłu wzroku fotoreceptory oka mają za
zadanie zmierzenie intensywności światła emanującego od spostrzeganego
obiektu lub przezeń odbitego (Sekuler, Blake, 1994). W ten sposób obiekt
ten jest reprezentowany po raz pierwszy na peryferiach systemu
poznawczego w formie mapy punktów świetlnych, różniących się
intensywnością. Oko wyposażone jest w dwa rodzaje fotoreceptorów:
pręciki, odpowiadające za rejestrację słabych w swoim natężeniu bodźców
świetlnych (widzenie nocne, czarno-białe), oraz czopki, funkcjonujące
jedynie przy dobrym oświetleniu, odpowiadające za widzenie barw
i ostrość wzroku (widzenie dzienne, pełna paleta barw). Informacje zebrane
przez fotoreceptory oka są przekazywane dalej do komórek
dwubiegunowych, a następnie zwojowych, których zadaniem jest wstępne
opracowanie informacji sensorycznej.
Komórki zwojowe są ściśle wyspecjalizowane. H.B. Barlow (1953) oraz
Jerome Lettvin i współautorzy (Lettvin, Maturana, McCulloch, Pitts, 1959)
ustalili, że odrębne grupy tych komórek reagują na odmienne cechy
wyzwalające, takie jak linie pionowe lub poziome (krawędzie), ruch
obiektu czy jego lokalizacja przestrzenna. Grupy komórek zwojowych
odpowiedzialne za detekcję poszczególnych właściwości stymulacji
nazwano detektorami cech. Im bardziej złożony system poznawczy, tym
więcej w nim prostych detektorów cech, służących detekcji elementarnych
właściwości bodźców.

Wyniki badań Lettvina i współautorów (tamże) przeanalizował Tomasz


Maruszewski (1996). Badacze ci wskazują na istnienie u żaby tylko
czterech detektorów cech, odpowiedzialnych za odbiór jedynie dwóch
właściwości stymulacji: wielkości i ruchu obiektu. Specyficzne kombinacje
zarejestrowanych cech mają swoje konsekwencje w zachowaniu żaby:
„małe” i „szybkie” obiekty wywołują u niej reakcje pokarmowe (np. widok
poruszającego się żuka; Barlow, 1953), natomiast „duże” i „powolne” (np.
bociany) – reakcje ucieczki. Liczba detektorów cech wizualnych
u człowieka jest oczywiście znacznie większa; znajdują się one również
poza siatkówką, na czuciowej drodze wstępującej do kory mózgowej
(Marr, 1982).

Detektory cech różnią się złożonością strukturalną i funkcjonalną. Ich


badaniem zajęli się m.in. David Hubel i Torsten Wiesel (1959), którzy do
swoich badań wybrali koty. Ustalili oni, że na drodze wzrokowej u kotów
występuje aż sześć różnych rodzajów detektorów cech, z czego cztery
ostatnie znajdują się już w korze wzrokowej. Z kolei Marr (1982),
analizując strukturę i funkcjonowanie drogi wzrokowej u człowieka,
wyróżnił jedynie trzy rodzaje różnych detektorów cech, a przy tym
stwierdził, że tylko w przypadku jednego rodzaju występują połączenia
z komórkami kory mózgowej. Mimo sporów dotyczących liczby różnych
detektorów cech nie ma wątpliwości odnośnie do ich strukturalnego
i funkcjonalnego zróżnicowania. Im dalej od narządu zmysłu i im bliżej
kory mózgowej, tym bardziej są detektory cech strukturalnie złożone i tym
bardziej złożone właściwości stymulacji są przez nie dekodowane.
Ostatecznie pobudzenie napływa do kory wzrokowej umiejscowionej
w płatach potylicznych. Szczegółową analizę dekodowanych cech
w ramach poszczególnych detektorów zawiera teoria obliczeniowa Marra
(tamże; zob. podrozdz. 7.4.5).

Z kolei odbiór i kodowanie wrażeń słuchowych odbywają się w komórkach


włoskowych narządu Cortiego, zlokalizowanego w uchu wewnętrznym.
Zadaniem tych receptorów jest pomiar intensywności dźwięku
docierającego do ucha zewnętrznego. Dźwięk ten jest wzmacniany przez
narząd słuchu i przenoszony w formie rytmicznych drgań przez błonę
bębenkową ucha. Jedna z kosteczek słuchowych (strzemiączko),
wprawiona w ten sposób w drganie, przenosi rytm fali dźwiękowej poprzez
wywieranie hydraulicznego ciśnienia na płyn znajdujący się w ślimaku
ucha wewnętrznego. To właśnie ciśnienie tego płynu wywołuje ugięcie
komórek włoskowych, ich pobudzenie i w efekcie generowanie impulsu
nerwowego przesyłanego do kory słuchowej. Poszczególne komórki
receptoryczne zmysłu słuchu różnią się w zakresie częstotliwości dźwięku,
na jaki reagują (Sekuler, Blake, 1994), co przekłada się na wielkość
wytworzonego przez falę dźwiękową ciśnienia płynu w ślimaku ucha,
koniecznego do ugięcia komórek włosowatych.

Przekroczenie progu pobudzenia komórki włoskowej jest niezbędne do


rejestracji dźwięku, jednak każdy receptor słuchowy działa tylko
w pewnym zakresie częstotliwości. Jeśli intensywność dźwięku jest zbyt
duża dla danej komórki włoskowej, osiąga ona stan nasycenia (saturation
effect; Blake, Sekuler, 2006), który uniemożliwia wzbudzenie impulsu
nerwowego. W takim przypadku reagują wyspecjalizowane w odbiorze
dźwięku o wyższej częstotliwości receptory słuchowe, które z kolei nie są
wzbudzane przez dźwięki o niższej częstotliwości, ponieważ takowe nie
wywołują przekroczenia ich poziomu wzbudzenia. Impulsy nerwowe
generowane przez komórki włoskowe informują system poznawczy
o czasowej i częstotliwościowej charakterystyce słyszanych dźwięków.

Interpretacja tak zakodowanych bodźców akustycznych odbywa się


w korze słuchowej, znajdującej się w płatach skroniowych. Detektory cech
tam zlokalizowane nie są już jednak zainteresowane wielkością natężenia
czy częstotliwością pojedynczego dźwięku. Są one wyspecjalizowane
w reagowaniu na złożone zestawy dźwięków, definiowane przez
specyficzne zmiany w zakresie fizycznej charakterystyki dźwięków
składowych (Moore, 1987). Dzięki temu każde znane człowiekowi słowo
ma prawdopodobnie w korze słuchowej swój detektor, czyli układ komórek
interpretacyjnych wzbudzanych przez jego brzmienie. Wskazują na to
wyniki badań nad małpami, prowadzone przez Zvi Wollberga i Johna
Newmana (1972). Okazało się, że odrębne grupy neuronów kory słuchowej
są odpowiedzialne za dekodowanie różnych rodzajów małpich
komunikatów, takich jak rechotanie (cackle), piszczenie (shrieks) czy
trelowanie (trills). Biorąc pod uwagę fakt, że w relatywnie ubogim języku
małp rodzaj komunikatu decyduje o sensie przekazu, można się
spodziewać, iż w przypadku człowieka wyspecjalizowanie detektorów
bodźców akustycznych w korze słuchowej może dotyczyć pojedynczych
morfemów, tj. elementarnych jednostek znaczeniowych (zob. rozdz. 13).
Reagowanie przez komórki kory słuchowej na zmiany w zakresie
wysokości tonu pełni jeszcze jedną istotną funkcję – mianowicie umożliwia
analizę intonacji, bez której rozumienie znaczenia dłuższych komunikatów
werbalnych byłoby bardzo trudne, jeśli nie niemożliwe. Pewne komórki
nerwowe kory słuchowej reagują na zmianę tonu dźwięku na wyższy (jak
podczas wypowiadania pytającego słowa „tak?”, gdy nic nie rozumiemy),
a inne na niższy (jak podczas ziewania, gdy jesteśmy znudzeni; Blake,
Sekuler, 2006).

Należy zatem stwierdzić, że odbiór i kodowanie wrażeń zmysłowych


odbywają się za pomocą specyficznych układów komórek nerwowych,
zwanych detektorami cech. Wstępujące drogi czuciowe są wyposażone
w takie właśnie zestawy neuronów, różniące się zarówno strukturalnie,
czyli poziomem złożoności i wielością połączeń nerwowych, jak
i funkcjonalnie, czyli dostosowaniem do percepcji konkretnych
właściwości podlegających detekcji. Recepcja sensoryczna polega na
kodowaniu fizycznych charakterystyk bodźca dystalnego, związanych
z intensywnością jego oddziaływania na narząd zmysłu. Natomiast
percepcja umysłowa polega na identyfikowaniu bodźca poprzez integrację
informacji, dotyczących wszystkich jego właściwości. Proces ten zostanie
opisany dokładniej w podrozdziale 7.2.4.

7.2.2. Magazyny informacji sensorycznej


Magazyn ikoniczny (iconic register) – magazyn informacji sensorycznej dla zmysłu wzroku.
Magazyn echoiczny (echoic register) – magazyn informacji sensorycznej dla zmysłu słuchu.

Hipoteza istnienia magazynów informacji sensorycznej dotyczy


przechowywania w ramach systemu poznawczego przez krótki czas, po
bezpośrednim wystąpieniu bodźca sensorycznego, efektów jego działania.
Dotyczy więc przechowywania bodźców proksymalnych, zanim ulegną one
procesowi dekodowania przez bardziej złożone dekodery cech
występujących w drodze czuciowej. Do tej pory potwierdzono istnienie
dwóch magazynów informacji sensorycznej: magazynu ikonicznego dla
zmysłu wzroku i magazynu echoicznego dla zmysłu słuchu. Wprawdzie
Alan Baddeley (1976) sugeruje istnienie aż pięciu magazynów
sensorycznych – tylu, ile różnych zmysłów występuje u człowieka – jednak
hipoteza ta nie doczekała się do tej pory weryfikacji. Ponieważ magazyny
informacji sensorycznej są tożsame z subsystemami pamięci ultrakrótkiej,
dokładnie omówionymi w rozdziale 8, w tym miejscu będą przedstawione
jedynie te ich właściwości, które wydają się najważniejsze dla analizy
procesu spostrzegania.

George Sperling (1960, 1963) prezentował badanym za pomocą


tachistoskopu przez 50 ms tabelę zawierającą 12 bodźców (liter lub cyfr),
ułożonych w 4 kolumny po 3 rzędy pól. Zadaniem osób biorących udział
w eksperymencie było przypomnienie sobie tuż po prezentacji jak
największej liczby elementów z prezentowanej tabeli. Uczestnicy badania
byli w stanie przypomnieć sobie prawidłowo 4–5 znaków (ok. 35% znaków
w ogóle, czyli 1–2 z każdego rzędu). W kolejnym eksperymencie Sperling
wprowadził dodatkową manipulację wskazówką – niemal natychmiast po
prezentacji tachistoskopowej prezentował osobom badanym dźwięk
o wysokiej, średniej lub niskiej tonacji, określający rząd tabeli, z którego
należało sobie przypomnieć uprzednio pokazywane bodźce. Poziom
poprawności przypominania wzrósł u badanych dwukrotnie – tym razem
byli w stanie przypomnieć sobie poprawnie około 70% (2–3) znaków ze
wskazanego rzędu. W następnym badaniu Sperling manipulował czasem
prezentacji wskazówki w przedziale 0–1000 ms od momentu zakończenia
prezentacji tachistoskopowej. Poprawność przypominania okazała się
malejącą funkcją czasu opóźnienia wskazówki, przy czym wpływ
wskazówki był całkowicie zredukowany w przypadku przerwy trwającej
500 ms lub dłużej.
Dodatkowo w kolejnych badaniach z użyciem tej samej procedury
eksperymentalnej stwierdzono, że jeśli pole ekspozycji zostanie tuż po
zniknięciu bodźców rozjaśnione, to przechowywanie informacji
w magazynie ikonicznym będzie utrudnione. Odwrotny wynik
zaobserwowano, gdy pole ekspozycji zostało zaciemnione. W takich
warunkach percepcyjnych wskazówka pomagała również po upływie 500
ms (nawet do 1000 ms). Z kolei, gdy bezpośrednio po prezentacji bodźców
przedstawiony został w polu widzenia złożony układ innych sygnałów (np.
konkurencyjna tabela innych bodźców), to możliwość prawidłowego
przypomnienia sobie uprzednio prezentowanych bodźców oscylowała
wokół poziomu przypadku. Kiedy natomiast zestaw bodźców składał się
w połowie zarówno z liter, jak i z cyfr, wskazówka dotycząca rodzaju
bodźców (liter lub cyfr), które należy sobie przypomnieć, nie miała
żadnego znaczenia dla poprawności wykonania zadania.

Uzyskane przez Sperlinga wyniki doprowadziły do sformułowania


podstawowej charakterystyki magazynu ikonicznego. Czas
przechowywania informacji w tym magazynie okazał się relatywnie krótki.
W sprzyjających warunkach percepcyjnych, gdy nie wchodzą do niego
żadne inne bodźce wzrokowe, czas ten może się wydłużyć nawet do 1000
ms, ale z reguły jest znacznie krótszy, przeciętnie oscyluje wokół 500 ms.
Ze względu na to, że oko ludzkie dokonuje w ciągu sekundy czterech
fiksacji na materiale bodźcowym (Rayner, 1997), a więc czterokrotnie ma
okazję do rejestracji nowego układu bodźców, w naturalnych warunkach
spostrzegania obiektów w polu wzrokowym czas przechowywania efektów
rejestracji bodźców w magazynie ikonicznym nie powinien przekraczać
250 ms. W istocie jednak jest on znacznie krótszy i wynosi tylko około 100
ms, gdyż pobieranie informacji z pola wzrokowego nie może się
dokonywać przez cały czas fiksacji oka w danym punkcie pola
wzrokowego (zob. podrozdz. 7.5.2). Po upływie 100 ms informacje albo są
przetwarzane dalej przez bardziej złożone detektory cech, albo ulegają
wyparciu przez nowe dane.

Na podstawie analizy wyników badań przeprowadzonych przez Sperlinga


można również stwierdzić, że pojemność magazynu ikonicznego jest
zmienna w czasie. Początkowo rejestrowany jest niemal pełny materiał
bodźcowy znajdujący się w zasięgu narządu wzroku. Sensoryczny kod
zapisu informacji w tym magazynie uniemożliwia jednak jakiekolwiek
opracowanie przechowywanych informacji, co zwiększyłoby szansę ich
przetrwania. Ograniczenie pojemności kanału przetwarzania danych ze
względu na ich bardziej złożone właściwości sprawia, że do dalszej
obróbki trafia tylko 1/3 z zarejestrowanej początkowo stymulacji. Nie ma
natomiast wątpliwości, że sposób kodowania informacji w ramach
magazynu ikonicznego jest ściśle sensoryczny, związany z fizyczną
charakterystyką sygnału, jaka może być zdekodowana przez najprostsze
detektory cech, znajdujące się jeszcze w komórkach zwojowych.
Wskazówki dotyczące fizycznej charakterystyki sygnału (lokalizacji czy
też wielkości bodźców) są jedynymi, które mogą pomóc w lepszym
odtworzeniu informacji zgromadzonych w tym magazynie.

Badania nad funkcjonowaniem magazynu echoicznego, tj. odnoszące się do


gromadzenia i krótkotrwałego przechowywania bodźców słuchowych,
realizowane przez Roberta Crowdera i współpracowników (Crowder,
Morton, 1969; Darwin, Turvey, Crowder, 1972), prowadzono w podobnym
paradygmacie jak eksperymenty nad funkcjonowaniem magazynu
ikonicznego. Prezentowano w nich symultanicznie serie dźwięków
z różnych lokalizacji przestrzennych, a następnie proszono uczestników
o przypomnienie sobie dźwięków pochodzących z wybranego źródła,
sygnalizowanego przez wskazówkę wizualną. Okazało się, że badani są
w stanie przypomnieć sobie zaledwie jeden, ostatni dźwięk z wybranego
źródła, niezależnie od jego lokalizacji.

Z kolei Sam Glucksberg i George Cowen (1970), prowadząc badania


w paradygmacie podążania (zob. podrozdz. 5.2.1), zaobserwowali, że gdy
w komunikacie ignorowanym pojawiały się słowa oznaczające cyfry, to
osoby badane nie były w stanie odpowiedzieć na pytanie: „jaka to cyfra?”,
jeżeli przerywano im reprodukcję komunikatu ważnego w czasie dłuższym
niż 4 s od momentu prezentacji cyfry. Jeśli jednak zatrzymanie czynności
powtarzania ważnego komunikatu następowało w czasie do 4 s od
pojawienia się cyfry w kanale ignorowanym, uczestnicy eksperymentu
prawidłowo przypominali sobie bodziec uprzednio zgodnie z instrukcją
przez nich ignorowany. Wyniki te świadczą na korzyść tezy, że chociaż
pojemność magazynu echoicznego jest znacznie mniejsza niż pojemność
magazynu ikonicznego, to jednak magazyn echoiczny ma tę właściwość, że
dłużej przechowuje informację.

Przedstawione spostrzeżenia na temat pojemności i czasu przechowywania


informacji w magazynie ikonicznym i echoicznym pozostają zgodne z tym,
co wiadomo na temat przetwarzania nietrwałych reprezentacji umysłowych
(zob. rozdz. 2). System obrazowy jest holistyczny i umożliwia równoległe
przetwarzanie większej liczby danych w tym samym czasie. System
werbalny jest parcjalny i wymaga szeregowego przetwarzania kolejnych
bodźców słuchowych. Nie ma natomiast różnic między dwoma
magazynami informacji sensorycznej w zakresie sposobu kodowania
wrażeń zmysłowych. Kodowanie to ma charakter ściśle sensoryczny i jest
związane z detekcją jedynie fizycznej charakterystyki prezentowanych
bodźców.
7.2.3. Spostrzeganie głębi
Obraz obiektu zarejestrowany na siatkówce jest dwuwymiarowy, podczas
gdy jego spostrzeżenie jest trójwymiarowe. Staje się to możliwe dzięki
percepcji głębi, a więc możliwości spostrzegania absolutnego dystansu
(absolute distance), który dzieli obserwatora od obiektu, oraz względnego
dystansu (relative distance), dzielącego poszczególne obiekty w polu
wzrokowym od siebie (Blake, Sekuler, 2006). Spostrzeganie głębi (depth
perception) jest niezwykle istotnym elementem poznawczego wyposażenia
człowieka, nie tylko dlatego, że pozwala mu orientować się i skutecznie
działać w trójwymiarowej przestrzeni, lecz także dlatego, że bez niego nie
byłoby możliwe wyodrębnienie przedmiotu z tła. Zdolność do percepcji
głębi zapewnia ludziom to, że rzeczywistość składa się dla nas
z poznawczo odrębnych, samoistnych przedmiotów i innych obiektów
fizycznych, a nie ze zwykłej mozaiki wrażeń wzrokowych. Z kolei bez
zdolności do percepcji przedmiotów prawdopodobnie nie byłoby myślenia
pojęciowego, czyli jednego z najważniejszych procesów poznawczych
człowieka (Lorenz, 1977). Samoistnie przedmioty mogą być bowiem
grupowane według różnych kryteriów i cech, co daje podstawę do
kategoryzowania, a następnie do przypisania kategoriom nazw.
Spostrzeganie głębi warunkuje więc percepcję przedmiotów, która z kolei
jest warunkiem kategoryzowania i myślenia pojęciowego. Biorąc pod
uwagę znaczenie tej zdolności poznawczej, nie powinno nas dziwić, że
w procesie ewolucji wykształciły się liczne i różnorodne mechanizmy
fizjologiczne i psychologiczne, dzięki którym – mimo dwuwymiarowej
siatkówki oka – widzimy świat w trzech wymiarach, łącznie z głębią.
Wskazówki okulomotoryczne – umożliwiają szacowanie dystansu obiektów w polu wzrokowym
na podstawie rejestrowania zmian w zakresie położenia gałek ocznych.
Szacowanie przez system poznawczy odległości w polu wzrokowym jest
możliwe dzięki wykorzystywaniu dwóch rodzajów wskazówek. Przede
wszystkim wykorzystuje się wskazówki okulomotoryczne, wynikające ze
zmiany położenia obserwatora względem obiektu lub różnych obiektów
względem siebie. Śledząc zmiany lokalizacji obiektu w polu wzrokowym
podczas kolejnych fiksacji oka, narząd wzroku dokonuje akomodacji
soczewki, która pełni w oku funkcję obiektywu. Bliżej zlokalizowane
przedmioty wymagają większej akcji mięśni, regulujących kształt soczewki
i odpowiadających za jej ogniskową, podczas gdy obiekty dalekiego planu
wymagają mniejszego wysiłku przystosowawczego. Można to łatwo
sprawdzić, zbliżając do nosa z dalszej odległości palec – wysiłek mięśni
soczewki, próbujących utrzymać ostrość obrazu mimo niewielkiego
dystansu absolutnego stanie się wtedy łatwo odczuwalny. Informacja o tym,
jaki wysiłek wykonują mięśnie, regulujące kształt soczewki, jest użyteczną
i prostą wskazówką dla systemu nerwowego odnośnie do absolutnego
dystansu obiektu w polu wzrokowym, jakkolwiek jej użyteczność pozostaje
ograniczona przez wielkość dystansu. Wskazówka ta działa najlepiej
w przypadku obiektów zlokalizowanych w promieniu do kilku metrów od
obserwatora, podczas gdy przy większych odległościach staje się
nieprecyzyjna (Blake, Sekuler, 2006). Wtedy system poznawczy korzysta
z innej wskazówki okulomotorycznej – siły sygnału przesyłanego
nerwowymi drogami zstępującymi z centrum kontroli motorycznej
w mózgu do mięśni regulujących kształt soczewki. Jest to sygnał
wymuszający przystosowanie się do ostrego widzenia obiektów
oddalonych.
Wskazówki wizualne – umożliwiają szacowanie dystansu obiektów w polu wzrokowym niezależnie
od ruchu obiektu lub obserwatora; wyróżnia się wskazówki jednooczne i dwuoczne.
Ponadto w percepcji głębi działają również wskazówki wizualne, które są
dostępne niezależnie od ruchu obiektu w polu wzrokowym lub ruchu
samego obserwatora. Znane są dwa rodzaje takich wskazówek: (1)
monokularne, wymagające użycia tylko jednego oka, oraz (2)
binokularne, korzystające z informacji zgromadzonych przez parę oczu.
Korzystanie z tych drugich jest częstsze i łatwiejsze, ale istnienia tych
pierwszych nie da się podważyć, ponieważ percepcja głębi jest przecież
możliwa z użyciem tylko jednego oka.

Wśród wskazówek jednoocznych można wyróżnić siedem podstawowych


informacji, którymi kieruje się system poznawczy w ocenie głębi pola
percepcyjnego. Pierwszą z nich jest wskazówka określana jako
perspektywa liniowa. W oddalającej się perspektywie równoległe pobocza
drogi biegnącej prostopadle do obserwatora coraz bardziej zbliżają się do
siebie, zbiegając się w końcu w jedną linię. Równoległe krawędzie
pozostają więc w coraz mniejszej odległości od siebie wraz ze wzrostem
absolutnego dystansu. Ocena odległości może wynikać również
z oszacowania wielkości cienia, rzucanego przez obiekt (druga
wskazówka), jednak kierowanie się tym kryterium ma sens jedynie
wówczas, gdy wszystkie obiekty w polu wzrokowym są jednolicie
oświetlone. Zazwyczaj tak właśnie jest na otwartych przestrzeniach,
dlatego w procesie percepcji system poznawczy przyjmuje założenie owej
jednolitości. W takich warunkach oświetlona jest zawsze góra obiektu, jeśli
receptory wzrokowe znajdują się w normalnej pozycji percepcyjnej,
charakterystycznej dla wyprostowanej postawy ciała (Howard, Bergström,
Masao, 1990). Inaczej bywa, gdy iluminacja obiektów pochodzi z różnych
źródeł i cienie rzucane przez obiekty w polu wzrokowym nakładają się na
siebie. Wówczas wzrok, kierując się wskazówką wielkości cienia, ulega
najprzeróżniejszym złudzeniom optycznym – np. trójwymiarowości przy
dwuwymiarowych obrazach (Ramachandran, 1988).

Bardzo użyteczne informacje wynikają z oceny kontrastu (wskazówka


trzecia). Światło odbite od spostrzeganych obiektów musi się przebić do
fotoreceptorów przez zanieczyszczoną z reguły atmosferę. W konsekwencji
obiekty dalsze wydają się mniej kontrastowe, a bliższe – bardziej wyraźne
i odróżniające się od siebie. Czwarta wskazówka obejmuje szczegóły
powierzchni, czyli charakterystyczne zmiany faktury przedmiotu.
Szczegóły są lepiej widoczne z bliższej odległości niż dalszej. Łatwo to
sprawdzić, przyglądając się np. krawężnikowi drogi: stojąc na początku
drogi, w bliskiej odległości od punktu obserwacji, jesteśmy w stanie
rozpoznać rodzaj krawężnika, jednak z dalszego dystansu widzimy już
tylko liniowe ograniczenie drogi. Ocena dystansu odbywa się również za
pomocą porównania względnej pozycji obiektów w polu wzrokowym
(wskazówka piąta), zgodnie z założeniem, że obiekty bliższe przesłaniają
części obiektów dalszych. Trzeba tu jednak zwrócić uwagę na pewne
niebezpieczeństwo kierowania się tą wskazówką, można bowiem ulec tzw.
złudzeniu Kanizsy (1976). Gaetano Kanizsa przeprowadził eksperyment,
w którym pokazywał osobom badanym trzy czarne koła ułożone w trzech
rogach białej planszy. Każde koło zostało pozbawione pewnej części – tej,
która była najbliższa środka planszy. W rezultacie powstało percepcyjne
złudzenie białego trójkąta na pierwszym planie, który swoimi
wierzchołkami jak gdyby przysłania trzy czarne koła na drugim planie (ryc.
7.1).

W ocenie dystansu może nam też pomóc wskazówka szósta – znajomość


wielkości obiektu. Wiedząc, jaka jest prawdziwa wielkość obiektu,
możemy skorygować ocenę jego odległości. Na przykład samochód
pozornie równy pod względem wielkości pudełku od zapałek ocenimy po
prostu jako samochód odległy, bo wiemy, jakie są mniej więcej jego
prawdziwe rozmiary. Zagadnieniem tym zajmował się William Itellson
(1951), który prezentował uczestnikom swojego badania znany im
przedmiot zawsze z tej samej odległości. Manipulował natomiast
wielkością prezentowanego obiektu, pokazując go osobom badanym
w jego naturalnej wielkości albo w dwukrotnym powiększeniu lub
pomniejszeniu. Okazało się, że uczestnicy eksperymentu poprawnie
oceniali odległość w odniesieniu do obiektów naturalnej wielkości. Mając
do czynienia z obiektami dwukrotnie zmniejszonymi, badani
przeszacowywali dystans, a gdy obiekt został dwukrotnie zwiększony,
wykazywali tendencję do niedoszacowania odległości. Co więcej,
w przypadku obiektów zmniejszonych odległość była przeceniona mniej
więcej dwukrotnie, a jeśli chodzi o obiekty zwiększone, niedoszacowanie
wyniosło tylko około 10%.

RYCINA 7.1. Złudzenie Kanizsy


Źródło: opracowanie własne.

Sześć omówionych wskazówek ma charakter statyczny (Blake, Sekuler,


2006; Eysenck, Keane, 2015). Wśród jednoocznych wskazówek wyróżnia
się także siódmą, dodatkową, związaną z ruchem obiektów w polu
wzrokowym. Jeśli dwa obiekty, bliższy i dalszy, wskazane obserwatorowi,
poruszają się w polu wzrokowym z tą samą prędkością, to obiekt dalszy
pokonuje pozornie krótszą drogę. Na podstawie oceny przebytego dystansu
system poznawczy może wnioskować, który obiekt znajduje się bliżej,
a który dalej. Podobnie rzecz się ma w przypadku, gdy porusza się
obserwator, a obiekty w polu wzrokowym są statyczne.

Jeśli chodzi o wskazówki dwuoczne, wyróżnia się dwie, z których jedna,


konwergencja dwuoczna, działa podobnie jak wskazówka
okulomotoryczna, bo wykorzystuje informację o napięciu mięśni
sterujących ruchem gałek ocznych. Skupienie wzroku na obiekcie bliskim
wymaga bardziej rozwartego kąta widzenia, podczas gdy przedmioty
odległe wymagają kąta bardziej ostrego (ryc. 7.2). Mięśnie sterujące gałką
oczną muszą wykonać odpowiednią pracę, która jest znacznie bardziej
intensywna w przypadku obiektów bliskich. Napięcie mięśni sterujących
ruchem gałek ocznych i odpowiedzialnych za ich konwergencję jest
informacją, na podstawie której mózg oblicza odległość obiektu. Druga
wskazówka wiąże się z faktem, że każde z dwojga oczu odbiera nieco inną
informację o spostrzeganym obiekcie. Ze względu na swoją lokalizację
(umieszczenie obok siebie w odległości przeciętnie 65 mm) każde oko
obserwuje pole wzrokowe z nieco innej pozycji, a więc pod innym kątem.
W konsekwencji ten sam obiekt jest widziany inaczej przez prawe i lewe
oko, chociaż w procesie identyfikacji obiektu system poznawczy różnicę tę
zaniedbuje. Wykorzystuje ją natomiast w procesie percepcji głębi –
wielkość tej różnicy przekłada się bowiem na ocenę względnego dystansu
między obiektami w polu wzrokowym. Im bliżej siebie znajdują się
spostrzegane obiekty, tym większe jest zróżnicowanie w zakresie obrazu
między lewym a prawym okiem; im dalej są położone, tym różnice te są
mniejsze. Zdolność do oszacowania względnego dystansu obiektów
znajdujących się obok siebie w polu wzrokowym nazwano widzeniem
stereooptycznym (stereopsis; Blake, Sekuler, 2006).

RYCINA 7.2. Fizjologiczny mechanizm widzenia stereooptycznego


Jeśli obiekt jest odległy, gałki oczne muszą się na nim skupić pod mniejszym, bardziej ostrym kątem
α, podczas gdy w przypadku obiektu odległego gałki skupiają się pod bardziej rozwartym kątem β
(góra ryciny). Ponadto każda gałka oczna „widzi” obiekt nieco inaczej, ale w przypadku obiektu
odległego ta różnica jest mniejsza (dół ryciny). Mózg ocenia odległość obiektu, biorąc pod uwagę
zarówno kąt konwergencji gałek ocznych, jak i rozbieżność informacji docierającej do każdej
z gałek.
Źródło: opracowanie własne.

7.2.4. Identyfikacja obiektu


Proces identyfikacji obiektu składa się z kilku faz. Glyn Humphreys
i Vicky Bruce (1989) sugerują, że odbywa się on w sposób szeregowy,
a kolejne fazy nie mogą się rozpocząć bez ukończenia wcześniejszych
stadiów. Proponowany przez tych autorów model spostrzegania jest więc
skonstruowany zgodnie z założeniami klasycznych modeli blokowych
(zob. rozdz. 1). Pierwsza faza identyfikacji obiektu to faza recepcji danych
zmysłowych. Te wczesne procesy spostrzegania prowadzą do reprezentacji
obiektu w systemie poznawczym w formie zależnej od punktu obserwacji.
Utworzenie takiego odzwierciedlenia stymulacji kończy fazę drugą
omawianego procesu. W fazie trzeciej następuje klasyfikacja percepcyjna
obiektu – jego struktura (dane zmysłowe) jest porównywana ze
zgromadzonymi w ramach systemu wiedzy strukturami znanych obiektów
(dane umysłowe). Klasyfikacja percepcyjna poprzedza więc klasyfikację
semantyczną, w trakcie której przywołane zostają dane dotyczące funkcji
pełnionych przez obiekt oraz dane innych obiektów blisko z nim
związanych. Wreszcie w ostatniej fazie następuje klasyfikacja leksykalna,
w trakcie której obiektowi przypisywana jest skojarzona z nim etykieta
werbalna.

Odrębność faz klasyfikacji percepcyjnej i semantycznej potwierdzili Glyn


Humphreys i M. Jane Riddoch (1987). Badany przez nich pacjent HJA
wykazywał deficyty w rozpoznawaniu struktury percepcyjnej obiektów:
czynność ta zajmowała mu nawet do 30 s w przypadku prostych obiektów;
nie mógł odróżnić rysunków obiektów rzeczywistych od nierzeczywistych,
ale złożonych z rzeczywistych części. Nie miał jednak żadnych problemów
z klasyfikacją semantyczną przedmiotu już poprawnie zidentyfikowanego.
Z kolei pacjent JB stosunkowo poprawnie klasyfikował percepcyjnie
i leksykalnie pokazywane mu obiekty, natomiast miał problemy
z zapamiętywaniem i przypominaniem sobie funkcji, jakie pełnią obiekty
już przez niego nazwane.

Caterina Silveri i Guido Gainotti (1988) wykazali jednak, że faza


klasyfikacji leksykalnej zależy od przebiegu poprzednich faz procesu
identyfikacji obiektów. Nie można więc mówić o całkowitej niezależności
wskazywanych przez Humphreysa i Bruce faz identyfikacji obiektu.
Przypisanie etykiety werbalnej na podstawie definicji percepcyjnej
(struktura i wygląd obiektu) okazało się w ich badaniu znacznie mniej
efektywne niż nadanie nazwy obiektowi, którego definicja semantyczna
(funkcje i znaczenie obiektu) jest znana. Inni badacze, David Howard
i Virginia Orchard-Lisle (1984), pokazali ponadto, że w przypadku
pacjentki JCU, mającej kłopoty z klasyfikacją leksykalną, dodatkowa
wskazówka w postaci pierwszego fonemu poprawnej nazwy pomagała
w nadaniu etykiety werbalnej, podczas gdy wskazówka w postaci fonemu
obiektu semantycznie związanego z aktualnie nazywanym wręcz
przeszkadzała. Wyniki te wskazują z jednej strony na relatywną odrębność
poszczególnych faz identyfikacji obiektu (upośledzenie jednej raczej nie
przekłada się na deficyty w innej), a z drugiej – na ich sztywne następstwo
czasowe konieczne dla efektywności procesu identyfikacji.

Badacze procesu spostrzegania, analizując proces identyfikacji obiektu,


skupili się raczej na fazie identyfikacji percepcyjnej. Na przykład Marr
i współpracownicy (Marr, 1982; Marr, Nishihara, 1978) skoncentrowali się
na badaniu procesu tworzenia reprezentacji obrazowej obiektów w umyśle
przez detekcję określonych ich cech strukturalnych. Klasyfikacji
semantycznej na najwyższym poziomie rozpoznawania obiektów badacze
ci poświęcili relatywnie niewiele miejsca (zob. opis teorii obliczeniowej
w podrozdziale 7.4.5). Podobnie Irving Biederman (1987) w swojej teorii
identyfikacji obiektów poprzez detekcję ich geometrycznych
komponentów strukturalnych, zwanych geonami (geons, tj. geometrical
ions), bardziej zwraca uwagę na proces konstrukcji reprezentacji
percepcyjnej niż semantycznej czy leksykalnej. Zgodnie z jego koncepcją
36 różnych kształtów geometrycznych, takich jak bloki, walce, sfery, łuki
czy ostrosłupy, zupełnie wystarczy do opisania zróżnicowania w zakresie
wszystkich obiektów rzeczywistych (ryc. 7.3). Podobnie zresztą tylko 44
fonemy istniejące w języku angielskim wystarczają do stworzenia
reprezentacji leksykalnej wszystkich znanych słów w tym języku (Eysenck,
Keane, 2015). Według Biedermana system poznawczy dysponuje
podsystemami umożliwiającymi rozpoznanie tych kształtów dzięki
zbieraniu informacji dotyczących rejestrowanych w polu wzrokowym linii,
krawędzi i kątów, przy czym analizie podlegają cechy równoległości
i symetrii. W ten sposób detekcja kubka wymaga rozpoznania dwóch
komponentów strukturalnych: cylindra (na ciecz) i łuku (ucho do
trzymania). Rozpoznane komponenty są następnie zestawiane z trwałymi
reprezentacjami umysłowymi w celu identyfikacji postrzeganego obiektu.
Klasyfikacja percepcyjna jest rozstrzygana na rzecz takiej reprezentacji, do
której komponenty strukturalne są najlepiej dopasowane.

RYCINA 7.3. Geony i obiekty z nich utworzone


Na górnej części ryciny widzimy sześć geonów, różniących się pod względem czterech kryteriów:
krzywizny krawędzi, symetrii, stałości kształtu na całej długości oraz krzywizny głównej osi. Na
przykład pierwszy geon („cegła”) charakteryzuje się brakiem krzywizny krawędzi, symetrią, stałym
kształtem na całej długości oraz brakiem krzywizny. Na dolnej części ryciny pokazano cztery
przykładowe obiekty utworzone z geonów.
Źródło: opracowanie własne na podstawie Biederman, 1987.
Biederman i współpracownicy (Biederman, Beiring, Blickle, 1985;
Biederman, Ju, Clapper, 1985) potwierdzili słuszność koncepcji
rozpoznawania obiektów dzięki detekcji komponentów strukturalnych.
W pierwszym badaniu udało im się wykazać, że niekompletność
komponentów nie jest przeszkodą w identyfikacji obiektu, nadal bowiem –
w celu rozpoznania prezentowanego przedmiotu – system poznawczy
dobiera taką reprezentację, która najlepiej pasuje do obrazu percepcyjnego.
W ten sposób pozbawienie dziewięciokomponentowego obiektu nawet
czterech elementów strukturalnych nie wyklucza jeszcze poprawnej
identyfikacji. W następnym eksperymencie Biederman i współpracownicy
pokazywali osobom badanym trzy rodzaje obiektów wizualnych:
kompletne, niekompletne, tj. pozbawione jakiegoś komponentu (np. stół
pozbawiony jednej nogi), oraz zniekształcone, tj. utworzone
z komponentów kompletnych, ale zdegradowanych (np. stół z blatem
i wszystkimi nogami narysowany przerywaną kreską). Obiekty były
prezentowane krótko (100 ms) albo długo (200 ms). Oczywiście najlepiej
identyfikowane były obiekty kompletne. W przypadku krótkiej prezentacji
badani poprawniej identyfikowali obiekty pozbawione jakiegoś
komponentu niż obiekty kompletne, ale zniekształcone przez niewyraźną
formę prezentacji. W przypadku dłuższej prezentacji wzorzec wyników
ulegał odwróceniu – uczestnicy badania lepiej identyfikowali obiekty
zdegradowane, choć kompletne pod względem tworzących je geonów.
Interpretując uzyskane wyniki, Biederman ustalił, że krótka prezentacja
mało wyrazistych percepcyjnie bodźców uniemożliwia detekcję
komponentów strukturalnych – dlatego w tym warunku percepcyjnym
lepiej dla rozpoznawanego obiektu jest, aby przynajmniej kilka
komponentów było wyraźnych, a braki w zakresie pozostałych zostają
pominięte w procesie dostosowania reprezentacji wizualnej do umysłowej.
Długa prezentacja pozwala z kolei na odgórne uzupełnienie brakujących
części wszystkich elementów strukturalnych rozpoznawanych obiektów
i wówczas identyfikacja staje się możliwa dzięki korekcie geometrycznych
komponentów strukturalnych.

Badania EEG (elektroencefalografia) pozwoliły z dużą rozdzielczością


czasową określić neuronalną sygnaturę procesu identyfikacji bodźca
w zmianach częstotliwości sygnału EEG. Thomas Gruber, Matthias Müller
i Andreas Keil (2002) wykazali, że prezentacja bodźców, które badani
potrafili zidentyfikować, była związana ze wzrostem jego mocy
w częstotliwości gamma (> 20 Hz). Zmiany te zachodziły 180–300 ms po
prezentacji bodźca. Według tych autorów (Keil, Gruber i Müler, 2001)
zmiany w paśmie gamma obserwowane w okolicach potylicznych są
charakterystycznym sygnałem świadczącym o skutecznym procesie
detekcji i identyfikacji bodźca, choć przyznają oni również, że można je
obserwować także w trakcie przebiegu innych procesów umysłowych, np.
pamięciowych czy afektywnych.

Dodatkowo badania z użyciem funkcjonalnego rezonansu magnetycznego


(functional magnetic resonance imaging, fMRI) dostarczyły danych
pozwalających na przypisanie procesu identyfikacji obiektów do
konkretnych lokalizacji w mózgu. Patrick Vuilleumier i współautorzy
(Vuilleumier, Henson, Driver, Dolan, 2002) wykazali, że proces
identyfikacji obiektów jest, ogólnie rzecz biorąc, związany ze zmianami
aktywności w bocznej części płata potylicznego i dolnej części płata
skroniowego, w obu półkulach. Autorzy dowiedli również, że identyfikacja
obiektów rzeczywistych, w porównaniu z identyfikacją obiektów
nonsensownych, jest związana z aktywnością zakrętu wrzecionowatego
w płacie skroniowym. Podobnie Scott Murray i współpracownicy (Murray,
Kersten, Olshausen, Schrater, Woods, 2002) wykazali zwiększenie
aktywności w bocznej korze potylicznej związane z identyfikacją obiektów,
skojarzone z jednoczesnym zmniejszeniem aktywności
w pierwszorzędowej korze wzrokowej, gdzie przetwarzane są osobno
poszczególne cechy, zanim obiekt zostanie zidentyfikowany. Wynik ten
pokazuje przejście między fazami przetwarzania obrazu, od detekcji cech
do identyfikacji obiektu.

7.3. Spostrzeganie jako proces odgórny


Nie lekceważąc roli procesów oddolnych, trzeba stwierdzić, że
spostrzeganie jest również procesem odgórnym (top-down). Identyfikacja
obiektów w polu percepcyjnym jest możliwa dzięki temu, że reprezentację
percepcyjną konfrontuje się z danymi umysłowymi. To one gwarantują
z jednej strony stałość spostrzegania (twarz mimo zmian rozwojowych
pozostaje twarzą przynależną tej samej osobie), choć z drugiej strony są
przyczyną powstawania różnorodnych błędów i złudzeń percepcyjnych.
Chociaż takie rozumienie percepcji jest przez niektórych badaczy ostatnio
podważane (zob. Firestone, Scholl, 2016), jednak wielość dowodów
empirycznych świadczy na korzyść poglądu o odgórnym wpływie
procesów mentalnych na percepcję. Te dowody znajdziemy w czterech
grupach badań: nad (1) stałością spostrzegania; (2) wpływem nastawienia
na spostrzeganie; (3) złudzeniami i błędami w spostrzeganiu; (4) wpływem
kontekstu na spostrzeganie. Wiele badań tego rodzaju wywodzi się z teorii
postaci (Gestalt, zob. podrozdz. 7.4.2). Inne zapoczątkowano w nurcie
badawczym nazwanym „nowym spojrzeniem” na spostrzeganie (New
Look), zapoczątkowanym pod koniec lat 40. XX w. przez Brunera (Bruner,
Goodman, 1947; Bruner, Postman, 1947). Badania prowadzone w tym
nurcie akcentowały wpływ oczekiwań i nastawienia na proces
spostrzegania, a ponadto widziały percepcję w szerszym kontekście badań
nad osobowością, motywacją i czynnikami społecznymi.

7.3.1. Stałość spostrzegania


Stałość percepcyjna występuje wtedy, gdy spostrzeżenie jakiegoś obiektu
nie zmienia się mimo zmiany warunków, np. oświetlenia lub odległości, co
prowadzi do zmian w zakresie bodźca dystalnego, a w konsekwencji –
bodźców proksymalnych i rejestrowanych wrażeń. Doświadczenie
zgromadzone w formie trwałych reprezentacji umysłowych pozwala
systemowi poznawczemu na konstatację, że ten sam obiekt nie może
zmieniać swojej fizycznej charakterystyki wraz ze zmianą perspektywy,
warunków oświetlenia lub kontekstu. Wykrywanie stałości percepcyjnych
pozwala na „korygowanie” obrazu na siatkówce (Gibson, 1966). W efekcie
spostrzegamy coś, czego nie widzą nasze zmysły, a co podpowiada nam
nasza wiedza o świecie rzeczywistym.

Wyróżnia się kilka podstawowych stałości percepcyjnych. Stałość


wielkości polega na tym, że ten sam obiekt reprezentuje zawsze tę samą
wielkość niezależnie od absolutnego dystansu między obserwatorem
a spostrzeganym obiektem. Jego obraz na siatkówce jest tym bardziej
pomniejszony, im dalej znajdują się względem siebie obserwator i obiekt,
jednak wrażenie to pozostaje bez wpływu na doświadczaną
w spostrzeżeniu właściwość wielkości obserwowanego obiektu. Zjawisko
stałości wielkości umożliwia więc korektę wrażenia wynikającego
z oszacowania dystansu absolutnego. Uczestnicy eksperymentu Itellsona
(1951; zob. podrozdz. 7.2.3), nieświadomi manipulacji wielkością
obiektów, błędnie oceniali stały dystans między prezentowanym im
znanym bodźcem a ich punktem obserwacji. Bodziec ten w przekonaniu
osób badanych miał stałą wielkość, skoro więc odczuwały one wrażenie
jego zmieniającej się wielkości, to zmianie musiała ulec ocena odległości
obserwatora od obiektu. I właśnie takich oszacowań dokonywali uczestnicy
eksperymentu Itellsona.

Z kolei stałość kształtu pozwala na korektę wrażeń związanych


z dystansem względnym. Jak się powszechnie sądzi, obserwowanie figur
geometrycznych pod różnym kątem prowadzi często do początkowo
błędnego wnioskowania o ich kształcie: okna zamiast prostokątnych
wydają się trapezowate, a ściany budynków zdają się najwyższe w punkcie
obserwacji. Zmiana punktu obserwacji i wykorzystanie przez umysł zasady
stałości kształtu pozwalają na korektę tych błędnych wrażeń
w spostrzeżeniu. Podobnie, stałość jasności i barwy wynika
z odzwierciedlonych w ramach trwałych reprezentacji umysłowych
właściwości wizualnych konkretnych obiektów. Wychodząc w zimie nocą
na spacer, cieszymy się, że na ziemi leży biały śnieg, który być może
rozjaśni nam ciemności, mimo że z braku słońca nie odbija on niemal
żadnego światła. Śnieg jest w takich warunkach percepcji co najwyżej
szary, ale i tak widzimy go jako biały, bo wiemy, że taki jest ze swej natury.
Na tej samej zasadzie krew widzimy raczej w kolorze czerwonym, nawet
na czarno-białym filmie, a trawę – w zielonym, nawet na
impresjonistycznym obrazie, na którym naprawdę jest fioletowa.

7.3.2. Nastawienie
Nastawienie percepcyjne (perceptual set) – wstępne przygotowanie umysłu do odbioru określonej
informacji w procesie spostrzegania; może się dokonać poprzez jawną instrukcję lub uprzednią
ekspozycję informacji pod jakimś względem podobnych.

Nastawienie percepcyjne (perceptual set) to wstępne przygotowanie


umysłu do odbioru określonej informacji w procesie spostrzegania. Jeśli
np. człowiek jest przygotowany, że zobaczy kwadrat, może być
przekonany, że tak właśnie się stało, mimo że naprawdę pokazano mu
prostokąt lub trapez. Prostą ilustracją zjawiska nastawienia percepcyjnego
jest spostrzeganie rysunków dwuznacznych, których interpretacja
percepcyjna zależy od tego, co pokazywano nam wcześniej lub czego się
spodziewamy. Na przykład kształt

Φ
może być odczytany jako jedna z liter alfabetu greckiego, jako zlepek
dwóch małych liter „d” i „p”, a nawet jako kontur ptaka w locie.

Siła nastawienia percepcyjnego może być tak duża, że spostrzeżenie będzie


zupełnie nieadekwatne do rzeczywistości. W przypadkach mniej skrajnych
nastawienie wydłuża czas spostrzegania obiektów nieoczekiwanych, czyli
niezgodnych z treścią nastawienia, a skraca czas percepcji obiektów
oczekiwanych. Nastawienie percepcyjne odpowiada też za niektóre błędy
kategoryzacji. Przypuśćmy, że pokażemy komuś rysunek, który może być
zinterpretowany na dwa sposoby: jako wizerunek łysego mężczyzny
w okularach lub sylwetka szczura (Bugelski, Alampay, 1961). Jeśli
wcześniej pokażemy serię rysunków należących do jednej z tych kategorii
(np. obrazki różnych zwierząt), sprawimy, że rysunek dwuznaczny będzie
zinterpretowany jako przedstawiający szczura. Wystarczą cztery wcześniej
pokazane rysunki zwierząt, aby 100% osób badanych zobaczyło szczura,
podczas gdy w grupie kontrolnej, niepoddanej działaniu nastawienia, 81%
osób spontanicznie interpretuje dwuznaczny rysunek jako portret
mężczyzny (ryc. 7.4).

Wpływ nastawienia wywołanego manipulacją eksperymentalną jest


krótkotrwały. Aby je wyeliminować, zwykle wystarczy jawne odwołanie
poprzedniej instrukcji lub zmiana charakteru bodźców poprzedzających.
Bywają jednak rodzaje nastawienia, wynikające z trwałych i głęboko
utrwalonych struktur wiedzy albo ze stereotypów i uprzedzeń. Osoba
uprzedzona w stosunku do pewnej grupy etnicznej będzie dostrzegać
w wyglądzie i zachowaniu jej członków cechy, których zwykle nie
zauważa, jeśli są to cechy zgodne ze stereotypem.

RYCINA 7.4. Wpływ nastawienia na spostrzeganie dwuznacznego rysunku


Ostatni rysunek, identyczny w obu rzędach, jest przez większość osób interpretowany jako portret
mężczyzny w okularach. Jeśli jednak wcześniej pokażemy cztery rysunki zwierząt, większość ludzi
zobaczy w tym rysunku sylwetkę szczura.
Źródło: opracowanie własne na podstawie: Bugelski, Alampay, 1961.

7.3.3. Złudzenia i błędy percepcji


Trzecia grupa faktów, świadczących o odgórnym charakterze
spostrzegania, to złudzenia i błędy w odbiorze informacji z otoczenia. Lista
złudzeń percepcyjnych jest niezwykle długa, a podłoże działania różnych
kategorii złudzenia – nieco inne (Gregory, 1970). Niemniej niektóre z nich
potwierdzają zasadę, że wiedza i wcześniejsze przygotowanie umysłu
zniekształcają sposób widzenia obiektów, czyli interpretowania danych
zmysłowych.

RYCINA 7.5. Figury „niemożliwe”


Pierwsza to trójkąt Penrose’a, a trzecia to „niemożliwy” sześcian Neckera.
Źródło: opracowanie własne.

Spektakularnym przykładem złudzeń percepcyjnych są tzw. figury


niemożliwe (ryc. 7.5). Widząc tzw. trójkąt Penrose’a, nie potrafimy
zinterpretować poszczególnych linii, cieni i konturów, tak aby uzyskać
spójną interpretację tego, co właściwie jest nam pokazywane. Nie umiejąc
dokonać interpretacji, dochodzimy do wniosku, że taki przedmiot jest
niemożliwy, to znaczy nie istnieje inaczej, jak tylko w wyobraźni artysty.
Figury niemożliwe, w których lubował się holenderski artysta Maurits
Cornelis Escher, są interesującym przykładem działania konwencji
przedstawiania trójwymiarowych przedmiotów na dwuwymiarowej kartce
papieru. Chcąc narysować trzeci wymiar, artysta musi posłużyć się
umownymi wskazówkami tego, co jest bliżej, a co dalej. Obie strony –
twórca i odbiorca – znają tę konwencję jako coś zastanego, czyli jako część
kultury, w której wzrastały. Wobec tego mogą nie zdawać sobie sprawy, że
mają do czynienia z konwencją, która w innej kulturze, być może by nie
obowiązywała (Deregowski, 1972). Niekiedy artysta dopuszcza się
celowego nadużycia owej konwencji i w ten sposób powstają figury
niemożliwe. Efekt paradoksu i zaskoczenia wynika z tego, że są to obiekty
niemożliwe do wyprodukowania, ale możliwe do narysowania.

7.3.4. Wpływ kontekstu na spostrzeganie


Ten sam układ bodźców może być różnie interpretowany w zależności od
bodźców towarzyszących. Oznacza to, że samo wrażenie zmysłowe może
także prowadzić do zupełnie różnych spostrzeżeń. Siłę wpływu kontekstu
można ocenić na przykładzie prostego układu sześciu czarnych kół,
położonych koncentrycznie wokół koła białego (ryc. 7.6). W zależności od
tego, czy koło białe jest otoczone czarnymi kołami o małej czy dużej
średnicy, może być widziane jako większe lub mniejsze. Mamy tu do
czynienia ze złudzeniem percepcyjnym, którego mechanizm polega na
działaniu kontekstu sytuacyjnego wywołanego szczególnym układem
bodźców.
RYCINA 7.6. Wpływ kontekstu na spostrzeganie
Środkowe białe koło jest w obu wypadkach identyczne, jednak lewe wydaje się większe od prawego.
Źródło: opracowanie własne.

W klasycznym eksperymencie Stevena Palmera (1975) osobom badanym


pokazywano złożoną scenę, np. widok typowej kuchni, a następnie
pojedyncze obiekty, takie jak bochenek chleba, skrzynka na listy
i dziecięcy bębenek do gry. Zadanie polegało na nazwaniu obiektu, co
wymagało jego rozpoznania percepcyjnego i zaliczenia do właściwej
kategorii. Dodatkowo manipulowano stopniem wzajemnego podobieństwa
obiektów wymagających rozpoznania, np. bochenek chleba nieco
przypominał wyglądem skrzynkę na listy. Okazało się, że gdy obiekt był
dopasowany do kontekstu, wprowadzonego przez wcześniej pokazywaną
scenę (np. chleb i widok kuchni), rozpoznawano go łatwo i często, bo
w ponad 80% przypadków. Gdy zaś obiekt był neutralny ze względu na
kontekst, rozpoznawano go znacznie gorzej (ponad 60% rozpoznań),
najgorzej jednak (ok. 40% prawidłowych odpowiedzi) rozpoznawano
obiekty niezgodne z kontekstem, ale wizualnie podobne do obiektów
zgodnych z kontekstem (np. skrzynka na listy w kontekście kuchni).
Podobnie jak w przypadku prostych figur geometrycznych (zob. ryc. 7.6),
to samo wrażenie zmysłowe może prowadzić do różnych perceptów, które
w dodatku są konstruowane z mniejszym lub większym wysiłkiem.

7.4. Teorie percepcji


Teorie spostrzegania dotyczą różnych aspektów tego procesu. Starsze
koncepcje, takie jak teoria asocjacjonistyczna czy postaciowa, odpowiadają
na pytanie o wzajemne zależności między wrażeniami i spostrzeżeniami,
koncentrując się na problemie prymatu całości lub części w procesie
percepcji. Koncepcje te noszą nazwę teorii strukturalnych. Teorie modeli
i teorie cech poszukują odpowiedzi na pytanie, w jaki sposób
rozpoznajemy obiekt w polu percepcyjnym, natomiast sam proces recepcji
sensorycznej raczej ich nie zajmuje. Są one nazywane teoriami
identyfikacji obiektów. Najpełniej proces spostrzegania opisują
koncepcja obliczeniowa i koncepcja ekologiczna, wskazując w nieco
odmienny sposób na dwukierunkowy (oddolny i odgórny) jego charakter.

7.4.1. Teoria asocjacjonistyczna


Główną tezą koncepcji asocjacjonistycznej jest twierdzenie, że
spostrzeżenie to prosta suma wrażeń powstająca jako ich połączenie. Na
przykład percepcja koncertu rockowego na żywo jest wynikiem sumowania
szeregu wrażeń pochodzących z różnych zmysłów. Są wśród nich
wrażenia: (1) słuchowe, związane z odbieranymi dźwiękami muzyki
i reakcją tłumu; (2) wzrokowe, wynikające m.in. z oprawy scenicznej
występu; (3) węchowe, przybierające na sile wraz z czasem trwaniem
występu (oraz ilością „wylanego potu”); (4) dotykowe, zależne od miejsca,
z którego występ się ogląda (pod sceną zazwyczaj jest tłoczniej).
Pozbawienie koncertu rockowego na żywo pewnych wrażeń, np.
dotykowych, węchowych czy zapewne także niektórych słuchowych (np.
chóralny śpiew publiczności), prowadzi do zmiany spostrzeżenia – żaden
szanujący się bywalec tego typu imprez nie uzna wydarzenia
pozbawionego wymienionych wrażeń za koncert rockowy na żywo.
Zarazem jednak w przypadku koncertu rockowego oglądanego w telewizji
ważne są tylko wrażenia wzrokowe i niektóre słuchowe, a słuchanego
w radio – jedynie wrażenia słuchowe. Odmienne zestawy wrażeń definiują
więc, przez swoją sumę, odmienne spostrzeżenia.
Wrażenia łączą się ze sobą w spostrzeżenia na zasadzie praw kojarzenia.
Pierwsze prawo dotyczy styczności wrażeń w czasie. W procesie percepcji
łączymy ze sobą w spostrzeżenie te wrażenia, które współwystępują w tym
samym czasie, bądź te, które wiąże następstwo czasowe. W ten sposób
wrażenia smakowe, związane np. z piciem szampana, z jednej strony
kojarzą się z wrażeniami dobrej zabawy, z drugiej jednak – z wrażeniem
bólu głowy nazajutrz. Drugie prawo mówi o styczności wrażeń
w przestrzeni. W tym przypadku łączymy ze sobą w spostrzeżenie te
wrażenia, które współwystępują w jednym miejscu przestrzeni. Co za tym
idzie, doznanie gorąca raczej nie zostanie skojarzone z wrażeniem bieli
śniegu, a doznanie zimna – z wrażeniem barwy pustynnego piasku. Trzecie
prawo głosi zasadę kojarzenia wrażeń przez podobieństwo.
Spostrzeżenie powstaje z połączenia wrażeń, które uznajemy za podobne
z jakichś powodów, np. pod względem barwy czy kształtu. Wreszcie
ostatnie prawo głosi, że wrażenia mogą tworzyć spostrzeżenie przez
wzajemny kontrast. Człowiek mały wzrostem bywa często uznawany za
wielkiego duchem, nawet wtedy, gdy jego duch nie jest wcale silniejszy niż
innych ludzi.

Współwystępowanie wrażeń jest niezbędnym, ale niewystarczającym


warunkiem powstania spostrzeżenia. Dopiero wielokrotne łączne
występowanie poszczególnych wrażeń sprzyja powstaniu skojarzenia
w postaci spostrzeżenia. W przeciwnym wypadku ktoś, kto widziałby śnieg
tylko kilka razy podczas kwietniowych wypadów na narty na Kasprowy
Wierch, mógłby dokonać spostrzeżenia, że biel śniegu jest powiązana
z wrażeniem ciepła, a nie zimna. Niemniej najbardziej problematycznym
twierdzeniem koncepcji asocjacjonistycznej jest teza jednoznacznie
identyfikująca sumę wrażeń z konkretnym spostrzeżeniem. Znanym
przykładem przemawiającym przeciwko tej tezie jest spostrzeżenie kostki
Neckera (ryc. 7.7). Wrażenia powstające przy oglądaniu tego sześcianu za
każdym razem są takie same, jednak spostrzeżenia mogą być zupełnie inne,
w zależności od tego, na której ścianie – przedniej czy tylnej – jako
pierwszej zogniskuje się wzrok.

RYCINA 7.7. Sześciany Neckera


W zależności od tego, które z krawędzi uznamy za bliższe obserwatorowi, możemy wyobrazić sobie
zupełnie różne interpretacje tego samego układu wrażeń wzrokowych.
Źródło: opracowanie własne.

Koncepcja asocjacjonistyczna głosi więc prymat części nad całością oraz


wrażeń nad spostrzeżeniami, które od wrażeń właśnie są całkowicie
i jednoznacznie zależne. Niezwykle prosty mechanizm powstawania
spostrzeżenia jako zwykłej sumy wrażeń, sugerowany przez tę koncepcję,
jest całkowicie oddolny i nie uwzględnia w ogóle roli reprezentacji
umysłowych w procesie percepcji. A przecież fakt braku spostrzeżenia
„ciepłego śniegu” na Kasprowym Wierchu w kwietniu na równi wynika
z rzadkości współwystępowania wrażenia ciepła i bieli śniegu, jak i z faktu
korzystania z trwałych reprezentacji umysłowych, czyli wiedzy na temat
warunków klimatycznych panujących w polskich górach na wiosnę.

7.4.2. Teoria postaciowa


Zwolennicy postaciowej koncepcji spostrzegania (Max Wertheimer, Kurt
Koffka, Wolfgang Köhler) jako podstawową przyjęli tezę prymatu całości
nad częścią. Ich zdaniem (np. Wertheimer, 1923) pierwotne są
spostrzeżenia, wrażenia zaś wtórne, gdyż wynikają z analizy tego, co
zostało pierwotnie spostrzeżone. Całość jest czymś więcej niż sumą części,
dlatego sumowaniem wrażeń nie można, według psychologów postaci,
wyjaśnić procesu percepcji. Prostymi argumentami na rzecz tej tezy są: (1)
zjawisko płynnego ruchu pozornego elementów statycznych (szybko
wyświetlane po sobie statyczne obrazy wywołują złudzenie ruchu, np.
w filmie rysunkowym) oraz (2) spostrzeganie konstelacji gwiazd wcześniej
niż składających się na nie elementów. Drugi z przytoczonych argumentów
potwierdził empirycznie David Navon (1977). Prezentował on osobom
badanym bodźce w postaci liter, które skonstruował z innych liter (zob. ryc.
6.4), polecając wyodrębnić albo literę stanowiącą budulec (spostrzeganie
części), albo literę zbudowaną z innych liter (spostrzeganie całości).
W wyniku przeprowadzonego eksperymentu wykazał on, że spostrzeganie
postaci jest z reguły szybsze niż spostrzeganie części stanowiących tę
postać.

Jeden z najwybitniejszych psychologów postaci, Max Wertheimer (1923),


podał pięć podstawowych zasad, zgodnie z którymi system poznawczy
w procesie spostrzegania wyodrębnia całości (figury) z tła różnorodnych
wrażeń. Zasady te działają automatycznie, odpowiadając za spontaniczną
organizację elementów w polu spostrzeżeniowym. Autor ten stwierdził, że
figurę tworzą elementy znajdujące się blisko siebie. Bliskość przestrzenna
poszczególnych elementów konstelacji gwiazd decyduje więc o tym, że
spostrzegamy je jako całość, czyli gwiazdozbiór. Zauważył również, że
figurę tworzą elementy jednakowe lub podobne. Gdyby nie podobieństwo,
czyli jednakowy wygląd kartek, ryzę papieru widzielibyśmy jako 500
pojedynczych arkuszy. Zgodnie z kolejną zasadą Wertheimera figurę
definiuje kontynuacja, inaczej wspólny ruch obiektów w tym samym
kierunku, nawet wyobrażony. Spostrzegamy więc korek samochodowy jako
całość, a nie jako zbiór pojedynczych samochodów w różny sposób
blokujących nam przejazd. Figurą staje się również obiekt niedokończony,
który w jakiś sposób można „domknąć”; rządzi tym kolejna reguła, zwana
zasadą pregnancji. Z dwóch układów geometrycznych percepcyjnie
łatwiej wyodrębnić ten, który tworzy linię zamkniętą (jest fizycznie
domknięty). Jeśli natomiast jakiemuś obiektowi brakuje pojedynczej części
(np. trójkąt nie ma jednego wierzchołka), to w procesie spostrzegania fakt
ten jest pomijany: widzimy trójkąt, a dopiero późniejsza analiza pozwala
znaleźć jego niedoskonałości jako figury geometrycznej (ryc. 7.8).
Obserwacje te ujęto w ogólną zasadę dobrej figury. Właśnie ze względu
na tę zasadę tak trudno jest dobrze wykonywać zawód korektora tekstów:
nawet doświadczony redaktor często nie zauważa literówek, mentalnie
uzupełniając błędnie napisane słowo do dobrej figury, jaką jest wyraz
napisany poprawnie.

Koncepcja postaciowa sugeruje zatem wyraźną wtórność wrażeń wobec


spostrzeżeń. Parafrazując tytuł publikacji Navona (1977), ludzie z reguły
najpierw zauważają las, a następnie zdolni są wyodrębnić tworzące go
poszczególne drzewa. Niemniej nie brakuje też takich, którzy wpierw
dostrzegają elementy budujące większą całość, by potem z nich złożyć
spostrzeżeniową postać. Wieloletnie eksperymenty autorów tego
podręcznika z udziałem studentów i studentek I roku psychologii
z wykorzystaniem procedury Navona wyraźnie wskazują, że o ile kobiety
szybciej radzą sobie w warunku percepcji detali, o tyle mężczyźni znacznie
szybciej wykonują zadanie, gdy wymaga się od nich postrzegania całości.
Wyniki te sugerują istnienie znacznych różnic indywidualnych w zakresie
ulegania zasadzie prymatu percepcyjnego (części nad całością lub całości
nad częścią), a w konsekwencji pozwalają na konkluzję, że obie opisane
strukturalne koncepcje spostrzegania: asocjacjonistyczna oraz postaciowa,
mogą prawidłowo opisywać proces percepcji w zależności od warunków
percepcji oraz indywidualnych cech systemu poznawczego. Ta ostatnia teza
jest zresztą zgodna z piątą zasadą percepcji postaci głoszącą, że o tym,
czym jest figura, decydują nastawienie i doświadczenie percepcyjne. Jeśli
podmiot cechuje się analityczno-detalicznym stylem percepcyjnym,
wykształconym wskutek wcześniejszych doświadczeń percepcyjnych, to
raczej trudno od niego wymagać, aby proces spostrzegania rozpoczynał od
detekcji całościowo ujmowanego, nadrzędnego obiektu w polu
percepcyjnym.

RYCINA 7.8. Zasady percepcji postaci, czyli reguły spontanicznego grupowania się elementów
w polu spostrzeżeniowym, opisane przez psychologów postaci
Źródło: opracowanie własne.

7.4.3. Teoria wzorców


Koncepcja ta zakłada, że proces identyfikacji obiektu przebiega na
zasadzie porównania obrazu percepcyjnego z jego umysłowym wzorcem
(template). Przyjmuje się, że wzorce porównawcze są holistycznymi,
niepodlegającymi rozbiciu na elementy składowe, jednostkami (Reed,
1988). Proces porównania zmierza do pomiaru wielkości korespondencji
(zgodności) między zarejestrowanym obrazem bodźca a jego
odpowiednikiem przechowywanym w magazynie pamięci trwałej
(Anderson, 1995). Obiekt zostaje rozpoznany jako ten wzorzec, który
w największym stopniu pasuje do obrazu zarejestrowanego bodźca (best
match). Miarą umożliwiającą rozpoznanie jest stopień pokrywania się
(przystawania) obrazu percepcyjnego i wzorca (Reed, 1988).

Stosowanie w procesie identyfikacji obiektów takiej miary jak stopień


pokrywania się porównywanych obiektów jest jednak bardziej
problematyczne niż użyteczne. Po pierwsze, porównanie może zachodzić
tylko w przypadku, gdy obiekt porównywany do wzorca znajduje się
w naturalnej (takiej jak zwykle) pozycji percepcyjnej. Zgodnie z prawem
rotacji mentalnych (zob. podrozdz. 2.2) identyfikacja obiektu
transformowanego o pewien kąt rotacji wymaga jego przekształcenia do
pozycji naturalnej. Im większy jest kąt rotacji, tym dłużej trwa poprawna
identyfikacja obiektu. Po drugie, zróżnicowanie w zakresie obrazów
percepcyjnych tego samego obiektu (widzianego np. z różnych punktów
obserwacji) jest tak duże, że żaden konkretny wzorzec nie jest w stanie
objąć takiego zróżnicowania. Konkretność i holizm wzorca
porównawczego wykluczają możliwość elastycznego dostosowania się
nawet wtedy, gdy różnice w przystawaniu obrazu percepcyjnego i jego
wzorca są niewielkie. Znakomicie ilustruje ten problem przykład
bankomatu. Realizuje on transakcję tylko w przypadku 100% zgodności
obrazu karty bankomatowej konkretnego właściciela i wzorca tej karty,
który przechowuje w swojej pamięci. Nawet minimalne uszkodzenie karty,
polegające np. na zmniejszeniu wypukłości jednej z cyfr jej numeru
powoduje, że nie jest ona rozpoznawana przez bankomat, a transakcja nie
może być zrealizowana. Zgodnie z tą teorią niewielka różnica, odstępstwo
od wzorca, zaniedbywana na poziomie rejestracji sensorycznej,
uniemożliwia identyfikację bodźca. Po trzecie wreszcie, omawiana
koncepcja nie wskazuje na sposób, w jaki różnią się od siebie poszczególne
wzorce. Jedyne, co można stwierdzić w ramach teorii modeli, to fakt braku
przystawania poszczególnych wzorców do siebie, ale stopień tej
nieprzystawalności jest tak samo niewymierny, jak niewymierne są
możliwe odstępstwa od pokrywania się obrazu percepcyjnego i jego
wzorca.

Mimo przedstawionych problemów teoria wzorca okazuje się użyteczną


koncepcją rozpoznawania obiektów w pewnych szczególnych warunkach
percepcyjnych. William Phillips (1974) prezentował osobom badanym
tabele, w których część cel (rubryk) była całkowicie wypełniona, a część
pozostawała pusta (pola wypełnione i puste umieszczano w tabelach
losowo). Następnie, po upływie pewnego czasu, uczestnikom
eksperymentu ponownie prezentowano tabelę (tę samą lub inną)
z pytaniem, czy jest ona identyczna z uprzednio pokazywaną czy od niej
różna. Druga tabela mogła być prezentowana albo dokładnie w lokalizacji
pierwszej, albo w lokalizacji przesuniętej horyzontalnie o jeden rząd.
Prezentacja bodźca porównawczego była opóźniona – w tym miejscu
zostaną uwzględnione w opisie wyników opóźnienia jedynie w zakresie
20–600 ms. W wyniku badań Phillips wykazał, że jeśli bodźce były
prezentowane w tej samej lokalizacji przestrzennej, to poprawność
wykonania zadania przez badanych malała jako funkcja czasu opóźnienia
prezentacji bodźca porównawczego. Przy opóźnieniu większym niż 300 ms
ta sama lokalizacja przestrzenna dwóch tabel nie pomagała istotnie
w procesie porównywania. Natomiast w przypadku różnej lokalizacji
bodźca zapamiętywanego i porównywanego czas opóźnienia nie miał
żadnego znaczenia dla bardzo niskiej poprawności wykonania zadania
przez badanych.

Uzyskane wyniki Reed (1988) wyjaśnia zasadami funkcjonowania


magazynu ikonicznego (zob. podrozdz. 7.2.2). W magazynie tym
informacja wizualna jest kodowana sensorycznie w postaci całościowego
obrazu. Zapis ten ulega bardzo szybkiej degradacji, z jednej strony wskutek
nietrwałości kodu percepcyjnego, a z drugiej – z powodu następstwa
kolejnych obrazów percepcyjnych. Zgodnie zaś z wynikami badań
Sperlinga (1960), jeśli narząd wzroku zostanie zmuszony do kolejnej,
szybkiej fiksacji na kolejnym bodźcu, informacje dotyczące poprzedniej
fiksacji ulegają całkowitemu wyparciu. Tak było w przypadku, gdy
prezentacja jednej tabeli bodźców następowała bardzo szybko po
przedstawieniu innej. Inaczej dzieje się jednak, jeśli w punkcie fiksacji
zostanie zaprezentowany po raz drugi ten sam bodziec. Wtedy poprawność
porównania dwóch obrazów (bodźca do zapamiętania i bodźca
porównawczego) jest uzależniona od trwałości magazynu ikonicznego, a ta
– jak wiadomo – zmniejsza się wraz z czasem przechowywania informacji.
Dlatego poprawność wykonania w warunku tej samej lokalizacji jest tym
lepsza, im krótszy czas opóźnienia prezentacji bodźca porównawczego.

Można zatem stwierdzić, że koncepcja identyfikacji obiektów przez


porównywanie całościowych obrazów percepcyjnych i umysłowych jest
możliwa do zaakceptowania w zasadzie tylko na poziomie recepcji
sensorycznej. Rzeczywiście, informacja przechowywana w magazynach
sensorycznych zdaje się mieć holistystyczny charakter, a wobec braku
możliwości wyodrębnienia poszczególnych właściwości tego typu
reprezentacji na poziomie sensorycznym porównywanie ich ze sobą może
dotyczyć tylko całości. Jak się jednak wydaje, na dalszych etapach procesu
spostrzegania dochodzi do wyodrębnienia poszczególnych cech obiektów.
Ich porównanie dokonuje się raczej dzięki analizie wyodrębnionych
właściwości, a nie sprawdzania przystawania poszczególnych
odzwierciedleń względem siebie. I właśnie takie rozwiązanie proponuje
koncepcja cech.

7.4.4. Teoria cech


Zasadniczym problemem teorii modeli jest wskazana wcześniej niewielka
trwałość danych przechowywanych w magazynach informacji
sensorycznej. Tylko w przypadku, gdy proces identyfikacji obiektu trwa
bardzo krótko, system poznawczy może polegać wyłącznie na
zakodowanych w wyniku rejestracji zmysłowej obrazach sensorycznych.
Proces ten wymaga jednak coraz więcej czasu, w miarę jak wzrasta liczba
potencjalnych kategorii umysłowych, do których można zaliczyć
przetwarzane dane zmysłowe (Posner, Mitchell, 1967; zob. podrozdz.
7.2.2). Jednocześnie dalsze przetwarzanie tych danych polega na
wyróżnianiu ich dystynktywnych właściwości przez zespoły komórek
zwane detektorami cech (zob. podrozdz. 7.2.1). Na tej podstawie można
wnosić, że w procesie identyfikacji obiektów, przebiegającym w dłuższej
perspektywie czasowej, rozpoznanie opiera się nie na analizie
całościowego obrazu sensorycznego obiektu, a na analizie szczególnie
dystynktywnych właściwości tych obiektów i porównania tychże
właściwości z cechami reprezentacji umysłowych obiektów tej samej
kategorii umysłowej.

Eleanor Gibson (1969) stwierdziła, że nabywanie wzorcowych


reprezentacji umysłowych odbywa się w procesie spostrzegania
dystynktywnych cech (features), pozwalających odróżnić jeden wzorzec od
drugiego. Zaproponowała cztery zasady, zgodnie z którymi wyróżniane są
w procesie spostrzegania takie właśnie cechy kryterialne. Autorka ta
zauważyła (zasada pierwsza), że cecha kryterialna musi przyjmować różne
wartości dla różnych wzorców. Taką właściwością dla liter wydaje się np.
ich wysokość, pozwalająca odróżnić choćby litery „d”, „s” i „p”.
Konkretna wartość cechy kryterialnej przypisana konkretnemu modelowi
powinna (zasada druga) pozostać niezmienna niezależnie od punktu
i właściwości obserwacji (jasność, wielkość i perspektywa). W ten sposób
litera „d” pozostaje zawsze wyższa niż litera „s”, niezależnie od rodzaju
użytej czcionki (pod warunkiem że tej samej dla obu liter). Gibson
stwierdziła również (zasada trzecia), że wszystkie cechy kryterialne
powinny razem (mechanizm integracji cech w obiekt – zob. podrozdz.
5.2.2) układać się w unikatowy wzorzec – żadne dwa różne wzorce nie
mogą się charakteryzować kombinacją tych samych cech kryterialnych.
Litery „d” i „b” mają mnóstwo cech wspólnych, takich jak wysokość,
„brzuszki” itd., jednak ich różna orientacja przestrzenna w zestawieniu
z tymi wspólnymi właściwościami gwarantuje rozróżnialność tych znaków
graficznych. Jako ostatnią, czwartą zasadę wyodrębniającą cechy
kryterialne Gibson przyjęła, że liczba cech kryterialnych powinna być
relatywnie mała. W przeciwnym razie proces identyfikacji obiektu trwałby
bardzo długo, a przecież mamy wrażenie, że przebiega bardzo szybko (np.
czytanie liter czy rozpoznawanie twarzy).

Zgodnie z teorią modeli prawidłowa decyzja o tym, że dwa obiekty nie są


egzemplarzami tego samego wzorca, nie powinna zależeć od stopnia
podobieństwa obu porównywanych bodźców. Wystarczy drobne
nieprzystawanie porównywanych obrazów sensorycznych, by podjąć
szybką decyzję. Natomiast zgodnie z teorią cech szybkość podejmowania
decyzji o różności obiektów zależy od proporcji liczby cech wspólnych
i kryterialnych. W eksperymencie Eleanor Gibson, Franka Shapiro i Alberta
Jonasa (1968) osoby badane porównywały litery. Decyzja o różności liter
„G” i „W” zapadała bardzo szybko, a czas jej podjęcia wyniósł średnio 458
ms. Uczestnicy tego badania potrzebowali średnio aż 113 ms więcej (czyli
571 ms), aby prawidłowo ocenić różność liter „P” i „R”. Czas decyzji
okazał się rosnącą funkcją podobieństwa obu porównywanych obiektów
pod względem cech kryterialnych. Wynik ten wyraźnie wskazuje na
niekorzyść teorii modeli i na słuszność koncepcji cech w odniesieniu do
bodźców prezentowanych aż do momentu ich identyfikacji. James
Townsend (1971) również prezentował badanym litery do porównania,
jednak swoją prezentację przeprowadzał bardzo szybko z wykorzystaniem
tachistoskopu, aby mieć pewność, że pokazywane bodźce trafiają do
magazynu ikonicznego. Okazało się, że badani popełniali relatywnie dużą
liczbę błędów. Co więcej, ich liczbę i rodzaj (litery uznawane za podobne
mimo swej różności) przy krótkiej prezentacji udawało się lepiej
przewidzieć na podstawie koncepcji modeli (korelacja błędy oczekiwane –
błędy stwierdzone wyniosła aż 0,70) niż na podstawie koncepcji cech
(analogiczna korelacja wyniosła tylko 0,50).

Omówione wyniki wskazują na komplementarność obu koncepcji: modeli


i cech, w wyjaśnianiu procesu identyfikacji obiektów. Przy krótkiej
prezentacji i braku czasu na wyodrębnianie cech kryterialnych system
poznawczy kieruje się w procesie spostrzegania zarejestrowanym,
całościowym obrazem sensorycznym i odpowiadającymi mu obrazowymi
modelami umysłowymi. Proces identyfikacji obiektów ma bowiem
charakter próby dopasowania właśnie zarejestrowanych danych
zmysłowych do trwałych obrazów umysłowych. Porównanie to jest
całościowe i często – na skutek pomijania małych różnic (elastyczność
modeli) – prowadzi do błędów identyfikacji. Przy długiej prezentacji
system poznawczy ma wystarczająco dużo czasu na wyodrębnienie cech
kryterialnych i porównywanie obiektów poprzez szczegółową ich analizę
pod kątem tych właściwości. Tego typu identyfikacja jest procesem
trwającym dłużej, ale prowadzi do bardziej poprawnych rozróżnień. Warto
podkreślić, że rozpoznawanie obiektów jest złożonym procesem
umysłowym, do którego stosuje się podstawowa zasada funkcjonowania
umysłu, wykorzystywana również przy detekcji prostych sygnałów, tj.
zasada przetargu między szybkością a poprawnością (zob. podrozdz. 5.2.1).
Szybka, ale mało poprawna identyfikacja na podstawie zestawiania modeli
sensorycznych i umysłowych, oraz wolna, ale dokładna identyfikacja na
podstawie analiz zestawów cech kryterialnych są dwoma alternatywnymi
sposobami rozpoznawania złożonych bodźców percepcyjnych.

7.4.5. Teoria obliczeniowa


Zdaniem Davida Marra (1982) proces spostrzegania polega na generowaniu
pewnej serii reprezentacji spostrzeganego środowiska. Reprezentacje te
zawierają opis właściwości obiektów obecnych w polu percepcyjnym.
Wśród wielu różnych form odzwierciedleń percepcyjnych Marr wyróżnił
jednak tylko trzy, oznaczając je: 2D, 2½D oraz 3D, gdzie D oznacza
wymiar, a cyfra go poprzedzająca – liczbę wymiarów uwzględnianych
w reprezentacji umysłowej. Pierwotne reprezentacje (primal sketch; 2D)
przynoszą opis pola wzrokowego jako dwuwymiarowego obrazu,
a odzwierciedlenie to pozbawione jest percepcji głębi. Taka reprezentacja
jest możliwa dzięki strukturalnie najprostszym detektorom cech,
zlokalizowanym w komórkach zwojowych siatkówki. Wychwytują one –
dzięki analizie natężenia światła odbijanego czy emanowanego przez
postrzegane obiekty – jedynie takie właściwości stymulacji, jak krawędzie,
kontury, linie i powierzchnie barwne obiektów. Możliwość wyróżnienia
krawędzi figury (jej kształtu) zawdzięczamy temu, że oddziela ona dwa
obszary o różnej luminacji światła. Efekt ten został nazwany zjawiskiem
przechodzenia przez krawędź (zero-crossing; Marr, Hildreth, 1980).
Natomiast powierzchnie zostają wyodrębnione przez otaczające je
krawędzie oraz przez intensywność światła przez nie odbijanego,
związanego z ich naturalną barwą.

Marr (1976) podzielił jeszcze pierwotne reprezentacje na surowe (raw)


i pełne (full). Pierwsze stanowią jedynie mapę punktów świetlnych (pixels;
tj. picture elements), różniących się intensywnością, podczas gdy drugie –
czyniąc użytek z informacji zawartych w danych surowych –
odzwierciedlają kształty obiektów w polu wzrokowym. Ze względu na to,
że natężenie światła w poszczególnych punktach świetlnych zmienia się
nieustannie, surowe reprezentacje pierwotne są tworzone bez przerwy,
a pełna reprezentacja pierwotna jest efektem przefiltrowania wielu
odzwierciedleń surowych. Nałożony na mapy punktów świetlnych filtr
pozwala wyeliminować chwilowe fluktuacje w intensywności światła
(związane np. ze zmianą kąta widzenia czy padającym na obiekty cieniem),
utrudniające spostrzeganie właściwych kształtów obiektów.

Jako kolejna w procesie spostrzegania tworzy się reprezentacja 2½-


wymiarowa (2½D). Odzwierciedlenie to uwzględnia opis obiektów
w kategoriach głębi (perspektywy przedmiotu) oraz obrazu powierzchni
(strona widoczna). Podobnie jak w przypadku reprezentacji pierwotnych,
również i to odzwierciedlenie jest zależne od punktu obserwacji. Jest ono
jednak konstruowane już nie tylko z informacji pochodzących od
receptorów wzrokowych, lecz także z uwzględnieniem wskazówek
wizualnych, będących efektem trwałej wiedzy dotyczącej świata
zewnętrznego oraz fizjologicznych mechanizmów funkcjonowania narządu
wzroku. Dzięki wskazówkom jednoocznym i dwuocznym możliwa jest
percepcja absolutnego i względnego dystansu między obiektami.
Zróżnicowanie w zakresie dystansu pozwala na wychwycenie
charakterystyki powierzchni spostrzeganych obiektów.

Argumentów na rzecz odrębności w procesie spostrzegania reprezentacji


2D oraz 2½D dostarczyły analizy możliwości percepcyjnych pacjenta S
(Benson, Greenberg, 1969). Badany ten z jednej strony potrafił
rozpoznawać małe zróżnicowania w zakresie jasności obiektów czy
wychwytywać ruch przedmiotów w polu wzrokowym. Z drugiej jednak
strony nie był w stanie porównywać ani kopiować kształtu figur
geometrycznych. Zdaniem Michaela Eysencka i Marka Keane’a (1995)
świadczy to na korzyść tezy, że S był w stanie korzystać z reprezentacji
pierwotnych (z pewnością z ich formy surowej, z dużym
prawdopodobieństwem z formy pełnej), jakkolwiek zaburzeniu uległ
u niego proces przekształcania reprezentacji pierwotnych w reprezentacje
2½-wymiarowe. Przetwarzanie informacji dotyczących kształtu – jak
wynika z tego przypadku – jest konieczne do stworzenia reprezentacji głębi
i powierzchni przedmiotu. Jednocześnie badacze zauważyli, że S potrafił
korzystać z trwałych umysłowych reprezentacji obiektów znajdujących się
w polu wzrokowym, jeśli uruchomienie pełnego odzwierciedlenia
prezentowanych mu przedmiotów nie odbywało się za pośrednictwem
zmysłu wzroku. Wskazówki słuchowe lub dotykowe umożliwiały
pacjentowi S dokonanie semantycznej i leksykalnej klasyfikacji
spostrzeganych bodźców. Jeśli jednak musiał ograniczyć się jedynie do
percepcji wzrokowej, identyfikacja obiektu przekraczała jego możliwości.
Jak się więc wydaje, reprezentacja 2½D jest koniecznym etapem
pośrednim w tworzeniu ostatecznej reprezentacji trójwymiarowej (3D),
jeśli spostrzeżenie powstaje wyłącznie na podstawie informacji
wizualnych. Dzięki różnorodności narządów zmysłów możliwe jest
skonstruowanie pełnej, trójwymiarowej reprezentacji percepcyjnej obiektu
bez korzystania ze zmysłu wzroku. To zapewne dlatego niewidomi od
urodzenia, poznający kształty figur jedynie zmysłem dotyku, ulegają
efektowi rotacji mentalnych (Marmor, Zaback, 1976; zob. podrozdz. 2.2),
który – jak się wydaje – jest nieodłącznie związany z przetwarzaniem
reprezentacji obrazowych.

Odzwierciedlenia 3D są, zdaniem Marra (1982), ostatecznym produktem


procesu percepcji. Reprezentacje tego typu uwzględniają pełny
trójwymiarowy obraz obiektów w polu wzrokowym (łącznie ze stroną
niewidoczną dla oka), niezależny od lokalizacji punktu obserwacji, a co za
tym idzie – również od kąta obserwacji. Układy komórek nerwowych,
odpowiedzialne za ich konstrukcję, znajdują się już w korze wzrokowej.
Mają one bogate połączenia z tymi obszarami mózgu, które odpowiadają za
trwałe przechowywanie wiedzy o świecie. David Marr i Herbert Nishihara
(1978) zaproponowali trzy kryteria wyróżniające reprezentacje 3D.
Zgodnie z pierwszym z nich odzwierciedlenia te muszą być łatwo dostępne
i łatwo konstruowalne (tak łatwo, jak dostępna jest trwała wiedza na temat
obiektów, które reprezentują). Według drugiego kryterium muszą one być
niezależne od możliwego kształtu obiektu widzianego z różnych
perspektyw (np. reprezentacja wizualna twarzy musi być niezależna od
tego, czy jest widziana z lewego czy z prawego profilu). Trzecie kryterium
stanowi, że reprezentacje 3D muszą być elastyczne, aby zdolne były
dopuszczać niewielkie rozbieżności w widoku obiektu z różnych
perspektyw.

Badania nad niezależnością reprezentacji 2½D i 3D przeprowadziły


Elizabeth Warrington i Angela Taylor (1978). Uczestniczący w nich pacjent
potrafił identyfikować obiekt na pokazywanych mu zdjęciach na podstawie
analizy jego kształtu. Jeśli jednak pokazywano mu zdjęcie znanego
przedmiotu w niezwykłej rotacji (np. żelazka w rzucie od strony uchwytu),
nie był w stanie prawidłowo rozpoznać obiektu. Jak sugerują Eysenck
i Keane (1995), u tego pacjenta funkcjonowanie reprezentacji 2½D nie było
zaburzone, jednak pełna trójwymiarowa reprezentacja wizualna
spostrzeganego środowiska pozostawała poza jego zasięgiem.

Nad odzwierciedleniami 3D pracowali również Marr i Nishihira (1978).


Stwierdzili oni, że podsystemy niezbędne do ich konstrukcji mają postać
walców, obracających się wokół trzech podstawowych osi układu
współrzędnych w przestrzeni. W zależności od wymaganej precyzji
spostrzegania postać człowieka może być reprezentowana wizualnie albo
przez odcisk figury w ramach pojedynczego walca, albo przez sześć
uformowanych walców, odpowiadających dwóm nogom, dwóm rękom,
głowie i korpusowi, albo też przez bardzo wiele walców różnych wielkości,
przy czym każdy odzwierciedlałby szczegóły anatomiczne poszczególnych
kończyn czy wręcz narządów. Podział obiektu na poszczególne części
przedstawione za pomocą różnej wielkości walców byłby w tym przypadku
możliwy dzięki detekcji wklęsłości (concavities). Informacja
o zróżnicowaniach w zakresie powierzchni figury (wklęsłościach
i wypukłościach) jest już bowiem dostępna na poziomie reprezentacji 2½D.
Tam prawdopodobnie zapada więc decyzja o liczbie elementów obiektu
odzwierciedlanych w formie walców 3D. Kontynuując badania nad formą
reprezentacji 3D, Donald Hoffman i Whitman Richards (1984) wykazali, że
twarze wyraźnie zarysowane (dzięki wklęsłościom między wypukłymi
elementami, takim jak nos, brwi, podbródek) są łatwiej rozpoznawane niż
twarze, w których przypadku charakterystyczne elementy są „wtopione”
w powierzchnię („buzia jak księżyc w pełni”). Propozycję Marra
i Nishihary rozwinął Biederman (1987), sugerując jednak, że reprezentacje
3D są konstruowane z różnych przestrzennych form podstawowych –
geonów, których wyróżnił on 36 (zob. podrozdz. 7.2.4).

Teoria obliczeniowa Marra (1982), nazwana tak ze względu na ambicje


autora, aby wykorzystać ją do modelowania komputerowego, znajduje
potwierdzenie w różnorodnych danych. Z jednej strony są to dane
psychofizyczne, dotyczące funkcjonowania narządu wzroku oraz sposobu
rejestracji natężenia iluminacji obiektów w polu percepcyjnym, z drugiej
zaś mocne ugruntowanie zapewniają tej teorii badania psychofizjologiczne,
dotyczące zróżnicowań strukturalnych i funkcjonalnych wśród detektorów
cech na wstępującej drodze czuciowej. Zgodne są też z nią wyniki badań
psychologicznych z udziałem pacjentów klinicznych, którzy – cierpiąc na
różnorodne deficyty w zakresie układu nerwowego – borykają się
z trudnościami w zakresie konstrukcji poszczególnych wizualnych
reprezentacji obiektów w polu percepcyjnym.
7.4.6. Teoria ekologiczna
Według Jamesa Gibsona (1979) otaczającą nas rzeczywistość poznajemy
bezpośrednio, bez konieczności posługiwania się danymi pamięciowymi
dotyczącymi spostrzeganych obiektów. Głosi on więc ideę bezpośredniego
poznania, sprzeczną w zasadzie z podstawowymi założeniami psychologii
poznawczej, zgodnie z którymi umysł aktywnie konstruuje wewnętrzną
reprezentację poznawanej rzeczywistości (Bruner, 1957). Jego koncepcja
jest przykładem oddolnego podejścia do procesów spostrzegania.
W odniesieniu do recepcji sensorycznej Gibson (1950) zgadza się
w zasadzie z innymi badaczami procesu spostrzegania, według których
informacje docierają do receptorów w szyku optycznym (optic array),
uporządkowanym ze względu na intensywność światła odbijanego od
poszczególnych obiektów, a fotoreceptory rejestrują natężenie światła,
przyczyniając się do powstania obrazu spostrzeganych obiektów na
siatkówce. Tu jednak podobieństwa koncepcji ekologicznej i obliczeniowej
się kończą.

Gibson (1966) twierdzi bowiem, że poszczególne właściwości obiektów


w polu wzrokowym są wykrywane bezpośrednio – nie jest zatem, jego
zdaniem, potrzebny cały ciąg reprezentacji w celu detekcji cech lub funkcji
przedmiotów, a przetwarzanie informacji zgromadzonej w receptorach ma
minimalny zakres. Złożoną właściwością bezpośrednio daną w percepcji
jest np., według tego badacza, absolutny dystans obserwatora względem
spostrzeganego obiektu. Cecha ta jest dostępna na podstawie analizy
gradientu struktury powierzchni (texture gradient). Obiekty widziane
z daleka mają tę strukturę mniej skomplikowaną, a intensywność światła
odbijanego przez taką powierzchnię jest mniej zróżnicowana dla
fotoreceptorów oka. Różnica między koncepcją obliczeniową
a ekologiczną jest zatem widoczna już na poziomie reprezentacji
percepcyjnych kształtów. Marr uważa, że detekcja głębi i struktury
powierzchni wymaga skomplikowanych przekształceń mapy punktów
świetlnych na poziomie reprezentacji 2½D, natomiast Gibson twierdzi, że
właściwości te są dane bezpośrednio w postrzeganiu w postaci różnic
w intensywności rejestrowanego światła.

W przypadku obiektów odległych różnice te są jednak minimalne. Dlatego,


zdaniem Gibsona (1979), percepcja ma charakter motoryczny. Poruszanie
się obserwatora w polu wzrokowym pozwala na precyzyjne uchwycenie
właściwości absolutnego i względnego dystansu wobec obiektów. Obiekty
położone dalej lub lokalizowane poza kierunkiem ruchu przybliżają
się/oddalają znacznie wolniej niż obiekty położone bliżej. Zjawisko
paralaksy ruchowej umożliwia więc prostą detekcję głębi i dystansu.
Gibson (1950) wykazał to, analizując zachowanie pilotów samolotów
bojowych podchodzących do lądowania. Ruch obiektów jest zresztą
według niego (i nie tylko; zob. podrozdz. 5.2.2) właściwością priorytetową
obiektów w polu wzrokowym. Cecha ta jest rejestrowana przez specjalny
rodzaj receptorów w ramach zmysłu wzroku – prioreceptory.

Motoryczny charakter percepcji pozwala także na wykrycie dwóch


rodzajów właściwości pola percepcyjnego wyższego rzędu: (1)
niezmienników (invariants; inaczej – stałości), tj. właściwości pola, które
nie zmieniają się wraz ze zmianą punktu obserwacji, oraz (2) zmienników
(transpositions), czyli cech, które tym zmianom podlegają. Z punktu
widzenia przebiegu procesu percepcji ważne są zwłaszcza niezmienniki.
Gibson (1979) zdefiniował niezmiennik jako pewną liczbę własności pola
percepcyjnego, która zmienia się regularnie i zgodnie z pewnymi prawami
wraz ze zmianą punktu obserwacji. Podstawą do wykrycia niezmienników
jest zatem zmieniająca się perspektywa. Inaczej jeszcze można je określić
jako „rzutowane” (niezależne od dystansu absolutnego) właściwości
obiektów. Ta sama lokomotywa widziana z bliska i z daleka będzie miała te
same właściwości w rzucie, obojętne, czy transformowana do rzutu jest
lokomotywa widziana z daleka czy z bliska. Wynika to z faktu, że
wzajemne proporcje między obiektami (np. lokomotywą i otoczeniem) są
stałe i niezależne od odległości punktu obserwacji. Złudzenia percepcyjne,
według Gibsona, są wynikiem unieruchomienia obserwatora w jednym
punkcie obserwacyjnym i przez to odebrania mu możliwości przyjrzenia
się obiektowi z różnych perspektyw, tak aby możliwe było wykrycie
stałości w analizowanej sytuacji percepcyjnej. Na przykład tzw. złudzenie
Amesa polega na widzeniu trapezoidalnego w istocie pokoju jako
prostokątnego. Złudzenie natychmiast znika, gdy obserwatorowi pozwoli
się wejść do wnętrza i poruszać po tak zbudowanym pomieszczeniu
(Gehringer, Engel, 1986).

Percepcja wynika więc, zdaniem Gibsona, z wyuczonej umiejętności.


Różnych niezmienników, korygujących błędny obraz na siatkówce, system
poznawczy uczy się przez całe życie. Ian Gordon (1989) słusznie zauważył,
że – według autora ekologicznej koncepcji spostrzegania – nauka ta polega
na nabywaniu wprawy przez mechanizmy selektywnej uwagi odnośnie do
tego, na co należy nakierowywać percepcję. Dlatego ten sam zestaw
bodźców może być inaczej spostrzegany w różnych okresach życia
człowieka, w zależności od jego wprawy w spostrzeganiu. Ci, którzy nigdy
nie mieli okazji obserwować pod różnymi kątami widzenia kolumn
greckich, prawie zawsze ulegają złudzeniom optycznym, wykrywając
pozorną boczną wypukłość. Złudzeniu temu można zapobiec, wprawiając
obserwatora w ruch zbliżający/oddalający od obserwowanego obiektu (tu:
kolumny). Ci, którzy dzięki ruchowi własnemu już raz wykryli
niezmiennik dotyczący greckiej proporcji w architekturze kolumn, są
w stanie skorygować wrażenia sensoryczne odbierane przez receptory,
dzięki informacji zwrotnej pochodzącej z mózgu.

Ale w jaki sposób teoria ekologiczna radzi sobie z problemem klasyfikacji


semantycznej w procesie identyfikacji obiektów? Gibson (1979) twierdzi,
że nie tylko cechy percepcyjne (takie jak absolutny dystans) są dane
w bezpośrednim spostrzeganiu obiektów. Także cechy związane ze
znaczeniem, a przede wszystkim funkcje spostrzeganych obiektów, są
bezpośrednio spostrzegane. Percepcyjnie, według Gibsona, dane są więc
również afordancje, czyli „akty lub zachowania, których wykonanie
umożliwiają nam pewne obiekty, miejsca lub zdarzenia” (Michaels,
Carello, 1985, s. 42). W spostrzeżeniu drabiny zawarta jest możliwość
wspinania się po niej, a w percepcji krzesła – możliwość siedzenia na nim.
Afordancje są również dane w postrzeganiu bardziej złożonych obiektów.
Zdaniem Gibsona (1979, s. 139) spostrzeżenie skrzynki pocztowej zawiera
także afordancję możliwości wysłania listu do innego członka tej samej
społeczności.

Zasadniczym problemem teorii Gibsona jest fakt, że spostrzeganie


niezmienników i wykorzystywanie informacji zwrotnej, pochodzącej
z mózgu, w celu korygowania danych wzrokowych, pochodzących
z obrazu na siatkówce, wydaje się procesem poznawczym wymagającym
przetworzenia dość dużych porcji informacji w jednym momencie.
Tymczasem, jak pokazał Richard Gregory (1970), mózg jest w stanie
akceptować informacje z pola wzrokowego w bardzo wolnym tempie –
około 12 bitów na 100 ms. Kwestią trudną do wyjaśnienia jest również
fakt, że z jednej strony Gibson traktuje postrzeganie jako proces oddolny,
a z drugiej – jako proces korygowany odgórnie przez trwale wyuczone
niezmienniki. W zasadzie można chyba uznać, że ekologiczna koncepcja
spostrzegania jest również koncepcją dwukierunkową percepcji, różnica
zaś między teorią obliczeniową a stanowiskiem reprezentowanym przez
tego badacza polega na odmiennym przekonaniu odnośnie do tego, co
odgórnie ma wpływ na kształtowanie się spostrzeżenia (trwałe
reprezentacje czy stałości percepcyjne). Ważnym wkładem Gibsona do
teorii spostrzegania jest natomiast stwierdzenie, że bodziec wzrokowy
zawiera więcej informacji, niż się wydaje, zwłaszcza przy statycznej jego
obserwacji. Wprawienie obserwatora w ruch pozwala łatwo wykryć wiele
właściwości pola wzrokowego i obiektów w nim prezentowanych,
właściwości, których wykrywanie jest przez inne koncepcje percepcji
traktowane jako złożony proces realizowany na górnych piętrach
przetwarzania.

7.5. Proces spostrzegania w praktyce

7.5.1. Spostrzeganie twarzy


Twarz jest bodźcem specyficznym w procesie percepcji i identyfikacji
obiektów (DeRenzi, 1986; Ohme, 2003). Wskazują na to badania
pacjentów chorych na prozopagnozję. Nie są oni zdolni do rozpoznawania
twarzy innych ludzi, a nawet czasami własnej, widzianej w lustrze.
Jednocześnie nie mają jednak żadnych trudności w rozpoznawaniu
pozostałych obiektów ani kłopotów z identyfikacją osób na podstawie
wskazówek innych niż wizualne (głosu, dotyku lub imienia). Wyniki
dotyczące deficytów przejawianych przez pacjentów chorych na
prozopagnozję interpretowano na korzyść tezy o wymaganej przez proces
percepcyjny większej precyzji w zakresie rozpoznawania twarzy niż
rozróżniania innych obiektów. Ennio DeRenzi (1986) wykazał jednak, że
osoby te potrafią znakomicie rozróżniać obiekty różniące się niewielką
liczbą cech kryterialnych (np. monety włoskie i inne), nadal nie radząc
sobie z procesem identyfikacji zróżnicowanych pod względem wyglądu
twarzy. Jak się więc wydaje, spostrzeganie twarzy nie jest po prostu
skomplikowanym – ze względu na złożoność identyfikowanego obiektu –
procesem rozpoznawania obiektów, , ale jakościowo swoistym, innym niż
rozpoznawanie pozostałych obiektów, procesem percepcyjnym.
Argumentów na korzyść takiego stanowiska dostarczyli Justine Sergent,
Shinsuke Ohta i Brennan MacDonald (1992). Wykazali oni, że aktywność
mózgu w przypadku rozpoznawania twarzy jest znacznie większa niż
w przypadku rozpoznawania innych obiektów. Co więcej, badacze ci
zauważyli jakościowe różnice w aktywności prawej półkuli mózgowej przy
rozpoznawaniu twarzy i innych obiektów. Półkula ta wydaje się
szczególnie ważna dla procesu identyfikacji twarzy, jako że jej uszkodzenia
charakteryzują właśnie pacjentów z prozopagnozją. Dokładniejsze dane na
temat lokalizacji procesu rozpoznawania twarzy w mózgu przyniosły
badania zespołu Nancy Kanwisher, który wykazał (Grill-Spector, Knouf,
Kanwisher, 2004; Kanwisher, McDermott, Chun, 1997), że w płacie
skroniowym, a dokładniej w zakręcie wrzecionowatym, istnieje obszar
percepcji twarzy (fusiform face area), który aktywuje się w odpowiedzi na
twarze, a nie reaguje lub słabo reaguje na inne złożone obiekty,
z wyjątkiem tych, które przypominają twarze. Wyniki Kanwisher zostały
dodatkowo potwierdzone w inwazyjnych badaniach na małpach: elektrody
zlokalizowane w obszarze rozpoznawania twarzy w mózgu małp wykazały
ponad 50-krotnie większą aktywność w odpowiedzi na twarze niż na inne
bodźce (Tsao, Freiwald, Tootell, Livingstone, 2006).

Dlatego też Martha Farah (1992) argumentowała na rzecz istnienia dwóch


niezależnych subsystemów rozpoznawania obiektów. Pierwszy z nich
miałby charakter analityczny i rozpoznawałby obiekty przez ich
dekompozycję do postaci listy cech kryterialnych. Drugi miałby charakter
holistyczny – identyfikacja obiektów odbywałaby się w nim przez
zestawienie obrazów sensorycznych z umysłowymi. System analityczny,
zdaniem badaczki, odpowiadałby za rozróżnianie zwykłych obiektów
w polu wzrokowym, system holistyczny zaś – obiektów specjalnych,
właśnie takich jak twarze. Dodajmy, że pierwszy z wymienionych
systemów funkcjonowałby zgodnie z założeniem teorii cech, natomiast
drugi – zgodnie z założeniem koncepcji modeli. Poglądy na temat
rozpoznawania twarzy dobrze ilustrują spór między koncepcjami modeli
i cech dotyczący mechanizmu rozpoznawania obiektów. Wyniki badań
z użyciem technik neuroobrazowania dotyczące rozpoznawania twarzy
stanowią duże wsparcie dla koncepcji modeli.

W koncepcjach modeli przyjmuje się, że twarz jest reprezentowana


w formie obrazu o określonej rozdzielczości (Ellis, 1975). W procesie
rozpoznania twarzy obraz sensoryczny jest zatem zestawiany z obrazem
umysłowym, a decyzja o identyfikacji jest podejmowana na podstawie
oszacowania przystawania obu obrazów do siebie. Koncepcje modeli mają
jednak problemy z odpowiedzią na trzy zasadnicze pytania: (1) „W jaki
sposób możliwe jest rozpoznawanie twarzy z dużej odległości, gdy
uzyskanie wymaganej przez obraz umysłowy rozdzielczości jest
niemożliwe?”; (2) „W jaki sposób możliwe jest spostrzeganie tej samej
twarzy pod różnym kątem obserwacji?”; (3) „W jaki sposób możliwe jest
spostrzeganie tej samej twarzy w perspektywie czasowej (z wiekiem
zmienia się jej przecież wygląd)?”.

Aby uratować koncepcję modeli jako wyjaśniającą proces identyfikacji


twarzy, Hadyn Ellis (1975) zaproponował zabieg normalizacji, ale nie do
końca wiadomo, na czym miałby on polegać, gdy jest stosowany przez
spostrzegający umysł. Przez normalizację Ellis rozumiał wszelkie możliwe
transformacje na obrazach, takie jak rotacje mentalne czy
powiększanie/pomniejszanie obrazu. Istnienie takich operacji na
reprezentacjach obrazowych potwierdzono w zakresie funkcjonowania
wyobraźni (Kosslyn, 1975; zob. rozdz. 2) – być może więc wyobraźnia
pośredniczy w procesie identyfikacji twarzy, umożliwiając przekształcenie
obrazu na siatkówce do pozycji naturalnej, w której mogłoby się odbywać
zestawienie obrazu sensorycznego i umysłowego. Przyjęcie istnienia
zabiegu normalizacji pozwala odrzucić dwie pierwsze z trzech
zarysowanych wątpliwości. Koncepcja modeli nadal jednak nie radzi sobie
z problemem czasu. Identyfikacja twarzy w perspektywie czasu jest
czynnością najbardziej obarczoną możliwością błędu w przypadku
percepcji tego typu bodźców. Nierozpoznanie po latach twarzy przyjaciela
może więc wynikać z braku adekwatnego modelu w umyśle, a jej
rozpoznanie może być rezultatem elastyczności posiadanych modeli
umysłowych.

Zwolennicy koncepcji cech uważają z kolei, że informacja konieczna do


rozpoznania twarzy jest przechowywana w umyśle w formie listy cech.
Hadyn Ellis, John Shepherd i Graham Davies (1979) wykazali, że
poszczególne cechy odgrywają znaczącą rolę w procesie rozpoznawania
twarzy. Stwierdzili, że kiedy ludzie opisują czyjąś twarz, działają
w określonym porządku. Najpierw opisywane są włosy i oczy, w drugiej
kolejności nos, usta i brwi, a na samym końcu policzki i czoło. Tony
Roberts i Vicki Bruce (1988) potwierdzili te doniesienia, wykazując, że dla
rozpoznania twarzy najważniejsze są rejony oczu, a najmniej istotne –
rejony nosa. Jeśli jednak opisywana jest twarz znana, to w pierwszej
kolejności uwzględniane są cechy wewnętrzne (oczy, nos, usta), a dopiero
w drugiej – zewnętrzne (włosy, kształt głowy). W przypadku osób
nieznajomych porządek opisu ulega odwróceniu – najpierw analizowane są
cechy zewnętrzne, a dopiero jako drugie – cechy wewnętrzne. Podobnie
rzecz się ma z rozpoznaniem – bliskie nam osoby identyfikujemy po
cechach wewnętrznych, a nieznajome – po zewnętrznych. W badaniach
Daniel Malone i współpracownicy (Malone, Morris, Kay, Levine, 1982)
wykazali, że proces identyfikacji twarzy osób znanych i nieznanych różni
się jakościowo. Badani przez nich pacjenci albo charakteryzowali się
deficytami w zakresie rozpoznawania twarzy znanych, albo mieli kłopoty
z rozróżnianiem twarzy nieznanych. Jak się wydaje, zaburzeniom w obu
przypadkach uległ mechanizm analizy innych cech, służących do
identyfikacji.

W rozpoznawaniu twarzy istotne są jednak nie tylko cechy, lecz także


relacje zachodzące między nimi. Andrew Young, Deborah Hellawell
i Dennis Hay (1987) prezentowali osobom badanym obrazy składające się
z połówek zdjęć twarzy znanych osób. Uczestnikom eksperymentu znaczną
trudność sprawiło rozpoznanie tak wymieszanych fotografii, szczególnie
wtedy, gdy dolna połówka – będąca fragmentem portretu innego aktora –
była dobrze dopasowana do górnej części zdjęcia. Tim Valentine (1988)
zaobserwował natomiast znaczne problemy w rozpoznawaniu twarzy na
zdjęciach odwróconych do góry nogami, a Bruce i Valentine (1985) odkryli
nie mniejsze kłopoty w rozpoznawaniu twarzy nawet znanych badanym
osób, gdy charakterystyczne elementy tych twarzy „zamieniły się” na
zdjęciu swoim naturalnym położeniem („twarze przemieszane”, np. oczy
na wysokości ust, a usta zamiast brwi). Wreszcie James Tanaka i Joseph
Sengco (1997) zauważyli, że manipulacja w zakresie relacji między
poszczególnymi elementami twarzy (np. zbliżenie do siebie oczu), nawet
przy pozostawieniu tych elementów na swoim miejscu, powoduje także
kłopoty w identyfikacji twarzy do tej pory rozpoznawanej bez większych
problemów.
Jeśli jednak system poznawczy w procesie identyfikacji twarzy analizuje
nie tylko cechy kryterialne, lecz także relacje, jakie między nimi zachodzą,
to – uwzględniając liczbę charakterystycznych elementów twarzy –
informacji do przeanalizowania może okazać się zbyt dużo jak na proces,
który przebiega bardzo szybko. Poza kłopotami z wyjaśnieniem szybkości
procesu rozpoznawania twarzy koncepcje cech nie radzą sobie także
z problemem percepcji twarzy w perspektywie czasu. Lista cech
wyodrębniona na podstawie obrazu sensorycznego, widzianego po latach,
może bowiem znacznie się różnić zarówno liczbą, jak i intensywnością
w porównaniu z listą wzorcową, reprezentującą twarz w naszym umyśle
(Sergent, 1984). Niektóre rysy twarzy mogą bowiem ulec zatarciu (np.
wskutek tycia), natomiast inne mogą się wykształcić z upływem czasu (np.
zmarszczki z powodu starzenia się).

Z dwóch koncepcji identyfikacji twarzy znacznie lepiej empirycznie


uzasadniona wydaje się teoria modeli. Wskazują na nią zwłaszcza badania
dotyczące mózgowej specyfiki procesu rozpoznawania twarzy, z których
wynika, że jest on obsługiwany przez niewielki wyspecjalizowany obszar,
wrażliwy na bodźce ułożone w odpowiedniej konfiguracji, właściwej dla
twarzy. Można w związku z tym argumentować, że rozpoznawanie twarzy,
jako bardzo ważnego bodźca w środowisku społecznym, wykształciło się
w toku ewolucji jako proces szybki i efektywny, obarczony raczej
tendencją do błędów fałszywego alarmu niż do błędów ominięcia.

7.5.2. Czytanie słów


Czytanie jest złożonym procesem umysłowym, wymagającym
zrozumienia. Jako takie stanowi przedmiot badań nad przetwarzaniem
języka i rozumieniem tekstu (zob. rozdz. 13). W tym podrozdziale
ograniczymy się do wybranego aspektu czytania, jakim jest spostrzeganie
i rozpoznawanie słów.

Oko zmienia punkt fiksacji (fixation point) mniej więcej cztery razy
w ciągu sekundy (Rayner, 1997). Każda kolejna fiksacja oka na materiale
bodźcowym trwa 200–225 ms, podczas gdy ruch sakkadowy gałek ocznych
w miejsce następnej fiksacji – 25–30 ms. Jednak już po zafiksowaniu
wzroku na materiale bodźcowym fotoreceptory odbierają informacje
wizualne bynajmniej nie w sposób nieprzerwany. Połowa czasu fiksacji to
okres refrakcji (odpoczynku) – oko jest na tyle „zmęczone” wysiłkiem
motorycznym związanym z wykonaniem ruchu sakkadowego, że
rejestrowanie danych zmysłowych nie jest w tym czasie możliwe. Zjawisko
to nosi nazwę tłumienia sakkadowego (McConkie, 1983). Okres refrakcji
trwa z reguły połowę czasu każdej fiksacji. Informacje wizualne są
kodowane przez oko jedynie przez mniej więcej 100 ms podczas każdej
fiksacji, co oznacza, że większość czasu pracy narządu wzroku jest
przeznaczona na funkcjonowanie motoryczne, a jedynie 400 ms każdej
sekundy jest czasem pobierania informacji o świecie zewnętrznym. Skoro
tak, to umiejętność prawidłowej fiksacji wzroku (w odpowiednim miejscu
przestrzeni) wydaje się kluczowym elementem procesu spostrzegania
i rozpoznawania obiektów. Wagę tej umiejętności szczególnie podkreślają
dane empiryczne dotyczące przebiegu czynności czytania.

Badając tę czynność, Keith Rayner, Arnold Well i Alexander Pollatsek


(1980) wykryli zjawisko asymetrii wokół punktu fiksacji. Stwierdzili
oni, że obszar na lewo od punktu fiksacji jest trzykrotnie mniejszy od
obszaru na prawo od tego punktu. Pollatsek i współautorzy (Pollatsek,
Bolozky, Well, Rayner, 1981) uzyskali podobny efekt. W ich badaniu
asymetria wokół punktu fiksacji okazała się jednak odwrotna niż
w poprzednim: obszar objęty wzrokiem był trzykrotnie szerszy na lewo od
punktu fiksacji niż na prawo. Różnicę w wynikach udało się Raynerowi
i Pollatskowi wyjaśnić na podstawie klasyfikacji osób badanych względem
rodzaju pierwszego języka używanego podczas czytania. W pierwszym
przypadku był nim angielski, który wymaga czytania w kierunku od lewej
do prawej strony kartki. Natomiast w drugim eksperymencie badano
umiejętność czytania w języku hebrajskim, w którym porządek
przetwarzania materiału werbalnego jest odwrotny (od prawej do lewej).
Wyniki, które uzyskali Rayner i Pollatsek, oznaczają, że zjawisko asymetrii
wokół punktu fiksacji jest powszechne, a obszar obejmowania wzrokiem
jest większy zawsze w kierunku, w którym czyta osoba przejawiająca taką
asymetrię. Zgodnie z efektem asymetrii wokół punktu fiksacji można
przypuszczać, że w przypadku osób czytających w języku japońskim (choć
takie badania akurat nie były prowadzone) szerszy obszar wokół punktu
fiksacji powinien znajdować się poniżej niego.

W omawianych badaniach uczestnicy eksperymentów zawsze czytali


zdecydowanie lepiej w ojczystym języku niż w jakimkolwiek innym.
Dotyczyły one też wyłącznie czytania w swoim języku. Z kolei Albrecht
Inhoff (1989) wykazał, że u osób posługujących się dwoma językami,
odmiennymi pod względem kierunku czytania, asymetria wokół punktu
fiksacji zmienia się wraz z intensywnością praktyki czytania w danym
języku. Po zmianie języka czytania (np. z angielskiego na hebrajski) musi
jednak upłynąć pewien czas, zanim prawostronna asymetria zmieni się
w lewostronną. Podobna asymetria wokół punktu fiksacji zachodzi wtedy,
gdy w obszarze fiksacji znajduje się tylko jedno słowo. Wówczas
prawidłowy punkt fiksacji wypada w okolicy, gdzie kończy się ów wyraz,
co zauważył z kolei Rayner (1979). J. Kevin O’Regan i Arthur Jacobs
(1992) uzupełnili te spostrzeżenia o tezę, że przesunięcie punktu fiksacji
względem prawidłowego położenia o jedną literę w wyrazie spowalnia
proces czytania o 20 ms. Przy dłuższych wyrazach opóźnienia te mogą
wynosić już nawet do 100 ms, co w przypadku czytania całych zdań może
się przekładać na kilkusekundowe spowolnienie.

Z kolei Keith Rayner i Robert Morris (1992) podjęli próbę funkcjonalnego


wyjaśnienia istnienia efektu asymetrii wokół punktu fiksacji. Stwierdzili, że
asymetria ta ułatwia poprzedzanie percepcyjne, niezbędne w procesie
szybkiego i sprawnego czytania. Z punktu widzenia pojedynczej fiksacji
asymetria wokół punktu fiksacji nie ma bowiem żadnego znaczenia.
Podobna liczba tak samo daleko położonych obiektów z jego lewej i prawej
strony jest równie szybko rozpoznawana. Jednak rozpoznanie obiektów
położonych daleko od punktu fiksacji w kierunku czytania jest znacznie
szybsze w przypadku kolejnej fiksacji, która obejmuje je już w swoim
centrum. Jest tak dlatego, że w poprzedniej fiksacji obiekty te były objęte
wstępną analizą percepcyjną i w kolejnej ten początkowy etap może zostać
pominięty. Istnienie poprzedzania percepcyjnego (perceptual priming)
w procesie czytania wykazali empirycznie Lindsay Evett i Glyn
Humphreys (1981). Poprzedzali oni podprogowo bodźcami werbalnymi
słowa, które należało przeczytać i rozpoznać. Bodźce poprzedzające nie
były semantycznie powiązane ze słowami poprzedzanymi (czasami były
nawet bezsensownymi zbitkami liter) – jedyne, co je łączyło, to stopień
podobieństwa w zakresie liter składających się na oba bodźce werbalne.
W warunku pełnego poprzedzania wyraz torujący był tożsamy
z torowanym, natomiast w warunku braku poprzedzania ani jedna litera
bodźca poprzedzającego nie pokrywała się z literami składającymi się na
wyraz poprzedzany. Evett i Humphreys wykazali, że im więcej wspólnych
liter miały oba prezentowane bodźce, tym szybsza była reakcja na słowo
torowane.
Uzyskany wynik badacze ci wyjaśnili, odnosząc się do koncepcji
abstrakcyjnych podsystemów, odpowiedzialnych za detekcję pojedynczych
liter w procesie czytania. Ich aktywizacja w trakcie poprzedzania
umożliwia, według nich, szybszą identyfikację słowa poprzedzanego. Jak
się wydaje, podobne zjawisko zachodzi w procesie czytania. Wprawdzie
litery odległe od punktu fiksacji w kierunku czytania nie są identyfikowane
w trakcie fiksacji je obejmującej, jednak na skutek recepcji tych liter
dochodzi do pobudzenia podsystemów odpowiedzialnych za ich
przetwarzanie. Gdy oko zmieni swój punkt fiksacji i litery te staną się
obecne w centrum fiksacji, ich rozpoznanie będzie ułatwione (zjawisko
facylitacji), właśnie dzięki uprzedniej ich aktywacji, która nastąpiła w już
zaistniałej fiksacji.
Efekt przewagi słowa nad literami (word superiority effect) – zjawisko polegające na łatwiejszej
identyfikacji litery, jeśli jest ona częścią sensownego, znanego osobie badanej słowa.

Zjawiska asymetrii wokół punktu fiksacji i poprzedzania percepcyjnego


w trakcie czytania wyraźnie świadczą na korzyść tezy, że czytanie jest
czynnością wykorzystującą oddolne mechanizmy spostrzegania (od
percepcji liter do czytania wyrazów i zdań). Pojawiły się jednak również
argumenty wskazujące na to, że czynność czytania wymaga także
odgórnych mechanizmów spostrzegania. Ważne pod tym względem są
badania Geralda Reichera (1969), który wykazał istnienie efektu przewagi
słowa nad literami (word superiority effect). W jego eksperymencie osoby
badane weryfikowały występowanie konkretnej litery na określonej pozycji
w prezentowanym im wyrazie (np. czy czwartą literą w wyrazie „PRACA”
jest litera „C”). W warunku pierwszym Reicher prezentował badanym
słowa, w warunku drugim – werbalizowalne zbitki liter, które nic nie
znaczyły, natomiast w warunku trzecim – niewerbalizowalne, losowe zbitki
liter. Gdyby proces czytania był tylko procesem oddolnym, to rodzaj
etykiety werbalnej, w odniesieniu do której należałoby podjąć decyzję
dotyczącą jednej z jej liter składowych, nie miałby żadnego znaczenia.
Okazało się jednak, że najkrótszy czas reakcji uzyskali badani w warunku
sensownych słów – tak jakby znajomość sensu całego słowa pomagała
w identyfikacji jego składowych liter. Odgórny charakter procesu czytania
wykazał także John Frisby (1979). W jego eksperymencie osoby badane
w trakcie czytania nie dostrzegały braku pojedynczych liter, a nawet całych
słów, uzupełniając tak zdegradowany komunikat do jego całości, zgodnie
z zasadami koncepcji postaciowych spostrzegania. Na przykład badani nie
byli w stanie stwierdzić braku litery „p” w wyrazie „spring” (prezentowano
wyraz „sring”), gdy komunikat dotyczył repertuaru teatru w sezonie
wiosennym.

Można zatem stwierdzić, że czytanie angażuje zarówno oddolne, jak


i odgórne mechanizmy spostrzegania. Zjawiska asymetrii wokół punktu
fiksacji i poprzedzania percepcyjnego wyraźnie wskazują na zależność
efektywności czytania od rejestracji sensorycznej. Wiele ćwiczeń z zakresu
nauki szybkiego czytania polega na przyspieszeniu procesu zmiany punktu
fiksacji czy rozszerzeniu obszaru fiksacji w kierunku czytania, tak aby
objąć efektem poprzedzania większą liczbę liter i tym samym większą
partię tekstu. Efektywność czytania zależy jednak również od procesów
odgórnych. Im większą liczbą etykiet werbalnych dysponuje system
poznawczy osoby czytającej, tym łatwiej jest mu przewidzieć znaczenie
komunikatu. Pewne ćwiczenia z zakresu szybkiego czytania uczą
pomijania nieistotnych fragmentów komunikatu, a więc takich, których
czytający może się domyślić albo na podstawie wiedzy ogólnej, albo na
podstawie konstrukcji całego komunikatu.

Ważne badania nad czytaniem przeprowadził Marcin Szwed ze


współpracownikami (Siuda-Krzywicka i in, 2016). W badaniach z użyciem
funkcjonalnego rezonansu magnetycznego i przezczaszkowej stymulacji
magnetycznej wykazali oni, że mózgowe podłoże procesów czytania
charakteryzuje się bardzo dużą plastycznością. W badaniach tych zdrowe,
widzące osoby uczyły się czytania alfabetem Braille’a, czyli przy pomocy
dotyku. Trening ten umożliwił nabycie podstaw umiejętności posługiwania
się tym alfabetem. Co ciekawe, neuroobrazowanie pokazało, że podłożem
owej umiejętności jest aktywność kory wzrokowej, która w trakcie treningu
przejęła rolę przetwornika informacji sensorycznej innej modalności.
Również stymulacja magnetyczna kory wzrokowej u tych osób
doprowadziła do krótkotrwałego upośledzenia świeżo nabytej umiejętności
czytania alfabetem Braille’a. Wyniki te świadczą, po pierwsze,
o niezwykłej plastyczności ludzkiego mózgu (przynajmniej w zakresie
czytania) i po drugie, są dowodem na korzyść tezy o odgórnym wpływie
procesów poznawczych na procesy percepcyjne.

7.6. Podsumowanie
Treść tego rozdziału powinna skłonić nas do wniosku, że świat nie jest taki,
jaki się wydaje. Przedmioty, zdarzenia lub inni ludzie – słowem, otaczająca
nas rzeczywistość – są źródłem bodźców, ponieważ emanują fizyczną
energią w postaci fal optycznych (wzrok), fal akustycznych (słuch),
cząsteczek chemicznych (smak, węch) lub ucisku mechanicznego (dotyk,
ból). Energia ta wyzwala zmiany w wyspecjalizowanych receptorach i daje
początek procesowi spostrzegania, którego istota sprowadza się do daleko
idących przekształceń pierwotnej energii zmysłowej niosącej informację.
Owo przetwarzanie informacji skutkuje powstaniem perceptu, czyli
spostrzeżenia. Nie znaczy to, że proces przetwarzania informacji w tym
momencie się kończy, ponieważ percepcja stanowi podłoże i konieczny
warunek innych procesów poznawczych, takich jak pamięć, myślenie,
przetwarzanie języka itd.

W rozdziale tym prezentowaliśmy koncepcje i badania dotyczące procesów


percepcyjnych, od recepcji sensorycznej przez identyfikację cech aż do
rozpoznawania złożonych obiektów, takich jak twarze czy słowa.
Omówiliśmy percepcję jako proces oddolny, ale również odgórny,
w którym ujawniają się wpływy kontekstu, nastawienia, procesów uwagi
i pamięci. Przedstawiliśmy teorie percepcji: asocjacjonistyczną,
postaciową, wzorców, cech, obliczeniową i ekologiczną. Na koniec
skoncentrowaliśmy się na procesach percepcji specyficznych bodźców –
twarzy i słów, ważnych dla codziennego funkcjonowania w złożonym
środowisku.

Spostrzeżeniu zazwyczaj towarzyszy subiektywne doznanie, choć istnieją


przypadki percepcji bez udziału świadomości. W każdym razie nie wolno
nam utożsamiać percepcji ze światem subiektywnych doznań zmysłowych.
Owe doznania w pewien sposób reprezentują zewnętrzną rzeczywistość,
ale są końcowym efektem długiego i skomplikowanego procesu
przetwarzania informacji. Z tego punktu widzenia percepcja wcale nie jest
prostym procesem poznawczym. Jeśli zaliczyliśmy ją do tej kategorii, to
dlatego, że złożoność funkcji psychicznych jest zawsze relatywna, a inne
procesy – omawiane w rozdziałach 10–13 – są w porównaniu ze
spostrzeganiem jeszcze bardziej złożone.
Rozdział 8

Pamięć

Natura pamięci
Rodzaje i funkcje pamięci
Blokowe (magazynowe) modele pamięci
Procesualne modele pamięci
Systemy pamięci przemijającej
Pamięć sensoryczna
Pamięć krótkotrwała
Pamięć robocza: wielokomponentowy model Baddeleya
Pamięć robocza: modele aktywacyjne Cowana i Oberauera
Model długotrwałej pamięci roboczej Ericssona i Kintscha
Neuronalny model pamięci krótkotrwałej Lismana
Pamięć prospektywna
Systemy pamięci trwałej
Pamięć semantyczna
Pamięć epizodyczna
Pamięć autobiograficzna
Podsumowanie
Pamięć jest zdolnością do przechowywania informacji i późniejszego ich wykorzystania. Z innego
punktu widzenia pamięć to zespół procesów poznawczych, zaangażowanych w nabywanie,
przechowywanie i późniejsze odtwarzanie informacji.
Pamięć przemijająca przechowuje informacje w sposób nietrwały, czyli w stosunkowo krótkim
czasie, co nie jest jej wadą, lecz wynika z pełnionych przez nią funkcji.
Pamięć trwała przechowuje informacje bez wyraźnych ograniczeń czasowych.

„Głowa bez pamięci to twierdza bez garnizonu” – powiedział Napoleon


Bonaparte, pokazując w ten sposób, jak bezbronny byłby nasz umysł bez
zasobów pamięci. Wszystkie procesy poznawcze, od najprostszych, takich
jak odbiór wrażeń, do najbardziej złożonych, jak rozwiązywanie
problemów, zależą od pamięci, ale też na nią wpływają. Bez pamięci nie
byłoby możliwe poznanie, dlatego wiele modeli umysłu to w gruncie
rzeczy modele pamięci (zob. rozdz. 1). W wąskim ujęciu pamięć to system
zapisu, przechowywania i odtwarzania informacji w celu jej przyszłego
użycia. Dzięki tak rozumianej pamięci możemy np. przygotować się do
egzaminu lub rozmowy kwalifikacyjnej. W szerokim rozumieniu pamięć to
system przechowywania informacji bez względu na cel, zamiar czy
intencję. Jest odpowiedzialna za przechowywanie wszelkich informacji,
niezależnie od ich formatu czy źródła pochodzenia. Przechowuje
informacje w czasie ultrakrótkim (mniej niż 1 s) lub przez całe życie
człowieka. Przechowuje wiedzę o ogólnie znanych faktach,
o indywidualnych doświadczeniach i o procedurach. Zapisuje wszelkie
ślady przeszłych doświadczeń, nawet te, z których człowiek nie zdaje sobie
sprawy.

Mając na warsztacie zjawisko o tak podstawowej funkcji, psycholog


poznawczy musi odpowiedzieć sobie na następujące pytania: „Czy pamięć
jest systemem jednolitym?”, „Jakie funkcje pełnią procesy i struktury
pamięci w regulacji życia psychicznego człowieka?”, „Czy pamięć jest
ograniczona w swej pojemności, a jeśli tak, to czy dotyczy to wszystkich
jej rodzajów?”. Odpowiedzi na nie będziemy szukać w niniejszym
rozdziale.

8.1. Natura pamięci

8.1.1. Rodzaje i funkcje pamięci


Daniel Schacter i Endel Tulving (1982) uważają, że pamięć człowieka nie
jest systemem monolitycznym. Pod tym pojęciem kryje się wiele
odrębnych, ale wewnętrznie zintegrowanych systemów. Ich wspólną cechą
jest funkcja, jaką pełni pamięć jako całość. Stwarza mianowicie możliwość
wykorzystania przechowywanej w niej informacji. Funkcja ta może być
realizowana tym skutecznej, im bardziej efektywna jest filogenetyczna
zdolność naszego umysłu do zapamiętywania, przechowywania
i odpamiętywania informacji.

Donald Norman (1970) doszukał się ponad 20 rodzajów pamięci (dziś


z pewnością wskazano by ich jeszcze więcej). Przyjmując za podstawę
rozróżnienia kryterium językowe, osobno potraktował każde pojęcie
zawierające w nazwie rzeczownik „pamięć” oraz jakiś przymiotnik (zob.
Shettleworth, 1993). Z jednej strony takie postępowanie było o tyle
racjonalne, że nie ma zgody wśród autorów co do sposobu kategoryzacji,
a co za tym idzie – liczby systemów pamięci. Z drugiej jednak strony
wprowadzenie jakiegoś terminu i posługiwanie się nim nie jest
równoznaczne z istnieniem odpowiadającego mu systemu pamięciowego.
Przykładowo pamięć werbalna jest swego rodzaju abstraktem zbudowanym
ze względu na formalne kryterium przechowywanego materiału. Materiał
werbalny może być jednak przechowywany w pamięci krótko- albo
długotrwałej. Podobnym abstraktem jest termin „pamięć sensoryczna”,
istnieją bowiem podstawy, aby twierdzić, że z każdym ze zmysłów
związany jest odrębny system ultrakrótkotrwałego przechowywania
informacji. Poza tym wiele określeń pamięci to synonimy, np. pamięć
krótkotrwała i robocza. Odpowiadają im różne koncepcje teoretyczne, lecz
ich podstawowe funkcje są podobne.

Aby uporządkować „przestrzeń problemu”, Tulving (1984) zaproponował


pięć kryteriów, które muszą być spełnione, aby mówić o odrębności
systemów pamięci. Zdaniem autora systemy są odrębne, jeśli:

mają różne funkcje behawioralne i kognitywne oraz są


wyspecjalizowane w przetwarzaniu różnych rodzajów informacji;

funkcjonują według różnych reguł;

mają różne podłoże neuronalne;


pojawiają się w różnym czasie w rozwoju onto- i filogenetycznym;

różnią się formatem reprezentowania informacji.

Innymi słowy, system pamięciowy miałby być definiowany ze względu na


mechanizmy mózgowe, sposób reprezentacji nabywanej, przechowywanej
i odtwarzanej informacji oraz reguły jej przetwarzania. Wymienione
kryteria wydają się tak restrykcyjne (zob. Nadel, 1992; Schacter, Tulving,
1994; Sherry, Schacter, 1987), że wiele współczesnych
wielokomponentowych modeli pamięci ich nie spełnia. Krótko
scharakteryzujemy systemy pamięci wyodrębnione ze względu na różne
kryteria. Szczegółowy opis tych systemów, wraz z propozycjami
teoretycznymi i wynikami badań, przedstawimy w dalszych częściach
rozdziału.
Magazyn informacji sensorycznej (sensory store) – system służący przechowywaniu przez krótki
czas po bezpośrednim zadziałaniu bodźca efektów tego działania; specyficzny dla powiązanego
z nim zmysłu (wzroku, słuchu, węchu); przetrzymuje docierający bodziec w kodzie analogowym
w stosunku do modalności zmysłowej.

Klasyczny podział pamięci, wywodzący się z blokowego (magazynowego)


modelu Richarda Atkinsona i Richarda Shiffrina (1968; zob. podrozdz.
8.1.2), oparty został na kryterium czasu przechowywania informacji1.
Wyróżniono trzy systemy, tj. magazyny: sensoryczny (sensory storage),
krótkotrwały (short term storage, STS) i długotrwały (long term storage,
LTS). Każdy z nich ma inne funkcje w procesie przetwarzania informacji:
od fazy percepcji bodźców pochodzących ze środowiska, poprzez
krótkotrwałe przechowanie i udostępnienie ich wyższym procesom
poznawczym, aż po ich utrwalenie w LTS. Magazyn sensoryczny jest
specyficzny dla powiązanego z nim zmysłu, np. wzroku, słuchu, węchu.
Podstawową funkcją każdego z nich jest przetrzymanie bodźca przez krótki
okres (np. maksymalnie kilkaset milisekund w przypadku pamięci
ikonicznej, związanej ze zmysłem wzroku) w kodzie analogowym
w stosunku do modalności zmysłowej, którą ów bodziec dociera do
systemu poznawczego. Do magazynu sensorycznego trafia cała informacja
o sytuacji bodźcowej, zwykle bardzo złożonej. Jego pojemność,
szczególnie w przypadku pamięci ikonicznej, musi być ogromna,
a w każdym razie większa niż STS. Nie ma jednak zgody nie tylko co do
tego, jaka jest pojemność każdego z magazynów, lecz także w jakich
jednostkach powinno się ją wyrazić.

Ponieważ funkcjonowanie pamięci sensorycznej jest całkowicie


automatyczne, jej zawartość nie podlega kontroli wolicjonalnej (chyba że
za kontrolę uznamy np. zamknięcie oczu, blokujące percepcję bodźców
pochodzących z otoczenia). Nie oznacza to jednak, że nie można
fenomenologicznie doświadczyć jej istnienia. Każdy wie, że kiedy nocą
zgasimy światło, to jeszcze przez krótką chwilę „widzimy” obraz
pomieszczenia, w którym przebywamy.
Magazyn pamięci krótkotrwałej (short term store, short term memory) – wywodzi się z blokowego
(magazynowego) modelu pamięci; zawiera informacje, które docierają z magazynów sensorycznych,
informacje przywołane z pamięci długotrwałej oraz efekty bieżącego przetwarzania; charakteryzuje
się niewielką pojemnością i krótkim czasem przechowywania informacji.

Magazyn pamięci krótkotrwałej charakteryzuje się zupełnie innymi


właściwościami, mimo że przechowuje informacje, które dotarły do niego
m.in. z magazynów sensorycznych. Na jego zawartość może się składać nie
tylko wyselekcjonowana stymulacja bodźcowa, lecz także informacja
przywołana z LTS albo efekty bieżącego przetwarzania informacji (np.
wynik zsumowania dwóch wartości liczbowych). Początkowo zakładano,
że STS posługuje się wyłącznie kodem werbalnym czy wręcz
fonologicznym, a mechanizm podtrzymywania informacji w nim
zawartych wykorzystuje czynność bezgłośnego powtarzania (maintenance
rehearsal). Współcześnie funkcjonuje kilka konkurujących modeli tego
mechanizmu, jednak każdy z nich dopuszcza możliwość obecności w STS
różnych kodów reprezentacji informacji, w tym niewerbalnego, np.
dotyczącego relacji przestrzennych między obiektami. Problem w tym, że
magazyn pamięci krótkotrwałej jest mało pojemny i łatwo ulega
przeciążeniu. Wiadomo ponadto, że pojemność ta jest wyraźnie
zróżnicowana indywidualnie. W życiu codziennym każdy z nas nauczył się
optymalnie wykorzystywać dostępną mu pojemność STS, a mimo to próba
krótkotrwałego przechowania numeru telefonu poznanej właśnie koleżanki
albo numeru rejestracyjnego pojazdu uciekającego z miejsca wypadku
może być zadaniem powodującym jego przeciążenie. Czas
przechowywania informacji w STS szacowany jest w przedziale od kilku
do kilkudziesięciu sekund. W optymalnych warunkach – kiedy mało
pojemny STS nie ulega przeciążeniu – jest to czas wystarczający do
wykonania często bardzo złożonych operacji poznawczych, np. wyciągania
wniosków z przesłanek w zadaniach dedukcyjnych (zob. podrozdz. 10.7.2,
ramka 10.2). Często jednak jest on niewystarczający, co w połączeniu
z ograniczoną pojemnością STS stanowi źródło różnorodnych błędów
poznawczych. Podstawową funkcją STS jest zatem przechowanie
informacji w czasie niezbędnym do jej przetworzenia zgodnie z celem,
który w danym momencie realizujemy. Może być nim znalezienie telefonu,
aby wystukać numer telefonu, który nie jest przechowywany w pamięci
długotrwałej, rozwiązanie zadania z testu inteligencji Ravena czy
utrwalenie w LTS nazwisk klasyków badań nad pamięcią.
Magazyn pamięci długotrwałej (long term store, long term memory) – wywodzi się z blokowego
(magazynowego) modelu pamięci; wykazuje największe zróżnicowanie rodzaju magazynowanych
danych (wiedza semantyczna, umiejętności proceduralne, doświadczenia osobiste) i najdłuższy czas
ich przechowywania; dzięki jego zawartości możliwa jest skuteczna adaptacja jednostki do
środowiska w dłuższej perspektywie czasowej.

Magazyn pamięci długotrwałej charakteryzuje się najdłuższym czasem


przechowywania informacji, mierzonym niekiedy w perspektywie lat.
O sporach dotyczących sposobu kodowania informacji w pamięci pisaliśmy
przy okazji problemu reprezentacji trwałych, np. pojęć czy wiedzy (zob.
rozdz. 3 i 4). Ze wszystkich trzech systemów pamięci obecnych
w koncepcji Atkinsona i Shiffrina pamięć długotrwała wykazuje
największe zróżnicowanie zarówno co do rodzajów, jak i funkcji.
Szczegółowo zajmiemy się nimi później. Wspólną funkcją wszystkich
rodzajów pamięci trwałej jest jednak umożliwienie skutecznej adaptacji
jednostki do środowiska, szczególnie w dłuższej perspektywie czasowej.
Dzięki różnym rodzajom wiedzy, przechowywanej w systemach LTS,
możliwe jest zróżnicowanie i elastyczność sposobów owej adaptacji.
Wiedza semantyczna, umiejętności proceduralne i gromadzenie
doświadczeń osobistych w rozmaity sposób służą temu przystosowaniu,
doskonale uzupełniając się wzajemnie.
Rozróżnienie między systemami pamięci, dokonane na podstawie modelu
Atkinsona i Shiffrina, nie ogranicza się wyłącznie do kryterium czasu
przechowywania. Wspomniano już o innych różnicach dotyczących
pojemności i formy reprezentacji informacji. Różnice między
poszczególnymi systemami dotyczą ponadto sposobów kodowania,
przechowywania, wydobywania i zapominania informacji, a także
możliwości sprawowania kontroli nad funkcjonowaniem poszczególnych
magazynów. Zgromadzono również pewną liczbę dowodów
neurobiologicznych przemawiających za ich rozłącznością. Do tych kwestii
powrócimy w podrozdziale 8.1.2.

Bardziej szczegółowych rozróżnień rodzajów pamięci długotrwałej


dokonano na gruncie różnic w sposobach zapamiętywania,
przechowywania i odpamiętywania informacji. Istotą podziału pamięci
trwałej w tym ujęciu były pierwotnie rozbieżności w zakresie tych trzech
podstawowych faz procesu pamięciowego, zależnie od rodzaju
przetwarzanej informacji. Twierdzi się, że każda z faz ma charakter
procesualny, co wydaje się oczywiste w przypadku zapamiętywania
i odpamiętywania, o czym wspominaliśmy. Ale również przechowywanie
ma charakter procesualny, co oznacza, że w tej pozornie statycznej fazie
zawartość pamięci może być modyfikowana. Po pierwsze, o procesualnym
charakterze tej fazy świadczy zjawisko zapominania. Różne mechanizmy
poznawcze i neuronalne powodują „zacieranie się” śladów pamięciowych
lub utratę dostępu do nich. Po drugie, używanie informacji, nawet bez
modyfikacji jej treści czy relacji względem posiadanej wiedzy, powoduje
lepsze utrwalenie materiału (Ebbinghaus, 1885/1913). Częściej jednak
użycie informacji wiąże się z jej rekodowaniem (Tulving, 1976a), czyli
modyfikacją zapisu pamięciowego w związku z nowo napływającą
informacją, albo procesami inferencji z wcześniej nabytą wiedzą. Proces
rekodowania może wpływać zarówno na treść zapisu pamięciowego, jak
i na związki, w które wchodzi on z innymi zapisami. Wpływ ten może być
jednak wybiórczy. Przykładowo informacja, że woda mineralna Żywiec
Zdrój nie jest produkowana w Żywcu, a w Cięcinie, może wpłynąć jedynie
na treść zapisu. Jeśli nie dysponujemy wystarczającą wiedzą o różnicach,
np. w składzie, walorach zdrowotnych czy choćby czystości wód
mineralnych pochodzących z tych dwóch źródeł, nie zmienią się relacje
pojęcia wody mineralnej Żywiec Zdrój do innych obszarów naszej wiedzy,
systemu przekonań czy nawyków. Z kolei, jeśli się dowiemy, że siostra
Zosi – Ola – wróciła z zagranicy i ponownie zamieszkały razem,
prawdopodobnie zmianie ulegnie jedynie relacja, która aktualnie je łączy.
Nie zmienią się natomiast właściwości charakteryzujące nasze pojęcia Oli
i Zosi.
Pamięć deklaratywna (declarative memory) – pamięć faktów, łatwa do werbalizacji; obejmuje
wiedzę deklaratywną.
Pamięć niedeklaratywna (nondeclarative memory) – wszelkie rodzaje pamięci, które nie mają
formy deklaratywnej: pamięć proceduralna, pamięć efektów warunkowania, pamięć ujawniająca się
w wyniku poprzedzania, habituacja i sensytyzacja reakcji.

Za najogólniejszą klasyfikację rodzajów pamięci ze względu na kryteria


przebiegu trzech faz pamięciowych uznać można podział wprowadzony
przez Larry’ego Squire’a (1986, 1994; Squire, Zola-Morgan, 1991; Squire,
Zola, 1996). Ma on charakter głównie porządkujący: autor, odwołując się
do znanych wcześniej podziałów, dokonał ich klasyfikacji, uwzględniając
relacje, które zachodzą między różnymi rodzajami pamięci (ryc. 8.1).
Podstawowy podział rodzajów pamięci nawiązuje do koncepcji wiedzy
według Gilberta Ryle’a (1949), zaadaptowanej do badań nad pamięcią
przez Johna Andersona (1976). Squire czyni więc rozróżnienie na pamięć
deklaratywną i proceduralną. Autor zauważył jednak, że w kontraście do
wiedzy deklaratywnej umiejscowić można nie tylko proceduralne nawyki
i umiejętności, tradycyjnie ujmowane pod pojęciem wiedzy proceduralnej.
Także inne formy nabywania albo modyfikacji zapisów w pamięci, tj.
efekty poprzedzania, warunkowania klasycznego czy nieasocjacyjnego
uczenia się (np. habituacji), mają pewną wspólną właściwość, która
charakteryzuje również wiedzę proceduralną. Wszystkie one mają
mianowicie postać niedeklaratywną, co oznacza trudność w zakresie
werbalizacji treści wiedzy. Larry Squire i Stuart Zola-Morgan (1991)
dokonali również zabiegu redukcji różnorodności rodzajów pamięci,
wskazując na podobieństwo pamięci deklaratywnej do jawnej, a pamięci
niedeklaratywnej do ukrytej.

RYCINA 8.1. Klasyfikacja rodzajów pamięci według Squire’a i Zoli-Morgana2 (1991)


Źródło: opracowanie własne na podstawie Schacter, Tulving, 1994, s. 204.

Squire zdawał sobie sprawę z tego, że kategoria „pamięć niedeklaratywna”


jest niejednorodna (tamże). Właściwie poza trudnością w zakresie
werbalizacji zawartości różnych rodzajów pamięci niedeklaratywnej reszta
ich właściwości jest bardzo zróżnicowana. Co więcej, trudność ta nie
oznacza, że werbalizacja jest zupełnie niemożliwa, o czym pisaliśmy
w rozdziale 4. Możliwy jest też transfer między wiedzą deklaratywną
i proceduralną, bez utraty możliwości werbalizacji reguł opisujących
procedury (zob. proceduralizację według Andersona, 1981a; podrozdz.
4.3.2). Podważono również założenie o niemożności werbalizacji wiedzy
nabywanej np. w uczeniu się mimowolnym, należącym według Squire’a do
kategorii zjawisk z zakresu pamięci niedeklaratywnej. Zatem wiedza
niejawna, zwłaszcza proceduralna, może zostać zwerbalizowana, stając się
częścią magazynu wiedzy deklaratywnej. Zjawisko to dotyczy np.
sportowców, którzy dzięki werbalizacji swojej wiedzy proceduralnej – bez
jej utraty – stają się dobrymi trenerami (zob. Nash, Collins, 2006). Zarazem
jednak wiadomo, że werbalizacja może szkodzić pierwotnie
niedeklaratywnym zapisom pamięciowym. Na przykład werbalny opis
widzianej twarzy może utrudnić jej późniejsze rozpoznanie, a efekt ten nosi
nazwę werbalnego zaciemnienia (verbal overshadowing – Schooler,
Engstler-Schooler, 1990).
Pamięć semantyczna (semantic memory) – „umysłowy słownik”; zawiera zorganizowaną wiedzę
o symbolach werbalnych, ich znaczeniu i odniesieniach, o relacjach między nimi oraz o regułach,
formułach i algorytmach manipulacji tymi symbolami, pojęciami i relacjami (zob. wiedza
semantyczna).
Pamięć epizodyczna (episodic memory) – pamięć zdarzeń, bogata w zapisy kontekstualne,
dotyczące miejsca, czasu i sposobu pozyskania wiedzy.

Dalej Squire rozróżnia dwa typy wiedzy deklaratywnej, odnoszące się do


faktów i wydarzeń. Odpowiadają one pamięci semantycznej i
epizodycznej, według podziału wprowadzonego przez Tulvinga (1972).
Pamięć semantyczna obejmuje specyficzną, stosunkowo łatwą do
werbalizacji wiedzę ogólną, oderwaną od kontekstu (zob. podrozdz. 4.2.2
i 8.3.1). Jest rodzajem umysłowego tezaurusa, zorganizowanej wiedzy, jaką
jednostka ma o słowach i innych symbolach werbalnych, ich znaczeniach
i referencjach, relacjach między nimi oraz o regułach, formułach
i algorytmach manipulacji tymi symbolami, pojęciami i relacjami (Tulving,
1972, s. 386). Z kolei pamięć epizodyczna dotyczy „informacji o czasowo
umiejscowionych epizodach i wydarzeniach oraz czasowo-przestrzennych
relacjach między nimi” (tamże, s. 385). Możliwość ich werbalizacji zależy
od sprawności posługiwania się językiem i od poziomu szczegółowości
zapisu. Niektórzy badacze przyjmują, że dzieci gromadzą wiedzę
epizodyczną już w okresie poprzedzającym nabycie umiejętności
posługiwania się językiem. Student, który wysłucha niezrozumiałego dla
siebie wykładu, również zgromadzi wiedzę epizodyczną, jednak możliwość
jej zwerbalizowania, podobnie jak przekazanej na wykładzie wiedzy
semantycznej, będzie ograniczona.
Pamięć autobiograficzna (autobiographic memory) – pamięć wydarzeń dotyczących indywidualnej
historii życia danej jednostki; przechowywany materiał ma odniesienie do Ja jako obiektu
doświadczenia; może być uznana za część osobowości, związanej z poczuciem tożsamości
i trwałością jej cech lub struktur.

Zapisy w pamięci epizodycznej uwzględniają całe bogactwo kontekstu


informacji, czyli jej umiejscowienie w czasie i przestrzeni oraz związki
przyczynowo-skutkowe między różnymi wydarzeniami. Wiedza
epizodyczna, podobnie jak wiedza semantyczna, może być łączona
w większe struktury, jak np. historia jakiejś afery z życia politycznego.
Różne informacje, pozyskiwane nawet w długiej perspektywie czasowej,
mogą zostać połączone w spójną całość. Jej uporządkowaniem rządzą
odkrywane związki przyczynowo-skutkowe, a kodowanie informacji
obywa się z uwzględnieniem osi czasu. Elementem tego zapisu może stać
się kontekst pozyskania informacji, np. jej źródło, oceniane jako mniej lub
bardziej wiarygodne. Specyficzną odmianą pamięci epizodycznej są zapisy
wydarzeń, w których sami braliśmy udział. Tego typu wydarzenia
kodowane są w tzw. pamięci autobiograficznej. Dla uczestników
wspomnianej afery wydarzenia z nią związane przynajmniej w części będą
miały postać autobiograficzną, podczas gdy dla obywateli dowiadujących
się o sprawie z mediów – wyłącznie epizodyczną. Wiedza zawarta zarówno
w pamięci epizodycznej, jak i autobiograficznej jest zapisem tego typu
konkretnych wydarzeń. Natomiast pamięć semantyczna obejmuje wiedzę,
dla której kontekst pozyskania jest nieistotny, dlatego zapis pamięciowy
zazwyczaj go nie zawiera.

Złożoność ludzkiego umysłu powoduje, że zapisy w pamięci semantycznej


i epizodycznej mogą się przenikać. Przykładowo jako dziecko mogliśmy
się dowiedzieć, że hejnał mariacki byłby słyszalny na krakowskich
Błoniach, gdyby nie Kopiec Kościuszki, uniemożliwiający swobodne
rozchodzenie się dźwięku z Rynku. Wiedza ta mogła zostać włączona
w struktury wiedzy semantycznej, podobnie jak to, że 2 + 2 = 4. Kiedy
jednak dowiedzieliśmy się, że Kopiec Kościuszki nie stoi na drodze
rozchodzenia się dźwięków hejnału z Wieży Mariackiej, wiedza ta została
zmodyfikowana (np. na Błoniach nie słychać hejnału, gdyż leżą zbyt
daleko od Rynku), a historia, raczej jako anegdota, jak zostaliśmy
podstępnie oszukani, mogła trafić do pamięci epizodycznej. Niektóre
mnemotechniki, wymyślone w celu ułatwienia zapamiętywania wiedzy
semantycznej, odwołują się do metody kodowania informacji w pamięci
epizodycznej albo do utrwalonych w niej zapisów (zob. podrozdz. 9.1.4).
Tak zwana metoda miejsc polega na nałożeniu nabywanej wiedzy na
dobrze utrwalony zapis autobiograficzny, związany z lokalizacją
przestrzenną charakterystycznych obiektów.

Podstawą rozróżnień dokonanych przez Squire’a – obok treści


podlegających kodowaniu – jest sposób zapamiętywania, przechowywania
i odpamiętywania zapisów pamięciowych. Kodowanie informacji
w pamięci deklaratywnej odbywa się poprzez włączanie nowej informacji
w struktury wiedzy, co dokonuje się na drodze uczenia się jawnego.
W przypadku pamięci semantycznej przechowywane są symboliczne
reprezentacje wiedzy ogólnej. Proces zapamiętywania musi zatem
uwzględniać sposób tworzenia tego typu reprezentacji oraz kształtowania
związków semantycznych z posiadaną już wiedzą. W pamięci epizodycznej
przechowywane wydarzenia kodowane są bezpośrednio, w takiej postaci,
w jakiej zostały spostrzeżone, z całym bogactwem kontekstu, np. zapachów
towarzyszących wczorajszej kolacji. Sposób reprezentowania informacji
również zawiera relacje między nimi, ale mają one przede wszystkim
charakter uporządkowania przyczynowo-skutkowego. Wydobycie wiedzy
deklaratywnej ma charakter wolicjonalny i polega na jej werbalizacji, bo
przecież dzięki językowi została zakodowana. Mechanizmy wydobycia
różnią się w przypadku pamięci semantycznej i epizodycznej, jednak
wspólną ich właściwością jest wykorzystanie relacji między elementami
zakodowanej informacji.

Z kolei wszelkie formy pamięci niedeklaratywnej są nabywane na drodze


wielokrotnego powtarzania czynności (w wypadku procedur) albo uczenia
się mimowolnego. Ich reprezentacja, w postaci programów czy systemów
reguł, jest zapisem sekwencji działań, wyzwalanych w pewnym kontekście.
Świadomość nie jest niezbędna do wydobycia tej wiedzy, jest ona bowiem
uruchamiana automatycznie, w związku z zainicjowaniem dobrze nam
znanej czynności.

8.1.2. Blokowe (magazynowe) modele pamięci


Pojęcie „blokowe” w odniesieniu do pamięci czy – ogólnie – przetwarzania
informacji oznacza pewną metaforę rozumienia struktury i funkcji systemu
poznawczego człowieka. Jeśli chodzi o strukturę, wskazuje ono na wyraźną
jej modułowość: system poznawczy składa się z pewnej liczby modułów
o wyspecjalizowanych funkcjach. Przetwarzanie informacji polega na
przesyłaniu efektów pracy jednego modułu do kolejnego w ściśle
określonej sekwencji. Z tego względu przetwarzanie informacji, w tej
metaforze, ma charakter sekwencyjny: jej przetworzenie w danym module
możliwe jest po otrzymaniu kompletu danych z modułu poprzedzającego.
Przetwarzanie odbywa się więc „krok po kroku”, od wczesnych do
późnych jego faz (zob. Neisser, 1967). Metafora blokowa wywodzi się
z działania systemów komputerowych, które początkowo składały się
z odrębnych modułów, przetwarzających informację sekwencyjnie, według
określonych algorytmów.

W modelach blokowych pamięć rozumiana jest jako magazyn, a właściwie


system wielu magazynów. Odrębne właściwości pamięci wyjaśnia się
istnieniem osobnych magazynów, wyspecjalizowanych w przechowywaniu
określonej informacji. Od początku magazyny rozumiane były jako
hipotetyczne konstrukty teoretyczne, a nie realnie istniejące struktury
fizjologiczne. Niemniej metafora magazynu jako pojemnika o względnie
stałych parametrach (np. pojemności), biernie przechowującego zawarte
w nim informacje, znalazła swoje odbicie w teoriach pamięci.

Atkinson i Shiffrin (1968, 1971) zaproponowali model, w którego skład


wchodziły trzy magazyny pamięciowe: sensoryczny, krótkotrwały
i długotrwały (zob. podrozdz. 1.3.1, ryc. 1.3). Magazyny, ze względu na
odmienne funkcje, umiejscowione zostały w różnych fazach procesu
przetwarzania informacji.

Dane pochodzące ze środowiska, po zarejestrowaniu przez zmysły, przez


bardzo krótki czas utrzymywane są w jednym z systemów pamięci
sensorycznej (bądź wielu, jeśli informacja jest kombinacją licznych
modalności). Dzięki procesom uwagowym część tych danych przenoszona
jest do STS, gdzie procesy kontrolne decydują o sposobie ich
wykorzystania. Informacja ta może być użyta w procesie sterowania
zachowaniem albo – dzięki powtarzaniu – zostać włączona do jednego
z systemów pamięci długotrwałej. Transfer informacji z STS do LTS jest
relatywnie wolny. O jego ograniczeniach decyduje zarówno charakter
samego zapisu w LTS, polegający na uwzględnieniu jego relacji do innych
zapisów, jak i ograniczony czas przebywania informacji w STS. Może się
więc zdarzyć, że informacja zanika z STS, zanim zostanie zakodowana
w LTS. Pamięć krótkotrwała jest również miejscem, do którego
przywoływane są informacje z LTS. Przywołanie wymaga aktywacji
odpowiednich zapisów z magazynu pamięci trwałej, dokonujących się
dzięki zastosowaniu strategii wydobycia (jednej z funkcji kontrolnych
STS). Innymi słowy, pamięć krótkotrwała nie tylko stanowi „pole”,
w którym chwilowo przechowywane są informacje przywołane z LTS, ale
dzięki procesom kontrolnym aplikuje znane jednostce strategie.
O sprawności korzystania z zasobów LTS decyduje efektywność
organizacji kodowania materiału oraz jego wydobywania.

W późniejszych modyfikacjach modelu Shiffrin ze współpracownikami


(Shiffrin, Atkinson, 1969; Shiffrin, Geisler, 1973) starali się wyeliminować
poważny mankament pierwszej wersji modelu. Chodziło o zarzut
dotyczący możliwości włączenia do magazynu STS treści bez pośrednictwa
LTS. Ponieważ zakładano, że treści te mają co najmniej postać akustyczną,
jeśli nie werbalną, muszą więc podlegać wcześniejszej obróbce z udziałem
reprezentacji poznawczych. Aby informacja sensoryczna mogła zostać
zwerbalizowana, konieczne jest jej wcześniejsze rozpoznanie, co – jak
wiadomo – nie może się odbyć bez udziału trwałych wzorców
reprezentacji. Dlatego autorzy zamienili w swoim modelu kolejność dwóch
bloków: STS i LTS. Według nowej wersji wyselekcjonowana informacja
sensoryczna kodowana jest bezpośrednio w pamięci długotrwałej, co
również budzi pewne wątpliwości.
Innym interesującym modelem blokowym pamięci jest koncepcja
Siegfrieda Lehrla i Bernda Fischera (1988). Autorzy prowadzili badania
mające na celu dokładne oszacowanie ograniczeń przetworzeniowych
systemu poznawczego człowieka. Przyjęli, że procesy przetwarzania
informacji powinny podlegać pomiarowi głównie w jednostkach czasu
(sekundy) i ilości informacji (bity). Według tych badaczy (tamże) system
percepcyjny człowieka przetwarza w przybliżeniu 109–1011 bitów
informacji na sekundę, uwzględniając stymulacje pochodzące ze
środowiska zewnętrznego i z samego organizmu (ryc. 8.2). Z tego, biorąc
pod uwagę wszystkie kanały sensoryczne, obróbce percepcyjnej
poddawanych jest około 107 bitów w ciągu sekundy. Informacja
rejestrowana za pomocą różnych analizatorów podlega integracji,
a następnie selekcji. Procesy te zachodzą na materiale sensorycznym
zawartym w strukturze zwanej „przechowalnią” (accommodator), która
połączona jest z pamięcią długotrwałą (long term memory, LTM).
Następnie informacja przesyłana jest do pamięci krótkotrwałej (short term
memory, STM), którą scharakteryzowano za pomocą czterech parametrów.
Są nimi: (1) szybkość strumienia informacji na wejściu do STM (CK), która
wynosi 15 ± 3,1 bita/s; (2) czas przechowywania informacji w STM (TR),
tj. 5,4 ± 0,8 s; (3) całkowita pojemność STM (KK = CK6TR), czyli około 80
bitów; (4) tempo konsolidacji, czyli transferu informacji z STM do LTM
(CV), wynoszące 0,01–1 bit/s. STM, podobnie jak w modelu Atkinsona
i Shiffrina, pełni również funkcję kontrolną, sterując zachowaniem
człowieka.
RYCINA 8.2. Model przetwarzania informacji z uwzględnieniem struktur poznawczych,
kierunków przepływu informacji oraz przepustowości systemu
Źródło: Lehrl, Fischer, 1988, s. 885.

W swoich badaniach autorzy posłużyli się zadaniem polegającym na


pomiarze czasu czytania trzech rodzajów znaków: liter, liczb i symboli
chemicznych. Podjęcie decyzji leksykalnej dotyczącej każdej litery
wymaga przetworzenia około 5 bitów informacji (dla 27 liter alfabetu
niemieckiego, które wykorzystano w badaniach, log227 = 4,75). Zatem do
przeczytania ciągu złożonego z 20 liter wymagane jest przetworzenie około
100 bitów (= 2065 bitów). Jeśli czas czytania ciągu wyniósł np. 5 s, to
przeciętna szybkość przetwarzania jest równa 20 bitom/s (= 100 bitów/5 s),
czyli wynosi 1 bit/50 ms.

Pojemność STM szacowana jest przez Lehrla i Fischera na podstawie


dwóch parametrów: szybkości strumienia na wejściu i przeciętnego czasu
przechowywania informacji w STM. Magazyn o pojemności rzędu 80
bitów pozwala, według obliczeń dokonanych przez autorów, na
przechowanie średnio przez 5,4 s około 11 dwucyfrowych liczb (1167
bitów = 77 bitów) albo ciągu złożonego z losowo dobranych 16 liter (1665
bitów = 80 bitów). Wartość ta jest więc w przybliżeniu dwukrotnie większa
niż pojemność STM szacowana przez George’a Millera (1956), tj. 7 ± 2
jednostki. Wyliczenia Lehrla i Fischera wydają się jednak nie uwzględniać
mechanizmu zanikania informacji w pamięci krótkotrwałej: dostępność
informacji maleje szybko wraz z upływem czasu. Nancy Waugh i Donald
Norman (1965), uwzględniając zjawisko interferencji informacji w STM
występujące w swobodnym odtwarzaniu listy elementów, oszacowali jej
pojemność na dwa–trzy elementy. Współczesne badania nad pamięcią
roboczą również wydają się wskazywać, że wartość „magicznej liczby”
Millera została przeszacowana (Cowan, 1995; zob. podrozdz. 8.2.4). Lehrl
i Fischer przyjęli też wątpliwe założenie, że strumień danych na wejściu do
STM ma zawsze taką samą szybkość. W przypadku większości
realistycznych zadań poznawczych, obok transferu danych z rejestrów
sensorycznych, STM zajmuje się wydobywaniem i przechowywaniem
informacji z LTM, a także ich przetwarzaniem. Utrzymanie parametru CK
na maksymalnym poziomie w dłuższej perspektywie czasu wydaje się
zatem niemożliwe.

Mimo formułowanych pod ich adresem zastrzeżeń Lehrl i Fischer


wyprowadzili ze swoich badań dwa godne uwagi wnioski. Pierwszy
dotyczy parametru CK, który okazał się niezależny od typu materiału
(litery, liczby) i wokalizacji (czytanie głośne i ciche). We wszystkich
zastosowanych przez autorów seriach zadań, w których manipulowano
tymi zmiennymi, czas reakcji nie różnił się istotnie. Wydaje się, że jest to
dowód na formalny charakter parametru CK. Drugi wniosek dotyczy
niezależności parametrów CK i TR. Autorzy podają argumenty na jej rzecz,
które są o tyle ciekawe, że uważa się, iż między tymi parametrami zachodzi
dość ścisły związek (np. Eysenck, 1986; Jensen, 1970). Argumenty
przytoczone przez Lehrla i Fischera dotyczą niezależności zmian
w zakresie obu parametrów w przypadku różnych zaburzeń o charakterze
klinicznym. W innych jednak badaniach Lehrla (1988; za: Lehrl, Fischer,
1988), przeprowadzonych wśród osób zdrowych, parametry te skorelowane
były pozytywnie na poziomie 0,65.
Krzywe pozycyjne (positional curves) – ilustrują prawdopodobieństwo prawidłowego odtworzenia
bodźców z listy w zależności od ich pozycji na niej (np. na początku lub na końcu).
Efekt pierwszeństwa (primacy effect) – wyższe prawdopodobieństwo odtworzenia bodźców
z początku prezentowanej listy, np. słów; zjawisko wyjaśniane transferem informacji do pamięci
długotrwałej.
Efekt świeżości (recency effect) – wyższe prawdopodobieństwo odtworzenia bodźców z końca listy,
np. słów; zjawisko wyjaśniane udziałem pamięci krótkotrwałej w odtwarzaniu materiału; silnie
podatne na upływ czasu i na interferencję.

Istotą metafory magazynowej w zastosowaniu do pamięci jest traktowanie


jej systemów jako odrębnych. Idea odrębności, przede wszystkim
systemów pamięci krótko- i długotrwałej, wywodzi się jeszcze z XIX-
wiecznych prac Williama Jamesa. Jej zwolennicy wskazują na szereg
danych przemawiających za tym podziałem. Dane eksperymentalne tego
typu odwołują się do tzw. krzywych pozycyjnych, będących ilustracją
prawdopodobieństwa prawidłowego odtworzenia bodźców z listy (np.
słów) w zależności od pozycji, jaką na niej zajmują. Liczba bodźców na
liście musi być na tyle duża, aby przekraczała pojemność pamięci
krótkotrwałej. W klasycznych badaniach dotyczących zapamiętywania
Murray Glanzer i Anita Cunitz (1966) prezentowali osobom badanym listę
15 słów z poleceniem ich zapamiętania. Prezentacja odbywała się
sekwencyjnie. Następnie, po upływie 0, 10 albo 30 s, osoby badane
proszone były o odpamiętanie tylu słów, ile tylko potrafią. Kolejność
odtwarzania była dowolna, w szczególności nie musiała być zgodna
z kolejnością prezentacji. Jest to jedna z klasycznych procedur
stosowanych w badaniach nad pamięcią, tj. metoda swobodnego
odtwarzania (free recall). W warunkach, w których zastosowano
odroczenie (10 albo 30 s) między ekspozycją listy a rozpoczęciem jej
odtwarzania, osoby badane w czasie przerwy wykonywały zadanie
odliczania wstecz. Ponieważ jest to zadanie silnie angażujące pamięć
krótkotrwałą, utrudnione staje się wówczas powtarzanie w pamięci listy
słów. Wyniki uzyskane przez Glanzera i Cunitz zaprezentowano na rycinie
8.3. Wskazują one na wystąpienie tzw. efektu pierwszeństwa i efektu
świeżości. Pierwszy dotyczy wyższego prawdopodobieństwa odtworzenia
bodźców z początku listy, a drugi – z jej końca. Ponieważ lista jest na tyle
długa, że jej zawartość nie może zostać w całości zakodowana w pamięci
krótkotrwałej, efekt pierwszeństwa wyjaśnia się transferem informacji do
LTM. Efekt ten jest dość odporny na upływ czasu i interferencję wywołaną
w pamięci krótkotrwałej (nie znika w warunkach odroczenia czasowego
z zadaniem odliczania wstecz). Z kolei efekt świeżości wiązany jest
z udziałem STM w odtwarzaniu materiału, nawet gdy lista jest bardzo
długa. Jeśli odtwarzanie rozpoczyna się natychmiast po prezentacji listy,
ostatnie jej elementy znajdują się jeszcze w pamięci krótkotrwałej. Efekt
ten jest jednak silnie podatny na upływ czasu (odroczenie) i na
interferencję (odliczanie wstecz). W warunku odroczenia odtwarzania już
o 10 s zanika albo zdecydowanie słabnie (zob. Bjork, Whitten, 1974).
Okazuje się więc, że w warunkach odroczenia odtwarzania wybiórczo
redukowany jest efekt świeżości przy zachowaniu efektu pierwszeństwa.
Wybiórczość tę uznano za dowód odrębności magazynów pamięciowych,
z którymi wiążą się obydwa efekty.
RYCINA 8.3. Efekt pozycji – prawdopodobieństwo odtworzenia pierwszych i ostatnich kilku
elementów listy elementów (np. słów) jest wyższe niż elementów środkowych
Źródło: opracowanie własne na podstawie Glazer, Cunitz, 1966, Eysenck, Keane, 2015, s. 154.

Inne dane eksperymentalne sugerują odrębność STM i LTM ze względu na


postulowane mechanizmy zapominania. Twierdzi się, że w obu wypadkach
działa mechanizm interferencji. Wyniki badań wskazują, że w pamięci
krótkotrwałej czynnikiem ją wywołującym jest podobieństwo akustyczne
bodźców, podczas gdy w pamięci długotrwałej – ich podobieństwo
semantyczne. Ponadto wskazuje się na istnienie specyficznego dla LTM
mechanizmu zapominania, polegającego na utracie dostępu do informacji
(cue-dependent forgetting). Mimo że informacja nie została usunięta
z LTM, tracimy do niej dostęp, najczęściej chwilowo. Spektakularnym
dowodem udziału tego mechanizmu w zapominaniu jest tzw. efekt końca
języka (tip of tongue effect), kiedy doskonale zdajemy sobie sprawę z tego,
że coś wiemy, ale nie jesteśmy w stanie sobie tego przypomnieć.

Druga grupa dowodów odrębności magazynów STM i LTM pochodzi


z badań neuropsychologicznych i odnosi się do zasady tzw. podwójnej
dysocjacji (double dissociation) u pacjentów z uszkodzeniami mózgu.
Przyjmuje się, że jeśli dwa zadania angażują różne mechanizmy poznawcze
czy mózgowe, to w zależności od rodzaju uszkodzenia pacjenci będą
wykonywać jedno z tych zadań gorzej niż osoby zdrowe, podczas gdy
poziom wykonania drugiego pozostanie niezmieniony. Krzywe pozycyjne,
według zwolenników metafory magazynowej, odzwierciedlają
zaangażowanie odrębnych podsystemów pamięciowych. Wybiórcze
zniesienie efektu pierwszeństwa z równoczesnym zachowaniem efektu
świeżości przy specyficznych uszkodzeniach mózgu, uznać należy za
dowód odrębności mechanizmów kryjących się za tymi efektami. Rezultaty
tego typu pochodzą z badań przeprowadzonych na pacjentach z amnezją
wsteczną lub następczą, spowodowaną uszkodzeniami przyśrodkowych
płatów skroniowych, wzgórza lub okolic przedczołowych, zaistniałymi
w wyniku wypadku albo interwencji chirurgicznej. Wyniki tych badań
omówione zostaną w podrozdziale 8.3.2. W tym miejscu zaznaczmy tylko,
że opisano przypadki pacjentów, u których stwierdzono wybiórcze
zaburzenia w zakresie efektu pierwszeństwa albo świeżości.

Idea magazynowych modeli pamięci z jednej strony wydaje się intuicyjnie


trafna. Większość znanych nam systemów przechowywania informacji ma
strukturę magazynową, jak różnego rodzaju bazy danych, zarówno
analogowe (np. katalogi biblioteczne), jak i elektroniczne (np. baza danych
o podatnikach). Samo pojęcie przechowywania sugeruje istnienie jakiegoś
schowka czy pojemnika. Z drugiej strony podstawowym „grzechem” tego
podejścia jest błąd nadmiernego uproszczenia. Po pierwsze, za nadmiernie
uproszczony, a nawet zupełnie nietrafny, uznano statyczny charakter
modeli blokowych, podczas gdy ogólne założenia paradygmatu
poznawczego akcentują dynamikę procesów poznawczych. Trudności
w oszacowaniu podstawowych własności magazynów pamięciowych, tj.
pojemności i czasu przechowywania (poza LTM, która wydaje się nie mieć
ograniczeń w tym zakresie), wynikają zapewne z owej statyczności ujęcia,
typowego dla metafory magazynowej. Allan Reynolds i Paul Flagg (1983)
po analizie rezultatów wielu badań ustalili, że pojemność STM szacuje się
w granicach 3–20 jednostek. Również czas przechowywania informacji
w pamięci krótkotrwałej mieści się w przedziale od 5 s (Lehrl, Fisher,
1988) do 1 min (Sternberg, 1996a). Różnice wynikają w sposób
jednoznaczny z zastosowanych procedur eksperymentalnych, ale oznacza
to, że różnorodne procesy poznawcze wpływają zarówno na czas
przechowywania, jak i pojemność STM. Dzięki efektywnemu kodowaniu
z wykorzystaniem mnemotechnik i mechanizmowi wewnętrznych
powtórek można zwiększyć zakres obu parametrów pamięci. Właściwości
pamięci sensorycznej wydają się bardziej stałe, ale także w jej przypadku
pojemność i czas przechowywania zapisu różnią się w zależności od
angażującego ją zadania poznawczego.

Po drugie, kontrowersyjny wydaje się pogląd, że przetwarzanie informacji


z udziałem systemów pamięciowych odbywa się zgodnie z ustaloną
w modelach blokowych ścieżką. Właściwie żadna z omówionych
propozycji teoretycznych nie rozwiązuje tego problemu w sposób
zadowalający. Tymczasem proces mimowolnego uczenia się
w paradygmacie sztucznych gramatyk wydaje się pomijać pamięć
krótkotrwałą, ale już werbalizacja reguł gramatyki (przynajmniej
częściowo możliwa) wiąże się z transferem informacji z LTM do STM. Co
więcej, aby wyjaśnić to zjawisko, niezbędne jest opisanie mechanizmu
kodowania informacji (abstrakcyjnego albo – co wydaje się już prostsze –
egzemplarzowego) bez udziału STM. Również zautomatyzowane
czynności proceduralne realizowane są bez udziału pamięci krótkotrwałej.
Wydaje się, że metafora magazynowa w ogóle nie pasuje do ludzkiego
umysłu, którego struktura – jak uważa Czesław Nosal (1990) – podlega
dynamicznym zmianom.

Po trzecie, podważono ideę zróżnicowania kodów reprezentacji danych


w poszczególnych magazynach. Najmniej wątpliwości budzi rodzaj kodu
w pamięci sensorycznej. Już jednak model pamięci roboczej Alana
Baddeleya (1986; Baddeley, Hitch, 1974) wyróżnia odrębne kody
podsystemów przechowywania informacji werbalnej i wzrokowo-
przestrzennej, a także informacji zintegrowanej z różnych modalności
(Baddeley, 2001, 2002). Z kolei teoria Allana Paivio (1971, 1986) zakłada,
że kodowanie informacji w pamięci trwałej może odbywać się zarówno
werbalnie, jak i niewerbalnie (np. obrazowo), a nie tylko semantycznie.
Długotrwałe pamiętanie dźwięków melodii, smaków czy zapachów, jak
również procedur sugeruje, że LTM wykorzystuje pełną pulę kodów
reprezentowania informacji. Nie wydaje się, aby koncepcja uniwersalnego,
abstrakcyjnego kodu propozycjonalnego była do utrzymania w odniesieniu
do kodowania np. dźwięków muzyki, a przecież każdy człowiek ma tę
umiejętność.

Po czwarte, zauważono, że dowody odrębności STM i LTM, oparte na


krzywych pozycyjnych, można wyjaśnić bez przyjmowania założeń
o głębokich różnicach strukturalnych. Zniesienie efektu świeżości można
wytłumaczyć zjawiskiem interferencji między przechowywaną informacją
werbalną (listą słów) a werbalnym zadaniem odliczania wstecz. Kiedy
bowiem zastosowano inne zadanie „przeszkadzające” w powtarzaniu listy
słów, które polegało na wyłapywaniu z zestawu dźwięków tonu
o określonej wysokości, efekt świeżości utrzymywał się nawet do 40 s
(Reitman, 1971, 1974). Również dane kliniczne, dotyczące efektu
podwójnej dysocjacji, można wyjaśnić, odwołując się do zaburzenia
przebiegu procesów przetwarzania informacji, związanych z różnymi
mechanizmami pamięciowymi. Może to być zaburzenie konsolidacji śladu
pamięciowego dokonującej się z udziałem hipokampu (zob. podrozdz.
9.1.3). Inne ujęcie wymaga zmiany spojrzenia na funkcje struktur
mózgowych w procesie pamięciowym. Być może struktury mózgowe,
niewątpliwie odrębnie aktywowane w zadaniach klasycznie uznawanych za
miary STM i LTM, nie wskazują na różną lokalizację systemów, ale na
odrębność związanych z nimi procesów poznawczych, np. konsolidacji
śladu pamięciowego, albo przywoływania określonych zapisów
pamięciowych. Zaburzenia w zakresie tych mechanizmów, nawet jeśli mają
dobrze poznaną etiologię, związaną z uszkodzeniem określonych partii
mózgu, mogą być dowodem odrębności mechanizmów pamięciowych,
a nie systemów pamięci.

W końcu po piąte, modele blokowe ujmują procesy pamięciowe w izolacji


od innych procesów poznawczych. Według Fergusa Craika i Roberta
Lockharta (1972) różnice między liczbą danych trwale przechowywanych
w pamięci a liczbą informacji aktualnie świadomie przetwarzanych
wynikają nie z lokowania ich w odrębnych magazynach, lecz z działania
procesów uwagowych odpowiedzialnych za aktywowanie informacji.
Trudno byłoby wyjaśnić proces kodowania informacji w LTM w oderwaniu
od selekcji danych, która też jest procesem uwagowym. Również
wydobywanie informacji z LTM, polegające na przeszukaniu jej
olbrzymich zasobów, nie byłoby tak szybkie bez udziału uwagi
selektywnej. Połączenie różnych procesów poznawczych w jednym modelu
jest zabiegiem skomplikowanym i generuje rozmaite trudności. Na
przykład pojawił się problem, czy mechanizm uwagowy angażowany
w przeszukiwanie pola wzrokowego jest tym samym, który wspomaga
przeszukiwanie pamięci. Innymi słowy, ważne wydaje się ustalenie, czy
uwaga jest mechanizmem jednorodnym (zob. Nęcka, 1995; Szymura,
Nęcka, 2004). Pomijanie jednak czynników istotnych dla danego zjawiska,
chociaż w tradycji badawczej analizowanych odrębnie, byłoby
nieuprawnionym uproszczeniem.

8.1.3. Procesualne modele pamięci


Modele procesualne są alternatywnymi koncepcjami wyjaśniającymi
wyniki badań nad pamięcią. W szczególności oznacza to, że nie
kwestionując tych wyników, można wyjaśnić funkcjonowanie pamięci bez
odwoływania się do metafory magazynowej. Co więcej, kontrowersje
związane z próbami oszacowania pojemności i czasu przechowywania
informacji w różnych systemach są łatwiejsze do wyjaśnienia w ujęciu
procesualnym niż strukturalnym. Nauka przedkłada proste rozwiązania nad
bardziej złożone, jeśli te pierwsze wyjaśniają zgromadzone dane co
najmniej tak samo dobrze jak te drugie. W przypadku procesualnych
modeli pamięci, a szczególnie teorii poziomów przetwarzania Craika
i Lockharta (1972), wydaje się, że wyjaśnienia w nich proponowane uznać
można za bardziej trafne niż te przedstawiane w ujęciu magazynowym.
Przykładowo wspomniane kontrowersje dotyczące właściwości
magazynów, które są nie do uniknięcia w tradycyjnym, blokowym ujęciu
pamięci, w większości z łatwością i niejako przy okazji są wyjaśniane jako
efekt głębokości przetwarzania informacji.

Teoria poziomów przetwarzania nie była pierwszą próbą procesualnego


wyjaśnienia funkcjonowania pamięci. W kontraście jednak np. do
procesualnego modelu pamięci długotrwałej Davida Rumelharta, Petera
Lindsaya i Donalda Normana (1972), nie była ograniczona tylko do
jednego systemu pamięci. Jej ambicją, podobnie jak opisanych wcześniej
modeli blokowych, było wyjaśnienie szerokiej klasy zjawisk, niekiedy
kosztem niewystarczającego poziomu szczegółowości postulowanych
mechanizmów pamięciowych. Niemniej teoria poziomów przetwarzania
była absolutnie przełomową, alternatywną próbą zrozumienia
mechanizmów pamięciowych.

Craik i Lockhart (1972) przyjęli, że trwałość śladów pamięciowych wiąże


się z głębokością przetworzenia stymulacji. Ponieważ głębokość
przetwarzania jest efektem wielu procesów, nie tylko kodowania
informacji, lecz także późniejszej obróbki, jest to zmienna ciągła. Skoro
trwałość informacji pozostaje skutkiem głębokości przetworzenia,
niepotrzebne, a co najmniej uproszczone jest ograniczanie się do
skończonej liczby poziomów przetworzenia (w metaforze magazynowej –
liczby systemów pamięci). W teorii poziomów przetwarzania traktuje się
pamięć jako system jednorodny, chociaż pogłębienie przetwarzania może
angażować różne mechanizmy poznawcze. Przykładowo inne będą
mechanizmy płytkiej sensorycznej obróbki stymulacji, a inne głębokiego
kodowania informacji w relacji do posiadanej wiedzy.

Zapisy pamięciowe w teorii Craika i Lockharta stanowią swego rodzaju


produkt uboczny percepcyjnej analizy stymulacji. Pojęcie analizy
percepcyjnej rozumiane jest przez autorów jako proces złożony, angażujący
– przy głębszym przetworzeniu – również wieloaspektową interpretację
stymulacji. Ślady pamięciowe nie stanowią bezpośredniego odwzorowania
bodźca, lecz są zapisem operacji poznawczych, składających się na proces
jego percepcji. Dlatego proces odpamiętywania jest próbą odtworzenia
sytuacji percepcyjnej. Ponieważ teoria poziomów przetwarzania zakłada,
że pogłębienie przetwarzania wiąże się z wykonaniem wcześniejszych,
płytszych operacji poznawczych, odtwarzanie stymulacji przebiega tym
sprawniej, im głębiej została ona przetworzona. Przywołania pamięciowe
są tym samym uzależnione od przebiegu procesów interpretacji bodźca
oraz od możliwości późniejszego odtworzenia operacji, które uczestniczyły
w procesie interpretacyjnym. Rozwiązanie takie pozwala na wyjaśnienie
różnic intra- i interindywidualnych w przywołaniach pamięciowych, czyli
różnic ujawniających się zarówno między osobami uczestniczącymi
w jakimś zdarzeniu, jak i między kolejnymi przywołaniami tej samej
osoby. Jak zauważa Krzysztof Najder (1992/1997), w przeciwieństwie do
wyjaśnień pochodzących z modeli magazynowych teoria poziomów
przetwarzania zakłada, że nawet gdyby usunąć wszystkie niesprawności
systemu poznawczego, przywołania pamięciowe – przynajmniej inter-,
a być może także intraindywidualne – byłyby nadal różne. Wynika to
z przebiegu procesu interpretacji stymulacji, który może być zupełnie inny
u różnych ludzi, nawet jeśli działają na nich te same bodźce. Różne mogą
być też możliwości odtworzenia operacji poznawczych, które składały się
na proces percepcji i interpretacji.

Craik i Lockhart przyjęli dla uproszczenia podział poziomów przetwarzana


na: płytsze, związane z analizą fizycznych właściwości stymulacji,
i głębsze, związane z analizą znaczenia stymulacji. Wszystkie one mogą
zawierać wiele podpoziomów, jednak autorzy nie chcieli przesądzać o ich
liczbie i unikalnych właściwościach każdego z nich. W badaniach
empirycznych potwierdzono hipotezę wiążącą głębokość przetwarzania
bodźca z prawdopodobieństwem rozpoznania (Craik, Tulving, 1975; zob.
paradygmat 8.1) albo swobodnego przypominania (Rogers, Kuiper, Kirker,
1977).
Paradygmat 8.1

Badanie pamięci w kategoriach poziomów przetwarzania

W klasycznym badaniu Craika i Tulvinga (1975) przeprowadzono łącznie


10 eksperymentów. W każdym z nich uczestniczyło ponad 20 osób
badanych, którym prezentowano kilkadziesiąt (40–60) krótkich
rzeczowników o konkretnym znaczeniu. Słowa te były prezentowane
tachistoskopowo w czasie 200 ms. Przed każdym słowem osobie badanej
czytano lub prezentowano na piśmie pytanie go dotyczące. Trzeba było na
nie odpowiedzieć już po zapoznaniu się z bodźcem, naciskając odpowiedni
przycisk (klucz reakcyjny TAK lub NIE) albo emitując reakcję werbalną.
W każdym przypadku mierzono czas reakcji.

Istotą procedury Craika i Tulvinga było manipulowanie charakterem pytań,


tak aby – zgodnie z przyjętym stanowiskiem teoretycznym – określone
pytanie stymulowało odpowiedni poziom przetwarzania informacji. Na
poziomie płytkim, nazwanym przez autorów poziomem strukturalnym,
pytano o to, czy słowo napisane jest wielkimi literami. W przypadku gdy za
chwilę pojawiło się np. słowo „STÓŁ”, należało odpowiedzieć TAK, a gdy
słowo napisano jako „stół”, właściwa odpowiedź brzmiała NIE. Na nieco
głębszym poziomie „fonemicznym” pytano, czy słowo rymuje się z innym
słowem. Na przykład pytanie brzmiało: „Czy słowo rymuje się ze słowem
DYNIA?”. Jeśli po tym pytaniu badany zobaczył słowo „skrzynia”,
powinien zareagować TAK, a jeśli widział słowo „targ”, powinien nacisnąć
przycisk NIE. Na najgłębszym poziomie, wymagającym analizy
semantycznej, pytano albo o przynależność kategorialną słowa, albo o to,
czy pasuje ono do konkretnego zdania. Na przykład na pytanie: „Czy to jest
gatunek ryby?”, należało odpowiedzieć TAK w przypadku słowa
„REKIN”, a NIE w przypadku słowa „niebo”. Z kolei na pytanie: „Czy to
słowo pasuje do zdania: «Spotkał na ulicy»?”, należało odpowiedzieć TAK
w przypadku słowa „PRZYJACIEL”, a NIE w przypadku słowa „chmura”.

Drugą, niezwykle istotną, częścią procedury był niespodziewany test


pamięci. Osoby badane proszono o odpamiętanie prezentowanej wcześniej
listy słów albo w warunkach swobodnego przypominania („Przypomnij
sobie w dowolnej kolejności słowa, które widziałeś w zadaniu na
spostrzeganie”), albo w warunkach rozpoznawania. Jeśli stosowano test
rozpoznawania, badanym prezentowano listę słów oryginalnych wraz
z dwu- lub trzykrotnym nadmiarem. Na przykład, jeśli oryginalna lista
liczyła 40 słów, w teście rozpoznania znajdowało się 80 lub 120 słów,
w tym lista oryginalna w całości. Sprawdzano procent poprawnie
odpamiętanych słów w zależności od warunku eksperymentalnego.

Okazało się, że manipulacja poziomami przetwarzania wpłynęła zarówno


na czas reakcji, jak i na poprawność odpamiętania. Na przykład
w pierwszym eksperymencie z serii dziesięciu średni czas reakcji
w warunku strukturalnym wyniósł 614 ms, w warunku fonemicznym – 689
ms, w warunku wymagającym decyzji kategorialnej –711 ms, a w warunku
wymagających analizy treści zdania – 746 ms. Dane te dotyczą sytuacji,
gdy poprawna odpowiedź brzmiała TAK. W przypadku odpowiedzi
negatywnych wartości czasu reakcji było nieco inne, choć nie różniły się
znacząco od czasu reakcji pozytywnych. Jeśli chodzi o poprawność
w teście odpamiętania, była ona najniższa w warunku strukturalnym (18%),
znacząco wyższa – w warunku fonemicznym (78%), a najwyższa –
w warunkach semantycznych (91%, jeśli chodzi o decyzje kategorialne,
a 96% w przypadku analizy treści zdania). Dane te dotyczą poprawności
reakcji typu TAK; w przypadku reakcji typu NIE zaobserwowano nieco
słabszy przyrost poprawności w miarę przechodzenia na głębszy poziom
przetwarzania, chociaż i tutaj przyrost ten był znaczący (od 14%
w warunku strukturalnym do 85% w warunku wymagającym analizy treści
zdania). Można więc powiedzieć, że im głębszy poziom przetwarzania, tym
dłuższy czas reagowania, ale lepszy wskaźnik niezamierzonego
zapamiętywania materiału. Dłuższy czas reakcji świadczy zapewne
o większej złożoności procesu poznawczego, zaangażowanego
w przetwarzanie materiału na poziomie głębokim. Natomiast wyższy
odsetek poprawnych reakcji w teście pamięci dowodzi niewątpliwie
większej i jakościowo lepszej pracy umysłu wtedy, gdy postawi mu się
zadanie dogłębnej analizy materiału. Jak piszą sami autorzy:
„przechowanie materiału w pamięci stanowczo zależy od jakości
wykonanych operacji kodowania” (Craik, Tulving, 1975, s. 291).

Paradygmat Craika i Tulvinga był wielokrotnie wykorzystywany


w badaniach z zakresu pamięci, ale też w badaniach nad mimowolnym
uczeniem się. Zadecydowała o tym istotna część przyjętej przez nich
procedury, zgodnie z którą osoba badana kontaktuje się z materiałem
bodźcowym bez zamiaru zapamiętania go, lecz w odpowiedzi na polecenie
eksperymentatora, aby ten materiał w jakiś sposób przetworzyć. Potem
znienacka następuje próba pamięci, której wyniki świadczą o efektywności
mimowolnego, niezamierzonego zapamiętywania. Posługując się tą logiką,
stworzono procedury do badania skuteczności niezamierzonego,
mimowolnego uczenia się (np. Nęcka, 1994a; Nęcka, Machera, Miklas,
1992). Interesującą modyfikację tej procedury zaproponowała Dorota
Bienicewicz-Krasek (2003). Punktem wyjścia była dla autorki chęć
rezygnacji z bodźców słownych, które niewątpliwie prowokują pojawienie
się operacji poznawczych typowych dla materiału werbalnego. Mimo że
pojęcie poziomów przetwarzania odnosi się do poznania w ogóle,
w badaniach eksperymentalnych wykorzystywano tylko te zabiegi, które
nadawały się do słów. Na przykład na poziomie płytkim pytano, czy słowo
jest napisane wielkimi literami, a na poziomie głębokim, czy pasuje
logicznie do zdania. W proponowanej modyfikacji pokazywano osobom
badanym obrazki. Chcąc sprowokować płytki poziom przetwarzania,
pytano o to, jakiego koloru (z czterech do wyboru) jest na obrazku
najwięcej. Natomiast głębszy poziom przetwarzania wzbudzano pytaniem,
czy dwa przedmioty pokazane na osobnych obrazkach należą do tej samej
kategorii albo czy mogłyby się pojawić w tym samym kontekście („Gdyby
przedmiot w kółku pojawił się na obrazku obok, czy miałoby to sens?”).
W ten sposób przełamano tradycję, zgodnie z którą głęboki poziom
przetwarzania określano jako semantyczny. Wyniki badań Bienicewicz-
Krasek pokazały, że tak spreparowany materiał pozwala uzyskać
analogiczne zależności jak materiał werbalny. Procent poprawnie
rozpoznanych bodźców w teście pamięci był bowiem znacząco wyższy
wtedy, gdy bodźce te opracowywano na poziomie głębokim.

T.B. Rogers, N.A. Kuiper i W.S. Kirker (1977) zastosowali podobną


procedurę jak Craik i Tulving, ale wprowadzili dodatkowo jeszcze jeden
typ pytania, odnoszący się do Ja osoby badanej. Badani mieli mianowicie
odpowiedzieć na pytanie, czy prezentowane im słowo opisuje ich samych.
Wyniki testu swobodnego odtwarzania słów stosowanych jako materiał do
tego pytania były znacząco wyższe niż rezultaty odnoszące się do
semantycznego poziomu przetwarzania, uważanego zwykle za najgłębszy.
Co istotne, wyniki te dotyczyły zarówno słów, które badani oceniali jako
bardziej trafnie opisujące ich osobę, jak i słów mniej trafnych, przy czym te
pierwsze pamiętane były zdecydowanie najlepiej. Autorzy nazwali
uzyskany rezultat efektem autoreferencji. Wydaje się, że odpowiedź na
pytanie tego typu wymaga bardzo głębokiej analizy słowa w odniesieniu do
kluczowej dla jednostki wiedzy na temat Ja. Francis Bellezza (1984)
dowodzi, że wiedza tego typu jest rozbudowana i łatwo dostępna, dlatego
efekt autoreferencji jest wyjątkowo silny. Nie ma jednak powodu, aby
uznawać go za jakościowo różny od innych mechanizmów głębokiego
poziomu przetwarzania.

Z kolei badania Thomasa Hyde’a i Jamesa Jenkinsa (1969), w których


użyto uproszczonej wersji paradygmatu stosowanego przez Craika
i Tulvinga, wykazały, że nawet jeśli osoby badane zostaną poinformowane
o teście sprawdzającym poziom zapamiętania słów, nie ma to większego
znaczenia dla uzyskanych rezultatów. Badacze zastosowali plan
międzygrupowy, w którym manipulowali głębokością przetworzenia
i informacją o teście sprawdzającym poziom zapamiętania słów. Płytki
poziom przetworzenia związany był z zadaniem polegającym na policzeniu
liter w każdym z prezentowanych słów, a głęboki – z oceną, w jakim
stopniu przyjemne jest dane słowo. W grupach, w których test swobodnego
odtwarzania słów użytych w eksperymencie był niespodzianką, uzyskano
68% poprawnych odtworzeń w grupie głębokiego poziomu przetwarzania
i 39% – w grupie poziomu płytkiego. Jeśli osoby badane poinformowano
o czekającym je teście odtwarzania, uzyskano odpowiednio 69%
poprawnych odtworzeń w grupie głębokiego i 43% – w grupie płytkiego
poziomu przetwarzania. Był to spektakularny dowód na bardzo silny
wpływ głębokości przetwarzania na poziom odtworzenia i bardzo słaby
wpływ informacji uprzedzającej o tym, że słowa należy zapamiętać.

W teorii poziomów przetwarzania przyjęto szereg innych,


kontrowersyjnych niekiedy założeń, z których istotne wydaje się
twierdzenie dotyczące „obiegu” informacji w obrębie poziomów
przetwarzania i pomiędzy nimi. W ujęciu Craika i Lockharta (1972) są to
dwa mechanizmy: powtarzania podtrzymującego (maintenance rehearsal)
i powtarzania pogłębiającego (elaborative rehearsal). Mechanizm
powtarzania podtrzymującego polega na powtarzaniu operacji, które
zostały uprzednio wykonane na danym materiale, i nie prowadzi do
pogłębienia przetwarzania. Jego funkcją jest aktywne podtrzymywanie
informacji na danym poziomie. Z kolei mechanizm powtarzania
pogłębiającego polega na zastosowaniu nowych – najczęściej
semantycznych – operacji w stosunku do materiału pamięciowego,
wiodących do jego głębszego przetworzenia. Nie stworzono
wyczerpującego katalogu operacji, które skutkują pogłębieniem
przetwarzania. Według C. Donalda Morrisa, Johna Brandsforda i Jeffreya
Franksa (1977) można podzielić je na dwie grupy: dotyczące elaboracji
materiału albo elaboracji relacji. Pierwszy rodzaj elaboracji polega na
kodowaniu z uwzględnieniem poszczególnych cech bodźca, a drugi – na
kodowaniu bodźca w odniesieniu do właściwości innych zapisów
pamięciowych. W obu przypadkach kodowanie może obejmować różne
poziomy przetwarzania, np. cechy fonemiczne i semantyczne słowa
„książka” (elaboracja materiału) czy relacje fonemiczne słów „książka”
oraz „wstążka” albo relacje semantyczne z pojęciami takimi jak: „druk”,
„wiedza”, „wiersz” itd. (elaboracja relacji). Szczególnym rodzajem
elaboracji relacji jest strategiczne organizowanie informacji, polegające na
poszukiwaniu w nabywanym materiale określonego porządku. Stanley
Klein i John Kihlstorm (1986) wykryli, że jeśli informacja łatwiej poddaje
się porządkowaniu, czyli ułatwia głębokie przetworzenie, to jej późniejsze
odtworzenie jest bardziej efektywne.

Oba mechanizmy obiegu informacji są unikatowe dla koncepcji poziomów


przetwarzania. Co prawda, powtarzanie podtrzymujące pojawia się również
w koncepcjach magazynowych, ale obie teorie prowadzą do różnych
predykcji co do jego efektów. Powtarzanie podtrzymujące w ujęciu
magazynowym prowadzi do utrwalenia śladu pamięciowego, podczas gdy
w teorii poziomów przetwarzania nie ma na to wpływu. Fergus Craik
i Michael Watkins (1973) zaprojektowali badanie, którego celem była
weryfikacja tych predykcji. W zadaniu prezentowano listę wyrazów,
z poleceniem zapamiętania ostatniego słowa, rozpoczynającego się na
określoną literę (słowo docelowe). Na liście znajdowało się wiele tego typu
słów, co wymagało ciągłej aktualizacji pamięci: nowe słowo docelowe
zastępowało poprzednie. Pomiędzy nimi na liście umieszczono słowa
rozpoczynające się na inne litery. Ich liczba podlegała manipulacji
eksperymentalnej w zakresie 0–12. Słowa te mogły być ignorowane przez
osoby badane po stwierdzeniu, że zaczynają się na niewłaściwą literę.
Istotą tej manipulacji było założenie, że w trakcie prezentacji listy wyrazów
ignorowanych osoby badane mają okazję do powtarzania ostatniego słowa
docelowego. Ponieważ zadanie nie wymaga od nich pogłębionego
przetwarzania słowa, powtarzanie podtrzymujące wystarcza do jego
wykonania. Przyjęto, że więcej wyrazów ignorowanych między kolejnymi
ekspozycjami słów docelowych pozwala na większą liczbę tego rodzaju
powtórek. W myśl założeń teorii poziomów przetwarzania jednak nie
powinno to mieć wpływu na poziom ich odtworzenia. Na zakończenie
badania zastosowano procedurę swobodnego odtwarzania słów docelowych
z całej listy, o czym nie poinformowano wcześniej uczestników.
W badaniach wykazano, że poziom odtworzenia nie wiąże się z liczbą
przypuszczalnych powtórzeń słowa docelowego, co było zgodne z teorią
poziomów przetwarzania.

Coraz częściej pojawiają się badania odnoszące się do mózgowego podłoża


teorii poziomów przetwarzania (zob. ramkę 8.1). Stosowane w nich
odmiany klasycznego paradygmatu eksperymentalnego Craika i Tulvinga
(1975; zob. paradygmat 8.1) połączono z różnymi technikami
neuroobrazowania, przez co uzyskano wgląd w aktywację struktur
mózgowych w warunkach płytkiego i głębokiego przetwarzania.

Zwolennicy teorii poziomów przetwarzania zaproponowali nie tylko nowe


spojrzenie na pamięć, lecz także poddali reinterpretacji koronny argument
na rzecz strukturalnej odrębności magazynów STM i LTM, tj. wyniki badań
nad krzywymi pozycyjnymi. Dokonał tego Harley Bernbach (1975). Jego
zdaniem początkowa część listy zostaje lepiej zapamiętana dzięki
pogłębionej analizie, co wyjaśnia efekt pierwszeństwa. Ponieważ nie udaje
się to w stosunku do wszystkich elementów długiej listy, np. ze względu na
zbyt szybkie tempo jej prezentacji, późniejszy materiał kodowany jest już
płycej. Efekt świeżości jest również skutkiem płytkiego przetwarzania,
o czym świadczy jego duża podatność na dystrakcję wywoływaną
zadaniem wykonywanym zaraz po ekspozycji listy. Dzięki pewnym
zabiegom, np. wymuszeniu powtarzania każdego elementu listy tyle samo
razy, udaje się znieść oba te efekty. Jeśli założyć, że powtarzanie może się
wiązać z określoną strategią elaboracji (Morris i in., 1977), jest ono
sposobem pogłębienia przetwarzania każdego elementu listy.

RAMKA 8.1

Neuroobrazowanie poziomów przetwarzania


Shitij Kapur i współpracownicy (1994) poddali weryfikacji twierdzenie
o głębokości przetwarzania z użyciem tomografii pozytonowej (positron
emission tomography, PET). Podobnie jak w klasycznych badaniach
behawioralnych, osobom badanym prezentowano najpierw listę słów
(rzeczowników), manipulując poziomem ich przetworzenia. W warunku
płytkiego przetworzenia zadanie polegało na detekcji litery „a”
w prezentowanym słowie, natomiast w warunku przetwarzania
głębokiego – na kategoryzacji rzeczowników jako odnoszących się do
obiektów ożywionych bądź nieożywionych. W badaniach zreplikowano
efekt wpływu głębokości przetwarzania na poziom odtworzenia w teście
rozpoznania. Za pomocą techniki PET zidentyfikowano różne obszary
aktywowane w trakcie fazy prezentacji słów w warunkach płytkiego
i głębokiego przetwarzania. Różnica dotyczyła aktywności lewej dolnej
kory przedczołowej półkuli (left inferior prefrontal cortex) angażowanej
w warunku przetwarzania głębokiego.

Leun Otten i Michael Rugg (2001), używając techniki funkcjonalnego


rezonansu magnetycznego (functional magnetic resonance imaging,
fMRI), przeprowadzili eksperyment, w którym osoby badane miały
zdecydować, czy prezentowane im słowo oznacza obiekt ożywiony czy
nie (poziom głębszy, ze względu na konieczność analizy znaczenia) albo
czy słowo zawiera parzystą czy nieparzystą liczbę liter (poziom płytki).
Podobnie jak u Kapura i współpracowników jedynie warunek
głębokiego przetwarzania angażował boczną i przyśrodkową korę
przedczołową lewej półkuli (left and medial prefrontal cortex). Z kolei
w warunku płytkiego przetwarzania angażowane były obustronnie
obszary bruzdy śródciemieniowej (bilateral intraparietal sulcus)
i zakrętu wrzecionowatego (bilateral fusiform gyrus) oraz obszar
przedczołowy prawej półkuli (right prefrontal cortex) i górny zakręt
potyliczny lewej półkuli (left superior occipital gyrus).

Obszary przedczołowe lewej półkuli, których wzmożona aktywność


ujawniła się w warunkach przetwarzania głębokiego w obydwu
badaniach, związane są z przetwarzaniem znaczenia stymulacji oraz
zaangażowaniem reprezentacji werbalnych. Z kolei obszary mózgu
aktywne w warunku płytkiego przetwarzania wiążą się
z wyższorzędowymi operacjami percepcyjnymi (Kim, 2011; Paller,
Wagner, 2002). Przewaga aktywności struktur prawej półkuli wskazuje
na angażowanie operacji wzrokowo-przestrzennych. Wyniki te zdają się
potwierdzać trafność manipulacji stosowanej w paradygmacie poziomów
przetwarzania.

Teoria poziomów przetwarzania była intensywnie krytykowana, co


doprowadziło do jej gruntownej modyfikacji (Lockhart, Craik, 1990),
polegającej w większości na osłabieniu pierwotnych twierdzeń teorii
z 1972 r., bez przyjmowania nowych, oryginalnych rozwiązań. Osłabiono
główne twierdzenie o związku głębokości przetwarzania z trwałością
śladów pamięciowych. Autorzy uwzględnili dane wskazujące na wyższą –
niż przewidywana przez ich koncepcję – trwałość śladów pamięciowych
informacji przetworzonej na płytkim poziomie sensorycznym. Później
wykazano, że uzasadnione wydaje się jeszcze większe ograniczenie zakresu
tego twierdzenia. Bradford Challis i David Brodbeck (1992) wykazali, że
efekt głębokości przetwarzania nie stosuje się do testów pamięci ukrytej,
a jedynie do tradycyjnych miar pamięci jawnej, czyli rozpoznawania
i przypominania. Wydaje się więc, że założenie o związku głębokości
przetwarzania z poziomem odpamiętania należałoby rozumieć jako efekt
statystyczny (niemający mocy wyjaśniającej, lecz wyłącznie opisową)
i ograniczyć do pamięci jawnej.

Osłabieniu uległo również założenie mówiące o ustalonej sekwencji obiegu


informacji z poziomów płytszych do głębokich. Craik i Lockhart zakładali
początkowo, że obróbka stymulacji na głębszych poziomach nie może się
odbyć bez uprzedniego przetworzenia na poziomach płytszych. W wielu
obszarach psychologii poznawczej można odnaleźć dane wskazujące na
współistnienie jednocześnie oddolnych i odgórnych procesów
przetwarzania informacji. Pierwsze dokonuje się od płytkich do głębokich
poziomów przetwarzania, a drugie – odwrotnie. Dlatego Lockhart i Craik
(1990) stwierdzili, że przetwarzanie informacji jest swego rodzaju
kompromisem między procesami oddolnymi i odgórnymi, które na dodatek
mogą zachodzić częściowo lub w pełni równolegle na różnych poziomach
przetwarzania.

Koncepcja Craika i Lockharta była niewątpliwie przełomowa w spojrzeniu


na funkcjonowanie pamięci. Z powodzeniem była w stanie odmiennie
wyjaśnić wiele danych eksperymentalnych, uzyskanych i interpretowanych
w ujęciu magazynowym. Po jej opublikowaniu zgromadzono sporo danych
przemawiających na rzecz jej trafności. Nie powinno nas jednak dziwić, że
nawet po modyfikacjach teoria ta nadal ma ograniczoną moc wyjaśniającą.
Skomplikowanie ludzkiego umysłu wymaga teorii eleganckich i prostych,
ale przede wszystkim trafnych, tj. ujmujących całą złożoność wielu
systemów i mechanizmów pamięciowych. Być może dlatego obecnie
mniejszy nacisk kładzie się na uniwersalność teorii, tj. szeroki zakres jej
zastosowania do różnorodnych zjawisk pamięciowych. Bieżące badania
koncentrują się raczej na wąskiej klasie tych zjawisk, przy maksymalnym
pogłębieniu analizy ich mechanizmów.

W ocenie teorii poziomów przetwarzania uwzględnić należy możliwość


ścisłego powiązania między różnymi procesami poznawczymi człowieka,
zwykle traktowanymi odrębnie od pamięci. Chodzi głównie o procesy
percepcyjne, które – według Craika i Lockharta – są podłożem zjawisk
pamięciowych. Istotne wydają się również szerokie możliwości połączenia
teorii poziomów przetwarzania z pamięcią semantyczną, czego nie dawały
modele magazynowe. Nawet jeśli uznać zasadność krytyki teorii poziomów
przetwarzania, przywołani badacze wyznaczyli nią nowe sposoby opisu
i badania pamięci.
8.2. Systemy pamięci przemijającej
Nawiązując do kryterium czasu przechowywania informacji, systemy
pamięci podzielono na dwie kategorie. W pierwszej mieszczą się systemy
pamięci przemijającej, obejmujące rejestry sensoryczne i pamięć
krótkotrwałą (roboczą). Informacje przechowywane w tych systemach,
z racji ich funkcji i mechanizmów działania, są nietrwałe. Co więcej, ich
przemijający charakter jest w tym przypadku zaletą, zapisy pamięciowe
mogą bowiem zostać łatwo usunięte, ustępując miejsca nowo napływającej
informacji. Dynamika zarówno elementarnych, jak i złożonych procesów
poznawczych wymaga ciągłej aktualizacji przetwarzanych danych, czemu
sprzyja łatwość „pozbywania” się niepotrzebnych już informacji. Co
istotne, procesy elementarne, np. percepcji, korzystają przede wszystkim
z rejestrów sensorycznych, podczas gdy procesy złożone, np. rozumowanie
– raczej z pamięci krótkotrwałej (roboczej). W drugiej kategorii mieszczą
się systemy pamięci trwałej, do których wrócimy w podrozdziale 8.3.

8.2.1. Pamięć sensoryczna


Teoretycznie przyjmuje się, że każdy z narządów zmysłu został
wyposażony w odpowiadający mu rejestr sensoryczny. Ze względów
technicznych badaniom empirycznym poddawano głównie dwa rejestry:
pamięć ikoniczną (iconic memory), związaną ze zmysłem wzroku,
i pamięć echoiczną (echoic memory), związaną ze słuchem (Neisser,
1967).

Paradygmat 8.2

Procedura odtwarzania częściowego według Sperlinga


George Sperling (1960) eksponował osobom badanym matrycę złożoną
z liter, których liczba przekraczała pojemność pamięci krótkotrwałej.
W warunkach standardowej prezentacji tachistoskopowej osoby badane
były w stanie odtworzyć poprawnie cztery–pięć liter, niezależnie od
wielkości owej matrycy. Ponieważ odtwarzanie w takim zadaniu angażuje
pamięć krótkotrwałą, był to kolejny dowód na jej znaczne ograniczenie,
przy czym mogło ono dotyczyć albo pojemności STM, albo czasu
zanikania zawartej w nim informacji. Sperlinga nie interesowała jednak
pojemność STM, lecz pamięci ikonicznej. Zaproponował więc modyfikację
opisanego zadania, w której osoba nie odtwarzała całości
zaprezentowanego materiału, lecz losowo wskazaną jego część. W krótkim
interwale czasu prezentowano jej matrycę liter, która – podobnie jak
w oryginalnym zadaniu – ze względu na swoją wielkość przekraczała
pojemność STM (ryc. 8.4). Prezentacja standardowo trwała 50 ms, po czym
następowała przerwa, w której wyświetlano pustą planszę (białą albo
czarną). Długość tej przerwy podlegała manipulacji eksperymentalnej.
Następnie pojawiała się wskazówka akustyczna (ton o określonej, łatwej do
różnicowania wysokości) albo wizualna (strzałka), która informowała
osobę badaną o tym, który z rzędów niewidocznej już matrycy należy
odtworzyć. Ponieważ wskazówki pojawiały się w porządku losowym,
uczestnik nigdy nie wiedział, który z rzędów będzie musiał odtworzyć.
Zakładano, że jeśli istnieje magazyn pamięci ikonicznej, badany powinnien
mieć ultrakrótkotrwały dostęp do całej informacji zawartej w matrycy,
również po jej zniknięciu z ekranu tachistoskopu. Jeśli więc w tym czasie
wskazana zostanie pewna niewielka część materiału (nieprzekraczająca
pojemności STM), będzie możliwe jej odtworzenie, bez względu na to,
gdzie będzie umiejscowiona.
Badania Sperlinga wykazały, że jeśli przerwa między ekspozycją matrycy
liter a wskazówką przekraczała 500 ms, poprawność odtwarzania była
podobna jak w oryginalnym zadaniu. Jeśli jednak czas tej przerwy mieścił
się w przedziale 100–500 ms, badani byli w stanie odtworzyć dowolny ze
wskazanych im rzędów z niemal stuprocentową poprawnością. Oznacza to,
że do momentu uzyskania wskazówki przechowywali obraz całej matrycy,
ale tylko jeśli przerwa była bardzo krótka. Nie odnotowano istotnych
różnic w uzyskanych wynikach, gdy zwiększono wielkość matrycy do 12
liter (3 rzędy po 4 bodźce).

RYCINA 8.4. Procedura zastosowana w zdaniu Sperlinga (1960)


Źródło: opracowanie własne.

Odkrycia pamięci ikonicznej dokonał Sperling (1960), stosując tzw.


procedurę odtwarzania częściowego (partial-report procedure; zob.
paradygmat 8.2). Okazało się, że w pamięci ikonicznej mieści się znacznie
więcej informacji niż w pamięci krótkotrwałej, lecz czas przechowywana
jest bardzo ograniczony. Badania Sperlinga dowodziły, że przechowaniu
podlegają fizyczne właściwości bodźców wzrokowych. Dzięki różnym
odmianom procedury odtwarzania częściowego okazało się, że osoby
badane mają dostęp nie tylko do lokalizacji bodźców. Zapis w pamięci
ikonicznej pozwalał na odtworzenie materiału ze względu na wielkość liter
(wielkich lub małych), a nawet ich kolor. Wydaje się zatem, że pamięć
ikoniczna wiernie koduje wszelkie właściwości fizyczne stymulacji, dzięki
czemu dalsza obróbka danych może odbywać się ze względu na dowolne
kryteria.

Procedura odtwarzania częściowego doczekała się wielu modyfikacji.


Jedną z nich poświęcono oszacowaniu pojemności pamięci ikonicznej.
Emanuel Averbach i Abner Coriell (1961) eksponowali osobom badanym
losowy ciąg 16 liter umieszczonych w dwóch rzędach. Przed ekspozycją
albo po ekspozycji liter prezentowano planszę ze znakiem wskazującym
osobie badanej literę, którą powinna była odtworzyć. Zatem z jednej strony
zwiększono liczbę prezentowanych liter, z drugiej zaś zmniejszono do
jednej liczbę liter wymagających odtworzenia. Okazało się, że badani byli
w stanie poprawnie odtworzyć około 75% bodźców, czyli średnio 12 z 16
liter.
Maskowanie wsteczne (backward masking) – zjawisko obserwowane w badaniach nad pamięcią
ikoniczną; gdy po prezentacji bodźca po upływie około 100 ms pojawia się kolejny bodziec, ten
pierwszy ulega całkowitemu zatarciu; gdy odstęp między bodźcami jest krótszy niż 100 msm
dochodzi do nakładania się ich na siebie.

W innym eksperymencie Averbach i Coriell (tamże) odkryli dużą


podatność pamięci ikonicznej na interferencję wywołaną nowo
napływającą informacją. Kiedy w miejscu prezentacji bodźca w odstępie
minimum 100 ms pojawia się kolejny bodziec, ten pierwszy ulega
całkowitemu zatarciu. Zjawisko to nosi nazwę maskowania wstecznego
(backward masking). Jeśli jednak odstęp między bodźcami jest krótszy niż
100 ms, dochodzi do nakładania się ich na siebie. Charles Eriksen i James
Collins (1967) badali to zjawisko, prezentując osobom badanym w krótkich
odstępach czasu dwa układy kropek, które po nałożeniu na siebie tworzyły
litery V, C albo H. Jeżeli dwa układy kropek pokazywano w odstępie
mniejszym niż 100 ms, osoby badane rozpoznawały litery, nie zdając sobie
sprawy z tego, że zostały one utworzone z dwóch odrębnych obrazów. Jeśli
jednak odstęp ten był dłuższy niż 100 ms, następowało zjawisko
maskowania wstecznego, powodujące niemożność rozpoznania liter.

Badania nad pamięcią echoiczną prowadzono w paradygmacie słuchania


dychotycznego. Anne Treisman (1964a) prezentowała osobom badanym
w różnych kanałach dwie informacje, które mogły być identyczne albo
różne. Jak zwykle jeden z kanałów zdefiniowany był jako ważny, a drugi –
jako ignorowany. Jeśli odstęp czasowy między informacją w kanale
ignorowanym i ważnym był nie dłuższy niż 2 s, osoby badane były
w stanie ocenić podobieństwo obu przekazów. Oznacza to, że informacja,
którą należało ignorować, pozostawała dostępna przetwarzaniu jeszcze
przez 2 s, co można uznać za wskaźnik czasu utrzymywania informacji
w pamięci echoicznej. Z kolei Christopher Darwin, Michael Turvey
i Robert Crowder (1972) zastosowali procedurę będącą połączeniem
zmodyfikowanych paradygmatów Sperlinga i Treisman. Osobom badanym
w słuchawkach stereofonicznych prezentowano po trzy bodźce akustyczne
w trzech różnych lokalizacjach przestrzennych: z lewej strony (kanał lewy),
z prawej strony (kanał prawy) i z góry (stereofonicznie). Natomiast
wizualnie pojawiała się wskazówka określająca lokalizację, z której
należało odtworzyć zaprezentowany materiał. Okazało się, że czas
przechowywania informacji sensorycznej w pamięci echoicznej wynosił do
4 s. W innych badaniach wykazano, że czas przechowywania informacji
w rejestrach sensorycznych można w sprzyjających warunkach znacznie
przedłużyć. Jeśli zminimalizuje się poziom dystrakcji, to informacja
w pamięci ikonicznej utrzymuje się do 2 s, a w pamięci echoicznej – nawet
do 10 s (Cowan, 1984).

Ultrakrótkiemu przechowaniu informacji w rejestrach sensorycznych


podlegają, jak się wydaje, fizyczne właściwości stymulacji. Dzięki nim
możliwa jest poznawcza obróbka bodźca, nawet jeśli nie jest on już
dostępny percepcyjnie. W przypadku pamięci ikonicznej ten krótki czas
umożliwia przeprowadzenie analizy cech stymulacji, ich późniejszą
integrację i w końcu rozpoznanie bodźca. Pamięć echoiczna wydaje się
mieć kluczowe znaczenie dla rozpoznawania mowy, przechowane w niej
fonemy mogą się bowiem ze sobą łączyć, dając możliwość analizy
znaczenia, jeśli utworzą znane nam słowo.

8.2.2. Pamięć krótkotrwała


W ujęciu magazynowym podstawowe właściwości charakteryzujące
odrębne systemy pamięciowe to pojemność i czas przechowywania
kodowanych w nich informacji. Jedne z pierwszych badań, kluczowych dla
precyzyjnego oszacowania tych właściwości, wykonano w latach 50. XX
w. Pierwsze dane wskazywały, że czas przechowywania nawet niewielkich
porcji informacji w STM wynosi od kilku do kilkunastu sekund,
w zależności od przyjętego kryterium poziomu odpamiętania (zob.
paradygmat 8.3). Badania Lloyda i Margaret Petersonów (Peterson,
Peterson, 1959) wykazały, że poprawne odtwarzanie materiału z pamięci
krótkotrwałej spada poniżej 50% po około 7 s. O tak słabych rezultatach
decydują szczególny rodzaj materiału i procedury tych badań. Możliwość
zastosowania różnych mnemotechnik, a przede wszystkim swobodnego
wykorzystania mechanizmu bezgłośnego powtarzania, pozwala na
znaczące przedłużenie czasu przechowywania informacji w STM.

Podobne rezultaty uzyskał Bennet Murdock (1961), stosując procedurę


Petersonów, ale po zastąpieniu zestawów spółgłosek słowami. Okazało się,
że poziom odtworzenia zestawu trzech słów obniżał się równie szybko jak
w przypadku bezsensownych sylab. Przy okazji jest to wynik wskazujący,
że jednostki pamięciowe magazynu STM (w których wyraża się „magiczna
liczba” Millera, czyli 7+/– 2) mogą mieć różną „pojemność” wyrażoną
w bitach informacji. To kolejny dowód na to, że przedstawione analizy
Lehrla i Fischera traktować należy z dużą ostrożnością. W innym warunku
eksperymentu Murdocka, kiedy to badani mieli w każdej próbie do
zapamiętania tylko jedno słowo, poziom odtworzenia był wysoki (nie
spadał poniżej 80%), nawet w przypadku najdłuższego interwału 18 s.

Procedura Petersonów, w założeniu mająca na celu eliminację


mechanizmów decydujących o różnicach indywidualnych
w funkcjonowaniu pamięci, wprowadza jednak innego typu zakłócenie.
Oba zadania wykonywane przez osobę badaną – przechowywanie
spółgłosek i odliczanie trójkami wstecz – angażują ten sam rodzaj
reprezentacji werbalnych. Baddeley (1986) wykazał, że w takim przypadku
dochodzi do interferencji, która byłaby znacznie słabsza, gdyby jedno
z zadań angażowało inny typ reprezentacji.

Zapominanie w pamięci krótkotrwałej może więc mieć różnorodne


podłoże. Po pierwsze, informacja zanika z upływem czasu. Zanik ten
następuje samoistnie i wydaje się funkcją spadku aktywacji krótkotrwale
wzbudzonej informacji. Po drugie, w STM dość łatwo dochodzi do
interferencji między zawartymi w niej informacjami, tym silniejszej, im
bardziej są one do siebie podobne. I po trzecie, ponieważ funkcje kontrolne
pamięci krótkotrwałej wiązane są z uwagą, następować może tzw.
przekierowanie uwagi (diversion of attention), tj. zaniechanie powtarzania
materiału na rzecz jakiegoś innego zadania angażującego STM (Reitman,
1974).

Paradygmat 8.3

Procedura badania pamięci krótkotrwałej Browna–Petersonów

W procedurze eksperymentalnej Johna Browna (1958) i Petersonów


(Peterson, Peterson, 1959) eksponowano zestawy trzech bezsensownych
spółgłosek, np. XLR, oraz trzycyfrową liczbę, np. 123. Zadanie osoby
badanej polegało na zapamiętaniu zestawu liter, a następnie głośnym
odliczaniu trójkami wstecz, poczynając od zaprezentowanej liczby (120,
117, 114 itd.). Po upływie pewnego czasu należało przerwać odliczanie
i odpamiętać zestaw spółgłosek. Manipulacji eksperymentalnej podlegał
interwał czasu między ekspozycją zestawu spółgłosek (i liczby)
a poleceniem jego odtworzenia. Wynosił on 3, 6, 9, 12, 15 albo 18 s.
Celowo zastosowano bezsensowne zestawy spółgłosek, niemające
odpowiednika w języku, aby wyłączyć tzw. strategię grupowania
(chunking strategy), polegającą na łączeniu materiału w większe całości
(zob. opis w tekście). Dlatego wyeliminowano zestawienia w rodzaju
MSW albo CCC, które łatwo poddają się grupowaniu. Z kolei odliczanie
trójkami wstecz miało na celu zminimalizowanie udziału mechanizmu
bezgłośnego powtarzania.

Uzyskane rezultaty dotyczące poprawności odtworzenia zestawów


spółgłosek zilustrowano na rycinie 8.5. Okazało się, że poziom
odpamiętania sylab bardzo szybko się obniża w funkcji czasu i nawet
w wypadku najkrótszego interwału nie osiągnął 100%.

RYCINA 8.5. Wyniki uzyskane w eksperymencie Petersonów (1959)


Źródło: opracowanie własne.

Grupowanie (chunking) – łączenie elementów prezentowanego materiału w większe całości, np.


cyfr w liczby lub liter w słowa, w celu zapamiętania większej liczby elementów.

Sposobem na „powiększenie” pojemności pamięci jest grupowanie


(chunking). Oczywiście nie chodzi o powiększenie wielkości magazynu
STM (jeśli w ogóle mamy do czynienia z magazynem), lecz o zmianę
organizacji zapamiętywanego materiału w taki sposób, aby lepiej
„upakować” go w pamięci. Polega to na próbie połączenia materiału,
którego każda część stanowi pojedynczą „bryłę” (chunk). Przykładowo:
ciąg cyfr 123987 łatwo pogrupować, łącząc razem 123 i 987. Jeszcze
łatwiej pogrupować nawet dłuższe ciągi, np. 123456789 albo
101010101010101010. Strategia grupowania polega niekiedy na nadaniu
„bryłom” odrębnego znaczenia. Wówczas jednostką pamięci jest „idea”
odnosząca się do zgrupowanego materiału. Jak jednak zauważyli Gordon
Bower i Fred Springston (1970), tego rodzaju grupowanie jest ściśle
związane z posiadaną wiedzą. Przykładowo sekwencja liter U JU WU
GSW PS zapewne byłaby trudna nawet do chwilowego przechowania, ale
jeśli pogrupujemy litery inaczej: UJ UW UG SWPS, utworzą one znane
wielu osobom skróty.

Dzięki strategii grupowania nie można jednak w nieskończoność zwiększać


pojemności pamięci krótkotrwałej. Herbert Simon (1974) wykazał, że
w STM można zapamiętać mniej dużych „brył” (np. fraz złożonych
z ośmiu słów), a więcej małych (np. jednosylabowych słów). Wynika to
z akustycznego mechanizmu bezgłośnej artykulacji jako sposobu
podtrzymania zawartości STM. Jeśli jednostka pamięci składa się
z większej liczby sylab, to jej powtarzanie zajmować będzie więcej czasu,
co decyduje o zmniejszonej efektywności tego mechanizmu. Podobne
rezultaty uzyskali Nick Ellis i R.A. Hennelly (1980), stosując zadanie
wymagające dokonywania obliczeń w pamięci przez dzieci posługujące się
językiem angielskim albo walijskim. Podstawową różnicą dotyczącą
liczebników w tych dwóch językach jest ich długość: liczebniki angielskie
są krótsze niż walijskie. Okazało się, że dzieci z pierwszej grupy
wykonywały zadania arytmetyczne istotnie lepiej niż dzieci z grupy drugiej
i nie wynikało to z niższego poziomu ich zdolności intelektualnych.
Przyjmuje się, że obliczenia w pamięci nie sprowadzają się wyłącznie do
przetwarzania informacji, lecz wymagają również przechowywania liczb,
na których dokonuje się obliczeń, a także wyników cząstkowych (zob.
Hitch, 1978). Jeśli mechanizm tego przechowywania polega na bezgłośnej
artykulacji, to w ograniczonej pojemnością pamięci krótkotrwałej
„zmieści” się ich tym mniej, im więcej sylab mają powtarzane słowa.
Dzieci walijskie potrafią zmieścić w pamięci mniej liczebników, dlatego
efektywność obliczeń dokonywanych w pamięci okazała się w ich grupie
niższa niż w grupie dzieci angielskich.
Efekt podobieństwa fonologicznego (phonological similarity effect) – słowa o podobnym
brzmieniu są trudniejsze do wydobycia z pamięci niż słowa o różnym brzmieniu.

Przytoczone wyniki można interpretować również w odniesieniu do


specyfiki kodowania informacji w STM. Nie wydaje się, aby był to
abstrakcyjny kod semantyczny, gdyż znaczenie liczebników jest identyczne
w języku angielskim i walijskim. Informacja w pamięci krótkotrwałej
kodowana jest fonologicznie (albo akustycznie, np. w przypadku melodii),
a w każdym razie na tym kodzie pracuje mechanizm wewnętrznych
powtórek. Dowodów na fonologiczny charakter wewnętrznych powtórek
dostarczył również Ralf Conrad (1963, 1971; Conrad, Hull, 1964). Badacz
ten stwierdził większą liczbę pomyłek w odpamiętywaniu liter będących
zapisem głosek o podobnym brzmieniu, np. „B” i „P”, niż głosek, których
brzmienie znacząco się różni, np. „B” i „Z”. Efekt ten wystąpił
w warunkach zarówno słuchowej, jak i wzrokowej prezentacji bodźców.
Baddeley (1966) potwierdził go również w odniesieniu do słów. Słowa
o podobnym brzmieniu (np. man, mad, map) okazały się trudniejsze do
wydobycia – szczególnie jeśli wymagano odpowiedniej kolejności
przywołania – niż słowa o wyraźnie różnym brzmieniu (np. pen, few, cow).
Baddeley nazwał go efektem podobieństwa fonologicznego (phonological
similarity effect).
Osobnym problemem w badaniach nad pamięcią krótkotrwałą jest
mechanizm przeszukiwania jej zawartości. Problem ten może wydawać się
ważniejszy w odniesieniu do bardzo obszernej LTM niż bardzo
ograniczonej pojemnością STM, jednak analizy te okazały się istotne dla
głębszego zrozumienia właściwości pamięci krótkotrwałej. Podstawowy
paradygmat badawczy stosowany w analizie mechanizmu przeszukiwania
STM jest bardzo podobny do wykorzystywanego w badaniach nad uwagą
(zob. paradygmat 8.4). Rezultaty badań w obu obszarach, częściowo
zbieżne, interpretowane były przez niektórych badaczy na korzyść tezy
o wspólnej lokalizacji procesów uwagowych i pamięciowych (np. Guilford,
Juola, 1976). Współczesne koncepcje pamięci roboczej, będące
procesualnym ujęciem tradycyjnie rozumianej pamięci krótkotrwałej,
akcentują związek pamięci i uwagi, lecz te ostatnie uważają za odrębne od
procesów uwagi percepcyjnej.

Paradygmat 8.4

Przeszukiwanie pamięci krótkotrwałej

Zadanie wymagające przeszukiwania (search task) stosowane jest zarówno


w badaniach nad uwagą, jak i nad pamięcią. Polega ono na prezentacji
zbioru bodźców (search set), w którym poszukiwany jest bodziec docelowy
(target, probe). Materiałem bodźcowym najczęściej używanym w tego typu
zadaniach są litery i cyfry, ale również obrazy, słowa czy dźwięki.
Zadaniem osoby badanej jest udzielenie odpowiedzi twierdzącej, jeśli
sygnał (zgodny z bodźcem docelowym) był obecny w zaprezentowanym
zestawie (próby pozytywne), albo przeczącej, jeśli był w nim nieobecny
(próby negatywne). Podstawową zmienną podlegającą manipulacji w tego
rodzaju zadaniach jest rozmiar przeszukiwanego zbioru (set size).
W zadaniach polegających na przeszukiwaniu pamięci (memory search
task) zadaniem osób badanych jest zapamiętanie prezentowanego zestawu
bodźców. Prezentacja najczęściej odbywa się sekwencyjne, ale niekiedy
również symultanicznie. W warunku prezentacji sekwencyjnej zestaw
bodźców ukazywany jest element po elemencie. Prezentacja symultaniczna
polega na jednoczesnym ukazaniu całego zestawu, np. w postaci matrycy.
Bodziec docelowy eksponowany jest po zaprezentowaniu całego zbioru
elementów. Manipulacji eksperymentalnej podlega w tym przypadku –
poza rozmiarem zbioru elementów – również wiele innych czynników.
Najważniejsze z nich to: czas ekspozycji przypadający na pojedynczy
element, proporcja reakcji pozytywnych do negatywnych oraz rodzaj
prezentowanego materiału. Przykładowo manipulacja czasem ekspozycji
wpływa na sposób kodowania bodźców: im jest on dłuższy, tym więcej
właściwości można zakodować. Jeśli czas jest zbyt krótki, kodowanie
materiału będzie nieefektywne, podobnie jak późniejsze rozpoznanie, czy
bodziec docelowy jest zgodny z którymś z elementów zapamiętanego
zestawu. Natomiast jeśli czas ten jest zbyt długi, możliwe staje się
zastosowanie mnemotechnik, np. grupowania. W obu przypadkach na
poziom wykonania zadania wpływać będą niekontrolowane czynniki
uboczne.

W zadaniu polegającym na przeszukiwaniu analizie podlegają głównie


wskaźniki związane z czasem reakcji, tj. miary tendencji centralnej, czyli
średnia i mediana RT (Van Zandt, Townsend, 1993), a także miary rozrzutu
– odchylenie standardowe RT (Townsend, 2001). Zdecydowanie rzadziej
analizuje się poprawność reakcji, gdyż w klasycznych badaniach liczba
błędów była niska, a ich rozkład – wyraźnie skośny.
Badania nad mechanizmami przeszukiwania pamięci krótkotrwałej
zapoczątkował Saul Sternberg (1966, 1969a). W użytej przez niego wersji
zadania polegającego na przeszukiwaniu STM, sekwencyjnie
prezentowano losowo dobrane cyfry, zgrupowane w zestawy obejmujące
od 1 do 6 elementów. Czas prezentacji przypadający na każdy element
wynosił 1,2 s. Po przedstawieniu całego zestawu pokazywano bodziec
docelowy. Zadaniem osoby badanej było stwierdzenie, czy bodziec ten
znajdował się w prezentowanym wcześniej zbiorze. Badacza interesowała
odpowiedź na dwa pytania: „Czy przeszukiwanie pamięci jest procesem
sekwencyjnym, przebiegającym element po elemencie, czy też
równoległym, obejmującym jednocześnie wszystkie elementy?” i „Czy
przeszukiwanie w próbach pozytywnych jest kompletne (zawsze dotyczy
całego zbioru), czy też jest wygaszane w momencie odnalezienia bodźca
docelowego w STM?”. Konkluzje z pierwszych badań Sternberga (1966,
1969a) były takie, że przeszukiwanie pamięci krótkotrwałej jest procesem
sekwencyjnym i wyczerpującym. Przeszukiwanie sekwencyjne (serial
search) oznacza, że w danym momencie przetwarzany może być jeden
i tylko jeden bodziec, wobec czego przeszukanie całego zbioru wymaga
porównania po kolei każdego elementu zawartego w STM z bodźcem
docelowym. O sekwencyjności przeszukiwania Sternberg wnioskował na
podstawie liniowego przyrostu czasu reakcji w zależności od wielkości
zbioru elementów (ryc. 8.6). Okazało się, że czas reakcji rośnie liniowo
wraz ze zwiększaniem się rozmiaru przeszukiwanego zbioru elementów,
przeciętnie o 37,9 ± 3,8 ms na każdy symbol. Jeśli przeszukiwanie byłoby
równoległe (parallel search), to zdaniem badacza nie powinien ujawnić się
taki wzorzec zależności. Funkcja czasu reakcji (reaction time, RT) od
wielkości zbioru elementów powinna być płaska, ponieważ równoległy
dostęp do 2, 4 czy 6 elementów byłby zawsze tak samo szybki.
RYCINA 8.6. Czas reakcji (T) a liczba symboli przechowywanych w pamięci (s) w pierwszym
eksperymencie
Średni czas reakcji w warunku pozytywnym (czarne punkty) i negatywnym (białe punkty).
Predykcje modelu przeszukiwania sekwencyjnego (linia ciągła) wykazują lepsze dopasowanie do
danych niż predykcje modelu przeszukiwania równoległego (linia przerywana).
Źródło: opracowanie własne na podstawie Sternberg, 1966, s. 653.
Z kolei przeszukiwanie wyczerpujące (exhaustive search) oznacza, że
dotyczy ono wszystkich zapamiętanych elementów, zarówno w próbach
negatywnych, jak i pozytywnych. O ile w przypadku prób negatywnych
jest to teoretycznie uzasadnione (żeby „wiedzieć”, iż w zestawie nie było
bodźca docelowego, trzeba porównać go z całą jego zawartością), o tyle
byłoby to zaskakujące w próbach pozytywnych. W tym przypadku
przeszukiwanie może zostać wygaszone (self-terminated search) po
stwierdzeniu zgodności bodźca docelowego z którymś z elementów
zestawu, czyli powinno – średnio w dużej liczbie prób – odpowiadać
przeszukaniu połowy zestawu. Czas reakcji w próbach pozytywnych
powinien być zatem znacząco krótszy niż w negatywnych. Sternberg nie
uzyskał istotnej różnicy w RT między reakcjami pozytywnymi
a negatywnymi, co uznał za dowód na wyczerpujący i automatyczny
charakter przeszukiwania w obu warunkach (ryc. 8.7). Jedną z cech
procesów automatycznych jest to, że po ich zainicjowaniu nie można ich
modyfikować ani przerwać. Ponieważ przeszukiwanie w próbach
pozytywnych teoretycznie powinno zostać wygaszone po stwierdzeniu
zgodności jednego z elementów przechowywanych w STM z bodźcem
docelowym, a jednak było kontynuowane do momentu sprawdzenia całego
zbioru, Sternberg uznał, że przebiega ono automatycznie.
RYCINA 8.7. Czas reakcji (T) a wielkość zestawu pozytywnego (s) w drugim eksperymencie
Średni czas reakcji w warunku pozytywnym (czarne punkty) i negatywnym (białe punkty).
Predykcje modelu przeszukiwania sekwencyjnego (linia ciągła) wykazują lepsze dopasowanie do
danych niż predykcje modelu przeszukiwania równoległego (linia przerywana).
Źródło: opracowanie własne na podstawie Sternberg, 1966, s. 653.

W późniejszych badaniach wykazano istotność różnicy w czasie reakcji


między próbami negatywnymi a pozytywnymi, zgodną z modelem
wyczerpującego przeszukiwania w pierwszym przypadku
i samowygaszającego się w drugim (np. Egeth, Jonides, Wall, 1972;
przegląd badań w: Van Zandt, Townsend, 1993). Podważono również
założenie, że przetwarzanie równoległe zawsze generuje płaską funkcję
czasu reakcji w zależności od wielkości zbioru elementów. Jeśli założyć, że
proces przetwarzania informacji jest limitowany pojemnością systemu
(capacity limited), to wzrastające obciążenie poznawcze prowadzi do
podziału ograniczonych zasobów na coraz większą liczbę elementów.
W związku z tym większy rozmiar zbioru oznacza mniej zasobów
przypadających na pojedynczy element. W przypadku STM jest to
równoznaczne z mniejszym „doinwestowaniem” procesu przeszukiwania,
co prowadzi do wzrostu czasu reakcji, nawet gdyby było ono równoległe.

Model sekwencyjnego i wyczerpującego przeszukiwania podważono


jeszcze w inny sposób. Mianowicie nie przewiduje on tzw. efektu pozycji,
czyli związku czasu reakcji z pozycją sygnału w zestawie (por. Van Zandt,
Townsend, 1993). Okazało się, że wykryto istotny efekt skracania się czasu
reakcji na elementy znajdujące się na ostatnich pozycjach (Townsend,
1974; Townsend, Roos 1973). Jeśli przeszukiwanie byłoby wyczerpujące,
to nie miałoby znaczenia, na której pozycji jest bodziec docelowy, do
udzielenia odpowiedzi i tak bowiem trzeba przeszukać cały zbiór, więc
ogólny czas reakcji byłby sumą czasów poszczególnych porównań. Suma
ta byłaby identyczna niezależnie od tego, czy sygnał znajdowałby się na
pierwszej, ostatniej, czy którejś ze środkowych pozycji w zbiorze.

8.2.3. Pamięć robocza: wielokomponentowy model Baddeleya


Idea pamięci roboczej (working memory, WM) pochodzi od Alana
Baddeleya i Grahama Hitcha (1974). Autorzy zerwali z ujęciem pamięci
krótkotrwałej jako systemu wyspecjalizowanego wyłącznie
w przechowywaniu informacji. Według nich pamięć robocza jest systemem
odpowiedzialnym zarówno za przechowywanie, jak i przetwarzanie
informacji. Odgrywa ona zasadniczą rolę w złożonej aktywności
poznawczej człowieka, z jej udziałem bowiem miałoby się odbywać
wszelkie kontrolowane przetwarzanie informacji. Mimo znacznej
różnorodności modeli pamięci roboczej większość z nich akcentuje funkcję
kontrolną sprawowaną przez uwagowy mechanizm planowania i nadzoru.
Klaus Oberauer i współautorzy (Oberauer Süß, Wilhelm, Wittmann, 2003),
dokonując przeglądu różnych teorii pamięci roboczej, wyróżnili cztery
podstawowe funkcje tego systemu. Są to: przechowywanie (storage),
przetwarzanie (processing), nadzorowanie (supervision) oraz koordynacja
(coordination). Pierwsza z nich związana jest z klasycznie ujmowaną
funkcją pamięci krótkotrwałej, chociaż modele pamięci roboczej odchodzą
od czysto magazynowego rozumienia jej realizacji. Pozostałe trzy funkcje
WM przypisywane są uwagowemu mechanizmowi kontrolnemu.
W niniejszym rozdziale opisano najważniejsze koncepcje pamięci roboczej,
począwszy od przełomowej teorii Baddeleya i Hitcha.

Pamięć robocza w ujęciu Baddeleya i Hitcha (1974; zob. też Baddeley,


1986) jest wielokomponentowym systemem odpowiedzialnym za
przechowywanie informacji i kontrolę jej przetwarzania. Ze względu na
zaakcentowanie aspektu przetworzeniowego, WM odgrywa istotną rolę
w złożonej aktywności poznawczej człowieka, np. w rozumowaniu czy
przetwarzaniu języka. Początkowo teoria Baddeleya i Hitcha obejmowała
trzy podsystemy: centralny system wykonawczy (central executive) i dwa
podlegle mu bufory pamięciowe (slave systems) – pętlę fonologiczną
(phonological loop) i szkicownik wzrokowo-przestrzenny (visuo-spatial
sketch-pad). Podstawową funkcją buforów jest krótkotrwałe
przechowywanie informacji, odpowiednio, w kodzie akustycznym (ze
szczególnym uwzględnieniem kodu werbalnego) i w kodzie wizualnym.
W kolejnej wersji teorii (Baddeley, 2000, 2001) uzupełniono ją o bufor
epizodyczny (episodic buffer), którego funkcją ma być przechowywanie
złożonej informacji, pochodzącej z kilku modalności. I właśnie tę wersję
modelu Baddeleya zilustrowano na rycinie 8.8.

RYCINA 8.8. Wielokomponentowy model pamięci roboczej według Baddeleya


Źródło: opracowanie własne na podstawie Baddeley, 2000, s. 421.

Centralny system wykonawczy ze względu na wielość przypisywanych


mu funkcji jest systemem niejednorodnym – czymś w rodzaju
poznawczego homunculusa, co przyznaje sam twórca koncepcji WM
(Baddeley, Logie, 1999). W długiej ewolucji modelu Baddeleya zmieniały
się jego poglądy w tej kwestii. Z przeglądu jego prac wynika, że można
wyróżnić trzy funkcje centralnego systemu wykonawczego.

Pierwszą funkcją jest bieżące przetwarzanie informacji. Z tego powodu


WM odgrywa istotną rolę w wykonywaniu złożonych zadań poznawczych,
np. w rozumowaniu (zob. podrozdz. 10.7.2). Funkcja ta sprowadza się do
realizacji konkretnych operacji poznawczych, wchodzących w skład
strategii wykonania określonego zadania. Operacje te są realizowane
z udziałem podsystemów pamięciowych, podlegających centralnemu
systemowi wykonawczemu. W tych podsystemach przechowywane są
kluczowe dane, niezbędne do realizacji przetwarzania, w tym wskazówki
odnośnie do strategii. Te ostatnie określają zestaw operacji przetwarzania
informacji, aplikowanych w celu wykonania konkretnego zadania
poznawczego.

Efektywne przetwarzanie informacji wymaga koordynacji buforów


pamięci roboczej, co stanowi kolejną funkcję centralnego systemu
wykonawczego. Funkcja ta ujawnia się szczególnie w czasie wykonywania
zadań jednoczesnych (zob. paradygmat 8.5), wymagających rozdzielania
zasobów centralnego systemu wykonawczego między jednocześnie
realizowane zadania poznawcze. Baddeley zakłada, że system ten cechuje
się limitowaną pojemnością, rozumianą w kategoriach ograniczonych
zasobów uwagowych (Baddeley, Della Sala, 1998; Baddeley, Logie, 1999).
Ograniczenie to przejawia się przede wszystkim w zmniejszeniu szybkości
przetwarzania informacji wraz ze wzrostem wymagań, jakie nakłada na
WM zadanie realizowane w danym momencie.

Paradygmat 8.5

Paradygmat zadań jednoczesnych w badaniach nad pamięcią roboczą

Paradygmat zadań jednoczesnych, stosowany również w badaniach nad


uwagą podzielną, wymaga kontroli dwóch zadań (A i B) wykonywanych
w tym samym czasie. W wersji zastosowanej przez Baddeleya i Hitcha
(1974) zadanie A polegało na wykonywaniu złożonego zadania
poznawczego, np. przeprowadzaniu wnioskowania logicznego, czytaniu
tekstu ze zrozumieniem albo uczeniu się. Z kolei zadanie B polegało na
zapamiętywaniu zestawu elementów (liczb) o zmiennej długości.

W analizie wyników porównuje się poziom wykonania zadania


A w warunkach, gdy towarzyszy mu zadanie B z warunkiem kontrolnym.
W najprostszej wersji paradygmatu zadań jednoczesnych warunkiem
kontrolnym jest test wykonania zadania A, kiedy nie towarzyszy mu żadne
inne zadanie. Niekiedy manipulacji eksperymentalnej podlega waga zadań
jednoczesnych. Najczęściej jedno z nich należy traktować priorytetowo,
a drugie jako dystraktor.

Baddeley i Hitch (1974) założyli, że rosnące obciążenie pamięci roboczej


przechowywaniem większych zbiorów liczb prowadzić będzie do spadku
wykonania złożonego zadania poznawczego. Badania potwierdziły te
przypuszczenia. Wyjaśniono je, podobnie jak w badaniach nad uwagą
podzielną, zmniejszeniem ilości wolnych zasobów, w tym wypadku
zasobów WM, które mogą zostać przydzielone wykonaniu zadania A.
Spadek ten jest proporcjonalny do wymagań, jakie stawia zadanie
pamięciowe B. Co ciekawe, nawet przy bardzo dużym obciążeniu pamięci
(zbliżającym się do wartości „magicznej liczby” Millera) poziom
wykonania obu zadań był wyższy od poziomu przypadku.

Zadanie pamięciowe może przyjmować różnie formy, w zależności od tego,


jaki mechanizm WM ma zostać zaangażowany (Baddeley, 1986). Zadanie
pamięciowe wykonywane na materiale werbalnym (np. odliczanie trójkami
wstecz) wiąże się z udziałem pętli fonologicznej. Zadanie niewerbalne (np.
śledzenie poruszającego się obiektu) angażować będzie raczej szkicownik
wzrokowo-przestrzenny. Specyficznym zadaniem, które powoduje
obciążenie centralnego systemu wykonawczego bez udziału podsystemów
pamięciowych, jest tzw. generowanie interwałów losowych
(Vandierendonck, De Vooght, Van der Goten, 1998). Wymaga ono od
osoby badanej nierytmicznego stukania, np. w klawisz komputera.
Trudność tego zadania polega na konieczności przełamania automatycznej
tendencji do wystukiwania regularnego rytmu. Generowanie losowości
wymaga więc stałej kontroli ze strony centralnego systemu wykonawczego.

Trzecia funkcja centralnego systemu wykonawczego to nadzór (kontrola)


nad bieżącym przetwarzaniem informacji. Analizując tę funkcję, Baddeley
(1993) nawiązał do koncepcji uwagi wykonawczej Donalda Normana
i Tima Shallice’a (1986), której składową jest tzw. nadzorczy system uwagi
(supervisory attentional system). Odgrywa on rolę kontrolną, polegającą na
planowaniu i nadzorowaniu wykonania złożonych zadań poznawczych.
Jego działanie ujawnia się przede wszystkim w sytuacjach nowych,
szczególnie wtedy, kiedy zostaną uznane za trudne lub zagrażające. Nadzór
nad bieżącym przetwarzaniem obejmuje również aktualizację zawartości
buforów pamięciowych. Polega ona na selektywnym „pozbywaniu” się
informacji, która z racji wykonywanego zadania nie jest już potrzebna. Jest
to szczególnie ważne w kontekście znacznego ograniczenia ich
pojemności.

W zasadzie można byłoby wyróżnić jeszcze jedną funkcję centralnego


systemu wykonawczego, chociaż nie jest ona nowa w koncepcji Baddeleya.
Chodzi o udział tego systemu w kodowaniu i przywoływaniu informacji
z LTM oraz – rzecz jasna – w podlegających mu podsystemach
krótkotrwałego przechowywania informacji (Baddeley, Logie, 1999).
Interesujące dowody, że korzystanie z zasobów pamięci długotrwałej
odbywa się z udziałem centralnego systemu wykonawczego, pochodzą
z badań Susan Gathercole (1999), w których okazało się, że krótkotrwałe
przechowywanie bezsensownych zlepków liter jest tym bardziej efektywne,
im bardziej są one podobne do słów języka naturalnego. Wskazuje to na
istotny udział wiedzy językowej pochodzącej z LTM w kodowaniu
informacji w pamięci roboczej.

Pętla fonologiczna jest jednym z trzech buforów pamięciowych


podlegających centralnemu systemowi wykonawczemu. Odpowiada za
krótkotrwałe przechowanie informacji fonologicznych. Baddeley (1986)
wyróżnił dwa mechanizmy przechowywania: pasywny (retention)
i aktywny (rehearsal), wyróżniając w pętli fonologicznej dwie odrębne,
odpowiadające tym mechanizmom struktury. Pasywne przechowywanie
informacji możliwe jest dzięki magazynowi fonologicznemu. Jeśli
przechowywana w nim informacja nie byłaby aktywnie odświeżana,
zanikłaby w ciągu kilku sekund (średnio po upływie 2 s; Cohen, Kiss,
LeVoi, 1993). Zanik śladu pamięciowego jest podstawowym, ale nie
jedynym mechanizmem zapominania informacji zawartej w magazynie
fonologicznym. Również interferencja, wynikająca z podobieństwa do
innej informacji, utrudnia jej efektywne wydobycie.

Od pierwszego sformułowania teorii pamięci roboczej Baddeley utrzymuje,


że magazyn fonologiczny przechowuje informacje w kodzie
fonologicznym, a nie semantycznym, nawet jeśli są to słowa obdarzone
pewnym znaczeniem (Baddeley, Logie, 1999). Badania Conrada (1963,
1971; Conrad, Hull, 1964) i Baddeleya (1966) nad efektem podobieństwa
fonologicznego stanowią empiryczny dowód dominacji kodu
fonologicznego w przechowaniu materiału werbalnego (zob. podrozdz.
8.2.2). Baddeley (tamże) stwierdził istotnie większy wpływ podobieństwa
brzmienia słów na liczbę błędów w zadaniu pamięciowym niż ich
podobieństwa semantycznego. Nie oznacza to, że materiał werbalny
przechowywany w pamięci roboczej nie ma charakteru semantycznego, ale
że mechanizm jego odświeżania odwołuje się do bezgłośnych powtórek
wykorzystujących brzmienie słowa, a nie jego znaczenie. Wskazują na to
np. badania Briana McElree (1996), który zastosował zadanie polegające
na przeszukiwaniu pamięci (zob. paradygmat 8.4). W jego eksperymentach
uczestnicy mieli za zadanie – oprócz tradycyjnego sprawdzania zgodności
bodźca docelowego z zapamiętanym zestawem elementów – udzielić
odpowiedzi na pytanie, czy bodziec docelowy rymuje się z którymś
z elementów zestawu albo czy jest synonimem któregoś z nich. Okazało
się, że informacja ta była dostępna zarówno z klucza fonologicznego, jak
i semantycznego.
Tłumienie artykulacyjne (articulatory suppresion) – procedura obciążenia pętli fonologicznej
powtarzaniem zadanego słowa; blokuje mechanizm bezgłośnych powtórek.

Aktywnym odświeżaniem zawartości magazynu fonologicznego zajmuje


się mechanizm pętli artykulacyjnej. Baddeley (1998) podtrzymuje, że
podstawą jej funkcjonowania jest bezgłośne powtarzanie, podobne do
artykulacji mowy. Ellis i Hennelly (1980) uzyskali dane będące
spektakularnym dowodem trafności tego mechanizmu (zob. podrozdz.
8.2.2). Przypomnijmy, że słowa o dokładnie tym samym znaczeniu
w różnych językach (liczebniki) wykorzystywane były przez pamięć
roboczą tym gorzej, im były dłuższe. Również Alan Baddeley, Neil
Thomson i Mary Buchanan (1975) uzyskali podobne rezultaty, wyjaśniając
większą trudność odtwarzania dłuższych wyrazów wzrostem czasu ich
powtarzania w pętli artykulacyjnej. Inne dowody fonologicznego
charakteru działania tej pętli pochodzą z badań, w których wykorzystuje się
procedurę tłumienia artykulacyjnego (articulatory suppresion). Polega
ona na powtarzaniu narzuconego słowa w trakcie wykonywania zadania
pamięciowego. W badaniach Baddeleya, Thomsona i Buchanan (tamże)
tłumienie artykulacyjne, polegające na powtarzaniu rodzajnika the
powodowało zmniejszenie liczby zapamiętanych słów. Podobne rezultaty
uzyskano w przypadku wizualnej prezentacji słów, co wskazuje na istotną
rolę pętli fonologicznej w rekodowaniu materiału wizualnego na kod
werbalny.

Szkicownik wzrokowo-przestrzenny jest swego rodzaju analogiem pętli


fonologicznej, z tym że jego podstawowa funkcja polega na
przechowywaniu materiału wzrokowego i przestrzennego. Baddeley długo
nie zajmował się detalicznie strukturą tego podsystemu. Dopiero Robert
Logie (1995), eksploatując analogię między podsystemem fonologicznym
i wzrokowo-przestrzennym, zaproponował rozróżnienie dwóch
mechanizmów funkcjonowania szkicownika. Mechanizm pasywnego
przechowywania informacji wzrokowej i przestrzennej realizowany byłby
w strukturze podręcznego magazynu wzrokowego (visual cache).
Wewnętrzny„skryba” (inner scribe) odgrywałby rolę aktywną,
korzystając z procesów modelowania przedruchowego (planowanie
sekwencji ruchów) i tworzenia wyobrażeń. W wykonaniu tych procesów
wewnętrzny system piszący korzysta z magazynu wzrokowego, czyli ich
wzajemne związki są podobne do składowych pętli fonologicznej.
W badaniach empirycznych uzyskano interesujące wyniki, podobne do
efektu tłumienia artykulacyjnego w pętli fonologicznej. Mianowicie Logie
(1986) wykazał, że wykonywanie zadania wzrokowego, przy jednoczesnej
prezentacji sekwencji obrazów z nim niezwiązanych, wpływa negatywnie
na przechowywanie informacji wizualnej. W późniejszych eksperymentach
przeprowadzonych ze współpracownikami (Logie, Marchetti, 1991; Logie,
Zucco, Baddeley, 1990) dowiódł, że wykonywanie czynności ruchowych
jednocześnie z zadaniem wzrokowo-przestrzennym upośledza
przechowywanie informacji o relacjach przestrzennych.
Nelson Cowan (1999) twierdzi, że kodowanie werbalne może być
z powodzeniem zastosowane do materiału niewerbalnego. Jest to
oczywiste, kiedy zapamiętujemy dobrze znane obrazki, przedstawiające np.
dom, drzewo. Co więcej, każdy materiał niewerbalny możemy w pewien
sposób nazwać. Znacznie trudniejsza do werbalizacji jest lokalizacja
przestrzenna bodźców, jeśli nie jest trywialna (np. prawo, lewo, góra, dół).
Ideę badania pamięci przestrzennej wykorzystano w klasycznym zadaniu
„klocki Corsiego” (Corsi blocks; Milner, 1971). W jego pierwotnej wersji
osoba badana ma przed sobą specjalną planszę z dziewięcioma
rozlokowanymi na niej otworami. W tych otworach sekwencyjnie (w
tempie co 1 s) pojawiają się sześcienne klocki. Zadanie polega na
zapamiętaniu pozycji prezentowanych klocków i sekwencji ich
wyświetlania. Liczba klocków jest zwiększana do momentu, w którym
osoba badana zaczyna popełniać błędy. André Vandierendonck
i współpracownicy (Vandierendonck, Kemps, Fastame, Szmalec, 2004)
zastosowali zadanie Corsiego jednocześnie z innym zadaniem angażującym
jeden z podsystemów WM: pętlę fonologiczną, szkicownik wzrokowo-
przestrzenny albo centralny system wykonawczy. Badacze założyli, że
pogorszenie poziomu wykonania zadania Corsiego w warunku zadań
jednoczesnych będzie świadczyć o zaangażowaniu określonego systemu
WM w jego realizację. Okazało się, że klasyczna wersja zadania Corsiego
wiąże się z obciążeniem szkicownika wzrokowo-przestrzennego
i centralnego systemu wykonawczego. Nie jest natomiast związana
z obciążeniem pętli fonologicznej.

W opisywanej już wersji modelu Baddeleya (2000, 2001) sugeruje się


istnienie bufora epizodycznego. Główną jego funkcją byłoby czasowe
przechowywanie zintegrowanych epizodów (integrated episodes), tj.
informacji reprezentowanej jednocześnie za pomocą różnych kodów, np.
werbalnego i wizualnego. Podobnie jak inne podsystemy magazynowe,
bufor epizodyczny jest ograniczony pojemnościowo i podlega kontroli ze
strony centralnego systemu wykonawczego, który odpowiada również za
integrowanie informacji z różnych źródeł w spójne epizody (Baddeley,
2000). Za istnieniem bufora epizodycznego zdaniem autora przemawia
szereg badań eksperymentalnych dotyczących kodowania
i przechowywania złożonej informacji (np. Luck, Vogel, 1997) oraz
badania neurobiologiczne (Prabhakaran, Narayanan, Zhao, Gabrielli,
2000). Podobnie jak pozostałe podsystemy, bufor epizodyczny uczestniczy
w nabywaniu i wydobywaniu informacji z pamięci długotrwałej. W tym
przypadku jest to pamięć epizodyczna (zob. podrozdz. 8.3.3). Skądinąd
wiadomo, że wiedza epizodyczna kodowana jest w sposób kompleksowy.
Epizody kodowane są wraz z ich możliwie najpełniejszym kontekstem, nie
da się więc tego procesu sprowadzić do pojedynczego kodu. Kolacja przy
świecach jest złożonym epizodem, w którym istotną rolę odgrywają
składające się nań zdarzenia, np. elementy rozmowy, zapachy, smaki,
emocje. Wszystko ma swoją wewnętrzną logikę następstw czasowych
i związków przyczynowo-skutkowych. Wprowadzenie bufora
epizodycznego do modelu pamięci roboczej nie stanowi może wyjaśnienia
eleganckiego, ale jest interesującą propozycją połączenia funkcji pamięci
roboczej z wiedzą epizodyczną.

8.2.4. Pamięć robocza: modele aktywacyjne Cowana


i Oberauera
Alternatywą dla wielomodalnościowego modelu Baddeleya są koncepcje
jednorodne, które wyjaśniają funkcjonowanie pamięci roboczej bez
odwoływania się do odrębnych podsystemów krótkotrwałego
przechowywania informacji. W ich ramach sugeruje się również brak
ostrego rozgraniczenia między pamięcią trwałą a roboczą. Oba założenia
opierają się na próbach alternatywnego wyjaśnienia danych
eksperymentalnych, na których bazuje model pamięci roboczej Baddeleya.
Twierdzi się mianowicie, że pamięć robocza to uaktywniona, dzięki
mechanizmom uwagi, część pamięci długotrwałej. Tym, co stanowi
ograniczenie pamięci roboczej ujmowane tradycyjnie w kategoriach jej
pojemności, jest nie tyle statyczna właściwość magazynu (bufora), ile
dynamika procesu aktywacji informacji. Mechanizm uwagowy
odpowiedzialny za ten proces pozwala na jednoczesną aktywację
niewielkiej liczby elementów. Dzięki aktywacji stają się one dostępne
świadomemu przetwarzaniu. Kiedy uwaga jest przenoszona na nowe
obiekty, powoduje ich pobudzenie, co jednak wiąże się ze zmniejszeniem
albo utratą dostępu do informacji, które były aktywne jeszcze przed chwilą.
Uważa się też, że dane eksperymentalne wskazujące na odrębność
podsystemów można wyjaśnić, odwołując się do zjawiska interferencji,
występującego w obrębie uaktywnionej informacji. Jeżeli dwa zadania
angażują podobne kody reprezentacji (np. tylko fonologiczne albo tylko
wzrokowe) interferencja jest silniejsza niż wówczas, kiedy angażowane są
różne kody. Dane te nie stanowią zatem dowodów na odrębność buforów
pamięciowych, a jedynie sugerują, że zanik informacji w WM jest
skutkiem interferencji (Glass, Millen, Beck, Eddy, 1985).

Jednym z pierwszych autorów ujmujących pamięć roboczą w kategoriach


uaktywnionej części pamięci trwałej był Nelson Cowan (1993, 1995).
Pamięć robocza jest rozumiana przezeń procesualnie, a więc jako proces
poznawczy, który odpowiada za utrzymywanie dostępności informacji
w celu realizacji bieżących zadań poznawczych. Z punktu widzenia
zawartości informacyjnej WM jest aktywną w danym momencie częścią
informacji przechowywanej w LTM. Teorie aktywacyjne nie wymagają
przyjmowania założeń dotyczących liczby podsystemów pamięciowych
WM. Cowan twierdzi, że nie jest wykluczone istnienie większej ich liczby,
konkretny bodziec bowiem – szczególnie jeśli jest złożony – może
aktywować różne rodzaje pamięci i być kodowany na wiele sposobów
(Cowan, 2001). Oznacza to aktywację różnych systemów pamięci trwałej,
ale niekoniecznie każdemu z nich musi odpowiadać odrębny podsystem
WM, przeznaczony dla specyficznych rodzajów kodów przetwarzania.
W tym sensie Cowan (1999) rozumie pamięć roboczą jako system
jednorodny.

Aktywacja śladu pamięciowego może przyjąć jeden z trzech poziomów


(ryc. 8.9). Najbardziej aktywna informacja znajduje się w ognisku uwagi
(focus of attention). Jego pojemność jest niewielka: Cowan szacuje ją na
mniej więcej cztery jednostki pamięci. Aktywacja informacji w ognisku
oznacza jej udostępnienie świadomości. W krótkim czasie aktywacja
informacji maleje na tyle, że bez jej ponownego wzbudzenia nie jest już
dostępna świadomości, ale może mieć wpływ na procesy bieżącego
przetwarzania informacji. Ten pośredni stan aktywacji Cowan utożsamia
z pamięcią krótkotrwałą. Informacja niewzbudzona, znajdująca się w LTM,
potencjalnie podlega uaktywnieniu, ale dopóki tak się nie stanie, nie może
być przetwarzana z udziałem centralnego systemu wykonawczego.
RYCINA 8.9. Aktywacyjny model pamięci roboczej według Cowana
Źródło: opracowanie własne na podstawie Cowan, 1998.

Ponieważ poziom aktywacji śladów pamięciowych obniża się wraz


z upływem czasu, obserwujemy stopniowe zanikanie zawartości WM.
W modelu Cowana dynamika aktywacji śladów jest zdeterminowana
czasem, podczas gdy ognisko uwagi ma ograniczoną pojemność. Za
wolicjonalne kierowanie uwagi odpowiedzialny jest centralny system
wykonawczy. Uwaga może zostać ukierunkowana w dwojaki sposób: na
zewnątrz, tj. kiedy aktywacji podlega reprezentacja bodźca pochodząca
z pola percepcyjnego, albo do wewnątrz – na dane utrwalone w LTM.
Krzysztof Piotrowski (2004) wykazał, że w obu przypadkach angażowane
są zasoby uwagi pochodzące z jednej i tej samej puli. Innymi słowy,
niezależnie od źródła informacji (pole percepcyjne czy pamięć
długotrwała) jej aktywacja angażuje wspólny mechanizm uwagowy.

Model Cowana uwzględnia trzy przypadki, w których informacja


sensoryczna zostaje aktywowana w pamięci roboczej (ryc. 8.9). Zanim
jednak to się stanie, informacja jest kodowana w pamięci długotrwałej. Po
pierwsze, aktywacja jest możliwa dzięki wolicjonalnemu skierowaniu
uwagi na jakiś bodziec. Wówczas aktywacja osiąga zwykle taki poziom, że
bodziec trafia do ogniska uwagi (bodziec „a”). Jeśli bodźce są znane i nie
wiążą się z zadaniem (bodźce „b” i „c”) – podlegają habituacji. Mogą
jednak osiągnąć poziom aktywacji istotnie różniący je od zapisów zupełnie
nieaktywnych. Jeśli bodźce są nowe, nie podlegają habituacji, co wydaje
się mieć walor przystosowawczy, a poziom ich aktywacji jest
wystarczająco wysoki, aby objąć je ogniskiem uwagi, nawet bez
konieczności jej wolicjonalnego przekierowania (bodziec „d”).
Przykładowo, jeśli spojrzeć z tej perspektywy na odruch orientacyjny, to
powoduje on automatyczne przyciągnięcie uwagi i uświadomienie sobie
źródła stymulacji.

Cowan uwzględnił również dwie drogi sterowania zachowaniem. Pierwsza


wymaga zaangażowania centralnego systemu wykonawczego i odpowiada
reakcjom kontrolowanym. Z kolei reakcje automatyczne nie angażują
centralnego systemu wykonawczego. W obu wypadkach jednak wzbudzane
reprezentacje należą – zdaniem tego badacza – do obszaru pamięci
krótkotrwałej zawierającego reprezentacje o średnim poziomie aktywacji.

Analizując różne dane, Cowan (1995, 2001) oszacował pojemność ogniska


uwagi na trzy–cztery elementy o bardzo dużej dostępności. Korzystając
z zadania polegającego na przeszukiwaniu WM, Cowan (1995) wykazał, że
czas reakcji na sygnały znajdujące się na kilku ostatnich pozycjach zestawu
jest wyraźnie krótszy niż czas reakcji na sygnały pojawiające się wcześniej.
Również poprawność przeszukiwania jest wyższa niż w wypadku
elementów eksponowanych na wcześniejszych pozycjach w zestawie (ryc.
8.10 i 8.11).
Okazało się również, że w obrębie zestawu o rozmiarze do czterech
elementów nie występuje zjawisko interferencji proaktywnej (Halford,
Maybery, Bain, 1988). Wcześniej nabyte bodźce nie wpływają na
możliwość przyswajania kolejnych. Efekt ten okazał się niezależny od
podobieństwa fonologicznego bodźców (Tehan, Humphreys, 1995).
McElree (1998) interpretuje te dane na korzyść tezy o dużej dostępności
informacji znajdujących się w ognisku uwagi. Dostępność informacji
w ognisku uwagi jest na tyle duża, że nie potrzeba żadnych procesów jej
wydobycia. Stan ten jest jednak bardzo krótkotrwały. Wprowadzenie
dodatkowego zadania między ekspozycją ciągu elementów a bodźcem
docelowym niemal całkowicie eliminuje efekt pełnej dostępności. Niemniej
McElree (1998) twierdzi, że uprzywilejowanie bodźców w ognisku uwagi
dotyczy tylko jednego, ostatnio eksponowanego albo najbardziej
pobudzonego elementu.

RYCINA 8.10. Obserwowany i symulowany czas poprawnych reakcji (ms) w zadaniu


polegającym na przeszukaniu WM
Wyniki dotyczą kolejnych pozycji i różnych liczebności zbioru bodźców do zapamiętania (4, 7 i 10).
OBS – obserwowane wyniki empiryczne, SYM – wyniki symulacji w modelu ACT–R.
Źródło: opracowanie własne na podstawie Chuderski, Orzechowski, 2005.
RYCINA 8.11. Obserwowany i symulowany odsetek poprawnych reakcji w zadaniu
polegającym na przeszukaniu WM
Wyniki dotyczą kolejnych pozycji i różnych liczebności zbioru bodźców do zapamiętania (4, 7 i 10).
OBS – obserwowane wyniki empiryczne, SYM – wyniki symulacji w modelu ACT–R
Źródło: opracowanie własne na podstawie Chuderski, Orzechowski, 2005.

Nawiązując do modelu Cowana, Klaus Oberauer zaproponował własny


aktywacyjny model pamięci roboczej (Oberauer, 2002; Oberauer, Kliegl,
2001). Według niego podstawowym pytaniem w odniesieniu do modeli
pamięci roboczej jest to, jak duże jest ognisko uwagi – czy zawiera cztery
elementy czy tylko jeden? Zdaniem Oberauera te dwie interpretacje
ogniska uwagi sugerują dwa funkcjonalnie odmienne stany informacji
znajdującej się w pamięci roboczej. W związku z tym proponuje on, żeby
rozumieć pamięć roboczą jako koncentryczną strukturę, w której skład
wchodzą trzy funkcjonalnie odrębne regiony: 1) zaktywowana część
pamięci długotrwałej; 2) region bezpośredniego dostępu, który
przechowuje ograniczoną liczbę porcji informacji; 3) ognisko uwagi,
w którym znajduje się ta jedna porcja informacji, która została wybrana
jako przedmiot następnej operacji mentalnej. Model Oberauera stanowi
więc uszczegółowienie modelu Cowana, a odpowiednikiem ogniska uwagi
z tego ostatniego jest u Oberauera region bezpośredniego dostępu. Według
niego ograniczona pojemność pamięci roboczej jest wynikiem działania
dwóch czynników. Po pierwsze, reprezentacje podobnych obiektów
kodowanych w pamięci roboczej, mających wspólne cechy, częściowo się
przenikają – Oberauer nazywa to zjawisko nadpisywaniem (overwriting).
Po drugie, występuje zjawisko rywalizacji między reprezentacjami tych
obiektów, w momencie selekcji reprezentacji przechodzącej z regionu
bezpośredniego dostępu do ogniska uwagi. W nowszych, obliczeniowych
wersjach modelu Oberauer zachowuje jedynie drugi z tych mechanizmów,
sugerując, że rywalizacja między reprezentacjami (interferencja) jest
jedynym mechanizmem odpowiedzialnym za powstawanie ograniczeń
pojemności pamięci roboczej (Oberauer, Lewandowsky, Farrell, Jarrold,
Graves, 2012; Oberauer, Lin, 2017).

Badania z użyciem techniki fMRI wspierają model Cowana, dodatkowo


przynosząc wiedzę na temat źródeł ograniczonej pojemności pamięci
roboczej. J. Jay Todd i René Marois (2004) wykazali, że, tak jak sugerował
Cowan, pojemność wzrokowej pamięci krótkotrwałej wynosi trzy–cztery
elementy. Wykazali również, że neuronalnym podłożem tego ograniczenia
jest aktywność bruzdy śródciemieniowej.

RAMKA 8.2

Metody pomiaru pojemności (sprawności)


pamięci roboczej
W metodach pomiaru pojemności pamięci roboczej nawiązuje się do
kategorii zadań, stosowanych do pomiaru pojemności pamięci
krótkotrwałej (span task). Klasyczne zadania tego typu polegały na
zapamiętywaniu zestawów liczb (digit span) lub wyrazów (word span).
Następnie sprawdzano poziom odpamiętania materiału w kolejności
zgodnej z sekwencją prezentacji, szacując, jaki jest pułap możliwości
obciążenia pamięci osoby badanej. Zadania te mierzą jedynie zakres
informacji przechowywanych w pamięci roboczej, bez pomiaru
skuteczności przetwarzania tej informacji – w związku z tym nazywane
są zadaniami na prosty zakres pamięci (simple span tasks; Unsworth,
Engle, 2007).

Jednak pomiar pojemności pamięci roboczej wymagał jednoczesnego


uchwycenia efektywności przechowywania i przetwarzania informacji.
Opracowano więc wiele wersji zadań, które wymagały jednocześnie
dokonywania operacji poznawczych na prezentowanym materiale
i zapamiętywania ich wyników – są to zadania mierzące złożony zakres
pamięci (complex span tasks). Choć procedury tego rodzaju zwane są
testami pojemności pamięci roboczej (working memory capacity,
WMC), bardziej adekwatne byłoby nazwanie ich testami sprawności
tego modułu pamięciowego. Polskie słowo „pojemność” sugeruje, że
mowa jest o rozmiarze pewnego obszaru lub struktury. Tymczasem
chodzi właśnie o sprawność, czyli skuteczność w wykonywaniu
czynności jednoczesnego pamiętania i przetwarzania informacji.

Na szczególną uwagę zasługują dwie wersje tego typu zadań. Pierwsza


polega na głośnym czytaniu prezentowanych zdań i zapamiętywaniu
słowa, znajdującego się na końcu każdego z nich (reading span task;
Daneman, Carpenter, 1980). Głośne czytanie angażuje centralny system
wykonawczy, a zapamiętywanie słów – pętlę fonologiczną. Druga wersja
zadania wymaga rozwiązania prezentowanych kolejno zadań
arytmetycznych oraz zapamiętania towarzyszących im słów (operation-
word span task; OSPAN; Turner, Engle, 1989). W zadaniu tym
prezentowane są proste działania arytmetyczne, których poprawność ma
zweryfikować osoba badana. Jednocześnie z działaniem arytmetycznym
prezentowane jest słowo do zapamiętania. Czas i poprawność wykonania
zadań arytmetycznych są wskaźnikiem sprawności centralnego systemu
wykonawczego, a liczba zapamiętanych słów – pętli fonologicznej.
Zadanie OSPAN jest obecnie jedną najszerzej używanych metod badania
pamięci roboczej.

Inną popularną metodą pomiaru sprawności pamięci roboczej jest


zadanie n-wstecz (n-back; Gevins, Cutillo, 1993). W zadaniu tym
prezentowane są ciągi bodźców (np. liter), a osoba badana musi
reagować na określony pojawiający się w ciągu, jeśli ten sam bodziec
był również prezentowany n bodźców wstecz. Warunkiem kontrolnym
w tym zadaniu jest 0-wstecz – osoba po prostu reaguje na prezentowany
bodziec, warunkiem najtrudniejszym dla większości osób jest 3-wstecz,
gdzie trzeba zareagować jeśli dany bodziec pojawił się również trzy
pozycje wcześniej. Zadanie n-wstecz jest metodą często
wykorzystywaną w badaniach nad neuronalnym podłożem pamięci
roboczej i ze względu na swoją prostotę jest w tej dziedzinie bardzo
popularne.

8.2.5. Model długotrwałej pamięci roboczej Ericssona


i Kintscha
K. Anders Ericsson i Walter Kintsch (1995) zaproponowali rozszerzony
model pamięci roboczej, powiązanej z przechowywaniem informacji
w pamięci długotrwałej. Konieczność tworzenia tego typu modeli wynika,
zdaniem autorów, z deficytów klasycznych teorii pamięci roboczej, które
nie są w stanie trafnie opisać złożonych procesów poznawczych obecnych
zarówno w sytuacjach codziennych (np. rozumienie tekstu), jak
i w korzystaniu z wiedzy eksperckiej. Zdolność rozumienia tekstu wymaga
kodowania i wydobywania z LTM informacji będących produktami
złożonych operacji ich przetwarzania, a jednocześnie angażuje tradycyjnie
rozumianą STM.

Według autorów pamięć robocza ma za zadanie utrzymywanie


efektywnego i selektywnego dostępu do informacji, która jest niezbędna do
wykonania danego zadania (Ericsson, Delaney, 1999; Ericsson, Kintsch,
1995). Funkcja ta może być realizowana skutecznie dzięki dwóm
mechanizmom poznawczym: krótkotrwałej pamięci roboczej (short-term
working memory, ST-WM) i długotrwałej pamięci roboczej (long-term
working memory, LT-WM). Zadaniem ST-WM jest – jak w klasycznych
koncepcjach WM – magazynowanie danych i półproduktów, niezbędnych
do bieżącego wykonania złożonych procesów poznawczych, takich jak
rozumowanie, rozumienie tekstu czy uczenie się. Zadaniem LT-WM jest
utrzymanie czasowego dostępu do informacji z pamięci trwałej. LT-WM
pozwala na ominięcie bardzo małej pojemności ST-WM poprzez
magazynowanie w niej efektów bieżącego przetwarzania. Powstałe w ten
sposób ślady pamięciowe są trwalsze niż w ST-WM, co nie oznacza, że
zostają zapisane w trwałych strukturach wiedzy. Zwykle nie jest to zresztą
potrzebne, LT-WM bowiem przechowuje efekty przetwarzania, które nie są
jeszcze ostatecznym wynikiem czynności poznawczej, np. końcowym
wnioskiem w rozumowaniu. Podczas korzystania z LT-WM krótkotrwała
pamięć robocza zostaje obciążona wskazówkami pozwalającymi na
wydobycie właściwych informacji z pamięci długotrwałej.

Autorzy powołują się m.in. na efekty analiz wpływu treningu na


funkcjonowanie pamięci roboczej. Ericsson (1985, 1988) podaje wiele
spektakularnych przypadków osób, które uzyskiwały po takim treningu
zadziwiające efekty. Na przykład zanotowano przypadki badanych, którzy
po długim treningu byli w stanie odtworzyć poprawnie zestaw o rozmiarze
do 80 cyfr. Przeciętnie badani po 50 godzinach treningu byli w stanie
poprawnie odtworzyć około 20 cyfr. O zaangażowaniu pamięci
długotrwałej w uzyskanie tak dobrych wyników świadczy, zdaniem
Ericssona i Kintscha (1995), brak wpływu interferencji wywołanej w STM
przed odtwarzaniem zapamiętanego zestawu. Mimo wykonywania zadania
dystrakcyjnego, wymagającego zaangażowania pojemności STM, badani
poprawnie odtwarzali zapamiętany zestaw, z uwzględnieniem kolejności
zawartych w nim cyfr. Efekt ten był jednak ograniczony wyłącznie do
danego typu materiału; po jego zmianie poziom wykonania zadań
pamięciowych wskazywał na pojemność STM wynoszącą około siedmiu
elementów. Trening nie spowodował więc trwałego zwiększenia
pojemności STM i nie da się w pełni wyjaśnić strategią grupowania
elementów w pamięci roboczej. Nawet jeśli kodowanie długich ciągów cyfr
angażuje tę strategię, to tylko na podstawie zapisu w pamięci trwałej.
Zaangażowaniem LT-WM autorzy tłumaczą również efektywność
kodowania informacji przez ekspertów w trakcie wykonania zadań
z zakresu ich specjalności. Chodzi o badania nad pamięcią incydentalną
szachistów (np. Charness, 1981a). Zadanie polega na zapamiętywaniu
czegokolwiek, po czym niespodziewanie sprawdza się właśnie zawartość
pamięci. Okazało się, że szachiści zdecydowanie lepiej odtwarzali
prezentowane im na szachownicy układy figur, które mogły być elementem
jakiejś partii, niż liczbę figur szachowych, których kolor był zgodny
z kolorem pola, na którym stały. Oba zadania dotyczyły pamięci różnych
elementów partii szachowej, ale tylko pierwsze było powiązane
z umiejętnościami istotnymi w prawdziwej grze. Podobne rezultaty
uzyskano w wyniku badania incydentalnej pamięci konfiguracji kart do gry,
gdy osobami badanymi byli eksperci brydżowi (Charness, 1979). W obu
przypadkach wyniki testów pamięciowych skorelowane były dodatnio
z poziomem ekspertywności. Podobne efekty uzyskano także w innych
grupach eksperckich, np. doświadczonych lekarzy, którzy lepiej niż
nowicjusze pamiętali swoich pacjentów po badaniach i postawieniu
diagnozy (Norman, Brooks, Allen, 1989).

Uruchomienie mechanizmów długotrwałej pamięci roboczej jest możliwe


wyłącznie w określonych warunkach. Po pierwsze, jednostka musi być
zdolna do szybkiego kodowania informacji w LTM, co wymaga
dysponowania szeroką wiedzą i dostrzegania wzorców charakterystycznych
dla problemów specyficznych dla wybranej dziedziny. Dane empiryczne
wskazują, że tego rodzaju zdolności mają nie tylko osoby o wybitnej
pamięci, lecz także – w zakresie specjalistycznej wiedzy – eksperci w danej
dziedzinie. Po drugie, wykonywane działanie musi być doskonale znane,
tylko wówczas bowiem możliwa jest efektywna antycypacja tego, jaka
informacja będzie za chwilę potrzebna. Przechowywanie przypadkowych
danych, nawet w większej ilości i przez dłuższy czas, niż to jest możliwe
w STM, nie powoduje zwiększenia efektywności wykonania zadań
poznawczych. I po trzecie, informacje przechowywane w LT-WM muszą
być powiązane z odpowiednimi wskazówkami wydobycia. Związek ten
pozwala na odtworzenie warunków kodowania (por. teorię poziomów
przetwarzania Craika i Lockharta) i wydobycie poszukiwanych informacji
z LTM dzięki aktywacji wskazówek. Wskazówki mogą być zorganizowane
w większe, trwałe struktury wydobywania (retrieval structure).

8.2.6. Neuronalny model pamięci krótkotrwałej Lismana


Odmienną klasą modeli pamięci krótkotrwałej są neuronalne modele
obliczeniowe. Są to precyzyjne mechanistyczne modele procesów
pamięciowych, które odwołują się do danych fizjologicznych oraz ujmują
zależności między zmiennymi w sposób ilościowy. Jako takie, modele te
stanowią duży postęp w stosunku do werbalnych i czysto psychologicznych
modeli omawianych powyżej.

John Lisman i Marco Idiart (1995) oraz Ole Jensen i Lisman (1998)
zaproponowali oscylacyjny model pamięci krótkotrwałej. Łączy on
psychologiczne badania nad pamięcią z badaniami neurofizjologicznymi
i oferuje wyjaśnienie podstawowych własności pamięci roboczej przez
odwołanie się do mechanizmów neuronalnych. Głównym celem modelu
Lismana i współpracowników jest mechanistyczne wyjaśnienie
ograniczonej pojemności pamięci krótkotrwałej. Autorzy ujmują możliwy
mechanizm fizjologiczny tego zjawiska, nawiązując do aktywności prostej
sieci neuronowej, która składa się z neuronów pobudzających
i hamujących. Twierdzą, że podstawowym mechanizmem
odpowiedzialnym za utrzymywanie kilku porcji materiału w pamięci
krótkotrwałej są oscylacje neuronów w tej sieci. Występują one w dwóch
zakresach częstotliwości: niskim (theta–alfa, 5–12 Hz) i wysokim (gamma,
powyżej 30 Hz). Według modelu bodziec docierający do takiej sieci jest
kodowany jako aktywność grupy neuronów oscylujących w częstotliwości
gamma. Na przykład w zadaniu Sternberga (1966), do którego odwołują się
autorzy, po kolei prezentowane są cyfry do zapamiętania. Każda z nich,
według Lismana i Idiarta, jest kodowana w sieci neuronalnej w postaci
osobnej oscylacji neuronów o częstotliwości gamma. Oscylacje gamma są
wynikiem aktywności neuronów pobudzających oraz neuronów
hamujących, które są aktywowane przez neurony pobudzające. Aktywność
neuronów hamujących ma na celu odseparowanie od siebie poszczególnych
elementów reprezentowanych w sieci. Według modelu szybkie oscylacje
gamma są „zagnieżdżone” w wolnych oscylacjach theta, stanowiących
podstawowy rytm, w którym oscylują neurony pobudzające. Dane
neurofizjologiczne, na które powołują się autorzy modelu, pozwalają
stwierdzić, że rytm ten może być nadawany z zewnątrz, np. z układów
neuromodulacyjnych (w szczególności układu cholinergicznego). Rytm
theta pomaga utrzymać aktywność neuronów kodujących bodziec.

Podstawowym mechanizmem determinującym pojemność pamięci


krótkotrwałej jest ilościowy stosunek częstotliwości theta do częstotliwości
gamma, pojawiających się jako wynik aktywności modelu w fazie
przechowywania całego zbioru cyfr. Na przykład, jeśli w tej fazie neurony
kodujące bodziec oscylują z częstotliwością 30 Hz, a aktywność całej sieci
oscyluje w rytmie 6 Hz, to stosunek 6/30 wyznacza pojemność pamięci
krótkotrwałej równą pięciu elementom.

Jako wsparcie dla swojego modelu Lisman i Jensen (1998) wskazują na


wysoką zgodność predykcji wynikających z modelu z danymi
behawioralnymi uzyskanymi w badaniach z użyciem zadania Sternberga.
W szczególności ich model dobrze przewiduje rozkład czasu reakcji
zależnie od wielkości zbioru elementów do zapamiętania oraz czas reakcji
na elementy pojawiające się w różnych miejscach ciągu do zapamiętania
(tzw. krzywe pozycyjne). Dowody na słuszność modelu Lismana
i współpracowników pochodzą również z badań z wykorzystaniem EEG
(elektroencefalografii). Jan Kamiński, Aneta Brzezicka i Andrzej Wróbel
(2011) podjęli właśnie taką próbę dostarczenia dowodów na rolę oscylacji
theta i gamma w pamięci krótkotrwałej w badaniu z użyciem zadania
Sternberga. Wykazali oni, że pojemność pamięci krótkotrwałej, obliczona
na podstawie wyników w tym zadaniu, wysoko koreluje (r = 0,79) ze
stosunkiem częstotliwości theta do częstotliwości gamma, obliczonym
w sygnale EEG mierzonym w okolicach czołowych. Nikolai Axmacher
i współpracownicy (2010) również wykazali, że powiązanie (coupling)
częstotliwości theta i gamma jest związane z ilością materiału
przechowywanego w pamięci krótkotrwałej. Dodatkowo, wykorzystując
wewnątrzczaszkowy pomiar EEG u pacjentów neurologicznych, autorzy ci
wykazali, że ten mechanizm działa w hipokampie, wskazując tym samym
na jego rolę w pamięci krótkotrwałej. Jest to rozszerzenie wcześniejszych
koncepcji, w których rola tej struktury mózgowej ograniczała się do
transferu informacji z pamięci krótkotrwałej do długotrwałej.

Model Lismana i współpracowników, choć bardzo oryginalny, nie jest


jedynym modelem sugerującym udział oscylacji neuronalnych w procesach
pamięci roboczej. Inny model tego rodzaju zaproponowali Adam
Chuderski, Krzysztof Andrelczyk i Tomasz Smoleń (2013). Autorzy ci
próbują wyjaśnić różnice indywidualne w pojemności pamięci roboczej
i w sprawności rozumowania. Ich model podkreśla rolę hamowania
obocznego jako głównego mechanizmu determinującego pojemość pamięci
roboczej. Jest pod tym względem podobny do modelu Lismana, w którym
hamowanie również stanowi kluczowy mechanizm utrzymywania
materiału w pamięci o ograniczonej pojemności. Jako poparcie dla swojego
modelu autorzy przedstawili wyniki analiz jego dopasowania do danych
behawioralnych uzyskanych z wykorzystaniem m.in. zadania Sternberga.
Analizy te pokazały, że model poprawnie odtwarza krzywe pozycyjne
poprawności odpamiętania elementu w zależności od pozycji w zbiorze.
W odróżnieniu od modelu Lismana i współpracowników nie doczekał się
on jednak na razie weryfikacji w badaniach neurofizjologicznych.

Podsumowując, neuropoznawcze modele oscylacyjne pamięci


krótkotrwałej różnią się od modeli czysto psychologicznych tym, że
wyraźnie odwołują się do mechanizmów neuronalnych, które mogą
wyjaśnić podstawowe właściwości procesów poznawczych. Stanowią tym
samym pomost między psychologią poznawczą a neuronauką i pozwalają
na integrację badań empirycznych prowadzonych w obrębie tych dziedzin.
8.2.7. Pamięć prospektywna
Badania nad pamięcią dotyczą najczęściej mniej lub bardziej oddalonych
od teraźniejszości wydarzeń z przeszłości. Pod tym względem pamięć
prospektywna (prospective memory, PM) stanowi wyjątek, dotyczy
bowiem naszych intencji, a te z kolei odnoszą się do działań, które dopiero
mają być podjęte. Intencje i poczynione plany są w pewien sposób
utrwalane w pamięci: możemy kilka dni wcześniej zaplanować generalne
sprzątanie biurka, ale treścią zapisu pamięciowego jest przyszłość.

W badaniach nad pamięcią prospektywną chodzi głównie o działania


intencjonalne, jako że czynności rutynowe nie podlegają planowaniu –
automatycznie uruchamia je określony kontekst. Nie czynimy specjalnych
planów w kwestii tego, że np. wieczorem umyjemy zęby, ponieważ jest to
czynność rutynowa. Możemy jednak zaplanować, że w nadchodzący
czwartek wieczorem wybierzemy się do kina czy napiszemy list.

Nie wiadomo, czy pamięć prospektywna jest odrębnym rodzajem pamięci


w sensie kryteriów wyróżnionych przez Tulvinga (1984; zob. podrozdz.
8.1). W badaniach Lii Kvavilashvili (1987) okazało się, że pamięć
prospektywna i retrospektywna wydają się – przynajmniej częściowo –
niezależne. Badaczka poprosiła uczestników eksperymentu poświęconego
pamięci retrospektywnej, aby przypomnieli jej o konieczności
przeprowadzenia jeszcze jednego testu na zakończenie badań. Osoby
z „dobrą” pamięcią prospektywną, które przypomniały o dodatkowym
teście, nie różniły się w zadaniu na pamięć retrospektywną od osób, które
o nim zapomniały. Najczęściej przyjmuje się, że funkcje pamięci
prospektywnej realizowane są zarówno dzięki STM, jak i LTM. Niemniej
nawet w tym ujęciu wyróżnia się kilka jej rodzajów. Pierwszy podział PM
uwzględnia perspektywę czasową: bliską i odległą. Nie jest on może ścisły,
ale w uproszczeniu można przyjąć, że bliskie plany w większym stopniu
angażowałyby STM, a odległe – LTM. Drugi podział dotyczy wskazówek
wykonania planowanego działania. Chodzi o to, czy jest ono związane
z konkretnym momentem w czasie (time-based PM), np. „dziś o 20.00
mam zażyć lekarstwo”, czy raczej z jakimś wydarzeniem albo kontekstem
(event-based PM), np. „kiedy będę przechodzić obok księgarni, wstąpię po
nową książkę mojego ulubionego autora”.

Richard Marsh, Jason Hicks i Joshua Landau (1998) badali strukturę


planów w perspektywie tygodnia. Osoby badane odpamiętywały
przeciętnie 15 różnych działań zaplanowanych w tym okresie. Około 25%
tych planów nie było zrealizowanych, głównie z powodu dokonanych
w nich korekt albo zmiany priorytetów. Natomiast około 3% planów nie
realizowano, ponieważ o nich zapomniano. Porównując plany związane
z konkretnym momentem czasowym albo pewnym zdarzeniem, możemy
stwierdzić, że częściej zapominamy o tych pierwszych. Abigail Sellen
i współpracownicy (Sellen, Louie, Harris, Wilkins, 1997) poprosili
badanych o wykonanie pewnej czynności albo w określonym czasie, albo
w pewnym miejscu. W pierwszym wypadku badani w 33% przypadków
przypomnieli sobie o jej wykonaniu, podczas gdy w drugim – w 52%.
Autorzy wyjaśnili uzyskane rezultaty źródłem wskazówek, które są brane
pod uwagę w obu sytuacjach. Plany związane z określonym miejscem są
realizowane w większym stopniu dzięki wskazówkom zewnętrznym, czyli
danym (data-driven). Znalezienie się w określonym miejscu jest
czynnikiem inicjującym pamięć prospektywną. Natomiast plany związane
z pewnym momentem czasowym częściej wymagają odniesienia do
wskazówek wewnętrznych (concpetually-driven).

Mark McDaniel, Bridget Robinson-Riegler i Gilles Einstein (1998) podjęli


problem mechanizmu inicjowania pamięci prospektywnej przez wskazówki
zewnętrzne. Celem ich badań była odpowiedź na pytanie: „Czy istotne są
fizyczne właściwości określonego bodźca, czy też jego znaczenie?”. Osoby
badane poproszono o wykonanie określonej reakcji, gdy zostanie im
zaprezentowane słowo wieloznaczne (np. wyraz bat mający w języku
angielskim dwa znaczenia: „nietoperz” i „kij do krykieta/baseballu”).
Zadanie to, mające angażować pamięć prospektywną, zostało osadzone
w zupełnie innym zadaniu. Procedura taka przypominała sytuacje znane
z codziennego życia, kiedy musimy pamiętać o przerwaniu wykonywania
jakiejś czynności, np. czytania książki, w celu zrobienia czegoś zupełnie
innego, np. wyłączenia gazu pod gotującą się zupą. Okazało się, że osoby
badane częściej pamiętały o zareagowaniu na słowo wieloznaczne, jeśli
zostało ono użyte w niezmienionym znaczeniu, niż wówczas, kiedy
znaczenie to ulegało zmianie. Gdyby czynnikiem wyzwalającym była po
prostu obecność danego słowa, a nie jego znaczenie, różnice takie nie
powinny wystąpić.

Robinson-Riegler (1995) w pomysłowej serii eksperymentów


zweryfikowała model dwufazowego działania PM, kiedy bodziec
zewnętrzny jest czynnikiem przypominającym o zaplanowanym działaniu.
Model opiera się na odmiennych mechanizmach pamięciowych:
rozpoznawaniu i przypominaniu. W pierwszej fazie dochodzi do
rozpoznania jakiegoś wydarzenia jako sygnału do podjęcia zaplanowanego
działania. Tę fazę autorka wiąże z uruchomieniem intencji podjęcia
zaplanowanego działania. W fazie drugiej jednostka przypomina sobie, co
właściwie miała zrobić (to-be-performed task) i – jeśli oceni je jako nadal
aktualne – podejmuje zaplanowane działanie. O dyskretnym charakterze
tych dwóch faz i ich niezależności świadczyć mogą przypadki, w których
przypominamy sobie, że mieliśmy coś zrobić, ale nie pamiętamy, co to
miało być.
Melissa Guynn, Mark McDaniel i Gilles Einstein (1998) zauważyli, że
kluczowa dla inicjowania pamięci prospektywnej jest siła związku między
bodźcem wyzwalającym a planowanym działaniem. Jeśli jest on zbyt słaby,
może dojść do rozpoznania bodźca wyzwalającego bez przypomnienia
sobie, jakie działanie należało podjąć. Natomiast jeśli jest on bardzo silny,
może dojść do automatycznego uruchomienia określonej czynności.

W badaniach McDaniela, Robinson-Riegler i Einsteina (1998), stosując


paradygmat zadań jednoczesnych, wykazano, że pamięć prospektywna
angażuje zasoby uwagi. Problemem tym bliżej zajęli się Marsh i Hicks
(1998). Autorzy zastosowali nie dwa, a trzy zadania jednoczesne. Pierwsze
polegało na zapamiętywaniu prezentowanych słów. Zadanie prospektywne
polegało na wykonaniu określonej reakcji, gdy jedno z tych słów należało
do kategorii owoców. Trzecie zadanie – w zależności od zastosowanej
manipulacji eksperymentalnej – angażowało jeden z trzech podsystemów
pamięci roboczej: centralny system wykonawczy, pętlę fonologiczną albo
szkicownik wzrokowo-przestrzenny. Okazało się, że pogorszenie
wykonania zadania prospektywnego wystąpiło jedynie w warunkach
zadania angażującego centralny system wykonawczy. Zadanie to było
odmianą tzw. generowania interwałów losowych (zob. paradygmat 8.5),
z tym że zamiast losowego stukania w klawisz osoby badane miały
generować liczby losowe. Wynik ten wydaje się interesujący z dwóch
powodów. Po pierwsze, wiąże inicjowanie pamięci prospektywnej
z kontrolowanym przetwarzaniem informacji (autorzy piszą wręcz
o angażowaniu świadomości). Po drugie, ogranicza związek pamięci
roboczej z pamięcią prospektywną do centralnego systemu wykonawczego
bez zaangażowania podlegających mu podsystemów pamięciowych. Zdaje
się zatem, że nawet stosunkowo bliskie plany prospektywne angażują
przede wszystkim struktury pamięci trwałej.
Można przypuszczać, że zainicjowanie pamięci prospektywnej wymaga
trzech czynników. Po pierwsze, potrzebne jest rozpoznanie przez jednostkę
znaczenia bodźca wyzwalającego, a nie tylko dostrzeżenia fizycznej jego
obecności. Po drugie, trzeba odpowiedniej siły aktywacji umysłowej
reprezentacji bodźca wyzwalającego, aby doszło do jego włączenia
w zakres informacji podlegających przetwarzaniu kontrolowanemu.
Wówczas może zostać intencjonalnie zainicjowana pamięć prospektywna,
jeśli przypomnimy sobie, co mieliśmy zrobić. Aby uruchomienie działania
nastąpiło automatycznie, niezbędny jest trzeci czynnik, czyli silne
powiązanie bodźca wyzwalającego z określonym zapisem w pamięci
prospektywnej.

Badania nad pamięcią prospektywną z użyciem techniki fMRI (Burgess,


Gonen-Yaacovi, Volle, 2011) konsekwentnie wykazują zaangażowanie kory
bieguna czołowego (najbardziej wysuniętej do przodu części płata
czołowego) w wykonywanie zadań na pamięć prospektywną. Jednocześnie
nie stwierdza się specyficznej aktywacji w rejonach związanych
z wykonywaniem zadań na pamięć retrospektywną. Wyniki te stanowią
dowód na to, że pamięć prospektywna jest w dużym stopniu niezależna od
pamięci retrospektywnej oraz że jest realizowana przez najbardziej
zaawansowaną i filogenetycznie najmłodszą część kory mózgowej, która
stanowi również podstawę funkcjonowania kontroli poznawczej.

8.3. Systemy pamięci trwałej


Pamięć trwała, w przeciwieństwie do przemijającej, charakteryzuje się nie
tylko dłuższym czasem przechowywania informacji, lecz także innymi
funkcjami. Najogólniej rzecz ujmując, polegają one na gromadzeniu
różnorodnej wiedzy, której używanie jest kluczowym narzędziem adaptacji
do złożonych wymagań środowiska. W związku z tym względnie duża
trwałość stanowi zaletę tego rodzaju zapisów pamięciowych. Nie oznacza
to jednak, że zapominanie, czyli utrata informacji zapisanej w systemach
pamięci trwałej, jest „błędem” ewolucyjnym. Ono również ma pewną
funkcję przystosowawczą. Zapominaniu zazwyczaj podlega informacja
nieużywana, a więc zapewne nieprzydatna z perspektywy owego
przystosowania, aczkolwiek przyczyny i mechanizmy zapominania są
różnorodne. W każdym razie pamięć bez zapominania byłaby nieprzydatna,
bo wówczas pamiętalibyśmy wszystko do końca życia, co na pewno nie
zwiększałoby naszych szans w adaptacji do warunków życia.

Zamieszczone w tym podrozdziale rozważania są uzupełnieniem rozdziału


4, poświęconego strukturze i nabywaniu wiedzy. W tym miejscu zajmiemy
się pominiętymi wówczas badaniami poświęconymi pamięci semantycznej
oraz dwoma innymi systemami pamięciowymi: epizodycznym
i autobiograficznym.

8.3.1. Pamięć semantyczna


Pamięć semantyczną scharakteryzowaliśmy jako obejmującą specyficzną,
stosunkowo łatwą do werbalizacji wiedzę ogólną, oderwaną od kontekstu
(zob. podrozdz. 8.1.1). Modele struktury i mechanizmy jej nabywania
omówiliśmy w podrozdziałach 4.2.2 i 4.3.1. W tym miejscu skupimy się na
badaniach poświęconych weryfikacji kluczowych założeń dwóch
najważniejszych koncepcji pamięci semantycznej: teorii sieci
hierarchicznej (Collins, Quillian, 1969) i teorii rozprzestrzeniającej się
aktywacji (Collins, Loftus, 1975).

Testowanie predykcji teorii sieci hierarchicznej prowadzono przede


wszystkim w paradygmacie weryfikacji zdań. Chodziło o weryfikację
zasady ekonomii poznania, przejawiającej się w modelu Allana Collinsa
i M. Rossa Quilliana w postaci twierdzenia o kodowaniu informacji w sieci
na możliwie najwyższym poziomie abstrakcji.

Collins i Quillian (1969) prezentowali osobom badanym zdania, prosząc


o weryfikację, czy są prawdziwe. Autorzy osobno poddali weryfikacji
zdania dotyczące predykatów, a osobno – przynależności kategorialnej.
W pierwszym wypadku, odwołując się do przykładu sieci semantycznej
przedstawionej na rycinie 4.4 (zob. podrozdz. 4.2.2), zdania użyte
w badaniach mogły przybrać następującą postać:

1. Rekin ma zęby.
2. Rekin ma płetwy.
3. Rekin oddycha.

4. Rekin ma koła.

I w drugim wariancie zadania:

1. Rekin jest rekinem.


2. Rekin jest rybą.

3. Rekin jest kręgowcem.


4. Rekin jest pojazdem.

Jak widać (zob. ryc. 4.4), każde pytanie w obu grupach – poza ostatnim –
dotyczy właściwości albo kategorii, umiejscowionych na różnych piętrach
w sieci hierarchicznej. Model Collinsa i Quilliana przewidywał, że czas
weryfikacji zdań będzie zależny od liczby poziomów, którą należy
„pokonać”, aby dotrzeć do potrzebnej nam informacji. Czas weryfikacji
zdania, które jest nieprawdziwe, miał być w związku tym zawsze
najdłuższy. Zakładano, że w tym przypadku odpowiedź negatywna
możliwa jest po zbadaniu wszystkich możliwości, tj. kiedy na żadnym
poziomie nie można znaleźć relacji łączącej rekina z kołem czy pojazdem.
Wydawało się, że przeszukiwanie powinno być w takim wypadku
wyczerpujące, w przeciwieństwie do samowygaszającego się
przeszukiwania w warunkach weryfikacji zdań prawdziwych. Wyniki
uzyskane przez Collinsa i Quilliana okazały się zadziwiająco zgodne
z oczekiwaniami: czas reakcji wzrastał liniowo wraz z liczbą
hipotetycznych poziomów w hierarchii, które należało pokonać. Przyrost
czasu wynosił średnio 75 ms na każdy poziom w hierarchii. Okazało się
ponadto, że czas weryfikacji zdań dotyczących predykatów (np. „Rekin ma
płetwy”) był dłuższy w porównaniu z oceną przynależności kategorialnej
(np. „Rekin jest rybą”). Wynik ten można było wyjaśnić, przyjmując, że
połączenia reprezentujące relacje predykatywne są wolniejsze niż
połączenia dotyczące przynależności kategorialnej. Niezgodny
z predykcjami okazał się natomiast czas reakcji w odniesieniu do zdań
fałszywych. Zamiast najdłuższy, był on najkrótszy, z czym teoria sieci
hierarchicznej w pierwszej wersji nie umiała sobie poradzić.

Wyniki tych badań przyniosły w zasadzie potwierdzenie koncepcji Collinsa


i Quilliana. Krytycy jednak, oprócz argumentów opisanych w podrozdziale
4.2.2, słusznie skupili się na wynikach dotyczących czasu weryfikacji zdań
negatywnych, które okazały się sprzeczne z modelem. Był to zatem jeszcze
jeden argument przemawiający za rewizją wczesnej wersji modelu sieci
semantycznej.

Problem weryfikacji zdań negatywnych okazał się niesłychanie trudny do


rozwiązania. Model rozchodzącego się pobudzenia Allana Collinsa
i Elizabeth Loftus (1975) wymagał wprowadzenia odrębnego mechanizmu
dla opisu tego zjawiska. Mechanizm obejmował co prawda weryfikację
zdań zarówno prawdziwych, jak i fałszywych, jednak cechował się
wysokim poziomem złożoności. Po pierwsze, opierał się na hipotetycznym
procesie kumulacji dowodów „za” i „przeciw”. Proces ten wpisany został
w ogólny mechanizm rozchodzącego się pobudzenia. Aktywacje
rozchodzące się jednocześnie od węzłów symbolizujących pojęcia użyte
w zdaniu w pewnym momencie się spotykają. Wówczas może się
rozpocząć proces oceny podobieństwa węzłów oraz weryfikacji
prawdziwości zdania. Wraz z rozchodzeniem się pobudzenia aktywowane
są różne relacje, a związane z nimi pobudzenia, stanowiące dowody „za”
albo „przeciw” prawdziwości zdania, podlegają kumulacji. Te
skumulowane pobudzenia mogą w pewnym momencie przekroczyć dolny
albo górny próg wartości definiującej. Próg dolny związany jest
z odrzuceniem, a próg górny – z uznaniem prawdziwości weryfikowanego
zdania. Co istotne, każde z pojęć użytych w zdaniu charakteryzuje się
specyficznymi dla siebie progami.

Mechanizm ten wydawał się lepszym opisem zależności uzyskanych przez


Collinsa i Quilliana. Okazało, że radzi sobie również ze zdaniami, które są
tak ewidentnie fałszywe, jak: „Rekin ma koła” albo „Rekin jest pojazdem”.
Kumulacja dowodów w wypadku zdań absurdalnych prowadzi do niemal
natychmiastowego przekroczenia progu dolnego i bardzo szybkiej reakcji
negatywnej. Kiedy jednak zdania wydają się sensowne, niezbędne jest
przeprowadzenie większej liczby porównań właściwości pojęć w nich
użytych, co wydłuża cały proces. Co ciekawe, jeśli zdanie jest prawdziwe,
to większe podobieństwo między pojęciami, które zostały w nim użyte,
przyspiesza jego weryfikację, a jeśli fałszywe – podobieństwo powoduje jej
spowolnienie (Loftus, 1973).
Najliczniejszą grupę badań poświęconych teorii Collinsa i Loftus (1975)
stanowią próby weryfikacji twierdzenia o rozchodzącym się pobudzeniu
w sieci. Bardzo owocny okazał się zastosowany w tym celu paradygmat
poprzedzania semantycznego (semantic priming; zob. rozdz. 5). Główna
idea poprzedzania, niezależnie od obszaru badań, jest podobna: bodziec
eksponowany wcześniej wpływa na proces przetwarzania bodźców
pojawiających się później, np. skraca bądź wydłuża czas reakcji.
W poprzedzaniu semantycznym o wpływie tego typu decydują relacje
semantyczne między pierwszym w sekwencji bodźcem poprzedzającym
a bodźcem docelowym. Kiedy materiałem eksponowanym w zadaniu są
słowa, relacje semantyczne mogą świadczyć o przynależności do wspólnej
kategorii (biurko – krzesło) lub posiadania wspólnych właściwości (pies –
kot); pojęcia mogą być synonimami (śmigłowiec – helikopter) albo
antonimami (mały – duży) itd. Zadanie osoby badanej polega zawsze na
zareagowaniu na słowo docelowe, np. podjęciu decyzji leksykalnej
(lexical decision task): czy jest to słowo, czy niesłowo.

Michael Posner i Charles Snyder (1975) zastosowali paradygmat


poprzedzania semantycznego, eksponując jako bodziec poprzedzający
i docelowy słowa identyczne lub różne. Autorzy manipulowali ponadto
odsetkiem ekspozycji prób ze słowami identycznymi w stosunku do prób
ze słowami różnymi (20 albo 80) oraz odstępem między bodźcem
poprzedzającym i docelowym (10 albo 500 ms). Stwierdzili efekt
poprzedzania pozytywnego w parach identycznych słów, zarówno gdy ich
odsetek wynosił 20, jak i 80. Efekt poprzedzania okazał się najsilniejszy,
gdy odsetek ten wynosił 80, a odstęp między bodźcem poprzedzającym
a docelowym był długi (500 ms). Kiedy eksponowano pary różnych słów,
wystąpił efekt poprzedzania negatywnego: czas identyfikacji słowa
docelowego był dłuższy niż w warunku kontrolnym. Wyniki te były zgodne
z założeniami teorii rozprzestrzeniającej się aktywacji. Wysokie
prawdopodobieństwo pojawiania się identycznych słów, przy
wystarczająco długim odstępie między nimi, umożliwiało osobom
badanym skorzystanie z „dobrodziejstw” procesu rozprzestrzeniania się
pobudzenia w sieci.

Nieco inną wersję paradygmatu poprzedzania zastosował James Neely


(1977). Pary słów dobrano tak, że pierwsze było nazwą kategorii (np. ptak),
a drugie albo nazwą jej egzemplarza (np. wróbel), albo egzemplarza innej
kategorii (np. ściana). Badacz zastosował pomiar czasu decyzji
leksykalnych jako miarę siły efektu poprzedzania. Podobnie jak u Posnera
i Snydera okazało się, że jeśli odstęp między ekspozycją bodźca
poprzedzającego i docelowego wynosił co najmniej 400 ms, wystąpił efekt
poprzedzania. Neely zinterpretował swoje wyniki jako efekt wpływu
poprzedzania na czas dostępu leksykalnego. Efekt ten wynika zarówno
z automatycznego procesu rozchodzenia się pobudzenia, dlatego ujawnia
się, nawet gdy odstęp między słowami jest bardzo mały, jak również
z budowania nastawienia, będącego procesem kontrolowanym.

Badania prowadzone w paradygmacie poprzedzania doprowadziły do kilku


interesujących wniosków, dotyczących rozprzestrzeniania się pobudzenia
w sieci semantycznej. Po pierwsze, wykazano, że rozchodzenie się
pobudzenia ma charakter procesu automatycznego (Nelly, 1977; Posner,
Snyder, 1975). Po drugie, wielkość pobudzenia węzła jest funkcją siły
związku między tym węzłem a źródłem pobudzenia, czyli wagi tego
połączenia (Lorch, 1982). Po trzecie, wielkość pobudzenia rozchodzącego
się określoną ścieżką od danego węzła jest funkcją sumy wag wszystkich
związków, w które wchodzi dany węzeł sieci semantycznej (Reder,
Anderson, 1980). Po czwarte, mechanizm rozchodzenia się pobudzenia
wykorzystuje połączenia bezpośrednie (one-step; de Groot, 1983), chociaż
początkowo dopuszczano nie tylko bezpośrednie związki między węzłami,
lecz także związki pośrednie – z udziałem innych węzłów, a zarazem wielu
relacji (multiple-step). Po piąte, wydaje się, że funkcjonowanie sieci
semantycznej wymaga uwzględnienia, oprócz mechanizmu aktywacji,
również komplementarnego zjawiska hamowania. Innymi słowy,
automatyczne pobudzenie połączeń opartych na związkach semantycznych
istotnych w określonej sytuacji zachodzi jednocześnie z kontrolowanym
uwagowo mechanizmem hamowania połączeń dystrakcyjnych (Tipper,
1985). Jak wspomniano już w kilku miejscach, jest to zgodne
z dominującym obecnie poglądem na fundamentalną rolę hamowania
w kształtowaniu procesów poznawczych (zob. Isaacson, Scanziani, 2011).

8.3.2. Pamięć epizodyczna


Pamięć epizodyczną scharakteryzowano za Tulvingiem jako zapis
informacji o wydarzeniach (epizodach) umiejscowionych w określonym
czasie, obejmujący również czasowo-przestrzenne relacje między nimi.
Nieco później wyróżniono w ramach pamięci epizodycznej odrębny
podsystem poświęcony wiedzy autobiograficznej, tj. dotyczącej
bezpośrednio danej jednostki. Przyjmując ten podział, opiszemy kolejno
oba rodzaje pamięci.

Tulving (1972, 1983) podał szereg cech odróżniających pamięć


epizodyczną od semantycznej. Najważniejszy wydaje się sposób
organizacji informacji. W pamięci epizodycznej jest ona podporządkowana
następstwu czasowemu zdarzeń. Zarówno zapamiętywanie, jak
i odpamiętywanie informacji dotyczy nie tylko samych zdarzeń, lecz także
ich czasowego porządku. Badania Agnieszki Niedźwieńskiej (2003)
sugerują jednak, że datowanie zdarzeń wydaje się wiązać raczej
z procesami rekonstrukcji w momencie odpamiętania. Niemniej błąd
w zakresie datowania, np. zmiana kolejności wydarzeń składających się na
pewien epizod, może mieć poważne konsekwencje: nie bez znaczenia jest
np. fakt, czy wykreślenie z projektu ustawy jakiegoś słowa odbyło się
w trakcie czy już po zakończeniu prac komisji sejmowej. Dokładne
ustalenie tego momentu jest kluczowe dla prawnej i etycznej oceny tego
typu „korekty”. Po drugie, pamięć epizodyczna obejmuje związki między
treścią zdarzeń i ich źródłem. Dotyczy to przede wszystkim epizodów,
w których nie braliśmy bezpośredniego udziału, lecz dowiadujemy się
o nich z różnych źródeł. Może to być istotne również dla wiedzy
autobiograficznej, kiedy wydarzenie, w którym osobiście uczestniczyliśmy,
relacjonowane jest odmiennie przez różne osoby. Mogą one nie tylko
inaczej niż my je oceniać, ale mogły zauważyć to, co nam umknęło, albo
pamiętać to, o czym my zapomnieliśmy. Po trzecie, pamięć epizodyczna
może obejmować związki przyczynowo-skutkowe, które nie wynikają
wprost z ich następstwa czasowego, np. wówczas, gdy nasza wiedza
wykracza poza to, co jest bezpośrednim zapisem zaistniałych wydarzeń. Ta
dodatkowa wiedza może dotyczyć hipotetycznych motywów czyjegoś
działania albo odległych konsekwencji pewnego zdarzenia. Po czwarte,
wiedza zawarta w pamięci epizodycznej – w przeciwieństwie do pamięci
semantycznej – nie jest efektem konsensu społecznego; jest zapisem tego,
co wierzymy, że się wydarzyło. Przykładowo w przypadku prac komisji
sejmowej, z kilku wersji zdarzeń, w efekcie których dokonano zmian
w projekcie ustawy, możemy zapamiętać tylko jedno, które wydaje nam się
najbardziej prawdopodobne. W szczególnym przypadku pamięć
epizodyczna może zawierać przekłamania będące następstwem
konfabulacji. Po piąte, sugeruje się istnienie unikalnego dla pamięci
epizodycznej rodzaju świadomości, odnoszącej się do zawartej w niej
wiedzy. Jest to tzw. świadomość autonoetyczna (autonoetic), czyli poczucie
doświadczania czegoś na nowo. Mark Wheeler (2000) uznaje tę formę
świadomości za unikatową w skali ewolucyjnej, występującą tylko
u gatunku Homo sapiens.

Specyficzną właściwością pamięci epizodycznej jest datowanie wydarzeń.


Odbywa się ono z różną dokładnością. Najczęściej jest to dzień tygodnia
(Larsen, Thompson, Hansen, 1996), rzadziej konkretna data. Niekiedy
również datowanie polega na powiązaniu wydarzeń z innymi epizodami,
np. narodzin dziecka z obroną pracy magisterskiej.

Rumelhart i Norman (1975; Rumelhart i in., 1972) zaproponowali model


pamięci epizodycznej, skonstruowany z wykorzystaniem idei sieci
hierarchicznej. Węzłami w sieci pamięci epizodycznej są działania oraz
obiekty z nimi związane, czyli przede wszystkim sprawca i adresat. Na
przykład w zdaniu: „Ala głaszcze kota”, centralnym węzłem jest czynność
głaskania, sprawcą Ala, a adresatem kot. W ten sposób można sobie
wyobrazić strukturę wiedzy epizodycznej, oczywiście odpowiednio
bardziej złożoną, czyli obejmującą większą liczbę danych dla
pojedynczego zdarzenia i większą liczbę zdarzeń składających się na
epizod (ryc. 8.12).

W badaniach empirycznych podjęto próby wyjaśnienia znacząco lepszego


pamiętania wiedzy epizodycznej w porównaniu z semantyczną. Chodzi
przede wszystkim o zadziwiającą łatwość kodowania epizodów, bez
konieczności wielokrotnych powtórek w celu ich utrwalenia. Craik
i Tulving (1975) zaproponowali wyjaśnienie odwołujące się do teorii
poziomów przetwarzania. Epizody to wydarzenia, w które w mniejszym
lub większym stopniu jednostka angażuje się osobiście, dlatego ich
przetwarzanie odbywa się na poziomie głębokim.
RYCINA 8.12. Model epizodu „John morduje Mary u Luigiego”
Źródło: opracowanie własne na podstawie Rumelhart, Lindsay, Norman, 1972, s. 209.

Hipoteza Larry’ego Jackoby’ego (1978) odwoływała się do różnej


trwałości zapisów pamięciowych w zależności od ich źródła: zewnętrznego
lub wewnętrznego. W swoich badaniach autor wykorzystał metodę
odtwarzania ukierunkowanego, w której osoba badana uczy się par słów
(paired-associate recall), przy czym słowa w parach mogą być w różnym
stopniu ze sobą powiązane (bliskie lub odległe). W fazie testowania badany
otrzymuje jedno słowo z pary i ma za zadanie przypomnieć sobie
skojarzone z nim drugie słowo. Jackoby zastosował w badaniach –
w jednym warunku – przywołaną procedurę, prezentując uczestnikom pary
blisko związanych ze sobą słów (np. but – stopa), oraz – w innym warunku
– odmianę tej metody, polegającą na generowaniu skojarzenia do jednego
z podanych słów i zapamiętywaniu utworzonych w ten sposób par. Drugi
warunek, przynajmniej teoretycznie, miał się wiązać bardziej
z mechanizmem kodowania epizodów niż wiedzy semantycznej. Wyniki
testu odpamiętania okazały się istotnie lepsze w drugim warunku.

Inne wyjaśnienie efektu lepszej pamięci epizodycznej odwołuje się do


stopnia abstrakcji materiału semantycznego i epizodycznego. W wielu
eksperymentach wykazano, że lepiej zapamiętywany jest materiał
konkretny niż abstrakcyjny. Badania potwierdzają przewagę obrazów nad
słowami (Paivio, Csapo, 1973) oraz słów konkretnych nad abstrakcyjnymi
(Paivio, Yuille, Rogers, 1969). Zdaniem niektórych teoretyków umysł
człowieka generalnie łatwiej przyswaja i pamięta pojęcia konkretne niż
abstrakcyjne (zob. Roediger, March, Lee, 2002).

Zapisy pamięci epizodycznej są zazwyczaj bardziej dystynktywne i jako


takie – łatwiej pamiętane (zob. Hunt, 1995). Trudno o dokładnie takie same
zapisy epizodyczne, szczególnie że ich kodowanie może się odbywać
z uwzględnieniem wielu specyficznych kryteriów (zasada specyficzności
kodowania; Tulving, Thomson, 1973). Z kolei pojęcia, zwłaszcza bardziej
abstrakcyjne (np. ze słownika terminów psychologii poznawczej),
w momencie ich nabywania kodowane są najczęściej w sterylnej,
pozbawionej kontekstu postaci. Dostęp do epizodów możliwy jest zatem
dzięki wielu różnorodnym wskazówkom, których jest tym więcej, im
głębsze było ich kodowanie. W przypadku wiedzy semantycznej
wskazówek wydobycia również może być wiele, ale z natury rzeczy nie
będą one tak różnorodne. Jeśli już odwołujemy się do teorii poziomów
przetwarzania, przypomnijmy, że ślad pamięciowy w koncepcji Craika
i Lockharta jest „kopią” operacji składających się na proces percepcji.
W przypadku epizodów proces ten jest bogaty w dużą liczbę konkretnych
aktów percepcyjnych. Nabywanie wiedzy semantycznej, np. z podręcznika,
nie pozwala na znaczące zróżnicowanie operacji wchodzących w skład
procesu percepcji, w większości bowiem opiera się na czytaniu tekstu.
Właśnie dlatego jej późniejsze wydobycie może być trudniejsze. Zarazem
jednak umiejscowienie epizodów w konkretnym kontekście oznacza, że
jeśli nie pojawi się żadna związana z nimi wskazówka wydobycia, ich
odpamiętanie może być niemożliwe. Pamięć semantyczna – przeciwnie –
ze względu na oderwanie od kontekstu jej nabywania odtwarzana jest tak
samo dobrze bądź źle, niezależnie od owego kontekstu. Wydają się temu
przeczyć klasyczne badania Duncana Goddena i Alana Baddeleya (1975)
dotyczące wpływu kontekstu na proces uczenia się listy słów (pamięć
semantyczna) u płetwonurków. Autorzy wykazali, że zgodność kontekstu
uczenia się i odtwarzania słów znacznie poprawiała wyniki osób badanych.
Trudno jednak wykluczyć, że wpływ kontekstu polegał po prostu na
wprowadzeniu dodatkowych wskazówek wydobycia. Zresztą ci sami
badacze (Godden, Baddeley, 1980), kiedy zamiast testu swobodnego
odtwarzania użyli testu rozpoznawania, nie stwierdzili już istotnego
wpływu kontekstu. Swobodne odtwarzanie może być więc bardziej zależne
od kontekstualnych wskazówek wydobycia, niezależnie od tego, czy
dotyczy ono pamięci semantycznej czy epizodycznej.

Badania neuropsychologiczne przynoszą dowody na odrębność pamięci


epizodycznej od innych systemów pamięci. Tulving (2002) omawia
przypadek pacjenta K.C., z rozległymi uszkodzeniami mózgu w wyniku
wypadku motocyklowego. Stwierdzono u niego dobrze funkcjonującą
pamięć semantyczną przy całkowicie zaburzonej pamięci epizodycznej –
pacjent przejawiał wsteczną i następczą amnezję zdarzeń. Również badania
z użyciem technik neuroobrazowania przynoszą dowody na odrębność
pamięci epizodycznej. Tulving (tamże) omawia wyniki badań PET i fMRI,
które pokazują wyraźnie większe zaangażowanie obszarów czołowych
w prawej półkuli w odpamiętywanie zdarzeń w porównaniu z aktywacją
lewego płata czołowego przy opamiętywaniu materiału z pamięci
semantycznej.

8.3.3. Pamięć autobiograficzna


Pamięć autobiograficzna jest odpowiedzialna za przechowanie materiału
dotyczącego indywidualnej historii życia danej jednostki (Maruszewski,
2005). Specyfiką tego materiału jest odniesienie do Ja (Brewer, 1986),
dlatego pamięć autobiograficzna może być uznana za część osobowości,
związanej z poczuciem tożsamości i ze stałością tej tożsamości
(Maruszewski, 2005). Skoro pamięć autobiograficzna obejmuje pewną
część historii życia jednostki, istotne wydaje się ustalenie jej relacji do
pamięci epizodycznej. Tulving (1983) początkowo nie dokonał takiego
rozróżnienia, traktując oba pojęcia synonimicznie. Obecnie jednak wydaje
się ono oczywiste.

Baddeley (1990) uznał odniesienie do Ja za właściwość charakteryzującą


zarówno pamięć epizodyczną, jak i autobiograficzną. Dokonał jednak
rozróżnienia na dwa rodzaje tego odniesienia, z których jedno byłoby
właściwe wyłącznie pamięci autobiograficznej. Autor stwierdził, że zapisy
epizodyczne odnoszą się do Ja doświadczającego, byłyby zatem obecne
w każdym osobistym doświadczeniu jednostki. Z kolei zapisy
autobiograficzne odnoszą się do Ja jako obiektu doświadczania,
wyróżnikiem pamięci autobiograficznej byłaby więc obecność samej
jednostki w treści zapisów pamięciowych. Wynika z tego, że zapisy
autobiograficzne byłyby podzbiorem zapisów epizodycznych. Obecnie
jednak wielu badaczy włącza w zakres pamięci autobiograficznej również
elementy semantyczne, tj. fakty z życia jednostki (Conway, 2000;
Maruszewski, 2001, 2005; Niedźwieńska, 2004). Badania Martina
Conwaya (2000) wykazały, że odpamiętywanie zapisów
autobiograficznych jest niekiedy łatwiejsze ze względu na kryteria
semantyczne (ich tematykę) niż chronologię zdarzeń. Wydaje się więc, że
pamięć autobiograficzna składałaby się z dwóch rodzajów zapisów:
zdarzeń odnoszących się do Ja oraz faktów z życia jednostki. Tomasz
Maruszewski (2001) wyłączył z kolei z zakresu pojęcia pamięci
autobiograficznej elementy doświadczenia jednostki, należące do zakresu
wiedzy proceduralnej, oraz doświadczenia emocjonalne podmiotu.

Podstawowym wyróżnikiem zapisów autobiograficznych jest niewątpliwie


rodzaj materiału pamięciowego. Maruszewski (2005) podaje pięć jego
właściwości. Pierwszą jest specyficzna organizacja, oparta na regułach
rządzących przebiegiem interakcji społecznej. Do reguł tych należy
uporządkowanie zdarzeń w czasie, ale możliwy jest również porządek
tematyczny. Wcześniej autor ten (Maruszewski, 2001) przyjmował także
założenie o hierarchiczności organizacji materiału w pamięci
autobiograficznej, podobnej do tej, jaka była zakładana w odniesieniu do
wiedzy semantycznej (Collins, Quillian, 1969). Posłużmy się przykładem
samego autora. Zdarzenie „Janek dał kwiaty Marysi” może być częścią
epizodu „randka”, a ta, razem z innymi wydarzeniami, np. „zawarciem
znajomości”, „kłótniami”, „pojednaniami”, może być częścią jeszcze
bardziej ogólnego epizodu „chodzenie ze sobą” itd. Drugą właściwością
materiału autobiograficznego jest udział elementów semantycznych
i epizodycznych. Dowodzono, że pamięć autobiograficzna składała się
z dwóch rodzajów zapisów: faktów z życia jednostki i zdarzeń
odnoszących się do jej Ja. Trzecią właściwością materiału
autobiograficznego jest jego silne powiązanie z kontekstem, który stanowi
jeden z elementów zapisu autobiograficznego, jest zaś nieistotny
w przypadku wiedzy semantycznej. Czwarta cecha pamięci
autobiograficznej to silne naładowanie emocjonalne zapisywanych treści,
a ostatnia – niski stopień preparacji informacji. Nie jest ona,
w przeciwieństwie do wiedzy semantycznej, pozbawiona kontekstu
i uogólniana do – bardzo niekiedy – abstrakcyjnej postaci. Zapis w pamięci
autobiograficznej odbywa się najczęściej w formie konkretnego zdarzenia,
które odnosi się do jednostki.

Osobny problem stanowią mechanizmy funkcjonowania pamięci


autobiograficznej. Baddeley (1990) twierdzi, że pamięć autobiograficzna
korzysta z ogólnych mechanizmów pamięciowych, tyle że zastosowanych
w odniesieniu do informacji odnoszącej się do jednostki. Nawiązując
jednak do specyfiki materiału stanowiącego treści zapisów
autobiograficznych, trzeba przyjąć, że również mechanizmy ich tworzenia
mogą być unikatowe. Tego zdania wydaje się być Maruszewski (2005),
który uważa, że informacje w pamięci autobiograficznej są kodowane
odmiennie niż w innych rodzajach pamięci. Jakiekolwiek rozstrzygnięcia
w tej materii wydają się obecnie przedwczesne.

Marigold Linton (1975) twierdzi, że wspomnienia relatywnie świeże (nie


starsze niż dwuletnie) przechowywane są ze znaczącym udziałem
reprezentacji obrazowych, podczas gdy starsze – w postaci schematów.
W tym drugim przypadku, dzięki wyobrażeniom, możliwe jest
dekodowanie wspomnień do postaci obrazów, ale nie są to oryginalne
zapisy wydarzeń, które miały miejsce. Dlatego też, ze względu na
specyficzne właściwości schematów, przywołania te mogą być odległe od
prawdy, a w każdym razie od pierwotnego zapisu. Tomasz Maruszewski
i Elżbieta Ścigała (1998) uważają, że skoro pamięć autobiograficzna może
zawierać zarówno dane epizodyczne, jak i semantyczne, zapis
autobiograficzny obejmować może również informacje abstrakcyjne.
Szczególnie interesująca wydaje się specyficzna forma kodowania
informacji w postaci narracji (Rubin, 1996), czyli historii
przedstawiających ciągi zdarzeń. Wydaje się jednak, że równie dobrze
może to być specyficzna forma wydobywania, a nie kodowania informacji.

Interesujące ujęcie organizacji pamięci autobiograficznej, odwołujące się


do idei hierarchiczności, zaproponował Conway (1996a, 1996b). Jego
zdaniem pamięć autobiograficzna przyjmuje trzy formy: wiedzy na temat
okresów życia, wiedzy o zdarzeniach ogólnych i wiedzy o zdarzeniach
specyficznych. Pierwszy – najogólniejszy rodzaj wiedzy – odnosi się do
osób znaczących w życiu jednostki, jej typowych celów i planów
życiowych. Przykładem mogą być takie okresy życia, jak okres szkolny
(rozbity na bardziej szczegółowe, np. szkoły średniej albo klasy
maturalnej), staż po studiach, pierwsza praca itd. Okresy te mogą się
zazębiać, np. szkoła i pierwsza praca zarobkowa. Wiedza o zdarzeniach
ogólnych zawiera dwa typy zapisów (Barsalou, 1988): zdarzenia
powtarzające się (np. randki w okresie studiów) oraz zdarzenia pojedyncze
(np. pierwsza randka z aktualną partnerką). Z kolei wiedza specyficzna
dotyczy pojedynczych epizodów, np. czegoś szczególnego z pierwszej
randki z aktualną partnerką. Uważa się, że tego rodzaju pamięć tworzy
odrębny podsystem w pamięci autobiograficznej, na tyle niezależny, że
pewne zaburzenia pamięciowe (np. amnezja) mogą upośledzać tego typu
zapisy, bez wpływu na zapisy bardziej ogólne. Upośledzenie to jest jednak
dość specyficzne, dotyczy bowiem wiedzy jawnej, podczas gdy miary
pamięci utajonej wykazują wpływ tych zapisów na zachowanie.

8.4. Podsumowanie
Treść niniejszego rozdziału pokazuje, że pamięć nie jest zjawiskiem
jednolitym – powinno się raczej mówić o różnych rodzajach pamięci,
a używając tego terminu, należy zawsze dodać, o jaki rodzaj chodzi. Czy
jednak ta różnorodność form i typów pamięci ma rzetelne pokrycie
w faktach empirycznych, czy też jest wyrazem słowotwórczej fantazji
psychologów? Nie negując faktu, że nauka niekiedy wymyśla terminy
puste lub zbędne (bo dublują istniejące określenia), nie wolno nam
zapomnieć, że o różnorodności rodzajów pamięci świadczą twarde dowody
empiryczne, które omówiliśmy w rozdziale. Dotyczą one w szczególności
zaburzeń i defektów pamięci. Owe zaburzenia, wynikające z urazów,
chorób degeneracyjnych układu nerwowego czy po prostu znanego nam
wszystkim zapominania, mają dość wybiórczy charakter. Nie wszystkie
formy pamięci zawodzą w jednakowym czasie i według tego samego
wzorca. Inna grupa dowodów to dane dotyczące korzystania z zasobów
pamięci. Zdarza się, że informacja, niedostępna przy użyciu jednego testu
lub procedury eksperymentalnej, staje się dostępna w innych warunkach
lub paradygmatach badawczych opracowanych z myślą o swoistych
rodzajach pamięci. Dotyczy to w szczególności pamięci niejawnej, której
zawartość ujawnia się dopiero przy zastosowaniu bardzo specyficznych
procedur odpamiętywania. Jeszcze inne fakty wiążą się z neuronalnym
podłożem pamięci, które jest przypuszczalnie rozproszone i swoiste dla
określonych rodzajów tej zdolności. Biorąc wszystkie te argumenty pod
uwagę, trzeba przyjąć, że człowiek dysponuje raczej pamięciami niż
pamięcią, chociaż niewątpliwie wiele z tych – skądinąd oddzielnych
systemów – współpracuje podczas wykonywania określonych zadań
poznawczych.
Rozdział 9

Czynności pamięciowe

Fazy procesu pamięciowego: prawda czy złudzenie?


Zapamiętywanie
Procesy kodowania
Interferencja proaktywna
Konsolidacja śladu pamięciowego
Techniki mnemoniczne
Przechowywanie
Zapominanie
Interferencja retroaktywna
Zanikanie śladu kontra utrata dostępu
Reminiscencja
Odpamiętywanie
Rodzaje odpamiętywania
Rola wskazówek naprowadzających i kontekstu
Zawodność pamięci
Pamięć naocznych świadków
Fałszywe wspomnienia
Amnezja
Podsumowanie
Zapamiętywanie to czynność pamięciowa, polegająca na wprowadzeniu informacji do jednego
z systemów pamięci. Wymaga zakodowania informacji i utrwalenia zapisu.
Przechowywanie jest czynnością pamięciową, która polega na przeciwdziałaniu zanikowi albo
utracie dostępu do zapamiętanej informacji. W trakcie przechowywania zapisy pamięciowe mogą
być rekodowane, co prowadzi do zmian w zakresie ich treści albo sposobu uporządkowania.
Odpamiętywaniem nazywamy czynność polegającą na wykorzystaniu wcześniej zapamiętanych
informacji. Może się to dokonać poprzez odtwarzanie (przypominanie), rozpoznawanie lub niejawny
wpływ na zachowanie.

Jak zauważył Oskar Wilde, „każdy skarży się na swoją pamięć, nikt na
swój rozsądek”. Można by na tej podstawie sądzić, że wszyscy ludzie są
rozsądni, a nikt nie ma dobrej pamięci. Byłby to jednak wniosek błędny,
wywiedziony z ukrytego założenia, że ludzie dysponują trafną samooceną.
Jeśli przyjąć, że samoocena nie zawsze jest trafna, a raczej służy
podtrzymaniu dobrego mniemania o sobie samym, aforyzm Wilde’a
nasuwa inną interpretację: ludzie mogą swobodnie skarżyć się na pamięć,
bo jej błędy nie przyczyniają się do obniżenia samooceny, a unikają skarg
na brak rozsądku, gdyż w ten sposób nie dopuszczają do siebie myśli,
jakoby im go brakowało.

W tym rozdziale zajmiemy się czynnikami, które sprawiają, że ludzie


skarżą się na swoją pamięć. Te czynniki to mechanizmy zapamiętywania,
przechowywania i odtwarzania informacji zapisanych w pamięci.
Szczególną uwagę poświęcimy mechanizmom i przyczynom zapominania,
a także procesom tworzenia się zniekształceń pamięciowych. Przyjęta
przez nas perspektywa może rzeczywiście sugerować duży stopień
zawodności systemów pamięci. Psycholog koncentruje się na błędach
pamięci, bo one ujawniają mechanizm jej funkcjonowania. Jednak
statystycznie rzecz biorąc, pamięć zawodzi nas dość rzadko, a biorąc pod
uwagę ogrom pracy, jaką musi wykonać, jej wydajność trzeba ocenić jako
wręcz zdumiewającą. W pamięci każdego jej „użytkownika” utrzymują się
jednak przede wszystkim epizody pomyłek i błędów, a nie regularna,
niezawodna praca systemów przechowywania informacji, obsługujących
nie tylko zadania czysto pamięciowe (np. przygotowanie się do egzaminu),
lecz także złożone czynności poznawcze, takie jak myślenie,
rozwiązywanie problemów, rozumowanie, podejmowanie decyzji,
wydawanie sądów i przetwarzanie języka.

9.1. Fazy procesu pamięciowego: prawda czy


złudzenie?
Podstawowy podział czynności pamięciowych odwołuje się do trzech,
łatwych do intuicyjnego uchwycenia, faz procesu pamięciowego:
zapamiętywania, przechowywania i odpamiętywania informacji. Jest to
jednak podział niewystarczający, i to z kilku powodów.

Po pierwsze, każda z tych faz wiąże się z szeregiem bardziej elementarnych


procesów przetwarzania informacji, które stanowią – przynajmniej
hipotetycznie – poznawcze podłoże pamięci człowieka. Dlatego też każdą
z nich można opisać w kategoriach bardziej elementarnych czynności
pamięciowych, które dodatkowo różnią się w zależności od tego, czy
dotyczą słów lub obrazów czy też wiedzy ogólnej lub epizodów. Ta
różnorodność wiąże się zapewne ze swoistymi – być może jakościowo
różnymi – mechanizmami poznawczymi. Podstawą zapamiętywania są
mechanizmy kodowania informacji, uwarunkowane rodzajem i treścią
materiału. Obok właściwości materiału, również sposób jego poznawczej
obróbki, np. zastosowanie technik mnemonicznych, może modyfikować
charakter kodowania. Na przykład materiał werbalny dzięki wizualizacji
może zostać „przełożony” na kod wzrokowy, a abstrakcyjny ciąg symboli –
na opowiadanie o zupełnie konkretnej fabule. Wielość sposobów
poznawczej obróbki informacji, która może towarzyszyć procesowi
kodowania, sugeruje, że i mechanizmy tego procesu mogą być
zróżnicowane. Nawet jeśli roboczo przyjąć założenie o uniwersalnym
kodzie głębokich reprezentacji wiedzy, trzeba uznać, że mechanizmy ich
tworzenia są odmienne, skoro prowadzą do unifikacji zupełnie różnych
kodów sensorycznych. Właściwie tylko mechanizm kodowania oparty na
metaforze engramu – śladu, który jest pamięciowym „odciskiem” bodźca –
mógłby być uniwersalny, jednak dziś wiemy z całą pewnością, że metafora
ta jest nietrafna. Podobnie odpamiętywanie przebiega odmiennie
w zależności choćby od zastosowanej metody wydobycia informacji
z pamięci.

Po drugie, żadna z trzech faz procesu pamięciowego nie wydaje się


monolityczną i niepodzielną „cegiełką” poznawczą. Już Endel Tulving
(1976a) postulował, że w trakcie przechowywania informacji może dojść
do jej rekodowania, czyli ponownego kodowania przechowywanych
w pamięci danych, po wcześniejszym ich przywołaniu i modyfikacji.
Zjawisko rekodowania wydaje się zatem składać z trzech bardziej
elementarnych faz: przywołania, modyfikacji i ponownego kodowania
zapisu pamięciowego. Z kolei Elisabeth Loftus uznała, że proces
odpamiętywania składa się z dwóch faz: przeszukiwania pamięci
i rozpoznawania, czy to, co znaleźliśmy, jest tym, czego szukaliśmy
(Loftus, Loftus, 1976). Wydaje się zatem, że lista czynności pamięciowych
jest najprawdopodobniej znacznie dłuższa, niż się to intuicyjnie wydaje.
Tulving (1976a) wyróżnił ich łącznie siedem, co jest, być może, równie
odległe od prawdy jak model trzech faz. Rozmaite mechanizmy obróbki
materiału w procesie kodowania, a potem odpamiętywania, mogą tę liczbę
dodatkowo modyfikować. Na przykład użycie techniki mnemonicznej,
dzięki której materiał werbalny ulega przetransformowaniu na drodze
wizualizacji w materiał obrazowy (wyobrażeniowy) – mimo że nie jest
procesem stricte pamięciowym – wydaje się istotnie komplikować fazę
zapamiętywania. Pojawiają się w niej bowiem dwa procesy kodowania:
werbalny i wzrokowy, które mogą zachodzić jednocześnie. Co więcej, ślad
pamięciowy jest wynikiem obróbki stymulacji zewnętrznej, która zachodzi
być może w stałej sekwencji wspomnianych trzech albo innej liczby faz.
Ale kodowanie dotyczy nie tylko stymulacji zewnętrznej. Wspominaliśmy
o zapamiętywaniu poznawczych „produktów” aktywności umysłowej, np.
wnioskowania, które mogą stanowić dla jednostki nową wiedzę, chociaż
niepochodzącą z zewnątrz.

Po trzecie, zdarzają się też przypadki, w których model trzech faz


pamięciowych okazuje się nieadekwatny. Najczęściej spotykane
odstępstwo od tego modelu dotyczy braku fazy odpamiętania, co zdarza się
nawet wtedy, gdy doskonale wiemy, że pewną informację powinniśmy
pamiętać. Wiąże się to z mechanizmem zapominania, które może wynikać
nie tylko z zacierania się śladów pamięciowych, lecz także z utraty dostępu
do informacji (zob. podrozdz. 9.2.3). Inny przykład to konfabulacja, która
może być rozumiana jako „odpamiętanie” informacji wcześniej
niezapamiętanej. Konfabulacja obiektywnie jest odpamiętaniem, chociaż
rzeczywiście może być zapisanym w pamięci produktem wnioskowania.
Należałoby więc o niej mówić nie – jak tradycyjnie – w kontekście
zaburzeń pamięci, ale raczej zaburzeń myślenia. Inne zjawisko – dejà vu,
z perspektywy psychologii pamięci jest rozpoznaniem, czyli formą
odpamiętania, ale bez uprzedniego kodowania danych i przechowywania
śladu pamięciowego. Zjawisko to polega na rozpoznaniu sytuacji, w której
się znaleźliśmy, jako doskonale znanej, chociaż obiektywnie jest ona nowa
(np. miejsce, w którym jesteśmy po raz pierwszy). Rozpoznaniu temu
dodatkowo towarzyszy poczucie, że wiemy, co za chwilę nastąpi.
Wyjaśnieniem tego efektu może być typowość nowej sytuacji, która
pozwala na konstruowanie „wspomnienia” z udziałem skryptów
poznawczych.

Reasumując, sprowadzenie procesów pamięciowych do trzech – czy innej


liczby – faz wydaje się zabiegiem o charakterze bardziej porządkującym
niż wyjaśniającym przebieg procesu pamięciowego. Uporządkowanie to
jest zresztą powierzchowne, zapamiętywanie, przechowywanie
i odpamiętywanie są bowiem swego rodzaju etykietami, pod którymi kryje
się wiele bardziej elementarnych procesów pamięciowych. Podział ten
wydaje się więc niewystarczający, a nawet może wprowadzać w błąd, jeśli
uwzględnić zjawiska, w których pojawia się tylko jedna faza procesu
pamięciowego. Psychologia nie doczekała się ogólnej teorii procesów
pamięciowych, która w zadowalający sposób wyjaśniałaby opisane
w literaturze różne efekty szczegółowe. W celach porządkujących
zachowano jednak w dalszych częściach rozdziału podział na trzy fazy
procesu pamięciowego.

O zapamiętywaniu, przechowywaniu i odpamiętywaniu była mowa


w rozdziałach dotyczących pamięci (zob. rozdz. 8) i wiedzy (zob. rozdz. 4).
Każda z rozważanych tam propozycji teoretycznych inaczej ujmuje
mechanizmy owych faz, na co na bieżąco zwracaliśmy uwagę. W dalszej
części rozdziału ponownie zajmiemy się fazami procesów pamięciowych,
ale mówić będziemy o czynnikach mających pozytywny czy negatywny
wpływ na ich przebieg. Innymi słowy, niezależnie od wyjaśnień
dotyczących mechanizmów, np. zapamiętywania, pamięci deklaratywnej
czy proceduralnej, skupimy się na czynnikach wspomagających przebieg
podstawowych czynności pamięciowych albo w nim przeszkadzających.

O procesach zapamiętywania, podobnie jak przechowywania, wnioskujemy


pośrednio, opierając się na wynikach odpamiętywania. Różnica między
nimi polega na tym, że o zapamiętywaniu wnioskujemy na podstawie
manipulacji dokonywanych w obrębie materiału, podczas gdy
o przechowywaniu – manipulując w obrębie przechowywanych śladów
pamięciowych. Należy zaznaczyć, że mimo klarownej różnicy między
obydwoma sposobami manipulacji, trudno precyzyjnie oddzielić
wynikające z nich wpływy. Odwołajmy się do klasycznego badania
Frederica Bartletta (1932), skonstruowanego na zasadzie znanej zabawy
grupowej w „głuchy telefon”. Osoba badana zapoznawała się z pewną
opowieścią, baśnią indiańską pt. Wojna duchów, którą miała powtórzyć
kolejnej osobie. Ta z kolei miała powtórzyć ją następnej i tak kilka razy.
Baśń, co sugeruje jej tytuł, zawierała elementy magiczne, które mogły być
niezrozumiałe dla reprezentantów kultury zachodniej biorących udział
w badaniach. Bohater opowieści, młody Indianin, brał udział w tytułowej
wojnie duchów, w której został zraniony. Tak twierdzili obecni przy nim
wojownicy, on sam jednak tego nie czuł. Kiedy wrócił do wioski,
opowiedział wszystkim współplemieńcom o swojej przygodzie. Podkreślił,
iż wołano, że został trafiony, choć tego nie czuł. Kiedy młodzieniec
skończył opowieść i wzeszło słońce, padł martwy, a z jego ust wydobyło
się coś czarnego.

Bartlett opisuje wiele sposobów, według których przekształcono wyjściową


opowieść, mimo że osoby badane miały ją wiernie powtórzyć. Było jednak
kilka prawidłowości dotyczących kolejnych przekształceń. Po pierwsze,
następujące po sobie wersje opowieści pozbawiano elementów
niezrozumiałych w kulturze zachodniej. Umykała w ten sposób istota
baśni, dotycząca odniesionej w bitwie przez głównego bohatera rany, której
nie doznało wcale jego ciało. W bitwie ranny został jego duch, dlatego na
końcu opowieści opuszcza on ciało, które umiera. Kolejne wersje
opowiadań podlegały zatem modyfikacjom, polegającym na dopasowaniu
ich do schematów właściwych kulturze zachodniej. Po drugie, opowiadania
były coraz krótsze, co w połączeniu ze zmianą treści prowadziło do
wypracowania takiej wersji historii, którą przekazywano już bardzo
wiernie. Po trzecie, skracanie opowieści, polegające na usuwaniu kolejnych
wątków, odbywało się w określonej kolejności. Najpierw eliminowano
elementy niezrozumiałe, np. informację, że młodzieniec został
w przedziwny sposób ranny, a niekoniecznie te, które były poboczne dla
głównego wątku.

To interesujące badanie, niewątpliwie ekologicznie trafne, nie jest wcale


proste w interpretacji w kategoriach mechanizmów procesów
pamięciowych. Wydaje się, że trudno było zapamiętać wszystkie szczegóły,
choćby ze względu na długość pierwotnej wersji opowieści. Poza tym – jak
słusznie zauważa sam autor – treść opowiadania, nałożona na wcześniej
ukształtowane schematy poznawcze, mogła ulec znacznej modyfikacji.
Schematy przypuszczalnie wpływały na fazę kodowania informacji.
Przekazując treść opowiadania, badani dokonywali szeregu modyfikacji,
polegających głównie na selektywnym przywoływaniu informacji
i niepotrzebnym włączaniu do opowieści informacji nowych. Czyniły ją
one bardziej zrozumiałą dla kolejnych badanych, ale zupełnie zmieniały jej
sens. Tytułowa wojna duchów przekształcała się np. w regularną bitwę,
w której młodzieniec ginął w wyniku przecięcia nadgarstków, z nich zaś
wypłynęła ciemna, prawie czarna krew. Czynniki te mogły wpływać na
fazę odtwarzania, a nie na przechowywanie materiału. Ponieważ nie
wiemy, czym by się różniły kolejne odtworzenia tej samej osoby, nie
wiemy też, co się działo z zapisem pamięciowym baśni wraz z upływem
czasu albo w związku z kolejnymi próbami jej odtworzenia. Również
wyniki późniejszych badań eksperymentalnych bywają trudne do
precyzyjnej interpretacji w kategoriach mechanizmów konkretnych faz
pamięciowych.

Konkludując, wydaje się, że fazowe ujęcie procesu pamięciowego jest


trafne, jeśli nie będziemy precyzować ani liczby, ani kolejności, ani
uogólnionych charakterystyk wyróżnianych faz. Jedyne, co pozostaje
z właściwości tego ujęcia, to jego fazowość, więc – co za tym idzie – ma
ono charakter bardziej porządkujący niż wyjaśniający.

9.2. Zapamiętywanie

9.2.1. Procesy kodowania


Kodowanie jest definiowane jako automatyczny proces tworzenia
reprezentacji informacji w pamięci. Dwa obszernie omówione ujęcia
teoretyczne procesu kodowania informacji w systemie poznawczym
człowieka to: teoria poziomów przetwarzania Fergusa Craika i Roberta
Lockharta (1972; zob. podrozdz. 8.1.3) i teoria podwójnego kodowania
Allana Paivio (1971; zob. podrozdz. 2.3.2). W tym miejscu skupimy się na
wybranych badaniach poświęconych kodowaniu informacji w pamięci
długotrwałej. Podstawowym, a zarazem praktycznym ich celem było
poszukiwanie czynników mających wpływ na przebieg pierwszej fazy
procesu pamięciowego. Są to przecież czynniki, których planowe
wykorzystanie może usprawnić zapamiętywanie, a przynajmniej osłabić
wpływ czynników zakłócających.

Hermann Ebbinghaus jest uznawany za pioniera badań eksperymentalnych


nad pamięcią, głównie zapamiętywaniem i odpamiętywaniem. Wprowadził
on paradygmat, w którym pamięć bada się z użyciem bezsensownego
materiału, dzięki czemu – jak zakładał – zyskuje się dostęp do
„naturalnych” procesów pamięciowych. Zabieg ten, z pozoru paradoksalny,
pozwala na wyeliminowanie wpływu uprzedniej wiedzy na
zapamiętywanie. Jego paradoksalność polega na wyłączeniu czynnika,
który jest kluczowy dla nabywania nowej, sensownej dla podmiotu wiedzy.
Uprzednia wiedza jednak jest źródłem czynników trudnych do
kontrolowania, które Ebbinghaus, zainteresowany ogólnymi regułami
działania pamięci, chciał wyeliminować (zob. Tulving, 1985a).

W badaniach, opublikowanych w klasycznej pracy z 1885 r., Ebbinghaus


(1885/1913) wykorzystywał listy bezsensownych sylab, składających się
z dwóch spółgłosek i jednej samogłoski, np. zap, lif. Zdaniem badacza tego
typu materiał jest homogeniczny i przy wystarczająco dużym tempie
prezentacji – niepodatny na stosowanie technik mnemonicznych. Każdą
z wygenerowanych przez siebie 2300 sylab Ebbinghaus zapisał na osobnej
kartce, które – losowo dobrane – tworzyły listy o długości od 7 do 36
elementów. Prezentacja odbywała się w takt metronomu w tempie 400 ms
na sylabę. Przerwa między ekspozycją materiału z listy i próbą jej
odtworzenia wynosiła 15 s. W badaniach brała udział tylko jedna osoba,
którą był sam Ebbinghaus.

Pierwsze ustanowione w ten sposób prawo dotyczyło związku liczby


powtórzeń niezbędnych do zapamiętania listy w funkcji liczby
składających się na nią sylab. Jako kryterium zapamiętania przyjęto jedno
bezbłędne powtórzenie całej listy. Wyniki Ebbinghausa wskazywały na
krzywoliniowy związek długości listy z liczbą powtórek, których należy
dokonać w celu jej zapamiętania (ryc. 9.1).
RYCINA 9.1. Zależność między długością listy elementów a liczbą powtórzeń niezbędnych do
jej bezbłędnego odtworzenia
Źródło: opracowanie własne za Tulving, 1985a, s. 488, na podstawie danych Ebbinghausa,
1885/1913.

Liczba powtórzeń materiału jest więc pierwszym czynnikiem, który ma


istotny wpływ na efektywność kodowania w pamięci długotrwałej (long
term memory, LTM). Przypomnijmy jednak, że Fergus Craik i Michael
Watkins (1973) wykazali, że liczba powtórzeń – w tym przypadku słów –
nie wpływa na poziom ich późniejszego odtworzenia, jeśli powtórkom nie
towarzyszy pogłębienie przetwarzania (zob. podrozdz. 8.1.3). Klasyczne
wyniki Ebbinghausa skłaniają do refleksji nad poprawnością wniosków
Craika i Watkinsa, trudno bowiem sobie wyobrazić, jaki rodzaj pogłębienia
może towarzyszyć powtarzaniu bezsensownych sylab. Założenie teorii
Craika i Lockharta mówi, że pogłębienie przetwarzania w przypadku
materiału werbalnego jest możliwe dzięki analizie semantycznej.
Ebbinghaus twierdził, że nie stosował żadnych technik mnemonicznych,
dzięki którym mógłby nadać jakieś znaczenie sylabom, ponieważ – jak
twierdził – nie miał żadnego doświadczenia w ich wykorzystywaniu.
Wydaje się zatem, że powtarzanie samo w sobie może być czynnikiem
pozytywnie wpływającym na zapamiętywanie. Pojawia się jednak pytanie,
jaki jest poznawczy mechanizm tego efektu.

Tulving (1985a) jest zdania, że Ebbinghaus, poddając się długim seriom


badań, nabywał nie tylko wiedzę semantyczną dotyczącą symbolicznej
reprezentacji listy sylab, czyli to, co było właściwym przedmiotem jego
badań. Nabywał również wiedzę proceduralną, dotyczącą szybkiego
„deklamowania” zestawu sylab. Zatem wyniki jego eksperymentów były
rezultatem interakcji obu rodzajów wiedzy. Argumentem, jaki przytoczył
Tulving, były wyniki samego Ebbinghausa, dotyczące tzw. oszczędności
przy ponownym uczeniu się. Ebbinghaus chciał sprawdzić, jak szybko
uzyska poziom bezbłędnego odtworzenia listy 12, 24 albo 36 sylab po 24
godzinach od jej pierwszego zapamiętania. Badacz zastosował manipulację
polegającą na zmiennej liczbie powtórzeń listy w pierwszym dniu: od 8 do
64. W trakcie ponownego uczenia się na drugi dzień wykorzystał dwa
rodzaje list: identyczne i zmienione w stosunku do użytych w pierwszym
dniu. Zmiana polegała na usunięciu jednej sylaby z oryginalnej listy.
Rycina 9.2 przedstawia uzyskane rezultaty w kategoriach czasu
zaoszczędzonego w trakcie ponownego uczenia się. W przypadku
ponownego uczenia się identycznej listy zaoszczędzony czas okazał się
liniową funkcją liczby jej powtórzeń w pierwszym dniu. W wypadku
zmienionych list efekt oszczędności był słaby i począwszy od 32
powtórzeń oryginalnej listy, nie ulegał dalszym zmianom. Ponadto
Ebbinghaus zaobserwował różnicę w liczbie powtórzeń zaoszczędzonych
w procedurze ponownego uczenia się w zależności od długości listy. Było
to odpowiednio 33% w przypadku listy złożonej z 12 sylab, 50% dla 24
sylab i 58% dla 36 sylab.
RYCINA 9.2. Oszczędność czasu przy ponownym uczeniu się w drugim dniu oraz funkcja
liczby powtórzeń w pierwszym dniu
Źródło: opracowanie własne za Tulving, 1985a, s. 488, na podstawie danych Ebbinghausa,
1885/1913.

Zdaniem Tulvinga (1985a) wyniki Ebbinghausa świadczą o udziale


w odtwarzaniu materiału nie tylko wiedzy semantycznej, lecz także
proceduralnej, ponieważ rozbieżność semantyczna list identycznych
i zmienionych była niewielka, a różnica w zaoszczędzonym czasie
ponownego uczenia się – bardzo duża. Znacznie słabszy efekt oszczędności
przy ponownym uczeniu się zmienionej listy jest, według Tulvinga,
skutkiem wykorzystania tylko wiedzy semantycznej, nabytej w takcie
zapamiętywania oryginalnych list w pierwszym dniu badania. To, że efekt
oszczędności w ogóle wystąpił, było natomiast skutkiem wykorzystania
wiedzy proceduralnej.

Obok liczby powtórzeń również ich rozłożenie w czasie wykazało istotny


wpływ na zapamiętywanie. Problemem tym jako pierwszy zajął się Adolf
Jost (1897), który sformułował słynne prawo, mówiące, że jeżeli dwa
skojarzenia mają jednakową siłę, ale jedno z nich jest starsze od drugiego,
to skojarzenie chronologicznie wcześniejsze będzie bardziej podatne na
dobroczynny wpływ ponownego uczenia się. Jost prezentował osobom
badanym (n = 2) ciągi bezsensownych sylab w dwóch warunkach.
Pierwszy polegał na zapamiętywaniu listy w procedurze skomasowanego
uczenia się, co oznaczało jej 30-krotne powtórzenie w ciągu jednej sesji. Po
upływie jednego dnia zastosowano procedurę ponownego uczenia się, aż
do jednokrotnego bezbłędnego powtórzenia całej listy. W drugim warunku
– rozłożenia prób w czasie – zapamiętywanie listy rozbito na 10 powtórzeń
w ciągu trzech kolejnych dni. W czwartym dniu zastosowano, podobnie jak
w warunku pierwszym, procedurę ponownego uczenia się. Średnia liczba
powtórzeń koniecznych do uzyskania jednego bezbłędnego odtworzenia
materiału w warunku skomasowanego uczenia się wyniosła 9, a w warunku
rozłożenia powtórek w czasie – 7,6.

Zjawisko to badał również Carl Hovland (1938), manipulując nie tylko


długością przerwy między kolejnymi powtórzeniami całej listy, lecz także
przerwą między ekspozycją poszczególnych jej elementów. Osoby badane
zapamiętywały ciąg 12 bezsensownych sylab, eksponowanych w tempie 2
lub 4 s na każdy element ciągu. W metodzie skomasowanego uczenia się
przerwa między ciągami sylab wynosiła 6 s, a w metodzie rozłożenia
w czasie – 2 min i 6 s. Wyniki jednoznacznie wskazywały na wpływ tempa
prezentacji elementów listy na efektywność zapamiętywania, ale nie
wykazały systematycznego wpływu przerwy między kolejnymi
powtórzeniami całej listy. Innymi słowy, dłuższa przerwa między
ekspozycją elementów listy wpływała pozytywnie na zapamiętanie,
podczas gdy długość przerwy między kolejnymi próbami uczenia się całej
listy nie miała związku z efektywnością zapamiętania. Z kolei Roland
Travis (1937) manipulował przerwą czasową między pierwszym
i ponownym uczeniem się materiału w przedziale od 30 s do 48 godz.
Badacz wykazał, że do bezbłędnego odpamiętania listy wystarczą średnio
cztery powtórzenia w trakcie ponownego uczenia się, jeśli odstęp w czasie
wynosi od 10 min do 24 godz. (ryc. 9.3). Wydaje się, że wyniki Travisa
można wyjaśnić, odwołując się do mechanizmu konsolidacji, czyli
utrwalenia śladu pierwszego uczenia się w pamięci długotrwałej.
Konsolidacja zapewnia zwiększoną odporność materiału na upływ czasu
i wpływ czynników dystrakcyjnych (zob. podrozdz. 9.1.3). W badaniach
Hovlanda przerwa między pierwszym i ponownym uczeniem się była, jak
się wydaje, zbyt krótka (maksymalnie 2 min i 6 s), aby proces konsolidacji
mógł istotnie wzmocnić pozytywny efekt rozłożenia powtórek w czasie.
Uzyskany przezeń istotny wpływ tempa ekspozycji materiału na
zapamiętanie można wyjaśnić większą efektywnością kodowania
informacji w takich warunkach, co pozwala na ewentualne zastosowanie
technik mnemonicznych (zob. podrozdz. 9.1.4).

RYCINA 9.3. Związek odstępu czasu między kolejnymi powtórzeniami materiału a liczbą
powtórzeń, konieczną do uzyskania kryterium jednego bezbłędnego powtórzenia całej listy
Źródło: opracowanie własne na podstawie Travis, 1937.

Bardzo interesujące badania nad zapamiętywaniem przeprowadzili Harry


Bahrick, Lorraine Bahrick i Audrey Bahrick (1993). Wszyscy autorzy
uczyli się języka obcego przez 4 lata, po czym testowali pamięć słówek
przez następnych 5 lat. Manipulacja, którą zastosowali, dotyczyła właśnie
przerwy między kolejnymi powtórzeniami materiału w ciągu 4 lat nauki.
Wynosiła ona 2, 4 albo 8 tygodni. Wyniki ich badań wskazywały na dwie
prawidłowości (ryc. 9.4). Po pierwsze, okazało się, że im dłuższa przerwa
między kolejnymi powtórzeniami materiału, tym lepsze jego pamiętanie,
niezależnie od czasu, jaki upłynął od zakończenia nauki. Po drugie, istotny
spadek liczby odtworzonych słówek był słabszy w przypadku najdłuższej
przerwy, a największy – najkrótszej przerwy między kolejnymi
powtórzeniami. Innymi słowy, dłuższe przerwy między powtórzeniami
wpływały pozytywnie na zapamiętywanie zarówno w zakresie jego
efektywności, jak i odporności na upływ czasu.
Grupowanie kategorialne (categorical clustering) – organizowanie zapamiętywanego materiału ze
względu na kategorie, do których należą jego elementy; w swobodnym odtwarzaniu prowadzi do
ułatwienia w odpamiętywaniu materiału.

Kolejnym czynnikiem o kluczowym wpływie na zapamiętywanie jest


organizacja materiału. Bousfield (1953) zaprezentował dwóm grupom osób
badanych listy złożone z 60 słów. W pierwszej grupie były to słowa
z kategorii ogólnej, czyli niedające się pogrupować w mniejsze kategorie.
W grupie drugiej znajdowały się słowa należące do czterech łatwych do
wyróżnienia kategorii: zwierząt, imion, zawodów i warzyw. W obu grupach
słowa prezentowano w porządku losowym. Następnie zadaniem
uczestników eksperymentu było swobodne odtworzenie jak największej
liczby słów. Okazało się, że w drugiej grupie badani odtwarzali słowa nie
w kolejności ich ekspozycji, lecz według kategorii materiału. Co więcej,
poziom odtworzenia był wówczas istotnie wyższy niż w wypadku
materiału niepowiązanego kategorialnie. Efekt ten nazwano grupowaniem
kategorialnym (categorical clustering). Jego mechanizm przypuszczalnie
polega na kojarzeniu danego słowa ze strukturami wyższego rzędu,
reprezentującymi nazwę kategorii. W odpamiętywaniu, zdaniem autora,
wystarczy przypomnienie sobie jednego pojęcia, aby aktywować całą
kategorię, do której ono należy, a to ułatwia odtwarzanie kolejnych
egzemplarzy. Z kolei James Deese (1959a) wykrył, że związki
skojarzeniowe między słowami z listy są predyktorem liczby
odpamiętanych słów oraz liczby intruzji, czyli wtrąceń słów, które wiążą
się z daną kategorią, ale nie były prezentowane osobom badanym. Intruzje,
pojawiające się częściej w materiale dającym się łatwo kategoryzować niż
materiale trudnym do kategoryzacji, wskazują na trafność koncepcji
grupowania kategorialnego według Bousfielda. Skoro aktywacja danej
kategorii facylituje odtwarzanie jej egzemplarzy, w odtworzeniu mogą się
pojawić pojęcia do niej należące, mimo że nie były wcześniej
prezentowane.

RYCINA 9.4. Poprawność odtworzenia słówek języka obcego jako funkcja przerw między
ponownym uczeniem się (14, 28 i 56 dni) i upływu czasu
Źródło: opracowanie własne na podstawie Bahrick i in., 1993.
Inne właściwości organizacji materiału wykryła Nancy Frost (1972).
Badaczka pokazywała uczestnikom eksperymentu zestaw rysunków,
informując ich, że będą badani albo testem rozpoznawania, albo testem
swobodnego odtwarzania. W przeprowadzonym teście rozpoznawania
w części rysunków zastosowano manipulację perspektywą: przedstawiały
one te same obiekty, które pokazywano w fazie zapamiętywania, ale ich
wygląd został zmieniony. Frost założyła, że gdyby kodowanie materiału
wizualnego miało charakter wyłącznie werbalny, nie powinno mieć
znaczenia, czy rysunek pokazywany w teście rozpoznawania jest
identyczny z pierwowzorem. Okazało się jednak, że czas reakcji
w przypadku rysunków przedstawiających obiekty w innej perspektywie
był dłuższy (średnio o 180 ms) niż w przypadku rysunków identycznych.
Wskazywało to na udział w procesie kodowania zarówno semantycznych,
jak i wizualnych cech materiału obrazkowego, ale tylko wówczas, gdy
osoby badane były przygotowane na test swobodnego odtwarzania. Kiedy
uprzedzono, że czeka je test rozpoznawania, czas reakcji na obiekty
pokazywane w oryginalnej i zmienionej perspektywie nie różnił się
istotnie. Sugerowałoby to selektywne, wyłącznie werbalne kodowanie
prezentowanych rysunków, zgodne z hipotezą „skąpca poznawczego”
Susan Fiske i Shelley Taylor (1991; zob. rozdz. 1). Zapamiętanie nazw
obiektów stanowi minimum, które wystarcza do efektywnego rozpoznania,
podczas gdy mogłoby okazać się nieefektywne w swobodnym
odpamiętaniu. Zatem ucząc się pod kątem testu swobodnego odtwarzania
(np. egzaminu ustnego), zapamiętujemy materiał wieloaspektowo, podczas
gdy do rozpoznawania (np. testu wyboru) kodujemy minimalną liczbę
informacji, która pozwoli nam na różnicowanie treści znanych od
nieznanych.
W innym eksperymencie Frost zaprezentowała 16 rysunków, należących do
czterech kategorii semantycznych: ubrań, zwierząt, pojazdów i mebli.
Ponadto każdy z czterech rysunków w danej kategorii został poddany
specyficznej manipulacji, polegającej na zmianie sposobu jego wizualnej
prezentacji. Rysunki były eksponowane pionowo bądź poziomo oraz
pochylone w lewą lub w prawą stronę. Wyniki Frost wskazywały, że
odpamiętywanie może się odbywać z uwzględnieniem zarówno klucza
semantycznego, jak i wizualnego. Oznacza to, że oba typy wskazówek
muszą być wykorzystane w trakcie kodowania materiału.

Organizacja materiału, mająca niewątpliwy wpływ na zapamiętywanie, nie


jest jednak cechą samego materiału, lecz wynika z uprzedniej wiedzy
jednostki. Gdyby nie ta wiedza, niemożliwe byłoby włączenie kategorii
semantycznych w trakcie zapamiętywania. Materiał, który składałby się
z egzemplarzy kategorii niewychwyconych przez osoby badane, byłby tak
samo trudny do odpamiętania jak materiał obiektywnie niepoddający się
grupowaniu. Dowiedli tego Gordon Bower i współpracowicy (Bower,
Clark, Lesgold, Winzenz, 1969), prezentując osobom badanym listę
z nazwami minerałów. Dla przeciętnie wykształconej osoby badanej lista ta
zawierała pojęcia należące do jednej kategorii, więc nie można było ich
pogrupować. Badacze podzielili osoby badane na dwie grupy. Jedna
otrzymała listę w postaci hierarchicznego zbioru, który dostarczał wiedzy
na temat sposobu grupowania minerałów. Druga grupa otrzymała listę tych
samych minerałów, ale bez żadnej podpowiedzi. Po czterech ekspozycjach
materiału pierwsza grupa uzyskała wskaźnik poprawności na poziomie
100% (95% już po drugiej ekspozycji), podczas gdy grupa druga – na
poziomie 63%. Co ciekawe, ten ostatni wynik był niższy od uzyskanego
w pierwszej grupie już po jednokrotnej ekspozycji listy. Wyniki te
zreplikowano m.in. w odniesieniu do tytułów piosenek, które były
eksponowane jako sensownie pogrupowane albo w porządku losowym
(Halpern, 1986).
Elaboracja (elaboration) – opracowanie materiału polegające na nadaniu głębszego znaczenia
informacji podlegającej kodowaniu; specyficznymi formami elaboracji są: powiązanie materiału
z posiadaną wiedzą, poszukiwanie dodatkowych informacji, które prowadzą do jego
doprecyzowania i uszczegółowienia, a także poszukiwanie wyjaśnień, jeśli są potrzebne, aby
zrozumieć materiał.

Kolejnym czynnikiem wpływającym na zapamiętywanie jest elaboracja


(elaboration), czyli opracowanie materiału, polegające na dodaniu do
informacji czegoś, czego w niej oryginalnie nie było. Opracowaniem może
być już samo powiązanie materiału z posiadaną wiedzą, tym bowiem,
czego na początku w nim nie było, są nowe dla jednostki związki
semantyczne. Elaboracja może wyzwolić poszukiwanie dodatkowych
informacji, które prowadzą do doprecyzowania i uszczegółowienia
materiału. Specyficzną jej odmianą jest poszukiwanie wyjaśnień, jeśli są
potrzebne, aby lepiej zrozumieć materiał (np. wyników badań
empirycznych dotyczących freudowskiego wyparcia, które pozwolą
odnieść jego mechanizmy do funkcjonowania pamięci). Słowem,
elaboracja służy nadaniu głębszego znaczenia informacji podlegającej
kodowaniu. W języku teorii poziomów przetwarzania elaboracja prowadzi
do pogłębienia przetwarzania.

Barry Stein i John Bransford (1979) badali wpływ elaboracji na


zapamiętywanie. Badacze prezentowali osobom badanym trzy rodzaje
zdań. Pierwszy stanowiły proste zdania oznajmujące, np. „Gruby
mężczyzna przeczytał napis”. Zdania te zostały tak skonstruowane, aby
trudno je było opracować. W zdaniach drugiego rodzaju zawarto
dodatkowe informacje, były one jednak nieistotne dla pogłębionego
zrozumienia treści, np. „Gruby człowiek przeczytał napis, który miał 60 cm
wysokości”. Informacja o wysokości napisu nie prowadzi do pogłębienia
semantycznej analizy przekazu i nie wzbogaca naszej wiedzy o sytuacji
mężczyzny. Trzeci rodzaj zdań również wzbogacono o dodatkowe, ale tym
razem istotne informacje, np. „Gruby mężczyzna przeczytał napis
ostrzegający przed cienkim lodem”. Niewątpliwie semantycznie
najbogatsze jest zdanie trzecie, nie tylko bowiem zawiera wyjaśnienie,
o jaki napis chodzi, ale stanowi pewne uzasadnienie dla użytego w zdaniu
przymiotnika „gruby”. W ten sposób można było eksperymentalnie
manipulować poziomem „elaboracji”. Następnie osoby badane
otrzymywały serię prostych zdań z brakującym elementem w miejscu
przymiotnika, który należało sobie przypomnieć (np. „gruby”). Osoby,
którym prezentowano zdania proste, były w stanie poprawnie odtworzyć
42% przymiotników, podczas gdy osoby, które czytały zdanie wzbogacone
istotną elaboracją – aż 74%. Co ciekawe, w przypadku zdań z elaboracją
nieistotną poziom odtworzenia był istotnie niższy niż w warunku
„neutralnym” i wynosił 22%.

Wpływ na zapamiętywanie ma również zgodność kontekstu


zapamiętywania i odtwarzania. Duncan Godden i Alan Baddeley (1975)
dowiedli, że poprawność odtworzenia rośnie z około 20 do 30%, czyli
o połowę, kiedy zgodność taka występuje (ryc. 9.5). Autorzy zbadali grupę
płetwonurków, którzy uczyli się listy słów w jednej z dwóch sytuacji: albo
pod wodą, albo na lądzie. Następnie testowano odtwarzanie zapamiętanego
materiału, przy czym test mógł odbywać się w miejscu zgodnym albo
niezgodnym z kontekstem uczenia się. Rezultaty późniejszych badań
nakazywały ograniczyć zakres efektu kontekstu do testów opartych na
swobodnym odtwarzaniu. Kiedy Godden i Baddeley (1980) zastosowali
test rozpoznawania, wpływ zgodności kontekstu zapamiętywania
i odpamiętywania okazał się nieistotny. Steven Smith i Edward Vela (2001)
dowodzą, że efekt kontekstu występuje wówczas, gdy po prostu jego
elementy są włączane w strukturę zapamiętywanego materiału.
Wspominaliśmy, że nawet wiedza semantyczna może być kodowana przy
współudziale pamięci epizodycznej. W tym przypadku kontekst, będący
integralną właściwością zapamiętywanego epizodu, stanowi zestaw
wskazówek wykorzystywanych przy wydobyciu wiedzy semantycznej.
Jeśli jednak kontekst jest ubogi, np. podczas monotonnego „wkuwania”
wiedzy z książki, nie będzie miał wpływu na odtwarzanie, nie dostarczy
bowiem dystynktywnych wskazówek wydobycia. Wygląd pokoju do nauki
lub biblioteki z pewnością nie będzie ignorowany, ale jako jedyna
wskazówka kontekstualna dla obszernego i różnorodnego materiału nie
pomoże w jego wydobyciu.
RYCINA 9.5. Odsetek rozpoznanych słów w zależności od zgodności kontekstu uczenia się
i odpamiętywania
Źródło: opracowanie własne na podstawie Godden, Baddeley, 1975.

Efekt specyficzności kodowania (specificity of encoding) – zjawisko polegające na ułatwieniu


odpamiętania informacji, jeśli występuje zgodność wskazówek wykorzystanych w trakcie
kodowania i wydobywania informacji.

Z kontekstem zapamiętywania wiąże się tzw. efekt specyficzności


kodowania (encoding specificity effect), opisany przez Endela Tulvinga
i Donalda Thomsona (1973). W przeprowadzonych badaniach zastosowali
oni dość nietypową procedurę eksperymentalną, która składała się
z czterech faz (tab. 9.1). W pierwszej fazie osobom badanym pokazano 24
pary słów, polecając zapamiętanie tylko drugiego słowa. Wyrazy te miały
więcej niż jedno znaczenie, np. light jako rzeczownik „światło” albo
przymiotnik „lekki”. W instrukcji zwrócono uwagę, że pierwsze słowo
w parze może być pomocne w zapamiętaniu drugiego (np. headlight to
reflektor samochodowy). W drugiej fazie badań uczestnicy wykonywali
test wolnych skojarzeń, wymagający wygenerowania sześciu skojarzeń
w odpowiedzi na podane słowo. To ostatnie tak dobrano, aby tworzyło
silny związek skojarzeniowy ze słowem docelowym z pierwszej fazy badań
(np. dark – ciemność). Większość osób badanych wśród sześciu skojarzeń
podawała wyraz „światło”, co – zgodnie z założeniami badaczy – miało
aktywować jedno, określone znaczenie słowa docelowego light. W kolejnej
fazie osoby badane miały za zadanie rozpoznanie wśród wygenerowanych
przez siebie skojarzeń tego słowa, które było wcześniej umieszczone na
liście słów do zapamiętania. Rozpoznanie odbywało się więc w innym
kontekście semantycznym niż zapamiętywanie w pierwszej fazie
eksperymentu. Na koniec osoby badane wykonywały test odtwarzania na
podstawie wskazówki (cued recall). Ich zadanie polegało na odtworzeniu
słowa docelowego na podstawie pierwszego wyrazu z pary prezentowanej
w fazie pierwszej.

TABELA 9.1. Plan eksperymentu Tulvinga i Thomsona (1973) dotyczącego efektu


specyficzności kodowania
1. Uczenie się listy: zapamiętaj słowa napisane wielkimi literami.

Wskazówka Słowo

Head LIGHT

Grasp BABY

2. Wolne skojarzenia: wymyśl 6 słów do każdego z przedstawionych słów.

Słowo Skojarzenia

Dark light, black, room,...

Infant sleeping, bottle, baby,...

3. Zaznacz te słowa wśród twoich skojarzeń, które na pierwszej liście były napisane dużymi
literami.

4. Odpamiętaj słowa napisane wielkimi literami na pierwszej liście, korzystając ze wskazówek,


które były prezentowane z nimi w parze.

Grasp

Head

Źródło: opracowanie własne.

Okazało się, że osoby badane rozpoznały poprawnie zaledwie 22% słów


docelowych, podczas gdy w odtwarzaniu na podstawie wskazówki
odpamiętały ich aż 59%. Rezultaty te są interesujące co najmniej z dwóch
powodów. Po pierwsze, wskazują wyraźnie na specyficzność kodowania
dwuznacznych słów, które w pierwszej fazie eksperymentu – dzięki
wskazówce zawartej w pierwszym słowie – kodowane były w jednym tylko
znaczeniu. Dlatego ich rozpoznanie okazało się trudniejsze niż
przypominanie. Zadanie związane z testem rozpoznania powodowało
pojawienie się słowa docelowego, ale w drugim z alternatywnych znaczeń.
Kiedy jednak w ostatniej fazie powrócono do znaczenia aktywowanego
w momencie kodowania, odtwarzając tym samym oryginalny kontekst
zapamiętywania, poprawność odpamiętania była niemal trzykrotnie wyższa
w porównaniu z fazą trzecią. I to jest drugi powód szczególnego znaczenia
badań Tulvinga i Thomsona. Badacze pokazali, że w pewnych warunkach
rozpoznanie, zazwyczaj prowadzące do lepszych rezultatów, może okazać
się trudniejsze niż przypominanie. W większości badań wyniki są
dokładnie przeciwne, co – jak twierdzą Ronald Fisher i Fergus Craik
(1977) – wynika z braku specyficznych wskazówek w procesie kodowania
i dlatego późniejsze wydobywanie odbywa się na podstawie klucza
semantycznego. Tymczasem Fisher i Craik (tamże), wykorzystując
paradygmat poziomów przetwarzania (zob. paradygmat 8.1), wykazali, że
dzięki specyficznym wskazówkom można uzyskać wyższy poziom
odpamiętania słów docelowych, opierając się na kluczu fonetycznym, a nie
semantycznym. Badacze wykorzystali manipulację głębokością
przetworzenia prezentowanych słów z klasycznej procedury Craika
i Tulvinga, ograniczając się jednak do dwóch głębszych poziomów, czyli
pomijając poziom sensoryczny. Dodatkowo wprowadzili manipulację,
która polegała na stworzeniu warunków wydobycia na podstawie
wskazówek fonetycznych albo semantycznych, przy czym wskazówki te
mogły być zgodne albo niezgodne z poziomem kodowania informacji.
W warunkach wydobycia opartych na wskazówkach fonetycznych
prezentowano słowo, które pojawiało się w fazie kodowania, ale nie było
słowem docelowym. Na przykład, jeśli w fazie kodowania pojawiało się
pytanie: „Czy słowo rymuje się ze słowem «dynia»?” (płytsze kodowanie
fonetyczne), to słowem docelowym mógł być wyraz „skrzynia” albo „targ”.
W fazie testowej jako wskazówkę fonetyczną, zgodną w tym przypadku
z poziomem kodowania, prezentowano słowo „dynia”. W przypadku
semantycznego poziomu kodowania zastosowano dokładnie taką samą
procedurę, lecz oznaczało to wówczas niezgodność wskazówki fonetycznej
z głębokim poziomem kodowania. W każdym warunku zadania osoby
badane miały przypomnieć sobie jak najwięcej słów docelowych.

Badania Fishera i Craika wykazały, że w wypadku prezentacji wskazówek


fonetycznych poziom odtworzenia słów kodowanych płytko wyniósł 40%,
a kodowanych głęboko 29%. Był więc istotnie wyższy na płytkim
poziomie przetwarzania. W wypadku wskazówek semantycznych,
podobnie jak w klasycznych badaniach Craika i Tulvinga, poziom
odtworzenia słów kodowanych głęboko był zdecydowanie wyższy (78%)
niż słów kodowanych płytko (10%). Okazało się, że specyficzność
kodowania informacji jest czynnikiem silniejszym niż poziom jej
przetworzenia.

9.2.2. Interferencja proaktywna


Interferencja proaktywna (proactive interference) – zakłócenie procesu nabywania, utrwalania
albo przechowywania nowej wiedzy, wywołane wiedzą wcześniej nabytą, o ile między tymi dwoma
rodzajami wiedzy występuje jakiś związek.

Wiedza jest zazwyczaj czynnikiem wspomagającym zapamiętanie


materiału, jeśli pozwala na jego reorganizację albo elaborację. W pewnych
okolicznościach wiedza może być jednak czynnikiem przeszkadzającym
w zapamiętywaniu nowych informacji. Zjawisko to jest ewidentne
w wypadku wiedzy proceduralnej, kiedy zmuszeni jesteśmy dokonać
modyfikacji w zakresie dobrze zautomatyzowanej czynności. Okazuje się,
że im taka czynność jest lepiej wyćwiczona, tym trudniej dokonać jej
modyfikacji bądź zastąpić ją inną czynnością, a jeśli już się to zrobi, to
trudniej sprawić, aby zmiana była trwała (Underwood, 1945; Underwood,
Postman, 1960). Jest to zjawisko tzw. interferencji proaktywnej, które
ujawnia się, kiedy dochodzi do zakłócenia procesu nabywania, utrwalania
albo przechowywania nowej wiedzy, wywołane wiedzą wcześniej nabytą,
jeśli między tymi dwoma rodzajami wiedzy występuje jakiś związek.

Odkrywca tego efektu, Hugo Munsterberg, zauważył, że kiedy zmienił


kieszeń, w której przechowywał swój zegarek, chcąc sprawdzić, która jest
godzina, wciąż sięgał do nieodpowiedniej kieszeni. Była to kieszeń,
w której wcześniej przez lata trzymał ów zegarek. W tym czasie –
behawioralnie rzecz ujmując – utrwalił związek pomiędzy bodźcem (S),
jakim było pytanie o to, która jest godzina, z reakcją (R), którą było
sięgnięcie do odpowiedniej kieszeni. Po zmianie miejsca przechowywania
zegarka połączenie S–R stało się nieadekwatne, z tym samym bodźcem (S)
bowiem związana została nowa reakcja (R’). Uprzednia wiedza jednak,
w tym przypadku zautomatyzowana procedura, była przeszkodą
w utrwaleniu nowej wiedzy. Zjawisko interferencji proaktywnej dotyczy
również wiedzy o charakterze semantycznym. O ile podobieństwo
bodźców wyzwalających różne reakcje jest podłożem interferencji
w odniesieniu do procedur, o tyle podobieństwo znaczenia różnych treści
powoduje interferencję w pamięci semantycznej.

Schemat badania interferencji proaktywnej, wprowadzony przez


Whitly’ego (1927), polega na tym, że grupa eksperymentalna uczy się
dwóch rodzajów materiału A i B, a następnie odtwarza tylko drugi z nich.
Natomiast grupa kontrolna uczy się i odtwarza jedynie materiał B. Różnica
między grupami sprowadza się zatem do obecności bądź braku fazy
uczenia się materiału A. O zjawisku interferencji wnioskuje się z różnicy
w poziomie odtworzenia materiału B w obu grupach: im jest ona większa
na niekorzyść grupy eksperymentalnej, tym silniejsza interferencja
proaktywna.
W procedurze Whitly’ego manipulacji eksperymentalnej podlegać może
rodzaj relacji, jaki łączy materiał A i B, np. stopień podobieństwa. Arthur
Melton i W.J. von Lackum (1941), manipulując podobieństwem list
bezsensownych sylab, dowiedli kluczowego wpływu czynnika
podobieństwa na wielkość interferencji proaktywnej. Autorzy użyli dwóch
list złożonych z 10 sylab, przy czym jedna grupa eksperymentalna
otrzymała dwie listy sylab podobnych, a druga – niepodobnych do siebie.
W wypadku każdej listy zapamiętywanie polegało na pięciokrotnym jej
powtórzeniu. Po upływie 20 minut proszono osoby badane o odtworzenie
drugiej listy. Okazało się, że pierwsza grupa eksperymentalna odtworzyła
51% mniej słów niż grupa kontrolna, a druga grupa eksperymentalna –
25%. Interferencja proaktywna była zatem dwukrotnie wyższa w wypadku
materiału podobnego niż niepodobnego do pierwszej listy.

Benton Underwood (1957) w swego rodzaju metaanalizie wyników badań


nad zapominaniem odkrył coś, co wydaje się dotyczyć fazy
zapamiętywania. Mianowicie okazało się, że przeciętnie osoby badane
zapominały po 24 godz. od badania 20–25% materiału. Jeśli jednak
wcześniej uczyły się innego materiału, to odsetek ten wzrastał do 80.
Underwood wyjaśnił to wpływem interferencji proaktywnej, uprzednio
wyuczony materiał obniżał bowiem poziom odtwarzania listy zapamiętanej
później.

Cindy Lustig i Lynn Hasher (2001) dowiodły, że zjawisko interferencji


proaktywnej występuje również w przypadku pamięci niejawnej. Badaczki
prezentowały osobom badanym listę 24 słów, z których każde składało się
z 7 liter. Zadaniem badanych było policzenie liczby samogłosek w każdym
ze słów. Następnie zastosowano test uzupełniania fragmentów słów
(fragment-completion test) w celu zbadania pamięci niejawnej dotyczącej
wyrazów z listy. Między prezentacją listy a testem osoby badane
wykonywały dwa zadania buforowe, które miały je „zmylić”. Chodziło
o to, aby badani nie uświadomili sobie powiązania prezentacji listy słów
z późniejszym testem uzupełniania fragmentów. Test pamięci niejawnej
dotyczył tylko drugiej połowy listy, czyli 12 słów docelowych. Natomiast
pierwsza część listy zawierała słowa, które w grupie eksperymentalnej
charakteryzowały się podobieństwem w stosunku do słów docelowych (np.
ANALOGY – ALLEGRY), a w grupie kontrolnej były z nimi niezwiązane
(np. URGENCY – ALLEGRY). Założono, że jeśli w grupie
eksperymentalnej wystąpi interferencja proaktywna, to poziom
odtworzenia słów docelowych będzie niższy niż w grupie kontrolnej.
W teście pamięci niejawnej eksponowano 70 niepełnych wyrazów (przez 1
s każdy), w tym 12 niepełnych słów docelowych z drugiej części listy.
Z każdego słowa usunięto dwie albo trzy litery. W grupie eksperymentalnej
usunięto je w taki sposób, aby zachować podobieństwo między słowami
z pierwszej i drugiej części listy, np. A_L GY. Osoba badana miała głośno
powiedzieć, jakie słowo powstanie po uzupełnieniu brakujących liter.
Rezultaty Lustig i Hasher wykazały mniej poprawnych uzupełnień i więcej
intruzji z drugiej części listy w grupie eksperymentalnej niż w grupie
kontrolnej. Wydaje się zatem, że interferencja proaktywna jest zjawiskiem
występującym niezależnie od rodzaju pamięci i metody jej testowania. Co
ciekawe, wykryto ją również w wypadku pamięci zapachów (Degel, Piper,
Köster, 2001; Köster, Degel, Piper, 2002).

Badania neuropsychologiczne i badania z użyciem funkcjonalnego


rezonansu magnetycznego (functional magnetic resonance imaging, fMRI)
wskazują na mózgową lokalizację mechanizmów odpowiedzialnych za
powstawanie i pokonywanie interferencji proaktywnej. Derek Nee, John
Jonides i Marc Berman (2007) wykazali, że pokonywanie interferencji
proaktywnej jest związane z aktywnością brzuszno-bocznej kory
przedczołowej oraz kory bieguna czołowego w lewej półkuli mózgu. Wiele
innych badań również wskazuje na zaangażowanie tych struktur – są one
traktowane jako kluczowe węzły sieci neuronalnej zaangażowanej
w pokonywanie interferencji proaktywnej. Badania neuropsychologiczne
na pacjentach, u których wskazane obszary uległy uszkodzeniu, pokazują
wyraźne deficyty tej funkcji (Hamilton, Martin, 2005).

9.2.3. Konsolidacja śladu pamięciowego


O odmiennym charakterze biologicznego „nośnika” zapisów krótko-
i długotrwałych świadczy wiele badań klinicznych, przeprowadzonych
głównie na zwierzętach. Okazało się, że kiedy bezpośrednio po nauczeniu
zwierzęcia jakiegoś nowego zachowania aplikowano mu wstrząs
elektryczny do mózgu, później nie pamiętało ono, czego się ostatnio
nauczyło. Jeśli jednak między fazą uczenia i wstrząsem elektrycznym
upływał pewien czas, wyuczona czynność była pamiętana również po
wstrząsie (Stevens, 1981). Podobne rezultaty zaobserwowano u pacjentów,
głównie z objawami padaczki skroniowej, poddawanych elektrowstrząsom
w celach terapeutycznych. Nie pamiętali oni niczego, co wydarzyło się
bezpośrednio przed zabiegiem, natomiast wszystkie pozostałe zapisy
pamięciowe były nienaruszone. Wywnioskowano więc, że nośnikiem
zapisów długotrwałych muszą być trwałe zmiany zachodzące w komórkach
nerwowych mózgu. Proces dokonywania tych zmian nazwano
konsolidacją śladu pamięciowego.

Mechanizm konsolidacji, łączący powtarzanie w pamięci krótkotrwałej


z powstawaniem śladów długotrwałych, opisali James McClelland, Bruce
McNaughton i Randall O’Reilly (1995). Autorzy założyli, że jeśli
krótkotrwale przechowywana informacja jest wielokrotnie powtarzana, to
w trakcie tych powtórek dochodzi do reaktywacji śladów pamięciowych.
W ten sposób ślad ulega stopniowemu utrwaleniu, prowadząc do zmian na
poziomie neuronalnym. Reaktywacja sprzyja nie tylko tworzeniu trwałych
zapisów pamięciowych, lecz także ich integracji z uprzednią wiedzą. Poza
tym jest kluczowym czynnikiem podnoszenia sprawności motorycznych
i poznawczych dzięki praktyce. Jaki jest przypuszczalny mechanizm tych
zmian na poziomie neuronalnym?

Konsolidacja jest procesem opisywanym przez biologów w kategoriach


trwałego wzmocnienia albo osłabienia transmisji synaptycznej oraz zmian
struktury sieci neuronalnych (Kossut, 2018). Podstawowym mechanizmem
proponowanym na gruncie neurobiologii w celu wyjaśnienia powstawania
i konsolidacji śladów pamięciowych jest długotrwałe wzmocnienie
synaptyczne (long term potentiation, LTP). Proces ten wymaga udziału
jądra komórkowego neuronu oraz zmian w ekspresji genów i w syntezie
aminokwasów (zob. Berridge, 1996; ryc. 9.6). Co prawda, mechanizm
konsolidacji nie został do końca poznany, ale najbardziej popularna obecnie
teoria opisuje go jako proces dwufazowy. Pierwsza faza polega na
przesłaniu sygnału z synaps do jądra komórkowego, co prowadzi do
zmiany ekspresji genów. W drugiej fazie informacja z jądra jest
przekazywana zwrotnie do synaps, powodując w nich zmiany strukturalne.
Co istotne, często są to zupełnie inne synapsy niż pierwotnie angażowane
w odbiór informacji. Dlatego hipokamp, który bierze udział w procesie
nabywania wiedzy i wzmacniania śladów pamięciowych we wczesnych
fazach przechowywania informacji, nie musi uczestniczyć w jej
magazynowaniu. Innymi słowy, wczesna obróbka informacji i trwałe jej
magazynowanie mogą się odbywać w zupełnie różnych, strukturalnie
odrębnych i oddalonych od siebie obszarach mózgu.
Długotrwałe wzmocnienie synaptyczne może zachodzić w różnych
rodzajach neuronów w wielu częściach mózgu, i mechanizm powstawania
LTP jest nieco odmienny w zależności od komórki, w której ten proces
zachodzi. Szczególnie łatwo LTP zachodzi w komórkach hipokampu, co
podkreśla rolę tej struktury w tworzeniu się śladów pamięciowych.
W trakcie konsolidacji ślady pamięciowe zależne od hipokampu utrwalane
są również w korze mózgowej. Równoległe do zmian związanych z LTP
zachodzi proces powstawania śladu pamięciowego w korze mózgowej,
który polega na zmianie struktury sieci neuronowej pobudzanej przez
zapamiętywany bodziec. Na początku procesu konsolidacji ślad
pamięciowy w hipokampie związany z LTP jest silny, natomiast
strukturalny ślad w korze – słaby. Proporcje te odwracają się w miarę
upływu czasu (Kossut, 2018).
RYCINA 9.6. Mechanizm konsolidacji śladu pamięciowego
Równoczesne pobudzenie dwu oddzielnych wejść na komórce nerwowej aktywuje układ wtórnych
przekaźników (Ca2+ i cAMP) odpowiedzialnych za początkową fazę nabywania informacji. Poprzez
przeniesienie sygnału z wtórnych przekaźników na kinazy i fosfaty białkowe informacja może być
przechowywana przez dłuższy czas. Do przetworzenia jej w utrwaloną formę pamięci konieczna jest
konsolidacja zmian synaptycznych poprzez aktywację transkrypcji genów. Powiązanie sygnałów nie
musi zachodzić w tym samym neuronie co konsolidacja informacji, wykazano bowiem, że pamięć
krótkotrwała pojawiająca się w danym zespole neuronów może być utrwalona w zupełnie innym ich
zespole.
Źródło: Niewiadomska, 2000, s. 273.

Neuronalny mechanizm utrwalania śladów pamięciowych nie jest jedynie


związany z aktywnością hipokampu i kory mózgowej. Badania
neurofizjologiczne pokazują również, że w zapamiętywaniu materiału
uczestniczą układy neuromodulacyjne pnia mózgu. Jan Kaminski
i współpracownicy (2018), w inwazyjnym badaniu śródoperacyjnym na
pacjentach neurologicznych wykazali np., że aktywność istoty czarnej,
jednej z podstawowych struktur układu dopaminergicznego, wpływa
pozytywnie na zapamiętywanie bodźców przetwarzanych w zadaniu
pamięciowym. Dowodzi to istotnej roli układu dopaminergicznego, oraz
jego licznych połączeń z hipokampem, w utrwalaniu wspomnień.

9.2.4. Techniki mnemoniczne


Techniki mnemoniczne to sformalizowane metody wspomagania
zapamiętywania. Można je podzielić na dwie grupy w zależności od
mechanizmów poznawczych, do których się odwołują. Pierwsza grupa
mnemotechnik odnosi się do teorii podwójnego kodowania Paivio (1969).
W praktyce techniki te sprowadzają się do wykorzystania więcej niż
jednego kodu reprezentacji w trakcie nabywania określonego materiału.
Ponieważ najczęściej zapamiętujemy materiał werbalny, zabiegi
mnemoniczne tego typu polegają na łączeniu go z wyobrażeniami
wzrokowymi. Dzięki nim informacja kodowana jest w dwóch systemach:
werbalnym i obrazowym, co zwiększa szanse jej późniejszego odtworzenia.
Druga grupa mnemotechnik polega na różnych sposobach organizowania
informacji. Dzięki nim informacjom początkowo nieuporządkowanym
nadawana jest pewna struktura. Techniki z tej grupy wspomagają
znalezienie sposobu kategoryzacji albo odwołują się do wcześniej nabytej,
złożonej wiedzy, jako szkieletu dla zapamiętywanych informacji. Jeśli
nowy materiał zostanie właściwie „nałożony” na materiał już istniejący,
przywołanie tego drugiego wspomaga odpamiętanie pierwszego. Są też
techniki odwołujące się do obu mechanizmów jednocześnie. Co istotne,
skuteczne stosowanie mnemotechnik wymaga właściwego ich doboru
w zależności od rodzaju materiału. Dalej omówione są najważniejsze
techniki mnemoniczne, z zaznaczeniem specyfiki materiału, do którego są
najlepiej dopasowane.

Techniką wywodzącą się z teorii podwójnego kodowania jest tzw. metoda


obrazów interaktywnych. Jest to technika przeznaczona do
zapamiętywania luźnej listy słów. Polega na powiązaniu wyobrażeń
wyzwalanych przez te słowa w taki sposób, aby powstała jakaś historia –
nawet nierealna, ale wewnętrznie spójna. Ponieważ łatwiej stworzyć
imagen dla logogenu pojęcia o dużym potencjale wyobrażeniowym, jest
ona najbardziej skuteczna w wypadku konkretnego materiału werbalnego.
Na przykład, jeśli lista słów zawiera pozycje: „sputnik”, „kot”, „lód”,
„pudełko”, „ząb”, „kalosze”, „hipokamp”, „lampa”, „matryca”, dzięki
obrazom interaktywnym możemy stworzyć następującą historyjkę:
W tajnym projekcie z lat 70. XX w. na orbicie w radzieckim sputniku
wraz z Łajką znalazł się kot. Celem projektu było sprawdzenie wpływu
niskich temperatur (w słabo ogrzewanym wnętrzu sputnika szybko
pojawił się lód) i stanu nieważkości na zachowania społeczne zwierząt.
Zwierzęta żywiły się mlekiem w proszku (ząb mleczny), dozowanym
z pudełka w kształcie buta (kalosze). Po powrocie na ziemię badaniom
poddano pamięć zwierząt (hipokamp), ich stan zdrowia (lampa nad
stołem zabiegowym), a wyniki tych badań przedstawiono w postaci
matrycy.

Bardziej praktyczne zastosowanie tej metody jest związane z uczeniem się


słówek obcego języka. Przedstawimy to na konkretnym przykładzie.
Rzeczownik języka angielskiego nut ma kilka znaczeń, z których
najbardziej znane to „orzech”. Kiedy autor tego rozdziału dowiedział się,
że idiomatyczne znaczenie tego słówka to „świr”, zobaczył w zachodniej
telewizji reklamę batona orzechowego nazywającego się Nuts. W reklamie
pewien człowiek – sympatyczny „świr” – robił różne zwariowane rzeczy.
Od tamtej pory oba znaczenia tego słówka utkwiły autorowi głęboko
w pamięci.

Badania empiryczne nad skutecznością techniki obrazów interakcyjnych


prowadzili Henry Roediger (1980) oraz Allan Reynolds i Paul Flagg
(1983). Ci ostatni jako materiału do swoich badań użyli 120 słówek języka
rosyjskiego. Jedną grupę osób badanych przećwiczono w stosowaniu
techniki obrazów interakcyjnych, podczas gdy grupa kontrolna nie przeszła
takiego treningu. Po upływie 24 godz. od zakończenia uczenia się obu grup
badani z grupy eksperymentalnej byli w stanie odpamiętać 72%, a z grupy
kontrolnej – 46% słówek. Przewaga osób stosujących mnemotechnikę
obrazów interaktywnych utrzymała się nawet po upływie sześciu tygodni.
Natomiast Roediger porównał skuteczność tej techniki w zależności od
metody odpamiętywania. Okazało się, że relatywny przyrost liczby
zapamiętanych słów był nieco wyższy w wypadku odtwarzania
w kolejności (26%) niż odtwarzania swobodnego (20%), jeśli zestawić ją
z liczbą słów zapamiętanych w warunku kontrolnym, czyli przed
treningiem techniki obrazów interaktywnych.

Techniką organizującą zapamiętywany materiał jest kategoryzowanie, ale


warunkiem jej użycia jest możliwość zastosowania wobec
zapamiętywanego materiału tradycyjnych, a jeśli to niemożliwe –
nietypowych kategorii. Ten sposób świetnie się nadaje np. do zapamiętania
listy zakupów. Zastanówmy się jednak, czy możliwe jest jego
wykorzystanie do zapamiętania poprzednio pokazanej listy słów: „sputnik”,
„kot”, „lód”, „pudełko”, „ząb”, „kalosze”, „hipokamp”, „lampa”,
„matryca”. Wydaje się, że możliwe byłoby ograniczenie liczby
zapamiętywanych elementów do trzech kategorii: (1) obiektów
„chłodnych”: lód, sputnik (znajduje się w chłodniej przestrzeni
kosmicznej), matryca (nasuwająca na myśl intelektualny „chłód” nauk
ścisłych); (2) obiektów kojarzących się z umysłem: kot („mieć kota
w głowie”), ząb (mądrości), hipokamp; (3) obiektów niezbędnych do
wędkowania nocą: kalosze, lampa oraz pudełko (na haczyki lub przynętę).

Inną mnemotechniką opartą na zasadzie organizacji materiału jest system


słów-wieszaków (pegword system). Polega on na użyciu jakiegoś dobrze
znanego tekstu jako „wieszaka” albo szkieletu dla nowo nabywanej
informacji. Metoda ta odwołuje się jednocześnie do wyobrażeń, powiązania
między starym a nowym materiałem dokonują się bowiem dzięki obrazom
interaktywnym. Takim tekstem-wieszakiem może być dziecięcy wierszyk,
rymowanka czy wyliczanka, ale raczej o treści konkretnej niż
abstrakcyjnej. Łatwiej wówczas stworzyć obrazy interaktywne, będące
podstawą nakładania nowego na stare. Jeśli w zapamiętywanej treści
istotna jest kolejność słów, bardziej efektywna okazuje się wyliczanka. Stąd
też inna nazwa tej techniki: One is a bun, pochodząca z popularnej
anglojęzycznej wyliczanki.

Załóżmy, że chcemy zapamiętać pięć rzeczy do zrobienia w danym dniu,


których nie wykonujemy rutynowo, więc istnieje ryzyko, że o czymś
zapomnimy. Niech to będzie przykładowo: wysłanie e-maila do znajomego,
opłacenie bieżących rachunków, poszukanie artykułu potrzebnego do
napisania pracy zaliczeniowej, kupienie prezentu urodzinowego
i zarejestrowanie się do lekarza. Weźmy przykład wyliczanki znanej
polskim dzieciom: „Raz dwa to jest gra, mamy wszystko zliczyć. / Dom
dwa okna ma / i jedno w piwnicy. / Trzy i cztery są pory dnia i roku / a pięć
chcemy mieć z każdego przedmiotu”. „Grę” możemy skojarzyć
z wysłaniem e-maila, jako że niektóre gry i wszystkie e-maile wymagają
użycia komputera. „Zliczanie” możemy zaś połączyć z płaceniem
rachunków, tym bardziej że zanim pójdziemy na pocztę, powinniśmy
obliczyć, ile gotówki będzie nam potrzebne. Porę dnia łatwo powiązać
z rejestrowaniem się do lekarza, ponieważ wciąż się zdarza, że w praktyce
rejestracja jest możliwa w wąskim przedziale czasu, np. od godziny 8.00 do
8.15. Z porą roku nietrudno z kolei powiązać urodziny, wyobrażając sobie
daną osobę jako dziecko w scenerii związanej z wiosną, latem, jesienią lub
zimą. I wreszcie z piątką z każdego przedmiotu ściśle wiąże się praca
pisemna, więc możemy wyobrazić sobie, co by się stało, gdyby nie
odwołać się w niej do artykułu, którego musimy poszukać.

W badaniach Roedigera (1980) system słów-wieszaków okazał się metodą


niezwykle efektywną w zapamiętywaniu elementów w określonej
kolejności. Przyrost liczby poprawnie odtworzonych słów uzyskany dzięki
jej zastosowaniu, w porównaniu z warunkiem kontrolnym, wyniósł 62%.
Szkieletem dla nowej informacji może być bogata i różnorodna wiedza
nabyta przez jednostkę. K. Anders Ericsson, William Chase i Steve Faloon
(1980) opisali przypadek mężczyzny o inicjałach S.F., który oprócz
wybitnej pamięci miał dobre wyniki w biegach na długich dystansach. Po
dwóch latach treningu zakres pamięci S.F. wzrósł od wartości przeciętnej
w populacji, czyli ok. 7, aż do 80 elementów, jeśli materiałem
zapamiętywanym były cyfry. S.F. nauczył się kodować eksponowane mu
ciągi cyfr jako wyniki uzyskiwane w biegach na różnych dystansach;
wyniki te były dla niego szkieletem dla nowej informacji. Trening nie
poprawił jednak ogólnych wskaźników jego pamięci, gdyż zastosowanie
innego materiału niż cyfry sprawiało, że wyniki S.F. były dość przeciętne.
Co więcej, jego zdolność zapamiętywania ciągów cyfr pogarszała się, jeśli
celowo utrudniano mu powiązanie ich z jego wiedzą o wynikach
w biegach. Earl Hunt i Tom Love (1972) opisali z kolei przypadek osoby
V.P., która – najprawdopodobniej dzięki znakomitej pamięci
autobiograficznej – zapamiętywała długie ciągi cyfr. Szkieletem były w jej
przypadku daty, które wiązały się z różnymi wydarzeniami z życia V.P.
Przypadki S.F. i V.P. pokazują, że wiedza różnego rodzaju może być
„wieszakiem” dla zapamiętywanego materiału, jednak pod warunkiem, że
istnieje ścisły związek między uprzednio nabytą wiedzą a nową informacją.

Inną techniką łączącą organizowanie materiału i wizualizację jest metoda


miejsc (loci mnemonic). Podobnie jak system słów-wieszaków wymaga
ona nałożenia nowego materiału na znany, przy czym ten drugi musi zostać
skojarzony z konkretnymi miejscami w przestrzeni, np.
charakterystycznymi budynkami na dobrze nam znanej drodze z domu na
uczelnię lub do pracy. Z każdym z tych charakterystycznych miejsc należy
skojarzyć jeden z zapamiętywanych elementów, tworząc w ten sposób pary.
W odtwarzaniu wystarczy tylko wyobrazić sobie owe charakterystyczne
miejsca, zyskując w ten sposób dostęp do drugiego elementu. Metoda ta
doskonale nadaje się do zapamiętywania materiału w określonej kolejności,
w „szkielecie” starej wiedzy bowiem kolejność jest z góry ustalona.
Dlatego w badaniach Roedigera (1980) metoda miejsc okazała się
najskuteczniejszą z omówionych dotychczas mnemotechnik, jeśli
w odtwarzaniu listy słów istotna była ich kolejność. Liczba elementów
odtworzonych w zadanej kolejności wzrastała wówczas o 100%
w porównaniu z warunkiem kontrolnym.

Doskonały przykład przydatności tej metody podaje Tomasz Maruszewski


(2001). Sprawa dotyczy niezbyt przyjemnego momentu w życiu każdego
ucznia, tj. zapamiętywania pocztu królów polskich. Problem polega na tym,
że zapamiętać należy nie tylko 34 władców, lecz także kolejność ich
panowania. Metoda miejsc może być pewnym ułatwieniem, jeśli każdego
z nich skojarzymy najpierw z pewnym charakterystycznym miejscem na
naszej – uczniowskiej – drodze do szkoły. Maruszewski proponuje np., aby
Mieszko I wyglądał przez okno budynku stojącego obok naszego domu,
a Bolesław Chrobry – oparty na berle – stał w bramie kolejnego budynku
itd. Metoda miejsc może być z jednej strony skutecznym sposobem
zapamiętania pocztu królów, z drugiej zaś wprowadzać element humoru,
który może sprzyjać utrwaleniu skojarzenia.

Cesare Cornoldi i Rossana de Beni (1991) dowiedli, że metoda miejsc


może być użyteczna w zapamiętywaniu tekstów, a nie tylko listy słów.
Autorzy porównali wyniki dwóch

grup osób badanych, które miały zapamiętać treść wykładu o długości 2100
słów. Wykład mógł być albo wygłoszony przez wykładowcę, albo
odczytany samodzielnie przez osoby badane. Jedna grupa przećwiczona
została wcześniej w stosowaniu metody miejsc i przyswoiła sobie listę 20
charakterystycznych miejsc w swoim mieście. W tych miejscach miała
ulokować kluczowe elementy wykładu. Grupa kontrolna nie została
poddana treningowi użycia tej metody. Poziom odtworzenia istotnych
informacji z tekstu okazał się wyższy w grupie eksperymentalnej, przy
czym różnica ta była większa w wypadku wykładu wygłoszonego niż
samodzielnie odczytanego.
RYCINA 9.7. Technika mapy poznawczej w zastosowaniu treści podręcznika poświęconych
czynnikom sprzyjającym i przeszkadzającym w zapamiętywaniu
Źródło: opracowanie własne.

Użyteczną mnemotechniką – różniącą się nieco od wcześniej opisanych –


jest metoda mapy poznawczej (mind map; Buzan, Buzan, 1996). Jest to
technika pisemno-graficzna, a jak wiadomo, notowanie to jedna
z podstawowych mnemotechnik, które stosujemy, aby coś lepiej
zapamiętać. Jednocześnie łączy ona zalety technik organizacji
i wizualizacji zapamiętywanego materiału. Metoda mapy poznawczej
polega na hierarchicznym uporządkowaniu złożonej informacji w postaci
specyficznego diagramu (ryc. 9.7). Centralna część mapy poznawczej
dotyczy istoty zagadnienia, ujętej w postaci słowa kluczowego albo jego
rysunkowej wizualizacji. Od tej części odchodzą „gałęzie”, reprezentujące
najważniejsze aspekty analizowanego zagadnienia, opisane pewną etykietą
albo zilustrowane rysunkiem. Jeszcze niżej w hierarchii umieszczane są
istotne informacje o bardziej szczegółowym charakterze. Tym samym mapa
poznawcza odzwierciedla strukturę analizowanego zagadnienia w sposób
przypominający sieć semantyczną, a więc w postaci hierarchicznej, gdzie
węzłami są słowa kluczowe albo ich wizualizacje. Zaleca się, aby stosować
różnorodne sposoby zindywidualizowania mapy poprzez opatrzenie jej
wieloma ilustracjami, które mogą zastępować sformułowania werbalne,
albo im towarzyszyć.

Paul Farrand, Fearzana Hussain i Enid Hennessy (2002) analizowali


skuteczność techniki mapy poznawczej w nabywaniu wiedzy medycznej.
Osoby badane – studenci medycyny – otrzymały tekst o długości 600 słów,
z poleceniem zapoznania się z nim. Grupa eksperymentalna odbyła
wcześniej trening w stosowaniu techniki map poznawczych i została
poinstruowana, aby jej użyć w trakcie uczenia się. Grupa kontrolna miała
po prostu zapoznać się z tekstem, stosując dowolną metodę. Po upływie
tygodnia obie grupy różniły się poziomem odpamiętania informacji z tekstu
o 10–15%: grupa eksperymentalna udzieliła więcej prawidłowych
odpowiedzi w teście wiadomości z zakresu materiału zawartego
w otrzymanym tekście.

9.3. Przechowywanie

9.3.1. Zapominanie
Hermann Ebbinghaus, w badaniach opisanych w przywoływanej już pracy
z 1885 r., wykrył, że proces zapominania listy bezsensownych sylab
przebiega bardzo szybko (ryc. 9.8). Większość materiału tracimy już po
kilkudziesięciu minutach, po czym tempo zapominania zdecydowanie
maleje. Nieco inaczej przedstawiają się wyniki badań nad zapominaniem,
jeśli zapamiętywany materiał jest sensowny. Jednym z pierwszych badaczy,
który dokonał precyzyjnego porównania tempa zapominania informacji
w zależności od jej sensowności, był Philip Ballard (1913). Badacz
zastosował trzy rodzaje materiału: fragment prozy, wiersz i – kontrolnie –
bezsensowne sylaby. Manipulował również odstępem czasu między
momentem zakończenia uczenia się a testem odtworzenia (w przedziale 1–
7 dni). Specyfiką jego badania było wprowadzenie ograniczenia czasowego
w trakcie uczenia się, które powodowało, że badani nie byli w stanie
w pełni opanować materiału. Po upływie tygodnia poprawność
odpamiętania bezsensownych sylab zmniejszyła się do 70% w stosunku do
poziomu wyjściowego, ustalonego po zakończeniu uczenia się (100% nie
oznaczało więc bezbłędnego przypomnienia całego materiału). W wypadku
materiału sensownego, czyli prozy i wiersza, po tygodniu badani
odtwarzali poprawnie około 90%, również w stosunku do poziomu
wyjściowego.
RYCINA 9.8. Poprawność odtworzenia listy bezsensownych sylab jako funkcja czasu
przechowywania
Źródło: opracowanie własne na podstawie Ebbinghaus, 1885/1913.

Z kolei Bahrick (1984) badał proces zapominania słówek języka


hiszpańskiego wśród osób, dla których był to drugi język nabyty w trakcie
nauki szkolnej. Badacz testował przypominanie, rozpoznawanie
i rozumienie słówek w grupach osób, które w różnym czasie od momentu
badania zakończyły naukę drugiego języka. Maksymalny przedział czasu,
jaki upłynął od tego momentu, wynosił 50 lat. Badaniami objęto łącznie aż
773 osoby. Okazało się, że – w zależności od zastosowanej miary pamięci –
spadek poprawności wykonania testów słownikowych był różny. Ogólnie
okazał się on największy w ciągu pierwszych trzech lat od zakończenia
nauki. Po tym okresie w przypadku testów rozpoznawania i rozumienia
wyniki stabilizowały się na poziomie około 75% poprawnych rozpoznań,
a w przypadku testów przypominania na poziomie około 40%. Wyniki te
utrzymywały się bez zmian nawet po 50 latach od zakończenia nauki,
z wyjątkiem rozumienia słów, które po upływie około 8 lat od zakończenia
nauki ulegało powolnemu liniowemu spadkowi.

Znacznie słabsze efekty zapominania wykryto w wypadku umiejętności


proceduralnych. Dobrze zautomatyzowane umiejętności są mało podatne
na wpływ takich uszkodzeń mózgu, które powodują utratę możliwości
nabywania wiedzy deklaratywnej. Słynny pacjent H.M. (Henry Molaison),
wskutek operacji neurochirurgicznej powodującej uszkodzenie części
płatów skroniowych, utracił bezpowrotnie możliwość nabywania nowej
wiedzy zarówno semantycznej, jak i epizodycznej1. Wiązało się to
prawdopodobnie z zaburzeniem mechanizmu konsolidacji śladów
pamięciowych, jego pamięci długo- i krótkotrwała – niezależnie od siebie –
funkcjonowały bowiem prawidłowo. H.M. był w stanie korzystać z wiedzy
i umiejętności nabytych przed zabiegiem. Wypadał również przyzwoicie
w zdaniach na pamięć krótkotrwałą. Nie był jednak w stanie trwale
zapamiętywać nowej wiedzy, przy czym okazało się, że dotyczy to tylko
wiedzy deklaratywnej. H.M. nie utracił natomiast zdolności nabywania
wiedzy proceduralnej: po zabiegu opanował kilka zupełnie nowych
umiejętności, nie tylko motorycznych, lecz także poznawczych, np.
czytania pisma lustrzanego (Cohen, Squire, 1980). Ta wybiórczość
zaburzeń pamięci H.M. sugeruje odmienność poznawczego i mózgowego
mechanizmu pamięci proceduralnej i deklaratywnej. W badaniach
eksperymentalnych wykryto ponadto, że pamięć proceduralna jest również
wyjątkowo odporna na upływ czasu. Fleishman i Parker (1962) poddali
osoby badane treningowi umiejętności proceduralnych (głównie
motorycznych) w zadaniu będącym symulacją sterowania samolotem.
Okazało się, że po dwóch latach od ukończenia treningu poziom
wykonania wyuczonych czynności motorycznych nie uległ pogorszeniu.

Konkludując, dane empiryczne prowadzą do dość banalnego wniosku:


zapominanie jest procesem powszechnym i dotyczy wszystkich rodzajów
pamięci, choć każdego w różnym stopniu. W literaturze konkuruje jednak
kilka propozycji wyjaśnienia poznawczych mechanizmów tego zjawiska.
Jednym z nich jest interferencja retroaktywna.

9.3.2. Interferencja retroaktywna


Interferencja retroaktywna (retroactive interference) – zakłócanie procesu przechowywania
wcześniej nabytej wiedzy, wywołane wiedzą nabytą później, o ile między tymi dwoma rodzajami
wiedzy występuje jakiś związek; zjawisko to jest tym silniejsze, im bardziej podobne są oba rodzaje
materiału, im słabsze było opanowanie pierwszego materiału i im bardziej obszerny jest drugi
materiał.

Omówiliśmy już mechanizm interferencji proaktywnej, która stanowi


przeszkodę w nabywaniu albo utrwalaniu wiedzy lub umiejętności.
Zjawisko interferencji retroaktywnej ma miejsce, kiedy dochodzi do
zakłócania procesu przechowywania wcześniej nabytej wiedzy,
wywołanego wiedzą nabytą później, jeśli występuje między nimi jakiś
związek (Underwood, 1945; Underwood, Postman, 1960). Innymi słowy,
interferencja retroaktywna jest wywołana nową wiedzą, która wstecznie
oddziałuje destrukcyjnie na wiedzę nabytą wcześniej. Zjawisko to jest tym
silniejsze, im bardziej podobne są oba rodzaje materiału, im słabsze było
opanowanie pierwszego materiału i im bardziej obszerny jest drugi
materiał.

Klasyczny schemat badania interferencji retroaktywnej przybiera


następującą postać. Grupa eksperymentalna uczy się kolejno dwóch
rodzajów materiału A i B, a następnie odtwarza tylko pierwszy z nich.
Natomiast grupa kontrolna uczy się jedynie materiału A i go odtwarza.
Różnica między grupami sprowadza się zatem do obecności bądź braku
fazy uczenia się materiału B między zapamiętaniem i odpamiętaniem
materiału A. O zjawisku interferencji wnioskuje się z różnicy w poziomie
odtworzenia materiału A w obu grupach: im jest ona większa, tym
silniejsza interferencja retroaktywna.

John McGeoch i William McDonald (1931) poddali systematycznym


badaniom wielkość interferencji w zależności od podobieństwa materiału
A i B. W badaniach tych materiał A stanowiła lista przymiotników,
natomiast manipulowano rodzajem materiału B. Mogły to być synonimy
lub antonimy przymiotników z listy A bądź materiał zupełnie z nią
niezwiązany: inne przymiotniki, bezsensowne sylaby lub cyfry. Autorzy
posłużyli się dwoma kryteriami siły interferencji. Było to porównanie
poziomu odpamiętania lub liczby powtórzeń w warunku ponownego
uczenia się w grupach eksperymentalnych, które wykonywały zadanie
pamięciowe z jednym z wymienionych rodzajów materiału,
z analogicznymi wynikami uzyskanymi w grupie kontrolnej. Najsilniejszy
negatywny wpływ na odpamiętanie listy A miało zadanie, w którym
prezentowano synonimy i antonimy słów na niej użytych, czyli materiału
o wysokim stopniu podobieństwa. Najsłabszy, ale wciąż negatywny wpływ
na odpamiętanie listy A wykazało uczenie się materiału najbardziej
odbiegającego od zapamiętanych przymiotników, tj. cyfr. Zadanie to nie
miało jednak w ogóle wpływu na liczbę powtórzeń w trakcie ponownego
uczenia się listy A, niezbędnych do uzyskania jednego bezbłędnego jej
odtworzenia. Utrzymał się natomiast negatywny wpływ uczenia się
synonimów i antonimów przymiotników z listy A: liczba powtórzeń
koniecznych do uzyskania wymaganego kryterium była większa niż
w grupie kontrolnej o 60% w przypadku synonimów i 45% w przypadku
antonimów.

Wzajemnymi wpływami poziomu opanowania materiału A i B na siłę


interferencji zainteresował się George Briggs (1957). W jego badaniach
każdy materiał były powtarzany 2, 5, 10 albo 20 razy, co, łącznie z grupami
kontrolnymi, dało 20 warunków eksperymentalnych. Okazało się, że im
wyższy stopień opanowania materiału A, tym słabsza interferencja
retroaktywna, ale im lepsze opanowanie materiału B, tym interferencja
silniejsza. Zjawisko to przypomina zatem system naczyń połączonych: dwa
konkurujące zestawy bodźców wzajemnie na siebie wpływają, a zmiana
w zakresie poziomu opanowania jednego z nich skutkuje zmniejszeniem
albo zwiększeniem siły interferencji.

Podobnie rzecz się ma z wpływem rozmiaru materiału A lub B na wielkość


interferencji retroaktywnej. Interferencja jest większa, jeżeli
proporcjonalnie do A rośnie wielkość B i – odwrotnie – jest mniejsza, jeśli
proporcjonalnie do B rośnie rozmiar A. Wyjaśnienia tego zjawiska –
wbrew pozorom – nie są zadowalające. John McGeoch i Arthur Irion
(1952) tłumaczyli je zwiększeniem odporności dłuższej listy na
interferencje, wynikające z „przeuczenia” niektórych jej elementów. Jest to
bardziej prawdopodobne, jeśli lista jest pokaźna, więc i jej uczenie się trwa
długo. Wydaje się jednak, że może chodzić o wpływ czysto statystyczny.
Krótsza lista B słabiej wpływa na dłuższą listę A, prawdopodobieństwo
występowania związków między listami jest bowiem mniejsze niż
wówczas, gdy lista B jest długa. Załóżmy, że każde z pięciu słów z listy B
wiąże się jakąś relacją z dwoma słowami z listy A, zawierającej 40 słów.
Zatem 30 słów z listy A nie zostanie w żaden sposób zakłóconych,
wpływając tym samym na obniżenie matematycznego wskaźnika
interferencji. Każde dodatkowe słowo na liście B automatycznie podnosi
wartość tego wskaźnika.

Nowsze badania nad zjawiskiem interferencji prowadzą do bardzo


szczegółowych rezultatów, które z konieczności w tym miejscu pominiemy.
Nie do przecenienia jest jednak rola, jaką to zjawisko odegrało w sporze
między konkurencyjnymi teoriami mechanizmów zapominania (zob.
Wixted, 2004b).

9.3.3. Zanikanie śladu kontra utrata dostępu


Niezależnie od interferencji retroaktywnej i proaktywnej, od ponad 100 lat
konkurują ze sobą dwie teorie zapominania. Ponieważ mechanizmy
wyjaśniające, do których się odwołują, nie są bezpośrednio dostępne ani
behawioralnie, ani neurobiologicznie, spór ten – niewątpliwie interesujący
– pozostaje trudny do rozstrzygnięcia. Poza tym rozstrzygnięcie w tej
kwestii nie wydaje się konieczne, gdyż mechanizmy te są niesprzeczne,
a być może się uzupełniają i mogą wspólnie wyjaśniać to, co wiemy
o zapominaniu.

Pierwsza propozycja opisu mechanizmu zapominania, pochodząca jeszcze


od Ebbinghausa (1885/1913), odwołuje się do spontanicznego zanikania
śladu pamięciowego (decay). Podstawowym czynnikiem wpływającym na
trwałość śladów pamięciowych jest interwał czasu między jego
utworzeniem a próbą uaktywnienia. Dzięki powtórkom materiału możliwe
jest wzmocnienie odpowiadającego mu śladu pamięciowego. Jeśli jednak
ślad nie zostanie w ten czy inny sposób odświeżony, jego dostępność
będzie się zmniejszać wraz z czasem, aż do całkowitego zaniku. Druga
propozycja, autorstwa Tulvinga (1974), opiera się na mechanizmie utraty
wskazówek dostępu (cue-dependent forgetting) do informacji
przechowywanej w pamięci. Informacja ta jest nadal potencjalnie dostępna
(available), jednak w danym momencie nieosiągalna (not accessible).
Innymi słowy, dane, do których utraciliśmy dostęp, są wciąż
przechowywane w pamięci, choć nie mogą zostać odpamiętane.
Niemożność ta jest skutkiem braku właściwego klucza wydobycia lub
niezgodności kontekstu odpamiętywania z kontekstem kodowania
informacji w pamięci. Klasycznym przykładem krótkotrwałej utraty
dostępu jest znane zjawisko „końca języka”, kiedy mamy poczucie, że coś
wiemy, ale nie możemy tej wiedzy wydobyć. Może to być rzadko używany
wyraz albo słówko języka obcego, czyjeś imię, jakaś nazwa. Trzecia
propozycja odwołuje się do omówionego już zjawiska interferencji
retroaktywnej. Ze względu na swoje „wsteczne” działanie interferencja
retroaktywna wpływa negatywnie na starsze ślady pamięciowe. Byłaby
więc mechanizmem odpowiedzialnym albo za zanikanie śladu, jeśli nie
ograniczymy się do upływu czasu jako jedynego czynnika, który może je
wywoływać, albo za utratę dostępu. Propozycja ta jest zatem w pewnym
sensie niezależna od obu wcześniej przedstawionych: opisuje bowiem
mechanizm zjawiska zapominania informacji, nie rozstrzygając, co się
z nią dzieje, tj. czy bezpowrotnie zanika, czy też staje się nieosiągalna.

Słynne badania, których celem była falsyfikacja koncepcji zaniku śladu


pamięciowego, przeprowadzili John Jenkins i Karl Dallenbach (1924).
Autorzy założyli, że gdyby o dynamice zanikania śladu pamięciowego
decydował jedynie upływ czasu, nie powinny wystąpić różnice wynikające
z interferencji retroaktywnej. Hipotezę tę przetestowali w dość oryginalny
sposób. Mianowicie poddali dwie osoby procedurze uczenia się ciągu
bezsensownych sylab, aż do bezbłędnego powtórzenia ich wszystkich.
W odstępie 1, 2, 4 i 8 godz. od zakończenia uczenia się badali poprawność
odtworzenia zapamiętanego ciągu. Między kolejnymi pomiarami badani
albo prowadzili normalną dla siebie aktywność, albo zażywali snu. Można
było przypuszczać, że codzienna aktywność, będąca źródłem nowych
bodźców, może się wiązać z większym prawdopodobieństwem
retroaktywnej interferencji z materiałem zapamiętanym wcześniej. Z kolei
w trakcie snu prawdopodobieństwo interferencji powinno być znacznie
mniejsze. Z przeprowadzonych badań wynikało, że poziom odtworzenia
ciągu był wyższy w warunku snu niż w warunku aktywności, a różnica ta
była tym większa, im więcej czasu upłynęło od momentu zapamiętania
listy.

To pomysłowe badanie, interpretowane na korzyść teorii interferencji,


wydaje się mieć jedną zasadniczą wadę. Wykryto mianowicie, że w trakcie
snu, a zwłaszcza w fazie REM, zachodzi proces konsolidacji śladów
pamięciowych (Kossut, 2018; Stickgold, 1998). Konsolidacja może się
wtedy odbywać bez większych przeszkód, interferencja ze strony nowych
bodźców jest bowiem minimalna. Tego czynnika nie uwzględnili jednak
Jenkins i Dallenbach, więc wynik zaobserwowany przez nich w warunkach
snu mógł być jednocześnie skutkiem konsolidacji śladów pamięciowych,
jak i braku czynników interferujących z wyuczonym materiałem.

Wpływ efektu konsolidacji, uzyskany w zadaniu podobnym do


zastosowanego przez tych badaczy, wykazał m.in. Bruce Ekstrand (1967).
Materiałem w jego badaniach były dwie listy par słów, przy czym pierwsze
słowa w parach w przypadku obu list były identyczne, a zmianie podlegały
tylko drugie słowa. Zastosowana manipulacja eksperymentalna
wywoływała silną interferencję proaktywną. Okazało się jednak, że sen,
aplikowany jednej grupie po nauczeniu się całego materiału, powodował
podwyższenie poziomu odpamiętania obu list, co mogłoby świadczyć
o dobroczynnym wpływie procesu konsolidacji na pamięć. Tak czy inaczej,
badanie Jenkinsa i Dallenbacha (1924) nie wydaje się jednoznacznie
falsyfikować koncepcji zanikania śladu, przy czym konieczne okazuje się
uwzględnienie innych czynników mających wpływ na dynamikę
zapominania. Do dyskusji na temat mechanizmów zapominania wrócimy
jeszcze przy omawianiu roli wskazówek naprowadzających
w odpamiętywaniu (zob. podrozdz. 9.4.2).

Współczesne badania na gruncie neurobiologii stanowią ważny głos


w debacie na temat zapominania i przynoszą wiedzę dotyczącą jego
mechanizmów. Oprócz efektów interferencji proaktywnej i retroaktywnej,
dla których znaleziono podstawy mózgowe w działaniu płatów czołowych
(Hanseeuw, Seron, Ivanoiu, 2012; Nee i in., 2007; Robertson, 2012),
ważnym mechanizmem odpowiedzialnym za zanikanie śladów
pamięciowych przy braku interferencji jest długotrwałe osłabienie
synaptyczne (long term depression, LTD). Jest to zjawisko
komplementarne do długotrwałego wzmocnienia synaptycznego (LTP) i tak
jak ono – kluczowe w funkcjonowaniu pamięci. LTD powstaje wtedy, gdy
stymulacja synaps ma niską częstotliwość (w odróżnieniu od LTP, do
wywołania którego potrzeba stymulacji neuronu o wysokiej
częstotliwości). Taka stymulacja prowadzi do zmian strukturalnych
w neuronie – zmniejszenia liczby synaps i liczby receptorów na synapsach.
Oznacza to osłabienie zdolności synaps do przekazywania sygnałów, co
w konsekwencji powoduje zaburzenia lub nawet utratę połączenia między
neuronami (Kossut, 2018). Ten mechanizm dobrze tłumaczy opisywane
przez psychologów spontaniczne zanikanie śladów pamięciowych.
Również osłabienie długotrwałego wzmocnienia synaptycznego (LTP),
związane np. z brakiem snu, prowadzi nie tyle do zanikania, ile niepełnej
konsolidacji śladów pamięciowych, co wskazuje na kluczową rolę snu
w powstawaniu i utrzymywaniu wspomnień (Fuentemilla i in., 2013).
9.3.4. Reminiscencja
Reminiscencja jest zjawiskiem – raczej nieoczekiwanego – wzrostu
poziomu odtworzenia zapamiętanego materiału, bez jego dodatkowego
uczenia się. Pod tym pojęciem kryją się trzy efekty empiryczne, o być
może różnych mechanizmach poznawczych. Efekt reminiscencji jako
pierwszy wykrył Ballard (1913), w eksperymencie opisanym
w podrozdziale 9.3.1. W wypadku każdego z trzech rodzajów materiału
użytego w badaniach (prozy, wiersza i bezsensownych sylab)
zaobserwowano zjawisko poprawy poziomu odtworzenia w kolejnych
próbach (ryc. 9.9). Na przykład już w trzeciej próbie odtworzenia
poprawność była wyższa o 18% w porównaniu z wynikiem uzyskanym
zaraz po zakończeniu uczenia się (przypomnijmy, że odbywało się ono pod
presją czasu). Dopiero wynik ostatniego pomiaru, przeprowadzonego
w siódmym dniu, był niższy od poziomu początkowego. Również
w wypadku bezsensownych sylab odnotowano podobne zjawisko, ale było
ono nieco słabsze, a poziom odtworzenia spadł poniżej poziomu
początkowego już w czwartym dniu.

RYCINA 9.9. Poprawność odtworzenia materiału sensownego (A i B) oraz bezsensownych


sylab (C) jako funkcja czasu przechowywania
Poprawa pamięci w kilku pierwszych dniach po nauczeniu się materiału to reminiscencja.
Źródło: opracowanie własne na podstawie Ballard, 1913.

Zbliżony efekt, ale w innej metodologii, uzyskał Lewis Ward (1937).


W swoich badaniach użył wyłącznie bezsensownych sylab, których osoby
badane uczyły się aż do osiągnięcia kryterium jednego poprawnego
odpamiętania. Następnie, po podzieleniu ich na kilka podgrup, testował
poziom odpamiętania materiału, w przedziale od 6 s do 20 min. Badani,
inaczej jak u Ballarda, przypominali sobie materiał tylko jeden raz, po
upływie wyznaczonego czasu. Mimo tej zmiany także w tym wypadku
ujawnił się efekt reminiscencji. Początkowo, tj. po upływie 6 s od
zakończenia uczenia się, poprawność odtworzenia zmniejszyła się, ale już
po 30 s wyraźnie wzrosła. Wszystkie wyniki pomiarów przeprowadzonych
do 5 min od zakończenia uczenia się były wyższe od pierwszego pomiaru
(po 6 s). W kolejnych pomiarach spadek poprawności był już bardzo
wyraźny.

Te dwa przypadki reminiscencji uzyskano w inny sposób, chociaż ich


mechanizm przedstawia się podobnie. Wyniki Ballarda wyjaśniano
wpływem kolejnych powtórzeń w trakcie odtwarzania materiału, które –
przynajmniej początkowo – powodowały lepsze jego utrwalenie. Wpływ
powtórek wydaje się niewątpliwy, efekt reminiscencji bowiem utrzymywał
się kilka dni. U Warda natomiast zanikał już po kilku minutach. W obu
przypadkach jednak czas upływający od momentu uczenia się materiału
pozwalał na zainicjowanie procesu konsolidacji śladów pamięciowych.
Ponieważ badani Ballarda wielokrotnie powtarzali ten sam materiał, to
zarówno same powtórki, jak i korzystne rozłożenie ich w czasie mogły
powodować początkowy wzrost poprawności odpamiętania. Jej spadek,
rejestrowany w kolejnych pomiarach, zdaje się dobrze ilustrować
koncepcje zapominania.

Zjawisko reminiscencji wykryto również w pamięci epizodycznej. Dotyczy


ono zupełnie innej perspektywy czasowej, mierzonej w skali lat, i zapewne
inny, niż w wypadku omówionych zjawisk, jest jego poznawczy
mechanizm. Helen Franklin i Dennis Holding (1977) zauważyli, że po
ukończeniu 70. roku życia poprawia się pamięć wydarzeń z życia
człowieka, które miały miejsce w wieku 10–30 lat (ryc. 9.10).
RYCINA 9.10. Porównanie dostępności informacji pochodzących z różnych okresów życia
Widoczne jest wyraźne wzniesienie w dekadach obejmujących okres od 11. do 40. roku życia. To
wzniesienie jest interpretowane jako wskaźnik reminiscencji. Wzniesienie wykresu w części
końcowej wskazuje na większą dostępność informacji, które zostały zarejestrowane niedawno (efekt
świeżości). Wykres został skonstruowany na podstawie danych zawartych na rycinie 15.1 w pracy
Fitzgeralda (1996) obejmujących zagregowane dane analizowane przez Rubina, Wetzlera i Nebesa
(1986).
Źródło: Maruszewski, 2005. Przedruk za zgodą autora.

Później okazało się, że reminiscencja może ujawnić się już u 40-latków.


Okazało się również, że tego rodzaju reminiscencja dotyczy nie tylko
pamięci epizodycznej, lecz także semantycznej (Rybash, Monaghan, 1999).

Mechanizm tego zjawiska jest dość zagadkowy. Wspólnym elementem


licznych spekulacji na jego temat pozostaje twierdzenie, że zmianie ulega
nie tyle sprawność pamięci osób starszych, ile ich otoczenie i sposób
korzystania z pamięci. Zmiana ta wynika z uregulowania trybu życia, co
sprawia, że spada liczba przełomowych czy choćby niespodziewanych
wydarzeń. Natomiast w okresie od adolescencji do dorosłości w życiu
człowieka wydarzeń takich jest wiele. Skoro ludzie starsi nie mogą ich
doświadczać, po prostu starają się je sobie przypomnieć, a im więcej o nich
myślą czy mówią, tym łatwiej są one później dostępne. Trudno jednak
w pełni ocenić, na ile szczegóły przywoływanych wspomnień są
wiarygodne. Dane na ten temat są niejednoznaczne. Wydaje się, że
w wypadku pamięci epizodycznej może występować częste sięganie po
rdzeniowe elementy skryptów poznawczych określających typowy
przebieg jakiegoś zdarzenia (zob. Maruszewski, 2005). Luki w pamięci
mogą też być wypełniane na drodze inferencji („właśnie tak musiało być”).
Tymi sposobami można „przywołać” wiele szczegółów, ale niekoniecznie
prawdziwych.
Ciekawą hipotezę wyjaśniającą mechanizm reminiscencji sformułował
Joseph Fitzgerald (1996). Okres życia, którego dotyczy reminiscencja, jest
zdaniem autora istotny dla kształtowania się tożsamości jednostki. Obfituje
w zdarzenia dla niej ważne – plany życiowe i wszystko to, co się wiąże
z ich realizacją. Ponieważ są to informacje, do których często wracamy,
zastanawiając się nad tym, co już zostało osiągnięte, a co jeszcze jest do
zrobienia, zostają więc mocno utrwalone w pamięci. Hipoteza ta zdaje się
dobrze wyjaśniać reminiscencję w odniesieniu do danych epizodycznych,
ale już nie semantycznych, a przecież reminiscencja obejmuje jedne
i drugie. Wiedza semantyczna, niezależnie od momentu życiowego,
w którym została nabyta, jest jednakowo ważna. Mało prawdopodobne
wydaje się również to, by zmieniało się jej znaczenie, kiedy człowiek
przekroczy pięćdziesiątkę. Z zarzutem tym nie radzi sobie zadowalająco
żadna z istniejących koncepcji mechanizmu reminiscencji.

9.4. Odpamiętywanie

9.4.1. Rodzaje odpamiętywania


Przypominanie (recall) – bezpośrednia metoda badania odpamiętywania wiedzy jawnej; osoba
badana ma za zadanie przywołać z pamięci określony materiał; podstawowe jej odmiany to
przypominanie swobodne, przypominanie ukierunkowane i przypominanie parami.
Rozpoznawanie (recognition) – pośrednia metoda odpamiętywania wiedzy jawnej; osoba badana
ma za zadanie rozpoznać, czy prezentowany jej materiał jest zgodny albo niezgodny z tym, co
wcześniej było zapamiętywane; metoda podatna na wpływ ze strony wiedzy niejawnej.

W niektórych omówionych wcześniej eksperymentach używano


jednocześnie różnych metod badania odpamiętywania. W zależności od
zastosowanej metody w tym samym zadaniu uzyskiwano odmienne wyniki.
Sugeruje to, że mechanizmy odpamiętywania, które są wówczas
uruchamiane, również są niejednakowe. Dwa podstawowe rodzaje
odpamiętywania to przypominanie, kiedy osoby badane próbują
bezpośrednio przywołać zapamiętane treści, i rozpoznawanie, w przypadku
którego wśród przedstawionego materiału należy wskazać to, co było
przedmiotem zapamiętywania. Zasadniczo wyróżnić można trzy
najważniejsze metody badania przypominania: odtwarzanie w kolejności,
odtwarzanie swobodne i odtwarzanie ukierunkowane. Odtwarzanie
(retrieval) to pojęcie nadrzędne, obejmujące zarówno przypominanie
(recall), jak i rozpoznawanie (recoqnition). Dlatego użycie terminu
nadrzędnego w założeniach (np. swobodne odtwarzanie) jest dopuszczalne
konwencją terminologiczną. Dwie pierwsze metody związane są
z uczeniem się różnorodnych list, najczęściej materiału werbalnego.
Odtwarzanie w kolejności polega na odpamiętaniu materiału zgodnie
z kolejnością prezentacji poszczególnych elementów w fazie
zapamiętywania. W odtwarzaniu swobodnym zadanie polega na
przypomnieniu sobie materiału w dowolnej kolejności, w szczególności
niekoniecznie zgodnej z sekwencją, w jakiej był on wcześniej
prezentowany. Natomiast odtwarzanie ukierunkowane jest specyficzne dla
rodzaju materiału, którym są pary bodźców. Mogą to być pary słowo–
słowo, np. „zdjęcie–kapelusz”, „książka–drzewo”, albo liczba–słowo, np.
„1–kapelusz”, „2–drzewo”. W teście odtwarzania prezentowane jest
pierwsze słowo z pary, a zadanie polega na przypomnieniu sobie drugiego
z nich. Różnice między metodami rozpoznawania nie są tak zasadnicze,
chociaż one też mogą przyjmować różne formy. Najprostsza polega na
rozpoznaniu, czy prezentowany element był przedmiotem zapamiętywania.
Osoba badana podejmuje wówczas prostą decyzję: tak albo nie.
W trudniejszych testach rozpoznania manipuluje się liczbą członów
alternatywy: im jest ich więcej, tym trudniejsze staje się rozpoznanie. Testy
rozpoznania mogą mieć postać jednokrotnego albo wielokrotnego wyboru.
Te ostatnie wymagają wskazania wszystkich członów alternatywy, które są
poprawne, tj. były prezentowane w trakcie uczenia się materiału albo są
właściwymi odpowiedziami w teście wiedzy.

Zarówno odtwarzanie, jak i rozpoznawanie są miarami pamięci jawnej.


Jedynym, choć dyskusyjnym wyjątkiem jest odtwarzanie ukierunkowane,
które może aktywizować również pamięć niejawną (zob. Schacter, 1996).
Inaczej sprawa przedstawia się z badaniem odpamiętania z pamięci
niejawnej. Metod tych jest bardzo wiele: Wierzchoń (2009) na podstawie
przeglądu literatury wyróżnia ich kilkanaście. Do tej pory wspomnieliśmy
o kilku najważniejszych, którymi są: klasyfikacja materiału (np. ciągów
symboli jako zgodnych albo niezgodnych w regułami sztucznej gramatyki),
uzupełnianie fragmentów (np. utworzenie słowa z liter A_L GY) oraz
poziom wykonania zadań wymagających kontrolowania złożonych
systemów dynamicznych (zob. podrozdz. 4.3.3 i 9.2.2).

Różnice w poziomie poprawności odpamiętania w zależności od


zastosowanej metody są znane od dawna. Wnikliwie badał je Chih Luh
(1922) w odniesieniu do materiału, jakim były bezsensowne sylaby. Wykrył
on, że rozpoznawanie prowadzi nie tylko do wyraźnie lepszych rezultatów
niż odtwarzanie, lecz także jest bardziej odporne na upływ czasu.
Spektakularną zdolność systemu poznawczego do rozpoznawania
zapamiętywanego materiału ujawniły badania Lionela Standinga, Jerry’ego
Conezia i Ralpha Habera (1970). Autorzy użyli w swoich badaniach
zestawu 2560 fotografii, prezentując je osobom badanym w tempie 10 s na
obrazek. Po upływie trzech dni od momentu uczenia się badani byli
w stanie rozpoznać około 90% materiału. Tony Noice i Helga Noice (2002)
różnymi metodami, w tym testami odtwarzania ukierunkowanego
i rozpoznawania, badali odpamiętanie tekstów, wyuczonych w odstępie od
4 miesięcy do 28 lat od momentu badania. Było to możliwe, osobami
badanymi byli bowiem zawodowi aktorzy, a tekstami – role teatralne, które
kiedyś odgrywali. W obu metodach odpamiętywania uczestnicy
eksperymentu otrzymali tekst roli, którą w określonym czasie grali,
z usuniętymi poszczególnymi słowami. Zadanie badanych polegało albo na
próbie uzupełnienia brakujących słów (odtwarzanie ukierunkowane), albo
na wyborze słów spośród czterech członów alternatywy, z których każdy
logicznie pasował do brakującego miejsca, lecz tylko jeden pochodził
z oryginalnego tekstu. Wyniki rozpoznania okazały się zdecydowanie
bardziej odporne na upływ czasu niż wyniki przypominania (ryc. 9.11).

RYCINA 9.11. Poziom wykonania testów odtwarzania i rozpoznania złożonego tekstu


w zależności od czasu, jaki upłynął od momentu uczenia się
Badanymi byli zawodowi aktorzy, a tekstami role, które kiedyś grali.
Źródło: opracowanie własne na podstawie wyników Noice i Noice, 2002.

Wydaje się, że podstawową różnicą między rozpoznawaniem


a odtwarzaniem jest dostępność wskazówek wydobycia. Odtwarzanie
wymaga odwołania się do wskazówek wewnętrznych, które muszą zostać
samodzielnie przywołane. Natomiast rozpoznanie opiera się na
wskazówkach zewnętrznych, obecnych w prezentowanym materiale. Jeśli
materiał testowy jest identyczny z zapamiętanym materiałem, obecne są
w nim wszystkie możliwe zewnętrzne wskazówki wydobycia.
Zapamiętanie tylko jednej z nich będzie w tej sytuacji wystarczające do
prawidłowego rozpoznania, a może okazać się zupełnie nieprzydatne do
przypomnienia. Również rozpoznanie w warunkach zmienionej prezentacji
oryginalnego materiału z tego powodu będzie mniej skuteczne, niekiedy
bowiem pojedyncza wskazówka będzie właśnie tą, która jest nieobecna
w materiale testowym. Predykcje te potwierdzają cytowane już badania
Standinga i współpracowników (1970), w których rozpoznanie fotografii,
będących lustrzanym odbiciem oryginałów, było mniej efektywne niż
rozpoznanie niezmienionych fotografii. Odbicie wydaje się redukować
liczbę wskazówek przydatnych w trakcie rozpoznawania.

Większość propozycji teoretycznych, wyjaśniających różnice między


rozpoznawaniem a odtwarzaniem, ujmuje odtwarzanie w formie procesu
dwufazowego, podczas gdy rozpoznawanie składa się tylko z jednej fazy
(Loftus, Loftus, 1976; Watkins, Gardiner, 1979). Pierwsza faza odtwarzania
polega na przeszukaniu pamięci, które – jeśli jest efektywne – prowadzi do
wydobycia informacji. Przeszukiwanie odbywa się na podstawie
posiadanych wskazówek wydobycia. Drugą fazą odtwarzania jest
rozpoznanie, czy odnaleziona informacja jest tą, która – w przypadku
eksperymentu – była wcześniej prezentowana. Jak widać, różnica między
odtwarzaniem i rozpoznawaniem sprowadza się do pierwszej fazy, która
nie występuje w wypadku rozpoznawania.

Inną propozycję wysunął Tulving (1976b, 1983). Według autora


rozpoznawanie i odtwarzanie są procesami jednofazowymi. Co więcej,
procesy te są w obu przypadkach podobne i polegają na zintegrowaniu
informacji zawartych we wskazówkach z tym, co stanowi zapis
pamięciowy. Różnica między rozpoznawaniem a odtwarzaniem wynika
z warunków inicjowania obu procesów odpamiętywania. Rozpoznawanie
inicjowane jest dzięki wskazówkom, których w rozpoznawanym bodźcu
może być więcej niż właściwości zapisu pamięciowego. Dzięki temu
rozpoznawanie jest zazwyczaj szybsze i bardziej poprawne niż
odtwarzanie. Z kolei odtwarzanie, nawet jeśli ukierunkowane, inicjowane
jest na podstawie niewielkiej liczby wskazówek. Pozostaje więc zazwyczaj
wolniejsze i bardziej zawodne niż rozpoznawanie.
Rozstrzygnięcie, który sposób interpretacji różnic między metodami
odpamiętywania jest lepszy, nie należy do łatwych. Oba opisane modele
zakładają pewną korespondencję między rozpoznawaniem i odtwarzaniem,
co oznacza, że część wariancji wyników uzyskanych z pomocą obu metod
powinna być wspólna, tyle że z różnych powodów. W modelu
dwufazowym – ponieważ rozpoznawanie jest integralną fazą odtwarzania.
W modelu jednofazowym – ponieważ oba procesy odwołują się do
podobnych mechanizmów. Oba modele przewidują również, że czas reakcji
– choć zdecydowanie rzadziej analizowany w badaniach tego typu –
powinien wykazywać wyraźne zróżnicowanie w zależności od
zastosowanej metody odpamiętania. Ponownie jednak zupełnie inne byłyby
tego przyczyny: albo z powodu dodatkowej fazy w modelu dwufazowym,
albo z powodu mniejszej liczby wskazówek wydobycia w modelu
jednofazowym. Sprzeczne z modelem dwufazowym byłyby jednak wyniki,
w których określona manipulacja prowadziłaby do poprawy
rozpoznawania, a jednocześnie pogorszenia odtwarzania.

Dane empiryczne wskazują na ścisły związek rozpoznawania


i odtwarzania, które w mniej więcej tej samej pozycji ulegają pogorszeniu
pod wpływem skracania czasu przeznaczonego na uczenie się (Ratclif,
Murdock, 1976), zwiększania wielkości materiału (Roberts, 1972),
wydłużania czasu między uczeniem się a testem oraz wydłużania
dzielących je zadań dystrakcyjnych (Shepard, 1967). Przeciwne rezultaty
nie są jednak wcale rzadsze. Użycie słów o wysokiej frekwencji
występowania w języku powoduje wzrost poprawności odtwarzania,
a jednocześnie spadek poprawności rozpoznawania (Deese, 1960; Hall,
1979). Zjawisko to nazwano wobec tego paradoksem frekwencji słów
(Kintsch, 1970). Ponadto lepsze utrwalenie niektórych elementów listy,
przez wprowadzenie dodatkowego czasu na uczenie się ich albo
dodatkowych powtórzeń, pogarsza swobodne odtworzenie pozostałych
elementów, a nie wpływa na odtwarzanie ukierunkowane i nawet pomaga
w rozpoznawaniu (Ratcliff, Clark, Shiffrin, 1990; Shiffrin, Ratcliff, Clark,
1990). Okazało się również, że nastawienie osób badanych na określony
typ odpamiętywania poprawia wyniki, kiedy rzeczywistość jest zgodna
z zapowiedzią, albo pogarsza, jeśli jest inaczej (Tversky, 1973). Co
ciekawe, wzbudzone instrukcją nastawienie na przechowywanie określonej
informacji wpływa pozytywnie na jej późniejsze rozpoznanie (Glenberg,
Adams, 1978), a nie zmienia wyników odpamiętywania (Dark, Loftus,
1976).

Bardziej elastyczny model jednofazowy Tulvinga wydaje się trafniejszy,


chociaż nie tłumaczy, dlaczego niekiedy wskaźniki rozpoznania
i odtwarzania idą w parze, a innym razem zupełnie się rozchodzą. Okazuje
się, że i w modelu dwufazowym można wyjaśnić pewne rozbieżności
między wskaźnikami rozpoznania i odtwarzania. Na przykład wspomniany
paradoks frekwencji słów ma pewne wyjaśnienie, które pozwala obronić
teorię dwufazowego odtwarzania. Wyjaśnienie to odwołuje się do
większego bogactwa związków semantycznych, w które wchodzą słowa
częściej używane, co sprawia, że są bardziej dostępne odtwarzaniu niż
słowa rzadko występujące. W teście rozpoznawania jednak słowa te, ze
względu na ich wysoką dostępność, mogą być łatwiej pomylone ze
słowami, które rzeczywiście były prezentowane. Chodzi o to, że w sieci
semantycznej trudno rozróżnić między źródłami pobudzenia wynikającymi
z łatwiejszej dostępności często używanych słów a dostępności związanej
z prezentacją eksperymentalną.

9.4.2. Rola wskazówek naprowadzających i kontekstu


Rola wskazówek naprowadzających była już wielokrotnie omawiana.
Szczególną wagę przypisuje im Tulving, choćby w koncepcji
specyficzności kodowania (Tulving, Thomson, 1973) czy omawianej
powyżej koncepcji odpamiętywania (Tulving, 1983). Badania Tulvinga
i Thomsona (1973) dotyczące efektu specyficzności kodowania (zob.
podrozdz. 9.2.1) wskazywały na wyraźne powiązanie warunków
zapamiętywania i odpamiętywania. Autorzy dostarczyli spektakularnych
danych wskazujących na większy wpływ na odpamiętanie zgodności
wskazówek wydobycia z warunkami kodowania informacji niż głębokości
jej przetworzenia. Do omówienia tych wyników dodajmy, że stwierdzony
przez badaczy efekt większej poprawności odpamiętywania niż
rozpoznawania jest znaczącym kontrargumentem przeciw teorii
dwufazowej Loftus. Trudno bowiem wyjaśnić, jak w tym samym zadaniu
proces złożony z przeszukiwania i rozpoznawania może dać gorsze
rezultaty (mniejsza poprawność) niż jeden z jego składników, tj.
rozpoznawanie.

Kluczowych dowodów na rolę wskazówek naprowadzających dostarczyli


Endel Tulving i Joseph Psotka (1971), badając proces zapominania.
Główny cel tych badań polegał na próbie weryfikacji różnych predykcji
modeli wyjaśniających to zjawisko na podstawie mechanizmu interferencji
retroaktywnej albo mechanizmu utraty wskazówek dostępu.
Poszczególnym grupom osób badanych prezentowano od jednej do sześciu
list słów. Na każdej liście znajdowały się 24 słowa, pochodzące z sześciu
kategorii. Po zakończeniu ekspozycji każdej listy następował test
swobodnego odtwarzania (pomiar początkowy). Po pokazaniu wszystkich
list przeprowadzono jeszcze jeden test odtwarzania, który dotyczył całości
przedstawionego materiału. Test miał postać albo swobodnego
odtwarzania, albo odtwarzania ukierunkowanego. W drugim przypadku
osobom badanym pokazano nazwy wszystkich kategorii, z których
pochodziły słowa.

Wyniki testu swobodnego odtwarzania wskazywały na silną interferencję


retroaktywną: prawdopodobieństwo poprawnego odtworzenia było niższe
w przypadku słów znajdujących się na wcześniej pokazywanych listach.
Jednak w odtwarzaniu ukierunkowanym nie stwierdzono interferencji
retroaktywnej (ryc. 9.12). Był to z jednej strony mocny argument na
korzyść teorii utraty wskazówek dostępu, a z drugiej – kluczowej ich roli
w odpamiętywaniu. Pojawienie się nazw kategorii, będących wskazówkami
wydobycia, wyeliminowało interferencję, znakomicie zwiększając ogólną
poprawność odpamiętywania.

RYCINA 9.12. Odsetek poprawnie odtworzonych słów w zależności od liczby zastosowanych


list i rodzaju testu odtwarzania
Metoda odtwarzania ukierunkowanego jest niepodatna na interferencję retroaktywną, wynikającą
z uczenia się kolejnych list, podczas gdy swobodne odtwarzanie ujawnia taką podatność.
Źródło: opracowanie własne na podstawie Tulving, Psotka, 1971.

Wskazówki dostępu mogą mieć charakter nie tylko zewnętrzny, lecz także
wewnętrzny. Zdecydowana część wskazówek wykorzystywanych
w mnemotechnikach jest właśnie tego typu: nowy materiał należy odnieść
do nabytej wcześniej wiedzy, która jest źródłem wskazówek wydobycia
(zob. podrozdz. 9.2.4). Innego rodzaju wskazówką naprowadzającą przy
odpamiętywaniu może być nastrój. Claudia Ucros (1989), dokonując
przeglądu różnych badań, stwierdziła trzy rodzaje wpływu nastroju na
odpamiętywanie. Po pierwsze, poprawność odpamiętania jest tym wyższa,
im większa jest zgodność nastroju w momencie kodowania i odtwarzania
(np. Bower, 1981). Efekt kontekstu wydaje się zatem obejmować nie tylko
wskazówki zewnętrzne, lecz także wewnętrzne, w tym emocjonalne. Po
drugie, pozytywny nastrój na ogół sprzyja zapamiętywaniu, przy czym –
i to po trzecie – efekt ten jest silniejszy, kiedy materiał pamięciowy ma
bardziej osobisty charakter (np. Yuille, Cutshall, 1986). Chodzi wówczas
raczej o dane epizodyczne lub autobiograficzne niż o „neutralną” wiedzę
ogólną.

Ważnym źródłem wskazówek wydobycia wydaje się również


środowiskowy kontekst zapamiętywania i odtwarzania. Z wcześniej
dyskutowanych rozważań wynika, że zgodność między kontekstem
zapamiętywania i odpamiętywania istotnie sprzyja skutecznemu
wydobywaniu informacji z pamięci. Baddeley (1982), na podstawie badań
poświęconych efektowi kontekstu (Godden, Baddeley, 1975, 1980),
zaproponował rozróżnienie między dwoma rodzajami wpływów
kontekstualnych na pamięć. Kontekst naturalny (intrinsic context)
charakteryzuje się naturalnym i bezpośrednim wpływem na znaczenie
zapamiętanej informacji, np. drzwi albo gęsi stanowią faktyczny kontekst
dla słowa „klucz”. Klasa lekcyjna, jako miejsce uczenia się, np.
o semantyce dwuznacznych słów, stanowi kontekst sztuczny (extrinsic
context), który nie jest bezpośrednio związany z właściwym znaczeniem
słowa „klucz” czy jakąkolwiek inną wiedzą Baddeley (1982) zakłada
jednak, że odtworzenie podlega wpływom kontekstualnym jednego
i drugiego rodzaju, podczas gdy rozpoznawanie – tylko kontekstu
naturalnego. W ten sposób autor wyjaśnia brak efektu kontekstu
w badaniach nad płetwonurkami, kiedy zastosowano test rozpoznawania.

9.5. Zawodność pamięci


O zawodności pamięci w pewnym sensie traktuje cały niniejszy rozdział,
mowa w nim bowiem głównie o rozbieżnościach między tym, co podlega
zapamiętywaniu, a tym, co zostaje później odpamiętane. Badania nad
pamięcią wskazują na znaczącą rozbieżność między liczbą informacji,
która podlega próbom zapamiętywania, a efektami odpamiętywania.
Natomiast w mniejszym stopniu koncentrowano się na błędach
pamięciowych, niepolegających na czysto ilościowej utracie informacji,
lecz na różnych postaciach zniekształceń dotyczących przywoływanych
treści.

O zawodności pamięci pisze się zwykle w kontekście pamięci


semantycznej, epizodycznej i autobiograficznej. Właściwie nie wspomina
się o tym problemie w odniesieniu do pamięci proceduralnej. Klasyfikacje
błędów pamięciowych są bardzo obszerne (zob. Hyman, 1999;
Niedźwieńska, 2004; Roediger, McDermott, 1999), lecz w tym miejscu
przedstawimy tylko kilka najważniejszych.

9.5.1. Pamięć naocznych świadków


Ustalenie warunków, w których możliwe jest uzyskanie najwyższej
zgodności przywołań pamięciowych z rzeczywistym przebiegiem zdarzeń,
jest celem psychologii zeznań świadków. Chodzi przede wszystkim
o świadków wszelkiego rodzaju przestępstw, którzy są niezastąpionym
źródłem informacji dla instytucji zajmujących się ich wykrywaniem
i wyjaśnianiem. Niekiedy są to sytuacje, w których wiarygodność
przywołań pamięciowych może decydować o życiu człowieka.

Bodaj najsłynniejszą badaczką psychologii zeznań świadków jest Elizabeth


Loftus. W ciągu kilkudziesięciu lat badań odkryła ona wiele czynników
zaburzających wiarygodność ich zeznań, z których istotna część ma
charakter pamięciowy. Pierwszy czynnik nie dotyczy bezpośrednio
funkcjonowania pamięci, choć ma na pamięć olbrzymi wpływ. Chodzi
o stan emocjonalny, w którym znajdują się świadkowie. Szczególnym
zdarzeniom, jakimi niewątpliwie są przestępstwa (np. napad, wypadek,
zabójstwo), towarzyszą zazwyczaj bardzo silne indukowane u nich emocje.
Powodują one wybiórcze zapamiętywanie zdarzeń: pewne elementy
pamiętane są doskonale (tzw. efekt lampy błyskowej), a pozostałe bardzo
słabo. Loftus i Terrence Burns (1982) dowiedli tego, prezentując osobom
badanym dwie sfilmowane wersje tego samego przestępstwa. Pod koniec
jednego z nich pojawiało się bardzo dramatyczne zdarzenie, którego nie
będziemy tu szczegółowo opisywać. W każdym razie wywoływało ono
w widzu silne emocje negatywne. Okazało się, że w wyniku tej procedury
zapamiętanie szczegółów przestępstwa, prezentowanego w początkowej
części filmu, zostało poważnie zaburzone.

Drugi czynnik wpływający na wiarygodność zeznań wiąże się z tzw.


pamięcią źródła informacji. Rozróżnienie na pamięć faktów i pamięć
źródła, wprowadzone przez Patricka Davidsona i Elizabeth Glisky (2002),
dotyczy całej pamięci deklaratywnej. Pamięć faktów to dane
przechowywane w pamięci semantycznej bądź epizodycznej. Pamięć
źródła zawiera z kolei kontekst nabywania informacji, znacznie ważniejszy
w wypadku epizodów niż wiedzy ogólnej. Stwierdzono jednak, że pamięć
źródła jest dość słaba, szczególnie u osób w podeszłym wieku (zob.
Maruszewski, 2005), co okazuje się mieć poważne konsekwencje dla
psychologii zeznań świadków. Świadek może np. mylić to, co widział,
z tym, co sugerowano mu, że mógł widzieć.

Na długo przed sformułowaniem koncepcji pamięci faktów i źródła Loftus


odkryła, że stosunkowo łatwo można doprowadzić do zintegrowania
faktów zaobserwowanych w trakcie zdarzenia, którego ktoś był świadkiem,
z faktami wywnioskowanymi z późniejszego opracowania zdarzenia.
W badaniach Elizabeth Loftus i Johna Palmera (1974) pokazano badanym
film przedstawiający wypadek drogowy. Osoby te relacjonowały przebieg
wypadku, a następnie zadawano im pytania uszczegóławiające w jednej
z dwóch postaci: (1) „Jaka była prędkość w momencie roztrzaskania się
(smash) samochodów?”; albo (2) „Jaka była prędkość w momencie
zderzenia się (hit) samochodów?”. W grupie kontrolnej nie zadawano
pytania o prędkość samochodów. Następnie poproszono badanych
o oszacowanie prędkości samochodów. Grupa (1) szacowała tę prędkość
średnio na 66 km/godz., podczas gdy grupa (2) na 55 km/godz. Po tygodniu
zapytano wszystkie trzy grupy, czy na miejscu wypadku znajdowało się
rozbite szkło. Twierdząco odpowiedziało 32% osób badanych z grupy (1),
14% z grupy (2) i 12% z grupy kontrolnej. W rzeczywistości na miejscu
wypadku nie było żadnego rozbitego szkła. Wynik ten autorki wyjaśniły
znaczeniem użytego w trakcie symulowanego przesłuchania czasownika
„roztrzaskać się”. Zawarta w nim sugestia, stając się częścią pamięci
zdarzenia, częściej skłaniała do wyciągania fałszywych wniosków
o obecności szkła na miejscu wypadku. Zjawisko modyfikacji przywołań
pamięciowych, wywołanych błędną informacją wprowadzoną do pamięci,
nazwano efektem dezinformacji.

Wydaje się, że mechanizmem efektu dezinformacji, stwierdzonym przez


Loftus i Palmera (1974), była utrata informacji dotyczącej źródeł
informacji (błąd monitorowania źródła). Osoby badane nie były w stanie
oddzielić wspomnień będących zapisem pochodzącym z obserwacji
zdarzenia od informacji zawartych w pytaniach eksperymentatora. Wydaje
się to naturalne, źródło dodatkowych informacji bowiem, czyli osobę
eksperymentatora, uznano za kompetentne i nie było powodu, aby tę
wiarygodność podważać. W badaniach potwierdzono, że im wyższa
wiarygodność źródła, tym silniejszy efekt dezinformacji (Smith, Ellsworth,
1987). Zgodnie z koncepcją D. Stephena Lindsaya i Marcii Johnson (1989),
błąd monitorowania źródła informacji wynika w takich sytuacjach ze
stosowania słabych kryteriów decyzyjnych: znajomość informacji, bez
względu na jej źródło, wystarcza do uznania jej za rzeczywistą. Wyniki
badań Marii Zaragozy (Zaragoza, Lane, 1994; Zaragoza, Mitchell, 1996)
wskazują ponadto, że badani są przekonani, że widzieli dodatkowe
elementy, wprowadzone do ich pamięci już po prezentacji filmu lub historii
obrazkowej, nawet jeśli tylko o nich czytali. Zaragoza i Karen Mitchell
tłumaczą to zjawisko włączaniem błędnych informacji do
wyobrażeniowych rekonstrukcji zdarzeń. Im częściej pojawia się tego typu
informacja (np. trzykrotnie czytają o dodatkowym elemencie), tym większe
są jej wyrazistość i pozorne podobieństwo do oryginalnego zapisu
zdarzenia.

Okazało się, że istnieje wyraźna różnica między podatnością na efekt


dezinformacji, w zależności od tego, czy zdarzenie miało centralne czy
peryferyczne znaczenie dla zapamiętywanej sytuacji. Loftus (1979)
wykazała, że jeśli zdarzenie ma charakter centralny, to jego detale są
dobrze pamiętane i niepodatne na wpływ manipulacji eksperymentalnych.
Badani przez Loftus oglądali kradzież portfela, a następnie (w wywiadzie)
pytano ich o różne szczegóły zajścia. Kiedy w jednym z pytań próbowano
zasugerować inny niż w rzeczywistości kolor portfela, badani byli na tę
sugestię odporni. Kiedy jednak sugestia nie dotyczyła centralnego
zdarzenia, na różne sposoby można było wpłynąć na ich pamięć. Ilustruje
to omówiony przykład eksperymentu Loftus i Palmera (1974). W innym
badaniu Loftus (1975) pokazała osobom badanym film przedstawiający
wypadek samochodowy. Następnie zadawała im pytania, celowo
wprowadzając do nich obiekty, których nie było w filmie. Obiekty te były
peryferyczne z punktu widzenia przebiegu wypadku. Na przykład pytano
badanych, z jaką prędkością przejeżdżał samochód obok stodoły, choć
w rzeczywistości żadnej stodoły w filmie nie było. Po tygodniu zapytano
uczestników eksperymentu, czy widzieli w filmie stodołę; 17% z nich
stwierdziło, że ją widziało, podczas gdy w grupie kontrolnej, w której nie
aplikowano tego typu sugestii, odsetek ten wyniósł 3. I w tym wypadku
osoby badane nie były w stanie oddzielić różnych źródeł informacji: tego,
co rzeczywiście zapamiętały, od tego, co zostało im zasugerowane
w pytaniu zaraz po prezentacji filmu.

Z pamięcią naocznych świadków jest również związane zjawisko


jednoczesnej utraty dostępu do części wspomnień pod wpływem
pobudzenia emocjonalnego. Odnosi się ono do pamięci zdarzeń
traumatycznych, takich jak wypadki czy rozboje, których ktoś był
świadkiem lub ofiarą. Sven-Ake Christianson i Loftus (1987, 1991; zob. też
Christianson, 1992), badając to zjawisko, stwierdzili, że pod wpływem
wysokiego poziomu pobudzenia emocjonalnego wywołanego
traumatycznym wydarzeniem pamięć świadków lub ofiar ulega
specyficznemu zniekształceniu – bodźce centralne, czyli ważne dla istoty
wydarzenia, są pamiętane dużo lepiej niż jego peryferyczne szczegóły. Dla
porównania, w warunkach kontrolnych tych eksperymentów, kiedy
prezentowano niepobudzające, neutralne wersje tych samych zdarzeń, to
zjawisko nie ujawniło się lub miało słabszą postać – bodźce centralne
i peryferyczne były pamiętane podobnie.

W celu zminimalizowania wpływu zniekształceń pamięci na zeznania


świadków opracowano specjalne techniki przeprowadzania z nimi
wywiadów. Jedną z najpopularniejszych jest wywiad poznawczy (cognitive
interview; Geiselman i in., 1984). Jest to strukturalizowana technika
przesłuchiwania świadków, mająca na celu ułatwienie im dostępu do
zapamiętanych zdarzeń. Cel ten realizowany jest przez zastosowanie
szeregu strategii odtwarzania wspomnień, odwołujących się do
mechanizmów działania pamięci. Szczególnie ważne w wywiadzie
poznawczym jest wykorzystanie różnorodnych wskazówek
naprowadzających i przypominanie szerokiego kontekstu danego zdarzenia
oraz odtwarzanie go przez świadka z różnych perspektyw (np.
z perspektywy ofiary, sprawcy, przypadkowego przechodnia). Wieloletnie
badania pokazują ogólnie dużą skuteczność wywiadu poznawczego,
szczególnie przy przesłuchiwaniu osób starszych (Memon, Meissner,
Fraser, 2010).

W trakcie badań nad skutecznością technik przesłuchiwania świadków


okazało się jednak, że czasami samo przeprowadzenie wywiadu może
prowadzić do problemów z przypominaniem. Jonathan Schooler i Tonya
Engstler-Schooler (1990) wykazali, że wywiad, przeprowadzony po
obejrzeniu filmu o przestępstwie, pogorszył późniejsze rozpoznanie twarzy
ukazanych w filmie przestępców. Autorzy, wyjaśniając to zjawisko,
odwołali się do efektu werbalnego zamazywania zapisów pamięci
wzrokowej (verbal overshadowing of visual memories), którego podłożem
byłaby interferencja retroaktywna. Materiał werbalny, pojawiający się
w trakcie wywiadu, jest „nadpisywany” na nabytym wcześniej materiale
wzrokowym. Wykazano jednak, że oryginalny zapis zdarzenia jest możliwy
do odróżnienia od informacji błędnych. Dokonano tego, stosując testy
wiedzy utajonej (Dodson, Reisberg, 1991), a także nowoczesne techniki
neuroobrazowania (Baym, Gonsalves, 2010). Prawdziwe i błędne
informacje angażowały częściowo odrębne struktury mózgowe. Prawdziwe
wspomnienia silniej angażowały obszary związane z przetwarzaniem
bodźców wzrokowych, co jest zrozumiałe, bo badani rzeczywiście widzieli
dane zdarzenie, podczas gdy fałszywe wspomnienie wizualizowane było
dzięki wyobraźni. Problem jednak w tym, że świadkowie nie są w stanie
świadomie oddzielić jednego od drugiego. Również badania z użyciem
EEG (Cadavid, Beato, 2016) pozwoliły ustalić charakterystyczne różnice
w aktywności mózgu w zależności od tego, czy osoba badana jako
prawdziwe lub fałszywe rozpoznawała wydarzenie, które rzeczywiście
miało miejsce lub nie. W przypadku poprawnego rozpoznawania
rzeczywistego zdarzenia amplituda sygnału EEG w oknie czasowym 500–
800 ms na elektrodzie ciemieniowej była najwyższa, natomiast
w przypadku poprawnego odrzucenia zdarzenia, które nie miało miejsca,
amplituda ta była najniższa. Takiej zależności nie obserwowano w innych
analizowanych oknach czasowych.

Interesującą technikę zapobiegania zniekształceniom pamięci świadków


zaproponowali Malwina Szpitalak i Romuald Polczyk (2019). Technika ta
opiera się na założeniu, że jednym z głównych powodów ulegania
dezinformacji i włączania fałszywych wspomnień w swoje zeznania jest
wątpienie w prawdziwość własnych wspomnień. Jest ona przede
wszystkim przeznaczona do tego, by poprawić zeznania świadków, którzy
właściwie pamiętają zdarzenia, których doświadczyli, jednak w trakcie
składania zeznań zamiast tych prawdziwych wspomnień jako prawdziwe
podają informacje zasugerowane przez zewnętrzne źródła (np. przez
eksperymentatora). Technika ta – wzmacnianie samoafirmacji – łączy ze
sobą elementy samoafirmacji i dostarczania pozytywnej informacji
zwrotnej. Zakłada ona, że wzmocnienie zaufania do własnych procesów
pamięciowych u świadków może prowadzić do większej odporności na
zniekształcenia pamięci spowodowane dezinformacją pochodzącą
z zewnętrznych źródeł.

Interesujące wyjaśnienie efektu dezinformacji zaproponowali Marcia


Johnson, Shahin Hashtroudi i Stephen Lindsay (1993). Pytania zadawane
np. w trakcie wywiadu aktywują ślady pamięciowe informacji związanej
z określonym zdarzeniem. Aktywacja dotyczy zapisów pochodzących
z różnych źródeł. Jeśli jednostka uświadamia sobie, jakie to są źródła, może
na tej podstawie dokonać ich rozróżnienia. Może jednak dochodzić do
błędnego przypisania tychże, gdy informacje z dwóch lub więcej źródeł są
do siebie podobne. Kiedy w trakcie wywiadu, manipulując treścią pytań,
włącza się dodatkowe informacje, osoby badane błędnie przypisują je
oryginalnemu źródłu, czyli samemu zdarzeniu. Dlatego w późniejszych
testach są one już nieodróżnialne, stanowią bowiem część pamięci danego
zdarzenia. Bem Allen i Stephen Lindsay (1998) uzyskali dane, które
mogłyby przemawiać na korzyść tej koncepcji. Zaprezentowali dwie
zupełnie odrębne historie, dziejące się w różnych miejscach, w których
brały udział różne postaci. Badani wiedzieli więc, że historie te nie mają ze
sobą żadnego związku. Pewne detale były jednak w obu bardzo podobne,
np. puszka Coca-Coli albo Pepsi. Okazało się to źródłem błędów: elementy
z drugiego opowiadania lokowane były w pierwszym. Wynik taki nie
pojawił się jednak od razu po prezentacji obu historii, a dopiero po dwóch
dniach.

Na ciekawą właściwość pamięci zdarzeń, istotną w zeznaniach świadków,


zwrócili uwagę Timothy Perfect i Tara Hollins (1996). Mianowicie, o ile
większość ludzi poprawnie ocenia sprawność swojej pamięci semantycznej,
o tyle zupełnie nie potrafi ocenić swojej pamięci zdarzeń. Częściej
jesteśmy skłonni powątpiewać we własną wiedzę semantyczną. Trafniej też
oceniamy jej braki. Podobnych wątpliwości nie mamy zwykle
w odniesieniu do pamięci zdarzeń. Możemy czegoś nie pamiętać, ale jeśli
już coś pamiętamy, to jesteśmy przekonani o słuszności naszej wersji
zdarzeń. Autorzy uważają więc, że ludzie mają tendencję do przeceniania
walorów pamięci zdarzeń.

9.5.2. Fałszywe wspomnienia


Wiele z przytoczonych badań wskazuje na pewną łatwość, z jaką włączamy
błędne informacje do pamięciowych zapisów zdarzeń. Do tej pory
pisaliśmy jednak wyłączne o pamięci epizodycznej. Tymczasem zjawisko
to rozciąga się na inne rodzaje pamięci i różne sytuacje. W odniesieniu do
pamięci semantycznej wykrył je Deese (1959b), stosując interesujący
paradygmat badawczy (zob. paradygmat 9.1).

Paradygmat 9.1

Pamięć fałszywych wspomnień

Paradygmat badania pamięci fałszywych wspomnień (false memory)


pochodzi od Jamesa Deese’a (1959b), a odkryty został ponownie w latach
90. XX w. przez Henry’ego Roedigera i Kathleen McDermott (1995).
Typowe zadanie w badaniach Deese’a polega na prezentacji listy,
zawierającej słowa powiązane znaczeniowo z pewnym pojęciem
krytycznym. To ostatnie nie jest jednak obecne na liście. Na przykład, jeśli
lista zawierała słowa: bed (łóżko), rest (odpoczynek, odpoczywać), awake
(budzić się), tired (zmęczony), dream (sen, marzenie senne), wake (budzić
się), snooze (drzemka, drzemać), blanket (koc), doze (drzemać), slumber
(sen), snore (chrapanie), nap (drzemka), peace (spokój), yawn (ziewać),
drowsy (senny), to pojęciem krytycznym, niewątpliwie powiązanym z całą
listą, jest sleep (sen, spać). Po zapoznaniu się z listą osoby badane
wykonywały test swobodnego odtwarzania. Liczba intruzji, czyli
przypadków błędnego włączenia słowa krytycznego do wyników testu
swobodnego odtwarzania, wahała się od 0 do 44% w zależności od stopnia
jego powiązania z wyrazami z listy. Im powiązanie to było większe, tym
wyższe stawało się prawdopodobieństwo intruzji.
Obecnie funkcjonuje kilka wyjaśnień tego zjawiska. Pierwsze odwołuje się
do mechanizmu rozprzestrzeniającej się aktywacji, jako podłoża
„normalnego” funkcjonowania pamięci (Collins, Loftus, 1975). Zakłada
się, że pojęcie krytyczne, jeśli jest silnie związane znaczeniowo z wyrazami
z listy, to jest pobudzane w takim samym stopniu, jak znajdujące się na niej
słowa. Dzieje się tak dzięki wielu połączeniom, którymi pojęcia („węzły”)
z listy powiązane są ze słowem krytycznym. Aktywacja pochodząca od
tych węzłów powoduje jego silne wzbudzenie. W tej sytuacji trudno
rozróżnić między słowami rzeczywiście eksponowanymi na liście
a słowem krytycznym (Balota i in., 1999). Inny mechanizm powstawania
fałszywych zapisów pamięciowych odwołuje się do zmniejszenia
efektywności kontroli uwagowej albo monitoringu, które są
odpowiedzialne za różnicowanie źródeł aktywacji (zob. Roediger,
McDermott, 1995, 1999). Mechanizm ten byłby więc podobny do
monitorowania źródła informacji w pamięci epizodycznej (zob. podrozdz.
9.5.1).

Loftus badała tworzenie fałszywych wspomnień autobiograficznych, które


są poważnym problemem w ustaleniu faktów z odległej przeszłości, np.
dzieciństwa człowieka. Elizabeth Loftus i Jacqueline Pickrell (1995)
prosiły krewnych osób badanych o opisanie wydarzeń z dzieciństwa tych
ostatnich. Na podstawie tych opisów konstruowano wywiad, w którym
osoba badana miała podać szczegóły owych wydarzeń. Oprócz
prawdziwych historii stworzono również opisy „zdarzeń” zmyślonych,
które były jednak w pewien sposób osadzone w dzieciństwie osób
badanych. Nie wprowadzano faktów ewidentnie fałszywych w świetle
obecnej ich wiedzy, np. podając nieprawdziwe miejsce ich zamieszkania
albo zmieniając imiona dobrze znanych im osób. W wywiadzie podawano
jedynie wskazówki, pozwalające na przypomnienie sobie szczegółów
zdarzenia, np. jego wyjątkowego miejsca albo nieszablonowego charakteru.
Okazało się, że osoby badane przypomniały sobie średnio 68%
prawdziwych zdarzeń i 25% zdarzeń fałszywych. Według Iry Hymana
(1999) implementacja fałszywych wspomnień jest możliwa, jeśli
prawdopodobne jest, że nieprawdziwe zdarzenie mogło mieć miejsce.
Prawdopodobieństwo to rośnie, jeśli zdarzenie jest dopasowane do wiedzy
i schematów poznawczych osoby badanej. Autor uważa również, że
fałszywe wspomnienia mają swoje źródło w błędnym monitorowaniu
źródła informacji. Obok wspomnianego już braku ostrych kryteriów
decyzyjnych, które nakazują różnicowanie informacji pochodzących
z różnych źródeł, wyróżnił on jeszcze trzy czynniki sprzyjające tego
rodzaju błędom. Są to: bogactwo szczegółów fałszywego zdarzenia,
wielokrotne rekonstruowanie jego przebiegu i większy odstęp czasu od
wprowadzenia fałszywej informacji do jej wydobycia.

Loftus (1996) wykazała również, że wpływ na wprowadzanie fałszywych


wspomnień do pamięci ma szczególnego rodzaju nastawienie. Autorka
poprosiła osoby badane o wypełnienie testu, który rzekomo ujawnił ich
wysokie zdolności percepcyjno-poznawcze (w rzeczywistości był to
element manipulacji eksperymentalnej). Następnie wyjaśniono
uczestnikom, że tego typu zdolności związane są ze stymulacją
percepcyjną, jakiej podlegają dzieci, które miały zawieszone nad głową
w łóżeczku poruszające się przedmioty, np. grzechotki. W dalszej części
badania posłużono się techniką odzyskiwania wspomnień
wczesnodziecięcych. Zastosowano regresję albo do pierwszych dni życia,
albo do początkowego okresu uczęszczania do przedszkola, po czym
poproszono badanych o opisanie tego, co sobie przypominają. Okazało się,
że około 60% osób badanych przypomniało sobie jakieś przedmioty
wiszące w łóżeczku nad ich głowami, a 25% – pamiętało krążki wiszące
nad ich głowami w przedszkolu.

9.5.3. Amnezja
Amnezja jest czasowym albo trwałym zaburzeniem jednego bądź wielu
systemów pamięciowych. Może być skutkiem urazu głowy albo innego
uszkodzenia mózgu wywołanego np. udarem, infekcją, działaniem toksyn
lub po prostu efektem starzenia się. Podstawowe objawy amnezji
sprowadzają się do trudności w zapamiętywaniu i odpamiętywaniu
informacji. W zależności od chronologii zdarzeń nią objętych wyróżnia się
dwa typy: amnezję następczą i wsteczną. Pierwsza dotyczy ograniczenia
albo utraty zdolności zapamiętywania nowych danych, a druga –
odpamiętywania informacji, które zostały nabyte przed wystąpieniem
czynnika powodującego amnezję.

Najsłynniejszy pacjent amnestyczny H.M. (wspominaliśmy o nim


w podrozdziale 9.3.1), w wyniku operacji neurochirurgicznej utracił
możliwość nabywania nowej wiedzy deklaratywnej. Wiedza nabyta przed
operacją, zarówno proceduralna, jak i deklaratywna, pozostała
nienaruszona, podobnie jak możliwość nabywania nowej wiedzy
proceduralnej. Jest to więc przypadek amnezji następczej. Uszkodzenia
mózgu wywołane operacją objęły kompleks ciała migdałowatego i część
hipokampu – struktur wiązanych z utrwalaniem nowych śladów
pamięciowych o charakterze pojęciowym. Nowsze badania prowadzą do
identyfikacji szeregu struktur mózgowych, lokowanych w korze
przedczołowej i międzymózgowiu, które również odgrywają istotną rolę
w różnych procesach pamięciowych (zob. Kossut, 2018; Kowalska, 2000).
Mechanizm amnezji następczej wiąże się z zaburzeniem procesu
konsolidacji śladów pamięciowych. Alan Baddeley i Elizabeth Warrington
(1970), badając krzywe pozycyjne u pacjentów amnestycznych, wykryli, że
zaburzeniu podlega wyłącznie efekt pierwszeństwa (ryc. 9.13). Badani
zapamiętali około 20% mniej słów z początku listy niż osoby z grupy
kontrolnej. Jeszcze większa różnica dotyczyła środka listy i wyniosła nawet
50%, przy czym poziom odtworzenia słów obniżał się w grupie osób
z amnezją niemal do zera. Natomiast efekt świeżości nie ulegał żadnemu
zaburzeniu. Baddeley (1998) opisuje różne przypadki amnezji, w tym kilka
przykładów krótkotrwałej amnezji wywołanej wstrząśnieniem mózgu
u zawodników grających w football amerykański. Co ciekawe, zaraz po
doznaniu urazu pamiętali oni, co się stało, ale po kilku minutach nie byli
w stanie przypomnieć sobie okoliczności zdarzenia. Wydaje się, że
odpamiętanie zdarzenia zaraz po urazie mogło się odbyć bezpośrednio
z pamięci krótkotrwałej. Zaburzenie procesu konsolidacji wywołane
wstrząsem powodowało jednak, że ślad tego zdarzenia został bezpowrotnie
utracony wraz z zanikiem informacji z STM.

RYCINA 9.13. Krzywe pozycyjne w grupie pacjentów z amnezją i – porównawczo – w grupie


kontrolnej osób zdrowych
Źródło: opracowanie własne na podstawie Baddeley, Warrington, 1970.

Amnezja wsteczna pojawia się głównie w przypadkach uszkodzenia płatów


skroniowych, hipokampu i płatów czołowych. Jej poznawcze podłoże
dotyczy trudności w transferze informacji z pamięci długo- do
krótkotrwałej, co jest niezbędne w werbalizacji wiedzy deklaratywnej.
Interesującym zjawiskiem dotyczącym amnezji wstecznej jest skracanie
okresu obejmującego amnezję wraz z upływem czasu od momentu
doznania urazu. Baddeley (1998) opisuje przypadek ogrodnika, który
doznał urazu głowy w wyniku wypadku motocyklowego. Początkowo
okres amnezji obejmował ponad 10 lat, ale po upływie dwóch tygodni od
wypadku skrócił się on do około dwóch lat. Po krótkiej rekonwalescencji
ogrodnik wrócił do swoich obowiązków zawodowych i choć nie pamiętał
wsi, w której pracował, zupełnie sprawnie wykonywał codzienne czynności
związane z pielęgnacją ogrodu. Po 10 tygodniach odzyskał pamięć niemal
całkowicie, z wyjątkiem kilku minut poprzedzających wypadek.

Z pamięcią proceduralną wiązany jest podkorowy obszar zwojów podstawy


(basal ganglia), który u pacjenta H.M. i ogrodnika-motocyklisty nie został
naruszony. Dlatego bez większych problemów mogli oni korzystać
z umiejętności nabytych przed urazem. Trudności w nabywaniu
i korzystaniu z wiedzy u pacjentów amnestycznych nie dotyczą właściwie
żadnej formy pamięci niedeklaratywnej (zob. Baddeley, 1998). Wykazano,
że osoby z amnezją następczą z powodzeniem mogą nabywać tego rodzaju
wiedzę w różnego rodzaju procedurach mimowolnego uczenia się. Nie
pamiętają jednak nawet epizodu jej nabywania. Z kolei dane kliniczne
pochodzące od pacjentów cierpiących na chorobę Parkinsona, prowadzącą
do uszkodzenia zwojów podstawy, wskazują na zaburzenia nabywania
umiejętności o charakterze proceduralnym, przy zachowaniu możliwości
tworzenia nowych zapisów deklaratywnych. Bardzo specyficzne
zaburzenia pamięci niedeklaratywnej obserwuje się np. w chorobie
Alzheimera. Wiedza proceduralna, podobne jak zdolność do jej nabywania,
pozostaje właściwie nienaruszona, zaburzeniu podlega natomiast
poprzedzanie semantyczne. Przede wszystkim jednak pacjenci cierpiący na
chorobę Alzheimera wykazują ubytki w zakresie pamięci deklaratywnej.

9.6. Podsumowanie
Jedną z charakterystycznych cech psychologii jest koncentracja na błędach
i innych przejawach niedoskonałości umysłu ludzkiego.
Z metodologicznego punktu widzenia należy taką postawę uznać za
pożądaną, a w każdym razie zrozumiałą, bo dzięki błędom i usterkom
łatwiej nam dostrzec i zrozumieć budowę oraz sposób funkcjonowania
dowolnego mechanizmu, nie wyłączając umysłu i tworzących go struktur.
Ubocznym skutkiem koncentracji na błędach jest jednak łatwość, z jaką
przychodzi nam podawanie w wątpliwość skuteczności badanych
mechanizmów poznawczych. Pamięć jest pod tym względem szczególnie
narażona na krytykę, o czym może świadczyć przytoczony na początku
rozdziału aforyzm Oskara Wilde’a. Tymczasem, wytykając pamięci
grzechy i słabości, nie doceniamy tego, jak olbrzymią i w zasadzie
bezbłędną pracę wykonują dla nas różne systemy przechowywania
informacji. Poprawne odpamiętanie danych jest bardzo często
automatyczne i bezwysiłkowe, przez co trudne do zauważenia i docenienia.
Na przykład podczas mówienia bezustannie i bez większych przeszkód
czerpiemy z zasobów pamięci semantycznej, przez co prawie zawsze i bez
wysiłku znajdujemy pożądane słowo. Dopiero stosunkowo rzadkie
przypadki braku dostępu do zasobów pamięci, np. niemożność
przypomnienia sobie znanego nam słowa, i związane z tym próby
wysiłkowego przywołania brakujących informacji sprawiają, że zaczynamy
pamięci wytykać jej zawodność. Traktujemy naszą pamięć jak niewolnika,
który pracuje ponad siły, za co nie usłyszy dobrego słowa, ale od czasu do
czasu nie jest w stanie podołać stawianym mu zadaniom, i wtedy jest
karcony. W rozdziale tym omówiliśmy procesy pamięciowe, niezbędne
w poprawnym funkcjonowaniu pamięci – zapamiętywanie,
przechowywanie i odpamiętywanie. Przedstawiliśmy również zjawiska
świadczące o zawodności pamięci – powstawanie fałszywych wspomnień,
pamięć tunelową i amnezję – które także rzucają światło na mechanizmy
funkcjonowania tej zdolności naszego umysłu. Na szczęście psychologia
poznawcza, oprócz katalogowania przypadków zawodności pamięci
i badania kryjących się za nimi mechanizmów, oferuje też całkiem sporą
i przyrastającą porcję wiedzy na temat sposobów wspomagania pamięci
oraz zapobiegania jej defektom.

Badania tego rodzaju będą przypuszczalnie coraz liczniejsze ze względu na


starzenie się społeczeństw i związane z tym konsekwencje w postaci
defektów pamięci skorelowanych z wiekiem.
Część III

Złożone procesy poznawcze


Rozdział 10

Myślenie i rozumowanie

Istota myślenia
Rodzaje myślenia
Myślenie autystyczne i realistyczne
Myślenie produktywne i reproduktywne
Myślenie twórcze i odtwórcze
Myślenie krytyczne
Od myślenia sensoryczno-motorycznego do postformalnego
Teorie myślenia
Teoria Berlyne’a
Teoria Barona
Struktura myślenia
Elementy struktury myślenia
Operacje i strategie
Reguły, algorytmy i heurystyki
Myślenie a inne złożone procesy poznawcze
Rozumowanie dedukcyjne
Dedukcja i indukcja
Rozumowanie sylogistyczne
Błędy rozumowania sylogistycznego
Wpływ wiedzy i kontekstu na rozumowanie sylogistyczne
Rozumowanie warunkowe
Istota rozumowania warunkowego
Błędy rozumowania warunkowego
Wpływ wiedzy i kontekstu na rozumowanie warunkowe
Teorie rozumowania dedukcyjnego
Teoria abstrakcyjnych reguł
Teoria modeli umysłowych
Rozumowanie indukcyjne
Testowanie hipotez
Rozumowanie przez analogię
Inne rodzaje rozumowania
Rozumowanie probabilistyczne
Rozumowanie nieformalne
Podsumowanie
Myślenie to proces łączenia elementów poznawczej reprezentacji świata (obrazów, pojęć lub sądów)
w dłuższe ciągi. Tak utworzony ciąg zastępuje realne, obserwowalne zachowanie w rzeczywistym
świecie fizycznym lub społecznym, uwalniając nas od konieczności ponoszenia natychmiastowych
skutków własnych działań.
Rozumowanie jest procesem formułowania wniosku na podstawie przesłanek, czyli
z wykorzystaniem uprzednio nabytej lub powszechnie dostępnej wiedzy.

Rozpocznijmy od zagadki. Sułtan miał dwóch doradców: rachmistrza


i filozofa ślepca. Pewnego razu, być może znudzony monotonią rządzenia,
wezwał ich do siebie i zadał im zagadkę:

– Mam trzech synów. Ile lat ma każdy z nich, jeśli iloczyn wieku
każdego z nich wynosi 36? Wiesz? – zwrócił się do rachmistrza.
– Nie.
– A ty? – zapytał filozofa ślepca.
– Nie.
– Więc wam podpowiem: suma wieku każdego z nich wynosi tyle, ile
okien ma ten pałac naprzeciwko. – Zapytał rachmistrza: Wiesz?
– Nie.
– A ty? – zapytał filozofa ślepca.
– Nie.
– Dam wam więc ostatnią wskazówkę: mój najstarszy syn nosi
niebieski turban. – Po czym znowu zwrócił się do rachmistrza: Wiesz?
– Nie.
– A ty? – zapytał filozofa ślepca.
– Tak.

Jest tylko jeden sposób rozwiązania tej zagadki, który nie wymagałby
myślenia: wystarczy przewrócić kartkę i po prostu o nim przeczytać.
W każdym innym przypadku, nawet jeśli nie uda się znaleźć odpowiedzi,
poczynione próby będą angażować procesy myślenia i rozumowania.
Rozwiązywanie zagadki należy rozpocząć od rozpisania wszystkich trójek
liczb, których iloczyn wynosi 36 (pierwsza wskazówka). Jest ich aż osiem
(tab. 10.1), zatem pierwsza wskazówka nie wystarcza do rozwiązania
zagadki. Kolejna podpowiedź może wydać się nieco zaskakująca,
szczególnie że czytelnik – podobnie jak ślepiec – nie może policzyć okien
pałacu. Filozof ślepiec zapewne zadał sobie pytanie, dlaczego rachmistrz
nie może udzielić odpowiedzi, skoro policzył okna pałacu. Wniosek: nawet
jeśli się je policzy, nadal nie sposób rozstrzygnąć, który z ośmiu układów
trzech liczb jest rozwiązaniem zagadki. Jest to cenna informacja dla
filozofa ślepca, pozwalająca na odrzucenie wszystkich kombinacji dających
iloczyn 36, z wyjątkiem dwóch: 1, 6, 6 oraz 2, 2, 9. W obu przypadkach
iloczyn jest równy 36, a suma wynosi 13. Trzecia wskazówka okazuje się
wystarczająca dla filozofa-ślepca, chociaż nie ma ona postaci rachunkowej
i zapewne dlatego nic nie daje rachmistrzowi. Wskazówka, że najstarszy
syn nosi niebieski turban, pozwala na wyeliminowanie układu 1, 6, 6, w tej
sytuacji bowiem jest dwóch najstarszych synów, a wskazówka mówi tylko
o jednym. Poprawna jest więc odpowiedź: 2, 2, 9, co też odgadł filozof
ślepiec.

TABELA 10.1. Podpowiedzi do zagadki sułtana


Wiek synów dający iloczyn 36 Suma

1, 1, 36 38

1, 2, 18 21

1, 4, 9 14

1, 3, 12 16

1, 6, 6 13

2, 2, 9 13

2, 3, 6 11

3, 3, 4 10

Źródło: opracowanie własne.

10.1. Istota myślenia


Zarówno zagadki, jak i złożone czy ważne problemy życiowe wymagają
myślenia, dzięki któremu możemy znaleźć rozwiązanie wyłącznie dzięki
przekształceniom dokonywanym na umysłowych reprezentacjach świata.
W tym sensie myślenie zastępuje działanie (jest jego substytutem); pozwala
na symulowanie wydarzeń rozgrywających się w świecie realnym, bez
negatywnych, ale i pozytywnych konsekwencji typowych dla
rzeczywistego zachowania (Nęcka, 1992/1997). Myślenie jest jednym
z narzędzi budowania modeli mentalnych (zob. podrozdz. 10.5.2),
zawierających m.in. alternatywne wersje wydarzeń, które mogłyby być
skutkiem podjęcia określonych działań. Jest ono też narzędziem testowania
tych modeli, pozwala bowiem na wypróbowanie różnych działań
w „wirtualnym”, wyobrażonym świecie, zanim zostaną naprawdę podjęte.
Dlatego im więcej jest tych modeli i im bardziej przystają one do
rzeczywistości, tym większe jest prawdopodobieństwo podjęcia
optymalnego działania. Z tych względów w badaniach nad myśleniem
analizuje się dwa problemy: problem reprezentacji wiedzy o świecie
i problem operacji umysłowych, zwanych bardziej formalnie procedurami
obliczeniowymi (computational procedures). Z uwagi na przyjętą strukturę
podręcznika, w której problem reprezentacji opisano osobno (zob. rozdz.
2–4), skoncentrujemy się na drugiej z wymienionych kwestii.

Myślenie jest narzędziem uniwersalnym: pozwala modelować sytuacje


realne i nierealne, konkretne i abstrakcyjne, dobrze i słabo znane. Pozwala
w związku z tym zmagać się z dowolnym problemem, co nie znaczy, że
zawsze będzie to skuteczne. W szczególności, dzięki myśleniu możemy
rozwiązywać abstrakcyjne problemy logiczne lub matematyczne, mimo że
w historii naturalnej gatunku ludzkiego przypuszczalnie nie było zbyt wielu
okazji, aby takie sprawności ćwiczyć i rozwijać. Zdaniem Stevena Pinkera
(2002) nie ma przepaści między wzorcami myślenia w trakcie
rozwiązywania problemów, z którymi borykali się nasi przodkowie
w długim okresie antropogenezy, a procesami myślenia angażowanymi
w rozwiązywanie abstrakcyjnych problemów współczesnego świata. Pinker
(tamże; zob. też Gould, 1999) uważa, że chociaż mózg człowieka został
ukształtowany w toku rozwiązywania konkretnych problemów, z jakimi
spotykali się członkowie społeczności zbieracko-łowieckich na
afrykańskiej sawannie, później został przystosowany do zadań innego typu,
głównie do czynności abstrakcyjnych. Proces adaptacji struktur
mózgowych do wymagań, które pierwotnie nie były im stawiane, czyli tzw.
egzaptacja (exaptation), nie jest jednak doskonały. Jako gatunek
popełniamy więc systematyczne błędy w myśleniu, a zwłaszcza
w rozumowaniu.
Jak bardzo może się różnić myślenie w sytuacjach naturalnych
i abstrakcyjnych, dowodzi Michael Cole (Cole, Gay, Glick i Sharp, 1971),
podając wiele przykładów myślenia pozornie nielogicznego. Autor ten
badał przedstawicieli plemienia Kpelle z Liberii, prosząc ich o rozwiązanie
prostych sylogizmów. Przykładowe zadanie miało następującą postać:
„Flumo i Yakpalo zawsze razem piją sok trzcinowy. Flumo pije sok
trzcinowy. Czy Yakpalo pije sok trzcinowy?”. Odpowiedzi udzielane przez
lud Kpelle były np. takie: „W dniu, w którym Flamo pił sok trzcinowy,
Yakpalo nie było w wiosce” albo „Yakpalo tutaj teraz nie ma. Dlaczego nie
pójdziesz do niego i sam go nie spytasz?”. Anegdota głosi, że kiedy
eksperymentator chciał przejść do kolejnego pytania, jeden z badanych
zapytał: „Chwila, chcesz wiedzieć, czy Yakpalo pije sok trzcinowy, czy nie
chcesz?”. Nie były to oczekiwane przez badacza odpowiedzi na postawione
pytania, ale bynajmniej nie świadczyły o braku inteligencji (Neisser, 1976).
Biorąc pod uwagę praktyczny kontekst, w którym kształtowało się
myślenie plemienia Kpelle, odpowiedzi te są bardziej inteligentne, niż
mogli się tego spodziewać badacze. Utajona „definicja” inteligencji,
przyjmowana w danej kulturze, wpływa na to, jakie zachowania będą
w niej cenione i wzmacniane. Definicja ta jest ściśle związana z potrzebami
i celami konkretnej kultury. Zastosowanie zdolności do abstrakcyjnego
myślenia w realiach życia plemienia Kpelle pozostaje zapewne dość
ograniczone, w przeciwieństwie do praktycznych wymagań życia
codziennego. Dlatego odpowiedzi na sylogizmy Cole’a należy uznać za
inteligentne i świadczące o wysokiej sprawności procesów myślenia.

Oczywiście zainteresowanie psychologów tym, jak rozwiązujemy


sylogizmy, ma głęboki sens. Ich niekiedy absurdalna treść1 pozwala na
badanie myślenia w sterylnej postaci, oderwanej od doświadczenia
jednostki. Dzięki temu uzyskujemy dostęp do formalnych właściwości
myślenia, które są podstawą wyodrębnienia różnych jego rodzajów (zob.
podrozdz. 10.2). Kontekst treściowy zadań modyfikuje proces myślenia,
niekiedy go wspomagając, a kiedy indziej zaburzając, przez co stanowi
dodatkowe źródło wariancji obserwowanych wyników badań. W związku
z tym współczesne badania nad myśleniem, rozumowaniem
i rozwiązywaniem problemów nie abstrahują od treści zadań, lecz poddają
ją ścisłej kontroli. W tego typu badaniach na różne sposoby wykazuje się
istotne zróżnicowanie sprawności tych procesów w zależności od treści,
jakich dotyczą. Przykładowo w badaniach Terezinhy Carraher, Davida
Carrahera i Analúcii Schliemann (1985, za: Wagner, 2000) osoby badane
rozwiązywały zadania arytmetyczne, które prezentowano im w różnych
postaciach: abstrakcyjnego równania matematycznego, realistycznego
zadania tekstowego i transakcji kupna–sprzedaży. Problemy te były
izomorficzne, tj. identyczne w swojej strukturze głębokiej (w tym
przypadku były identyczne rachunkowo), jednak różniły się treścią.
Okazało się, że w przypadku abstrakcyjnej formy problemu poprawność
wykonania wyniosła 37%, kiedy było to zadanie tekstowe – 74%, a gdy
przybrało postać transakcji kupna–sprzedaży – aż 96%. Nie chodzi tylko
o to, że problemy różniły się poziomem konkretności, lecz o powiązanie
ich treści z doświadczeniem osób badanych w rozwiązywaniu danego typu
problemów. W innych badaniach Stephen Ceci i Ana Ruiz (1991)
zauważyli, że eksperci w jednej dziedzinie (totalizatorze na wyścigach
konnych) nie potrafili dokonać transferu swojej wiedzy na inną dziedzinę
(giełdę papierów wartościowych), mimo że stawiane przed nimi problemy
były izomorficzne. Chodzi więc o związek różnych aspektów problemów
(treści, kontekstu, wymaganych do ich rozwiązania operacji poznawczych)
z osobistym doświadczeniem, przekładającym się m.in. na wprawę
w stosowaniu określonych strategii.
Inne badania wskazują, że istotny wpływ na efektywność myślenia ma
również motywacja (Ceci, 1990). Dzieci biorące w nich udział miały za
zadanie przewidywanie położenia figur geometrycznych eksponowanych
na ekranie komputera. Wyświetlaniem figur rządziła pewna
nieskomplikowana reguła, więc w pewnej serii prób można ją było
z powodzeniem wychwycić. Okazało się, że po 750 próbach dzieci
reagowały na poziomie przypadku. Jeśli jednak zadanie zostało zmienione
tak, aby miało postać gry komputerowej (przy zachowaniu podobieństwa
reguł w stosunku do poprzedniej wersji), poprawność przewidywań
wzrosła po 750 próbach do 90%. Oczywiście oprócz motywacji osób
badanych zmieniła się również powierzchniowa (treściowa)
charakterystyka zadania, co uczyniło je bardziej przyjaznym dla
użytkownika. Konkludując, można przywołać stanowisko Pinkera (2002, s.
330), który twierdzi, że „żaden organizm nie potrzebuje pozbawionych
treści algorytmów, dających się stosować do każdego problemu,
niezależnie od jego ezoteryczności”. Zależność myślenia, w szczególności
błędów, jakie popełniamy w tym procesie, od złożonego zewnętrznego
i wewnętrznego kontekstu działania jednostki, jest najzupełniej zrozumiała
przy uwzględnieniu warunków, w których kształtował się nasz system
poznawczy. Jeśli zapytamy, czy człowiek jest istotą racjonalną, odpowiedź
brzmi, że z punktu widzenia logiki formalnej niekiedy, a nawet często, nie
jest. Gerd Gigerenzer i współpracownicy (Goldstein, Gigerenzer, 2002;
Todd, Gigerenzer, 2012) oraz Leda Cosmides i John Tooby (1996) mówią
jednak o tzw. racjonalności ekologicznej (ecological rationality),
tłumaczącej niepełne dostosowanie umysłów naszego gatunku do myślenia
abstrakcyjnego, w przeciwieństwie do znakomitego ich dostosowania do
myślenia praktycznego. Niemniej bez zdolności myślenia abstrakcyjnego
nie byłoby większości odkryć naukowych, wynalazków i wielu innych
osiągnięć ludzkości, dzięki którym jesteśmy teraz tu, gdzie jesteśmy.

W psychologicznych koncepcjach myślenia można wyodrębnić trzy


rodzaje modeli: deskryptywne, preskryptywne i normatywne. Ich
rozróżnienia dokonamy z wykorzystaniem przykładu zadania z zakresu
rachunku prawdopodobieństwa (Kahneman, Tversky, 1972). W pewnym
mieście stwierdzono, że wszystkie zamieszkujące je rodziny mają sześcioro
dzieci. W 72 rodzinach kolejność urodzin dziewcząt (D) i chłopców (C)
była następująca: D C D C C D. Należy oszacować liczbę rodzin,
w których kolejność urodzin dzieci była taka: C D C C C C. Większość
badanych Daniela Kahnemana i Amosa Tversky’ego twierdziła, że takich
rodzin będzie mniej niż 72, nawet jeśli wiedzieli, iż prawdopodobieństwo
narodzin chłopca lub dziewczynki jest jednakowe. Z rachunku
prawdopodobieństwa wynika, że oba układy narodzin są jednakowo
prawdopodobne, składa się bowiem na nie sześć niezależnych zdarzeń
(narodzin), z których każde może wystąpić z prawdopodobieństwem 1/2.

Modele deskryptywne ujmują myślenie z perspektywy tego, jak ludzie


„naprawdę” myślą. Ich ambicją nie jest dociekanie tego, jak powinno
przebiegać myślenie człowieka z punktu widzenia poprawności
wnioskowania czy logiki. Celem jest opis procesu myślenia w jego
rzeczywistej postaci ze wszystkimi systematycznymi błędami
i uproszczeniami. Podstawową formą ekspresji tych modeli są heurystyki,
czyli uproszczone reguły wnioskowania i podejmowania decyzji,
stosowane w konkretnych sytuacjach. Heurystyki, chociaż na ogół
skuteczne, w szczególnych warunkach zawodzą, jak w przypadku
opisanego problemu, wykorzystanego przez Kahnemana i Tversky’ego
(tamże). Autorzy tłumaczą zaobserwowane błędy stosowaniem tzw.
heurystyki reprezentatywności (zob. podrozdz. 12.1.1), jako że proporcja
chłopców do dziewcząt w pierwszym przypadku jest bardziej
reprezentatywna dla proporcji mężczyzn i kobiet w populacji, a ponadto
wydaje się – rzecz jasna niesłusznie – bardziej przypadkowa.

Modele preskryptywne i normatywne dotyczą tego, jak powinniśmy


myśleć. Modele preskryptywne traktują o poprawności z punktu widzenia
stosowanych heurystyk. Heurystyka reprezentatywności w odniesieniu do
szacowania prawdopodobieństwa zdarzeń działa z powodzeniem, jeśli są
one od siebie zależne. Prawdopodobieństwo zdania dziesiątego egzaminu
na ocenę bardzo dobrą przez wyróżniającego się studenta jest wyższe niż
to, że go wcale nie zda. Zdarzenie to nie jest losowe i nie jest niezależne od
poprzednich osiągnięć studenta, które z kolei wynikają zapewne z jego
zdolności i pracowitości. Błąd większości osób biorących udział
w badaniach Kahnemana i Tversky’ego polegał więc na zastosowaniu
heurystyki niedostosowanej do charakteru zadania. Właściwą dla niego
heurystykę można byłoby sformułować następująco: każda sekwencja
takiej samej liczby równie prawdopodobnych zdarzeń jest zawsze tak samo
prawdopodobna (zob. Baron, 2000).

Modele normatywne dotyczą z kolei poprawności myślenia z punktu


widzenia pewnego systemu norm, którym może być – odnosząc się do
przykładu zadania Kahnemana i Tversky’ego – teoria rachunku
prawdopodobieństwa. Stosując poniższy wzór, możemy wyliczyć
i porównać prawdopodobieństwa p uzyskania ciągów D C D C C D oraz C
D C C C C:

p(ciągu zdarzeń) = π [p(poszczególnych zdarzeń)],

czyli w przypadku obu powyższych ciągów:

p = 1/2 · 1/2 · 1/2 · 1/2 · 1/2 · 1/2 = 1/64.


Prawdopodobieństwo to jest identyczne w obu przypadkach. Aplikowanie
modeli normatywnych do myślenia wiąże się jednak z dwoma problemami.
Po pierwsze, jest ono zwykle bardziej czasochłonne i bardziej wysiłkowe
niż zastosowanie prostszych heurystyk. Wykorzystanie modeli
preskryptywnych w przedstawionym przykładzie daje taki sam rezultat,
a nie wymaga szczegółowych kalkulacji. Niekiedy zdarza się, że użycie
każdego z trzech opisanych modeli daje dokładnie taki sam rezultat bądź
różnice między nimi są niewielkie. W wielu sytuacjach – szczególnie
codziennych – wysiłek włożony w zastosowanie modelu normatywnego
może być niewspółmierny do uzyskanego rezultatu.

W psychologii poznawczej większość badań dotyczy modeli


deskryptywnych. Wyniki tych badań są jednak konfrontowane z modelami
normatywnymi, co pozwala na śledzenie zbieżności i rozbieżności między
nimi. Z kolei modele preskryptywne, dające podobne rezultaty jak modele
normatywne, ale pozwalające na stosowanie uproszczonych heurystyk,
mają zastosowanie głównie w edukacji.

Tomasz Maruszewski (2016) podaje w wątpliwość dwie podstawowe


właściwości myślenia w rozumieniu potocznym. Pierwsza dotyczy tego, że
myślenie jest procesem świadomym. Świadomość odgrywa istotną rolę
w myśleniu, ponieważ bez uświadomienia sobie rezultatów myślenia
niemożliwe byłoby m.in. dokonanie oceny, że osiągnęliśmy założony cel.
Uświadomieniu podlegają więc efekty myślenia (nie tylko końcowe, lecz
także pośrednie) oraz – ewentualnie – algorytmy i heurystyki stosowane
w myśleniu, podczas gdy jego „mechanika” może pozostać
nieuświadomiona. Myślenie, jako złożony proces poznawczy, angażuje
cały nasz aparat poznawczy, który – jak wielokrotnie wykazywano
w poprzednich rozdziałach – w dużej mierze działa poza świadomością.
Mocnym dowodem na poparcie tej tezy wydaje się fenomen
rozwiązywania problemów przez wgląd (zob. podrozdz. 11.7.4). Mimo
kontrowersji co do poznawczego mechanizmu wglądu istotne jest to, że
pojawia się on nagle, co zwykle zaskakuje samą osobę rozwiązującą
problem. Co ciekawe, nie jest ona świadoma czynników, które
doprowadziły ją do znalezienia rozwiązania. Również dane empiryczne
wskazujące na wpływ podpowiedzi, które wspomagają rozwiązywanie
problemów wymagających wglądu bez uświadomienia sobie tego wpływu,
a nawet zdawania sobie sprawy z obecności samych podpowiedzi,
sugerują, że myślenie obejmuje czynniki nieuświadamiane. Drugą cechą
myślenia w ujęciu potocznym, kwestionowaną przez Maruszewskiego, jest
kontrolowany charakter tego procesu. Doskonałym argumentem za
słusznością stanowiska Maruszewskiego są badania nad intruzjami
w myśleniu. Myśli intruzywne, dotyczące treści nieprzyjemnych dla
podmiotu, pojawiają się w świadomości mimo starań ich wyparcia. Co
więcej, im bardziej próbujemy o nich nie myśleć, tym łatwiej powracają
(Wegner, 1989). Myśli intruzywne nie poddają się zatem kontroli.

10.2. Rodzaje myślenia

10.2.1. Myślenie autystyczne i realistyczne


Myślenie autystyczne (autistic thinking) – rodzaj myślenia, które nie jest nastawione na osiągnięcie
konkretnego efektu; charakterystyczne dla stanu relaksacji. Polega na tworzeniu luźnych skojarzeń
i oderwanych od rzeczywistości spekulacji. Mimo braku ukierunkowania na cel, pełni ważną funkcję
w życiu każdego człowieka – pozwala fantazjować i zastępczo zaspokajać potrzeby, które chwilowo
nie są możliwe do zaspokojenia.

David Berlyne (1969) wyróżnił dwa rodzaje myślenia: autystyczne


i realistyczne. Kryterium tego podziału dotyczy ukierunkowania procesów
umysłowych, czyli nastawienia na osiągnięcie określonego celu. Myślenie
autystyczne to rodzaj myślenia, które nie jest nastawione na osiągnięcie
konkretnego efektu. Jest to myślenie charakterystyczne dla stanu relaksacji,
kiedy myślimy o tzw. niebieskich migdałach. W swojej istocie polega na
tworzeniu luźnych skojarzeń i oderwanych od rzeczywistości spekulacji.
Mogą w nim przestać obowiązywać zasady logiki i konsekwencji, a kolejne
akty myślenia mogą być ze sobą bardzo luźno powiązane. Należy
podkreślić, że w takim rozumieniu myślenie autystyczne nie jest w żaden
sposób zaburzone ani nie stanowi objawu patologii. Mimo że nie jest
ukierunkowane na cel, spełnia ważną funkcję w życiu każdego człowieka.
Pozwala fantazjować i zastępczo zaspokajać potrzeby, które chwilowo nie
są możliwe do realizacji. W odpowiednich warunkach może też stać się
podłożem twórczości. Typowe dla myślenia autystycznego luźne
skojarzenia są podstawą technik twórczego oddalenia (np. superpozycji,
zob. Nęcka, 1994b; Nęcka, Orzechowski, Słabosz, Szymura, 2005),
stosowanych w rozwiązywaniu problemów. Oderwane od rzeczywistości
spekulacje mogą też stanowić podstawę technik opierających się na
strategii wyniku idealnego, w których pierwsze rozwiązania problemu są
zwykle zupełnie nierealne (zob. Nęcka, 1995). W takim wypadku dojście
do rozwiązania wymaga chwilowego oderwania się od wymagań
narzuconych przez realną rzeczywistość, czemu myślenie autystyczne
wyraźnie sprzyja.

Próbę operacjonalizacji pojęcia myślenia autystycznego podjęli Robert


Harrison i Joseph Newirth (1990). Autorzy stworzyli zadanie, nazwane
testem mostu skojarzeniowego (Associative Bridge Test), polegające na
łączeniu za pomocą luźnych skojarzeń dwóch niezwiązanych pojęć. Test
składał się z 20 par słów, wyselekcjonowanych z biblioteki norm kojarzenia
słów (word-association norm; Bousfield, Cohen, Whitmarch, Kincaid,
1961), np. gładki – chłopiec, lekarz – fałszywy. Badania nie dotyczyły
mechanizmów poznawczych myślenia autystycznego, dlatego ich wyniki
w tym miejscu pominiemy. Pewnym źródłem danych na temat tych
mechanizmów mogą być badania z zakresu psychologii twórczości (zob.
Nęcka, 2001).
Myślenie realistyczne (realistic thinking) – rodzaj myślenia ukierunkowanego, w którym
uwzględnia się ograniczenia nakładane przez rzeczywistość. Zazwyczaj jego celem jest rozwiązanie
problemu, ale może nim być również zdefiniowanie problemu, ocena wypracowanych rozwiązań,
udowodnienie twierdzenia, sprawdzenie poprawności wniosku sylogistycznego.

W odróżnieniu od autystycznego myślenie realistyczne uwzględnia


ograniczenia nakładane przez rzeczywistość, a ponadto jest
ukierunkowane2 na osiągnięcie jakiegoś celu. Zazwyczaj tym celem jest
rozwiązanie problemu, ale może nim być również zdefiniowanie problemu,
ocena wypracowanych rozwiązań, udowodnienie twierdzenia, sprawdzenie
poprawności wniosku sylogistycznego lub inne wyróżnione stany.

10.2.2. Myślenie produktywne i reproduktywne


Myślenie produktywne (productive thinking) – rodzaj myślenia realistycznego, ukierunkowanego
na rozwiązanie problemu lub osiągnięcie innego celu. Efektem myślenia produktywnego jest
wytworzenie nowych treści intelektualnych. Treść i wynik myślenia produktywnego są nowe
z punktu widzenia dotychczasowej wiedzy podmiotu myślącego, ale niekoniecznie z punktu
widzenia innych ludzi.
Myślenie reproduktywne (reproductive thinking) – rodzaj myślenia realistycznego, polegający na
odtwarzaniu przeszłego doświadczenia.

Podział myślenia na produktywne i reproduktywne pochodzi od Otto Selza


(1922). Dotyczy on myślenia realistycznego, ukierunkowanego na
rozwiązanie problemu lub osiągnięcie innego celu (Berlyne, 1969). Według
Selza efektem myślenia produktywnego jest wytworzenie nowych treści
intelektualnych, podczas gdy myślenie reproduktywne sprowadza się do
różnych form odtwarzania przeszłego doświadczenia. Nie znaczy to, że jest
ono ze swej istoty łatwe i cechuje się niewielkim poziomem złożoności.
Wyciągnięcie pierwiastka kwadratowego z liczby 256 (o ile nie pamięta się
gotowego wyniku) wymaga myślenia reproduktywnego na stosunkowo
niskim poziomie złożoności. Ale już sporządzenie rutynowego raportu na
temat wykorzystania czasu pracy w ostatnim kwartale może być zadaniem
trudnym i złożonym, a mimo to nieprowadzącym do wytworzenia nowej
wiedzy. Jeśli ekspert błyskawicznie rozwiązuje problem z dziedziny, na
której dobrze się zna, wykorzystuje złożone procesy myślenia
reproduktywnego, prowadzące do wartościowego wyniku, a przecież nie
tworzy zasadniczo nowej wiedzy – ani dla innych, ani nawet dla samego
siebie.

W odniesieniu do myślenia produktywnego nowość może dotyczyć albo


wytworu będącego efektem myślenia (np. wypracowanego rozwiązania
problemu), albo procesu poznawczego, który do tego wytworu
doprowadził. Treść i wynik myślenia produktywnego są nowe z punktu
widzenia dotychczasowej wiedzy podmiotu myślącego, ale niekoniecznie
z punktu widzenia innych ludzi, a zwłaszcza całej ludzkości. Nie ma
znaczenia, czy proces myślenia lub jego wytwór jest obiektywnie nowy,
czy też jest powtórzeniem czegoś, co wcześniej wymyślił ktoś inny. Gdyby
osoba pozbawiona elementarnego wykształcenia na własną rękę doszła do
przekonania, że suma kątów w trójkącie wynosi 180o, byłby to przykład
myślenia produktywnego, ponieważ wypracowano by wiedzę nową dla
podmiotu.

Berlyne (1969), rozwijając ten podział procesów myślenia na podstawie


idei neobehawioryzmu i neoasocjacjonizmu, u podłoża myślenia
produktywnego widzi zespół reakcji, którego osobnik nigdy wcześniej nie
wykonał, a który jest odległy od jego reakcji nawykowych. Myślenie
produktywne to inaczej ciąg symbolicznych reakcji, jeszcze w danej
sytuacji bodźcowej niewypróbowanych. Autor podaje przykład pilota,
który wykrył defekt podwozia w samolocie. Usunięcie awarii wymagało
spowodowania zwarcia w instalacji elektrycznej sterującej podwoziem.
Ponieważ pilot nie miał nic innego pod ręką, wykorzystał w tym celu
szpilkę do włosów stojącej obok stewardesy. Nie można powiedzieć, aby
było to szczególnie twórcze rozwiązanie problemu, chociaż dla pilota miało
charakter produktywny. Dopiero gdy myślenie produktywne prowadzi do
rezultatu, który jest obiektywnie nowy, zyskuje znamiona myślenia
twórczego.

10.2.3. Myślenie twórcze i odtwórcze


Myślenie twórcze (creative thinking) – rodzaj myślenia, którego wynik jest oceniany jako nowy
i wartościowy w sensie poznawczym, estetycznym, etycznym albo użytkowym.
Myślenie odtwórcze (noncreative thinking) – każdy przypadek myślenia, którego wynik nie uzyskał
uznania jako nowy i jednocześnie wartościowy dla społeczności. Z faktu, że myślenie nie jest
twórcze, nie wynika, iż brak mu złożoności, wyrafinowania lub innych wartości.

Podział myślenia na twórcze i odtwórcze oparty jest na kryterium


społecznym, a nie psychologicznym. O tym, czy myślenie produktywne
jest zarazem twórcze, decyduje społeczny kontekst, w którym wynik
myślenia musi zostać oceniony jako nowy i wartościowy w sensie
poznawczym, estetycznym, etycznym albo użytkowym (Nęcka, 2001).
O ile kryterium nowości może być zobiektywizowane (np. przez urzędy
patentowe), o tyle wartość wyniku jest już sprawą bardziej subiektywnej
oceny grup społecznych albo osób zajmujących w nich uprzywilejowaną
pozycję (krytycy, recenzenci). Istotny jest również związek z określonym
miejscem i czasem, w którym dokonuje się społeczna ocena wytworu
(Stein, 1953). Na przykład odkrycie sposobu przemieszczania
i podnoszenia wielkich bloków skalnych siłą ludzkich mięśni,
wykorzystywanego przez budowniczych piramid egipskich, dziś jest
wiedzą zapomnianą, chociaż kiedyś było efektem myślenia twórczego.
Gdyby jednak wiedza ta okazała się niezbędna w przyszłości, wymagałaby
ponownego odkrycia3 i byłby to w wymiarze społecznym akt myślenia
twórczego. Dlatego twierdzi się, że myślenie produktywne nie różni się od
twórczego w sensie psychologicznym, a jedynie w zakresie oceny
społecznej. Jednak Edward Nęcka (1992/1997) uważa, że również w sensie
psychologicznym myślenie twórcze jest czymś więcej niż myślenie
produktywne. Mianowicie może angażować inne rodzaje myślenia: oprócz
myślenia produktywnego również autystyczne i krytyczne. Z tych
powodów należy je uznać za psychologicznie odrębny rodzaj aktywności
umysłowej. Natomiast myślenie odtwórcze to każdy przypadek aktywności
umysłowej, którego wynik nie uzyskał uznania jako jednocześnie nowy
i wartościowy dla społeczności. Mogą to być akty myślenia produktywnego
lub reproduktywnego, a także krytycznego lub autystycznego. Z faktu, że
nie są twórcze, nie wynika, iż brak im złożoności, wyrafinowania lub
innych wartości. Większość naszych aktów myślenia to myślenie
odtwórcze, a przecież nie brak im przydatności, a niekiedy również
wysokiego poziomu złożoności.

10.2.4. Myślenie krytyczne


Myślenie krytyczne (critical thinking) – rodzaj myślenia realistycznego, ukierunkowanego na
specyficzny cel, jakim jest ewaluacja. Zawiera w sobie elementy myślenia reproduktywnego
i produktywnego. Celem myślenia krytycznego jest rzetelna i realistyczna ocena istotnych aspektów
aktywności intelektualnej człowieka.
Procesy metapoznawcze (metacognitive processes) – operacje poznawcze odpowiedzialne za
planowanie czynności, nadzór i kontrolę nad ich wykonaniem, a także za analizę informacji
zwrotnych i związane z tym procesy uczenia się.

Myślenie krytyczne jest rodzajem myślenia realistycznego,


ukierunkowanego na specyficzny cel, jakim jest ewaluacja. Nie jest ono
zupełnie odrębne od myślenia reproduktywnego i produktywnego,
ponieważ zawiera elementy jednego i drugiego (Nęcka, 1992/1997; por.
Halpern, 2003). Celem myślenia krytycznego jest rzetelna i realistyczna
ocena istotnych aspektów aktywności intelektualnej człowieka. Może ona
dotyczyć zarówno wytworu owej aktywności, jak i samego jej przebiegu.
Ewaluacja może obejmować nie tylko aktywność innych osób, lecz także
własną. W pierwszym przypadku ocena stanowi osobny cel poznawczy,
realizowany dzięki myśleniu krytycznemu. Ocenie podlega wartość
końcowego wytworu, ale również ważność podjętego problemu,
adekwatność użytych strategii, prawomocność zastosowanych reguł
wnioskowania i inne elementy struktury myślenia. Myślenie krytyczne
w tej wersji jest domeną recenzentów i zawodowych krytyków sztuki,
a poza tym prokuratorów, sędziów, policjantów i przedstawicieli innych
zawodów, w których niezbędna jest ocena przebiegu i wyników procesów
poznawczych innego człowieka. W przypadku gdy ewaluacji poddajemy
własną aktywność intelektualną, myślenie krytyczne zwykle towarzyszy
innym jej rodzajom, np. myśleniu twórczemu. Uznawane jest wówczas za
proces metapoznawczy (Sternberg, 1985a), angażowany w różnych fazach
myślenia: formułowania problemu, doboru strategii poznawczych
i planowania sekwencji operacji intelektualnych. W fazie definiowania
problemu ewaluacji podlega poprawność jego ujęcia, wartość samego
problemu, realność celów itd. Ocena związana z doborem strategii
i operacji poznawczych dotyczy przede wszystkim ich adekwatności
w stosunku do realizowanego celu (kryterium poznawcze) oraz ich
wysiłkowości (kryterium motywacyjne).

Według Diane Halpern (2003) myślenie krytyczne ma na celu zwiększenie


prawdopodobieństwa otrzymania wyniku, który jest pożądany ze względu
na przyjęte kryteria, podczas gdy myślenie twórcze prowadzi nas do
wyniku nowego i wartościowego. W takim ujęciu oba rodzaje myślenia nie
wykluczają się, ponieważ wynik „pożądany” może być również nowy
i użyteczny. Ma to miejsce np. wówczas, gdy za sprawą krytycznej oceny
teorii naukowej dochodzimy do wniosku, w jaki sposób można by ją
ulepszyć, albo gdy porównując dwie teorie, wypracowujemy własną
syntezę. Tego typu myślenie jest typowe dla niektórych dyscyplin
akademickich, np. filozofii. Wymaga odpowiednich sprawności
poznawczych, takich jak rozumowanie na materiale werbalnym czy ocena
trafności użytych argumentów. Myślenie krytyczne wymaga ponadto
umiejętności testowania hipotez oraz zdolności do oceny
prawdopodobieństwa i do działania w warunkach niepewności. Na
przykład terapeuta w pracy z pacjentem musi umieć zweryfikować
alternatywne hipotezy co do przyczyn trudności pacjenta i ocenić
prawdopodobieństwo skuteczności określonej procedury terapeutycznej,
a wszystko to w warunkach niepewności co do rzeczywistej sytuacji
życiowej pacjenta i realnych możliwości jego działania. Szczególnym
przypadkiem myślenia krytycznego jest ocena wiarygodności osoby, którą
podejrzewamy o kłamstwo albo chęć manipulowania prawdą. Zdaniem
Johna Wakefielda (2003) myślenie krytyczne pozwala nam wyklarować
pytanie lub problem, ocenić wiarygodność dowodów lub wypracować
rzetelne kryteria oceny wytworów cudzej aktywności intelektualnej. Trzeba
tego typu myślenie odróżnić od krytycznej refleksji, która polega na
zastosowaniu sprawności umysłowych do oceny relacji między tym, jak
działamy, a tym, co jest w danej kulturze cenione jako spełniające kryteria
etyczne. Krytyczna refleksja polega na analizie własnego działania
w świetle takich pytań, jak: „Czy to, co robię, odpowiada moim
założeniom, wartościom i przekonaniom?” albo „Czyim interesom służy
moja działalność?” (tamże). Na gruncie etyki katolickiej krytyczna
refleksja pojawia się przede wszystkim podczas rachunku sumienia
poprzedzającego spowiedź.
10.2.5. Od myślenia sensoryczno-motorycznego do
postformalnego
Podział myślenia oparty na kryterium rozwojowym (albo ewolucyjnym),
jest bardzo bogaty w różne ujęcia teoretyczne i związane z nim etykiety
nadawane poszczególnym fazom rozwoju myślenia. Najprostszy podział
tego rodzaju uwzględnia dwa jego rodzaje: sensoryczno-motoryczne
i wyobrażeniowo-pojęciowe. Pierwsze polega na przetwarzaniu informacji
ograniczonym do bodźców rejestrowanych sensorycznie w danym
momencie, a operacje na nich dokonywane mają postać czynności
eksploracyjnych, np. manipulowania realnymi obiektami. Drugie jest
dojrzałą formą myślenia, charakterystyczną wyłącznie dla człowieka od
pewnego stadium rozwoju, gdzie wyobrażenia i pojęcia zajmują miejsce
spostrzeżeń, a abstrakcyjne operacje przejmują rolę czynności
motorycznych. Podział ten akcentuje interioryzację, czyli uwewnętrznienie
operacji wykonywanych na realnych obiektach we wczesnych fazach
rozwojowych (albo ewolucyjnych), dzięki reprezentacjom wewnętrznym
i abstrakcyjnym regułom ich transformacji.

Bogatsze klasyfikacje myślenia w nurcie rozwojowym, pochodzące np. od


Jeana Piageta (1981), opierają się na rozwojowych zmianach fazowych,
związanych z równoważeniem procesów asymilacji i akomodacji. Stadium
myślenia sensoryczno-motorycznego związane jest z kształtowaniem się
zdolności sensorycznych i ruchowych dziecka, kończąc się
ukształtowaniem zdolności myślenia wyobrażeniowego, czyli
posługiwania się reprezentacjami obiektów, kiedy nie są one obecne
w percepcji. W stadium przedoperacyjnym następuje rozwój myślenia
pojęciowego i związany z nim rozwój mowy. W tej fazie dziecko uczy się
manipulowania pojęciami, a więc dokonywania operacji symbolicznych na
obiektach, które również mają charakter symboliczny. Z kolei w fazie
operacji konkretnych nabywa umiejętność myślenia logicznego, ale
wyłącznie w odniesieniu do reprezentacji konkretnych obiektów. Istotna dla
tej fazy jest zdolność manipulacji reprezentacjami obiektów
z zachowaniem zasad stałości, np. ilości: ilość cieczy przelana z jednego
naczynia o pewnym kształcie do innego o odmiennym kształcie nie zmienia
się. Wiąże się to z odwracalnością operacji myślenia oraz tzw.
decentracją, czyli uwzględnieniem w myśleniu więcej niż jednej cechy
obiektów, a nawet gradacji ich ważności (np. ilość jest ważniejsza niż
kształt). Odwracalność myślenia oznacza zdolność dokonania w umyśle
odwróconego działania (ponownego przelania cieczy do pierwszego
z naczyń) i wyprowadzenia logicznego wniosku, że ilości się nie różnią.
W stadium operacji formalnych – ostatnim w Piagetowskiej koncepcji
rozwoju poznawczego – dochodzi do przeniesienia zdolności
wykształconych w poprzednim stadium na obiekty abstrakcyjne.
Myślenie postformalne (post-formal thinking) – inaczej: dialektyczne; myślenie oparte na zasadach
dialektyki, sprowadzające się do formułowania w myśleniu tez i antytez oraz ich późniejszego
syntetyzowania, które może być podstawą sformułowania kolejnej tezy, a dla niej stosownej antytezy
itd.

Bez podejmowania tutaj szerszej dyskusji na temat trafności koncepcji


Piageta, zaznaczyć należy, że krytyce nie podlegają, sformułowane na
podstawie badań, zmienne charakterystyki myślenia. Często jednak
postulowano, że rozwój myślenia wykracza poza fazę operacji formalnych.
Wprowadzono więc pojęcie myślenia postformalnego, zwanego również
dialektycznym (Kramer, 1990; Labouvie-Vief, 1990; Pascual-Leone,
1990). Jak wynika z samej nazwy, jest to myślenie oparte na zasadach
dialektyki Georga Hegla, sprowadzające się – w dużym uproszczeniu – do
formułowania w myśleniu tez i ich antytez oraz ich późniejszego
syntetyzowania, które może być podstawą sformułowania kolejnej tezy,
a dla niej stosownej antytezy itd. Myślenie w złożonych,
niejednoznacznych sytuacjach życiowych ma – u dojrzałych poznawczo
ludzi – właśnie taki charakter. Inni badacze, np. Robbie Case (1992) czy
John Flavell, Eleanor Flavell i Frances Green (1983), uwzględniają
w rozwoju myślenia również kształtowanie się procesów
metapoznawczych. Case uważa, że ich wykorzystanie prowadzi do
optymalizacji wysiłku poznawczego, np. dzięki automatyzacji albo
odkrywaniu efektywnych strategii poznawczych.

10.3. Teorie myślenia


Teorie opisujące proces myślenia bardzo często funkcjonują również jako
teorie rozwiązywania problemów (zob. rozdz. 11). Dokonanie ścisłego
rozgraniczenia byłoby tutaj trudne, dlatego w niniejszym podrozdziale
omówimy tylko dwie koncepcje teoretyczne, z których pierwsza wywodzi
się z neobehawioryzmu, a druga – z podejścia informacyjno-
przetworzeniowego. Ich wybór był podyktowany reprezentatywnością dla
określonego nurtu badawczego, a także tym, że są to ogólne teorie procesu
myślenia, niezawężające tego zjawiska do rozumowania, wnioskowania
czy rozwiązywania problemów.

10.3.1. Teoria Berlyne’a


Podwaliny poznawczego ujęcia procesu myślenia należy upatrywać
w pracach neobehawiorysty Davida Berlyne’a (1969). Według tego autora
myślenie jest ciągiem symbolicznych bodźców i reakcji, a regułą ich
łączenia są symboliczne związki typu S-R. Termin „symboliczny”
u Berlyne’a oznacza „zastępczy w stosunku do realnego obiektu” – bodźca
albo reakcji. Chodzi więc o trwałe i nietrwałe wewnętrzne reprezentacje
wiedzy. Bodziec symboliczny to taki, który ma znaczenie (dzielone przez
podmiot i jego otoczenie) i wywołuje reakcję, kiedy fizycznie nie jest
obecny. Reakcja symboliczna to z kolei reakcja wywołana bodźcem
symbolicznym. Przykładem reakcji symbolicznych u Berlyne’a są: mowa,
gesty, czynności obrzędowe. Łańcuch symbolicznych bodźców i reakcji
może być dość długi (zob. wzór 10.1). Każde ogniwo myślenia ma swój
aspekt reaktywny (rp) i bodźcowy (sp), co oznacza, że może być
wywoływane albo przez bodziec zewnętrzny (Sx), albo przez aspekt
bodźcowy poprzedniego ogniwa, ostatecznie prowadząc do reakcji (Rx).
Reakcja ma charakter symboliczny, o ile wywołuje następne ogniwo
pośredniczące. Berlyne nazywa myślą reakcję symboliczną, która ma
charakter utajony i spełnia funkcję sygnałotwórczą, tj. dostarcza bodźców
dla kierowania późniejszym zachowaniem. Wśród wielu sposobów
powstawania związku S-R, jego zdaniem, tylko jedna sytuacja ma
charakter symboliczny – mianowicie kiedy bodziec Sx może skojarzyć się
z reakcją pośredniczącą rp, a bodziec sprzężenia zwrotnego sp, wytworzony
przez rp, może związać się z Rx.

Sx → rp1 – sp1 → rp2 – sp2 → …… → rpn – spn → Rx

WZÓR 10.1. Ciąg symbolicznych bodźców i reakcji

Przykładowo: wyobraźmy sobie, że wracając wieczorem do domu,


upuszczamy klucz, który wpada nam w szczelinę w krzywo położonych
płytach chodnikowych (Sx). Ponieważ szczelina jest wąska i głęboka, nie
możemy go stamtąd wyciągnąć. Myślimy o możliwości wykorzystania
jakiegoś narzędzia, na tyle cienkiego i długiego, aby z jego pomocą
dosięgnąć klucza (rp1–sp1). Aspekt reaktywny tej myśli wiąże się z reakcją
na zgubienie klucza, a aspekt bodźcowy – z wywołaniem kolejnej reakcji,
np. przeszukiwania kieszeni (rp2–sp2). Załóżmy, że w wyniku
przeszukiwania znajdujemy czekoladkę, która – jak oceniamy – nie przyda
nam się do wyciągnięcia klucza (rp3–sp3). Powracamy zatem do
przeszukiwania kieszeni i natrafiamy na kartę bankomatową (rp4–sp4), którą
próbujemy wyciągnąć klucz (rp5–sp5) itd., aż do jego odzyskania (Rx). Jeśli
jakiś problem powtarza się wielokrotnie, kolejne symboliczne związki S-R
ulegają utrwaleniu w procesie uczenia się, w którym następujące po sobie
reakcje są wygaszane (ewentualna próba użycia czekoladki) albo
wzmacniane (użycie karty bankomatowej). W końcu stajemy się
ekspertami w tego typu problemach, co czyni proces ich rozwiązywania
rutynowym.

Berlyne uwzględnia możliwość uruchomienia wielu reakcji symbolicznych


w danej sytuacji bodźcowej. O tym, która reakcja zostanie wywołana,
decyduje tzw. hierarchia rodziny nawyków, czyli zbiór łańcuchów
zachowań symbolicznych, uporządkowanych pod względem
prawdopodobieństwa uruchomienia w odpowiedzi na określony bodziec
(zob. wzór 10.2).

→ RN1–SN1 → RN2–SN2 → … → RNx → SO → rG–sG → RP1–SP1 → RP2–


SP2 → … → RPy → RG → RQ1–SQ1 → RQ2–SQ2 → … → RQz →

WZÓR 10.2. Ciąg symbolicznych bodźców i reakcji z udziałem rodziny nawyków


Myślenie typu S (S-type thinking) – występuje, gdy reakcje nawykowe, rutynowo uruchamiane
w danej kategorii sytuacji, w wyniku procesu myślenia przenoszone są na inną kategorię sytuacji.
Jest podobne do myślenia reproduktywnego.
Myślenie typu R (R-type thinking) – występuje, gdy podmiot wykonuje reakcję lub sekwencję
reakcji, której nigdy wcześniej nie wykonywał i nie wykonałby, gdyby nie procesy myślenia. Jest
podobne do myślenia produktywnego.

Jeśli okaże się, że najbardziej prawdopodobny nawyk (w omawianym


przykładzie np. wciśnięcie dzwonka domofonu) nie może zostać
uruchomiony (zbyt późna pora), sięgamy do nawyków umiejscowionych
niżej w hierarchii. Jeżeli reakcje nawykowe rutynowo uruchamiane w danej
kategorii sytuacji, w wyniku procesu myślenia przenoszone są na inną
kategorię sytuacji, Berlyne określa to myśleniem typu S. Jest ono w swoim
charakterze zbliżone do myślenia reproduktywnego. Kiedy jednak podmiot
wykonuje reakcję lub sekwencję reakcji, której nigdy wcześniej nie
wykonywał – i nie wykonałby, gdyby nie procesy myślenia – należy ono do
myślenia typu R. Byłoby to już myślenie produktywne.

Teoria Berlyne’a ma już wymiar historyczny, chociaż to właśnie jego ujęcie


istoty procesów myślenia zawarte zostało w definicji umieszczonej na
początku rozdziału. Z punktu widzenia psychologii poznawczej istotne jest
to, że autor ów wprowadził cenne idee, które stworzyły podwaliny
informacyjno-przetworzeniowego ujęcia myślenia. Posługując się
wczesnymi teoriami informacji (Attneave, 1959; Luce, 1960; Miller, 1953),
wzbogacił on swoje ujęcie myślenia o dwie grupy procesów poznawczych:
zbierania i odrzucania informacji. Myślenie wymaga zatem wypełnienia
luk informacyjnych w aktualnej sytuacji bodźcowej. Można to osiągnąć na
wiele sposobów, np. dzięki zachowaniom eksploracyjnym i zachowaniom
poznawczym. Zachowania eksploracyjne (Berlyne, 1969) mają na celu
wzmożenie stymulacji z pola bodźcowego albo nawiązanie kontaktu ze
źródłami stymulacji, które mogą znajdować się poza jego granicami. Do
zachowań eksploracyjnych zaliczyć można nastawienie receptorów,
eksplorację ruchową i reakcje badawcze (np. manipulację obiektami).
Zachowania poznawcze mają na celu zdobycie wiedzy (informacji), po to,
aby ją przechować i później wykorzystać w przebiegu procesów
symbolicznych.

Z kolei odrzucanie informacji, czyli selekcja uwagowa przewidywana


w teorii Berlyne’a, dokonuje się z dwóch przyczyn. Po pierwsze dlatego, że
większość informacji zawartej w bodźcach zewnętrznych nie ma związku
z procesem prowadzącym do wygenerowania reakcji, a po drugie – ze
względu na ograniczoną przepustowość kanałów przetwarzania informacji.
Innym, poza uwagą, mechanizmem odrzucania, a właściwie redukowania
ilości informacji, jest abstrakcja, rozumiana jako mechanizm redukcji
różnorodności poprzez ignorowanie różnic: obiekty, które nie są
identyczne, traktuje się równoważnie. W terminologii behawioralnej
abstrakcja oznacza utworzenie tzw. klasy równoważności sytuacji
bodźcowych, które mają pewne cechy wspólne, choć różnią się pod innymi
względami, oraz reagowanie w ten sam sposób na wszystkie sytuacje
należące do tej klasy.

10.3.2. Teoria Barona


W podejściu informacyjno-przetworzeniowym uważa się, że myślenie
„włącza się” w sytuacji wątpliwości albo niepewności co do tego, jak się
zachować, w co wierzyć lub czego pragnąć (Baron, 2000). W takich
okolicznościach myślenie pozwala rozwiać wątpliwości albo zmniejszyć
niepewność. Jest więc podstawą podejmowania decyzji, kształtowania
przekonań i osobistych celów. Bierze też zazwyczaj udział
w rozwiązywaniu problemów.

Według Jonathana Barona (tamże) myślenie składa się z dwóch grup


operacji: poszukiwania (search) i wnioskowania (inference).
Poszukiwanie może dotyczyć trzech klas obiektów: możliwości
(possibilities), dowodów (evidence) i celów (goals). Wnioskowanie to
formułowanie konkluzji na podstawie dostępnych przesłanek na drodze
rozumowania. Możliwości to potencjalne odpowiedzi na zadane pytania,
dopuszczalne sposoby rozwiązania początkowego stanu wątpliwości czy
niepewności. W przytoczonej na wstępie rozdziału zagadce początkowo
znajdujemy osiem możliwości spełniających pierwszy warunek zadania
(iloczyn równy 36), a proces wnioskowania polega na ich zawężaniu aż do
pozostawienia tylko jednej. Z kolei cele stanowią kryteria czy standardy
oceny możliwości. W naszym przykładzie celem jest odnalezienie jednej
kombinacji trzech liczb, będących rozwiązaniem zadania. Kryteria oceny
możliwości są proste i klarowne. W przypadku problemów życiowych cele
są zwykle bardziej złożone, jest ich więcej i najczęściej nie są precyzyjnie
zdefiniowane. Myślenie służy wówczas ich odkryciu, szczególnie
w przypadku problemów źle określonych (Reitman, 1965) czy otwartych
(Kozielecki, 1968; zob. podrozdz. 11.2.1). Na przykład w trakcie studiów
uczymy się wielu rzeczy, z których spora część wydaje się początkowo
pozbawiona znaczenia praktycznego. Niektóre cele zajęć akademickich
odkrywamy dość szybko, ale dopiero po studiach, gdy rozpoczynamy pracę
zawodową. W problemach życiowych jednoczesne osiągnięcie wszystkich
założonych celów bywa trudne bądź nieopłacalne. Poszukiwanie partnera
życiowego, o ile jest procesem choćby w minimalnym stopniu
racjonalnym, kończy się zwykle osiągnięciem tylko częściowej zgodności
jego cech z naszym wyobrażeniem tej osoby. Trudno w tym przypadku
osiągnąć wszystkie cele tak zdefiniowanego poszukiwania, bo to
oznaczałoby znalezienie partnera spełniającego wszystkie wymagania.
Z kolei w przypadku zakupu szamponu do włosów, który jest tzw.
produktem niskiego zaangażowania, osiągnięcie wszystkich celów, o ile
byłoby możliwe, okazuje się nieopłacalne. Biorąc pod uwagę fakt, że
kupujemy i używamy dziesiątki produktów, ich całkowicie systematyczny
wybór byłby nie tylko czasochłonny, lecz także wymagałby dużego
wysiłku. W takich sytuacjach zazwyczaj podejmujemy decyzje na
podstawie uproszczonych heurystyk (zob. rozdz. 12; por. też Falkowski,
Tyszka, 2001), które w mniejszym bądź większym stopniu pozwalają na
osiągnięcie zadowalającego rezultatu z zachowaniem zasady oszczędności
poznawczej.

Dowody, czyli trzecia kategoria obiektów stanowiących przedmiot


poszukiwania, to wszelkie informacje pomocne w ustaleniu zakresu,
w którym określona możliwość spełnia założone cele (jest zgodna
z przyjętymi kryteriami oceny możliwości). Wnioskowanie polega na
analizie sił i słabości każdej możliwości na podstawie dowodów, co
dokonuje się w świetle założonych celów. Innymi słowy, dowody są
źródłem przesłanek, pozwalających na analizę możliwości pod kątem
realizacji założonych celów. W zagadce z początku rozdziału dowody
pochodzą z dwóch źródeł: ze wskazówek udzielanych przez znudzonego
sułtana, ale również z wnioskowania o ich znaczeniu dla oceny możliwości.
Stwierdzenie, że suma wieku każdego z synów sułtana wynosi tyle, ile
okien ma pałac naprzeciwko, jest przydatna, jeżeli wyciągniemy z niej
właściwe wnioski. Dopiero proces poprawnego wnioskowania pozwala na
ograniczenie możliwości, czyli liczby potencjalnych rozwiązań zagadki.
Podobnie rzecz się ma z trzecią wskazówką. Wnioskowanie odbywa się
według reguł, które mają postać algorytmów albo heurystyk. Te ostatnie
wydają się odgrywać przeważającą rolę w ludzkim myśleniu.

Wnioskowanie, z wyjątkiem sztucznych zadań laboratoryjnych, wymaga


zazwyczaj procesu selekcji dowodów. W zagadce sułtana każda
wskazówka jest istotna; wymaga wyjścia poza dostarczone informacje,
dzięki wnioskowaniu, co właściwie z niej wynika. W przypadku realnych
problemów życiowych może się zdarzyć, że dowody, dostarczone
z zewnątrz albo wydobyte z pamięci, mają zróżnicowaną wartość. Niektóre
są istotne, inne mniej ważne, a jeszcze inne zupełnie zbędne dla procesu
generowania możliwości i ich późniejszej ewaluacji. Dowody zbędne
zwykle działają jak dystraktor, przez co ich obecność obniża sprawność
procesów myślenia. Z tego względu wnioskowanie musi być poprzedzone
selekcją dowodów istotnych z punktu widzenia założonego celu. Kupując
szampon do włosów, a tym bardziej drogą wodę toaletową, możemy rzecz
jasna korzystać z dowodów dostarczonych nam w reklamie. Jednak
wizerunek pięknych włosów modelki albo atrakcyjność aktora
używającego wody toaletowej nie jest dowodem wiarygodnym. Gdy zaś
reklama próbuje dostarczać dowodów wiarygodnych, staje się zazwyczaj
nudna, dlatego większość ludzi kieruje się wskazówkami
powierzchownymi.

Zdarza się, że nawet trafna selekcja dowodów nie wystarcza, aby dokonać
poprawnej ewaluacji możliwości. Szczególnie w przypadku bardziej
złożonych problemów (np. zakup domu), kiedy istotnych dowodów jest
wiele, potrzebujemy jeszcze przypisania im wagi, która określa „moc”
danego dowodu. Niekiedy wagi wskazówek są dość obiektywne, jak
w przypadku znaczenia różnych czynników dla oceny wartości akcji firm
notowanych na giełdzie. Innym razem, jak wtedy, kiedy kupujemy dom,
wagi mają charakter bardziej subiektywny. Na przykład komuś może
bardziej zależeć na dobrej lokalizacji niż liczbie pokoi. W obu przypadkach
trafne decyzje podejmowane są z zastosowaniem tzw. strategii
kompensacyjnych (zob. rozdz. 12), w których uwzględnia się sporą liczbę
wzajemnie uzupełniających lub kompensujących się wskazówek, a także
ich obiektywne lub subiektywne wagi. Na przykład brak możliwości
realizacji celu w postaci wspaniałego ogrodu wokół domu może zostać
skompensowany atrakcyjną ceną i lokalizacją tegoż, jeśli te wskazówki
odpowiednio dużo „ważą” w naszej ocenie.

Według Barona (2000) myślenie składa się z poszukiwania możliwości,


dowodów i celów oraz wykorzystania dowodów do oceny możliwości.
Struktura procesu myślenia – porządek tych składowych – nie jest jednak
sztywna. Cele mogą być włączane do i wyłączane z „listy” tego, co chcemy
osiągnąć. W każdym momencie procesu myślenia można dodać nowe cele
albo usunąć te wcześniej przyjęte. Bogusław Kwarciak (1997) opisuje
przypadek klienta salonu samochodowego, który wszedł do sklepu z myślą
zakupu dużego samochodu rodzinnego typu kombi, a wyjechał małym
autem sportowym. Mało prawdopodobne, aby w salonie pozyskał dowody
pozwalające uznać samochód sportowy za nadający się dla rodziny.
Zapewne zmienił swoje cele, a więc i standardy oceny dostępnych
możliwości.

W procesie myślenia, wraz z pozyskiwanymi dowodami, pojawiają się


nowe możliwości, a inne są eliminowane. Największa dynamika zmian
dotyczy dowodów, które otwierają albo zamykają pewne możliwości,
a niekiedy wpływają nawet na formułowanie celów. Wszelkie zmiany
wymagają wnioskowania, rozumianego jako wykorzystanie
zgromadzonych dowodów, zarówno wówczas gdy – obiektywnie – są one
wystarczające (w takim przypadku wnioskowanie zasługuje na miano
dedukcji), jak i wtedy, kiedy jest ich zbyt mało (indukcja). Dlatego Baron
uważa, że poszukiwanie możliwości, dowodów i celów oraz towarzyszące
mu wnioskowanie to konieczne składniki procesu myślenia. Rycina 10.1
przedstawia związki między celami, możliwościami i dowodami.
RYCINA 10.1. Relacje między celami (C), możliwościami (M) i dowodami (D) w teorii Barona
(2000)
Dowody wpływają na „moc” możliwości, ale z uwzględnieniem ich wag, które wynikają
z realizowanych celów.
Źródło: opracowanie własne.

Baron (2000) wyróżnia dwa sposoby poszukiwania celów, możliwości


i dowodów: wewnętrzne, polegające na wydobyciu ich z pamięci,
i zewnętrzne, działające na postawie dowolnych źródeł informacji
niewchodzących w skład magazynu pamięci trwałej. Ścieżka „zewnętrzna”
pojawia się nie tylko wtedy, gdy trzeba zdobyć nowe informacje, bo to, co
wiemy nie wystarcza do sprawnego przebiegu procesu myślenia, lecz także
wtedy, gdy potrzebne jest odciążenie systemu poznawczego, cechującego
się ograniczoną możliwością przechowywania i przetwarzania informacji.
W większości procesów myślenia współwystępują obie ścieżki
poszukiwania możliwości, celów i dowodów.

Integralnym składnikiem myślenia, według Barona (tamże), jest


planowanie, które obejmuje trzy poziomy: całość zadania, główne jego
części oraz detale, i może zachodzić jednocześnie na wszystkich.
Poszukiwanie możliwości, dowodów i celów odbywa się na każdym z tych
poziomów. Autor wyróżnia ponadto plany krótko- i długoterminowe,
w zależności od tego, ile czasu obejmują.

10.4. Struktura myślenia


Badanie struktury myślenia polega na wyróżnianiu składników
budulcowych tego procesu oraz sposobu (reguł) ich łączenia. Jest to
szukanie odpowiedzi na pytanie, z czego proces myślenia się składa oraz
jaki jest układ tych składników czy jakie są reguły rządzące powstawaniem
i przebiegiem ciągu myślowego. Właśnie tym kwestiom poświęcimy
niniejszy podrozdział. Przez pojęcie struktury myślenia rozumie się też
niekiedy etapy i fazy procesu myślenia. Ten aspekt obecnie pominiemy,
ponieważ układ faz zależy od tego, czemu myślenie służy. Jeśli wyciąganiu
wniosków, rozwiązaniu problemu czy podjęciu decyzji, można wówczas
mówić o fazach rozumowania, rozwiązywania problemów czy
podejmowania decyzji. Zagadnieniami tymi zajmiemy się w kolejnych
rozdziałach, które zostaną im poświęcone.

10.4.1. Elementy struktury myślenia


Analiza struktury myślenia – w tradycyjnym ujęciu – wymaga
uwzględnienia trzech jej właściwości: materiału, operacji i reguł myślenia
(zob. Kozielecki, 1968, 1992). Materiał to rodzaj informacji
przetwarzanych w procesie myślenia, który charakteryzuje się określoną
formą i treścią. Może to być reprezentacja konkretnego obiektu, np.
wyobrażenie drzewa, albo reprezentacja w postaci ogólnego pojęcia czy
sądu, np. istota prawdy. Oba przykłady materiału różnią się nie tylko treścią
(drzewo vs. prawda), lecz także formą reprezentacji (konkretno-obrazowa
vs. abstrakcyjna). Najogólniej rzecz ujmując, materiałem myślenia w sensie
formalnym mogą być wszelkie rodzaje reprezentacji umysłowych: obrazy
umysłowe, pojęcia, sądy, modele umysłowe. Jeśli jedna z tych kategorii
dominuje nad innymi, określa rodzaj procesu myślenia, co pozwala
wyróżnić np. myślenie wyobrażeniowe lub pojęciowe. Z kolei treść
materiału, na którym dokonuje się myślenie, dotyczy znaczenia tych
reprezentacji, czyli ich odniesienia do rzeczywistości. Aspekt treściowy,
zwykle bardzo różnorodny, istotnie wpływa na przebieg procesów
myślenia, czego dowodzą m.in. badania nad rozumowaniem (zob.
podrozdz. 10.5.4 i 10.6.3). Operacje umysłowe to przekształcenia
dokonywane na reprezentacjach umysłowych. Większość operacji
występuje w różnych procesach poznawczych (np. kodowanie informacji,
porównywanie), natomiast niektóre występują tylko w procesach myślenia
(np. dokonywanie skojarzeń). Operacje specyficzne dla myślenia prowadzą
do wytworzenia kolejnych ogniw w „łańcuchu zachowań symbolicznych”;
są to symboliczne działania, dzięki którym powstają kolejne ogniwa
łańcucha myśli. Najprostszym jego przykładem jest ciąg wyobrażeń,
połączonych dzięki swobodnym skojarzeniom. W tym wypadku
wyobrażenia są ogniwami łańcucha myśli, a skojarzenia – operacjami.
Reguły to sposoby porządkowania łańcucha operacji umysłowych,
składających się na proces myślenia. Innymi słowy, reguły odpowiadają za
sposób komponowania operacji umysłowych w pewną całość, zazwyczaj
podporządkowaną realizacji celu, któremu myślenie służy. Wyjątkiem jest
myślenie autystyczne, które nie ma sprecyzowanego celu, chociaż i w tym
wypadku można mówić o regułach, jakimi się rządzi.

Aby zilustrować wzajemne relacje materiału, operacji i reguł myślenia,


można je porównać do procesu budowania domku z klocków. Budulcem,
czyli materiałem, są rzecz jasna klocki, które mają pewną treść (np.
drewno, tworzywo sztuczne) oraz formę (kształt, wielkość i kolor).
Podstawową operacją wykonywaną w trakcie budowy domku jest łączenie
klocków. Jej przebieg uzależniony jest od rodzaju materiału (np. inaczej
łączy się klocki drewniane, a inaczej klocki z tworzywa sztucznego). Reguł
komponowania operacji łączenia klocków może być wiele. Najbardziej
podstawowa polega na nakładaniu kolejnych warstw klocków na zakładkę,
tj. w taki sposób, aby kolejne warstwy były przesunięte o połowę długości
klocka. Co istotne, dobór materiału, operacji i reguł związany jest ściśle
z realizowanym celem. Zauważmy również, że rodzaj materiału wyznacza
zakres operacji, które można na nim wykonać, operacje zaś ograniczają
pulę reguł ich komponowania w całość podporządkowaną realizacji celu.

10.4.2. Operacje i strategie


Do lat 60. XX w. uważano, że myślenie można sprowadzić do dwóch grup
operacji: analizy i syntezy (Blatt, Stein, 1960; Rubinsztejn, 1962). Analiza
to proces dekompozycji złożonej całości na jej elementarne części. Na
przykład badacz struktury myślenia posługuje się przede wszystkim tą
operacją umysłową, projektuje bowiem eksperymenty i docieka
elementarnych składników czegoś złożonego. Synteza z kolei polega na
łączeniu tych części w nową całość. Ów badacz myślenia, kiedy zgromadzi
wystarczająco dużo danych, może zaproponować pewien model struktury
myślenia jako całości, opisując np. relacje zachodzące między jego
składnikami. W tym wypadku dokonuje zatem syntezy. Wyróżniano
ponadto trzy operacje pochodne względem analizy i syntezy:
porównywanie, abstrahowanie i uogólnianie (Kozielecki, 1992), ale słuszny
wydaje się pogląd Berlyne’a (1969), że potencjalnie może istnieć
nieskończenie wiele operacji. Ich rodzaj i układ są specyficzne dla
konkretnego zadania umysłowego, chociaż mogą być podobne w obrębie
pewnej kategorii zadań. Na przykład Robert Sternberg (1977a) wyróżnił
pięć stałych operacji (nazwanych komponentami) procesu rozumowania
przez analogię. Są one niezależne od materiału (formy i treści reprezentacji
umysłowych), więc wspólne dla całej kategorii tego typu zadań (zob.
podrozdz. 10.5). Co więcej, niekiedy w ramach jednego zadania możliwe
jest zastosowanie różnego rodzaju i układu operacji, które prowadzą do
jego skutecznego wykonania. Są to tzw. strategie myślenia, najczęściej
występujące w rozwiązywaniu problemów (zob. rozdz. 11), stosowane ze
względu na preferencje jednostki. Na przykład wiadomo, że zdanie
egzaminu na studiach może zostać zrealizowane na wiele sposobów, tj.
dzięki różnym strategiom. Ze względu na wielość operacji umysłowych
i różnorodność strategii ich analiza odbywa się w ramach konkretnych
zadań. Rezultaty tego typu badań nie mogą być zatem generalizowane
w postaci ogólnych reguł myślenia. Co za tym idzie – badacze
zainteresowani takimi regułami koncentrują się nie na klasyfikacji operacji
czy wyróżnianiu strategii, lecz na analizie ogólnych praw rządzących
operacjami umysłowymi. Zaprezentujemy przykład tego rodzaju analiz,
pochodzący z pracy Berlyne’a (1969).
Według tego autora w przebiegu procesu myślenia, jeśli przyjąć metaforę
łańcucha operacji symbolicznych, wyróżnić można ogniwa procesu
myślenia i operacje stanowiące podstawę ich łączenia (ryc. 10.2).
Ogniwami procesu myślenia są poszczególne stany wiedzy (mn),
składające się na cały proces umysłowy. Przekształcenie jednego stanu
w drugi dokonywane jest dzięki operacjom. Wśród nich szczególną rolę
odgrywają operacje kluczowe, mające decydujący wpływ na rozwiązanie
zadania. Są one koniecznym warunkiem osiągnięcia celu, podczas gdy inne
operacje nie są niezbędne. Odwołajmy się ponownie do zagadki sułtana
z początku rozdziału. W procesie jej rozwiązywania można zaobserwować
co najmniej dwie kluczowe operacje. Polegają one na transformacji
dostarczonych wskazówek na informacje użyteczne dla osiągnięcia postępu
w wykonywaniu zadania. Wydaje się, że jest to szczególnie trudne
w przypadku wskazówek drugiej i trzeciej. Dzięki tej transformacji
informacja pozornie absurdalna zostaje przekształcona w przesłankę
umożliwiającą przeprowadzenie rutynowego dowodu matematycznego.
RYCINA 10.2. Łańcuch operacji w procesie myślenia
Oznaczenia: mn – stan wiedzy, φn – operacja przekształcenia. Stan m1 ma dwa rozgałęzia (m2
i m3), uzyskane dzięki przekształceniu φ1; szarym kolorem oznaczono potencjalne stany wiedzy
uzyskane dzięki takiemu rozgałęzieniu.
Źródło: opracowanie własne na podstawie Berlyne, 1969.

Łańcuch operacji symbolicznych, składający się na proces myślenia, ma


dwie charakterystyczne właściwości: pętle i rozgałęzienia. Pętle są to
operacje niepowodujące zmiany w jego ogniwach. Pętla pierwszego
rodzaju polega na cofnięciu się do poprzedniego stanu (φ2 → m4 → φ3),
spowodowanego np. oceną, że dany kierunek myślenia jest niewłaściwy
i należy powrócić do ostatniego momentu, który oceniamy jako poprawny.
Drugi rodzaj pętli polega na wykonaniu operacji tożsamościowej (φ0), co
z samej jej definicji nie powoduje żadnej zmiany. Z kolei rozgałęzienia
powstają wówczas, gdy w wyniku jakiejś operacji mogą zostać
wypracowane różne stany wiedzy, w zależności od materiału będącego
treścią tej operacji. Rozgałęzienia łańcucha decydują o alternatywnym
charakterze myślenia. Przykładowo w procesie decyzyjnym, stanowiącym
podstawę diagnozy medycznej, od wskazówek uzyskanych w kolejnych
krokach diagnostycznych (operacjach dostarczania informacji) zależą
dalsze działania: pogłębiona diagnoza czy – docelowo – forma terapii.
Systemy wspomagające diagnozę kliniczną mają postać rozgałęzionych
drzew decyzyjnych.

10.4.3. Reguły, algorytmy i heurystyki


Reguły to – jak wspomniano – sposoby porządkowania łańcucha operacji
umysłowych, składających się na proces myślenia. W przypadku myślenia
ukierunkowanego reguły odpowiadają nie tylko za uporządkowanie, lecz
także za jego kierunek, którym jest podążanie do założonego celu.
W przypadku myślenia autystycznego nie można mówić
o podporządkowaniu procesu myślenia żadnemu celowi. Mimo to przebieg
myślenia autystycznego odbywa się według pewnych reguł, które go
determinują. Próbowano wykazać, że myśleniem autystycznym rządzą tzw.
prawa kojarzenia, np. prawo podobieństwa (wróbel kojarzy się z sikorką),
prawo kontrastu (ciężkie kojarzy się z lekkim) lub prawo mediacji (jeśli
książka kojarzy się z nauką, a nauka kojarzy się ze szkołą, to książka
kojarzy się ze szkołą).
Algorytm (algorithm) – 1. Systematyczna metoda przeszukiwania pola problemowego, polegająca
na sprawdzeniu wszystkich potencjalnych dróg rozwiązania problemu. Przeciwieństwo heurystyki
w znaczeniu pierwszym. 2. Ścisły, jednoznaczny, niezawodny i powtarzalny przepis na realizację
konkretnego zadania, np. rozwiązanie problemu. 3. Formalna struktura programu komputerowego.

Najogólniejszy podział reguł rządzących ludzkim myśleniem odwołuje się


do pojęcia algorytmu i heurystyki. Algorytm jest jednoznacznym i
niezawodnym przepisem działania, zawierającym skończoną sekwencję
operacji, którą należy wykonać, aby osiągnąć określony cel. Przykładowo
niektóre zadania matematyczne i logiczne można rozwiązać za pomocą
algorytmów, które zostały sformalizowane w postaci wzorów
matematycznych. Tak więc zarówno sumowanie wartości koszyka
zakupów w supermarkecie, jak i obliczanie wytrzymałości mostu to
działania regulowane przez mniej lub bardziej złożone algorytmy. Każde
zadanie, które ma być wykonane przez komputer, musi być uprzednio
przełożone w umyśle programisty na algorytm, wyrażony najpierw
matematycznie, a następnie w konkretnym języku oprogramowania. Każdy
algorytm przejawia kilka istotnych właściwości. Przede wszystkim jest
niezawodny, a więc jego zastosowanie prowadzi zawsze do uzyskania
jednoznacznego rezultatu w danej klasie zadań. Jest też dobrze określony,
co oznacza, że obejmuje jednoznaczną procedurę postępowania, ściśle
określoną sekwencję operacji, którą należy wykonać, aby osiągnąć
właściwy rezultat. Algorytm ma charakter masowy, tj. można go
z powodzeniem zastosować do każdego problemu z danej klasy. I wreszcie,
jest zestawem sztywnych reguł: brak choćby niewielkiej części danych albo
błąd realizacji jakichkolwiek operacji przewidzianych algorytmem
powodują, że uzyskany wynik jest albo błędny, albo w ogóle niemożliwy
do uzyskania.

Dwie pierwsze właściwości algorytmów, tj. niezawodność


i jednoznaczność, są bardzo nęcące. Odnalezienie algorytmów dla
złożonych problemów, z którymi stykamy się na co dzień, pozwoliłoby na
redukcję niepewności związanej z poprawnością stosowanych rozwiązań.
Dlatego podejmuje się próby algorytmizacji takich obszarów życia, które
w gruncie rzeczy nie są dobrze określone, np. kontaktów z klientami w call
center albo produkcji posiłków w restauracjach typu fast food. Nazywa się
to standardem obsługi, ale standardy tego rodzaju są nadmiernie sztywne.
Wszelkie nietypowe, nieprzewidziane algorytmem problemy klientów
z założenia nie będą mogły zostać rozwiązane. Jeden z autorów niniejszej
książki chciał się dowiedzieć w call center pewnej firmy ubezpieczeniowej,
czy w ofercie ubezpieczeń motoryzacyjnych są tzw. pakiety obejmujące
OC, AC i NW. Cena pakietu zwykle jest znacznie niższa niż każdego
z ubezpieczeń z osobna. Nie mógł jednak zadać tego pytania przez
pierwszych 10 minut rozmowy, „standard obsługi” wymagał bowiem
uzyskania od klienta wielu szczegółowych informacji. Po ich podaniu
okazało się, że firma nie miała w momencie rozmowy żadnych pakietów
w swojej ofercie.
Heurystyka (heuristic) – 1. Skrócona metoda przeszukiwania pola problemowego, polegająca na
ominięciu wielu potencjalnych dróg rozwiązania problemu, jeśli przypuszcza się lub zakłada, że nie
doprowadzą do rozwiązania; przeciwieństwo algorytmu. 2. Uproszczona reguła podejmowania
decyzji lub wydawania sądów, zwykle z pominięciem logicznego rozumowania i skomplikowanych
obliczeń statystycznych.

Próba algorytmizacji zjawisk, które ludzie skutecznie rozwiązują innymi


metodami, wiąże się albo z nadmiernym ich uproszczeniem bądź
strywializowaniem (np. algorytm obsługi klienta), albo z nadmiernym ich
skomplikowaniem (algorytm gry w szachy). W takich sytuacjach ludzie
zwyczajowo nie stosują algorytmów, lecz tzw. heurystyki. Heurystyka jest
nieformalną, spekulatywną, uproszczoną albo skrótową metodą
rozwiązywania problemów lub podejmowania decyzji. Ze swojej natury
jest więc zawodna i bardziej ryzykowna niż algorytm. Nie gwarantuje, że
zadanie uda się rozwiązać, a jedynie podpowiada, jaką metodą można
próbować to zrobić. Kolejne użycie heurystyki w niezmienionej postaci
w danej klasie zadań prowadzi zazwyczaj do innego rezultatu, a niekiedy
może okazać się zupełnie nieskuteczne. O ile konstrukcja mostu
sprowadzalna jest do wyrażonych wzorami algorytmów, zapewniających
np. pożądaną wytrzymałość, o tyle opracowanie go od strony wizualno-
artystycznej da się ująć jedynie pewnymi regułami heurystycznymi.
Przykładowo heurystyka: „rozejrzyj się po okolicy projektowanego mostu,
może da się «twórczo» nawiązać do jakiegoś elementu otoczenia”, może
doprowadzić do rewelacyjnego pomysłu albo okazać się całkiem
nieprzydatna. Heurystyka jest więc słabo określona, ale też ma
zastosowanie w przypadku problemów, których nie da się jednoznacznie
i kompleksowo zdefiniować. Takimi problemami są zazwyczaj zadania
wymagające myślenia twórczego.

Inne przypadki stosowania heurystyk wiążą się z sytuacjami, których


złożoność powoduje konieczność stosowania uproszczeń. Mogą być
wówczas co najmniej dwa powody użycia heurystyki. Po pierwsze, kiedy
złożoność sytuacji uniemożliwia wykonanie wszystkich operacji
przewidzianych algorytmem. Przykładowo, w grze w szachy wyobrażenie
sobie wszelkich kombinacji ruchów możliwych do wykonania w danej
sytuacji jest – poza początkiem i końcem gry – niewykonalne. Inna sprawa,
że większość kombinacji byłaby absurdalna, więc nawet nie należałoby
wykonywać takiej kompleksowej symulacji. Szachiści stosują zatem
heurystyki, które akurat w tym przypadku, będąc uproszczeniami w sensie
obliczeniowym, charakteryzują się dużą złożonością. Heurystyki
rozwiązywania problemów opisano szerzej w podrozdziale 11.4. Po drugie,
stosujemy uproszczenia nie z powodu naszej ograniczonej wydolności
poznawczej, ale ze względu na ekonomię myślenia. Podejmując decyzje
zakupowe, moglibyśmy stosować algorytmy albo bardzo dobre heurystyki
kompensacyjne, jednak w większości przypadków byłoby to
nieekonomiczne. Dysponujemy całą gamą bardzo prostych heurystyk
podejmowania decyzji, które w tych sytuacjach prowadzą do
zadowalającego rezultatu. Korzyści płynące z ich użycia, tj. oszczędność
czasu i wysiłku poznawczego, są większe niż koszty związane z ryzykiem
wynikającym z uproszczenia. Przykładowo, jeśli zastanawiamy się nad
zakupem paru akcesoriów do telefonu komórkowego w jednej z kilku sieci
sprzedaży internetowej, musimy wziąć pod uwagę, oprócz jakości
produktów, ich cenę oraz koszt przesyłki. Możemy, korzystając z prostego
algorytmu, zsumować i porównać wszelkie koszty, ale zazwyczaj nie jest to
potrzebne. Jeśli cena jednego produktu X w firmie A jest wyższa o 20 zł
niż w firmie B (ceny pozostałych produktów są zbliżone), a koszt przesyłki
różni się w zakresie 4 zł, to rzecz jasna druga opcja będzie tańsza. Żeby to
ocenić, nie trzeba wykonywać dokładnych obliczeń. Najważniejsze
heurystyki podejmowania decyzji opisano w podrozdziale 12.1.

Niezależnie od podziału reguł myślenia na algorytmiczne i heurystyczne


poszukiwano bardziej szczegółowych reguł w procesie myślenia. Berlyne
(1969), przyjąwszy jako punkt wyjścia pracę Garretta Birkhoffa
i Saundersa Mac Lane’a (1953), wyróżnił cztery podstawowe reguły
myślenia, konstytuujące grupę transformacji. Obok kojarzenia,
transformacje uznaje się za podstawę tworzenia łańcucha zachowań
symbolicznych. Pierwsza reguła według Berlyne’a – składania
transformacji – zakłada, że jeśli zastosujemy w określonym porządku
dwie transformacje φ1 i φ2, to musi istnieć transformacja φ3, która jest
równoważna im obu. Zatem φ3 = (φ2 φ1). Innymi słowy, zakłada się
istnienie takiej transformacji, która prowadzi do identycznego wyniku jak
dwie jej składowe. Berlyne widzi w tej regule podstawę wyboru, są
bowiem co najmniej dwie drogi osiągnięcia określonego celu: dzięki
połączeniu dwóch lub więcej – zazwyczaj prostszych – operacji, albo
dzięki jednej, ale bardziej złożonej. Przykładowo, poruszając się w terenie,
możemy pójść 1 km na północ, a następnie 2,4 km na wschód. Jest to
równoważne przejściu 2,6 km ku północnemu wschodowi. Druga reguła –
transformacji tożsamościowej albo zerowej – oznacza przekształcenie
nieprowadzące do jakiejkolwiek zmiany. Transformacja tożsamościowa φ0
złożona z dowolną inną transformacją φi daje taki rezultat, jak
zastosowanie wyłącznie φi. Zatem (φi φ0) = (φ0 φi) = φi. Dodanie zera do
dowolnej liczby albo obrót figury o 360o są przykładami transformacji
tożsamościowych. Oczywiście ich stosowanie w praktyce nie ma sensu.
Niekiedy jednak nie wiemy, czy pewne działanie spowoduje przybliżenie
nas do celu. Jeśli po jego zastosowaniu nie obserwujemy żadnej zmiany,
możemy uznać je za transformację zerową. Kolejna reguła –
odwracalności transformacji – zakłada istnienie przekształcenia φp
odwrotnego w stosunku do φi, a ich łączne zastosowanie daje wynik
transformacji tożsamościowej φ0. W tym wypadku nie jest bez znaczenia
kolejność zastosowanych transformacji φp i φi, chociaż ich złożenie daje
ten sam rezultat. Przykładowo, jeśli z punktu A pójdziemy na wschód 1
km, to odwrotnością tego działania będzie przejście 1 km na zachód.
Podobnie jak przejście 1 km na zachód można odwrócić, idąc 1 km na
wschód. W obu przypadkach powracamy do punktu A. Różnica jest jednak
taka, że punkty pośrednie (1 km na wschód od A, 1 km na zachód od A)
i przemierzona droga (nie w sensie odległości, a jej rodzaju) są różne.
W myśleniu człowieka możemy dzięki odwracalności transformacji
„anulować” błędne przekształcenie, powracając do stanu sprzed owego
błędu. Reguła ta stanowi więc podstawę symulacyjnej funkcji myślenia,
o której pisaliśmy na początku rozdziału, pozwalającej na mentalne
testowanie różnych scenariuszy działania w określonej sytuacji. Czwartą
regułą myślenia jest zasada łączenia transformacji, wedle której dowolne
trzy transformacje φ1 φ2 i φ3, połączone dowolnie parami na zasadzie
składania transformacji, dają ten sam rezultat. Zatem (φ3 φ2) φ1 = φ3 (φ2
φ1), gdzie (φ3 φ2) oznacza złożoną transformację, równoważną sekwencji
φ2 i φ3, a (φ2 φ1) – transformację odpowiadającą φ1 i φ2. Zasada działa pod
warunkiem, że transformacje pochodzą z jednej kategorii, a najlepiej jeśli
są identyczne, np. (2 + 4) + 6 = 2 + (4 + 6). W przypadku różnych
transformacji zasada przestaje być prawdziwa, np. (2 4) + 6 6¼ 2 (4 + 6).

Mimo znacznego stopnia ogólności przedstawionych reguł w zasadzie


można wskazać przypadki ograniczonego ich zastosowania. Nawet
odwracalność transformacji – która, np. zdaniem Piageta, jest żelazną
regułą myślenia – można podważyć. Jeśli stan A przekształcimy w stan A’,
to po powrocie do stanu A wiemy, jakie są konsekwencje wykonanego
przekształcenia. Jesteśmy więc bogatsi o wiedzę, która może istotnie
dookreślać sytuację problemową czy eliminować pewną grupę
przekształceń. W zasadzie nie jest to już stan A. Do innych ujęć reguł
myślenia (np. heurystyk decyzyjnych czy metod rozwiązywania
problemów) powrócimy jeszcze w dalszych rozdziałach podręcznika.

10.4.4. Myślenie a inne złożone procesy poznawcze


Cała część III podręcznika poświęcona jest trzem, tradycyjnie osobno
ujmowanym obszarom złożonej aktywności poznawczej człowieka (higher-
order cognition): rozumowaniu, rozwiązywaniu problemów
i podejmowaniu decyzji. Każdy z nich znajduje się w ścisłej relacji do
procesów myślenia (ryc. 10.3), których badanie stanowi punkt wyjścia do
przedstawienia propozycji teoretycznych i badań we wspomnianych trzech
obszarach. W większości wypadków myślenie nie odbywa się w próżni:
jego celem jest rozwiązanie problemu albo podjęcie decyzji, a specyficzną
formą, prowadzącą do formułowania wniosków, jest rozumowanie. Dlatego
najczęściej rozwiązywanie problemów i podejmowanie decyzji angażuje
myślenie, niekiedy również rozumowanie. Wyjątki od tej zasady nie są
jednak rzadkością. Po pierwsze, myślenie nie zawsze jest ukierunkowane
na rozwiązanie problemu czy podjęcie decyzji. Wszelkie przypadki
myślenia autystycznego oraz pewne szczególne przypadki myślenia
reproduktywnego (np. odtworzenie posiadanej wiedzy, niemające związku
z jakimkolwiek problemem czy decyzją) stanowią przykłady tego typu
wyjątków. Po drugie, zarówno rozwiązywanie problemów, jak
i podejmowanie decyzji, zwykle wymagające myślenia, niekiedy może się
bez niego obejść. Przypadkowe zestawianie elementów (manualne albo
mentalne) czy inne formy metody prób i błędów mogą prowadzić do
rozwiązania problemu bez udziału procesów myślenia. Również „decyzja”
podjęta na podstawie przypadkowego wyboru, np. gatunku sera w sklepie
czy koszuli z szafy, rozwiązuje określony problem, ale nie wymaga
rozpatrywania i porównywania dostępnych opcji wyboru. Zauważmy, że
tzw. wybory nawykowe również nie wymagają myślenia, odwołujemy się
bowiem do swoich lub cudzych przyzwyczajeń, nie analizując dostępnych
opcji. Są to przykłady podejmowania decyzji, które służą rozwiązaniu
problemu, ale nie angażują myślenia. Możliwy jest również przypadek
odwrotny – podejmowanie decyzji angażuje myślenie, ale ponieważ nie jest
to myślenie ukierunkowane, nie polega na rozwiązywaniu problemu. Tak
się dzieje w oderwanych spekulacjach – „gdybaniu” czy „myśleniu
o niebieskich migdałach” – które mogą wymagać podejmowania pewnych
decyzji. Z punktu widzenia teorii myślenia decyzje podejmuje się na
podstawie wyboru rozgałęzienia w łańcuchu myślowym. Myślenie
autystyczne charakteryzuje się szczególnie bogatym zakresem rozgałęzień
tego typu, więc może wymagać podjęcia bardzo wielu decyzji.

Na rycinie 10.3 rozumowanie ulokowane zostało w części wspólnej,


między myśleniem, rozwiązywaniem problemów a podejmowaniem
decyzji. Rozumowanie jest specyficzną formą myślenia, czyli jego
podkategorią. Dlatego nietrudno sobie wyobrazić, że zarówno
rozwiązywanie problemów, jak i podejmowanie decyzji może przebiegać
na drodze rozumowania. Częściej jednak tak się nie dzieje, ponieważ
w obu wypadkach odwołujemy się do uproszczonych heurystyk (zob.
rozdz. 11 i 12).

RYCINA 10.3. Relacje między myśleniem a innymi złożonymi procesami poznawczymi:


rozumowaniem, rozwiązywaniem problemów i podejmowaniem decyzji
Źródło: opracowanie własne.

Interesująca wydaje się również możliwość, w której rozumowanie jest


elementem myślenia autystycznego. Można bowiem wyciągać logiczne
wnioski dedukcyjne z przesłanek, czy używać analogii bądź metafor, nawet
jeśli aktywność umysłowa polega na spekulacjach oderwanych od
rzeczywistości. George Lucas, autor sagi Gwiezdnych wojen, wprowadził
do swojego świata wiele reguł niezgodnych z prawami fizyki4, do czego
sam się przyznaje. Można zatem uznać jego wizję za oderwaną od
rzeczywistości. Niemniej raz wprowadzone reguły nie zostały nigdy
złamane, a ich implikacje stosowane są konsekwentnie. Wszystko to
sprawia, że wizja Lukasa jest logiczna: dziwaczne reguły stanowią
przesłanki poprawnego procesu wnioskowania.

Podział złożonych procesów poznawczych na wspomniane trzy obszary


jest zabiegiem zaledwie porządkującym i raczej upraszczającym
rzeczywistość. Przykładowo, wykorzystanie analogii w myśleniu jest
równie silnie reprezentowane zarówno w obszarze rozumowania
(rozumowanie przez analogię), jak i rozwiązywania problemów (transfer
przez analogię). Dlatego w kolejnych rozdziałach wspomniane obszary
przeplatają się zgodnie z ujęciami dominującymi w literaturze przedmiotu.

10.5. Rozumowanie dedukcyjne

10.5.1. Dedukcja i indukcja


Rozumowanie dedukcyjne (deduction) – polega na wyciąganiu wniosków, które w sposób
niezawodny wynikają z dostarczonego zestawu przesłanek. Odbywa się z wykorzystaniem
formalnych reguł logiki. Ponieważ wnioski wynikają z przesłanek w sposób konieczny,
rozumowanie dedukcyjne zwane jest również rozumowaniem niezawodnym. Nie prowadzi do
generowania nowej wiedzy, ponieważ to, co zawiera wniosek, było wcześniej zawarte
w przesłankach.

Rozumowanie to formułowanie wniosków na podstawie przesłanek.


Wyróżniamy dwie podstawowe formy rozumowania: dedukcyjne
i indukcyjne. Rozumowanie dedukcyjne polega na wyciąganiu wniosków
z przesłanek z wykorzystaniem formalnych reguł logiki. Na przykład
przesłanki mogą przybrać postać:

Adam jest wyższy od Bartka,


Bartek jest wyższy od Cezarego,
a wniosek:

Zatem Adam jest wyższy od Cezarego.

Wniosek wyciągnięty dzięki dedukcji jest niezawodny, gdyż właściwie


stosując reguły logiki, zawsze dochodzimy do rzetelnych wniosków.
Wniosek dedukcyjny stanowi ponadto efekt zastosowania pewnej ogólnej
reguły; w podanym przykładzie jest to reguła przechodniości (jeśli A = B
i B = C, to A = C). Jednak nawet jeśli poprawnie zastosujemy reguły logiki,
niekoniecznie uzyskamy wniosek, który jest prawdziwy, czyli zgodny ze
stanem faktycznym. Przykładowo:

Żaden ssak nie może oddychać pod wodą;


niektórzy ludzie, posługując się akwalungiem, oddychają pod wodą,

więc

niektórzy ludzie nie są ssakami.

Wniosek ten jest prawidłowy w świetle reguł logiki, ale nie jest zgodny
z prawdą. Należy zatem odróżnić logiczną poprawność wniosku,
wynikającą z rzetelnego zastosowania reguł wnioskowania, od jego
prawdziwości, czyli zgodności ze stanem faktycznym. Prawdziwość
wniosku zależy od prawdziwości przesłanek. Uwzględniając możliwość
oddychania pod wodą z użyciem akwalungu, pierwszą przesłankę należy
uznać za nieprawdziwą, podobnie jak wniosek, mimo poprawności samego
rozumowania. Możliwa rozbieżność między logiczną rzetelnością
a materialną prawdziwością wniosku dedukcyjnego wynika z faktu, że
rozumowanie dedukcyjne nie prowadzi do uzyskania nowej wiedzy. Cała
wiedza zawarta jest bowiem w przesłankach, a rozumowanie ma na celu jej
wydobycie i zwerbalizowanie.

W badaniach nad rozumowaniem dedukcyjnym współcześnie używa się


dwóch rodzajów zadań: wymagających ewaluacji konkluzji oraz
wymagających generowania konkluzji. Różnica polega na tym, że
w pierwszym przypadku osobie badanej prezentuje się zarówno przesłanki,
jak i wniosek (albo różne wnioski), a jej zadanie polega na ocenie
prawidłowości konkluzji. Ocena ta obejmuje trzy możliwości: (1) wniosek
koniecznie wynika z przesłanek; (2) wniosek jest możliwy w świetle
przesłanek; (3) wniosek jest błędny w świetle przesłanek. Przykładowo:

Niektóre A są B.

Oceń, który z przedstawionych wniosków jest konieczny, możliwy albo


błędny.

(1) Wszystkie A są B.
(2) Żadne A nie są B.
(3) Niektóre A nie są B.
(4) Wszystkie B są A.
(5) Niektóre B są A.
(6) Żadne B nie są A.
(7) Niektóre B nie są A.

Z tej przesłanki wynika tylko jeden konieczny wniosek: niektóre B są


A (5). Wnioski (1), (3), (4) i (7) są możliwe, ale nie wynikają w sposób
konieczny z przesłanek, a wnioski (2) i (6) są błędne.

Drugi typ zadań polega na tym, że osoba badana otrzymuje przesłanki, a jej
zadanie polega na samodzielnym generowaniu wniosków. W obu
przypadkach punktem odniesienia są reguły logiki formalnej, które
pozwalają na ocenę poprawności wnioskowania oraz dają wgląd
w specyficzne błędy, które popełniają osoby badane. Czytelników
zainteresowanych systematycznym, a zarazem przystępnym przeglądem
tych reguł odsyłamy do polskojęzycznych prac Marii Lewickiej (1993,
2000) oraz bardzo bogatej, obcojęzycznej literatury przedmiotu (np. Evans,
1982, 2002; Evans, Newstead, Byrne, 1993; Manktelow, 1999; Wason,
Johnson-Laird, 1972).
Rozumowanie indukcyjne (induction) – polega na wyciąganiu wniosków na podstawie niepełnego
zbioru przesłanek, zgromadzonych np. na drodze obserwacji. Analiza przesłanek prowadzi do
wykrycia i sformułowania pewnych prawidłowości ogólnych, które są przedmiotem twierdzenia.
W trakcie rozumowania indukcyjnego wychodzimy poza posiadane informacje i formułujemy
wnioski, które zawierają niedostępną wcześniej wiedzę.

Rozumowanie indukcyjne polega natomiast na wyprowadzaniu nowych


twierdzeń lub hipotez na podstawie skończonej liczby zgromadzonych
przypadków, np. obserwacji. Analiza posiadanych przesłanek
szczegółowych prowadzi – w drodze indukcji – do wykrycia
i sformułowania pewnych prawidłowości ogólnych, które są przedmiotem
twierdzenia. Przykładowo, jeśli z poczynionych n obserwacji wynika, że
wszystkie łabędzie są białe, można wyciągnąć wniosek, że jest to cecha
dystynktywna gatunku łabędzia. Wniosek ten nie uwzględnia jednak
możliwości zaobserwowania w przyszłości gatunku łabędzi o innym
kolorze, mogącego żyć w środowisku, do którego ludzie w momencie
formułowania tego wniosku nie dotarli. Tak właśnie się stało, kiedy
odnaleziono enklawę czarnych łabędzi. Rozumowanie prowadzące do tego
rodzaju wniosków ma charakter indukcyjny – polega na sformułowaniu
wniosku ogólnego na podstawie skończonej liczby obserwacji. W świetle
logiki wniosek taki jest niepewny i często nic nie da się zrobić, aby go
uprawomocnić. Nie można zaobserwować wszystkich łabędzi, ale też nie
ma innej drogi do sformułowania wniosku, który byłby pewny
i niezawodny. Wnioskowanie indukcyjne może więc prowadzić na
manowce. Wystarczy jeden zaobserwowany przypadek łabędzia innego niż
w kolorze białym, a sformułowany wniosek trzeba będzie odrzucić.
Oczywiście taki wniosek mógłby zostać sformułowany z wykorzystaniem
małego kwantyfikatora: „niektóre łabędzie są białe”, co sprawiłoby, że
konkluzja byłaby poprawna (a nawet prawdziwa). Z praktycznego punktu
widzenia jednak wnioski takie niczemu nie służą, praktyka bowiem
oczekuje wniosków generalnych, dotyczących prawidłowości zawsze
obowiązujących. Czemu zatem służy indukcja, skoro jest tak zawodna?
Rozumowanie indukcyjne dostarcza nowych informacji; jest sposobem
nabywania wiedzy. Służy formułowaniu wniosków dotyczących relacji
między obserwowanymi zmiennymi, w tym związków przyczynowych
(„jeśli..., to...”), albo prawdopodobnych – w świetle posiadanych informacji
– hipotez (zob. też Holyoak, Nisbett, 1988).

Psychologów poznawczych interesuje raczej deskryptywny niż


normatywny poziom analizy rozumowania. Najogólniej mówiąc, chodzi
o pytanie, jak przebiega proces umysłowy w trakcie rozumowania,
szczególnie w przypadku osób, które nie mają specjalistycznego
przygotowania w zakresie logiki formalnej; jest to zatem implementacja
drugiego z kluczowych pytań psychologii poznawczej według Zenona
Pylyshyna (1973; zob. też podrozdz. 2.1): pytania o przebieg procesów
poznawczych leżących u podłoża określonego zjawiska.

Zdaniem Jonathana Evansa (1991) kierunki badań nad rozumowaniem


można powiązać z trzema szczegółowymi zagadnieniami. Pierwsze
dotyczy problemu kompetencji w zakresie rozumowania, które prezentują
osoby bez specjalnego wykształcenia w zakresie logiki. Jest to pytanie, czy
ludzie z natury potrafią rozumować logicznie czy też jest to zdolność
nabywana dopiero w procesie edukacji. Drugi kierunek badań polega na
identyfikacji systematycznych tendencji (biases) w rozumowaniu,
szczególnie tych, które powodują, że ludzie popełniają błędy logiczne. Nie
chodzi o przypadkowe pomyłki, lecz o błędy systematyczne i uniwersalne,
wskazujące na pewne tendencje w myśleniu (zob. Lewicka, 1993; Nęcka,
1996). Są one właściwe dla większości ludzi i nie wynikają z niskiego
poziomu zdolności intelektualnych. Trzeci problem, według Evansa, to
wpływ zawartości zadania (content) i kontekstu (context) na
rozumowanie. W klasycznych badaniach nad rozumowaniem dedukcyjnym
stosuje się zadania w postaci abstrakcyjnej (np. „wszystkie A są B, niektóre
B są C, zatem...”), co pozwala na uchwycenie „czystych” właściwości
procesu umysłowego. Analizie podlegają wówczas charakterystyki
rozumowania, które są niezależne od konkretnej dziedziny (wiedzy,
doświadczenia, zawartości treściowej zadań, kontekstu wnioskowania).
W podejściu deskryptywnym jednak konieczne wydaje się uwzględnienie
zarówno treści, jak i kontekstu zadań logicznych, które człowiek
rozwiązuje w życiu codziennym. Okazuje się, że czynniki te zdecydowanie
poprawiają racjonalność naszego myślenia. Te trzy zagadnienia stanowią
ramę analizy dwóch rodzajów rozumowania: dedukcyjnego i indukcyjnego.

10.5.2. Rozumowanie sylogistyczne


Sylogizm (syllogism) – schemat wnioskowania dedukcyjnego, w którym wniosek wyciąga się na
podstawie dwóch przesłanek; sylogizm tworzą obie przesłanki (większa i mniejsza) wraz
z wnioskiem.

Sylogizmy są schematami wnioskowania dedukcyjnego, w których


wniosek wyciąga się na podstawie dwóch przesłanek. Sylogizm tworzą
obie przesłanki (większa i mniejsza) wraz z wnioskiem. Każda z przesłanek
składa się z dwóch terminów połączonych relacją. Pierwsza przesłanka
obejmuje terminy większy i środkowy, a druga – środkowy i mniejszy.
Termin większy jest orzecznikiem wniosku, tzw. predykatem, a termin
mniejszy – podmiotem. Z kolei termin środkowy jest ogniwem pośrednim,
pozwalającym na ustalenie relacji między predykatem a podmiotem, co jest
przedmiotem wnioskowania. Termin środkowy powtarza się zarówno
w przesłance większej, jak i mniejszej. Przykładowo w sylogizmie:

(1) Adam jest wyższy od Bartka,


(2) Bartek jest wyższy od Cezarego,
zatem Adam jest wyższy od Cezarego;

(1) to przesłanka większa, (2) – przesłanka mniejsza, Adam – termin


większy (orzecznik), Bartek – termin środkowy, Cezary – termin mniejszy
(podmiot).
Sylogizm liniowy (linear syllogism) – zadanie logiczne, w którym związek między jego terminami
ma charakter liniowy i dotyczy porównania natężenia (ilościowego albo jakościowego) jakiejś
właściwości użytych terminów.

W sylogizmie liniowym związek między wszystkimi trzema terminami ma


charakter liniowy i dotyczy porównania natężenia (ilościowego albo
jakościowego) jakiejś właściwości użytych terminów. W przytoczonym
przykładzie, będącym sylogizmem liniowym, porównywaną właściwością
jest wzrost trzech osób. Wniosek: „Adam jest wyższy od Cezarego”,
wynika logicznie z przesłanek i jest prawomocny. Gdyby jednak sylogizm
miał następującą postać:

Adam jest wyższy od Bartka,


Bartek jest niższy od Cezarego,
który z panów jest najwyższy?;

nie można byłoby wydedukować logicznego i prawomocnego wniosku.


Z przesłanek wynika wyłącznie to, kto jest najniższy, ale nie wiadomo,
który z panów: Adam czy Cezary, jest wyższy.
Sylogizm kategoryczny (categorial syllogism) – zadanie logiczne, które orzeka o przynależności
użytych w nim terminów do określonej kategorii. Przynależność do kategorii, wyrażona
w przesłankach, dookreślona jest kwantyfikatorem wielkim (wyrażenia typu „wszystkie”, „żaden”
itp.) albo małym (wyrażenie typu „niektóre” itp.) i ma postać twierdzącą albo przeczącą.

Sylogizmy kategoryczne, formalnie podobne do liniowych, orzekają


o przynależności użytych w nich terminów do określonej kategorii.
Przynależność do kategorii, wyrażona w przesłankach, dookreślona jest
kwantyfikatorem wielkim albo małym5 i ma postać twierdzącą lub
przeczącą. Z kombinacji tych dwóch właściwości sylogizmów powstają
cztery rodzaje przesłanek: (1) ogólno-twierdząca „a” (affirmo): wszystkie
A są B (np. wszyscy psychologowie są uczciwi); (2) ogólno-przecząca „e”
(nego): żadne A nie są B (np. żaden psycholog nie jest piłkarzem); (3)
szczegółowo-twierdząca „i” (affirmo): niektóre A są B (np. niektórzy
psychologowie są chorowici); (4) szczegółowo-przecząca „o” (nego):
niektóre A nie są B (np. niektórzy psychologowie nie są komunikatywni).
Termin większy i mniejszy połączone są relacją przynależności do pewnej
kategorii, a zadanie najczęściej polega na ocenie, czy relacja, która jest
ujęta we wniosku, wynika z przesłanek w sposób konieczny. Jeśli tak,
wówczas sylogizm jest niezawodny. Jeśli relacja ujęta we wniosku jest
zaledwie możliwa, mamy do czynienia z sylogizmem zawodnym. Na
podstawie przesłanek: „Niektórzy ludzie są interesujący” oraz „Żaden
artysta nie jest interesujący” można sformułować osiem wniosków. Tylko
jeden z nich jest niezawodny: „Niektórzy ludzie nie są artystami” (ryc.
10.4). Inny, narzucający się wniosek: „Niektórzy ludzie są artystami”,
mimo że prawdziwy, w świetle logiki nie jest bezwarunkowo pewny (ryc.
10.4). Spośród istniejących 256 sylogizmów (dwie przesłanki + jeden
wniosek) 24 spełnia kryteria niezawodności. Reszta jest albo zawodna, albo
błędna.
RYCINA 10.4. Diagram Venna, czyli obrazowe przedstawienie relacji między zbiorami,
ułatwiające sformułowanie wniosku sylogistycznego
Widzimy dwa uprawnione sposoby reprezentacji przesłanek: „Niektórzy ludzie są interesujący”
i „Żaden artysta nie jest interesujący”. Wniosek: „Niektórzy ludzie są artystami” jest możliwy
(prawa strona), ale niekonieczny (lewa strona). Sylogizm jest zatem niekonkluzywny. Zauważmy, że
oba sposoby reprezentacji przesłanek są niezgodne z wiedzą potoczą, ale poprawne w świetle
informacji zawartych w przesłankach (nie ma w nich mowy o relacji ludzie–artyści).
Źródło: opracowanie własne.

Wykorzystanie abstrakcyjnych zadań wymagających rozumowania pozwala


badać kompetencje osób badanych, neutralizując wpływ czynnika
doświadczenia. Tego typu postępowanie, charakterystyczne dla wczesnych
badań realizowanych w nurcie psychologii eksperymentalnej, prowadziło
do ponurych wniosków. Okazywało się mianowicie, że ludzie
niewyedukowani w zakresie logiki rozwiązują tego typu zadania z dużą
liczbą błędów, czyli że myślą nielogicznie, a zatem są nieracjonalni.
Wniosek, że ludzie zwykle myślą nielogicznie, jest uzasadniony o tyle,
o ile jako model normatywny stosujemy kryteria logiki formalnej. Inny
model normatywny, np. z zakresu logiki wielowartościowej
(dopuszczającej więcej niż dwie wartości logiczne – prawda albo fałsz),
generuje inne kryteria oceny poprawności rozumowania człowieka. Ale
nawet jeśli przyjąć logikę formalną jako model normatywny, wyniki badań
niekoniecznie prowadzą do wniosku o braku racjonalności. Jeśli
uwzględnimy treść i kontekst wnioskowania oraz doświadczenie
indywidualne, a punktem odniesienia będzie efektywność rozumowania
(np. trafność przewidywań czynionych na podstawie wnioskowania), to się
okaże, że nasze myślenie jest znacznie bardziej racjonalne, niż można by
sądzić na podstawie powierzchownych ocen (zob. podrozdz. 10.5.4
i 10.6.3). Owa racjonalność wiąże się z adaptacją do wymagań środowiska,
które rzadko za punkt odniesienia bierze logikę formalną. Ponadto wszelkie
uproszczenia, a nawet błędy w myśleniu mogą być racjonalne (nawet gdy
nie są zgodne z regułami logiki), jeśli prowadzą do poprawnych
i dopasowanych do sytuacji rozwiązań. Jest to możliwe dzięki
zastosowaniu prostych heurystyk, które oprócz wspomnianego
dopasowania są ponadto ekonomiczne. Jednak znaczna część badaczy,
konstruując swoje eksperymenty laboratoryjne, tak dobiera zadania, że te
efektywne heurystyki zawodzą. Błędy należy więc uznać raczej za wyjątek
niż ogólną regułę rządzącą uprawianym przez ludzi rozumowaniem.

10.5.3. Błędy rozumowania sylogistycznego


Błędy w rozumowaniu, o których już kilkakrotnie wspominano, są
specyficzne dla różnych jego rodzajów, niemniej niektórzy badacze
wyróżniają również błędy natury ogólnej. Najczęściej chodzi o błędy
polegające na zastosowaniu trybu zawodnego jako niezawodnego i –
rzadziej – odwrotnie. Jeśli sylogizm jest zawodny, nie można z całą
pewnością orzec żadnego wniosku. Zadanie pozostaje wówczas
nierozstrzygalne i jedyną uprawnioną odpowiedzią jest: „nie wiadomo”
albo „nie można tego stwierdzić”. Tymczasem ludzie dość często formułują
albo akceptują wnioski, które im się podsunie, mimo zawodności
sylogizmu, pod warunkiem że wniosek wydaje im się prawdopodobny,
zgodny ze stanem faktycznym lub wiedzą ogólną. Na przykład wniosek:
„Niektórzy ludzie są artystami”, mimo że nie wynika w sposób konieczny
z przesłanek, może być błędnie uznany za logicznie uprawniony (zob. ryc.
10.4).
Efekt atmosfery (atmosphere effect) – błąd rozumowania sylogistycznego, polegający na tendencji
do generowania wniosków na podstawie atmosfery tworzonej przez kwantyfikatory zawarte
w przesłankach. Badani będą skłonni częściej używać określonego kwantyfikatora we wniosku, jeśli
pojawia się on w obu przesłankach jednocześnie.

Specyficzne błędy popełniane w rozumowaniu sylogistycznym, znane od


dawna, dotyczą dwóch efektów: atmosfery (atmosphere effect) i inwersji
przesłanek (invalid conversion effect). Efekt atmosfery (Woodworth, Sells,
1935) dotyczy błędów polegających na tendencji osób badanych do
generowania wniosków na podstawie atmosfery tworzonej przez
kwantyfikatory zawarte w przesłankach. Badani będą skłonni częściej
używać określonego kwantyfikatora we wniosku, jeśli pojawia się on
w obu przesłankach jednocześnie, np.

Wszystkie A są B,
wszystkie C są B,
zatem wszystkie A są C.

Podany wniosek jest zawodny, podobnie zresztą jak każdy inny


wyciągnięty z tych przesłanek. Oznacza to, że wszystkie te wnioski są
w omawianym przypadku niekonkluzywne. Przeanalizujmy przykłady tego
sylogizmu, ale z wykorzystaniem pojęć naturalnych:

Wszystkie płoty w Zielonkach są zielone,


wszystkie organizmy zawierające chlorofil są zielone,
zatem wszystkie płoty w Zielonkach są organizmami zawierającymi
chlorofil.

Albo

Wszyscy uczeni są dobrze wykształceni,


wszyscy eksperci są dobrze wykształceni,
zatem wszyscy uczeni są ekspertami.

W pierwszym przykładzie wniosek jest całkowicie fałszywy, a w drugim


jest (raczej) prawdziwy, ale wyłącznie dzięki specyficznej treści
przesłanek. Być może w drugim przypadku szybciej widzielibyśmy
kwantyfikator szczegółowy (niektórzy uczeni są ekspertami), ale – jak
twierdzi Evans (1982) – wynika to raczej z naszej ostrożności w używaniu
kwantyfikatorów ogólnych. We wszystkich powyższych przykładach
(również jeśli we wniosku użylibyśmy kwantyfikatora szczegółowego)
z punktu widzenia logiki popełniamy błąd: na podstawie tych przesłanek
w sposób niezawodny nie można wyciągnąć żadnego wniosku. Nieco
inaczej przedstawia się wnioskowanie, kiedy w przesłankach użyte zostaną
różne kwantyfikatory. Ian Begg i Peter Denny (1969), precyzując
przewidywania Roberta Woodwortha i Saula Sellsa (1935), postawili dwie
hipotezy: faworyzowania konkluzji negatywnej i faworyzowania
konkluzji szczegółowej. Pierwsza hipoteza mówi, że negatywna
przesłanka (np. żaden psycholog nie może praktykować bez znajomości
psychologii poznawczej) tworzy atmosferę „negatywną”, nawet jeśli inne
przesłanki są pozytywne. Druga natomiast, że szczegółowa przesłanka (np.
niektórzy psychologowie są krótkowidzami) tworzy atmosferę
„szczegółową”, nawet jeśli pozostałe przesłanki są ogólne.

Wnioskowanie wskazujące na zgodność z hipotezą atmosfery nie zawsze


jest logicznie nieuprawnione. Niekiedy logika i „atmosfera” skłaniają nas
do tego samego wniosku. W sylogizmie:

Wszystkie A są B,
niektóre C nie są B,
zatem niektóre C nie są A;

wniosek jest poprawny i niezawodny, a zarazem zgodny z tendencją do


faworyzowania konkluzji negatywnej i szczegółowej. Jeśli jednak
z podanych przesłanek wyciągnęlibyśmy, również zgodne z hipotezą
atmosfery, wnioski: „niektóre A są C”, „niektóre C są A”, albo „niektóre
A nie są C”, uznając je za niezawodne, popełnilibyśmy błąd logiczny.
W badaniach Sellsa (1936) błędy rozumowania sylogistycznego, które były
zgodne z hipotezą atmosfery, stanowiły 51–72% wszystkich błędów. Sells
i wielu innych badaczy wyciągnęli więc wniosek, że człowiek generalnie
nie myśli logicznie (w każdym razie człowiek niewykształcony w zakresie
logiki formalnej). Norman Wetherick i Kenneth Gilhooly (1995), po nieco
innym przeliczeniu danych Sellsa, dokonali porównania poprawności
konkluzji w warunku, kiedy wniosek był uprawniony, tj. logicznie wynikał
z przesłanek, z warunkiem, kiedy wniosek był nieuprawniony. Odsetek
poprawnie ocenionych konkluzji, które były uprawnione, okazał się istotnie
wyższy (87,4) niż odsetek poprawnie ocenionych konkluzji, które były
nieuprawnione w świetle logiki (63,4). Odrzucenie wniosków
nieuprawnionych okazało się trudniejsze niż uznanie wniosków
uprawnionych, lecz ogólny poziom poprawności był wysoki. Wydaje się,
że wniosek, iż nie potrafimy myśleć logicznie, jest możliwy, ale
niekonieczny w świetle przesłanek (tutaj: analiz Sellsa). Problem nie
polega na tym, że w ogóle nie potrafimy przeprowadzać poprawnego
rozumowania dedukcyjnego, ale na tym, że w specyficznych sytuacjach
popełniamy błędy logiczne.
Podobieństwo syntaktyczne – tendencja w rozumowaniu dedukcyjnym, polegająca na
uwzględnieniu syntaktyki przesłanek w procesie formułowania wniosku. Jeżeli obie przesłanki
w sylogizmie opatrzone są takim samym kwantyfikatorem, to ich składnia, tworząc określoną
atmosferę, skłania nas do użycia podobnej składni we wniosku.

Jedno z wyjaśnień efektu atmosfery odwołuje się do podobieństwa


syntaktycznego przesłanek. Jeśli obie przesłanki są opatrzone takim
samym kwantyfikatorem, ich składnia, tworząc określoną atmosferę,
skłania nas do użycia podobnej składni we wniosku. O ile wyjaśnienie to
ma sens w tym wypadku, o tyle nie tłumaczy błędów popełnianych wtedy,
gdy przesłanki są opatrzone różnymi kwantyfikatorami. Nie wiadomo
bowiem, dlaczego syntaktyka kwantyfikatora szczegółowego miałaby
dominować nad syntaktyką kwantyfikatora ogólnego, podobnie jak nie jest
jasne, dlaczego syntaktyka zdania przeczącego miałaby dominować nad
syntaktyką zdania twierdzącego.
Inwersja terminów w przesłankach – błąd logiczny, polegający na odwracaniu kierunku relacji
między terminami zawartymi w przesłankach sylogizmu. Inwersja typu: jeśli „wszystkie A są B”, to
„wszystkie B są A” jest nieuprawniona. Błąd inwersji polega na stosowaniu równoważności
w miejscu inkluzji (zawierania się) zbiorów, w przypadku kiedy jest to nieuprawnione.

Inne wyjaśnienie błędów popełnianych w sylogizmach proponuje hipoteza


inwersji terminów w przesłankach (Chapman, Chapman, 1959). Inwersja
polega na odwracaniu kierunku relacji między terminami zawartymi
w przesłankach sylogizmu. Na przykład inwersja typu: jeśli „wszystkie
A są B”, to „wszystkie B są A” jest zupełnie nieuprawniona (to, że
„wszyscy kawalerzy są mężczyznami” nie jest tożsame z tym, że „wszyscy
mężczyźni są kawalerami”). Z logicznego punktu widzenia uprawniona jest
inwersja tylko w przypadku relacji tożsamości: „niektóre A są B wtedy
i tylko wtedy, gdy niektóre B są A” oraz „żadne A nie są B wtedy i tylko
wtedy, gdy żadne B nie są A”. Błąd inwersji polega na stosowaniu
równoważności w miejscu inkluzji (zawierania się) zbiorów w przypadku,
kiedy jest to nieuprawnione.

Rozstrzygnięcie między hipotezami atmosfery i inwersji nie jest łatwe.


Przeanalizujmy przykład:

Niektóre A nie są B,
wszystkie B są C,
zatem niektóre A nie są C.

Wniosek jest błędny, ale równie dobrze przewidują go obie hipotezy. Błąd
taki może wynikać zarówno z efektu atmosfery (kwantyfikator
szczegółowy jednej z przesłanek wytwarza „atmosferę szczegółowości”
i skłania do akceptacji wniosku operującego tym samym kwantyfikatorem),
jak i z efektu inwersji (jeśli „wszystkie C są B”, to „wszystkie B są C”).

Błąd inwersji można uznać za przejaw ogólniejszej kategorii błędów,


polegających na przyjmowaniu dodatkowych, a zarazem nieuprawnionych
przesłanek (Nęcka, 1996). W efekcie nieuprawnionej inwersji osoba
rozwiązująca sylogizm tworzy „po cichu” dodatkową przesłankę, która jest
fałszywa, a uwzględnienie jej w rozumowaniu prowadzi do błędnego
wniosku. Źródłem błędów w rozumowaniu może być również milczące
przyjmowanie przesłanek, które nie są explicite zawarte w sylogizmie
(tamże).

Próby rozstrzygnięcia między wspomnianymi hipotezami uznać należy za


niewystarczające (np. Begg, Denny, 1969; Roberge, 1978), a może w ogóle
niepotrzebne. Współcześnie pojawiła się bowiem trzecia możliwość
wyjaśnienia zaobserwowanych efektów empirycznych: hipoteza strategii
dopasowania (matching strategy; Wetherick, 1989, 1993; Wetherick,
Gilhooly, 1995). Strategia ta polega na wyborze konkluzji pasującej do
logicznej formy tej przesłanki, która jest bardziej „zachowawcza”
(conservative). Przesłanka bardziej zachowawcza to taka, która dotyczy
mniejszej liczby przypadków. Dlatego wniosek w trybie ogólno-
twierdzącym „a” zostanie wybrany, jeśli obie przesłanki wyrażone są
w trybie „a”. Jeśli jednak jedna z przesłanek jest ogólno-twierdząca,
a pozostałe innego trybu: „e”, „i” albo „o”, konkluzja będzie wyrażona
w trybie dopasowanym do trybu drugiej przesłanki, ponieważ to ona jest
w swojej treści bardziej zachowawcza, a wniosek na niej oparty wydaje się
mniej ryzykowny. Uporządkowanie trybów sylogistycznych pod względem
ich „zachowawczości” wygląda następująco: „e” > „o” = „i” >> „a”.
Oznacza to, że tryb ogólno-przeczący jest najbardziej zachowawczy,
ponieważ twierdzenie mówi o rozłączności dwóch zbiorów, np. żaden
uczeń nie jest profesorem.

W swoich badaniach Wetherick i Gilhooly (1995) użyli różnych wersji


zadań z sylogizmami. Główny test hipotezy strategii dopasowania oparty
został na zadaniu konstruowania przesłanek (premise construction).
Osobie badanej prezentowano wniosek sylogizmu, a jej zadaniem było
wygenerowanie jak największej liczby przesłanek, z których może być on
prawomocnie wyprowadzony. Następnie sprawdzano, czy popełnione błędy
pasują do hipotezy strategii dopasowania. W trzech z czterech trybów
wyniki istotnie lepiej pasowały do hipotezy strategii dopasowania, niż były
z nią niezgodne. Jedynie w trybie „o” rezultaty okazały się odwrotne.
Hipoteza dopasowania wyjaśnia 71%, 84,6%, 81% i 30,8% błędów
popełnionych przez osoby badane, odpowiednio w przypadku trybów „a”,
„i”, „e”, „o”.
Inny problem dotyczy formy reprezentacji sylogizmów liniowych.
Początkowo spierano się, czy jest to reprezentacja wizualno-przestrzenna
(Byrne, Johnson-Laird, 1989; Gattis, Dupeyrat, 2000; Roberts, Gilmore,
Wood, 1997) czy propozycjonalna, tj. w postaci sądów (Clark, 1969; Rips,
1994), a może mieszana (Sternberg, 1980). Użycie reprezentacji
przestrzennych polegałoby na wyobrażeniu sobie każdego z trzech
terminów sylogizmu na liniowym kontinuum. Przykładowo w sylogizmie:

Adam jest wyższy od Bartka,


Bartek jest wyższy od Cezarego,
zatem Adam jest wyższy od Cezarego;

każda z osób może być wizualnie reprezentowana na kontinuum „wzrostu”.


O ile sylogizm jest konkluzywny, relacje między predykatem i podmiotem
są możliwe do ustalenia na podstawie przestrzennego odniesienia każdego
z nich w stosunku do terminu średniego. Reprezentacja za pomocą sądów
polegałaby z kolei na ustaleniu semantycznych związków między
terminami sylogizmu. Przesłanki miałyby wówczas następujące
reprezentacje: [wyższy (Adam, Bartek)] i [wyższy (Bartek, Cezary)].
Kombinacja tych dwóch reprezentacji pozwala na wyciągnięcie
prawomocnego wniosku. W badaniach empirycznych okazało się, że
złożoność językowa zdania, za pomocą którego wyrażone są przesłanki,
wyraźnie wpływa na ilość czasu niezbędnego na ich przetworzenie (Clark,
1969), co wskazuje na udział reprezentacji propozycjonalnej. Podkreśla się
jednak, że spór między tymi poglądami może być sztuczny, jeśli uwzględni
się różnice indywidualne w stosowanych strategiach weryfikacji
sylogizmów (MacLeod, Hunt, Mathews, 1978). Wyniki Colina MacLeoda
i współpracowników pasowały do modelu werbalnego, ale pewna część
osób badanych posługiwała się strategią obrazową (w ich przypadku nie
stwierdzono różnicy w czasie przetwarzania przesłanek twierdzących
i przeczących, które różnią się złożonością językową). Zjawisko to
potwierdzono wielokrotnie, przy czym nie ma jasności, czy strategie te
zdecydowanie różnią się efektywnością (Ford, 1995) czy też różnica
między nimi jest niewielka (Bacon, Handley, Newstead, 2003). Poparciem
dla tezy o konieczności uwzględnienia różnic indywidualnych w sposobie
reprezentowania sylogizmów są dane uzyskane z wykorzystaniem techniki
funkcjonalnego rezonansu magnetycznego (functional magnetic resonance
imaging, fMRI) (Reichle, Carpenter, Just, 2000). Stwierdzono odmienne
korelaty neuronalne rozumowania werbalnego i obrazowego w zadaniach
podobnych do tych, które stosowali MacLeod i współpracownicy (1978).
Okazało się również, że mimo pewnych preferencji w zakresie strategii
rozumowania (albo wynikających z różnego poziomu zdolności
werbalnych i przestrzennych, albo związanych z preferowanym stylem
poznawczym) człowiek zgodnie z wymaganiami zadania potrafi –
przynajmniej częściowo – dopasować się do optymalnej formy
reprezentacji będącej ich konsekwencją (Roberts i in., 1997). Interesujące
wyjaśnienie roli reprezentacji werbalnych i obrazowych w rozumowaniu
sylogistycznym zaproponował Sternberg (1980) w postaci tzw. modelu
mieszanego. Model ten, testowany empirycznie w opozycji do
jednorodnych modeli obrazowych albo propozycjonalnych, zakłada
jednoczesny udział obu form reprezentacji w rozwiązywaniu sylogizmów.
Sądy stosujemy tu w celu utworzenia reprezentacji informacji zawartych
w przesłankach. Następnie przekształcamy te reprezentacje w postać
wizualną w celu wyprowadzenia wniosku albo jego weryfikacji.

Również inni badacze starali się wyjaśnić mózgowe mechanizmy


rozwiązywania sylogizmów. Aneta Brzezicka ze współpracownikami
(2011) wykazała zaangażowanie kory przedczołowej w prawej półkuli oraz
kory ciemieniowej obu półkul w rozwiązywanie sylogizmów liniowych.
Thomas Fangmeier, Markus Knauf, Christian Ruff i Vladimir Sloutsky
(2006), również wykorzystując sylogizmy liniowe, określili czasową
dynamikę aktywności mózgu w kolejnych fazach rozwiązywania tego typu
problemów, tj. przetwarzania przesłanek, integracji przesłanek i oceny
konkluzji. Weźmy jako przykład zadanie:

(1) Adam jest wyższy od Bartka,


(2) Bartek jest wyższy od Cezarego.
Który z nich jest najwyższy?

Aby odpowiedzieć na zadane pytanie, trzeba najpierw zrozumieć relację


między wzrostem Adama i Bartka (przesłanka 1), a potem analogiczną
relację między wzrostem Bartka i Cezarego (przesłanka 2). Na tym się
kończy etap przetwarzania przesłanek. Natomiast etap drugi – integracja
przesłanek – wymaga nałożenia jednej relacji na drugą w celu zbudowania
całościowej reprezentacji poznawczej tego zadania. Dopiero po utworzeniu
takiej reprezentacji, zwanej również modelem umysłowym (zob. podrozdz.
10.7.2), możliwe jest formułowanie wniosku i ocena jego prawidłowości
(etap trzeci). Fangmeier i in. (2006) wykazali zaangażowanie
w rozwiązywanie sylogizmów rozległej sieci, obejmującej płaty czołowe
i ciemieniowe. Stwierdzili jednocześnie, że w specyficznej dla
rozumowania (w porównaniu z biernym przechowywaniem materiału
bodźcowego w pamięci) fazie integracji przesłanek występuje wzrost
aktywności w przedniej części kory przedczołowej w prawej półkuli
mózgu. Ta różnica w aktywności między rozumowaniem
a przechowywaniem materiału nie pojawia się ani w fazie przetwarzania
przesłanek, ani w fazie oceny konkluzji. Dane te świadczą o kluczowej roli
procesów kontroli poznawczej w fazie integracji przesłanek, kiedy to
tworzymy umysłowy model relacji ujmowanych przez wszystkie
przesłanki.

10.5.4. Wpływ wiedzy i kontekstu na rozumowanie


sylogistyczne
Istotną przyczyną błędów w rozumowaniu sylogistycznym, jak zresztą
w każdej formie rozumowania, jest uprzednia wiedza, a szczególnie
osobiste poglądy i przekonania. Podstawowy problem w rozumowaniu
sylogistycznym polega na interferencji dwóch czynników: logicznej
poprawności wniosku oraz jego prawdziwości (albo zgodności
z przekonaniami). Jonathan Evans, Julie Barston i Paul Pollard (1983) użyli
w swoich badaniach czterech rodzajów sylogizmów, manipulując
poprawnością wniosku w sensie logicznym i jego zgodnością ze stanem
faktycznym. Łącznie dało to cztery kombinacje, w których wniosek jest:
(1) logicznie uprawniony i „sam w sobie” prawdziwy; (2) uprawniony, ale
fałszywy; (3) nieuprawniony, ale prawdziwy; (4) nieuprawniony i fałszywy.
Mogły to być np. następujące sylogizmy:

(1) Żadne papierosy nie są tanie, (2) Żadne używki nie są tanie,
niektóre używki są tanie, niektóre papierosy są tanie,
zatem niektóre używki nie są papierosami. zatem niektóre papierosy nie są używkami.

(3) Żadne używki nie są tanie, (4) Żadne papierosy nie są tanie,
niektóre papierosy są tanie, niektóre używki są tanie,
zatem niektóre używki nie są papierosami. zatem niektóre papierosy nie są używkami.

Zadaniem osób badanych była ocena poprawności każdego wniosku


w świetle zaprezentowanych przesłanek. Co do sylogizmów (1) i (3),
z których tylko pierwszy jest uprawniony, ale konkluzje obu są zgodne
z wiedzą potoczną, nie wykryto różnic w częstości akceptacji ich
poprawności. W obu przypadkach wyniosła ona 92%. Częstotliwość
akceptacji wniosków w pozostałych sylogizmach była znacznie niższa.
Akceptacja prawidłowego sylogizmu (2), którego konkluzja jest niezgodna
z wiedzą, pozostawała na poziomie 46%. Najrzadziej, bo zaledwie w 8%
przypadków, akceptowano sylogizm (4).

Z kolei Jane Oakhill i Philip Johnson-Laird (1985) użyli w swoich


badaniach metody generowania konkluzji, pozostawiając osobom badanym
swobodę w zakresie wniosków wyprowadzanych z zaprezentowanych
przesłanek. Z tych przesłanek w sposób uprawniony wynikały wnioski,
które mogły być zgodne albo sprzeczne z przekonaniami czy wiedzą
uczestników. Okazało się, że badani istotnie częściej formułowali wnioski
poprawne, jeśli były one zgodne z wiedzą potoczną (58%), niż kiedy były
z nią sprzeczne (38%). Poza tym w ostatnim przypadku częściej twierdzili,
że z zaprezentowanych im przesłanek nie da się wyciągnąć prawomocnego
wniosku (46%); kiedy zaś wnioski były zgodne z wiedzą potoczną,
zdarzało się to znacznie rzadziej (13%). Jeśli jednak z zaprezentowanych
przesłanek rzeczywiście nie można było wyciągnąć prawomocnego
wniosku, to badani częściej formułowali błędne konkluzje, które były
zgodne z ich przekonaniami (46%), niż poprawnie twierdzili, że
z przesłanek nic pewnego nie wynika (17%). Wskazuje to na silny efekt
interferencji wiedzy na temat prawdziwości wniosku z jego
prawomocnością w świetle logiki. Konflikt tego rodzaju rozstrzygany jest
raczej na korzyść wiedzy i przekonań. Nie ma to sensu z punktu widzenia
logiki, ale badania nad rozumowaniem nieformalnym (zob. podrozdz. 10.6)
sugerują inne wytłumaczenie tej, być może tylko pozornej,
nieracjonalności.

Wśród badaczy nie ma zgody co do mechanizmu tego zjawiska (zob.


Klauer, Musch, Naumer, 2000). W większości modeli wyjaśniających
włączenie wiedzy i przekonań do procesu wnioskowania jest sposobem na
uproszczenie tego ostatniego. Przykładowo, jeśli konkluzja jest logicznie
zgodna z pierwszym modelem umysłowym (zob. podrozdz. 10.5.2)
zbudowanym na podstawie przesłanek, pozostałe modele nie podlegają
weryfikacji. Sprawdzeniu poddawana jest tylko zgodność konkluzji
z przekonaniami. Jeśli taka zgodność zaistnieje, konkluzja zostaje
zaakceptowana (Newstead, Pollard, Evans, 1992; Oakhill, Johnson-Laird,
Garnham, 1989). Jest to zatem rodzaj heurystyki, pozwalającej na
zmniejszenie obciążenia poznawczego, która – jak się wydaje – może być
skuteczna w życiu codziennym. Wykazanie niezgodności wniosku ze
stanem faktycznym jest sposobem falsyfikacji hipotez, nie tylko w życiu
codziennym, lecz także w laboratorium naukowym. Uczony formułuje
wniosek na podstawie przesłanek wynikających z teorii i jeśli stwierdza
jego niezgodność z obserwacją lub danymi eksperymentalnymi,
kwestionuje trafność teorii.

Badania z wykorzystaniem technik neuronauki pozwalają lepiej zrozumieć


mechanizm wpływu przekonań na rozumowanie sylogistyczne i poznać
jego mechanizmy mózgowe. Vinod Goel i Raymond Dolan (2003)
wykazali w metodyce fMRI, że przypadki wpływu przekonań na
rozumowanie sylogistyczne, które prowadziły do błędów logicznych, były
skojarzone z aktywnością brzuszno-przyśrodkowej kory przedczołowej.
Wiadomo, że ten obszar jest zaangażowany m.in. w przetwarzanie
informacji emocjonalnych, szczególnie w poznawczą kontrolę emocji
(Motzkin, Philippi, Wolf, Baskaya, Koenigs, 2014). Zarazem jednak
skuteczne hamowanie wpływu przekonań na rozumowanie sylogistyczne
było związane z aktywacją prawej kory przedczołowej. Takeo Tsujii
i Shigeru Watanabe (2009, 2010), stosując technikę funkcjonalnej
spektroskopii w bliskiej podczerwieni (functional near-infrared
spectroscopy, fNIRS), również wykazali zaangażowanie prawej kory
przedczołowej w hamowanie wpływu przekonań. Tsuji i współautorzy
(Tsuji, Masuda, Akiyama, Watanabe, 2010) jeszcze bardziej wzmocnili
dowody na temat tego związku, przeprowadzając badanie
z wykorzystaniem przezczaszkowej stymulacji magnetycznej, które
pozwoliło na wyciągnięcie wniosków przyczynowo-skutkowych. Wolna
stymulacja (z częstotliwością 1 Hz, czyli taka, która wywiera efekt
hamujący) dolnej kory przedczołowej w prawej półkuli mózgu skutkowała
wzrostem wpływu przekonań na rozumowanie sylogistyczne. Wyniki te
wskazują na istotną rolę dolnej części kory przedczołowej w prawej półkuli
w pokonywaniu efektu przekonań w rozumowaniu sylogistycznym. Jest to
spójne z wiedzą na temat roli tego obszaru jako inhibitora impulsywnych
reakcji, wykazaną w badaniach fMRI z użyciem elementarnych zadań
poznawczych na hamowanie reakcji, takich jak sygnał stopu (Aron,
Robbins, Poldrack, 2014; zob. też rozdz. 6).

10.6. Rozumowanie warunkowe

10.6.1. Istota rozumowania warunkowego


Rozumowanie warunkowe to część logiki, zajmująca się tzw. rachunkiem
zdań. Implikacja, stanowiąca podstawowy przedmiot zainteresowania
badaczy rozumowania warunkowego, jest jednym z funktorów używanych
w rachunku zdań (obok koniunkcji, alternatywy, dysjunkcji, negacji
i równoważności). Implikacja składa się z dwóch zdań: poprzednika i
następnika, połączonych spójnikiem „jeżeli..., to...”, np. „Jeśli uderzę
w stół, to nożyce się odezwą”. Implikacja w tej postaci jest fałszywa tylko
wtedy, gdy poprzednik jest prawdziwy, a następnik fałszywy. Załóżmy, że
chcemy sprawdzić prawdziwość przywołanej implikacji. Uderzamy zatem
w stół i ilekroć to czynimy, nożyce powinny się odezwać. W przeciwnym
wypadku implikacja jest fałszywa (poprzednik jest prawdziwy, bo
uderzyliśmy w stół, a następnik fałszywy, bo nożyce się nie odezwały).
Aby implikacja była prawdziwa, zajście poprzednika jest warunkiem
wystarczającym (ale niekoniecznym) zajścia następnika, ale zajście
następnika jest koniecznym skutkiem uprzedniego zajścia poprzednika.
Jeśli te warunki nie są spełnione, implikacja jako całość jest fałszywa, choć
prawdziwe mogą być jej składniki (tj. poprzednik lub następnik). Innymi
słowy, dla odezwania się nożyc warunkiem wystarczającym, ale
niekoniecznym jest uderzenie w stół. Równie dobrze mogą się one
odezwać z innych przyczyn, np. kiedy ktoś mocniej trąci nogę od stołu albo
kiedy w pobliżu przejedzie tramwaj bądź z wielu innych powodów.
Niemniej każde uderzenie w stół powinno prowadzić do odpowiedzi ze
strony nożyc, jest to bowiem warunek konieczny prawdziwości tej
implikacji.

Implikacja jest narzędziem opisu rzeczywistości, które pozwala na


formułowanie związków przyczynowo-skutkowych między interesującymi
nas zjawiskami. Jeśli chcemy wiedzieć, co powoduje, że ludzie nas lubią
(np. po to, aby lubili nas jeszcze bardziej), albo jeśli chcemy zrozumieć,
dlaczego ludzie zachowują się konformistycznie, formułujemy hipotezy
w postaci implikacji, np. „Jeśli mówię komuś miłe rzeczy, to bardziej mnie
polubi” czy „Jeśli ludziom zależy na akceptacji w grupie, to stają się
bardziej konformistyczni”. Następnie, jak wszystkie hipotezy, powinniśmy
poddać je weryfikacji: sprawdzić, czy reguły w nich zawarte są prawdziwe.
W życiu codziennym może nas zadowolić, kiedy reguła częściej działa, niż
nie działa. W logice niezbędne jest ustalenie niezawodnych schematów
wnioskowania z użyciem implikacji.
Ponieważ implikację można w sposób formalny przedstawić następująco:
„jeżeli p, to q”, a każdy z jej argumentów może przyjąć dwie wartości:
prawda albo fałsz, to otrzymujemy łącznie cztery kombinacje. Każda z nich
jest osobnym schematem wnioskowania. Dwa z tych schematów są
niezawodne, a dwa zawodne:

(1) Modus ponens:


Jeżeli p, to q p
Więc: q

(2) Potwierdzenie następnika:


Jeżeli p, to q q
Więc: p

(3) Zaprzeczenie poprzednika:


Jeżeli p, to q nie p
Więc: nie q

(4) Modus tollens:


Jeżeli p, to q nie q
Więc: nie p

Schematy (1) i (4) są niezawodne, tj. ich użycie jest uprawnione


i konkluzywne z logicznego punktu widzenia. Warto podkreślić, że
schematy te są niezawodne, czyli wnioskowanie z ich użyciem jest
poprawne, co nie oznacza, że implikacja jako całość jest prawdziwa bądź
fałszywa. O tym decyduje prawdziwość poprzednika i następnika.
Przykładowo testowanie hipotez opiera się na wykorzystaniu obu trybów,
ale źródłem przesłanek jest indukcja, z natury swej zawodna. Policjant
może użyć implikacji: „Jeśli to jest sprawca, był na miejscu zbrodni”.
Następnie stwierdza, że podejrzanego nie było na miejscu zbrodni, z czego
wypływa wniosek, że nie może on być sprawcą. Wniosek jest poprawny
logicznie, ale przesłanka „nie był na miejscu zbrodni” może być fałszywa,
bo oparto ją na poszlakach, a nie dowodach (np. w tym samym dniu
w innym mieście płacono kartą kredytową podejrzanego). Dlatego mimo że
wnioskowanie na podstawie schematów (1) i (4) z logicznego punktu
widzenia jest poprawne, implikacja może być fałszywa. Pozostałe dwa
schematy: (2) i (3), są zawodne, więc nie mogą zostać użyte do testowania
implikacji. Innymi słowy, ich użycie, bez względu na prawdziwość czy
fałszywość przesłanek, jak również prawdziwość lub fałszywość całej
implikacji, jest nieuprawnione. Podobnie jak w sylogizmach liniowych
i kategorycznych, niekonkluzywne schematy wnioskowania są
najczęstszym źródłem błędów poznawczych w rozumowaniu
warunkowym.

10.6.2. Błędy rozumowania warunkowego


Rozumowanie warunkowe daje wiele okazji do popełniania błędów. Można
nie tylko błędnie zastosować określony schemat (niezawodny jako
zawodny i odwrotnie), lecz także pominąć któryś z niezawodnych
schematów, chociaż aby się upewnić co do poprawności implikacji,
niezbędne jest użycie obu. Przeanalizujmy ten fenomen na przykładzie
zadania eksperymentalnego, które prowadzi w statystykach częstości
stosowania w badaniach nad rozumowaniem warunkowym. Chodzi o tzw.
zadanie selekcyjne (selection task), wykorzystane po raz pierwszy przez
Petera Wasona (1966). Zadanie to wymaga weryfikacji prawdziwości
prostej hipotezy, że jeśli na kartce z jednej strony napisano konkretną literę
(np. A), to z drugiej strony musi być napisana liczba parzysta (zob.
paradygmat 10.1). Osoba badana widzi cztery kartki, dwie odkryte po
stronie liczby, a dwie po stronie litery. Musi wskazać te kartki, które
koniecznie trzeba odkryć, aby sprawdzić, czy hipoteza jest prawdziwa.

Paradygmat 10.1

Zadanie selekcyjne Wasona

W oryginalnej postaci zadania osoba badana otrzymuje zestaw czterech


kart, z których każda z jednej strony ma literę, a z drugiej – jednocyfrową
liczbę (ryc. 10.5). Badany widzi tylko jedną stronę każdej karty;
w przypadku dwóch kart jest to litera, a dwóch pozostałych – liczba.
Zadanie polega na sprawdzeniu poprawności implikacji: „Jeżeli z jednej
strony karty jest samogłoska, to po drugiej jej stronie jest liczba parzysta”.
Następnie prosi się uczestników o wskazanie tych kart, które należałoby
odsłonić (zobaczyć ich odwrotną stronę), w celu sprawdzenia poprawności
implikacji. W języku logiki zadaniem osoby badanej jest próba falsyfikacji
hipotezy zawartej w implikacji.

RYCINA 10.5. Zadanie selekcyjne Wasona


Źródło: opracowanie własne.

Studenci psychologii poznawczej, otrzymujący to zadanie na wykładzie,


w pierwszej chwili proszą o odsłonięcie wszystkich kart. Jeśli przewrotnie
zacząć od odwrócenia drugiej karty, okazuje się, że informacja zawarta na
odwrocie nic nie mówi o prawdziwości implikacji. Ponieważ na drugiej
karcie jest spółgłoska (G), nie ma znaczenia, jaka liczba – parzysta czy
nieparzysta – znajduje się na jej odwrocie, implikacja bowiem precyzuje
jedynie, jaka liczba ma się znajdować na odwrocie karty z samogłoską.
Wybór karty z literą G jest więc nieuzasadniony i świadczy o tzw. błędzie
zaprzeczenia poprzednika. Na przykład dla sprawdzenia prawdziwości
implikacji: „Jeśli pada deszcz, to Kasia jest smutna”, nie ma sensu
obserwowanie Kasi, gdy nie pada. Można bowiem być smutnym z wielu
innych powodów, o których implikacja nie wspomina.

Jeżeli kontynuując wykład, odsłonimy kartę trzecią (z liczbą 6), również


okaże się, że to co znajdziemy na jej odwrocie, nie ma znaczenia dla
prawdziwości implikacji. Nawet jeśli pod liczbą 6 znajduje się spółgłoska,
to implikacja nadal może być prawdziwa, dotyczy bowiem tego, co jest po
drugiej stronie karty z samogłoską, a nie tego, co jest na odwrocie karty
z liczbą parzystą. Implikacja „jeśli samogłoska, to liczba parzysta” nie jest
tożsama z implikacją „jeśli liczba parzysta, to samogłoska”. Przykładowo:
„Jeśli pada deszcz, to jestem smutna” jest czymś zupełnie innym niż „Jeśli
jestem smutna, to pada deszcz”. Mamy tu do czynienia z błędem afirmacji
następnika.

Poprawny wybór w zadaniu selekcyjnym Wasona to odsłonięcie pierwszej


i ostatniej karty, zgodnie z trybami wnioskowania niezawodnego modus
ponens i modus tollens. Aby w pełni zweryfikować implikację, pod literą
A musi znajdować się cyfra parzysta, a pod cyfrą 9 (nieprawda, że parzysta,
czyli nieparzysta) nie może się znajdować samogłoska. Badani Wasona
(1966) powinni podjąć decyzję o odwróceniu dwóch kart: z literą
A i z cyfrą 9. Jednak zaledwie 4% z nich dokonało takiego wyboru. Spora
część osób badanych (33%) stosowała wyłącznie prostszą regułę modus
ponens, prosząc o odsłonięcie tylko karty z literą A. Niemniej największy
odsetek osób badanych, bo aż 46%, wybierał karty z literą A i cyfrą 6,
popełniając w ten sposób błąd afirmacji następnika. Dla porządku należy
dodać, że w szczególnym przypadku – mianowicie wówczas, kiedy pod
literą A znaleźlibyśmy liczbę nieparzystą – odsłonięcie tylko tej jednej
karty wystarcza do sprawdzenia poprawności implikacji. Sprawdzanie
drugiej karty jest niepotrzebne, bo wiemy już, że reguła nie jest spełniona,
a cała implikacja – fałszywa. Falsyfikacja hipotez, np. predykcji
wynikających z teorii naukowych, jest więc działaniem o tyle prostszym
niż ich weryfikacja, że wystarczy wskazać (i udokumentować) jeden
przypadek, dla którego implikacja jest fałszywa. Mamy ku temu dwie
drogi: dzięki niezawodnym trybom modus ponens i modus tollens.

Mike Oaksford i Nick Chater (1994) w przeprowadzonej metaanalizie


rezultatów 34 eksperymentów z użyciem abstrakcyjnej postaci zadania
Wasona ustalili, że przeciętnie 89% badanych wybiera (odwołując się do
przykładu przedstawionego na rycinie 10.5) kartę z literą A, 62% – kartę
z cyfrą 6, 25% – kartę z cyfrą 9, i 16% – kartę z literą G. Gdy weźmie się
pod uwagę tylko proporcję prawidłowych odpowiedzi A i 9 do pozostałych
odpowiedzi, to otrzymamy rezultat zbliżony do pierwotnego wyniku
uzyskanego przez Wasona.

Wyjaśnienie tego efektu, zaproponowane przez samego Wasona (1966),


odwołuje się do preferowanej przez większość ludzi konfirmacyjnej
strategii testowania hipotez (zob. też Evans, 1989). Strategia ta polega na
poszukiwaniu przypadków potwierdzających regułę, przy niedostatecznym
uwrażliwieniu na przypadki, które jej przeczą. Tymczasem mnożenie
przypadków potwierdzających nie daje gwarancji prawdziwości hipotezy,
bo wystarczy jeden przypadek przeczący hipotezie, aby ją skutecznie
obalić. Dlatego dążąc do weryfikacji hipotezy, czyli sprawdzenia jej
prawdziwości, powinniśmy przyjąć strategię falsyfikacyjną. Polega ona na
szukaniu przypadków, które przeczą hipotezie. Jeśli nie uda nam się ich
znaleźć albo, jeszcze lepiej – gdy udowodnimy, że ich nie ma, hipotezę
możemy uznać za potwierdzoną. Paradoksalnie, aby wiarygodnie
potwierdzić hipotezę, trzeba się starać ją sfalsyfikować. Na tym polega
logika badania naukowego. Badacz stawia hipotezę zerową, będącą
logicznym zaprzeczeniem właściwej hipotezy badawczej. Następnie stara
się obalić hipotezę zerową według schematu modus tollens: „Jeśli H0, to
wynik X. Stwierdzam nie X. Zatem nie H0”. Obaliwszy hipotezę zerową,
badacz ma prawo uznać, że prawdziwa jest hipoteza alternatywna, czyli
właściwa hipoteza badawcza. Gdyby od początku nastawił się na jej
potwierdzanie, uległby powszechnemu złudzeniu o przydatności strategii
konfirmacyjnej, a więc popełniłby metodologiczny błąd.

10.6.3. Wpływ wiedzy i kontekstu na rozumowanie warunkowe


Okazało się, podobnie jak w badaniach nad poprawnością rozwiązywania
sylogizmów, że zmiana treści implikacji z „abstrakcyjnej” na „życiową”
znacznie zwiększa poprawność rozumowania warunkowego. Richard
Griggs i James Cox (1982) w zadaniu selekcyjnym, izomorficznym
względem oryginalnego zadania Wasona, poprosili swoich badanych
o sprawdzenie poprawności implikacji. Jedna z sytuacji „życiowych”
użytych w którymś z eksperymentów miała następującą postać:

Wyobraź sobie, że jesteś policjantem na służbie. Twoja praca polega na


kontroli respektowania obowiązujących norm. Karty leżące przed tobą
zawierają informacje o czterech osobach siedzących przy stole. Na
jednej stronie karty podany jest wiek osoby, a na drugiej stronie – co
dana osoba pije. Obowiązująca reguła jest następująca: jeżeli osoba pije
piwo, to musi mieć ukończone 18 lat. Wskaż kartę albo karty, które
koniecznie musisz odwrócić, aby ustalić, czy reguła została naruszona.

Na kartach dostarczonych osobom badanym znalazły się kolejno


następujące informacje: „pije piwo”, „pije colę”, „22 lata” i „17 lat”. Dla
porównania osoby badane wykonały również klasyczne zadanie Wasona.
Okazało się, że w „życiowej” jego wersji aż 73% uczestników
eksperymentu poprawnie wskazało karty, które należało odwrócić (tj. „pije
piwo” i „17 lat”), podczas gdy żadna z 40 osób badanych nie rozwiązała
poprawnie zadania „abstrakcyjnego”. Nazwano to efektem materiału
tematycznego (thematic-materials effect). Szczególnie interesujące było to,
że w grupie osób, które poprawnie wykonały tematyczne zadanie
selekcyjne, nie stwierdzono efektu transferu reguł wnioskowania na
zadanie abstrakcyjne. Wyniki Griggsa i Coxa doczekały się wielu
replikacji, jednak nie zawsze ich rezultaty były tak spektakularne. Okazało
się mianowicie, że jeśli implikacja wymaga specyficznej wiedzy (np. zasad
funkcjonowania poczty we Włoszech; Johnson-Laird, Legrenzi, Legrenzi,
1972), to efekt materiału tematycznego jest słabszy, a nawet zupełnie
zanika (np. Yachamin, 1980). W takich warunkach dobrze radzą sobie tylko
ci, którzy dysponują specjalistyczną wiedzą; sam efekt zmiany formatu
zadania z abstrakcyjnego na życiowy niewiele daje.

Interesująca odmiana badań dotyczących rozumienia implikacji


tematycznych została wykorzystana przez Ledę Cosmides
i współpracowników (Cosmides, 1989; Cosmides, Tooby, 1992, 1994;
Tooby, Cosmides, 1990). Autorka, wykorzystując podejście ewolucyjne,
doszła do wniosku, że implikacja jest poprawnie używana w specyficznych
sytuacjach społecznych. Chodzi mianowicie o wykrywanie oszustów,
którzy korzystają z pewnych przywilejów społecznych, nie ponosząc
żadnych kosztów. Badania Cosmides opisano szczegółowo w ramce 10.1.
Dodatkowych dowodów empirycznych na słuszność koncepcji wykrywania
oszustów dostarczyli Gerd Gigerenzer i Klaus Hug (1992). W serii
eleganckich eksperymentów wykazali oni, że koncepcja ta najlepiej
tłumaczy wzorzec wyników w wersjach zadania Wasona z treścią
społeczną. Pokazali ponadto, że dla poprawności rozumowania
w kontekście społecznym istotne znaczenie ma perspektywa, jaką
przyjmuje osoba badana – najwyższą poprawność rozumowania obserwuje
się w warunku zadania, w którym badany weryfikuje regułę sugerującą, że
to właśnie on może zostać oszukany. W warunku odwrotnym, kiedy treść
reguły zakłada, że to badany może być oszustem, poprawność
rozumowania jest dużo niższa.

RAMKA 10.1

Posługiwanie się implikacją w sytuacjach


społecznych
Cosmides w serii badań (Cosmides, 1989; Cosmides, Tooby, 1992, 1994;
Tooby, Cosmides, 1990) starała się dowieść, że w pewnych sytuacjach
społecznych zadziwiająco sprawnie i poprawnie posługujemy się
implikacją. Chodzi o wykrywanie oszustów łamiących podstawową
zasadę życia społecznego – regułę kontraktu społecznego – którą można
zilustrować implikacją: „Jeżeli odnosisz jakąś korzyść, musisz ponieść
pewne koszty”. Ewolucyjnie wykształcony mechanizm wykrywania
oszustów podpowiada, że trzeba sprawdzić, czy jeśli ktoś odniósł
korzyść, to poniósł stosowne koszty, oraz jeśli nie poniósł kosztów, to
czy bezprawnie odniósł jakieś korzyści.
W badaniach Cosmides uczestnicy dowiadywali się o niecodziennych
zwyczajach pewnego plemienia. Mianowicie mężczyźni w dniu ożenku
oznaczani byli specjalnym tatuażem i otrzymywali dostęp do części
wyspy, w której rosła cassava – miejscowy afrodyzjak. Ze zrozumiałych
względów był on dostępny tylko żonatym mężczyznom, a przepustkę do
poruszania się w tej części wyspy stanowił właśnie tatuaż. Reguła
społeczna brzmiała więc następująco: „Jeżeli ktoś je korzeń cassavy, to
ma na twarzy tatuaż”. Okazało się, że pochwycono czterech mężczyzn,
podejrzanych o nielegalne używanie cassavy. Pierwszy kręcił się
w okolicy, w której rośnie cassava, a drugi w zupełnie innej części
wyspy. O obu nie wiadomo, czy mają tatuaż. Kolejna dwójka
pochwycona została z jakąś rośliną (nie wiadomo, jaką), ale tylko jeden
z nich ma tatuaż. Jest to więc izomorfizm klasycznego zadania
selekcyjnego Wasona. Uczestników badań Cosmides podzielono na dwie
grupy: detektywów wynajętych przez starszyznę w celu sprawdzenia
moralności mieszkańców wyspy oraz socjologów śledzących ich
zwyczaje. Istotą tej manipulacji była konieczność odwołania się do
mechanizmu wykrywania oszustów w pierwszej grupie i brak takiej
konieczności w grupie drugiej.

Badani, o ile wcielali się w rolę detektywów, świetnie radzili sobie


zarówno z trybem modus ponens, jak i modus tollens. Właściwie
wskazywali dwóch podejrzanych, których koniecznie trzeba dokładniej
sprawdzić: tego, który kręcił się w okolicy, gdzie rośnie cassava, ale nie
wiadomo, czy ma tatuaż, oraz tego, który nie ma tatuażu, ale ma jakąś
roślinę w ręce. Identyfikacja z rolą badacza zjawisk społecznych
właściwie nie wpływała na poprawność wykonania zadania: badani z tej
grupy popełniali równie dużo błędów, co w abstrakcyjnej wersji zdania
selekcyjnego Wasona.
Uzupełnieniem ewolucyjnej koncepcji umowy społecznej Cosmides
i Tooby’ego jest koncepcja zarządzania zagrożeniami Laurence’a Fiddicka
i współpracowników (hazard management theory; Fiddick, Cosmides,
Tooby, 2000). Jej autorzy argumentują, że z ewolucyjnego punktu widzenia
równie ważne jak wykrywanie oszustów w relacjach społecznych jest
wykrywanie zagrożeń w środowisku fizycznym i zabezpieczanie się przed
nimi. Zgodnie z podejściem ewolucyjnym należy się więc spodziewać, że
ludzki umysł będzie wyposażony w osobny moduł rozwiązujący tego
rodzaju problemy adaptacyjne. Prowadzi to do przewidywań, że w zadaniu
Wasona powinniśmy obserwować efekty treści zadania związane
z wykrywaniem zagrożeń i że w badaniach neuronaukowych powinniśmy
wykryć specyficzną aktywność takiego modułu w mózgu.

Valerie Stone i współpracownicy (Stone, Cosmides, Tooby, Kroll, Knight,


2002) analizowali przypadek pacjenta R.M., któremu zdiagnozowano
uszkodzenia w korze oczodołowo-czołowej i w płacie skroniowym, łącznie
z uszkodzeniami ciała migdałowatego. Autorzy wykazali dysocjację
między mechanizmami odpowiedzialnymi za rozumowanie o umowie
społecznej i o zagrożeniach fizycznych. Pacjent ten wykonywał wersję
zadania Wasona dotyczącą zagrożeń równie dobrze jak badani z grupy
kontrolnej, natomiast źle sobie radził z wersją zawierającą treści społeczne.
Laurence Fiddick, Maria Vittoria Spampinato i Jordan Grafman (2005)
także dostarczyli dowodów na takie rozróżnienie, wykazując w metodyce
fMRI, że wykonywanie zadania Wasona w wersji kontraktu społecznego
aktywuje grzbietowo-przyśrodkową i brzuszno-boczną korę przedczołową,
lewy zakręt kątowy (obszar w pobliżu połączenia płata ciemieniowego
i skroniowego) i korę oczodołowo-czołową w lewej półkuli, natomiast
w wersji wykrywania zagrożeń zadanie to aktywuje korę wyspy w obu
półkulach, przednią i tylną część zakrętu obręczy oraz jądro soczewkowate
(w skład którego wchodzą skorupa i gałka blada; jest to część zwojów
podstawy mózgu). Również Elsa Ermer i współpracownicy (Ermer, Guerin,
Cosmides, Tooby, Miller, 2006) pokazali różnice w aktywacji mózgu
w zależności od wersji zadania Wasona. Wykazali oni, że wykonywanie
społecznej wersji zadania, w porównaniu z wersją dotyczącą zagrożeń,
aktywuje obszary zwykle identyfikowane jako podłoże tzw. teorii umysłu
(theory of mind, ToM), czyli zestawu zdolności do rozumienia stanów
umysłowych innych ludzi – są to obszary płata skroniowego. Wyniki te,
według autorów, dostarczają dowodów na odrębność modułów
umysłowych rozwiązujących te dwa różne problemy adaptacyjne.

Czynnikiem wpływającym na poprawność rozumowania jest również jego


kontekst. Martin Braine, Brian Reiser i Barbara Rumain (1984) zauważyli,
że specyficzna postać zadań dedukcyjnych może stanowić dla osób
badanych ukrytą wskazówkę, aby we wnioskowaniu wykorzystać jedynie
te informacje, które są wyrażone wprost w przesłankach i wniosku. Zadanie
dedukcyjne jawi się jako swego rodzaju mikrokosmos, poza którym nic się
nie może zdarzyć. Dlatego jeśli prezentujemy implikację:

Jeżeli pada deszcz, to Fred zmoknie.


Fred jest mokry,
zatem…;

to osoby badane skłonne są twierdzić, że uprawniony jest wniosek: „pada


deszcz”. Z logicznego punktu widzenia jest to rzecz jasna błąd afirmacji
następnika, ponieważ Fred mógłby być mokry z wielu innych powodów.
One jednak znajdują się poza „mikrokosmosem” utworzonym przez obie
przesłanki. Niemniej jeśli dodamy dodatkową przesłankę, np.:

Jeżeli pada deszcz, to Fred zmoknie.


Jeżeli pada śnieg, to Fred zmoknie.
Fred jest mokry,
zatem…;

to zdecydowanie częściej pojawia się poprawna odpowiedź, że na


podstawie takich przesłanek nie można wyciągnąć konkluzywnego
wniosku. Wprowadzenie szerszego kontekstu rozbudowuje „mikrokosmos
zadania dedukcyjnego”, jest więc czynnikiem zmniejszającym liczbę
błędów w rozumowaniu. Być może w sytuacjach życia codziennego, gdy
rozumowanie odbywa się w szerokim kontekście licznych wskazówek
i dodatkowych informacji, nie zawsze wyrażonych wprost, ludziom łatwiej
uniknąć błędu. Mogą wówczas stosunkowo łatwo odnaleźć przesłanki
pozwalające stwierdzić, że dostarczone informacje są niekonkluzywne;
mogą też poszukać dodatkowych wskazówek. Ktoś, kto rzeczywiście
miałby do czynienia z zagadką zmokniętego Freda, mógłby wyjrzeć przez
okno, aby sprawdzić, czy pada deszcz, mógłby też po prostu zapytać Freda,
dlaczego jest mokry. Zresztą – co już zupełnie umyka badaczom
rozumowania – ktoś taki mógłby w ogóle nie dociekać przyczyny
zmoknięcia Freda, a zająć się jego suszeniem i przeciwdziałaniem
grożącemu mu przeziębieniu. W realnym kontekście społecznym działania
tego rodzaju mają znacznie bardziej przystosowawczy charakter niż
wyciąganie wniosków z przesłanek.

Zarazem jednak, jak wykazała Ruth Byrne (1989b), kontekst może się
przyczynić do zmniejszenia poprawności rozumowania. W jej badaniach
z użyciem implikacji uczestnicy otrzymywali zadania tego typu:

Jeżeli Ola ma esej do napisania, to zostaje do późna w bibliotece.


Jeżeli biblioteka jest otwarta, to [Ola] zostaje do późna w bibliotece.
Ola ma esej do napisania,
zatem…

Mimo że poprawny w tej sytuacji wniosek („Ola zostaje do późna


w bibliotece”) wymaga wykorzystania prostego trybu modus ponens, osoby
badane rzadko go formułowały. Można to wyjaśnić dystrakcyjnym
charakterem dodatkowej przesłanki („Jeżeli biblioteka jest otwarta, to [Ola]
zostaje do późna w bibliotece”). W podanym przykładzie druga przesłanka
pozornie wzbogaca kontekst, ale w gruncie rzeczy czyni całą sytuację dość
niejasną. Wiadomo, że Ola może zostać w bibliotece tylko pod warunkiem,
że ta jest otwarta. Tę oczywistość można by zignorować i wyciągnąć
poprawny wniosek, że jeśli Ola ma esej do napisania, zostaje do późna
w bibliotece. Tymczasem druga, nadmiarowa przesłanka prowadzi osoby
badane na manowce, każąc im formułować takie np. wnioski: „Ola
sprawdza, czy biblioteka jest otwarta, bo ma esej do napisania”. Być może
tak postąpiłaby prawdziwa Ola, ale do wyciągnięcia prawidłowego
logicznie wniosku wystarczy informacja zawarta w przesłankach pierwszej
i trzeciej.

Wydaje się, że dodatkowa przesłanka może zwiększać liczbę lub poziom


złożoności modeli umysłowych, reprezentujących sytuację opisaną za
pomocą kilku implikacji. To z kolei prowadzi do większego obciążenia
pamięci roboczej (Johnson-Laird, 1983), co przy jej ograniczonej
wydolności może podwyższać ryzyko błędu w rozumowaniu. Wracając do
ostatniego przykładu, z drugiej przesłanki wynika, że Ola zostaje do późna
w bibliotece zawsze, gdy tylko ta jest otwarta, niezależnie od tego, czy ma
esej do napisania. Konieczność napisania eseju jest tylko szczególnym
przypadkiem ogólnej reguły, mianowicie tej, że Ola pracuje w bibliotece do
późna zawsze, gdy to jest możliwe. Osoba badana, która to zauważy, będzie
musiała zbudować znacznie bardziej skomplikowany, a przez to bardziej
obciążający pamięć roboczą model umysłowy. Paradoksalnie, o wiele
lepsze efekty może uzyskać osoba mniej spostrzegawcza, która zbuduje
model umysłowy, opierając się tylko na przesłankach pierwszej i trzeciej.
Najlepsze wyniki uzyska oczywiście osoba spostrzegawcza, ale zdolna do
aktywnego wytłumienia nieistotnej informacji. W każdym razie wyniki
uzyskane przez Byrne (1989a) falsyfikują hipotezę o automatycznym
charakterze używania trybu modus ponens, który miałby być uruchamiany
zawsze, gdy sytuacja zostaje zidentyfikowana jako możliwa do opisania za
pomocą implikacji (Braine i in., 1984). Gdyby tak było, osoby badane
powinny wyprowadzać prawidłowy wniosek bez względu na liczbę
nadmiarowych przesłanek. W warunkach życia codziennego, a także
w przypadku bardzo złożonych problemów (np. naukowych), informacji
wprowadzających niepotrzebną dystrakcję jest zwykle bardzo dużo, co
prawdopodobnie przyczynia się do dużej liczby błędów i porażek
w rozumowaniu.

10.7. Teorie rozumowania dedukcyjnego


W deskryptywnym podejściu do problematyki rozumowania od początku
podejmowano próby stworzenia teorii, która byłaby w stanie opisać ogólny
jego mechanizm. Wydaje się, że bez względu na rodzaj rozumowania
umysł ludzki jest zdolny do implementowania reguł logicznych
w sytuacjach tego wymagających. Czyni to jednak ze zmiennym
powodzeniem. Na przykład reguła modus ponens jest zazwyczaj poprawnie
stosowana, a reguła modus tollens – relatywnie rzadko. Pojawiają się więc
dwa pytania: (1) jakie reguły są obecne w umyśle człowieka i jaką
przyjmują formę, a ponadto (2) dlaczego te same reguły logiczne niekiedy
stosujemy zupełnie poprawnie, a innym razem – przeważnie błędnie.
Szukanie odpowiedzi na te pytania jest domeną teorii rozumowania
dedukcyjnego. Najważniejsze z nich to teoria abstrakcyjnych reguł i teoria
modeli umysłowych.

10.7.1. Teoria abstrakcyjnych reguł


Podejście to opiera się na założeniu, że człowiek z natury jest istotą
racjonalną, co – w uproszczeniu – przekłada się na zdolność do
efektywnego używania reguł logiki. Jest to specjalny rodzaj logiki, zwany
logiką mentalną (mental logic) i odróżniany od sformalizowanych
systemów logiki „oficjalnej”, choć niepozostający wobec nich w opozycji.
Człowiek ma dysponować naturalną zdolnością do korzystania z reguł
logiki umysłowej, a to, że popełnia błędy, wynika z nieprawidłowego
zrozumienia zadania albo z utworzenia niewłaściwej jego reprezentacji
umysłowej. Zgodnie z tym założeniem człowiek korzysta z pewnego
zestawu abstrakcyjnych reguł logicznych, które mają charakter niezależny
od dziedziny, a więc mogą być zastosowane zawsze, gdy stwierdzone
zostanie ich dopasowanie do sytuacji lub zadania intelektualnego. Dlatego
też, w myśl teorii reguł, przyjmuje się, że rozumowanie ma charakter
syntaktyczny. Niezależność od dziedziny oznacza również, że abstrakcyjne
reguły rozumowania pozbawione są treści, mają więc postać zbliżoną do
formuł logicznych. Twierdzi się nawet, że istnieje analogia między
naturalnymi regułami umysłowymi, stosowanymi w rozumowaniu,
a elementarną logiką (zob. Rips, 1983).

Zwolennicy tego podejścia twierdzą, że jeżeli zadanie zostanie rozpoznane


jako wymagające zastosowania reguł logicznych, uruchamia się program
rozumowania. Przebiega on w trzech etapach. Pierwszy etap polega na
identyfikacji logicznej struktury przesłanek. Ich treść jest przekładana na
abstrakcyjną formę sądów, operujących abstrakcyjnymi symbolami (zob.
podrozdz. 2.4). Symbole łączone są w zdania, reprezentujące informacje
zawarte w przesłankach. Jeżeli struktura konkretnego zadania zostanie
uznana za dopasowaną do jakiejś reguły umysłowej, uruchamiany jest
odpowiedni program rozumowania. W modelach regułowych określa się to
jako drugi etap rozumowania. Złożoność programu związana jest z dwoma
czynnikami. Pierwszym jest złożoność samego zadania (np. liczba
przesłanek), co przekłada się na konieczność przeprowadzenia dłuższego
dowodu umysłowego. Drugi czynnik to liczba i złożoność reguł, którymi
dysponuje jednostka. Tworzenie i wykonanie programu odbywa się
w pamięci roboczej i obciąża ją proporcjonalnie do jego złożoności.
Efektem tego etapu jest wygenerowanie konkluzji, sformułowanej
w języku abstrakcyjnych symboli. Dlatego potrzebny jest jeszcze trzeci
etap, w którym następuje przełożenie wniosku z formy abstrakcyjnej na
język przesłanek. Jeśli jest to język potoczny, wniosek zostaje
„przetłumaczony” z odwołaniem do treści użytych w przesłankach.

Najpełniejszymi bodaj postaciami teorii abstrakcyjnych reguł są koncepcje


Braine’a i współpracowników (Braine, 1978; Braine, O’Brien, 1991;
Braine, Rumain, 1983) oraz Lance’a Ripsa (1983, 1994). Według Braine’a
ludzie w sposób naturalny myślą logicznie, a błędy popełniają raczej
sporadycznie. Ważnym elementem tej teorii jest pojęcie rozumowania
bezpośredniego (direct reasoning), które polega na zastosowaniu
w konkretnej sytuacji ogólnych schematów opartych na abstrakcyjnych
regułach. Jeśli rozumowanie ma charakter bezpośredni, wnioskowanie
musi być poprawne, z nielicznymi wyjątkami, np. kiedy przesłanki nie
zostały właściwie zinterpretowane lub kiedy wymagania zadania
przekraczają ograniczoną pojemność pamięci roboczej. Schematy biorące
udział w rozumowaniu bezpośrednim dzielą się na rdzenne (core schemata)
i posiłkowe (feeder schemata). Schematy rdzenne, takie jak modus ponens,
korzystają z fundamentalnych reguł logicznych, podczas gdy schematy
posiłkowe pełnią funkcje pomocnicze i są stosowane do generowania
wniosków wspomagających działanie schematów podstawowych. Braine
przewiduje ponadto istnienie trzeciej kategorii schematów: reguł
niezgodności. Są one stosowane do testowania zawartości pamięci roboczej
pod kątem detekcji wniosków nieuprawnionych, np. wewnętrznie
sprzecznych (q i nie q). Stosowanie schematów odbywa się pod kontrolą
specjalnego programu rozumowania, który ma być zbudowany na zasadach
andersenowskiego systemu „produkcji” (Braine, O’Brien, 1991).

W przypadku rozumowania pośredniego (indirect reasoning) schematy


wnioskowania odpowiadające strukturze problemu wykraczają poza reguły
logiki umysłowej. Są to różnorodne schematy nabywane w procesie
zmagania się z zadaniami pochodzącymi z różnych dziedzin. Człowiek
nabywa je, a potem z nich korzysta, jeśli są dobrze dopasowane do
konkretnego problemu lub wąskiej dziedziny. Ignoruje wówczas schematy
logiczne jako gorzej dopasowane do wymagań konkretnej sytuacji,
a czerpiące swą siłę raczej z wysokiego poziomu ogólności i szerokiego
spektrum zastosowań.

Teoria Braine’a postuluje trzy rodzaje i źródła powstawania błędów


w rozumowaniu. Pierwszy z nich to błędy rozumienia, które wynikają
z niepoprawnej interpretacji związków między informacjami zawartymi
w przesłankach i ewentualnie we wniosku. Na przykład błędy negacji
poprzednika i potwierdzenia następnika można wyjaśnić nie jako błąd
programu rozumowania, ale jako błąd rozumienia przesłanek. Jego źródłem
są między innymi tzw. założenia konwersacyjne, wynikające z praktyki
życia codziennego (O’Brien, 1995). Przykładowo w rozumowaniu
warunkowym:
Jeżeli będzie padać deszcz, to Zosia zmoknie.
Nie pada deszcz,
więc Zosia nie zmoknie;

popełniono błąd negacji poprzednika. Może on wynikać z reinterpretacji


pierwszej przesłanki, która przyjmuje postać: „Jeżeli nie pada deszcz, to
Zosia nie będzie mokra”. Po takim przekształceniu dalsze rozumowanie
jest już poprawnym użyciem trybu modus ponens. Pierwszy opisał to
zjawisko Paul Grice (1975), tłumacząc je zasadą kooperacji powszechnie
stosowaną podczas konwersacji (zob. rozdz. 13). W myśl tej zasady,
prowadząc dyskurs ludzie mówią sobie to, co myślą, że rozmówca nie wie,
a wiedzieć powinien. Nadawca komunikatu domyśla się, czego słuchacz
nie wie, a chciałby lub powinien wiedzieć. Z kolei słuchacz zakłada, że to,
co słyszy, zostało tak spreparowane, aby ułatwić mu odbiór potrzebnych
informacji. Kooperacja jest więc dwustronna, a opiera się na szeregu
milczących, niewypowiedzianych przesłanek i wniosków. Zatem
implikacja: „Jeżeli będzie padać deszcz, to Zosia zmoknie”, z punktu
widzenia słuchacza powinna zawierać wszystkie informacje istotne
w danym kontekście. Słuchacz zakłada, że w opisanej sytuacji padający
deszcz jest jedynym czynnikiem, który może sprawić, iż Zosia zmoknie.
Innymi słowy, w myśl zasady kooperacji słuchacz milcząco przyjmuje za
coś oczywistego, że w przesłankach zawarto wszystkie p, które mogą
implikować q. Stąd wynika akceptacja końcowego wniosku („Zosia nie
zmoknie”), który nie wynika z „oficjalnych” przesłanek, ale jest całkowicie
logiczny po przyjęciu dodatkowych, milczących założeń.

Drugi rodzaj błędów w rozumowaniu to błędy przetwarzania, które


powstają na skutek dekoncentracji uwagi albo niskiej wydolności procesu
przechowywania i obróbki informacji w pamięci roboczej. Ryzyko ich
wystąpienia jest szczególnie duże, gdy zadanie wymaga aplikacji
nadmiernie złożonego programu rozumowania. Trzecia kategoria to błędy
nieadekwatności heurystyki. Wynikają one z niewłaściwego doboru
strategii, które odpowiadają za koordynację schematów rozumowania
w konkretnej sytuacji. Niewłaściwie dobrana strategia jest źle dopasowana
do wymagań zadania, przez co całe rozumowanie okazuje się zawodne. Nie
wynika to jednak z nieadekwatności schematów rozumowania ani tym
bardziej z ich braku, a z niewłaściwego ich uporządkowania
i skoordynowania.

Teoria reguł znalazła poparcie w bogatym materiale empirycznym. Po


pierwsze, wykazano, że niektóre reguły, np. modus ponens, są stosowane
poprawnie nawet wówczas, gdy przesłanki mają postać abstrakcyjną lub
nawet absurdalną z punktu widzenia wiedzy i doświadczenia potocznego.
Przemawia to za tezą o istnieniu naturalnej zdolności umysłu ludzkiego do
implementacji niektórych reguł logiki mentalnej, a tym samym – za tezą
o formalnym charakterze naszego rozumowania. W zależności od ujęcia
teoretycznego wyróżnia się 15–20 takich reguł (Evans, 1991). Po drugie,
stwierdzono, że różnice w poprawności stosowania niektórych trybów, np.
modus ponens i modus tollens, zadowalająco tłumaczy odmienna złożoność
programów rozumowania, leżąca u podłoża ich aplikacji. Braine
i współpracownicy (1984) zaobserwowali wysoką korelację między
poziomem trudności zadań logicznych, mierzonym liczbą błędów,
a przewidywaną przez teorię reguł liczbą operacji w programie
rozumowania. Po trzecie, wprowadzając dodatkowe reguły, np.
pragmatyczne – jak wspomniana zasada kooperacji Grice’a – można
wyjaśnić wiele błędów popełnianych w zadaniach wymagających
rozumowania. Z jednej strony jest to zaleta teorii, poszerza bowiem jej
zdolność do wyjaśnienia różnorodnych danych empirycznych, ale z drugiej
strony wskazuje na zbyt ogólny zakres jej twierdzeń. Twierdzenia teorii
reguł można stosunkowo łatwo rozbudować albo uszczegółowić post hoc,
już po uzyskaniu danych empirycznych, przez co są one trudne do
falsyfikacji (Johnson-Laird, Byrne, Schaeken, 1992). Jedno z bodaj
najważniejszych założeń teorii, właściwie niefalsyfikowalne, dotyczy
formy reprezentacji świata w postaci abstrakcyjnych sądów. Jak
dowodzono w podrozdziale 2.4, jest to tylko jedno ze stanowisk w sporze
o naturę reprezentacji. Elegancja wyjaśnień oraz korzyści teoretyczne
i metodologiczne, które stąd płyną, nie wydają się argumentem
przesądzającym. Dlatego w wyniku krytyki tego podejścia powstała
koncepcja alternatywna – teoria modeli umysłowych.

10.7.2. Teoria modeli umysłowych


Od końca lat 70. XX w. Philip Johnson-Laird z zespołem (Johnson-Laird,
1983, 1994, 2010; Johnson-Laird, Byrne, 1991; Johnson-Laird i in., 1992;
Johnson-Laird, Steedman, 1978) rozwija koncepcję alternatywną
w stosunku do teorii reguł: teorię modeli umysłowych (mentalnych).
W zasadzie każda z tych teorii operuje zupełnie różnymi twierdzeniami,
mimo że ich ambicją jest wyjaśnienie tych samych danych empirycznych.

W klasycznych już badaniach (Johnson-Laird, Steedman, 1978)


poproszono osoby badane o rozwiązywanie sylogizmów, np.:

Każdy artysta jest pszczelarzem.


Niektórzy pszczelarze są mądrzy.

Dzięki analizie wypowiedzi osób badanych autorzy stwierdzili, że ludzie


często wyobrażają sobie konkretne przykłady pojęć użytych w sylogizmach
wraz z zachodzącymi między nimi relacjami. Te wyobrażenia są
umysłowymi modelami sytuacji opisanej w zadaniu bądź zaistniałej
w rzeczywistości. Okazało się również, że jeśli przesłanki wnioskowania
można zinterpretować na wiele sposobów, to osoby badane wyobrażają
sobie więcej modeli (ryc. 10.6).

W koncepcji Johnsona-Lairda rozumowanie polega na konstruowaniu


i manipulacji tzw. modelami mentalnymi (mental models). Model
mentalny jest quasi-analogową reprezentacją sytuacji problemowej,
opisanej w zadaniu logicznym albo dostrzeżonej w sytuacji życia
codziennego, która zawiera minimalną ilość informacji potrzebnych do
zrozumienia tej ostatniej. Reprezentacja ta ma charakter nietrwały i jest
tworzona ad hoc na potrzeby konkretnej sytuacji (zob. podrozdz. 2.4.3).
Model umysłowy można scharakteryzować za pomocą czterech
właściwości. Po pierwsze, dostrzeżone elementy sytuacji problemowej
mają swoje odpowiedniki w modelu umysłowym. Owe odpowiedniki są
symbolami elementów sytuacji problemowej. Przykładowo w sylogizmie:

Adam jest wyższy od Bartka,


Bartek jest niższy od Cezarego,
który z panów jest najwyższy?

są to symbole poszczególnych osób, a nie ogólnych pojęć, np. człowieka.


Reprezentacje składające się na model umysłowy to mniej lub bardziej
konkretne egzemplarze pojęć. Sposób ich reprezentowania, czyli poziom
„konkretności” egzemplarzy, jest zoptymalizowany ze względu na
możliwość ujmowania relacji między obiektami, o których
RYCINA 10.6. Modele umysłowe poprawnie ilustrujące relacje między terminami sylogizmu:
„Każdy artysta jest pszczelarzem. Niektórzy pszczelarze są mądrzy”
Wyraźnie widać, że na podstawie tych przesłanek nie możemy nic pewnego powiedzieć o mądrości
artystów. Sylogizm jest więc niekonkluzywny. Gdybyśmy poprzestali na pierwszym modelu
umysłowym, wyciągnęlibyśmy nieuprawniony wniosek: „Niektórzy artyści są mądrzy”.
Źródło: opracowanie własne na podstawie Sternberg, 1996a.

mowa w przesłankach. Po drugie, model albo modele umysłowe


odzwierciedlają strukturę sytuacji problemowej. Chodzi szczególnie
o związki zachodzące między symbolami elementów zadania. Relacje te są
reprezentowane analogowo w stosunku do konkretnej sytuacji.
W przytoczonym przykładzie relacją reprezentowaną w umyśle jest „bycie
niższym/wyższym”. Po trzecie, niekiedy możliwe jest zbudowanie
większej liczby modeli umysłowych. W analizowanym przykładzie można
zbudować trzy modele umysłowe, trafnie odpowiadające przesłankom (ryc.
10.7). Wystarczy jednak użyć już dwóch z nich, aby wywnioskować, że
sylogizm jest niekonkluzywny.
RYCINA 10.7. Modele umysłowe poprawnie ilustrujące relacje między terminami sylogizmu:
„Adam jest wyższy od Bartka. Bartek jest niższy od Cezarego”
Źródło: opracowanie własne.

Człowiek nie konstruuje zazwyczaj wszystkich możliwych modeli w danej


sytuacji. Najczęściej, szczególnie w rzeczywistości, buduje tylko jeden
model, zwany początkowym (Johnson-Laird i in., 1992). Budowanie
innych możliwych w danej sytuacji modeli zachodzi dopiero wówczas, gdy
model początkowy nie pozwala na wyciągnięcie żadnej konkluzji.
Przykładowo implikacja: „Jeżeli jest ciemno i cicho, to idę spać”,
rozumiana jest jako opis pewnej sytuacji zawierającej trzy elementy:
„ciemno”, „cicho”, „idę spać”. Większość ludzi zrozumie tę implikację
jako opis tylko jednej możliwej sytuacji, co symbolicznie można
przedstawić następująco:

Ciemno cicho idę spać

Taką pierwszą narzucającą się interpretację sytuacji nazywa się modelem


początkowym. Nawet jeśli zdajemy sobie sprawę z innych możliwości, nie
budujemy dodatkowych modeli mentalnych, dopóki nie zajdzie taka
konieczność. Implikacja opisuje jednak sytuację hipotetyczną, więc nie
wiemy, czy teraz jest ciemno czy jasno, głośno czy cicho, a tym bardziej
czy osoba wypowiadająca to zdanie jest tak śpiąca, że ma ochotę pójść
spać, chociaż jest jasno. Te pozostałe możliwości mogą być
odzwierciedlone w innych modelach umysłowych, np.

Nie ciemno nie cicho nie idę spać


Nie ciemno cicho idę spać
Mamy już więc trzy sytuacje, które są możliwe wtedy, gdy implikacja:
„Jeżeli jest ciemno i cicho, to idę spać”, jest prawdziwa. Dowiedziawszy
się, że autor wypowiedzi idzie spać, to korzystając tylko z modelu
początkowego, wyciągnęlibyśmy błędny wniosek, iż jest ciemno i cicho,
tylko te dwie informacje bowiem są w nim reprezentowane.
Popełnilibyśmy wówczas błąd potwierdzenia następnika. Musimy sobie
uświadomić, że implikacja nic nie mówi o tym, co robi wypowiadająca ją
osoba, kiedy jest jasno (nie ciemno) i głośno (nie cicho). Być może też
idzie wtedy spać, bo to zależy od jej senności, a nie tylko od warunków
zewnętrznych. Właściwy wniosek polegałby więc na stwierdzeniu, że przy
założeniu iż wypowiadający implikację śpi, nic pewnego nie można
powiedzieć o tym, czy jest ciemno czy jasno albo głośno czy cicho.

Dodatkowymi warunkami skłaniającymi do konstruowania modeli


alternatywnych są, zdaniem Johnsona-Lairda, niewielka złożoność sytuacji
problemowej i niezbyt duże obciążenie pamięci roboczej wymaganiami ze
strony innych zadań. Ponieważ każdy kolejny model przyczynia się do
przeciążenia pamięci roboczej, ludzie zwykle poprzestają na
skonstruowaniu modelu początkowego. Jest to, rzecz jasna, źródło błędów.
Błędy w rozumowaniu nie wynikają z wadliwej interpretacji albo
reprezentacji sytuacji w modelu umysłowym, a raczej z trudności
w konstruowaniu większej liczby modeli i operowaniu nimi. Przyczynami
tych trudności są elementarne ograniczenia poznawcze, przede wszystkim
niewielka pojemność pamięci roboczej.

Czwartą właściwością modeli umysłowych jest możliwość włączenia do


nich wybranych elementów reprezentacji obiektów, o których mowa
w przesłankach. Johnson-Laird koncentruje się szczególnie na znaku
negacji. W implikacji: „Jeśli jest ciemno i cicho, to idę spać”, element
„ciemno” albo „cicho” w niektórych modelach mentalnych wymaga
zanegowania („nie ciemno” albo „nie cicho”), a negacja wchodzi w skład
modelu umysłowego, zwiększając liczbę tworzących go elementów.

Rozumowanie, w myśl tej teorii, odbywa się w trzech etapach. Pierwszy


polega na skonstruowaniu modelu stanu rzeczy opisanego w przesłankach.
Następny etap to sprawdzenie, czy domniemany wniosek jest zgodny z tym
modelem. Na końcu pojawia się próba falsyfikacji konkluzji, poprzez
skonstruowanie alternatywnych modeli wynikających z podanych
przesłanek. Większa złożoność problemu to więcej modeli mentalnych,
które trzeba zestawić w pamięci roboczej. Z kolei większa ich liczba wiąże
się z ryzykiem przeciążenia pamięci roboczej, a więc i większym
prawdopodobieństwem popełnienia błędu (ramka 10.2).

RAMKA 10.2

Weryfikacja teorii modeli mentalnych


Teorie rozumowania zgodnie przyjmują, że wnioskowanie odbywa się
z udziałem pamięci roboczej. Co więcej, wysoki poziom złożoności
zadania logicznego może być czynnikiem ją przeciążającym, prowadząc
tym samym do błędów. Przypuszczenia te wielokrotnie potwierdzono,
uzyskując pozytywne korelacje między poziomem wykonania zadań
dedukcyjnych a indywidualną pojemnością pamięci roboczej
(Barrouillet, 1996; Kyllonen, Christal, 1990). Podobne rezultaty
uzyskano, stosując różnorodne zadania wymagające rozumowania
warunkowego (Barrouillet, Lecas, 1999; Toms, Morris, Ward, 1993).

Henry Markovits, Céline Doyon i Michael Simoneau (2002) poddali


weryfikacji predykcje teorii modeli mentalnych, oparte na szczegółowej
analizie związków między rozumowaniem a różnicami indywidualnymi
w zakresie funkcjonowania różnych rodzajów pamięci roboczej. W teorii
abstrakcyjnych reguł w zasadzie nie ma potrzeby odwoływania się do
wzrokowej pamięci roboczej, nawet jeśli treść zadań ma postać
obrazową. Przesłanki implikacji „tłumaczone” są w pierwszej fazie
rozumowania na abstrakcyjny język sądów. Dalsze ich przetwarzanie,
wymagające aplikacji reguł logicznych, odbywa się wyłącznie
z udziałem werbalnej pamięci roboczej (i oczywiście centralnego
systemu wykonawczego). Z teorii abstrakcyjnych reguł wynika zatem,
że poziom wykonania zadań wymagających rozumowania powinien
korelować dodatnio z pojemnością werbalnej pamięci roboczej.
Korelacji takiej nie przewiduje się w wypadku rozumowania
i wzrokowo-przestrzennej pamięci roboczej. Bez znaczenia dla poziomu
obciążenia różnych rodzajów pamięci roboczej powinien być również
rodzaj materiału: konkretny czy abstrakcyjny, ze względu na
wykorzystanie w obu przypadkach zunifikowanych reprezentacji
preskryptywnych.

W teorii modeli mentalnych zakłada się z kolei ścisły związek zdolności


przestrzennych z rozumowaniem (Johnson-Laird, 1983, 2010), o ile
quasi-analogowa reprezentacja sytuacji problemowej dotyczy materiału
konkretnego. W zdaniach uwzględniających konkretną treść powinien
zatem wystąpić pozytywny związek efektywności rozumowania
z pojemnością wzrokowo-przestrzennej pamięci roboczej. Podobny
związek nie pojawiłby się w przypadku zadań o treści abstrakcyjnej.
Z kolei pojemność werbalnej pamięci roboczej byłaby istotna zarówno
w wypadku zadań konkretnych, jak i abstrakcyjnych, ze względu na
semantyczny charakter procesu wnioskowania. Autorzy cytują m.in.
dane pochodzące z badań z użyciem neuroobrazowania techniką fMRI,
wskazujące na angażowanie różnych struktur w trakcie rozumowania na
materiale abstrakcyjnym i konkretnym (Goel, Buchel, Frith, Dolan,
2000, za: Markovits i in., 2002). Ich zdaniem już te rezultaty stanowią
znaczące potwierdzenie teorii modeli.

W badaniach własnych Markovits i współpracownicy użyli zadań


wymagających rozumowania warunkowego, manipulując konkretnością
i abstrakcyjnością ich treści. Wykorzystali również zadania poznawcze,
angażujące werbalną i wzrokowo-przestrzenną pamięć roboczą.
Uzyskane wyniki okazały się zgodne z większością predykcji
formułowanych na podstawie teorii modeli mentalnych. Pojemność
werbalnej pamięci roboczej korelowała słabo, ale istotnie
z rozumowaniem w przypadku materiału konkretnego (średnio r = 0,20)
i abstrakcyjnego (r = 0,24). Natomiast pojemność wzrokowo-
przestrzennej pamięci roboczej korelowała wyłącznie z rozumowaniem
w przypadku materiału konkretnego (średnio r = 0,19). W analizie
korelacji cząstkowych pojemności obu rodzajów pamięci roboczej
z poprawnością użycia różnych trybów wnioskowania okazało się
jednak, że zastosowanie trybu modus tollens nie koreluje z żadną z jej
miar, zarówno w zadaniach konkretnych, jak i abstrakcyjnych. Korelacja
ta ujawniła się dopiero, kiedy podzielono osoby badane na dwie grupy,
ze względu na kompetencje w zakresie rozumowania. W grupie osób
bardziej kompetentnych udało się autorom uzyskać istotną korelację
między pamięcią werbalną a poprawnością użycia trybu modus tollens: r
= 0,14 w zadaniach konkretnych i r = 0,24 w zadaniach abstrakcyjnych.
Zauważmy jednak, że uzyskane korelacje są bardzo słabe, a tryb modus
tollens „zachowuje się” niezupełnie zgodnie z teorią modeli mentalnych.
Różnice w zakresie sprawności jego użycia zgodne są również
z predykcjami teorii reguł. Ogólnie rzecz ujmując: wynik meczu jest
remisowy, ze wskazaniem na przewagę zawodników z grupy
preferującej teorię modeli mentalnych.
Racjonalność, zdaniem Johnsona-Lairda (2010; Johnson-Laird, Byrne,
1991), nie polega na stosowaniu abstrakcyjnych reguł logicznych, lecz
poszukiwaniu większej liczby modeli, prawidłowo ujmujących informacje
zawarte w przesłankach. Chodzi w szczególności o uwolnienie się od
modelu początkowego, czemu służy poszukiwanie kontrprzykładów.
Właśnie ten mechanizm jest szczególnym przejawem racjonalności
człowieka. Przykładowo błąd potwierdzenia następnika i negacji
poprzednika jest wyjaśniany przez Johnsona-Lairda właśnie w odwołaniu
do mechanizmu poszukiwania kontrprzykładów. W analizowanym już
przykładzie:

Jeżeli będzie padać deszcz, to Zosia zmoknie.


Pada deszcz,
zatem…

łatwo jest wyprowadzić poprawny wniosek, model początkowy wystarcza


bowiem do zastosowania trybu modus ponens. Natomiast gdy „nie pada
deszcz” wniosek „Zosia nie zmoknie” jest – jak wiemy – możliwy, ale nie
jedyny. Pozostanie przy modelu początkowym generuje błąd negacji
poprzednika. Wystarczy jednak choćby jeden model umysłowy zawierający
kontrprzykład (np. Zosia zmokła mimo słonecznej pogody, gdyż postąpiła
nieroztropnie, wychodząc z domu w śmigus-dyngus), aby odrzucić
powyższe wnioskowanie jako zawodne. Ten sam model pozwala również
na uniknięcie błędu potwierdzenia następnika: z tego, że Zosia jest mokra,
nie można wyciągnąć wniosku, iż pada deszcz. Ale jeśli Zosia nie zmokła,
to z pewnością nie pada deszcz. Gdyby jednak padał, a Zosia tym razem
roztropnie przeczekałaby ulewę u koleżanki, to cała implikacja byłaby
fałszywa. Szukanie kontrprzykładów może być zatem również
mechanizmem falsyfikacji hipotez.
W ostatnich kilkunastu latach zgromadzono pokaźny materiał empiryczny,
przemawiający za koncepcją modeli mentalnych i przeciw niej Teoria
Johnsona-Lairda wykazuje kilka interesujących zalet. Po pierwsze, wydaje
się bardziej trafna ekologicznie niż teoria reguł. Nie wymaga przyjmowania
założeń wątpliwych (np. o naturalnej zdolności do implementacji reguł
logicznych) lub niefalsyfikowalnych (np. o propozycjonalnej reprezentacji
treści zadań logicznych). Po drugie, teoria modeli bardzo dobrze radzi
sobie z wyjaśnieniem błędów negacji poprzednika i potwierdzenia
następnika implikacji, nie potrzebując w tym celu właściwie żadnych
dodatkowych założeń. Teoria stwierdza po prostu, że ludzie mają tendencję
do wyciągania wniosków na podstawie początkowego, i najczęściej
jedynego, modelu umysłowego, co zresztą pozostaje zgodne z powszechnie
znaną zasadą ekonomii poznania. Po trzecie, teoria modeli świetnie sobie
radzi z wyjaśnieniem wpływu treści i kontekstu na wynik rozumowania.
Jeśli treść zadań logicznych jest bardziej konkretna, to możliwe jest
wykorzystanie zarówno reprezentacji obrazowych, jak i werbalnych oraz
użycie wzrokowo-przestrzennej i werbalnej pamięci roboczej. W wypadku
treści abstrakcyjnych korzystać można wyłączne z kodów werbalnych,
które reprezentują nie tylko same pojęcia, lecz także relacje między nimi.
Z kolei jeśli treść zadań jest bliska doświadczeniu człowieka i została
osadzona w znanym kontekście, to łatwiejsze staje się zbudowanie
większej liczby adekwatnych modeli mentalnych oraz sprawne operowanie
nimi. Być może modeli nie jest wtedy więcej, ale są one trafniej dobrane.
Ponieważ zgodnie z teorią rozumowanie ma charakter semantyczny,
najpierw konstruowane są modele najbardziej zgodne ze specyficznością
sytuacji, a te absurdalne – dopiero w dalszej kolejności. Znajomość sytuacji
pozwala również na łatwiejsze odnajdywanie kontrprzykładów, szczególnie
jeśli dysponujemy wiedzą, gdzie ich szukać. Wpływ treści zadań
i kontekstu na efektywność rozumowania wynika wprost z samej istoty
modelu umysłowego. Nic więc dziwnego, że w zadaniach o treści
abstrakcyjnej i oderwanej od jakiegokolwiek kontekstu ludzie popełniają
zdecydowanie najwięcej błędów. I po czwarte, teoria modeli jest
stosowana, choć nie zawsze z powodzeniem, do wyjaśnienia szerokiej
gamy złożonych procesów poznawczych człowieka: od różnych rodzajów
rozumowania dedukcyjnego i indukcyjnego po rozwiązywanie problemów.

Wiele uwag krytycznych dotyczy zarówno niedopracowania teorii, jak


i niektórych kontrowersyjnych tez. Przykładowo jednym z wielu zarzutów
stawianych teorii modeli jest to, że właściwie nie opisuje mechanizmu
poprawnego rozumowania, lecz koncentruje się na wyjaśnieniu błędów.
Inny przykład: wiadomo, że modele mentalne (reprezentacje nietrwałe)
zależą od posiadanej wiedzy (reprezentacje trwałe), co – jak już
wspominano – może istotnie wspomagać poprawność rozumowania. Teoria
modeli nie tłumaczy jednak mechanizmu tej zależności. Niejasny jest
również mechanizm poszukiwania kontrprzykładów, a nawet natura
samych modeli mentalnych. Są też zarzuty bardziej zasadnicze. Na
przykład Luca Bonatti (1994) zauważa, że liczba modeli umysłowych,
które mogą albo powinny być wygenerowane w danej sytuacji, jest trudna
do jednoznacznego wyliczenia. Problem w tym, że wiele predykcji
sformułowanych na podstawie teorii modeli mentalnych opiera się na
takich kalkulacjach. Wnikliwego porównania teorii reguł i teorii modeli
mentalnych dokonał Robert Mackiewicz (2000).

10.8. Rozumowanie indukcyjne


Istotą rozumowania indukcyjnego jest dokonywanie nieuprawnionych
uogólnień. Nieuprawnionych, bo wyprowadzonych na podstawie
skończonej liczby obserwacji, a przybierających postać prawa ogólnego.
Wszelkie cytowane w tym podręczniku wnioski z badań, podobnie jak
wyniki obserwacji, doświadczeń i eksperymentów w innych naukach
empirycznych, mają charakter indukcyjny. Zawsze istnieje pewne
prawdopodobieństwo, zwykle jednak niewielkie, że wyciągnięty na drodze
indukcji wniosek okaże się błędny. Zarazem jednak indukcja jest sposobem
wnioskowania, który, jak to ujęli Keith Holyoak i Richard Nisbett (1988, s.
1), „poszerza naszą wiedzę w obliczu niepewności”. W psychologii
poznawczej badania nad rozumowaniem indukcyjnym prowadzi się
w trzech obszarach: (1) rozumowania związanego z testowaniem hipotez;
(2) rozumowania przez analogię i transferu z wykorzystaniem analogii
w rozwiązywaniu problemów (zob. rozdz. 11); (3) podejmowania decyzji
w obliczu niepewności (zob. rozdz. 12). Tutaj omówimy tylko dwa
pierwsze obszary.

10.8.1. Testowanie hipotez


Pierwsza grupa badań nad testowaniem hipotez dotyczy tzw. reguł
relacyjnych (relational rules). Wason (1960) prezentował osobom
badanym ciągi liczb, zestawione według prostej reguły, np. 2 4 6. Zadanie
polegało na podaniu innego zestawu trzech liczb, według zasady
odpowiadającej – zdaniem osób badanych – regule ciągu wzorcowego oraz
próbie werbalizacji reguły. Każdorazowo eksperymentator weryfikował
poprawność sformułowanej reguły, informując badanych o poprawności
podanego przez nich zestawu i zwerbalizowanej reguły. Mimo prostoty
reguły ciągu wzorcowego poziom poprawności wykonania zadania okazał
się stosunkowo niski. Zaledwie 21% badanych odkrywało regułę
w pierwszej próbie. Wason wyjaśniał to zjawisko przyjmowaniem tzw.
tendencji konfirmacyjnej (confirmation bias). Osoby badane szybko
stawiały hipotezę, a następnie generowały ciąg zgodny z jej treścią.
Tworzyły więc wyłącznie ciągi, które mogły potwierdzić wstępną hipotezę.
W podanym przykładzie można było postawić hipotezę, że pierwsza liczba
została najpierw przemnożona przez dwa (2 × 2 = 4), a potem przez trzy (2
× 3 = 6) itd. Osoby badane często tworzyły ciągi zgodne z tą hipotezą, np. 3
6 9 albo 10 20 30. Takie reakcje były poprawne, choć przyjęta
i werbalizowana reguła – błędna. Dalsze generowanie ciągów zgodnych
z tą regułą było niepotrzebne, a mimo to osoby badane nadal podejmowały
takie próby. W rzeczywistości reguła była bardzo prosta: chodziło
o dowolne trzy liczby ustawione w porządku rosnącym. W zdecydowanej
większości badani nie generowali ciągów, które mogłyby falsyfikować
wymyśloną przez nich regułę. Załóżmy, że ktoś zamiast 3 6 9, podałby ciąg
3 6 7, niezgodny z regułą „x × 2, x × 3 itd.”. Gdyby uzyskał informację
zwrotną, że ciąg spełnia regułę, wiedziałby, że wstępna hipoteza była
fałszywa. Dla Wasona (1968) była to doskonała ilustracja tego, jak nie
należy testować hipotez naukowych. Jeśli nasza hipoteza jest błędna,
ponieważ poszukiwana zasada jest prostsza, niż nam się wydaje,
gromadzenie przypadków potwierdzających hipotezę prowadzi na
manowce.

Sandrine Rossi, Jean Paul Caverni i Vittorio Girotto (2001) dokonali


pewnej zmiany w omawianej procedurze. Oprócz klasycznego zadania 2 4
6 Wasona zastosowali jego odmianę, w której eksperymentator prezentował
ciąg cyfr niezgodny z regułą (kontrprzykład). Autorzy stwierdzili, że w obu
zadaniach osoby badane nadal formułują hipotezy oparte na wspólnych,
wyabstrahowanych cechach ciągu i testują wyłącznie przypadki zgodne
z hipotetyczną regułą. Ze względu jednak na większą wartość informacji
falsyfikującej regułę, uzyskanej w zmodyfikowanej wersji zadania, istotnie
szybciej odkrywano regułę właściwą.
W niektórych przypadkach strategia konfirmacji może jednak okazać się
bardziej skuteczna niż strategia falsyfikacji. Joshua Klayman i Young-won
Ha (1987) twierdzą, że w zadaniu 2 4 6 Wasona poszukiwana reguła jest
prostsza od tych, które osoby badane wstępnie przyjmują, w związku
z czym strategia konfirmacyjna zawodzi. W innych wypadkach jednak,
kiedy nieznana reguła jest bardziej restrykcyjna (np. liczby rosnące o dwa,
ale nie większe niż 10), osoby badane przyjmują początkowe hipotezy,
które zakładają znacznie prostszą regułę. Zastosowanie strategii
konfirmacyjnej pozwala na szybką falsyfikację prostszej zasady i skłania
do poszukiwania nowych zasad, co dość szybko prowadzi do odkrycia
właściwej reguły. W praktyce oznacza to, że strategia konfirmacji może
być bardziej efektywna, gdy potencjalnych reguł jest niewiele. Gdy jest ich
dużo, konieczna staje się strategia falsyfikacji. Konkludując, strategia
konfirmacyjna przyjmowana jest zdecydowanie częściej niż falsyfikacyjna.
W pewnych sytuacjach, analogicznych do tych z zadania 2 4 6 Wasona, jest
ona nieskuteczna, choć utwierdza ludzi w skłonności do utrzymywania
wstępnej hipotezy.

10.8.2. Rozumowanie przez analogię


Analogia to związek między dwoma obiektami, oparty na podobieństwie
ich wewnętrznej struktury lub podobieństwie relacji zachodzących
w obrębie porównywanych członów. Przykładowo „psychoterapia jest jak
wyciąganie drzazgi z palca”, łączy je bowiem podobieństwo celu
(usunięcie przyczyny problemu), okoliczności (może im towarzyszyć ból),
skutków (pozbycie się kłopotów, ale może pozostać „blizna”) itd.
Formalnie rzecz ujmując, „A jest analogiczne względem B, jeśli A i B są
zbiorami (elementów rzeczywistych, funkcji, atrybutów) i jeśli relacja Ri
porządkująca elementy zbioru A jest podobna do relacji Ri’ porządkującej
elementy zbioru B” (Nęcka, 1984, s. 169–170). Analogia wymaga głównie
podobieństwa wewnętrznych struktur porównywanych członów, a nie
związku między obiektami opartego na podobieństwie zewnętrznym, które
może, ale nie musi być podobieństwem typu analogicznego (Gentner,
1983). Analogia nie zachodzi również wtedy, gdy obiekty są podobne ze
względu na pojedynczą cechę. Na przykład wszystkie przedmioty
czerwone są do siebie podobne ze względu na kolor, ale to nie znaczy, że są
analogiczne.

Poprzez analogię nabywamy nową wiedzę i pojęcia (Blanchette, Dunbar,


2002). Dzięki zdolności poznawczego ujmowania związku analogii
człowiek próbuje przewidywać różne zdarzenia oraz stany rzeczy i może
adekwatnie reagować w wielu sytuacjach. Rozumowanie przez analogię
można więc uznać za jeden z centralnych mechanizmów regulacji
psychicznej (Biela, 1981). Niektórzy badacze uważają, że posługiwanie się
analogią jest szczególnym rodzajem indukcji, najpierw wymaga bowiem
wnioskowania od szczegółu do ogółu (abstrahowanie relacji między
członami analogii w dziedzinie X), a następnie od ogółu do szczegółu
(przeniesienie wyabstrahowanej relacji na przestrzeń semantyczną
dziedziny Y).

Analogia jest szczególnym przypadkiem zjawiska transferu wiedzy, czyli


przeniesienia wiedzy odnoszącej się do pewnej dziedziny na zupełnie inną
dziedzinę. Transfer wiedzy może mieć charakter pozytywny, jeśli dzięki
analogii zwiększamy szanse wypracowania rozwiązania problemu, lub
negatywny, jeśli podobieństwo dwóch sytuacji problemowych skłaniające
nas do zastosowania podobnych rozwiązań okazuje się pozorne. Aby
przeniesienie wiedzy było możliwe, konieczne jest dostrzeżenie
podobieństwa między problemami (Robertson, 2001; zob. podrozdz.
11.7.2). Teoretycy spierają się, jakie czynniki są niezbędne do dostrzeżenia
tak rozumianego podobieństwa. Dedre Gentner (1983), autorka teorii
odwzorowania struktury (structure mapping theory), twierdzi, że
najważniejsze jest dostrzeżenie podobieństwa relacji zachodzących między
elementami w obrębie dwóch różnych dziedzin. Aby sensownie posługiwać
się analogią, nie wystarczy proste stwierdzenie, że dwa zjawiska są do
siebie podobne pod względem pewnych cech – niezbędne jest ustalenie czy
między dwiema dziedzinami występuje odpowiedniość relacji ich
wewnętrznych struktur. Na przykład, kiedy czytamy, że atom jest jak Układ
Słoneczny, musimy przede wszystkim zwrócić uwagę na to, że w obrębie
części składowych zarówno atomu, jak i Układu Słonecznego, zachodzą
podobne relacje: mniejsze obiekty poruszają się po stałych trajektoriach
wokół obiektu większego. Skupienie się na cechach zewnętrznych, które
w tym przypadku nie przystają do siebie (Słońce to gigantyczna,
rozżarzona kula gazu, zupełnie niepodobna do jądra atomu), uniemożliwi
nam prawidłowe zrozumienie budowy atomu (Gentner, Holyoak, 1997).
Konkurencyjne stanowisko zakłada, że uchwycenie odpowiedniości
między strukturami dwóch dziedzin nie jest wystarczające do skutecznego
wykorzystania analogii. Potrzebna jest ponadto analiza podobieństw
niższego rzędu, w tym podobieństwa cech powierzchownych dzielonych
przez dwie dyscypliny lub dwie sytuacje problemowe (zob. Nęcka, 2001).

Obecnie uważa się, że w przypadku dziedzin słabo znanych ludzie


dostrzegają przede wszystkim podobieństwo zewnętrzne i dopiero wraz
z nabywaniem doświadczeń zaczynają zwracać uwagę na podobieństwa
w obrębie funkcji czy mechanizmów (Mumford, 1999; por. Gick, Holyoak,
1983). W takim wypadku pomyślne przeniesienie wiedzy zależy od
abstrakcyjnych schematów rozumowania, które są ogólnymi
reprezentacjami rozwiązań możliwych do zastosowania w różnych
sytuacjach. Im bogatsze owe schematy, tym łatwiejsze dostrzeżenie
analogii między dwiema dziedzinami (Chen, Mo, 2004).

W badaniach eksperymentalnych poszukiwano poznawczych


mechanizmów rozumowania przez analogię zarówno w funkcjonowaniu
pamięci długotrwałej, jak i w efektywności elementarnych procesów
poznawczych. David Rumelhart i Adele Abrahamson (1973) testowali
hipotezę, w myśl której rozumowanie przez analogię wymaga wydawania
sądów na temat podobieństwa między pojęciami. Innymi słowy, kluczowe
dla dostrzegania analogii między pojęciami byłoby ich podobieństwo.
W koncepcji sieci semantycznej stopień podobieństwa zależy od odległości
pojęć w niej zawartych.

W badaniach Rumelharta i Abrahamson wykorzystano zadania zawierające


analogie typu: A : B :: C : x1, x2, x3, x4. Przykładowo:

Wielbłąd : Osioł :: Królik : ?


Uporządkuj odpowiedzi od najlepiej do najgorzej uzupełniających
związek analogii:
a. Antylopa b. Bóbr c. Kot d. Tygrys

Autorzy przyjęli wielowymiarowy model relacji między pojęciami i uznali,


że w przypadku wnioskowania przez analogię zadanie polega na
znalezieniu takiego wektora w wielowymiarowej przestrzeni pamięci, który
miałby taką samą długość dla relacji A : B, jak i dla relacji C : x.
Rozwiązanie analogii sprowadza się zatem do znalezienia takiego x,
którego wektoralna odległość od C jest taka sama jak odległość A od B.
Manipulowano eksperymentalnie odległością alternatywnych członów x1 –
x4, wyprowadzoną z wielowymiarowego modelu Nancy Henley (1969).
Każda z alternatyw miała inną odległość od pojęcia C (odpowiednio: 50,5 –
antylopa–wielbłąd; 0,6–1,0 – sarna–słoń; 1,1–1,5 – słoń–świnia; 41,5 –
mysz–żyrafa, w skali Henley). W omawianym tu przykładzie model
zakładał następujący sposób uporządkowania: B, C, A, D. Wyniki
uzyskane przez Rumelharta i Abrahamson wykazały poprawność założeń
modelu. W kolejnych badaniach zmniejszono odległość między
alternatywnymi członami (wynosiły one 0,2; 0,25; 0,35; 0,4 w skali
Henley). Okazało się, że tolerancja w szacowaniu odległości pomiędzy C a
poszczególnymi x-ami wynosi około 0,12 jednostki w skali Henley. Zatem
nie tylko idealna odległość między punktami przestrzeni, lecz także
odległość między alternatywami decyduje o poprawności wnioskowania
przez analogię.

Analizy składowych procesu rozumowania przez analogię podjął się Robert


Sternberg (1977a). Używając wyrafinowanej metodologii (tzw. analizy
komponentowej) i bardzo różnorodnych zadań wymagających
rozumowania przez analogię, uzyskał najlepsze dopasowanie danych (co
najmniej 80% wyjaśnionej wariancji w zakresie poprawności) do modelu
obejmującego pięć operacji składowych. Na rekonstrukcję procesu
rozumowania przez analogię składały się następujące etapy: najpierw osoba
badana koduje (encoding) człony A i B analogii. Wtedy następuje
przywołanie z pamięci trwałej do pamięci roboczej niektórych atrybutów
obu pojęć. Potem w procesie wnioskowania (inference) człony A i B
podlegają kompletnemu porównaniu ze względu na atrybuty wydobyte
z pamięci roboczej. Z kolei odwzorowanie (mapping) polega na
znalezieniu relacji między członem A i C analogii, co wymaga
wcześniejszego kodowania członu C i przywołania jego atrybutów.
Porównanie atrybutów w ramach odwzorowania przebiega
z uwzględnieniem relacji A : B i dokonuje się tylko dla jednej wyróżnionej
wcześniej relacji. Jeśli relacja okaże się istotna z uwzględnieniem C,
następuje przejście do dekodowania członu D i zastosowania (application)
wykrytej relacji w stosunku do tego elementu. Proces kończy się emisją
reakcji (response). Jeśli relacja C : D nie spełnia wymagań podobieństwa
do relacji A : B, następuje powtórzenie cyklu w pętli rozpoczynającej się
odwzorowaniem, z uwzględnieniem innej relacji A : B, aż do znalezienia
poprawnego rozwiązania.

Niezależnie od typu zadania najistotniejszą rolę w efektywności procesu


rozumowania przez analogię wydawał się odgrywać składnik
odwzorowania. W dwóch z trzech eksperymentów Sternberga analiza
regresji wykazała, że składnik ten okazał się bardziej istotny od
wnioskowania i aplikacji. W trzecim eksperymencie, przeprowadzonym
z wykorzystaniem analogii werbalnych, w modelu regresji czynnik ten
również był bardzo istotny i występował zaraz po składniku wnioskowania.
W późniejszych badaniach wykazano, że odwzorowanie jest składnikiem,
którego aplikacja stawia przed systemem poznawczym największe
wymagania. W porównaniu z pozostałymi składnikami obciążenie pamięci
roboczej i zaangażowanie zasobów uwagi jest wówczas największe
(Orzechowski, Bednarek, 2004). Najwięcej czasu zajmowało badanym
Sternberga kodowanie poszczególnych członów zadania, przy czym czas
ten w żadnym z eksperymentów nie był pierwszorzędnym predyktorem
efektywności rozumowania przez analogię.

Omówione dotychczas dwa podstawowe rodzaje rozumowania – tj.


rozumowanie dedukcyjne i indukcyjne – wydają się bardzo różne. Badania
tych dwóch rodzajów rozumowania z użyciem fMRI pokazują, że ich
podłoże neuroanatomiczne jest nieco inne. Vinod Goel i Raymond Dolan
(2004) wykazali, że wprawdzie obydwa typy rozumowania wiążą się
z aktywnością kory przedczołowej w lewej półkuli i obustronnie
grzbietowej kory czołowej, ciemieniowej i potylicznej, jednak oba procesy
były również związane ze specyficzną dla siebie aktywacją: dolny zakręt
czołowy w lewej półkuli był bardziej aktywny przy rozumowaniu
dedukcyjnym niż przy indukcyjnym, natomiast grzbietowo boczna kora
przedczołowa w lewej półkuli była bardziej aktywna przy rozumowaniu
indukcyjnym niż przy dedukcyjnym.

Można sobie więc zadać pytanie, czy pojęcie rozumowania jest uprawnione
w odniesieniu do obu z nich, sugeruje ono bowiem, że dedukcja i indukcja
mają coś wspólnego. Tego zdania są np. James Waltz i współpracownicy
(1999). Na podstawie badań fMRI autorzy stwierdzili, że te dwie formy
rozumowania mają pewną wspólną cechę. Wymagają tzw. integracji
relacyjnej (relational integration), rozumianej jako zestawianie relacji
między obiektami albo zdarzeniami i manipulowanie nimi. Tego typu
procesy angażowane są zarówno w rozumowaniu dedukcyjnym, jak
i indukcyjnym, stanowiąc tym samym ich wspólne podłoże poznawcze
(ramka 10.3).

RAMKA 10.3

Czy coś łączy różne formy rozumowania?


Waltz i współpracownicy (1999) stwierdzili, że różne formy
rozumowania mają jedną wspólną cechę. Wymagają tzw. integracji
relacyjnej (relational integration), definiowanej jako zestawianie relacji
między obiektami albo zdarzeniami i manipulowanie nimi. Tego typu
procesy zaangażowane są zarówno w rozumowanie dedukcyjne, jak
i indukcyjne. Autorzy zebrali mocne dowody eksperymentalne
i neurobiologiczne na korzyść tej tezy. W swoich badaniach zastosowali
dwie grupy problemów. W zadaniach dedukcyjnych użyli problemów
wymagających wnioskowania przechodniego (transitive inference
problem), np. „Jan jest wyższy niż Paweł. Piotr jest wyższy niż Jan. Kto
jest najwyższy?”. Zadania indukcyjne polegały na uzupełnianiu
brakującego elementu we wzorze prezentowanych bodźców (matrix
problem). Badacze dodatkowo manipulowali poziomem trudności obu
rodzajów zadań. W badaniu udział wzięły trzy grupy osób: (1) pacjenci
z uszkodzoną korą przedczołową; (2) pacjenci z uszkodzoną
przyśrodkową częścią płata skroniowego; (3) grupa kontrolna osób
zdrowych. W obu przypadkach, zadań dedukcyjnych i indukcyjnych,
zwiększenie trudności zadań powodowało znaczne obniżenie
poprawności ich wykonania, ale tylko u pacjentów z uszkodzoną korą
przedczołową, podczas gdy w pozostałych dwóch grupach efekt ten nie
był istotny (ryc. 10.8).

RYCINA 10.8. Poprawność wykonania testu wnioskowania przechodniego (a) i testu


matryc (b) w grupie pacjentów z uszkodzeniami kory przedczołowej (linia ciągła),
pacjentów z uszkodzeniami płata skroniowego (linia kropkowana) i osób zdrowych (linia
przerywana)
Źródło: opracowanie własne na podstawie Waltz i in., 1999, s. 122.
Autorzy wyjaśniają uzyskane rezultaty kluczową rolą kory
przedczołowej w rozumowaniu, które wymaga ujmowania relacji,
a dokładnie integracji relacyjnej. Wnioski te przynajmniej w części
potwierdzono w innym badaniu, wykorzystując technikę
neuroobrazowania PET (positron emission tomography – pozytonowa
tomografia emisyjna) w trakcie wykonywania zadania polegającego na
wnioskowaniu przechodnim (Baker i in., 1996). Badacze wychwycili
m.in. istotne zaangażowanie grzbietowo-bocznej kory przedczołowej
w wykonanie zadania. Podobnie Vivek Prabhakaran i współpracownicy
(Prabhakaran, Smith, Desmond, Glover, 1997), Kalina Christoff
i współpracownicy (2001) oraz Carter Wendelken i współpracownicy
(Wendelken, Nakhabenko, Donohue, Carter, Bunge, 2008), korzystając
z techniki funkcjonalnego rezonansu magnetycznego, zarejestrowali
aktywność tego samego obszaru kory w wykonanie testu analogii oraz
Testu Matryc Progresywnych Ravena. Późniejsze badanie wykazało, że
dotyczy to kory przedczołowej w lewej półkuli (Bunge, Helskog,
Wendelken, 2009). Zgodnie z założeniami Ravena jego test wymaga
zdolności edukcji relacji, angażuje więc rozumowanie indukcyjne.
Oczywiście wolno dyskutować, na jaki zakres podobieństwa między
rozumowaniem dedukcyjnym i indukcyjnym wskazują uzyskane
rezultaty, bo z pewnością można je tłumaczyć jakimś czynnikiem
ogólnym, istotnym w obu typach zastosowanych zadań. Można też, jak
uczynili to Waltz i współpracownicy (1999), odwołać się do konstruktu
centralnego systemu wykonawczego pamięci roboczej, związanego
z zaangażowaniem kory przedczołowej. Ze względu na obniżenie
sprawności funkcji tego systemu w uszkodzeniach korowych pacjenci
Waltza nie byli w stanie wykonać bardziej złożonych zdań. Wydaje się
więc, że pochodzący z logiki ścisły podział na dedukcję i indukcję
psychologicznie nie jest tak ostry, jak przyjęło się sądzić.

10.9. Inne rodzaje rozumowania

10.9.1. Rozumowanie probabilistyczne


W klasycznych teoriach rozumowania przyjmuje się, że jeżeli informacje
zawarte w przesłankach zdania logicznego, albo po prostu w sytuacji
zadaniowej, można prawidłowo zestawić na kilka sposobów, to każdy
z nich jest jednakowo prawdopodobny. Na przykład w ramach teorii modeli
twierdzi się (Johnson-Laird, Legrenzi, Girotto, Legrenzi, Caverni, 1999), że
kiedy w danej sytuacji można zbudować więcej modeli umysłowych niż
jeden, to każdy z nich ma jednakowe szanse na to, że zostanie zbudowany.
Określa się to mianem zasady jednakowego prawdopodobieństwa.
W przypadku analizowanego już zadania:

Adam jest wyższy od Bartka,


Bartek jest niższy od Cezarego,
który z panów jest najwyższy?

żaden z trzech modeli mentalnych, które można utworzyć z przesłanek, nie


jest bardziej prawdopodobny od pozostałych i nie ma na to wpływu nasze
osobiste doświadczenie związane z imieniem Adam czy Cezary. Wpływ
taki można jednak zaobserwować, jeśli treść logicznego wniosku pozostaje
w związku z wiedzą czy przekonaniami osób badanych. Nazwano to
efektem siły przekonań (Evans, Barston, Pollard, 1983; Evans, Pollard,
1990). Wiarygodność konkluzji sylogizmu utożsamiana bywa
z prawdopodobieństwem realnego zaistnienia opisanej przez nią sytuacji.
Również w zdaniach warunkowych wykryto wpływ subiektywnej oceny
prawdopodobieństwa implikacji na poprawność wnioskowania. Nie chodzi
oczywiście o przypadki, gdy implikacja przybiera postać abstrakcyjną, typu
„(p → q) i nie q → nie p”. Aby zaobserwować ten efekt, trzeba było użyć
zadań z realną treścią. Okazuje się, że ocena prawdopodobieństwa
implikacji zależy od tego, na ile prawdopodobne w opinii osób badanych są
inne, niż wskazane w poprzedniku, przyczyny wystąpienia sytuacji
opisanej w następniku. Im więcej osoba badana może sobie wyobrazić
alternatywnych przyczyn (Cummins, Lubart, Alksnis, Rist, 1991) albo im
więcej takich przyczyn zostanie jej zasugerowanych (np. Pollard, Evans,
1983), tym mniej popełnia błędów zaprzeczenia poprzednika
i potwierdzenia następnika. Podobnie, im więcej kontrprzykładów może
sobie wyobrazić osoba badana, tym liczba tych błędów jest mniejsza. Im
bardziej interpretacja implikacji jest ograniczona pod względem liczby
potencjalnych przyczyn wystąpienia jej następnika oraz liczby
kontrprzykładów, tym częściej interpretuje się ją błędnie jako
równoważność (Hilton, Jaspars, Clarke, 1990; Ray, Findley, 1984).
Zastosowanie poprawnych trybów wnioskowania również okazało się
połączone z oceną prawdopodobieństwa alternatywnych przyczyn lub
kontrprzykładów. Jeśli przesłanki były związane z małą liczbą
kontrprzykładów, tryb modus ponens uznawany był częściej za poprawny.
Nie miała na to wpływu liczba potencjalnych przyczyn następnika.
Natomiast wyższej częstości użycia trybu modus tollens towarzyszyła
większa liczba alternatywnych przyczyn i kontrprzykładów (Cummins i in.,
1991).

10.9.2. Rozumowanie nieformalne


Rozumowanie nieformalne polega na włączeniu do zadania dedukcyjnego
elementów spoza niego. „Oficjalne” przesłanki są milcząco uzupełniane
o dodatkowe informacje, pod warunkiem że te ostatnie są zgodne z naszą
wiedzą i przekonaniami. Zniekształceniu może zatem ulegać reprezentacja
sytuacji problemowej. Dlatego jedna z hipotez wyjaśniających rozmaite
błędy rozumowania odwołuje się do wykorzystywania nieformalnych
procesów rozumowania w rozwiązywaniu zadań wymagających podejścia
formalnego. Jednocześnie w rozumowaniu nieformalnym bierzemy pod
uwagę o wiele szersze spektrum przesłanek niż tylko te, które nam
dostarczono „drogą oficjalną”, przez co nasze rozumowanie jest znacznie
bogatsze w treść i lepiej dostosowane do realnych warunków życiowych.
Victoria Shaw (1996) wyróżnia trzy cechy rozumowania nieformalnego. Po
pierwsze, argumenty nieformalne są mniej ustrukturyzowane niż argumenty
formalne. Chociaż można w nich wyróżnić przesłanki i wniosek, nie są one
jasno rozdzielone, a niektóre przesłanki mogą pozostać ukryte. Oznacza to
przede wszystkim możliwość włączenia do procesu rozumowania
przesłanek, które nie zostały sformułowane explicite. Po drugie, mimo że
rozumowanie nieformalne zawiera elementy dedukcji i indukcji, częściej
jednak polega na tych drugich (Green, 1994). I po trzecie, argumenty
nieformalne używane są częściej wtedy, gdy jakiś wniosek wyzwala
argumenty „za” i „przeciw”, niż wtedy, gdy można go jednoznacznie
zweryfikować lub sfalsyfikować. Pomijając przypadki, w których wniosek
dotyczy naszych poglądów i opinii, rozumowanie nieformalne włącza się,
gdy implikacja jest niekonkluzywna, to znaczy nie można jej potwierdzić
ani obalić na podstawie informacji, którymi dysponujemy. Domeną
rozumowania nieformalnego są więc podstawowe dylematy moralne
i egzystencjalne, a także niezbyt klarownie zdefiniowane sytuacje
problemowe.
Rozumowanie tego rodzaju może jednak zachodzić również w zupełnie
klarownych – z punktu widzenia logiki formalnej – warunkach zadania.
Przeanalizujmy pewien przykład zadania warunkowego (za: Evans, 2002,
s. 70):

Przypuśćmy, iż prawdą jest, że „jeżeli w samochodzie skończyło się


paliwo, to silnik się wyłączy (zgaśnie)”. Przypuśćmy dalej, że silnik
jest włączony (negacja następnika). Co z tego wynika?

Według tabeli prawdziwości implikacji uprawniony jest jedynie taki


wniosek, że w baku pozostało jeszcze paliwo (negacja poprzednika). Ale
taki sam wniosek można wyprowadzić bezpośrednio z analizy sytuacji, bez
konieczności kierowania się dużą przesłanką. Byłoby sprzeczne z całą
naszą wiedzą o działaniu maszyn, gdyby samochód nie miał paliwa,
a silnik nadal pracował; fakt, że silnik nie zgasł, niezawodnie oznacza, iż
paliwo jeszcze się nie skończyło. Rozumowanie nieformalne korzysta więc
z kombinacji informacji pochodzących z „oficjalnego” opisu zadania,
a ponadto z kontekstu i z pamięci trwałej. W tym przypadku wniosek
logiczny, wyciągnięty wyłącznie na podstawie „oficjalnych” przesłanek,
jest tożsamy z wnioskiem „nieformalnym”, który nasuwa się na podstawie
wiedzy ogólnej i znajomości kontekstu. Może się jednak zdarzyć, że
wnioski te będą wzajemnie sprzeczne, a w każdym razie nietożsame.
Wówczas większą wiarygodnością darzymy wniosek nieformalny.

Analiza rozumowania nieformalnego wymaga zmian metodologicznych


w sposobie przeprowadzania badań. Według Evansa (2002) są one
niezbędne, tradycyjne paradygmaty bowiem, świetnie sprawdzające się
w wąskim zakresie sztucznych zadań laboratoryjnych, nie nadają się do
badania rozumowania nieformalnego. Zarazem jednak nie wydaje się, aby
były to zmiany zasadnicze. Osobom badanym nadal prezentuje się
sylogizmy lub zdania warunkowe, ale po nich, zamiast jasno
sformułowanej konkluzji do zweryfikowania, następuje zwykle luźna
instrukcja w stylu: „Co z tego wynika?”. Niekiedy prosi się również
badanych o ocenę prawdopodobieństwa prawdziwości wniosku lub
wyrażenie własnego sądu co do poprawności konkluzji, czyli o coś, co nie
ma sensu w konfrontacji z tradycyjną logiką. Zadanie może np. polegać na
wykorzystaniu nielicznych i bardzo niejednoznacznych danych w celu
oceny zagrożenia, czy dziecko przyjmuje narkotyki. Zmiany w procedurach
badawczych dotyczą jednak przede wszystkim zastosowanej treści zadań.
Badacze rozumowania nieformalnego korzystają więc z bogatego zaplecza
badań nad wpływem kontekstu, doświadczenia i wiedzy osób badanych na
wnioskowanie. Gdyby rozumowanie było procesem wyłącznie
syntaktyczno-formalnym, nie powinno się obserwować skutków w zakresie
poprawności jego wykonania, wywołanych treścią. Ponieważ tak nie jest,
rozumowanie pozornie formalne często przeradza się w nieformalne.
Wydaje się, że rozumowanie nieformalne jest szczególnie ważne wtedy,
gdy treść zadania ma głębszy sens dla osób badanych. Większość
spontanicznych aktów rozumowania, dokonujących się w realnych
sytuacjach życiowych, spełnia kryteria rozumowania nieformalnego. Taki
też charakter przyjmuje rozumowanie sylogistyczne jako jeden ze
sposobów przebiegu procesów twórczych (Nęcka, 1987, 1995; Nęcka i in.,
2005). Tymczasem zdecydowana większość badań psychologicznych
dotyczy rozumowania formalnego. Być może w tej rozbieżności należy
upatrywać przyczyn tak dużego wskaźnika błędów, stwierdzanych zwykle
w badaniach. To, co jest błędem z punktu widzenia rozumowania
formalnego, przestaje nim być po włączeniu w proces myślenia
dodatkowych, ukrytych założeń. Ale wówczas zadanie logiczne zmienia
swój charakter, a rozumowanie przyjmuje postać nieformalną.
W badaniach nad rozumowaniem nieformalnym znajdziemy też inny,
bardzo interesujący wątek. Chodzi o to, jak ludzie rozumieją formuły
zdaniowe, np. implikację, w zależności od kontekstu sytuacyjnego.
Problem ten podjął w serii badań Samuel Fillenbaum (1975a, 1975b),
używając metod pozwalających na analizę poziomu zrozumienia zdań
warunkowych poprzez ich parafrazowanie. Treść zadań była specyficznie
dobrana. Okazało się, że kiedy implikacja zawierała obietnicę, np. „Jeżeli
skosisz trawnik, to dam ci 5$”, parafrazowano ją z użyciem spójnika „i”:
„Skosisz trawnik i zapłacę ci 5$”, a kiedy zawierała groźbę, np. „Jeżeli
natychmiast nie zapłacisz, to pozwę cię do sądu”, parafrazowano ją
z użyciem spójnika „albo”: „Natychmiast mi zapłać albo pozwę cię do
sądu”. Związki przyczynowo-skutkowe, np. „Jeżeli on pojedzie do
Warszawy, to się rozchoruje”, parafrazowano w formie związku
czasowego: „Kiedy on pojedzie do Warszawy, to się rozchoruje”.
Natomiast treści uniwersalne, np. „Jeżeli ciężarówka jest żółta, to należy do
firmy X”, parafrazowano w postaci zdania prostego: „Żółta ciężarówka
należy do firmy X”. Okazało się więc, że nieformalne rozumienie
implikacji zdecydowanie odbiega od tego, które przyjmują logicy. A to
z kolei prowadzi do błędów. Co ciekawe, liczba błędów była różna
w zależności od treści implikacji. Na przykład odsetek błędów
potwierdzenia następnika był najwyższy w przypadku obietnic i gróźb (80),
nieco niższy w odniesieniu do związków przyczynowo-skutkowych (70),
a najniższy w przypadku treści uniwersalnych (60). Według Fillenbauma
(zob. też Newstead, Ellis, Evans, Dennis., 1997), wyniki te sugerują, że
sam proces rozumowania może być tutaj poprawny, a niewłaściwa jest
jedynie interpretacja zdania warunkowego. Stephen Newstead
i współpracownicy (tamże) w interesujący sposób podjęli ten wątek.
Autorzy wysunęli hipotezę, że rozumowanie warunkowe w życiu
codziennym opiera się na sądach probabilistycznych (zob. podrozdz. 12.1).
Ocena prawdopodobieństwa, że informacje zawarte w przesłankach lub
wniosku są prawdziwe, należy do najlepiej poznanych czynników
wpływających na poprawność rozumowania.

10.10. Podsumowanie
Problematyka myślenia należy do najstarszych obszarów badań
psychologicznych, co pośrednio świadczy o jej doniosłości. Być może
znaczenie, jakie psychologowie nadawali zawsze tym zjawiskom, wynika
z przekonania, niekoniecznie wprost formułowanego, że zdolność do
myślenia jest jednym z wyróżników człowieka jako gatunku i wyrazem
jego inteligencji. Rzeczywiście, inteligencja ujawnia się w myśleniu
i wręcz może być zdefiniowana jako zdolność do radzenia sobie z trudnymi
problemami dzięki procesom myślenia i rozumowania.

W rozdziale tym omówiliśmy badania i teorie dotyczące myślenia, jego


struktury i elementów. Pokazaliśmy relacje między myśleniem,
rozumowaniem, rozwiązywaniem problemów i podejmowaniem decyzji.
Omówiliśmy też teorie i badania dotyczące rozumowania, z podziałem na
rozumowanie dedukcyjne i indukcyjne, w tym rozumowanie przez
analogię. Szczególną uwagę zwróciliśmy na teorie wyjaśniające
mechanizmy rozumowania – teorię abstrakcyjnych reguł i teorię modeli
mentalnych. Przedstawiliśmy również krótko inne rodzaje rozumowania –
rozumowanie probabilistyczne i nieformalne.

Czy myślenie jest zdolnością wyłącznie ludzką, tego nie wiemy. Wiadomo,
że niektóre gatunki zwierząt są zdolne do rozwiązywania problemów, pod
warunkiem że są nie tylko stosunkowo proste jak na możliwości człowieka,
lecz także dostosowane do typowych dla danego gatunku warunków
środowiska. W każdym razie, nawet jeśli zwierzęta też niekiedy myślą,
dopiero w przypadku człowieka można mówić o nadzwyczajnej złożoności
i wydajności tych procesów. I tylko człowiek jest zdolny do myślenia
abstrakcyjnego – zresztą ta umiejętność pojawia się dopiero po dłuższym
okresie rozwoju poznawczego. Z tego punktu widzenia teza o szczególnej
roli myślenia w procesie „uczłowieczenia ludzi” wydaje się całkiem
rozsądna.
Rozdział 11

Rozwiązywanie problemów

Problem i rozwiązywanie problemu


Typy problemów
Podział problemów ze względu na ich cechy i strukturę
Podział problemów ze względu na wymagania poznawcze
Teorie rozwiązywania problemów
Teoria Newella i Simona
Inne ujęcia teoretyczne procesu rozwiązywania problemów
Heurystyki rozwiązywania problemów
Metoda redukcji różnicy
Metoda poruszania się wstecz
Metoda analizowania środków i celów
Fazy rozwiązywania problemów
Faza identyfikacji problemu
Faza definiowania problemu
Faza doboru strategii
Faza zdobywania informacji
Faza alokacji zasobów
Faza monitorowania postępu
Faza oceny poprawności rozwiązania
Przeszkody w rozwiązywaniu problemów
Sztywność myślenia
Nastawienie
Fiksacja funkcjonalna
Czynniki wspomagające rozwiązywanie problemów
Transfer pozytywny
Transfer przez analogię
Inkubacja
Wgląd
Rozwiązywanie złożonych problemów
Podsumowanie
Problem to rozbieżność między aktualnym stanem rzeczy a wyznaczonym bądź narzuconym celem
(stanem pożądanym), której nie można usunąć rutynowo.
Rozwiązywanie problemów to aktywność ukierunkowana na zredukowanie rozbieżności między
stanem aktualnym a pożądanym, polegająca na realizacji zaplanowanej sekwencji operacji
poznawczych.

Wśród psychologów zwierząt krąży dowcip, że ptaki nie rozwinęły


szczególnie wysokiej inteligencji, ponieważ ilekroć miały jakiś problem, po
prostu odlatywały. Jeśli umysł ptaka dysponuje jednym, uniwersalnym
sposobem rozwiązywania wszystkich problemów, umysł człowieka to
„maszyna” wszechstronnego zastosowania, umożliwiająca generowanie
licznych i różnorodnych rozwiązań dowolnego problemu. W ludzkim
systemie poznawczym działa wiele wyspecjalizowanych modułów,
odpowiadających za realizację szczegółowych zadań poznawczych. Ale
oprócz modułów człowiek dysponuje ogólną zdolnością rozwiązywania
problemów, niezależnie od ich rodzaju, struktury, modalności zmysłowej
i innych cech. Ta ogólna zdolność powstała zapewne jako odpowiedź na
wymagania środowiska, które stało się bardzo złożone i mało
przewidywalne. Jeśli problem jest prosty lub znany, wystarczą
wyspecjalizowane moduły, ale jeśli jest złożony lub nowy, potrzeba
uniwersalnej „maszyny myślącej”, którą każdy z nas nosi na karku.

Psychologia poznawcza szuka odpowiedzi na pytanie, jakie procesy


zachodzą w umyśle człowieka w trakcie rozwiązywania przez niego
rozmaitych problemów. Chodzi w szczególności o to, z jakich faz lub
etapów składa się rozwiązywanie problemów, jakie przeszkody zakłócają
przebieg tego procesu, a co go wspomaga. Psychologia przyjmuje więc
postawę badawczą, czyli deskryptywną, ponieważ opisuje psychologiczne
prawidłowości rozwiązywania problemów przez ludzi. Natomiast
heurystyka, rozumiana tutaj jako dziedzina wiedzy (Góralski, 1980;
Nęcka, 1994b), przyjmuje postawę prespkryptywną: zaleca stosowanie
pewnych zabiegów, zwiększających efektywność działania ludzi
w dziedzinie rozwiązywania problemów.

11.1. Problem i rozwiązywanie problemu


W potocznym rozumieniu problem to „poważne zagadnienie, zadanie
wymagające rozwiązania, kwestia do rozstrzygnięcia” (Encyklopedia
PWN). W ujęciu psychologicznym problem pojawia się wtedy, gdy
człowiek „czegoś chce, a nie wie od razu, jaką sekwencję działań powinien
wykonać, aby to osiągnąć” (Newell, Simon, 1972, s. 72). Dla psychologa
problem to rodzaj relacji między obiektywną, zewnętrzną sytuacją
bodźcową a jednostką lub grupą ludzi. Istotą tej relacji jest niemożność
osiągnięcia celu, wynikająca z braku potrzebnych środków materialnych
(np. przedmiotów, materiałów, pieniędzy), społecznych (np. pomocy
i wsparcia ze strony innych osób) lub intelektualnych (np. wiedzy lub
umiejętności). Znajdując się w sytuacji problemowej, człowiek może nie
podejmować żadnych działań albo może próbować osiągnąć cel mimo
braku dostępnych środków. Jeśli podejmuje takie próby, wykonuje
czynność zwaną rozwiązywaniem problemu. Może ona ograniczyć się do
procesów umysłowych, ale może też obejmować elementy jawnego
zachowania. Z punktu widzenia psychologii kognitywnej rozwiązywanie
problemu polega na wykonaniu sekwencji operacji poznawczych, które
przynajmniej „w umyśle” lub „w wyobraźni” redukują rozbieżność między
aktualnym stanem rzeczy a pożądanym celem (Anderson, 1985). Czy
rozbieżność ta zostanie zredukowana również w świecie realnym, zależy od
podjęcia i sfinalizowania konkretnych działań, co z kolei wymaga
skutecznej motywacji i obiektywnych możliwości realizacji celu.
Z poznawczego punktu widzenia problem można uznać za rozwiązany, jeśli
człowiek już wie, jak usunąć rozbieżność między stanem wyjściowym
a docelowym, choć na początku tego nie wiedział i właśnie dlatego znalazł
się w sytuacji problemowej. Jeśli wiedza o sposobie usunięcia
rozbieżności, wypracowana w trakcie rozwiązywania problemu, nie
zostanie wprowadzona w życie, problem można uznać za rozwiązany
intelektualnie, ale nie faktycznie.
Stan początkowy (initial state) – składowa problemu zawierająca dane wyjściowe, okoliczności,
które decydują o postrzeganiu sytuacji jako problemowej. Mogą być ukryte w opisie problemu,
a wtedy należy je wydedukować z tego, co jawne, lub wywnioskować z kontekstu.
Stan docelowy (goal state) – część składowa problemu; stan, na który ukierunkowane są procesy
poszukiwania rozwiązania. Istnieją kryteria oceny jego osiągnięcia.
Operatory (operators) – jeden z wymiarów problemu; środki lub reguły, których można użyć do
przekształcania stanu początkowego i wszystkich stanów pośrednich w drodze do osiągnięcia celu.
Przeszkody (obstacles) – składowe problemu napotykane w procesie poszukiwania rozwiązania;
mogą nimi być ograniczenia nakładane na operatory, w wyniku czego niektóre z przekształceń stają
się niedozwolone.

Każdy problem można scharakteryzować za pomocą czterech wymiarów


(Newell, Simon, 1972; Medin, Ross, Markman, 2004). Po pierwsze,
problem składa się ze stanu docelowego (goal state), na który nakierowane
są procesy poszukiwania rozwiązania i w stosunku do którego istnieją
kryteria oceny, czy został osiągnięty. Po drugie, istotną częścią problemu
jest stan początkowy (initial state), czyli dane wyjściowe, a także
okoliczności decydujące o tym, że cała sytuacja ma charakter problemowy.
Nie wszystkie dane początkowe muszą być jawne; jeśli niektóre są ukryte,
trzeba je wydedukować z tego, co wyrażono w postaci jawnej, lub
wywnioskować z kontekstu. Po trzecie, w obrębie problemu można
wyróżnić środki czy reguły, których wolno nam użyć, aby przekształcić
stan początkowy (i wszystkie kolejne stany) w dążeniu do osiągnięcia celu;
środki te nazywa się również operatorami (operators). Po czwarte,
w skład problemu wchodzą przeszkody (obstacles), które napotykamy
w procesie poszukiwania rozwiązań. Przeszkodami mogą być ograniczenia
nakładane na operatory, z których powodu pewne przekształcenia są
niedozwolone (np. dzielenie przez 0 w problemach arytmetycznych).

Rozważmy dla przykładu problem wymagający rozkodowania cyfr


ukrytych pod odpowiednimi literami alfabetu. W podanej zagadce
„kryptoarytmetycznej” (Newell, Simon, 1972) chodzi o zastąpienie liter
cyframi i wykonanie dodawania, przy założeniu, że T = 0 (zero):

DONALD
+ GERALD
= ROBERT.

Dostępne dane początkowe obejmują zatem wiedzę, że litery odpowiadają


cyfrom, a cyfry – literom. Wiemy ponadto, że litera T oznacza 0. Stan
docelowy to na razie nieznane dwie sześciocyfrowe liczby oraz trzecia
liczba, stanowiąca wynik ich dodawania. Zadanie tylko dlatego jest
problemem, że wiemy, do czego chcemy dojść, ale na razie nie umiemy
wykonać potrzebnych kroków. Operatory to elementarne reguły dodawania
liczb w „słupkach”, ze szczególnym uwzględnieniem faktu, że jeśli wynik
dodawania jest większy lub równy 10, trzeba dokonać przeniesienia jednej
wartości do kolumny reprezentującej wyższy rząd wielkości (np. 6 + 7 =
13, wpisujemy 3, a przenosimy 1). Ograniczenia nakładane na operatory to
zakaz podstawiania dwóch lub więcej cyfr pod tę samą literę i zakaz
podstawiania tej samej cyfry pod różne litery. Zauważmy, że zasadę
jednoznaczności przyporządkowania liter cyfrom trzeba dopiero
wywnioskować, ponieważ jest ona zawarta w opisie problemu implicite.
Gdyby jej jednak nie przyjąć, jako czegoś oczywistego, zadanie stałoby się
trywialne.
Z faktu, że T = 0 wnioskujemy, iż D = 5, ponieważ nie ma innej pary
identycznych liczb jednocyfrowych, których dodawanie dałoby wynik
kończący się zerem (5 + 5 = 10, wpisujemy 0, a 1 przenosimy do kolumny
obok). Jedynie dodawanie dwóch zer dałoby w wyniku 0, ale zerem jest już
litera T, więc żadna inna nie wchodzi w grę. Wiedząc, że D = 5,
wnioskujemy teraz, iż G nie może być większe od 4, bo w przeciwnym
wypadku wynik dodawania dwóch liczb sześciocyfrowych musiałby być
liczbą siedmiocyfrową; a ponieważ wynik ROBERT jest liczbą
sześciocyfrową, litera G musi oznaczać cyfrę 1, 2, 3 lub 4. W ten sposób,
dokonując kolejnych dedukcji i eliminując możliwości prowadzące do
sprzeczności, osiągamy cel w postaci rozwiązania:

526 485
+ 197 485
= 723 970.

11.2. Typy problemów


Aby można było badać procesy poznawcze, biorące udział
w rozwiązywaniu problemów, trzeba wcześniej ustalić typologię
problemów. Różne kategorie problemów wymagają odmiennych sposobów
rozwiązywania, a przez to angażują różne mechanizmy poznawcze.

Postaraj się rozwiązać problemy z ramki 11.1. Odpowiedzi znajdziesz dalej


w tekście. Zastanów się, czym różnią się te problemy albo w czym są do
siebie podobne. W swojej analizie możesz odwołać się do następujących
reguł kategoryzacji problemów:

1. Czy do rozwiązania problemu potrzebna jest uprzednia wiedza?


2. Jaki jest cel zadania?

3. Jak złożony jest ten problem?

4. Czy w opisie problemu są obecne wszystkie informacje potrzebne do


jego rozwiązania?

5. Czy problem wymaga dużo pracy i wysiłku, czy też można go


rozwiązać w jednym posunięciu, pod warunkiem że wpadnie się na
pomysł, jakie ma ono być?

6. Czy którekolwiek z opisanych problemów są do siebie podobne? (za:


Robertson, 2001).

RAMKA 11.1

Rozwiąż te problemy
1. Który trójkąt ma większą powierzchnię – pierwszy o bokach równych
200, 300 i 400 cm czy drugi o bokach równych 300, 400 i 700 cm
(Sloane, MacHale, 1997)?

2. Masz 3 pudełka. W każdym z nich umieszczono po 2 mniejsze


pudełka, a w nich jeszcze po 4 całkiem małe pudełka. Ile pudełek
w sumie posiadasz? a) 13, b) 21, c) 24, d) 33 (Whimbey, Lochhead,
1999).

3. Rozwiąż równanie: X = 3 + (3 × 2) + (3 × 2 × 4)

4. Połącz 9 kropek za pomocą czterech kresek, nie odrywając ołówka od


kartki (Scheerer, 1963). Czy można to zrobić przy użyciu trzech
kresek? A czy da się to zrobić za pomocą tylko jednej kreski?
5. Co zrobić, aby zwiększyć bezpieczeństwo na drogach?

6. Jak zbudować wieżowiec na podmokłym, bagnistym terenie?

7. Dlaczego w Pekinie herbata jest droższa od kawy, mimo że Chiny nie


produkują kawy, są natomiast największym na świecie producentem
herbaty?

11.2.1. Podział problemów ze względu na ich cechy i strukturę


Problem konwergencyjny (zbieżny, convergent) – ma jednoznaczną odpowiedź; rozwiązanie go
wymaga myślenia zbieżnego, które bez względu na przyjętą strategię doprowadzi zawsze do tego
samego rezultatu końcowego.
Problem dywergencyjny (rozbieżny, divergent) – dopuszcza wiele rozwiązań, z których każde
może być poprawne. Rozwiązanie problemu angażuje procesy myślenia rozbieżnego podążającego
w wielu różnych kierunkach.

Przede wszystkim problemy można podzielić ze względu na charakter celu,


do którego dążymy. Problemy 1–3, przedstawione w ramce 11.1, mają
tylko jedno prawidłowe rozwiązanie, które trzeba po prostu odnaleźć.
Mimo to możliwe są różne strategie dochodzenia do rozwiązania. Aby
rozwiązać pierwszy problem, można np. zastosować wzór na powierzchnię
trójkąta, a następnie porównać obie uzyskane wartości, można narysować
oba trójkąty w skali 1:100, można też wywnioskować, że powierzchnia
jednego z nich jest zerowa, a drugiego – większa od 0. Każda z tych
strategii, jeśli zostanie poprawnie użyta, da zawsze ten sam końcowy
rezultat, czyli jednoznaczną odpowiedź. Problem tego typu ma charakter
konwergencyjny (zbieżny), wymaga też zbieżnego myślenia: niezależnie
od przyjętej strategii procesy poznawcze „zbiegają się” w jednym punkcie,
stanowiącym rozwiązanie problemu. Natomiast zadanie 5 jest typowym
przykładem problemu dopuszczającego wiele rozwiązań, z których każde
może spełniać wymagane kryteria poprawności. Tego typu problem ma
charakter dywergencyjny (rozbieżny), a procesy myślenia angażowane
w jego rozwiązywanie jak gdyby „rozbiegają się” w wielu kierunkach
(Guilford, 1959).

Innym sposobem uporządkowania problemów jest dymensja proste–


złożone, niekiedy mylnie utożsamiana z dymensją łatwe–trudne.
Złożoność problemu można definiować na wiele sposobów, jednak
najważniejszym kryterium wydaje się poziom komplikacji modelu
umysłowego, który adekwatnie opisuje strukturę problemu i proces jego
rozwiązywania (zob. Nęcka, Orzechowski, 2005). Natomiast dymensję
łatwe–trudne można rozumieć w kategoriach wysiłku poznawczego,
niezbędnego do wypracowania rozwiązania. Tak zwane problemy
wymagające wglądu (insight problems) są często proste, ale trudne do
rozwiązania (zob. podrozdz. 11.9.4). Co więcej, istnieją różnice
międzyosobnicze w postrzeganiu problemu jako łatwego albo trudnego czy
prostego lub złożonego. Problemy 6 i 7 będą zapewne trudne dla osoby,
która nie ma specjalistycznej wiedzy, a bardzo łatwe dla kogoś, kto nią
dysponuje. W obu przypadkach jednak będą to problemy raczej złożone,
ich rozwiązanie wymaga bowiem uwzględnienia wielu okoliczności, które
nie zostały zawarte w opisie problemu, a decydują o ostatecznym kształcie
rozwiązania. Kwestia różnic indywidualnych w rozwiązywaniu problemów
uwidacznia się szczególnie wyraźnie w badaniach nad ekspertami (zob.
rozdz. 4). Dla początkującego szachisty zrozumienie aktualnej sytuacji na
szachownicy i wymyślenie najlepszego posunięcia może być bardzo
złożonym procesem mentalnym, podczas gdy dla eksperta ta sama sytuacja
jest prosta. Ekspert dysponuje bowiem wiedzą, która podpowiada mu, że
w tej sytuacji jest tylko jedno najlepsze posunięcie. Badania nad ekspertami
szachowymi pokazały np., że zapamiętują oni średnio czterokrotnie więcej
pozycji figur na szachownicy niż nowicjusze (Chase, Simon, 1973a,
1973b), przy czym ani pamięć krótkotrwała, ani pamięć wzrokowa nie jest
u nich bardziej wydajna (Waters, Gobet, Leyden, 2002). O lepszym
zapamiętywaniu sytuacji szachowych decyduje w tym przypadku
umiejętność dostrzegania sensu w położeniu figur. W badaniach nad
pilotami wykazano z kolei, że w przypadku ekspertów aktywność
mózgowych ośrodków percepcyjno-motorycznych jest niższa niż
u nowicjuszy. Wyższa natomiast okazała się aktywność czołowych
i przedczołowych struktur korowych, biorących udział w planowaniu
czynności i podejmowaniu decyzji (Pérès, Van De Moortele, Pierard,
2000). Wydaje się więc, że percepcja sytuacji na planszy szachowej czy
w kokpicie samolotu jest zadaniem relatywnie prostym dla ekspertów,
a bardzo złożonym dla nowicjuszy. Przewaga tych pierwszych nie polega
na wyjątkowych zdolnościach poznawczych (np. bardzo pojemnej pamięci
roboczej), ale na umiejętności szybkiej, mało wysiłkowej analizy sytuacji,
a następnie na „inwestowaniu” zasobów poznawczych w planowanie
dalszych posunięć oraz podejmowanie decyzji.
Wgląd (insight) – nagła zmiana percepcji problemu, prowadząca do zrozumienia jego istoty,
poprzedzona zazwyczaj inkubacją. Można doświadczać go kilkakrotnie nawet podczas
rozwiązywania jednego problemu.

Jeśli problem zawiera wszelkie informacje niezbędne do jego rozwiązania,


czyli opis celu, kryteriów oceny jego osiągnięcia, danych początkowych
oraz dopuszczalnych reguł ich przekształcania, jest on dobrze określony
(well-defined; Reitman, 1965). Przykładem mogą być zadania 1–3, pod
warunkiem że dysponujemy elementarną wiedzą z zakresu matematyki.
Inaczej rzecz się przedstawia w przypadku problemu 4. Kiedy poznamy
rozwiązanie, nie będziemy go uważali ani za trudny, ani za złożony (ryc.
11.1), choć początkowo wielu osobom wydaje się nierozwiązywalny.
Decyduje o tym kilka czynników. Po pierwsze, problem wymaga
przezwyciężenia jednej z podstawowych przeszkód w rozwiązywaniu
problemów, czyli przyjętych ukrytych, a zarazem fałszywych założeń.
Odrzucenia wymaga przede wszystkim fałszywe założenie, że rozwiązanie
musi „się zmieścić” w planie kwadratu, zasugerowanym ułożeniem kropek.
Kiedy odrzucimy to założenie, rozwiązanie przychodzi nam do głowy
niemal od razu i od tej pory problem wydaje się prosty i łatwy do
rozwiązania. Zjawisko nagłej zmiany percepcji problemu, poprzedzone
zazwyczaj tzw. przerwą inkubacyjną, Wolfgang Köhler (1925) nazwał
wglądem. Problem dziewięciu kropek (Scheerer, 1963) jest przykładem
zadania wymagającego wglądu i w dodatku pozwala na kilkakrotne jego
doświadczenie.
Problem dobrze określony (well-defined) – zawiera wszystkie informacje potrzebne do jego
rozwiązania (opis i kryteria osiągnięcia celu, dane początkowe, operatory).
Problem źle określony (ill-defined) – nie ma jasno sprecyzowanego celu ani kryteriów jego
osiągnięcia, a instrukcja nie zawiera zasad dokonywania przekształceń i dopuszczalnej wielkości
zaangażowania środków dla realizacji zadania.

Drugim powodem, dla którego problem dziewięciu kropek może być


trudny, jest fakt, że wbrew pozorom nie jest on dobrze określony. Pojęcia
kropki i kreski nie muszą być rozumiane ściśle matematycznie, co
wykorzystują dwa rozwiązania przedstawione na rycinie 11.1. Gdyby
w treści zadania zamiast słowa „kropki” użyć słów „punkt” i „odcinek”,
rozwiązania te byłyby błędne, a problem miałby charakter konwergencyjny.
Połączenie kropek za pomocą trzech linii wymaga „zobaczenia” kropki
jako mającej pewien rozmiar, więc – matematycznie rzecz ujmując – jako
koła. Aby do rozwiązania zadania wystarczyła tylko jedna kreska, trzeba
z kolei ująć ją jako obiekt, który może mieć dowolną grubość, np. taką,
która pozwala na zawarcie w niej wszystkich dziewięciu kropek.
W instrukcji do tego zadania nie sprecyzowano dopuszczalnych
i niedopuszczalnych zasad dokonywania przekształceń i kryteriów oceny
rozwiązania. Jest to więc problem źle określony (ill-defined).
A szczególnie źle określone są problemy 5–7. W odniesieniu do poprawy
bezpieczeństwa na drogach w zasadzie nie sprecyzowano niczego. Cel
z pozoru wydaje się klarowny, ale bezpieczeństwo na drogach może być
różnie rozumiane. Nie wiadomo też, jakie są kryteria oceny rozwiązań ani
środki, które można zaangażować w realizację celu. Herbert Simon (1973)
uważa, że aby rozwiązanie problemu źle zdefiniowanego w ogóle było
możliwe, musi on zostać przekształcony w problem dobrze zdefiniowany.
Można tego dokonać, „kawałkując” złożony problem na mniejsze
fragmenty, które następnie należy dookreślić bądź przeformułować,
RYCINA 11.1. Standardowe i niestandardowe rozwiązania problemu dziewięciu kropek
Źródło: opracowanie własne.

zmieniając je w dobrze zdefiniowane podproblemy. Przekształcanie


problemu źle określonego w dobrze określony wymaga uzupełnienia
brakujących informacji. James Voss i Timothy Post (1988) dowiedli, że
w przypadku problemów źle określonych procesy poznawcze angażowane
w ich rozwiązywanie często są identyczne z tymi, które zidentyfikowano
w rozwiązywaniu problemów dobrze określonych.
Problem bogaty semantycznie (semantically rich) – charakteryzuje się strukturą, która jest dobrze
znana, mamy też pewien zasób doświadczenia w rozwiązywaniu takiego problemu. Dotycząca go
sieć semantyczna jest rozbudowana.
Problem ubogi semantycznie (semantically lean/poor) – nie mamy uprzedniego doświadczenia
w jego rozwiązywaniu (nie możemy dokonać transferu naszego doświadczenia do tej sytuacji), jego
struktura jest dla nas nowa. Sieć semantyczna związana z takim problemem jest uboga.

Inny podział dotyczy indywidualnego doświadczenia w rozwiązywaniu


problemów, które decyduje o semantycznej ich przestrzeni. Istnieją
problemy, których struktura jest nam ogólnie znana; dysponujemy też
pewnym zasobem doświadczeń w ich rozwiązywaniu, mimo że konkretny
problem w swoim sformułowaniu może być dla nas nowy. Są to problemy
bogate semantycznie (semantically rich), co oznacza, że sieć semantyczna
pojęć związanych z problemem (liczba węzłów i połączeń między nimi)
jest rozbudowana. Problemy 1–3 z ramki 11.1 wydają się tu dobrymi
przykładami. Problemy ubogie semantycznie (semantically lean/poor) nie
mogą być odniesione do naszych uprzednich doświadczeń, ponieważ ich
struktura jest dla nas zupełnie nowa; nie dostrzegamy możliwości transferu
dawniejszego doświadczenia do tej sytuacji. Dla większości ludzi,
wyłączając osoby zajmujące się zawodowo albo hobbystycznie
architekturą, problem 6 będzie miał taki właśnie charakter. Podział na
problemy semantycznie bogate i ubogie dotyczy nie tyle charakteru
problemów, ile różnic indywidualnych w zakresie wiedzy o nich. Jednakże
wiele tzw. łamigłówek (puzzles) konstruuje się w ten sposób, aby
możliwość transferu uprzedniego doświadczenia była maksymalnie
utrudniona (Harshman, MacHale, Sloane, 2003; Sloane, MacHale, 1997).
Są to więc ze swej natury problemy semantycznie ubogie.

Czy problemy 2 i 3 mają coś wspólnego poza identycznym rozwiązaniem?


Mimo że treść tych zadań jest różna, ich wewnętrzna struktura w istocie
jest identyczna. Problemy te mają zatem podobną strukturę głęboką,
chociaż ich struktura powierzchniowa jest odmienna. Ogólnie rzecz
biorąc, podobieństwo struktury powierzchniowej dotyczy przede
wszystkim danych początkowych, jakkolwiek reguły ich przekształcania
mogą się różnić. Są to więc problemy z pozoru podobne, jak zadanie
budowy wieżowca i domku jednorodzinnego. Z kolei podobieństwo
struktury głębokiej dotyczy raczej reguł przekształcenia i relacji
zachodzących między elementami składowymi obu problemów.
Problem otwarty – charakteryzuje się niewielką liczbą danych początkowych, niejasnym celem
i słabo zdefiniowanymi kryteriami jego osiągnięcia. Może mieć liczne i różnorodne rozwiązania.
Jest problemem źle określonym i dywergencyjnym.
Problem zamknięty – zawiera pełną porcję informacji z danymi potrzebnymi do osiągnięcia celu,
w związku z tym polega na wyborze jednego z możliwych alternatywnych rozwiązań. Jest
problemem dobrze określonym i konwergencyjnym.

Nieco odmienny charakter ma podział na problemy otwarte i zamknięte


(Kozielecki, 1968). Problemy otwarte charakteryzują się niewielką liczbą
danych początkowych, niejasnym celem i słabo zdefiniowanymi kryteriami
jego osiągnięcia. Możliwe są w ich przypadku liczne i różnorodne
rozwiązania. Problemy otwarte są zatem źle określone i dywergencyjne, jak
problem 5 z ramki 11.1. Jeśli problem otwarty jest zarazem złożony,
a ponadto dotyczy abstrakcyjnych zagadnień sztuki lub nauki, można go
nazwać dylematem. Natomiast problemy zamknięte zawierają pełną
dawkę informacji, z danymi dotyczącymi alternatywnych rozwiązań
włącznie. Problemy zamknięte polegają więc na wyborze jednego
z alternatywnych rozwiązań, co oznacza, że są to zadania dobrze określone
i konwergencyjne.

11.2.2. Podział problemów ze względu na wymagania


poznawcze
Problem ogólny (domain-general) – niezależny od jakiejkolwiek specyficznej dziedziny wiedzy.
Problem specyficzny dla dziedziny (domain-specific) – wymaga specyficznej bądź eksperckiej
wiedzy z określonej dziedziny, pozwalającej korzystać ze specyficznych strategii rozwiązywania.

Przede wszystkim problemy można podzielić ze względu na charakter


wiedzy, która jest potrzebna do znalezienia rozwiązania.
Najprawdopodobniej problemy 6 i 7 dla wielu Czytelników mogły okazać
się trudne do rozwiązania, gdyż wymagają specyficznej albo wręcz
eksperckiej wiedzy. Jeśli ktoś interesuje się gospodarką Chin albo
architekturą i dysponuje odpowiednią wiedzą, problemy te będą dla niego
trywialne bądź w ogóle nie będą problemami. Tego typu problemy są
specyficzne dla określonej dziedziny wiedzy (domain-specific);
specyficzne dla dziedziny są także strategie ich rozwiązywania. Oczywiście
nawet laik może mieć wiele pomysłów na uporanie się z nimi, ale zapewne
nie ma wystarczającej wiedzy na temat kryteriów oceny adekwatności
rozwiązań. Kwestia konstrukcji wieżowca na podmokłym terenie jest
realnym problemem, przed którym swego czasu stanęli architekci. Jedno ze
stosowanych rozwiązań polega na zbudowaniu fundamentów, które są
„puste” w środku. Charakteryzują się wobec tego wypornością, która –
odpowiednio obliczona – równoważy ciężar całej konstrukcji. Problem cen
kawy i herbaty w Pekinie jest również bardzo realny. Oba produkty są
stosunkowo drogie – kawa zapewne z powodu wysokich kosztów importu,
a herbata – Chiny są krajem smakoszy tego napoju – ze względu na jej
bardzo wysoką jakość.
Problemy 1–4 nie wymagają żadnej wiedzy, poza wyniesioną ze szkoły
podstawowej. Aby je rozwiązać, wystarczy zastosować proste zasady logiki
czy matematyki. Są to więc problemy ogólne, niezależne od jakiejkolwiek
specyficznej dziedziny wiedzy (domain-general). Nie znaczy to jeszcze, że
są proste. W zadaniu 1 poprawna jest odpowiedź pierwsza – trójkąt
o bokach 200, 300 i 400 cm ma większą powierzchnię, ponieważ
powierzchnia drugiego wynosi 0! W zadaniu 2 najczęściej wybieraną
odpowiedzią jest 24, podczas, gdy właściwa odpowiedź to 33 (Whimbey,
Lochhead, 1999). Rozrysowanie całego zadania nie pozostawia
wątpliwości, a dowód analityczny możliwy jest przy wykorzystaniu
zadania 3, ponieważ problemy 2 i 3 są matematycznie ekwiwalentne. Do
zadania 4 powrócimy w dalszej części rozdziału. Zadanie 5, dopuszczające
wiele równoważnych rozwiązań, jak wiele realnych problemów wymaga
wiedzy zarówno ogólnej, jak i specjalistycznej. Zapewne każdy
z Czytelników wymyślił wiele sposobów poprawy bezpieczeństwa na
drogach, np. umówienie się, że wszyscy kierowcy będą przestrzegać
przepisów. Nie trzeba do tego żadnej specjalistycznej wiedzy, a jako
kryterium jego adekwatności można przywołać powszechnie znany
przykład krajów Skandynawii. Można też jednak sobie wyobrazić, że
istnieją rozwiązania, które wymagają specjalistycznej wiedzy, przykładowo
z zakresu prawa (regulacje, które są dopuszczalne przez prawo) czy
psychologii (techniki perswazji, za pomocą których można próbować
wpłynąć na wyobraźnię kierowców).

Inna klasyfikacja problemów, pochodząca od Jamesa Greena (1978), opiera


się na zdolnościach czy operacjach umysłowych, angażowanych w procesie
ich rozwiązywania. Autor wyróżnia problemy polegające na
porządkowaniu materiału (arrangement), problemy wymagające indukcji
(inducting) albo problemy transformacyjne (transformation). Te
wymagające porządkowania materiału polegają na organizacji obiektów
według z góry określonych reguł. Obiekty mogą być organizowane na
wiele różnych sposobów, ale prawidłowe jest zazwyczaj tylko jedno
rozwiązanie. Przykładem tego typu problemów są anagramy (ramka 11.2,
zadanie 1), czyli zadania wymagające reorganizacji ciągu liter w taki
sposób, aby utworzyły sensowne słowo. Zdaniem Greena tego typu
problemy wymagają płynności w wytwarzaniu różnych możliwości oraz
giętkości w generowaniu rozwiązań cząstkowych (np. sylab, od których
zaczynają się sensowne słowa) i odrzucaniu tych, które nie są obiecujące.
Wymagają ponadto zdolności sprawnego wyszukiwania pojęć w pamięci
trwałej i znajomości zasad ułatwiających ich wyszukiwanie (np. znajomość
frekwencji układów liter występujących w języku naturalnym).

RAMKA 11.2

Rozwiąż te problemy
1. Anagram: odpowiednio przestawiając litery, utwórz sensowne słowo.

CJIEPYZRAL

2. Uzupełnij ciąg kolejną wartością, będącą jego logiczną kontynuacją.

1 2 8 3 4 6 5 6...

3. Zadanie polega na wykryciu analogii, czyli podobieństwa, łączącego


dwie pary słów. Słowa w pierwszej parze są w takiej samej relacji do
siebie, jak trzecie do brakującego, czwartego słowa, które należy wybrać
spośród przedstawionych opcji.

Szewc: but: : księgowa: ?


a) trzewik, b) pantofel, c) podatki, d) zeznanie podatkowe.

4. Zadanie również polega na wykryciu analogii. Tym razem należy


dodatkowo wziąć pod uwagę wskazówkę. Trzeba założyć, że jest ona
prawdziwa, po czym wybrać słowo, które najlepiej uzupełnia
analogię.

Wskazówka: Drzewa to jarzyny


Artysta: rzeźba: : jabłoń: ?

a) gałęzie, b) owoc, c) korzenie, d) bulwa.

Problemy wymagające indukcji (inducting) albo problemy o strukturze indukcyjnej –


zachowują niezmienne relacje między poszczególnymi elementami składowymi, a ich rozwiązaniem
jest odkrycie i zastosowanie tych relacji na podstawie skończonej liczby przedstawionych
przykładów (np. eksploracja serii lub uzupełnianie serii oraz transfer przez analogię).
Transfer przez analogię (analogical transfer) – szczególny przypadek transferu pozytywnego;
przeniesienie przez analogię odkrytej relacji łączącej parę lub więcej pojęć na inne pojęcia. Wymaga
dostrzeżenia relacji wyższego rzędu między problemami.

W problemach o strukturze indukcyjnej relacje między elementami


problemu są niezmienne, a zadanie polega na ich odkryciu i zastosowaniu.
W problemie 2 z ramki 11.2 należy odkryć, według jakich reguł ułożone
zostały cyfry, a następnie zgodnie z tymi regułami uzupełnić ciąg o kolejny
element. W przytoczonym przykładzie zastosowano jednocześnie dwie
reguły: pierwsza dotyczy par cyfr 1 2, 3 4, 5 6, a druga cyfr 8, 6, … . Ciąg
należało więc uzupełnić cyfrą 4. Jest to klasa problemów zwana
ekstrapolacją serii (series extrapolation) albo uzupełnianiem serii (series
completion). Indukcja polega tu na ustaleniu ogólnej reguły na podstawie
skończonej liczby podanych przykładów.

Innego typu problemy o strukturze indukcyjnej to zadania wymagające


transferu wiedzy poprzez zastosowanie analogii. Klasyczne zadania tego
typu mają postać zaprezentowaną w zadaniu 3 z ramki 11.2. Problem
polega na wskazaniu właściwego słowa, które – w pierwszym przykładzie
– uzupełnia analogię szewc: but: : księgowa: ?. Skoro szewc wykonuje albo
reperuje buty, to księgowa sporządza albo poprawia zeznania podatkowe
(odpowiedź „d”). Chodzi zatem o odkrycie relacji łączącej pierwszą parę
pojęć i przeniesienie jej na trzeci z podanych elementów i czwarty wybrany
z klucza odpowiedzi. Transfer przez analogię (analogical transfer) polega
na przeniesieniu przez analogię relacji odnalezionej w obrębie pierwszej
pary pojęć na drugą parę. Drugi przykład w zadaniu 3 jest nieco
trudniejszy, należy w nim uwzględnić wskazówkę, która jest absurdalna
(drzewa to jarzyny). Ponieważ trzeci człon analogii, czyli „jabłoń jest
drzewem”, należy – na potrzeby tego zadania – rozumieć w kategoriach
jarzyny. Skoro rzeźba może być „owocem” pracy artysty, owocem jabłoni
(rozumianej jako jarzyna) będzie bulwa. Oprócz pojęć języka naturalnego
w zadaniach tego typu mogą zostać użyte symbole matematyczne, figury
geometryczne itd. Analogia w takiej postaci ma względnie ścisły charakter
i świetnie nadaje się zarówno do badań eksperymentalnych, jak i do testów
zdolności umysłowych.

Badacze zgodnie twierdzą, że transfer przez analogię wymaga dostrzeżenia


relacji wyższego rzędu między problemami (Bassok, 2003; Gentner, 1983;
Sternberg, 1977a). Proces ten polega na ujęciu strukturalnego
podobieństwa problemów w abstrakcyjnej postaci, tj. niezależnie od treści
użytych zdań. W przykładzie szewc: but: : księgowa: ? należy abstrahować
od treściowego związku szewca z butem, ujmując relacje wyższego rzędu,
np. naprawianie czegoś przez kogoś. Jeśli odnieść tę relację do
księgowości, to staje się jasne, że chodzi o jakieś dokumenty księgowe, np.
zeznanie podatkowe. W tym konkretnym przypadku związek ujęty bardziej
konkretnie – reperowanie czy łatanie dziur, również może zostać użyty
w dostrzeganiu związku analogii, tyle że pojęcia te należy rozumieć
metaforycznie – reperowanie budżetu, łatanie dziur w budżecie. Metafora
jest jednak pewną formą abstrakcji, więc tak czy inaczej nie sposób
dostrzec analogii bez ujęcia relacji wyższego rzędu między problemami.
Odwzorowanie (mapping), bo tak nazywa się ten proces, polega zatem na
takim ujęciu relacji A : B (np. co robi szewc z butami?), aby można ją było
aplikować do obszaru semantycznego związanego z C (np. co robi
księgowa?). Gdyby jednak relację szewc : but ująć zbyt konkretnie – np.
szewc chodzi w butach, a księgowa w trzewikach – można by również
dopatrywać się związku analogii, ale ułomnego lub nieprecyzyjnego.
Oczywiście prawdą jest, że oboje zapewne chodzą w jakimś obuwiu, ale
relacja księgowa : trzewik (albo pantofel) nie ujmuje istotnego związku
zachodzącego między szewcem i butem. U podłoża takiego ułomnego
rozumowania leżą trudności w procesie abstrahowania, w wyniku których –
zamiast dostrzegać relacje wyższego rzędu i przenosić je z jednej dziedziny
do drugiej – kierujemy się zwykłym podobieństwem konkretnych cech.
O transferze przez analogię w realnych problemach mowa będzie przy
okazji omawiania czynników facylitujących proces rozwiązywania
problemów.

Transfer w rozwiązywaniu problemów może być negatywny, co badał


Abraham Luchins (1942; Luchins, Luchins, 1959), dając osobom badanym
do rozwiązania tzw. problem dzbanów z wodą (water jars problem).
Problem ten, a właściwie ich zestaw, polega na odmierzeniu określonej
ilości wody, mając nieograniczony dostęp do niej oraz do dyspozycji trzy
dzbany o zadanej pojemności. Osoby badane otrzymywały dziesięć tego
typu zadań (tab. 11.1). Ich zadaniem było wpisać formułę matematyczną,
która opisywała sposób uzyskania żądanej ilości wody. Pomiar dotyczył
poprawności i czasu rozwiązania każdego z dziesięciu problemów.
TABELA 11.1. Problem dzbanów z wodą

Problem Dzban A Dzban B Dzban C Żądana ilość wody

1 21 127 3 100

2 14 163 25 99

3 18 43 10 5

4 9 42 6 21

5 20 59 4 31

6 23 49 3 20

7 15 39 3 18

8 28 76 3 25

9 18 48 4 22

10 14 36 8 6

Źródło: opracowanie własne na podstawie Luchins, 1942.

W pierwszym zadaniu należy uzyskać 100 jednostek wody, mając do


dyspozycji dzbany o pojemności A = 21, B = 127 i C = 3. Rozwiązanie
polega na napełnieniu dzbana B, a następnie wylaniu części jego
zawartości, korzystając raz z dzbana A i dwukrotnie z dzbana C. Formuła
matematyczna wygląda zatem następująco: B – A – 2C. Każdy
z problemów 1–5 można rozwiązać, posługując się nią. Problemy 7 i 9
można rozwiązać na dwa sposoby: albo stosując wskazaną formułę, albo
w znacznie prostszy sposób: według wzoru A + C. Problemy 6 i 10 również
można rozwiązać na dwa sposoby: albo według formuły B – A – 2C, albo
A – C. Z całego zestawu tylko problem 8 nie da się rozwiązać według
wzoru B – A – 2C, a jedynie formułą A – C. Reasumując, formuła B – A –
2C działa niemal zawsze z wyjątkiem problemu 8, a problemy 6, 7, 9 i 10
można rozwiązać na dwa sposoby, przy czym drugie rozwiązanie jest
zawsze znacznie prostsze niż pierwsze. W badaniach Luchinsa udział
wzięły dwie grupy osób badanych. Grupa eksperymentalna rozwiązywała
pełny zestaw dziesięciu zadań, a grupa kontrolna – tylko pięć ostatnich.
Celem tej manipulacji było sprawdzenie, czy wystąpi transfer rozwiązań
z zadań 1–5 na zadania 6–10, a szczególnie na zadanie 8.
Nastawienia, efekt (set effect) albo efekt mechanizacji myślenia (mechanization of thought) –
schematyczne podejście do problemu, zgodne z wcześniej wytworzonym sposobem jego
reprezentacji lub utrwaloną procedurą poszukiwania rozwiązania; skutki transferu uprzednich
doświadczeń są negatywne, gdy struktura głęboka problemów jest różna.

W grupie eksperymentalnej 64% osób badanych nie rozwiązało problemu


8, a 79% użyło w zadaniach 9 i 10 formuły B – A – 2C. Dla porównania
w grupie kontrolnej zaledwie 5% osób nie rozwiązało zadania 8, a tylko
1% w zadaniach 9 i 10 zastosowało formułę B – A – 2C. Przemyślna
konstrukcja kolejnych zadań wywołała w grupie eksperymentalnej
tendencję do przenoszenia (transferu) rozwiązań z początkowych zadań na
kolejne. Wskaźnikiem wystąpienia transferu było systematyczne skrócenie
czasu rozwiązywania w obrębie pierwszych pięciu zadań. W tym
przypadku miało to sens (transfer pozytywny), ponieważ struktura zadań
powierzchniowa i głęboka była identyczna. Zmiana struktury głębokiej,
przy pozostawieniu powierzchniowych cech zadania 8, nie została
wychwycona przez większość badanych z grupy eksperymentalnej,
podczas gdy badani z grupy kontrolnej nie mieli z tym żadnych problemów.
Zjawisko zademonstrowane przez Luchinsa nosi nazwę efektu
nastawienia (set effect) albo efektu mechanizacji myślenia
(mechanization of thought) i obrazuje negatywne skutki transferu
uprzednich doświadczeń, jeśli głęboka struktura dwóch lub większej liczby
problemów jest różna. Do mechanizmów tych efektów wrócimy
w podrozdziale 11.6.2.
Trzecia grupa problemów wyróżniona przez Greena (1978) to problemy
transformacyjne. Problemy tego typu posiadają jasno zdefiniowany stan
początkowy, cel oraz reguły przekształcenia wraz z wszelkimi restrykcjami.
Zadanie wymaga „tylko” odpowiedniego zastosowania tych reguł w celu
transformacji stanu początkowego w docelowy. Jego trudność nie polega –
jak w przypadku poprzednich problemów – na dookreśleniu celu albo
zredefiniowaniu problemu, lecz na znalezieniu drogi przejścia z punktu
wyjścia do punktu docelowego. Bodaj najpopularniejszym na świecie
problemem tego typu jest gra w szachy, w której każda
z charakterystycznych cech problemu transformacyjnego jest ściśle
określona. Wiadomo, jaki jest punkt wyjścia, jaki cel należy osiągnąć
i jakie środki pozostają w naszej dyspozycji. Mimo to gra w szachy jest
jedną z bardziej wyrafinowanych rozrywek intelektualnych.

W badaniach nad problemami transformacyjnymi, i w ogóle dziedzinie


rozwiązywania problemów, karierę zrobił problem Wieży z Hanoi1 (Glass,
Holyoak, Santa, 1979). Zadanie to polega na „przeniesieniu” wieży
zbudowanej z trzech lub większej liczby krążków o różniej średnicy
z jednego pręta na inny (ryc. 11.2). Trzeba przy tym stosować się do trzech
zasad: można przenieść tylko jeden krążek w jednym ruchu, można
położyć tylko mniejszy krążek na większym, nie odwrotnie, i można kłaść
krążki tylko na prętach, a nie w innym miejscu, np. na stole. Omówienie
rozwiązania problemu znajduje się w podrozdziale 11.3.1. Czy potrafisz
w ten sposób przenieść wieżę zbudowaną z czterech, pięciu lub siedmiu
krążków?
RYCINA 11.2. Problem Wieży z Hanoi
Źródło: opracowanie własne na podstawie Glass i in., 1979.

RAMKA 11.3

Neuroobrazowanie procesu rozwiązywania


problemów
Najpopularniejsze obecnie techniki neuroobrazowania to pomiar
potencjałów skorelowanych z pobudzeniem (event-related potentials,
ERP), tomografia pozytonowa (positron emission tomography, PET)
i funkcjonalny rezonans magnetyczny (functional magnetic resonance
imaging, fMRI, zob. podrozdz. 1.2.3). Mimo że metody te są bardzo
obiecujące, jeśli chodzi o możliwość wyjaśnienia podłoża złożonych
procesów poznawczych, wyzwanie związane z ich użyciem w badaniach
nad rozwiązywaniem problemów polega na tym, że chodzi
o skomplikowaną aktywność, angażującą wiele elementarnych procesów
poznawczych, uruchamianych w krótkich odstępach czasu. Technika
ERP pozwala na uchwycenie szybkich zmian aktywności elektrycznej
kory, ale nie daje zadowalającej informacji o jej lokalizacji ani nie
pozwala na uchwycenie aktywności struktur leżących w głębszych
partiach mózgu. Pozostałe dwie techniki umożliwiają dość precyzyjne
lokalizowanie aktywności metabolicznej również głębokich struktur
mózgowych, ale ze względu na małą rozdzielczość czasową nie
wychwytują szybkich zmian tej aktywności.

Baker i współpracownicy (1996) przedstawili wyniki neuroobrazowania


procesu rozwiązywania zmodyfikowanej wersji problemu Wieży
z Hanoi (Wieża z Londynu, Tower of London, ToL; Shallice, 1982)
z użyciem techniki PET. Osobom badanym prezentowano dwa układy
trzech różnokolorowych kul umieszczonych w kieszeniach o pojemności
jednej, dwóch albo trzech kul (ryc. 11.3). Dolny układ reprezentował
stan początkowy, a górny – stan docelowy. Osoba badana powinna była
zaplanować sposób transformacji stanu początkowego w końcowy
i policzyć minimalną liczbę ruchów, której to wymaga. Wyboru
dokonywano poprzez dotknięcie odpowiedniego pola na panelu
wyświetlonym u dołu specjalnego, wrażliwego na dotyk ekranu.
Wszystkie reguły oryginalnego problemu Wieży z Hanoi zostały w tej
wersji zadania zachowane. Manipulacja poziomem trudności (dwa
poziomy) dotyczyła liczby ruchów, których wymagała poprawna
transformacja. Zadania łatwe wymagały dwóch lub trzech ruchów,
a trudne – czterech lub pięciu. Zadanie to różni się znacznie od
oryginału, ale tylko w warstwie powierzchniowej, ponieważ głęboka
struktura problemu jest taka sama jak w wersji klasycznej. Podobne są
też wymagane w obu zadaniach procesy poznawcze. Wszelkie operacje
transformacji musiały być zaplanowane i symbolicznie wykonane „w
wyobraźni”, a wyniki kolejnych przekształceń – przechowane w pamięci
roboczej. Zgodnie z oczekiwaniami w trakcie wykonywania zadania
odnotowano aktywność korową korespondującą z angażowaniem
wzrokowo-przestrzennej pamięci roboczej, procesów planowania oraz
selekcji i ewaluacji reakcji.

RYCINA 11.3. Zmodyfikowany problem Wieży z Hanoi, użyty w badaniach Bakera


i współpracowników
Stan początkowy i końcowy pokazano na dolnym i górnym obrazku. Osoba badana ma za
zadanie określenie minimalnej liczby ruchów, za pomocą których można przekształcić stan
początkowy w końcowy. Reakcja polega na przyciśnięciu odpowiedniej liczby na panelu
dotykowym monitora, wyświetlonym na dole ekranu.
Źródło: opracowanie własne na podstawie Baker i in., 1996.

Problemy transformacyjne były przedmiotem nie tylko badań


psychologicznych, lecz także symulacji komputerowych i – ostatnio –
badań z wykorzystaniem technik neuroobrazowania (ramka 11.3). Tak duże
zainteresowanie zawdzięczają kilku czynnikom. Po pierwsze, są dobrze
określone, a więc manipulując wybranymi elementami zadania, można
precyzyjnie wpływać na przebieg procesu ich rozwiązywania. To bardzo
istotna właściwość z punktu widzenia psychologii eksperymentalnej. Po
drugie, łatwo śledzić sposób rozwiązywania problemu, kolejne
przekształcenia mają bowiem jednoznaczne odzwierciedlenie w postaci
nowego układu (np. układu krążków w problemie Wieży z Hanoi). Część
problemów transformacyjnych daje się rozwiązać za pomocą algorytmu,
czyli ścisłego i jednoznacznego przepisu działania, zawierającego
sekwencje operacji, jakie należy wykonać, aby osiągnąć określony cel.
Z tego powodu problemy te można łatwiej modelować z użyciem
komputerów niż te, dla których nie znamy algorytmu albo takowy po
prostu nie istnieje. Nie znamy obecnie algorytmu opisującego fizykę
„czarnych dziur”, choć najprawdopodobniej ten istnieje. Nie istnieje
natomiast algorytm, który mówiłby nam, jak postępować, aby zdobyć
uznanie ludzkości. W tym ostatnim przypadku można co najwyżej zdać się
na heurystykę, czyli nieformalną, spekulatywną, uproszczoną albo
skrótową metodę rozwiązywania problemów lub podejmowania decyzji,
ryzykowną i zawodną. Heurystyka podpowiada, jakimi metodami
rozwiązywać problemy, których doskonałe albo jedyne rozwiązania nie są
znane. Szczególną cechą algorytmu jest jego powtarzalność – operacje
wchodzące w jego skład dają zawsze taki sam efekt (Hunt, 1975).
W przypadku heurystyki – przeciwnie – kolejne jej użycie w niezmienionej
postaci prowadzi zazwyczaj do innego rezultatu. Heurystyka w szerszym
znaczeniu jest metodologią twórczego działania (Góralski, 1980) czy wręcz
osobną dziedziną wiedzy zajmującą się twórczym rozwiązywaniem
problemów (Polya, 1957). W tym sensie jest ona mniej lub bardziej
spójnym systemem, zawierającym zestawy technik rozwiązywania
problemów, dopasowane do różnych typów zadań (zob. Nęcka, 1994b;
Proctor, 2002).

Gerd Wagner i współpracownicy (Wagner, Koch, Reichenbach, Sauer,


Schlösser, 2006) przedstawili wyniki neuroobrazowania procesu
rozwiązywania problemów z użyciem techniki fMRI. W swoim badaniu
posłużyli się zadaniem Wieży z Londynu (ToL). Autorzy byli szczególnie
zainteresowani neuronalnym podłożem planowania kolejnych ruchów
w tym zadaniu (co jest istotą jego poprawnego wykonania), w związku
z czym zastosowali warunki kontrolne zadania ToL, które nie wymagały
tego komponentu. Udało im się wykazać, że za planowanie w zadaniu ToL
odpowiada wielowęzłowa sieć, składająca się z brzuszno-bocznej kory
przedczołowej w prawej półkuli, grzbietowo-bocznej kory przedczołowej
w obu półkulach oraz kory bieguna czołowego w lewej półkuli. Dodatkowo
aktywacje związane planowaniem zaobserwowano w korze ciemieniowej,
przedruchowej obustronnie i w prawym wzgórzu. Wagner z zespołem
wykazali istotną rolę kory bieguna czołowego w planowaniu kolejnych
etapów rozwiązywania w tym zadaniu. Ich wyniki są pod tym względem
zgodne z wcześniejszymi badaniami Bakera i współpracowników, którzy
również dowiedli aktywności lewej kory bieguna czołowego w planowaniu
ruchów w zadaniu ToL.

Oprócz badań z użyciem technik funkcjonalnego neuroobrazowania istotny


wkład w zrozumienie procesu rozwiązywania problemów mają badania
neuropsychologiczne nad pacjentami z uszkodzeniami mózgu (Shallice,
Cipolotti, 2018; Szczepanski, Knight, 2014). Badania te opierają się na
analizie wykonania zadań poznawczych przez pacjentów z dobrze
zlokalizowanymi lezjami tkanki mózgowej. Jak podkreślają Tim Shallice
i Lisa Cipolotti (2018), badania neuropsychologiczne przynoszą nieco
odmienny obraz neuronalnego podłoża rozwiązywania problemów niż
badania z użyciem neuroobrazowania. Jedna z najważniejszych różnic
dotyczy lateralizacji funkcji mózgowych – badania oparte na technikach
neuroobrazowania często wykazują podobne lub tylko nieco różne
obustronne aktywacje poszczególnych obszarów kory w trakcie
rozwiązywania zadań, natomiast wyniki badań na pacjentach wyraźnie
sugerują istotne zróżnicowanie funkcji prawej i lewej półkuli, związanych
z tym procesem.

11.3. Teorie rozwiązywania problemów

11.3.1. Teoria Newella i Simona


Teoria rozwiązywania problemów zaproponowana przez Allena Newella
i Herberta Simona (Newell, Shaw, Simon, 1958; Newell, Simon, 1972;
Simon, Newell, 1971) zrywała z wcześniejszymi koncepcjami na dwa
sposoby. Po pierwsze, badacze skonstruowali swoją teorię w nowym na
ówczesne czasy paradygmacie informacyjnoprzetworzeniowym (Neisser,
1967). Ich teoria, podobnie jak cały paradygmat, opierała się na założeniu,
że umysł człowieka jest systemem przetwarzania informacji. Aby go
poznać, należy skoncentrować się na procedurach (programach) tworzenia
i przekształcania reprezentacji poznawczych (Nosal, 1990). Chodzi o to,
w jaki sposób nasz umysł, operując na wewnętrznych reprezentacjach
otaczającego go świata, przetwarza informację w celu osiągnięcia
określonych celów – poczynając od zachowania homeostazy organizmu,
a kończąc na rozwiązywaniu wyrafinowanych problemów intelektualnych.
Po drugie, teoria Newella i Simona zawiera komputerową symulację
procesu rozwiązywania problemów (general problem solver, GPS). We
współczesnej psychologii poznawczej symulacja stała się poważnym
narzędziem wspomagającym konstruowanie modeli psychologicznych
i generowanie hipotez. Dla Newella i Simona symulacja była sposobem
dotarcia do nieobserwowalnych procesów poznawczych, składających się
na proces rozwiązywania problemów, a co za tym idzie – miała prowadzić
do ujęcia myślenia nie jako czegoś magicznego i niepoznawalnego, lecz
ujmowanego w języku instrukcji dla komputera (Newell, Simon, 1972).
Z tych powodów ich teoria była przełomowa i wyznaczyła sposób myślenia
o rozwiązywaniu problemów, nadal inspirujący badaczy.

Newell i Simon zdefiniowali problem jako układ stanów wiedzy


(knowledge states), czyli konfigurację wewnętrznych reprezentacji,
odnoszących się do sytuacji problemowej. Pełna reprezentacja problemu
zawiera, jak pisano na wstępie, cztery charakterystyki (Medin, Ross,
Markman, 2004). W koncepcji Newella i Simona są to: reprezentacja stanu
początkowego (initial state), reprezentacja celu (goal state), dopuszczalne
reguły przekształcenia stanów wiedzy (legal operators) i restrykcje
(restrictions, constraints) wobec operatorów, czyli szczególne przypadki
przekształceń, które są nielegalne. Przykładowo, w problemie Wieży
z Hanoi (zob. ryc. 11.2) podstawowym operatorem, z pomocą którego
dokonuje się przekształceń stanu początkowego w docelowy, jest ruch
krążka. Istnieją jednak trzy restrykcje, ograniczające rodzaj dopuszczalnych
ruchów, np. ta, że większy krążek nie może się znaleźć na mniejszym.
W przypadku problemów źle określonych co najmniej jeden z tych
elementów jest niedookreślony. W problemie budowy wieżowca na
podmokłym terenie (zob. ramkę 11.1) właściwie żaden z elementów jego
reprezentacji nie został jasno określony. Natomiast w przykładzie
dziewięciu kropek brakuje tylko restrykcji wobec operatorów, co daje
możliwość szukania nietrywialnych rozwiązań tego problemu.

Przekształcenia stanów wiedzy dokonują się w tzw. przestrzeni problemu


(problem space), która oprócz jego reprezentacji zawiera wszystkie
„półprodukty” przetwarzania informacji, np. stany wiedzy reprezentujące
kolejne przekształcenia stanu początkowego i towarzyszące im niekiedy
cele pośrednie2. Rozwiązanie problemu Wieży z Hanoi wymaga co
najmniej siedmiu ruchów, czyli między stanem początkowym a celem
pojawia się sześć stanów pośrednich, a ostatni ruch prowadzi do celu,
którego reprezentacja powstaje już w trakcie analizy problemu. Konieczne
ruchy przedstawiono na rycinie 11.4. Celem pośrednim może być np.
przeniesienie największego krążka na pręt C. Aby to zrobić, trzeba
osiągnąć cel bardziej szczegółowy, tj. przenieść najmniejszy i średni krążek
na jeden pręt, byle nie był to pręt C. Analizy celów i stanów pośrednich
Newell i Simon dokonali za pomocą analizy protokołów werbalnych,
będących zapisem kroków, w jakich ludzie rozwiązują problemy. Okazało
się to użyteczne zarówno do stworzenia modelu GPS, jak i do opisu
ogólnych heurystyk rozwiązywania problemów (zob. podrozdz. 11.4).
RYCINA 11.4. Rozwiązywanie problemu Wieży z Hanoi
Ruchy od stanu 1 do 2 i 3 (lewa strona) prowadzą do optymalnego rozwiązania w siedmiu ruchach.
Ruchy od stanu 1 do 4 i 5 (prawa strona) nie są optymalne, bo wydłużają proces rozwiązywania
problemu.
Źródło: opracowanie własne.

Reprezentacja problemu w przestrzeni problemu ma charakter


indywidualny, bo zawiera tylko takie informacje, które zostały przez osobę
rozwiązującą problem do niej włączone. Natomiast wszystkie potencjalne
stany wiedzy, jakie – zgodnie z regułami przekształceń – mogą się pojawić
w przestrzeni problemu, stanowią tzw. przestrzeń stanów (state space).
W przypadku Wieży z Hanoi składającej się z trzech pięter takich
potencjalnych stanów jest 27. W przypadku szachów ich liczbę szacuje się
na 10120, dlatego jak dotychczas żaden komputer nie jest w stanie ich
wszystkich wyliczyć. Tym bardziej fascynujące jest to, że człowiek –
posługując się tylko drobną częścią stanów wiedzy z przestrzeni stanów
dostępnych w danej partii szachów – tak świetnie radzi sobie w tej grze.
Mimo że teoretycznie obydwa problemy – Wieży z Hanoi i partii szachów
– można rozwiązać, posługując się algorytmem, okazało się, iż znacznie
bardziej przydatne i częściej stosowane są tutaj uproszczone heurystyki.

Jedno z założeń przyjętych przez Newella i Simona (1972) dotyczyło


sekwencyjnej natury procesu myślenia, leżącego u podłoża rozwiązywania
problemów. Założenie to uzasadniono na podstawie danych,
zgromadzonych metodą protokołów werbalnych (paradygmat 11.1).
W szczególności powoływano się na dwa argumenty. Po pierwsze – jak się
wydawało – ludzie werbalizowali wszystkie stany pośrednie i operacje,
które prowadziły do rozwiązania. Werbalizacja odpowiadała więc logicznej
strukturze zadania, którą można przedstawić jako sekwencję kolejnych
stanów wiedzy. Po drugie, werbalizacja pomagała osobom badanym
w szybszym odnalezieniu rozwiązania, czyli wspomagała proces
umysłowy, który w takim razie – jako sądzono – musi mieć charakter
sekwencyjny. Gdyby miał inny charakter, werbalizacja w trakcie jego
trwania byłaby czynnikiem przeszkadzającym, a nie pomagającym. Oba
założenia okazały się fałszywe, jednak wnioski autorów dotyczące
heurystyk stosowanych podczas rozwiązywania problemów, oparte nie na
założeniach, a na wynikach badań empirycznych, wydają się trafne.

Paradygmat 11.1

Metoda protokołów werbalnych

Metoda protokołów werbalnych polega na rejestrowaniu i interpretowaniu


wypowiedzi, generowanych przez osobę badaną podczas rozwiązywania
problemu. Badanego prosi się, aby „głośno myślał”, relacjonując wszystko,
co przychodzi mu do głowy. Badacza interesuje to, w jaki sposób uczestnik
eksperymentu werbalizuje treść problemu, jakie stawia sobie pytania, jak
komentuje uzyskane rezultaty, w jaki sposób reaguje na trudności itd.
Wielu psychologów uważa, że jest to metoda odwołująca się do
introspekcji, z wszelkimi znanymi jej wadami. Jednak właściwie
zastosowana metoda protokołów werbalnych nie musi oznaczać powrotu
do introspekcjonizmu. Wypowiedzi osoby badanej poddaje się bowiem
starannej interpretacji, traktując je jak zewnętrzne przejawy
nieobserwowalnych procesów umysłowych, a nie jak rzetelne
sprawozdanie z „naocznej” ich obserwacji. Żaden z badaczy posługujących
się tą metodą nie łudzi się, że człowiek jest w stanie na bieżąco
obserwować działanie swojego umysłu, a ponadto formułować ścisłe
sprawozdania z tej obserwacji. Wypowiedzi werbalne to raczej rodzaj
zachowania, które może być jedną ze wskazówek dotyczących przebiegu
procesu poznawczego. Mimo niedoskonałości i wyrywkowego charakteru
takich wskazówek badacz może na ich podstawie domyślać się wielu
interesujących kwestii, np. tego, jak osoba badana przedstawia sobie istotę
problemu, gdzie upatruje źródeł trudności, w jakim kierunku zmierza,
kiedy i pod wpływem jakich okoliczności zmienia strategię rozwiązywania
problemu, czy i kiedy doznaje wglądu.

Ponieważ człowiek ma bardzo słaby dostęp do swoich procesów


umysłowych, wyniki takiego postępowania badawczego często przynoszą
rozczarowanie. Newell i Simon (1972) korzystali w swoich badaniach
z metody protokołów werbalnych, przyznając, że ich analiza jest
kłopotliwa. Badacze ci często mieli problem z uogólnieniem uzyskanych
w ten sposób rezultatów. Niemniej z braku lepszych sposobów
„podglądania” funkcjonowania umysłu osoby rozwiązującej problem
metoda protokołów werbalnych stosowana jest również obecnie.

K. Anders Ericsson i Herbert Simon (1993) wyróżnili trzy rodzaje


interesujących badacza wypowiedzi.

Typ I to werbalizacja bezpośrednia, która polega na relacjonowaniu tego,


co „mówi” głos wewnętrzny. Można ją więc zastosować do problemów
o naturze werbalnej np. do śledzenia wykonywania w pamięci złożonych
operacji arytmetycznych. Zdaniem autorów nie dochodzi wówczas do
zakłócania werbalizacji z „normalnym” przebiegiem rozwiązywania
problemu. Werbalizacja ani nie powinna spowalniać wykonywania zadania,
ani nie wymaga wprowadzenia do procesu rozwiązywania problemu żadnej
dodatkowej operacji poznawczej związanej z głośnym myśleniem.

Typ II to werbalizacja zawartości pamięci krótkotrwałej (short-term


memory, STM), która polega na opisaniu jakiegoś aspektu aktualnego stanu
procesu rozwiązywania problemu, np. przywołanego w danym momencie
wyobrażenia. Werbalizacja wymaga w tym przypadku przełożenia kodu
obrazowego na werbalny. Jeśli problem jest złożony, nie tylko wpływa ona
na czas jego wykonania, lecz także – ponieważ jest procesem wysiłkowym
(Kaplan, Simon, 1990) – pochłania zasoby mentalne, odbierając je
wykonywanemu zadaniu. Zdaniem Ericssona i Simona nie oddziałuje to
jednak na układ sekwencji stanów w przestrzeni problemu.

Typ III to werbalizacja, która polega na chwilowym przerwaniu procesu


rozwiązywania problemu i wyjaśnieniu, dlaczego podjęto określone
działanie (zastosowano dany operator), czemu to miało służyć (jaki podcel
ono realizuje) itd.
Autorzy podkreślają, że niekiedy tego typu werbalizacja może mieć
korzystny wpływ na proces rozwiązywania problemu (Ballstaedt, Mandl,
1984; Berry, Broadbent, 1984), jednak zwykle zaburza jego przebieg. Na
przykład werbalizacja może ułatwiać proces rozwiązywania problemów,
zwiększając objętość przypominanego tekstu, po jego wcześniejszym
przeczytaniu na głos (Ballstaedt, Mandl, 1984). Uważa się jednak, że jest to
efekt zapośredniczony. Dzięki werbalizacji aktywowana jest pamięć
słuchowa, w konsekwencji uwalniając część pamięci roboczej. Ponieważ ta
ostatnia zwykle jest przeciążona w trakcie rozwiązywania złożonych
problemów, jej odciążenie w widoczny sposób poprawia wykonanie
zadania (Robertson, 2001).

11.3.2. Inne ujęcia teoretyczne procesu rozwiązywania


problemów
Wydaje się, że powstające później teorie rozwiązywania problemów,
utrzymujące się w nurcie poznawczym, nie wprowadzały jakościowych
zmian do ujęcia zaproponowanego przez Newella i Simona (1972). Na
przykład Greeno (1978, 1980) dokonał rozwinięcia ich teorii, akcentując
dwa istotne procesy obecne w rozwiązywaniu problemów: (1) tworzenie
reprezentacji problemu (przestrzeni problemu) oraz (2) przeszukiwanie
przestrzeni problemu (ryc. 11.5).

RYCINA 11.5. Diagram przedstawiający schemat procesu rozwiązywania problemów.


Źródło: opracowanie własne na podstawie Gick, 1986, s. 101.

Utworzenie reprezentacji problemu wymaga zebrania danych


początkowych i określenia celu. Jest to warunkiem zrozumienia istoty
problemu i zintegrowania go z posiadaną wiedzą. Procesy angażowane
w zrozumienie istoty problemu polegają na analizie relacji zachodzących
między elementami problemu i rozpoznaniu wzorców w obrębie
zidentyfikowanych relacji. W trakcie tworzenia reprezentacji problemu
pewne jego właściwości mogą uaktywniać wiedzę zapisaną w pamięci
długotrwałej. Mogą to sprawić zarówno dane początkowe, dostarczone
z zewnątrz, jak i efekty późniejszej ich analizy. Jeśli w rezultacie tych
analiz odnaleziona zostanie właściwa informacja, uaktywnia się schemat
charakterystyczny dla danego typu problemu. Schemat rozumiany jest
przez autora jako pewna porcja wiedzy odnosząca się do danego typu
problemów. W jej skład wchodzą cele typowe dla tej grupy problemów,
restrykcje i użyteczne strategie poszukiwania rozwiązań (zob. Gick,
Holyoak, 1983).

Uaktywnienie schematu w trakcie budowania reprezentacji problemu


wyzwala „przeskok” do fazy implementacji strategii poszukiwania
rozwiązania. Realizacji strategii towarzyszy kontrola, której celem jest
dopasowanie strategii do określonego typu zadania. Jeśli jednak nie nastąpi
uaktywnienie któregoś ze znanych schematów, konieczne jest pełne
przeprowadzenie fazy poszukiwania strategii. Wówczas mogą mieć
zastosowanie heurystyki opisane przez Newella i Simona (zob. podrozdz.
11.4). Mary Gick (1986), dokonując przeglądu strategii rozwiązywania
problemów, uzupełniła tę listę o strategie pozyskiwania informacji (Simon,
1978), planowania (Greeno, 1976) czy wykorzystania transferu przez
analogię. Kompleksowego przeglądu strategii twórczego rozwiązywania
problemów dokonał Edward Nęcka (1995).

Ponieważ stosowane strategie poszukiwania rozwiązań, a także operacje


składające się na ich realizację, wynikają zarówno z wiedzy jednostki, jak
i ze struktury problemu, trudno o skonstruowanie uniwersalnego modelu.
Problemy źle zdefiniowane będą raczej wymagały zaangażowania strategii
ułatwiających pozyskanie informacji albo dokonania redefinicji problemu,
co jest najzupełniej zbędne w problemach dobrze zdefiniowanych. Niektóre
strategie są jednak na tyle elastyczne, że można je zastosować w obu
przypadkach; np. transfer przez analogię może służyć zarówno
doprecyzowaniu problemu, jak i poszukiwaniu rozwiązań. Dlatego
przyjmuje się, że procesy angażowane w rozwiązywanie problemów
dobrze i źle określonych mogą być podobne (Greeno, 1980; Simon, 1973).

11.4. Heurystyki rozwiązywania problemów


Wcześniej zdefiniowano heurystykę jako nieformalną, spekulatywną,
uproszczoną albo skrótową metodę rozwiązywania problemów lub
podejmowania decyzji, ryzykowną i zawodną. Systematyczny opis
heurystyk rozwiązywania problemów należałoby zacząć od metody prób
i błędów, polegającej na dokonywaniu przypadkowych zestawień
elementów sytuacji problemowej, w oczekiwaniu, że któreś z nich okaże
się rozwiązaniem problemu. Przeszukiwanie pola problemowego odbywa
się wówczas losowo lub przypadkowo. Metoda ta nie wymaga myślenia, co
wydaje się istotne, bo pokazuje, że jest możliwe rozwiązywanie problemów
bez udziału myślenia (jak też myślenie, które nie polega na rozwiązywaniu
problemów; Nęcka, 1992/1997). Metodę prób i błędów trudno byłoby
jednak uznać za heurystykę, ponieważ brak jej systematyczności
i intelektualnego charakteru. Metoda heurystyczna to świadomie
i konsekwentnie stosowany zestaw reguł postępowania służący osiągnięciu
określonego celu, natomiast zdecydowana większość przypadków użycia
metody prób i błędów ani nie wymaga świadomości, ani nie jest
przeprowadzana według jakichkolwiek reguł, gdyż reguła z definicji jest
czymś nieprzypadkowym.
Dalej omówiono najważniejsze heurystyki rozwiązywania problemów,
opisywane w literaturze przedmiotu. Osobną kategorię stanowią heurystyki
twórczego rozwiązywania problemów (zob. Proctor, 2002) i heurystyki
podejmowania decyzji (np. Gigerenzer, Todd, 1999; Gigerenzer, Hertwig,
Pachur, 2011; Kahneman, Tversky, 1972; zob. rozdz. 12). Jak podkreślają
teoretycy, metody te są bardzo ogólne, mają bowiem zastosowanie do
szerokiej klasy problemów, a wykorzystywanie niektórych z nich
zaobserwowano również u zwierząt.

11.4.1. Metoda redukcji różnicy


Metoda redukcji różnicy (difference-reduction) zwana jest też, bardziej
metaforycznie, heurystyką „wspinania się” (hill climbing). Rozwiązywanie
problemu można porównać do wspinania się z zawiązanymi oczami na
szczyt wzgórza. Wejście na szczyt jest równoznaczne z osiągnięciem celu.
O tym, w którym kierunku pójść, decyduje nachylenie terenu. Intuicja
podpowiada nam, że zawsze należy podążać w kierunku, który wiąże się
z ruchem w górę. Jeśli wszystkie dostępne drogi prowadzą w dół, oznacza
to, że osiągnęliśmy szczyt. Posłużenie się tą heurystyką w rozwiązywaniu
problemów oznacza, że każde kolejne przekształcenie stanu wiedzy
powinno być konfrontowane z celem i maksymalnie redukować różnicę
między stanem aktualnym a docelowym. Przed wykonaniem kolejnego
przekształcenia należy wygenerować potencjalne stany wiedzy,
dopuszczalne w danej sytuacji, a następnie zastosować przekształcenie
(operator), które maksymalnie przybliży nas do celu. O prostocie tej
heurystyki decyduje fakt, że nie planuje się pełnej ścieżki przeszukiwania
pola problemowego, co niekiedy jest po prostu niewykonalne. Przykładowo
w grze w szachy każdy kolejny ruch uzależniony jest od reakcji
przeciwnika, a liczba potencjalnych posunięć rośnie wykładniczo wraz
z postępem gry. Po wykonaniu trzeciego ruchu białych pionków liczba
możliwych kolejnych posunięć wynosi 7,5 miliona, a po trzecim ruchu
czarnych – już 225 milionów (Holding, 1985).

W heurystyce redukcji różnicy wyboru operatora dokonuje się tylko ze


względu na jedno przekształcenie. Jeśli np. chcemy dotrzeć z Krakowa do
Kołobrzegu, to dzięki różnym operatorom (środkom transportu) możemy
bezpośrednio osiągnąć cel (podróż samochodem lub pociągiem sypialnym),
a jeśli jest to niemożliwe, możemy zastosować metodę stopniowego
zbliżania się do celu (np. podróż pociągiem z dwiema przesiadkami:
w Warszawie i w Poznaniu, albo podróż samolotem z Krakowa do
Koszalina i dalej autobusem). Tak czy inaczej, każdy kolejny etap podróży
ma nas przybliżać do celu, a nie od niego oddalać. Korzyścią tej heurystyki
jest to, że im bliżej celu, tym większa dostępność dodatkowych operatorów,
np. odwołując się do przedstawionego przykładu – innych środków
transportu. Kiedy znajdziemy się już w Koszalinie, możemy skorzystać
z kolei, autobusu, lokalnego transportu mikrobusowego albo pojechać
autostopem. Jej wadą, wracając do metafory wspinaczki, jest to, że mając
zawiązane oczy, możemy nie osiągnąć zamierzonego szczytu, ale po prostu
„wejść” na przypadkowe „wzgórze” – najwyższe w okolicy, ale nie
najwyższe w ogóle. Na przykład dotarcie do Koszalina nie będzie
najlepszym posunięciem, jeśli znajdziemy się tam wieczorem i na transport
do Kołobrzegu trzeba będzie poczekać do rana. Czasem też dobrze jest
w podróży na jakiś czas oddalić się od celu, aby wybrać połączenie
łatwiejsze lub wygodniejsze, choć dłuższe.
Problemy izomorficzne (isomorphic) – charakteryzują się identyczną strukturą głęboką, choć różnią
się treścią, czyli strukturą powierzchniową.

Heurystykę redukcji rozbieżności najczęściej badano z wykorzystaniem


problemu Misjonarzy i Kanibali (Reed, Ernst, Banerji, 1974) albo którejś
z jego odmian, np. problemu Hobbitów i Orków (Greeno, 1974; Thomas,
1974) czy problemu Miłośników i Podpalaczy Książek (Sternberg, 1996b).
Głęboka struktura tych problemów jest identyczna, czyli są to tzw.
problemy izomorficzne. Trzech Hobbitów i trzech Orków, chcąc
przedostać się przez rzekę, znalazło łódź. Łódź jest mała – mieści nie
więcej niż dwa stworzenia. Należy znaleźć najprostszy schemat
przeprawienia przez rzekę całej szóstki. Nie może się jednak zdarzyć, aby
w którymkolwiek momencie liczba Orków na którymkolwiek z brzegów
była większa niż liczba Hobbitów, ci ostatni bowiem zostaliby zjedzeni.
Należy przyjąć, że wszyscy pasażerowie wysiadają z łodzi po przepłynięciu
rzeki (nie można nikogo zostawić na pokładzie) i konieczna jest obecność
w łódce co najmniej jednego stworzenia w każdej przeprawie. Problem ten
można rozwiązać w minimum 11 ruchach (ryc. 11.6).

W zadaniu możliwe są dwa rodzaje ruchów – takie, które przybliżają nas


do rozwiązania, i takie, które pozwalają na powrót do poprzedniego stanu.
Badania Greena (1974) wykazały, że ponad 30% badanych ze stanu „H”
powraca do stanu „G”, a nie decyduje się na ruch prowadzący do stanu „I”.
Jest to bowiem ruch pozornie błędny, w którym dwójka pasażerów wraca
na „niewłaściwą” stronę rzeki. Ruch ten wydaje się oddalać nas od
rozwiązania problemu, gdyż zwiększa rozbieżność między stanem
początkowym a docelowym, zamiast ją redukować. Wracając do przykładu
wspinania się z zamkniętymi oczami, to tak, jak gdyby próbując wyjść na
szczyt, zacząć schodzić.

RYCINA 11.6. Rozwiązanie i przestrzeń stanów problemu Hobbitów i Orków.


Źródło: opracowanie własne na podstawie Greeno, 1974; Thomas, 1974.

Z kolei John Thomas (1974) interesował się tym, co właściwie stanowi


o trudności – wydawałoby się łatwego – problemu Hobbitów i Orków.
Podzielił swoich badanych na dwie grupy, z których grupa
eksperymentalna wykonała wcześniej specyficzny trening. Polegał on na
rozwiązywaniu drugiej części problemu, zaczynającej się od stanu
oznaczonego na rycinie 11.6 literą „H”. Przypomnijmy, że jest to miejsce
krytyczne, w którym poprawne przekształcenie wymaga pozornego
oddalenia się od celu, czyli zmniejszenia liczebności stworzeń
przewiezionych na właściwą stronę rzeki. Następnie obie grupy
rozwiązywały cały problem. Okazało się, że trening wpłynął na
zmniejszenie liczby przekształceń wykonanych do osiągnięcia stanu „H”
(średnio 10,8 w grupie eksperymentalnej i 13 w grupie kontrolnej), ale – co
interesujące – nie zmodyfikował przebiegu dalszej części zadania. Liczba
kroków potrzebnych do jego dokończenia nie różniła się istotnie w obu
grupach (odpowiednio 14,3 i 15,5 kroków), mimo że grupa
eksperymentalna już rozwiązywała drugą jego część. O ile pierwszy
rezultat jest zrozumiały – wpływ uprzedniego doświadczenia
w rozwiązywaniu danego problemu – o tyle drugi wydaje się zaskakujący.
Autor tłumaczy go silnym wpływem kontekstu na rozwiązywanie
problemów transformacyjnych z użyciem prostych heurystyk, odmiennego
w przypadku treningu i drugiej części zadania głównego. Analiza
przeprowadzona dla kolejnych przekształceń wykazała trzy momenty
krytyczne, związane z czasem latencji stanów „A”, „E” i „H”.
W przypadku początkowego stanu „A” dłuższa latencja wydaje się wiązać
z analizą problemu i planowaniem. W przypadku stanu „E” może ona
wynikać z konieczności analizy większej niż zazwyczaj liczby
potencjalnych stanów wiedzy. W tym momencie możliwe są aż trzy
przekształcenia, z których tylko jedno prowadzi do postępu
w rozwiązywaniu problemu. Potwierdza to założenie Newella i Simona, że
złożoność sytuacji problemowej ma ścisły związek z liczbą potencjalnych
stanów wiedzy dostępnych w danym momencie. W końcu dłuższa latencja
stanu „H” wydaje się dodatkowo świadczyć o tendencji do unikania
rozwiązań, które oddalają nas od celu.

Istnieją dwa problemy związane z praktycznym stosowaniem heurystyki


redukcji różnicy. Podstawowy problem to podejmowanie decyzji
o działaniu z uwzględnieniem tylko najbliższego przekształcenia.
W codziennym życiu heurystyka ta sprowadza się do reguły: „Zróbmy coś,
a co będzie potem, to się zobaczy”. Niekiedy działa świetnie, np. gdy
chcemy dostroić radio, ale nie nadaje się do rozwiązywania bardziej
złożonych problemów. Drugi problem to sposób oceny różnicy między
stanem aktualnym a celem. Jeśli w zadaniu Wieża z Hanoi kryterium tym
będzie wyłącznie odległość krążków od pręta docelowego, to –
konsekwentnie stosując metodę redukcji różnicy – nigdy nie rozwiążemy
tego problemu. Zauważmy – jak pokazano na rycinie 11.4 – że w ruchach
trzecim i piątym najmniejszy krążek oddala się od celu. Podobnie
w problemie Hobbitów i Orków, kiedy dwie postaci muszą wrócić na
brzeg, z którego chcą się wydostać. W tych wszystkich przypadkach, aby
osiągnąć cel, niezbędne jest chwilowe oddalenie się od niego.
Zastosowanie innego kryterium oceny podobieństwa stanów, zarówno
w tych, jak i w wielu innych złożonych zadaniach poznawczych, wymaga
uwzględnienia większej sekwencji ruchów albo ustanowienia celów
cząstkowych, podporządkowanych celowi głównemu (np. „uwolnić
największy krążek i pręt docelowy”). Służą temu inne, bardziej złożone
heurystyki.

11.4.2. Metoda poruszania się wstecz


Ta metoda rozwiązywania problemów polega na odwróceniu kierunku
rozwiązywania problemu. Chodzi o to, aby punktem wyjścia uczynić
sytuację docelową, a następnie poruszać się wstecz aż do osiągnięcia stanu
początkowego. Każde dokonywane przekształcenie wymaga selekcji
operatora, który w największym stopniu zmniejsza różnicę między stanem
aktualnym a – w tym przypadku – stanem początkowym. W metaforze
wspinania się można powiedzieć, że chodzi o jak najszybsze zejście do
podnóża góry, tak aby znaleźć się w punkcie początkowym. Tego typu
metoda pozwala niekiedy na skuteczniejszą redukcję liczby potencjalnych
operatorów, w porównaniu z metodą „od początku do końca” (Wickelgren,
1974).

W twórczym rozwiązywaniu problemów stosuje się heurystykę zwaną „Jak


on na to wpadł?”. Na przykład w początkach rozwoju lotnictwa testowano
mnóstwo zupełnie nietrafionych pomysłów. Liczba kierunków
poszukiwania przejścia od stanu początkowego do celu była bardzo duża.
Ale jeśli odwrócić zadanie i zapytać, jak zrodziła się idea dzisiejszego
samolotu, liczba ta znacznie maleje. Zazwyczaj przychodzi nam do głowy
analogia ptaka szybującego z rozpostartymi skrzydłami. Oczywiście w tym
przykładzie zastosowanie metody poruszania się wstecz ma walor
wyłącznie dydaktyczny, problem został już bowiem dawno rozwiązany.
Niemniej w przypadku problemów transformacyjnych, kiedy nieznany jest
sposób przejścia od stanu początkowego do ściśle określonego celu, może
ona być bardzo skuteczna.

Problemem w stosowaniu tej metody jest to, że niektóre operatory nie są


symetryczne, czyli działają tylko w jedną stronę. Zmieszanie kilku
gatunków alkoholu w celu otrzymania interesującej kompozycji jest
operacją nieprzechodnią i trudno byłoby zastosować metodę poruszania się
wstecz, żeby dociec receptury sporządzonego drinka. Jednakże metoda ta –
stosowana często przez dzieci – pozwala się dowiedzieć, jak działa jakieś
urządzenie czy choćby mechaniczna zabawka. W przypadku niektórych
problemów nie ma znaczenia kierunek poszukiwań. W problemach Wieży
z Hanoi albo Hobbitów i Orków nie ma znaczenia, od której strony
zaatakujemy problem. Stany początkowy i końcowy są takie same, tyle że
wieża jest na innym pręcie, a Hobbici i Orkowie znajdują się na
przeciwległym brzegu rzeki.

11.4.3. Metoda analizy środków i celów


W metodzie analizy środków i celów (means/ends analysis) również mamy
do czynienia z redukcją rozbieżności, ale odbywa się ona nieco inaczej niż
w metodzie poruszania się wstecz. Powróćmy do przykładu podróży
z Krakowa do Kołobrzegu. Załóżmy, że wybraliśmy opcję podróży
samochodem. Niestety, po drodze samochód się zepsuł. Co robimy, aby
zrealizować cel podróży? Oczywiście możemy porzucić zepsute auto
i dalej – posługując się metodą redukcji rozbieżności – podążać do celu, np.
autostopem. Możemy też zdecydować, że spróbujemy naprawić samochód,
aby kontynuować podróż. Ustalamy więc cel cząstkowy. Być może
osiągnięcie celu zasadniczego będzie wymagało realizacji wielu, niekiedy
hierarchicznie ustawionych celów cząstkowych. Przykładowo, aby
zreperować samochód, trzeba dotrzeć do warsztatu naprawczego, aby zaś
dotrzeć do warsztatu, trzeba zorganizować holowanie auta itd.

Rozwiązywanie problemów metodą analizy środków i celów polega na


podziale problemu zasadniczego na mniejsze części (podproblemy). Każdy
z nich ma swój odrębny cel, ostatecznie podporządkowany realizacji celu
zasadniczego. Heurystyka ta wymaga więc bardziej dalekosiężnego
planowania niż dwie poprzednie, a przede wszystkim analizy sytuacji
problemowej, która doprowadzi do odkrycia problemów cząstkowych.
Niekiedy problemy cząstkowe „rodzą się” same, jak w przytoczonym
przykładzie, który – używając terminologii Newella i Simona – polega na
przywróceniu możliwości stosowania wybranego przez nas operatora
(samochodu), redukującego różnice między stanem aktualnym a celem.
Innym razem, aby skutecznie rozwiązać problem, trzeba umieć dostrzec
w nim problemy cząstkowe. Widać to doskonale na przykładzie Hobbitów
i Orków albo Wieży z Hanoi. W obu przypadkach rozbicie problemu
w kluczowych jego momentach na podproblemy uzasadnia konieczność
pozornego oddalenia się od celu głównego. Szczegółowe heurystyki
twórczego rozwiązywania problemów często wymagają ustalenia celów
cząstkowych, niekiedy bardzo odległych od celu zasadniczego (zob. Nęcka,
1994b; Proctor, 2002).

Stworzoną przez Newella i Simona (1972) symulację procesu


rozwiązywania problemów GPS, oparto właśnie na metodzie analizy
środków i celów. General problem solver realizuje tworzenie podcelów
(subgoals) za pomocą dwóch strategii (ryc. 11.7). Pierwsza polega na
analizie problemu pod kątem wyróżnienia w nim największej różnicy
między stanem aktualnym (początkowo jest to stan wyjściowy, a dalej
kolejne stany wiedzy) a stanem docelowym. Na podstawie wyniku tej
analizy tworzony jest podcel PC1, którego realizacja ma wyeliminować tę
różnicę. Druga strategia polega na znalezieniu takiego operatora O1, który
wyeliminuje odnalezioną różnicę. Może się zdarzyć, że nie da się go od
razu zastosować z powodu znacznej różnicy między warunkami użycia
operatora O1 a aktualnym stanem wiedzy. Wówczas tworzony jest kolejny
podcel PC2, którego realizacja pozwoli zastosować operator O1. Gdyby
jednak nadal nie było to możliwe, tworzone są kolejne podcele itd.
RYCINA 11.7. Strategie rozwiązywania problemów w GPS
Zastosowanie analizy środków i celów. Schemat 1 ilustruje podział problemu na podproblemy
metodą poszukiwania rozbieżności. Następnie każda rozbieżność jest eliminowana. Schemat 2
ilustruje z kolei poszukiwanie operatora, pozwalającego na redukcje rozbieżności.
Źródło: opracowanie własne na podstawie Anderson, 1993, s. 38.

Przykładowo, jeśli producent kosmetyków ma cel w postaci zdobycia 10%


rynku szamponów do włosów i posiada już dobry produkt, powinien
rozpocząć od rozbicia ogólnego celu na cele szczegółowe. Załóżmy dalej,
że w wyniku tej analizy największą przeszkodą okazuje się brak kanałów
dystrybucji. Najważniejszym podlecem PC1 byłoby zbudowanie
efektywnej sieci sprzedaży. Potencjalnych operatorów, prowadzących do
jego realizacji, jest wiele, np. wykorzystanie już istniejącej sieci sklepów
albo aptek (O1), system sprzedaży wysyłkowej (O2) itd. Zastosowanie
operatora O1 mogłoby z powodzeniem realizować podcel PC1, przyjmijmy
jednak, że z jakichś powodów nie decydujemy się na to rozwiązanie.
Operator O2 wydaje nam się bardziej interesujący, ale nie jesteśmy do
niego przygotowani, czyli musimy ustanowić kolejne podcele, których
realizacja odblokuje zastosowanie operatora O2, np. opracowanie katalogu
produktów, zdobycie list adresowych, utworzenie strony internetowej, biura
obsługi klientów.

Kenneth Kotovsky, John R. Hayes i Herbert Simon (1985) wykryli, że


w początkowej fazie rozwiązywania problemu Wieży z Hanoi ludzie
stosują metodę redukcji różnicy, prostszą niż analiza środków i celów.
Kiedy jednak napotykają na trudność w środkowej części zadania,
przełączają się na tę drugą. Michael Atwood i Peter Polson (1976)
opracowali model procesu rozwiązywania problemu Luchinsa
z wykorzystaniem metody analizy środków i celów (ramka 11.4).

RAMKA 11.4
Analiza środków i celów w problemie dzbanów
Luchinsa
Atwood i Polson (1976) użyli pewnej odmiany problemu dzbanów
(Luchins, Luchins, 1959). Osoba badana, dysponując trzema dzbanami
o różnej pojemności, miała za zadanie przelać dokładnie połowę
objętości największego dzbana (A) do średniego (B), posługując się
dodatkowo małym naczyniem (C). Przykładowo, jeśli pojemność
dzbanów wynosiła 8, 5 i 3 (stan wyjściowy), a tylko pierwszy był pełny,
to cel sprowadzał się do pozostawienia w dzbanach A i B po cztery
jednostki wody (tab. 11.2).

TABELA 11.2. Problem dzbanów wody. Poszczególne stany opisane są dwiema liczbami,
z których pierwsza oznacza pojemność dzbana, a druga ilość wody, która znajduje się w nim
w danym momencie.

tab
Źródło: opracowanie własne.

Atwood i Polson dokonali porównania procesu rozwiązywania tej wersji


problemu Luchinsa w dwóch sytuacjach: (1) 8-8, 5-0, 3-0 i (2) 24-24,
21-0, 1-0. Są to problemy identyczne pod względem liczby przekształceń
stanu wyjściowego, niezbędnych do osiągnięcia celu. Autorzy
przewidywali jednak, że drugi z nich będzie łatwiejszy do rozwiązania,
wystarczy bowiem wówczas zastosować metodę analizy środków
i celów, podczas gdy pierwszy wymaga zmiany metody w trakcie
rozwiązywania problemu. Okazało się, że rzeczywiście średnia liczba
przekształceń dokonywanych przez osoby badane w przypadku
problemu (1) była większa niż w odniesieniu do problemu (2).
W kolejnych badaniach (Atwood, Masson, Polson, 1980) autorzy
testowali hipotezę dotyczącą małego zakresu planowania przekształceń,
wynikającego z przeciwdziałania przeciążeniu pamięci roboczej.
Zastosowali manipulację polegającą na dostarczeniu osobom badanym
wszystkich możliwych przekształceń dostępnych dla każdego kolejnego
stanu wiedzy. Dzięki temu osoba badana nie musiała wykonywać tych
przekształceń w pamięci. Nie musiała również obciążać pamięci
roboczej koniecznością ich przechowywania w celu wyboru najlepszego
ruchu. Dodatkowo w jednej z grup eksperymentalnych osoby badane
otrzymywały zapis poprzednich stanów. Uzyskane wyniki wskazywały,
że im więcej dostarczono informacji, tym mniej przekształceń było
niezbędnych do znalezienia rozwiązania. Nie wykryto jednak większych
zmian w zakresie planowania. Wydaje się więc, że uwolnienie części
pojemności i mocy przetworzeniowej pamięci roboczej nie zaowocowało
doinwestowaniem procesów planowania. Usprawnieniu uległy jedynie
procesy wykonawcze, leżące u podłoża rozwiązania problemów.

Jednym ze źródeł informacji o strukturze podcelów, skutecznych


w przypadku określonego problemu, jest uprzednie doświadczenie. Dennis
Egan i James Greeno (1974) użyli w badaniach trudnej wersji zadania
Wieża z Hanoi – z 5 i 6 krążkami. W grupie eksperymentalnej jej
wykonanie zadania poprzedzał trening, w którym osoby badane
rozwiązywały prostsze wersje z 3 i 4 krążkami. Grupa eksperymentalna,
przystępując do trudnych wersji testowych, dysponowała więc pewnym
doświadczeniem. Grupa kontrolna nie przeszła podobnego treningu,
otrzymując od razu wersje z 5 i 6 krążkami. Uprzednie doświadczenie
okazało się czynnikiem ułatwiającym rozwiązanie. Aby dowieść, że
ułatwienie to polega na korzystaniu z nabytych w treningu strategii
ustalania podcelów, autorzy poddali analizie profile błędów,
zoperacjonalizowane jako odchylenie od optymalnej ścieżki rozwiązywania
problemu. Osoby, które lepiej wykonywały złożone zadania testowe,
znajdowały się bliżej optymalnej ścieżki. Jeśli założyć, że poprawne
rozwiązanie problemu Wieży z Hanoi wymaga koniecznie ustalenia
podcelów, wynik Egana i Greena oznaczałby lepsze dopasowanie się osób
z grupy eksperymentalnej do struktury podcelów, wychwyconej w części
treningowej.
Strategia powracającego celu (goal recursion strategy) – metoda rozwiązywania problemów. Może
być skutecznie stosowana, gdy uda się wyróżnić cel cząstkowy, którego wielokrotna realizacja
stopniowo przybliża do rozwiązania problemu.

Uszczegółowienia metody analizy środków i celów dokonał Herbert Simon


(1975). Ogólnie metody rozwiązywania problemów polegające na
wyodrębnieniu celów cząstkowych autor określił wspólnym terminem
heurystyki dekompozycji celów. Simon opisał m.in. tzw. strategię
powracającego celu (goal recursion strategy); może ona być skutecznie
zastosowana, gdy da się wyróżnić cel cząstkowy, który stopniowo przybliża
nas do rozwiązania problemu, jeśli jest wielokrotnie realizowany. Wróćmy
do przykładu producenta kosmetyków. Załóżmy, że odkrywa on, iż
w jednym z miast, gdzie zastosowano metodę sprzedaży bezpośredniej
w domu klientek, uzyskano bardzo dobre wyniki. Rezygnuje więc z sieci
sprzedaży wysyłkowej i stosuje prosty zabieg, polegający na powielaniu
sprawdzonej metody sprzedaży bezpośredniej w innych większych
miastach, czyli próbuje osiągnąć podcel polegający na budowie krajowej
sieci sprzedaży bezpośredniej. W ten sposób stopniowo można osiągnąć
zamierzony cel główny. W problemie Wieży z Hanoi taki podcel polega –
jeśli sformułować go niezależnie od liczby krążków tworzących piramidę –
na przeniesieniu całej piramidy z wyjątkiem krążka na samym spodzie na
inny pręt niż docelowy. Wtedy ten ostatni krążek można przenieść do
punktu docelowego. Jeśli pierwszy krążek ze spodu trafi już na docelowy
pręt C, procedurę należy powtórzyć dla reszty elementów piramidy, aż do
przeniesienia wszystkich krążków. Jeśli jednak wieża jest względnie duża,
np. składa się z 14 krążków, jej przestawienie wymagać będzie wykonania
16 383 ruchów, co przy tempie pracy wynoszącym jeden ruch na 5 sekund
zajęłoby nam niemal 24 godziny.

Strategia powracającego celu zastosowana w przypadku złożonych


problemów może napotkać na trudności wynikające z ograniczeń
pojemności STM (Simon, 1975). Jeśli problem wymaga rozbicia go na
wiele podproblemów i wyodrębnienia wielu podcelów, to każdy z nich
musi być symultanicznie przechowywany w STM. Jeśli jest ich zbyt wiele,
pamięć może zostać przeładowana, nawet gdy każdy z podcelów jest
relatywnie łatwy do zapamiętania. John Anderson, Nicholas Kushmerick
i Christian Lebiere (1993) wykryli, że czas latencji wykonania kolejnego
posunięcia w problemie Wieży z Hanoi jest funkcją liczby podcelów, które
muszą zostać sformułowane dla aktualnego stanu. Wydaje się to
sugerować, że tworzenie podcelów wiąże się pewnymi kosztami
poznawczymi, jest więc limitowane pojemnością systemu.

Inną opisaną przez Simona (1975) metodą rozwiązywania problemów jest


złożona strategia percepcyjna (sophisticated perceptual strategy). Składa
się ona z trzech kroków, które opiszemy na przykładzie Wieży z Hanoi:

1. Znajdź największy krążek, który nie znajduje się w miejscu docelowym,


i obierz za cel umieszczenie go tam. Następnie wykonaj punkty 2 i 3. Gdy
wszystkie krążki znajdą się w miejscach docelowych, zakończ
rozwiązywanie problemu.

2. Jeśli jakiś krążek blokuje krążek, który chcesz przenieść, bo znajduje się
albo nad nim, albo na drążku docelowym, znajdź największy z nich i obierz
za podcel umieszczenie go na innym drążku, różnym zarówno od
wyjściowego, jak i docelowego. Poprzedni cel zachowaj jako cel
nadrzędny względem aktualnie obranego. Jeśli to konieczne, wykonaj ten
punkt wielokrotnie, aż do momentu uwolnienia krążka, o którym mowa
w punkcie 1.

3. Jeśli już nic nie blokuje największego krążka, przenieś go na drążek


docelowy oraz:
a) jeśli osiągnięty podcel ma cel nadrzędny, powróć do niego i zrealizuj go;
b) jeśli osiągnięty podcel nie ma celów nadrzędnych, powróć do kroku 1.

Strategia ta nie jest ani najszybsza, ani najłatwiejsza, ale gwarantuje


rozwiązanie problemu, gdyż w zasadzie ma postać algorytmu.

Metoda analizy środków i celów jest bardzo ogólną heurystyką, za pomocą


której ludzie i maszyny rozwiązują różnorakie problemy. Badania
wykazały, że jest to metoda stosowana w rozwiązywaniu problemów
akademickich (Larkin, McDermott, Simon, 1980b), ale również problemów
rzeczywistych (real-life problems; Byrne, Bovair, 1997; Klahr, 1978).

11.5. Fazy rozwiązywania problemów


Rozwiązywanie problemów opisywane jest zazwyczaj jako proces fazowy.
Oznacza to, że można w nim wyodrębnić pewną liczbę dyskretnych
etapów, zachodzących jeden po drugim. Obecnie uważa się, że pełny cykl
rozwiązywania problemów składa się z co najmniej pięciu faz (Brandsford,
Stein, 1993), ale większość autorów wyróżnia ich więcej. Na przykład
według Hayesa (1989) czy Roberta Sternberga (1986a) rozwiązywanie
problemów obejmuje siedem następujących etapów:
identyfikacja problemu;
definiowanie problemu i budowanie jego poznawczej reprezentacji;

budowanie strategii rozwiązywania problemu;


zdobywanie lub przywoływanie informacji na temat problemu;
alokacja zasobów poznawczych, niezbędnych do rozwiązania
problemu;
monitorowanie postępu w zmierzaniu do celu;

ocena poprawności rozwiązania.

W praktyce heurystycznej (zob. Proctor, 2002) przyjął się nieco prostszy


system Johna Brandsforda i Barry’ego Steina (1993), znany jako model
IDEAL. Ma on charakter raczej normatywny niż opisowy. Autorzy zalecają
dzielić proces rozwiązywania problemów na pięć faz:

identyfikację problemów i możliwości;


definiowanie celów;
eksplorację możliwych strategii działania;

antycypację wyników i podjęcie działania;


lustrację wyników i wyciąganie wniosków na przyszłość.

Bez względu na przyjęte rozwiązania teoretyczne podkreśla się, że


w przypadku wielu problemów przejście przez wszystkie fazy, a tym
bardziej ścisłe zachowanie ich kolejności, nie jest konieczne. Wskazuje się
również, że sprawne rozwiązywanie problemów wymaga elastyczności
(zob. Pretz, Naples, Sternberg, 2003). Pełny cykl rozwiązywania
problemów wydaje się niezbędny w przypadku problemów nowych dla
jednostki. Może się jednak okazać, że np. dzięki zastosowaniu transferu
przez analogię możliwe jest znalezienie rozwiązania „na skróty” nawet
w przypadku problemów wcześniej zupełnie nieznanych. Innym razem
trzeba wielokrotnie powtórzyć pewne fazy, a nawet całość procesu
rozwiązywania problemu. Właśnie dlatego przyjmuje się, że ma on
charakter cykliczny (Sternberg, 1986a). Szczególnie w przypadku
twórczego rozwiązywania problemów dochodzi do wielokrotnego
powtórzenia pewnych faz, np. definiowania problemu lub generowania
nowych rozwiązań, mimo dysponowania rozwiązaniami wymyślonymi
wcześniej.

Niektóre modele procesu rozwiązywania problemów wydają się


ekwiwalentne. Na przykład lustracja i wyciąganie wniosków, czyli piąta
faza u Brandsforda i Steina, u Strenberga została rozdzielona na fazę
monitorowania postępu i fazę oceny rozwiązania. Dlatego teraz dokładniej
omówimy pełniejszy model złożony z siedmiu faz.

11.5.1. Faza identyfikacji problemu


Brandsford i Stein (1993) wyjaśniają, na czym polega identyfikacja
problemu, podając przykład swojego znajomego, który podczas smażenia
bekonu na śniadanie regularnie brudził sobie ubranie, a nawet ulegał
drobnym poparzeniom tłuszczem pryskającym z patelni. Nigdy się jednak
nad tym nie zastanawiał. Pewnego dnia w katalogu dla kucharzy znalazł
rozwiązanie tego niedostrzeganego przez siebie problemu. Była nim siatka
z rączką umieszczana, jak przykrywka, nad patelnią. Zaskoczeniem dla
tego człowieka było nie tyle samo rozwiązanie problemu, ile to, że ktoś go
dostrzegł, ponieważ on sam nigdy nie pomyślał o tym, jak o problemie do
rozwiązania.

Faza identyfikacji problemu polega na dostrzeżeniu, że ten w ogóle istnieje.


Jacob Getzels (1982) wyróżnił trzy rodzaje problemów, ze względu na to,
w jaki sposób zostały one zidentyfikowane. Po pierwsze, problem może
nam zostać zadany, a więc właściwie nie wymaga identyfikacji. Może
natomiast wymagać doprecyzowania albo nawet redefinicji (faza 2). Po
drugie, problem może zostać odkryty. Chodzi o takie problemy, które
obiektywnie istnieją, ale nie zostały dotychczas zauważone bądź były
niewłaściwie definiowane. Trzecia grupa problemów to problemy
wykreowane, czyli takie, które nie istniały, dopóki ktoś ich nie stworzył.
Problemy trzeciego rodzaju jak gdyby z definicji prowadzą do twórczych
rozwiązań. Sztuka odkrywa wiele problemów, ale również je kreuje.
W swoich badaniach Jacob Getzels i Mihály Csikszentmihályi (1976)
pokazali, że prace artystów, którzy poświęcali więcej czasu na
poszukiwanie problemów, były oceniane jako bardziej twórcze
w porównaniu z pracami artystów, którzy poświęcali tej fazie tworzenia
mniej czasu. Co więcej, efekt ten był zauważalny w powtórnym badaniu po
upływie siedmiu lat. Dowodzi to kluczowego znaczenia w procesach
twórczych fazy identyfikacji problemów.

Identyfikacja problemów może być dla człowieka celem samoistnym.


Filozofowie zwykli mawiać, że w ich dziedzinie kluczowe jest postawienie
pytania, a nie udzielenie na nie odpowiedzi. Sformułowanie problemu
stanowi nieodzowną, ale zwykle zaledwie pierwszą fazę procesu
rozwiązywania problemów. Ma ona szczególnie znaczenie gdy zaczynamy
działać w niedoprecyzowanej sytuacji początkowej.

11.5.2. Faza definiowania problemu


Definiowanie problemu jest fazą polegającą na takim jego sformułowaniu,
w którym ujęte będą przede wszystkim cele, czyli stan końcowy.
Precyzyjne zdefiniowanie problemu dziewięciu kropek (zob. ramkę 11.1)
nie ułatwiłoby zapewne jego rozwiązania, ale mogłoby skutecznie
zablokować wiele „twórczych” poszukiwań. Norman Maier (1931)
w problemie dwóch sznurków (paradygmat 11.2) celowo zdefiniował go
ogólnie: „Jak związać dwa sznurki wiszące u sufitu?”. Gdyby sformułował
ten problem inaczej, np. „Jak związać dwa sznurki, trzymając jeden w ręce,
a drugi przyciągając do siebie?”, rozwiązanie nie byłoby zapewne tak
kłopotliwe. Dlatego właśnie główna trudność w problemie Maiera polega
na zdefiniowaniu, a właściwie zredefiniowaniu problemu, czyli ujęciu go
na nowo. Z tego powodu najwięcej badań nad definiowaniem
i redefiniowaniem problemów prowadzono z wykorzystaniem specyficznej
grupy zadań wymagających wglądu. W dziedzinie twórczego
rozwiązywania problemów opracowano szereg technik, które dotyczą fazy
identyfikacji, definiowania i redefiniowania problemu (zob. Nęcka, 1994b;
Proctor, 2002).

Reprezentacja problemu dotyczy sposobu, w jaki informacja o problemie


zostaje mentalnie przedstawiona i zorganizowana. Powinna zawierać
wszystkie cztery elementy definiujące przestrzeń problemu: reprezentację
stanu początkowego, reprezentację celu, reprezentację dopuszczalnych
reguł przekształcenia stanów wiedzy i koniecznie restrykcji. Informacje te
są ze sobą ściśle powiązane, więc reprezentacja problemu zawiera również
relacje między tymi czterema elementami. Jak wspomniano, jeśli brakuje
któregokolwiek z nich, problem jest tym samym źle określony.

Paradygmat 11.2

Problem dwóch sznurków Maiera (1931)

Reorganizacja danych wejściowych jest warunkiem redefinicji problemu.


Redefinicja to inne sformułowanie problemu, wynikające ze zmiany relacji
między jego elementami. Problem wymyślony przez Normana Maiera
(1931) polega na związaniu razem dwóch sznurków wiszących u sufitu. Ich
wzajemna odległość uniemożliwia jednoczesne uchwycenie obu.
W pomieszczeniu znajdują się zwykle różne przedmioty, np. krzesło,
papier, pinezki i obcążki (ryc. 11.8). Skuteczne rozwiązanie problemu
wymaga wykorzystania jednego z tych przedmiotów, na pozór
przypadkowo pozostawionych w pomieszczeniu. Należy przywiązać
obcążki do jednego ze sznurków i rozhuśtać go. Następnie, trzymając
w dłoni drugi sznurek, stanąć w połowie odległości między nimi
i pochwycić rozhuśtany sznurek, kiedy będzie odpowiednio wychylony.
W badaniach Maiera zaledwie 39% osób było w stanie rozwiązać ten
problem w ciągu 10 minut.

Można wyróżnić kilka przyczyn tak słabych rezultatów. Maier


skoncentrował się na zjawisku tzw. fiksacji funkcjonalnej, czyli
nieumiejętności odejścia od konwencjonalnych funkcji znanych obiektów,
aby użyć ich nietypowo (zob. podrozdz. 11.6.3). Inna przeszkoda
w rozwiązaniu problemu dwóch sznurków jest jeszcze bardziej
podstawowa i polega na wyłączeniu innych przedmiotów poza sznurkami
z pola problemowego. Przedmioty te nie są w ogóle brane pod uwagę
w procesie rozwiązywania problemu. Na koniec zadanie wymaga
redefinicji problemu. Nie chodzi w nim przecież o to, jak trzymając jeden
sznurek, zbliżyć się do drugiego, aby go dosięgnąć, ale o to, jak sprawić,
aby to on zbliżył się do nas. Problem dwóch sznurków wymaga więc nie
tylko redefinicji funkcji przedmiotów w nim wykorzystanych (obcążki),
lecz także redefinicji całego problemu.

RYCINA 11.8. Problem dwóch sznurków


Źródło: Maier, N. R. F. (1931). Reasoning and learning. Psychological Review, 38, 332–346. Public
domain.

Sposób reprezentacji problemu może mieć kluczowe znaczenie dla


subiektywnej percepcji jego złożoności i, w konsekwencji, dla całego
procesu poszukiwania rozwiązania. Problem uszkodzonej szachownicy,
w sformułowaniu przedstawionym w ramce 11.5, stanowi dla większości
ludzi poważne wyzwanie, ponieważ wymaga wykrycia, że rozwiązanie nie
istnieje. Aby dojść do tego wniosku, należy uświadomić sobie, że kostka
domina musi przykryć dwa pola o różnym kolorze. A skoro liczba pól
białych i czarnych jest różna, zadanie jest niewykonalne. Wystarczy jednak
zmienić sposób reprezentowania problemu, aby okazało się ono znacznie
prostsze. Wyobraźmy sobie, że na zabawie karnawałowej bawią się 32
kobiety i 32 mężczyzn, tworząc 32 pary taneczne. W trakcie tańców 2
kobiety wyszły. Czy pozostałych uczestników zabawy można połączyć
w 31 par (za: Gick, McGarry, 1992)? Przyjmując, że mamy do czynienia
z tradycyjnym pojmowaniem pary jako kobiety i mężczyzny, oczywiście
nie jest to możliwe. Rozwiązanie, inaczej niż w przypadku oryginalnego
sformułowania problemu, nie nastręcza teraz jakichkolwiek problemów.
Dowodzi to, że sposób reprezentowania problemu jest kluczowy dla
przebiegu kolejnych faz jego rozwiązywania. Podobne rezultaty uzyskano
w badaniach nad rozumowaniem i podejmowaniem decyzji.

RAMKA 11.5

Problemy Wickelgrena
Problem „uszkodzonej” szachownicy (Wickelgren, 1974).

Zadanie polega na pokryciu kostkami domina szachownicy pozbawionej


dwóch narożnych pól (ryc. 11.9a), czyli składającej się z 62 pól.
Zakładamy, że jedna kostka domina pokrywa dwa pola.

RYCINA 11.9a. Problem „uszkodzonej” szachownicy


Źródło: opracowanie własne.

Problem szachownicy (Wickelgren, 1974)

W tym problemie zadanie polega na połączeniu wszystkich pól planszy


warcabów za pomocą linii (ryc. 11.9b). Rysowanie rozpoczyna się
w punkcie START. Możliwe są wyłącznie ruchy w kierunkach dół–
góra/lewo–prawo. Operacje niedozwolone to: oderwanie ołówka od
planszy, przejście przez jedno pole więcej niż jeden raz i rysowanie linii
ukośnych.

RYCINA 11.9b. Problem szachownicy


Źródło: opracowanie własne.

W przypadku drugiego problemu z ramki 11.5 konieczna jest zmiana


reprezentacji z konkretnej na abstrakcyjną. Tego problemu również nie da
się rozwiązać, ale wniosek taki można wyciągnąć jedynie na drodze
rozumowania, prowadzącego do pewnych uogólnień. Zauważmy, że
plansza zawiera nieparzystą liczbę pól: 13 czarnych i 12 białych. Wynika
z tego, że skoro całkowita liczba pól jest nieparzysta, startujemy z pola
białego, a każdy kolejnych ruch wymaga przejścia na pole o innym
kolorze, to dochodzi do sprzeczności. Nie możemy, zaczynając od białego
pola, przechodząc na zmianę przez pola białe i czarne, zakończyć również
na białym, skoro jest ich mniej niż czarnych. Z tego powodu zadanie jest
nierozwiązywalne. Przekształcenie reprezentacji problemu w formę
bardziej abstrakcyjną staje się bardziej wymagające dla systemu
poznawczego, ale pozwala wyciągnąć niezawodny wniosek co do
możliwości jego rozwiązania.

Reprezentacja problemu, niezależnie od jej zawartości treściowej, może


mieć różną formę. Ponieważ zdecydowana większość problemów
reprezentowana jest werbalnie albo wizualnie, badania dotyczą głównie
tych dwu kodów. Kenneth Kotovsky i współpracownicy (1985) użyli
w swoich badaniach problemu akrobatów, który jest izomorficzny
względem Wieży z Hanoi. Krążki różnej wielkości zastąpiono postaciami
akrobatów, którzy różnią się wagą (700, 200 i 40 funtów). Wszystkie
zasady zostały zachowane analogicznie do Wieży z Hanoi. Autorzy
zastosowali ponadto odwróconą wersję problemu akrobatów dotyczącą
podstawowej zasady tworzenia ich piramidy. W odwróconej wersji tylko
większy akrobata może stać na mniejszym. Okazało się, że rozwiązanie
odwróconego problem akrobatów zajmowało osobom badanym więcej
czasu niż zmaganie się z jego klasyczną wersją. Uzyskany wynik autorzy
tłumaczą przyjętą reprezentacją problemu, która jest niezgodna
z codziennym doświadczeniem osób badanych. Operacje wykonywane
z użyciem takiej reprezentacji wymagają dodatkowego wysiłku
poznawczego, który prawdopodobnie wynika z konieczności hamowania
nawykowych operacji przekształcenia (mniejszy element „musi” stać na
większym) lub konieczności odwrócenia narzuconej reprezentacji
problemu przed dokonaniem właściwych przekształceń.

Michael Mumford, Roni Reiter-Palmon i Matthew Redmond (1994)


zaproponowali model, ujmujący procesy poznawcze angażowane we
wczesnych stadiach rozwiązywania problemów. Przez pojęcie wczesnych
stadiów rozumie się identyfikację, definiowanie i rozpoznawanie problemu.
Autorzy wyodrębnili pięć procesów, takich jak:
uświadomienie sobie wskazówek, prawidłowości i anomalii
w otoczeniu (percepcja i uwaga);

wydobycie z pamięci trwałej reprezentacji problemów analogicznych


(uaktywnienie reprezentacji);
ocena reprezentacji problemów analogicznych (selekcja strategii
ewaluacji);
zdefiniowanie celów i ograniczeń w obrębie problemu (strategia
selekcji elementów);

zbudowanie reprezentacji umysłowej problemu na podstawie


wyselekcjonowanych elementów (reorganizacja elementów).

To interesujące rozbicie złożonych skądinąd procesów na ich elementarne


składowe nie ma jednak mocnych podstaw empirycznych.

Dennis Brophy (1998), przeanalizował raporty werbalne dotyczące różnych


aspektów procesu rozwiązywania problemów, zebrane od artystów
i uczonych i opisał procesy towarzyszące wczesnym jego fazom. Autor
uznał, że procesy te mają charakter nieświadomego, intuicyjnego myślenia.
Polega ono na tworzeniu kombinacji rozpoznanych wzorców
percepcyjnych, wytworzonych abstrakcyjnych związków analogii
i użytecznych sposobów organizacji posiadanego doświadczenia
z określonej domeny wiedzy. Tego typu konkluzje nie są odosobnione. Na
przykład Robert Goldstone i Lawrence Barsalou (1998; Barsalou, 2008)
dowodzą daleko idącego związku między procesami percepcyjnymi
i abstrakcyjnymi, które zwykle traktuje się jako odrębne. Związek ten,
zdaniem autorów, świadczy o tym, że wiele mechanizmów kojarzonych
z myśleniem abstrakcyjnym obecnych jest w percepcji, a procesy percepcji
dostarczają użytecznych mechanizmów, które mogą zostać włączone
w myślenie abstrakcyjne.

Dowodów na taki związek dostarczają również badania z użyciem technik


neuroobrazowania. Simmons i współpracownicy (2007) analizowali
zagadnienia związków między percepcją kolorów a rozumowaniem
z użyciem słów oznaczających kolory. Wykazali oni, że ten sam obszar
mózgu (zakręt wrzecionowaty w lewej półkuli) jest aktywowany przez te
dwa różne procesy, a tym samym przedstawili dowód na to, że procesy
percepcyjne mogą być podstawą złożonych procesów poznawczych. Na
podstawie analizy podobnych badań Michael Anderson (2010) twierdzi, że
tego typu związki są dowodem działania fundamentalnej zasady
organizującej pracę ludzkiego mózgu. Zgodnie z zasadą „mózgowego
recyklingu” (neural reuse) powszechne w ludzkim mózgu są struktury,
które oryginalnie wyewoluowały do wykonywania jednego zadania,
natomiast obecnie obsługują inne, z pozoru bardzo różne procesy. Jest to
oczywiście zgodne z przywoływanymi wcześniej argumentami z biologii
ewolucyjnej i z pojęciem egzaptacji (zob. podrozdz. 10.1).

Jean Pretz, Adam Naples i Robert Sternberg (2003) postawili hipotezę, że


rozpoznanie problemu w określonej dziedzinie zależy od wrażliwości na
luki w istniejącej wiedzy, które nie mogą być wypełnione w drodze zwykłej
interpolacji lub wnioskowania. Hipoteza ta nie była testowana empirycznie,
ale autorzy powołują się na model Mumforda i współpracowników (1994),
w którym zakłada się konieczność posiadania wewnętrznej reprezentacji
wiedzy o problemie oraz dostrzegania w niej luk. Pretz z zespołem
powołują się również na model zaproponowany przez Margaret Boden
(1999), który ujmuje twórcze rozwiązywanie problemów jako procesy
eksploracji i transformacji danych, realizowane w przestrzeni wiedzy.
Twórczy rezultat pojawia się dzięki przekształceniom możliwym do
wyjaśnienia na gruncie podejścia informacyjno-przetworzeniowego. Nie
ma więc w tym procesie nic egzotycznego. Rozpoznając nowe problemy
i eksplorując zasoby swojej wiedzy, jednostka poszukuje różnych
sposobów uporządkowania posiadanej wiedzy albo wykrywa w niej luki.

Wsparciem dla hipotezy wrażliwości na luki w wiedzy są również badania


nad rozwiązywaniem problemów przez ekspertów. Sugerują one, że
identyfikacja nowych i wartościowych problemów wymaga znacznego
poziomu ekspertywności w danej dziedzinie (Csikszentmihályi, 1999;
Simonton, 1999). Nowicjusze mają tendencję do „odkrywania” problemów,
które już istnieją w danej dziedzinie. Inne badania pokazały, że odkrywaniu
problemów sprzyja synteza wiedzy z różnych dziedzin (Csikszentmihályi,
Sawyer, 1995).

Sposób reprezentowania problemu, decydujący o efektywności jego


rozwiązywania, zależy od danych posiadanych na wejściu i od złożoności
procesów ich przekształcania. Jeśli brakujące dane są fundamentalnie
ważne, rozwiązanie problemu może się okazać niemożliwe. Niekiedy
jednak możliwe jest wprowadzenie dodatkowych danych, wzbogacających
reprezentację problemu, np. uwzględnienie proporcji pól białych i czarnych
w problemie szachownicy. Kiedy indziej można wyłączyć z analizy dane,
które nie są istotne, np. liczbę wszystkich pól, które można pokryć
kostkami domina w problemie uszkodzonej szachownicy (zob. ramkę 11.5,
ryc. 11.9a). W problemie dziewięciu kropek należy wyłączyć z analizy
jedno lub więcej z przyjętych założeń, np. to, że kropka jest punktem
w sensie matematycznym, czyli jej rozmiar wynosi 0, albo że linia ma
zerową grubość.

11.5.3. Faza doboru strategii


Strategia rozwiązywania problemu to specyficzny dla zadania sposób jego
wykonywania. Z perspektywy psychologii poznawczej chodzi o układ
elementarnych operacji (komponentów) przetwarzania informacji,
angażowanych w wykonanie zadania. Takimi elementarnymi
komponentami mogą być np. kodowanie, selekcjonowanie, porównywanie.
Z perspektywy różnic indywidualnych strategie poznawcze dotyczą
międzyosobniczego jakościowego zróżnicowania owego układu
komponentów. Stosowanie strategii, podobnie jak heurystyk, ma na celu
redukcję wymagań poznawczych, jakie stawia przed człowiekiem problem,
szczególnie jeśli jego złożoność jest duża. Strategie poznawcze ściśle wiążą
się z konkretnymi zadaniami poznawczymi, podczas gdy heurystyka ma
charakter bardziej ogólny. Wybór strategii jest wynikiem uwzględnienia
korzyści i kosztów związanych z ich zastosowaniem. Redukcja wymagań
poznawczych stanowi niewątpliwie korzyść, lecz zwykle oznacza
uproszczenie sytuacji problemowej, co z kolei może prowadzić do
uzyskania błędnego wyniku. Wykazano jednak, że ludzie mają tendencję do
używania strategii optymalnych, dopasowanych do sytuacji, co nie znaczy,
że niezawodnych (zob. Christensen-Szalanski, 1978).

Rozwiązując problemy, człowiek wykorzystuje różne strategie ogólnego


zastosowania, np. analityczną i syntetyczną (ramka 11.6). Tego typu
rozumienie strategii nie precyzuje zwykle komponentów angażowanych
w rozwiązywanie problemu, lecz sposób organizacji informacji. Strategia
analityczna polega więc na rozbiciu problemu na jego składowe, podczas
gdy syntetyczna – na jego całościowym ujęciu. Nie jest to zatem podejście,
które zbliża nas do pełnego zrozumienia elementarnych mechanizmów
rozwiązywania problemów. Dlatego uważa się (np. Harmon, Morse, 1995;
Peverly, 1991), że skuteczne rozwiązywanie problemów jest wynikiem
jednoczesnego wpływu dwóch czynników. Pierwszy z nich to umiejętność
efektywnego używania strategii rozwiązywania problemów i zdolność do
adekwatnego łączenia ich w dłuższe sekwencje. Jest to tzw. poziom
strategiczny, związany ze sprawnością procesów wykonawczych –
elementarnych operacji poznawczych, odpowiedzialnych za realizację
konkretnych zadań. Drugi czynnik to zdolność analizy potencjalnych
strategii, wyboru strategii najbardziej użytecznej z punktu widzenia
realizacji celu i eliminacji strategii mniej użytecznych. Jest to poziom
metapoznania, obejmujący wiedzę na temat funkcjonowania własnego
umysłu. Podobnie jak w przypadku wielu innych złożonych procesów
poznawczych, skuteczne rozwiązywanie problemów jest wynikiem
interakcji czynników wykonawczych i metapoznawczych (Davidson,
Sternberg, 1998; Nęcka, Orzechowski, 2005).

RAMKA 11.6

Strategie rozwiązywania problemów


Paulette Rozencwajg (1991; Rozencwajg, Corroyer, 2002) poddała
analizie strategie poznawcze stosowane w zadaniu z kostkami (block-
design task) Samuela Kohsa (1923). Zadanie to polega na ułożeniu
zadanego wzoru z podanych elementów – tytułowych kostek, czyli jedno
albo dwukolorowych kwadratów. W różnych wersjach jest ono
elementem wielu testów inteligencji, np. skali inteligencji Wechslera
(Wechsler Adult Intelligence Scale, WAIS-III; Wechsler, 1997).
Zdolności niezbędne do jego wykonania są silnie nasycone czynnikiem
inteligencji ogólnej. Na przykład w badaniach Jamesa Royera
i współpracowników (1984) korelacja między testem Kohsa a poziomem
IQ, zmierzonym skalą Bineta, wyniosła r = 0,80. Rozencwajg w swoich
badaniach zastosowała komputerową wersję zadania Kohsa, w której
można śledzić kolejne czynności wykonywane przez osoby badane,
rejestrując różne wskaźniki, a następnie wnioskować o użytych
strategiach. Autorka wykryła trzy rodzaje strategii: analityczną, globalną
i syntetyczną. Strategia analityczna polega na mentalnej „rozbiórce”
(segmentacji) przedstawionego złożonego wzorca na jego części
składowe, odpowiadające formie kostek, czyli elementów, z których ów
wzorzec trzeba było „odbudować”. Następnie każdą z kostek, którą
dysponowała osoba badana w danej próbie, zestawia się z wyróżnionymi
wcześniej częściami wzorca. W ten sposób, krok po kroku, odtworzony
zostaje cały wzór. Strategia globalna ujmuje wzorzec jako całość, która
nie podlega segmentacji na mniejsze części. W zamian posiadane kostki
podlegają przeróżnym manipulacjom dopóty, dopóki nie zaczną pasować
do wzorca albo do wzoru tworzonego przez kostki zestawione już ze
sobą, o ile poprawnie odtwarzają cały układ. Trzecia strategia –
syntetyczna – polega na uchwyceniu postaci całego układu. Było to
możliwe, gdyż zastosowano regularne wzorce, takie jak trójkąt lub
diament. Strategia syntetyczna polega na zestawianiu bloków
w porządku konfrontowanym z postacią wzorca. W tym sensie strategia
ta jest zależna od owej postaci, podczas gdy w strategii analitycznej
zależności tej nie ma. O ile strategia analityczna wymaga segmentacji
wzorca, o tyle w strategii syntetycznej nie jest to potrzebne.

W opracowanym przez siebie zadaniu komputerowym rejestrowano


cztery wskaźniki, których następnie użyto do wnioskowania
o indywidualnych strategiach stosowanych przez badanych. Pierwszy
wskaźnik – segmentacja – polegał na rejestrowaniu liczby poprawnie
i błędnie ustawionych kostek. Nazwa wskaźnika wywodzi się stąd, że
osoba, która poprawnie uzupełnia wzór, sprawniej izoluje elementy
układu wzorcowego; łatwiej dokonuje ich segmentacji, czyli podziału na
części odpowiadające blokom, z których należy „odbudować” wzorzec.
Drugi wskaźnik – zorientowanie – to liczba prób prowadzących do
poprawnego umiejscowienia każdej z kostek. Wysoka wartość tego
indeksu świadczy o stosowaniu metody prób i błędów, a niska –
o kierowaniu się uporządkowaną strategią. Kolejny wskaźnik to
porządek umiejscowienia, czyli ocena zgodności lokalizacji każdej
kostki dokonywana w momencie zakończenia zadania. Ocena ta dotyczy
zarówno bezwzględnej lokalizacji kostek w rzędach albo kolumnach, jak
i względnej ich konfiguracji, czyli ujęcia postaci całego wzorca. Czwarty
wskaźnik – częstość konsultacji wzorca – zdefiniowano jako iloraz
liczby wyświetleń wzorca do ogólnej liczby ruchów, które wykonała
osoba badana. W tabeli 11.3 przedstawiono teoretyczne profile,
odpowiadające każdej z wymienionych strategii, odwołując się do
wskaźników rejestrowanych w zadaniu Rozencwajg.

TABELA 11.3. Profile strategii w zadaniu bloki Kohsa

Indeks strategii Segmentacja Zorientowanie Porządek postaci Częstość konsultacji wzorca

Analityczna 1 1 1 0,2

Syntetyczna 1 1 0,4 1

Globalna 0,5 0,5 0,5 0,5

Źródło: opracowanie własne na podstawie Rozencwajg, Corroyer, 2002.

Czynnikiem metapoznawczym, wpływającym na dostępność i elastyczność


używania strategii, jest wiedza ekspercka (Lehrer, Littlefield, 1993;
Novick, 1988; zob. rozdz. 4). Wykryto, że osoby mniej efektywne
w rozwiązywaniu problemów mają dostęp do mniejszej liczby rutynowych
strategii albo efektywność ich realizacji jest mniejsza niż w przypadku osób
bardziej efektywnych. Przyczyną jest najczęściej ograniczona wiedza, czyli
niewystarczający poziom ekspertywności (Siegler, Shrager, 1984) lub niski
poziom uzdolnień (Swanson, 1990). W badaniach H. Lee Swansona
okazało się jednak, że wysoki poziom uzdolnień metapoznawczych jest
czynnikiem kompensującym ewentualny deficyt uzdolnień mierzony
osiągnięciami szkolnymi. Te ostatnie okazały się istotne jedynie wówczas,
kiedy osoba cechowała się niskim poziomem uzdolnień metapoznawczych,
co autor interpretuje jako przejaw częściowej niezależności poziomu
wykonawczego i metapoznawczego w rozwiązywaniu problemów. Szereg
badań (np. Novick, 1988) pokazuje, że wiedza ekspercka jest czynnikiem
wspomagającym wybór odpowiedniej strategii dzięki dostrzeganiu analogii
między aktualnym zadaniem a problemami rozwiązywanymi wcześniej.
Doświadczenie eksperta pozwala zazwyczaj na szybkie i trafne
zidentyfikowanie struktury problemu i użycie najlepszej strategii.

W badaniach Laury Novick (1988) manipulowano transferem pozytywnym


albo negatywnym w obrębie serii zadań matematycznych. Ekspertów
i nowicjuszy wyłoniono na podstawie części matematycznej
amerykańskiego Testu Uzdolnień Szkolnych (Scholastic Aptitude Test,
SAT). W eksperymencie z transferem pozytywnym osoby badane
rozwiązywały cztery problemy ćwiczebne, a następnie piąty, docelowy.
Problemy 1, 3 i 4 były niezwiązane ani ze sobą, ani z problemem
docelowym, zarówno ze względu na ich strukturę powierzchniową (treść
zadania tekstowego), jak i głęboką (procedurę rozwiązania). Dwa z tych
problemów wymagały obliczeń matematycznych, podobnie jak problem
docelowy. Problem 2 powiązany był z problemem docelowym, jednak
analogia między nimi miała charakter głęboki, a nie powierzchniowy.
W grupie kontrolnej cała procedura była podobna, z wyjątkiem tego, że
problem 2 nie wiązał się z problemem docelowym. W przypadku
pierwszych czterech zadań osoby badane – oprócz ich treści – otrzymywały
instrukcję rozwiązania, natomiast problem 5 rozwiązywały już
samodzielnie. W eksperymencie z transferem negatywnym plan badania
był podobny, z tym że problem 2 w grupie eksperymentalnej miał charakter
dystrakcyjny. Jego podobieństwo do problemu docelowego miało charakter
powierzchniowy, ale ich struktura głęboka była różna. Okazało się, że gdy
problemy miały podobną strukturę głęboką, lecz różniły się cechami
powierzchniowymi, eksperci efektywniej dokonywali transferu procedury
rozwiązania problemów analogicznych. W grupie eksperymentalnej
zaledwie 6% nowicjuszy rozwiązało problem docelowy, podczas gdy
eksperci osiągnęli poprawność na poziomie 56%. Co ciekawe, w grupie
kontrolnej nie uzyskano istotnej różnicy między obydwiema grupami.
Ponadto eksperci z grupy eksperymentalnej rozwiązywali problem
docelowy szybciej, zarówno w porównaniu z nowicjuszami, jak
i ekspertami z grupy kontrolnej. Natomiast kiedy problemy były podobne
pod względem cech powierzchniowych, ale różniły się na poziomie
struktury głębokiej, efekt transferu negatywnego okazał silniejszy
w przypadku nowicjuszy. W warunku eksperymentalnym 92% nowicjuszy
i 83% ekspertów zastosowało błędną procedurę rozwiązania zadania
docelowego. Novick (tamże) wyjaśnia uzyskane rezultaty, odwołując się do
niewystarczającej wiedzy nowicjuszy, którzy skupiając się na cechach
powierzchniowych, błędnie reprezentują problem. Błędna reprezentacja nie
zawiera właściwych wskazówek, pozwalających odnaleźć w pamięci
problemy analogiczne, wraz z efektywnymi strategiami ich rozwiązania.
Innymi słowy, ze względu na błędny klucz przeszukiwania niemożliwe jest
odnalezienie informacji, która znajduje się w pamięci. W trzecim
eksperymencie Novick użyła obu zadań (z transferem pozytywnym
i negatywnym) jednocześnie. Założyła, że w przypadku ekspertów
spowoduje to konflikt, ponieważ będą musieli zdecydować, którą
procedurę wykorzystać. Ich ekspertywność powinna zredukować efekt
transferu negatywnego. Natomiast nowicjusze powinni poprzestać na
analizie podobieństwa powierzchniowego, nie wiążąc z sobą problemów
analogicznych na poziomie głębokim. Okazało się, że efekt transferu
negatywnego był mniejszy o 46% w grupie ekspertów i o 20%
w przypadku nowicjuszy, w porównaniu z wynikami uzyskanymi
w eksperymencie drugim. Zdaniem autorki świadczy to na korzyść tezy, że
eksperci dobierają strategie rozwiązywania problemów, odwołując się do
uprzedniego doświadczenia, ale wykorzystują głęboką strukturę problemu.
Natomiast nowicjusze, mimo że również korzystają z nabytych wcześniej
procedur, częściej poprzestają na analizie powierzchniowych cech
problemu i, co za tym idzie, dobierają błędne strategie.

Dobór strategii zależny jest nie tylko od typu zadania, lecz także od profilu
zdolności jednostki. Szczególnie w przypadku strategii ogólnego
zastosowania o ich wyborze decydować mogą w większym stopniu poziom
inteligencji (Kossowska, Nęcka, 1994) i związane z nim dyspozycje
systemu poznawczego, np. pojemna pamięć robocza (Conway, Cowan,
Bunting, Therriault, Minkoff, 2002; Nęcka, Orzechowski, 2005),
a w przypadku problemów dnia codziennego – profil osobowości (Cantor,
Harlow, 1994). Przykładowo Małgorzata Kossowska i Edward Nęcka
(1994) badali strategie używane w rozumowaniu przez analogię. Autorzy
wykryli dwie jakościowo odmienne strategie: analityczną i holistyczną.
Strategia analityczna polegała na względnie długim, sekwencyjnym
i głębokim kodowaniu poszczególnych członów analogii i relatywnie
szybkim oraz poprawnym wyborze rozwiązania, strategia holistyczna zaś –
na szybkim, całościowym i płytkim kodowaniu kolejnych członów
i wolnym oraz mniej poprawnym wyborze rozwiązania. Wykryto
preferencję strategii analitycznej u osób o wysokim poziomie inteligencji.
Autorzy wyjaśnili ten rezultat w odniesieniu do wymagań poznawczych,
jakie stawia strategia analityczna. Mianowicie uznali, że jest ona bardziej
wymagająca dla pamięci roboczej, ze względu na konieczność
przetworzenia i przechowania większej liczby informacji. A skoro poziom
inteligencji koreluje dodatnio z pojemnością pamięci roboczej, być może
właśnie owa pojemność, a nie inteligencja, jest przyczynowo związana
z użyciem określonej strategii. Inne badania dowodzą związku inteligencji
nie tyle z preferencją wobec określonych strategii, ile z plastycznością ich
doboru i użycia (np. Hunt, 1980; Kyllonen, Lohman, Woltz, 1984;
MacLeod, Hunt, Mathews, 1978; Mathews, Hunt, MacLeod, 1980).

Yuichiro Anzai i Herbert Simon (1979) zainteresowali się tym, jak


przebiega proces wypracowywania skutecznych strategii rozwiązywania
problemu Wieży z Hanoi, co jest o tyle interesujące, że raczej specyficzne
dla dziedziny (domain-specific). Badacze użyli wersji zadania z pięcioma
krążkami, śledząc zmiany strategii w czterech kolejnych próbach jego
rozwiązywania. Jak łatwo zgadnąć, w kolejnych próbach badani byli coraz
bardziej skuteczni, ale różnica nie polegała wyłącznie na szybszym
wypracowaniu rozwiązania. Osoby badane zmieniały strategie działania,
początkowo posługując się strategiami ogólnego zastosowania (domain-
independent), aby potem coraz częściej sięgać po strategie specyficzne.
Strategie ogólnego zastosowania cechowały się dwiema właściwościami.
Wiązały się, po pierwsze, z preferencją dla rozwiązań z użyciem mniejszej
liczby ruchów, co w tym zadaniu jest zawodne, może bowiem prowadzić
w ślepą uliczkę. Po drugie – z unikaniem zapętlenia, czyli cofania się do
poprzednich stanów. Początkowa preferencja dla strategii ogólnych jest
zrozumiała, ponieważ był to dla osób badanych problem nowy, a zatem ich
użycie stanowiło jedyne możliwe posunięcie. Autorzy doszli do wniosku,
że wykorzystanie ogólnych strategii, nawet jeśli jest nieskuteczne, pozwala
na wypracowanie bardziej skutecznych strategii specyficznych. Dowiedli
tego, tworząc adaptacyjny system produkcji (rodzaj systemu sztucznej
inteligencji), który na podstawie „doświadczenia” z użyciem reguł
ogólnych był w stanie generować nowe reguły produkcji, używane
w kolejnych próbach rozwiązania problemu.

11.5.4. Faza zdobywania informacji


W tej fazie zdobywane są niezbędne informacje, wymagane do realizacji
zaplanowanej strategii. Informacje o problemie muszą być nie tylko
adekwatne w stosunku do jego struktury i charakteru, lecz także
dopasowane do wcześniej wybranej i dopasowanej strategii działania.
W fazie tej może się więc okazać konieczne zdobycie brakujących
informacji albo zmiana umysłowej reprezentacji problemu, tak aby była
dopasowana do wybranej lub preferowanej strategii.

Na przykład, jeśli chcemy kupić samochód, organizowanie informacji


polega na zdobyciu wiedzy na temat istotnych dla nas właściwości różnych
marek i zintegrowaniu ich w spójną całość. Oprócz preferencji
indywidualnych na istotność wykorzystywanych informacji wpływa
przyjęta strategia rozwiązania problemu zakupu. Jeśli decydujemy się na
zakup auta używanego, kluczowe jest sprawdzenie jego legalności i stanu
technicznego. Poszukujemy więc tych informacji, korzystając z usług
policji i kompetentnego mechanika samochodowego. W przypadku zakupu
nowego auta w salonie wskazane informacje nie mają znaczenia. Badania
nad tak rozumianym pozyskiwaniem i wykorzystaniem informacji
w rozwiązywaniu problemów są domeną psychologii podejmowania
decyzji (zob. rozdz. 12). Richard Carlson i współpracownicy (1990) zbadali
związek między nabywaniem sprawności w rozwiązywaniu problemów
a poziomami organizacji informacji. Autorzy dowiedli, że organizacja
informacji o problemie odbywa na trzech poziomach: strategii, podcelów
i operatorów.

11.5.5. Faza alokacji zasobów


Alokacja zasobów jest nie tyle osobną fazą rozwiązywania problemów, ile
procesem towarzyszącym innym fazom, ponieważ każda z nich wymaga
innego rodzaju zasobów. Charakteryzując proces rozwiązywania problemu
pod kątem alokacji zasobów, należy uwzględnić kilka czynników. Po
pierwsze, istotny jest rodzaj wymaganych zasobów. W grę wchodzą takie
zasoby, jak czas, przedmioty materialne, siła fizyczna, wysiłek umysłowy,
zaangażowanie emocjonalne, wiedza, technologia itd. Po drugie, ważny jest
przydział zasobów w trakcie procesu szukania rozwiązania, ponieważ
w różnych fazach cyklu potrzebne jest większe bądź mniejsze
zaangażowanie określonych zasobów. W przypadku zasobów
poznawczych, np. jednej bądź wielu funkcji uwagi czy pamięci, jest to
proces niesłychanie trudny do zarejestrowania. Podobnie rzecz się ma
z innymi zasobami o charakterze psychologicznym, takimi jak wiedza
i emocje. Odpowiedź na pytanie, które zasoby poznawcze są szczególnie
wymagane w zależności od fazy cyklu, pozwoliłaby głębiej wniknąć
w naturę procesu rozwiązywania problemu, w szczególności –
zarejestrować kluczowe jego momenty, np. ujawnienie się przeszkód lub
wgląd.

O dynamice alokacji zasobów wiadomo stosunkowo niewiele. Wiadomo,


że osoby bardziej sprawne w rozwiązywaniu problemów więcej czasu
poświęcają wstępnym fazom rozwiązywania problemu (identyfikacji,
definiowaniu i reprezentowaniu problemu) niż fazom późniejszym (Bloom,
Broder, 1950). Wiadomo, że eksperci w porównaniu z nowicjuszami
poświęcają więcej zasobów poznawczych planowaniu globalnemu,
dotyczącemu całości problemu, niż planowaniu lokalnemu, odnoszącemu
się do jego fragmentów lub do szczegółowych podcelów (Larkin,
McDermott, Simon, 1980a). Okazuje się jednak, że eksperci są lepsi od
nowicjuszy w obu rodzajach planowania, choć główna ich przewaga
dotyczy planowania globalnego (Sternberg, 1981).

Melanie Cary i Richard Carlson (1999, 2001) badali proces wykorzystania


zasobów pamięci roboczej w rozwiązywaniu problemów arytmetycznych.
Były to zadania wymagające wykonania serii zadań arytmetycznych,
wykorzystujących jako argumenty wyniki wcześniej wykonanych działań.
Ze względu na sekwencyjną ekspozycję zadań niezbędne było
przechowanie wyników cząstkowych. Część osób badanych mogła w tym
celu wykorzystać zewnętrzne nośniki informacji – po prostu notować –
podczas gdy pozostali musieli wykonywać zadania w pamięci. Obie grupy
wypracowały skuteczne strategie radzenia sobie z problemem, lecz
w drugiej grupie były to strategie minimalizujące obciążenie pamięci
roboczej. Kiedy jednak osoby badane mogły zdecydować, czy chcą
korzystać z pamięci zewnętrznej, czy też wolą wykonać zadanie w pamięci,
wybór zależał od kosztów wykorzystania tych zasobów. Kiedy wzrastał
koszt zastosowania pamięci zewnętrznej, np. gdy notatki osoby badanej
zapisywano losowo na ekranie komputera, osoby badane w większym
stopniu skłonne były angażować pamięć roboczą. I odwrotnie – kiedy
wzrastał koszt korzystania z pamięci roboczej, np. trzeba było
selekcjonować wyniki wypracowanych wcześniej działań, osoby badane
częściej korzystały z notowania. Analiza sporządzanych notatek pokazała,
że zwykle są one wybiórcze, co sugeruje, iż uczestnicy posługiwali się
obydwiema strategiami. Natomiast preferencja wobec nośnika
zewnętrznego lub pamięci roboczej była ściśle związana z manipulacją
kosztami wykorzystania obu „mediów”.

Z kolei Elizabeth Grant i Michael Spivey (2003), korzystając z metody


śledzenia ruchów gałek ocznych, badali funkcjonowanie uwagi wzrokowej
w trakcie rozwiązywania problemu rentgenowskiego Karla Dunckera
(1945; paradygmat 11.3). Autorzy przyjęli, że zaangażowanie uwagi
wzrokowej w przetwarzanie istotnych cech problemu jest jednym
z kluczowych procesów leżących u podłoża wglądu. Kłopot w tym, że
w problemach wymagających wglądu osoba badana nie wie, jakie cechy
problemu są istotne. Niekiedy samo przedstawienie go niewłaściwie
ukierunkowuje uwagę badanych, jak w problemie dziewięciu kropek (zob.
ramkę 11.1). Gunter Knoblich i współpracownicy (Knoblich, Ohlsson,
Haider, Rhenius, 1999; Knoblich, Ohlsson, Raney, 2001) twierdzą, że
mechanizm restrukturyzacji pola problemowego w zadaniach
wymagających wglądu polega na rozluźnieniu ograniczeń i dekompozycji
problemu na części składowe. Wymaga więc specyficznej alokacji zasobów
poznawczych, np. uwagi wzrokowej, ale i pamięci roboczej, bo w niej
właśnie dokonuje się manipulacja elementami zadania. W badaniach Grant
i Spiveya (2003) osobom badanym prezentowano uproszczony diagram,
symbolizujący problem rentgenowski (ryc. 11.11), śledząc jednocześnie
ruch gałek ocznych. Wykryto systematyczne wzorce alokacji uwagi
wzrokowej różnicujące osoby, które rozwiązały problem w przepisowym
czasie 10 minut, od badanych, którym to się nie udało. Analizie podlegał
czas średni fiksacji wzroku na każdej z cech diagramu. Okazało się, że
osoby, które skutecznie rozwiązały problem, dłużej – w porównaniu
z osobami nieskutecznymi – utrzymywały wzrok na skórze (o mniej więcej
50%) i poza diagramem (o mniej więcej 20%). Zdaniem autorów
koncentracja na tych elementach pomaga badanym w redefinicji problemu,
skóra reprezentuje bowiem relację między środowiskiem a organizmem
i jest miejscem, w którym promienie zaczynają wywierać wpływ na zdrową
tkankę. Wyniki te świadczą o związku procesu alokacji uwagi wzrokowej
(koncentracji na kluczowych elementach zadania) z efektywnością
rozwiązywania problemu. W kolejnym eksperymencie autorzy
manipulowali wyróżnieniem cech problemu ujętych na diagramie w postaci
animacji (pulsowania). Osoby badane rozwiązywały problem
z wyróżnionym nowotworem lub z wyróżnioną skórą, albo bez żadnej
animacji. Okazało się, że wyróżnienie skóry powodowało znaczący
przyrost liczby osób, które skutecznie rozwiązały problem (z 37%
w warunku statycznym do 67%).

Podobne wyniki omawiają autorzy obszernej metaanalizy dotyczącej różnic


w alokacji uwagi między ekspertami a nowicjuszami – Andreas
Gegenfurtner, Erno Lehtinen i Roger Säljö (2011) przeanalizowali obszerną
bazę wyników badań okulograficznych nad ekspertami pracującymi
z obrazami (takimi jak radiolodzy, lekarze, operatorzy radarów). Wykazali
oni, że eksperci, w odróżnieniu od nowicjuszy, wykazywali ogólnie krótsze
czasy fiksacji wzroku na analizowanych bodźcach oraz częściej fiksowali
wzrok na informacjach diagnostycznych, a rzadziej na informacjach
redundantnych. U ekspertów zaobserwowano również dłuższe sakkady
i krótsze czasy latencji sakkad na diagnostyczne informacje, co autorzy
interpretują jako wyraz sprawniejszych procesów alokacji uwagi w tej
grupie.

Reasumując, wydaje się, że ograniczone zasoby poznawcze, jakimi


dysponujemy, wymagają starannej alokacji już od wczesnych faz
przetwarzania informacji (uwaga wzrokowa) aż do jej obróbki w pamięci
roboczej. Trafność decyzji o alokacji zasobów wiąże się bardzo ściśle ze
skutecznością rozwiązywania problemu.

Paradygmat 11.3

Problem nieoperacyjnego zniszczenia guza jamy brzusznej (Duncker,


1945)

Niemiecki psycholog Karl Duncker (1945), klasyk w dziedzinie badań nad


rozwiązywaniem problemów, zapoczątkował powszechne użycie tego
zadania w badaniach eksperymentalnych nad myśleniem. To realny
problem, który stanął przed lekarzami w pewnym okresie rozwoju
medycyny, a jego rozwiązanie stosowane jest w zbliżonej postaci do dziś.
Rzecz dotyczy sposobu zniszczenia guza żołądka za pomocą
promieniowania. Wiadomo, że promieniowanie rentgenowskie niszczy
tkankę organiczną, zarówno chorą, jak i zdrową. Chodziło o opracowanie
takiej metody, która pozwoli na zniszczenie guza, przy zachowaniu
nienaruszonych zdrowych tkanek w jego otoczeniu. Jest to przykład
problemu źle określonego. Rozwiązanie polega na wykorzystaniu wielu
źródeł promieniowania o niewielkiej mocy, z których każde z osobna nie
jest szkodliwe dla tkanek. Ich ułożenie jest jednak takie, że promienie się
zbiegają (skupiają jak w soczewce) w miejscu, w którym znajduje się guz
(ryc. 11.10). Dzięki temu w miejscu koncentracji uzyskuje się na tyle duże
natężenie promieniowania, że jest ono w stanie zniszczyć chorą tkankę, nie
czyniąc większej szkody tkankom leżącym na drodze poszczególnych
źródeł promieniowania. Obecnie, jeśli stosuje się tę metodę leczenia,
polega ona na użyciu jednego źródła promieniowania o dużej mocy, które
krążąc pod odpowiednim kątem wokół pacjenta uzyskuje maksymalne
natężenie dawki promieniowania w miejscu zajętym przez nowotwór.
O tym, że jest to problem źle określony, świadczy nie tylko niski zazwyczaj
poziom wykonania zadania (zaledwie 10% poprawnych rozwiązań), lecz
także absurdalność niektórych błędnych rozwiązań. Badani proponują np.
rozwiązanie polegające na uodpornieniu zdrowych tkanek za pomocą
słabego promieniowania. Jak wiadomo, nie można uodpornić się na
promienie Roentgena, a nawet gdyby było to możliwe, to zapewne
uodporniłyby się zarówno tkanki zdrowe, jak i chore.
RYCINA 11.10. Problem rentgenowski
Źródło: Duncker, K. (1945). On problem-solving. Psychological Monographs, 58, 1–110. Public
domain.

Na podstawie swoich badań Duncker doszedł do wniosku, że


rozwiązywanie problemów ma charakter fazowy. Badani zaczynają od
sformułowania rozwiązań ogólnych, które de facto nie są jeszcze
rozwiązaniami, lecz dookreśleniem problemu (np. zmniejszenie
intensywności promieniowania w czasie przechodzenia przez zdrową
tkankę). Kolejne rozwiązania są coraz bardziej szczegółowe, aż do takiego
sformułowania, które rzeczywiście odpowiada na pytanie: „jak to zrobić”,
aby dzięki użyciu promieni Roentgena usunąć guz. Problem
nieoperacyjnego zniszczenia guza jest bardzo popularny wśród badaczy
zjawiska transferu przez analogię (zob. podrozdz. 11.7.2).

RYCINA 11.11. Symboliczna reprezentacja problemu rentgenowskiego Dunckera (1945),


prezentowana osobom badanym przez Grant i Spiveya (2003, s. 463)
Opisy umieszczone na diagramie nie były prezentowane osobom badanym, lecz wyjaśniane
w instrukcji do zadania.
Źródło: opracowanie własne.

11.5.6. Faza monitorowania postępu


Monitorowanie jest procesem kontrolnym. Chodzi w nim o bieżące
śledzenie przebiegu procesu rozwiązywaniu problemu i związanych z tym
postępów lub objawów impasu. Paradoksalnie osoby skutecznie radzące
sobie z problemami monitorują proces rozwiązywania mniej uważnie lub
w sposób mniej ciągły, ponieważ monitorowanie samo w sobie pochłania
zasoby poznawcze. W przypadku takich osób monitoring odbywa się
w momentach kluczowych dla procesu rozwiązywania problemu. Dzięki
takiej kontroli i elastycznemu podejściu do problemów eksperci
stosunkowo wcześnie dokonują diagnozy ewentualnych błędów, korygują
je albo rozpoczynają pracę od początku, np. wracają do definicji problemu.

Analiza protokołów werbalnych prowadzi do wniosku, że proces


monitorowania czynności może być uruchamiany dzięki werbalizacji.
Wspominano, że werbalizacja np. zwiększa ilość przypominanego tekstu,
po jego wcześniejszym przeczytaniu na głos (Ballstaedt, Mandl, 1984).
Efekt ten może wynikać albo z uruchomienia pamięci słuchowej (chociaż
Baddeley uważa, że zarówno cicha, jak i głośna werbalizacja angażuje
pętlę fonologiczną), albo z włączenia refleksji dotyczącej obiektu
werbalizacji, np. rozwiązywanego problemu. Zjawisko monitoringu
poddali dokładniejszej analizie Bernadette Berardi-Coletta
i współpracownicy (1995), stosując zadania problemowe wymagające
transferu. W jednym z eksperymentów użyli problemu Wieży z Hanoi,
trenując osoby badane w wykonywaniu coraz bardziej złożonych jego
wersji, a jednocześnie prosili je o głośną werbalizację. Zastosowano trzy
formy instruowania osób badanych co do sposobu werbalizacji, tj.
koncentrację: (1) na problemie (problem focused); (2) na procesie
poznawczym (metacognitive); (3) na procesach wnioskowania (if... then).
Czwartą grupę poproszono po prostu o głośnie myślenie (think-aloud)
w trakcie rozwiązywania problemu, w żaden sposób nie sugerując, czego
ma ono dotyczyć. Grupa kontrolna pracowała w ciszy. Zakładano, że
czynnikiem uruchamiającym procesy monitoringu, prowadzące do
uzyskania głębszego wglądu w istotę problemu oraz wypracowania
efektywnych strategii jego wykonywania, nie jest werbalizacja per se, lecz
jej ukierunkowanie na proces. Okazało się, że najwyższą skuteczność
wykonania zadania z sześcioma krążkami, mierzoną liczbą ruchów
prowadzących do rozwiązania, uzyskały grupy druga i trzecia. Nie wykryto
natomiast istotnych różnic w poziomie wykonania zadania w grupach
czwartej i kontrolnej, co sugeruje, że sama werbalizacja nie jest czynnikiem
wystarczającym do uruchomienia efektywnego monitoringu. W kolejnych
eksperymentach zreplikowano uzyskane rezultaty w zadaniu innego typu
(problem karciany o charakterze indukcyjnym; Kantona, 1940). Co więcej,
zaobserwowano pozytywny wpływ koncentracji na procesie również bez
udziału werbalizacji. Osoby badane poinstruowano, aby po prostu myślały
o procesie, analogicznie do instrukcji zastosowanej w grupie drugiej
w pierwszym z opisanych eksperymentów, ale bez werbalizacji. Autorzy
dowiedli tym samym, że werbalizacja jako taka jest zbędna dla
efektywnego monitoringu.

11.5.7. Faza oceny poprawności rozwiązania


Podobnie jak proces alokacji zasobów czy monitoringu, również ocena
poprawności może być uruchamiana w różnych fazach pracy nad
problemem. Ocenie podlegać może sposób zdefiniowana problemu, a także
adekwatność strategii jego rozwiązywania. Ocenione muszą zostać również
podcele formułowane w przypadku złożonych problemów (np. dzięki
analizie środków i celów) oraz ich realizacja. Odrębną fazą jest jednak
ocena poprawności rozwiązania końcowego. Od niej zależy bowiem, czy
rozwiązanie problemu zostanie zaaplikowane, czy też trzeba ponowić jego
poszukiwanie, co oznacza powrót do poprzednich faz.

Faza oceny rozwiązań polega na sprawdzeniu możliwości wprowadzenia


w życie znalezionego rozwiązania. W tym celu, według Tony’ego Proctora
(2002), trzeba wyodrębnić przeszkody utrudniające aplikację rozwiązania,
a następnie zestawić je ze sposobami ich przezwyciężenia. Innymi słowy,
dochodzi do konfrontacji wypracowanego rozwiązania z tzw. warunkami
brzegowymi, czyli ograniczeniami nałożonymi na rozwiązanie czy na
metodę jego osiągnięcia. Przykładowo w problemie Hobbitów i Orków
(Greeno, 1974; Thomas, 1974) ograniczeniem nałożonym na rozwiązanie
jest to, aby dokładnie wszystkie stworzenia znalazły się po przeciwnej
stronie rzeki. Odpada więc rozwiązanie, w którym co prawda wszyscy
opuszczają jeden brzeg, ale nie wszyscy trafiają na drugi, ponieważ – dla
ułatwienia – po drodze utopiono jednego Orka. Sprawdzeniu podlega
również legalność przekształceń prowadzących do osiągnięcia celu, np. to,
czy zawsze wszyscy pasażerowie wysiadali z łodzi po przepłynięciu rzeki.
W tym przykładzie, podobnie jak i w innych problemach
konwergencyjnych, zastosowanie się do wyrażonych explicite ograniczeń
jest koniecznym i wystarczającym warunkiem akceptacji rozwiązania.
W problemach dywergencyjnych, w szczególności takich, które wymagają
twórczego myślenia, nie jest to warunek wystarczający, tym bardziej że
wiele rozwiązań można uznać za poprawne. Dlatego w tych przypadkach
ocena musi uwzględniać szereg innych kryteriów „dobroci” rozwiązania.
Ocena możliwości aplikacji odnalezionego rozwiązania według Proctora
(2002) obejmuje ponadto przygotowanie planu działania, mającego na celu
wprowadzenie rozwiązania w życie. W przypadku zadań laboratoryjnych
jest to zwykle bardzo proste i polega na wykonaniu określonej reakcji, np.
naciśnięciu przycisku na klawiaturze komputera. W problemach
rzeczywistych, zakładając nawet, że dysponujemy nadzwyczaj skutecznym
i nowatorskim rozwiązaniem, plan wdrożenia często okazuje się krytyczny
i bardzo kosztowny. Doskonale ujmuje to koncepcja twórczego
inwestowania Roberta Sternberga i Todda Lubarta (1991, 1995), w której
„inwestowanie” w nowatorskie rozwiązania może być „tanie” w procesie
jego tworzenia, ale „drogie” w momencie sprzedaży, czyli aplikacji. Chodzi
tu np. o koszty skłonienia społeczeństwa do akceptacji rozwiązania, i to nie
tylko w przypadku pewnej dziedziny nauki czy sztuki, lecz także w życiu
codziennym, jak choćby w przypadku używania pasów bezpieczeństwa
w samochodach. W związku z tym trzecim czynnikiem wpływającym na
ocenę możliwości wdrażania rozwiązań jest według Proctora (2002)
podjęcie działań prewencyjnych i przygotowanie planów awaryjnych.
Chodzi o przygotowanie się na wypadek, gdyby rozwiązanie problemu
spotkało się z oporem albo zostało odrzucone.

11.6. Przeszkody w rozwiązywaniu problemów

11.6.1. Sztywność myślenia


Sztywność myślenia (rigidity of thought) to utrzymywanie się
przeświadczenia, postawy lub sposobu działania, mimo zmiany warunków
i braku ich dalszej przydatności. W rozwiązywaniu problemów sztywność
jest czynnikiem przeszkadzającym w zmianie reprezentacji problemu, czyli
w jego redefinicji. Jest to przeszkoda szczególnie dotkliwa w przypadku
problemów wymagających wglądu, które z definicji wymagają przełamania
narzucającego się, błędnego schematu. Sztywność myślenia występuje pod
warunkiem wcześniejszego utrwalenia się jakiegoś wzorca postępowania
(postawy, schematu albo skryptu poznawczego), uruchamianego w sytuacji
problemowej. Im szybciej on powstaje, tym jest trwalszy i trudniejszy do
przełamania (Luchins, Luchins, 1982). Bezrefleksyjność towarzysząca
wykonywaniu czynności rutynowych również jest czynnikiem potęgującym
sztywność myślenia (Chown, 1959). Odróżnia się dwie składowe
schematów, towarzyszących sztywności myślenia: schemat
formalnostrukturalny oraz schemat perseweratywny (Guetzkow, 1951;
Taylor, McNemar, 1955). Pierwszy wiąże się z fazą nabywania, a drugi –
wykorzystania schematów. W indywidualnych przypadkach sztywność
może być determinowana jedną z tych składowych albo ich wpływem
interakcyjnym.

Hans-Werner Hunziker (1964) podzielił sztywność ze względu na typ


realizowanych zadań. Wyróżnił trzy jej rodzaje: związaną z nawykiem,
restrukturyzacją sytuacji problemowej i generowaniem różnorodnych
rozwiązań. Pierwszy rodzaj sztywności polega na nawykowym
uruchamianiu szybkiej i dobrze utrwalonej, ale niedopasowanej do sytuacji
reakcji. Drugi – na trudności w reorganizacji dostępnych danych w celu ich
ponownego zestawienia (Jaušovec, 1991). Wiele zadań wglądowych
wymaga tego typu reorganizacji (zob. Pretz i in., 2003). Natomiast trzeci
rodzaj sztywności to odwrotność giętkości ideacyjnej, będącej zdolnością
do generowania wielu różnorodnych rozwiązań problemów o charakterze
dywergencyjnym (Guilford, Christensen, Merrifield, Wilson, 1978).

W psychologii rozwiązywania problemów opisano kilka specyficznych dla


tego obszaru przejawów sztywności. Są to: błędne nastawienie, fiksacja
funkcjonalna oraz inercja mentalna. W przypadku problemów o charakterze
społecznym mówi się o schematach i stereotypach.

11.6.2. Nastawienie
Efekt nastawienia (set effect) albo efekt mechanizacji myślenia (mechanization of thought) –
schematyczne podejście do problemu, zgodne z wcześniej wytworzonym sposobem jego
reprezentacji lub utrwaloną procedurą poszukiwania rozwiązania. Skutki transferu uprzednich
doświadczeń są negatywne, gdy struktura głęboka problemów jest różna.

Nastawienie (set effect) to schematyczne podejście do problemu, zgodne


z wcześniej wytworzonym sposobem jego reprezentacji lub utrwaloną
procedurą poszukiwania rozwiązania. W języku teorii Newella i Simona
(1972) nastawienie może zniekształcać każdy z elementów definicyjnych
problemu: dane początkowe, cel, operatory i ograniczenia. Jeśli
zniekształceniu ulegają dane początkowe, niektóre z nich są ignorowane,
a znaczenie innych się przecenia. Zniekształcenie celu polega na
niewłaściwej jego reprezentacji, zniekształcenie operatorów – na
preferowaniu tylko niektórych sposobów przekształcania stanów wiedzy,
a zniekształcenie ograniczeń – na ignorowaniu pewnych warunków albo
przyjmowaniu dodatkowych, nieuprawnionych założeń. W zależności od
warunków zadania nastawienie może ułatwiać lub utrudniać znalezienie
rozwiązania. W skrajnym przypadku uniemożliwia ono skuteczne
rozwiązanie problemu. Klasycznym przykładem efektu nastawienia jest
wcześniej opisany problem dzbanów wody Luchinsa (1942). Początkowe
elementy serii wywołują u osoby badanej tzw. indukcję nastawienia (set-
induction) prowadzącą do wytworzenia sztywnej procedury rozwiązania
problemu. Kiedy okazuje się, że jest nieskuteczna, badani mają problem
z wypracowaniem nowej procedury. Beth Ransopher i Dennis Thompson
(1991) wykryli, że siła efektu Luchinsa jest tym większa, im więcej było
zadań powodujących indukcję nastawienia. Zadanie to ilustruje zarazem
tzw. efekt mechanizacji myślenia (mechanization of thought) i obrazuje
negatywne skutki transferu uprzednich doświadczeń, jeśli głęboka struktura
zadań jest różna.

Mechanizacja myślenia jest bardzo interesującym zjawiskiem. Z jednej


strony prowadzi do zminimalizowania wysiłku poznawczego, niezbędnego
w wykonywaniu zadania, czyniąc proces rozwiązywania problemów
bardziej schematycznym i automatycznym. Jest więc przejawem naturalnej
tendencji systemu poznawczego do oszczędzania jego ograniczonych
zasobów, np. inwestowanej energii i czasu. Z drugiej strony mechanizacja
utrudnia wykorzystanie procesów metapoznawczych, ważnych
szczególnie wtedy, gdy trzeba dostrzec głębokie podobieństwo między
różnymi problemami, a zignorować podobieństwo powierzchniowe.
Oprócz procesów wykonawczych, które realizują bieżące wykonanie
zadania (np. poszukiwanie formuły matematycznej w zadaniu Luchinsa),
rozwiązywanie problemu wymaga wykonania złożonych operacji
metapoznawczych (Davidson, Sternberg, 1998), takich jak dostrzeganie
wspólnych właściwości klasy problemów czy związków analogii. Wymaga
więc zaangażowania wyrafinowanego aparatu poznawczego.

Badania nad schematami poznawczymi dostarczają wielu przykładów


mechanizacji myślenia o zbawiennych skutkach dla sprawności naszego
działania. Przykładowo znany wszystkim schemat poznawczy zawierający
zestaw „procedur” zachowania się w restauracji zwalnia nas z konieczności
ciągłego ich opracowywania, dzięki czemu możemy w pełni zaangażować
się np. w zajmującą rozmowę z towarzyszącą nam osobą. Dlatego
w pewnych sytuacjach inwestycja w metapoznawczą obróbkę sytuacji
w celu zbudowania adekwatnego schematu poznawczego bilansuje się
zmniejszonym wysiłkiem mentalnym w przyszłości. Mechanizacji
myślenia może towarzyszyć również osłabienie kontroli poznawczej,
kiedy schemat poznawczy realizowany jest automatycznie. Luchins
uzyskiwał znaczną poprawę wykonania drugiej części problemu dzbanów
wody, gdy po zadaniu 5 „instruował” osoby badane: don’t be blind (nie
bądź ślepy). Ponad 50% osób z grupy eksperymentalnej przezwyciężyło
wówczas schemat zastosowania formuły B – A – 2C, co autor tłumaczy
wzmocnieniem kontroli poznawczej.
Inercja mentalna (mental inertia) – uporczywe stosowanie zautomatyzowanych schematów, mimo
ich nieadekwatności do danej sytuacji.
Inercja ideacyjna (ideational inertia) – obserwowane w twórczym rozwiązywaniu problemów
usztywnienie się na jednym rodzaju generowanych rozwiązań; wytwarzanie kolejnych odmian tego
samego pomysłu lub skojarzenia.

Uporczywe stosowanie zautomatyzowanych schematów, mimo że nie są


one już adekwatne do sytuacji, nazywa się inercją mentalną (mental
inertia). Pokrewnym zjawiskiem, zaobserwowanym w twórczym
rozwiązywaniu problemów, jest inercja ideacyjna (Cattell, Tiner, 1949),
czyli usztywnienie się na jednym rodzaju generowanych rozwiązań. Polega
to na „krążeniu” wokół jednego skojarzenia czy pomysłu i wytwarzaniu
jego licznych, ale jednorodnych mutacji.

11.6.3. Fiksacja funkcjonalna


Fiksacja funkcjonalna (functional fixedness) – jedna z przeszkód w rozwiązywaniu problemów;
nieumiejętność oderwania się od typowych funkcji pełnionych przez obiekty; niezdolność do
używania obiektów inaczej niż standardowo.

Inną przeszkodą w rozwiązywaniu problemów jest fiksacja funkcjonalna


(functional fixedness), czyli niezdolność do używania obiektów inaczej niż
w ich typowej funkcji. W przypadku problemu dwóch sznurków Maiera
(1931) osoby badane przyjmowały kilka nieuprawnionych założeń, np. że
muszą koniecznie same zbliżyć się do luźno zwisającego sznurka, zamiast
sprawić, aby to on zbliżył się do nich. Jednakże zadanie to dobrze ilustruje
również zjawisko fiksacji na typowych funkcjach przedmiotów
znajdujących się w pomieszczeniu.

Innym zadaniem ilustrującym zjawisko fiksacji funkcjonalnej jest


klasyczny problem umocowania świecy (Duncker, 1945). Badacz zadał
sobie pytanie, czy ludzie mogą zignorować typowe funkcje użytkowe
obiektów, w celu nietypowego ich zastosowania podczas rozwiązywania
problemu. Osobom badanym dawano do dyspozycji zestaw przedmiotów
w sposób przedstawiony na rycinie 11.12. Były to świece, zapałki, pinezki
i pudełka do zapałek. Zadanie polegało na przymocowaniu trzech palących
się świec do drzwi na wysokości około 1 m, w taki sposób, aby wosk nie
zabrudził podłogi, a płomień nie zniszczył drzwi. Duncker zastosował trzy
warunki prezentacji wymienionych przedmiotów. W pierwszym osoba
badana oprócz przedmiotów umieszczonych na rycinie 11.12 otrzymała
szereg innych – chodziło o „ukrycie” przedmiotów istotnych pośród
zupełnie nieprzydatnych. W warunku drugim osoba badana otrzymywała
wyłącznie potrzebne przedmioty, umieszczone w pudełkach. Warunek
trzeci był podobny od drugiego, z tą różnicą, że przedmioty umieszczono
na stole, a nie w pudełkach, które teraz były puste. Rozwiązanie problemu
Dunckera polega na pionowym ustawieniu świec w pudełkach i przypięciu
pudełek do drzwi z użyciem pinezek. Duncker zbadał niewielką próbę
osób, ale i tak wyniki były zdumiewające. W pierwszym warunku tylko
jedna na siedem osób badanych rozwiązała problem, w warunku drugim –
trzy osoby, a w trzecim – wszystkie. Uzyskane rezultaty wyjaśniono,
odwołując się do zjawiska fiksacji funkcjonalnej. Kluczowym obiektem
w zadaniu jest pudełko, które musi być wykorzystane w nietypowej
funkcji. Zastosowana manipulacja eksperymentalna miała więc dwojaki
charakter. Z jednej strony badacz manipulował nieprzydatnym „szumem
informacyjnym”, wprowadzając przedmioty zupełnie nieprzydatne do
rozwiązania zadania (warunek pierwszy). Z drugiej strony wzbudzał
reprezentację pudełka w jego typowej funkcji (warunek drugi). Okazało
się, że oba czynniki wzmagały siłę fiksacji funkcjonalnej.

RYCINA 11.12. Problem umocowania świecy


Źródło: Duncker, K. (1945). On problem-solving. Psychological Monographs, 58, 1–110. Public
domain.

Sztywność może też występować jako cecha osobnicza, a nie nastawienie


uwarunkowane sytuacyjnie (Cattell, Tiner, 1949). Rozumie się ją wówczas
jako dyspozycję i zazwyczaj bada kwestionariuszowo (np. California
Personality Inventory-Flexibility, Gough, Bradley, 1996; Need for Closure
Scale, Kruglanski, Webster, Klem, 1993). Sztywność rozumiana
dyspozycyjnie wydaje się pozytywnie związana ze sztywnością ideacyjną
w zadaniach poznawczych (np. Goldman, Flake, 1998; Kline, Cooper,
1985). Wskazuje to na konieczność uwzględnienia czynników
pozapoznawczych (np. osobowościowych) jako istotnego źródła różnic
indywidualnych w podatności na uleganie efektom usztywnienia
w zadaniach poznawczych. Inne czynniki sprzyjające sztywności to
zaawansowany wiek (zob. Schaie, 1996), płeć męska (zob. Eagly, 1994)
czy obniżony poziom inteligencji (zob. Schaie, 1994) osób badanych.
Również osoby z syndromem obsesyjno-kompulsywnym (zob. Dulaney,
Ellis, 1994) i te cierpiące na schizofrenię (zob. Young, Freyslinger, 1995)
są bardziej podatne na efekt sztywności myślenia. Obszernego przeglądu
psychologicznych badań na temat uwarunkowań sztywności dokonała
Kossowska (2005).

Badacze starają się również zrozumieć mechanizmy neuronalne sztywności


poznawczej. Angie Kehagia, Graham Murray i Trevor Robbins (2010)
dokonali przeglądu badań na ten temat, integrując wyniki z kilku różnych
dziedzin – elektrofizjologicznych, farmakologicznych
i neuroanatomicznych badań na zwierzętach, jak również badań na ludziach
z użyciem technik neuroobrazowania. Dowiedli oni, że istotną rolę
w utrzymywaniu sztywnych nawyków odgrywają połączenia kory
mózgowej i zwojów podstawy mózgu (pętle korowo-podstawne). Wykazali
też rolę neuromodulatorów, szczególnie dopaminy, serotoniny
i noradrenaliny, w modulowaniu aktywności tych pętli i co za tym idzie –
wpływ neuromodulatorów na elastyczność poznawczą. Wyniki te wskazują
na istotną rolę ewolucyjnie starych struktur mózgu w utrzymywaniu
sztywności poznawczej i – co za tym idzie – sugerują, że sztywność
poznawcza jest jedną z podstawowych charakterystyk ludzkiego umysłu.

11.7. Czynniki wspomagające rozwiązywanie


problemów

11.7.1. Transfer pozytywny


Transfer wiedzy (transfer of knowledge) – przenoszenie wiedzy z pewnej dziedziny na zupełnie
inną dziedzinę; jeśli uprzednie doświadczenia ułatwiają pracę nad nowym problemem, mówimy
o transferze pozytywnym; transfer negatywny zachodzi wówczas, gdy rozwiązanie skuteczne
w odniesieniu do jakiegoś problemu utrudnia lub całkowicie uniemożliwia prace nad innym
zadaniem.

Transfer pozytywny to przenoszenie wiedzy albo umiejętności z jednego


problemu na inny, kiedy ich struktura głęboka jest podobna. Doświadczenie
w rozwiązywaniu danego typu problemów facylituje wówczas rozwiązanie
nowych problemów. W zadaniu Luchinsa (1942) mamy do czynienia ze
zjawiskiem transferu, zarówno pozytywnego, jak i negatywnego.
Usprawnienie procesu rozwiązywania kolejnych zadań (transfer
pozytywny) objawia się w skróceniu czasu udzielenia odpowiedzi. Transfer
pozytywny zachodzi jedynie wówczas, gdy zadania są podobne, najlepiej
zarówno na poziomie głębokim (struktura), jak i powierzchniowym (treść).
Kiedy jednak zmienia się struktura głęboka, ale struktura płytka pozostaje
podobna, mamy do czynienia z transferem negatywnym.

Koniecznym warunkiem transferu pozytywnego jest dostrzeżenie


podobieństwa między problemami. Gavriel Salomon i David Perkins
(1987) wyróżniają dwa mechanizmy transferu. Pierwszy polega na
spontanicznym uaktywnieniu dobrze zautomatyzowanego schematu dzięki
podobieństwu bodźców wyzwalających, obecnych w innym kontekście.
Warunkiem tego typu transferu jest, aby wiedza albo strategia poznawcza
podlegająca transferowi była dobrze utrwalona oraz mogła być użyta przy
niewielkim wysiłku mentalnym. Przykładem może być przeniesienie
umiejętności prowadzenia samochodu osobowego na samochód dostawczy
(tamże). Drugi mechanizm wymaga odnalezienia wspólnych cech dwóch
problemów dzięki abstrahowaniu albo wykorzystaniu analogii. Do tego
potrzebna jest dekontekstualizacja poznanych wcześniej rozwiązań,
strategii czy reguł, zanim podjęta zostanie decyzja, czy transfer jest
w ogóle możliwy. Przykładowo, aby na podstawie znajomości efektu
Stroopa (1935) postawić sensowne hipotezy odnośnie do wpływu
angażującej rozmowy kierowcy z pasażerem na zagrożenie, jakie powodują
nowicjusze lub eksperci drogowi, trzeba się pozbyć kontekstu kolorowych
słów, stosowanych w zadaniu laboratoryjnym. Kiedy ujmiemy efekt
Stroopa w kategoriach bardziej ogólnego mechanizmu interferencji
procesów kontrolowanych i automatycznych, okazuje się, że postawienie
takich hipotez staje się możliwe. Ponieważ z efektu Stroopa wiemy, że
proces kontrolowany nie wpływa zakłócająco na proces automatyczny, nie
powinniśmy się spodziewać negatywnego wpływu rozmowy na
prowadzenie samochodu przez eksperta drogowego. Ekspertywność w tym
przypadku oznacza wysoki poziom automatyzacji tej czynności. Natomiast
u nowicjusza wpływ ten powinien być raczej negatywny, co powoduje
zwiększenie zagrożenia kolizją czy wypadkiem. Dzięki dekontekstualizacji
efektu Stroopa możliwy jest więc w tym przypadku transfer pozytywny,
z którego dobrodziejstwa korzysta psycholog eksperymentalny planujący
badania.

11.7.2. Transfer przez analogię


Transfer przez analogię (analogical transfer) – szczególny przypadek transferu pozytywnego;
przeniesienie przez analogię odkrytej relacji łączącej parę lub więcej pojęć na inne pojęcia. Wymaga
dostrzeżenia relacji wyższego rzędu między problemami.

Szczególnym przypadkiem transferu pozytywnego jest transfer przez


analogię. Klasycznym przykładem problemu, w którym można
wykorzystać tego typu transfer, jest problem nieoperacyjnego zniszczenia
guza jamy brzusznej (Duncker, 1945; paradygmat 11.3). Mary Gick i Keith
Holyoak (1980, 1983) w swoich badaniach prosili o rozwiązanie problemu
rentgenowskiego, dzieląc badanych na trzy grupy. Wszystkie grupy
dokonały tego, jednak dwie z nich wcześniej rozwiązywały inny problem,
podobny w swojej strukturze do problemu Dunckera, choć różniący się
treścią. Chodziło mianowicie o wymyślenie sposobu zdobycia silnie
bronionej twierdzy. Atakujący dysponują odpowiednią siłą, a do twierdzy
prowadzi wiele dróg, które zaminowano, przez co nie jest możliwy
zmasowany atak z jednego kierunku. Rozwiązanie polega na rozproszeniu
sił i jednoczesnym, koncentrycznym zaatakowaniu wroga ze wszystkich
stron. Problem ten okazał się łatwy do rozwiązania. Obie grupy
eksperymentalne otrzymały następnie problem rentgenowski, z tym że
w jednej z nich dodatkowo wprost zasugerowano możliwość wykorzystania
analogii z problemem zdobycia twierdzy. Grupa kontrolna rozwiązywała
tylko problem rentgenowski. Okazało się, że – podobnie jak u Dunckera –
jeśli osoby badane zmagały się tylko z problemem rentgenowskim,
prawidłowe rozwiązanie znalazło 10% uczestników. Jednakże wcześniejsze
rozwiązanie problemu izomorficznego (różniącego się treścią, ale
podobnego w swojej strukturze głębokiej) poprawiło wyniki do 30% i aż
do 75%, jeśli dodatkowo pojawiła się jawna sugestia transferu rozwiązania
z problemu źródłowego na problem docelowy.

Spontaniczny transfer przez analogię (który zachodzi bez informowania


osób badanych o podobieństwie problemów) jest jednak zjawiskiem
podatnym na zakłócenia. Robert Spencer i Robert Weisberg (1986)
zastosowali podobną procedurę, jak Gick i Holyoak (1980), ale sesję
treningową i testową przeprowadzili w różnych miejscach. To wystarczyło,
aby wyeliminować spontaniczny transfer. Okazało się również, że
manipulacja podobieństwem cech powierzchniowych i głębokich łączącym
oba problemy zmniejsza albo zwiększa prawdopodobieństwo
spontanicznego transferu. Na przykład Keith Holyoak i Kyunghee Koh
(1987), używając problemów o różnym poziomie podobieństwa
powierzchniowego do zadania Dunckera, dowiedli, że im większe
podobieństwo cech powierzchniowych, tym większe prawdopodobieństwo
dostrzeżenia analogii. Również większa liczba problemów treningowych,
rozwiązanych przed problemem docelowym, ułatwiała spontaniczny
transfer. Późniejsze badania (Mumford, 1999) pokazały, że w przypadku
gdy znajomość dziedzin, z których pochodzą problemy źródłowe, jest mała,
ludzie dostrzegają wyłącznie podobieństwo cech powierzchniowych.
Dopiero ekspertywność pozwala na zauważenie podobieństwa cech
strukturalnych. Nie chodzi jednak o mechaniczny przyrost wiedzy, lecz
o nabywanie abstrakcyjnych schematów rozumowania, będących ogólnymi
reprezentacjami sytuacji problemowych i strategii rozwiązywania
problemów. Im bogatsze są owe schematy, tym łatwiejsze staje się
dostrzeżenie analogii między różnymi dziedzinami (Chen, Mo, 2004).

Niekiedy transfer uprzednio zdobytej wiedzy może przeszkadzać


w rozwiązywaniu problemów analogicznych. Dzieje się tak, jeśli
podobieństwo struktury problemów jest pozorne, czyli dotyczy ich
struktury powierzchniowej, podczas gdy struktura głęboka jest różna, jak
w problemach o charakterze transparentnym (Gentner, 1983). Problemy
zdobycia twierdzy i zniszczenia guza mają inną strukturę powierzchniową,
gdyż mieszczą się w różnych domenach wiedzy, jednak ich struktura
głęboka jest wystarczająco podobna.

11.7.3. Inkubacja
Inkubacja (incubation) – spontaniczna albo celowa przerwa w rozwiązywaniu problemu,
pojawiająca się po doświadczeniu impasu w poszukiwaniu rozwiązania, poprzedzająca wgląd;
pozwala na włączenie dodatkowych danych do przestrzeni problemu oraz osłabia działanie
przeszkód w procesie poszukiwania rozwiązania.

Inkubacja to spontaniczna (np. w efekcie zmęczenia) albo celowa przerwa


w rozwiązywaniu problemu, która pojawia się po doświadczeniu impasu
w poszukiwaniu rozwiązania i poprzedza jego odnalezienie przez wgląd.
Inkubacja pozwala na uniknięcie niekorzystnych skutków działania
przeszkód w rozwiązywaniu problemów. Pojęcie to wywodzi się z teorii
nieświadomego myślenia, zgodnie z którą w czasie przerwy działają
intensywne procesy intelektualne, tyle że nieświadome. Rozwiązanie jak
gdyby „wylęga się” (inkubuje) w nieświadomości, aby – najczęściej na
zasadzie wglądu – „przebić się” do świadomej części psychiki (Smith,
1995). Współcześnie terminem „inkubacja” określa się po prostu przerwę
w intensywnym zajmowaniu się problemem, nie przesądzając o naturze
procesów poznawczych, zachodzących w trakcie jej trwania. Empirycznie
wykazano, że powrót do rozwiązywania problemu po przerwie
inkubacyjnej zwykle skraca czas znalezienia rozwiązania. Przykładowo
Roy Dreistadt (1969) przeprowadził eksperyment, w którym cztery grupy
osób badanych wykonywały serię zadań wglądowych przez 20 minut.
Zadania wymagały przezwyciężenia łatwo narzucających się, ale błędnych
rozwiązań, jak np. w problemie dziewięciu kropek (zob. ramkę 11.1). Jedna
z grup rozwiązywała problemy w pomieszczeniu, w którym
w przypadkowych miejscach znajdowały się podpowiedzi do
wykonywanych zadań. Były to rysunki sugerujące sposoby reorganizacji
rozwiązywanych problemów. Druga grupa nie otrzymywała żadnych
podpowiedzi, ale po 5 minutach aplikowano ośmiominutową przerwę,
podczas której osoby badane otrzymywały inne zadanie. Następnie
powracały do rozwiązywania problemów wglądowych. Założono, że
przerwa w pracy nad problemami uruchomi mechanizm inkubacji. Trzecia
grupa również miała przerwę w rozwiązywaniu problemów, a ponadto
otrzymywała podpowiedzi, podobnie jak grupa pierwsza. Grupa kontrolna
pracowała bez przerwy i nie otrzymywała podpowiedzi.

Okazało się, że sama przerwa inkubacyjna nie wspomaga rozwiązywania


problemów wglądowych (brak różnic w porównaniu z grupą kontrolną).
Skuteczne okazały się natomiast podpowiedzi, zwiększając liczbę
poprawnych rozwiązań. Ponadto błędne rozwiązania, które również
zdarzały się w tej grupie, bliższe były mimo wszystko rozwiązaniom
poprawnym, podczas gdy w innych grupach błędy były mniej
„inteligentne”. Rozwiązania uzyskane przez grupę, której zaaplikowano
przerwę i która otrzymywała podpowiedzi, okazały się najlepsze. Autor
wyjaśnia uzyskane rezultaty, odwołując się do mechanizmu dostrzegania
wzorców percepcyjnych, wykorzystywanych dzięki transferowi przez
analogię w rozwiązywaniu problemu. Mechanizm ten może działać bez
udziału uświadomienia (osoby badane nie zdawały sobie sprawy
z obecności podpowiedzi w otoczeniu). Oderwanie się od problemu nie
wystarczy do uzyskania wglądu, gdyż przerwa inkubacyjna nie działa
automatycznie. Stwarza jednak okazję do poszukiwania w otoczeniu
wzorców percepcyjnych, inspirujących nas w rozwiązywaniu problemów.

Badania nad wpływem przerwy inkubacyjnej na szybkość i łatwość


znalezienia rozwiązania (Dreistadt, 1969; Ponomarev, 1976) prowadzą do
konkluzji, że facylitacja procesu rozwiązywania problemu w fazie
inkubacji nie wynika z samego upływu czasu. Niezbędne jest jeszcze
działanie innych czynników, np. włączenie do przestrzeni problemu
dodatkowych informacji, które mogą zostać wykorzystane w procesie jego
rozwiązywania, choćby na zasadzie transferu przez analogię (Langley,
Jones, 1988). Może się to dokonać bez zdawania sobie sprawy z obecności
jakichkolwiek „podpowiedzi” czy wskazówek.

Mechanizm facylitującego wpływu przerwy inkubacyjnej to nie tylko


włączenie dodatkowych informacji do przestrzeni problemu. Anderson
(1985) proponuje inne wyjaśnienia, zgodnie z którymi przerwa osłabia
działanie przeszkód w procesie poszukiwania rozwiązywania. Po pierwsze,
przerwa inkubacyjna pozwala na „oczyszczenie” zawartości pamięci
roboczej; treści związane z problemem po prostu zanikają, a powrót do
niego po przerwie wiąże się z selektywnym przywołaniem tylko treści
istotnych. Dzięki temu pozbywamy się zarówno nieistotnych detali, jak
i uprzedniego nastawienia, które może być błędne. Zrekonstruowana w ten
sposób reprezentacja sytuacji problemowej może zasadniczo różnić się od
wyjściowej. Przerwa służy więc innemu spojrzeniu na problem, a nawet
jego redefinicji. Po drugie, przerwa inkubacyjna, powodująca konieczność
rekonstrukcji problemu, pozwala na włączenie w pole problemu elementów
uprzedniej wiedzy. Wiedza ta często nie może być uaktywniona przed
przerwą, czy to z powodu przeładowania pamięci roboczej nadmiarem
danych, czy to w wyniku wyższej aktywacji dostarczonych danych
w porównaniu z elementami posiadanej wiedzy. Ponowna integracja
informacji prowadzi do zmiany nastawienia (Anderson, 1985) bądź do
innego spojrzenia na problem (Bastik, 1982). Badania Eliaza Segala (2004)
wykazały, że przerwa inkubacyjna zwiększa szanse rozwiązania przy
powtórnym podejściu do zadania, szczególnie jeśli w jej trakcie uczestnicy
eksperymentu wykonywali absorbujące ćwiczenia umysłowe. Ci, którzy
w przerwie wykonywali zadania trywialne, mniej na niej skorzystali.
Wynik ten przemawia na korzyść teorii, że przerwa inkubacyjna działa,
jeśli odwraca uwagę od wyjściowego problemu i pozwala przezwyciężyć
błędne nastawienia.

Przerwa inkubacyjna, o ile towarzyszy jej relaksacja (obniżenie pobudzenia


korowego), może prowadzić do ekstensyfikacji uwagi (Kolańczyk, 1991)
i zwiększenia chwilowej pojemności pamięci roboczej (Nęcka, 2000).
Pierwszy czynnik – uwaga ekstensywna – pozwala na włączenie do
bieżącego przetwarzania tych informacji, które normalnie są odrzucane
jako szum, a mogą stanowić klucz do rozwiązania problemu. Problemy
wymagające wglądu łatwiej nam rozwiązać, wykorzystując informacje
„nieistotne”, np. widok przypadkowych przedmiotów, choć niekiedy
potrzebujemy również wyłączenia z przestrzeni problemu informacji
z pozoru istotnych, np. specyficznego ustawienia bodźców w problemie
dziewięciu kropek, sugerującego konieczność „zamknięcia się” w planie
kwadratu. Drugi czynnik – pamięć robocza – pozwala na utrzymanie
większej liczby informacji, w tym również „nieistotnej”, w stanie wysokiej
gotowości do użycia w procesie rozwiązywania problemu. Nęcka (2001)
wskazuje na jeszcze inne, jak się wydaje najprostsze, wyjaśnienie
mechanizmu inkubacji. Mianowicie przerwa inkubacyjna może być okazją
do odpoczynku i regeneracji zasobów energetycznych, szczególnie kiedy
rozwiązywany problem jest trudny i wymaga długotrwałego, wzmożonego
wysiłku.

11.7.4. Wgląd
Wgląd to pojawiająca się nagle zmiana percepcji problemu, prowadząca do
zrozumienia jego istoty. Jak wspomniano, przerwa inkubacyjna może
prowadzić do rozwiązania problemu przez wgląd. Tego typu rozwiązanie
ma dwie charakterystyczne cechy: wgląd wiąże się z zasadniczą zmianą
struktury problemu i doświadczeniem nagłości rozwiązania. Jeśli
poprzedza go faza inkubacji, towarzyszy mu wcześniejsze doświadczenie
impasu czy nawet porażki. Nagłość wglądu stwierdzano zarówno
w zeznaniach introspekcyjnych wybitnych twórców (Ghiselin, 1952;
Hadamard, 1964; Shaw, 1989, 1994), jak i w badaniach empirycznych
(Metcalfe, 1986; Metcalfe, Wiebe, 1987). Janet Metcalfe i David Wiebe
(1987) użyli w swoich badaniach dwóch typów problemów: rutynowych
(zadania algebraiczne) i wymagających wglądu. W trakcie rozwiązywania
osoby badane systematycznie oceniały na skali „ciepło–zimno”
subiektywne poczucie odległości od poprawnego rozwiązania.
W przypadku problemów algebraicznych badani relacjonowali dość
jednostajne poczucie zbliżania się do rozwiązania, natomiast w przypadku
problemów wymagających wglądu przez większość czasu odczuwali
„zimno”, po czym zaraz przed ich rozwiązaniem nagle pojawiało się
poczucie „ciepła”. Autorzy wyciągnęli na tej podstawie wniosek
o nieciągłej naturze procesu rozwiązywania problemów wymagających
wglądu.

Nagłości wglądu towarzyszy reakcja „aha!”, która oznacza, że rozwiązanie


jest zaskakujące przede wszystkim dla osoby go szukającej. Graham Wallas
(1926) wyjaśniał to zjawisko, odwołując się do koncepcji nieświadomej
pracy umysłu w fazie inkubacji. Skoro rozwiązanie powstaje
w nieświadomości, jego przebicie się do świadomości następuje w zupełnie
niespodziewanym czy nawet przypadkowym momencie. Z kolei Weisberg
(1986, 1988) uważa, że nieciągłość procesu rozwiązywania problemów jest
złudzeniem, proces ten polega bowiem zawsze na systematycznym
przyroście wiedzy i kompetencji, co w końcu prowadzi do osiągnięcia celu.
Rozwiązywanie problemów, szczególnie tych złożonych, jest ciągiem prób
i błędów, więc polega na wielokrotnym przerywaniu go i podejmowaniu na
nowo. Odczucie nagłości wynika z zaskoczenia osoby rozwiązującej
problem, że właśnie ta próba okazała się skuteczna.

Zmiana struktury problemu to zmiana jego poznawczej reprezentacji


w umyśle. Ponieważ reprezentacja problemu obejmuje dane wyjściowe,
cel, dopuszczalne reguły przekształcenia stanów wiedzy i restrykcje wobec
operatorów (Newell, Simon, 1972), wgląd może polegać na nagłej zmianie
któregokolwiek z tych elementów. Holyoak (1984) pisze ponadto
o „wglądowej” zmianie w zakresie możliwych lub dopuszczalnych strategii
poszukiwania rozwiązań, a także o zmianie obiektów, procedur
i elementów wiedzy, ułatwiających zdefiniowanie i rozwiązanie problemu.
Trudność problemów wymagających wglądu polega najczęściej na
niedookreśleniu co najmniej jednego z tych elementów. Na podstawie
niekompletnych danych człowiek buduje wewnętrzną reprezentację
problemu, która po pewnym czasie okazuje się niewłaściwa. Typowe
heurystyki są tu zazwyczaj nieskuteczne, początkowo bowiem nie widać
żadnego sposobu zredukowania rozbieżności między stanem pierwotnym
a pożądanym. Dlatego pojawia się impas w rozwiązywaniu problemu.
Stellan Ohlsson (1984a, 1984b) uważa, że impas jest czynnikiem
skłaniającym osobę rozwiązującą problem do jego restrukturyzacji, co
oznacza zmianę sposobu reprezentowania go w umyśle. Aby jej dokonać,
niezbędne jest znalezienie alternatywnych sposobów umysłowej
reprezentacji problemu, a dopiero potem szukanie rozwiązania. Podobna
idea legła u podstaw systemu twórczego rozwiązywania problemów TRoP,
wprowadzonego przez Nęckę (1994). Autor podzielił techniki twórczego
rozwiązywania problemów na takie, które dotyczą przestrzeni problemu,
czyli pozwalają na zmianę jego reprezentacji, oraz takie, które działają
w przestrzeni rozwiązań, służąc generowaniu pomysłów.

Poznawcze teorie wglądu opisują jego mechanizmy, odwołując się do


elementarnych procesów, które mogą leżeć u podłoża tego zjawiska.
W pracach przeglądowych (Davidson, 2003; Nęcka, 2001) wyróżnia się
trzy stanowiska, inaczej wyjaśniające opisywany mechanizm. Na przykład
Janet Davidson pisze o nothingspecial approach, puzzle-problem approach
i great-mind approach. Nęcka skupia się na konkretnych mechanizmach
wglądu, czyli wybiórczości, upraszaniu problemu i korzystaniu z okazji.
Ponieważ podziały te częściowo nakładają się na siebie, omówiony
zostanie drugi z nich.

Podstawowe twierdzenie poznawczych teorii wglądu mówi, że


rozwiązywanie problemów wglądowych nie różni się zasadniczo od
rozwiązywania problemów rutynowych, a procesy poznawcze leżące u ich
podłoża są zupełnie zwyczajne (nothing-special approach, Sternberg,
Davidson, 1982; memory position, Finke, Ward, Smith, 1992).
Robert Weisberg i Joseph Alba (1981) uważają, że poznawczą podstawą
wglądu jest przypominanie i zastosowanie uprzedniej wiedzy dotyczącej
rozwiązywania problemów. Innymi słowy, u podłoża skutecznego
rozwiązania problemów noszących miano wglądowych leży specyficzna
wiedza pochodząca z uprzedniego doświadczenia, a nie jakieś egzotyczne
operacje umysłowe. Autorzy w swoich badaniach zastosowali problem
dziewięciu kropek (Scheerer, 1963), na różne sposoby pomagając osobom
badanym w odnalezieniu rozwiązania. Okazało się, że podpowiedź
dotycząca podstawowej przeszkody stojącej na drodze do rozwiązania, tj.
tego, że rozwiązanie wymaga rysowania linii poza granicami
wyznaczonymi przez kształt, w który układają się kropki, nie ułatwiała
rozwiązania. Ułatwieniem takim było natomiast uprzednie doświadczenie
w rozwiązywaniu podobnych problemów. Przypominanie uprzedniej
wiedzy (doświadczeń) dotyczącej rozwiązania problemów okazało się
jednak niewystarczające do wyjaśnienia procesu rozwiązywania
problemów zupełnie nowych. Dlatego Weisberg i Alba (1982)
zaproponowali uzupełnienie procesu rozwiązywania problemów
wglądowych o fazę zastosowania wiedzy lub doświadczenia w nowej
sytuacji. Jeśli zestawiając nowy problem z posiadaną wiedzą, odkrywamy
pewne niezgodności, wówczas inicjujemy kolejny proces przeszukiwania
pamięci, którego celem jest ich usunięcie. Powstaje w ten sposób lista
podproblemów, których rozwiązanie pozwala na taką modyfikację
sformułowania właściwego problemu, że będzie ono w pełni dopasowane
do nowej sytuacji. Zachodzi to wyłącznie na podstawie posiadanej wiedzy
i procesów wnioskowania. Inaczej rzecz ujmując, u podłoża rozwiązywania
zadań wglądowych leży proces wielokrotnego przeszukiwania pamięci,
który pozwala na jego restrukturyzację. Rozwiązywanie problemów
wglądowych, podobnie jak rutynowych, jest procesem
ustrukturalizowanym i polega raczej na realizacji dyskretnych faz niż na
spontanicznym przeformułowaniu problemu albo dokonywaniu
„przekazów” umysłowych (zob. Perkins, 1981; Weisberg, 1986).
Selektywne kodowanie (selective encoding) – wybiórczy odbiór informacji z zewnątrz, również
danych obecnych w polu problemowym, ale do tej pory ignorowanych.
Selektywne porównywanie (selective comparison) – wybiórcze odnoszenie nowych informacji do
już posiadanej wiedzy dokonywane przy użyciu analogii bądź metafory, gdy zostanie dostrzeżone
podobieństwo nowego problemu do starej wiedzy.
Selektywne łączenie (selective combination) – wybiórcze zestawianie posiadanych elementów
wiedzy w nowe całości, które może doprowadzić do rozwiązania lub restrukturyzacji problemu.

Inne stanowisko również akcentuje „zwykłość” procesów poznawczych


leżących u podłoża wglądu, które cechuje specyficzna selektywność.
Dotyczy ona procesów kodowania, porównywania i łączenia informacji
(Davidson, Sternberg, 1986). Ujmując rozwiązywanie problemów jako
proces przeszukiwania przestrzeni problemu, autorzy uznają selektywność
kodowania, porównywania i łączenia informacji jako czynniki
wspomagające nawigację w tej przestrzeni, tj. zmianę wewnętrznej
reprezentacji danych i relacji między nimi. Selektywne kodowanie polega
na wybiórczym odbiorze informacji z zewnątrz, nie tylko nowej, lecz także
takiej, która była obecna w polu problemowym, ale ignorowana. Proces
selekcji w kodowaniu informacji może mieć dwojaki charakter: zwrócenia
uwagi na informacje istotne, ale dotychczas ignorowane, albo odwrotnie,
inhibicji pozornie istotnych informacji, która działa dystrakcyjnie.
Selektywne porównywanie polega na wybiórczym odnoszeniu nowych
informacji do uprzedniej wiedzy. Wtedy może nastąpić odkrycie istotnego,
ale niewidocznego wcześniej związku między tymi dwoma typami
informacji. Dokonuje się to zazwyczaj dzięki analogii bądź metaforze, o ile
dostrzeżone zostanie podobieństwo między nowym problemem a starą
wiedzą i będzie ono adekwatne. Selektywne łączenie polega na
wybiórczym zestawianiu posiadanych elementów wiedzy w nowe całości.
Każdy z tych elementów może być znany, ale inne ich zestawienie może
spowodować restrukturyzację problemu lub jego rozwiązanie. Ponieważ
selekcja jest wszechobecna w przetwarzaniu informacji, a zwykle nie
towarzyszy jej wgląd, procesy wymienione przez Davidson i Sternberga
muszą spełniać trzy warunki: (1) sprawiać wrażenie, że wystąpiły nagle
i nieoczekiwanie; (2) nie występować od początku pracy nad problemem;
(3) prowadzić do zmiany poznawczej reprezentacji problemu. Badacze ci
uważają, że procesy selektywnego kodowania, porównywania i łączenia
mogą mieć charakter wglądowy albo niewglądowy, o czym decydują np.
względy natury fenomenologicznej (czyli to, że sprawiają określone
wrażenie). Co ciekawe, rozwiązanie problemu może niekiedy zostać
osiągnięte zarówno na drodze wglądu, jak i systematycznego
i długotrwałego nabierania wprawy, bez skokowych zmian w sposobie jego
reprezentowania.
Upraszczanie problemu – stosowane w przypadku rozwiązywania problemów złożonych, które
wymagają wielu operacji kombinatorycznych przeładowujących STM. Upraszczania dokonuje się,
oswajając problem albo na drodze selektywnego zapominania.

Inne podejście wyjaśniające wgląd odwołuje się do mechanizmu


upraszczania problemu. Simon (1977) zauważył, że „prawdziwe”
problemy, zwłaszcza naukowe, są nadmiernie złożone. W terminologii
psychologii poznawczej oznacza to, że liczba reprezentacji umysłowych
składających się na pełne przedstawienie problemu jest olbrzymia. Skoro
rozwiązywanie problemów wymaga wielu operacji kombinatorycznych
przeprowadzanych na tych reprezentacjach, co z kolei odbywa się
w limitowanej pojemnością pamięci krótkotrwałej, to ich kompletne
przeprowadzenie jest niemożliwe. Dlatego złożone problemy muszą zostać
uproszczone, tak aby nie przeciążyć pamięci w trakcie ich rozwiązywania.
Kiedy uda się dokonać takiego uproszczenia, rozwiązanie może się pojawić
nieoczekiwanie, sprawiając wrażenie nagłości. Uproszczenie może się
dokonać albo dzięki zabiegowi oswajania problemu (familiarization), albo
dzięki selektywnemu zapominaniu (selective forgetting). Pierwszy z nich
polega na grupowaniu elementów składowych problemu w coraz
pojemniejsze i bardziej abstrakcyjne „zlepki”. Redukujemy złożoność,
tworząc reprezentacje wyższego rzędu, upakowując elementarne składniki
wiedzy w struktury nadrzędne.

Ponieważ złożone problemy naukowe lub życiowe mogą być


rozwiązywane latami, efekty grupowania są kodowane w pamięci trwałej,
co pozwala sięgać do nich w dalszych fazach pracy nad problemem. Drugi
zabieg – selektywne zapominanie – polega na wyłączeniu z reprezentacji
sytuacji problemowej tych elementów, które albo są nieistotne, albo nie
pasują do żadnego z upakowanych zlepków informacji. Dzięki
selektywnemu zapominaniu elementy zbędne są rzadziej przywoływane
z pamięci trwałej, a nawet jeśli już zostaną przywołane, nie można ich
wpasować w istniejące struktury wyższego rzędu. O ile oswajanie zachodzi
we wczesnych fazach rozwiązywania problemu, o tyle selektywne
zapominanie charakterystyczne jest dla fazy inkubacji. Wgląd następuje
wówczas, gdy w wyniku wielu cykli oswajania i selektywnego
zapominania problem zostanie na tyle uproszczony, że zmieści się
w pamięci krótkotrwałej. Nagle wszystkie ważne elementy struktury
problemu gromadzą się w jednym miejscu (tj. pamięci roboczej) i czasie,
skutkując nieoczekiwanym pomysłem i dogłębnym zrozumieniem tematu.
Oportunistyczna asymilacja – automatyczny, nieświadomy odbiór z pola percepcji przypadkowych
informacji wspomagających rozwiązanie problemu. Zachodzi zwykle w fazie inkubacji.

Trzecie stanowisko upatruje mechanizm wglądu w wykorzystaniu


przypadkowego pojawienia się informacji w polu percepcyjnym. Takie
skorzystanie z okazji jest jednak możliwe, jeśli istnieje nastawienie na
odbiór tego typu informacji, a to zachodzi wówczas, gdy uprzednio
intensywnie, ale bez sukcesu zajmowaliśmy się problemem. Odbiór
informacji wspomagającej rozwiązanie problemu odbywa się już
automatycznie, zwykle w fazie inkubacji. Colleen Seifert
i współpracownicy (1995) dokonali opisu tego mechanizmu, który nazwali
oportunistyczną asymilacją. Autorzy założyli, że wstępna,
przygotowawcza faza rozwiązywania problemu zawiera cztery stadia.
Pierwsze, czyli konfrontacja z problemem, polega na usilnych próbach jego
zrozumienia i rozwiązania.

Stadium to może trwać bardzo długo. Następnie pojawia się doświadczenie


porażki. Istotne dla tego stadium jest uznanie braku zadowalającego
rozwiązania i poszukiwanie jej przyczyn. Autorzy twierdzą, że bez
doświadczenia porażki, jej akceptacji oraz zrozumienia sensu i przyczyn
wgląd jest mało prawdopodobny. Dalej porażka musi zostać zakodowana
w pamięci trwałej, po czym następuje zaprzestanie pracy nad problemem,
czyli przejście w stan inkubacji. Inkubacja charakteryzuje się swego
rodzaju wrażliwością na informacje, które mogą być przydatne do
rozwiązania problemu. Nie zapominamy tego, co było, a jedynie
uwrażliwiamy się na specyficzne bodźce, które mogą pomóc w znalezieniu
rozwiązania. Źródłem tych informacji może być również aktywność
wewnętrzna jednostki, będąca wynikiem np. fantazji czy marzeń sennych.
Kulminacją fazy inkubacji jest przywołanie śladu pamięciowego porażki,
prowadzące do iluminacji (wglądu), czyli wypracowania poprawnego
rozwiązania. Wywołuje to doświadczenie nagłości, wzrost pobudzenia
emocjonalnego i pozytywny afekt. W fazie początkowej iluminacji
dochodzi do zinterpretowania i asymilacji informacji wskazówek
pomocnych w przełamaniu impasu. Koniecznym jej warunkiem jest
przywołanie z pamięci oznak impasu, a właściwie szczegółów zarzuconego
w wyniku porażki problemu. Dopiero wtedy dochodzi do jego pełnego
zrozumienia i rozwiązania, połączonego z reakcją „aha!”. Doświadczenie
nagłości iluminacji wynika z tego, że odbiór wskazówki odbywa się
automatycznie i niekiedy człowiek nie zdaje sobie sprawy z tego, co
doprowadziło go do rozwiązania problemu. W tym ujęciu wgląd jest
również skutkiem działania zwyczajnych procesów poznawczych.
Szczególny ich układ jednak, w połączeniu z podjęciem problemu
wymagającego wglądu, może doprowadzić do niezwykłego i subiektywnie
tajemniczego doświadczenia nagłości, z jaką rodzi się nowa idea.

Wangbing Shen i współpracownicy (2018) dokonali obszernej metaanalizy


psychofizjologicznych badań nad inkubacją i wglądem. Na podstawie
blisko 40 badań zidentyfikowali sieć mózgową aktywną w trakcie
rozwiązywania zadań z udziałem wglądu. Sieć ta obejmuje dolny zakręt
czołowy w lewej półkuli, środkowy zakręt czołowy w prawej półkuli,
prawy zakręt hipokampu oraz ciało migdałowate w lewej półkuli.
Dodatkowo autorzy byli w stanie przypisać zmiany aktywacji mózgu
odpowiadające fazom powstawania wglądu (Wallas, 1926). Na przykład
faza inkubacji jest związana z aktywnością rozległej sieci obejmującej
powyższe obszary i dodatkowo zakręt potyliczny środkowy, natomiast faza
iluminacji – jedynie z aktywnością prawego zakrętu hipokampu i lewego
ciała migdałowatego, co świadczy o radykalnej zmianie wzorca aktywacji
mózgu przy przechodzeniu od fazy inkubacji do iluminacji. Wyniki te
sugerują, że inkubacja i iluminacja są zjawiskami po części afektywnymi
oraz że angażują procesy pamięciowe, co potwierdza wcześniejsze
psychologiczne hipotezy na ten temat.

11.8. Rozwiązywanie złożonych problemów


Osobną kategorię stanowią problemy o bardzo dużym stopniu złożoności.
Są to prawdziwe, rzeczywiste problemy występujące w jakiejś dziedzinie
życia (real life problems) albo ich komputerowe symulacje w postaci tzw.
mikroświatów (microworlds). Przykładem mikroświata jest program
symulujący zarządzanie portem lotniczym lub wymagający dowodzenia
fikcyjnym oddziałem straży pożarnej. W badaniach prowadzonych na
gruncie psychologii poznawczej używa się trzech grup zadań (ryc. 11.13).
Pierwsza to elementarne zadania poznawcze, np. wymagające weryfikacji
treści zdań. Ich wykonanie wymaga nie więcej niż kilku sekund, a typowy
eksperyment psychologiczny zawiera kilkadziesiąt pojedynczych prób tego
rodzaju. Druga grupa to złożone zadania poznawcze, takie jak
rozwiązywanie sylogizmów lub analogii. Na takie zadanie potrzeba zwykle
kilku minut. Grupa trzecia obejmuje bardzo złożone zadania poznawcze,
np. komputerowe symulacje zarządzania portem lotniczym. Ich wykonanie
wymaga zwykle kilku godzin. Klasyfikacja przedstawiona na rycinie 11.13.
obejmuje tylko zadania stosowane w eksperymentach psychologicznych.
Należałoby ją zatem uzupełnić o problemy jeszcze bardziej złożone,
rozwiązywane często w skali wielu lat. Do tej kategorii należą np.
problemy naukowe lub wynalazcze, wymagające twórczego podejścia
i bardzo silnej motywacji.
RYCINA 11.13. Charakterystyka problemów z uwzględnieniem ich złożoności, czasu
wykonania i udziału procesów oddolnych (bottom-up) i odgórnych (top-down)
Dziedzina psychologii rozwiązywania problemów interesuje się głównie drugim (CCT) i trzecim
(VCCT) typem problemów.
Źródło: opracowanie własne.

Im bardziej problem jest złożony, tym więcej czasu potrzeba na jego


rozwiązanie, a ponadto tym ważniejsze staje się zaangażowanie procesów
planowania i kontroli poznawczej.

Problemy o dużym stopniu złożoności charakteryzuje kilka właściwości


(Funke, 1991). Pierwszą z nich jest brak przejrzystości (intransparency)
wynikający z ukrytego charakteru wielu istotnych danych. W złożonych
problemach zazwyczaj tylko część zmiennych decydujących o wyniku ma
charakter obserwowalny. Reszta jest ukryta, a informacje o ich istnieniu
muszą być wywnioskowane z tego, co zostało ujęte jawnie, albo na
podstawie informacji zwrotnej o skutkach działań powziętych przez osobę
zmagającą się z problemem. Często dostępna jest wyłącznie informacja
o symptomach, na podstawie których „diagnozuje się” reguły obowiązujące
w jakimś układzie, np. w symulowanej fabryce. Problem jest mało
przejrzysty również wtedy, gdy zmiennych jest na tyle dużo, że konieczna
staje się ich selekcja. Gdyby nie selekcja, system poznawczy uległby
przeładowaniu, przez co byłby niezdolny do adekwatnego reagowania.

Druga cecha bardzo złożonych problemów to politeliczność (polytely).


Problemy takie cechują się wielością celów, które – w rozwiązaniu
idealnym – należałoby jednocześnie osiągnąć. Często jednak i one muszą
podlegać selekcji, próba uwzględnienia wszystkich kończy się bowiem
przeładowaniem systemu poznawczego. Cele mogą być ponadto sprzeczne,
np. wtedy, gdy firma chce inwestować, a jednocześnie osiągać bieżące
zyski. W takiej sytuacji dochodzi do przetargu pomiędzy celami.

Trzecia cecha to złożoność sytuacji problemowej (complexity of the


situation). Decyduje o tym nie tylko duża liczba zmiennych, definiujących
sytuację początkową i wpływających na wynik końcowy, lecz także ich
wzajemnie związki, niewielka możliwość ich kontroli i duża dynamika
zmian w strukturze problemu. Również w tym przypadku mamy do
czynienia z przetargiem między jakością rozwiązania problemu a kosztami
związanymi z jego poszukiwaniem. Zdarza się, że dobre rozwiązanie
wymagałoby zbyt dużo czasu i innych nakładów, a to, które jest możliwe
do osiągnięcia mniejszym kosztem, nie całkiem nas zadowala.

Czwarta cecha złożonych problemów to liczne i różnorodne związki


między zmiennymi (connectivity of variables). Problemy tego rodzaju
charakteryzują się skomplikowanymi powiązaniami istotnych dla wyniku
zmiennych. Zmiana jednego parametru wpływa na stan wielu innych. Im
bardziej interakcje zmiennych są skomplikowane, tym trudniej przewidzieć
samoistne zmiany sytuacji lub możliwe konsekwencje zmiany wywołanej
naszą ingerencją. Na przykład kurs akcji na giełdzie zależy od tak wielu
wzajemnie powiązanych czynników, że trudno go trafnie przewidzieć
i wykorzystać w podejmowaniu decyzji.

Piąty czynnik to dynamiczny charakter zmian (dynamic developments).


Złożona sytuacja problemowa podlega samoistnym zmianom, najczęściej
na gorsze, co zmusza osobę rozwiązującą problem do podejmowania
natychmiastowych działań pod presją czasu. Problem tego typu może więc
polegać na utrzymaniu obecnej, korzystnej sytuacji albo na optymalizacji
wyniku. Dynamika spadkowa stanowi wówczas przeszkodę na drodze do
jego rozwiązania. Dobrym przykładem jest współczesny marketing, bez
którego sprzedaż produktów zazwyczaj gwałtownie spada. Aby ją
utrzymać, a tym bardziej poprawić, trzeba nieustannie podejmować
działania promocyjno-reklamowe, a nawet regularnie wprowadzać
ulepszone wersje produktu.

Szóstą cechą złożonych problemów jest odroczenie efektów w czasie (time


delayed effects). Skutki podjętych działań widoczne są niekiedy z dużym
opóźnieniem. Z tego względu podejmowane działania wymagają
uwzględnienia krótko- i długoterminowej perspektywy. W wielu
symulacjach ekonomicznych (np. popularna gra komputerowa SimCity)
natychmiastowy efekt podniesienia podatków jest korzystny, ale w dłuższej
perspektywie prowadzi do zahamowania rozwoju przedsiębiorczości
i migracji ludności. Podobnie budowanie wizerunku organizacji wymaga
podjęcia wielu długofalowych działań, na których efekty trzeba czekać
niekiedy wiele lat.
Najczęściej używanym w badaniach laboratoryjnych typem złożonych
problemów są zadania wymagające kontroli jakiegoś procesu. Interesujący
przykład stanowi zadanie BLACK BOX (Mackinnon, Wearing, 1985),
które wymaga od osoby badanej sterowania zachowaniem „czarnej
skrzynki”. „Skrzynka” ujawnia pewne stany wyjściowe w odpowiedzi na
określone stany na wejściu, przy czym związek między wejściem
a wyjściem opisuje skomplikowana formuła matematyczna. Osoba badana
nie wie, z jakiego rodzaju systemem ma do czynienia, nie ma więc żadnych
wstępnych hipotez odnośnie do reguł rządzących zachowaniem „czarnej
skrzynki”. Według kryteriów uwzględnionych przez Funkego BLACK
BOX charakteryzuje się brakiem zmiennych ukrytych, pojedynczym celem,
dużym poziomem złożoności reguły wiążącej wejście i wyjście, brakiem
presji czasu, znaczną dynamiką zmian i odroczeniem efektu w czasie. Jest
to więc problem stosunkowo prosty jak na kategorię, do której należy. Na
drugim krańcu kontinuum złożoności znajdują się problemy zawierające
więcej niż 100 zmiennych. Przykładem tego typu jest LOHHAUSEN,
przedstawiające symulację funkcjonowania niewielkiego miasta (Dörner,
Kreuzig, 1983). Celem osoby badanej jest dbanie o rozwój miasta
w perspektywie krótko- i długofalowej (10 wirtualnych lat). Symulacja
obejmuje ponad 2000 zmiennych (!), z których tylko niewielka część
podlega bezpośredniej kontroli. Tego typu zadanie pozwala na
wielopoziomową manipulację wszystkimi dymensjami, wyróżnionymi
przez Funkego.

Skoro złożone problemy cechują się właściwościami odróżniającymi je od


problemów prostych, prawdopodobnie wymagają też specyficznych
mechanizmów poznawczych (Funke, 1991). Annette Knaeuper i William
Rouse (1985) wyróżnili cztery specyficzne zadania realizowane
w złożonych problemach, polegających na regulacji skomplikowanego
systemu, jakim są symulacje wykorzystywane w badaniach
psychologicznych. Są to: (1) wprowadzenie złożonego systemu
w pożądany stan; (2) stabilizacja stanu systemu; (3) detekcja i diagnoza
niedomagań systemu; (4) kompensacja tych niedomagań. Realizacja tych
zadań wymaga zdaniem autorów trzech rodzajów wiedzy. Pierwszy
dotyczy dynamiki (ewolucji) systemu, w warunkach braku kontroli. Wiedza
ta jest niezbędna, aby ustalić, jakie czynniki (zmienne wyjściowe) należy
tej kontroli poddać. Drugi rodzaj wiedzy odnosi się do efektów
wywołanych podjęciem określonych działań. Jest to zatem wiedza na temat
związków między zmiennymi wejściowymi a wyjściowymi. Trzeci rodzaj
wiedzy dotyczy stosowanej strategii, a więc tego, które z czterech
wyszczególnionych zadań należy realizować w danym momencie.

Inni badacze poszukują związku między efektywnością rozwiązywania


złożonych problemów a różnicami indywidualnymi w zakresie zdolności
intelektualnych (zob. Wenke, Frensch, 2003). Autorzy uważają, że
stawiając problem w ten sposób, w istocie pytamy o to, „jakie procesy
mentalne lub reprezentacje albo jakie właściwości procesów mentalnych
lub reprezentacji mogą być ostatecznie odpowiedzialne za zachowanie
w trakcie rozwiązywania problemów” (tamże, s. 91). Zdolności
intelektualne w ich ujęciu rozumiane są jako elementarne mechanizmy
poznawcze, wpływające na wykonanie szerokiej gamy zadań. W ramach
tych mechanizmów obserwuje się różnice międzyosobnicze, ale nie są one
modyfikowane doświadczeniem. W opozycji do wielu badaczy inteligencji,
Dorit Wenke i Peter Frensch nie ograniczają pojęcia zdolności
intelektualnych do świadomie czy intencjonalnie uruchamianych
i aplikowanych procesów przetwarzania informacji lub strategii
poznawczych. Ich zdaniem wszelkie procesy przetwarzania informacji
mogą potencjalnie stanowić zdolności intelektualne. Związek inteligencji
z rozwiązywaniem problemów można byłoby zatem interpretować
w odniesieniu do ich wspólnych mechanizmów poznawczych.

W badaniach empirycznych najczęściej nie stwierdza się jednak takiego


związku bądź jest on słaby – tym słabszy, im problem jest semantycznie
bogatszy (wymaga bowiem specjalistycznej wiedzy, a nie zdolności
ogólnych), im gorzej określone są cele albo im bardziej problem jest
transparentny. Rezultaty te tłumaczy się albo niską trafnością ekologiczną
testów IQ (Dörner, Kreuzig, 1983; Putz-Osterloh, 1983), co wydaje się
chybione, jeśli inteligencję rozumieć jako zdolność do myślenia
abstrakcyjnego, albo niską rzetelnością zadań wykorzystywanych
w symulacjach laboratoryjnych (Kluwe, Misiak, Haider-Hasebrink, 1991).
Okazuje się, że inny sposób operacjonalizacji wskaźników wykonania
złożonych problemów prowadzi do odmiennych konkluzji, np. w symulacji
TAILORSHOP (Funke, 1983; Putz-Osterloh, 1981; Süß, Kersting,
Oberauer, 1991; Wittmann, Süß, 1999; ramka 11.7).

Wydaje się jednak, że uwzględnienie czynników poznawczych nie


wystarcza do wyjaśnienia procesu rozwiązywania złożonych problemów.
Dlatego najnowsze badania kładą nacisk na interakcyjny wpływ
różnorodnych czynników, decydujących o sukcesie w ich rozwiązywaniu.
Rezultaty tych badań nie są na razie jednoznaczne. Przykładowo Philip
Tucker i Peter Warr (1996) poddali analizie wpływ elementarnych
procesów poznawczych (tempo przetwarzania informacji i sprawność
funkcjonowania pamięci roboczej), stylów poznawczych (rozumianych
jako różnice indywidualne w sposobach organizacji i przetwarzania
informacji; Messick, 1984) i poziomu inteligencji na wykonanie złożonego
zadania poznawczego. Autorzy użyli symulatora zakupów internetowych
(Teleshoping task; Wright, Lickorish, 1994). Osoba badana miała dostęp do
wirtualnych katalogów pięciu supermarketów. Poszczególne zadania
wymagały odnalezienia cen określonych produktów i porównania ich ze
sobą. Na przykład osoba badana otrzymywała instrukcję: „Jeśli chciałbyś
pójść tylko do jednego sklepu, aby kupić puszkę zupy z kurczaka i puszkę
zupy grzybowej, to czy najtaniej będzie pójść do Cutcost czy do Desco?”.
Badacze oddzielili od siebie dwie fazy rozwiązywania problemu: fazę
planowania (higher-order deliberation), w skład której wchodziło
zapoznanie się z zadaniem i zaplanowanie sposobu przeszukiwania bazy
danych, oraz fazę wykonania (lower-order operations), która polegała na
przeprowadzeniu zaplanowanych wcześniej działań. W efekcie uzyskano
dwa wskaźniki czasu wykonania, odpowiadające obu fazom, a ponadto
wskaźnik poprawności rozwiązania. Autorzy zastosowali również miarę
kwestionariuszową trzech stylów poznawczych: tempa poznawczego,
planowania i złożoności poznawczej. Tempo poznawcze zdefiniowano jako
sposób radzenia sobie z przetargiem między szybkością a poprawnością.
Planowanie wiązało się ze stopniem, w jakim badani odraczają podjęcie
działania w celu jego zaplanowania. Złożoność poznawcza odnosiła się do
liczby dymensji branych pod uwagę w myśleniu oraz do sposobu integracji
informacji wzajemnie sprzecznych.

Uzyskano istotne korelacje wskaźników poziomu wykonania Tele-shoping


task z inteligencją (r = –0,60 z czasem planowania i r = –0,70 z czasem
wykonania oraz r = 0,50 z poprawnością) i z zakresem pamięci roboczej (r
= –0,30 z czasem planowania i czasem wykonania oraz r = 0,50
z poprawnością). Stwierdzono również słabe korelacje ze stylami
poznawczymi, ale nie zwiększały one ogólnej mocy predykcyjnej
zmiennych poznawczych w stosunku do inteligencji. Autorzy przyznają
jednak ostrożnie, że zastosowane przez nich zadanie daje być może zbyt
mało okazji do wykorzystania różnorodnych stylów poznawczych.
RAMKA 11.7

Co decyduje o efektywności rozwiązywania


złożonych problemów?
Werner Wittmann i Heinz-Martin Süß (1999) podjęli systematyczne
poszukiwania czynników decydujących o efektywności rozwiązywania
złożonych problemów. Autorzy użyli trzech problemów, różniących się
poziomem złożoności, oraz baterii testów badających zdolności
intelektualne (szybkość, pamięć, twórczość i rozumowanie), pamięć
roboczą (dziewięć podtestów) i wiedzę, specyficzną dla każdego
z problemów.

Najprostszym z zastosowanych problemów była symulacja elektrowni


węglowej (POWER PLANT; Wallach, 1997). Osoba badana wcielała się
w operatora elektrowni i manipulując dwiema zmiennymi wejściowymi
(ilość węgla na wejściu i stan zaworu), mogła wpływać na dwie zmienne
wyjściowe (ilość energii na wyjściu i ciśnienie pary). Należało
kontrolować ilość wysyłanej energii, zgodnie z chwilową wartością
zapotrzebowania, oraz ciśnienie pary w zadanym zakresie – od
minimalnego do maksymalnego. Drugie zadanie (TAILORSHOP; Putz-
Osterloh, 1981) było symulacją

fabryki koszul, obejmującą 24 zmienne, z czego 10 egzogenicznych,


podlegających bezpośredniej kontroli, i 14 endogenicznych, sterowanych
przez komputer. Celem osoby badanej była maksymalizacja zysków
w ciągu wirtualnego roku pracy fabryki. Najbardziej złożony problem to
symulacja LEARN (Maier, Strohhecker, 1996; Milling, 1996), dotycząca
zarządzania innowacjami. Osoba badana miała za zadanie zarządzać
firmą w rywalizacji z trzema innymi przedsiębiorstwami przez okres
wirtualnych 15 lat (w 60 cyklach po 3 miesiące). Celem symulacji była
maksymalizacja zysku i dostosowanie się do przyszłych warunków (np.
przez prowadzenie badań i polityki rozwojowej, wprowadzanie nowych
produktów). Symulacja, obejmująca kilkaset zmiennych, była
przygotowana przez ekspertów z zakresu zarządzania.

Poziom inteligencji ogólnej (g) korelował z wynikiem każdej symulacji:


r(g/POWER PLANT) = 0,39; r(g/TAILORSHOP) = 0,33; r(g/LEARN) =
0,32. Korelacja g z wynikiem zagregowanym, pochodzącym ze
wszystkich trzech symulacji, wyniosła 0,47. Jeszcze silniejszy okazał się
związek między czynnikiem rozumowania oraz pamięci roboczej
a wynikami symulacji. Twórczość okazała się słabym, ale istotnym
korelatem zagregowanego wyniku wszystkich symulacji (r = 0,181; p =
0,05). Model ścieżkowy, obejmujący wpływ czynników pamięci
roboczej, inteligencji, specyficznej wiedzy i – kontrolnie –
doświadczenia w obsłudze komputera na wynik zagregowany
wszystkich symulacji, wyjaśnił około 50% jego wariancji.

Najciekawsze jest jednak to, że interkorelacje między wynikami


poszczególnych symulacji nie dość, że były niewielkie, to jeszcze
różniły się kierunkiem: r(POWER PLANT/TAILORSHOP) = – 0,39;
r(POWER PLANT/LEARN) = – 0,29; r(TAILORSHOP/LEARN) = 0,22.
Pokazuje to, jak wielka jest różnorodność problemów, ale też
mechanizmów decydujących o sukcesie w ich rozwiązywaniu. Wyniki
uzyskane przez Wittmanna i Süßa mają kluczowe znaczenie dla praktyki,
np. nowoczesnych metod selekcji pracowników opartych na
symulacjach. Ponieważ korelacje między różnymi symulacjami mogą
być nawet ujemne, oznacza to, że ktoś świetny w danym typie
problemów może osiągać bardzo słabe wyniki w innych. Aby tego typu
metoda selekcji miała sens, musi bazować na problemach o strukturze
analogicznej do zadań, które realizować będzie przyszły pracownik.

Mimo niekonkluzywnych rezultatów badań Joachim Funke (1995) uważa,


że zasadne jest uwzględnienie trzech grup czynników będących
predyktorami wykonania złożonych problemów. Są to zmienne osobowe
(np. wiedza, zarówno ogólna, jak i ekspercka, inteligencja, twórczość,
emocje czy wspomniane style poznawcze; tutaj mieszczą się również
zmienne poznawcze), sytuacyjne (zależne od formalnych właściwości
problemu – jego typu, np. utrzymanie aktualnego stanu vs. optymalizacja
działania systemu, proporcji zmiennych jawnych do latentnych, sposobu
rozwiązywania, np. indywidualnego albo grupowego) oraz systemowe
(związane ze specyfiką i treścią konkretnego zadania).

11.9. Podsumowanie
W rozdziale skupiono się na poznawczych mechanizmach złożonej
aktywności umysłowej, jaką jest rozwiązywanie problemów. Klasyfikacji
różnych rodzajów problemów dokonano ze względu na cechy i strukturę
problemów oraz wymagania poznawcze, stawiane rozwiązującej je osobie.
W obu przypadkach próbowano wskazać różne mechanizmy poznawcze,
leżące u podłoża zmagania się z rozmaitymi rodzajami problemów.
Opisano również różne sposoby ich rozwiązywania, zwane heurystykami,
oraz najważniejsze czynniki wspomagające i hamujące ten proces.

Heurystyki rozwiązywania problemów zilustrowano przykładami,


pokazującymi ich praktyczne zastosowania w życiu codziennym. Okazuje
się jednak, że heurystyki wykryte w rozwiązywaniu problemów przez ludzi
mogą być skutecznie implementowane w systemach komputerowych
rozwiązujących specyficzne problemy, np. dowodzących twierdzeń albo
grających w szachy.

Z teoretycznego i praktycznego punktu widzenia interesujące jest również


to, że rozwiązywanie problemów wydaje się procesem fazowym.
Z poznawczego punktu widzenia badanie faz pozwala na dekompozycję
złożonego procesu na jego elementarne składowe. Następnie każda z nich
może być z osobna badana i dalej „rozkładana” na czynniki jeszcze
bardziej podstawowe. W efekcie takiego „schodzenia w dół” nawet tak
tajemnicze zjawiska jak inkubacja i wgląd można sprowadzić do zupełnie
zwykłych procesów poznawczych, chociaż realizowanych w niekiedy dość
niezwykły sposób (np. do selektywnego kodowania czy porównywania
informacji, ale opartego na specyficznych zasadach selekcji). Z kolei
zrozumienie istoty operacji poznawczych angażowanych w każdej z faz
jest podstawą różnych systemów technik twórczego rozwiązywania
problemów. Pozwala np. na takie dobranie owych technik, aby wspomóc
określoną jego fazę, a nawet konkretny zabieg, np. redefinicji problemu.
Rozdział 12

Wydawanie sądów i podejmowanie


decyzji

Wydawanie sądów
Tendencyjność w wydawaniu sądów
Ignorowanie proporcji podstawowej
Wady i zalety heurystyk
Sądy intuicyjne
Podejmowanie decyzji
Klasyczna teoria decyzji
Strategie w podejmowaniu decyzji
Teoria perspektywy
Proces podejmowania decyzji
Podsumowanie
Sądem nazywamy wyrażone wprost twierdzenie na temat pewnego stanu rzeczy, np. przynależności
obiektu do określonej kategorii, posiadania przez obiekt jakiejś cechy, wartości danego obiektu
z punktu widzenia pewnego kryterium, a także prawdopodobieństwa wystąpienia danego zdarzenia.
Decyzja to wybór jednej możliwości działania spośród co najmniej dwóch opcji. Samo dokonanie
wyboru nie oznacza jeszcze podjęcia działania, ponieważ do tego potrzebna jest skuteczna
motywacja oraz obiektywne możliwości realizacji decyzji.

„Nie jestem ja na tyle szalonym, żebym w Dzisiejszych Czasach co


mniemał albo i nie mniemał” – mówi jeden z bohaterów Transatlantyku
Witolda Gombrowicza. Każdy z nas jednak nieustannie wydaje sądy
o świecie, o innych ludziach i o samym sobie. Niektóre dotyczą
podstawowych problemów filozoficznych, egzystencjalnych lub
religijnych, tworząc nasz światopogląd. Inne odnoszą się do rzeczywistości
społecznej i politycznej, składając się na nasze postawy wobec różnych
składników rzeczywistości; jeżeli są trwałe i dostatecznie uzasadnione,
nazywamy je przekonaniami. Sądy dotyczące samego siebie składają się na
spostrzeganie i ocenę własnej osoby. Są wreszcie sądy trywialne, które
w niczym nie zmieniają naszego ustosunkowania do świata, innych ludzi
i samego siebie, ale współtworzą nasze codzienne doświadczenie
poznawcze. Niektóre sądy prowadzą do określonych decyzji. Stanowią
wówczas poznawcze przygotowanie procesu ich podejmowania. Oprócz
sądów, w skład takiego przygotowania wchodzą uaktywnianie lub
zdobywanie wiedzy, a także procesy myślenia i rozumowania. Bywają
jednak decyzje obywające się bez świadomie prowadzonych przygotowań
i racjonalnie uzasadnionych sądów; nazywamy je decyzjami intuicyjnymi.
Również niektóre sądy mają charakter intuicyjny, co oznacza, że nie
potrafimy ich racjonalnie uzasadnić, że opierają się na doświadczeniu
potocznym albo że sformułowano je wbrew regułom logiki.

12.1. Wydawanie sądów


Sądy dzielimy w zależności od tego, czego dotyczą i czemu służą. Sądy
atrybucyjne odnoszą się do cech, które – według nas – charakteryzują ludzi
(włącznie z nami samymi) lub inne obiekty (Wojciszke, 1991). Sądy
probabilistyczne polegają na ocenie szans lub zagrożeń, lub
prawdopodobieństwa wystąpienia zdarzeń całkowicie nam obojętnych.
Większość badań prowadzonych w ramach psychologii poznawczej
dotyczy właśnie tego, jak ludzie formułują sądy probabilistyczne. Sądy
wartościujące to te, w których obiektowi przypisana jest pewna wartość,
np. estetyczna lub etyczna.

W badaniach eksperymentalnych koncentrowano się przede wszystkim na


poprawności wydawanych sądów, a raczej na jej braku. Opisano
i skatalogowano liczne błędy w wydawaniu sądów, co skłania niektórych
autorów do wniosku o niepełnej racjonalności człowieka w tym zakresie.
Zarazem jednak błąd lub odejście od optymalnego sposobu działania często
informuje nas o poznawczym mechanizmie poznawania świata. Dlatego
koncentracja na błędach i tendencyjności w ocenie wydaje się uzasadnioną
strategią badawczą.

12.1.1. Tendencyjność w wydawaniu sądów


Terminem tendencyjność (bias) określa się przypadłość umysłu ludzkiego
polegającą na systematycznym odstępowaniu od idealnego wzorca
rozumowania, co skutkuje regularnym popełnianiem błędu określonego
rodzaju. Tendencyjność nie jest więc równoznaczna z podatnością na błędy
wszelkiego rodzaju, lecz ze skłonnością do popełniania błędów
uniwersalnych i bardzo charakterystycznych (Nęcka, 1996). Wyobraźmy
sobie, że ktoś otrzymuje zadanie odliczania wstecz co trzy wartości,
poczynając od tysiąca, czyli: 1000, 997, 994, 991, 988, 985 itd. Zadanie
jest dość trudne, wymaga sporej wydolności pamięci roboczej, więc łatwo
się pomylić. Nasze błędy jednak będą przypuszczalnie przypadkowe,
pozbawione cechy systematyczności. O tendencyjności można by mówić
dopiero wtedy, gdyby większość ludzi systematycznie myliła się np. co
piątą operację odejmowania albo zawsze przy liczbie 13 (np. 913, 813).
Tak oczywiście nie jest i dlatego stwierdzamy, że w zadaniu wymagającym
odliczania wstecz zjawisko tendencyjności nie występuje. Natomiast
w przypadku wydawania sądów jest czymś bardzo powszechnym.

Mnóstwo faktów, świadczących o tym, że nasze sądy są tendencyjne,


zgromadzili Amos Tversky i Daniel Kahneman (zob. Kahneman, Slovic,
Tversky, 1982). Zdaniem tych autorów, wydając sądy, ludzie nie kierują się
racjonalnymi przesłankami i ścisłymi regułami rozumowania, lecz tzw.
heurystykami. Są to – w ich rozumieniu – uproszczone zasady
wnioskowania, umożliwiające szybkie sformułowanie sądu, któremu
bardzo często towarzyszy subiektywne przekonanie o słuszności.
Najczęściej badano dwie heurystyki decydujące o tendencyjności
w wydawaniu sądów: reprezentatywności i dostępności.
Heurystyka reprezentatywności (representativeness heuristic) – uproszczony i zawodny sposób
wydawania sądów probabilistycznych, polegający na zawyżaniu lub zaniżaniu prawdopodobieństwa
wystąpienia zdarzeń, o których sądzimy, że są typowe lub reprezentatywne dla szerszej klasy
zdarzeń.

Heurystyka reprezentatywności (Kahneman, Tversky, 1972) polega na


kierowaniu się tym, czy dany obiekt lub zdarzenie jest, według nas,
charakterystycznym egzemplarzem szerszej klasy obiektów bądź zdarzeń.
Przypuśćmy, że gramy w totolotka, wybierając sześć liczb spośród 49.
Który wynik losowania wyda nam się bardziej prawdopodobny:

123456
czy
3 8 17 29 35 42?

Większość ludzi odpowie, że pierwszy ciąg jest znacznie mniej


prawdopodobny, a niektórzy będą twierdzić, że jest wręcz niemożliwy.
W związku z tym prawie nikt nie obstawi w totolotku ciągu sześciu
sąsiadujących liczb, w dodatku zaczynających się od jedności.
W rzeczywistości każdy ciąg liczb jest w totolotku jednakowo mało
prawdopodobny, ponieważ wylosowanie dowolnej liczby nie zmienia
prawdopodobieństwa wylosowania dowolnej innej liczby (losowania
kolejnych liczb są zdarzeniami niezależnymi)1. Po prostu ciąg liczb 1, 2, 3,
4, 5, 6 nie wydaje nam się reprezentatywnym przykładem wyniku
losowania w totolotku. Jako nietypowy w swojej klasie wynik ten będzie
systematycznie i powszechnie niedoszacowywany.

Reprezentatywność danego obiektu oceniamy na podstawie dwóch


przesłanek (Kahneman, Tversky, 1972). Po pierwsze, bierzemy pod uwagę
podobieństwo tego obiektu do innych egzemplarzy tej samej klasy. Obiekt
reprezentatywny to taki, który charakteryzuje się dużą liczbą cech
wspólnych dla wszystkich egzemplarzy kategorii. Większość wyników
losowania w totolotku w niczym nie przypomina ciągu 1, 2, 3, 4, 5, 6,
ponieważ wylosowane ciągi w przeważającej większości nie składają się
z sąsiadujących liczb. Dlatego ciąg złożony z liczb sąsiadujących jest
uważany za mało typowy, a zatem błędnie oceniany jako mniej
prawdopodobny niż inne. Po drugie, w ocenie reprezentatywności bierzemy
pod uwagę sposób, w jaki dany obiekt został pobrany ze zbioru lub
„populacji” obiektów. Wylosowany ciąg sześciu liczb musi „wyglądać jak
wylosowany”, w przeciwnym razie jest uważany za coś nietypowego dla
swojej klasy lub wręcz za pochodzący spoza niej. Ciąg sąsiadujących liczb
„nie wygląda” na pobrany w sposób losowy, a zatem jest szacowany jako
mniej prawdopodobny niż inne ciągi.
Złudzenie hazardzisty (gambler’s fallacy) – fałszywe przekonanie, że w przypadku zdarzeń
losowych „los musi się odwrócić”, np. że po serii zdarzeń jednego rodzaju musi wystąpić seria
zdarzeń innego rodzaju.

Heurystyka reprezentatywności prowadzi nas do szeregu tendencyjnych


sądów, zwanych też złudzeniami poznawczymi (Nisbett, Krantz, Jepson,
Kunda, 1983). Jednym z przykładów jest złudzenie hazardzisty
(gambler’s fallacy), inaczej: efekt Monte Carlo. Przypuśćmy, że bawimy się
w grę hazardową, polegającą na przewidywaniu wyniku rzutu monetą. Jeśli
uda nam się przewidzieć wynik dowolnego rzutu, wygrywamy
zadeklarowaną sumę pieniędzy (np. 10 zł), jeśli nam się nie uda – tyle
samo przegrywamy. Jeśli gra jest uczciwa, prawdopodobieństwo orła
i reszki przyjmuje w każdej próbie identyczną wartość i wynosi 0,5.
Załóżmy jednak, że pięć razy z rzędu pada reszka. W tej sytuacji jesteśmy
skłonni postawić dość duże pieniądze na to, że w kolejnej próbie padnie
orzeł. A gdyby reszka padła dziesięć razy z rzędu, nasza subiektywna
pewność, że w następnej próbie musi paść orzeł, byłaby jeszcze większa.
Jest to złudzenie, ponieważ jeśli dwa zdarzenia są niezależne,
prawdopodobieństwo wystąpienia jednego z nich nie zależy od tego, jak
często wcześniej miało miejsce zdarzenie alternatywne. Tymczasem ludzie
nagminnie ulegają złudzeniu hazardzisty, przeceniając
prawdopodobieństwo wyniku losowania, który od dawna nie wystąpił.
Tendencja tego rodzaju tłumaczy się tym, że ludzie kierują się heurystyką
reprezentatywności. Wynik pięciu, a zwłaszcza dziesięciu rzutów monetą,
w których za każdym razem padłaby reszka, jest tak mało typowy dla
zdarzeń losowych, że wyzwala oczekiwanie przełamania tej serii. O ile
bowiem prawdopodobieństwo pojedynczego zdarzenia binarnego (np. orzeł
lub reszka) jest zawsze takie samo i wynosi 0,5, o tyle
prawdopodobieństwo serii zdarzeń tego samego rodzaju (np. dziesięć razy
z rzędu pada reszka) jest już minimalne, bo mniejsze niż 0,001. Ludzie
oceniają prawdopodobieństwo wystąpienia pojedynczego zdarzenia na tle
całej serii zdarzeń, i na tym właśnie polega błąd, jeśli zdarzenia są
niezależne. Natomiast cała seria zdarzeń może w mniejszym lub większym
stopniu przypominać typowy wynik losowania. Jeśli wynik „nie wygląda”
na losowy, jego prawdopodobieństwo jest subiektywnie zaniżane, a przez
to subiektywnemu zawyżeniu ulega wynik przeciwny. Stąd tendencja do
ulegania efektowi Monte Carlo, w dużym stopniu odpowiedzialna za
rozwój uzależnienia od hazardu. Przekonanie, że w końcu „musi” paść
wynik losowania, który do tej pory się nie zdarzył, prowadzi gracza do
decyzji coraz mniej opartych na realnej ocenie ryzyka, a coraz bardziej – na
subiektywnym poczuciu pewności wygranej2.

Interesujące, że identyczne doświadczenie może prowadzić do przeciwnego


wniosku, jeśli towarzyszy mu przekonanie o innym niż losowy sposobie
uzyskania próbki zdarzeń. Jeśli gracz powziąłby podejrzenie, że rzuty
monetą nie są uczciwe albo że moneta nie jest idealnie symetryczna,
mógłby wydać sąd, że po dziesięciu reszkach w jedenastym rzucie też
padnie reszka. Za takim sądem kryje się podejrzenie, że rzut monetą nie
jest losowy. Ciąg dziesięciu reszek z rzędu staje się reprezentatywny dla
szerszej klasy zdarzeń, mianowicie dla kategorii zdarzeń nielosowych,
z góry zaplanowanych lub „oszukańczych”. Jeśli gramy w totalizatora
piłkarskiego i wiemy, że drużyna A dziesięć razy z rzędu pokonała drużynę
B, nie skłaniamy się do wniosku, że za jedenastym razem musi wreszcie
wygrać drużyna B. Przeciwnie, szanse drużyny A są oceniane znacznie
wyżej, ponieważ wygrana dziesięć razy z rzędu sugeruje, że drużyna A jest
po prostu lepsza. Tutaj też mamy do czynienia z reprezentatywnością, tyle
tylko, że odnoszącą się do zdarzeń nielosowych. Wiemy, że wynik
losowania musi „wyglądać na losowy”, jeśli więc na taki nie wygląda,
zdarzenie oceniane jest jako pobrane z próbki w inny, nielosowy sposób.
Charakterystyczne cechy próbek nielosowych przedstawiają się inaczej niż
charakterystyczne próbki zdarzeń losowych. Dlatego złudzenie hazardzisty
występuje tylko wtedy, gdy wyniki wcześniejszych losowań nie są uznane
za reprezentatywne dla zdarzeń losowych, a gracz mimo wszystko nie
pozbywa się przekonania, że uczestniczy w uczciwej loterii. Gdy takie
przekonanie utraci, zmienia zasadniczo swoje sądy, oceny i decyzje.
Zwykle te nowe sądy są również tendencyjne, ponieważ w każdym
przypadku u podstaw sądu leży wykorzystanie heurystyki
reprezentatywności. Różna jest jedynie ocena tego, w jaki sposób pobrano
próbkę (losowo, systematycznie, oszukańczo itp.), a także ocena, co jest
reprezentatywne dla określonej kategorii zdarzeń.

Innym przykładem tendencyjności wynikającej ze stosowania heurystyki


reprezentatywności jest złudzenie koniunkcji (conjunction fallacy). Polega
ono na zawyżaniu prawdopodobieństwa posiadania przez obiekt pewnej
cechy, jeśli występuje ona z inną cechą. Tversky i Kahneman (1983) badali
to zjawisko z wykorzystaniem zadania zwanego „problemem Lindy”
(paradygmat 12.1). Okazało się, że prawdopodobieństwo posiadania przez
hipotetyczną osobę imieniem Linda dwóch cech łącznie było szacowane
jako wyższe niż prawdopodobieństwo posiadania przez nią tylko jednej
z tych cech. Inny przykład to zawyżanie szansy sukcesu znanych tenisistów
w turniejach wielkoszlemowych. Okazuje się, że ludzie oceniają szanse
wygrania przez znanego tenisistę turnieju w Wimbledonie i turnieju
Rolland Garros w Paryżu jako wyższe niż szanse wygrania tego zawodnika
tylko w jednym z tych turniejów (Tversky, Kahneman, 1982).

Paradygmat 12.1
Problem Lindy

Uczestnicy eksperymentów Tversky’ego i Kahnemana (1983) otrzymywali


opis hipotetycznej osoby imieniem Linda.

Linda ma 31 lat. Jest niezamężna, wygadana i bardzo inteligentna.


Ukończyła studia filozoficzne. Jako studentka głęboko angażowała się
w problemy dyskryminacji i sprawiedliwości społecznej. Uczestniczyła
też w demonstracjach przeciwko broni nuklearnej.

Następnie proszono osoby badane o ocenę prawdopodobieństwa kilku cech


opisujących Lindę. Ocenę 1 trzeba było przyznać opcji najbardziej
prawdopodobnej, a ocenę 8 – opcji najmniej prawdopodobnej.

Linda jest nauczycielką w szkole podstawowej.


Linda pracuje w księgarni i chodzi na zajęcia z jogi. Linda aktywnie
udziela się w ruchu feministycznym.
Linda opiekuje się pacjentami psychiatrycznymi jako pracownik
społeczny.
Linda jest członkinią Ligi Kobiet na rzecz Udziału w Wyborach.
Linda jest urzędniczką w banku.
Linda jest agentem ubezpieczeniowym.
Linda jest urzędniczką w banku i aktywnie udziela się w ruchu
feministycznym.

Osobom badanym kazano w gruncie rzeczy zgadywać na temat Lindy na


podstawie lakonicznego opisu tej osoby. Rzeczywistym celem autorów
było porównanie szacunków prawdopodobieństwa ostatniej opcji, która
zawiera koniunkcję cech (urzędniczka w banku i feministka), z opcją
trzecią od końca, która opisuje pojedynczą cechę (urzędniczka w banku).
Przebadano trzy grupy uczestników różniących się poziomem kompetencji
w zakresie statystyki i teorii prawdopodobieństwa. Okazało się, że badani
oceniali prawdopodobieństwo koniunkcji cech (Linda jest urzędniczką
w banku i feministką) jako znacznie wyższe niż prawdopodobieństwo
jednej ze składowych tej koniunkcji (Linda jest urzędniczką w banku).
Dotyczyło to w równej mierze osób statystycznie „naiwnych”, średnio
zaawansowanych, jak też bardzo biegłych we wnioskowaniu
statystycznym. Autorzy argumentują, że badani ulegli sugestii, wynikającej
z użycia heurystyki reprezentatywności. Wstępny opis Lindy i jej
aktywności społecznej w okresie studiów czynił ją typową przedstawicielką
grupy młodych, wykształconych i niezależnych kobiet. Zgodnie ze
stereotypem takie kobiety często są feministkami lub feminizm jest im
bliski. Zaangażowanie w kwestii równych szans i udział w demonstracjach
pokojowych dodatkowo skłaniały do wniosku, że Linda „musi” mieć coś
wspólnego z ruchem feministycznym. Stąd zawyżone szacowanie
prawdopodobieństwa, że Linda pracuje w banku i jest feministką, choć
przecież mogłaby być feministką, nie pracując w banku, mogłaby też
pracować w banku, nie będąc feministką. Prawdopodobieństwo koniunkcji
nie może być wyższe niż prawdopodobieństwo zdarzeń składających się na
koniunkcję, dlatego mamy tu do czynienia z tendencyjnością oceny.

Z rachunku prawdopodobieństwa wynika, że szansa łącznego wystąpienia


dwóch zdarzeń nie może być większa niż szansa wystąpienia
któregokolwiek z nich osobno. Jeśli zdarzenia są niezależne, możliwość ich
łącznego wystąpienia, czyli prawdopodobieństwo koniunkcji, jest równe
iloczynowi prawdopodobieństw. Prawdopodobieństwo oceniamy na skali
0–1, a iloczyn wartości mniejszych niż 0 zawsze daje wynik niższy niż
poszczególne czynniki iloczynu. Na przykład, jeśli mamy dwa zdarzenia
prawdopodobne na poziomie 0,5 (np. orzeł lub reszka w rzucie monetą),
prawdopodobieństwo wylosowania dwóch orłów z rzędu wynosi 0,5 × 0,5
= 0,25. Jeśli zdarzenia są zależne, prawdopodobieństwo koniunkcji jest
wyższe niż iloczyn prawdopodobieństw zdarzeń pojedynczych, nigdy
jednak nie może przekroczyć wartości odnoszącej się do
prawdopodobieństwa któregokolwiek z tych zdarzeń (w praktyce nie może
być wyższe niż prawdopodobieństwo zdarzenia bardziej
prawdopodobnego). Aby to ocenić, nie trzeba posługiwać się
matematycznym aparatem rachunku prawdopodobieństwa – wystarczy
rzetelna analiza sytuacji. Przypuśćmy, że Kamil Stoch jest rewelacyjnie
przygotowany do sezonu. Z tej przesłanki może wynikać przypuszczenie,
że wygra on jeden z konkursów Turnieju Czterech Skoczni, dwa konkursy,
trzy konkursy lub wszystkie cztery konkursy. Złudzenie koniunkcji polega
na tym, że oceniamy szanse Stocha na wygranie wszystkich czterech
konkursów jako wyższe niż szanse wygrania trzech konkursów, a szanse
wygrania trzech – wyżej niż szanse wygrania dwóch itd. Ulegamy temu
złudzeniu, choć wiemy, że szanse wygrania choćby jednego konkursu
w silnej konkurencji są niewielkie, a co dopiero mówić o szansie wygrania
wszystkich czterech zawodów. Jeśli jednak wiemy, że Stoch jest
w doskonałej formie (albo mamy taką nadzieję), to jego zwycięstwo
w konkretnym konkursie skoków narciarskich jest reprezentatywnym
przykładem szerszej klasy zdarzeń, mianowicie takich, że w ogóle
wygrywa on konkursy skoków. W takim razie szansa wygrania przez
Stocha całej serii zawodów wydaje nam się wyższa, niż podpowiadałoby
racjonalne rozumowanie.

Złudzenie może też wynikać z tego, że poszczególne elementy koniunkcji


postrzegane są jako logiczny ciąg zdarzeń powiązanych relacjami
przyczynowo-skutkowymi. Mówimy wtedy, że zdarzenia te tworzą
wiarygodny scenariusz, charakterystyczny dla szerszej klasy scenariuszy
tego samego typu. W badaniach Tversky’ego i Kahnemana (1983),
prowadzonych w 1981 r., pytano ekspertów w zakresie futurologii o ocenę
prawdopodobieństwa następujących zdarzeń:

1. Związek Sowiecki dokonuje inwazji na Polskę w celu stłumienia ruchu


„Solidarność”.
2. USA zrywają stosunki dyplomatyczne ze Związkiem Sowieckim.
3. Związek Sowiecki dokonuje inwazji na Polskę w celu stłumienia ruchu
„Solidarność” i USA zrywają stosunki dyplomatyczne ze Związkiem
Sowieckim.

Łatwo zauważyć, że zdarzenie 3. jest koniunkcją zdarzeń 1. i 2. Dlatego


prawdopodobieństwo zdarzenia 3. nie może być wyższe od
prawdopodobieństwa zarówno zdarzenia 1., jak i zdarzenia 2. Można sobie
wyobrazić inwazję bez zerwania stosunków dyplomatycznych, teoretycznie
możliwe jest też zerwanie stosunków dyplomatycznych z powodów innych
niż inwazja na Polskę. Tymczasem badani eksperci-futurolodzy oceniali
prawdopodobieństwo zdarzenia 3. jako wyższe niż prawdopodobieństwo
każdego ze zdarzeń składowych. Wprawdzie wszystkie trzy możliwości
uważano za prawdopodobne w stopniu zaledwie minimalnym, jednak
złudzenie koniunkcji wyraźnie się zaznaczyło. Autorzy wyjaśniają je tym,
że scenariusz „inwazja, potem zerwanie stosunków” stanowi dobry,
reprezentatywny przykład szerszej klasy zjawisk, mianowicie sytuacji
kryzysowych w stosunkach międzynarodowych. Samo zerwanie stosunków
dyplomatycznych jawi się jako mało prawdopodobne, ale zerwanie
połączone z wcześniejszą inwazją na inny kraj jawi się jako nieco bardziej
prawdopodobne. Być może zamiast oceniać prawdopodobieństwo
koniunkcji, ludzie oceniają prawdopodobieństwo zdarzenia B, pod
warunkiem że wcześniej wystąpi zdarzenie A (Nęcka, 1989). Coś, co
formalnie rzecz biorąc nadal pozostaje koniunkcją (A i B), jest
mimowolnie przerabiane na implikację (jeśli A, to B), po czym ocenie
podlega już tylko prawdopodobieństwo następnika implikacji (zdarzenie
B). Zapewne w ten sam sposób można wytłumaczyć skłonność do
przeceniania szans sportowców. Pozornie ocenia się szanse Stocha na
wygranie czterech konkursów, a w gruncie rzeczy ocenie podlega szansa
wygrania czwartego konkursu, pod warunkiem że wcześniej Stoch wygra
trzy konkursy z rzędu.
Heurystyka dostępności (availability heuristic) – uproszczony i zawodny sposób wydawania sądów
probabilistycznych, polegający na zawyżaniu prawdopodobieństwa wystąpienia tych zdarzeń,
których przykłady łatwo jest wydobyć z pamięci.

Druga powszechnie stosowana reguła wydawania sądów to heurystyka


dostępności. Polega ona na kierowaniu się tymi przesłankami lub
elementami wiedzy, które są dostępne i łatwe do wydobycia z pamięci
trwałej, a ignorowaniu tych, które są trudno dostępne. Zjawisko to
najłatwiej zademonstrować na przykładzie prostego pytania o częstość
występowania określonych kombinacji liter (Tversky, Kahneman, 1983).
Przypuśćmy, że ktoś nas poprosi o oszacowanie częstości występowania
litery K na przedostatnim miejscu w polskich nazwiskach. Większość z nas
nie ma na ten temat żadnej wiedzy, więc konieczne będzie zgadywanie.
Interesujące jest to, że szacowana częstość występowania litery K na
przedostatnim miejscu jest niższa niż szacowana częstość występowania
w polskich nazwiskach końcówki SKI. A przecież zbiór wszystkich
końcówek SKI jest podzbiorem szerszego zbioru końcówek _K_. Litera K
na przedostatnim miejscu pojawia się w końcówkach SKI, ale również
w licznych końcówkach innego rodzaju (np. ŃKA, IKA). Jednakże
nazwiska z końcówką SKI, jako typowe dla Polaków, są natychmiast
wydobywane z pamięci, podczas gdy nazwiska typu BAŃKA lub MIKA,
jako mniej typowe, są wydobywane z trudem i powoli. W rezultacie
końcówki SKI są przeszacowane co do swej częstości, a końcówki _K_
okazują się niedoszacowane.

Heurystyka dostępności jest w pewnym sensie odwrotnością heurystyki


reprezentatywności. Ta ostatnia polega na tym, że dysponując konkretnym
przypadkiem (np. osoba o imieniu Linda), odwołujemy się do szerszej
klasy zjawisk lub obiektów (np. feministki), po czym przeceniamy
prawdopodobieństwo wystąpienia tego, co uważamy za charakterystyczne
dla całej tej kategorii. W przypadku heurystyki dostępności dysponujemy
klasą ogólną (np. końcówki SKI), po czym szukamy w pamięci
konkretnych przykładów kategorii. Jeśli je znajdujemy szybko i bez
wysiłku, przeceniamy częstość występowania elementów tej kategorii,
a jeśli znajdywanie przykładów idzie nam wolno i z wysiłkiem, mamy
tendencję do niedoszacowania częstości ich występowania. Mimo
odmiennego mechanizmu poznawczego obie heurystyki mogą prowadzić
do podobnych skutków, np. do złudzenia koniunkcji. To ostatnie może być
wynikiem tego, że z dwóch zdarzeń co najmniej jedno jest reprezentatywne
dla szerszej kategorii, albo tego, że łatwiej nam wydobyć z pamięci
przykłady występowania dwóch zdarzeń w tym samym czasie lub w relacji
przyczynowo-skutkowej niż przykłady występowania każdego z tych
zdarzeń oddzielnie.

Heurystyka dostępności prowadzi do szeregu błędnych i tendencyjnych


sądów. Przede wszystkim odpowiada za efekt świeżości w ocenie
prawdopodobieństwa zdarzeń. Z badań nad pamięcią wiemy, że informacje
odebrane niedawno są lepiej pamiętane od tych, które odebrano wcześniej.
Jeśli do tych niedawno odebranych informacji należą wiadomości
o wypadkach, katastrofach lub zamachach terrorystycznych, rodzi się
tendencja do przeceniania prawdopodobieństwa wystąpienia takich
dramatycznych wydarzeń. Media atakują nas codziennie sporą dawką
wiadomości o wstrząsających wydarzeniach, przez co trudno nam je
wymazać z pamięci. Stwierdzono, że w 1985 r. w USA
prawdopodobieństwo utopienia się we własnej wannie było większe niż
prawdopodobieństwo śmierci w wyniku zamachu terrorystycznego (Matlin,
1994). Mimo to ludzie bardziej boją się zamachów niż kąpieli we własnej
wannie, oczywiście przeszacowując możliwość śmierci w wyniku aktu
terroru. Tendencyjność tego rodzaju dotyczy nie tylko laików, lecz także
ekspertów. Ci ostatni wprawdzie w mniejszym stopniu ulegają sugestii ze
strony mediów, za to w większym stopniu kierują się własnym
doświadczeniem. Znany jest przypadek lekarza, który powstrzymał się od
przepisania potrzebnej pacjentowi terapii, ponieważ pamiętał, że niedawno
inny pacjent zmarł po jej zastosowaniu. Poprzedni pacjent prawdopodobnie
zmarł nie w wyniku terapii, lecz mimo jej zastosowania, a jednak świeżo
utrwalony w pamięci przypadek medyczny skutecznie powstrzymał
eksperta od racjonalnej decyzji (tamże). Wiele sądów tego rodzaju nosi
znamiona myślenia magicznego. Na przykład słynny trener reprezentacji
Polski w piłce nożnej zawsze przychodził na ważne mecze nieogolony, bo
twierdził, że to mu przynosi szczęście. Przypuszczalnie zbyt dobrze
pamiętał jakiś mecz przegrany po starannym goleniu.
Złudzenie osobistego doświadczenia – przecenianie znaczenia lub częstości występowania zdarzeń,
których było się osobistym świadkiem.

Heurystyka dostępności odpowiada też za złudzenie osobistego


doświadczenia. Statystyki na temat szkodliwości palenia nie przekonają
kogoś, kto „miał dziadka, który palił dwie paczki dziennie i dożył 90 lat”.
Podobnie statystyki wypadkowości różnych modeli samochodów, z których
wynika, że samochody marki A są bezpieczniejsze od samochodów marki
B, nie przekonają kogoś, kto ostatnio widział w rowie rozbity wóz marki A.
Osobiste doświadczenie, zapisane w pamięci autobiograficznej,
wspomagane emocjami i licznymi, dobrze pamiętanymi szczegółami, jest
łatwo dostępne, w przeciwieństwie do suchych statystyk, które nawet
gdyby były nam znane, nie mogą konkurować z osobiście zapamiętanymi
epizodami. Złudzenie osobistego doświadczenia ułatwia tworzenie się
uprzedzeń, np. etnicznych. Jeśli mieszkaniec Londynu zobaczy wcześnie
rano na ulicy grupę Polaków raczących się wódką, może być oporny na
argumenty, że Polacy bywają różni, a niechlujstwo i pijaństwo zdarza się
też w innych nacjach. Na podstawie osobistego doświadczenia mieszkaniec
Londynu będzie z uprzedzeniem, czyli wstępnie powziętym sądem,
podchodził do innych napotkanych Polaków, a nawet do całej grupy
etnicznej.
Prawo małych liczb – kierowanie się przez ludzi fałszywym przekonaniem, że reguła sprawdzająca
się przy małych liczebnościach będzie działać również przy dużych liczebnościach.

Heurystyka dostępności odpowiada też za szczególny rodzaj


tendencyjności w wydawaniu sądów, przewrotnie zwany prawem małych
liczb. Wiemy, że niektóre prawidłowości ujawniają się dopiero przy dużej
liczbie przypadków. Na przykład dopiero przy wielu tysiącach
powtórzonych losowań w totolotku częstość występowania każdej z 49
liczb będzie podobna. Mniejsza liczba losowań może błędnie sugerować,
że niektóre liczby wypadają w losowaniu częściej lub rzadziej od innych.
Podobnie dopiero duża liczba osób badanych pozwala stwierdzić określone
tendencje, np. korelacje między zmiennymi lub różnice między różnymi
grupami osób. Dlatego w metodologii i statystyce obowiązuje prawo
wielkich liczb, a uprawnione wnioski są możliwe, pod warunkiem że
próbka pobrana z populacji jest nie tylko reprezentatywna, lecz także
wystarczająco liczna. Psychologicznie rzecz ujmując, prawo wielkich liczb
jest powszechnie ignorowane. Ludzie chętnie wyciągają wnioski na
podstawie nader skąpej liczby przypadków, pod warunkiem że są to
przypadki osobiście przez nich doświadczone i zapamiętane, a zatem łatwo
dostępne. W szczególności każdy z nas ma tendencję do ferowania
ogólnych sądów o ludziach na podstawie stosunkowo nielicznej i zupełnie
niereprezentatywnej „próbki badanej” pod nazwą „moi znajomi”.
Wiadomo, że stosunki towarzyskie utrzymują ludzie w jakiś sposób do
siebie podobni pod względem upodobań, poglądów i preferencji
politycznych. Jeśli więc formułujemy ogólne sądy na podstawie próbki
„moi znajomi”, na pewno będziemy skłonni błędnie oceniać częstość
występowania określonych postaw i zachowań.

W literaturze opisano wiele innych heurystyk (Kahneman i in., 1982). Na


przykład heurystyka zakotwiczenia i dopasowania (anchoring and
adjustment) prowadzi nas do błędnej oceny wielkości liczbowych. Tversky
i Kahneman (1982) prosili uczniów szkoły średniej o ocenę wielkości
iloczynu przedstawionego w postaci dwóch ciągów:

A. 8 × 7 × 6 × 5 × 4 × 3 × 2 × 1
B. 1 × 2 × 3 × 4 × 5 × 6 × 7 × 8.

Uczniowie mieli dokonać oceny w 5 sekund, nie mogli więc wykonać


obliczeń. W przypadku szeregu A mediana z wszystkich ocen wyniosła
2250, a w przypadku szeregu B – tylko 512. Ponieważ oba szeregi są
matematycznie ekwiwalentne, oceny teoretycznie nie powinny się różnić.
Tymczasem mentalne „zakotwiczenie” na większych wartościach
liczbowych (8, 7 itd.) prowadzi do podwyższenia oceny, podczas gdy
„zakotwiczenie” na małych wartościach (1, 2 itd.) – do jej zaniżenia.
W rzeczywistości wszyscy badani drastycznie zaniżali ocenę, ponieważ
prawidłowa odpowiedź brzmi: 40 320. Heurystyka zakotwiczenia
i dopasowania odpowiada za szereg błędów w ocenie, w szczególności za
niedoszacowanie lub przeszacowanie wartości statystycznych.

12.1.2. Ignorowanie proporcji podstawowej


Wiele błędów w ocenie prawdopodobieństwa wynika z ignorowania
proporcji podstawowej (base rate), określającej ogólną częstość
występowania zdarzenia lub cechy w populacji. Przypuśćmy, że pewien
heteroseksualny mężczyzna wykonał test na obecność wirusa HIV
i otrzymał wynik pozytywny. Wiadomo, że w Polsce nosicielem HIV jest
co piętnasty mężczyzna na 10 000 heteroseksualnych mężczyzn3. Inaczej
mówiąc, w populacji heteroseksualnych mężczyzn w Polsce
prawdopodobieństwo znalezienia się w grupie nosicieli wirusa wynosi
0,0015. Wiadomo też, że czułość testu na obecność HIV jest dość duża,
ponieważ daje on pozytywny wynik w 99% przypadków rzeczywistej
obecności wirusa. Oznacza to, że prawdopodobieństwo posiadania wirusa
przy pozytywnym wyniku testu wynosi 0,99. Co więcej, wiadomo, że
prawdopodobieństwo nieposiadania wirusa przy pozytywnym wyniku testu
wynosi 0,10. Jest to prawdopodobieństwo fałszywego alarmu, swoisty
margines bezpieczeństwa wynikający z założenia, że lepiej stwierdzić
wynik pozytywny u osobnika wolnego od wirusa (i powtórzyć badanie),
niż przeoczyć wirus u rzeczywiście zarażonego. Mając te dane do
dyspozycji, jak ocenimy prawdopodobieństwo, że osobnik, u którego
stwierdzono pozytywny wynik testu, rzeczywiście jest nosicielem HIV?

Prawidłowa ocena prawdopodobieństwa wymaga w tym przypadku


wykorzystania reguły Bayesa, danej wzorem:
co czytamy w następujący sposób:

p(HIV/test+) – prawdopodobieństwo, że ma się wirusa, jeśli wynik testu


jest pozytywny;
p(HIV) – prawdopodobieństwo zarażenia się wirusem HIV w danej
populacji (0,0015);
p(test+/HIV+) – prawdopodobieństwo, że test da wynik pozytywny, jeśli
w organizmie jest wirus HIV (0,99);
p(test+/HIV–) – prawdopodobieństwo, że test da wynik pozytywny, jeśli
w organizmie nie ma wirusa HIV (0,10).
Podstawiając dane do wzoru, otrzymujemy wynik:

Odpowiedź brzmi: jeśli u jakiegoś heteroseksualnego mężczyzny w Polsce


stwierdzono pozytywny wynik testu na obecność HIV, można wnioskować
z pewnością równą 1,5%, że pacjent rzeczywiście jest nosicielem wirusa.
Półtora procent to bardzo niewiele. Wystarczy uświadomić sobie, że
w badaniach psychologicznych prawdopodobieństwo trzykrotnie wyższe,
bo mniejsze niż 5% (p < 0,05) jest ciągle wystarczającą podstawą do
przyjęcia hipotezy zerowej o braku efektu (korelacji, różnicy między
średnimi itd.). Inaczej oczywiście podchodzi się do problemu w przypadku
zagrożenia zdrowia i życia niż w badaniach naukowych, a więc nawet
zagrożenie na poziomie 1,5% powinno być przesłanką do powtórzenia
badań. W każdym razie zagrożenie jest obiektywnie niewielkie, choć
prawie każdy z nas w obliczu pozytywnego wyniku testu na obecność
wirusa HIV byłby subiektywnie przekonany, że jest nosicielem.

Ignorowanie proporcji podstawowej jest przyczyną licznych błędów


w ocenie, przede wszystkim w zakresie szacowania prawdopodobieństwa
zdarzeń. Szczególnie groźne są błędy popełniane przez ekspertów, np.
lekarzy (Eddy, 1982; Hoffrage, Gigerenzer, 1998), ponieważ od ekspertów
wymaga się szczególnie racjonalnego podejścia do problemu. Laik może
się gruntownie mylić w ocenie zagrożeń, bo w większości wypadków nic
z tej oceny nie wynika poza indywidualnym samopoczuciem. Natomiast od
oceny eksperta zależy los innych ludzi. Zwróćmy uwagę, że ignorowanie
proporcji podstawowej może prowadzić nie tylko do przeceniania
prawdopodobieństwa zagrożenia, lecz także do jego niedoszacowania. Na
przykład lekarz, który sądzi, że gruźlica już dawno przestała być
problemem społecznym, może zignorować wczesne sygnały ostrzegawcze,
świadczące o pojawieniu się tej choroby. Wiele chorób zakaźnych, dawniej
śmiertelnych, zdołano opanować, więc proporcja podstawowa jest w ich
przypadku oceniana jako bardzo niska. Tymczasem w diagnozie zawsze
trzeba wziąć pod uwagę indywidualną podatność pacjenta, nie mówiąc
o możliwości nawrotu epidemii.

Należy teraz zadać pytanie o przyczynę tej ułomności ludzkiego umysłu.


Wydaje się, że problem tkwi w nieprzystosowaniu naszego aparatu
poznawczego do operowania kategorią prawdopodobieństwa. Ludzkość
wymyśliła rachunek prawdopodobieństwa tak niedawno, że podstawowe
pojęcia i reguły w tej dziedzinie nie zdążyły się jeszcze upowszechnić.
Poza tym większości z nas brakuje wiedzy na temat reguły Bayesa, nie
mówiąc o umiejętności dokonywania operacji rachunkowych
z wykorzystaniem tego wzoru. Wydaje się jednak, że istnieje rozwiązanie
tego problemu, mianowicie zastąpienie kategorii prawdopodobieństwa
kategorią liczebności. Zdaniem Gerda Gigerenzera (Gigerenzer, Hoffrage,
1995) ludzie nieumiejętnie operują prawdopodobieństwami, za to nieźle
radzą sobie z liczbami naturalnymi. Stwierdzenie, że coś jest
prawdopodobne na poziomie 0,0015, znaczy dokładnie tyle, że to coś (np.
choroba lub inne zagrożenie) zdarza się 15 razy na 10 000 przypadków. Co
więcej, z faktu, że coś zdarza się 15 razy na 10 000 przypadków, wynika,
że brak tego czegoś (np. choroby) zdarza się 9985 razy na 10 000
przypadków. Zwłaszcza ta ostatnia informacja jest istotna dla realnej oceny
prawdopodobieństwa, ponieważ naocznie pokazuje nam, czym jest
proporcja podstawowa i dlaczego jej ignorowanie prowadzi do błędów
w wydawaniu sądów. Operowanie liczbami naturalnymi zamiast
prawdopodobieństwami daje szansę na uniknięcie błędów poprzez
wykorzystanie reguły Bayesa „z ludzką twarzą” (ramka 12.1).

RAMKA 12.1

Reguła Bayesa „z ludzką twarzą”


Zdaniem Gigerenzera (Gigerenzer, Hoffrage, 1995; Hoffrage,
Gigerenzer, 1998) ludzi można nauczyć używania reguły Bayesa bez
konieczności stosowania wzorów i innych elementów aparatu
matematycznego. Trzeba w tym celu operować obrazowymi
przedstawieniami liczebności zdarzeń, a zrezygnować z używania
wartości prawdopodobieństwa ocenianego na skali 0–1. Wynik procesu
wydawania sądu będzie wówczas mniej precyzyjny, ale wystarczająco
dokładny, aby realnie ocenić szanse lub zagrożenia.
W jaki sposób można ocenić stopień zagrożenia HIV? Wiemy, że 15
mężczyzn na 10 000 jest zarażonych wirusem. Test na obecność wirusa
wykaże wynik pozytywny praktycznie u każdego z zarażonych, bo jego
czułość wynosi 0,99, a 99% z 15 to prawie 15 (dokładnie: 14,85).
Weźmy teraz pozostałych 9985 spośród naszej hipotetycznej próbki 10
000 mężczyzn, którzy nie mają wirusa. Test na obecność wirusa wykaże
wynik pozytywny aż u 999 z nich, ponieważ poziom bezpieczeństwa
testu ustalono na 0,10. Oznacza to, że u co dziesiątego zdrowego
mężczyzny wynik testu i tak będzie pozytywny, a co dziesiąty z liczby
9985 to mniej więcej 999 (dokładnie: 998,5). Wiemy już teraz, że test da
wynik pozytywny u 1014 mężczyzn, mianowicie u 15 zarażonych i 999
niezarażonych (15 + 999 = 1014). Innymi słowy, test da wynik
pozytywny w przypadku 1014 mężczyzn, z których tylko 15
rzeczywiście ma wirusa. Wynika z tego, że prawdziwe zagrożenie
wirusem przy pozytywnym wyniku testu jest jak 15 do 1014, czyli mniej
niż 15 do 1000. Można więc spokojnie uznać, że prawdopodobieństwo
posiadania wirusa wynosi mniej niż 1,5%. Jest to wynik nieco mniej
precyzyjny niż ten, który można osiągnąć za pomocą aparatu
matematycznego, ale wystarczająco precyzyjny, jeśli chodzi
o praktyczną użyteczność. Wykazuje przy tym tę przewagę, że uzyskano
go bez jakiegokolwiek wzoru matematycznego.

Stosując podobną procedurę, Gerd Gigerenzer i Ulrich Hoffrage (1995)


wykazali, że możliwy jest znaczący przyrost sądów uwzględniających
proporcję podstawową po zastosowaniu liczb naturalnych.
W eksperymencie wzięło udział 60 studentów, którzy rozwiązywali 15
problemów wymagających uwzględnienia proporcji podstawowej
i reguły Bayesa. Były to zadania polegające na ocenie ryzyka raka piersi
u kobiet, ryzyka urodzenia dziecka z wadą genetyczną itp. Zadania te
były prezentowane w postaci probabilistycznej lub liczebnościowej.
W pierwszym przypadku podawano potrzebne dane w postaci
prawdopodobieństwa (np. ryzyko wystąpienia raka piersi u kobiet
wynosi 0,01), w drugim przypadku te same dane przedstawiano
obrazowo jako częstość występowania danego przypadku (np. rak piersi
występuje u jednej kobiety na 100). Okazało się, że zadania podawane
w formacie probabilistycznym prowadziły do nagminnego lekceważenia
proporcji podstawowej: tylko 16% rozwiązań spełniało kryteria reguły
Bayesa. Natomiast w przypadku zadań podawanych w formacie liczb
naturalnych odsetek rozwiązań spełniających jej wymagania wzrastał do
46. I chociaż w drugim przypadku ponad połowa rozwiązań wciąż
świadczyła o ignorowaniu proporcji podstawowej, udało się wykazać
prawie trzykrotny wzrost liczby rozwiązań prawidłowych. W podobnym
badaniu z udziałem 48 lekarzy z co najmniej 14-letnią praktyką Hoffrage
i Gigerenzer (1998) stwierdzili 10% poprawnych rozwiązań
w przypadku zadań podawanych w formacie probabilistycznym, a 46% –
w przypadku zadań operujących pojęciem częstości.

Wyniki te skłoniły Gigerenzera i jego współpracowników do rozwijania


programów nauczania poprawnego wnioskowania, np.
z wykorzystaniem stosownych programów komputerowych.
Z teoretycznego punktu widzenia wyniki te są interesującą ilustracją
zjawiska polegającego na zasadniczej zmianie poziomu trudności
zadania pod wpływem zmiany jego poznawczej reprezentacji. To samo
zadanie może być reprezentowane w sposób prowokujący do błędu lub
tendencyjnej oceny albo też w sposób prowadzący do oceny bardziej
realistycznej i uwzględniającej ważne przesłanki (w tym przypadku
proporcję podstawową). Wyniki te są też ważnym argumentem w sporze
o ekologiczną trafność procedur stosowanych w eksperymentalnej
psychologii poznawczej. Chociaż procedury Gigerenzera i Hoffrage były
ciągle zadaniami laboratoryjnymi, ich format okazał się bardziej
zbliżony do sytuacji, z jakimi spotykamy się w życiu codziennym.
Radykalni krytycy badań laboratoryjnych uznaliby, że sporo tzw.
tendencji w ocenie zdarzeń to nic innego, jak artefakty wywołane
specyficzną procedurą eksperymentalną. Mniej radykalni krytycy
zwróciliby uwagę, że błędne i tendencyjne oceny pojawiają się
w większości odpowiedzi nawet po zmianie formatu zadania. Wydaje się
więc, że nie można tutaj mówić o artefaktach, a jedynie o tym, iż
niektóre procedury laboratoryjne w badaniach nad błędami w ocenie
same prowadzą do błędnych ocen, mianowicie do zawyżania częstości,
z jaką ludzie wydają sądy tendencyjne.

12.1.3. Wady i zalety heurystyk


Badania Tversky’ego i Kahnemana, kontynuowane przez innych badaczy,
wzbudziły wiele krytycznych uwag stawiających pod znakiem zapytania
rzetelność uzyskanych wyników. Przede wszystkim krytykowano sposób
zadawania pytań i formułowania zadań. Na przykład złudzenie koniunkcji
może być artefaktem wynikającym ze swoistej formy stosowanych zadań.
Przypuśćmy, że z dwóch cech, A i B, tylko cecha B jest zgodna ze
stereotypem pewnej kategorii ludzi, a zatem uznana za reprezentatywną dla
niej. Oceniając prawdopodobieństwo wystąpienia koniunkcji A i B,
w gruncie rzeczy oceniamy prawdopodobieństwo wystąpienia cechy B,
podczas gdy cecha A jest traktowana jako nic nieznaczący dodatek.
W przypadku problemu Lindy (zob. paradygmat 12.1) decydujące wydaje
się przypuszczenie, że jest ona feministką, a dostarczone informacje
skłaniają do takiego wniosku, ponieważ odwołują się do stereotypu. To, czy
Linda pracuje w banku, nie ma już najmniejszego znaczenia dla stereotypu
feministki. Sztuczne „przyklejenie” tej cechy do feminizmu mogło jednak
skłonić osoby badane do zawyżania oceny prawdopodobieństwa, co
formalnie rzecz ujmując, było koniunkcją (feministka pracująca w banku),
ale od strony psychologicznej było zdarzeniem pojedynczym (feministka).
Zadanie, które pozornie polegało na ocenie prawdopodobieństwa
koniunkcji, w istocie przerodziło się w ocenę prawdopodobieństwa
pojedynczej cechy zgodnej ze stereotypem. Aby wykluczyć taką
możliwość, należałoby porównać ocenę koniunkcji „pracuje w banku
i feministka” z pojedynczą cechą „feministka”, a nie z cechą „pracuje
w banku”. W badaniach Tversky’ego i Kahnemana niestety tego nie
zrobiono.

W innych przypadkach osoby badane mogły „po cichu” przerabiać


koniunkcję na implikację, oceniając np. prawdopodobieństwo zerwania
stosunków dyplomatycznych, pod warunkiem że wcześniej nastąpi inwazja
wojskowa. Ukryte wymagania sytuacji eksperymentalnej mogły mieć duży
wpływ na sposób rozumienia instrukcji, a tym samym na dokonywanie
ocen. Ignorowanie wpływu utajonych procesów poznawczej manipulacji
strukturą zadania mogło prowadzić autorów tych badań na manowce.
Szukając odpowiedzi, czy tak było w istocie, przeprowadzono specjalne
badanie (Nęcka, 1989). Przebadano 16 grup, którym przedstawiono inny
typ zadań poznawczych. Różne grupy oceniały prawdopodobieństwo
pojedynczych zdarzeń (A, B), prawdopodobieństwo ich koniunkcji (A i B)
albo prawdopodobieństwo implikacji (jeśli A to B). Okazało się, że
w połowie przypadków następnik implikacji (wydarzenie B) oceniano jako
równie prawdopodobny, co sama implikacja (jeśli A, to B), w połowie
przypadków zaś – jako mniej prawdopodobny. Co więcej, w siedmiu
zadaniach na osiem prawdopodobieństwo koniunkcji (A i B) oceniano jako
równe prawdopodobieństwu implikacji (jeśli A, to B), a tylko w jednym
przypadku na osiem koniunkcję oceniano jako mniej prawdopodobną niż
implikacja. Wyniki tych badań sugerują, że zadania „oficjalnie” polegające
na ocenie szans wystąpienia koniunkcji mogą być implicite przerabiane na
zadania wymagające oceny prawdopodobieństwa implikacji. W związku
z tym pojawia się uzasadniona wątpliwość, czy w niektórych badaniach
prowadzonych „w paradygmacie Lindy” nie uzyskano artefaktów.

Wykazano ponadto (Koehler, 1996), że w realnych sytuacjach życiowych


tendencyjność w wydawaniu sądów jest znacznie mniejsza niż w badaniach
laboratoryjnych. Na przykład ignorowanie proporcji podstawowej ma
znacznie mniejszy zasięg, niż można by sądzić na podstawie badań
Tversky’ego i Kahnemana. Nie znaczy to, że proporcja podstawowa jest
precyzyjnie obliczana i uwzględniana w decyzjach, jednak zakres jej
ignorowania pozostaje w rzeczywistości mniejszy.

Na pewno jednak nie wszystkie wyniki badań to artefakty. Rodzi się


w takim razie pytanie, dlaczego ludzie stosują omylne heurystyki zamiast
ścisłych reguł i czy takie heurystyki mają jakiekolwiek znaczenie
poznawcze lub praktyczne. Szukając odpowiedzi, trzeba zwrócić uwagę na
dwie okoliczności. Po pierwsze, ludzie stosują proste, lecz zawodne
heurystyki, bo nie mają innego wyjścia. Wykonanie skomplikowanych
obliczeń wymaga czasu, umiejętności i wolnych zasobów poznawczych.
Niespełnienie chociażby jednego z tych trzech warunków sprawia, że
musimy skorzystać z prymitywnych narzędzi o ograniczonej skuteczności.
Po drugie, ludzie nie są ewolucyjnie przystosowani do korzystania
z zaawansowanych metod oceny prawdopodobieństwa lub z innych reguł
naukowego wydawania sądów. Rachunek prawdopodobieństwa wymyślono
dopiero w XIX w., a umysł człowieka jako gatunku rozwinął się już przed
setkami tysięcy lat. Wprawdzie nasi przodkowie, łowcy i zbieracze żyjący
na legendarnej sawannie, musieli jakoś oceniać szanse i zagrożenia, np.
dotyczące zachowania się zwierzyny lub grożących im klęsk żywiołowych,
zatem nie byli wolni od konieczności wydawania sądów
probabilistycznych, ale nie dysponowali narzędziami intelektualnymi
wypracowanymi dopiero przez nowoczesną naukę. Tymczasem zadania,
które zwykle daje się ludziom w badaniach nad wydawaniem sądów,
operują właśnie kategoriami rachunku prawdopodobieństwa i innych
dziedzin nauki. Nic dziwnego, że badacze stwierdzają mnóstwo sądów
błędnych i tendencyjnych, bo postępują trochę tak, jak gdyby wymagali od
wozu drabiniastego, by był klimatyzowany.

Rachunek prawdopodobieństwa wymaga nie tylko stosowania reguł


obliczania szans na wystąpienie różnych zdarzeń, lecz także posługiwania
się pojęciami przypadku i losowości. Ludzie nie wiedzą, co to znaczy
„zdarzenie losowe”, szukając za wszelką cenę racjonalnej przyczyny tego,
co się stało. Jeśli więc w totolotku padłby wynik:

1 2 3 4 5 6,

skłonni byliby dopatrywać się w tym przejawów czyjejś ingerencji.


Losowość w sensie statystycznym jest pojęciem teoretycznym, które nie
odpowiada naszym potocznym intuicjom. Zresztą pojedyncze zdarzenie
losowe zwykle jest jakoś zdeterminowane4; np. wynik losowania
w totolotku zależy od wzajemnego oddziaływania kul w bębnie maszyny
losującej. Coś jest zatem losowe, bo nieprzewidywalne, ale
zdeterminowane, bo stanowi końcowe ogniwo długiego łańcucha zdarzeń.
W potocznym rozumieniu świata ujawnia się tylko drugi aspekt zdarzenia
losowego, mianowicie to, że ktoś (lub coś) musiał się przyczynić do jego
zaistnienia. Natomiast aspekt teoretyczny zjawisk losowych jest większości
ludzi zupełnie obcy. Unikanie uniwersalnych błędów i tendencji
poznawczych wymaga ponadto operowania elementami statystyki, takimi
jak pojęcie reprezentatywności próbki i prawo wielkich liczb. Umysł,
rozwinięty jako narzędzie rozumienia zjawisk niekoniecznie
reprezentatywnych i przystosowany do operowania na stosunkowo małych
liczbach, musiał okazać swoją słabość w kontakcie z kategoriami
pojęciowymi współczesnej nauki. Naukę tworzą jednak ludzie dla ludzi, co
oznacza, że uniwersalne błędy i tendencje poznawcze można
przezwyciężyć w wyniku uważnej analizy zadania i pod warunkiem
wcześniejszego przyswojenia ważnych elementów wiedzy.

Heurystyki mają też tę zaletę, że umożliwiają sformułowanie poprawnego


sądu osobom, które bez nich byłyby skazane na porażkę ze względu na
brak wymaganych zdolności intelektualnych. Keith Stanovich i Richard
West (1998) powtórzyli badanie w paradygmacie Lindy, uzyskując wyniki
zbliżone do oryginalnych danych Kahnemana i Tversky’ego: około 80%
badanych uległo złudzeniu koniunkcji, a około 20% wykazało się
odpornością na ten efekt. Autorzy sprawdzili następnie, czy osoby podatne
i niepodatne na złudzenie koniunkcji różnią się pod względem ogólnej
sprawności intelektualnej mierzonej testem SAT5. Różnica ta okazała się
znaczna, zarówno w wartościach bezwzględnych (81 punktów), jak
i w języku siły efektu (d = 0,746). Kiedy jednak badacze zmienili sposób
przedstawienia tego problemu i zapytali o szacowaną częstość pojawienia
się osób spełniających pojedyncze lub podwójne kryterium (np. „Jak
myślisz, ile kobiet na 100, takich jak Linda, mogłoby pracować w banku
i być feministkami?”), liczba badanych ulegających złudzeniu koniunkcji
zmniejszyła się bardzo wyraźnie. Co więcej, po zmianie sposobu
reprezentacji problemu grupa badanych podatnych na złudzenie nie różniła
się już pod względem ogólnej sprawności intelektualnej od tych, którzy nie
byli podatni.
Można na tej podstawie wnioskować, że osoby mniej inteligentne częściej
popełniały błąd koniunkcji, ponieważ nie dysponowały potrzebnymi
zdolnościami, aby skutecznie zmagać się z problemem szacowania
prawdopodobieństwa koniunkcji. Częściej zatem odwoływały się do
heurystyki reprezentatywności, która działając jak prosty i intelektualnie
niewymagający „wytrych”, zastępowała im rzetelne myślenie o problemie,
a tym samym prowadziła do błędnego wniosku. Gdy problem
przedstawiono w postaci mniej wymagającej, nieskuteczna proteza
w postaci heurystyki reprezentatywności okazała się niepotrzebna,
a zadanie przestało różnicować osoby inteligentne i mniej inteligentne.

12.1.4. Sądy intuicyjne


Terminem poznanie intuicyjne określamy szeroką kategorię zjawisk
dotyczących pamięci, uczenia się, nabywania wiedzy, języka oraz myślenia
i rozwiązywania problemów. Wspólną cechą tych zjawisk jest to, że
człowiek wykonuje złożone czynności poznawcze, np. rozwiązuje problem
lub nabywa abstrakcyjnej wiedzy, nie zdając sobie sprawy z istotnych
elementów tego procesu lub z jego przesłanek, a często nawet z tego, że
w ogóle dysponuje jakąś sprawnością poznawczą bądź wiedzą. Istotą
intuicji jest więc zdolność umysłu ludzkiego do działania w warunkach
niepełnego uświadomienia sobie przyczyn, motywów, przesłanek lub
mechanizmów tego działania (Myers, 2002). Intuicyjny charakter mają
niektóre z wydawanych przez nas sądów. Człowiek jest wówczas
przeświadczony, że coś wie, ale nie wie, skąd wie. Ma subiektywne
poczucie nagłości, oczywistości i aprioryczności swojego sądu (Nęcka,
1983). Sąd intuicyjny jest nagły, bo w doświadczeniu wewnętrznym nie
stanowi końcowego ogniwa dłuższego ciągu rozumowania. Jest oczywisty,
bo nie domaga się uzasadnień, jego prawdziwość nie budzi wątpliwości.
Jest wreszcie aprioryczny, bo wydaje nam się, że powstał nie na podstawie
doświadczenia i wiedzy, lecz w wyniku tajemniczego „olśnienia”. Nagłość
sądu apriorycznego jawi się jako cecha charakterystyczna, ale
niekonieczna, można bowiem wskazać przykłady wiedzy intuicyjnej, która
jak gdyby narasta w dłuższym przedziale czasu. Człowiek coraz bardziej
utwierdza się w swoim przekonaniu, choć nadal nie potrafi go uzasadnić.
Również oczywistość sądu intuicyjnego zdaje się występować nie
w każdym przypadku. Zdarzają się przeczucia, o których prawdziwości
jesteśmy przekonani tylko w pewnym stopniu. Doświadczamy czegoś, co
się nazywa poczuciem wiedzy (feeling of knowing, FOK), ale nie zawsze
jest to poczucie mocne i niezachwiane. Natomiast aprioryczność sądu
intuicyjnego zdaje się jego cechą nieodzowną. Subiektywne poczucie
aprioryczności oczywiście w żadnym wypadku nie przesądza, że sąd
intuicyjny ma być takowym obiektywnie. Zadanie badawcze psychologów
kognitywnych polega właśnie na tym, aby odsłonić mechanizm tworzenia
się sądu intuicyjnego, a także jego obiektywne, choć nieuświadomione
przesłanki.
Poczucie wiedzy (feeling of knowing) – subiektywne przekonanie o tym, że dysponuje się
znajomością czegoś, np. zna się znaczenie jakiegoś terminu lub pamięta się czyjeś nazwisko. Zwykle
występuje w postaci szczątkowej, np. pamiętamy tylko niektóre litery, tworzące czyjeś nazwisko.
Poczucie wiedzy może być błędne, ale nawet wtedy zdarza się, że skutecznie wspomaga procesy
odpamiętania.
Sąd intuicyjny (intuitive judgment) – 1. Taki, którego nie potrafimy uzasadnić; przeczucie. 2. Taki,
który wynika z naiwnego doświadczenia i wiedzy potocznej. 3. Sąd alogiczny, ignorujący zasady
logiki.

Pojęcie sądu intuicyjnego odnosimy do trzech kategorii zjawisk.


W pierwszym znaczeniu chodzi o sądy, których nie potrafimy uzasadnić.
Są to jak gdyby przeczucia, których przeciwieństwo stanowią sądy
racjonalne, możliwe do uzasadnienia w drodze rozumowania, użycia
logicznych argumentów i wykorzystania wiedzy. Trzeba jednak pamiętać,
że mówimy tutaj o dwóch biegunach kontinuum: większość naszych sądów
mieści się gdzieś pośrodku tego wymiaru, ponieważ nie jest wystarczająco
uzasadniona albo uzasadnienia są wtórnie wytwarzane już po
sformułowaniu sądu. Ponadto rozróżnienie sądów racjonalnych
i intuicyjnych nie jest tożsame z rozróżnieniem sądów poprawnych
i błędnych, choć sądom intuicyjnym często towarzyszy silne, subiektywne
przekonanie o ich słuszności. Zarówno rozum, jak i intuicja mogą
prowadzić do sądów poprawnych lub błędnych (Myers, 2002). Sądy
racjonalne jednak łatwiej nam zweryfikować, np. poddając ich
uzasadnienie krytycznej ocenie, podczas gdy sądy intuicyjne trudniej
potwierdzić, ale i trudniej im zaprzeczyć. Jeśli bowiem nie wiemy, co jest
podstawą danego sądu, jesteśmy bezradni w kwestii jego walidacji.

Empiryczne badania nad poznaniem intuicyjnym prowadził – jako jeden


z pierwszych – Malcolm Westcott (1968). Prezentował on osobom
badanym ciągi liczb wymagające uzupełnienia, np.

5 7 4 8?

Uzupełnianie ciągów jest przykładem rozumowania indukcyjnego,


ponieważ wymaga sformułowania ogólnego prawa na podstawie
ograniczonej liczby poszczególnych przypadków. W podanym przykładzie
poprawnym uzupełnieniem będzie liczba 3, ponieważ w ten sposób
spełniona jest reguła, że kolejne wartości uzyskujemy naprzemiennie,
dodając i odejmując wartości przyrastające o jeden (5 + 2 = 7, 7 – 3 = 4, 4
+ 4 = 8, 8 – 5 = 3). Westcott zauważył, że niektórzy ludzie skłonni są do
tzw. przeskoków intuicyjnych (intuitive leaps), czyli zgadywania
kolejnych wartości ciągu jeszcze przed sformułowaniem ogólnej zasady.
Ktoś może „intuicyjnie” wiedzieć, jaka ma być kolejna wartość ciągu, ale
nie jest w stanie tego uzasadnić. Potrzebuje niewiele informacji, aby
zgadywać lub przewidywać dalsze jego elementy. Jeśli się przy tym nie
myli, zasługuje na miano intuicjonisty. Jeśli natomiast przedwczesne próby
prowadzą raczej do wniosków błędnych, mowa jest o „niepoprawnych
zgadywaczach”. Osoby potrzebujące dużo informacji również mogą być
skuteczne lub nieskuteczne. Skrzyżowanie dwóch wymiarów: skłonności
do intuicyjnych przeskoków lub jej braku, oraz poprawności lub błędności
wniosków, daje cztery kategorie osób. Westcott interesował się szczególnie
tym, czy są jakieś cechy wspólne intuicjonistom. Stwierdził, że należą do
nich: skłonność do abstrakcyjnego myślenia, tolerancja na sytuacje
wieloznaczne, upodobanie do ryzyka i tolerancja na krytykę ze strony
innych osób. Intuicjonistów cechują też niekonwencjonalność
i niezależność w stosunku do ocen społecznych.

Inne podejście do problemu zastosował Kenneth Bowers wraz ze


współpracownikami (Bowers, Regehr, Balthazard, Parker, 1990).
W badaniach użyto materiału werbalnego lub niewerbalnego o różnym
poziomie koherencji. Na przykład trójkę słów: grzywa, król i pustynia,
uznano za koherentne, ponieważ istnieje czwarte słowo kojarzące się ze
wszystkimi trzema (lew). Natomiast słowa: jedwab, kamień, koza, uznano
za niekoherentne, to znaczy w żaden sposób niepowiązane. Ideę
wewnętrznej spójności trzech oderwanych słów zapożyczono z Testu
Odległych Skojarzeń (Remote Associates Test, RAT; Mednick, Mednick,
1964). W omawianych badaniach uczestnikom pokazywano jednocześnie
trójkę koherentną i niekoherentną. Ich zadanie polegało na wymyśleniu
rozwiązania, czyli słowa kojarzącego się ze wszystkimi elementami trójki.
Jeśli nie byli w stanie tego uczynić, musieli wskazać, która z dwóch trójek
w ogóle ma takie rozwiązanie, a także ocenić poziom zaufania do własnego
sądu. Okazało się, że badani częściej wskazywali trójki koherentne niż
niekoherentne jako te, które mają rozwiązanie, a ponadto byli dość pewni
swoich sądów (ramka 12.2). Można więc powiedzieć, że dokonywali
sądów subiektywnie apriorycznych i oczywistych.

RAMKA 12.2

Intuicja jako dostrzeganie sensu, którego nie da


się wyrazić w słowach
Bowers i współpracownicy (1990) przeprowadzili serię eksperymentów,
które mieszczą się w coraz szerszym nurcie badań nad poznaniem
utajonym (implicit cognition; zob. Underwood, Bright, 1996). Wspólną
cechą tych eksperymentów było badanie zdolności ludzi do dostrzegania
sensu w prezentowanym im materiale werbalnym lub niewerbalnym,
mimo niezdolności do zwerbalizowania, na czym ów sens polega.

W pierwszym eksperymencie wzięło udział pięć grup liczących od 33 do


100 osób. Uczestnikom pokazywano, w tempie raz na 8 lub raz na 12
sekund, dwie trójki słów, np.:

Po ekspozycji następowała ośmiosekundowa przerwa, podczas której


badani mieli wpisać na standardowym arkuszu odpowiedzi słowo, które
kojarzyło im się z trzema elementami jednej z trójek (triad).
Powiedziano im, że jedna triada z każdej pary ma takie słowo.
W podanym przykładzie jest to triada A, ponieważ istnieje czwarte
słowo (CARD), które kojarzy się ze wszystkimi trzema (playing card,
credit card, report card). Zasadę wynajdywania skojarzenia z trzema
słowami naraz zaczerpnięto z RAT (Mednick, Mednick, 1962). Z testu
tego zapożyczono również niektóre pozycje, inne zaś wymyślono na
nowo. W każdej parze była trójka spójna (koherentna), czyli mająca
rozwiązanie, i niespójna, czyli bez rozwiązania. Tego oczywiście nigdy
nie można być pewnym, ponieważ różnym ludziom różne rzeczy się
kojarzą. Autorzy wykryli jednak bardzo mało przypadków, aby ktoś
znalazł rozwiązanie, którego oni sami nie przewidzieli. Pozycje tego
typu były eliminowane z dalszych eksperymentów. W badaniu
wykorzystano 60 jednostek, z których każda składała się z triady spójnej
i niespójnej.

Jeśli badani nie byli w stanie wykryć, które słowo kojarzy się
z pozostałymi elementami trójki, mieli za zadanie wskazać, która
z dwóch trójek tworzących daną pozycję testu w ogóle ma rozwiązanie.
Był to kluczowy element procedury, dzięki któremu możliwe było
stwierdzenie, czy ludzie dysponują intuicyjnymi przeczuciami, trudnymi
do uzasadnienia sądami na temat wewnętrznej spójności prezentowanego
im materiału. Wychodząc z założenia, że pierwszym etapem tworzenia
się intuicyjnego sądu jest naprowadzanie, czyli aktywizacja właściwych
elementów sieci semantycznej, autorzy skonstruowali tzw. wskaźnik
naprowadzania. Zdefiniowali go jako proporcję liczby trójek
wskazanych jako spójne do ogólnej liczby trójek, dla których nie
znaleziono rozwiązania. Jeżeli wskaźnik naprowadzania był bliski 0,50,
oznaczał, że osoby badane nie dysponowały żadnym intuicyjnym
wyczuciem koherencji. Natomiast jeśli wskaźnik ten przekraczał
znacząco wartość 0,50, autorzy wnioskowali o istnieniu intuicyjnych,
trudnych do uzasadnienia i zwerbalizowania sądów na temat ukrytego
sensu wiążącego trzy oderwane słowa.
Badani oceniali ponadto na trójstopniowej skali (0, 1 i 2) poziom
zaufania do własnych sądów. Autorzy mogli dzięki temu stwierdzić, czy
uczestnicy eksperymentów ufają swym intuicyjnym przeczuciom.
Okazało się, że pełne zaufanie (poziom 2) deklarowano stosunkowo
rzadko (9–16 razy na 100 przypadków). Znacznie częściej deklarowano
zaufanie na poziomie niskim (ocena 0) lub średnim (ocena 1). Mimo to
zaobserwowano pozytywną korelację (średnio na poziomie +0,23)
między szacowanym poziomem zaufania do własnych sądów a wartością
wskaźnika naprowadzania. Oznacza to, że im częściej osoby badane były
pewne swojego sądu, tym częściej trafnie wskazywały koherentną triadę,
mimo że nie były w stanie wskazać jej rozwiązania. Co więcej, wskaźnik
naprowadzania okazał się istotnie wyższy od poziomu przypadku
(równego 0,50), przybierając średnią wartość 0,58 w odniesieniu do
wszystkich grup eksperymentalnych. Badani częściej niż przypadkowo
wskazywali, która triada jest wewnętrznie spójna, choć najczęściej nie
wiedzieli, dlaczego jest spójna. Wskaźnik naprowadzania był jednak
istotnie wyższy od poziomu przypadku tylko wtedy, gdy deklarowane
zaufanie do własnego sądu było co najmniej średnie. Niski poziom
zaufania szedł zwykle w parze ze wskaźnikiem naprowadzania bliskim
0,50. Uczestnicy tego eksperymentu nie reagowali więc całkiem „na
ślepo”. Mogli nie wiedzieć, dlaczego niektóre trójki słów wydają im się
sensowne, ale mieli przynajmniej słabe, subiektywne przekonanie, że się
nie mylą.

W eksperymencie replikacyjnym „wyczyszczono” materiał


eksperymentalny, dzieląc triady koherentne na zbieżne i rozbieżne.
W pierwszym przypadku słowo-rozwiązanie miało to samo znaczenie
w relacji do każdego z trzech słów, podczas gdy w przypadku triad
niespójnych zasadniczo zmieniało znaczenie, w zależności od tego,
z czym miało się kojarzyć. W triadach semantycznie rozbieżnych często
np. wykorzystywano homonimy (zamek kojarzy się ze ślusarzem,
krawcem i rycerzem, choć z różnych powodów), czego w triadach
zbieżnych unikano. Wyniki drugiego eksperymentu potwierdziły to, co
zaobserwowano w pierwszym. Udało się ponadto wykazać, że triady
koherentne semantycznie spójne były częściej rozwiązywane (r = 0,32),
a jeśli rozwiązania nie udało się znaleźć – były częściej wskazywane
jako te, które je mają (r = 0,44). Uniknięto tym samym zarzutu, że triady
koherentne były wskazywane przez badanych niejako domyślnie –
wyłącznie na tej podstawie, że triady niekoherentne odrzucano, a wybór
był wymuszony instrukcją. Okazało się, że czynnikiem skłaniającym
ludzi do akceptacji triady była semantyczna zbieżność tworzących ją
trzech słów.

W drugim eksperymencie wykorzystano materiał niewerbalny. Elementy


koherentne utworzono ze „zdegradowanych”, fragmentarycznych
rysunków konturu przedmiotu lub zwierzęcia. Elementy niekoherentne
uzyskano, tworząc analogiczne, ale bezsensowne układy czarnych plam
na białym tle. Badani mieli powiedzieć, co przedstawia dany rysunek,
a jeśli nie potrafili tego zrobić, mieli wybrać ten element pary, który –
ich zdaniem – coś przedstawiał. Podobnie jak poprzednio, badani mieli
decydować, który element pary ma sens, a który jest bezsensowny.
Oceniali też subiektywne zaufanie do własnych sądów. Okazało się, że
wskaźniki naprowadzania były nieco wyższe niż w eksperymencie
z bodźcami werbalnymi (średnio 0,60, poziom przypadku 0,50).
Stwierdzono również pozytywną, choć słabą korelację między wartością
wskaźnika naprowadzania a poziomem zaufania do własnych sądów
(średnio 0,23). Autorzy konkludują, że w fazie naprowadzania tworzy
się percepcja wzorca lub postaci (Gestalt), która – choć trudna do
zwerbalizowania – daje podstawę do trafnych sądów.

W trzecim eksperymencie wykorzystano inne zadanie, zwane Testem


Skumulowanych Wskazówek (Accumulated Clues Task, ACT). Osobom
badanym prezentowano 15 słów w tempie jedno słowo na 10 sekund.
Wszystkie elementy serii kojarzyły się z 16. słowem, chociaż niektóre
skojarzenia były bardzo odległe. Uczestnicy mieli zaznaczać, przy
którym kolejnym bodźcu domyślili się rozwiązania, a przy którym byli
go pewni. Procedura eksperymentu odpowiadała więc, w bardzo dużym
przybliżeniu, dwóm etapom badania naukowego: odkrycia
i uzasadnienia. Okazało się, że badani potrzebowali średnio około 10
słów, aby wykryć rozwiązanie. Przypuszczalnie kolejne słowa w serii
wzbudzały podobne węzły sieci semantycznej, kumulując się w węźle,
który odpowiadał rozwiązaniu, i silnie go wzbudzając. Natomiast
korelacja między liczbą wskazówek potrzebnych do sformułowania
hipotezy a liczbą wskazówek niezbędnych do upewnienia się w jej
słuszności okazała się słaba i nieistotna. Sugeruje to, że sformułowanie
hipotezy jest czymś innym od jej uzasadnienia.

Na podstawie wyników w ACT osoby badane podzielono na intuicyjne,


średnio intuicyjne i słabo intuicyjne. Podstawą podziału była liczba
wskazówek niezbędnych do sformułowania hipotezy – im mniejsza, tym
wyższy wskaźnik intuicyjności badanego. Tak wyróżnione grupy miały
następnie za zadanie wymyślać skojarzenia w odpowiedzi na
poszczególne elementy serii wskazówek. Wymyślano skojarzenia na
pierwszy, przedostatni i dwa pośrednie elementy. W przypadku
intuicjonistów były to zwykle elementy pierwszy, drugi, trzeci i czwarty,
a w przypadku nieintuicjonistów – pierwszy, piąty, dziewiąty i trzynasty.
Wytworzone w ten sposób skojarzenia były następnie oceniane przez
sędziów kompetentnych ze względu na bliskość skojarzeniową ze
słowem, które stanowiło rozwiązanie całej serii. Chodziło
o sprawdzenie, czy skojarzenia z przedostatnim elementem będą
silniejsze niż skojarzenia z wcześniejszymi elementami i czy zależy to
od poziomu intuicyjności osoby badanej. Gdyby bliskość skojarzeń nie
zależała od pozycji słowa w szeregu, można by uważać, że sąd
intuicyjny powstaje nagle, w wyniku tajemniczego olśnienia. Gdyby
jednak bliskość skojarzeń była większa w przypadku słów zajmujących
dalsze miejsca w szeregu, można by uznać, że sąd intuicyjny powstaje
stopniowo, w wyniku skumulowanego aktywowania właściwego węzła
sieci semantycznej.

Wyniki eksperymentu wyraźnie pokazały, że bliskość utworzonych


skojarzeń ze słowem-kluczem rośnie stopniowo wraz z coraz dalszym
położeniem słów bodźców w szeregu słów tworzących daną pozycję
ACT. Tę liniową zależność otrzymano w przypadku wszystkich trzech
grup, różniących się intuicyjnością jako cechą indywidualną. Autorzy
konkludują, że w związku z tym formowanie się sądu intuicyjnego
należy opisywać jako proces ciągły, a nie dyskretny.

Badania Bowersa i współpracowników były replikowane również przez


innych badaczy. Wykazano m.in., że czynnikiem sprzyjającym
formowaniu się sądów intuicyjnych jest pozytywny nastrój,
a czynnikiem szkodzącym intuicji – nastrój negatywny (Bolte, Goschke,
Kuhl, 2003). Okazało się też, że intuicyjność jako cecha osobowości,
mierzona kwestionariuszem MBTI (Myers–Briggs Type Indicator), nie
koreluje z intuicyjnością mierzoną w paradygmacie wypracowanym
przez Bowersa i współpracowników (Langan-Fox, Shirley, 2003).
Intuicja jest prawdopodobnie zjawiskiem niejednolitym, obejmującym
różne grupy procesów poznawczych i przejawiającym się
w różnorodnych typach zadań (Policastro, 1995; Shirley, Langan-Fox,
1996). Badania Agaty Sobków i współpracowników (Sobków, Traczyk,
Kaufman, Nosal, 2018) dodatkowo wzmacniają ten wniosek. Badacze ci
wykazali, że zdolności intuicyjne są związane zarówno z inteligencją
mierzoną tradycyjnymi testami (np. testem Matryc Ravena), jak
i cechami osobowości, szczególnie z otwartością na doświadczenie.

Bowers i współpracownicy twierdzą, że sąd intuicyjny powstaje w dwóch


etapach. W stadium naprowadzania (guiding stage) uaktywniają się
struktury wiedzy, odpowiadające poszczególnym składnikom koherentnej
struktury. W tej fazie stopniowo aktywizują się odpowiednie węzły sieci
semantycznej, reprezentujące trzy oderwane pojęcia. Wychodząc od
każdego z tych węzłów, aktywacja rozprzestrzenia się na inne elementy
sieci, zgodnie z istniejącymi powiązaniami semantycznymi lub
skojarzeniowymi. W rezultacie czwarty węzeł, reprezentujący rozwiązanie,
staje się również coraz bardziej aktywny, choć nie było bodźca
bezpośrednio za to odpowiedzialnego. Węzeł ten jest jak gdyby
„namierzony” z trzech stron, w nim bowiem zbiegają się procesy
aktywowania sieci, zaczynające się w węzłach wyjściowych. W wyniku
stopniowego uaktywniania się czwartego węzła powstaje nieświadome,
ukryte przeświadczenie o tym, że trzy oderwane słowa są jakoś powiązane,
czyli stanowią koherentną strukturę. Nie potrafimy powiedzieć, na czym
polega ta koherencja, ale jesteśmy subiektywnie przekonani o jej istnieniu.
Dopiero na drugim etapie, zwanym fazą integracji, pobudzenie czwartego
węzła sieci może przekroczyć wartość graniczną, umożliwiającą
uświadomienie sobie i zwerbalizowanie rozwiązania. Zazwyczaj takie
rozwiązanie wymaga sprawdzenia, ponieważ nawet w fazie integracji jest
niczym więcej jak tylko hipotezą. Jest to jednak hipoteza o dużym
subiektywnym ładunku pewności, a ponadto – choć rodzi się w wyniku
dłuższego procesu ciągle narastającego pobudzenia sieci semantycznej –
z punktu widzenia świadomej części umysłu pojawia się nagle
i niespodziewanie. Dlatego sąd w ten sposób wygenerowany cechuje się
subiektywną nagłością, oczywistością i apriorycznością (Nęcka, 1983).

Badania za pomocą funkcjonalnego rezonansu magnetycznego (functional


magnetic resonance imaging, fMRI) nad intuicją pozwalają ocenić
słuszność opisanego modelu. Thea Zander i współpracownicy (Zander,
Horr, Bolte, Volz, 2016), wykorzystując paradygmat badawczy Bowersa,
zidentyfikowali sieć struktur aktywnych przy wydawaniu sądów
intuicyjnych, zlokalizowaną w lewej półkuli mózgu. Były to struktury kory
oczodołowo-czołowej, wyspy, zakrętu czołowego dolnego, zakrętu
skroniowego dolnego i zakrętu skroniowego środkowego. Co decydujące,
liczba aktywnych obszarów tworzących tę sieć powiększała się wraz ze
wzrostem stopnia koherencji ocenianych bodźców, co wspiera hipotezę
stopniowego rozprzestrzeniania się aktywacji w sieci semantycznej jako
podstawy sądów intuicyjnych.

Teoria Bowersa i współpracowników, wraz z potwierdzającymi ją


wynikami badań, jest próbą wyrażenia w języku eksperymentalnej
psychologii poznawczej tego samego, o czym traktowała teoria inkubacji
(Wallas, 1926). Chodzi o mechanizm odkrycia naukowego, wraz
z towarzyszącymi mu przeżyciami nagłego olśnienia i wglądu. Wydaje się
jednak, że teoria Bowersa ma szerszy zasięg, ponieważ opisuje nie tylko
proces twórczego rozwiązywania problemów, lecz także powstawanie
sądów intuicyjnych. Poza tym pokazuje ona hipotetyczny mechanizm
intuicji, wglądu i odkrycia naukowego, podczas gdy teoria inkubacji nie
była zdolna powiedzieć niczego ponad to, że nowa idea „inkubuje się”
w nieświadomości.
Sąd intuicyjny w drugim znaczeniu to sąd naiwny, oparty na
doświadczeniu potocznym, a nie na ugruntowanej wiedzy i sprawdzonych
procedurach. Poznanie potoczne polega na bezkrytycznym przyjmowaniu
sądów ogólnie rozpowszechnionych, składających się na tzw. zdrowy
rozsądek. Elementy takiego poznania mogą też wynikać z mało wnikliwych
obserwacji i nadmiernego uogólniania jednostkowych obserwacji. Sądy
potoczne często przybierają postać przysłów, o których mówi się, że to
mądrość ludu, choć są wzajemnie sprzeczne6, a prawie zawsze
nieudowodnione. Ponadto sądy naiwne to elementy wiedzy przednaukowej,
np. dziecięce wyobrażenia na temat ruchu Słońca wokół Ziemi, przed
Kopernikiem powszechnie uznawane za prawdziwe. Obecnie, dzięki
powszechnej edukacji, każdy z nas wie, że to Ziemia kręci się wokół
Słońca, choć sąd taki ciągle wydaje się sprzeczny ze zdrowym rozsądkiem.
Przewrót kopernikański przyswoili sobie prawie wszyscy, ale inne odkrycia
naukowe znane są tylko nielicznym. Dlatego potoczne wyobrażenia na
temat świata fizycznego lub społecznego zazwyczaj mają niewiele
wspólnego z wiedzą naukową. Zresztą nauka też nie ma monopolu na
prawdę – można zaryzykować twierdzenie, że jej rozwój polega na
nieustannym zastępowaniu naiwnych, niesprawdzonych i błędnych teorii
modelami lepiej dopasowanymi do wyników badań. Wiele twierdzeń
naukowych to nic innego, jak przesądy, dość bezkrytycznie powtarzane
przez kolejne pokolenia uczonych, albo po prostu sądy naiwne, wynikające
z potocznego doświadczenia, ale ubrane w specjalistyczny żargon. Wiedza
prawdziwie naukowa, czyli sprawdzona, cechuje się właśnie tym, że nader
często godzi w powszechnie przyjęte przekonania i „naturalne” intuicje.

Badanie poznania potocznego polega na analizie modeli umysłowych


dotyczących określonego obszaru rzeczywistości fizycznej lub społecznej.
Badano np., w jaki sposób ludzie wyobrażają sobie trajektorię lotu pocisku
wypuszczonego z samolotu lecącego na określonej wysokości ze stałą
prędkością (McCloskey, 1983b). Zadanie polegało na narysowaniu drogi
pocisku i zaznaczeniu miejsca, w którym znajdzie się samolot w momencie
uderzenia pocisku w grunt. Przy założeniu, że prędkość samolotu jest stała,
a opór powietrza należy zignorować, tor lotu pocisku utworzy parabolę,
a samolot w momencie uderzenia pocisku w Ziemię znajdzie się dokładnie
nad miejscem, w którym to nastąpi. Tylko 40% dorosłych badanych
udzieliło poprawnej odpowiedzi. Pozostali twierdzili, że pocisk spadnie
w linii prostej – pionowej lub nachylonej wobec gruntu pod kątem
rozwartym. Tak duża liczba błędnych odpowiedzi oznacza, że nawet jeśli
ich autorzy uczyli się kiedyś elementarnej fizyki, dawno o tym zapomnieli.
Inny przykład błędnej intuicji na temat fizyki to przewidywanie trajektorii
ruchu piłeczki, którą wystrzeliwuje się ze spiralnej rury leżącej płasko na
stole. Piłeczka będzie się oczywiście toczyć po powierzchni stołu wzdłuż
linii prostej, która jest styczna do krzywizny spirali w jej punkcie
końcowym (ryc. 12.1). Tymczasem około 40% badanych studentów
stwierdziło, że piłeczka będzie się poruszać po krzywej, która jest
kontynuacją krzywizny spirali (McCloskey, 1983a). Umysłowa
reprezentacja ruchu, która kryje się za błędnymi odpowiedziami, różni się
zasadniczo od pojęć i reguł mechaniki klasycznej. Mimo to górę bierze
naiwne, intuicyjne rozumienie ruchu. Być może jego błędny model
umysłowy pozwala z pewnym przybliżeniem przewidywać zachowanie
przedmiotów w większości mało wyrafinowanych zadań poznawczych,
a w przypadku zadań bardziej złożonych konsekwencje jego użycia nie są
przesadnie negatywne. Tak można by tłumaczyć przydatność potocznych
intuicji, a tym samym ich trwałość i subiektywną pewność.
RYCINA 12.1. Poprawne (lewa strona) i naiwne (prawa strona) przewidywanie ruchu obiektu
Źródło: McCloskey, 1983a.

Ruch jest jedną z najważniejszych kategorii poznawczych, dlatego


potoczne intuicje na temat mechaniki są dość rozpowszechnione (Profitt,
1999). Poznanie potoczne dotyczy jednak wielu innych dziedzin, np.
matematyki. Podstawowe intuicje matematyczne, np. pojęcie dzielenia bez
reszty, są dostępne nawet osobom bez formalnego wykształcenia (Gelman,
1999). To samo można powiedzieć o posługiwaniu się pieniędzmi
i wykonywaniu podstawowych operacji finansowych (Nunes, Schliemann,
Carraher, 1993; zob. też Gąsiorowska, 2019). W przeciwieństwie do
naiwnych teorii ruchu intuicje matematyczne są zazwyczaj trafne,
przynajmniej dopóty, dopóki rzecz nie dotyczy liczb ujemnych lub innych
„nienaturalnych” pojęć. Intuicja odgrywa też dużą rolę w tzw. poznaniu
społecznym (social cognition), w szczególności jeśli chodzi
o kategoryzowanie ludzi i powstawanie stereotypów (Hirschfeld, 1999).
Ludzie spontanicznie dzielą świat społeczny według różnych kryteriów, np.
rasowych, etnicznych lub związanych z wiekiem. Za tymi podziałami kryją
się potoczne, naiwne sądy na temat tego, czym jest rasa, narodowość lub
wiek jako cecha wyróżniająca daną osobę spośród innych ludzi, a nawet
jako czynnik wyjaśniający zachowanie członków stygmatyzowanej grupy.
Prowadzi to czasem do działań dyskryminujących ludzi ze względu na
samą tylko przynależność do określonej grupy, ale najczęściej kończy się
na sformułowaniu pejoratywnego sądu i wyrażeniu go.

Sąd intuicyjny w trzecim znaczeniu to sąd alogiczny. Opisane wcześniej


przykłady korzystania z heurystyki reprezentatywności lub dostępności to
właśnie przykłady sądów opartych nie na logicznym rozumowaniu, lecz na
uproszczonych heurystykach. Przykładem poznania alogicznego są też sądy
dzieci w wieku przedoperacyjnym na temat stałości masy lub objętości
(Piaget, 1966). Dziecko widzi np. dwie szklanki wody i stwierdza, że
w każdej jest tyle samo cieczy. Następnie obserwuje, jak woda z jednej
szklanki zostaje przelana do szerszego naczynia. Zapytane, czy teraz też
w obu naczyniach jest tyle samo wody, zaprzecza, kieruje się bowiem tylko
jednym aspektem problemu, np. tym, że słup wody w szerszym naczyniu
jest niższy (mniej wody), albo tym, że średnica drugiego naczynia jest
większa (więcej wody). Dopiero w wieku około 6 lat dzieci stwierdzają, że
w obu naczyniach jest tyle samo wody. Zdaniem Piageta myślenie
alogiczne trwa dopóty, dopóki dziecko nie uzasadni poprawnie swojego
sądu, mówiąc np., że w obu naczyniach jest tyle samo wody, bo to ta sama
woda. Poznanie intuicyjne może bowiem prowadzić do poprawnego sądu,
ale nie do poprawnego uzasadnienia. Gdy uzasadnienie odwołuje się do
odwracalności wcześniej wykonanej operacji (wodę można z powrotem
przelać do pierwszego naczynia i to będzie ciągle ta sama woda), sąd
intuicyjny ustępuje sądowi logicznemu.

Istotą myślenia operacyjnego, czyli logicznego, jest – zdaniem Piageta –


odwracalność operacji umysłowych. Operacje są odwracalne, jeśli ich
negacja znosi skutek ich własnego działania. Operacja dodawania jest
odwracalna, bo po dodaniu wartości x do liczby y, a następnie odjęciu jej,
otrzymujemy z powrotem liczbę y, np. 7 + 5 – 5 = 7. Czynności umysłowe
dziecka w stadium przedoperacyjnym nie są odwracalne, stąd typowe dla
wieku przedszkolnego błędy w ocenie takich wielkości jak masa lub
objętość. Wydaje się, że niektóre czynności umysłowe ludzi dorosłych też
nie spełniają kryterium odwracalności, nie są więc, w ujęciu Piageta,
operacjami. Na przykład uczestnicy badań Johna Lista (2004) nie zgadzali
się na zamianę czekolady wartej 6 dolarów na kubek o tej samej wartości
tylko dlatego, że najpierw otrzymali w prezencie czekoladę; odwrotne
preferencje zaobserwowano u osób, które najpierw otrzymały w prezencie
kubek. Wydaje się, że wiele przypadków nieracjonalnego wyboru lub
tendencyjnego wydawania sądów można wytłumaczyć tym, że ludzie
stosują zabiegi poznawcze, którym brak logicznej odwracalności.
Oznaczałoby to, że stosowalność teorii operacji umysłowych Piageta
daleko wykracza poza zjawiska związane z rozwojem poznawczym.

12.2. Podejmowanie decyzji

12.2.1. Klasyczna teoria decyzji


Klasyczna teoria decyzji (KTD) opisuje zachowanie idealnego, doskonale
racjonalnego sprawcy (decydenta) w warunkach wymagających wyboru
jednej spośród pewnej liczby dobrze znanych opcji (Edwards, 1953;
Kozielecki, 1975; von Neumann, Morgenstern, 1944; zob. też
Zaleśkiewicz, 2012). Doskonale racjonalny decydent kieruje się zasadą
użyteczności, biorąc pod uwagę przede wszystkim te opcje, które niosą mu
jakąś korzyść. Kieruje się także zasadą prawdopodobieństwa, odrzucając
opcje mało realne. Przypuśćmy, że szukając pracy, rozważamy dwie
oferty7. Firma A daje nam 50% pewności wzrostu wynagrodzenia o 20%
w ciągu najbliższego roku, a firma B daje 90% pewności podwyżki, ale
tylko o 10% w ciągu roku. Pierwsza firma kusi więc dwukrotnie większą
podwyżką, ale druga firma daje znacznie więcej szans na to, że podwyżka
w ogóle nastąpi. Co wybierzemy?

Racjonalny decydent dokonałby obliczeń, mnożąc wielkość spodziewanego


zysku przez jego prawdopodobieństwo, po czym wybrałby firmę A.
Wynika to z następującego porównania:

A = 0,20 × 0,50 = 0,10


B = 0,10 × 0,90 = 0,09

Użyteczność firmy A jako przyszłego pracodawcy okazała się minimalnie


lepsza, stąd wybór tej właśnie oferty.

Łatwo zauważyć, że ludzie nie podejmują decyzji w ten sposób. KTD jest
więc modelem normatywnym, a nie deskryptywnym, to znaczy podaje
przepis na racjonalną decyzję, ale nie opisuje rzeczywistych zachowań
ludzi w sytuacjach wymagających jej podjęcia. Przede wszystkim model
ten operuje absolutnymi wartościami prawdopodobieństwa i zysku (lub
straty), podczas gdy wartości te są względne. Ktoś może uznać, że i tak nie
dostanie podwyżki, bo ma pecha, a ktoś inny będzie przekonany, że
podwyżkę dostanie na pewno. W obu przypadkach teoretyczne
prawdopodobieństwo otrzymania podwyżki (0,20 lub 0,10) będzie
zasadniczo różne – bliskie zera w pierwszym przypadku, a bliskie
pewności – w drugim. Ponadto subiektywnej ocenie podlega też wartość
oczekiwanego zysku lub straty. Czym innym jest 10-procentowa podwyżka
dla kogoś, komu proponuje się wyjściowe zarobki na poziomie 1000 zł,
a czym innym dla kogoś, kto ma zarabiać dwu- lub trzykrotnie więcej.
Subiektywna użyteczność pewnej sumy pieniędzy, czy to wyrażona
w procentach, czy to w wartościach bezwzględnych, nie jest tym samym,
co obiektywna wartość nabywcza tej sumy. Wreszcie samo pojęcie
prawdopodobieństwa nie jest tutaj jasne. Na jakiej podstawie pracodawca
może określić szansę podwyżki jako 0,10 lub 0,20? Nie ma żadnych
teoretycznych podstaw, aby te wartości jakoś wyliczyć, tak jak wylicza się
szansę wylosowania szóstki w totolotka lub otrzymania orła w rzucie
monetą. Można by w takim razie odwołać się do częstości zdarzeń, np. do
tego, że dany pracodawca do tej pory dawał podwyżkę jednemu
pracownikowi na pięciu (0,20) lub jednemu na dziesięciu (0,10).
Wymagałoby to jednak wykorzystania stosownych danych i wykonania
obliczeń statystycznych, czego zwykle się nie robi. Podawane wartości
prawdopodobieństwa są więc w istocie przybliżoną szansą otrzymania
podwyżki, szacowaną przez pracodawcę intuicyjnie i równie intuicyjnie
odbieraną przez kandydata, a nie prawdopodobieństwem w technicznym
znaczeniu tego pojęcia. A tylko technicznie rozumiane
prawdopodobieństwo pozwala posługiwać się obliczeniami.

Chcąc zmodyfikować KTD w taki sposób, aby opisywała rzeczywiste, a nie


idealne zachowania ludzi, wprowadzono pojęcie oczekiwanej
subiektywnej użyteczności wyniku (subjective expected utility, SEU).
SEU oznacza wartość konkretnej opcji jako funkcję subiektywnego
prawdopodobieństwa jej wystąpienia i subiektywnej użyteczności jej
skutków. Jeśli ktoś uważa, że ma pecha, przekształci „oficjalne” deklaracje
pracodawców na własne szacunki, znacznie niższe niż 0,20 czy nawet 0,10.
Odwrotnie postąpi osoba, która uważa, że ma szczęście lub z jakichś
powodów zasługuje na uśmiech losu. Zresztą subiektywne oceny szans
mogą być różne w zależności od potencjalnego pracodawcy, ponieważ
decydent może kierować się uprzedzeniem albo dysponować dodatkową
wiedzą, modyfikującą ocenę szans. Co więcej, subiektywnemu szacowaniu
podlegają nie tylko szanse podwyżki, lecz także jej indywidualna
użyteczność. Ktoś może ignorować w podejmowaniu decyzji wielkość
spodziewanej podwyżki, jeśli bierze pod uwagę inne okoliczności, np.
pewność zatrudnienia lub dodatkowe bonusy. Ktoś inny może być
zorientowany wyłącznie na to, ile zarobi. Do podanych wcześniej równań
należy zatem wprowadzić współczynniki modyfikujące szansę każdej
z opcji oraz jej wartość dla decydenta.

Przyjmijmy, że dla konkretnego kandydata do pracy subiektywne


prawdopodobieństwo otrzymania podwyżki wynosi zaledwie 0,05,
a subiektywna jej użyteczność jest równa 10. Przez te współczynniki
należy pomnożyć „obiektywne” wartości prawdopodobieństwa i podwyżki.
Osoba, która uważa, że ma pecha, ale dla której zarobki są ważną
motywacją starania się o pracę, może dojść do następujących wyliczeń:

A = sp × (su × 0,50) = ( 0,05 ) × ( 10 × 0,50) = 0,25


B = sp × (su × 0,90) = ( 0,05 ) × ( 10 × 0,90) = 0,45,

gdzie sp oznacza subiektywne prawdopodobieństwo, a su – subiektywną


użyteczność. Widzimy, że po uwzględnieniu subiektywnego
prawdopodobieństwa (5% szans na podwyżkę) oraz współczynnika
subiektywnej wartości podwyżki (10) ogólny wynik porównania nakazuje
zdecydowanie wybrać firmę B, mimo że poprzednio minimalnie lepsza
okazała się firma A. Decydent może jednak różnie oceniać szansę
otrzymania podwyżki od każdego z pracodawców. Jeśli uzna, że
u pracodawcy A „pech” będzie trzykrotnie mniej prawdopodobny,
subiektywne prawdopodobieństwo podwyżki wzrośnie do 0,15, a decydent
dojdzie do następujących wyników:
A = sp × (su × 0,50) = ( 0,15 ) × (10 × 0,50) = 2,25 = 0,75
B = sp × (su × 0,90) = ( 0,05 ) × (10 × 0,90) = 4,05 = 0,45,

co powinno skłonić go do przyjęcia oferty firmy A.

Podany przykład, mimo uwzględnienia czynnika subiektywności ocen, jest


wciąż mało realistyczny, ponieważ nie uwzględnia negatywnych skutków
wyboru poszczególnych opcji. Nasze decyzje bardzo często wymagają
zgody na ponoszenie kosztów lub tolerowanie negatywnych następstw, jeśli
zyski lub następstwa pozytywne są szacowane jako wyższe. Przypuśćmy,
że chcemy wynająć mieszkanie. Mamy do wyboru dwie propozycje, co
jest, oczywiście, daleko idącym uproszczeniem, a bierzemy pod uwagę
cztery kryteria: cenę, hałaśliwość, odległość od uczelni oraz ogólną
czystość. Oba mieszkania oceniamy pod względem wszystkich kryteriów,
przypisując im wartości na skali od – 3 do +3 w zależności od
szacowanych zalet lub wad. Na przykład, jeśli mieszkanie jest w spokojnej
okolicy, otrzymuje ocenę +3 za hałaśliwość, a jeśli jest daleko od uczelni,
otrzymuje ocenę – 3 za odległość. Załóżmy, że mieszkanie A otrzymuje
oceny: +1 za cenę, – 2 za hałaśliwość, +3 za odległość (jest blisko!), +2 za
czystość. Mieszkanie B otrzymuje oceny: +2 za cenę, +3 za hałaśliwość, –
1 za odległość, +2 za czystość. Sumujemy teraz wszystkie oceny
i otrzymujemy ogólną ocenę mieszkania A na poziomie +4, a mieszkania B
na poziomie +6. Z tych obliczeń wynika, że powinniśmy wybrać
mieszkanie B jako lepsze.

Przykład ten opisuje pewną odmianę KTD, zwaną modelem


kompensacyjnym. Zgodnie z nim dostępne nam opcje oceniamy według
szeregu kryteriów, a następnie wybieramy to, co uzyskuje wyższą globalną
sumę ocen. Zakładamy przy tym, że przyjęte kryteria równoważą się, czyli
możliwa jest kompensacja braków w jednej dziedzinie zaletami w innych.
Mieszkanie B wygrało, mimo że jest dość odległe od uczelni, ponieważ
inne jego zalety zrównoważyły tę wadę. Gdyby jednak ocena za odległość
była niższa (np. – 3 zamiast – 1), oba mieszkania uzyskałyby identyczną
ocenę łączną +4. Decydent nadal by nie wiedział, co wybrać, bo wady
i zalety obu mieszkań wzajemnie by się kompensowały. Model
kompensacyjny może też opisywać przypadki znacznie bardziej
skomplikowane, gdzie poszczególnym opcjom towarzyszą szacowane
prawdopodobieństwa. Na przykład lekarz może rozważać zastosowanie
jednej z dwóch możliwych terapii, z których każda – oprócz zalet – ma
negatywne skutki uboczne, a ponadto każda cechuje się określonym
prawdopodobieństwem wyzdrowienia pacjenta. Prawdopodobieństwo to
może być ocenione obiektywnie, np. na podstawie ogólnej wiedzy
medycznej i raportów z poprzednich przypadków stosowania danej terapii,
lub subiektywnie, na podstawie intuicji lekarza i jego osobistego
doświadczenia klinicznego.

Mimo że koncepcja oczekiwanej subiektywnej użyteczności oraz model


kompensacyjny wprowadzają istotne modyfikacje do klasycznej teorii
decyzji, są to w dalszym ciągu mało trafne przybliżenia w stosunku do
tego, jak ludzie naprawdę podejmują decyzje. Koncepcje te przyjmują kilka
istotnych założeń, przede wszystkim to, że decydent dysponuje pełną
wiedzą o wszystkich dostępnych opcjach. Wiemy, że nasze decyzje
zapadają w warunkach niepewności co do tego, jakie opcje wchodzą w grę,
a zwłaszcza jakie będą konsekwencje wybrania każdej z nich. Dotyczy to
w szczególności decyzji bardzo ważnych, takich jak wybór partnera
życiowego, wybór zawodu lub typu kariery, wybór sposobu leczenia
groźnego schorzenia itd. Niepewność jest charakterystyczną cechą ludzkich
procesów decyzyjnych, zatem żaden wiarygodny model teoretyczny nie
może tego ignorować. Omawiane modele zakładają ponadto, że decydent
dokładnie rozważa wszelkie dostępne mu opcje, porównując ich
przydatność pod każdym możliwym względem. Tak nie jest choćby
dlatego, że decydent może nie dysponować potrzebnymi zasobami, takimi
jak czas i możliwości obliczeniowe. Wiele ważnych decyzji musimy
podejmować natychmiast lub bez zbędnej zwłoki, w przeciwnym wypadku
decyzja – choćby optymalna – będzie bezużyteczna. Dotyczy to
w szczególności tych decyzji, przy podejmowaniu których mamy do
czynienia z aktywnie działającym przeciwnikiem (np. dowódcą na froncie)
lub z niezależnym od nas procesem (np. leczeniem groźnej choroby,
działaniem w warunkach klęski żywiołowej). Oprócz czasu może nam też
zabraknąć możliwości poznawczego przetworzenia wszystkich opcji wraz
z wszelkimi konsekwencjami ich przyjęcia. Tak jest np. wtedy, gdy musimy
w rozsądnym czasie zdecydować o wyborze kierunku studiów lub funduszu
emerytalnego. Założenie o dysponowaniu zasobami poznawczymi,
niezbędnymi do sprawdzenia każdej opcji, może być spełnione jedynie
w przypadku dużych, wyspecjalizowanych zespołów, np. ekonomicznych.

Bardzo wątpliwe jest też założenie, że decydenci starannie szacują


prawdopodobieństwo zdarzeń, nawet jeśli przyjąć, że są to szacunki
subiektywne. Ludzie oczywiście oceniają prawdopodobieństwo szans
i zagrożeń, ale w poznaniu potocznym nie posługują się rachunkiem
prawdopodobieństwa, lecz intuicją i osobistym doświadczeniem życiowym.
Takich szacunków nie można podstawiać do wzorów jako realne wartości
obliczeniowe. Omawiane modele przyjmują też założenie, że decydent
zachowa się racjonalnie, to znaczy zawsze wybierze najlepszą opcję, nawet
gdyby jej przewaga nad innymi była minimalna. Racjonalność rozumie się
tu jako maksymalne przybliżenie do idealnego wzorca, przepisanego przez
KTD, choć możliwe są inne sposoby jej pojmowania (Lewicka, 1993).
W każdym razie przyjęcie założenia o racjonalności oznacza zignorowanie
faktów świadczących o intuicyjnej czy nawet irracjonalnej naturze ludzkich
procesów decyzyjnych. Nie znaczy to, że wszystkie nasze decyzje są
irracjonalne, ale częstość występowania takich właśnie decyzji nakazuje
dokładne zrewidowanie założeń, na których opierają się KTD, koncepcja
SEU oraz model kompensacyjny.

W modelu kompensacyjnym przyjmuje się jeszcze jedno, bardzo wątpliwe


założenie, zgodnie z którym poszczególne kryteria oceny opcji wzajemnie
się równoważą. Tymczasem wiemy, że niektóre kryteria mogą być
ważniejsze od innych, np. odległość od uczelni może przeważać nad
pozostałymi kryteriami wyboru mieszkania. Wybierzemy wówczas
mieszkanie położone blisko, mimo że jest ono hałaśliwe i nieco droższe.
Ponadto niektóre kryteria mogą działać interakcyjnie, przez co nie można
ich rozpatrywać w izolacji. Na przykład spokojna okolica może nam się
wydawać ważną przesłanką wyboru mieszkania, co wstępnie
dyskwalifikuje mieszkanie zbyt hałaśliwe. Ale jeśli takie mieszkanie jest
położone blisko uczelni, możemy się na nie zdecydować i próbować uczyć
się w spokojnej czytelni, a nie w domu. Decydenci biorą zazwyczaj pod
uwagę całość sytuacji, a nie mechaniczną sumę punktów uzyskanych przez
poszczególne opcje. Nie trzeba dodawać, że owe punkty nie są wynikiem
żadnego rzetelnego pomiaru, a więc ich dodawanie jest zabiegiem
metodologicznie bardzo wątpliwym. To podobne zastrzeżenie, które
sformułowano w odniesieniu do szacowanego prawdopodobieństwa.
Dopóki wartości metryczne nie są czymś więcej niż „intuicją
przekształconą w liczby”, nie można ich wykorzystywać do operacji
arytmetycznych.

12.2.2. Strategie w podejmowaniu decyzji


Zastrzeżenia wobec KTD i jej odmian skłoniły psychologów do badania
rzeczywistych sposobów podejmowania decyzji przez ludzi. Celem tych
poszukiwań było zastąpienie przepisów na racjonalną decyzję –
empiryczną wiedzą na temat prawdziwych wyborów i ich uwarunkowań.
Podejście to zaowocowało wykryciem szeregu prostych heurystyk,
zwanych też strategiami, wspomagających nas w podejmowaniu decyzji
(Gigerenzer, Todd, 1999).

Autorem jednej z pierwszych prac na ten temat jest Herbert Simon8 (1947).
Opisał w niej tzw. strategię zadowolenia (satisficing strategy), polegającą
na przeglądaniu dostępnych opcji w przypadkowym porządku i wyborze
pierwszej, która nas wystarczająco satysfakcjonuje. Zdaniem Simona
ludzie nie porównują wszystkich dostępnych opcji pod każdym możliwym
względem w celu wybrania najlepszej, bo najczęściej jest to niewykonalne
z powodu braku czasu, wiedzy lub wolnych zasobów poznawczych. Autor
odwołuje się tu do swojej koncepcji ograniczonej racjonalności umysłu
ludzkiego (bounded rationality; Simon, 1956, 1982). Wyobraźmy sobie
wybór partnera życiowego (męża, żony) według zasad KTD lub modelu
kompensacyjnego. Porównanie wszystkich potencjalnych kandydatów
byłoby tak czasochłonne, że właściwie niewykonalne. Poza tym
porównanie wszystkich kandydatów i wybór najlepszego musiałyby się
odbyć w jednej chwili, ponieważ inne osoby dokonujące podobnego
wyboru mogą nas ubiec, a skutki ich decyzji zasadniczo zmieniają warunki
naszego wyboru. Dlatego racjonalne postępowanie wymaga w tej sytuacji
tylko ustanowienia pewnych kryteriów wyboru, niekiedy bardzo
skromnych (np. „nie pije i nie bije”), i zdecydowania się na pierwszego
kandydata, który je spełnia. Na tym polega strategia zadowolenia. Jest mało
prawdopodobne, aby tak dokonany wybór przyniósł nam kandydata
idealnego, ale z pewnością przyniesie takiego, który nas zadowoli (zob.
Gigerenzer, Todd, 1999; Todd, Miller, 1999).

Innym przykładem może być opisana przez Amosa Tversky’ego (1972)


strategia eliminacji według aspektów. Wynajmując mieszkanie, możemy
ustalić szereg kryteriów (cena, odległość od uczelni, hałaśliwość, czystość),
a następnie przeglądać dostępne oferty tylko w tym celu, aby
wyeliminować mieszkania niespełniające jednego z nich. Jeśli zaczniemy
od ceny, wstępnie odrzucimy wszystkie oferty, niespełniające naszego
kryterium (np. najwyżej 500 zł na miesiąc). Pozostałe oferty przeglądamy
w celu wyeliminowania tych, które nie spełniają drugiego kryterium (np.
czas dojazdu na uczelnię nie dłuższy niż 20 minut). Postępując w ten
sposób, ograniczymy w bardzo znaczący sposób liczbę ofert. Te, które
wygrają eliminacje, możemy następnie rozważyć według bardziej
wyrafinowanej metody, np. stosując model kompensacyjny lub kierując się
zasadą subiektywnej oczekiwanej użyteczności. Metoda eliminacji według
aspektów może być zatem użyta jako przygotowanie do bardziej
dogłębnych procesów decyzyjnych. Opisane tu strategie zawierają proste
przepisy na dokonanie wyboru w sytuacji, gdy liczba opcji i kryteriów
znacznie przekracza nasze możliwości dokładnego przeanalizowania
wszystkich informacji. Co więcej, strategie te zawierają przepis na
przerwanie poszukiwania, co trzeba uznać za ważną przesłankę ich
skuteczności. Heurystyki podejmowania decyzji mają bowiem nie tylko
kierować naszymi poszukiwaniami, lecz także umożliwić nam ukończenie
poszukiwań w momencie, gdy ich kontynuowanie nie ma sensu.
W przypadku strategii zadowolenia kończymy poszukiwanie wtedy, gdy
znajdziemy coś, co może nie jest najlepsze, ale spełnia nasze oczekiwania.
W przypadku eliminacji według aspektów raz odrzucona opcja nie jest
brana pod uwagę w dalszych rozważaniach, nawet gdyby niektóre jej
aspekty były bardzo atrakcyjne.

Zdaniem Gigerenzera i współpracowników (Gigerenzer, Todd, ABC


Research Group, 1999; Gigerenzer, Hertwig, Pachur, 2011) heurystyki
podejmowania decyzji powinny być szybkie i oszczędne (fast and frugal).
Pierwsze kryterium odnosi się do czasu, drugie – do złożoności i poziomu
trudności operacji poznawczych niezbędnych do podjęcia decyzji.
Przykładem prostej i oszczędnej heurystyki jest reguła „kieruj się tym, co
najważniejsze” (take the best). Według autorów ludzie, podejmując
decyzje, kierują się pewnymi wskazówkami (kryteriami), przy czym nie
wszystkie wskazówki są jednakowo ważne. Na przykład, wybierając
mieszkanie, możemy kierować się ceną, czystością lub innymi
przesłankami, ale dla kogoś o ograniczonych zasobach finansowych cena
może być kryterium znacznie ważniejszym niż cała reszta. Opisywana
strategia polega na tym, aby najpierw wybrać najważniejszą wskazówkę,
a następnie porównywać opcje parami, odrzucając za każdym razem tę,
której wartość ze względu na wybraną wskazówkę jest niższa lub nieznana
(Gigerenzer, Goldstein, 1999). Jeśli nie potrafimy w ten sposób wybrać
najlepszej opcji, bierzemy pod uwagę kolejną wskazówkę, która na liście
rankingowej zajmuje drugie miejsce od góry pod względem ważności, i od
nowa porównujemy opcje parami aż do skutku. W przypadku gdy żadna
wskazówka nie doprowadzi do skutku, decydent wybiera opcję po prostu
na chybił trafił. Inna heurystyka nosi nazwę „kieruj się tym, co się ostatnio
sprawdziło” (take the last). Nie mając wiedzy, która wskazówka jest
najważniejsza, albo nie mogąc się zdecydować, bierzemy pod uwagę
kryterium sprawdzone w ostatniej próbie tego samego rodzaju (tamże). Na
przykład przyjmując nowe osoby do pracy, możemy faworyzować
kandydatów, którzy cechują się otwartością i łatwością nawiązywania
kontaktu z ludźmi, ponieważ ostatnio przyjęty kandydat miał takie właśnie
cechy i sprawdził się w nowej firmie. Nie chodzi przy tym o to, że
określone cechy są niezbędne na danym stanowisku (np. sprzedawcy), lecz
o to, że okazały się one skuteczną przesłanką dla podjęcia ostatniej decyzji
tego samego rodzaju.

Gigerenzer i współpracownicy porównują umysł ludzki do przydatnej


skrzynki narzędziowej (adaptive toolbox), czyli zestawu modułów
służących rozwiązywaniu konkretnych problemów (Gigerenzer, Todd,
1999). W tym wypadku chodzi o moduły rozwiązywania problemów
decyzyjnych, a „szybkie i oszczędne” heurystyki to swoiste narzędzia,
dzięki którym umysł przystosowuje się do stawianych mu wymagań.
Zgodnie z kanonami psychologii ewolucyjnej zakłada się, że
przystosowawcze są nie tylko struktury anatomiczne i procesy
fizjologiczne w ciele człowieka, lecz także procesy poznawcze człowieka
lub zwierzęcia. Stojąc wobec konieczności szybkiego podjęcia decyzji,
a nie dysponując nieograniczonymi zasobami poznawczymi, człowiek musi
uruchomić wyspecjalizowane narzędzia zmagania się z problemami
decyzyjnymi. Dlatego stosuje reguły heurystyczne zamiast długich
i skomplikowanych obliczeń. Autorzy argumentują, że mimo swej prostoty
heurystyki podejmowania decyzji nie są bardziej zawodne niż
skomplikowane reguły wzorowane na klasycznej teorii decyzji. W jednym
z badań (Czerlinski, Gigerenzer, Goldstein, 1999) porównano dwie proste
heurystyki z dwoma bardziej „racjonalnymi”, ale i bardziej
skomplikowanymi systemami podejmowania decyzji. Okazało się, że te
pierwsze są znacznie szybsze, ale nie odstają od tych drugich ani pod
względem poprawności, ani pod względem uniwersalności, czyli
możliwości wykorzystania w różnych sytuacjach decyzyjnych. Do wyniku
tego trzeba jednak podchodzić ostrożnie ze względu na metodologiczne
ograniczenia eksperymentalnych badań nad podejmowaniem decyzji
(paradygmat 12.2).

Paradygmat 12.2

MOUSELAB: metoda laboratoryjnego badania procesów decyzyjnych

Badanie strategii podejmowania decyzji jest zadaniem trudnym, ponieważ


wymaga zastosowania zadań o dość dużym poziomie realizmu. Zadania
takie wymagają jednak specjalistycznej wiedzy, co zawęża krąg
potencjalnych osób badanych do grona ekspertów. Ponadto na podstawie
badań chcielibyśmy poznać nie tyle deklaracje (czyli co badany sądzi, że
zrobi), ile rzeczywiście dokonywane wybory. Nie zawsze jest to możliwe
w badaniach „polowych”, czyli prowadzonych w naturalnych warunkach
z udziałem ekspertów. Z kolei badania laboratoryjne pozwalają uzyskać
pełniejszy wgląd w proces podejmowania decyzji, ale często brakuje im
trafności ekologicznej.

Uznaną techniką badania procesów decyzyjnych w laboratorium jest tzw.


MOUSELAB – procedura wymyślona przez Johna Payne’a, Jamesa
Bettmana i Erica Johnsona (1988; zob. też Rieskamp, Hoffrage, 1999;
Wichary, Mata, Rieskamp, 2016). Osoba badana widzi na ekranie monitora
tabelę, przedstawiającą cztery opcje i kilka kryteriów ich oceny (ryc. 12.2).
Mogą to być np. cztery firmy, z których każda cechuje się określonym
poziomem takich wskaźników, jak: (1) wielkość zatrudnienia; (2) poziom
inwestycji; (3) wielkość kapitału akcyjnego; (4) cena akcji; (5) znajomość
i reputacja w branży; (6) wysokość wypłaconej w zeszłym roku dywidendy.
Im wyższa pozycja danej firmy w odniesieniu do danego kryterium, tym
wyższą przypisuje się jej ocenę. Co więcej, każde z kryteriów ma określoną
wagę, czyli doniosłość z punktu widzenia określonych potrzeb
decyzyjnych. Na przykład, jeśli zadanie badanego polega na wybraniu
firmy, która powinna w bieżącym roku uzyskać najlepszy wynik finansowy,
stosunkowo ważne mogą być kryteria szóste (wysokość dywidendy)
i pierwsze (wielkość zatrudnienia), a mniej ważne – kryterium piąte
(reputacja). Jeśli natomiast zadanie miałoby polegać na wybraniu firmy,
która gwarantuje najlepszy zysk dla akcjonariuszy w długim okresie,
bardzo ważne staje się kryterium drugie (poziom inwestycji). Wagi są
przypisywane poszczególnym kryteriom (wskazówkom) przez
eksperymentatora, który jednak nie czyni tego w sposób zupełnie
arbitralny, lecz kieruje się ogólną znajomością problemu lub wynikami
badań wstępnych.

RYCINA 12.2. Przykładowy ekran w procedurze MOUSELAB


Źródło: opracowanie własne na podstawie Wichary, 2003, s. 22.
Osoba badana zna wagi poszczególnych wskazówek (kryteriów). Na
przykład waga pierwszej wskazówki wynosi 0,36, co należy czytać jako
warunkowe prawdopodobieństwo sukcesu w przewidywaniu wyniku
końcowego na podstawie tej wskazówki. Największą wagę (0,82)
przyznano wskazówce piątej (cena akcji), co oznacza, że kierując się nią,
otrzymujemy dość dużą szansę wytypowania najlepszej firmy. Badany nie
zna natomiast wartości firm ze względu na poszczególne wskazówki
(kryteria). Może jednak łatwo uzyskać taką informację, klikając myszką
w odpowiednim polu tabeli. W podanym przykładzie osoba badana
dowiedziała się w ten sposób, że pierwsza firma otrzymała ocenę 4 (na
skali 1–5), jeśli chodzi o poziom inwestycji (waga 0,68). Odpowiednie pole
jest odkryte dopóty, dopóki badany nie zechce pobrać innej informacji
(albo dopóki nie wyczerpie się limit czasu). Może np. sprawdzić, jakie
oceny uzyskały pozostałe firmy ze względu na to samo kryterium.
Dokonuje wówczas przeszukiwania według wskazówek. Może też
sprawdzić, jak wypadła firma numer jeden ze względu na inne kryteria, co
oznacza, że przeszukuje według opcji. W wybranym przez siebie
momencie osoba badana dokonuje wyboru, wskazując w dolnym rzędzie tę
firmę, która jej zdaniem przyniesie największy zysk (lub spełni inne
oczekiwania).

Procedura MOUSELAB pozwala śledzić proces podejmowania decyzji.


Badacz bierze pod uwagę m.in. następujące wskaźniki wykonania:
liczbę odkrytych pól;
liczbę pól odkrytych dwukrotnie lub częściej;

liczbę pól pominiętych;


czas poświęcony na sprawdzenie każdego odkrytego pola;
czas poświęcony na korzystanie z każdej wskazówki;
czas poświęcony na badanie każdej opcji;

średni czas poświęcony badaniu jednego pola;


kolejność odkrywania poszczególnych pól (Rieskamp, Hoffrage, 1999).

Biorąc pod uwagę wymienione wskaźniki, próbuje się badać


charakterystyczne wzorce korzystania ze wskazówek, świadczące
o wykorzystaniu określonych strategii decyzyjnych. Strategie te można
podzielić na kompensacyjne i niekompensacyjne (Wichary, 2003).
W pierwszym przypadku decydent kieruje się łączną i w miarę pełną oceną
wszystkich opcji, rozpatrując wszystkie wskazówki i ich ważność. Na
przykład firma A może przegrywać z firmą B ze względu na kryterium
nisko ważone, a wygrywać ze względu na inne kryterium, ważone znacznie
wyżej. W takim wypadku firma A wygra z firmą B, ponieważ jej
niedostatki w jednej dziedzinie są z nawiązką kompensowane w drugiej
dziedzinie. W przypadku strategii niekompensacyjnych decydent kieruje
się jedną wskazówką, zupełnie ignorując pozostałe, albo nie bierze pod
uwagę faktu, że wskazówki różnią się ze względu na przypisywane im
wagi. W procedurze MOUSELAB o tym, czy decydent użył raczej strategii
kompensacyjnej, świadczą m.in. takie wskaźniki, jak większa liczba
odkrytych pól i brak korelacji między czasem poświęconym danej
wskazówce a jej ważnością. Taki wzorzec przeszukiwania oznacza, że
badany postępował systematycznie i nie uprzywilejowywał żadnej
wskazówki. W ten sposób zapewnił sobie możliwość wykorzystania zasady
kompensacji, czego nie mógłby uczynić, gdyby z jakichś powodów
zlekceważył niektóre wskazówki. Natomiast o użyciu strategii
niekompensacyjnej może świadczyć niewielka liczba odkrytych pól
i wyraźna korelacja między czasem poświęconym danej wskazówce a jej
ważnością. Takie zachowanie oznacza, że badany wyraźnie preferował
niektóre wskazówki, te mianowicie, które uznał za bardziej diagnostyczne
od innych. Rozróżnienie strategii kompensacyjnych i niekompensacyjnych,
choć interesujące i teoretycznie nośne, jest jednak mało dokładne przy
użyciu opisanej metody. W każdej z tych kategorii można wyróżnić
szczegółowe strategie, które nie zawsze są możliwe do wykrycia za
pomocą paradygmatu MOUSELAB. Dlatego ważniejsze od
mechanicznego wykorzystania wskaźników wydają się próby analizy
strategii decyzyjnych na podstawie wyniku procesu decyzyjnego, czyli
wyboru dokonanego przez decydenta. Jest to możliwe, ponieważ strategie
decyzyjne można zaimplementować w postaci programów komputerowych
zdolnych wygenerować wybory, jakich dokonałby decydent, używając
danej strategii. Następnie można obliczyć, ile wyborów dokonanych przez
osobę badaną jest zgodnych z daną strategią.

Metoda MOUSELAB, jako jedna z metod śledzenia procesów decyzyjnych


(process tracing techniques), jest wykorzystywana w wielu badaniach nad
użyciem strategii decyzyjnych. W większości koncentrują się one na
wpływie czynników sytuacyjnych na przebieg procesów decyzyjnych
i wybór strategii. Badania te wykazują, że takie czynniki jak nadmierna
złożoność zadania (Onken, Hastie, Revelle, 1985), hałas (Wright, 1974),
presja czasu (Rieskamp, Hoffrage, 1999) czy pobudzenie emocjonalne
(Wichary i in., 2016) skłaniają decydentów do stosowania prostych
heurystyk decyzyjnych zamiast złożonych strategii normatywnych
opisywanych w ramach klasycznej teorii decyzji.

Kwestią otwartą pozostaje wyjaśnienie mechanizmów, które leżą u podstaw


tych efektów. Badania nad wykorzystaniem strategii z użyciem technik
neuroobrazowania dają pewne wskazówki co do struktur i procesów
mózgowych zaangażowanych w przetwarzanie informacji przed podjęciem
decyzji i wybór strategii decyzyjnych. Vinod Venkatraman
i współpracownicy (Venkatraman, Huettel, 2012; Venkatraman, Payne,
Bettman, Luce, Huettel, 2009) wykazali istotne zaangażowanie grzbietowo-
przyśrodkowej kory przedczołowej w wybór strategii. Przypomnijmy, że
aktywność tego obszaru została wykazana w wielu badaniach nad kontrolą
poznawczą – Venkatraman i współpracownicy pokazali dokładną
topografię tego obszaru i ustalili, że procesy kontroli strategii są
zlokalizowane w przedniej jego części, natomiast procesy kontroli reakcji,
badane w eksperymentach nad kontrolą poznawczą, zachodzą w jego tylnej
części. Oprócz zaangażowania struktur korowych w kształtowanie strategii
decyzyjnych badacze ci wykazali również związek tendencji do stosowania
prostych heurystyk z aktywnością brzusznego prążkowia, struktury
podkorowej będącej częścią dopaminergicznego układu nagrody, co
wyraźnie sugeruje udział procesów motywacyjnych oraz procesów
związanych z regulacją pobudzenia w kształtowaniu strategii używanej do
podjęcia decyzji.

Oprócz lokalizacji procesów kontroli strategii decyzyjnych badania


neurofizjologiczne pozwalają na określenie przebiegu procesów
przetwarzania informacji przed podjęciem decyzji. Szymon Wichary
i współpracownicy (Wichary, Magnuski, Oleksy, Brzezicka, 2017),
używając zmodyfikowanej wersji metody MOUSELAB, wykazali, że
tendencja do stosowania prostej heurystyki „kieruj się tym, co najlepsze”
jest związana z amplitudą komponentu P3 potencjału związanego ze
zdarzeniem, w odpowiedzi na prezentowane wskazówki decyzyjne.
Oznacza to, że stosowanie prostych lub złożonych strategii decyzyjnych
łączy się z dynamiką procesów uwagi.
Zjawiska leżące u podstaw stosowania strategii decyzyjnych próbują
również wyjaśnić teoretyczne modele wyboru strategii. Pierwsze modele
tego procesu proponowały podejście odgórne (top-down; Christensen-
Szalanski, 1978; Payne i in.,1988). Wspólnym ich założeniem było to, że
decydent dysponuje zestawem strategii oraz wiedzą na temat ich
skuteczności i złożoności i na tej podstawie wybiera strategię nadającą się
do rozwiązania danego problemu decyzyjnego. Modele te zakładały więc
istnienie metastrategii, dzięki której decydent integruje informacje
o złożoności (trudności) strategii i możliwym zysku z jej zastosowania.
Inne modele zakładają podejście oddolne (bottom-up; Bergert, Nosofsky,
2007; Lee, Cummins, 2004; Wichary, Smoleń, 2016). Głównym
założeniem tych modeli jest to, że istnieje jedna, zunifikowana strategia lub
proces, którego szczególnymi przypadkami są normatywne strategie bądź
proste heurystyki decyzyjne. Modele te próbują wyjaśnić mechanizm
kontroli tej podstawowej strategii, który prowadzi do uproszczonych lub
złożonych procesów przetwarzania informacji przed podjęciem decyzji. Na
przykład w modelu Szymona Wicharego i Tomasza Smolenia (2016)
podstawą takiego mechanizmu są interakcje struktur kory mózgowej (w
tym brzuszno-przyśrodkowej kory przedczołowej) oraz struktur
podkorowych regulujących pobudzenie kory mózgowej i procesy uwagi.

12.2.3. Teoria perspektywy


Obecnie jedną z najbardziej popularnych koncepcji opisujących proces
podejmowania decyzji jest tzw. teoria perspektywy (prospect theory;
Kahneman, Tversky, 1979), za którą jej współautor, Daniel Kahneman,
otrzymał w 2002 r. Nagrodę Nobla w dziedzinie ekonomii9. Wiąże się ona
ściśle z odkryciem przez Kahnemana i Tversky’ego (1984) tzw. efektu
obramowania (framing effect), czyli wpływu mentalnej reprezentacji
problemu decyzyjnego na treść podejmowanych decyzji. Poznawcza
reprezentacja problemu może ulec całkowitej lub gruntownej przemianie
pod wpływem rodzaju słów użytych do jego opisu albo w wyniku
uwzględnienia szerszego kontekstu, w jakim przychodzi nam podjąć
decyzję. Decydent nakłada na sytuację problemową coś w rodzaju ramy
(Minsky, 1975), przez co specyficznie ją sobie przedstawia, a tym samym
skłania się do swoistych wyborów.

Kahneman i Tversky ilustrują efekt obramowania na przykładzie wyboru


właściwej terapii. Wyobraźmy sobie, że kraj przygotowuje się do
zwalczenia groźnej azjatyckiej epidemii, która może pozbawić życia 600
osób. Dostępne są dwa programy postępowania. Z wiedzy na temat tej
choroby wiemy, że jeśli wprowadzimy w życie program A, ocaleje 200
ludzi. Jeśli natomiast przyjmiemy program B, możemy przewidzieć
z prawdopodobieństwem 1/3, że wszystkie z 600 potencjalnych ofiar
ocaleją, ale jest też prawdopodobieństwo równe 2/3, że nikt z tej grupy nie
przeżyje. Po zapoznaniu się z tym problemem 72% spośród próbki badanej
złożonej ze 152 studentów wybrało program A (pewne ocalenie 200 osób
z 600 zagrożonych), a tylko 28% – program B (mało prawdopodobne
ocalenie wszystkich 600 zagrożonych, przy dość wysokim
prawdopodobieństwie, że nikogo nie uda się uratować). Można więc
powiedzieć, że większość badanych opowiedziała się za rozwiązaniem
ostrożnym, unikając ryzyka, niezbędnego do uratowania wszystkich
zagrożonych. Innym studentom dano do rozwiązania ten sam problem, ale
wyrażony inaczej. Powiedziano im mianowicie, że jeśli zostanie wdrożony
program C, 400 osób umrze, a jeśli zwycięży program D, istnieje
prawdopodobieństwo równe 1/3, że nikt nie umrze, ale trzeba się liczyć
z prawdopodobieństwem równym 2/3, że umrze cała 600-osobowa grupa.
W tym przypadku tylko 22% badanych zdecydowało się na wybór C,
a 78% wybrało D. Zachowanie większości studentów można więc opisać
jako ryzykowne, ponieważ uznali oni, że warto zaryzykować życie 600
osób, aby mieć 1/3 szansy na uratowanie wszystkich.

Zwróćmy uwagę, że zwalczanie epidemii według programu A niesie


identyczne skutki, jak przyjęcie programu C, a program B jest w swoich
konsekwencjach ekwiwalentny programowi D. Inaczej mówiąc, obie grupy
osób badanych miały do czynienia z tym samym problemem decyzyjnym.
Różnice dotyczyły powierzchownej struktury zadania, mianowicie użytych
słów: zamiast o tym, ile osób uda się ocalić lub uratować, mówiono o tym,
ile osób umrze. Jednakże na głębszym, strukturalnym poziomie obie
sytuacje decyzyjne były całkowicie izomorficzne. Mimo to, gdy mowa
o pewności ocalenia 1/3 zagrożonych osób, badani zadowalają się tą
gwarancją, chociaż w konsekwencji skazują na śmierć pozostałe 2/3.
Natomiast gdy mowa o szansie uratowania wszystkich, badani podejmują
ryzyko, choć wiedzą, że w konsekwencji, być może, nikogo nie uda się
uratować, co jest prawdopodobne na poziomie aż 2/3. Najwyraźniej
nałożona na problem „rama” napawa decydentów awersją wobec ryzyka
lub przeciwnie – czyni ich podatnymi na jego podjęcie. Dotyczy to nie
tylko laików. Jak wykazali Barbara McNeil i współpracownicy (McNeil,
Pauker, Sox, Tversky, 1982), również lekarze, wybierając sposób terapii,
kierują się tym, czy w opisie przypadku mowa jest o szansach przeżycia,
czy o ryzyku zgonu pacjenta.

Efekt obramowania był wielokrotnie replikowany, zarówno w badaniach


psychologicznych, jak i w pracach z zakresu ekonomii. Przykładem badań
pierwszego rodzaju może być eksperyment Eldara Shafira (1993),
w którym prosił badanych o podjęcie decyzji w hipotetycznej sprawie
sądowej o przydział opieki nad dzieckiem po rozwodzie rodziców.
Uczestnikom badania przedstawiono syntetyczne opisy osobowości i stylu
życia obojga rodziców. Jedno z nich było bardziej zrównoważone i pod
każdym względem przeciętne, również jeśli chodzi o więź emocjonalną
z dzieckiem. Drugie cechowało się większą uczuciowością i lepszym
kontaktem z dzieckiem, ale też niestabilnością emocjonalną. Interesujące,
że druga osoba była częściej wskazywana jako ta, której należy przyznać
opiekę nad dzieckiem, jak też jako ta, której należy tej opieki odmówić.
Kiedy „obramowano” problem w kategoriach „przyznania opieki”, osoby
badane kierowały się innymi kryteriami niż wtedy, gdy ujęto go
w kategoriach „odmówienia prawa do opieki”. Przykładem badań
ekonomicznych mogą być eksperymenty Lista (2004). W jednym z nich,
już cytowanym, badacz dawał uczestnikom w prezencie atrakcyjny kubek
lub dobrą czekoladę o tej samej wartości (około 6 dolarów). Następnie
skłaniał ich do wymiany kubka na czekoladę lub odwrotnie. Okazało się, że
decydujący wpływ na chęć dokonania wymiany miał fakt wcześniejszego
otrzymania określonego przedmiotu. Badani, którzy otrzymali kubek, nie
byli skłonni wymieniać go na czekoladę, a badani, którym podarowano
czekoladę, nie chcieli jej wymieniać na kubek. Z czysto ekonomicznego
punktu widzenia zachowanie jednych i drugich było irracjonalne.
Natomiast z psychologicznego punktu widzenia poczucie straty po utracie
posiadanego przedmiotu najwyraźniej przewyższało satysfakcję
z otrzymania innego przedmiotu, obiektywnie tak samo wartościowego.

Efekt obramowania jest przykładem szerszego zjawiska zwanego


asymetrią pozytywno-negatywną (Kahneman, Tversky, 1979, 1984).
Okazuje się, że ludzie inaczej wartościują zyski niż straty, nawet jeśli są
one wyrażone w porównywalnych jednostkach, np. pieniężnych. Jeśli
dajemy dziecku 10 zł kieszonkowego, a następnie zwiększymy „pensję” do
20 zł, nie będzie ono dwukrotnie bardziej szczęśliwe ani dwukrotnie
bardziej wdzięczne. Subiektywna wartość zysku jest mniejsza niż jego
wartość obiektywna. Aby zatem uzyskać efekt dwa razy większej
satysfakcji, trzeba by dziecku zwiększyć kieszonkowe z 10 zł do 25 zł,
a może nawet do 30 zł. A teraz wyobraźmy sobie, że dziecko gubi pewną
część kieszonkowego lub traci je, nie zwracając należytej uwagi na odbiór
reszty przy dokonywaniu zakupów. Utrata 2 zł będzie na pewno dotkliwą
karą, ale utrata 4 zł będzie karą więcej niż dwukrotnie bardziej dotkliwą.
Dwukrotny przyrost straty powoduje więcej niż dwukrotnie większą
frustrację, ponieważ subiektywne poczucie straty rośnie znacznie szybciej
niż subiektywne poczucie zysku. Ilustruje to krzywa w kształcie S,
obrazująca zależność między obiektywnym zyskiem lub stratą
a subiektywnym poczuciem zysku lub straty (ryc. 12.3). Po stronie zysków
obserwujemy zjawisko szybkiego spłaszczania się krzywej, podczas gdy po
stronie strat analogiczna zależność jest znacznie bardziej stroma. Oznacza
to, że wraz ze wzrostem zysków coraz trudniej ludzi zadowolić, a wraz ze
wzrostem strat coraz łatwiej ich sfrustrować (Kahneman, Tversky, 1979).

Esowata krzywa z ryciny 12.3 dobrze opisuje zachowanie hazardzistów


i mało doświadczonych inwestorów na rynku finansowym. Nawet
nieznaczny spadek wartości akcji jest bardzo bolesny i skłania wielu graczy
do nerwowej wyprzedaży. Takie działanie jest mało racjonalne z punktu
widzenia reguły, że sprzedawać należy wtedy, gdy akcje są drogie,
a kupować wtedy, gdy potanieją. Zwróćmy jednak uwagę, że frustracja po
stracie jest najsilniejsza na samym początku procesu tracenia akcji na
wartości. Potem, w punkcie zaznaczonym literą B (ryc. 12.3), subiektywny
żal inwestorów jest mniej więcej proporcjonalny do poniesionych strat.
Z kolei wzrost wartości akcji przynosi satysfakcję mniejszą od oczekiwań,
co skłania inwestorów do dokupywania ich w celu dopasowania się do
oczekiwanego poziomu zadowolenia. Powszechny run na akcje powoduje
jednak wzrost ich ceny, co dodatkowo zmniejsza satysfakcję z dokonanych
inwestycji. Może to spowodować całkowite wycofanie się z inwestycji lub
zwiększenie poziomu akceptowalnego ryzyka. To ostatnie może prowadzić
do nabywania akcji obiecujących wydatne zyski za cenę bardzo dużego
ryzyka straty.

RYCINA 12.3. Subiektywna wartość zysku lub straty w zależności od wartości obiektywnej
Źródło: opracowanie własne na podstawie Kahneman, Tversky, 1984.

Badania asymetrii zysków i strat oraz ich psychologicznych i neuronalnych


mechanizmów są obecnie intensywnie rozwijane na gruncie
neuroekonomii, nauki łączącej psychologię, ekonomię i neuronaukę w celu
wyjaśnienia mechanizmów podejmowania decyzji. Badania te koncentrują
się na aktywności dopaminergicznego układu nagrody, który ma początek
w pniu mózgu, skąd poprzez brzuszne prążkowie prowadzą połączenia do
kory mózgowej. Na przykład Sabrina Tom i współpracownicy (Tom, Fox,
Trepel, Poldrack, 2007) wykazali, że przyrost potencjalnych zysków
prowadzi do zwiększania aktywności w wielu strukturach korowych oraz
w układzie nagrody. Zarazem jednak zwiększanie możliwych strat
prowadziło do spadku aktywności zarówno struktur korowych, jak i układu
nagrody. Przy łącznej analizie obu warunków eksperymentalnych (zyski
i straty) okazało się, że jedynymi częściami mózgu konsekwentnie
reagującymi na zmiany możliwych wypłat były brzuszne prążkowie, część
układu nagrody oraz brzuszno-przyśrodkowa kora przedczołowa. Co
więcej, deaktywacja tych struktur była znaczniejsza w przypadku rosnącej
wielkości straty niż ich aktywacja w przypadku rosnących zysków. Wynik
ten pokazuje więc, że asymetria reakcji na zyski i straty, stwierdzana
w wielu badaniach behawioralnych i postulowana przez teorię
perspektywy, ma swoje podłoże mózgowe w aktywności układu nagrody
i brzuszno-przyśrodkowej kory przedczołowej.
12.2.4. Proces podejmowania decyzji
Podejmowanie decyzji jest złożonym procesem psychicznym, w którym
uczestniczą elementy poznawcze, emocjonalne i motywacyjne. Na jego
przebieg wpływają wiedza i doświadczenie decydenta, a także czynniki
kontekstualne. Ponadto przed podjęciem decyzji występują zjawiska
przeddecyzyjne, a po jej podjęciu – mechanizmy postdecyzyjne (Svenson,
1992, 1996).

W fazie przeddecyzyjnej decydent wykonuje dwie czynności: definiuje


problem decyzyjny i zbiera informacje na temat dostępnych opcji
(Falkowski, Tyszka, 2001; Rohrbaugh, Shanteau, 1999; Svenson, 2003).
Definiowanie problemu polega na określeniu rozbieżności między stanem
obecnym a stanem docelowym; pod tym względem problemy decyzyjne
nie różnią się od problemów innego rodzaju, rozwiązywanych przez ludzi
(zob. rozdz. 11). Natomiast zbieranie informacji polega zarówno na
wyszukiwaniu ich w otoczeniu lub w dostępnych źródłach, jak
i przywoływaniu ich z pamięci. Jedno i drugie jest zazwyczaj bardzo
wybiórcze i tendencyjne, ponieważ ograniczone możliwości umysłu
ludzkiego nie zezwalają na systematyczny przegląd wszystkich danych
(Simon, 1956, 1982). Poza tym liczba informacji gromadzonych w fazie
przeddecyzyjnej zależy od złożoności problemu: im większa, tym więcej
zebranych informacji, ale tym niższa proporcja informacji zgromadzonych
w stosunku do całości istotnych danych na temat problemu decyzyjnego
(Payne, 1976). Bardzo złożone problemy przerastają nasze możliwości,
więc mimo że w ich przypadku gromadzimy więcej danych, więcej też
pozostaje poza naszym zasięgiem. Liczba poszukiwanych informacji zależy
też krzywoliniowo od kompetencji decydenta (Falkowski, Tyszka, 2001).
Decydenci niekompetentni zbierają mało informacji, bo nie wiedzą, gdzie
i jak szukać, a ponadto nie umieją wykorzystać zdobytej wiedzy.
Decydenci bardzo kompetentni wiedzą wystarczająco dużo, aby nie musieć
dalej szukać, a jeśli szukają, to bardzo selektywnie, sprawdzając
najważniejsze dane. Natomiast najwięcej danych gromadzą zwykle
decydenci średnio kompetentni (Solomon, 1996).

Kiedy już zdefiniujemy problem i zgromadzimy pewną liczbę danych,


uruchamiamy właściwy proces decyzyjny. Według Oli Svensona (1992,
1996) polega on na stopniowym wyróżnianiu (differentiation) jednej opcji
spośród pozostałych. Decydent wstępnie godzi się na określoną opcję,
niekoniecznie najlepszą, a później krok po kroku wyróżnia ją, czyli
„faworyzuje” w stosunku do opcji konkurencyjnych. Jest to długi,
kumulatywny proces, polegający na stopniowym gromadzeniu wiedzy na
temat wyróżnionej opcji oraz utwierdzaniu siebie samego w przekonaniu,
że jest to najlepsze wyjście. Wyróżnianie ma pewne znamiona procesu
twórczego, ponieważ prowadzi niekiedy do wytworzenia nowych opcji,
wcześniej nieistniejących lub niedostrzeganych. W jego wyniku może dojść
do zmiany poznawczej reprezentacji problemu lub zmiany interpretacji
znanych wcześniej faktów. Decydent nie zawsze wybiera spośród tego, co
mu dostarczono, często sam wytwarza najlepszą opcję, a następnie
wyróżnia ją i uzasadnia, co może prowadzić do zasadniczych zmian
w strukturze jego wiedzy.

Clarence Rohrbaugh i James Shanteau (1999) argumentują, że zasadniczym


elementem procesu decyzyjnego jest ocena ważności zebranych wcześniej
informacji na temat dostępnych możliwości wyboru. Niektóre dane mogą
być uznane za wysoce diagnostyczne, a inne za mniej ważne lub nawet
nieistotne. Na przykład dla niektórych decydentów najbardziej
diagnostyczną cechą kupowanego samochodu jest kolor karoserii, podczas
gdy dla większości klientów jest to niezawodność marki lub cena. Zebranie
potrzebnych informacji i uznanie ich za ważne przesłanki wyboru jest
bezpośrednią przyczyną podjęcia decyzji. Co uznamy za informację ważną
(istotną, diagnostyczną), zależy od trzech grup czynników: procesów
poznawczych, doświadczenia i kontekstu (ryc. 12.4).

Procesy poznawcze to przywołanie wiedzy z pamięci trwałej, a ponadto


operacje myślenia i rozumowania. W ich wyniku dochodzi do
uaktywnienia określonych heurystyk lub strategii decyzyjnych. Na przebieg
tych procesów mają wpływ takie czynniki, jak: (1) poziom ryzyka; (2)
pozytywne lub negatywne emocje; (3) „polityka” (policy) podejmowania
decyzji; (4) korzystanie z informacji zwrotnych; (5) zasobność systemu
poznawczego.

RYCINA 12.4. Czynniki wpływające na wykorzystanie istotnych informacji w procesie


podejmowania decyzji
Źródło: opracowanie własne na podstawie Rohrbaugh, Shanteau, 1999, s. 133.

Wysoki poziom ryzyka oznacza dotkliwe konsekwencje dla decydenta


w wypadku dokonania niewłaściwego wyboru. W takiej sytuacji jesteśmy
skłonni do decyzji bardziej zachowawczych, nawet kosztem możliwych
zysków. Wcześniej jednak musimy trafnie ocenić poziom ryzyka, co nie
zawsze jest możliwe, a jeśli jest – nie zawsze z tej możliwości korzystamy.
Udowodniono np., że ostrzeżenia o szkodliwości działania używek nie
zniechęcają ludzi do ich kupowania. Czynniki afektywne mają wpływ
przede wszystkim na różnorodność poszukiwań i liczbę branych pod uwagę
opcji. Afekt pozytywny sprawia, że szukamy dłużej i rozważamy więcej
możliwości, natomiast emocja negatywna ogranicza różnorodność naszych
poszukiwań (Kahn, Isen, 1993). Ponadto emocje negatywne skłaniają nas
do stosowania prostszych, mniej wymagających strategii decyzyjnych
(Wichary i in., 2016).
Kolejny czynnik dotyczy tego, jaką „politykę” podejmowania decyzji
uznamy za najwłaściwszą. Rohrbaugh i Shanteau (1999) wyróżnili trzy
rodzaje takiej „polityki”, związane z trzema typami zachowań
decyzyjnych; mowa o działaniach automatycznych, intuicyjnych
i deliberatywnych. Decydent może szybko i automatycznie uruchomić
pewien schemat działania, jeśli bieżąca sytuacja decyzyjna jest
szczególnym przypadkiem szerszej klasy problemów, które skutecznie
rozwiązywał już wcześniej. Z kolei „polityka” intuicyjna polega na
uwzględnianiu najbardziej oczywistych przesłanek wyboru, z pominięciem
przesłanek ukrytych, choć może ważniejszych. Działając intuicyjnie,
decydent „wspomaga się” ponadto wyobrażeniem tego, co się stanie, jeśli
przyjmie określoną opcję. Natomiast podejście deliberatywne
charakteryzuje decydenta, który dokładnie rozważa wszelkie opcje
i przesłanki wyboru. Dopiero w tym przypadku możemy mówić
o stosowaniu wyrafinowanych strategii decyzyjnych. Czwarty czynnik
wpływający na przebieg poznawczych procesów decyzyjnych to
informacje zwrotne. Ich odbiór może skłonić nas do koncentracji na
informacjach diagnostycznych, a odrzucenia danych nieistotnych. Jeśli
jednak informacji zwrotnych jest za dużo, przeciążają nasz system
poznawczy ze szkodą dla ogólnego wyniku procesu decyzyjnego.
Zasobność systemu poznawczego, czyli piąty z omawianych czynników,
jest ograniczona możliwościami pamięci roboczej i uwagi. Jeśli człowiek
musi podejmować decyzję, mając zasoby poznawcze zajęte innymi
czynnościami, posłuży się mniej wymagającymi strategiami albo nie
uwzględni wszystkich informacji diagnostycznych.

Z modelu Rohrbaugh i Shanteau wynika, że uwzględnienie informacji


diagnostycznych zależy nie tylko od procesów poznawczych, lecz także od
doświadczenia decydenta i od kontekstu. Szczególną rolę odgrywa tu
ekspertywność. Udowodniono, że eksperci stosują bardziej wydajne
strategie decyzyjne, a także szybciej i trafniej rozpoznają, które informacje
są bardziej diagnostyczne, a które można lub trzeba pominąć. Inne ważne
zmienne indywidualne to temperament i osobowość decydenta (Fasolo,
Misuraca, McClelland, 2003; Wichary, Kossowska, Orzechowski, Ślifierz,
Marković, 2008). Czynniki temperamentalne mogą decydować
o akceptowalnym poziomie ryzyka i o preferencjach w zakresie
stosowanych strategii decyzyjnych. Co do kontekstu, może on dotyczyć
samego problemu decyzyjnego (np. efekt obramowania), globalnych
uwarunkowań procesu decyzyjnego (np. ogólna sytuacja polityczna w kraju
wpływa na podejmowanie decyzji konsumenckich), a oprócz tego
czynników środowiska, takich jak hałas, nadmiar bodźców lub presja
czasu.

Model Rohrbaugh i Shanteau (1999) pokazuje ponadto, z czego wynikają


błędy decyzyjne i jaki mają charakter. Niektóre błędy wynikają
z niewłaściwego przebiegu procesu poznawczego lub działania czynników
go zakłócających. Człowiek może np. uruchomić działanie w trybie
automatycznym lub intuicyjnym, podczas gdy wskazana byłaby raczej
strategia deliberatywna. I odwrotnie – ktoś może się niepotrzebnie
zaangażować w rozważanie wszystkich możliwości, podczas gdy
najrozsądniej byłoby uruchomić automatyczny tryb podejmowania decyzji.
Inne błędy wynikają z działania czynników indywidualnych, np. z braku
doświadczenia albo z jego nadmiaru. Wiadomo, że gdy warunki zadania są
całkiem nowe lub niedawno zmienione, eksperci mogą zawieść, choć
zazwyczaj radzą sobie lepiej od nowicjuszy. Ważną cechą indywidualną
jest niezdecydowanie10 (indecisiveness), czyli nieumiejętność dokonania
ostatecznego wyboru połączona ze skłonnością do powracania do już
powziętych decyzji, a także nadmierne zaufanie do własnych sądów
i możliwości. Druga z tych cech może prowadzić do niedoceniania ryzyka,
związanego z niektórymi opcjami. Ostatnia grupa błędów to pomyłki
wynikające z ignorowania kontekstu lub z nadmiernego przejmowania się
nim. Ktoś, kto nie uwzględnia globalnego kontekstu swoich działań, może
podejmować decyzje krótkowzroczne, jak człowiek, który zainwestował na
giełdzie cały swój majątek w przededniu krachu. Z drugiej strony niektóre
elementy kontekstu rozumianego bardzo wąsko, np. sposób
„obramowania” problemu, również prowadzą do decyzji mało
racjonalnych, a w każdym razie nieoptymalnych. Znajomość rodzaju
błędów, popełnianych przez ludzi w sytuacji wymagającej podjęcia decyzji,
a zwłaszcza znajomość przyczyn tych błędów, jest podstawą praktycznych
oddziaływań w tym zakresie, np. treningów optymalnego podejmowania
decyzji.

W fazie postdecyzyjnej często rodzą się wątpliwości co do słuszności


powziętego wyboru. Broniąc się przed nimi, decydent utwierdza się
w przekonaniu, że dobrze zrobił, co zwykle polega na podwyższaniu
atrakcyjności wybranej opcji i deprecjonowaniu opcji odrzuconych. Są to
zjawiska opisane przez Leona Festingera (1957) jako jeden z trzech
przejawów dysonansu poznawczego. Dwa inne przejawy to wybiórczy
stosunek do informacji napływających z otoczenia (odrzuca się informacje
niezgodne z przekonaniami) oraz poszukiwanie uzasadnienia dla własnych
działań, jeśli były niezgodne z przekonaniami (np. „dorabia się” tym
działaniom wewnętrzne motywy, wcześniej nieobecne). Tak zwany żal
postdecyzyjny jest tym większy, im ważniejsza była podjęta decyzja, im
trudniej było ją podjąć, im dłużej nad nią pracowaliśmy i im ciężej teraz
przeciwdziałać jej negatywnym skutkom. Na przykład decyzja co do kupna
mieszkania może spowodować rozległy żal postdecyzyjny, podczas gdy
wybór szczoteczki do zębów raczej go nie wyzwoli.
Według Svensona (1992, 1996) uniknięcie żalu, a także innych efektów
postdecyzyjnych, takich jak uczucie zagubienia oraz próba zmiany już
powziętej decyzji, jest możliwe, pod warunkiem że wybrana wcześniej
opcja ulegnie konsolidacji. Podobnie jak wcześniejsza faza wyróżniania,
konsolidacja polega na podnoszeniu wartości wybranej opcji, a obniżaniu
wartości opcji odrzuconych. W tym celu decydent dokonuje licznych
manipulacji poznawczych, łącznie ze zmianą oceny atrybutów
poszczególnych opcji, a także zmianą kryteriów wyboru. Przykładowo
okoliczności wcześniej uznawane za pożyteczne mogą zostać uznane za
wady i odwrotnie. O ile jednak wyróżnianie służy temu, aby sumaryczna
wartość jednej z opcji przekroczyła próg umożliwiający podjęcie decyzji,
o tyle konsolidacja służy wyłącznie temu, aby wyeliminować negatywne
emocjonalne następstwa dokonanego wyboru i uniknąć strat związanych
z ewentualną zmianą decyzji.

Faza postdecyzyjna obejmuje też próby analizy informacji zwrotnych na


temat podjętej decyzji: jej trafności, uwzględnionych kryteriów wyboru,
wagi tych kryteriów itd. Refleksja tego rodzaju może się przyczynić do
podejmowania bardziej racjonalnych decyzji w przyszłości. Postępowanie
takie wymaga jednak przygotowania, wiedzy i wolnych zasobów
poznawczych, dlatego zdarza się dość rzadko (Svenson, 2003).

12.3. Podsumowanie
Wydawanie sądów i podejmowanie decyzji to powszechne i codzienne
czynności poznawcze. Opisane w tym rozdziale badania i koncepcje
teoretyczne pokazują, że nasze sądy i decyzje są często nieracjonalne,
a prawie zawsze dokonywane na podstawie raczej uproszczonych
heurystyk niż wyrafinowanych obliczeń. Jest to konkluzja dość ważna dla
rozważań na temat racjonalności umysłu ludzkiego. Jednocześnie nasze
sądy i decyzje nie mogą być całkiem nieracjonalne, bo byłoby to wbrew
zasadzie, że umysł jest „narządem” umożliwiającym człowiekowi
przystosowanie się do trudnych wymagań środowiska, najpierw
naturalnego, a potem społecznego. Gdyby nasze zdolności racjonalnego
sądzenia i wydawania decyzji były znikome, skuteczna adaptacja do
środowiska byłaby utrudniona, a może nawet niemożliwa. Ludzie zawsze
musieli wydawać sądy i podejmować decyzje, należałoby zatem
oczekiwać, że te zdolności będą u nich szczególnie dobrze rozwinięte.

W rozdziale tym omówiliśmy koncepcje teoretyczne i badania odnoszące


się do tego zagadnienia. Przedstawiliśmy program badawczy Daniela
Kahnemana i Amosa Tverskiego dotyczący heurystyk i tendencyjności
w wydawaniu sądów i podejmowaniu decyzji, omówiliśmy również ich
wpływową teorię perspektywy. Zaprezentowaliśmy też koncepcję
adaptacyjnej skrzynki narzędziowej Gigerenzera i współpracowników oraz
ich badania nad szybkimi i oszczędnymi heurystykami. Przybliżyliśmy
ponadto mechanizmy powstawania sądów intuicyjnych.

Nasuwa się wniosek, że wartość przystosowawczą mają właśnie takie


uproszczone heurystyki omawiane w niniejszym rozdziale, a nie
wyrafinowane metody wywodzące się z modeli naukowych. W historii
naturalnej gatunku ludzkiego sądy, a zwłaszcza decyzje, musiały być
formułowane w bardzo krótkim czasie i w warunkach niedoboru
informacji. W takim przypadku wartość przystosowawczą, a zarazem
swego rodzaju racjonalność, wykazują sposoby szybkie a skuteczne, jak to
opisują Gigerenzer i jego współpracownicy. Tego rodzaju sposoby wydają
się właśnie racjonalne, jeśli zmienić kryterium racjonalności
z abstrakcyjnego na ekologiczne. W tym ujęciu racjonalne jest to, co
zwiększa nasze szanse w zmaganiach z wyzwaniami stawianymi przez
środowisko, a nie to, co wynika z abstrakcyjnych reguł wnioskowania
i podejmowania decyzji.
Rozdział 13

Język i mowa

Natura języka
Język jako system
Poziomy języka
Język a poznanie
Przyswajanie języka
Problem natywizmu
Stadia przyswajania języka
Dwujęzyczność i wielojęzyczność
Mówienie
Planowanie mowy
Kodowanie semantyczno-syntaktyczne
Kodowanie fonologiczne
Rozumienie przekazów językowych
Złamanie kodu
Rozbiór zdania
Budowa modelu sytuacyjnego i wnioskowanie
Podsumowanie
Język to system kodowania znaczeń poprzez wykorzystanie skończonego zbioru symboli
(dźwięków mowy lub znaków pisma). Operowanie na symbolach podlega regułom gramatycznym,
swoistym dla każdego języka naturalnego lub sztucznego.
Mowa to używanie języka w celu przekazywania znaczeń oraz wpływania na zachowanie cudze lub
własne. W innym ujęciu mowa to zdolność gatunku ludzkiego do przekazywania i odbierania
komunikatów językowych za pomocą wyrażeń wokalnych lub znaków pisma.

Julien Offray de la Mettrie (1747/1984), XVIII-wieczny francuski filozof


materialista, wyraził pogląd, że ludzie to w gruncie rzeczy „gadające
automaty”. Sformułował tym samym klasyczną, arystotelesowską definicję,
zawierającą najbliższy rodzaj (automaty) oraz specyficzną różnicę
(gadające). Bez wchodzenia w polemikę z autorem co do tego, czy
rzeczywiście człowiek nie jest niczym więcej, jak tylko czymś w rodzaju
bardzo skomplikowanego zegara, zgódźmy się z drugą częścią tej definicji.
Cechą wyróżniającą gatunek ludzki jest bowiem zdolność do używania
języka jako systemu kodowania znaczeń poprzez wykorzystanie symboli.
Różne formy komunikacji używane przez zwierzęta tylko powierzchownie
przypominają język ludzki. Nie wystarczy wydawanie dźwięków lub
wykonywanie gestów w celu wywołania odpowiedniej reakcji innego
osobnika. Trzeba jeszcze te znaki (dźwięki, gesty) podporządkować
abstrakcyjnym regułom gramatycznym, a przede wszystkim odnieść do
rzeczywistości poprzez system znaczeń. Dźwięki mowy i znaki pisma to
symbole, dzięki którym przekazujemy znaczenia, a nie tylko polecenia,
prośby lub ostrzeżenia.

Język i mowa są przedmiotem zainteresowania wielu nauk:


językoznawstwa, filozofii, antropologii, socjologii, kognitywistyki. Na
gruncie psychologii językiem zajmują się specjaliści od rozwoju
poznawczego, neuropsychologii, a przede wszystkim psycholingwistyki.
W tym rozdziale podejmiemy rozważania nad językiem z perspektywy
psychologii poznawczej, co oznacza koncentrację na procesach
przetwarzania informacji biorących udział w tworzeniu wyrażeń
językowych i ich analizie. Noszą one wspólną nazwę procesów
przetwarzania języka (language processing). Język jest interesującym
obiektem badań kognitywnych już choćby z tego powodu, że polega na
szyfrowaniu i deszyfrowaniu myśli, co samo w sobie jest trudnym
zadaniem intelektualnym. Język to medium, dzięki któremu myśli są
przenoszone z jednego umysłu do drugiego. Transfer tego rodzaju nie może
się dokonać bezpośrednio, ponieważ nie mamy dostępu do cudzych myśli.
Potrzebny jest pośrednik w postaci skutecznego, zrozumiałego dla obu
stron szyfru.

13.1. Natura języka

13.1.1. Język jako system


Język pełni dwie podstawowe funkcje psychiczne: komunikacyjną
i poznawczą. Funkcja komunikacyjna polega na tym, że język stanowi
medium porozumiewania się, czyli wzajemnego przekazywania sobie
informacji. Porozumiewanie się może przybrać postać niewerbalną
(mimika, pantomimika, postawa ciała itp.) lub parawerbalną (ton głosu,
pauzy, intonacja), jednak większość treści przekazujemy za pośrednictwem
komunikatów stricte językowych. Niekiedy sens komunikatu
niewerbalnego jest sprzeczny z tym, co przekazujemy za pośrednictwem
języka. Możemy np. powiedzieć dziecku: „Chodź tu zaraz, ty okropny
brzydalu!”, co treściowo jest komunikatem negatywnym, ale jeśli
zastosujemy miękką, pieszczotliwą artykulację, dziecko z radością do nas
przybiegnie. Zasada prymatu komunikacji niewerbalnej nad werbalną może
sugerować niezbyt duże znaczenie języka w życiu ludzi. Wniosek taki
byłby jednak z gruntu niesłuszny. Po pierwsze, komunikaty niewerbalne nie
muszą być sprzeczne z werbalnymi, zazwyczaj oba kanały wzajemnie się
uzupełniają i wzmacniają. Po drugie, niewerbalnie sygnalizujemy dość
ograniczony zasób treści, przede wszystkim emocje i stosunek do
rozmówcy. Są to komunikaty ważne, ale ograniczone w swoim zakresie.
W szczególności trudno byłoby gestami i tonem głosu zastąpić język
w jego funkcji przekazywania wiedzy – jeszcze nikomu nie udało się
stworzyć niewerbalnego podręcznika akademickiego.

Natomiast funkcja poznawcza polega na wspomaganiu procesów


przetwarzania informacji, przede wszystkim myślenia i rozumowania, ale
również percepcji, pamięci i kontroli poznawczej. Dzięki językowi
możliwe jest myślenie pojęciowe, którego składnikami są właśnie pojęcia,
sądy i schematy, a nie obrazy umysłowe. Myślenie zwierząt i małych dzieci
przypuszczalnie przybiera postać wyłącznie obrazową, to znaczy polega na
łączeniu w dłuższe lub krótsze ciągi nietrwałych form reprezentacji
poznawczej, jakimi są wyobrażenia. Wraz z rozwojem języka tworzywem
myślenia stają się reprezentacje trwałe, najpierw pojęcia konkretne, a od
pewnej fazy rozwoju – pojęcia abstrakcyjne. Myślenie abstrakcyjne nie jest
tożsame z używaniem języka, ale nie byłoby bez niego możliwe. Język
odgrywa też ważną rolę w procesach kontroli poznawczej i samokontroli
emocjonalnej. Człowiek może „panować nad sobą”, kierując pod swoim
adresem rozmaite nakazy i zakazy. Pochodzą one przypuszczalnie od
nakazów i zakazów kierowanych przez innych ludzi (głównie rodziców
i opiekunów), ale w miarę rozwoju poznawczego interioryzują się i są
uznawane za własne standardy postępowania. Proces ten nie byłby
możliwy bez silnego zaangażowania poznawczych funkcji języka. Inny
przejaw tej funkcji to kategoryzowanie, czyli zaliczanie obiektów do
wybranych klas. Jest ono możliwe bez języka, ale dopiero pojęcia
umożliwiają dostrzeganie kategorii abstrakcyjnych i posługiwanie się nimi.
Trójkąt semantyczny – relacje między symbolem (np. słowem), znaczeniem i desygnatem
(obiektem oznaczanym).

Z innego punktu widzenia można podzielić funkcje języka na ekspresyjne


i referencjalne. Funkcja ekspresyjna polega na wyrażaniu stanów
podmiotu mówiącego. Mogą to być stany emocjonalne („czuję”) lub
motywacyjne („chcę”), a także stany związane z oczekiwaniami wobec
innych. Nakazy, zakazy, polecenia, groźby i inne wyrażenia mające na celu
wpływanie na działanie innych ludzi lub zwierząt to przejawy ekspresyjnej
funkcji języka. Pod tym względem język ludzki nie różni się jakościowo od
zwierzęcych systemów komunikowania się. Różnice są w tym przypadku
raczej ilościowe i wiążą się z bardziej złożoną psychiką człowieka i jego
bardziej skomplikowanymi relacjami społecznymi. Natomiast funkcja
referencjalna polega na tym, że język może służyć do opisu
rzeczywistości pozajęzykowej, a w szczególnych przypadkach do opisu
samego siebie. Referencjalność to odnoszenie się do czegoś; w tym
przypadku chodzi o odniesienie symbolu oznaczającego, czyli słowa, do
przedmiotu oznaczanego, zwanego desygnatem (referent). Relacje między
słowem a przedmiotem tworzą znaczenie słowa, które jest poznawczą
reprezentacją desygnatu. Te trzy elementy: słowo, desygnat i znaczenie,
składają się na tzw. trójkąt semantyczny (Ogden, Richards, 1923),
stanowiący o istocie referencjalności języka jako systemu. Uważa się, że
zwierzęce systemy komunikowania się pozbawione są funkcji
referencjalnej, przez co nie zasługują na miano języka. Pies potrafi
zasygnalizować potrzebę wyjścia na dwór, ale nawet gdyby dysponował
umiejętnością artykulacji, nie umiałby opowiedzieć, co się wydarzyło na
spacerze.
RYCINA 13.1. Trójkąt semantyczny
Symbol (słowo) zastępuje desygnat (rzecz oznaczaną), a jednocześnie ewokuje znaczenie, czyli
uaktywnia umysłową reprezentację desygnatu. Znaczenie jest powiązane z desygnatem relacją
referencjalną, czyli odniesieniową.
Źródło: opracowanie własne na podstawie Ogden, Richards, 1923.

Język naturalny jest systemem niezwykle złożonym. Każdy jego dorosły


użytkownik posługuje się co najmniej kilkoma tysiącami słów, a jeśli jest
wykształcony, zasób jego słownictwa sięga 100 000 jednostek. Niektóre
z nich są bliskoznaczne (synonimy, np. samochód – auto), inne mogą mieć
różne znaczenie, ale tę samą formę (homonimy, np. zamek). Do tego trzeba
dodać reguły gramatyczne, zwykle dość liczne i pełne wyjątków. Dla
umysłu ludzkiego przetwarzanie języka wiąże się z koniecznością
zaangażowania dużej części zasobów poznawczych, przede wszystkim
pamięci roboczej (Just, Carpenter, 1992). Język jest ponadto systemem
dynamicznym, to znaczy ciągle ewoluującym. Nieustannej zmianie
podlegają znaczenia słów, ich koloryt emocjonalny, a nawet
dopuszczalność niektórych struktur gramatycznych (ramka 13.1). Jest tak
dlatego, że język z trudem poddaje się odgórnym kodyfikacjom
i regulacjom. Język nie jest niczyją własnością albo też jest wspólną
własnością wszystkich swoich użytkowników. W związku z tym językowo
poprawne jest to, co większość użytkowników na mocy niepisanej umowy
społecznej uzna za poprawne. Niektórzy szczególnie wpływowi
użytkownicy (np. pisarze) lub specjalnie powołane instytucje (np. Rada
Języka Polskiego) mają w tej kwestii nieco więcej do powiedzenia, ale
w gruncie rzeczy język ewoluuje niezależnie od odgórnych ustaleń
i oficjalnych reguł jego użytkowania.

Kolejna cecha języka jako systemu to produktywność. Liczba słów, które


mamy do dyspozycji, jest skończona, choć bardzo wielka; skończona jest
również liczba reguł odmieniania wyrazów i łączenia ich w zdania.
Korzystając z tych ograniczonych zasobów, jesteśmy w stanie utworzyć
nieskończoną liczbę zdań, a przez to przekazać nieskończoną liczbę
komunikatów. Dzięki produktywności możemy przekazywać te same treści
alternatywnie, np. zamieniając stronę czynną („Małgosia pochwaliła Jasia”)
na bierną („Jaś został pochwalony przez Małgosię”). Możemy też używać
omówień i parafraz: jeśli nie znamy jakiegoś terminu lub struktury
zdaniowej, możemy to samo powiedzieć innymi słowami lub używając
innych struktur. Może to wpłynąć na koloryt wypowiedzi, ale nie zmienia
zasadniczo jej sensu. Niekiedy produktywność prowadzi wręcz do
twórczości językowej, jak wtedy, gdy nie dysponując gotowymi wzorcami
zdaniowymi lub nie znając właściwych słów, tworzymy struktury całkiem
nowe, oryginalne i pomysłowo dostosowane do kontekstu. Przykłady
twórczości językowej można zaobserwować przede wszystkim u małych
dzieci w procesie przyswajania przez nie pierwszego języka, kiedy to bez
żadnych zahamowań tworzą pomysłowe neologizmy (np. „Mama długo
komputeruje”) lub oryginalne struktury zdaniowe (np. „Tata, co foczki ją?”,
czyli „Tata, co jedzą małe foki?”).

RAMKA 13.1
Dynamiczne zmiany znaczenia słów
W głównym nurcie rozwoju języka słowa nie zmieniają swoich znaczeń
radykalnie. Jest to proces ciągły, którego pełne skutki można ocenić
dopiero na przestrzeni wieków. Nawet wtedy jednak zmiany dotyczą
raczej kolorytu i otoczki emocjonalnej, a nie istoty rzeczy. Na przykład
w dawnej polszczyźnie wyraz „kobieta” był obsceniczny: należało
mówić „niewiasta” lub „białogłowa”. Dzisiaj pierwszy wyraz jest czysto
opisowy, pozbawiony jakiejkolwiek ewaluacji, a dwa pozostałe wyszły
z użycia (z wyjątkiem wyrażeń żartobliwych). Tak czy inaczej,
desygnatem jest dorosła osoba płci żeńskiej.

Radykalne zmiany zachodzą natomiast w gwarach środowiskowych


i slangach. Wyraz „laska” w znaczeniu „młoda dziewczyna” pojawił się
stosunkowo niedawno i należy sądzić, że za kilka lat zaniknie. Zmiany
w tym zakresie są tak szybkie, że nie nadążają za nimi nawet
profesjonalni badacze. W momencie gdy jakiś slang zostanie opisany
i skodyfikowany, zwykle przestaje już być aktualny. Interesujące, że od
takich slangowych wyrazów tworzone są słowa pochodne. Na przykład
„wylaszczyć się” oznacza czynność, którą wykonuje młoda dziewczyna,
aby doraźnie zwiększyć swą atrakcyjność (makijaż, ubiór), np. przed
„imprezą” lub „melanżem”.

Można wyróżnić kilka najważniejszych przyczyn dynamicznej zmiany


języka.

1. Zmiany polityczne, kulturowe i obyczajowe. Język się dynamicznie


zmienia wraz ze zmianami społecznymi, które rodzą nowe potrzeby
komunikacyjne. Język musi nadążać za tymi, którzy się nim posługują.
Dotyczy to w szczególności szybko zmieniających się dziedzin życia
społecznego.

2. Eufemizacja i poprawność polityczna. Niektóre określenia wyszły


z użycia ze względu na negatywne konotacje. Odchodzi się np. od nazw
zawodów, które definiują status osoby, zastępując je określeniami
definiującymi funkcję lub rolę społeczną. „Sprzątaczkę” zastąpiła „osoba
sprzątająca”, prawdopodobnie dlatego, że sprzątaczką się jest (status),
a sprzątającą się bywa (funkcja). Reguła ta nie dotyczy oczywiście
zawodów o wysokim statusie społecznym.

3. Bariera my–oni. Gwary środowiskowe (młodzieżowa, więzienna)


działają jako przeszkoda dla niewtajemniczonych. Tylko swoi rozumieją
swój język, inni są automatycznie izolowani. Dla jednostki język
środowiskowy jest przepustką do wybranej grupy, a dla środowiska –
testem przynależności do swoich.

13.1.2. Poziomy języka


Poziomy języka – sposób funkcjonowania języka i sposób jego opisu, zależny od przyjętej
perspektywy. Wyróżnia się poziomy: fonologiczny, syntaktyczny, semantyczny i pragmatyczny.

Każde użycie języka, czynne lub bierne, wymaga jednoczesnego


przebywania na kilku piętrach architektury tego systemu. Są to poziomy
funkcjonowania języka jako systemu, pokrywające się z poziomami
naukowej analizy zjawisk językowych. Wyróżnia się co najmniej cztery
poziomy funkcjonowania języka.

Poziom fonologiczny obejmuje podstawowe jednostki budulcowe


komunikatu werbalnego, czyli elementarne dźwięki mowy (głoski,
fonemy). Każdy język naturalny buduje swoje przekazy, korzystając
z kilkudziesięciu głosek (30–40). Ich układ, dość arbitralny
w porównaniach międzyjęzykowych (np. dom = the house = la maison =
la casa), ale wspólny dla wszystkich użytkowników konkretnego języka,
pozwala budować słowa i inne jednostki znaczenia. Sama głoska jest
symbolem pozbawionym znaczenia. Kod fonologiczny można zastąpić
znakami pisma i choć oba sposoby kodowania znaczeń mają wiele
wspólnego (np. w piśmie alfabetycznym głoskom odpowiadają litery),
poznawcze mechanizmy przetwarzania języka są w każdym przypadku
swoiste.
Znaczenie denotacyjne (denotation) – część wiedzy o obiekcie (desygnacie) dotycząca ogólnie
uznanych faktów i obiektywnie stwierdzanych cech lub funkcji obiektu.
Znaczenie konotacyjne (connotation) – część wiedzy o obiekcie (desygnacie) odwołująca się do
subiektywnych skojarzeń i emocji.

Poziom semantyczny obejmuje ulepione z głosek lub znaków pisma


elementarne składniki znaczenia. Są nimi przede wszystkim morfemy, czyli
składniki słów, niosące pewną treść. Zazwyczaj konkretne słowo składa się
z kilku morfemów. Na przykład w słowie „czytać” występuje rdzeń
znaczeniowy, definiujący rodzaj czynności, oraz końcówka, w tym
przypadku definiująca formę bezokolicznikową. W przypadku słów
bardziej złożonych morfemów może być więcej. Na przykład w słowie
„powiedziałbym” znajdziemy morfem-rdzeń, a ponadto morfemy
definiujące czas przeszły, rodzaj męski i tryb przypuszczający. Morfemami
zmieniającymi znaczenie słowa są też przedrostki (np. zawrócił)
i przyrostki (np. zawróciłby). Na semantycznym poziomie analizy języka
istotne staje się znaczenie, definiowane jako fragment wiedzy o świecie,
wyrażonej pojęciami i sądami. Znaczenie jest czymś innym niż pojęcie
i kategoria (zob. rozdz. 3). Kategoria to zbiór obiektów, np. kwadratów.
Pojęcie to poznawcza reprezentacja tej kategorii, która może przybierać
rozmaite formy: zbioru cech, prototypów, egzemplarzy itd. Natomiast
znaczenie pojęcia to jego treść, czyli to wszystko, co wiemy o kategorii
reprezentowanej przez pojęcie. Wiedza ta może przyjmować różne postaci
i formy. Może być jawna albo niejawna; może być wyrażona w postaci
pojęć, sądów lub schematów. Może być modyfikowana pod wpływem
doświadczeń lub względnie trwała. Może dotyczyć faktów, wtedy mówimy
o znaczeniu denotacyjnym, lub emocji i skojarzeń, wtedy mówimy
o znaczeniu konotacyjnym. Denotacja słowa „dom” to po prostu
„budynek, w którym się mieszka”. Konotacja tego słowa to bogata sieć
skojarzeń, odwołujących się do psychologicznych i społecznych funkcji
domu (ciepły, opiekuńczy, integrujący). Jeśli znaczenie określonego pojęcia
jest fragmentem wiedzy, może być u każdego człowieka nieco inne. Gdy
chodzi o znaczenie denotacyjne, różnice te są niewielkie, ponieważ język
nie mógłby pełnić funkcji komunikacyjnej bez daleko posuniętej wspólnoty
znaczeń. Natomiast zróżnicowanie międzyosobnicze w zakresie znaczeń
konotacyjnych zwykle jest bardzo duże.

Poziom syntaktyczny (składniowy) składa się z fraz i zdań, połączonych


według reguł gramatyki. O ile słowo (a właściwie morfem) jest
elementarną jednostką znaczenia, o tyle fraza, a zwłaszcza zdanie, jest
elementarną jednostką sensu. Samo słowo „powiedzieć” ma określone
znaczenie, ale nie ma sensu – chyba że sens nadają mu słowa
wypowiedziane wcześniej i ogólny kontekst sytuacyjny. Natomiast
w przypadku zdania:

Mógłbym ci coś powiedzieć,

mamy już do czynienia z pełnym sensem: ktoś komuś komunikuje chęć lub
ewentualność przekazania jakiejś wiadomości, jeśli słuchacz spełni bliżej
nieokreślony warunek. Zdanie jest jednostką sensu, ponieważ zawiera
przynajmniej dwa komunikaty: o sprawcy (podmiot) i o czynności
(orzeczenie); dodatkowo zdanie może zawierać informacje
o okolicznościach zdarzenia (miejscu, czasie itd.), a także o atrybutach
sprawcy (np. pilny uczeń) lub czynności (żmudna nauka). Formalnie rzecz
biorąc, zdanie składa się z frazy nominalnej, określającej sprawcę i jego
atrybuty, oraz frazy czasownikowej1, określającej czynność i jej
okoliczności. Strukturę zdania możemy więc zapisać w postaci tzw.
drzewka derywacyjnego (ryc. 13.2). W przypadku zdania: „Pewien
chłopiec kupił cukierek w sklepie” (zob. Kurcz, 2000), istota rzeczy
sprowadza się do komunikatu: „Chłopiec kupił”. Te dwa elementy: sprawca
i czynność, tworzą główne konary drzewa. Pozostałe składniki zdania są
reprezentowane przez pomniejsze gałęzie, co sugeruje, że nie są to
składniki konieczne; można je jak gdyby „oderwać” od składników
głównych. Drzewko derywacyjne (czyli utworzone w wyniku odrywania)
pokazuje ponadto, w jaki sposób struktura syntaktyczna zdania może być
tworzona z elementów składowych. Całe zdanie składa się z frazy
nominalnej i czasownikowej, ale składnikiem tej ostatniej jest osobna fraza
nominalna. Co więcej, struktura ta może być dalej rozszerzana, np. wtedy,
gdy tworzymy zdania rekurencyjne typu: „Pewien chłopiec kupił cukierek
w sklepie, który był na skrzyżowaniu, które było pozbawione sygnalizacji,
która...”.
RYCINA 13.2. Formalna budowa zadania: „Pewien chłopiec kupił cukierek w sklepie”,
przedstawiona w postaci drzewka derywacyjnego
ZD – zdanie, FN – fraza nominalna, FC – fraza czasownikowa, Det – określnik, Rz – rzeczownik,
Cz – czasownik, FPrz – fraza przyimkowa, Prz – przyimek.
Źródło: opracowanie własne na podstawie Kurcz, 2000.

Poziom pragmatyczny dotyczy społecznych aspektów języka, a właściwie


jego użycia w funkcji komunikacyjnej. O ile wcześniej ważne były reguły
wewnątrzjęzykowe, czyli zasady lepienia słów z głosek i reguły tworzenia
zdań ze słów, o tyle teraz potrzebne jest wyjście poza system języka.
Istotna staje się bowiem kwestia, co, komu i w jakim celu chcemy
powiedzieć. A to w przeważającej mierze zależy od kontekstu oraz od
postrzeganych przez nas cech odbiorcy. Weźmy np. zdanie: „Idę!”. Mimo
swej prostoty jest to pełne zdanie, z domyślnym podmiotem (ja idę). Na
poziomie syntaktycznym znaczy ono tylko tyle, że podmiot domyślny
idzie. Natomiast na poziomie pragmatycznym może nieść mnóstwo
różnorodnych znaczeń, np. ostrzeżenie („Uważaj, bo idę”), wyrzut („Ja idę,
a ty ciągle siedzisz i nic nie robisz”), chwalenie siebie samego („Idę, choć
mógłbym ciągle leniuchować”). Odbiorca, aby zrozumieć komunikat
zgodnie z intencją nadawcy, musi intensywnie korzystać z kontekstu
językowego (inne zdania tego samego komunikatu) oraz pozajęzykowego
(sytuacja, w której zachodzi komunikacja). Nadawca zakłada, że odbiorca
korzysta ze wskazówek kontekstualnych i odpowiednio konstruuje
wypowiedź. Z kolei odbiorca zakłada, że nadawca tworzy wypowiedź
zgodnie ze swoimi intencjami i z własnym rozumieniem możliwości
odbiorcy. Te obustronne założenia mogą być oczywiście fałszywe, co
prowadzi do zrozumienia niepełnego lub opacznego. Pragmatyczny poziom
języka jest szczególnie istotny w przypadku wyrażeń ironicznych czy
sarkastycznych, np. „No to pięknie!”.

Konsekwencją istnienia czterech poziomów języka jest przede wszystkim


bardzo duże obciążenie systemu poznawczego podczas wykonywania
czterech podstawowych czynności językowych: mówienia, pisania,
słuchania lub czytania2. Przetwarzanie języka wymaga jednoczesnej
kontroli wszystkich tych poziomów, choć oczywiście nie każdy z nich
wymaga jednakowo starannej kontroli poznawczej. Najściślej trzeba
kontrolować komunikat na poziomie pragmatycznym, bo w przeciwnym
wypadku nie będzie porozumienia. Niższe poziomy wymagają słabszej
kontroli, ponieważ tworzenie syntaksy, przywołanie z pamięci słów
i znaczeń, a zwłaszcza „lepienie” słów z głosek – to procesy w dużym
stopniu automatyczne. Dowodem tego jest zjawisko polegające na
zakłóceniu czynności mówienia w wyniku świadomego zastanawiania się
nad regułami poprawności wypowiedzi. Im mniej myślimy o tych regułach,
tym płynniej mówimy, co jest jednym z definicyjnych wskaźników
czynności automatycznej. Nie znaczy to, że na niższych poziomach nie
występuje kontrola poznawcza albo że jest ona z natury rzeczy szkodliwa.
Chcąc wyrazić coś istotnego na poziomie pragmatycznym, np. ironię lub
wątpliwość, operujemy subtelnymi zmianami w tonie głosu. Aby to było
możliwe, poziom fonologiczny musi podlegać przynajmniej częściowej
kontroli. Kontrolowany musi być również poziom semantyczny, ponieważ
dobór słów – nawet bliskoznacznych – zmienia sens komunikatu. Czym
innym jest powiedzieć o kimś, że jest „odważny”, a czym innym, że
„brawurowy”. Również poziom syntaktyczny jest podporządkowany
pragmatycznemu, ponieważ operując odpowiednimi strukturami
gramatycznymi, możemy uzyskać pożądane skutki na poziomie
pragmatycznym. Inny efekt uzyskujemy, mówiąc: „Jaś kocha Małgosię”,
a inny, gdy oznajmimy: „Małgosię kocha Jaś” (a nie np. Bartek).

Jeżeli użytkownik języka musi jednocześnie kontrolować cztery poziomy


komunikatu językowego, a ponadto radzić sobie z tym zadaniem w czasie
rzeczywistym, nieuniknione wydaje się przeciążenie systemu
poznawczego. Dotyczy to w szczególności „wąskich gardeł” systemu,
takich jak selektywna uwaga lub pamięć robocza (Baddeley, Gathercole,
Papagno, 1998b; Just, Carpenter, 1992). Takie same skutki w postaci
przeciążenia obserwujemy w przypadku rozwiązywania trudnych,
złożonych problemów. Dlatego nie powinien nas dziwić fakt, że poziom
kompetencji językowych koreluje z poziomem inteligencji ogólnej, a wiele
testów inteligencji składa się z zadań wymagających rozumienia rzadko
używanych pojęć, dostrzegania subtelnych różnic w znaczeniu pojęć lub
obróbki złożonych komunikatów werbalnych.
Struktura powierzchniowa (surface structure) – jeden z możliwych poziomów analizy języka,
rzeczywiste zdanie utworzone według obowiązujących reguł gramatycznych.
Struktura głęboka (deep structure) – jeden z możliwych poziomów analizy języka, abstrakcyjna
postać zdania, wyrażona w postaci drzewka derywacyjnego.

Cztery wyróżnione poziomy języka to oczywistość, przyjmowana przez


wszystkich badaczy tego zjawiska. Niezależnie od tego niektórzy
językoznawcy, z Noamem Chomskim na czele, wyróżniają dwie warstwy
funkcjonowania języka: strukturę powierzchniową (surface structure)
i strukturę głęboką (deep structure). Struktura powierzchniowa to
rzeczywiste zdanie utworzone według obowiązujących reguł
gramatycznych. Natomiast struktura głęboka to abstrakcyjna postać tego
zdania, wyrażona w postaci drzewka derywacyjnego (zob. ryc. 13.2).
Każda struktura głęboka może być zapisana w postaci pewnej liczby
równoważnych zdań, funkcjonujących na poziomie powierzchniowym. Na
przykład zdanie: „Pewien chłopiec kupił cukierek w sklepie”, może być
wyrażone w postaci zdań równoważnych, np. „Pewien chłopiec kupił
w sklepie cukierek” lub „Cukierek został kupiony w sklepie przez pewnego
chłopca”. Struktura powierzchniowa jest jak gdyby implementacją tego, co
zapisano w strukturze głębokiej. Przekształcenie struktury głębokiej
w powierzchniową jest możliwe dzięki regułom transformacji
(transformational rules). Ze względu na sposób ujęcia problemu poziomów
języka koncepcja Chomsky’ego nosi nazwę teorii gramatyki
generatywnej.

Koncepcja struktury powierzchniowej i głębokiej zyskała tak dużą


popularność, że niektórzy badacze – zwłaszcza psycholodzy i kognitywiści
– dokonali swoistej nadinterpretacji tez Chomsky’ego. Według tych ujęć
struktura powierzchniowa jest jak gdyby implementacją sensu zapisanego
w strukturze głębokiej. Każda struktura głęboka może być wyrażona
w niezliczonej liczbie zdań, przede wszystkim w różnych językach
naturalnych, ale również wewnątrz każdego pojedynczego języka
naturalnego. Można porównać strukturę głęboką do wzoru
matematycznego, do którego da się podstawić różne wartości. W zależności
od tego, co podstawimy za x lub y, wynik obliczeń będzie inny, jednak
formuła wzoru pozostanie niezmienna. Z perspektywy mówcy konieczne
jest przekształcenie „głębokiego” znaczenia na „powierzchniową” strukturę
syntaktyczną zdania, natomiast z punktu widzenia słuchacza konieczna jest
transformacja w przeciwnym kierunku. W każdym razie komunikacja
językowa może nastąpić tylko wówczas, gdy obie strony interakcji zejdą na
poziom struktur głębokich, a jednocześnie użyją odpowiednich reguł
transformacji, aby wygenerować stosowne struktury powierzchniowe.
Gdyby obie strony pozostawały tylko na poziomie głębokim, nie byłoby
porozumienia, ponieważ nie można by użyć przenośnika sensu (medium),
jakim jest wyrażenie językowe. Gdyby natomiast obie strony pozostawały
tylko na poziomie struktur powierzchniowych, nie mogłyby utworzyć
poznawczej reprezentacji komunikatu, co również oznaczałoby brak
porozumienia3. Oba poziomy są zatem niezbędne, choć jeden z nich, czyli
poziom struktur głębokich, wydaje się bardziej pierwotny jako generator
struktur powierzchniowych.

Zgromadzono wiele empirycznych dowodów słuszności tej koncepcji. Na


przykład powtórne opowiadanie tego samego zdarzenia prawie zawsze
odbiega od pierwszej wersji pod względem użytych słów i struktur
syntaktycznych, a niekiedy te rozbieżności są zasadnicze. Opowiadając
jakąś historię, za każdym razem generujemy nowy zestaw struktur
powierzchniowych, które jednak – z wyjątkiem, gdy zawodzi nas pamięć –
dość ściśle odpowiadają strukturze głębokiej, czyli prawdziwemu sensowi
tego, co się wydarzyło. Umysł ludzki nie przechowuje opisów przeszłych
zdarzeń w postaci utrwalonych, jak gdyby „zamrożonych” struktur
zdaniowych. Byłoby to prawdopodobnie zbyt obciążające dla pamięci.
Umysł przechowuje sens zdarzenia na poziomie głębokim, co wystarczy,
aby w razie potrzeby wygenerować odpowiadające temu sensowi struktury
powierzchniowe. Inny dowód to zapominanie: już w krótkim czasie po
przeczytaniu fragmentu tekstu nie jesteśmy w stanie dosłownie go
zreprodukować, choć pamiętamy jego sens i znaczenie. Potrafimy więc je
odtworzyć, ale już z użyciem innych struktur powierzchniowych.
Zapominamy przede wszystkim struktury powierzchniowe i one właśnie
muszą być powtórnie wygenerowane, podczas gdy struktury głębokie
pozostają w zasadzie niezmienne.

13.1.3. Język a poznanie


Hipoteza determinizmu językowego (lingusitic determinism) – hipoteza, według której struktury
i pojęcia języka kształtują poznanie świata.

Jeśli język jest wehikułem, dzięki któremu myśli przechodzą z jednego


umysłu do drugiego, pojawia się problem wzajemnych relacji języka
i poznania, a w szczególności – relacji mowy i myślenia. Szczególnie
interesująca jest kwestia determinacji: czy pojęcia i struktury języka
kształtują nasze myślenie i inne procesy poznawcze, czy też forma i treść
poznania są od języka niezależne, a jedynie w nim wyrażane. Zgodnie
z hipotezą determinizmu językowego, zwaną również hipotezą Sapira–
Whorfa, język zasadniczo wpływa na to, jak spostrzegamy rzeczywistość,
przetwarzamy informacje, formułujemy sądy lub korzystamy z zasobów
pamięci. Benjamin Lee Whorf (1982), uczeń Edwarda Sapira (1921),
uchodzi za twórcę tego podejścia. Prowadził on badania nad językami
rdzennych mieszkańców Ameryki Północnej i odkrył, że wielu pojęć nie da
się przełożyć z jednego języka na inny. Na przykład niektóre języki mają to
samo słowo na oznaczenie różnych kolorów, inne nie odróżniają zbyt jasno
przeszłości od teraźniejszości i przyszłości, a jeszcze inne dysponują
kilkunastoma określeniami różnych rodzajów tego samego zjawiska (np.
śniegu), choć nie używają słowa oznaczającego kategorię nadrzędną. Na tej
podstawie wysnuto wniosek, że sposób, w jaki mówimy, determinuje to,
jak widzimy świat i jak o nim myślimy. Język i jego struktury to jak gdyby
koleiny, w których toczy się ludzkie poznanie. Nie sposób poznawczo
wyjść poza nie, chyba że poprzez opanowanie innego języka, czyli
przeskok do innych kolein.
Hipoteza relatywizmu językowego (lingusitic relativism) – pogląd, według którego nie ma dwóch
identycznych języków, więc nie ma dwóch jednakowych sposobów poznawczego reprezentowania
rzeczywistości, przede wszystkim społecznej.

Oprócz danych z obserwacji etnologicznych Sapir i Whorf używali


argumentów rozumowych. Uważali, że języki ludzkie tak bardzo się
między sobą różnią, iż nie jest możliwe, aby odzwierciedlały tę samą
rzeczywistość społeczną. Postawę tego rodzaju nazwano relatywizmem
językowym: nie ma dwóch identycznych języków, więc nie ma dwóch
jednakowych sposobów poznawczego reprezentowania rzeczywistości,
przede wszystkim społecznej. Wszystko jest względne, zarówno językowe
sposoby wyrażania treści, jak i niejęzykowe sposoby spostrzegania
i interpretowania świata. Drugi argument odwołuje się do porządkującej,
kategoryzującej funkcji języka. Rzeczywistość ma być „kalejdoskopowym
strumieniem wrażeń”, któremu tylko język może nadać sens, znaczenie
i porządek. Ale nakładając na rzeczywistość swój system kategorii, język
zniekształca nasz sposób poznania świata. Nie ma poznania poza językiem,
a ponieważ każdy język ma swoistą strukturę i siatkę pojęć, poznanie musi
być przez język filtrowane. Właśnie ten argument legł u podstaw
stanowiska zwanego determinizmem językowym.
Danych potwierdzających hipotezę determinizmu językowego szukano
przede wszystkim w badaniach międzykulturowych. Szczególną wagę
przywiązywano do różnic międzykulturowych w zakresie spostrzegania
i nazywania kolorów, wychodząc z założenia, że jeśli język wpływa na tak
elementarny proces poznawczy, jak percepcja barw, z pewnością
determinuje procesy bardziej złożone. Stosunkowo wcześnie wykazano, że
ludzie żyjący w różnych kulturach i posługujący się różnymi językami nie
tylko inaczej nazywają kolory, lecz także gdzie indziej sytuują granice
między nimi (Gleason, 1961). Na przykład granica między zielonym
a niebieskim może być przesunięta bardziej ku zielonemu lub bardziej ku
niebieskiemu. W języku plemienia Berinmo nie ma w ogóle rozróżnienia
niebieskiego i zielonego, jest natomiast nieznana językom europejskim
granica między kolorami nol i wor (Roberson, Davies, Davidoff, 2000).
Okazało się jednak (Berlin, Kay, 1969), że efekt przesuniętych granic nie
dotyczy barw ogniskowych, czyli „czystych”, a jedynie barw pochodnych
lub mieszanych, co skłania raczej do odrzucenia hipotezy Sapira–Whorfa.
Badania tego rodzaju, niezależnie od wyników, są podatne na krytykę ze
względu na przyjętą metodologię: osoby badane prosi się o nazywanie
pokazywanych im kolorów, a badacz sprawdza, które barwy są określane
identycznym słowem, a które – różnymi. Można przyjąć, że jeśli badany
określa niebieski i zielony różnymi słowami, musi odróżniać te barwy na
poziomie percepcji, ale jeśli używa dla nich tej samej nazwy, niekoniecznie
widzi obie barwy tak samo. Problem ten rozwiązano w badaniach
prowadzonych pod kierunkiem Debi Roberson (Roberson i in., 2000).
Osoby badane – Europejczycy i przedstawiciele plemienia Berinmo,
żyjącego w Nowej Gwinei – nie nazywały kolorów, lecz kategoryzowały
barwne paski. Wynik tego badania okazał się zgodny z hipotezą
relatywizmu językowego: przedstawiciele różnych kultur odmiennie
spostrzegają barwy (ramka 13.2). Wykazano też, że u pacjentów z afazją
polegającą na utracie dostępu do nazw kolorów znacznie pogarsza się ich
różnicowanie percepcyjne (Roberson, Davidoff, Braisby, 1999).

RAMKA 13.2

Percepcja kolorów w epoce kamiennej


Roberson i współpracownicy (2000) wybrali do badań plemię Berinmo,
żyjące w dorzeczu rzeki Sepik (Papua-Nowa Gwinea). Jest to plemię
pierwotnych łowców i zbieraczy, nietknięte, zdaniem autorów,
wpływami cywilizacji zachodniej. Berinmo określają kolory pięcioma
nazwami, ale ich zakresy znaczeniowe są inne niż w języku angielskim.
Nie ma oddzielnej nazwy dla koloru niebieskiego i zielonego: obie
barwy są nazywane tym samym słowem nol. Istnieje natomiast osobna
nazwa wor, używana na określenie koloru, który my byśmy uznali za
zielono-żółto-pomarańczowy.

Osobom badanym, Anglikom i przedstawicielom plemienia Berinmo,


pokazywano przez 30 sekund barwny pasek i polecono im zapamiętanie
go. Następnie pokazywano im jednocześnie dwa paski o różnej, ale
podobnej barwie, z poleceniem, aby wskazać ten, który jest identyczny
z paskiem wcześniej zapamiętywanym. Zadanie nie wymagało więc
nazywania barw, lecz podejmowania wobec nich decyzji
kategoryzacyjnych. Autorzy interesowali się szczególnie tym, co się
stanie, gdy żaden z pasków nie będzie pasował do zapamiętanego
wzorca. Badany może wtedy mimo wszystko wskazać jeden z pasków,
czyli popełnić błąd kategoryzacji. Przypuśćmy, że wzorcem był pasek
o barwie niebieskiej, a później pokazywana para obejmowała pasek
niebieski, ale o innym odcieniu, oraz zielony. Jeśli ktoś dobrze odróżnia
niebieski od zielonego, wybierze raczej pasek niebieski o innym
odcieniu, ale nie zielony. Pierwszy należy bowiem do tej samej kategorii
co wzorzec, a drugi jest przedstawicielem zupełnie innej kategorii barw.
Tak właśnie zachowywali się biorący udział w badaniu Anglicy.
Natomiast przedstawiciele plemienia Berinmo wybierali z równą
częstością niebieski i zielony, bo to dla nich ten sam kolor nol. Sytuacja
odwróciła się, gdy wzorcem do zapamiętania był pasek w kolorze wor,
a dwa paski wymagające decyzji kategoryzacyjnej należały do kategorii
wor i nol. Tym razem ludzie z plemienia Berinmo nie mieli wątpliwości:
wybierali pasek w kolorze wor, identyczny kategorialnie w stosunku do
wzorca, choć różny pod względem odcienia. Natomiast Anglicy, nie
odróżniając wor od nol, wybierali oba paski z jednakową częstością.

Autorzy badali ponadto, jak szybko przedstawiciele obu kultur uczyli się
rozróżniać barwy należące do różnych kategorii. Anglicy potrzebowali
średnio 3,2 próby, aby nauczyć się poprawnie odróżniać paski niebieskie
od zielonych, podczas gdy Berinmo zużywali na to średnio 11,4 próby.
Gdy zaś zadanie polegało na tym, aby wyuczyć się rozróżniania wor
i nol, Anglicy potrzebowali na to średnio 3,8 próby, a Berinmo – średnio
2,2 próby. Ujawniła się więc pewna asymetria między przedstawicielami
obu kultur: Anglicy szybciej od Berinmo opanowywali nieznane im
rozróżnienia kategorialne kolorów, mimo że żadna grupa nie miała
wcześniejszej wiedzy na ten temat. Autorzy konkludują, że różnice
lingwistyczne wpływają na różnice w zakresie percepcji barw, a nie
tylko ich nazywania, co jest zgodne z hipotezą relatywizmu językowego.

Również dane z badań z użyciem technik neuroobrazowania wspierają


hipotezę Sapira–Whorfa. Wai Ting Siok i współpracownicy (2009)
w badaniu za pomocą funkcjonalnego rezonansu magnetycznego
(functional magnetic resonance imaging, fMRI) wykazali, że obszary
mózgu związane z przetwarzaniem języka (obszary na styku płata
skroniowego i ciemieniowego, zakręty czołowe środkowy i dolny) są
bardziej aktywne przy przetwarzaniu kolorowych bodźców, różniących się
odcieniem i należących do różnych kategorii językowych niż bodźców
różniących się odcieniem, ale należących do tej samej kategorii. Dowiedli
również, że ten efekt jest silnie zlateralizowany, to znaczy pojawia się
wtedy, gdy bodźce wzrokowe prezentowane są w prawym polu widzenia,
czyli trafiają do lewej półkuli, gdzie u większości osób badanych
zlokalizowane są ośrodki językowe. Przy prezentacji bodźców w lewym
polu widzenia efekt ten nie zachodzi. Te wyniki oraz im podobne (zob.
Gilbert, Regier, Kay i Ivry, 2006) skłoniły Terry’ego Regiera i Paula Kaya
(2009) do podsumowania tej serii badań nieco przewrotnym wnioskiem, że
hipoteza Sapira–Whorfa jest w połowie słuszna, wyniki empiryczne
bowiem są z nią zgodne tylko wtedy, gdy dotyczą bodźców pojawiających
się w prawej połowie pola widzenia.

Istotne dowody na słuszność hipotezy Sapira–Whorfa przynoszą również


badania elektroencefalograficzne (EEG), pozwalając jednocześnie na wgląd
w bardzo wczesne etapy wpływu języka na percepcję. Okazuje się, że
wpływ kategorii językowych na percepcję koloru ujawnia się na bardzo
wczesnych etapach przetwarzania informacji. Alexandra Clifford
i współpracownicy (Clifford, Holmes, Davies, Franklin, 2010)
przeprowadzili badania z użyciem EEG, analizując potencjały związane ze
zdarzeniem (event-related potentials, ERP). Analizowali oni tzw.
wzrokową falę niezgodności (visual mismatch negativity, vMMN),
komponent ERP pojawiający się już 100–250 milisekund po prezentacji
bodźców niezgodnych (np. kolorów należących do dwóch różnych
kategorii lub dwóch różnych odcieni tego samego koloru). Badacze ci
wykazali, że komponent vMMN był większy wtedy, gdy kolorowe bodźce
różniły się odcieniem oraz należały do różnych kategorii językowych, niż
wtedy, gdy tylko różniły się odcieniem, ale należały do tej samej kategorii.
Według autorów świadczy to o wpływie języka na postrzeganie kolorów
oraz o tym, że oddziaływanie to zachodzi już na bardzo wczesnych,
przeduwagowych etapach przetwarzania bodźców.

Dane przemawiające na korzyść hipotezy Sapira–Whorfa można zresztą


znaleźć, nie wyjeżdżając na Nową Gwineę. Jej słuszność potwierdzają
rozmaite przypadki manipulacji językowych, które mają za zadanie
kontrolę myśli. Celowały w tym zwłaszcza reżimy totalitarne, gdzie władza
nad językiem oznaczała władzę nad umysłami poddanych. Literacką
ilustracją tego zjawiska jest Rok 1984 George’a Orwella. Autor opisuje
system, w którym policja polityczna podlega Ministerstwu Miłości,
a propaganda – Ministerstwu Prawdy. Podobne zabiegi, choć mniej
drastyczne, zdarzają się również w otwartych, demokratycznych systemach
politycznych, nie mówiąc o całkiem prywatnych sposobach kontroli myśli
przez kontrolę słów (tab. 13.1).

TABELA 13.1. Eufemizmy polityczno-wojskowe, czyli próba kontroli myśli poprzez kontrolę
słów
Wyrażenie Znaczenie

straty zabici i ranni po naszej stronie

pacyfikacja wymordowanie całej wioski


ostateczne rozwiązanie wymordowanie sześciu milionów Żydów

etniczne czyszczenie masowe deportacje

przyjacielski ogień pomyłkowe ostrzelanie własnych oddziałów

planowy odwrót ucieczka

polityczna poprawność cenzura

porządek i dyscyplina bezduszny dryl

honor munduru zmowa milczenia

Źródło: opracowanie własne na podstawie Leahy, Harris, 2001.

Trudno byłoby jednak udowodnić hipotezę determinizmu językowego w jej


mocnej postaci: że każde poznanie jest ściśle ukierunkowane przez język,
który określa nasz sposób postrzegania rzeczywistości, a nawet
światopogląd. Wiele danych, pierwotnie uważanych za dowody słuszności
hipotezy Sapira–Whorfa, to artefakty wynikające z etnocentrycznej
postawy badaczy. Na przykład w badaniach Alfreda Blooma (1981)
stwierdzono, że Chińczycy słabo sobie radzą z zadaniami wymagającymi
rozumowania hipotetycznego (np. „Gdyby ludzie mieli trzy nogi, to...”), co
przypisano specyficzności języka chińskiego i uznano za dowód, że język
kształtuje myślenie. Tymczasem zadania Blooma były bardzo dobrze
rozwiązywane przez Chińczyków, gdy je poprawnie przetłumaczono
z użyciem idiomów typowych dla języka chińskiego (Au, 1983). Słynny
argument Whorfa, że Inuici (Eskimosi) używają kilkunastu nazw różnych
gatunków śniegu, ale nie mają osobnego słowa na oznaczenie śniegu jako
takiego, sformułowano w wyniku słabej znajomości ich języka (zob.
Pinker, 2003). Argumentów za rozdzielnością języka i poznania szukano
też w danych neuropsychologicznych. Defekty językowe, wynikające np.
z uszkodzenia pewnych partii mózgu, mają bardzo wybiórczy charakter
i w zasadzie nie obniżają ogólnej inteligencji pacjenta. Jednocześnie wady
rozwojowe prowadzące do niepełnosprawności intelektualnej nie muszą
oznaczać upośledzenia w zakresie funkcji językowych, jak to się dzieje np.
w przypadku syndromu Williamsa. Również opisane wcześniej wnioski
z badań z użyciem technik neuroobrazowania (Regier, Kay, 2009) sugerują,
że hipoteza Sapira–Whorfa jest tylko częściowo słuszna. Argumentem
nienaukowym, ale ważkim, mogą być słowa naszego narodowego poety,
Juliusza Słowackiego: „Chodzi mi o to, aby język giętki powiedział
wszystko, co pomyśli głowa” (a nie o to, aby głowa pomyślała wszystko,
co wyrazi język). Wydaje się, że język i poznanie ani nie są całkowicie
niezależne, ani też nie pozostają w relacji, która ściśle podporządkowuje
jeden system drugiemu.

13.2. Przyswajanie języka

13.2.1. Problem natywizmu


W języku potocznym mówi się o uczeniu się języka. Nauka woli termin
przyswajanie (acquisition) jako bardziej neutralny, nieprzesądzający
o naturze tego procesu, a zwłaszcza o roli środowiska i wrodzonych
predyspozycji. Człowiek niewątpliwie przyswaja kompetencje językowe,
co dokonuje się zazwyczaj w pierwszych trzech latach życia. Czy to
znaczy, że się uczy? A jeśli tak, to czego się uczy, a czego uczyć się nie
musi?
Wczesne teorie przyswajania języka pozostawały pod wpływem
behawioryzmu, podkreślały zatem rolę uczenia się, w szczególności
warunkowania i modelowania. W tradycji zapoczątkowanej przez Iwana
Pawłowa (1990) język nazywano drugim systemem sygnałowym.
Pierwszy system sygnałowy to zbiór odruchów warunkowych, czyli
połączeń nowych bodźców z dobrze utrwalonymi reakcjami, przede
wszystkim wrodzonymi. W wyniku warunkowania możemy np. reagować
strachem na sygnał zagrożenia, zanim pojawi się samo zagrożenie. Drugi
system sygnałowy obejmuje sygnały sygnałów. W wyniku warunkowania
wyższego rzędu możemy reagować strachem już nie tylko na sygnał
zagrożenia, lecz także na sygnał zapowiadający ów sygnał.
W szczególności takimi sygnałami sygnałów miały być wypowiadane
przez innych słowa i inne wyrażenia językowe; w przypadku warunkowej
reakcji strachu byłyby to np.: „uważaj”, „groźne”, „niebezpieczne” itp.
Podobny sposób myślenia cechuje Hobarta Mowrera (1960), który
wyróżnił cztery grupy sytuacji odpowiadających znaczeniom językowym:
groźbę, obietnicę, ulgę i rozczarowanie. Tymi terminami opisał przypadki,
gdy słowo sygnalizuje niebezpieczeństwo, nagrodę, minięcie zagrożenia
lub brak zapowiadanej nagrody.

Warunkowanie klasyczne, nawet jeśli nadawało się do opisu zjawiska


recepcji komunikatów językowych, nie przystawało do wyjaśnienia tego,
w jaki sposób ludzie komunikaty te wytwarzają. Schemat uzupełniono więc
o procesy warunkowania sprawczego (Skinner, 1957). Zgodnie z tym
sposobem myślenia człowiek spontanicznie używa pewnych dźwięków –
najpierw pojedynczych głosek i sylab, potem słów i pełnych zdań –
otrzymując w zamian wzmocnienie pozytywne lub negatywne. Operując
wzmocnieniami, rodzice i opiekunowie wykształcają u dzieci umiejętność
poprawnego używania wyrażeń językowych we właściwych
okolicznościach. Dzięki stosowaniu reguł kształtowania złożonych
reakcji (shaping) dorośli są w stanie wykształcić u dzieci umiejętność
posługiwania się długimi, skomplikowanym strukturami językowymi,
podobnie jak treser potrafi nauczyć foki gry w siatkówkę. W obu
przypadkach – złożone zdania u dziecka, gra w siatkówkę u fok – reakcje
podlegające warunkowaniu nie wchodzą w pierwotny repertuar zachowań
organizmu. Nie mogą więc być wzmocnione dopiero wtedy, gdy pojawią
się w gotowej postaci. Kształtowanie złożonych reakcji polega na
wzmacnianiu fragmentów dłuższej sekwencji reakcji, a po ich utrwaleniu –
na wzmacnianiu dalszych fragmentów, aż do wyuczenia długiego
i skomplikowanego łańcucha zachowań. Schemat ten uzupełniono później
o wyjaśnienia w języku teorii społecznego uczenia się. Zgodnie z tą
koncepcją dziecko uczy się wypowiadania nowych słów i tworzenia
nowych struktur językowych przez naśladownictwo. Czynnikiem
wzmacniającym jest tutaj sam fakt naśladowania innego osobnika,
w szczególności kogoś ważnego lub stojącego wysoko w hierarchii
społecznej.
Urządzenie do przyswajania języka (language acquisition device, LAD) – hipotetyczny, wrodzony
mechanizm mózgowy, umożliwiający ludziom szybkie nabywanie reguł korzystania z języka
naturalnego.
Kompetencja językowa (linguistic competence) – według Noama Chomsky’ego wrodzona zdolność
człowieka do przyswajania języka. Jest ukryta i na początku nie przejawia się w wykonaniu, czyli
w umiejętności tworzenia gramatycznych wypowiedzi.

Teorio-uczeniową koncepcję przyswajania języka ostro zaatakował Noam


Chomsky (1959) w swojej słynnej recenzji książki Burrhusa F. Skinnera
(1957) Verbal learning and verbal behavior. Zdaniem Chomsky’ego proces
nabywania języka jest zdeterminowany wrodzonymi strukturami
mózgowymi, swego rodzaju urządzeniem do przyswajania języka
(language acquisition device, LAD). Dziecko nie dysponuje gotową wiedzą
językową, a jedynie wyspecjalizowanym, wrodzonym aparatem do jej
przyswajania (ramka 13.3). Chomsky odróżnia bowiem kompetencję
językową od wykonania. Kompetencja jest ukryta i na początku nie
przejawia się w wykonaniu, czyli w umiejętności tworzenia gramatycznych
wypowiedzi. W miarę przyswajania języka kompetencja przeradza się
w wykonanie, co wymaga kilkuletniego okresu ćwiczenia, a przede
wszystkim ekspozycji na działanie konkretnego języka naturalnego
(polskiego, francuskiego, chińskiego). Według autora jednak ekspozycja
i ćwiczenie niewiele by dały, gdyby nie wrodzona, ukryta kompetencja
językowa dziecka. Mamy tu więc do czynienia ze stanowiskiem
umiarkowanie natywistycznym, choć i w tej postaci wzbudziło ono wiele
krytyki.

Chomsky posługuje się kilkoma ważkimi argumentami. Po pierwsze, istoty


języka nie tworzą, w jego mniemaniu, słowa, lecz struktury syntaktyczne,
a te są ukryte i przez to trudne do bezpośredniego utrwalania poprzez
wzmocnienia pozytywne. Można za pomocą wzmocnień zmienić częstość
używania określonych słów w określonych sytuacjach, ale czy można w ten
sam sposób zmienić częstość używania czegoś, co jest ukryte pod słowami,
a co stanowi o istocie komunikatu językowego? Uważa się, że rodzice
reagują bardziej na treść niż na formę wypowiedzi dziecka,
w szczególności na treści mogące mieć znaczenie dla wychowania lub
oceny moralnej. Bardziej interesuje ich np. to, czy dziecko kłamie, niż to,
czy domniemane kłamstwo wyrażono w poprawnej formie gramatycznej.
W takim razie, jak zauważa John Brown (1958), w życiu społecznym
powinno być mało kłamców, a dużo osób wyrażających się
niegramatycznie, a tymczasem mamy sporo gramatycznie wysławiających
się kłamców. Widocznie wzmocnienia rodzicielskie nie są zbyt skuteczne,
jeśli chodzi o zachowania ryzykowne moralnie, mimo że są na nie
bezpośrednio nakierowane. Cóż dopiero mówić o skuteczności wzmocnień
nakierowanych na abstrakcyjne reguły gramatyki. Po drugie, struktur
gramatycznych raczej nie uczymy się wprost, w sposób jawny. Wyjątkiem
jest oczywiście edukacja szkolna, ale przecież dziecko posługuje się już
w pełni gramatycznym językiem, zanim pójdzie do szkoły, nie mówiąc
o tym, że ludzie przyswajali sprawności językowe, zanim w ogóle
wymyślili szkołę jako system formalnej edukacji. Po trzecie, ludzie –
zwłaszcza małe dzieci – używają zdań, których nie mieli okazji wcześniej
usłyszeć. Nie jest zatem możliwe, aby takie zdania były wyuczone na
drodze warunkowania sprawczego czy nawet przez naśladownictwo.

RAMKA 13.3

Uniwersalna gramatyka
Noam Chomsky jest jednym z najsłynniejszych i najwybitniejszych
językoznawców w historii. Jego koncepcje są szeroko dyskutowane
i krytykowane, nie mniej niż jego lewicowe poglądy polityczne.

Problem natywizmu w przyswajaniu języka jest bodaj najbardziej


„gorącym” tematem w debatach nad wkładem tego autora do
psychologii, językoznawstwa, filozofii i nauk kognitywnych. Według
Chomsky’ego dziecko nie może się nauczyć języka na drodze
warunkowania, ponieważ wypowiada zdania, których nigdy nie słyszało,
a ponadto popełnia błędy (zob. błąd hiperregularyzacji), których nigdy
nie byłoby w stanie podsłuchać u dorosłych. Wobec tego dziecko musi
dysponować wrodzoną kompetencją językową, której na początku nie
ujawnia, ale która stanowi podłoże procesu przyswajania języka. Dzięki
niej proces ten jest niezwykle szybki i wydajny. Chomsky sądził, że ta
wrodzona kompetencja językowa, którą odróżniał od wykonania,
przybiera postać uniwersalnej gramatyki: systemu reguł leżących
u podłoża każdego języka i określających zasady poprawnego łączenia
słów w zdania. Teoria ta nie głosi, że wszystkie języki mają identyczną
strukturę gramatyczną, ujawnianą na odpowiednio głębokim poziomie
analizy. Nie głosi też, że ludzie są wyposażeni w jakąś strukturę
w mózgu, odpowiedzialną za tworzenie zdań według reguł gramatyki
czy za rozumienie przekazów językowych zgodnie z tymi regułami.
Teoria głosi jedynie, że ludzie są w sposób wrodzony przygotowani do
przyswajania złożonego systemu symbolicznego, jakim jest język,
ponieważ wszystkie języki mają wspólne podłoże syntaktyczne.

Pogląd o istnieniu niezmienników językowych (language invariants),


czyli uniwersalnych form lingwistycznych, obecnych w każdym ludzkim
języku, podzielają badacze skądinąd krytyczni wobec Chomsky’ego. Na
przykład Anna Wierzbicka (1999), przedstawicielka językoznawstwa
kognitywnego, krytykuje Chomsky’ego za nadmierny nacisk kładziony
na syntaktyczną stronę języka, a niedocenianie strony semantycznej.
Sama Wierzbicka, na podstawie badań m.in. języków rdzennych
mieszkańców Australii, rozwija koncepcję niezmienników
semantycznych. Są to pojęcia pierwotne, obecne w każdym języku,
z których można „lepić” pojęcia złożone. Pojęciami pierwotnymi są np.
„ja” i „ty”, ale już nie „my”. „My” można bowiem utworzyć, dodając
„ja” i „ty”. Z kolei „oni” to „nie my”, czyli „nie ja i nie ty”.
Deklarowanym przez Wierzbicką celem jej badań jest odkrycie pełnej
listy niezmienników semantycznych, które jej zdaniem pełnią taką samą
funkcję, jak postulowana przez Chomsky’ego uniwersalna gramatyka.
Według Idy Kurcz (2000) przez pojęcie uniwersalnej gramatyki należy
obecnie rozumieć gramatykę sensu largo, czyli każdy system
niezmienników lingwistycznych, czy to ściśle gramatycznych, czy to
semantycznych, dzięki którym możliwe jest uchwycenie tego, co
wspólne wszystkim ludzkim językom. Dzięki istnieniu takich wspólnych
cech każde ludzkie dziecko może łatwo i szybko opanować język, na
którego oddziaływanie jest eksponowane.

Argumenty Chomsky’ego nie pozostały bez reakcji. Przede wszystkim do


tej pory nie opisano dokładnie owego hipotetycznego mózgowego
mechanizmu przyswajania języka, mimo znacznych postępów
w obrazowaniu pracy mózgu. Dodajmy, że ośrodki mózgowe
odpowiedzialne za produkcję mowy i jej rozumienie są znane i od dawna
zlokalizowane. Argument o niemożności wzmacniania używania reguł
syntaktycznych, ponieważ są ukryte, można podważyć, odwołując się do
wiedzy na temat warunkowania. Udzielając wzmocnienia pozytywnego lub
negatywnego, modyfikujemy nie tylko tę reakcję, na którą intencjonalnie
chcieliśmy wpłynąć, ale wszystkie reakcje, które się w tym samym czasie
pojawiły. Dziecko mówi np. o sobie: „Nie zbiła Krzysia”. Podejrzewamy je
o kłamstwo i intencjonalnie karcimy za treść, ale przy okazji,
nieintencjonalnie, karzemy też za nieprawidłową formę wypowiedzi. Poza
tym, nie jest dowiedzione, że rodzice nie reagują na nieprawidłowości
syntaktyczne, koncentrując się głównie na treści wypowiedzi. Zapewne
reagują na jedno i drugie. Inna sprawa, że w behawiorystycznych
koncepcjach języka w ogóle nie było miejsca na abstrakcyjne reguły, więc
przedstawione rozumowanie jest swoistą nadinterpretacją, przychylną dla
zwolenników teorii uczenia się. Argument, że przyswajanie reguł
gramatycznych ma postać niejawną, wydaje się najłatwiejszy do zbicia.
Behawioryści nigdy nie twierdzili, że warunkowaniu musi towarzyszyć
świadomość osoby warunkowanej co do przedmiotu i celu warunkowania.
Przeciwnie, proces warunkowania niejako ze swej natury polega na tym, że
osoba warunkowana nie musi sobie zdawać sprawy z tego, że podlega
działaniu wzmocnień, a osoba warunkująca – że ich udziela. Najtrudniejszy
jest chyba argument o twórczości językowej, czyli zdolności do tworzenia
zdań, których się nigdy wcześniej nie słyszało. Wydaje się, że można by tu
użyć argumentu o generalizacji reakcji: raz uwarunkowana reakcja, np.
dobrze opanowana struktura zdaniowa, ma tendencję do ujawniania się
w różnych wariantach i modyfikacjach. Jest to zjawisko wręcz typowe dla
procesów warunkowania. Do tego trzeba dodać generalizację bodźca, czyli
tendencję nowo opanowanej reakcji do ujawniania się w coraz to nowych
sytuacjach, pod warunkiem że istnieje jakieś podobieństwo między
sytuacją pierwotną a sytuacją, w której zachodzi transfer.
Instynkt językowy (language instinct) – według Stevena Pinkera wrodzona zdolność człowieka do
szybkiego przyswajania języka naturalnego w kontekście społecznym.

Mimo krytyki wczesnych tez Chomsky’ego obecnie przeważa pogląd, że


przyswajanie języka dokonuje się z dużym udziałem czynników
wrodzonych. Steven Pinker (2003) widzi wyraźną analogię między
zachowaniem werbalnym człowieka a zachowaniem instynktownym
zwierząt. Jeśli ptak ma instynktowną zdolność do budowania gniazda,
człowiek ma instynktowną zdolność do mówienia, swego rodzaju instynkt
językowy. Jak w przypadku każdego instynktu, chodzi o gotowość do
wykształcenia określonych struktur, a nie o to, że są one dane w gotowej
postaci. Dziecko musi być eksponowane na działanie komunikatów
językowych, co zresztą obserwujemy od najwcześniejszych etapów
rozwoju. Dzięki tej ekspozycji, która musi nastąpić w okresie
sensytywnym (kilka pierwszych lat życia dziecka), uruchamiają się
odpowiednie struktury mózgowe, w wyniku czego proces przyswajania
języka uzyskuje nadzwyczajne przyspieszenie i wydajność. Byłby to więc
jeszcze jeden przykład ścisłego współdziałania tego, co wrodzone, z tym,
co nabyte.
Jak wspomniano wcześniej, ośrodki mózgowe odpowiedzialne za
produkcję mowy i jej rozumienie są znane i od dawna zlokalizowane.
Mimo że „urządzenie do przyswajania języka” nie zostało, jak na razie,
dokładnie zidentyfikowane, można wyróżnić struktury mózgowe, których
aktywność i zmiany rozwojowe pozostają związane z przyswajaniem
języka. Są to przede wszystkim sieci neuronalne obejmujące od dawna
znane ośrodki Broki i Wernickego – zakręt czołowy dolny, zakręt
skroniowy górny i środkowy, a także korę przedruchową (Berwick,
Fiederici, Chomsky, Bolhuis, 2013). Badania neuropsychologiczne oraz
badania z użyciem technik neuroobrazowania pokazują, że połączenia
między tymi obszarami, szczególnie tzw. droga grzbietowa między
ośrodkiem Wernickego a ośrodkiem Broki oraz korą przedruchową, są
istotne dla przyswajania języka. Sieć ta jest obecna w ludzkim mózgu od
urodzenia, a jej pełne dojrzewanie dobiega kresu około 7. roku życia, czyli
wtedy, kiedy kończy się okres sensytywny dla nabywania języka (tamże;
Kuhl, 2011).

Najważniejsze argumenty natywistów w sporze o przyswajanie języka to


(zob. Berwicki in., 2013; Kuhl, 2011; Kuhl, Riviera-Gaxiola, 2008; Leahey,
Harris, 2001; Lenneberg, 1967; Pinker, 2003):

1. Istnieją wyspecjalizowane struktury mózgowe odpowiedzialne za


przetwarzanie języka, których zmiany rozwojowe są skorelowane
z jego przyswajaniem.
2. Przyswajanie języka nie może być zahamowane. Nawet dzieci
kompletnie zaniedbane wychowawczo przyswajają własny język, np.
migowy, który spełnia podstawowe kryteria gramatyczności.
3. Stadialny porządek przyswajania sprawności językowych jest niezależny
od wychowania i wzorców kulturowych.
4. Tempo przyswajania pierwszego języka jest nadzwyczaj szybkie.
Przeciętny sześciolatek bez większego wysiłku uczy się 22 słów
dziennie (Bloom, Markson, 1998), podczas gdy osoba dorosła ucząca
się języka obcego z trudem przyswaja kilka nowych słów na tydzień.
5. Procesu przyswajania pierwszego języka nie da się znacząco
przyspieszyć mimo treningu.
6. Wyjaśnienie procesu przyswajania języka z odwołaniem się do zasad
warunkowania i uczenia się przez naśladownictwo, aczkolwiek
możliwe, wydaje się mocno dyskusyjne. Wykazano np., że dzieci
różnią się pod względem tego, jak często naśladują wyrażenia
dorosłych, ale częstość naśladowania nie wpływa na tempo i efekty
przyswajania języka (Bloom, 1991).
Mowa ukierunkowana na dziecko (child-directed speech) – szczególny sposób zwracania się do
dziecka przez dorosłych. Polega na modelowaniu zachowań werbalnych dziecka w następstwie
wielokrotnego powtarzania krótkich, ale syntaktycznie poprawnych zdań.

Zwolennicy tezy o przeważającej roli czynników środowiskowych (np.


Tomasello, 2005, 2008) nie lekceważą tych argumentów, ale zwracają
uwagę na stronniczość natywistów w prowadzeniu debaty i ich
selektywność w doborze faktów empirycznych. Podkreślają rolę
specyficznego sposobu komunikowania się z małym dzieckiem, zwanego
mową ukierunkowaną na dziecko (child-directed speech). Polega on na
modelowaniu zachowań werbalnych dziecka w następstwie wielokrotnego
powtarzania krótkich, ale syntaktycznie poprawnych zdań. Jeśli np. dziecko
powie: „Kot mleko”, dorosły prawdopodobnie odpowie: „Tak, kot pije
mleko”. W ten sposób dziecko nie jest karane za użycie niepoprawnej
składni, ale modelowane w kierunku użycia poprawnej. Charakterystyczną
cechą tego sposobu komunikowania się są też krótkie, ale intensywne
epizody ukierunkowywania uwagi dziecka na wspólnie spostrzegany
obiekt, np. zabawkę, czemu towarzyszy przekaz językowy w rodzaju „To
jest czerwona piłeczka”. Mowa ukierunkowana na dziecko jest czymś
w rodzaju „prywatnych korepetycji z języka ojczystego”, udzielanych
przez rodziców w ciągu kilku pierwszych lat życia dziecka. Przyswajanie
języka nie musi więc polegać na naśladowaniu języka dorosłych, lecz na
powtarzaniu tego, co specjalnie preparują oni na użytek dziecka.

Nowy impuls w przełamywaniu dominacji poglądów natywistycznych dał


konekcjonizm, a zwłaszcza próby modelowania procesu przyswajania
mowy poprzez sieci neuropodobne. Na przykład Jeff Elman (1999, 2001)
pokazał, że niezbyt skomplikowana sieć, pozbawiona jakichkolwiek
elementów „wrodzonej wiedzy językowej”, może się nauczyć
rozpoznawania struktur zdaniowych, jeśli udzieli jej się stosownej
informacji zwrotnej. Eksponował on sieć na działanie zdań rekurencyjnych,
które były zbyt trudne ze względu na swą złożoność. Kiedy jednak
„uszkodził” sieć, pozbawiając ją części możliwości obliczeniowych,
stwierdził, że proces uczenia nabrał tempa i wydajności. Autor sądzi, że
rozpoznawanie struktur zdaniowych, łącznie z poziomem syntaktycznym,
wymaga mniejszych możliwości przetworzeniowych, np. mniej pojemnej
pamięci roboczej. Ten paradoksalny efekt prawdopodobnie wiąże się z tym,
że system o „zbyt dużej” pojemności obejmuje nadmiar elementów
składniowych, podczas gdy system „ograniczony” skupia się tylko na
podmiocie i orzeczeniu, przez co uczy się dostrzegać to, co we frazie
najistotniejsze. Być może dzieci szybko opanowują struktury syntaktyczne
właśnie dlatego, że ich pamięć robocza nie jest jeszcze tak dobrze
rozwinięta, jak u dorosłych.

13.2.2. Stadia przyswajania języka


Poza nielicznymi wyjątkami proces przyswajania pierwszego języka jest
w zasadzie ukończony u progu 4. roku życia dziecka. Późniejsze nabytki
mają raczej charakter ilościowy (np. przyrost zasobu słownictwa) niż
jakościowy (np. opanowywanie struktur syntaktycznych). Trzeba tu jednak
odróżnić kompetencję językową dziecka od kompetencji komunikacyjnej
(Kurcz, 2000). Pierwsza jest w pełni ukształtowana już u trzylatka, podczas
gdy druga ciągle intensywnie ewoluuje wraz z rozwojem społecznym
dziecka. Skuteczne komunikowanie się wymaga opanowania
pragmatycznego poziomu języka, a ten wiąże się z rozumieniem sytuacji
społecznych i kontekstu, wnioskowaniem o stanie wiedzy partnera
i wieloma innymi złożonymi procesami poznawczymi. Dlatego rozwój
kompetencji komunikacyjnych dokonuje się nawet jeszcze po adolescencji.
Głużenie (cooing) – okres w przyswajaniu języka przez dziecko, polegający na częstym powtarzaniu
pojedynczych fonemów.
Gaworzenie (babbling) – okres w przyswajaniu języka przez dziecko, polegający na częstym
powtarzaniu sylab i łączeniu ich w dłuższe ciągi.

W 1. roku życia dziecko ćwiczy fonologię języka ojczystego. Przybiera to


postać charakterystycznych zachowań wokalnych, zwanych głużeniem,
czyli wypowiadaniem pojedynczych fonemów, i gaworzeniem, czyli
wypowiadaniem pojedynczych sylab. Ćwiczy też prozodię, tzn.
charakterystyczny dla każdego języka typ „zaśpiewu”; na prozodię składa
się intonacja, czyli czasowe zmiany wysokości wypowiadanych dźwięków,
a także akcent i rytm. Ważną rolę odgrywają na tym wczesnym etapie
dorośli, którzy dzięki charakterystycznemu sposobowi mówienia do
dziecka oswajają je z dźwiękową charakterystyką języka ojczystego. Ma to
olbrzymie znaczenie dla późniejszego rozwoju rozumienia komunikatów
werbalnych, ponieważ prozodia dostarcza ważnych wskazówek w procesie
deszyfrowania mowy (podział dźwięków na słowa i zdania, identyfikacja
trybu pytającego itd.) (Ferreira, 1993, 2002).
Mowa telegraficzna (telegraphic speech) – okres w przyswajaniu języka przez dziecko, polegający
na tworzeniu krótkich zdań z użyciwm pozbawionych poprawnego odmieniania form
gramatycznych.

Pierwsze słowa pojawiają się zwykle między 12. a 14. miesiącem życia,
choć przejawy ich rozumienia ujawniają się już po dziewięciu miesiącach
od urodzenia. Chodzi o słowa oznaczające rodziców lub opiekunów, nazwy
najczęściej obserwowanych przedmiotów lub substancji (np. woda),
określenia zwierząt domowych, niektóre wyrażenia społeczne (np.
pożegnanie typu „pa, pa!”), a także bardzo ważne słowo „nie!” (Gleitman,
Bloom, 1999). Przez cały 2. rok życia dziecko w zasadzie mówi
pojedynczymi wyrazami, co najwyżej łącząc je w krótkie zestawy bez
poprawnego odmieniania przez osoby, czasy i przypadki (np. „Mama
bawić”), co nazwano mową telegraficzną. Pozornie jest to mowa bez
gramatyki, jednak badania ujawniły, że u jej podłoża można odnaleźć
rozumienie struktur językowych i elementarną wiedzę syntaktyczną. Na
przykład dziecko, słysząc jeden z dwóch komunikatów: „Straszydło goni
ptaka” lub „Ptak goni straszydło”, kieruje wzrok ku monitorowi, na którym
widać akcję treściowo odpowiadającą komunikatowi werbalnemu (Hirsh-
Pasek, Golinkoff, 1996). Oznacza to, że dzieci w tym wieku są wrażliwe na
strukturę syntaktyczną zdania, choć nie potrafią jej jeszcze aktywnie użyć.
Zjawisko polegające na tym, że rozumienie wyprzedza artykulację, jest
typowe dla rozwoju mowy, jak również dla uczenia się języków obcych
przez osoby dorosłe (Kielar-Turska, 2000).
Błąd nadrozciągłości znaczeń (overextension error) – typowy błąd popełniany przez dziecko
przyswajające język; polega na włączaniu w obręb kategorii obiektów, które do niej nie należą.

Rozkwit dziecięcej kompetencji językowej obserwuje się w 3. roku życia.


Dziecko mówi już wówczas pełnymi, choć krótkimi zdaniami. Potrafi
operować trybami (przede wszystkim pytającym) i zdaniami podrzędnie
złożonymi (np. „Ciastko, co je zjadłem”). Nie znaczy to, że mowa dziecka
w tym wieku jest bezbłędna. Dwa najbardziej interesujące rodzaje błędów
dotyczą kategoryzowania i tworzenia struktur gramatycznych. Błąd
nadrozciągłości znaczeń (overextension error) polega na włączaniu
w obręb kategorii obiektów, które do niej nie należą. Na przykład wszystkie
istoty czworonożne dziecko początkowo nazywa psem, dopiero później
ucząc się różnicowania psów, koni i innych zwierząt. Charakterystyczne, że
znacznie rzadziej obserwuje się błędy symetryczne, polegające na
tworzeniu kategorii zbyt wąskich. Dziecko np. rzadko ogranicza nazwę
„pies” do psów określonego rozmiaru, rasy lub umaszczenia tylko dlatego,
że miało osobisty kontakt z określonym egzemplarzem. Powszechność
błędu nadrozciągłości znaczeń sugeruje, że w rozwoju poznawczym
występuje silna tendencja do abstrahowania i tworzenia uogólnień.
Najpierw wypróbowuje się przydatność kategorii ogólnej, a dopiero gdy
nie przystaje ona do rzeczywistości, zawęża się jej znaczenie. Byłby to
jeszcze jeden dowód na to, że w rozwoju poznawczym i językowym
przejawia się dążenie do odkrywania i wykorzystywania ogólnych reguł.
Błąd hiperregularyzacji (overregularization) – typowy błąd w procesie przyswajania języka przez
dziecko; polega na ignorowaniu wyjątków i przypadków szczególnych oraz skłonności do
stosowania zawsze regularnych struktur gramatycznych.

Interesujący jest też błąd hiperregularyzacji (overregularization): dziecko


ignoruje wyjątki i przypadki szczególne, stosując wszędzie regularne
struktury gramatyczne. Przejawia się to w używaniu zdań typu: „On ma
dwa braty” (= dwóch braci), albo „Pójdę do przedszkola, jak tam nie będzie
dzieciów” (= dzieci). Struktur tego rodzaju dziecko nie mogło podsłuchać
u dorosłych, zresztą są one dość uporczywe i oporne na wygaszanie. Fakt
ten wykorzystują zwolennicy natywistycznych koncepcji przyswajania
języka, argumentując, że podstawowe reguły syntaktyczne nie są nabywane
w drodze uczenia się.
Można pokusić się o podsumowanie, że pierwszy rok życia dziecka to
ćwiczenia w zakresie fonologii, prozodii i intonacji, drugi – to próby
konstruowania niegramatycznych zdań z ukrytą syntaksą, a trzeci rok to
ćwiczenie w pełni gramatycznych wypowiedzi i dopasowywanie ich do
potrzeb komunikacyjnych dziecka.

13.2.3. Dwujęzyczność i wielojęzyczność


Dawniej uważano, że osoba dwujęzyczna to taka, która płynnie i bez
wysiłku przechodzi z jednego języka na drugi i potrafi wyrazić dowolną
treść w każdym z nich (Bloomfield, 1933). We współczesnym ujęciu dwu-
i wielojęzyczność to zdolność do posługiwania się więcej niż jednym
językiem. Nie jest konieczna biegłość, porównywalna z biegłością
w języku ojczystym, bo ścisłe kryteria dwujęzyczności spełnia bardzo
niewiele osób (Grosjean, 1997). W liberalnym ujęciu osobą dwujęzyczną
jest każdy, kto opanował choć jeden język obcy w stopniu umożliwiającym
komunikowanie się. Może to polegać na opanowaniu tylko jednej
sprawności językowej, np. czytania, albo wszystkich sprawności, tj.
słuchania, czytania, mówienia i pisania (Wodniecka, 2004; Wodniecka-
Chlipalska, 2011).

Do pewnego momentu w rozwoju poznawczym drugi język przyswajamy


tak jak pierwszy, to znaczy szybko i bezwysiłkowo, korzystając
z „instynktu językowego”. Struktury nerwowe odpowiedzialne za
przetwarzanie języka czekają na wypełnienie konkretną zawartością. Jeśli
dziecko jest eksponowane na więcej niż jeden język, to przyswaja
wszystkie w ten sam sposób. W rezultacie posługuje się więcej niż jednym
językiem na tym samym poziomie, łącznie z idiomatyką i prozodią. W tym
etapie ważna jest spójność w tworzeniu przekazów językowych. Jeśli każde
z rodziców w wielokulturowej rodzinie porozumiewa się z dzieckiem we
własnym języku, obserwuje się równomierne rozdzielenie kompetencji
językowych. Dziecku nie mylą się języki, jak w przypadku dziewczynki
wychowywanej w rodzinie polsko-francuskiej, która użyła zwrotu: „Mama,
je vais pła!” (je vais = będę, mam zamiar, pła = skrótowe „płakać”).

Rozdzielenie języków może się dokonać według osób (np. z mamą po


polsku, z tatą po francusku) lub według dziedzin życia (np. rozmowa
w domu po polsku, zabawa z rówieśnikami po francusku)4. To ostatnie
zjawisko jest typowe dla dzieci emigrantów, które w domu posługują się
językiem ojczystym, a poza domem – językiem kraju osiedlenia.

Kiedy minie okres sensytywny przyswajanie drugiego języka dokonuje się


inaczej. Jest to wówczas proces powolny i wymagający wysiłku, a jego
efekty nigdy nie będą idealne. Nawet osoby o doskonałej płynności
wypowiedzi i ogólnie wysokiej kompetencji w drugim języku nie są
w stanie wyeliminować obcego akcentu, choć obserwuje się pod tym
względem ogromne zróżnicowanie międzyosobnicze. Ponadto osoby
o „późnej dwujęzyczności” zawsze ponoszą pewne koszty przetwarzania
informacji w drugim języku (Wodniecka, 2004; Wodniecka-Chlipalska,
2011). Ujawnia się to w zwiększonej podatności na błędy, a przede
wszystkim w znaczącym wydłużeniu czasu przetwarzania. Są to zmiany
introspekcyjnie niezauważalne, ale dość wyraźne (ramka 13.4). Do
kosztów dwujęzyczności zalicza się też interferencję między językami:
znajomość więcej niż jednego języka zwiększa ryzyko pomyłki w doborze
słów i wyrażeń, spowalnia procesy wydobywania słów z leksykonu
mentalnego i wymaga zwiększenia kontroli na etapie artykulacji, aby słowo
z jednego języka nie „wcisnęło się” w komunikat sformułowany w innym
języku. Zgodnie z hipotezą interferencji dwujęzyczność rodzi problemy
w zakresie przetwarzania obu języków: język obcy jest przetwarzany
gorzej jako opanowany później i na niższym poziomie, a przetwarzanie
języka ojczystego ulega pogorszeniu (głównie spowolnieniu) z powodu
konieczności zmagania się z intruzjami, czyli obcymi wtrętami słownymi
lub składniowymi.

RAMKA 13.4

Poznawcze koszty przetwarzania drugiego


języka
Zofia Wodniecka (2004) obmyśliła oryginalną procedurę badawczą do
oceny kosztów przetwarzania drugiego języka. Osoby badane
weryfikowały prawdziwość prostych wyrażeń arytmetycznych, np. 3 + 4
= 7. W połowie przypadków wyrażenie było prawdziwe, więc badany
powinien nacisnąć przycisk z literą P (prawda), podczas gdy druga
połowa wyrażeń wymagała reakcji F (fałsz, np. 3 + 4 = 8). Zadania te
eksponowano na trzy sposoby: wyłącznie z użyciem cyfr, z użyciem
słowa w języku ojczystym (zwanym przez autorkę pierwszym językiem,
L1) oraz z użyciem słowa w języku obcym (drugim języku, w tym
przypadku angielskim, L2). Słowa zastępowały ostatnią liczbę
w wyrażeniu, określającą prawdziwy lub fałszywy wynik działania
arytmetycznego. Były więc trzy warunki eksperymentalne, różniące się
tylko tym, co znajdowało się na ostatnim miejscu wyrażenia, np.

tab2

W każdym warunku prezentowano wzrokowo 40 wyrażeń, razem 120


wyrażeń ułożonych w jednolite bloki lub w porządku losowym.

Koszty przetwarzania drugiego języka szacowano w postaci różnicy


czasu reakcji. Odejmując średni czas reakcji w warunku z liczbami od
czasu w warunku L1, można było ocenić, jak kosztowne jest
przetwarzanie wyrażeń arytmetycznych w pierwszym języku,
a odejmując czas w warunku z liczbami od czasu warunku L2 – koszt
przetwarzania informacji w drugim języku. Okazało się, że tak obliczane
koszty były znacznie wyższe w warunku L2. Co więcej, okazały się one
szczególnie wysokie w przypadku nowicjuszy. Osoby o średnim
poziomie biegłości w drugim języku ponosiły znacznie niższe koszty,
porównywalne z tymi, które zaobserwowano w przypadku osób o dużym
poziomie biegłości (ryc. 13.3).

RYCINA 13.3. Koszty poznawcze przetwarzania informacji w drugim języku


Źródło: opracowanie własne na podstawie Wodniecka, 2004.

Liczenie uchodzi za czynność, którą w drugim języku opanowujemy


najpóźniej. U wielu osób dwujęzycznych da się więc zauważyć
„pozostałości” pierwszego języka podczas przetwarzania liczb w drugim
języku. Wielkość owych pozostałości, czyli koszty przetwarzania
informacji w drugim języku, mogą być podstawą oceny stopnia
zautomatyzowania procesów jego przetwarzania, a tym samym – stopnia
opanowania. Byłby to inny sposób oceny biegłości w drugim języku niż
testy i sprawdziany.

Dwu- i wielojęzyczność przynosi też skutki pozytywne w sferze


poznawczej, dlatego jest zjawiskiem interesującym nie tylko dla
psycholingwistów (Cook, 1997). Przede wszystkim osoby wielojęzyczne
funkcjonują na wyższym poziomie świadomości metajęzykowej.
Zwiększa się zakres ich refleksji nad naturą języka, np. nad arbitralnością
różnych rozwiązań lingwistycznych (zasad tworzenia liczby mnogiej,
fleksji lub jej braku itp.). Wyższy poziom świadomości metajęzykowej to
lepsze zrozumienie poznawczych i komunikacyjnych możliwości
tkwiących w systemie językowym, a co za tym idzie – lepsze ich
wykorzystanie. Innymi słowy, osoby wielojęzyczne wyrażają się bardziej
precyzyjnie, ponieważ staranniej dobierają słowa i struktury składniowe.
Wykazano ponadto, że osoby dwujęzyczne uzyskują wyższe wyniki
w testach wytwarzania dywergencyjnego, używanych jako miara zdolności
twórczych. Być może dysponując podwójnym leksykonem, mają one
bogatszą sieć skojarzeniową. Według teorii rozprzestrzeniającej się
aktywacji wzbudzenie jednego węzła sieci rozchodzi się do węzłów
sąsiednich. Im więcej węzłów w sieci, tym wyższe prawdopodobieństwo,
że pobudzenie dotrze do takiej jednostki znaczeniowej, która w danym
kontekście zadaniowym będzie nieoczekiwana lub mało prawdopodobna.
To może prowadzić do oryginalnych pomysłów, niezbędnych do
otrzymania wysokich wyników w testach myślenia dywergencyjnego (zob.
Gruszka, Nęcka, 2002).

Interesujące stanowisko przyjmuje Ellen Bialystok (2001; Bialystok, Craik,


Luk, 2012), która uważa, że dwujęzyczność przyczynia się do większej
selektywności uwagi i odrzucania informacji nieistotnych. Jeśli tak, to
osoby dwujęzyczne powinny uzyskiwać przewagę w większości zadań
poznawczych, ponieważ selektywność uwagi jest jednym z podstawowych
uwarunkowań skuteczności procesów przetwarzania informacji. Badania
empiryczne wydają się wspierać taką konkluzję. Bialystok i współautorzy
(2012) przeanalizowali wiele badań nad dwujęzycznością, zarówno czysto
behawioralnych, jak i z użyciem technik neuroobrazowania, i doszli do
wniosku, że pozytywny efekt dwujęzyczności, choć obecny ogólnie u osób
dorosłych, uwidacznia się szczególnie u osób starszych. W wielu badaniach
nad starzeniem się poznawczym stwierdzono, że objawy poznawczego
starzenia się, takie jak osłabienie funkcji zarządczych uwagi, są u osób
dwujęzycznych mniej nasilone niż u posługujących się tylko jednym
językiem. Według autorów nabywanie i używanie drugiego języka
prowadzi do powstania tzw. rezerwy poznawczej, która chroni przed
negatywnymi zjawiskami związanymi ze starzeniem się mózgu. Badania
fMRI dopełniają obrazu, pokazując, że przełączanie się z jednego języka na
drugi jest związane z aktywnością struktur będących podłożem
zarządczych funkcji uwagi: bocznej kory przedczołowej i przyśrodkowej
kory przedczołowej, w tym przedniej części zakrętu obręczy. Osoby
dwujęzyczne często wykazują przewagę w przełączaniu uwagi, a ich
łatwość przełączania się między językami jest związana z obustronną
aktywacją bocznych struktur w płacie czołowym (przede wszystkim
zakrętu czołowego dolnego), co różni je od osób jednojęzycznych,
u których ta aktywacja występuje głównie w prawej półkuli.

13.3. Mówienie
Aby cokolwiek powiedzieć, trzeba najpierw utworzyć mentalną
reprezentację przekazu i zaplanować jego wykonanie. Następnie trzeba
wybrać z pamięci semantycznej właściwe słowa o znaczeniu adekwatnym
do sensu przekazu, przypisać im stosowną formę gramatyczną i ułożyć we
właściwym porządku składniowym. Na końcu konieczne jest przełożenie
utworzonego wcześniej zdania na kod fonologiczny, czyli odpowiednią
sekwencję głosek. Tym trzem etapom odpowiadają wyspecjalizowane
procesy poznawcze.

13.3.1. Planowanie mowy


Planowanie mowy polega na podjęciu decyzji co do dwóch spraw: sensu
przekazu i intencji jego przekazania. Mówca musi wiedzieć, co chce
powiedzieć i w jakim celu. Te dwa aspekty są rozdzielne, ponieważ z sensu
nie zawsze wynika intencja, a intencja nie zawsze ściśle definiuje sens. Na
przykład treść mojej wypowiedzi może zawierać opis tego, jak będzie
przebiegał egzamin w zbliżającej się sesji, ale moją intencją może być
uspokojenie słuchaczy („Nie będzie tak strasznie”), ich zdyscyplinowanie
(„Musicie się pilniej uczyć”) lub przestraszenie („Na pewno nie zdacie!”).
Wbrew konotacji takich słów, jak „decyzja”, „cel” i „intencja”, planowanie
mowy jest procesem, do którego mamy bardzo ograniczony dostęp
introspekcyjny.
Zasada kooperacji (cooperative principle) – według Paula Grice’a reguła komunikowania się za
pomocą języka, według której mówca i odbiorca przekazu wzajemnie sobie pomagają.

Mówienie prawie zawsze zachodzi w kontekście społecznym, dlatego


planowanie mowy wymaga uwzględnienia pragmatycznego aspektu języka.
Mówca i słuchacz muszą ze sobą współdziałać, co Paul Herbert Grice
(1975) nazwał zasadą kooperacji (cooperative principle; ramka 13.5).
Owa zasada sprowadza się do tego, że obie strony wzajemnie sobie
pomagają: mówca tak planuje wypowiedź, aby odbiorca zrozumiał ją
zgodnie z pierwotnym sensem i intencją, a słuchacz stara się trafnie
interpretować intencje mówcy i sens jego wypowiedzi. W szczególności
zasada kooperacji wymaga wzajemnego uwzględnienia własnych
przekonań, oczekiwań i umiejętności komunikacyjnych, a przede
wszystkim wiedzy. Mówca łamie zasadę kooperacji, jeśli nie bierze pod
uwagę stanu umysłu słuchacza, a słuchacz – gdy ignoruje stan umysłu
mówcy. Na przykład, gdy żona mówi do męża: „Chyba już nie pada”, może
mieć na myśli fakt, że znikły przeszkody, aby wyjść na spacer z psem,
a przez to sugeruje, że należałoby to uczynić. Jeśli mąż odpowie: „To
chodźmy na spacer”, daje dowód współpracy, ale jeśli wygłosi uwagę:
„Tak, rzeczywiście, rozchmurzyło się”, łamie zasadę kooperacji. Ludzie
mogą łamać tę zasadę intencjonalnie, wtedy rozmowa jest rodzajem walki
i przejawem agresji, lub nieintencjonalnie, z powodu braku danych co do
przekonań, oczekiwań i wiedzy drugiej strony, a najczęściej z tego powodu,
że owe dane są niekompletne lub fałszywe.

RAMKA 13.5

Maksymy konwersacyjne
Paul Herbert Grice (1975) wyróżnił cztery maksymy konwersacyjne,
które mają ułatwiać stosowanie się do ogólnej reguły, jaką jest zasada
kooperacji. Jako językoznawca autor przyjął perspektywę normatywną,
wskazując na skuteczne sposoby porozumiewania się. Dla psychologów,
którzy preferują podejście deskryptywne, maksymy Grice’a są pomocne
w opisie i klasyfikacji błędów popełnianych przez ludzi w sytuacjach
wzajemnego porozumiewania się. Komunikacja zafałszowana lub
nieefektywna prawie zawsze wiąże się z ignorowaniem co najmniej
jednej z tych maksym.

1. Maksyma ilości. Komunikat powinien zawierać tyle danych, ile to


konieczne – nie więcej i nie mniej. Używanie nadmiernej liczby
szczegółów tylko pozornie podnosi konwersację na wyższy poziom,
ponieważ zalanie słuchacza detalami może mu utrudnić odbiór sensu
komunikatu. Dopasowanie się do optymalnego poziomu szczegółowości
wypowiedzi może być jednak trudne, jeśli nie znamy wystarczająco
dobrze rozmówcy, jego oczekiwań, przekonań i wiedzy.

2. Maksyma jakości. Mówca powinien mówić prawdę, ponieważ takie


będzie prawdopodobne oczekiwanie słuchacza. Ludzie zdają sobie
sprawę z tego, że komunikaty językowe mogą być kłamliwe, ale
wstępne, automatycznie przyjmowane założenie głosi, że są prawdziwe.
Kłamca łamie więc podstawową regułę dobrej komunikacji, chyba że
zdaje sobie sprawę, iż odbiorca o tym wie.

3. Maksyma relacji. Mówca powinien mówić na temat, bez dygresji


i odbiegania od głównego wątku. Jeśli jednak dygresja czemuś służy,
maksyma relacji nie zostaje złamana.

4. Maksyma sposobu. Mówca powinien używać środków wyrazu


dostępnych odbiorcy. Chodzi o wystarczająco głośną i wyraźną
artykulację, a ponadto o nieużywanie słów i wyrażeń, których słuchacz
nie zrozumie ze względu na brak wiedzy lub możliwości technicznych.

Planowanie mowy dokonuje się z uwzględnieniem wspólnej płaszczyzny


(common ground; Horton, Keysar, 1996), czyli podzielanych przez obie
strony konwersacji elementów wiedzy, często niejawnej. Osoby blisko ze
sobą związane porozumiewają się swoistym szyfrem, zrozumiałym tylko
dla nich, ponieważ ich komunikacja jest wspomagana olbrzymią liczbą
wspólnych, milcząco przyjmowanych założeń. Nawet wtedy jednak
konieczne jest ustalenie wspólnej płaszczyzny, bo w przeciwnym wypadku
porozumienie nie będzie możliwe. Nawet ludzie doskonale siebie
nawzajem rozumiejący muszą od czasu do czasu sprawdzić, o czym jest
mowa i czy obie strony

przyjmują podobne założenia. Jeśli porozumiewają się osoby obce,


ustalenie wspólnej płaszczyzny może być bardzo trudne. William Horton
i Boaz Keysar (tamże) twierdzą, że proces ten przybiera dwie postaci.
W pierwszym przypadku mówca, planując wypowiedź, od początku
przyjmuje określone założenia co do wspólnej wiedzy i odpowiednio do
nich dobiera treść wypowiedzi. W przypadku drugim mówca w sposób
ciągły monitoruje proces porozumiewania się, aby w razie potrzeby
zmienić początkowy plan i dopasować go do odbiorcy. W trakcie rozmowy
często korzystamy z werbalnych i niewerbalnych wskazówek
informujących nas o tym, czy nasz przekaz „trafia” do odbiorcy. Jeśli
mamy wrażenie, że „nie trafia”, możemy zmienić początkowy plan,
a przede wszystkim odpowiednio do rezultatów monitorowania planować
kolejne wypowiedzi. Ludzie różnią się i pod względem wrażliwości na
wskazówki tego rodzaju, i gotowości do zmiany początkowego planu
w wyniku monitorowania. Ponadto strategia ciągłego monitorowania
i dopasowania jest bardziej kosztowna poznawczo, bo oprócz regularnych
procesów planowania mowy wymaga uruchomienia procesów kontrolnych.
Niemniej ta właśnie strategia prowadzi do lepszych rezultatów, jeśli chodzi
o wzajemne porozumiewanie się.

Planowanie mowy jest minimalnie przesunięte w czasie w stosunku do


realizacji planu. Oznacza to, że wypowiadając zaplanowane wcześniej
słowa, jesteśmy już mentalnie przy następnym fragmencie wypowiedzi,
przez co bieżąca kontrola tejże nie jest doskonała. Świadczą o tym
charakterystyczne błędy językowe, zwane przejęzyczeniami,
w szczególności błędy antycypacji. Na przykład dziewczyna mówi do
chłopaka: „Piciu, co ci zrobić do misia?”. Oznacza to, że wypowiadając
pierwsze słowo, którym według planu miało być „Misiu”, mentalnie była
już przy słowie ostatnim, które miało brzmieć „picia”. Głoska „p”
z ostatniego słowa wcisnęła się na sam początek, ponieważ początkowe
słowo zostało zaplanowane ułamek sekundy wcześniej, a później było już
poznawczo „zaniedbane”. W rezultacie powstało przejęzyczenie polegające
na antycypującej zamianie – w tym przypadku tylko pojedynczych
fonemów, ale niekiedy dotyczy ono całych słów wraz z właściwymi
formami gramatycznymi.

Zdecydowana większość takich zamian dokonuje się wewnątrz frazy


zdaniowej (Garrett, 1975), co oznacza, że jednostką planowania mowy jest
właśnie fraza. Na przykład przygotowanie do wypowiedzenia zdania:
„Pewien chłopiec kupił cukierek w sklepie” (zob. ryc. 13.2), wymaga
najpierw zaplanowania frazy „Pewien chłopiec”, a dopiero w drugiej
kolejności frazy „kupił cukierek w sklepie”. Wobec tego może się pojawić
przejęzyczenie typu: „kupił sukierek w sklepie”, podczas gdy jest
niezwykle mało prawdopodobne, aby ktoś powiedział: „Sewien chłopiec
kupił cukierek w sklepie”.

Przetwarzając frazę, mamy do czynienia ze szczególnym przypadkiem


interferencji, wynikającej z wykonywania dwóch czynności jednocześnie.
Jedna z nich to planowanie wypowiedzi, a druga – realizacja planu, czyli
wypowiadanie wcześniej zaplanowanych fraz. Mimo że pierwsza czynność
tylko minimalnie wyprzedza drugą, obie wzajemnie sobie przeszkadzają.
Interferencja nie przenosi się jednak na sąsiednie frazy, co oznacza, że fraza
jest jak gdyby osobnym pakietem wypowiedzi. Interesujące, że pakietami
nie są ani struktury wyższego rzędu (zdania, dłuższe fragmenty tekstu), ani
struktury niższego rzędu (słowa, części fraz). W pierwszym przypadku
planowanie byłoby przypuszczalnie zbyt trudnym zadaniem dla pamięci
roboczej, która musiałaby przechować w czynnej postaci zbyt wiele
jednostek wiedzy semantycznej. W drugim przypadku planowanie byłoby
poznawczo niewydolne i właściwie nie spełniałoby swoich funkcji. Nic by
nam nie dało zaplanowanie zbyt krótkiego fragmentu wypowiedzi, np.
„cukierek w sklepie”, bo taki fragment – choć niesie określone znaczenie –
pozbawiony jest komunikacyjnego sensu. Dopiero fraza jest jednostką
sensu, a zatem jednostką planowania mowy. Świadczą o tym również
pauzy w trakcie mówienia, których zdecydowana większość następuje
między frazami, co sugeruje, że w ich trakcie dokonuje się planowanie
następnej frazy.

13.3.2. Kodowanie semantyczno-syntaktyczne


Po wypracowaniu sensu i intencji trzeba przekształcić myśli w słowa.
Proces ten, zwany leksykalizacją, wymaga zaangażowania trzech
poziomów języka: semantycznego, syntaktycznego i fonologicznego.
Uważa się, że leksykalizacja jest procesem co najmniej dwuetapowym
(Garret, 1975; Levelt, 1989). Przedstawiony dalej opis jest próbą syntezy
ujęć teorii dwuetapowych ze szczególnym uwzględnieniem koncepcji
Willema Levelta.
Lemma (lemma) – według Willema Levelta abstrakcyjna postać słowa, obejmująca jego znaczenie,
funkcję syntaktyczną pełnioną w zdaniu oraz wskaźniki fonologiczne.

Według Levelta (1989) pierwszy etap leksykalizacji polega na wyborze


lemm. Terminem lemma5 określa się abstrakcyjną postać słowa,
obejmującą trzy elementy: (1) jego znaczenie; (2) funkcję syntaktyczną
przewidzianą dla niego w przyszłym zdaniu; (3) wskaźniki fonologiczne,
czyli wstępne dane dotyczące sposobu jego wymawiania. W uproszczeniu
lemma to „syntaktyczne słowo”. Weźmy dla przykładu zdanie:

Podszedł do dziewczynki.

Zanim mówca wypowie pierwsze słowo, musi je uaktywnić w postaci


lemmy, to znaczy przedstawić sobie w umyśle jego sens i funkcje
składniowe. Na lemmę słowa „podszedł” składają się następujące
elementy: (1) czynność aktywna, (2) polegająca na zbliżaniu się do obiektu
(3) za pomocą naturalnej lokomocji, (4) wykonywana przez człowieka lub
zwierzę (5) rodzaju męskiego, (6) która będzie centralnym elementem frazy
czasownikowej przyszłego zdania. Zatem lemma słowa „podszedł” to
umysłowa reprezentacja wiedzy, na którą składają się elementy 1–6.
Z kolei lemma słowa „dziewczynka” może być przedstawiona jako suma
następujących elementów wiedzy: (1) osoba (2) niepełnoletnia (3) rodzaju
żeńskiego, (4) pełniąca funkcję rzeczownika w przyszłej frazie nominalnej,
podrzędnej w stosunku do frazy czasownikowej zdania głównego. Lemma
jest więc pośrednikiem między znaczeniem a jego konkretną realizacją
dźwiękową. Samo znaczenie ma postać zbyt ogólną, np. „podejść”,
„dziewczynka”, przez co nie nadaje się do konstrukcji frazy. Poza tym
znaczenie słowa nie zawiera żadnych informacji na temat jego brzmienia
i sposobu wymawiania – jest cząstką wiedzy, zapisaną w formie pojęciowej
lub propozycjonalnej. Natomiast wyartykułowane słowo jest już konkretną
realizacją znaczenia, która nie może się pojawić bez wcześniejszego
ustalenia jego gramatycznych funkcji, a przez to jego budowy (np. odmiana
przez osoby i przypadki) oraz sposobu artykulacji. Pośrednicząc między
znaczeniem, czyli umysłową treścią pojęcia, a słowem, czyli dźwiękową
realizacją znaczenia, lemma ułatwia utworzenie semantyczno-
syntaktycznego kodu przyszłego zdania. Kod ten można przedstawić
w postaci drzewka derywacyjnego, które określa nie tylko to, jakie słowa
zostaną wypowiedziane, lecz także to, jaką będą pełnić funkcję we frazie
i w całym zdaniu.
Efekt końca języka (tip-of-the-tongue phenomenon) – stan polegający nie niezdolności do
przypomnienia sobie konkretnego słowa, mimo przekonania, że się nim dysponuje.

Dowodów na obecność tego etapu wytwarzania mowy szukano przede


wszystkim, podejmując analizę błędów językowych. Szczególnie ważne są
tutaj obserwacje nad efektem końca języka (tip-of-the-tongue
phenomenon). Przypuśćmy, że zadamy pytanie, jakim słowem określa się
rezygnację osoby panującej z przysługujących jej praw do tronu. Spora
liczba osób badanych nie będzie umiała udzielić odpowiedzi, choć będzie
przekonana, że zna odpowiednie słowo. Powiemy, że osoba badana nie
potrafi wyartykułować słowa „abdykacja”, choć ma je na końcu języka. Co
więcej, niektórzy badani będą w stanie poprawnie określić, jaką literą
zaczyna się to słowo, ile ma sylab i czy zawiera głoskę „c”. Zdaniem
Levelta świadczy to o tym, że lemma zawiera nie tylko znaczenie i funkcję
składniową przyszłego słowa, lecz także wskaźniki fonologiczne, czyli
wstępne informacje dotyczące jego brzmienia. Nie jest to pełna forma
brzmieniowa, a jedynie szczątkowe wskazówki, które przypuszczalnie
ułatwiają nam późniejsze odnalezienie szukanego słowa w umysłowym
leksykonie.

Wielu badaczy wątpi, czy konieczne jest kodowanie przekazu w postaci


lemm (np. Dell, 1986, 1995). Argumentują oni, że wytwarzając mowę,
korzystamy z bezpośrednich połączeń między znaczeniem słowa a jego
brzmieniem. Połączenia te mają działać w obie strony: w procesie
mówienia znaczenie bezpośrednio przekłada się na brzmienie, a w procesie
rozumienia mowy – odwrotnie. Wydaje się, że odwołanie się do zasady
oszczędności pojęciowej (brzytwa Ockhama), jakkolwiek w ogóle
wskazane, w tym wypadku nie jest uzasadnione. Kodowanie przekazu ma
bowiem charakter semantyczno-syntaktyczny, więc przekształcenie
znaczenia na dźwięki musi być przez coś zapośredniczone. Wyobraźmy
sobie, że wypowiadając opinię o niskim poziomie artykułu prasowego,
używamy wyrażenia: „To jest dno dna”. Gdyby nasz umysł przekładał
znaczenia bezpośrednio na wypowiadane słowa, nigdy taki przekaz by nie
powstał. Uaktywnienie znaczenia „dno” nie daje żadnych wskazówek, jak
skonstruować całą frazę. Musimy wiedzieć, że jedno „dno” jest „dnem”
drugiego „dna”, a więc to samo znaczenie jest użyte podwójnie, ale
w całkiem innej funkcji składniowej. Musimy zejść z poziomu znaczeń na
poziom lemm, bo tylko tam znajdziemy wskazówki syntaktyczne. Jedna
lemma definiuje nam orzeczenie, a druga dopełnienie, przez co relacja
między dwoma „dnami” staje się klarowna. Gdybyśmy chcieli naszą opinię
zradykalizować, wydając ocenę: „dno dna bezdenne”, umożliwi nam to
reprezentacja w postaci trzech lemm; w każdym razie same znaczenia nie
wystarczą, aby skutecznie zakodować przekaz. Nie może być też tak, że
najpierw przywołujemy znaczenia, a następnie układamy je we właściwym
porządku, według reguł składni. Sam dobór słów jest bowiem
podporządkowany potrzebom syntaktycznym przyszłego zdania.
W zależności od jego struktury możemy potrzebować takich, a nie innych
znaczeń. Z kolei struktura zdania podporządkowana jest wcześniej
zaplanowanemu sensowi przekazu, a ten składa się ze znaczeń. Tak więc
w procesie wyboru lemm semantyczne i syntaktyczne aspekty języka
nawzajem się determinują, a przy tym działają jednocześnie. Dlatego
lemma jest przydatnym konstruktem pojęciowym opisującym proces
wytwarzania mowy, ponieważ odnosi się do czegoś więcej niż znaczenie
rozumiane jako cząstka wiedzy, a czegoś mniej niż konkretne,
wyartykułowane słowo.

13.3.3. Kodowanie fonologiczne


Leksem (lexeme) – jednostka umysłowego słownika (leksykonu mentalnego), czyli konkretne słowo
z odpowiadającym mu znaczeniem.

Po dokonaniu wyboru lemm fraza jest gotowa pod względem semantyczno-


syntaktycznym, ale niegotowa do wymówienia. Musi teraz nastąpić drugi
etap leksykalizacji, którym jest wybór leksemów. Terminem tym określa
się jednostkę umysłowego słownika (leksykonu mentalnego), na który
składają się konkretne słowa odpowiadające określonym znaczeniom.
W przypadku synonimów (np. samochód, auto) jednemu znaczeniu
odpowiadają dwa leksemy, a w przypadku homonimów (np. zamek) – dwu
znaczeniom odpowiada jeden leksem. Ponadto leksemy są swoiste dla
każdej formy gramatycznej słowa. Na przykład pojęcie „koń” niesie jedno,
określone znaczenie, któremu mogą odpowiadać liczne leksemy, takie jak
koń, konie, koniom, końmi itd. Leksykonem mentalnym nazywamy zbiór
wszystkich leksemów, którymi dysponuje konkretny użytkownik języka.
A może on dysponować więcej niż jednym leksykonem, jeśli jest
wielojęzyczny.

Wybór leksemów to faza, którą Levelt nazywa „wypełnieniem szczeliny”


między myślą a brzmieniem. Do tej pory wypowiedź nie była kodowana
dźwiękami, z wyjątkiem naprowadzających wskaźników fonologicznych,
stanowiących część lemmy. Od tej pory wypowiedź przyjmuje już postać
dźwiękową, co oznacza ukończenie procesu szyfrowania myśli w postaci
dźwięków mowy. W jednej z ostatnich wersji teorii Levelta (2001; Levelt,
Roelofs, Meyer, 1999) ten etap wytwarzania mowy nazywa się
kodowaniem formy wypowiedzi i obejmuje trzy podetapy. Najpierw
przywoływane są z pamięci głoski, składające się na przyszłą wypowiedź.
Są one ustawiane w takim porządku, w jakim będą za chwilę wymówione.
Następnie ustala się sylabizację i prozodyzację wypowiedzi. Sylabizacja
jest niezbędna, bo ten sam ciąg głosek może być różnie pokawałkowany
w zależności od formy gramatycznej słowa, np. „koń”, „ko-nie”, „koń-ski”.
Ponadto te same głoski wymawia się różnie zależnie od tego, jaką tworzą
sylabę. Na przykład głoska „o” brzmi nieco inaczej, gdy mówimy „koń”,
a inaczej, gdy używamy tego słowa w dopełniaczu („konia”). Dzięki tym
subtelnym różnicom odbiorca komunikatu uzyskuje cenne wskazówki
ułatwiające mu dekodowanie mowy. Równie cenną wskazówką jest
prozodia (Ferreira, 1993, 2002). Charakterystyczna intonacja, akcent i rytm
pozwalają szybciej przeprowadzić segmentację wypowiedzi (zob.
podrozdz. 13.4.1), a przede wszystkim szybciej i sprawniej dokonać
rozbioru zdania (zob. podrozdz. 13.4.2). Właśnie dzięki wskaźnikom
prozodycznym zdania „ślepej uliczki” (zob. dalej paradygmat 13.1) są
łatwiejsze do zrozumienia w mowie niż w piśmie (Beach, 1991).
W językach, w których akcent jest stały (np. w polskim lub francuskim),
sposób akcentowania zdań dostarcza szczególnie cennych wskazówek
w procesie deszyfracji mowy. Ostatni etap to kodowanie fonetyczne, czyli
wybór odpowiednich wzorców artykulacyjnych dla każdej sylaby. Autor
twierdzi, że w pamięci przechowujemy zbiór najczęściej używanych sylab
(jest ich około 500), które tworzą swoisty „sylabarz” – strukturę
analogiczną do słownika umysłowego. W wyniku kodowania fonetycznego
odpowiednie wzorce artykulacyjne są przywoływane z pamięci, a następnie
przekształcane w dźwięki mowy, czym jednak teoria Levelta już się nie
zajmuje.

Teoria Levelta jest obecnie najbardziej rozbudowanym i najlepiej


uzasadnionym modelem wytwarzania mowy (zob. Indefrey, Levelt, 2004).
Na jego korzyść przemawiają dane empiryczne, w szczególności analiza
błędów i przejęzyczeń. Błędy te są zasadniczo dwojakiego rodzaju (Levelt,
2001). Po pierwsze, obserwuje się błędy semantyczne, które polegają na
zastąpieniu jakiegoś słowa wyrazem bliskoznacznym (np. koń – szkapa)
albo należącym do kategorii nadrzędnej (koń – zwierzę) lub podrzędnej
(koń – ogier). Są to błędy wynikające z niedostatecznie starannego wyboru
lemm6. Po drugie, błędy mogą mieć charakter fonetyczny, gdy właściwa
głoska zostaje wyparta przez głoskę podobną, ale błędną (np. podać –
dodać) albo gdy używamy zupełnie innego słowa tylko dlatego, że jest
fonetycznie podobne do tego, co chcieliśmy wyrazić (np. historyczny –
histeryczny). Błędy drugiego rodzaju są wynikiem nie dość starannego
wyboru leksemów. Inna grupa danych potwierdzających teorię dwóch
etapów: wyboru lemm i wyboru leksemów, to obserwacje z badań nad
działaniem dystraktorów. Eksperymenty te polegają na tym, że osoba
badana opisuje treść obrazka; przypuśćmy, że znajduje się na nim koń.
W tym samym czasie eksponuje się słowo-dystraktor, które jest podobne do
słowa „koń” semantycznie (np. ogier, klacz) lub fonetycznie (np. goń,
słoń). Dystraktory semantyczne wydłużają czas potrzebny na zainicjowanie
wypowiedzi i zwiększają ryzyko wystąpienia błędu semantycznego,
ponieważ prawdopodobnie zakłócają proces wyboru lemm. Nie mają one
jednak żadnego wpływu na pojawienie się błędów fonetycznych. Z kolei
dystraktory drugiego rodzaju nie przyczyniają się do powstania błędów
semantycznych, choć zwiększają prawdopodobieństwo pomyłek
fonetycznych. Co więcej, charakter tych błędów da się przewidzieć na
podstawie tego, jaki dystraktor fonetyczny się pojawił i w którym
momencie, ponieważ dystraktory te prawdopodobnie zakłócają proces
wyboru leksemów (Levelt, 2001). Na korzyść tej koncepcji przemawia też
fakt, że stworzono jej wersję obliczeniową w postaci programu
WEAVER++ (Levelt i in., 1999), który generuje efekty przewidywane
przez teorię i zgodne z obserwacjami empirycznymi.

Koncepcja ta jest jednak krytykowana przez autorów, którzy sprzeciwiają


się dzieleniu procesu wytwarzania mowy na odrębne etapy. Są to głównie
przedstawiciele konekcjonizmu, którzy tworzą tzw. interakcyjne modele
mówienia. Chodzi o interakcję między różnymi poziomami komunikatu
werbalnego: fonetycznym, semantycznym, syntaktycznym
i pragmatycznym. Na przykład Gary Dell (1986, 1995) uważa, że
wytwarzanie mowy angażuje jednocześnie wszystkie poziomy języka. Co
więcej, procesy pozornie późniejsze, np. kodowanie fonologiczne,
wpływają na procesy pozornie wcześniejsze, takie jak dobór znaczeń
i tworzenie intencji wypowiedzi. Dell sądzi, że znaczenia i brzmienie
wszystkich dostępnych nam słów tworzą rozległą sieć, podobną do sieci
semantycznych. W klasycznych modelach sieciowych węzłami sieci były
znaczenia; tutaj są nimi słowa na wszystkich poziomach analizy, a także
reguły syntaktyczne. Wstępnie aktywowany węzeł takiej sieci,
reprezentujący część planowanego przekazu, aktywuje węzły sąsiednie,
zgodnie z modelem rozprzestrzeniającej się aktywacji. Pobudzenie sieci
doprowadza do uaktywnienia konkretnych leksemów. Ich aktywizacja
zwrotnie oddziałuje na te elementy sieci, które reprezentują planowany
sens przekazu. W przypadku niezgodności słów z sensem może nastąpić
korekta, przy czym zmiany mogą dotyczyć każdego poziomu przekazu, od
dźwięków poprzez słowa aż do pojęć. Po dokonaniu korekty i uzyskaniu
spójności sieć generuje ciąg głosek, czyli sensowną wypowiedź. Model
Della zasługuje na uwagę jako próba opisu samoorganizującej się sieci
zdolnej do wytwarzania mowy. Modele etapowe, zwłaszcza wczesny model
Levelta (1989), stoją pod tym względem na nieco gorszej pozycji,
ponieważ niezbyt dobrze sobie radzą z problemem homunculusa: „ktoś”
siedzi w umyśle i planuje wypowiedź, od czego zaczyna się cały proces
leksykalizacji. Modele interakcyjne są wolne od tego zarzutu, ale – jak się
wydaje – nieco gorzej sobie radzą z wyjaśnieniem wszystkich faktów
empirycznych, zwłaszcza błędów i przejęzyczeń.

13.4. Rozumienie przekazów językowych


Rozumienie przekazów językowych jest jednym z najtrudniejszych
i najbardziej złożonych zadań poznawczych, z czego zazwyczaj nie
zdajemy sobie sprawy, ponieważ znaczna część zaangażowanych w tę
czynność procesów przebiega automatycznie. Rozumienie wymaga przede
wszystkim uaktywnienia odpowiednich struktur wiedzy, zapisanych
w pamięci trwałej, głównie semantycznej. Ponadto konieczne jest
intensywne wykorzystanie pamięci roboczej, często na granicy jej
wydolności. W rozumieniu biorą również udział procesy myślenia,
rozumowania i wnioskowania. Ale wszystkie te złożone procesy
poznawcze nie miałyby sensu, gdyby nie elementarne procesy percepcyjne,
odpowiedzialne za sensoryczną analizę komunikatu słownego lub
pisemnego. Znaczna część tego podrozdziału będzie poświęcona
rozumieniu mowy, ale procesy zaangażowane w tę czynność zazwyczaj
biorą również udział w przetwarzaniu tekstów pisanych. Przedstawione
idee oparto głównie na fundamentalnych pracach Waltera Kintscha i Teuna
Van Dijka (Kintsch, 1988, 1998; Kintsch, Van Dijk, 1978; Van Dijk,
Kintsch, 1983) dotyczących rozumienia tekstu.

13.4.1. Złamanie kodu


Pierwszym zadaniem słuchacza jest dokonanie podziału nieprzerwanego
potoku głosek na jednostki (segmenty), odpowiadające poszczególnym
słowom lub związkom frazeologicznym. Do słuchacza dociera np. ciąg
głosek:

wczorajbyłasobotaiposzliśmydokina,

Segmentacja (segmentation) – mentalny podział ciągu fonemów na poszczególne słowa lub frazy,
warunkujący rozumienie komunikatu werbalnego.

co jest swoistym szyfrem. Aby coś z tego zrozumieć, trzeba złamać kod,
w którym zapisano sens wypowiedzi, czyli w pierwszej kolejności rozłożyć
ciąg fonemów na segmenty. W piśmie segmentacja dokonuje się dzięki
znakom spacji; w przekazach ustnych nie ma jawnych znaków
rozdzielających, w związku z czym słuchacz musi wykonać to zadanie sam.
Kierowanie się pauzami, jakie czyni mówca, może być zwodnicze,
ponieważ mają one również funkcję poznawczą (ułatwiają mu
zaplanowanie wypowiedzi), a nie tylko komunikacyjną. Dlatego dłuższe
pauzy pojawiają się zazwyczaj między frazami, czyli zbyt rzadko, aby
mogły służyć jako pomoc w segmentacji. Pauzy krótsze pojawiają się
wewnątrz fraz, ale nie zawsze rozdzielają słowa. Na przykład końcówka
przedstawionego komunikatu – „…do kina” – w wymowie raczej nie
będzie rozdzielona pauzą między słowem „do” a słowem „kina”, choć
w piśmie jest rozdzielona spacją. Dlatego dokonując segmentacji, słuchacz
musi kierować się innymi wskazówkami, takimi jak prozodia (intonacja,
akcent, rytm), kontekst ogólny, a przede wszystkim kontekst
wewnątrzjęzykowy. Wracając do podanego przykładu, pierwsza głoska nic
nam nie mówi, bo słów zaczynających się od „f” jest bardzo wiele7; dwie
początkowe głoski „fč” znacznie zawężają liczbę kandydatów, a trzecia
głoska sugeruje, że prawie na pewno chodzi o słowo „wczoraj” lub
pochodne (np. „wczorajszy”).
Model kohorty (cohort model) – koncepcja, według której słuchacz rozpoznaje słowa,
systematycznie zawężając listę potencjalnych „kandydatów”, czyli zmniejszając kohortę możliwych
jednostek leksykalnych aż do momentu, gdy nie będzie innego wyboru.

Proces identyfikacji poszczególnych słów w potoku żywej mowy dobrze


opisuje model kohorty (Marslen-Wilson, 1987; Marslen-Wilson, Tyler,
1980), według którego słuchacz rozpoznaje słowa, systematycznie
zawężając listę potencjalnych „kandydatów”, czyli zmniejszając kohortę
możliwych jednostek leksykalnych aż do momentu, gdy nie będzie innego
wyboru. Słowo „wczoraj” jest rozpoznawalne już po pierwszych czterech
głoskach (fčor…), co oznacza, że w tym momencie kohorta została
zawężona do jednego elementu. Oznacza to również, że dwie ostatnie
głoski (aj) są nadmiarowe. Taka redundancja jest typowa dla języków
naturalnych, a przy tym funkcjonalna, ponieważ słuchacz, wiedząc, o jakie
słowo chodzi, zanim mówca je wypowie do końca, może przeznaczyć dany
mu „za darmo” czas na antycypację kolejnych słów, a także na inne procesy
uwikłane w rozumienie komunikatu werbalnego.

Złamanie kodu nie ogranicza się bowiem do trafnej segmentacji. Jego istotą
i sensem jest przekład kodu akustycznego na znaczenia, czyli elementarne
porcje wiedzy przechowywane trwale w pamięci w postaci pojęć. Podział
potoku słów na jednostki tylko wtedy ma sens, gdy te ostatnie odpowiadają
czemuś sensownemu, czyli poszczególnym znaczeniom. Wynika z tego, że
w procesie deszyfracji mowy współwystępują dwie czynności: segmentacja
i odczyt znaczeń zapisanych w pamięci semantycznej. Zresztą obie
czynności nawzajem się wspomagają. Segmentacja byłaby niemożliwa bez
wstępnej hipotezy na temat znaczenia słowa: tylko znaczenie eliminuje
kolejne elementy z kohorty, aż do momentu, gdy wyeliminuje się
wszystkich kandydatów z wyjątkiem jednego. W języku obcym
segmentacja po prostu nie jest możliwa, nawet jeśli ktoś mówi do nas
głośno i wyraźnie. Zarazem jednak bez stopniowo postępującej segmentacji
odczyt znaczeń byłby bardzo utrudniony, a na pewno spowolniony.
Dorosły, wykształcony człowiek dysponuje leksykonem w liczbie około
100 000 słów. Odnalezienie w tak rozległym magazynie właściwego słowa
we właściwym momencie jest bardzo dużym wyzwaniem dla systemu
poznawczego i jego ograniczonych możliwości. Dzięki stopniowemu
ograniczaniu kohorty liczba potencjalnych znaczeń gwałtownie maleje.
Łatwiej nam przywołać wszystkie znaczenia słów zaczynających się na
„fč...” (np. „fčesny, fčuwa) niż słów zaczynających się na f. Poza tym raz
zidentyfikowane słowo, np. „fčoraj”, działa jako pryma semantyczna
(semantic prime), czyli ułatwia przetwarzanie słów zbliżonych
znaczeniowo. Słowa pojawiające się w przekazie jako dalsze będą tym
samym identyfikowane szybciej, pod warunkiem że okażą się w jakiś
sposób powiązane semantycznie z wyrazem „wczoraj”.
Łamanie kodu akustycznego u dorosłych posługujących się językiem
ojczystym dokonuje się automatycznie i bezwysiłkowo. Stanowi jednak
poważne wyzwanie dla kogoś, kto posługuje się słabo opanowanym
językiem obcym. Osoba taka nie ma wykształconych umiejętności
automatycznego dzielenia potoku fonemów na słowa, przez co nie jest
w stanie wiele zrozumieć mimo dobrej niekiedy znajomości
poszczególnych wyrazów. Znaczenia, zakodowane w postaci pojęć, nie
uaktywniają się, przez co nie jest możliwe zrozumienie przekazu. Dla takiej
osoby tekst nabiera sensu po przekształceniu go w formę pisemną. Istotną
przeszkodą jest też niewykształcona umiejętność wykorzystywania
prozodii języka w celu identyfikowania słów i typowych związków
frazeologicznych. Kiedy Anglik pyta: How are you?, a Francuz: Qu’est-ce
que c’est?, słyszymy charakterystyczny zaśpiew, który jest ważną
wskazówką rozpoznania sensu.

Łamanie kodu akustycznego jest trudne nie tylko dlatego, że w żywej


mowie brak jawnych wskazówek umożliwiających segmentację, lecz także
ze względu na fakt, że czynność ta musi się dokonać w czasie
rzeczywistym. Podczas czytania możemy zawsze wrócić do
wcześniejszych fragmentów, nie mówiąc już o tym, że w polu widzenia
zawsze znajduje się więcej niż jedna litera – zwykle całe słowo lub nawet
fraza. W przypadku rozumienia mowy słuchacz musi dekodować przekaz
w czasie rzeczywistym i w tempie narzuconym mu przez mówcę. Aby to
zadanie było w ogóle wykonalne, mówcy stosują rozmaite strategie
ułatwiające zrozumienie, np. wielokrotnie mówią to samo, lekko
parafrazując swoje wypowiedzi, korzystają z niewerbalnych wskazówek
sugerujących brak zrozumienia po stronie słuchacza itd. W procesie
konwersacji obie strony stosują tego rodzaju strategie, wzajemnie
ułatwiając sobie zadanie. Jest to jeden z przejawów tzw. zasady kooperacji
(Grice, 1989). Ponadto źródłem niezwykle cennych wskazówek są
intonacja, akcentowanie sylab i rytm wypowiedzi, czyli prozodyczne
aspekty języka (Brown, 2017; Ferreira, 1993, 2001). To właśnie z ich
pomocą dokonujemy skutecznej deszyfracji, mimo że musimy to uczynić
w czasie rzeczywistym, a warunki odbioru nie zawsze są optymalne.

13.4.2. Rozbiór zdania


Gdy uda nam się podzielić potok wymowy na poszczególne jednostki
znaczeniowe, możemy ulec złudnemu przekonaniu, że oto zrozumieliśmy
treść wypowiedzi. Byłby to wniosek nad wyraz przedwczesny, o czym
przekonuje się każdy początkujący użytkownik języka obcego: zdanie
przetłumaczone ze słownikiem słowo po słowie rzadko ujawnia swój sens
bez wniknięcia w ukryte relacje między słowami i bez wyróżnienia funkcji
pełnionych przez każde z nich. Kolejny etap rozumienia wymaga bowiem
logiczno-gramatycznego rozbioru zdania (parsing), czyli przede
wszystkim wyróżnienia sprawcy (podmiot) i czynności (orzeczenie) oraz
odróżnienia tych kluczowych elementów przekazu od atrybutów
(przymiotniki) i okoliczności (np. przysłówki lub zdania podrzędne).
Bardzo ważnym zadaniem jest też poprawne odczytanie relacji
zakodowanych spójnikami (np. lub, albo, i, zatem, jeśli).

Psychologiczne procesy rozbioru zdania w niczym nie przypominają


żmudnej czynności znanej nam ze szkolnych lekcji gramatyki. Każdy
użytkownik języka potrafi dokonać rozbioru zdania, nawet jeśli nigdy nie
słyszał takich terminów, jak „podmiot”, „orzeczenie”, „przydawka” czy
„dopełnienie”. Rozbiór zdania polega na utworzeniu umysłowej
reprezentacji jego treści, czyli zbudowania „w wyobraźni” czegoś na
kształt drzewka derywacyjnego (ryc. 13.1). Uważa się, że w jego wyniku
tworzy się struktura poznawcza w formie propozycjonalnej, czyli w postaci
sądu o obiektach i łączących je relacjach. Utworzenie takiej reprezentacji
wymaga uaktywnienia wiedzy gramatycznej, która w większości jest
ukryta, czyli trudna do zwerbalizowania. Wymaga też uwzględnienia
wiedzy semantycznej, przywołanej z pamięci trwałej już na etapie łamania
kodu. W trakcie rozbioru zdania semantyka bardzo silnie wspomaga
syntaksę. Widać to szczególnie wyraźnie na przykładzie zdań
wieloznacznych, zwanych też zdaniami „ślepej uliczki” (paradygmat 13.1),
takich jak:

Podszedł do dziewczyny z kwiatkiem.

Zdanie to można zrozumieć przynajmniej na trzy sposoby, z których jeden


jest znaczeniowo absurdalny: mianowicie, że mężczyzna wspólnie
z kwiatkiem podeszli do dziewczyny. Kwiatki nie chodzą, więc tę
interpretację można od razu odrzucić. Pozostają dwie inne: mężczyzna
podszedł do dziewczyny, która trzymała kwiatek, albo mężczyzna, który
trzymał w ręku kwiatek, podszedł do dziewczyny. Większość osób,
zapytanych o to, jaką sytuację opisuje podane zdanie, wybierze ostatnią
interpretację. Pierwsza jest od razu eliminowana, ponieważ w polu
semantycznym pojęcia „kwiatek” nie mieści się umiejętność chodzenia.
Interpretacja druga wydaje się możliwa, ale mniej prawdopodobna, co
wynika z wiedzy ogólnej, że to raczej mężczyźni dają kobietom kwiaty,
a nie odwrotnie. Gdyby zdanie miało postać:

Podszedł do dziewczynki z kwiatkiem,

druga interpretacja uzyskałaby znacznie więcej wyborów.

Paradygmat 13.1
Zdania „ślepej uliczki” (garden path sentences)

Zdania „ślepej uliczki” to szczególny rodzaj zdań dwuznacznych.


Analizując ich treść słowo po słowie, słuchacz buduje wstępną interpretację
sensu, aby w pewnym momencie przekonać się, że był w błędzie. Zdanie
takie jak gdyby „wpuszcza słuchacza w maliny”, np.

Chłopiec odbił piłkę ręką potrącając kolegę.


Trzeba porozmawiać o uczniach pijących alkohol z dyrektorem szkoły.
Niezależnie od liczby stopni swobody nie miałem.
Henryk został porzucony odjechał.
Henryk został porzucony samochód znaleziono w rowie.

Zdania „ślepej uliczki” są przejawem złego stylu pisarskiego. Piszący nie


zdaje sobie sprawy z dwuznaczności budowanych przez siebie zdań, bo
sam rozumie je jednoznacznie. Nie tworząc alternatywnego modelu
mentalnego, mówca nie bierze pod uwagę, że ktoś mógłby to uczynić
i zrozumieć przekaz niezgodnie z intencją nadawcy. Aby uniknąć
nieporozumień, piszący powinni używać jednoznacznych rozwiązań
składniowych, jak również umiejętnie operować interpunkcją. Wszystkie
przytoczone zdania tracą swą dwuznaczność po dodaniu przecinka:

Chłopiec odbił piłkę, ręką potrącając kolegę.


Chłopiec odbił piłkę ręką, potrącając kolegę.
Trzeba porozmawiać o uczniach pijących alkohol z dyrektorem szkoły.
Niezależnie od liczby stopni, swobody nie miałem.
Henryk został, porzucony odjechał.
Henryk został, porzucony samochód znaleziono w rowie.
Henryk został porzucony, samochód znaleziono w rowie.
W przekazie mówionym funkcję przecinka powinny pełnić znaki
prozodyczne, przede wszystkim pauzy i zmiany intonacji.

Zdania „ślepej uliczki” są często używane jako materiał w badaniach


psycholingwistycznych, ponieważ pozwalają weryfikować konkurencyjne
modele procesu rozbioru zdania. Typowa procedura (zob. np. Christianson,
Hollingworth, Halliwell, Ferreira, 2001) polega na wizualnej ekspozycji
zdania słowo po słowie, w tempie stałym (np. 150 ms na słowo plus 20 ms
na każdą literę) lub regulowanym przez osobę badaną. Zdania mogą też być
eksponowane od razu w pełnej postaci. W pewnym momencie zdanie jest
usuwane z ekranu, a osoba badana ma odpowiedzieć na pytanie dotyczące
jego treści, np. „Czy Henryk został porzucony?”. Mierzy się czas potrzebny
na udzielenie odpowiedzi oraz stopień subiektywnego zaufania osoby
badanej do swojego sądu. Kiel Christianson i współpracownicy (tamże)
wykazali, że czas odpowiedzi zależy od takich czynników, jak długość
zdania, obecność lub nieobecność znaku przestankowego czy obecność lub
nieobecność dodatkowego słowa usuwającego dwuznaczność (np. „Henryk
został a porzucony odjechał”). Manipulując takimi zmiennymi, badacz
może analizować ukryte procesy logiczno-gramatycznego rozbioru zdania.
W niektórych eksperymentach (np. Frazier, Rayner, 1982) dodatkowo
analizuje się ruchy gałek ocznych, próbując na tej podstawie dociekać
sposobu analizy zdania.

Zasada późnego domknięcia – reguła, że ustalenie granicy, poza którą zaczyna się nowa fraza
zdaniowa, dokonuje się najpóźniej, jak to możliwe.

Badania prowadzone w paradygmacie „ślepej uliczki” pozwoliły wykryć


kilka prawidłowości logiczno-gramatycznego rozbioru zdania. Pierwsza
z nich to zasada późnego domknięcia, która głosi, że odbiorca stara się
domknąć frazę najpóźniej, jak się da (Frazier, Rayner, 1982). Domykanie
frazy polega na ustaleniu granicy, poza którą zaczyna się nowa fraza
zdaniowa. Na przykład w dwuznacznym zdaniu:

Henryk został porzucony samochód znaleziono w rowie

pierwszą frazę można zamknąć już po drugim słowie („Henryk został”)


albo dopiero po trzecim słowie („Henryk został porzucony”). W zależności
od tego, gdzie ustanowimy granicę między frazami, dokonamy zasadniczo
różnej interpretacji zdania. W pierwszym przypadku porzucony jest
samochód (w domyśle: po kradzieży), a Henryk został (w domyśle:
w domu lub na jakimś spotkaniu); w drugim przypadku porzucony jest
Henryk (w domyśle: przez żonę, narzeczoną lub kochankę), a samochód po
prostu znaleziono w rowie. Z zasady późnego domknięcia wynika, że
bardziej prawdopodobna będzie interpretacja druga. Hipotetyczny parser
zachowuje się tak, jak gdyby chciał objąć pierwszą frazą jak najwięcej
słów, przez co w zdaniach „ślepej uliczki” wpada w pułapkę. Być może
zasada późnego domknięcia jest przejawem ogólnej zasady skąpstwa
poznawczego. Umysł ludzki „skąpi” swoich zasobów, a im więcej fraz
w zdaniu, tym więcej tych zasobów trzeba wydatkować w celu dokonania
jego rozbioru (Daneman, Carpenter, 1980, 1983; King, Just, 1991).
W związku z tym nie tworzy się nowej frazy tak długo, jak tylko jest to
możliwe. Dane empiryczne z badań behawioralnych na temat związków
pojemności pamięci roboczej ze sprawnością w zakresie analizy zdań
„ślepej uliczki” nie są jednak konkluzywne (zob. Waters, Caplan, 1996),
chociaż badania fMRI pokazują zaangażowanie struktur leżących
u podstaw pamięci roboczej (grzbietowo-bocznej kory przedczołowej oraz
kory ciemieniowej) w przetwarzanie takich zdań (Novais-Santos i in.,
2007).
Gdy odbiorca stwierdzi dwuznaczność zdania, musi ponownie dokonać
jego rozbioru, co wydłuża czas analizy. Niekiedy odbiorca nie zauważa
dwuznaczności, zwłaszcza gdy obie interpretacje są dopuszczalne,
a w każdym razie żadna nie jest absurdalna, jak w przypadku wcześniej
cytowanego zdania o Henryku. Ale nawet wtedy, gdy dwuznaczność
wychodzi na jaw, pierwsza interpretacja nie zawsze zostaje odrzucona.
Powtórna analiza zdania może więc być nie całkiem kompletna,
a w umyśle odbiorcy tkwią aktywne pozostałości pierwszej analizy.
Wykazali to Christianson i współpracownicy (2001), prosząc osoby badane
o wyrażenie stopnia subiektywnego zaufania do sądów opartych na
wstępnej, pozornie odrzuconej analizie zdań „ślepej uliczki”, jak również
sądów opartych na powtórnej analizie, usuwającej dwuznaczność. Badani
darzyli jednakowo dużym zaufaniem odpowiedzi poprawne oparte na
powtórnej analizie, co odpowiedzi błędne oparte na analizie wstępnej.
Byłby to interesujący przejaw sztywnego utrzymywania się sądów mimo
ich nieadekwatności. Autorzy konkludują, że logiczno-gramatyczny rozbiór
zdania niekoniecznie prowadzi do interpretacji idealnych; często przynosi
po prostu interpretacje „dość dobre” czy kompromisowe (zob. Ferreira,
Christianson, Hollingworth, 2001). Zdaniem autorów interpretacja
przekazu raczej nie jest pełna i dokładna, a kończy się tak szybko, jak tylko
odbiorca uzna, że coś zrozumiał. Podczas nieformalnej konwersacji
kryteria tego, co subiektywnie akceptowalne, mogą być znacząco
osłabione, co skutkuje dużą liczbą interpretacji błędnych lub
kompromisowych. Jeśli natomiast wynik rozmowy jest ważny, kryteria
mogą zostać wyostrzone. Tak czy inaczej, logiczno-gramatyczny rozbiór
zdania prowadzi do interpretacji, która jest subiektywnie akceptowalna,
choć obiektywnie może odbiegać od tego, jak można by w ogóle takie
zdanie zinterpretować.
W momencie gdy dokona się rozbiór zdania, użytkownik języka przechodzi
na poziom, który Chomsky nazwałby strukturą głęboką. Od tej pory
powierzchniowa struktura zdania, a więc kod fonologiczny i zastosowane
rozwiązania syntaktyczne, przestaje się liczyć, ponieważ nie warunkuje już
zrozumienia. W konsekwencji owa powierzchniowa warstwa komunikatu
językowego jest bardzo szybko zapominana. Nawet gdy treść zdania jest
przechowana bardzo dobrze, jego forma zanika najpóźniej po kilkunastu
sekundach (Bransford, Franks, 1971). Wyjątkiem są zdania, które tracą
sens, jeśli się ich nie zapamięta w postaci dosłownej, np. dowcipy słowne.
Ludzie, którzy „zarzynają” dowcipy, to po prostu ofiary ogólnego prawa
psychologicznego, które głosi, że powierzchniowa forma wypowiedzi jest
zapominana tak szybko, jak tylko zostanie zbudowana reprezentacja
głęboka. Uważa się (zob. np. Van Dijk, Kintsch, 1983), że po dokonaniu
rozbioru zdania treść przekazu przechowywana jest w postaci
propozycjonalnej, tj. sądów składających się z predykatów (np. czynność,
atrybut) i argumentów (np. podmiot zdania).

Języki różnią się ze względu na to, jak działa w nich hipotetyczny parser,
czyli struktura odpowiedzialna za rozbiór zdania. W języku angielskim,
w którym kolejność wyrazów w zdaniu jest dość sztywna, a rzeczowniki
poprzedzające inne rzeczowniki mogą funkcjonować przymiotnikowo (np.
Snake River = Rzeka wężowa), główne zadanie parsera polega na
przypisaniu poszczególnym słowom odpowiednich funkcji, np. podmiotu,
orzeczenia lub dopełnienia. W językach fleksyjnych, w których forma
gramatyczna słowa różni się w zależności od osoby, czasu i trybu, szyk
wyrazów w zdaniu może być luźniejszy. Inwersja słów w języku
angielskim może całkowicie zmienić sens zdania, jak w przykładach:

John loves Mary


i

Mary loves John.

Inwersja w języku polskim nieco przesuwa akcenty, ale zasadniczo nie


powoduje zmiany znaczenia:

Jaś kocha Małgosię

Małgosię kocha Jaś.

Dlatego w przypadku języka polskiego parser odpowiada przede wszystkim


za prawidłową interpretację wskazówek fleksyjnych (końcówki definiujące
rodzaj, czas i tryb gramatyczny), a w mniejszym stopniu za interpretację,
który z rzeczowników dotyczy sprawcy, a który – jego atrybutów. Istotnym
zadaniem parsera w większości języków indoeuropejskich jest analiza
zaimków względnych (np. ten, ta) oraz spójników (np. który).
Nieumiejętne operowanie tymi wyrazami wprowadza dwuznaczność, którą
może usunąć tylko sprawny rozbiór zdania, jak w przypadku zdania:
„Wypił tego popołudnia piwo, które było bardzo upalne”.

13.4.3. Budowa modelu sytuacyjnego i wnioskowanie


Model sytuacyjny (situation model) – poznawcza reprezentacja szerszego kontekstu, w którym
dokonuje się analiza treści komunikatu językowego.

Zdania rzadko występują pojedynczo, zazwyczaj tworzą dłuższy tekst lub


dialog. W związku z tym rozumienie komunikatu werbalnego nie może się
zakończyć wraz z rozbiorem zdania. Kolejny krok to budowa poznawczej
reprezentacji szerszego kontekstu, w jakim zanurzony jest przekaz. Zdanie:
„Podszedł do dziewczyny z kwiatkiem”, może być różnie zrozumiane,
w zależności od tego, czy stanowi część opowiadania o randce,
o pokojowej manifestacji czy o uroczystości ślubnej. Poznawcza
reprezentacja szerszego kontekstu ma charakter nietrwały i przybiera
postać modelu mentalnego (zob. rozdz. 2); na gruncie psycholingwistyki
ten rodzaj reprezentacji nosi nazwę modelu sytuacyjnego (Van Dijk,
Kintsch, 1983; Zwaan, Radvansky, 1998).

Model sytuacyjny jest niezbędnym warunkiem zrozumienia, jeśli przekaz


zawiera wiele luk wymagających wypełnienia w drodze wnioskowania.
Zrozumienie zdania: „Henryk został, porzucony odjechał”, wymaga
pewnego wysiłku intelektualnego, nawet jeśli wcześniej dokonano
poprawnego rozbioru logiczno-gramatycznego. Za tymi czterema słowami
kryje się cała historia: zapewne jest to opowieść o rywalizacji dwóch
mężczyzn o kobietę, która porzuciła nieznanego nam z imienia osobnika
i wybrała Henryka. Skoro tak, to ów nieszczęśnik musiał być wcześniej
z kobietą w dłuższym związku, bo inaczej nie uzyskałby statusu
porzuconego. Z kolei Henryk, jako zwycięzca rywalizacji, pozostał przy
kobiecie w sensie dosłownym (jest teraz przy niej) lub metaforycznym (jest
z nią związany, ale fizycznie też mógł wyjechać). Możemy ten model
sytuacyjny uzupełniać do woli w zależności od własnej wyobraźni, przy
czym tylko niektóre elementy są rzeczywiście niezbędne do zrozumienia.

Jak twierdzą Gail McKoon i Roger Ratcliff (1992), niektóre wnioski są


wyciągane automatycznie przez każdego odbiorcę komunikatu, ponieważ
warunkują usunięcie elementarnej niespójności lub dwuznaczności.
Dotyczy to w szczególności kwestii, do czego odnosi się zaimek względny
lub kto jest podmiotem w zdaniu. Inne wnioski wykraczają daleko poza
dosłowny sens przekazu (Graesser, Singer, Trabasso, 1994). Wprowadzają
przez to niepotrzebny nadmiar, który może utrudnić porozumienie,
zwłaszcza jeśli odbiorca domyśla się zbyt wiele, budując na podstawie
ograniczonej liczby przesłanek rozbudowaną, ale pozbawioną podstaw
interpretację.

Budowę modelu sytuacyjnego kształtuje wiele czynników, przede


wszystkim znajomość tematu. Wystarczy krótki fragment prozy opatrzyć
tytułem, aby znacząco poprawić jego zrozumienie i przechowanie treści
w pamięci (Bransford, Johnson, 1972). Instrukcja obsługi pralki staje się
zupełnie niezrozumiała, jeśli słowa typu „prać” lub „odwirować” zastąpić
mniej oczywistymi odpowiednikami, a przed wszystkim – gdy pozbawić ją
tytułu. Z podobnym zjawiskiem mamy do czynienia, gdy student słucha
wykładu na zupełnie nieznany mu temat. Zrozumienie poszczególnych
słów czy nawet zdań nie prowadzi do zrozumienia sensu wykładu,
ponieważ nie jest możliwe zbudowanie modelu sytuacyjnego. Model to
swoisty mikrokosmos, zawierający podstawowe informacje na temat osób,
przedmiotów, czynności, okoliczności, czasu i innych istotnych elementów
sytuacji, której dotyczy przekaz lub w której ramach dokonuje się
konwersacja. Powstaje on w umyśle słuchacza jednocześnie drogą oddolną,
tj. na podstawie wcześniej rozebranych zdań, których treść jest zapisana
w formie propozycjonalnej, jak również drogą odgórną, na podstawie
ogólnej wiedzy i znajomości kontekstu. Oprócz znajomości tematu, na
budowę modelu sytuacyjnego mają wpływ schematy poznawcze i skrypty,
które jak gdyby definiują sens przekazu językowego, udzielając nam
informacji, o co chodzi i o czym, ogólnie rzecz ujmując, mówimy. Gdy
w restauracji podchodzi do nas kelner i pyta: „Czy coś podać?”, nie mamy
trudności ze zrozumieniem treści pytania. To samo pytanie byłoby trudne,
gdyby zadał je konduktor w pociągu.
Schemat narracyjny (narrative schema, pl. schemata) – jednostka wiedzy zorganizowana ze
względu na epizody.
Szczególną rolę w rozumieniu przekazów językowych odgrywają tzw.
schematy narracyjne, czyli elementy wiedzy zorganizowane ze względu
na epizody (Kintsch, 1977). Każdy epizod ma swoją dynamikę, czyli
zawiązanie akcji, jej rozwinięcie i rozwiązanie, podobnie jak w antycznej
tragedii i klasycznej prozie narracyjnej. Według schematów narracyjnych
organizujemy swoją pamięć autobiograficzną: wydarzenia z własnej
przeszłości są wielokrotnie powtarzane, z zachowaniem kolejności
i dynamiki zdarzeń. Często dochodzi wówczas do zmian i przekłamań,
ponieważ treść pamięci coraz bardziej uzależnia się od przyjętego
schematu. Ten może zresztą ulec zmianie, przez co wcześniejsze wersje
epizodów z własnej biografii tracą ważność. Schemat narracyjny wpływa
na rozumienie przekazu, jeśli określone porcje wiedzy nabierają sensu
dopiero w kontekście całej historii. Na przykład zdanie: „Trzeciego nie
obronił”, uzyskuje sens jako część opowieści o meczu piłkarskim, a traci
ów sens, gdy schemat narracyjny ulega zmianie lub gdy nie jest w ogóle
przywołany.

Procesem zaangażowanym w budowanie modelu sytuacyjnego jest przede


wszystkim rozumowanie nieformalne (zob. rozdz. 10), czyli
wnioskowanie na podstawie swobodnie wybranych przesłanek, nie zawsze
zwerbalizowane. Niektóre ważne przesłanki mogą nie być dostępne,
ponieważ mówca nie wyraził ich wprost. Zachodzi przecież różnica między
tym, co pomyślane, a tym, co powiedziane. Mówca, konstruując
wypowiedź, przekazuje pewne treści jawnie, a inne domyślnie. Może np.
pominąć ważną część przekazu, ponieważ sądzi, że odbiorca dysponuje tą
wiedzą, albo dlatego, iż uważa pewne sprawy za oczywiste. Odbiorca musi
więc odróżnić to, co mówca chciał przekazać, od tego, co rzeczywiście
przekazał. Treści rzeczywiście przekazane to przesłanki jawne, a treści
domyślne to przesłanki niejawne. Te ostatnie mogą znacząco odbiegać od
rzeczywistych intencji nadawcy, w związku z czym wynik nieformalnego
rozumowania przeprowadzonego przez odbiorcę może się istotnie różnić
od tego, co chciał przekazać nadawca komunikatu. W rezultacie obserwuje
się bardzo częste przypadki niezrozumienia, zrozumienia cząstkowego lub
opacznego.

W każdym razie złamanie kodu fonologicznego, rozbiór zdania, a nawet


zbudowanie wstępnego modelu sytuacyjnego nie zwalnia odbiorcy
komunikatu językowego od myślenia. Przetwarzanie języka wymaga
dalszych intensywnych procesów wnioskowania o wiedzy, cechach
i stanach umysłu osób zaangażowanych w wymianę myśli za
pośrednictwem języka. Dotyczy to w szczególności konwersacji, czyli
komunikowania obustronnego, dokonującego się „tu i teraz”. Reguły
rządzące wnioskowaniem podczas rozmowy nazwano implikaturą. Grice
(1989), uznając różnicę między treścią wypowiedzi a zamierzonym sensem
komunikatu, wyróżnił dwa rodzaje implikatury: konwencjonalną
i konwersacyjną.

Implikatura konwencjonalna polega na tym, że użycie określonego słowa


implikuje znaczenie przypisywane mu na mocy konwencji i konsensu
społecznego. Mówiąc „koń”, mamy na myśli duże zwierzę z kopytami,
ogonem i grzywą, a nie figurę szachową, i ta implikacja jest zazwyczaj
dość dobrze odbierana przez słuchaczy. Natomiast implikatura
konwersacyjna polega na domyślnym, wzajemnym szanowaniu reguł
dobrej komunikacji, czyli uznawaniu zasady kooperacji i czterech maksym
konwersacyjnych (zob. ramkę 13.5).

Wnioskowanie w procesie rozumienia mowy pełni dwie funkcje (Warren,


Nicholas, Trabasso, 1979). Pierwsza polega na uzupełnianiu luk
w strukturze przekazu. Zdanie: „Uciekł mi autobus i musiałem pojechać
taksówką”, mówi dużo, ale nie wszystko. Nie mówi np. tego, że mając
wybór, jeżdżę autobusem, że robię to prawdopodobnie z oszczędności
(„musiałem pojechać...”), że nie poruszam się po mieście prywatnym
samochodem. Wszystkie te elementy musimy, jako odbiorcy komunikatu,
dopiero wywnioskować, ale robimy to automatycznie i w zasadzie
bezbłędnie. Tego rodzaju wnioski można nazwać domyślnymi (default
inferences; Leahey, Harris, 2001). Interesujące, że nie wyciągamy wielu
innych możliwych w tej sytuacji wniosków, np. takiego, że autobusy
uciekają na widok ludzi. Oznacza to, że wnioski domyślne są
przefiltrowane przez ogólną wiedzę o świecie, zwaną zdrowym
rozsądkiem.

Wnioski drugiego rodzaju służą budowaniu połączeń między nową wiedzą,


zawartą w komunikacie, a wiedzą nabytą już wcześniej i przechowywaną
w pamięci trwałej. Połączenia tego typu to w gruncie rzeczy istota tego, co
nazywamy rozumieniem. Dopiero gdy ktoś mówi nam, że musiał wziąć
taksówkę, bo uciekł mu autobus, rozumiemy, dlaczego nie ma drobnych na
kawę. Zrozumienie wykładu możliwe jest tylko wówczas, gdy student
dowiaduje się czegoś nowego, co może asymilować z istniejącymi
strukturami wiedzy. Wykład niezawierający żadnych nowych treści jest
nudny, ale wykład zawierający wyłącznie nowe treści jest niezrozumiały.

Szczególną kategorią wypowiedzi wymagających wnioskowania są


komunikaty nie wprost (indirect speech). Względy grzeczności
wymagają, by polecenia formułować w postaci pytań lub delikatnych
sugestii (np. „Czy mógłbyś zgasić światło?”). Tego typu przekazy
wymagają odkrycia prawdziwych intencji nadawcy, co zwykle nie jest
trudne, ponieważ każdy użytkownik języka jest pod tym względem bardzo
intensywnie szkolony w procesie socjalizacji.
13.5. Podsumowanie
Treść tego rozdziału powinna upewnić nas, że ludzie to wprawdzie istoty
gadające, ale na pewno nie automaty. Tym samym sentencja de la
Mettrie’ego, od której zaczęliśmy rozważania, powinna być zasadniczo
zmodyfikowana. Udział automatyzmów w przetwarzaniu języka jest bez
wątpienia bardzo duży. Automatycznie deszyfrujemy kod fonetyczny lub
alfabetyczny, bez większego trudu przywołujemy z pamięci słowa i ich
znaczenia, nie kierujemy się też głębszą refleksją w doborze i użyciu
struktur gramatycznych. Niekiedy nasza świadomość metajęzykowa nieco
wzrasta i wtedy używamy języka w sposób bardziej kontrolowany.
Oznacza to z jednej strony szansę na lepszy dobór słów i struktur
składniowych, ale z drugiej strony niesie ryzyko spowolnienia
w przetwarzaniu języka i zwiększa koszty tego procesu. Jeśli chodzi
o odbiór i rozumienie komunikatów językowych, udział procesów
automatycznych i nieświadomych jest również bardzo duży. Zwykle nie
zdajemy sobie sprawy, jak i dlaczego odbieramy sens przekazu,
koncentrując się wyłącznie na końcowym efekcie tego procesu, czyli
właśnie na sensie cudzej wypowiedzi. Protest przeciwko definicji, że
„człowiek to gadający automat”, nie wynika zatem z doktrynalnego
odrzucenia wyjaśnień, które mogłyby sprawiać wrażenie zanadto
mechanistycznych, ale z uznania faktu, że mimo tak dużej dozy
automatyczności przetwarzanie języka jest procesem bardzo dokładnie
kontrolowanym. Każde użycie języka wymaga przetwarzania na
wszystkich poziomach, od fonetycznego do dyskursywnego. Co więcej,
efekty pożądane na poziomie dyskursywnym wymagają określonych
rozwiązań na niższych poziomach języka, nie wyłączając fonetycznego.
Język widziany z tej perspektywy jest więc zupełnie unikalnym zjawiskiem
psychologicznym, szczególnie jeśli chodzi o poznawcze mechanizmy jego
używania i rozumienia.

W rozdziale tym omówiliśmy teorie i badania dotyczące tego wyjątkowego


zjawiska, jakim jest język oraz jego związki z poznaniem. Przedstawiliśmy
hipotezę Sapira–Whorfa i debatę, którą wywołała. Zaprezentowaliśmy
również dominujące stanowiska w debacie nad przyswajaniem języka.
W kontekście rozważań na ten temat przybliżyliśmy zjawisko
dwujęzyczności oraz związane z nią koszty i korzyści poznawcze.
Następnie omówiliśmy teorie i badania dotyczące mówienia, poświęcając
szczególnie dużo uwagi teorii produkcji mowy autorstwa Willema Levelta.
W tej części zgłębiliśmy również maksymy konwersacyjne Grice’a.
W ostatnich częściach rozdziału przedstawiliśmy badania nad rozumieniem
przekazów językowych, ze szczególnym uwzględnieniem tych
wykorzystujących paradygmat „zdań ślepej uliczki”.
Bibliografia
Ackerman, P.L. (1988). Determinants of individual differences during skill
acquisition: Cognitive abilities and information processing. Journal of
Experimental Psychology: General, 117, 288–318.
Adams, J.A. (1963). Experimental studies of human vigilance. US Airforce
Technical Document Report, No. FSD-TDR, 63–320.
Adelson, B. (1984). When novices surpass experts: The difficulty of a task
may increase with expertise. Journal of Experimental Psychology:
Learning, Memory, and Cognition, 10, 483–495.
Allen, B.P., Lindsay, D.S. (1998). Amalgamations of memories: Intrusion
of information from one event into reports of another. Applied
Cognitive Psychology, 12, 277–285.
Allport, A. (1980a). Attention and performance. W: G. Claxton (red.),
Cognitive psychology. New directions (t. 4, s. 112–153). London:
Routledge.
Allport, A. (1980b). Patterns and actions: Cognitive mechanisms are
content-specific. W: G. Claxton (red.), Cognitive psychology. New
directions (t. 2, s. 23–64). London: Routledge.
Allport, A. (1992). Attention and control: Have we been asking the wrong
questions? A critical review of twenty-five years. W: D. E. Meyer, S.
Kornblum (red.), Attention and performance (t. 14, s. 183–218).
Cambridge, MA: MIT Press.
Allport, A. (1996). Core lectures on cognitive psychology. Handouts.
Oxford University.
Allport, A., Antonis, B., Reynolds, P. (1972). On the division of attention:
A disproof of the single channel hypothesis. Quarterly Journal of
Experimental Psychology, 24, 225–235.
Allport, A., Styles, E., Hiesh, S. (1994). Shifting intentional set: Exploring
the dynamic control of tasks. W: C. Umilta, M. Moscovitch (red.),
Attention and performance XV: Conscious and nonconscious
information processing (s. 421–452). Cambridge, MA: MIT Press.
Allport, A., Tipper, S.P., Chmiel, N.R.J. (1985). Perceptual integration and
postcategorical filtering. W: M.I. Posner, O.S.M. Marin (red.), Attention
and performance (t. 11, s. 107–132). Hillsdale, NJ: Lawrence Erlbaum
Associates.
Allport, A., Wylie, G. (2000a). Task switching and the measurement of
„switch costs”. Psychological Research, 63, 212–233.
Allport, A., Wylie, G. (2000b). Task switching, stimulus-response bindings,
and negative priming. W: S. Monsell, J.S. Driver (red.), Control of
cognitive processes. Attention and performance (t. 18, s. 377–399).
Cambridge, MA: MIT Press.
Anderson, B.F. (1975). Cognitive psychology. New York: Academic Press.
Anderson, J.R. (1976). Language, memory, and thought. Hillsdale, NJ:
Lawrence Erlbaum Associates.
Anderson, J.R. (1978). Arguments concerning representation of mental
imagery. Psychological Review, 85, 249–277.
Anderson, J.R. (red.) (1981a). Cognitive skills and their acquisition.
Hillsdale, NJ: Lawrence Erlbaum Associates.
Anderson, J.R. (1981b). Interference: The relationship between response
latency and response accuracy. Journal of Experimental Psychology:
Human Learning and Memory, 7, 326–343.
Anderson, J.R. (1982). Acquisition of cognitive skill. Psychological
Review, 89, 369–406.
Anderson, J.R. (1983a). A spreading activation theory of memory. Journal
of Verbal Learning and Verbal Behavior, 22, 261–295.
Anderson, J.R. (1983b). The architecture of cognition. Cambridge, MA:
Harvard University Press.
Anderson, J.R. (1985). Cognitive psychology and its implications. New
York: Freeman.
Anderson, J.R. (1987). Skill acquisition: Compilation of weak-method
problem solutions. Psychological Review, 94, 192–210.
Anderson, J.R. (1991). The adaptive nature of human categorization.
Psychological Review, 98, 409–429.
Anderson, J.R. (1993). Rules of the mind. Hillsdale, NJ: Lawrence Erlbaum
Associates.
Anderson, J.R. (1995). Cognitive psychology. New York: Freeman.
Anderson, J.R. (1996). ACT. A simple theory of Complex Cognition.
American Psychologist, 51, 355–365.
Anderson, J.R. (1997). Cognitive psychology and its implications. New
York: W. H. Frejman and Company.
Anderson, J.R., Bower, G.H. (1973). Human associative memory.
Washington, DC: V.H. Winston & Sons.
Anderson, J.R., Lebiere, Ch. (1998). The atomic components of thought.
Mahwah, NJ: Lawrence Erlbaum Associates.
Anderson, J.R., Kline, P.J., Beasley, C. M. (1979). A general learning
theory and its application to schema abstraction. W: G.H. Bower (red.),
The psychology of learning and motivation (s. 277–318). New York:
Academic Press.
Anderson, J.R., Kushmerick, N., Lebiere, Ch. (1993). The Tower of Hanoi
and goal structures. W: J.R. Anderson (red.), Rules of the mind (s. 121–
142). Hillsdale, NJ: Lawrence Erlbaum Associates.
Anderson, J.R., Matessa, M., Douglass, S. (1995). The ACT-R theory of
visual attention.
Proceedings of the Seventeenth Annual Cognitive Science Society, 61–65.
Anderson, J.R., Reder, L.M., Lebiere, Ch. (1996). Working memory:
Activation limitations on retrieval. Cognitive Psychology, 30, 221–256.
Anderson, M.C., Bjork, R.A., Bjork, E.L. (1994). Remembering can cause
forgetting: Retrieval dynamics in long-term memory. Journal of
Experimental Psychology: Learning, Memory, and Cognition, 20,
1063–1087.
Anderson, M.C., Spellman, B. A. (1995). On the status of inhibitory
mechanisms in cognition: Memory retrieval as a model case.
Psychological Review, 102, 68–100.
Anderson, M.L. (2010). Neural reuse: A fundamental organizational
principle of the brain. Behavioral and Brain Sciences, 33, 245–266.
Anderson, R.C., Pichert, J. W. (1978). Recall of previously unrecallable
information following a shift in perspective. Journal of Verbal Learning
and Verbal Behavior, 17, 1–12.
Anglin, J.M. (1977). Word, object and conceptual development. New York:
Norton.
Ansari, D. (2008). Effects of development and enculturation on number
representation in the brain. Nature Reviews Neuroscience, 9, 278–291.
Anzai, Y., Simon, H.A. (1979). The theory of learning by doing.
Psychological Review, 86, 124–140.
Appelbaum, I. (1998). Modularity. W: W. Bechtel, G. Graham (red.), A
companion to cognitive science (s. 625–635). Oxford, UK: Blackwell
Publishers.
Arbuthnott, K., Frank, J. (2000). Executive control in set switching.
Residual switch cost and task set inhibition. Canadian Journal of
Experimental Psychology, 54, 33–41.
Arbuthnott, K., Woodward, T. (2002). The influence of cue-task association
and location on switch cost and alternating-switch cost. Canadian
Journal of Experimental Psychology, 56, 1196–1961.
Armstrong, S., Gleitman, L., Gleitman, H. (1983). What some concepts
might not be. Cognition, 13, 263–308.
Aron, A.R., Poldrack, R.A. (2006). Cortical and subcortical contributions
to stop signal response inhibition: role of the subthalamic nucleus.
Journal of Neuroscience, 26, 2424–2433.
Aron, A.R., Robbins, T.W., Poldrack, R.A. (2004). Inhibition and the right
inferior frontal cortex. Trends in Cognitive Sciences, 8, 170–177.
Aron, A.R., Robbins, T.W., Poldrack, R.A. (2014). Inhibition and the right
inferior frontal cortex: One decade on. Trends in Cognitive Sciences,
18, 177–185.
Atkinson, R.C., Shiffrin, R.M. (1968). Human memory: A proposed system
and its control processes. W: K. W. Spence, J. T. Spence (red.), The
psychology of learning and motivation: Advances in research and
theory (t. 2, s. 89–195). New York: Academic Press.
Atkinson, R. C., Shiffrin, R. M. (1971). The control of short-term memory.
Scientific American, 225, 82–90.
Attneave, F. (1959). Application of information theory to psychology: A
summary of basic concepts, methods, and results. Oxford, England:
Holt.
Atwood, M.E., Masson, M.E., Polson, P.G. (1980). Further explorations
with a process model for water jug problems. Memory and Cognition,
8, 182–192.
Atwood, M.E., Polson, P.G. (1976). A process model for water jug
problems. Cognitive Psychology, 8, 191–216.
Au, T.K. (1983). Chinese and English counterfactuals: The Sapir-Whorf
hypothesis revisited. Cognition, 15, 155–187.
Averbach, E., Coriell, A.S. (1961). Short-term memory in vision. Bell
System Technical Journal, 40, 309–328.
Axmacher, N., Henseler, M.M., Jensen, O., Weinreich, I., Elger, C.E., Fell,
J. (2010). Cross-frequency coupling supports multi-item working
memory in the human hippocampus. Proceedings of the National
Academy of Sciences, 107, 3228–3233.
Baars, B.J. (1997). Some essential difference between consciousness and
attention, perception, and working memory. Consciousness and
Cognition, 6, 363–371.
Bacon, A.M., Handley, S.J., Newstead, S.E. (2003). Individual differences
in strategies in syllogistic reasoning. Thinking and Reasoning, 9, 133–
169.
Baddeley, A.D. (1966). Short-term memory for words sequences as
function of acoustic, semantic, and formal similarity. Quarterly Journal
of Experimental Psychology, 18, 362–365.
Baddeley, A.D. (1976). The psychology of memory. New York: Basic
Books.
Baddeley, A.D. (1982). Domains of recollection. Psychological Review, 89,
708–729.
Baddeley, A.D. (1986). Working memory. Oxford, UK: Claredon Press.
Baddeley, A.D. (1990). Human memory: Theory and practice. Needham
Heights, MA: Allyn & Bacon.
Baddeley, A.D. (1993). Working memory or working attention? W: A.D.
Baddeley, L. Weiskrantz (red.), Attention: Selection, awareness, and
control. A tribute to Donald Broadbent (s. 152–170). Oxford:
Clarendon Press.
Baddeley, A.D. (1996). Exploring the central executive. Quarterly Journal
of Experimental Psychology. A Human Experimental Psychology, 49,
5–28.
Baddeley, A.D. (1998). Pamięć: Poradnik użytkownika, przeł. E.
Kołodziej-Józefowicz. Warszawa: Prószyński i S-ka.
Baddeley, A.D. (2000). The episodic buffer: A new component of working
memory? Trends in Cognitive Sciences, 4, 417–423.
Baddeley, A.D. (2001). Is working memory still working? American
Psychologist, 56, 851–864.
Baddeley, A.D. (2002). Is working memory still working? European
Psychologist, 7, 85–97.
Baddeley, A.D., Bressi, S., Della Sala, S., Logie, R. H., Spinnler, H. (1991).
The decline of working in Alzheimer disease: A longitudinal study.
Brain, 114, 2521–2542.
Baddeley, A.D., Colquhoun, W. P. (1969). Signal probability and vigilance:
A reappraisal of the „signal-rate” effect. British Journal of Psychology,
60, 169–178.
Baddeley, A.D., Della Sala, S. (1998). Working memory and executive
control. W: A.C. Roberts, T.W. Robbins, L. Weiskrantz (red.), The
prefrontal cortex: Executive and cognitive functions (s. 9–21). New
York: Oxford University Press.
Baddeley, A.D., Della Sala, S., Papagno, C., Spinnler, H. (1997). Dual task
performance in dysexecutive and nondysexecutive patients with
a frontal lesion. Neuropsychology, 11, 187–194.
Baddley, A.D., Emslie, H., Kolodny, J., Duncan, J. (1998a). Random
generation and the executive control of working memory. The
Quarterly Journal of Experimental Psychology, 51A, 819–852.
Baddeley, A.D., Gathercole, S., Papagno, C. (1998b). The phonological
loop as a language learning device. Psychological Review, 105, 158–
173.
Baddeley, A.D., Hitch, G. (1974). Working memory. W: G.A. Bower (red.),
The psychology of learning and motivation (t. 8, s. 47–89). New York:
Academic Press.
Baddeley, A.D., Lewis, V.J. (1981). Inner active process in reading: The
inner voice, the inner ear and the inner eye. W: A.M. Lesgold, C.A.
Perfetti (red.), Interactive process of reading (s. 107–129). Hillsdale,
NJ: Lawrence Erlbaum Associates.
Baddeley, A.D., Lewis, V.J., Eldridge M., Thompson, N. (1984). Attention
and retrieval from long-term memory. Journal of Experimental
Psychology: General, 113, 518–540.
Baddeley, A.D., Logie, R.H. (1999). Working memory: The multiple-
component model. W: A. Miyake, P. Shah (red.), Models of working
memory: Mechanisms of active maintenance and executive control (s.
28–61). New York: Cambridge University Press.
Baddeley, A.D., Thomson, N., Buchanan, M. (1975). Word length and the
structure of short-term memory. Journal of Verbal Learning and Verbal
Behavior, 14, 575–589.
Baddeley, A.D., Warrington, E.K. (1970). Amnesia and the distinction
between longand short-term memory. Journal of Verbal Learning and
Verbal Behavior, 9, 176–189.
Bahrick, H.P. (1984). Semantic memory content in permastore: Fifty years
of memory for Spanish learned in school. Journal of Experimental
Psychology: General, 113, 1–29.
Bahrick, H.P., Bahrick, L.E., Bahrick, A. S. (1993). Maintenance of foreign
language vocabulary and the spacing effect. Psychological Science, 4,
316–321.
Baker, C.H. (1959). Towards a theory of vigilance. Canadian Journal of
Psychology, 13, 35–42.
Baker, C.H. (1963). Signal duration as a factor in vigilance task. Science,
141, 1296–1297.
Baker, C.H., Harabedian, A. (1962). A study of target detection by sonar
operators, Report No. TR206 16. Los Angeles, CA: Human Factors
Research.
Baker, S.C., Rogers, R.D., Owen, A.M., Frith, C.D., Dolan, R.J.,
Frackowiak, R.S., Robbins T.W. (1996). Neural systems engaged by
planning: A PET study of the Tower of London task. Neuropsychologia,
34, 515–526.
Balas, R., Stettner, Z., Piotrowski, K. (2005). Ognisko uwagi w pamięci
roboczej a efekt pozycji. Studia Psychologiczne, 43, 85–89.
Balas, R., Żyła, K. (2002). Metody badania uczenia i pamięci mimowolnej,
czyli próby dotarcia do nieświadomości. W: R.K. Ohme, M.
Jarymowicz (red.), Natura automatyzmów. Warszawa: Wydawnictwo
Instytutu Psychologii PAN.
Ballard, P.B. (1913). Obliviscence and reminiscence. British Journal of
Psychology, 1, 82.
Ballstaedt, S.-P., Mandl, H. (1984). Elaborations: Assessment and analysis.
W: H. Mandl, N.L. Stein, T. Trabasso (red.), Learning and
comprehension of text (s. 331–353). Hillsdale, NJ: Lawrence Erlbaum
Associates.
Balota, D.A., Cortese, M.J., Duchek, J.M., Adams, D., Roediger, H.L.,
Mcdermott, K.B., Yerys, B.E. (1999). Veridical and false memories in
healthy older adults and in dementia of the Alzheimer’s type. Cognitive
Neuropsychology, 16, 361–385.
Bargh, J.A. (1994). The four horsemen of automaticity: Awarness,
intention, efficiency, and control in social cognition. W: R.S. Wyer, Jr.,
T.K. Srull (red.), Handbook of social cognition (t. 2, s. 1–40). Hillsdale,
NJ: Lawrence Erlbaum Associates.
Bargh, J.A. (1999). Automatyzmy dnia powszedniego. Czasopismo
Psychologiczne, 5, 209–256.
Bargh, J.A., Chartrand, T.L. (1999). The unbearable automaticy of being.
American Psychologist, 54, 462–479.
Barlow, H.B. (1953). Action potentials from the frog’s retina. Journal of
Physiology, 119, 58–88.
Barnett, S.M., Ceci, S. J. (2005). The role of transferable knowledge in
intelligence. W: R.J. Sternberg, J.E. Pretz (red.), Cognition and
intelligence: Identifying the mechanisms of the mind (s. 208–224). New
York: Cambridge University Press.
Baron, J. (2000). Thinking and deciding. New York: Cambridge University
Press.
Barrouillet, P. (1996). Transitive inferences from set-inclusion relations and
working memory. Journal of Experimental Psychology: Learning,
Memory, and Cognition, 22, 1408–1422.
Barrouillet, P., Lecas, J. (1999). Mental model in conditional reasoning and
working memory. Thinking and Reasoning, 5, 289–302.
Bartlett, F. (1932). Remembering: A study in experimental and social
psychology. Cambridge, UK: Cambridge University Press.
Barsalou, L.W. (1988). The content and organization of autobiographical
memories. W: U. Neisser, E. Winograd (red.), Remebering
reconsidered: Ecological and traditional approaches to the study of
memory (s. 193–243). Cambridge, UK: Cambridge University Press.
Barsalou, L.W. (2008). Grounded cognition. Annual Review of Psychology,
59, 617–645.
Bassok, M. (2003). Analogical transfer in problem solving. W: J.E.
Davidson, R.J. Sternberg (red.), Psychology of problem solving (s. 343–
369). New York: Cambridge University Press.
Bastick, T. (1982). Intuition. How we think and act. Chichester, New York:
Wiley.
Bauer, B., Joliceour, P. (1996). Stimulus dimensionality effects in mental
rotation. Journal of Experimental Psychology: Human Perception and
Performance, 22, 82–94.
Baym, C.L., Gonsalves, B.D. (2010). Comparison of neural activity that
leads to true memories, false memories, and forgetting: An fMRI study
of the misinformation effect. Cognitive, Affective, & Behavioral
Neuroscience, 10, 339–348.
Beach, C.M. (1991). The interpretation of prosodic patterns at points of
syntactic structural ambiguity: Evidence for cue trading relations.
Journal of Memory and Language, 30, 644–663.
Bechtel, W., Abrahamsen, A., Graham, G. (1998). The life of cognitive
science. W: W. Bechtel, G. Graham (red.), A companion to cognitive
science (s. 1–104). Oxford, UK: Blackwell Publishers.
Bednarek, H., Wytykowska, A., Orzechowski, J. (2005). Cechy i struktura
temperamentu u osób zależnych i niezależnych od pola. Psychologia –
Etologia – Genetyka, 12, 87–106.
Begg, I., Denny, J. (1969). Empirical reconciliation of atmosphere and
conversion interpretations of syllogistic reasoning. Journal of
Experimental Psychology, 81, 351–354.
Bellezza, F.S. (1984). Reliability of retrieval from semantic memory: Noun
meanings. Bulletin of the Psychonomic Society, 22, 377–380.
Benson, D.F., Greenberg, J.P. (1969). Visual form agnosia: A specific
defect in visual discrimination. Archives of Neurology, 20, 82–89.
Beran, M.J., Perner, J., Proust, J. (red.) (2012). Foundations of
metacognition. New York: Oxford University Press.
Berardi-Coletta, B., Buyer, L.S., Dominowski, R.L., Rellinger, E.R. (1995).
Metacognition and problem solving: A process-oriented approach.
Journal of Experimental Psychology: Learning, Memory, and
Cognition, 21, 205–223.
Bergen, J.R., Julesz, B. (1983). Parallel versus serial processing in rapid
pattern discrimination. Nature, 303, 696–698.
Bergert, F.B., Nosofsky, R.M. (2007). A response-time approach to
comparing generalized rational and takethe-best models of decision
making. Journal of Experimental Psychology: Learning, Memory, and
Cognition, 33, 107–129.
Berlin, B. (1978). Ethnobiological classification. W: E.H. Rosch, B.B.
Lloyd (red.), Cognition and categorization (s. 9–26). Hillsdale, NJ:
Lawrence Erlbaum Associates.
Berlin, B., Kay, P. (1969). Basic color terms: Their universality and
evolution. Berkeley, CA: University of California Press.
Berlyne, D.E. (1969). Struktura i kierunek myślenia, przeł. J. Radzicki.
Warszawa: Państwowe Wydawnictwo Naukowe.
Bernbach, H.A. (1975). Rate of presentation in free recall: A problem for
two-stage memory theories. Journal of Experimental Psychology:
Human Learning and Memory, 1, 18–22.
Bernstein, I.H. (1970). Can we see and hear at the same time? Some recent
studies of intersensory facilitation of reaction time. W: A.F. Sanders
(red.), Attention and performance (t. 33, s. 21–35). Amsterdam: North-
Holland Publishing Company.
Bernstein, I.H. (1971). Effects on some variations in auditory input upon
visual choice reaction time. Journal of Experimental Psychology, 87,
241–247.
Bernstein, I.H., Clark, M.H., Edelstein, B.A. (1969). Effects of an auditory
signal on visual reaction time. Journal of Experimental Psychology, 80,
567–569.
Bernstein, I.H., Edelstein, B.A. (1971). Effects of some variations in
auditory input upon visual choice reaction time. Journal of
Experimental Psychology, 87, 241–247.
Berridge, (1996). Introduction. W: A. Konnerth, R.Y. Tsien, M. Mikoshiba,
J. Altman (red.), Coincidence detection in the nervous system.
Strasbourg: Human Frontier Science Program.
Berry, D.C. (1996). How implicit is implicit learning? W: G. Underwood
(red.), Implicit cognition (s. 203–225). Oxford: Oxford University
Press.
Berry, D.C., Broadbent, D. E. (1984). On the relationship between task
performance and associated verbalizable knowledge. Quarterly Journal
of Experimental Psychology: Human Experimental Psychology, 36A,
209–231.
Berry, D.C., Dienes, Z. (1993). Implicit learning: Theoretical and empirical
issues. Hillsdale, NJ: Lawrence Erlbaum Associates.
Berwick, R.C., Friederici, A.D., Chomsky, N., Bolhuis, J.J. (2013).
Evolution, brain, and the nature of language. Trends in Cognitive
Sciences, 17, 89–98.
Bialystok, E. (2001). Bilingualism in development: Language, literacy, and
cognition. Cambridge, UK: Cambridge University Press.
Bialystok, E., Craik, F.I., Luk, G. (2012). Bilingualism: Consequences for
mind and brain. Trends in Cognitive Sciences, 16, 240–250.
Biederman, I. (1987). Recognition by components. Psychological Review,
94, 173–211.
Biederman, I., Beiring, E., Blickle, T. (1985). A comparison of the
perception of partial vs. degraded objects. Niepublikowany maszynopis,
State University of New York at Buffalo.
Biederman, I., Ju, G., Clapper, J. (1985). The perception of partial objects.
Niepublikowany maszynopis. Buffalo: State University of New York.
Biela, A. (1981). Psychologiczne podstawy wnioskowania przez analogię.
Warszawa: Państwowe Wydawnictwo Naukowe.
Bienicewicz-Krasek, D. (2003). Związek między efektywnością
niezamierzonego uczenia się a poziomem zdolności intelektualnych.
Niepublikowana praca magisterska. Warszawa: Szkoła Wyższa
Psychologii Społecznej.
Bilalić, M., Langner, R., Erb, M., Grodd, W. (2010). Mechanisms and
neural basis of object and pattern recognition: A study with chess
experts. Journal of Experimental Psychology: General, 139, 728–7452.
Binford, J.R., Loeb, M. (1966). Changes within and over repeated sessions
in criterion and effective sensitivity in an auditory vigilance task.
Journal of Experimental Psychology, 72, 339–345.
Birkhoff, G., MacLane, S. (1953). A survey of modern algebra. New York:
Macmillan.
Bjork, R.A., Whitten, W.B. (1974). Recency-sensitive retrieval processes in
long-term free recall. Cognitive Psychology, 6, 173–189.
Blake, R., Sekuler, R. (2006). Perception (wyd. 5). New York: McGraw-
Hill.
Blanchette, I., Dunbar, K. (2002). Representational change and analogy:
How analogical inferences alter target representations. Journal of
Experimental Psychology: Learning, Memory, and Cognition, 28, 672–
685.
Blatt, S.J., Stein, M. (1960). Efficiency of problem solving. Journal of
Psychology, 48, 193–213.
Bloom, A.H. (1981). The linguistic shaping of thought: A study of the
impact of language on thinking in China and the West. Hillsdale, NJ:
Lawrence Erlbaum Associates.
Bloom, L. (1991). Representation and expression. W: N.A. Krasnegor,
D.M. Rumbaugh, R.L. Schiefelbusch; M. Studdert-Kennedy (red.),
Biological and behavioral determinants of language development (s.
117–140). Hillsdale, NJ: Lawrence Erlbaum Associates.
Bloom, B.S., Broder, L.J. (1950). Problem-solving processes of college
students. Supplementary Educational Monographs, B, 109.
Bloom, P., Markson, L. (1998). Capacities underlying word learning.
Trends in Cognitive Sciences, 2, 67–73.
Bloomfield, L. (1933). Language. New York: Holt.
Boden, M.A. (1999). Computer models of creativity. W: R.J. Sternberg
(red.), Handbook of creativity (s. 351–372). New York: Cambridge
University Press.
Bogacz, R., Wagenmakers, E.J., Forstmann, B.U., Nieuwenhuis, S. (2010).
The neural basis of the speed-accuracy tradeoff. Trends in
Neurosciences, 33, 10–16.
Bolte, A., Goschke, T., Kuhl, J. (2003). Emotion and intuition.
Psychological Science, 14, 416–421.
Bonatti, L. (1994). Propositional reasoning by model? Psychological
Review, 101, 725–733.
Borst, J.P., Anderson, J.R. (2013). Using model-based functional MRI to
locate working memory updates and declarative memory retrievals in
the fronto-parietal network. Proceedings of the National Academy of
Sciences of the United States of America, 110, 1628–1633.
Botvinick, M. M. (2007). Conflict monitoring and decision making:
Reconciling two perspectives on anterior cingulate function. Cognitive,
Affective, & Behavioral Neuroscience, 7, 356–366.
Botvinick, M.M., Braver, T.S., Barch, D.M., Carter, C.S., Cohen, J.D.
(2001). Conflict monitoring and cognitive control. Psychological
Review, 108, 624–652.
Botvinick, M.M., Cohen, J.D., Carter, C.S. (2004). Conflict monitoring and
anterior cingulate cortex: an update. Trends in Cognitive Sciences, 8,
539–546.
Bousfield, W.A. (1953). The occurrence of clustering in the recall of
randomly arranged associates. Journal of General Psychology, 49, 229–
240.
Bousfield, W.A., Cohen, B.G., Whitmarch, G.A., Kincaid W.D. (1961).
Connecticut free association norms (Technical Report nr 35). Storrs,
CT: University of Connecticut.
Bower, G.H. (1981). Mood and memory. American Psychologist, 36, 129–
148.
Bower, G.H., Black, J.B., Tuner, T.F. (1979). Scripts in memory for text.
Cognitive Psychology, 11, 177–220.
Bower, G.H., Clark, M.C., Lesgold, A.M., Winzenz, D. (1969).
Hierarchical retrieval schemes in recall of categorized word lists.
Journal of Verbal Learning and Verbal Behavior, 8, 323–343.
Bower, G.H., Springston, F. (1970). Pauses as recoding points in letter
series. Journal of Experimental Psychology, 83, 421–430.
Bowers, K.S., Regehr, G., Balthazard, C., Parker, K. (1990). Intuition in the
context of discovery. Cognitive Psychology, 22, 72–110.
Braine, M.D.S. (1978). On the relation between the natural logic of
reasoning and standard logic. Psychological Review, 85, 1–21.
Braine, M.D.S., O’Brien, D.P. (1991). A theory of if: A lexical entry,
reasoning program, and pragmatic principles. Psychological Review,
98, 182–203.
Braine, M.D.S., Reiser, B.J., Rumain, B. (1984). Some empirical
justification for a theory of natural propositional logic. W: G.H. Bower
(red.), The psychology of learning and motivation (s. 313–371). New
York: Academic Press.
Braine, M.D.S., Rumain, B. (1983). Logical reasoning. W: J.H. Flavell,
E.M. Markman (red.), Handbook of child psychology. Cognitive
development (t. 3, s. 263–340). New York: Wiley.
Bransford, J.D., Barclay, J.R., Franks, J.J. (1972). Sentence memory:
A constructive versus interpretive approach. Cognitive Psychology, 3,
193–209.
Bransford, J.D., Franks, J.J. (1971). The abstraction of linguistic ideas.
Cognitive Psychology, 2, 331–350.
Bransford, J.D., Johnson, M.K. (1972). Contextual prerequisites for
understanding. Some investigations of comprehension and recall.
Journal of Verbal Learning and Verbal Behavior, 11, 717–726.
Brandsford, J.D., Stein, B.S. (1993). The ideal problem solver: A guide for
improving thinking learning and creativity. New York: Freeman.
Brebner, J. (1977). The search for exceptions to the psychological
refractory period. W: S. Dornic (red.), Attention and performance (t. 6,
s. 63–78). Hilsdalle, NJ: Lawrence Erlbaum Associates.
Bretherton, I., Beeghly, M. (1982). Thinking about internal states: The
acquisition of an explicit theory of mind. Developmental Psychology,
18, 906–921.
Brewer, W.F. (1986). What is autobiographical memory? W: D.C. Rubin
(red.), Autobiographical memory (s. 25–49). New York: Cambridge
University Press.
Briggs, G.E. (1957). Retroactive inhibition as a function of the degree of
original and interpolated learning. Journal of Experimental Psychology,
53, 60–67.
Broadbent, D.E. (1952). Listening to one of two synchronous messages.
Journal of Experimental Psychology, 44, 51–56.
Broadbent, D.E. (1954). The role of auditory localization in attention and
memory span. Journal of Experimental Psychology, 47, 191–196.
Broadbent, D.E. (1957). A mechanical model for human attention and
immediate memory. Psychological Review, 64, 205–215.
Broadbent, D.E. (1958). Perception and communication. New York:
Pergamon Press.
Broadbent, D.E. (1971). Decision and stress. London: Academic Press.
Broadbent, D.E. (1982). Task combination and selective intake of
information. Acta Psychologica, 50, 253–290.
Broadbent, D.E., Broadbent, M., Jones, J.L. (1989). Time of day as an
instrument for the analysis of attention. European Journal of Cognitive
Psychology, 1, 69–94.
Broadbent, D.E., Gregory, M. (1964). Stimulus set and response set: The
alternation of attention. Quarterly Journal of Experimental Psychology,
16, 309–317.
Brooks, L. (1978). Nonanalytic concept formation and memory for
instances. W: E. Rosch, B.B. Lloyd (red.), Cognition and
categorization (s. 169–215). Hillsdale, NJ: Lawrence Erlbaum
Associates.
Brooks, L.R., Vokey, J.R. (1991). Abstract analogies and abstracted
grammars: Comments on Reber (1989) and Mathews et al. (1989).
Journal of Experimental Psychology: General, 120, 316–323.
Brophy, D.R. (1998). Understanding, measuring, and enhancing individual
creative problem-solving efforts. Creativity Research Journal, 11, 123–
150.
Brown, J. (1958). Some tests of the decay theory of immediate memory.
Quarterly Journal of Experimental Psychology, 10, 12–21.
Brown, S. (2017). A joint prosodic origin of language and music. Frontiers
in Psychology, 8, art. 1894.
Bruce, V., Valentine, T. (1985). What’s up? The Margaret Thatcher illusion
revisited. Perception, 14, 515–516.
Bruner, J.S. (1957). On perceptual readiness. Psychological Review, 64,
123–152.
Bruner, J.S. (1978). Poza dostarczone informacje, przeł. B. Mrozik.
Warszawa: Państwowe Wydawnictwo Naukowe.
Bruner, J.S., Goodman, C.C. (1947). Value and need as organizing factors
in perception. Journal of Abnormal and Social Psychology, 42, 33–44.
Bruner, J.S., Goodnow, J.J., Austin, G.A. (1956). A study of thinking. New
York: Wiley.
Bruner, J.S., Postman, L. (1947). Emotional selectivity in perception and
reaction. Journal of Personality, 16, 69–77.
Brzezicka, A., Sędek, G., Marchewka, A., Gola, M., Jednoróg, K., Królicki,
L., Wróbel, A. (2011). A role for the right prefrontal and bilateral
parietal cortex in four-term transitive reasoning: An fMRI study with
abstract linear syllogism tasks. Acta Neurobiologie Experimentalis, 71,
479–495.
Buckner, R.L., Petersen, S.E. (1998). Neuroimaging. W: W. Bechtel, G.
Graham (red.), A companion to cognitive science (s. 413–424). Oxford,
UK: Blackwell Publishers.
Bugelski, B.R., Alampay, D.A. (1961). The role of frequency in developing
perceptual sets. Canadian Journal of Psychology, 15, 201–211.
Bunge, S.A., Helskog, E. H., Wendelken, C. (2009). Left, but not right,
rostrolateral prefrontal cortex meets a stringent test of the relational
integration hypothesis. Neuroimage, 46, 338–342.
Burgess, P.W., Gonen-Yaacovi, G., Volle, E. (2011). Functional
neuroimaging studies of prospective memory: What have we learnt so
far? Neuropsychologia, 49, 2246–2257.
Buss, D.M. (1999). Evolutionary psychology: The new science of the mind.
Boston, MA: Allyn & Bacon.
Buzan, T., Buzan, B. (1996). The mind map book: How to use radiant
thinking to maximize your brain’s untapped potential. New York: Plume
Books.
Byrne, M.D., Bovair, S. (1997). A working memory model of a common
procedural error. Cognitive Science, 21, 31–61.
Byrne, R.M.J. (1989a). Everyday reasoning with conditional sequences.
Quarterly Journal of Experimental Psychology, 41A, 141–166.
Byrne, R.M.J. (1989b). Suppressing valid inferences with conditionals.
Cognition, 31, 61–83.
Byrne, R.M.J., Johnson-Laird, P.N. (1989). Spatial reasoning. Journal of
Memory and Learning, 28, 564–575.
Cadavid, S., Beato, M.S. (2016). Memory distortion and its avoidance: An
event-related potentials study on false recognition and correct rejection.
PloS One, 11, e0164024.
Campbell, A. (2004). Jej niezależny umysł. Psychologia ewolucyjna kobiet,
przeł. J. Kantor-Martynuska. Kraków: Wydawnictwo Literackie.
Campbell, J.I.D. (1994). Architectures for numerical cognition. Cognition,
53, 1–44.
Campbell, J.I.D., Clark, J.M. (1988). An encoding-complex view of
cognitive number processing: Comment on McCloskey, Sokol, and
Goodman (1986). Journal of Experimental Psychology: General, 117,
204–214.
Cantor, N., Harlow, R.E. (1994). Social intelligence and personality:
Flexible life task pursuit. W: R.J. Sternberg, P. Ruzgis (red.),
Personality and intelligence (s. 137–168). New York: Cambridge
University Press.
Carlson, R.A., Khoo, B.H., Yaure, R.G., Schneider, W. (1990). Acquisition
of a problem-solving skill: Levels of organization and use of working
memory. Journal of Experimental Psychology: General, 119, 193–214.
Carmody, D.P., Nodine, C.F., Kundel, H.L. (1980). An analysis of
perceptual and cognitive factors in radiographic interpretation.
Perception, 9, 339–344.
Carraher, T.N., Carraher, D., Schliemann (1985). Mathematics in the streets
and in the schools. British Journal of Developmental Psychology, 3,
21–29.
Cary, M., Carlson, R.A. (1999). External support and the development of
problem-solving routines. Journal of Experimental Psychology:
Learning, Memory, and Cognition, 25, 1053–1070.
Cary, M., Carlson, R.A. (2001). Distributing working memory resources
during problem solving. Journal of Experimental Psychology:
Learning, Memory, and Cognition, 27, 836–848.
Case, R. (1992). Neo-Piagetian theories of child developments. W: R.J.
Sternberg, C.A. Berg (red.), Intellectual development (s. 161–196).
New York: Cambridge University Press.
Cattell, R.B., Tiner, L.G. ( 1949). The varieties of structural rigidity.
Journal of Personality, 17, 321–341.
Cave, K.R., Wolfe, J.M. (1990). Modelling the role of parallel processing in
visual search. Cognitive Psychology, 22, 225–271.
Ceci, S.J. (1990). A sideway glance at this thing called LD: A context X
process X person framework. W: H.L. Swanson, B.K. Keogh (red.),
Learning disabilities: Theoretical and research issues (s. 59–73).
Hillsdale, NJ: Lawrence Erlbaum Associates.
Ceci, S.J., Ruiz, A. (1991). Cognitive complexity and generality: A case
study. W: R. Hoffman (red.), The psychology of expertise (s. 45–55).
New York: Springer-Verlag.
Challis, B.H., Brodbeck, D.R. (1992). Level of processing affects priming
in word fragment completion. Journal of Experimental Psychology:
Learning, Memory, and Cognition, 18, 595–607.
Chan, C.S. (1997). Mental image and internal representation. Journal of
Architectural and Planning Research, 14, 52–77.
Chapman, L.J., Chapman, A.P. (1959). Atmosphere effect re-examined.
Journal of Experimental Psychology, 58, 220–226.
Charness, N. (1979). Components of skill in bridge. Canadian Journal of
Psychology, 33, 1–16.
Charness, N. (1981a). Aging and skilled problem solving. Journal of
Experimental Psychology: General, 110, 21–38.
Charness, N. (1981b). Search in chess: Age and skill differences. Journal of
Experimental Psychology: Human Perception and Performance, 7,
467–476.
Charniak E., McDermott, D. (1985). Introduction to artificial intelligence.
Reading, MA: Addison-Wesley.
Chase, W.G., Simon, H.A. (1973a). Perception in chess. Cognitive
Psychology, 4, 55–81.
Chase, W.G., Simon, H.A. (1973b). The mind’s eye in chess. W: W.G.
Chase (red.), Visual information processing (s. 215–281). Oxford, UK:
Academic.
Cheesman, J., Merikle, P.M. (1984). Priming with and without awareness.
Perception and Psychophysics, 36, 387–395.
Chen, Z., Mo, L. (2004). Schema induction in problem solving:
A multidimensional analysis. Journal of Experimental Psychology:
Learning, Memory, and Cognition, 30, 583–600.
Cheng, P.W., Holyoak, K.J. (1995). Complex adaptive systems as intuitive
statisticians: Causality, contingency, and prediction. W: H.L. Roitblat,
J.A. Meyer (red.), Comparative approaches to cognitive science (s.
271–302). Cambridge, MA: MIT Press.
Cherry, E.C. (1953). Some experiments on the recognition of speech with
one and with two ears. The Journal of the Acoustical Society of
America, 25, 975–979.
Chi, M.T.H., Feltovich, P.J., Glaser, R. (1981). Categorization and
representation of physics problems by expert and novices. Cognitive
Science, 5, 131–152.
Chi, M.T.H., Glaser, R., Farr, M.J. (1988). The nature of expertise.
Hillsdale, NJ: Lawrence Erlbaum Associates.
Chi, M.T.H., Glaser, R., Rees M.J. (1982). Expertise in problem solving.
Hillsdale, NJ: Lawrence Erlbaum Associates.
Chlewiński, Z. (1999). Umysł. Dynamiczna organizacja pojęć. Warszawa:
Wydawnictwo Naukowe PWN.
Chomsky, N. (1959). Review of Skinner’s „Verbal Behavior”. Language,
35, 26–58.
Chomsky, N. (1980). Rules and representations. New York: Columbia
University Press.
Chown, S.M. (1959). Rigidity: A flexible concept. Psychological Bulletin,
56, 195–223.
Christensen-Szalanski, J.J. (1978). Problem solving strategies: A selection
mechanism, some implications, and some data. Organizational
Behavior & Human Performance, 22, 307–323.
Christianson, K., Hollingworth, A., Halliwell, J., Ferreira, F. (2001).
Thematic roles assigned along the garden path linger. Cognitive
Psychology, 42, 368–407.
Christianson, S.Å. (1992). Emotional stress and eyewitness memory:
A critical review. Psychological Bulletin, 112, 284–309.
Christianson, S.Å., Loftus, E. F. (1987). Memory for traumatic events.
Applied Cognitive Psychology, 1, 225–239.
Christianson, S.Å., Loftus, E.F. (1991). Remembering emotional events:
The fate of detailed information. Cognition & Emotion, 5, 81–108.
Christoff, K., Prabhakaran, V., Dorfman, J., Zhao, Z., Kroger, J.K.,
Holyoak, K.J., Gabrieli, J. D. (2001). Rostrolateral prefrontal cortex
involvement in relational integration during reasoning. Neuroimage, 14,
1136–1149.
Chuderski, A. (2008). Poznawcze mechanizmy samokontroli
i samoregulacji. W: A. Niedźwieńska (red.), Samoregulacja w poznaniu
i działaniu (s. 33–51). Kraków: Wydawnictwo Uniwersytetu
Jagiellońskiego.
Chuderski, A., Andrelczyk, K., Smolen, T. (2013). An oscillatory model of
individual differences in working memory capacity and relational
integration. Cognitive Systems Research, 24, 87–95.
Chuderski, A. Orzechowski J. (2005). Mechanizm dwufazowego
przeszukiwania pamięci roboczej: model obliczeniowy. Studia
Psychologiczne, 43, 37–50.
Chuderski, A., Smolen, T. (2016). An integrated utility-based model of
conflict evaluation and resolution in the Stroop task. Psychological
Review, 123, 255–290.
Chun, M.M., Wolfe, J.M. (1996). Just say no: How are visual searches
terminated when there is no target present? Cognitive Psychology, 30,
39–40.
Chun, M.M., Wolfe, J.M. (2001). Visual attention. W: E. Goldstein, M.
Bruce (red.), Blackwell handbook of perception (s. 272–310). Malden,
MA: Blackwell Publishers.
Churchland, P.S. (1986). Neurophilosophy. Cambridge, MA: MIT Press.
Clark, E.V. (1979). The ontogenesis of mind. Weisbaden: Akademische
Verlagsgesellschaft Athenaion.
Clark, H.H. (1969). Linguistic processes in deductive reasoning.
Psychological Review, 76, 387–404.
Clark, H.H., Chase, W.G. (1972). On the process of comparing sentences
against pictures. Cognitive Psychology, 3, 472–517.
Clark, J.M., Campbell, J.I. (1991). Integrated versus modular theories of
number skills and acalculia. Brain and Cognition, 17, 204–239.
Wydanie specjalne: Cognitive and neuropsychological aspects of
calculation disorders.
Cleeremans, A. (1993). Mechanisms of implicit learning: Connectionist
models of sequence processing. Cambridge, MA: MIT Press.
Cleeremans, A. (1997a). Principles for implicit learning. W: D.C. Berry
(red.), How implicit is implicit learning? (s. 195–234). London, UK:
Oxford University Press.
Cleeremans, A. (1997b). Sequence learning in a dual-stimulus setting.
Psychological Research, 60, 72–86.
Clifford, A., Holmes, A., Davies, I. R., Franklin, A. (2010). Color
categories affect pre-attentive color perception. Biological Psychology,
85, 275–282.
Cohen, G., Kiss, G., LeVoi, M. (1993). Memory. Current issues.
Buckingham: Open University Press.
Cohen, N.J., Squire, L.R. (1980). Preserved learning and retention of
pattern-analyzing skill in amnesia: Dissociation of knowing how and
knowing that. Science, 210, 207–210.
Cole, M., Gay, J., Glick, J., Sharp, D.W. (1971). The cultural context of
learning and thinking. New York: Basic Books.
Collette, F., Van der Linden, M. (2002). Brain imaging of the central
executive component of working memory. Neuroscience and
Biobehavioral Reviews, 26, 105–125.
Collette, F., Van der Linden, M., Delrue, G., Salmon, E. (2002). Frontal
hypometabolism does not explain inhibitory dysfunction in Alzheimer
disease. Alzheimer Disease and Associated Disorders, 16, 228–238.
Collins, A. M., Loftus, E. F. (1975). A spreading activation theory for
semantic processing. Psychological Review, 82, 407–429.
Collins, A.M., Quillian, M.R. (1969). Retrieval time from semantic
memory. Journal of Verbal Learning and Verbal Behavior, 8, 240–247.
Collins, A.M., Quillian, M.R. (1972). Experiment on semantic memory and
language comprehension. W: L.W. Gregg (red.), Cognition in learning
and memory. New York: Wiley.
Colquhoun, W.P., Baddeley, A.D. (1964). The role of pre-test expectancy in
vigilance decrement. Journal of Experimental Psychology, 68, 156–
160.
Colquhoun, W.P., Baddeley, A.D. (1967). Influence of signal probability
during pretraining on vigilance decrement. Journal of Experimental
Psychology, 73, 153–155.
Conrad, C. (1972). Cognitive economy in semantic memory. Journal of
Experimental Psychology, 92, 148–154.
Conrad, R. (1963). Acoustic confusions and memory span for words.
Nature, 197, 1029–1030.
Conrad, R. (1971). The effect of vocalizing on comprehension in the
profoundly deaf. British Journal of Psychology, 62, 147–150.
Conrad, R., Hull, A.J. (1964). Information, acoustic confusion and memory
span. British Journal of Psychology, 55, 429–432.
Conway, A.R.A., Cowan, N., Bunting, M.F., Therriault, D. J., Minkoff,
S.R.B. (2002). A latent variable analysis of working memory capacity,
short-term memory capacity, processing speed, and general fluid
intelligence. Intelligence, 30, 163–184.
Conway, M.A. (1996a). Autobiographical knowledge and autobiographical
memories. W: D.C. Rubin (red.), Remembering our past. Studies in
autobiographical memory (s. 67–93). Cambridge, UK: Cambridge
University Press.
Conway, M.A. (1996b). Autobiographical memory. W: E.L. Bjork, R.A.
Bjork (red.), Memory (s. 165–194). San Diego: Academic Press.
Conway, M.A. (2000). Repressed memory. W: A.E. Kazdin (red.),
Encyclopedia of psychology (t. 7, s. 66–69). Washington, DC:
American Psychological Association.
Cook, V.J. (1997). The consequences of bilingualism for cognitive
processing. W: A.M.B. de Groot, J.F. Kroll (red.), Tutorials in
bilingualism: psycholinguistic perspectives (s. 279–300). Mahwah, NJ:
Lawrence Erlbaum Associates.
Cooper, L.A., Shepard, R.N. (1973). Chronometric studies of the rotation of
mental image. W: W.G. Chase (red.), Visual information processing (s.
75–176). London, New York: Academic Press.
Corballis, M.C., Zbrodoff, N.J., Shetzer, L.I., Butler, P.B. (1978). Decision
about identity and orientation of rotated letters and digits. Memory and
Cognition, 6, 98–107.
Corcoran, D.W.J. (1965). Personality and the inverted-U relation. British
Journal of Psychology, 56, 267–273.
Cornoldi, C., de Beni, R. (1991). Memory for discourse: Loci mnemonics
and the oral presentation effect. Applied Cognitive Psychology, 5, 511–
518.
Cornoldi, C., Paivio, A. (1982). Imagery value and its effects on verbal
memory: A review. Archivio de Psicologia Neurologia e Psichiatria, 2,
171–192.
Corteen, R.S., Dunn, D. (1974). Shock-associated words in nonattended
message: A test for momentary awareness. Journal of Experimental
Psychology, 102, 1143–1144.
Corteen, R.S., Wood, B. (1972). Autonomic responses to shock-associated
words in an unattended channel. Journal of Experimental Psychology,
94, 308–313.
Cosmides, L. (1989). The logic of social exchange: Has natural selection
shaped how humans reason? Studies with the Wason selection task.
Cognition, 31, 187–276.
Cosmides, L., Tooby, J. (1992). Cognitive adaptation of social exchange.
W: J.H. Barkow, L. Cosmides (red.), Adapted mind: Evolutionary
psychology and the generation of culture (s. 163–228). Oxford, UK:
Oxford University Press.
Cosmides, L., Tooby, J. (1994). Origins of domain specificity: The
evolution of functional organization. W: L.A. Hirschfeld, S.A. Gelman
(red.), Mapping the mind: Domain specificity in cognition and culture
(s. 85–116). New York: Cambridge University Press.
Cosmides, L., Tooby, J. (1996). Are humans good intuitive statisticians
after all? Rethinking some conclusions from the literature on judgment
under uncertainty. Cognition, 58, 1–73.
Cowan, N. (1984). On short and long auditory stores. Psychological
Bulletin, 96, 341–370.
Cowan, N. (1993). Activation, attention, and short-term memory. Memory
and Cognition, 21, 162–167.
Cowan, N. (1995). Attention and memory: An integrated framework.
Oxford, UK: Oxford University Press.
Cowan, N. (1999). An embedded-processes model of working memory. W:
A. Miyake, P. Shah (red.), Models of working memory: Mechanisms of
active maintenance and executive control (s. 62–101). New York:
Cambridge University Press.
Cowan, N. (2001). The magical number 4 in short-term memory:
A reconsideration of mental storage capacity. Behavioral and Brain
Sciences, 24, 87–185.
Craig, A. (1980). Effect of prior knowledge of signal probabilities in
vigilance performance at two-signal task. Human Factors, 22, 361–371.
Craig, A., Colquhoun, W.P. (1975). Vigilance: A review. W: C.G. Dury,
J.G. Fox (red.), Human reliability in quality control (s. 71–87). London:
Taylor & Francis.
Craik, F.I.M., Lockhart, R.S. (1972). Levels of processing: A framework
for memory research. Journal of Verbal Learning and Verbal Behavior,
11, 671–684.
Craik, F.I.M., Tulving, E. (1975). Depth of processing and the retention of
words in episodic memory. Journal of Experimental Psychology:
General, 104, 268–294.
Craik, F.I.M., Watkins, M. J. (1973). The role of rehearsal in short-term
memory. Journal of Verbal Learning and Verbal Behavior, 12, 599–
607.
Crowder, R.G., Morton, J. (1969). Precategorical acoustic storage (PAS).
Perception and Psychophysics, 8, 815–820.
Csikszentmihalyi, M. (1999). Implications of a systems perspective for the
study of creativity. W: R.J. Sternberg (red.), Handbook of creativity (s.
313–335). New York: Cambridge University Press.
Csikszentmihalyi, M., Sawyer, K. (1995). Creative insight: The social
dimension of a solitary moment. W: R.J. Sternberg, J.E. Davidson
(red.), Nature of insight (s. 329–363). Cambridge, MA: MIT Press.
Cummins, D.D., Lubart, T., Alksnis, O., Rist, R.S. (1991). Conditional
reasoning and causation. Memory and Cognition, 19, 274–282.
Czerlinski, J., Gigerenzer, G., Goldstein, D.G. (1999). How good are
simple heuristics? W: G. Gigerenzer, P.M. Todd, the ABC Research
Group (red.), Simple heuristics that make us smart (s. 97–118). Oxford,
UK: Oxford University Press.
Czyżewska, M. (1991). Uwaga. W: Z. Roman (red.), Uwaga i pamięć.
Warszawa: Wydawnictwa Uniwersytetu Warszawskiego.
Dallas, M., Merikle, P.M. (1976). Semantic processing of non-attended
visual information. Canadian Journal of Psychology, 30, 15–21.
Damasio, A.R., Tranel, D., Damasio, H. (1991). Somatic markers and the
guidance of behavior: Theory and preliminary testing. W: H. S. Levin,
H. M. Eisenberg (red.), Frontal lobe function and dysfunction (s. 217–
229). Oxford, UK: Oxford University Press.
Daneman, M., Carpenter, P.A. (1980). Individual differences in working
memory and reading. Journal of Verbal Learning and Verbal Behavior,
19, 450–466.
Daneman, M., Carpenter, P.A. (1983). Individual differences in integrating
information between and within sentences. Journal of Experimental
Psychology: Learning, Memory, and Cognition, 9, 561–584.
Daniel, R.S. (1967). Alpha and Theta EEG in vigilance. Perceptual and
Motor Skills, 25, 697–703.
Dark, V.J., Johnston, W. A., Myles-Worsley, M., Farah, A.J. (1985). Levels
of selection and capacity limits. Journal of Experimental Psychology.
General, 114, 472–497.
Dark, V.J., Loftus, G.R. (1976). The role of rehearsal in long-term memory
performance. Journal of Verbal Learning and Verbal Behavior, 15,
479–490.
Darwin, C.J., Turvey, M.T., Crowder, R.G. (1972). The auditory analogue
of the Sperling partial report procedure. Evidence for brief auditory
stage. Cognitive Psychology, 3, 255–267.
Davidson, J.E. (2003). Insights about insightful problem solving. W: J.E.
Davidson, R.J. Sternberg (red.), The psychology of problem solving (s.
149–175). New York: Cambridge University Press.
Davidson, J.E., Sternberg, R.J. (1984). The role of insight in intellectual
giftedness. Gifted Child Quarterly, 28, 58–64.
Davidson, J.E., Sternberg, R.J. (1986). What is insight? Educational
Horizons, 64, 177–179.
Davidson, J.E., Sternberg, R.J. (1998). Smart problem solving: How
metacognition helps. W: D.J. Hacker, J. Dunlosky (red.), Metacognition
in educational theory and practice (s. 47–68). Mahwah, NJ: Lawrence
Erlbaum Associates.
Davidson, P.S.R., Glisky, E.L. (2002). Is flashbulb memory a special
instance of source memory? Evidence from older adults. Memory, 10,
99–111.
Davies, D.R., Krkovic, A. (1965). Skin conductance, alpha-activity, and
vigilance. American Journal of Psychology, 78, 304–306.
Davies, D.R., Parasuraman, R. (1982). The psychology of vigilance.
London: Academic Press.
Davies, D.R., Tune, G.S. (1969). Human vigilance performance. New
York: American Elsevier.
Davies, M. (1989). Tacit knowledge and subdoxastic states. W: A. George
(red.), Reflections on Chomsky (s. 131–152). Oxford, UK, Cambridge,
MA: Basil Blackwell.
Deese, J. (1955). Some problems in the theory of vigilance. Psychological
Review, 62, 359–368.
Deese, J. (1959a). Influence of inter-item associative strength upon
immediate free recall. Psychological Reports, 5, 305–312.
Deese, J. (1959b). On the prediction of occurrence of particular verbal
intrusions in immediate recall. Journal of Experimental Psychology, 58,
17–22.
Deese, J. (1960). Frequency of usage and number of words in free recall:
The role of association. Psychological Reports, 7, 337–344.
Degel, J., Piper, D., Köster, E.P. (2001). Implicit learning and implicit
memory for odors: The influence of odor identification and retention
time. Chemical Senses, 26, 267–280.
De Groot, A.D. (1965). Thought and choice in chess. The Hague: Mouton.
De Groot, A.M.B. (1983). The range of automatic spreading activation in
word priming. Journal of Verbal Learning and Verbal Behavior, 22,
417– 436.
Dehaene, S. (2011). The number sense: How the mind creates mathematics.
New York: Oxford University Press.
Dehaene, S., Akhavein, R. (1995). Attention, automaticity, and levels of
representations in number processing. Journal of Experimental
Psychology. Learning, Memory, and Cognition, 21, 314–326.
Dehaene, S., Bossini, S., Giraux, P. (1993). The mental representation of
parity and number magnitude. Journal of Experimental Psychology.
General, 122, 371–396.
De Jong, R. (2000). An intention – activation account of residual switch
cost. W: S. Monsell, J. Driver (red.), Control of cognitive processes.
Attention and performance (t. 18, s. 357–376). Cambridge, MA: MIT
Press.
De Jong, R., Coles, M.G.H., Logan, G. D. (1995). Strategies and
mechanisms in nonselective and selective inhibitory motor control.
Journal of Experimental Psychology. Human Perception and
Performance, 21, 498–511.
De Jong, R., Coles, M.G.H., Logan, G.D., Gratton, G. (1990). In search of
the point of no return: The control of response processes. Journal of
Experimental Psychology. Human Perception and Performance, 16,
164–182.
Dell, G.S. (1986). A spreading-activation theory of retrieval in sentence
production. Psychological Review, 93, 283–321.
Dell, G.S. (1995). Speaking and misspeaking. W: L.R. Gleitman, M.
Lieberman (red.), Language: An invitation to cognitive science (t. 1, s.
183–208). Cambridge, MA: MIT Press.
Della Sala, S., Baddeley, A.D., Papagno, C., Spinnler, H. (1995). Dual task
paradigm: A means to examine the central executive. W: J. Grafman,
K.J. Holyoak, F. Boller (red.), Structure and functions of the human
prefrontal cotrex (s. 161–190). New York: Annals of the New York
Academy of Science.
Dempster, F.N., Brainerd, Ch.J. (1995). Selective attention and the
inhibitory control of cognition. San Diego: Academic Press.
Dempster, F.N., Corkill, A.J. (1999). Individual differences in susceptibility
to interference and general cognitive ability. Acta Psychological, 101,
395–416.
Dennett, D.C. (1991). Consciousness explained. Boston: Little, Brown.
Deregowski, J. (1972). The role of symmetry in pattern reproduction by
Zambian children. Journal of Cross-Cultural Psychology, 3, 303–307.
DeRenzi, E. (1986). Current issues in prosopagnosia. W: H.D. Ellis, M.A.
Jeeves, F. Newcombe, A. Young (red.), Aspects of face processing (s.
243–252). Dordrecht: Martinus Nijhoff.
D’Esposito, M., Postle, B.R. (2015). The cognitive neuroscience of
working memory. Annual Review of Psychology, 66, 115–142.
Deutsch, J.A., Deutsch, D. (1963). Attention: Some theoretical
considerations. Psychological Review, 70, 80–90.
Deutsch, J.A., Deutsch, D. (1967). Comments on selective attention:
Perception or response. Quarterly Journal of Experimental Psychology,
19, 362–363.
Diamond, A. (2013). Executive functions. Annual Review of Psychology,
64, 135–168.
Dickman, S., Meyer, D.E. (1988). Impulsivity and speed-accuracy tradeoffs
in information processing. Journal of Personality and Social
Psychology, 54, 274–290.
Dodson, Ch., Reisberg, D. (1991). Indirect testing of eyewitness memory:
The (non)effect of misinformation. Bulletin of the Psychonomic Society,
29, 333–336.
Donders, F.C. (1868/1969). On the speed of mental processes. Acta
Psychologica, 30, 412–431 (przekł. ang.; oryginalna publikacja ukazała
się w 1868 r. po holendersku).
Dörner, D., Kreuzig, H.W. (1983). Problemlösefähigkeit und Intelligenz.
Psychologische Rundschau, 34, 185–192.
Dreistadt, R. (1969). The use of analogies and incubation in obtaining
insights in creative problem solving. Journal of Psychology:
Interdisciplinary & Applied, 71, 159–175.
Driver, J. (2001). A selective review of selective attention research from the
past century. British Journal of Psychology, 92, 53–78.
Driver, J., Baylis, G.C. (1989). Movement and visual attention: The
spotlight metaphor breaks down. Journal of Experimental Psychology.
Human Perception and Performance, 15, 448–456.
Driver, J., McLeod, P. (1992). Reversing visual search asymmetries with
conjunctions of movement and orientation. Journal of Experimental
Psychology. Human Perception and Performance, 18, 22–33.
Driver, J., Tipper, S.P. (1989). On the nonselectivity of „selective” seeing:
Contrasts between Interference and priming in selective attention.
Journal of Experimental Psychology. Human Perception and
Performance, 15, 304–314.
Duch, W. (1998). Czym jest kognitywistyka? Kognitywistyka i Media
w Edukacji, 1, 9–50.
Dulaney, C.L., Ellis, N.R. (1994). Automatized responding and cognitive
inertia in individuals with mental retardation. American Journal on
Mental Retardation, 99, 8–18.
Dulany, D.E., Carlson, R.A., Dewey, G.I. (1984). A case of syntactical
learning and judgment: How conscious and how abstract? Journal of
Experimental Psychology: General, 113, 541–555.
Dunbar, K. (1993). Concept discovery in a scientific domain. Cognitive
Science, 17, 397–434.
Duncan, J. (1980). The demonstration of capacity limitation. Cognitive
Psychology, 12, 75–96.
Duncan, J. (1984). Selective attention and the organization of visual
information. Journal of Experimental Psychology. General, 113, 501–
517.
Duncan, J. (1985). Visual search and visual attention. W: M.I. Posner,
O.S.M. Marin, (red.), Attention and performance (t. 11, s. 85–104).
Hillsdale, NJ: Lawrence Erlbaum Associates.
Duncan, J. (1989). Boundary conditions on parallel processing in human
vision. Perception, 18, 457–469.
Duncan, J. (1995). Attention, intelligence and the frontal lobes. W: M.
Gazzaniga (red.), The cognitive neuroscience (s. 721–734). Cambridge,
MA: MIT Press.
Duncan, J., Humphreys, G.W. (1989). Visual search and stimulus similarity.
Psychological Review, 96, 433–458.
Duncan, J., Owen, A. (2000). Common regions of the human frontal lobe
recruited by diverse cognitive demands. Trends in Neurosciences, 23,
475–483.
Duncker, K. (1945). On problem-solving. Psychological Monographs, 58,
1–110.
Dury, C.G., Fox, J.G. (1975). Human reliability in quality control. London:
Taylor & Francis.
D’Zmura, M. (1991). Color in visual search. Vision Research, 31, 951–966.
Eagly, A.H. (1994). On comparing women and men. Feminism &
Psychology, 4. Wydawniw specjalne: Special feature: Should
psychologists study sex differences?, 513–522.
Ebbinghaus, H. (1885/1913). Memory: A contribution to experimental
psychology. New York: Columbia University (przeł. na j. ang. H. A.
Ruger, C. E. Bussenius).
Edelman, G.M. (1998). Przenikliwe powietrze, jasny ogień, przeł. J.
Rączaszek, Warszawa: Państwowy Instytut Wydawniczy.
Eddy, D.M. (1982). Probabilistic reasoning in clinical medicine: problems
and opportunities. W: D. Kahneman, P. Slovic, A. Tversky (red.),
Judgment under uncertainty: Heuristics and biases (s. 249–267).
Cambridge, New York: Cambridge University Press.
Edwards, W. (1953). The theory of decision making. Psychological
Bulletin, 51, 380–417.
Egan, D.E., Greeno, J.G. (1974). Theory of rule induction: Knowledge
acquired in concept learning, serial pattern learning, and problem
solving. W: L.W. Gregg (red.), Knowledge and cognition. Potomac,
MD: Lawrence Erlbaum Associates.
Egan, J.P., Greenberg, G.Z., Schulman, A.I. (1961). Interval of time
uncertainty in auditory detection. Journal of the Acoustical America,
33, 779–781.
Egeth, H., Jonides, J., Wall, S. (1972). Parallel processing of multielement
display. Cognitive Psychology, 3, 674–698.
Egeth, H., Virzi, R.A., Garbart, H. (1984). Searching for conjunctively
defined targets. Journal of Experimental Psychology. Human
Perception and Performance, 10, 32–39.
Ekstrand, B.R. (1967). Effect of sleep on memory. Journal of Experimental
Psychology, 75, 64–72.
Ellis, H.D. (1975). Recognition faces. British Journal of Psychology, 66,
409–426.
Ellis, H.D., Shepherd, J.W., Davies, G.M. (1979). Identification of familiar
and unfamiliar faces from internal and external features: Some
implication for theories of face recognition. Perception, 8, 431–439.
Ellis, N.C., Hennelly, R.A. (1980). A bilingual word-length effect:
Implications for intelligence testing and the relative ease of mental
calculation in Welsh and English. British Journal of Psychology, 71,
43–51.
Elman, J.L. (1998). Connectionism, artificial life, and dynamical systems.
W: W. Bechtel, G. Graham (red.), A companion to cognitive science (s.
488–505). Oxford, UK: Blackwell Publishers.
Elman, J. (1999). Origins of language: A conspiracy theory. W: B.
MacWhinney (red.), The emergence of language (s. 1–27). Hillsdale,
NJ: Lawrence Erlbaum Associates.
Elman, J. (2001). Connectionism in language development. W: M.
Tomasello, E. Bates (red.), Language development: The essential
readings (s. 295–306). Malden, MA: Blackwell Publishers.
Ericsson, K.A. (1985). Memory skill. Canadian Journal of Psychology, 39,
188–231.
Ericsson, K.A. (1988). Analysis of memory performance in terms of
memory skill. W: R.J. Sternberg (red.), Advances in the psychology of
human intelligence (t. 4, s. 137–179). Hillsdale, NJ: Lawrence Erlbaum
Associates.
Ericsson, K.A., Chase, W.G., Faloon, S. (1980). Acquisition of a memory
skill. Science, 208, 1181–1182.
Ericsson, K.A., Delaney, P.F. (1999). Long-term working memory as an
alternative to capacity models of working memory in everyday skilled
performance. W: A. Miyake, P. Shah (red.), Models of working
memory: Mechanisms of active maintenance and executive control (s.
257–297). New York: Cambridge University Press.
Ericsson, K.A., Kintsch, W. (1995). Long-term working memory.
Psychological Review, 102, 211–245.
Ericsson, K.A., Krampe, R.T., Tesch-Römer, C. (1993). The role of
deliberate practice in the acquisition of expert performance.
Psychological Review, 100, 363–406.
Ericsson, K.A., Simon, H.A. (1993). Protocol analysis: Verbal reports as
data. Cambridge, MA: MIT Press.
Eriksen, B.A., Eriksen, C.W. (1974). The importance of being first:
A tachostoscopic study of the contribution of each letter to the
recognition of four-letter words. Perception and Psychophysics, 15, 66–
72.
Eriksen, B.A., Eriksen, C.W., Hoffman, J.E. (1986). Recognition memory
and attentional selection: Serial scanning is not enough. Journal of
Experimental Psychology. Human Perception and Performance, 12,
476–483.
Eriksen, C.W., Coles, M.G.H., Morris, L.R., O’Hara, W.P. (1985). An
electromyographic examination of response competition. Bulletin of the
Psychonomic Society, 23, 165–168.
Eriksen, C.W., Collins, J.F. (1967). Some temporal characteristics of visual
pattern perception. Journal of Experimental Psychology, 74, 476–484.
Eriksen, C.W., Schultz, D.W. (1979). Information processing in visual
serarch: A continuous flow conception and experimental research.
Perception and Psychophysics, 25, 249–263.
Eriksen, C.W., Spencer, T. (1969). Rate of information processing in visual
perception: Some results and methodological considerations. Journal of
Experimental Psychology, 79, 1–16.
Ermer, E., Guerin, S.A., Cosmides, L., Tooby, J., Miller, M.B. (2006).
Theory of mind broad and narrow: Reasoning about social exchange
engages ToM areas, precautionary reasoning does not. Social
Neuroscience, 1, 196–219.
Evans, J.St.B.T. (1982). The psychology of deductive reasoning. London:
Routledge and Kegan Paul.
Evans, J.St.B.T. (1989). Bias in human reasoning. Hove, UK: Lawrence
Erlbaum Associates.
Evans, J.St.B.T. (1991). Theories of human reasoning: The fragmented
state of the art. Theory and Psychology, 1, 83–105.
Evans, J.St.B.T. (2002). Logic and human reasoning: An assessment of the
deduction paradigm. Psychological Bulletin, 128, 978–996.
Evans, J.St.B.T., Barston, J. I., Pollard, P. (1983). On the conflict between
logic and belief in syllogistic reasoning. Memory and Cognition, 11,
295–306.
Evans, J.St.B.T., Newstead, S.E., Byrne, R.M.J. (1993). Human reasoning:
The psychology of deduction. Hove, UK: Lawrence Erlbaum
Associates.
Evans, J.St.B.T., Pollard, P. (1990). Belief bias and problem complexity in
deductive reasoning. W: J.P. Caverni, J.M. Fabre, M. Gonzalez (red.),
Cognitive biases (s. 131–154). Amsterdam, New York: North-Holland.
Evett, L.J., Humphreys, G.W. (1981). The use of abstract graphemic
information in lexical access. Quarterly Journal of Experimental
Psychology, 33A, 325–350.
Exner, S. (1887) Einige Beobachtungen über Bewegungsnachbilder [Some
observations on movement aftereffects]. Centralblatt für Physiologie, 1,
135–140, https://archive.org/details/centralblattfrp01wiengoog (dostęp:
).
Eysenck, H.J. (1967). The biological basis of personality. Springfield: CC
Thomas.
Eysenck, H.J. (1986). A new view of human intelligence: Critical review of
„Beyond IQ: A triarchic theory of human intelligence” by R.J.
Sternberg. British Journal of Educational Psychology, 56, 106–108.
Eysenck, M.W. (1982). Attention and arousal. Berlin: Springer-Verlag.
Eysenck, M.W., Keane, M. T. (2015). Cognitive psychology: A student’s
handbook (wyd. 7). London: Psychology Press.
Eysenck, S.B.G. (1983). One aproach to cross-cultural studies of
personality. Australian Journal of Psychology, 35, 381–391.
Fagot, C., Pashler, H. (1992). Making two responses to a single object:
Implications for the central attentional bottleneck. Journal of
Experimental Psychology. Human Perception and Performance, 18,
1058–1079.
Falkowski, A., Tyszka, T. (2001). Psychologia zachowań konsumenckich.
Gdańsk: Gdańskie Wydawnictwo Psychologiczne.
Fangmeier, T., Knauff, M., Ruff, C.C., Sloutsky, V. (2006). fMRI evidence
for a three-stage model of deductive reasoning. Journal of Cognitive
Neuroscience, 18, 320–334.
Farah, M.J. (1992). Is an object an object and object? Cognitive and
neuropsychological investigations of domain specificity in visual object
recognition. Current Directions in Psychological Science, 2, 55–82.
Farrand, P., Hussain, F., Hennessy, E. (2002). The efficacy of the „mind
map” study technique. Medical Education, 36, 426–431.
Fasolo, B., Misuraca, R., McClelland, G.H. (2003). Individual differences
in adaptive choice strategies. Research in Economics, 57, 219–233.
Fehr, B. (1988). Prototype analysis of the concepts of love and
commitment. Journal of Personality and Social Psychology, 55, 557–
579.
Fehr, B., Russell, J.A. (1984). Concept of emotion viewed from a prototype
perspective. Journal of Experimental Psychology: General, 113, 464–
486.
Fehr, B., Russell, J.A. (1991). The concept of love viewed from a prototype
perspective. Journal of Personality and Social Psychology, 60, 425–
438.
Feltovitch, P.J., Johnson, P.E., Moller, H.J., Swanson, D.B. (1984). LCS:
The role of and development of medical knowledge in diagnostic
expertise. W: W.C. Clancey, E.H. Shortliffe (red.), Readings in medical
artifical intelligence (s. 275–319). Reading, MA: Addison-Wesley.
Feltovitch, P.J., Spiro, R.J., Coulson, R.L. (1997). Issues in expert
flexibility in context characterized by complexity and change. W: P.J.
Feltovitch, K.M. Ford, R.R. Hoffman (red.), Expertise in context:
Human and machine (s. 126–146). Cambridge, MA: MIT Press.
Ferreira, F. (1993). Creation of prosody during sentence production.
Psychological Review, 100, 233–253.
Ferreira, F. (2002). Prosody. W: L. Nadel (red.), Encyclopedia of cognitive
science (s. 258–265). London: Macmillan Reference.
Ferreira, F., Christianson, K., Hollingworth, A. (2001). Misinterpretations
of garden-path sentences: Implications for models of reanalysis.
Journal of Psycholinguistic Research, 30, 3–20.
Festinger, L. (1957). A theory of cognitive dissonance. Stanford, CA:
Stanford University Press.
Fiddick, L., Cosmides, L., Tooby, J. (2000). No interpretation without
representation: The role of domain-specific representations and
inferences in the Wason selection task. Cognition, 77, 1–79.
Fiddick, L., Spampinato, M.V., Grafman, J. (2005). Social contracts and
precautions activate different neurological systems: An fMRI
investigation of deontic reasoning. NeuroImage, 28, 778–786.
Fillenbaum, S. (1975a). A note on memory for sense: Identical recognition
of warnings phrased as conditionals, disjunctives, and conjunctives.
Bulletin of the Psychonomic Society, 6, 293–294.
Fillenbaum, S. (1975b). If: some uses. Psychological Research, 37, 245–
260.
Finke, R.A. (1985). Theories relating mental imagery to perception.
Psychological Bulletin, 98, 236–259.
Finke, R.A., Ward, T.B., Smith, S.M. (1992). Creative cognition: Theory,
research, and applications. Cambridge, MA: MIT Press.
Firestone, C., Scholl, B.J. (2016). Cognition does not affect perception:
Evaluating the evidence for „top-down” effects. Behavioral and Brain
Sciences, 39, e229.
Fischler, I., Goodman, G.D. (1978). Latency of associated activation in
memory. Journal of Experimental Psychology: Human Perception and
Performance, 4, 455–470.
Fisher, R.P., Craik, F.I. (1977). Interaction between encoding and retrieval
operations in cued recall. Journal of Experimental Psychology: Human
Learning and Memory, 3, 701–711.
Fisk, A.D., Schneider, W. (1981). Control and automatic processing during
tasks requiring sustained attention: A new approach to vigilance.
Human Factors, 23, 737–750.
Fiske, S.T., Taylor, S.E. (1991). Social cognition. New York: McGraw-Hill.
Fitzgerald, J.M. (1996). Intersecting meanings of reminiscence in adult
development and aging. W: D.C. Rubin (red.), Remembering our past:
Studies in autobiographical memory (s. 360–383). New York:
Cambridge University Press.
Flavell, J.H. (1979). Metacognition and cognitive monitorinig. American
Psychologist, 34, 906–911.
Flavell, J.H., Flavell, E.R., Green, F. L. (1983). Development of the
appearance-reality distinction. Cognitive Psychology, 15, 95–120.
Fleishman, E.A., Parker, J.F.Jr. (1962). Factors in the retention and
relearning of perceptual-motor skill. Journal of Experimental
Psychology, 64, 215–226.
Fleszner, E. (1960). Abstrakcja w procesie rozwiązywania zadań. Studia
Psychologiczne, 3, 53–94.
Fodor, J.A. (1975). The language of thought. New York: Thomas Y.
Crowell Co.
Fodor, J.A. (1983). The modularity of mind. Cambridge, MA: MIT Press.
Ford, M. (1995). Two modes of representation and problem solution in
syllogistic reasoning. Cognition, 54, 1–71.
Fowler, C.A., Wolford, G., Slade, R., Tassinary, L. (1981). Lexical access
with and without awareness. Journal of Experimental Psychology:
General, 110, 341–362.
Francolini, C.N., Egeth, H.E. (1980). On the non-automaticity of automatic
activation: Evidence of selective seeing. Perception and Psychophysics,
27, 331–342.
Francuz, P. (1991). Funkcja ilościowych i jakościowych cech
w kategoryzacji przedmiotów. Lublin: Towarzystwo Naukowe KUL.
Franklin, H.C., Holding, D.H. (1977). Personal memories at different ages.
Quarterly Journal of Experimental Psychology, 29, 527–532.
Frankmann, J.P., Adams, J.A. (1962). Theories of vigilance. Psychological
Bulletin, 59, 257–272.
Franks, J.J., Bransford, J.D. (1971). Abstraction of visual patterns. Journal
of Experimental Psychology, 90, 65–74.
Frazier, L., Rayner, K. (1982). Making and correcting errors during
sentence comprehension: Eye movements in the analysis of structurally
ambiguous sentences. Cognitive Psychology, 14, 178–210.
Frensch, P.A., Sternberg, R.J. (1989). Expertise and intelligent thinking:
When is it worse to know better? W: R J. Sternberg (red.), Advances in
the psychology of human intelligence (t. 5, s. 157–188). Hillsdale, NJ:
Lawrence Erlbaum Associates.
Friedman, A. (1979). Framing pictures: The role of knowledge in
automatised encoding and memory for gist. Journal of Experimental
psychology: General, 108, 316–355.
Friedman, N.P., Miyake, A. (2004). The relations among inhibition and
interference control functions: A latent-variable analysis. Journal of
Experimental Psychology: General, 133, 101–135.
Frisby, J.P. (1979). Seeing: mind, brain and illusion. Oxford: Oxford
University Press.
Frost, N. (1972). Encoding and retrieval in visual memory tasks. Journal of
Experimental Psychology, 95, 317–326.
Fuentemilla, L., Miró, J., Ripollés, P., Vilà-Balló, A., Juncadella, M.,
Castañer, S., …, Rodríguez-Fornells, A. (2013). Hippocampus-
dependent strengthening of targeted memories via reactivation during
sleep in humans. Current Biology, 23, 1769–1775.
Funke, J. (1983). Einige Bemerkungen zu Problemen der
Problemlöseforschung oder: ist Testintelligenz doch ein Prädiktor?
(Issues in problem solving research: Is test intelligence a predictor after
all?). Diagnostica, 29, 283–302.
Funke, J. (1991). Solving complex problems: Exploration and control of
complex systems. W: R.J. Sternberg, P.A. Frensch (red.), Complex
problem solving: Principles and mechanisms (s. 185–222). Hillsdale,
NJ: Lawrence Erlbaum Associates.
Funke, J. (1995). Experimental research on complex problem solving. W:
P.A. Frensch, J. Funke (red.), Complex problem solving: The European
perspective (s. 243–268). Hillsdale, NJ: Lawrence Erlbaum Associates.
Galton, F. (1883). Inquiries into human faculty and its development.
London: Macmillan.
Garrett, M. F. (1975). The analysis of sentence production. W: G.H. Bower
(red.), The psychology of learning and motivation (t. 9, s. 133–177).
New York: Academic Press.
Gathercole, S.E. (1999). Cognitive approaches to the development of short-
term memory. Trends in Cognitive Science, 3, 410–418
Gathercole, S.E., Pickering, S.J. (1999). Estimating the capacity of
phonological shortterm memory. International Journal of Psychology,
34, 378–382
Gattis, M., Dupeyrat, C. (2000). Spatial strategies in reasoning. W: W.
Schaeken, G. De Vooght (red.), Deductive reasoning and strategies (s.
153–175). Mahwah, NJ: Lawrence Erlbaum Associates.
Gąsiorowska, A. (2019). Psychologiczne znaczenie pieniędzy. Warszawa:
Wydawnictwo Naukowe PWN.
Gegenfurtner, A., Lehtinen, E., Säljö, R. (2011). Expertise differences in
the comprehension of visualizations: A meta-analysis of eye-tracking
research in professional domains. Educational Psychology Review, 23,
523–552.
Gehringer, W.L., Engel, E. (1986). Effect of ecological viewing conditions
on Ames’ distorted room illusion. Journal of Experimental Psychology:
Human Perception and Performance, 12, 181–185.
Geiselman, R.E., Fisher, R.P., Firstenberg, I., Hutton, L.A., Sullivan, S.J.,
Avetissian, I.V., Prosk, A.L. (1984). Enhancement of eyewitness
memory: An empirical evaluation of the cognitive interview. Journal of
Police Science & Administration, 12, 74 – 80.
Gelman, R. (1999). Nařve mathematics. W: R.A. Wilson, F.C. Keil (red.),
The MIT encyclopedia of the cognitive sciences (s. 575–577).
Cambridge, MA: MIT Press.
Gentner, D. (1983). Structure-mapping: A theoretical framework for
analogy. Cognitive Science, 7, 155–170.
Gentner, D., Holyoak, K.J. (1997). Reasoning and learning by analogy:
Introduction. American Psychologist, 52, 32–34.
Getzels, J.W. (1982). The problem of the problem. W: H. Hogarth (red.),
New direction in the methodology of social and behavioral science:
Question framing and response consistency (t. 11, s. 37–49). San
Francisco: Jossey Bass.
Getzels, J.W., Csikszentmihalyi, M. (1976). The creative vision: A
longitudinal study of problem finding in art. New York: Wiley.
Gevins, A., Cutillo, B. (1993). Spatiotemporal dynamics of component
processes in human working memory. Electroencephalography and
Clinical Neurophysiology, 87, 128–143.
Ghiselin, B. (1952). The creative process. Berkeley, CA: University of
California Press.
Gibson, E.J. (1969). Principles of perceptual learning. New York:
Appleton-Century-Crofts.
Gibson, E.J., Shapiro, F., Jonas, A. (1968). Confusion matrices for graphic
patterns obtained with a latency measure. W: The analysis of reading
skill: A program of basic and applied research (s. 76–96). Ithaca, NY:
Cornell University.
Gibson, J.J. (1950). The perception of the visual world. New York:
Houghton-Mifflin.
Gibson, J.J. (1966). The senses considered as perceptual systems. Boston:
Houghton Mifflin.
Gibson, J.J. (1979). The ecological approach to visual perception. Boston:
Houghton Mifflin.
Gick, M.L. (1986). Problem-solving strategies. Educational Psychologist,
21, 99–120.
Gick, M.L., Holyoak, K.J. (1980). Analogical problem solving. Cognitive
Psychology, 12, 306–355.
Gick, M.L., Holyoak, K.J. (1983). Schema induction and analogical
transfer. Cognitive Psychology, 15, 1–38.
Gick, M.L., McGarry, S.J. (1992). Learning from mistakes: inducing
analogous solution failures to a source problem produces later
successes in Analogical Transfer. Journal of Experimental Psychology:
Learning, Memory, and Cognition, 18, 623–639.
Gigerenzer, G., Goldstein, D.G. (1999). Betting on one good reason: The
take the best heuristic. W: G. Gigerenzer, P.M. Todd, the ABC Research
Group (red.), Simple heuristics that make us smart (s. 75–95). Oxford,
UK: Oxford University Press.
Gigerenzer, G., Hertwig, R., Pachur, T. (red.) (2011). Heuristics: The
foundations of adaptive behavior. Oxford, New York: Oxford
University Press.
Gigerenzer, G., Hoffrage, U. (1995). How to improve Bayesian reasoning
without instruction: Frequency formats. Psychological Review, 102,
684–704.
Gigerenzer, G., Hug, K. (1992). Domain-specific reasoning: Social
contracts, cheating and perspective change. Cognition, 43, 127–171.
Gigerenzer, G., Todd, P.M. (1999). Fast and frugal heuristics: The adaptive
toolbox. W: G. Gigerenzer, P.M. Todd, the ABC Research Group (red.),
Simple heuristics that make us smart (s. 3–34). Oxford, UK: Oxford
University Press.
Gigerenzer, G., Todd, P.M., the ABC Research Group (red.) (1999). Simple
heuristics that make us smart. Oxford, New York: Oxford University
Press.
Gilbert, A.L., Regier T., Kay, P., Ivry, R.B. (2006). Whorf hypothesis is
supported in the right visual field but not the left. Proceedings of the
National Academy of Sciences of the USA, 103, 489–494.
Gilbert, S.J., Shallice, T. (2002). Task switching: A PDP model. Cognitive
Psychology, 44, 297–337.
Glanzer, M., Cunitz, A.R. (1966). Two storage mechanisms in free recall.
Journal of Verbal Learning and Verbal Behavior, 5, 351–360.
Glaser, R. (1996). Changing the agency for learning: Acquiring expert
performance. W: K.A. Ericsson (red.), Road to excellence: The
acquisition of expert performance in the arts and sciences, sports, and
games (s. 303–311). Mahwah, NJ: Lawrence Erlbaum Associates.
Glass, A.L., Holyoak, K.J. (1975). Alternative conceptions of semantic
memory. Cognition, 3, 313–339.
Glass, A.L., Holyoak, K.J., Santa, J.L. (1979). Cognition. Reading, MA:
Addison-Wesley.
Glass, A.L., Millen, D.R., Beck, L.G., Eddy, J.K. (1985). Representation of
images in sentence verification. Journal of Memory and Language, 24,
442–465.
Gleason, H.A. (1961). An introduction to descriptive linguistics. New York:
Holt, Rinehart and Winston.
Gleitman, L., Bloom, P. (1999). Language acquisition. W: R.A. Wilson,
F.C. Keil (red.), The MIT Encyclopedia of the cognitive sciences (s.
434–438). Cambridge, MA: MIT Press.
Gleitman, L.R., Wanner, E. (1982). Language acquisition: The sate of the
art. W: E. Wanner, L.R. Gleitman (red.), Language acqutsition: The
state of the art (s. 3–48). New York: Cambridge University Press.
Glenberg, A., Adams, F. (1978). Type, rehearsal and recognition. Journal of
Verbal Learning and Verbal Behavior, 17, 455–463.
Glucksberg, S., Cowen, G.N. Jr. (1970). Memory for nonattended auditory
material. Cognitive Psychology, 1, 149–156.
Gluth, S., Rieskamp, J., Büchel, C. (2013). Deciding not to decide:
computational and neural evidence for hidden behavior in sequential
choice. PLoS Computational Biology, 9, e1003309.
Gobet, F., Simon, H.A. (1996a). Recall of random and distorted chess
positions: Implications for the theory of expertise. Memory &
Cognition, 24, 493–503.
Gobet, F., Simon, H.A. (1996b). Recall of rapidly presented random chess
positions is a function of skill. Psychonomic Bulletin and Review, 3,
159–163.
Gobet, F., Simon, H.A. (1996c). Templates in chess memory: A mechanism
for recalling several boards. Cognitive Psychology, 31, 1–40.
Godden, D.R., Baddeley, A.D. (1975). Context-dependent memory in two
natural environments: On land and underwater. British Journal of
Psychology, 66, 325–331.
Godden, D.R., Baddeley, A.D. (1980). When does context influence
recognition memory? British Journal of Psychology, 71, 99–104.
Godijn, R., Theeuwes, J. (2002). Programming of endogenous and
exogenous saccades: Evidence for competitive integration model.
Journal of Experimental psychology: Human Perception and
Performance, 28, 1039–1054.
Goel, V., Buchel, C., Frith, C., Dolan, R.J. (2000). Dissociation of
mechanisms underlying syllogistic reasoning. NeuroImage, 12, 504–
514.
Goel, V., Dolan, R.J. (2003). Explaining modulation of reasoning by belief.
Cognition, 87, 11–22.
Goel, V., Dolan, R.J. (2004). Differential involvement of left prefrontal
cortexin inductive and deductive reasoning. Cognition, 93, 109–121.
Goldman, B.A., Flake, W.L. (1998). The Battery of Interpersonal
Capabilities and Rokeach’s Dogmatism Scale: Is there a relationship?
Psychological Reports, 71, 104–106.
Goldstein, D.G., Gigerenzer, G. (2002). Models of ecological rationality:
The recognition heuristic. Psychological Review, 109, 75–90.
Goldstone, R.L., Barsalou, L.W. (1998). Reuniting perception and
conception. Cognition, 65, 231–262.
Gopher, D. (1992). The skill of attention control: Acquisition and execution
of attention strategies. W: D.E. Meyer, S. Kornblum (red.), Attention
and performance (t. 14, s. 299–322). Cambridge: MIT Press.
Gopher, D., Armony, L., Greensphan, Y. (2000). Switching task and
attention policies. Journal of Experimental Psychology: General, 129,
308–339.
Gopher, D., Brickner, M., Navon, D. (1982). Different difficulty
manipulations interact differently with task emphasis: Evidence for
multiple resources. Journal of Experimental Psychology. Human
Perception and Performance, 8, 146–157.
Gordon, I.E. (1989). Theories of visual perception. Chichester, New York:
Wiley.
Goschke, T. (2000). Intentional reconfiguration and involuntary persistence
in task set switching. W: S. Monsell, J. Driver (red.), Control of
cognitive processes. Attention and performance (t. 18, s. 331–356).
Cambridge, MA: MIT Press.
Gottman, J., Silver, N. (2014). Siedem zasad udanego małżeństwa, przeł. D.
Olejnik. Kraków: Wydawnictwo Uniwersytetu Jagiellońskiego.
Gough, H.G., Bradley, P. (1996). CPI manual (wyd. 3). Chapter 1:
Introduction (s. 1–16). Palo Alto, CA: Consulting Psychologists Press.
Gould, S.J. (1999). A critique of Heckhausen and Schulz’s (1995) life-span
theory of control from a cross-cultural perspective. Psychological
Review, 106, 597–604.
Góralski, A. (1980). Twórcze rozwiązywanie zadań. Warszawa: Państwowe
Wydawnictwo Naukowe.
Graesser, A.C., Singer, M., Trabasso, T. (1994). Constructing inferences
during narrative text comprehension. Psychological Review, 101, 371–
395.
Graesser, A.C., Woll, S.B., Kowalski, D.J., Smith, D.A. (1980). Memory
for typical and atypical actions in scripted activities. Journal of
Experimental Psychology. Learning, Memory, and Cognition, 6, 503–
515.
Graf, P., Schacter, D.L. (1985). Implicit and explicit memory for new
associations in normal and amnesic subjects. Journal of Experimental
Psychology: Learning, Memory, and Cognition, 11, 501–518.
Grafman, J. (1989). Plans, action and mental sets: Managerian knowledge
units in the frontal lobes. W: E. Perecman, Integrating theory and
practice in clinical neuropsychology (s. 93–138). Hillsdale, NJ:
Lawrence Erlbaum Associates.
Graham, C.H. (1965). Visual space perception. W: C.H. Graham (red.),
Vision and visual perception (s. 504–547). New York: Wiley.
Graham, G. (1998). Philosophy of mind: An introduction (wyd. 2). Oxford,
UK: Blackwell Publishers.
Grant, E.R., Spivey, M.J. (2003). Eye movements and problem solving:
Guiding attention guides thought. Psychological Science, 14, 462–466.
Gratton, G., Coles, M.G., Donchin, E. (1992). Optimizing the use of
information: Strategic control of activation of responses. Journal of
Experimental Psychology: General, 121, 480–506.
Gray, J.A., Wedderburn, A.A.I. (1960). Grouping strategies with
simultaneous stimuli. Quarterly Journal of Experimental Psychology,
12, 180–184.
Green, D.M., Swets, J.A. (1966). Signal detection theory and
psychophysics. New York: Wiley.
Green, D.W. (1994). Induction: Representation, strategy and argument.
International Studies in the Philosophy of Science, 8, 45–50.
Greeno, J.G. (1974). Hobbits and orcs: Acquisition of a sequential concept.
Cognitive Psychology, 6, 270–292.
Greeno, J.G. (1976). Indefinite goals in well-structured problems.
Psychological Review, 83, 479–491.
Greeno, J.G. (1978). Natures of problem-solving abilities. W: W.K. Estes
(red.), Handbook of learning and cognitive processes: Human
information (t. 5, s. 239– 270). Hillsdale, NJ: Lawrence Erlbaum
Associates.
Greeno, J.G. (1980). Psychology of learning, 1960–1980: One participant’s
observations. American Psychologist, 35, 713–728.
Greenwald, A.G. (1972). On doing two things at once: Time sharing as
a function of ideomotor compatibility. Journal of Experimental
Psychology, 94, 52–57.
Greenwald, A.G., Shulman, H.G. (1973). On doing two things at once: II.
The elimination of the psychological refractory period effect. Journal of
Experimental Psychology. General, 101, 70–76.
Gregory, R.L. (1970). The intelligent eye. New York: McGraw-Hill.
Grice, G.R., Davis, J.D. (1957). Effect of irrelevant thirst motivation on
a response learned with food reward. Journal of Experimental
Psychology, 53, 347–352.
Grice, H.P. (1975). Logic and conversation. W: P. Cole, J.L. Morgan (red.),
Syntax and semantics, t. 3: Speech acts (s. 41–58). New York:
Academic Press.
Grice, H.P. (1989). Studies in the way of words. Cambridge, MA: Harvard
University Press.
Griffin, D.R. (2004). Umysły zwierząt, przeł. M. Ślósarska, A.
Tabaczyńska. Gdańsk: Gdańskie Wydawnictwo Psychologiczne.
Griggs, R.A., Cox, J.R. (1982). The elusive thematic-materials effect in
Wason’s selection task. British Journal of Psychology, 73, 407–420.
Grigorenko, E.L., Sternberg, R.J. (2001). Analytical, creative, and practical
intelligence as predictors of self-reported adaptive functioning: A case
study in Russia. Intelligence, 29, 57–74.
Grill-Spector, K., Knouf, N., Kanwisher, N. (2004). The fusiform face area
subserves face perception, not generic within-category identification.
Nature Neuroscience, 7, 555–562.
Grosjean, F. (1997). The bilingual individual. Interpreting, 2, 163–187.
Gruber, T., Müller, M.M., Keil, A. (2002). Modulation of induced gamma
band responses in a perceptual learning task in the human EEG. Journal
of Cognitive Neuroscience, 14, 732–744.
Gruszka, A., Nęcka, E. (2002). Priming and acceptance of close and remote
associations by creative and less creative people. Creativity Research
Journal, 14, 193–205.
Guetzkow, H. (1951). An analysis of the operation of set in problem-
solving behavior. Journal of General Psychology, 45, 219–244.
Guilford, J.P. (1959). Three faces of intellect. American Psychologist, 14,
469–479.
Guilford, J.P., Christensen, P.R., Merrifield, P.R., Wilson, R.C. (1978).
Alternate uses manual. Orange, CA: Sheridan Supply Co.
Guilford, R.N., Juola, J.F. (1976). Familiarity effects on memory search and
visual search. Bulletin of the Psychonomic Society, 7, 142–144.
Guynn, M.J., McDaniel, M.A., Einstein, G.O. (1998). Prospective memory:
When reminders fail. Memory and Cognition, 26, 287–298.
Hadamard, J. (1964). Psychologia odkryć matematycznych, przeł. R.
Molski. Warszawa: Państwowe Wydawnictwo Naukowe.
Halford, G.S., Maybery, M.T., Bain, J.D. (1988). Set-size effects in primary
memory: An age-related capacity limitation. Memory and Cognition,
16, 480–487.
Hall, J.F. (1979). Recognition as a function of word frequency. American
Journal of Psychology, 92, 497–505.
Halpern, A.R. (1986). Memory for tune titles organized or unorganized
presentation. American Journal of Psychology, 99, 57–70.
Halpern, D.F. (2003). Thinking critically about creative thinking. W: M.A.
Runco (red.), Critical creative processes (s. 189–207). Cresskill, NJ:
Hampton Press.
Hambrick, D.Z., Oswald, F.L., Altmann, E.M., Meinz, E.J., Gobet, F.,
Campitelli, G. (2014). Deliberate practice: Is that all it takes to become
an expert? Intelligence, 45, 34–45.
Hamilton, A.C., Martin, R.C. (2005). Dissociations among tasks involving
inhibition: A single-case study. Cognitive, Affective, & Behavioral
Neuroscience, 5, 1–13.
Hampton, J.A. (1979). Polymorphous concepts in semantic memory.
Journal of Verbal Learning and Verbal Behavior, 18, 441–461.
Hampton, J.A. (1981). An investigation of the nature of abstract concepts.
Memory and Cognition, 9, 149–156.
Hanseeuw, B.J., Seron, X., Ivanoiu, A. (2012). Increased sensitivity to
proactive and retroactive interference in amnestic mild cognitive
impairment: New insights. Brain and Cognition, 80, 104–110.
Harmon, M.G., Morse, L.W. (1995). Strategies and knowledge in problem
solving: Results and implication for education. Education, 115, 580–
589.
Harnish, R.M. (2002). Minds, brains, computers: An historical introduction
to the foundations of cognitive science. Oxford, UK: Blackwell
Publishers.
Harrison, R.H., Newirth, J. (1990). The effect of sensory deprivation and
ego strength on a measure of autistic thinking. Journal of Personality
Assessment, 54, 694–703.
Harshman, E.J., MacHale, D., Sloane, P. (2003). Lateral thinking puzzles.
New York: Sterling.
Hasher, L., Zacks, R. (1979). Automatic and efortfull processes in memory.
Journal of Experimental Psychology: General, 108, 356–388.
Hayes, J.R. (1989). The complete problem solver (wyd. 2). Hillsdale, NJ:
Lawrence Erlbaum Associates.
Hebb, D.O. (1949). The organization of behavior. New York: Wiley.
Hebb, D.O. (1969). Podręcznik psychologii, przeł. J. Pałczyński, J. Siuta.
Warszawa: Państwowe Wydawnictwo Naukowe.
Heitz, R.P., Schall, J.D. (2012). Neural mechanisms of speed-accuracy
tradeoff. Neuron, 76, 616–628.
Henley, N.M. (1969). A psychological study of the semantics of animal
terms. Journal of Verbal Learning and Verbal Behavior, 8, 176–184.
Higham, P.A. (1997). Dissociations of grammaticality and specific
similarity effects in artificial grammar learning. Journal of
Experimental Psychology: Learning, Memory, and Cognition, 23,
1029–1045.
Hilton, D.J., Jaspars, J.M., Clarke, D.D. (1990). Pragmatic conditional
reasoning: Context and content effects on the interpretation of causal
assertions. Journal of Pragmatics, 14, 791–812.
Hirschfeld, L.A. (1999). Nařve sociology. W: R.A. Wilson, F.C. Keil (red.),
The MIT encyclopedia of the cognitive sciences (s. 579–581).
Cambridge, MA: MIT Press.
Hirsh-Pasek, K., Golinkoff, R. (1996). The origins of grammar: Evidence
from early language comprehension. Cambridge, MA: MIT Press.
Hirst, W., Kalmar, D. (1987). Characterizing attentional resources. Journal
of Experimental Psychology. General, 116, 68–81.
Hitch, G.J. (1978). The role of short-term working memory in mental
arithmetic. Cognitive Psychology, 10, 302–323.
Hoffman, D.D., Richards, W.A. (1984). Parts of recognition. Cognition, 18,
65–96.
Hoffrage, U., Gigerenzer, G. (1998). Using natural frequencies to improve
diagnostic inferences. Academic Medicine, 73, 538–540.
Holding, D. (1985). The psychology of chess skill. Hillsdale, NJ: Lawrence
Erlbaum Associates.
Holender, D. (1986). Semantic activation without conscious identification
in dichotic listening, parafoveal vision, and visual masking: A survey
and appraisal. The Behavioral and Brain Sciences, 9, 1–66.
Holyoak, K.J. (1984). Analogical thinking and human intelligence.
Advances in the Psychology of Human Intelligence, 2, 199–230.
Holyoak, K.J., Koh, K. (1987). Surface and structural similarity in
analogical transfer. Memory and Cognition, 15, 332–340.
Holyoak, K.J., Nisbett, R.E. (1988). Induction. W: R.J. Sternberg, E.E.
Smith (red.), The psychology of human thought (s. 50–91). New York:
Cambridge University Press.
Hopfield, J.J. (1982). Neural networks and physical systems with emergent
collective computational abilities. Proceedings of the National Academy
of Sciences, 79, 2554–2558.
Horbaczewski, T., Szymura, B. (2005). Kibice uwaga na reklamy!
O efektywności różnych form prezentacji marki produktu na
zewnętrznych planszach reklamowych. Studia Psychologiczne, 43, 47–
58.
Horstmann, G. (2003). The psychological Refractory Period of Stopping.
Journal of Experimental Psychology. Human Perception and
Performance, 29, 965–981.
Horton, W.S., Keysar, B. (1996). When do speakers take into account
common ground? Cognition, 59, 91–117.
Hovland, C.I. (1938). Experimental studies in rote-learning theory. I.
Reminiscence following learning by massed and distributed practice.
Journal of Experimental Psychology, 22, 201–224.
Howard, D.V. (1983). Cognitive psychology: Memory, language and
thought. New York: Macmillan.
Howard, D., Orchard-Lisle, V. (1984). On the origin of semantic errors in
naming: Evidence from the case of global aphasic. Cognitive
Neuropsychology, 1, 163–190.
Howard, I.P., Bergström, S.S., Masao, O. (1990). Shape from shading in
different frames of reference. Perception, 19, 523–530.
Hubbard, T.L. (1997). Target size and displacement along the axis of
implied gravitational attraction: Effects of implied weight and evidence
of representational gravity. Journal of Experimental Psychology.
Learning, Memory, and Cognition, 23, 1484–1493.
Hubel, D.H., Wiesel, T.N. (1959). Receptive fields of single neurons in the
cat’s striate cortex. Journal of Physiology (London), 148, 574–591.
Humphreys, G.W., Bruce, V. (1989). Visual cognition: Computational,
experimental, and neuropsychological perspectives. Hove, UK:
Lawrence Erlbaum Associates.
Humphreys, G.W., Riddoch, M.J. (1987). To see but not to see: A case
study of visual agnosia. Hove, UK: Lawrence Erlbaum Associates.
Hunt, E.B. (1975). Artifical intelligence. New York: Academic Press.
Hunt, E.B. (1980). Intelligence as an information-processing concept.
British Journal of Psychology, 71, 449–474.
Hunt, E.B. (1995). The role of intelligence in modern society. American
Scientist, 83, 356–368.
Hunt, E.B., Lansman, M. (1982). Individual differences in attention. W:
R.J. Sternberg (red.), Advances in the psychology of human intelligence
(s. 207–254). Hillsdale, NJ: Lawrence Erlbaum Associates.
Hunt, E.B., Love, T. (1972). How good can memory be? W: A. Melton, E.
Martin (red.), Coding process in human memory (s. 237–250).
Washington: V. H. Winston & Sons.
Hunziker, H.W. (1964). Plastizität als Faktor der Spannungsüberwindung in
Denkaufgaben (Plasticity as a factor of conquering tensions during
problem solving tasks). Zeitschrift für Experimentelle und Angewandte
Psychologie, 11, 185–237.
Hyde, T.S., Jenkins, J.J. (1969). The differential effects of incidental tasks
on the organization of recall of a list of highly associated words.
Journal of Experimental Psychology, 82, 427–481.
Hyman, I.E. (1999). Creating false autobiographical memories: Why
people believe their memory errors. W: E. Winograd, R. Fivush, W.
Hirst (red.), Ecological approaches to cognition: Essays in honor of
Ulric Neisser (s. 229–252). Mahwah, NJ: Lawrence Erlbaum
Associates.
Indefrey, P., Levelt, W.J. (2004). The spatial and temporal signatures of
word production components. Cognition, 92, 101–144.
Inhoff, A.W. (1989). Parafoveal processing of words and saccade
computation during eye fixations in reading. Journal of Experimental
Psychology: Human Perception and Performance, 15, 544–555.
Intons-Peterson, M.J. (1983). Imagery paradigms: How vulnerable are they
to experimenter’s expectations? Journal of Experimental Psychology:
Human Perception and Performance, 9, 394–412.
Intons-Peterson, M.J., Roskos-Ewaldson, B.B. (1989). Sensory-perceptual
qualities of images. Journal of Experimental Psychology: Learning,
Memory, and Cognition, 15, 188–199.
Irwin, H.J. (1981). Processing interaction in semantic analysis of attended
and unattended visual inputs: A directional effect. The Journal of
General Psychology, 104, 87– 93.
Isaacson, J.S., Scanziani, M. (2011). How inhibition shapes cortical
activity. Neuron, 72, 231–243.
Itellson, W.H. (1951). Size as a cue to distance: Static localization.
American Journal of Psychology, 64, 54–67.
Jackoby, L.L. (1978). On interpreting the effects of repetition: Solving
a problem versus remembering a solution. Journal of Verbal Learning
and Verbal Behavior, 17, 649–667.
James, W. (1890). Principles of psychology. New York: Holt.
Jaśkowski, P., Skalska, B., Verleger, R. (2003). How the self controls its
„automatic pilot” when processing subliminal information. Journal of
Cognitive Neuroscience, 15, 911–921.
Jaušovec, N. (1991). Flexible strategy use: A characteristic of gifted
problem solving. Creativity Research Journal, 4, 349–366.
Jenkins, J.G., Dallenbach, K.M. (1924). Obliviscence during sleep and
waking. American Journal of Psychology, 35, 605–612.
Jensen, A.R. (1970). IQ’s of identical twins reared apart. Behaviour
Genetics, 1, 133–146.
Jensen, A.R. (1992). The importance of intraindividual variation in reaction
time. Personality and Individual Differences, 13, 869–881.
Jensen, O., Lisman, J.E. (1998). An oscillatory short-term memory buffer
model can account for data on the Sternberg task. Journal of
Neuroscience, 18, 10 688–10 699.
Jerrison, H.J. (1959). Effects of noise on human performance. Journal of
Applied Psychology, 43, 96–101.
Jerrison, H. J., Pickett, R. M. (1964). Vigilance: The impotence of the
elicited observing rate. Science, 143, 970–971.
Jersild, A.T. (1927). Mental set and mental shift. Archives of Psychology,
14 (cały nr 89).
Johnson, C.J., Paivio, A., Clark, J.M. (1996). Cognitive components of
picture naming. Psychological Bulletin, 120, 113–139.
Johnson, K.E., Mervis, C.B. (1997). Effects of varying levels expertise on
the basic level of categorization. Journal of Experimental Psychology.
General, 126, 248–277.
Johnson, M.K., Hashtroudi, S., Lindsay, D.S. (1993). Source monitoring.
Psychological Bulletin, 114, 3–28.
Johnson-Laird, P.N. (1983). Mental models. New York: Cambridge
University Press.
Johnson-Laird, P.N. (1994). Mental models and probabilistic thinking.
Cognition, 50, 189–209.
Johnson-Laird, P.N. (2010). Mental models and human reasoning.
Proceedings of the National Academy of Sciences, 107, 18 243–18 250.
Johnson-Laird, P.N., Byrne, R.M.J. (1991). Deduction. Hove, UK:
Lawrence Erlbaum Associates.
Johnson-Laird, P.N., Byrne, R.M.J., Schaeken, W. (1992). Propositional
reasoning by model. Psychological Review, 99, 418–439.
Johnson-Laird, P.N., Legrenzi, P., Girotto, V., Legrenzi, M.S., Caverni, J.
(1999). Naive Probability: A Mental model theory of extensional
reasoning. Psychological Review, 106, 62–88.
Johnson-Laird, P.N., Legrenzi, P., Legrenzi, M. (1972). Reasoning and
a sense of reality. British Journal of Psychology, 63, 395–400.
Johnson-Laird, P.N., Steedman, M. (1978). The psychology of syllogisms.
Cognitive Psychology, 10, 64–99.
Johnston, W.A. (1978). The intrusiveness of familiar nontarget information.
Memory and Cognition, 6, 38–42.
Johnston, W.A., Dark, V.J. (1982). In defense of intraperceptual theories of
attention. Journal of Experimental Psychology. Human Perception and
Performance, 8, 407–421.
Johnston, W.A., Dark, V.J. (1986). Selective attention. Annual Review of
Psychology, 37, 43–75.
Johnston, W.A., Heinz, S.P. (1978). Flexibility and capacity demands of
attention. Journal of Experimental Psychology. General, 107, 420–435.
Johnston, W.A., Heinz, S.P. (1979). Depth of nontarget processing in an
attention task. Journal of Experimental Psychology. Human Perception
and Performance, 5, 168–175.
Johnston, W.A., Wilson, J. (1980). Perceptual processing of nontargets in
an attention task. Memory and Cognition, 8, 372–377.
Joliceour, P., Regehr, S., Smith, L.B., Smith, G.N. (1985). Mental rotation
of representations of two-dimensional and three-dimensional objects.
Canadian Journal of Psychology, 39, 100–129.
Jonides, J. Yantis, S. (1988). Uniqueness of abrupt visual onset in capturing
attention. Perception and Psychophysics, 43, 346–354.
Jost, A. (1897). Die Assoziationsfestigkeit in ihrer Abhängigkeit von der
Verteilung der Wiederholungen. Zeitschrift für Psychologie und
Physiologie der Sinnesorgane, 16, 436–472.
Julesz, B., Bergen, J. R. (1983). Textons, the fundamental elementsin
preattentive visions. The Bell System Technical Journal, 62, 1619–
1645.
Jung, C.G. (1971). Psychological types. Princeton, NJ: Princeton
University Press.
Just, M.A., Carpenter, P.A. (1992). A capacity theory of comprehension:
Individual differences in working memory. Psychological Review, 99,
122–149.
Kahn, B.E., Isen, A.M. (1993). The influence of positive affect on variety
seeking among safe, enjoyable products. Journal of Consumer
Research, 20, 257–270.
Kahneman, D. (1970). Remarks on attention control. W: A.F. Sanders
(red.), Attention and performance (t. 3, s. 118–131). Amsterdam: North-
Holland Publishing Company.
Kahneman, D. (1973). Attention and effort. Englewood Cliffs, NJ: Prentice
Hall.
Kahneman, D. (1975). Effort, recognition and recall in auditory attention.
W: P.M.A. Rabbit, S. Dornic (red.), Attention and performance (t. 5, s.
65–80). New York: Academic Press.
Kahneman, D., Chajczyk, D. (1983). Test of the automaticity of reading:
Dilution of the Stroop efects by color-irrelevant stimuli. Journal of
Experimental Psychology: Human Perception and Performance, 9,
497–509.
Kahneman, D., Slovic, P., Tversky, A. (1982). Judgment under uncertainty:
Heuristics and biases. New York: Cambridge University Press.
Kahneman, D., Treisman, A. (1984). Changing views of attention and
automaticity. W: R. Parasuraman, D.R. Davies (red.), Varieties of
attention. Orlando: Academic Press.
Kahneman, D., Treisman, A., Burkell, J. (1983). The cost of visual
filtering. Journal of Experimental Psychology. Human Perception and
Performance, 9, 510–522.
Kahneman, D., Tversky, A. (1972). Subjective probability: A judgment of
representativeness. Cognitive Psychology, 3, 430–454.
Kahneman, D., Tversky, A. (1979). „Prospect” theory: An analysis of
decision under risk. Econometrica, 47, 263–293.
Kahneman, D., Tversky, A. (1984). Choices, values and frames. American
Psychologist, 39, 341–350.
Kaminski, J., Brzezicka, A., Wróbel, A. (2011). Short-term memory
capacity (7±2) predicted by theta to gamma cycle length ratio.
Neurobiology of Learning and Memory, 95, 19–23.
Kaminski, J., Mamelak, A.N., Birch, K., Mosher, C.P., Tagliati, M.,
Rutishauser, U. (2018). Novelty-sensitive dopaminergic neurons in the
human substantia nigra predict success of declarative memory
formation. Current Biology, 28, 1333–1343.
Kanizsa, G. (1976). Subjective contours. Scientific American, 234, 48–52.
Kantona, G. (1940). Organizing and memorizing. New York: Columbia
University Press.
Kanwisher, N., McDermott, J., Chun, M.M. (1997). The fusiform face area:
A module in human extrastriate cortex specialized for face perception.
Journal of Neuroscience, 17, 4302–4311.
Kaplan, C.A., Simon, H.A. (1990). In search of insight. Cognitive
Psychology, 22, 374–419.
Kapur, S., Craik, F.I.M., Tulving, E., Wilson, A.A., Hoyle, S., Brown, M.G.
(1994). Neuroanatomical correlates of encoding in episodic memory:
Levels of processing effect. Proceedings of The National Academy of
Sciences, 91, 2008–2011.
Karmiloff-Smith, A. (1992). Beyond modularity: A developmental
perspective on cognitive science. Cambridge, MA: MIT Press.
Kehagia, A.A., Murray, G.K., Robbins, T.W. (2010). Learning and
cognitive flexibility: Frontostriatal function and monoaminergic
modulation. Current Opinion in Neurobiology, 20, 199–204.
Keil, A., Gruber, T., Müller, M.M. (2001). Functional correlates of
macroscopic high-frequency brain activity in the human visual system.
Neuroscience & Biobehavioral Reviews, 25, 527–534.
Kelly, G.A. (1955). The psychology of personal constructs. New York:
Norton.
Kemp, S. (1998). Medieval theories of mental representetion. History of
Psychology, 1, 275–288.
Keppel, G., Underwood, B.J. (1962). Proactive inhibition in short-term
retention of signal items. Journal of Verbal Learning and Verbal
Behavior, 1, 153–161.
Keren, G., O’Hara, W.P., Skelton, J.M. (1977). Levels of noise processing
and attentional control. Journal of Experimental Psychology. Human
Perception and Performance, 3, 653–664.
Kerkhof, G.A., van der Schaaf, T.W., Korving, H.J. (1980). Auditory signal
detection. Effects of long term practice and time on task. Perception
and Psychophysics, 28, 79–81.
Kielar-Turska, M. (2000). Rozwój człowieka w pełnym cyklu życia. W: J.
Strelau (red.), Psychologia. Podręcznik akademicki (t. 1, s. 285–332).
Gdańsk: Gdańskie Wydawnictwo Psychologiczne.
Kim, H. (2011). Neural activity that predicts subsequent memory and
forgetting: A meta-analysis of 74 fMRI studies. Neuroimage, 54, 2446–
2461.
King, J., Just, M.A. (1991). Individual differences in syntactic processing:
The role of working memory. Journal of Memory and Language, 30,
580–602.
Kintsch, W. (1970). Learning, memory and conceptual processes. New
York: Wiley.
Kintsch, W. (1977). On comprehending stories. W: P. Carpenter, M. Just
(red.), Cognitive processes in comprehension (s. 33–62). Hillsdale, NJ:
Lawrence Erlbaum Associates.
Kintsch, W. (1988). The role of knowledge in text comprehension:
A construction-integration model. Psychological Review, 95, 163–182.
Kintsch, W. (1998). Comprehension: A paradigm for cognition. New York:
Cambridge University Press.
Kintsch, W., Van Dijk, T.A. (1978). Toward a model of text comprehension
and production. Psychological Review, 85, 363–394.
Klahr, D. (1978). Goal formation, planning, and learning by pre-school
problem solvers or: „My socks are in the dryer”. W: R. S. Siegler (red.),
Children’s thinking: What develops? (s. 181–212). Hillsdale, NJ:
Lawrence Erlbaum Associates.
Klauer, K.C., Musch, J., Naumer, B. (2000). On belief bias in syllogistic
reasoning. Psychological Review, 107, 852–884.
Klayman, J., Ha, Y.W. (1987). Confirmation, disconfirmation, and
information in hypothesis testing. Psychological Review, 94, 211–228.
Klein, F.B., Kihlstorm, J.F. (1986). Elaboration organization and the self-
reference effect in memory. Journal of Experimental Psychology:
General, 115, 26–38.
Kline, P., Cooper, C. (1985). Rigid personality and rigid thinking. British
Journal of Educational Psychology, 55, 24–27.
Kluwe, R.H., Misiak, C., Haider-Hasebrink, H. (1991). The control of
complex systems and performance in intelligence tests. W: H.A.H.
Rowe (red.), Intelligence: Reconceptualization and measurement (s.
227–244). Hillsdale, NJ: Lawrence Erlbaum Associates.
Knaeuper, A., Rouse, W.B. (1985). A rule-based model of human problem-
solving behavior in dynamic environments. IEEE Transactions on
Systems, Man, and Cybernetics, 15, 708–719.
Knoblich, G., Ohlsson, S., Haider, H., Rhenius, D. (1999). Constraint
relaxation and chunk decomposition in insight problem solving.
Journal of Experimental Psychology: Learning, Memory, and
Cognition, 25, 1534–1555.
Knoblich, G., Ohlsson, S., Raney, G.E. (2001). An eye movement study of
insight problem solving. Memory amd Cognition, 29, 1000–1009.
Koedinger, K.R., Anderson, J.R. (1976). Abstract planning and perceptual
chunks: Elements of expertise in geometry. Cognitive Science, 14, 511–
550.
Koehler, J.J. (1996). The base rate fallacy reconsidered: Descriptive,
normative, and methodological challenges. Behavioral and Brain
Sciences, 19, 1–53.
Koelega, H. S. (1990). Extraversion and vigilance performance: 30 years of
inconsistencies. Psychological Bulletin, 112, 239–258.
Kohs, S.C. (1923). Intelligence measurement; a psychological and
statistical study based upon the block-design tests. Oxford, UK:
Macmillan.
Kolańczyk, A. (1991). Intuicyjność procesów przetwarzania informacji.
Gdańsk: Wydawnictwo Uniwersytetu Gdańskiego.
Kolańczyk, A. (2009). Procesy świadome a automatyzmy w poznaniu
społecznym. W: M. Kofta, M. Kossowska (red.), Psychologia poznania
społecznego. Nowe idee (s. 31–57). Warszawa: Wydawnictwo Naukowe
PWN.
Kolańczyk, A., Fila-Jankowska, A., Pawłowska-Fusiara, M., Sterczyński,
R. (2004). Serce w rozumie. Afektywne podstawy orientacji w otoczeniu.
Gdańsk: Gdańskie Wydawnictwo Psychologiczne.
Kolers, A.P., Duchnicky, R.L., Sundstroem, G. (1985). Size in the visual
processing of faces and words. Journal of Experimental Psychology.
Human Perception and Performance, 11, 726–751.
Komatsu, L.K. (1992). Recent views on conceptual structure.
Psychological Bulletin, 112, 500–526.
Koriat, A., Norman, J., Kimchi, R. (1991). Recognition of rotated letters:
Extracting invariance across successive and simultaneous stimuli.
Journal of Experimental Psychology. Human Perception and
Performance, 17, 444–457.
Kosslyn, S.M. (1975). Information representation in visual images.
Cognitive Psychology, 7, 341–370.
Kosslyn, S.M. (1981). The medium and the message in mental imagery:
A theory. Psychological Review, 88, 46–65.
Kosslyn, S.M. (1983). Ghosts in the mind‘s machine. Creating and using
images in the brain. New York: Norton.
Kosslyn, S.M. (red.) (1984). Tutorials in learnig and memory (s. 193–218).
New York: Freeman.
Kosslyn, S.M., Ball, T., Reiser, B.J. (1978). Visual images preserve metric
spatial information: Evidence from studies of image scanning. Journal
of Experimental Psychology: Human Perception and Performance, 4,
47–60.
Kosslyn, S.M., Seger, C., Pani, J., Hillger, L.A. (1990). When is imagery
used in everyday life: A diary study. Journal of Mental Imagery, 14,
131–152.
Kosslyn, S.M., Thompson, W.L., Ganis, G. (2006). The case for mental
imagery. New York: Oxford University Press.
Kossowska, M. (2005). Umysł niezmienny... Poznawcze mechanizmy
sztywności. Kraków: Wydawnictwo Uniwersytetu Jagiellońskiego.
Kossowska, M., Nęcka, E. (1994). Do it your own way: Cognitive
strategies, intelligence, and personality. Personality and Individual
Differences, 16, 33–46.
Kossut, M. (2018). Neuroplastyczność. Warszawa: Wydawnictwo Medyk.
Kotovsky, K., Hayes, J.R., Simon, H.A. (1985). Why are some problems
hard? Evidence from Tower of Hanoi. Cognitive Psychology, 17, 248–
294.
Kowalska, D.M. (2000). Anatomiczne podstawy pamięci. W: T. Górska,
A., Grabowska, J. Zagrodzka (red.), Mózg a zachowanie (s. 298–318).
Warszawa: Wydawnictwo Naukowe PWN.
Kozielecki, J. (1966). Zagadnienia psychologii myślenia. Warszawa:
Państwowe Wydawnictwo Naukowe.
Kozielecki, J. (1975). Psychologiczna teoria decyzji. Warszawa:
Państwowe Wydawnictwo Naukowe.
Kozielecki, J. (1976). Koncepcje psychologiczne człowieka. Warszawa:
Państwowy Instytut Wydawniczy.
Kozielecki, J. (1992). Myślenie i rozwiązywanie problemów. W: T.
Tomaszewski (red.), Psychologia ogólna. Percepcja. Myślenie. Decyzje
(s. 91–153). Warszawa: Wydawnictwo Naukowe PWN.
Köhler, W. (1925). An aspect of Gestalt psychology. Ped. Sem., 32, 691–
723.
Köster, E.P., Degel, J., Piper, D. (2002). Proactive and retroactive
interference in implicit odor memory. Chemical Senses, 27, 191–206.
Kramer, A.F., Humphrey, D.G., Larish, J.F., Logan, G.D., Strayer, D.L.
(1994). Aging and inhibition: Beyond a unitary view of inhibitory
processing in attention. Psychology and Aging, 9, 491–512.
Kramer, D.A. (1990). Conceptualizing wisdom: The primacy of affect-
cognition relations. W: R.J. Sternberg (red.), Wisdom: Its nature,
origins, and development (s. 279–313). New York: Cambridge
University Press.
Kruglanski, A.W., Webster, D.M., Klem, A. (1993). Motivated Resistance
and openness to persuasion in the presence or absence of prior
information. Journal of Personality and Social Psychology, 65, 861–
876.
Kuhl, P.K. (2011). Early language learning and literacy: Neuroscience
implications for education. Mind, Brain, and Education, 5, 128–142.
Kuhl, P., Rivera-Gaxiola, M. (2008). Neural substrates of language
acquisition. Annual Review of Neuroscience, 31, 511–534.
Kuhn, T. (1970). The structure of scientific revolutions (wyd. 2). Chicago:
University of Chicago Press.
Kurcz, I. (1987). Język a reprezentacja świata w umyśle. Warszawa:
Państwowe Wydawnictwo Naukowe.
Kurcz, I. (1997). Pamięć. Uczenie się. Język. W: T. Tomaszewski (red.),
Psychologia ogólna (t. 3). Warszawa: Wydawnictwo Naukowe PWN.
Kurcz, I. (2000). Język i komunikacja. W: J. Strelau (red.), Psychologia.
Podręcznik akademicki (t. 2, s. 231–274). Gdańsk: Gdańskie
Wydawnictwo Psychologiczne.
Kvavilashvili, L. (1987). Remembering intention as a distinct form of
memory. British Journal of Psychology, 78, 507–518.
Kwarciak, B. (1997). Co trzeba wiedzieć o reklamie. Kraków:
Wydawnictwo Profesjonalnej Szkoły Biznesu.
Kyllingsbek, S., Bundesen, C. (2001). Converging evidence for parallel
processing of complex visual stimuli. Paper presented on the XII
ESCOP Conference, Edinburgh, 5–8 September, 2001.
Kyllonen, P. C., Christal, R. E. (1990). Reasoning ability is (little more
than) workingmemory capacity? Intelligence, 14, 389–433.
Kyllonen, P. C., Lohman, D. F., Woltz, D. J. (1984). Componential
modeling of alternative strategies for performing spatial tasks. Journal
of Educational Psychology, 76, 1325–1345.
LaBerge, D. (1995). Attentional processing. Cambridge, MA: Harvard
University Press.
Labouvie-Vief, G. (1990). Wisdom as integrated thought: Historical and
developmental perspectives. W: R.J. Sternberg (red.), Wisdom: Its
nature, origins, and development (s. 279–313). New York: Cambridge
University Press.
Lackner, J.R., Garrett, M.F. (1972). Resolving ambiguity: Effects of biasing
context in the unattended ear. Cognition, 1, 359–371.
Ladefoged, P., Silverstein, R., Papçun, G. (1973). Itrerruptibility of the
speech. Journal of the Acoustical Society of America, 54, 1105–1108.
LaMettriede, J.O. (1747/1984). Człowiek-maszyna, przeł. S. Rudniański.
Warszawa: Państwowe Wydawnictwo Naukowe.
Langan-Fox, J., Shirley, D.A. (2003). The nature and measurement of
intuition: Cognitive and behavioral interests, personality, and
experiences. Creativity Research Journal, 15, 207–222.
Langley, P., Jones, R. (1988). A computational model of scientific insight.
W: R. J. Sternberg (red.), Nature of creativity: Contemporary
psychological perspectives (s. 177–201). New York: Cambridge
University Press.
Lansman, M., Poltrock, S.E., Hunt, E. (1983). Individual differences in the
ability to focus and divide attention. Intelligence, 7, 299–312.
Larkin, J., McDermott, J., Simon, D.P. (1980a). Expert and novice
performance in solving physics problems. Science, 208, 1335–1342.
Larkin, J.H., McDermott, J., Simon, D.P. (1980b). Models of competence
in solving physics problems. Cognitive Science, 4, 317–345.
Larsen, S.E., Thompson, C.P., Hansen, T. (1996). Time in autobiographical
memory. W: D.C. Rubin (red.), Remembering our past: Studies in
autobiographical memory (s. 129–156). New York: Cambridge
University Press.
Larson, G.E., Saccuzzo, D.P. (1986). Gender, neuroticism, and speed-
acuracy tradeoffs and a choice reactiontime task. Personality and
Individual Differences, 7, 919–921.
Lavie, N. (1995). Perceptual load as a necessary condition for selective
attention. Journal of Experimental Psychology. Human Perception and
Performance, 21, 451–468.
Lavie, N. (2000). Selective attention and cognitive control. W: S. Monsell,
J. Driver (red.), Attention and performance (t. 18, s. 175–197).
Cambridge, MA: MIT Press.
Lavie, N. (2005). Distracted and confused?: Selective attention under load.
Trends in Cognitive Sciences, 9, 75–82.
Lavie, N., Tsal, Y. (1994). Perceptual load as a major determinant of the
locus of selection in visual attention. Perception and Psychophysics, 56,
183–197.
Leahey, T.H., Harris, R.J. (2001). Learning and cognition (wyd. 5). Upper
Saddle River, NJ: Prentice-Hall.
Leake, D. (1998). Cognition as case-based reasoning. W: W. Bechtel, G.
Graham (red.), A companion to cognitive science. Malden, MA:
Blackwell.
Lee, M.D., Cummins, T.D. (2004). Evidence accumulation in decision
making: Unifying the „take the best” and the „rational” models.
Psychonomic Bulletin & Review, 11, 343–352.
Lehrer, R., Littlefield, J. (1993). Relationship among cognitive components
in Logo learning and transfer. Journal of Educational Psychology, 85,
317–330.
Lehrl, S. (1988). Informationpsychologie: Grundlagen, messungen, tests.
Erlsberg: Vless.
Lehrl, S., Fischer, B. (1988). The basic parameters of human information
processing: Their role in determination of intelligence. Personality and
Individual Differences, 9, 883–896.
Lenneberg, E.H. (1967). Biological foundations of language. Cambridge,
MA: MIT Press.
Lesgold, A., Rubinson, H., Feltovich, P., Glaser, R., Klopfer, D. (1988).
Expertise in complex skills: Diagnosing X-ray pictures. W: M.T.H. Chi,
R. Glaser, M.J. Farr (red.), The nature of expertise (s. 312–342).
Hillsdale, NJ: Lawrence Erlbaum Associates.
Lettvin, J.Y., Maturana, H.R., McCulloch, W.S., Pitts, W.H. (1959). What
the frog’s eye tells the frog’s eye. Proceeding of the Institute of Radio
Engineering, 47, 1940–1941.
Levelt, W.J.M. (1983). Monitoring and self-repair in speech. Cognition, 14,
41–104.
Levelt, W.J.M. (1989). Speaking: From intention to articulation.
Cambridge, MA: MIT Press.
Levelt, W.J.M. (2001). Spoken word production: A theory of lexical access.
Proceedings of the National Academy of Sciences, 98, 13 464–13 471.
Levelt, W.J.M., Roelofs, A., Meyer, A.S. (1999). A theory of lexical access
in speech production. Behavioral and Brain Sciences, 22, 1–38.
Levine, G., Parkinson, S. (1994). Experimental methods in psychology.
Hillsdale, NJ: Lawrence Erlbaum Associates.
Levine, M.W., Schefner, J.M. (1981). Fundamentals of sensation and
perception. London: Adison-Wesley.
Lewicka, M. (1993). Aktor czy obserwator: Psychologiczne mechanizmy
odchyleń od racjonalności w myśleniu potocznym. Warszawa, Olsztyn:
Polskie Towarzystwo Psychologiczne.
Lewicka, M. (2000). Myślenie i rozumowanie. W: J. Strelau (red.),
Psychologia. Podręcznik akademicki (t. 2, s. 275–316). Gdańsk:
Gdańskie Wydawnictwo Psychologiczne.
Lewicki, A. (1960). Rola abstrakcji pozytywnej i negatywnej w procesie
uczenia się nowych pojęć. Studia Psychologiczne, 3, 5–51.
Lewicki, A. (1968). Informacja i percepcja w procesie uczenia się nowych
pojęć. Studia Psychologiczne, 9, 22–54.
Lewis, C.H., Anderson, J.R. (1976). Interference with real world
knowledge. Cognitive Psychology, 8, 311–335.
Lindsay, D.S., Johnson, M.K. (1989). The eyewitness suggestibility effect
and memory for source. Memory and Cognition, 17, 349–358.
Linton, M. (1975). Memory for real-world events. W: D.A. Norman, D.E.
Rumelhart (red.), Explorations in cognition (s. 376–404). San
Francisco: Freeman.
Lisman, J.E., Idiart, M.A. (1995). Storage of 7+/–2 short-term memories in
oscillatory subcycles. Science, 267, 1512–1515.
List, J.A. (2004). Neoclassical theory versus prospect theory. Evidence
from the marketplace. Econometrica, 72, 615–625.
Lobaugh, N.J., Cole, S., Rovet, J.F. (1998). Visual search for features and
conjunctions in development. Canadian Journal of Experimental
Psychology, 52, 201–212.
Lockhart, R.S., Craik, F.I.M. (1990). Levels of processing: A retrospective
commentary on a framework for memory research. Canadian Journal
of Psychology, 44, 87–122.
Loeb, M., Binford, J.R. (1968). Variation in performance on auditory and
visual monitoring tasks as a function of signal and stimulus frequencies.
Perception and Psychophysics, 4, 361–366.
Loftus, E.F. (1973). Category dominance, instance dominance, and
categorization time. Journal of Experimental Psychology, 97, 70–74.
Loftus, E.F. (1975). Leading questions and the eyewitness report. Cognitive
Psychology, 7, 560–572.
Loftus, E.F. (1979). Reactions to blatantly contradictory information.
Memory and Cognition, 7, 368–374.
Loftus, E.F. (1996). Memory distortion and false memory creation. Bulletin
of the American Academy of Psychiatry and the Law, 24, 281–295.
Loftus, E.F., Burns, T.E. (1982). Mental shock can produce retrograde
amnesia. Memory and Cognition, 10, 318–323.
Loftus, E.F., Palmer, J.C. (1974). Reconstruction of automobile destruction:
An example of the interaction between language and memory. Journal
of Verbal Learning and Verbal Behavior, 13, 585–589.
Loftus, E.F., Pickrell, J.E. (1995). The formation of false memories.
Psychiatric Annals, 25, 720–725.
Loftus, G.R., Loftus, E.F. (1976). Human memory: The processing of
information. Hillsdale, NJ: Lawrence Erlbaum Associates.
Logan, G.D. (1980). Attention and automaticity in Stroop and priming task:
Theory and data. Cognitive Psychology, 12, 523–553.
Logan, G.D. (1982). On the ability to inhibit complex actions: A stop
signal-study of typewriting. Journal of Experimental Psychology:
Human Perception and Performance, 87, 778–792.
Logan, G.D. (1985). On the ability to inhibit simple thoughts and actions:
Stop signal studies in repetition priming. Journal of Experimental
Psychology: Learning, Memory, and Cognition, 11, 675–691.
Logan, G.D. (1988). Toward an instance theory of automatization.
Psychological Review, 95, 492–527.
Logan, G.D. (1990). Repetition priming and automaticity: Common
underlying mechanisms. Cognitive Psychology, 22, 1–35.
Logan, G.D. (1992). Shapes of reaction-time distributions and shapes of
learning curves: A test of the instance theory of automaticity. Journal of
Experimental Psychology. Learning, Memory, and Cognition, 18, 883–
914.
Logan, G.D. (2002). An instance theory of attention and memory.
Psychological Review, 109, 376–400.
Logan, G.D., Burkell, J. (1986). Dependence and independence in
responding to double stimulation: A comparison of stop, change, and
dual-task paradigm. Journal of Experimental Psychology: Human
Perception and Performance, 12, 549–563.
Logan, G.D., Cowan, W.B. (1984). On the ability to inhibit thought and
action: A theory of an act of control. Psychological Review, 91, 295–
327.
Logan, G.D., Etherton, J.L. (1994). What is learned during automatization?
The role of attention in constructing an instance. Journal of
Experimental Psychology. Learning, Memory, and Cognition, 20, 1022–
1050.
Logan, G.D., Klapp, S.T. (1991). Automatizing alphabet arithmetic: I. Is
extended practice necessary to produce automaticity? Journal of
Experimental Psychology. Learning, Memory, and Cognition, 17, 179–
195.
Logan, G.D., Taylor, S.E., Etherton, J.L. (1996). Attention in the
acquisition and expression of automaticity. Journal of Experimental
Psychology. Learning, Memory, and Cognition, 22, 320–338.
Logan, G.D., Zbrodoff, N.J. (1979). When it helps to be misled: Facilitative
effects of increasing the frequency of conflicting stimuli in a Stroop-
like task. Memory & Cognition, 7, 166–174.
Logan, G.D., Zbrodoff, N.J. (1998). Strop-type interference: congruity
effects in color naming with typewritten responses. Journal of
Experimental Psychology. Human Perception and Performance, 24,
978–992.
Logan, G.D, Zbrodoff, N.J., Williamson, J. (1984). Strategies in the color-
word Stroop task. Bulletin of the Psychonomic Society, 22, 135–138.
Logie, R.H. (1986). Visuo-spatial processes in working memory. Quarterly
Journal of Experimental Psychology, 38A, 229–247.
Logie, R.H. (1995). Visuo-spatial working memory. Hillsdale, NJ:
Lawrence Erlbaum Associates.
Logie, R.H., Della Sala, S., Wynn, V., Baddeley, A.D. (2000). Visual
similarity effects in immediate verbal serial recall. Quarterly Journal of
Experimental Psychology, 53A, 626–646.
Logie, R.H., Marchetti, C. (1991). Visuo-spatial working memory: Visual,
spatial or central executive? W: R.H. Logie, M. Denis (red.), Mental
images in human cognition (s. 105–115). Amsterdam: Elsevier.
Logie, R.H., Zucco, G.M., Baddeley, A. D. (1990). Inference with visual
short-term memory. Acta Psychological, 75, 55–74.
Lorch, R.E (1982). Priming and search processes in semantic memory:
A test of three models of spreading activation. Journal of Verbal
Learning and Verbal Behavior, 21, 468–492.
Lorenz, K. (1977). Odwrotna strona zwierciadła: Próba historii naturalnej
ludzkiego poznania, przeł. K. Wolicki. Warszawa: Państwowy Instytut
Wydawniczy.
Lowe, D.G. (1979). Strategies, context, and mechanism of response
inhibition. Memory and Cognition, 7, 382–389.
Luce, R.D. (1960). Developments in mathematical psychology. Glencoe:
Free Press.
Luchins, A.S. (1942). Mechanization in problem solving – the effect of
Einstellung. Psychological Monographs, 54, i–95.
Luchins, A.S., Luchins E.H. (1959). Rigidity of behavior: A variational
approach to the effect of Einstellung. Oxford, UK: University Oregon
Press.
Luchins, A.S., Luchins, E.H. (1982). Einstellung effects in learning by
repetition: Sex differences. Genetic Psychology Monographs, 106, 319–
342.
Luck, S.J., Vogel, E.K. (1997). The capacity of visual working memory for
features and conjunction. Nature, 390, 279–282.
Luh, C.W. (1922). The conditions of retention. Psychology Monograph, 31,
1–87.
Lustig, C., Hasher, L. (2001). Implicit memory is vulnerable to proactive
interference. Psychological Science, 12, 408–412.
Lysak, H., Rule, B.G., Dobbs, A.R. (1989). Conceptions of aggression:
Prototype or defining features. Personality and Social Psychology
Bulletin, 15, 233–243.
MacFarland, B.P., Halcomb, C.G. (1970). Expectancy and stimulus
generalization in vigilance. Perceptual and motor Skills, 30, 147–151.
Mack, A., Rock, I. (1998). Inattentional blindness: perception without
attention. W: R. Wright (red.), Visual attention (s. 55–76). New York:
Oxford University Press.
Mack, A., Tang, B., Tuma, R., Kahn, S., Rock, I. (1992). Perceptual
organization and attention. Cognitive Psychology, 24, 475–501.
Mackay, D.G. (1973). Aspects of the theory of comprehension, memory,
and attention. Quarterly Journal of Experimental Psychology, 25, 22–
40.
Mackay, D. G. (1998). Stage theories refuted. W: W. Bechtel, G. Graham
(red.), A companion to cognitive science (s. 671–678). Oxford, UK:
Blackwell Publishers.
Mackiewicz, R. (2000). Rozumowanie warunkowe w interpretacji teorii
modeli umysłowych. Lublin: Redakcja Wydawnictw KUL.
Mackinnon, A.J., Wearing, A.J. (1985). Systems analysis and dynamic
decision making. Acta Psychologica, 58, 159–172.
Mackworth, J.F., Taylor, M.M. (1963). The d’measure of signal probability
in vigilancelike situations. Canadian Journal of Psychology, 17, 302–
325.
Mackworth, N.H. (1948). The breakdown of vigilance during prolonged
visual search. Quarterly Journal of Experimental Psychology, 1, 6–21.
Mackworth, N.H. (1950). Researches on the measurement of human
performance. Medical Research Council, Special Report No. 268.
Mackworth, N.H. (1957). Some factors affecting vigilance. Advancements
in Science, 53, 389–393.
MacLeod, C.M. (1975). Release from proactive interference: Insufficiency
of an attentional account. American Journal of Psychology, 88, 459–
465.
MacLeod, C.M. (1986). A replication of the Stroop effect. Niepublikowane
surowe dane.
MacLeod, C.M. (1991). Half a century of research on the Stroop effect: An
integrative review. Psychological Bulletin, 109, 163–203.
MacLeod, C.M. (1992). The Stroop task: The „gold standard” of attentional
measures. Journal of Experimental Psychology: General, 121, 12–14.
MacLeod, C.M., Dunbar, K. (1988). Training and Stroop-like interference:
Evidence for a continuum of automaticity. Journal of Experimental
Psychology: Learning, Memory, and Cognition, 14, 126–135.
MacLeod, C.M., Hunt, E.B., Mathews, N.N. (1978). Individual differences
in the verification of sentence-picture relationships. Journal of Verbal
Learning and Verbal Behavior, 17, 493–507.
Mack, M.L., Preston, A.R., Love, B.C. (2013). Decoding the brain’s
algorithm for categorization from its neural implementation. Current
Biology, 23, 2023–2027.
Maier, F.H., Strohhecker, J. (1996) Do management flight simulators really
enhance decision effectiveness? W: The Proceedings of the 1996
International System Dynamics Conference, Cambridge, MA.
Maier, N.R.F. (1931). Reasoning and learning. Psychological Review, 38,
332–346.
Malone, D.R., Morris, H.H., Kay, M.C., Levine, H.S. (1982).
Prosopagnosia: A double dissociation between the recognition of
familiar and unfamiliar faces. Journal of Neurology, Neurosurgery and
Psychiatry, 45, 820–822.
Manktelow, K. (1999). Reasoning and thinking. Hove, UK: Psychology
Press, Taylor and Francis.
Marcel, A.J. (1983). Conscious and unconscious perception. An approach
to the relation between phenomenal experience and perceptual
processes. Cognitive Psychology, 15, 238–300.
Marcus, S.L., Rips, L.J. (1979). Conditional reasoning. Journal of Verbal
Learning and Verbal Behavior, 18, 199–223.
Markman, A.B. (2002). Knowledge representation. W: H. Pashler, D.
Medin (red.), Steven’s handbook of experimental psychology: Memory
and cognitive processes (t. 2, s. 165–208). New York: Wiley.
Markovits, H., Doyon, C., Simoneau, M. (2002). Individual differences in
working memory and conditional reasoning with concrete and abstract
content. Thinking and Reasoning, 8, 97–108.
Marmor, G.S., Zaback, L.A. (1976). Mental rotation by the blind: Does
mental rotation depend on visual imagery. Journal of Experimental
psychology: Human Perception and Performance, 2, 515–521.
Marr, D. (1976). Early processing of visual information. Philosophical
Transactions of the Royal Society of London. Series B, Biological
Sciences, 275, 483–524.
Marr, D. (1982). Vision. San Francisco: Freeman.
Marr, D., Hildreth, E. (1980). Theory of edge detection. Proceedings of the
Royal Society of London. Series B, Biological Sciences, 207, 187–217.
Marr, D., Nishihara, H.K. (1978). Representation and recognition of the
spatial organization of three-dimensional shapes. Proceedings of the
Royal Society of London. Series B, Biological Sciences, 200, 269–294.
Marsh, R.L., Hicks, J.L. (1998). Event-based prospective memory and
executive control in working memory. Journal of Experimental
Psychology: Learning, Memory, and Cognition, 24, 336–349.
Marsh, R.L., Hicks, J.L., Landau, J.D. (1998). An investigation of everyday
prospective memory. Memory and Cognition, 26, 633–643.
Marslen-Wilson, W., (1987). Functional parallelism in spoken word
recognition. Cognition, 25, 71–102.
Marslen-Wilson, W., Tyler, L. (1980). The temporal structure of spoken
language understanding. Cognition, 8, 1–71.
Maruszewski, T. (1983). Analiza procesów poznawczych jednostki
w świetle idealizacyjnej teorii nauki. Poznań: Wydawnictwo Naukowe
UAM.
Maruszewski, T. (1996). Psychologia poznawcza. Warszawa: Polskie
Towarzystwo Semiotyczne.
Maruszewski, T. (2001). Psychologia poznania: Sposoby rozumienia siebie
i świata. Gdańsk: Gdańskie Wydawnictwo Psychologiczne.
Maruszewski, T. (2005). Pamięć autobiograficzna. Gdańsk: Gdańskie
Wydawnictwo Psychologiczne.
Maruszewski, T. (2016). Psychologia poznania. Umysł i świat. Gdańsk:
Gdańskie Wydawnictwo Psychologiczne.
Maruszewski, T., Ścigała E. (1998). Emocje – aleksytymia – poznanie.
Poznań: Humaniora.
Mathews, N.N., Hunt, E.B., MacLeod, C.M. (1980). Strategy choice and
strategy training in sentence-picture verification. Journal of Verbal
Learning and Verbal Behavior, 19, 531–548.
Mathews, R.C., Buss, R.R., Stanley, W.B., Blanchard-Fields, F., Cho, J.R.,
Druhan, B. (1989). Role of implicit and explicit processes in learning
from examples: A synergistic effect. Journal of Experimental
Psychology: Learning, Memory, and Cognition, 15, 1083–1100.
Matlin, M.W. (1994). Cognition (wyd. 3). Fort Worth, TX: Harcourt Brace
Publishers.
May C.P., Kane, M.J., Hasher, L. (1995). Determinants of negative
priming. Psychological Bulletin, 118, 35–54.
Mayr, U., Keele, S. (2000). Changing internal constrain on action: the role
of back ward inhibition. Journal of Experimental Psychology: General,
129, 4–26.
McClelland, J.L., McNaughton, B.L., O’Reilly, R.C. (1995). Why there are
complementary learning systems in the hippocampus and neocortex:
Insights from the successes and failures of connectionist models of
learning and memory. Psychological Review, 102, 419–457.
McClelland, J.L., Rumelhart, D.E. (1981). An interactive activation model
of context effects in letter perception. Part 1: An account of basic
findings. Psychological Review, 88, 375–407.
McClelland, J.L., Rumelhart, D.E., the PDP Research Group (1986).
Parallel distributed processing: Explorations in the microstructure of
cognition, t. 2: Psychological and biological models. Cambridge, MA:
MIT Press.
McCloskey, M. (1983a). Intuitive physics. Scientific American, 24, 122–
130.
McCloskey, M. (1983b). Nařve theories of motion. W: D. Gentner, A.L.
Stevens (red.), Mental models (s. 299–324). Hillsdale, NJ: Lawrence
Erlbaum Associates.
McCloskey, M., Glucksberg, S. (1978). Natural categories: Well-defined or
fuzzy sets? Memory and Cognition, 6, 462–472.
McCloskey, M., Macaruso, P. (1995). Representing and using numerical
information. American Psychologist, 50, 351–363.
McConkie, G.W. (1983). Eye movements and perception during reading.
W: K. Rayner (red.), Eye movements in reading: Perceptual and
language processes. New York: Academic Press.
McDaniel, M.A., Robinson-Riegler, B., Einstein, G.O. (1998). Prospective
remembering: Perceptually driven or conceptually driven processes?
Memory and Cognition, 26, 121–134.
McElree, B. (1996). Accesing short-term memory with semantic, and
phonological information: A time-course analysis. Memory and
Cognition, 24, 173–187.
McElree, B. (1998). Attended and non-attended states in working memory:
Accessing categorized structures. Journal of Memory and Language,
38, 225–252.
McElree, B., Dosher, B.A. (1989). Serial position and set size in short-term
memory: The time course of recognition. Journal of Experimental
Psychology: General, 118, 346–373.
McElree, B., Dosher, B.A. (1993). Serial retrieval processes in the recovery
of order information. Journal of Experimental Psychology: General,
122, 291–315.
McGeoch, J.A., Irion, A.L. (1952). The psychology of human learning.
Oxford, UK: Longmans, Green & Co.
McGeoch, J.A., McDonald, W.T. (1931). Meaningful relation and
retroactive inhibition. American Journal of Psychology, 43, 579–588
McKeithen, K.B., Reitman, I.S., Rueter. H.H., Hirtle, S.C. (1981).
Knowledge organization and skill differences in computer
programmers. Cognitive Psychology, 13, 307–325.
McKoon, G., Ratcliff, R. (1992). Inference during reading. Psychological
Review, 99, 440–466.
McLeod, P. (1977). A dual task response modality effect: Support for
multiprocessor models of attention. Quarterly Journal of Experimental
Psychology, 29, 651–667.
McLeod, P., Driver, J. (1993). Filtering and physiology in visual search:
A convergence of behavioural and neurophysiological measures. W: A.
Baddeley, L. Weiskrantz (red.), Attention: Selection, awareness, and
control. A tribute to Donald Broadbent (s. 72–86). Oxford: Clarendon
Press.
McLeod, P., Driver, J., Crisp, J. (1988). Visual search for conjunction of
movement and form is parallel. Nature, 332, 154–155.
McLeod, P., Driver, J., Dienes, Z., Crisp, J. (1991). Filtering by movement
in visual search. Journal of Experimental Psychology. Human
Perception and Performance, 17, 55–64.
McLeod, P., Plunkett, K., Rolls, E.T. (1998). Introduction to connectionist
modelling of cognitive processes. Oxford, New York: Oxford
University Press.
McNamara, T.P., Sternberg, R.J. (1983). Mental models of word meaning.
Journal of Verbal Learning and Verbal Behavior, 22, 449–474.
McNeil, B.J., Pauker, S.G., Sox, H.C., Tversky, A. (1982). On the
elicitation of preferences for alternative therapies. New England
Journal of Medicine, 306, 1259–1262.
Medin, D.L. Ross, B.H. Markman, A.B. (2004). Cognitive psychology
(wyd. 4). New York: Wiley.
Medin, D.L., Schaffer, M.M. (1978). Context theory of classification
learning. Psychological Review, 85, 207–238.
Mednick, S.A., Mednick, M.T. (1962). A theory and test of creative
thought. W: G. Nielson (red.), Proceedings of the XIV International
Congress of Applied Psychology Industrial and Business Psychology (t.
5, s. 40–47). Oxford, UK: Munksgaard.
Mednick, S.A., Mednick, M.T. (1964). An associative interpretation of the
creative process. W: C.W. Taylor (red.), Widening horizons in creativity
(s. 54–68). New York: Wiley.
Meiran, N. (1996). Reconfiguration of processing mode prior to task
performance. Journal of Experimental Psychology: Learning, Memory,
and Cognition, 26, 1124–1140.
Meiran, N. (2000). Reconfiguration of stimulus tas set and response task
sets during task switching. W: S. Monsell, J. Driver (red.), Control of
cognitive processes. Attention and performance (t. 18, s. 377–399).
Cambridge, MA: MIT Press.
Meiran, N., Chover, Z., Sapir, A. (2000). Component processes in task
switching. Cognitive Psychology, 41, 211–253.
Melton, A.W., Lackum, W.J.V. (1941). Retroactive and proactive inhibition
in retention: Evidence for a two-factor theory of retroactive inhibition.
American Journal of Psychology, 54, 157–173.
Memon, A., Meissner, C.A., Fraser, J. (2010). The Cognitive Interview:
A meta-analytic review and study space analysis of the past 25 years.
Psychology, Public Policy, and Law, 16, 340–372.
Mendelsohn, G. (1976). Associative and attentional processes in creative
performance. Journal of Personality, 44, 341–369.
Mendelsohn, G.A., Griswold, B.B. (1964). Differential use of incidental
stimuli in problem solving as a function of creativity. Journal of
Abnormal and Social Psychology, 68, 431–436.
Mendelsohn, G.A., Griswold, B.B. (1966). Assessed creative potential,
vocabulary level, and sex as predictors, of the use of incidental cues in
verbal problem solving. Journal of Personality and Social Psychology,
4, 423–431.
Mendelsohn, G.A., Liedholm, E.P. (1972). Individual differences and the
role of attention in the use of cues in verbal problem solving. Journal of
Personality, 40, 226–241.
Merikle, P.M., Joordens, S. (1997). Parallels between perception without
attention and perception without awareness. Consciousness and
Cognition: An International Journal, 6, 219–236.
Mervis, C.B. (1983). Acquisition of lexicon. Contemporary Educational
Psychology, 8, 210–236.
Mervis, C.B., Pani, J.R. (1980). Acquisition of basic object categories.
Cognitive Psychology, 12, 496–522.
Messick, S. (1984). The nature of cognitive styles: Problems and promise
in educational practice. Educational Psychologist, 19, 59–74.
Metcalfe, J. (1986). Premonitions of Insight Predict Impending Error.
Journal of Experimental Psychology: Learning, Memory, and
Cognition, 12, 623–634.
Metcalfe, J., Wiebe, D. (1987). Intuition in insight and noninsight problem
solving. Memory and Cognition, 15, 238–246.
Meulemans, T., Van der Linden, M. (1997). Does the artificial grammar
learning paradigm involve the acquisition of complex information?
Psychologica Belgica, 37, 69–88.
Meyer, D.E., Irwin, D.E., Osman, A.M., Kounios, J. (1988). The dynamics
of cognition and action: Mental processes inferred from speed-accuracy
decomposition. Psychological Review, 95, 183–237.
Michaels, C.F., Carello, C. (1985). Direct perception. Englewood Cliffs,
NJ: Prentice Hall.
Miller, G.A. (1953). What is information measurement? American
Psychologist, 17, 748–762.
Miller, G.A. (1956). The magical number seven, plus or minus two: Some
limits on our capacity for processing information. Psychological
Review, 63, 81–97.
Miller, G.A., Galanter, E., Pribram, K.H. (1960/1980). Plany i struktura
zachowania, przeł. A. Grzybowska, A. Szewczyk. Warszawa:
Państwowe Wydawnictwo Naukowe.
Milling, P.M. (1996). Modeling innovation processes for decision support
and management simulation. System Dynamics Review: The Journal of
the System Dynamics Society, 12, 211–234.
Milner, B. (1971). Interhemispheric differences in the localization of
psychological processes in man. British Medical Bulletin, 27, 272–277.
Minsky, M.L. (1975). A framework for representing knowledge. W: P.H.
Winston (red.), The psychology of computer vision. New York:
McGraw-Hill.
Miyake, A., Emmerson, M.J., Friedman, N.P. (2000a). Assessment of
executive functions in clinical settings. Seminars in Speech and
Language, 21, 169–183.
Miyake, A., Friedman, N.P., Emerson, M.J., Witzik, A.H., Howerter, A.
(2000b). The unity and diversity of executive functions and their
contribution to complex „frontal lobe” tasks: A latent variable analysis.
Cognitive Psychology, 41, 49–100.
Moore, D.R. (1987). Physiology of higher auditory system. British Medical
Bulletin, 43, 856–870.
Moray, N. (1959). Attention in dichotic listening: Affective cues and the
influence of instructions. Quarterly Journal of Experimental
Psychology, 11, 56–60.
Moray, N., Fitter, M., Ostry, D., Favreau, D., Nagy, V. (1976). Attention to
pure tones. Quarterly Journal of Experimental Psychology, 28, 271–
283.
Morris, C.D., Brandsford, J.D., Franks, J.J. (1977). Levels of processing
versus transfer appropriate processing. Journal of Verbal Learning and
Verbal Behavior, 16, 519–533.
Motzkin, J.C., Philippi, C.L., Wolf, R.C., Baskaya, M.K., Koenigs, M.
(2014). Ventromedial prefrontal cortex is critical for the regulation of
amygdala activity in humans. Biological Psychiatry, 77, 276–284.
Mowrer, O.H. (1960). Learning theory and the symbolic process. New
York: Wiley.
Moyer, R.S., Dumais, S.T. (1978). Mental comparison. W: G. Bower (red.),
The Psychology of Learning and Motivation, 12, 117–155.
Moyer, R.S., Landauer, T.K. (1967). Time required for judgments of
numerical inequality. Nature, 215, 1519–1520.
Mumford, D.M. (1999). Analogies. W: M.A. Runco, S. Pritzker (red.),
Encyclopedia of creativity (t. 1, s. 71–78). New York: Academic Press.
Mumford, M.D., Reiter-Palmon, R., Redmond, M.R. (1994). Problem
construction and cognition: Applying problem representations in ill-
defined domains. W: M.A. Runco (red.), Problem finding, problem
solving, and creativity (s. 3–39). Westport, CT: Ablex Publishing.
Murdock, B.B. Jr. (1961). Short-term retention of single paired associates.
Psychological Reports, 8, 280.
Murphy, G.L., Wiśniewski, E.J. (1985). Feature correlations in conceptual
representations. Nieopublikowany maszynopis, Brown University.
Murphy, G.L., Medin, D.L. (1985). The role of theories in conceptual
coherence. Psychological Review, 92, 289–315.
Murphy, S.T., Zajonc R.B. (1994). Afekt, poznanie i świadomość: rola
afektywnych bodźców poprzedzających przy optymalnych
i suboptymalnych ekspozycjach. Przegląd Psychologiczny, 37, 261–
299.
Murray, S.O., Kersten, D., Olshausen, B.A., Schrater, P., Woods, D.L.
(2002). Shape perception reduces activity in human primary visual
cortex. Proceedings of the National Academy of Sciences of the USA,
99, 15 164–15 169.
Murrell, G.A. (1975). A reappraisal of artificial signals as an aid to a visual
monitoring task. Ergonomics, 18, 693–700.
Myers, D.G. (2002). Intuition: Its powers and perils. New Haven, CT: Yale
University Press.
Mynatt, C.R., Doherty, M. E., Tweney, R.D. (1977). Confirmation bias in
a simulated research environment: An experimental study of scientific
inference. Quarterly Journal of Experimental Psychology, 29, 85–95.
Nadel, L. (1992). Multiple memory systems: what and why. Journal of
Cognitive Neuroscience, 4, 179–188.
Najder, K. (1992/1997). Wprowadzenie do teorii pamięci. W: M. Materska,
T. Tyszka (red.), Psychologia i poznanie (s. 129–163). Warszawa:
Wydawnictwo Naukowe PWN.
Nakayama, K., Silverman, G.H. (1986). Serial and parallel processing of
visual feature conjunctions. Nature, 320, 264–265.
Nash, C., Collins, D. (2006). Tacit knowledge in expert coaching: Science
or art? Quest, 58, 464–476.
Navon, D. (1977). Forest before trees: The precedence of global features in
visual perception. Cognitive Psychology, 9, 353–383.
Navon, D. (1984). Resources – a theoretical soup stone? Psychological
Review, 91, 216–234.
Navon, D. (1985). Attention division or attention sharing? W: M.I. Posner,
O.S.M. Marin (red.), Attention and performance (t. 11, s. 133–146).
Hillsdale, NJ: Lawrence Erlbaum Associates.
Navon, D., Gopher, D. (1979). On the economy of the human-processing
system. Psychological Review, 86, 214–255.
Nee, D.E., Jonides, J., Berman, M.G. (2007). Neural mechanisms of
proactive interference-resolution. Neuroimage, 38, 740–751.
Neely, J.H. (1976). Semantic priming and retrieval from lexical memory:
Evidence for facilitatory and inhibitory processes. Memory and
Cognition, 4, 648–654.
Neely, J.H. (1977). Semantic priming and retrival form lexical memory:
A role of inhibitioless spreading activation and limited-capacity
attention. Journal of Experimental Psychology: General, 106, 226–254.
Neill, W.T. (1977). Inhibitory and facilitatory processes in selective
attention. Journal of Experimental Psychology: Human Perception and
Performance, 2, 326–336.
Neill, W.T. (1982). The suppression of distracting information in selective
attention. Paper presented at the meeting of Southeastern Psychological
Association, LA: New Orleans.
Neill, W.T., Valdes, L.A. (1992). Persistence of negative priming: Steady
state or decay? Journal of Experimental Psychology: Learning,
Memory, and Cognition, 18, 565– 576.
Neill, W.T., Westberry, R.L. (1987). Selective attention and the suppression
of cognitive noise. Journal of Experimental Psychology. Learning,
Memory, and Cognition, 13, 327–334.
Neisser, U. (1967). Cognitive psychology. New York: Appleton-Century-
Crofts.
Neisser, U. (1976). Cognition and reality: Principles and implications of
cognitive psychology. New York: Freeman.
Neumann, P.G. (1974). An attribute frequency model for the abstraction of
prototypes. Memory and Cognition, 2, 241–248.
Neumann, J.V. von, Morgenstern, O. (1944). Theory of games and
economic behavior. Princeton, NJ: Princeton University Press.
Newell, A., Shaw, J.C., Simon, H.A. (1958). Elements of a theory of
human problem solving. Psychological Review, 65, 151–166.
Newell, A., Simon, H.A. (1961). GPS, a program that simulates human
thought. W: H. Billing (red.), Lerende Automaten (s. 109–124).
Munich: R. Oldenbourg.
Newell, A., Simon, H.A. (1972). Human problem solving. Englewood
Cliffs, NJ: Prentice Hall.
Newport, E.L., Bellugi, U. (1978). Linguistic expression of category levels
in a visual gestural language. W: E. Rosch, B.B. Lloyd (red.), Cognition
and categorization (s. 49–71). Hillsdale, NJ: Lawrence Erlbaum
Associates.
Newstead, S.E., Ellis, M.Ch., Evans, J.St.B., Dennis, I. (1997). Conditional
reasoning with realistic material. Thinking and Reasoning, 3, 49–76.
Newstead, S.E., Pollard, P., Evans, J.S. (1992). The source of belief bias
effects in syllogistic reasoning. Cognition, 45, 257–284.
Nęcka, E. (1983). Przyczynek do teorii intuicji. Studia Filozoficzne, 209,
95–115.
Nęcka, E. (1984). Poznawcze funkcje analogii. Studia Filozoficzne, 6, 169–
186.
Nęcka, E. (1987). Czego nie wiemy o twórczości? Przegląd
Psychologiczny, 30, 219–243.
Nęcka, E. (1989). Intuition versus logic in probability judgment. Zeszyty
Naukowe UJ, Prace Psychologiczne, 6, 127–144.
Nęcka, E. (1992/1997). Myślenie. W: M. Materska, T. Tyszka (red.),
Psychologia i poznanie (s. 224–232). Warszawa: Wydawnictwo
Naukowe PWN.
Nęcka, E. (1994a). Inteligencja i procesy poznawcze. Kraków: Oficyna
Wydawnicza Impuls.
Nęcka, E. (1994b). TroP... Twórcze Rozwiązywanie Problemów. Kraków:
Oficyna Wydawnicza Impuls.
Nęcka, E. (1995). Proces twórczy i jego ograniczenia. Kraków: Oficyna
Wydawnicza Impuls.
Nęcka, E. (1996). Uniwersalne błędy poznawcze. W: K. Pacławska (red.),
Tradycja i wyzwania (s. 167–182). Kraków: Universitas.
Nęcka, E. (2000). Pobudzenie intelektu. Zarys formalnej teorii inteligencji.
Kraków: Universitas.
Nęcka, E. (2001). Psychologia twórczości. Gdańsk: Gdańskie
Wydawnictwo Psychologiczne.
Nęcka, E. (2002). Kontrola, świadomość, automatyczność: Próba analizy
pojęciowej. W: R.K. Ohme (red.), Natura automatyzmów (s. 163–168).
Warszawa: Instytut Psychologii PAN, Szkoła Wyższa Psychologii
Społecznej.
Nęcka, E. (2004). Mamy homunculusa? Studia Psychologiczne, 42, 7–10.
Nęcka E. (1018), Trening poznawczy. Sopot: Smak Słowa.
Nęcka, E., Machera, M., Miklas, M. (1992). Incidental learning,
intelligence, and verbal ability. Learning and Instruction, 2, 141–153.
Nęcka, E., Orzechowski, J. (2005). Higher-order cognition and intelligence.
W: R.J. Sternberg, J.E. Pretz (red.), Cognition and intelligence:
Identifying the mechanisms of the mind (s. 122–141). New York:
Cambridge University Press.
Nęcka, E., Orzechowski, J., Słabosz, A., Szymura, B. (2005). Trening
twórczości. Gdańsk: Gdańskie Wydawnictwo Psychologiczne.
Nickerson, R. S. (1998). Confirmation bias: A ubiquitous phenomenon in
many guises. Review of General Psychology, 2, 175–220.
Niedźwieńska, A. (2003). Czas we wspomnieniach autobiograficznych. W:
K. Krzyżewski (red.), Doświadczenie indywidualne. Szczególny rodzaj
poznania i wyróżniona postać pamięci (s. 185–208). Kraków:
Wydawnictwo Uniwersytetu Jagiellońskiego.
Niedźwieńska, A. (2004). Poznawcze mechanizmy zniekształceń w pamięci
zdarzeń. Kraków: Wydawnictwo Uniwersytetu Jagiellońskiego.
Niewiadomska, G. (2000). W poszukiwaniu molekularnych mechanizmów
pamięci. W: T. Górska, A. Grabowska, J. Zagrodzka (red.), Mózg
a zachowanie (s. 269–297). Warszawa: Wydawnictwo Naukowe PWN.
Nigg, J.T. (2000). On inhibition/disinhibition in developmental psychology:
Views form cognitive and personality psychology and a working
inhibition taxonomy. Psychological Bulletin, 126, 220–246.
Ninio, A., Kahneman, D. (1974). Reaction time in focused and in divided
attention. Journal of Experimental Psychology, 103, 394–399.
Nisbett, R.E., Krantz, D.H., Jepson, C., Kunda, Z. (1983). The use of
statistical heuristics in everyday inductive reasoning. Psychological
Review, 90, 339–363.
Nissen, M.J., Bullemer, P. (1987). Attentional requirements of learning:
Evidence from performance measures. Cognitive Psychology, 19, 1–32.
Noice, T., Noice, H. (2002). Very long-term recall and recognition of well-
learned material. Applied Cognitive Psychology, 16, 259–272.
Norman, D.A. (1970). Comments on the information structure in memory.
Acta Psychologica, 33, 293–303.
Norman, D.A., Bobrow D. G. (1975). On data-limited and resource-limited
processes. Cognitive Psychology, 7, 44–64.
Norman, D.A., Shallice, T. (1986). Attention to action: Willed and
automatic control of behavior. W: R. Davidson, G. Schwartz, D.
Shapiro (red.), Consciousness and self regulation: Advances in research
and theory (s. 1–18). New York: Plenum.
Norman, G.R., Brooks, L.R., Allen, S.W. (1989). Recall by expert medical
practitioners and novices as a record of processing attention. Journal of
Experimental Psychology: Learning, Memory, and Cognition, 15,
1166–1174.
Nosal, Cz.S. (1990). Psychologiczne modele umysłu. Warszawa:
Państwowe Wydawnictwo Naukowe.
Novais-Santos, S., Gee, J., Shah, M., Troiani, V., Work, M., Grossman, M.
(2007). Resolving sentence ambiguity with planning and working
memory resources: Evidence from fMRI. Neuroimage, 37, 361–378.
Novick, L.R. (1988). Analogical transfer, problem similarity, and expertise.
Journal of Experimental Psychology: Learning, Memory, and
Cognition, 14, 510–520.
Nunes, T., Schliemann, A.D., Carraher, D.W. (1993). Street mathematics
and school mathematics. Cambridge, UK: Cambridge University Press.
Oakhill, J.V., Johnson-Laird, P.N. (1985). The effects of belief on the
spontaneous production of syllogistic conclusions. Quarterly Journal of
Experimental Psychology, 37, 553–569.
Oakhill, J.V., Johnson-Laird, P.N., Garnham, A. (1989). Believability and
syllogistic reasoning. Cognition, 31, 117–140.
Oaksford, M., Chater, N. (1994). A rational analysis of the selection task as
optimal data selection. Psychological Review, 101, 608–631.
Oberauer, K. (2002). Access to information in working memory: Exploring
the focus of attention. Journal of Experimental Psychology: Learning,
Memory, and Cognition, 28, 411–421.
Oberauer, K., Kliegl, R. (2001). Beyond resources: Formal models of
complexity effects and age differences in working memory. European
Journal of Cognitive Psychology, 13, 187–216.
Oberauer, K., Lewandowsky, S., Farrell, S., Jarrold, C., Greaves, M.
(2012). Modeling working memory: An interference model of complex
span. Psychonomic Bulletin & Review, 19, 779–819.
Oberauer, K., Lin, H.Y. (2017). An interference model of visual working
memory. Psychological Review, 124, 21–59.
Oberauer, K., Süß, H.-M., Wilhelm, O., Wittman, W.W. (2003). The
multiple faces of working memory: Storage, processing, supervision,
and coordination. Intelligence, 31, 167–194.
Obuchowski, K. (1970). Kody orientacji i struktura procesów
emocjonalnych. Warszawa: Państwowe Wydawnictwo Naukowe.
Obuchowski, K. (2004). Kody umysłu i emocje. Łódź: Wyższa Szkoła
Humanistyczno-Ekonomiczna.
Ohlsson, S. (1984a). Restructuring revisted: I. Summary and critque of the
gestalt theory of problem solving. Scandinavian Journal of Psychology,
25, 65–78.
Ohlsson, S. (1984b). Restructuring revisted: II. An information-processing
theory of restructuring and insight. Scandinavian Journal of
Psychology, 25, 117–129.
Ohme, R.K. (2003). Podprogowe informacje mimiczne. Warszawa:
Wydawnictwo Instytutu Psychologii PAN.
Ohme, R. (red.) (2007). Nieuświadomiony afekt. Gdańsk: Gdańskie
Wydawnictwo Psychologiczne.
Ogden, C.K., Richards, I.A. (1923). The meaning of meaning. London:
Kegan, Paul, Trench, Trubner.
Olivie, T. (2004). Working memory in writing: Empirical evidence from the
dual task technique. European Psychologist, 9, 33–42.
Onken, J., Hastie, R., Revelle, W. (1985). Individual differences in the use
of simplification strategies in a complex decision-making task. Journal
of Experimental Psychology: Human Perception and Performance, 11,
14–27.
O’Regan, J.K., Jacobs, A.M. (1992). Optimal viewing position effect in
word recognition: A challenge to current theory. Journal of
Experimental Psychology: Human Perception and Performance, 18,
185–197.
Orzechowski, J., Bednarek, H. (2004). Uwaga jako mechanizm
zróżnicowania struktur poznawczych. Studia Psychologiczne, 42, 125–
137.
Osherson, D., Smith, E.E. (1981). On the adequacy of prototype theory as
a theory of concepts. Cognition, 9, 35–58.
Ostry, D., Moray, N., Marks, G. (1976). Attention, practice and semantic
targets. Journal of Experimental Psychology. Human Perception and
Performance, 2, 326–336.
Otten, L., Rugg, M. (2001). Tasks-dependency of the neural correlates of
episodic encoding as measured by fMRI. Cerebral Cortex, 11, 1150–
1160.
Owen, A.M. (2000). Human brain function. Journal of Psychophysiology,
14, 128–129.
Owen, A.M., Roberts, A.C., Hodges, J.R., Summers, B.A., Polkey, C.E.,
Robbins, T.W. (1993). Contrasting mechanisms of impaired attentional
set-shifting in patients with frontal lobe damage or Parkinson’s disease.
Brain, 116, 1159–1175.
Paivio, A. (1969). Mental imagery in associative learning and memory.
Psychological Review, 76, 241–263.
Paivio, A. (1971). Imagery and verbal processes. New York: Holt, Rinehart
and Winston.
Paivio, A. (1986), Mental representations. A dual coding approach. New
York: Oxford University Press.
Paivio, A., Csapo, K. (1969). Concrete-image and verbal memory codes.
Journal of Experimental Psychology, 80, 279–285.
Paivio, A., Csapo, K. (1973). Picture superiority in free recall: Imagery or
dual coding? Cognitive Psychology, 5, 176–206.
Paivio, A., Yuille, J.C., Madigan, S.A. (1968). Concreteness, imagery and
meaningfulness values for 925 nouns. Journal of Experimental
Psychology: Monographs, 76, 1–25.
Paivio, A., Yuille, J.C., Rogers, T.B. (1969). Noun imagery and
meaningfulness in free and serial recall. Journal of Experimental
Psychology, 79, 509–514.
Paller, K.A., Wagner, A.D. (2002). Observing the transformation of
experience into memory. Trends in Cognitive Sciences, 6, 93–102.
Palmer, S.E. (1975). The effects of contextual scenes on the identification
of objects. Memory and Cognition, 3, 519–526.
Palmer, S.E. (1978). Fundamental aspects of cognitive representation. W:
E. Rosch, B.B. Lloyd (red.), Cognition and categorization (s. 259–302).
Hillsdale, NJ: Lawrence Erlbaum Associates.
Parasuraman, R. (1976). Consistency of individual differences in human
vigilance performance: An abilities classification analysis. Journal of
Applied Psychology, 61, 486–492.
Parasuraman, R. (1983). Vigilance, arousal and the brain. W: A. Gale, J.
Edwards (red.), Physiological correlates of human performance:
Attention and performance (s. 35–55). London: Academic.
Parasuraman, R., Davies, D.R. (1976). Decision theory analysis of response
latencies invigilance. Journal of Experimental psychology: Human
Perception and Performance, 2, 569–582.
Pascual-Leone, J. (1990). An essay on wisdom: Toward organismic
processes that make it possible. W: R.J. Sternberg (red.), Wisdom: Its
nature, origins, and development (s. 279–313). New York: Cambridge
University Press.
Pashler, H. (1992). Dual-task interference and elementary mental
mechanisms. W: D. E. Meyer, S. Kornblum (red.), Attention and
performance (t. 14, s. 245–264). Cambridge, MA: MIT Press.
Pashler, H. (1994). Graded capacity-sharing in dual-task interference?
Journal of Experimental Psychology. Human Perception and
Performance, 20, 330–342.
Pashler, H. (2000). Task switching and multitask performance. W: S.
Monsell, J. Driver (red.), Control of cognitive processes. Attention and
performance (t. 18, s. 277–307). Cambridge, MA: MIT Press.
Pawłow, I.P. (1990). Odpowiedź fizjologa psychologom i inne prace, przeł.
L. Skarżyński. Warszawa: Państwowe Wydawnictwo Naukowe.
Payne, J.W.E. (1976). Task complexity and contingent processing in
decision making: An information search and protocol analysis.
Organizational Behavior and Human Performance, 16, 366–387.
Payne, J.W., Bettman, J.R., Johnson, E.J. (1988). Adaptive strategy
selection in decision making. Journal of Experimental Psychology:
Learning, Memory, and Cognition, 14, 534–552.
Pérès, M., Van De Moortele, P.F., Pierard, Ch. (2000). Functional magnetic
resonance imaging of mental strategy in a simulated aviation
performance task. Aviation, Space, and Environmental Medicine, 71,
1218–1231.
Perfect, T.J., Hollins, T.S. (1996) Predictive feeling of knowing judgements
and postdictive confidence judgements in eyewitness memory and
general knowledge. Applied Cognitive Psychology, 10, 371–382.
Perfect, T.J., Moulin, C.J.A., Conway, M.A., Perry, E. (2002). Assessing
the inhibitory account of retrieval-induced forgetting with implicit-
memory tests. Journal of Experimental Psychology: Learning, Memory,
and Cognition, 28, 1111–1119.
Perkins, D.N. (1981). The mind’s best work. Cambridge, MA: Harvard
University Press.
Perkins, D.N., Salomon, G. (1987). Transfer and teaching thinking. W:
D.N. Perkins, J. Lochhead (red.), Thinking: The second international
conference (s. 285–303). Hillsdale, NJ: Lawrence Erlbaum Associates.
Perruchet, P., Pacteau, C. (1990). Synthetic grammar learning: Implicit rule
abstraction or explicit fragmentary knowledge? Journal of
Experimental Psychology: General, 119, 264–275.
Peterson, L.R., Peterson, M.J. (1959). Short-term retention of individual
verbal items. Journal of Experimental Psychology, 58, 193–198.
Peverly, S.T. (1991). Problems with the knowledge-based explanation of
memory and development. Review of Educational Research, 61, 71–93.
Phillips, W.A. (1974). On the distinction between sensory storage and
short-term visual memory. Perception and Psychophysics, 16, 283–390.
Piaget, J. (1966). Narodziny inteligencji dziecka, przeł. M. Przetacznikowa.
Warszawa: Państwowe Wydawnictwo Naukowe.
Piaget, J. (1972). The psychology of intelligence. Totowa, NJ: Littlefield,
Adams.
Piaget, J. (1981). Równoważenie struktur poznawczych. Centralny problem
rozwoju, przeł. Z. Zakrzewska. Warszawa: Państwowe Wydawnictwo
Naukowe.
Pinker, S. (2002). Jak działa umysł, przeł. M. Koraszewska. Warszawa:
Książka i Wiedza.
Pinker, S. (2003). The language instinct: How the mind creates language.
New York: William Moro.
Piotrowski, K.T. (2004). Rola centralnego systemu wykonawczego pamięci
roboczej w krótkotrwałym przechowywaniu informacji. Badanie metodą
generowania interwałów losowych. Niepublikowana praca doktorska.
Kraków: Uniwersytet Jagielloński.
Polanyi, M. (1966). The tacit dimension. Garden City, NY: Doubleday and
Company.
Policastro, E. (1995). Creative intuition: An integrative review. Creativity
Research Journal, 8, 99–113.
Pollard, J., Evans, J.St.B. (1983). The effect of experimentally contrived
experience on reasoning performance. Psychological Research, 45,
287–301.
Pollatsek, A., Bolozky, S., Well, A.D., Rayner, K. (1981). Assymetries in
the perceptual span for Israeli readers. Brain and Language, 14, 174–
180.
Polya, G. (1957). How to solve the problem. New York: Wiley.
Ponomarev, J.A. (1976). Psikhologiia tvorchestva. Moskva: Izdatelstvo
Nauka.
Posner, M.I. (1980). Orienting of attention. Quarterly Journal of
Experimental Psychology, 32, 3–25.
Posner, M.I. (1994). Attention: The mechanism of consciousness.
Psychological Review, 91, 7398–7403.
Posner, M.I. (1999). Uwaga. Mechanizmy świadomości. W: Z. Chlewiński
(red.), Modele umysłu (s. 197–214). Warszawa: Wydawnictwo
Naukowe PWN.
Posner, M.I., Cohen, Y.P.C. (1984). Components of visual orienting. W: H.
Bouma, D. Bouwhuis (red.), Attention and performance (t. 10, s. 531–
556). Hillsdale, NJ: Lawrence Erlbaum Associates.
Posner, M.I., Keele, S.W. (1968). On the genesis of abstract ideas. Journal
of Experimental Psychology, 67, 353–363.
Posner, M.I., Keele, S.W. (1970). Retention of abstract ideas. Journal of
Experimental Psychology, 83, 304–308.
Posner, M.I., Mitchell, R.F. (1967). Chronometric analysis of classification.
Psychological Review, 74, 392–409.
Posner, M.I., Nissen, M.J., Ogden, W.C. (1978). Attended and unattended
processing modes: The role of set for spatial location. W: H.L. Pick, Jr.,
I.J. Saltzman (red.), Modes of perceiving and processing information (s.
137–157). Hilldale, NJ: Lawrence Erlbaum Associates.
Posner, M.I., Raichle, M.E. (1994). Images of mind. New York: Scientific
American.
Posner, M.I., Snyder, C.R. (1975). Attention and cognitive control. W: R.
L. Solso (red.), Information processing and cognition: The Loyola
Symposium (s. 55–85). Hillsdale, NJ: Lawrence Erlbaum Associates.
Pothos, E.M., Bailey, T.M. (2000). The role of similarity in artificial
grammar learning. Journal of Experimental Psychology: Learning,
Memory, and Cognition, 26, 847– 862.
Prabhakaran, V., Narayanan, K., Zhao, Z., Gabrielli, J.D.E. (2000).
Integration of diverse information in working memory within the
frontal lobe. Nature Neuroscience, 3, 85–91.
Prabhakaran, V., Smith, J.A.L., Desmond, J.E., Glover, G.H. (1997). Neural
substrates of fluid reasoning: An fMRI study of neocortical activation
during performance of the Raven’s Progressive Matrices Test. Cognitive
Psychology, 33, 43–63.
Pretz, J.E., Naples, A.J., Sternberg, R.J. (2003). Recognizing, defining, and
representing problems. W: J.E. Davidson, R.J. Sternberg (red.),
Psychology of problem solving (s. 3–30). New York: Cambridge
University Press.
Proctor, T. (2002). Twórcze rozwiązywanie problemów, przeł. E. Jusewicz-
Kalter. Gdańsk: Gdańskie Wydawnictwo Psychologiczne.
Profitt, D. (1999). Nařve physics. W: R.A. Wilson, F.C. Keil (red.), The
MIT encyclopedia of the cognitive sciences (s. 577–579). Cambridge,
MA: MIT Press.
Putz-Osterloh, W. (1981). Über die Beziehung zwischen Testintelligenz
und Problemlöseerfolg (The relation between test intelligence and
problem solving success). Zeitschrift für Psychologie, 189, 79–100.
Putz-Osterloh, W. (1983). Über Determinanten komplexer
Problemlöseleistungen und Möglichkeiten zu ihrer Erfassung (About
some processes determining intelligence in solving a very complex
problem). Sprache & Kognition, 2, 100–116.
Pylyshyn, Z.W. (1973). What the mind’s eye tells the mind’s brain:
A critique of mental imagery. Psychological Bulletin, 80, 1–24.
Pylyshyn, Z.W. (1981). The imagery debate: Analogue versus tacit
knowledge. Psychological Review, 88, 16–45.
Qin, Y., Sohn, M.H., Anderson, J.R., Stenger, V.A., Fissell, K., Goode, A.,
Carter, C.S. (2003). Predicting the practice effects on the blood
oxygenation level-dependent (BOLD) function of fMRI in a symbolic
manipulation task. Proceedings of the National Academy of Sciences,
100, 4951–4956.
Quillian, M.R. (1968). Semantic memory. W: M. Minsky (red.), Semantic
information processing (s. 227–270). Cambridge, MA: MIT Press.
Rabbitt, P., Lowe, C., Shilling, V. (2001). Frontal tests and model for
cognitive aging. European Journal of Cognitive Psychology, 13, 5–28.
Rajkowski, J., Kubiak, P., Aston-Jones, G. (1994). Locus coeruleus activity
in monkey: Phasic and tonic changes are associated with altered
vigilance. Brain Research Bulletin, 35, 607–616.
Rajkowski, J., Majczynski, H., Clayton, E., Aston-Jones, G. (2004).
Activation of monkey locus coeruleus neurons varies with difficulty
and performance in a target detection task. Journal of Neurophysiology,
92, 361–371.
Ramachandran, V.S. (1988). Perception of shape from shading. Nature,
331, 163–166.
Ransopher, S.B., Thompson, D.N. (1991). Einstellung rigidity, set
induction, and problem solving in the elderly. Educational Gerontology,
17, 219–227.
Ratcliff, R. (1978). A theory of memory retrieval. Psychological Review,
85, 59–108.
Ratcliff, R., Clark, S.E., Shiffrin, R.M. (1990). List-Strength effect: I. Data
and discussion. Journal of Experimental Psychology: Learning,
Memory, and Cognition, 16, 163–178.
Ratcliff, R., McKoon, G. (2008). The diffusion decision model: Theory and
data for two-choice decision tasks. Neural Computation, 20, 873–922.
Ratcliff, R., Murdock, B.B. (1976). Retrieval processes in recognition
memory. Psychological Review, 83, 190–214.
Rauch, S.L., Whalen, P.J., Savage, C.R., Curran, T., Kendrick, A., Brown,
H.D., Bush, G., Breiter, H.C., Rosen, B.R. (1997). Striatal recruitment
during an implicit sequence learning task as measured by functional
magnetic resonance imaging. Human Brain Mapping, 5, 124–132.
Rawlings, D. (1985). Two experiments on the relation between
psychoticism and response uncertainty in normal subjects. Personality
and Individual Differences, 6, 231–236.
Ray, J.L., Findley, P. (1984). The effects of open and restricted context
sentences and reasoning with conditional propositions. Communication
Monographs, 51, 243–252.
Rayner, K. (1979). Eye guidance in reading: Fixation locations in words.
Perception, 8, 21–30.
Rayner, K. (1997). Understanding eye movements in reading. Scientific
Studies of Reading, 1, 317–339.
Rayner, K., Morris, R.K. (1992). Eye movement control in reeding:
Evidence against semantic preprocessing. Journal of Experimental
Psychology: Human Perception and Performance, 18, 163–172.
Rayner, K., Well, A.D., Pollatsek, A. (1980). Asymmetry of the effective
visual field in reading. Perception and Psychophysics, 27, 537–544.
Reason, J. (1990). Human error. New York: Cambridge University Press.
Reber, A.S. (1967). Implicity learning of artificial grammars. Journal of
Verbal Learning and Verbal Behavior, 6, 855–863.
Reber, A.S. (1968). A perceptual learning analysis of probability learning.
Dissertation Abstracts International, 28, 3501–3502.
Reber, A.S. (1976). Implicit learning of synthetic languages: The role of
instructional set. Journal of Experimental Psychology: Human
Learning and Memory, 2, 88–94.
Reber, A.S. (1989). Implicit learning and tacit knowledge. Journal of
Experimental Psychology: General, 118, 219–235.
Reber, A.S. (2000). Słownik psychologii, przeł. B. Janasiewicz-Kruszyńska
i in. Warszawa: Wydawnictwo Naukowe Scholar.
Reber, A.S., Kassin, S.M., Lewis, S. (1980). On the relationship between
implicit and explicit modes in the learning of a complex rule structure.
Journal of Experimental Psychology: Human Learning and Memory, 6,
492–502.
Reber, E.S., Reber, A.S. (2005). Słownik psychologii, przeł. B. Janasiewicz-
Kruszyńska. Warszawa: Wydawnictwo Naukowe Scholar.
Reber, P.J. (2013). The neural basis of implicit learning and memory:
a review of neuropsychological and neuroimaging research.
Neuropsychologia, 51, 2026–2042.
Reber, P.J., Gitelman, D.R., Parrish, T.B., & Mesulam, M.M. (2003).
Dissociating explicit and implicit category knowledge with fMRI.
Journal of cognitive neuroscience, 15, 574–583.
Reed, S.K. (1972). Pattern recognition and categorization. Cognitive
Psychology, 3, 382–407.
Reed, S.K. (1974). Structural descriptions and the limitations of visual
images. Memory and Cognition, 2, 329–336.
Reed, S.K. (1988). Cognition: Theory and aplications. California:
Brooks/Cole Publishing Company.
Reed, S.K., Ernst, G.W., Banerji, R. (1974). The role of analogy in transfer
between similar problem states. Cognitive Psychology, 6, 436–450.
Reder, L.M., Anderson, J.R. (1980). A partial resolution of the paradox of
interference: The role of integrating knowledge. Cognitive Psychology,
12, 447–472.
Reder, L.M., Ross, B.H. (1983). Integrated knowledge in different tasks:
The role of retrieval strategy on fan effects. Journal of Experimental
Psychology: Learning, Memory, and Cognition, 9, 55–72.
Regier, T., Kay, P. (2009). Language, thought, and color: Whorf was half
right. Trends in Cognitive Sciences, 13, 439–446.
Reicher, G.M. (1969). Perceptual recognition as a function of
meaningfulness of stimulus material. Journal of Experimental
Psychology, 81, 274–280.
Reichle, E.D., Carpenter, P.A., Just, M.A. (2000). The neural bases of
strategy and skill in sentence-picture verification. Cognitive
Psychology, 40, 261–295.
Reitan, R.M., Wolfson, D. (1994). A selective and critical review of
neuropsychological deficits and the frontal lobes. Neuropsychology
Review, 4, 161–198.
Reitman, J.S. (1971). Mechanisms of forgetting in short-term memory.
Cognitive Psychology, 2, 185–195.
Reitman, J.S. (1974). Without surreptitious rehearsal, information in short-
term memory decays. Journal of Verbal Learning and Verbal Behavior,
13, 365–377.
Reitman, W.R. (1965). Cognition and thought: An information processing
approach. New York: Wiley.
Reuter-Lorenz, P.A., Jha, A.P., Rosenquist, J.N. (1996). What is inhibited in
inhibition of return? Journal of Experimental Psychology: Human
Perception and Performance, 22, 367–378.
Reynolds, A.G., Flagg, P.W. (1983). Cognitive psychology (wyd. 2).
Boston: Little, Brown.
Richardson, J.T.E. (1980). Mental imagery and human memory. New York:
St. Martin’s.
Rieskamp, J., Hoffrage, U. (1999). When do people use asimple heuristics,
and how can we tell? W: G. Gigerenzer, P.M. Todd, the ABC Research
Group (red.), Simple heuristics that make us smart (s. 141–167).
Oxford, UK: Oxford University Press.
Rinck, M., Denis, M. (2004). The metrics of spatial distance during mental
imagery. Journal of Experimental Psychology: Learning, Memory, and
Cognition, 30, 1211– 1218.
Rips, L.J. (1983). Cognitive processes in propositional reasoning.
Psychological Review, 90, 38–71.
Rips, L.J. (1994). Deductive reasoning. W: R.J. Sternberg (red.), Handbook
of perception and cognition: Thinking and problem solving (s. 149–
178). New York: Cambridge University Press.
Rips, L.J., Shoben, E., Smith, E.E. (1973). Semantic distance and
verification of semantic relations. Journal of Verbal Learning and
Verbal Behavior, 12, 1–20.
Ritchey, G.R. (1980). Picture superiority in free recall: The effect of
organization and elaboration. Journal of Experimental Child
Psychology, 29, 460–474.
Roberge, J.J. (1970). A reexamination of the interpretations of errors in
formal syllogistic reasoning. Psychonomic Science, 1970, 331–333.
Roberge, J.J. (1978). Linguistic and psychometric factors in propositional
reasoning. Quarterly Journal of Experimental Psychology, 30, 705–
716.
Roberson, D., Davidoff, J., Braisby, N. (1999). Similarity and
categorization: Neuropsychological evidence for a dissociation in
explicit categorisation tasks. Cognition, 71, 1–42.
Roberson, D., Davies, I., Davidoff, J. (2000). Colour categories are not
universal: Replications and new evidence in favour of linguistic
relativity. Journal of Experimental Psychology: General, 129, 369–398.
Roberts, A., Bruce, V. (1988). Feature saliency in judging the sex and
familiarity of faces. Perception, 17, 475–481.
Roberts, M.J., Gilmore, D.J., Wood, D.J. (1997). Individual differences in
strategy selection in reasoning. British Journal of Psychology, 88, 473–
492.
Roberts, W.A. (1972). Short term memory in the pigeon: Effects of
repetition and spacing. Journal of Experimental Psychology, 94, 74–83.
Robertson, E.M. (2012). New insights in human memory interference and
consolidation. Current Biology, 22, 66–71.
Robertson, I.S. (2001). Problem solving. Hove, UK: Psychology Press.
Robinson-Riegler, M.B. (1995). The recognition-recall hypothesis of event-
based prospective memory. Dissertation Abstracts International.
Section B: The Sciences and Engineering, 55, 55–89.
Rock, I., Linnett, C.M., Grant, P., Mack, A. (1992). Perception without
attention: results of a new method. Cognitive Psychology, 24, 502–534.
Roediger, H.L. (1980). The effectiveness of four mnemonics in ordering
recall. Journal of Experimental Psychology: Human Learning and
Memory, 6, 558–567.
Roediger, H.L., March, E.J., Lee, S.C. (2002). Kinds of memory. W: H.
Pashler, D.L. Medin (red.), Stevens handbook of Psychology (t. 2, s. 1–
42). New York: Wiley.
Roediger, H.L., McDermott, K.B. (1995). Creating false memories:
Remembering words not presented in lists. Journal of Experimental
Psychology: Learning, Memory, and Cognition, 21, 803–814.
Roediger, H.L., McDermott, K.B. (1999). False alarms about false
memories. Psychological Review, 106, 406–410.
Rogers, T.B., Kuiper, N.A., Kirker W. S. (1977). Self-reference and the
encoding of personal information. Journal of Personality and Social
Psychology, 35, 677–688.
Rogers, R., Monsell, S. (1995). Cost of predicable switch between simple
cognitive task. Journal of Experimental Psychology: General, 124,
207–231.
Rohrbaugh, C.C., Shanteau, J. (1999). Context, process, and experience:
Research on applied judgment and decision making. W: F.T. Durso
(red.), Handbook of applied cognition (s. 115–139). Chichester,
Hoboken, NJ: Wiley.
Rosch, E.H. (1973). Natural categories. Cognitive Psychology, 4, 328–350.
Rosch, E.H. (1975). Cognitive representations of semantic categories.
Journal of Experimental Psychology: General, 104, 192–233.
Rosch, E.H., (1978). Principles of categorization. W: E. Rosch, B.B. Lloyd
(red.), Cognition and categorization (s. 27–48). Hillsdale, NJ:
Lawrence Erlbaum Associates.
Rosch, E.H. (1999). Principles of categorization. W: E. Margolis, S.
Laurence (red.), Concepts. Core readings (s. 189–206). Cambridge,
MA: MIT Press.
Rosch, E.H., Mervis, C.B. (1975). Family resemblance studies in the
internal structure of categories. Cognitive Psychology, 7, 573–605.
Rosch, E.H., Mervis, C.B., Gray, W.D., Johnson, D.M., Boyes-Braem, P.
(1976a). Basic objects in natural categories. Cognitive Psychology, 15,
382–439.
Rosch, E.H., Simpson, C., Miller, R.S. (1976b). Structural bases of
typicality effects. Journal of Experimental Psychology: Human
Perception and Performance, 2, 491–502.
Ross, S., Dardano, J., Hackman, R. (1959). Conductance level during
vigilance task performance. Journal of Applied Psychology, 43, 65–69.
Rossi, S., Caverni, J. P., Girotto, V. (2001). Hypothesis testing in a rule
discovery problem: When a focused procedure is effective. The
Quarterly Journal of Experimental Psychology A, 54, 263–267.
Roth, E.M., Shoben, E.J. (1983). The effect of context on the structure of
category. Cognitive Psychology, 15, 346–378.
Roth, I. (1986). An introduction to objects perception. W: I. Roth, J.P.
Frishby (red.), Perception and representation: A cognitive approach.
Milton Keynes, UK: Open University Press.
Royer, J.M., Lynch, D.J., Hambleton, R.K., Bulgareli, Ch. (1984). Using
the sentence verification technique to assess the comprehension of
technical text as a function of subject matter expertise. American
Educational Research Journal, 21, 839–869.
Rozencwajg, P. (1991). Analysis of problem solving strategies on the Kohs
Block Design Test. European Journal of Psychology of Education, 6,
73–88.
Rozencwajg, P., Corroyer, D. (2002). Strategy development in a block
design task. Intelligence, 30, 1–25.
Rubin, D.C. (red.). (1996). Remembering our past: Studies in
autobiographical memory. Cambridge, UK: Cambridge University
Press.
Rubin, D.C., Wetzler, S.E., Nebes, R.D. (1986). Autobiographical memory
across the lifespan. W: D.C. Rubin (red.), Autobiographical memory (s.
202–221). New York: Cambridge University Press.
Rubinstein, J., Meyer, D., Evans, E. (2001). Executive control of cognitive
processes in task switching. Journal of Experimental Psychology:
Human Perception and Performance, 27, 763–797.
Rubinsztejn, S.L. (1962). Myślenie i drogi jego poznania. Warszawa:
Książka i Wiedza.
Rumelhart, D.E. (1980). Schemata: The basic building blocks of cognition.
W: R. Sapiro, B. Bruce, W. Brewer (red.), Theoretical issues in reading
comprehension (s. 33–58). Hillsdale, NJ: Lawrence Erlbaum
Associates.
Rumelhart, D.E., Abrahamson, A.A. (1973). A model for analogical
reasoning. Cognitive Psychology, 5, 1–28.
Rumelhart, D.E., Lindsay, P.H., Norman, D.A. (1972). A process model for
long-term memory. W: E. Tulving, W. Donaldson (red.), Organization
of memory (s. 197–246). New York: Academic Press.
Rumelhart, D.E., McClelland, J.L., the PDP Research Group (1986).
Parallel distributed processing: Explorations in the microstructure of
cognition, t. 1: Foundations. Cambridge, MA: MIT Press.
Rumelhart, D.E., Norman, D.A (1975). The active structural network. W:
D. A. Norman, D. E. Rumelhart (red.), Explorations in cognition (s.
35–64). San Francisco: Freeman.
Rumelhart, D.E., Norman, D.A. (1978). Accretion, tuning, and
restructuring: Three modes of learning. W: J.W. Cotton, R. Klatzky
(red.), Semantic factors in cognition (s. 37–53). Hillsdale, NJ:
Lawrence Erlbaum Associates.
Rumelhart, D.E., Norman, D.A. (1981). Analogical processes in learning.
W: J.R. Anderson (red.), Cognitive skills and their acquisition.
Hillsdale, NJ: Lawrence Erlbaum Associates.
Rumelhart, D.E., Ortony, A. (1977). The representation of knowledge in
memory. W: R.C. Anderson, R.J. Spiro, W.E. Montague (red.),
Schooling and the acquisition of knowledge (s. 99–135). Hillsdale, NJ:
Lawrence Erlbaum Associates.
Russell, J.A. (1991). In defense of prototype approach to emotion concepts.
Journal of Personality and Social Psychology, 60, 37–47.
Ruthruff, E., Remington, R., Johnston, J. (2001). Switching between simple
cognitive tasks. The interactions of top-down and bottom-up factors.
Journal of Experimental Psychology: Human Perception and
Performance, 27, 1404–1419.
Ryan, C. (1983). Reassessing the automaticity-control distinction: Item
recognition as a paradigm case. Psychological Review, 90, 171–178.
Rybash, J.M., Monaghan, B.E. (1999). Episodic and semantic contributions
to older adults’ autobiographical recall. Journal of General Psychology,
126, 85–96.
Ryle, G. (1949). The concept of mind. New York: Barnes and Noble.
Salomon, G., Perkins, D.N. (1987). Transfer of cognitive skills from
programming: When and how? Journal of Educational Computing
Research, 3, 149–169.
Salter, D. (1973). Shadowing at one and two ears. Quarterly Journal of
Experimental Psychology, 25, 549–556.
Salthouse, T.A. (1975). Simultaneous processing of verbal and spatial
information. Memory and Cognition, 3, 221–245.
Sapir, E. (1921). Language: An introduction to the study of speech. New
York: Harcourt, Brace.
Sara, S.J. (2009). The locus coeruleus and noradrenergic modulation of
cognition. Nature Reviews Neuroscience, 10, 211–223.
Sara, S.J., Bouret, S. (2012). Orienting and reorienting: The locus coeruleus
mediates cognition through arousal. Neuron, 76, 130–141.
Schacter, D.L. (1996). Searching for memory: The brain, the mind, and the
past. New York: Basic Books.
Schacter, D.L., Harbluk, J.L., McLachlan, D.R. (1984). Retrieval without
recollection: An experimental analysis of source amnesia. Journal of
Verbal Learning and Verbal Behavior, 23, 593–611
Schacter, D.L., Tulving, E. (1982). Memory, amnesia, and
episodic/semantic distinction. W: R.L. Isdacson, N.E. Spear (red.), The
expression of knowledge (s. 33–65). New York: Plenum Press.
Schacter, D.L., Tulving, E. (1994). What are the memory systems of 1994?
W: D.L. Schacter, E. Tulving (red.), Memory systems 1994 (s. 1–38).
Cambridge, MA: MIT Press.
Schaie, K.W. (1994). The course of adult intellectual development.
American Psychologist, 49, 304–313.
Schaie, K.W. (1996). Intellectual development in adulthood. W: J.E. Birren,
K.W. Schaie, (red.), Handbook of the psychology of aging (s. 266–286).
San Diego, CA: Academic Press.
Schank, R.C. (1982). Dynamic memory. Cambridge: Cambridge University
Press.
Schank, R.C. (1986). Explanation patterns: Understanding mechanically
and creatively. Hillsdale, NJ: Lawrence Erlbaum Associates.
Schank, R.C., Abelson, R. P. (1977). Scripts, plans, goals and
understanding: An inquiry into human knowledge structures. Hillsdale,
NJ: Lawrence Erlbaum Associates.
Scheerer, M. (1963). Problem-solving. Scientific American, 208, 118–128.
Schneider, W. (1984). Toward a model of attention and the development of
automatic processing. W: M.I. Posner, O.S.M. Marin (red.), Attention
and performance (t. 11, s. 475–492). Hillsdale, NJ: Lawrence Erlbaum
Associates.
Schneider, W., Dumais, S.T., Shiffrin, R.M. (1984). Automatic and control
processing and attention. W: R. Parasuraman, D. R Davies (red.),
Varieties of attention. Orlando: Academic Press.
Schneider, W., Fisk, A.D. (1982). Concurrent automatic and controlled
visual search: Can processing ocurr without resource cost? Journal of
Experimental Psychology. Learning, Memory, and Cognition, 8, 161–
179.
Schneider, W., Fisk, A.D. (1984). Automatic category search and its
transfer. Journal of Experimental Psychology. Learning, Memory, and
Cognition, 10, 1–15.
Schneider, W., Shiffrin, R.M. (1977a). Controlled and automatic human
information processing. I. Detection, search, and attention.
Psychological Review, 84, 1–66.
Schneider, W., Shiffrin, R.M. (1977b). Toward a unitary model for selective
attention, memory scanning, and visual search. W: S. Dornic (red.),
Attention and performance (t. 6, s. 413–440). Hillsdale, NJ: Lawrence
Erlbaum Associates.
Schooler, J.W., Engstler-Schooler, T.Y. (1990). Verbal overshadowing of
visual memories: Some things are better left unsaid. Cognitive
Psychology, 22, 36–71.
Schumacher, R. Czerwinski, M. (1992). Mental models and the acquisition
of expert knowledge. W: R. Hoffman (red.), The psychology of
expertise (s. 61–79). New York: SpringerVerlag.
Segal, E. (2004). Incubation in insight problem solving. Creativity
Research Journal, 16, 141–148.
Seifert, C.M., Meyer, D.E., Davidson, N., Patalano, A. (1995).
Demystification of cognitive insight: Opportunistic assimilation and the
prepared-mind perspective. W: R.J. Sternberg, J.E. Davidson (red.),
Nature of insight (s. 65–124). Cambridge, MA: MIT Press.
Selfridge, O.G., Neisser, U. (1960). Pattern recognition by machine.
Scientific American, 203, 60–68.
Sellen A.J., Louie G., Harris J.E., Wilkins A.J. (1997). What brings
intentions to mind? An in situ study of prospective memory. Memory, 5,
483–507.
Sells, S.B. (1936). The atmosphere effect: An experimental study of
reasoning. Archives of Psychology, 200, 72.
Selz, O. (1922). Zur Psychologie des produktiven Denkens und des Irrtums:
eine experimentelle Untersuchung (t. 2). Bonn: F. Cohen.
Senderecka, M., Szewczyk, J., Wichary, S., Kossowska, M. (2018).
Individual differences in decisiveness: ERP correlates of response
inhibition and error monitoring. Psychophysiology, 55, e13198.
Sergent, J. (1984). An investigation into component and configural
processes underlying face perception. British Journal of Psychology,
75, 221–242.
Sergent, J., Ohta, S., MacDonald, B. (1992). Functional neuroanatomy of
face and object processing. Brain, 115, 15–36.
Sęk, H. (1970). Zaburzenia operacji pojęciowych u chorych z zespołami
urojeniowo-omamowymi. Niepublikowana praca doktorska, UAM
Poznań.
Shafir, E. (1993). Choosing versus rejecting: Why some opinions are both
better and worse than others. Memory and Cognition, 21, 546–556.
Shallice, T. (1982). Specific impairments of planning. Philosophical
Transactions of the Royal Society of London. Series B, Biological
Sciences, 298, 199–209.
Shallice, T. (1988). From neuropsychology to mental structure. Cambridge,
New York: Cambridge University Press.
Shallice, T., Burgess, P. (1996). The domain of supervisory processes and
temporal organization of behaviour. Philosophical Transactions of the
Royal Society of London. Series B, Biological Sciences, 351, 1405–
1412.
Shallice, T., Burgess, P., Schon, F. Baxter, D.M. (1989). The origins of
utilization behaviour. Brain, 112, 1587–1598.
Shallice, T., Cipolotti, L. (2018). The prefrontal cortex and neurological
impairments of active thought. Annual Review of Psychology, 69, 157–
180.
Shallice, T., Fletcher, P., Fritch, C.D., Grasby, P., Frackowiak, R.S.J.,
Dolan, R.J. (1994). Brain regions associated with acquisition and
retrieval of verbal episodic memory. Nature, 368, 633–635.
Shanks, D.R., St. John, M.F. (1994). Characteristics of dissociable human
learning systems. Behavioral & Brain Sciences, 17, 367–447.
Shannon, C., Weaver, W. (1949). The mathematical theory of
communication. Urbana, IL: University of Illinois Press.
Shaw, M.P. (1989). The eureka process: A structure for the creative
experience in science and engineering. Creativity Research Journal, 2,
286–298.
Shaw, M.P. (1994). Affective components of scientific creativity. W: Shaw,
M.P., Runco, M.A (red.), Creativity and affect (s. 3–43). Westport, CT:
Ablex Publishing
Shaw, V.F. (1996). The cognitive processes in informal reasoning. Thinking
and reasoning, 2, 51–80.
Shen, W., Tong, Y., Li, F., Yuan, Y., Hommel, B., Liu, C., Luo, J. (2018).
Tracking the neurodynamics of insight: A meta-analysis of
neuroimaging studies. Biological Psychology, 138, 189–198.
Shepard, R.N. (1967). Recognition memory for words, sentence, and
pictures. Journal of Verbal Learning and Verbal Behavior, 6, 156–163.
Shepard, R.N. (1975). Form, formation and transformation of internal
representations. W: R.L. Solso (red.), Information processing and
cognition (s. 87–122). Hillsdale, NJ: Lawrence Erlbaum Associates.
Shepard, R.N. (1984). Ecological constraints on internal representation:
Resonant kinematics of perceiving, imagining, thinking and dreaming.
Psychological Review, 91, 417–447.
Shepard, R.N., Chipman, S. (1970). Second-order isomorphism of internal
representations: Shapes of states. Cognitive Psychology, 1, 1–17.
Shepard, R.N., Metzler, J. (1971). Mental rotation of three-dimensional
objects. Science, 171, 701–703.
Sherry, D.F., Schacter, D.L. (1987). The evolution of multiple memory
systems. Psychological Review, 94, 439–454.
Shettleworth, S.J. (1993). Varieties of learning and memory in animals.
Journal of Experimental Psychology: Animal Behavior Processes, 19,
5–14.
Shiffrin, R.M., Atkinson, R.C. (1969). Storage and retrieval processing in
long-term memory. Psychological Review, 76, 179–193.
Shiffrin, R.M., Dumais, S.T., Schneider, W. (1981). Characteristics of
automatism. W: J. Long, A. Baddeley (red.), Attention and performance
(t. 9, s. 223–238). Hillsdale, NJ: Lawrence Erlbaum Associates.
Shiffrin, R.M., Gardner, G.T. (1972). Visual processing capacity and
attentional control. Journal of Experimental Psychology, 93, 72–82.
Shiffrin, R.M., Geisler, W.S. (1973). Visual recognition in a theory of
information processing. W: R.L. Solso (red.), Contemporary issues in
cognitive psychology: The Loyola Symposium. Oxford, UK: V. H.
Winston & Sons.
Shiffrin, R.M., McKay, D.P., Shaffer, W.O. (1976). Attending to forty-nine
spatial positions at once. Journal of Experimental Psychology. Human
Perception and Performance, 2, 14–22.
Shiffrin, R.M., Pisoni, D.B., Castaneda-Mendez, K. (1974). Is attention
shared between the ears? Cognitive Psychology, 6, 190–215.
Shiffrin, R.M., Ratcliff, R., Clark, S.E. (1990). List-Strength effect: II.
Theoretical mechanisms. Journal of Experimental Psychology:
Learning, Memory, and Cognition, 16, 179–195.
Shiffrin, R.M., Schneider, W. (1977). Controlled and automatic human
information processing: II. Perceptual learning, automatic attending,
and a general theory. Psychological Review, 84, 127–190.
Shilling, V.M., Chetwynd, A., Rabbitt, P.M.A. (2002). Individual
inconsistency across measures of inhibition: An investigation of the
construct validity of inhibition in older adults. Neuropsychologia, 40,
605–619.
Shirely, D.A., Langan-Fox, J. (1996). Intuition: A review of the literature.
Psychological Reports, 79, 563–584.
Siegel, R.K. (1984). Hostage hallucinations: Visual imagery induced by
isolation and lifethreatening stress. Journal of Nervous and Mental
Disease, 172, 264–272.
Siegler, R.S., Shrager, J. (1984). Strategy choice in addition and
subtraction: How do children know what to do? W: C. Sophian (red.),
Origins of cognitive skills (s. 229–293). Hillsdale, NJ: Lawrence
Erlbaum Associates.
Silveri, M.C., Gainotti, G. (1988). Interaction between vision and language
in category specific semantic impairment for living things. Cognitive
Neuropsychology, 5, 677–710.
Simmons, W.K., Ramjee, V., Beauchamp, M.S., McRae, K., Martin, A.,
Barsalou, L. W. (2007). A common neural substrate for perceiving and
knowing about color. Neuropsychologia, 45, 2802–2810.
Simon, H.A. (1947). Administrative behavior. New York: Macmillan.
Simon, H.A. (1956). Rational choice and the structure of environments.
Psychological Review, 63, 129–138.
Simon, H.A. (1973). The structure of ill-structured problems. Artificial
Intelligence, 4, 181–201.
Simon, H.A. (1974). How big is a chunk? Science, 183, 482–488.
Simon, H.A. (1975). The functional equivalence of problem solving skills.
Cognitive Psychology, 7, 268–288.
Simon, H.A. (1977). Boston studies in the philosophy of science, t. 54:
Models of discovery. Boston: Reidel.
Simon, H.A. (1978). Information-processing theory of human problem
solving. W: W. K. Estes (red.), Handbook of learning and cognitive
processes: Human information (t. 5, s. 271–295). Hillsdale, NJ:
Lawrence Erlbaum Associates.
Simon, H.A. (1982). Models of bounded rationality (t. 1–2). Cambridge,
MA: MIT Press.
Simon, H.A., Kaplan, C. A. (1989). Foundations of cognitive science. W:
M.I. Posner (red.), Foundations of cognitive science (s. 1–47).
Cambridge, MA: MIT Press.
Simon, H.A., Newell, A. (1971). Human problem solving: The state of the
theory in 1970. American Psychologist, 26, 145–159.
Simonton, D.K. (1999). Creativity and genius. W: L.A. Pervin, O.P. John
(red.), Handbook of personality: Theory and research (s. 629–652).
New York: Guilford Press.
Siok, W.T., Kay, P., Wang, W.S., Chan, A.H., Chen, L., Luke, K.K., Tan,
L.H. (2009). Language regions of brain are operative in color
perception. Proceedings of the National Academy of Sciences, 106,
8140–8145.
Siuda-Krzywicka, K., Bola, Ł., Paplińska, M., Sumera, E., Jednoróg, K.,
Marchewka, …, Szwed, M. (2016). Massive cortical reorganization in
sighted Braille readers. Elife, 5, e10762.
Skinner, B.F. (1957). Verbal behavior. New York: Appleton-Century-
Crofts.
Sloane, P., MacHale, D. (1997). Perplexing lateral thinking puzzles. New
York: Sterling.
Słabosz, A., Szymura, B. (2004). Znaczenie koloru jako cechy
podstawowej w procesie przeszukiwania pola wzrokowego. Studia
Psychologiczne, tom specjalny – Oblicza uwagi, 42, 37–46.
Smith, A. (1991). Noise and aspects of attention. British Journal of
Psychology, 82, 313–324.
Smith, D.A., Graesser, A.C. (1981). Memory for actions in scripted
activities as a function of typicality, retention interval, and retrieval
task. Memory and Cognition, 9, 550–559.
Smith, E.E., Medin D.L. (1981). Categories and concepts. Cambridge,
MA: Harvard University Press.
Smith, E.E., Osherson, D.N. (1984). Conceptual combination with
prototype concepts. Cognitive Science, 8, 337–361.
Smith, E.E., Shoben, E.J., Rips, L.J. (1974). Structure and process in
semantic memory. A featural model for semantic decisions.
Psychological Review, 81, 214–241.
Smith, S.M. (1995). Getting into and out of mental routs: A theory of
fixation, incubation, and insight. W: R.J. Sternberg, J. E. Davidson
(red.), Nature of insight (s. 229–251). Cambridge, MA: MIT Press.
Smith, S.M., Vela, E. (2001). Environmental context-dependent memory:
A review and meta-analysis. Psychonomic Bulletin & Review, 8, 203–
220.
Smith, S.M., Ward, T.B., Finke, R.A. (1995). The creative cognition
approach. Cambridge, MA: MIT Press.
Smith, V.L., Ellsworth, P.C. (1987). The social psychology of eyewitness
accuracy: Misleading questions and communicator expertise. Journal of
Applied Psychology, 72, 294–300.
Snodgrass, J.G., Luce, R.D., Galanter, E. (1967). Some experiments on
simple and choice reaction time. Journal of Experimental Psychology,
75, 1–17.
Snodgrass, J.G., McClure, P. (1975). Storage and retrieval properties of
dual codes for pictures and words in recognition memory. Journal of
Experimental Psychology: Human Learning and Memory, 1, 521–529.
Sobków, A., Traczyk, J., Kaufman, S.B., Nosal, C. (2018). The structure of
intuitive abilities and their relationships with intelligence and openness
to experience. Intelligence, 67, 1–10.
Sohn, M., Anderson, J. (2001). Task preparation and task repetition. Two
component model of task switching. Journal of Experimental
Psychology: General December, 130, 764–778.
Sohn, M., Carlson, R.A. (2000). Effects of repetition and foreknowledge in
task-set reconfiguration. Journal of Experimental Psychology:
Learning, Memory, and Cognition, 26, 1445–1460.
Solomon, M.R. (1996). Consumer behavior: Buying, having, and being.
Englewood Cliffs, NJ: Prentice Hall.
Spector, A., Biedermann, I. (1976). Mental Set and Mental Shift revisited.
American Journal of Psychology, 89, 669–679.
Spencer, R.M., Weisberg, R.W. (1986). Context-dependent effects on
analogical transfer. Memory and Cognition, 14, 442–449.
Sperling, G. (1960). The information available in brief visual presentations.
Psychological Monographs, 74 (cały nr 498).
Sperling, G. (1963). A model for visual memory task. Human Factors, 5,
19–31.
Squire, L.R. (1986). Mechanisms of memory. Science, 232, 1612–1619.
Squire, L.R. (1994). Declarative and nondeclarative memory: Multiple
brain systems supporting learning and memory. W: D. L. Schacter, E.
Tulving (red.), Memory systems (s. 203–231). Cambridge, MA: MIT
Press.
Squire, L.R., Zola, S.M. (1996). Structure and function of declarative and
nondeclarative memory systems. Proceedings of the National Academy
of Sciences, 93, 13 515–13 522.
Squire, L.R., Zola-Morgan, S. (1991). The medial temporal lobe memory
system. Science, 253, 1380–1387.
Standing, L., Conezio, J., Haber, R.N. (1970). Perception and memory for
pictures: Single-trial learning of 2500 visual stimuli. Psychonomic
Science, 19, 73–74.
Stanley, W.B., Mathews, R.C., Buss, R.R., Kotler-Cope, S. (1989). Insight
without awareness: On the interaction of verbalization, instruction and
practice in a simulated process control task. Quarterly Journal of
Experimental Psychology: Human Experimental Psychology, 41, 553–
577.
Stanovich, K.E., West, R.F. (1998). Individual differences in framing and
conjunction effects. Thinking and Reasoning, 4, 289–317.
Stanovich, K.E., West, R.F. (2000). Individual differences in reasoning:
Implications for the rationality debate? Behavioral and Brain Sciences,
23, 645–726.
Stein, B.S., Bransford, J.D. (1979). Constraints on effective elaboration:
Effects of precision and subject generation. Journal of Verbal Learning
and Verbal Behavior, 18, 769–777.
Stein, M.I. (1953). Creativity and culture. Journal of Psychology, 36, 311–
322.
Stern, R.M. (1966). Performance and physiological arousal during two
vigilance tasks varying in signal presentation rate. Perceptual and
Motor Skills, 23, 691–700.
Sternberg, R.J. (1977a). Component processes in analogical reasoning.
Psychological Review, 84, 353–378.
Sternberg, R.J. (1977b). Intelligence, information processing, and
analogical reasoning: The componential analysis of human abilities.
Hillsdale, NJ: Lawrence Erlbaum Associates.
Sternberg, R.J. (1980). Representation and process in linear syllogistic
reasoning. Journal of Experimental Psychology: General, 109, 119–
159.
Sternberg, R.J. (1981). Reasoning with determinate and indeterminate
linear syllogisms. British Journal of Psychology, 72, 407–420.
Sternberg, R.J. (1985a). Beyond IQ: A triarchic theory of human
intelligence. Cambridge, New York: Cambridge University Press.
Sternberg, R.J. (1985b). Implicit theories of intelligence, creativity, and
wisdom. Journal of Personality and Social Psychology, 49, 607–627.
Sternberg, R.J. (1986a). GENECES: A framework for intellectual abilities
and theories of them. Intelligence, 10, 239–250.
Sternberg, R.J. (1986b). Toward a unified theory of human reasoning.
Intelligence, 10, 281–314.
Sternberg, R.J. (1996a). Cognitive psychology. Fort Worth, TX: Harcourt
Brace College Publishers.
Sternberg, R.J. (1996b). Successful intelligence. New York: A Plume Book.
Sternberg, R.J. (2000). Intelligence and wisdom. W: R.J. Sternberg (red.),
Handbook of intelligence (s. 631–649). Cambridge, New York:
Cambridge University Press.
Sternberg, R.J., Davidson, J.E. (1982). The mind of the puzzler. Psychology
Today, 16, 37–44.
Sternberg, R.J., Forsythe, G.B., Hedlung, J., Horvath, J.A., Wagner, R.K.,
Williams, W.M., …, Grigorienko, E.L. (2000). Practical intelligence in
everyday life, Cambridge, New York: Cambridge University Press.
Sternberg, R.J., Lubart, T.I. (1991). An investment theory of creativity and
its development. Human Development, 34, 1–31.
Sternberg, R.J., Lubart, T.I. (1995). An investment perspective on creative
insight. W: R. J. Sternberg, J. E. Davidson (red.), Nature of insight (s.
535–558). Cambridge, MA: MIT Press.
Sternberg, R.J., Wagner, R.K., Okagaki, L. (1993). Practical intelligence:
The nature and role of tacit knowledge in work and at school. W: J.M.
Puckett, H.W. Reese (red.), Mechanisms of everyday cognition (s. 205–
227). Hillsdale, NJ: Lawrence Erlbaum Associates.
Sternberg, S. (1966). High speed scanning in human memory. Science, 153,
652–654.
Sternberg, S. (1969a). Memory scanning: Mental processes revealed by
reaction time experiments. American Scientist, 57, 421–457.
Sternberg, S. (1969b). The discovery of processing stages: Extension of
Donders’ method. Acta Psychologica, 30, 276–315.
Stevens, M.E. (1981). Hypothesis-testing in elderly as a function of task
concreteness and memory condition. Dissertation Abstracts
International, 41.
Stickgold, R. (1998). Sleep: Off-line memory reprocessing. Trends in
Cognitive Sciences, 2, 484–492.
Stone, V.E., Cosmides, L., Tooby, J., Kroll, N., Knight, R.T. (2002).
Selective impairment of reasoning about social exchange in a patient
with bilateral limbic system damage. Proceedings of the National
Academy of Sciences, 99, 11 531–11 536.
Stroop, J.R. (1935). Studies on interference in serial verbal reactions.
Journal of Experimental Psychology, 28, 643–662.
Stróżewski, W. (2004). Ontologia. Kraków: Wydawnictwo Aureus,
Wydawnictwo Znak.
Styles, E.A. (1997). The psychology of attention. Hove, UK: Psychology
Press.
Süß, H.M., Kersting, M., Oberauer, K. (1991). Intelligenz und Wissen als
Prädiktoren für Leistungen bei computersimulierten komplexen
Problemen (Intelligence and knowledge as predictors of performance in
solving complex computer-simulated problems). Diagnostica, 37, 334–
352.
Sutton, R.S., Barto, A.G. (2018). Reinforcement learning: An introduction.
Cambridge, MA: MIT Press.
Svenson, O. (1992). Differentiation and consolidation theory of human
decision making: A frame of reference for the study of preand
postdecision processes. Acta Psychologica, 80, 143–168.
Svenson, O. (1996). Decision making and the search for fundamental
psychological regularities: What can be learned from a process
perspective? Organizational Behavior and Human Decision Processes,
65, 252–267.
Svenson, O. (2003). Values, affect, and processes in human decision
making: A differentiation and consolidation theory perspective. W: S.L.
Schneider, J. Shanteau (red.), Emerging perspectives in decision
research (s. 287–326). New York: Cambridge University Press.
Swanson, H.L. (1990). Influence of metacognitive knowledge and aptitude
on problem solving. Journal of Educational Psychology, 82, 306–314.
Szczepanski, S.M., Knight, R.T. (2014). Insights into human behavior from
lesions to the prefrontal cortex. Neuron, 83, 1002–1018.
Szpitalak, M., Polczyk, R. (2019). Inducing resistance to the
misinformation effect by means of reinforced self-affirmation: The
importance of positive feedback. PloS One, 14, e0210987.
Szymura, B. (1999). On the organization of the processes of selective
attention. Polish Psychological Bulletin, 30, 69–84.
Szymura, B. (2003). Kiedy uwaga może być automatyczna. W: R.K. Ohme,
M. Jarymowicz (red.), Automatyzmy w regulacji psychicznej (s. 63–78).
Warszawa: Wydawnictwo Instytutu Psychologii PAN.
Szymura, B., Horbaczewski, T. (2005). Poznawcze uwarunkowania
skuteczności wpływu wizualnego przekazu reklamowego. W: M.
Kossowska, M. Śmieja, S. Śpiewak (red.), Społeczne ścieżki poznania.
Gdańsk: Gdańskie Wydawnictwo Psychologiczne.
Szymura, B., Jagielski, M., Memory and arousal: On the influence of an
alcohol on memory scanning. Niepublikowany maszynopis.
Szymura, B., Nęcka, E. (1998). Visual selective attention and personality:
An experimental verification of three models of extroversion.
Personality and Individual Differences, 24, 713–729.
Szymura, B., Nęcka, E. (2004). Jednorodna uwaga – reaktywacja. Studia
Psychologiczne, 41, 47–56.
Szymura, B., Słabosz, A. (2002). Uwaga selektywna a pozytywne
i negatywne konsekwencje automatyzacji czynności. Studia
Psychologiczne, 40, 161–183.
Śmigasiewicz, K., Szymura, B., Słabosz, A. (2004). Przerzutność uwagi.
Rola procesów automatycznych i kontrolowanych. Studia
Psychologiczne, 42, 57–70.
Taatgen, N.A., Anderson, J.R. (2008). ACT-R. W: R. Sun (red.),
Constraints in cognitive architectures (s. 170–185). New York:
Cambridge University Press.
Tanaka, J.W., Sengco, J.A. (1997). Features and their configuration in face
recognition. Memory and Cognition, 25, 583–592.
Tarnowski, A., Terelak, J. (1996). Okoruchowy mechanizm uwagi
w sytuacji decyzyjnej. Czasopismo Psychologiczne, 2, 189–194.
Taylor, D.W., McNemar, O.W. (1955). Problem solving and thinking.
Annual Review of Psychology, 6, 455–482.
Tehan, G., Humphreys, M.S. (1995). Transient phonemic codes and
immunity to proactive interference. Memory and Cognition, 23, 181–
192.
Thackray, R.I., Jones, K.N., Touchstone, R.M. (1973). Self-estimates of
distractibility as related to performance decrement on a task requiring
sustained attention. Ergonomics, 16, 141–152.
Theeuwes, J. (1994). Stimulus-driver capture and attentional set: Selective
search for color and visual abrupt onsets. Journal of Experimental
Psychology. Human Perception and Performance, 20, 799–806.
Theeuwes, J. (2001). Top-down and bottom-up control of visual selection.
Key-note Talk presented on the XII ESCOP Conference, Edinburgh, 5–8
September, 2001.
Theeuwes, J., Burger, R. (1998). Attentional control during visual search:
The effect of irrelevant singletons. Journal of Experimental Psychology.
Human Perception and Performance, 24, 1342–1353.
Theeuwes, J., Kramer, A.F., Atchley, P. (1999). Attentional effects on
preattentive vision: Spatial precues affects the detection of simple
features. Journal of Experimental Psychology. Human Perception and
Performance, 25, 341–347.
Theeuwes, J., Kramer, A.F., Hahn, S., Irwin, D.E., Zielinsky, G. J. (1999).
Influence of Attentional Captureon Oculomotor Control. Journal of
Experimental Psychology. Human Perception and Performance, 25,
1595–1608.
Thomas, J.C. (1974) An analysis of behavior in the hobbits-orcs problem.
Cognitive Psychology, 6, 257–269.
Thompson, A.H. (1986), Psychoticism and signalled versus unsignalled
reaction time. Personality and Individual Differences, 6, 775–778.
Tipper, S.P. (1985). The negative priming effect: Inhibitory priming by
ignored objects. Quarterly Journal of Experimental Psychology, 37A,
571–590.
Tipper, S.P., Brehaut, J.C., Driver, J. (1990). Selection of moving and static
objects for the control of spatially directed attention. Journal of
Experimental Psychology. Human Perception and Performance, 16,
492–504.
Tipper, S.P., Cranston, M. (1985). Selective attention and priming:
Inhibitory and facilitatory effects of ignored primes. Quarterly Journal
of Experimental Psychology, 37A, 591–611.
Tipper, S.P., Driver, J. (1988). Negative priming between pictures and
words in a selective attention task: Evidence for semantic processing of
ignored stimuli. Memory and Cognition, 16, 64–70.
Tipper, S.P., MacQueen, G.M., Brehaut, J.C. (1988). Negative priming
between response modalities: Evidence for the central locus of
inhibition in selective attention. Perception and Psychophysics, 43, 45–
52.
Tipper, S.P., Weaver, B., Cameron, S., Brehaut, J.C., Bastedo, J. (1991).
Inhibitory mechanisms of attention in identification and localization
tasks: Time course and disruption. Journal of Experimental Psychology.
Learning, Memory, and Cognition, 17, 681–692.
Todd, J.J., Marois, R. (2004). Capacity limit of visual short-term memory
in human posterior parietal cortex. Nature, 428, 751–754.
Todd, P. M., Gigerenzer, G. (2012). Ecological rationality: Intelligence in
the world. Oxford: Oxford University Press.
Todd, P.M., Miller, G.F. (1999). From pride and prejudice to persuasion:
Satisficing in mate search. W: G. Gigerenzer, P.M. Todd, the ABC
Research Group (red.), Simple heuristics that make us smart (s. 287–
308). Oxford, UK: Oxford University Press.
Tolan, G.A., Tehan, G. (1999). Determinants of short term forgetting:
Decay, retroactive or proactive interference?. International Journal of
Psychology, 34, 285–292.
Tolman, E.C. (1932/1967). Purposive behavior in animals and men. New
York: Irvington.
Tom, S.M., Fox, C.R., Trepel, C., Poldrack, R.A. (2007). The neural basis
of loss aversion in decision-making under risk. Science, 315, 515–518.
Tomasello, M. (2005). Kulturowe źródła ludzkiego poznania, przeł. J.
Rączaszek. Warszawa: Państwowy Instytut Wydawniczy.
Tomasello, M. (2008). Acquiring linguistic constructions. W: W. Damon,
R.M. Lerner, D. Kuhn, R. Siegler, N. Eisenberg (red.), Child and
adolescent development: An advanced course (s. 263–321). Hoboken,
NJ: Wiley.
Tomaszewski, T. (1975). Podstawowe formy organizacji i regulacji
zachowania. W: T. Tomaszewski (red.), Psychologia (s. 491–533).
Warszawa: Państwowe Wydawnictwo Naukowe.
Toms, M., Morris, N., Ward, D. (1993). Working memory and conditional
reasoning. Journal of Experimental Psychology: Human Experimental
Psychology, 46A. Wydanie specjalne: The cognitive psychology of
reasoning, 679–699.
Tooby, J., Cosmides, L. (1990). The past explains the present: Emotional
adaptations and the structure of ancestral environments. Ethology and
Sociobiology, 11, 375–424.
Townsend, D.J. (1974). Children’s comprehension of comparative forms.
Journal of Experimental Child Psychology, 18, 293–303.
Townsend, J.T. (1971). A note on identifiability of parallel and serial
processes. Perception and Psychophysics, 10, 161–163.
Townsend, J.T. (1972). Some results concerning the identifiability of
parallel and serial processes. British Journal of Mathematical and
Statistical Psychology, 25, 168–199.
Townsend, J.T. (2001). A clarification of self-terminating versus exhaustive
variances in serial and parallel models. Perception & Psychophysics,
63, 1101–1106.
Townsend, J.T., Roos, R.N. (1973). Search reaction time for single targets
in multiletter stimuli with brief visual displays. Memory & Cognition,
1, 319–332.
Travis, R.C. (1937). The effect of the length of the rest period on motor
learning. Journal of Psychology: Interdisciplinary and Applied, 3, 189–
194.
Treisman, A.M. (1960). Contextual cues in selective listening. Quarterly
Journal of Experimental Psychology, 12, 242–248.
Treisman, A.M. (1964a). Effect of irrelevant material on the efficiency of
selective listening. American Journal of Psychology, 17, 533–546.
Treisman, A.M. (1964b). Verbal cues, language and meaning in selective
attention. American Journal of Psychology, 77, 215–216.
Treisman, A.M. (1970). Perception and recall of simultaneous speech
stimuli. W: A. F. Sanders (red.), Attention and performance (t. 3, s.
132–148). Amsterdam: North-Holland Publishing Company.
Treisman, A. M. (1982). Perceptual grouping and attention in visual search
for features and for objects. Journal of Experimental Psychology.
Human Perception and Performance, 8, 194–214.
Treisman, A.M. (1988). Features and objects: The fourteenth Bartlett
memorial lecture. Quarterly Journal of Experimental Psychology, 40,
201–237.
Treisman, A.M. (1993). The perception of features and objects. W: A.
Baddeley, L. Weiskrantz (red.), Attention: selection, awareness, and
control. A Tribute to Donald Broadbent (s. 5–35). Oxford: Clarendon
Press.
Treisman, A.M. (1998). The perception of features and objects. W: R.D.
Wright (red.), Visual attention (s. 27–51). Oxford: University Press.
Treisman, A.M., Davies, A. (1973). Divided attention to ear and eye. W: S.
Kornblum (red.), Attention and performance (t. 4). New York:
Academic Press.
Treisman, A.M., Gelade, G. (1980). A feature-integration theory of
attention. Cognitive Psychology, 12, 97–136.
Treisman, A.M., Sato, S. (1990). Conjunction search revisited. Journal of
Experimental Psychology. Human Perception and Performance, 16,
459–478.
Treisman, A.M., Squire, R., Green, J. (1974). Semantic processing in
dichotic listening. A replication. Memory and Cognition, 2, 641–646.
Treisman, A.M., Sykes, M., Gelade, G. (1977). Selective attention and
stimulus integration. W: S. Dornic (red.), Attention and performance (t.
6, s. 331–361). Hillsdale, NJ: Lawrence Erlbaum Associates.
Treisman, A.M., Viera, A., Hayes, A. (1992). Automaticity and preattentive
processing. American Journal of Psychology, 105, 341–362.
Trzebiński, J. (1981). Twórczość i struktura pojęć. Warszawa: Państwowe
Wydawnictwo Naukowe.
Trzebiński, J. (1986). Współczesne badania nad pojęciami. W: M.
Goszczyńska (red.), Psychologia procesów poznawczych. Wybrane
zagadnienia (s. 93–122). Warszawa: Wydawnictwa Uniwersytetu
Warszawskiego.
Tsao, D.Y., Freiwald, W.A., Tootell, R.B., Livingstone, M.S. (2006).
A cortical region consisting entirely of face-selective cells. Science,
311, 670–674.
Tsujii, T., Masuda, S., Akiyama, T., Watanabe, S. (2010). The role of
inferior frontal cortex in belief-bias reasoning: An rTMS study.
Neuropsychologia, 48, 2005–2008.
Tsujii, T., Watanabe, S. (2009). Neural correlates of dual-task effect on
belief-bias syllogistic reasoning: A near-infrared spectroscopy study.
Brain Research, 1287, 118–125.
Tsujii, T., Watanabe, S. (2010). Neural correlates of belief-bias reasoning
under time pressure: A near-infrared spectroscopy study. Neuroimage,
50, 1320–1326.
Tucker, P., Warr, P. (1996). Intelligence, elementary cognitive components,
and cognitive styles as predictors of complex task performance.
Personality and Individual Differences, 21, 91–102.
Tulving, E. (1972). Episodic and semantic memory. W: E. Tulving, W.
Donaldson (red.), Organization of memory (s. 381–403). New York:
Academic Press.
Tulving, E. (1974). Cue-dependent forgetting. American Scientist, 62, 74–
82.
Tulving, E. (1976a). Ecphoric processes in recall and recognition. W: J.
Brown (red.), Recall and recognition (s. 37–74). London, New York:
Wiley.
Tulving, E. (1976b). Role of semantic memory in the storage and retrieval
of episodic information. Bulletin de Psychologie, wydanie specjalne,
19–25.
Tulving, E. (1983). Elements of episodic memory. Oxford, New York:
Clarendon Press, Oxford University Press.
Tulving, E. (1984). Precis of Elements of episodic memory. The Behavioral
and Brain Sciences, 7, 223–268.
Tulving, E. (1985a). Ebbinghaus’s memory: What did he learn and
remember? Journal of Experimental Psychology: Learning, Memory,
and Cognition, 11, 485–490.
Tulving, E. (1985b). How many memory systems are there? American
Psychologist, 40, 385–398.
Tulving, E. (2002). Episodic memory: From mind to brain. Annual Review
of Psychology, 53, 1–25.
Tulving, E., Psotka, J. (1971). Retroactive inhibition in free recall:
Inaccessibility of information available in the memory store. Journal of
Experimental Psychology, 87, 1–8.
Tulving, E., Thomson, D.M. (1973). Encoding specificity and retrieval
processes in episodic memory. Psychological Review, 80, 359–380.
Turner, M.L., Engle, R.W. (1989). Is working memory capacity task
dependent? Journal of Memory and Language, 28, 127–154.
Tversky, A. (1972). Elimination by aspects: A theory of choice.
Psychological Review, 79, 281–299.
Tversky, A. (1973). Encoding processes in recognition and recall. Cognitive
Psychology, 5, 275–287.
Tversky, A. (1977). Features of similarity. Psychological Review, 84, 327–
352.
Tversky, A., Kahneman, D. (1982). Judgment under uncertainty: Heuristics
and biases. W: D. Kahneman, P. Slovic, A. Tversky (red.), Judgment
under uncertainty: Heuristics and biases (s. 3–20). Cambridge, New
York: Cambridge University Press.
Tversky, A., Kahneman, D. (1983). Extensional versus intuitive reasoning:
The conjunction fallacy in probability judgment. Psychological Review,
90, 293–315.
Tzelgov, J., Henik, A. (1995). Kontrola zautomatyzowania i wprawa.
Przypadek efektu Stroopa. Czasopismo Psychologiczne, 1, 7–17.
Tzelgov, J., Henik, A., Leiser, D. (1990). Controlling Stroop interference:
Evidence from bilingual task. Journal of Experimental Psychology:
Learning, Memory, and Cognition, 16, 760–771.
Tzelgov, J., Henik, A., Sneg, R., Baruch, O. (1996). Unintentional word
reading via the phonological route: The stroop effect with cross-script
homophones. Journal of Experimental Psychology: Learning, Memory,
and Cognition, 22, 336–349.
Ucros, C.G. (1989). Mood state-dependent memory: A meta-analysis.
Cognition and Emotion, 3, 139–169.
Underwood, B.J. (1945). The effect of successive interpolations on
retroactive and proactive inhibition. Psychological Monographs, 59, i–
33.
Underwood, B.J. (1957). Interference and forgetting. Psychological
Review, 64, 49–60.
Underwood, B.J., Postman, L. (1960). Extraexperimental sources of
interference in forgetting. Psychological Review, 67, 73–95.
Underwood, G. (1977). Contextual facilitation from attended and
unattended messages. Journal of Verbal Learning and Verbal Behavior,
16, 99–106.
Underwood, G.D.M. (red.) (1996). Implicit cognition. London: Oxford
University Press.
Underwood, G. (red.) (2004). Poznanie utajone, przeł. R. Balas, A.
Słabosz. Gdańsk: Gdańskie Wydawnictwo Psychologiczne.
Underwood, G.D.M., Bright, J.E.H. (1996). Cognition with and without
awareness. W: G.D.M. Underwood (red.), Implicit cognition (s. 1–40).
London: Oxford University Press.
Unsworth, N., Engle, R.W. (2007). On the division of short-term and
working memory: An examination of simple and complex span and
their relation to higher order abilities. Psychological Bulletin, 133,
1038–1066.
Valentine, T. (1988). Upside-down faces: A review of the effect of
inversion upon face recognition. British Journal of Psychology, 79,
471–491.
Vandierendonck, A. (2000). Analyzing human random time generation
behavior: A methodology and a computer program. Behavior Research
Methods, Instruments, and Computers, 32, 555–565.
Vandierendonck, A., de Vooght, G., Van der Goten, K. (1998). Does
random time interval generation interfere with working memory
executive functions? European Journal of Cognitive Psychology, 10,
413–442.
Vandierendonck, A., Kemps, E., Fastame, M.C., Szmalec, A. (2004).
Working memory components of the Corsi blocks task. British Journal
of Psychology, 95, 57–79.
Van Dijk, T.A., Kintsch, W. (1983). Strategies of discourse comprehension.
New York: Academic Press.
Van Opstal, F., Verguts, T. (2011). The origins of the numerical distance
effect: The same-different task. Journal of Cognitive Psychology, 23,
112–120.
VanZandt, T., Townsend, J. T. (1993). Self-terminating versus exhaustive
processes in rapid visual and memory search: An evaluative review.
Perception and Psychophysics, 53, 563–580.
Velling, H., van Knippenberg, A. (2004). Remembering can cause
inhibition: Retrieval induced inhibition as cue independent process.
Journal of Experimental Psychology: Learning, Memory, and
Cognition, 30, 315–318.
Velmans, M. (1991). Consciousness, brain and the physical word.
Philosophical Psychology, 3, 77–99.
Velmans, M. (1999). When perception becomes conscious. British Journal
of Psychology, 90, 543–546.
Venkatraman, V., Huettel, S.A. (2012). Strategic control in decision-making
under uncertainty. European Journal of Neuroscience, 35, 1075–1082.
Venkatraman, V., Payne, J.W., Bettman, J.R., Luce, M.F., Huettel, S.A.
(2009). Separate neural mechanisms underlie choices and strategic
preferences in risky decision making. Neuron, 62, 593–602.
Verbruggen, F., Aron, A., Band, G., Beste, C., Bissett, P., Brockett, A.T., ...,
Colzato, L.S. (w druku). Capturing the ability to inhibit actions and
impulsive behaviors: A consensus guide to the stop-signal task.
Verbruggen, F., Logan, G.D. (2008). Response inhibition in the stop-signal
paradigm. Trends in Cognitive Sciences, 12, 418–424.
Verbruggen, F., Logan, G.D., Stevens, M.A. (2008). STOP-IT: Windows
executable software for the stop-signal paradigm. Behavior Research
Methods, 40, 479–483.
Vokey, J.R., Brooks, L.R. (1992). Salience of item knowledge in learning
artificial grammars. Journal of Experimental Psychology: Learning,
Memory, and Cognition, 18, 328–344.
Von Wright, J.M., Anderson, K., Stenham, U. (1975). Generalization of
conditioned GSRs in dichotic listening. W: P.M.A. Rabbit, S. Dornic
(red.), Attention and performance (t. , s. 194–204). New York:
Academic Press.
Voss, J.F., Post, T.A. (1988). On the solving of ill-structured problems. W:
M.T.H. Chi, R. Glaser (red.), Nature of expertise (s. 261–285).
Hillsdale, NJ: Lawrence Erlbaum Associates.
Vuilleumier, P., Henson, R.N., Driver, J., Dolan, R.J. (2002). Multiple
levels of visual object constancy revealed by event-related fMRI of
repetition priming. Nature Neuroscience, 5, 491–499.
Wagner, G., Koch, K., Reichenbach, J.R., Sauer, H., Schlösser, R.G.
(2006). The special involvement of the rostrolateral prefrontal cortex in
planning abilities: An event-related fMRI study with the Tower of
London paradigm. Neuropsychologia, 44, 2337–2347.
Wagner, H.L. (2000). The accessibility of the term „contempt” and the
meaning of the unilateral lip curl. Cognition and Emotion, 14, 689–710.
Wagner, R.K. (1987). Tacit knowledge in everyday intelligent behavior.
Journal of Personality and Social Psychology, 52, 1236–1247.
Wagner, R.K. (2000). Practical intelligence.W: R.J. Sternberg (red.),
Handbook of intelligence (s. 380–395). New York: Cambridge
University Press.
Wagner, R.K., Sternberg, R.J. (1985). Practical intelligence in real-world
pursuits: The role of tacit knowledge. Journal of Personality and Social
Psychology, 49, 436–458.
Wakefield, J.F. (2003). The development of creative thinking and critical
reflection: Lessons from everyday problem finding. W: M.A. Runco
(red.), Critical creative processes (s. 253–272). Cresskill, NJ: Hampton
Press.
Wallach, L. (1997). Informing clients of limits to confidentiality associated
with child welfare: Will informed clients talk freely? Dissertation
Abstracts International. Section B: The Sciences and Engineering, 57.
Wallas, G. (1926). The art of thought. New York: Harcourt.
Waltz, J.A., Knowlton, B.J., Holyoak, K.J., Boone, K.B., Mishkin, F.S., de
Menezes Santos, M., ..., Miller, B.L. (1999). A system for relational
reasoning in human prefrontal cortex. Psychological Science, 10, 119–
125.
Wang, Z., Klein, R.M. (2010). Searching for inhibition of return in visual
search: A review. Vision Research, 50, 220–228.
Ward, L.B. (1937). Reminiscence and rote learning. Psychological
Monographs, 49, i–64.
Warm, J.S. (1977). Psychological processes in sustained attention. W: R.R.
Mackie (red.), Vigilance: Theory, operational performance, and
physiological correlates (s. 623–644). New York: Plenum.
Warren, W.H., Nicholas, D.W., Trabasso, T. (1979). Event chains and
inferences in understanding narratives. W: R.O. Freedle (red.), New
directions in discourse processing (s. 23–51). Norwood, NJ: Ablex.
Warrington, E.K., Taylor, A.M. (1978). Two categorical stages of object
recognition. Perception, 7, 695–705.
Wason, P.C. (1960). On the failure to eliminate hypotheses in conceptual
task. Quarterly Journal of Experimental Psychology, 12, 129–140.
Wason, P.C. (1966). Reasoning. W: B. M. Foss (red.), New horizons in
psychology. Harmondsworth, UK: Penguin.
Wason, P.C. (1968). Reasoning about a rule. Quarterly Journal of
Experimental Psychology, 20, 273–281.
Wason, P.C., Johnson-Laird, P.N. (1972). Psychology of reasoning:
Structure and content. London: B.T. Batsford.
Waters, A.J., Gobet, F., Leyden, G. (2002). Visuospatial abilities of chess
players. British Journal of Psychology, 93, 557–565.
Waters, G.S., Caplan, D. (1996). Processing resource capacity and the
interpretation of garden path sentences. Memory and Cognition, 24,
342–355.
Watkins, M.J., Gardiner, J.M. (1979). An appreciation of generate-
recognize theory of recall. Journal of Verbal Learning and Verbal
Behavior, 18, 687–704.
Waugh, N.C., Norman, D.A. (1965). Primary memory. Psychological
Review, 72, 89–104.
Wechsler, D. (1997). Cognitive, conative, and non-intellective intelligence
(1950). W: J.M. Notterman (red.), Evolution of psychology: Fifty years
of the American Psychologist (s. 22–32). Washington, DC: American
Psychological Association.
Wegner, D.M. (1989). White bears and other unwanted thoughts:
Suppression, obsession, and the psychology of mental control. New
York: Viking/Penquin.
Weisberg, R.W. (1986). Creativity. Genius and other myths. New York:
Freeman.
Weisberg, R.W. (1988). Problem solving and creativity. W: R.J. Sternberg
(red.), The nature of creativity. Contemporary psychological
perspectives (s. 148–176). Cambridge, New York: Cambridge
University Press.
Weisberg, R.W., Alba, J. W. (1981). Gestalt theory, insight, and past
experience: Reply to Dominowski. Journal of Experimental
Psychology: General, 110, 199–203.
Weisberg, R.W., Alba, J.W. (1982). Problem solving is not like perception:
More on Gestalt theory. Journal of Experimental Psychology: General,
111, 326–330.
Wendelken, C., Nakhabenko, D., Donohue, S.E., Carter, C. S., Bunge, S.A.
(2008). „Brain is to thought as stomach is to ??”: Investigating the role
of rostrolateral prefrontal cortex in relational reasoning. Journal of
Cognitive Neuroscience, 20, 682–693.
Wenke, D., Frensch, P.A. (2003). Is success or failure at solving complex
problems related to intellectual ability? W: J.E. Davidson, R.J.
Sternberg (red.), Psychology of problem solving (s. 87–126). New York:
Cambridge University Press.
Wertheimer, M. (1923). Untersuchungen zur lehre von der gestalt, II.
Psychologische Forschung, 4, 301–350.
Wessel, J.R., Aron, A.R. (2017). On the globality of motor suppression:
Unexpected events and their influence on behavior and cognition.
Neuron, 93, 259–280.
Westcott, M.R. (1968). Toward a contemporary psychology of intuition: A
historical, theoretical, and empirical inquiry. New York: Holt.
Wetherick, N.E. (1968). A further study of the inferential basis of concept
attainment. British Journal of Psychology, 59, 431–435.
Wetherick, N.E. (1989). Psychology and syllogistic reasoning.
Philosophical Psychology, 2, 111–124.
Wetherick, N. E. (1993). Psychology and syllogistic reasoning: Further
considerations. Philosophical Psychology, 6, 423–440.
Wetherick, N.E., Gilhooly, K.J. (1995). „Atmosphere”, matching, and logic
in syllogistic reasoning. Current Psychology: Developmental, Learning,
Personality, Social, 14, 169–179.
Wheeler, M.A. (2000). Episodic memory and autonoetic awareness. W: E.
Tulving, F.I M. Craik (red.), The Oxford handbook of memory (s. 597–
608). New York: Oxford University Press.
Whetstone, T., McCloskey, M. (1994). The representation of arithmetic
facts in memory: Results from retraining a brain damaged patient.
Niepublikowane surowe dane.
Whimbey, A., Lochhead, J. (1999). Problem solving and comprehension.
Mahwah, NJ: Lawrence Erlbaum Associates.
Whitehead, A.N. (1911). An introduction to mathematics. New York: Holt.
Whorf, B.L. (1982). Język, myśl, rzeczywistość, przeł. T. Hołówka.
Warszawa: Państwowy Instytut Wydawniczy.
Wichary, S. (2003). Influence of emotional arousal on the selection of
decision strategies. Niepublikowana praca doktorska. Kraków:
Uniwersytet Jagielloński.
Wichary, S., Kossowska, M., Orzechowski, J., Ślifierz, S., Marković, J.
(2008). Individual differences in decisiveness: Pre-decisional
information search and decision strategy use. Polish Psychological
Bulletin, 39, 47–53.
Wichary, S., Magnuski, M., Oleksy, T., Brzezicka, A. (2017). Neural
signatures of rational and heuristic choice strategies: A single trial ERP
analysis. Frontiers in Human Neuroscience, 11, 401.
Wichary, S., Mata, R., Rieskamp, J. (2016). Probabilistic inferences under
emotional stress: How arousal affects decision processes. Journal of
Behavioral Decision Making, 29, 525–538.
Wichary, S., Smoleń, T. (2016). Neural underpinnings of decision strategy
selection: A review and a theoretical model. Frontiers in Neuroscience,
10, 500.
Wickelgren, W.A. (1974). How to solve problems: Elements of a theory of
problems and problem solving. San Francisco: Freeman.
Wickens, Ch.D. (1984). Processing resources in attention. W: D.R.
Parasuraman, D.R. Davies (red.), Varieties of attention (s. 63–102).
Orlando: Academic Press.
Wiener, N. (1948). Cybernetics: Or, control and communication in the
animal machine. New York: Wiley.
Wierzbicka, A. (1999). Język – umysł – kultura. Warszawa: Wydawnictwo
Naukowe PWN.
Wierzchoń, M. (2009). Koszty poznawcze uczenia mimowolnego. Kraków:
Wydawnictwo Uniwersytetu Jagiellońskiego.
Williams, J.M.G., Mathews, A., MacLeod, C. (1996). The emotional stroop
task and psychopathology. Psychological Bulletin, 120, 3–24.
Williges, R.C. (1971). The role of payoffs and signal ratios on criterion
changes during a monitoring task. Human Factors, 13, 261–267.
Williges, R.C. (1973). Manipulating the response criterion in visual
monitoring. Human Factors, 15, 179–185.
Willingham, D.B., Nissen, M.J., Bullemer, P. (1989). On the development
of procedural knowledge. Journal of Experimental Psychology:
Learning, Memory, and Cognition, 15, 1047–1060.
Wittmann, W.W., Süß, H.M. (1999). Investigating the paths between
working memory, intelligence, knowledge, and complex problem-
solving performances via Brunswik symmetry. W: P.L. Ackerman, P.C.
Kyllonen (red.), Learning and individual differences: Process, trait,
and content determinants (s. 77–108). Washington, DC: American
Psychological Association.
Wixted, J.T. (2004a). On common ground: Jost’s (1897) law of forgetting
and Ribot’s (1881) law of retrograde amnesia. Psychological Review,
111, 864–879.
Wixted, J.T. (2004b). The psychology and neuroscience of forgetting.
Annual Review of Psychology, 55, 235–269.
Wodniecka, Z. (2004). Cognitive costs of second language processing.
Niepublikowana praca doktorska. Kraków: Instytut Psychologii UJ.
Wodniecka-Chlipalska, Z. (2011). Dwujęzyczność. Właściwości
dwujęzycznego umysłu i specyfika badań psychologicznych nad
dwujęzycznością. W: I. Kurcz, H. Okuniewska (red.), Język jako
przedmiot badań psychologicznych: psycholingwistyka ogólna
i neurolingwistyka (s. 253–284). Warszawa: Wydawnictwo Szkoły
Wyższej Psychologii Społecznej Academica.
Wojciszke, B. (1991). Procesy oceniania ludzi. Poznań: Wydawnictwo
Nakom.
Woleński, J. (2000). Epistemologia, t. 1: Zarys historyczny i problemy
metateoretyczne. Kraków: Wydawnictwo Aureus.
Woleński, J. (2001). Epistemologia, t. 2: Wiedza i poznanie. Kraków:
Wydawnictwo Aureus.
Woleński, J. (2003). Epistemologia, t. 3: Prawda i realizm. Kraków:
Wydawnictwo Aureus.
Wolfe, J.M. (1994). Guided search 2.0.: A revised model of visual search.
Psychonomic Bulletin and Review, 1, 202–238.
Wolfe, J.M., Cave, K.R., Franzel, S.L. (1989). Guided search: An
alternative to the feature integration model for visual search. Journal of
Experimental Psychology. Human Perception and Performance, 15,
419–433.
Wolfe, J.M., Yu, K.P., Stewart, M.I., Shorter, A.D., Friedman-Hill, S.R.,
Cave, K.R. (1990). Limitations on the parallel guidance of visual
search: Color x color and orientation x orientation conjunctions.
Journal of Experimental Psychology. Human Perception and
Performance, 16, 879–892.
Wollberg, Z., Newman, J.D. (1972). Auditory cortex of squirrel monkey:
Response patterns of single cells to species-specific vocalizations.
Science, 175, 212–214.
Woltz, D.J., Bell, B.G., Kyllonen, P.C., Gardner, M.K. (1996). Memory for
order of operations in the acquisition and transfer of sequential
cognitive skills. Journal of Experimental Psychology: Learning,
Memory, and Cognition, 22, 438–457.
Woltz, D.J., Gardner, M.K., Bell, B.G. (2000). Negative transfer errors in
sequential cognitive skills: Strong-but-wrong sequence application.
Journal of Experimental Psychology: Learning, Memory, and
Cognition, 26, 601–625.
Woods, W.A. (1975). What’s in a link: Foundations for semantic networks.
W: D.G. Bobrow, A. Collins (red.), Representation and understanding
(s. 35–82). San Francisco: Morgan Kaufmann.
Woodworth, R.S., Schlosberg, H. (1963). Psychologia eksperymentalna, t.
1 przeł. A. Lewicki, E. Vielrose; t. 2 przeł. J. Ekel, A. Lewicki).
Warszawa: Państwowe Wydawnictwo Naukowe.
Woodworth, R.S., Sells, S.B. (1935). An atmosphere effect in formal
syllogistic reasoning. Journal of Experimental Psychology, 18, 451–
460.
Wright, M.J., Gobet, F., Chassy, P., Ramchandani, P.N. (2013). ERP to
chess stimuli reveal expert-novice differences in the amplitudes of N2
and P3 components. Psychophysiology, 50, 1023–1033.
Wright, P. (1974). The harassed decision maker: Time pressures,
distractions, and the use of evidence. Journal of Applied Psychology,
59, 555–561.
Wright, P., Lickorish, A. (1994). Menus and memory load: Navigation
strategies in interactive search tasks. International Journal of Human-
Computer Studies, 40, 965–1008.
Yantis, S. (1993). Stimulus-driven attentional captureand attentional control
settings. Journal of Experimental Psychology. Human Perception and
Performance, 19, 676–681.
Yantis, S., Hillstrom, A.P. (1994). Stimulus-driven attentional capture:
Evidence from equiluminant visual objets. Journal of Experimental
Psychology. Human Perception and Performance, 20, 95–102.
Yantis, S., Jonides, J. (1984). Abrupt visual onset and selective attention.
Evidence from visual search. Journal of Experimental Psychology:
Human Perception and Performance, 10, 601–621.
Yerkes, R.M., Dodson, J.B. (1908). The relation of strength of stimulus to
rapidity of habit formation. Journal of Comparative Neurology and
Psychology, 18, 459–482.
Young, A.W., Hellawell, D., Hay, D.C. (1987). Configurational information
in face perception. Perception, 16, 747–759.
Young, D.A., Freyslinger, M.G. (1995). Scaffolded instruction and the
remediation of Wisconsin Card Sorting Test deficits in chronic
schizophrenia. Schizophrenia Research, 16, 199–207.
Yuille, J.C., Cutshall, J.L. (1986). A case study of eyewitness memory of
a crime. Journal of Applied Psychology, 71, 291–301.
Zaleśkiewicz, T. (2012). Psychologia ekonomiczna. Warszawa:
Wydawnictwo Naukowe PWN.
Zander, T., Horr, N.K., Bolte, A., Volz, K.G. (2016). Intuitive decision
making as a gradual process: investigating semantic intuition-based and
priming-based decisions with fMRI. Brain and Behavior, 6, e00420.
Zaragoza, M.S., Lane, S.M. (1994). Source misattributions and the
suggestibility of eyewitness memory. Journal of Experimental
Psychology: Learning, Memory, and Cognition, 20, 934–945.
Zaragoza, M.S., Mitchell, K.J. (1996). Repeated exposure to suggestion
and the creation of false memories. Psychological Science, 7, 294–300.
Zeitz, C.M. (1997). Some concrete advantages of abstraction: How experts’
representations facilitate reasoning. W: P.J. Feltovich, K.M. Ford (red.),
Expertise in context: Human and machine (s. 43–65). Menlo Park, CA:
American Association for Artificial Intelligence.
Zenger, B., Fahle, M. (1997). Missed targets are more frequent than false
Alarms: A model for error rates in visual search. Journal of
Experimental Psychology: Human Perception and Performance, 23,
1783–1791.
Zhu, Y.-X. (1989). Historical contribution of Chinese scholars to the study
of the human brain. Brain and Cognition, 11, 133–138.
Zimmer, H.D. (2004). The construction of mental maps based on
a fragmentary view of physical maps. Journal of Educational
Psychology, 96, 603–610.
Zwaan, R.A., Radvansky, G.A. (1998). Situation models in language
comprehension and memory. Psychological Bulletin, 123, 162–185.
O Autorach

Edward Nęcka
Profesor w Uniwersytecie Jagiellońskim, współpracuje również
z Uniwersytetem SWPS. Członek rzeczywisty Polskiej Akademii Nauk.
Specjalizuje się w psychologii poznawczej, szczególnie w tematyce
kontroli poznawczej. Prowadzi badania na pograniczu poznania,
osobowości i różnic indywidualnych. Zajmuje się też badaniem
skuteczności treningów poznawczych. Promotor trzydziestu doktoratów.
Autor licznych prac badawczych poświęconych twórczości, inteligencji
i samokontroli. Autor ośmiu książek, m.in. Treningu twórczości, który miał
sześć wydań.

Jarosław Orzechowski
Doktor habilitowany nauk społecznych w zakresie psychologii, profesor
Uniwersytetu Jagiellońskiego w Krakowie i Uniwersytetu
Humanistycznospołecznego SWPS, certyfikowany trener i mentor. Jego
zainteresowania badawcze koncentrują się na styku psychologii
poznawczej i różnic indywidualnych. Jest autorem bądź współautorem
wielu publikacji naukowych i książek, w tym nowego Treningu twórczości
(2019). Jako pracę habilitacyjną opublikował książkę pt. Magiczna liczba
jeden, czyli co jeszcze zmieści się w pamięci roboczej. Od wielu lat
prowadzi wykłady i seminaria w tematyce psychologii poznawczej.

Błażej Szymura (1969−2009)


Doktor habilitowany, pracownik Uniwersytetu Jagiellońskiego,
współpracował również z Uniwersytetem SWPS. Specjalizował się
w badaniach nad poznawczymi wymiarami różnic indywidualnych.
Szczególnie interesowała go uwaga i jej funkcjonowanie w zależności od
cech indywidualnych człowieka. Wraz z Geraldem Matthewsem
i Aleksandrą Gruszką zredagował i wydał w wydawnictwie Springer pracę
zbiorową pt. Individual differences in cognition. Autor kilkudziesięciu
artykułów. Współautor nowego Treningu twórczości (2019). Jego
najważniejszym dziełem jest praca habilitacyjna pt. Temperamenty uwagi.

Szymon Wichary
Doktor habilitowany, pracuje w Uniwersytecie w Lejdzie, w ramach
stypendium Marii Skłodowskiej-Curie, oraz w Uniwersytecie SWPS.
Doktorat z psychologii uzyskał w Uniwersytecie Jagiellońskim. W trakcie
studiów doktoranckich odbył staż w Max Planck Institute for Human
Development w Berlinie, a staż podoktorski odbył w Uniwersytecie
w Bazylei. Interesuje się rolą osobowości, emocji i stresu w podejmowaniu
decyzji oraz biologicznymi źródłami różnic indywidualnych. W pracy
badawczej stosuje komputerowe zadania poznawcze, metody
psychofizjologiczne i modelowanie obliczeniowe procesów decyzyjnych.
Przypisy

Przedmowa
1 Najnowsze wydanie: Maruszewski, T. (2016). Psychologia poznawcza. Umysł i świat. Sopot:
Gdańskie Wydawnictwo Psychologiczne.

Rozdział 1
1 Nie jest to stanowisko światopoglądowe, lecz metodologiczne. Wydaje się ono niezbędne,
przynajmniej na gruncie nauk empirycznych. Uczony może być prywatnie przekonany o istnieniu
niematerialnej duszy, ale jako badacz musi roboczo założyć, że istnieje tylko to, co potrafi zmierzyć
lub zaobserwować, albo o czym może zasadnie wnioskować na podstawie obserwacji lub pomiarów.

2 Antropologia to nazwa co najmniej trzech różnych dyscyplin naukowych. Jako część filozofii
antropologia jest ogólną refleksją nad naturą człowieka. Na gruncie nauk biologicznych antropologia
zajmuje się badaniem człowieka jako gatunku, ze szczególnym uwzględnieniem naturalnej ewolucji
Homo sapiens. Jako część socjologii antropologia – zwana kulturową – koncentruje się na badaniu
kulturowych uwarunkowań ludzkich zachowań i kulturowym zróżnicowaniu struktur społecznych.
Częścią kognitywistyki jest niewątpliwie antropologia kulturowa, choć nie bez znaczenia są też
osiągnięcia antropologii biologicznej w zakresie ewolucji mózgu i jego funkcji.

3 Stąd używany niekiedy alternatywnie termin „czas latencji”. W celu uniknięcia nieporozumień
proponujemy jednak, aby czas między bodźcem a obserwowalną reakcją osoby badanej nazywać
czasem reakcji, natomiast termin „czas latencji” zarezerwować dla okresu między bodźcem
a bezwiedną reakcją fizjologiczną organizmu, np. potencjałem wywołanym lub reakcją skórno-
galwaniczną.

4 James używał terminów „pamięć pierwotna” i „pamięć wtórna”.

Rozdział 2
1 Gibson stosował pojęcie afordancji szeroko, w odniesieniu do wszelkiej percepcji. Uważał, że
środowisko jak gdyby składa organizmowi ofertę co do możliwych sposobów jego wykorzystania.
Inni autorzy ograniczają teorię afordancji do zjawisk związanych z percepcją przedmiotów
użytkowych (np. Norman, 1988).
Rozdział 3
1 Pojęcie podobieństwa rodzinnego wewnątrz kategorii pochodzi od Ludwika Wittgensteina.

Rozdział 4
1 Jak w poradniku Johna Gottmana i Nan Silver (2014), w którym autorzy opisali zestaw recept na
udany związek, wywiedzionych z wieloletnich obserwacji par małżeńskich.

2 Zgodnie z rozwiązaniem terminologicznym przyjętym przez Andersona (1982) odróżniamy


procedurę od produkcji. Anderson mówi o procedurze w skali makro, czyli np. procedurze
kierowania samochodem, a o produkcji – w skali mikro, czyli o wszelkich składowych tej procedury
(włączanie silnika, ruszanie, zmiana biegów, hamowanie, włączanie kierunkowskazów itd.).
Procedury mają strukturę hierarchiczną, więc np. zmiana biegów składa się z bardziej elementarnych
produkcji, z których część jest zawsze identyczna, jak wciśnięcie sprzęgła, a część różna, jak ruch
lewarkiem zmiany biegów, który jest odmienny w zależności od przełożenia aktualnego
i docelowego.

3 Wymawiamy: akt.

4 W latach 80. XX w., kiedy Anderson publikował swój model, nie istniały telefony komórkowe
z pamięcią, które obecnie niemal całkowicie wyeliminowały konieczność zapamiętywania numerów.
Zapewniamy jednak, że przykład ten był wówczas trafny.

Rozdział 6
1 Termin ten (w oryginale: working memory updating) można też tłumaczyć jako aktualizację
zawartości pamięci roboczej.

2 Można go również nazywać systemem alarmowym lub alertowym.

3 Jeśli chodzi o źródła dostępne w języku polskim, ANT opisano m.in. w pracy Nęcki (2018).
Można go również poznać na stronie: https://www.millisecond.com/download/library/ant/.

4 Psycholog nie ma narzędzi potrzebnych do rozwiązania problemu podmiotowości czy wolnej woli.
Jednocześnie chce prowadzić badania empiryczne nad kontrolą i samoregulacją zachowania. W tej
sytuacji przyjęcie stanowiska funkcjonalistycznego (funkcje zarządcze!) pozwala mierzyć i badać
przejawy kontroli bez wcześniejszego rozstrzygnięcia sporów filozoficznych i światopoglądowych.

Rozdział 8
1 Schacter i Tulving (1994) uważają, że model Atkinsona i Shiffrina jest rozwinięciem modelu
Waugh i Normana (1965), którzy jako pierwsi rozróżnili pamięć pierwotną (primary), czyli
krótkotrwałą, i wtórną (secondary), czyli długotrwałą. Model Atkinsona i Shiffrina jednak, jako
bardziej rozbudowany i szczegółowy, pełniej oddaje istotę klasyfikacji pamięci ze względu na
kryterium czasu przechowywania.

2 Klasyfikację Squire’a podajemy za oryginałem, chociaż według nas poprzedzanie i warunkowanie


to nie rodzaje pamięci, lecz procedury, w wyniku których może powstać zapis pamięciowy.

Rozdział 9
1 W filmie Memento przedstawiono historię człowieka, który, podobnie jak pacjent H.M., utracił
zdolność nabywania wiedzy kodowanej w LTM. Reżyser w niezwykle obrazowy sposób przedstawił
potencjalne konsekwencje takiego stanu, które – jeśli uwzględnić nietypową sytuację głównego
bohatera – wydają się w większości prawdopodobne.

Rozdział 10
1 Na przykład: Niektóre krowy tańczą walca, wszyscy tańczący walca są pszczelarzami, więc
niektóre krowy są pszczelarzami.

2 Myślenie realistyczne i ukierunkowane to synonimy, choć każdy z tych terminów podkreśla nieco
inny aspekt zjawiska.

3 Chyba że archeolodzy wcześniej odkryją, jaką techniką posługiwali się starożytni Egipcjanie.

4 Na przykład podróż z prędkością światła i niemal natychmiastowe przyspieszenie do prędkości


światła bez skutków przeciążenia dla pasażerów; podróż w tunelach czasoprzestrzennych;
antygrawitacja; plazma zgromadzona w rękojeści gwiezdnych mieczy itd.

5 Duży kwantyfikator to wyrażenie typu „wszystkie”, „żaden” itp. Na przykład zdanie: „Wszystkie
strusie są ptakami, a żaden struś nie jest ssakiem”, zawiera dwa duże kwantyfikatory. Natomiast
mały kwantyfikator to wyrażenie typu „niektóre” itp., np. „Niektóre ssaki mają futro”.

Rozdział 11
1 Nazwa wywodzi się z legendy, zgodnie z którą mnisi mieli przenieść po kawałku świątynię na
nowe miejsce, wykonując jak najmniej ruchów. Zbliżona wersja tego zadania, wykorzystywana
w badaniach neuropsychologicznych, nosi też czasem nazwę Wieży z Londynu (Tower of London).

2 Edward Nęcka (1994b) w swojej heurystyce TRoP, dotyczącej problemów o charakterze


twórczym, zawęził rozumienie przestrzeni problemu do reprezentacji sytuacji problemowej.
Wszelkie przekształcenia polegające na doprecyzowaniu albo redefinicji problemu (stanu
początkowego albo celu), odrzuceniu ukrytych założeń, włączeniu dodatkowej wiedzy itd.,
dokonywane są w przestrzeni problemu. Natomiast wszelkie działania, których celem jest
znalezienie rozwiązania (rozwiązań) problemu, dokonują się w tzw. przestrzeni rozwiązań.
Rozdział 12
1 Prawdopodobieństwo wylosowania w totolotku dowolnej kombinacji sześciu liczb spośród 49
wynosi mniej niż 0,0000000001, czyli zdarza się rzadziej niż raz na miliard losowań.

2 Literacki obraz tego zjawiska daje Fiodor Dostojewski w powieści Gracz.

3 Dane niedokładne, wprowadzone w celach poglądowych.

4 A może zawsze? Dotykamy tutaj filozoficznego problemu, czy losowość jest kategorią poznawczą
czy ontologiczną. Jeśli poznawczą, to ciąg zdarzeń może być zdeterminowany, ale nie jesteśmy
w stanie uchwycić i zrozumieć zależności przyczynowo-skutkowych, więc mówimy, że wynik jest
przypadkowy. Jeśli zaś losowość to kategoria ontologiczna, to znaczy, że ciąg zdarzeń jest z natury
niezdeterminowany. Empirycznie zorientowana psychologia nie ma narzędzi, aby zmagać się z tym
problemem.

5 Scholastic Aptitude Test, stosowany w USA jako kryterium przyjęcia na studia.

6 Na przykład przysłowie „Niedaleko pada jabłko od jabłoni” wyraża przekonanie natywistyczne,


a powiedzenie „Czym skorupka za młodu nasiąknie, tym na starość trąci” – wręcz przeciwne
przekonanie o roli środowiska w rozwoju psychicznym.

7 Przykład zaczerpnięto z podręcznika Sternberga (1996a).

8 Herbert Simon (1916–2001) otrzymał w 1978 r. Nagrodę Nobla w dziedzinie ekonomii za prace
nad teorią podejmowania decyzji.

9 Gdyby Amos Tversky nie zmarł w 1996 r., z pewnością otrzymałby tę nagrodę wraz
z Kahnemanem.

10 Przeciwieństwo tej cechy, czyli decisiveness, należałoby raczej oddać terminem „stanowczość”.

Rozdział 13
1 W literaturze można też spotkać określenia „fraza rzeczownikowa” (noun phrase) i „fraza
werbalna” (verbal phrase). Polskie słowo „werbalna” oznacza jednak po prostu „słowna”, podczas
gdy sens tego terminu określa angielski termin verb, czyli czasownik.

2 Niekiedy dodaje się czwartą czynność, czyli tłumaczenie, które zresztą jest wyjątkowo obciążające
poznawczo.

3 „Każdy wrzeszczał o czym innym, jak zwykle w życiu rodzinnym” (T. Boy-Żeleński).

4 Zabawną ilustracją tego zjawiska jest przypadek niemieckiego dziecka mieszkającego w Polsce
i uczęszczającego do przedszkola. Po powrocie rodziny do Niemiec chłopiec na placu zabaw
próbował komunikować się po polsku.
5 Lemma to nie to samo, co lemat. Mimo wspólnego źródłosłowu (gr. lèmma = treść, temat, tytuł)
lemma to abstrakcyjna forma słowa, a lemat – twierdzenie pomocnicze, ułatwiające dowodzenie
innych twierdzeń logicznych lub matematycznych.

6 Oczywiście błędem jest użycie formy zastępczej tylko wtedy, gdy forma oryginalna lepiej
odpowiadała intencji mówcy. W przeciwnym razie nie ma błędu, lecz intencjonalne wykorzystanie
bogactwa językowych środków wyrazu.

7 Łamanie kodu dokonuje się na poziomie fonetycznym, zatem pierwszą głoską w wyrazie
„wczoraj” jest „f”, a nie „w”, bo inaczej ten wyraz piszemy, a inaczej go wymawiamy. Drugą głoskę
trzeba zapisać jako „č”, a nie „cz” itd.

You might also like