Professional Documents
Culture Documents
Podręcznik Psychologia Procesów Poznawczych
Podręcznik Psychologia Procesów Poznawczych
Książka, którą nabyłeś, jest dziełem twórcy i wydawcy. Prosimy, abyś przestrzegał praw, jakie im
przysługują. Jej zawartość możesz udostępnić nieodpłatnie osobom bliskim lub osobiście znanym.
Ale nie publikuj jej w internecie. Jeśli cytujesz jej fragmenty, nie zmieniaj ich treści i koniecznie
zaznacz, czyje to dzieło. A kopiując jej część, rób to jedynie na użytek osobisty.
ISBN 978-83-01-21245-2
eBook został przygotowany na podstawie wydania papierowego z 2020 r.,
(wyd. II)
Warszawa 2020
Przedmowa
Prolog
Rozdział 1
Umysł i poznanie
1.1. Poznanie – umysł – działanie
1.2. Psychologia poznawcza: dziedzina czy paradygmat?
1.3. Ogólna architektura umysłu
1.4. Podsumowanie
CZĘŚĆ I
REPREZENTACJE POZNAWCZE
Rozdział 2
Istota i forma reprezentacji umysłowych
2.1. Pojęcie reprezentacji umysłowej
2.2. Reprezentacje obrazowe
2.3. Reprezentacje werbalne
2.4. Pierwotność czy wtórność nietrwałych reprezentacji umysłowych
2.5. Podsumowanie
Rozdział 3
Pojęcia i schematy
3.1. Konstrukt reprezentacji pojęciowej
3.2. Struktura i funkcjonowanie reprezentacji pojęciowych
3.3. Dynamiczna koncepcja umysłu, czyli o relacjach między pojęciami
3.4. Podsumowanie
Rozdział 4
Wiedza
4.1. Rodzaje wiedzy
4.2. Organizacja wiedzy
4.3. Nabywanie wiedzy
4.4. Wiedza ekspercka
4.5. Podsumowanie
CZĘŚĆ II
ELEMENTARNE PROCESY POZNAWCZE
Rozdział 5
Uwaga i świadomość
5.1. Istota i aspekty uwagi
5.2. Teorie uwagi
5.3. Uwaga a (nie)świadomość
5.4. Podsumowanie
Rozdział 6
Kontrola poznawcza
6.1. Czynności automatyczne i automatyzacja
6.2. Hamowanie jako mechanizm kontrolny
6.3. Funkcje zarządcze
6.4. Podsumowanie
Rozdział 7
Percepcja
7.1. Podstawowe właściwości percepcji
7.2. Spostrzeganie jako proces oddolny
7.3. Spostrzeganie jako proces odgórny
7.4. Teorie percepcji
7.5. Proces spostrzegania w praktyce
7.6. Podsumowanie
Rozdział 8
Pamięć
8.1. Natura pamięci
8.2. Systemy pamięci przemijającej
8.3. Systemy pamięci trwałej
8.4. Podsumowanie
Rozdział 9
Czynności pamięciowe
9.1. Fazy procesu pamięciowego: prawda czy złudzenie?
9.2. Zapamiętywanie
9.3. Przechowywanie
9.4. Odpamiętywanie
9.5. Zawodność pamięci
9.6. Podsumowanie
CZĘŚĆ III
ZŁOŻONE PROCESY POZNAWCZE
Rozdział 10
Myślenie i rozumowanie
10.1. Istota myślenia
10.2. Rodzaje myślenia
10.3. Teorie myślenia
10.4. Struktura myślenia
10.5. Rozumowanie dedukcyjne
10.6. Rozumowanie warunkowe
10.7. Teorie rozumowania dedukcyjnego
10.8. Rozumowanie indukcyjne
10.9. Inne rodzaje rozumowania
10.10. Podsumowanie
Rozdział 11
Rozwiązywanie problemów
11.1. Problem i rozwiązywanie problemu
11.2. Typy problemów
11.3. Teorie rozwiązywania problemów
11.4. Heurystyki rozwiązywania problemów
11.5. Fazy rozwiązywania problemów
11.6. Przeszkody w rozwiązywaniu problemów
11.7. Czynniki wspomagające rozwiązywanie problemów
11.8. Rozwiązywanie złożonych problemów
11.9. Podsumowanie
Rozdział 12
Wydawanie sądów i podejmowanie decyzji
12.1. Wydawanie sądów
12.2. Podejmowanie decyzji
12.3. Podsumowanie
Rozdział 13
Język i mowa
13.1. Natura języka
13.2. Przyswajanie języka
13.3. Mówienie
13.4. Rozumienie przekazów językowych
13.5. Podsumowanie
Bibliografia
O Autorach
Przypisy
Przedmowa do nowego wydania
Jeśli przyjąć, że psychologia poznawcza zajmuje się tym, jak działa umysł,
neuronauka zaś tym, jak działa mózg, obydwie dziedziny muszą się
wzajemnie rozumieć i komunikować, ale powinny też zachować swoją
tożsamość. Umysł powstaje i działa na podłożu mózgowym, zatem wiedza
psychologiczna nie może być sprzeczna z wiedzą o mózgu. Powinna też
wszędzie tam, gdzie to możliwe, korzystać z osiągnięć neuronauki
w rozstrzyganiu rozważanych przez siebie problemów. Z kolei neuronauka
powinna korzystać z osiągnięć psychologii i jej siatki pojęciowej, bo nie
można sensownie badać żadnego organu, w szczególności mózgu, bez
wiedzy o jego funkcjach. A spostrzeganie, myślenie, pamięć czy używanie
języka to właśnie funkcje pełnione przez mózg. Być może w przyszłości
dojdzie do unifikacji tych dwóch podejść. Na razie obydwie dziedziny
cechują się dużym stopniem autonomii. Jest wiele funkcji mózgowych, na
przykład związanych z regulacją procesów fizjologicznych w ciele, które
mało obchodzą psychologię poznawczą czy w ogóle psychologię. A jeśli
chodzi o funkcje poznawcze, wiedza o tym, jakie struktury mózgu lub sieci
neuronalne obsługują pamięć czy myślenie, też nie jest dla psychologa
najważniejsza, choć interesująca. Dlatego raczej nie omawiamy danych
czysto lokalizacyjnych, dotyczących umiejscowienia struktur mózgowych
realizujących poszczególne czynności poznawcze. Te informacje są z kolei
kluczowe dla neuronauki.
Edward Nęcka
Jarosław Orzechowski
Błażej Szymura
Szymon Wichary
Edward Nęcka
Jarosław Orzechowski
Błażej Szymura
Szymon Wichary
Umysł i poznanie
I = log2O,
Trzy lata później ukazała się słynna praca Noama Chomsky’ego (1959).
Rzadko się zdarza, aby recenzja cudzej książki stała się sama w sobie
fundamentalnym dziełem naukowym. Recenzję, którą napisał Chomsky na
temat książki Skinnera Verbal Behavior, należy więc uznać za rzecz
najzupełniej wyjątkową. W pracy tej autor wykazał nieadekwatność teorii
bodźca i reakcji do wyjaśniania zachowań werbalnych człowieka. Przy
okazji zaatakował behawioryzm jako model nauki o człowieku,
wywodzący się z tradycji logicznego pozytywizmu. Stwierdził, że terminy
używane przez Skinnera, jeśli rozumieć je literalnie, zupełnie nie nadają się
do opisu tego, jak ludzie mówią, choć – być może – nadają się do opisu
zachowania gołębi w ściśle kontrolowanych warunkach
eksperymentalnych. Jeśli natomiast terminy te rozumieć metaforycznie, ich
użycie nie wnosi niczego nowego ponad to, co oferują wyjaśnienia
potoczne. Podstawowy zarzut Chomsky’ego wobec behawiorystów
sprowadzał się do tego, że lekceważą oni rolę wewnętrznych stanów
umysłu w sterowaniu zachowaniem.
Istotą metody Dondersa jest zasada konstrukcji wielu wersji tego samego
zadania, różniących się liczbą niezbędnych operacji umysłowych. Zgodnie
z przyjętymi założeniami wersje te różnią się liczbą etapów przetwarzania
informacji, a ponieważ każdy etap wymaga czasu – wersje różnią się też
długością czasu, który upływa między bodźcem a reakcją. Na przykład
naciśnięcie guzika w odpowiedzi na jeden bodziec wymaga,
w uproszczeniu, trzech etapów: kodowania bodźca, przetworzenia bodźca
na reakcję i wykonania reakcji (ryc. 1.2). Naciśnięcie guzika w odpowiedzi
na jeden z dwóch bodźców (np. reaguj na zielony, nie reaguj na czerwony)
wymaga dodatkowego etapu różnicowania bodźców, dlatego cały proces
staje się czteroetapowy. Jeśli natomiast zadanie polega na tym, aby
nacisnąć prawy guzik w odpowiedzi na światło zielone, a lewy –
w odpowiedzi na światło czerwone, potrzebny jest dodatkowy etap decyzji
co do rodzaju reakcji. Dlatego w tej wersji zadanie wymaga już pięciu
etapów. Mierząc całkowity czas reakcji w każdej wersji zadania, możemy
ocenić, jak długo trwa wykonanie procesu mentalnego, składającego się
z trzech, czterech lub pięciu etapów. Mierzymy więc czas między bodźcem
a reakcją, ale wnioskujemy o długości nieobserwowalnego procesu
umysłowego. Co więcej, odejmując czas reakcji uzyskany w wersji
trzyetapowej od czasu w wersji czteroetapowej, uzyskujemy informację,
jak długo trwa jeden z etapów przetwarzania informacji, mianowicie etap
różnicowania bodźców. Analogicznie, posługując się metodą
odejmowania, możemy ocenić czas trwania etapu decyzji o wyborze
właściwej reakcji. Nie widząc zatem interesujących nas procesów
mentalnych, możemy ocenić czas ich trwania. W szczególności jesteśmy
w stanie stwierdzić, czy wynik odejmowania dwóch wartości czasu reakcji
jest większy od zera, bo to oznacza, że dany etap istnieje. Gdyby wynik
odejmowania był równy zeru, można by wnioskować, że dany etap nie
istnieje, a więc model teoretyczny zakładający jego istnienie jest
nieadekwatny do rzeczywistości. W ten sposób, posługując się logiką
badawczą zaproponowaną przez Dondersa, możemy weryfikować
konkurencyjne modele badanych procesów poznawczych.
RAMKA 1.1
Koneksjonizm
Modele blokowe poddano ostrej krytyce nie tylko ze względu na zbyt
daleko posuniętą analogię między umysłem a komputerem. Podkreślano
przede wszystkim, że sekwencyjne ujęcie procesu przetwarzania informacji
jest sprzeczne z licznymi danymi empirycznymi (MacKay, 1998). Na
przykład blokowy, sekwencyjny model percepcji liter, zwany
Pandemonium (Selfridge, Neisser, 1960), zakładał, że najpierw
analizujemy pojedyncze cechy (linie, krzywizny itd.), na ich podstawie
rozpoznajemy kształt całej litery, następnie identyfikujemy jej znaczenie
i podejmujemy decyzję na temat tego, co właściwie widzimy. Dość szybko
okazało się, że model Pandemonium słabo pasuje do wyników badań
empirycznych. Według Jamesa McClellanda i Davida Rumelharta (1981),
czołowych prekursorów koneksjonizmu, człowiek nie analizuje
pojedynczych cech, lecz całość wzorca, jakim jest litera. Co więcej, analiza
sensorycznych właściwości bodźca dokonuje się równolegle z analizą
semantyczną, zmierzającą do stwierdzenia, co znaczy widziana przez nas
litera. Ponadto litery zwykle nabierają sensu dopiero w szerszym
kontekście słowa, które tworzą, dlatego proces semantycznej analizy
poszczególnych liter przebiega równolegle z procesem semantycznej
analizy słów. Ponieważ informacje o znaczeniu liter i słów są
przechowywane w pamięci trwałej, analiza sensoryczna musi się
dokonywać równolegle z przywoływaniem danych z tej pamięci, co jest
rażąco sprzeczne z modelem Atkinsona i Shiffrina i w ogóle z większością
blokowych modeli umysłu. Koncepcja umysłu jako systemu działającego
sekwencyjnie i przetwarzającego informacje zawsze w tym samym
kierunku wymagała więc zasadniczej rewizji.
Chociaż debata nad modularnością umysłu toczy się od dość dawna, nowy
impuls nadał jej filozof Jerry Fodor, autor książki Modularity of mind
(1983). W jego ujęciu umysł składa się z trzech rodzajów budulca:
przetworników (transducers), systemów centralnych i modułów. Rolą
przetworników jest pozyskiwanie energii dopływającej do organizmu
i przekształcanie jej w postać dostępną dla pozostałych mechanizmów
psychologicznych. Rolą systemów centralnych jest wnioskowanie
i tworzenie przekonań; systemy te odpowiadają zatem za myślenie albo za
poznanie w wąskim sensie tego słowa. Natomiast zadanie modułów polega
na pośredniczeniu między przetwornikami a systemami centralnymi. Fodor
obrazowo określa tę funkcję jako „dostarczanie świata myślom”.
1.4. Podsumowanie
Omówiony w tym rozdziale podział na stabilne reprezentacje i dynamiczne
procesy poznawcze określił strukturę całego podręcznika. Część pierwszą
poświęcono różnym rodzajom reprezentacji umysłowych, część drugą –
elementarnym procesom poznawczym (uwaga, kontrola poznawcza,
percepcja, pamięć), a część trzecią – złożonym procesom poznawczym
(myślenie, rozwiązywanie problemów, podejmowanie decyzji, używanie
języka). W kolejnych rozdziałach będziemy się wielokrotnie odwoływać do
niniejszego prologu, przez co treści w nim zawarte nabiorą, być może,
nowego i głębszego sensu. A zarazem rozmaite kwestie szczegółowe,
omawiane w następnych rozdziałach, powinny stać się bardziej zrozumiałe
w wyniku odniesienia ich do podstawowych problemów teoretycznych
podjętych w rozdziale 1.
Część I
Reprezentacje poznawcze
Rozdział 2
Paradygmat 2.1
Rotacja mentalna
Paradygmat 2.2
Weryfikacja treści zadań
TABELA 2.1. Czas weryfikacji treści zdań przez osoby o wysokim (+) lub niskim (–) poziomie
zdolności werbalnych (W) lub wyobrażeniowych (O), w zależności od fazy przetwarzania
informacji [w ms]
obrazek +++ ++
słowo konkretne + +++
słowo abstrakcyjne – +++
[~ na (podręcznik, biurko)],
oraz
2.5. Podsumowanie
W rozdziale tym omówiliśmy naturę reprezentacji świata w umyśle.
Reprezentacje dzielą się na trwałe i nietrwałe. Te pierwsze tworzą struktury
wiedzy, podczas gdy te drugie powstają w związku z koniecznością
wykonania konkretnej czynności poznawczej (np. podjęcia decyzji,
wypracowania odpowiedzi na pytanie, rozwiązania problemu), po czym
zanikają. Nietrwałe reprezentacje poznawcze, zwane też
powierzchniowymi, mogą przyjmować postać obrazów umysłowych,
etykiet słownych, sądów o relacjach między obiektami czy złożonych
modeli umysłowych konkretnej sytuacji lub problemu. Powszechnie
obowiązującą zasadą funkcjonowania umysłu jest założenie, że ten sam
obiekt może być reprezentowany w różnym formacie, np. obrazowym
i słownym, a o użyciu określonej formy reprezentacji decydują czynniki
sytuacyjne (np. kontekst, polecenie, instrukcja, rodzaj napływającej
stymulacji) lub trwałe preferencje indywidualne.
Rozdział 3
Pojęcia i schematy
Paradygmat 3.1
Lance Rips, Edward Shoben i Edward Smith (1973; Smith i in., 1974)
przeprowadzili badania w paradygmacie podejmowania decyzji
semantycznych (paradygmat 3.2). Polecili uczestnikom eksperymentu
weryfikację prawdziwości prostych zdań, dotyczących tego, czy dany
desygnat jest egzemplarzem nadrzędnej kategorii pojęciowej (np. „Czy
kanarek to ptak?”). Wykazano, że czas podejmowania tej decyzji zależy od
typowości desygnatu – im bardziej typowy egzemplarz kategorii, tym jest
on krótszy Różnice w średnich czasach reakcji były niewielkie
w przypadku egzemplarzy typowych i średnio typowych (zaledwie 19 ms;
w przypadku kategorii „owady” stwierdzono nawet zależność przeciwną: –
35 ms), ulegając zdecydowanemu wydłużeniu w przypadku desygnatów
średnio typowych i nietypowych (aż do 43 ms). Co ciekawe, czasy
weryfikacji zdań, w których wymieniano bardzo nietypowych
przedstawicieli danej kategorii, były zbliżone, niezależnie od tego, na czym
owa nietypowość polegała. Natomiast w przypadku obiektów
nienależących do danej kategorii czas podejmowania decyzji semantycznej
był bardzo krótki.
Paradygmat 3.2
RYCINA 3.2. Przestrzeń semantyczna pojęcia „ssak” określona w badaniach Ripsa, Shobena
i Smitha
Źródło: opracowanie własne na podstawie Rips, Shoben, Smith, 1973.
fotel
stół salonowy
lampka biurkowa
dąb biały
klon cukrowy
brzoza żółta
TABELA 3.2. Porównanie rang egzemplarzy pojęć naturalnych w badaniach Rosch (1973)
oraz Armstronga i współpracowników (1983). Im niższa wartość, tym większa typowość
(prototyp = 1)
Pojęcie naturalne Rosch (1973) Armstrong i in. (1982) Różnica
Owoce
Sport
Pojazdy
RYCINA 3.3. Figury wzorcowe oraz ich przekształcenia użyte w badaniach Posnera i Keelego
nad definicją prototypu jako średniej z cech
Źródło: opracowanie własne na podstawie Posner, Keele, 1968, 1970.
Zadaniem osób badanych było najpierw przyswojenie sobie czterech pojęć
sztucznych – każde z nich odnosiło się do jednego z czterech wyjściowych
układów kropek. W tej fazie eksperymentu badanym nie pokazywano
jednak w ogóle obrazów wzorcowych, a więc figur matrycowych sprzed
transformacji. Sortowali oni otrzymane obrazki do czterech różnych
kategorii (paradygmat selekcji; Bruner i in., 1956; zob. paradygmat 3.1).
Kiedy już przyswoili sobie procedury identyfikacyjne i bezbłędnie
rozróżniali desygnaty czterech sztucznych pojęć, otrzymywali kolejną
porcję kart z zadaniem zaliczenia ich do jednej z czterech wcześniej
wyuczonych kategorii. Były to inne egzemplarze właśnie przyswojonych
pojęć niż znajdujące się w zestawie kart przeznaczonych do procesu
uczenia. W nowej serii kart zaprezentowano także osobom badanym
wyjściowe układy kropek, nie informując jednak o tym, że są to wzorce
sprzed transformacji.
RAMKA 3.1
3.4. Podsumowanie
O pojęciach – ich strukturze, nabywaniu i organizacji – mówi się
zazwyczaj w kontekście języka (zob. rozdz. 13). Celem niniejszego
rozdziału było ukazanie poznawczej funkcji pojęć, czyli ich roli
w poznawaniu otaczającego nas świata, innych ludzi i samych siebie.
Z tego punktu widzenia bytem bardziej pierwotnym w stosunku do pojęć są
kategorie. Człowiek nieustannie kategoryzuje obiekty fizyczne, a także
symboliczne i wyobrażone. Kategoryzuje również obiekty społeczne,
w szczególności innych ludzi. Kategoryzując, najpierw tworzy w umyśle
poznawczą reprezentację pewnego zbioru obiektów, który w szczególnym
przypadku może być zbiorem jednostkowym lub pustym, a dopiero wtórnie
– i nie zawsze – przypisuje mu określenie językowe. Zazwyczaj kategorie
często używane i użyteczne w poznaniu potocznym lub naukowym
otrzymują własną „etykietę” w postaci słowa. Kategorie rzadziej używane
mogą być pozbawione takiej etykiety, co nie jest równoznaczne z ich
mniejszą przydatnością w procesach poznawczych. Wielu z nas posługuje
się np. kategorią „rzeczy dawno nieużywane i nie wiadomo, czy potrzebne,
ale których żal wyrzucić”. Jest to dość ważna kategoria poznawcza, która
jak dotychczas nie doczekała się osobnego omówienia w języku polskim.
Warto pamiętać, że etykieta werbalna nie tylko upraszcza komunikowanie
się, bo zamiast kilku czy kilkunastu słów wystarczy jedno, lecz także jak
gdyby „zamraża” kategorię, ustalając jej zakres znaczeniowy, definiując
granice (choćby mało precyzyjne lub rozmyte) oraz kodyfikując społeczny
sposób jej używania. Zbiory pozbawione etykiety werbalnej mogą
funkcjonować jako tzw. kategorie ad hoc, tworzone doraźnie – np.
w procesach twórczych – ale pozbawione trwałości. Dopiero kategoria
opatrzona etykietą daje nam prawdziwe pojęcie, czyli formę poznawczej
reprezentacji świata charakteryzującą się trwałością. Dlatego właśnie
reprezentacje pojęciowe oraz struktury z nich złożone (np. schematy) są
przez nas traktowane jako reprezentacje trwałe, w odróżnieniu od z natury
nietrwałych obrazów umysłowych lub sądów. Z owych trwałych cegiełek
tworzą się w dalszej kolejności rozbudowane struktury wiedzy, o których
traktuje kolejny, czwarty rozdział.
Rozdział 4
Wiedza
Rodzaje wiedzy
Wiedza deklaratywna i proceduralna
Wiedza jawna i niejawna
Organizacja wiedzy
Reprezentacja wiedzy za pomocą cech
Organizacja wiedzy semantycznej
Organizacja wiedzy proceduralnej: systemy reguł
Organizacja wiedzy w modelach ACT, ACT* i ACT-R
Nabywanie wiedzy
Nabywanie wiedzy semantycznej
Nabywanie wiedzy proceduralnej
Nabywanie wiedzy niejawnej
Wiedza ekspercka
Kryteria i właściwości wiedzy eksperckiej
Nabywanie wiedzy eksperckiej
Podsumowanie
Wiedza to forma trwałej reprezentacji rzeczywistości, mająca postać uporządkowanej i wzajemnie
powiązanej struktury informacji, kodowanej w pamięci długotrwałej.
Ekspert to osoba dysponująca wiedzą obszerną, choć ograniczoną do wybranej dziedziny, a ponadto
bardzo dobrze uporządkowaną, sproceduralizowaną i nadającą się do wykorzystania dzięki ogólnym
schematom działania.
Paradygmat 4.1
RYCINA 4.2. Analiza wpływu procesów jawnych i niejawnych w zadaniu uczenia się
sztucznych gramatyk
Etap I – uczenie się ciągów liter zgodnych z pewną regułą gramatyczną. Etap II – testowanie wiedzy
niejawnej (ukrytej) w teście klasyfikacji ciągów, wymagającym różnicowania ciągów
gramatycznych i niegramatycznych. Etap III – test wiedzy jawnej, badający znajomość reguł
klasyfikacji.
Źródło: Wierzchoń, 2004. Przedruk za zgodą autora.
s(a, b) = θf (A ∩ B) – αf (A – B) – βf (B – A),
gdzie s(a, b) to podobieństwo znaczeń słów a i b; A i B – zestaw cech
reprezentujący a i b; f (X) – funkcja wagi cechy w zbiorze; θ, α i β – stałe
wagi zestawu. Podobieństwo jest tym większe, im więcej para znaczeń ma
cech wspólnych (A ∩ B) i im mniej dystynktywnych (A – B i B – A).
Tversky stwierdził pozytywną korelację oceny stopnia podobieństwa par
znaczeń z liczbą cech wspólnych, zakładanych w modelach reprezentacji za
pomocą cech, i korelację negatywną z liczbą cech je różnicujących. Jego
model dobrze tłumaczy pewne psychologiczne prawidłowości relacji
podobieństwa, np. brak symetryczności i przechodniości. Relacja
podobieństwa jest niesymetryczna, bo z faktu, że a jest podobne do b, nie
wynika, że b jest podobne do a. Na przykład często dostrzegamy
podobieństwo dziecka do rodzica, ale rzadziej – podobieństwo rodzica do
dziecka. W tym przypadku waga cech dystynktywnych dla rodzica
przewyższa wagę cech wspólnych i dystynktywnych dla dziecka. Na tej
samej zasadzie możemy powiedzieć, że Kazachstan jest podobny do Rosji,
ale Rosja nie jest podobna do Kazachstanu. Ponadto relacja podobieństwa
jest nieprzechodnia, bo z faktu, że a jest podobne do b, b zaś jest podobne
do c, nie wynika, że a jest podobne do c. Na przykład Jaś jest podobny do
Rysia (ze względu na kształt podbródka), Ryś jest podobny do Stasia (ze
względu na kolor oczu), ale nie ma żadnego podobieństwa między Jasiem
a Stasiem. Brak symetrii i przechodniości sprawia, że relacja podobieństwa
wyróżnia się spośród większości relacji, takich jak wyższy/niższy,
głupszy/mądrzejszy itd. Model Tversky’ego dobrze też wyjaśnia zależność
oceny podobieństwa od kontekstu. Na przykład z trzech krajów: Rosji,
Kazachstanu i Uzbekistanu, podobne wydają się Kazachstan i Uzbekistan,
natomiast wśród krajów: Rosji, Kazachstanu, Japonii, podobne wydają się
Rosja i Kazachstan. W zależności od kontekstu zmieniają się wagi cech
wspólnych i dystynktywnych, przez co obiekty wydają się mniej lub
bardziej podobne. Analogiczne efekty uzyskano w odniesieniu do materiału
niewerbalnego (ryc. 4.3).
RYCINA 4.5. Hipotetyczne predykaty pojęć „stół” i „krzesło”. Znaczna ich część może być
wspólna dla obu pojęć
Źródło: opracowanie własne.
Co za tym idzie – struktura wiedzy, oraz oczywiście jej zawartość, nie jest
w modelu Collinsa i Loftus zunifikowana, pojęcia mogą być bowiem
połączone w zasadzie dowolnie. Im pojęcie jest bogatsze semantycznie,
z tym większą liczbą węzłów może być połączone. Przykład sieci
semantycznej w tym ujęciu przedstawia rycina 4.6.
TABELA 4.1. Zadanie leksykalne użyte w badaniach Lewis i Andersona. Opis w tekście.
Wartość podana w nawiasie obok zdań użytych w drugiej fazie eksperymentu oznacza liczbę zdań,
które dotyczyły danej osoby w pierwszej fazie.
RYCINA 4.9. Pojęcie „wiedza proceduralna” napisane przez siedmiolatka (lewa strona)
i autorów niniejszego podręcznika (prawa strona)
Zwróćmy uwagę na sposób łączenia liter w pisowni: u osób dorosłych jest on naturalny
i zróżnicowany indywidualnie. W przypadku siedmiolatka zauważyć można niezakończony jeszcze
proces kompozycji w odniesieniu do litery „r”.
Źródło: opracowanie własne.
Tym, co wyróżnia wiedzę ekspercką, jest rzecz jasna jej zakres w pewnej
domenie: ekspert ma bardzo obszerną wiedzę, ale jest ona ograniczona do
pewnej dziedziny. Arystoteles, autor dobrze znanego psychologom traktatu
O duszy, zajmował się również medycyną, etyką, polityką, fizyką,
matematyką i różnymi innymi dziedzinami wiedzy. W wielu z nich
niewątpliwie był ekspertem. Dziś, ze względu na gwałtowny przyrost
szczegółowej wiedzy, trudno byłoby być ekspertem w całym obszarze
choćby tylko jednej z tych dyscyplin. Współcześni eksperci są wąsko
wyspecjalizowani, a mimo to rzadko wnoszą do dorobku ludzkości
cokolwiek, co mogłoby się równać z dokonaniami Arystotelesa. Nie tylko
zatem zakres wiedzy decyduje o poziomie ekspertywności, jeśli uznać
ekspertów również za innowatorów w swojej domenie. Obszerna wiedza
może być nawet przeszkodą, np. w rozwiązywaniu problemów
nietypowych lub nowych. Na przykład Albert Einstein twierdził, że brak
formalnego wykształcenia w zakresie fizyki ułatwił mu sformułowanie
ogólnej teorii względności. Co zatem wyróżnia ekspertów? Michelene Chi,
Robert Glaser i Marshall Farr (1988) sformułowali siedem charakterystyk
ekspertywności (expertise):
1. eksperci są najlepsi w swojej dziedzinie;
RAMKA 4.1
Wydaje się zatem, że wiedza ekspertów różni się od wiedzy laików nie
tylko „ilościowo” (np. większy zakres wiedzy, wyższy stopień
proceduralizacji), lecz także „jakościowo” (np. inna organizacja wiedzy,
wyspecjalizowanie schematów poznawczych). Jakościowo odmienne są
również sposoby korzystania z tej wiedzy, zapewniające wysoką
skuteczność przy zachowaniu elastyczności rozwiązywania problemów
w dziedzinie specjalizacji (np. przyjmowanie strategii falsyfikacji, a nie
konfirmacji hipotez, zob. podrozdz. 10.6.2).
Uwaga i świadomość
Według Williama Jamesa (1890, s. 403–404) „każdy wie, czym jest uwaga:
jest to posiadanie przez umysł w jasnej i żywej postaci jednego z wielu
jednocześnie ujmowanych przedmiotów lub ciągów myśli”. W tej pięknej,
introspekcyjnej definicji zawierają się trzy prawdy. Po pierwsze, istotą
i sensem działania uwagi jest selekcja, czyli wybór jednego obiektu
percepcji, jednego źródła stymulacji lub jednego tematu myślenia spośród
wielu możliwych opcji. Po drugie, selekcja realizowana przez uwagę
dotyczy w równym stopniu spostrzegania, jak też „wyższych” procesów
poznawczych, przede wszystkim myślenia. Dzięki selekcji na wejściu
sensorycznym możemy skupić się na jednym bodźcu lub źródle stymulacji
kosztem innych, a dzięki selekcji w odniesieniu do „wyższych” pięter
przetwarzania informacji możemy kontrolować przebieg procesów
intelektualnych. Po trzecie, uwaga ściśle wiąże się ze świadomością, czyli
ze zdawaniem sobie sprawy z tego, co spostrzegamy lub o czym myślimy.
Dziś wiemy, że świadomość nie jest tożsama z uwagą, ale zawsze stanowi
wynik jej działania. Na peryferiach uwagi znajdują się czasem bodźce,
z których zdajemy sobie sprawę słabo lub w ogóle, ale jeśli coś jest
przedmiotem świadomego doznania, musiało być wcześniej poddane
skutecznej i bardzo surowej selekcji ze strony uwagi.
Paradygmat 5.1
Paradygmat 5.2
Paradygmat 5.3
Paradygmat 5.4
Paradygmat 5.5
RAMKA 5.1
RAMKA 5.2
d’ = zNIE – zTAK,
czyli d’ to różnica między średnią dla NIE a średnią dla TAK wyrażona
w skali z. Z tabeli rozkładu normalnego odczytujemy, że 36% powyżej
średniej (o tyle odbiega od przypadku proporcja FA) odpowiada wartości
z = 1,08. Z kolei 42% poniżej średniej (o tyle odbiega od przypadku
proporcja trafień) odpowiada wartości z = – 1,41. Podstawiając obie
wartości do wzoru, otrzymujemy wynik:
RAMKA 5.3
Paradygmat 5.6
5.4. Podsumowanie
Treść niniejszego rozdziału pokazuje, jak wiele funkcji pełni mechanizm
uwagi i jak wieloma metodami można go badać. Mimo licznych
i różnorodnych zadań, takich jak selekcja źródła informacji,
przeszukiwanie pola percepcyjnego, utrzymywanie gotowości do działania,
obsługa zadań jednoczesnych i przerzutność między zadaniami, uwaga
pozostaje mechanizmem jednorodnym, czerpiącym ze wspólnych zasobów
poznawczych. Trzeba tu jednak podkreślić, że w tym rozdziale mowa była
o uwadze rozumianej tradycyjnie: jako mechanizm odpowiedzialny za
ochronę systemu poznawczego przed negatywnymi skutkami
przeładowania informacyjnego. Oprócz tego uwadze przypisuje się również
funkcje kontrolne, te jednak opiszemy w rozdziale 6. Tutaj omówiliśmy
teorie i badania dotyczące selektywności uwagi, przeszukiwania pola
percepcyjnego, podzielności i przerzutności uwagi oraz koncentracji, czyli
utrzymywania czujności uwagi. Zajęliśmy się również związkami uwagi
z percepcją i świadomością, kładąc szczególny nacisk na mechanizmy
uwagi oparte na percepcji bodźców podprogowych, czyli takich, które nie
przekraczają progu świadomości. Przedstawiliśmy ponadto główne
paradygmaty badawcze w dziedzinie uwagi – paradygmat dychotycznej
prezentacji bodźców i metodę podążania, paradygmaty do badania
przeszukiwania pola wzrokowego, testy ciągłego wykonania, paradygmat
przełączania się między zadaniami oraz dużą grupę zadań mierzących
efekty poprzedzania.
Kontrola poznawcza
Paradygmat 6.1
Sygnał stopu
Paradygmat 6.2
Efekt Stroopa
Efekt interferencji Stroopa (1935) jest jednym z najsłynniejszych zjawisk
w psychologii eksperymentalnej. Na przełomie lat 1980/1990
przywoływano go w blisko 80 pracach rocznie. Tendencja ta ma ciągle
charakter wzrostowy. Dla porównania – równie słynny efekt świeżości,
odkryty przez Lloyda Petersona i Margaret Peterson (1959), przywoływano
tylko w 30 publikacjach rocznie i liczba ta była dość stała (MacLeod,
1992). Zadanie Stroopa wykorzystywano jako metodę badawczą
w przypadku ponad 20 prac rocznie. Popularność tego efektu ma dwie
przyczyny. Po pierwsze, jest on zawsze istotny statystycznie, silny
i powtarzalny. Po drugie, pomimo 80 lat badań nad tym zjawiskiem nadal
pozostaje fenomenem nie do końca wyjaśnionym co do swego podłoża
i mechanizmu.
Stroop figuralny (zob. np. Navon, 1977) – osoby badane widzą figurę
zbudowaną z innych figur (np. dużą literę H zbudowaną z liter K
o mniejszym rozmiarze; ryc. 6.4); zadanie polega na nazwaniu figury
stanowiącej tworzywo, a zignorowaniu figury głównej.
RYCINA 6.5. Poprawa poziomu wykonania zadania (coraz krótszy czas reakcji) jako
wykładnicza funkcja długości czasu nabywania wprawy
Każda funkcja zaczyna się w tym samym punkcie, reprezentującym początkowy poziom wykonania,
i asymptotycznie zbliża się do poziomu idealnego. Każdej krzywej, reprezentującej pojedynczy
przypadek, odpowiada określona wartość wykładnika.
Źródło: opracowanie własne na podstawie Logan, 1988.
Automatyczna reakcja ze strony pamięci jest zdeterminowana przez
pierwszy przywołany egzemplarz. Detekcja bodźca, oprócz rywalizacji
między kontrolowanymi procesami uwagowymi a automatycznymi
procesami pamięciowymi, prowokuje więc „wyścig” o pierwszeństwo
między dostępnymi w pamięci egzemplarzami. Nagrodą jest uruchomienie
sposobu postępowania z bodźcem zgodnie z zakodowaną w egzemplarzu
procedurą. O zwycięstwie w wyścigu decyduje liczba dowodów
dotychczasowej, udanej stosowalności egzemplarza w odpowiedzi na
bodziec. Każde udane współwystąpienie bodźca i specyficznej reakcji
zwiększa wagę egzemplarza reprezentującego to konkretne zachowanie.
Nabywanie wprawy polega więc na zwiększaniu wagi dominującego
egzemplarza, tak by jego zwycięstwo w rywalizacji przypadków nie
ulegało wątpliwości. Model wyścigu egzemplarzy dobrze wyjaśnia
zarówno szybkość procesów wtórnie automatycznych (tym większą, im
większa jest wprawa w zakresie wykonywanych czynności), jak
i podatność na błędy w przypadku bodźców konfliktowych (np. w zadaniu
Stroopa). Bodźce takie uruchamiają tyle rywalizujących ze sobą ścieżek, ile
konfliktowych aspektów stymulacji zawierają. Ze względu na brak jednego
dominującego egzemplarza w reakcji na bodziec mogą pojawić się błędy.
Reakcja może być wtedy korygowana przez instrukcję dla osoby badanej
lub jej intencjonalną decyzję, ale nie bez ponoszenia kosztów czasowych,
wynikających z uruchomienia uwagowych mechanizmów kontrolnych
(zob. podrozdz. 6.2).
Paradygmat 6.3
Poprzedzanie negatywne
Tipper (1985; Driver, Tipper, 1989; Tipper, Driver, 1988) był zdania, że dla
efektywnej selekcji informacji konieczne jest skuteczne hamowanie dwóch
typów dystraktorów: bodźców specyficznie zakłócających, wywołujących
interferencję, i bodźców ogólnie zakłócających, niepowodujących
interferencji. Paradygmat poprzedzania negatywnego miał być tym, który
pozwoli na zbadanie procesu tłumienia dystrakcji specyficznej (Neill,
1977). Zadaniem osób badanych było zliczanie czerwonych bodźców,
rozrzuconych wśród różnych liter i cyfr prezentowanych w tym samym
czasie przez bardzo krótki okres (200 ms) (Driver, Tipper, 1989; Tipper,
Driver, 1988). Wyróżniono dwa rodzaje przedstawień, które nazwano
testowym (probe) i poprzedzającym (prime). Przedstawienia testowe
zawierały tylko czarne i czerwone litery, natomiast przedstawienia
poprzedzające zawierały zarówno czarne litery lub cyfry, jak i czerwone
litery. Ze względu na bodziec poprzedzający (prymę) wyróżniono dwa typy
zadań: (1) zadanie interferencyjne, w którym w kolorze czarnym w ramach
prymy prezentowano cyfrę inną niż oczekiwany wynik zliczania (liczba
czerwonych bodźców), oraz (2) zadanie neutralne, w którym w kolorze
czarnym prezentowano litery pozostające bez żadnego związku
z oczekiwanym wynikiem zliczania. Ze względu na możliwe sposoby
połączenia przedstawienia poprzedzającego i testowego wyróżniono trzy
warunki eksperymentalne: (1) neutralno-kontrolny, w którym
przedstawienia testowego i poprzedzania neutralnego nie łączyła żadna
relacja; (2) interferencyjno-odmienny, w którym po prymie interferencyjnej
prezentowano przedstawienie testowe, zawierające inną liczbę czerwonych
liter niż ignorowana w prymie czarna cyfra, oraz (3) interferencyjno-
jednakowy, w którym po prymie interferencyjnej prezentowano
przedstawienie zawierające liczbę liter zgodną z ignorowaną w prymie
czarną cyfrą.
Od bardzo dawna (Gall, 1798; Liu, 1704; za: Zhu, 1989) wyrażano
przekonanie, że w przedniej części płatów czołowych mózgu
zlokalizowane są mechanizmy kontrolne procesów przetwarzania
informacji. Ze względu na to, że wydają się odpowiadać za ukierunkowanie
zachowania, mechanizmy te zostały nazwane zarządczymi. Są one
niespecyficzne w tym sensie, że nie jest ich bezpośrednim zadaniem
realizowanie jakiejkolwiek konkretnej formy przetwarzania informacji (np.
myślenia indukcyjnego spostrzegania czy zapamiętywania). Ich
upośledzenie (np. wskutek uszkodzeń strukturalnych mózgu lub lezji
płatów czołowych) zakłóca jednak wykonywanie wszelkich operacji
poznawczych, przebiegających w dowolnych obszarach umysłu (Baddeley,
Della Sala, Papagno, Spinnler, 1997). Deficyty te noszą wspólną nazwę
syndromu czołowego (frontal syndrome; tamże) i mają konsekwencje
w postaci dezorganizacji wszystkich form zachowania. Znaczenie płatów
czołowych jako mózgowej podstawy procesów zarządczych akcentują
również współczesne teorie. Wpływowa teoria Earla Millera i Jonathana
Cohena (2001) podkreśla, że kora czołowa, a dokładnie jej przednia część,
odgrywa szczególną rolę w aktywności i zadaniach wymagających
odgórnej kontroli wykonania planu działania, czyli kontroli zgodności
wykonywanych zadań z założonymi celami i intencjami. Według autorów,
istotą funkcji zarządczych, które realizuje kora przedczołowa, jest m.in.
aktywne utrzymywanie reprezentacji celu i środków prowadzących do jego
realizacji.
Collette i Van der Linden (tamże) dokonali także przeglądu badań nad
neuronalnymi korelatami funkcji zarządczych. Zaprzeczyli tezie, że funkcje
zarządcze należy lokalizować tylko w przednich płatach czołowych.
Wykonanie szeregu zadań na wszystkie cztery rodzaje funkcji zarządczych
wymagało aktywacji zarówno przednich płatów czołowych, jak i płatów
tylnych, a w szczególności ciemieniowych obszarów kory mózgowej nawet
wtedy, gdy wpływ obciążenia pamięci treścią zadania został z analiz
wykluczony. W innych badaniach, nad pacjentami z chorobą Alzheimera,
Fabienne Collette, Martial Van der Linden, Gael Delrue i Eric Salmon
(2002) wykazali, że dysfunkcje zarządcze mogą być związane nie tyle
z zaburzeniem funkcjonowania płatów czołowych, ile z uszkodzeniem
połączeń między przednimi a tylnymi rejonami mózgu. Z kolei Adrian
Owen (2000; Duncan, Owen, 2000) stwierdził, że mechanizm hamowania
dominującej reakcji należy lokalizować tylko w części przednich płatów
czołowych, zawierających obszary: środkową część grzbietowo-boczną,
środkową część brzuszno-boczną oraz grzbietową część przedniej części
zakrętu obręczy. Nowsze, omawiane wcześniej badania (Aron, Poldrack,
2006; Aron i in., 2004, 2014; Wessel, Aron, 2017) jeszcze bardziej
zawężają ten obszar, podkreślając rolę prawego płata czołowego dolnego
w hamowaniu reakcji. Jednocześnie wskazują na istotne znaczenie
połączeń tego obszaru kory ze strukturami jąder podstawy, szczególnie
z jądrem niskowzgórzowym.
6.4. Podsumowanie
Czy teza Daniela Dennetta, że „umysł to armia idiotów”, znajduje
potwierdzenie w treści niniejszego rozdziału? Sens tej przewrotnej
i prowokacyjnej tezy sprowadza się do tego, że nauka musi odrzucić
wszelkie próby wyjaśnienia zjawiska kontroli poznawczej, które w ten czy
inny sposób odwołują się do homunculusa. Jeśli tego nie zrobi, będzie
musiała szukać odpowiedzi na pytanie, kto kontroluje homunculusa itd. Jak
się wydaje, psychologia jest jeszcze dość daleko od tego celu. Liczne
koncepcje kontroli poznawczej w ten czy inny sposób „przemycają”
homunculusa do architektury umysłu, nadając mu inne nazwy, takie jak
centralny system zarządczy, nadzorczy system uwagi lub funkcje
zarządcze4. W rozdziale omówiliśmy te koncepcje oraz wiele badań
empirycznych mających na celu ich weryfikację. Najważniejsze z nich to:
teoria kontinuum Schneidera i Shiffrina, teoria egzemplarzy Logana, teoria
uwagowego systemu wykonawczego Normana i Shallice’a, teorie Posnera,
Baddeleya oraz Botvinicka i współpracowników, oraz paradygmaty:
zadanie Stroopa, sygnał-stopu i poprzedzanie negatywne. Opisane
koncepcje i badania niosą ważną treść i duży ładunek rzetelnej wiedzy,
a jednak ciągle tkwią w pułapce zastawionej przez ukrytego homunculusa.
Prawdziwy przełom w badaniach nad kontrolą i samokontrolą dokona się
prawdopodobnie dopiero gdy psychologia empiryczna zmierzy się
z problemem podmiotu. Wydaje się, że jest to jedno z ważniejszych
wyzwań stojących przed tą dyscypliną.
Rozdział 7
Percepcja
7.3.2. Nastawienie
Nastawienie percepcyjne (perceptual set) – wstępne przygotowanie umysłu do odbioru określonej
informacji w procesie spostrzegania; może się dokonać poprzez jawną instrukcję lub uprzednią
ekspozycję informacji pod jakimś względem podobnych.
Φ
może być odczytany jako jedna z liter alfabetu greckiego, jako zlepek
dwóch małych liter „d” i „p”, a nawet jako kontur ptaka w locie.
RYCINA 7.8. Zasady percepcji postaci, czyli reguły spontanicznego grupowania się elementów
w polu spostrzeżeniowym, opisane przez psychologów postaci
Źródło: opracowanie własne.
Oko zmienia punkt fiksacji (fixation point) mniej więcej cztery razy
w ciągu sekundy (Rayner, 1997). Każda kolejna fiksacja oka na materiale
bodźcowym trwa 200–225 ms, podczas gdy ruch sakkadowy gałek ocznych
w miejsce następnej fiksacji – 25–30 ms. Jednak już po zafiksowaniu
wzroku na materiale bodźcowym fotoreceptory odbierają informacje
wizualne bynajmniej nie w sposób nieprzerwany. Połowa czasu fiksacji to
okres refrakcji (odpoczynku) – oko jest na tyle „zmęczone” wysiłkiem
motorycznym związanym z wykonaniem ruchu sakkadowego, że
rejestrowanie danych zmysłowych nie jest w tym czasie możliwe. Zjawisko
to nosi nazwę tłumienia sakkadowego (McConkie, 1983). Okres refrakcji
trwa z reguły połowę czasu każdej fiksacji. Informacje wizualne są
kodowane przez oko jedynie przez mniej więcej 100 ms podczas każdej
fiksacji, co oznacza, że większość czasu pracy narządu wzroku jest
przeznaczona na funkcjonowanie motoryczne, a jedynie 400 ms każdej
sekundy jest czasem pobierania informacji o świecie zewnętrznym. Skoro
tak, to umiejętność prawidłowej fiksacji wzroku (w odpowiednim miejscu
przestrzeni) wydaje się kluczowym elementem procesu spostrzegania
i rozpoznawania obiektów. Wagę tej umiejętności szczególnie podkreślają
dane empiryczne dotyczące przebiegu czynności czytania.
7.6. Podsumowanie
Treść tego rozdziału powinna skłonić nas do wniosku, że świat nie jest taki,
jaki się wydaje. Przedmioty, zdarzenia lub inni ludzie – słowem, otaczająca
nas rzeczywistość – są źródłem bodźców, ponieważ emanują fizyczną
energią w postaci fal optycznych (wzrok), fal akustycznych (słuch),
cząsteczek chemicznych (smak, węch) lub ucisku mechanicznego (dotyk,
ból). Energia ta wyzwala zmiany w wyspecjalizowanych receptorach i daje
początek procesowi spostrzegania, którego istota sprowadza się do daleko
idących przekształceń pierwotnej energii zmysłowej niosącej informację.
Owo przetwarzanie informacji skutkuje powstaniem perceptu, czyli
spostrzeżenia. Nie znaczy to, że proces przetwarzania informacji w tym
momencie się kończy, ponieważ percepcja stanowi podłoże i konieczny
warunek innych procesów poznawczych, takich jak pamięć, myślenie,
przetwarzanie języka itd.
Pamięć
Natura pamięci
Rodzaje i funkcje pamięci
Blokowe (magazynowe) modele pamięci
Procesualne modele pamięci
Systemy pamięci przemijającej
Pamięć sensoryczna
Pamięć krótkotrwała
Pamięć robocza: wielokomponentowy model Baddeleya
Pamięć robocza: modele aktywacyjne Cowana i Oberauera
Model długotrwałej pamięci roboczej Ericssona i Kintscha
Neuronalny model pamięci krótkotrwałej Lismana
Pamięć prospektywna
Systemy pamięci trwałej
Pamięć semantyczna
Pamięć epizodyczna
Pamięć autobiograficzna
Podsumowanie
Pamięć jest zdolnością do przechowywania informacji i późniejszego ich wykorzystania. Z innego
punktu widzenia pamięć to zespół procesów poznawczych, zaangażowanych w nabywanie,
przechowywanie i późniejsze odtwarzanie informacji.
Pamięć przemijająca przechowuje informacje w sposób nietrwały, czyli w stosunkowo krótkim
czasie, co nie jest jej wadą, lecz wynika z pełnionych przez nią funkcji.
Pamięć trwała przechowuje informacje bez wyraźnych ograniczeń czasowych.
RAMKA 8.1
Paradygmat 8.2
Paradygmat 8.3
Paradygmat 8.4
Paradygmat 8.5
RAMKA 8.2
John Lisman i Marco Idiart (1995) oraz Ole Jensen i Lisman (1998)
zaproponowali oscylacyjny model pamięci krótkotrwałej. Łączy on
psychologiczne badania nad pamięcią z badaniami neurofizjologicznymi
i oferuje wyjaśnienie podstawowych własności pamięci roboczej przez
odwołanie się do mechanizmów neuronalnych. Głównym celem modelu
Lismana i współpracowników jest mechanistyczne wyjaśnienie
ograniczonej pojemności pamięci krótkotrwałej. Autorzy ujmują możliwy
mechanizm fizjologiczny tego zjawiska, nawiązując do aktywności prostej
sieci neuronowej, która składa się z neuronów pobudzających
i hamujących. Twierdzą, że podstawowym mechanizmem
odpowiedzialnym za utrzymywanie kilku porcji materiału w pamięci
krótkotrwałej są oscylacje neuronów w tej sieci. Występują one w dwóch
zakresach częstotliwości: niskim (theta–alfa, 5–12 Hz) i wysokim (gamma,
powyżej 30 Hz). Według modelu bodziec docierający do takiej sieci jest
kodowany jako aktywność grupy neuronów oscylujących w częstotliwości
gamma. Na przykład w zadaniu Sternberga (1966), do którego odwołują się
autorzy, po kolei prezentowane są cyfry do zapamiętania. Każda z nich,
według Lismana i Idiarta, jest kodowana w sieci neuronalnej w postaci
osobnej oscylacji neuronów o częstotliwości gamma. Oscylacje gamma są
wynikiem aktywności neuronów pobudzających oraz neuronów
hamujących, które są aktywowane przez neurony pobudzające. Aktywność
neuronów hamujących ma na celu odseparowanie od siebie poszczególnych
elementów reprezentowanych w sieci. Według modelu szybkie oscylacje
gamma są „zagnieżdżone” w wolnych oscylacjach theta, stanowiących
podstawowy rytm, w którym oscylują neurony pobudzające. Dane
neurofizjologiczne, na które powołują się autorzy modelu, pozwalają
stwierdzić, że rytm ten może być nadawany z zewnątrz, np. z układów
neuromodulacyjnych (w szczególności układu cholinergicznego). Rytm
theta pomaga utrzymać aktywność neuronów kodujących bodziec.
1. Rekin ma zęby.
2. Rekin ma płetwy.
3. Rekin oddycha.
4. Rekin ma koła.
Jak widać (zob. ryc. 4.4), każde pytanie w obu grupach – poza ostatnim –
dotyczy właściwości albo kategorii, umiejscowionych na różnych piętrach
w sieci hierarchicznej. Model Collinsa i Quilliana przewidywał, że czas
weryfikacji zdań będzie zależny od liczby poziomów, którą należy
„pokonać”, aby dotrzeć do potrzebnej nam informacji. Czas weryfikacji
zdania, które jest nieprawdziwe, miał być w związku tym zawsze
najdłuższy. Zakładano, że w tym przypadku odpowiedź negatywna
możliwa jest po zbadaniu wszystkich możliwości, tj. kiedy na żadnym
poziomie nie można znaleźć relacji łączącej rekina z kołem czy pojazdem.
Wydawało się, że przeszukiwanie powinno być w takim wypadku
wyczerpujące, w przeciwieństwie do samowygaszającego się
przeszukiwania w warunkach weryfikacji zdań prawdziwych. Wyniki
uzyskane przez Collinsa i Quilliana okazały się zadziwiająco zgodne
z oczekiwaniami: czas reakcji wzrastał liniowo wraz z liczbą
hipotetycznych poziomów w hierarchii, które należało pokonać. Przyrost
czasu wynosił średnio 75 ms na każdy poziom w hierarchii. Okazało się
ponadto, że czas weryfikacji zdań dotyczących predykatów (np. „Rekin ma
płetwy”) był dłuższy w porównaniu z oceną przynależności kategorialnej
(np. „Rekin jest rybą”). Wynik ten można było wyjaśnić, przyjmując, że
połączenia reprezentujące relacje predykatywne są wolniejsze niż
połączenia dotyczące przynależności kategorialnej. Niezgodny
z predykcjami okazał się natomiast czas reakcji w odniesieniu do zdań
fałszywych. Zamiast najdłuższy, był on najkrótszy, z czym teoria sieci
hierarchicznej w pierwszej wersji nie umiała sobie poradzić.
8.4. Podsumowanie
Treść niniejszego rozdziału pokazuje, że pamięć nie jest zjawiskiem
jednolitym – powinno się raczej mówić o różnych rodzajach pamięci,
a używając tego terminu, należy zawsze dodać, o jaki rodzaj chodzi. Czy
jednak ta różnorodność form i typów pamięci ma rzetelne pokrycie
w faktach empirycznych, czy też jest wyrazem słowotwórczej fantazji
psychologów? Nie negując faktu, że nauka niekiedy wymyśla terminy
puste lub zbędne (bo dublują istniejące określenia), nie wolno nam
zapomnieć, że o różnorodności rodzajów pamięci świadczą twarde dowody
empiryczne, które omówiliśmy w rozdziale. Dotyczą one w szczególności
zaburzeń i defektów pamięci. Owe zaburzenia, wynikające z urazów,
chorób degeneracyjnych układu nerwowego czy po prostu znanego nam
wszystkim zapominania, mają dość wybiórczy charakter. Nie wszystkie
formy pamięci zawodzą w jednakowym czasie i według tego samego
wzorca. Inna grupa dowodów to dane dotyczące korzystania z zasobów
pamięci. Zdarza się, że informacja, niedostępna przy użyciu jednego testu
lub procedury eksperymentalnej, staje się dostępna w innych warunkach
lub paradygmatach badawczych opracowanych z myślą o swoistych
rodzajach pamięci. Dotyczy to w szczególności pamięci niejawnej, której
zawartość ujawnia się dopiero przy zastosowaniu bardzo specyficznych
procedur odpamiętywania. Jeszcze inne fakty wiążą się z neuronalnym
podłożem pamięci, które jest przypuszczalnie rozproszone i swoiste dla
określonych rodzajów tej zdolności. Biorąc wszystkie te argumenty pod
uwagę, trzeba przyjąć, że człowiek dysponuje raczej pamięciami niż
pamięcią, chociaż niewątpliwie wiele z tych – skądinąd oddzielnych
systemów – współpracuje podczas wykonywania określonych zadań
poznawczych.
Rozdział 9
Czynności pamięciowe
Jak zauważył Oskar Wilde, „każdy skarży się na swoją pamięć, nikt na
swój rozsądek”. Można by na tej podstawie sądzić, że wszyscy ludzie są
rozsądni, a nikt nie ma dobrej pamięci. Byłby to jednak wniosek błędny,
wywiedziony z ukrytego założenia, że ludzie dysponują trafną samooceną.
Jeśli przyjąć, że samoocena nie zawsze jest trafna, a raczej służy
podtrzymaniu dobrego mniemania o sobie samym, aforyzm Wilde’a
nasuwa inną interpretację: ludzie mogą swobodnie skarżyć się na pamięć,
bo jej błędy nie przyczyniają się do obniżenia samooceny, a unikają skarg
na brak rozsądku, gdyż w ten sposób nie dopuszczają do siebie myśli,
jakoby im go brakowało.
9.2. Zapamiętywanie
RYCINA 9.3. Związek odstępu czasu między kolejnymi powtórzeniami materiału a liczbą
powtórzeń, konieczną do uzyskania kryterium jednego bezbłędnego powtórzenia całej listy
Źródło: opracowanie własne na podstawie Travis, 1937.
RYCINA 9.4. Poprawność odtworzenia słówek języka obcego jako funkcja przerw między
ponownym uczeniem się (14, 28 i 56 dni) i upływu czasu
Źródło: opracowanie własne na podstawie Bahrick i in., 1993.
Inne właściwości organizacji materiału wykryła Nancy Frost (1972).
Badaczka pokazywała uczestnikom eksperymentu zestaw rysunków,
informując ich, że będą badani albo testem rozpoznawania, albo testem
swobodnego odtwarzania. W przeprowadzonym teście rozpoznawania
w części rysunków zastosowano manipulację perspektywą: przedstawiały
one te same obiekty, które pokazywano w fazie zapamiętywania, ale ich
wygląd został zmieniony. Frost założyła, że gdyby kodowanie materiału
wizualnego miało charakter wyłącznie werbalny, nie powinno mieć
znaczenia, czy rysunek pokazywany w teście rozpoznawania jest
identyczny z pierwowzorem. Okazało się jednak, że czas reakcji
w przypadku rysunków przedstawiających obiekty w innej perspektywie
był dłuższy (średnio o 180 ms) niż w przypadku rysunków identycznych.
Wskazywało to na udział w procesie kodowania zarówno semantycznych,
jak i wizualnych cech materiału obrazkowego, ale tylko wówczas, gdy
osoby badane były przygotowane na test swobodnego odtwarzania. Kiedy
uprzedzono, że czeka je test rozpoznawania, czas reakcji na obiekty
pokazywane w oryginalnej i zmienionej perspektywie nie różnił się
istotnie. Sugerowałoby to selektywne, wyłącznie werbalne kodowanie
prezentowanych rysunków, zgodne z hipotezą „skąpca poznawczego”
Susan Fiske i Shelley Taylor (1991; zob. rozdz. 1). Zapamiętanie nazw
obiektów stanowi minimum, które wystarcza do efektywnego rozpoznania,
podczas gdy mogłoby okazać się nieefektywne w swobodnym
odpamiętaniu. Zatem ucząc się pod kątem testu swobodnego odtwarzania
(np. egzaminu ustnego), zapamiętujemy materiał wieloaspektowo, podczas
gdy do rozpoznawania (np. testu wyboru) kodujemy minimalną liczbę
informacji, która pozwoli nam na różnicowanie treści znanych od
nieznanych.
W innym eksperymencie Frost zaprezentowała 16 rysunków, należących do
czterech kategorii semantycznych: ubrań, zwierząt, pojazdów i mebli.
Ponadto każdy z czterech rysunków w danej kategorii został poddany
specyficznej manipulacji, polegającej na zmianie sposobu jego wizualnej
prezentacji. Rysunki były eksponowane pionowo bądź poziomo oraz
pochylone w lewą lub w prawą stronę. Wyniki Frost wskazywały, że
odpamiętywanie może się odbywać z uwzględnieniem zarówno klucza
semantycznego, jak i wizualnego. Oznacza to, że oba typy wskazówek
muszą być wykorzystane w trakcie kodowania materiału.
Wskazówka Słowo
Head LIGHT
Grasp BABY
Słowo Skojarzenia
3. Zaznacz te słowa wśród twoich skojarzeń, które na pierwszej liście były napisane dużymi
literami.
Grasp
Head
grup osób badanych, które miały zapamiętać treść wykładu o długości 2100
słów. Wykład mógł być albo wygłoszony przez wykładowcę, albo
odczytany samodzielnie przez osoby badane. Jedna grupa przećwiczona
została wcześniej w stosowaniu metody miejsc i przyswoiła sobie listę 20
charakterystycznych miejsc w swoim mieście. W tych miejscach miała
ulokować kluczowe elementy wykładu. Grupa kontrolna nie została
poddana treningowi użycia tej metody. Poziom odtworzenia istotnych
informacji z tekstu okazał się wyższy w grupie eksperymentalnej, przy
czym różnica ta była większa w wypadku wykładu wygłoszonego niż
samodzielnie odczytanego.
RYCINA 9.7. Technika mapy poznawczej w zastosowaniu treści podręcznika poświęconych
czynnikom sprzyjającym i przeszkadzającym w zapamiętywaniu
Źródło: opracowanie własne.
9.3. Przechowywanie
9.3.1. Zapominanie
Hermann Ebbinghaus, w badaniach opisanych w przywoływanej już pracy
z 1885 r., wykrył, że proces zapominania listy bezsensownych sylab
przebiega bardzo szybko (ryc. 9.8). Większość materiału tracimy już po
kilkudziesięciu minutach, po czym tempo zapominania zdecydowanie
maleje. Nieco inaczej przedstawiają się wyniki badań nad zapominaniem,
jeśli zapamiętywany materiał jest sensowny. Jednym z pierwszych badaczy,
który dokonał precyzyjnego porównania tempa zapominania informacji
w zależności od jej sensowności, był Philip Ballard (1913). Badacz
zastosował trzy rodzaje materiału: fragment prozy, wiersz i – kontrolnie –
bezsensowne sylaby. Manipulował również odstępem czasu między
momentem zakończenia uczenia się a testem odtworzenia (w przedziale 1–
7 dni). Specyfiką jego badania było wprowadzenie ograniczenia czasowego
w trakcie uczenia się, które powodowało, że badani nie byli w stanie
w pełni opanować materiału. Po upływie tygodnia poprawność
odpamiętania bezsensownych sylab zmniejszyła się do 70% w stosunku do
poziomu wyjściowego, ustalonego po zakończeniu uczenia się (100% nie
oznaczało więc bezbłędnego przypomnienia całego materiału). W wypadku
materiału sensownego, czyli prozy i wiersza, po tygodniu badani
odtwarzali poprawnie około 90%, również w stosunku do poziomu
wyjściowego.
RYCINA 9.8. Poprawność odtworzenia listy bezsensownych sylab jako funkcja czasu
przechowywania
Źródło: opracowanie własne na podstawie Ebbinghaus, 1885/1913.
9.4. Odpamiętywanie
Wskazówki dostępu mogą mieć charakter nie tylko zewnętrzny, lecz także
wewnętrzny. Zdecydowana część wskazówek wykorzystywanych
w mnemotechnikach jest właśnie tego typu: nowy materiał należy odnieść
do nabytej wcześniej wiedzy, która jest źródłem wskazówek wydobycia
(zob. podrozdz. 9.2.4). Innego rodzaju wskazówką naprowadzającą przy
odpamiętywaniu może być nastrój. Claudia Ucros (1989), dokonując
przeglądu różnych badań, stwierdziła trzy rodzaje wpływu nastroju na
odpamiętywanie. Po pierwsze, poprawność odpamiętania jest tym wyższa,
im większa jest zgodność nastroju w momencie kodowania i odtwarzania
(np. Bower, 1981). Efekt kontekstu wydaje się zatem obejmować nie tylko
wskazówki zewnętrzne, lecz także wewnętrzne, w tym emocjonalne. Po
drugie, pozytywny nastrój na ogół sprzyja zapamiętywaniu, przy czym –
i to po trzecie – efekt ten jest silniejszy, kiedy materiał pamięciowy ma
bardziej osobisty charakter (np. Yuille, Cutshall, 1986). Chodzi wówczas
raczej o dane epizodyczne lub autobiograficzne niż o „neutralną” wiedzę
ogólną.
Paradygmat 9.1
9.5.3. Amnezja
Amnezja jest czasowym albo trwałym zaburzeniem jednego bądź wielu
systemów pamięciowych. Może być skutkiem urazu głowy albo innego
uszkodzenia mózgu wywołanego np. udarem, infekcją, działaniem toksyn
lub po prostu efektem starzenia się. Podstawowe objawy amnezji
sprowadzają się do trudności w zapamiętywaniu i odpamiętywaniu
informacji. W zależności od chronologii zdarzeń nią objętych wyróżnia się
dwa typy: amnezję następczą i wsteczną. Pierwsza dotyczy ograniczenia
albo utraty zdolności zapamiętywania nowych danych, a druga –
odpamiętywania informacji, które zostały nabyte przed wystąpieniem
czynnika powodującego amnezję.
9.6. Podsumowanie
Jedną z charakterystycznych cech psychologii jest koncentracja na błędach
i innych przejawach niedoskonałości umysłu ludzkiego.
Z metodologicznego punktu widzenia należy taką postawę uznać za
pożądaną, a w każdym razie zrozumiałą, bo dzięki błędom i usterkom
łatwiej nam dostrzec i zrozumieć budowę oraz sposób funkcjonowania
dowolnego mechanizmu, nie wyłączając umysłu i tworzących go struktur.
Ubocznym skutkiem koncentracji na błędach jest jednak łatwość, z jaką
przychodzi nam podawanie w wątpliwość skuteczności badanych
mechanizmów poznawczych. Pamięć jest pod tym względem szczególnie
narażona na krytykę, o czym może świadczyć przytoczony na początku
rozdziału aforyzm Oskara Wilde’a. Tymczasem, wytykając pamięci
grzechy i słabości, nie doceniamy tego, jak olbrzymią i w zasadzie
bezbłędną pracę wykonują dla nas różne systemy przechowywania
informacji. Poprawne odpamiętanie danych jest bardzo często
automatyczne i bezwysiłkowe, przez co trudne do zauważenia i docenienia.
Na przykład podczas mówienia bezustannie i bez większych przeszkód
czerpiemy z zasobów pamięci semantycznej, przez co prawie zawsze i bez
wysiłku znajdujemy pożądane słowo. Dopiero stosunkowo rzadkie
przypadki braku dostępu do zasobów pamięci, np. niemożność
przypomnienia sobie znanego nam słowa, i związane z tym próby
wysiłkowego przywołania brakujących informacji sprawiają, że zaczynamy
pamięci wytykać jej zawodność. Traktujemy naszą pamięć jak niewolnika,
który pracuje ponad siły, za co nie usłyszy dobrego słowa, ale od czasu do
czasu nie jest w stanie podołać stawianym mu zadaniom, i wtedy jest
karcony. W rozdziale tym omówiliśmy procesy pamięciowe, niezbędne
w poprawnym funkcjonowaniu pamięci – zapamiętywanie,
przechowywanie i odpamiętywanie. Przedstawiliśmy również zjawiska
świadczące o zawodności pamięci – powstawanie fałszywych wspomnień,
pamięć tunelową i amnezję – które także rzucają światło na mechanizmy
funkcjonowania tej zdolności naszego umysłu. Na szczęście psychologia
poznawcza, oprócz katalogowania przypadków zawodności pamięci
i badania kryjących się za nimi mechanizmów, oferuje też całkiem sporą
i przyrastającą porcję wiedzy na temat sposobów wspomagania pamięci
oraz zapobiegania jej defektom.
Myślenie i rozumowanie
Istota myślenia
Rodzaje myślenia
Myślenie autystyczne i realistyczne
Myślenie produktywne i reproduktywne
Myślenie twórcze i odtwórcze
Myślenie krytyczne
Od myślenia sensoryczno-motorycznego do postformalnego
Teorie myślenia
Teoria Berlyne’a
Teoria Barona
Struktura myślenia
Elementy struktury myślenia
Operacje i strategie
Reguły, algorytmy i heurystyki
Myślenie a inne złożone procesy poznawcze
Rozumowanie dedukcyjne
Dedukcja i indukcja
Rozumowanie sylogistyczne
Błędy rozumowania sylogistycznego
Wpływ wiedzy i kontekstu na rozumowanie sylogistyczne
Rozumowanie warunkowe
Istota rozumowania warunkowego
Błędy rozumowania warunkowego
Wpływ wiedzy i kontekstu na rozumowanie warunkowe
Teorie rozumowania dedukcyjnego
Teoria abstrakcyjnych reguł
Teoria modeli umysłowych
Rozumowanie indukcyjne
Testowanie hipotez
Rozumowanie przez analogię
Inne rodzaje rozumowania
Rozumowanie probabilistyczne
Rozumowanie nieformalne
Podsumowanie
Myślenie to proces łączenia elementów poznawczej reprezentacji świata (obrazów, pojęć lub sądów)
w dłuższe ciągi. Tak utworzony ciąg zastępuje realne, obserwowalne zachowanie w rzeczywistym
świecie fizycznym lub społecznym, uwalniając nas od konieczności ponoszenia natychmiastowych
skutków własnych działań.
Rozumowanie jest procesem formułowania wniosku na podstawie przesłanek, czyli
z wykorzystaniem uprzednio nabytej lub powszechnie dostępnej wiedzy.
– Mam trzech synów. Ile lat ma każdy z nich, jeśli iloczyn wieku
każdego z nich wynosi 36? Wiesz? – zwrócił się do rachmistrza.
– Nie.
– A ty? – zapytał filozofa ślepca.
– Nie.
– Więc wam podpowiem: suma wieku każdego z nich wynosi tyle, ile
okien ma ten pałac naprzeciwko. – Zapytał rachmistrza: Wiesz?
– Nie.
– A ty? – zapytał filozofa ślepca.
– Nie.
– Dam wam więc ostatnią wskazówkę: mój najstarszy syn nosi
niebieski turban. – Po czym znowu zwrócił się do rachmistrza: Wiesz?
– Nie.
– A ty? – zapytał filozofa ślepca.
– Tak.
Jest tylko jeden sposób rozwiązania tej zagadki, który nie wymagałby
myślenia: wystarczy przewrócić kartkę i po prostu o nim przeczytać.
W każdym innym przypadku, nawet jeśli nie uda się znaleźć odpowiedzi,
poczynione próby będą angażować procesy myślenia i rozumowania.
Rozwiązywanie zagadki należy rozpocząć od rozpisania wszystkich trójek
liczb, których iloczyn wynosi 36 (pierwsza wskazówka). Jest ich aż osiem
(tab. 10.1), zatem pierwsza wskazówka nie wystarcza do rozwiązania
zagadki. Kolejna podpowiedź może wydać się nieco zaskakująca,
szczególnie że czytelnik – podobnie jak ślepiec – nie może policzyć okien
pałacu. Filozof ślepiec zapewne zadał sobie pytanie, dlaczego rachmistrz
nie może udzielić odpowiedzi, skoro policzył okna pałacu. Wniosek: nawet
jeśli się je policzy, nadal nie sposób rozstrzygnąć, który z ośmiu układów
trzech liczb jest rozwiązaniem zagadki. Jest to cenna informacja dla
filozofa ślepca, pozwalająca na odrzucenie wszystkich kombinacji dających
iloczyn 36, z wyjątkiem dwóch: 1, 6, 6 oraz 2, 2, 9. W obu przypadkach
iloczyn jest równy 36, a suma wynosi 13. Trzecia wskazówka okazuje się
wystarczająca dla filozofa-ślepca, chociaż nie ma ona postaci rachunkowej
i zapewne dlatego nic nie daje rachmistrzowi. Wskazówka, że najstarszy
syn nosi niebieski turban, pozwala na wyeliminowanie układu 1, 6, 6, w tej
sytuacji bowiem jest dwóch najstarszych synów, a wskazówka mówi tylko
o jednym. Poprawna jest więc odpowiedź: 2, 2, 9, co też odgadł filozof
ślepiec.
1, 1, 36 38
1, 2, 18 21
1, 4, 9 14
1, 3, 12 16
1, 6, 6 13
2, 2, 9 13
2, 3, 6 11
3, 3, 4 10
Zdarza się, że nawet trafna selekcja dowodów nie wystarcza, aby dokonać
poprawnej ewaluacji możliwości. Szczególnie w przypadku bardziej
złożonych problemów (np. zakup domu), kiedy istotnych dowodów jest
wiele, potrzebujemy jeszcze przypisania im wagi, która określa „moc”
danego dowodu. Niekiedy wagi wskazówek są dość obiektywne, jak
w przypadku znaczenia różnych czynników dla oceny wartości akcji firm
notowanych na giełdzie. Innym razem, jak wtedy, kiedy kupujemy dom,
wagi mają charakter bardziej subiektywny. Na przykład komuś może
bardziej zależeć na dobrej lokalizacji niż liczbie pokoi. W obu przypadkach
trafne decyzje podejmowane są z zastosowaniem tzw. strategii
kompensacyjnych (zob. rozdz. 12), w których uwzględnia się sporą liczbę
wzajemnie uzupełniających lub kompensujących się wskazówek, a także
ich obiektywne lub subiektywne wagi. Na przykład brak możliwości
realizacji celu w postaci wspaniałego ogrodu wokół domu może zostać
skompensowany atrakcyjną ceną i lokalizacją tegoż, jeśli te wskazówki
odpowiednio dużo „ważą” w naszej ocenie.
więc
Wniosek ten jest prawidłowy w świetle reguł logiki, ale nie jest zgodny
z prawdą. Należy zatem odróżnić logiczną poprawność wniosku,
wynikającą z rzetelnego zastosowania reguł wnioskowania, od jego
prawdziwości, czyli zgodności ze stanem faktycznym. Prawdziwość
wniosku zależy od prawdziwości przesłanek. Uwzględniając możliwość
oddychania pod wodą z użyciem akwalungu, pierwszą przesłankę należy
uznać za nieprawdziwą, podobnie jak wniosek, mimo poprawności samego
rozumowania. Możliwa rozbieżność między logiczną rzetelnością
a materialną prawdziwością wniosku dedukcyjnego wynika z faktu, że
rozumowanie dedukcyjne nie prowadzi do uzyskania nowej wiedzy. Cała
wiedza zawarta jest bowiem w przesłankach, a rozumowanie ma na celu jej
wydobycie i zwerbalizowanie.
Niektóre A są B.
(1) Wszystkie A są B.
(2) Żadne A nie są B.
(3) Niektóre A nie są B.
(4) Wszystkie B są A.
(5) Niektóre B są A.
(6) Żadne B nie są A.
(7) Niektóre B nie są A.
Drugi typ zadań polega na tym, że osoba badana otrzymuje przesłanki, a jej
zadanie polega na samodzielnym generowaniu wniosków. W obu
przypadkach punktem odniesienia są reguły logiki formalnej, które
pozwalają na ocenę poprawności wnioskowania oraz dają wgląd
w specyficzne błędy, które popełniają osoby badane. Czytelników
zainteresowanych systematycznym, a zarazem przystępnym przeglądem
tych reguł odsyłamy do polskojęzycznych prac Marii Lewickiej (1993,
2000) oraz bardzo bogatej, obcojęzycznej literatury przedmiotu (np. Evans,
1982, 2002; Evans, Newstead, Byrne, 1993; Manktelow, 1999; Wason,
Johnson-Laird, 1972).
Rozumowanie indukcyjne (induction) – polega na wyciąganiu wniosków na podstawie niepełnego
zbioru przesłanek, zgromadzonych np. na drodze obserwacji. Analiza przesłanek prowadzi do
wykrycia i sformułowania pewnych prawidłowości ogólnych, które są przedmiotem twierdzenia.
W trakcie rozumowania indukcyjnego wychodzimy poza posiadane informacje i formułujemy
wnioski, które zawierają niedostępną wcześniej wiedzę.
Wszystkie A są B,
wszystkie C są B,
zatem wszystkie A są C.
Albo
Wszystkie A są B,
niektóre C nie są B,
zatem niektóre C nie są A;
Niektóre A nie są B,
wszystkie B są C,
zatem niektóre A nie są C.
Wniosek jest błędny, ale równie dobrze przewidują go obie hipotezy. Błąd
taki może wynikać zarówno z efektu atmosfery (kwantyfikator
szczegółowy jednej z przesłanek wytwarza „atmosferę szczegółowości”
i skłania do akceptacji wniosku operującego tym samym kwantyfikatorem),
jak i z efektu inwersji (jeśli „wszystkie C są B”, to „wszystkie B są C”).
(1) Żadne papierosy nie są tanie, (2) Żadne używki nie są tanie,
niektóre używki są tanie, niektóre papierosy są tanie,
zatem niektóre używki nie są papierosami. zatem niektóre papierosy nie są używkami.
(3) Żadne używki nie są tanie, (4) Żadne papierosy nie są tanie,
niektóre papierosy są tanie, niektóre używki są tanie,
zatem niektóre używki nie są papierosami. zatem niektóre papierosy nie są używkami.
Paradygmat 10.1
RAMKA 10.1
Zarazem jednak, jak wykazała Ruth Byrne (1989b), kontekst może się
przyczynić do zmniejszenia poprawności rozumowania. W jej badaniach
z użyciem implikacji uczestnicy otrzymywali zadania tego typu:
RAMKA 10.2
Można sobie więc zadać pytanie, czy pojęcie rozumowania jest uprawnione
w odniesieniu do obu z nich, sugeruje ono bowiem, że dedukcja i indukcja
mają coś wspólnego. Tego zdania są np. James Waltz i współpracownicy
(1999). Na podstawie badań fMRI autorzy stwierdzili, że te dwie formy
rozumowania mają pewną wspólną cechę. Wymagają tzw. integracji
relacyjnej (relational integration), rozumianej jako zestawianie relacji
między obiektami albo zdarzeniami i manipulowanie nimi. Tego typu
procesy angażowane są zarówno w rozumowaniu dedukcyjnym, jak
i indukcyjnym, stanowiąc tym samym ich wspólne podłoże poznawcze
(ramka 10.3).
RAMKA 10.3
10.10. Podsumowanie
Problematyka myślenia należy do najstarszych obszarów badań
psychologicznych, co pośrednio świadczy o jej doniosłości. Być może
znaczenie, jakie psychologowie nadawali zawsze tym zjawiskom, wynika
z przekonania, niekoniecznie wprost formułowanego, że zdolność do
myślenia jest jednym z wyróżników człowieka jako gatunku i wyrazem
jego inteligencji. Rzeczywiście, inteligencja ujawnia się w myśleniu
i wręcz może być zdefiniowana jako zdolność do radzenia sobie z trudnymi
problemami dzięki procesom myślenia i rozumowania.
Czy myślenie jest zdolnością wyłącznie ludzką, tego nie wiemy. Wiadomo,
że niektóre gatunki zwierząt są zdolne do rozwiązywania problemów, pod
warunkiem że są nie tylko stosunkowo proste jak na możliwości człowieka,
lecz także dostosowane do typowych dla danego gatunku warunków
środowiska. W każdym razie, nawet jeśli zwierzęta też niekiedy myślą,
dopiero w przypadku człowieka można mówić o nadzwyczajnej złożoności
i wydajności tych procesów. I tylko człowiek jest zdolny do myślenia
abstrakcyjnego – zresztą ta umiejętność pojawia się dopiero po dłuższym
okresie rozwoju poznawczego. Z tego punktu widzenia teza o szczególnej
roli myślenia w procesie „uczłowieczenia ludzi” wydaje się całkiem
rozsądna.
Rozdział 11
Rozwiązywanie problemów
DONALD
+ GERALD
= ROBERT.
526 485
+ 197 485
= 723 970.
RAMKA 11.1
Rozwiąż te problemy
1. Który trójkąt ma większą powierzchnię – pierwszy o bokach równych
200, 300 i 400 cm czy drugi o bokach równych 300, 400 i 700 cm
(Sloane, MacHale, 1997)?
3. Rozwiąż równanie: X = 3 + (3 × 2) + (3 × 2 × 4)
RAMKA 11.2
Rozwiąż te problemy
1. Anagram: odpowiednio przestawiając litery, utwórz sensowne słowo.
CJIEPYZRAL
1 2 8 3 4 6 5 6...
1 21 127 3 100
2 14 163 25 99
3 18 43 10 5
4 9 42 6 21
5 20 59 4 31
6 23 49 3 20
7 15 39 3 18
8 28 76 3 25
9 18 48 4 22
10 14 36 8 6
RAMKA 11.3
Paradygmat 11.1
RAMKA 11.4
Analiza środków i celów w problemie dzbanów
Luchinsa
Atwood i Polson (1976) użyli pewnej odmiany problemu dzbanów
(Luchins, Luchins, 1959). Osoba badana, dysponując trzema dzbanami
o różnej pojemności, miała za zadanie przelać dokładnie połowę
objętości największego dzbana (A) do średniego (B), posługując się
dodatkowo małym naczyniem (C). Przykładowo, jeśli pojemność
dzbanów wynosiła 8, 5 i 3 (stan wyjściowy), a tylko pierwszy był pełny,
to cel sprowadzał się do pozostawienia w dzbanach A i B po cztery
jednostki wody (tab. 11.2).
TABELA 11.2. Problem dzbanów wody. Poszczególne stany opisane są dwiema liczbami,
z których pierwsza oznacza pojemność dzbana, a druga ilość wody, która znajduje się w nim
w danym momencie.
tab
Źródło: opracowanie własne.
2. Jeśli jakiś krążek blokuje krążek, który chcesz przenieść, bo znajduje się
albo nad nim, albo na drążku docelowym, znajdź największy z nich i obierz
za podcel umieszczenie go na innym drążku, różnym zarówno od
wyjściowego, jak i docelowego. Poprzedni cel zachowaj jako cel
nadrzędny względem aktualnie obranego. Jeśli to konieczne, wykonaj ten
punkt wielokrotnie, aż do momentu uwolnienia krążka, o którym mowa
w punkcie 1.
Paradygmat 11.2
RAMKA 11.5
Problemy Wickelgrena
Problem „uszkodzonej” szachownicy (Wickelgren, 1974).
RAMKA 11.6
Analityczna 1 1 1 0,2
Syntetyczna 1 1 0,4 1
Dobór strategii zależny jest nie tylko od typu zadania, lecz także od profilu
zdolności jednostki. Szczególnie w przypadku strategii ogólnego
zastosowania o ich wyborze decydować mogą w większym stopniu poziom
inteligencji (Kossowska, Nęcka, 1994) i związane z nim dyspozycje
systemu poznawczego, np. pojemna pamięć robocza (Conway, Cowan,
Bunting, Therriault, Minkoff, 2002; Nęcka, Orzechowski, 2005),
a w przypadku problemów dnia codziennego – profil osobowości (Cantor,
Harlow, 1994). Przykładowo Małgorzata Kossowska i Edward Nęcka
(1994) badali strategie używane w rozumowaniu przez analogię. Autorzy
wykryli dwie jakościowo odmienne strategie: analityczną i holistyczną.
Strategia analityczna polegała na względnie długim, sekwencyjnym
i głębokim kodowaniu poszczególnych członów analogii i relatywnie
szybkim oraz poprawnym wyborze rozwiązania, strategia holistyczna zaś –
na szybkim, całościowym i płytkim kodowaniu kolejnych członów
i wolnym oraz mniej poprawnym wyborze rozwiązania. Wykryto
preferencję strategii analitycznej u osób o wysokim poziomie inteligencji.
Autorzy wyjaśnili ten rezultat w odniesieniu do wymagań poznawczych,
jakie stawia strategia analityczna. Mianowicie uznali, że jest ona bardziej
wymagająca dla pamięci roboczej, ze względu na konieczność
przetworzenia i przechowania większej liczby informacji. A skoro poziom
inteligencji koreluje dodatnio z pojemnością pamięci roboczej, być może
właśnie owa pojemność, a nie inteligencja, jest przyczynowo związana
z użyciem określonej strategii. Inne badania dowodzą związku inteligencji
nie tyle z preferencją wobec określonych strategii, ile z plastycznością ich
doboru i użycia (np. Hunt, 1980; Kyllonen, Lohman, Woltz, 1984;
MacLeod, Hunt, Mathews, 1978; Mathews, Hunt, MacLeod, 1980).
Paradygmat 11.3
11.6.2. Nastawienie
Efekt nastawienia (set effect) albo efekt mechanizacji myślenia (mechanization of thought) –
schematyczne podejście do problemu, zgodne z wcześniej wytworzonym sposobem jego
reprezentacji lub utrwaloną procedurą poszukiwania rozwiązania. Skutki transferu uprzednich
doświadczeń są negatywne, gdy struktura głęboka problemów jest różna.
11.7.3. Inkubacja
Inkubacja (incubation) – spontaniczna albo celowa przerwa w rozwiązywaniu problemu,
pojawiająca się po doświadczeniu impasu w poszukiwaniu rozwiązania, poprzedzająca wgląd;
pozwala na włączenie dodatkowych danych do przestrzeni problemu oraz osłabia działanie
przeszkód w procesie poszukiwania rozwiązania.
11.7.4. Wgląd
Wgląd to pojawiająca się nagle zmiana percepcji problemu, prowadząca do
zrozumienia jego istoty. Jak wspomniano, przerwa inkubacyjna może
prowadzić do rozwiązania problemu przez wgląd. Tego typu rozwiązanie
ma dwie charakterystyczne cechy: wgląd wiąże się z zasadniczą zmianą
struktury problemu i doświadczeniem nagłości rozwiązania. Jeśli
poprzedza go faza inkubacji, towarzyszy mu wcześniejsze doświadczenie
impasu czy nawet porażki. Nagłość wglądu stwierdzano zarówno
w zeznaniach introspekcyjnych wybitnych twórców (Ghiselin, 1952;
Hadamard, 1964; Shaw, 1989, 1994), jak i w badaniach empirycznych
(Metcalfe, 1986; Metcalfe, Wiebe, 1987). Janet Metcalfe i David Wiebe
(1987) użyli w swoich badaniach dwóch typów problemów: rutynowych
(zadania algebraiczne) i wymagających wglądu. W trakcie rozwiązywania
osoby badane systematycznie oceniały na skali „ciepło–zimno”
subiektywne poczucie odległości od poprawnego rozwiązania.
W przypadku problemów algebraicznych badani relacjonowali dość
jednostajne poczucie zbliżania się do rozwiązania, natomiast w przypadku
problemów wymagających wglądu przez większość czasu odczuwali
„zimno”, po czym zaraz przed ich rozwiązaniem nagle pojawiało się
poczucie „ciepła”. Autorzy wyciągnęli na tej podstawie wniosek
o nieciągłej naturze procesu rozwiązywania problemów wymagających
wglądu.
11.9. Podsumowanie
W rozdziale skupiono się na poznawczych mechanizmach złożonej
aktywności umysłowej, jaką jest rozwiązywanie problemów. Klasyfikacji
różnych rodzajów problemów dokonano ze względu na cechy i strukturę
problemów oraz wymagania poznawcze, stawiane rozwiązującej je osobie.
W obu przypadkach próbowano wskazać różne mechanizmy poznawcze,
leżące u podłoża zmagania się z rozmaitymi rodzajami problemów.
Opisano również różne sposoby ich rozwiązywania, zwane heurystykami,
oraz najważniejsze czynniki wspomagające i hamujące ten proces.
Wydawanie sądów
Tendencyjność w wydawaniu sądów
Ignorowanie proporcji podstawowej
Wady i zalety heurystyk
Sądy intuicyjne
Podejmowanie decyzji
Klasyczna teoria decyzji
Strategie w podejmowaniu decyzji
Teoria perspektywy
Proces podejmowania decyzji
Podsumowanie
Sądem nazywamy wyrażone wprost twierdzenie na temat pewnego stanu rzeczy, np. przynależności
obiektu do określonej kategorii, posiadania przez obiekt jakiejś cechy, wartości danego obiektu
z punktu widzenia pewnego kryterium, a także prawdopodobieństwa wystąpienia danego zdarzenia.
Decyzja to wybór jednej możliwości działania spośród co najmniej dwóch opcji. Samo dokonanie
wyboru nie oznacza jeszcze podjęcia działania, ponieważ do tego potrzebna jest skuteczna
motywacja oraz obiektywne możliwości realizacji decyzji.
123456
czy
3 8 17 29 35 42?
Paradygmat 12.1
Problem Lindy
A. 8 × 7 × 6 × 5 × 4 × 3 × 2 × 1
B. 1 × 2 × 3 × 4 × 5 × 6 × 7 × 8.
RAMKA 12.1
1 2 3 4 5 6,
5 7 4 8?
RAMKA 12.2
Jeśli badani nie byli w stanie wykryć, które słowo kojarzy się
z pozostałymi elementami trójki, mieli za zadanie wskazać, która
z dwóch trójek tworzących daną pozycję testu w ogóle ma rozwiązanie.
Był to kluczowy element procedury, dzięki któremu możliwe było
stwierdzenie, czy ludzie dysponują intuicyjnymi przeczuciami, trudnymi
do uzasadnienia sądami na temat wewnętrznej spójności prezentowanego
im materiału. Wychodząc z założenia, że pierwszym etapem tworzenia
się intuicyjnego sądu jest naprowadzanie, czyli aktywizacja właściwych
elementów sieci semantycznej, autorzy skonstruowali tzw. wskaźnik
naprowadzania. Zdefiniowali go jako proporcję liczby trójek
wskazanych jako spójne do ogólnej liczby trójek, dla których nie
znaleziono rozwiązania. Jeżeli wskaźnik naprowadzania był bliski 0,50,
oznaczał, że osoby badane nie dysponowały żadnym intuicyjnym
wyczuciem koherencji. Natomiast jeśli wskaźnik ten przekraczał
znacząco wartość 0,50, autorzy wnioskowali o istnieniu intuicyjnych,
trudnych do uzasadnienia i zwerbalizowania sądów na temat ukrytego
sensu wiążącego trzy oderwane słowa.
Badani oceniali ponadto na trójstopniowej skali (0, 1 i 2) poziom
zaufania do własnych sądów. Autorzy mogli dzięki temu stwierdzić, czy
uczestnicy eksperymentów ufają swym intuicyjnym przeczuciom.
Okazało się, że pełne zaufanie (poziom 2) deklarowano stosunkowo
rzadko (9–16 razy na 100 przypadków). Znacznie częściej deklarowano
zaufanie na poziomie niskim (ocena 0) lub średnim (ocena 1). Mimo to
zaobserwowano pozytywną korelację (średnio na poziomie +0,23)
między szacowanym poziomem zaufania do własnych sądów a wartością
wskaźnika naprowadzania. Oznacza to, że im częściej osoby badane były
pewne swojego sądu, tym częściej trafnie wskazywały koherentną triadę,
mimo że nie były w stanie wskazać jej rozwiązania. Co więcej, wskaźnik
naprowadzania okazał się istotnie wyższy od poziomu przypadku
(równego 0,50), przybierając średnią wartość 0,58 w odniesieniu do
wszystkich grup eksperymentalnych. Badani częściej niż przypadkowo
wskazywali, która triada jest wewnętrznie spójna, choć najczęściej nie
wiedzieli, dlaczego jest spójna. Wskaźnik naprowadzania był jednak
istotnie wyższy od poziomu przypadku tylko wtedy, gdy deklarowane
zaufanie do własnego sądu było co najmniej średnie. Niski poziom
zaufania szedł zwykle w parze ze wskaźnikiem naprowadzania bliskim
0,50. Uczestnicy tego eksperymentu nie reagowali więc całkiem „na
ślepo”. Mogli nie wiedzieć, dlaczego niektóre trójki słów wydają im się
sensowne, ale mieli przynajmniej słabe, subiektywne przekonanie, że się
nie mylą.
Łatwo zauważyć, że ludzie nie podejmują decyzji w ten sposób. KTD jest
więc modelem normatywnym, a nie deskryptywnym, to znaczy podaje
przepis na racjonalną decyzję, ale nie opisuje rzeczywistych zachowań
ludzi w sytuacjach wymagających jej podjęcia. Przede wszystkim model
ten operuje absolutnymi wartościami prawdopodobieństwa i zysku (lub
straty), podczas gdy wartości te są względne. Ktoś może uznać, że i tak nie
dostanie podwyżki, bo ma pecha, a ktoś inny będzie przekonany, że
podwyżkę dostanie na pewno. W obu przypadkach teoretyczne
prawdopodobieństwo otrzymania podwyżki (0,20 lub 0,10) będzie
zasadniczo różne – bliskie zera w pierwszym przypadku, a bliskie
pewności – w drugim. Ponadto subiektywnej ocenie podlega też wartość
oczekiwanego zysku lub straty. Czym innym jest 10-procentowa podwyżka
dla kogoś, komu proponuje się wyjściowe zarobki na poziomie 1000 zł,
a czym innym dla kogoś, kto ma zarabiać dwu- lub trzykrotnie więcej.
Subiektywna użyteczność pewnej sumy pieniędzy, czy to wyrażona
w procentach, czy to w wartościach bezwzględnych, nie jest tym samym,
co obiektywna wartość nabywcza tej sumy. Wreszcie samo pojęcie
prawdopodobieństwa nie jest tutaj jasne. Na jakiej podstawie pracodawca
może określić szansę podwyżki jako 0,10 lub 0,20? Nie ma żadnych
teoretycznych podstaw, aby te wartości jakoś wyliczyć, tak jak wylicza się
szansę wylosowania szóstki w totolotka lub otrzymania orła w rzucie
monetą. Można by w takim razie odwołać się do częstości zdarzeń, np. do
tego, że dany pracodawca do tej pory dawał podwyżkę jednemu
pracownikowi na pięciu (0,20) lub jednemu na dziesięciu (0,10).
Wymagałoby to jednak wykorzystania stosownych danych i wykonania
obliczeń statystycznych, czego zwykle się nie robi. Podawane wartości
prawdopodobieństwa są więc w istocie przybliżoną szansą otrzymania
podwyżki, szacowaną przez pracodawcę intuicyjnie i równie intuicyjnie
odbieraną przez kandydata, a nie prawdopodobieństwem w technicznym
znaczeniu tego pojęcia. A tylko technicznie rozumiane
prawdopodobieństwo pozwala posługiwać się obliczeniami.
Autorem jednej z pierwszych prac na ten temat jest Herbert Simon8 (1947).
Opisał w niej tzw. strategię zadowolenia (satisficing strategy), polegającą
na przeglądaniu dostępnych opcji w przypadkowym porządku i wyborze
pierwszej, która nas wystarczająco satysfakcjonuje. Zdaniem Simona
ludzie nie porównują wszystkich dostępnych opcji pod każdym możliwym
względem w celu wybrania najlepszej, bo najczęściej jest to niewykonalne
z powodu braku czasu, wiedzy lub wolnych zasobów poznawczych. Autor
odwołuje się tu do swojej koncepcji ograniczonej racjonalności umysłu
ludzkiego (bounded rationality; Simon, 1956, 1982). Wyobraźmy sobie
wybór partnera życiowego (męża, żony) według zasad KTD lub modelu
kompensacyjnego. Porównanie wszystkich potencjalnych kandydatów
byłoby tak czasochłonne, że właściwie niewykonalne. Poza tym
porównanie wszystkich kandydatów i wybór najlepszego musiałyby się
odbyć w jednej chwili, ponieważ inne osoby dokonujące podobnego
wyboru mogą nas ubiec, a skutki ich decyzji zasadniczo zmieniają warunki
naszego wyboru. Dlatego racjonalne postępowanie wymaga w tej sytuacji
tylko ustanowienia pewnych kryteriów wyboru, niekiedy bardzo
skromnych (np. „nie pije i nie bije”), i zdecydowania się na pierwszego
kandydata, który je spełnia. Na tym polega strategia zadowolenia. Jest mało
prawdopodobne, aby tak dokonany wybór przyniósł nam kandydata
idealnego, ale z pewnością przyniesie takiego, który nas zadowoli (zob.
Gigerenzer, Todd, 1999; Todd, Miller, 1999).
Paradygmat 12.2
RYCINA 12.3. Subiektywna wartość zysku lub straty w zależności od wartości obiektywnej
Źródło: opracowanie własne na podstawie Kahneman, Tversky, 1984.
12.3. Podsumowanie
Wydawanie sądów i podejmowanie decyzji to powszechne i codzienne
czynności poznawcze. Opisane w tym rozdziale badania i koncepcje
teoretyczne pokazują, że nasze sądy i decyzje są często nieracjonalne,
a prawie zawsze dokonywane na podstawie raczej uproszczonych
heurystyk niż wyrafinowanych obliczeń. Jest to konkluzja dość ważna dla
rozważań na temat racjonalności umysłu ludzkiego. Jednocześnie nasze
sądy i decyzje nie mogą być całkiem nieracjonalne, bo byłoby to wbrew
zasadzie, że umysł jest „narządem” umożliwiającym człowiekowi
przystosowanie się do trudnych wymagań środowiska, najpierw
naturalnego, a potem społecznego. Gdyby nasze zdolności racjonalnego
sądzenia i wydawania decyzji były znikome, skuteczna adaptacja do
środowiska byłaby utrudniona, a może nawet niemożliwa. Ludzie zawsze
musieli wydawać sądy i podejmować decyzje, należałoby zatem
oczekiwać, że te zdolności będą u nich szczególnie dobrze rozwinięte.
Język i mowa
Natura języka
Język jako system
Poziomy języka
Język a poznanie
Przyswajanie języka
Problem natywizmu
Stadia przyswajania języka
Dwujęzyczność i wielojęzyczność
Mówienie
Planowanie mowy
Kodowanie semantyczno-syntaktyczne
Kodowanie fonologiczne
Rozumienie przekazów językowych
Złamanie kodu
Rozbiór zdania
Budowa modelu sytuacyjnego i wnioskowanie
Podsumowanie
Język to system kodowania znaczeń poprzez wykorzystanie skończonego zbioru symboli
(dźwięków mowy lub znaków pisma). Operowanie na symbolach podlega regułom gramatycznym,
swoistym dla każdego języka naturalnego lub sztucznego.
Mowa to używanie języka w celu przekazywania znaczeń oraz wpływania na zachowanie cudze lub
własne. W innym ujęciu mowa to zdolność gatunku ludzkiego do przekazywania i odbierania
komunikatów językowych za pomocą wyrażeń wokalnych lub znaków pisma.
RAMKA 13.1
Dynamiczne zmiany znaczenia słów
W głównym nurcie rozwoju języka słowa nie zmieniają swoich znaczeń
radykalnie. Jest to proces ciągły, którego pełne skutki można ocenić
dopiero na przestrzeni wieków. Nawet wtedy jednak zmiany dotyczą
raczej kolorytu i otoczki emocjonalnej, a nie istoty rzeczy. Na przykład
w dawnej polszczyźnie wyraz „kobieta” był obsceniczny: należało
mówić „niewiasta” lub „białogłowa”. Dzisiaj pierwszy wyraz jest czysto
opisowy, pozbawiony jakiejkolwiek ewaluacji, a dwa pozostałe wyszły
z użycia (z wyjątkiem wyrażeń żartobliwych). Tak czy inaczej,
desygnatem jest dorosła osoba płci żeńskiej.
mamy już do czynienia z pełnym sensem: ktoś komuś komunikuje chęć lub
ewentualność przekazania jakiejś wiadomości, jeśli słuchacz spełni bliżej
nieokreślony warunek. Zdanie jest jednostką sensu, ponieważ zawiera
przynajmniej dwa komunikaty: o sprawcy (podmiot) i o czynności
(orzeczenie); dodatkowo zdanie może zawierać informacje
o okolicznościach zdarzenia (miejscu, czasie itd.), a także o atrybutach
sprawcy (np. pilny uczeń) lub czynności (żmudna nauka). Formalnie rzecz
biorąc, zdanie składa się z frazy nominalnej, określającej sprawcę i jego
atrybuty, oraz frazy czasownikowej1, określającej czynność i jej
okoliczności. Strukturę zdania możemy więc zapisać w postaci tzw.
drzewka derywacyjnego (ryc. 13.2). W przypadku zdania: „Pewien
chłopiec kupił cukierek w sklepie” (zob. Kurcz, 2000), istota rzeczy
sprowadza się do komunikatu: „Chłopiec kupił”. Te dwa elementy: sprawca
i czynność, tworzą główne konary drzewa. Pozostałe składniki zdania są
reprezentowane przez pomniejsze gałęzie, co sugeruje, że nie są to
składniki konieczne; można je jak gdyby „oderwać” od składników
głównych. Drzewko derywacyjne (czyli utworzone w wyniku odrywania)
pokazuje ponadto, w jaki sposób struktura syntaktyczna zdania może być
tworzona z elementów składowych. Całe zdanie składa się z frazy
nominalnej i czasownikowej, ale składnikiem tej ostatniej jest osobna fraza
nominalna. Co więcej, struktura ta może być dalej rozszerzana, np. wtedy,
gdy tworzymy zdania rekurencyjne typu: „Pewien chłopiec kupił cukierek
w sklepie, który był na skrzyżowaniu, które było pozbawione sygnalizacji,
która...”.
RYCINA 13.2. Formalna budowa zadania: „Pewien chłopiec kupił cukierek w sklepie”,
przedstawiona w postaci drzewka derywacyjnego
ZD – zdanie, FN – fraza nominalna, FC – fraza czasownikowa, Det – określnik, Rz – rzeczownik,
Cz – czasownik, FPrz – fraza przyimkowa, Prz – przyimek.
Źródło: opracowanie własne na podstawie Kurcz, 2000.
RAMKA 13.2
Autorzy badali ponadto, jak szybko przedstawiciele obu kultur uczyli się
rozróżniać barwy należące do różnych kategorii. Anglicy potrzebowali
średnio 3,2 próby, aby nauczyć się poprawnie odróżniać paski niebieskie
od zielonych, podczas gdy Berinmo zużywali na to średnio 11,4 próby.
Gdy zaś zadanie polegało na tym, aby wyuczyć się rozróżniania wor
i nol, Anglicy potrzebowali na to średnio 3,8 próby, a Berinmo – średnio
2,2 próby. Ujawniła się więc pewna asymetria między przedstawicielami
obu kultur: Anglicy szybciej od Berinmo opanowywali nieznane im
rozróżnienia kategorialne kolorów, mimo że żadna grupa nie miała
wcześniejszej wiedzy na ten temat. Autorzy konkludują, że różnice
lingwistyczne wpływają na różnice w zakresie percepcji barw, a nie
tylko ich nazywania, co jest zgodne z hipotezą relatywizmu językowego.
TABELA 13.1. Eufemizmy polityczno-wojskowe, czyli próba kontroli myśli poprzez kontrolę
słów
Wyrażenie Znaczenie
RAMKA 13.3
Uniwersalna gramatyka
Noam Chomsky jest jednym z najsłynniejszych i najwybitniejszych
językoznawców w historii. Jego koncepcje są szeroko dyskutowane
i krytykowane, nie mniej niż jego lewicowe poglądy polityczne.
Pierwsze słowa pojawiają się zwykle między 12. a 14. miesiącem życia,
choć przejawy ich rozumienia ujawniają się już po dziewięciu miesiącach
od urodzenia. Chodzi o słowa oznaczające rodziców lub opiekunów, nazwy
najczęściej obserwowanych przedmiotów lub substancji (np. woda),
określenia zwierząt domowych, niektóre wyrażenia społeczne (np.
pożegnanie typu „pa, pa!”), a także bardzo ważne słowo „nie!” (Gleitman,
Bloom, 1999). Przez cały 2. rok życia dziecko w zasadzie mówi
pojedynczymi wyrazami, co najwyżej łącząc je w krótkie zestawy bez
poprawnego odmieniania przez osoby, czasy i przypadki (np. „Mama
bawić”), co nazwano mową telegraficzną. Pozornie jest to mowa bez
gramatyki, jednak badania ujawniły, że u jej podłoża można odnaleźć
rozumienie struktur językowych i elementarną wiedzę syntaktyczną. Na
przykład dziecko, słysząc jeden z dwóch komunikatów: „Straszydło goni
ptaka” lub „Ptak goni straszydło”, kieruje wzrok ku monitorowi, na którym
widać akcję treściowo odpowiadającą komunikatowi werbalnemu (Hirsh-
Pasek, Golinkoff, 1996). Oznacza to, że dzieci w tym wieku są wrażliwe na
strukturę syntaktyczną zdania, choć nie potrafią jej jeszcze aktywnie użyć.
Zjawisko polegające na tym, że rozumienie wyprzedza artykulację, jest
typowe dla rozwoju mowy, jak również dla uczenia się języków obcych
przez osoby dorosłe (Kielar-Turska, 2000).
Błąd nadrozciągłości znaczeń (overextension error) – typowy błąd popełniany przez dziecko
przyswajające język; polega na włączaniu w obręb kategorii obiektów, które do niej nie należą.
RAMKA 13.4
tab2
13.3. Mówienie
Aby cokolwiek powiedzieć, trzeba najpierw utworzyć mentalną
reprezentację przekazu i zaplanować jego wykonanie. Następnie trzeba
wybrać z pamięci semantycznej właściwe słowa o znaczeniu adekwatnym
do sensu przekazu, przypisać im stosowną formę gramatyczną i ułożyć we
właściwym porządku składniowym. Na końcu konieczne jest przełożenie
utworzonego wcześniej zdania na kod fonologiczny, czyli odpowiednią
sekwencję głosek. Tym trzem etapom odpowiadają wyspecjalizowane
procesy poznawcze.
RAMKA 13.5
Maksymy konwersacyjne
Paul Herbert Grice (1975) wyróżnił cztery maksymy konwersacyjne,
które mają ułatwiać stosowanie się do ogólnej reguły, jaką jest zasada
kooperacji. Jako językoznawca autor przyjął perspektywę normatywną,
wskazując na skuteczne sposoby porozumiewania się. Dla psychologów,
którzy preferują podejście deskryptywne, maksymy Grice’a są pomocne
w opisie i klasyfikacji błędów popełnianych przez ludzi w sytuacjach
wzajemnego porozumiewania się. Komunikacja zafałszowana lub
nieefektywna prawie zawsze wiąże się z ignorowaniem co najmniej
jednej z tych maksym.
Podszedł do dziewczynki.
wczorajbyłasobotaiposzliśmydokina,
Segmentacja (segmentation) – mentalny podział ciągu fonemów na poszczególne słowa lub frazy,
warunkujący rozumienie komunikatu werbalnego.
co jest swoistym szyfrem. Aby coś z tego zrozumieć, trzeba złamać kod,
w którym zapisano sens wypowiedzi, czyli w pierwszej kolejności rozłożyć
ciąg fonemów na segmenty. W piśmie segmentacja dokonuje się dzięki
znakom spacji; w przekazach ustnych nie ma jawnych znaków
rozdzielających, w związku z czym słuchacz musi wykonać to zadanie sam.
Kierowanie się pauzami, jakie czyni mówca, może być zwodnicze,
ponieważ mają one również funkcję poznawczą (ułatwiają mu
zaplanowanie wypowiedzi), a nie tylko komunikacyjną. Dlatego dłuższe
pauzy pojawiają się zazwyczaj między frazami, czyli zbyt rzadko, aby
mogły służyć jako pomoc w segmentacji. Pauzy krótsze pojawiają się
wewnątrz fraz, ale nie zawsze rozdzielają słowa. Na przykład końcówka
przedstawionego komunikatu – „…do kina” – w wymowie raczej nie
będzie rozdzielona pauzą między słowem „do” a słowem „kina”, choć
w piśmie jest rozdzielona spacją. Dlatego dokonując segmentacji, słuchacz
musi kierować się innymi wskazówkami, takimi jak prozodia (intonacja,
akcent, rytm), kontekst ogólny, a przede wszystkim kontekst
wewnątrzjęzykowy. Wracając do podanego przykładu, pierwsza głoska nic
nam nie mówi, bo słów zaczynających się od „f” jest bardzo wiele7; dwie
początkowe głoski „fč” znacznie zawężają liczbę kandydatów, a trzecia
głoska sugeruje, że prawie na pewno chodzi o słowo „wczoraj” lub
pochodne (np. „wczorajszy”).
Model kohorty (cohort model) – koncepcja, według której słuchacz rozpoznaje słowa,
systematycznie zawężając listę potencjalnych „kandydatów”, czyli zmniejszając kohortę możliwych
jednostek leksykalnych aż do momentu, gdy nie będzie innego wyboru.
Złamanie kodu nie ogranicza się bowiem do trafnej segmentacji. Jego istotą
i sensem jest przekład kodu akustycznego na znaczenia, czyli elementarne
porcje wiedzy przechowywane trwale w pamięci w postaci pojęć. Podział
potoku słów na jednostki tylko wtedy ma sens, gdy te ostatnie odpowiadają
czemuś sensownemu, czyli poszczególnym znaczeniom. Wynika z tego, że
w procesie deszyfracji mowy współwystępują dwie czynności: segmentacja
i odczyt znaczeń zapisanych w pamięci semantycznej. Zresztą obie
czynności nawzajem się wspomagają. Segmentacja byłaby niemożliwa bez
wstępnej hipotezy na temat znaczenia słowa: tylko znaczenie eliminuje
kolejne elementy z kohorty, aż do momentu, gdy wyeliminuje się
wszystkich kandydatów z wyjątkiem jednego. W języku obcym
segmentacja po prostu nie jest możliwa, nawet jeśli ktoś mówi do nas
głośno i wyraźnie. Zarazem jednak bez stopniowo postępującej segmentacji
odczyt znaczeń byłby bardzo utrudniony, a na pewno spowolniony.
Dorosły, wykształcony człowiek dysponuje leksykonem w liczbie około
100 000 słów. Odnalezienie w tak rozległym magazynie właściwego słowa
we właściwym momencie jest bardzo dużym wyzwaniem dla systemu
poznawczego i jego ograniczonych możliwości. Dzięki stopniowemu
ograniczaniu kohorty liczba potencjalnych znaczeń gwałtownie maleje.
Łatwiej nam przywołać wszystkie znaczenia słów zaczynających się na
„fč...” (np. „fčesny, fčuwa) niż słów zaczynających się na f. Poza tym raz
zidentyfikowane słowo, np. „fčoraj”, działa jako pryma semantyczna
(semantic prime), czyli ułatwia przetwarzanie słów zbliżonych
znaczeniowo. Słowa pojawiające się w przekazie jako dalsze będą tym
samym identyfikowane szybciej, pod warunkiem że okażą się w jakiś
sposób powiązane semantycznie z wyrazem „wczoraj”.
Łamanie kodu akustycznego u dorosłych posługujących się językiem
ojczystym dokonuje się automatycznie i bezwysiłkowo. Stanowi jednak
poważne wyzwanie dla kogoś, kto posługuje się słabo opanowanym
językiem obcym. Osoba taka nie ma wykształconych umiejętności
automatycznego dzielenia potoku fonemów na słowa, przez co nie jest
w stanie wiele zrozumieć mimo dobrej niekiedy znajomości
poszczególnych wyrazów. Znaczenia, zakodowane w postaci pojęć, nie
uaktywniają się, przez co nie jest możliwe zrozumienie przekazu. Dla takiej
osoby tekst nabiera sensu po przekształceniu go w formę pisemną. Istotną
przeszkodą jest też niewykształcona umiejętność wykorzystywania
prozodii języka w celu identyfikowania słów i typowych związków
frazeologicznych. Kiedy Anglik pyta: How are you?, a Francuz: Qu’est-ce
que c’est?, słyszymy charakterystyczny zaśpiew, który jest ważną
wskazówką rozpoznania sensu.
Paradygmat 13.1
Zdania „ślepej uliczki” (garden path sentences)
Zasada późnego domknięcia – reguła, że ustalenie granicy, poza którą zaczyna się nowa fraza
zdaniowa, dokonuje się najpóźniej, jak to możliwe.
Języki różnią się ze względu na to, jak działa w nich hipotetyczny parser,
czyli struktura odpowiedzialna za rozbiór zdania. W języku angielskim,
w którym kolejność wyrazów w zdaniu jest dość sztywna, a rzeczowniki
poprzedzające inne rzeczowniki mogą funkcjonować przymiotnikowo (np.
Snake River = Rzeka wężowa), główne zadanie parsera polega na
przypisaniu poszczególnym słowom odpowiednich funkcji, np. podmiotu,
orzeczenia lub dopełnienia. W językach fleksyjnych, w których forma
gramatyczna słowa różni się w zależności od osoby, czasu i trybu, szyk
wyrazów w zdaniu może być luźniejszy. Inwersja słów w języku
angielskim może całkowicie zmienić sens zdania, jak w przykładach:
Edward Nęcka
Profesor w Uniwersytecie Jagiellońskim, współpracuje również
z Uniwersytetem SWPS. Członek rzeczywisty Polskiej Akademii Nauk.
Specjalizuje się w psychologii poznawczej, szczególnie w tematyce
kontroli poznawczej. Prowadzi badania na pograniczu poznania,
osobowości i różnic indywidualnych. Zajmuje się też badaniem
skuteczności treningów poznawczych. Promotor trzydziestu doktoratów.
Autor licznych prac badawczych poświęconych twórczości, inteligencji
i samokontroli. Autor ośmiu książek, m.in. Treningu twórczości, który miał
sześć wydań.
Jarosław Orzechowski
Doktor habilitowany nauk społecznych w zakresie psychologii, profesor
Uniwersytetu Jagiellońskiego w Krakowie i Uniwersytetu
Humanistycznospołecznego SWPS, certyfikowany trener i mentor. Jego
zainteresowania badawcze koncentrują się na styku psychologii
poznawczej i różnic indywidualnych. Jest autorem bądź współautorem
wielu publikacji naukowych i książek, w tym nowego Treningu twórczości
(2019). Jako pracę habilitacyjną opublikował książkę pt. Magiczna liczba
jeden, czyli co jeszcze zmieści się w pamięci roboczej. Od wielu lat
prowadzi wykłady i seminaria w tematyce psychologii poznawczej.
Szymon Wichary
Doktor habilitowany, pracuje w Uniwersytecie w Lejdzie, w ramach
stypendium Marii Skłodowskiej-Curie, oraz w Uniwersytecie SWPS.
Doktorat z psychologii uzyskał w Uniwersytecie Jagiellońskim. W trakcie
studiów doktoranckich odbył staż w Max Planck Institute for Human
Development w Berlinie, a staż podoktorski odbył w Uniwersytecie
w Bazylei. Interesuje się rolą osobowości, emocji i stresu w podejmowaniu
decyzji oraz biologicznymi źródłami różnic indywidualnych. W pracy
badawczej stosuje komputerowe zadania poznawcze, metody
psychofizjologiczne i modelowanie obliczeniowe procesów decyzyjnych.
Przypisy
Przedmowa
1 Najnowsze wydanie: Maruszewski, T. (2016). Psychologia poznawcza. Umysł i świat. Sopot:
Gdańskie Wydawnictwo Psychologiczne.
Rozdział 1
1 Nie jest to stanowisko światopoglądowe, lecz metodologiczne. Wydaje się ono niezbędne,
przynajmniej na gruncie nauk empirycznych. Uczony może być prywatnie przekonany o istnieniu
niematerialnej duszy, ale jako badacz musi roboczo założyć, że istnieje tylko to, co potrafi zmierzyć
lub zaobserwować, albo o czym może zasadnie wnioskować na podstawie obserwacji lub pomiarów.
2 Antropologia to nazwa co najmniej trzech różnych dyscyplin naukowych. Jako część filozofii
antropologia jest ogólną refleksją nad naturą człowieka. Na gruncie nauk biologicznych antropologia
zajmuje się badaniem człowieka jako gatunku, ze szczególnym uwzględnieniem naturalnej ewolucji
Homo sapiens. Jako część socjologii antropologia – zwana kulturową – koncentruje się na badaniu
kulturowych uwarunkowań ludzkich zachowań i kulturowym zróżnicowaniu struktur społecznych.
Częścią kognitywistyki jest niewątpliwie antropologia kulturowa, choć nie bez znaczenia są też
osiągnięcia antropologii biologicznej w zakresie ewolucji mózgu i jego funkcji.
3 Stąd używany niekiedy alternatywnie termin „czas latencji”. W celu uniknięcia nieporozumień
proponujemy jednak, aby czas między bodźcem a obserwowalną reakcją osoby badanej nazywać
czasem reakcji, natomiast termin „czas latencji” zarezerwować dla okresu między bodźcem
a bezwiedną reakcją fizjologiczną organizmu, np. potencjałem wywołanym lub reakcją skórno-
galwaniczną.
Rozdział 2
1 Gibson stosował pojęcie afordancji szeroko, w odniesieniu do wszelkiej percepcji. Uważał, że
środowisko jak gdyby składa organizmowi ofertę co do możliwych sposobów jego wykorzystania.
Inni autorzy ograniczają teorię afordancji do zjawisk związanych z percepcją przedmiotów
użytkowych (np. Norman, 1988).
Rozdział 3
1 Pojęcie podobieństwa rodzinnego wewnątrz kategorii pochodzi od Ludwika Wittgensteina.
Rozdział 4
1 Jak w poradniku Johna Gottmana i Nan Silver (2014), w którym autorzy opisali zestaw recept na
udany związek, wywiedzionych z wieloletnich obserwacji par małżeńskich.
3 Wymawiamy: akt.
4 W latach 80. XX w., kiedy Anderson publikował swój model, nie istniały telefony komórkowe
z pamięcią, które obecnie niemal całkowicie wyeliminowały konieczność zapamiętywania numerów.
Zapewniamy jednak, że przykład ten był wówczas trafny.
Rozdział 6
1 Termin ten (w oryginale: working memory updating) można też tłumaczyć jako aktualizację
zawartości pamięci roboczej.
3 Jeśli chodzi o źródła dostępne w języku polskim, ANT opisano m.in. w pracy Nęcki (2018).
Można go również poznać na stronie: https://www.millisecond.com/download/library/ant/.
4 Psycholog nie ma narzędzi potrzebnych do rozwiązania problemu podmiotowości czy wolnej woli.
Jednocześnie chce prowadzić badania empiryczne nad kontrolą i samoregulacją zachowania. W tej
sytuacji przyjęcie stanowiska funkcjonalistycznego (funkcje zarządcze!) pozwala mierzyć i badać
przejawy kontroli bez wcześniejszego rozstrzygnięcia sporów filozoficznych i światopoglądowych.
Rozdział 8
1 Schacter i Tulving (1994) uważają, że model Atkinsona i Shiffrina jest rozwinięciem modelu
Waugh i Normana (1965), którzy jako pierwsi rozróżnili pamięć pierwotną (primary), czyli
krótkotrwałą, i wtórną (secondary), czyli długotrwałą. Model Atkinsona i Shiffrina jednak, jako
bardziej rozbudowany i szczegółowy, pełniej oddaje istotę klasyfikacji pamięci ze względu na
kryterium czasu przechowywania.
Rozdział 9
1 W filmie Memento przedstawiono historię człowieka, który, podobnie jak pacjent H.M., utracił
zdolność nabywania wiedzy kodowanej w LTM. Reżyser w niezwykle obrazowy sposób przedstawił
potencjalne konsekwencje takiego stanu, które – jeśli uwzględnić nietypową sytuację głównego
bohatera – wydają się w większości prawdopodobne.
Rozdział 10
1 Na przykład: Niektóre krowy tańczą walca, wszyscy tańczący walca są pszczelarzami, więc
niektóre krowy są pszczelarzami.
2 Myślenie realistyczne i ukierunkowane to synonimy, choć każdy z tych terminów podkreśla nieco
inny aspekt zjawiska.
3 Chyba że archeolodzy wcześniej odkryją, jaką techniką posługiwali się starożytni Egipcjanie.
5 Duży kwantyfikator to wyrażenie typu „wszystkie”, „żaden” itp. Na przykład zdanie: „Wszystkie
strusie są ptakami, a żaden struś nie jest ssakiem”, zawiera dwa duże kwantyfikatory. Natomiast
mały kwantyfikator to wyrażenie typu „niektóre” itp., np. „Niektóre ssaki mają futro”.
Rozdział 11
1 Nazwa wywodzi się z legendy, zgodnie z którą mnisi mieli przenieść po kawałku świątynię na
nowe miejsce, wykonując jak najmniej ruchów. Zbliżona wersja tego zadania, wykorzystywana
w badaniach neuropsychologicznych, nosi też czasem nazwę Wieży z Londynu (Tower of London).
4 A może zawsze? Dotykamy tutaj filozoficznego problemu, czy losowość jest kategorią poznawczą
czy ontologiczną. Jeśli poznawczą, to ciąg zdarzeń może być zdeterminowany, ale nie jesteśmy
w stanie uchwycić i zrozumieć zależności przyczynowo-skutkowych, więc mówimy, że wynik jest
przypadkowy. Jeśli zaś losowość to kategoria ontologiczna, to znaczy, że ciąg zdarzeń jest z natury
niezdeterminowany. Empirycznie zorientowana psychologia nie ma narzędzi, aby zmagać się z tym
problemem.
8 Herbert Simon (1916–2001) otrzymał w 1978 r. Nagrodę Nobla w dziedzinie ekonomii za prace
nad teorią podejmowania decyzji.
9 Gdyby Amos Tversky nie zmarł w 1996 r., z pewnością otrzymałby tę nagrodę wraz
z Kahnemanem.
10 Przeciwieństwo tej cechy, czyli decisiveness, należałoby raczej oddać terminem „stanowczość”.
Rozdział 13
1 W literaturze można też spotkać określenia „fraza rzeczownikowa” (noun phrase) i „fraza
werbalna” (verbal phrase). Polskie słowo „werbalna” oznacza jednak po prostu „słowna”, podczas
gdy sens tego terminu określa angielski termin verb, czyli czasownik.
2 Niekiedy dodaje się czwartą czynność, czyli tłumaczenie, które zresztą jest wyjątkowo obciążające
poznawczo.
3 „Każdy wrzeszczał o czym innym, jak zwykle w życiu rodzinnym” (T. Boy-Żeleński).
4 Zabawną ilustracją tego zjawiska jest przypadek niemieckiego dziecka mieszkającego w Polsce
i uczęszczającego do przedszkola. Po powrocie rodziny do Niemiec chłopiec na placu zabaw
próbował komunikować się po polsku.
5 Lemma to nie to samo, co lemat. Mimo wspólnego źródłosłowu (gr. lèmma = treść, temat, tytuł)
lemma to abstrakcyjna forma słowa, a lemat – twierdzenie pomocnicze, ułatwiające dowodzenie
innych twierdzeń logicznych lub matematycznych.
6 Oczywiście błędem jest użycie formy zastępczej tylko wtedy, gdy forma oryginalna lepiej
odpowiadała intencji mówcy. W przeciwnym razie nie ma błędu, lecz intencjonalne wykorzystanie
bogactwa językowych środków wyrazu.
7 Łamanie kodu dokonuje się na poziomie fonetycznym, zatem pierwszą głoską w wyrazie
„wczoraj” jest „f”, a nie „w”, bo inaczej ten wyraz piszemy, a inaczej go wymawiamy. Drugą głoskę
trzeba zapisać jako „č”, a nie „cz” itd.