Celem niniejszego badania było ukazanie roli procesu automatyzacji podczas selekcji bodźców w polu wzrokowym.. Hipotezy weryfikowano w obrębie paradygmatu uwagi intensywnej i ekstensywnej. Eksperyment przeprowadzono z udziałem studentów pierwszego roku psychologii, wykorzystując Test Zegarków Moronia (przeznaczony do badania trybu intensywnego uwagi) oraz Test Gwiazdek (weryfikujący założenia dotyczące trybu ekstensywnego uwagi). W celu wywołania efektu automatyzacji wszystkie osoby badane wypełniały oba testy trzykrotnie (kolejność wykonywania zadań zrównoważono). Uzyskano efekt automatyzacji jedynie w zakresie szybkości, nie wykazano automatyzacji poprawności. Zjawisko przetargu szybkość – poprawność wykonania zadania zaobserwowano jedynie w przypadku wywołania trybu intensywnego uwagi. W modelu uwagi ekstensywnej efekt przetargu nie wystąpił.
Selekcja informacji to najprawdopodobniej podstawowa, jeśli nie jedyna, funkcja uwagi (Czyżewska, 1991; Maruszewski, 2001; Szymura, 2007). Pierwszy model uwagi selektywnej stworzony przez Broadbenta (1958, za: Maruszewski, 2001) oparty jest na koncepcji filtra uwagowego. Wg tej teorii własności fizyczne obiektów decydują o zachodzeniu selekcji. Późniejsze interpretacje filtru uwagi wg Broadbenta przedstawiają go jako bramkę pomiędzy przetwarzaniem na poziomie sensorycznym a semantycznym (Szymura, 2007). Oznacza to, że jeżeli danemu bodźcu nie uda się przedostać przez filtr uwagi (zostanie odrzucony na wczesnym etapie przetwarzania), zostanie on całkowicie zignorowany.
Ta uproszczona koncepcja nie wyjaśnia chociażby zjawiska przekierowania uwagi z sygnału przetwarzanego na jakiś inny, który nagle okazał się być sygnałem istotnym. Maruszewski (2001) jako przykład niewystarczalności modelu Broadbenta uznaje efekt coctail - party. W przypadku całkowitego ignorowania bodźców peryferyjnych, niemożliwa byłaby reakcja osoby na własne imię, a więc nieświadoma identyfikacja sygnału przebiegająca na poziomie semantycznym. Kolejne, niezależne badania wykazały luki w koncepcji Broadbenta (Moray, 1959; Gray i Wadderburn, 1960; Holender, 1986, za: Szymura, 2007).
Bardzo systematycznej i dokładnej weryfikacji poddała teorię Broadbenta Treisman (1960, 1964a, za: Maruszewski, 2001), która to również zaproponowała własną, rozbudowaną koncepcję działania uwagi selektywnej. Treisman (1998) wyróżnia trzy modele procesów uwagi: model oparty na szeregowej integracji cech, model osłabiania bodźców zakłócających oraz model plików obiektów. Dwa pierwsze modele są ważne dla prezentowanych badań.
Szeregowa integracja cech zakłada, iż poszczególne właściwości obiektów kodowane są niezależnie, równolegle i automatycznie w osobnych mapach cech. Dopiero zwrócenie uwagi na określony przedmiot - bodziec oraz dostarczenie danych o jego lokalizacji powoduje integrację danych z poszczególnych map i utworzenie tymczasowej, złożonej reprezentacji obiektu (Treisman, 1988, za: Treisman, 1998). Treisman i Gormican (1988, za: Treisman, 1998) przeciwstawiają tutaj fazę przeduwagową uwadze podzielnej, prezentując tę drugą jako biegun osi, której przeciwległym końcem jest uwaga skupiona na obiekcie. Szerokość okna uwagi, a więc stopień jego zogniskowania, uzależniona jest od rodzaju wykonywanego zadania (Treisman, 1998). Szeroki zakres widzenia pozwala na powierzchowne przetwarzanie napływających informacji, m.in. na wykrywanie ogólnych reguł i kształtów, podział faktur, czy zjawisko pop out, tj. równoległe, automatyczne wyłanianie się określonych cech z przeszukiwanego obszaru. Uwaga skrajnie zogniskowana niezbędna jest w dokładnej lokalizacji sygnału i powiązania cech dla pojedynczych obiektów.
Inhibicja bodźców zakłócających polega w uproszczeniu na osłabianiu wszystkich bodźców, które nie stanowią sygnału. Bazując na wcześniejszych informacjach o cechach celu lub cechach dystraktorów dana osoba może nastawić się na przeszukiwanie pola pod kątem określonych właściwości, ignorując wszelkie elementy zakłócające.
Treisman (1998) twierdzi, że oba te modele współwystępują – w momencie otrzymania informacji o lokalizacji obiektu, wykorzystamy okno uwagi, natomiast jeżeli dostępny jest opis cech obiektów, zostanie przez nas zastosowany model inhibicji dystraktorów. Jeśli natomiast zdarzy się, że nie dysponujemy żadnymi wcześniejszymi informacjami, wybieramy odpowiedni rozmiar okna uwagi i rozpoczynamy szeregowe przeszukiwanie pola wzrokowego.
Według Treisman (1998) moment pojawienia się procesów selekcji zależy od ilości i złożenia bodźców. Wczesna selekcja pojawi się tylko wtedy, gdy istnieje ryzyko zakłócenia analizy percepcyjnej. Tymczasem większość sytuacji wymaga wyboru rodzaju i sposobu reakcji, jak twierdzi Treisman (1998), dodatkowo potwierdza konieczność zastosowania późnej selekcji cech.
Takie rozróżnienie pomiędzy uwagą zogniskowaną i podzielną (Treisman i Gormican, 1988, za: Treisman, 1998) najprawdopodobniej wykorzystała Kolańczyk (1991, 1997, za: Maruszewski, 2001) konstruując swoją koncepcję uwagi intensywnej i ekstensywnej. Według Kolańczyk (1992) uwaga intensywna odznacza się wąskim zakresem i znaczną głębokością przetwarzania, podczas gdy zakres uwagi ekstensywnej jest szeroki, a przetwarzanie płytkie. Kolańczyk podkreśla także znaczenie afektu i motywacji w procesach uwagowych. Uwadze intensywnej towarzyszy motywacja teliczna, celowa, nastawiona zadaniowo. Jej pojawienie się towarzyszy emocjom negatywnym, wymagającym szybkiego, precyzyjnego działania. Inaczej jest w przypadku ekstensyfikacji uwagi – towarzyszy emocjom pozytywnym, przy pojawieniu się motywacji paratelicznej. Uwaga ekstensywna wywołuje płytszy poziom przetwarzania, ale obejmuje szerszy zakres pola wzrokowego. Wydaje się, że określony rodzaj uwagi można wywołać zadaniowo (Kolańczyk, 1992). Na tej podstawie założono, że warunki wykonywania polecenia, czynności poprzedzające wykonanie zadania, limit czasu i sposób prezentacji bodźców mogą wpływać na sposób przetwarzania informacji.
Pojecie automatyzacji związane jest z koncepcją zasobów uwagi, sformułowaną przez Kahnemana (1973, za: Maruszewski, 2001). Według tej teorii człowiek dysponuje określoną ilością zasobów uwagi, które może przeznaczać do wykonywania procesów poznawczych. Każde zadanie absorbuje określoną pulę zasobów, dlatego też za każdym razem równolegle przetwarzana może być tylko limitowana ilość bodźców. Wielkość dostępnych zasobów zależy od: stopnia trudności zadania, poziomu pobudzenia w jakim jednostka się znajduje oraz decyzji dotyczącej skierowania uwagi w stronę określonych procesów.
Prowadzone przez Shiffrina i Schneidera badania nad uwagą (1977, za: Szymura, 2007) doprowadziły do rozróżnienia procesów uwagowych automatycznych i kontrolowanych. Zgodnie z tym podziałem procesy automatyczne nie wymagają kontroli uwagowej, dlatego też zasoby uwagi nie limitują ich, stąd mogą przebiegać jednocześnie, bez konsekwencji równoległego przetwarzania. Czynności automatyczne opierają się na prostych procesach, a dotyczą znanych, łatwych zadań. W przeciwieństwie do nich procesy kontrolowane zachodzą są powolne, wymagają uwagi (gdyż mają charakter szeregowy), obejmują zadania nowe, trudne i złożone (Maruszewski, 2001).
Hasher i Zacks (1979, za: Czyżewska, 1991) kontynuowały prace i nad modelem Schneidera i Shiffrina, w efekcie modyfikując go. Ich teoria zakłada rozróżnienie między wrodzonymi procesami automatycznymi i procesami, których automatyzacja wymaga praktyki, tzn. które zostają zautomatyzowane w wyniku kolejnych powtórzeń. Powyższa koncepcja popierana jest przez zwolenników automatyzacji w wyniku uczenia się, bądź wielokrotnego powtarzania danej procedury.
Badania Ackermana (1988, za: Szymura i Słabosz, 2002) i Andersona (1982, za: Szymura i Słabosz, 2002) dotyczące nabywania wprawy stanowią kolejny krok na drodze do opisania i wyjaśnienia efektu automatyzacji. Wyróżniają oni trzy etapy nabywania wprawy: poznawczy, asocjacyjny i autonomiczny. Poziom poznawczy dotyczy zrozumienia treści polecenia i celu wykonywanego zadania. Stadium asocjacji obejmuje wykształcenie i przyswojenie sposobu realizacji określonej czynnosci. Ostatni etap – autonomiczny – polega na całkowitym zautomatyzowaniu wykonywanej czynności. Według Andersona (1982, za: Szymura i Słabosz, 2002) w tym końcowym stadium tylko jeden bodziec wystarcza do wyzwolenia całej sekwencji automatycznych reakcji. Koniecznym dla przebiegu wyszczególnionych procesów warunkiem jest jednorodność poleceń w ciągu całego procesu. Przy zmianie polecenia dochodzi do spadku poziomu wykonania zadania. Efekt ten wiąże się z powrotem do przetwarzania kontrolowanej, na skutek braku adekwatności zautomatyzowanej strategii (Shiffrin i Schneider, 1977, za: Czyżewska, 1991). Opisywane zjawisko nosi miano transferu negatywnego (Szymura i Słabosz, 2002).
Rozważając efekt automatyzacji należy dostrzec zależność pomiędzy stadium nabytej wprawy a siłą przetargu pomiędzy szybkością i poprawnością wykonania zadania. Szymura i Słabosz (2002) twierdzą, że osoby badane w eksperymentach wymagających przetwarzania informacji działają w oparciu o jedną z dwóch strategii – wykonują polecenie szybko, lecz niedokładnie bądź też rezygnują z szybkości na rzecz precyzji. Wśród czynników stymulujących wystąpienie przetargu znajduje się wprowadzenie znacznego ograniczenia czasu przeznaczonego na realizację zadania (Snodgrass, Luce i Galanter, 1967, za: Szymura i Słabosz, 2002). Uwzględniając rozdział między uwagą zogniskowaną a uwagą podzielną, wprowadzoną przez Treisman i Gormican (1988, za: Treisman, 1998) można przypuszczać, że w przypadku dużego ograniczenia czasowego selekcja bodźców odbywa się szybciej, na dużo płytszym poziomie, bardziej pobieżnie oraz przy użyciu szerokiego zakresu okna uwagi.
W oparciu o powyższe rozumowanie sformułowano hipotezę, iż kilkakrotne powtórzenie tego samego zadania prowadzi do wystąpienia efektu automatyzacji wykonania zadania (zarówno w przypadku trybu intensywnego, jak i ekstensywnego uwagi). Kolejna hipoteza stwierdza, że nałożona presja czasowa prowokuje zaistnienie zjawiska przetargu pomiędzy szybkością a poprawnością wykonania zadania. Natomiast uzyskany wzrost automatyzacji wykonania zadania prowadzi do redukcji efektu przetargu. Hipotezy te tyczą się obu wyszczególnionych przez Kolańczyk (2004) rodzajów uwagi: intensywnej (badanej przy użyciu Testu Zegarków) i ekstensywnej (badanej Testem Gwiazdek).
Osobami badanymi było 90 studentów pierwszego roku psychologii na Uniwersytecie Jagiellońskim, uczących się w trybie dziennym i wieczorowym. Wśród przebadanych znalazło się 77 kobiet i 13 mężczyzn. Średni wiek studentów wynosił 20,39 (przy odchyleniu standardowym SD = 1,70). Badani byli uczestnikami kursu Psychologia procesów poznawczych. Eksperyment odbył się w ramach zajęć, stąd uczestnictwo w nim było obowiązkowe.
Materiały i aparatura
Do przeprowadzenia badania użyto dwóch rodzajów papierowych testów: Testu Zegarków Moronia oraz Testu Gwiazdek.
Test Zegarków (Szymura i Słabosz, 2002) służy do badania uwagi selektywnej w trybie intensywnym. Ułożony pionowo arkusz testowy (o formacie A4) zawierał 480 bodźców - po 24 w każdej z 20 linii. Pojedynczy bodziec stanowił rysunek tarczy zegara wskazówkowego z zaznaczoną godziną, przy czym prezentowane było tylko sześć godzin pełnych. Sygnałem była ikona przedstawiająca godzinę piątą, pojawiająca się na planszy 80 razy. Pozostałe tarcze tworzyły szum informacyjny. Zadaniem osoby badanej (określone w instrukcji) jest skreślenie jak największej ilości zegarków wskazujących godzinę piątą, zaczynając przeszukiwanie od góry, od lewej strony każdej linii. Czas przeznaczony na wykonanie testu wynosił 90 sekund. W przypadku niedokończenia rozwiązywania testu w wyznaczonym czasie osoby badane proszono o zakreślenie przeszukanego obszaru pionową kreską.
Test Gwiazdek (Szymura i in., 2006), stworzony w celu badania uwagi selektywnej w trybie ekstensywnym, złożony był z 480 bodźców, rozmieszczonych w 80 sektorach na ułożonym poziomo arkuszu (o formacie A4). Rozmieszczenie bodźców sprawiało wrażenie chaotycznego, jednak układ sektorów był regularny. Na planszy umieszczone było sześć rodzajów gwiazdek (po jednej z każdego rodzajów w każdym z sektorów). Jedna z nich była sygnałem (pokazana w instrukcji gwiazdka z ostrymi ramionami), pozostałe przyczyniały się do powstania szumu. Sposób przeszukiwania arkusza był dowolny, ale ograniczony czasowo do 90 sekund. Jedyne polecenie organizujące przeszukiwanie dotyczyło skupienia wzroku na punkcie fiksacji (czarny krzyżyk umieszczony w centrum kartki) przed rozpoczęciem zadania. W trakcie sprawdzania testów za objęty uwagą uznawany był każdy sektor, w którym osoba badana zaznaczyła jakikolwiek bodziec.
Przy sprawdzaniu poziomu wykonania obu testów przyjęto empiryczne wskaźniki przebiegu procesu poznawczego (Szymura, 2007) – szybkość i poprawność. Szybkość (SPEED) zdefiniowano jako ilość bodźców objętych uwagą, a więc w Teście Zegarków była to liczba zegarków (LZEG), natomiast w Teście Gwiazdek – liczba gwiazdek (LGWI). W ocenie poprawności wykonania testów odwołano się do teorii detekcji sygnałów (Green i Swets, 1966, za: Zimbardo, 1999). Według tej teorii w zastosowanych zadaniach mogły zaistnieć dwa rodzaje błędów możliwych do popełnienia. Były to: ominięcia (OM), polegające na braku reakcji przy obecności danego sygnału (błędy dominujące w Teście Gwiazdek) oraz fałszywe alarmy (FA), wiążące się z wystąpieniem reakcji, kiedy nie jest obecny sygnał (błędy dominujące w Teście Zegarków).
Procedura
Badania zastały przeprowadzone w grupach kilkunastoosobowych podczas ćwiczeń z przedmiotu Psychologia procesów poznawczych. Wszystkie osoby badane wykonywały obydwa testy, każdy z nich trzykrotnie. Kolejność wykonywania testów zrównoważono – połowa grup najpierw wypełniała Test Zegarków, podczas gdy druga część jako pierwszy rozwiązywała Test Gwiazdek. Podział ten miał na celu kontrolowanie przewidywanego efektu kolejności i wyeliminowanie jego ewentualnego zakłócenia poprawności wykonywania poleceń.
W obu przypadkach zadanie polegało na jak najszybszym zaznaczeniu jak największej ilości sygnałów. Pomiędzy poszczególnymi wykonaniami danego testu osobom badanym pozwalano na chwilowy odpoczynek (nie zastosowano dokładnej kontroli długości tego czasu). Pomiędzy zakończeniem wykonania serii testów pierwszego rodzaju a rozpoczęciem wykonywania zadania drugiego również zastosowano przerwę czasową (wystarczającą na rozdanie arkuszy testowych, jej dokładny czas trwania nie był kontrolowany).
Zmienne
W przeprowadzonym eksperymencie występowały następujące zmienne zależne: szybkość wykonania zadania (SPEED), określona jako LZEG w Teście Zegarków i LGWI w Teście Gwiazdek oraz poprawność, mierzona ilością FA i ilością OM.
Do zmiennych niezależnych manipulacyjnych należały: seria automatyzacyjna (wykonywanie testu z trzykrotnym powtórzeniem) oraz typ testu (Test Zegarków / Test Gwiazdek). Tymczasem szybkość wykonania zadania stanowiła również zmienną niezależną klasyfikacyjną (max. SPEED = 480; podział na podstawie mediany na dwie kategorie osób: wolno i szybko selekcjonujące).
Hipotezy szczegółowe
Z uwagi na proces automatyzacji wraz z każdym wykonaniem (1 – 3) następuje zmniejszenie liczby błędów (zarówno OM, jak i FA), wzrasta natomiast wartość LZEG i LGWI (w zależności od rodzaju testu).
Na skutek ograniczonego czasu przetwarzania następuje zjawisko przetargu pomiędzy szybkością a poprawnością wykonania zadania, które ujawnia się wystąpieniem większej liczby OM (dla Testu Zegarków) oraz większej liczby FA (dla Testu Gwiazdek) u osób szybko wykonujących testy (LZEG/LGWI powyżej mediany).
Każdy kolejny etap wykonania danego testu (wykonania 1 -3) wiąże się z redukcją efektu przetargu, co uwidacznia się wzrastającą poprawnością wykonania (niższa liczba OM w Teście Zegarków i FA w Teście Gwiazdek) u osób szybko selekcjonujących. Różnica w liczbie popełnianych dominujących typów błędów między osobami wolno i szybko wykonującymi testy dąży do zniwelowania.
Opis wyników
Rezultaty badań opracowano przy użyciu pakietu statystycznego Statistica, z wykorzystaniem procedur ANOVA i MANOVA.
Efekt automatyzacji w Teście Zegarków wystąpił jedynie w zakresie automatyzacji szybkości. Z wykonania na wykonanie w serii automatyzacyjnej wzrastała liczba bodźców objętych uwagą (LZEG: F(2,176) = 26,09; p< 0,00001); w porównaniu zaplanowanym: wykonanie 1 - wykonanie 2: F(1,88) = 22,18; p< 0,00009, wykonanie 2 – wykonanie 3: F(1,88) = 8,90; p<0,004. Automatyzacji poprawności nie zaobserwowano, gdyż liczba błędów ominięć wzrosła (OM: F(2,176) = 6,33; p<0,003); w porównaniu zaplanowanym: wykonanie 1 – wykonanie 2: F(1,88) = 4,09; p<0,03. Błędów fałszywych alarmów nie stwierdzono (FA: ns).
W Teście Gwiazdek efekt automatyzacji również wystąpił jedynie pod względem automatyzacji szybkości. W serii automatyzacyjnej wzrastała liczba przeanalizowanych bodźców (LGWI: F(2,176) = 34,76; p<0,000001); w porównaniu zaplanowanym: wykonanie 1 – wykonanie 2: F(1,88) = 35,31; p<0,000001, wykonanie 2 – wykonanie 3: F(1,88) = 2,97; p<0,09 (wynik na granicy istotności statystycznej). Automatyzacja poprawności nie wystąpiła (FA: ns; OM: ns), aczkolwiek zaznaczyła się tendencja do zmniejszania się ilości błędów ominięć (w porównaniu zaplanowanym: wykonanie 1- wykonanie 3: F(1,88) = 3,29; p<0, 08).
Szczegółowe dane ilustrujące efekt automatyzacji umieszczono w tabeli 1.
Tabela 1.
Efekt automatyzacji
Wykonanie
Test Zegarków
Test Gwiazdek
LZEG*
FA***
OM**
LGWI*
OM***
1
250,82
0,46
9,45
413,14
14,94
2,88
2
271,59
0,25
11,00
454,33
14,67
2,29
3
281,21
0,32
11,90
461,11
...
LeszczuSzlugi