Techniczne
limitacje dotyczyły nie tylko nośników, na których zapisywano słowa,
ale samych metod zapisu. Większość książek przez setki lat pełniło
funkcję nośnika zapisanej mowy. Skrybowie notowali za pomocą scriptio continua
- formy pisma pozbawionej spacji, znaków diakrytycznych i interpunkcji –
słowo mówione, tak, jak im je dyktowano. Taki sposób zapisu ograbiał
autorów słowa pisanego, a właściwie dyktowanego, z możliwości
wykorzystania aktu i technologii pisania jako
rusztowania, na którym wznoszone są coraz bardziej wyrafinowane
konstrukty myśli. Temu wszak służą wszelkie zabiegi edycyjne, które
korzystają z tego, że eksternalizacja myśli w postaci zapisu na papierze
ułatwia, a de facto umożliwia, jej krytyczną analizę i udoskonalenia w toku pisania. W efekcie teksty dyktowane skrybom i zapisywane scriptio continua, w porównaniu do współczesnych, zawierały więcej powtórzeń i były mniej uporządkowane.
Także czytanie było o wiele trudniejsze. Scriptio continua,
zapisana mowa, pozbawiona interpunkcji, wielkich liter czy spacji,
musiała być dekodowana w mentalnie kosztownym procesie w trakcie samego
aktu odczytywania. Dlatego często czytający zajmował się tylko tym –
jako lektor – a nie próbą zrozumienia, co właściwie czyta.
Także
słuchający odczytań książek byli bardziej ograniczeni w odbiorze, niż
ci, którzy czytają samemu. Słuchanie, w przeciwieństwie do czytania, nie
było prywatnym aktem zapoznawania się z treścią, robionym w skupieniu,
wedle własnych potrzeb i możliwości. Częściej miało charakter
uczestnictwa w publicznym performansie, w którym wiele osób chłonęło tę
samą treść czytaną przez jednego lektora. To oczywiście dodatkowo
upośledzało odbiór czytanych treści.
Tak czy siak potrzeba jest matką wynalazku. Odczytywanie scriptio continua
stanowiło takie wyzwanie, że począwszy od siódmego i ósmego stulecia
naszej ery w pisanym tekście zaczęły się pojawiać spacje. Za tym
podążyły inne zmiany w technikach zapisu, które uformowały konwencje
interpunkcji i składni jakie znamy współcześnie. Raz zapoczątkowany,
proces ten w zaledwie kilkaset lat unicestwił scriptio continua, jednocześnie czyniąc słowo pisane znacznie wygodniejszym narzędziem do utrwalania myśli, jak i późniejszego ich odczytywania.
Zastąpienie
kosztownego papirusu i pergaminu papierem znacząco obniżyło koszt i
doprowadziło do dalszego rozprzestrzenienia się sztuki czytania i
pisania. Dało autorom możliwość pisania i szybkiej edycji tekstów - nie
żal skreślać tekstów na tanim papierze, próbować wielu wersji tego, co
chce się ostatecznie napisać. Pisanie na papierze miało też, jak zauważa
Carr, bardziej subtelny wpływ na pisarzy. Póki było czynnością
publiczną – dyktowania skrybie piszącemu na pergaminie – prowadziło do
autocenzury. Pisarze piszący w prywatności swoich gabinetów zawiązywali
bardziej intymną relację z pisanym tekstem, pozwalali sobie na większą
swobodę wyrażania poglądów i flirt z bardziej transgresywnymi ideami.
Papier był też wstępem do mechanizacji pisania, czyli wynalezienia druku. To z kolei sprawiło, że doszło do wykładniczego
przyrostu liczby pisanych i publikowanych tekstów. Książki przestały
być niszowym medium zamkniętym w murach klasztorów i bibliotek – stały
się masowym nośnikiem memów, które poczęły transformować społeczeństwa.
Wraz
z upowszechnieniem się medium rozpowszechniły się zmiany behawioralne,
które ułatwiały korzystanie z tegoż medium. To właśnie te zmiany
stanowią według Carra klucz do zrozumienia unikalnej roli książek.
Co
jest najbardziej uderzającą cechą człowieka czytającego książkę? Mamy
do czynienia ze zwierzęciem, które na wiele godzin przestaje zwracać
uwagę na strumień rozpraszających sygnałów, zamiast tego skupia się na
względnie niezmiennym obiekcie i żywi się znaczeniem dekodowanym z
czytanych znaków.
By użyć odrobinę wyświechtanego pojęcia – takie
zachowanie jest zupełnie nienaturalne. Mózgi ludzi, tak jak innych
zwierząt, mają naturalną tendencję do szukania stymulacji sensorycznej.
Owo wrodzone pragnienie ma dobre uzasadnienie ewolucyjne – odbierane
zmysłami sygnały o zmianach w otoczeniu są zwykle istotnymi sygnałami, w
przeciwieństwie do informacji o niezmiennym tle.
Jednak by czytać
długie teksty, trzeba wprowadzić się w stan skupienia, niemal transu.
Zjawisko to ma charakter swoistej medytacji. Współczesne technologie
obrazowania ukazują, że mózg człowieka oddającego się głębokiemu
czytaniu wykazuje nader odmienną od typowej aktywność.
Tak więc
rozwój druku i upowszechnienie czytelnictwa sprawił, że popularny stał
się tryb odbioru informacji, który wymagał głębokich przekształceń w
funkcjonowaniu ludzkiego mózgu. Swój wywód o oddziaływaniu książek,
mocno osadzony w badaniach nad kulturą, historią i neuroplastycznością,
Carr podsumowuje następująco (tłumaczenie moje):
Nie
będzie przesadą stwierdzenie, że pisanie i czytanie książek poszerzyło i
uczyniło bardziej subtelnymi ludzkie doświadczenie życia i natury.
Eisenstein pisał „Niezwykła wirtuozeria literatów zdolnych przenosić
odczucia smaku, dotyku, zapachu i dźwięku w samych tylko słowach
wymagała zwiększonej świadomości i bliższej obserwacji sensorycznego
doświadczenia, które następnie przekazywano czytelnikowi”. Jak malarze i
kompozytorzy, pisarze potrafili „odmienić odczuwanie” w sposób, który
„raczej wzbogacał niż wygaszał zmysłowe odpowiedzi na zewnętrzne bodźce,
rozszerzał niż zawężał współodczuwanie ze zróżnicowanymi ludzkimi
doświadczeniami”. Słowa w książkach nie tylko wzmagały zdolność ludzi do
abstrakcyjnego myślenia, one wzbogacały ludzkie doświadczenie
fizycznego świata, świata poza książką.
Jedną z
najważniejszych lekcji wynikłych z badań nad neuroplastycznością jest,
że zdolności mentalne, neuronalne obwody rozwijane w jednym celu, mogą
być także użyte do realizacji innych zadań. Gdy nasi przodkowie nasycili
swe umysły dyscypliną niezbędną by podążać przez kolejne stronice za
argumentacją lub narracją, nabrali większych zdolności do kontemplacji,
refleksji i wyobraźni. Maryanne Wolf stwierdziła „Nowe myśli łatwiej
przychodziły mózgom, które nauczył się zmieniać swoją konfigurację w
celu czytania” dodając, że „coraz bardziej wyrafinowane intelektualne
umiejętności wzmacniane przez czytanie i pisanie wzbogaciły nasz
intelektualny repertuar”. Cisza głębokiego czytania, jak rozumiał to
[Wallace] Stevens, stała się „częścią umysłu”.
Książki
nie były jedynym powodem przekształceń ludzkiej świadomości do jakich
doszło po wynalezieniu prasy drukarskiej, wiele innych technologii i
trendów socjologicznych i demograficznych odegrało w tym swoją ważną
rolę, ale to książki leżały w centrum zmian. Wraz z tym jak książka
stawała się głównym środkiem wymiany wiedzy i wglądów, związana z tym
etyka intelektualna stała się fundamentem naszej kultury. Książka
uczyniła możliwą zniuansowaną samo-wiedzę, którą znajdujemy w Preludium
Wordswortha, czy esejach Emersona, jak i równie subtelne zrozumienie
społecznych i osobistych relacji w powieściach Austen, Flauberta czy
Henry’ego Jamesa. Nawet wielkie dwudziestowieczne eksperymenty
nielinearnej narracji Jamesa Joyce’a i Williama Burroughsa byłyby nie do
pomyślenia, gdyby autorzy nie zakładali istnienia cierpliwego i
uważnego czytelnika. Po transkrypcji na karty książki, strumień
świadomości staje się literackim i linearnym.
Etyka
literacka nie uzewnętrzniała się tylko w tym, co normalnie traktowane
jest jak literatura. Stałą się też etyką historyka, przenikając prace
takie jak Schyłek i upadek Imperium Rzymskiego Gibbona. Stała
się etyką filozofa, wpływając na idee Kartezjusza, Locke’a, Kanta czy
Nietzschego. Oraz, co najważniejsze, stała się etyką uczonego. Można
posunąć się do stwierdzenia, że najbardziej wpływowym dziełem literackim
XIX stulecia było Darwina O pochodzeniu gatunków. W dwudziestym stuleciu etyka literacka przenikała przez książki tak różne jak Einsteina Teorię względności; Keynesa Ogólną teorię zatrudnienia, procentu i pieniądza; Thomasa Kuhna Strukturę rewolucji naukowych; czy Cichą wiosnę
Rachel Carson. Żadne z tych istotnych osiągnięć intelektualnych nie
byłoby możliwe bez zmian jakie zaszły w czytaniu i pisaniu – oraz
postrzeganiu i myśleniu – wywołanych technologią wydajnej reprodukcji
długich form pisanych w druku.
Zagubieni w ogrodzie o rozwidlających się ścieżkach
Choć
znaczna część książki Carra poświęcona jest wyjaśnieniom korzyści,
jakie ludzkiej umysłowości przyniosło słowo pisane, tak naprawdę
poświęcona jest nie narodzinom, a upadkowi kultury głębokiego czytania.
Zarodkiem tego upadku był kolejny wynalazek, czyli
automatyzacja
przetwarzania symboli. Nazywając rzeczy bardziej wprost, chodzi o
wynalezienie komputera, jak i późniejsze połączenie komputerów i
zawartych w nich danych i aplikacji w światową sieć internetu.
Nie
mam zamiaru powtarzać argumentacji Carra, ostatecznie wolałbym by ta
notka działała jak zachęta do przeczytania jego książki, nie
streszczenie, ale jednak chciałbym wspomnieć o kilku kluczowych myślach.
Carr
nie jest luddystą. Nie bawi się w tanie dramatyzowanie, że komputery
zabiją nasze myślenie. Jako doskonały kontrprzykłady dla tak
prostackiego patrzenia na sprawy przytacza przykład kalkulatorów, które
automatyzują operacje arytmetyczne i zdejmują z nas brzemię wykonywania
skomplikowanych, lub tylko uciążliwych powtarzalnością obliczeń. Gdy
kalkulatory tanie i zminiaturyzowane na tyle, by trafić do szkolnych
sal, pojawił się lęk, że upośledzą naukę matematyki, zdejmując z uczniów
konieczność nieustannego praktykowania arytmetyki.
Lęki te
okazały się bezzasadne. Praktykowanie kalkulacji nie wspomaga rozumienia
abstrakcyjnych matematycznych konceptów. Na tyle na ile kalkulacje
grają rolę w procesie dydaktycznym nauczania bardziej zaawansowanych
koncepcji matematycznych, kalkulatory w nim pomagają, gdyż, jak wykazują
badania, odciążają nader ograniczoną pamięć operacyjną ludzkiego mózgu,
pozwalając poświęcić jej zasoby na radzenie sobie z właściwymi
problemami, przed którymi stoi ktoś próbujący opanować matematyczne
zagadnienia.
Zwróciwszy uwagę na realne korzyści wynikłe z
masowego wdrożenia komputerów, Carr przechodzi do omówienia przykładów
negatywnego wpływu użytkowania tych maszyn na zdolności poznawcze.
Przede wszystkim upowszechnienie hipertekstu, czyli technologii wiązania
odrębnych dokumentów tekstowych za pomocą osadzonych w nich hiperłączy,
znacząco utrudniło koncentrację niezbędną do rozumienia długich tekstów
pisanych, tym samym podważając fundament głębokiego czytania. Powoli
zaczynamy rozumieć mechanizmy tego wpływu.
Jeśli przy czytaniu
książki, czy nawet krótszego, ale nadal relatywnie długiego tekstu,
głównym wyzwaniem jest utrzymanie koncentracji niezbędnej do śledzenia
zawartej w tekście myśli, to hipertekst, dając co prawda iluzję
głębszych, naturalniejszych powiązań między dokumentami i zawartymi weń
ideami i treściami, zamienia ich czytanie w udrękę nieustannego podejmowania decyzji.
Gdy
czytasz coś w internecie nie tylko – tak jak przy czytaniu tekstu na
papierze – zużywasz siły mentalne na rozumienie tekstu, co chwila
natykasz się na hiperłącza zmuszające twój mózg do natychmiastowego
przestawienia się z trybu rozumienia informacji w tryb aktywnego
decydowania.
Decyzja sprowadza się do wyboru: czy kontynuować śledzenie
aktualnie czytanego tekstu i zawartych w nim myśli, czy raczej przerwać
je i sprawdzić jakie dodatkowe informacje kryją się w miejscu, do
którego prowadzi hiperłącze?
Badania wykazują, że ludzie zwykle
przerywają czytanie tekstu i podążają za hiperłączami. Co więcej, nawet
jeśli robią to zakładając, że wrócą potem do oryginalnego tekstu, zwykle
jedno kliknięcie prowadzi do kolejnego – cały internet jest siecią o
praktycznie nieskończonej głębokości, przynajmniej z punktu widzenia tak
mentalnie ograniczonej istoty jak człowiek.
Badania wskazują też,
że ludzie, którzy spędzają czas na fragmentarycznym czytaniu kolejnych
tekstów połączonych w łańcuszki linkami zapamiętują z tych tekstów
bardzo niewiele. Nie muszę chyba dodawać, że taki sposób czytania jest
skutkuje znacznie niższym odsetkiem zapamiętanej i zrozumianej
informacji.
Hipertekst miał ułatwić ludzkim mózgom łatwiejsze
wrośnięcie w sieć naturalnych powiązań między dokumentami i zawartymi w
nich treściami. Jeśli jednak umysły czytelników książek są jak potężne
drzewa, stabilnie wrośnięte w tkankę ich (lokalnego) intelektualnego
otoczenia, umysły czytelników zawartego w internecie hipertekstu są
bardziej jak pleśń. Ich mikroskopijne włókna zdają się docierać w
najdalsze zakamarki, ale są tylko rachityczną siecią rozpiętą między
izolowanymi faktami.
Pozbawione są głębszego rozumienia, jakie wynika ze starannej, nierozproszonej lektury.
Pamięć
Ale
sprawy mają się nawet gorzej. Pamiętacie historię małp z początku tej
notki, których mózgi zmapowały używane narzędzia na korze ruchowej, tak,
że traktowały te narzędzia jak część ciała? Oczywiście mózgi ludzkie
robią to samo, tylko bardziej.
Jedną z rzeczy, która została w
ten sposób zmapowana jest zewnętrzna, w praktyce nieograniczona pamięć.
Carr poświęca sporo miejsca wyjaśnieniu w jaki sposób eksternalizacja
pamięci wiążę się nie tylko z tym, że ludzie przestają sobie zawracać
głowę zapamiętywaniem pewnych rzeczy, ale przede wszystkim z tym, że
zaczynają gorzej rozumieć otaczający świat. Poniżej przedstawię mocną parafrazę jego główne argumentu.
Na
pierwszy rzut oka może się wydawać, że zastępowanie własnej pamięci
zewnętrzną pamięcią komputerową, zawsze dostępną w postaci internetu,
nie powinno być problemem. Czyż wykorzystanie komputerów do
rejestrowania faktów nie jest podobne do wykorzystywania kalkulatorów do
obliczeń?
W skrócie – nie. Wyobraźmy sobie, że nie tylko
pozwalamy uczniom korzystać z kalkulatorów, by wykonywać męczące
obliczenia w późniejszych etapach edukacji, lecz także na samym początku
matematycznej edukacji, gdy uczymy dzieci dodawać, odejmować, mnożyć i
dzielić, zamiast tego pouczamy ich, że muszą wcisnąć takie a takie
przyciski kalkulatora, a to co kalkulator wypuści, jest wynikiem
działania. Innymi słowy, zamiast lekcji arytmetyki zafundowalibyśmy im
instrukcję obsługi kalkulatora, a takie idee jak dodawania
powiązalibyśmy w ich mózgach nie z pewnymi abstrakcyjnymi koncepcjami,
ale pozbawionymi głębszego znaczenia operacjami wykonywanymi na
maszynie.
Coś takiego nie byłoby odciążeniem pamięć operacyjną
mózgu, tylko opróżnieniem tego narządu z jakiegokolwiek rzeczywistego
rozumienia podstaw matematyki. Byłoby też pozbawieniem fundamentu
niezbędnego do zrozumienia innych, bardziej złożonych konceptów
matematycznych. Człowiek, który nigdy nie nauczył się dodawać czy
dzielić, a zamiast tego wykorzystuje w tym celu maszynę, musiałby też
użyć maszyny do rozwiązania najprostszego równania.
Cóż, dokładnie
taka eksternalizacja – nie tylko faktów, ale też ich rozumienia –
dokonuje się na masową skalę przez korzystanie z internetu jako zasobu
praktycznie nieskończonej zewnętrznej pamięci. Internet to gigantyczny
zbiór hipermediów, połączonych niebywale skomplikowaną siecią
hiperłączy, oraz zindeksowany przez niezwykle wydajne silniki
wyszukiwania.
Jeśli interesuje cię jakiś fakt, jego znalezienie
przy pomocy Google zajmuje tylko chwilę. Wiesz, że w książce X napisano o
Y? Nic trudnego, Google Books zaprowadzi cię do konkretnego paragrafu w
kilka sekund, bez konieczności przewrócenia choćby jednej strony. I bez
konieczności zrozumienia jakiegokolwiek kontekstu.
Na najbardziej
fundamentalnym poziomie zgubny skutek wykorzystywania sieci jako
zewnętrznej pamięci, a także zmapowania tej rutyny na nasze obwody
neuronalne, wynika z fundamentalnych różnic między tym jak zapamiętuje
mózg, a jak zapamiętuje komputer.
Komputer każde dane traktuje jak pasywne porcje informacji, ciągi zer i jedynek bez realnego znaczenia (ile semantyki
zawarte jest w komputerach to w ogóle odrębna kwestia, ale na potrzeby
niniejszego wywodu możemy bezpiecznie przyjąć, że na chwilę obecną jest
jej tak mało, że w zasadzie wcale jej nie ma). Mózg tymczasem jest
odmieniony przez każdy zapamiętany fakt, każdą zrozumianą ideę.
Rozpatrzmy to na jakimś przykładzie (to mój przykład, nie Carra, ale dobrze ilustruje jego tezy). Gdy czytałem Samolubny gen Dawkinsa, to miałem okazję poznać wiele nowych faktów.
Książka roi się od historycznych relacji z różnych naukowych dociekań,
na przykład badań nad teorią gier. Dostarcza licznych przykładów dla
adaptacji i ich mechanizmów, które zostały zgromadzone przez etologów.
Większości tych faktów nie zapamiętałem. Oczywiście posiadanie cyfrowej kopii Genu
na komputerze pozwala mi bardzo szybko odszukać te przykłady – gdybym
tego potrzebował. Ale tak naprawdę nie potrzebuję, bo nie czytałem tej
książki po to, by sobie zgromadzić trochę faktów w głowie.
Fakty w
książce Dawkinsa były tylko ilustracjami dla argumentów i idei. To te
argumenty i idee, stojący za nimi pewien specyficzny ogląd świata, stanowi właściwą treść książki, to, co powinno zostać w moim umyśle po lekturze.
Mój własny ogląd świata i rozumienie wielu jego aspektów uległo przemianie gdy przeczytałem Samolubny gen. Nie było to prostym dodaniem nowych danych, nowych faktów, nowych plików,
do jakiegoś pasywnego zbioru, a rekonfiguracją całości mojego sposobu
myślenia, która zmodyfikowała moje rozumienie także i rzeczy, które już
wcześniej wiedziałem.
I nie jest to metafora: każde nowe
wspomnienie rekonfiguruje neuronalne połączenia w mózgu, tym samym
zmieniając tę wiedzę, która już tam istnieje, przy czym wydaje się, że
wspomnienia są przechowywane nielokalnie, a więc rekonfiguracja musi
dotyczyć dużych obszarów mózgu.
Gdybym zapoznał się z książką
fragmentarycznie, ekstrahując jakiś konkretny fakt, lub pobieżnie
śledząc jakiś konkretny argument, może nawet używając go w jakiejś
syntezie poglądów naprędce składanych z tak wyciąganych z sieci
fragmentów, to ogólny wpływ tej książki na moje rozumienie świata byłby
bliski zeru.
Samolubny gen nie był oczywiście jedyną
książką, o której śmiało mogę powiedzieć, że mnie zmieniła. Gdy patrzę
we własną przeszłość, jestem w stanie, po tytułach kluczowych książek,
zidentyfikować cezury, po których całe moje myślenie
przestawiało się na trochę inne tory. Ale było to możliwe, ponieważ
czytałem je w tym szczególnym stanie umysłu, w trakcie głębokiego
czytania, w wielkim skupieniu, starannie podążając za wywodem autora.
Tymczasem
gdy eksternalizujemy swoją pamięć, to zastępujemy głębokie asocjacje
między naszymi doświadczeniami, istotne rekonfiguracje naszego ja,
czymś znacznie prostszym – trywialną wiedzą gdzie należy kliknąć, by
wyświetlił się nam przed oczami katalog niepowiązanych faktów bez
znaczenia, zapisanych w stabilnych i niezmiennych strukturach
komputerowych danych, leżących na jakichś zdalnych serwerach.
Wiemy
jak znaleźć informację o wszystkim, ale jednocześnie tak naprawdę nie
wiemy, a w każdym razie nie rozumiemy, praktycznie niczego.
Hipertekst
Ci, którzy śledzą mój blog zauważyli może, że od pewnego czasu na końcu notki pojawia się sekcja
hipertekst.
Jednocześnie znacząco ograniczyłem użycie hiperłączy w innych częściach
moich wpisów. Po przeczytaniu tej notki wiecie już dlaczego tak robię.
Teksty, które nie są nasycone hiperłączami, są nie tylko przyjemniejsze i
łatwiejsze w czytaniu, są też
trudniejsze w pisaniu.
Pisanie
w internecie zachęca do specyficznego sposobu przekazywania treści. Gdy
tylko natykam się na jakiś złożoną ideę, zawsze pojawia się pokusa, by
znaleźć w sieci jakieś w miarę dobre przedstawienie owej idei, a
następnie doń zalinkować, oszczędzając sobie trudu. I łudząc się, że
ktoś naprawdę pójdzie za linkiem, przyswoi to co jest tam zawarte, a
następnie wróci do mojego tekstu, by będąc ubogaconym wskazaną przeze
mnie wiedzą, kontynuować przyswajanie tego, co ja mam do przekazania.
The Shallows
jest książką, która dość skutecznie odziera ze złudzeń, że coś takiego
ma w praktyce miejsce. To z kolei sprawia, że pisanie notek staje się
trudniejsze. Muszę znaleźć sposób by albo umiejętnie wpleść cytat, albo
umiejętnie omówić idee, do których normalnie bym tylko się odwołał
jednym słowem, linkującym do innego tekstu. Hipertekst jest rakiem słowa
pisanego, przynajmniej tego, które próbuje przekazać jakąkolwiek
głębszą myśl. Postanowiłem spróbować wyciąć tego raka.
To wyjaśniwszy, chciałbym polecić kilka linków prowadzących do rzeczy wartych waszej uwagi.
Jeśli nie od razu czujecie się gotowi sięgać po książkę Carra, możecie sięgnąć po jego
artykuł z The Atlantic, który był zarodkiem
The Shallows. O mapowaniu narzędzi w korze ruchowej małp możecie przeczytać
tutaj. Jeśli zaś chodzi o kalkulatory i wpływ ich użycia na naukę matematyki, to już w latach 80 zeszłego wieku opublikowano
metaanalizę badań na ten temat.