Strony wciąż aktualne...

piątek, 6 stycznia 2017

pod wpływem internetu dzieją się z naszymi umysłami przykre rzeczy


przedruk


Porównaj poniższy tekst z:
- metoda nawyków oraz 
- schemat postępowania Wędrującej Cywilizacji Śmierci.


Jedna z najciekawszych książek, które czytałem w zeszłym roku – „The Shallows. What the Internet Is Doing to Our Brains” Nicholasa Carra – stara się przekonać, że pod wpływem internetu dzieją się z naszymi umysłami przykre rzeczy. Mnie przekonała.
 
Narzędzia

Choć człowiek nie jest jedynym gatunkiem, który wytwarza i używa narzędzi, to niewątpliwie wynieśliśmy tę umiejętność na bezprecedensowy w ewolucyjnej historii poziom. Począwszy od pierwszych narzędzi tworzonych z kamienia, aż do współczesnych komputerów, ludzka inwencja znajduje coraz to nowe sposoby na robienie różnych rzeczy mniejszym wysiłkiem lub bardziej wydajnie. Narzędzia nie tylko zmieniają to w jaki sposób robimy pewne rzeczy. One zmieniają nas.

W istocie nie tylko nas. 

W 2007 roku grupa włoskich uczonych opublikowała wyniki badań nad aktywnością neuronów kory ruchowej u małp, które nauczono posługiwać się dwoma rodzajami szczypiec. Analiza wykazała nie tylko jak ruchy rąk tych map są zmapowane w obrębie różnych obszarów kory ruchowej, ale też, że po nauczeniu się korzystania z narzędzia można w ten sam sposób zidentyfikować obszary odpowiedzialne za ruch szczypcami. Układ nerwowy małp adaptuje się do używanych narzędzi w taki sposób, że czyni je częścią neuronalnych map kory ruchowej.

Innymi słowy mózg małpy uznaje narzędzie za część jej ciała. Właściwość mózgu pozwalająca na rearanżację nerwowych połączeń zwana jest neuroplastycznością. Neuroplastyczność ludzkiego mózgu jest większa niż jakiegokolwiek innego znanego nam gatunku. To dzięki niej potrafimy się tak dobrze adaptować do środowiska na poziomie zachowań, bez czekania aż w naszych genach i ciałach zajdą stosowne zmiany ewolucyjne.

To z kolei sprawia, że ludzkie mózgi ulegają silnym przekształceniom w wyniku interakcji z narzędziami, których używamy. Carr zwraca w swojej książce uwagę, że nie zawsze jest to z korzyścią dla użytkowników tych narzędzi.

Tekst

Przykładem takiego narzędzia jest pismo. Wynalazek ten nie tylko umożliwił utrwalanie myśli, ale głęboko odmienił to, w jaki sposób ludzkie mózgi myśli produkują.

Oczywiście nie od razu. Z początku pismo było techniką trudną do opanowania i dostępną dla wybranych, co wynikało zarówno z ograniczonej do nielicznych grup społecznych edukacji, jak i limitów ściśle technicznych – takie formy utrwalania pisma jak gliniane tabliczki, papirusy czy pergamin były albo niezbyt praktyczne, albo drogie w produkcji.
 
 
Scripto continua

Techniczne limitacje dotyczyły nie tylko nośników, na których zapisywano słowa, ale samych metod zapisu. Większość książek przez setki lat pełniło funkcję nośnika zapisanej mowy. Skrybowie notowali za pomocą scriptio continua - formy pisma pozbawionej spacji, znaków diakrytycznych i interpunkcji – słowo mówione, tak, jak im je dyktowano. Taki sposób zapisu ograbiał autorów słowa pisanego, a właściwie dyktowanego, z możliwości wykorzystania aktu i technologii pisania jako rusztowania, na którym wznoszone są coraz bardziej wyrafinowane konstrukty myśli. Temu wszak służą wszelkie zabiegi edycyjne, które korzystają z tego, że eksternalizacja myśli w postaci zapisu na papierze ułatwia, a de facto umożliwia, jej krytyczną analizę i udoskonalenia w toku pisania. W efekcie teksty dyktowane skrybom i zapisywane scriptio continua, w porównaniu do współczesnych, zawierały więcej powtórzeń i były mniej uporządkowane.

Także czytanie było o wiele trudniejsze. Scriptio continua, zapisana mowa, pozbawiona interpunkcji, wielkich liter czy spacji, musiała być dekodowana w mentalnie kosztownym procesie w trakcie samego aktu odczytywania. Dlatego często czytający zajmował się tylko tym – jako lektor – a nie próbą zrozumienia, co właściwie czyta.

Także słuchający odczytań książek byli bardziej ograniczeni w odbiorze, niż ci, którzy czytają samemu. Słuchanie, w przeciwieństwie do czytania, nie było prywatnym aktem zapoznawania się z treścią, robionym w skupieniu, wedle własnych potrzeb i możliwości. Częściej miało charakter uczestnictwa w publicznym performansie, w którym wiele osób chłonęło tę samą treść czytaną przez jednego lektora. To oczywiście dodatkowo upośledzało odbiór czytanych treści.

Tak czy siak potrzeba jest matką wynalazku. Odczytywanie scriptio continua stanowiło takie wyzwanie, że począwszy od siódmego i ósmego stulecia naszej ery w pisanym tekście zaczęły się pojawiać spacje. Za tym podążyły inne zmiany w technikach zapisu, które uformowały konwencje interpunkcji i składni jakie znamy współcześnie. Raz zapoczątkowany, proces ten w zaledwie kilkaset lat unicestwił scriptio continua, jednocześnie czyniąc słowo pisane znacznie wygodniejszym narzędziem do utrwalania myśli, jak i późniejszego ich odczytywania.

Zastąpienie kosztownego papirusu i pergaminu papierem znacząco obniżyło koszt i doprowadziło do dalszego rozprzestrzenienia się sztuki czytania i pisania. Dało autorom możliwość pisania i szybkiej edycji tekstów - nie żal skreślać tekstów na tanim papierze, próbować wielu wersji tego, co chce się ostatecznie napisać. Pisanie na papierze miało też, jak zauważa Carr, bardziej subtelny wpływ na pisarzy. Póki było czynnością publiczną – dyktowania skrybie piszącemu na pergaminie – prowadziło do autocenzury. Pisarze piszący w prywatności swoich gabinetów zawiązywali bardziej intymną relację z pisanym tekstem, pozwalali sobie na większą swobodę wyrażania poglądów i flirt z bardziej transgresywnymi ideami.

Papier był też wstępem do mechanizacji pisania, czyli wynalezienia druku. To z kolei sprawiło, że doszło do wykładniczego przyrostu liczby pisanych i publikowanych tekstów. Książki przestały być niszowym medium zamkniętym w murach klasztorów i bibliotek – stały się masowym nośnikiem memów, które poczęły transformować społeczeństwa.
Wraz z upowszechnieniem się medium rozpowszechniły się zmiany behawioralne, które ułatwiały korzystanie z tegoż medium. To właśnie te zmiany stanowią według Carra klucz do zrozumienia unikalnej roli książek.

Co jest najbardziej uderzającą cechą człowieka czytającego książkę? Mamy do czynienia ze zwierzęciem, które na wiele godzin przestaje zwracać uwagę na strumień rozpraszających sygnałów, zamiast tego skupia się na względnie niezmiennym obiekcie i żywi się znaczeniem dekodowanym z czytanych znaków.

By użyć odrobinę wyświechtanego pojęcia – takie zachowanie jest zupełnie nienaturalne. Mózgi ludzi, tak jak innych zwierząt, mają naturalną tendencję do szukania stymulacji sensorycznej. Owo wrodzone pragnienie ma dobre uzasadnienie ewolucyjne – odbierane zmysłami sygnały o zmianach w otoczeniu są zwykle istotnymi sygnałami, w przeciwieństwie do informacji o niezmiennym tle.

Jednak by czytać długie teksty, trzeba wprowadzić się w stan skupienia, niemal transu. Zjawisko to ma charakter swoistej medytacji. Współczesne technologie obrazowania ukazują, że mózg człowieka oddającego się głębokiemu czytaniu wykazuje nader odmienną od typowej aktywność.
Tak więc rozwój druku i upowszechnienie czytelnictwa sprawił, że popularny stał się tryb odbioru informacji, który wymagał głębokich przekształceń w funkcjonowaniu ludzkiego mózgu. Swój wywód o oddziaływaniu książek, mocno osadzony w badaniach nad kulturą, historią i neuroplastycznością, Carr podsumowuje następująco (tłumaczenie moje):
Nie będzie przesadą stwierdzenie, że pisanie i czytanie książek poszerzyło i uczyniło bardziej subtelnymi ludzkie doświadczenie życia i natury. Eisenstein pisał „Niezwykła wirtuozeria literatów zdolnych przenosić odczucia smaku, dotyku, zapachu i dźwięku w samych tylko słowach wymagała zwiększonej świadomości i bliższej obserwacji sensorycznego doświadczenia, które następnie przekazywano czytelnikowi”. Jak malarze i kompozytorzy, pisarze potrafili „odmienić odczuwanie” w sposób, który „raczej wzbogacał niż wygaszał zmysłowe odpowiedzi na zewnętrzne bodźce, rozszerzał niż zawężał współodczuwanie ze zróżnicowanymi ludzkimi doświadczeniami”. Słowa w książkach nie tylko wzmagały zdolność ludzi do abstrakcyjnego myślenia, one wzbogacały ludzkie doświadczenie fizycznego świata, świata poza książką.
Jedną z najważniejszych lekcji wynikłych z badań nad neuroplastycznością jest, że zdolności mentalne, neuronalne obwody rozwijane w jednym celu, mogą być także użyte do realizacji innych zadań. Gdy nasi przodkowie nasycili swe umysły dyscypliną niezbędną by podążać przez kolejne stronice za argumentacją lub narracją, nabrali większych zdolności do kontemplacji, refleksji i wyobraźni. Maryanne Wolf stwierdziła „Nowe myśli łatwiej przychodziły mózgom, które nauczył się zmieniać swoją konfigurację w celu czytania” dodając, że „coraz bardziej wyrafinowane intelektualne umiejętności wzmacniane przez czytanie i pisanie wzbogaciły nasz intelektualny repertuar”. Cisza głębokiego czytania, jak rozumiał to [Wallace] Stevens, stała się „częścią umysłu”.
Książki nie były jedynym powodem przekształceń ludzkiej świadomości do jakich doszło po wynalezieniu prasy drukarskiej, wiele innych technologii i trendów socjologicznych i demograficznych odegrało w tym swoją ważną rolę, ale to książki leżały w centrum zmian. Wraz z tym jak książka stawała się głównym środkiem wymiany wiedzy i wglądów, związana z tym etyka intelektualna stała się fundamentem naszej kultury. Książka uczyniła możliwą zniuansowaną samo-wiedzę, którą znajdujemy w Preludium Wordswortha, czy esejach Emersona, jak i równie subtelne zrozumienie społecznych i osobistych relacji w powieściach Austen, Flauberta czy Henry’ego Jamesa. Nawet wielkie dwudziestowieczne eksperymenty nielinearnej narracji Jamesa Joyce’a i Williama Burroughsa byłyby nie do pomyślenia, gdyby autorzy nie zakładali istnienia cierpliwego i uważnego czytelnika. Po transkrypcji na karty książki, strumień świadomości staje się literackim i linearnym.
Etyka literacka nie uzewnętrzniała się tylko w tym, co normalnie traktowane jest jak literatura. Stałą się też etyką historyka, przenikając prace takie jak Schyłek i upadek Imperium Rzymskiego Gibbona. Stała się etyką filozofa, wpływając na idee Kartezjusza, Locke’a, Kanta czy Nietzschego. Oraz, co najważniejsze, stała się etyką uczonego. Można posunąć się do stwierdzenia, że najbardziej wpływowym dziełem literackim XIX stulecia było Darwina O pochodzeniu gatunków. W dwudziestym stuleciu etyka literacka przenikała przez książki tak różne jak Einsteina Teorię względności; Keynesa Ogólną teorię zatrudnienia, procentu i pieniądza; Thomasa Kuhna Strukturę rewolucji naukowych; czy Cichą wiosnę Rachel Carson. Żadne z tych istotnych osiągnięć intelektualnych nie byłoby możliwe bez zmian jakie zaszły w czytaniu i pisaniu – oraz postrzeganiu i myśleniu – wywołanych technologią wydajnej reprodukcji długich form pisanych w druku.

 

Zagubieni w ogrodzie o rozwidlających się ścieżkach

Choć znaczna część książki Carra poświęcona jest wyjaśnieniom korzyści, jakie ludzkiej umysłowości przyniosło słowo pisane, tak naprawdę poświęcona jest nie narodzinom, a upadkowi kultury głębokiego czytania. Zarodkiem tego upadku był kolejny wynalazek, czyli automatyzacja przetwarzania symboli. Nazywając rzeczy bardziej wprost, chodzi o wynalezienie komputera, jak i późniejsze połączenie komputerów i zawartych w nich danych i aplikacji w światową sieć internetu.
Nie mam zamiaru powtarzać argumentacji Carra, ostatecznie wolałbym by ta notka działała jak zachęta do przeczytania jego książki, nie streszczenie, ale jednak chciałbym wspomnieć o kilku kluczowych myślach.

Carr nie jest luddystą. Nie bawi się w tanie dramatyzowanie, że komputery zabiją nasze myślenie. Jako doskonały kontrprzykłady dla tak prostackiego patrzenia na sprawy przytacza przykład kalkulatorów, które automatyzują operacje arytmetyczne i zdejmują z nas brzemię wykonywania skomplikowanych, lub tylko uciążliwych powtarzalnością obliczeń. Gdy kalkulatory tanie i zminiaturyzowane na tyle, by trafić do szkolnych sal, pojawił się lęk, że upośledzą naukę matematyki, zdejmując z uczniów konieczność nieustannego praktykowania arytmetyki.

Lęki te okazały się bezzasadne. Praktykowanie kalkulacji nie wspomaga rozumienia abstrakcyjnych matematycznych konceptów. Na tyle na ile kalkulacje grają rolę w procesie dydaktycznym nauczania bardziej zaawansowanych koncepcji matematycznych, kalkulatory w nim pomagają, gdyż, jak wykazują badania, odciążają nader ograniczoną pamięć operacyjną ludzkiego mózgu, pozwalając poświęcić jej zasoby na radzenie sobie z właściwymi problemami, przed którymi stoi ktoś próbujący opanować matematyczne zagadnienia.

Zwróciwszy uwagę na realne korzyści wynikłe z masowego wdrożenia komputerów, Carr przechodzi do omówienia przykładów negatywnego wpływu użytkowania tych maszyn na zdolności poznawcze. Przede wszystkim upowszechnienie hipertekstu, czyli technologii wiązania odrębnych dokumentów tekstowych za pomocą osadzonych w nich hiperłączy, znacząco utrudniło koncentrację niezbędną do rozumienia długich tekstów pisanych, tym samym podważając fundament głębokiego czytania. Powoli zaczynamy rozumieć mechanizmy tego wpływu.

Jeśli przy czytaniu książki, czy nawet krótszego, ale nadal relatywnie długiego tekstu, głównym wyzwaniem jest utrzymanie koncentracji niezbędnej do śledzenia zawartej w tekście myśli, to hipertekst, dając co prawda iluzję głębszych, naturalniejszych powiązań między dokumentami i zawartymi weń ideami i treściami, zamienia ich czytanie w udrękę nieustannego podejmowania decyzji.
Gdy czytasz coś w internecie nie tylko – tak jak przy czytaniu tekstu na papierze – zużywasz siły mentalne na rozumienie tekstu, co chwila natykasz się na hiperłącza zmuszające twój mózg do natychmiastowego przestawienia się z trybu rozumienia informacji w tryb aktywnego decydowania. 

Decyzja sprowadza się do wyboru: czy kontynuować śledzenie aktualnie czytanego tekstu i zawartych w nim myśli, czy raczej przerwać je i sprawdzić jakie dodatkowe informacje kryją się w miejscu, do którego prowadzi hiperłącze?

Badania wykazują, że ludzie zwykle przerywają czytanie tekstu i podążają za hiperłączami. Co więcej, nawet jeśli robią to zakładając, że wrócą potem do oryginalnego tekstu, zwykle jedno kliknięcie prowadzi do kolejnego – cały internet jest siecią o praktycznie nieskończonej głębokości, przynajmniej z punktu widzenia tak mentalnie ograniczonej istoty jak człowiek.

Badania wskazują też, że ludzie, którzy spędzają czas na fragmentarycznym czytaniu kolejnych tekstów połączonych w łańcuszki linkami zapamiętują z tych tekstów bardzo niewiele. Nie muszę chyba dodawać, że taki sposób czytania jest skutkuje znacznie niższym odsetkiem zapamiętanej i zrozumianej informacji.

Hipertekst miał ułatwić ludzkim mózgom łatwiejsze wrośnięcie w sieć naturalnych powiązań między dokumentami i zawartymi w nich treściami. Jeśli jednak umysły czytelników książek są jak potężne drzewa, stabilnie wrośnięte w tkankę ich (lokalnego) intelektualnego otoczenia, umysły czytelników zawartego w internecie hipertekstu są bardziej jak pleśń. Ich mikroskopijne włókna zdają się docierać w najdalsze zakamarki, ale są tylko rachityczną siecią rozpiętą między izolowanymi faktami.
Pozbawione są głębszego rozumienia, jakie wynika ze starannej, nierozproszonej lektury.

Pamięć

Ale sprawy mają się nawet gorzej. Pamiętacie historię małp z początku tej notki, których mózgi zmapowały używane narzędzia na korze ruchowej, tak, że traktowały te narzędzia jak część ciała? Oczywiście mózgi ludzkie robią to samo, tylko bardziej

Jedną z rzeczy, która została w ten sposób zmapowana jest zewnętrzna, w praktyce nieograniczona pamięć. Carr poświęca sporo miejsca wyjaśnieniu w jaki sposób eksternalizacja pamięci wiążę się nie tylko z tym, że ludzie przestają sobie zawracać głowę zapamiętywaniem pewnych rzeczy, ale przede wszystkim z tym, że zaczynają gorzej rozumieć otaczający świat. Poniżej przedstawię mocną parafrazę jego główne argumentu.

Na pierwszy rzut oka może się wydawać, że zastępowanie własnej pamięci zewnętrzną pamięcią komputerową, zawsze dostępną w postaci internetu, nie powinno być problemem. Czyż wykorzystanie komputerów do rejestrowania faktów nie jest podobne do wykorzystywania kalkulatorów do obliczeń?
W skrócie – nie. Wyobraźmy sobie, że nie tylko pozwalamy uczniom korzystać z kalkulatorów, by wykonywać męczące obliczenia w późniejszych etapach edukacji, lecz także na samym początku matematycznej edukacji, gdy uczymy dzieci dodawać, odejmować, mnożyć i dzielić, zamiast tego pouczamy ich, że muszą wcisnąć takie a takie przyciski kalkulatora, a to co kalkulator wypuści, jest wynikiem działania. Innymi słowy, zamiast lekcji arytmetyki zafundowalibyśmy im instrukcję obsługi kalkulatora, a takie idee jak dodawania powiązalibyśmy w ich mózgach nie z pewnymi abstrakcyjnymi koncepcjami, ale pozbawionymi głębszego znaczenia operacjami wykonywanymi na maszynie.

Coś takiego nie byłoby odciążeniem pamięć operacyjną mózgu, tylko opróżnieniem tego narządu z jakiegokolwiek rzeczywistego rozumienia podstaw matematyki. Byłoby też pozbawieniem fundamentu niezbędnego do zrozumienia innych, bardziej złożonych konceptów matematycznych. Człowiek, który nigdy nie nauczył się dodawać czy dzielić, a zamiast tego wykorzystuje w tym celu maszynę, musiałby też użyć maszyny do rozwiązania najprostszego równania.

Cóż, dokładnie taka eksternalizacja – nie tylko faktów, ale też ich rozumienia – dokonuje się na masową skalę przez korzystanie z internetu jako zasobu praktycznie nieskończonej zewnętrznej pamięci. Internet to gigantyczny zbiór hipermediów, połączonych niebywale skomplikowaną siecią hiperłączy, oraz zindeksowany przez niezwykle wydajne silniki wyszukiwania.
Jeśli interesuje cię jakiś fakt, jego znalezienie przy pomocy Google zajmuje tylko chwilę. Wiesz, że w książce X napisano o Y? Nic trudnego, Google Books zaprowadzi cię do konkretnego paragrafu w kilka sekund, bez konieczności przewrócenia choćby jednej strony. I bez konieczności zrozumienia jakiegokolwiek kontekstu.
Na najbardziej fundamentalnym poziomie zgubny skutek wykorzystywania sieci jako zewnętrznej pamięci, a także zmapowania tej rutyny na nasze obwody neuronalne, wynika z fundamentalnych różnic między tym jak zapamiętuje mózg, a jak zapamiętuje komputer.

Komputer każde dane traktuje jak pasywne porcje informacji, ciągi zer i jedynek bez realnego znaczenia (ile semantyki zawarte jest w komputerach to w ogóle odrębna kwestia, ale na potrzeby niniejszego wywodu możemy bezpiecznie przyjąć, że na chwilę obecną jest jej tak mało, że w zasadzie wcale jej nie ma). Mózg tymczasem jest odmieniony przez każdy zapamiętany fakt, każdą zrozumianą ideę.

Rozpatrzmy to na jakimś przykładzie (to mój przykład, nie Carra, ale dobrze ilustruje jego tezy). Gdy czytałem Samolubny gen Dawkinsa, to miałem okazję poznać wiele nowych faktów. Książka roi się od historycznych relacji z różnych naukowych dociekań, na przykład badań nad teorią gier. Dostarcza licznych przykładów dla adaptacji i ich mechanizmów, które zostały zgromadzone przez etologów.
Większości tych faktów nie zapamiętałem. Oczywiście posiadanie cyfrowej kopii Genu na komputerze pozwala mi bardzo szybko odszukać te przykłady – gdybym tego potrzebował. Ale tak naprawdę nie potrzebuję, bo nie czytałem tej książki po to, by sobie zgromadzić trochę faktów w głowie.
Fakty w książce Dawkinsa były tylko ilustracjami dla argumentów i idei. To te argumenty i idee, stojący za nimi pewien specyficzny ogląd świata, stanowi właściwą treść książki, to, co powinno zostać w moim umyśle po lekturze.

Mój własny ogląd świata i rozumienie wielu jego aspektów uległo przemianie gdy przeczytałem Samolubny gen. Nie było to prostym dodaniem nowych danych, nowych faktów, nowych plików, do jakiegoś pasywnego zbioru, a rekonfiguracją całości mojego sposobu myślenia, która zmodyfikowała moje rozumienie także i rzeczy, które już wcześniej wiedziałem.

I nie jest to metafora: każde nowe wspomnienie rekonfiguruje neuronalne połączenia w mózgu, tym samym zmieniając tę wiedzę, która już tam istnieje, przy czym wydaje się, że wspomnienia są przechowywane nielokalnie, a więc rekonfiguracja musi dotyczyć dużych obszarów mózgu.
Gdybym zapoznał się z książką fragmentarycznie, ekstrahując jakiś konkretny fakt, lub pobieżnie śledząc jakiś konkretny argument, może nawet używając go w jakiejś syntezie poglądów naprędce składanych z tak wyciąganych z sieci fragmentów, to ogólny wpływ tej książki na moje rozumienie świata byłby bliski zeru.

Samolubny gen nie był oczywiście jedyną książką, o której śmiało mogę powiedzieć, że mnie zmieniła. Gdy patrzę we własną przeszłość, jestem w stanie, po tytułach kluczowych książek, zidentyfikować cezury, po których całe moje myślenie przestawiało się na trochę inne tory. Ale było to możliwe, ponieważ czytałem je w tym szczególnym stanie umysłu, w trakcie głębokiego czytania, w wielkim skupieniu, starannie podążając za wywodem autora.
Tymczasem gdy eksternalizujemy swoją pamięć, to zastępujemy głębokie asocjacje między naszymi doświadczeniami, istotne rekonfiguracje naszego ja, czymś znacznie prostszym – trywialną wiedzą gdzie należy kliknąć, by wyświetlił się nam przed oczami katalog niepowiązanych faktów bez znaczenia, zapisanych w stabilnych i niezmiennych strukturach komputerowych danych, leżących na jakichś zdalnych serwerach.

Wiemy jak znaleźć informację o wszystkim, ale jednocześnie tak naprawdę nie wiemy, a w każdym razie nie rozumiemy, praktycznie niczego.

Hipertekst

Ci, którzy śledzą mój blog zauważyli może, że od pewnego czasu na końcu notki pojawia się sekcja hipertekst. Jednocześnie znacząco ograniczyłem użycie hiperłączy w innych częściach moich wpisów. Po przeczytaniu tej notki wiecie już dlaczego tak robię. Teksty, które nie są nasycone hiperłączami, są nie tylko przyjemniejsze i łatwiejsze w czytaniu, są też trudniejsze w pisaniu.

Pisanie w internecie zachęca do specyficznego sposobu przekazywania treści. Gdy tylko natykam się na jakiś złożoną ideę, zawsze pojawia się pokusa, by znaleźć w sieci jakieś w miarę dobre przedstawienie owej idei, a następnie doń zalinkować, oszczędzając sobie trudu. I łudząc się, że ktoś naprawdę pójdzie za linkiem, przyswoi to co jest tam zawarte, a następnie wróci do mojego tekstu, by będąc ubogaconym wskazaną przeze mnie wiedzą, kontynuować przyswajanie tego, co ja mam do przekazania.

The Shallows jest książką, która dość skutecznie odziera ze złudzeń, że coś takiego ma w praktyce miejsce. To z kolei sprawia, że pisanie notek staje się trudniejsze. Muszę znaleźć sposób by albo umiejętnie wpleść cytat, albo umiejętnie omówić idee, do których normalnie bym tylko się odwołał jednym słowem, linkującym do innego tekstu. Hipertekst jest rakiem słowa pisanego, przynajmniej tego, które próbuje przekazać jakąkolwiek głębszą myśl. Postanowiłem spróbować wyciąć tego raka.
To wyjaśniwszy, chciałbym polecić kilka linków prowadzących do rzeczy wartych waszej uwagi.

Jeśli nie od razu czujecie się gotowi sięgać po książkę Carra, możecie sięgnąć po jego artykuł z The Atlantic, który był zarodkiem The Shallows. O mapowaniu narzędzi w korze ruchowej małp możecie przeczytać tutaj. Jeśli zaś chodzi o kalkulatory i wpływ ich użycia na naukę matematyki, to już w latach 80 zeszłego wieku opublikowano metaanalizę badań na ten temat.












  • Nie związane z postem: Czy coś się stało z Twoim kanałem RSS na blogu? Ostatni wpis wg feedly był 3 miesiące temu.
    • nie wiem. miałem przerwe, a feedly ma zawsze problemy z blogiem po restarcie. spróbuj usnąc i dodac ponownie subskrypcje
  • To, o czym piszesz w aspekcie miejsca kalkulatorów w początkowej fazie nauczania matematyki, już się stało. Mam na myśli, że niektóre studia uczą nie podstaw zawodu i myślenia (a już na pewno nie szukania - wyszukiwarka zna każdą odpowiedź), ale korzystania z zaawansowanych narzędzi.
    Mam dwudziestodwuletnią córkę, kończy właśnie studia. Poprosiłam ją o wyliczenie dla mnie pewnej rzeczy, stricte z jej działki. "Nie mogę, nie mam programu" - odpowiedziała. Nie nauczyli jej przez trzy lata edukacji, jak zrobić wyliczenie i z czego ono wynika - dali gotowe, zaawansowane narzędzie i pokazali, jak używać.
    I pomyśleć, że jeszcze tak niedawno (a przynajmniej mnie wydaje się to nieodległą przeszłością) stawałam na uczelnianym korytarzu przed katalogiem z szufladkami i zastanawiałam się, czy zacząć od rzeczowego, czy od alfabetycznego. To były humanistyczne studia, więc szafy katalogowe ciągnęły się przez cały korytarz. Była zabawa!
    Ach! I jeszcze jedno. Nie martwiłabym się przesadnie wpływem narzędzi na zmiany mózgu - człowiek funkcjonuje tylko dzięki siatce poznawczej, czyli styczności z daną sytuacją i wynikającymi z wykazanych zachowań konsekwencjami (czerwone - nie właź na ulicę, bo cię rozjedzie). Nie jesteśmy w stanie rozpatrywać osobno każdego wydarzenia, bo to skończyłoby się szaleństwem.
    Dzięki za kolejny fajny tekst!
    • Trzeba było córce nie dawać ajfona. To dopiero ogłupiające zabawki. Potem się studentkom wydaje, że wszystko działa tak, że się machnie gdzie bądź paluszkiem i już wszystko się samo zrobi. No ewentualnie trzeba jeszcze zalajkować. :-P
    • "Błogosławiony ten, co nie mając nic do powiedzenia, nie obleka tego faktu w słowa". Jane Austen
      Zgadzam się, więc może zacznijmy od tego, że: "Mam na myśli, że niektóre studia uczą nie podstaw zawodu i myślenia."
      No więc podstawy zawodu dziś to, hmm... korzystanie z zaawansowanych narzędzi, co robi się wyraźnie inaczej niż np. korzysta z ajfona (i tak serio serio sprawia to obecnej młodzieży pewien problem). Zaawansowane narzędzia pozwalają uzyskiwać mniej siermiężne rozwiązania oraz popełniać mniej morderczych w skutkach błędów, gdyż obliczenia inżynierskie to jednak trochę wyższy poziom trudności niż dodawanie liczb naturalnych. Stąd zaawansowane narzędzia stały się standardem. Jestem też przekonany, że w programie studiów było parę takich "uczących podstaw myślenia" przedmiotów. Przynajmniej nie znam uczelni, która zrezygnowałaby z matematyki i fizyki w nauczaniu na kierunkach o profilach inżynierskich.
      Więc zakładając dobrą wolę z Pani strony, uznam, że Pani nieuprawniony hejt na "złe studia" wynika wyłącznie z tego, iż nie doszacowała Pani poziomu trudności zadania, które zleciła Pani córce.

    • "podstawy zawodu dziś to, hmm... korzystanie z zaawansowanych narzędzi"
      Uważam za bardzo sensowne korzystanie z zaawansowanych narzędzi z wymienionych wyżej powodów. Jednakże nie zwalnia to kogoś, kto chce wpisać sobie do CV, że uzyskał tytuł zawodowy w danej dziedzinie, ze znajomości podstaw, czyli mówiąc kolokwialnie: skąd to się wzięło. O tym właśnie pisze slwstr w aspekcie nauczania matematyki.
      Dla wzmocnienia efektu podam przykład zawodowy mojego męża, który jest programistą. Opowiadał mi ostatnio o generalnym rozpowszechnieniu wśród młodych adeptów zwyczaju korzystania ze skrótów, czyli nie pisania kodu, tylko wstawiania gotowych całostek. I tak, to uprasza. Ale jeśli gdzieś wkrada się błąd, to potem nie można go znaleźć, bo tak naprawdę nie zna się języka programowania.
      Nie jestem przeciwna korzystaniu z narzędzi, tylko bezmyślnemu korzystaniu z narzędzi. Chodzeniu na skróty za wszelką cenę.
      "nie znam uczelni, która zrezygnowałaby z matematyki i fizyki w nauczaniu na kierunkach o profilach inżynierskich"
      Nie rozmawiamy o studiach inżynierskich (dałam przykład z własnego życia, nie rozciągając go na wszystkie kierunki), a i to jest nieco nietrafione. I wyjaśnia to w swoim poście slwstr. Gdy nie posiada się solidnych podstaw, czyli mówiąc kolokwialnie: skąd to się wzięło, nie można rzetelnie wykonywać pracy. No, chyba że jest to machanie łopatą po kierunku inżynierskim. Wtedy się zgadzam.
      "nieuprawniony hejt"
      Nie każda uwaga krytyczna jest hejtem. Hejt, zgodnie ze źródłosłowem, to okazywanie nieuzasadnionej nienawiści. Napij się herbaty, bo zimno - wolne sączenie ostudzi emocje.
      see more
    • "Dla wzmocnienia efektu podam przykład zawodowy mojego męża, który jest programistą."
      Mhm, a humanista, który nie zna wszystkich szczegółów procesu produkcji papieru i atramentu oraz nie potrafi napisać własnego bibliotecznego systemu bazodanowego z efektywnymi algorytmami przeszukiwania (koniecznie własnoręcznie wydziurkowanego i wgranego do własnoręcznie zlutowanego komputera Odra) to co najwyżej chómanista, który bezmyślnie korzysta z narzędzi i nie wie, co zrobić gdy pojawi się błąd.
      A człowiek, który nie potrafi rozpalić ognia przy pomocy dwóch kamieni, to nieznający podstaw pozer, a nie reprezentant gatunku homo sapiens.
      Tym sposobem doszliśmy do konkluzji, że ostatnim człowiekiem na świecie, co do którego można mieć podejrzenia, że być może jeszcze troszeczkę myślał, był nijaki Leonardo da Vinci. Chociaż i tu złośliwcy twierdzą, że mógł uzyskać taką opinię tylko dlatego, że żył w czasach prymitywnych jak na współczesne standardy. I tak w zasadzie to dziś większą wiedzą dysponuje przeciętny absolwent liceum.
      Najwyższa pora przyjąć do wiadomości, że współczesna cywilizacja jest tak rozwinięta właśnie dzięki temu, iż żyjemy w czasach bezprecedensowej specjalizacji, a światowy stan wiedzy już dawno temu przekroczył zdolności poznawcze pojedynczej osoby. Stąd znaczna większość fragmentów wiedzy wytworzonych i wdrożonych przez innych trzeba traktować jak czarną skrzynkę. Ale bynajmniej nie oznacza to, że żyjemy w czasach masowej bezmyślności.
      see more
    • Jaki rozkosznie populistyczny komentarz, nawet mnie rozczulił.
      Co to za zawód "humanista"? Taki gość, co wychodzi z domu codziennie, żeby kochać ludzi w zatłoczonym autobusie? Już lepszym przykładem byłby, dajmy na to, architekt - przy projektowaniu korzystający z zaawansowanego oprogramowania komputerowego. I dobrze, słusznie, mniejsza szansa na tzw. błąd ludzki. Ale czy to znaczy, że przedstawiciel tego zawodu nie powinien umieć (lepiej lub gorzej) rozrysować projektu na desce kreślarskiej? Obliczyć nośności elementu na kartce? Nie mieć pojęcia, z czego powstaje konstrukcja, którą projektuje, bo ma już gotowce w programie komputerowym? Really?!
      Nie trzymasz się konkretu w dyskusji, bo znacznie łatwiej przepłynąć od szczegółu do ogółu i wpleść w to Leonarda. Tymczasem nikt nie pisał, że trzeba wiedzieć wszystko (pomyślałeś, że w ogóle można?), tylko, że będąc przedstawicielem zawodu X wypada (ja uważam, że należy) wiedzieć, co się robi.
      Taka jest między nami różnica, że ja w pracy korzystam z zaawansowanych narzędzi, ale kiedy wyłączą prąd, to mam jeszcze kartkę, ołówek i mózg, a nie tylko palce sprawnie naciskające literki na klawiaturze. Ale w sumie to nawet cieszę się z tej dyskusji, ponieważ Twoje wypowiedzi idealnie potwierdziły wszelkie niepokoje slwstra, zaznaczone w tym tekście.
  • No ale to prawda, u mnie na studiach pakiety symulacyjne i numeryczne były równolegle z analitycznymi metodami rozwiązań. Co ciekawe metody numeryczne weszły później.
    • Ale co jest tą prawdą? To, że nikt w trakcie całych studiów nie poświęca nawet kwadransa na wyjaśnienie studentom, co to takiego są te metody symulacyjne i czym się różnią od metod analitycznych? Czy to, że jakieś metody i narzędzia (np. suwak logarytmiczny) uznano za archaiczne, więc poświęca się im niewiele czasu, co z kolei przełożyło się na to, że absolwenci mogą mieć problem z realizacją "od ręki" powierzonych zadań bez wykorzystania bardziej współczesnych narzędzi i jest to warunek wystarczający do stwierdzenia, że bezmyślą?
  • Warto też polecić Elizabeth Eisenstein, Jacka Goody'ego i Waltera Onga (antropolożkę i historyków druku), którzy jako pierwsi skonstruowali ramy argumentu rozwijanego przez Carra i współczesną kognitywistykę. Są to dużo lepiej napisane argumenty niż szerzej znany McLuhan, który w dużym stopniu z nich skorzystał.

    Świetny tekst.
    Wynikałoby stąd, że lepiej gdy linki odwołujące do dodatkowych źródeł pojawiają się na końcu niż gdy są rozproszone w tekście, bo wtedy jest szansa że czytelnik więcej z naszego tekstu zapamięta.
    A czy było w tej książce coś na temat zmian sposobów czytania? Ponoć w średniowieczu czytanie bez powtarzania szeptem było czymś unikalnym.

    tak, wspomniałem o tym pisząc, że scripto continua było odczytywane na głos.



  • Co więcej, w średniowieczu umiejętności czytania i pisania nie musiały iść w parze - wraz z rozwojem skryptoriów i wzrostem produkcji tekstów pisanych (nie tylko książek, ale i dokumentów) wykształciły się wąskie specjalizacje i nierzadko przepisywano teksty bez ich zrozumienia. "Prywatna" lektura na szerszą skalę jest wynalazkiem reformacji (która z kolei wykorzystała rozwój druku i papiernictwa), choć i przedtem pojawiają się książki przeznaczone do prywatnej lektury (po rozmiarach je poznacie ;) ).

    Świetny tekst.
    Ciekawi mnie czy i jak bardzo analogiczny mechanizm ma zastosowanie w wypadku procesów poznawczych dot. muzyki.
    W jakimś stopniu dotyczy jej przynajmniej część z właściwości tekstu o których wspominałeś (wywoływanie bardziej zaawansowanych emocji, przekazywanie dodatkowych treści, budowanie nowych skojarzeń, etc).
    I mamy tu też podobną ewolucję dostępności i form użytkowania - od XVIIIw koncertów fortepianowych w salonach, przez płyty gramofonowe po aktualną kulturę remiksu - w której mniej czy bardziej świadomie szukamy kilkusendowych dżingli które da się zastosować jako pointę Vine'a czy komentarz do reklamy.

    Mam zastrzeżenie do kwestii hipertekstu.
    Jako dzieciak miałem encyklopedie naukowo techniczne i przyrodnicze, które odsyłały do innych haseł/zagadnień. To nie jest nic nowego, a i bez takich wynalazków czasami mam potrzebę zweryfikowania tego co napisał autor. Podobno jest to oznaka braku szacunku dla autorytetu autora, ale pier...le to. Jeżeli chce wchłaniać wiedzę, nie chce być zrobiony w konia, a część autorów upraszcza lub "zaokrągla" niektóre kwestie żeby pochnąć swoją myśl dalej, historie, albo by dokonać jakiegoś górnolotnego porównania.


    • Ale w książce i notce nie jest mowa o weryfikacji faktów przez szczególnie dociekliwych czytelników, tylko bezładnym skakaniu po linkach, jakie faktycznie i w praktyce ma miejsce u zdecydowanej większości czytelników tekstów w internecie
             
      http://slwstr.net/pk3/2017/splyceni     

Brak komentarzy:

Prześlij komentarz