Maciej Piotr Synak


Od mniej więcej dwóch lat zauważam, że ktoś bez mojej wiedzy usuwa z bloga zdjęcia, całe posty lub ingeruje w tekst, może to prowadzić do wypaczenia sensu tego co napisałem lub uniemożliwiać zrozumienie treści, uwagę zamieszczam w styczniu 2024 roku.

piątek, 6 stycznia 2017

pod wpływem internetu dzieją się z naszymi umysłami przykre rzeczy


przedruk


Porównaj poniższy tekst z:
- metoda nawyków oraz 
- schemat postępowania Wędrującej Cywilizacji Śmierci.


Jedna z najciekawszych książek, które czytałem w zeszłym roku – „The Shallows. What the Internet Is Doing to Our Brains” Nicholasa Carra – stara się przekonać, że pod wpływem internetu dzieją się z naszymi umysłami przykre rzeczy. Mnie przekonała.
 
Narzędzia

Choć człowiek nie jest jedynym gatunkiem, który wytwarza i używa narzędzi, to niewątpliwie wynieśliśmy tę umiejętność na bezprecedensowy w ewolucyjnej historii poziom. Począwszy od pierwszych narzędzi tworzonych z kamienia, aż do współczesnych komputerów, ludzka inwencja znajduje coraz to nowe sposoby na robienie różnych rzeczy mniejszym wysiłkiem lub bardziej wydajnie. Narzędzia nie tylko zmieniają to w jaki sposób robimy pewne rzeczy. One zmieniają nas.

W istocie nie tylko nas. 

W 2007 roku grupa włoskich uczonych opublikowała wyniki badań nad aktywnością neuronów kory ruchowej u małp, które nauczono posługiwać się dwoma rodzajami szczypiec. Analiza wykazała nie tylko jak ruchy rąk tych map są zmapowane w obrębie różnych obszarów kory ruchowej, ale też, że po nauczeniu się korzystania z narzędzia można w ten sam sposób zidentyfikować obszary odpowiedzialne za ruch szczypcami. Układ nerwowy małp adaptuje się do używanych narzędzi w taki sposób, że czyni je częścią neuronalnych map kory ruchowej.

Innymi słowy mózg małpy uznaje narzędzie za część jej ciała. Właściwość mózgu pozwalająca na rearanżację nerwowych połączeń zwana jest neuroplastycznością. Neuroplastyczność ludzkiego mózgu jest większa niż jakiegokolwiek innego znanego nam gatunku. To dzięki niej potrafimy się tak dobrze adaptować do środowiska na poziomie zachowań, bez czekania aż w naszych genach i ciałach zajdą stosowne zmiany ewolucyjne.

To z kolei sprawia, że ludzkie mózgi ulegają silnym przekształceniom w wyniku interakcji z narzędziami, których używamy. Carr zwraca w swojej książce uwagę, że nie zawsze jest to z korzyścią dla użytkowników tych narzędzi.

Tekst

Przykładem takiego narzędzia jest pismo. Wynalazek ten nie tylko umożliwił utrwalanie myśli, ale głęboko odmienił to, w jaki sposób ludzkie mózgi myśli produkują.

Oczywiście nie od razu. Z początku pismo było techniką trudną do opanowania i dostępną dla wybranych, co wynikało zarówno z ograniczonej do nielicznych grup społecznych edukacji, jak i limitów ściśle technicznych – takie formy utrwalania pisma jak gliniane tabliczki, papirusy czy pergamin były albo niezbyt praktyczne, albo drogie w produkcji.
 
 
Scripto continua

Techniczne limitacje dotyczyły nie tylko nośników, na których zapisywano słowa, ale samych metod zapisu. Większość książek przez setki lat pełniło funkcję nośnika zapisanej mowy. Skrybowie notowali za pomocą scriptio continua - formy pisma pozbawionej spacji, znaków diakrytycznych i interpunkcji – słowo mówione, tak, jak im je dyktowano. Taki sposób zapisu ograbiał autorów słowa pisanego, a właściwie dyktowanego, z możliwości wykorzystania aktu i technologii pisania jako rusztowania, na którym wznoszone są coraz bardziej wyrafinowane konstrukty myśli. Temu wszak służą wszelkie zabiegi edycyjne, które korzystają z tego, że eksternalizacja myśli w postaci zapisu na papierze ułatwia, a de facto umożliwia, jej krytyczną analizę i udoskonalenia w toku pisania. W efekcie teksty dyktowane skrybom i zapisywane scriptio continua, w porównaniu do współczesnych, zawierały więcej powtórzeń i były mniej uporządkowane.

Także czytanie było o wiele trudniejsze. Scriptio continua, zapisana mowa, pozbawiona interpunkcji, wielkich liter czy spacji, musiała być dekodowana w mentalnie kosztownym procesie w trakcie samego aktu odczytywania. Dlatego często czytający zajmował się tylko tym – jako lektor – a nie próbą zrozumienia, co właściwie czyta.

Także słuchający odczytań książek byli bardziej ograniczeni w odbiorze, niż ci, którzy czytają samemu. Słuchanie, w przeciwieństwie do czytania, nie było prywatnym aktem zapoznawania się z treścią, robionym w skupieniu, wedle własnych potrzeb i możliwości. Częściej miało charakter uczestnictwa w publicznym performansie, w którym wiele osób chłonęło tę samą treść czytaną przez jednego lektora. To oczywiście dodatkowo upośledzało odbiór czytanych treści.

Tak czy siak potrzeba jest matką wynalazku. Odczytywanie scriptio continua stanowiło takie wyzwanie, że począwszy od siódmego i ósmego stulecia naszej ery w pisanym tekście zaczęły się pojawiać spacje. Za tym podążyły inne zmiany w technikach zapisu, które uformowały konwencje interpunkcji i składni jakie znamy współcześnie. Raz zapoczątkowany, proces ten w zaledwie kilkaset lat unicestwił scriptio continua, jednocześnie czyniąc słowo pisane znacznie wygodniejszym narzędziem do utrwalania myśli, jak i późniejszego ich odczytywania.

Zastąpienie kosztownego papirusu i pergaminu papierem znacząco obniżyło koszt i doprowadziło do dalszego rozprzestrzenienia się sztuki czytania i pisania. Dało autorom możliwość pisania i szybkiej edycji tekstów - nie żal skreślać tekstów na tanim papierze, próbować wielu wersji tego, co chce się ostatecznie napisać. Pisanie na papierze miało też, jak zauważa Carr, bardziej subtelny wpływ na pisarzy. Póki było czynnością publiczną – dyktowania skrybie piszącemu na pergaminie – prowadziło do autocenzury. Pisarze piszący w prywatności swoich gabinetów zawiązywali bardziej intymną relację z pisanym tekstem, pozwalali sobie na większą swobodę wyrażania poglądów i flirt z bardziej transgresywnymi ideami.

Papier był też wstępem do mechanizacji pisania, czyli wynalezienia druku. To z kolei sprawiło, że doszło do wykładniczego przyrostu liczby pisanych i publikowanych tekstów. Książki przestały być niszowym medium zamkniętym w murach klasztorów i bibliotek – stały się masowym nośnikiem memów, które poczęły transformować społeczeństwa.
Wraz z upowszechnieniem się medium rozpowszechniły się zmiany behawioralne, które ułatwiały korzystanie z tegoż medium. To właśnie te zmiany stanowią według Carra klucz do zrozumienia unikalnej roli książek.

Co jest najbardziej uderzającą cechą człowieka czytającego książkę? Mamy do czynienia ze zwierzęciem, które na wiele godzin przestaje zwracać uwagę na strumień rozpraszających sygnałów, zamiast tego skupia się na względnie niezmiennym obiekcie i żywi się znaczeniem dekodowanym z czytanych znaków.

By użyć odrobinę wyświechtanego pojęcia – takie zachowanie jest zupełnie nienaturalne. Mózgi ludzi, tak jak innych zwierząt, mają naturalną tendencję do szukania stymulacji sensorycznej. Owo wrodzone pragnienie ma dobre uzasadnienie ewolucyjne – odbierane zmysłami sygnały o zmianach w otoczeniu są zwykle istotnymi sygnałami, w przeciwieństwie do informacji o niezmiennym tle.

Jednak by czytać długie teksty, trzeba wprowadzić się w stan skupienia, niemal transu. Zjawisko to ma charakter swoistej medytacji. Współczesne technologie obrazowania ukazują, że mózg człowieka oddającego się głębokiemu czytaniu wykazuje nader odmienną od typowej aktywność.
Tak więc rozwój druku i upowszechnienie czytelnictwa sprawił, że popularny stał się tryb odbioru informacji, który wymagał głębokich przekształceń w funkcjonowaniu ludzkiego mózgu. Swój wywód o oddziaływaniu książek, mocno osadzony w badaniach nad kulturą, historią i neuroplastycznością, Carr podsumowuje następująco (tłumaczenie moje):
Nie będzie przesadą stwierdzenie, że pisanie i czytanie książek poszerzyło i uczyniło bardziej subtelnymi ludzkie doświadczenie życia i natury. Eisenstein pisał „Niezwykła wirtuozeria literatów zdolnych przenosić odczucia smaku, dotyku, zapachu i dźwięku w samych tylko słowach wymagała zwiększonej świadomości i bliższej obserwacji sensorycznego doświadczenia, które następnie przekazywano czytelnikowi”. Jak malarze i kompozytorzy, pisarze potrafili „odmienić odczuwanie” w sposób, który „raczej wzbogacał niż wygaszał zmysłowe odpowiedzi na zewnętrzne bodźce, rozszerzał niż zawężał współodczuwanie ze zróżnicowanymi ludzkimi doświadczeniami”. Słowa w książkach nie tylko wzmagały zdolność ludzi do abstrakcyjnego myślenia, one wzbogacały ludzkie doświadczenie fizycznego świata, świata poza książką.
Jedną z najważniejszych lekcji wynikłych z badań nad neuroplastycznością jest, że zdolności mentalne, neuronalne obwody rozwijane w jednym celu, mogą być także użyte do realizacji innych zadań. Gdy nasi przodkowie nasycili swe umysły dyscypliną niezbędną by podążać przez kolejne stronice za argumentacją lub narracją, nabrali większych zdolności do kontemplacji, refleksji i wyobraźni. Maryanne Wolf stwierdziła „Nowe myśli łatwiej przychodziły mózgom, które nauczył się zmieniać swoją konfigurację w celu czytania” dodając, że „coraz bardziej wyrafinowane intelektualne umiejętności wzmacniane przez czytanie i pisanie wzbogaciły nasz intelektualny repertuar”. Cisza głębokiego czytania, jak rozumiał to [Wallace] Stevens, stała się „częścią umysłu”.
Książki nie były jedynym powodem przekształceń ludzkiej świadomości do jakich doszło po wynalezieniu prasy drukarskiej, wiele innych technologii i trendów socjologicznych i demograficznych odegrało w tym swoją ważną rolę, ale to książki leżały w centrum zmian. Wraz z tym jak książka stawała się głównym środkiem wymiany wiedzy i wglądów, związana z tym etyka intelektualna stała się fundamentem naszej kultury. Książka uczyniła możliwą zniuansowaną samo-wiedzę, którą znajdujemy w Preludium Wordswortha, czy esejach Emersona, jak i równie subtelne zrozumienie społecznych i osobistych relacji w powieściach Austen, Flauberta czy Henry’ego Jamesa. Nawet wielkie dwudziestowieczne eksperymenty nielinearnej narracji Jamesa Joyce’a i Williama Burroughsa byłyby nie do pomyślenia, gdyby autorzy nie zakładali istnienia cierpliwego i uważnego czytelnika. Po transkrypcji na karty książki, strumień świadomości staje się literackim i linearnym.
Etyka literacka nie uzewnętrzniała się tylko w tym, co normalnie traktowane jest jak literatura. Stałą się też etyką historyka, przenikając prace takie jak Schyłek i upadek Imperium Rzymskiego Gibbona. Stała się etyką filozofa, wpływając na idee Kartezjusza, Locke’a, Kanta czy Nietzschego. Oraz, co najważniejsze, stała się etyką uczonego. Można posunąć się do stwierdzenia, że najbardziej wpływowym dziełem literackim XIX stulecia było Darwina O pochodzeniu gatunków. W dwudziestym stuleciu etyka literacka przenikała przez książki tak różne jak Einsteina Teorię względności; Keynesa Ogólną teorię zatrudnienia, procentu i pieniądza; Thomasa Kuhna Strukturę rewolucji naukowych; czy Cichą wiosnę Rachel Carson. Żadne z tych istotnych osiągnięć intelektualnych nie byłoby możliwe bez zmian jakie zaszły w czytaniu i pisaniu – oraz postrzeganiu i myśleniu – wywołanych technologią wydajnej reprodukcji długich form pisanych w druku.

 

Zagubieni w ogrodzie o rozwidlających się ścieżkach

Choć znaczna część książki Carra poświęcona jest wyjaśnieniom korzyści, jakie ludzkiej umysłowości przyniosło słowo pisane, tak naprawdę poświęcona jest nie narodzinom, a upadkowi kultury głębokiego czytania. Zarodkiem tego upadku był kolejny wynalazek, czyli automatyzacja przetwarzania symboli. Nazywając rzeczy bardziej wprost, chodzi o wynalezienie komputera, jak i późniejsze połączenie komputerów i zawartych w nich danych i aplikacji w światową sieć internetu.
Nie mam zamiaru powtarzać argumentacji Carra, ostatecznie wolałbym by ta notka działała jak zachęta do przeczytania jego książki, nie streszczenie, ale jednak chciałbym wspomnieć o kilku kluczowych myślach.

Carr nie jest luddystą. Nie bawi się w tanie dramatyzowanie, że komputery zabiją nasze myślenie. Jako doskonały kontrprzykłady dla tak prostackiego patrzenia na sprawy przytacza przykład kalkulatorów, które automatyzują operacje arytmetyczne i zdejmują z nas brzemię wykonywania skomplikowanych, lub tylko uciążliwych powtarzalnością obliczeń. Gdy kalkulatory tanie i zminiaturyzowane na tyle, by trafić do szkolnych sal, pojawił się lęk, że upośledzą naukę matematyki, zdejmując z uczniów konieczność nieustannego praktykowania arytmetyki.

Lęki te okazały się bezzasadne. Praktykowanie kalkulacji nie wspomaga rozumienia abstrakcyjnych matematycznych konceptów. Na tyle na ile kalkulacje grają rolę w procesie dydaktycznym nauczania bardziej zaawansowanych koncepcji matematycznych, kalkulatory w nim pomagają, gdyż, jak wykazują badania, odciążają nader ograniczoną pamięć operacyjną ludzkiego mózgu, pozwalając poświęcić jej zasoby na radzenie sobie z właściwymi problemami, przed którymi stoi ktoś próbujący opanować matematyczne zagadnienia.

Zwróciwszy uwagę na realne korzyści wynikłe z masowego wdrożenia komputerów, Carr przechodzi do omówienia przykładów negatywnego wpływu użytkowania tych maszyn na zdolności poznawcze. Przede wszystkim upowszechnienie hipertekstu, czyli technologii wiązania odrębnych dokumentów tekstowych za pomocą osadzonych w nich hiperłączy, znacząco utrudniło koncentrację niezbędną do rozumienia długich tekstów pisanych, tym samym podważając fundament głębokiego czytania. Powoli zaczynamy rozumieć mechanizmy tego wpływu.

Jeśli przy czytaniu książki, czy nawet krótszego, ale nadal relatywnie długiego tekstu, głównym wyzwaniem jest utrzymanie koncentracji niezbędnej do śledzenia zawartej w tekście myśli, to hipertekst, dając co prawda iluzję głębszych, naturalniejszych powiązań między dokumentami i zawartymi weń ideami i treściami, zamienia ich czytanie w udrękę nieustannego podejmowania decyzji.
Gdy czytasz coś w internecie nie tylko – tak jak przy czytaniu tekstu na papierze – zużywasz siły mentalne na rozumienie tekstu, co chwila natykasz się na hiperłącza zmuszające twój mózg do natychmiastowego przestawienia się z trybu rozumienia informacji w tryb aktywnego decydowania. 

Decyzja sprowadza się do wyboru: czy kontynuować śledzenie aktualnie czytanego tekstu i zawartych w nim myśli, czy raczej przerwać je i sprawdzić jakie dodatkowe informacje kryją się w miejscu, do którego prowadzi hiperłącze?

Badania wykazują, że ludzie zwykle przerywają czytanie tekstu i podążają za hiperłączami. Co więcej, nawet jeśli robią to zakładając, że wrócą potem do oryginalnego tekstu, zwykle jedno kliknięcie prowadzi do kolejnego – cały internet jest siecią o praktycznie nieskończonej głębokości, przynajmniej z punktu widzenia tak mentalnie ograniczonej istoty jak człowiek.

Badania wskazują też, że ludzie, którzy spędzają czas na fragmentarycznym czytaniu kolejnych tekstów połączonych w łańcuszki linkami zapamiętują z tych tekstów bardzo niewiele. Nie muszę chyba dodawać, że taki sposób czytania jest skutkuje znacznie niższym odsetkiem zapamiętanej i zrozumianej informacji.

Hipertekst miał ułatwić ludzkim mózgom łatwiejsze wrośnięcie w sieć naturalnych powiązań między dokumentami i zawartymi w nich treściami. Jeśli jednak umysły czytelników książek są jak potężne drzewa, stabilnie wrośnięte w tkankę ich (lokalnego) intelektualnego otoczenia, umysły czytelników zawartego w internecie hipertekstu są bardziej jak pleśń. Ich mikroskopijne włókna zdają się docierać w najdalsze zakamarki, ale są tylko rachityczną siecią rozpiętą między izolowanymi faktami.
Pozbawione są głębszego rozumienia, jakie wynika ze starannej, nierozproszonej lektury.

Pamięć

Ale sprawy mają się nawet gorzej. Pamiętacie historię małp z początku tej notki, których mózgi zmapowały używane narzędzia na korze ruchowej, tak, że traktowały te narzędzia jak część ciała? Oczywiście mózgi ludzkie robią to samo, tylko bardziej

Jedną z rzeczy, która została w ten sposób zmapowana jest zewnętrzna, w praktyce nieograniczona pamięć. Carr poświęca sporo miejsca wyjaśnieniu w jaki sposób eksternalizacja pamięci wiążę się nie tylko z tym, że ludzie przestają sobie zawracać głowę zapamiętywaniem pewnych rzeczy, ale przede wszystkim z tym, że zaczynają gorzej rozumieć otaczający świat. Poniżej przedstawię mocną parafrazę jego główne argumentu.

Na pierwszy rzut oka może się wydawać, że zastępowanie własnej pamięci zewnętrzną pamięcią komputerową, zawsze dostępną w postaci internetu, nie powinno być problemem. Czyż wykorzystanie komputerów do rejestrowania faktów nie jest podobne do wykorzystywania kalkulatorów do obliczeń?
W skrócie – nie. Wyobraźmy sobie, że nie tylko pozwalamy uczniom korzystać z kalkulatorów, by wykonywać męczące obliczenia w późniejszych etapach edukacji, lecz także na samym początku matematycznej edukacji, gdy uczymy dzieci dodawać, odejmować, mnożyć i dzielić, zamiast tego pouczamy ich, że muszą wcisnąć takie a takie przyciski kalkulatora, a to co kalkulator wypuści, jest wynikiem działania. Innymi słowy, zamiast lekcji arytmetyki zafundowalibyśmy im instrukcję obsługi kalkulatora, a takie idee jak dodawania powiązalibyśmy w ich mózgach nie z pewnymi abstrakcyjnymi koncepcjami, ale pozbawionymi głębszego znaczenia operacjami wykonywanymi na maszynie.

Coś takiego nie byłoby odciążeniem pamięć operacyjną mózgu, tylko opróżnieniem tego narządu z jakiegokolwiek rzeczywistego rozumienia podstaw matematyki. Byłoby też pozbawieniem fundamentu niezbędnego do zrozumienia innych, bardziej złożonych konceptów matematycznych. Człowiek, który nigdy nie nauczył się dodawać czy dzielić, a zamiast tego wykorzystuje w tym celu maszynę, musiałby też użyć maszyny do rozwiązania najprostszego równania.

Cóż, dokładnie taka eksternalizacja – nie tylko faktów, ale też ich rozumienia – dokonuje się na masową skalę przez korzystanie z internetu jako zasobu praktycznie nieskończonej zewnętrznej pamięci. Internet to gigantyczny zbiór hipermediów, połączonych niebywale skomplikowaną siecią hiperłączy, oraz zindeksowany przez niezwykle wydajne silniki wyszukiwania.
Jeśli interesuje cię jakiś fakt, jego znalezienie przy pomocy Google zajmuje tylko chwilę. Wiesz, że w książce X napisano o Y? Nic trudnego, Google Books zaprowadzi cię do konkretnego paragrafu w kilka sekund, bez konieczności przewrócenia choćby jednej strony. I bez konieczności zrozumienia jakiegokolwiek kontekstu.
Na najbardziej fundamentalnym poziomie zgubny skutek wykorzystywania sieci jako zewnętrznej pamięci, a także zmapowania tej rutyny na nasze obwody neuronalne, wynika z fundamentalnych różnic między tym jak zapamiętuje mózg, a jak zapamiętuje komputer.

Komputer każde dane traktuje jak pasywne porcje informacji, ciągi zer i jedynek bez realnego znaczenia (ile semantyki zawarte jest w komputerach to w ogóle odrębna kwestia, ale na potrzeby niniejszego wywodu możemy bezpiecznie przyjąć, że na chwilę obecną jest jej tak mało, że w zasadzie wcale jej nie ma). Mózg tymczasem jest odmieniony przez każdy zapamiętany fakt, każdą zrozumianą ideę.

Rozpatrzmy to na jakimś przykładzie (to mój przykład, nie Carra, ale dobrze ilustruje jego tezy). Gdy czytałem Samolubny gen Dawkinsa, to miałem okazję poznać wiele nowych faktów. Książka roi się od historycznych relacji z różnych naukowych dociekań, na przykład badań nad teorią gier. Dostarcza licznych przykładów dla adaptacji i ich mechanizmów, które zostały zgromadzone przez etologów.
Większości tych faktów nie zapamiętałem. Oczywiście posiadanie cyfrowej kopii Genu na komputerze pozwala mi bardzo szybko odszukać te przykłady – gdybym tego potrzebował. Ale tak naprawdę nie potrzebuję, bo nie czytałem tej książki po to, by sobie zgromadzić trochę faktów w głowie.
Fakty w książce Dawkinsa były tylko ilustracjami dla argumentów i idei. To te argumenty i idee, stojący za nimi pewien specyficzny ogląd świata, stanowi właściwą treść książki, to, co powinno zostać w moim umyśle po lekturze.

Mój własny ogląd świata i rozumienie wielu jego aspektów uległo przemianie gdy przeczytałem Samolubny gen. Nie było to prostym dodaniem nowych danych, nowych faktów, nowych plików, do jakiegoś pasywnego zbioru, a rekonfiguracją całości mojego sposobu myślenia, która zmodyfikowała moje rozumienie także i rzeczy, które już wcześniej wiedziałem.

I nie jest to metafora: każde nowe wspomnienie rekonfiguruje neuronalne połączenia w mózgu, tym samym zmieniając tę wiedzę, która już tam istnieje, przy czym wydaje się, że wspomnienia są przechowywane nielokalnie, a więc rekonfiguracja musi dotyczyć dużych obszarów mózgu.
Gdybym zapoznał się z książką fragmentarycznie, ekstrahując jakiś konkretny fakt, lub pobieżnie śledząc jakiś konkretny argument, może nawet używając go w jakiejś syntezie poglądów naprędce składanych z tak wyciąganych z sieci fragmentów, to ogólny wpływ tej książki na moje rozumienie świata byłby bliski zeru.

Samolubny gen nie był oczywiście jedyną książką, o której śmiało mogę powiedzieć, że mnie zmieniła. Gdy patrzę we własną przeszłość, jestem w stanie, po tytułach kluczowych książek, zidentyfikować cezury, po których całe moje myślenie przestawiało się na trochę inne tory. Ale było to możliwe, ponieważ czytałem je w tym szczególnym stanie umysłu, w trakcie głębokiego czytania, w wielkim skupieniu, starannie podążając za wywodem autora.
Tymczasem gdy eksternalizujemy swoją pamięć, to zastępujemy głębokie asocjacje między naszymi doświadczeniami, istotne rekonfiguracje naszego ja, czymś znacznie prostszym – trywialną wiedzą gdzie należy kliknąć, by wyświetlił się nam przed oczami katalog niepowiązanych faktów bez znaczenia, zapisanych w stabilnych i niezmiennych strukturach komputerowych danych, leżących na jakichś zdalnych serwerach.

Wiemy jak znaleźć informację o wszystkim, ale jednocześnie tak naprawdę nie wiemy, a w każdym razie nie rozumiemy, praktycznie niczego.

Hipertekst

Ci, którzy śledzą mój blog zauważyli może, że od pewnego czasu na końcu notki pojawia się sekcja hipertekst. Jednocześnie znacząco ograniczyłem użycie hiperłączy w innych częściach moich wpisów. Po przeczytaniu tej notki wiecie już dlaczego tak robię. Teksty, które nie są nasycone hiperłączami, są nie tylko przyjemniejsze i łatwiejsze w czytaniu, są też trudniejsze w pisaniu.

Pisanie w internecie zachęca do specyficznego sposobu przekazywania treści. Gdy tylko natykam się na jakiś złożoną ideę, zawsze pojawia się pokusa, by znaleźć w sieci jakieś w miarę dobre przedstawienie owej idei, a następnie doń zalinkować, oszczędzając sobie trudu. I łudząc się, że ktoś naprawdę pójdzie za linkiem, przyswoi to co jest tam zawarte, a następnie wróci do mojego tekstu, by będąc ubogaconym wskazaną przeze mnie wiedzą, kontynuować przyswajanie tego, co ja mam do przekazania.

The Shallows jest książką, która dość skutecznie odziera ze złudzeń, że coś takiego ma w praktyce miejsce. To z kolei sprawia, że pisanie notek staje się trudniejsze. Muszę znaleźć sposób by albo umiejętnie wpleść cytat, albo umiejętnie omówić idee, do których normalnie bym tylko się odwołał jednym słowem, linkującym do innego tekstu. Hipertekst jest rakiem słowa pisanego, przynajmniej tego, które próbuje przekazać jakąkolwiek głębszą myśl. Postanowiłem spróbować wyciąć tego raka.
To wyjaśniwszy, chciałbym polecić kilka linków prowadzących do rzeczy wartych waszej uwagi.

Jeśli nie od razu czujecie się gotowi sięgać po książkę Carra, możecie sięgnąć po jego artykuł z The Atlantic, który był zarodkiem The Shallows. O mapowaniu narzędzi w korze ruchowej małp możecie przeczytać tutaj. Jeśli zaś chodzi o kalkulatory i wpływ ich użycia na naukę matematyki, to już w latach 80 zeszłego wieku opublikowano metaanalizę badań na ten temat.












  • Nie związane z postem: Czy coś się stało z Twoim kanałem RSS na blogu? Ostatni wpis wg feedly był 3 miesiące temu.
    • nie wiem. miałem przerwe, a feedly ma zawsze problemy z blogiem po restarcie. spróbuj usnąc i dodac ponownie subskrypcje
  • To, o czym piszesz w aspekcie miejsca kalkulatorów w początkowej fazie nauczania matematyki, już się stało. Mam na myśli, że niektóre studia uczą nie podstaw zawodu i myślenia (a już na pewno nie szukania - wyszukiwarka zna każdą odpowiedź), ale korzystania z zaawansowanych narzędzi.
    Mam dwudziestodwuletnią córkę, kończy właśnie studia. Poprosiłam ją o wyliczenie dla mnie pewnej rzeczy, stricte z jej działki. "Nie mogę, nie mam programu" - odpowiedziała. Nie nauczyli jej przez trzy lata edukacji, jak zrobić wyliczenie i z czego ono wynika - dali gotowe, zaawansowane narzędzie i pokazali, jak używać.
    I pomyśleć, że jeszcze tak niedawno (a przynajmniej mnie wydaje się to nieodległą przeszłością) stawałam na uczelnianym korytarzu przed katalogiem z szufladkami i zastanawiałam się, czy zacząć od rzeczowego, czy od alfabetycznego. To były humanistyczne studia, więc szafy katalogowe ciągnęły się przez cały korytarz. Była zabawa!
    Ach! I jeszcze jedno. Nie martwiłabym się przesadnie wpływem narzędzi na zmiany mózgu - człowiek funkcjonuje tylko dzięki siatce poznawczej, czyli styczności z daną sytuacją i wynikającymi z wykazanych zachowań konsekwencjami (czerwone - nie właź na ulicę, bo cię rozjedzie). Nie jesteśmy w stanie rozpatrywać osobno każdego wydarzenia, bo to skończyłoby się szaleństwem.
    Dzięki za kolejny fajny tekst!
    • Trzeba było córce nie dawać ajfona. To dopiero ogłupiające zabawki. Potem się studentkom wydaje, że wszystko działa tak, że się machnie gdzie bądź paluszkiem i już wszystko się samo zrobi. No ewentualnie trzeba jeszcze zalajkować. :-P
    • "Błogosławiony ten, co nie mając nic do powiedzenia, nie obleka tego faktu w słowa". Jane Austen
      Zgadzam się, więc może zacznijmy od tego, że: "Mam na myśli, że niektóre studia uczą nie podstaw zawodu i myślenia."
      No więc podstawy zawodu dziś to, hmm... korzystanie z zaawansowanych narzędzi, co robi się wyraźnie inaczej niż np. korzysta z ajfona (i tak serio serio sprawia to obecnej młodzieży pewien problem). Zaawansowane narzędzia pozwalają uzyskiwać mniej siermiężne rozwiązania oraz popełniać mniej morderczych w skutkach błędów, gdyż obliczenia inżynierskie to jednak trochę wyższy poziom trudności niż dodawanie liczb naturalnych. Stąd zaawansowane narzędzia stały się standardem. Jestem też przekonany, że w programie studiów było parę takich "uczących podstaw myślenia" przedmiotów. Przynajmniej nie znam uczelni, która zrezygnowałaby z matematyki i fizyki w nauczaniu na kierunkach o profilach inżynierskich.
      Więc zakładając dobrą wolę z Pani strony, uznam, że Pani nieuprawniony hejt na "złe studia" wynika wyłącznie z tego, iż nie doszacowała Pani poziomu trudności zadania, które zleciła Pani córce.

    • "podstawy zawodu dziś to, hmm... korzystanie z zaawansowanych narzędzi"
      Uważam za bardzo sensowne korzystanie z zaawansowanych narzędzi z wymienionych wyżej powodów. Jednakże nie zwalnia to kogoś, kto chce wpisać sobie do CV, że uzyskał tytuł zawodowy w danej dziedzinie, ze znajomości podstaw, czyli mówiąc kolokwialnie: skąd to się wzięło. O tym właśnie pisze slwstr w aspekcie nauczania matematyki.
      Dla wzmocnienia efektu podam przykład zawodowy mojego męża, który jest programistą. Opowiadał mi ostatnio o generalnym rozpowszechnieniu wśród młodych adeptów zwyczaju korzystania ze skrótów, czyli nie pisania kodu, tylko wstawiania gotowych całostek. I tak, to uprasza. Ale jeśli gdzieś wkrada się błąd, to potem nie można go znaleźć, bo tak naprawdę nie zna się języka programowania.
      Nie jestem przeciwna korzystaniu z narzędzi, tylko bezmyślnemu korzystaniu z narzędzi. Chodzeniu na skróty za wszelką cenę.
      "nie znam uczelni, która zrezygnowałaby z matematyki i fizyki w nauczaniu na kierunkach o profilach inżynierskich"
      Nie rozmawiamy o studiach inżynierskich (dałam przykład z własnego życia, nie rozciągając go na wszystkie kierunki), a i to jest nieco nietrafione. I wyjaśnia to w swoim poście slwstr. Gdy nie posiada się solidnych podstaw, czyli mówiąc kolokwialnie: skąd to się wzięło, nie można rzetelnie wykonywać pracy. No, chyba że jest to machanie łopatą po kierunku inżynierskim. Wtedy się zgadzam.
      "nieuprawniony hejt"
      Nie każda uwaga krytyczna jest hejtem. Hejt, zgodnie ze źródłosłowem, to okazywanie nieuzasadnionej nienawiści. Napij się herbaty, bo zimno - wolne sączenie ostudzi emocje.
      see more
    • "Dla wzmocnienia efektu podam przykład zawodowy mojego męża, który jest programistą."
      Mhm, a humanista, który nie zna wszystkich szczegółów procesu produkcji papieru i atramentu oraz nie potrafi napisać własnego bibliotecznego systemu bazodanowego z efektywnymi algorytmami przeszukiwania (koniecznie własnoręcznie wydziurkowanego i wgranego do własnoręcznie zlutowanego komputera Odra) to co najwyżej chómanista, który bezmyślnie korzysta z narzędzi i nie wie, co zrobić gdy pojawi się błąd.
      A człowiek, który nie potrafi rozpalić ognia przy pomocy dwóch kamieni, to nieznający podstaw pozer, a nie reprezentant gatunku homo sapiens.
      Tym sposobem doszliśmy do konkluzji, że ostatnim człowiekiem na świecie, co do którego można mieć podejrzenia, że być może jeszcze troszeczkę myślał, był nijaki Leonardo da Vinci. Chociaż i tu złośliwcy twierdzą, że mógł uzyskać taką opinię tylko dlatego, że żył w czasach prymitywnych jak na współczesne standardy. I tak w zasadzie to dziś większą wiedzą dysponuje przeciętny absolwent liceum.
      Najwyższa pora przyjąć do wiadomości, że współczesna cywilizacja jest tak rozwinięta właśnie dzięki temu, iż żyjemy w czasach bezprecedensowej specjalizacji, a światowy stan wiedzy już dawno temu przekroczył zdolności poznawcze pojedynczej osoby. Stąd znaczna większość fragmentów wiedzy wytworzonych i wdrożonych przez innych trzeba traktować jak czarną skrzynkę. Ale bynajmniej nie oznacza to, że żyjemy w czasach masowej bezmyślności.
      see more
    • Jaki rozkosznie populistyczny komentarz, nawet mnie rozczulił.
      Co to za zawód "humanista"? Taki gość, co wychodzi z domu codziennie, żeby kochać ludzi w zatłoczonym autobusie? Już lepszym przykładem byłby, dajmy na to, architekt - przy projektowaniu korzystający z zaawansowanego oprogramowania komputerowego. I dobrze, słusznie, mniejsza szansa na tzw. błąd ludzki. Ale czy to znaczy, że przedstawiciel tego zawodu nie powinien umieć (lepiej lub gorzej) rozrysować projektu na desce kreślarskiej? Obliczyć nośności elementu na kartce? Nie mieć pojęcia, z czego powstaje konstrukcja, którą projektuje, bo ma już gotowce w programie komputerowym? Really?!
      Nie trzymasz się konkretu w dyskusji, bo znacznie łatwiej przepłynąć od szczegółu do ogółu i wpleść w to Leonarda. Tymczasem nikt nie pisał, że trzeba wiedzieć wszystko (pomyślałeś, że w ogóle można?), tylko, że będąc przedstawicielem zawodu X wypada (ja uważam, że należy) wiedzieć, co się robi.
      Taka jest między nami różnica, że ja w pracy korzystam z zaawansowanych narzędzi, ale kiedy wyłączą prąd, to mam jeszcze kartkę, ołówek i mózg, a nie tylko palce sprawnie naciskające literki na klawiaturze. Ale w sumie to nawet cieszę się z tej dyskusji, ponieważ Twoje wypowiedzi idealnie potwierdziły wszelkie niepokoje slwstra, zaznaczone w tym tekście.
  • No ale to prawda, u mnie na studiach pakiety symulacyjne i numeryczne były równolegle z analitycznymi metodami rozwiązań. Co ciekawe metody numeryczne weszły później.
    • Ale co jest tą prawdą? To, że nikt w trakcie całych studiów nie poświęca nawet kwadransa na wyjaśnienie studentom, co to takiego są te metody symulacyjne i czym się różnią od metod analitycznych? Czy to, że jakieś metody i narzędzia (np. suwak logarytmiczny) uznano za archaiczne, więc poświęca się im niewiele czasu, co z kolei przełożyło się na to, że absolwenci mogą mieć problem z realizacją "od ręki" powierzonych zadań bez wykorzystania bardziej współczesnych narzędzi i jest to warunek wystarczający do stwierdzenia, że bezmyślą?
  • Warto też polecić Elizabeth Eisenstein, Jacka Goody'ego i Waltera Onga (antropolożkę i historyków druku), którzy jako pierwsi skonstruowali ramy argumentu rozwijanego przez Carra i współczesną kognitywistykę. Są to dużo lepiej napisane argumenty niż szerzej znany McLuhan, który w dużym stopniu z nich skorzystał.

    Świetny tekst.
    Wynikałoby stąd, że lepiej gdy linki odwołujące do dodatkowych źródeł pojawiają się na końcu niż gdy są rozproszone w tekście, bo wtedy jest szansa że czytelnik więcej z naszego tekstu zapamięta.
    A czy było w tej książce coś na temat zmian sposobów czytania? Ponoć w średniowieczu czytanie bez powtarzania szeptem było czymś unikalnym.

    tak, wspomniałem o tym pisząc, że scripto continua było odczytywane na głos.



  • Co więcej, w średniowieczu umiejętności czytania i pisania nie musiały iść w parze - wraz z rozwojem skryptoriów i wzrostem produkcji tekstów pisanych (nie tylko książek, ale i dokumentów) wykształciły się wąskie specjalizacje i nierzadko przepisywano teksty bez ich zrozumienia. "Prywatna" lektura na szerszą skalę jest wynalazkiem reformacji (która z kolei wykorzystała rozwój druku i papiernictwa), choć i przedtem pojawiają się książki przeznaczone do prywatnej lektury (po rozmiarach je poznacie ;) ).

    Świetny tekst.
    Ciekawi mnie czy i jak bardzo analogiczny mechanizm ma zastosowanie w wypadku procesów poznawczych dot. muzyki.
    W jakimś stopniu dotyczy jej przynajmniej część z właściwości tekstu o których wspominałeś (wywoływanie bardziej zaawansowanych emocji, przekazywanie dodatkowych treści, budowanie nowych skojarzeń, etc).
    I mamy tu też podobną ewolucję dostępności i form użytkowania - od XVIIIw koncertów fortepianowych w salonach, przez płyty gramofonowe po aktualną kulturę remiksu - w której mniej czy bardziej świadomie szukamy kilkusendowych dżingli które da się zastosować jako pointę Vine'a czy komentarz do reklamy.

    Mam zastrzeżenie do kwestii hipertekstu.
    Jako dzieciak miałem encyklopedie naukowo techniczne i przyrodnicze, które odsyłały do innych haseł/zagadnień. To nie jest nic nowego, a i bez takich wynalazków czasami mam potrzebę zweryfikowania tego co napisał autor. Podobno jest to oznaka braku szacunku dla autorytetu autora, ale pier...le to. Jeżeli chce wchłaniać wiedzę, nie chce być zrobiony w konia, a część autorów upraszcza lub "zaokrągla" niektóre kwestie żeby pochnąć swoją myśl dalej, historie, albo by dokonać jakiegoś górnolotnego porównania.


    • Ale w książce i notce nie jest mowa o weryfikacji faktów przez szczególnie dociekliwych czytelników, tylko bezładnym skakaniu po linkach, jakie faktycznie i w praktyce ma miejsce u zdecydowanej większości czytelników tekstów w internecie
             
      http://slwstr.net/pk3/2017/splyceni     

Polskie firmy sprzedane inwestorom zagranicznym






Polskie firmy sprzedane inwestorom zagranicznym. Lista z podziałem na branże

W tym artykule na przykładzie blisko 40 marek z kilku branż, możecie zobaczyć ogromną skalę wyprzedaży ważnych polskich marek zagranicznym inwestorom. To podstawowa przyczyna naszej obecnej sytuacji gospodarczej.
Polskie firmy sprzedaneWiele osób zadaje sobie pytanie, jak to się możliwe, że Niemcy, którzy dotkliwie odczuli skutki drugiej wojny, a następnie okupacji połowy swojego kraju przez komunistów, zarabiają przeciętnie aż 4-krotnie więcej od nas.
Ten artykuł zawiera jedną z podstawowych odpowiedzi na wyżej postawione pytanie. Przedstawiam Wam szereg niegdyś polskich firm, które nawet obecnie lub jeszcze przed sprzedażą zagranicznym inwestorom, miały silną pozycję rynkową i były bardzo perspektywiczne, ale polskie już nie są.
Za wyprzedaż naszych firm w dużej mierze odpowiedzialni są polscy politycy, głównie Ci sprawujący władzę w latach 90-tych XX wieku, ale nie tylko. Część to także świetnie zapowiadające się przedsięwzięcia prywatnych polskich przedsiębiorców, którzy jednak zamiast rozwijać przedsięwzięcia w oparciu o własny kapitał, woleli dać się podkupić zagranicznym inwestorom. W większości przypadków – po kilku latach od takiej sprzedaży firmy te stały się warte wielokrotnie więcej, ale ich zyski nie pracują już na polską gospodarkę, ale m.in. na niemiecką.

Polskie marki słodyczy sprzedane obcemu kapitałowi

Wedel - najbardziej znane polskie słodycze sprzedane Japończykom

O tym przypadku słyszało akurat bardzo dużo osób. Fabryka czekolady powstała w Warszawie już w 1851 roku, a w 1944 została znacjonalizowana. Znana m.in. z „Ptasiego Mleczka”, które obecnie jest podrabiane przez wiele innych firm cukierniczych, nie wyłączając należącej obecnie do Amerykanów „Milki”.
Niestety, w roku 1991 roku, za 25 milionów dolarów sprzedano 40% akcji Wedla firmie PepsiCo z USA. W tym samym roku Skarb Państwa sprzedał jeszcze w ofercie publicznej 20% akcji Wedla, co przypieczętowało przejęcie firmy przez PepsiCo. Pod koniec lat 90-tych Wedel znów zmienił właściciela, prawa do marki pozyskała brytyjska marka Cadbury, ale już np. Delicje Szampańskie produkował koncern Danone.
W 2010 roku Wedel został kupiony przez amerykańską firmę Kraft Foods, jednak jeszcze w tym samym roku markę Wedel przejął japońsko-koreański koncern LOTTE Group.
Ptasie Mleczko Wedel








Wawel - krakowskie słodycze przejęte przez Szwajcarów

To z kolei krakowska odpowiedź na Wedla. Firma Wawel powstała w 1898 roku. Jest powszechnie znana m.in. z produkcji czekoladek „Malaga”, „Tiki Taki” i „Kasztanki”. Po drugiej wojnie firma została znacjonalizowana, a w 1998 jej akcje pojawiły się na giełdzie. Obecnie kontrolę nad spółką ma szwajcarska firma Hosta International AG.
czekoladki Malaga Wawel






 

 

Mieszko - marka stworzona przez polskie legendy

Firma Mieszko powstała w 1993 roku z połączenia zakładów cukierniczych Ślązak i Raciborzanka. Niestety, w 2002 roku firmę przejęła holenderska spółka Central European Confectionery Holdings, a od 2014 roku Mieszko należy do Bisantio Investments, czyli firmy litewskiego biznesmena Vladasa Numaviciusa.
Michaszki Mieszko









Znane alkohole, które nie są już polskie

Soplica, Absolwent, Żubrówka - tradycyjne polskie trunki w rękach Rosjan

Soplica to jedna z najstarszych wódek, które wywodzą się z Polski. Zaczęto ją produkować w Gnieźnie już w 1891 roku. Żubrówka to trunek, którym polska szlachta raczyła się już w XVII wieku, a od 1928 roku jest produkowana w ramach Polmosu Białystok. Do owej spółki należy także m.in. wódka Absolwent.
Polmos Białystok w 2005 roku został sprzedany i wszedł w skład amerykańskiej spółki CEDC. Natomiast sama CEDC została w 2013 roku kupiona przez rosyjski koncern Russian Standard Corporation
soplica wódka










 

Sobieski, Krupnik, Starogardzka, Balsam Pomorski - polski król byłby załamany

Kolejne bardzo dobrze znane w Polsce marki wódek. Niestety, wszystkie one przez spółkę Sobieski należą do francuskiej firmy Belvedere. Szczególnie boli utrata marki Sobieski, która jest produkowana już od czasów panowania króla Jana III Sobieskiego.
wódka Sobieski










 

Luksusowa, Wyborowa - jedna z najstarszych polskich wódek w rękach Francuzów

Te trzy doskonale znane przez Polaków wódki należą z kolei do francuskiej firmy Pernod Ricard Polska. Wyborowa, której receptura powstała w 1926 roku, do dziś jest hitem eksportowym. Już od 2001 roku niepolskim. Luksusowa zaś, nie należy do Polaków od 2003 roku.
wódka Wyborowa










 

Żołądkowa Gorzka - dawna wódka Palikota 

Akurat ta marka dość długo pozostawała w polskich rękach. Żołądkowej Gorzkiej obecnie nie można już zaliczać do wódek, ponieważ zawiera teraz tylko 36% alkoholu, ale umówmy się, że jest to wciąż trunek bardzo do wódki zbliżony. Natomiast wersja de Luxe ma 40% alkoholu i już oficjalnie jest wódką. Do 2005 roku Żołądkowa Gorzka należała do Polmosu Lublin, kontrolowanego przez Janusza Palikota. Potem została kupiona przez CEDC, a od 2008 roku należy do brytyjskiej grupy Stock.
wódka Żołądkowa Gorzka








Lech, Tyskie, Żubr - piwa Kompanii Piwowarskiej należącej do Japończyków

Największe polskie marki piwa zostały wyprzedane już w latach 90-tych XX wieku. W roku 1995 koncern SABI (obecnie SABMiller) nabył od Jana Kulczyka browar Lech, a w roku 1996 browar Tyskie. To z połączenia tych dwóch marek powstała Kompania Piwowarska, do której od 1999 należy także browar z Białegostoku. Ostatnio pojawiła się szansa odkupienia Kompanii Piwowarskiej przez Polaków. Jako potencjalnych inwestorów wymieniano Kulczyk Investments i Maspex Wadowice. Niestety, ostatecznie Kompanię wykupiła japońska Asahi Group.
piwo Lech










Żywiec, Warka, Tatra, Królewskie - browary kontrolowane przez Holendrów

Te niegdyś polskie marki należą do Grupy Żywiec, która to z kolei jest własnością holenderskiego Heinekena.
Żywiec piwo











Okocim, Harnaś, Kasztelan - piwa należące do ojczyzny gangu Olsena

Wśród marek piw należących do trzeciego największego koncernu piwnego w Polsce, duńskiego Carlsberga, znajdują się m.in. marki: Okocim, Harnaś i Kasztelan. Swoją „karierę” w przejmowaniu polskich marek Carlsberg zaczął już w 1996 roku, kiedy to przejął browar Okocim (jego historia sięga pierwszej połowy XIX wieku).
Okocim piwo








Polskie marki sprzętu AGD, które utraciliśmy

Mastercook - polskie kuchenki elektryczne

Historia Wrocławskich Zakładów Metalowych rozpoczyna się w 1946 roku. W 1988 roku firma rozpoczęła produkcję kuchenek elektrycznych pod marką Mastercook, niestety, na fali prywatyzacji w 2002 roku, jedynym właścicielem Mastercooka stała się hiszpańska firma Fagor. Pod władzą Hiszpanów, w roku 2013 firma podupadła, a rok później została wykupiona przez niemiecki koncern BSH Bosch und Siemens Hausgeräte GmbH.
kuchenka Mastercook











Zelmer - niezawodny producent sprzętu AGD

Legendarna polska marka sprzętu AGD, jej początków można upatrywać już w latach 30 XX wieku. Znana m.in. z produkcji robotów kuchennych, czajników elektrycznych, mikserów, tosterów, jak również odkurzaczy i żelazek. Od roku 2013 właścicielem Zelmera jest niemiecki koncern BSH Bosch und Siemens Hausgeräte GmbH.
czajnik Zelmer










Polar - pralka automatyczna, która zastąpiła Franię

Znany rodzimy producent lodówek i pralek od lat 50 XX wieku. Od roku 2002 należy do amerykańskiego Whirlpoola.
pralka Polar











Sieci i platformy handlowe

Biedronka - dawna sieć polskich marketów

Wszyscy znają tę portugalską sieć sklepów. Została założona w 1995 roku przez polskiego biznesmena Mariusza Świtalskiego, ale w 1998 roku sprzedał on liczącą już 243 sklepy sieć Jeronimo Martins.
Biedronka





Żabka - początkowo polska sieć małych sklepów

Podobnie jak „Biedronka”, to także sieć założona przez Mariusza Świtalskiego, tyle że nieco później, bo w 1998 roku. W 2005 roku „Żabka” liczyła już 1700 sklepów, a w roku 2007 Świtalski sprzedał firmę czeskiemu inwestorowi Penta Investments. Od roku 2011 „Żabka” należy do funduszu inwestycyjnego Mid Europa Partners, ale niebawem ma zostać sprzedana. Mamy nadzieję, że dojdzie tutaj do repolonizacji.
Żabka






Allegro - najpopularniejszy w Polsce serwis aukcyjny

Ta platforma sprzedaży online została założona w 1999 roku przez polską spółkę Surf Stop Shop. Niestety, już rok później nasi rodacy pozbyli się jej na rzecz brytyjskiego QXL.com PLC. Niedawno Allegro zostało ponownie sprzedane, przez zarządzający nim do tej pory koncern Naspers z RPA. Nowym właścicielem jest grupa funduszy inwestycyjnych - Cinven, Permira oraz Mid Europa Partners.
Allegro





Tablica.pl - polskie serwis ogłoszeniowy, który był równie popularny co OLX

To była początkowo bardziej platforma ogłoszeniowa, ale obecnie jako OLX jest to serwis podobny do Allegro. Nie każdy wie, że Tablica.pl to nie wytwór Allegro, ale Polaka Tomasza Drożdżyńskiego. Serwis powstał w 2009 roku i początkowo nazywał się Szerlok.pl. W oparciu o całkowicie polski zespół i kapitał w ciągu półtorej roku działalności osiągnął połowę zasięgu Gumtree i porównywalny do platformy OLX – a przecież były one w rękach potężnych międzynarodowych firm.
W roku 2010 roku portal Szerlok.pl został przejęty przez Grupę Allegro, zmienił nazwę na Tablica.pl, a obecnie, po połączeniu z OLX, jest to OLX.pl. Po tym rebrandingu, do którego doszło w 2014 roku, portalem nie kieruje już Tomasz Drożdżyński.
Tablica.pl OLX





Wyprzedane polskie firmy telekomunikacyjne

Telekomunikacja Polska, Idea - polska telefonia stacjonarna i komórkowa utracona na rzecz Francuzów

Jeden z najbardziej znanych przykładów bezsensownej prywatyzacji. Firma ta była monopolistą na polskim rynku telefonii stacjonarnej, a od 2005 roku należy do swojego francuskiego odpowiednika, France Telekom. Do TP należała także marka telefonii komórkowej „Idea”, która po roku 2005 zmieniła nazwę na „Orange”, a jej większościowym właścicielem stał się FT.
Telekomunikacja Polska








Aster - polska kablówka, należąca obecnie do UPC

Działający od 1994 dostawca telewizji kablowej, telefonii i internetu. W roku 2006 przejęty przez fundusz Mid Europa Partners. Natomiast w roku 2010 „Aster” został kupiony przez UPC Polska. Nowy właściciel postanowił o usunięciu marki „Aster” z rynku.
Aster






Gadu-Gadu - komunikator internetowy, który skradł serca Polaków

Zanim pojawił się Facebook, podstawowym komunikatorem internetowym większości Polaków było Gadu-Gadu, stworzone przez informatyka Łukasza Fołtyna. W 2007 roku GG zostało zakupione przez firmę Naspers z RPA, a od końca 2015 roku komunikator ma nowego właściciela – firmę Xevin Consulting Limited, zarejestrowaną na Cyprze.
Gadu-Gadu




Nasza Klasa - serwis społecznościowy, który był  w Polsce popularniejszy od Facebooka

Serwis społecznoościowy założony przez kilku polskich studentów w 2006 roku. Jeszcze w 2010 roku był on w Polsce popularniejszy od Facebooka, ale niestety w roku 2011 amerykański serwis zaczął wygrywać tę rywalizację. Mimo wszystko, Nasza Klasa została sprzedana już w 2008 roku – estońskiemu funduszowi Foricom. W roku 2014 władzę nad nk.pl objął Onet
Nasza Klasa





Środki do prania

E - jeden z najpopularniejszych proszków do prania w Polsce

Jeden z najbardziej znanych w Polsce proszków do prania, powstały już w 1972 roku. Legendarna marka została przejęta w 1993 roku przez brytyjską firmę PZ Cussons, a w 2014 przez potężny niemiecki koncern chemiczny Henkel.
proszek E








Dosia - proszek do prania ze świnką na opakowaniu

Także znana marka proszku do prania, w tym momencie należy do brytyjskiej korporacji Reckit Benckiser.
Dosia proszek









 

IXI - środek piorący z PRLu

Jego produkcja rozpoczęła się już w 1965 roku, a za to przedsięwzięcie odpowiedzialny był polski chemik Mieczysław Wilczek – późniejszy minister przemysłu. Krąży też legenda, że jego receptura została wykradziona z USA przez polskich szpiegów. W każdym razie, w roku 1993 został on sprzedany brytyjskiej firmie PZ Cussons, podobnie jak proszek E. Proszek IXI podzielił także dalszy los proszku E – od 2014 roku należy do firmy Henkel.
IXI proszek










Kokosal - płyn do prania Polleny Wrocław

Płyn do prania znany już w PRLu, produkowany niegdyś, podobnie jak proszek E oraz IXI, przez Pollenę Wrocław. W roku 1993 prawa do marki przejęła firma PZ Cussons, a w roku 2014 Henkel.
Kokosal płyn do prania




















https://wspieramrozwoj.pl/artykul/156/polskie-firmy-sprzedane-zagranicznym-inwestorom