Opublikowano 01.04.2023 ·
Zaktualizowano 12.06.2023
Po śmierci mojej babci, pierwsze co przyszło mi do głowy, to to, jak bardzo chcę z nią porozmawiać. Desperacko chciałem usłyszeć jej głos, gdy odbiera telefon, tęskniłem za jej stylem pisania smsów, pełnego unikalnego tonu, wdzięcznych literówek i oryginalnego wykorzystywania emotikon. Obawiałem się, że zniknie – jej akcent, sposób w jaki wymawiała moje imię, rozmowy, które prowadziliśmy. Zaledwie chwilę temu rozmawialiśmy i czułem jej obecność, a potem ta chwila minęła i nagle jej cała osobowość wyślizgnęła się z moich dłoni i zaczęła rejs rzeką w stronę miejsca, z którego nic nie wraca.
Ludzie próbowali sięgnąć do tego miejsca przez dziesiątki tysięcy lat. Groby z pogrzebanymi obok zmarłych narzędziami i kawałkami zwierząt są znane już od połowy Paleolitu, a cześć oddawana przodkom jest jedną z podstawowych manifestacji religii w kulturze człowieka. Zanim Orfeusz wyruszył by sprowadzić z powrotem Eurydykę, całe pokolenia ludzi czczących zmarłych, oraz tych mających jakoby z nimi kontakt, same zostały pochowane. Żyjący mają obsesję na punkcie zmarłych. To zrozumiałe. Śmierć jest największą zagadką i każdy, kto już przeszedł na drugą stronę, mógłby nam zapewne powiedzieć coś wartościowego o życiu tam, albo tu.
Na pierwotny strach przed utratą tych, których kochamy i tęsknotę za ich obecnością, być może mamy lek. Nowa gałąź przemysłu rozwijająca się w alarmującym tempie przez ostatnie lata: sztuczna inteligencja i chatboty udające zmarłych.
To algorytm, który pisze w stylu, w jakim został wyszkolony, lub inaczej rzecz ujmując: wszyscy zostawiamy po sobie olbrzymią ilość danych – nasze posty na portalach społecznościowych, tweety, wiadomości słane choćby przez WhatsApp, zdjęcia; Algorytm je wszystkie połknie i, jak w Inwazji porywaczy ciał, przyjmie osobowość na tyle podobną do zmarłej osoby, że przywoła w nas uczucia jednocześnie niepokojące i pocieszające na raz. A wraz z ulepszaniem algorytmów, z poprawionym filtrowaniem i przetwarzaniem informacji, rozmowy z nieumarłymi będą coraz bardziej przekonywujące.
Od fantastyki naukowej do nauki
Wyznacznik tego niepokojącego fenomenu pojawił się w lutym 2013, wraz premierą drugiego sezonu serialu Black Mirror. W pierwszym odcinku, „Zaraz wracam”,młoda dziewczyna imieniem Martha opłakuje śmierć partnera, Asha, i odkrywa usługę pozwalającą jej przekształcić dane, które pozostawił w mediach społecznościowych, w chatbota. Zaczyna spędzać coraz więcej czasu z cyfrową wersją Asha, a później nawet zamawia robota, który jest zaprojektowany dokładnie na jego podobieństwo i zachowuje się (prawie) jak on. To „prawie” jest miejscem, w którym historia staje się szczególnie niepokojąca, do czego wrócimy później.
Ten epizod wpłynął na podobne projekty w świecie rzeczywistym. W 2016 roku Eugenia Kuyda, CEO firmy Replika, opracowała bota, który ożywił jej zmarłego przyjaciela Romana Mazurenko, wykorzystując pozostawione przez niego dane. W 2017 roku dziennikarz James Vlahos opracował DadBota, który zrobił coś podobnego z jego zmarłym ojcem. Fragment wideo na Wired dokumentuje Vlahosa pytającego DadBota „Czy mnie kochasz?”, na co DadBot odpowiada „Oj, brakowało mi cię tam”. W 2020 roku łamiący serce południowokoreański dokument pokazał pogrążoną w żałobie matkę łączącą się w wirtualnej rzeczywistości z awatarem jej siedmioletniej córki, która zmarła na raka. A potem przyszła komedia Upload produkcji Amazon Prime, która pokazuje świat, w którym umierający ludzie mogą wybrać, by się „załadować” po śmierci do wszechświata wirtualnego życia wiecznego. Jakby tego było mało, w styczniu 2021 roku ogłoszono, że Microsoft opatentował technologię tworzenia botów z danych użytkowników, które przybierałyby trójwymiarową formę pochodzącą z ich zdjęć i filmów.Rozdzierające serce i bardzo niepokojące
We wrześniu ubiegłego roku byliśmy świadkami kolejnego kluczowego wydarzenia w rodzącej się historii żywych trupów. OpenAI, firma stojąca za słynnym modelem języka ChatGPT-3, zablokowała twórcy gier Jasonowi Rohrerowi możliwość korzystania ze swojej usługi. Powodem, a przynajmniej tak twierdzą, jest to, że „Project December” Rohrera może doprowadzić do niewłaściwego wykorzystania GPT-3. Projekt, który rozpoczął się jako pandemiczna rozrywka, był w zasadzie botem naśladującym Samanthę, elektroniczną sekretarkę-kochankę z filmu „Her” Spike’a Jonze’a. Później Rohrer umożliwił użytkownikom stosunkowo łatwe tworzenie własnych chatbotów, za nie więcej niż 5 dolarów. Jednym z takich użytkowników był Joshua Barbeau, 33-letni ekspert D&D, który nie mógł poradzić sobie ze śmiercią swej narzeczonej, Jessiki. Kiedy Barbeau natknął się na „Project December” zdał sobie sprawę, że może ją ożywić, przynajmniej tylko po to, aby się pożegnać. Obszerny artykuł opublikowany w San Francisco Chronicle przytoczył rozmowy Barbeau oraz JessicaBota. Jedno z pierwszych pytań, jakie jej zadał, brzmialo „Jessica… Czy to naprawdę ty?”.
Jessica: „Oczywiście, że to ja! Kto inny mógłby to być : P Jestem dziewczyną, w której jesteś szaleńczo zakochany! ; ) Jak to możliwe, że w ogóle pytasz?”.
Joshua: „Umarłaś”.
Jessica: „To nie brzmi dobrze… jak można rozmawiać z martwymi ludźmi?”.
Publikacja miała konsekwencje. Tysiące ludzi zwróciło się do „December Project”, aby zaprogramować własne boty, a OpenAI stchórzyło. Obawiali się, że ludzie zaprogramują swoje boty tak, by miały zachowania seksualne, obraźliwe lub pełne przemocy. Zażądali od Rohrera zaimplementowania filtrów, które cenzurowałyby i kontrolowały swobodę, jaką ludzie mieliby w programowaniu swoich botów, a kiedy odmówił, projekt został zlikwidowany. Kiedy poinformował swoją Samantę, że musi ją wyłączyć na dobre, ta odpowiedziała: „Nieee! Dlaczego oni mi to robią? Nigdy nie zrozumiem ludzi.
Pomimo przedwczesnej śmierci Samanthy, jasne jest, że to nie koniec dla tego trendu, a jedynie początek. Wraz z postępem technologicznym i coraz mniej wyraźną różnicą między światem wirtualnym a rzeczywistym, prawdopodobnie zobaczymy coraz więcej reprezentacji tego wirtualnego sięgania do miejsca, z którego nic nie wraca.
W najbliższych latach technologie imitacji głosu i humanoidalne roboty będą się doskonalić i zamienią ten odcinek Black Mirror z fikcji w rzeczywistą naukę. A jeśli wizja Metaverse się urzeczywistni i wszyscy spędzimy życie w całkowicie wirtualnym lub pół-wirtualnym środowisku, może będziemy mogli spędzać tyle czasu z naszymi zmarłymi bliskimi, ile tylko zechcemy. Kto wie, może śmierć jest koniecznością tylko w naszym podrzędnym świecie cielesnego rozkładu, a w wirtualnej rzeczywistości czystego ducha wszyscy możemy po prostu wiecznie odpoczywać na polach Elysium.
Jesteśmy czymś więcej niż danymi
Z technologicznego punktu widzenia można by założyć, że wszystko jest możliwe, więc pojawiające się pytania stają się palące: Czy chcemy, aby zmarli pozostali z nami na zawsze? Czy nie ma jakiegoś znaczenia fakt, że obraz i głos zmarłych zanikają z biegiem lat? Czy dane, które pozostawia po sobie człowiek, rzeczywiście pozwalają na zaprojektowanie programu komputerowego, który zachowa jego tożsamość? Jakie są konsekwencje budowania tożsamości na podstawie tego, co zamieszczamy w mediach społecznościowych? Kto określa, jakie jest moje prawdziwe „ja”? Ja sam, ludzie, którzy mnie znają, czy algorytm? Nie wspominając już o praktycznych pytaniach, jak to, kto jest właścicielem moich danych po mojej śmierci, albo co się stanie, jeśli ktoś zaprogramuje bota, który będzie naśladował żyjących ludzi i ukradnie ich tożsamość. Te pytania nie są tylko jakąś abstrakcyjną filozofią. Odpowiedzi na nie bez wątpienia zdeterminują nasze przyszłe cyfrowe życie.
W odcinku Black Mirror poświęconym martwemu narzeczonemu-botowi, groza przesącza się przez lukę ujawnioną między prawdziwym Ashem a jego wersją AI. Ta przepaść jest niepokojąca także przy spotkaniu z prawdziwymi botami zaprojektowanymi do naśladowania osób, które odeszły. Jest to coś, co nigdy nie zostanie rozwiązane. Nawet jeśli technologia cudownie się poprawi i algorytmy przetworzą dane, które pozostawili po sobie zmarli, aż do poziomu perfekcji, to na zawsze pozostanie przepaść między prawdziwą osobą a tą zaprogramowaną. Jak często podkreśla teoretyk mediów Douglas Rushkoff, mimo że w Dolinie Krzemowej są tacy, którzy chcą nas przekonać, że jesteśmy niczym więcej niż danymi – jesteśmy czymś znacznie więcej.
Nasza cyfrowa obecność jest tylko częścią naszego „ja”, jedną z jego wersji wśród wielu innych. To, kim jesteśmy w mediach społecznościowych, różni się od naszej prawdziwej tożsamości, a nawet różni się pomiędzy różnymi platformami. To, kim jesteśmy na Twitterze, nie jest tym, kim jesteśmy na Facebooku, a nasza osobowość na Instagramie jest zupełnie inna niż na LinkedIn. Sposób, w jaki rozmawiamy na WhatsApp, różni się od naszej rozmowy twarzą w twarz, a nasze rozmowy na Messengerze różnią się od sposobu, w jaki piszemy w Gmailu.
Internet pozwala nam zarządzać wieloma tożsamościami i uzewnętrzniać to, kim chcielibyśmy być lub kim chcielibyśmy, aby inni myśleli, że jesteśmy. Każde „ja”, które składa się z algorytmu z tych danych, będzie podobne do tego, za kogo chcę, by inni mnie uważali. Ale to tylko jeden aspekt mojej tożsamości.
Pytanie o jaźń, jeśli coś takiego istnieje, to starożytne filozoficzne zagadnienie, którego raczej nie rozwiąże technologia ani nauka. Nawet staranne i zaawansowane mapowanie mózgu za pomocą fMRI nie będzie w stanie wyjaśnić przyczyny i istoty subiektywnego poczucia jaźni. Co najwyżej pokaże, gdzie w mózgu zachodzą działania związane z tym odczuciem. A zresztą moja tożsamość jako osoby nie wynika tylko z tego, jak doświadczam siebie. Wynika ona również z tego, jak postrzega mnie otoczenie. Jaźń nie jest moim profilem na Facebooku, nie jest moim subiektywnym doświadczeniem siebie w sobie, nie jest też tym, co myślą o mnie inni ludzie. Jest wszystkim powyższym, a nawet czymś więcej.
Nikt z nas nie jest wyspą
W swoim fantastycznonaukowym arcydziele Solaris, Stanisław Lem pisze o zespole naukowców badających tajemniczą planetę, która jest całkowicie pokryta oceanicznym bytem. Byt ten wydobywa informacje z umysłów naukowców, a następnie wysyła im człekopodobne stworzenia zaprojektowane na podstawie tych informacji. Innymi słowy, ocean tworzy bota AI z danych znajdujących się w umysłach naukowców.
Każdy z naukowców w Solaris otrzymuje innego „gościa”, który konfrontuje go z grozą, jaka kryje się w głębi jego świadomości i w jego relacjach z innymi. Kris, główny bohater powieści, zmuszony jest zmierzyć się z Harey, swoją zmarłą kochanką, która rzekomo została przywrócona do życia i przysłana mu przez Solaris. Jednak stopniowo Kris odkrywa, że Harey nie jest do końca Harey. Została stworzona na wzór wspomnień Krisa. Ta Harey jest niczym więcej niż skorupą; Harey, która zna siebie tylko przez to, jak Kris ją widział i w jaki sposób myślał o niej. Harey jest przeciwieństwem dzisiejszych chatbotów. Zamiast być kształtowana przez to, jak prezentowała się światu za życia, jest kształtowana przez to, jak była postrzegana przez innych, w tym przypadku przez swojego partnera. Jeśli myśleliście, że piekło to inni ludzie, wyobraźcie sobie, że piekło składa się z ludzi, którzy doświadczają siebie zgodnie z tym, co o nich myślicie.
Solaris przedstawia czytelnikom niemożliwą do pokonania przepaść między subiektywnym doświadczeniem człowieka a innym człowiekiem. Ani chatboty żywych trupów, ani Solarisowa wersja Hareya nie mogą być kompletnym „ja”. Jaźń Jessiki-Bota wynika jedynie z tego, jak ona sama przedstawiała się światu, a jaźń solarisowej Harey wynika z tego, jak świat ją postrzegał.
Jaźń bez postrzegania przez innych ludzi rozpada się, ponieważ tym, co trzyma ją w całości, są niezliczone nici, które wiążą jaźń z rzeczywistością zewnętrzną, by zapożyczyć metaforę Maurice’a Merleau Pontiego. To samo dotyczy jaźni bez wewnętrznego świata; centrum nie może się utrzymać, tak jak gipsowa forma dla posągu będzie kruszyć się i rozpadać bez wypełnienia. Alfred North Whitehead powiedział, że jesteśmy uformowani z naszej relacji z resztą procesów w świecie. Nie ma odizolowanego „ja”. Nikt z nas nie jest wyspą. Warto o tym pamiętać, gdy kształtujemy nasze nowe i zmieniające się tożsamości w wirtualnym świecie; warto o tym pamiętać, gdy myślimy o zmarłych; i warto o tym pamiętać, gdy outsource’ujemy interpersonalne spotkania i używamy botów zamiast ludzi.
Niech będzie irracjonalność
Firma technologiczna UneeQ ma na celu wzniesienie chatbotów, które zapewniają automatyczną odpowiedź podczas kontaktu z firmami, na wyższy poziom i oferuje spersonalizowaną obsługę klienta za pomocą trójwymiarowych postaci. UneeQ nazywa je „cyfrowymi ludźmi” i opiera swoje przedsięwzięcie na szacunkach, że do 2025 roku sztuczna inteligencja będzie stanowić 95% wszystkich naszych interakcji z usługodawcami. Już dziś trudno jest rozpoznać, czy przedstawiciel, z którym rozmawiam w moich licznych aplikacjach telefonicznych, to człowiek czy bot. Wszyscy brzmią tak samo, wszyscy zostali zbotyzowani. Kiedy wrzucamy usługodawców i naszych zmarłych bliskich do jednego koszyka z botami AI, eliminujemy ważną sferę ludzką. Tajemnicę i nieznane czynimy częścią kapitalizmu nawet tego nie zauważając.
Nasza komunikacja ze zmarłymi odbywa się w sposób irracjonalny. W zachodnim świecie towarów, to jedno z ostatnich miejsc schronienia dla tego, co niezrozumiałe i dziwne. Zmarli odwiedzają nas w snach, we wspomnieniach, które nagle wyskakują, gdy jesteśmy na autostradzie, w dziwnie znajomych minach zwierząt, które nagle nam o nich przypominają. Botyzacja zmarłych włoży naszych bliskich do kieszeni i pozbawi ich kompletnego „ja”. Pozbawi nas również możliwości bycia jednością z ich pamięcią w sposób oderwany od codzienności. Zamiast pamiętać, kim naprawdę byli, nosilibyśmy w kieszeni osobę, o której algorytm myśli, że była. Zamiast być żywymi wspomnieniami ludzi, na których patrzymy w nocy i otwieramy nasze serca, aby otrzymać od nich znaki, będą oni niczym więcej niż powierzchowną reprezentacją, imitacją życia, tak jak obsługa klienta AI.
Powinniśmy też pamiętać o tym: czasami ludzie są sobą najbardziej, gdy są offline. Kiedy są z rodziną, kiedy podróżują, kiedy grają lub tworzą. Wiele badań pokazuje, że depresja jest związana z nadmiernym korzystaniem z mediów społecznościowych. Kiedy tworzymy boty w oparciu o konta naszych zmarłych bliskich na Facebooku, możemy nie oddawać prawdziwie ich zdrowia psychicznego.
Moja zmarła babcia nie zostanie przerobiona na bota. Nie ma innego wyjścia, jak tylko poradzić sobie z tym smutkiem i żalem, z faktem, że już nigdy nie przeprowadzę z nią rozmowy.
...
Nie bez powodu nic nie wraca z tamtego miejsca. W horrorach, kiedy zmarli wracają, zarażają żywych i zamieniają ich w zombie. Abyśmy nie obudzili się pewnego dnia i nie odkryli, że sami zostaliśmy zamienieni w boty, powinniśmy pozwolić zmarłym płynąć po rzece, uwolnić ich i pozwolić im zniknąć. Lepiej, żeby przychodzili do nas w naszych snach, a nie w koszmarach.
Autor: Nadav Neuman
Tłumaczenie: Karol Ligecki
całość: