Izraelski filozof Harari:
przedruk
Nabycie przez sztuczną inteligencję umiejętności posługiwania się językiem, na którym jest zbudowana niemal cala ludzka kultura, potencjalnie oznacza koniec historii zdominowanej przez człowieka - pisze w brytyjskim tygodniku "The Economist" izraelski historyk i filozof Yuval Noah Harari.
"Lęki przed sztuczną inteligencją (AI) prześladują ludzkość od samego początku ery komputerów.
Zwraca uwagę, że język jest materiałem, z którego zbudowana jest niemal cała ludzka kultura, i stawia pytanie, co się stanie, gdy nie-ludzka inteligencja stanie się lepsza od przeciętnego człowieka w opowiadaniu historii, komponowaniu melodii, rysowaniu obrazów oraz pisaniu praw i świętych ksiąg.
"Kiedy ludzie myślą o ChatGPT i innych nowych narzędziach AI, często zwracają uwagę na takie przykłady, jak dzieci w szkole używające AI do pisania wypracowań. Co stanie się z systemem szkolnym, gdy dzieci będą to robić? Ale tego rodzaju pytanie pomija większy obraz. Zapomnijmy o szkolnych esejach. Pomyślmy o kolejnym amerykańskim wyścigu prezydenckim w 2024 roku i spróbujmy wyobrazić sobie wpływ narzędzi AI, które mogą zostać stworzone do masowej produkcji treści politycznych, fake-newsów i pism świętych dla nowych kultów" - wskazuje.
Przywołując amerykański kult QAnon, gdzie boty tylko rozpowszechniały treści stworzone przez ludzi, zauważa, że niedługo możemy zobaczyć pierwsze kulty, których święte teksty zostały napisane przez nie-ludzką inteligencję, albo znaleźć się w sytuacji, gdy będziemy prowadzić dyskusje online na temat aborcji, zmian klimatycznych lub rosyjskiej inwazji na Ukrainę, myśląc, że rozmawiamy z ludźmi, a w rzeczywistości rozmawiając ze sztuczną inteligencją.
"Problem w tym, że nie ma sensu, byśmy spędzali czas próbując zmienić deklarowane przez bota AI opinie, podczas gdy AI może tak precyzyjnie dopasować komunikaty, że ma duże szanse na wywarcie na nas wpływu" - zauważa Harari. Jak dodaje, dzięki opanowaniu języka, AI mogłaby nawet nawiązywać intymne relacje z ludźmi i wykorzystywać je do zmiany naszych przekonań i światopoglądu, a w politycznej walce o umysły i serca intymność jest najskuteczniejszą bronią.
Ale zwraca uwagę, że nawet bez tego nowe narzędzia AI miałyby ogromny wpływ na nasze opinie i światopogląd, bo ludzie mogą zacząć używać AI jako jedynej, wszechwiedzącej wyroczni. "Po co zawracać sobie głowę szukaniem, skoro mogę po prostu zapytać wyrocznię? Branża informacyjna i reklamowa również powinny być przerażone. Po co czytać gazetę, skoro mogę po prostu poprosić wyrocznię, aby powiedziała mi najnowsze wiadomości? I jaki jest cel reklam, skoro mogę po prostu poprosić wyrocznię, aby powiedziała mi, co kupić?" - wskazuje.
"I nawet te scenariusze nie ujmują tak naprawdę pełnego obrazu. To, o czym mówimy, to potencjalnie koniec ludzkiej historii. Nie koniec historii, tylko koniec jej zdominowanej przez człowieka części. Historia to interakcja między biologią a kulturą; między naszymi biologicznymi potrzebami i pragnieniami, takimi jak jedzenie i seks, a naszymi wytworami kultury, jak religie i prawa. Historia to proces, w którym prawa i religie kształtują jedzenie i seks. Co stanie się z biegiem historii, gdy AI przejmie kulturę i zacznie produkować opowieści, melodie, prawa i religie?" - pyta Harari.
Zauważa, że wcześniejsze narzędzia, takie jak prasa drukarska i radio, pomagały w rozpowszechnianiu ludzkich idei kulturowych, ale nigdy nie stworzyły własnych, podczas gdy AI jest zasadniczo inna, bo może tworzyć zupełnie nowe idee, zupełnie nową kulturę.
Izraelski filozof zaznacza, że AI może być wykorzystywana w dobrych celach, ale aby się upewnić, iż tak się stanie, trzeba najpierw zrozumieć jej możliwości. Przywołuje przykład broni jądrowej.
"Od 1945 roku wiemy, że technologia jądrowa może generować tanią energię dla dobra ludzi - ale może też fizycznie zniszczyć ludzką cywilizację. Dlatego zmieniliśmy cały porządek międzynarodowy, aby chronić ludzkość i zapewnić, że technologia jądrowa będzie wykorzystywana przede wszystkim dla dobra. Teraz musimy zmierzyć się z nową bronią masowego rażenia, która może unicestwić nasz świat umysłowy i społeczny. Nadal możemy regulować nowe narzędzia AI, ale musimy działać szybko. Podczas gdy atomówki nie mogą wymyślić potężniejszych atomówek, AI może stworzyć wykładniczo potężniejszą AI" - pisze Harari.
Jak podkreśla, trzeba natychmiast powstrzymać nieodpowiedzialne wdrażanie narzędzi AI w sferze publicznej i uregulować AI, zanim ona ureguluje nas, a pierwszą regulacją powinno być wprowadzenie obowiązku ujawniania przez sztuczną inteligencję, że ona nią jest. "Jeśli prowadzę z kimś rozmowę i nie mogę stwierdzić, czy jest to człowiek, czy AI - to koniec demokracji" - podkreśla.
Bartłomiej Niedziński
Zapytany „jak świat powinien zapamiętać Lecha Wałęsę” oznajmił, że świat powinien go „zapomnieć”. – Był, minął, koniec. Są nowe czasy – dodał.
Na pytanie komu ufa przyznał, że nikomu, po chwili dodał, że Panu Bogu. – Ale to Pan Bóg z komputera, najwyższa klasa mądrości – stwierdził.
Ale to mało prawdopodobne. Agent Korwin z bandą akolitów tak już tak nam spacyfikował mózgi, że jest to nie do pomyślenia.
Oni to wiedzą, wiedzą że ten zegar tyka. Za rok, dwa, może trzy skończą się unijne dotacje, i też przestaną nam pożyczać międzynarodowi finansiści. I wtedy będzie wielkie pierdut.
A wtedy Niemcy i Żydzi powiedzą - no może dałoby się coś załatwić, ale nie ma nic za darmo. I finał.
Im szybciej islamiści zacisną tę pętlę, tym lepiej...