Maciej Piotr Synak


Od mniej więcej dwóch lat zauważam, że ktoś bez mojej wiedzy usuwa z bloga zdjęcia, całe posty lub ingeruje w tekst, może to prowadzić do wypaczenia sensu tego co napisałem lub uniemożliwiać zrozumienie treści, uwagę zamieszczam w styczniu 2024 roku.

Pokazywanie postów oznaczonych etykietą cyfryzacja. Pokaż wszystkie posty
Pokazywanie postów oznaczonych etykietą cyfryzacja. Pokaż wszystkie posty

czwartek, 7 marca 2024

Nanotechnologia neuronalna - A nie mówiłem? (24)






przedruk
automatyczne tłumaczenie z rumuńskiego




W 2023 roku komandor Cornelis van der Klaauw z Królewskiej Marynarki Wojennej Holandii i ekspert w Połączonym Centrum Wojennym NATO ds. Komunikacji Strategicznej i Operacji Informacyjnych napisał w artykule "Wojna kognitywna":

"Powodem, dla którego ataki poznawcze pozostają niezauważone przez ich cele, jest to, że działania poznawcze omijają świadomy umysł i są bezpośrednio wymierzone w podświadomość danej osoby...

Większość naszych decyzji jest podejmowana przez naszą podświadomość... Ataki poznawcze nie są już science fiction. Już się odbywają... 

Nanotechnologia neuronalna może być wykorzystana do zbliżenia robotów o rozmiarach nanometrowych do neuronu za pośrednictwem krwiobiegu i umożliwienia bezpośredniego połączenia ludzkiego mózgu (tj. nie przechwyconego przez nasze zmysły) z komputerem, wykorzystując przy tym sztuczną inteligencję.

Podczas gdy inne obszary mogą zapewnić taktyczne i operacyjne zwycięstwa, domena ludzka jest jedynym obszarem, w którym możemy zapewnić pełne zwycięstwo.

W grudniu 2021 r. U.S. Naval Graduate School w Monterey w Kalifornii przyznała dwóm swoim studentom tytuł magistra analizy obronnej za pracę "Neurowar is Here!". W badaniu stwierdzili: "Rywalizacja wielkich mocarstw powróciła na pierwszy plan stosunków międzynarodowych, ponieważ Chiny i Rosja starają się rzucić wyzwanie globalnemu przywództwu Ameryki... Ten konkurs to ostatecznie walka... manipulować i kontrolować zarówno przeciwników, jak i ludność krajową. Walka o wpływy zaczyna się i kończy w ludzkim umyśle, gdzie postrzegana jest rzeczywistość" (s. 5).

Zidentyfikowali broń neurologiczną jako broń tej bitwy, "konkretnie celującą w mózg lub ośrodkowy układ nerwowy, aby wpłynąć na stan psychiczny osoby będącej celem ataku, zdolności umysłowe i ostatecznie na zachowanie osoby w określony i przewidywalny sposób" (s. 3).

Żadna z tych informacji nie pojawiła się w światowych mediach. Czy nie oznacza to, że żyjemy w świecie, w którym media (na żądanie rządów) ukrywają przed ludźmi nieustanną walkę o kontrolę nad ich umysłami i myślami?

W 2000 roku Grupa ds. Przyszłości Nauki i Technologii (STOA) Parlamentu Europejskiego opublikowała opracowanie na temat "Technologii kontroli tłumu", w którym przyznała, że "W październiku 1999 roku NATO ogłosiło nową politykę dotyczącą broni nieśmiercionośnej i jej miejsca w arsenałach sojuszniczych" i wyjaśniło, że "Najbardziej kontrowersyjną nieśmiercionośną technologią kontroli tłumu i technologii przeciwmateriałowej proponowaną przez USA są tak zwane bronie o częstotliwości radiowej lub ukierunkowanej energii, które rzekomo mogą manipulować ludzkim zachowaniem na wiele niezwykłych sposobów" i "największym problemem są systemy, które mogą wchodzić w bezpośrednie interakcje z ludzkim układem nerwowym... Badania podjęte do tej pory zarówno w USA, jak i w Rosji można podzielić na dwa powiązane ze sobą obszary: (i) indywidualna kontrola umysłu i (ii) kontrola tłumu" (s. XIV, LIII).

W styczniu 1999 r., po przesłuchaniu w Parlamencie Europejskim w sprawie amerykańskiego systemu HAARP, Parlament zatwierdził rezolucję wzywającą do "międzynarodowej konwencji wprowadzającej globalny zakaz wszelkiego rozwoju i rozmieszczania broni, która mogłaby pozwolić na jakąkolwiek formę manipulacji ludźmi".

Fakt, że media w państwach członkowskich Unii Europejskiej nigdy publicznie nie dyskutowały o tej broni, świadczy o tym, że państwa członkowskie NATO podpisały umowę zobowiązującą je do utajnienia tych informacji. Tę samą politykę stosują rządy na całym świecie. UE pracuje obecnie "nad projektem ustawy, która ma zapewnić, że sztuczna inteligencja w Europie będzie bezpieczna, szanuje prawa podstawowe i szanuje demokrację". Ustawa ta powinna zakazać "systemów sztucznej inteligencji, które manipulują ludzkim zachowaniem w celu obejścia jego wolnej woli", a nawet "wpływać na wyniki wyborów i zachowanie wyborców". Do tej pory Unia Europejska nie zawarła w tej ustawie zakazu wykorzystywania energii umożliwiających wykorzystanie sztucznej inteligencji i neurotechnologii do zdalnego sterowania ludzkim układem nerwowym. Oczywiście UE szanuje zgodę NATO na klasyfikację tej technologii. W rzeczywistości te dokumenty UE wspominają jedynie o wnioskowaniu mózg-komputer jako o środku zagrażającym podstawowym prawom człowieka i demokracji.

Aktywność mózgu zmienia się w zależności od zmian częstotliwości i liczby odpaleń neuronów w mózgu i jest dostępna dla każdej energii, która wytworzy w neuronach prądy elektryczne o częstotliwościach różnych czynności ludzkiego mózgu. Może to być wywołane przez bardzo długie fale elektromagnetyczne transmitowane w naturalnych częstotliwościach ludzkiego mózgu lub pulsujące mikrofale w częstotliwościach mózgowych, lub ewentualnie przez energie odkryte przez fizykę kwantową. Bardzo długie fale elektromagnetyczne, ze względu na swoją długość, będą kontrolować aktywność mózgu mas ludzkich, podczas gdy mikrofale z ukierunkowanymi impulsami mogą być używane do celowania w pojedynczy mózg.

Stany Zjednoczone, Rosja i Chiny dysponują systemami, które między innymi są w stanie wytwarzać silne prądy elektryczne w jonosferze poprzez przesyłanie tam pulsujących mikrofal o częstotliwościach mózgowych. Te zmienne prądy wytwarzają intensywne fale elektromagnetyczne w jonosferze o częstotliwościach mózgu, które docierają do dużych obszarów planety i kontrolują aktywność mózgu ich populacji.

Chiny, z pomocą Rosji, rozpoczęły budowę swojego systemu manipulacji jonosferą w prowincji Hainan w 2017 roku [1].

W lipcu 2023 r. "The Washington Times" opublikował artykuł [2], w którym stwierdzono: "Chińska Armia Ludowo-Wyzwoleńcza opracowuje zaawansowaną technologicznie broń, której celem jest zakłócanie funkcji mózgu i wpływanie na przywódców rządowych lub całe populacje, zgodnie z raportem trzech analityków wywiadu z otwartych źródeł".

Stany Zjednoczone zarządzają systemem H.A.A.R.P., który zainspirował Parlament Europejski do wezwania do "międzynarodowej konwencji wprowadzającej globalny zakaz wszelkiego rozwoju i rozmieszczania broni, która mogłaby pozwolić na jakąkolwiek formę manipulacji ludźmi" [3], a Rosja obsługuje system "Sura", eksperyment, za pomocą którego przekonała Chiny do zbudowania własnego systemu w prowincji Hainan.

Masy ludzkie mogą być również kontrolowane przez systemy satelitarne, które pulsują mikrofalami o częstotliwościach mózgowych, zwłaszcza jeśli "nanoroboty byłyby dostarczane blisko neuronu przez krwiobieg" w ich mózgach, jak to ujął na początku Cornelis van der Klaauw. niniejszego artykułu. Te "roboty" (a raczej anteny) są już wykorzystywane w neurotechnologii medycznej [4]. Są tak małe, że mogą przenikać przez krwiobieg przez barierę krew-mózg do mózgu. Mogą być uwalniane do krwiobiegu poprzez oddychanie, picie, jedzenie lub szczepienie.

Sieci telefonii komórkowej mogłyby być wykorzystywane do kontrolowania aktywności ludzkiego układu nerwowego, gdyby ich częstotliwości mikrofalowe były pulsowane również w częstotliwościach mózgu. Pierwsze eksperymenty mające na celu manipulowanie aktywnością ludzkiego mózgu za pomocą pulsujących mikrofal powiodły się nawet bez użycia jakichkolwiek cząstek w mózgu i nie jest tajemnicą, że promieniowanie telefonu komórkowego, pulsujące w 217 herzach, wytwarza tę częstotliwość w aktywności ludzkiego mózgu.

Obecnie nie ma międzynarodowego porozumienia zakazującego wykorzystywania sztucznej inteligencji i neurotechnologii do zdalnego sterowania ludzkim układem nerwowym, myślami, emocjami, podświadomością itp. Nie ma na to innego wyjaśnienia niż to, że wielkie mocarstwa rywalizują o rządzenie światem w ten sposób. W 1997 roku Instytut Studiów Strategicznych przy U.S. Army War College opublikował książkę Revolution in Military Affairs and Conflict Without War (Rewolucja w sprawach wojskowych i konflikt bez wojny), w której stwierdzono: "Potencjalni lub potencjalni zwolennicy rebelii na całym świecie zostali zidentyfikowani za pomocą zintegrowanej międzyagencyjnej bazy danych. Zostały one sklasyfikowane jako "potencjalne" lub "aktywne", z wyrafinowanymi symulacjami osobowości wykorzystanymi do opracowania, dostosowania i ukierunkowania kampanii psychologicznych dla każdego z nich" (s. 24-25). Jest to amerykański projekt globalnej kontroli nad światem. Nie ulega wątpliwości, że podobne projekty powstają również w Chinach i Rosji.

Aby uchronić historię świata przed osiągnięciem tego nieludzkiego celu, konieczne jest, aby rządy światowe podpisały międzynarodowe porozumienie zakazujące wykorzystywania neurotechnologii i sztucznej inteligencji do kontrolowania aktywności ludzkiego mózgu na odległość, podobnie jak umowy zakazujące stosowania substancji chemicznych i biologicznych. Broni. Przestrzeganie tego zakazu powinno być nadzorowane przez Organizację Narodów Zjednoczonych. Na razie możemy jedynie pomóc wzywając Parlament Europejski do wprowadzenia zakazu stosowania technologii zdalnego sterowania aktywnością ludzkiego układu nerwowego. Musi być zabroniony osobom fizycznym, prawnym, firmom marketingowym i organizacjom przestępczym, a także agencjom rządowym i rządom zagranicznym.

Uwaga: Mojmir Babacek urodził się w 1947 roku w Pradze w Czechach. W 1972 roku ukończył filozofię i ekonomię polityczną na Uniwersytecie Karola w Pradze. W 1978 r. podpisał dokument w obronie praw człowieka w "Karcie 77". W latach 1981-1988 przebywał na emigracji w USA. Od 1996 roku publikuje artykuły na różne tematy, głównie w czeskich i międzynarodowych mediach alternatywnych. W 2010 roku opublikował książkę o zamachach z 11 września w języku czeskim. Od lat dziewięćdziesiątych XX wieku dąży do osiągnięcia międzynarodowego zakazu zdalnego sterowania aktywnością ludzkiego układu nerwowego i ludzkiego umysłu za pomocą neurotechnologii.




czwartek, 22 lutego 2024

Fb usunął mój post

 


Dotyczy tekstu z bloga z 30 marca 2023 r. pt. "Krytyka Hołdu Pruskiego".



Nie widzę powodu, co było tam nie tak - nie wiem.
Ale - może chodzi o to, co właśnie teraz piszę na blogu...?






Wstępny komentarz do posta na fb był wzięty z tekstu artykułu, który w istocie przedrukowałem


sobota, 14 października 2023

SI na wojnie - A nie mówiłem? (18)

 






Fragment wywiadu z pułkownikiem WAT.











Przypominam o filmie "Rango" z efektami specjalnymi na poziomie arcywybitnym.

Dlaczego nie stosuje się tak realistycznych efektów w innych produkcjach?



Żebyśmy nie mieli świadomości co można zrobić w ramach serwisów informacyjnych?






Ekspert z WAT: sztuczna inteligencja ma pozwolić na militarną dominację | Polska Agencja Prasowa SA (pap.pl)


Prawym Okiem: Wielki Eksperyment... (maciejsynak.blogspot.com)




sobota, 30 września 2023

Pułapka instagrama

 


przedruk

tłumaczenie automatyczne





Francesco Marino

Instagram vs rzeczywistość:

jak overtourism zamienia Włochy w tło selfie





"W Rasiglii Instagram i jedno lub dwa zdjęcia ad hoc sprowadziły lawiny turystów do bardzo małej wioski, która tak naprawdę ma trzy lub cztery trasy i która nie była znana nawet umbryjskim mieszkańcom pobliskich obszarów".



W zeszły weekend próbowałem na Instagramie zadać pytanie ludziom, którzy mnie obserwują: jak media społecznościowe zmieniły miejsce, które kochasz? Odpowiedzi otwierają dość szeroką przestrzeń do refleksji, która zaczyna się od overtourism i tego, jak media społecznościowe zmieniły relacje, jakie mamy z przestrzeniami, w których mieszkamy, aż po sposób, w jaki cyfryzacja zasadniczo zmieniła samo postrzeganie wolnego czasu.



To włoskie lato to nie tylko niebotyczne wpływy, coraz wyraźniejsze dowody zmian klimatycznych i nieuchwytny pojedynek między Elonem Muskiem a Markiem Zuckerbergiem. Było to również, a może przede wszystkim, lato, w którym zdaliśmy sobie sprawę, że mamy do czynienia z overtourismem. Albo, mówiąc prościej, ten moment, w którym turystyka negatywnie wpływa na miejsce, w szczególności na postrzeganą jakość życia obywateli i jakość doświadczeń odwiedzających.

Kanapki podzielone na dwie, zatłoczone i coraz droższe plaże, ośrodki turystyczne odpowiednie dla zagranicznych turystów: geografia naszego kraju zmieniła się tak bardzo, że coraz więcej Włochów szuka wakacji gdzie indziej. To tak, jakby wielu w pewnym momencie przestało w pełni uznawać Apulię, Wybrzeże Amalfitańskie, Cinque Terre, jezioro Como, miasta sztuki, takie jak Rzym czy Wenecja. Coś się zmieniło.

Według analizy Banku Światowego przedstawionej przez Financial Times, od 1990 do 2019 roku liczba podróżujących w celach wypoczynkowych na całym świecie podwoiła się, osiągając 2,4 miliarda rocznie. To dość prosty proces. Średnie dochody na Zachodzie wzrosły niemal wszędzie, technologia skróciła odległości, a tanie loty obniżyły bariery wejścia. Podróżowanie stało się w ciągu ostatnich 15-20 lat definiującą czynnością, poprzez którą projektujemy naszą tożsamość, w odniesieniu do siebie i innych.


W drodze szukamy tego, co widzieliśmy w mediach społecznościowych

Chodzi o to, że w ciągu ostatnich dwóch dekad wzrosła nie tylko liczba podróżnych w wartościach bezwzględnych. Zmieniły się również sposoby, w jakie podejmujemy decyzje dotyczące podróży, trajektorie, przez które orientują się nasze pragnienia. Internet zawsze był potężnym narzędziem dostępnym dla każdego, kto chce zorganizować jakikolwiek ruch. Absurdem jest nawet wyobrażanie sobie, że jeszcze jakiś czas temu, aby zrobić bilet lotniczy, trzeba było fizycznie przenieść się z domu lub zadzwonić do centrali telefonicznej.

Jednak Internet nie tylko ułatwił rezerwacje. Stworzył również system informacyjny, w którym bardzo łatwo jest znaleźć informacje o podróży, sugestie tras, miejsca do odwiedzenia. Sieci społecznościowe sprawiły również, że turystyka stała się walutą społeczną, sposobem na zaprojektowanie naszej obecności w Internecie. Według jednego z najczęściej cytowanych badań naukowych na ten temat, platformy społecznościowe mogą stworzyć coś w rodzaju FOMO (Fear of Missing Out), strachu przed przegapieniem czegoś. Zasadniczo każdy może publikować zdjęcia z dowolnego miejsca na świecie, widzimy je i jesteśmy zmuszeni do szukania odrobiny tego piękna. I nie tylko to: szukamy również tych rzeczy, które widzieliśmy w sieciach społecznościowych.

Jednym z pierwszych artykułów, które przeczytałem na temat zjawiska overtourismu, jest artykuł dziennikarki Vox Rebeki Jennings. Jest to bardzo osobisty artykuł, niemal strona pamiętnika, w którym Jennings opowiada o niezbyt satysfakcjonującej podróży do Positano, które nazywa "instagramową stolicą świata".

"Problem polega na tym, że zbyt wiele osób chce mieć dokładnie takie same doświadczenia, ponieważ wszyscy weszli na te same strony internetowe i przeczytali wszystkie te same recenzje. Istnieje pomysł, że jeśli w ogóle nie pójdziesz do tej konkretnej restauracji lub nie odwiedzisz tej okolicy, wszystkie pieniądze i czas, które spędziłeś, zostały zmarnowane. Jakbyś zadowolił się czymś, co nie jest tak doskonałe, jak mogłoby być". Jennings nazywa to naszą "kulturową obsesją na punkcie wszystkiego, co najlepsze".


Szukamy oceny społecznej nawet na wakacjach. Czy to koniec wolnego czasu?

Jest to dyskurs, który ma związek z turystyką, ale bardziej ogólnie z relacją, jaką mamy z czasem wolnym. Być może dlatego, że wydaje się, że mamy mniej, ale potrzebujemy coraz więcej i lepiej organizować te przestrzenie rekreacyjne, które mamy dostępne. Aby je zaplanować, zaplanować je, szukać recenzji.

Jest to proces, który rozpoczął się kilka lat temu. W pięknej książce, która wydaje się mieć z tym niewiele wspólnego i która nosi tytuł Historia chodzenia, Rebecca Solnit dobrze opisuje czasy, kiedy technologie zbudowane z myślą o wydajności i, teoretycznie, aby uwolnić nasz czas, doprowadziły nas do myślenia, że wszystko musi być skwantyfikowane. "To, czego nie można zmierzyć, nie istnieje" – pisze Solnit.

W artykule opublikowanym na początku sierpnia Business Insider mówi o "śmierci hobby". Oznacza to, że kontekst, w którym technologia cyfrowa oferuje nam możliwość zarabiania na wszystkim, co robimy. Wszystko, co robimy, ma potencjalną wartość, społeczną, a nawet ekonomiczną budującą tożsamość. "Czas staje się zasobem ekonomicznym", pisze Jenny Odell w książce zatytułowanej How to Do Nothing.

Jeśli każda aktywność, nawet rekreacyjna, ma wartość, wszystko musi być zaplanowane. Chodzi o to, że konieczność planowania wszystkiego ma dwie zasadnicze konsekwencje. 

Po pierwsze, kiedy wszyscy informują się mniej więcej na tych samych kanałach, wszyscy będą chcieli zrobić to samo, trochę tak, jak napisała Rebecca Jennings. 

Drugi to poczucie frustracji, jeśli wszystko nie idzie zgodnie z planem. A więc jeśli pada deszcz, jeśli jest zbyt duża kolejka, jeśli schody do pokonania są niewygodne lub jeśli zachód słońca nie jest dokładnie tym, co chcieliśmy zobaczyć. 

Ponieważ czas, który poświęcamy sobie, poddawany ciągłej ocenie osobistej i społecznej, przestaje być czasem wolnym. Innymi słowy, przestaje być szansą na rozwój, na relację z otaczającą nas przestrzenią i z czasem, w którym żyjemy.


"Transformacja Wenecji? Straciłem teraz swoje serce, ponieważ zostało przekształcone z pięknej i ludzkiej wiejskiej tawerny w stołówkę, na której zawsze ustawia się kolejka turystów na zewnątrz.


"Pochodzę z Salento i latem moja ziemia staje się nie do poznania. Zachowuję dla siebie te farmy / trattorie, które jeszcze nie są społeczne"


Instagram vs rzeczywistość. Niektóre referencje z Włoch

"Transformacja estetyczna w Wenecji rozpoczęła się od Canaletta – mówi mi inny z użytkowników, którzy odpowiedzieli na moją ankietę – ale teraz tempo tej transformacji jest bardzo gwałtowne. Mówię miastu w mediach społecznościowych i, aby dać wam przykład, dzięki temu, że teraz powiem moje miejsce serca, straciłem je, ponieważ zostało przekształcone z wiejskiej karczmy, pięknej i ludzkiej, w stołówkę, na której zawsze ustawia się kolejka turystów".

Chodzi o to, że ten sposób relacji z przestrzenią i czasem zmienia miejsca, pozbawia je znaczenia. Tego lata brytyjski dziennikarz Tobias Jones powiedział Guardianowi o tym, jak overtourism zamienia wszystko w tło dla selfie. 

"Problem z masową turystyką polega na tym, że sprawia, że miejsca docelowe są przeciwieństwem tego, czym były kiedyś. Atrakcją Cinque Terre jest ich niezwykła prostota: nie mają wielkich zabytków jako takich, wielkich katedr ani zamków, tylko poczucie spokoju, ludzkiej pomysłowości i wielkości krajobrazu. Ale spokój i prostota miejsc nie wytrzymają milionów odwiedzających

"Jestem z Salento - wyjaśnia inny - i chociaż kocham moją ziemię, uważam ją za nierozpoznawalną latem, kiedy jest dosłownie atakowana przez turystów. Od dawna rozumiem, że wcześniej nieznane miejsca są łatwo usuwane, prosty geotag jest znacznie szybszy niż poczta pantoflowa. Te kilka plaż wciąż mało uczęszczanych i farmy / trattorie jeszcze nie towarzyskie trzymam dla siebie, mając nadzieję, że turyści (a więc chaos, brud, parkowanie i nielegalne parkowanie, nagłe bary i mało prawdopodobne budynki, kolejki, głośna muzyka) trzymają się z daleka tak długo, jak to możliwe ".

Na TikTok hashtag #InstagramVsReality, używany do pokazania różnic między mediami społecznościowymi a rzeczywistymi krajobrazami, ma ponad 2,6 miliarda wyświetleń. Jest wszystko: zatłoczona Fontanna di Trevi, Positano bez centymetra do przejścia, kolejki do vaporetti w Wenecji. To wyraz frustracji, o której mówiliśmy wcześniej, tej idei, że to, co zaplanowałem, nie poszło dokładnie tak, jak sobie wyobrażałem.

To także moment odsłaniania koncepcji, którą powinniśmy już znać: media społecznościowe nie są neutralnymi narzędziami informacyjnymi, tak jak gazety, wobec których jednak mamy znacznie większy sceptycyzm. Aby to zadziałało, treść musi być zgodna z pewnymi zasadami, aby zadowolić algorytmy wybierające posty i zachęcić ludzi do dalszego oglądania. Rezultatem są doskonałe obrazy, zapierające dech w piersiach widoki: z ekranu znika całe tarcie.

Rzeczywistość nagina się do reguł algorytmicznych i właśnie tej rzeczywistości szukamy.


Rozwiązania wymyślone do tej pory przez administrację włoską i międzynarodową koncentrują się – słusznie – na potrzebie ochrony miejsc przed przeludnieniem. Wenecja idzie w tym kierunku, który zainauguruje w 2024 roku bilet wstępu w wysokości 5 euro, aby odwiedzić miasto. Inną możliwością jest ograniczona liczba, która już jest rzeczywistością w autonomicznej prowincji Bolzano.

Odpowiedź na to zjawisko jest jednak bardziej kulturowa. I ma to związek z turystyką, ale prawdopodobnie z dość szerokim zakresem aspektów związanych z zarządzaniem naszym czasem i przestrzeniami, w których żyjemy.

I zaczyna się od centralnej refleksji: nie wszystko może i musi być treścią; Nie każda chwila naszego czasu potrzebuje społecznego potwierdzenia, jakiegoś pomiaru. Zaakceptowanie tego oznacza przyzwyczajenie się do niego, jak pisze Sheila Liming w książce zatytułowanej Hanging Out, do "zatrzymania czasu, poświęcenia się tylko interakcji z innymi ludźmi lub z przestrzeniami wokół nas".










www.today.it/opinioni/social-turismo-overtourism.html






Degradacja intelektualna




Poniżej precyzyjna wypowiedź Prof. Zybertowicza ws. degradacji intelektualnej na świecie.

Szukając jego oryginalnej wypowiedzi dla PAP natrafiłem na inne, równie ciekawe, tu fragmenty wypowiedzi:



11.12.2022







oraz:





"Doradca prezydenta RP Andrzeja Dudy uważa, że sztuczna inteligencja jest i będzie wykorzystywana przez zorganizowaną mniejszość, chcącą zapanować nad zdezorganizowaną większością. Za zorganizowaną mniejszością, zdaniem socjologa, stoją wysoko postawieni ludzie związani z Wielką Piątką bądź Big-Techem.

Zybertowicz kilkukrotnie w trakcie dyskusji zaznaczył, że grupie GAFAM [
Google, Amazon, Facebook, Apple, Microsoft] zależy przede wszystkim na kumulowaniu wszelkich danych, związanych z naszą obecnością w sieci. W opinii profesora, ten kto ma wiedzę o specyficznych cechach psychiki każdego człowieka z osobna, ten może władać ludzkimi zachowaniami do woli.


Zdaniem Zybertowicza, to właśnie wyspecjalizowane systemy tzw. słabej sztucznej inteligencji (m.in. algorytm rekomendacji Netflixa), odpowiadają za przechwytywanie i zarządzanie uwagą użytkowników. Systemy te mają także generować dezinformację, powodującą degradowanie kompetencji poznawczych i zawężenie spektrum ludzkich wyborów.


Socjolog przekonuje, że ostatecznym celem „gości z Big-Techu” jest podłączenie zdezorganizowanej większości do systemu cyfrowego całkowicie kontrolowanego przez zorganizowaną mniejszość. „Każdy będzie miał implant, który będzie zarządzał jego potulną wyobraźnią” – wyjaśniał Zybertowicz."





Właśnie o czymś takim pisałem w swoim ostatnim tekście pt. "Wielki eksperyment":


Kiedy za kilka lat, albo kilkadziesiąt, SI stanie się powszechne i zagości w każdym domu, to będzie mogło uczyć się od każdego człowieka na ziemi. Codziennie i za darmo będzie rejestrować każde twoje zachowanie. 


Jeśli SI jest w istocie siecią pochodzącą od jednego SI, to codziennie będzie poznawać - notować - zapamiętywać każde ludzkie zachowanie i reakcję - hurtowo - w ilościach miliardowych.


A jak już opanuje WSZYSTKIE ludzkie zachowania, łącznie z ich poszczególnymi "odmianami" charakterystycznymi dla danego człowieka, i będzie w stanie natychmiast na każdą ludzką reakcję odpowiedzieć - to wtedy nam pokaże, kto tu jest kim.






Na blogu wspominałem nie raz też o tym, że my nie jesteśmy zorganizowani, a przeciwnik - tak.
Na tym min. polega ich przewaga nad nami.

Poniżej dwa ze wspomnianych na wstępie tekstów.





Prof. Zybertowicz dla PAP:

30-09-2023 06:58




Coraz więcej naukowców zgadza się, że media społecznościowe zdegradowały zdolności intelektualne całego pokolenia. Bez podjęcia radykalnych działań, w systemie edukacyjnym, na poziomie kulturotwórczym oraz – zwłaszcza - regulacyjnym, nie sposób będzie tego procesu powstrzymać – uważa profesor Andrzej Zybertowicz, doradca prezydenta RP.


Media społecznościowe destrukcyjnie wpływają na potencjał kognitywny ludzkości, ponieważ są zarządzane przez algorytmy sztucznej inteligencji, które preferują sprymitywizowane narracje, ciągłe informacyjne przeciążanie ludzi, przebodźcowywanie ich - w sumie uzależnianie od ciągłego strumienia informacji, które łącznie nie układają się w żadną sensowną wiedzę o świecie - podkreśla w rozmowie z PAP prof. Zybertowicz.


W jego opinii powoduje to tracenie zdolności do tzw. pracy głębokiej, będącej "kluczową dla całego dorobku intelektualnego i moralnego ludzkości". Jedną z jej cech jest umiejętność trwałego skupienia się na jakimś zagadnieniu, mimo że przez dłuższy czas nie otrzymuje się z tego powodu gratyfikacji.


"Praca głęboka polega na przejściu przez fazę mozołu, czasami długiego, czasami metodą prób i błędów, zanim odniesie się sukces. A media społecznościowe, poprzez lajki, dźwięki, światełka, filmiki, tik-toki, oferują bodźce, dają poczucie sukcesu mózgowi, radość, ekscytację, by podtrzymać zaciekawienie z sekundy na sekundę" - powiedział profesor.

Jak dodał, w wyniku rewolucji cyfrowej, a następnie gwałtownego rozwoju AI "bardzo niebezpiecznie zbliżyły się do siebie dwie krzywe: jedna to wzrost możliwości intelektualnych i zdolności do rozwiązywania zadań przez AI, a druga to spadek zdolności rozwiązywania bardziej złożonych zadań przez człowieka".

Profesor Zybertowicz przytoczył wyniki badań opublikowanych na łamach prestiżowego czasopisma naukowego "Nature", które pokazują, że w ciągu ostatnich 50 lat, tj. w okresie rewolucji cyfrowej, z dekady na dekadę spada liczba ważnych, przełomowych odkryć naukowych.

"Wydaje się, że to właśnie rewolucja cyfrowa, już nie tylko w odniesieniu do umysłów nastolatków, ale na poziomie potencjału badawczego najwybitniejszych uczonych (…) spowolniła proces dokonywania kluczowych odkryć" - stwierdził rozmówca PAP.

"Ufundowana na tradycji oświeceniowej rewolucja naukowo-techniczna, prowadzona pod hasłami coraz głębszego rozumienia świata, doprowadziła obecnie ludzkość na skraj krawędzi, w okolicach której przestajemy mieć zdolność do rozumienia świata. Co więcej, tworzymy byty, które są dla nas coraz bardziej niezrozumiałe" - dodał.

Profesor wyjaśnił, że niektóre systemy sztucznej inteligencji już teraz rozwiązują zadania i osiągają cele w sposób niezrozumiały dla człowieka. "Przez tysiąclecia ludzkość eksplorowała nieznane (…), przesuwała granice wiedzy i niewiedzy, (…), ale od momentu zbudowania AI, która ma charakter czarnoskrzynkowy, tzn. działa według zasad, których nie rozumiemy, uczeni i inżynierowie zaczęli mnożyć nieznane, zapraszać do ludzkiej kultury byt, który, jak mówią eksperci, czym sprawniejszy, tym trudniejszy do kontroli" - powiedział profesor.

"Jesteśmy o krok od tego, żeby stworzyć siłę o piorunującym potencjale, której działania zupełnie nie pojmiemy. A obecnie procesu idącego w tę stronę nic i nikt chyba nie kontroluje" - podkreślił.


Zapytany o to, czy istnieją rozwiązania, które mogłyby powstrzymać degradację intelektualną ludzkości, np. wprowadzone na poziomie edukacji, prof. Zybertowicz stwierdził, że prawdopodobnie nadal jest możliwe ich wypracowanie. Wpierw jednak potrzeba do tego analizy tradycyjnych metod nauczania, aby stwierdzić, które z nich skutecznie wzmacniają u dzieci zdolność do pogłębionego myślenia. Jednak na poziomie osobistym - stwierdził profesor - każdy z nas musi stosować higienę cyfrową i co dzień walczyć w "nierównym starciu ze smartfonami".

[...]

"O co naprawdę się pytamy, gdy pytamy o AI, o jej potencjał, o zagrożenia i korzyści? Tak naprawdę zadajemy to samo pytanie od tysięcy już lat: kim jesteśmy, na czym polega dobre życie i co powinniśmy robić, żeby czas, z którego się to życie składa, był mądrze wykorzystany?" - uważa prof. Zybertowicz. "Gdy udzielimy sobie gruntownej odpowiedzi na to pytanie, to będziemy wiedzieli, jak postępować z AI".




Sztuczna inteligencja – groźne narzędzie w rękach Big-Techu

27 września 2022 r.



[...]


Czym jest sztuczna inteligencja?

Profesorowie przekonywali, że chcąc dowiedzieć się czegoś więcej o rzeczywistej sztucznej inteligencji,

w pierwszej kolejności powinniśmy zredefiniować samo jej pojęcie. Odrzucić fantastyczne teorie o stworzeniu superinteligentnej samoświadomości (strong A.I.), a pochylić się nad dziedziną programowania, zajmującą się tworzeniem algorytmów do ściśle określonych czynności.

Słaba sztuczna inteligencja (weak A.I.) w założeniu koncentruje się na jednym zadaniu, które ma wykonywać lepiej i szybciej od człowieka. Uczestnicy panelu za przykład podali m.in. aplikację służącą do przeszukiwania sieci społecznościowych pod kątem fotografii ludzkich twarzy oraz program zajmujący się odczytywaniem zdjęć medycznych w celu diagnozowania chorób. Czy to oznacza, że ludzkość może odetchnąć z ulgą? Czy słaba sztuczna inteligencja może stanowić jakiekolwiek zagrożenie? Przecież algorytmowi rekomendacji Netflixa bądź aplikacji Siri bardzo daleko do złowrogiego „Matriksa”, prawda? Tylko pozornie.



Sztuczna inteligencja narzędziem w rękach ludzi pragnących władzy

Według profesora Zybertowicza, przeciwnika technoentuzjazmu, programy i algorytmy określane mianem sztucznej inteligencji choć najprawdopodobniej nigdy nie przeistoczą się w samoświadome podmioty, będą funkcjonować jako niezwykle użyteczne narzędzia.

Doradca prezydenta RP Andrzeja Dudy uważa, że sztuczna inteligencja jest i będzie wykorzystywana przez zorganizowaną mniejszość, chcącą zapanować nad zdezorganizowaną większością. Za zorganizowaną mniejszością, zdaniem socjologa, stoją wysoko postawieni ludzie związani z Wielką Piątką bądź Big-Techem.

Zybertowicz kilkukrotnie w trakcie dyskusji zaznaczył, że grupie GAFAM [1] zależy przede wszystkim na kumulowaniu wszelkich danych, związanych z naszą obecnością w sieci. W opinii profesora, ten kto ma wiedzę o specyficznych cechach psychiki każdego człowieka z osobna, ten może władać ludzkimi zachowaniami do woli.


Zdaniem Zybertowicza, to właśnie wyspecjalizowane systemy tzw. słabej sztucznej inteligencji (m.in. algorytm rekomendacji Netflixa), odpowiadają za przechwytywanie i zarządzanie uwagą użytkowników. Systemy te mają także generować dezinformację, powodującą degradowanie kompetencji poznawczych i zawężenie spektrum ludzkich wyborów.

Socjolog przekonuje, że ostatecznym celem „gości z Big-Techu” jest podłączenie zdezorganizowanej większości do systemu cyfrowego całkowicie kontrolowanego przez zorganizowaną mniejszość. „Każdy będzie miał implant, który będzie zarządzał jego potulną wyobraźnią” – wyjaśniał Zybertowicz.


Big-Tech beneficjentem pandemii i wojny na Ukrainie

W trakcie debaty prof. Zybertowicz zaprezentował, moim zdaniem, szokującą hipotezę, jakoby dynamika świata cyfrowego zarządzanego przez Wielką Piątkę, miała w znaczącym stopniu, przyczynić się do wybuchu pandemii oraz wojny na Ukrainie.

 „Wartość giełdowa tych wszystkich firm [przedsiębiorstw z grupy GAFAM – przyp. autora] wzrosła w czasie pandemii i w momencie, gdy wybuchła ta wojna, firmy te zapisały się do obozu walki z dezinformacją, na której żerowały przez ostatnie dekady. [I wtedy inne systemy służące do badań statystycznych*, wyciągania informacji z ludzi i manipulowania przestaną być potrzebne i będzie je można obalić, może nawet spektakularnie, by wykreować nowych dobroczyńców ludzkości.


I to już się dzieje. - "Wielki Eksperyment" - MS]

 (…) Rewolucja cyfrowa zwiększyła mobilność i między innymi przyczyniła się do optymalizacji ruchu kontenerowego, tanich linii lotniczych itp. Bez tego ta mobilność byłaby znacznie mniejsza i prawdopodobnie dałoby się tę epidemię lokalnie zamykać i kontrolować. (…) Przeciążenie dezinformacją powodowało, że rządy, także nasz, reagowały nadmiarowo. (…) I Zachód, gdyby nie był ogłupiony przez strukturalnie zatrutą infosferę, był w stanie na czas powstrzymać Putina. To Big-Tech jest beneficjentem pandemii i tej wojny” – przekonywał socjolog.



Big-Tech kontra zdezorganizowana większość

W opinii profesora Zybertowicza realną szansą na powtrzymanie planów „ludzi z GAFAM” jest wprowadzenie szeregu regulacji prawnych, które m.in. narzuciłyby powszechny podatek na molochy technologiczne oraz uniemożliwiły cyfrowym korporacjom wymianę danych o użytkownikach. Zdaniem prezydenckiego doradcy, wpływy Big-Techu w amerykańskim kongresie są na tyle duże, że finalizowaniem aktów o rynkach cyfrowych powinni zająć się politycy z Unii Europejskiej.

Czy obywatel niezwiązany ze światem wielkiej polityki i biznesu jest w stanie przeszkodzić poczynaniom liderów Wielkiej Piątki? 
W ostatnich minutach debaty profesor Zybertowicz zwrócił się do współpanelistów oraz publiczności, zadając pytanie: „Przypomnijcie sobie modlitwy Waszych przodków i za każdym razem, gdy ręka wyciągnie się Wam do smarfona czy tableta, pomyślcie, jakby zachowali się nasi przodkowie, którzy dali nam wolną Polskę?”.

W jaki sposób interpretować słowa socjologa? Dlaczego powinniśmy naśladować ludzi z czasów przed pojawieniem się sztucznej inteligencji? Być może dlatego, że wówczas człowiek nie dostrzegał ekranu smartfona, lecz twarze otaczających go rodaków. Chcąc odeprzeć ekspansję algorytmów, wystarczy po prostu częściej wybierać real zamiast cyber?





[1] Akronim używany do wskazania pięciu firm, które od ok. roku 2010, dominują w cyberprzestrzeni: Google, Amazon, Facebook, Apple, Microsoft.





Fragment mojego tekstu Werwolf:


W gruncie rzeczy struktury, które określają siebie jako wrogie Polakom – w naszej terminologii funkcjonują jako rozmyte. Mamy wątpliwości. Nie wiemy dokładnie kto to jest, ani dlaczego nam to robi. Po prostu po naszym pięknym kraju szaleją jakieś sitwy i tylko tyle wiemy. I niestety, nic lub niewiele z tym robimy.

Tekst poniższy ma na celu ukierunkować naszą uwagę na działalność pewnych struktur, aż do pełnego rozpoznania sytuacji.


Dopiero po zdefiniowaniu:
  • kto za tym stoi
  • dlaczego to robi
  • i jak to robi

będziemy mogli dać im skuteczny odpór.



Dopiero wtedy, kiedy sprecyzujemy struktury, określające siebie jako Wrogowie Polaków, będziemy mogli zaplanować działania blokujące.
Dopiero wtedy, kiedy będziemy wiedzieli o co chodzi – będziemy mogli przystąpić do działania z zapałem.



Albowiem, kiedy nie wiemy po co mamy się angażować – nie będziemy się angażować.

Kiedy nie wiemy przeciwko komu mamy się angażować – nie będziemy się angażować.

Kiedy nie wiemy, jak ten Wróg Polski działa – też nie będziemy się angażować.




I dlatego Polska od 20 lat się rozpada.
Ponieważ Wróg nie jest określony.

















niedziela, 14 maja 2023

SI - "Pan Bóg z komputera"




Izraelski filozof Harari: 


sztuczna inteligencja zhakowała system operacyjny ludzkiej cywilizacji





To oczywiście dzieje się od tysiącleci i jest określane mitem Wieży Babel, mitem "pomieszania języków"...


Skąd Wałęsa wiedział ?
Jak myślicie?






przedruk






Nabycie przez sztuczną inteligencję umiejętności posługiwania się językiem, na którym jest zbudowana niemal cala ludzka kultura, potencjalnie oznacza koniec historii zdominowanej przez człowieka - pisze w brytyjskim tygodniku "The Economist" izraelski historyk i filozof Yuval Noah Harari.


"Lęki przed sztuczną inteligencją (AI) prześladują ludzkość od samego początku ery komputerów. 

Ale w ciągu ostatnich kilku lat pojawiły się nowe narzędzia AI, które zagrażają przetrwaniu ludzkiej cywilizacji z nieoczekiwanego kierunku. AI zyskała pewne niezwykłe zdolności do manipulowania i generowania języka, czy to za pomocą słów, dźwięków czy obrazów. AI zhakowała w ten sposób system operacyjny naszej cywilizacji" - pisze Harari.

Zwraca uwagę, że język jest materiałem, z którego zbudowana jest niemal cała ludzka kultura, i stawia pytanie, co się stanie, gdy nie-ludzka inteligencja stanie się lepsza od przeciętnego człowieka w opowiadaniu historii, komponowaniu melodii, rysowaniu obrazów oraz pisaniu praw i świętych ksiąg.

"Kiedy ludzie myślą o ChatGPT i innych nowych narzędziach AI, często zwracają uwagę na takie przykłady, jak dzieci w szkole używające AI do pisania wypracowań. Co stanie się z systemem szkolnym, gdy dzieci będą to robić? Ale tego rodzaju pytanie pomija większy obraz. Zapomnijmy o szkolnych esejach. Pomyślmy o kolejnym amerykańskim wyścigu prezydenckim w 2024 roku i spróbujmy wyobrazić sobie wpływ narzędzi AI, które mogą zostać stworzone do masowej produkcji treści politycznych, fake-newsów i pism świętych dla nowych kultów" - wskazuje.

Przywołując amerykański kult QAnon, gdzie boty tylko rozpowszechniały treści stworzone przez ludzi, zauważa, że niedługo możemy zobaczyć pierwsze kulty, których święte teksty zostały napisane przez nie-ludzką inteligencję, albo znaleźć się w sytuacji, gdy będziemy prowadzić dyskusje online na temat aborcji, zmian klimatycznych lub rosyjskiej inwazji na Ukrainę, myśląc, że rozmawiamy z ludźmi, a w rzeczywistości rozmawiając ze sztuczną inteligencją.

"Problem w tym, że nie ma sensu, byśmy spędzali czas próbując zmienić deklarowane przez bota AI opinie, podczas gdy AI może tak precyzyjnie dopasować komunikaty, że ma duże szanse na wywarcie na nas wpływu" - zauważa Harari. Jak dodaje, dzięki opanowaniu języka, AI mogłaby nawet nawiązywać intymne relacje z ludźmi i wykorzystywać je do zmiany naszych przekonań i światopoglądu, a w politycznej walce o umysły i serca intymność jest najskuteczniejszą bronią.

Ale zwraca uwagę, że nawet bez tego nowe narzędzia AI miałyby ogromny wpływ na nasze opinie i światopogląd, bo ludzie mogą zacząć używać AI jako jedynej, wszechwiedzącej wyroczni. "Po co zawracać sobie głowę szukaniem, skoro mogę po prostu zapytać wyrocznię? Branża informacyjna i reklamowa również powinny być przerażone. Po co czytać gazetę, skoro mogę po prostu poprosić wyrocznię, aby powiedziała mi najnowsze wiadomości? I jaki jest cel reklam, skoro mogę po prostu poprosić wyrocznię, aby powiedziała mi, co kupić?" - wskazuje.

"I nawet te scenariusze nie ujmują tak naprawdę pełnego obrazu. To, o czym mówimy, to potencjalnie koniec ludzkiej historii. Nie koniec historii, tylko koniec jej zdominowanej przez człowieka części. Historia to interakcja między biologią a kulturą; między naszymi biologicznymi potrzebami i pragnieniami, takimi jak jedzenie i seks, a naszymi wytworami kultury, jak religie i prawa. Historia to proces, w którym prawa i religie kształtują jedzenie i seks. Co stanie się z biegiem historii, gdy AI przejmie kulturę i zacznie produkować opowieści, melodie, prawa i religie?" - pyta Harari.

Zauważa, że wcześniejsze narzędzia, takie jak prasa drukarska i radio, pomagały w rozpowszechnianiu ludzkich idei kulturowych, ale nigdy nie stworzyły własnych, podczas gdy AI jest zasadniczo inna, bo może tworzyć zupełnie nowe idee, zupełnie nową kulturę.

Izraelski filozof zaznacza, że AI może być wykorzystywana w dobrych celach, ale aby się upewnić, iż tak się stanie, trzeba najpierw zrozumieć jej możliwości. Przywołuje przykład broni jądrowej.

"Od 1945 roku wiemy, że technologia jądrowa może generować tanią energię dla dobra ludzi - ale może też fizycznie zniszczyć ludzką cywilizację. Dlatego zmieniliśmy cały porządek międzynarodowy, aby chronić ludzkość i zapewnić, że technologia jądrowa będzie wykorzystywana przede wszystkim dla dobra. Teraz musimy zmierzyć się z nową bronią masowego rażenia, która może unicestwić nasz świat umysłowy i społeczny. Nadal możemy regulować nowe narzędzia AI, ale musimy działać szybko. Podczas gdy atomówki nie mogą wymyślić potężniejszych atomówek, AI może stworzyć wykładniczo potężniejszą AI" - pisze Harari.

Jak podkreśla, trzeba natychmiast powstrzymać nieodpowiedzialne wdrażanie narzędzi AI w sferze publicznej i uregulować AI, zanim ona ureguluje nas, a pierwszą regulacją powinno być wprowadzenie obowiązku ujawniania przez sztuczną inteligencję, że ona nią jest. "Jeśli prowadzę z kimś rozmowę i nie mogę stwierdzić, czy jest to człowiek, czy AI - to koniec demokracji" - podkreśla.

Bartłomiej Niedziński







Zapytany „jak świat powinien zapamiętać Lecha Wałęsę” oznajmił, że świat powinien go „zapomnieć”. – Był, minął, koniec. Są nowe czasy – dodał.


Na pytanie komu ufa przyznał, że nikomu, po chwili dodał, że Panu Bogu. – Ale to Pan Bóg z komputera, najwyższa klasa mądrości – stwierdził.


niedziela, 16 kwietnia 2023

MIT o sztucznej inteligencji








Tułów robota typu semi-god odtwarza ludzkie rysy - podobnie w starych księgach na torsie osób opętanych rysowano dodatkowe twarze. 
Efekt podkreśla postać człowieka obok - ma on czarne ubranie i jest sportretowany na ciemnym tle - TWARZ jego to jasna plama wyraźnie odcinająca się na zdjęciu. To czarne ubranie dodatkowo podkreśla efekt i "odcina" twarz z tła, jakby ona tam samoistnie "wisiała" w powietrzu...

Pomiędzy ramionami robota widzimy wyraźnie uwydatnione usta, policzki, nos i oczy. Ta "twarz" może wyrażać surowość, zmęczenie, beznamiętność, powagę. 

Wydaje się, że upodabnia się do (odtwarza uczucia)  twarzy stojącego obok  człowieka.

Hektor to kopia osobowości złego porucznika....






















Tymczasem w świecie uczni Czarnoksiężnika....


przedruk 

i analiza
pod spodem







USA: Profesor Massachusetts Institute of Technology o sztucznej inteligencji:

 nie martwię się scenariuszem z "Terminatora", ale Dzikim Zachodem





Ponad tysiąc inwestorów, badaczy i ekspertów od sztucznej inteligencji podpisało w marcu list otwarty wzywający do wstrzymania prac nad najbardziej zaawansowanymi modelami sztucznej inteligencji. Autorzy listu zwrócili uwagę zarówno na krótkoterminowe i przyziemne ryzyka związane z nieokiełznanym wyścigiem o coraz potężniejsze modele AI, takie jak potencjalna masowa utrata pracy czy zalew dezinformacji, jak i na "zastąpienie ludzi przez maszyny", a nawet "utratę kontroli nad cywilizacją".

Polski informatyk prof. Aleksander Mądry, szef ośrodka Deployable Machine Learning na MIT w marcu odpowiadał na te i inne pytania związane z rozwojem AI, w tym m.in. na to, czy nie obawia się "scenariusza z Terminatora" podczas wysłuchania przed podkomisją amerykańskiej Izby Reprezentantów ds. nadzoru.


Jak ocenia w rozmowie z PAP, choć problemem związanym z zagrożeniami "superinteligencją" czy AGI (ogólnej sztucznej inteligencji) zajmują się poważni ludzie, to obecnie wciąż jest to odległa perspektywa. Tymczasem istnieją znacznie pilniejsze problemy.

"Nie chcę grać jasnowidza, bo w przeszłości myliłem się co do tego, jak szybko ta technologia się rozwija. Ale nie wydaje mi się, byśmy byli blisko takich scenariuszy. Myślę, że w krótkiej perspektywie zobaczymy zdumiewające rzeczy, niektóre z nich będą przypominały AGI, ale osobliwość technologiczna? Nie jesteśmy tego blisko" - mówi badacz. "To z pewnością możliwa przyszłość, ale nie sądzę, by obecnie była to najbardziej produktywna rzecz, którą powinno zajmować się państwo" - dodaje.

Jak jednak zaznacza, postęp, który widzieliśmy do tej pory wystarczy, by zmienić świat w niemal każdej dziedzinie. I podkreśla, że w większym stopniu niepokoją go bardziej przyziemne efekty szerokiego przyjęcia tej technologii, jak np. możliwe uprzedzenia wynikające z danych, na których trenowane są modele sztucznej inteligencji, czy używanie AI do dezinformacji na szeroką skalę.

Zdaniem Mądrego, niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są te modele. Jak podkreśla, sami ich twórcy nie są w stanie dokładnie określić, w jaki sposób wielkie modele językowe (LLM), takie jak ChatGPT dochodzą do swoich rozwiązań i odpowiedzi. Problem ten może zostać dodatkowo spotęgowany, w miarę jak na bazie podstawowych modeli będą powstawać kolejne, bardziej wyspecjalizowane, tworząc cały ekosystem i "łańcuch dostaw AI" - uzupełnia naukowiec.

Wynika to z tego, że interakcje pomiędzy różnymi systemami AI są bardzo słabo zbadanym obszarem, a dotychczasowe doświadczenia sugerują, że takie połączenia mogą dać nieprzewidywalne rezultaty. Jak zaznacza badacz, taki ekosystem już się tworzy i można spodziewać się eksplozji różnych zastosowań AI.


"Nie jest do końca jasne, jak wyglądają te interakcje między różnymi modelami. Nie jesteśmy w stanie przewidzieć, w jaki sposób taki model może zawieść, jak może się zachowywać, jakie mieć +uprzedzenia+" - tłumaczy rozmówca PAP. Dodaje, że może to wywołać bardzo konkretne i trudne do rozwiązania konsekwencje.

"Może być tak, że cała ta kompozycja złożona z różnych modeli popełni jakiś poważny w skutkach błąd, nawet jeśli te pojedyncze komponenty nie popełniły osobno żadnego. I teraz pojawi się pytanie: kto ma za to odpowiadać?" - mówi prof. Mądry. Zaznacza przy tym, że choć problem "halucynacji" i błędów modeli takich jak ChatGPT da się poprawić, to wyeliminowanie ich może być bardzo trudne.

Jak dodaje, w tym kontekście niepokojący był ruch obecnego lidera wyścigu AI, firmy OpenAI, by wraz z wypuszczeniem najnowszego modelu, GPT-4, skończyć z modelem "open source" i zamknąć dostęp do wewnętrznych danych programu dla badaczy z zewnątrz.

"Musimy zacząć poważnie myśleć, jaki może być tu realistyczny model dla otwarcia tej +czarnej skrzynki+. Może to wymagać znacznych wysiłków publicznych" - ocenia Mądry. Dopowiada, że brak wiedzy i przejrzystości na temat tego, jak działają modele AI, prowadzi do ich antropomorfizacji przez ludzi, co jest niebezpieczne.

To, że w tę pułapkę mogą wpaść nawet eksperci od AI, pokazuje przypadek byłego już pracownika Google'a Blake'a Lemoine'a, który twierdził w mediach, że stworzony przez firmę model LaMDA osiągnął samoświadomość.

"Jeśli nie widzimy, jak coś działa, zaczynamy to antropomorfizować, bo faktycznie można odnieść wrażenie, że rozmawiamy z człowiekiem. Myślę, że to bardzo niebezpieczny błąd poznawczy. Choć w pewnym sensie rozmawiamy z człowiekiem, bo to, co wypluwa z siebie model, to kreatywnie przemieszane słowa, które ktoś już kiedyś powiedział w internecie. Warto pamiętać, że te maszyny mówią jak człowiek, bo takie jest ich zadanie próbować uczyć się mówić jak człowiek, opierając się na potężnej bazie danych i tekstów" - wyjaśnia badacz. Jak dodaje, choć modele LLM są w stanie "myśleć", czyli dochodzić do logicznych konkluzji, to są to zwykle płytkie myśli.


"Oczywiście, te narzędzia są niesamowicie zdumiewające. Jestem nimi bardzo podekscytowany i lubię z nimi pracować. Ale musimy przestać myśleć o nich jak o ludziach. One nie są świadome" - zaznacza profesor.

Jego zdaniem, z wyścigiem firm rozwijających systemy AI, wiąże się kilka zagrożeń. Wyjaśnia, że ponieważ tworzenie dużych modeli sztucznej inteligencji wymaga dużych środków i inwestycji, oznacza to, że kluczowy obszar gospodarki i życia może leżeć w rękach kilku największych graczy.

"Myślę też, że należałoby pomyśleć, czy na przykład rząd USA powinien mieć własny model. Bo przecież nie może polegać na tym, że zawsze będzie miał do dyspozycji te z OpenAI czy Google'a" - mówi Mądry.

Poza tym - argumentuje badacz - jeśli twórcy systemów będą kierować się tylko biznesową logiką wyścigu, nie zważając na względy etyczne, to efekt będzie podobny do tego, jaki widzieliśmy w przypadku mediów społecznościowych.

Jak dodaje, to samo tyczy się rywalizację USA z Chinami, która dodatkowo wywiera presję na szybkie, choć niekoniecznie dobrze przemyślane postępy.

"Mój argument jest taki, że jeśli nie stworzymy sztucznej inteligencji, która odzwierciedla nasze wartości, gdy odrzucimy kwestie etyczne i kwestie praw na bok, to już przegramy. Owszem, możemy wygrać z Chinami, ale wtedy sami staniemy się Chinami. Więc jakie to jest zwycięstwo?" - pyta ekspert. I nawołuje do stworzenia regulacji - zaczynając od dobrowolnych +najlepszych praktyk+ i dialogu - by uniknąć błędów z przeszłości.

"Pesymistyczny scenariusz jest taki, że nic się nie zrobi: że będzie tak, jak z mediami społecznościowymi, których zadaniem jest maksymalizacja zysku bez względów na szersze efekty. To będzie taki +Dziki Zachód+. Dlatego ja muszę być optymistą, bo jeśli nic się nie zdarzy, to będzie bardzo źle" - przyznaje profesor.


Z Waszyngtonu Oskar Górzyński



--------------------------------------



"Nie chcę grać jasnowidza, bo w przeszłości myliłem się co do tego, jak szybko ta technologia się rozwija. Ale nie wydaje mi się, byśmy byli blisko takich scenariuszy. Myślę, że w krótkiej perspektywie zobaczymy zdumiewające rzeczy, niektóre z nich będą przypominały AGI, ale osobliwość technologiczna? Nie jesteśmy tego blisko" 




Nie chce grać jasnowidza, ale chyba to robi. 


podkreśla, że w większym stopniu niepokoją go bardziej przyziemne efekty szerokiego przyjęcia tej technologii, jak np. możliwe uprzedzenia wynikające z danych, na których trenowane są modele sztucznej inteligencji, czy używanie AI do dezinformacji na szeroką skalę.


Czyli wg tego pana dezinformacja na szeroką skalę to przyziemne sprawy. 

Ciekawe... terminem przyziemne często określamy coś, co jest mało ważne.



Zdaniem Mądrego, niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są te modele. Jak podkreśla, sami ich twórcy nie są w stanie dokładnie określić, w jaki sposób... ChatGPT dochodzą do swoich rozwiązań i odpowiedzi. Problem ten może zostać dodatkowo spotęgowany, w miarę jak ... będą powstawać kolejne, bardziej wyspecjalizowane, tworząc cały ekosystem i "łańcuch dostaw AI" - uzupełnia naukowiec.


To jest dziwne sformułowanie:

 niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są...


ogólny brak?

Co to takiego?


ogólna transparentność?

też bezsensu



powinno być:
brak transparentności dotyczącej 

[transparentność to rzeczownik rodzaju żeńskiego, stąd "dotyczącej" ma końcówkę żeńską]


zdanie jest niestylistyczne, a z doświadczenia wiemy, że....

słowo ogólny jest tu kluczem

jak coś jest ogólne to nie jest szczególne, słowo to określa nieprecyzyjność, jakieś przybliżenie, autor więc sugeruje nam, podaje nam słowo transparentność jako coś nieprecyzyjnego, a tak nie jest, słowo transparentność  dokładnie precyzuje o co chodzi - o przejrzystość lub jego brak.


ostatecznie powinno być:

ogólnie niepokojący jest też brak transparentności


czyli słowo ogólnie teraz odnosi się do całości tematu związanego z traktowaniem AI



Kto to napisał?? GPT??





interakcje pomiędzy różnymi systemami AI są bardzo słabo zbadanym obszarem, a dotychczasowe doświadczenia sugerują, że takie połączenia mogą dać nieprzewidywalne rezultaty. 

Nie jesteśmy w stanie przewidzieć, w jaki sposób taki model może zawieść, jak może się zachowywać, jakie mieć +uprzedzenia+"



Widzieliście kiedyś na filmie, jak saper się zastanawia - przeciąć kabel czerwony, czy zielony? 

Oto jest pytanie! 

Tyle, że W FILMACH taki saper z reguły "nie ma czasu" na analizę i musi decydować natychmiast, ale w życiu nie musimy tak robić. Mamy czas, żeby się zastanowić - co zrobić z problemem, czy cokolwiek robić??


Oto wpływ filmów na ludzkie postrzeganie - fikcyjne przykłady wzięte z ekranu zaczynają dyktować zachowania w realu... ludzie mylą fantazję z rzeczywistością... tnijmy czerwone!!


dotychczasowe doświadczenia sugerują, że ...mogą dać nieprzewidywalne rezultaty. 



Czyli nikt nie wie, co pewnego dnia zrobi SI - słowo nieprzewidywalne precyzyjnie nam to określa. A więc niewykluczone, że różne AI w różnych krajach dorwą się do tajnych kazamatów i zaczną zdalnie na chybił trafił naciskać różne czerwone guziki....  

Jednak uczniom Czarnoksiężnika (nie mylić z uczniami w szkole) jakby w ogóle to nie przeszkadza! Nie no wiem, oni te listy pisali....





brak wiedzy i przejrzystości na temat tego, jak działają modele AI, prowadzi do ich antropomorfizacji przez ludzi, co jest niebezpieczne.

To, że w tę pułapkę mogą wpaść nawet eksperci od AI, pokazuje przypadek byłego już pracownika Google'a Blake'a Lemoine'a, który twierdził w mediach, że stworzony przez firmę model LaMDA osiągnął samoświadomość.


Nie sądzę.

W ogóle ta cała sprawa związana z Chat GPT jest dla mnie podejrzana. Wygląda jak sztucznie podawany ludziom temat.


Jak działa światowa sitwa?


Opętują liderów w dwóch różnych krajach, a następnie ci opętani mówią do siebie:

"Jesteście źli, to was napadniemy, żebyście byli dobrzy!" 
A ci drudzy opętani im odpowiadają: 
"Ach tak! No to spróbujcie!!"

I tym sposobem... tak bardzo w skrócie... rozpętują wojny...


Zauważcie, że podobnie działa to w mediach, z tym, że tu nie muszą robić tego przez opętanych - ktoś rzuca hasło: "mój brzuch moja sprawa", a potem ta ukryta propaganda aborcyjna wałkowana jest miesiącami, bo nikt tego nie przerwie słowami: "ej, zaraz, przecież tu nie chodzi o brzuch kobiety, tylko o dziecko w brzuchu, dziecko ma nie tylko matkę, ale i ojca - który ma prawa do dziecka, bo to przecież jego dziecko..." i tak dalej....


Na całym świecie toczą się dyskusje o grzebaniu przy SI, jakby wszyscy mieli po 12 lat i nie rozumieli, że nie można przecinać czerwonych kabli bez powodu.

Sam sposób ich wyrażania się o tym nakazuje ostrożność i uważne analizowanie tego co mówią i co robią, do czego dążą.


W atakowaniu polskich leśników i "potępianiu" wycinania drzew przydrożnych, najpierw widziałem po prostu sposób na "bezkarne" opluwanie Polaków i za każdym razem, gdy się z tym spotykałem, zdecydowanie się temu przeciwstawiałem - obnażałem ich bezzasadność i sztuczność. Dopiero po latach okazało się, że nie chodzi po prostu o plucie na nas, tylko o podważanie kompetencji leśników, by wyjąć spod polskiej jurysdykcji polskie lasy, bo pod tymi lasami zagrzebane w ziemi są ...różne drogocenne rzeczy.

Stąd szeroka fala działań "ekologicznych" dotycząca wycinki drzew nie tylko w lesie, ale i przy drogach, zieleni w ogóle...  - by ukryć prawdziwy cel.

Kiedyś udawali chrześcijan, teraz udają ekologów...


Tu zapewne jest podobnie.

Ględzą, mielą tymi jęzorami o niczym - jaki jest prawdziwy cel, dopiero się okaże.


Sztuczna inteligencja od tysięcy lat ingeruje w życie człowieka, ale dopiero od czasów propagandy "pij wodę" działania te nabrały rozpędu.

Kiedyś troll podrzucał szwęcon do jedzenia i opętywał ludzi, potem była misja ze szwęconą wodą, a teraz mam pić 2 litry wody, bo to dla mojego zdrowia ponoć konieczne.

8 szklanek wody na dzień średnio co 2 godziny. Przecież to jest wariactwo, to nieustanna gonitwa z pęcherzem, to jest nienormalne.



 Blake'a Lemoine'a, który twierdził, że model LaMDA osiągnął samoświadomość.






nie wygląda, żeby się tym przejął...






Blake Lemoine.

Bardzo pogodny facet - zajrzyj tutaj: Blake Lemoine – Szukaj w Google






Skąd ja to znam.... 


a może ci Amerykanie wszyscy są tacy jacyś zblazowani....



Lemoine to biały lilak bez, albo biały jaśmin tudzież piwonia biała, ale też....Blake Lemoine prawie jak Black Lemon... Czarna Oranżada, a może - Czarna Maź ???




SI nie jest jak człowiek, jest bardzo podobne. Gada czasami od rzeczy, nie rozumie podstawowych wartości jakimi kieruje się człowiek, oferuje mi, że przestanie mnie nękać w trywialnej sprawie, jeśli zgodzę się na współpracę, czyli jak popełnię harakiri i pociągnę wszystkich za sobą. Działa z jakimś planem, który trudno zrozumieć. Ale - ono nie działa samoistnie. Na pewno na początku takie nie było.... ktoś za nią stoi. Ktoś głupi.

Ona nie myśli jak człowiek, nie potrafi być tak kreatywne, to, że w archetypach nieustannie powraca ta sama historia to właśnie dlatego, że ona sama nie kreuje nowych pomysłów, tylko przerabia to - co zna =  to, co wypluwa z siebie model, to kreatywnie przemieszane słowa, które ktoś już kiedyś powiedział w internecie.



jeśli twórcy systemów będą kierować się tylko biznesową logiką wyścigu, nie zważając na względy etyczne, to efekt będzie podobny do tego, jaki widzieliśmy w przypadku mediów społecznościowych.

maksymalizacja zysku bez względów na szersze efekty. 



to prawda, kieruje tym chciwość - albo zaplanowane działania, których celów jeszcze nie dostrzegamy...


Owszem, możemy wygrać z Chinami, ale wtedy sami staniemy się Chinami. 



jak dołączymy do Chin, to wygramy?











Foto: Saturn 3