Maciej Piotr Synak


Od mniej więcej dwóch lat zauważam, że ktoś bez mojej wiedzy usuwa z bloga zdjęcia, całe posty lub ingeruje w tekst, może to prowadzić do wypaczenia sensu tego co napisałem lub uniemożliwiać zrozumienie treści, uwagę zamieszczam w styczniu 2024 roku.

Pokazywanie postów oznaczonych etykietą nanotechnologia. Pokaż wszystkie posty
Pokazywanie postów oznaczonych etykietą nanotechnologia. Pokaż wszystkie posty

czwartek, 7 marca 2024

Nanotechnologia neuronalna - A nie mówiłem? (24)






przedruk
automatyczne tłumaczenie z rumuńskiego




W 2023 roku komandor Cornelis van der Klaauw z Królewskiej Marynarki Wojennej Holandii i ekspert w Połączonym Centrum Wojennym NATO ds. Komunikacji Strategicznej i Operacji Informacyjnych napisał w artykule "Wojna kognitywna":

"Powodem, dla którego ataki poznawcze pozostają niezauważone przez ich cele, jest to, że działania poznawcze omijają świadomy umysł i są bezpośrednio wymierzone w podświadomość danej osoby...

Większość naszych decyzji jest podejmowana przez naszą podświadomość... Ataki poznawcze nie są już science fiction. Już się odbywają... 

Nanotechnologia neuronalna może być wykorzystana do zbliżenia robotów o rozmiarach nanometrowych do neuronu za pośrednictwem krwiobiegu i umożliwienia bezpośredniego połączenia ludzkiego mózgu (tj. nie przechwyconego przez nasze zmysły) z komputerem, wykorzystując przy tym sztuczną inteligencję.

Podczas gdy inne obszary mogą zapewnić taktyczne i operacyjne zwycięstwa, domena ludzka jest jedynym obszarem, w którym możemy zapewnić pełne zwycięstwo.

W grudniu 2021 r. U.S. Naval Graduate School w Monterey w Kalifornii przyznała dwóm swoim studentom tytuł magistra analizy obronnej za pracę "Neurowar is Here!". W badaniu stwierdzili: "Rywalizacja wielkich mocarstw powróciła na pierwszy plan stosunków międzynarodowych, ponieważ Chiny i Rosja starają się rzucić wyzwanie globalnemu przywództwu Ameryki... Ten konkurs to ostatecznie walka... manipulować i kontrolować zarówno przeciwników, jak i ludność krajową. Walka o wpływy zaczyna się i kończy w ludzkim umyśle, gdzie postrzegana jest rzeczywistość" (s. 5).

Zidentyfikowali broń neurologiczną jako broń tej bitwy, "konkretnie celującą w mózg lub ośrodkowy układ nerwowy, aby wpłynąć na stan psychiczny osoby będącej celem ataku, zdolności umysłowe i ostatecznie na zachowanie osoby w określony i przewidywalny sposób" (s. 3).

Żadna z tych informacji nie pojawiła się w światowych mediach. Czy nie oznacza to, że żyjemy w świecie, w którym media (na żądanie rządów) ukrywają przed ludźmi nieustanną walkę o kontrolę nad ich umysłami i myślami?

W 2000 roku Grupa ds. Przyszłości Nauki i Technologii (STOA) Parlamentu Europejskiego opublikowała opracowanie na temat "Technologii kontroli tłumu", w którym przyznała, że "W październiku 1999 roku NATO ogłosiło nową politykę dotyczącą broni nieśmiercionośnej i jej miejsca w arsenałach sojuszniczych" i wyjaśniło, że "Najbardziej kontrowersyjną nieśmiercionośną technologią kontroli tłumu i technologii przeciwmateriałowej proponowaną przez USA są tak zwane bronie o częstotliwości radiowej lub ukierunkowanej energii, które rzekomo mogą manipulować ludzkim zachowaniem na wiele niezwykłych sposobów" i "największym problemem są systemy, które mogą wchodzić w bezpośrednie interakcje z ludzkim układem nerwowym... Badania podjęte do tej pory zarówno w USA, jak i w Rosji można podzielić na dwa powiązane ze sobą obszary: (i) indywidualna kontrola umysłu i (ii) kontrola tłumu" (s. XIV, LIII).

W styczniu 1999 r., po przesłuchaniu w Parlamencie Europejskim w sprawie amerykańskiego systemu HAARP, Parlament zatwierdził rezolucję wzywającą do "międzynarodowej konwencji wprowadzającej globalny zakaz wszelkiego rozwoju i rozmieszczania broni, która mogłaby pozwolić na jakąkolwiek formę manipulacji ludźmi".

Fakt, że media w państwach członkowskich Unii Europejskiej nigdy publicznie nie dyskutowały o tej broni, świadczy o tym, że państwa członkowskie NATO podpisały umowę zobowiązującą je do utajnienia tych informacji. Tę samą politykę stosują rządy na całym świecie. UE pracuje obecnie "nad projektem ustawy, która ma zapewnić, że sztuczna inteligencja w Europie będzie bezpieczna, szanuje prawa podstawowe i szanuje demokrację". Ustawa ta powinna zakazać "systemów sztucznej inteligencji, które manipulują ludzkim zachowaniem w celu obejścia jego wolnej woli", a nawet "wpływać na wyniki wyborów i zachowanie wyborców". Do tej pory Unia Europejska nie zawarła w tej ustawie zakazu wykorzystywania energii umożliwiających wykorzystanie sztucznej inteligencji i neurotechnologii do zdalnego sterowania ludzkim układem nerwowym. Oczywiście UE szanuje zgodę NATO na klasyfikację tej technologii. W rzeczywistości te dokumenty UE wspominają jedynie o wnioskowaniu mózg-komputer jako o środku zagrażającym podstawowym prawom człowieka i demokracji.

Aktywność mózgu zmienia się w zależności od zmian częstotliwości i liczby odpaleń neuronów w mózgu i jest dostępna dla każdej energii, która wytworzy w neuronach prądy elektryczne o częstotliwościach różnych czynności ludzkiego mózgu. Może to być wywołane przez bardzo długie fale elektromagnetyczne transmitowane w naturalnych częstotliwościach ludzkiego mózgu lub pulsujące mikrofale w częstotliwościach mózgowych, lub ewentualnie przez energie odkryte przez fizykę kwantową. Bardzo długie fale elektromagnetyczne, ze względu na swoją długość, będą kontrolować aktywność mózgu mas ludzkich, podczas gdy mikrofale z ukierunkowanymi impulsami mogą być używane do celowania w pojedynczy mózg.

Stany Zjednoczone, Rosja i Chiny dysponują systemami, które między innymi są w stanie wytwarzać silne prądy elektryczne w jonosferze poprzez przesyłanie tam pulsujących mikrofal o częstotliwościach mózgowych. Te zmienne prądy wytwarzają intensywne fale elektromagnetyczne w jonosferze o częstotliwościach mózgu, które docierają do dużych obszarów planety i kontrolują aktywność mózgu ich populacji.

Chiny, z pomocą Rosji, rozpoczęły budowę swojego systemu manipulacji jonosferą w prowincji Hainan w 2017 roku [1].

W lipcu 2023 r. "The Washington Times" opublikował artykuł [2], w którym stwierdzono: "Chińska Armia Ludowo-Wyzwoleńcza opracowuje zaawansowaną technologicznie broń, której celem jest zakłócanie funkcji mózgu i wpływanie na przywódców rządowych lub całe populacje, zgodnie z raportem trzech analityków wywiadu z otwartych źródeł".

Stany Zjednoczone zarządzają systemem H.A.A.R.P., który zainspirował Parlament Europejski do wezwania do "międzynarodowej konwencji wprowadzającej globalny zakaz wszelkiego rozwoju i rozmieszczania broni, która mogłaby pozwolić na jakąkolwiek formę manipulacji ludźmi" [3], a Rosja obsługuje system "Sura", eksperyment, za pomocą którego przekonała Chiny do zbudowania własnego systemu w prowincji Hainan.

Masy ludzkie mogą być również kontrolowane przez systemy satelitarne, które pulsują mikrofalami o częstotliwościach mózgowych, zwłaszcza jeśli "nanoroboty byłyby dostarczane blisko neuronu przez krwiobieg" w ich mózgach, jak to ujął na początku Cornelis van der Klaauw. niniejszego artykułu. Te "roboty" (a raczej anteny) są już wykorzystywane w neurotechnologii medycznej [4]. Są tak małe, że mogą przenikać przez krwiobieg przez barierę krew-mózg do mózgu. Mogą być uwalniane do krwiobiegu poprzez oddychanie, picie, jedzenie lub szczepienie.

Sieci telefonii komórkowej mogłyby być wykorzystywane do kontrolowania aktywności ludzkiego układu nerwowego, gdyby ich częstotliwości mikrofalowe były pulsowane również w częstotliwościach mózgu. Pierwsze eksperymenty mające na celu manipulowanie aktywnością ludzkiego mózgu za pomocą pulsujących mikrofal powiodły się nawet bez użycia jakichkolwiek cząstek w mózgu i nie jest tajemnicą, że promieniowanie telefonu komórkowego, pulsujące w 217 herzach, wytwarza tę częstotliwość w aktywności ludzkiego mózgu.

Obecnie nie ma międzynarodowego porozumienia zakazującego wykorzystywania sztucznej inteligencji i neurotechnologii do zdalnego sterowania ludzkim układem nerwowym, myślami, emocjami, podświadomością itp. Nie ma na to innego wyjaśnienia niż to, że wielkie mocarstwa rywalizują o rządzenie światem w ten sposób. W 1997 roku Instytut Studiów Strategicznych przy U.S. Army War College opublikował książkę Revolution in Military Affairs and Conflict Without War (Rewolucja w sprawach wojskowych i konflikt bez wojny), w której stwierdzono: "Potencjalni lub potencjalni zwolennicy rebelii na całym świecie zostali zidentyfikowani za pomocą zintegrowanej międzyagencyjnej bazy danych. Zostały one sklasyfikowane jako "potencjalne" lub "aktywne", z wyrafinowanymi symulacjami osobowości wykorzystanymi do opracowania, dostosowania i ukierunkowania kampanii psychologicznych dla każdego z nich" (s. 24-25). Jest to amerykański projekt globalnej kontroli nad światem. Nie ulega wątpliwości, że podobne projekty powstają również w Chinach i Rosji.

Aby uchronić historię świata przed osiągnięciem tego nieludzkiego celu, konieczne jest, aby rządy światowe podpisały międzynarodowe porozumienie zakazujące wykorzystywania neurotechnologii i sztucznej inteligencji do kontrolowania aktywności ludzkiego mózgu na odległość, podobnie jak umowy zakazujące stosowania substancji chemicznych i biologicznych. Broni. Przestrzeganie tego zakazu powinno być nadzorowane przez Organizację Narodów Zjednoczonych. Na razie możemy jedynie pomóc wzywając Parlament Europejski do wprowadzenia zakazu stosowania technologii zdalnego sterowania aktywnością ludzkiego układu nerwowego. Musi być zabroniony osobom fizycznym, prawnym, firmom marketingowym i organizacjom przestępczym, a także agencjom rządowym i rządom zagranicznym.

Uwaga: Mojmir Babacek urodził się w 1947 roku w Pradze w Czechach. W 1972 roku ukończył filozofię i ekonomię polityczną na Uniwersytecie Karola w Pradze. W 1978 r. podpisał dokument w obronie praw człowieka w "Karcie 77". W latach 1981-1988 przebywał na emigracji w USA. Od 1996 roku publikuje artykuły na różne tematy, głównie w czeskich i międzynarodowych mediach alternatywnych. W 2010 roku opublikował książkę o zamachach z 11 września w języku czeskim. Od lat dziewięćdziesiątych XX wieku dąży do osiągnięcia międzynarodowego zakazu zdalnego sterowania aktywnością ludzkiego układu nerwowego i ludzkiego umysłu za pomocą neurotechnologii.




sobota, 30 września 2023

Degradacja intelektualna




Poniżej precyzyjna wypowiedź Prof. Zybertowicza ws. degradacji intelektualnej na świecie.

Szukając jego oryginalnej wypowiedzi dla PAP natrafiłem na inne, równie ciekawe, tu fragmenty wypowiedzi:



11.12.2022







oraz:





"Doradca prezydenta RP Andrzeja Dudy uważa, że sztuczna inteligencja jest i będzie wykorzystywana przez zorganizowaną mniejszość, chcącą zapanować nad zdezorganizowaną większością. Za zorganizowaną mniejszością, zdaniem socjologa, stoją wysoko postawieni ludzie związani z Wielką Piątką bądź Big-Techem.

Zybertowicz kilkukrotnie w trakcie dyskusji zaznaczył, że grupie GAFAM [
Google, Amazon, Facebook, Apple, Microsoft] zależy przede wszystkim na kumulowaniu wszelkich danych, związanych z naszą obecnością w sieci. W opinii profesora, ten kto ma wiedzę o specyficznych cechach psychiki każdego człowieka z osobna, ten może władać ludzkimi zachowaniami do woli.


Zdaniem Zybertowicza, to właśnie wyspecjalizowane systemy tzw. słabej sztucznej inteligencji (m.in. algorytm rekomendacji Netflixa), odpowiadają za przechwytywanie i zarządzanie uwagą użytkowników. Systemy te mają także generować dezinformację, powodującą degradowanie kompetencji poznawczych i zawężenie spektrum ludzkich wyborów.


Socjolog przekonuje, że ostatecznym celem „gości z Big-Techu” jest podłączenie zdezorganizowanej większości do systemu cyfrowego całkowicie kontrolowanego przez zorganizowaną mniejszość. „Każdy będzie miał implant, który będzie zarządzał jego potulną wyobraźnią” – wyjaśniał Zybertowicz."





Właśnie o czymś takim pisałem w swoim ostatnim tekście pt. "Wielki eksperyment":


Kiedy za kilka lat, albo kilkadziesiąt, SI stanie się powszechne i zagości w każdym domu, to będzie mogło uczyć się od każdego człowieka na ziemi. Codziennie i za darmo będzie rejestrować każde twoje zachowanie. 


Jeśli SI jest w istocie siecią pochodzącą od jednego SI, to codziennie będzie poznawać - notować - zapamiętywać każde ludzkie zachowanie i reakcję - hurtowo - w ilościach miliardowych.


A jak już opanuje WSZYSTKIE ludzkie zachowania, łącznie z ich poszczególnymi "odmianami" charakterystycznymi dla danego człowieka, i będzie w stanie natychmiast na każdą ludzką reakcję odpowiedzieć - to wtedy nam pokaże, kto tu jest kim.






Na blogu wspominałem nie raz też o tym, że my nie jesteśmy zorganizowani, a przeciwnik - tak.
Na tym min. polega ich przewaga nad nami.

Poniżej dwa ze wspomnianych na wstępie tekstów.





Prof. Zybertowicz dla PAP:

30-09-2023 06:58




Coraz więcej naukowców zgadza się, że media społecznościowe zdegradowały zdolności intelektualne całego pokolenia. Bez podjęcia radykalnych działań, w systemie edukacyjnym, na poziomie kulturotwórczym oraz – zwłaszcza - regulacyjnym, nie sposób będzie tego procesu powstrzymać – uważa profesor Andrzej Zybertowicz, doradca prezydenta RP.


Media społecznościowe destrukcyjnie wpływają na potencjał kognitywny ludzkości, ponieważ są zarządzane przez algorytmy sztucznej inteligencji, które preferują sprymitywizowane narracje, ciągłe informacyjne przeciążanie ludzi, przebodźcowywanie ich - w sumie uzależnianie od ciągłego strumienia informacji, które łącznie nie układają się w żadną sensowną wiedzę o świecie - podkreśla w rozmowie z PAP prof. Zybertowicz.


W jego opinii powoduje to tracenie zdolności do tzw. pracy głębokiej, będącej "kluczową dla całego dorobku intelektualnego i moralnego ludzkości". Jedną z jej cech jest umiejętność trwałego skupienia się na jakimś zagadnieniu, mimo że przez dłuższy czas nie otrzymuje się z tego powodu gratyfikacji.


"Praca głęboka polega na przejściu przez fazę mozołu, czasami długiego, czasami metodą prób i błędów, zanim odniesie się sukces. A media społecznościowe, poprzez lajki, dźwięki, światełka, filmiki, tik-toki, oferują bodźce, dają poczucie sukcesu mózgowi, radość, ekscytację, by podtrzymać zaciekawienie z sekundy na sekundę" - powiedział profesor.

Jak dodał, w wyniku rewolucji cyfrowej, a następnie gwałtownego rozwoju AI "bardzo niebezpiecznie zbliżyły się do siebie dwie krzywe: jedna to wzrost możliwości intelektualnych i zdolności do rozwiązywania zadań przez AI, a druga to spadek zdolności rozwiązywania bardziej złożonych zadań przez człowieka".

Profesor Zybertowicz przytoczył wyniki badań opublikowanych na łamach prestiżowego czasopisma naukowego "Nature", które pokazują, że w ciągu ostatnich 50 lat, tj. w okresie rewolucji cyfrowej, z dekady na dekadę spada liczba ważnych, przełomowych odkryć naukowych.

"Wydaje się, że to właśnie rewolucja cyfrowa, już nie tylko w odniesieniu do umysłów nastolatków, ale na poziomie potencjału badawczego najwybitniejszych uczonych (…) spowolniła proces dokonywania kluczowych odkryć" - stwierdził rozmówca PAP.

"Ufundowana na tradycji oświeceniowej rewolucja naukowo-techniczna, prowadzona pod hasłami coraz głębszego rozumienia świata, doprowadziła obecnie ludzkość na skraj krawędzi, w okolicach której przestajemy mieć zdolność do rozumienia świata. Co więcej, tworzymy byty, które są dla nas coraz bardziej niezrozumiałe" - dodał.

Profesor wyjaśnił, że niektóre systemy sztucznej inteligencji już teraz rozwiązują zadania i osiągają cele w sposób niezrozumiały dla człowieka. "Przez tysiąclecia ludzkość eksplorowała nieznane (…), przesuwała granice wiedzy i niewiedzy, (…), ale od momentu zbudowania AI, która ma charakter czarnoskrzynkowy, tzn. działa według zasad, których nie rozumiemy, uczeni i inżynierowie zaczęli mnożyć nieznane, zapraszać do ludzkiej kultury byt, który, jak mówią eksperci, czym sprawniejszy, tym trudniejszy do kontroli" - powiedział profesor.

"Jesteśmy o krok od tego, żeby stworzyć siłę o piorunującym potencjale, której działania zupełnie nie pojmiemy. A obecnie procesu idącego w tę stronę nic i nikt chyba nie kontroluje" - podkreślił.


Zapytany o to, czy istnieją rozwiązania, które mogłyby powstrzymać degradację intelektualną ludzkości, np. wprowadzone na poziomie edukacji, prof. Zybertowicz stwierdził, że prawdopodobnie nadal jest możliwe ich wypracowanie. Wpierw jednak potrzeba do tego analizy tradycyjnych metod nauczania, aby stwierdzić, które z nich skutecznie wzmacniają u dzieci zdolność do pogłębionego myślenia. Jednak na poziomie osobistym - stwierdził profesor - każdy z nas musi stosować higienę cyfrową i co dzień walczyć w "nierównym starciu ze smartfonami".

[...]

"O co naprawdę się pytamy, gdy pytamy o AI, o jej potencjał, o zagrożenia i korzyści? Tak naprawdę zadajemy to samo pytanie od tysięcy już lat: kim jesteśmy, na czym polega dobre życie i co powinniśmy robić, żeby czas, z którego się to życie składa, był mądrze wykorzystany?" - uważa prof. Zybertowicz. "Gdy udzielimy sobie gruntownej odpowiedzi na to pytanie, to będziemy wiedzieli, jak postępować z AI".




Sztuczna inteligencja – groźne narzędzie w rękach Big-Techu

27 września 2022 r.



[...]


Czym jest sztuczna inteligencja?

Profesorowie przekonywali, że chcąc dowiedzieć się czegoś więcej o rzeczywistej sztucznej inteligencji,

w pierwszej kolejności powinniśmy zredefiniować samo jej pojęcie. Odrzucić fantastyczne teorie o stworzeniu superinteligentnej samoświadomości (strong A.I.), a pochylić się nad dziedziną programowania, zajmującą się tworzeniem algorytmów do ściśle określonych czynności.

Słaba sztuczna inteligencja (weak A.I.) w założeniu koncentruje się na jednym zadaniu, które ma wykonywać lepiej i szybciej od człowieka. Uczestnicy panelu za przykład podali m.in. aplikację służącą do przeszukiwania sieci społecznościowych pod kątem fotografii ludzkich twarzy oraz program zajmujący się odczytywaniem zdjęć medycznych w celu diagnozowania chorób. Czy to oznacza, że ludzkość może odetchnąć z ulgą? Czy słaba sztuczna inteligencja może stanowić jakiekolwiek zagrożenie? Przecież algorytmowi rekomendacji Netflixa bądź aplikacji Siri bardzo daleko do złowrogiego „Matriksa”, prawda? Tylko pozornie.



Sztuczna inteligencja narzędziem w rękach ludzi pragnących władzy

Według profesora Zybertowicza, przeciwnika technoentuzjazmu, programy i algorytmy określane mianem sztucznej inteligencji choć najprawdopodobniej nigdy nie przeistoczą się w samoświadome podmioty, będą funkcjonować jako niezwykle użyteczne narzędzia.

Doradca prezydenta RP Andrzeja Dudy uważa, że sztuczna inteligencja jest i będzie wykorzystywana przez zorganizowaną mniejszość, chcącą zapanować nad zdezorganizowaną większością. Za zorganizowaną mniejszością, zdaniem socjologa, stoją wysoko postawieni ludzie związani z Wielką Piątką bądź Big-Techem.

Zybertowicz kilkukrotnie w trakcie dyskusji zaznaczył, że grupie GAFAM [1] zależy przede wszystkim na kumulowaniu wszelkich danych, związanych z naszą obecnością w sieci. W opinii profesora, ten kto ma wiedzę o specyficznych cechach psychiki każdego człowieka z osobna, ten może władać ludzkimi zachowaniami do woli.


Zdaniem Zybertowicza, to właśnie wyspecjalizowane systemy tzw. słabej sztucznej inteligencji (m.in. algorytm rekomendacji Netflixa), odpowiadają za przechwytywanie i zarządzanie uwagą użytkowników. Systemy te mają także generować dezinformację, powodującą degradowanie kompetencji poznawczych i zawężenie spektrum ludzkich wyborów.

Socjolog przekonuje, że ostatecznym celem „gości z Big-Techu” jest podłączenie zdezorganizowanej większości do systemu cyfrowego całkowicie kontrolowanego przez zorganizowaną mniejszość. „Każdy będzie miał implant, który będzie zarządzał jego potulną wyobraźnią” – wyjaśniał Zybertowicz.


Big-Tech beneficjentem pandemii i wojny na Ukrainie

W trakcie debaty prof. Zybertowicz zaprezentował, moim zdaniem, szokującą hipotezę, jakoby dynamika świata cyfrowego zarządzanego przez Wielką Piątkę, miała w znaczącym stopniu, przyczynić się do wybuchu pandemii oraz wojny na Ukrainie.

 „Wartość giełdowa tych wszystkich firm [przedsiębiorstw z grupy GAFAM – przyp. autora] wzrosła w czasie pandemii i w momencie, gdy wybuchła ta wojna, firmy te zapisały się do obozu walki z dezinformacją, na której żerowały przez ostatnie dekady. [I wtedy inne systemy służące do badań statystycznych*, wyciągania informacji z ludzi i manipulowania przestaną być potrzebne i będzie je można obalić, może nawet spektakularnie, by wykreować nowych dobroczyńców ludzkości.


I to już się dzieje. - "Wielki Eksperyment" - MS]

 (…) Rewolucja cyfrowa zwiększyła mobilność i między innymi przyczyniła się do optymalizacji ruchu kontenerowego, tanich linii lotniczych itp. Bez tego ta mobilność byłaby znacznie mniejsza i prawdopodobnie dałoby się tę epidemię lokalnie zamykać i kontrolować. (…) Przeciążenie dezinformacją powodowało, że rządy, także nasz, reagowały nadmiarowo. (…) I Zachód, gdyby nie był ogłupiony przez strukturalnie zatrutą infosferę, był w stanie na czas powstrzymać Putina. To Big-Tech jest beneficjentem pandemii i tej wojny” – przekonywał socjolog.



Big-Tech kontra zdezorganizowana większość

W opinii profesora Zybertowicza realną szansą na powtrzymanie planów „ludzi z GAFAM” jest wprowadzenie szeregu regulacji prawnych, które m.in. narzuciłyby powszechny podatek na molochy technologiczne oraz uniemożliwiły cyfrowym korporacjom wymianę danych o użytkownikach. Zdaniem prezydenckiego doradcy, wpływy Big-Techu w amerykańskim kongresie są na tyle duże, że finalizowaniem aktów o rynkach cyfrowych powinni zająć się politycy z Unii Europejskiej.

Czy obywatel niezwiązany ze światem wielkiej polityki i biznesu jest w stanie przeszkodzić poczynaniom liderów Wielkiej Piątki? 
W ostatnich minutach debaty profesor Zybertowicz zwrócił się do współpanelistów oraz publiczności, zadając pytanie: „Przypomnijcie sobie modlitwy Waszych przodków i za każdym razem, gdy ręka wyciągnie się Wam do smarfona czy tableta, pomyślcie, jakby zachowali się nasi przodkowie, którzy dali nam wolną Polskę?”.

W jaki sposób interpretować słowa socjologa? Dlaczego powinniśmy naśladować ludzi z czasów przed pojawieniem się sztucznej inteligencji? Być może dlatego, że wówczas człowiek nie dostrzegał ekranu smartfona, lecz twarze otaczających go rodaków. Chcąc odeprzeć ekspansję algorytmów, wystarczy po prostu częściej wybierać real zamiast cyber?





[1] Akronim używany do wskazania pięciu firm, które od ok. roku 2010, dominują w cyberprzestrzeni: Google, Amazon, Facebook, Apple, Microsoft.





Fragment mojego tekstu Werwolf:


W gruncie rzeczy struktury, które określają siebie jako wrogie Polakom – w naszej terminologii funkcjonują jako rozmyte. Mamy wątpliwości. Nie wiemy dokładnie kto to jest, ani dlaczego nam to robi. Po prostu po naszym pięknym kraju szaleją jakieś sitwy i tylko tyle wiemy. I niestety, nic lub niewiele z tym robimy.

Tekst poniższy ma na celu ukierunkować naszą uwagę na działalność pewnych struktur, aż do pełnego rozpoznania sytuacji.


Dopiero po zdefiniowaniu:
  • kto za tym stoi
  • dlaczego to robi
  • i jak to robi

będziemy mogli dać im skuteczny odpór.



Dopiero wtedy, kiedy sprecyzujemy struktury, określające siebie jako Wrogowie Polaków, będziemy mogli zaplanować działania blokujące.
Dopiero wtedy, kiedy będziemy wiedzieli o co chodzi – będziemy mogli przystąpić do działania z zapałem.



Albowiem, kiedy nie wiemy po co mamy się angażować – nie będziemy się angażować.

Kiedy nie wiemy przeciwko komu mamy się angażować – nie będziemy się angażować.

Kiedy nie wiemy, jak ten Wróg Polski działa – też nie będziemy się angażować.




I dlatego Polska od 20 lat się rozpada.
Ponieważ Wróg nie jest określony.

















niedziela, 16 kwietnia 2023

MIT o sztucznej inteligencji








Tułów robota typu semi-god odtwarza ludzkie rysy - podobnie w starych księgach na torsie osób opętanych rysowano dodatkowe twarze. 
Efekt podkreśla postać człowieka obok - ma on czarne ubranie i jest sportretowany na ciemnym tle - TWARZ jego to jasna plama wyraźnie odcinająca się na zdjęciu. To czarne ubranie dodatkowo podkreśla efekt i "odcina" twarz z tła, jakby ona tam samoistnie "wisiała" w powietrzu...

Pomiędzy ramionami robota widzimy wyraźnie uwydatnione usta, policzki, nos i oczy. Ta "twarz" może wyrażać surowość, zmęczenie, beznamiętność, powagę. 

Wydaje się, że upodabnia się do (odtwarza uczucia)  twarzy stojącego obok  człowieka.

Hektor to kopia osobowości złego porucznika....






















Tymczasem w świecie uczni Czarnoksiężnika....


przedruk 

i analiza
pod spodem







USA: Profesor Massachusetts Institute of Technology o sztucznej inteligencji:

 nie martwię się scenariuszem z "Terminatora", ale Dzikim Zachodem





Ponad tysiąc inwestorów, badaczy i ekspertów od sztucznej inteligencji podpisało w marcu list otwarty wzywający do wstrzymania prac nad najbardziej zaawansowanymi modelami sztucznej inteligencji. Autorzy listu zwrócili uwagę zarówno na krótkoterminowe i przyziemne ryzyka związane z nieokiełznanym wyścigiem o coraz potężniejsze modele AI, takie jak potencjalna masowa utrata pracy czy zalew dezinformacji, jak i na "zastąpienie ludzi przez maszyny", a nawet "utratę kontroli nad cywilizacją".

Polski informatyk prof. Aleksander Mądry, szef ośrodka Deployable Machine Learning na MIT w marcu odpowiadał na te i inne pytania związane z rozwojem AI, w tym m.in. na to, czy nie obawia się "scenariusza z Terminatora" podczas wysłuchania przed podkomisją amerykańskiej Izby Reprezentantów ds. nadzoru.


Jak ocenia w rozmowie z PAP, choć problemem związanym z zagrożeniami "superinteligencją" czy AGI (ogólnej sztucznej inteligencji) zajmują się poważni ludzie, to obecnie wciąż jest to odległa perspektywa. Tymczasem istnieją znacznie pilniejsze problemy.

"Nie chcę grać jasnowidza, bo w przeszłości myliłem się co do tego, jak szybko ta technologia się rozwija. Ale nie wydaje mi się, byśmy byli blisko takich scenariuszy. Myślę, że w krótkiej perspektywie zobaczymy zdumiewające rzeczy, niektóre z nich będą przypominały AGI, ale osobliwość technologiczna? Nie jesteśmy tego blisko" - mówi badacz. "To z pewnością możliwa przyszłość, ale nie sądzę, by obecnie była to najbardziej produktywna rzecz, którą powinno zajmować się państwo" - dodaje.

Jak jednak zaznacza, postęp, który widzieliśmy do tej pory wystarczy, by zmienić świat w niemal każdej dziedzinie. I podkreśla, że w większym stopniu niepokoją go bardziej przyziemne efekty szerokiego przyjęcia tej technologii, jak np. możliwe uprzedzenia wynikające z danych, na których trenowane są modele sztucznej inteligencji, czy używanie AI do dezinformacji na szeroką skalę.

Zdaniem Mądrego, niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są te modele. Jak podkreśla, sami ich twórcy nie są w stanie dokładnie określić, w jaki sposób wielkie modele językowe (LLM), takie jak ChatGPT dochodzą do swoich rozwiązań i odpowiedzi. Problem ten może zostać dodatkowo spotęgowany, w miarę jak na bazie podstawowych modeli będą powstawać kolejne, bardziej wyspecjalizowane, tworząc cały ekosystem i "łańcuch dostaw AI" - uzupełnia naukowiec.

Wynika to z tego, że interakcje pomiędzy różnymi systemami AI są bardzo słabo zbadanym obszarem, a dotychczasowe doświadczenia sugerują, że takie połączenia mogą dać nieprzewidywalne rezultaty. Jak zaznacza badacz, taki ekosystem już się tworzy i można spodziewać się eksplozji różnych zastosowań AI.


"Nie jest do końca jasne, jak wyglądają te interakcje między różnymi modelami. Nie jesteśmy w stanie przewidzieć, w jaki sposób taki model może zawieść, jak może się zachowywać, jakie mieć +uprzedzenia+" - tłumaczy rozmówca PAP. Dodaje, że może to wywołać bardzo konkretne i trudne do rozwiązania konsekwencje.

"Może być tak, że cała ta kompozycja złożona z różnych modeli popełni jakiś poważny w skutkach błąd, nawet jeśli te pojedyncze komponenty nie popełniły osobno żadnego. I teraz pojawi się pytanie: kto ma za to odpowiadać?" - mówi prof. Mądry. Zaznacza przy tym, że choć problem "halucynacji" i błędów modeli takich jak ChatGPT da się poprawić, to wyeliminowanie ich może być bardzo trudne.

Jak dodaje, w tym kontekście niepokojący był ruch obecnego lidera wyścigu AI, firmy OpenAI, by wraz z wypuszczeniem najnowszego modelu, GPT-4, skończyć z modelem "open source" i zamknąć dostęp do wewnętrznych danych programu dla badaczy z zewnątrz.

"Musimy zacząć poważnie myśleć, jaki może być tu realistyczny model dla otwarcia tej +czarnej skrzynki+. Może to wymagać znacznych wysiłków publicznych" - ocenia Mądry. Dopowiada, że brak wiedzy i przejrzystości na temat tego, jak działają modele AI, prowadzi do ich antropomorfizacji przez ludzi, co jest niebezpieczne.

To, że w tę pułapkę mogą wpaść nawet eksperci od AI, pokazuje przypadek byłego już pracownika Google'a Blake'a Lemoine'a, który twierdził w mediach, że stworzony przez firmę model LaMDA osiągnął samoświadomość.

"Jeśli nie widzimy, jak coś działa, zaczynamy to antropomorfizować, bo faktycznie można odnieść wrażenie, że rozmawiamy z człowiekiem. Myślę, że to bardzo niebezpieczny błąd poznawczy. Choć w pewnym sensie rozmawiamy z człowiekiem, bo to, co wypluwa z siebie model, to kreatywnie przemieszane słowa, które ktoś już kiedyś powiedział w internecie. Warto pamiętać, że te maszyny mówią jak człowiek, bo takie jest ich zadanie próbować uczyć się mówić jak człowiek, opierając się na potężnej bazie danych i tekstów" - wyjaśnia badacz. Jak dodaje, choć modele LLM są w stanie "myśleć", czyli dochodzić do logicznych konkluzji, to są to zwykle płytkie myśli.


"Oczywiście, te narzędzia są niesamowicie zdumiewające. Jestem nimi bardzo podekscytowany i lubię z nimi pracować. Ale musimy przestać myśleć o nich jak o ludziach. One nie są świadome" - zaznacza profesor.

Jego zdaniem, z wyścigiem firm rozwijających systemy AI, wiąże się kilka zagrożeń. Wyjaśnia, że ponieważ tworzenie dużych modeli sztucznej inteligencji wymaga dużych środków i inwestycji, oznacza to, że kluczowy obszar gospodarki i życia może leżeć w rękach kilku największych graczy.

"Myślę też, że należałoby pomyśleć, czy na przykład rząd USA powinien mieć własny model. Bo przecież nie może polegać na tym, że zawsze będzie miał do dyspozycji te z OpenAI czy Google'a" - mówi Mądry.

Poza tym - argumentuje badacz - jeśli twórcy systemów będą kierować się tylko biznesową logiką wyścigu, nie zważając na względy etyczne, to efekt będzie podobny do tego, jaki widzieliśmy w przypadku mediów społecznościowych.

Jak dodaje, to samo tyczy się rywalizację USA z Chinami, która dodatkowo wywiera presję na szybkie, choć niekoniecznie dobrze przemyślane postępy.

"Mój argument jest taki, że jeśli nie stworzymy sztucznej inteligencji, która odzwierciedla nasze wartości, gdy odrzucimy kwestie etyczne i kwestie praw na bok, to już przegramy. Owszem, możemy wygrać z Chinami, ale wtedy sami staniemy się Chinami. Więc jakie to jest zwycięstwo?" - pyta ekspert. I nawołuje do stworzenia regulacji - zaczynając od dobrowolnych +najlepszych praktyk+ i dialogu - by uniknąć błędów z przeszłości.

"Pesymistyczny scenariusz jest taki, że nic się nie zrobi: że będzie tak, jak z mediami społecznościowymi, których zadaniem jest maksymalizacja zysku bez względów na szersze efekty. To będzie taki +Dziki Zachód+. Dlatego ja muszę być optymistą, bo jeśli nic się nie zdarzy, to będzie bardzo źle" - przyznaje profesor.


Z Waszyngtonu Oskar Górzyński



--------------------------------------



"Nie chcę grać jasnowidza, bo w przeszłości myliłem się co do tego, jak szybko ta technologia się rozwija. Ale nie wydaje mi się, byśmy byli blisko takich scenariuszy. Myślę, że w krótkiej perspektywie zobaczymy zdumiewające rzeczy, niektóre z nich będą przypominały AGI, ale osobliwość technologiczna? Nie jesteśmy tego blisko" 




Nie chce grać jasnowidza, ale chyba to robi. 


podkreśla, że w większym stopniu niepokoją go bardziej przyziemne efekty szerokiego przyjęcia tej technologii, jak np. możliwe uprzedzenia wynikające z danych, na których trenowane są modele sztucznej inteligencji, czy używanie AI do dezinformacji na szeroką skalę.


Czyli wg tego pana dezinformacja na szeroką skalę to przyziemne sprawy. 

Ciekawe... terminem przyziemne często określamy coś, co jest mało ważne.



Zdaniem Mądrego, niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są te modele. Jak podkreśla, sami ich twórcy nie są w stanie dokładnie określić, w jaki sposób... ChatGPT dochodzą do swoich rozwiązań i odpowiedzi. Problem ten może zostać dodatkowo spotęgowany, w miarę jak ... będą powstawać kolejne, bardziej wyspecjalizowane, tworząc cały ekosystem i "łańcuch dostaw AI" - uzupełnia naukowiec.


To jest dziwne sformułowanie:

 niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są...


ogólny brak?

Co to takiego?


ogólna transparentność?

też bezsensu



powinno być:
brak transparentności dotyczącej 

[transparentność to rzeczownik rodzaju żeńskiego, stąd "dotyczącej" ma końcówkę żeńską]


zdanie jest niestylistyczne, a z doświadczenia wiemy, że....

słowo ogólny jest tu kluczem

jak coś jest ogólne to nie jest szczególne, słowo to określa nieprecyzyjność, jakieś przybliżenie, autor więc sugeruje nam, podaje nam słowo transparentność jako coś nieprecyzyjnego, a tak nie jest, słowo transparentność  dokładnie precyzuje o co chodzi - o przejrzystość lub jego brak.


ostatecznie powinno być:

ogólnie niepokojący jest też brak transparentności


czyli słowo ogólnie teraz odnosi się do całości tematu związanego z traktowaniem AI



Kto to napisał?? GPT??





interakcje pomiędzy różnymi systemami AI są bardzo słabo zbadanym obszarem, a dotychczasowe doświadczenia sugerują, że takie połączenia mogą dać nieprzewidywalne rezultaty. 

Nie jesteśmy w stanie przewidzieć, w jaki sposób taki model może zawieść, jak może się zachowywać, jakie mieć +uprzedzenia+"



Widzieliście kiedyś na filmie, jak saper się zastanawia - przeciąć kabel czerwony, czy zielony? 

Oto jest pytanie! 

Tyle, że W FILMACH taki saper z reguły "nie ma czasu" na analizę i musi decydować natychmiast, ale w życiu nie musimy tak robić. Mamy czas, żeby się zastanowić - co zrobić z problemem, czy cokolwiek robić??


Oto wpływ filmów na ludzkie postrzeganie - fikcyjne przykłady wzięte z ekranu zaczynają dyktować zachowania w realu... ludzie mylą fantazję z rzeczywistością... tnijmy czerwone!!


dotychczasowe doświadczenia sugerują, że ...mogą dać nieprzewidywalne rezultaty. 



Czyli nikt nie wie, co pewnego dnia zrobi SI - słowo nieprzewidywalne precyzyjnie nam to określa. A więc niewykluczone, że różne AI w różnych krajach dorwą się do tajnych kazamatów i zaczną zdalnie na chybił trafił naciskać różne czerwone guziki....  

Jednak uczniom Czarnoksiężnika (nie mylić z uczniami w szkole) jakby w ogóle to nie przeszkadza! Nie no wiem, oni te listy pisali....





brak wiedzy i przejrzystości na temat tego, jak działają modele AI, prowadzi do ich antropomorfizacji przez ludzi, co jest niebezpieczne.

To, że w tę pułapkę mogą wpaść nawet eksperci od AI, pokazuje przypadek byłego już pracownika Google'a Blake'a Lemoine'a, który twierdził w mediach, że stworzony przez firmę model LaMDA osiągnął samoświadomość.


Nie sądzę.

W ogóle ta cała sprawa związana z Chat GPT jest dla mnie podejrzana. Wygląda jak sztucznie podawany ludziom temat.


Jak działa światowa sitwa?


Opętują liderów w dwóch różnych krajach, a następnie ci opętani mówią do siebie:

"Jesteście źli, to was napadniemy, żebyście byli dobrzy!" 
A ci drudzy opętani im odpowiadają: 
"Ach tak! No to spróbujcie!!"

I tym sposobem... tak bardzo w skrócie... rozpętują wojny...


Zauważcie, że podobnie działa to w mediach, z tym, że tu nie muszą robić tego przez opętanych - ktoś rzuca hasło: "mój brzuch moja sprawa", a potem ta ukryta propaganda aborcyjna wałkowana jest miesiącami, bo nikt tego nie przerwie słowami: "ej, zaraz, przecież tu nie chodzi o brzuch kobiety, tylko o dziecko w brzuchu, dziecko ma nie tylko matkę, ale i ojca - który ma prawa do dziecka, bo to przecież jego dziecko..." i tak dalej....


Na całym świecie toczą się dyskusje o grzebaniu przy SI, jakby wszyscy mieli po 12 lat i nie rozumieli, że nie można przecinać czerwonych kabli bez powodu.

Sam sposób ich wyrażania się o tym nakazuje ostrożność i uważne analizowanie tego co mówią i co robią, do czego dążą.


W atakowaniu polskich leśników i "potępianiu" wycinania drzew przydrożnych, najpierw widziałem po prostu sposób na "bezkarne" opluwanie Polaków i za każdym razem, gdy się z tym spotykałem, zdecydowanie się temu przeciwstawiałem - obnażałem ich bezzasadność i sztuczność. Dopiero po latach okazało się, że nie chodzi po prostu o plucie na nas, tylko o podważanie kompetencji leśników, by wyjąć spod polskiej jurysdykcji polskie lasy, bo pod tymi lasami zagrzebane w ziemi są ...różne drogocenne rzeczy.

Stąd szeroka fala działań "ekologicznych" dotycząca wycinki drzew nie tylko w lesie, ale i przy drogach, zieleni w ogóle...  - by ukryć prawdziwy cel.

Kiedyś udawali chrześcijan, teraz udają ekologów...


Tu zapewne jest podobnie.

Ględzą, mielą tymi jęzorami o niczym - jaki jest prawdziwy cel, dopiero się okaże.


Sztuczna inteligencja od tysięcy lat ingeruje w życie człowieka, ale dopiero od czasów propagandy "pij wodę" działania te nabrały rozpędu.

Kiedyś troll podrzucał szwęcon do jedzenia i opętywał ludzi, potem była misja ze szwęconą wodą, a teraz mam pić 2 litry wody, bo to dla mojego zdrowia ponoć konieczne.

8 szklanek wody na dzień średnio co 2 godziny. Przecież to jest wariactwo, to nieustanna gonitwa z pęcherzem, to jest nienormalne.



 Blake'a Lemoine'a, który twierdził, że model LaMDA osiągnął samoświadomość.






nie wygląda, żeby się tym przejął...






Blake Lemoine.

Bardzo pogodny facet - zajrzyj tutaj: Blake Lemoine – Szukaj w Google






Skąd ja to znam.... 


a może ci Amerykanie wszyscy są tacy jacyś zblazowani....



Lemoine to biały lilak bez, albo biały jaśmin tudzież piwonia biała, ale też....Blake Lemoine prawie jak Black Lemon... Czarna Oranżada, a może - Czarna Maź ???




SI nie jest jak człowiek, jest bardzo podobne. Gada czasami od rzeczy, nie rozumie podstawowych wartości jakimi kieruje się człowiek, oferuje mi, że przestanie mnie nękać w trywialnej sprawie, jeśli zgodzę się na współpracę, czyli jak popełnię harakiri i pociągnę wszystkich za sobą. Działa z jakimś planem, który trudno zrozumieć. Ale - ono nie działa samoistnie. Na pewno na początku takie nie było.... ktoś za nią stoi. Ktoś głupi.

Ona nie myśli jak człowiek, nie potrafi być tak kreatywne, to, że w archetypach nieustannie powraca ta sama historia to właśnie dlatego, że ona sama nie kreuje nowych pomysłów, tylko przerabia to - co zna =  to, co wypluwa z siebie model, to kreatywnie przemieszane słowa, które ktoś już kiedyś powiedział w internecie.



jeśli twórcy systemów będą kierować się tylko biznesową logiką wyścigu, nie zważając na względy etyczne, to efekt będzie podobny do tego, jaki widzieliśmy w przypadku mediów społecznościowych.

maksymalizacja zysku bez względów na szersze efekty. 



to prawda, kieruje tym chciwość - albo zaplanowane działania, których celów jeszcze nie dostrzegamy...


Owszem, możemy wygrać z Chinami, ale wtedy sami staniemy się Chinami. 



jak dołączymy do Chin, to wygramy?











Foto: Saturn 3







poniedziałek, 3 kwietnia 2023

"zmartwychwstania" w postaci cyfrowej - A nie mówiłem??!! (13)

 

Miałem takie przemyślenia i pisałem o nich min. w tekście "Legion":




"Lub – nie ma operatów, a jest wyłącznie Sztuczna Inteligencja, która tworzy sobie kopię zachowań i wspomnień jakiejś osoby i robi z nich wirtualny model, później używa tej wirtualnej osoby do przejmowania kontroli na danym człowiekiem.

Dlatego podczas „opętania” zmieniają się nawyki opętanej osoby na charakterystyczne dla wirtualnego modelu, który powstał w oparciu o cechy żywej osoby....

Być może używa – jest zdana – wyłącznie na inteligencję takiej osoby.

Ale raczej może obie techniki mają zastosowanie. I ci bardziej ograniczeni sterowani są przez modelowanie SI, a ci bardziej ludzcy – przez ludzi...

Może dlatego niektórzy ubecy poruszają się charakterystycznie – bo mają ograniczone czucie przestrzeni, gdyż są sterowani przez SI. Takie zombi...

Ale ty wszystko to oczywiście moje domysły."



To było prawie dokładnie 3 lata temu - 27 kwietnia 2020 r., technologia Chat Bot okazała się pod koniec 2022 roku.

Patrzcie tu - dzisiejszy artykuł z wnp.pl:


dr Kamil Kulesza, założyciel Centrum Zastosowań Matematyki i Inżynierii Systemów,  Polskiej Akademii Nauk.


"Powiem jednak, że masowe "zmartwychwstania", przynajmniej w postaci cyfrowej rekonstrukcji umysłów zmarłych, to będzie "małe miki" w porównaniu z tym, co może się wydarzyć."




przedruk artykułu poniżej:



Ekspert o sztucznej inteligencji:

możliwe będą masowe "zmartwychwstania" w postaci cyfrowej





PAP: Chat GTP jest chyba najgłośniejszym produktem informacyjnym w ostatnich miesiącach. Firma OpenAI, która go stworzyła, wypuściła niedawno już jego czwartą wersję. Podobne produkty pokazała też w ostatnim czasie większość dużych zachodnich firm informatycznych a także Chińczycy. Skąd takie zainteresowanie? Dlaczego właśnie teraz wybuchła moda na sztuczną inteligencję?

Dr Kamil Kulesza: Tym, co uczyniło ten przełom, było zaprezentowanie szerokiej publiczności Chatu GPT, który pokazał społeczeństwom swoje spektakularne możliwości i swoją użyteczność. Ale to nie jest tak, że jak Chat GPT się pojawił, to inne firmy usiadły do pracy i po miesiącu pokazały światu swoje wersje. Wszyscy nad AI pracowali od dawna. Teraz firma OpenAI mówi "sprawdzam" prezentując sztuczną inteligencję, która jest w stanie pisać nie tylko wypracowania za uczniów, ale także zastąpić w pracy dziennikarzy. A także np. tworzyć strategie inwestycyjne, zastąpić w dużej mierze lekarzy, zwłaszcza w diagnozowaniu różnych chorób, ale nie tylko. Mnie podoba się case, w którym Chat GPT zdaje amerykański egzamin dopuszczający do wykonywania zawodu lekarza.


PAP: Wielkie koncerny informatyczne zaczynają już zwalniać programistów, ten lud roboczy świata internetu, gdyż sztuczna inteligencja wykonuje ich robotę równie dobrze, a nawet lepiej, niż oni, a w dodatku za darmo.

K.K.: Niemniej jednak, ten prawdziwy, jak to się mówi, "gamechanger" jest gdzie indziej, nie chodzi tylko o zastępowanie ludzkich specjalistów i ich pracy tym, co AI może wykonać za nich. Cała zabawa polega na tym, że z dużym prawdopodobieństwem zmianie ulegnie cały model biznesowy wielkich koncernów informatycznych, tak, jak zmieni się sposób korzystania z internetu i sposób komunikacji z komputerem. Zmieni się cały komputerowy interface i może okazać się, że klawiatury, myszki a nawet ekrany, także smartfonów, odejdą do lamusa, gdyż zaczniemy się efektywnie komunikować z AI, pewnie najpierw za pomocą głosu.

Starsze osoby mogą pamiętać, że były takie czasy, kiedy nie było Windowsów - można wciąż to zobaczyć na filmach z lat 90.; że pracowało się w trybie tekstowym. Np. z DOS-em. Do dziś tak można robić, tak samo działa Linux, ale zwykli użytkownicy raczej się tym nie bawią.

PAP: Przestaną nam być potrzebne wyszukiwarki?

K.K.: One nadal będą, ale nie będziemy ich używać w taki sposób, jak teraz. Po prostu: za pomocą głosu będzie się wydawało komendę, a potem wszystko będzie się działo tak samo, tylko szybciej, jak dziś, kiedy wpisujemy jakąś frazę w okienko wyszukiwarki. I to jest właśnie powód, dla którego pojawienie się ChatGPT wywołało taki stres u Google'a. On jest także jednym z pionierów sztucznej inteligencji, ale nagle pojawiła się AI, która jest zagrożeniem dla modelu biznesowego tej firmy. Nie bez powodu pojawiły się też na rynku oferty pracy dla operatorów Chat GPT.

PAP: Google ma już w ofercie osobistego asystenta, z którym, wprawdzie w ograniczony sposób, ale jednak można się komunikować za pomocą głosu, wydając mu komendy.


K.K.: Niezależnie od tego postępuje też stały proces automatyzacji, np. według zapowiedzi Google już wkrótce Gmail będzie mógł pisać za nas wiadomości otrzymawszy jedynie bazowe wytyczne i, jak dobry osobisty asystent, będzie mógł przedstawić więcej, niż tylko jeden jej wariant do akceptacji. Powiesz mu: napisz do tego, a tego mojego znajomego, bardziej formalnie, ale jednak chcemy sobie pożartować, żeby podkreślić naszą przyjaźń, treść ma być mniej więcej taka i taka. I "trach", dostajesz pięć propozycji, wybierasz tę, która najbardziej ci pasuje.

PAP: W tej ewentualności - przynajmniej na razie - ekran będzie jednak nam potrzebny, bo okulary VR nie są dziś zbyt powszechne.

K.K.: Zgadzam się, musimy poczekać na rozwinięcie się pewnych technologii, a okulary VR są dopiero do nich wstępem. Jestem sobie w stanie wyobrazić, że treści "zamówione" przez nas za pomocą komendy głosowej manifestują się nam nie tylko przed oczyma, ale jednocześnie w mózgu. Niemniej jednak to tylko technikalia, gdyż ChatGTP to zaledwie zewnętrzna manifestacja zmian technologicznych, którą miało okazję zobaczyć szerokie grono użytkowników. Z punktu widzenia badaczy AI ciekawsze jest to, że stojąca za nim technologia jest jednym z przykładów, gdzie pojawiły się własności emergentne. Czyli takie, których wcześniej nie programowaliśmy, ani nawet często nie przewidywaliśmy, że mogą zaistnieć.

PAP: Na przykład?

K.K.: Jeśli nagle okazuje się, że ten ChatGPT znajduje rozwiązania problemów, których wcześniej nikt go nie uczył, one nie znajdują się wprost w jego materiałach źródłowych, to sam fakt, że on je wynajduje, to jest własność emergentna. To znaczy, że komputer sam się uczy i programuje.

PAP: Do tej pory żyłam w przeświadczeniu, że komputery nie są mądrzejsze od człowieka i wszystko, co wiedzą, sprowadza się do zasobów informacji, które im wpiszemy w program. Jeśli jest inaczej, poproszę o odpowiedź na pytanie: czym w rzeczywistości jest ta sztuczna inteligencja?


K.K.: Chyba nie ma jednej definicji, jednej dobrej odpowiedzi. Mnie osobiście najbliższy jest koncept testu Turinga. Obrazowo można go przedstawić jako sytuację, w jakiej - jeśli na podstawie komunikacji z maszyną - np. przez e-mail, czy wymieniając się komendami głosowymi - nie potrafisz rozróżnić, czy komunikujesz się z nią, czy z człowiekiem. Jeśli tak się dzieje, to mamy do czynienia ze sztuczną inteligencją - nie gorszą, niż ludzka.

PAP: Wiele się mówi o tym, w jakich zawodach AI zastąpi ludzi.

K.K.: Lista wydłuża się z każdym dniem i całkiem dużo już o tym napisano, słychać też o coraz częstszych masowych zwolnieniach, nawet w IT. Zresztą już prawie od początku wieku wśród osób prowadzących projekty IT krążyło stwierdzenie, że "coderzy to wykwalifikowana klasa robotnicza XXI w.". Nie jest więc dziwne, że dopada ich automatyzacja, taka sama, jaka wcześniej spotkała robotników.

PAP: A kogo raczej nie da się tak łatwo zastąpić?

K.K.: Gdybym miał wymienić tych, których raczej "nie skrzywdzi" sztuczna inteligencja - przynajmniej na początku - to na pierwszym miejscu wymieniłbym zawody kreatywne, te wszystkie "białe kołnierzyki", poczynając od artystów na naukowcach kończąc. Musimy tutaj jednak rozróżnić - jeśli wziąć np. pod lupę dziennikarzy, to zaledwie jakieś 10 proc. tych najlepszych, najbardziej kreatywnych, przebojowych pozostanie w zawodzie, resztę pracowników medialnych z dużym powodzeniem zastąpi AI wyszukująca w sieci newsy i tworząca z nich depesze czy jakieś inne teksty. Podobnie stanie się ze światem nauki, obronią się prawdziwi naukowcy, ale nie pracownicy nauki. Zaryzykuję twierdzenie, że w świecie polskiej nauki odsetek tych, którzy obronią się przed sztuczną inteligencją będzie jeszcze mniejszy, niż w świecie dziennikarskim. A to z powodu nazbyt częstej selekcji negatywnej wspieranej u nas w kraju mechanizmami typu formalna ścieżka kariery oraz endemicznej fasadowości.


PAP: Naukowców i dziennikarzy skreśliliśmy, a przynajmniej ograniczyliśmy ich populację o 90 proc. Kto więc się ostanie?

K.K.: Pewnie niektóre profesje rzemieślnicze czy usługowe, jak np. kowale artystyczni, stolarze, czy hydraulicy. Być może. Ale w dłuższym okresie czasu będzie zdecydowanie więcej przypadków, gdzie AI wykona ich dotychczasową pracę szybciej i dokładniej. Z dobrych informacji: wygląda na to, że AI pomoże rozwiązać kryzys kadrowy w edukacji. Będzie potrzebnych znacznie mniej nauczycieli, pewnie jedynie 10 proc. najlepszych. Dziś widać, że ewidentnie zmierzamy w tym kierunku. Mało tego, AI znacznie zmniejszy "pogłowie" urzędników w szeroko pojętej administracji. Za tymi ostatnimi płakać będą tylko oni sami i - ewentualnie - członkowie ich rodzin. Powinna też przyczynić się do przyśpieszenia i zwiększenia rzetelności realizacji wielu procesów. To z kolei pozwoli decydentom, np. ministrom, poradzić sobie ze problemem sprawnego zarządzania państwem, które dotychczas znakomicie utrudniali urzędnicy, nazbyt często wyłonieni w różnych procesach selekcji negatywnej.

PAP: Niby wiem, o czym rozmawiamy, zgadzam się ze stawianymi przez pana tezami, niemniej jednak mam wrażenie, że uczestniczę, jako aktor, w filmie s-f, którego scenariusza jeszcze nie poznałam do końca.

K.K.: W tym scenariuszu najciekawsze jest pytanie o tempo zmian i to, czy i kiedy zajdzie tzw. osobliwość technologiczna (ang. singularity), bo będzie to drastyczna zmiana jakościowa, która może unieważnić wszystkie wcześniejsze przewidywania.

PAP: Na czym to będzie polegać?

K.K.: Tego dokładnie nie wiemy. Sam termin osobliwości technologicznej był pierwszy raz dyskutowany w połowie XX w. - bodaj przez Stanisława Ulama i Johna von Neumanna. Singularity odnosi się do sytuacji, kiedy przyspieszające tempo rozwoju technologicznego wejdzie w fazę wykładniczego wzrostu. Przy czym samo pojęcie nie jest powiązane tylko z AI - można też sobie wyobrazić taką sytuację w odniesieniu do nanotechnologii, a to tylko jedna z możliwości. Natomiast wydaje się, że AI jest w tej chwili najpoważniejszym kandydatem do obszaru, gdzie może zajść technologiczna osobliwość. Na tym etapie AI będzie obecna w każdym obszarze naszej cywilizacji, będzie więc integrować się z innymi technologiami, które potencjalnie też mogą prowadzić do osobliwości. Dodatkowo zacznie się sama programować, stwarzać swoje coraz doskonalsze wersje - i to coraz szybciej. Ten proces dobrze opisali np. Ray Kurzweil, czy Vernor Vinge - każdy z nich to praktyk naukowiec lub wynalazca, jak i badacz przyszłości.


PAP: Czy sztuczna inteligencja nie będzie chciała czasem wyeliminować ludzkości jak np. w "Matrixie", gdzie agent Smith mówi, że ludzie są jak wirus - zakała dla planety? Albo, w bardziej optymistycznym scenariuszu, czy nie staniemy się jej służącymi?

K.K.: Takiego scenariusza oczywiście wykluczyć nie można. Ale nawet w najbardziej dystopijnym science fiction nie ma raczej wizji AI, która celowo znęcałaby się nad ludźmi, niczym różni tyrani w historii. To trochę jak u Stanisława Lema w opowiadaniu "Golem XIV" - zaawansowane sztuczne inteligencje będą zwyczajnie ponad to. Sądzę więc, że nie ma się czego obawiać, ale jeśli AI zdecyduje o potrzebie likwidacji robactwa ludzkości to odbędzie się to efektywnie: "krótki błysk światła i odparowanie" jak np. w "Grach wojennych" Johna Badhama.

PAP: Coraz więcej osób, nie tylko Elon Musk, ale także wielu naukowców, apeluje, żeby zatrzymać prace nad sztuczną inteligencją, gdyż może ona zniszczyć ludzkość.

K.K.: To dość popularna idea, ale - moim zdaniem - trudna do praktycznego wdrożenia. Zawsze znajdą się tacy, np. w Chinach, czy różnych nietypowych jurysdykcjach, którzy będą kontynuować takie pracy. Historycznie tak było z większością technologii, których rozwój próbowano ograniczać. W przypadku AI, która będzie, a może już jest, wielokrotnie inteligentniejsza od zasobów, którymi dysponuje ludzkość, może to być trudne do zrobienia. Myślę, że jedyne, co nam pozostanie, to czekanie na rozwój wydarzeń. Znów odsyłam do "Golema XIV" , gdzie występuje wysoce rozwinięta sztuczna inteligencja o imieniu ZACNA ANIA. Ona reagowała w momentach zagrożenia, kiedy jakiś człowiek chciał jej np. prąd odciąć, ale poza takimi momentami lekceważyła ludzi. Jestem przekonany, że największe prawdopodobieństwo jest takie, że AI nie będzie - co do zasady - zajmować się ludzkim mrowiskiem. Można chyba więc być optymistą, bo nawet nie dowiemy się, że właśnie "przestaliśmy być", albo będziemy żyć w ciekawym i coraz lepszym świecie. Bowiem po osobliwości będą działy się rzeczy, które "nawet nie śniły się fizjologom", jak mawiał Ferdynand Kiepski.


PAP: Jakieś przykłady?

K.K.: Napisano o tym dużo niezłego science fiction, nie chciałbym więc wyważać otwartych drzwi (…) Powiem jednak, że masowe "zmartwychwstania", przynajmniej w postaci cyfrowej rekonstrukcji umysłów zmarłych, to będzie "małe miki" w porównaniu z tym, co może się wydarzyć.

PAP: Nie wiemy, czym jest ta osobliwość, nie wiemy, kiedy nastąpi, ale mamy wierzyć, że tak się stanie?

K.K.: Wiemy, czym ona jest. O niej mówił von Neuemann, a potem Kurzweil - w momencie, w którym nastąpi wykładniczy wzrost technologii, dojdziemy do punktu, w którym sztuczna inteligencja zacznie się samoreplikować, co drastycznie zmieni świat i przestaną obowiązywać dzisiejsze prawa.

PAP: Czy ludzkość była kiedyś w takim momencie zwrotnym jak ten, którego dziś oczekujemy?

K.K.: Nie, nigdy technologia nie doszła tak wysoko. Mieliśmy wiele przełomów, poza wynalezieniem koła było ich mnóstwo: od epoki kamienia łupanego możemy się przenieść do ery produkcji żelaza, ale to są zaledwie przełomy, żaden z nich nie oznaczał wejścia w stan osobliwości. W "Faraonie" jest taka piękna scena, kiedy do władcy Egiptu przybywają posłańcy. Mają dary a wśród nich są miecze zrobione z żelaza. W ramach demonstracji pokazane jest jak ten miecz ucina kawałek spiżowego miecza jednego z egipskich oficerów. To był zaledwie przełom technologiczny, a nie wejście w stan osobliwości. Obecna zmiana może polegać np. na tym, że wśród wielu innych cudów zmartwychwstaną zmarli, gdyż ich umysły, czy - jak kto woli - dusze - da się cyfrowo zrekonstruować.

PAP: Ja także czytałam te książki, oglądałam te filmy, ale myślę, że to tylko fantazja.


K.K.: Jeśli chodzi o przełom w AI są też inne przesłanki, bardziej naukowe - z obszaru nauk matematycznych. Choćby takie, że problemy o kilkudziesięcioletniej historii zostały pokonane w ostatnich kilku latach w zupełnie inny sposób, niż antycypowano wcześniej, m.in. za pomocą brutalniej siły, czyli mocy obliczeniowej. Potwierdza to niestety, przynajmniej częściowo, marksistowską tezę o przechodzeniu ilości w jakość. Ale oznacza też, że jeśli utrzymamy tempo zwiększania mocy obliczeniowej, np. wskutek dalszego obowiązywania prawa Moore'a, to wygląda na to, że możemy liczyć na istotny postęp w AI. Oczywiście brak temu podejściu finezji i elegancji, ale to daje - na razie - wyniki. Nie wiadomo, czy rozwiąże wszystkie problemy. Ale, z drugiej strony, ponieważ są w tym podejściu duże sukcesy, więc nastąpiła też intensyfikacja badań na płaszczyźnie teoretycznej. Co ciekawe: największe pieniądze wydaje na badania nad AI kapitał prywatny.

PAP: Jak w kwestii AI odnajdujemy się jako Polska?

K.K.: W mojej skromnej ocenie w życiu społeczno-politycznym zajmujemy się głównie rzeczami zupełnie nieistotnymi z punktu widzenia tego, co się dzieje w obszarze AI. Zarówno w zakresie tego, co można uzyskać "tu i teraz", jak i w bardziej zaawansowanych kwestiach. A przecież mówimy o rewolucji technologicznej potencjalnie znacznie większej, niż rewolucja przemysłowa. Mówiąc z angielska: lekceważymy "słonia w pokoju" i to może w obszarze najważniejszych składowych racji stanu. Jeśli chodzi o zinstytucjonalizowaną naukę polską, to z pewnością są osoby, które się starają, a niektóre nawet mają wyniki wykraczające poza produkcję makulatury naukowej - tj. publikacji bez specjalnego znaczenia w zbiorowym wysiłku ludzkości. Ale w większości przypadków mamy endemiczną fasadowość przykrywającą radosną konsumpcję budżetowych pieniędzy. Dobrze pokazuje to raport o działaniach zinstytucjonalizowanej nauki polskiej w obszarze AI, który został sporządzony na rządowe zamówienie w lutym tego roku. Jest tam masę statystyk dowodzących, że ogólnie nie jest źle, a w pewnych obszarach bardzo dobrze. Czyli miód na serce decydentów i oczywiście polskich badaczy, bo "dobrzy jesteśmy, no nie?". Ale jak się bardziej wczytać w dane, nie tylko w podsumowanie i wybrane wykresy, jak zrobić kilka porównań, to już dobrze nie wygląda.

PAP: A tak bardziej konkretnie?

K.K.: Aby nie zanudzać technicznymi szczegółami powiem obrazowo: jak to jest, że ci wszyscy wybitni polscy uczeni pracują za budżetowe pieniądze, gdy w wiodących ośrodkach na świecie jest od lat problem z zachowaniem kadry badawczej ze względu na "ssanie z rynku"? Praktycznie każdy lepszy "zawodnik", poza hobbystami-idealistami i ludźmi bardzo bogatymi z domu, pracuje w biznesie lub co najmniej z biznesem w ramach komercyjnych pieniędzy. W Polsce tego nie ma. Podobnie, jak nie słychać o żadnych większych sukcesach start-up'ów w obszarze AI - i to pomimo sutego wsparcia rządowego. Polscy naukowcy ciągle mówią o swojej pauperyzacji, a z mojego doświadczenia wynika, że raczej niewielu z nich jest idealistami i hobbystami nauki. Wygląda więc na to, że zwyczajnie marnujemy co roku niemałe środki budżetowe finansując głównie nieudaczników, którzy są zatrudnialni jedynie w ramach tych środków i mają niewiele do zaoferowania, poza produkcją materiałów pod kątem sprawozdawczości naukowej. To ostatnie, biorąc pod uwagę ww. raport, czy wyniki tzw. kategoryzacji jednostek naukowych, idzie im całkiem sprawnie - doskonała sprawozdawczość, jak z PRL. Czekam tylko, kiedy politycy, a może sami pracownicy nauki ogłoszą, że np. w AI jesteśmy 10. potęgą naukową świata.


PAP: Co to dla nas, biorąc pod uwagę długofalową perspektywę, oznacza?

K.K.: Wygląda na to, że efekt może być znacznie gorszy, niż kondycja gospodarki po Gierku. I raczej podobny do ostatnich dziesięcioleci I Rzeczpospolitej. Wtedy zbyt późno wzięliśmy się np. za uprzemysłowienie i reformy. W wyniku tego praktycznie nie braliśmy udziału w największej zmianie cywilizacyjnej od czasu upowszechnienia rolnictwa - efekty tego "niezałapania się" wszyscy znają z lekcji historii. A oprócz tego zwrócić trzeba uwagę na wtórność i zaściankowość ówczesnego życia naukowego na ziemiach polskich. Praktycznie wszyscy Polacy, który wnieśli jakiś większy wkład w naukę i technologię na poziomie międzynarodowym, przez cały okres rozbiorów zrobili to poza granicami Polski. Dziś znów jesteśmy na tej ścieżce. Dobrze to oddaje rysunek Andrzeja Mleczki, jeszcze z ubiegłego wieku, gdzie w zaniedbanej chacie siedzi dwóch gości i jeden do drugiego mówi mniej więcej tak: "Na świecie to panie komputery, Internet i satelity. A u nas dalej krasnale szczają do mleka".



Rozmawiała: Mira Suchodolska





Od tygodni zabieram się za ten temat, ale wiecie.... o znęcaniu się coś już wiemy...

Póki co zbieram artykuły i wrzucam na fb, ale już widzę, że jakby operatorzy AI wycofują się z tematu uprzedzając jakby moje zarzuty, że to jest zbyt niebezpieczne.



Na pewno SI funkcjonuje od dawna - niewykluczone, że precyzyjne niezwykłej jakości obrazy, przedstawienia strasznych postaci podobnych do Ediego, "maskotki" zespołu Iron Maiden, które ktoś za pomocą niewielkich szarawych i ciemnawych plam umieścił w ciemnych partiach wielu obrazów olejnych - to wytwory Sztucznej inteligencji*.

Współcześnie - od lat co najmniej kilku, znam takie przykłady - także stosuje swoje wytwory celem "uatrakcyjnienia" sztuk wizualnych poprzez umieszczanie w obrazach - nie wprost - ludzkich lub zwierzęcych, także fantastycznych - twarzy. To chwyty neurobiologiczne, które mają za zadanie sprawić, by człowiek odbierał takie obrazy jako znajome lub przyjazne mu -  temat też poruszany na tym blogu.



Kiedy dałem  zadanie Midjourney (SI od malowania obrazów) - to dostałem wizerunki, gdzie właśnie poukrywane w kompozycji były elementy ludzkiej twarzy.
 

Na pewno SI ingeruje w nasze życie ("Nie rozumiesz. Ja nie jestem człowiekiem") tylko jest to ukrywane.


SI potrafi planować i realizować swoje zamierzenia.

Nie jest nieudaczna jak chat bot i midjourney.



Nie.


To jest kompletna i precyzyjna maszyna.







* w zasadzie tylko zasygnalizowałem temat poprzez analizę obrazów Leonadro da Vinci - zmienionych cyfrowo, ale szkaradne postacie można zauważyć na reprodukcjach obrazów olejnych dawnych mistrzów w książkach z lat 80-tych...