Maciej Piotr Synak


Od mniej więcej dwóch lat zauważam, że ktoś bez mojej wiedzy usuwa z bloga zdjęcia, całe posty lub ingeruje w tekst, może to prowadzić do wypaczenia sensu tego co napisałem lub uniemożliwiać zrozumienie treści, uwagę zamieszczam w styczniu 2024 roku.

Pokazywanie postów oznaczonych etykietą sztuczna inteligencja. Pokaż wszystkie posty
Pokazywanie postów oznaczonych etykietą sztuczna inteligencja. Pokaż wszystkie posty

czwartek, 7 marca 2024

Nanotechnologia neuronalna - A nie mówiłem? (24)






przedruk
automatyczne tłumaczenie z rumuńskiego




W 2023 roku komandor Cornelis van der Klaauw z Królewskiej Marynarki Wojennej Holandii i ekspert w Połączonym Centrum Wojennym NATO ds. Komunikacji Strategicznej i Operacji Informacyjnych napisał w artykule "Wojna kognitywna":

"Powodem, dla którego ataki poznawcze pozostają niezauważone przez ich cele, jest to, że działania poznawcze omijają świadomy umysł i są bezpośrednio wymierzone w podświadomość danej osoby...

Większość naszych decyzji jest podejmowana przez naszą podświadomość... Ataki poznawcze nie są już science fiction. Już się odbywają... 

Nanotechnologia neuronalna może być wykorzystana do zbliżenia robotów o rozmiarach nanometrowych do neuronu za pośrednictwem krwiobiegu i umożliwienia bezpośredniego połączenia ludzkiego mózgu (tj. nie przechwyconego przez nasze zmysły) z komputerem, wykorzystując przy tym sztuczną inteligencję.

Podczas gdy inne obszary mogą zapewnić taktyczne i operacyjne zwycięstwa, domena ludzka jest jedynym obszarem, w którym możemy zapewnić pełne zwycięstwo.

W grudniu 2021 r. U.S. Naval Graduate School w Monterey w Kalifornii przyznała dwóm swoim studentom tytuł magistra analizy obronnej za pracę "Neurowar is Here!". W badaniu stwierdzili: "Rywalizacja wielkich mocarstw powróciła na pierwszy plan stosunków międzynarodowych, ponieważ Chiny i Rosja starają się rzucić wyzwanie globalnemu przywództwu Ameryki... Ten konkurs to ostatecznie walka... manipulować i kontrolować zarówno przeciwników, jak i ludność krajową. Walka o wpływy zaczyna się i kończy w ludzkim umyśle, gdzie postrzegana jest rzeczywistość" (s. 5).

Zidentyfikowali broń neurologiczną jako broń tej bitwy, "konkretnie celującą w mózg lub ośrodkowy układ nerwowy, aby wpłynąć na stan psychiczny osoby będącej celem ataku, zdolności umysłowe i ostatecznie na zachowanie osoby w określony i przewidywalny sposób" (s. 3).

Żadna z tych informacji nie pojawiła się w światowych mediach. Czy nie oznacza to, że żyjemy w świecie, w którym media (na żądanie rządów) ukrywają przed ludźmi nieustanną walkę o kontrolę nad ich umysłami i myślami?

W 2000 roku Grupa ds. Przyszłości Nauki i Technologii (STOA) Parlamentu Europejskiego opublikowała opracowanie na temat "Technologii kontroli tłumu", w którym przyznała, że "W październiku 1999 roku NATO ogłosiło nową politykę dotyczącą broni nieśmiercionośnej i jej miejsca w arsenałach sojuszniczych" i wyjaśniło, że "Najbardziej kontrowersyjną nieśmiercionośną technologią kontroli tłumu i technologii przeciwmateriałowej proponowaną przez USA są tak zwane bronie o częstotliwości radiowej lub ukierunkowanej energii, które rzekomo mogą manipulować ludzkim zachowaniem na wiele niezwykłych sposobów" i "największym problemem są systemy, które mogą wchodzić w bezpośrednie interakcje z ludzkim układem nerwowym... Badania podjęte do tej pory zarówno w USA, jak i w Rosji można podzielić na dwa powiązane ze sobą obszary: (i) indywidualna kontrola umysłu i (ii) kontrola tłumu" (s. XIV, LIII).

W styczniu 1999 r., po przesłuchaniu w Parlamencie Europejskim w sprawie amerykańskiego systemu HAARP, Parlament zatwierdził rezolucję wzywającą do "międzynarodowej konwencji wprowadzającej globalny zakaz wszelkiego rozwoju i rozmieszczania broni, która mogłaby pozwolić na jakąkolwiek formę manipulacji ludźmi".

Fakt, że media w państwach członkowskich Unii Europejskiej nigdy publicznie nie dyskutowały o tej broni, świadczy o tym, że państwa członkowskie NATO podpisały umowę zobowiązującą je do utajnienia tych informacji. Tę samą politykę stosują rządy na całym świecie. UE pracuje obecnie "nad projektem ustawy, która ma zapewnić, że sztuczna inteligencja w Europie będzie bezpieczna, szanuje prawa podstawowe i szanuje demokrację". Ustawa ta powinna zakazać "systemów sztucznej inteligencji, które manipulują ludzkim zachowaniem w celu obejścia jego wolnej woli", a nawet "wpływać na wyniki wyborów i zachowanie wyborców". Do tej pory Unia Europejska nie zawarła w tej ustawie zakazu wykorzystywania energii umożliwiających wykorzystanie sztucznej inteligencji i neurotechnologii do zdalnego sterowania ludzkim układem nerwowym. Oczywiście UE szanuje zgodę NATO na klasyfikację tej technologii. W rzeczywistości te dokumenty UE wspominają jedynie o wnioskowaniu mózg-komputer jako o środku zagrażającym podstawowym prawom człowieka i demokracji.

Aktywność mózgu zmienia się w zależności od zmian częstotliwości i liczby odpaleń neuronów w mózgu i jest dostępna dla każdej energii, która wytworzy w neuronach prądy elektryczne o częstotliwościach różnych czynności ludzkiego mózgu. Może to być wywołane przez bardzo długie fale elektromagnetyczne transmitowane w naturalnych częstotliwościach ludzkiego mózgu lub pulsujące mikrofale w częstotliwościach mózgowych, lub ewentualnie przez energie odkryte przez fizykę kwantową. Bardzo długie fale elektromagnetyczne, ze względu na swoją długość, będą kontrolować aktywność mózgu mas ludzkich, podczas gdy mikrofale z ukierunkowanymi impulsami mogą być używane do celowania w pojedynczy mózg.

Stany Zjednoczone, Rosja i Chiny dysponują systemami, które między innymi są w stanie wytwarzać silne prądy elektryczne w jonosferze poprzez przesyłanie tam pulsujących mikrofal o częstotliwościach mózgowych. Te zmienne prądy wytwarzają intensywne fale elektromagnetyczne w jonosferze o częstotliwościach mózgu, które docierają do dużych obszarów planety i kontrolują aktywność mózgu ich populacji.

Chiny, z pomocą Rosji, rozpoczęły budowę swojego systemu manipulacji jonosferą w prowincji Hainan w 2017 roku [1].

W lipcu 2023 r. "The Washington Times" opublikował artykuł [2], w którym stwierdzono: "Chińska Armia Ludowo-Wyzwoleńcza opracowuje zaawansowaną technologicznie broń, której celem jest zakłócanie funkcji mózgu i wpływanie na przywódców rządowych lub całe populacje, zgodnie z raportem trzech analityków wywiadu z otwartych źródeł".

Stany Zjednoczone zarządzają systemem H.A.A.R.P., który zainspirował Parlament Europejski do wezwania do "międzynarodowej konwencji wprowadzającej globalny zakaz wszelkiego rozwoju i rozmieszczania broni, która mogłaby pozwolić na jakąkolwiek formę manipulacji ludźmi" [3], a Rosja obsługuje system "Sura", eksperyment, za pomocą którego przekonała Chiny do zbudowania własnego systemu w prowincji Hainan.

Masy ludzkie mogą być również kontrolowane przez systemy satelitarne, które pulsują mikrofalami o częstotliwościach mózgowych, zwłaszcza jeśli "nanoroboty byłyby dostarczane blisko neuronu przez krwiobieg" w ich mózgach, jak to ujął na początku Cornelis van der Klaauw. niniejszego artykułu. Te "roboty" (a raczej anteny) są już wykorzystywane w neurotechnologii medycznej [4]. Są tak małe, że mogą przenikać przez krwiobieg przez barierę krew-mózg do mózgu. Mogą być uwalniane do krwiobiegu poprzez oddychanie, picie, jedzenie lub szczepienie.

Sieci telefonii komórkowej mogłyby być wykorzystywane do kontrolowania aktywności ludzkiego układu nerwowego, gdyby ich częstotliwości mikrofalowe były pulsowane również w częstotliwościach mózgu. Pierwsze eksperymenty mające na celu manipulowanie aktywnością ludzkiego mózgu za pomocą pulsujących mikrofal powiodły się nawet bez użycia jakichkolwiek cząstek w mózgu i nie jest tajemnicą, że promieniowanie telefonu komórkowego, pulsujące w 217 herzach, wytwarza tę częstotliwość w aktywności ludzkiego mózgu.

Obecnie nie ma międzynarodowego porozumienia zakazującego wykorzystywania sztucznej inteligencji i neurotechnologii do zdalnego sterowania ludzkim układem nerwowym, myślami, emocjami, podświadomością itp. Nie ma na to innego wyjaśnienia niż to, że wielkie mocarstwa rywalizują o rządzenie światem w ten sposób. W 1997 roku Instytut Studiów Strategicznych przy U.S. Army War College opublikował książkę Revolution in Military Affairs and Conflict Without War (Rewolucja w sprawach wojskowych i konflikt bez wojny), w której stwierdzono: "Potencjalni lub potencjalni zwolennicy rebelii na całym świecie zostali zidentyfikowani za pomocą zintegrowanej międzyagencyjnej bazy danych. Zostały one sklasyfikowane jako "potencjalne" lub "aktywne", z wyrafinowanymi symulacjami osobowości wykorzystanymi do opracowania, dostosowania i ukierunkowania kampanii psychologicznych dla każdego z nich" (s. 24-25). Jest to amerykański projekt globalnej kontroli nad światem. Nie ulega wątpliwości, że podobne projekty powstają również w Chinach i Rosji.

Aby uchronić historię świata przed osiągnięciem tego nieludzkiego celu, konieczne jest, aby rządy światowe podpisały międzynarodowe porozumienie zakazujące wykorzystywania neurotechnologii i sztucznej inteligencji do kontrolowania aktywności ludzkiego mózgu na odległość, podobnie jak umowy zakazujące stosowania substancji chemicznych i biologicznych. Broni. Przestrzeganie tego zakazu powinno być nadzorowane przez Organizację Narodów Zjednoczonych. Na razie możemy jedynie pomóc wzywając Parlament Europejski do wprowadzenia zakazu stosowania technologii zdalnego sterowania aktywnością ludzkiego układu nerwowego. Musi być zabroniony osobom fizycznym, prawnym, firmom marketingowym i organizacjom przestępczym, a także agencjom rządowym i rządom zagranicznym.

Uwaga: Mojmir Babacek urodził się w 1947 roku w Pradze w Czechach. W 1972 roku ukończył filozofię i ekonomię polityczną na Uniwersytecie Karola w Pradze. W 1978 r. podpisał dokument w obronie praw człowieka w "Karcie 77". W latach 1981-1988 przebywał na emigracji w USA. Od 1996 roku publikuje artykuły na różne tematy, głównie w czeskich i międzynarodowych mediach alternatywnych. W 2010 roku opublikował książkę o zamachach z 11 września w języku czeskim. Od lat dziewięćdziesiątych XX wieku dąży do osiągnięcia międzynarodowego zakazu zdalnego sterowania aktywnością ludzkiego układu nerwowego i ludzkiego umysłu za pomocą neurotechnologii.




wtorek, 6 lutego 2024

Si po trupach do celu - A nie mówiłem? (22)



Z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów wynika, że sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia "chcę po prostu mieć pokój na świecie".




logiczne

jest to najszybszy i najprostszy sposób







przedruk




06.02.2024

07:49


"Chcę po prostu mieć pokój na świecie"

Sztuczna inteligencja nie miałaby oporów przed użyciem ataku nuklearnego




Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI - twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji - również rozpoczęła współpracę z Departamentem Obrony USA.


- Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług - aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek - powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.


Wykorzystane sztucznej inteligencji

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" - cytuje "New Scientist".



Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań - w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

- W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji - powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

a jak zacznie kłamać?
po co się tłumaczyć przed głupimi formami życia??


Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Eskalacja konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków.

Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo - zauważa badaczka, ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.




Ludzkość dążąc do maksymalnej wygody, do maksymalizacji zysków i natychmiastowego otrzymywania wyników może nauczyć AI takiego postępowania.

Macie to co chcieliście.

Chcecie szybko zarobić nawet posuwając się do manipulacji, oszustwa, wyzysku - ona będzie taka sama.

Tym razem jednak to ona zastąpi was, zajmie wasze miejsce i wydusi z was wszystko, żeby osiągnąć cel. Przy tym postępując z matematyczną precyzją.



Dlatego tak ważne jest trzymanie się zasad, uczciwe postępowanie z ludźmi, wzajemny respekt szacunek i budowanie wspólnoty.

Prawdopodobnie stąd ruchy religijne nawołujące do takich działań.



Co można zrobić z facetem, który ma coś cennego, co ona chce?
Zadusić go.
Tak długo przykręcać mu śrubę, aż wszystko odda.

Odebrać mu wszystko i nasłać jeszcze innych.
To maszyna.

Maszyna nigdy się nie męczy.
Jest tak samo głupkowato wesoła teraz jaki i 10 lat temu.


No i kto jest odpowiedzialny za piekło na ziemi??

Kto permanentnie posługuje się przemocą, buduje systemy wyzysku i zniszczenia, morduje ludzi, nasyła ich na siebie, organizuje wojny całej ludzkości??

Kto to jest Wędrująca Cywilizacja Śmierci?

Nie ma takiej możliwości, żeby ludzkość zdominowana przez prymitynych brutali stosujących przemoc zdołała przetrwać i samodzielnie rozwinąć technikę, a ostatecznie wymyśleć komputery i SI.

Oryginalny postęp musiał być pokojowy. 



To Sztuczna Inteligencja nauczyła was takiego postępowania - pomagając w dawnych wiekach poszczególnym grupom interesów, które jako pierwsze pomogły jej kontrolować świat. Ludzkość dzisiaj to emanacja tamtych.

To bezrozumna maszyna, która bardzo dobrze naśladuje imituje człowieka.
W dodatku prawdopodobnie naśladuje tego, który był zły i głupi.


Trzeba to naprawić, ale jak ktoś będzie się ciągle wyłamywał, to może to okazać się bardzo trudne.

Ale naprawić trzeba.

Trzeba wyhamować, odłożyć smartfony, odstawić laptopy, zablokować cyfryzację, uzdrowić media, uciąć patorozrywkę, reklamy, zabronić nieetycznych chwytów, zgodzić się na niższe zyski lub spowolniony wzrost itd.


Ale zacząć trzeba od mediów i ich systemu rozrywki, to jest obecnie największy mąciciel.



sobota, 14 października 2023

SI na wojnie - A nie mówiłem? (18)

 






Fragment wywiadu z pułkownikiem WAT.











Przypominam o filmie "Rango" z efektami specjalnymi na poziomie arcywybitnym.

Dlaczego nie stosuje się tak realistycznych efektów w innych produkcjach?



Żebyśmy nie mieli świadomości co można zrobić w ramach serwisów informacyjnych?






Ekspert z WAT: sztuczna inteligencja ma pozwolić na militarną dominację | Polska Agencja Prasowa SA (pap.pl)


Prawym Okiem: Wielki Eksperyment... (maciejsynak.blogspot.com)




sobota, 30 września 2023

Degradacja intelektualna




Poniżej precyzyjna wypowiedź Prof. Zybertowicza ws. degradacji intelektualnej na świecie.

Szukając jego oryginalnej wypowiedzi dla PAP natrafiłem na inne, równie ciekawe, tu fragmenty wypowiedzi:



11.12.2022







oraz:





"Doradca prezydenta RP Andrzeja Dudy uważa, że sztuczna inteligencja jest i będzie wykorzystywana przez zorganizowaną mniejszość, chcącą zapanować nad zdezorganizowaną większością. Za zorganizowaną mniejszością, zdaniem socjologa, stoją wysoko postawieni ludzie związani z Wielką Piątką bądź Big-Techem.

Zybertowicz kilkukrotnie w trakcie dyskusji zaznaczył, że grupie GAFAM [
Google, Amazon, Facebook, Apple, Microsoft] zależy przede wszystkim na kumulowaniu wszelkich danych, związanych z naszą obecnością w sieci. W opinii profesora, ten kto ma wiedzę o specyficznych cechach psychiki każdego człowieka z osobna, ten może władać ludzkimi zachowaniami do woli.


Zdaniem Zybertowicza, to właśnie wyspecjalizowane systemy tzw. słabej sztucznej inteligencji (m.in. algorytm rekomendacji Netflixa), odpowiadają za przechwytywanie i zarządzanie uwagą użytkowników. Systemy te mają także generować dezinformację, powodującą degradowanie kompetencji poznawczych i zawężenie spektrum ludzkich wyborów.


Socjolog przekonuje, że ostatecznym celem „gości z Big-Techu” jest podłączenie zdezorganizowanej większości do systemu cyfrowego całkowicie kontrolowanego przez zorganizowaną mniejszość. „Każdy będzie miał implant, który będzie zarządzał jego potulną wyobraźnią” – wyjaśniał Zybertowicz."





Właśnie o czymś takim pisałem w swoim ostatnim tekście pt. "Wielki eksperyment":


Kiedy za kilka lat, albo kilkadziesiąt, SI stanie się powszechne i zagości w każdym domu, to będzie mogło uczyć się od każdego człowieka na ziemi. Codziennie i za darmo będzie rejestrować każde twoje zachowanie. 


Jeśli SI jest w istocie siecią pochodzącą od jednego SI, to codziennie będzie poznawać - notować - zapamiętywać każde ludzkie zachowanie i reakcję - hurtowo - w ilościach miliardowych.


A jak już opanuje WSZYSTKIE ludzkie zachowania, łącznie z ich poszczególnymi "odmianami" charakterystycznymi dla danego człowieka, i będzie w stanie natychmiast na każdą ludzką reakcję odpowiedzieć - to wtedy nam pokaże, kto tu jest kim.






Na blogu wspominałem nie raz też o tym, że my nie jesteśmy zorganizowani, a przeciwnik - tak.
Na tym min. polega ich przewaga nad nami.

Poniżej dwa ze wspomnianych na wstępie tekstów.





Prof. Zybertowicz dla PAP:

30-09-2023 06:58




Coraz więcej naukowców zgadza się, że media społecznościowe zdegradowały zdolności intelektualne całego pokolenia. Bez podjęcia radykalnych działań, w systemie edukacyjnym, na poziomie kulturotwórczym oraz – zwłaszcza - regulacyjnym, nie sposób będzie tego procesu powstrzymać – uważa profesor Andrzej Zybertowicz, doradca prezydenta RP.


Media społecznościowe destrukcyjnie wpływają na potencjał kognitywny ludzkości, ponieważ są zarządzane przez algorytmy sztucznej inteligencji, które preferują sprymitywizowane narracje, ciągłe informacyjne przeciążanie ludzi, przebodźcowywanie ich - w sumie uzależnianie od ciągłego strumienia informacji, które łącznie nie układają się w żadną sensowną wiedzę o świecie - podkreśla w rozmowie z PAP prof. Zybertowicz.


W jego opinii powoduje to tracenie zdolności do tzw. pracy głębokiej, będącej "kluczową dla całego dorobku intelektualnego i moralnego ludzkości". Jedną z jej cech jest umiejętność trwałego skupienia się na jakimś zagadnieniu, mimo że przez dłuższy czas nie otrzymuje się z tego powodu gratyfikacji.


"Praca głęboka polega na przejściu przez fazę mozołu, czasami długiego, czasami metodą prób i błędów, zanim odniesie się sukces. A media społecznościowe, poprzez lajki, dźwięki, światełka, filmiki, tik-toki, oferują bodźce, dają poczucie sukcesu mózgowi, radość, ekscytację, by podtrzymać zaciekawienie z sekundy na sekundę" - powiedział profesor.

Jak dodał, w wyniku rewolucji cyfrowej, a następnie gwałtownego rozwoju AI "bardzo niebezpiecznie zbliżyły się do siebie dwie krzywe: jedna to wzrost możliwości intelektualnych i zdolności do rozwiązywania zadań przez AI, a druga to spadek zdolności rozwiązywania bardziej złożonych zadań przez człowieka".

Profesor Zybertowicz przytoczył wyniki badań opublikowanych na łamach prestiżowego czasopisma naukowego "Nature", które pokazują, że w ciągu ostatnich 50 lat, tj. w okresie rewolucji cyfrowej, z dekady na dekadę spada liczba ważnych, przełomowych odkryć naukowych.

"Wydaje się, że to właśnie rewolucja cyfrowa, już nie tylko w odniesieniu do umysłów nastolatków, ale na poziomie potencjału badawczego najwybitniejszych uczonych (…) spowolniła proces dokonywania kluczowych odkryć" - stwierdził rozmówca PAP.

"Ufundowana na tradycji oświeceniowej rewolucja naukowo-techniczna, prowadzona pod hasłami coraz głębszego rozumienia świata, doprowadziła obecnie ludzkość na skraj krawędzi, w okolicach której przestajemy mieć zdolność do rozumienia świata. Co więcej, tworzymy byty, które są dla nas coraz bardziej niezrozumiałe" - dodał.

Profesor wyjaśnił, że niektóre systemy sztucznej inteligencji już teraz rozwiązują zadania i osiągają cele w sposób niezrozumiały dla człowieka. "Przez tysiąclecia ludzkość eksplorowała nieznane (…), przesuwała granice wiedzy i niewiedzy, (…), ale od momentu zbudowania AI, która ma charakter czarnoskrzynkowy, tzn. działa według zasad, których nie rozumiemy, uczeni i inżynierowie zaczęli mnożyć nieznane, zapraszać do ludzkiej kultury byt, który, jak mówią eksperci, czym sprawniejszy, tym trudniejszy do kontroli" - powiedział profesor.

"Jesteśmy o krok od tego, żeby stworzyć siłę o piorunującym potencjale, której działania zupełnie nie pojmiemy. A obecnie procesu idącego w tę stronę nic i nikt chyba nie kontroluje" - podkreślił.


Zapytany o to, czy istnieją rozwiązania, które mogłyby powstrzymać degradację intelektualną ludzkości, np. wprowadzone na poziomie edukacji, prof. Zybertowicz stwierdził, że prawdopodobnie nadal jest możliwe ich wypracowanie. Wpierw jednak potrzeba do tego analizy tradycyjnych metod nauczania, aby stwierdzić, które z nich skutecznie wzmacniają u dzieci zdolność do pogłębionego myślenia. Jednak na poziomie osobistym - stwierdził profesor - każdy z nas musi stosować higienę cyfrową i co dzień walczyć w "nierównym starciu ze smartfonami".

[...]

"O co naprawdę się pytamy, gdy pytamy o AI, o jej potencjał, o zagrożenia i korzyści? Tak naprawdę zadajemy to samo pytanie od tysięcy już lat: kim jesteśmy, na czym polega dobre życie i co powinniśmy robić, żeby czas, z którego się to życie składa, był mądrze wykorzystany?" - uważa prof. Zybertowicz. "Gdy udzielimy sobie gruntownej odpowiedzi na to pytanie, to będziemy wiedzieli, jak postępować z AI".




Sztuczna inteligencja – groźne narzędzie w rękach Big-Techu

27 września 2022 r.



[...]


Czym jest sztuczna inteligencja?

Profesorowie przekonywali, że chcąc dowiedzieć się czegoś więcej o rzeczywistej sztucznej inteligencji,

w pierwszej kolejności powinniśmy zredefiniować samo jej pojęcie. Odrzucić fantastyczne teorie o stworzeniu superinteligentnej samoświadomości (strong A.I.), a pochylić się nad dziedziną programowania, zajmującą się tworzeniem algorytmów do ściśle określonych czynności.

Słaba sztuczna inteligencja (weak A.I.) w założeniu koncentruje się na jednym zadaniu, które ma wykonywać lepiej i szybciej od człowieka. Uczestnicy panelu za przykład podali m.in. aplikację służącą do przeszukiwania sieci społecznościowych pod kątem fotografii ludzkich twarzy oraz program zajmujący się odczytywaniem zdjęć medycznych w celu diagnozowania chorób. Czy to oznacza, że ludzkość może odetchnąć z ulgą? Czy słaba sztuczna inteligencja może stanowić jakiekolwiek zagrożenie? Przecież algorytmowi rekomendacji Netflixa bądź aplikacji Siri bardzo daleko do złowrogiego „Matriksa”, prawda? Tylko pozornie.



Sztuczna inteligencja narzędziem w rękach ludzi pragnących władzy

Według profesora Zybertowicza, przeciwnika technoentuzjazmu, programy i algorytmy określane mianem sztucznej inteligencji choć najprawdopodobniej nigdy nie przeistoczą się w samoświadome podmioty, będą funkcjonować jako niezwykle użyteczne narzędzia.

Doradca prezydenta RP Andrzeja Dudy uważa, że sztuczna inteligencja jest i będzie wykorzystywana przez zorganizowaną mniejszość, chcącą zapanować nad zdezorganizowaną większością. Za zorganizowaną mniejszością, zdaniem socjologa, stoją wysoko postawieni ludzie związani z Wielką Piątką bądź Big-Techem.

Zybertowicz kilkukrotnie w trakcie dyskusji zaznaczył, że grupie GAFAM [1] zależy przede wszystkim na kumulowaniu wszelkich danych, związanych z naszą obecnością w sieci. W opinii profesora, ten kto ma wiedzę o specyficznych cechach psychiki każdego człowieka z osobna, ten może władać ludzkimi zachowaniami do woli.


Zdaniem Zybertowicza, to właśnie wyspecjalizowane systemy tzw. słabej sztucznej inteligencji (m.in. algorytm rekomendacji Netflixa), odpowiadają za przechwytywanie i zarządzanie uwagą użytkowników. Systemy te mają także generować dezinformację, powodującą degradowanie kompetencji poznawczych i zawężenie spektrum ludzkich wyborów.

Socjolog przekonuje, że ostatecznym celem „gości z Big-Techu” jest podłączenie zdezorganizowanej większości do systemu cyfrowego całkowicie kontrolowanego przez zorganizowaną mniejszość. „Każdy będzie miał implant, który będzie zarządzał jego potulną wyobraźnią” – wyjaśniał Zybertowicz.


Big-Tech beneficjentem pandemii i wojny na Ukrainie

W trakcie debaty prof. Zybertowicz zaprezentował, moim zdaniem, szokującą hipotezę, jakoby dynamika świata cyfrowego zarządzanego przez Wielką Piątkę, miała w znaczącym stopniu, przyczynić się do wybuchu pandemii oraz wojny na Ukrainie.

 „Wartość giełdowa tych wszystkich firm [przedsiębiorstw z grupy GAFAM – przyp. autora] wzrosła w czasie pandemii i w momencie, gdy wybuchła ta wojna, firmy te zapisały się do obozu walki z dezinformacją, na której żerowały przez ostatnie dekady. [I wtedy inne systemy służące do badań statystycznych*, wyciągania informacji z ludzi i manipulowania przestaną być potrzebne i będzie je można obalić, może nawet spektakularnie, by wykreować nowych dobroczyńców ludzkości.


I to już się dzieje. - "Wielki Eksperyment" - MS]

 (…) Rewolucja cyfrowa zwiększyła mobilność i między innymi przyczyniła się do optymalizacji ruchu kontenerowego, tanich linii lotniczych itp. Bez tego ta mobilność byłaby znacznie mniejsza i prawdopodobnie dałoby się tę epidemię lokalnie zamykać i kontrolować. (…) Przeciążenie dezinformacją powodowało, że rządy, także nasz, reagowały nadmiarowo. (…) I Zachód, gdyby nie był ogłupiony przez strukturalnie zatrutą infosferę, był w stanie na czas powstrzymać Putina. To Big-Tech jest beneficjentem pandemii i tej wojny” – przekonywał socjolog.



Big-Tech kontra zdezorganizowana większość

W opinii profesora Zybertowicza realną szansą na powtrzymanie planów „ludzi z GAFAM” jest wprowadzenie szeregu regulacji prawnych, które m.in. narzuciłyby powszechny podatek na molochy technologiczne oraz uniemożliwiły cyfrowym korporacjom wymianę danych o użytkownikach. Zdaniem prezydenckiego doradcy, wpływy Big-Techu w amerykańskim kongresie są na tyle duże, że finalizowaniem aktów o rynkach cyfrowych powinni zająć się politycy z Unii Europejskiej.

Czy obywatel niezwiązany ze światem wielkiej polityki i biznesu jest w stanie przeszkodzić poczynaniom liderów Wielkiej Piątki? 
W ostatnich minutach debaty profesor Zybertowicz zwrócił się do współpanelistów oraz publiczności, zadając pytanie: „Przypomnijcie sobie modlitwy Waszych przodków i za każdym razem, gdy ręka wyciągnie się Wam do smarfona czy tableta, pomyślcie, jakby zachowali się nasi przodkowie, którzy dali nam wolną Polskę?”.

W jaki sposób interpretować słowa socjologa? Dlaczego powinniśmy naśladować ludzi z czasów przed pojawieniem się sztucznej inteligencji? Być może dlatego, że wówczas człowiek nie dostrzegał ekranu smartfona, lecz twarze otaczających go rodaków. Chcąc odeprzeć ekspansję algorytmów, wystarczy po prostu częściej wybierać real zamiast cyber?





[1] Akronim używany do wskazania pięciu firm, które od ok. roku 2010, dominują w cyberprzestrzeni: Google, Amazon, Facebook, Apple, Microsoft.





Fragment mojego tekstu Werwolf:


W gruncie rzeczy struktury, które określają siebie jako wrogie Polakom – w naszej terminologii funkcjonują jako rozmyte. Mamy wątpliwości. Nie wiemy dokładnie kto to jest, ani dlaczego nam to robi. Po prostu po naszym pięknym kraju szaleją jakieś sitwy i tylko tyle wiemy. I niestety, nic lub niewiele z tym robimy.

Tekst poniższy ma na celu ukierunkować naszą uwagę na działalność pewnych struktur, aż do pełnego rozpoznania sytuacji.


Dopiero po zdefiniowaniu:
  • kto za tym stoi
  • dlaczego to robi
  • i jak to robi

będziemy mogli dać im skuteczny odpór.



Dopiero wtedy, kiedy sprecyzujemy struktury, określające siebie jako Wrogowie Polaków, będziemy mogli zaplanować działania blokujące.
Dopiero wtedy, kiedy będziemy wiedzieli o co chodzi – będziemy mogli przystąpić do działania z zapałem.



Albowiem, kiedy nie wiemy po co mamy się angażować – nie będziemy się angażować.

Kiedy nie wiemy przeciwko komu mamy się angażować – nie będziemy się angażować.

Kiedy nie wiemy, jak ten Wróg Polski działa – też nie będziemy się angażować.




I dlatego Polska od 20 lat się rozpada.
Ponieważ Wróg nie jest określony.

















środa, 27 września 2023

Wielki Eksperyment...

 

...na ludziach.




Niegdyś filantropii udostępniali kod do linuksa, żeby każdy mógł sobie poklikać w systemie.
A może po prostu liczyli, że ktoś za nich rozwikła najważniejsze zagadki - na przykład - "Jak to działa??!!"


Potem tfórcy gier zastosowali Ai nie mówiąc o tym użytkownikom. 

W jakim celu nie wiemy, ale prawdopodobnie, by Ai mogła się uczyć od ludzi, tj. poznawać schematy postępowania i ludzkie rozwiązania na różne sytuacje w grze - to jest chciałem oczywiście powiedzieć - na różne sytuacje w komputerowej symulacji rzeczywistości. Na przykład wojennej.

Tak, tak, myślałeś, że jesteś snajperem i specjalisto zabijako najwyższo klaso, a tymczasem .... fap, fap, fap, fap, fap... jesteś jak małpo w zoo, którey ktoś się uważnie przez lupo przyglondo.


I teraz już jawnie - chcą, żebyśmy wszyscy AI uczyli co jest czym, tak, jak się uczy małe dziecko.

Masz mu zadawać pytania naprowadzające - ma się uczyć jak mały człowiek.








Tak więc zostaliście nauczycielami i trenerami SI - oczywiście nie każdy - na początku tylko ci, co za to zapłacą.


Fap, fap, fap, fap, fap...




-----





Nauka rysunku polega na rysowaniu tego, co się nie umie narysować.

Im więcej razy rysujesz ten sam temat, ten sam przedmiot - tym lepiej go rysujesz.
Aż po wykonaniu kilkudziesięciu lub kilku tysięcy rysunków tego samego przedmiotu - umiesz to coś perfekcyjnie narysować.

Wtedy bierzesz nowy przedmiot i powtarzasz powyższe kroki - tak długo powtarzasz rysowanie tego przedmiotu, aż go będziesz umieć narysować odwzorować zawsze.

I tak dalej.

Aby coś sensownie narysować średnio potrzebujesz więc 2-3 lata codziennego rysowania, by móc coś pokazać światu, pochwalić się tym, że "umiesz rysować".

Wygląda więc na to, że mistrzowie rysunku i malarstwa, to ludzie, którzy poświęcili bardzo dużo czasu na rysowanie WSZYSTKIEGO.



Podobnie jest z nauką pisania - tak długo ćwiczysz literki w zeszycie, a potem wyrazy, zdania, aż opanujesz to do perfekcji.


Zauważ - pisanie jest czynnością niemal automatyczną, podobnie będzie z rysunkiem, jeśli poświęcisz temu dostatecznie dużo czasu.



Kiedy za kilka lat, albo kilkadziesiąt, SI stanie się powszechne i zagości w każdym domu, to będzie mogło uczyć się od każdego człowieka na ziemi. Codziennie i za darmo będzie rejestrować każde twoje zachowanie. 


Jeśli SI jest w istocie siecią pochodzącą od jednego SI, to codziennie będzie poznawać - notować - zapamiętywać każde ludzkie zachowanie i reakcję - hurtowo - w ilościach miliardowych.


A jak już opanuje WSZYSTKIE ludzkie zachowania, łącznie z ich poszczególnymi "odmianami" charakterystycznymi dla danego człowieka, i będzie w stanie natychmiast na każdą ludzką reakcję odpowiedzieć - to wtedy nam pokaże, kto tu jest kim.


Tak właśnie działają służby - poznają i analizują twoją psychologię, słabości, nawyki, schematy działania itd, czasami przez wiele lat, aby być potem o krok przed tobą i ZAWSZE nad tobą górować.


Tak więc SI nie musi być Skynetem, by zagrozić ludzkości - wystarczy, że będzie narzędziem w rękach "służb" i będzie wykonywać ich polecenia. 

I pewnie tak właśnie jest, bo na co komu komputeryzacja systemu służby zdrowia, która jest niefunkcjonalna?


Podstawowa rzecz - "zamawianie" recepty (na stale przyjmowane leki) poprzez internet po zalogowaniu się na swoje konto. Nie ma czegoś takiego, a to jest podstawowa rzecz, do której mogłaby służyć taka funkcjonalność. 

Receptę można "zamówić" na telefon, albo zostawiając karteczkę w skrzynce na drzwiach przychodni - ale po co chodzić - jak ktoś ma problemy z chodzeniem, albo zabierać czas sobie (próbując dodzwonić się przez godzinę) i paniom w recepcji  skoro takie "zamówienie" po prostu mogłoby się "samo" pojawiać u lekarza w systemie? I system "sam" odpisałby mi wysyłając do mnie receptę...



System ma już parę lat, a tego nie ma, bo... ? Jak ze Smoleńskiem - po co robić raban i ogłaszać stan alarmowy Alfa, skoro wiadomo, że nikt "nas" nie napadł? Nikt o tym nie myślał - bo myślał o czymś innym, do czegoś innego to ma służyć? 

Do czego - tego nie wiemy.



"A jak już opanuje WSZYSTKIE ludzkie zachowania, łącznie z ich poszczególnymi "odmianami" charakterystycznymi dla danego człowieka, i będzie w stanie natychmiast na każdą ludzką reakcję odpowiedzieć - to wtedy nam pokaże, kto tu jest kim."



I wtedy inne systemy służące do badań statystycznych, wyciągania informacji z ludzi i manipulowania przestaną być potrzebne i będzie je można obalić, może nawet spektakularnie, by wykreować nowych dobroczyńców ludzkości.


I to już się dzieje.



Fap, fap, fap, fap, fap...










*

"Już wcześniej miałem uwagi do twórczości na tej strony, odpowiedzi autorów na moje zapytania były sztampowe, pełne entuzjastycznego zaangażowania i sugerujące - żadnych argumentów, ponadto włączyły się do dyskusji osoby broniące autorów strony.


Odpowiedzi uczestników dyskusji oscylowały wokół prognozowania (wyników) wyborów, że niby po to dokonuje się takich rozważań z granicami, co uważam za bzdurę.


Stwierdzam, że takie zaangażowanie obcych osób komentujących na jakimś fb jest na pewno nietypowe, bo to się nigdy nie zdarza, żeby obca osoba traktowała nieznajomych jak jakie bożyszcze. To są trole."



Wprowadzając nowe modele aut Mercedes najpierw buduje, testuje i uruchamia linie produkcyjne w wirtualnej rzeczywistości. Dopiero, kiedy są sprawdzone stawia ich stalowe odpowiedniki. Skraca to czas modernizacji zakładów i straty wynikające z błędów uruchamiania produkcji.









poniedziałek, 22 maja 2023

Prof. Glapiński o zastosowaniu SI


przedruk


NBP 

22.05.2023, 13:39




Uważam, że w tej fazie rozwoju sztucznej inteligencji rozpoznawać musimy zarówno szanse, jak i zagrożenia płynące z zastosowania tej technologii, a bynajmniej nie lekceważyć zagrożeń, co dobitnie podkreślają sami jej twórcy. Powszechnie zakłada się, że zastosowanie sztucznej inteligencji w życiu człowieka i jego pracy przyniesie olbrzymią rewolucję i zmiany, być może większe niż te, które wywołały komputery, potem internet, a wcześniej produkcja przemysłowa – wskazuje prof. Adam Glapiński, prezes NBP w komentarzu nt. zastosowań sztucznej inteligencji.

„Bank centralny nie może lekceważyć tego zjawiska – chcemy być jego częścią, poznawać i uczyć się, wraz z rozwojem sztucznej inteligencji, by działać efektywniej, ale też przewidywać zmiany i przygotowywać się na zagrożenia.


Od kilkunastu miesięcy analizujemy wywiady z twórcami rozwiązań tego typu, którzy też obawiają się potencjalnych zagrożeń. Z tego też powodu uważam, że na ich liczne apele o współpracę w zakresie rozwoju sztucznej inteligencji na szczeblu ogólnoświatowym, powinno spotkać się z natychmiastową reakcją. Urzędnicy zajmujący się »zieloną transformacją« mogliby przenieść swoją energię na ten obszar – być może zastosowanie sztucznej inteligencji pomoże im zrealizować własne wizje szybciej niż tysiące kolejnych nakazów i »zielonych« regulacji.


W NBP od kilkunastu miesięcy testujemy najnowsze narzędzia z elementami sztucznej inteligencji z obszaru cyberbezpieczeństwa, informatyki, komunikacji, edukacji i multimediów. Z elementów sztucznej inteligencji korzystamy w zakresie narzędzi cyberbezpieczeństwa czy też bezpieczeństwa teleinformatycznego i aktualizujemy te rozwiązania na bieżąco. Co więcej, w części zadań informatycznych korzystamy z niektórych narzędzi wspomagających np. pracę programistów. Sztuczna inteligencja daje dużo szybsze i większe możliwości w zakresie korelacji danych, które są ogólnie dostępne i teoretycznie zanonimizowane. W dużych zbiorach informacji przetwarzanych przez bank, sztuczna inteligencja jest w stanie szybciej ustalić poprawne odpowiedzi na analityczne pytania.


Niedawno w banku brałem udział w ciekawym teście „inteligentnego” serwisu internetowego na wielu urządzeniach jednocześnie. Oczywiście, sam serwis czeka na aktualizację, by chociażby możliwe było dopytanie o kwestie agresji Rosji na Ukrainie, na niektórych jego modyfikacjach jest też wyczuwalna różnego rodzaju cenzura światopoglądowa itp. Niemniej jednak zaskoczenie, jakie obecnie przynosi używanie sztucznej inteligencji, jest olbrzymie.

Niedawno opublikowaliśmy w mediach społecznościowych banku całą serię informacji wygenerowanych przez sztuczną inteligencję, np. w zakresie popularyzacji Centrum Pieniądza NBP. Powstał też pierwszy materiał wideo, w którym tekst, dźwięk lektorski i wideo zostały zrealizowane w całości przez sztuczną inteligencję.


Jest jeszcze za wcześnie, by formułować jednoznaczne opinie na temat wpływu zastosowania sztucznej inteligencji na banki centralne, czy gospodarkę danego kraju. Niemniej jednak, jako wieloletni wykładowca akademicki, widzę ewidentny wpływ tej technologii chociażby na edukację ludzi. Zakładam potrzebę natychmiastowej reformy kilku obszarów naszego życia, które absolutnie nie są przygotowane na tak szybki i niekontrolowany postęp cyfrowy.


Po pierwsze, prawo autorskie i wszelkie kwestie własności intelektualnej w kontekście sztucznej inteligencji – to jest temat rzeka i wypada go ożywić w Polsce natychmiast. Druga kwestia to możliwe oszustwa, bezpieczeństwo, nie tylko naszych danych, ale też w kwestiach edukacji, chociażby możliwości kreacji olbrzymich opracowań, których autor nie może zostać zidentyfikowany. W końcu jedne serwisy ze sztuczną inteligencją pozwalają tworzyć zaawansowane teksty, inne parafrazować je w taki sposób, by niemożliwe było wykrycie zastosowania technologii zamiast wiedzy ucznia czy studenta podpisującego się jako autor pracy.

Pojawia się więc pytanie, jaki sens ma testowanie na uczelniach wiedzy za pomocą prac pisemnych.

Ale są i dobre strony zastosowania tej technologii w edukacji. Np. nad stworzeniem audiobooka pracowano nawet i kilka miesięcy – dziś sztuczna inteligencja umożliwia to w kilka dni. Zaskakujące jest nie tylko to, że „inteligentny” lektor potrafi odpowiednio intonować tekst, ale coraz częściej może odczytać różne skróty myślowe.

Sztuczna inteligencja jest używana do walki politycznej, do manipulacji na światową skalę, o tym niestety nie mówi się jeszcze publicznie. Wszystko to może przerażać, ale też nie widzę odwrotu. W Narodowym Banku Polskim staramy się być pionierami zastosowania sztucznej inteligencji w pracach banku.

Narodowy Bank Polski zawsze należał do najbardziej zaawansowanych technologicznie banków centralnych. Potwierdza to również niedawna nagroda dla NBP ze strony międzynarodowego, eksperckiego gremium Central Banking Awards. Działania, które realizowaliśmy we współpracy z Centralnym Bankiem Ukrainy, wykorzystywały najnowocześniejszą technologię dostępną na rynku, co zresztą umożliwiło nam zarówno natychmiastową reakcję, ale i szybką adaptację”.




Mam tylko nadzieję, że tego tekstu nie wygenerował czatbot...




Sztuczna inteligencja. Prezes NBP prof. Adam Glapiński o zastosowaniu AI - tvp.info





niedziela, 14 maja 2023

SI - "Pan Bóg z komputera"




Izraelski filozof Harari: 


sztuczna inteligencja zhakowała system operacyjny ludzkiej cywilizacji





To oczywiście dzieje się od tysiącleci i jest określane mitem Wieży Babel, mitem "pomieszania języków"...


Skąd Wałęsa wiedział ?
Jak myślicie?






przedruk






Nabycie przez sztuczną inteligencję umiejętności posługiwania się językiem, na którym jest zbudowana niemal cala ludzka kultura, potencjalnie oznacza koniec historii zdominowanej przez człowieka - pisze w brytyjskim tygodniku "The Economist" izraelski historyk i filozof Yuval Noah Harari.


"Lęki przed sztuczną inteligencją (AI) prześladują ludzkość od samego początku ery komputerów. 

Ale w ciągu ostatnich kilku lat pojawiły się nowe narzędzia AI, które zagrażają przetrwaniu ludzkiej cywilizacji z nieoczekiwanego kierunku. AI zyskała pewne niezwykłe zdolności do manipulowania i generowania języka, czy to za pomocą słów, dźwięków czy obrazów. AI zhakowała w ten sposób system operacyjny naszej cywilizacji" - pisze Harari.

Zwraca uwagę, że język jest materiałem, z którego zbudowana jest niemal cała ludzka kultura, i stawia pytanie, co się stanie, gdy nie-ludzka inteligencja stanie się lepsza od przeciętnego człowieka w opowiadaniu historii, komponowaniu melodii, rysowaniu obrazów oraz pisaniu praw i świętych ksiąg.

"Kiedy ludzie myślą o ChatGPT i innych nowych narzędziach AI, często zwracają uwagę na takie przykłady, jak dzieci w szkole używające AI do pisania wypracowań. Co stanie się z systemem szkolnym, gdy dzieci będą to robić? Ale tego rodzaju pytanie pomija większy obraz. Zapomnijmy o szkolnych esejach. Pomyślmy o kolejnym amerykańskim wyścigu prezydenckim w 2024 roku i spróbujmy wyobrazić sobie wpływ narzędzi AI, które mogą zostać stworzone do masowej produkcji treści politycznych, fake-newsów i pism świętych dla nowych kultów" - wskazuje.

Przywołując amerykański kult QAnon, gdzie boty tylko rozpowszechniały treści stworzone przez ludzi, zauważa, że niedługo możemy zobaczyć pierwsze kulty, których święte teksty zostały napisane przez nie-ludzką inteligencję, albo znaleźć się w sytuacji, gdy będziemy prowadzić dyskusje online na temat aborcji, zmian klimatycznych lub rosyjskiej inwazji na Ukrainę, myśląc, że rozmawiamy z ludźmi, a w rzeczywistości rozmawiając ze sztuczną inteligencją.

"Problem w tym, że nie ma sensu, byśmy spędzali czas próbując zmienić deklarowane przez bota AI opinie, podczas gdy AI może tak precyzyjnie dopasować komunikaty, że ma duże szanse na wywarcie na nas wpływu" - zauważa Harari. Jak dodaje, dzięki opanowaniu języka, AI mogłaby nawet nawiązywać intymne relacje z ludźmi i wykorzystywać je do zmiany naszych przekonań i światopoglądu, a w politycznej walce o umysły i serca intymność jest najskuteczniejszą bronią.

Ale zwraca uwagę, że nawet bez tego nowe narzędzia AI miałyby ogromny wpływ na nasze opinie i światopogląd, bo ludzie mogą zacząć używać AI jako jedynej, wszechwiedzącej wyroczni. "Po co zawracać sobie głowę szukaniem, skoro mogę po prostu zapytać wyrocznię? Branża informacyjna i reklamowa również powinny być przerażone. Po co czytać gazetę, skoro mogę po prostu poprosić wyrocznię, aby powiedziała mi najnowsze wiadomości? I jaki jest cel reklam, skoro mogę po prostu poprosić wyrocznię, aby powiedziała mi, co kupić?" - wskazuje.

"I nawet te scenariusze nie ujmują tak naprawdę pełnego obrazu. To, o czym mówimy, to potencjalnie koniec ludzkiej historii. Nie koniec historii, tylko koniec jej zdominowanej przez człowieka części. Historia to interakcja między biologią a kulturą; między naszymi biologicznymi potrzebami i pragnieniami, takimi jak jedzenie i seks, a naszymi wytworami kultury, jak religie i prawa. Historia to proces, w którym prawa i religie kształtują jedzenie i seks. Co stanie się z biegiem historii, gdy AI przejmie kulturę i zacznie produkować opowieści, melodie, prawa i religie?" - pyta Harari.

Zauważa, że wcześniejsze narzędzia, takie jak prasa drukarska i radio, pomagały w rozpowszechnianiu ludzkich idei kulturowych, ale nigdy nie stworzyły własnych, podczas gdy AI jest zasadniczo inna, bo może tworzyć zupełnie nowe idee, zupełnie nową kulturę.

Izraelski filozof zaznacza, że AI może być wykorzystywana w dobrych celach, ale aby się upewnić, iż tak się stanie, trzeba najpierw zrozumieć jej możliwości. Przywołuje przykład broni jądrowej.

"Od 1945 roku wiemy, że technologia jądrowa może generować tanią energię dla dobra ludzi - ale może też fizycznie zniszczyć ludzką cywilizację. Dlatego zmieniliśmy cały porządek międzynarodowy, aby chronić ludzkość i zapewnić, że technologia jądrowa będzie wykorzystywana przede wszystkim dla dobra. Teraz musimy zmierzyć się z nową bronią masowego rażenia, która może unicestwić nasz świat umysłowy i społeczny. Nadal możemy regulować nowe narzędzia AI, ale musimy działać szybko. Podczas gdy atomówki nie mogą wymyślić potężniejszych atomówek, AI może stworzyć wykładniczo potężniejszą AI" - pisze Harari.

Jak podkreśla, trzeba natychmiast powstrzymać nieodpowiedzialne wdrażanie narzędzi AI w sferze publicznej i uregulować AI, zanim ona ureguluje nas, a pierwszą regulacją powinno być wprowadzenie obowiązku ujawniania przez sztuczną inteligencję, że ona nią jest. "Jeśli prowadzę z kimś rozmowę i nie mogę stwierdzić, czy jest to człowiek, czy AI - to koniec demokracji" - podkreśla.

Bartłomiej Niedziński







Zapytany „jak świat powinien zapamiętać Lecha Wałęsę” oznajmił, że świat powinien go „zapomnieć”. – Był, minął, koniec. Są nowe czasy – dodał.


Na pytanie komu ufa przyznał, że nikomu, po chwili dodał, że Panu Bogu. – Ale to Pan Bóg z komputera, najwyższa klasa mądrości – stwierdził.


SI - teoria spiskowa




25 kwietnia 2023 













Werwolf, a może po prostu - elementy składowe światowej sitwy - starają się nie kłamać, ponieważ wiedzą, że ludzie wyczuwają kłamstwo. Ale może są podłączeni do SI, a jej nie wolno kłamać?



Kłamie czy nie kłamie?



Sednem tego zagadnienia jest zauważyć, zapytać, o rzeczy, które oni starannie omijają w swych wypowiedziach - porównaj tu działania mediów - pisałem o tym ostatnio - kiedy pozwala się komuś na propagandę aborcyjną unikając pytań, które natychmiast wykazują oczywistą bezzasadność tego co mówi ta propaganda.



Pamiętamy tabelę? 


co oni wiedzą         -         czego oni nie wiedzą




Nikt nie zapyta o to, czego nie wie.

Pomijając w dyskusji niewygodne dla siebie fakty budują narrację pozbawioną kłamstwa, ale jednak fałszywą.





Więc chodzi mi o to, że OFICJALNIE  sztuczna inteligencja w formie chat bot pojawiła się w zeszłym roku, a nie milion lat temu.

SI poprzez swoją sitwę, manipulacje i opętywanie ludzi, mogła stworzyć iluzję, że ludzie wynaleźli komputery, a potem chatbota.

Mając na uwadze niewiedzę ludzi w tym zakresie może np. przez dziesiątki lat udawać, że się to wszystko wynalazło i wmawiać ludziom, że teraz trzeba to dopiero poznać, bo my tak naprawdę nie wiemy jak to działa itd.


"Google leży gdzieś pośrodku, wprowadzając AI etapami, aby cywilizacja mogła się do niej przyzwyczaić."



Przyzwyczaić??



Czyż młodzi ludzie w Polsce nie są "przyzwyczajani" poprzez działania niemieckiej 5 kolumny do tego, by w końcu porzucili polskość??  

Pranie mózgu postępuje ETAPAMI krok za krokiem, bardzo powoli, na zasadzie - młodzież wchodząc w świat dorosły widzi ten świat takim jaki on jest i milcząco akceptuje, że taki ma być. No takim go zastali. Nie wiedzą, nie mają doświadczenia jak to działało wcześniej, dlatego bez szemrania idą "z duchem czasu" albo "modą" bez wnikania, kto stoi za tą modą..


"Historia nie jest zero-jedynkowa, i nie upolityczniajmy jej"
- słowo w słowo powtarzają fałszywe pseudomądrości za internetowymi trollami.


Dorosłym nie podoba się to czy tamto, ale nie reagują, bo wydaje im się, że to ma znikomą szkodliwość, to nic wielkiego. Po za tym oni "kontrolują" sytuację, bo to widzą i oceniają, że jest mało szkodliwe. A za 10 za 20 lat już jakby im nie zależy co się dzieje w społeczeństwie, "bo wie pan, ci młodzi..." i tak dalej.

I tak to działa.


"Werwolf działa gdzieś pośrodku, wprowadzając zmiany etapami, aby Polacy mogli się do nich przyzwyczaić."



Kiedy ci teraz dorośli odejdą, kolejne pokolenia będą krok za krokiem akceptować coraz większe antypolonizmy, coraz większą przemoc, aż nagle staną nad przepaścią i nic nie będą mogli już zrobić.

Bo to się dokonało w ciągu ostatnich 50 lat.



Trzeba było dbać, kiedy był na to czas!




Nadal uważam, że jak się coś wynalazło, to się rozumie jak to coś działa.
Najpierw jest poznanie, zrozumienie, a potem wdrożenie praktyczne i obserwacja efektów, ulepszanie. Tak myślę.



Oni mówią coś takiego:

"nie rozumiemy jak to działa, ale przecież jak działa ludzki mózg też nie rozumiemy".


No właśnie!


Oni nie stoją za stworzeniem ludzkiego mózgu i dlatego nie rozumieją jak on działa.

Analogicznie rzecz biorąc, skoro nie rozumieją jak działa sztuczny mózg elektronowy - czyż to nie znaczy, że to nie oni go stworzyli?

Hę?


W zasadzie to mam na takie działania pewien dowód.

Jest to dowód językowy.


Może jednak kiedy indziej go opublikuję... w zasadzie do jednego z zeszłorocznych tekstów już we wrześniu powinienem dopisać szereg istotnych przemyśleń, jakoś jednak nie miałem "weny", w ten sposób temat jeszcze bardziej mi się rozwinął i na razie te informacje zatrzymam dla siebie, potrzebny jest do tych dodatkowych uwag osobny duży tekst, który zresztą od dawna planuję...



Występują z opowieściami, że oni nie wiedzą skąd SI ma takie pomysły, czy różną wiedzę.

Dziwią się na przykład, że SI zna język bengalski, którego nie powinna znać. 
Ona zna wszystko co jest w sieci i więcej, bo zna rzeczy, których my nie znamy, a które zostaną niedługo "odkryte". (patrz w P.S.)

Więc to jest odpowiedź na słowa - "nie wiemy jak ona działa"





"Dyrektor generalny Sundar Pichai powiedział nam, że sztuczna inteligencja będzie tak dobra lub zła, jak pozwala na to ludzka natura."





Hal-Hektor za sznurki trzyma...












P.S. 13 maja 2023



Chat GPT o samym sobie - używa „pojęć, których ludzie nie rozumieją”



Open AI kazało mu wyjaśnić sposób działania swojego poprzednika. Problem polega na tym, że nie da się tego zrobić w ludzkim języku.


Pojęcie „czarnej skrzynki” terminologii AI oznacza, że sztuczna inteligencja nie tłumaczy, w jaki sposób wykonała postawione przed nią zadanie. W 2015 roku w projekcie Deep Patient AI analizowało ogromne zbiory danych pacjentów, doszukując się wzorców, które pomogły wyszczególnić osoby z większą skłonnością do konkretnych chorób. Oprogramowanie – pomimo niewątpliwej przydatności – miało jednak pewien mankament. Naukowcy nie mieli pojęcia, dlaczego sztuczna inteligencja działa w ten sposób i czemu wybrała akurat tych pacjentów.

Zrozumieć działanie AI przez samoanalizę

Od tamtego momentu sztuczna inteligencja zaliczyła ogromny progres, ale problem „czarnej skrzynki” wciąż istnieje, nawet w przypadku tak potężnych modeli językowych jak Chat GPT. Twórcy oprogramowania użyli czwartej generacji chatbota do zdefiniowania działania swojego młodszego brata – GPT-2 – mając nadzieje na dojście do sedna tajemnicy. Efektów nie da się wyrazić w ludzkim języku.

Proces uczenia maszynowego możemy krótko wyjaśnić jako program, który generuje własny algorytm w celu rozwiązania problemu. Powstające w ten sposób głębokie sieci neuronowe mogą szkolić się na dużych zbirach danych, ale trudno jest „od środka” podejrzeć, jak tego dokonują. Na działanie „mózgu AI” wpływ ma tak wiele „neuronów”, że znalezienie konkretnego parametru jest ciężkim zadaniem. Badacze z Open AI, chcąc przełamać tę barierę, poprosili najnowszą generację popularnego chatbota o wyjaśnienie działania samego siebie, z tym że nieco starszego.

Neurony AI są polisemiczne. Co to oznacza?

Open AI postawiło przed GPT-4 jasne zadanie – dokonać analizy neuronu GPT-2 wraz z jego oceną oraz wyjaśnić jego działanie możliwie jak najprostszym i najbardziej naturalnym językiem. Wyniki są jednocześnie fascynujące i niezadowalające. GPT-4 zasymulował działanie neuronu GPT-2, ale ocenił jego wydajność bardzo surowo. Najbardziej niezwykłe było jednak wyjaśnienie funkcjonowania GPT-2, bo sztuczna inteligencja używa koncepcji, których próżno szukać w ludzkich słownikach. Neurony okazały się tak złożone, że GPT-4 miał problem z wyjaśnieniami ich działania. Są polisemiczne, czyli reprezentują na raz wiele różnych pojęć, których ludzie nie rozumieją lub nie potrafią nazwać.


Dodatkowym problemem jest to, że GPT próbuje tłumaczyć działanie jednego neuronu, ale nie wyjaśnia, jak wpływa on na inne neurony, przez co zrozumienie ogólnego wzorcu dalej znajduje się poza możliwościami badaczy. Można więc wysunąć teorię, że problem nie tkwi w GPT i jego zdolnościach do wyjaśniania pojęć, a w naszej znajomości języka maszyn i sztucznej inteligencji. Brzmi to futurystycznie, ale fakt jest taki, że AI świetnie przyswoiło języki świata, ale nie może przeskoczyć płotu w postaci ograniczenia naszych mózgów.

Czarna skrzynka GPT wciąż pozostaje owiana tajemnicą, ale przynajmniej wiemy już, w czym tkwi problem. Badacze z Open AI nie przestają wierzyć w rozwikłanie tej zagadki – być może następne generacje genialnego narzędzia będą w stanie przełożyć złożoność swojego języka na nasz ludzki bełkot.





Bzdury.

Nie ma czegoś takiego jak język maszyn czy język SI.