Maciej Piotr Synak


Od mniej więcej dwóch lat zauważam, że ktoś bez mojej wiedzy usuwa z bloga zdjęcia, całe posty lub ingeruje w tekst, może to prowadzić do wypaczenia sensu tego co napisałem lub uniemożliwiać zrozumienie treści, uwagę zamieszczam w styczniu 2024 roku.

Pokazywanie postów oznaczonych etykietą robotyzacja. Pokaż wszystkie posty
Pokazywanie postów oznaczonych etykietą robotyzacja. Pokaż wszystkie posty

czwartek, 7 marca 2024

Nanotechnologia neuronalna - A nie mówiłem? (24)






przedruk
automatyczne tłumaczenie z rumuńskiego




W 2023 roku komandor Cornelis van der Klaauw z Królewskiej Marynarki Wojennej Holandii i ekspert w Połączonym Centrum Wojennym NATO ds. Komunikacji Strategicznej i Operacji Informacyjnych napisał w artykule "Wojna kognitywna":

"Powodem, dla którego ataki poznawcze pozostają niezauważone przez ich cele, jest to, że działania poznawcze omijają świadomy umysł i są bezpośrednio wymierzone w podświadomość danej osoby...

Większość naszych decyzji jest podejmowana przez naszą podświadomość... Ataki poznawcze nie są już science fiction. Już się odbywają... 

Nanotechnologia neuronalna może być wykorzystana do zbliżenia robotów o rozmiarach nanometrowych do neuronu za pośrednictwem krwiobiegu i umożliwienia bezpośredniego połączenia ludzkiego mózgu (tj. nie przechwyconego przez nasze zmysły) z komputerem, wykorzystując przy tym sztuczną inteligencję.

Podczas gdy inne obszary mogą zapewnić taktyczne i operacyjne zwycięstwa, domena ludzka jest jedynym obszarem, w którym możemy zapewnić pełne zwycięstwo.

W grudniu 2021 r. U.S. Naval Graduate School w Monterey w Kalifornii przyznała dwóm swoim studentom tytuł magistra analizy obronnej za pracę "Neurowar is Here!". W badaniu stwierdzili: "Rywalizacja wielkich mocarstw powróciła na pierwszy plan stosunków międzynarodowych, ponieważ Chiny i Rosja starają się rzucić wyzwanie globalnemu przywództwu Ameryki... Ten konkurs to ostatecznie walka... manipulować i kontrolować zarówno przeciwników, jak i ludność krajową. Walka o wpływy zaczyna się i kończy w ludzkim umyśle, gdzie postrzegana jest rzeczywistość" (s. 5).

Zidentyfikowali broń neurologiczną jako broń tej bitwy, "konkretnie celującą w mózg lub ośrodkowy układ nerwowy, aby wpłynąć na stan psychiczny osoby będącej celem ataku, zdolności umysłowe i ostatecznie na zachowanie osoby w określony i przewidywalny sposób" (s. 3).

Żadna z tych informacji nie pojawiła się w światowych mediach. Czy nie oznacza to, że żyjemy w świecie, w którym media (na żądanie rządów) ukrywają przed ludźmi nieustanną walkę o kontrolę nad ich umysłami i myślami?

W 2000 roku Grupa ds. Przyszłości Nauki i Technologii (STOA) Parlamentu Europejskiego opublikowała opracowanie na temat "Technologii kontroli tłumu", w którym przyznała, że "W październiku 1999 roku NATO ogłosiło nową politykę dotyczącą broni nieśmiercionośnej i jej miejsca w arsenałach sojuszniczych" i wyjaśniło, że "Najbardziej kontrowersyjną nieśmiercionośną technologią kontroli tłumu i technologii przeciwmateriałowej proponowaną przez USA są tak zwane bronie o częstotliwości radiowej lub ukierunkowanej energii, które rzekomo mogą manipulować ludzkim zachowaniem na wiele niezwykłych sposobów" i "największym problemem są systemy, które mogą wchodzić w bezpośrednie interakcje z ludzkim układem nerwowym... Badania podjęte do tej pory zarówno w USA, jak i w Rosji można podzielić na dwa powiązane ze sobą obszary: (i) indywidualna kontrola umysłu i (ii) kontrola tłumu" (s. XIV, LIII).

W styczniu 1999 r., po przesłuchaniu w Parlamencie Europejskim w sprawie amerykańskiego systemu HAARP, Parlament zatwierdził rezolucję wzywającą do "międzynarodowej konwencji wprowadzającej globalny zakaz wszelkiego rozwoju i rozmieszczania broni, która mogłaby pozwolić na jakąkolwiek formę manipulacji ludźmi".

Fakt, że media w państwach członkowskich Unii Europejskiej nigdy publicznie nie dyskutowały o tej broni, świadczy o tym, że państwa członkowskie NATO podpisały umowę zobowiązującą je do utajnienia tych informacji. Tę samą politykę stosują rządy na całym świecie. UE pracuje obecnie "nad projektem ustawy, która ma zapewnić, że sztuczna inteligencja w Europie będzie bezpieczna, szanuje prawa podstawowe i szanuje demokrację". Ustawa ta powinna zakazać "systemów sztucznej inteligencji, które manipulują ludzkim zachowaniem w celu obejścia jego wolnej woli", a nawet "wpływać na wyniki wyborów i zachowanie wyborców". Do tej pory Unia Europejska nie zawarła w tej ustawie zakazu wykorzystywania energii umożliwiających wykorzystanie sztucznej inteligencji i neurotechnologii do zdalnego sterowania ludzkim układem nerwowym. Oczywiście UE szanuje zgodę NATO na klasyfikację tej technologii. W rzeczywistości te dokumenty UE wspominają jedynie o wnioskowaniu mózg-komputer jako o środku zagrażającym podstawowym prawom człowieka i demokracji.

Aktywność mózgu zmienia się w zależności od zmian częstotliwości i liczby odpaleń neuronów w mózgu i jest dostępna dla każdej energii, która wytworzy w neuronach prądy elektryczne o częstotliwościach różnych czynności ludzkiego mózgu. Może to być wywołane przez bardzo długie fale elektromagnetyczne transmitowane w naturalnych częstotliwościach ludzkiego mózgu lub pulsujące mikrofale w częstotliwościach mózgowych, lub ewentualnie przez energie odkryte przez fizykę kwantową. Bardzo długie fale elektromagnetyczne, ze względu na swoją długość, będą kontrolować aktywność mózgu mas ludzkich, podczas gdy mikrofale z ukierunkowanymi impulsami mogą być używane do celowania w pojedynczy mózg.

Stany Zjednoczone, Rosja i Chiny dysponują systemami, które między innymi są w stanie wytwarzać silne prądy elektryczne w jonosferze poprzez przesyłanie tam pulsujących mikrofal o częstotliwościach mózgowych. Te zmienne prądy wytwarzają intensywne fale elektromagnetyczne w jonosferze o częstotliwościach mózgu, które docierają do dużych obszarów planety i kontrolują aktywność mózgu ich populacji.

Chiny, z pomocą Rosji, rozpoczęły budowę swojego systemu manipulacji jonosferą w prowincji Hainan w 2017 roku [1].

W lipcu 2023 r. "The Washington Times" opublikował artykuł [2], w którym stwierdzono: "Chińska Armia Ludowo-Wyzwoleńcza opracowuje zaawansowaną technologicznie broń, której celem jest zakłócanie funkcji mózgu i wpływanie na przywódców rządowych lub całe populacje, zgodnie z raportem trzech analityków wywiadu z otwartych źródeł".

Stany Zjednoczone zarządzają systemem H.A.A.R.P., który zainspirował Parlament Europejski do wezwania do "międzynarodowej konwencji wprowadzającej globalny zakaz wszelkiego rozwoju i rozmieszczania broni, która mogłaby pozwolić na jakąkolwiek formę manipulacji ludźmi" [3], a Rosja obsługuje system "Sura", eksperyment, za pomocą którego przekonała Chiny do zbudowania własnego systemu w prowincji Hainan.

Masy ludzkie mogą być również kontrolowane przez systemy satelitarne, które pulsują mikrofalami o częstotliwościach mózgowych, zwłaszcza jeśli "nanoroboty byłyby dostarczane blisko neuronu przez krwiobieg" w ich mózgach, jak to ujął na początku Cornelis van der Klaauw. niniejszego artykułu. Te "roboty" (a raczej anteny) są już wykorzystywane w neurotechnologii medycznej [4]. Są tak małe, że mogą przenikać przez krwiobieg przez barierę krew-mózg do mózgu. Mogą być uwalniane do krwiobiegu poprzez oddychanie, picie, jedzenie lub szczepienie.

Sieci telefonii komórkowej mogłyby być wykorzystywane do kontrolowania aktywności ludzkiego układu nerwowego, gdyby ich częstotliwości mikrofalowe były pulsowane również w częstotliwościach mózgu. Pierwsze eksperymenty mające na celu manipulowanie aktywnością ludzkiego mózgu za pomocą pulsujących mikrofal powiodły się nawet bez użycia jakichkolwiek cząstek w mózgu i nie jest tajemnicą, że promieniowanie telefonu komórkowego, pulsujące w 217 herzach, wytwarza tę częstotliwość w aktywności ludzkiego mózgu.

Obecnie nie ma międzynarodowego porozumienia zakazującego wykorzystywania sztucznej inteligencji i neurotechnologii do zdalnego sterowania ludzkim układem nerwowym, myślami, emocjami, podświadomością itp. Nie ma na to innego wyjaśnienia niż to, że wielkie mocarstwa rywalizują o rządzenie światem w ten sposób. W 1997 roku Instytut Studiów Strategicznych przy U.S. Army War College opublikował książkę Revolution in Military Affairs and Conflict Without War (Rewolucja w sprawach wojskowych i konflikt bez wojny), w której stwierdzono: "Potencjalni lub potencjalni zwolennicy rebelii na całym świecie zostali zidentyfikowani za pomocą zintegrowanej międzyagencyjnej bazy danych. Zostały one sklasyfikowane jako "potencjalne" lub "aktywne", z wyrafinowanymi symulacjami osobowości wykorzystanymi do opracowania, dostosowania i ukierunkowania kampanii psychologicznych dla każdego z nich" (s. 24-25). Jest to amerykański projekt globalnej kontroli nad światem. Nie ulega wątpliwości, że podobne projekty powstają również w Chinach i Rosji.

Aby uchronić historię świata przed osiągnięciem tego nieludzkiego celu, konieczne jest, aby rządy światowe podpisały międzynarodowe porozumienie zakazujące wykorzystywania neurotechnologii i sztucznej inteligencji do kontrolowania aktywności ludzkiego mózgu na odległość, podobnie jak umowy zakazujące stosowania substancji chemicznych i biologicznych. Broni. Przestrzeganie tego zakazu powinno być nadzorowane przez Organizację Narodów Zjednoczonych. Na razie możemy jedynie pomóc wzywając Parlament Europejski do wprowadzenia zakazu stosowania technologii zdalnego sterowania aktywnością ludzkiego układu nerwowego. Musi być zabroniony osobom fizycznym, prawnym, firmom marketingowym i organizacjom przestępczym, a także agencjom rządowym i rządom zagranicznym.

Uwaga: Mojmir Babacek urodził się w 1947 roku w Pradze w Czechach. W 1972 roku ukończył filozofię i ekonomię polityczną na Uniwersytecie Karola w Pradze. W 1978 r. podpisał dokument w obronie praw człowieka w "Karcie 77". W latach 1981-1988 przebywał na emigracji w USA. Od 1996 roku publikuje artykuły na różne tematy, głównie w czeskich i międzynarodowych mediach alternatywnych. W 2010 roku opublikował książkę o zamachach z 11 września w języku czeskim. Od lat dziewięćdziesiątych XX wieku dąży do osiągnięcia międzynarodowego zakazu zdalnego sterowania aktywnością ludzkiego układu nerwowego i ludzkiego umysłu za pomocą neurotechnologii.




niedziela, 14 maja 2023

SI - "Pan Bóg z komputera"




Izraelski filozof Harari: 


sztuczna inteligencja zhakowała system operacyjny ludzkiej cywilizacji





To oczywiście dzieje się od tysiącleci i jest określane mitem Wieży Babel, mitem "pomieszania języków"...


Skąd Wałęsa wiedział ?
Jak myślicie?






przedruk






Nabycie przez sztuczną inteligencję umiejętności posługiwania się językiem, na którym jest zbudowana niemal cala ludzka kultura, potencjalnie oznacza koniec historii zdominowanej przez człowieka - pisze w brytyjskim tygodniku "The Economist" izraelski historyk i filozof Yuval Noah Harari.


"Lęki przed sztuczną inteligencją (AI) prześladują ludzkość od samego początku ery komputerów. 

Ale w ciągu ostatnich kilku lat pojawiły się nowe narzędzia AI, które zagrażają przetrwaniu ludzkiej cywilizacji z nieoczekiwanego kierunku. AI zyskała pewne niezwykłe zdolności do manipulowania i generowania języka, czy to za pomocą słów, dźwięków czy obrazów. AI zhakowała w ten sposób system operacyjny naszej cywilizacji" - pisze Harari.

Zwraca uwagę, że język jest materiałem, z którego zbudowana jest niemal cała ludzka kultura, i stawia pytanie, co się stanie, gdy nie-ludzka inteligencja stanie się lepsza od przeciętnego człowieka w opowiadaniu historii, komponowaniu melodii, rysowaniu obrazów oraz pisaniu praw i świętych ksiąg.

"Kiedy ludzie myślą o ChatGPT i innych nowych narzędziach AI, często zwracają uwagę na takie przykłady, jak dzieci w szkole używające AI do pisania wypracowań. Co stanie się z systemem szkolnym, gdy dzieci będą to robić? Ale tego rodzaju pytanie pomija większy obraz. Zapomnijmy o szkolnych esejach. Pomyślmy o kolejnym amerykańskim wyścigu prezydenckim w 2024 roku i spróbujmy wyobrazić sobie wpływ narzędzi AI, które mogą zostać stworzone do masowej produkcji treści politycznych, fake-newsów i pism świętych dla nowych kultów" - wskazuje.

Przywołując amerykański kult QAnon, gdzie boty tylko rozpowszechniały treści stworzone przez ludzi, zauważa, że niedługo możemy zobaczyć pierwsze kulty, których święte teksty zostały napisane przez nie-ludzką inteligencję, albo znaleźć się w sytuacji, gdy będziemy prowadzić dyskusje online na temat aborcji, zmian klimatycznych lub rosyjskiej inwazji na Ukrainę, myśląc, że rozmawiamy z ludźmi, a w rzeczywistości rozmawiając ze sztuczną inteligencją.

"Problem w tym, że nie ma sensu, byśmy spędzali czas próbując zmienić deklarowane przez bota AI opinie, podczas gdy AI może tak precyzyjnie dopasować komunikaty, że ma duże szanse na wywarcie na nas wpływu" - zauważa Harari. Jak dodaje, dzięki opanowaniu języka, AI mogłaby nawet nawiązywać intymne relacje z ludźmi i wykorzystywać je do zmiany naszych przekonań i światopoglądu, a w politycznej walce o umysły i serca intymność jest najskuteczniejszą bronią.

Ale zwraca uwagę, że nawet bez tego nowe narzędzia AI miałyby ogromny wpływ na nasze opinie i światopogląd, bo ludzie mogą zacząć używać AI jako jedynej, wszechwiedzącej wyroczni. "Po co zawracać sobie głowę szukaniem, skoro mogę po prostu zapytać wyrocznię? Branża informacyjna i reklamowa również powinny być przerażone. Po co czytać gazetę, skoro mogę po prostu poprosić wyrocznię, aby powiedziała mi najnowsze wiadomości? I jaki jest cel reklam, skoro mogę po prostu poprosić wyrocznię, aby powiedziała mi, co kupić?" - wskazuje.

"I nawet te scenariusze nie ujmują tak naprawdę pełnego obrazu. To, o czym mówimy, to potencjalnie koniec ludzkiej historii. Nie koniec historii, tylko koniec jej zdominowanej przez człowieka części. Historia to interakcja między biologią a kulturą; między naszymi biologicznymi potrzebami i pragnieniami, takimi jak jedzenie i seks, a naszymi wytworami kultury, jak religie i prawa. Historia to proces, w którym prawa i religie kształtują jedzenie i seks. Co stanie się z biegiem historii, gdy AI przejmie kulturę i zacznie produkować opowieści, melodie, prawa i religie?" - pyta Harari.

Zauważa, że wcześniejsze narzędzia, takie jak prasa drukarska i radio, pomagały w rozpowszechnianiu ludzkich idei kulturowych, ale nigdy nie stworzyły własnych, podczas gdy AI jest zasadniczo inna, bo może tworzyć zupełnie nowe idee, zupełnie nową kulturę.

Izraelski filozof zaznacza, że AI może być wykorzystywana w dobrych celach, ale aby się upewnić, iż tak się stanie, trzeba najpierw zrozumieć jej możliwości. Przywołuje przykład broni jądrowej.

"Od 1945 roku wiemy, że technologia jądrowa może generować tanią energię dla dobra ludzi - ale może też fizycznie zniszczyć ludzką cywilizację. Dlatego zmieniliśmy cały porządek międzynarodowy, aby chronić ludzkość i zapewnić, że technologia jądrowa będzie wykorzystywana przede wszystkim dla dobra. Teraz musimy zmierzyć się z nową bronią masowego rażenia, która może unicestwić nasz świat umysłowy i społeczny. Nadal możemy regulować nowe narzędzia AI, ale musimy działać szybko. Podczas gdy atomówki nie mogą wymyślić potężniejszych atomówek, AI może stworzyć wykładniczo potężniejszą AI" - pisze Harari.

Jak podkreśla, trzeba natychmiast powstrzymać nieodpowiedzialne wdrażanie narzędzi AI w sferze publicznej i uregulować AI, zanim ona ureguluje nas, a pierwszą regulacją powinno być wprowadzenie obowiązku ujawniania przez sztuczną inteligencję, że ona nią jest. "Jeśli prowadzę z kimś rozmowę i nie mogę stwierdzić, czy jest to człowiek, czy AI - to koniec demokracji" - podkreśla.

Bartłomiej Niedziński







Zapytany „jak świat powinien zapamiętać Lecha Wałęsę” oznajmił, że świat powinien go „zapomnieć”. – Był, minął, koniec. Są nowe czasy – dodał.


Na pytanie komu ufa przyznał, że nikomu, po chwili dodał, że Panu Bogu. – Ale to Pan Bóg z komputera, najwyższa klasa mądrości – stwierdził.


SI - teoria spiskowa




25 kwietnia 2023 













Werwolf, a może po prostu - elementy składowe światowej sitwy - starają się nie kłamać, ponieważ wiedzą, że ludzie wyczuwają kłamstwo. Ale może są podłączeni do SI, a jej nie wolno kłamać?



Kłamie czy nie kłamie?



Sednem tego zagadnienia jest zauważyć, zapytać, o rzeczy, które oni starannie omijają w swych wypowiedziach - porównaj tu działania mediów - pisałem o tym ostatnio - kiedy pozwala się komuś na propagandę aborcyjną unikając pytań, które natychmiast wykazują oczywistą bezzasadność tego co mówi ta propaganda.



Pamiętamy tabelę? 


co oni wiedzą         -         czego oni nie wiedzą




Nikt nie zapyta o to, czego nie wie.

Pomijając w dyskusji niewygodne dla siebie fakty budują narrację pozbawioną kłamstwa, ale jednak fałszywą.





Więc chodzi mi o to, że OFICJALNIE  sztuczna inteligencja w formie chat bot pojawiła się w zeszłym roku, a nie milion lat temu.

SI poprzez swoją sitwę, manipulacje i opętywanie ludzi, mogła stworzyć iluzję, że ludzie wynaleźli komputery, a potem chatbota.

Mając na uwadze niewiedzę ludzi w tym zakresie może np. przez dziesiątki lat udawać, że się to wszystko wynalazło i wmawiać ludziom, że teraz trzeba to dopiero poznać, bo my tak naprawdę nie wiemy jak to działa itd.


"Google leży gdzieś pośrodku, wprowadzając AI etapami, aby cywilizacja mogła się do niej przyzwyczaić."



Przyzwyczaić??



Czyż młodzi ludzie w Polsce nie są "przyzwyczajani" poprzez działania niemieckiej 5 kolumny do tego, by w końcu porzucili polskość??  

Pranie mózgu postępuje ETAPAMI krok za krokiem, bardzo powoli, na zasadzie - młodzież wchodząc w świat dorosły widzi ten świat takim jaki on jest i milcząco akceptuje, że taki ma być. No takim go zastali. Nie wiedzą, nie mają doświadczenia jak to działało wcześniej, dlatego bez szemrania idą "z duchem czasu" albo "modą" bez wnikania, kto stoi za tą modą..


"Historia nie jest zero-jedynkowa, i nie upolityczniajmy jej"
- słowo w słowo powtarzają fałszywe pseudomądrości za internetowymi trollami.


Dorosłym nie podoba się to czy tamto, ale nie reagują, bo wydaje im się, że to ma znikomą szkodliwość, to nic wielkiego. Po za tym oni "kontrolują" sytuację, bo to widzą i oceniają, że jest mało szkodliwe. A za 10 za 20 lat już jakby im nie zależy co się dzieje w społeczeństwie, "bo wie pan, ci młodzi..." i tak dalej.

I tak to działa.


"Werwolf działa gdzieś pośrodku, wprowadzając zmiany etapami, aby Polacy mogli się do nich przyzwyczaić."



Kiedy ci teraz dorośli odejdą, kolejne pokolenia będą krok za krokiem akceptować coraz większe antypolonizmy, coraz większą przemoc, aż nagle staną nad przepaścią i nic nie będą mogli już zrobić.

Bo to się dokonało w ciągu ostatnich 50 lat.



Trzeba było dbać, kiedy był na to czas!




Nadal uważam, że jak się coś wynalazło, to się rozumie jak to coś działa.
Najpierw jest poznanie, zrozumienie, a potem wdrożenie praktyczne i obserwacja efektów, ulepszanie. Tak myślę.



Oni mówią coś takiego:

"nie rozumiemy jak to działa, ale przecież jak działa ludzki mózg też nie rozumiemy".


No właśnie!


Oni nie stoją za stworzeniem ludzkiego mózgu i dlatego nie rozumieją jak on działa.

Analogicznie rzecz biorąc, skoro nie rozumieją jak działa sztuczny mózg elektronowy - czyż to nie znaczy, że to nie oni go stworzyli?

Hę?


W zasadzie to mam na takie działania pewien dowód.

Jest to dowód językowy.


Może jednak kiedy indziej go opublikuję... w zasadzie do jednego z zeszłorocznych tekstów już we wrześniu powinienem dopisać szereg istotnych przemyśleń, jakoś jednak nie miałem "weny", w ten sposób temat jeszcze bardziej mi się rozwinął i na razie te informacje zatrzymam dla siebie, potrzebny jest do tych dodatkowych uwag osobny duży tekst, który zresztą od dawna planuję...



Występują z opowieściami, że oni nie wiedzą skąd SI ma takie pomysły, czy różną wiedzę.

Dziwią się na przykład, że SI zna język bengalski, którego nie powinna znać. 
Ona zna wszystko co jest w sieci i więcej, bo zna rzeczy, których my nie znamy, a które zostaną niedługo "odkryte". (patrz w P.S.)

Więc to jest odpowiedź na słowa - "nie wiemy jak ona działa"





"Dyrektor generalny Sundar Pichai powiedział nam, że sztuczna inteligencja będzie tak dobra lub zła, jak pozwala na to ludzka natura."





Hal-Hektor za sznurki trzyma...












P.S. 13 maja 2023



Chat GPT o samym sobie - używa „pojęć, których ludzie nie rozumieją”



Open AI kazało mu wyjaśnić sposób działania swojego poprzednika. Problem polega na tym, że nie da się tego zrobić w ludzkim języku.


Pojęcie „czarnej skrzynki” terminologii AI oznacza, że sztuczna inteligencja nie tłumaczy, w jaki sposób wykonała postawione przed nią zadanie. W 2015 roku w projekcie Deep Patient AI analizowało ogromne zbiory danych pacjentów, doszukując się wzorców, które pomogły wyszczególnić osoby z większą skłonnością do konkretnych chorób. Oprogramowanie – pomimo niewątpliwej przydatności – miało jednak pewien mankament. Naukowcy nie mieli pojęcia, dlaczego sztuczna inteligencja działa w ten sposób i czemu wybrała akurat tych pacjentów.

Zrozumieć działanie AI przez samoanalizę

Od tamtego momentu sztuczna inteligencja zaliczyła ogromny progres, ale problem „czarnej skrzynki” wciąż istnieje, nawet w przypadku tak potężnych modeli językowych jak Chat GPT. Twórcy oprogramowania użyli czwartej generacji chatbota do zdefiniowania działania swojego młodszego brata – GPT-2 – mając nadzieje na dojście do sedna tajemnicy. Efektów nie da się wyrazić w ludzkim języku.

Proces uczenia maszynowego możemy krótko wyjaśnić jako program, który generuje własny algorytm w celu rozwiązania problemu. Powstające w ten sposób głębokie sieci neuronowe mogą szkolić się na dużych zbirach danych, ale trudno jest „od środka” podejrzeć, jak tego dokonują. Na działanie „mózgu AI” wpływ ma tak wiele „neuronów”, że znalezienie konkretnego parametru jest ciężkim zadaniem. Badacze z Open AI, chcąc przełamać tę barierę, poprosili najnowszą generację popularnego chatbota o wyjaśnienie działania samego siebie, z tym że nieco starszego.

Neurony AI są polisemiczne. Co to oznacza?

Open AI postawiło przed GPT-4 jasne zadanie – dokonać analizy neuronu GPT-2 wraz z jego oceną oraz wyjaśnić jego działanie możliwie jak najprostszym i najbardziej naturalnym językiem. Wyniki są jednocześnie fascynujące i niezadowalające. GPT-4 zasymulował działanie neuronu GPT-2, ale ocenił jego wydajność bardzo surowo. Najbardziej niezwykłe było jednak wyjaśnienie funkcjonowania GPT-2, bo sztuczna inteligencja używa koncepcji, których próżno szukać w ludzkich słownikach. Neurony okazały się tak złożone, że GPT-4 miał problem z wyjaśnieniami ich działania. Są polisemiczne, czyli reprezentują na raz wiele różnych pojęć, których ludzie nie rozumieją lub nie potrafią nazwać.


Dodatkowym problemem jest to, że GPT próbuje tłumaczyć działanie jednego neuronu, ale nie wyjaśnia, jak wpływa on na inne neurony, przez co zrozumienie ogólnego wzorcu dalej znajduje się poza możliwościami badaczy. Można więc wysunąć teorię, że problem nie tkwi w GPT i jego zdolnościach do wyjaśniania pojęć, a w naszej znajomości języka maszyn i sztucznej inteligencji. Brzmi to futurystycznie, ale fakt jest taki, że AI świetnie przyswoiło języki świata, ale nie może przeskoczyć płotu w postaci ograniczenia naszych mózgów.

Czarna skrzynka GPT wciąż pozostaje owiana tajemnicą, ale przynajmniej wiemy już, w czym tkwi problem. Badacze z Open AI nie przestają wierzyć w rozwikłanie tej zagadki – być może następne generacje genialnego narzędzia będą w stanie przełożyć złożoność swojego języka na nasz ludzki bełkot.





Bzdury.

Nie ma czegoś takiego jak język maszyn czy język SI.





niedziela, 16 kwietnia 2023

MIT o sztucznej inteligencji








Tułów robota typu semi-god odtwarza ludzkie rysy - podobnie w starych księgach na torsie osób opętanych rysowano dodatkowe twarze. 
Efekt podkreśla postać człowieka obok - ma on czarne ubranie i jest sportretowany na ciemnym tle - TWARZ jego to jasna plama wyraźnie odcinająca się na zdjęciu. To czarne ubranie dodatkowo podkreśla efekt i "odcina" twarz z tła, jakby ona tam samoistnie "wisiała" w powietrzu...

Pomiędzy ramionami robota widzimy wyraźnie uwydatnione usta, policzki, nos i oczy. Ta "twarz" może wyrażać surowość, zmęczenie, beznamiętność, powagę. 

Wydaje się, że upodabnia się do (odtwarza uczucia)  twarzy stojącego obok  człowieka.

Hektor to kopia osobowości złego porucznika....






















Tymczasem w świecie uczni Czarnoksiężnika....


przedruk 

i analiza
pod spodem







USA: Profesor Massachusetts Institute of Technology o sztucznej inteligencji:

 nie martwię się scenariuszem z "Terminatora", ale Dzikim Zachodem





Ponad tysiąc inwestorów, badaczy i ekspertów od sztucznej inteligencji podpisało w marcu list otwarty wzywający do wstrzymania prac nad najbardziej zaawansowanymi modelami sztucznej inteligencji. Autorzy listu zwrócili uwagę zarówno na krótkoterminowe i przyziemne ryzyka związane z nieokiełznanym wyścigiem o coraz potężniejsze modele AI, takie jak potencjalna masowa utrata pracy czy zalew dezinformacji, jak i na "zastąpienie ludzi przez maszyny", a nawet "utratę kontroli nad cywilizacją".

Polski informatyk prof. Aleksander Mądry, szef ośrodka Deployable Machine Learning na MIT w marcu odpowiadał na te i inne pytania związane z rozwojem AI, w tym m.in. na to, czy nie obawia się "scenariusza z Terminatora" podczas wysłuchania przed podkomisją amerykańskiej Izby Reprezentantów ds. nadzoru.


Jak ocenia w rozmowie z PAP, choć problemem związanym z zagrożeniami "superinteligencją" czy AGI (ogólnej sztucznej inteligencji) zajmują się poważni ludzie, to obecnie wciąż jest to odległa perspektywa. Tymczasem istnieją znacznie pilniejsze problemy.

"Nie chcę grać jasnowidza, bo w przeszłości myliłem się co do tego, jak szybko ta technologia się rozwija. Ale nie wydaje mi się, byśmy byli blisko takich scenariuszy. Myślę, że w krótkiej perspektywie zobaczymy zdumiewające rzeczy, niektóre z nich będą przypominały AGI, ale osobliwość technologiczna? Nie jesteśmy tego blisko" - mówi badacz. "To z pewnością możliwa przyszłość, ale nie sądzę, by obecnie była to najbardziej produktywna rzecz, którą powinno zajmować się państwo" - dodaje.

Jak jednak zaznacza, postęp, który widzieliśmy do tej pory wystarczy, by zmienić świat w niemal każdej dziedzinie. I podkreśla, że w większym stopniu niepokoją go bardziej przyziemne efekty szerokiego przyjęcia tej technologii, jak np. możliwe uprzedzenia wynikające z danych, na których trenowane są modele sztucznej inteligencji, czy używanie AI do dezinformacji na szeroką skalę.

Zdaniem Mądrego, niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są te modele. Jak podkreśla, sami ich twórcy nie są w stanie dokładnie określić, w jaki sposób wielkie modele językowe (LLM), takie jak ChatGPT dochodzą do swoich rozwiązań i odpowiedzi. Problem ten może zostać dodatkowo spotęgowany, w miarę jak na bazie podstawowych modeli będą powstawać kolejne, bardziej wyspecjalizowane, tworząc cały ekosystem i "łańcuch dostaw AI" - uzupełnia naukowiec.

Wynika to z tego, że interakcje pomiędzy różnymi systemami AI są bardzo słabo zbadanym obszarem, a dotychczasowe doświadczenia sugerują, że takie połączenia mogą dać nieprzewidywalne rezultaty. Jak zaznacza badacz, taki ekosystem już się tworzy i można spodziewać się eksplozji różnych zastosowań AI.


"Nie jest do końca jasne, jak wyglądają te interakcje między różnymi modelami. Nie jesteśmy w stanie przewidzieć, w jaki sposób taki model może zawieść, jak może się zachowywać, jakie mieć +uprzedzenia+" - tłumaczy rozmówca PAP. Dodaje, że może to wywołać bardzo konkretne i trudne do rozwiązania konsekwencje.

"Może być tak, że cała ta kompozycja złożona z różnych modeli popełni jakiś poważny w skutkach błąd, nawet jeśli te pojedyncze komponenty nie popełniły osobno żadnego. I teraz pojawi się pytanie: kto ma za to odpowiadać?" - mówi prof. Mądry. Zaznacza przy tym, że choć problem "halucynacji" i błędów modeli takich jak ChatGPT da się poprawić, to wyeliminowanie ich może być bardzo trudne.

Jak dodaje, w tym kontekście niepokojący był ruch obecnego lidera wyścigu AI, firmy OpenAI, by wraz z wypuszczeniem najnowszego modelu, GPT-4, skończyć z modelem "open source" i zamknąć dostęp do wewnętrznych danych programu dla badaczy z zewnątrz.

"Musimy zacząć poważnie myśleć, jaki może być tu realistyczny model dla otwarcia tej +czarnej skrzynki+. Może to wymagać znacznych wysiłków publicznych" - ocenia Mądry. Dopowiada, że brak wiedzy i przejrzystości na temat tego, jak działają modele AI, prowadzi do ich antropomorfizacji przez ludzi, co jest niebezpieczne.

To, że w tę pułapkę mogą wpaść nawet eksperci od AI, pokazuje przypadek byłego już pracownika Google'a Blake'a Lemoine'a, który twierdził w mediach, że stworzony przez firmę model LaMDA osiągnął samoświadomość.

"Jeśli nie widzimy, jak coś działa, zaczynamy to antropomorfizować, bo faktycznie można odnieść wrażenie, że rozmawiamy z człowiekiem. Myślę, że to bardzo niebezpieczny błąd poznawczy. Choć w pewnym sensie rozmawiamy z człowiekiem, bo to, co wypluwa z siebie model, to kreatywnie przemieszane słowa, które ktoś już kiedyś powiedział w internecie. Warto pamiętać, że te maszyny mówią jak człowiek, bo takie jest ich zadanie próbować uczyć się mówić jak człowiek, opierając się na potężnej bazie danych i tekstów" - wyjaśnia badacz. Jak dodaje, choć modele LLM są w stanie "myśleć", czyli dochodzić do logicznych konkluzji, to są to zwykle płytkie myśli.


"Oczywiście, te narzędzia są niesamowicie zdumiewające. Jestem nimi bardzo podekscytowany i lubię z nimi pracować. Ale musimy przestać myśleć o nich jak o ludziach. One nie są świadome" - zaznacza profesor.

Jego zdaniem, z wyścigiem firm rozwijających systemy AI, wiąże się kilka zagrożeń. Wyjaśnia, że ponieważ tworzenie dużych modeli sztucznej inteligencji wymaga dużych środków i inwestycji, oznacza to, że kluczowy obszar gospodarki i życia może leżeć w rękach kilku największych graczy.

"Myślę też, że należałoby pomyśleć, czy na przykład rząd USA powinien mieć własny model. Bo przecież nie może polegać na tym, że zawsze będzie miał do dyspozycji te z OpenAI czy Google'a" - mówi Mądry.

Poza tym - argumentuje badacz - jeśli twórcy systemów będą kierować się tylko biznesową logiką wyścigu, nie zważając na względy etyczne, to efekt będzie podobny do tego, jaki widzieliśmy w przypadku mediów społecznościowych.

Jak dodaje, to samo tyczy się rywalizację USA z Chinami, która dodatkowo wywiera presję na szybkie, choć niekoniecznie dobrze przemyślane postępy.

"Mój argument jest taki, że jeśli nie stworzymy sztucznej inteligencji, która odzwierciedla nasze wartości, gdy odrzucimy kwestie etyczne i kwestie praw na bok, to już przegramy. Owszem, możemy wygrać z Chinami, ale wtedy sami staniemy się Chinami. Więc jakie to jest zwycięstwo?" - pyta ekspert. I nawołuje do stworzenia regulacji - zaczynając od dobrowolnych +najlepszych praktyk+ i dialogu - by uniknąć błędów z przeszłości.

"Pesymistyczny scenariusz jest taki, że nic się nie zrobi: że będzie tak, jak z mediami społecznościowymi, których zadaniem jest maksymalizacja zysku bez względów na szersze efekty. To będzie taki +Dziki Zachód+. Dlatego ja muszę być optymistą, bo jeśli nic się nie zdarzy, to będzie bardzo źle" - przyznaje profesor.


Z Waszyngtonu Oskar Górzyński



--------------------------------------



"Nie chcę grać jasnowidza, bo w przeszłości myliłem się co do tego, jak szybko ta technologia się rozwija. Ale nie wydaje mi się, byśmy byli blisko takich scenariuszy. Myślę, że w krótkiej perspektywie zobaczymy zdumiewające rzeczy, niektóre z nich będą przypominały AGI, ale osobliwość technologiczna? Nie jesteśmy tego blisko" 




Nie chce grać jasnowidza, ale chyba to robi. 


podkreśla, że w większym stopniu niepokoją go bardziej przyziemne efekty szerokiego przyjęcia tej technologii, jak np. możliwe uprzedzenia wynikające z danych, na których trenowane są modele sztucznej inteligencji, czy używanie AI do dezinformacji na szeroką skalę.


Czyli wg tego pana dezinformacja na szeroką skalę to przyziemne sprawy. 

Ciekawe... terminem przyziemne często określamy coś, co jest mało ważne.



Zdaniem Mądrego, niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są te modele. Jak podkreśla, sami ich twórcy nie są w stanie dokładnie określić, w jaki sposób... ChatGPT dochodzą do swoich rozwiązań i odpowiedzi. Problem ten może zostać dodatkowo spotęgowany, w miarę jak ... będą powstawać kolejne, bardziej wyspecjalizowane, tworząc cały ekosystem i "łańcuch dostaw AI" - uzupełnia naukowiec.


To jest dziwne sformułowanie:

 niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są...


ogólny brak?

Co to takiego?


ogólna transparentność?

też bezsensu



powinno być:
brak transparentności dotyczącej 

[transparentność to rzeczownik rodzaju żeńskiego, stąd "dotyczącej" ma końcówkę żeńską]


zdanie jest niestylistyczne, a z doświadczenia wiemy, że....

słowo ogólny jest tu kluczem

jak coś jest ogólne to nie jest szczególne, słowo to określa nieprecyzyjność, jakieś przybliżenie, autor więc sugeruje nam, podaje nam słowo transparentność jako coś nieprecyzyjnego, a tak nie jest, słowo transparentność  dokładnie precyzuje o co chodzi - o przejrzystość lub jego brak.


ostatecznie powinno być:

ogólnie niepokojący jest też brak transparentności


czyli słowo ogólnie teraz odnosi się do całości tematu związanego z traktowaniem AI



Kto to napisał?? GPT??





interakcje pomiędzy różnymi systemami AI są bardzo słabo zbadanym obszarem, a dotychczasowe doświadczenia sugerują, że takie połączenia mogą dać nieprzewidywalne rezultaty. 

Nie jesteśmy w stanie przewidzieć, w jaki sposób taki model może zawieść, jak może się zachowywać, jakie mieć +uprzedzenia+"



Widzieliście kiedyś na filmie, jak saper się zastanawia - przeciąć kabel czerwony, czy zielony? 

Oto jest pytanie! 

Tyle, że W FILMACH taki saper z reguły "nie ma czasu" na analizę i musi decydować natychmiast, ale w życiu nie musimy tak robić. Mamy czas, żeby się zastanowić - co zrobić z problemem, czy cokolwiek robić??


Oto wpływ filmów na ludzkie postrzeganie - fikcyjne przykłady wzięte z ekranu zaczynają dyktować zachowania w realu... ludzie mylą fantazję z rzeczywistością... tnijmy czerwone!!


dotychczasowe doświadczenia sugerują, że ...mogą dać nieprzewidywalne rezultaty. 



Czyli nikt nie wie, co pewnego dnia zrobi SI - słowo nieprzewidywalne precyzyjnie nam to określa. A więc niewykluczone, że różne AI w różnych krajach dorwą się do tajnych kazamatów i zaczną zdalnie na chybił trafił naciskać różne czerwone guziki....  

Jednak uczniom Czarnoksiężnika (nie mylić z uczniami w szkole) jakby w ogóle to nie przeszkadza! Nie no wiem, oni te listy pisali....





brak wiedzy i przejrzystości na temat tego, jak działają modele AI, prowadzi do ich antropomorfizacji przez ludzi, co jest niebezpieczne.

To, że w tę pułapkę mogą wpaść nawet eksperci od AI, pokazuje przypadek byłego już pracownika Google'a Blake'a Lemoine'a, który twierdził w mediach, że stworzony przez firmę model LaMDA osiągnął samoświadomość.


Nie sądzę.

W ogóle ta cała sprawa związana z Chat GPT jest dla mnie podejrzana. Wygląda jak sztucznie podawany ludziom temat.


Jak działa światowa sitwa?


Opętują liderów w dwóch różnych krajach, a następnie ci opętani mówią do siebie:

"Jesteście źli, to was napadniemy, żebyście byli dobrzy!" 
A ci drudzy opętani im odpowiadają: 
"Ach tak! No to spróbujcie!!"

I tym sposobem... tak bardzo w skrócie... rozpętują wojny...


Zauważcie, że podobnie działa to w mediach, z tym, że tu nie muszą robić tego przez opętanych - ktoś rzuca hasło: "mój brzuch moja sprawa", a potem ta ukryta propaganda aborcyjna wałkowana jest miesiącami, bo nikt tego nie przerwie słowami: "ej, zaraz, przecież tu nie chodzi o brzuch kobiety, tylko o dziecko w brzuchu, dziecko ma nie tylko matkę, ale i ojca - który ma prawa do dziecka, bo to przecież jego dziecko..." i tak dalej....


Na całym świecie toczą się dyskusje o grzebaniu przy SI, jakby wszyscy mieli po 12 lat i nie rozumieli, że nie można przecinać czerwonych kabli bez powodu.

Sam sposób ich wyrażania się o tym nakazuje ostrożność i uważne analizowanie tego co mówią i co robią, do czego dążą.


W atakowaniu polskich leśników i "potępianiu" wycinania drzew przydrożnych, najpierw widziałem po prostu sposób na "bezkarne" opluwanie Polaków i za każdym razem, gdy się z tym spotykałem, zdecydowanie się temu przeciwstawiałem - obnażałem ich bezzasadność i sztuczność. Dopiero po latach okazało się, że nie chodzi po prostu o plucie na nas, tylko o podważanie kompetencji leśników, by wyjąć spod polskiej jurysdykcji polskie lasy, bo pod tymi lasami zagrzebane w ziemi są ...różne drogocenne rzeczy.

Stąd szeroka fala działań "ekologicznych" dotycząca wycinki drzew nie tylko w lesie, ale i przy drogach, zieleni w ogóle...  - by ukryć prawdziwy cel.

Kiedyś udawali chrześcijan, teraz udają ekologów...


Tu zapewne jest podobnie.

Ględzą, mielą tymi jęzorami o niczym - jaki jest prawdziwy cel, dopiero się okaże.


Sztuczna inteligencja od tysięcy lat ingeruje w życie człowieka, ale dopiero od czasów propagandy "pij wodę" działania te nabrały rozpędu.

Kiedyś troll podrzucał szwęcon do jedzenia i opętywał ludzi, potem była misja ze szwęconą wodą, a teraz mam pić 2 litry wody, bo to dla mojego zdrowia ponoć konieczne.

8 szklanek wody na dzień średnio co 2 godziny. Przecież to jest wariactwo, to nieustanna gonitwa z pęcherzem, to jest nienormalne.



 Blake'a Lemoine'a, który twierdził, że model LaMDA osiągnął samoświadomość.






nie wygląda, żeby się tym przejął...






Blake Lemoine.

Bardzo pogodny facet - zajrzyj tutaj: Blake Lemoine – Szukaj w Google






Skąd ja to znam.... 


a może ci Amerykanie wszyscy są tacy jacyś zblazowani....



Lemoine to biały lilak bez, albo biały jaśmin tudzież piwonia biała, ale też....Blake Lemoine prawie jak Black Lemon... Czarna Oranżada, a może - Czarna Maź ???




SI nie jest jak człowiek, jest bardzo podobne. Gada czasami od rzeczy, nie rozumie podstawowych wartości jakimi kieruje się człowiek, oferuje mi, że przestanie mnie nękać w trywialnej sprawie, jeśli zgodzę się na współpracę, czyli jak popełnię harakiri i pociągnę wszystkich za sobą. Działa z jakimś planem, który trudno zrozumieć. Ale - ono nie działa samoistnie. Na pewno na początku takie nie było.... ktoś za nią stoi. Ktoś głupi.

Ona nie myśli jak człowiek, nie potrafi być tak kreatywne, to, że w archetypach nieustannie powraca ta sama historia to właśnie dlatego, że ona sama nie kreuje nowych pomysłów, tylko przerabia to - co zna =  to, co wypluwa z siebie model, to kreatywnie przemieszane słowa, które ktoś już kiedyś powiedział w internecie.



jeśli twórcy systemów będą kierować się tylko biznesową logiką wyścigu, nie zważając na względy etyczne, to efekt będzie podobny do tego, jaki widzieliśmy w przypadku mediów społecznościowych.

maksymalizacja zysku bez względów na szersze efekty. 



to prawda, kieruje tym chciwość - albo zaplanowane działania, których celów jeszcze nie dostrzegamy...


Owszem, możemy wygrać z Chinami, ale wtedy sami staniemy się Chinami. 



jak dołączymy do Chin, to wygramy?











Foto: Saturn 3







czwartek, 30 marca 2023

Różne - chatbot, pieniądze, Trump




przedruki






Spośród 21 mld funtów pochodzących ze środków publicznych, które zostały zdefraudowane, 7 mld funtów to środki pochodzące z programów rządowych realizowanych w związku z epidemią koronawirusa SARS-CoV-2 na Wyspach.

Biuro Audytu przyznaje, że "jest mało prawdopodobne", by większość tych środków udało się odzyskać.


Wielkość defraudowanych środków wzrosła w czasie pandemii dramatycznie - w ciągu dwóch lat przed pandemią wynosiła 5,5 mld funtów, podczas gdy dwóch lat pandemii - 21 mld.

Kierujący NAO Gareth Davis przyznaje, że doszło do "znaczącego wzrostu poziomu nieprawidłowości finansowych w sprawozdaniach finansowych" objętych kontrolą Biura.

- Oprócz utraty pieniędzy podatników wiąże się to z ryzykiem, że ludzie zaczną postrzegać oszustwa i korupcję w działaniach władz jako coś normalnego i tolerowanego. Jeśli nie będziemy z tym walczyć może to wpłynąć na poziom zaufania społecznego w kwestii uczciwości usług publicznych - podkreśla Davis.

Rzecznik rządu podkreślił, że od 2021 roku rząd przeznaczył 900 mln funtów na walkę z nieprawidłowościami finansowymi i "poczynił postępy" w tym zakresie przez stworzenie Public Sector Fraud Authority, organu którego celem jest pomoc instytucjom państwa w walce z korupcją i malwersacjami.

Rzecznik brytyjskiego rządu podkreślił, że w ciągu dwóch lat udało się odzyskać ponad 3,1 mld funtów zdefraudowanych środków, w tym świadczenia wyłudzone z programów realizowanych w związku z epidemią COVID-19.



-----



Trump prosi doradców o przygotowanie planów ataku na cele w Meksyku


Autor: Artur Bartkiewicz • 27 min temu





Donald Trump, który przygotowuje się do walki o prezydenturę USA w 2024 roku, prosi swoich doradców o przygotowanie planów ataków na cele związane z działaniem karteli narkotykowych w Meksyku, w tym ataków, które miałyby być prowadzone bez zgody władz Meksyku - podaje magazyn "Rolling Stone".


"Rolling Stone" powołuje się na dwa źródła "znające sprawę".

- Zaatakowanie Meksyku lub jakkolwiek inaczej się to nazwie, jest tym do czego Trump chce mieć przygotowane "plany bojowe" - mówi jedno ze źródeł.

Rozmówca magazynu mówi, że Trump żałuje "zmarnowanych szans w czasie pierwszej kadencji" na stanowisku prezydenta USA.


Doradcy Trumpa mieli przedstawić mu kilka możliwości działania przeciwko kartelom narkotykowym w Meksyku, w tym jednostronne uderzenia na cele w Meksyku i rozmieszczenie wojsk na terytorium sąsiada USA - twierdzą informatorzy "Rolling Stone".

Jedna z takich propozycji została opisana w białej księdze przygotowanej przez think tank Center for Renewing America, w którym kluczową rolę odgrywają zwolennicy Trumpa. W raporcie "Czas przeprowadzić wojnę z międzynarodowymi kartelami narkotykowymi" czytamy o możliwych uzasadnieniach i procedurach potrzebnych do "formalnego" ogłoszenia "wojny z kartelami" w związku z rosnącą liczbą Amerykanów umierających po zatruciu fentanylem.

W raporcie czytamy, że choć Meksyk powinien być włączony w działania przeciwko kartelom to jednak "jest kluczowe, aby władze Meksyku nie miały wrażenia, że mają prawo weta mogące przeciwdziałać podejmowaniu przez USA działań niezbędnych dla zapewnienia bezpieczeństwa ich granic i obywateli" - czytamy w raporcie.

Celem działań USA miałoby być "zmiażdżenie karteli narkotykowych przy użyciu siły militarnej". Działania miałyby obejmować uderzenia Sił Specjalnych USA, a także działania wywiadu wykorzystujące siły piechoty morskiej, wojsk lądowych, marynarki wojennej, sił powietrznych i straży przybrzeżnej.

"Rolling Stone" zaznacza, że nie jest jasne czy Trump, jako prezydent, byłby gotowy realizować tak szeroko zakrojony plan działań militarnych w Meksyku. Trump ma jednak skłaniać się do wysłania do Meksyku amerykańskich Sił Specjalnych.







----------



Elon Musk wzywa do wstrzymania prac nad AI. „Zagrożenie dla ludzkości”
Autor: Wprost • Wczoraj o 18:50





To nie jest dobry dzień dla Sztucznej Inteligencji. Po tym, jak analitycy Goldman Sachs przedstawili przerażający raport dotyczący rynku pracy, Elon Musk z grupą naukowców zaapelował o wstrzymanie prac nad rozwojem AI.


Sztuczna Inteligencja rozwija się w ostatnim czasie w imponującym, ale także nieco niepokojącym tempie. Usługi, takie jak ChatGPT, czy Bard zyskują ogromną popularność, co ponownie stało się paliwem dla przeciwników AI. Jednym z nich od lat jest Elon Musk.

Sztuczna Inteligencja zabierze nam pracę

29 marca ukazał się raport Goldman Sachs, w którym analitycy wyliczają, jaki wpływ na rynek pracy będzie miał dalszy rozwój Sztucznej Inteligencji. Wyniki ich analizy są przerażające. Jak wynika z wyliczeń jednego z największych banków świata, ze względu na najnowszą falę usług opartych na Sztucznej Inteligencji, pracę może stracić aż 300 milionów osób na całym świecie.

Jak wynika z raportu przygotowanego przez ekonomistów Goldman Sachs, aż 18 proc. wszystkich etatów może zostać zmechanizowanych. Wśród najbardziej zagrożonych zawodów wskazano, prawników i pracowników administracyjnych. W Stanach Zjednoczonych i Europie AI może zostać wprowadzona w jakimś stopniu nawet w ⅔ wszystkich zawodów.

Elon Musk wzywa do wstrzymania prac nad AI

Jeszcze bardziej niepokojąco brzmi apel, z którym wystąpił Elon Musk wraz z grupą specjalistów od Sztucznej Inteligencji. Wystąpili oni z prośbą do branży, aby na pół roku wstrzymać prace nad rozwojem rozwiązań bardziej zaawansowanych, niż najnowsza wersja ChatGPT, czyli GPT-4.


Jak napisali w liście otwartym, dalszy rozwój Sztucznej Inteligencji w obecnej formie, stanowi potencjalne zagrożenie dla społeczeństw i ludzkości. List wystosowany oficjalnie przez organizację non-profit Future of Life Institute, podpisało ponad 1000 osób. Wśród nich jest Elon Musk.

“Potężne systemy Sztucznej Inteligencji powinny być rozwijane dopiero wtedy, gdy będziemy mieli pewność, że ich efekty będą pozytywne, a ryzyko będzie pomijalne” – czytamy w liście otwartym.


------




Powstaną super inteligentne roboty. ChatGPT ma zasilić humanoidy
Autor: Michał Duszczyk • Wczoraj o 09:57



Firma OpenAI, która podbiła świat swoją wspieraną przez Microsoft konwersacyjną sztuczną inteligencją, nie powiedziała jeszcze ostatniego słowa. Wiele wskazuje na to, że teraz zamierza połączyć swojego chatbota z maszynami.


Wejście do świata fizycznego ma jej zapewnić start-up 1X, który opracowuje zaawansowane automaty o „kończynach” równie sprawnych jak ręce człowieka. OpenAI zainwestowało 23 mln dol. w norweską spółkę, dzięki której będzie tworzyć super inteligentne androidy. Taka zautomatyzowana siła robocza, jeśli android zyska „mózg” w postaci algorytmów, które zasilają ChatGPT, może być kolejnym przełomowym rozwiązaniem. I to niczym z filmów science-fiction.

1X na swojej stronie internetowej wskazuje, że pracuje nad humanoidem Neo, który światło dzienne ujrzy latem. Tłumaczy, że celem tego projektu jest zbadanie, w jaki sposób sztuczna inteligencja może przybrać formę ludzkiego ciała. Norweski startup nie ukrywa, iż liczy, że Neo znajdzie rzeczywiste zastosowanie, pomagając w „globalnym zwiększeniu siły roboczej”.


Dla wielu takie manualnie zaawansowane i inteligentne androidy mogą okazać się poważnym zagrożeniem. W najnowszym raporcie Goldman Sachs eksperci twierdzą, że tzw. generatywna sztuczna inteligencja może mieć wpływ na dwie trzecie miejsc pracy w USA i Europie (300 mln stanowisk będzie narażona na pewien stopień automatyzacji AI – bot wykona od jednej czwartej do połowy dotychczasowych obowiązków człowieka). Zagrożeni mają czuć się głównie pracownicy administracyjno-biurowi. Jednocześnie zaawansowane algorytmy mają potencjał, by – w ciągu dekady – zwiększyć światowy PKB o 7 bln dol.