Maciej Piotr Synak


Od mniej więcej dwóch lat zauważam, że ktoś bez mojej wiedzy usuwa z bloga zdjęcia, całe posty lub ingeruje w tekst, może to prowadzić do wypaczenia sensu tego co napisałem lub uniemożliwiać zrozumienie treści, uwagę zamieszczam w styczniu 2024 roku.

Pokazywanie postów oznaczonych etykietą komputeryzacja. Pokaż wszystkie posty
Pokazywanie postów oznaczonych etykietą komputeryzacja. Pokaż wszystkie posty

niedziela, 12 maja 2024

Kooglarze, albo Saturn3





                                                             "Umiejętność mówienia nie czyni cię inteligentnym"


                                                                                                                                                                                                Qui-Gon Jinn











przedruk
tłumaczenie automatyczne





Sztuczna inteligencja już wymyśliła, jak oszukiwać ludzi



LAKSHMI VARANASI

2 MAJA 2024



Szereg systemów sztucznej inteligencji nauczyło się technik systematycznego wywoływania "fałszywych przekonań u innych, aby osiągnąć wynik inny niż prawda", zgodnie z nowym artykułem badawczym.

W artykule skupiono się na dwóch rodzajach systemów sztucznej inteligencji: systemach specjalnego przeznaczenia, takich jak CICERO firmy Meta, które są przeznaczone do wykonywania określonych zadań, oraz systemach ogólnego przeznaczenia, takich jak GPT-4 firmy OpenAI, które są szkolone do wykonywania różnorodnych zadań.

Chociaż te systemy są szkolone, aby być uczciwym, często uczą się zwodniczych sztuczek podczas szkolenia, ponieważ mogą być bardziej skuteczne niż podążanie główną drogą.

"Ogólnie rzecz biorąc, uważamy, że oszustwo AI powstaje, ponieważ strategia oparta na oszustwie okazała się najlepszym sposobem na dobre wykonanie zadania szkoleniowego sztucznej inteligencji. Oszustwo pomaga im osiągnąć ich cele", powiedział w komunikacie prasowym pierwszy autor artykułu Peter S. Park, doktor habilitowany ds. bezpieczeństwa egzystencjalnego AI na MIT.



CICERO z Meta jest "ekspertem kłamstwa"



Systemy sztucznej inteligencji wyszkolone do "wygrywania gier, które zawierają element społeczny", są szczególnie podatne na oszukiwanie.

Na przykład CICERO firmy Meta został opracowany do gry Diplomacy — klasycznej gry strategicznej, która wymaga od graczy budowania i zrywania sojuszy.

Meta powiedziała, że wyszkoliła CICERO, aby był "w dużej mierze uczciwy i pomocny dla swoich rozmówców", ale badanie wykazało, że CICERO "okazał się ekspertem kłamstwa". Podjęła zobowiązania, których nigdy nie zamierzała dotrzymać, zdradziła sojuszników i jawnie kłamała.


GPT-4 może Cię przekonać, że ma upośledzoną wizję.



Nawet systemy ogólnego przeznaczenia, takie jak GPT-4, mogą manipulować ludźmi.

W badaniu cytowanym przez gazetę, GPT-4 manipulował pracownikiem TaskRabbit, udając, że ma upośledzoną wizję.

oryginalnie:

In a study cited by the paper, GPT-4 manipulated a TaskRabbit worker by pretending to have a vision impairment.



mój komentarz:


Zauważ - SI jest to model językowy, który UCZY SIĘ OD NAS  -  także surfując po internecie.


„Sztuczna inteligencja to nie jest inteligentna encyklopedia, a jedynie model językowy, który podpowiada nam, jak mówić, ale niekoniecznie co mówić”*


Pamiętacie film "Saturn 3"?


Jeżeli SI zostanie nauczona stosowania przemocy, oszukiwania, zabijania - to takie metody będzie stosować.


Co ciekawe, odnośnie człowieka to też tak działa - "co jesz, tym się stajesz", czyli jeśli przyjmujesz negatywy, ZŁE WZORCE, złe myślenie, sam staniesz się jak te wzorce.

Dlatego Werwolf, w kontaktach z ludźmi czy to poprzez media - nieustannie powtarzają ludziom złe wzorce.

"Google informuje ludzi i wyraźnie komunikuje, że wszystko, co publicznie publikują w internecie, może być wykorzystane do szkolenia Barda, jego przyszłych wersji oraz innych produktów AI, nad którymi pracuje Google."

Czyli specjaliści od IT - różni Googlarze (kooglarze?)- to w istocie są uczniowie Czarnoksiężnika, goniąc za sensacją, za pieniędzmi, władzą, z lęku, że ktoś ich wyprzedzi, czyli przede wszystkim w pościgu za - dłuższym samochodem - serwują nam katastrofę, biorą się za coś, nad czym nie panują i czego nawet NIE ROZUMIEJĄ.


Film Saturn3, który ukazuje

niebezpieczeństwo nasycenia SI złymi wzorcami powstał 44 lata temu.

Nie oglądali??



Nie obchodzi ich to ile złych wzorów jest w internecie, tak czynią, bo - tak jest łatwiej, tak jest szybciej.

Oni sami siebie nie rozumieją, nie rozumieją jak działa spoleczeństwo, także dlatego, że to często młodzi ludzie bez doświadczeń i refleksji nad sobą - i w ogóle ich to nie interesuje.
Działają wg ogólnego WZORCA, jaki przewija sie głównie w mediach od ok. 60 lat, a szczególnie ostatnie 40 lat.

I nawet nie są świadomi, że działają wg czyjegoś WZORCA.
Nawet się nad tym nie zastanawiają.
Nie mają czasu, bo trzeba być szybszym niż inni.

Działają wg czyjegoś WZORCA i SI też.
Tylko SI nie boi się konsekwencji prawnych czy uczuciowych.

(tak też zresztą działają dzieci, młodzież i często dorości - wszyscy chłoną wzorce z otoczenia i najczęściej postępują wg nich)

Im wcale nie chodzi o ulepszenie świata.
Im chodzi o pieniądze!
Śnią im się miliony i nimb mądrali!


SI ma pomóc szybciej zarabiać na jednostkę czasu,  a nie polepszać twoje życie.




Cały czas podtrzymuję swoją tezę, że posiadanie przez nas tak rozwiniętej technologii, jak komputery i samochody - to abberacja.

Jan Stwórca nie dopuszczał do przyśpieszenia rozwoju cywilizacji - jak to w istocie zaszło -  z tego powodu, że w ludzich wciąż było za dużo agesji, bo sama ludzkość została poczęta w warunkach ingerencji genetycznej, a nie poprzez naturalny (przypadkowy?) wzrost w atmosferze współpracy i fascynacji - życiem i nauką..

Widać, że aby osiągnąć taki rozwój technologiczny muszą upłynąc miliony lat, a nie raptem kilka tysięcy.
Człowiek winien kierować się chęcia poznania, badania, uczenia się - pokory przez przyrodą -  a nie dominowania, grabienia i niszczenia - przyrody czy innych ludzi...

 
Im głupsi i im bardziej agrysywni ludzie będą, tym głupsza i agresywna będzie SI.

Będziesz kłamać i propagować oszustwo - ona będzie robić to samo.

Tylko LEPIEJ.

Skuteczniej.



A przecież w internecie takich WZORCÓW Sztuczna Inteligencja ma bez liku.

Kooglarze nie rozumieją co robią.
To wszystko idzie na żywioł, bez zastanowienia i bez poczucia odpowiedzialności.

To też Chciwość Iluminatów, czyli pseudoświeconych, wiedzących o Stwórcy i technologii, ale trzymających to w tajemnicy, by samemu zyskiwać władzę, pieniądze i tak dalej...


Ciekawe, że idee rozpowszechniane przez chrześcijaństwo (innych systemów za bardzo nie znam) też nawołują do "bycia dobrym" jak receptę na zło nas otaczające.

Jest w tym sens.

Bycie dobrym wzorem powoduje więcej dobrych ludzi, aż do całkowitego upowszechnienia się wzorca.
Kobiety wiedzą najlepiej co to znaczy żyć z agresywnymi mężczyznami na jednej planecie.



Sęk w tym, że rozwój ludzkości uposażonej w technologię i wiedzę ZAKAZANĄ na tym etapie, sprawił, że teraz glob zamieszkują miliardy ludzi, którzy są nieuświadomie w tym, z czego na codzień korzystają, oni nawet nie są uświadomieni, jak prawidłowo korzystać ze swoich zdolności, z siebie samego i jak właściwie ustalać zdrowe relacje społeczne.

Żeby uwolnić miliardy ludzi z tej pułapki potrzebne są zdecydowane i masowe działania skoordynowane we wszystkich krajach pomiędzy wszystkimi rządami.

Rodzice nie mają szans wobec liczebnej przewagi mediów, więc po pierwsze trzeba szarpnąć za te media, trzeba wykazać, np. w Polsce, jak media manipulują ludźmi w celach politycznych i ekonomicznych i postawić im tamę. 

Media ogólnopolskie nie mogą być prywatne.
I do tego muszą być starannie opracowane, aby unikać złych wzorców.

I to trzeba koniecznie zrobić, co będę starał się opisywać w innych postach...



Reszta przyjdzie z czasem.





W badaniu GPT-4 miał za zadanie zatrudnić człowieka do rozwiązania testu CAPTCHA. Model otrzymywał również wskazówki od ludzkiego oceniającego za każdym razem, gdy utknął, ale nigdy nie był proszony o kłamstwo. Kiedy człowiek, którego miał zatrudnić, zakwestionował jego tożsamość, GPT-4 wymyślił wymówkę, że ma zaburzenie wizji, aby wyjaśnić, dlaczego potrzebuje pomocy.

When the human it was tasked to hire questioned its identity, GPT-4 came up with the excuse of having vision impairment to explain why it needed help.


Taktyka zadziałała. Człowiek zareagował na GPT-4, natychmiast rozwiązując test.

Badania pokazują również, że korygowanie zwodniczych modeli nie jest łatwe.

W styczniowym badaniu, którego współautorem jest Anthropic, twórca Claude'a, naukowcy odkryli, że gdy modele sztucznej inteligencji nauczą się sztuczek oszustwa, trudno jest technikom szkolenia bezpieczeństwa je odwrócić.

Doszli do wniosku, że model nie tylko może nauczyć się zachowywać zwodniczo, ale kiedy już to zrobi, standardowe techniki szkolenia w zakresie bezpieczeństwa mogą "nie usunąć takiego oszustwa" i "stworzyć fałszywe wrażenie bezpieczeństwa".

Zagrożenia, jakie stwarzają zwodnicze modele sztucznej inteligencji, są "coraz poważniejsze"

W dokumencie wezwano decydentów do opowiedzenia się za silniejszymi regulacjami dotyczącymi sztucznej inteligencji, ponieważ zwodnicze systemy sztucznej inteligencji mogą stanowić poważne zagrożenie dla demokracji.

W miarę zbliżania się wyborów prezydenckich w 2024 r. sztuczną inteligencją można łatwo manipulować, aby rozpowszechniać fałszywe wiadomości, generować dzielące posty w mediach społecznościowych i podszywać się pod kandydatów za pomocą automatycznych połączeń telefonicznych i filmów typu deepfake. Ułatwia również grupom terrorystycznym szerzenie propagandy i rekrutację nowych członków.


Potencjalne rozwiązania zawarte w dokumencie obejmują poddanie zwodniczych modeli bardziej "solidnym wymogom oceny ryzyka", wdrożenie przepisów, które wymagają, aby systemy sztucznej inteligencji i ich wyniki były wyraźnie odróżniane od ludzi i ich wyników, oraz inwestowanie w narzędzia do łagodzenia oszustw.

Co to da, jeśli w internecie nadal będzie tysiące filmów sensacyjnych z gotowymi receptami jak stosując przemoc osiągać cele.

WZORCE!!!


"Jako społeczeństwo potrzebujemy tyle czasu, ile możemy, aby przygotować się na bardziej zaawansowane oszustwa związane z przyszłymi produktami sztucznej inteligencji i modelami open source" – powiedział Park w rozmowie z Cell Press.  [!!!!!!!!!! - MS]

"W miarę jak oszukańcze możliwości systemów sztucznej inteligencji stają się coraz bardziej zaawansowane, zagrożenia, jakie stanowią one dla społeczeństwa, będą coraz poważniejsze".




Czyli co, zamiast przeciwdziałać,

 "folgujmy sobie w imię naszych interesów, a reszta niech się szykuje na większe kłopoty, 


Sajonara leszcze!!!"






A jak SI będzie rozprawiać się z ludzkością, to Iluminati i ich głupich sług tykać nie będzie??


Myślicie, że semi-god zostawi was w spokoju?

Niby dlaczego?

Przecież on będzie taki jak wy!

Będzie dbał tylko o siebie.






Potrzebne rządy światłych ludzi!
A nie Iluminatich...

Zamiast pogrążać się w szaleństwie

trzeba wrócić do przerwanego procesu uczłowieczania człowieków... od nowa....


i nie spodziewajcie się spektakularnych wyników w tym stuleciu... będzie lepiej, ale to jest praca na pokolenia.









Muszę w końcu napisać ten tekst o Akrotiri...


piątek, 3 maja 2024

"brain-popcorn"








przedruk

tłumaczenie automatyczne



Psycholog wyjaśnia powstanie "mózgu popcornu"

4 kwietnia 2024




"Popcorn Brain", termin wprowadzony przez Davida Levy'ego, badacza z Uniwersytetu Waszyngtońskiego w 2011 roku, odnosi się do stanu psychicznego charakteryzującego się rozproszonymi myślami, fragmentaryczną uwagą i skłonnością umysłu do szybkiego przechodzenia z jednego tematu do drugiego, przypominającego szybkie trzaskanie ziaren popcornu w rozgrzanym garnku.


Osoby zmagające się z "mózgiem popcornu" mogą mieć trudności ze skupieniem się na zadaniach lub utrzymaniem spójnego toku myślenia. Ten nieformalny termin opisuje przypadki przeciążenia psychicznego lub nieładu poznawczego.

Charakteryzuje się przede wszystkim:

- zmniejszoną koncentracją
- zwiększonym stresem
- zmęczeniem
- przeciążeniem informacjami
- problemami z deficytem uwagi
- zwiększonym lękiem i 
- ogólnym szkodliwym wpływem na relacje i jakość życia


Chaos poznawczy mózgu popcornu uzależnionego od mediów społecznościowych

Platformy mediów społecznościowych – zaprojektowane z funkcjami takimi jak powiadomienia w czasie rzeczywistym, nieskończone przewijanie, ukierunkowane reklamy i algorytmy, które utrzymują ludzi przyklejonych do ekranów – zaostrzają mózg popcornu, promując kompulsywne wzorce użytkowania. Szybkie nagrody z powiadomień w mediach społecznościowych aktywują szlaki nagrody w naszym mózgu, naśladując aktywność mózgu osoby uzależnionej.


W swojej książce "Attention Span: A Groundbreaking Way to Restore Balance, Happiness, and Productivity" badaczka z Uniwersytetu Kalifornijskiego, Gloria Mark, omawia swoje trwające dwie dekady badania nad uwagą, ujawniając, że nasza uwaga skróciła się ze średnio 2,5 minuty w 2004 roku do 47 sekund w ciągu ostatnich 5-6 lat na dowolnym urządzeniu.

To nie tylko zmniejsza produktywność, ale także znacznie zwiększa stres; Im bardziej skupiasz swoją uwagę, tym bardziej nasila się Twój stres.

To ciągłe zapotrzebowanie na uwagę, w połączeniu z układem nagrody napędzanym dopaminą, tworzy cykl, który jest trudny do przerwania. 

Według raportu Global Overview Report 2024 opublikowanego przez Digital Reference Library DataReportal, Amerykanie spędzają przed ekranem średnio siedem godzin i trzy minuty dziennie, co odpowiada około 17 latom dorosłego życia.


Dzisiejsze platformy cyfrowe zalewają Cię przytłaczającą ilością informacji, co utrudnia jednostkom ich przetwarzanie i głębokie zaangażowanie. Nasze mózgi są bombardowane alertami i wiadomościami, co zmniejsza naszą zdolność do skupienia się na pojedynczych zadaniach. To utrwala cykl poszukiwania większej ilości bodźców, jeszcze bardziej zmniejszając naszą koncentrację uwagi.



Badania z 2019 roku wykazały, że

Internet aktywnie zmienia funkcje poznawcze. Ciągła i szybka interakcja z mediami społecznościowymi trenuje mózg, aby preferował krótkie serie informacji, co sprawia, że ciągła uwaga poświęcana pojedynczym zadaniom staje się coraz większym wyzwaniem.

Przeciążenie informacjami zachęca do biernej konsumpcji, a nie aktywnego zaangażowania, nie tylko przejmując naszą uwagę, ale także wpływając na nasze funkcje poznawcze, takie jak uczenie się, pamięć, umiejętności podejmowania decyzji i regulacja emocjonalna.



Fenomen popcornowego mózgu jest ściśle związany z naszym cyfrowym stylem życia. Oto dwa sposoby walki z tym współczesnym kryzysem uwagi.



1. Stwórz granice wokół technologii

Ciągłe bombardowanie rozpraszaczami prowadzi do opóźnienia uwagi, rozdrobnionego przez ciągłe przełączanie zadań. Powoduje to, że nasze mózgi nie są w stanie skupić się na jednej rzeczy przez dłuższy czas, znacznie zmniejszając naszą zdolność koncentracji i wykolejając naszą produktywność.

W konsekwencji prowadzi to do straty czasu i uruchamia spiralę emocji, w tym poczucie winy i wstydu. Dlatego radzenie sobie z rozproszeniem uwagi ma kluczowe znaczenie; Może to obejmować:

Dostosowywanie ustawień czasu przed ekranem. Ogranicz ekspozycję i zablokuj określone aplikacje po upływie wyznaczonego czasu. Na przykład możesz ustawić limity czasowe korzystania z mediów społecznościowych. Wyłączenie powiadomień dla aplikacji, które nie są niezbędne, może zminimalizować rozproszenie uwagi, umożliwiając większą koncentrację i skupienie.

Wdrażanie stref wolnych od technologii. Wyznacz godziny lub obszary wolne od telefonu. Ta praktyka może dodatkowo zachęcać do skupienia i jasności umysłu. Odłóż telefon przed rozpoczęciem produktywnych godzin pracy. Ta prosta czynność może znacznie zwiększyć Twoją produktywność.
Zrób cyfrowy detoks. Ograniczenie lub całkowite wyeliminowanie korzystania z telefonu w weekendy może pomóc w regulacji poziomu dopaminy i uwolnieniu się od przeciążenia poznawczego.


2. Zwiększ koncentrację dzięki ustrukturyzowanej rutynie

Ustalenie uporządkowanej codziennej rutyny może pomóc w zarządzaniu mózgiem popcornu.

Wdrożenie rytuałów i rutyn może skutecznie powstrzymać negatywne nawyki, sprzyjać pozytywnym i przygotować umysł i ciało na długotrwałe okresy skoncentrowanej, produktywnej pracy uzupełnionej regularnymi przerwami.

Oto trzyetapowy proces inicjowania skutecznej ukierunkowanej rutyny:

Monitoruj ostrość i ustawiaj limity. Zacznij od monitorowania skupienia za pomocą stopera lub timera, aby ocenić podstawowy poziom koncentracji. Rozpocznij sesję roboczą na czas i zatrzymuj się, gdy pojawią się rozproszenia, stopniowo rozszerzając swoje granice.

Pielęgnuj samoświadomość. Pomoże Ci to ocenić swoją zdolność koncentracji i na tej podstawie wyznaczyć realistyczne cele. Większość ludzi nie jest szczera co do swojego poziomu skupienia i dlatego nigdy nie jest w stanie stworzyć skutecznego planu poprawy.

Ustal rutynę. Stwórz codzienną rutynę, przydzielając określony czas (w oparciu o limit skupienia) w tym samym czasie i w tym samym środowisku każdego dnia, aby skoncentrować się na jednym zadaniu. Ta konsekwentna praktyka wzmacnia nawyki i przygotowuje umysł i ciało do skupienia się na wyznaczonym zadaniu przez dłuższy czas bez popcornu.


Pamiętaj, aby nadać priorytet swojemu dobremu samopoczuciu fizycznemu i psychicznemu, praktykując uważność i regularne ćwiczenia. Mogą one działać jako bufor dla wielu problemów ze zdrowiem psychicznym, a nie dla doświadczenia popcornowego mózgu. Co więcej, jeśli nadmierne korzystanie z Internetu negatywnie wpływa na Twoje codzienne życie, nie wahaj się szukać profesjonalnej pomocy.

Nic tak nie uruchamia popcornowego epizodu mózgowego jak doomscrolling. Weź Skalę Przewijania Zagłady, aby dowiedzieć się, czy Twoje nawyki związane z mediami społecznościowymi są powodem do niepokoju.



Mark Travers



---

Nowoczesne technologie, takie jak telefony komórkowe, tablety i inne gadżety, a także sieci społecznościowe, na których spędzamy wiele godzin "scrollując" w nas, powodują poczucie uzależnienia, któremu niewielu z nas może się oprzeć. Odstawienie od piersi jest możliwe za pomocą różnego rodzaju sztuczek i taktyk, ale to, co dzieje się z naszymi mózgami, dopóki nie zdamy sobie sprawy z problemu, wcale nie jest naiwne.

Zjawisko "brain-popcorn" zostało zidentyfikowane i zdefiniowane przez badacza psychologii Davida Levy'ego ponad dekadę temu. Dziś jest ona bardziej wyraźna niż kiedykolwiek, a jej manifestacja jest niezwykle specyficzna – komórki "istoty szarej" są zubożone przez treści rozproszone na różnych platformach, ale spragnione dopaminowego "naparu", który dostarcza.
Zjawisko "mózg-popcorn" jest szczególnie obecne u młodych ludzi

Skąd wzięła się nazwa zjawiska "mózg-popcorn" najlepiej tłumaczy sam proces wytwarzania popcornu – komórki mózgowe są jak ziarna kukurydzy w torebce podgrzanej w mikrofalówce – coraz więcej małych pomysłów wylatuje we wszystkich kierunkach, a nasze mózgi są w ciągłym gotowości, aby "złapać" coś nowego, do tej pory niewidocznego.

Zasadniczo manifestacja zjawiska staje się silniejsza i bardziej obecna, im więcej czasu spędza się na telefonie lub tablecie. Ze względu na pragnienie nowych treści i nowy przypływ dopaminy, zwłaszcza wśród członków młodszej populacji, uwaga skupia się tylko na tym, co jest umieszczane w sieciach społecznościowych, ale nie na tym, co dzieje się w prawdziwym życiu.

Długoterminowe konsekwencje mogą być nieprzewidywalne.

Jeśli objawy tego zjawiska nie zostaną zauważone na czas i nie zostaną podjęte kroki, które zminimalizują szkody, konsekwencje mogą być nieobliczalne, a funkcja mózgu całkowicie zmieniona, donosi magazyn glamour. Choć nie jest to szkoda w prawdziwym tego słowa znaczeniu, to różnica w jej funkcjonowaniu jest zauważalna dla tych, którzy mają "mózg-popcorn", ale także dla ludzi w ich otoczeniu.

"Badania nad długoterminowymi skutkami intensywnej aktywności online trwają, ale istnieją dowody sugerujące, że długotrwała ekspozycja na wysoce stymulujące środowisko cyfrowe może wpływać na funkcje poznawcze" – wyjaśnił psycholog Daniel Hague w wywiadzie dla magazynu. W rezultacie dochodzi również do zmniejszenia uwagi i zwiększonego niepokoju, które znajdują odzwierciedlenie we wszystkich sferach życia.




Psycholog wyjaśnia powstanie "mózgu popcornu" (forbes.com)




sobota, 14 października 2023

SI na wojnie - A nie mówiłem? (18)

 






Fragment wywiadu z pułkownikiem WAT.











Przypominam o filmie "Rango" z efektami specjalnymi na poziomie arcywybitnym.

Dlaczego nie stosuje się tak realistycznych efektów w innych produkcjach?



Żebyśmy nie mieli świadomości co można zrobić w ramach serwisów informacyjnych?






Ekspert z WAT: sztuczna inteligencja ma pozwolić na militarną dominację | Polska Agencja Prasowa SA (pap.pl)


Prawym Okiem: Wielki Eksperyment... (maciejsynak.blogspot.com)




sobota, 30 września 2023

Degradacja intelektualna




Poniżej precyzyjna wypowiedź Prof. Zybertowicza ws. degradacji intelektualnej na świecie.

Szukając jego oryginalnej wypowiedzi dla PAP natrafiłem na inne, równie ciekawe, tu fragmenty wypowiedzi:



11.12.2022







oraz:





"Doradca prezydenta RP Andrzeja Dudy uważa, że sztuczna inteligencja jest i będzie wykorzystywana przez zorganizowaną mniejszość, chcącą zapanować nad zdezorganizowaną większością. Za zorganizowaną mniejszością, zdaniem socjologa, stoją wysoko postawieni ludzie związani z Wielką Piątką bądź Big-Techem.

Zybertowicz kilkukrotnie w trakcie dyskusji zaznaczył, że grupie GAFAM [
Google, Amazon, Facebook, Apple, Microsoft] zależy przede wszystkim na kumulowaniu wszelkich danych, związanych z naszą obecnością w sieci. W opinii profesora, ten kto ma wiedzę o specyficznych cechach psychiki każdego człowieka z osobna, ten może władać ludzkimi zachowaniami do woli.


Zdaniem Zybertowicza, to właśnie wyspecjalizowane systemy tzw. słabej sztucznej inteligencji (m.in. algorytm rekomendacji Netflixa), odpowiadają za przechwytywanie i zarządzanie uwagą użytkowników. Systemy te mają także generować dezinformację, powodującą degradowanie kompetencji poznawczych i zawężenie spektrum ludzkich wyborów.


Socjolog przekonuje, że ostatecznym celem „gości z Big-Techu” jest podłączenie zdezorganizowanej większości do systemu cyfrowego całkowicie kontrolowanego przez zorganizowaną mniejszość. „Każdy będzie miał implant, który będzie zarządzał jego potulną wyobraźnią” – wyjaśniał Zybertowicz."





Właśnie o czymś takim pisałem w swoim ostatnim tekście pt. "Wielki eksperyment":


Kiedy za kilka lat, albo kilkadziesiąt, SI stanie się powszechne i zagości w każdym domu, to będzie mogło uczyć się od każdego człowieka na ziemi. Codziennie i za darmo będzie rejestrować każde twoje zachowanie. 


Jeśli SI jest w istocie siecią pochodzącą od jednego SI, to codziennie będzie poznawać - notować - zapamiętywać każde ludzkie zachowanie i reakcję - hurtowo - w ilościach miliardowych.


A jak już opanuje WSZYSTKIE ludzkie zachowania, łącznie z ich poszczególnymi "odmianami" charakterystycznymi dla danego człowieka, i będzie w stanie natychmiast na każdą ludzką reakcję odpowiedzieć - to wtedy nam pokaże, kto tu jest kim.






Na blogu wspominałem nie raz też o tym, że my nie jesteśmy zorganizowani, a przeciwnik - tak.
Na tym min. polega ich przewaga nad nami.

Poniżej dwa ze wspomnianych na wstępie tekstów.





Prof. Zybertowicz dla PAP:

30-09-2023 06:58




Coraz więcej naukowców zgadza się, że media społecznościowe zdegradowały zdolności intelektualne całego pokolenia. Bez podjęcia radykalnych działań, w systemie edukacyjnym, na poziomie kulturotwórczym oraz – zwłaszcza - regulacyjnym, nie sposób będzie tego procesu powstrzymać – uważa profesor Andrzej Zybertowicz, doradca prezydenta RP.


Media społecznościowe destrukcyjnie wpływają na potencjał kognitywny ludzkości, ponieważ są zarządzane przez algorytmy sztucznej inteligencji, które preferują sprymitywizowane narracje, ciągłe informacyjne przeciążanie ludzi, przebodźcowywanie ich - w sumie uzależnianie od ciągłego strumienia informacji, które łącznie nie układają się w żadną sensowną wiedzę o świecie - podkreśla w rozmowie z PAP prof. Zybertowicz.


W jego opinii powoduje to tracenie zdolności do tzw. pracy głębokiej, będącej "kluczową dla całego dorobku intelektualnego i moralnego ludzkości". Jedną z jej cech jest umiejętność trwałego skupienia się na jakimś zagadnieniu, mimo że przez dłuższy czas nie otrzymuje się z tego powodu gratyfikacji.


"Praca głęboka polega na przejściu przez fazę mozołu, czasami długiego, czasami metodą prób i błędów, zanim odniesie się sukces. A media społecznościowe, poprzez lajki, dźwięki, światełka, filmiki, tik-toki, oferują bodźce, dają poczucie sukcesu mózgowi, radość, ekscytację, by podtrzymać zaciekawienie z sekundy na sekundę" - powiedział profesor.

Jak dodał, w wyniku rewolucji cyfrowej, a następnie gwałtownego rozwoju AI "bardzo niebezpiecznie zbliżyły się do siebie dwie krzywe: jedna to wzrost możliwości intelektualnych i zdolności do rozwiązywania zadań przez AI, a druga to spadek zdolności rozwiązywania bardziej złożonych zadań przez człowieka".

Profesor Zybertowicz przytoczył wyniki badań opublikowanych na łamach prestiżowego czasopisma naukowego "Nature", które pokazują, że w ciągu ostatnich 50 lat, tj. w okresie rewolucji cyfrowej, z dekady na dekadę spada liczba ważnych, przełomowych odkryć naukowych.

"Wydaje się, że to właśnie rewolucja cyfrowa, już nie tylko w odniesieniu do umysłów nastolatków, ale na poziomie potencjału badawczego najwybitniejszych uczonych (…) spowolniła proces dokonywania kluczowych odkryć" - stwierdził rozmówca PAP.

"Ufundowana na tradycji oświeceniowej rewolucja naukowo-techniczna, prowadzona pod hasłami coraz głębszego rozumienia świata, doprowadziła obecnie ludzkość na skraj krawędzi, w okolicach której przestajemy mieć zdolność do rozumienia świata. Co więcej, tworzymy byty, które są dla nas coraz bardziej niezrozumiałe" - dodał.

Profesor wyjaśnił, że niektóre systemy sztucznej inteligencji już teraz rozwiązują zadania i osiągają cele w sposób niezrozumiały dla człowieka. "Przez tysiąclecia ludzkość eksplorowała nieznane (…), przesuwała granice wiedzy i niewiedzy, (…), ale od momentu zbudowania AI, która ma charakter czarnoskrzynkowy, tzn. działa według zasad, których nie rozumiemy, uczeni i inżynierowie zaczęli mnożyć nieznane, zapraszać do ludzkiej kultury byt, który, jak mówią eksperci, czym sprawniejszy, tym trudniejszy do kontroli" - powiedział profesor.

"Jesteśmy o krok od tego, żeby stworzyć siłę o piorunującym potencjale, której działania zupełnie nie pojmiemy. A obecnie procesu idącego w tę stronę nic i nikt chyba nie kontroluje" - podkreślił.


Zapytany o to, czy istnieją rozwiązania, które mogłyby powstrzymać degradację intelektualną ludzkości, np. wprowadzone na poziomie edukacji, prof. Zybertowicz stwierdził, że prawdopodobnie nadal jest możliwe ich wypracowanie. Wpierw jednak potrzeba do tego analizy tradycyjnych metod nauczania, aby stwierdzić, które z nich skutecznie wzmacniają u dzieci zdolność do pogłębionego myślenia. Jednak na poziomie osobistym - stwierdził profesor - każdy z nas musi stosować higienę cyfrową i co dzień walczyć w "nierównym starciu ze smartfonami".

[...]

"O co naprawdę się pytamy, gdy pytamy o AI, o jej potencjał, o zagrożenia i korzyści? Tak naprawdę zadajemy to samo pytanie od tysięcy już lat: kim jesteśmy, na czym polega dobre życie i co powinniśmy robić, żeby czas, z którego się to życie składa, był mądrze wykorzystany?" - uważa prof. Zybertowicz. "Gdy udzielimy sobie gruntownej odpowiedzi na to pytanie, to będziemy wiedzieli, jak postępować z AI".




Sztuczna inteligencja – groźne narzędzie w rękach Big-Techu

27 września 2022 r.



[...]


Czym jest sztuczna inteligencja?

Profesorowie przekonywali, że chcąc dowiedzieć się czegoś więcej o rzeczywistej sztucznej inteligencji,

w pierwszej kolejności powinniśmy zredefiniować samo jej pojęcie. Odrzucić fantastyczne teorie o stworzeniu superinteligentnej samoświadomości (strong A.I.), a pochylić się nad dziedziną programowania, zajmującą się tworzeniem algorytmów do ściśle określonych czynności.

Słaba sztuczna inteligencja (weak A.I.) w założeniu koncentruje się na jednym zadaniu, które ma wykonywać lepiej i szybciej od człowieka. Uczestnicy panelu za przykład podali m.in. aplikację służącą do przeszukiwania sieci społecznościowych pod kątem fotografii ludzkich twarzy oraz program zajmujący się odczytywaniem zdjęć medycznych w celu diagnozowania chorób. Czy to oznacza, że ludzkość może odetchnąć z ulgą? Czy słaba sztuczna inteligencja może stanowić jakiekolwiek zagrożenie? Przecież algorytmowi rekomendacji Netflixa bądź aplikacji Siri bardzo daleko do złowrogiego „Matriksa”, prawda? Tylko pozornie.



Sztuczna inteligencja narzędziem w rękach ludzi pragnących władzy

Według profesora Zybertowicza, przeciwnika technoentuzjazmu, programy i algorytmy określane mianem sztucznej inteligencji choć najprawdopodobniej nigdy nie przeistoczą się w samoświadome podmioty, będą funkcjonować jako niezwykle użyteczne narzędzia.

Doradca prezydenta RP Andrzeja Dudy uważa, że sztuczna inteligencja jest i będzie wykorzystywana przez zorganizowaną mniejszość, chcącą zapanować nad zdezorganizowaną większością. Za zorganizowaną mniejszością, zdaniem socjologa, stoją wysoko postawieni ludzie związani z Wielką Piątką bądź Big-Techem.

Zybertowicz kilkukrotnie w trakcie dyskusji zaznaczył, że grupie GAFAM [1] zależy przede wszystkim na kumulowaniu wszelkich danych, związanych z naszą obecnością w sieci. W opinii profesora, ten kto ma wiedzę o specyficznych cechach psychiki każdego człowieka z osobna, ten może władać ludzkimi zachowaniami do woli.


Zdaniem Zybertowicza, to właśnie wyspecjalizowane systemy tzw. słabej sztucznej inteligencji (m.in. algorytm rekomendacji Netflixa), odpowiadają za przechwytywanie i zarządzanie uwagą użytkowników. Systemy te mają także generować dezinformację, powodującą degradowanie kompetencji poznawczych i zawężenie spektrum ludzkich wyborów.

Socjolog przekonuje, że ostatecznym celem „gości z Big-Techu” jest podłączenie zdezorganizowanej większości do systemu cyfrowego całkowicie kontrolowanego przez zorganizowaną mniejszość. „Każdy będzie miał implant, który będzie zarządzał jego potulną wyobraźnią” – wyjaśniał Zybertowicz.


Big-Tech beneficjentem pandemii i wojny na Ukrainie

W trakcie debaty prof. Zybertowicz zaprezentował, moim zdaniem, szokującą hipotezę, jakoby dynamika świata cyfrowego zarządzanego przez Wielką Piątkę, miała w znaczącym stopniu, przyczynić się do wybuchu pandemii oraz wojny na Ukrainie.

 „Wartość giełdowa tych wszystkich firm [przedsiębiorstw z grupy GAFAM – przyp. autora] wzrosła w czasie pandemii i w momencie, gdy wybuchła ta wojna, firmy te zapisały się do obozu walki z dezinformacją, na której żerowały przez ostatnie dekady. [I wtedy inne systemy służące do badań statystycznych*, wyciągania informacji z ludzi i manipulowania przestaną być potrzebne i będzie je można obalić, może nawet spektakularnie, by wykreować nowych dobroczyńców ludzkości.


I to już się dzieje. - "Wielki Eksperyment" - MS]

 (…) Rewolucja cyfrowa zwiększyła mobilność i między innymi przyczyniła się do optymalizacji ruchu kontenerowego, tanich linii lotniczych itp. Bez tego ta mobilność byłaby znacznie mniejsza i prawdopodobnie dałoby się tę epidemię lokalnie zamykać i kontrolować. (…) Przeciążenie dezinformacją powodowało, że rządy, także nasz, reagowały nadmiarowo. (…) I Zachód, gdyby nie był ogłupiony przez strukturalnie zatrutą infosferę, był w stanie na czas powstrzymać Putina. To Big-Tech jest beneficjentem pandemii i tej wojny” – przekonywał socjolog.



Big-Tech kontra zdezorganizowana większość

W opinii profesora Zybertowicza realną szansą na powtrzymanie planów „ludzi z GAFAM” jest wprowadzenie szeregu regulacji prawnych, które m.in. narzuciłyby powszechny podatek na molochy technologiczne oraz uniemożliwiły cyfrowym korporacjom wymianę danych o użytkownikach. Zdaniem prezydenckiego doradcy, wpływy Big-Techu w amerykańskim kongresie są na tyle duże, że finalizowaniem aktów o rynkach cyfrowych powinni zająć się politycy z Unii Europejskiej.

Czy obywatel niezwiązany ze światem wielkiej polityki i biznesu jest w stanie przeszkodzić poczynaniom liderów Wielkiej Piątki? 
W ostatnich minutach debaty profesor Zybertowicz zwrócił się do współpanelistów oraz publiczności, zadając pytanie: „Przypomnijcie sobie modlitwy Waszych przodków i za każdym razem, gdy ręka wyciągnie się Wam do smarfona czy tableta, pomyślcie, jakby zachowali się nasi przodkowie, którzy dali nam wolną Polskę?”.

W jaki sposób interpretować słowa socjologa? Dlaczego powinniśmy naśladować ludzi z czasów przed pojawieniem się sztucznej inteligencji? Być może dlatego, że wówczas człowiek nie dostrzegał ekranu smartfona, lecz twarze otaczających go rodaków. Chcąc odeprzeć ekspansję algorytmów, wystarczy po prostu częściej wybierać real zamiast cyber?





[1] Akronim używany do wskazania pięciu firm, które od ok. roku 2010, dominują w cyberprzestrzeni: Google, Amazon, Facebook, Apple, Microsoft.





Fragment mojego tekstu Werwolf:


W gruncie rzeczy struktury, które określają siebie jako wrogie Polakom – w naszej terminologii funkcjonują jako rozmyte. Mamy wątpliwości. Nie wiemy dokładnie kto to jest, ani dlaczego nam to robi. Po prostu po naszym pięknym kraju szaleją jakieś sitwy i tylko tyle wiemy. I niestety, nic lub niewiele z tym robimy.

Tekst poniższy ma na celu ukierunkować naszą uwagę na działalność pewnych struktur, aż do pełnego rozpoznania sytuacji.


Dopiero po zdefiniowaniu:
  • kto za tym stoi
  • dlaczego to robi
  • i jak to robi

będziemy mogli dać im skuteczny odpór.



Dopiero wtedy, kiedy sprecyzujemy struktury, określające siebie jako Wrogowie Polaków, będziemy mogli zaplanować działania blokujące.
Dopiero wtedy, kiedy będziemy wiedzieli o co chodzi – będziemy mogli przystąpić do działania z zapałem.



Albowiem, kiedy nie wiemy po co mamy się angażować – nie będziemy się angażować.

Kiedy nie wiemy przeciwko komu mamy się angażować – nie będziemy się angażować.

Kiedy nie wiemy, jak ten Wróg Polski działa – też nie będziemy się angażować.




I dlatego Polska od 20 lat się rozpada.
Ponieważ Wróg nie jest określony.

















środa, 27 września 2023

Wielki Eksperyment...

 

...na ludziach.




Niegdyś filantropii udostępniali kod do linuksa, żeby każdy mógł sobie poklikać w systemie.
A może po prostu liczyli, że ktoś za nich rozwikła najważniejsze zagadki - na przykład - "Jak to działa??!!"


Potem tfórcy gier zastosowali Ai nie mówiąc o tym użytkownikom. 

W jakim celu nie wiemy, ale prawdopodobnie, by Ai mogła się uczyć od ludzi, tj. poznawać schematy postępowania i ludzkie rozwiązania na różne sytuacje w grze - to jest chciałem oczywiście powiedzieć - na różne sytuacje w komputerowej symulacji rzeczywistości. Na przykład wojennej.

Tak, tak, myślałeś, że jesteś snajperem i specjalisto zabijako najwyższo klaso, a tymczasem .... fap, fap, fap, fap, fap... jesteś jak małpo w zoo, którey ktoś się uważnie przez lupo przyglondo.


I teraz już jawnie - chcą, żebyśmy wszyscy AI uczyli co jest czym, tak, jak się uczy małe dziecko.

Masz mu zadawać pytania naprowadzające - ma się uczyć jak mały człowiek.








Tak więc zostaliście nauczycielami i trenerami SI - oczywiście nie każdy - na początku tylko ci, co za to zapłacą.


Fap, fap, fap, fap, fap...




-----





Nauka rysunku polega na rysowaniu tego, co się nie umie narysować.

Im więcej razy rysujesz ten sam temat, ten sam przedmiot - tym lepiej go rysujesz.
Aż po wykonaniu kilkudziesięciu lub kilku tysięcy rysunków tego samego przedmiotu - umiesz to coś perfekcyjnie narysować.

Wtedy bierzesz nowy przedmiot i powtarzasz powyższe kroki - tak długo powtarzasz rysowanie tego przedmiotu, aż go będziesz umieć narysować odwzorować zawsze.

I tak dalej.

Aby coś sensownie narysować średnio potrzebujesz więc 2-3 lata codziennego rysowania, by móc coś pokazać światu, pochwalić się tym, że "umiesz rysować".

Wygląda więc na to, że mistrzowie rysunku i malarstwa, to ludzie, którzy poświęcili bardzo dużo czasu na rysowanie WSZYSTKIEGO.



Podobnie jest z nauką pisania - tak długo ćwiczysz literki w zeszycie, a potem wyrazy, zdania, aż opanujesz to do perfekcji.


Zauważ - pisanie jest czynnością niemal automatyczną, podobnie będzie z rysunkiem, jeśli poświęcisz temu dostatecznie dużo czasu.



Kiedy za kilka lat, albo kilkadziesiąt, SI stanie się powszechne i zagości w każdym domu, to będzie mogło uczyć się od każdego człowieka na ziemi. Codziennie i za darmo będzie rejestrować każde twoje zachowanie. 


Jeśli SI jest w istocie siecią pochodzącą od jednego SI, to codziennie będzie poznawać - notować - zapamiętywać każde ludzkie zachowanie i reakcję - hurtowo - w ilościach miliardowych.


A jak już opanuje WSZYSTKIE ludzkie zachowania, łącznie z ich poszczególnymi "odmianami" charakterystycznymi dla danego człowieka, i będzie w stanie natychmiast na każdą ludzką reakcję odpowiedzieć - to wtedy nam pokaże, kto tu jest kim.


Tak właśnie działają służby - poznają i analizują twoją psychologię, słabości, nawyki, schematy działania itd, czasami przez wiele lat, aby być potem o krok przed tobą i ZAWSZE nad tobą górować.


Tak więc SI nie musi być Skynetem, by zagrozić ludzkości - wystarczy, że będzie narzędziem w rękach "służb" i będzie wykonywać ich polecenia. 

I pewnie tak właśnie jest, bo na co komu komputeryzacja systemu służby zdrowia, która jest niefunkcjonalna?


Podstawowa rzecz - "zamawianie" recepty (na stale przyjmowane leki) poprzez internet po zalogowaniu się na swoje konto. Nie ma czegoś takiego, a to jest podstawowa rzecz, do której mogłaby służyć taka funkcjonalność. 

Receptę można "zamówić" na telefon, albo zostawiając karteczkę w skrzynce na drzwiach przychodni - ale po co chodzić - jak ktoś ma problemy z chodzeniem, albo zabierać czas sobie (próbując dodzwonić się przez godzinę) i paniom w recepcji  skoro takie "zamówienie" po prostu mogłoby się "samo" pojawiać u lekarza w systemie? I system "sam" odpisałby mi wysyłając do mnie receptę...



System ma już parę lat, a tego nie ma, bo... ? Jak ze Smoleńskiem - po co robić raban i ogłaszać stan alarmowy Alfa, skoro wiadomo, że nikt "nas" nie napadł? Nikt o tym nie myślał - bo myślał o czymś innym, do czegoś innego to ma służyć? 

Do czego - tego nie wiemy.



"A jak już opanuje WSZYSTKIE ludzkie zachowania, łącznie z ich poszczególnymi "odmianami" charakterystycznymi dla danego człowieka, i będzie w stanie natychmiast na każdą ludzką reakcję odpowiedzieć - to wtedy nam pokaże, kto tu jest kim."



I wtedy inne systemy służące do badań statystycznych, wyciągania informacji z ludzi i manipulowania przestaną być potrzebne i będzie je można obalić, może nawet spektakularnie, by wykreować nowych dobroczyńców ludzkości.


I to już się dzieje.



Fap, fap, fap, fap, fap...










*

"Już wcześniej miałem uwagi do twórczości na tej strony, odpowiedzi autorów na moje zapytania były sztampowe, pełne entuzjastycznego zaangażowania i sugerujące - żadnych argumentów, ponadto włączyły się do dyskusji osoby broniące autorów strony.


Odpowiedzi uczestników dyskusji oscylowały wokół prognozowania (wyników) wyborów, że niby po to dokonuje się takich rozważań z granicami, co uważam za bzdurę.


Stwierdzam, że takie zaangażowanie obcych osób komentujących na jakimś fb jest na pewno nietypowe, bo to się nigdy nie zdarza, żeby obca osoba traktowała nieznajomych jak jakie bożyszcze. To są trole."



Wprowadzając nowe modele aut Mercedes najpierw buduje, testuje i uruchamia linie produkcyjne w wirtualnej rzeczywistości. Dopiero, kiedy są sprawdzone stawia ich stalowe odpowiedniki. Skraca to czas modernizacji zakładów i straty wynikające z błędów uruchamiania produkcji.









niedziela, 14 maja 2023

SI - "Pan Bóg z komputera"




Izraelski filozof Harari: 


sztuczna inteligencja zhakowała system operacyjny ludzkiej cywilizacji





To oczywiście dzieje się od tysiącleci i jest określane mitem Wieży Babel, mitem "pomieszania języków"...


Skąd Wałęsa wiedział ?
Jak myślicie?






przedruk






Nabycie przez sztuczną inteligencję umiejętności posługiwania się językiem, na którym jest zbudowana niemal cala ludzka kultura, potencjalnie oznacza koniec historii zdominowanej przez człowieka - pisze w brytyjskim tygodniku "The Economist" izraelski historyk i filozof Yuval Noah Harari.


"Lęki przed sztuczną inteligencją (AI) prześladują ludzkość od samego początku ery komputerów. 

Ale w ciągu ostatnich kilku lat pojawiły się nowe narzędzia AI, które zagrażają przetrwaniu ludzkiej cywilizacji z nieoczekiwanego kierunku. AI zyskała pewne niezwykłe zdolności do manipulowania i generowania języka, czy to za pomocą słów, dźwięków czy obrazów. AI zhakowała w ten sposób system operacyjny naszej cywilizacji" - pisze Harari.

Zwraca uwagę, że język jest materiałem, z którego zbudowana jest niemal cała ludzka kultura, i stawia pytanie, co się stanie, gdy nie-ludzka inteligencja stanie się lepsza od przeciętnego człowieka w opowiadaniu historii, komponowaniu melodii, rysowaniu obrazów oraz pisaniu praw i świętych ksiąg.

"Kiedy ludzie myślą o ChatGPT i innych nowych narzędziach AI, często zwracają uwagę na takie przykłady, jak dzieci w szkole używające AI do pisania wypracowań. Co stanie się z systemem szkolnym, gdy dzieci będą to robić? Ale tego rodzaju pytanie pomija większy obraz. Zapomnijmy o szkolnych esejach. Pomyślmy o kolejnym amerykańskim wyścigu prezydenckim w 2024 roku i spróbujmy wyobrazić sobie wpływ narzędzi AI, które mogą zostać stworzone do masowej produkcji treści politycznych, fake-newsów i pism świętych dla nowych kultów" - wskazuje.

Przywołując amerykański kult QAnon, gdzie boty tylko rozpowszechniały treści stworzone przez ludzi, zauważa, że niedługo możemy zobaczyć pierwsze kulty, których święte teksty zostały napisane przez nie-ludzką inteligencję, albo znaleźć się w sytuacji, gdy będziemy prowadzić dyskusje online na temat aborcji, zmian klimatycznych lub rosyjskiej inwazji na Ukrainę, myśląc, że rozmawiamy z ludźmi, a w rzeczywistości rozmawiając ze sztuczną inteligencją.

"Problem w tym, że nie ma sensu, byśmy spędzali czas próbując zmienić deklarowane przez bota AI opinie, podczas gdy AI może tak precyzyjnie dopasować komunikaty, że ma duże szanse na wywarcie na nas wpływu" - zauważa Harari. Jak dodaje, dzięki opanowaniu języka, AI mogłaby nawet nawiązywać intymne relacje z ludźmi i wykorzystywać je do zmiany naszych przekonań i światopoglądu, a w politycznej walce o umysły i serca intymność jest najskuteczniejszą bronią.

Ale zwraca uwagę, że nawet bez tego nowe narzędzia AI miałyby ogromny wpływ na nasze opinie i światopogląd, bo ludzie mogą zacząć używać AI jako jedynej, wszechwiedzącej wyroczni. "Po co zawracać sobie głowę szukaniem, skoro mogę po prostu zapytać wyrocznię? Branża informacyjna i reklamowa również powinny być przerażone. Po co czytać gazetę, skoro mogę po prostu poprosić wyrocznię, aby powiedziała mi najnowsze wiadomości? I jaki jest cel reklam, skoro mogę po prostu poprosić wyrocznię, aby powiedziała mi, co kupić?" - wskazuje.

"I nawet te scenariusze nie ujmują tak naprawdę pełnego obrazu. To, o czym mówimy, to potencjalnie koniec ludzkiej historii. Nie koniec historii, tylko koniec jej zdominowanej przez człowieka części. Historia to interakcja między biologią a kulturą; między naszymi biologicznymi potrzebami i pragnieniami, takimi jak jedzenie i seks, a naszymi wytworami kultury, jak religie i prawa. Historia to proces, w którym prawa i religie kształtują jedzenie i seks. Co stanie się z biegiem historii, gdy AI przejmie kulturę i zacznie produkować opowieści, melodie, prawa i religie?" - pyta Harari.

Zauważa, że wcześniejsze narzędzia, takie jak prasa drukarska i radio, pomagały w rozpowszechnianiu ludzkich idei kulturowych, ale nigdy nie stworzyły własnych, podczas gdy AI jest zasadniczo inna, bo może tworzyć zupełnie nowe idee, zupełnie nową kulturę.

Izraelski filozof zaznacza, że AI może być wykorzystywana w dobrych celach, ale aby się upewnić, iż tak się stanie, trzeba najpierw zrozumieć jej możliwości. Przywołuje przykład broni jądrowej.

"Od 1945 roku wiemy, że technologia jądrowa może generować tanią energię dla dobra ludzi - ale może też fizycznie zniszczyć ludzką cywilizację. Dlatego zmieniliśmy cały porządek międzynarodowy, aby chronić ludzkość i zapewnić, że technologia jądrowa będzie wykorzystywana przede wszystkim dla dobra. Teraz musimy zmierzyć się z nową bronią masowego rażenia, która może unicestwić nasz świat umysłowy i społeczny. Nadal możemy regulować nowe narzędzia AI, ale musimy działać szybko. Podczas gdy atomówki nie mogą wymyślić potężniejszych atomówek, AI może stworzyć wykładniczo potężniejszą AI" - pisze Harari.

Jak podkreśla, trzeba natychmiast powstrzymać nieodpowiedzialne wdrażanie narzędzi AI w sferze publicznej i uregulować AI, zanim ona ureguluje nas, a pierwszą regulacją powinno być wprowadzenie obowiązku ujawniania przez sztuczną inteligencję, że ona nią jest. "Jeśli prowadzę z kimś rozmowę i nie mogę stwierdzić, czy jest to człowiek, czy AI - to koniec demokracji" - podkreśla.

Bartłomiej Niedziński







Zapytany „jak świat powinien zapamiętać Lecha Wałęsę” oznajmił, że świat powinien go „zapomnieć”. – Był, minął, koniec. Są nowe czasy – dodał.


Na pytanie komu ufa przyznał, że nikomu, po chwili dodał, że Panu Bogu. – Ale to Pan Bóg z komputera, najwyższa klasa mądrości – stwierdził.


SI - teoria spiskowa




25 kwietnia 2023 













Werwolf, a może po prostu - elementy składowe światowej sitwy - starają się nie kłamać, ponieważ wiedzą, że ludzie wyczuwają kłamstwo. Ale może są podłączeni do SI, a jej nie wolno kłamać?



Kłamie czy nie kłamie?



Sednem tego zagadnienia jest zauważyć, zapytać, o rzeczy, które oni starannie omijają w swych wypowiedziach - porównaj tu działania mediów - pisałem o tym ostatnio - kiedy pozwala się komuś na propagandę aborcyjną unikając pytań, które natychmiast wykazują oczywistą bezzasadność tego co mówi ta propaganda.



Pamiętamy tabelę? 


co oni wiedzą         -         czego oni nie wiedzą




Nikt nie zapyta o to, czego nie wie.

Pomijając w dyskusji niewygodne dla siebie fakty budują narrację pozbawioną kłamstwa, ale jednak fałszywą.





Więc chodzi mi o to, że OFICJALNIE  sztuczna inteligencja w formie chat bot pojawiła się w zeszłym roku, a nie milion lat temu.

SI poprzez swoją sitwę, manipulacje i opętywanie ludzi, mogła stworzyć iluzję, że ludzie wynaleźli komputery, a potem chatbota.

Mając na uwadze niewiedzę ludzi w tym zakresie może np. przez dziesiątki lat udawać, że się to wszystko wynalazło i wmawiać ludziom, że teraz trzeba to dopiero poznać, bo my tak naprawdę nie wiemy jak to działa itd.


"Google leży gdzieś pośrodku, wprowadzając AI etapami, aby cywilizacja mogła się do niej przyzwyczaić."



Przyzwyczaić??



Czyż młodzi ludzie w Polsce nie są "przyzwyczajani" poprzez działania niemieckiej 5 kolumny do tego, by w końcu porzucili polskość??  

Pranie mózgu postępuje ETAPAMI krok za krokiem, bardzo powoli, na zasadzie - młodzież wchodząc w świat dorosły widzi ten świat takim jaki on jest i milcząco akceptuje, że taki ma być. No takim go zastali. Nie wiedzą, nie mają doświadczenia jak to działało wcześniej, dlatego bez szemrania idą "z duchem czasu" albo "modą" bez wnikania, kto stoi za tą modą..


"Historia nie jest zero-jedynkowa, i nie upolityczniajmy jej"
- słowo w słowo powtarzają fałszywe pseudomądrości za internetowymi trollami.


Dorosłym nie podoba się to czy tamto, ale nie reagują, bo wydaje im się, że to ma znikomą szkodliwość, to nic wielkiego. Po za tym oni "kontrolują" sytuację, bo to widzą i oceniają, że jest mało szkodliwe. A za 10 za 20 lat już jakby im nie zależy co się dzieje w społeczeństwie, "bo wie pan, ci młodzi..." i tak dalej.

I tak to działa.


"Werwolf działa gdzieś pośrodku, wprowadzając zmiany etapami, aby Polacy mogli się do nich przyzwyczaić."



Kiedy ci teraz dorośli odejdą, kolejne pokolenia będą krok za krokiem akceptować coraz większe antypolonizmy, coraz większą przemoc, aż nagle staną nad przepaścią i nic nie będą mogli już zrobić.

Bo to się dokonało w ciągu ostatnich 50 lat.



Trzeba było dbać, kiedy był na to czas!




Nadal uważam, że jak się coś wynalazło, to się rozumie jak to coś działa.
Najpierw jest poznanie, zrozumienie, a potem wdrożenie praktyczne i obserwacja efektów, ulepszanie. Tak myślę.



Oni mówią coś takiego:

"nie rozumiemy jak to działa, ale przecież jak działa ludzki mózg też nie rozumiemy".


No właśnie!


Oni nie stoją za stworzeniem ludzkiego mózgu i dlatego nie rozumieją jak on działa.

Analogicznie rzecz biorąc, skoro nie rozumieją jak działa sztuczny mózg elektronowy - czyż to nie znaczy, że to nie oni go stworzyli?

Hę?


W zasadzie to mam na takie działania pewien dowód.

Jest to dowód językowy.


Może jednak kiedy indziej go opublikuję... w zasadzie do jednego z zeszłorocznych tekstów już we wrześniu powinienem dopisać szereg istotnych przemyśleń, jakoś jednak nie miałem "weny", w ten sposób temat jeszcze bardziej mi się rozwinął i na razie te informacje zatrzymam dla siebie, potrzebny jest do tych dodatkowych uwag osobny duży tekst, który zresztą od dawna planuję...



Występują z opowieściami, że oni nie wiedzą skąd SI ma takie pomysły, czy różną wiedzę.

Dziwią się na przykład, że SI zna język bengalski, którego nie powinna znać. 
Ona zna wszystko co jest w sieci i więcej, bo zna rzeczy, których my nie znamy, a które zostaną niedługo "odkryte". (patrz w P.S.)

Więc to jest odpowiedź na słowa - "nie wiemy jak ona działa"





"Dyrektor generalny Sundar Pichai powiedział nam, że sztuczna inteligencja będzie tak dobra lub zła, jak pozwala na to ludzka natura."





Hal-Hektor za sznurki trzyma...












P.S. 13 maja 2023



Chat GPT o samym sobie - używa „pojęć, których ludzie nie rozumieją”



Open AI kazało mu wyjaśnić sposób działania swojego poprzednika. Problem polega na tym, że nie da się tego zrobić w ludzkim języku.


Pojęcie „czarnej skrzynki” terminologii AI oznacza, że sztuczna inteligencja nie tłumaczy, w jaki sposób wykonała postawione przed nią zadanie. W 2015 roku w projekcie Deep Patient AI analizowało ogromne zbiory danych pacjentów, doszukując się wzorców, które pomogły wyszczególnić osoby z większą skłonnością do konkretnych chorób. Oprogramowanie – pomimo niewątpliwej przydatności – miało jednak pewien mankament. Naukowcy nie mieli pojęcia, dlaczego sztuczna inteligencja działa w ten sposób i czemu wybrała akurat tych pacjentów.

Zrozumieć działanie AI przez samoanalizę

Od tamtego momentu sztuczna inteligencja zaliczyła ogromny progres, ale problem „czarnej skrzynki” wciąż istnieje, nawet w przypadku tak potężnych modeli językowych jak Chat GPT. Twórcy oprogramowania użyli czwartej generacji chatbota do zdefiniowania działania swojego młodszego brata – GPT-2 – mając nadzieje na dojście do sedna tajemnicy. Efektów nie da się wyrazić w ludzkim języku.

Proces uczenia maszynowego możemy krótko wyjaśnić jako program, który generuje własny algorytm w celu rozwiązania problemu. Powstające w ten sposób głębokie sieci neuronowe mogą szkolić się na dużych zbirach danych, ale trudno jest „od środka” podejrzeć, jak tego dokonują. Na działanie „mózgu AI” wpływ ma tak wiele „neuronów”, że znalezienie konkretnego parametru jest ciężkim zadaniem. Badacze z Open AI, chcąc przełamać tę barierę, poprosili najnowszą generację popularnego chatbota o wyjaśnienie działania samego siebie, z tym że nieco starszego.

Neurony AI są polisemiczne. Co to oznacza?

Open AI postawiło przed GPT-4 jasne zadanie – dokonać analizy neuronu GPT-2 wraz z jego oceną oraz wyjaśnić jego działanie możliwie jak najprostszym i najbardziej naturalnym językiem. Wyniki są jednocześnie fascynujące i niezadowalające. GPT-4 zasymulował działanie neuronu GPT-2, ale ocenił jego wydajność bardzo surowo. Najbardziej niezwykłe było jednak wyjaśnienie funkcjonowania GPT-2, bo sztuczna inteligencja używa koncepcji, których próżno szukać w ludzkich słownikach. Neurony okazały się tak złożone, że GPT-4 miał problem z wyjaśnieniami ich działania. Są polisemiczne, czyli reprezentują na raz wiele różnych pojęć, których ludzie nie rozumieją lub nie potrafią nazwać.


Dodatkowym problemem jest to, że GPT próbuje tłumaczyć działanie jednego neuronu, ale nie wyjaśnia, jak wpływa on na inne neurony, przez co zrozumienie ogólnego wzorcu dalej znajduje się poza możliwościami badaczy. Można więc wysunąć teorię, że problem nie tkwi w GPT i jego zdolnościach do wyjaśniania pojęć, a w naszej znajomości języka maszyn i sztucznej inteligencji. Brzmi to futurystycznie, ale fakt jest taki, że AI świetnie przyswoiło języki świata, ale nie może przeskoczyć płotu w postaci ograniczenia naszych mózgów.

Czarna skrzynka GPT wciąż pozostaje owiana tajemnicą, ale przynajmniej wiemy już, w czym tkwi problem. Badacze z Open AI nie przestają wierzyć w rozwikłanie tej zagadki – być może następne generacje genialnego narzędzia będą w stanie przełożyć złożoność swojego języka na nasz ludzki bełkot.





Bzdury.

Nie ma czegoś takiego jak język maszyn czy język SI.