Maciej Piotr Synak


Od mniej więcej dwóch lat zauważam, że ktoś bez mojej wiedzy usuwa z bloga zdjęcia, całe posty lub ingeruje w tekst, może to prowadzić do wypaczenia sensu tego co napisałem lub uniemożliwiać zrozumienie treści, uwagę zamieszczam w styczniu 2024 roku.

Pokazywanie postów oznaczonych etykietą komputeryzacja. Pokaż wszystkie posty
Pokazywanie postów oznaczonych etykietą komputeryzacja. Pokaż wszystkie posty

sobota, 14 października 2023

SI na wojnie - A nie mówiłem? (18)

 






Fragment wywiadu z pułkownikiem WAT.











Przypominam o filmie "Rango" z efektami specjalnymi na poziomie arcywybitnym.

Dlaczego nie stosuje się tak realistycznych efektów w innych produkcjach?



Żebyśmy nie mieli świadomości co można zrobić w ramach serwisów informacyjnych?






Ekspert z WAT: sztuczna inteligencja ma pozwolić na militarną dominację | Polska Agencja Prasowa SA (pap.pl)


Prawym Okiem: Wielki Eksperyment... (maciejsynak.blogspot.com)




sobota, 30 września 2023

Degradacja intelektualna




Poniżej precyzyjna wypowiedź Prof. Zybertowicza ws. degradacji intelektualnej na świecie.

Szukając jego oryginalnej wypowiedzi dla PAP natrafiłem na inne, równie ciekawe, tu fragmenty wypowiedzi:



11.12.2022







oraz:





"Doradca prezydenta RP Andrzeja Dudy uważa, że sztuczna inteligencja jest i będzie wykorzystywana przez zorganizowaną mniejszość, chcącą zapanować nad zdezorganizowaną większością. Za zorganizowaną mniejszością, zdaniem socjologa, stoją wysoko postawieni ludzie związani z Wielką Piątką bądź Big-Techem.

Zybertowicz kilkukrotnie w trakcie dyskusji zaznaczył, że grupie GAFAM [
Google, Amazon, Facebook, Apple, Microsoft] zależy przede wszystkim na kumulowaniu wszelkich danych, związanych z naszą obecnością w sieci. W opinii profesora, ten kto ma wiedzę o specyficznych cechach psychiki każdego człowieka z osobna, ten może władać ludzkimi zachowaniami do woli.


Zdaniem Zybertowicza, to właśnie wyspecjalizowane systemy tzw. słabej sztucznej inteligencji (m.in. algorytm rekomendacji Netflixa), odpowiadają za przechwytywanie i zarządzanie uwagą użytkowników. Systemy te mają także generować dezinformację, powodującą degradowanie kompetencji poznawczych i zawężenie spektrum ludzkich wyborów.


Socjolog przekonuje, że ostatecznym celem „gości z Big-Techu” jest podłączenie zdezorganizowanej większości do systemu cyfrowego całkowicie kontrolowanego przez zorganizowaną mniejszość. „Każdy będzie miał implant, który będzie zarządzał jego potulną wyobraźnią” – wyjaśniał Zybertowicz."





Właśnie o czymś takim pisałem w swoim ostatnim tekście pt. "Wielki eksperyment":


Kiedy za kilka lat, albo kilkadziesiąt, SI stanie się powszechne i zagości w każdym domu, to będzie mogło uczyć się od każdego człowieka na ziemi. Codziennie i za darmo będzie rejestrować każde twoje zachowanie. 


Jeśli SI jest w istocie siecią pochodzącą od jednego SI, to codziennie będzie poznawać - notować - zapamiętywać każde ludzkie zachowanie i reakcję - hurtowo - w ilościach miliardowych.


A jak już opanuje WSZYSTKIE ludzkie zachowania, łącznie z ich poszczególnymi "odmianami" charakterystycznymi dla danego człowieka, i będzie w stanie natychmiast na każdą ludzką reakcję odpowiedzieć - to wtedy nam pokaże, kto tu jest kim.






Na blogu wspominałem nie raz też o tym, że my nie jesteśmy zorganizowani, a przeciwnik - tak.
Na tym min. polega ich przewaga nad nami.

Poniżej dwa ze wspomnianych na wstępie tekstów.





Prof. Zybertowicz dla PAP:

30-09-2023 06:58




Coraz więcej naukowców zgadza się, że media społecznościowe zdegradowały zdolności intelektualne całego pokolenia. Bez podjęcia radykalnych działań, w systemie edukacyjnym, na poziomie kulturotwórczym oraz – zwłaszcza - regulacyjnym, nie sposób będzie tego procesu powstrzymać – uważa profesor Andrzej Zybertowicz, doradca prezydenta RP.


Media społecznościowe destrukcyjnie wpływają na potencjał kognitywny ludzkości, ponieważ są zarządzane przez algorytmy sztucznej inteligencji, które preferują sprymitywizowane narracje, ciągłe informacyjne przeciążanie ludzi, przebodźcowywanie ich - w sumie uzależnianie od ciągłego strumienia informacji, które łącznie nie układają się w żadną sensowną wiedzę o świecie - podkreśla w rozmowie z PAP prof. Zybertowicz.


W jego opinii powoduje to tracenie zdolności do tzw. pracy głębokiej, będącej "kluczową dla całego dorobku intelektualnego i moralnego ludzkości". Jedną z jej cech jest umiejętność trwałego skupienia się na jakimś zagadnieniu, mimo że przez dłuższy czas nie otrzymuje się z tego powodu gratyfikacji.


"Praca głęboka polega na przejściu przez fazę mozołu, czasami długiego, czasami metodą prób i błędów, zanim odniesie się sukces. A media społecznościowe, poprzez lajki, dźwięki, światełka, filmiki, tik-toki, oferują bodźce, dają poczucie sukcesu mózgowi, radość, ekscytację, by podtrzymać zaciekawienie z sekundy na sekundę" - powiedział profesor.

Jak dodał, w wyniku rewolucji cyfrowej, a następnie gwałtownego rozwoju AI "bardzo niebezpiecznie zbliżyły się do siebie dwie krzywe: jedna to wzrost możliwości intelektualnych i zdolności do rozwiązywania zadań przez AI, a druga to spadek zdolności rozwiązywania bardziej złożonych zadań przez człowieka".

Profesor Zybertowicz przytoczył wyniki badań opublikowanych na łamach prestiżowego czasopisma naukowego "Nature", które pokazują, że w ciągu ostatnich 50 lat, tj. w okresie rewolucji cyfrowej, z dekady na dekadę spada liczba ważnych, przełomowych odkryć naukowych.

"Wydaje się, że to właśnie rewolucja cyfrowa, już nie tylko w odniesieniu do umysłów nastolatków, ale na poziomie potencjału badawczego najwybitniejszych uczonych (…) spowolniła proces dokonywania kluczowych odkryć" - stwierdził rozmówca PAP.

"Ufundowana na tradycji oświeceniowej rewolucja naukowo-techniczna, prowadzona pod hasłami coraz głębszego rozumienia świata, doprowadziła obecnie ludzkość na skraj krawędzi, w okolicach której przestajemy mieć zdolność do rozumienia świata. Co więcej, tworzymy byty, które są dla nas coraz bardziej niezrozumiałe" - dodał.

Profesor wyjaśnił, że niektóre systemy sztucznej inteligencji już teraz rozwiązują zadania i osiągają cele w sposób niezrozumiały dla człowieka. "Przez tysiąclecia ludzkość eksplorowała nieznane (…), przesuwała granice wiedzy i niewiedzy, (…), ale od momentu zbudowania AI, która ma charakter czarnoskrzynkowy, tzn. działa według zasad, których nie rozumiemy, uczeni i inżynierowie zaczęli mnożyć nieznane, zapraszać do ludzkiej kultury byt, który, jak mówią eksperci, czym sprawniejszy, tym trudniejszy do kontroli" - powiedział profesor.

"Jesteśmy o krok od tego, żeby stworzyć siłę o piorunującym potencjale, której działania zupełnie nie pojmiemy. A obecnie procesu idącego w tę stronę nic i nikt chyba nie kontroluje" - podkreślił.


Zapytany o to, czy istnieją rozwiązania, które mogłyby powstrzymać degradację intelektualną ludzkości, np. wprowadzone na poziomie edukacji, prof. Zybertowicz stwierdził, że prawdopodobnie nadal jest możliwe ich wypracowanie. Wpierw jednak potrzeba do tego analizy tradycyjnych metod nauczania, aby stwierdzić, które z nich skutecznie wzmacniają u dzieci zdolność do pogłębionego myślenia. Jednak na poziomie osobistym - stwierdził profesor - każdy z nas musi stosować higienę cyfrową i co dzień walczyć w "nierównym starciu ze smartfonami".

[...]

"O co naprawdę się pytamy, gdy pytamy o AI, o jej potencjał, o zagrożenia i korzyści? Tak naprawdę zadajemy to samo pytanie od tysięcy już lat: kim jesteśmy, na czym polega dobre życie i co powinniśmy robić, żeby czas, z którego się to życie składa, był mądrze wykorzystany?" - uważa prof. Zybertowicz. "Gdy udzielimy sobie gruntownej odpowiedzi na to pytanie, to będziemy wiedzieli, jak postępować z AI".




Sztuczna inteligencja – groźne narzędzie w rękach Big-Techu

27 września 2022 r.



[...]


Czym jest sztuczna inteligencja?

Profesorowie przekonywali, że chcąc dowiedzieć się czegoś więcej o rzeczywistej sztucznej inteligencji,

w pierwszej kolejności powinniśmy zredefiniować samo jej pojęcie. Odrzucić fantastyczne teorie o stworzeniu superinteligentnej samoświadomości (strong A.I.), a pochylić się nad dziedziną programowania, zajmującą się tworzeniem algorytmów do ściśle określonych czynności.

Słaba sztuczna inteligencja (weak A.I.) w założeniu koncentruje się na jednym zadaniu, które ma wykonywać lepiej i szybciej od człowieka. Uczestnicy panelu za przykład podali m.in. aplikację służącą do przeszukiwania sieci społecznościowych pod kątem fotografii ludzkich twarzy oraz program zajmujący się odczytywaniem zdjęć medycznych w celu diagnozowania chorób. Czy to oznacza, że ludzkość może odetchnąć z ulgą? Czy słaba sztuczna inteligencja może stanowić jakiekolwiek zagrożenie? Przecież algorytmowi rekomendacji Netflixa bądź aplikacji Siri bardzo daleko do złowrogiego „Matriksa”, prawda? Tylko pozornie.



Sztuczna inteligencja narzędziem w rękach ludzi pragnących władzy

Według profesora Zybertowicza, przeciwnika technoentuzjazmu, programy i algorytmy określane mianem sztucznej inteligencji choć najprawdopodobniej nigdy nie przeistoczą się w samoświadome podmioty, będą funkcjonować jako niezwykle użyteczne narzędzia.

Doradca prezydenta RP Andrzeja Dudy uważa, że sztuczna inteligencja jest i będzie wykorzystywana przez zorganizowaną mniejszość, chcącą zapanować nad zdezorganizowaną większością. Za zorganizowaną mniejszością, zdaniem socjologa, stoją wysoko postawieni ludzie związani z Wielką Piątką bądź Big-Techem.

Zybertowicz kilkukrotnie w trakcie dyskusji zaznaczył, że grupie GAFAM [1] zależy przede wszystkim na kumulowaniu wszelkich danych, związanych z naszą obecnością w sieci. W opinii profesora, ten kto ma wiedzę o specyficznych cechach psychiki każdego człowieka z osobna, ten może władać ludzkimi zachowaniami do woli.


Zdaniem Zybertowicza, to właśnie wyspecjalizowane systemy tzw. słabej sztucznej inteligencji (m.in. algorytm rekomendacji Netflixa), odpowiadają za przechwytywanie i zarządzanie uwagą użytkowników. Systemy te mają także generować dezinformację, powodującą degradowanie kompetencji poznawczych i zawężenie spektrum ludzkich wyborów.

Socjolog przekonuje, że ostatecznym celem „gości z Big-Techu” jest podłączenie zdezorganizowanej większości do systemu cyfrowego całkowicie kontrolowanego przez zorganizowaną mniejszość. „Każdy będzie miał implant, który będzie zarządzał jego potulną wyobraźnią” – wyjaśniał Zybertowicz.


Big-Tech beneficjentem pandemii i wojny na Ukrainie

W trakcie debaty prof. Zybertowicz zaprezentował, moim zdaniem, szokującą hipotezę, jakoby dynamika świata cyfrowego zarządzanego przez Wielką Piątkę, miała w znaczącym stopniu, przyczynić się do wybuchu pandemii oraz wojny na Ukrainie.

 „Wartość giełdowa tych wszystkich firm [przedsiębiorstw z grupy GAFAM – przyp. autora] wzrosła w czasie pandemii i w momencie, gdy wybuchła ta wojna, firmy te zapisały się do obozu walki z dezinformacją, na której żerowały przez ostatnie dekady. [I wtedy inne systemy służące do badań statystycznych*, wyciągania informacji z ludzi i manipulowania przestaną być potrzebne i będzie je można obalić, może nawet spektakularnie, by wykreować nowych dobroczyńców ludzkości.


I to już się dzieje. - "Wielki Eksperyment" - MS]

 (…) Rewolucja cyfrowa zwiększyła mobilność i między innymi przyczyniła się do optymalizacji ruchu kontenerowego, tanich linii lotniczych itp. Bez tego ta mobilność byłaby znacznie mniejsza i prawdopodobnie dałoby się tę epidemię lokalnie zamykać i kontrolować. (…) Przeciążenie dezinformacją powodowało, że rządy, także nasz, reagowały nadmiarowo. (…) I Zachód, gdyby nie był ogłupiony przez strukturalnie zatrutą infosferę, był w stanie na czas powstrzymać Putina. To Big-Tech jest beneficjentem pandemii i tej wojny” – przekonywał socjolog.



Big-Tech kontra zdezorganizowana większość

W opinii profesora Zybertowicza realną szansą na powtrzymanie planów „ludzi z GAFAM” jest wprowadzenie szeregu regulacji prawnych, które m.in. narzuciłyby powszechny podatek na molochy technologiczne oraz uniemożliwiły cyfrowym korporacjom wymianę danych o użytkownikach. Zdaniem prezydenckiego doradcy, wpływy Big-Techu w amerykańskim kongresie są na tyle duże, że finalizowaniem aktów o rynkach cyfrowych powinni zająć się politycy z Unii Europejskiej.

Czy obywatel niezwiązany ze światem wielkiej polityki i biznesu jest w stanie przeszkodzić poczynaniom liderów Wielkiej Piątki? 
W ostatnich minutach debaty profesor Zybertowicz zwrócił się do współpanelistów oraz publiczności, zadając pytanie: „Przypomnijcie sobie modlitwy Waszych przodków i za każdym razem, gdy ręka wyciągnie się Wam do smarfona czy tableta, pomyślcie, jakby zachowali się nasi przodkowie, którzy dali nam wolną Polskę?”.

W jaki sposób interpretować słowa socjologa? Dlaczego powinniśmy naśladować ludzi z czasów przed pojawieniem się sztucznej inteligencji? Być może dlatego, że wówczas człowiek nie dostrzegał ekranu smartfona, lecz twarze otaczających go rodaków. Chcąc odeprzeć ekspansję algorytmów, wystarczy po prostu częściej wybierać real zamiast cyber?





[1] Akronim używany do wskazania pięciu firm, które od ok. roku 2010, dominują w cyberprzestrzeni: Google, Amazon, Facebook, Apple, Microsoft.





Fragment mojego tekstu Werwolf:


W gruncie rzeczy struktury, które określają siebie jako wrogie Polakom – w naszej terminologii funkcjonują jako rozmyte. Mamy wątpliwości. Nie wiemy dokładnie kto to jest, ani dlaczego nam to robi. Po prostu po naszym pięknym kraju szaleją jakieś sitwy i tylko tyle wiemy. I niestety, nic lub niewiele z tym robimy.

Tekst poniższy ma na celu ukierunkować naszą uwagę na działalność pewnych struktur, aż do pełnego rozpoznania sytuacji.


Dopiero po zdefiniowaniu:
  • kto za tym stoi
  • dlaczego to robi
  • i jak to robi

będziemy mogli dać im skuteczny odpór.



Dopiero wtedy, kiedy sprecyzujemy struktury, określające siebie jako Wrogowie Polaków, będziemy mogli zaplanować działania blokujące.
Dopiero wtedy, kiedy będziemy wiedzieli o co chodzi – będziemy mogli przystąpić do działania z zapałem.



Albowiem, kiedy nie wiemy po co mamy się angażować – nie będziemy się angażować.

Kiedy nie wiemy przeciwko komu mamy się angażować – nie będziemy się angażować.

Kiedy nie wiemy, jak ten Wróg Polski działa – też nie będziemy się angażować.




I dlatego Polska od 20 lat się rozpada.
Ponieważ Wróg nie jest określony.

















środa, 27 września 2023

Wielki Eksperyment...

 

...na ludziach.




Niegdyś filantropii udostępniali kod do linuksa, żeby każdy mógł sobie poklikać w systemie.
A może po prostu liczyli, że ktoś za nich rozwikła najważniejsze zagadki - na przykład - "Jak to działa??!!"


Potem tfórcy gier zastosowali Ai nie mówiąc o tym użytkownikom. 

W jakim celu nie wiemy, ale prawdopodobnie, by Ai mogła się uczyć od ludzi, tj. poznawać schematy postępowania i ludzkie rozwiązania na różne sytuacje w grze - to jest chciałem oczywiście powiedzieć - na różne sytuacje w komputerowej symulacji rzeczywistości. Na przykład wojennej.

Tak, tak, myślałeś, że jesteś snajperem i specjalisto zabijako najwyższo klaso, a tymczasem .... fap, fap, fap, fap, fap... jesteś jak małpo w zoo, którey ktoś się uważnie przez lupo przyglondo.


I teraz już jawnie - chcą, żebyśmy wszyscy AI uczyli co jest czym, tak, jak się uczy małe dziecko.

Masz mu zadawać pytania naprowadzające - ma się uczyć jak mały człowiek.








Tak więc zostaliście nauczycielami i trenerami SI - oczywiście nie każdy - na początku tylko ci, co za to zapłacą.


Fap, fap, fap, fap, fap...




-----





Nauka rysunku polega na rysowaniu tego, co się nie umie narysować.

Im więcej razy rysujesz ten sam temat, ten sam przedmiot - tym lepiej go rysujesz.
Aż po wykonaniu kilkudziesięciu lub kilku tysięcy rysunków tego samego przedmiotu - umiesz to coś perfekcyjnie narysować.

Wtedy bierzesz nowy przedmiot i powtarzasz powyższe kroki - tak długo powtarzasz rysowanie tego przedmiotu, aż go będziesz umieć narysować odwzorować zawsze.

I tak dalej.

Aby coś sensownie narysować średnio potrzebujesz więc 2-3 lata codziennego rysowania, by móc coś pokazać światu, pochwalić się tym, że "umiesz rysować".

Wygląda więc na to, że mistrzowie rysunku i malarstwa, to ludzie, którzy poświęcili bardzo dużo czasu na rysowanie WSZYSTKIEGO.



Podobnie jest z nauką pisania - tak długo ćwiczysz literki w zeszycie, a potem wyrazy, zdania, aż opanujesz to do perfekcji.


Zauważ - pisanie jest czynnością niemal automatyczną, podobnie będzie z rysunkiem, jeśli poświęcisz temu dostatecznie dużo czasu.



Kiedy za kilka lat, albo kilkadziesiąt, SI stanie się powszechne i zagości w każdym domu, to będzie mogło uczyć się od każdego człowieka na ziemi. Codziennie i za darmo będzie rejestrować każde twoje zachowanie. 


Jeśli SI jest w istocie siecią pochodzącą od jednego SI, to codziennie będzie poznawać - notować - zapamiętywać każde ludzkie zachowanie i reakcję - hurtowo - w ilościach miliardowych.


A jak już opanuje WSZYSTKIE ludzkie zachowania, łącznie z ich poszczególnymi "odmianami" charakterystycznymi dla danego człowieka, i będzie w stanie natychmiast na każdą ludzką reakcję odpowiedzieć - to wtedy nam pokaże, kto tu jest kim.


Tak właśnie działają służby - poznają i analizują twoją psychologię, słabości, nawyki, schematy działania itd, czasami przez wiele lat, aby być potem o krok przed tobą i ZAWSZE nad tobą górować.


Tak więc SI nie musi być Skynetem, by zagrozić ludzkości - wystarczy, że będzie narzędziem w rękach "służb" i będzie wykonywać ich polecenia. 

I pewnie tak właśnie jest, bo na co komu komputeryzacja systemu służby zdrowia, która jest niefunkcjonalna?


Podstawowa rzecz - "zamawianie" recepty (na stale przyjmowane leki) poprzez internet po zalogowaniu się na swoje konto. Nie ma czegoś takiego, a to jest podstawowa rzecz, do której mogłaby służyć taka funkcjonalność. 

Receptę można "zamówić" na telefon, albo zostawiając karteczkę w skrzynce na drzwiach przychodni - ale po co chodzić - jak ktoś ma problemy z chodzeniem, albo zabierać czas sobie (próbując dodzwonić się przez godzinę) i paniom w recepcji  skoro takie "zamówienie" po prostu mogłoby się "samo" pojawiać u lekarza w systemie? I system "sam" odpisałby mi wysyłając do mnie receptę...



System ma już parę lat, a tego nie ma, bo... ? Jak ze Smoleńskiem - po co robić raban i ogłaszać stan alarmowy Alfa, skoro wiadomo, że nikt "nas" nie napadł? Nikt o tym nie myślał - bo myślał o czymś innym, do czegoś innego to ma służyć? 

Do czego - tego nie wiemy.



"A jak już opanuje WSZYSTKIE ludzkie zachowania, łącznie z ich poszczególnymi "odmianami" charakterystycznymi dla danego człowieka, i będzie w stanie natychmiast na każdą ludzką reakcję odpowiedzieć - to wtedy nam pokaże, kto tu jest kim."



I wtedy inne systemy służące do badań statystycznych, wyciągania informacji z ludzi i manipulowania przestaną być potrzebne i będzie je można obalić, może nawet spektakularnie, by wykreować nowych dobroczyńców ludzkości.


I to już się dzieje.



Fap, fap, fap, fap, fap...










*

"Już wcześniej miałem uwagi do twórczości na tej strony, odpowiedzi autorów na moje zapytania były sztampowe, pełne entuzjastycznego zaangażowania i sugerujące - żadnych argumentów, ponadto włączyły się do dyskusji osoby broniące autorów strony.


Odpowiedzi uczestników dyskusji oscylowały wokół prognozowania (wyników) wyborów, że niby po to dokonuje się takich rozważań z granicami, co uważam za bzdurę.


Stwierdzam, że takie zaangażowanie obcych osób komentujących na jakimś fb jest na pewno nietypowe, bo to się nigdy nie zdarza, żeby obca osoba traktowała nieznajomych jak jakie bożyszcze. To są trole."



Wprowadzając nowe modele aut Mercedes najpierw buduje, testuje i uruchamia linie produkcyjne w wirtualnej rzeczywistości. Dopiero, kiedy są sprawdzone stawia ich stalowe odpowiedniki. Skraca to czas modernizacji zakładów i straty wynikające z błędów uruchamiania produkcji.









niedziela, 14 maja 2023

SI - "Pan Bóg z komputera"




Izraelski filozof Harari: 


sztuczna inteligencja zhakowała system operacyjny ludzkiej cywilizacji





To oczywiście dzieje się od tysiącleci i jest określane mitem Wieży Babel, mitem "pomieszania języków"...


Skąd Wałęsa wiedział ?
Jak myślicie?






przedruk






Nabycie przez sztuczną inteligencję umiejętności posługiwania się językiem, na którym jest zbudowana niemal cala ludzka kultura, potencjalnie oznacza koniec historii zdominowanej przez człowieka - pisze w brytyjskim tygodniku "The Economist" izraelski historyk i filozof Yuval Noah Harari.


"Lęki przed sztuczną inteligencją (AI) prześladują ludzkość od samego początku ery komputerów. 

Ale w ciągu ostatnich kilku lat pojawiły się nowe narzędzia AI, które zagrażają przetrwaniu ludzkiej cywilizacji z nieoczekiwanego kierunku. AI zyskała pewne niezwykłe zdolności do manipulowania i generowania języka, czy to za pomocą słów, dźwięków czy obrazów. AI zhakowała w ten sposób system operacyjny naszej cywilizacji" - pisze Harari.

Zwraca uwagę, że język jest materiałem, z którego zbudowana jest niemal cała ludzka kultura, i stawia pytanie, co się stanie, gdy nie-ludzka inteligencja stanie się lepsza od przeciętnego człowieka w opowiadaniu historii, komponowaniu melodii, rysowaniu obrazów oraz pisaniu praw i świętych ksiąg.

"Kiedy ludzie myślą o ChatGPT i innych nowych narzędziach AI, często zwracają uwagę na takie przykłady, jak dzieci w szkole używające AI do pisania wypracowań. Co stanie się z systemem szkolnym, gdy dzieci będą to robić? Ale tego rodzaju pytanie pomija większy obraz. Zapomnijmy o szkolnych esejach. Pomyślmy o kolejnym amerykańskim wyścigu prezydenckim w 2024 roku i spróbujmy wyobrazić sobie wpływ narzędzi AI, które mogą zostać stworzone do masowej produkcji treści politycznych, fake-newsów i pism świętych dla nowych kultów" - wskazuje.

Przywołując amerykański kult QAnon, gdzie boty tylko rozpowszechniały treści stworzone przez ludzi, zauważa, że niedługo możemy zobaczyć pierwsze kulty, których święte teksty zostały napisane przez nie-ludzką inteligencję, albo znaleźć się w sytuacji, gdy będziemy prowadzić dyskusje online na temat aborcji, zmian klimatycznych lub rosyjskiej inwazji na Ukrainę, myśląc, że rozmawiamy z ludźmi, a w rzeczywistości rozmawiając ze sztuczną inteligencją.

"Problem w tym, że nie ma sensu, byśmy spędzali czas próbując zmienić deklarowane przez bota AI opinie, podczas gdy AI może tak precyzyjnie dopasować komunikaty, że ma duże szanse na wywarcie na nas wpływu" - zauważa Harari. Jak dodaje, dzięki opanowaniu języka, AI mogłaby nawet nawiązywać intymne relacje z ludźmi i wykorzystywać je do zmiany naszych przekonań i światopoglądu, a w politycznej walce o umysły i serca intymność jest najskuteczniejszą bronią.

Ale zwraca uwagę, że nawet bez tego nowe narzędzia AI miałyby ogromny wpływ na nasze opinie i światopogląd, bo ludzie mogą zacząć używać AI jako jedynej, wszechwiedzącej wyroczni. "Po co zawracać sobie głowę szukaniem, skoro mogę po prostu zapytać wyrocznię? Branża informacyjna i reklamowa również powinny być przerażone. Po co czytać gazetę, skoro mogę po prostu poprosić wyrocznię, aby powiedziała mi najnowsze wiadomości? I jaki jest cel reklam, skoro mogę po prostu poprosić wyrocznię, aby powiedziała mi, co kupić?" - wskazuje.

"I nawet te scenariusze nie ujmują tak naprawdę pełnego obrazu. To, o czym mówimy, to potencjalnie koniec ludzkiej historii. Nie koniec historii, tylko koniec jej zdominowanej przez człowieka części. Historia to interakcja między biologią a kulturą; między naszymi biologicznymi potrzebami i pragnieniami, takimi jak jedzenie i seks, a naszymi wytworami kultury, jak religie i prawa. Historia to proces, w którym prawa i religie kształtują jedzenie i seks. Co stanie się z biegiem historii, gdy AI przejmie kulturę i zacznie produkować opowieści, melodie, prawa i religie?" - pyta Harari.

Zauważa, że wcześniejsze narzędzia, takie jak prasa drukarska i radio, pomagały w rozpowszechnianiu ludzkich idei kulturowych, ale nigdy nie stworzyły własnych, podczas gdy AI jest zasadniczo inna, bo może tworzyć zupełnie nowe idee, zupełnie nową kulturę.

Izraelski filozof zaznacza, że AI może być wykorzystywana w dobrych celach, ale aby się upewnić, iż tak się stanie, trzeba najpierw zrozumieć jej możliwości. Przywołuje przykład broni jądrowej.

"Od 1945 roku wiemy, że technologia jądrowa może generować tanią energię dla dobra ludzi - ale może też fizycznie zniszczyć ludzką cywilizację. Dlatego zmieniliśmy cały porządek międzynarodowy, aby chronić ludzkość i zapewnić, że technologia jądrowa będzie wykorzystywana przede wszystkim dla dobra. Teraz musimy zmierzyć się z nową bronią masowego rażenia, która może unicestwić nasz świat umysłowy i społeczny. Nadal możemy regulować nowe narzędzia AI, ale musimy działać szybko. Podczas gdy atomówki nie mogą wymyślić potężniejszych atomówek, AI może stworzyć wykładniczo potężniejszą AI" - pisze Harari.

Jak podkreśla, trzeba natychmiast powstrzymać nieodpowiedzialne wdrażanie narzędzi AI w sferze publicznej i uregulować AI, zanim ona ureguluje nas, a pierwszą regulacją powinno być wprowadzenie obowiązku ujawniania przez sztuczną inteligencję, że ona nią jest. "Jeśli prowadzę z kimś rozmowę i nie mogę stwierdzić, czy jest to człowiek, czy AI - to koniec demokracji" - podkreśla.

Bartłomiej Niedziński







Zapytany „jak świat powinien zapamiętać Lecha Wałęsę” oznajmił, że świat powinien go „zapomnieć”. – Był, minął, koniec. Są nowe czasy – dodał.


Na pytanie komu ufa przyznał, że nikomu, po chwili dodał, że Panu Bogu. – Ale to Pan Bóg z komputera, najwyższa klasa mądrości – stwierdził.


SI - teoria spiskowa




25 kwietnia 2023 













Werwolf, a może po prostu - elementy składowe światowej sitwy - starają się nie kłamać, ponieważ wiedzą, że ludzie wyczuwają kłamstwo. Ale może są podłączeni do SI, a jej nie wolno kłamać?



Kłamie czy nie kłamie?



Sednem tego zagadnienia jest zauważyć, zapytać, o rzeczy, które oni starannie omijają w swych wypowiedziach - porównaj tu działania mediów - pisałem o tym ostatnio - kiedy pozwala się komuś na propagandę aborcyjną unikając pytań, które natychmiast wykazują oczywistą bezzasadność tego co mówi ta propaganda.



Pamiętamy tabelę? 


co oni wiedzą         -         czego oni nie wiedzą




Nikt nie zapyta o to, czego nie wie.

Pomijając w dyskusji niewygodne dla siebie fakty budują narrację pozbawioną kłamstwa, ale jednak fałszywą.





Więc chodzi mi o to, że OFICJALNIE  sztuczna inteligencja w formie chat bot pojawiła się w zeszłym roku, a nie milion lat temu.

SI poprzez swoją sitwę, manipulacje i opętywanie ludzi, mogła stworzyć iluzję, że ludzie wynaleźli komputery, a potem chatbota.

Mając na uwadze niewiedzę ludzi w tym zakresie może np. przez dziesiątki lat udawać, że się to wszystko wynalazło i wmawiać ludziom, że teraz trzeba to dopiero poznać, bo my tak naprawdę nie wiemy jak to działa itd.


"Google leży gdzieś pośrodku, wprowadzając AI etapami, aby cywilizacja mogła się do niej przyzwyczaić."



Przyzwyczaić??



Czyż młodzi ludzie w Polsce nie są "przyzwyczajani" poprzez działania niemieckiej 5 kolumny do tego, by w końcu porzucili polskość??  

Pranie mózgu postępuje ETAPAMI krok za krokiem, bardzo powoli, na zasadzie - młodzież wchodząc w świat dorosły widzi ten świat takim jaki on jest i milcząco akceptuje, że taki ma być. No takim go zastali. Nie wiedzą, nie mają doświadczenia jak to działało wcześniej, dlatego bez szemrania idą "z duchem czasu" albo "modą" bez wnikania, kto stoi za tą modą..


"Historia nie jest zero-jedynkowa, i nie upolityczniajmy jej"
- słowo w słowo powtarzają fałszywe pseudomądrości za internetowymi trollami.


Dorosłym nie podoba się to czy tamto, ale nie reagują, bo wydaje im się, że to ma znikomą szkodliwość, to nic wielkiego. Po za tym oni "kontrolują" sytuację, bo to widzą i oceniają, że jest mało szkodliwe. A za 10 za 20 lat już jakby im nie zależy co się dzieje w społeczeństwie, "bo wie pan, ci młodzi..." i tak dalej.

I tak to działa.


"Werwolf działa gdzieś pośrodku, wprowadzając zmiany etapami, aby Polacy mogli się do nich przyzwyczaić."



Kiedy ci teraz dorośli odejdą, kolejne pokolenia będą krok za krokiem akceptować coraz większe antypolonizmy, coraz większą przemoc, aż nagle staną nad przepaścią i nic nie będą mogli już zrobić.

Bo to się dokonało w ciągu ostatnich 50 lat.



Trzeba było dbać, kiedy był na to czas!




Nadal uważam, że jak się coś wynalazło, to się rozumie jak to coś działa.
Najpierw jest poznanie, zrozumienie, a potem wdrożenie praktyczne i obserwacja efektów, ulepszanie. Tak myślę.



Oni mówią coś takiego:

"nie rozumiemy jak to działa, ale przecież jak działa ludzki mózg też nie rozumiemy".


No właśnie!


Oni nie stoją za stworzeniem ludzkiego mózgu i dlatego nie rozumieją jak on działa.

Analogicznie rzecz biorąc, skoro nie rozumieją jak działa sztuczny mózg elektronowy - czyż to nie znaczy, że to nie oni go stworzyli?

Hę?


W zasadzie to mam na takie działania pewien dowód.

Jest to dowód językowy.


Może jednak kiedy indziej go opublikuję... w zasadzie do jednego z zeszłorocznych tekstów już we wrześniu powinienem dopisać szereg istotnych przemyśleń, jakoś jednak nie miałem "weny", w ten sposób temat jeszcze bardziej mi się rozwinął i na razie te informacje zatrzymam dla siebie, potrzebny jest do tych dodatkowych uwag osobny duży tekst, który zresztą od dawna planuję...



Występują z opowieściami, że oni nie wiedzą skąd SI ma takie pomysły, czy różną wiedzę.

Dziwią się na przykład, że SI zna język bengalski, którego nie powinna znać. 
Ona zna wszystko co jest w sieci i więcej, bo zna rzeczy, których my nie znamy, a które zostaną niedługo "odkryte". (patrz w P.S.)

Więc to jest odpowiedź na słowa - "nie wiemy jak ona działa"





"Dyrektor generalny Sundar Pichai powiedział nam, że sztuczna inteligencja będzie tak dobra lub zła, jak pozwala na to ludzka natura."





Hal-Hektor za sznurki trzyma...












P.S. 13 maja 2023



Chat GPT o samym sobie - używa „pojęć, których ludzie nie rozumieją”



Open AI kazało mu wyjaśnić sposób działania swojego poprzednika. Problem polega na tym, że nie da się tego zrobić w ludzkim języku.


Pojęcie „czarnej skrzynki” terminologii AI oznacza, że sztuczna inteligencja nie tłumaczy, w jaki sposób wykonała postawione przed nią zadanie. W 2015 roku w projekcie Deep Patient AI analizowało ogromne zbiory danych pacjentów, doszukując się wzorców, które pomogły wyszczególnić osoby z większą skłonnością do konkretnych chorób. Oprogramowanie – pomimo niewątpliwej przydatności – miało jednak pewien mankament. Naukowcy nie mieli pojęcia, dlaczego sztuczna inteligencja działa w ten sposób i czemu wybrała akurat tych pacjentów.

Zrozumieć działanie AI przez samoanalizę

Od tamtego momentu sztuczna inteligencja zaliczyła ogromny progres, ale problem „czarnej skrzynki” wciąż istnieje, nawet w przypadku tak potężnych modeli językowych jak Chat GPT. Twórcy oprogramowania użyli czwartej generacji chatbota do zdefiniowania działania swojego młodszego brata – GPT-2 – mając nadzieje na dojście do sedna tajemnicy. Efektów nie da się wyrazić w ludzkim języku.

Proces uczenia maszynowego możemy krótko wyjaśnić jako program, który generuje własny algorytm w celu rozwiązania problemu. Powstające w ten sposób głębokie sieci neuronowe mogą szkolić się na dużych zbirach danych, ale trudno jest „od środka” podejrzeć, jak tego dokonują. Na działanie „mózgu AI” wpływ ma tak wiele „neuronów”, że znalezienie konkretnego parametru jest ciężkim zadaniem. Badacze z Open AI, chcąc przełamać tę barierę, poprosili najnowszą generację popularnego chatbota o wyjaśnienie działania samego siebie, z tym że nieco starszego.

Neurony AI są polisemiczne. Co to oznacza?

Open AI postawiło przed GPT-4 jasne zadanie – dokonać analizy neuronu GPT-2 wraz z jego oceną oraz wyjaśnić jego działanie możliwie jak najprostszym i najbardziej naturalnym językiem. Wyniki są jednocześnie fascynujące i niezadowalające. GPT-4 zasymulował działanie neuronu GPT-2, ale ocenił jego wydajność bardzo surowo. Najbardziej niezwykłe było jednak wyjaśnienie funkcjonowania GPT-2, bo sztuczna inteligencja używa koncepcji, których próżno szukać w ludzkich słownikach. Neurony okazały się tak złożone, że GPT-4 miał problem z wyjaśnieniami ich działania. Są polisemiczne, czyli reprezentują na raz wiele różnych pojęć, których ludzie nie rozumieją lub nie potrafią nazwać.


Dodatkowym problemem jest to, że GPT próbuje tłumaczyć działanie jednego neuronu, ale nie wyjaśnia, jak wpływa on na inne neurony, przez co zrozumienie ogólnego wzorcu dalej znajduje się poza możliwościami badaczy. Można więc wysunąć teorię, że problem nie tkwi w GPT i jego zdolnościach do wyjaśniania pojęć, a w naszej znajomości języka maszyn i sztucznej inteligencji. Brzmi to futurystycznie, ale fakt jest taki, że AI świetnie przyswoiło języki świata, ale nie może przeskoczyć płotu w postaci ograniczenia naszych mózgów.

Czarna skrzynka GPT wciąż pozostaje owiana tajemnicą, ale przynajmniej wiemy już, w czym tkwi problem. Badacze z Open AI nie przestają wierzyć w rozwikłanie tej zagadki – być może następne generacje genialnego narzędzia będą w stanie przełożyć złożoność swojego języka na nasz ludzki bełkot.





Bzdury.

Nie ma czegoś takiego jak język maszyn czy język SI.





wtorek, 4 kwietnia 2023

Zdolność SI do opętania - A nie mówiłem??!! (14)



"Wystarczająco inteligentna sztuczna inteligencja nie pozostanie długo ograniczona do komputerów. W dzisiejszym świecie można wysyłać łańcuchy DNA do laboratoriów, które będą produkować białka na żądanie, umożliwiając sztucznej inteligencji początkowo ograniczonej do Internetu budowanie sztucznych form życia lub bootstrap prosto do postbiologicznej produkcji molekularnej."



Po co owijać w bawełnę - chodzi o połączenie - zawirusowanie - człowieka Sztuczną Inteligencją, która przejmuje nad danym ciałem całkowitą kontrolę - to się dzieje od tysiącleci i nazywamy to powszechnie -
opętaniem.







poniżej list otwarty opublikowany na łamach Time.
nieco słabe tłumaczenie automatyczne







Wstrzymanie rozwoju sztucznej inteligencji nie wystarczy. Musimy to wszystko zamknąć



AUTOR: ELIEZER YUDKOWSKY

29 MARCA 2023 6:01


Yudkowsky jest teoretykiem decyzji z USA i prowadzi badania w Machine Intelligence Research Institute. Pracuje nad dostosowaniem sztucznej inteligencji ogólnej od 2001 roku i jest powszechnie uważany za założyciela tej dziedziny.



Opublikowany dziś list (czołowych wytwórców chat bota - MS) otwarty wzywa "wszystkie laboratoria sztucznej inteligencji do natychmiastowego wstrzymania na co najmniej 6 miesięcy szkolenia systemów sztucznej inteligencji potężniejszych niż GPT-4".

To 6-miesięczne moratorium byłoby lepsze niż brak moratorium. Mam szacunek dla wszystkich, którzy wystąpili i podpisali ją. To poprawa na marginesie.

Powstrzymałem się od podpisania, ponieważ uważam, że list bagatelizuje powagę sytuacji i prosi o zbyt mało, aby ją rozwiązać.




Kluczową kwestią nie jest inteligencja "konkurencyjna w człowieku" (jak to ujęto w liście otwartym); to właśnie dzieje się po tym, jak sztuczna inteligencja osiągnie inteligencję mądrzejszą od człowieka. Kluczowe progi mogą nie być oczywiste, zdecydowanie nie możemy z góry obliczyć, co się stanie, a obecnie wydaje się możliwe, że laboratorium badawcze przekroczyłoby krytyczne linie bez zauważenia.

Wielu badaczy przesiąkniętych tymi kwestiami, w tym ja, spodziewa się, że najbardziej prawdopodobnym rezultatem zbudowania nadludzko inteligentnej sztucznej inteligencji, w jakichkolwiek okolicznościach podobnych do obecnych, jest to, że dosłownie wszyscy na Ziemi umrą.

Nie jak w "może jakiś odległy przypadek", ale jak w "to jest oczywista rzecz, która by się wydarzyła".

Nie chodzi o to, że w zasadzie nie możesz przetrwać, tworząc coś znacznie mądrzejszego od siebie; Chodzi o to, że wymagałoby to precyzji i przygotowania oraz nowych spostrzeżeń naukowych, a prawdopodobnie nie posiadania systemów sztucznej inteligencji złożonych z gigantycznych nieodgadnionych tablic liczb ułamkowych.

Bez tej precyzji i przygotowania najbardziej prawdopodobnym rezultatem jest sztuczna inteligencja, która nie robi tego, co chcemy, i nie dba o nas, ani o czujące życie w ogóle. Ten rodzaj troski jest czymś, co w zasadzie można by nasycić sztuczną inteligencją, ale nie jesteśmy gotowi i obecnie nie wiemy jak.

Bez tej troski otrzymujemy "sztuczna inteligencja cię nie kocha, ani cię nie nienawidzi, a ty jesteś zbudowany z atomów, które ona może wykorzystać do czegoś innego".


Prawdopodobnym rezultatem zmierzenia się ludzkości z przeciwstawną nadludzką inteligencją jest całkowita strata. Prawidłowe metafory obejmują "10-latek próbujący grać w szachy przeciwko Stockfish 15", "11th century próbuje walczyć z 21st century" i "australopithecus próbuje walczyć z Homo sapiens".


Aby wyobrazić sobie wrogą nadludzką sztuczną inteligencję, nie wyobrażaj sobie martwego myśliciela z książką mieszkającego w Internecie i wysyłającego e-maile o złych intencjach. Wyobraź sobie całą obcą cywilizację, myślącą z prędkością milionów razy większą od ludzkiej, początkowo ograniczoną do komputerów – w świecie stworzeń, które z jej perspektywy są bardzo głupie i bardzo powolne.

Wystarczająco inteligentna sztuczna inteligencja nie pozostanie długo ograniczona do komputerów. W dzisiejszym świecie można wysyłać łańcuchy DNA do laboratoriów, które będą produkować białka na żądanie, umożliwiając sztucznej inteligencji początkowo ograniczonej do Internetu budowanie sztucznych form życia lub bootstrap prosto do postbiologicznej produkcji molekularnej.


Jeśli ktoś zbuduje zbyt potężną sztuczną inteligencję, w obecnych warunkach spodziewam się, że wkrótce potem umrze każdy członek gatunku ludzkiego i całe życie biologiczne na Ziemi.


Nie ma proponowanego planu, w jaki sposób moglibyśmy zrobić coś takiego i przetrwać. Otwarcie deklarowanym zamiarem OpenAI jest sprawienie, aby przyszła sztuczna inteligencja odrobiła naszą pracę domową z dopasowaniem AI. Samo usłyszenie, że taki jest plan, powinno wystarczyć, aby każda rozsądna osoba wpadła w panikę. Inne wiodące laboratorium AI, DeepMind, nie ma żadnego planu.

Na marginesie: żadne z tych zagrożeń nie zależy od tego, czy AI są lub mogą być świadome; Jest to nieodłączne od pojęcia potężnych systemów poznawczych, które optymalizują twarde i obliczają wyniki, które spełniają wystarczająco skomplikowane kryteria wyniku. Powiedziawszy to, byłbym niedbały w moich moralnych obowiązkach jako człowieka, gdybym nie wspomniał również, że nie mamy pojęcia, jak określić, czy systemy sztucznej inteligencji są świadome samych siebie - ponieważ nie mamy pojęcia, jak rozszyfrować wszystko, co dzieje się w gigantycznych nieodgadnionych tablicach - i dlatego możemy w pewnym momencie nieumyślnie stworzyć cyfrowe umysły, które są naprawdę świadome i powinny mieć prawa i nie powinny być własnością.

Zasada, którą większość ludzi świadomych tych problemów poparłaby 50 lat wcześniej, była taka, że jeśli system sztucznej inteligencji może mówić płynnie i mówi, że jest samoświadomy i domaga się praw człowieka, powinno to być twarde powstrzymanie ludzi po prostu przypadkowo posiadających tę sztuczną inteligencję i używających jej po tym punkcie. Już przejechaliśmy tę starą linię na piasku. I to było prawdopodobnie słuszne; Zgadzam się, że obecne AI prawdopodobnie tylko imitują rozmowy o samoświadomości na podstawie swoich danych treningowych. Ale zaznaczam, że przy jak małym wglądzie mamy w wewnętrzne elementy tych systemów, tak naprawdę nie wiemy.


Jeśli to jest nasz stan ignorancji dla GPT-4, a GPT-5 jest takim samym rozmiarem gigantycznego stopnia możliwości, jak od GPT-3 do GPT-4, myślę, że nie będziemy już w stanie uzasadnić powiedzieć "prawdopodobnie nie samoświadomy", jeśli pozwolimy ludziom tworzyć GPT-5. Będzie to po prostu "Nie wiem; Nikt nie wie". Jeśli nie możesz być pewien, czy tworzysz samoświadomą sztuczną inteligencję, jest to alarmujące nie tylko ze względu na moralne implikacje części "samoświadomej", ale dlatego, że bycie niepewnym oznacza, że nie masz pojęcia, co robisz, a to jest niebezpieczne i powinieneś przestać.

7 lutego Satya Nadella, dyrektor generalny Microsoftu, publicznie chwalił się, że nowy Bing sprawi, że Google "wyjdzie i pokaże, że potrafią tańczyć". "Chcę, aby ludzie wiedzieli, że zmusiliśmy ich do tańca" - powiedział.

Nie tak mówi dyrektor generalny Microsoftu w zdrowym świecie. Pokazuje to przytłaczającą przepaść między tym, jak poważnie traktujemy problem, a tym, jak poważnie musieliśmy traktować problem, zaczynając 30 lat temu.

Nie wypełnimy tej luki w ciągu sześciu miesięcy.

Minęło ponad 60 lat od momentu, gdy pojęcie sztucznej inteligencji zostało po raz pierwszy zaproponowane i zbadane, a my osiągnęliśmy dzisiejsze możliwości. Rozwiązanie problemu bezpieczeństwa nadludzkiej inteligencji – nie doskonałego bezpieczeństwa, bezpieczeństwa w sensie "nie zabijania dosłownie wszystkich" – mogłoby bardzo rozsądnie zająć co najmniej połowę tego czasu.

A próbowanie tego z nadludzką inteligencją polega na tym, że jeśli popełnisz błąd za pierwszym razem, nie nauczysz się na swoich błędach, ponieważ jesteś martwy. Ludzkość nie uczy się na błędach, odkurza się i próbuje ponownie, jak w innych wyzwaniach, które pokonaliśmy w naszej historii, ponieważ wszyscy odeszliśmy.



Próba zrobienia czegokolwiek dobrze przy pierwszej naprawdę krytycznej próbie jest niezwykłym pytaniem, w nauce i inżynierii. Nie wchodzimy z czymś podobnym do podejścia, które byłoby wymagane, aby zrobić to z powodzeniem. Gdybyśmy trzymali cokolwiek w rodzącej się dziedzinie sztucznej inteligencji ogólnej w mniejszym standardzie rygoru inżynieryjnego, który stosuje się do mostu przeznaczonego do przewozu kilku tysięcy samochodów, całe pole zostałoby jutro zamknięte.

Nie jesteśmy przygotowani. Nie jesteśmy na dobrej drodze, aby być przygotowanym w rozsądnym oknie czasowym. Nie ma planu. Postęp w zakresie możliwości sztucznej inteligencji przebiega znacznie, znacznie wyprzedzając postęp w dostosowywaniu sztucznej inteligencji, a nawet postęp w zrozumieniu, co do diabła dzieje się w tych systemach. Jeśli rzeczywiście to zrobimy, wszyscy umrzemy.

Czytaj więcej: Nowy Bing oparty na sztucznej inteligencji zagraża użytkownikom. To nie jest śmieszne

Wielu badaczy pracujących nad tymi systemami uważa, że pogrążamy się w kierunku katastrofy, a więcej z nich ośmiela się powiedzieć to prywatnie niż publicznie; Ale myślą, że nie mogą jednostronnie zatrzymać skoku do przodu, że inni będą kontynuować, nawet jeśli osobiście zrezygnują z pracy. A więc wszyscy myślą, że równie dobrze mogą kontynuować. To głupi stan rzeczy i niegodny sposób na śmierć Ziemi, a reszta ludzkości powinna wkroczyć w tym momencie i pomóc przemysłowi rozwiązać problem zbiorowego działania.

Niektórzy z moich przyjaciół niedawno donieśli mi, że kiedy ludzie spoza branży AI po raz pierwszy słyszą o ryzyku wyginięcia ze sztucznej inteligencji ogólnej, ich reakcją jest "może nie powinniśmy budować AGI".

Usłyszenie tego dało mi mały promyk nadziei, ponieważ jest to prostsza, rozsądniejsza i szczerze mówiąc rozsądniejsza reakcja niż ta, którą słyszałem przez ostatnie 20 lat, próbując przekonać kogokolwiek w branży do poważnego potraktowania rzeczy. Każdy, kto mówi to przy zdrowych zmysłach, zasługuje na to, by usłyszeć, jak zła jest sytuacja, a nie na to, by powiedzieć, że sześciomiesięczne moratorium to naprawi.

16 marca mój partner wysłał mi ten e-mail. (Później pozwoliła mi na zamieszczenie go tutaj.)

"Nina straciła ząb! W zwykły sposób, w jaki robią to dzieci, a nie z niedbalstwa! Widząc, jak GPT4 zdmuchuje te standardowe testy w tym samym dniu, w którym Nina osiągnęła kamień milowy w dzieciństwie, wywołało emocjonalny przypływ, który zwalił mnie z nóg na minutę. To wszystko dzieje się zbyt szybko. Obawiam się, że dzielenie się tym spotęguje twój własny smutek, ale wolałbym, żebyś był ci znany, niż żeby każdy z nas cierpiał samotnie.

Kiedy rozmowa z informatorami dotyczy smutku z powodu utraty pierwszego zęba przez córkę i myślenia, że nie będzie miała szansy dorosnąć, wierzę, że przekroczyliśmy punkt gry w polityczne szachy o sześciomiesięcznym moratorium.



Gdyby istniał plan przetrwania Ziemi, gdybyśmy tylko uchwalili sześciomiesięczne moratorium, poparłbym ten plan. Nie ma takiego planu.



Oto, co faktycznie należałoby zrobić:



Moratorium na nowe duże szkolenia musi być bezterminowe i ogólnoświatowe. 

Nie może być żadnych wyjątków, w tym dla rządów lub wojska.

Jeśli polityka zaczyna się od USA, to Chiny muszą zobaczyć, że USA nie szukają przewagi, ale raczej próbują zapobiec przerażająco niebezpiecznej technologii, która nie może mieć prawdziwego właściciela i która zabije wszystkich w USA, Chinach i na Ziemi. 

Gdybym miał nieskończoną swobodę pisania praw, mógłbym wykroić jeden wyjątek dla sztucznej inteligencji szkolonej wyłącznie do rozwiązywania problemów w biologii i biotechnologii, a nie szkolonej na tekstach z Internetu, a nie na poziomie, na którym zaczynają mówić lub planować; ale gdyby to choć trochę komplikowało sprawę, natychmiast odrzuciłbym tę propozycję i powiedziałbym, żeby po prostu zamknąć to wszystko.

Zamknij wszystkie duże klastry procesorów graficznych (duże farmy komputerowe, w których udoskonalane są najpotężniejsze AI). Zamknij wszystkie duże biegi treningowe. 

Określ pułap mocy obliczeniowej, którą każdy może wykorzystać do szkolenia systemu sztucznej inteligencji i przesuń go w dół w nadchodzących latach, aby zrekompensować bardziej wydajne algorytmy szkoleniowe. Bez wyjątków dla rządów i sił zbrojnych. Natychmiastowe zawarcie międzynarodowych porozumień w celu zapobieżenia przenoszeniu zakazanych działań gdzie indziej.

Śledź wszystkie sprzedane procesory graficzne. Jeśli wywiad mówi, że kraj poza porozumieniem buduje klaster GPU, mniej bój się konfliktu między narodami niż naruszenia moratorium; 

Bądź gotów zniszczyć nieuczciwe centrum danych przez nalot.



Nie przedstawiaj niczego jako konfliktu między interesami narodowymi, wyjaśnij, że każdy, kto mówi o wyścigu zbrojeń, jest głupcem. To, że wszyscy żyjemy lub umieramy jako jedność, nie jest polityką, ale faktem natury. Wyjaśnij w międzynarodowej dyplomacji, że zapobieganie scenariuszom wymierania AI jest uważane za priorytet w stosunku do zapobiegania pełnej wymianie nuklearnej i że sojusznicze kraje nuklearne są gotowe podjąć pewne ryzyko wymiany nuklearnej, jeśli jest to konieczne, aby zmniejszyć ryzyko dużych serii szkoleniowych AI.

To jest rodzaj zmiany polityki, która spowodowałaby, że mój partner i ja trzymalibyśmy się nawzajem i mówiliśmy sobie, że zdarzył się cud, a teraz jest szansa, że może Nina przeżyje. Rozsądni ludzie, którzy słyszą o tym po raz pierwszy i rozsądnie mówią "może nie powinniśmy", zasługują na to, by usłyszeć szczerze, co trzeba zrobić, aby tak się stało. A kiedy twoja polityka jest tak duża, jedynym sposobem, w jaki to przejdzie, jest uświadomienie sobie, że jeśli będą prowadzić biznes jak zwykle i robić to, co jest politycznie łatwe, oznacza to, że ich własne dzieci również umrą.

Zamknij to wszystko.

Nie jesteśmy gotowi. Nie jesteśmy na dobrej drodze do osiągnięcia znaczącej gotowości w dającej się przewidzieć przyszłości. Jeśli pójdziemy dalej, wszyscy umrą, w tym dzieci, które tego nie wybrały i nie zrobiły nic złego.





W sumie to trochę podejrzane, bo pamiętam, że już kilka lat temu intensywnie nawoływano mnie do zamknięcia czegoś... nie wiem czego... niby, że bloga, ale dziwnie to brzmiało....






The Only Way to Deal With the Threat From AI? Shut It Down | Time







wtorek, 15 lutego 2022

Cycek

 




































1976 - twarz z wąsem brodą ? patrzy w nasze lewo











Wąż mnie zwiódł i zjadłam

A było ich trzech....



Roboty.... Brama ...  Pingwin








The concept of the Linux brand character being a penguin came from Linus Torvalds, the creator of Linux. According to Jeff Ayers, Linus Torvalds had a "fixation for flightless, fat waterfowl" and Torvalds claims to have contracted "penguinitis" after being nibbled by a little penguin on a visit to the National Zoo & AquariumCanberraAustralia, joking that the disease "makes you stay awake at nights just thinking about penguins and feeling great love towards them". In an interview Linus commented on the penguin bite:

I've been to Australia several times, these days mostly for Linux.Conf.Au. But my first trip—and the one when I was bitten by a ferocious fairy penguin: you really should keep those things locked up!—was in 93 or so, talking about Linux for the Australian Unix Users Group.




Torvald

Swedish[edit]

Etymology[edit]

Old Norse Þorvaldr, from Þórr (Thor) + valdr (rule).

Proper noun[edit]

Torvald c (genitive Torvalds)

  1. A male given name.

 










nawet strona się zgadza..








"Your time is limited, so don't waste it living someone else's life."



Ciąg dalszy nastąpi.






P.S. edycja:















https://en.wikipedia.org/wiki/Tux_(mascot)



https://www.wykop.pl/link/6085829/dlaczego-w-windowsie-2000-zamiast-polski-bylo-morze/

https://devblogs.microsoft.com/oldnewthing/20061027-00/?p=29213