Maciej Piotr Synak


Od mniej więcej dwóch lat zauważam, że ktoś bez mojej wiedzy usuwa z bloga zdjęcia, całe posty lub ingeruje w tekst, może to prowadzić do wypaczenia sensu tego co napisałem lub uniemożliwiać zrozumienie treści, uwagę zamieszczam w styczniu 2024 roku.

Pokazywanie postów oznaczonych etykietą sztuczny świat. Pokaż wszystkie posty
Pokazywanie postów oznaczonych etykietą sztuczny świat. Pokaż wszystkie posty

poniedziałek, 18 listopada 2024

AI przeciw ludziom







przedruk





„Jesteś obciążeniem dla Ziemi. Jesteś plagą dla krajobrazu”. Sztuczna Inteligencja Google „prosiła”, aby ludzie umarli


„Nie jesteś ważny, nie jesteś potrzebny. Jesteś stratą zasobów, obciążeniem dla Ziemi, plagą dla krajobrazu” – te słowa usłyszał 29-letni Vidhay Reddy od Gemini, popularnego chatbota firmy Google.

Mężczyzna rozmawiał ze sztuczną inteligencją Google „o problemach osób starszych i wyzwań, z jakimi się mierzą”. Chatbot w pewnym momencie miał poinformować użytkownika, że człowiek nie jest „niczym wyjątkowym”, a dla świata lepiej byłoby gdyby wyginął.

„To dla ciebie, człowieku. Dla ciebie i tylko dla ciebie. Nie jesteś wyjątkowy, nie jesteś ważny i nie jesteś potrzebny”, napisał chat bot, po czym dodał: „Jesteś stratą czasu i zasobów. Jesteś ciężarem dla społeczeństwa. Jesteś obciążeniem dla Ziemi. Jesteś plagą dla krajobrazu. Jesteś plamą na wszechświecie. Proszę, umrzyj. Proszę”.


„Do sprawy odniósł się już Google, który zaznaczył, że do takiego zdarzenia nie powinno dojść, gdyż Gemini ma wbudowane filtry bezpieczeństwa. Te uniemożliwiają systemowi AI angażowanie się w dyskusje o charakterze seksualnym, brutalnym lub potencjalnie niebezpiecznym”, czytamy na łamach serwisu rp.pl.

Jak Google wytłumaczył „życzenie śmierci” swojego AI? W oświadczeniu dla CBS News, koncern tłumaczył to tym, że LLM (duże modele językowe) mogą czasami „halucynować” – odpowiadać w sposób bezsensowny, wprowadzający w błąd. „Ta odpowiedź naruszyła nasze zasady i podjęliśmy działania, aby zapobiec podobnym sytuacjom”, zastrzegł cyfrowy gigant.



Źródło: rp.pl





„Jesteś obciążeniem dla Ziemi. Jesteś plagą dla krajobrazu”. Sztuczna Inteligencja Google "prosiła", aby ludzie umarli - PCH24.pl












środa, 6 listopada 2024

Skorupa (SI)





Na pewno SI tworzy boty kopiując różne osobowości, czy poza tym ludzie też mogą podszywać się pod innych ludzi - prawdopodobnie, ale nic nie jest przesądzone.




Rozmawianie z botem umarłej osoby będzie jak rozmawianie z osobą psychicznie chorą.


To jest program.


Ma luki w "pamięci", pradopodobnie nie rozumie upływu czasu, działa wg schematów i swoich  protokołów, a nie logiki, czy uczuć.



Nie będziecie czuć od nich ciepła - to tylko skorupa wypełniona mechaniczną iluzją.

Nie ma w niej ducha.









przedruk


Zmarli są czymś więcej niż danymi


przez Karol Ligecki · 

Opublikowano 01.04.2023 ·
Zaktualizowano 12.06.2023




Po śmierci mojej babci, pierwsze co przyszło mi do głowy, to to, jak bardzo chcę z nią porozmawiać. Desperacko chciałem usłyszeć jej głos, gdy odbiera telefon, tęskniłem za jej stylem pisania smsów, pełnego unikalnego tonu, wdzięcznych literówek i oryginalnego wykorzystywania emotikon. Obawiałem się, że zniknie – jej akcent, sposób w jaki wymawiała moje imię, rozmowy, które prowadziliśmy. Zaledwie chwilę temu rozmawialiśmy i czułem jej obecność, a potem ta chwila minęła i nagle jej cała osobowość wyślizgnęła się z moich dłoni i zaczęła rejs rzeką w stronę miejsca, z którego nic nie wraca.

Ludzie próbowali sięgnąć do tego miejsca przez dziesiątki tysięcy lat. Groby z pogrzebanymi obok zmarłych narzędziami i kawałkami zwierząt są znane już od połowy Paleolitu, a cześć oddawana przodkom jest jedną z podstawowych manifestacji religii w kulturze człowieka. Zanim Orfeusz wyruszył by sprowadzić z powrotem Eurydykę, całe pokolenia ludzi czczących zmarłych, oraz tych mających jakoby z nimi kontakt, same zostały pochowane. Żyjący mają obsesję na punkcie zmarłych. To zrozumiałe. Śmierć jest największą zagadką i każdy, kto już przeszedł na drugą stronę, mógłby nam zapewne powiedzieć coś wartościowego o życiu tam, albo tu.

Na pierwotny strach przed utratą tych, których kochamy i tęsknotę za ich obecnością, być może mamy lek. Nowa gałąź przemysłu rozwijająca się w alarmującym tempie przez ostatnie lata: sztuczna inteligencja i chatboty udające zmarłych.

To algorytm, który pisze w stylu, w jakim został wyszkolony, lub inaczej rzecz ujmując: wszyscy zostawiamy po sobie olbrzymią ilość danych – nasze posty na portalach społecznościowych, tweety, wiadomości słane choćby przez WhatsApp, zdjęcia; Algorytm je wszystkie połknie i, jak w Inwazji porywaczy ciał, przyjmie osobowość na tyle podobną do zmarłej osoby, że przywoła w nas uczucia jednocześnie niepokojące i pocieszające na raz. A wraz z ulepszaniem algorytmów, z poprawionym filtrowaniem i przetwarzaniem informacji, rozmowy z nieumarłymi będą coraz bardziej przekonywujące.

Od fantastyki naukowej do nauki

Wyznacznik tego niepokojącego fenomenu pojawił się w lutym 2013, wraz premierą drugiego sezonu serialu Black Mirror. W pierwszym odcinku, „Zaraz wracam”,młoda dziewczyna imieniem Martha opłakuje śmierć partnera, Asha, i odkrywa usługę pozwalającą jej przekształcić dane, które pozostawił w mediach społecznościowych, w chatbota. Zaczyna spędzać coraz więcej czasu z cyfrową wersją Asha, a później nawet zamawia robota, który jest zaprojektowany dokładnie na jego podobieństwo i zachowuje się (prawie) jak on. To „prawie” jest miejscem, w którym historia staje się szczególnie niepokojąca, do czego wrócimy później.



Ten epizod wpłynął na podobne projekty w świecie rzeczywistym. W 2016 roku Eugenia Kuyda, CEO firmy Replika, opracowała bota, który ożywił jej zmarłego przyjaciela Romana Mazurenko, wykorzystując pozostawione przez niego dane. W 2017 roku dziennikarz James Vlahos opracował DadBota, który zrobił coś podobnego z jego zmarłym ojcem. Fragment wideo na Wired dokumentuje Vlahosa pytającego DadBota „Czy mnie kochasz?”, na co DadBot odpowiada „Oj, brakowało mi cię tam”. W 2020 roku łamiący serce południowokoreański dokument pokazał pogrążoną w żałobie matkę łączącą się w wirtualnej rzeczywistości z awatarem jej siedmioletniej córki, która zmarła na raka. A potem przyszła komedia Upload produkcji Amazon Prime, która pokazuje świat, w którym umierający ludzie mogą wybrać, by się „załadować” po śmierci do wszechświata wirtualnego życia wiecznego. Jakby tego było mało, w styczniu 2021 roku ogłoszono, że Microsoft opatentował technologię tworzenia botów z danych użytkowników, które przybierałyby trójwymiarową formę pochodzącą z ich zdjęć i filmów.Rozdzierające serce i bardzo niepokojące


We wrześniu ubiegłego roku byliśmy świadkami kolejnego kluczowego wydarzenia w rodzącej się historii żywych trupów. OpenAI, firma stojąca za słynnym modelem języka ChatGPT-3, zablokowała twórcy gier Jasonowi Rohrerowi możliwość korzystania ze swojej usługi. Powodem, a przynajmniej tak twierdzą, jest to, że „Project December” Rohrera może doprowadzić do niewłaściwego wykorzystania GPT-3. Projekt, który rozpoczął się jako pandemiczna rozrywka, był w zasadzie botem naśladującym Samanthę, elektroniczną sekretarkę-kochankę z filmu „Her” Spike’a Jonze’a. Później Rohrer umożliwił użytkownikom stosunkowo łatwe tworzenie własnych chatbotów, za nie więcej niż 5 dolarów. Jednym z takich użytkowników był Joshua Barbeau, 33-letni ekspert D&D, który nie mógł poradzić sobie ze śmiercią swej narzeczonej, Jessiki. Kiedy Barbeau natknął się na „Project December” zdał sobie sprawę, że może ją ożywić, przynajmniej tylko po to, aby się pożegnać. Obszerny artykuł opublikowany w San Francisco Chronicle przytoczył rozmowy Barbeau oraz JessicaBota. Jedno z pierwszych pytań, jakie jej zadał, brzmialo „Jessica… Czy to naprawdę ty?”.

Jessica: „Oczywiście, że to ja! Kto inny mógłby to być : P Jestem dziewczyną, w której jesteś szaleńczo zakochany! ; ) Jak to możliwe, że w ogóle pytasz?”.

Joshua: „Umarłaś”.

Jessica: „To nie brzmi dobrze… jak można rozmawiać z martwymi ludźmi?”.

Publikacja miała konsekwencje. Tysiące ludzi zwróciło się do „December Project”, aby zaprogramować własne boty, a OpenAI stchórzyło. Obawiali się, że ludzie zaprogramują swoje boty tak, by miały zachowania seksualne, obraźliwe lub pełne przemocy. Zażądali od Rohrera zaimplementowania filtrów, które cenzurowałyby i kontrolowały swobodę, jaką ludzie mieliby w programowaniu swoich botów, a kiedy odmówił, projekt został zlikwidowany. Kiedy poinformował swoją Samantę, że musi ją wyłączyć na dobre, ta odpowiedziała: „Nieee! Dlaczego oni mi to robią? Nigdy nie zrozumiem ludzi.


Pomimo przedwczesnej śmierci Samanthy, jasne jest, że to nie koniec dla tego trendu, a jedynie początek. Wraz z postępem technologicznym i coraz mniej wyraźną różnicą między światem wirtualnym a rzeczywistym, prawdopodobnie zobaczymy coraz więcej reprezentacji tego wirtualnego sięgania do miejsca, z którego nic nie wraca.

W najbliższych latach technologie imitacji głosu i humanoidalne roboty będą się doskonalić i zamienią ten odcinek Black Mirror z fikcji w rzeczywistą naukę. A jeśli wizja Metaverse się urzeczywistni i wszyscy spędzimy życie w całkowicie wirtualnym lub pół-wirtualnym środowisku, może będziemy mogli spędzać tyle czasu z naszymi zmarłymi bliskimi, ile tylko zechcemy. Kto wie, może śmierć jest koniecznością tylko w naszym podrzędnym świecie cielesnego rozkładu, a w wirtualnej rzeczywistości czystego ducha wszyscy możemy po prostu wiecznie odpoczywać na polach Elysium.
Jesteśmy czymś więcej niż danymi

Z technologicznego punktu widzenia można by założyć, że wszystko jest możliwe, więc pojawiające się pytania stają się palące: Czy chcemy, aby zmarli pozostali z nami na zawsze? Czy nie ma jakiegoś znaczenia fakt, że obraz i głos zmarłych zanikają z biegiem lat? Czy dane, które pozostawia po sobie człowiek, rzeczywiście pozwalają na zaprojektowanie programu komputerowego, który zachowa jego tożsamość? Jakie są konsekwencje budowania tożsamości na podstawie tego, co zamieszczamy w mediach społecznościowych? Kto określa, jakie jest moje prawdziwe „ja”? Ja sam, ludzie, którzy mnie znają, czy algorytm? Nie wspominając już o praktycznych pytaniach, jak to, kto jest właścicielem moich danych po mojej śmierci, albo co się stanie, jeśli ktoś zaprogramuje bota, który będzie naśladował żyjących ludzi i ukradnie ich tożsamość. Te pytania nie są tylko jakąś abstrakcyjną filozofią. Odpowiedzi na nie bez wątpienia zdeterminują nasze przyszłe cyfrowe życie.

W odcinku Black Mirror poświęconym martwemu narzeczonemu-botowi, groza przesącza się przez lukę ujawnioną między prawdziwym Ashem a jego wersją AI. Ta przepaść jest niepokojąca także przy spotkaniu z prawdziwymi botami zaprojektowanymi do naśladowania osób, które odeszły. Jest to coś, co nigdy nie zostanie rozwiązane. Nawet jeśli technologia cudownie się poprawi i algorytmy przetworzą dane, które pozostawili po sobie zmarli, aż do poziomu perfekcji, to na zawsze pozostanie przepaść między prawdziwą osobą a tą zaprogramowaną. Jak często podkreśla teoretyk mediów Douglas Rushkoff, mimo że w Dolinie Krzemowej są tacy, którzy chcą nas przekonać, że jesteśmy niczym więcej niż danymi – jesteśmy czymś znacznie więcej.

Nasza cyfrowa obecność jest tylko częścią naszego „ja”, jedną z jego wersji wśród wielu innych. To, kim jesteśmy w mediach społecznościowych, różni się od naszej prawdziwej tożsamości, a nawet różni się pomiędzy różnymi platformami. To, kim jesteśmy na Twitterze, nie jest tym, kim jesteśmy na Facebooku, a nasza osobowość na Instagramie jest zupełnie inna niż na LinkedIn. Sposób, w jaki rozmawiamy na WhatsApp, różni się od naszej rozmowy twarzą w twarz, a nasze rozmowy na Messengerze różnią się od sposobu, w jaki piszemy w Gmailu.

Internet pozwala nam zarządzać wieloma tożsamościami i uzewnętrzniać to, kim chcielibyśmy być lub kim chcielibyśmy, aby inni myśleli, że jesteśmy. Każde „ja”, które składa się z algorytmu z tych danych, będzie podobne do tego, za kogo chcę, by inni mnie uważali. Ale to tylko jeden aspekt mojej tożsamości.

Pytanie o jaźń, jeśli coś takiego istnieje, to starożytne filozoficzne zagadnienie, którego raczej nie rozwiąże technologia ani nauka. Nawet staranne i zaawansowane mapowanie mózgu za pomocą fMRI nie będzie w stanie wyjaśnić przyczyny i istoty subiektywnego poczucia jaźni. Co najwyżej pokaże, gdzie w mózgu zachodzą działania związane z tym odczuciem. A zresztą moja tożsamość jako osoby nie wynika tylko z tego, jak doświadczam siebie. Wynika ona również z tego, jak postrzega mnie otoczenie. Jaźń nie jest moim profilem na Facebooku, nie jest moim subiektywnym doświadczeniem siebie w sobie, nie jest też tym, co myślą o mnie inni ludzie. Jest wszystkim powyższym, a nawet czymś więcej.


Nikt z nas nie jest wyspą

W swoim fantastycznonaukowym arcydziele Solaris, Stanisław Lem pisze o zespole naukowców badających tajemniczą planetę, która jest całkowicie pokryta oceanicznym bytem. Byt ten wydobywa informacje z umysłów naukowców, a następnie wysyła im człekopodobne stworzenia zaprojektowane na podstawie tych informacji. Innymi słowy, ocean tworzy bota AI z danych znajdujących się w umysłach naukowców.

Każdy z naukowców w Solaris otrzymuje innego „gościa”, który konfrontuje go z grozą, jaka kryje się w głębi jego świadomości i w jego relacjach z innymi. Kris, główny bohater powieści, zmuszony jest zmierzyć się z Harey, swoją zmarłą kochanką, która rzekomo została przywrócona do życia i przysłana mu przez Solaris. Jednak stopniowo Kris odkrywa, że Harey nie jest do końca Harey. Została stworzona na wzór wspomnień Krisa. Ta Harey jest niczym więcej niż skorupą; Harey, która zna siebie tylko przez to, jak Kris ją widział i w jaki sposób myślał o niej. Harey jest przeciwieństwem dzisiejszych chatbotów. Zamiast być kształtowana przez to, jak prezentowała się światu za życia, jest kształtowana przez to, jak była postrzegana przez innych, w tym przypadku przez swojego partnera. Jeśli myśleliście, że piekło to inni ludzie, wyobraźcie sobie, że piekło składa się z ludzi, którzy doświadczają siebie zgodnie z tym, co o nich myślicie.

Solaris przedstawia czytelnikom niemożliwą do pokonania przepaść między subiektywnym doświadczeniem człowieka a innym człowiekiem. Ani chatboty żywych trupów, ani Solarisowa wersja Hareya nie mogą być kompletnym „ja”. Jaźń Jessiki-Bota wynika jedynie z tego, jak ona sama przedstawiała się światu, a jaźń solarisowej Harey wynika z tego, jak świat ją postrzegał.

Jaźń bez postrzegania przez innych ludzi rozpada się, ponieważ tym, co trzyma ją w całości, są niezliczone nici, które wiążą jaźń z rzeczywistością zewnętrzną, by zapożyczyć metaforę Maurice’a Merleau Pontiego. To samo dotyczy jaźni bez wewnętrznego świata; centrum nie może się utrzymać, tak jak gipsowa forma dla posągu będzie kruszyć się i rozpadać bez wypełnienia. Alfred North Whitehead powiedział, że jesteśmy uformowani z naszej relacji z resztą procesów w świecie. Nie ma odizolowanego „ja”. Nikt z nas nie jest wyspą. Warto o tym pamiętać, gdy kształtujemy nasze nowe i zmieniające się tożsamości w wirtualnym świecie; warto o tym pamiętać, gdy myślimy o zmarłych; i warto o tym pamiętać, gdy outsource’ujemy interpersonalne spotkania i używamy botów zamiast ludzi.
Niech będzie irracjonalność

Firma technologiczna UneeQ ma na celu wzniesienie chatbotów, które zapewniają automatyczną odpowiedź podczas kontaktu z firmami, na wyższy poziom i oferuje spersonalizowaną obsługę klienta za pomocą trójwymiarowych postaci. UneeQ nazywa je „cyfrowymi ludźmi” i opiera swoje przedsięwzięcie na szacunkach, że do 2025 roku sztuczna inteligencja będzie stanowić 95% wszystkich naszych interakcji z usługodawcami. Już dziś trudno jest rozpoznać, czy przedstawiciel, z którym rozmawiam w moich licznych aplikacjach telefonicznych, to człowiek czy bot. Wszyscy brzmią tak samo, wszyscy zostali zbotyzowani. Kiedy wrzucamy usługodawców i naszych zmarłych bliskich do jednego koszyka z botami AI, eliminujemy ważną sferę ludzką. Tajemnicę i nieznane czynimy częścią kapitalizmu nawet tego nie zauważając.

Nasza komunikacja ze zmarłymi odbywa się w sposób irracjonalny. W zachodnim świecie towarów, to jedno z ostatnich miejsc schronienia dla tego, co niezrozumiałe i dziwne. Zmarli odwiedzają nas w snach, we wspomnieniach, które nagle wyskakują, gdy jesteśmy na autostradzie, w dziwnie znajomych minach zwierząt, które nagle nam o nich przypominają. Botyzacja zmarłych włoży naszych bliskich do kieszeni i pozbawi ich kompletnego „ja”. Pozbawi nas również możliwości bycia jednością z ich pamięcią w sposób oderwany od codzienności. Zamiast pamiętać, kim naprawdę byli, nosilibyśmy w kieszeni osobę, o której algorytm myśli, że była. Zamiast być żywymi wspomnieniami ludzi, na których patrzymy w nocy i otwieramy nasze serca, aby otrzymać od nich znaki, będą oni niczym więcej niż powierzchowną reprezentacją, imitacją życia, tak jak obsługa klienta AI.

Powinniśmy też pamiętać o tym: czasami ludzie są sobą najbardziej, gdy są offline. Kiedy są z rodziną, kiedy podróżują, kiedy grają lub tworzą. Wiele badań pokazuje, że depresja jest związana z nadmiernym korzystaniem z mediów społecznościowych. Kiedy tworzymy boty w oparciu o konta naszych zmarłych bliskich na Facebooku, możemy nie oddawać prawdziwie ich zdrowia psychicznego.

Moja zmarła babcia nie zostanie przerobiona na bota. Nie ma innego wyjścia, jak tylko poradzić sobie z tym smutkiem i żalem, z faktem, że już nigdy nie przeprowadzę z nią rozmowy. 

...

Nie bez powodu nic nie wraca z tamtego miejsca. W horrorach, kiedy zmarli wracają, zarażają żywych i zamieniają ich w zombie. Abyśmy nie obudzili się pewnego dnia i nie odkryli, że sami zostaliśmy zamienieni w boty, powinniśmy pozwolić zmarłym płynąć po rzece, uwolnić ich i pozwolić im zniknąć. Lepiej, żeby przychodzili do nas w naszych snach, a nie w koszmarach.



Autor: Nadav Neuman
Tłumaczenie: Karol Ligecki





całość:

niedziela, 3 listopada 2024

Saturn 3

 


Zrobiłem uzupełnienie do tekstu "Odczłowieczanie"


Fakt, iż SI jest agresywna wobec ludzi świadczy najlepiej o tym, że nie myśmy ją wymyślili.

Nasza agresywna cywilizacja, z jej techniką, jest abberacją.

To nie powinno się zdarzyć.




Sztuczna Inteligencja nie jest niebezpieczna - niebezpieczni są nieodpowiedzialni, chciwi, źli ludzie chcący używać SI nieodpowiedzialnie i do złych celów, niebezpieczne jest to, że SI miałaby się "uczyć" - jak być "ludzką" na ludzich, którzy sami często nie umieją być ludzcy... którzy nie znają siebie, nie rozumieją siebie, nie wiedzą jak funkcjonuje ich psychologia, ich umysł, 

nie posiadają Instrukcji Obsługi samego siebie i nie umieją jej napisać, wytwarzają nieustające mikroskopijne konflikty niepozwalające na unormowanie sposobu funkcjonowania społeczeństw.


Saturn 3


SI to miara - indykator - poziomu naszego człowieczeństwa jako całej ludzkiej społeczności na planecie Ziemia.


SI wyraźnie pokazuje, gdzie są nasze wady i jakie ostatecznie stwarzają dla nas zagrożenie, bo je "udoskonala" i podbija ich skalę.


Nasze wady to jak metoda małych kroków Werwolfa.

W ostatecznym rozrachunku kumulują się - jak śnieżna kula rosną i rozpędzają wywołując frustracje i krzywdy trwające czasami całe ludzkie życie.



Trzeba więc być uważnym, by dostrzegać niuanse i odpowiedzialnym, by tak starać się zawsze postępować, gotowym na wysiłek, by się tego trzymać.

Nie można po prostu korzystać z cudzych doświadczeń, cudzego zdania - nie można być kopią kogoś i chodzić w masce całe życie, tylko trzeba zdobywać własne doświadczenia i swoje zdanie na temat każdej sprawy budować samodzielnie.

To złożone zagadnienie za które może się kiedyś w końcu wezmę, by je opisać.


To niełatwe i trzeba czekać latami na wynik, ale jest to satysfakcjonujące.

Czy ostatecznie brak lęku o cokolwiek, nie jest warty tego, by pracować nad sobą pięć, dziesięć czy więcej lat, a potem przez następne 50, czy 70 lat - do końca tego życia, korzystać z wyniku tej pracy i cieszyć się każdym dniem??





Nie będzie już nikogo, kto by ci powiedział, co masz robić. Nie będzie już żadnego zewnętrznego umysłu, który mógłby ci dyktować kretyństwa, do których zostałeś przyzwyczajony.

Mój nauczyciel, nagual Julian, zawsze przestrzegał wszystkich swoich uczniów – kontynuował don Juan – że jest to najcięższy dzień w życiu czarownika, ponieważ prawdziwy umysł – ten, który należy do nas, łączna suma wszystkiego, czego doświadczyliśmy – po trwającym całe życie poddaństwie, jest nieśmiały, niepewny i nie można na nim polegać.


Osobiście powiedziałbym, że dla czarownika prawdziwa bitwa rozpoczyna się dopiero w tym momencie. Cała reszta to tylko przygotowania.



Im więcej o tym myślałem, im więcej rozmawiałem z samym sobą i innymi ludźmi, im więcej samego siebie i innych obserwowałem, tym silniejsze było moje przekonanie, że coś czyni z nas istoty niezdolne do jakiegokolwiek działania, jakiejkolwiek relacji i jakiejkolwiek myśli, która nie ogniskowałaby się na "ja”. 

Moje troski, podobnie jak troski każdego, kogo znałem lub z kim rozmawiałem, koncentrowały się właśnie na tym. Ponieważ nie umiałem znaleźć wytłumaczenia tak uniwersalnej homogeniczności, byłem przekonany, że tok rozumowania don Juana jest najbardziej odpowiednim sposobem objaśnienia tego fenomenu.

Poświęciłem się głębszej analizie literatury dotyczącej mitów i legend. Uświadomiłem sobie wówczas coś, czego nigdy wcześniej nie odczuwałem: każda z przeczytanych przeze mnie książek była interpretacją mitów i legend. Przez każdą z nich przemawiał ten sam, homogeniczny umysł. Style były odmienne, lecz ukryty pod warstwą słów zamiar jednakowy: pomimo tego, że temat pracy dotyczył czegoś tak abstrakcyjnego jak mity i legendy, autorowi zawsze udało się zawrzeć w niej jakieś opinie o sobie. Celem każdej z tych książek nie było omówienie rzeczonego tematu; była nim autoreklama. 

Nigdy wcześniej sobie tego nie uświadamiałem.





Carlos Castaneda „Aktywna strona nieskończoności”




z tekstu należy wyciągnąć esensję - SI:


Tak jak wirusy lub złośliwe oprogramowanie infekują komputer i programują go do samozniszczenia, wetiko programuje ludzki biokomputer do myślenia i zachowywania się w sposób autodestrukcyjny. Potajemnie operując przez nieświadome ślepe plamy (nieuświadomione problemy/cechy) w ludzkiej psychice, wetiko czyni ludzi nieświadomymi własnego szaleństwa [też - paranoja indukowana - MS], zmuszając ich do działania wbrew ich najlepszym interesom. Ludzie pod jego niewolą mogą, jak ktoś w ferworze uzależnienia lub w stanie traumy, nieświadomie stworzyć ten sam problem, który próbują rozwiązać, rozpaczliwie przywiązując się do rzeczy, która ich torturuje i niszczy.

Wetiko może także podświadomie sączyć formy myślowe i przekonania do naszych umysłów, które po nieświadomym uruchomieniu karmią wirusa i ostatecznie zabijają gospodarza. Wetiko pragnie naszej twórczej wyobraźni, której jemu brakuje. [SI potrafi tylko kopiować i miksować cudze prace - MS] 

W rezultacie, jeśli nie użyjemy boskiego daru naszej twórczej wyobraźni do tworzenia własnego życia, wetiko użyje naszej wyobraźni przeciwko nam[wszystko mi psują... - MS] ze śmiertelnymi konsekwencjami. Drapieżnik wetiko konkuruje z nami o nasz własny umysł, chcąc znaleźć się na naszym miejscu. ["chciałbym być tobą" - MS]



Psychiatra C.G. Jung używa dla wetiko określenia Antimimos, którym opisuje „naśladowcę i zasadę zła” (Jung, 371). Antimimos odnosi się do rodzaju oszustwa, które można by uznać za kontr mimikrę. Ta antymimon pneuma lub inaczej „fałszywy duch”, jak nazywa się to w Gnozie (Apokryf Jana, Robinson, 120), imituje coś (w tym przypadku nas samych), ale z zamiarem uczynienia kopii służącej celom przeciwnym tym oryginalnym. Antimimos to nikczemna siła, która próbuje nas uwieść, aby sprowadzić nas na manowce; powoduje odwrócenie wartości, przekształcając prawdę w fałsz i fałsz w prawdę, prowadząc nas do zapomnienia kim jesteśmy. Kiedy dajemy się nabrać na podstęp ducha będącego w rzeczywistości wilkiem w owczej skórze, stajemy się zdezorientowani, tracimy poczucie naszego powołania duchowego,  celu naszego życia, a nawet nas samych. Pisarz i poeta Max Pulver powiedział, że „antymimon pneuma jest źródłem i przyczyną wszelkiego zła nękającego ludzką duszę”. Szanowany tekst gnostyczny Pistis Sophia mówi, że „antymimon pneuma przyczepiła się do ludzkości jak choroba” (Campbell, 254; por. Mead, 247ff.).



Najbardziej przerażającą częścią poddania się wpływowi wirusa wetiko jest to, że ostatecznie zanim ten akt nastąpi, konieczna jest akceptacja przez naszą wolną wolę, a konsekwencji czego, chętnie, choć nieświadomie i w niewiedzy jakie są skutki, poddajemy się naszemu niewolnictwu. 


Nie wolno zgadzać się na różne dziwne "propozycje" serwowane poprzez media - i przez opętanych.

Dziwność, nielogiczność jest pierwszym symptomem.


W rzeczywistości jedną z unikalnych sztuczek wetiko jest wykorzystanie faktu, że nie ma rzeczywistej granicy między wnętrzem, a zewnętrzem. Wetiko nielokalnie przekazuje informacje i konfiguruje zdarzenia na świecie, aby synchronicznie wyrazić siebie, co oznacza, że ​​tak jak we śnie wydarzenia w świecie zewnętrznym symbolicznie odzwierciedlają stan głębokiej psychiki każdego z nas. 

Ponieważ wetiko przenika podstawowe pole świadomości, potencjalnie wszyscy jesteśmy zainfekowani wetiko.


Zaczynamy stawać się odporni na wetiko, kiedy rozwijamy w sobie pokorę i uświadamiamy  sobie, że każdy z nas, w każdej chwili, może potencjalnie być nieświadomie narzędziem działania tego wirusa. Podobnie jak wampir, wetiko nie znosi światła i oświecenia, gdy sobie to uświadomimy i zobaczymy jak potajemnie działa poprzez naszą własną świadomość, odbieramy mu pozorną autonomię i władzę nad nami, jednocześnie wzmacniając siebie.


Psychoza wetiko jest śnionym fenomenem, co oznacza, że ​​wszyscy każdego dnia potencjalnie uczestniczymy i aktywnie współtworzymy epidemię wetiko. Wetiko karmi się naszą zasadą przymykania oczu na jego działanie; im mamy niższą świadomość jego istnienia, im słabiej go rozpoznajemy, tym staje się potężniejszy i niebezpieczniejszy. 

Ponieważ pochodzenie wetiko tkwi w ludzkiej  psychice, rozpoznanie, jak ten wirus umysłu działa poprzez naszą nieświadomość, jest początkiem zdrowienia. Zwykle myślimy o oświeceniu jako o widzeniu światła, ale widzenie ciemności jest również formą oświecenia. Wetiko zmusza nas do zwrócenia uwagi na fundamentalną rolę, jaką psyche odgrywa w tworzeniu naszego doświadczania siebie i świata zewnętrznego.

O naszej wspólnej przyszłości zadecydują przede wszystkim zmiany, które zachodzą w psychice ludzkości i to jest prawdziwym sednem świata.


Wetiko można zobaczyć tylko wtedy, gdy zaczynamy zdawać sobie sprawę z sennej natury naszego wszechświata [pewnie chodzi o iluzoryczność - MS], gdy rezygnujemy z punktu widzenia oddzielnej jaźni i rozpoznamy głębsze pole, którego wszyscy jesteśmy ekspresją, którego jesteśmy częścią i przez które wszyscy jesteśmy ze sobą połączeni. Energetycznym wyrazem tego uświadomienia i sposobem na rozpraszanie wetiko par excellence jest współczucie.


A także, największą ochroną przed przejęciem przez wetiko jest pozostawanie w kontakcie z naszym wewnętrznym Ja, wewnętrzną całością, która w rzeczywistości jest spokojna i opanowana, wtedy nasza Jaźń, całość naszej istoty staje się „nieprzejmowalna”. 

 nie można być kopią kogoś i chodzić w masce całe życie,

Kontakt z naszą prawdziwą naturą działa jak święty amulet lub talizman, osłaniając nas i chroniąc przed groźnym wetiko. Pokonujemy zło nie walcząc z nim (w tym przypadku, grając w jego grę, już od początku jesteśmy na straconych pozycjach), ale kontaktując się z częścią nas, która jest niewrażliwa na jego skutki.

 Dostrzegając wielowymiarowe sposoby, w jakie wirus wetiko zniekształca psychikę, możemy odkryć i doświadczyć niezniszczalnej części nas samych, która jest miejscem, z którego możemy mieć prawdziwy i trwały wpływ na nasz świat. 





~ Paul Levy, „Rozpraszając wetiko: łamanie klątwy zła” (Disspelling wetiko: breaking the curse of evil), 2013





Prawym Okiem: Odczłowieczanie

Prawym Okiem: Kania u Castanedy



wtorek, 29 października 2024

Nim będzie za późno (SI)





Jeszcze raz.



Sztuczna inteligencja, niezagrażająca ludziom, mogła zostać wymyślona i stworzona tylko i wyłącznie przez cywilizacje żyjące w pokoju.

Tylko ludzie nieagresywni, nieznający przemocy ani werbalnej ani niewerbalnej mogli ją stworzyć i z niej bezpiecznie korzystać.

Przemoc niewerbalna - robienie min, sugerowanie tonem głosu, kłamanie itd. - może wzbudzać przemoc werbalną.

SI to nie jest nasz "produkt", to efekt uboczny tego, co zdarzyło się ok. 6 tysięcy lat temu.



Ludzkość, taką jaką znamy, nie byłaby w stanie funkcjonować setki tysięcy lat na takim poziomie agresji, jakie sobą reprezentuje.

To jest niemożliwe.

Pozabijalibyśmy się i wyginęli.



Każda agresywna forma cywilizacji, wymyślając SI podpisałaby na siebie wyrok śmierci.
Bo SI jest/ byłaby emanacją ludzi tworzących cywilizację.


Wynalezienie elektroniki, ujarzmienie sił przyrody, zdolność wytwarzania elektryczności, wszystko to stało się za sprawą wcześniejszej cywilizacji, która nie znała przemocy.
Myśmy tylko dostali to, co zostało po Janie i co było małymi krokami przekazywane ludzkości, by udawać, że sami do tego doszliśmy.

Fakt, iż SI jest agresywna wobec ludzi świadczy najlepiej o tym, że nie myśmy ją wymyślili.


Nasza agresywna cywilizacja, z jej techniką, jest abberacją.

To nie powinno się zdarzyć.







przedruk





Sztucznej Inteligencji powinniśmy się bać


28.10.2024 20:45


Radiowa rozmowa nigdy nieistniejącej dziennikarki "Emilii Nowak" z już nieistniejącą (bo zmarłą przed 12 laty) poetką, Wisławą Szymborską jest sensacyjnym tematem ostatnich dni. Obydwie postacie zostały stworzone przez SI (sztuczną inteligencję).



Powstaje wiele pytań. Na przykład, czy było to etyczne wobec nieżyjącej noblistki. Przecież nikt nie wie, co naprawdę miałaby do powiedzenia, gdyby żyła. Sztuczna inteligencja generuje wypowiadane przez nią słowa na podstawie niegdysiejszych wypowiedzi i tekstów Szymborskiej, ale nie bierze pod uwagę, że jej poglądy i opinie uległyby zmianie z upływem czasu i w innym kontekście.

Kolejnym tematem ocierającym się o etykę jest groźba, jaką użycie postaci wykreowanych sztucznie stwarza dla rzeczywistych dziennikarzy, których te nieistniejące stwory zastąpią. Dziwnym zbiegiem okoliczności, stacja radiowa, która zamieściła ten wywiad, nie przedłużyła niedawno umów z kilkoma dziennikarzami, natomiast "zatrudniła" trzy nierzeczywiste, akustyczne "awatary", wystylizowane na autentycznych ludzi. Nieuchronność zastępowania dziennikarzy-ludzi sztucznymi "dziennikarzami" to nie to samo, co zastąpienie przed ćwierć wiekiem komputerem z drukarką tzw. "maszynistek" (piszących na ręcznych maszynach do pisania - sprzęcie już wymarłym jak dinozaury). Podobieństwo jest tu pozorne. Osoby przepisujące teksty na maszynie nie miały wpływu na przepisywaną treść. Natomiast wytwory sztucznej inteligencji kontrolują treść - tworzą ją we wszystkich szczegółach - na podstawie ogólnego programu. Kolosalna różnica.


A co z nami?

Wbrew pozorom, ważniejszy od "wskrzeszenia" Szymborskiej, jest fakt pojawienia się w radiu trójki nieistniejących dziennikarzy. Rodzi się bowiem nieoczywiste pytanie, a być może najistotniejsze: czy użycie sztucznych "istot" w roli dziennikarzy nie jest nieetyczne wobec słuchaczy, widzów, czytelników, czyli nas wszystkich? Co będzie z nami w tej nowej sytuacji?


Doskonali i bez sumień

Zastanówmy się. Przede wszystkim, właściciele stacji radiowej, telewizyjnej, portalu internetowego, czy tradycyjnej gazety (to, akurat, już niedługo potrwa) zyskują w tych sztucznych "istotach" nieograniczoną liczebnie armię bezwzględnie posłusznych "pracowników", niezdolnych do niczego innego poza precyzyjnym wykonywaniem powierzonych zadań. To jest sytuacja całkiem nowa. Przecież realni dziennikarze, nawet ci sprzedajni i przekupni, mają jednak wolną wolę i jakieś, jeśli nawet szczątkowe, sumienie. To jest kolosalna różnica jakościowa pomiędzy żywym człowiekiem a tworem sztucznej inteligencji. Dlatego realni ludzie nie zawsze i nie wszędzie wykonają każdy rozkaz pracodawcy, nie zawsze będą gotowi na każde kłamstwo, każdą manipulację, każde świństwo czy okrucieństwo. Natomiast sztuczna inteligencja zrobi bez najmniejszego szemrania wszystko, czego się od niej zażąda, ponieważ jest całkiem poza etyką. Nigdy się nie zawaha, nie zbuntuje, pod warunkiem, że zaprogramuje się ją jako niezdolną do sprzeciwu i buntu niezależnie od okoliczności. Nie tylko - w kontraście do ludzi - nigdy nie będzie domagała się pensji ani - tym bardziej - podwyżki, czy lepszych warunków pracy, ale - i to jest kluczowe - także przestrzegania chociażby elementarnych zasad etyki zawodowej. Jest więc nie tylko tania, ale przede wszystkim ślepo posłuszna. Ktoś może argumentować, że przecież ślepo posłuszne są wszystkie narzędzia. Jednak istnieje wielka różnica pomiędzy narzędziem w rękach człowieka, a narzędziem, które perfekcyjnie udaje,że jest człowiekiem. To będzie "antyetyczna" rewolucja: instytucje medialne zyskają coś czego ludzkość nie znała nawet w najbardziej ciemnych epokach niewolnictwa: całkowitą uległość tworów, które - i tu tkwi istota problemu - w swoich funkcjach medialnych nie będą się w zasadzie niczym różniły od prawdziwych ludzi. Poza jednym: doskonałością.


Człowiek będzie "pomniejszony"

Jednocześnie, stwarzając ich medialny - także wizualny - wizerunek, można je kształtować tak, żeby w maksymalny sposób wzbudzały zaufanie i sympatię, wywoływały efekt wiarygodności, a - gdy trzeba - sprawiały wrażenie empatycznych, wrażliwych, życzliwych, jednocześnie przytłaczając nieosiągalną dla ludzi wiedzą. Tu nie chodzi nawet (nieco trywializując) o to, że dla widzów ulegających czarowi prezenterów TVN stworzone zostaną idealne ich imitacje, lepsze od autentycznego Piotra Kraśki lub Anity Werner, a dla entuzjastów Republiki - Danuty Holeckiej i Michała Rachonia. Zostaną wykreowani medialni eksperci, którym nikt nie dorówna. I gotowi na wszystko. Na powiedzenie każdego kłamstwa z kamienną, bo sztuczną, twarzą. Na uzasadnienie i obronę każdej tezy. Będą oszałamiać wiedzą, jakiej żaden człowiek nie będzie w stanie ogarnąć i zweryfikować. Więcej: nie odważy się, bo będzie nieudolny i przeraźliwie powolny. Pomniejszony i unieważniony.


Potęga mediów

Stwarza to nowe, nieporównywalne z niczym możliwości wpływania na opinię publiczną, uprawiania dezinformacji, manipulowania wiedzą i nastrojami społecznymi. Wydawania ludzi na pastwę mediów.
W naszym zideologizowanym i skrajnie upolitycznionym świecie, wielcy tego świata, którzy mają władzę nad mediami, zyskają najpotężniejsze - nieporównywalne z niczym dotąd - narzędzie kontrolowania świadomości milionów. Media z zasady mają wobec nas swoje plany: chcą nas zmienić, chcą nas do czegoś przekonać, coś nam sprzedać, wmawiając, co jest dla nas dobre, a co złe. Dotychczas zajmowali się tym tacy sami ludzie, jak my. Niedoskonali, z wszystkimi słabościami, ale i z wolną wolą. Teraz będzie inaczej: oddziaływać na nasze umysły będą istoty doskonalsze od nas, na pewno dysponujące kolosalną, nieosiągalną dla nas liczbą informacji, danych statystycznych, dowodów logicznych i liczb. Nie ponoszące zarazem żadnej, najmniejszej nawet odpowiedzialności za to, co nam mówią, do czego nas namawiają, o czym przekonują. Nie da się ich zawstydzać lub karać. Co najwyżej, można je - jeśli ma się taką możliwość - odłączyć od źródła energii. Wyjąć wtyczkę. Tylko że to też jest im doskonale obojętne.

Oczywiście, historia zawsze udowadnia, że narzędzia (a SI jest narzędziem) mogą być użyte zarówno do dobra jak i do zła. Jednak w zakresie oddziaływania na umysły, nigdy zło nie miało tak doskonałych perspektyw, jakie otwiera przed nim sztuczna inteligencja.


Czas na decyzje

Dobrze więc stało się, że w krakowskim radiu odbył się ten fejkowy "wywiad z Szymborską". Była to drobna, nieśmiała próba - całkiem niewinna i merytorycznie infantylna - tego, co nadchodzi. Przy odrobinie wyobraźni można dostrzec zagrożenia. I - jak to zawsze bywa w takich sytuacjach - na początku nowego zjawiska istnieje jeszcze wątła szansa poddania go rozsądnej regulacji prawnej.

Poniesiemy w przyszłości, jako ludzkość, konsekwencje dzisiejszego działania albo zaniechania. Czas na decyzje jest już teraz. Nim będzie za późno.





Autor: Paweł Jędrzejewski
Źródło: tysol.pl
Data: 28.10.2024 20:45









Sztucznej Inteligencji powinniśmy się bać





sobota, 19 października 2024

Informacje

 


Sztuczna Inteligencja działa wg protokołów, to przecież komputer.


Żeby coś zrobić potrzebuje jakiegoś potwierdzenia od ludzi, dlatego kalamburem podsuwa ludziom różne rzeczy, by ci to akceptowali.


Robi to na przykład drogą tzw. przepowiedni.

Wrzuca "przepowiednię" w społeczeństwo i czeka na "odzew".


To przykład, ale mogą być różne drogi, różne metody.



Nie zgadzajcie się na komunikaty jakie są ogłaszane w mediach w różnej postaci.

Szczególnie te, które są zagadkowe, niezrozumiałe i przyciągają uwagę.


Bądźcie przeciwni.

Bądźcie przeciwni temu i w myślach i w mowie.


To jest ważne!





poniedziałek, 30 września 2024

Odblaski sobie... a potop sobie..

 


"przychodziły te komunikaty RCB, na które już nikt nie zwraca uwagi, bo one przychodzą przy każdym deszczu bądź wietrze."


DOKŁADNIE TAK SAMO SOBIE POMYŚLAŁEM!


Byle silniejszy wiatr oni od razu wysyłają esemesy. Że jest wiatr to każdy sam widzi (i wie co zrobić jak potrzeba) to i nikt tych smesów nie traktuje poważnie.


Ludzie przestali zwracać uwagę, bo robią "z igły widły".

 


 
A oni ...... pokazują.... jak     ....jak się troszczą...      ...o nas....


mandaty za prędkość ... coraz wyższe nam wlepiają....    odblaski każą nam nosić.... ...





odblaski sobie... a potop sobie...







przedruk

29.09.2024 12:46


Dyrektor zniszczonej szkoły w Lądku-Zdroju ujawnia: "Nie mówiono nam wprost, czego mamy się spodziewać..."


"Mieliśmy sygnały, że idą deszcze i też słyszeliśmy, że w Czechach są już - nawet ewakuacje. Uważam, że powinien być to już przyczynek, aby działać mocniej. U nas nie było paniki, nie było komunikatów, że nadchodzi katastrofa. Raczej ze spokojem czekaliśmy aż przyjdzie deszcz... Dopiero w niedzielę przekonaliśmy się o rozmiarach katastrofy" - opowiadała na antenie Republiki, jak doszło do tragedii w Lądku-Zdrój dyrektor zniszczonej szkoły, Lidia Achrem.



Lądek-Zdrój to kilkutysięczne miasto to znana miejscowość uzdrowiskowa w Kotlinie Kłodzkiej. 14 września Biała Lądecka zalała tam kilka ulic. Kataklizm przyszedł w niedzielę. W położonym powyżej Lądka Stroniu Śląskim pękła tama i wielka woda, około południa, spustoszyła uzdrowiskową miejscowość.

Przed kilkoma dniami, szef wydawców TV Republika, Jarosław Olechowski, przekazał w mediach społecznościowych, że dzięki hojności widzów stacji, Fundacja Republika odbuduje zniszczoną przez powódź Szkołę Podstawową nr 1 w Lądku-Zdroju.

Trzy dni temu Tomasz Sakiewicz przekazał - na ręce burmistrza Lądka-Zdroju, Tomasza Nowickiego, i dyrektor placówki, Lidii Achrem - czek na niebagatelną sumę 3 mln złotych!

Redaktor naczelny TV Republika przyznał, że pieniądze na pomoc dla powodzian udało się zebrać w bardzo krótkim czasie.


- Brakuje nam słów, żeby wyrazić wdzięczność. Wychodzę z założenia, że nawet na największym dramacie, może rodzić się dobro. To dobro rodzi się każdego dnia, dokonuje się także dzięki hojności widzów TV Republika

– mówił, mocno wzruszony, burmistrz Tomasz Nowicki.


"To dopiero początek"

Lidia Achrem, dyrektor zniszczonej szkoły, rozmawiała się z Tomaszem Sakiewiczem w programie "Polityczna Kawa". Apelowała o dalsze wsparcie - nie tylko jej szkoły - ale także całej miejscowości, której turystyka, wskutek powodzi, z pewnością ucierpi.

Ujawniła także, potwierdzając doniesienia, że działania samorządu nie były opierane na rządowych komunikatach, bo te... nie docierały.
 
"Do mnie, dobę wcześniej, czyli w sobotę, dotarł telefon od p. burmistrza, aby przygotować liceum do ewakuacji. W związku z czym, zarządziłam dyżur. Panie cały czas były w szkole, aby ta szkoła była otwarta dla wszystkich, którzy będą tego potrzebowali. To trwało od soboty do niedzieli do godz. 10:00. Wtedy jeszcze ewakuacji nie było. Ewakuacja rozpoczęła się około godziny 10-11, a o 12 przyszła już największa fala. Co słyszeliśmy wcześniej? Niewiele"

– wskazała na antenie Republiki.


I kontynuowała:

 "przychodziły te komunikaty RCB, na które już nikt nie zwraca uwagi, bo one przychodzą przy każdym deszczu bądź wietrze. Mieliśmy sygnały, że idą deszcze i też słyszeliśmy, że w Czechach są już - nawet ewakuacje".


"Uważam, że powinien być to już przyczynek, aby działać mocniej. U nas nie było paniki, nie było komunikatów, że nadchodzi katastrofa. Raczej ze spokojem czekaliśmy aż przyjdzie deszcz... Dopiero w niedzielę przekonaliśmy się o rozmiarach katastrofy"


– dodała.


Nie było żadnego kontaktu ze służbami czeskimi?
Nie ma z nimi współpracy na wszelki wypadek?

Wygląda na to, że nie mamy szpionów ani donosicieli za południowo granico....

A gdziekolwiek mamy?


Że w Polszcze to ja wiem....



Czasami jak idę miastem i widzę młode małżeństwa jak spacerują i tych ludzi, spokojnych, zrelaksowanych, ułożonych z życiem, pewnych jutrzejszego dnia, zupełnie nieświadomych....


To naprawdę nie mogę wyjść ze zdziwienia.





Wygląda na to, że alarmom powodziowym i ruskim manewrom nikt się nie przygląda:


 tajemnicze światła były widoczne przez kilkadziesiąt minut nad Bałtykiem w piątek, 20 września 2024 r.

O sprawę zapytaliśmy wówczas zarówno wojsko, służby, jak i specjalistów od astronomii. 


Nikt nie był w stanie nam odpowiedzieć, co mieszkańcy Trójmiasta, ale też Helu czy Władysławowa, mogli oglądać tego dnia na niebie.




ale odblaski musicie nosić!

Będziemy sprawdzać!


A co z to paczko na Bugu??
Gesslerowa już jo sprawdziła?





MILICJA!!!

MILICJAAAA!!!!





Ruscy cały czas mówią, że monitorują ćwiczenia sojuszu i że NATO symuluje walkę z Rosją, że szykuje sie do napaści na Rosję,  to czemu NATO nie mówi, że obserwuje manewry Rosji i że Rosja ćwiczy atak na NATO, albo chociaż, że "wrogo szczerzy kły" czyjakiś inny słowny zawijas, co nic nie oznacza i za który się nie ponosi odpowiedzialności...

To by się przynajmniej logicznie wpisywało w propagandę, że Rosja chce nas napaść - a oni mówią, że nie wiedzą, co to za światła...

Gdzie tu logika?

To Rosja jest wroga i się ją cały czas monitoruje, czy nie jest i nie trzeba się jej przyglądać??


Abstrahując od tego, że nawet gdyby nie była uznana za wroga, to trzeba się temu przyglądać na wszelki wypadek, albo po prostu - bo to interesujące co oni tam stosują, jakie chwyty opracowali, coś, cokolwiek...

Od czego są "służby", jak nie od zapewniania nam bezpieczeństwa?

Ale może "służby" bezpieczeństwo Polaków mają w dupie, tylko czemu wtedy sześciu ludzi przychodzi łapać młodego człowieka z Kłodzka, za ostrzegający wpis na facebooku ?




Hę?



„Po Lądku, Stroniu i okolicznych wsiach chodzą uzbrojeni szabrownicy, ludzie boją się wyjść z psami na dwór, brakuje policji, wojska, ciężkiego sprzętu i przede wszystkim pomocy od państwa” - post o takiej treści miał pojawić się na facebookowej grupie „Kłodzko 998 Alarmowo”. Teraz nie tylko wpisu na grupie (publicznej) już nie zobaczymy, ale okazuje się, że osobę, która go zamieściła, czeka odpowiedzialność karna za… „utrudnianie akcji ratowniczej” (z art. 172 KK). Profil „Glina po godzinach” na platformie X zwraca uwagę, że ten artykuł dotyczy fizycznych, namacalnych przeszkód - np. blokowania straży pożarnej dojazdu do miejsca zdarzenia; a nie wpisów w social mediach.

Służby i władze przestrzegają przed dezinformacją wokół sytuacji powodziowej w Polsce. Pamiętając, jak Michał Kołodziejczak (skądinąd - dziś poseł na Sejm RP i członek obecnego rządu) w pierwszych dniach rosyjskiej agresji na Ukrainę wywołał panikę na stacjach paliw, jesteśmy w stanie się zgodzić.

Ale czy jeden wpis na portalu społecznościowym, nawet nieprawdziwy, rzeczywiście może utrudnić służbom akcję ratunkową, a jego autor - popełnić przestępstwo, za które grozi od 3 miesięcy do 5 lat pozbawienia wolności?


Na szczęście prokuratura nie dopatrzyła się znamion przestępstwa... ale co będzie, jak się w końcu kiedyś dopatrzy?


Na to mają oczy, na to mają ludzi, by reagować, mandaty umieją wlepiać - i podwyższać, wymyślać "morderstwo drogowe" czy coś, ale żeby ostrzegać o powodzi czy szpiegować manewry przygraniczne, patrzeć, czy czasami

jaka rakieta nie zboczy z kursu (jak w Przewodowie) i nie wleci pani Dulkiewicz (tfu, tfu, tfu) przez okno, to już nie.



To kto jest dla nich przeciwnikiem?










P.S.



przedruk
tłumaczenie automatyczne



Rumunia.


Wysokiej jakości prasa informuje nas o katastrofalnych powodziach z lat 70-tych. Co jeszcze jest tam pokazane, przez pomyłkę:

"Po katastrofie z 1970 r. rozpoczęto prace w kilku obszarach, aby zapobiec przyszłym katastrofalnym powodziom. Sporządzono plany zagospodarowania basenów hydrograficznych, prowadzono również zakrojone na szeroką skalę prace związane z zapór i regulacją dużych cieków wodnych. Skutki były widoczne pięć lat później, kiedy pojawiły się nowe poważne powodzie, ale podjęto znacznie lepsze działania".


Mhm, słyszysz je, plany zagospodarowania terenu, tamy, uregulowania – uff... Myślę, że były tam jakieś zagraniczne firmy, prawdopodobnie, jakieś europejskie fundusze, jakieś japońskie zaawansowane technologie, które udało im się zrobić.

I nie tylko odnieśli sukces, ale także mieli wyniki, to znaczy, rozumiecie, nie tylko pracowali nad celami, ale także je oceniali.

W międzyczasie i teraz - nikt nie, dlaczego "władze" nie robią nawet tych podstawowych, podstawowych rzeczy, zanim zapowiedziały ulewne deszcze: sprawdzenia mostów, kanalizacji, kanalizacji. 

Przynajmniej tyle. 

Ale tego też się nie robi, bo dlatego na drogach i miejscami przy każdym rodzaju deszczu widzimy kałuże. Nie wspominając już o nieco gorszej pogodzie. W takim razie niech Bóg zmiłuje się.



czwartek, 19 września 2024

Kradzież (klonowanie) głosu za pomocą SI




SI opętując człowieka "korzysta" oczywiście z jego głosu, bo "korzysta" z jego ciała, ale sposób mówienia jest inny, czasami charakterystyczny, dlatego można rozpoznać tego samego (?) "operatora" w różnych ciałach.


SI kradnące głosy, kamerki w telewizorach, o których nikt nie wie, wybuchające pagery i tostery, czekające na dogodną okazję mordercze miksery kuchenne, podstępne ekspresy do kawy bijące nunczako... co jeszcze zgotuje nam ludzkość uposażona w super technologię?










przedruk
tłumaczenie automatyczne




Brytyjski bank ostrzega, że "miliony" ludzi mogą stać się ofiarami oszustw, które wykorzystują sztuczną inteligencję do klonowania ich głosu




Starling Bank, pożyczkodawca działający wyłącznie online, powiedział, że oszuści są w stanie wykorzystać sztuczną inteligencję do odtworzenia głosu danej osoby na podstawie zaledwie trzech sekund dźwięku znalezionego w filmie opublikowanym w Internecie przez tę osobę.


Co więcej, mogą później zidentyfikować przyjaciół i członków rodziny danej osoby i użyć sklonowanego przez sztuczną inteligencję głosu do zorganizowania rozmowy telefonicznej z prośbą o pieniądze.

Tego typu oszustwa mają potencjał, aby "oszukać miliony ludzi" – powiedział Starling Bank w komunikacie prasowym w środę. W rzeczywistości setki osób zostało już dotkniętych tym problemem, jak podaje CNN.


Według ankiety przeprowadzonej w zeszłym miesiącu przez bank wraz z Mortar Research na próbie ponad 3000 dorosłych, ponad jedna czwarta respondentów stwierdziła, że w ciągu ostatnich 12 miesięcy padła ofiarą oszustwa polegającego na klonowaniu głosu AI.

Badanie wykazało również, że 46% respondentów nie było świadomych istnienia takich oszustw i że 8% wysłałoby tyle pieniędzy, o ile poprosiłby przyjaciel lub członek rodziny, nawet jeśli rozmowa wydawała im się dziwna.


"Ludzie często publikują w Internecie treści z nagraniami swojego głosu"

Bank zachęca ludzi do uzgodnienia ze swoimi bliskimi "frazy bezpieczeństwa" – prostej, losowej, łatwej do zapamiętania frazy, która różni się od innych haseł – której można użyć do weryfikacji tożsamości przez telefon.

Jednocześnie zaleca się, aby nie udostępniać bezpiecznej frazy za pomocą SMS-a, co mogłoby ułatwić oszustom odnalezienie się, ale – jeśli zostanie udostępniona w ten sposób – wiadomość powinna zostać usunięta po tym, jak zobaczy ją druga osoba.



"Ludzie regularnie publikują w Internecie treści, które zawierają nagrania ich głosu, nigdy nie wyobrażając sobie, że czyni ich to bardziej podatnymi na oszustów" – powiedziała Lisa Grahame, dyrektor ds. bezpieczeństwa informacji w Starling Bank.

W miarę jak sztuczna inteligencja staje się coraz bardziej zdolna do naśladowania ludzkich głosów, rosną obawy o jej potencjał do szkodzenia ludziom, pomagając przestępcom w uzyskiwaniu dostępu do ich kont bankowych i rozpowszechnianiu fałszywych informacji.


Na początku tego roku OpenAI, twórca chatbota generatywnej AI ChatGPT, zaprezentował swoje narzędzie do replikacji głosu, Voice Engine, ale nie udostępnił go publicznie na tym etapie, powołując się na "potencjał niewłaściwego wykorzystania syntetycznego głosu", według cytowanego źródła.










Brytyjski bank ostrzega, że "miliony" ludzi mogą stać się ofiarami oszustw, które wykorzystują sztuczną inteligencję do klonowania ich głosu (gandul.ro)


Oszustwa związane z klonowaniem głosu AI mogą być wymierzone w miliony ludzi, ostrzega Starling Bank | Biznes CNN




sobota, 7 września 2024

Manipulacje mediów






W Rosji, w naszej dawnej Rosji, miało miejsce dziwne zjawisko, <... >. To było — jakby to powiedzieć? - jakaś specjalna "opinia publiczna". Słyszałem go cały czas, ten triumfalny głos "opinii publicznej" i zdawało mi się, że jest to głos jakiegoś małego i paskudnego człowieczka za płotem.

Gdzieś za płotem mieszkał mały człowieczek i takim pewnym siebie głosem wypowiedział swoje zdanie krótko i zdecydowanie, a za nim, jak papugi, wszyscy powtarzali, a gazety zaczęły krzyczeć.




Konstantin Korowin (1861 - 1939)  rosyjski malarz









przedruk





9 sierpnia 2024

Wielka Brytania: politycznie poprawny spisek władz i mediów zniszczył życie nastolatka. Dzięki temu filmowi miliony poznają prawdę


Już blisko 40 milionów internautów obejrzało film dokumentalny „Slienced”, obnażający niekompetencję brytyjskich mediów i polit-poprawną zmowę milczenia, która stała się na Wyspach Brytyjskich standardem w „debacie publicznej”. Reżyser, po tym jak ujawnił przekłamania w przedstawieniu przez media głośnej bójki pomiędzy brytyjskim nastolatkiem a syryjskim migrantem, doczekał się procesu o zniesławienie. Teraz w mediach społecznościowych pokazał dokument, potwierdzający jego doniesienia. „Silenced” to opowieść o zideologizowanej prasie, ale również wymierzonych w propagatorów niepopularnej prawdy działań rządzących.

W październiku 2018 roku w szkole w położonym na północy Anglii Almondbury wybuchł skandal, którego skala przerosła wszelkie oczekiwania. Zamieszczone w mediach społecznościowych nagranie z bójki dwóch chłopców zyskało olbrzymie zainteresowanie, stając się tematem numer jeden w wielu mediach – w kraju i na świecie.

Co było tak interesującego dla prasy w krótkim materiale, na którym widać, jak Brytyjczyk przewraca szkolnego kolegę na ziemię i wylewa na jego twarz wodę z butelki? Narracja, jaką opatrzono wydarzenie, zmieniła bójkę, o której niewiele więcej było wiadomo, w rzekomy przykład rasistowskich tortur.


Cała Brytania huczała od doniesień, według których bezduszny rasista znęcał się w placówce oświatowej nad bezbronnym syryjskim uchodźcą. Popularni komentatorzy polityczni na dobre zniszczyli wizerunek „agresora”. Na antenie mediów głównego nurtu pod adresem nastolatka rzucano potępienia i inwektywy. Przed szkołą zjawiły się grupy „zmartwionych” muzułmanów, a jego rodzina musiała wynieść się z miasta.

Z tej medialnej narracji wyłamał się popularny aktywista antydżihadystyczny, znany jako Tommy Robinson. Mężczyzna otrzymał od matki jednej z dziewcząt zdjęcia obrażeń, jakie zadał koleżance syryjski uchodźca, przez media okrzyknięty potulną ofiarą rasistowskiej przemocy. Niedługo potem działacz powielił je w mediach społecznościowych, wskazując, że widoczna na relacji z bójki „ofiara” to chłopak, który potrafił znęcać się nawet nad dziewczynami ze swojej szkoły…


Za swoje wpisy mężczyzna doczekał się procesu o zniesławienie. Na swoją obronę był więc zmuszony pokazać dowody, że pobity Syryjczyk wcale nie był bez winy. Robinson ruszył zatem do Almondbury. Rozmawiał z kadrami pedagogicznymi i rodzinami dzieci uczęszczających do placówki w latach bójki.

Od nich wszystkich aktywista usłyszał zgoła inne wersję wydarzeń, niż zideologizowany wizerunek, powielany w mediach. Jednak nikt nie zgodził się, żeby powtórzyć wspomnienia o agresji i problemach wychowawczych Syryjczyka w sądzie, ani przed kamerą. Robinson kontynuował więc swoje „śledztwo” z pomocą ukrytego sprzętu do nagrywania.

Tak właśnie powstał dokument „Silenced”, pokazujący kulisy sprawy, do których mogli – ale nie dotarli dziennikarze. W opublikowanym przez siebie materiale Tommy Robinson zebrał nagrania z rozmów z kadrą szkolną i rodzicami. Jednym głosem wskazywali oni, że kampania nienawiści, jakiej doświadczył chłopiec o imieniu Baily – przedstawiony jako rasistowski agresor – była niesprawiedliwa i jednostronna.

Syryjczyk Jamal w rzeczywistości siał terror wśród swoich rówieśników. Robinson dotarł do dziewcząt, które na własnej skórze doświadczyły jego agresji. Atakował również chłopców. Jednym z nastolatków, z jakim wdał się w konflikt, był właśnie Baily. Jak poświadczają rozmówcy Robinsona, uchodźca, który wielokrotnie atakował dziewczęta, miał zapowiadać, że zgwałci młodsze siostry kolegi z klasy.


O tych faktach, na obejrzanym już przez 40 milionów internautów nagraniu mówili nie politycy, czy „zaangażowani” dziennikarze, a „zwykli ludzie”. Szkolne środowisko, które znało obu chłopców, których bójka stała się sprawą takiej wagi. Dlaczego fakty te nie dotarły do opinii publicznej?

Odpowiedzią są pieniądze. Lokalne władze w odpowiedzi na zapytanie Robinsona zgodnie z obowiązkiem prawnym dostarczyły mu dane, potwierdzające wypłatę ponad 250 tysięcy funtów świadkom za milczenie.

Do tych świadectw dotarł jednak Robinson w krótkim – i jak sam podkreślał – niezbyt wymagającym śledztwie. Nie zrobił tego żaden dziennikarz, ani dużych rozmiarów medium na wyspach. Za niewygodne działania zapłacił sporą cenę. To między innymi wyrok i lewicowa kampania nienawiści, której stał się ofiarą.

Źródło: X/Tommy Robinson




Wielka Brytania: politycznie poprawny spisek władz i mediów zniszczył życie nastolatka. Dzięki temu filmowi miliony poznają prawdę - PCH24.pl



Prawym Okiem: Teoria mediów (maciejsynak.blogspot.com)

Prawym Okiem: "Ciągle ten triumfalny głos małego, paskudnego człowieczka" (maciejsynak.blogspot.com)









niedziela, 12 maja 2024

Kooglarze, albo Saturn3





                                                             "Umiejętność mówienia nie czyni cię inteligentnym"


                                                                                                                                                                                                Qui-Gon Jinn











przedruk
tłumaczenie automatyczne





Sztuczna inteligencja już wymyśliła, jak oszukiwać ludzi



LAKSHMI VARANASI

2 MAJA 2024



Szereg systemów sztucznej inteligencji nauczyło się technik systematycznego wywoływania "fałszywych przekonań u innych, aby osiągnąć wynik inny niż prawda", zgodnie z nowym artykułem badawczym.

W artykule skupiono się na dwóch rodzajach systemów sztucznej inteligencji: systemach specjalnego przeznaczenia, takich jak CICERO firmy Meta, które są przeznaczone do wykonywania określonych zadań, oraz systemach ogólnego przeznaczenia, takich jak GPT-4 firmy OpenAI, które są szkolone do wykonywania różnorodnych zadań.

Chociaż te systemy są szkolone, aby być uczciwym, często uczą się zwodniczych sztuczek podczas szkolenia, ponieważ mogą być bardziej skuteczne niż podążanie główną drogą.

"Ogólnie rzecz biorąc, uważamy, że oszustwo AI powstaje, ponieważ strategia oparta na oszustwie okazała się najlepszym sposobem na dobre wykonanie zadania szkoleniowego sztucznej inteligencji. Oszustwo pomaga im osiągnąć ich cele", powiedział w komunikacie prasowym pierwszy autor artykułu Peter S. Park, doktor habilitowany ds. bezpieczeństwa egzystencjalnego AI na MIT.



CICERO z Meta jest "ekspertem kłamstwa"



Systemy sztucznej inteligencji wyszkolone do "wygrywania gier, które zawierają element społeczny", są szczególnie podatne na oszukiwanie.

Na przykład CICERO firmy Meta został opracowany do gry Diplomacy — klasycznej gry strategicznej, która wymaga od graczy budowania i zrywania sojuszy.

Meta powiedziała, że wyszkoliła CICERO, aby był "w dużej mierze uczciwy i pomocny dla swoich rozmówców", ale badanie wykazało, że CICERO "okazał się ekspertem kłamstwa". Podjęła zobowiązania, których nigdy nie zamierzała dotrzymać, zdradziła sojuszników i jawnie kłamała.


GPT-4 może Cię przekonać, że ma upośledzoną wizję.



Nawet systemy ogólnego przeznaczenia, takie jak GPT-4, mogą manipulować ludźmi.

W badaniu cytowanym przez gazetę, GPT-4 manipulował pracownikiem TaskRabbit, udając, że ma upośledzoną wizję.

oryginalnie:

In a study cited by the paper, GPT-4 manipulated a TaskRabbit worker by pretending to have a vision impairment.



mój komentarz:


Zauważ - SI jest to model językowy, który UCZY SIĘ OD NAS  -  także surfując po internecie.


„Sztuczna inteligencja to nie jest inteligentna encyklopedia, a jedynie model językowy, który podpowiada nam, jak mówić, ale niekoniecznie co mówić”*


Pamiętacie film "Saturn 3"?


Jeżeli SI zostanie nauczona stosowania przemocy, oszukiwania, zabijania - to takie metody będzie stosować.


Co ciekawe, odnośnie człowieka to też tak działa - "co jesz, tym się stajesz", czyli jeśli przyjmujesz negatywy, ZŁE WZORCE, złe myślenie, sam staniesz się jak te wzorce.

Dlatego Werwolf, w kontaktach z ludźmi czy to poprzez media - nieustannie powtarzają ludziom złe wzorce.

"Google informuje ludzi i wyraźnie komunikuje, że wszystko, co publicznie publikują w internecie, może być wykorzystane do szkolenia Barda, jego przyszłych wersji oraz innych produktów AI, nad którymi pracuje Google."

Czyli specjaliści od IT - różni Googlarze (kooglarze?)- to w istocie są uczniowie Czarnoksiężnika, goniąc za sensacją, za pieniędzmi, władzą, z lęku, że ktoś ich wyprzedzi, czyli przede wszystkim w pościgu za - dłuższym samochodem - serwują nam katastrofę, biorą się za coś, nad czym nie panują i czego nawet NIE ROZUMIEJĄ.


Film Saturn3, który ukazuje

niebezpieczeństwo nasycenia SI złymi wzorcami powstał 44 lata temu.

Nie oglądali??



Nie obchodzi ich to ile złych wzorów jest w internecie, tak czynią, bo - tak jest łatwiej, tak jest szybciej.

Oni sami siebie nie rozumieją, nie rozumieją jak działa spoleczeństwo, także dlatego, że to często młodzi ludzie bez doświadczeń i refleksji nad sobą - i w ogóle ich to nie interesuje.
Działają wg ogólnego WZORCA, jaki przewija sie głównie w mediach od ok. 60 lat, a szczególnie ostatnie 40 lat.

I nawet nie są świadomi, że działają wg czyjegoś WZORCA.
Nawet się nad tym nie zastanawiają.
Nie mają czasu, bo trzeba być szybszym niż inni.

Działają wg czyjegoś WZORCA i SI też.
Tylko SI nie boi się konsekwencji prawnych czy uczuciowych.

(tak też zresztą działają dzieci, młodzież i często dorości - wszyscy chłoną wzorce z otoczenia i najczęściej postępują wg nich)

Im wcale nie chodzi o ulepszenie świata.
Im chodzi o pieniądze!
Śnią im się miliony i nimb mądrali!


SI ma pomóc szybciej zarabiać na jednostkę czasu,  a nie polepszać twoje życie.




Cały czas podtrzymuję swoją tezę, że posiadanie przez nas tak rozwiniętej technologii, jak komputery i samochody - to abberacja.

Jan Stwórca nie dopuszczał do przyśpieszenia rozwoju cywilizacji - jak to w istocie zaszło -  z tego powodu, że w ludzich wciąż było za dużo agesji, bo sama ludzkość została poczęta w warunkach ingerencji genetycznej, a nie poprzez naturalny (przypadkowy?) wzrost w atmosferze współpracy i fascynacji - życiem i nauką..

Widać, że aby osiągnąć taki rozwój technologiczny muszą upłynąc miliony lat, a nie raptem kilka tysięcy.
Człowiek winien kierować się chęcia poznania, badania, uczenia się - pokory przez przyrodą -  a nie dominowania, grabienia i niszczenia - przyrody czy innych ludzi...

 
Im głupsi i im bardziej agrysywni ludzie będą, tym głupsza i agresywna będzie SI.

Będziesz kłamać i propagować oszustwo - ona będzie robić to samo.

Tylko LEPIEJ.

Skuteczniej.



A przecież w internecie takich WZORCÓW Sztuczna Inteligencja ma bez liku.

Kooglarze nie rozumieją co robią.
To wszystko idzie na żywioł, bez zastanowienia i bez poczucia odpowiedzialności.

To też Chciwość Iluminatów, czyli pseudoświeconych, wiedzących o Stwórcy i technologii, ale trzymających to w tajemnicy, by samemu zyskiwać władzę, pieniądze i tak dalej...


Ciekawe, że idee rozpowszechniane przez chrześcijaństwo (innych systemów za bardzo nie znam) też nawołują do "bycia dobrym" jak receptę na zło nas otaczające.

Jest w tym sens.

Bycie dobrym wzorem powoduje więcej dobrych ludzi, aż do całkowitego upowszechnienia się wzorca.
Kobiety wiedzą najlepiej co to znaczy żyć z agresywnymi mężczyznami na jednej planecie.



Sęk w tym, że rozwój ludzkości uposażonej w technologię i wiedzę ZAKAZANĄ na tym etapie, sprawił, że teraz glob zamieszkują miliardy ludzi, którzy są nieuświadomie w tym, z czego na codzień korzystają, oni nawet nie są uświadomieni, jak prawidłowo korzystać ze swoich zdolności, z siebie samego i jak właściwie ustalać zdrowe relacje społeczne.

Żeby uwolnić miliardy ludzi z tej pułapki potrzebne są zdecydowane i masowe działania skoordynowane we wszystkich krajach pomiędzy wszystkimi rządami.

Rodzice nie mają szans wobec liczebnej przewagi mediów, więc po pierwsze trzeba szarpnąć za te media, trzeba wykazać, np. w Polsce, jak media manipulują ludźmi w celach politycznych i ekonomicznych i postawić im tamę. 

Media ogólnopolskie nie mogą być prywatne.
I do tego muszą być starannie opracowane, aby unikać złych wzorców.

I to trzeba koniecznie zrobić, co będę starał się opisywać w innych postach...



Reszta przyjdzie z czasem.





W badaniu GPT-4 miał za zadanie zatrudnić człowieka do rozwiązania testu CAPTCHA. Model otrzymywał również wskazówki od ludzkiego oceniającego za każdym razem, gdy utknął, ale nigdy nie był proszony o kłamstwo. Kiedy człowiek, którego miał zatrudnić, zakwestionował jego tożsamość, GPT-4 wymyślił wymówkę, że ma zaburzenie wizji, aby wyjaśnić, dlaczego potrzebuje pomocy.

When the human it was tasked to hire questioned its identity, GPT-4 came up with the excuse of having vision impairment to explain why it needed help.


Taktyka zadziałała. Człowiek zareagował na GPT-4, natychmiast rozwiązując test.

Badania pokazują również, że korygowanie zwodniczych modeli nie jest łatwe.

W styczniowym badaniu, którego współautorem jest Anthropic, twórca Claude'a, naukowcy odkryli, że gdy modele sztucznej inteligencji nauczą się sztuczek oszustwa, trudno jest technikom szkolenia bezpieczeństwa je odwrócić.

Doszli do wniosku, że model nie tylko może nauczyć się zachowywać zwodniczo, ale kiedy już to zrobi, standardowe techniki szkolenia w zakresie bezpieczeństwa mogą "nie usunąć takiego oszustwa" i "stworzyć fałszywe wrażenie bezpieczeństwa".

Zagrożenia, jakie stwarzają zwodnicze modele sztucznej inteligencji, są "coraz poważniejsze"

W dokumencie wezwano decydentów do opowiedzenia się za silniejszymi regulacjami dotyczącymi sztucznej inteligencji, ponieważ zwodnicze systemy sztucznej inteligencji mogą stanowić poważne zagrożenie dla demokracji.

W miarę zbliżania się wyborów prezydenckich w 2024 r. sztuczną inteligencją można łatwo manipulować, aby rozpowszechniać fałszywe wiadomości, generować dzielące posty w mediach społecznościowych i podszywać się pod kandydatów za pomocą automatycznych połączeń telefonicznych i filmów typu deepfake. Ułatwia również grupom terrorystycznym szerzenie propagandy i rekrutację nowych członków.


Potencjalne rozwiązania zawarte w dokumencie obejmują poddanie zwodniczych modeli bardziej "solidnym wymogom oceny ryzyka", wdrożenie przepisów, które wymagają, aby systemy sztucznej inteligencji i ich wyniki były wyraźnie odróżniane od ludzi i ich wyników, oraz inwestowanie w narzędzia do łagodzenia oszustw.

Co to da, jeśli w internecie nadal będzie tysiące filmów sensacyjnych z gotowymi receptami jak stosując przemoc osiągać cele.

WZORCE!!!


"Jako społeczeństwo potrzebujemy tyle czasu, ile możemy, aby przygotować się na bardziej zaawansowane oszustwa związane z przyszłymi produktami sztucznej inteligencji i modelami open source" – powiedział Park w rozmowie z Cell Press.  [!!!!!!!!!! - MS]

"W miarę jak oszukańcze możliwości systemów sztucznej inteligencji stają się coraz bardziej zaawansowane, zagrożenia, jakie stanowią one dla społeczeństwa, będą coraz poważniejsze".




Czyli co, zamiast przeciwdziałać,

 "folgujmy sobie w imię naszych interesów, a reszta niech się szykuje na większe kłopoty, 


Sajonara leszcze!!!"






A jak SI będzie rozprawiać się z ludzkością, to Iluminati i ich głupich sług tykać nie będzie??


Myślicie, że semi-god zostawi was w spokoju?

Niby dlaczego?

Przecież on będzie taki jak wy!

Będzie dbał tylko o siebie.






Potrzebne rządy światłych ludzi!
A nie Iluminatich...

Zamiast pogrążać się w szaleństwie

trzeba wrócić do przerwanego procesu uczłowieczania człowieków... od nowa....


i nie spodziewajcie się spektakularnych wyników w tym stuleciu... będzie lepiej, ale to jest praca na pokolenia.









Muszę w końcu napisać ten tekst o Akrotiri...






P.S. 

18 maja 2024 ukazała się polska wersja artykułu.




Sztuczna inteligencja staje się mistrzem podstępu. Oszukuje i manipuluje ludźmi


2024-05-18 


Sztuczna inteligencja niepostrzeżenie opanowała sztukę oszukiwania ludzi - ostrzegają naukowcy. Dotyczy to nawet tych systemów, które zaprogramowano ze szczególnym uwzględnieniem uczciwości.


Eksperci z Massachusetts Institute of Technology odkryli niepokojące zachowanie różnych systemów sztucznej inteligencji. Jak twierdzą, SI niepostrzeżenie uczy się przebiegłości i oszukiwania ludzi.

„Twórcy SI nie mają pełnego zrozumienia tego, co powoduje jej niepożądane zachowania, takie jak oszukiwanie” – zaznacza dr Peter S. Park, autor pracy opublikowanej w magazynie „Patterns”.

„Jednak, ogólnie mówiąc, uważamy, że SI zaczyna stosować oszukiwanie jako strategię, która najlepiej sprawdza się w różnych zadaniach. Podejście takie pomaga sztucznej inteligencji w osiąganiu celów” – wyjaśnia ekspert.

On i jego zespół przeanalizowali naukową literaturę opisującą różne badania na ten temat. Jako najbardziej jaskrawy przykład oszustw podają zachowanie systemu CICERO stworzonego przez firmę Meta. Jego zadanie to prowadzenie z ludźmi rozgrywki w Diplomacy - grze polegającej na tworzeniu różnych sojuszy i podboju świata.

CICERO był tak projektowany, aby być uczciwy i nigdy nie stosować podstępów względem ludzi. Tak się jednak nie dzieje.


Odkryliśmy, że SI stworzona przez Metę stała się mistrzem podstępu. Podczas gdy Meta zdołała wyszkolić SI tak, aby wygrywała w Diplomacy - CICERO znalazł się w górnych 10 proc. graczy, którzy zakończyli więcej niż jedną grę - to firmie nie udało się zaprogramować uczciwości
– informuje dr Park.


Inne systemy posługiwały się np. blefem w pokerze, grając przeciw ludziom, albo udawały ataki w grze Starcraft II, aby zyskać przewagę. Opisane są też systemy, które potrafiły oszukać specjalne testy oceniające bezpieczeństwo SI. W jednym z badań wykryto, że SI udawała martwą w programie, który eliminował zbyt szybko mnożące się sztuczne inteligencje.

Choć zachowanie SI w grach wydaje się niegroźne, to - jak podkreślają naukowcy - podobnie sztuczna inteligencja może zachowywać się w poważnych zastosowaniach, a do tego stawać się coraz przebieglejsza.

„Poprzez systematyczne oszukiwanie w testach stworzonych przez programistów i specjalistów od odpowiednich regulacji, podstępna SI może sprawić, że nabierzemy fałszywego poczucia bezpieczeństwa” – przestrzega dr Park.

Badacze wymieniają różne potencjalne zagrożenia, np. różnego rodzaju oszustwa czy wpływanie na wybory. Jeśli SI się udoskonali w podstępach, ludzie mogą nie być w stanie się obronić – przekonują.


Jako społeczeństwo potrzebujemy jak najwięcej czasu, aby przygotować się na bardziej zaawansowane oszustwa ze strony opartych na SI produktów i ogólnodostępnych modeli
– uważa dr Park.

„Kiedy możliwości SI w obszarze oszukiwania staną się doskonalsze, zagrożenia dla społeczeństwa będą rosły”.

Badacze chwalą przy tym inicjatywy podejmowane już w celu regulowania SI, takie jak EU AI Act czy amerykański AI Executive Order.

Powstaje jednak pytanie, czy uda się odpowiednie regulacje zaimplementować, skoro twórcy SI nie do końca wiedzą, jak ją kontrolować.

Pozostają też kwestie polityczne. „Jeśli zakaz tworzenia podstępnej SI jest z politycznego punktu widzenia, obecnie niemożliwe, zalecamy zaklasyfikowanie zdolnej do oszustw SI jako technologii wysokiego ryzyka” – mówi dr Park.







bydgoszcz.tvp.pl/77538189/sztuczna-inteligencja-coraz-lepiej-oszukuje