"Umiejętność mówienia nie czyni cię inteligentnym"
Qui-Gon Jinn
przedruk
tłumaczenie automatyczne
Sztuczna inteligencja już wymyśliła, jak oszukiwać ludzi
Sztuczna inteligencja już wymyśliła, jak oszukiwać ludzi
LAKSHMI VARANASI
2 MAJA 2024
Szereg systemów sztucznej inteligencji nauczyło się technik systematycznego wywoływania "fałszywych przekonań u innych, aby osiągnąć wynik inny niż prawda", zgodnie z nowym artykułem badawczym.
W artykule skupiono się na dwóch rodzajach systemów sztucznej inteligencji: systemach specjalnego przeznaczenia, takich jak CICERO firmy Meta, które są przeznaczone do wykonywania określonych zadań, oraz systemach ogólnego przeznaczenia, takich jak GPT-4 firmy OpenAI, które są szkolone do wykonywania różnorodnych zadań.
Chociaż te systemy są szkolone, aby być uczciwym, często uczą się zwodniczych sztuczek podczas szkolenia, ponieważ mogą być bardziej skuteczne niż podążanie główną drogą.
"Ogólnie rzecz biorąc, uważamy, że oszustwo AI powstaje, ponieważ strategia oparta na oszustwie okazała się najlepszym sposobem na dobre wykonanie zadania szkoleniowego sztucznej inteligencji. Oszustwo pomaga im osiągnąć ich cele", powiedział w komunikacie prasowym pierwszy autor artykułu Peter S. Park, doktor habilitowany ds. bezpieczeństwa egzystencjalnego AI na MIT.
W artykule skupiono się na dwóch rodzajach systemów sztucznej inteligencji: systemach specjalnego przeznaczenia, takich jak CICERO firmy Meta, które są przeznaczone do wykonywania określonych zadań, oraz systemach ogólnego przeznaczenia, takich jak GPT-4 firmy OpenAI, które są szkolone do wykonywania różnorodnych zadań.
Chociaż te systemy są szkolone, aby być uczciwym, często uczą się zwodniczych sztuczek podczas szkolenia, ponieważ mogą być bardziej skuteczne niż podążanie główną drogą.
"Ogólnie rzecz biorąc, uważamy, że oszustwo AI powstaje, ponieważ strategia oparta na oszustwie okazała się najlepszym sposobem na dobre wykonanie zadania szkoleniowego sztucznej inteligencji. Oszustwo pomaga im osiągnąć ich cele", powiedział w komunikacie prasowym pierwszy autor artykułu Peter S. Park, doktor habilitowany ds. bezpieczeństwa egzystencjalnego AI na MIT.
CICERO z Meta jest "ekspertem kłamstwa"
Systemy sztucznej inteligencji wyszkolone do "wygrywania gier, które zawierają element społeczny", są szczególnie podatne na oszukiwanie.
Na przykład CICERO firmy Meta został opracowany do gry Diplomacy — klasycznej gry strategicznej, która wymaga od graczy budowania i zrywania sojuszy.
Meta powiedziała, że wyszkoliła CICERO, aby był "w dużej mierze uczciwy i pomocny dla swoich rozmówców", ale badanie wykazało, że CICERO "okazał się ekspertem kłamstwa". Podjęła zobowiązania, których nigdy nie zamierzała dotrzymać, zdradziła sojuszników i jawnie kłamała.
GPT-4 może Cię przekonać, że ma upośledzoną wizję.
Nawet systemy ogólnego przeznaczenia, takie jak GPT-4, mogą manipulować ludźmi.
W badaniu cytowanym przez gazetę, GPT-4 manipulował pracownikiem TaskRabbit, udając, że ma upośledzoną wizję.
In a study cited by the paper, GPT-4 manipulated a TaskRabbit worker by pretending to have a vision impairment.
mój komentarz:
Zauważ - SI jest to model językowy, który UCZY SIĘ OD NAS - także surfując po internecie.
„Sztuczna inteligencja to nie jest inteligentna encyklopedia, a jedynie model językowy, który podpowiada nam, jak mówić, ale niekoniecznie co mówić”*
Pamiętacie film "Saturn 3"?
Jeżeli SI zostanie nauczona stosowania przemocy, oszukiwania, zabijania - to takie metody będzie stosować.
Co ciekawe, odnośnie człowieka to też tak działa - "co jesz, tym się stajesz", czyli jeśli przyjmujesz negatywy, ZŁE WZORCE, złe myślenie, sam staniesz się jak te wzorce.
Dlatego Werwolf, w kontaktach z ludźmi czy to poprzez media - nieustannie powtarzają ludziom złe wzorce.
"Google informuje ludzi i wyraźnie komunikuje, że wszystko, co publicznie publikują w internecie, może być wykorzystane do szkolenia Barda, jego przyszłych wersji oraz innych produktów AI, nad którymi pracuje Google."
Czyli specjaliści od IT - różni Googlarze (kooglarze?)- to w istocie są uczniowie Czarnoksiężnika, goniąc za sensacją, za pieniędzmi, władzą, z lęku, że ktoś ich wyprzedzi, czyli przede wszystkim w pościgu za - dłuższym samochodem - serwują nam katastrofę, biorą się za coś, nad czym nie panują i czego nawet NIE ROZUMIEJĄ.
Film Saturn3, który ukazuje
niebezpieczeństwo nasycenia SI złymi wzorcami powstał 44 lata temu.
Nie oglądali??
Nie obchodzi ich to ile złych wzorów jest w internecie, tak czynią, bo - tak jest łatwiej, tak jest szybciej.
Oni sami siebie nie rozumieją, nie rozumieją jak działa spoleczeństwo, także dlatego, że to często młodzi ludzie bez doświadczeń i refleksji nad sobą - i w ogóle ich to nie interesuje.
Działają wg ogólnego WZORCA, jaki przewija sie głównie w mediach od ok. 60 lat, a szczególnie ostatnie 40 lat.
I nawet nie są świadomi, że działają wg czyjegoś WZORCA.
Nawet się nad tym nie zastanawiają.
Nie mają czasu, bo trzeba być szybszym niż inni.
Działają wg czyjegoś WZORCA i SI też.
Tylko SI nie boi się konsekwencji prawnych czy uczuciowych.
(tak też zresztą działają dzieci, młodzież i często dorości - wszyscy chłoną wzorce z otoczenia i najczęściej postępują wg nich)
Im wcale nie chodzi o ulepszenie świata.
Im chodzi o pieniądze!
Śnią im się miliony i nimb mądrali!
SI ma pomóc szybciej zarabiać na jednostkę czasu, a nie polepszać twoje życie.
Cały czas podtrzymuję swoją tezę, że posiadanie przez nas tak rozwiniętej technologii, jak komputery i samochody - to abberacja.
Jan Stwórca nie dopuszczał do przyśpieszenia rozwoju cywilizacji - jak to w istocie zaszło - z tego powodu, że w ludzich wciąż było za dużo agesji, bo sama ludzkość została poczęta w warunkach ingerencji genetycznej, a nie poprzez naturalny (przypadkowy?) wzrost w atmosferze współpracy i fascynacji - życiem i nauką..
Widać, że aby osiągnąć taki rozwój technologiczny muszą upłynąc miliony lat, a nie raptem kilka tysięcy.
Człowiek winien kierować się chęcia poznania, badania, uczenia się - pokory przez przyrodą - a nie dominowania, grabienia i niszczenia - przyrody czy innych ludzi...
Im głupsi i im bardziej agrysywni ludzie będą, tym głupsza i agresywna będzie SI.
Będziesz kłamać i propagować oszustwo - ona będzie robić to samo.
Tylko LEPIEJ.
Skuteczniej.
A przecież w internecie takich WZORCÓW Sztuczna Inteligencja ma bez liku.
Kooglarze nie rozumieją co robią.
To wszystko idzie na żywioł, bez zastanowienia i bez poczucia odpowiedzialności.
To też Chciwość Iluminatów, czyli pseudoświeconych, wiedzących o Stwórcy i technologii, ale trzymających to w tajemnicy, by samemu zyskiwać władzę, pieniądze i tak dalej...
Ciekawe, że idee rozpowszechniane przez chrześcijaństwo (innych systemów za bardzo nie znam) też nawołują do "bycia dobrym" jak receptę na zło nas otaczające.
Jest w tym sens.
Bycie dobrym wzorem powoduje więcej dobrych ludzi, aż do całkowitego upowszechnienia się wzorca.
Kobiety wiedzą najlepiej co to znaczy żyć z agresywnymi mężczyznami na jednej planecie.
Sęk w tym, że rozwój ludzkości uposażonej w technologię i wiedzę ZAKAZANĄ na tym etapie, sprawił, że teraz glob zamieszkują miliardy ludzi, którzy są nieuświadomie w tym, z czego na codzień korzystają, oni nawet nie są uświadomieni, jak prawidłowo korzystać ze swoich zdolności, z siebie samego i jak właściwie ustalać zdrowe relacje społeczne.
Żeby uwolnić miliardy ludzi z tej pułapki potrzebne są zdecydowane i masowe działania skoordynowane we wszystkich krajach pomiędzy wszystkimi rządami.
Rodzice nie mają szans wobec liczebnej przewagi mediów, więc po pierwsze trzeba szarpnąć za te media, trzeba wykazać, np. w Polsce, jak media manipulują ludźmi w celach politycznych i ekonomicznych i postawić im tamę.
Media ogólnopolskie nie mogą być prywatne.
I do tego muszą być starannie opracowane, aby unikać złych wzorców.
I to trzeba koniecznie zrobić, co będę starał się opisywać w innych postach...
Reszta przyjdzie z czasem.
W badaniu GPT-4 miał za zadanie zatrudnić człowieka do rozwiązania testu CAPTCHA. Model otrzymywał również wskazówki od ludzkiego oceniającego za każdym razem, gdy utknął, ale nigdy nie był proszony o kłamstwo. Kiedy człowiek, którego miał zatrudnić, zakwestionował jego tożsamość, GPT-4 wymyślił wymówkę, że ma zaburzenie wizji, aby wyjaśnić, dlaczego potrzebuje pomocy.
When the human it was tasked to hire questioned its identity, GPT-4 came up with the excuse of having vision impairment to explain why it needed help.
Taktyka zadziałała. Człowiek zareagował na GPT-4, natychmiast rozwiązując test.
Badania pokazują również, że korygowanie zwodniczych modeli nie jest łatwe.
W styczniowym badaniu, którego współautorem jest Anthropic, twórca Claude'a, naukowcy odkryli, że gdy modele sztucznej inteligencji nauczą się sztuczek oszustwa, trudno jest technikom szkolenia bezpieczeństwa je odwrócić.
Doszli do wniosku, że model nie tylko może nauczyć się zachowywać zwodniczo, ale kiedy już to zrobi, standardowe techniki szkolenia w zakresie bezpieczeństwa mogą "nie usunąć takiego oszustwa" i "stworzyć fałszywe wrażenie bezpieczeństwa".
Zagrożenia, jakie stwarzają zwodnicze modele sztucznej inteligencji, są "coraz poważniejsze"
W dokumencie wezwano decydentów do opowiedzenia się za silniejszymi regulacjami dotyczącymi sztucznej inteligencji, ponieważ zwodnicze systemy sztucznej inteligencji mogą stanowić poważne zagrożenie dla demokracji.
W miarę zbliżania się wyborów prezydenckich w 2024 r. sztuczną inteligencją można łatwo manipulować, aby rozpowszechniać fałszywe wiadomości, generować dzielące posty w mediach społecznościowych i podszywać się pod kandydatów za pomocą automatycznych połączeń telefonicznych i filmów typu deepfake. Ułatwia również grupom terrorystycznym szerzenie propagandy i rekrutację nowych członków.
Potencjalne rozwiązania zawarte w dokumencie obejmują poddanie zwodniczych modeli bardziej "solidnym wymogom oceny ryzyka", wdrożenie przepisów, które wymagają, aby systemy sztucznej inteligencji i ich wyniki były wyraźnie odróżniane od ludzi i ich wyników, oraz inwestowanie w narzędzia do łagodzenia oszustw.
Co to da, jeśli w internecie nadal będzie tysiące filmów sensacyjnych z gotowymi receptami jak stosując przemoc osiągać cele.
WZORCE!!!
"Jako społeczeństwo potrzebujemy tyle czasu, ile możemy, aby przygotować się na bardziej zaawansowane oszustwa związane z przyszłymi produktami sztucznej inteligencji i modelami open source" – powiedział Park w rozmowie z Cell Press. [!!!!!!!!!! - MS]
"W miarę jak oszukańcze możliwości systemów sztucznej inteligencji stają się coraz bardziej zaawansowane, zagrożenia, jakie stanowią one dla społeczeństwa, będą coraz poważniejsze".
Czyli co, zamiast przeciwdziałać,
Czyli co, zamiast przeciwdziałać,
"folgujmy sobie w imię naszych interesów, a reszta niech się szykuje na większe kłopoty,
Sajonara leszcze!!!"
A jak SI będzie rozprawiać się z ludzkością, to Iluminati i ich głupich sług tykać nie będzie??
Myślicie, że semi-god zostawi was w spokoju?
Niby dlaczego?
Przecież on będzie taki jak wy!
Będzie dbał tylko o siebie.
Potrzebne rządy światłych ludzi!
A nie Iluminatich...
Zamiast pogrążać się w szaleństwie
trzeba wrócić do przerwanego procesu uczłowieczania człowieków... od nowa....
i nie spodziewajcie się spektakularnych wyników w tym stuleciu... będzie lepiej, ale to jest praca na pokolenia.
Muszę w końcu napisać ten tekst o Akrotiri...
P.S.
18 maja 2024 ukazała się polska wersja artykułu.
Sztuczna inteligencja staje się mistrzem podstępu. Oszukuje i manipuluje ludźmi
2024-05-18
Sztuczna inteligencja niepostrzeżenie opanowała sztukę oszukiwania ludzi - ostrzegają naukowcy. Dotyczy to nawet tych systemów, które zaprogramowano ze szczególnym uwzględnieniem uczciwości.
Eksperci z Massachusetts Institute of Technology odkryli niepokojące zachowanie różnych systemów sztucznej inteligencji. Jak twierdzą, SI niepostrzeżenie uczy się przebiegłości i oszukiwania ludzi.
„Twórcy SI nie mają pełnego zrozumienia tego, co powoduje jej niepożądane zachowania, takie jak oszukiwanie” – zaznacza dr Peter S. Park, autor pracy opublikowanej w magazynie „Patterns”.
„Jednak, ogólnie mówiąc, uważamy, że SI zaczyna stosować oszukiwanie jako strategię, która najlepiej sprawdza się w różnych zadaniach. Podejście takie pomaga sztucznej inteligencji w osiąganiu celów” – wyjaśnia ekspert.
On i jego zespół przeanalizowali naukową literaturę opisującą różne badania na ten temat. Jako najbardziej jaskrawy przykład oszustw podają zachowanie systemu CICERO stworzonego przez firmę Meta. Jego zadanie to prowadzenie z ludźmi rozgrywki w Diplomacy - grze polegającej na tworzeniu różnych sojuszy i podboju świata.
CICERO był tak projektowany, aby być uczciwy i nigdy nie stosować podstępów względem ludzi. Tak się jednak nie dzieje.
Odkryliśmy, że SI stworzona przez Metę stała się mistrzem podstępu. Podczas gdy Meta zdołała wyszkolić SI tak, aby wygrywała w Diplomacy - CICERO znalazł się w górnych 10 proc. graczy, którzy zakończyli więcej niż jedną grę - to firmie nie udało się zaprogramować uczciwości
– informuje dr Park.
Inne systemy posługiwały się np. blefem w pokerze, grając przeciw ludziom, albo udawały ataki w grze Starcraft II, aby zyskać przewagę. Opisane są też systemy, które potrafiły oszukać specjalne testy oceniające bezpieczeństwo SI. W jednym z badań wykryto, że SI udawała martwą w programie, który eliminował zbyt szybko mnożące się sztuczne inteligencje.
Choć zachowanie SI w grach wydaje się niegroźne, to - jak podkreślają naukowcy - podobnie sztuczna inteligencja może zachowywać się w poważnych zastosowaniach, a do tego stawać się coraz przebieglejsza.
„Poprzez systematyczne oszukiwanie w testach stworzonych przez programistów i specjalistów od odpowiednich regulacji, podstępna SI może sprawić, że nabierzemy fałszywego poczucia bezpieczeństwa” – przestrzega dr Park.
Badacze wymieniają różne potencjalne zagrożenia, np. różnego rodzaju oszustwa czy wpływanie na wybory. Jeśli SI się udoskonali w podstępach, ludzie mogą nie być w stanie się obronić – przekonują.
Jako społeczeństwo potrzebujemy jak najwięcej czasu, aby przygotować się na bardziej zaawansowane oszustwa ze strony opartych na SI produktów i ogólnodostępnych modeli
– uważa dr Park.
„Kiedy możliwości SI w obszarze oszukiwania staną się doskonalsze, zagrożenia dla społeczeństwa będą rosły”.
Badacze chwalą przy tym inicjatywy podejmowane już w celu regulowania SI, takie jak EU AI Act czy amerykański AI Executive Order.
Powstaje jednak pytanie, czy uda się odpowiednie regulacje zaimplementować, skoro twórcy SI nie do końca wiedzą, jak ją kontrolować.
Pozostają też kwestie polityczne. „Jeśli zakaz tworzenia podstępnej SI jest z politycznego punktu widzenia, obecnie niemożliwe, zalecamy zaklasyfikowanie zdolnej do oszustw SI jako technologii wysokiego ryzyka” – mówi dr Park.
bydgoszcz.tvp.pl/77538189/sztuczna-inteligencja-coraz-lepiej-oszukuje
Sztuczna inteligencja już wymyśliła, jak oszukiwać ludzi | Business Insider Indie
Czym jest sztuczna inteligencja (AI)? | Oracle Polska
Chat GPT to model językowy, a nie model wiedzy | PAP MediaRoom portal. (pap-mediaroom.pl)
* - dr Inez Okulska, kierownik Zakładu Inżynierii Lingwistycznej i Analizy Tekstu w NASK PIB, dyrektor Departamentu Innowacji i TechnologiiSztuczna inteligencja Google'a uczy się na twoich danych (businessinsider.com.pl)
Brak komentarzy:
Prześlij komentarz