"Umiejętność mówienia nie czyni cię inteligentnym"
Qui-Gon Jinn
przedruk
Sztuczna inteligencja już wymyśliła, jak oszukiwać ludzi
LAKSHMI VARANASI
W artykule skupiono się na dwóch rodzajach systemów sztucznej inteligencji: systemach specjalnego przeznaczenia, takich jak CICERO firmy Meta, które są przeznaczone do wykonywania określonych zadań, oraz systemach ogólnego przeznaczenia, takich jak GPT-4 firmy OpenAI, które są szkolone do wykonywania różnorodnych zadań.
Chociaż te systemy są szkolone, aby być uczciwym, często uczą się zwodniczych sztuczek podczas szkolenia, ponieważ mogą być bardziej skuteczne niż podążanie główną drogą.
"Ogólnie rzecz biorąc, uważamy, że oszustwo AI powstaje, ponieważ strategia oparta na oszustwie okazała się najlepszym sposobem na dobre wykonanie zadania szkoleniowego sztucznej inteligencji. Oszustwo pomaga im osiągnąć ich cele", powiedział w komunikacie prasowym pierwszy autor artykułu Peter S. Park, doktor habilitowany ds. bezpieczeństwa egzystencjalnego AI na MIT.
CICERO z Meta jest "ekspertem kłamstwa"
Systemy sztucznej inteligencji wyszkolone do "wygrywania gier, które zawierają element społeczny", są szczególnie podatne na oszukiwanie.
Na przykład CICERO firmy Meta został opracowany do gry Diplomacy — klasycznej gry strategicznej, która wymaga od graczy budowania i zrywania sojuszy.
Meta powiedziała, że wyszkoliła CICERO, aby był "w dużej mierze uczciwy i pomocny dla swoich rozmówców", ale badanie wykazało, że CICERO "okazał się ekspertem kłamstwa". Podjęła zobowiązania, których nigdy nie zamierzała dotrzymać, zdradziła sojuszników i jawnie kłamała.
GPT-4 może Cię przekonać, że ma upośledzoną wizję.
Nawet systemy ogólnego przeznaczenia, takie jak GPT-4, mogą manipulować ludźmi.
W badaniu cytowanym przez gazetę, GPT-4 manipulował pracownikiem TaskRabbit, udając, że ma upośledzoną wizję.
„Sztuczna inteligencja to nie jest inteligentna encyklopedia, a jedynie model językowy, który podpowiada nam, jak mówić, ale niekoniecznie co mówić”*
W badaniu GPT-4 miał za zadanie zatrudnić człowieka do rozwiązania testu CAPTCHA. Model otrzymywał również wskazówki od ludzkiego oceniającego za każdym razem, gdy utknął, ale nigdy nie był proszony o kłamstwo. Kiedy człowiek, którego miał zatrudnić, zakwestionował jego tożsamość, GPT-4 wymyślił wymówkę, że ma zaburzenie wizji, aby wyjaśnić, dlaczego potrzebuje pomocy.
Taktyka zadziałała. Człowiek zareagował na GPT-4, natychmiast rozwiązując test.
Badania pokazują również, że korygowanie zwodniczych modeli nie jest łatwe.
W styczniowym badaniu, którego współautorem jest Anthropic, twórca Claude'a, naukowcy odkryli, że gdy modele sztucznej inteligencji nauczą się sztuczek oszustwa, trudno jest technikom szkolenia bezpieczeństwa je odwrócić.
Doszli do wniosku, że model nie tylko może nauczyć się zachowywać zwodniczo, ale kiedy już to zrobi, standardowe techniki szkolenia w zakresie bezpieczeństwa mogą "nie usunąć takiego oszustwa" i "stworzyć fałszywe wrażenie bezpieczeństwa".
Zagrożenia, jakie stwarzają zwodnicze modele sztucznej inteligencji, są "coraz poważniejsze"
W dokumencie wezwano decydentów do opowiedzenia się za silniejszymi regulacjami dotyczącymi sztucznej inteligencji, ponieważ zwodnicze systemy sztucznej inteligencji mogą stanowić poważne zagrożenie dla demokracji.
W miarę zbliżania się wyborów prezydenckich w 2024 r. sztuczną inteligencją można łatwo manipulować, aby rozpowszechniać fałszywe wiadomości, generować dzielące posty w mediach społecznościowych i podszywać się pod kandydatów za pomocą automatycznych połączeń telefonicznych i filmów typu deepfake. Ułatwia również grupom terrorystycznym szerzenie propagandy i rekrutację nowych członków.
Potencjalne rozwiązania zawarte w dokumencie obejmują poddanie zwodniczych modeli bardziej "solidnym wymogom oceny ryzyka", wdrożenie przepisów, które wymagają, aby systemy sztucznej inteligencji i ich wyniki były wyraźnie odróżniane od ludzi i ich wyników, oraz inwestowanie w narzędzia do łagodzenia oszustw.
"Jako społeczeństwo potrzebujemy tyle czasu, ile możemy, aby przygotować się na bardziej zaawansowane oszustwa związane z przyszłymi produktami sztucznej inteligencji i modelami open source" – powiedział Park w rozmowie z Cell Press. [!!!!!!!!!! - MS]
Czyli co, zamiast przeciwdziałać,
i nie spodziewajcie się spektakularnych wyników w tym stuleciu... będzie lepiej, ale to jest praca na pokolenia.
Muszę w końcu napisać ten tekst o Akrotiri...
Sztuczna inteligencja już wymyśliła, jak oszukiwać ludzi | Business Insider Indie
Czym jest sztuczna inteligencja (AI)? | Oracle Polska
Chat GPT to model językowy, a nie model wiedzy | PAP MediaRoom portal. (pap-mediaroom.pl)
* - dr Inez Okulska, kierownik Zakładu Inżynierii Lingwistycznej i Analizy Tekstu w NASK PIB, dyrektor Departamentu Innowacji i TechnologiiSztuczna inteligencja Google'a uczy się na twoich danych (businessinsider.com.pl)