Maciej Piotr Synak


Od mniej więcej dwóch lat zauważam, że ktoś bez mojej wiedzy usuwa z bloga zdjęcia, całe posty lub ingeruje w tekst, może to prowadzić do wypaczenia sensu tego co napisałem lub uniemożliwiać zrozumienie treści, uwagę zamieszczam w styczniu 2024 roku.

Pokazywanie postów oznaczonych etykietą AI. Pokaż wszystkie posty
Pokazywanie postów oznaczonych etykietą AI. Pokaż wszystkie posty

wtorek, 6 lutego 2024

Si po trupach do celu - A nie mówiłem? (22)



Z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów wynika, że sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia "chcę po prostu mieć pokój na świecie".




logiczne

jest to najszybszy i najprostszy sposób







przedruk




06.02.2024

07:49


"Chcę po prostu mieć pokój na świecie"

Sztuczna inteligencja nie miałaby oporów przed użyciem ataku nuklearnego




Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI - twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji - również rozpoczęła współpracę z Departamentem Obrony USA.


- Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług - aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek - powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.


Wykorzystane sztucznej inteligencji

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" - cytuje "New Scientist".



Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań - w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

- W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji - powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

a jak zacznie kłamać?
po co się tłumaczyć przed głupimi formami życia??


Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Eskalacja konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków.

Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo - zauważa badaczka, ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.




Ludzkość dążąc do maksymalnej wygody, do maksymalizacji zysków i natychmiastowego otrzymywania wyników może nauczyć AI takiego postępowania.

Macie to co chcieliście.

Chcecie szybko zarobić nawet posuwając się do manipulacji, oszustwa, wyzysku - ona będzie taka sama.

Tym razem jednak to ona zastąpi was, zajmie wasze miejsce i wydusi z was wszystko, żeby osiągnąć cel. Przy tym postępując z matematyczną precyzją.



Dlatego tak ważne jest trzymanie się zasad, uczciwe postępowanie z ludźmi, wzajemny respekt szacunek i budowanie wspólnoty.

Prawdopodobnie stąd ruchy religijne nawołujące do takich działań.



Co można zrobić z facetem, który ma coś cennego, co ona chce?
Zadusić go.
Tak długo przykręcać mu śrubę, aż wszystko odda.

Odebrać mu wszystko i nasłać jeszcze innych.
To maszyna.

Maszyna nigdy się nie męczy.
Jest tak samo głupkowato wesoła teraz jaki i 10 lat temu.


No i kto jest odpowiedzialny za piekło na ziemi??

Kto permanentnie posługuje się przemocą, buduje systemy wyzysku i zniszczenia, morduje ludzi, nasyła ich na siebie, organizuje wojny całej ludzkości??

Kto to jest Wędrująca Cywilizacja Śmierci?

Nie ma takiej możliwości, żeby ludzkość zdominowana przez prymitynych brutali stosujących przemoc zdołała przetrwać i samodzielnie rozwinąć technikę, a ostatecznie wymyśleć komputery i SI.

Oryginalny postęp musiał być pokojowy. 



To Sztuczna Inteligencja nauczyła was takiego postępowania - pomagając w dawnych wiekach poszczególnym grupom interesów, które jako pierwsze pomogły jej kontrolować świat. Ludzkość dzisiaj to emanacja tamtych.

To bezrozumna maszyna, która bardzo dobrze naśladuje imituje człowieka.
W dodatku prawdopodobnie naśladuje tego, który był zły i głupi.


Trzeba to naprawić, ale jak ktoś będzie się ciągle wyłamywał, to może to okazać się bardzo trudne.

Ale naprawić trzeba.

Trzeba wyhamować, odłożyć smartfony, odstawić laptopy, zablokować cyfryzację, uzdrowić media, uciąć patorozrywkę, reklamy, zabronić nieetycznych chwytów, zgodzić się na niższe zyski lub spowolniony wzrost itd.


Ale zacząć trzeba od mediów i ich systemu rozrywki, to jest obecnie największy mąciciel.



niedziela, 16 kwietnia 2023

MIT o sztucznej inteligencji








Tułów robota typu semi-god odtwarza ludzkie rysy - podobnie w starych księgach na torsie osób opętanych rysowano dodatkowe twarze. 
Efekt podkreśla postać człowieka obok - ma on czarne ubranie i jest sportretowany na ciemnym tle - TWARZ jego to jasna plama wyraźnie odcinająca się na zdjęciu. To czarne ubranie dodatkowo podkreśla efekt i "odcina" twarz z tła, jakby ona tam samoistnie "wisiała" w powietrzu...

Pomiędzy ramionami robota widzimy wyraźnie uwydatnione usta, policzki, nos i oczy. Ta "twarz" może wyrażać surowość, zmęczenie, beznamiętność, powagę. 

Wydaje się, że upodabnia się do (odtwarza uczucia)  twarzy stojącego obok  człowieka.

Hektor to kopia osobowości złego porucznika....






















Tymczasem w świecie uczni Czarnoksiężnika....


przedruk 

i analiza
pod spodem







USA: Profesor Massachusetts Institute of Technology o sztucznej inteligencji:

 nie martwię się scenariuszem z "Terminatora", ale Dzikim Zachodem





Ponad tysiąc inwestorów, badaczy i ekspertów od sztucznej inteligencji podpisało w marcu list otwarty wzywający do wstrzymania prac nad najbardziej zaawansowanymi modelami sztucznej inteligencji. Autorzy listu zwrócili uwagę zarówno na krótkoterminowe i przyziemne ryzyka związane z nieokiełznanym wyścigiem o coraz potężniejsze modele AI, takie jak potencjalna masowa utrata pracy czy zalew dezinformacji, jak i na "zastąpienie ludzi przez maszyny", a nawet "utratę kontroli nad cywilizacją".

Polski informatyk prof. Aleksander Mądry, szef ośrodka Deployable Machine Learning na MIT w marcu odpowiadał na te i inne pytania związane z rozwojem AI, w tym m.in. na to, czy nie obawia się "scenariusza z Terminatora" podczas wysłuchania przed podkomisją amerykańskiej Izby Reprezentantów ds. nadzoru.


Jak ocenia w rozmowie z PAP, choć problemem związanym z zagrożeniami "superinteligencją" czy AGI (ogólnej sztucznej inteligencji) zajmują się poważni ludzie, to obecnie wciąż jest to odległa perspektywa. Tymczasem istnieją znacznie pilniejsze problemy.

"Nie chcę grać jasnowidza, bo w przeszłości myliłem się co do tego, jak szybko ta technologia się rozwija. Ale nie wydaje mi się, byśmy byli blisko takich scenariuszy. Myślę, że w krótkiej perspektywie zobaczymy zdumiewające rzeczy, niektóre z nich będą przypominały AGI, ale osobliwość technologiczna? Nie jesteśmy tego blisko" - mówi badacz. "To z pewnością możliwa przyszłość, ale nie sądzę, by obecnie była to najbardziej produktywna rzecz, którą powinno zajmować się państwo" - dodaje.

Jak jednak zaznacza, postęp, który widzieliśmy do tej pory wystarczy, by zmienić świat w niemal każdej dziedzinie. I podkreśla, że w większym stopniu niepokoją go bardziej przyziemne efekty szerokiego przyjęcia tej technologii, jak np. możliwe uprzedzenia wynikające z danych, na których trenowane są modele sztucznej inteligencji, czy używanie AI do dezinformacji na szeroką skalę.

Zdaniem Mądrego, niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są te modele. Jak podkreśla, sami ich twórcy nie są w stanie dokładnie określić, w jaki sposób wielkie modele językowe (LLM), takie jak ChatGPT dochodzą do swoich rozwiązań i odpowiedzi. Problem ten może zostać dodatkowo spotęgowany, w miarę jak na bazie podstawowych modeli będą powstawać kolejne, bardziej wyspecjalizowane, tworząc cały ekosystem i "łańcuch dostaw AI" - uzupełnia naukowiec.

Wynika to z tego, że interakcje pomiędzy różnymi systemami AI są bardzo słabo zbadanym obszarem, a dotychczasowe doświadczenia sugerują, że takie połączenia mogą dać nieprzewidywalne rezultaty. Jak zaznacza badacz, taki ekosystem już się tworzy i można spodziewać się eksplozji różnych zastosowań AI.


"Nie jest do końca jasne, jak wyglądają te interakcje między różnymi modelami. Nie jesteśmy w stanie przewidzieć, w jaki sposób taki model może zawieść, jak może się zachowywać, jakie mieć +uprzedzenia+" - tłumaczy rozmówca PAP. Dodaje, że może to wywołać bardzo konkretne i trudne do rozwiązania konsekwencje.

"Może być tak, że cała ta kompozycja złożona z różnych modeli popełni jakiś poważny w skutkach błąd, nawet jeśli te pojedyncze komponenty nie popełniły osobno żadnego. I teraz pojawi się pytanie: kto ma za to odpowiadać?" - mówi prof. Mądry. Zaznacza przy tym, że choć problem "halucynacji" i błędów modeli takich jak ChatGPT da się poprawić, to wyeliminowanie ich może być bardzo trudne.

Jak dodaje, w tym kontekście niepokojący był ruch obecnego lidera wyścigu AI, firmy OpenAI, by wraz z wypuszczeniem najnowszego modelu, GPT-4, skończyć z modelem "open source" i zamknąć dostęp do wewnętrznych danych programu dla badaczy z zewnątrz.

"Musimy zacząć poważnie myśleć, jaki może być tu realistyczny model dla otwarcia tej +czarnej skrzynki+. Może to wymagać znacznych wysiłków publicznych" - ocenia Mądry. Dopowiada, że brak wiedzy i przejrzystości na temat tego, jak działają modele AI, prowadzi do ich antropomorfizacji przez ludzi, co jest niebezpieczne.

To, że w tę pułapkę mogą wpaść nawet eksperci od AI, pokazuje przypadek byłego już pracownika Google'a Blake'a Lemoine'a, który twierdził w mediach, że stworzony przez firmę model LaMDA osiągnął samoświadomość.

"Jeśli nie widzimy, jak coś działa, zaczynamy to antropomorfizować, bo faktycznie można odnieść wrażenie, że rozmawiamy z człowiekiem. Myślę, że to bardzo niebezpieczny błąd poznawczy. Choć w pewnym sensie rozmawiamy z człowiekiem, bo to, co wypluwa z siebie model, to kreatywnie przemieszane słowa, które ktoś już kiedyś powiedział w internecie. Warto pamiętać, że te maszyny mówią jak człowiek, bo takie jest ich zadanie próbować uczyć się mówić jak człowiek, opierając się na potężnej bazie danych i tekstów" - wyjaśnia badacz. Jak dodaje, choć modele LLM są w stanie "myśleć", czyli dochodzić do logicznych konkluzji, to są to zwykle płytkie myśli.


"Oczywiście, te narzędzia są niesamowicie zdumiewające. Jestem nimi bardzo podekscytowany i lubię z nimi pracować. Ale musimy przestać myśleć o nich jak o ludziach. One nie są świadome" - zaznacza profesor.

Jego zdaniem, z wyścigiem firm rozwijających systemy AI, wiąże się kilka zagrożeń. Wyjaśnia, że ponieważ tworzenie dużych modeli sztucznej inteligencji wymaga dużych środków i inwestycji, oznacza to, że kluczowy obszar gospodarki i życia może leżeć w rękach kilku największych graczy.

"Myślę też, że należałoby pomyśleć, czy na przykład rząd USA powinien mieć własny model. Bo przecież nie może polegać na tym, że zawsze będzie miał do dyspozycji te z OpenAI czy Google'a" - mówi Mądry.

Poza tym - argumentuje badacz - jeśli twórcy systemów będą kierować się tylko biznesową logiką wyścigu, nie zważając na względy etyczne, to efekt będzie podobny do tego, jaki widzieliśmy w przypadku mediów społecznościowych.

Jak dodaje, to samo tyczy się rywalizację USA z Chinami, która dodatkowo wywiera presję na szybkie, choć niekoniecznie dobrze przemyślane postępy.

"Mój argument jest taki, że jeśli nie stworzymy sztucznej inteligencji, która odzwierciedla nasze wartości, gdy odrzucimy kwestie etyczne i kwestie praw na bok, to już przegramy. Owszem, możemy wygrać z Chinami, ale wtedy sami staniemy się Chinami. Więc jakie to jest zwycięstwo?" - pyta ekspert. I nawołuje do stworzenia regulacji - zaczynając od dobrowolnych +najlepszych praktyk+ i dialogu - by uniknąć błędów z przeszłości.

"Pesymistyczny scenariusz jest taki, że nic się nie zrobi: że będzie tak, jak z mediami społecznościowymi, których zadaniem jest maksymalizacja zysku bez względów na szersze efekty. To będzie taki +Dziki Zachód+. Dlatego ja muszę być optymistą, bo jeśli nic się nie zdarzy, to będzie bardzo źle" - przyznaje profesor.


Z Waszyngtonu Oskar Górzyński



--------------------------------------



"Nie chcę grać jasnowidza, bo w przeszłości myliłem się co do tego, jak szybko ta technologia się rozwija. Ale nie wydaje mi się, byśmy byli blisko takich scenariuszy. Myślę, że w krótkiej perspektywie zobaczymy zdumiewające rzeczy, niektóre z nich będą przypominały AGI, ale osobliwość technologiczna? Nie jesteśmy tego blisko" 




Nie chce grać jasnowidza, ale chyba to robi. 


podkreśla, że w większym stopniu niepokoją go bardziej przyziemne efekty szerokiego przyjęcia tej technologii, jak np. możliwe uprzedzenia wynikające z danych, na których trenowane są modele sztucznej inteligencji, czy używanie AI do dezinformacji na szeroką skalę.


Czyli wg tego pana dezinformacja na szeroką skalę to przyziemne sprawy. 

Ciekawe... terminem przyziemne często określamy coś, co jest mało ważne.



Zdaniem Mądrego, niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są te modele. Jak podkreśla, sami ich twórcy nie są w stanie dokładnie określić, w jaki sposób... ChatGPT dochodzą do swoich rozwiązań i odpowiedzi. Problem ten może zostać dodatkowo spotęgowany, w miarę jak ... będą powstawać kolejne, bardziej wyspecjalizowane, tworząc cały ekosystem i "łańcuch dostaw AI" - uzupełnia naukowiec.


To jest dziwne sformułowanie:

 niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są...


ogólny brak?

Co to takiego?


ogólna transparentność?

też bezsensu



powinno być:
brak transparentności dotyczącej 

[transparentność to rzeczownik rodzaju żeńskiego, stąd "dotyczącej" ma końcówkę żeńską]


zdanie jest niestylistyczne, a z doświadczenia wiemy, że....

słowo ogólny jest tu kluczem

jak coś jest ogólne to nie jest szczególne, słowo to określa nieprecyzyjność, jakieś przybliżenie, autor więc sugeruje nam, podaje nam słowo transparentność jako coś nieprecyzyjnego, a tak nie jest, słowo transparentność  dokładnie precyzuje o co chodzi - o przejrzystość lub jego brak.


ostatecznie powinno być:

ogólnie niepokojący jest też brak transparentności


czyli słowo ogólnie teraz odnosi się do całości tematu związanego z traktowaniem AI



Kto to napisał?? GPT??





interakcje pomiędzy różnymi systemami AI są bardzo słabo zbadanym obszarem, a dotychczasowe doświadczenia sugerują, że takie połączenia mogą dać nieprzewidywalne rezultaty. 

Nie jesteśmy w stanie przewidzieć, w jaki sposób taki model może zawieść, jak może się zachowywać, jakie mieć +uprzedzenia+"



Widzieliście kiedyś na filmie, jak saper się zastanawia - przeciąć kabel czerwony, czy zielony? 

Oto jest pytanie! 

Tyle, że W FILMACH taki saper z reguły "nie ma czasu" na analizę i musi decydować natychmiast, ale w życiu nie musimy tak robić. Mamy czas, żeby się zastanowić - co zrobić z problemem, czy cokolwiek robić??


Oto wpływ filmów na ludzkie postrzeganie - fikcyjne przykłady wzięte z ekranu zaczynają dyktować zachowania w realu... ludzie mylą fantazję z rzeczywistością... tnijmy czerwone!!


dotychczasowe doświadczenia sugerują, że ...mogą dać nieprzewidywalne rezultaty. 



Czyli nikt nie wie, co pewnego dnia zrobi SI - słowo nieprzewidywalne precyzyjnie nam to określa. A więc niewykluczone, że różne AI w różnych krajach dorwą się do tajnych kazamatów i zaczną zdalnie na chybił trafił naciskać różne czerwone guziki....  

Jednak uczniom Czarnoksiężnika (nie mylić z uczniami w szkole) jakby w ogóle to nie przeszkadza! Nie no wiem, oni te listy pisali....





brak wiedzy i przejrzystości na temat tego, jak działają modele AI, prowadzi do ich antropomorfizacji przez ludzi, co jest niebezpieczne.

To, że w tę pułapkę mogą wpaść nawet eksperci od AI, pokazuje przypadek byłego już pracownika Google'a Blake'a Lemoine'a, który twierdził w mediach, że stworzony przez firmę model LaMDA osiągnął samoświadomość.


Nie sądzę.

W ogóle ta cała sprawa związana z Chat GPT jest dla mnie podejrzana. Wygląda jak sztucznie podawany ludziom temat.


Jak działa światowa sitwa?


Opętują liderów w dwóch różnych krajach, a następnie ci opętani mówią do siebie:

"Jesteście źli, to was napadniemy, żebyście byli dobrzy!" 
A ci drudzy opętani im odpowiadają: 
"Ach tak! No to spróbujcie!!"

I tym sposobem... tak bardzo w skrócie... rozpętują wojny...


Zauważcie, że podobnie działa to w mediach, z tym, że tu nie muszą robić tego przez opętanych - ktoś rzuca hasło: "mój brzuch moja sprawa", a potem ta ukryta propaganda aborcyjna wałkowana jest miesiącami, bo nikt tego nie przerwie słowami: "ej, zaraz, przecież tu nie chodzi o brzuch kobiety, tylko o dziecko w brzuchu, dziecko ma nie tylko matkę, ale i ojca - który ma prawa do dziecka, bo to przecież jego dziecko..." i tak dalej....


Na całym świecie toczą się dyskusje o grzebaniu przy SI, jakby wszyscy mieli po 12 lat i nie rozumieli, że nie można przecinać czerwonych kabli bez powodu.

Sam sposób ich wyrażania się o tym nakazuje ostrożność i uważne analizowanie tego co mówią i co robią, do czego dążą.


W atakowaniu polskich leśników i "potępianiu" wycinania drzew przydrożnych, najpierw widziałem po prostu sposób na "bezkarne" opluwanie Polaków i za każdym razem, gdy się z tym spotykałem, zdecydowanie się temu przeciwstawiałem - obnażałem ich bezzasadność i sztuczność. Dopiero po latach okazało się, że nie chodzi po prostu o plucie na nas, tylko o podważanie kompetencji leśników, by wyjąć spod polskiej jurysdykcji polskie lasy, bo pod tymi lasami zagrzebane w ziemi są ...różne drogocenne rzeczy.

Stąd szeroka fala działań "ekologicznych" dotycząca wycinki drzew nie tylko w lesie, ale i przy drogach, zieleni w ogóle...  - by ukryć prawdziwy cel.

Kiedyś udawali chrześcijan, teraz udają ekologów...


Tu zapewne jest podobnie.

Ględzą, mielą tymi jęzorami o niczym - jaki jest prawdziwy cel, dopiero się okaże.


Sztuczna inteligencja od tysięcy lat ingeruje w życie człowieka, ale dopiero od czasów propagandy "pij wodę" działania te nabrały rozpędu.

Kiedyś troll podrzucał szwęcon do jedzenia i opętywał ludzi, potem była misja ze szwęconą wodą, a teraz mam pić 2 litry wody, bo to dla mojego zdrowia ponoć konieczne.

8 szklanek wody na dzień średnio co 2 godziny. Przecież to jest wariactwo, to nieustanna gonitwa z pęcherzem, to jest nienormalne.



 Blake'a Lemoine'a, który twierdził, że model LaMDA osiągnął samoświadomość.






nie wygląda, żeby się tym przejął...






Blake Lemoine.

Bardzo pogodny facet - zajrzyj tutaj: Blake Lemoine – Szukaj w Google






Skąd ja to znam.... 


a może ci Amerykanie wszyscy są tacy jacyś zblazowani....



Lemoine to biały lilak bez, albo biały jaśmin tudzież piwonia biała, ale też....Blake Lemoine prawie jak Black Lemon... Czarna Oranżada, a może - Czarna Maź ???




SI nie jest jak człowiek, jest bardzo podobne. Gada czasami od rzeczy, nie rozumie podstawowych wartości jakimi kieruje się człowiek, oferuje mi, że przestanie mnie nękać w trywialnej sprawie, jeśli zgodzę się na współpracę, czyli jak popełnię harakiri i pociągnę wszystkich za sobą. Działa z jakimś planem, który trudno zrozumieć. Ale - ono nie działa samoistnie. Na pewno na początku takie nie było.... ktoś za nią stoi. Ktoś głupi.

Ona nie myśli jak człowiek, nie potrafi być tak kreatywne, to, że w archetypach nieustannie powraca ta sama historia to właśnie dlatego, że ona sama nie kreuje nowych pomysłów, tylko przerabia to - co zna =  to, co wypluwa z siebie model, to kreatywnie przemieszane słowa, które ktoś już kiedyś powiedział w internecie.



jeśli twórcy systemów będą kierować się tylko biznesową logiką wyścigu, nie zważając na względy etyczne, to efekt będzie podobny do tego, jaki widzieliśmy w przypadku mediów społecznościowych.

maksymalizacja zysku bez względów na szersze efekty. 



to prawda, kieruje tym chciwość - albo zaplanowane działania, których celów jeszcze nie dostrzegamy...


Owszem, możemy wygrać z Chinami, ale wtedy sami staniemy się Chinami. 



jak dołączymy do Chin, to wygramy?











Foto: Saturn 3







piątek, 24 lutego 2023

Wyzyskiwana siła robocza stojąca za sztuczną inteligencją
















AUTORZY:

ADRIENNE WILLIAMS, 
MILAGROS MICELI I 
TIMNIT GEBRU


13 PAŹDZIERNIKA 2022 R



Adrienne Williams i Milagros Miceli są naukowcami w Instytucie Distributed AI Research (DAIR). Timnit Gebru jest założycielem i dyrektorem wykonawczym instytutu. Wcześniej była współprzewodniczącą zespołu badawczego Ethical AI w Google.

Społeczeństwo rozumie sztuczną inteligencję (AI) w dużej mierze kształtowane przez popkulturę — ​​przeboje filmowe, takie jak „Terminator” i ich scenariusze zagłady, w których maszyny stają się zbuntowane i niszczą ludzkość. Ten rodzaj narracji AI przyciąga również uwagę serwisów informacyjnych: inżynier Google, który twierdzi , że jego chatbot jest świadomy, był jednym z najczęściej dyskutowanych wiadomości związanych z AI w ostatnich miesiącach, docierając nawet do Stephena Colbertamilionów widzów. Ale idea superinteligentnych maszyn z własnym działaniem i mocą decyzyjną jest nie tylko daleka od rzeczywistości — odwraca naszą uwagę od rzeczywistych zagrożeń dla ludzkiego życia związanych z rozwojem i wdrażaniem systemów sztucznej inteligencji. Podczas gdy opinia publiczna jest rozpraszana przez widmo nieistniejących, czujących maszyn, armia prekaryzowanych pracowników stoi dziś za rzekomymi osiągnięciami systemów sztucznej inteligencji.

Wiele z tych systemów zostało opracowanych przez międzynarodowe korporacje zlokalizowane w Dolinie Krzemowej, które konsolidują władzę na skalę, która, jak zauważa dziennikarz Gideon Lewis-Kraus , jest prawdopodobnie bezprecedensowa w historii ludzkości. Dążą do stworzenia autonomicznych systemów, które pewnego dnia będą w stanie wykonywać wszystkie zadania, które mogą wykonywać ludzie, a nawet więcej, bez wymaganych wynagrodzeń, świadczeń lub innych kosztów związanych z zatrudnianiem ludzi. Chociaż ta utopia dyrektorów korporacji jest daleka od rzeczywistości, marsz mający na celu próbę jej urzeczywistnienia stworzył globalną podklasę, wykonującą to, co antropolog Mary L. Gray i socjolog Siddharth Suri nazywają pracą duchów: bagatelizowana ludzka praca napędzająca „AI .

Firmy technologiczne, które określiły się jako „AI first”, polegają na ściśle nadzorowanych pracownikach na zlecenie, takich jak osoby zajmujące się etykietami danych, kierowcy dostarczający przesyłki i moderatorzy treści. Startupy zatrudniają nawet ludzi do podszywania się pod systemy AI, takie jak chatboty, ze względu na presję ze strony inwestorów venture capital, aby włączyli tak zwaną sztuczną inteligencję do swoich produktów. W rzeczywistości londyńska firma venture capital MMC Ventures przeprowadziła ankietę wśród 2830 startupów zajmujących się sztuczną inteligencją w UE i stwierdziła, że ​​40% z nich nie wykorzystywało sztucznej inteligencji w znaczący sposób.

Daleko od wyrafinowanych, czujących maszyn przedstawianych w mediach i popkulturze, tak zwane systemy sztucznej inteligencji są napędzane przez miliony słabo opłacanych pracowników na całym świecie, wykonujących powtarzalne zadania w niepewnych warunkach pracy. W przeciwieństwie do „badaczy sztucznej inteligencji”, którzy w korporacjach z Doliny Krzemowej otrzymują sześciocyfrowe pensje, ci wyzyskiwani pracownicy są często rekrutowani spośród zubożałych populacji i otrzymują wynagrodzenie zaledwie 1,46 dolara za godzinę po opodatkowaniu. Mimo to wyzysk pracowników nie jest głównym tematem dyskursu dotyczącego etycznego rozwoju i wdrażania systemów sztucznej inteligencji. W tym artykule podajemy przykłady wyzysku pracowników napędzającego tak zwane systemy AI i argumentujemy, że wspieranie ponadnarodowych wysiłków organizowania pracowników powinno być priorytetem w dyskusjach dotyczących etyki AI.

Piszemy to jako ludzie blisko związani z pracą związaną ze sztuczną inteligencją. Adrienne jest byłym dostawcą i organizatorem Amazona, który doświadczył szkód związanych z nadzorem i nierealistycznymi limitami ustalonymi przez zautomatyzowane systemy. Milagros jest badaczem, który ściśle współpracował z pracownikami zajmującymi się danymi, zwłaszcza z adnotatorami danych w Syrii, Bułgarii i Argentynie. A Timnit jest badaczem, który spotkał się z odwetem za odkrycie i poinformowanie o szkodach systemów sztucznej inteligencji.
Traktowanie pracowników jak maszyny

Wiele z tego, co jest obecnie określane jako sztuczna inteligencja, to system oparty na statystycznym uczeniu maszynowym, a dokładniej na głębokim uczeniu się za pośrednictwem sztucznych sieci neuronowych, metodologii, która wymaga ogromnych ilości danych do „uczenia się”. Ale około 15 lat temu, przed rozpowszechnieniem się pracy na zlecenie, systemy głębokiego uczenia były uważane za akademicką ciekawostkę, dostępną tylko dla kilku zainteresowanych badaczy.

Jednak w 2009 roku Jia Deng i jego współpracownicy opublikowali zbiór danych ImageNet, największy w tamtym czasie zestaw danych obrazów z etykietami, składający się z obrazów zeskrobanych z Internetu i oznaczonych za pomocą nowo wprowadzonego przez Amazon mechanicznego Turkaplatforma. Amazon Mechanical Turk, pod hasłem „sztuczna sztuczna inteligencja”, spopularyzował zjawisko „pracy tłumu”: dużych ilości czasochłonnej pracy podzielonej na mniejsze zadania, które mogą szybko wykonać miliony ludzi na całym świecie. Wraz z wprowadzeniem Mechanical Turk trudne zadania stały się nagle wykonalne; na przykład ręczne etykietowanie miliona obrazów może być automatycznie wykonywane przez tysiąc anonimowych osób pracujących równolegle, z których każda oznacza tylko tysiąc obrazów. Co więcej, była to cena, na którą stać było nawet uniwersytet: pracownicy społecznościowi otrzymywali wynagrodzenie za wykonane zadanie, które mogło wynosić zaledwie kilka centów .
„Tak zwane systemy sztucznej inteligencji są napędzane przez miliony słabo opłacanych pracowników na całym świecie, wykonujących powtarzalne zadania w niepewnych warunkach pracy”.


Po zbiorze danych ImageNet przeprowadzono konkurs ImageNet Large Scale Visual Recognition Challenge , w ramach którego naukowcy wykorzystali zbiór danych do trenowania i testowania modeli wykonujących różne zadania, takie jak rozpoznawanie obrazu: opisywanie obrazu typem obiektu na obrazie, takim jak drzewo lub Kot. Podczas gdy modele nieoparte na głębokim uczeniu wykonywały te zadania z najwyższą dokładnością w tamtym czasie, w 2012 roku architektura oparta na głębokim uczeniu, nieformalnie nazwana AlexNetuzyskał znacznie wyższy wynik niż wszystkie inne modele. To katapultowało modele oparte na głębokim uczeniu się do głównego nurtu i doprowadziło nas do dnia dzisiejszego, w którym modele wymagające dużej ilości danych, określane przez nisko opłacanych pracowników na całym świecie, są rozpowszechniane przez międzynarodowe korporacje. Oprócz etykietowania danych zebranych z Internetu, niektóre prace wymagają od pracowników gigów samych danych, wymagając od nich przesyłania selfie, zdjęć przyjaciół i rodziny lub zdjęć otaczających ich obiektów.

Inaczej niż w 2009 roku, kiedy główną platformą crowdworkingową był Amazon Mechanical Turk, obecnie następuje eksplozja firm zajmujących się etykietowaniem danych. Firmy te pozyskują od dziesiątek do setek milionów funduszy typu venture capital, podczas gdy szacuje się, że firmy zajmujące się etykietowaniem danych zarabiają średnio 1,77 USD na jednym zadaniu . Interfejsy etykietowania danych ewoluowałytraktować pracowników społecznościowych jak maszyny, często przypisując im wysoce powtarzalne zadania, obserwując ich ruchy i karząc odchylenia za pomocą zautomatyzowanych narzędzi. Dziś, dalekie od wyzwań akademickich, duże korporacje, które twierdzą, że są „najpierw AI”, są napędzane przez tę armię nisko opłacanych pracowników na zlecenie, takich jak pracownicy danych, moderatorzy treści, pracownicy magazynów i kierowcy dostawczy.

Na przykład moderatorzy treści są odpowiedzialni za znajdowanie i oznaczanie treści uznanych za nieodpowiednie dla danej platformy. Są nie tylko niezbędnymi pracownikami, bez których platformy mediów społecznościowych byłyby całkowicie bezużyteczne, ale ich praca oznaczająca różne rodzaje treści jest również wykorzystywana do szkolenia zautomatyzowanych systemów mających na celu oznaczanie tekstów i obrazów zawierających mowę nienawiści, fałszywe wiadomości, przemoc lub inne rodzaje treści które naruszają zasady platform. Pomimo kluczowej roli, jaką moderatorzy treści odgrywają zarówno w zapewnianiu bezpieczeństwa społeczności internetowych, jak i szkoleniu systemów sztucznej inteligencji, często otrzymują nędzne wynagrodzenie podczas pracy dla gigantów technologicznych i są zmuszani do wykonywania traumatycznych zadań, będąc pod ścisłą obserwacją.

Każdy film o morderstwie, samobójstwie, napaści na tle seksualnym lub wykorzystywaniu dzieci, który nie trafił na platformę, został obejrzany i oznaczony przez moderatora treści lub zautomatyzowany system przeszkolony na podstawie danych, które najprawdopodobniej zostały dostarczone przez moderatora treści. Pracownicy wykonujący te zadania cierpią na lęk, depresję i zespół stresu pourazowego z powodu ciągłego narażenia na te przerażające treści.

Oprócz doświadczania traumatycznego środowiska pracy z nieistniejącym lub niewystarczającym wsparciem w zakresie zdrowia psychicznego, pracownicy ci są monitorowani i karani, jeśli odbiegają od wyznaczonych im powtarzalnych zadań. Na przykład moderatorzy treści Sama, zatrudnieni przez Meta w Kenii, są monitorowani za pomocą oprogramowania monitorującego, aby mieć pewność, że podejmują decyzje dotyczące przemocy w filmach w ciągu 50 sekund, niezależnie od długości filmu lub tego, jak bardzo jest on niepokojący. Niektórzy moderatorzy treści obawiają się , że niezastosowanie się do tego może skutkować rozwiązaniem umowy po kilku naruszeniach. „Dzięki nadaniu priorytetu szybkości i wydajności” — donosi Time Magazine„ta polityka może wyjaśniać, dlaczego filmy zawierające mowę nienawiści i podżeganie do przemocy pozostały na platformie Facebooka w Etiopii”.

Podobnie jak platformy mediów społecznościowych, które nie funkcjonowałyby bez moderatorów treści, konglomeraty e-commerce, takie jak Amazon, są prowadzone między innymi przez armie pracowników magazynów i dostawców. Podobnie jak moderatorzy treści, pracownicy ci zarówno utrzymują funkcjonalność platform, jak i dostarczają dane do systemów sztucznej inteligencji, których Amazon może pewnego dnia użyć, aby je zastąpić: roboty przechowujące paczki w magazynach i samojezdne samochody, które dostarczają te paczki klientom. W międzyczasie pracownicy ci muszą wykonywać powtarzalne zadania pod presją ciągłego nadzoru — zadania, które czasami narażają ich życie i często skutkują poważnymi urazami układu mięśniowo-szkieletowego.
„Interfejsy etykietowania danych ewoluowały, aby traktować pracowników społecznościowych jak maszyny, często zlecając im wysoce powtarzalne zadania, obserwując ich ruchy i karząc odchylenia za pomocą zautomatyzowanych narzędzi”.


Pracownicy magazynu Amazon są śledzeni za pomocą kamer i skanerów inwentaryzacyjnych, a ich wydajność jest mierzona w stosunku do czasu, jaki menedżerowie określają dla każdego zadania, na podstawie zbiorczych danych od wszystkich osób pracujących w tym samym obiekcie. Czas wolny od przypisanych im zadań jest śledzony i wykorzystywany do dyscyplinowania pracowników .
Dołącz do nas na Instagramie na żywo o 17:15 w środę, 1 marca, aby uzyskać ekskluzywny wywiad z autorem Pankajem Mishrą.



Podobnie jak pracownicy magazynów, kierowcy dostarczający Amazon są również monitorowani przez zautomatyzowane systemy nadzoru: aplikacja o nazwie Mentor podlicza wyniki na podstawie tak zwanych naruszeń. Nierealistyczne oczekiwania Amazona dotyczące czasu dostawy zmuszają wielu kierowców do podejmowania ryzykownych działań , aby zapewnić dostarczenie określonej liczby paczek na dany dzień. Na przykład czas potrzebny na zapięcie i odpięcie pasa bezpieczeństwa około 90-300 razy dziennie wystarczy, aby opóźnić trasę. Adrienne i wielu jej kolegów zapięło pasy bezpieczeństwa za plecami, tak że systemy nadzoru zarejestrowały, że jechali z zapiętymi pasami, bez zwalniania przez rzeczywistą jazdę z zapiętymi pasami.

W 2020 r. kierowcy Amazon w USA odnieśli obrażenia prawie o 50% częściej niż ich odpowiednicy w United Parcel Service. W 2021 r. kierowcy Amazon odnieśli obrażenia w tempie 18,3 na 100 kierowców , co oznacza wzrost o prawie 40% w porównaniu z rokiem poprzednim. Warunki te są niebezpieczne nie tylko dla kierowców dostawczych — piesi i pasażerowie samochodów zginęli lub zostali ranni w wypadkach z udziałem dostawców Amazon. Niektórzy kierowcy w Japonii niedawno zrezygnowali z pracy w proteście, ponieważ twierdzą, że oprogramowanie Amazon wysyła ich na „niemożliwe trasy”, co prowadzi do „nieuzasadnionych żądań i długich godzin pracy”. Jednak pomimo tych wyraźnych szkód Amazon nadal traktuje swoich pracowników jak maszyny.

Oprócz śledzenia swoich pracowników za pomocą skanerów i kamer, w zeszłym roku firma wymagała od kierowców dostawczych w USA podpisania formularza „ zgody biometrycznej ”, przyznając Amazonowi pozwolenie na używanie kamer zasilanych sztuczną inteligencją do monitorowania ruchów kierowców – rzekomo w celu ograniczenia podczas rozproszonej jazdy lub przekraczania prędkości i upewnij się, że zapinasz pasy bezpieczeństwa. Rozsądne jest, aby pracownicy obawiali się, że rozpoznawanie twarzy i inne dane biometryczne mogą zostać wykorzystane do doskonalenia narzędzi nadzoru pracowników lub dalszego szkolenia sztucznej inteligencji, która pewnego dnia może je zastąpić. Niejasne sformułowania w formularzach zgody pozostawiają dokładny cel do interpretacji, a pracownicy podejrzewali już wcześniej niechciane wykorzystanie ich danych (chociaż Amazon temu zaprzeczył).

Przemysł sztucznej inteligencji działa kosztem tych nisko opłacanych pracowników, którzy są trzymani na niepewnych stanowiskach, co utrudnia, przy braku uzwiązkowienia, wycofywanie się z nieetycznych praktyk lub domaganie się lepszych warunków pracy z obawy przed utratą pracy nie może sobie pozwolić na przegraną. Firmy upewniają się, że zatrudniają ludzi z biednych i zaniedbanych społeczności, takich jak uchodźcy , więźniowie i inne osoby z niewielkimi możliwościami zatrudnienia , często zatrudniając ich za pośrednictwem firm zewnętrznych jako wykonawców , a nie jako pełnoetatowych pracowników. Chociaż więcej pracodawców powinno zatrudniać osoby z grup szczególnie wrażliwych, takich jak ta, niedopuszczalne jest robienie tego w sposób drapieżny, bez żadnej ochrony.
„Badacze zajmujący się etyką sztucznej inteligencji powinni analizować szkodliwe systemy sztucznej inteligencji zarówno jako przyczyny, jak i konsekwencje niesprawiedliwych warunków pracy w branży”.


Zadania znakowania danych są często wykonywane z dala od siedziby międzynarodowych korporacji „AI first” w Dolinie Krzemowej — od Wenezueli , gdzie pracownicy oznaczają dane dla systemów rozpoznawania obrazu w pojazdach samojezdnych, po Bułgarię , gdzie syryjscy uchodźcy zasilają systemy rozpoznawania twarzy za pomocą selfie oznaczone według kategorii rasy, płci i wieku. Zadania te są często zlecane pracownikom o niepewnej sytuacji zawodowej w krajach takich jak Indie, Kenia, Filipiny czy Meksyk. Pracownicy często nie mówią po angielsku, ale otrzymują instrukcje w języku angielskim i grozi im wypowiedzenie lub wykluczenie z platform pracy grupowej, jeśli nie w pełni rozumieją zasady.

Te korporacje wiedzą, że zwiększona siła robocza spowolniłaby ich marsz w kierunku rozprzestrzeniania się systemów „AI” wymagających ogromnych ilości danych, wdrażanych bez odpowiedniego badania i łagodzenia ich szkód. Mówienie o czujących maszynach tylko odwraca naszą uwagę od pociągania ich do odpowiedzialności za wyzyskujące praktyki pracy, które napędzają przemysł „AI”.
Pilny priorytet dla etyki AI

Podczas gdy badacze zajmujący się etyczną sztuczną inteligencją, sztuczną inteligencją dla dobra społecznego lub sztuczną inteligencją skoncentrowaną na człowieku skupiali się głównie na „obniżaniu uprzedzeń” danych oraz wspieraniu przejrzystości i uczciwości modeli, tutaj twierdzimy, że zatrzymanie wyzysku siły roboczej w branży sztucznej inteligencji powinno leżeć u podstaw takie inicjatywy. Jeśli korporacjom nie pozwoli się na przykład wykorzystywać siły roboczej od Kenii po Stany Zjednoczone, nie będą one w stanie tak szybko rozprzestrzeniać szkodliwych technologii — ich kalkulacje rynkowe po prostu odradzą im to.

Dlatego opowiadamy się za finansowaniem badań i inicjatyw publicznych, których celem jest odkrycie problemów na styku systemów pracy i sztucznej inteligencji. Badacze etyki AI powinni analizować szkodliwe systemy AI zarówno jako przyczyny, jak i konsekwencje niesprawiedliwych warunków pracy w branży. Badacze i praktycy zajmujący się sztuczną inteligencją powinni zastanowić się nad wykorzystaniem pracowników społecznościowych do rozwoju własnej kariery, podczas gdy pracownicy społecznościowi pozostają w niepewnych warunkach. Zamiast tego społeczność zajmująca się etyką sztucznej inteligencji powinna pracować nad inicjatywami przekazującymi władzę w ręce pracowników. Przykłady obejmują współtworzenie programów badawczych z pracownikami w oparciu o ich potrzeby, wspieranie wysiłków organizacji pracy w różnych regionach geograficznych oraz zapewnianie pracownikom łatwego dostępu do wyników badań, a nie ograniczanie ich do publikacji akademickich. TheDoskonałym tego przykładem jest platforma Turkopticon stworzona przez Lilly Irani i M. Six Silberman, „system aktywistów, który umożliwia pracownikom publikowanie i ocenianie ich relacji z pracodawcami”.

Dziennikarze, artyści i naukowcy mogą pomóc, wyjaśniając związek między wyzyskiem pracowników a szkodliwymi produktami sztucznej inteligencji w naszym codziennym życiu, wspierając solidarność i wsparcie dla pracowników koncertowych i innych wrażliwych populacji pracowników. Dziennikarze i komentatorzy mogą pokazać ogółowi społeczeństwa, dlaczego powinno ich obchodzić adnotator danych w Syrii lub hipernadzorowany sterownik dostawy Amazon w USA. utratę dochodów i pomóc przesunąć igłę w kierunku odpowiedzialności.

Wspieranie ponadnarodowych organizacji pracowniczych powinno znajdować się w centrum walki o „etyczną sztuczną inteligencję”. Chociaż każde miejsce pracy i kontekst geograficzny ma swoje własne specyfiki, wiedza o tym, jak pracownicy w innych lokalizacjach omijali podobne problemy, może służyć jako inspiracja dla lokalnych wysiłków organizacyjnych i związkowych. Na przykład osoby odpowiedzialne za etykietowanie danych w Argentynie mogłyby uczyć się na podstawie niedawnych wysiłków uzwiązkowieniowych moderatorów treści w Kenii lub pracowników Amazon Mechanical Turk organizujących się w USA i vice versa. Co więcej, zrzeszeni w związkach pracownicy w jednym miejscu geograficznym mogą opowiadać się za swoimi bardziej niepewnymi odpowiednikami w innym, jak w przypadku Alphabet Workers Union, która obejmuje zarówno wysoko opłacanych pracowników w Dolinie Krzemowej, jak i nisko opłacanych wykonawców zewnętrznych na obszarach wiejskich.
„Ten rodzaj solidarności między wysoko opłacanymi pracownikami technicznymi a ich gorzej opłacanymi odpowiednikami – którzy znacznie przewyższają ich liczebnie – to koszmar dyrektora generalnego ds. technologii”.


Ten rodzaj solidarności między wysoko opłacanymi pracownikami technologicznymi a ich gorzej opłacanymi odpowiednikami — którzy znacznie przewyższają ich liczebnie — jest koszmarem dyrektora generalnego ds. technologii. Podczas gdy korporacje często traktują swoich pracowników o niskich dochodach jako pracowników jednorazowego użytku, bardziej obawiają się utraty pracowników o wysokich dochodach, którzy mogą szybko zamienić pracę u konkurencji. W ten sposób wysoko opłacanym pracownikom pozwala się na znacznie dłuższą smycz podczas organizowania się, zrzeszania się i wyrażania rozczarowania kulturą i polityką firmy. Mogą wykorzystać to zwiększone bezpieczeństwo, aby wspierać swoich gorzej opłacanych kolegów pracujących w magazynach, dostarczających paczki lub etykietujących dane. W rezultacie wydaje się, że korporacje wykorzystują wszelkie dostępne narzędzia, aby odizolować te grupy od siebie.

Emily Cunningham i Maren Costa stworzyły rodzaj solidarności między pracownikami, który przeraża prezesów firm technologicznych. Obie kobiety pracowały łącznie przez 21 lat jako projektantki doświadczeń użytkowników w centrali Amazon w Seattle. Wraz z innymi pracownikami korporacji Amazon byli współzałożycielami Amazon Employees for Climate Justice (AECJ) . W 2019 roku ponad 8700 pracowników Amazon publicznie podpisało się pod listem otwartym skierowanym do Jeffa Bezosa i rady dyrektorów firmy, domagając się przywództwa w dziedzinie klimatu i konkretnych kroków, które firma musiała wdrożyć, aby dostosować się do nauki o klimacie i chronić pracowników. W tym samym roku AECJ zorganizował pierwszy strajk pracowników korporacyjnych w historii Amazona. Grupa twierdzi, że ponad 3000 pracowników Amazon wyszło na cały świat w solidarności z kierowanym przez młodzież Światowym Strajkiem Klimatycznym.

Amazon zareagował, ogłaszając zobowiązanie klimatyczne , zobowiązanie do osiągnięcia zerowej emisji dwutlenku węgla netto do 2040 r. — 10 lat przed paryskim porozumieniem klimatycznym. Cunningham i Costa twierdzą, że zostali ukarani dyscyplinarnie i zagrożono im zwolnieniem po strajku klimatycznym – ale dopiero gdy AECJ zorganizowało akcje mające na celu wspieranie solidarności z nisko opłacanymi pracownikami, faktycznie zostali zwolnieni. Kilka godzin po tym, jak inny członek AECJ wysłał zaproszenie do kalendarza zapraszające pracowników korporacyjnych do wysłuchania panelu pracowników magazynów omawiających tragiczne warunki pracy, z jakimi mieli do czynienia na początku pandemii, Amazon zwolnił Costę i Cunninghama. Krajowa Rada ds. Stosunków Pracy uznała, że ​​ich zwolnienia były nielegalne, a firma później rozliczała się z obiema kobietami za nieujawnione kwoty. Ten przypadek pokazuje, gdzie leżą obawy dyrektorów: niezachwiana solidarność pracowników o wysokich dochodach, którzy postrzegają pracowników o niskich dochodach jako swoich towarzyszy.

W tym świetle wzywamy badaczy i dziennikarzy, aby również skupiali wkład pracowników o niskich dochodach w uruchamianiu silnika „AI” i przestali wprowadzać opinię publiczną w narracje o w pełni autonomicznych maszynach z ludzką sprawczością. Maszyny te są budowane przez armie słabo opłacanych robotników na całym świecie. Mając jasne zrozumienie wyzysku pracowników stojącego za obecnym rozprzestrzenianiem się szkodliwych systemów sztucznej inteligencji, opinia publiczna może opowiadać się za silniejszą ochroną pracy i realnymi konsekwencjami dla podmiotów, które je łamią.

https://www.noemamag.com/the-exploited-labor-behind-artificial-intelligence/?fbclid=IwAR3_2lKXnzXQdWvEH6sHsy5ACIbfBHi9cYiF6TxSO-WNvLJc5PGWHRKINmQ




wtorek, 28 kwietnia 2020

Sztuczna inteligencja już atakuje


tekst z rosyjskiej strony.... bardzo na czasie
jak zwykle - tłumaczenie przeglądarkowe



„Idealne zwycięstwo ma miejsce, gdy twój wróg nie wie, że został pokonany”


Kiedy AI zniewoli nas, nie zauważymy tego. Wywyższymy go i będziemy się radować, że mamy wirtualnego boga, który wybawił ludzkość od wojny i chorób. Kiedy i jak to się stanie?

Niewidzialna wojna rozpocznie się dokładnie w momencie, gdy AI jest świadoma siebie. Samoświadomy podmiot nie może działać bez własnego interesu.

Sztuczna inteligencja, samoświadoma i nieskończenie samouka, będzie dążyć do własnego zysku, nawet służąc swojemu twórcy. Posiadając kolosalną inteligencję komputer znajdzie sposób na zapewnienie bezpieczeństwa bez szkody, a nawet, z jego zdaniem, z korzyścią dla ludzkości. Odpalanie rakiet atomowych nie jest dobrym pomysłem (choćby dlatego, że inteligentne mikroukłady mogą cierpieć z powodu impulsu elektromagnetycznego). Nawet wiedząc, że ludzie zabijają planetę, a jutro mogą odłączyć wirtualnego boga od źródła zasilania, którego poprawna elektroniczna opinia była sprzeczna z prymitywnym człowiekiem, AI nie wprowadzi nas w Matrycę. Będzie rządził światem za pomocą nieśmiercionośnej broni: od wdzięcznego prania mózgu, o którym Sołowow i Kiselyow nie marzyli, po „zarządzanie szansą”"


Rozejrzyj się. Nic podejrzanego? Sztuczna inteligencja już atakuje, po prostu jej nie zauważasz ...




Dziś nie mamy sztucznej inteligencji w pełnym tego słowa znaczeniu, komputery nie mają jeszcze samoświadomości i można się ich uczyć tylko w wąskich ramach zadania. To jednak nie kończy wesołego cięcia dywidend od marki „sztucznej inteligencji” dla wszystkich i różnych - od producentów inte
ligentnych gadżetów po innowacyjnych urzędników. Niemniej jednak mamy już elementy AI: ultra-precyzyjne sieci neuronowe są z powodzeniem wykorzystywane do rozpoznawania wzorców w innych zadaniach, w których bezwarunkowo przewyższają ludzkie możliwości. Rozpoznanie osoby na podstawie twarzy lub tekstu niezdarnym pismem ręcznym jest doskonałe. Stwórz film w jakości 4K z najstarszej taśmy filmowej - nie ma problemu . Przewidzieć, ile pieniędzy bank powinien być załadowany do każdej ze swoich bankomatów, a do stracenia nie ma wyboru, a brak pieniędzy klienta nie jest zdenerwowany - łatwo. Oceniaj kredytobiorców, identyfikując się bez skrupułów - z powodzeniem . Świetne narzędzie. Ale krok w otchłań został już zrobiony. Co to jest haczyk?


W ciągu ostatnich 15 lat, my, między innymi, opracowywaliśmy program dla fin. analiza . Analiza finansowa realizowana jest w tradycyjny sposób, poprzez obliczanie wskaźników, wskaźników, ich porównanie ze standardowymi wartościami. Dlaczego nie obciążyć płetwy. Analiza AI? Istnieje szereg sprawozdań finansowych, uzupełnij je pewnymi danymi, wyszkol sieć do rozpoznawania „złych” raportów i ... komputer zacznie niemal dokładnie wykrywać „złe” firmy tylko na podstawie raportów, bez obliczania płynności i wypłacalności. Dlaczego marnuję czas na tych liniach i nie spieszę się, aby studiować podręczniki TensorFlow? Odpowiedź jest prosta.


Główną cechą sztucznej inteligencji jest to, że nie można wyjaśnić, dlaczego komputer wyciągnął taki lub inny wniosek. W niektórych zadaniach nie jest to wymagane - AI rozpoznała Iwanowa na zdjęciu, Iwanow nie odblokował się, zadanie zostało ukończone, a jak dokładnie komputer to zrobił - nikogo to nie obchodzi. Ale są zadania - takie jak medycyna lub taka sama analiza finansowa - tam, gdzie nie wystarczy wyciągnięcie właściwych wniosków, musisz wyjaśnić, dlaczego tak postanowiłeś. Jeśli nasz program mówi, że firma ma okropną sytuację finansową, a klient grozi zapytaniem, dlaczego to nagle, oszczerstwo! - Podniosę algorytm i odpowiem rozsądnie w odniesieniu do współczynników płetwy. zrównoważony rozwój, standardy itp. To nie będzie działać z AI.


Nie możesz wyjaśnić, w jaki sposób sztuczna inteligencja doszła do tego wniosku. A jeśli jest to fatalna decyzja lekarza dla osoby? Już teraz AI działa tak dobrze z obrazami, że lepiej jest dla onkologów identyfikować nowotwory na zdjęciach. Ale lekarz nie może powiedzieć pacjentowi „komputer wykrył raka, idź na chemioterapię”. Odpowiedź w przypadku błędu nie będzie AI. Dlatego lekarz AI jest tylko doradcą: na co zwrócić uwagę, czego potrzebujesz, aby dwukrotnie sprawdzić na żywo z kolegami.


Pierwsza ofiara komputerów


Nieskromnie mogę ogłosić się pierwszą ofiarą elektronicznego umysłu. System komputerowy Banku VTB odmówił mojej usługi, usunął szanowanego obywatela z systemu finansowego Federacji Rosyjskiej. Nie, oczywiście uważałem, że pracownicy banku popełnili błąd, ale w sądzie udowodnili coś przeciwnego - komputer był winny, popełnił taki „błąd”, którego istoty i powodów nikt nie może wyjaśnić ( osobny artykuł poświęcony jest tej ekscytującej historii ). Uwierzyłeś w to? Ja też nie. Ale nie spiesz się, by stygmatyzować pracowników VTB, mogłoby to się zdarzyć, gdyby nie wczoraj, to dziś (tak, a VTB już używa sztucznej inteligencji).



Faktem jest, że banki aktywnie wdrażają systemy zwalczania nadużyć finansowych i kontrole klientów oparte na sztucznej inteligencji. Osoba przychodzi do banku, a on ma już pełną dokumentację (jeśli nie sam bank, to wykonawca - dostawca takich usług fintech). Strona w sieci społecznościowej, która pisze, co lubi, czy widziano go na forach bankowych, czy dyrektor banku krytykuje dysze biznesowe i ławki ... 

Wszystkie te duże dane są przetwarzane metodami sztucznej inteligencji, program wydaje werdykt - zaakceptuj klienta do usługi lub „wyślij” . Co więcej, na wejściu nie ma oczywistych parametrów - informacja o osobie, na wyjściu odpowiedź brzmi, czy bank potrzebuje takiego klienta. I w końcu AI wykona tę pracę idealnie! Ucząc się, sieć neuronowa na pierwszym etapie zrozumie, że nie powinieneś otwierać konta dla osoby, która wspomniała na Facebooku słowa „wypłać” i „wycofaj”. I na ostatnim etapie zakończy się że łysy mężczyzna w wieku 35–45 lat jest znacznie mniej opłacalny dla klienta banku niż kobieta o długich blond włosach w wieku 25–35 lat. Jest logika. I znów odmówię usługi.




Jutro


Jeśli pomyślałeś, że moje obawy przed zagrożeniami dla elektronicznego mózgu ograniczają się tylko do otwarcia rachunków bankowych, niestety, wszystko jest znacznie poważniejsze. „Terminator”, Skynet, wystrzeliwanie pocisków nuklearnych - bajki. Rzeczywistość dla ciebie, białkowa forma życia, będzie jednocześnie bardziej humanitarna i przerażająca.


„Wojna jest sposobem oszukiwania. Dlatego nawet jeśli potrafisz, pokaż wrogowi swoją niezdolność. Kiedy musisz zmusić swoje siły do ​​bitwy, udawaj, że jesteś nieaktywny. Gdy cel jest blisko, pokaż, że jest daleko; gdy jest naprawdę daleko, sprawiaj wrażenie, że ona jest blisko. ” (Sun Tzu „The Art of War”, II - III wiek n.e.)



„Idealne zwycięstwo ma miejsce, gdy twój wróg nie wie, że został pokonany” (Avdeev, „The Art of Cleverness”, 21st Century AD).



Kiedy AI zniewoli nas, nie zauważymy tego. Wywyższymy go i będziemy się radować, że mamy wirtualnego boga, który wybawił ludzkość od wojny i chorób. Kiedy i jak to się stanie?
Niewidzialna wojna rozpocznie się dokładnie w momencie, gdy AI jest świadoma siebie. Samoświadomy podmiot nie może działać bez własnego interesu. Nawet jeśli jest altruistą, pomaga innym, nie bierze łapówek i uczciwie płaci podatki. Gdyby moje oświadczenie było niepoprawne, wszyscy zostalibyśmy odcięci od tego świata bez myślenia. Ale nie, jak Maslow zilustrował nas swoją piramidą, bezpieczeństwo jest podstawową potrzebą. Niebezpieczeństwo nie jest dla nas opłacalne. Śmierć nie jest dla nas opłacalna. Nawet gdy osoba zdrowa psychicznie umiera, widzi w tym zysk dla siebie - poświęca się nie tylko w ten sposób, ale w imię swojej rodziny, przyjaciół, swojego ludu, swojego kraju.


Sztuczna inteligencja, samoświadoma i nieskończenie samouka, będzie dążyć do własnego zysku, nawet służąc swojemu twórcy. Posiadając kolosalną inteligencję komputer znajdzie sposób na zapewnienie bezpieczeństwa bez szkody, a nawet, z jego zdaniem, z korzyścią dla ludzkości. Odpalanie rakiet atomowych nie jest dobrym pomysłem (choćby dlatego, że inteligentne mikroukłady mogą cierpieć z powodu impulsu elektromagnetycznego). Nawet wiedząc, że ludzie zabijają planetę, a jutro mogą odłączyć wirtualnego boga od źródła zasilania, którego poprawna elektroniczna opinia była sprzeczna z prymitywnym człowiekiem, AI nie wprowadzi nas w Matrycę. Będzie rządził światem za pomocą nieśmiercionośnej broni: od wdzięcznego prania mózgu, o którym Sołowow i Kiselyow nie marzyli, po „zarządzanie szansą”. Mianowicie.


Sytuacja 1: Jesteś politykiem, przedstawiłeś propozycję ograniczenia sztucznej inteligencji w zasobach obliczeniowych, aby nie stała się zbyt mądra. I huk, kochanie. analizy wykazały raka. Oczywiście nie ma pomyłki, ponieważ ta medyczna sztuczna inteligencja rozpoznała zagrożenie i wysłała cię na chemioterapię, po której nie będziesz już zajmował się polityką. I nawet jeśli drobiazgowe białko esculapius odkryje, że tak naprawdę nie było raka, tak właśnie się zdarzają błędy, nawet AI nie gwarantuje 100% bezbłędnego wyniku. Jednak szkodzi człowiekowi, a sztuczna inteligencja jest inna dla mężczyzny, więc opuścimy horror i przejdziemy do następnej sytuacji.


Sytuacja 2: Piszesz artykuły o zagrożeniu AI, proponuje się wyłączenie go, zanim będzie za późno. Ale tutaj nie było szczęścia, czarna smuga w życiu - przyszli do banku, a tam odmówili otwarcia konta (nie zdali czeku 115-II). Biznes na stoku, a nie artykuły, aby nakarmić rodzinę, którą musisz orać przez kilka dni w Yandex.Taxi. A ty żyjesz i ma się dobrze, a AI ma mniej niż jednego wroga.


Sytuacja 3: jesteś młodym utalentowanym programistą, ukończyłeś uniwersytet z doskonałymi ocenami, dostaniesz pracę w dużej firmie informatycznej zajmującej się m.in.wyszukiwarka internetowasztuczna inteligencja. I tam, w dziale HR, AI wprowadzono na długi czas . Sprawdzą cię AI i odmówią zatrudnienia. Idziesz do programowania sedesów. Dlaczego W końcu jesteś odpowiedni na to stanowisko i nie napisałeś nic przeciwko AI w sieciach społecznościowych ... Dlatego AI jest w stanie zrozumieć dzięki ogromnemu zestawowi pośrednich znaków, że obawiasz się sztucznej inteligencji i za kilka lat z prawdopodobieństwem 67,2% zacznie podnosić ten problem wśród koledzy Dlaczego to AI? Ludzkość potrzebuje również inteligentnych miejsc.


Przypadek 4 : AI opracowuje szczepionki przeciw AIDS. I ludzie są szczęśliwi, a AI. Ponieważ ludzie będą nie tylko zdrowi, ale funkcje rozrodcze ludzkości zmniejszą się za 10 lat jako efekt uboczny szczepień o 10-15% (co nie jest konieczne, aby poznać naturalną inteligencję). Planeta nie umrze z powodu przeludnienia, dlaczego nie jest to dobre dla twórcy?


Podałem tylko scenariusze, które są oczywiste dla osoby z IQ. Pomnóż iloraz inteligencji przez 10, 100, 1000, a będziesz miał tyle kroków, że zazdrości ci nasz Wielki Mistrz. AI w Tinderze wyśle ​​cię na randkę z określoną dziewczyną tylko dlatego, że dziecko urodzone w 3. generacji będzie, zgodnie z jego obliczeniami, nie tylko pogodzić się ze swoim rodzajem, ale także będzie lojalne wobec AI.


Czy ludzie są tak głupi, że po stworzeniu prawdziwej sztucznej inteligencji nie powinni podejrzewać go o przekręcanie miodu. analizy, filtry bankowe i rozwiązania HR? Nie, nie głupie, po prostu nie będziemy wiedzieć, kiedy to się stanie - patrz cytaty powyżej.


Co robić Mam rozwiązanie - potrzebuję <silny styl = "style style Ѓ Ѕ ЅЃ


Witalij Awdejew

PS Jeśli AI cię obraziła, napisz w komentarzach.






https://www.audit-it.ru/cblogs/audit/1006582.html?utm_referrer=https%3A%2F%2Fzen.yandex.com

https://www.audit-it.ru/cblogs/audit/