13 PAŹDZIERNIKA 2022 R
Adrienne Williams i Milagros Miceli są naukowcami w Instytucie Distributed AI Research (DAIR). Timnit Gebru jest założycielem i dyrektorem wykonawczym instytutu. Wcześniej była współprzewodniczącą zespołu badawczego Ethical AI w Google.
Społeczeństwo rozumie sztuczną inteligencję (AI) w dużej mierze kształtowane przez popkulturę — przeboje filmowe, takie jak „Terminator” i ich scenariusze zagłady, w których maszyny stają się zbuntowane i niszczą ludzkość. Ten rodzaj narracji AI przyciąga również uwagę serwisów informacyjnych: inżynier Google,
który twierdzi , że jego chatbot jest świadomy, był jednym z najczęściej dyskutowanych wiadomości związanych z AI w ostatnich miesiącach, docierając nawet do
Stephena Colbertamilionów widzów. Ale idea superinteligentnych maszyn z własnym działaniem i mocą decyzyjną jest nie tylko daleka od rzeczywistości — odwraca naszą uwagę od rzeczywistych zagrożeń dla ludzkiego życia związanych z rozwojem i wdrażaniem systemów sztucznej inteligencji. Podczas gdy opinia publiczna jest rozpraszana przez widmo nieistniejących, czujących maszyn, armia prekaryzowanych pracowników stoi dziś za rzekomymi osiągnięciami systemów sztucznej inteligencji.
Wiele z tych systemów zostało opracowanych przez międzynarodowe korporacje zlokalizowane w Dolinie Krzemowej, które konsolidują władzę na skalę, która, jak
zauważa dziennikarz Gideon Lewis-Kraus , jest prawdopodobnie bezprecedensowa w historii ludzkości. Dążą do stworzenia autonomicznych systemów, które pewnego dnia będą w stanie wykonywać wszystkie zadania, które mogą wykonywać ludzie, a nawet więcej, bez wymaganych wynagrodzeń, świadczeń lub innych kosztów związanych z zatrudnianiem ludzi. Chociaż ta utopia dyrektorów korporacji jest daleka od rzeczywistości, marsz mający na celu próbę jej urzeczywistnienia stworzył globalną podklasę, wykonującą to, co antropolog Mary L. Gray i socjolog Siddharth Suri nazywają pracą duchów: bagatelizowana ludzka praca napędzająca „AI
” .
Firmy technologiczne, które określiły się jako „AI first”, polegają na ściśle nadzorowanych pracownikach na zlecenie, takich jak osoby zajmujące się etykietami danych, kierowcy dostarczający przesyłki i moderatorzy treści. Startupy zatrudniają nawet ludzi do
podszywania się pod systemy AI, takie jak chatboty, ze względu na presję ze strony inwestorów venture capital, aby włączyli tak zwaną sztuczną inteligencję do swoich produktów. W rzeczywistości londyńska firma venture capital MMC Ventures przeprowadziła ankietę wśród 2830 startupów zajmujących się sztuczną inteligencją w UE i stwierdziła, że
40% z nich nie wykorzystywało sztucznej inteligencji w znaczący sposób.
Daleko od wyrafinowanych, czujących maszyn przedstawianych w mediach i popkulturze, tak zwane systemy sztucznej inteligencji są napędzane przez
miliony słabo opłacanych pracowników na całym świecie, wykonujących powtarzalne zadania w niepewnych warunkach pracy. W przeciwieństwie do „badaczy sztucznej inteligencji”, którzy w korporacjach z Doliny Krzemowej otrzymują sześciocyfrowe pensje, ci wyzyskiwani pracownicy są często rekrutowani spośród zubożałych populacji i otrzymują wynagrodzenie zaledwie
1,46 dolara za godzinę po opodatkowaniu. Mimo to wyzysk pracowników nie jest głównym tematem dyskursu dotyczącego etycznego rozwoju i wdrażania systemów sztucznej inteligencji. W tym artykule podajemy przykłady wyzysku pracowników napędzającego tak zwane systemy AI i argumentujemy, że wspieranie ponadnarodowych wysiłków organizowania pracowników powinno być priorytetem w dyskusjach dotyczących etyki AI.
Piszemy to jako ludzie blisko związani z pracą związaną ze sztuczną inteligencją. Adrienne jest byłym dostawcą i organizatorem Amazona, który doświadczył szkód związanych z nadzorem i nierealistycznymi limitami ustalonymi przez zautomatyzowane systemy. Milagros jest badaczem, który ściśle współpracował z pracownikami zajmującymi się danymi, zwłaszcza z adnotatorami danych w Syrii, Bułgarii i Argentynie. A Timnit jest badaczem, który spotkał się z odwetem za odkrycie i poinformowanie o szkodach systemów sztucznej inteligencji.
Traktowanie pracowników jak maszyny
Wiele z tego, co jest obecnie określane jako sztuczna inteligencja, to system oparty na statystycznym uczeniu maszynowym, a dokładniej na głębokim uczeniu się za pośrednictwem sztucznych sieci neuronowych, metodologii, która wymaga ogromnych ilości danych do „uczenia się”. Ale około 15 lat temu, przed rozpowszechnieniem się pracy na zlecenie, systemy głębokiego uczenia były uważane za akademicką ciekawostkę, dostępną tylko dla kilku zainteresowanych badaczy.
Jednak w 2009 roku Jia Deng i jego współpracownicy
opublikowali zbiór danych ImageNet, największy w tamtym czasie zestaw danych obrazów z etykietami, składający się z obrazów zeskrobanych z Internetu i oznaczonych za pomocą nowo wprowadzonego przez Amazon
mechanicznego Turkaplatforma. Amazon Mechanical Turk, pod hasłem „sztuczna sztuczna inteligencja”, spopularyzował zjawisko „pracy tłumu”: dużych ilości czasochłonnej pracy podzielonej na mniejsze zadania, które mogą szybko wykonać miliony ludzi na całym świecie. Wraz z wprowadzeniem Mechanical Turk trudne zadania stały się nagle wykonalne; na przykład ręczne etykietowanie miliona obrazów może być automatycznie wykonywane przez tysiąc anonimowych osób pracujących równolegle, z których każda oznacza tylko tysiąc obrazów. Co więcej, była to cena, na którą stać było nawet uniwersytet: pracownicy społecznościowi otrzymywali wynagrodzenie za wykonane zadanie, które mogło wynosić
zaledwie kilka centów .
„Tak zwane systemy sztucznej inteligencji są napędzane przez miliony słabo opłacanych pracowników na całym świecie, wykonujących powtarzalne zadania w niepewnych warunkach pracy”.
Po zbiorze danych ImageNet przeprowadzono konkurs
ImageNet Large Scale Visual Recognition Challenge , w ramach którego naukowcy wykorzystali zbiór danych do trenowania i testowania modeli wykonujących różne zadania, takie jak rozpoznawanie obrazu: opisywanie obrazu typem obiektu na obrazie, takim jak drzewo lub Kot. Podczas gdy modele nieoparte na głębokim uczeniu wykonywały te zadania z najwyższą dokładnością w tamtym czasie, w 2012 roku
architektura oparta na głębokim uczeniu, nieformalnie nazwana
AlexNetuzyskał znacznie wyższy wynik niż wszystkie inne modele. To katapultowało modele oparte na głębokim uczeniu się do głównego nurtu i doprowadziło nas do dnia dzisiejszego, w którym modele wymagające dużej ilości danych, określane przez nisko opłacanych pracowników na całym świecie, są rozpowszechniane przez międzynarodowe korporacje. Oprócz etykietowania danych zebranych z Internetu, niektóre prace wymagają od pracowników gigów samych danych, wymagając od nich przesyłania selfie, zdjęć przyjaciół i rodziny lub zdjęć otaczających ich obiektów.
Inaczej niż w 2009 roku, kiedy główną platformą crowdworkingową był Amazon Mechanical Turk, obecnie następuje
eksplozja firm zajmujących się etykietowaniem danych. Firmy te pozyskują
od dziesiątek do
setek milionów funduszy typu venture capital, podczas gdy szacuje się, że firmy zajmujące się etykietowaniem danych zarabiają średnio
1,77 USD na jednym zadaniu . Interfejsy etykietowania danych
ewoluowałytraktować pracowników społecznościowych jak maszyny, często przypisując im wysoce powtarzalne zadania, obserwując ich ruchy i karząc odchylenia za pomocą zautomatyzowanych narzędzi. Dziś, dalekie od wyzwań akademickich, duże korporacje, które twierdzą, że są „najpierw AI”, są napędzane przez tę armię nisko opłacanych pracowników na zlecenie, takich jak pracownicy danych, moderatorzy treści, pracownicy magazynów i kierowcy dostawczy.
Na przykład moderatorzy treści są odpowiedzialni za znajdowanie i oznaczanie treści uznanych za nieodpowiednie dla danej platformy. Są nie tylko niezbędnymi pracownikami, bez których platformy mediów społecznościowych byłyby całkowicie bezużyteczne, ale ich praca oznaczająca różne rodzaje treści jest również wykorzystywana do szkolenia zautomatyzowanych systemów mających na celu oznaczanie tekstów i obrazów zawierających mowę nienawiści, fałszywe wiadomości, przemoc lub inne rodzaje treści które naruszają zasady platform. Pomimo kluczowej roli, jaką moderatorzy treści odgrywają zarówno w zapewnianiu bezpieczeństwa społeczności internetowych, jak i szkoleniu systemów sztucznej inteligencji, często otrzymują
nędzne wynagrodzenie podczas pracy dla gigantów technologicznych i są zmuszani do wykonywania traumatycznych zadań, będąc pod ścisłą obserwacją.
Każdy film o morderstwie, samobójstwie, napaści na tle seksualnym lub wykorzystywaniu dzieci, który nie trafił na platformę,
został obejrzany i oznaczony przez moderatora treści lub zautomatyzowany system przeszkolony na podstawie danych, które najprawdopodobniej zostały dostarczone przez moderatora treści. Pracownicy wykonujący te zadania
cierpią na lęk, depresję i zespół stresu pourazowego z powodu ciągłego narażenia na te przerażające treści.
Oprócz doświadczania traumatycznego środowiska pracy z nieistniejącym lub niewystarczającym wsparciem w zakresie zdrowia psychicznego, pracownicy ci są monitorowani i karani, jeśli odbiegają od wyznaczonych im powtarzalnych zadań. Na przykład moderatorzy treści Sama, zatrudnieni przez Meta w Kenii, są
monitorowani za pomocą oprogramowania monitorującego, aby mieć pewność, że podejmują decyzje dotyczące przemocy w filmach w ciągu 50 sekund, niezależnie od długości filmu lub tego, jak bardzo jest on niepokojący. Niektórzy moderatorzy treści
obawiają się , że niezastosowanie się do tego może skutkować rozwiązaniem umowy po kilku naruszeniach. „Dzięki nadaniu priorytetu szybkości i wydajności” —
donosi Time Magazine„ta polityka może wyjaśniać, dlaczego filmy zawierające mowę nienawiści i podżeganie do przemocy pozostały na platformie Facebooka w Etiopii”.
Podobnie jak platformy mediów społecznościowych, które nie funkcjonowałyby bez moderatorów treści, konglomeraty e-commerce, takie jak Amazon, są prowadzone między innymi przez armie pracowników magazynów i dostawców. Podobnie jak moderatorzy treści, pracownicy ci zarówno utrzymują funkcjonalność platform, jak i dostarczają dane do systemów sztucznej inteligencji, których Amazon może pewnego dnia użyć, aby je zastąpić: roboty przechowujące paczki w magazynach i samojezdne samochody, które dostarczają te paczki klientom. W międzyczasie pracownicy ci muszą
wykonywać powtarzalne zadania pod presją ciągłego nadzoru — zadania, które czasami narażają ich życie i często
skutkują poważnymi urazami układu mięśniowo-szkieletowego.
„Interfejsy etykietowania danych ewoluowały, aby traktować pracowników społecznościowych jak maszyny, często zlecając im wysoce powtarzalne zadania, obserwując ich ruchy i karząc odchylenia za pomocą zautomatyzowanych narzędzi”.
Pracownicy magazynu Amazon są
śledzeni za pomocą kamer i skanerów inwentaryzacyjnych, a ich wydajność jest
mierzona w stosunku do czasu, jaki menedżerowie określają dla każdego zadania, na podstawie zbiorczych danych od wszystkich osób pracujących w tym samym obiekcie. Czas wolny od przypisanych im zadań jest śledzony i
wykorzystywany do dyscyplinowania pracowników .
Dołącz do nas na Instagramie na żywo o 17:15 w środę, 1 marca, aby uzyskać ekskluzywny wywiad z autorem Pankajem Mishrą.Podobnie jak pracownicy magazynów, kierowcy dostarczający Amazon są również monitorowani przez zautomatyzowane systemy nadzoru: aplikacja o nazwie Mentor
podlicza wyniki na podstawie tak zwanych naruszeń. Nierealistyczne oczekiwania Amazona dotyczące czasu dostawy zmuszają wielu kierowców do
podejmowania ryzykownych działań , aby zapewnić dostarczenie określonej liczby paczek na dany dzień. Na przykład czas potrzebny na zapięcie i odpięcie pasa bezpieczeństwa około 90-300 razy dziennie wystarczy,
aby opóźnić trasę. Adrienne i wielu jej kolegów
zapięło pasy bezpieczeństwa za plecami, tak że systemy nadzoru zarejestrowały, że jechali z zapiętymi pasami, bez zwalniania przez rzeczywistą jazdę z zapiętymi pasami.
W 2020 r. kierowcy Amazon w USA odnieśli obrażenia prawie o
50% częściej niż ich odpowiednicy w United Parcel Service. W 2021 r. kierowcy Amazon odnieśli obrażenia w tempie
18,3 na 100 kierowców , co oznacza wzrost o prawie 40% w porównaniu z rokiem poprzednim. Warunki te są niebezpieczne nie tylko dla kierowców dostawczych —
piesi i
pasażerowie samochodów zginęli lub
zostali ranni w wypadkach z udziałem dostawców Amazon. Niektórzy kierowcy w Japonii niedawno
zrezygnowali z pracy w proteście, ponieważ twierdzą, że oprogramowanie Amazon wysyła ich na „niemożliwe trasy”, co prowadzi do „nieuzasadnionych żądań i długich godzin pracy”. Jednak pomimo tych wyraźnych szkód Amazon nadal traktuje swoich pracowników jak maszyny.
Oprócz śledzenia swoich pracowników za pomocą skanerów i kamer, w zeszłym roku firma wymagała od kierowców dostawczych w USA podpisania formularza „
zgody biometrycznej ”, przyznając Amazonowi pozwolenie na używanie kamer zasilanych sztuczną inteligencją do monitorowania ruchów kierowców – rzekomo w celu ograniczenia podczas rozproszonej jazdy lub przekraczania prędkości i upewnij się, że zapinasz pasy bezpieczeństwa. Rozsądne jest, aby pracownicy obawiali się, że rozpoznawanie twarzy i inne dane biometryczne mogą zostać wykorzystane do doskonalenia narzędzi nadzoru pracowników lub dalszego szkolenia sztucznej inteligencji, która pewnego dnia może je zastąpić. Niejasne sformułowania w
formularzach zgody pozostawiają dokładny cel do interpretacji, a pracownicy podejrzewali
już wcześniej niechciane wykorzystanie ich danych (chociaż Amazon temu zaprzeczył).
Przemysł sztucznej inteligencji działa kosztem tych nisko opłacanych pracowników, którzy są trzymani na niepewnych stanowiskach, co utrudnia, przy braku uzwiązkowienia, wycofywanie się z nieetycznych praktyk lub domaganie się lepszych warunków pracy z obawy przed utratą pracy nie może sobie pozwolić na przegraną. Firmy upewniają się, że zatrudniają ludzi z biednych i zaniedbanych społeczności, takich jak
uchodźcy ,
więźniowie i
inne osoby z niewielkimi możliwościami zatrudnienia , często zatrudniając ich za pośrednictwem firm zewnętrznych jako
wykonawców , a nie jako pełnoetatowych pracowników. Chociaż więcej pracodawców powinno zatrudniać osoby z grup szczególnie wrażliwych, takich jak ta, niedopuszczalne jest robienie tego w sposób drapieżny, bez żadnej ochrony.
„Badacze zajmujący się etyką sztucznej inteligencji powinni analizować szkodliwe systemy sztucznej inteligencji zarówno jako przyczyny, jak i konsekwencje niesprawiedliwych warunków pracy w branży”.
Zadania znakowania danych są często wykonywane z dala od siedziby międzynarodowych korporacji „AI first” w Dolinie Krzemowej — od
Wenezueli , gdzie pracownicy oznaczają dane dla systemów rozpoznawania obrazu w pojazdach samojezdnych, po
Bułgarię , gdzie syryjscy uchodźcy zasilają systemy rozpoznawania twarzy za pomocą selfie oznaczone według kategorii rasy, płci i wieku. Zadania te są często
zlecane pracownikom o niepewnej sytuacji zawodowej w krajach takich jak Indie, Kenia, Filipiny czy Meksyk. Pracownicy często nie mówią po angielsku, ale otrzymują instrukcje w języku angielskim i
grozi im wypowiedzenie lub wykluczenie z platform pracy grupowej, jeśli nie w pełni rozumieją zasady.
Te korporacje wiedzą, że zwiększona siła robocza spowolniłaby ich marsz w kierunku rozprzestrzeniania się systemów „AI” wymagających ogromnych ilości danych, wdrażanych bez odpowiedniego badania i łagodzenia ich szkód. Mówienie o czujących maszynach tylko odwraca naszą uwagę od pociągania ich do odpowiedzialności za wyzyskujące praktyki pracy, które napędzają przemysł „AI”.
Pilny priorytet dla etyki AI
Podczas gdy badacze zajmujący się etyczną sztuczną inteligencją, sztuczną inteligencją dla dobra społecznego lub sztuczną inteligencją skoncentrowaną na człowieku skupiali się głównie na „obniżaniu uprzedzeń” danych oraz wspieraniu przejrzystości i uczciwości modeli, tutaj twierdzimy, że zatrzymanie wyzysku siły roboczej w branży sztucznej inteligencji powinno leżeć u podstaw takie inicjatywy. Jeśli korporacjom nie pozwoli się na przykład wykorzystywać siły roboczej od Kenii po Stany Zjednoczone, nie będą one w stanie tak szybko rozprzestrzeniać szkodliwych technologii — ich kalkulacje rynkowe po prostu odradzą im to.
Dlatego opowiadamy się za finansowaniem badań i inicjatyw publicznych, których celem jest odkrycie problemów na styku systemów pracy i sztucznej inteligencji. Badacze etyki AI powinni analizować szkodliwe systemy AI zarówno jako przyczyny, jak i konsekwencje niesprawiedliwych warunków pracy w branży. Badacze i praktycy zajmujący się sztuczną inteligencją powinni zastanowić się nad wykorzystaniem pracowników społecznościowych do rozwoju własnej kariery, podczas gdy pracownicy społecznościowi pozostają w niepewnych warunkach. Zamiast tego społeczność zajmująca się etyką sztucznej inteligencji powinna pracować nad inicjatywami przekazującymi
władzę w ręce pracowników. Przykłady obejmują współtworzenie programów badawczych z pracownikami w oparciu o ich potrzeby, wspieranie wysiłków organizacji pracy w różnych regionach geograficznych oraz zapewnianie pracownikom łatwego dostępu do wyników badań, a nie ograniczanie ich do publikacji akademickich. The
Doskonałym tego przykładem jest
platforma Turkopticon stworzona przez Lilly Irani i M. Six Silberman, „system aktywistów, który umożliwia pracownikom publikowanie i ocenianie ich relacji z pracodawcami”.Dziennikarze, artyści i naukowcy mogą pomóc, wyjaśniając związek między wyzyskiem pracowników a szkodliwymi produktami sztucznej inteligencji w naszym codziennym życiu, wspierając solidarność i wsparcie dla pracowników koncertowych i innych wrażliwych populacji pracowników. Dziennikarze i komentatorzy mogą pokazać ogółowi społeczeństwa, dlaczego powinno ich obchodzić
adnotator danych w Syrii lub hipernadzorowany sterownik dostawy Amazon w USA. utratę
dochodów i pomóc przesunąć igłę w kierunku odpowiedzialności.
Wspieranie ponadnarodowych organizacji pracowniczych powinno znajdować się w centrum walki o „etyczną sztuczną inteligencję”. Chociaż każde miejsce pracy i kontekst geograficzny ma swoje własne specyfiki, wiedza o tym, jak pracownicy w innych lokalizacjach omijali podobne problemy, może służyć jako inspiracja dla lokalnych wysiłków organizacyjnych i związkowych. Na przykład osoby odpowiedzialne za etykietowanie danych w Argentynie mogłyby uczyć się na podstawie niedawnych
wysiłków uzwiązkowieniowych moderatorów treści w Kenii lub pracowników Amazon Mechanical Turk
organizujących się w USA i vice versa. Co więcej, zrzeszeni w związkach pracownicy w jednym miejscu geograficznym mogą opowiadać się za swoimi bardziej niepewnymi odpowiednikami w innym, jak w przypadku Alphabet
Workers Union, która obejmuje zarówno wysoko opłacanych pracowników w Dolinie Krzemowej, jak i nisko opłacanych wykonawców zewnętrznych na obszarach wiejskich.
„Ten rodzaj solidarności między wysoko opłacanymi pracownikami technicznymi a ich gorzej opłacanymi odpowiednikami – którzy znacznie przewyższają ich liczebnie – to koszmar dyrektora generalnego ds. technologii”.
Ten rodzaj solidarności między wysoko opłacanymi pracownikami technologicznymi a ich gorzej opłacanymi odpowiednikami — którzy znacznie przewyższają ich liczebnie — jest koszmarem dyrektora generalnego ds. technologii. Podczas gdy korporacje często traktują swoich pracowników o niskich dochodach jako pracowników jednorazowego użytku, bardziej obawiają się utraty pracowników o wysokich dochodach, którzy mogą szybko zamienić pracę u konkurencji. W ten sposób wysoko opłacanym pracownikom pozwala się na znacznie dłuższą smycz podczas organizowania się, zrzeszania się i wyrażania rozczarowania kulturą i polityką firmy. Mogą wykorzystać to zwiększone bezpieczeństwo, aby wspierać swoich gorzej opłacanych kolegów pracujących w magazynach, dostarczających paczki lub etykietujących dane. W rezultacie wydaje się, że korporacje wykorzystują wszelkie dostępne narzędzia, aby odizolować te grupy od siebie.
Emily Cunningham i Maren Costa stworzyły rodzaj solidarności między pracownikami, który przeraża prezesów firm technologicznych. Obie kobiety pracowały łącznie przez 21 lat jako projektantki doświadczeń użytkowników w centrali Amazon w Seattle. Wraz z innymi pracownikami korporacji Amazon byli współzałożycielami
Amazon Employees for Climate Justice (AECJ) . W 2019 roku ponad 8700 pracowników Amazon publicznie podpisało się pod listem otwartym skierowanym do Jeffa Bezosa i rady dyrektorów firmy, domagając się przywództwa w dziedzinie klimatu i konkretnych kroków, które firma musiała wdrożyć, aby dostosować się do nauki o klimacie i chronić pracowników. W tym samym roku AECJ zorganizował pierwszy strajk pracowników korporacyjnych w historii Amazona. Grupa twierdzi, że ponad 3000 pracowników Amazon wyszło na cały świat w solidarności z kierowanym przez młodzież Światowym Strajkiem Klimatycznym.
Amazon zareagował, ogłaszając
zobowiązanie klimatyczne , zobowiązanie do osiągnięcia zerowej emisji dwutlenku węgla netto do 2040 r. — 10 lat przed paryskim porozumieniem klimatycznym. Cunningham i Costa twierdzą, że zostali ukarani dyscyplinarnie i
zagrożono im zwolnieniem po strajku klimatycznym – ale dopiero gdy AECJ zorganizowało akcje mające na celu wspieranie solidarności z nisko opłacanymi pracownikami, faktycznie zostali zwolnieni. Kilka godzin po tym, jak inny członek AECJ wysłał zaproszenie do kalendarza zapraszające pracowników korporacyjnych do wysłuchania panelu pracowników magazynów omawiających tragiczne warunki pracy, z jakimi mieli do czynienia na początku pandemii, Amazon zwolnił Costę i Cunninghama. Krajowa Rada ds. Stosunków Pracy uznała, że ich zwolnienia były
nielegalne, a firma później rozliczała się z obiema kobietami za nieujawnione kwoty. Ten przypadek pokazuje, gdzie leżą obawy dyrektorów: niezachwiana solidarność pracowników o wysokich dochodach, którzy postrzegają pracowników o niskich dochodach jako swoich towarzyszy.
W tym świetle wzywamy badaczy i dziennikarzy, aby również skupiali wkład pracowników o niskich dochodach w uruchamianiu silnika „AI” i przestali wprowadzać opinię publiczną w narracje o w pełni autonomicznych maszynach z ludzką sprawczością. Maszyny te są budowane przez armie słabo opłacanych robotników na całym świecie. Mając jasne zrozumienie wyzysku pracowników stojącego za obecnym rozprzestrzenianiem się szkodliwych systemów sztucznej inteligencji, opinia publiczna może opowiadać się za silniejszą ochroną pracy i realnymi konsekwencjami dla podmiotów, które je łamią.
https://www.noemamag.com/the-exploited-labor-behind-artificial-intelligence/?fbclid=IwAR3_2lKXnzXQdWvEH6sHsy5ACIbfBHi9cYiF6TxSO-WNvLJc5PGWHRKINmQ