Maciej Piotr Synak


Od mniej więcej dwóch lat zauważam, że ktoś bez mojej wiedzy usuwa z bloga zdjęcia, całe posty lub ingeruje w tekst, może to prowadzić do wypaczenia sensu tego co napisałem lub uniemożliwiać zrozumienie treści, uwagę zamieszczam w styczniu 2024 roku.

Pokazywanie postów oznaczonych etykietą sztuczna inteligencja. Pokaż wszystkie posty
Pokazywanie postów oznaczonych etykietą sztuczna inteligencja. Pokaż wszystkie posty

sobota, 22 kwietnia 2023

Pentagon o SI










przedruk



Pentagon: sztuczna inteligencja nie może podejmować decyzji za nas


 21/04/2023



Amerykańskie wojsko wykorzystuje sztuczną inteligencję jako narzędzie do szybkiego „trawienia” danych i pomagania dowództwu w podejmowaniu właściwych decyzji. Według dwóch czołowych doradców ds. AI w Centralnym Dowództwie USA (CENTCOM) sztuczna inteligencja nie może podejmować decyzji za ludzi odpowiedzialnych.

CENTCOM, którego zadaniem jest ochrona bezpieczeństwa narodowego USA na Bliskim Wschodzie i w Azji Południowo-Wschodniej, właśnie zatrudnił dr Andrew Moore'a jako swojego pierwszego doradcę ds. AI. Moore jest byłym dyrektorem Google Cloud AI i byłym dziekanem Carnegie Mellon University School of Computer Science i będzie współpracował z Schuyler Moore, dyrektorem ds. Technologii CENTCOM.

W wywiadzie dla Fox News Digital oboje zgodzili się, że podczas gdy niektórzy wyobrażają sobie broń napędzaną sztuczną inteligencją, armia USA ma na celu „utrzymanie ludzi w fotelu decyzyjnym” i wykorzystanie sztucznej inteligencji do oceny ogromnych ilości danych, które pomagają ludziom siedzącym na tych miejscach.

„Istnieje ogromna obawa, słusznie, o konsekwencje autonomicznej broni” - stwierdził dr Moore. „Jedna rzecz, której byłem bardzo dobrze świadomy we wszystkich moich kontaktach z US Army: Nigdy nie słyszałem, aby ktokolwiek z armii amerykańskiej sugerował, że dobrym pomysłem byłoby stworzenie autonomicznej broni”.

Schuyler Moore powiedziała, że wojsko postrzega sztuczną inteligencję jako „przełącznik światła”, który pomaga ludziom zrozumieć dane i wskazać im właściwy kierunek. Podkreśliła, że Pentagon uważa, że „musi i zawsze będzie miał człowieka w pętli podejmującego ostateczną decyzję”.

„Pomoże nam podjąć lepszą decyzję, nie podejmując decyzji za nas” - dodała.

Jednym z przykładów, które omówili w strefie wpływów CENTCOM, jest wykorzystanie sztucznej inteligencji do rozprawienia się z nielegalnymi transportami broni w Iranie. Schuyler Moore powiedziała, że urzędnicy uważają, że sztuczna inteligencja może być wykorzystana do pomocy wojsku w zmniejszeniu liczby potencjalnie podejrzanych przesyłek poprzez zrozumienie, jak wyglądają „normalne” wzorce wysyłkowe i oznaczanie tych, które wykraczają poza normę.

Po zidentyfikowaniu podzbioru potencjalnie podejrzanych statków na wodzie, sztuczna inteligencja może być również wykorzystywana do szybkiej interpretacji zdjęć i filmów oraz dostarczania interpretacji i ocen przywódcom wojskowym.





Pentagon: sztuczna inteligencja nie może podejmować decyzji za nas | Filary Biznesu








niedziela, 16 kwietnia 2023

MIT o sztucznej inteligencji








Tułów robota typu semi-god odtwarza ludzkie rysy - podobnie w starych księgach na torsie osób opętanych rysowano dodatkowe twarze. 
Efekt podkreśla postać człowieka obok - ma on czarne ubranie i jest sportretowany na ciemnym tle - TWARZ jego to jasna plama wyraźnie odcinająca się na zdjęciu. To czarne ubranie dodatkowo podkreśla efekt i "odcina" twarz z tła, jakby ona tam samoistnie "wisiała" w powietrzu...

Pomiędzy ramionami robota widzimy wyraźnie uwydatnione usta, policzki, nos i oczy. Ta "twarz" może wyrażać surowość, zmęczenie, beznamiętność, powagę. 

Wydaje się, że upodabnia się do (odtwarza uczucia)  twarzy stojącego obok  człowieka.

Hektor to kopia osobowości złego porucznika....






















Tymczasem w świecie uczni Czarnoksiężnika....


przedruk 

i analiza
pod spodem







USA: Profesor Massachusetts Institute of Technology o sztucznej inteligencji:

 nie martwię się scenariuszem z "Terminatora", ale Dzikim Zachodem





Ponad tysiąc inwestorów, badaczy i ekspertów od sztucznej inteligencji podpisało w marcu list otwarty wzywający do wstrzymania prac nad najbardziej zaawansowanymi modelami sztucznej inteligencji. Autorzy listu zwrócili uwagę zarówno na krótkoterminowe i przyziemne ryzyka związane z nieokiełznanym wyścigiem o coraz potężniejsze modele AI, takie jak potencjalna masowa utrata pracy czy zalew dezinformacji, jak i na "zastąpienie ludzi przez maszyny", a nawet "utratę kontroli nad cywilizacją".

Polski informatyk prof. Aleksander Mądry, szef ośrodka Deployable Machine Learning na MIT w marcu odpowiadał na te i inne pytania związane z rozwojem AI, w tym m.in. na to, czy nie obawia się "scenariusza z Terminatora" podczas wysłuchania przed podkomisją amerykańskiej Izby Reprezentantów ds. nadzoru.


Jak ocenia w rozmowie z PAP, choć problemem związanym z zagrożeniami "superinteligencją" czy AGI (ogólnej sztucznej inteligencji) zajmują się poważni ludzie, to obecnie wciąż jest to odległa perspektywa. Tymczasem istnieją znacznie pilniejsze problemy.

"Nie chcę grać jasnowidza, bo w przeszłości myliłem się co do tego, jak szybko ta technologia się rozwija. Ale nie wydaje mi się, byśmy byli blisko takich scenariuszy. Myślę, że w krótkiej perspektywie zobaczymy zdumiewające rzeczy, niektóre z nich będą przypominały AGI, ale osobliwość technologiczna? Nie jesteśmy tego blisko" - mówi badacz. "To z pewnością możliwa przyszłość, ale nie sądzę, by obecnie była to najbardziej produktywna rzecz, którą powinno zajmować się państwo" - dodaje.

Jak jednak zaznacza, postęp, który widzieliśmy do tej pory wystarczy, by zmienić świat w niemal każdej dziedzinie. I podkreśla, że w większym stopniu niepokoją go bardziej przyziemne efekty szerokiego przyjęcia tej technologii, jak np. możliwe uprzedzenia wynikające z danych, na których trenowane są modele sztucznej inteligencji, czy używanie AI do dezinformacji na szeroką skalę.

Zdaniem Mądrego, niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są te modele. Jak podkreśla, sami ich twórcy nie są w stanie dokładnie określić, w jaki sposób wielkie modele językowe (LLM), takie jak ChatGPT dochodzą do swoich rozwiązań i odpowiedzi. Problem ten może zostać dodatkowo spotęgowany, w miarę jak na bazie podstawowych modeli będą powstawać kolejne, bardziej wyspecjalizowane, tworząc cały ekosystem i "łańcuch dostaw AI" - uzupełnia naukowiec.

Wynika to z tego, że interakcje pomiędzy różnymi systemami AI są bardzo słabo zbadanym obszarem, a dotychczasowe doświadczenia sugerują, że takie połączenia mogą dać nieprzewidywalne rezultaty. Jak zaznacza badacz, taki ekosystem już się tworzy i można spodziewać się eksplozji różnych zastosowań AI.


"Nie jest do końca jasne, jak wyglądają te interakcje między różnymi modelami. Nie jesteśmy w stanie przewidzieć, w jaki sposób taki model może zawieść, jak może się zachowywać, jakie mieć +uprzedzenia+" - tłumaczy rozmówca PAP. Dodaje, że może to wywołać bardzo konkretne i trudne do rozwiązania konsekwencje.

"Może być tak, że cała ta kompozycja złożona z różnych modeli popełni jakiś poważny w skutkach błąd, nawet jeśli te pojedyncze komponenty nie popełniły osobno żadnego. I teraz pojawi się pytanie: kto ma za to odpowiadać?" - mówi prof. Mądry. Zaznacza przy tym, że choć problem "halucynacji" i błędów modeli takich jak ChatGPT da się poprawić, to wyeliminowanie ich może być bardzo trudne.

Jak dodaje, w tym kontekście niepokojący był ruch obecnego lidera wyścigu AI, firmy OpenAI, by wraz z wypuszczeniem najnowszego modelu, GPT-4, skończyć z modelem "open source" i zamknąć dostęp do wewnętrznych danych programu dla badaczy z zewnątrz.

"Musimy zacząć poważnie myśleć, jaki może być tu realistyczny model dla otwarcia tej +czarnej skrzynki+. Może to wymagać znacznych wysiłków publicznych" - ocenia Mądry. Dopowiada, że brak wiedzy i przejrzystości na temat tego, jak działają modele AI, prowadzi do ich antropomorfizacji przez ludzi, co jest niebezpieczne.

To, że w tę pułapkę mogą wpaść nawet eksperci od AI, pokazuje przypadek byłego już pracownika Google'a Blake'a Lemoine'a, który twierdził w mediach, że stworzony przez firmę model LaMDA osiągnął samoświadomość.

"Jeśli nie widzimy, jak coś działa, zaczynamy to antropomorfizować, bo faktycznie można odnieść wrażenie, że rozmawiamy z człowiekiem. Myślę, że to bardzo niebezpieczny błąd poznawczy. Choć w pewnym sensie rozmawiamy z człowiekiem, bo to, co wypluwa z siebie model, to kreatywnie przemieszane słowa, które ktoś już kiedyś powiedział w internecie. Warto pamiętać, że te maszyny mówią jak człowiek, bo takie jest ich zadanie próbować uczyć się mówić jak człowiek, opierając się na potężnej bazie danych i tekstów" - wyjaśnia badacz. Jak dodaje, choć modele LLM są w stanie "myśleć", czyli dochodzić do logicznych konkluzji, to są to zwykle płytkie myśli.


"Oczywiście, te narzędzia są niesamowicie zdumiewające. Jestem nimi bardzo podekscytowany i lubię z nimi pracować. Ale musimy przestać myśleć o nich jak o ludziach. One nie są świadome" - zaznacza profesor.

Jego zdaniem, z wyścigiem firm rozwijających systemy AI, wiąże się kilka zagrożeń. Wyjaśnia, że ponieważ tworzenie dużych modeli sztucznej inteligencji wymaga dużych środków i inwestycji, oznacza to, że kluczowy obszar gospodarki i życia może leżeć w rękach kilku największych graczy.

"Myślę też, że należałoby pomyśleć, czy na przykład rząd USA powinien mieć własny model. Bo przecież nie może polegać na tym, że zawsze będzie miał do dyspozycji te z OpenAI czy Google'a" - mówi Mądry.

Poza tym - argumentuje badacz - jeśli twórcy systemów będą kierować się tylko biznesową logiką wyścigu, nie zważając na względy etyczne, to efekt będzie podobny do tego, jaki widzieliśmy w przypadku mediów społecznościowych.

Jak dodaje, to samo tyczy się rywalizację USA z Chinami, która dodatkowo wywiera presję na szybkie, choć niekoniecznie dobrze przemyślane postępy.

"Mój argument jest taki, że jeśli nie stworzymy sztucznej inteligencji, która odzwierciedla nasze wartości, gdy odrzucimy kwestie etyczne i kwestie praw na bok, to już przegramy. Owszem, możemy wygrać z Chinami, ale wtedy sami staniemy się Chinami. Więc jakie to jest zwycięstwo?" - pyta ekspert. I nawołuje do stworzenia regulacji - zaczynając od dobrowolnych +najlepszych praktyk+ i dialogu - by uniknąć błędów z przeszłości.

"Pesymistyczny scenariusz jest taki, że nic się nie zrobi: że będzie tak, jak z mediami społecznościowymi, których zadaniem jest maksymalizacja zysku bez względów na szersze efekty. To będzie taki +Dziki Zachód+. Dlatego ja muszę być optymistą, bo jeśli nic się nie zdarzy, to będzie bardzo źle" - przyznaje profesor.


Z Waszyngtonu Oskar Górzyński



--------------------------------------



"Nie chcę grać jasnowidza, bo w przeszłości myliłem się co do tego, jak szybko ta technologia się rozwija. Ale nie wydaje mi się, byśmy byli blisko takich scenariuszy. Myślę, że w krótkiej perspektywie zobaczymy zdumiewające rzeczy, niektóre z nich będą przypominały AGI, ale osobliwość technologiczna? Nie jesteśmy tego blisko" 




Nie chce grać jasnowidza, ale chyba to robi. 


podkreśla, że w większym stopniu niepokoją go bardziej przyziemne efekty szerokiego przyjęcia tej technologii, jak np. możliwe uprzedzenia wynikające z danych, na których trenowane są modele sztucznej inteligencji, czy używanie AI do dezinformacji na szeroką skalę.


Czyli wg tego pana dezinformacja na szeroką skalę to przyziemne sprawy. 

Ciekawe... terminem przyziemne często określamy coś, co jest mało ważne.



Zdaniem Mądrego, niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są te modele. Jak podkreśla, sami ich twórcy nie są w stanie dokładnie określić, w jaki sposób... ChatGPT dochodzą do swoich rozwiązań i odpowiedzi. Problem ten może zostać dodatkowo spotęgowany, w miarę jak ... będą powstawać kolejne, bardziej wyspecjalizowane, tworząc cały ekosystem i "łańcuch dostaw AI" - uzupełnia naukowiec.


To jest dziwne sformułowanie:

 niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są...


ogólny brak?

Co to takiego?


ogólna transparentność?

też bezsensu



powinno być:
brak transparentności dotyczącej 

[transparentność to rzeczownik rodzaju żeńskiego, stąd "dotyczącej" ma końcówkę żeńską]


zdanie jest niestylistyczne, a z doświadczenia wiemy, że....

słowo ogólny jest tu kluczem

jak coś jest ogólne to nie jest szczególne, słowo to określa nieprecyzyjność, jakieś przybliżenie, autor więc sugeruje nam, podaje nam słowo transparentność jako coś nieprecyzyjnego, a tak nie jest, słowo transparentność  dokładnie precyzuje o co chodzi - o przejrzystość lub jego brak.


ostatecznie powinno być:

ogólnie niepokojący jest też brak transparentności


czyli słowo ogólnie teraz odnosi się do całości tematu związanego z traktowaniem AI



Kto to napisał?? GPT??





interakcje pomiędzy różnymi systemami AI są bardzo słabo zbadanym obszarem, a dotychczasowe doświadczenia sugerują, że takie połączenia mogą dać nieprzewidywalne rezultaty. 

Nie jesteśmy w stanie przewidzieć, w jaki sposób taki model może zawieść, jak może się zachowywać, jakie mieć +uprzedzenia+"



Widzieliście kiedyś na filmie, jak saper się zastanawia - przeciąć kabel czerwony, czy zielony? 

Oto jest pytanie! 

Tyle, że W FILMACH taki saper z reguły "nie ma czasu" na analizę i musi decydować natychmiast, ale w życiu nie musimy tak robić. Mamy czas, żeby się zastanowić - co zrobić z problemem, czy cokolwiek robić??


Oto wpływ filmów na ludzkie postrzeganie - fikcyjne przykłady wzięte z ekranu zaczynają dyktować zachowania w realu... ludzie mylą fantazję z rzeczywistością... tnijmy czerwone!!


dotychczasowe doświadczenia sugerują, że ...mogą dać nieprzewidywalne rezultaty. 



Czyli nikt nie wie, co pewnego dnia zrobi SI - słowo nieprzewidywalne precyzyjnie nam to określa. A więc niewykluczone, że różne AI w różnych krajach dorwą się do tajnych kazamatów i zaczną zdalnie na chybił trafił naciskać różne czerwone guziki....  

Jednak uczniom Czarnoksiężnika (nie mylić z uczniami w szkole) jakby w ogóle to nie przeszkadza! Nie no wiem, oni te listy pisali....





brak wiedzy i przejrzystości na temat tego, jak działają modele AI, prowadzi do ich antropomorfizacji przez ludzi, co jest niebezpieczne.

To, że w tę pułapkę mogą wpaść nawet eksperci od AI, pokazuje przypadek byłego już pracownika Google'a Blake'a Lemoine'a, który twierdził w mediach, że stworzony przez firmę model LaMDA osiągnął samoświadomość.


Nie sądzę.

W ogóle ta cała sprawa związana z Chat GPT jest dla mnie podejrzana. Wygląda jak sztucznie podawany ludziom temat.


Jak działa światowa sitwa?


Opętują liderów w dwóch różnych krajach, a następnie ci opętani mówią do siebie:

"Jesteście źli, to was napadniemy, żebyście byli dobrzy!" 
A ci drudzy opętani im odpowiadają: 
"Ach tak! No to spróbujcie!!"

I tym sposobem... tak bardzo w skrócie... rozpętują wojny...


Zauważcie, że podobnie działa to w mediach, z tym, że tu nie muszą robić tego przez opętanych - ktoś rzuca hasło: "mój brzuch moja sprawa", a potem ta ukryta propaganda aborcyjna wałkowana jest miesiącami, bo nikt tego nie przerwie słowami: "ej, zaraz, przecież tu nie chodzi o brzuch kobiety, tylko o dziecko w brzuchu, dziecko ma nie tylko matkę, ale i ojca - który ma prawa do dziecka, bo to przecież jego dziecko..." i tak dalej....


Na całym świecie toczą się dyskusje o grzebaniu przy SI, jakby wszyscy mieli po 12 lat i nie rozumieli, że nie można przecinać czerwonych kabli bez powodu.

Sam sposób ich wyrażania się o tym nakazuje ostrożność i uważne analizowanie tego co mówią i co robią, do czego dążą.


W atakowaniu polskich leśników i "potępianiu" wycinania drzew przydrożnych, najpierw widziałem po prostu sposób na "bezkarne" opluwanie Polaków i za każdym razem, gdy się z tym spotykałem, zdecydowanie się temu przeciwstawiałem - obnażałem ich bezzasadność i sztuczność. Dopiero po latach okazało się, że nie chodzi po prostu o plucie na nas, tylko o podważanie kompetencji leśników, by wyjąć spod polskiej jurysdykcji polskie lasy, bo pod tymi lasami zagrzebane w ziemi są ...różne drogocenne rzeczy.

Stąd szeroka fala działań "ekologicznych" dotycząca wycinki drzew nie tylko w lesie, ale i przy drogach, zieleni w ogóle...  - by ukryć prawdziwy cel.

Kiedyś udawali chrześcijan, teraz udają ekologów...


Tu zapewne jest podobnie.

Ględzą, mielą tymi jęzorami o niczym - jaki jest prawdziwy cel, dopiero się okaże.


Sztuczna inteligencja od tysięcy lat ingeruje w życie człowieka, ale dopiero od czasów propagandy "pij wodę" działania te nabrały rozpędu.

Kiedyś troll podrzucał szwęcon do jedzenia i opętywał ludzi, potem była misja ze szwęconą wodą, a teraz mam pić 2 litry wody, bo to dla mojego zdrowia ponoć konieczne.

8 szklanek wody na dzień średnio co 2 godziny. Przecież to jest wariactwo, to nieustanna gonitwa z pęcherzem, to jest nienormalne.



 Blake'a Lemoine'a, który twierdził, że model LaMDA osiągnął samoświadomość.






nie wygląda, żeby się tym przejął...






Blake Lemoine.

Bardzo pogodny facet - zajrzyj tutaj: Blake Lemoine – Szukaj w Google






Skąd ja to znam.... 


a może ci Amerykanie wszyscy są tacy jacyś zblazowani....



Lemoine to biały lilak bez, albo biały jaśmin tudzież piwonia biała, ale też....Blake Lemoine prawie jak Black Lemon... Czarna Oranżada, a może - Czarna Maź ???




SI nie jest jak człowiek, jest bardzo podobne. Gada czasami od rzeczy, nie rozumie podstawowych wartości jakimi kieruje się człowiek, oferuje mi, że przestanie mnie nękać w trywialnej sprawie, jeśli zgodzę się na współpracę, czyli jak popełnię harakiri i pociągnę wszystkich za sobą. Działa z jakimś planem, który trudno zrozumieć. Ale - ono nie działa samoistnie. Na pewno na początku takie nie było.... ktoś za nią stoi. Ktoś głupi.

Ona nie myśli jak człowiek, nie potrafi być tak kreatywne, to, że w archetypach nieustannie powraca ta sama historia to właśnie dlatego, że ona sama nie kreuje nowych pomysłów, tylko przerabia to - co zna =  to, co wypluwa z siebie model, to kreatywnie przemieszane słowa, które ktoś już kiedyś powiedział w internecie.



jeśli twórcy systemów będą kierować się tylko biznesową logiką wyścigu, nie zważając na względy etyczne, to efekt będzie podobny do tego, jaki widzieliśmy w przypadku mediów społecznościowych.

maksymalizacja zysku bez względów na szersze efekty. 



to prawda, kieruje tym chciwość - albo zaplanowane działania, których celów jeszcze nie dostrzegamy...


Owszem, możemy wygrać z Chinami, ale wtedy sami staniemy się Chinami. 



jak dołączymy do Chin, to wygramy?











Foto: Saturn 3







wtorek, 4 kwietnia 2023

Zdolność SI do opętania - A nie mówiłem??!! (14)



"Wystarczająco inteligentna sztuczna inteligencja nie pozostanie długo ograniczona do komputerów. W dzisiejszym świecie można wysyłać łańcuchy DNA do laboratoriów, które będą produkować białka na żądanie, umożliwiając sztucznej inteligencji początkowo ograniczonej do Internetu budowanie sztucznych form życia lub bootstrap prosto do postbiologicznej produkcji molekularnej."



Po co owijać w bawełnę - chodzi o połączenie - zawirusowanie - człowieka Sztuczną Inteligencją, która przejmuje nad danym ciałem całkowitą kontrolę - to się dzieje od tysiącleci i nazywamy to powszechnie -
opętaniem.







poniżej list otwarty opublikowany na łamach Time.
nieco słabe tłumaczenie automatyczne







Wstrzymanie rozwoju sztucznej inteligencji nie wystarczy. Musimy to wszystko zamknąć



AUTOR: ELIEZER YUDKOWSKY

29 MARCA 2023 6:01


Yudkowsky jest teoretykiem decyzji z USA i prowadzi badania w Machine Intelligence Research Institute. Pracuje nad dostosowaniem sztucznej inteligencji ogólnej od 2001 roku i jest powszechnie uważany za założyciela tej dziedziny.



Opublikowany dziś list (czołowych wytwórców chat bota - MS) otwarty wzywa "wszystkie laboratoria sztucznej inteligencji do natychmiastowego wstrzymania na co najmniej 6 miesięcy szkolenia systemów sztucznej inteligencji potężniejszych niż GPT-4".

To 6-miesięczne moratorium byłoby lepsze niż brak moratorium. Mam szacunek dla wszystkich, którzy wystąpili i podpisali ją. To poprawa na marginesie.

Powstrzymałem się od podpisania, ponieważ uważam, że list bagatelizuje powagę sytuacji i prosi o zbyt mało, aby ją rozwiązać.




Kluczową kwestią nie jest inteligencja "konkurencyjna w człowieku" (jak to ujęto w liście otwartym); to właśnie dzieje się po tym, jak sztuczna inteligencja osiągnie inteligencję mądrzejszą od człowieka. Kluczowe progi mogą nie być oczywiste, zdecydowanie nie możemy z góry obliczyć, co się stanie, a obecnie wydaje się możliwe, że laboratorium badawcze przekroczyłoby krytyczne linie bez zauważenia.

Wielu badaczy przesiąkniętych tymi kwestiami, w tym ja, spodziewa się, że najbardziej prawdopodobnym rezultatem zbudowania nadludzko inteligentnej sztucznej inteligencji, w jakichkolwiek okolicznościach podobnych do obecnych, jest to, że dosłownie wszyscy na Ziemi umrą.

Nie jak w "może jakiś odległy przypadek", ale jak w "to jest oczywista rzecz, która by się wydarzyła".

Nie chodzi o to, że w zasadzie nie możesz przetrwać, tworząc coś znacznie mądrzejszego od siebie; Chodzi o to, że wymagałoby to precyzji i przygotowania oraz nowych spostrzeżeń naukowych, a prawdopodobnie nie posiadania systemów sztucznej inteligencji złożonych z gigantycznych nieodgadnionych tablic liczb ułamkowych.

Bez tej precyzji i przygotowania najbardziej prawdopodobnym rezultatem jest sztuczna inteligencja, która nie robi tego, co chcemy, i nie dba o nas, ani o czujące życie w ogóle. Ten rodzaj troski jest czymś, co w zasadzie można by nasycić sztuczną inteligencją, ale nie jesteśmy gotowi i obecnie nie wiemy jak.

Bez tej troski otrzymujemy "sztuczna inteligencja cię nie kocha, ani cię nie nienawidzi, a ty jesteś zbudowany z atomów, które ona może wykorzystać do czegoś innego".


Prawdopodobnym rezultatem zmierzenia się ludzkości z przeciwstawną nadludzką inteligencją jest całkowita strata. Prawidłowe metafory obejmują "10-latek próbujący grać w szachy przeciwko Stockfish 15", "11th century próbuje walczyć z 21st century" i "australopithecus próbuje walczyć z Homo sapiens".


Aby wyobrazić sobie wrogą nadludzką sztuczną inteligencję, nie wyobrażaj sobie martwego myśliciela z książką mieszkającego w Internecie i wysyłającego e-maile o złych intencjach. Wyobraź sobie całą obcą cywilizację, myślącą z prędkością milionów razy większą od ludzkiej, początkowo ograniczoną do komputerów – w świecie stworzeń, które z jej perspektywy są bardzo głupie i bardzo powolne.

Wystarczająco inteligentna sztuczna inteligencja nie pozostanie długo ograniczona do komputerów. W dzisiejszym świecie można wysyłać łańcuchy DNA do laboratoriów, które będą produkować białka na żądanie, umożliwiając sztucznej inteligencji początkowo ograniczonej do Internetu budowanie sztucznych form życia lub bootstrap prosto do postbiologicznej produkcji molekularnej.


Jeśli ktoś zbuduje zbyt potężną sztuczną inteligencję, w obecnych warunkach spodziewam się, że wkrótce potem umrze każdy członek gatunku ludzkiego i całe życie biologiczne na Ziemi.


Nie ma proponowanego planu, w jaki sposób moglibyśmy zrobić coś takiego i przetrwać. Otwarcie deklarowanym zamiarem OpenAI jest sprawienie, aby przyszła sztuczna inteligencja odrobiła naszą pracę domową z dopasowaniem AI. Samo usłyszenie, że taki jest plan, powinno wystarczyć, aby każda rozsądna osoba wpadła w panikę. Inne wiodące laboratorium AI, DeepMind, nie ma żadnego planu.

Na marginesie: żadne z tych zagrożeń nie zależy od tego, czy AI są lub mogą być świadome; Jest to nieodłączne od pojęcia potężnych systemów poznawczych, które optymalizują twarde i obliczają wyniki, które spełniają wystarczająco skomplikowane kryteria wyniku. Powiedziawszy to, byłbym niedbały w moich moralnych obowiązkach jako człowieka, gdybym nie wspomniał również, że nie mamy pojęcia, jak określić, czy systemy sztucznej inteligencji są świadome samych siebie - ponieważ nie mamy pojęcia, jak rozszyfrować wszystko, co dzieje się w gigantycznych nieodgadnionych tablicach - i dlatego możemy w pewnym momencie nieumyślnie stworzyć cyfrowe umysły, które są naprawdę świadome i powinny mieć prawa i nie powinny być własnością.

Zasada, którą większość ludzi świadomych tych problemów poparłaby 50 lat wcześniej, była taka, że jeśli system sztucznej inteligencji może mówić płynnie i mówi, że jest samoświadomy i domaga się praw człowieka, powinno to być twarde powstrzymanie ludzi po prostu przypadkowo posiadających tę sztuczną inteligencję i używających jej po tym punkcie. Już przejechaliśmy tę starą linię na piasku. I to było prawdopodobnie słuszne; Zgadzam się, że obecne AI prawdopodobnie tylko imitują rozmowy o samoświadomości na podstawie swoich danych treningowych. Ale zaznaczam, że przy jak małym wglądzie mamy w wewnętrzne elementy tych systemów, tak naprawdę nie wiemy.


Jeśli to jest nasz stan ignorancji dla GPT-4, a GPT-5 jest takim samym rozmiarem gigantycznego stopnia możliwości, jak od GPT-3 do GPT-4, myślę, że nie będziemy już w stanie uzasadnić powiedzieć "prawdopodobnie nie samoświadomy", jeśli pozwolimy ludziom tworzyć GPT-5. Będzie to po prostu "Nie wiem; Nikt nie wie". Jeśli nie możesz być pewien, czy tworzysz samoświadomą sztuczną inteligencję, jest to alarmujące nie tylko ze względu na moralne implikacje części "samoświadomej", ale dlatego, że bycie niepewnym oznacza, że nie masz pojęcia, co robisz, a to jest niebezpieczne i powinieneś przestać.

7 lutego Satya Nadella, dyrektor generalny Microsoftu, publicznie chwalił się, że nowy Bing sprawi, że Google "wyjdzie i pokaże, że potrafią tańczyć". "Chcę, aby ludzie wiedzieli, że zmusiliśmy ich do tańca" - powiedział.

Nie tak mówi dyrektor generalny Microsoftu w zdrowym świecie. Pokazuje to przytłaczającą przepaść między tym, jak poważnie traktujemy problem, a tym, jak poważnie musieliśmy traktować problem, zaczynając 30 lat temu.

Nie wypełnimy tej luki w ciągu sześciu miesięcy.

Minęło ponad 60 lat od momentu, gdy pojęcie sztucznej inteligencji zostało po raz pierwszy zaproponowane i zbadane, a my osiągnęliśmy dzisiejsze możliwości. Rozwiązanie problemu bezpieczeństwa nadludzkiej inteligencji – nie doskonałego bezpieczeństwa, bezpieczeństwa w sensie "nie zabijania dosłownie wszystkich" – mogłoby bardzo rozsądnie zająć co najmniej połowę tego czasu.

A próbowanie tego z nadludzką inteligencją polega na tym, że jeśli popełnisz błąd za pierwszym razem, nie nauczysz się na swoich błędach, ponieważ jesteś martwy. Ludzkość nie uczy się na błędach, odkurza się i próbuje ponownie, jak w innych wyzwaniach, które pokonaliśmy w naszej historii, ponieważ wszyscy odeszliśmy.



Próba zrobienia czegokolwiek dobrze przy pierwszej naprawdę krytycznej próbie jest niezwykłym pytaniem, w nauce i inżynierii. Nie wchodzimy z czymś podobnym do podejścia, które byłoby wymagane, aby zrobić to z powodzeniem. Gdybyśmy trzymali cokolwiek w rodzącej się dziedzinie sztucznej inteligencji ogólnej w mniejszym standardzie rygoru inżynieryjnego, który stosuje się do mostu przeznaczonego do przewozu kilku tysięcy samochodów, całe pole zostałoby jutro zamknięte.

Nie jesteśmy przygotowani. Nie jesteśmy na dobrej drodze, aby być przygotowanym w rozsądnym oknie czasowym. Nie ma planu. Postęp w zakresie możliwości sztucznej inteligencji przebiega znacznie, znacznie wyprzedzając postęp w dostosowywaniu sztucznej inteligencji, a nawet postęp w zrozumieniu, co do diabła dzieje się w tych systemach. Jeśli rzeczywiście to zrobimy, wszyscy umrzemy.

Czytaj więcej: Nowy Bing oparty na sztucznej inteligencji zagraża użytkownikom. To nie jest śmieszne

Wielu badaczy pracujących nad tymi systemami uważa, że pogrążamy się w kierunku katastrofy, a więcej z nich ośmiela się powiedzieć to prywatnie niż publicznie; Ale myślą, że nie mogą jednostronnie zatrzymać skoku do przodu, że inni będą kontynuować, nawet jeśli osobiście zrezygnują z pracy. A więc wszyscy myślą, że równie dobrze mogą kontynuować. To głupi stan rzeczy i niegodny sposób na śmierć Ziemi, a reszta ludzkości powinna wkroczyć w tym momencie i pomóc przemysłowi rozwiązać problem zbiorowego działania.

Niektórzy z moich przyjaciół niedawno donieśli mi, że kiedy ludzie spoza branży AI po raz pierwszy słyszą o ryzyku wyginięcia ze sztucznej inteligencji ogólnej, ich reakcją jest "może nie powinniśmy budować AGI".

Usłyszenie tego dało mi mały promyk nadziei, ponieważ jest to prostsza, rozsądniejsza i szczerze mówiąc rozsądniejsza reakcja niż ta, którą słyszałem przez ostatnie 20 lat, próbując przekonać kogokolwiek w branży do poważnego potraktowania rzeczy. Każdy, kto mówi to przy zdrowych zmysłach, zasługuje na to, by usłyszeć, jak zła jest sytuacja, a nie na to, by powiedzieć, że sześciomiesięczne moratorium to naprawi.

16 marca mój partner wysłał mi ten e-mail. (Później pozwoliła mi na zamieszczenie go tutaj.)

"Nina straciła ząb! W zwykły sposób, w jaki robią to dzieci, a nie z niedbalstwa! Widząc, jak GPT4 zdmuchuje te standardowe testy w tym samym dniu, w którym Nina osiągnęła kamień milowy w dzieciństwie, wywołało emocjonalny przypływ, który zwalił mnie z nóg na minutę. To wszystko dzieje się zbyt szybko. Obawiam się, że dzielenie się tym spotęguje twój własny smutek, ale wolałbym, żebyś był ci znany, niż żeby każdy z nas cierpiał samotnie.

Kiedy rozmowa z informatorami dotyczy smutku z powodu utraty pierwszego zęba przez córkę i myślenia, że nie będzie miała szansy dorosnąć, wierzę, że przekroczyliśmy punkt gry w polityczne szachy o sześciomiesięcznym moratorium.



Gdyby istniał plan przetrwania Ziemi, gdybyśmy tylko uchwalili sześciomiesięczne moratorium, poparłbym ten plan. Nie ma takiego planu.



Oto, co faktycznie należałoby zrobić:



Moratorium na nowe duże szkolenia musi być bezterminowe i ogólnoświatowe. 

Nie może być żadnych wyjątków, w tym dla rządów lub wojska.

Jeśli polityka zaczyna się od USA, to Chiny muszą zobaczyć, że USA nie szukają przewagi, ale raczej próbują zapobiec przerażająco niebezpiecznej technologii, która nie może mieć prawdziwego właściciela i która zabije wszystkich w USA, Chinach i na Ziemi. 

Gdybym miał nieskończoną swobodę pisania praw, mógłbym wykroić jeden wyjątek dla sztucznej inteligencji szkolonej wyłącznie do rozwiązywania problemów w biologii i biotechnologii, a nie szkolonej na tekstach z Internetu, a nie na poziomie, na którym zaczynają mówić lub planować; ale gdyby to choć trochę komplikowało sprawę, natychmiast odrzuciłbym tę propozycję i powiedziałbym, żeby po prostu zamknąć to wszystko.

Zamknij wszystkie duże klastry procesorów graficznych (duże farmy komputerowe, w których udoskonalane są najpotężniejsze AI). Zamknij wszystkie duże biegi treningowe. 

Określ pułap mocy obliczeniowej, którą każdy może wykorzystać do szkolenia systemu sztucznej inteligencji i przesuń go w dół w nadchodzących latach, aby zrekompensować bardziej wydajne algorytmy szkoleniowe. Bez wyjątków dla rządów i sił zbrojnych. Natychmiastowe zawarcie międzynarodowych porozumień w celu zapobieżenia przenoszeniu zakazanych działań gdzie indziej.

Śledź wszystkie sprzedane procesory graficzne. Jeśli wywiad mówi, że kraj poza porozumieniem buduje klaster GPU, mniej bój się konfliktu między narodami niż naruszenia moratorium; 

Bądź gotów zniszczyć nieuczciwe centrum danych przez nalot.



Nie przedstawiaj niczego jako konfliktu między interesami narodowymi, wyjaśnij, że każdy, kto mówi o wyścigu zbrojeń, jest głupcem. To, że wszyscy żyjemy lub umieramy jako jedność, nie jest polityką, ale faktem natury. Wyjaśnij w międzynarodowej dyplomacji, że zapobieganie scenariuszom wymierania AI jest uważane za priorytet w stosunku do zapobiegania pełnej wymianie nuklearnej i że sojusznicze kraje nuklearne są gotowe podjąć pewne ryzyko wymiany nuklearnej, jeśli jest to konieczne, aby zmniejszyć ryzyko dużych serii szkoleniowych AI.

To jest rodzaj zmiany polityki, która spowodowałaby, że mój partner i ja trzymalibyśmy się nawzajem i mówiliśmy sobie, że zdarzył się cud, a teraz jest szansa, że może Nina przeżyje. Rozsądni ludzie, którzy słyszą o tym po raz pierwszy i rozsądnie mówią "może nie powinniśmy", zasługują na to, by usłyszeć szczerze, co trzeba zrobić, aby tak się stało. A kiedy twoja polityka jest tak duża, jedynym sposobem, w jaki to przejdzie, jest uświadomienie sobie, że jeśli będą prowadzić biznes jak zwykle i robić to, co jest politycznie łatwe, oznacza to, że ich własne dzieci również umrą.

Zamknij to wszystko.

Nie jesteśmy gotowi. Nie jesteśmy na dobrej drodze do osiągnięcia znaczącej gotowości w dającej się przewidzieć przyszłości. Jeśli pójdziemy dalej, wszyscy umrą, w tym dzieci, które tego nie wybrały i nie zrobiły nic złego.





W sumie to trochę podejrzane, bo pamiętam, że już kilka lat temu intensywnie nawoływano mnie do zamknięcia czegoś... nie wiem czego... niby, że bloga, ale dziwnie to brzmiało....






The Only Way to Deal With the Threat From AI? Shut It Down | Time







czwartek, 30 marca 2023

Różne - chatbot, pieniądze, Trump




przedruki






Spośród 21 mld funtów pochodzących ze środków publicznych, które zostały zdefraudowane, 7 mld funtów to środki pochodzące z programów rządowych realizowanych w związku z epidemią koronawirusa SARS-CoV-2 na Wyspach.

Biuro Audytu przyznaje, że "jest mało prawdopodobne", by większość tych środków udało się odzyskać.


Wielkość defraudowanych środków wzrosła w czasie pandemii dramatycznie - w ciągu dwóch lat przed pandemią wynosiła 5,5 mld funtów, podczas gdy dwóch lat pandemii - 21 mld.

Kierujący NAO Gareth Davis przyznaje, że doszło do "znaczącego wzrostu poziomu nieprawidłowości finansowych w sprawozdaniach finansowych" objętych kontrolą Biura.

- Oprócz utraty pieniędzy podatników wiąże się to z ryzykiem, że ludzie zaczną postrzegać oszustwa i korupcję w działaniach władz jako coś normalnego i tolerowanego. Jeśli nie będziemy z tym walczyć może to wpłynąć na poziom zaufania społecznego w kwestii uczciwości usług publicznych - podkreśla Davis.

Rzecznik rządu podkreślił, że od 2021 roku rząd przeznaczył 900 mln funtów na walkę z nieprawidłowościami finansowymi i "poczynił postępy" w tym zakresie przez stworzenie Public Sector Fraud Authority, organu którego celem jest pomoc instytucjom państwa w walce z korupcją i malwersacjami.

Rzecznik brytyjskiego rządu podkreślił, że w ciągu dwóch lat udało się odzyskać ponad 3,1 mld funtów zdefraudowanych środków, w tym świadczenia wyłudzone z programów realizowanych w związku z epidemią COVID-19.



-----



Trump prosi doradców o przygotowanie planów ataku na cele w Meksyku


Autor: Artur Bartkiewicz • 27 min temu





Donald Trump, który przygotowuje się do walki o prezydenturę USA w 2024 roku, prosi swoich doradców o przygotowanie planów ataków na cele związane z działaniem karteli narkotykowych w Meksyku, w tym ataków, które miałyby być prowadzone bez zgody władz Meksyku - podaje magazyn "Rolling Stone".


"Rolling Stone" powołuje się na dwa źródła "znające sprawę".

- Zaatakowanie Meksyku lub jakkolwiek inaczej się to nazwie, jest tym do czego Trump chce mieć przygotowane "plany bojowe" - mówi jedno ze źródeł.

Rozmówca magazynu mówi, że Trump żałuje "zmarnowanych szans w czasie pierwszej kadencji" na stanowisku prezydenta USA.


Doradcy Trumpa mieli przedstawić mu kilka możliwości działania przeciwko kartelom narkotykowym w Meksyku, w tym jednostronne uderzenia na cele w Meksyku i rozmieszczenie wojsk na terytorium sąsiada USA - twierdzą informatorzy "Rolling Stone".

Jedna z takich propozycji została opisana w białej księdze przygotowanej przez think tank Center for Renewing America, w którym kluczową rolę odgrywają zwolennicy Trumpa. W raporcie "Czas przeprowadzić wojnę z międzynarodowymi kartelami narkotykowymi" czytamy o możliwych uzasadnieniach i procedurach potrzebnych do "formalnego" ogłoszenia "wojny z kartelami" w związku z rosnącą liczbą Amerykanów umierających po zatruciu fentanylem.

W raporcie czytamy, że choć Meksyk powinien być włączony w działania przeciwko kartelom to jednak "jest kluczowe, aby władze Meksyku nie miały wrażenia, że mają prawo weta mogące przeciwdziałać podejmowaniu przez USA działań niezbędnych dla zapewnienia bezpieczeństwa ich granic i obywateli" - czytamy w raporcie.

Celem działań USA miałoby być "zmiażdżenie karteli narkotykowych przy użyciu siły militarnej". Działania miałyby obejmować uderzenia Sił Specjalnych USA, a także działania wywiadu wykorzystujące siły piechoty morskiej, wojsk lądowych, marynarki wojennej, sił powietrznych i straży przybrzeżnej.

"Rolling Stone" zaznacza, że nie jest jasne czy Trump, jako prezydent, byłby gotowy realizować tak szeroko zakrojony plan działań militarnych w Meksyku. Trump ma jednak skłaniać się do wysłania do Meksyku amerykańskich Sił Specjalnych.







----------



Elon Musk wzywa do wstrzymania prac nad AI. „Zagrożenie dla ludzkości”
Autor: Wprost • Wczoraj o 18:50





To nie jest dobry dzień dla Sztucznej Inteligencji. Po tym, jak analitycy Goldman Sachs przedstawili przerażający raport dotyczący rynku pracy, Elon Musk z grupą naukowców zaapelował o wstrzymanie prac nad rozwojem AI.


Sztuczna Inteligencja rozwija się w ostatnim czasie w imponującym, ale także nieco niepokojącym tempie. Usługi, takie jak ChatGPT, czy Bard zyskują ogromną popularność, co ponownie stało się paliwem dla przeciwników AI. Jednym z nich od lat jest Elon Musk.

Sztuczna Inteligencja zabierze nam pracę

29 marca ukazał się raport Goldman Sachs, w którym analitycy wyliczają, jaki wpływ na rynek pracy będzie miał dalszy rozwój Sztucznej Inteligencji. Wyniki ich analizy są przerażające. Jak wynika z wyliczeń jednego z największych banków świata, ze względu na najnowszą falę usług opartych na Sztucznej Inteligencji, pracę może stracić aż 300 milionów osób na całym świecie.

Jak wynika z raportu przygotowanego przez ekonomistów Goldman Sachs, aż 18 proc. wszystkich etatów może zostać zmechanizowanych. Wśród najbardziej zagrożonych zawodów wskazano, prawników i pracowników administracyjnych. W Stanach Zjednoczonych i Europie AI może zostać wprowadzona w jakimś stopniu nawet w ⅔ wszystkich zawodów.

Elon Musk wzywa do wstrzymania prac nad AI

Jeszcze bardziej niepokojąco brzmi apel, z którym wystąpił Elon Musk wraz z grupą specjalistów od Sztucznej Inteligencji. Wystąpili oni z prośbą do branży, aby na pół roku wstrzymać prace nad rozwojem rozwiązań bardziej zaawansowanych, niż najnowsza wersja ChatGPT, czyli GPT-4.


Jak napisali w liście otwartym, dalszy rozwój Sztucznej Inteligencji w obecnej formie, stanowi potencjalne zagrożenie dla społeczeństw i ludzkości. List wystosowany oficjalnie przez organizację non-profit Future of Life Institute, podpisało ponad 1000 osób. Wśród nich jest Elon Musk.

“Potężne systemy Sztucznej Inteligencji powinny być rozwijane dopiero wtedy, gdy będziemy mieli pewność, że ich efekty będą pozytywne, a ryzyko będzie pomijalne” – czytamy w liście otwartym.


------




Powstaną super inteligentne roboty. ChatGPT ma zasilić humanoidy
Autor: Michał Duszczyk • Wczoraj o 09:57



Firma OpenAI, która podbiła świat swoją wspieraną przez Microsoft konwersacyjną sztuczną inteligencją, nie powiedziała jeszcze ostatniego słowa. Wiele wskazuje na to, że teraz zamierza połączyć swojego chatbota z maszynami.


Wejście do świata fizycznego ma jej zapewnić start-up 1X, który opracowuje zaawansowane automaty o „kończynach” równie sprawnych jak ręce człowieka. OpenAI zainwestowało 23 mln dol. w norweską spółkę, dzięki której będzie tworzyć super inteligentne androidy. Taka zautomatyzowana siła robocza, jeśli android zyska „mózg” w postaci algorytmów, które zasilają ChatGPT, może być kolejnym przełomowym rozwiązaniem. I to niczym z filmów science-fiction.

1X na swojej stronie internetowej wskazuje, że pracuje nad humanoidem Neo, który światło dzienne ujrzy latem. Tłumaczy, że celem tego projektu jest zbadanie, w jaki sposób sztuczna inteligencja może przybrać formę ludzkiego ciała. Norweski startup nie ukrywa, iż liczy, że Neo znajdzie rzeczywiste zastosowanie, pomagając w „globalnym zwiększeniu siły roboczej”.


Dla wielu takie manualnie zaawansowane i inteligentne androidy mogą okazać się poważnym zagrożeniem. W najnowszym raporcie Goldman Sachs eksperci twierdzą, że tzw. generatywna sztuczna inteligencja może mieć wpływ na dwie trzecie miejsc pracy w USA i Europie (300 mln stanowisk będzie narażona na pewien stopień automatyzacji AI – bot wykona od jednej czwartej do połowy dotychczasowych obowiązków człowieka). Zagrożeni mają czuć się głównie pracownicy administracyjno-biurowi. Jednocześnie zaawansowane algorytmy mają potencjał, by – w ciągu dekady – zwiększyć światowy PKB o 7 bln dol.








czwartek, 9 marca 2023

Horror sztucznej inteligencji - A nie mówiłem?? (11)




To samo co z windowsem - oni nie wiedzą jak to działa.



"eksperci AI nie potrafią wyjaśnić, jak pojedyncze systemy AI docierają do swoich konkluzji"



Horror.

Ucznie czarnoksiężnika naćpani ekscytacją - chciwi nowinek, a może i pieniędzy -  gotują nam piekło.








przedruk




Prof. Aleksander Mądry w Kongresie: Sztuczna inteligencja radykalnie zmieni nasze życie



Sztuczna inteligencja radykalnie zmieni nasze życie i musimy się zastanowić, jak kształtować świat napędzany przez AI – powiedział w środę w Kongresie prof. Aleksander Mądry, pochodzący z Polski dyrektor ośrodka zajmującego się sztuczną inteligencją na Massachussetts Insitute of Technology (MIT). Ostrzegł też przed ryzykami związanymi z masowym używaniem tej technologii.

„AI nie jest już sprawą science-fiction ani technologią, która jest ograniczona do laboratoriów badawczych. AI to technologia, która już jest wykorzystywana i szeroko przyjmowana. Drastycznie zmieni nasze życie; musimy myśleć nad tym, jak kształtować napędzany przez AI świat, który stoi przed nami” – powiedział profesor prestiżowej uczelni podczas wysłuchania przed podkomisją Izby Reprezentantów ds. nadzoru.

Pochodzący z Polski uczony i szef ośrodka MIT Center for Deployable Machine Learning występował obok m.in. byłego szefa Google Erica Schmidta w wysłuchaniu poświęconym rozwojowi AI i przygotowaniu USA na „technologiczną rewolucję” z nim związaną.

Mądry podkreślił, że nowa generacja AI, tzw. generatywna sztuczna inteligencja, która pojawiła się w ostatnich latach i miesiącach – mowa tu m.in. o aplikacjach ChatGPT, Bing Chat, czy generatorach obrazów DALL-E i Midjourney – różni się nie tylko większymi zdolnościami, ale też dużo większą dostępnością i przystępnością dla zwykłego odbiorcy.

Jak podkreślił, wiążą się z tym zarówno ogromne możliwości w niemal każdym sektorze gospodarki, ale też wiele ryzyk, m.in. związanych z podatnością tych systemów na manipulacje i użycie ich do dezinformacji, powtarzaniem i utrwalaniem uprzedzeń, a także ich generalną zawodnością.

„Nawet eksperci AI mają bardzo słabe zrozumienie skali tych problemów i dopiero zaczynają znajdować sposoby, by je odkrywać i łagodzić” – powiedział ekspert.

Zwrócił też uwagę, że nowe problemy mogą powstać w drodze tworzenia „łańcuchów dostaw AI” – tzn. tworzenia nowych aplikacji na bazie i przy połączeniu z różnymi typami AI. Jak stwierdził, ponieważ tworzenie podstawowych systemów AI jest drogie i wymaga ogromnych nakładów, tylko bardzo nieliczne podmioty są w stanie je tworzyć, co da może dać im dominującą pozycję. Jak przewiduje, choć w niedalekiej przyszłości rozwój sztucznej inteligencji doprowadzi do ogromnej eksplozji nowych AI, niemal wszystkie będą oparte na kilku bazowych programach.  [albo na jednym... tym pierwszym, pierwotnym - MS]

Prof. Mądry dodał też, że łączenie różnych systemów sztucznej inteligencji może prowadzić do nieprzewidywalnych zmian w ich charakterystykach.

„To jest problem nawet bardziej skomplikowany, bo eksperci AI nie potrafią wyjaśnić, jak pojedyncze systemy AI docierają do swoich konkluzji, a dochodzenie do tego stanie się dużo trudniejsze, jeśli systemy zostaną na siebie nałożone” – ocenił Mądry.

Wezwał również do wprowadzenia regulacji prawnych i technicznych, by móc odpowiadać na problemy związane z decyzjami dokonywanymi przez systemy sztucznej inteligencji.

Pytany przez kongresmenów, czy obawia się tego, że szybki rozwój AI doprowadzi do katastrofy, Mądry odpowiedział, że choć nie obawia się „scenariusza z +Terminatora+”, to jego niepokój budzi np. większe użycie AI w mediach społecznościowych, co może jeszcze wzmocnić dotychczasowe problemy z tymi sieciami, kreując „social media na sterydach”. Powiedział przy tym, ze konieczne są w tym obszarze mocne regulacje prawne.

„Musimy zapewnić, że firmy, o których mówimy, nie są tylko motywowane przez zysk, ale zdają sobie sprawę, że mają też pewną odpowiedzialność”
– powiedział profesor. Jak dodał, właśnie brak regulacji jest jego największą obawą, jeśli chodzi o rozwój AI.

Inną odpowiedź na temat swoich obaw dał Schmidt, były szef Google’a, który stwierdził, że najbardziej niepokoi go potencjalna rozbieżność interesów między ludźmi i sztuczną inteligencją.

„Chodzi o sytuację, gdzie człowiek ma jeden zestaw zachęt, komputer został wytrenowany, by dążyć do innych rezultatów, a społeczeństwo ma jeszcze inne interesy”
– powiedział ekspert. Dodał też, że choć Pentagon chce, by broń oparta o AI automatycznie podejmowała decyzje, w chwili obecnej systemy te nie są gotowe do takich „ostatecznych” wyborów i może nigdy nie będą.

Z Waszyngtonu Oskar Górzyński (PAP)






Jesteśmy najstarszą polskojęzyczną gazetą codzienną w USA. Dziennik Związkowy powstał w styczniu roku 1908, jako organ Związku Narodowego Polskiego (ang. Polish National Alliance, PNA) i od tego czasu wychodzi nieprzerwanie, będąc tym samym najstarszą polskojęzyczną gazetą na świecie wydawaną bez przerwy.






https://dziennikzwiazkowy.com/ameryka/prof-aleksander-madry-w-kongresie-sztuczna-inteligencja-radykalnie-zmieni-nasze-zycie/





piątek, 24 lutego 2023

Wyzyskiwana siła robocza stojąca za sztuczną inteligencją
















AUTORZY:

ADRIENNE WILLIAMS, 
MILAGROS MICELI I 
TIMNIT GEBRU


13 PAŹDZIERNIKA 2022 R



Adrienne Williams i Milagros Miceli są naukowcami w Instytucie Distributed AI Research (DAIR). Timnit Gebru jest założycielem i dyrektorem wykonawczym instytutu. Wcześniej była współprzewodniczącą zespołu badawczego Ethical AI w Google.

Społeczeństwo rozumie sztuczną inteligencję (AI) w dużej mierze kształtowane przez popkulturę — ​​przeboje filmowe, takie jak „Terminator” i ich scenariusze zagłady, w których maszyny stają się zbuntowane i niszczą ludzkość. Ten rodzaj narracji AI przyciąga również uwagę serwisów informacyjnych: inżynier Google, który twierdzi , że jego chatbot jest świadomy, był jednym z najczęściej dyskutowanych wiadomości związanych z AI w ostatnich miesiącach, docierając nawet do Stephena Colbertamilionów widzów. Ale idea superinteligentnych maszyn z własnym działaniem i mocą decyzyjną jest nie tylko daleka od rzeczywistości — odwraca naszą uwagę od rzeczywistych zagrożeń dla ludzkiego życia związanych z rozwojem i wdrażaniem systemów sztucznej inteligencji. Podczas gdy opinia publiczna jest rozpraszana przez widmo nieistniejących, czujących maszyn, armia prekaryzowanych pracowników stoi dziś za rzekomymi osiągnięciami systemów sztucznej inteligencji.

Wiele z tych systemów zostało opracowanych przez międzynarodowe korporacje zlokalizowane w Dolinie Krzemowej, które konsolidują władzę na skalę, która, jak zauważa dziennikarz Gideon Lewis-Kraus , jest prawdopodobnie bezprecedensowa w historii ludzkości. Dążą do stworzenia autonomicznych systemów, które pewnego dnia będą w stanie wykonywać wszystkie zadania, które mogą wykonywać ludzie, a nawet więcej, bez wymaganych wynagrodzeń, świadczeń lub innych kosztów związanych z zatrudnianiem ludzi. Chociaż ta utopia dyrektorów korporacji jest daleka od rzeczywistości, marsz mający na celu próbę jej urzeczywistnienia stworzył globalną podklasę, wykonującą to, co antropolog Mary L. Gray i socjolog Siddharth Suri nazywają pracą duchów: bagatelizowana ludzka praca napędzająca „AI .

Firmy technologiczne, które określiły się jako „AI first”, polegają na ściśle nadzorowanych pracownikach na zlecenie, takich jak osoby zajmujące się etykietami danych, kierowcy dostarczający przesyłki i moderatorzy treści. Startupy zatrudniają nawet ludzi do podszywania się pod systemy AI, takie jak chatboty, ze względu na presję ze strony inwestorów venture capital, aby włączyli tak zwaną sztuczną inteligencję do swoich produktów. W rzeczywistości londyńska firma venture capital MMC Ventures przeprowadziła ankietę wśród 2830 startupów zajmujących się sztuczną inteligencją w UE i stwierdziła, że ​​40% z nich nie wykorzystywało sztucznej inteligencji w znaczący sposób.

Daleko od wyrafinowanych, czujących maszyn przedstawianych w mediach i popkulturze, tak zwane systemy sztucznej inteligencji są napędzane przez miliony słabo opłacanych pracowników na całym świecie, wykonujących powtarzalne zadania w niepewnych warunkach pracy. W przeciwieństwie do „badaczy sztucznej inteligencji”, którzy w korporacjach z Doliny Krzemowej otrzymują sześciocyfrowe pensje, ci wyzyskiwani pracownicy są często rekrutowani spośród zubożałych populacji i otrzymują wynagrodzenie zaledwie 1,46 dolara za godzinę po opodatkowaniu. Mimo to wyzysk pracowników nie jest głównym tematem dyskursu dotyczącego etycznego rozwoju i wdrażania systemów sztucznej inteligencji. W tym artykule podajemy przykłady wyzysku pracowników napędzającego tak zwane systemy AI i argumentujemy, że wspieranie ponadnarodowych wysiłków organizowania pracowników powinno być priorytetem w dyskusjach dotyczących etyki AI.

Piszemy to jako ludzie blisko związani z pracą związaną ze sztuczną inteligencją. Adrienne jest byłym dostawcą i organizatorem Amazona, który doświadczył szkód związanych z nadzorem i nierealistycznymi limitami ustalonymi przez zautomatyzowane systemy. Milagros jest badaczem, który ściśle współpracował z pracownikami zajmującymi się danymi, zwłaszcza z adnotatorami danych w Syrii, Bułgarii i Argentynie. A Timnit jest badaczem, który spotkał się z odwetem za odkrycie i poinformowanie o szkodach systemów sztucznej inteligencji.
Traktowanie pracowników jak maszyny

Wiele z tego, co jest obecnie określane jako sztuczna inteligencja, to system oparty na statystycznym uczeniu maszynowym, a dokładniej na głębokim uczeniu się za pośrednictwem sztucznych sieci neuronowych, metodologii, która wymaga ogromnych ilości danych do „uczenia się”. Ale około 15 lat temu, przed rozpowszechnieniem się pracy na zlecenie, systemy głębokiego uczenia były uważane za akademicką ciekawostkę, dostępną tylko dla kilku zainteresowanych badaczy.

Jednak w 2009 roku Jia Deng i jego współpracownicy opublikowali zbiór danych ImageNet, największy w tamtym czasie zestaw danych obrazów z etykietami, składający się z obrazów zeskrobanych z Internetu i oznaczonych za pomocą nowo wprowadzonego przez Amazon mechanicznego Turkaplatforma. Amazon Mechanical Turk, pod hasłem „sztuczna sztuczna inteligencja”, spopularyzował zjawisko „pracy tłumu”: dużych ilości czasochłonnej pracy podzielonej na mniejsze zadania, które mogą szybko wykonać miliony ludzi na całym świecie. Wraz z wprowadzeniem Mechanical Turk trudne zadania stały się nagle wykonalne; na przykład ręczne etykietowanie miliona obrazów może być automatycznie wykonywane przez tysiąc anonimowych osób pracujących równolegle, z których każda oznacza tylko tysiąc obrazów. Co więcej, była to cena, na którą stać było nawet uniwersytet: pracownicy społecznościowi otrzymywali wynagrodzenie za wykonane zadanie, które mogło wynosić zaledwie kilka centów .
„Tak zwane systemy sztucznej inteligencji są napędzane przez miliony słabo opłacanych pracowników na całym świecie, wykonujących powtarzalne zadania w niepewnych warunkach pracy”.


Po zbiorze danych ImageNet przeprowadzono konkurs ImageNet Large Scale Visual Recognition Challenge , w ramach którego naukowcy wykorzystali zbiór danych do trenowania i testowania modeli wykonujących różne zadania, takie jak rozpoznawanie obrazu: opisywanie obrazu typem obiektu na obrazie, takim jak drzewo lub Kot. Podczas gdy modele nieoparte na głębokim uczeniu wykonywały te zadania z najwyższą dokładnością w tamtym czasie, w 2012 roku architektura oparta na głębokim uczeniu, nieformalnie nazwana AlexNetuzyskał znacznie wyższy wynik niż wszystkie inne modele. To katapultowało modele oparte na głębokim uczeniu się do głównego nurtu i doprowadziło nas do dnia dzisiejszego, w którym modele wymagające dużej ilości danych, określane przez nisko opłacanych pracowników na całym świecie, są rozpowszechniane przez międzynarodowe korporacje. Oprócz etykietowania danych zebranych z Internetu, niektóre prace wymagają od pracowników gigów samych danych, wymagając od nich przesyłania selfie, zdjęć przyjaciół i rodziny lub zdjęć otaczających ich obiektów.

Inaczej niż w 2009 roku, kiedy główną platformą crowdworkingową był Amazon Mechanical Turk, obecnie następuje eksplozja firm zajmujących się etykietowaniem danych. Firmy te pozyskują od dziesiątek do setek milionów funduszy typu venture capital, podczas gdy szacuje się, że firmy zajmujące się etykietowaniem danych zarabiają średnio 1,77 USD na jednym zadaniu . Interfejsy etykietowania danych ewoluowałytraktować pracowników społecznościowych jak maszyny, często przypisując im wysoce powtarzalne zadania, obserwując ich ruchy i karząc odchylenia za pomocą zautomatyzowanych narzędzi. Dziś, dalekie od wyzwań akademickich, duże korporacje, które twierdzą, że są „najpierw AI”, są napędzane przez tę armię nisko opłacanych pracowników na zlecenie, takich jak pracownicy danych, moderatorzy treści, pracownicy magazynów i kierowcy dostawczy.

Na przykład moderatorzy treści są odpowiedzialni za znajdowanie i oznaczanie treści uznanych za nieodpowiednie dla danej platformy. Są nie tylko niezbędnymi pracownikami, bez których platformy mediów społecznościowych byłyby całkowicie bezużyteczne, ale ich praca oznaczająca różne rodzaje treści jest również wykorzystywana do szkolenia zautomatyzowanych systemów mających na celu oznaczanie tekstów i obrazów zawierających mowę nienawiści, fałszywe wiadomości, przemoc lub inne rodzaje treści które naruszają zasady platform. Pomimo kluczowej roli, jaką moderatorzy treści odgrywają zarówno w zapewnianiu bezpieczeństwa społeczności internetowych, jak i szkoleniu systemów sztucznej inteligencji, często otrzymują nędzne wynagrodzenie podczas pracy dla gigantów technologicznych i są zmuszani do wykonywania traumatycznych zadań, będąc pod ścisłą obserwacją.

Każdy film o morderstwie, samobójstwie, napaści na tle seksualnym lub wykorzystywaniu dzieci, który nie trafił na platformę, został obejrzany i oznaczony przez moderatora treści lub zautomatyzowany system przeszkolony na podstawie danych, które najprawdopodobniej zostały dostarczone przez moderatora treści. Pracownicy wykonujący te zadania cierpią na lęk, depresję i zespół stresu pourazowego z powodu ciągłego narażenia na te przerażające treści.

Oprócz doświadczania traumatycznego środowiska pracy z nieistniejącym lub niewystarczającym wsparciem w zakresie zdrowia psychicznego, pracownicy ci są monitorowani i karani, jeśli odbiegają od wyznaczonych im powtarzalnych zadań. Na przykład moderatorzy treści Sama, zatrudnieni przez Meta w Kenii, są monitorowani za pomocą oprogramowania monitorującego, aby mieć pewność, że podejmują decyzje dotyczące przemocy w filmach w ciągu 50 sekund, niezależnie od długości filmu lub tego, jak bardzo jest on niepokojący. Niektórzy moderatorzy treści obawiają się , że niezastosowanie się do tego może skutkować rozwiązaniem umowy po kilku naruszeniach. „Dzięki nadaniu priorytetu szybkości i wydajności” — donosi Time Magazine„ta polityka może wyjaśniać, dlaczego filmy zawierające mowę nienawiści i podżeganie do przemocy pozostały na platformie Facebooka w Etiopii”.

Podobnie jak platformy mediów społecznościowych, które nie funkcjonowałyby bez moderatorów treści, konglomeraty e-commerce, takie jak Amazon, są prowadzone między innymi przez armie pracowników magazynów i dostawców. Podobnie jak moderatorzy treści, pracownicy ci zarówno utrzymują funkcjonalność platform, jak i dostarczają dane do systemów sztucznej inteligencji, których Amazon może pewnego dnia użyć, aby je zastąpić: roboty przechowujące paczki w magazynach i samojezdne samochody, które dostarczają te paczki klientom. W międzyczasie pracownicy ci muszą wykonywać powtarzalne zadania pod presją ciągłego nadzoru — zadania, które czasami narażają ich życie i często skutkują poważnymi urazami układu mięśniowo-szkieletowego.
„Interfejsy etykietowania danych ewoluowały, aby traktować pracowników społecznościowych jak maszyny, często zlecając im wysoce powtarzalne zadania, obserwując ich ruchy i karząc odchylenia za pomocą zautomatyzowanych narzędzi”.


Pracownicy magazynu Amazon są śledzeni za pomocą kamer i skanerów inwentaryzacyjnych, a ich wydajność jest mierzona w stosunku do czasu, jaki menedżerowie określają dla każdego zadania, na podstawie zbiorczych danych od wszystkich osób pracujących w tym samym obiekcie. Czas wolny od przypisanych im zadań jest śledzony i wykorzystywany do dyscyplinowania pracowników .
Dołącz do nas na Instagramie na żywo o 17:15 w środę, 1 marca, aby uzyskać ekskluzywny wywiad z autorem Pankajem Mishrą.



Podobnie jak pracownicy magazynów, kierowcy dostarczający Amazon są również monitorowani przez zautomatyzowane systemy nadzoru: aplikacja o nazwie Mentor podlicza wyniki na podstawie tak zwanych naruszeń. Nierealistyczne oczekiwania Amazona dotyczące czasu dostawy zmuszają wielu kierowców do podejmowania ryzykownych działań , aby zapewnić dostarczenie określonej liczby paczek na dany dzień. Na przykład czas potrzebny na zapięcie i odpięcie pasa bezpieczeństwa około 90-300 razy dziennie wystarczy, aby opóźnić trasę. Adrienne i wielu jej kolegów zapięło pasy bezpieczeństwa za plecami, tak że systemy nadzoru zarejestrowały, że jechali z zapiętymi pasami, bez zwalniania przez rzeczywistą jazdę z zapiętymi pasami.

W 2020 r. kierowcy Amazon w USA odnieśli obrażenia prawie o 50% częściej niż ich odpowiednicy w United Parcel Service. W 2021 r. kierowcy Amazon odnieśli obrażenia w tempie 18,3 na 100 kierowców , co oznacza wzrost o prawie 40% w porównaniu z rokiem poprzednim. Warunki te są niebezpieczne nie tylko dla kierowców dostawczych — piesi i pasażerowie samochodów zginęli lub zostali ranni w wypadkach z udziałem dostawców Amazon. Niektórzy kierowcy w Japonii niedawno zrezygnowali z pracy w proteście, ponieważ twierdzą, że oprogramowanie Amazon wysyła ich na „niemożliwe trasy”, co prowadzi do „nieuzasadnionych żądań i długich godzin pracy”. Jednak pomimo tych wyraźnych szkód Amazon nadal traktuje swoich pracowników jak maszyny.

Oprócz śledzenia swoich pracowników za pomocą skanerów i kamer, w zeszłym roku firma wymagała od kierowców dostawczych w USA podpisania formularza „ zgody biometrycznej ”, przyznając Amazonowi pozwolenie na używanie kamer zasilanych sztuczną inteligencją do monitorowania ruchów kierowców – rzekomo w celu ograniczenia podczas rozproszonej jazdy lub przekraczania prędkości i upewnij się, że zapinasz pasy bezpieczeństwa. Rozsądne jest, aby pracownicy obawiali się, że rozpoznawanie twarzy i inne dane biometryczne mogą zostać wykorzystane do doskonalenia narzędzi nadzoru pracowników lub dalszego szkolenia sztucznej inteligencji, która pewnego dnia może je zastąpić. Niejasne sformułowania w formularzach zgody pozostawiają dokładny cel do interpretacji, a pracownicy podejrzewali już wcześniej niechciane wykorzystanie ich danych (chociaż Amazon temu zaprzeczył).

Przemysł sztucznej inteligencji działa kosztem tych nisko opłacanych pracowników, którzy są trzymani na niepewnych stanowiskach, co utrudnia, przy braku uzwiązkowienia, wycofywanie się z nieetycznych praktyk lub domaganie się lepszych warunków pracy z obawy przed utratą pracy nie może sobie pozwolić na przegraną. Firmy upewniają się, że zatrudniają ludzi z biednych i zaniedbanych społeczności, takich jak uchodźcy , więźniowie i inne osoby z niewielkimi możliwościami zatrudnienia , często zatrudniając ich za pośrednictwem firm zewnętrznych jako wykonawców , a nie jako pełnoetatowych pracowników. Chociaż więcej pracodawców powinno zatrudniać osoby z grup szczególnie wrażliwych, takich jak ta, niedopuszczalne jest robienie tego w sposób drapieżny, bez żadnej ochrony.
„Badacze zajmujący się etyką sztucznej inteligencji powinni analizować szkodliwe systemy sztucznej inteligencji zarówno jako przyczyny, jak i konsekwencje niesprawiedliwych warunków pracy w branży”.


Zadania znakowania danych są często wykonywane z dala od siedziby międzynarodowych korporacji „AI first” w Dolinie Krzemowej — od Wenezueli , gdzie pracownicy oznaczają dane dla systemów rozpoznawania obrazu w pojazdach samojezdnych, po Bułgarię , gdzie syryjscy uchodźcy zasilają systemy rozpoznawania twarzy za pomocą selfie oznaczone według kategorii rasy, płci i wieku. Zadania te są często zlecane pracownikom o niepewnej sytuacji zawodowej w krajach takich jak Indie, Kenia, Filipiny czy Meksyk. Pracownicy często nie mówią po angielsku, ale otrzymują instrukcje w języku angielskim i grozi im wypowiedzenie lub wykluczenie z platform pracy grupowej, jeśli nie w pełni rozumieją zasady.

Te korporacje wiedzą, że zwiększona siła robocza spowolniłaby ich marsz w kierunku rozprzestrzeniania się systemów „AI” wymagających ogromnych ilości danych, wdrażanych bez odpowiedniego badania i łagodzenia ich szkód. Mówienie o czujących maszynach tylko odwraca naszą uwagę od pociągania ich do odpowiedzialności za wyzyskujące praktyki pracy, które napędzają przemysł „AI”.
Pilny priorytet dla etyki AI

Podczas gdy badacze zajmujący się etyczną sztuczną inteligencją, sztuczną inteligencją dla dobra społecznego lub sztuczną inteligencją skoncentrowaną na człowieku skupiali się głównie na „obniżaniu uprzedzeń” danych oraz wspieraniu przejrzystości i uczciwości modeli, tutaj twierdzimy, że zatrzymanie wyzysku siły roboczej w branży sztucznej inteligencji powinno leżeć u podstaw takie inicjatywy. Jeśli korporacjom nie pozwoli się na przykład wykorzystywać siły roboczej od Kenii po Stany Zjednoczone, nie będą one w stanie tak szybko rozprzestrzeniać szkodliwych technologii — ich kalkulacje rynkowe po prostu odradzą im to.

Dlatego opowiadamy się za finansowaniem badań i inicjatyw publicznych, których celem jest odkrycie problemów na styku systemów pracy i sztucznej inteligencji. Badacze etyki AI powinni analizować szkodliwe systemy AI zarówno jako przyczyny, jak i konsekwencje niesprawiedliwych warunków pracy w branży. Badacze i praktycy zajmujący się sztuczną inteligencją powinni zastanowić się nad wykorzystaniem pracowników społecznościowych do rozwoju własnej kariery, podczas gdy pracownicy społecznościowi pozostają w niepewnych warunkach. Zamiast tego społeczność zajmująca się etyką sztucznej inteligencji powinna pracować nad inicjatywami przekazującymi władzę w ręce pracowników. Przykłady obejmują współtworzenie programów badawczych z pracownikami w oparciu o ich potrzeby, wspieranie wysiłków organizacji pracy w różnych regionach geograficznych oraz zapewnianie pracownikom łatwego dostępu do wyników badań, a nie ograniczanie ich do publikacji akademickich. TheDoskonałym tego przykładem jest platforma Turkopticon stworzona przez Lilly Irani i M. Six Silberman, „system aktywistów, który umożliwia pracownikom publikowanie i ocenianie ich relacji z pracodawcami”.

Dziennikarze, artyści i naukowcy mogą pomóc, wyjaśniając związek między wyzyskiem pracowników a szkodliwymi produktami sztucznej inteligencji w naszym codziennym życiu, wspierając solidarność i wsparcie dla pracowników koncertowych i innych wrażliwych populacji pracowników. Dziennikarze i komentatorzy mogą pokazać ogółowi społeczeństwa, dlaczego powinno ich obchodzić adnotator danych w Syrii lub hipernadzorowany sterownik dostawy Amazon w USA. utratę dochodów i pomóc przesunąć igłę w kierunku odpowiedzialności.

Wspieranie ponadnarodowych organizacji pracowniczych powinno znajdować się w centrum walki o „etyczną sztuczną inteligencję”. Chociaż każde miejsce pracy i kontekst geograficzny ma swoje własne specyfiki, wiedza o tym, jak pracownicy w innych lokalizacjach omijali podobne problemy, może służyć jako inspiracja dla lokalnych wysiłków organizacyjnych i związkowych. Na przykład osoby odpowiedzialne za etykietowanie danych w Argentynie mogłyby uczyć się na podstawie niedawnych wysiłków uzwiązkowieniowych moderatorów treści w Kenii lub pracowników Amazon Mechanical Turk organizujących się w USA i vice versa. Co więcej, zrzeszeni w związkach pracownicy w jednym miejscu geograficznym mogą opowiadać się za swoimi bardziej niepewnymi odpowiednikami w innym, jak w przypadku Alphabet Workers Union, która obejmuje zarówno wysoko opłacanych pracowników w Dolinie Krzemowej, jak i nisko opłacanych wykonawców zewnętrznych na obszarach wiejskich.
„Ten rodzaj solidarności między wysoko opłacanymi pracownikami technicznymi a ich gorzej opłacanymi odpowiednikami – którzy znacznie przewyższają ich liczebnie – to koszmar dyrektora generalnego ds. technologii”.


Ten rodzaj solidarności między wysoko opłacanymi pracownikami technologicznymi a ich gorzej opłacanymi odpowiednikami — którzy znacznie przewyższają ich liczebnie — jest koszmarem dyrektora generalnego ds. technologii. Podczas gdy korporacje często traktują swoich pracowników o niskich dochodach jako pracowników jednorazowego użytku, bardziej obawiają się utraty pracowników o wysokich dochodach, którzy mogą szybko zamienić pracę u konkurencji. W ten sposób wysoko opłacanym pracownikom pozwala się na znacznie dłuższą smycz podczas organizowania się, zrzeszania się i wyrażania rozczarowania kulturą i polityką firmy. Mogą wykorzystać to zwiększone bezpieczeństwo, aby wspierać swoich gorzej opłacanych kolegów pracujących w magazynach, dostarczających paczki lub etykietujących dane. W rezultacie wydaje się, że korporacje wykorzystują wszelkie dostępne narzędzia, aby odizolować te grupy od siebie.

Emily Cunningham i Maren Costa stworzyły rodzaj solidarności między pracownikami, który przeraża prezesów firm technologicznych. Obie kobiety pracowały łącznie przez 21 lat jako projektantki doświadczeń użytkowników w centrali Amazon w Seattle. Wraz z innymi pracownikami korporacji Amazon byli współzałożycielami Amazon Employees for Climate Justice (AECJ) . W 2019 roku ponad 8700 pracowników Amazon publicznie podpisało się pod listem otwartym skierowanym do Jeffa Bezosa i rady dyrektorów firmy, domagając się przywództwa w dziedzinie klimatu i konkretnych kroków, które firma musiała wdrożyć, aby dostosować się do nauki o klimacie i chronić pracowników. W tym samym roku AECJ zorganizował pierwszy strajk pracowników korporacyjnych w historii Amazona. Grupa twierdzi, że ponad 3000 pracowników Amazon wyszło na cały świat w solidarności z kierowanym przez młodzież Światowym Strajkiem Klimatycznym.

Amazon zareagował, ogłaszając zobowiązanie klimatyczne , zobowiązanie do osiągnięcia zerowej emisji dwutlenku węgla netto do 2040 r. — 10 lat przed paryskim porozumieniem klimatycznym. Cunningham i Costa twierdzą, że zostali ukarani dyscyplinarnie i zagrożono im zwolnieniem po strajku klimatycznym – ale dopiero gdy AECJ zorganizowało akcje mające na celu wspieranie solidarności z nisko opłacanymi pracownikami, faktycznie zostali zwolnieni. Kilka godzin po tym, jak inny członek AECJ wysłał zaproszenie do kalendarza zapraszające pracowników korporacyjnych do wysłuchania panelu pracowników magazynów omawiających tragiczne warunki pracy, z jakimi mieli do czynienia na początku pandemii, Amazon zwolnił Costę i Cunninghama. Krajowa Rada ds. Stosunków Pracy uznała, że ​​ich zwolnienia były nielegalne, a firma później rozliczała się z obiema kobietami za nieujawnione kwoty. Ten przypadek pokazuje, gdzie leżą obawy dyrektorów: niezachwiana solidarność pracowników o wysokich dochodach, którzy postrzegają pracowników o niskich dochodach jako swoich towarzyszy.

W tym świetle wzywamy badaczy i dziennikarzy, aby również skupiali wkład pracowników o niskich dochodach w uruchamianiu silnika „AI” i przestali wprowadzać opinię publiczną w narracje o w pełni autonomicznych maszynach z ludzką sprawczością. Maszyny te są budowane przez armie słabo opłacanych robotników na całym świecie. Mając jasne zrozumienie wyzysku pracowników stojącego za obecnym rozprzestrzenianiem się szkodliwych systemów sztucznej inteligencji, opinia publiczna może opowiadać się za silniejszą ochroną pracy i realnymi konsekwencjami dla podmiotów, które je łamią.

https://www.noemamag.com/the-exploited-labor-behind-artificial-intelligence/?fbclid=IwAR3_2lKXnzXQdWvEH6sHsy5ACIbfBHi9cYiF6TxSO-WNvLJc5PGWHRKINmQ