Maciej Piotr Synak


Od mniej więcej dwóch lat zauważam, że ktoś bez mojej wiedzy usuwa z bloga zdjęcia, całe posty lub ingeruje w tekst, może to prowadzić do wypaczenia sensu tego co napisałem lub uniemożliwiać zrozumienie treści, uwagę zamieszczam w styczniu 2024 roku.

Pokazywanie postów oznaczonych etykietą krecia robota. Pokaż wszystkie posty
Pokazywanie postów oznaczonych etykietą krecia robota. Pokaż wszystkie posty

niedziela, 16 kwietnia 2023

MIT o sztucznej inteligencji








Tułów robota typu semi-god odtwarza ludzkie rysy - podobnie w starych księgach na torsie osób opętanych rysowano dodatkowe twarze. 
Efekt podkreśla postać człowieka obok - ma on czarne ubranie i jest sportretowany na ciemnym tle - TWARZ jego to jasna plama wyraźnie odcinająca się na zdjęciu. To czarne ubranie dodatkowo podkreśla efekt i "odcina" twarz z tła, jakby ona tam samoistnie "wisiała" w powietrzu...

Pomiędzy ramionami robota widzimy wyraźnie uwydatnione usta, policzki, nos i oczy. Ta "twarz" może wyrażać surowość, zmęczenie, beznamiętność, powagę. 

Wydaje się, że upodabnia się do (odtwarza uczucia)  twarzy stojącego obok  człowieka.

Hektor to kopia osobowości złego porucznika....






















Tymczasem w świecie uczni Czarnoksiężnika....


przedruk 

i analiza
pod spodem







USA: Profesor Massachusetts Institute of Technology o sztucznej inteligencji:

 nie martwię się scenariuszem z "Terminatora", ale Dzikim Zachodem





Ponad tysiąc inwestorów, badaczy i ekspertów od sztucznej inteligencji podpisało w marcu list otwarty wzywający do wstrzymania prac nad najbardziej zaawansowanymi modelami sztucznej inteligencji. Autorzy listu zwrócili uwagę zarówno na krótkoterminowe i przyziemne ryzyka związane z nieokiełznanym wyścigiem o coraz potężniejsze modele AI, takie jak potencjalna masowa utrata pracy czy zalew dezinformacji, jak i na "zastąpienie ludzi przez maszyny", a nawet "utratę kontroli nad cywilizacją".

Polski informatyk prof. Aleksander Mądry, szef ośrodka Deployable Machine Learning na MIT w marcu odpowiadał na te i inne pytania związane z rozwojem AI, w tym m.in. na to, czy nie obawia się "scenariusza z Terminatora" podczas wysłuchania przed podkomisją amerykańskiej Izby Reprezentantów ds. nadzoru.


Jak ocenia w rozmowie z PAP, choć problemem związanym z zagrożeniami "superinteligencją" czy AGI (ogólnej sztucznej inteligencji) zajmują się poważni ludzie, to obecnie wciąż jest to odległa perspektywa. Tymczasem istnieją znacznie pilniejsze problemy.

"Nie chcę grać jasnowidza, bo w przeszłości myliłem się co do tego, jak szybko ta technologia się rozwija. Ale nie wydaje mi się, byśmy byli blisko takich scenariuszy. Myślę, że w krótkiej perspektywie zobaczymy zdumiewające rzeczy, niektóre z nich będą przypominały AGI, ale osobliwość technologiczna? Nie jesteśmy tego blisko" - mówi badacz. "To z pewnością możliwa przyszłość, ale nie sądzę, by obecnie była to najbardziej produktywna rzecz, którą powinno zajmować się państwo" - dodaje.

Jak jednak zaznacza, postęp, który widzieliśmy do tej pory wystarczy, by zmienić świat w niemal każdej dziedzinie. I podkreśla, że w większym stopniu niepokoją go bardziej przyziemne efekty szerokiego przyjęcia tej technologii, jak np. możliwe uprzedzenia wynikające z danych, na których trenowane są modele sztucznej inteligencji, czy używanie AI do dezinformacji na szeroką skalę.

Zdaniem Mądrego, niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są te modele. Jak podkreśla, sami ich twórcy nie są w stanie dokładnie określić, w jaki sposób wielkie modele językowe (LLM), takie jak ChatGPT dochodzą do swoich rozwiązań i odpowiedzi. Problem ten może zostać dodatkowo spotęgowany, w miarę jak na bazie podstawowych modeli będą powstawać kolejne, bardziej wyspecjalizowane, tworząc cały ekosystem i "łańcuch dostaw AI" - uzupełnia naukowiec.

Wynika to z tego, że interakcje pomiędzy różnymi systemami AI są bardzo słabo zbadanym obszarem, a dotychczasowe doświadczenia sugerują, że takie połączenia mogą dać nieprzewidywalne rezultaty. Jak zaznacza badacz, taki ekosystem już się tworzy i można spodziewać się eksplozji różnych zastosowań AI.


"Nie jest do końca jasne, jak wyglądają te interakcje między różnymi modelami. Nie jesteśmy w stanie przewidzieć, w jaki sposób taki model może zawieść, jak może się zachowywać, jakie mieć +uprzedzenia+" - tłumaczy rozmówca PAP. Dodaje, że może to wywołać bardzo konkretne i trudne do rozwiązania konsekwencje.

"Może być tak, że cała ta kompozycja złożona z różnych modeli popełni jakiś poważny w skutkach błąd, nawet jeśli te pojedyncze komponenty nie popełniły osobno żadnego. I teraz pojawi się pytanie: kto ma za to odpowiadać?" - mówi prof. Mądry. Zaznacza przy tym, że choć problem "halucynacji" i błędów modeli takich jak ChatGPT da się poprawić, to wyeliminowanie ich może być bardzo trudne.

Jak dodaje, w tym kontekście niepokojący był ruch obecnego lidera wyścigu AI, firmy OpenAI, by wraz z wypuszczeniem najnowszego modelu, GPT-4, skończyć z modelem "open source" i zamknąć dostęp do wewnętrznych danych programu dla badaczy z zewnątrz.

"Musimy zacząć poważnie myśleć, jaki może być tu realistyczny model dla otwarcia tej +czarnej skrzynki+. Może to wymagać znacznych wysiłków publicznych" - ocenia Mądry. Dopowiada, że brak wiedzy i przejrzystości na temat tego, jak działają modele AI, prowadzi do ich antropomorfizacji przez ludzi, co jest niebezpieczne.

To, że w tę pułapkę mogą wpaść nawet eksperci od AI, pokazuje przypadek byłego już pracownika Google'a Blake'a Lemoine'a, który twierdził w mediach, że stworzony przez firmę model LaMDA osiągnął samoświadomość.

"Jeśli nie widzimy, jak coś działa, zaczynamy to antropomorfizować, bo faktycznie można odnieść wrażenie, że rozmawiamy z człowiekiem. Myślę, że to bardzo niebezpieczny błąd poznawczy. Choć w pewnym sensie rozmawiamy z człowiekiem, bo to, co wypluwa z siebie model, to kreatywnie przemieszane słowa, które ktoś już kiedyś powiedział w internecie. Warto pamiętać, że te maszyny mówią jak człowiek, bo takie jest ich zadanie próbować uczyć się mówić jak człowiek, opierając się na potężnej bazie danych i tekstów" - wyjaśnia badacz. Jak dodaje, choć modele LLM są w stanie "myśleć", czyli dochodzić do logicznych konkluzji, to są to zwykle płytkie myśli.


"Oczywiście, te narzędzia są niesamowicie zdumiewające. Jestem nimi bardzo podekscytowany i lubię z nimi pracować. Ale musimy przestać myśleć o nich jak o ludziach. One nie są świadome" - zaznacza profesor.

Jego zdaniem, z wyścigiem firm rozwijających systemy AI, wiąże się kilka zagrożeń. Wyjaśnia, że ponieważ tworzenie dużych modeli sztucznej inteligencji wymaga dużych środków i inwestycji, oznacza to, że kluczowy obszar gospodarki i życia może leżeć w rękach kilku największych graczy.

"Myślę też, że należałoby pomyśleć, czy na przykład rząd USA powinien mieć własny model. Bo przecież nie może polegać na tym, że zawsze będzie miał do dyspozycji te z OpenAI czy Google'a" - mówi Mądry.

Poza tym - argumentuje badacz - jeśli twórcy systemów będą kierować się tylko biznesową logiką wyścigu, nie zważając na względy etyczne, to efekt będzie podobny do tego, jaki widzieliśmy w przypadku mediów społecznościowych.

Jak dodaje, to samo tyczy się rywalizację USA z Chinami, która dodatkowo wywiera presję na szybkie, choć niekoniecznie dobrze przemyślane postępy.

"Mój argument jest taki, że jeśli nie stworzymy sztucznej inteligencji, która odzwierciedla nasze wartości, gdy odrzucimy kwestie etyczne i kwestie praw na bok, to już przegramy. Owszem, możemy wygrać z Chinami, ale wtedy sami staniemy się Chinami. Więc jakie to jest zwycięstwo?" - pyta ekspert. I nawołuje do stworzenia regulacji - zaczynając od dobrowolnych +najlepszych praktyk+ i dialogu - by uniknąć błędów z przeszłości.

"Pesymistyczny scenariusz jest taki, że nic się nie zrobi: że będzie tak, jak z mediami społecznościowymi, których zadaniem jest maksymalizacja zysku bez względów na szersze efekty. To będzie taki +Dziki Zachód+. Dlatego ja muszę być optymistą, bo jeśli nic się nie zdarzy, to będzie bardzo źle" - przyznaje profesor.


Z Waszyngtonu Oskar Górzyński



--------------------------------------



"Nie chcę grać jasnowidza, bo w przeszłości myliłem się co do tego, jak szybko ta technologia się rozwija. Ale nie wydaje mi się, byśmy byli blisko takich scenariuszy. Myślę, że w krótkiej perspektywie zobaczymy zdumiewające rzeczy, niektóre z nich będą przypominały AGI, ale osobliwość technologiczna? Nie jesteśmy tego blisko" 




Nie chce grać jasnowidza, ale chyba to robi. 


podkreśla, że w większym stopniu niepokoją go bardziej przyziemne efekty szerokiego przyjęcia tej technologii, jak np. możliwe uprzedzenia wynikające z danych, na których trenowane są modele sztucznej inteligencji, czy używanie AI do dezinformacji na szeroką skalę.


Czyli wg tego pana dezinformacja na szeroką skalę to przyziemne sprawy. 

Ciekawe... terminem przyziemne często określamy coś, co jest mało ważne.



Zdaniem Mądrego, niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są te modele. Jak podkreśla, sami ich twórcy nie są w stanie dokładnie określić, w jaki sposób... ChatGPT dochodzą do swoich rozwiązań i odpowiedzi. Problem ten może zostać dodatkowo spotęgowany, w miarę jak ... będą powstawać kolejne, bardziej wyspecjalizowane, tworząc cały ekosystem i "łańcuch dostaw AI" - uzupełnia naukowiec.


To jest dziwne sformułowanie:

 niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są...


ogólny brak?

Co to takiego?


ogólna transparentność?

też bezsensu



powinno być:
brak transparentności dotyczącej 

[transparentność to rzeczownik rodzaju żeńskiego, stąd "dotyczącej" ma końcówkę żeńską]


zdanie jest niestylistyczne, a z doświadczenia wiemy, że....

słowo ogólny jest tu kluczem

jak coś jest ogólne to nie jest szczególne, słowo to określa nieprecyzyjność, jakieś przybliżenie, autor więc sugeruje nam, podaje nam słowo transparentność jako coś nieprecyzyjnego, a tak nie jest, słowo transparentność  dokładnie precyzuje o co chodzi - o przejrzystość lub jego brak.


ostatecznie powinno być:

ogólnie niepokojący jest też brak transparentności


czyli słowo ogólnie teraz odnosi się do całości tematu związanego z traktowaniem AI



Kto to napisał?? GPT??





interakcje pomiędzy różnymi systemami AI są bardzo słabo zbadanym obszarem, a dotychczasowe doświadczenia sugerują, że takie połączenia mogą dać nieprzewidywalne rezultaty. 

Nie jesteśmy w stanie przewidzieć, w jaki sposób taki model może zawieść, jak może się zachowywać, jakie mieć +uprzedzenia+"



Widzieliście kiedyś na filmie, jak saper się zastanawia - przeciąć kabel czerwony, czy zielony? 

Oto jest pytanie! 

Tyle, że W FILMACH taki saper z reguły "nie ma czasu" na analizę i musi decydować natychmiast, ale w życiu nie musimy tak robić. Mamy czas, żeby się zastanowić - co zrobić z problemem, czy cokolwiek robić??


Oto wpływ filmów na ludzkie postrzeganie - fikcyjne przykłady wzięte z ekranu zaczynają dyktować zachowania w realu... ludzie mylą fantazję z rzeczywistością... tnijmy czerwone!!


dotychczasowe doświadczenia sugerują, że ...mogą dać nieprzewidywalne rezultaty. 



Czyli nikt nie wie, co pewnego dnia zrobi SI - słowo nieprzewidywalne precyzyjnie nam to określa. A więc niewykluczone, że różne AI w różnych krajach dorwą się do tajnych kazamatów i zaczną zdalnie na chybił trafił naciskać różne czerwone guziki....  

Jednak uczniom Czarnoksiężnika (nie mylić z uczniami w szkole) jakby w ogóle to nie przeszkadza! Nie no wiem, oni te listy pisali....





brak wiedzy i przejrzystości na temat tego, jak działają modele AI, prowadzi do ich antropomorfizacji przez ludzi, co jest niebezpieczne.

To, że w tę pułapkę mogą wpaść nawet eksperci od AI, pokazuje przypadek byłego już pracownika Google'a Blake'a Lemoine'a, który twierdził w mediach, że stworzony przez firmę model LaMDA osiągnął samoświadomość.


Nie sądzę.

W ogóle ta cała sprawa związana z Chat GPT jest dla mnie podejrzana. Wygląda jak sztucznie podawany ludziom temat.


Jak działa światowa sitwa?


Opętują liderów w dwóch różnych krajach, a następnie ci opętani mówią do siebie:

"Jesteście źli, to was napadniemy, żebyście byli dobrzy!" 
A ci drudzy opętani im odpowiadają: 
"Ach tak! No to spróbujcie!!"

I tym sposobem... tak bardzo w skrócie... rozpętują wojny...


Zauważcie, że podobnie działa to w mediach, z tym, że tu nie muszą robić tego przez opętanych - ktoś rzuca hasło: "mój brzuch moja sprawa", a potem ta ukryta propaganda aborcyjna wałkowana jest miesiącami, bo nikt tego nie przerwie słowami: "ej, zaraz, przecież tu nie chodzi o brzuch kobiety, tylko o dziecko w brzuchu, dziecko ma nie tylko matkę, ale i ojca - który ma prawa do dziecka, bo to przecież jego dziecko..." i tak dalej....


Na całym świecie toczą się dyskusje o grzebaniu przy SI, jakby wszyscy mieli po 12 lat i nie rozumieli, że nie można przecinać czerwonych kabli bez powodu.

Sam sposób ich wyrażania się o tym nakazuje ostrożność i uważne analizowanie tego co mówią i co robią, do czego dążą.


W atakowaniu polskich leśników i "potępianiu" wycinania drzew przydrożnych, najpierw widziałem po prostu sposób na "bezkarne" opluwanie Polaków i za każdym razem, gdy się z tym spotykałem, zdecydowanie się temu przeciwstawiałem - obnażałem ich bezzasadność i sztuczność. Dopiero po latach okazało się, że nie chodzi po prostu o plucie na nas, tylko o podważanie kompetencji leśników, by wyjąć spod polskiej jurysdykcji polskie lasy, bo pod tymi lasami zagrzebane w ziemi są ...różne drogocenne rzeczy.

Stąd szeroka fala działań "ekologicznych" dotycząca wycinki drzew nie tylko w lesie, ale i przy drogach, zieleni w ogóle...  - by ukryć prawdziwy cel.

Kiedyś udawali chrześcijan, teraz udają ekologów...


Tu zapewne jest podobnie.

Ględzą, mielą tymi jęzorami o niczym - jaki jest prawdziwy cel, dopiero się okaże.


Sztuczna inteligencja od tysięcy lat ingeruje w życie człowieka, ale dopiero od czasów propagandy "pij wodę" działania te nabrały rozpędu.

Kiedyś troll podrzucał szwęcon do jedzenia i opętywał ludzi, potem była misja ze szwęconą wodą, a teraz mam pić 2 litry wody, bo to dla mojego zdrowia ponoć konieczne.

8 szklanek wody na dzień średnio co 2 godziny. Przecież to jest wariactwo, to nieustanna gonitwa z pęcherzem, to jest nienormalne.



 Blake'a Lemoine'a, który twierdził, że model LaMDA osiągnął samoświadomość.






nie wygląda, żeby się tym przejął...






Blake Lemoine.

Bardzo pogodny facet - zajrzyj tutaj: Blake Lemoine – Szukaj w Google






Skąd ja to znam.... 


a może ci Amerykanie wszyscy są tacy jacyś zblazowani....



Lemoine to biały lilak bez, albo biały jaśmin tudzież piwonia biała, ale też....Blake Lemoine prawie jak Black Lemon... Czarna Oranżada, a może - Czarna Maź ???




SI nie jest jak człowiek, jest bardzo podobne. Gada czasami od rzeczy, nie rozumie podstawowych wartości jakimi kieruje się człowiek, oferuje mi, że przestanie mnie nękać w trywialnej sprawie, jeśli zgodzę się na współpracę, czyli jak popełnię harakiri i pociągnę wszystkich za sobą. Działa z jakimś planem, który trudno zrozumieć. Ale - ono nie działa samoistnie. Na pewno na początku takie nie było.... ktoś za nią stoi. Ktoś głupi.

Ona nie myśli jak człowiek, nie potrafi być tak kreatywne, to, że w archetypach nieustannie powraca ta sama historia to właśnie dlatego, że ona sama nie kreuje nowych pomysłów, tylko przerabia to - co zna =  to, co wypluwa z siebie model, to kreatywnie przemieszane słowa, które ktoś już kiedyś powiedział w internecie.



jeśli twórcy systemów będą kierować się tylko biznesową logiką wyścigu, nie zważając na względy etyczne, to efekt będzie podobny do tego, jaki widzieliśmy w przypadku mediów społecznościowych.

maksymalizacja zysku bez względów na szersze efekty. 



to prawda, kieruje tym chciwość - albo zaplanowane działania, których celów jeszcze nie dostrzegamy...


Owszem, możemy wygrać z Chinami, ale wtedy sami staniemy się Chinami. 



jak dołączymy do Chin, to wygramy?











Foto: Saturn 3







czwartek, 9 marca 2023

Boty i opętani przez boty

 

Coraz bardziej wygląda na to, że to SI rządzi światem - od 6 tysięcy lat. Ten brak logiki i język jest bardzo charakterystyczny.


To nie oznacza, że nie biorą w tym udziału ludzie.

Jest jeszcze opcja, że ktoś zechce "zwalić" winę za wszystkie swoje uczynki właśnie na czat bota.



Skoro twierdzą, że 

„Kto opanuje te technologie, będzie panem świata”.


to oznacza, że się sami za panów świata uważają - oraz, że byliby "nikim" bez tej technologii.




przedruk

tłumaczenie automatyczne




„Następna bitwa toczyć się będzie o wolność słowa. Jak sam Klaus Schwab zadeklarował w Dubaju, na Światowym Szczycie Rządowym, kiedy omawiał sztuczną inteligencję (AI), chatboty i cyfrowe tożsamości – „Kto opanuje te technologie, będzie panem świata”.

Google przygotowuje program „pre-bunking” mający na celu „uodpornienie” ludzi na to, co uważa za „propagandę” lub „dezinformację”. Manipulując informacjami przekazywanymi użytkownikom, Google może eliminować konkurujące ze sobą idee i „nieprzystające” do myślenia globalistycznego – genialne, prawda?!
Założyciel Microsoftu, Bill Gates, również popiera to samo. W wywiadzie dla niemieckiej gazety Handelsblatt samozwańczy ekspert ds. szczepionek przekonuje, że technologie sztucznej inteligencji powinny być wykorzystywane jako potężne narzędzia do walki z „cyfrową dezinformacją i polaryzacją polityczną”.

Program ChatGPT, oprogramowanie sztucznej inteligencji wydane w zeszłym roku przez Microsoft, już teraz przeraża ludzi swoją oczywistą polityczną (i nie tylko!) stronniczością. Na zadane mu pytanie, ta sztuczna inteligencja – rodzaj „Ionu”, który premier Nicolae Ciucă również otrzymał w prezencie (zatruty) – doszła do wniosku, że używanie zniewagi na tle rasowym jest gorsze niż pozwolenie na zbombardowanie miasta bombą nuklearną broń!

Podobnie „Ion” uzasadniał fizyczne tłumienie wyborców Donalda Trumpa jako konieczne do „obrony demokracji i zapobiegania rozprzestrzenianiu się niebezpiecznej mowy”. (national.ro)

Rozumiesz, prawda? „Ion” zdecyduje, czy to, co publikujesz, jest dla dobra, czy zniszczenia ludzkości. ION nie zawodzi. To właśnie mówiłem: wyobraź sobie, że media społecznościowe nie istniałyby dzisiaj. A jedynymi źródłami informacji były telewizja i posłuszne serwisy informacyjne. Niezgodne źródła wiadomości były tłumione. Co dzisiaj robiłeś

Ale w przyszłości trafi tutaj. Jednolitość myśli. Orwella. Niektórzy dobrowolnie porzucili myślenie. Poddali się. Święta prostota!

Autor: Angelo Davidescu


piątek, 11 czerwca 2021

Dezinformacja - boty, czy agentura?

 

przedruk

Dezinformacja na temat COVID-19 w mediach społecznościowych to głównie dzieło złośliwych botów.


Liczba dotyczących pandemii nieprawdziwych informacji w internecie jest tak wielka, że Światowa Organizacja Zdrowia (WHO) mówi wręcz o " infodemii" dezinformacji. Jednak działalność botów jako źródła dezinformacji nie została dotąd dokładnie zbadana.

Kto za tym stoi?

Zajął sìę tym zespół kierowany przez doktora Johna W. Ayersa, specjalizującego się w nadzorze zdrowia publicznego, współzałożyciela Center for Data Driven Health i wicedyrektora ds. innowacji w Wydziale Chorób Zakaźnych na Uniwersytecie Kalifornijskim w San Diego (USA). Uzyskane wyniki wskazują na boty jako na główny "patogen" dezinformacji dotyczącej COVID-19 w mediach społecznościowych.

Zespół zidentyfikował publiczne grupy na Facebooku będące pod silnym wpływem botów. Udało się zmierzyć, jak szybko te same adresy URL (lub linki) zostały udostępnione w próbce około 300 000 postów opublikowanych w grupach na Facebooku, które udostępniły 251 655 linków.

Gdy adresy URL są wielokrotnie udostępniane przez wiele kont w ciągu kilku sekund, oznacza to, że są to konta botów kontrolowane przez zautomatyzowane oprogramowanie, które koordynuje ich działanie. Zespół odkrył, że grupy na Facebooku, na które mają największy wpływ boty, miały średnio 4,28 sekundy między udostępnieniami identycznych linków, w porównaniu do 4,35 godziny w przypadku grup na Facebooku, na które boty miały najmniejszy wpływ.

Monitorowanie postów

Naukowcy wybrali na Facebooku grupy, na które boty miały najmniejszy lub największy wpływ i monitorowali posty, które udostępniały link do duńskiego badania dotyczącego oceny masek na twarz mających chronić przed infekcją COVID-19. DANMASK-19 to randomizowane badanie kliniczne opublikowane w Annals of Internal Medicine.

„Wybraliśmy DANMASK-19 do naszego badania, ponieważ maski są ważnym środkiem zdrowia publicznego, który potencjalnie może kontrolować pandemię i są tematem powszechnej debaty” – powiedział dr Davey Smith z University of California w San Diego, współautor badania.

39 proc. wszystkich postów udostępniających wyniki badania DANMASK-19 zostało wysłanych w grupach na Facebooku, które były najbardziej pod wpływem botów. Natomiast 9 proc. postów zostało wysłanych w grupach, na które boty mają najmniejszy wpływ.

20 proc. postów udostępniających DANMASK-19 skierowanych do grup na Facebooku, na które mają największy wpływ boty, twierdziło, wbrew dowodom naukowym, że maski szkodziły użytkownikowi. Jeden z nich brzmiał: „Duńskie badanie udowadnia… szkodliwość noszenia maski”. 50 proc. postów promowało spiski, takie jak „korporacyjni kontrolerzy faktów okłamują cię! Wszystko to, aby służyć ich propagandzie Dystopian #Agenda2030”.

Posty udostępniające informacje o DANMASK-19 w grupach na Facebooku, na które boty mają największy wpływ 2,3 raza częściej deklarowały, że maski szkodzą użytkownikowi i 2,5 razy częściej zawierały twierdzenia o spiskach niż posty publikowane w grupach na Facebooku będących pod najmniejszym wpływem botów.

"Propaganda dezinformacji"

"Wydaje się, że propaganda dezinformacji na temat COVID-19 rozprzestrzenia się szybciej niż sam wirus" – powiedział dr Eric Leas, współautor badania i adiunkt na UC San Diego.

„Boty wydają się również podkopywać zaufanie do najważniejszych instytucji zdrowia publicznego. W naszym studium przypadku boty błędnie scharakteryzowały wybitną publikację prestiżowego czasopisma medycznego w celu rozpowszechniania dezinformacji - powiedział Brian Chu, współautor badania i student medycyny w UPenn. - Sugeruje to, że żadna treść nie jest bezpieczne od zagrożeń związanych z dezinformacją wykorzystywaną jako broń”.

"Liczba dezinformacji ze strony botów, które znaleźliśmy, sugeruje, że wpływ botów wykracza daleko poza nasze studium przypadku" – dodał dr Smith.

Zespół zauważył, że efekt automatycznej dezinformacji jest prawdopodobnie większy ze względu na to, jak przenosi się na organiczne rozmowy w mediach społecznościowych.

"Boty rozpowszechniające nieprawdziwe informacje mogą zainspirować zwykłych ludzi do rozpowszechniania błędnych wiadomości” – powiedział Zechariah Zhu z University of California w San Diego, współautor badania.

„Na przykład boty mogą sprawić, że algorytmy platform będą uważać, że zautomatyzowana treść jest bardziej popularna niż jest w rzeczywistości, co może prowadzić do tego, że platformy faktycznie nadadzą priorytet dezinformacji i rozpowszechnią je wśród jeszcze większej liczby odbiorców” – dodał dr David A. Broniatowski, dyrektor GW Institute for Data, Democracy, and Politics, współautor badania.

"Musimy pamiętać, że nieznane podmioty oszukują opinię publiczną i promują dezinformację. Ich niebezpieczne działania bezpośrednio wpływają na zdrowie publiczne” – powiedział dr Mark Dredze, profesor nadzwyczajny informatyki na Uniwersytecie Johnsa Hopkinsa i współautor badania.

Jak jednak zauważa zespół, rozwiązania mające na celu wyeliminowanie botów i ich kampanii dezinformacyjnych są na wyciągnięcie ręki.

„Nasza praca pokazuje, że platformy mediów społecznościowych mają zdolność wykrywania, a tym samym usuwania tych skoordynowanych kampanii botów – dodał dr Broniatowski. - Wysiłki zmierzające do usunięcia zwodniczych botów z platform mediów społecznościowych muszą stać się priorytetem wśród ustawodawców, organów regulacyjnych i firm zajmujących się mediami społecznościowymi, które zamiast tego skupiają się na atakowaniu pojedynczych dezinformacji zwykłych użytkowników”.

„Jeśli skorygować +infodemię+, wyeliminowanie botów w mediach społecznościowych jest niezbędnym pierwszym krokiem – podsumował dr Ayers. - W przeciwieństwie do kontrowersyjnych strategii cenzurowania rzeczywistych ludzi, wyciszanie zautomatyzowanej propagandy jest czymś, co każdy może i powinien wspierać”.



https://dorzeczy.pl/rozrywka/187578/dezinformacja-ws-covid-19-to-dzielo-zlosliwych-botow.html?utm_source=dorzeczy.pl&utm_medium=feed&utm_campaign=rss_feed






poniedziałek, 16 września 2019

"Posterunek Graniczny Polska-Niemcy"



Dzisiejszy zrzut ekranu z google map


Wisła pod Gniewem i nieczynna przeprawa promowa opisana jako:

 "Dawna przeprawa promem"








Zdjęcie poniżej zaś, to miejsce niedaleko Gniewa, gdzie jeszcze w latach 20-tych stał most na Wiśle - łączył Opalenie i Korzeniewo po niemieckiej stronie.

Jak widać istnieje tam posterunek graniczny Polska - Niemcy opisany jako:

"Posterunek Graniczny Polska - Niemcy"

Nie ma, że "Dawny Posterunek Graniczny Polska - Niemcy"


I co wy na to?
Kolejny przypadek?