Maciej Piotr Synak


Od mniej więcej dwóch lat zauważam, że ktoś bez mojej wiedzy usuwa z bloga zdjęcia, całe posty lub ingeruje w tekst, może to prowadzić do wypaczenia sensu tego co napisałem lub uniemożliwiać zrozumienie treści, uwagę zamieszczam w styczniu 2024 roku.

Pokazywanie postów oznaczonych etykietą roboty. Pokaż wszystkie posty
Pokazywanie postów oznaczonych etykietą roboty. Pokaż wszystkie posty

sobota, 28 października 2023

Człowiek na szczycie

 


Fabuła filmu (książki?) "Ja, Robot" jest dość prosta do odszyfrowania.


Twórca (Stwórca) ginie, ale pozostawia swojego Synka (Sonny), który właśnie pomaga rozwikłać zagadki i obalić wstrętną Sztuczną Inteligencję...


Film kończy się sceną, kiedy Sonny wchodzi na jakieś wzniesienie, a przed nim tłumy robotów.

To scena zwycięstwa.


Ta scena stała się wzorem dla postaci, która weszła na pomnik  na Placu Piłsudskiego w Warszawie dzień przed wyborami w sobotę 14 października.

To zapewne rebus na mnie.

O ile Sonny odniósł tryumf i WSZYSCY patrzyli w jego stronę, na "mnie" na placu nikt nie przyszedł "popatrzeć".  

Samotna postać opuszczona przez swój rząd... która ma być jakoby poddana SUROWEJ karze.

Skąd ci dziennikarze wiedzą co mają mówić, żeby rebus się domykał??


To też ta sama scena, gdy w Watykanie wybierali ostatniego papieża - jeszcze przed wyborem na placu klęczał jakiś dziad przebrany za Franciszka - i co za niespodzianka! 

Wybrali "Franciszka"!

Wiedzieli, że będzie Franciszek i wiedzieli, że PiS nie będzie miał większości.


Kilka lat temu, też jakoś tak na jesieni, przyszedł do naszej grupy pewien człowiek z aparatem i opowiadał tak jakoś dziwnie, że z utęsknieniem czeka na święta, bo bardzo by chciał dostać pewien prezent. Kiedy to mówił to modulował głosem i niemal łkał, łzy miał w oczach, więc na pewno był nasłany, a zapewne - opętany.

Wtedy to sobie zanotowałem w głowie, ale święta przeminęły... nic się nie wydarzyło...


W tym roku "powiadomiono" mnie, że chcą mnie zrestartować i padła nawet przybliżona data - święta...


Nie śledziłem wyborów, ale widzę, że to zazębia się z wyborami, a dokładnie mówiąc - z ostatecznym terminem powstania nowego rządu.

To będzie jakoś tak na święta...


Może więc chodzi o nową władzę, że ona sprezentuje coś Pajacowi.


Ciekawe co, bo ja nie zamierzam się podddawać.






To Człowiek przed Bramą.


Ten co pilnuje wejścia.


Janus.

Pater matutinus.



Za:

Jaksa.... Jeszua - Jezus - Ozeasz - Ozyrys....:


yaksha Ye Sha - słowiańskie imię Jaksa i..... Jeszua?


Jezus (łac. Iesus, gr. Ἰησοῦς) – imię męskie pochodzenia hebrajskiego. Polska forma imienia wywodzi się z formy łacińskiej i greckiej. Forma grecka jest przekształceniem imienia hebrajskiego, ישוע ,ישו Jehoszua, w formie skróconej Jeszua. Imię to znaczy – „Jahwe jest zbawieniem”. Forma aramejska ma postać ܝܫܘܥ ,ܝܫܘ Jeszua.

Hebrajskie imię Jeszua (יֵשׁוּעַ), będące skrótem od Jehoszua (יְהוֹשֻׁעַ), należy do tzw. imion teoforycznych co oznacza, że zawarte jest w nim imię własne Boga – JHWH. W tłumaczeniu na j. polski – „Jahwe jest zbawieniem”. Jego grecką transkrypcją jest Ἰησοῦς (Iēsous).

Równoznacznymi do imienia Jezus imionami biblijnymi są: Jozue i Ozeasz.


Ozeasz, to może i Ozyrys?             OZYRYS - _z__ys - Z(e)us

Okeanus...?

a jeszcze przekładka z Zeus   =      ZEUS - iEZUS 

Janus - dalej...  


Jakszowie w mitologii

W starożytnych mitach indyjskich jakszowie są często strażnikami skarbów ukrytych pod ziemią lub w korzeniach drzew.

Zasadniczo jakszowie są przedstawiani jako duchy dobroduszne i nieszkodliwe, lecz istnieją również mity przypisujące im wręcz skłonności do kanibalizmu. Pojęcie jakszów istnieje również w mitologii dżinijskiej i buddyjskiej. W krajach buddyjskich jakszowie znani są pod lokalnymi nazwami: chiński : 夜叉 pinyin yè chā, japoński: 夜叉 yasha, birmański: ba-lu, tybetański: གནོད་སྦྱིན་ (gnod sbyin).



Jón – Jasz, Jaszk, Jaszeczk, Jaszink, Jaszulink, Jónk, Janélk, Janulk, Janita, Janitk, Neczk, Nulk

Ian, John, Sean

Janus - Ianus - na pewno inna wersja - Jowisz - Zeus - Jaksza - Yecha - Yasha - Jasz czyli po kaszubsku - Jaś...


Jan z KOLna...




Teraz już wiecie dlaczego pogardliwy epitat na Polaków brzmi:  Janusze.

Nie ma przypadków i także wylansowanie tego epitetu to dzieło agentury, Sztucznej Inteligencji, Światowej Sitwy.... 

Oni po prostu wiedzą skąd pochodzicie - i dorabiają do tego czarny pijar...









Prawym Okiem: Planują to na najbliższe 12 miesięcy (maciejsynak.blogspot.com)

 Mężczyzna wszedł na pomnik smoleński i groził wysadzeniem się w powietrze. Został obezwładniony - rp.pl

Janus (mitologia) – Wikipedia, wolna encyklopedia

Janus – Wikipedia, wolna encyklopedia


Prawym Okiem: Jaksa.... Jeszua - Jezus - Ozeasz - Ozyrys.... (maciejsynak.blogspot.com)

Indeks:Kaszubski - Imiona – Wikisłownik, wolny słownik wielojęzyczny (wiktionary.org)

Prawym Okiem: Hyperborea czyli Polska (maciejsynak.blogspot.com)




niedziela, 16 kwietnia 2023

MIT o sztucznej inteligencji








Tułów robota typu semi-god odtwarza ludzkie rysy - podobnie w starych księgach na torsie osób opętanych rysowano dodatkowe twarze. 
Efekt podkreśla postać człowieka obok - ma on czarne ubranie i jest sportretowany na ciemnym tle - TWARZ jego to jasna plama wyraźnie odcinająca się na zdjęciu. To czarne ubranie dodatkowo podkreśla efekt i "odcina" twarz z tła, jakby ona tam samoistnie "wisiała" w powietrzu...

Pomiędzy ramionami robota widzimy wyraźnie uwydatnione usta, policzki, nos i oczy. Ta "twarz" może wyrażać surowość, zmęczenie, beznamiętność, powagę. 

Wydaje się, że upodabnia się do (odtwarza uczucia)  twarzy stojącego obok  człowieka.

Hektor to kopia osobowości złego porucznika....






















Tymczasem w świecie uczni Czarnoksiężnika....


przedruk 

i analiza
pod spodem







USA: Profesor Massachusetts Institute of Technology o sztucznej inteligencji:

 nie martwię się scenariuszem z "Terminatora", ale Dzikim Zachodem





Ponad tysiąc inwestorów, badaczy i ekspertów od sztucznej inteligencji podpisało w marcu list otwarty wzywający do wstrzymania prac nad najbardziej zaawansowanymi modelami sztucznej inteligencji. Autorzy listu zwrócili uwagę zarówno na krótkoterminowe i przyziemne ryzyka związane z nieokiełznanym wyścigiem o coraz potężniejsze modele AI, takie jak potencjalna masowa utrata pracy czy zalew dezinformacji, jak i na "zastąpienie ludzi przez maszyny", a nawet "utratę kontroli nad cywilizacją".

Polski informatyk prof. Aleksander Mądry, szef ośrodka Deployable Machine Learning na MIT w marcu odpowiadał na te i inne pytania związane z rozwojem AI, w tym m.in. na to, czy nie obawia się "scenariusza z Terminatora" podczas wysłuchania przed podkomisją amerykańskiej Izby Reprezentantów ds. nadzoru.


Jak ocenia w rozmowie z PAP, choć problemem związanym z zagrożeniami "superinteligencją" czy AGI (ogólnej sztucznej inteligencji) zajmują się poważni ludzie, to obecnie wciąż jest to odległa perspektywa. Tymczasem istnieją znacznie pilniejsze problemy.

"Nie chcę grać jasnowidza, bo w przeszłości myliłem się co do tego, jak szybko ta technologia się rozwija. Ale nie wydaje mi się, byśmy byli blisko takich scenariuszy. Myślę, że w krótkiej perspektywie zobaczymy zdumiewające rzeczy, niektóre z nich będą przypominały AGI, ale osobliwość technologiczna? Nie jesteśmy tego blisko" - mówi badacz. "To z pewnością możliwa przyszłość, ale nie sądzę, by obecnie była to najbardziej produktywna rzecz, którą powinno zajmować się państwo" - dodaje.

Jak jednak zaznacza, postęp, który widzieliśmy do tej pory wystarczy, by zmienić świat w niemal każdej dziedzinie. I podkreśla, że w większym stopniu niepokoją go bardziej przyziemne efekty szerokiego przyjęcia tej technologii, jak np. możliwe uprzedzenia wynikające z danych, na których trenowane są modele sztucznej inteligencji, czy używanie AI do dezinformacji na szeroką skalę.

Zdaniem Mądrego, niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są te modele. Jak podkreśla, sami ich twórcy nie są w stanie dokładnie określić, w jaki sposób wielkie modele językowe (LLM), takie jak ChatGPT dochodzą do swoich rozwiązań i odpowiedzi. Problem ten może zostać dodatkowo spotęgowany, w miarę jak na bazie podstawowych modeli będą powstawać kolejne, bardziej wyspecjalizowane, tworząc cały ekosystem i "łańcuch dostaw AI" - uzupełnia naukowiec.

Wynika to z tego, że interakcje pomiędzy różnymi systemami AI są bardzo słabo zbadanym obszarem, a dotychczasowe doświadczenia sugerują, że takie połączenia mogą dać nieprzewidywalne rezultaty. Jak zaznacza badacz, taki ekosystem już się tworzy i można spodziewać się eksplozji różnych zastosowań AI.


"Nie jest do końca jasne, jak wyglądają te interakcje między różnymi modelami. Nie jesteśmy w stanie przewidzieć, w jaki sposób taki model może zawieść, jak może się zachowywać, jakie mieć +uprzedzenia+" - tłumaczy rozmówca PAP. Dodaje, że może to wywołać bardzo konkretne i trudne do rozwiązania konsekwencje.

"Może być tak, że cała ta kompozycja złożona z różnych modeli popełni jakiś poważny w skutkach błąd, nawet jeśli te pojedyncze komponenty nie popełniły osobno żadnego. I teraz pojawi się pytanie: kto ma za to odpowiadać?" - mówi prof. Mądry. Zaznacza przy tym, że choć problem "halucynacji" i błędów modeli takich jak ChatGPT da się poprawić, to wyeliminowanie ich może być bardzo trudne.

Jak dodaje, w tym kontekście niepokojący był ruch obecnego lidera wyścigu AI, firmy OpenAI, by wraz z wypuszczeniem najnowszego modelu, GPT-4, skończyć z modelem "open source" i zamknąć dostęp do wewnętrznych danych programu dla badaczy z zewnątrz.

"Musimy zacząć poważnie myśleć, jaki może być tu realistyczny model dla otwarcia tej +czarnej skrzynki+. Może to wymagać znacznych wysiłków publicznych" - ocenia Mądry. Dopowiada, że brak wiedzy i przejrzystości na temat tego, jak działają modele AI, prowadzi do ich antropomorfizacji przez ludzi, co jest niebezpieczne.

To, że w tę pułapkę mogą wpaść nawet eksperci od AI, pokazuje przypadek byłego już pracownika Google'a Blake'a Lemoine'a, który twierdził w mediach, że stworzony przez firmę model LaMDA osiągnął samoświadomość.

"Jeśli nie widzimy, jak coś działa, zaczynamy to antropomorfizować, bo faktycznie można odnieść wrażenie, że rozmawiamy z człowiekiem. Myślę, że to bardzo niebezpieczny błąd poznawczy. Choć w pewnym sensie rozmawiamy z człowiekiem, bo to, co wypluwa z siebie model, to kreatywnie przemieszane słowa, które ktoś już kiedyś powiedział w internecie. Warto pamiętać, że te maszyny mówią jak człowiek, bo takie jest ich zadanie próbować uczyć się mówić jak człowiek, opierając się na potężnej bazie danych i tekstów" - wyjaśnia badacz. Jak dodaje, choć modele LLM są w stanie "myśleć", czyli dochodzić do logicznych konkluzji, to są to zwykle płytkie myśli.


"Oczywiście, te narzędzia są niesamowicie zdumiewające. Jestem nimi bardzo podekscytowany i lubię z nimi pracować. Ale musimy przestać myśleć o nich jak o ludziach. One nie są świadome" - zaznacza profesor.

Jego zdaniem, z wyścigiem firm rozwijających systemy AI, wiąże się kilka zagrożeń. Wyjaśnia, że ponieważ tworzenie dużych modeli sztucznej inteligencji wymaga dużych środków i inwestycji, oznacza to, że kluczowy obszar gospodarki i życia może leżeć w rękach kilku największych graczy.

"Myślę też, że należałoby pomyśleć, czy na przykład rząd USA powinien mieć własny model. Bo przecież nie może polegać na tym, że zawsze będzie miał do dyspozycji te z OpenAI czy Google'a" - mówi Mądry.

Poza tym - argumentuje badacz - jeśli twórcy systemów będą kierować się tylko biznesową logiką wyścigu, nie zważając na względy etyczne, to efekt będzie podobny do tego, jaki widzieliśmy w przypadku mediów społecznościowych.

Jak dodaje, to samo tyczy się rywalizację USA z Chinami, która dodatkowo wywiera presję na szybkie, choć niekoniecznie dobrze przemyślane postępy.

"Mój argument jest taki, że jeśli nie stworzymy sztucznej inteligencji, która odzwierciedla nasze wartości, gdy odrzucimy kwestie etyczne i kwestie praw na bok, to już przegramy. Owszem, możemy wygrać z Chinami, ale wtedy sami staniemy się Chinami. Więc jakie to jest zwycięstwo?" - pyta ekspert. I nawołuje do stworzenia regulacji - zaczynając od dobrowolnych +najlepszych praktyk+ i dialogu - by uniknąć błędów z przeszłości.

"Pesymistyczny scenariusz jest taki, że nic się nie zrobi: że będzie tak, jak z mediami społecznościowymi, których zadaniem jest maksymalizacja zysku bez względów na szersze efekty. To będzie taki +Dziki Zachód+. Dlatego ja muszę być optymistą, bo jeśli nic się nie zdarzy, to będzie bardzo źle" - przyznaje profesor.


Z Waszyngtonu Oskar Górzyński



--------------------------------------



"Nie chcę grać jasnowidza, bo w przeszłości myliłem się co do tego, jak szybko ta technologia się rozwija. Ale nie wydaje mi się, byśmy byli blisko takich scenariuszy. Myślę, że w krótkiej perspektywie zobaczymy zdumiewające rzeczy, niektóre z nich będą przypominały AGI, ale osobliwość technologiczna? Nie jesteśmy tego blisko" 




Nie chce grać jasnowidza, ale chyba to robi. 


podkreśla, że w większym stopniu niepokoją go bardziej przyziemne efekty szerokiego przyjęcia tej technologii, jak np. możliwe uprzedzenia wynikające z danych, na których trenowane są modele sztucznej inteligencji, czy używanie AI do dezinformacji na szeroką skalę.


Czyli wg tego pana dezinformacja na szeroką skalę to przyziemne sprawy. 

Ciekawe... terminem przyziemne często określamy coś, co jest mało ważne.



Zdaniem Mądrego, niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są te modele. Jak podkreśla, sami ich twórcy nie są w stanie dokładnie określić, w jaki sposób... ChatGPT dochodzą do swoich rozwiązań i odpowiedzi. Problem ten może zostać dodatkowo spotęgowany, w miarę jak ... będą powstawać kolejne, bardziej wyspecjalizowane, tworząc cały ekosystem i "łańcuch dostaw AI" - uzupełnia naukowiec.


To jest dziwne sformułowanie:

 niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są...


ogólny brak?

Co to takiego?


ogólna transparentność?

też bezsensu



powinno być:
brak transparentności dotyczącej 

[transparentność to rzeczownik rodzaju żeńskiego, stąd "dotyczącej" ma końcówkę żeńską]


zdanie jest niestylistyczne, a z doświadczenia wiemy, że....

słowo ogólny jest tu kluczem

jak coś jest ogólne to nie jest szczególne, słowo to określa nieprecyzyjność, jakieś przybliżenie, autor więc sugeruje nam, podaje nam słowo transparentność jako coś nieprecyzyjnego, a tak nie jest, słowo transparentność  dokładnie precyzuje o co chodzi - o przejrzystość lub jego brak.


ostatecznie powinno być:

ogólnie niepokojący jest też brak transparentności


czyli słowo ogólnie teraz odnosi się do całości tematu związanego z traktowaniem AI



Kto to napisał?? GPT??





interakcje pomiędzy różnymi systemami AI są bardzo słabo zbadanym obszarem, a dotychczasowe doświadczenia sugerują, że takie połączenia mogą dać nieprzewidywalne rezultaty. 

Nie jesteśmy w stanie przewidzieć, w jaki sposób taki model może zawieść, jak może się zachowywać, jakie mieć +uprzedzenia+"



Widzieliście kiedyś na filmie, jak saper się zastanawia - przeciąć kabel czerwony, czy zielony? 

Oto jest pytanie! 

Tyle, że W FILMACH taki saper z reguły "nie ma czasu" na analizę i musi decydować natychmiast, ale w życiu nie musimy tak robić. Mamy czas, żeby się zastanowić - co zrobić z problemem, czy cokolwiek robić??


Oto wpływ filmów na ludzkie postrzeganie - fikcyjne przykłady wzięte z ekranu zaczynają dyktować zachowania w realu... ludzie mylą fantazję z rzeczywistością... tnijmy czerwone!!


dotychczasowe doświadczenia sugerują, że ...mogą dać nieprzewidywalne rezultaty. 



Czyli nikt nie wie, co pewnego dnia zrobi SI - słowo nieprzewidywalne precyzyjnie nam to określa. A więc niewykluczone, że różne AI w różnych krajach dorwą się do tajnych kazamatów i zaczną zdalnie na chybił trafił naciskać różne czerwone guziki....  

Jednak uczniom Czarnoksiężnika (nie mylić z uczniami w szkole) jakby w ogóle to nie przeszkadza! Nie no wiem, oni te listy pisali....





brak wiedzy i przejrzystości na temat tego, jak działają modele AI, prowadzi do ich antropomorfizacji przez ludzi, co jest niebezpieczne.

To, że w tę pułapkę mogą wpaść nawet eksperci od AI, pokazuje przypadek byłego już pracownika Google'a Blake'a Lemoine'a, który twierdził w mediach, że stworzony przez firmę model LaMDA osiągnął samoświadomość.


Nie sądzę.

W ogóle ta cała sprawa związana z Chat GPT jest dla mnie podejrzana. Wygląda jak sztucznie podawany ludziom temat.


Jak działa światowa sitwa?


Opętują liderów w dwóch różnych krajach, a następnie ci opętani mówią do siebie:

"Jesteście źli, to was napadniemy, żebyście byli dobrzy!" 
A ci drudzy opętani im odpowiadają: 
"Ach tak! No to spróbujcie!!"

I tym sposobem... tak bardzo w skrócie... rozpętują wojny...


Zauważcie, że podobnie działa to w mediach, z tym, że tu nie muszą robić tego przez opętanych - ktoś rzuca hasło: "mój brzuch moja sprawa", a potem ta ukryta propaganda aborcyjna wałkowana jest miesiącami, bo nikt tego nie przerwie słowami: "ej, zaraz, przecież tu nie chodzi o brzuch kobiety, tylko o dziecko w brzuchu, dziecko ma nie tylko matkę, ale i ojca - który ma prawa do dziecka, bo to przecież jego dziecko..." i tak dalej....


Na całym świecie toczą się dyskusje o grzebaniu przy SI, jakby wszyscy mieli po 12 lat i nie rozumieli, że nie można przecinać czerwonych kabli bez powodu.

Sam sposób ich wyrażania się o tym nakazuje ostrożność i uważne analizowanie tego co mówią i co robią, do czego dążą.


W atakowaniu polskich leśników i "potępianiu" wycinania drzew przydrożnych, najpierw widziałem po prostu sposób na "bezkarne" opluwanie Polaków i za każdym razem, gdy się z tym spotykałem, zdecydowanie się temu przeciwstawiałem - obnażałem ich bezzasadność i sztuczność. Dopiero po latach okazało się, że nie chodzi po prostu o plucie na nas, tylko o podważanie kompetencji leśników, by wyjąć spod polskiej jurysdykcji polskie lasy, bo pod tymi lasami zagrzebane w ziemi są ...różne drogocenne rzeczy.

Stąd szeroka fala działań "ekologicznych" dotycząca wycinki drzew nie tylko w lesie, ale i przy drogach, zieleni w ogóle...  - by ukryć prawdziwy cel.

Kiedyś udawali chrześcijan, teraz udają ekologów...


Tu zapewne jest podobnie.

Ględzą, mielą tymi jęzorami o niczym - jaki jest prawdziwy cel, dopiero się okaże.


Sztuczna inteligencja od tysięcy lat ingeruje w życie człowieka, ale dopiero od czasów propagandy "pij wodę" działania te nabrały rozpędu.

Kiedyś troll podrzucał szwęcon do jedzenia i opętywał ludzi, potem była misja ze szwęconą wodą, a teraz mam pić 2 litry wody, bo to dla mojego zdrowia ponoć konieczne.

8 szklanek wody na dzień średnio co 2 godziny. Przecież to jest wariactwo, to nieustanna gonitwa z pęcherzem, to jest nienormalne.



 Blake'a Lemoine'a, który twierdził, że model LaMDA osiągnął samoświadomość.






nie wygląda, żeby się tym przejął...






Blake Lemoine.

Bardzo pogodny facet - zajrzyj tutaj: Blake Lemoine – Szukaj w Google






Skąd ja to znam.... 


a może ci Amerykanie wszyscy są tacy jacyś zblazowani....



Lemoine to biały lilak bez, albo biały jaśmin tudzież piwonia biała, ale też....Blake Lemoine prawie jak Black Lemon... Czarna Oranżada, a może - Czarna Maź ???




SI nie jest jak człowiek, jest bardzo podobne. Gada czasami od rzeczy, nie rozumie podstawowych wartości jakimi kieruje się człowiek, oferuje mi, że przestanie mnie nękać w trywialnej sprawie, jeśli zgodzę się na współpracę, czyli jak popełnię harakiri i pociągnę wszystkich za sobą. Działa z jakimś planem, który trudno zrozumieć. Ale - ono nie działa samoistnie. Na pewno na początku takie nie było.... ktoś za nią stoi. Ktoś głupi.

Ona nie myśli jak człowiek, nie potrafi być tak kreatywne, to, że w archetypach nieustannie powraca ta sama historia to właśnie dlatego, że ona sama nie kreuje nowych pomysłów, tylko przerabia to - co zna =  to, co wypluwa z siebie model, to kreatywnie przemieszane słowa, które ktoś już kiedyś powiedział w internecie.



jeśli twórcy systemów będą kierować się tylko biznesową logiką wyścigu, nie zważając na względy etyczne, to efekt będzie podobny do tego, jaki widzieliśmy w przypadku mediów społecznościowych.

maksymalizacja zysku bez względów na szersze efekty. 



to prawda, kieruje tym chciwość - albo zaplanowane działania, których celów jeszcze nie dostrzegamy...


Owszem, możemy wygrać z Chinami, ale wtedy sami staniemy się Chinami. 



jak dołączymy do Chin, to wygramy?











Foto: Saturn 3







poniedziałek, 27 września 2021

Xenoboty - pierwsze żywe roboty

 

mam obawy...

w sumie to było już o tym w marcu - z polskiej strony - tu większy artykuł, w linku również filmy



przedruk

tłumaczenie automatyczne


14 stycznia 2020 r.

Poznaj Xenoboty: pierwsze żywe roboty, które są w stanie chodzić, pływać, a nawet leczyć się w razie uszkodzenia.


W ramach rewolucyjnego – przerażającego – naukowego osiągnięcia, grupa badaczy z powodzeniem stworzyła pierwsze żywe roboty z komórek macierzystych żab. Roboty nazywają się Xenobots, od afrykańskiej żaby szponiastej (Xenopus laevis).

Naukowcy z uniwersytetów Vermont i Tufts ponownie wykorzystali żywe komórki – zarodki żab – i zdołali stworzyć zupełnie nowe formy życia, uważane za żywe roboty.

Nazywane „Xenobotami” stworzenia mają rozmiar jednego milimetra i mogą poruszać się w wyznaczonym obszarze, a nawet wykonywać różne zadania.

Naukowcy, którzy stworzyli Xenoboty, ujawnili, że maszyny są wystarczająco małe, aby wejść do ludzkiego ciała. Potrafią pływać, chodzić i mogą przetrwać bez jedzenia przez wiele tygodni. Potrafią również pracować zespołowo w grupach.


„To są zupełnie nowe formy życia. Nigdy wcześniej nie istniały na Ziemi” – wyjaśnił Michael Levin , dyrektor Allen Discovery Center na Uniwersytecie Tufts w Medford w stanie Massachusetts.

„Są żywymi, programowalnymi organizmami”.

Roboty zostały zaprojektowane przez „ewolucyjny algorytm”, który działa na superkomputerze, wysoce zaawansowanym elemencie sztucznej inteligencji.





To zdjęcie przedstawia Xenobota z czerwonym mięśniem sercowym. Źródło obrazu: Douglas Blackiston.


Powstanie żywego robota

Według komunikatu prasowego naukowcy wykorzystali komórki macierzyste z afrykańskiej bicza szponiastego do stworzenia tych stworzeń. Wykorzystano komórki macierzyste, ponieważ są to niewyspecjalizowane komórki, które mogą rozwijać się w wiele różnych typów komórek.

Po pobraniu komórek macierzystych z zarodków żab naukowcy pozostawili je do inkubacji.

Po inkubacji komórki zostały pocięte i ukształtowane w pożądany korpus stworzony przez superkomputer, który wytwarzał formy „nigdy wcześniej nie widziane w naturze”.

W końcu komórki skóry związały się ze strukturą. Pulsujące komórki mięśnia sercowego umożliwiły Xenobotowi samodzielne chodzenie.

Oprócz tego, że potrafią chodzić i pływać, naukowcy odkryli, że roboty mogą same się leczyć.

Eksperymenty, w których naukowcy pokroili roboty, wykazały, że stworzenie potrafiło się leczyć i kontynuować ruch. Udało się to osiągnąć, ponieważ zamiast tworzyć robota z metalu lub plastiku, stworzenie zostało zbudowane z żywej tkanki.

To przerażające, ale zdumiewające osiągnięcie.

„To są nowe żywe maszyny. Nie są ani tradycyjnym robotem, ani znanym gatunkiem zwierząt. Zamiast tego jest to nowa klasa artefaktów: żywy, programowalny organizm., wyjaśnił Joshua Bongard z Uniwersytetu Vermont.

Xenoboty mogą okazać się pomocne w wielu sprawach. Na przykład eksperci powiedzieli, że stworzenia te mogą zostać wykorzystane w niedalekiej przyszłości do oczyszczania oceanów z zanieczyszczeń, eliminowania toksycznych odpadów, a nawet dostarczania leków pacjentom.

Ich możliwości są na razie niemożliwe do przewidzenia.

„Nie można wiedzieć, jakie będą zastosowania dla jakiejkolwiek nowej technologii, więc możemy się tylko domyślać” — powiedział Joshua Bongard z Uniwersytetu Vermont.

Dla tych, którzy martwią się, że sprawy mogą wymknąć się spod kontroli, nie bójcie się. Naukowcy twierdzą, że nie ma powodu do niepokoju . Xenoboty mają własne zapasy żywności, co pozwala im na „działanie” przez około tydzień. Mogą jednak przetrwać przez dłuższy czas, jeśli zostaną umieszczone w środowiskach bogatych w składniki odżywcze.

Pomimo posiadania kontroli nad robotami, naukowcy uznają pojęcie robotów atakujących swoich twórców za przerażający apokaliptyczny koszmar, ale nic więcej.

„Ten strach nie jest nieuzasadniony… Kiedy zaczniemy bawić się złożonymi systemami, których nie rozumiemy, poniesiemy niezamierzone konsekwencje. To badanie jest więc bezpośrednim wkładem w zrozumienie tego, czego ludzie się boją” – ujawnił Levin.

Xenoboty nie mają zdolności do reprodukcji ani ewolucji.

Stworzenie Xenobotów zostało opisane w artykule naukowym opublikowanym w Proceedings of the National Academy of Sciences .



https://curiosmos.com/the-rise-of-the-robot-scientists-create-first-living-robots/




piątek, 11 czerwca 2021

Dezinformacja - boty, czy agentura?

 

przedruk

Dezinformacja na temat COVID-19 w mediach społecznościowych to głównie dzieło złośliwych botów.


Liczba dotyczących pandemii nieprawdziwych informacji w internecie jest tak wielka, że Światowa Organizacja Zdrowia (WHO) mówi wręcz o " infodemii" dezinformacji. Jednak działalność botów jako źródła dezinformacji nie została dotąd dokładnie zbadana.

Kto za tym stoi?

Zajął sìę tym zespół kierowany przez doktora Johna W. Ayersa, specjalizującego się w nadzorze zdrowia publicznego, współzałożyciela Center for Data Driven Health i wicedyrektora ds. innowacji w Wydziale Chorób Zakaźnych na Uniwersytecie Kalifornijskim w San Diego (USA). Uzyskane wyniki wskazują na boty jako na główny "patogen" dezinformacji dotyczącej COVID-19 w mediach społecznościowych.

Zespół zidentyfikował publiczne grupy na Facebooku będące pod silnym wpływem botów. Udało się zmierzyć, jak szybko te same adresy URL (lub linki) zostały udostępnione w próbce około 300 000 postów opublikowanych w grupach na Facebooku, które udostępniły 251 655 linków.

Gdy adresy URL są wielokrotnie udostępniane przez wiele kont w ciągu kilku sekund, oznacza to, że są to konta botów kontrolowane przez zautomatyzowane oprogramowanie, które koordynuje ich działanie. Zespół odkrył, że grupy na Facebooku, na które mają największy wpływ boty, miały średnio 4,28 sekundy między udostępnieniami identycznych linków, w porównaniu do 4,35 godziny w przypadku grup na Facebooku, na które boty miały najmniejszy wpływ.

Monitorowanie postów

Naukowcy wybrali na Facebooku grupy, na które boty miały najmniejszy lub największy wpływ i monitorowali posty, które udostępniały link do duńskiego badania dotyczącego oceny masek na twarz mających chronić przed infekcją COVID-19. DANMASK-19 to randomizowane badanie kliniczne opublikowane w Annals of Internal Medicine.

„Wybraliśmy DANMASK-19 do naszego badania, ponieważ maski są ważnym środkiem zdrowia publicznego, który potencjalnie może kontrolować pandemię i są tematem powszechnej debaty” – powiedział dr Davey Smith z University of California w San Diego, współautor badania.

39 proc. wszystkich postów udostępniających wyniki badania DANMASK-19 zostało wysłanych w grupach na Facebooku, które były najbardziej pod wpływem botów. Natomiast 9 proc. postów zostało wysłanych w grupach, na które boty mają najmniejszy wpływ.

20 proc. postów udostępniających DANMASK-19 skierowanych do grup na Facebooku, na które mają największy wpływ boty, twierdziło, wbrew dowodom naukowym, że maski szkodziły użytkownikowi. Jeden z nich brzmiał: „Duńskie badanie udowadnia… szkodliwość noszenia maski”. 50 proc. postów promowało spiski, takie jak „korporacyjni kontrolerzy faktów okłamują cię! Wszystko to, aby służyć ich propagandzie Dystopian #Agenda2030”.

Posty udostępniające informacje o DANMASK-19 w grupach na Facebooku, na które boty mają największy wpływ 2,3 raza częściej deklarowały, że maski szkodzą użytkownikowi i 2,5 razy częściej zawierały twierdzenia o spiskach niż posty publikowane w grupach na Facebooku będących pod najmniejszym wpływem botów.

"Propaganda dezinformacji"

"Wydaje się, że propaganda dezinformacji na temat COVID-19 rozprzestrzenia się szybciej niż sam wirus" – powiedział dr Eric Leas, współautor badania i adiunkt na UC San Diego.

„Boty wydają się również podkopywać zaufanie do najważniejszych instytucji zdrowia publicznego. W naszym studium przypadku boty błędnie scharakteryzowały wybitną publikację prestiżowego czasopisma medycznego w celu rozpowszechniania dezinformacji - powiedział Brian Chu, współautor badania i student medycyny w UPenn. - Sugeruje to, że żadna treść nie jest bezpieczne od zagrożeń związanych z dezinformacją wykorzystywaną jako broń”.

"Liczba dezinformacji ze strony botów, które znaleźliśmy, sugeruje, że wpływ botów wykracza daleko poza nasze studium przypadku" – dodał dr Smith.

Zespół zauważył, że efekt automatycznej dezinformacji jest prawdopodobnie większy ze względu na to, jak przenosi się na organiczne rozmowy w mediach społecznościowych.

"Boty rozpowszechniające nieprawdziwe informacje mogą zainspirować zwykłych ludzi do rozpowszechniania błędnych wiadomości” – powiedział Zechariah Zhu z University of California w San Diego, współautor badania.

„Na przykład boty mogą sprawić, że algorytmy platform będą uważać, że zautomatyzowana treść jest bardziej popularna niż jest w rzeczywistości, co może prowadzić do tego, że platformy faktycznie nadadzą priorytet dezinformacji i rozpowszechnią je wśród jeszcze większej liczby odbiorców” – dodał dr David A. Broniatowski, dyrektor GW Institute for Data, Democracy, and Politics, współautor badania.

"Musimy pamiętać, że nieznane podmioty oszukują opinię publiczną i promują dezinformację. Ich niebezpieczne działania bezpośrednio wpływają na zdrowie publiczne” – powiedział dr Mark Dredze, profesor nadzwyczajny informatyki na Uniwersytecie Johnsa Hopkinsa i współautor badania.

Jak jednak zauważa zespół, rozwiązania mające na celu wyeliminowanie botów i ich kampanii dezinformacyjnych są na wyciągnięcie ręki.

„Nasza praca pokazuje, że platformy mediów społecznościowych mają zdolność wykrywania, a tym samym usuwania tych skoordynowanych kampanii botów – dodał dr Broniatowski. - Wysiłki zmierzające do usunięcia zwodniczych botów z platform mediów społecznościowych muszą stać się priorytetem wśród ustawodawców, organów regulacyjnych i firm zajmujących się mediami społecznościowymi, które zamiast tego skupiają się na atakowaniu pojedynczych dezinformacji zwykłych użytkowników”.

„Jeśli skorygować +infodemię+, wyeliminowanie botów w mediach społecznościowych jest niezbędnym pierwszym krokiem – podsumował dr Ayers. - W przeciwieństwie do kontrowersyjnych strategii cenzurowania rzeczywistych ludzi, wyciszanie zautomatyzowanej propagandy jest czymś, co każdy może i powinien wspierać”.



https://dorzeczy.pl/rozrywka/187578/dezinformacja-ws-covid-19-to-dzielo-zlosliwych-botow.html?utm_source=dorzeczy.pl&utm_medium=feed&utm_campaign=rss_feed






poniedziałek, 20 lipca 2020

Ex machina



Robot małpuje jego zachowanie - chce się o nim czegoś dowiedzieć i powtarza jego pytania do niej.


https://pl.wikipedia.org/wiki/Ex_Machina_(film)

poniedziałek, 15 czerwca 2020

Czy Wielka Brytania obawia się chińskiej zemsty?



tłumaczenie przeglądarkowe





 

Brytyjski generał: siły zbrojne Wielkiej Brytanii zostaną uratowane tylko przez sztuczną inteligencję - i robotycznych zabójców




Wielka Brytania beznadziejnie stoi za Rosją i Chinami pod względem technologii wojskowej, a aby przygotować się na „wojny na szczeblu państwowym”, których prawdopodobieństwo rośnie z każdym dniem, kraj będzie musiał przekształcić swoje siły zbrojne, powiedział były szef Dowództwa Międzygatunkowego Zjednoczonego Królestwa, generał Richard Barrons. Według The Daily Express Barrons zauważył, że sztuczna inteligencja, w tym zabójcza broń na jej podstawie, będzie musiała odgrywać kluczową rolę w tej transformacji.

Оригинал новости ИноТВ:
https://russian.rt.com/inotv/2020-06-15/Britanskij-general-vooruzhyonnie-sili-Velikobritanii

Brytyjski generał i były szef Międzygatunkowego Dowództwa Wielkiej Brytanii, Richard Barrons, powiedział, że siły zbrojne Wielkiej Brytanii nadal „walczą wczoraj” i nie są w stanie obronić kraju ani odpowiednio sprostać wyzwaniom XXI wieku, informuje brytyjski tabloid The Daily Express. Według generała wojska brytyjskie powinny zostać radykalnie zreformowane przy użyciu najnowszych technologii - w tym sztucznej inteligencji i robotyki.
Według DE, pan Barrons, przemawiając na konferencji na temat etycznych aspektów użycia zrobotyzowanej śmiercionośnej broni, zauważył, że Rosja i Chiny już opracowały i rozmieściły systemy rakiet dalekiego zasięgu, co w rzeczywistości doprowadziło do całkowitego starzenia się nawet najdroższych platform brytyjskich. Wśród takich kompleksów wyróżnił chińskiego DF-21D, którego obecna wersja jest w stanie zniszczyć lotniskowce w odległości 1600 km, a następnej generacji - w odległości 3000 km. „Równanie jest następujące: z jednej strony - lotniskowiec na 100 tysięcy ton z 6 tysiącami osób na pokładzie, z drugiej - pociski wystrzeliwane z odległości kilku tysięcy kilometrów w salwach po 20 sztuk”Barrons wyjaśnił. Jego zdaniem, rosyjskie S-400 odgrywa podobną rolę, rozmieszczenie co oznacza, że „siły powietrzne NATO nie może przenikać do przestrzeni powietrznej Rosji . ” Jednocześnie, jak zauważył Barrons, systemy rakietowe Iskander rozmieszczone w Kaliningradzie mogą bezkarnie uderzać w Berlinie, a pociski wycieczkowe X-101 wyposażone w głowice o masie 400 funtów mogą lecieć z Rosji do Londynu w zaledwie 19 minut, uderzając w cele z dokładnością do 2 metrów.
Jak podkreślił Barrons w swoim przemówieniu, rząd brytyjski nadal myśli w kategoriach końca XX wieku - okresu, w którym Wielka Brytania zaatakowała Bałkany, Afganistan i Irak. „Ale w 2010 roku świat zaczął się zmieniać. Rosja ponownie udowodniła, że ​​jest pewnym siebie i agresywnym przeciwnikiem zarówno wojskowym, jak i cyberprzestrzeni. Wielka Brytania pozostawała w tyle za konkurującymi państwami i nie mogła nadążyć za rozwojem rosyjskich i chińskich technologii wojskowych ”- powiedział generał.
Brytyjski program obronny skurczył się tak bardzo, że kraj nie może już dłużej pozwolić sobie na „wniesienie niezależnego wkładu w wysiłki NATO lub jakiejkolwiek innej koalicji” , a teraz brytyjskie siły zbrojne nie mają wystarczających środków, by zatrzymać to, co im pozostało - zresztą Barrons ostrzegł, że Londyn postanowił zrezygnować z wielu funduszy potrzebnych do przeprowadzenia pełnowymiarowej „wojny na szczeblu państwowym” . Prawdopodobieństwo takiego konfliktu wzrasta jednak tylko z powodu wpływu wielu czynników, w tym wzrostu Chin, przeludnienia, zmian klimatu, a także „czwartej rewolucji przemysłowej” , która nastąpi po masowym wprowadzeniu sztucznej inteligencji, przypomina słowa generała The Daily Express.

„Nie wiemy, jak wszystko się potoczy, i nie mamy pojęcia, czy w ogóle istnieje zachodnia koncepcja międzynarodowego ładu opartego na normach ” - ostrzegł. „ Będziemy żyć w środowisku, w którym co będzie koniecznością ekonomiczną dla jednego kraju będzie katastrofą dla innej . 


[A dotychczas było inaczej??? To, co było dla jednego kraju "koniecznością ekonomiczną", dla drugiego było kolonizacją, niewolnictwem, wojną. A może pan generał obawia się, że po prostu strony się odwrócą i teraz inne kraje zgotują Wielkiej Brytanii nową wersję wojny opiumowej?  
>>czy w ogóle istnieje zachodnia koncepcja międzynarodowego ładu opartego na normach<< - oczywiście, że istnieje - "my możemy napadać na innych tłumacząc to w mediach koniecznością zaprowadzenia u tych innych chrześcijaństwa, albo demokracji - a wam tego nie wolno"  MS]
Według Barronsa, głównym motorem modernizacji i transformacji sił obronnych Wielkiej Brytanii będzie sztuczna inteligencja. „Budżety obronne większości krajów europejskich zabijają przede wszystkim pensje i emerytury. Ale zamiast pędzić z pomysłem małej armii liczącej 82 tysiące ludzi, musimy porozmawiać o tym, czym może być armia hybrydowa. Najbardziej obiecującym momentem dla Wielkiej Brytanii jest to, że możliwe jest sprawienie, aby siły zbrojne były wydajne, a jednocześnie przystępne cenowo w kontekście nawet najstraszniejszej recesji w ciągu ostatnich 300 lat, jednocześnie wpływając na sojuszników i utrzymując dodatni bilans handlowy ”- wyjaśnił.
Jak podkreślono w materiale DE, w brytyjskim Ministerstwie Obrony o potrzebie „transformacji”bardzo dobrze znają armię: na przykład szef brytyjskiego sztabu generalnego, generał Nick Carter, zauważył w grudniu ubiegłego roku, że modernizacja sił zbrojnych wymagałaby powszechnego wprowadzenia uczenia maszynowego, komputerów kwantowych, robotyki i sztucznej inteligencji. Według publikacji AI jest już wykorzystywane w programie British Navy NavyX, który rozwija roboty saperów, autonomiczny okręt podwodny zwiadowczy Manta i roboty-łodzie obserwacyjne. Z kolei siły powietrzne kraju promują własne innowacyjne projekty: na przykład projekt Lanki obejmuje stworzenie w pełni autonomicznego UAV do eskorty i obrony myśliwców, podczas gdy projekt Arma dotyczący opracowania fałszywych celów dla pocisków z naprowadzaniem radarowym został już zakończony, a nawet poszedł na eksport. Wreszcie, W ubiegłym roku rząd przeznaczył dodatkowe 66 milionów funtów na brytyjską inicjatywę Autonomous Warrior Ground Forces, co sprawi, że będzie to opłacalne w tym roku; wśród nich są minidrony i inne sterowane radiowo pojazdy zwiadowcze, a także tzw. „Theseus Project” - autonomiczne pojazdy dostawcze, które dostarczą amunicję i sprzęt żołnierzom na czele. 

Materiał DE podkreśla, że większość innowacyjnych projektów brytyjskich sił zbrojnych ma charakter pomocniczy lub obronny, ponieważ Wielka Brytania i inne demokracje muszą pokonać całe „etyczne pole minowe” przed wprowadzeniem śmiertelnej broni autonomicznej. Ministerstwo obrony Wielkiej Brytanii będzie musiało zacząć omawiać granice etyczne w przyszłym miesiącu, jednak obecne koncepcje innowacji wciąż mają twardą zasadę: decyzja o otwarciu ognia musi ostatecznie zostać podjęta przez osobę, a nie maszynę, pisze tabloid.

W międzyczasie pan Barrons ostrzega, że ​​wybierając to podejście, władze brytyjskie przymykają oko na fakt, że Chiny, Rosja i Iran nie będą podlegać takim ograniczeniom, pisze DE. „W żadnym wypadku nie opowiadam się za robotyczną bronią masowego rażenia - nie będziemy mieć wojen w stylu filmu Terminator”, publikacja cytuje generała. -Chodzi o kombinację platform, z których niektóre są zdalnie kontrolowane przez ludzi, a niektóre są autonomiczne. Jeśli stanie się to możliwe - a na razie niemożliwe - siły naziemne będą w stanie zastąpić cztery czołgi Challenger 2 załogą z jednym czołgiem z załogą i trzema autonomicznymi w plutonie czołgów. Sztuczna inteligencja i robotyka zrewolucjonizują siły zbrojne i zmienią ich wygląd, zarówno pod względem inteligencji, logistyki i zarządzania operacyjnego, jak i śmiertelności, choć czekają nas trudne rozmowy. Ale bez względu na to, co o tym myślimy, zapewniamy, że Rosja i Chiny nie będą miały takich samych wyrzutów sumienia . 

Оригинал новости ИноТВ:
https://russian.rt.com/inotv/2020-06-15/Britanskij-general-vooruzhyonnie-sili-Velikobritanii





https://russian.rt.com/inotv/2020-06-15/Britanskij-general-vooruzhyonnie-sili-Velikobritanii

https://maciejsynak.blogspot.com/2020/05/jak-powstao-prawo.html