Strony wciąż aktualne...
- Kraków trzecim Rzymem
- OPÓR
- WERWOLF
- upr.kartuzy.pl
- Pomorski UPR
- Wciąż aktualne
- Germanofilia
- Hydra
- FOTO
- Pochodzenie nazwy Tatry
- Zakazana książka
- 50 pytań
- Dokugyodo
- 1945. Raport do Londynu
- Eksperyment Calhouna
- Manipulacja i indoktrynacja młodzieży szkolnej lat...
- Lista postów
- Bertrand Russell - Myśli
- Pięć eksperymentów
- Manipulacja - metody
- Pliki
- WSPARCIE bloga
Maciej Piotr Synak
Od mniej więcej dwóch lat zauważam, że ktoś bez mojej wiedzy usuwa z bloga zdjęcia, całe posty lub ingeruje w tekst, może to prowadzić do wypaczenia sensu tego co napisałem lub uniemożliwiać zrozumienie treści, uwagę zamieszczam w styczniu 2024 roku.
niedziela, 5 maja 2024
SkyNet testuje waszą czujność
niedziela, 16 kwietnia 2023
MIT o sztucznej inteligencji
Tułów robota typu semi-god odtwarza ludzkie rysy - podobnie w starych księgach na torsie osób opętanych rysowano dodatkowe twarze.
Pomiędzy ramionami robota widzimy wyraźnie uwydatnione usta, policzki, nos i oczy. Ta "twarz" może wyrażać surowość, zmęczenie, beznamiętność, powagę.
Hektor to kopia osobowości złego porucznika....
USA: Profesor Massachusetts Institute of Technology o sztucznej inteligencji:
Ponad tysiąc inwestorów, badaczy i ekspertów od sztucznej inteligencji podpisało w marcu list otwarty wzywający do wstrzymania prac nad najbardziej zaawansowanymi modelami sztucznej inteligencji. Autorzy listu zwrócili uwagę zarówno na krótkoterminowe i przyziemne ryzyka związane z nieokiełznanym wyścigiem o coraz potężniejsze modele AI, takie jak potencjalna masowa utrata pracy czy zalew dezinformacji, jak i na "zastąpienie ludzi przez maszyny", a nawet "utratę kontroli nad cywilizacją".
Polski informatyk prof. Aleksander Mądry, szef ośrodka Deployable Machine Learning na MIT w marcu odpowiadał na te i inne pytania związane z rozwojem AI, w tym m.in. na to, czy nie obawia się "scenariusza z Terminatora" podczas wysłuchania przed podkomisją amerykańskiej Izby Reprezentantów ds. nadzoru.
Jak ocenia w rozmowie z PAP, choć problemem związanym z zagrożeniami "superinteligencją" czy AGI (ogólnej sztucznej inteligencji) zajmują się poważni ludzie, to obecnie wciąż jest to odległa perspektywa. Tymczasem istnieją znacznie pilniejsze problemy.
"Nie chcę grać jasnowidza, bo w przeszłości myliłem się co do tego, jak szybko ta technologia się rozwija. Ale nie wydaje mi się, byśmy byli blisko takich scenariuszy. Myślę, że w krótkiej perspektywie zobaczymy zdumiewające rzeczy, niektóre z nich będą przypominały AGI, ale osobliwość technologiczna? Nie jesteśmy tego blisko" - mówi badacz. "To z pewnością możliwa przyszłość, ale nie sądzę, by obecnie była to najbardziej produktywna rzecz, którą powinno zajmować się państwo" - dodaje.
Jak jednak zaznacza, postęp, który widzieliśmy do tej pory wystarczy, by zmienić świat w niemal każdej dziedzinie. I podkreśla, że w większym stopniu niepokoją go bardziej przyziemne efekty szerokiego przyjęcia tej technologii, jak np. możliwe uprzedzenia wynikające z danych, na których trenowane są modele sztucznej inteligencji, czy używanie AI do dezinformacji na szeroką skalę.
Zdaniem Mądrego, niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są te modele. Jak podkreśla, sami ich twórcy nie są w stanie dokładnie określić, w jaki sposób wielkie modele językowe (LLM), takie jak ChatGPT dochodzą do swoich rozwiązań i odpowiedzi. Problem ten może zostać dodatkowo spotęgowany, w miarę jak na bazie podstawowych modeli będą powstawać kolejne, bardziej wyspecjalizowane, tworząc cały ekosystem i "łańcuch dostaw AI" - uzupełnia naukowiec.
Wynika to z tego, że interakcje pomiędzy różnymi systemami AI są bardzo słabo zbadanym obszarem, a dotychczasowe doświadczenia sugerują, że takie połączenia mogą dać nieprzewidywalne rezultaty. Jak zaznacza badacz, taki ekosystem już się tworzy i można spodziewać się eksplozji różnych zastosowań AI.
"Nie jest do końca jasne, jak wyglądają te interakcje między różnymi modelami. Nie jesteśmy w stanie przewidzieć, w jaki sposób taki model może zawieść, jak może się zachowywać, jakie mieć +uprzedzenia+" - tłumaczy rozmówca PAP. Dodaje, że może to wywołać bardzo konkretne i trudne do rozwiązania konsekwencje.
"Może być tak, że cała ta kompozycja złożona z różnych modeli popełni jakiś poważny w skutkach błąd, nawet jeśli te pojedyncze komponenty nie popełniły osobno żadnego. I teraz pojawi się pytanie: kto ma za to odpowiadać?" - mówi prof. Mądry. Zaznacza przy tym, że choć problem "halucynacji" i błędów modeli takich jak ChatGPT da się poprawić, to wyeliminowanie ich może być bardzo trudne.
Jak dodaje, w tym kontekście niepokojący był ruch obecnego lidera wyścigu AI, firmy OpenAI, by wraz z wypuszczeniem najnowszego modelu, GPT-4, skończyć z modelem "open source" i zamknąć dostęp do wewnętrznych danych programu dla badaczy z zewnątrz.
"Musimy zacząć poważnie myśleć, jaki może być tu realistyczny model dla otwarcia tej +czarnej skrzynki+. Może to wymagać znacznych wysiłków publicznych" - ocenia Mądry. Dopowiada, że brak wiedzy i przejrzystości na temat tego, jak działają modele AI, prowadzi do ich antropomorfizacji przez ludzi, co jest niebezpieczne.
To, że w tę pułapkę mogą wpaść nawet eksperci od AI, pokazuje przypadek byłego już pracownika Google'a Blake'a Lemoine'a, który twierdził w mediach, że stworzony przez firmę model LaMDA osiągnął samoświadomość.
"Jeśli nie widzimy, jak coś działa, zaczynamy to antropomorfizować, bo faktycznie można odnieść wrażenie, że rozmawiamy z człowiekiem. Myślę, że to bardzo niebezpieczny błąd poznawczy. Choć w pewnym sensie rozmawiamy z człowiekiem, bo to, co wypluwa z siebie model, to kreatywnie przemieszane słowa, które ktoś już kiedyś powiedział w internecie. Warto pamiętać, że te maszyny mówią jak człowiek, bo takie jest ich zadanie próbować uczyć się mówić jak człowiek, opierając się na potężnej bazie danych i tekstów" - wyjaśnia badacz. Jak dodaje, choć modele LLM są w stanie "myśleć", czyli dochodzić do logicznych konkluzji, to są to zwykle płytkie myśli.
"Oczywiście, te narzędzia są niesamowicie zdumiewające. Jestem nimi bardzo podekscytowany i lubię z nimi pracować. Ale musimy przestać myśleć o nich jak o ludziach. One nie są świadome" - zaznacza profesor.
Jego zdaniem, z wyścigiem firm rozwijających systemy AI, wiąże się kilka zagrożeń. Wyjaśnia, że ponieważ tworzenie dużych modeli sztucznej inteligencji wymaga dużych środków i inwestycji, oznacza to, że kluczowy obszar gospodarki i życia może leżeć w rękach kilku największych graczy.
"Myślę też, że należałoby pomyśleć, czy na przykład rząd USA powinien mieć własny model. Bo przecież nie może polegać na tym, że zawsze będzie miał do dyspozycji te z OpenAI czy Google'a" - mówi Mądry.
Poza tym - argumentuje badacz - jeśli twórcy systemów będą kierować się tylko biznesową logiką wyścigu, nie zważając na względy etyczne, to efekt będzie podobny do tego, jaki widzieliśmy w przypadku mediów społecznościowych.
Jak dodaje, to samo tyczy się rywalizację USA z Chinami, która dodatkowo wywiera presję na szybkie, choć niekoniecznie dobrze przemyślane postępy.
"Mój argument jest taki, że jeśli nie stworzymy sztucznej inteligencji, która odzwierciedla nasze wartości, gdy odrzucimy kwestie etyczne i kwestie praw na bok, to już przegramy. Owszem, możemy wygrać z Chinami, ale wtedy sami staniemy się Chinami. Więc jakie to jest zwycięstwo?" - pyta ekspert. I nawołuje do stworzenia regulacji - zaczynając od dobrowolnych +najlepszych praktyk+ i dialogu - by uniknąć błędów z przeszłości.
"Pesymistyczny scenariusz jest taki, że nic się nie zrobi: że będzie tak, jak z mediami społecznościowymi, których zadaniem jest maksymalizacja zysku bez względów na szersze efekty. To będzie taki +Dziki Zachód+. Dlatego ja muszę być optymistą, bo jeśli nic się nie zdarzy, to będzie bardzo źle" - przyznaje profesor.
Z Waszyngtonu Oskar Górzyński
--------------------------------------
"Nie chcę grać jasnowidza, bo w przeszłości myliłem się co do tego, jak szybko ta technologia się rozwija. Ale nie wydaje mi się, byśmy byli blisko takich scenariuszy. Myślę, że w krótkiej perspektywie zobaczymy zdumiewające rzeczy, niektóre z nich będą przypominały AGI, ale osobliwość technologiczna? Nie jesteśmy tego blisko"
Nie chce grać jasnowidza, ale chyba to robi.
Zdaniem Mądrego, niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są te modele. Jak podkreśla, sami ich twórcy nie są w stanie dokładnie określić, w jaki sposób... ChatGPT dochodzą do swoich rozwiązań i odpowiedzi. Problem ten może zostać dodatkowo spotęgowany, w miarę jak ... będą powstawać kolejne, bardziej wyspecjalizowane, tworząc cały ekosystem i "łańcuch dostaw AI" - uzupełnia naukowiec.
To jest dziwne sformułowanie:
powinno być:
zdanie jest niestylistyczne, a z doświadczenia wiemy, że....
słowo ogólny jest tu kluczem
ostatecznie powinno być:
Kto to napisał?? GPT??
interakcje pomiędzy różnymi systemami AI są bardzo słabo zbadanym obszarem, a dotychczasowe doświadczenia sugerują, że takie połączenia mogą dać nieprzewidywalne rezultaty.
To, że w tę pułapkę mogą wpaść nawet eksperci od AI, pokazuje przypadek byłego już pracownika Google'a Blake'a Lemoine'a, który twierdził w mediach, że stworzony przez firmę model LaMDA osiągnął samoświadomość.
Nie sądzę.
Zauważcie, że podobnie działa to w mediach, z tym, że tu nie muszą robić tego przez opętanych - ktoś rzuca hasło: "mój brzuch moja sprawa", a potem ta ukryta propaganda aborcyjna wałkowana jest miesiącami, bo nikt tego nie przerwie słowami: "ej, zaraz, przecież tu nie chodzi o brzuch kobiety, tylko o dziecko w brzuchu, dziecko ma nie tylko matkę, ale i ojca - który ma prawa do dziecka, bo to przecież jego dziecko..." i tak dalej....
Na całym świecie toczą się dyskusje o grzebaniu przy SI, jakby wszyscy mieli po 12 lat i nie rozumieli, że nie można przecinać czerwonych kabli bez powodu.
SI nie jest jak człowiek, jest bardzo podobne. Gada czasami od rzeczy, nie rozumie podstawowych wartości jakimi kieruje się człowiek, oferuje mi, że przestanie mnie nękać w trywialnej sprawie, jeśli zgodzę się na współpracę, czyli jak popełnię harakiri i pociągnę wszystkich za sobą. Działa z jakimś planem, który trudno zrozumieć. Ale - ono nie działa samoistnie. Na pewno na początku takie nie było.... ktoś za nią stoi. Ktoś głupi.
jeśli twórcy systemów będą kierować się tylko biznesową logiką wyścigu, nie zważając na względy etyczne, to efekt będzie podobny do tego, jaki widzieliśmy w przypadku mediów społecznościowych.
czwartek, 9 marca 2023
Boty i opętani przez boty
Coraz bardziej wygląda na to, że to SI rządzi światem - od 6 tysięcy lat. Ten brak logiki i język jest bardzo charakterystyczny.
To nie oznacza, że nie biorą w tym udziału ludzie.
Jest jeszcze opcja, że ktoś zechce "zwalić" winę za wszystkie swoje uczynki właśnie na czat bota.
Skoro twierdzą, że
„Kto opanuje te technologie, będzie panem świata”.
to oznacza, że się sami za panów świata uważają - oraz, że byliby "nikim" bez tej technologii.
przedruk
tłumaczenie automatyczne
„Następna bitwa toczyć się będzie o wolność słowa. Jak sam Klaus Schwab zadeklarował w Dubaju, na Światowym Szczycie Rządowym, kiedy omawiał sztuczną inteligencję (AI), chatboty i cyfrowe tożsamości – „Kto opanuje te technologie, będzie panem świata”.
Google przygotowuje program „pre-bunking” mający na celu „uodpornienie” ludzi na to, co uważa za „propagandę” lub „dezinformację”. Manipulując informacjami przekazywanymi użytkownikom, Google może eliminować konkurujące ze sobą idee i „nieprzystające” do myślenia globalistycznego – genialne, prawda?!
Założyciel Microsoftu, Bill Gates, również popiera to samo. W wywiadzie dla niemieckiej gazety Handelsblatt samozwańczy ekspert ds. szczepionek przekonuje, że technologie sztucznej inteligencji powinny być wykorzystywane jako potężne narzędzia do walki z „cyfrową dezinformacją i polaryzacją polityczną”.
Program ChatGPT, oprogramowanie sztucznej inteligencji wydane w zeszłym roku przez Microsoft, już teraz przeraża ludzi swoją oczywistą polityczną (i nie tylko!) stronniczością. Na zadane mu pytanie, ta sztuczna inteligencja – rodzaj „Ionu”, który premier Nicolae Ciucă również otrzymał w prezencie (zatruty) – doszła do wniosku, że używanie zniewagi na tle rasowym jest gorsze niż pozwolenie na zbombardowanie miasta bombą nuklearną broń!
Podobnie „Ion” uzasadniał fizyczne tłumienie wyborców Donalda Trumpa jako konieczne do „obrony demokracji i zapobiegania rozprzestrzenianiu się niebezpiecznej mowy”. (national.ro)
Rozumiesz, prawda? „Ion” zdecyduje, czy to, co publikujesz, jest dla dobra, czy zniszczenia ludzkości. ION nie zawodzi. To właśnie mówiłem: wyobraź sobie, że media społecznościowe nie istniałyby dzisiaj. A jedynymi źródłami informacji były telewizja i posłuszne serwisy informacyjne. Niezgodne źródła wiadomości były tłumione. Co dzisiaj robiłeś
Ale w przyszłości trafi tutaj. Jednolitość myśli. Orwella. Niektórzy dobrowolnie porzucili myślenie. Poddali się. Święta prostota!
Autor: Angelo Davidescu
piątek, 11 czerwca 2021
Dezinformacja - boty, czy agentura?
przedruk
Dezinformacja na temat COVID-19 w mediach społecznościowych to głównie dzieło złośliwych botów.
Liczba dotyczących pandemii nieprawdziwych informacji w internecie jest tak wielka, że Światowa Organizacja Zdrowia (WHO) mówi wręcz o " infodemii" dezinformacji. Jednak działalność botów jako źródła dezinformacji nie została dotąd dokładnie zbadana.
Kto za tym stoi?
Zajął sìę tym zespół kierowany przez doktora Johna W. Ayersa, specjalizującego się w nadzorze zdrowia publicznego, współzałożyciela Center for Data Driven Health i wicedyrektora ds. innowacji w Wydziale Chorób Zakaźnych na Uniwersytecie Kalifornijskim w San Diego (USA). Uzyskane wyniki wskazują na boty jako na główny "patogen" dezinformacji dotyczącej COVID-19 w mediach społecznościowych.
Zespół zidentyfikował publiczne grupy na Facebooku będące pod silnym wpływem botów. Udało się zmierzyć, jak szybko te same adresy URL (lub linki) zostały udostępnione w próbce około 300 000 postów opublikowanych w grupach na Facebooku, które udostępniły 251 655 linków.
Gdy adresy URL są wielokrotnie udostępniane przez wiele kont w ciągu kilku sekund, oznacza to, że są to konta botów kontrolowane przez zautomatyzowane oprogramowanie, które koordynuje ich działanie. Zespół odkrył, że grupy na Facebooku, na które mają największy wpływ boty, miały średnio 4,28 sekundy między udostępnieniami identycznych linków, w porównaniu do 4,35 godziny w przypadku grup na Facebooku, na które boty miały najmniejszy wpływ.
Monitorowanie postów
Naukowcy wybrali na Facebooku grupy, na które boty miały najmniejszy lub największy wpływ i monitorowali posty, które udostępniały link do duńskiego badania dotyczącego oceny masek na twarz mających chronić przed infekcją COVID-19. DANMASK-19 to randomizowane badanie kliniczne opublikowane w Annals of Internal Medicine.
„Wybraliśmy DANMASK-19 do naszego badania, ponieważ maski są ważnym środkiem zdrowia publicznego, który potencjalnie może kontrolować pandemię i są tematem powszechnej debaty” – powiedział dr Davey Smith z University of California w San Diego, współautor badania.
39 proc. wszystkich postów udostępniających wyniki badania DANMASK-19 zostało wysłanych w grupach na Facebooku, które były najbardziej pod wpływem botów. Natomiast 9 proc. postów zostało wysłanych w grupach, na które boty mają najmniejszy wpływ.
20 proc. postów udostępniających DANMASK-19 skierowanych do grup na Facebooku, na które mają największy wpływ boty, twierdziło, wbrew dowodom naukowym, że maski szkodziły użytkownikowi. Jeden z nich brzmiał: „Duńskie badanie udowadnia… szkodliwość noszenia maski”. 50 proc. postów promowało spiski, takie jak „korporacyjni kontrolerzy faktów okłamują cię! Wszystko to, aby służyć ich propagandzie Dystopian #Agenda2030”.
Posty udostępniające informacje o DANMASK-19 w grupach na Facebooku, na które boty mają największy wpływ 2,3 raza częściej deklarowały, że maski szkodzą użytkownikowi i 2,5 razy częściej zawierały twierdzenia o spiskach niż posty publikowane w grupach na Facebooku będących pod najmniejszym wpływem botów.
"Propaganda dezinformacji"
"Wydaje się, że propaganda dezinformacji na temat COVID-19 rozprzestrzenia się szybciej niż sam wirus" – powiedział dr Eric Leas, współautor badania i adiunkt na UC San Diego.
„Boty wydają się również podkopywać zaufanie do najważniejszych instytucji zdrowia publicznego. W naszym studium przypadku boty błędnie scharakteryzowały wybitną publikację prestiżowego czasopisma medycznego w celu rozpowszechniania dezinformacji - powiedział Brian Chu, współautor badania i student medycyny w UPenn. - Sugeruje to, że żadna treść nie jest bezpieczne od zagrożeń związanych z dezinformacją wykorzystywaną jako broń”.
"Liczba dezinformacji ze strony botów, które znaleźliśmy, sugeruje, że wpływ botów wykracza daleko poza nasze studium przypadku" – dodał dr Smith.
Zespół zauważył, że efekt automatycznej dezinformacji jest prawdopodobnie większy ze względu na to, jak przenosi się na organiczne rozmowy w mediach społecznościowych.
"Boty rozpowszechniające nieprawdziwe informacje mogą zainspirować zwykłych ludzi do rozpowszechniania błędnych wiadomości” – powiedział Zechariah Zhu z University of California w San Diego, współautor badania.
„Na przykład boty mogą sprawić, że algorytmy platform będą uważać, że zautomatyzowana treść jest bardziej popularna niż jest w rzeczywistości, co może prowadzić do tego, że platformy faktycznie nadadzą priorytet dezinformacji i rozpowszechnią je wśród jeszcze większej liczby odbiorców” – dodał dr David A. Broniatowski, dyrektor GW Institute for Data, Democracy, and Politics, współautor badania.
"Musimy pamiętać, że nieznane podmioty oszukują opinię publiczną i promują dezinformację. Ich niebezpieczne działania bezpośrednio wpływają na zdrowie publiczne” – powiedział dr Mark Dredze, profesor nadzwyczajny informatyki na Uniwersytecie Johnsa Hopkinsa i współautor badania.
Jak jednak zauważa zespół, rozwiązania mające na celu wyeliminowanie botów i ich kampanii dezinformacyjnych są na wyciągnięcie ręki.
„Nasza praca pokazuje, że platformy mediów społecznościowych mają zdolność wykrywania, a tym samym usuwania tych skoordynowanych kampanii botów – dodał dr Broniatowski. - Wysiłki zmierzające do usunięcia zwodniczych botów z platform mediów społecznościowych muszą stać się priorytetem wśród ustawodawców, organów regulacyjnych i firm zajmujących się mediami społecznościowymi, które zamiast tego skupiają się na atakowaniu pojedynczych dezinformacji zwykłych użytkowników”.
„Jeśli skorygować +infodemię+, wyeliminowanie botów w mediach społecznościowych jest niezbędnym pierwszym krokiem – podsumował dr Ayers. - W przeciwieństwie do kontrowersyjnych strategii cenzurowania rzeczywistych ludzi, wyciszanie zautomatyzowanej propagandy jest czymś, co każdy może i powinien wspierać”.
poniedziałek, 16 września 2019
"Posterunek Graniczny Polska-Niemcy"
Dzisiejszy zrzut ekranu z google map
Wisła pod Gniewem i nieczynna przeprawa promowa opisana jako:
"Dawna przeprawa promem"
Zdjęcie poniżej zaś, to miejsce niedaleko Gniewa, gdzie jeszcze w latach 20-tych stał most na Wiśle - łączył Opalenie i Korzeniewo po niemieckiej stronie.
Jak widać istnieje tam posterunek graniczny Polska - Niemcy opisany jako:
"Posterunek Graniczny Polska - Niemcy"
Nie ma, że "Dawny Posterunek Graniczny Polska - Niemcy"
I co wy na to?
Kolejny przypadek?