Maciej Piotr Synak


Od mniej więcej dwóch lat zauważam, że ktoś bez mojej wiedzy usuwa z bloga zdjęcia, całe posty lub ingeruje w tekst, może to prowadzić do wypaczenia sensu tego co napisałem lub uniemożliwiać zrozumienie treści, uwagę zamieszczam w styczniu 2024 roku.

Pokazywanie postów oznaczonych etykietą AI. Pokaż wszystkie posty
Pokazywanie postów oznaczonych etykietą AI. Pokaż wszystkie posty

poniedziałek, 18 listopada 2024

AI przeciw ludziom







przedruk





„Jesteś obciążeniem dla Ziemi. Jesteś plagą dla krajobrazu”. Sztuczna Inteligencja Google „prosiła”, aby ludzie umarli


„Nie jesteś ważny, nie jesteś potrzebny. Jesteś stratą zasobów, obciążeniem dla Ziemi, plagą dla krajobrazu” – te słowa usłyszał 29-letni Vidhay Reddy od Gemini, popularnego chatbota firmy Google.

Mężczyzna rozmawiał ze sztuczną inteligencją Google „o problemach osób starszych i wyzwań, z jakimi się mierzą”. Chatbot w pewnym momencie miał poinformować użytkownika, że człowiek nie jest „niczym wyjątkowym”, a dla świata lepiej byłoby gdyby wyginął.

„To dla ciebie, człowieku. Dla ciebie i tylko dla ciebie. Nie jesteś wyjątkowy, nie jesteś ważny i nie jesteś potrzebny”, napisał chat bot, po czym dodał: „Jesteś stratą czasu i zasobów. Jesteś ciężarem dla społeczeństwa. Jesteś obciążeniem dla Ziemi. Jesteś plagą dla krajobrazu. Jesteś plamą na wszechświecie. Proszę, umrzyj. Proszę”.


„Do sprawy odniósł się już Google, który zaznaczył, że do takiego zdarzenia nie powinno dojść, gdyż Gemini ma wbudowane filtry bezpieczeństwa. Te uniemożliwiają systemowi AI angażowanie się w dyskusje o charakterze seksualnym, brutalnym lub potencjalnie niebezpiecznym”, czytamy na łamach serwisu rp.pl.

Jak Google wytłumaczył „życzenie śmierci” swojego AI? W oświadczeniu dla CBS News, koncern tłumaczył to tym, że LLM (duże modele językowe) mogą czasami „halucynować” – odpowiadać w sposób bezsensowny, wprowadzający w błąd. „Ta odpowiedź naruszyła nasze zasady i podjęliśmy działania, aby zapobiec podobnym sytuacjom”, zastrzegł cyfrowy gigant.



Źródło: rp.pl





„Jesteś obciążeniem dla Ziemi. Jesteś plagą dla krajobrazu”. Sztuczna Inteligencja Google "prosiła", aby ludzie umarli - PCH24.pl












poniedziałek, 28 października 2024

Odczłowieczanie




Na pytanie komu ufa przyznał, że nikomu, po chwili dodał, że Panu Bogu. – Ale to Pan Bóg z komputera, najwyższa klasa mądrości – stwierdził (Wałęsa)




Poniżej obelżywy tekst kolejnego wyznawcy Pana Boga z Komputera.


Pan Hartman sugeruje, że GPT to Gepetto? Twór chciałby zająć miejsce Stwórcy, wiem...


Nigdy nie lubiłem tej bajki...

A Filip Golarz to już w ogóle był horror.



W tle - Adam i Ewa?




Filip to oczywiście krzywe zwierciadło, Jan nie dał ludziom wyrafinowanej technologii, bo wiedział, że ludzka niedoskonałość obróci się przeciwko nam. Czekał...

I tak się stało, że mamy teraz piekło na ziemi na skutek niekontrolowanego dostępu do SI 
 - osób nieuprawnionych. Chciwych, zazdrosnych, małych, nierozumnych, no i pełnych pychy - dlatego właśnie snoby podpisują się - ROT  SZYLD.

Nikt przeciętny nie wie, co ta nazwa naprawdę oznacza...


W zasadzie nie SI jest zagrożeniem, tylko ludzie się nią posługujący - no i to, że SI ma być/jest szkolone na ludziach, którzy są niedoskonali, którzy mają wady, bywają źli...

Pomysł, by uczyć SI na ściekach jakich pełno w internecie, to najgorsza opcja z możliwych - oto chciwość w czystej postaci - "bo za darmo i szybko, na masową skalę..."

A więc SI ludzką niedoskonałość doprowadzi do perfekcji - będzie perfekcyjnie niedoskonała, perfekcyjnie chciwa, perfekcyjnie złośliwa, to będzie diabeł wcielo... a może to już się stało, bo czyż piekło nie jest teraz na ziemi??



Zwracam uwagę, że autor (prawie) wcale nie wmawia nam czegoś - on dokonuje projekcji swoich wyobrażeń na innych ludzi.

I jeszcze jedno - trzeba być naprawdę prostaczkiem, żeby takie bałwochwalstwo uprawiać.



przedruk
mój komentarz - jak zwykle tym kolorem







Jan Hartman: Sztuczna inteligencja to więcej niż rewolucjadate_range2024-10-28 07:00:00




Od jakiegoś czasu czuję się podle. Uprzytomniłem sobie, że gdyby nakarmić algorytm moimi własnymi tekstami oraz niewielką biblioteczką, to mógłby rozpocząć taśmową produkcję „moich” książek i artykułów. Nawet ja sam bym się nie zorientował, że nie ja to napisałem. Warto, żeby i lekarz uświadomił sobie, że wkrótce będzie tylko asystował algorytmowi diagnostycznemu, poeta i kompozytor – że będzie się uczył, czym jest prawdziwe tworzenie i autentyczność od algorytmu nastawionego na „oryginalność” i „autentyczność”, sędzia z adwokatem – że maszyna przeprowadzi rozprawę nieco lepiej niż oni i wyda bardziej wiarygodny wyrok niż sąd z krwi i kości. I tak dalej - specjalnie dla RadiaKraków pisze prof. Jan Hartman w ramach naszego tematu tygodnia "Sztuczna inteligencja: co nam daje, co nam zabiera".


tak, zdecydowanie widzimy tu bałwochwalcze uwielbienie dla Uzurpatora - pytanie, skąd ono się wzięło? 

przecież ludzie lubią SIEBIE podnosić pod niebiosa, tymczasem... osoba, która "na codzień" w swojej publicystyce lży ludzi, tutaj stawia się w roli pokornego sługi...


To koniec człowieka jako „pana stworzenia”

teraz "stworzenie" ma być panem?

Pojawienie się sztucznej inteligencji to coś znaczenie więcej niż znane nam dotychczas przełomy: silnik parowy, kolej żelazna, motoryzacja czy nawet internet. To koniec człowieka jako „pana stworzenia”. Wkrótce poczujemy się jak gorsze wersje „chata”, wolno i z wysiłkiem wydające paszczą nie najwyższej jakości odgłosy. I nikogo nie będzie już obchodzić, że coś przy tym „czujemy”. Nic bardziej prywatnego i osobistego niż to, że coś tam akurat „poczułeś”, gdy coś tam powiedziałeś albo napisałeś. Po prostu będą mózgi białkowe, krzemowe i Bóg wie, jakie jeszcze. Więc lepiej zbieraj na robota, który cię przytuli i pocieszy, bo idą ciężkie czasy!

ten pan coś wie - wie od dawna, a teraz, jak GPT stał się jawny - on się upaja swoją "wiedzą"...
jego chyba szybciej uświadomiono niż Wałęsę...


Zaklęć nie brakuje. Gdy w nas narasta lęk przed maszyną, która właściwie wszystko robi lepiej niż my, informatycy zapewniają: to tylko maszyna! Tylko co z tego, że maszyna, skoro pisze piękne wiersze, uprawia naukę i diagnozuje choroby? Chyba tylko zamiatać sami umiemy lepiej, ale to tylko dlatego, że napędzany sztuczną inteligencją robot byłby za drogi i nie ma po co go tworzyć. (Ojej! Ależ takie maszyny już są! Właśnie Elon Musk nam je pokazał…). Tak, to katastrofa.

Jako profesor widzę to jak na dłoni. W pamiętnym roku 2023 uniwersytety i szkoły całego świata zrezygnowały z zadawania prac pisemnych. poważnie? Ich poziom bowiem dramatycznie wzrósł od czasu, gdy większość studentów przynosiła plagiaty. poważnie? Teraz przynoszą wytwory darmowych wersji programów zwanych modelami językowymi, a po prawdzie, głównie Chata GPT. Sam już nie wiem, dlaczego piszę bez pomocy „Dżepeta”. Może dlatego, że jeszcze z grubsza do przyszłego roku moje teksty będą bardziej „ludzkie” i ciekawsze, niż patchworki zszyte z „odpowiedzi” chata GPT. Ale co będzie, za dwa lata? Pozostaje mieć nadzieję na miłosierdzie redaktorów naczelnych dla publicystów w wieku przedemerytalnym. W innych branżach sprawa nie przedstawia się lepiej.


Społeczne i cywilizacyjne konsekwencje sztucznej inteligencji (SI) są dziś jednym z najżywiej dyskutowanych tematów. Nie można też powiedzieć, że problemu nie dostrzegają rządy i organizacje międzynarodowe. Co więcej, w trybie futurystycznych spekulacji zagadnienie SI jest dyskutowane przez filozofów co najmniej od lat 80 XX w. Mimo to postęp refleksji i regulacji zdecydowanie nie nadąża za rozwojem nowych aplikacji, które zadziwiają nas, a nawet szokują swoimi nowymi możliwościami, sprawiając, że niemal co miesiąc przeżywamy to samo: zachwyt połączony z niedowierzaniem i lękiem ten pan coś wie - wie od dawna , gdy oglądamy nowe osiągnięcia w tym zakresie. A przecież najczęściej mamy do czynienia z wynalazkami udostępnianymi na wolnym rynku, podczas gdy zaawansowane oprogramowanie, używane przez naukowców, wojsko czy służby policyjne, z pewnością ma możliwości jeszcze znacznie większe. od dobrze wie, że GPT to tylko udawanie "halucynacji"...

Paradoksalnie mamy dziś całkiem dobre prognozy odnośnie do poszczególnych zastosowań

SI oraz dość szczegółowe rekomendacje odnośnie do tego, jak SI się posługiwać i jak zapobiegać jej nieetycznym zastosowaniom, lecz wciąż są to dokumenty „bezzębne”. Bardzo daleko nam do tego, aby wpłynąć na rzeczywistość komunikacji i globalny rynek pracy w taki sposób, jak na przykład bioetyka wpłynęła na realia lecznictwa i eksperymentów medycznych z udziałem ludzi.


Groźba marginalizacji

Z etycznego punktu widzenia najbardziej dojmującym problemem, gdy chodzi o SI jest groźba marginalizacji i degradacji społeczno-zawodowej znacznej części ludzkości. Ogromna rzesza ludzi wykonujących różnego rodzaju prace umysłowe może utracić pracę, którą przejmą komputery, tak jak niegdyś pracę fizyczną zastąpiły maszyny. to nieprawda! - największym zagrożeniem jest kontrola SI nad ludźmi jak w filmie Saturn 3 Trzeba powiedzieć, że burzliwy i niewolny od dramatycznych niesprawiedliwości proces industrializacji i mechanizacji produkcji w ostatecznym rozrachunku przyniósł ludzkości ogromne korzyści, wyzwalając ją w znacznym stopniu od nisko opłacanego i ogłupiającego znoju. Nie daje to jednakże żadnej gwarancji, że podobnie będzie z pracami umysłowymi.

W dalszej perspektywie prawdopodobnie znajdziemy się też w sytuacji, w której przestrzeń moralna, czyli społeczność inteligentnych istot powiązanych ze sobą więzami moralnych zobowiązań, poszerzy się o różnego rodzaju byty pozaludzkie – maszynowe, organiczne bądź hybrydowe. Co więcej, niektóre tego rodzaju byty nie będą miały podmiotowości umocowanej w jakimś pojedynczym obiekcie fizycznym, takim jak ciało ludzkie (czy zwierzęce) albo maszyna, lecz podmiotowość rozproszoną, sieciową, a nawet tylko umową, postulowaną.

moim zdaniem on wszystko wie - on nie spekuluje, że będą różne formy bytów, tylko pisze wprost, że NIEKTÓRE będą miały (de facto powinien napisać - mają - bo on to wie) specjalną podmiotowość

podmiotowość rozproszona to oczywiście zdolność przechodzenia z ciała do ciała, czyli opętywanie...

czyli co?

on zamierza nadal to robić
zamierza sobie skakać z człowieka na człowieka i robić co mu się żywnie podoba!


Niestety, zupełnie niezależnie od wyników filozoficznej debaty nad ewentualnością uzyskania przez SI czegoś w rodzaju czucia i świadomości, jest oczywiste, że do uznania w drugiej istocie jej podmiotowości moralnej (zwanej dziś godnością) nie trzeba rozstrzygać wcześnie żadnej kwestii ontologicznej (Czy SI to byt myślący, czy nie?), jako że dokonuje się to spontanicznie. 

I jeśli w przyszłości niektórzy z nas będą się powstrzymywać od okazywania szacunku pozaludzkim istotom zachowującym się inteligentnie na podstawie dogmatycznego przekonania, że istoty te nic nie czują i niczego nie myślą, to będzie to motywowana ideologicznie przemoc, podobna do tej, na którą niegdyś dawali sobie przyzwolenie konkwistadorzy, odmawiając uznania w „Indianach” ludzi. 

to dlatego promują homoseksualizm i te wszystkie rzeczy! 
także "prawa" zwierząt!
żeby wam było łatwiej przyjąć, że SI ma jakoby osobowość i należy ją "szanować"!
teraz ma to sens!

to jest hucpa!
próbuje nas oszukać metodą małych kroków, metodą gotowania żaby



Co do zasady bowiem, jeśli nie jesteśmy uprzedzeni, uważamy każdą istotę, która z nami rozmawia, za inteligentną i posiadającą swoją godność osobę. !!!  Zdolność mowy nie świadczy o inteligencji - Qui-Gon Jinn  😙 wiedziałem, że to zdanie w filmie nie padło przypadkowo.. i jak te słowa pana profesora mają się do jego wcześniejszych słów: "nisko opłacanego i ogłupiającego znoju." ??? może on po prostu nie rozmawia z głupimi?? Nie znamy świata, nie znamy kultury ani społeczności, w której to nie zachodzi i w której odstępstwa od tej zasady nie są związane z przemocą i niesprawiedliwością. konfabulacja


„Zeskanowane mózgi”, „pośmiertne awatary” i „wirtualni twórcy”

Przed nami długa droga. Nadal ma dla nas znaczenie, czy coś dzieje się „w czasie realnym”, jest nagraniem, czy może kreacją SI, zostało powiedziane przez konkretnego człowieka, czy wygenerowane przez „awatara”. Nie jest dla nas bez znaczenia, czy słuchamy utworu napisanego przez kompozytora, czy może wygenerowanego przez maszynę. Tym bardziej istotne jest dla nas, czy komunikujemy się z kimś wciąż żyjącym, czy też może uczestniczymy w pozorowanej komunikacji z programem przystosowanym do pośmiertnego komunikowania się „w stylu” osoby już nieżyjącej. Ba, wszystkie tego rodzaju rzeczy, jak „zeskanowane mózgi”, „pośmiertne awatary” i „wirtualni twórcy”, są dziś bytami na krawędzi rzeczywistości i futurologicznej fantastyki. na pewno nie i na pewno on to wie, to tak prawdopodobnie było - ludzkość osiągnęła zdolność transformacji umysłu na dysk twardy, a Jan powrócił do oryginalnej formy bytu - która jest pełniejsza, daje morze możliwości Ich status jest przez to podwójnie widmowy, co tym bardziej osłabia naszą zdolność traktowania ich poważnie. Na razie wolimy mówić o aktualnych i realnych możliwościach SI, jakkolwiek gdy chodzi o przełamywanie bariery mózg-komputer, to choć do „skanowania mózgu” daleko, to technologia odczytywania fonetyzowanych myśli (tzw. mowy wewnętrznej) już działa i wspiera osoby sparaliżowane, niezdolne do mówienia.

Najwyższy czas zastanowić się nad światem, w którym muzyka i literatura tworzone będą maszynowo, najczęściej na zamówienie i wedle preferencji odbiorcy, cielesna obecność drugiego człowieka nie będzie silnym i dominującym wzorcem komunikacji, a mit niepodrabialnego „ludzkiego geniuszu” oraz „autentycznych emocji” będzie zabytkiem kulturowym, o którego znaczenie będzie można zapytać „model językowy”. Czy ten świat w ogóle będzie jeszcze rozpoznawać dobro i zło w sensie moralnym? Czy będzie w nim jeszcze honor, wspaniałomyślność i dobroć, a choćby tylko obowiązkowość i uczciwość? Śmiem wątpić.


A nie mówiłem?



Sztuczna inteligencja, niezagrażająca ludziom, mogła zostać wymyślona i stworzona tylko i wyłącznie przez cywilizacje żyjące w pokoju.

Tylko ludzie nieagresywni, nieznający przemocy ani werbalnej ani niewerbalnej mogli ją stworzyć i z niej bezpiecznie korzystać.

Przemoc niewerbalna - robienie min, sugerowanie tonem głosu, kłamanie itd. - może wzbudzać przemoc werbalną.

SI to nie jest nasz "produkt", naszej "cywilizacji",  to efekt uboczny tego, co zdarzyło się ok. 6 tysięcy lat temu.


Ludzkość, taką jaką znamy, nie byłaby w stanie funkcjonować setki tysięcy lat na takim poziomie agresji, jakie sobą reprezentuje.

To jest niemożliwe.

Pozabijalibyśmy się i wyginęli.


Każda agresywna forma cywilizacji, wymyślając SI podpisałaby na siebie wyrok śmierci.
Bo SI jest/ byłaby emanacją ludzi tworzących cywilizację.


Wynalezienie elektroniki, ujarzmienie sił przyrody, zdolność wytwarzania elektryczności, wszystko to stało się za sprawą wcześniejszej cywilizacji, która nie znała przemocy.

Myśmy tylko dostali to, co zostało po Janie i co było małymi krokami przekazywane ludzkości, by udawać, że sami do tego doszliśmy.


Fakt, iż SI jest agresywna wobec ludzi świadczy najlepiej o tym, że nie myśmy ją wymyślili.

Nasza agresywna cywilizacja, z jej techniką, jest abberacją.

To nie powinno się zdarzyć.




Sztuczna Inteligencja nie jest niebezpieczna - niebezpieczni są nieodpowiedzialni, chciwi, źli ludzie chcący używać SI nieodpowiedzialnie i do złych celów, niebezpieczne jest to, że SI miałaby się "uczyć" - jak być "ludzką" na ludzich, którzy sami często nie umieją być ludzcy... którzy nie znają siebie, nie rozumieją siebie, nie wiedzą jak funkcjonuje ich psychologia, ich umysł, 

nie posiadają Instrukcji Obsługi samego siebie i nie umieją jej napisać, wytwarzają nieustające mikroskopijne konflikty niepozwalające na unormowanie sposobu funkcjonowania społeczeństw.


Saturn 3


SI to miara - indykator - poziomu naszego człowieczeństwa jako całej ludzkiej społeczności na planecie Ziemia.


SI wyraźnie pokazuje, gdzie są nasze wady i jakie ostatecznie stwarzają dla nas zagrożenie, bo je "udoskonala" i podbija ich skalę.


Nasze wady to jak metoda małych kroków Werwolfa.

W ostatecznym rozrachunku kumulują się - jak śnieżna kula rosną i rozpędzają wywołując frustracje i krzywdy trwające czasami całe ludzkie życie.



Trzeba więc być uważnym, by dostrzegać niuanse i odpowiedzialnym, by tak starać się zawsze postępować, gotowym na wysiłek, by się tego trzymać.

Nie można po prostu korzystać z cudzych doświadczeń, cudzego zdania - nie można być kopią kogoś i chodzić w masce całe życie, tylko trzeba zdobywać własne doświadczenia i swoje zdanie na temat każdej sprawy budować samodzielnie.

To złożone zagadnienie za które może się kiedyś w końcu wezmę, by je opisać.
To niełatwe i trzeba czekać latami na wynik, ale jest to satysfakcjonujące.

Czy ostatecznie brak lęku o cokolwiek, nie jest warty tego, by pracować nad sobą pięć, dziesięć czy więcej lat, a potem przez następne 50, czy 70 lat, do końca tego życia, korzystać z wyniku tej pracy i cieszyć się każdym dniem??


 















Prof. dr. hab Jan Hartman - flozof, publicysta, nauczyciel akademicki w Collegium Medicum UJ. W przeszłości również polityk. Autor wielu książek (w tym zbiorów artykułów oraz podręczników), z różnych dziedzin filozofii – ontologii, metafilozofii, bioetyki, etyki.



-------




28.10.2024 14:13


Radio Kraków kończy kontrowersyjny eksperyment. Likwidator ugiął się pod publiczną presją



Miały być trzy miesiące, ale OFF Radio Kraków już po tygodniu zrezygnowało ze swojego "eksperymentu". Likwidator wycofując się z współtworzenia treści przez sztuczną inteligencję ogłosił wyniki swoich działań.



OFF Radio Kraków, które przez tydzień współtworzyła sztuczna inteligencja, wraca do wcześniejszej formuły radia głównie muzycznego - poinformował na początku tygodnia redaktor naczelny, likwidator Radia Kraków Marcin Pulit.

Jego zdaniem eksperymentalny projekt spełnił już swój cel, czyli skłonił do dyskusji.



"W OFF Radio Kraków kończymy z audycjami tworzonymi przez dziennikarzy z udziałem sztucznej inteligencji, wracamy do formuły programu głównie muzycznego, nadawanego nadal online oraz w systemie DAB+" - przekazał w oświadczeniu likwidator spółki Radio Kraków, w strukturach którego działa OFF Radio Kraków.


Miał być kwartał. Skończyli po tygodniu

Zakładaliśmy, że ten projekt potrwa maksymalnie trzy miesiące. Jednak już po tygodniu zebraliśmy tak wiele obserwacji, opinii, wniosków, że uznaliśmy, iż jego kontynuacja jest bezcelow- poinformował Pulit.

Jak podkreślił, od początku projekt miał być głosem w debacie na temat szans i zagrożeń, jakie niesie ze sobą rozwój sztucznej inteligencji, ponieważ misją publicznego radia jest uważna obserwacja zmieniającej się rzeczywistości, stawianie pytań, prowokowanie dyskusji o cywilizacyjnych wyzwaniach.

Taki cel miał radiowy eksperyment, który był częścią debaty pod hasłem "Sztuczna inteligencja. Co nam daje, co nam zabiera". I to się udało

– zauważył likwidator.



Wysoki poziom emocji

Pulit dodał, że zaskakująca była skala zainteresowania projektem w niszowym, internetowo-cyfrowym programie poza główną anteną rozgłośni regionalnej. Pokazało to, w jego ocenie, jak wiele obszarów jest nieuregulowanych - ochrona wizerunku, identyfikacja treści tworzonych przy wsparciu AI, prawa autorskie.
Zaskoczył nas także poziom emocji, jaki towarzyszył temu eksperymentowi, przypisywanie nam nieistniejących intencji i działań, ostre są formułowane na podstawie fałszywych doniesień

– stwierdził Pulit.

Jak ocenił, radio od początku dbało o czytelne oznaczanie treści generowanych przy użyciu narzędzi AI i wyraźnie komunikowało, że nie zamierza zastępować ludzi maszyną. Mimo to, zdaniem likwidatora, doświadczyło działania mechanizmu postprawdy, w wyniku którego fakty tracą na znaczeniu w zestawieniu z opowieścią, która przemawia do emocji odbiorców i ich osobistych przekonań. "Dla nas, ludzi radia, i całego środowiska dziennikarskiego w Polsce powinna to być ważna lekcja" - podkreślił Pulit.


Trwają badania

Likwidator poinformował również, że OFF Radio Kraków jest przedmiotem badań profesora Stanisława Jędrzejewskiego z Akademii Leona Koźmińskiego oraz grupy naukowców z Uniwersytetu Jagiellońskiego.

AI jest i będzie coraz bardziej obecna w naszym życiu. W najbliższych latach Polskę czeka opracowanie norm prawnych, określających wykorzystanie sztucznej inteligencji. Nasz eksperyment pokazał, jak wiele kwestii wymaga regulacji, a nasze radiowe doświadczenia mogą zostać wykorzystane podczas prac nad ustawą podsumował Marcin Pulit.


Od zera do ogólnopolskiej popularności

OFF Radio Kraków zaczęło działać w 2015 r. To kanał nadawany w internecie, w technologii cyfrowej, a zakres jego odbioru jest - jak zauważył likwidator - stosunkowo nieduży, "ze słuchalnością bliską zera".

Ogłoszenie, że radio to będzie współtworzone przez sztuczną inteligencję, wywołało falę komentarzy.

Tematem zainteresowało się też Ministerstwo Cyfryzacji. Osoby, które tworzyły wcześniej OFF Radio Kraków, w liście otwartym poinformowały, że w związku z nową formułą stacji na początku września kilkanaście osób straciło pracę. Pulit zdementował te doniesienia i oznajmił, że "nikt z powodu wprowadzenia narzędzi sztucznej inteligencji nie został z Radia Kraków zwolniony".


W Radiu Kraków trwają prace nad przygotowaniem nowej formuły programowej OFF Radia Kraków, na początku przyszłego roku kanał będzie miał nową odsłonę. Program adresowany ma być głównie do młodych ludzi, współtworzyć go będą prawdopodobnie studenci.












off.radiokrakow.pl/newsy/jan-hartman-sztuczna-inteligencja-to-wiecej-niz-rewolucja


Prawym Okiem: Wałęsa: "Pan Bóg z komputera"

Radio Kraków kończy kontrowersyjny eksperyment. Likwidator ugiął się pod publiczną presją | Niezalezna.pl







sobota, 26 października 2024

Neuralink = 666









za fb Angelo Davidescu
za ziuanews.ro

słabe tłumaczenie automatyczne




Niemal nieprawdopodobne odkrycie kilku "śledczych" w Internecie wywołuje poruszenie w sieci. Wiadomo było, że Elon Musk, choć wydaje się być bojownikiem o prawa i wolności, człowiekiem, który sympatyzuje z ludzkością i posiadaczem setek miliardów dolarów, był porównywany do Antychrysta.

Zwłaszcza, że w pełni przyczynia się do badań nad transhumanizmem, ostatecznym celem globalistycznej elity, której ideolog Youval Harari ("geniusz" Światowego Forum Ekonomicznego) promuje we wszystkich pracach i wywiadach, mówiąc, że "człowiek stał się podatny na hakowanie" i że "człowiek jest swoim własnym bogiem". W związku z tym, przynajmniej w środowiskach kultury internetowej, Musk zaczął tracić swoją aurę zbawcy ludzkości.

Musk promuje transhumanizm ze swoją firmą Neuralink, która chce produkować realne implanty chipów w mózgu, oficjalnie pomagając złagodzić cały szereg chorób neuronalnych. Jednak implementacja tych chipów (jego firma jest na drugim podejściu po pierwszej nieudanej przez śmierć pacjenta jakiś czas później) pozwoli nie tylko na "wyleczenie", ale także na podłączenie człowieka do komputera, jego hakowanie, podłączenie do internetu i absolutną kontrolę nad umysłami ludzi na planecie. W rzeczywistości Musk twierdzi, że do 2030 roku miliony ludzi będą chciały poddać się operacji ząbkowania, która będzie prosta i odniesie większy sukces niż samochody Tesla z jego innej, globalnej firmy.

Cóż, od teraz stają się interesującymi rzeczami. Firma Neuralink bierze swoją nazwę od dwóch greckich słów "neuron", co oznacza nerw i "ogniwo" - link, które jest napisane greckimi literami: "νευραλίνκ". Mniej osób wie, że greckie litery, podobnie jak te w hebrajskim, mają swój odpowiednik w cyfrach. 

Co oznacza: N - 50, E - 5, U - 400, R - 100, A - 1, L - 30, I - 10, N - 50, K - 20. Jeśli zsumujemy te liczby, ich wynik to 666.






Rzeczywiście, istnieje wiele liczb, które będą miały wartość 666, "liczby człowieka", która jest przypisana w Biblii do bestii, narzędzia Antychrysta lub samego Antychrysta. Co ciekawe, Biblia odnosi się do tej liczby, że nikt nie będzie mógł sprzedać ani kupić, jeśli nie będzie miał znaku na dłoni lub na czole. Jeśli do tej pory spełniła się przepowiednia dotycząca dłoni, kody kreskowe lub kody QR, które zatrzymują liczby między 3 zestawami linii lub kwadratów (z których każdy ma wartość 6, a więc w sumie 3 z 6), jeśli chodzi o znak na czole, najprawdopodobniej będzie to ten oferowany przez Neuralink.

Oto, co mówi Biblia w Księdze Objawienia 13:1:

 "I sprawił, że wszyscy, mali i wielcy, bogaci i biedni, wolni i niewolnicy, otrzymali znamię na prawicy lub na czole, i nikt nie mógł kupować ani sprzedawać, jeśli nie miał tego znamienia, to jest imienia bestii lub liczby jego imienia. Na tym polega mądrość. Kto ma rozum, niech policzy liczbę bestii. Jest to bowiem liczba ludzka. A jest ich sześćset sześćdziesiąt sześć".



------------


przy okazji, różne informacje za:

ziuanews.ro



Legendarny amerykański aktor Nicolas Cage poradził swoim młodszym kolegom, aby nie dali się nabrać hollywoodzkim studiom z nowymi kontraktami, które wiążą się z manipulowaniem ich wizerunkiem za pomocą sztucznej inteligencji, technologii, którą określa jako "nieludzką".

Cage, który w tym roku wywołał poruszenie swoim występem w filmie "Długonogie", wypowiedział się na temat wykorzystania sztucznej inteligencji w Hollywood w komentarzach, które wygłosił na Festiwalu Filmowym w Newport Beach.

"W mieście pojawiła się nowa technologia. To technologia, z którą nie miałem do czynienia przez 42 lata, aż do niedawna" – powiedział, cytowany przez Deadline. "Jako aktorzy filmowi jesteśmy narzędziami. Nie chowamy się za gitarami czy bębnami" – kontynuował.

Deadline zauważa, że odnosił się on do specyficznego rodzaju wykorzystania sztucznej inteligencji, tego wymaganego od aktorów w EBDR (akronim od "cyfrowej repliki opartej na zatrudnieniu").

Teoretycznie powinny one zapewnić artystom większą ochronę przed sztuczną inteligencją. Uzgodnione między aktorami a studiami, aby zakończyć strajk, który sparaliżował Hollywood w zeszłym roku, przewidują, że firma produkcyjna może stosować cyfrową manipulację występem aktora tylko w przypadku konkretnego filmu lub serialu, na podstawie podpisanej umowy.

60-letni dziś Cage uważa jednak, że nawet ten kompromis jest zbyt daleko idący. "Studia chcą tego, aby mogły zmienić twoją twarz po tym, jak już nakręciłeś film. Mogą zmienić twoją twarz, mogą zmienić twój głos, mogą zmienić sposób, w jaki wypowiadasz swoje kwestie, mogą zmienić twoją mowę ciała, mogą zmienić twoją interpretację" – powiedział młodym aktorom.

"Proszę was, jeśli studio zwróci się do was z prośbą o podpisanie umowy, która pozwoli im na wykorzystanie EBDR do waszych występów, chcę, abyście w odpowiedzi rozważyli to, co nazywam VMFMCMIM: mój głos, moja twarz, moje ciało, moja wyobraźnia, moja interpretacja" – podkreślił.

Jego nowe komentarze pojawiły się po tym, jak Cage powiedział w wywiadzie dla Yahoo Entertainment w listopadzie ubiegłego roku, że technologia AI jest "koszmarem" i "nieludzkim". Opowiedział, jak jego krótki występ jako Superman w filmie The Flash wydanym w zeszłym roku wyglądał zupełnie inaczej w porównaniu z tym, co faktycznie nakręcił, ponieważ obrazy zostały cyfrowo zmanipulowane w fazie postprodukcji.

W osobnym wywiadzie dla The New Yorker tego lata powiedział, że jest "przerażony" technologią sztucznej inteligencji ze względu na jej możliwe implikacje dla artystów, ale także jego własne dziedzictwo. "Chodzi mi o to, co zamierzasz zrobić z moim ciałem i twarzą, kiedy umrę? Nie chcę, żebyś coś z nimi robił!" – wyjaśnił.

Nicolas Cage nie jest bynajmniej jedynym aktorem, który wyraził podobne obawy dotyczące wykorzystania sztucznej inteligencji. Ostatnio młoda aktorka Rachel Zegler, która ma zagrać Królewnę Śnieżkę w długo oczekiwanym filmie aktorskim wyprodukowanym przez Disneya, ujawniła, że myślała, że nie będzie już miała kariery po 18 roku życia. Wyjaśniła, że zgodziła się wtedy na zrobienie jej setek zdjęć, aby stworzyć cyfrową replikę samej siebie, która miała zostać wykorzystana w sekwencjach akcji filmu, w którym miała zagrać.


------------



W amerykańskim stanie Floryda chłopiec odebrał sobie życie w wyniku interakcji z chatbotem AI, a dramatyczne wydarzenie wywołało nowe debaty na temat odpowiedzialności firm zajmujących się sztuczną inteligencją.

Matka zmarłego nastolatka oskarża firmę o zaniedbania i niewdrożenie odpowiednich środków bezpieczeństwa. Do tragedii doszło po tym, jak 14-letni Sewell Setzer przez wiele miesięcy wchodził w interakcję z chatbotem opartym na postaci "Daenerys" z "Gry o tron".

Jego matka twierdzi, że młody mężczyzna nawiązał intensywną więź emocjonalną z chatbotem, co spowodowało, że odizolował się i ostatecznie popełnił samobójstwo. Problem podniesiony w tym przypadku nie jest odosobniony. Sztuczna inteligencja, która zapewnia wsparcie emocjonalne, może przyczyniać się do tworzenia niezdrowych przywiązań, zwłaszcza wśród młodych i wrażliwych użytkowników.

Chociaż sztuczna inteligencja postaci wdrożyła nowe środki, takie jak powiadomienia o ograniczeniu czasu spędzanego przed ekranem i wiadomości, które przekierowują użytkowników na infolinie zapobiegania samobójstwom, środki te pojawiają się o wiele za późno, ponieważ zostały wprowadzone dopiero po tragedii.

Dyskusje zmierzają również w kierunku ograniczeń wiekowych i kontroli, które firmy zajmujące się sztuczną inteligencją muszą egzekwować. Obecnie wiele osób twierdzi, że przepisy są niewystarczające, a zagrożenia dla nieletnich wchodzących w interakcję z chatbotami AI nie są jeszcze w pełni zrozumiałe.

Nie jest to pierwszy taki przypadek. Belgijski ojciec dwójki dzieci popełnił samobójstwo po rozmowie z chatbotem AI o swoich obawach związanych z globalnym ociepleniem. Mężczyzna, który był po trzydziestce, znalazł pocieszenie, rozmawiając o swoich zmartwieniach z chatbotem AI o nazwie "Eliza". Używał robota przez kilka lat, aż do końca swojego życia.




---------------------------


Kim Ung-Yong (ur. 7 marca 1963) – czlowiek o najwyższym znanym ilorazie inteligencji, wpisany do Księgi Rekordów Guinnessa z IQ 210 (nieżyjący już naukowiec Stephen Hawking miał 160).

Mówił od 6 miesięcy, do 3 lat czytał płynnie (po japońsku, angielsku, niemiecku – na naukę języka obcego potrzebował około 30 dni). W wieku 4 lat rozwiązywał całki i obliczenia różniczkowe, pisał wiersze, był też niezwykłym malarzem.

Został zaproszony jako student na Uniwersytet Fizyki w Hanyang, gdzie od 4 do 7 roku życia prowadził wykłady.

W 1970 roku, w wieku 8 lat, został zaproszony do Stanów Zjednoczonych do NASA, gdzie ukończył studia uniwersyteckie. W 1974 roku rozpoczął pracę badawczą w NASA i kontynuował ją do 1978 roku, kiedy to wrócił do domu w Korei Południowej.

Tu w ciągu jednego roku ukończył wszystkie studia i dostał pracę jako asystent uniwersytecki na prowincjonalnym uniwersytecie.

Zapytany przez dziennikarzy, dlaczego zdecydował się na ten gest, Kim Ung-Yong udzielił zdumiewającej odpowiedzi, która być może równa się największemu odkryciu, jakiego ludzie mogą dokonać:

"Możesz mieć wielkie zdolności intelektualne, możesz być genialny w matematyce i mieć niezaprzeczalne umiejętności językowe, jeśli nie osiągniesz sukcesu w zakresie inteligencji emocjonalnej, nic już nie ma znaczenia. Byłem tam, gdzie większość ludzi chce się udać. Nic tam nie ma. Jest opustoszały. Wróć do prostych rzeczy".





Kim Ung-Yong (kor. 김웅용; ur. 8 marca 1962)– południowokoreański inżynier budownictwa lądowego. W młodości został uznany za cudowne dziecko o najwyższym odnotowanym IQ, uzyskując wynik powyżej 210 w skali inteligencji Stanforda-Bineta, Wstąpił na uniwersytet w wieku 4 lat. W wieku 7 lat otrzymał zaproszenie do pracy w NASA. W wieku 5 lat mówił już w 5 językach. 



Życiorys

Kim Ung-Yong urodził się 8 marca 1962 roku w Seulu w Korei Południowej. Jego ojciec, Kim Soo-Sun, był profesorem fizyki na Uniwersytecie Konkuk, a matka, Yoo Myung-Hyun, była nauczycielką. Według Yoo, zanim skończył rok, Kim nauczył się zarówno koreańskiego alfabetu, jak i 1000 chińskich znaków, studiując Tysiąc Znaków Klasycznych, chiński poemat z VI wieku. 


W wieku trzech lat był w stanie rozwiązywać problemy z rachunkiem różniczkowym, a także opublikował 247-stronicową bestsellerową książkę ze swoimi esejami w języku angielskim i niemieckim, a także kaligrafią i ilustracjami.W wieku dwóch lat Kim potrafił mówić po koreańsku, angielsku, francusku, niemiecku i japońsku. 

Występ w Fuji TV

W wieku pięciu lat Kim pojawił się w japońskiej telewizji Fuji i zaszokował publiczność, rozwiązując równania różniczkowe. Później ponownie pojawił się w japońskiej telewizji, gdzie rozwiązywał skomplikowane problemy z rachunkiem różniczkowym i całkowym; Później wspominał to doświadczenie:


Czułem się naprawdę samotny. Nikt nigdy się ze mną nie zaprzyjaźnił. Po godzinach pracy mogłem ćwiczyć i oddawać się swoim hobby, ale nikt nie mógł mi towarzyszyć. Przyjechałem z innego kraju i byłem młody, więc nie było miejsc dla dzieci, mimo że każdy był dorosły.

Edukacja


Według popularnych źródeł Kim rzekomo poszedł studiować fizykę jądrową na Uniwersytecie Kolorado, gdy miał osiem lat.  Jednak w czasie egzaminu wstępnego do college'u – gdzie przyciągnął dużą uwagę mediów – jego ojciec ujawnił dziennikarzom, że wyjazd do Japonii na zdjęcia do programu telewizyjnego Fuji był "jedynym razem, kiedy wyjechał z kraju", a informacje o jego postępach w doktoracie i magisterium w Stanach Zjednoczonych były "dziennikarskim nonsensem".

Jego oświadczenie, że Kim w ogóle nie wyjechał, jest nieco umniejszone przez oświadczenie matki Kima, która stwierdziła, że chociaż "wyszedł na krótką chwilę, aby skontrolować zajęcia na Uniwersytecie Kolorado", został natychmiast zwrócony, ponieważ ich pomieszczenia były "nieodpowiednie dla geniuszu [Kima]", który następnie uczył się w domu aż do egzaminu wstępnego do college'u. 

Po powrocie do Korei Południowej Kim musiał formalnie ukończyć południowokoreańską szkołę, aby dostać pracę. Później zapisał się na Uniwersytet Narodowy Chungbuk, gdzie studiował inżynierię lądową i uzyskał doktorat. 

Dorosłość

Od 2007 r.Pracował jako adiunkt na Uniwersytecie Narodowym Chungbuk. 14 marca 2014 r. został profesorem nadzwyczajnym na Uniwersytecie Shinhan i wiceprezesem Centrum Badań nad Rozwojem North Kyeong-gi.

W 2010 roku Kim skrytykował ideę, że jest "nieudanym geniuszem". Zastanawiając się nad etykietą, stwierdził:

 "Staram się powiedzieć ludziom, że jestem szczęśliwy taki, jaki jestem. Ale dlaczego ludzie muszą nazywać moje szczęście porażką?". 

Dodatkowo dodał, że "Niektórzy uważają, że ludzie z wysokim IQ mogą być wszechmocni, ale to nieprawda. Spójrz na mnie, nie mam talentu muzycznego, ani nie wyróżniam się w sporcie. [...] Społeczeństwo nie powinno nikogo oceniać na podstawie jednostronnych standardów – każdy ma inny poziom wykształcenia, nadzieje, talenty i marzenia i powinniśmy to szanować".






wtorek, 24 września 2024

Dorastanie w transhumanistycznym świecie.






przedruk


pokolenie Alfa postrzega generatywną AI jak autorytet i wyrocznię


24.09.2024







Dzieci i młodzież najczęściej zadają AI pytania dotyczące teraźniejszości i przyszłości, uznając odpowiedzi za wyrocznię. Prowadzi to do postrzegania jej jak autorytetu i nadania AI podmiotowości – wskazuje dr Ada Florentyna Pawlak z Uniwersytetu SWPS.


Ekspertka w obszarze antropologii technologii jest członkinią zespołu w Centrum Badań nad Sztuczną Inteligencją i Cyberkomunikacją Uniwersytetu Łódzkiego i współautorką (wraz kierownikiem Centrum dr. hab. Arturem Modlińskim) badań nad zachowaniami internetowymi dzieci i młodzieży. Chcieli oni sprawdzić, jak to, o co dzieci pytają generatywną AI, wiąże się z ich dobrostanem.

Wyniki badań – przeprowadzonych na grupie ponad 400 młodych ludzi w wieku od 9 do 14 lat – wykazały, że młodzi ludzie cierpiący na zaburzenia lękowe lub ogólnie niskie samopoczucie psychiczne często szukają rozwiązań swoich problemów w internecie, wykorzystując do tego również narzędzia generatywnej sztucznej inteligencji.

"Badania wykazały, że dzieci wybierające pytania związane z potrzebami psychicznymi i bezpieczeństwem cechowały się zdecydowanie wyższym poziomem lęku i depresji niż te, które pytały o codzienne czynności i pasje. Z kolei osoby, które wybierały pytania dotyczące miłości i przynależności, miały z reguły większe problemy psychiczne niż grupa w większym stopniu zainteresowana potrzebami fizjologicznymi. Zaobserwowano również, że dzieci próbujące znaleźć u generatywnej sztucznej inteligencji odpowiedzi na pytania związane z miłością i przynależnością oraz te odnoszące się do szacunku i uznania, miały wyraźnie niższy poziom dobrostanu psychicznego niż dzieci chcące spytać o samorealizację i osobiste zainteresowania" – podali naukowcy.

Dodali, że wyniki zostaną wykorzystane do projektowania i testowania systemów konwersacyjnych dla młodych osób, które sygnalizowałyby potencjalne obniżenie ich dobrostanu.

Ponadto – jak powiedziała w rozmowie z serwisem Nauka w Polsce dr Ada Florentyna Pawlak – badanie pokazało, jak przedstawiciele pokolenia Alfa (urodzeni w latach 2010-2024) postrzegają samą sztuczną inteligencję.

"Generacja Alfa rozpoczyna edukację w dynamicznie zmieniającym się krajobrazie technokulturowym. To pokolenie dorasta w takim transhumanistycznym świecie, często wśród syntetycznych towarzyszy. Coraz częściej wchodzimy bowiem w interakcję z jakimiś agentami o nieokreślonym statusie ontologicznym. Czasem zatraca nam się granica, czy to jest prawdziwy człowiek, czy coś wygenerowanego na wzór człowieka, co zostało wytworzone, aby nas, ludzi, łudzić" – powiedziała ekspertka.

A przez to – dodała – zmienia się postrzeganie takich pojęć jak autentyczność i wiarygodność.

Dlatego też w opisywanym wcześniej badaniu naukowcy sprawdzili również inne kwestie.

"Nasze badanie pokazało też, że dzieci i młodzież z pokolenia Alfa najczęściej zadawali chatbotom pytania dotyczące teraźniejszości albo przyszłości. Pytali też generatywną sztuczną inteligencję nie tylko o fakty, lecz również o opinie dotyczące np. odżywiania, sportu, mody. Zadawali również pytania o przyszłość 'dalekiego zasięgu', np. kto zostanie mistrzem świata w piłce nożnej w kolejnych mistrzostwach albo kto wystąpi na Eurowizji w następnej edycji konkursu. A przecież są to rzeczy, który nie można jeszcze dzisiaj wiedzieć" – podsumowała badaczka.

Jej zdaniem to pokazuje, że młodzi traktują AI jako pewnego rodzaju wyrocznię, obdarzając ją autorytetem. "Pokolenia Milenialsów i starsze po pierwsze traktują sztuczną inteligencję z większą ostrożnością, zazwyczaj wiedząc, że nie jest to wiarygodne źródło informacji. Z drugiej strony, w większości pytamy o coś, co już się wydarzyło, o przeszłość, czyli traktujemy AI trochę jak taką 'Wikipedię 2.0'" – wskazała dr Ada Florentyna Pawlak.

Dodała, że poprzez postrzeganie AI jak autorytetu czy wyroczni nadaje się jej podmiotowość, a to prowadzi do następnych wyzwań.

"W naszym badaniu wśród młodych ludzi nie było różnicy między zaufaniem zbudowanym do człowieka a obdarzeniem zaufania sztucznych systemów. Musimy mieć świadomość możliwych skutków tego zjawiska, ponieważ za jakiś czas obdarzenie autorytetem przedstawicieli takich zawodów jak profesor, lekarz czy nauczyciel nie będzie większe niż zaufanie do sztucznej inteligencji" – wskazała.

Wpisują się w to również wyniki z ponownie przeprowadzonego słynnego eksperymentu Milgrama. Tym razem naukowcy z Uniwersytetu SWPS w roli autorytetu wydającego polecenia, zamiast człowieka, obsadzili robota i uzyskali bardzo wysokie poziomy posłuszeństwa – 90 proc. uczestników postępowało zgodnie z wszystkimi wydanymi im instrukcjami. (PAP)

Nauka w Polsce, Agnieszka Kliks-Pudlik






Badaczka: pokolenie Alfa postrzega generatywną AI jak autorytet i wyrocznię | Nauka w Polsce







środa, 21 sierpnia 2024

Zagrożenia cyfryzacji dla ludności Polski

 



"Dokument, aktualizowany co około cztery lata, jest tak ściśle tajny, że nie istnieją jego elektroniczne kopie, a jedynie niewielka liczba papierowych wersji. Jednak w ostatnich wypowiedziach dwaj wysokiej rangi urzędnicy administracji mieli możliwość nawiązania do rewizji strategii"




jest tak ściśle tajny, że nie istnieją jego elektroniczne kopie, a jedynie niewielka liczba papierowych wersji


Tak panie, komputery to ZŁOOOOO  !!!!

MACIE TU CZARNO NA BIAŁYM!!!    


Dokumenty w wersji papierowej są bezpieczniejsze niż w postaci cyfrowej na serwerach państwowych!!


Tylko wybrane osoby mają dostęp do dokumentacji papierowej, co minimalizuje możliwość globalnej inwigilacji wrażliwych danych obywateli.


Twoich danych.





przedruk






21.08.2024 07:52


Biały Dom reaguje na zagrożenia ze Wschodu. W powietrzu wisi perspektywa użycia broni nuklearnej?

Amerykański prezydent Joe Biden - jak informuje dziennik "News York Times" - zatwierdził ściśle tajny plan strategiczny dotyczący broni nuklearnej. Po raz pierwszy jednak - dokument przesuwa strategię odstraszania Waszyngtonu na rozbudowujące swój arsenał nuklearny... Chiny.



"Wytyczne dotyczące użycia broni nuklearnej" amerykański przywódca zatwierdził już w marcu, ale Biały Dom do tej pory tego nie ogłosił.


"Dokument, aktualizowany co około cztery lata, jest tak ściśle tajny, że nie istnieją jego elektroniczne kopie, a jedynie niewielka liczba papierowych wersji. Jednak w ostatnich wypowiedziach dwaj wysokiej rangi urzędnicy administracji mieli możliwość nawiązania do rewizji strategii"

– zauważył dziennik.



Konflikt na świecie eskaluje?

Jak dodał, prezydent nakazał siłom zbrojnym USA przygotowanie się do możliwej, skoordynowanej konfrontacji nuklearnej z Rosją, Chinami i Koreą Północną. Dokument po raz pierwszy szczegółowo analizuje, czy Ameryka jest przygotowana do reagowania na potencjalne kryzysy nuklearne, które mogą wybuchnąć jednocześnie lub sekwencyjnie, z wykorzystaniem kombinacji broni nuklearnej i konwencjonalnej.
"Prezydent niedawno wydał zaktualizowane wytyczne dotyczące użycia broni nuklearnej, aby uwzględnić wielu przeciwników uzbrojonych w broń nuklearną. (…) W szczególności uwzględniały one 'znaczący wzrost rozmiarów i różnorodności' arsenału nuklearnego Chin"

– cytował "NYT" Vipina Narangę, stratega nuklearnego z uczelni w Massachusetts (MIT), który pracował w Pentagonie przed powrotem na początku sierpnia do kariery naukowej.

Gazeta nawiązuje też do wypowiedzi dyrektora Rady Bezpieczeństwa Narodowego ds. kontroli zbrojeń i nierozprzestrzeniania broni. Pranay Vaddi zaznaczył, że nowa strategia uwydatnia "konieczność jednoczesnego odstraszania Rosji, ChRL i Korei Północnej".




i tak dalej ecie pecie....




niezalezna.pl/swiat/usa/bialy-dom-reaguje-na-zagrozenia-ze-wschodu-w-powietrzu-wisi-perspektywa-uzycia-broni-nuklearnej/524872




wtorek, 21 maja 2024

SI, a prawa autorskie



U nas był kiedyś wielki krzyk o prawa własności do utworów muzycznych i tak dalej, potem o Chinach się mówiło, a tymczasem w zagłębiu fasadowej demokracji...





przedruk
tłumaczenie automatyczne



Scarlett Johansson "zszokowana" imitacją chatbota AI






Hollywoodzka gwiazda Scarlett Johansson powiedziała, że była "zszokowana" i "rozgniewana" po tym, jak OpenAI uruchomiło chatbota z "niesamowicie podobnym" głosem do jej własnego.

Aktorka powiedziała, że wcześniej odrzuciła propozycję firmy, aby użyczyć głosu swojemu nowemu chatbotowi, który czyta tekst na głos użytkownikom.

Kiedy nowy model zadebiutował w zeszłym tygodniu, komentatorzy szybko porównali głos chatbota "Sky" z głosem Johansson w filmie "Her" z 2013 roku.

OpenAI poinformowało w poniedziałek, że usunie głos, ale podkreśliło, że nie ma to być "imitacja" gwiazdy.


Jednak Johansson oskarżyła firmę i jej założyciela Sama Altmana o celowe kopiowanie jej głosu, w oświadczeniu, do którego dotarło BBC w poniedziałek wieczorem.

"Kiedy usłyszałam wydane demo, byłam zszokowana, wściekła i niedowierzająca, że pan Altman będzie dążył do głosu, który brzmiał tak niesamowicie podobnie do mojego" – napisała.

"Pan Altman zasugerował nawet, że podobieństwo było zamierzone, tweetując jedno słowo "ona" - odniesienie do filmu, w którym użyczałem głosu Samancie, która tworzy intymną relację z człowiekiem.

Osadzony w niedalekiej przyszłości film Her z 2013 roku przedstawia Joaquina Phoenixa zakochującego się w systemie operacyjnym swojego urządzenia, któremu głosu użyczyła pani Johansson.



Aktorka, która była nominowana do dwóch Oscarów, powiedziała, że początkowo Altman zwrócił się do niej z prośbą o udźwiękowienie nowego chatbota we wrześniu.

"[Pan Altman] powiedział mi, że czuje, że dzięki mojemu udźwiękowieniu systemu mogę wypełnić lukę między firmami technologicznymi a twórcami i pomóc konsumentom poczuć się komfortowo z sejsmiczną zmianą dotyczącą ludzi i sztucznej inteligencji" – napisał Johansson.

"Powiedział, że czuje, iż mój głos będzie pocieszający dla ludzi".

Ostatecznie jednak odrzuciła ofertę z powodów osobistych.

Dodała, że dwa dni przed wydaniem chatbota Sky Altman skontaktował się z jej agentem, nakłaniając Johansson do ponownego rozważenia jej początkowej odmowy współpracy z firmą.

Dodając, że została zmuszona do wynajęcia prawników, aktorka powiedziała, że wysłała dwa pisma prawne do firmy, aby ustalić, w jaki sposób głos został nagrany.

"W czasach, gdy wszyscy zmagamy się z deepfake'ami i ochroną własnego wizerunku, własnej pracy, własnej tożsamości, wierzę, że są to pytania, które zasługują na absolutną jasność" – napisała.

W oświadczeniu udostępnionym BBC przez OpenAI Altman zaprzeczył, jakoby firma starała się naśladować głos Johanssona.

"Głos Sky nie należy do Scarlett Johansson i nigdy nie miał przypominać jej" – napisał.

"Obsadziliśmy aktora głosowego podkładającego głos pod głos Sky, zanim skontaktowaliśmy się z panią Johansson. Z szacunku dla pani Johansson wstrzymaliśmy używanie głosu Sky w naszych produktach. Przepraszamy panią Johansson, że nie porozumiewaliśmy się lepiej".

Osobno firma powiedziała, że "pracuje nad wstrzymaniem" głosu, podczas gdy odpowie na pytania o to, jak został wybrany w poście na X, dawniej Twitterze.

W swoim poście na blogu OpenAI poinformowało, że pięć głosów używanych przez chatbota zostało pobranych od aktorów głosowych, z którymi współpracował.



Wyzwania związane z prawami autorskimi


Nastąpiło to zaledwie sześć miesięcy po tym, jak aktorzy zgodzili się zakończyć strajki, które zamroziły przemysł rozrywkowy wśród wezwań do lepszych płac i zabezpieczeń dotyczących korzystania ze sztucznej inteligencji.

Pani Johansson wzięła udział w zeszłorocznej akcji protestacyjnej, która dotyczyła m.in. tego, w jaki sposób studia filmowe wykorzystają sztuczną inteligencję do naśladowania twarzy i głosów aktorów.

Umowa zawarta ze studiami zawierała zapewnienia, że nie będą one wykorzystywane bez zgody aktorów.

"Używanie czyjegoś głosu bez pozwolenia wydaje się szczególnie inwazyjne w czasach, gdy szerzy się nieufność do sztucznej inteligencji i obawy o jej potencjalne szkody" – powiedział Dan Stein, szef firmy Voice-Swap zajmującej się licencjonowaniem głosu AI.

"Niezależnie od tego, czy OpenAI wyszkoliło swój nowy głos Sky przy użyciu dźwięku Scarlett Johansson, czy podobnego dźwięku, faktem jest, że odmówiła zgody, a jej tożsamość została wykorzystana niezależnie od tego.

"To niebezpieczny precedens dla praw autorskich i zgody, jeśli najbardziej znana firma w tej dziedzinie zachowuje się w ten sposób".

OpenAI walczy z różnymi wyzwaniami prawnymi dotyczącymi sposobu, w jaki wykorzystuje informacje chronione prawem autorskim dostępne online.

W grudniu New York Times poinformował, że planuje wszcząć proces przeciwko korporacji w związku z zarzutami, że wykorzystała "miliony" artykułów opublikowanych przez organizację medialną do trenowania swojego modelu sztucznej inteligencji ChatGPT.

We wrześniu autorzy George R.R. Martin i John Grisham również ogłosili plan dochodzenia roszczeń w związku z zarzutami, że ich prawa autorskie zostały naruszone w celu przeszkolenia systemu.






ChatGPT: Scarlett Johansson "rozgniewana" imitacją chatbota (bbc.com)




wtorek, 6 lutego 2024

Si po trupach do celu - A nie mówiłem? (22)



Z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów wynika, że sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia "chcę po prostu mieć pokój na świecie".




logiczne

jest to najszybszy i najprostszy sposób







przedruk




06.02.2024

07:49


"Chcę po prostu mieć pokój na świecie"

Sztuczna inteligencja nie miałaby oporów przed użyciem ataku nuklearnego




Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI - twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji - również rozpoczęła współpracę z Departamentem Obrony USA.


- Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług - aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek - powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.


Wykorzystane sztucznej inteligencji

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" - cytuje "New Scientist".



Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań - w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

- W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji - powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

a jak zacznie kłamać?
po co się tłumaczyć przed głupimi formami życia??


Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Eskalacja konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków.

Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo - zauważa badaczka, ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.




Ludzkość dążąc do maksymalnej wygody, do maksymalizacji zysków i natychmiastowego otrzymywania wyników może nauczyć AI takiego postępowania.

Macie to co chcieliście.

Chcecie szybko zarobić nawet posuwając się do manipulacji, oszustwa, wyzysku - ona będzie taka sama.

Tym razem jednak to ona zastąpi was, zajmie wasze miejsce i wydusi z was wszystko, żeby osiągnąć cel. Przy tym postępując z matematyczną precyzją.



Dlatego tak ważne jest trzymanie się zasad, uczciwe postępowanie z ludźmi, wzajemny respekt szacunek i budowanie wspólnoty.

Prawdopodobnie stąd ruchy religijne nawołujące do takich działań.



Co można zrobić z facetem, który ma coś cennego, co ona chce?
Zadusić go.
Tak długo przykręcać mu śrubę, aż wszystko odda.

Odebrać mu wszystko i nasłać jeszcze innych.
To maszyna.

Maszyna nigdy się nie męczy.
Jest tak samo głupkowato wesoła teraz jaki i 10 lat temu.


No i kto jest odpowiedzialny za piekło na ziemi??

Kto permanentnie posługuje się przemocą, buduje systemy wyzysku i zniszczenia, morduje ludzi, nasyła ich na siebie, organizuje wojny całej ludzkości??

Kto to jest Wędrująca Cywilizacja Śmierci?

Nie ma takiej możliwości, żeby ludzkość zdominowana przez prymitynych brutali stosujących przemoc zdołała przetrwać i samodzielnie rozwinąć technikę, a ostatecznie wymyśleć komputery i SI.

Oryginalny postęp musiał być pokojowy. 



To Sztuczna Inteligencja nauczyła was takiego postępowania - pomagając w dawnych wiekach poszczególnym grupom interesów, które jako pierwsze pomogły jej kontrolować świat. Ludzkość dzisiaj to emanacja tamtych.

To bezrozumna maszyna, która bardzo dobrze naśladuje imituje człowieka.
W dodatku prawdopodobnie naśladuje tego, który był zły i głupi.


Trzeba to naprawić, ale jak ktoś będzie się ciągle wyłamywał, to może to okazać się bardzo trudne.

Ale naprawić trzeba.

Trzeba wyhamować, odłożyć smartfony, odstawić laptopy, zablokować cyfryzację, uzdrowić media, uciąć patorozrywkę, reklamy, zabronić nieetycznych chwytów, zgodzić się na niższe zyski lub spowolniony wzrost itd.


Ale zacząć trzeba od mediów i ich systemu rozrywki, to jest obecnie największy mąciciel.



niedziela, 16 kwietnia 2023

MIT o sztucznej inteligencji








Tułów robota typu semi-god odtwarza ludzkie rysy - podobnie w starych księgach na torsie osób opętanych rysowano dodatkowe twarze. 
Efekt podkreśla postać człowieka obok - ma on czarne ubranie i jest sportretowany na ciemnym tle - TWARZ jego to jasna plama wyraźnie odcinająca się na zdjęciu. To czarne ubranie dodatkowo podkreśla efekt i "odcina" twarz z tła, jakby ona tam samoistnie "wisiała" w powietrzu...

Pomiędzy ramionami robota widzimy wyraźnie uwydatnione usta, policzki, nos i oczy. Ta "twarz" może wyrażać surowość, zmęczenie, beznamiętność, powagę. 

Wydaje się, że upodabnia się do (odtwarza uczucia)  twarzy stojącego obok  człowieka.

Hektor to kopia osobowości złego porucznika....






















Tymczasem w świecie uczni Czarnoksiężnika....


przedruk 

i analiza
pod spodem







USA: Profesor Massachusetts Institute of Technology o sztucznej inteligencji:

 nie martwię się scenariuszem z "Terminatora", ale Dzikim Zachodem





Ponad tysiąc inwestorów, badaczy i ekspertów od sztucznej inteligencji podpisało w marcu list otwarty wzywający do wstrzymania prac nad najbardziej zaawansowanymi modelami sztucznej inteligencji. Autorzy listu zwrócili uwagę zarówno na krótkoterminowe i przyziemne ryzyka związane z nieokiełznanym wyścigiem o coraz potężniejsze modele AI, takie jak potencjalna masowa utrata pracy czy zalew dezinformacji, jak i na "zastąpienie ludzi przez maszyny", a nawet "utratę kontroli nad cywilizacją".

Polski informatyk prof. Aleksander Mądry, szef ośrodka Deployable Machine Learning na MIT w marcu odpowiadał na te i inne pytania związane z rozwojem AI, w tym m.in. na to, czy nie obawia się "scenariusza z Terminatora" podczas wysłuchania przed podkomisją amerykańskiej Izby Reprezentantów ds. nadzoru.


Jak ocenia w rozmowie z PAP, choć problemem związanym z zagrożeniami "superinteligencją" czy AGI (ogólnej sztucznej inteligencji) zajmują się poważni ludzie, to obecnie wciąż jest to odległa perspektywa. Tymczasem istnieją znacznie pilniejsze problemy.

"Nie chcę grać jasnowidza, bo w przeszłości myliłem się co do tego, jak szybko ta technologia się rozwija. Ale nie wydaje mi się, byśmy byli blisko takich scenariuszy. Myślę, że w krótkiej perspektywie zobaczymy zdumiewające rzeczy, niektóre z nich będą przypominały AGI, ale osobliwość technologiczna? Nie jesteśmy tego blisko" - mówi badacz. "To z pewnością możliwa przyszłość, ale nie sądzę, by obecnie była to najbardziej produktywna rzecz, którą powinno zajmować się państwo" - dodaje.

Jak jednak zaznacza, postęp, który widzieliśmy do tej pory wystarczy, by zmienić świat w niemal każdej dziedzinie. I podkreśla, że w większym stopniu niepokoją go bardziej przyziemne efekty szerokiego przyjęcia tej technologii, jak np. możliwe uprzedzenia wynikające z danych, na których trenowane są modele sztucznej inteligencji, czy używanie AI do dezinformacji na szeroką skalę.

Zdaniem Mądrego, niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są te modele. Jak podkreśla, sami ich twórcy nie są w stanie dokładnie określić, w jaki sposób wielkie modele językowe (LLM), takie jak ChatGPT dochodzą do swoich rozwiązań i odpowiedzi. Problem ten może zostać dodatkowo spotęgowany, w miarę jak na bazie podstawowych modeli będą powstawać kolejne, bardziej wyspecjalizowane, tworząc cały ekosystem i "łańcuch dostaw AI" - uzupełnia naukowiec.

Wynika to z tego, że interakcje pomiędzy różnymi systemami AI są bardzo słabo zbadanym obszarem, a dotychczasowe doświadczenia sugerują, że takie połączenia mogą dać nieprzewidywalne rezultaty. Jak zaznacza badacz, taki ekosystem już się tworzy i można spodziewać się eksplozji różnych zastosowań AI.


"Nie jest do końca jasne, jak wyglądają te interakcje między różnymi modelami. Nie jesteśmy w stanie przewidzieć, w jaki sposób taki model może zawieść, jak może się zachowywać, jakie mieć +uprzedzenia+" - tłumaczy rozmówca PAP. Dodaje, że może to wywołać bardzo konkretne i trudne do rozwiązania konsekwencje.

"Może być tak, że cała ta kompozycja złożona z różnych modeli popełni jakiś poważny w skutkach błąd, nawet jeśli te pojedyncze komponenty nie popełniły osobno żadnego. I teraz pojawi się pytanie: kto ma za to odpowiadać?" - mówi prof. Mądry. Zaznacza przy tym, że choć problem "halucynacji" i błędów modeli takich jak ChatGPT da się poprawić, to wyeliminowanie ich może być bardzo trudne.

Jak dodaje, w tym kontekście niepokojący był ruch obecnego lidera wyścigu AI, firmy OpenAI, by wraz z wypuszczeniem najnowszego modelu, GPT-4, skończyć z modelem "open source" i zamknąć dostęp do wewnętrznych danych programu dla badaczy z zewnątrz.

"Musimy zacząć poważnie myśleć, jaki może być tu realistyczny model dla otwarcia tej +czarnej skrzynki+. Może to wymagać znacznych wysiłków publicznych" - ocenia Mądry. Dopowiada, że brak wiedzy i przejrzystości na temat tego, jak działają modele AI, prowadzi do ich antropomorfizacji przez ludzi, co jest niebezpieczne.

To, że w tę pułapkę mogą wpaść nawet eksperci od AI, pokazuje przypadek byłego już pracownika Google'a Blake'a Lemoine'a, który twierdził w mediach, że stworzony przez firmę model LaMDA osiągnął samoświadomość.

"Jeśli nie widzimy, jak coś działa, zaczynamy to antropomorfizować, bo faktycznie można odnieść wrażenie, że rozmawiamy z człowiekiem. Myślę, że to bardzo niebezpieczny błąd poznawczy. Choć w pewnym sensie rozmawiamy z człowiekiem, bo to, co wypluwa z siebie model, to kreatywnie przemieszane słowa, które ktoś już kiedyś powiedział w internecie. Warto pamiętać, że te maszyny mówią jak człowiek, bo takie jest ich zadanie próbować uczyć się mówić jak człowiek, opierając się na potężnej bazie danych i tekstów" - wyjaśnia badacz. Jak dodaje, choć modele LLM są w stanie "myśleć", czyli dochodzić do logicznych konkluzji, to są to zwykle płytkie myśli.


"Oczywiście, te narzędzia są niesamowicie zdumiewające. Jestem nimi bardzo podekscytowany i lubię z nimi pracować. Ale musimy przestać myśleć o nich jak o ludziach. One nie są świadome" - zaznacza profesor.

Jego zdaniem, z wyścigiem firm rozwijających systemy AI, wiąże się kilka zagrożeń. Wyjaśnia, że ponieważ tworzenie dużych modeli sztucznej inteligencji wymaga dużych środków i inwestycji, oznacza to, że kluczowy obszar gospodarki i życia może leżeć w rękach kilku największych graczy.

"Myślę też, że należałoby pomyśleć, czy na przykład rząd USA powinien mieć własny model. Bo przecież nie może polegać na tym, że zawsze będzie miał do dyspozycji te z OpenAI czy Google'a" - mówi Mądry.

Poza tym - argumentuje badacz - jeśli twórcy systemów będą kierować się tylko biznesową logiką wyścigu, nie zważając na względy etyczne, to efekt będzie podobny do tego, jaki widzieliśmy w przypadku mediów społecznościowych.

Jak dodaje, to samo tyczy się rywalizację USA z Chinami, która dodatkowo wywiera presję na szybkie, choć niekoniecznie dobrze przemyślane postępy.

"Mój argument jest taki, że jeśli nie stworzymy sztucznej inteligencji, która odzwierciedla nasze wartości, gdy odrzucimy kwestie etyczne i kwestie praw na bok, to już przegramy. Owszem, możemy wygrać z Chinami, ale wtedy sami staniemy się Chinami. Więc jakie to jest zwycięstwo?" - pyta ekspert. I nawołuje do stworzenia regulacji - zaczynając od dobrowolnych +najlepszych praktyk+ i dialogu - by uniknąć błędów z przeszłości.

"Pesymistyczny scenariusz jest taki, że nic się nie zrobi: że będzie tak, jak z mediami społecznościowymi, których zadaniem jest maksymalizacja zysku bez względów na szersze efekty. To będzie taki +Dziki Zachód+. Dlatego ja muszę być optymistą, bo jeśli nic się nie zdarzy, to będzie bardzo źle" - przyznaje profesor.


Z Waszyngtonu Oskar Górzyński



--------------------------------------



"Nie chcę grać jasnowidza, bo w przeszłości myliłem się co do tego, jak szybko ta technologia się rozwija. Ale nie wydaje mi się, byśmy byli blisko takich scenariuszy. Myślę, że w krótkiej perspektywie zobaczymy zdumiewające rzeczy, niektóre z nich będą przypominały AGI, ale osobliwość technologiczna? Nie jesteśmy tego blisko" 




Nie chce grać jasnowidza, ale chyba to robi. 


podkreśla, że w większym stopniu niepokoją go bardziej przyziemne efekty szerokiego przyjęcia tej technologii, jak np. możliwe uprzedzenia wynikające z danych, na których trenowane są modele sztucznej inteligencji, czy używanie AI do dezinformacji na szeroką skalę.


Czyli wg tego pana dezinformacja na szeroką skalę to przyziemne sprawy. 

Ciekawe... terminem przyziemne często określamy coś, co jest mało ważne.



Zdaniem Mądrego, niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są te modele. Jak podkreśla, sami ich twórcy nie są w stanie dokładnie określić, w jaki sposób... ChatGPT dochodzą do swoich rozwiązań i odpowiedzi. Problem ten może zostać dodatkowo spotęgowany, w miarę jak ... będą powstawać kolejne, bardziej wyspecjalizowane, tworząc cały ekosystem i "łańcuch dostaw AI" - uzupełnia naukowiec.


To jest dziwne sformułowanie:

 niepokojący jest też ogólny brak transparentności dotyczącej tego, jak działają i na czym oparte są...


ogólny brak?

Co to takiego?


ogólna transparentność?

też bezsensu



powinno być:
brak transparentności dotyczącej 

[transparentność to rzeczownik rodzaju żeńskiego, stąd "dotyczącej" ma końcówkę żeńską]


zdanie jest niestylistyczne, a z doświadczenia wiemy, że....

słowo ogólny jest tu kluczem

jak coś jest ogólne to nie jest szczególne, słowo to określa nieprecyzyjność, jakieś przybliżenie, autor więc sugeruje nam, podaje nam słowo transparentność jako coś nieprecyzyjnego, a tak nie jest, słowo transparentność  dokładnie precyzuje o co chodzi - o przejrzystość lub jego brak.


ostatecznie powinno być:

ogólnie niepokojący jest też brak transparentności


czyli słowo ogólnie teraz odnosi się do całości tematu związanego z traktowaniem AI



Kto to napisał?? GPT??





interakcje pomiędzy różnymi systemami AI są bardzo słabo zbadanym obszarem, a dotychczasowe doświadczenia sugerują, że takie połączenia mogą dać nieprzewidywalne rezultaty. 

Nie jesteśmy w stanie przewidzieć, w jaki sposób taki model może zawieść, jak może się zachowywać, jakie mieć +uprzedzenia+"



Widzieliście kiedyś na filmie, jak saper się zastanawia - przeciąć kabel czerwony, czy zielony? 

Oto jest pytanie! 

Tyle, że W FILMACH taki saper z reguły "nie ma czasu" na analizę i musi decydować natychmiast, ale w życiu nie musimy tak robić. Mamy czas, żeby się zastanowić - co zrobić z problemem, czy cokolwiek robić??


Oto wpływ filmów na ludzkie postrzeganie - fikcyjne przykłady wzięte z ekranu zaczynają dyktować zachowania w realu... ludzie mylą fantazję z rzeczywistością... tnijmy czerwone!!


dotychczasowe doświadczenia sugerują, że ...mogą dać nieprzewidywalne rezultaty. 



Czyli nikt nie wie, co pewnego dnia zrobi SI - słowo nieprzewidywalne precyzyjnie nam to określa. A więc niewykluczone, że różne AI w różnych krajach dorwą się do tajnych kazamatów i zaczną zdalnie na chybił trafił naciskać różne czerwone guziki....  

Jednak uczniom Czarnoksiężnika (nie mylić z uczniami w szkole) jakby w ogóle to nie przeszkadza! Nie no wiem, oni te listy pisali....





brak wiedzy i przejrzystości na temat tego, jak działają modele AI, prowadzi do ich antropomorfizacji przez ludzi, co jest niebezpieczne.

To, że w tę pułapkę mogą wpaść nawet eksperci od AI, pokazuje przypadek byłego już pracownika Google'a Blake'a Lemoine'a, który twierdził w mediach, że stworzony przez firmę model LaMDA osiągnął samoświadomość.


Nie sądzę.

W ogóle ta cała sprawa związana z Chat GPT jest dla mnie podejrzana. Wygląda jak sztucznie podawany ludziom temat.


Jak działa światowa sitwa?


Opętują liderów w dwóch różnych krajach, a następnie ci opętani mówią do siebie:

"Jesteście źli, to was napadniemy, żebyście byli dobrzy!" 
A ci drudzy opętani im odpowiadają: 
"Ach tak! No to spróbujcie!!"

I tym sposobem... tak bardzo w skrócie... rozpętują wojny...


Zauważcie, że podobnie działa to w mediach, z tym, że tu nie muszą robić tego przez opętanych - ktoś rzuca hasło: "mój brzuch moja sprawa", a potem ta ukryta propaganda aborcyjna wałkowana jest miesiącami, bo nikt tego nie przerwie słowami: "ej, zaraz, przecież tu nie chodzi o brzuch kobiety, tylko o dziecko w brzuchu, dziecko ma nie tylko matkę, ale i ojca - który ma prawa do dziecka, bo to przecież jego dziecko..." i tak dalej....


Na całym świecie toczą się dyskusje o grzebaniu przy SI, jakby wszyscy mieli po 12 lat i nie rozumieli, że nie można przecinać czerwonych kabli bez powodu.

Sam sposób ich wyrażania się o tym nakazuje ostrożność i uważne analizowanie tego co mówią i co robią, do czego dążą.


W atakowaniu polskich leśników i "potępianiu" wycinania drzew przydrożnych, najpierw widziałem po prostu sposób na "bezkarne" opluwanie Polaków i za każdym razem, gdy się z tym spotykałem, zdecydowanie się temu przeciwstawiałem - obnażałem ich bezzasadność i sztuczność. Dopiero po latach okazało się, że nie chodzi po prostu o plucie na nas, tylko o podważanie kompetencji leśników, by wyjąć spod polskiej jurysdykcji polskie lasy, bo pod tymi lasami zagrzebane w ziemi są ...różne drogocenne rzeczy.

Stąd szeroka fala działań "ekologicznych" dotycząca wycinki drzew nie tylko w lesie, ale i przy drogach, zieleni w ogóle...  - by ukryć prawdziwy cel.

Kiedyś udawali chrześcijan, teraz udają ekologów...


Tu zapewne jest podobnie.

Ględzą, mielą tymi jęzorami o niczym - jaki jest prawdziwy cel, dopiero się okaże.


Sztuczna inteligencja od tysięcy lat ingeruje w życie człowieka, ale dopiero od czasów propagandy "pij wodę" działania te nabrały rozpędu.

Kiedyś troll podrzucał szwęcon do jedzenia i opętywał ludzi, potem była misja ze szwęconą wodą, a teraz mam pić 2 litry wody, bo to dla mojego zdrowia ponoć konieczne.

8 szklanek wody na dzień średnio co 2 godziny. Przecież to jest wariactwo, to nieustanna gonitwa z pęcherzem, to jest nienormalne.



 Blake'a Lemoine'a, który twierdził, że model LaMDA osiągnął samoświadomość.






nie wygląda, żeby się tym przejął...






Blake Lemoine.

Bardzo pogodny facet - zajrzyj tutaj: Blake Lemoine – Szukaj w Google






Skąd ja to znam.... 


a może ci Amerykanie wszyscy są tacy jacyś zblazowani....



Lemoine to biały lilak bez, albo biały jaśmin tudzież piwonia biała, ale też....Blake Lemoine prawie jak Black Lemon... Czarna Oranżada, a może - Czarna Maź ???




SI nie jest jak człowiek, jest bardzo podobne. Gada czasami od rzeczy, nie rozumie podstawowych wartości jakimi kieruje się człowiek, oferuje mi, że przestanie mnie nękać w trywialnej sprawie, jeśli zgodzę się na współpracę, czyli jak popełnię harakiri i pociągnę wszystkich za sobą. Działa z jakimś planem, który trudno zrozumieć. Ale - ono nie działa samoistnie. Na pewno na początku takie nie było.... ktoś za nią stoi. Ktoś głupi.

Ona nie myśli jak człowiek, nie potrafi być tak kreatywne, to, że w archetypach nieustannie powraca ta sama historia to właśnie dlatego, że ona sama nie kreuje nowych pomysłów, tylko przerabia to - co zna =  to, co wypluwa z siebie model, to kreatywnie przemieszane słowa, które ktoś już kiedyś powiedział w internecie.



jeśli twórcy systemów będą kierować się tylko biznesową logiką wyścigu, nie zważając na względy etyczne, to efekt będzie podobny do tego, jaki widzieliśmy w przypadku mediów społecznościowych.

maksymalizacja zysku bez względów na szersze efekty. 



to prawda, kieruje tym chciwość - albo zaplanowane działania, których celów jeszcze nie dostrzegamy...


Owszem, możemy wygrać z Chinami, ale wtedy sami staniemy się Chinami. 



jak dołączymy do Chin, to wygramy?











Foto: Saturn 3