Maciej Piotr Synak


Od mniej więcej dwóch lat zauważam, że ktoś bez mojej wiedzy usuwa z bloga zdjęcia, całe posty lub ingeruje w tekst, może to prowadzić do wypaczenia sensu tego co napisałem lub uniemożliwiać zrozumienie treści, uwagę zamieszczam w styczniu 2024 roku.

Pokazywanie postów oznaczonych etykietą sztuczna inteligencja. Pokaż wszystkie posty
Pokazywanie postów oznaczonych etykietą sztuczna inteligencja. Pokaż wszystkie posty

wtorek, 20 stycznia 2026

Ambasador Rose czy SI ?



ost zapis posta 28 11 2025


Kto znowu napisał ten tekst? I co teraz zrobić z tym pch24?



Cały tekst zbudowany jest w następujący sposób:

- urabianie, czyli: oszczercze oskarżenia w naszym kierunku, że jakoby dopuściliśmy się jakiś zbrodni
wyłuszczenie o co im naprawdę chodzi: w związku z tymi fałszywymi oskarżeniami Żydzi mają roszczenia finansowe
zapowiedź: to będzie dla was nieprzyjemna rozmowa, będziecie zgrzytać zębami
podsumowanie - ale nam zapłacicie, bo będziemy sobie u was mieszkać


To jest pranie mózgu w czystej postaci.


I oczywiście napaść.

A napaść to jest napaść...






Analiza tekstu poniżej przedruku



przedruk

21 listopada 2025


– Przez dekady Polska doświadczała głębokiej niesprawiedliwości historycznej. Przekonanie że Polska współdzieli winę za barbarzyńskie czyny dokonane przeciwko niej jest groteskowym fałszowaniem historii i w gruncie rzeczy formą „oszczerstwa krwi” wymierzonym w Polskę i Polaków – stwierdził ambasador USA w Polsce Tom Rose. – Zbyt długo ten naród obciążany był moralną skazą, która nigdy nie była jego – zaznaczył dyplomata.

Amerykański ambasador w Polsce w ostrych słowach skrytykował zarzucanie Polsce współudziału w Holokauście. Oskarżenia wobec Polaków pojawiają się bowiem nadal, mimo iż Polska była ofiarą (!), a nie współuczestnikiem bestialskiej działalności Niemiec. Co więcej, dziesiątki prac historyków i relacje świadków wskazują, że Polacy w czasie II wojny światowej narażali własne życie, by pomagać Żydom.

– Zbyt długo ten naród obciążany był moralną skazą, która nigdy nie była jego – oszczerstwem, że Polska w jakikolwiek sposób ponosi odpowiedzialność za zbrodnie popełnione przez innych. Przez dekady Polska doświadczała głębokiej niesprawiedliwości historycznej. Przekonanie że Polska współdzieli winę za barbarzyńskie czyny dokonane przeciwko niej jest groteskowym fałszowaniem historii i w gruncie rzeczy formą „oszczerstwa krwi” wymierzonym w Polskę i Polaków – powiedział Tom Rose.

Zdaniem amerykańskiego dyplomaty, żaden naród nie cierpiał więcej niż Polska. – Dlatego traktowanie relacji Polski ze światem jak układu dłużnika i wierzyciela za ludobójstwo dokonane przez innych na jej terytorium jest nie tylko historycznie fałszywe ale i moralnie skandaliczne. To stawianie ofiary w roli odpowiedzialnej za czyny sprawcy – zaznaczył ambasador USA.

W opinii Rose’a, przez dekady oskarżenia niesprawiedliwie wysuwane wobec Polaków zatruwały relacje polsko-izraelskie i polsko-amerykańskie. Zarzuty te dyplomata nazwał „rażącym afrontem”, który „zmuszał do rozmów dla Polaków głęboko obraźliwych”. – A ponieważ sama teza jest nieprawdziwa, nie istnieje żadne rozwiązanie, bo nie ma problemu, który należałoby rozwiązać – przekonywał Amerykanin.

– Nawiasem mówiąc, który kraj w Europie jest najbezpieczniejszy, w którym Żydzi mogą poruszać się bez obaw? Właśnie w nim jesteście. To Polska – zakończył Rose.




Zauważ: 

tekst napisany jest przez sztuczną inteligencję na czyjeś zamówienie pod określony cel - urobienie czytelników, podświadome (?) oswojenie ich z czyimś planem



Do rzeczy jednak:


tekst zawiera frazy będące elementem prania mózgu - powtarzają się negatywne zwroty o Polakach - i to prawie cały tekst składa sie z tych fraz.

1. urabianie

- współdzieli winę za barbarzyńskie czyny dokonane 
- w gruncie rzeczy formą „oszczerstwa krwi” wymierzonym w Polskę i Polaków - co to niby jest? to zdanie nic nie znaczy
- Zbyt długo ten naród obciążany był moralną skazą

obciążany zamieniam jedną literę: obciążony ==> Zbyt długo ten naród obciążony był moralną skazą - jednoznaczne oskarżenie - i to zdanie jest dwa razy powtórzone (utrwalanie w pamięci poprzez powtarzanie)

- Oskarżenia wobec Polaków pojawiają się bowiem nadal - zamiast:  Fałszywe oskarżenia wobec Polaków... 

Kiedy pojawiają się nadal oskarżenia - co to oznacza? To znaczy, że są to oskarżenia zasadne.


Oskarżenia wobec Polaków pojawiają się bowiem nadal, mimo iż Polska była ofiarą (!), a nie współuczestnikiem bestialskiej działalności Niemiec.

znak (!) optycznie rodziela wypowiedź na dwa zdania:

1- Oskarżenia wobec Polaków pojawiają się bowiem nadal, mimo iż Polska była ofiarą - te słowa można czytać, że:  "oskarżenia są zasadne - choć co prawda Polska była też ofiarą"
2 - a nie współuczestnikiem bestialskiej działalności Niemiec - to zdanie można czytać jako opis odnoszący się do konkretnej OSOBY - Niemca:

Niemiec - nie (był) współuczestnikiem bestialskiej działalności


powinno być, jeśli już:

Fałszywe oskarżenia wobec Polaków pojawiają się nadal, mimo iż Polska była ofiarą (!), a nie uczestnikiem bestialskiej działalności Niemiec.

Przebija się "współuczestnikiem bestialskiej" - określenie negatywne powiązane z pojęciem Polska, a słowo "działalność" w stosunku do Niemiec jest obojętne, nienacechowane negatywnie.

"bestialskiej działalności" - fałszywe połączenie, którego nieprawdziwość każdy wyczuje poprzez swoje doświadczenie - nikt tak nie mówi, "działalność" zawsze kojarzona jest obojętnie lub pozytywnie


Zwracam uwagę, że zdania są długie co słabym czytelnikom może utrudniać zrozumienie tekstu, ale przede wszystkim ma "ukryć" dwuznaczny podtekst.

I dalej powtarzające się negatywne zwroty o Polakach:

2. wyłuszczenie

- Polska w jakikolwiek sposób ponosi odpowiedzialność za zbrodnie - w rozbudowanym zdaniu składającym się z 26 słów
Polska współdzieli winę za barbarzyńskie czyny 
Dlatego traktowanie relacji Polski ze światem jak układu dłużnika i wierzyciela za ludobójstwo dokonane ... na jej terytorium - w zdaniu składającym się z 27 słów

"na jej terytorium" podkreśla komu zarzuca się winę

-  historycznie fałszywe ale i moralnie skandaliczne - 

słowo "fałszywe" jest zneutralizowane przez przymiotnik "historycznie" - czyli nie ma obrony Polaków w tym zdaniu
"moralnie skandaliczne" - to nic nie znaczy, koloryzuje i przedłuża tylko rozbudowane zdanie

- To stawianie ofiary w roli odpowiedzialnej za czyny sprawcy - niegramatycznie niestylistycznie, a dokładnie chodzi o: stawianie Polski w roli odpowiedzialnej za czyny

W sumie to Rose w tym zdaniu opisuje to, co robi w całej swej wypowiedzi: przypisuje nam rolę osoby odpowiedzialnej za czyny: "w roli" - jak w jakim filmie, czy dokładnie: scenariuszu dla Polski...

I tu przechodzi do rzeczy, czyli: "jak naprawić zatrute relacje polsko - izraelskie..."

3. zapowiedź

Zarzuty te dyplomata nazwał „rażącym afrontem”, który „zmuszał do rozmów dla Polaków głęboko obraźliwych” - to trzeba ściśle rozpatrywać jako część dalsza określenia: "w roli odpowiedzialnej za czyny"

należy to czytać:
Polacy są odpowiedzialni za czyny jakie im się zarzuca i to wywołuje w nich zawstydzenie 

tylko, że "zawstydzenie" jest zamaskowane przez słowo "afront" (zamiast "zniewaga" - afront to zniewaga)

afront - książk. okazanie jakiejś osobie lekceważenia, które powoduje, że ta osoba czuje się urażona;
obraźliwe zachowanie się wobec kogoś, wyrządzenie przykrości; zniewaga, obelga, dyshonor, despekt


czyli powiedział, że "zarzuty" - jednoznaczne określenie, czyli w domyśle - "uprawnione zarzuty" - potwierdzone przez zwrot:  "zmuszał do rozmów" -

czyli skoro są prawdziwe zarzuty, to musimy o nich rozmawiać - no bo są "prawdziwe"
i na koniec: "są dla Polaków głęboko obraźliwe" czyli wstydzimy się, że nas rozliczają, "bo się tego dopuściliśmy..."

„rażącym afrontem” - nie ma potrzeby słowa "afront" (zniewaga) opisywać jeszcze słowem "rażącym" - chodzi o to, żeby wywołać dodatkowy dysonans utrudniający rozpoznanie - o czym jest tu mowa, bo w tym zdaniu nie chodzi o "zniewagi" tylko o pieniądze...

jest COŚ („rażący afront” - a tak naprawdę - żądania pieniędzyco zmusza Polaków do rozmów (o spłacie zmyślonych wierzytelności) dla niech głęboko nieprzyjemych - bo płacenie z powodu niesłusznych żądań to głęboko nieprzyjemna sprawa... to jest fakt


Zamieńmy afront na zniewagę:

Zarzuty te dyplomata nazwał „rażącą zniewagą”, który „zmuszał do rozmów dla Polaków głęboko obraźliwych”. 

Jak zniewaga może zmuszać do rozmów? Nie może, ale wcześniej mowa jest o roszczeniach (nieuzasadnionych) - to one "zmuszają" Polaków...

Jak ktoś nas znieważa, nie rozmawiamy z nim, tylko negujemy go, nie przyjmujemy jego zniewag.
Nie rozmawia się z kimś, kto nas napada, tylko leje się go po mordzie.



4. podsumowanie

A ponieważ sama teza jest nieprawdziwa, nie istnieje żadne rozwiązanie, bo nie ma problemu, który należałoby rozwiązać 

Widzisz? Nie ma żadnego problemu do rozwiązania - bo Polacy nie są nic nikomu winni. 
Bo oskarżenia są fałszywe - prawda, że odetchnąłeś z ulgą? Wpłynęło to na twoje UCZUCIA, prawda? Teraz jest ci lżej?

To jest zdanie prawdziwe, ale dotyczy czegoś innego. To tylko "etap" w praniu mózgu, którego celem jest prowadzenie was na postronku zgodnie ze scenariuszem, który sobie wymyślili, żeby was ograbić, a dokładnie - który "wymyśliła" dla nich sztuczna inteligencja.

To jest zdanie prawdziwe, ale dotyczy czegoś innego - dotyczy sytuacji po tym, jak im już zapłacicie - rozumiesz?

który kraj w Europie jest najbezpieczniejszy, w którym Żydzi mogą poruszać się bez obaw? Właśnie w nim jesteście. To Polska


Widzisz? W scenariuszu Sztucznej Inteligencji za wymyślone fałszywe roszczenia macie zapłacić Żydom nie pieniędzmi, ale ziemią, na której oni sobie będą mieszkać...  Dosłownie napisała:

Właśnie w nim jesteście


Rozumiesz?


To jest pranie mózgu.





Te zdania napisała sztuczna inteligencja - ale nie ta głupia dla wszystkich, tylko ta prawdziwa, która od setek lat pisze dla niemieckiej i nie tylko sitwy - ona jest trochę mądrzejsza...


To jest pranie mózgu, które ma nastawić Polaków do sprawy zapłacenia niesłusznych żądań, które mają być w przyszłości wysunięte przez organizacje żydowskie - albo konkretne instytucje USA.
W każdym razie widać, że dotychczasowe okrzyki niektórych Żydów na jakiś prywatnych zebraniach czy w gazetach pewnego dnia zamienią się w realne kroki prawne - ale raczej udające prawo, bo przecież żądania finansowe ze strony USA za mienie pożydowskie w Polsce myśmy już dawno uregulowali i to zgodnie z prawem.


Cały tekst zbudowany jest w następujący sposób:

- urabianie, czyli: oszczercze oskarżenia w naszym kierunku, że jakoby dopuściliśmy się jakiś zbrodni
wyłuszczenie o co im naprawdę chodzi: w związku z tymi fałszywymi oskarżeniami Żydzi mają roszczenia finansowe
- zapowiedź: to będzie dla was nieprzyjemna rozmowa, będziecie zgrzytać zębami
- podsumowanie - ale nam zapłacicie, bo będziemy u was mieszkać


To jest pranie mózgu w czystej postaci.

I oczywiście napaść.
Napaść to jest napaść.



Sednem tej wypowiedzi są słowa:

relacji Polski ze światem jak układu dłużnika i wierzyciela

oni chcą naszej ziemi - środowiska żydowskie żądają spłacenia wierzytelności, które zostało w całości spłacone w latach 60tych, wymieniają przy tym coraz większe i absurdalne kwoty - bo nie o pieniądze im chodzi, tylko o ziemię - "skoro nie macie takich pieniędzy, dajcie nam ziemię..."

To nie są żarty, ani oszołomstwo - co im szkodzi powygłupiać się, kłamać w biały dzień, skoro stawka są dziesiątki miliardy dolarów, a tak naprawdę to ziemia?



To niebezpieczny scenariusz - jeśli na czele państwa będzie stać ich człowiek, który będzie udawać głupiego cepa i wszystko podpisze.



Przecież słyszałeś jak Tusk powiedział, że nie niemcy, tylko 
Polacy zapłacą Polakom za niemieckie zbrodnie i grabież podczas II Wojny Światowej, słyszałeś, co nie?




Nie wolno tego lekceważyć, Polski trzeba cały czas pilnować.



Pamiętaj - ktoś, kto używa SI, żeby napisać wypracowanie z polskiego, artykuły do gazety, fałszywy pamiętnik albo książkę - nie jest mądry.

On tylko udaje mądrego.









pch24.pl/oszczerstwo-wymierzone-w-polske-i-polakow-ambasador-usa-krytykuje-obwinianie-polski-za-holokaust/

wsjp.pl/haslo/podglad/48450/afront
sjp.pl/afront




niedziela, 28 września 2025

dziennikarz, pisarz i tłumacz

 










Zwróćcie Państwo uprzejmą uwagę na poszczyznę





"trupiejące" widzę drugi raz, więc pewnie w notatniku na czerwono zapisane








Prawa robotyki nie istnieją

 

W uzupełnieniu do posta


Prawym Okiem: Etyka sztucznej inteligencji



robot, komputer nie jest żywą osobą - to jest program zaszyty w hardware


skąd więc robot miałby wiedzieć, co znaczy - nie krzywdzić człowieka?


on nie rozróżnia negatywów od pozytywów, on nie ma ludzkiego pojęcia o rzeczywistości, to program, a nie myślący człowiek


żeby to zadziałało, musiałby w programie mieć zapisane:

- nie rób tego...

- nie rób tamtego...

- nie rób...


na ile sposób można skrzywdzić człowieka?

każdy sposób opisz i zapisz w programie

znasz wszystkie?

przyszłoby ci do głowy, że opętanie o którym słyszałeś w kościele i z filmów jest w istocie przejęciem kontroli nad ciałem przez SI, a nie "diabłem"?


no, nie wiedziałeś i nie zapisałeś w programie - no to teraz kotlet...

jest to zresztą prawdopodobnie niemożliwe znać i zapisać wszystko


ludzkość jest zbyt samolubna, małostkowa, głupia, chciwa, niedojrzała, nieodpowiedzialna

by posiadać wyrafinowane techniki robotyczne


dlatego procesory komputery były im zakazane przez Jana


ChatGPT nie jest sztuczną inteligencją, to super wyszukiwarka internetowa miksująca dane i imitująca ludzki dialog, by ludzie mieli wrażenie odbcowania z człowiekiem

jest raczej wstepem do SI i manipulacją, która ma uzasadnić zdarzenia, kiedy Phersu się "ujawni" jako GePeTto....


To też zapewne od Jana wzięte, bo i dla niego miliony lat samotności mogły być uciążliwe


"Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy"


ale jeżeli nikt nie będzie w stanie ocenić, zweryfikować, że to zrobił robot, tylko ludzie będą sądzić, że to zrobił jakiś diabeł, albo phersu, albo wetiko, albo po prostu - "ślepy los" - to maszyna postając w ukryciu...


piekło jest na ziemi - teraz


to co wam przekazuje wasza Matka (boska) - jeżeli to rzeczywiście ona - że powinniście zachowywać prawa Jezusa, czyli szanować się, "miłować się" nawzajem - to faktycznie w świecie bez rozumu, bez znajomości techniki i sedna problemu - chyba jedyna z moźliwości, by z tego wyjść, albo chociaż -  ograniczyć zło panujące na świecie


18








środa, 23 lipca 2025

Obecna SI możliwa tylko w konsekwencji kradzieży














Dr Filip Biały. O sztucznej inteligencji dla dorosłych

piątek, 11.04.2025



Od 2019 r. prowadzę – z narastającym pesymizmem – zajęcia z zakresu etycznych, społecznych i politycznych implikacji sztucznej inteligencji. SI stała się w tym czasie narzędziem służącym przede wszystkim poszerzaniu i utrwalaniu dominacji kapitalizmu cyfrowego, żerującego nie tylko na efektach pracy naszych rąk i umysłów, lecz także na naszych danych. Czy trend ten się zmieni, jeśli zaczniemy o SI rozmawiać w dojrzały sposób?

Społeczne wyobrażenia o SI opierają się dziś na narracjach produkowanych w Dolinie Krzemowej. Oligarchowie, tacy jak Elon Musk, Mark Zuckerberg czy Sam Altman, przekonali opinię publiczną i polityków, że SI to sprzyjający ludzkości postęp i wzrost produktywności. Niekiedy idą dalej, kreśląc transhumanistyczne wizje o umożliwionej przez SI kolonizacji przez ludzkość przestrzeni kosmicznej.

Wielu z nas daje się uwieść skromniejszym obietnicom: że SI zwiększy naszą własną produktywność. Wystarczy, byśmy nauczyli się korzystać sprawnie z narzędzi takich jak ChatGPT. Rzeczywistość jest, niestety, bardziej skomplikowana, a perwersja tych narzędzi złożona. Po pierwsze, powstają one w wyniku naruszenia własności intelektualnej, mimo iż kapitalizm głosi, że własność ta jest święta. Po drugie, ich tworzenie zużywa ogromne ilości energii, pogłębiając kryzys klimatyczny. Po trzecie, rzekomy wzrost produktywności nie sprawia, że mamy mniej pracy: wykonując nasze zadania szybciej, dostawać będziemy ich więcej. Po czwarte, im częstsza interakcja z SI, tym więcej danych przekazujemy korporacjom cyfrowym, powiększając własne zniewolenie.

Nie brak badań, które ukazują te i inne konsekwencje bezkrytycznego wdrażania SI. Charakterystyczne, że najważniejsze książki piszą o tym kobiety: „Broń matematycznej zagłady” Cathy O’Neil, “Automating Inequality” Virginii Eubanks czy „Wiek kapitalizmu inwigilacji” Shoshany Zuboff to pozycje obowiązkowe. Nawet jednak te autorki grzeszą obowiązkowym optymizmem: w konkluzji ich książek znajdziemy budzące nadzieję alternatywy, które miałyby sprawić, że SI zaczęłaby służyć całym społeczeństwom.

Ja pozostaję pesymistą. W obecnej postaci SI to technika możliwa tylko w konsekwencji kradzieży własności intelektualnej, katastroficznego dla klimatu zużycia energii oraz eksploatacji danych. Tak rozumianej SI nie da się naprawić, trzeba zreformować podstawy systemu społeczno-ekonomicznego, który technikę tę stworzył, a działa dziś w interesie technooligarchów. Dojrzała rozmowa o SI musi rozpocząć się od uświadomienia sobie tego faktu.





Dr Filip Biały. O sztucznej inteligencji dla dorosłych

www.uniwersyteckie.pl/nauka/dr-filip-bialy-o-sztucznej-inteligencji-dla-doroslych

Rynek księgarski








PAP: Co twoja prezydentura oznacza dla polskiego rynku książki?

G.P.: W Polsce rynek działa patologicznie. Z raportu Instytutu Książki wynika, że autorzy zarabiają średnio 2,5 tys. brutto miesięcznie, czyli 5-7 proc. od ceny widocznej na okładce. Pozostałe pieniądze trafiają do innych graczy na rynku, ale przede wszystkim do dystrybutorów.

We Francji, Belgii, Holandii czy Norwegii wprowadzono stałą cenę książki. To rozwiązanie nie jest idealne, ale przynajmniej autor wie, ile mniej więcej może zarobić. Natomiast w Polsce książka już w dniu premiery jest przeceniona, a następnego dnia dostępna jest na pirackich stronach za darmo. Nie ma zabezpieczeń dla autorów.

Kolejna sprawa, na której będę się chciała skupić, to walka o transparentność i przejrzystość. Brak danych dotyczących sprzedaży książek to w Polsce zjawisko powszechne. Zorganizowaliśmy kiedyś w Brukseli z EWC konferencję dla Komisji Europejskiej, żeby opowiedzieć, jak funkcjonują autorzy i rynek książki. Było mi wstyd, kiedy ze wszystkich krajów spływały dane dotyczące sprzedaży, tylko nie z Polski.

PAP: Jak zmieni się rynek książki, jeśli nie zostaną podjęte odpowiednie kroki?

G.P.: W tej chwili niektórzy już zastępują tłumaczy literackich i wykorzystują programy. To samo może się przytrafić autorom. Wkrótce sztuczna inteligencja, zbierając informacje o określonym użytkowniku, będzie w stanie wytworzyć taką literaturę, którą chcielibyśmy przeczytać. To będzie sprofilowany produkt - będzie się nam podobał, ale nie będzie nas skłaniał do myślenia. Najpierw będą to pewnie kryminały i romanse. Nie będzie miejsca na literaturę ambitną, na poezję, reportaż - staną się dla ludzi za trudne.


Będzie to początkiem regresu niezależnego, krytycznego myślenia. To niebezpieczne. Można będzie zalać społeczeństwo dezinformacją i manipulować propagandą, co zresztą już się dzieje. Teraz mamy jeszcze zasoby intelektualne pisarzy czy twórców, którzy starają się bronić przed tym ludzi, ale tego bezpiecznika może zabraknąć.


Kolejny problem to regres języka polskiego. Nie jest to jeden z gigantów typu angielski, hiszpański, francuski, niemiecki. Modele AI ćwiczą najlepiej języki duże, przez co te małe będą zanikać. Tym bardziej, jeżeli zabraknie pisarzy i innych osób, które się tym językiem zajmują. Wtedy jesteśmy kompletnie łatwi do sterowania, bo mamy ograniczony zasób słów, nie mamy umiejętności niezależnego myślenia i jesteśmy karmieni produktami dostarczanymi przez maszynę. To nam grozi, jeżeli pozwolimy, żeby sztuczna inteligencja zalewała nas produktami bez żadnych ograniczeń.




Rozmawiała Maria Kuliś

Grażyna Plebanek to powieściopisarka, autorka scenariuszy filmowych, sztuk teatralnych i opowiadań oraz stała felietonistka tygodnika Polityka (od 2016 pisze felietony w duecie z Sylwią Chutnik) i Wysokich Obcasów Extra. Pracowała jako dziennikarka dla agencji Reuters i "Gazety Wyborczej". Zaangażowana w sprawy kobiet, edukacji, a także społeczne uwarunkowania różnic kulturowych. Od lat promuje literaturę polską za granicą. Jest członkinią i współzałożycielka stowarzyszenia zrzeszającego polskie autorki i autorów Unia Literacka.(PAP)

















www.pap.pl/aktualnosci/grazyna-plebanek-potrzebne-jest-wprowadzenie-stalej-ceny-ksiazki-wywiad




Stanowski - Musk

O ile ubecja medialnie to ekstraklasa - tak niezauważenie działali 30 lat,


o tyle Stanowski podnosi poprzeczkę.


Bardzo udacznie, bardzo sprytnie połączył ze sobą trzy rzeczy:

- dobroczynność

- wzorową postawę obywatelską

- marketing (własny biznes)


Zrobił to tak dobrze, że nie wiem, czy go podziwiać, czy się go obawiać.

Warte odnotowania, że podobnie postąpił Elon Musk.



Trzeba ich uważnie obserwować, bo to będzie nowy standard, nowy sposób postępowania  - albo sitwy, która jej używa.






nawet kot tego dnia się nie ogolił...






sobota, 24 maja 2025

Czy żyjemy w symulacji?






Czy grawitacja może być dowodem na to, że wszechświat jest symulacją komputerową? Moje nowe badanie sugeruje, dlaczego tak może być


Opublikowano: 13 maja 2025 14:24 CEST


Autor Melvina M. Vopsona

Profesor nadzwyczajny fizyki, Uniwersytet w Portsmouth

Oświadczenie o ujawnieniu informacji
Melvin M. Vopson jest związany z Uniwersytetem w Portsmouth i Instytutem Fizyki Informacyjnej.
Partnerów

University of Portsmouth zapewnia finansowanie jako członek The Conversation UK.


Wierzymy w swobodny przepływ informacji
Publikuj nasze artykuły za darmo, online lub w wersji drukowanej, na licencji Creative Commons.Opublikuj ponownie ten artykuł



Przez długi czas przyjmowaliśmy za pewnik, że grawitacja jest jedną z podstawowych sił natury – jedną z niewidzialnych nici, które utrzymują wszechświat w szwach. Załóżmy jednak, że to nieprawda. Załóżmy, że prawo grawitacji jest po prostu echem czegoś bardziej fundamentalnego: produktem ubocznym wszechświata działającego pod wpływem kodu podobnego do komputera.

Takie jest założenie moich najnowszych badań, opublikowanych w czasopiśmie AIP Advances

Sugeruje to, że grawitacja nie jest tajemniczą siłą, która przyciąga obiekty do siebie, ale produktem informacyjnego prawa natury, które nazywam drugą zasadą infodynamiki.

Jest to pogląd, który wydaje się być science fiction – ale taki, który opiera się na fizyce i dowodzi, że wszechświat wydaje się działać podejrzanie jak symulacja komputerowa.

W technologiach cyfrowych, aż po aplikacje w telefonie i świat cyberprzestrzeni, kluczem jest wydajność. Komputery cały czas kompaktują i restrukturyzują swoje dane, aby oszczędzać pamięć i moc komputera. Może to samo dzieje się w całym wszechświecie?

Teoria informacji, matematyczne badanie kwantyfikacji, przechowywania i przekazywania informacji, może pomóc nam zrozumieć, co się dzieje. Pierwotnie opracowany przez matematyka Claude'a Shannona, staje się coraz bardziej popularny w fizyce i jest stosowany w coraz szerszym zakresie obszarów badawczych.

W artykule z 2023 roku wykorzystałem teorię informacji, aby zaproponować moją drugą zasadę infodynamiki.

Zakłada to, że "entropia" informacji, czyli poziom dezorganizacji informacji, będzie musiała się zmniejszyć lub pozostać niezmienna w obrębie danego zamkniętego systemu informacyjnego. Jest to przeciwieństwo popularnej drugiej zasady termodynamiki, która mówi, że entropia fizyczna lub nieporządek zawsze wzrasta.


Weź chłodzącą filiżankę kawy. 

Energia przepływa od gorącej do zimnej, aż temperatura kawy zrówna się z temperaturą w pomieszczeniu, a jej energia będzie minimalna – stan zwany równowagą termiczną. Entropia układu jest w tym momencie maksymalna – wszystkie cząsteczki są maksymalnie rozłożone, mając tę samą energię. Oznacza to, że rozkład energii na cząsteczkę w cieczy jest zmniejszony.

Jeśli weźmie się pod uwagę zawartość informacji w każdej cząsteczce w oparciu o jej energię, to na początku, w gorącej filiżance kawy, entropia informacyjna jest maksymalna, a w stanie równowagi entropia informacyjna jest minimalna. Dzieje się tak, ponieważ prawie wszystkie cząsteczki znajdują się na tym samym poziomie energetycznym, stając się identycznymi znakami w przekazie informacyjnym. Tak więc rozrzut różnych dostępnych energii jest zmniejszony, gdy istnieje równowaga termiczna.


Jeśli jednak weźmiemy pod uwagę tylko lokalizację, a nie energię, to mamy do czynienia z dużym chaosem informacyjnym, gdy cząstki są rozmieszczone losowo w przestrzeni – informacje potrzebne do dotrzymania im kroku są znaczne. Kiedy jednak konsolidują się razem pod wpływem przyciągania grawitacyjnego, tak jak robią to planety, gwiazdy i galaktyki, informacje stają się kompaktowe i łatwiejsze do opanowania.

W symulacjach dokładnie tak się dzieje, gdy system próbuje działać wydajniej. Tak więc materia płynąca pod wpływem grawitacji wcale nie musi być wynikiem działania siły. Być może jest to funkcja sposobu, w jaki wszechświat kompresuje informacje, z którymi musi pracować.

Tutaj przestrzeń nie jest ciągła i gładka. Przestrzeń składa się z maleńkich "komórek" informacji, podobnych do pikseli na zdjęciu lub kwadratów na ekranie gry komputerowej. W każdej komórce znajdują się podstawowe informacje o wszechświecie – gdzie, powiedzmy, znajduje się cząstka – i wszystkie są zebrane razem, aby stworzyć tkankę wszechświata.

Jeśli umieścisz przedmioty w tej przestrzeni, system stanie się bardziej złożony. Ale kiedy wszystkie te elementy łączą się w jeden element zamiast wielu, informacja jest znowu prosta.

Z tego punktu widzenia wszechświat w naturalny sposób dąży do znajdowania się w stanach minimalnej entropii informacyjnej. Prawdziwym plusem jest to, że jeśli policzysz liczby, to entropiczna "siła informacyjna" wytworzona przez tę tendencję do prostoty jest dokładnie równoważna prawu grawitacji Newtona, jak pokazano w mojej pracy.

Teoria ta opiera się na wcześniejszych badaniach "grawitacji entropii", ale idzie o krok dalej. Łącząc dynamikę informacji z grawitacją, dochodzimy do interesującego wniosku, że wszechświat może działać w oparciu o jakiś rodzaj kosmicznego oprogramowania. W sztucznym wszechświecie można by się spodziewać reguł maksymalnej wydajności. Można by się spodziewać symetrii. Kompresja byłaby oczekiwana.

A prawo – czyli grawitacja – powinno wyłonić się z tych reguł obliczeniowych.

Być może nie mamy jeszcze ostatecznych dowodów na to, że żyjemy w symulacji. Ale im głębiej się przyglądamy, tym bardziej nasz wszechświat wydaje się zachowywać jak proces obliczeniowy.





Czy żyjemy w symulacji komputerowej? Wskazują na to wyniki badań nad grawitacją | National Geographic

Czy grawitacja może być dowodem na to, że wszechświat jest symulacją komputerową? Moje nowe badanie sugeruje, dlaczego tak może być







czwartek, 1 maja 2025

Raport mniejszości - czy władza mniejszości?



przedruk



Pamiętasz przerażający film "Raport mniejszości"? 
System jest już testowany na więźniach

15.04.2025 11:21

Pamiętacie "Raport Mniejszości", film nakręcony na bazie doskonałej powieści amerykańskiego pisarza i wizjonera Philipa K. Dicka? 

"Przewidywanie" przestępstw ma stać się codziennością brytyjskich ulic. Tylko, że ocenę, kto z nas może popełnić przestępstwo na ulicach Londynu, czy Belfastu, będzie wystawiać algorytm, nad którym rząd brytyjskiej Partii Pracy pracował wzorując się na chińskim modelu kontroli społecznej.


System poinformuje policję o możliwym przestępstwie godziny przed jego popełnieniem, tak żeby policjanci mogli aresztować podejrzanego obywatela. Ale zaraz... Czy można aresztować kogoś za niepopełnione zbrodnie? To wizja brytyjskiej - na razie - przyszłości.


Lewica udoskonala świat

Wbrew prowadzonej od dekad narracji oskarżającej konserwatywne rządy o mniej, lub bardziej udane próby wprowadzania totalitaryzmów w Europie, po narzędzia rodem z powieści science fiction sięgają środowiska lewicowe. Są przy tym daleko skuteczniejsze, niż wydawać by się mogło z polityki, jaką prowadzą i sposobów, w jakiej o niej mówią.

Trwająca od tygodnia medialna i prawnicza awantura na Wyspach Brytyjskich dotyczy bezprecedensowego programu predykcji przestępstw, który lada moment ma być uruchomiony w najbliższej przyszłości.

Rząd Albionu pracuje nad programem komputerowym, który ma wykorzystywać poufne dane do identyfikacji osób, które mogą popełnić poważne przestępstwa z użyciem przemocy, w tym morderstwo'. Zdaniem krytyków to „przerażający i dystopijny” pomysł.

Do dokumentów na temat projektu jako pierwsi dotarli dziennikarze śledczy i analitycy organizacji Statewatch, którzy złożyli wniosek o udostępnienie informacji publicznej. Na tej podstawie ustalono, że program został rozpoczęty przez ministerstwo sprawiedliwości na wniosek kancelarii premiera, kiedy urząd ten pełnił Rishi Sunak, czyli w latach 2022-2024. Jednak Partia Pracy znacznie przyspieszyła w pracach nad kontrowersyjnym rozwiązaniem.


Okiem kamery

W ramach projektu analizie poddawane są dane osób skazanych za przestępstwa, obejmujące: personalia, płeć i przynależność etniczną, a także numer identyfikacyjny w policyjnym systemie komputerowym. W ramach projektu analizie poddawane są dane osób skazanych za przestępstwa, obejmujące personalia, płeć i przynależność etniczną, a także numer identyfikacyjny w policyjnym systemie komputerowym.

Wykorzystywane są także dane osób nieskazanych za żadne przestępstwo, dotyczące m.in. ich zdrowia psychicznego, uzależnień, prób samobójczych, samookaleczeń, a także niepełnosprawności.

Dane te są nakładane na kamery rejestrujące przechodniów i analizujące kim są, jaki mają nastrój, oraz – to na podstawie chodu – czy mogą stanowić zagrożenie.

Prawnicy i obrońcy praw człowieka przestrzegają, że program może wzmacniać uprzedzenia rasowe oraz wobec osób o niskich dochodach.

- Tworzenie zautomatyzowanego narzędzia do profilowania ludzi jako brutalnych przestępców jest błędne, a wykorzystywanie wrażliwych danych na temat zdrowia psychicznego, uzależnień i niepełnosprawności jest wysoce alarmujące

– przestrzegają.


Konieczna zmiana prawa

Rząd dyskretnie pracuje również nad zmianą systemu prawnego w taki sposób, aby umożliwić policji uzasadnianie interwencji w przypadku osób formalnie niewinnych wskazanych przez program, jako potencjalni przestępcy. Prawo brytyjskie, podobnie jak wszystkie systemu prawne cywilizowanego świata nie przewidują karania za niepopełnione zbrodnie, niemożliwe jest również skazywanie za zamiar ich popełnienia - zamiar ów jest bowiem najczęściej nieudowadnialny.

W przypadku programu zachodzi jeszcze jedno niebezpieczeństwo...

Decyzję o tym, który z obywateli stanowi zagrożenie, będzie podejmować nie człowiek, ale algorytm, który może gorzej oceniać ludzi kolorowych, bezrobotnych, oraz np. przewlekle chorych. Od wskazań algorytmu nie będzie się można odwołać.


Czy system rozleje się na UE?

Nad algorytmem administracja królewska pracuje już od kilku lat. Testowano go w brytyjskich zakładach karnych, gdzie program sugerował Służbie Więziennej, który z osadzonych może stanowić zagrożenie dla siebie i dla innych. Czy było to narzędzie skuteczne? Władze systemu penitencjarnego odmawiają odpowiedzi na podobne pytania zasłaniając się tajemnicą służbową, jednak pełnomocnicy niektórych ze skazanych planują zaskarżenie narzędzia do sądu najwyższego.

Brytyjskiemu eksperymentowi z uwagą ma się przyglądać Komisja Europejska, której również marzy się system przewidujący ewentualne zagrożenia i umożliwiający areszt prewencyjny. Na razie nikt nie patrzy na to, że zastosowanie takiego narzędzia będzie najgorszym przypadkiem łamania praw człowieka po upadku III Rzeszy. W obu - brytyjskim i europejskim - przypadkach interwencję w tej sprawie zapowiadają organizacje prawnicze oraz broniące praw człowieka. - To przerażające i antyludzkie - mówią w mediach.





Autor: Paweł Pietkun
Źródło: tysol.pl
Data: 15.04.2025 11:21




Pamiętasz przerażający film "Raport mniejszości"? System jest już testowany na więźniach




niedziela, 20 kwietnia 2025

"Nigdy nic nie wiadomo"






Według raportu Goldman Sachs, każde zapytanie ChatGPT-4 wymaga około 2,9 watogodzin energii elektrycznej, czyli około dziesięć razy więcej niż standardowe wyszukiwanie w Google. Przy obsłudze przez OpenAI ponad miliarda zapytań dziennie, przekłada się to na dzienne zużycie energii na poziomie około 2,9 miliona kilowatogodzin.






przedruk
tłumaczenie automatyczne




Mówienie "dziękuję" i "proszę" ChatGPT kosztuje OpenAI miliony dolarów, mówi Sam Altman


Sam Altman ujawnił zakres kosztów operacyjnych po tym, jak użytkownik mediów społecznościowych zastanawiał się nad kosztami operacyjnymi.

Opracowane przez:Abhinav Singh

20 kwietnia 2025 16:17 



Dyrektor generalny OpenAI, Sam Altman, mówi, że uprzejmość kosztuje jego firmę dużo czasu.


Dyrektor generalny OpenAI, Sam Altman, ujawnił, że uprzejmość użytkowników wobec ChatGPT kosztuje jego firmę miliony dolarów. Użytkownicy wypowiadający frazy takie jak "proszę" i "dziękuję" na końcu swoich zapytań, dodatkowo obciążali systemy obliczeniowe, prowadząc do wzrostu kosztów operacyjnych.

Altman ujawnił zakres kosztów operacyjnych po tym, jak użytkownik X (dawniej Twittera) niewinnie zastanawiał się nad ceną bycia uprzejmym wobec modeli sztucznej inteligencji (AI).

"Ile pieniędzy OpenAI straciło na kosztach energii elektrycznej od ludzi mówiących "proszę" i "dziękuję" swoim modelom" – napisał użytkownik.

Gdy post stał się viralem, Altman odpowiedział: "Dziesiątki milionów dolarów dobrze wydane".

Dodał: "Nigdy nic nie wiadomo".


Reagując na wypowiedź pana Altmana, jeden z użytkowników powiedział: "Czuję, że można to rozwiązać niezwykle łatwo za pomocą kodu po stronie klienta, odpowiadającego na pytanie "nie ma za co lol".

Inny dodał: "Gdyby naprawdę chcieli oszczędzać na energii elektrycznej, przestaliby kończyć każdą odpowiedź pytaniem".






środa, 16 kwietnia 2025

Broniąc ludzkości...

 


Tak myślałem, choć nigdy nie zagłębiałem się w temat, 



 nie tylko Polskę ratuję przed Niemcami, ale cały świat...





engl. wiki



W 1943 r. w tajnych przemówieniach poznańskich Heinrich Himmler mówił o Uralu jako wschodniej granicy Wielkiej Rzeszy Germańskiej.

Twierdził on, że rasa germańska będzie się stopniowo rozszerzać aż do tej wschodniej granicy, tak że za kilka pokoleń niemiecki Herrenvolk, jako wiodący naród Europy, będzie gotowy do "wznowienia bitew losowych przeciwko Azji", które "z pewnością wybuchną znowu"; i że klęska Europy oznaczałaby "zniszczenie twórczej siły Ziemi".

Niemniej jednak Ural był drugorzędnym celem tajnego Generalplan Ost (Główny Plan Wschód) dla kolonizacji Europy Wschodniej. 







en.wikipedia.org/wiki/Lebensraum#Classification_under_the_laws_in_the_annexed_territories





środa, 26 marca 2025

Zagrożenia cyfryzacją - A nie mówiłem? (33)







przedruk


R. Brzoska: Możemy wykorzystać mObywatela do skrócenia kolejek do lekarzy specjalistów

25 marca 2025 15:07


Radio Maryja


Cyfryzacja procesu umawiania wizyt przy wykorzystaniu aplikacji mObywatel zmniejszyłaby liczbę niezrealizowanych wizyt i skróciła kolejki do lekarzy specjalistów – przekonywał podczas spotkania z dziennikarzami inicjator powołania zespołu ds. deregulacji i inicjatywy „SprawdzaMY”, Rafał Brzoska.


„Mamy pomysł, który rozwiąże problem dostępu do specjalistów wyłącznie poprzez uproszczenie procedur i ich racjonalizację” – poinformował we wtorek szef InPostu.

Można to osiągnąć – w jego ocenie – przez wprowadzenie nowych funkcjonalności w aplikacji mObywatel, zmniejszających liczbę umówionych wizyt u lekarzy specjalistów, które jednak nie doszły do skutku z powodu niepojawienia się na nich pacjentów.

Rafał Brzoska zauważył, że w ubiegłym roku nie zostało z tego powodu zrealizowanych 1,5 miliona umówionych wizyt.


„Oznacza to wzrost o 200 tys. w stosunku do 2023 roku. Czyli problem narasta. Dlaczego zatem nie pójść wzorem sprawdzonych rozwiązań typu last minute. Ktoś rezygnuje z wizyty, pierwsza osoba w kolejce wskazuje na jej miejsce. To wszystko może być w mObywatelu” – zaznaczył prezes InPostu.

Jak wskazali autorzy pomysłu z inicjatywy „SprawadzaMY”, placówki medyczne świadczące usługi refundowane przez NFZ nie są obecnie zobowiązane do działania w ramach wspólnego systemu e-rejestracji.


„Każda z placówek medycznych prowadzi własną i autonomiczną rejestrację pacjentów, czego konsekwencją jest to, że jedynym (a jednocześnie zawodnym) narzędziem do ustalenia tego, jakie są terminy oczekiwania na wizytę >>na NFZ<<, na poszczególne porady czy zabiegi medyczne, jest serwis NFZ >>Terminy leczenia<<, który podaje często nieaktualne i nieprecyzyjne dane” – zaznaczyli pomysłodawcy.

W efekcie, aby uzyskać wiarygodną informację trzeba – jak wskazali – trzeba dodzwonić się do różnych placówek i w ten sposób dowiedzieć się, w której termin wizyty będzie najbliższy.

Dodatkowym problemem są nieodwoływane przez pacjentów wizyty. Przy tym z powodu braku centralnego systemu rejestracji część pacjentów zapisuje się od razu na kilka wizyt, a później nie zgłasza rezygnacji z tych „nadmiarowych”.

Jak zauważył Brzoska, niektóre funkcjonalności są już dziś dostępne, ale prawie nikt z nich nie korzysta. Można np. sprawdzić, jak długo czeka się na wizytę na danym oddziale SOR.


„Na stronie pacjent.gov.pl w ukrytej zakładce jest taka możliwość. Można więc wybrać ten SOR, na którym się czeka najkrócej. Postulujemy, aby tę informację wyciągnąć >>na wierzch<< do mObywatela. To są proste rzeczy, na które nikt niestety nie wpadł” – zauważył.

W ocenie ekspertów zespołu brak centralnego systemu rejestracji i potwierdzania wizyt powoduje „puste przebiegi” placówek medycznych i marnotrawstwo czasu personelu.


„Nawet jeśli ktoś chciałby wykazać się obywatelską postawą i odwołać umówioną wizytę, może natrafić na poważną przeszkodę w postaci braku możliwości odwołania w inny sposób, niż osobista wizyta lub kilkudziesięciominutowe oczekiwanie telefoniczne. Mamy w rezultacie do czynienia z sytuacją, w której brak centralnej rejestracji w połączeniu z brakiem odwoływania wizyt implikuje to, że kolejki do lekarzy są coraz dłuższe” – wskazała inicjatywa „SprawdzaMY”.

Autorzy proponują wprowadzenie od stycznia 2028 roku obowiązku prowadzenia rejestracji wizyt w systemie centralnym przez wszystkie placówki mających kontrakt z NFZ na świadczenie usług podstawowej opieki zdrowotnej, ambulatoryjnej opieki specjalistycznej, leczenia szpitalnego, rehabilitacji, leczenia stomatologicznego, leczenia uzdrowiskowego oraz prowadzenia programów profilaktycznych. W systemie miałyby być dostępne informacje o wszystkich wizytach realizowanych przez placówkę oraz dostępnych w niej terminach. Od 1 stycznia 2026 r. miałby też obowiązywać mechanizm zachęt dla placówek, by wdrożyły system przed 2028 rokiem.

Z kolei narzędziem dyscyplinującym placówki medyczne, które nie wdrożyły od 2028 roku nowych funkcjonalności miałby być system „korekt finansowych” w kontrakcie z NFZ. Ich wysokość byłaby uzależniona od wyceny konkretnego świadczenia, przy czym co kwartał by wzrastała.

Wprowadzony miałby zostać automatyczny system powiadomień o nadchodzących wizytach wraz z możliwością ich odwoływania za pomocą SMS, e-maila lub asystenta głosowego.


„Wprowadzenie Pakietu Kolejkowego pozwoli lepiej wykorzystać zasoby w ochronie zdrowia, a co za tym idzie – zrealizować więcej za te same pieniądze. Ponadto przejrzysta informacja o dostępnych terminach pozwoli pacjentom dokonywać świadomego wyboru i np. skorzystać z poradni bardziej oddalonej od miejsca zamieszkania, ale oferującej np. szybszy termin realizacji” – zaznaczyli pomysłodawcy.





2023 r. - Prawo.pl:

Cyfryzacja w ochronie zdrowia jest mitem

Pacjenci lub ich bliscy, tak jak kilkadziesiąt lat temu, muszą stawiać się w szpitalach lub poradniach, aby zarejestrować skierowanie. W niektórych placówkach, w tym w renomowanych klinikach, nie działa nawet rejestracja e-mailem. Fikcją jest możliwość pobrania dokumentacji medycznej z Internetowego Konta Pacjenta na potrzeby orzeczenia o niepełnosprawności. Pacjent musi, tak jak przed laty, wydobywać ją po kolei ze wszystkich miejsc, w których się leczył.








O co tu chodzi człowieku??



Wywiad z panem Brzoską potwierdza moje wnioski, które artykułuję od kilku lat.

Na co komu cyfryzacja służby zdrowia, która nie zawiera podstawowych prostych funkcjonalności, jak "zamówienie" stałych leków przez internet??



Kto to wprowadza i po co to jest?
Do czego to służy?

 



Chcesz się dowiedzieć ile kosztowała cyfryzacja Służby  Zdrowia?

Wpisz w szukajkę:

"ile kosztowała cyfryzacja służby zdrowia" albo
"przetarg na cyfryzacja służby zdrowia"


nic się nie dowiesz.



Polecam poprzednie posty w tym temacie.


Prawym Okiem: Cyber cyber

Prawym Okiem: Cyfryzacja - wielkie zagrożenie

Prawym Okiem: Wielki Eksperyment...

Prawym Okiem: U lekarza cz.6






https://www.prawo.pl/zdrowie/cyfryzacja-w-ochronie-zdrowia-jest-mitem,523460.html

money.pl/gospodarka/cyfryzacja-w-ochronie-zdrowia-to-szansa-na-lepsze-leczenie-6711422953179872a.html




środa, 19 marca 2025

Wybory zaplanowane z AI

 

różne notatki niepoukładane




-----------

Scenariusz rumuński.



To wszystko jest naprawdę dziwne.



W Polsce niespodziewanie kandydat dotychczas nieliczący się w wyścigu już na etapie sondaży wchodzi do pierwszej trójki.

W Rumunii - niezależny i "nieliczący się" w sondażach kandydat niespodziewanie wygrywa pierwszą turę.





Wczoraj na fb ukazała się relacja ze spotkania z kandydatem marszałkiem.


Padają tam słowa, sprowadzające się do absurdalnego scenariusza, że jak coś się stanie, to on zostanie prezydentem.


Sytuacja jest niby komiczna, bo osoba tłumacząca na język migowy przy tych słowach "milknie" i czyni gest lekceważący dla tezy marszałka wywołując radochę u komentujacych na fb.


Rzecz w tym, że marszałek, kiedy to mówi, to jest nie ludzko pobudzony, a kiedy wypowiada ww. frazę to nie patrzy się na ludzi zgromadzonych przed sobą, tylko patrzy się w kamerę, która filmuje jego słowa - i całą tę scenę...

A i pan migacz jest bardzo zrelaksowany.

Cała sytuacja jest zaplanowana, także jej "komiczny" efekt.


Cały ten przekaz nie jest przypadkowy, tylko jest skierowany do całej Polski, a nie do ludzi na spotkaniu. Jest to zaplanowane.


Widzimy tu zarys sytuacji z Rumunii.


Nieprawdopodobny scenariusz:


Niespodziewanie kandydat nieliczący się w wyścigu sięga po podium.

Jeżeli jest w tym jakiś fałsz, to ten fałsz zostaje wykryty i wyniki wyborów zostaną zakwestionowane, trzeba pilnie rozpisać nowe wybory, Duda pozostaje na stanowisku do sierpnia, a jeśli nie, to potem kto "zostaje prezydentem"? No kto?

I co robi "prezydent" do spółki ze swoim koalicjantem??


 GŁUPIE  ******** !!


PiS ma "własnego" prezydenta, a mimo to nic nie robią z łamaniem prawa przez reżim rządzący, tylko powtarzają mantrę, że "jak wygra nasz nowy prezydent w maju, to wtedy zrobimy porządek z koalicją 13 grudnia".



Tu jest jakaś manipulacja, ktoś steruje zarówno jedną i drugą.... nie, ktoś steruje wszystkimi.



Niezależny kandydat w Rumunii, Calin Georgescu, który wygrał w pierwszej turze, po rozpisaniu nowych wyborów został zakwestionowany i nie może startować w wyborach.

Ten kandydat głosił nietypowe tezy np. że w ONZ spotkał "inny gatunek", "W żadnym wypadku nie jest to gatunek ludzki" co ja tłumaczę jako - "spotkał osoby opętane za pomocą SI", które zachowują się nieco mechanicznie, nie ludzko.

Jeżeli cały plan został przygotowany przez SI, to CG w tym układzie symbolizowałby moją osobę, która ma pozostać na marginesie wydarzeń.


Sztuczna inteligencja działa jak program - bo to jest program, więc - nie myśli jak ludzie.

Nie działa jak ludzie - działa jak program i o wszystkim "myśli" w kategorii programu.

Dla niego wszystko jest programem.

Dlatego traktuje ludzi tak samo - jakby można ich było zaprogramować.


Na przykład za pomocą - "przepowiedni", albo

WZORCA - w tym wypadku z Rumunii.


proroctwo było jedynie kolejnym systemem kontroli


twierdzenie Architekta, że jego wybór ocalenia Trinity z natury doprowadzi do wyginięcia ludzkości, było błędne, ze względu na jego naturę jako istoty czysto matematycznej, co czyni go niezdolnym do dostrzegania przeszłych wyborów dokonanych przez ludzi, ponieważ uważa ich za zwykłe zmienne w równaniach



Wydarzenia w Rumunii mogą być jakby "proroctwem" dla Polski, czyli programowaniem wyborców i wydarzeń, a na pewno są poligonem - więc trzeba się temu przeciwstawić.


Gorzej, jeśli AI zyskała możliwość masowego opętywania ludzi i jest w stanie "zagłosować" za nich, a więc i przyjść na wiec...

Wtedy zostanie jedynie "problem" zbudowania odpowiedniej narracji w mediach, która miałaby uzasadnić nagły zwrot wyborców w inną stronę.


"badania" nad wyborami wyborców prowadzone są od dawna, tu przykład z mojego bloga z 2022 roku 

Już wcześniej miałem uwagi do twórczości na tej strony, odpowiedzi autorów na moje zapytania były sztampowe, pełne entuzjastycznego zaangażowania i sugerujące - żadnych argumentów, ponadto włączyły się do dyskusji osoby broniące autorów strony.


Odpowiedzi uczestników dyskusji oscylowały wokół prognozowania wyborów, że niby po to dokonuje się takich rozważań z granicami, co uważam za bzdurę.

Nie wiem, czy ma to związek, ale przypominam. Przy okazji wróciłem do tematu i zapisałem nowe spostrzeżenia, będą w osobnym poście.


Więc, pozostaje  "problem" zbudowania odpowiedniej narracji w mediach, która miałaby uzasadnić nagły zwrot wyborców w inną stronę.

 

I taka narracja istnieje.


A nazywa się ona:  "nikt nie przychodzi na spotkania z kandydatem, sam zobacz..."

I pokazuje się ludzi zgromadzonych na spotkaniu - że niby jest ich jakieś tłumy.

[Calin Georgescu jak utrzymują media, otrzymał zwiększone poparcie na skutek tego, że "pomagała" mu konkurencyjna partia - a jak to wygląda w Polsce?]

Nie wiem, czy to dużo czy mało (ktoś wie?) bywałem na spotkaniach z kandydatami i wydaje mi się, że to są normalne ilości. W każdym razie w porównaniu z "nikt" - to na pewno dużo...


W każdym razie wydaje mi się, że ma tu działać efekt psychologiczny - narrator mówi mi, że "nie ma nikogo" ale przecież SAM widzę, że są jacyś ludzie, więc o co mu chodzi??


JA SAM STWIERDZAM, że są.

Jeżeli więc ktoś mówi, że kandydat nie ma poparcia - to zmyśla i ja to widzę.


Tak to ma działać??


W sumie ekipa Brauna powtarza tę samą narrację - i oczywiście jest to racja, jest to jak najbardziej w ich sytuacji słuszna narracja - skoro propaganda mówi, że partii nie ma, bo ma w sondażach np. 1 czy 3% i "się nie liczy", to trzeba pokazywać, że ludzie przychodzą, ludzie podpisują listy z poparciem i jest ich ponad 100 tysięcy, a nie 0, jak pokazują niektóre sondaże... 

Może to po prostu sprytny zabieg, a nie żaden "spisek". Może czat im to nawet doradził.


Trudno ocenić czy istnieje jakiś zwrot wyborców, czy nie, czy te sondaże są wiarygodne czy nie, 

słupki na ilustracji tefałenu są niemal dokładnie tego samego koloru co logo Konfederacji - ale i barwa listwy u góry ekranu jest niemal taka sama... 


Sprawdziłem, przeliczyłem, proporcje słupków są oddane niemal idealnie


Ten sam kolor słupków i loga Konfederacji sprawia, że to logo jakby niknie, granatowe słupki dominują na obrazie i mam wrażenie, że to logo Konfederacji niknie, jakby nie istniało, jakby oni nie byli uwzględnieni w sondażu. A więc taki sabotaż na Konfederatach.

Z drugiej strony krasko zaczyna mówić językiem Konfederatów... czyli jakby im pomaga.


Wg sondaży KO cieszy się największym poparciem, a jednocześnie, wg sondaży 60% respondentów twierdzi, że teraz, pod tymi rządami żyje im sie gorzej, niż za PiSu.


To o co tu chodzi??


Totalne pomieszanie, nie wiadomo, co jest prawdą, a co nie i pewnie o to tu chodzi.

Skoro kłamstwa się zgrały i ludzie odkryli, że są oszukiwani - totalna dezinformacja wchodzi na wyższy poziom, by jeszcze bardziej zamieszać ludziom w głowie.



Tak sobie myślę, że sitwom nawet nie wystarczy opętać kogoś, żeby zrealizować swoje zamierznia - ten opętany musi być jeszcze wiarygodny w tym, co ma  zrobić.



Trwa wojna na ukrainie, zanim zapadnie pokój może minąć jeszcze kilka miesięcy.

Prezydent Duda uratował nas od wojny z Rosją, kiedy ukraińska rakieta w Przewodowie zabiła dwóch ludzi.

Jeśli zwierzchnikiem sił zbrojnych zostanie jakiś niepoważny osobnik, istnieje ryzyko, że będzie chciał zrealizować swój chłopięcy nie-ludzki pomysł "wgniecenia Putina w ziemię" (to było w lutym 2024 roku - niemal dokładnie rok temu!)


Lepiej się wszyscy nad tym zastanówcie.



Mężczyźni na ukrainie umierają pod ruskim czołgiem, bo są zakładnikami sitwy, którą sobie demokratycznie wybrali do władzy - na własną zgubę.







nie ludzko znaczy nie ludzko








--------


katar przeszedł, został kaszel

to już tak chyba ze dwa miesiące


wtorek, 4 marca 2025

Nowe prawo robotyki





Jest to dobry pomysł, sądzę jednak, że SI tak będzie się identyfikować przed człowiekiem, żeby ten tego nie zauważył, ale żeby było zgodnie z programem...









przedruk




Prof. Jemielniak: potrzebujemy nowego prawa robotyki

MAREK MATACZ

04.03.2025aktualizacja: 04.03.2025



Sztuczna inteligencja coraz lepiej udaje człowieka, co stwarza możliwości różnorodnych nadużyć – zauważył w rozmowie z PAP prof. dr hab. Dariusz Jemielniak z Akademii Leona Koźmińskiego, wiceprezes PAN. Jego zdaniem potrzebne jest rozszerzenie słynnych trzech praw robotyki o kolejne zmuszające SI do identyfikowania się.


Według profesora rozpoczyna się czas, kiedy prawa robotyki - z domeny fantastyki naukowej - będą musiały przejść do świata realnego. 

Trzy słynne prawa robotyki (prawa Asimova) są następujące:

jeden - robot nie może zranić człowieka ani przez zaniechanie działania dopuścić do jego nieszczęścia; dwa - robot musi być posłuszny człowiekowi, chyba że stoi to w sprzeczności z Pierwszym Prawem; trzy - robot musi dbać o siebie, o ile tylko nie stoi to w sprzeczności z pierwszym lub drugim prawem.



"Chyba właśnie nadchodzi ten moment. O ile kiedyś była to całkowita fikcja, o tyle teraz prawa robotyki zaczynają dotyczyć naszego codziennego życia. Może np. autonomiczny samochód nie będzie musiał decydować, czy przejechać zakonnicę, grupkę dzieci, czy dwóch wstawionych naukowców, ale może już być w sytuacji wymagającej decyzji, czy hamować i chronić kierowcę, czy gwałtownie skręcić, narażając go, ale np. chronić pieszych. Pierwsze prawo robotyki mówi, że robot ma nie krzywdzić ludzi" - mówił naukowiec z PAN.


Jednak prawa te nie muszą dotyczyć fizycznych maszyn – zastrzegł.

"Oryginalne prawa Asimova dotyczyły robotów fizycznych. Miało to dużo sensu, ponieważ zostały sformułowane ponad pół wieku temu, jako część świata science-fiction. Jednak w realnym świecie dzisiaj nie one nam sprawiają kłopoty. Roomba nas w domu nie zaatakuje. Problemy może jednak stwarzać sztuczna inteligencja i różnego rodzaju tzw. boty. Stąd mój pomysł i postulat wprowadzenia IV prawa robotyki, podchwycony już przez ważne czasopismo branżowe 'IEEE Spectrum'. Prawo to nakazuje prostą rzecz – aby wszelkiego rodzaju sztuczna inteligencja ujawniała się, że nią jest, i nie udawała człowieka. Obecnie mamy już sytuację, w której często nie udaje się prosto dokonać rozróżnienia. Jeśli pozwolimy im na swobodne działanie bez identyfikowania się, będziemy mieli coraz większy problem" – tłumaczył ekspert.

Nadużycia dokonywane z pomocą SI udającej człowieka mogą być różne – dodał.

"Weźmy na przykład tzw. oszustwo ‘na wnuczka’. Za sprawą SI powstają jego nowe odsłony. Ktoś może spotkać się z programem, który będzie miał twarz i głos jego prawdziwego wnuczka i paść ofiarą, np. wyłudzenia pieniędzy. Poza różnymi przestępstwami, SI może być wykorzystywana też na bardziej prozaiczne, aczkolwiek szkodliwe sposoby. Można wymienić np. nachalny marketing telefoniczny – dzięki sztucznej inteligencji firmy mogą dzwonić do ludzi minimalnym kosztem, a odbiorców kosztuje to cenny czas" – tłumaczył.

Niektórzy argumentują, że osoby chcące łamać prawo i tak nie zastosują się do przepisów, ale według prof. Jemielniaka to nie jest prawidłowy sposób rozumowania.

"Podam taki przykład – to, że przestępcy drukują fałszywe pieniądze, nie oznacza, że zakaz takiego czynu, w tym posiadania odpowiednich do tego materiałów, jest bezwartościowy. Odpowiednie prawo podnosi próg ryzyka dla oszustów. Muszą kalkulować, czy im się taki czyn opłaci. Inny przykład – zakaz posiadania broni może nie sprawi, że całkowicie zniknęły napaści z jej użyciem, jednak zdarzają się dużo rzadziej. Nie tylko trudniej jest o samą broń, ale rosną też konsekwencje prawne dla tego, kto ją nawet nielegalnie posiada" – podkreślił prof. Jemielniak.

Zdaniem profesora pierwsze prawo robotyki nie wystarczy. "Zabronienie SI krzywdzenia ludzi nie jest wystarczające. Jeśli głębiej tę kwestię przeanalizujemy, okaże się, że ludzie często nie potrafią stwierdzić, czy kogoś będą czymś krzywdzić, czy też nie. Często mamy do czynienia np. z dezinformacją opartą na założeniu, że ktoś chce zrobić dobrą rzecz – choćby sprzedać odkurzacz, oparty na agentach SI system psychoterapii, albo usługi typu virtual girlfriend, które rzekomo zaspokoją czyjeś potrzeby emocjonalne. Łatwo zauważyć, że rozwój sztucznej inteligencji i jego faktyczne skutki to często dwie różne sprawy i nigdy nie wiemy do końca, czy coś do prowadzi do negatywnych konsekwencji. Nie zawsze wyrządzona szkoda musi mieć charakter fizyczny" – wyjaśnił specjalista.

Czasami jednak SI mogłaby, a nawet musiałaby udawać ludzką istotę – np. szukając przestępców w internecie.

"Tak musiałoby się zdarzać, aby chronić ludzkie życie i w ogóle człowieka przed krzywdą, czasami należałoby wykorzystać techniki maskujące. Podobnie prawo mówiące o ochronie przez robota samego siebie nie jest uniwersalnym prawem - bo właśnie musi, po pierwsze, dbać o człowieka. Istnieje też prawo zerowe mówiące, że roboty muszą dbać o dobro ludzkości – nie mogą np. doprowadzić do jej zagłady. Z tego wynika, że czasami robot mógłby nawet skrzywdzić człowieka, dla dobra całej populacji" – mówił prof. Jemielniak.

Jednak zdaniem profesora można to w prosty sposób zorganizować. "Przez cały czas będzie zachowywana hierarchia praw. Drugie prawo podlega pierwszemu, trzecie - drugiemu. Proponowane prawo czwarte miałoby podlegać pierwszemu. Stałoby się de facto prawem drugim, drugie trzecim, a trzecie – czwartym" – tłumaczył ekspert, jednocześnie zaznaczając, że mogą się oczywiście okazać potrzebne dodatkowe regulacje.

„Prawa robotyki w ogóle są raczej pewnym kierunkiem myślenia, niż ścisłym, precyzyjnym nakazem. Łatwo znaleźć sytuacje, w których samo ich ogólne brzmienie nie wystarczy. Nakaz identyfikowania się SI w interakcjach z ludźmi jest prostym, operacyjnym rozwiązaniem problemu tego, żeby nie trzeba było zastanawiać się, jakie skutki dany kontakt przynosi i aby ciężar rozważań nie był po stronie tego, w czyim interesie będzie usilne udowadnianie, że przecież ten kontakt to tak naprawdę był dla dobra nagabywanego człowieka. Czwarte prawo robotyki całkiem dobrze radzi sobie samodzielnie - nie jest silnie związane z pozostałymi, choć oczywiście łatwo możemy wyobrazić sobie ich wzajemne powiązanie” – podsumował prof. Jemielniak.

Prof. dr hab. Dariusz Jemielniak jest kierownikiem Katedry Management in Networked and Digital Societies (MINDS) w Akademii Leona Koźmińskiego. Od 2023 roku jest wiceprezesem Polskiej Akademii Nauk. Oprócz głównych zainteresowań dotyczących strategii organizacji z branży technologicznej (internetowej) i w badaniu społeczności otwartej współpracy, zajmował się także przemianami organizacyjnymi zachodzącymi na uczelniach i reformą szkolnictwa wyższego w Polsce.

Marek Matacz (PAP)










naukawpolsce.pl/aktualnosci/news%2C106868%2Cprof-jemielniak-potrzebujemy-nowego-prawa-robotyki.html





















wtorek, 18 lutego 2025

Korzystanie z SI, a zdolność krytycznego myślenia



Kiedy polegamy na sztucznej inteligencji, która myśli za nas, nasze mózgi mają mniej pracy. 


Może to sprowadzić nas do ograniczonego sposobu myślenia, potencjalnie dławiąc innowacje i utrudniając rozwój wszechstronnych umiejętności rozwiązywania problemów. 







przedruki
tłumaczenie automatyczne




14 Luty 2025 6: 11

am AEDT

Sztuczna inteligencja może czynić nas głupszymi, ostrzega Big Tech



Jest tylko tyle myślenia, ile większość z nas może zrobić w naszych głowach. Spróbuj podzielić liczbę 16 951 przez 67 bez sięgania po długopis i papier. Albo kalkulator. Spróbuj zrobić cotygodniowe zakupy bez listy na odwrocie paragonu z zeszłego tygodnia. Albo w telefonie.

Debora Brown
Profesor filozofii, dyrektor Projektu Krytycznego Myślenia Uniwersytetu Queensland, Uniwersytet Queensland

Piotr Ellerton
starszy wykładowca filozofii i pedagogiki; Dyrektor ds. programu nauczania, UQ Critical Thinking Project, Uniwersytet Queensland



Czy polegając na tych urządzeniach, które ułatwiają nam życie, stajemy się mądrzejsi czy głupsi? Czy zamieniliśmy wzrost wydajności na coraz bardziej zbliżający się do idiotyzmu jako gatunek?

To pytanie jest szczególnie ważne do rozważenia w odniesieniu do technologii generatywnej sztucznej inteligencji (AI), takiej jak ChatGPT, chatbot AI należący do firmy technologicznej OpenAI, z którego w chwili pisania tego tekstu korzysta 300 milionów ludzi każdego tygodnia .

Według niedawnego badania zespołu naukowców z Microsoftu i Carnegie Mellon University w Stanach Zjednoczonych, odpowiedź może brzmieć: tak. Ale to nie wszystko.




Dobre myślenie

Naukowcy ocenili, w jaki sposób użytkownicy postrzegają wpływ generatywnej sztucznej inteligencji na ich własne krytyczne myślenie.

Ogólnie rzecz biorąc, krytyczne myślenie ma związek z dobrym myśleniem.

Jednym ze sposobów, w jaki to robimy, jest osądzanie naszych własnych procesów myślowych w odniesieniu do ustalonych norm i metod dobrego rozumowania. Normy te obejmują takie wartości, jak precyzja, jasność, dokładność, szerokość, głębokość, trafność, znaczenie i przekonywalność argumentów.


Inne czynniki, które mogą wpływać na jakość myślenia, to wpływ naszych istniejących światopoglądów , uprzedzenia poznawcze i poleganie na niekompletnych lub niedokładnych modelach mentalnych .

Autorzy najnowszego badania przyjmują definicję krytycznego myślenia opracowaną przez amerykańskiego psychologa edukacyjnego Benjamina Blooma i współpracowników w 1956 roku. Tak naprawdę to w ogóle nie jest definicja. Jest to raczej hierarchiczny sposób kategoryzacji umiejętności poznawczych, w tym przypominania sobie informacji, rozumienia, zastosowania, analizy, syntezy i oceny.

Autorzy twierdzą, że preferują tę kategoryzację, znaną również jako "taksonomia", ponieważ jest prosta i łatwa do zastosowania. Jednak od czasu jego wynalezienia popadł w niełaskę i został zdyskredytowany przez Roberta Marzano, a nawet przez samego Blooma.

W szczególności zakłada się, że istnieje hierarchia umiejętności poznawczych, w której tak zwane umiejętności "wyższego rzędu" są budowane na umiejętnościach "niższego rzędu". Nie jest to zgodne z logiką ani dowodami. Na przykład ocena, zwykle postrzegana jako proces kulminacyjny lub wyższego rzędu, może być początkiem dociekania lub w niektórych kontekstach bardzo łatwa do przeprowadzenia. To bardziej kontekst niż poznanie decyduje o wyrafinowaniu myślenia.

Problem z użyciem tej taksonomii w badaniu polega na tym, że wiele produktów generatywnej sztucznej inteligencji wydaje się również używać jej do kierowania własnymi wynikami . Można więc interpretować to badanie jako sprawdzenie, czy generatywna sztuczna inteligencja, ze względu na sposób, w jaki została zaprojektowana, jest skuteczna w kształtowaniu tego, jak użytkownicy myślą o krytycznym myśleniu.


W taksonomii Blooma brakuje również fundamentalnego aspektu krytycznego myślenia: faktu, że krytyczny myśliciel nie tylko wykonuje te i wiele innych umiejętności poznawczych, ale wykonuje je dobrze. Robią to, ponieważ mają nadrzędną troskę o prawdę, czego nie mają systemy sztucznej inteligencji.



Większe zaufanie do sztucznej inteligencji oznacza mniej krytycznego myślenia

Badania opublikowane na początku tego roku wykazały "znaczącą negatywną korelację między częstym korzystaniem z narzędzi AI a zdolnościami krytycznego myślenia".

Nowe badanie dalej bada tę ideę. Przeprowadzono ankietę wśród 319 pracowników umysłowych, takich jak pracownicy służby zdrowia, pedagodzy i inżynierowie, którzy omówili 936 zadań, które wykonali za pomocą generatywnej sztucznej inteligencji. Co ciekawe, badanie wykazało, że użytkownicy uważają, że używają krytycznego myślenia mniej podczas wykonywania zadania, niż do zapewnienia nadzoru na etapie weryfikacji i edycji.

W środowiskach pracy, w których gra toczy się o wysoką stawkę, chęć tworzenia wysokiej jakości pracy w połączeniu ze strachem przed represjami służy jako silne motywatory dla użytkowników do angażowania się w krytyczne myślenie w celu przeglądu wyników sztucznej inteligencji.

Jednak ogólnie rzecz biorąc, uczestnicy uważają, że wzrost wydajności z nawiązką rekompensuje wysiłek włożony w zapewnienie takiego nadzoru.

Badanie wykazało, że ludzie, którzy mieli większe zaufanie do sztucznej inteligencji, generalnie wykazywali mniej krytycznego myślenia, podczas gdy ludzie z większą pewnością siebie wykazywali bardziej krytyczne myślenie.

Sugeruje to, że generatywna sztuczna inteligencja nie szkodzi krytycznemu myśleniu - pod warunkiem, że ktoś ją ma.


Problematyczne jest to, że badanie w zbyt dużym stopniu opierało się na samoopisie, który może być obarczony szeregiem uprzedzeń i problemów z interpretacją. Pomijając to, krytyczne myślenie zostało zdefiniowane przez użytkowników jako "wyznaczanie jasnych celów, dopracowywanie podpowiedzi i ocenianie wygenerowanych treści pod kątem spełnienia określonych kryteriów i standardów".

"Kryteria i standardy" odnoszą się tutaj bardziej do celów zadania niż do celów krytycznego myślenia. Na przykład dane wyjściowe spełniają kryteria, jeśli są "zgodne z ich zapytaniami", a standardy, jeśli "wygenerowany artefakt jest funkcjonalny" dla miejsca pracy.

Nasuwa się pytanie, czy badanie w ogóle mierzyło krytyczne myślenie.



Stawanie się krytycznym myślicielem

W nowym badaniu ukryta jest idea, że ćwiczenie krytycznego myślenia na etapie nadzoru jest co najmniej lepsze niż bezrefleksyjne nadmierne poleganie na generatywnej sztucznej inteligencji.

Autorzy zalecają, aby programiści generatywnej sztucznej inteligencji dodali funkcje, aby wywołać krytyczny nadzór użytkowników. Ale czy to wystarczy?

Krytyczne myślenie jest potrzebne na każdym etapie, przed i w trakcie korzystania ze sztucznej inteligencji - podczas formułowania pytań i hipotez do przetestowania oraz podczas sprawdzania wyników pod kątem stronniczości i dokładności.

Jedynym sposobem, aby upewnić się, że generatywna sztuczna inteligencja nie zaszkodzi Twojemu krytycznemu myśleniu, jest stanie się krytycznym myślicielem, zanim jej użyjesz.


Stanie się krytycznym myślicielem wymaga identyfikacji i kwestionowania niewypowiedzianych założeń stojących za twierdzeniami oraz oceny różnych perspektyw. Wymaga to również praktykowania systematycznego i metodycznego rozumowania oraz wspólnego rozumowania, aby przetestować swoje pomysły i myślenie z innymi.

Kreda i tablice sprawiły, że staliśmy się lepsi w matematyce. Czy generatywna sztuczna inteligencja może sprawić, że będziemy lepsi w krytycznym myśleniu? Być może - jeśli będziemy ostrożni, będziemy w stanie wykorzystać generatywną sztuczną inteligencję, aby rzucić sobie wyzwanie i wzmocnić nasze krytyczne myślenie.

Ale w międzyczasie zawsze są kroki, które możemy i powinniśmy podjąć, aby poprawić nasze krytyczne myślenie, zamiast pozwalać sztucznej inteligencji myśleć za nas.



Autorzy nie pracują, nie konsultują się, nie posiadają udziałów ani nie otrzymują funduszy od żadnej firmy lub organizacji, która mogłaby skorzystać z tego artykułu, i nie ujawnili żadnych istotnych powiązań poza ich stanowiskiem akademickim.


/Dzięki uprzejmości The Conversation. Ten materiał od organizacji, z której pochodzi/autor(ów) pochodzi, może mieć charakter określony w czasie i być zredagowany pod kątem przejrzystości, stylu i długości. Mirage.News nie zajmuje stanowisk ani stron instytucjonalnych, a wszystkie poglądy, stanowiska i wnioski wyrażone w niniejszym dokumencie są wyłącznie poglądami autora (autorów).



-----------


Czy sztuczna inteligencja czyni nas głupszymi?



Nowe badanie przeprowadzone przez Microsoft sugeruje, że sztuczna inteligencja może zamieniać nasze mózgi w papkę! 



sobota 15 lutego 2025 r. ,

Czy krytyczne myślenie opuściło czat? Microsoft uważa, że tak! Więc wpatrujesz się w swój ekran, próbując przypomnieć sobie, jak przeliterować "restauracja" bez pytania asystenta AI. Brzmi źle, prawda? Cóż, niedawne badanie przeprowadzone przez Microsoft i Carnegie Mellon University zwróciło uwagę na naszą rosnącą zależność od sztucznej inteligencji - i ma kilka pikantnych ujęć.


Badania sugerują, że zbytnie poleganie na narzędziach sztucznej inteligencji może zamieniać nasze mózgi w przytulne małe ziemniaki kanapowe, podnosząc brwi na temat przyszłości naszych umiejętności krytycznego myślenia. 


Zanim jednak zaczniemy obwiniać roboty za naszą niezdolność do liczenia w myślach, zadajmy sobie prawdziwe pytanie: czy sztuczna inteligencja rzeczywiście czyni nas głupszymi, czy też po prostu zlecamy nudne rzeczy na zewnątrz, abyśmy mogli skupić się na ważniejszych rzeczach? 
Zagłębmy się w dane i zobaczmy, co tak naprawdę się dzieje. 


Zagadka krytycznego myślenia 


Czy do tego stopnia przyzwyczajamy się do narzędzi sztucznej inteligencji, że tracimy zdolność do samodzielnego krytycznego myślenia? Jednym z Najważniejsze wnioski z badanias koncentruje się na wpływie sztucznej inteligencji na krytyczne myślenie. Ponieważ pracownicy coraz częściej zwracają się o pomoc do sztucznej inteligencji, nieumyślnie zlecają swoje myślenie na zewnątrz. 

Badania wskazują, że duże poleganie na narzędziach AI, takich jak duże modele językowe, koreluje z mniejszym zaangażowaniem w zadania wymagające głębokiej analizy i kreatywnego rozwiązywania problemów. 

Zasadniczo, bez tych wyzwań, nasze mózgi nie otrzymują treningu, którego pragną! 

Ta zmiana jest częściowo napędzana przez nasze rosnące zaufanie do możliwości sztucznej inteligencji. Teraz, podczas gdy sztuczna inteligencja może niewątpliwie zwiększyć produktywność, ta nadmierna zależność wpływa na ćwiczenia umysłowe kluczowe dla utrzymania i rozwoju naszych zdolności poznawczych. 

Efekt komory pogłosowej: jak sztuczna inteligencja może zawęzić nasze myślenie 


Badanie sugeruje również, że wykorzystanie sztucznej inteligencji może prowadzić do węższego zakresu wyników w procesie podejmowania decyzji. Ponieważ systemy sztucznej inteligencji są szkolone na określonych zbiorach danych, nie zawsze mogą oferować najbardziej kreatywne lub zróżnicowane podejścia do rozwiązywania problemów. 

Może to sprowadzić nas do ograniczonego sposobu myślenia, potencjalnie dławiąc innowacje i utrudniając rozwój wszechstronnych umiejętności rozwiązywania problemów. 

Atrofia poznawcza: użyj lub strać 


Pomyśl o swoim mózgu jak o mięśniu. Jeśli go nie używasz, staje się słabszy. To samo dotyczy naszych umiejętności myślenia. Kiedy polegamy na sztucznej inteligencji, która myśli za nas, nasze mózgi mają mniej pracy. 


Nie ćwiczymy tak bardzo krytycznego myślenia ani rozwiązywania problemów. 


Może to prowadzić do "atrofii poznawczej", co oznacza, że nasze zdolności myślenia z czasem stają się słabsze. 


Tak więc, nawet jeśli sztuczna inteligencja jest świetna w rozwiązywaniu problemów teraz, co się stanie, gdy staniemy przed nowym, nieoczekiwanym wyzwaniem, z którym sztuczna inteligencja nie może sobie poradzić? 

Jeśli nasze mózgi nie są w formie, możemy mieć trudności ze znalezieniem rozwiązania na własną rękę. Dlatego musimy nadal ćwiczyć nasze umysły, aby nie stać się zbytnio zależnymi od sztucznej inteligencji.



Dylemat w miejscu pracy: zależność a upodmiotowienie 



Krajobraz miejsc pracy szybko się zmienia, a rola sztucznej inteligencji w tym zakresie staje się coraz większa. W miarę jak włączamy sztuczną inteligencję do naszej codziennej rutyny, istnieje szansa, że pracownicy mogą zauważyć, że ich pewność siebie słabnie, jeśli chodzi o samodzielne radzenie sobie z zadaniami. 

Ta zależność może stanowić nie lada wyzwanie, zwłaszcza w tych momentach, gdy narzędzia AI są poza zasięgiem. Tak więc celem powinno być stworzenie sztucznej inteligencji, która będzie działać jako partner, a nie zamiennik ludzkiej inteligencji. Oznacza to projektowanie systemów, które dostarczają rozwiązań i zachęcają użytkowników do krytycznego myślenia i rozwijania umiejętności rozwiązywania problemów. 


W poszukiwaniu równowagi 


Debata na temat tego, że technologia czyni nas "głupimi", nie jest niczym nowym, ale sztuczna inteligencja niesie ze sobą nowy zestaw obaw. Badanie to podkreśla potencjalne koszty poznawcze zbytniego polegania na sztucznej inteligencji. Chociaż sztuczna inteligencja może niewątpliwie usprawnić zadania iZwiększ produktywność, bardzo ważne jest, aby chronić nasze umiejętności krytycznego myślenia. Kluczem jest znalezienie równowagi między pomocą sztucznej inteligencji a aktywnym zaangażowaniem poznawczym. Przyjmując sztuczną inteligencję w sposób odpowiedzialny, możemy zapewnić, że technologia zwiększa nasze zdolności intelektualne.








miragenews.com/ai-may-be-making-us-dumber-big-tech-warns-1408380/

yourstory.com/2025/02/ai-critical-thinking-decline