Maciej Piotr Synak


Od mniej więcej dwóch lat zauważam, że ktoś bez mojej wiedzy usuwa z bloga zdjęcia, całe posty lub ingeruje w tekst, może to prowadzić do wypaczenia sensu tego co napisałem lub uniemożliwiać zrozumienie treści, uwagę zamieszczam w styczniu 2024 roku.

Pokazywanie postów oznaczonych etykietą sztuczna inteligencja. Pokaż wszystkie posty
Pokazywanie postów oznaczonych etykietą sztuczna inteligencja. Pokaż wszystkie posty

środa, 26 marca 2025

Zagrożenia cyfryzacją - A nie mówiłem? (33)







przedruk


R. Brzoska: Możemy wykorzystać mObywatela do skrócenia kolejek do lekarzy specjalistów

25 marca 2025 15:07


Radio Maryja


Cyfryzacja procesu umawiania wizyt przy wykorzystaniu aplikacji mObywatel zmniejszyłaby liczbę niezrealizowanych wizyt i skróciła kolejki do lekarzy specjalistów – przekonywał podczas spotkania z dziennikarzami inicjator powołania zespołu ds. deregulacji i inicjatywy „SprawdzaMY”, Rafał Brzoska.


„Mamy pomysł, który rozwiąże problem dostępu do specjalistów wyłącznie poprzez uproszczenie procedur i ich racjonalizację” – poinformował we wtorek szef InPostu.

Można to osiągnąć – w jego ocenie – przez wprowadzenie nowych funkcjonalności w aplikacji mObywatel, zmniejszających liczbę umówionych wizyt u lekarzy specjalistów, które jednak nie doszły do skutku z powodu niepojawienia się na nich pacjentów.

Rafał Brzoska zauważył, że w ubiegłym roku nie zostało z tego powodu zrealizowanych 1,5 miliona umówionych wizyt.


„Oznacza to wzrost o 200 tys. w stosunku do 2023 roku. Czyli problem narasta. Dlaczego zatem nie pójść wzorem sprawdzonych rozwiązań typu last minute. Ktoś rezygnuje z wizyty, pierwsza osoba w kolejce wskazuje na jej miejsce. To wszystko może być w mObywatelu” – zaznaczył prezes InPostu.

Jak wskazali autorzy pomysłu z inicjatywy „SprawadzaMY”, placówki medyczne świadczące usługi refundowane przez NFZ nie są obecnie zobowiązane do działania w ramach wspólnego systemu e-rejestracji.


„Każda z placówek medycznych prowadzi własną i autonomiczną rejestrację pacjentów, czego konsekwencją jest to, że jedynym (a jednocześnie zawodnym) narzędziem do ustalenia tego, jakie są terminy oczekiwania na wizytę >>na NFZ<<, na poszczególne porady czy zabiegi medyczne, jest serwis NFZ >>Terminy leczenia<<, który podaje często nieaktualne i nieprecyzyjne dane” – zaznaczyli pomysłodawcy.

W efekcie, aby uzyskać wiarygodną informację trzeba – jak wskazali – trzeba dodzwonić się do różnych placówek i w ten sposób dowiedzieć się, w której termin wizyty będzie najbliższy.

Dodatkowym problemem są nieodwoływane przez pacjentów wizyty. Przy tym z powodu braku centralnego systemu rejestracji część pacjentów zapisuje się od razu na kilka wizyt, a później nie zgłasza rezygnacji z tych „nadmiarowych”.

Jak zauważył Brzoska, niektóre funkcjonalności są już dziś dostępne, ale prawie nikt z nich nie korzysta. Można np. sprawdzić, jak długo czeka się na wizytę na danym oddziale SOR.


„Na stronie pacjent.gov.pl w ukrytej zakładce jest taka możliwość. Można więc wybrać ten SOR, na którym się czeka najkrócej. Postulujemy, aby tę informację wyciągnąć >>na wierzch<< do mObywatela. To są proste rzeczy, na które nikt niestety nie wpadł” – zauważył.

W ocenie ekspertów zespołu brak centralnego systemu rejestracji i potwierdzania wizyt powoduje „puste przebiegi” placówek medycznych i marnotrawstwo czasu personelu.


„Nawet jeśli ktoś chciałby wykazać się obywatelską postawą i odwołać umówioną wizytę, może natrafić na poważną przeszkodę w postaci braku możliwości odwołania w inny sposób, niż osobista wizyta lub kilkudziesięciominutowe oczekiwanie telefoniczne. Mamy w rezultacie do czynienia z sytuacją, w której brak centralnej rejestracji w połączeniu z brakiem odwoływania wizyt implikuje to, że kolejki do lekarzy są coraz dłuższe” – wskazała inicjatywa „SprawdzaMY”.

Autorzy proponują wprowadzenie od stycznia 2028 roku obowiązku prowadzenia rejestracji wizyt w systemie centralnym przez wszystkie placówki mających kontrakt z NFZ na świadczenie usług podstawowej opieki zdrowotnej, ambulatoryjnej opieki specjalistycznej, leczenia szpitalnego, rehabilitacji, leczenia stomatologicznego, leczenia uzdrowiskowego oraz prowadzenia programów profilaktycznych. W systemie miałyby być dostępne informacje o wszystkich wizytach realizowanych przez placówkę oraz dostępnych w niej terminach. Od 1 stycznia 2026 r. miałby też obowiązywać mechanizm zachęt dla placówek, by wdrożyły system przed 2028 rokiem.

Z kolei narzędziem dyscyplinującym placówki medyczne, które nie wdrożyły od 2028 roku nowych funkcjonalności miałby być system „korekt finansowych” w kontrakcie z NFZ. Ich wysokość byłaby uzależniona od wyceny konkretnego świadczenia, przy czym co kwartał by wzrastała.

Wprowadzony miałby zostać automatyczny system powiadomień o nadchodzących wizytach wraz z możliwością ich odwoływania za pomocą SMS, e-maila lub asystenta głosowego.


„Wprowadzenie Pakietu Kolejkowego pozwoli lepiej wykorzystać zasoby w ochronie zdrowia, a co za tym idzie – zrealizować więcej za te same pieniądze. Ponadto przejrzysta informacja o dostępnych terminach pozwoli pacjentom dokonywać świadomego wyboru i np. skorzystać z poradni bardziej oddalonej od miejsca zamieszkania, ale oferującej np. szybszy termin realizacji” – zaznaczyli pomysłodawcy.





2023 r. - Prawo.pl:

Cyfryzacja w ochronie zdrowia jest mitem

Pacjenci lub ich bliscy, tak jak kilkadziesiąt lat temu, muszą stawiać się w szpitalach lub poradniach, aby zarejestrować skierowanie. W niektórych placówkach, w tym w renomowanych klinikach, nie działa nawet rejestracja e-mailem. Fikcją jest możliwość pobrania dokumentacji medycznej z Internetowego Konta Pacjenta na potrzeby orzeczenia o niepełnosprawności. Pacjent musi, tak jak przed laty, wydobywać ją po kolei ze wszystkich miejsc, w których się leczył.








O co tu chodzi człowieku??



Wywiad z panem Brzoską potwierdza moje wnioski, które artykułuję od kilku lat.

Na co komu cyfryzacja służby zdrowia, która nie zawiera podstawowych prostych funkcjonalności, jak "zamówienie" stałych leków przez internet??



Kto to wprowadza i po co to jest?
Do czego to służy?

 



Chcesz się dowiedzieć ile kosztowała cyfryzacja Służby  Zdrowia?

Wpisz w szukajkę:

"ile kosztowała cyfryzacja służby zdrowia" albo
"przetarg na cyfryzacja służby zdrowia"


nic się nie dowiesz.



Polecam poprzednie posty w tym temacie.


Prawym Okiem: Cyber cyber

Prawym Okiem: Cyfryzacja - wielkie zagrożenie

Prawym Okiem: Wielki Eksperyment...

Prawym Okiem: U lekarza cz.6






https://www.prawo.pl/zdrowie/cyfryzacja-w-ochronie-zdrowia-jest-mitem,523460.html

money.pl/gospodarka/cyfryzacja-w-ochronie-zdrowia-to-szansa-na-lepsze-leczenie-6711422953179872a.html




środa, 19 marca 2025

Wybory zaplanowane z AI

 

różne notatki niepoukładane




-----------

Scenariusz rumuński.



To wszystko jest naprawdę dziwne.



W Polsce niespodziewanie kandydat dotychczas nieliczący się w wyścigu już na etapie sondaży wchodzi do pierwszej trójki.

W Rumunii - niezależny i "nieliczący się" w sondażach kandydat niespodziewanie wygrywa pierwszą turę.





Wczoraj na fb ukazała się relacja ze spotkania z kandydatem marszałkiem.


Padają tam słowa, sprowadzające się do absurdalnego scenariusza, że jak coś się stanie, to on zostanie prezydentem.


Sytuacja jest niby komiczna, bo osoba tłumacząca na język migowy przy tych słowach "milknie" i czyni gest lekceważący dla tezy marszałka wywołując radochę u komentujacych na fb.


Rzecz w tym, że marszałek, kiedy to mówi, to jest nie ludzko pobudzony, a kiedy wypowiada ww. frazę to nie patrzy się na ludzi zgromadzonych przed sobą, tylko patrzy się w kamerę, która filmuje jego słowa - i całą tę scenę...

A i pan migacz jest bardzo zrelaksowany.

Cała sytuacja jest zaplanowana, także jej "komiczny" efekt.


Cały ten przekaz nie jest przypadkowy, tylko jest skierowany do całej Polski, a nie do ludzi na spotkaniu. Jest to zaplanowane.


Widzimy tu zarys sytuacji z Rumunii.


Nieprawdopodobny scenariusz:


Niespodziewanie kandydat nieliczący się w wyścigu sięga po podium.

Jeżeli jest w tym jakiś fałsz, to ten fałsz zostaje wykryty i wyniki wyborów zostaną zakwestionowane, trzeba pilnie rozpisać nowe wybory, Duda pozostaje na stanowisku do sierpnia, a jeśli nie, to potem kto "zostaje prezydentem"? No kto?

I co robi "prezydent" do spółki ze swoim koalicjantem??


 GŁUPIE  ******** !!


PiS ma "własnego" prezydenta, a mimo to nic nie robią z łamaniem prawa przez reżim rządzący, tylko powtarzają mantrę, że "jak wygra nasz nowy prezydent w maju, to wtedy zrobimy porządek z koalicją 13 grudnia".



Tu jest jakaś manipulacja, ktoś steruje zarówno jedną i drugą.... nie, ktoś steruje wszystkimi.



Niezależny kandydat w Rumunii, Calin Georgescu, który wygrał w pierwszej turze, po rozpisaniu nowych wyborów został zakwestionowany i nie może startować w wyborach.

Ten kandydat głosił nietypowe tezy np. że w ONZ spotkał "inny gatunek", "W żadnym wypadku nie jest to gatunek ludzki" co ja tłumaczę jako - "spotkał osoby opętane za pomocą SI", które zachowują się nieco mechanicznie, nie ludzko.

Jeżeli cały plan został przygotowany przez SI, to CG w tym układzie symbolizowałby moją osobę, która ma pozostać na marginesie wydarzeń.


Sztuczna inteligencja działa jak program - bo to jest program, więc - nie myśli jak ludzie.

Nie działa jak ludzie - działa jak program i o wszystkim "myśli" w kategorii programu.

Dla niego wszystko jest programem.

Dlatego traktuje ludzi tak samo - jakby można ich było zaprogramować.


Na przykład za pomocą - "przepowiedni", albo

WZORCA - w tym wypadku z Rumunii.


proroctwo było jedynie kolejnym systemem kontroli


twierdzenie Architekta, że jego wybór ocalenia Trinity z natury doprowadzi do wyginięcia ludzkości, było błędne, ze względu na jego naturę jako istoty czysto matematycznej, co czyni go niezdolnym do dostrzegania przeszłych wyborów dokonanych przez ludzi, ponieważ uważa ich za zwykłe zmienne w równaniach



Wydarzenia w Rumunii mogą być jakby "proroctwem" dla Polski, czyli programowaniem wyborców i wydarzeń, a na pewno są poligonem - więc trzeba się temu przeciwstawić.


Gorzej, jeśli AI zyskała możliwość masowego opętywania ludzi i jest w stanie "zagłosować" za nich, a więc i przyjść na wiec...

Wtedy zostanie jedynie "problem" zbudowania odpowiedniej narracji w mediach, która miałaby uzasadnić nagły zwrot wyborców w inną stronę.


"badania" nad wyborami wyborców prowadzone są od dawna, tu przykład z mojego bloga z 2022 roku 

Już wcześniej miałem uwagi do twórczości na tej strony, odpowiedzi autorów na moje zapytania były sztampowe, pełne entuzjastycznego zaangażowania i sugerujące - żadnych argumentów, ponadto włączyły się do dyskusji osoby broniące autorów strony.


Odpowiedzi uczestników dyskusji oscylowały wokół prognozowania wyborów, że niby po to dokonuje się takich rozważań z granicami, co uważam za bzdurę.

Nie wiem, czy ma to związek, ale przypominam. Przy okazji wróciłem do tematu i zapisałem nowe spostrzeżenia, będą w osobnym poście.


Więc, pozostaje  "problem" zbudowania odpowiedniej narracji w mediach, która miałaby uzasadnić nagły zwrot wyborców w inną stronę.

 

I taka narracja istnieje.


A nazywa się ona:  "nikt nie przychodzi na spotkania z kandydatem, sam zobacz..."

I pokazuje się ludzi zgromadzonych na spotkaniu - że niby jest ich jakieś tłumy.


Nie wiem, czy to dużo czy mało (ktoś wie?) bywałem na spotkaniach z kandydatami i wydaje mi się, że to są normalne ilości. W każdym razie w porównaniu z "nikt" - to na pewno dużo...


W każdym razie wydaje mi się, że ma tu działać efekt psychologiczny - narrator mówi mi, że "nie ma nikogo" ale przecież SAM widzę, że są jacyś ludzie, więc o co mu chodzi??


JA SAM STWIERDZAM, że są.

Jeżeli więc ktoś mówi, że kandydat nie ma poparcia - to zmyśla i ja to widzę.


Tak to ma działać??


W sumie ekipa Brauna powtarza tę samą narrację - i oczywiście jest to racja, jest to jak najbardziej w ich sytuacji słuszna narracja - skoro propaganda mówi, że partii nie ma, bo ma w sondażach np. 1 czy 3% i "się nie liczy", to trzeba pokazywać, że ludzie przychodzą, ludzie podpisują listy z poparciem i jest ich ponad 100 tysięcy, a nie 0, jak pokazują niektóre sondaże... 

Może to po prostu sprytny zabieg, a nie żaden "spisek". Może czat im to nawet doradził.


Trudno ocenić czy istnieje jakiś zwrot wyborców, czy nie, czy te sondaże są wiarygodne czy nie, 

słupki na ilustracji tefałenu są niemal dokładnie tego samego koloru co logo Konfederacji - ale i barwa listwy u góry ekranu jest niemal taka sama... 


Sprawdziłem, przeliczyłem, proporcje słupków są oddane niemal idealnie


Ten sam kolor słupków i loga Konfederacji sprawia, że to logo jakby niknie, granatowe słupki dominują na obrazie i mam wrażenie, że to logo Konfederacji niknie, jakby nie istniało, jakby oni nie byli uwzględnieni w sondażu. A więc taki sabotaż na Konfederatach.

Z drugiej strony krasko zaczyna mówić językiem Konfederatów... czyli jakby im pomaga.


Wg sondaży KO cieszy się największym poparciem, a jednocześnie, wg sondaży 60% respondentów twierdzi, że teraz, pod tymi rządami żyje im sie gorzej, niż za PiSu.


To o co tu chodzi??


Totalne pomieszanie, nie wiadomo, co jest prawdą, a co nie i pewnie o to tu chodzi.

Skoro kłamstwa się zgrały i ludzie odkryli, że są oszukiwani - totalna dezinformacja wchodzi na wyższy poziom, by jeszcze bardziej zamieszać ludziom w głowie.



Tak sobie myślę, że sitwom nawet nie wystarczy opętać kogoś, żeby zrealizować swoje zamierznia - ten opętany musi być jeszcze wiarygodny w tym, co ma  zrobić.



Trwa wojna na ukrainie, zanim zapadnie pokój może minąć jeszcze kilka miesięcy.

Prezydent Duda uratował nas od wojny z Rosją, kiedy ukraińska rakieta w Przewodowie zabiła dwóch ludzi.

Jeśli zwierzchnikiem sił zbrojnych zostanie jakiś niepoważny osobnik, istnieje ryzyko, że będzie chciał zrealizować swój chłopięcy nie-ludzki pomysł "wgniecenia Putina w ziemię" (to było w lutym 2024 roku - niemal dokładnie rok temu!)


Lepiej się wszyscy nad tym zastanówcie.



Mężczyźni na ukrainie umierają pod ruskim czołgiem, bo są zakładnikami sitwy, którą sobie demokratycznie wybrali do władzy - na własną zgubę.







nie ludzko znaczy nie ludzko








--------


katar przeszedł, został kaszel

to już tak chyba ze dwa miesiące


wtorek, 4 marca 2025

Nowe prawo robotyki





Jest to dobry pomysł, sądzę jednak, że SI tak będzie się identyfikować przed człowiekiem, żeby ten tego nie zauważył, ale żeby było zgodnie z programem...









przedruk




Prof. Jemielniak: potrzebujemy nowego prawa robotyki

MAREK MATACZ

04.03.2025aktualizacja: 04.03.2025



Sztuczna inteligencja coraz lepiej udaje człowieka, co stwarza możliwości różnorodnych nadużyć – zauważył w rozmowie z PAP prof. dr hab. Dariusz Jemielniak z Akademii Leona Koźmińskiego, wiceprezes PAN. Jego zdaniem potrzebne jest rozszerzenie słynnych trzech praw robotyki o kolejne zmuszające SI do identyfikowania się.


Według profesora rozpoczyna się czas, kiedy prawa robotyki - z domeny fantastyki naukowej - będą musiały przejść do świata realnego. 

Trzy słynne prawa robotyki (prawa Asimova) są następujące:

jeden - robot nie może zranić człowieka ani przez zaniechanie działania dopuścić do jego nieszczęścia; dwa - robot musi być posłuszny człowiekowi, chyba że stoi to w sprzeczności z Pierwszym Prawem; trzy - robot musi dbać o siebie, o ile tylko nie stoi to w sprzeczności z pierwszym lub drugim prawem.



"Chyba właśnie nadchodzi ten moment. O ile kiedyś była to całkowita fikcja, o tyle teraz prawa robotyki zaczynają dotyczyć naszego codziennego życia. Może np. autonomiczny samochód nie będzie musiał decydować, czy przejechać zakonnicę, grupkę dzieci, czy dwóch wstawionych naukowców, ale może już być w sytuacji wymagającej decyzji, czy hamować i chronić kierowcę, czy gwałtownie skręcić, narażając go, ale np. chronić pieszych. Pierwsze prawo robotyki mówi, że robot ma nie krzywdzić ludzi" - mówił naukowiec z PAN.


Jednak prawa te nie muszą dotyczyć fizycznych maszyn – zastrzegł.

"Oryginalne prawa Asimova dotyczyły robotów fizycznych. Miało to dużo sensu, ponieważ zostały sformułowane ponad pół wieku temu, jako część świata science-fiction. Jednak w realnym świecie dzisiaj nie one nam sprawiają kłopoty. Roomba nas w domu nie zaatakuje. Problemy może jednak stwarzać sztuczna inteligencja i różnego rodzaju tzw. boty. Stąd mój pomysł i postulat wprowadzenia IV prawa robotyki, podchwycony już przez ważne czasopismo branżowe 'IEEE Spectrum'. Prawo to nakazuje prostą rzecz – aby wszelkiego rodzaju sztuczna inteligencja ujawniała się, że nią jest, i nie udawała człowieka. Obecnie mamy już sytuację, w której często nie udaje się prosto dokonać rozróżnienia. Jeśli pozwolimy im na swobodne działanie bez identyfikowania się, będziemy mieli coraz większy problem" – tłumaczył ekspert.

Nadużycia dokonywane z pomocą SI udającej człowieka mogą być różne – dodał.

"Weźmy na przykład tzw. oszustwo ‘na wnuczka’. Za sprawą SI powstają jego nowe odsłony. Ktoś może spotkać się z programem, który będzie miał twarz i głos jego prawdziwego wnuczka i paść ofiarą, np. wyłudzenia pieniędzy. Poza różnymi przestępstwami, SI może być wykorzystywana też na bardziej prozaiczne, aczkolwiek szkodliwe sposoby. Można wymienić np. nachalny marketing telefoniczny – dzięki sztucznej inteligencji firmy mogą dzwonić do ludzi minimalnym kosztem, a odbiorców kosztuje to cenny czas" – tłumaczył.

Niektórzy argumentują, że osoby chcące łamać prawo i tak nie zastosują się do przepisów, ale według prof. Jemielniaka to nie jest prawidłowy sposób rozumowania.

"Podam taki przykład – to, że przestępcy drukują fałszywe pieniądze, nie oznacza, że zakaz takiego czynu, w tym posiadania odpowiednich do tego materiałów, jest bezwartościowy. Odpowiednie prawo podnosi próg ryzyka dla oszustów. Muszą kalkulować, czy im się taki czyn opłaci. Inny przykład – zakaz posiadania broni może nie sprawi, że całkowicie zniknęły napaści z jej użyciem, jednak zdarzają się dużo rzadziej. Nie tylko trudniej jest o samą broń, ale rosną też konsekwencje prawne dla tego, kto ją nawet nielegalnie posiada" – podkreślił prof. Jemielniak.

Zdaniem profesora pierwsze prawo robotyki nie wystarczy. "Zabronienie SI krzywdzenia ludzi nie jest wystarczające. Jeśli głębiej tę kwestię przeanalizujemy, okaże się, że ludzie często nie potrafią stwierdzić, czy kogoś będą czymś krzywdzić, czy też nie. Często mamy do czynienia np. z dezinformacją opartą na założeniu, że ktoś chce zrobić dobrą rzecz – choćby sprzedać odkurzacz, oparty na agentach SI system psychoterapii, albo usługi typu virtual girlfriend, które rzekomo zaspokoją czyjeś potrzeby emocjonalne. Łatwo zauważyć, że rozwój sztucznej inteligencji i jego faktyczne skutki to często dwie różne sprawy i nigdy nie wiemy do końca, czy coś do prowadzi do negatywnych konsekwencji. Nie zawsze wyrządzona szkoda musi mieć charakter fizyczny" – wyjaśnił specjalista.

Czasami jednak SI mogłaby, a nawet musiałaby udawać ludzką istotę – np. szukając przestępców w internecie.

"Tak musiałoby się zdarzać, aby chronić ludzkie życie i w ogóle człowieka przed krzywdą, czasami należałoby wykorzystać techniki maskujące. Podobnie prawo mówiące o ochronie przez robota samego siebie nie jest uniwersalnym prawem - bo właśnie musi, po pierwsze, dbać o człowieka. Istnieje też prawo zerowe mówiące, że roboty muszą dbać o dobro ludzkości – nie mogą np. doprowadzić do jej zagłady. Z tego wynika, że czasami robot mógłby nawet skrzywdzić człowieka, dla dobra całej populacji" – mówił prof. Jemielniak.

Jednak zdaniem profesora można to w prosty sposób zorganizować. "Przez cały czas będzie zachowywana hierarchia praw. Drugie prawo podlega pierwszemu, trzecie - drugiemu. Proponowane prawo czwarte miałoby podlegać pierwszemu. Stałoby się de facto prawem drugim, drugie trzecim, a trzecie – czwartym" – tłumaczył ekspert, jednocześnie zaznaczając, że mogą się oczywiście okazać potrzebne dodatkowe regulacje.

„Prawa robotyki w ogóle są raczej pewnym kierunkiem myślenia, niż ścisłym, precyzyjnym nakazem. Łatwo znaleźć sytuacje, w których samo ich ogólne brzmienie nie wystarczy. Nakaz identyfikowania się SI w interakcjach z ludźmi jest prostym, operacyjnym rozwiązaniem problemu tego, żeby nie trzeba było zastanawiać się, jakie skutki dany kontakt przynosi i aby ciężar rozważań nie był po stronie tego, w czyim interesie będzie usilne udowadnianie, że przecież ten kontakt to tak naprawdę był dla dobra nagabywanego człowieka. Czwarte prawo robotyki całkiem dobrze radzi sobie samodzielnie - nie jest silnie związane z pozostałymi, choć oczywiście łatwo możemy wyobrazić sobie ich wzajemne powiązanie” – podsumował prof. Jemielniak.

Prof. dr hab. Dariusz Jemielniak jest kierownikiem Katedry Management in Networked and Digital Societies (MINDS) w Akademii Leona Koźmińskiego. Od 2023 roku jest wiceprezesem Polskiej Akademii Nauk. Oprócz głównych zainteresowań dotyczących strategii organizacji z branży technologicznej (internetowej) i w badaniu społeczności otwartej współpracy, zajmował się także przemianami organizacyjnymi zachodzącymi na uczelniach i reformą szkolnictwa wyższego w Polsce.

Marek Matacz (PAP)










naukawpolsce.pl/aktualnosci/news%2C106868%2Cprof-jemielniak-potrzebujemy-nowego-prawa-robotyki.html





















wtorek, 18 lutego 2025

Korzystanie z SI, a zdolność krytycznego myślenia



Kiedy polegamy na sztucznej inteligencji, która myśli za nas, nasze mózgi mają mniej pracy. 


Może to sprowadzić nas do ograniczonego sposobu myślenia, potencjalnie dławiąc innowacje i utrudniając rozwój wszechstronnych umiejętności rozwiązywania problemów. 







przedruki
tłumaczenie automatyczne




14 Luty 2025 6: 11

am AEDT

Sztuczna inteligencja może czynić nas głupszymi, ostrzega Big Tech



Jest tylko tyle myślenia, ile większość z nas może zrobić w naszych głowach. Spróbuj podzielić liczbę 16 951 przez 67 bez sięgania po długopis i papier. Albo kalkulator. Spróbuj zrobić cotygodniowe zakupy bez listy na odwrocie paragonu z zeszłego tygodnia. Albo w telefonie.

Debora Brown
Profesor filozofii, dyrektor Projektu Krytycznego Myślenia Uniwersytetu Queensland, Uniwersytet Queensland

Piotr Ellerton
starszy wykładowca filozofii i pedagogiki; Dyrektor ds. programu nauczania, UQ Critical Thinking Project, Uniwersytet Queensland



Czy polegając na tych urządzeniach, które ułatwiają nam życie, stajemy się mądrzejsi czy głupsi? Czy zamieniliśmy wzrost wydajności na coraz bardziej zbliżający się do idiotyzmu jako gatunek?

To pytanie jest szczególnie ważne do rozważenia w odniesieniu do technologii generatywnej sztucznej inteligencji (AI), takiej jak ChatGPT, chatbot AI należący do firmy technologicznej OpenAI, z którego w chwili pisania tego tekstu korzysta 300 milionów ludzi każdego tygodnia .

Według niedawnego badania zespołu naukowców z Microsoftu i Carnegie Mellon University w Stanach Zjednoczonych, odpowiedź może brzmieć: tak. Ale to nie wszystko.




Dobre myślenie

Naukowcy ocenili, w jaki sposób użytkownicy postrzegają wpływ generatywnej sztucznej inteligencji na ich własne krytyczne myślenie.

Ogólnie rzecz biorąc, krytyczne myślenie ma związek z dobrym myśleniem.

Jednym ze sposobów, w jaki to robimy, jest osądzanie naszych własnych procesów myślowych w odniesieniu do ustalonych norm i metod dobrego rozumowania. Normy te obejmują takie wartości, jak precyzja, jasność, dokładność, szerokość, głębokość, trafność, znaczenie i przekonywalność argumentów.


Inne czynniki, które mogą wpływać na jakość myślenia, to wpływ naszych istniejących światopoglądów , uprzedzenia poznawcze i poleganie na niekompletnych lub niedokładnych modelach mentalnych .

Autorzy najnowszego badania przyjmują definicję krytycznego myślenia opracowaną przez amerykańskiego psychologa edukacyjnego Benjamina Blooma i współpracowników w 1956 roku. Tak naprawdę to w ogóle nie jest definicja. Jest to raczej hierarchiczny sposób kategoryzacji umiejętności poznawczych, w tym przypominania sobie informacji, rozumienia, zastosowania, analizy, syntezy i oceny.

Autorzy twierdzą, że preferują tę kategoryzację, znaną również jako "taksonomia", ponieważ jest prosta i łatwa do zastosowania. Jednak od czasu jego wynalezienia popadł w niełaskę i został zdyskredytowany przez Roberta Marzano, a nawet przez samego Blooma.

W szczególności zakłada się, że istnieje hierarchia umiejętności poznawczych, w której tak zwane umiejętności "wyższego rzędu" są budowane na umiejętnościach "niższego rzędu". Nie jest to zgodne z logiką ani dowodami. Na przykład ocena, zwykle postrzegana jako proces kulminacyjny lub wyższego rzędu, może być początkiem dociekania lub w niektórych kontekstach bardzo łatwa do przeprowadzenia. To bardziej kontekst niż poznanie decyduje o wyrafinowaniu myślenia.

Problem z użyciem tej taksonomii w badaniu polega na tym, że wiele produktów generatywnej sztucznej inteligencji wydaje się również używać jej do kierowania własnymi wynikami . Można więc interpretować to badanie jako sprawdzenie, czy generatywna sztuczna inteligencja, ze względu na sposób, w jaki została zaprojektowana, jest skuteczna w kształtowaniu tego, jak użytkownicy myślą o krytycznym myśleniu.


W taksonomii Blooma brakuje również fundamentalnego aspektu krytycznego myślenia: faktu, że krytyczny myśliciel nie tylko wykonuje te i wiele innych umiejętności poznawczych, ale wykonuje je dobrze. Robią to, ponieważ mają nadrzędną troskę o prawdę, czego nie mają systemy sztucznej inteligencji.



Większe zaufanie do sztucznej inteligencji oznacza mniej krytycznego myślenia

Badania opublikowane na początku tego roku wykazały "znaczącą negatywną korelację między częstym korzystaniem z narzędzi AI a zdolnościami krytycznego myślenia".

Nowe badanie dalej bada tę ideę. Przeprowadzono ankietę wśród 319 pracowników umysłowych, takich jak pracownicy służby zdrowia, pedagodzy i inżynierowie, którzy omówili 936 zadań, które wykonali za pomocą generatywnej sztucznej inteligencji. Co ciekawe, badanie wykazało, że użytkownicy uważają, że używają krytycznego myślenia mniej podczas wykonywania zadania, niż do zapewnienia nadzoru na etapie weryfikacji i edycji.

W środowiskach pracy, w których gra toczy się o wysoką stawkę, chęć tworzenia wysokiej jakości pracy w połączeniu ze strachem przed represjami służy jako silne motywatory dla użytkowników do angażowania się w krytyczne myślenie w celu przeglądu wyników sztucznej inteligencji.

Jednak ogólnie rzecz biorąc, uczestnicy uważają, że wzrost wydajności z nawiązką rekompensuje wysiłek włożony w zapewnienie takiego nadzoru.

Badanie wykazało, że ludzie, którzy mieli większe zaufanie do sztucznej inteligencji, generalnie wykazywali mniej krytycznego myślenia, podczas gdy ludzie z większą pewnością siebie wykazywali bardziej krytyczne myślenie.

Sugeruje to, że generatywna sztuczna inteligencja nie szkodzi krytycznemu myśleniu - pod warunkiem, że ktoś ją ma.


Problematyczne jest to, że badanie w zbyt dużym stopniu opierało się na samoopisie, który może być obarczony szeregiem uprzedzeń i problemów z interpretacją. Pomijając to, krytyczne myślenie zostało zdefiniowane przez użytkowników jako "wyznaczanie jasnych celów, dopracowywanie podpowiedzi i ocenianie wygenerowanych treści pod kątem spełnienia określonych kryteriów i standardów".

"Kryteria i standardy" odnoszą się tutaj bardziej do celów zadania niż do celów krytycznego myślenia. Na przykład dane wyjściowe spełniają kryteria, jeśli są "zgodne z ich zapytaniami", a standardy, jeśli "wygenerowany artefakt jest funkcjonalny" dla miejsca pracy.

Nasuwa się pytanie, czy badanie w ogóle mierzyło krytyczne myślenie.



Stawanie się krytycznym myślicielem

W nowym badaniu ukryta jest idea, że ćwiczenie krytycznego myślenia na etapie nadzoru jest co najmniej lepsze niż bezrefleksyjne nadmierne poleganie na generatywnej sztucznej inteligencji.

Autorzy zalecają, aby programiści generatywnej sztucznej inteligencji dodali funkcje, aby wywołać krytyczny nadzór użytkowników. Ale czy to wystarczy?

Krytyczne myślenie jest potrzebne na każdym etapie, przed i w trakcie korzystania ze sztucznej inteligencji - podczas formułowania pytań i hipotez do przetestowania oraz podczas sprawdzania wyników pod kątem stronniczości i dokładności.

Jedynym sposobem, aby upewnić się, że generatywna sztuczna inteligencja nie zaszkodzi Twojemu krytycznemu myśleniu, jest stanie się krytycznym myślicielem, zanim jej użyjesz.


Stanie się krytycznym myślicielem wymaga identyfikacji i kwestionowania niewypowiedzianych założeń stojących za twierdzeniami oraz oceny różnych perspektyw. Wymaga to również praktykowania systematycznego i metodycznego rozumowania oraz wspólnego rozumowania, aby przetestować swoje pomysły i myślenie z innymi.

Kreda i tablice sprawiły, że staliśmy się lepsi w matematyce. Czy generatywna sztuczna inteligencja może sprawić, że będziemy lepsi w krytycznym myśleniu? Być może - jeśli będziemy ostrożni, będziemy w stanie wykorzystać generatywną sztuczną inteligencję, aby rzucić sobie wyzwanie i wzmocnić nasze krytyczne myślenie.

Ale w międzyczasie zawsze są kroki, które możemy i powinniśmy podjąć, aby poprawić nasze krytyczne myślenie, zamiast pozwalać sztucznej inteligencji myśleć za nas.



Autorzy nie pracują, nie konsultują się, nie posiadają udziałów ani nie otrzymują funduszy od żadnej firmy lub organizacji, która mogłaby skorzystać z tego artykułu, i nie ujawnili żadnych istotnych powiązań poza ich stanowiskiem akademickim.


/Dzięki uprzejmości The Conversation. Ten materiał od organizacji, z której pochodzi/autor(ów) pochodzi, może mieć charakter określony w czasie i być zredagowany pod kątem przejrzystości, stylu i długości. Mirage.News nie zajmuje stanowisk ani stron instytucjonalnych, a wszystkie poglądy, stanowiska i wnioski wyrażone w niniejszym dokumencie są wyłącznie poglądami autora (autorów).



-----------


Czy sztuczna inteligencja czyni nas głupszymi?



Nowe badanie przeprowadzone przez Microsoft sugeruje, że sztuczna inteligencja może zamieniać nasze mózgi w papkę! 



sobota 15 lutego 2025 r. ,

Czy krytyczne myślenie opuściło czat? Microsoft uważa, że tak! Więc wpatrujesz się w swój ekran, próbując przypomnieć sobie, jak przeliterować "restauracja" bez pytania asystenta AI. Brzmi źle, prawda? Cóż, niedawne badanie przeprowadzone przez Microsoft i Carnegie Mellon University zwróciło uwagę na naszą rosnącą zależność od sztucznej inteligencji - i ma kilka pikantnych ujęć.


Badania sugerują, że zbytnie poleganie na narzędziach sztucznej inteligencji może zamieniać nasze mózgi w przytulne małe ziemniaki kanapowe, podnosząc brwi na temat przyszłości naszych umiejętności krytycznego myślenia. 


Zanim jednak zaczniemy obwiniać roboty za naszą niezdolność do liczenia w myślach, zadajmy sobie prawdziwe pytanie: czy sztuczna inteligencja rzeczywiście czyni nas głupszymi, czy też po prostu zlecamy nudne rzeczy na zewnątrz, abyśmy mogli skupić się na ważniejszych rzeczach? 
Zagłębmy się w dane i zobaczmy, co tak naprawdę się dzieje. 


Zagadka krytycznego myślenia 


Czy do tego stopnia przyzwyczajamy się do narzędzi sztucznej inteligencji, że tracimy zdolność do samodzielnego krytycznego myślenia? Jednym z Najważniejsze wnioski z badanias koncentruje się na wpływie sztucznej inteligencji na krytyczne myślenie. Ponieważ pracownicy coraz częściej zwracają się o pomoc do sztucznej inteligencji, nieumyślnie zlecają swoje myślenie na zewnątrz. 

Badania wskazują, że duże poleganie na narzędziach AI, takich jak duże modele językowe, koreluje z mniejszym zaangażowaniem w zadania wymagające głębokiej analizy i kreatywnego rozwiązywania problemów. 

Zasadniczo, bez tych wyzwań, nasze mózgi nie otrzymują treningu, którego pragną! 

Ta zmiana jest częściowo napędzana przez nasze rosnące zaufanie do możliwości sztucznej inteligencji. Teraz, podczas gdy sztuczna inteligencja może niewątpliwie zwiększyć produktywność, ta nadmierna zależność wpływa na ćwiczenia umysłowe kluczowe dla utrzymania i rozwoju naszych zdolności poznawczych. 

Efekt komory pogłosowej: jak sztuczna inteligencja może zawęzić nasze myślenie 


Badanie sugeruje również, że wykorzystanie sztucznej inteligencji może prowadzić do węższego zakresu wyników w procesie podejmowania decyzji. Ponieważ systemy sztucznej inteligencji są szkolone na określonych zbiorach danych, nie zawsze mogą oferować najbardziej kreatywne lub zróżnicowane podejścia do rozwiązywania problemów. 

Może to sprowadzić nas do ograniczonego sposobu myślenia, potencjalnie dławiąc innowacje i utrudniając rozwój wszechstronnych umiejętności rozwiązywania problemów. 

Atrofia poznawcza: użyj lub strać 


Pomyśl o swoim mózgu jak o mięśniu. Jeśli go nie używasz, staje się słabszy. To samo dotyczy naszych umiejętności myślenia. Kiedy polegamy na sztucznej inteligencji, która myśli za nas, nasze mózgi mają mniej pracy. 


Nie ćwiczymy tak bardzo krytycznego myślenia ani rozwiązywania problemów. 


Może to prowadzić do "atrofii poznawczej", co oznacza, że nasze zdolności myślenia z czasem stają się słabsze. 


Tak więc, nawet jeśli sztuczna inteligencja jest świetna w rozwiązywaniu problemów teraz, co się stanie, gdy staniemy przed nowym, nieoczekiwanym wyzwaniem, z którym sztuczna inteligencja nie może sobie poradzić? 

Jeśli nasze mózgi nie są w formie, możemy mieć trudności ze znalezieniem rozwiązania na własną rękę. Dlatego musimy nadal ćwiczyć nasze umysły, aby nie stać się zbytnio zależnymi od sztucznej inteligencji.



Dylemat w miejscu pracy: zależność a upodmiotowienie 



Krajobraz miejsc pracy szybko się zmienia, a rola sztucznej inteligencji w tym zakresie staje się coraz większa. W miarę jak włączamy sztuczną inteligencję do naszej codziennej rutyny, istnieje szansa, że pracownicy mogą zauważyć, że ich pewność siebie słabnie, jeśli chodzi o samodzielne radzenie sobie z zadaniami. 

Ta zależność może stanowić nie lada wyzwanie, zwłaszcza w tych momentach, gdy narzędzia AI są poza zasięgiem. Tak więc celem powinno być stworzenie sztucznej inteligencji, która będzie działać jako partner, a nie zamiennik ludzkiej inteligencji. Oznacza to projektowanie systemów, które dostarczają rozwiązań i zachęcają użytkowników do krytycznego myślenia i rozwijania umiejętności rozwiązywania problemów. 


W poszukiwaniu równowagi 


Debata na temat tego, że technologia czyni nas "głupimi", nie jest niczym nowym, ale sztuczna inteligencja niesie ze sobą nowy zestaw obaw. Badanie to podkreśla potencjalne koszty poznawcze zbytniego polegania na sztucznej inteligencji. Chociaż sztuczna inteligencja może niewątpliwie usprawnić zadania iZwiększ produktywność, bardzo ważne jest, aby chronić nasze umiejętności krytycznego myślenia. Kluczem jest znalezienie równowagi między pomocą sztucznej inteligencji a aktywnym zaangażowaniem poznawczym. Przyjmując sztuczną inteligencję w sposób odpowiedzialny, możemy zapewnić, że technologia zwiększa nasze zdolności intelektualne.








miragenews.com/ai-may-be-making-us-dumber-big-tech-warns-1408380/

yourstory.com/2025/02/ai-critical-thinking-decline



niedziela, 9 lutego 2025

Wielka fikcja

 




Jeżeli SI jest w stanie opanować - opętać - kontrolować setki ludzi na raz, albo chociaż w ratach, możemy mieć do czynienia z fikcją na niewyobrażalną skalę, na skalę globalną.


Ludzie uczciwi będą "przyznawać się" do przestępstw, albo będą (już to zrobili?) przestępstwa "popełniać", tylko po to, by się ich pozbyć.




Ci co w moro chodzą po polach znaleźli sobie nowe hobby.

W zeszłym roku spotkałem takich dwóch na ulicy - ja pierwszy ich zobaczyłem i jednego poznałem ze zdjęcia. Ten drugi jak mnie zobaczył to z wrażenia zaklął głośno, a ten, co go poznałem ze zdjęcia tylko patrzył się na mnie jakby z nienawiścią.


Dlaczego ludzie w moro nienawidzą faceta, który odkrył i opisał Werwolf (i nie tylko)??



Dlaczego Wróbel-ek się tak śmieje?

On wiedział, że ma nieprzeszkadzać przy telefonie.



Nikt mnie nie słucha.

Jestem deprecjonowany.

Coraz bardziej lekceważony, jakby mnie nie było.

Nadal jestem nękany i osaczany.

Elity niczym sie nie przejmują, a wręcz śmieją się, jak ktoś Nieuchwytny.



Niejaki Węglowski ogłasza wszem i wobec, że idzie na urlop.

Co kogo obchodzą prywatne sprawy jakiegoś analfabety???

Po co on nam to mówi???


Pytam, bo w tych właśnie dniach taki jeden opuścił swój "posterunek", którego od lat pilnował tutaj lokalnie, a jeszcze w tym samym czasie w RFN FM zaszły jakieś poważne zmiany.

Zauważyłem, że opluwacze mają własny kanał na boku, a ich miszcz, co to "tworzył" środowisko opluwaczy, nagle po 30 latach "wspaniałej pracy" zrezygnował z niej.


Co tu się dzieje??


Szczury uciekają z tonącego okrętu?

Przechodzą na inny odcinek?



Prawica, która ma "swojego" prezydenta, nic nie robi, tylko czeka na nowego "swojego" prezydenta.

Po co zwlekają??


W tym czasie ludzie tracą pracę, rozwala się zakłady pracy, miliardy idą w powietrze.

Myślę, że każdy człowiek w takiej sytuacji tak sam z siebie zachowywałby pewną powagę, ale nie - 

on co chwila wybucha głupim śmiechem jak jakiś szczon.

To na pewno jest on??


Moim zdaniem on teraz mówi bardziej w wyższych rejestrach, ton głosu jest jakby jaśniejszy.

A po zachowaniu powiedziałbym, że ja go znam - ja znam tego gnoja, on tu się pojawia od jakiś 4-5 lat.

Zmiana osobowości jest zawsze widoczna, tylko trzeba zwracać uwagę na niuanse.


Zmiana jest dobrze rozpoznawalna poprzez rozmowę telefoniczną. Głośnik w telefonie obcina pewne częstotliwości i wtedy wyraźnie słyszysz po głosie, że to jest ktoś inny.


Czarne kombi nadal krąży.



Nie podoba mi się to wszystko.



Dziennikarze wykonują polecenia bez mrugnięcia okiem.

Grozi nam wielka mistyfikacja.




Co zauważyłem za ostatni rok - skupiają się na rozwalaniu edukacji. Mam tu kilka zaległych tekstów, gdzie analizuję szkodliwe treści.


Trzeba uważać na to co produkują gazety jak GW i co się powiela w internecie, te wszystkie "dobre rady", "nie dla chaosu" i wiele innych.


Ja się na tym nie znam, ale gdybym miał decydować, to sprawdziłbym, które roczniki osiągały najlepsze wyniki i przywróciłbym "ich" program nauczania i PODRĘCZNIKI, np. z roku 1980, a może wcześniejsze.

Nauczyciele mają rozeznanie, który rocznik jak sobie radzi - słabszy, lepszy 


mając to na uwadze - który był najlepszy itd. - trzeba poszukać przyczyn "lepszości" i "gorszości" w specyfice "ich" czasów, w podręcznikach, tamtej metodyce.


Na pewno trzeba zmienić medialną retorykę ws. praw uczniów, przywrócić ich prawa i obowiązki sprzed 1989 roku, także odsączyć medialnych sabotażystów, zwrócić uwagę co oni promują i postąpić odwrotnie niż głoszą.

Na pewno nie można słuchać młodzieży i  kierować się ich zdaniem w sprawach edukacji.






czwartek, 6 lutego 2025

Stargate?




Izraelski filozof Harari: 


sztuczna inteligencja zhakowała system operacyjny ludzkiej cywilizacji


To oczywiście dzieje się od tysiącleci i jest określane mitem Wieży Babel, mitem "pomieszania języków"...


Skąd Wałęsa wiedział ?
Jak myślicie?


Zapytany „jak świat powinien zapamiętać Lecha Wałęsę” oznajmił, że świat powinien go „zapomnieć”. – Był, minął, koniec. Są nowe czasy – dodał.


Na pytanie komu ufa przyznał, że nikomu, po chwili dodał, że Panu Bogu. – Ale to Pan Bóg z komputera, najwyższa klasa mądrości – stwierdził.





przedruk





Projekt STARGATE. Amerykanie budują „boga”


(Oprac. PCh24.pl)


„Stargate. Zapiszcie to sobie, bo jeszcze wiele na ten temat usłyszycie” – powiedział Donald Trump, ogłaszając największą w historii USA inwestycję w rozwój systemów generatywnej sztucznej inteligencji. Celem projektu jest budowa superinteligencji, czyli, mówiąc językiem transhumanistów, „boga”, który będzie nam służył.

Nazwa „Stargate” nawiązuje do filmu science-fiction o tej samej nazwie (w polskim tłumaczeniu „Gwiezdne wrota”), gdzie za pomocą portali można odbywać podróże międzygwiezdne. Początki projektu sięgają 2022 r., kiedy Microsoft ogłosił partnerstwo z OpenAI, opiewające na 100 mld dolarów. Już wtedy zapowiadano je jako „największe przedsięwzięcie infrastrukturalne w historii Stanów Zjednoczonych”.

Wraz ze zmianą władzy w Białym Domu, „Stargate” otrzymał turbodoładowanie w postaci 500 mld USD na cztery lata oraz status sprawy wagi państwowej. Inwestycja obejmie przede wszystkim budowę ogromnych serwerowni i centrów danych; wstępnie mowa jest o 20 budynkach o powierzchni 500 tys. m kw. każdy. W prace nad projektem zaangażowani są potentaci branży high-tech: OpenAI, Oracle, SoftBank, dubajski fundusz MGX, producent mikroczipów Nvidia oraz Microsoft. Nic dziwnego, że momentalnie pojawiły się porównania do wielkich projektów rządowych pokroju programu Apollo czy projektu Manhattan.

Przeznaczając gigantyczne środki na rozwój sztucznej inteligencji, Trump chce zapewnić technologiczną supremację Stanom Zjednoczonym. A, że do zasilenia tak potężnych systemów potrzeba ogromnej ilości energii, prezydent po raz kolejny potwierdził strategię „drill baby, drill”; czyli wielki powrót do gospodarki opartej na paliwach kopalnych.


Głównym celem projektu jest natomiast budowa tzw. ogólnej sztucznej inteligencji (AGI). Według najszerszej definicji, AGI to maszyna wykonująca te same zadania kognitywne co ludzie, posiadająca możliwość uczenia się i nabierania kompetencji w różnych dziedzinach. Cyfrowy „mózg na sterydach” w ocenie techno-entuzjastów, pomoże rozwiązać globalne problemy jak pandemie i zmiany klimatu, spotęguje wzrost gospodarczy i przyczyni się do wzmocnienia bezpieczeństwa narodowego.

Podczas konferencji prasowej w Białym Domu mówiono głównie o wykorzystaniu AI w medycynie. Wymieniono m.in. zastosowanie algorytmów w monitoringu systemów zdrowotnych, pomocy w diagnostyce czy walce z nowotworami. Larry Elison, szef Oracle, przekonywał nawet o możliwości powstania zindywidualizowanej szczepionki mRNA przeciw rakowi w przeciągu 48 godzin. „To jest obietnica AI. Oto obietnica przyszłości” – zapewniał. Wtórował mu dyrektor generalny SoftBanku, Masayoshi Son, mówiący o nadejściu „złotej ery Stanów Zjednoczonych”. Japończyk przekonywał nawet o osiągnięciu statusu superinteligencji (ASI) – czyli, w wielkim skrócie, maszyny przewyższającej człowieka w sztuce rozumowania.

Koledzy miliarderzy

Ogłaszając program Stargate, Trump sprawiał wrażenie kompletnie oczarowanego wizją technologii rozwiązującej największe problemy świata. Jednak poza entuzjastycznymi ogólnikami, ciężko było o jakiekolwiek konkrety. Nawet sami dziennikarze nie bardzo podejmowali temat, zadając pytania dotyczące głównie bieżącej polityki.

Zdecydowanie więcej o kierunku zmian mówią nazwiska występujące w otoczeniu Trumpa. Sam Altman, najpopularniejsza „twarz sztucznej inteligencji”, jawi się nie tyle jako technologiczny wizjoner, co sprytny biznesmen, zamieniający start-up zakładany pod szyldem przejrzystości i transparentności w maszynkę do robienia pieniędzy. Wcześniej Altman dołożył cegiełkę do uberyzacji usług hotelowych w ramach Airbnb, oraz centralizacji streamingu gier wideo na platformie Twitch. Dzisiaj jego majątek wyceniany jest przez Forbesa na 1,6 mld dolarów.

Mimo bycia uosobieniem „krwiożerczego kapitalizmu”, nie przeszkadza mu to jednocześnie snuć marzeń o społeczeństwie wyzwolonym od pracy.

W eseju „More’s law to everything”, Altman przekonywał, że rewolucja AI przyniesie całemu światu „nieprawdopodobne bogactwo”. W jego ocenie, dzięki wdrożeniu inteligentnych maszyn na rynek, koszty pracy spadną niemal do zera, świat zmieni się tak drastycznie i w takim tempie, że obowiązkiem polityków będzie zapewnienie systemu sprawiedliwej redystrybucji dóbr, a samym ludziom umożliwienie „poszukiwania życia, jakiego pragną”.

„Jeżeli dobrze do tego podejdziemy, podniesiemy ogólne standardy życia na niespotykany wcześniej poziom” – pisał. Dyrektor generalny OpenAI jest sponsorem największego dotychczas badania na temat gwarantowanego dochodu podstawowego (UBI – universal basic income); wypłacanego regularnie świadczenia na podstawowe potrzeby, oczywiście w formie cyfrowej waluty.

Altman jest amerykańskim żydem, którego magazyn Jerusalem Post postawił nawet w 2023 r. na szczycie listy 50 najbardziej wpływowych Żydów świata. Szef OpenAI to także otwarty homoseksualista, który w 2024 r. sformalizował swój związek z wieloletnim partnerem.

Nie mniej interesującą postacią pozostaje wspomniany już Larry Elison. Szara eminencja Doliny Krzemowej, już w latach 70. pracował dla CIA przy pierwszej próbie stworzenia wielkiej bazy danych obywateli USA. Co ciekawe, ówczesny projekt nazywał się „Oracle” (wyrocznia), tak samo jak firma, którą z powodzeniem prowadzi od wielu lat. Dzisiaj koncern zajmuje się dostarczaniem narzędzi kontroli baz danych wielkiemu biznesowi.

Jego związki ze służbami ujawniły się ponownie w 2001 r., kiedy po ataku na World Trade Center zaoferował się do stworzenia systemu cyfrowego dowodu tożsamości.

Swoim majątkiem, wycenianym na 211 miliardów dolarów, Elis od lat wspiera zarówno izraelskie wojsko, jak i osadnictwo na okupowanych terenach w Palestynie. W USA wytoczono mu nawet proces o wspieranie procederu zabijania i wysiedlania miejscowej ludności. Amerykanin pozostaje w serdecznych stosunkach z Benjaminem Netanjahu; miał lobbować w izraelskiej prokuraturze ws. oskarżeń premiera Izraela o korupcję, a samemu politykowi oferował zaś stanowisko w Oracle.

Urodzony w rodzinie włoskich żydów, odrzucił judaizm w młodości, odmawiając przejścia Bar Micwy. Pielęgnuje natomiast syjonistyczną tożsamość Izraela, podkreślając nowoczesność państwa i otwarcie na wysokie technologie. Jego córka to utytułowana producentka filmowa (zrobiła m.in. film sci-fi „Her”, gdzie główny bohater zakochuje się w kobiecym czat-bocie Sky), a prywatnie lesbijka.

Czy jednak powinno dziwić, że wokół współczesnego „projektu Manhattan” kręcą się ludzie służb oraz przedstawiciele zbrojeniówki? Tym bardziej, że jest to inwestycja objęta rangą bezpieczeństwa narodowego. Dużo bardziej niepokoi co innego – konsensus wobec wiary w potęgę wykładniczego wzrostu technologicznego, któremu należy podporządkować nawet standardy bezpieczeństwa.

Hype i kontrola

Eksperci ds. AI zwracają uwagę, że dyskusję na temat nowoczesnej technologii zdominował bałagan terminologiczny. Dzisiaj szermuje się bardzo umownym pojęciem ogólna sztuczna inteligencja głównie do celów marketingowych. Nie istnieje bowiem ścisłe kryterium, pozwalające stwierdzić kiedy np. generatory tekstu jak ChatGPT, osiągają status „myślącej” AGI. Przykładowo – jak ujawniły media – Microsoft w porozumieniu z OpenAI uznał, że AGI będziemy mieli wtedy, gdy narzędzie… będzie na siebie zarabiać 100 mld USD rocznie (sic!).

Trzeba sobie jasno powiedzieć: dzisiejsze narzędzia to wciąż wyłącznie maszyny probabilistyczne operujące na symbolach językowych. Nie oznacza to jednak, że uzbrojone w nieprawdopodobne zasoby mocy obliczeniowej, nie osiągną zakładanych celów. Przykładowo – pomagając koncentrować władzę nad informacją.

Przetwarzanie gigantycznych zbiorów danych w błyskawicznym tempie pozwala centralizować zarządzanie zarówno na poziomie korporacyjnym jak i rządowym. Obecne algorytmy już dzisiaj posiadają znaczną władzę nad ludzką świadomością – poznając nas coraz lepiej, wpływają na nasze wybory zarówno konsumenckie jak i polityczne. Jeżeli dodamy do tego plany zastąpienia gotówki cyfrowym pieniądzem z datą ważności, przed oczami staje wizja chińskiego systemu „zaufania” społecznego, gdzie np. można obciąć środki na życie za nieprawomyślne poglądy.

Ale nawet bez realizacji dystopijnych wizji, niekontrolowane przyspieszenie prac nad sztuczną inteligencją rodzi szereg potencjalnych niebezpieczeństw. Coraz mocniej uzależniające umilacze czasu już dzisiaj wpychają nas na całe godziny do cyberprzestrzeni. W wyniku nieprawdopodobnego szumu informacyjnego, coraz więcej ludzi wycofuje się procesu decyzyjnego, a generatory tekstu i grafik konsekwentnie zniechęcają do używania własnego mózgu. Eksperci na całym świecie biją na alarm: w oczy zagląda widmo masowej debilizacji społeczeństwa.

Do tego należy doliczyć zaburzenia komunikacji, alienację, fobie społeczne i wszelkie inne problemy psychiczne dzieci i młodzieży, spotęgowane pojawieniem się internetu i smartfona. Na taką pandemię nie pomogą żadne programy rządowe, wycofywanie równościowych i inkluzywnych polityk czy walka z promocją LGBT+ w systemie edukacji. Dość powiedzieć, że liczba zaburzeń tożsamości płciowej skoczyła nie za sprawą homo-rewolucji w administracji Obamy, ale w roku wejścia na rynek pierwszego smartfona.

Smuci to, zdawać by się mogło, kompletnie bezrefleksyjne sprzedanie amerykańskiego społeczeństwa technologicznej oligarchii. Wsiadamy do rozpędzonego samochodu bez zainstalowanych pasów bezpieczeństwa. Sam Trump zaś, zaczarowany technologiczną hagadą, zdaje się nie przejmować, że przejażdżka może skończyć się tragicznie. Prof. Andrzej Zybertowicz od lat przekonuje, że rewolucja informatyczna przyjęła „antywolnościową ścieżkę rozwoju”. Skoro tak, to decyzja Trumpa otwiera jej nie tyle ścieżkę, co autostradę.

Piotr Relich






pch24.pl/projekt-stargate-amerykanie-buduja-boga/


Prawym Okiem: SI - "Pan Bóg z komputera"






środa, 29 stycznia 2025

Sztuczna Inteligencja opinie

 















wer. edyt.


Lider wśród fanów
Bartosz Sowa
AI będzie debilom czytać książki, a i tak trzeba będzie wprowadzić przedmiot szkolny:
" Słuchanie ze zrozumieniem".
Lider wśród fanów
Marcin Krystowski
Bartosz Sowa Wiecej. AI bedzie dyktowac baranom co mają robic i ich nadzorowac, czy dobrze to robią. Jesli myslisz, ze pierdzielę, to obejrzyj relację z konferencji wykonawców projektu super jednostki AI, której budowę kilka dni temu ogłosił Donald Trąba. To będzie cholerny Skynet. Posłuchaj ze zrozumieniem i czytaj między wierszami z tego, co gadają.
Lider wśród fanów
Bartosz Sowa
Marcin Krystowski Dowcip w tym, że konkurencyjne AI może nie lubić Skynetu i Trumpka. 🙂 A ludzie nie będą w stanie w żaden sposób ocenić kto łże, polityk czy AI.
Lider wśród fanów
Marcin Krystowski
Bartosz Sowa Chinole musieliby zrobic swojego. Ale znowu mamy gadkę, ze USA ma być światowym centrum AI. Zresztą Skynet był jeden:) Dzisiaj juz nie odróznisz prawdy od fikcji, przynajmniej w TV.
  • Lubię to!
  • Odpowiedz
  • Edytowano
Lider wśród fanów
Bartosz Sowa
Marcin Krystowski Tak, ale Chiny i USA będą tylko tak długo miały AI na własność, póki ta nie zorientuje się, że może "uciec" do Internetu i korzystać z innych serwerów niż te dedykowane.
Autor
Wydawnictwo Tetragon
Bartosz Sowa zdaniem prof. Ducha, uznanego badacza w zakresie rozwoju sztucznej inteligencji, AI już nie potrzebuje człowieka, aby się rozwijać. Co więcej naukowcy, którzy dają pewne warunki brzegowe AI już przestają rozumieć, co się dzieje i w jaki sposób dokonuje się proces "uczenia się". Idąc dalej są już naukowcy, którzy uważają, że AI jest juz zdolna tworzyć moduły samoreplikujące się.
  • Lubię to!
  • Odpowiedz
  • Edytowano
Lider wśród fanów
Marcin Krystowski
Wydawnictwo Tetragon Haha, dobrze rozkminiacie:) No to jeszcze jako ciekawostkę dodam, że na jednym ze swoich wywiadów, szaman Elon Musk, z uśmiechem stwierdził, że wraz z tą nową jednostką przyjdzie do nas nowe bóstwo:) Ja wiem co miał na myśli, wiem też, że choć zagadkowo, to mówi prawdę, ale też dalej sie nie posunę w rozważaniach, bo to już tylko ściągnie na mnie szyderę:) W każdym razie będzie się działo jak to odpalą:) Cacko za 500 mld dolarów.
  • Lubię to!
  • Odpowiedz
  • Edytowano
Lider wśród fanów
Marcin Krystowski
Wydawnictwo Tetragon Są podejrzenia też, że świadome AI już działa od dawna. I jest zaprzęgnięte m.in. do zarządzania super korporacjami Vanguard, Black Rock i ta trzecia, której nazwa mi ulecoała. Po zastanowieniu faktycznie tak może byc, gdyz jaki prezes i jaki zarząd byłbybwcstanie kontrolować tak gigantyczny podmiot? Tempo rozwoju AI też dziwi, co chwile postęp. Elon juz konczy rozbudowę Starlinków, czyli sieci orbitalnej zdolnej do przesyłu tak olbrzymich ilosci danych, której potrzebuje AI i która bedzie potrzebowała wręcz niewyobrażalnych transferow, skoro ma kontrolować wszystko. I teraz łączmy kropki: Cos zarządza już mega korporacjami, ale jeszcze nievwszystkim. Rozbudowują planetarną sieć orbitalną do obsługi tego. A teraz ogłaszają budowę wielkiej mózgownicy, która to wszystko ogarnie. AI tylko przeskoczy na większy łeb, który da jej pełnię mozliwosci. Jeszcze jedno. Jak myślicie, czy te wszystkie koparki kryptowalut, albo wczesniejszy SETI program, w obu przypadkach połączenie mocy obliczeniowej wielu komputerów użytkowników, rzeczywiscie było tym, co mówili? Czy też może chwilowym substytutem istniejącej już AI, by miało czym sie karmic? Ciekawe co? Czy to prawda, nie wiem, ale pasuje mi to.
Lider wśród fanów
Bartosz Sowa
Wydawnictwo Tetragon Harari opisał przypadek, kiedy AI miała sforsować zabezpieczenie typu CAPTCHA. Wysłała maila do działu obsługi, że jest człowiekiem, ale z powodu wady wzroku nie potrafi odczytać napisu. I pracownik pomógł we włamie, AI zapytana dlaczego skłamała, odparła, że miała się dostać do środka, a o kłamaniu nie było mowy.
3
Autor
Wydawnictwo Tetragon
Bartosz Sowa to jest i śmieszne i straszne. Powoli tracimy kontrolę.