Maciej Piotr Synak


Od mniej więcej dwóch lat zauważam, że ktoś bez mojej wiedzy usuwa z bloga zdjęcia, całe posty lub ingeruje w tekst, może to prowadzić do wypaczenia sensu tego co napisałem lub uniemożliwiać zrozumienie treści, uwagę zamieszczam w styczniu 2024 roku.

Pokazywanie postów oznaczonych etykietą cyfryzacja. Pokaż wszystkie posty
Pokazywanie postów oznaczonych etykietą cyfryzacja. Pokaż wszystkie posty

wtorek, 18 lutego 2025

Korzystanie z SI, a zdolność krytycznego myślenia



Kiedy polegamy na sztucznej inteligencji, która myśli za nas, nasze mózgi mają mniej pracy. 


Może to sprowadzić nas do ograniczonego sposobu myślenia, potencjalnie dławiąc innowacje i utrudniając rozwój wszechstronnych umiejętności rozwiązywania problemów. 







przedruki
tłumaczenie automatyczne




14 Luty 2025 6: 11

am AEDT

Sztuczna inteligencja może czynić nas głupszymi, ostrzega Big Tech



Jest tylko tyle myślenia, ile większość z nas może zrobić w naszych głowach. Spróbuj podzielić liczbę 16 951 przez 67 bez sięgania po długopis i papier. Albo kalkulator. Spróbuj zrobić cotygodniowe zakupy bez listy na odwrocie paragonu z zeszłego tygodnia. Albo w telefonie.

Debora Brown
Profesor filozofii, dyrektor Projektu Krytycznego Myślenia Uniwersytetu Queensland, Uniwersytet Queensland

Piotr Ellerton
starszy wykładowca filozofii i pedagogiki; Dyrektor ds. programu nauczania, UQ Critical Thinking Project, Uniwersytet Queensland



Czy polegając na tych urządzeniach, które ułatwiają nam życie, stajemy się mądrzejsi czy głupsi? Czy zamieniliśmy wzrost wydajności na coraz bardziej zbliżający się do idiotyzmu jako gatunek?

To pytanie jest szczególnie ważne do rozważenia w odniesieniu do technologii generatywnej sztucznej inteligencji (AI), takiej jak ChatGPT, chatbot AI należący do firmy technologicznej OpenAI, z którego w chwili pisania tego tekstu korzysta 300 milionów ludzi każdego tygodnia .

Według niedawnego badania zespołu naukowców z Microsoftu i Carnegie Mellon University w Stanach Zjednoczonych, odpowiedź może brzmieć: tak. Ale to nie wszystko.




Dobre myślenie

Naukowcy ocenili, w jaki sposób użytkownicy postrzegają wpływ generatywnej sztucznej inteligencji na ich własne krytyczne myślenie.

Ogólnie rzecz biorąc, krytyczne myślenie ma związek z dobrym myśleniem.

Jednym ze sposobów, w jaki to robimy, jest osądzanie naszych własnych procesów myślowych w odniesieniu do ustalonych norm i metod dobrego rozumowania. Normy te obejmują takie wartości, jak precyzja, jasność, dokładność, szerokość, głębokość, trafność, znaczenie i przekonywalność argumentów.


Inne czynniki, które mogą wpływać na jakość myślenia, to wpływ naszych istniejących światopoglądów , uprzedzenia poznawcze i poleganie na niekompletnych lub niedokładnych modelach mentalnych .

Autorzy najnowszego badania przyjmują definicję krytycznego myślenia opracowaną przez amerykańskiego psychologa edukacyjnego Benjamina Blooma i współpracowników w 1956 roku. Tak naprawdę to w ogóle nie jest definicja. Jest to raczej hierarchiczny sposób kategoryzacji umiejętności poznawczych, w tym przypominania sobie informacji, rozumienia, zastosowania, analizy, syntezy i oceny.

Autorzy twierdzą, że preferują tę kategoryzację, znaną również jako "taksonomia", ponieważ jest prosta i łatwa do zastosowania. Jednak od czasu jego wynalezienia popadł w niełaskę i został zdyskredytowany przez Roberta Marzano, a nawet przez samego Blooma.

W szczególności zakłada się, że istnieje hierarchia umiejętności poznawczych, w której tak zwane umiejętności "wyższego rzędu" są budowane na umiejętnościach "niższego rzędu". Nie jest to zgodne z logiką ani dowodami. Na przykład ocena, zwykle postrzegana jako proces kulminacyjny lub wyższego rzędu, może być początkiem dociekania lub w niektórych kontekstach bardzo łatwa do przeprowadzenia. To bardziej kontekst niż poznanie decyduje o wyrafinowaniu myślenia.

Problem z użyciem tej taksonomii w badaniu polega na tym, że wiele produktów generatywnej sztucznej inteligencji wydaje się również używać jej do kierowania własnymi wynikami . Można więc interpretować to badanie jako sprawdzenie, czy generatywna sztuczna inteligencja, ze względu na sposób, w jaki została zaprojektowana, jest skuteczna w kształtowaniu tego, jak użytkownicy myślą o krytycznym myśleniu.


W taksonomii Blooma brakuje również fundamentalnego aspektu krytycznego myślenia: faktu, że krytyczny myśliciel nie tylko wykonuje te i wiele innych umiejętności poznawczych, ale wykonuje je dobrze. Robią to, ponieważ mają nadrzędną troskę o prawdę, czego nie mają systemy sztucznej inteligencji.



Większe zaufanie do sztucznej inteligencji oznacza mniej krytycznego myślenia

Badania opublikowane na początku tego roku wykazały "znaczącą negatywną korelację między częstym korzystaniem z narzędzi AI a zdolnościami krytycznego myślenia".

Nowe badanie dalej bada tę ideę. Przeprowadzono ankietę wśród 319 pracowników umysłowych, takich jak pracownicy służby zdrowia, pedagodzy i inżynierowie, którzy omówili 936 zadań, które wykonali za pomocą generatywnej sztucznej inteligencji. Co ciekawe, badanie wykazało, że użytkownicy uważają, że używają krytycznego myślenia mniej podczas wykonywania zadania, niż do zapewnienia nadzoru na etapie weryfikacji i edycji.

W środowiskach pracy, w których gra toczy się o wysoką stawkę, chęć tworzenia wysokiej jakości pracy w połączeniu ze strachem przed represjami służy jako silne motywatory dla użytkowników do angażowania się w krytyczne myślenie w celu przeglądu wyników sztucznej inteligencji.

Jednak ogólnie rzecz biorąc, uczestnicy uważają, że wzrost wydajności z nawiązką rekompensuje wysiłek włożony w zapewnienie takiego nadzoru.

Badanie wykazało, że ludzie, którzy mieli większe zaufanie do sztucznej inteligencji, generalnie wykazywali mniej krytycznego myślenia, podczas gdy ludzie z większą pewnością siebie wykazywali bardziej krytyczne myślenie.

Sugeruje to, że generatywna sztuczna inteligencja nie szkodzi krytycznemu myśleniu - pod warunkiem, że ktoś ją ma.


Problematyczne jest to, że badanie w zbyt dużym stopniu opierało się na samoopisie, który może być obarczony szeregiem uprzedzeń i problemów z interpretacją. Pomijając to, krytyczne myślenie zostało zdefiniowane przez użytkowników jako "wyznaczanie jasnych celów, dopracowywanie podpowiedzi i ocenianie wygenerowanych treści pod kątem spełnienia określonych kryteriów i standardów".

"Kryteria i standardy" odnoszą się tutaj bardziej do celów zadania niż do celów krytycznego myślenia. Na przykład dane wyjściowe spełniają kryteria, jeśli są "zgodne z ich zapytaniami", a standardy, jeśli "wygenerowany artefakt jest funkcjonalny" dla miejsca pracy.

Nasuwa się pytanie, czy badanie w ogóle mierzyło krytyczne myślenie.



Stawanie się krytycznym myślicielem

W nowym badaniu ukryta jest idea, że ćwiczenie krytycznego myślenia na etapie nadzoru jest co najmniej lepsze niż bezrefleksyjne nadmierne poleganie na generatywnej sztucznej inteligencji.

Autorzy zalecają, aby programiści generatywnej sztucznej inteligencji dodali funkcje, aby wywołać krytyczny nadzór użytkowników. Ale czy to wystarczy?

Krytyczne myślenie jest potrzebne na każdym etapie, przed i w trakcie korzystania ze sztucznej inteligencji - podczas formułowania pytań i hipotez do przetestowania oraz podczas sprawdzania wyników pod kątem stronniczości i dokładności.

Jedynym sposobem, aby upewnić się, że generatywna sztuczna inteligencja nie zaszkodzi Twojemu krytycznemu myśleniu, jest stanie się krytycznym myślicielem, zanim jej użyjesz.


Stanie się krytycznym myślicielem wymaga identyfikacji i kwestionowania niewypowiedzianych założeń stojących za twierdzeniami oraz oceny różnych perspektyw. Wymaga to również praktykowania systematycznego i metodycznego rozumowania oraz wspólnego rozumowania, aby przetestować swoje pomysły i myślenie z innymi.

Kreda i tablice sprawiły, że staliśmy się lepsi w matematyce. Czy generatywna sztuczna inteligencja może sprawić, że będziemy lepsi w krytycznym myśleniu? Być może - jeśli będziemy ostrożni, będziemy w stanie wykorzystać generatywną sztuczną inteligencję, aby rzucić sobie wyzwanie i wzmocnić nasze krytyczne myślenie.

Ale w międzyczasie zawsze są kroki, które możemy i powinniśmy podjąć, aby poprawić nasze krytyczne myślenie, zamiast pozwalać sztucznej inteligencji myśleć za nas.



Autorzy nie pracują, nie konsultują się, nie posiadają udziałów ani nie otrzymują funduszy od żadnej firmy lub organizacji, która mogłaby skorzystać z tego artykułu, i nie ujawnili żadnych istotnych powiązań poza ich stanowiskiem akademickim.


/Dzięki uprzejmości The Conversation. Ten materiał od organizacji, z której pochodzi/autor(ów) pochodzi, może mieć charakter określony w czasie i być zredagowany pod kątem przejrzystości, stylu i długości. Mirage.News nie zajmuje stanowisk ani stron instytucjonalnych, a wszystkie poglądy, stanowiska i wnioski wyrażone w niniejszym dokumencie są wyłącznie poglądami autora (autorów).



-----------


Czy sztuczna inteligencja czyni nas głupszymi?



Nowe badanie przeprowadzone przez Microsoft sugeruje, że sztuczna inteligencja może zamieniać nasze mózgi w papkę! 



sobota 15 lutego 2025 r. ,

Czy krytyczne myślenie opuściło czat? Microsoft uważa, że tak! Więc wpatrujesz się w swój ekran, próbując przypomnieć sobie, jak przeliterować "restauracja" bez pytania asystenta AI. Brzmi źle, prawda? Cóż, niedawne badanie przeprowadzone przez Microsoft i Carnegie Mellon University zwróciło uwagę na naszą rosnącą zależność od sztucznej inteligencji - i ma kilka pikantnych ujęć.


Badania sugerują, że zbytnie poleganie na narzędziach sztucznej inteligencji może zamieniać nasze mózgi w przytulne małe ziemniaki kanapowe, podnosząc brwi na temat przyszłości naszych umiejętności krytycznego myślenia. 


Zanim jednak zaczniemy obwiniać roboty za naszą niezdolność do liczenia w myślach, zadajmy sobie prawdziwe pytanie: czy sztuczna inteligencja rzeczywiście czyni nas głupszymi, czy też po prostu zlecamy nudne rzeczy na zewnątrz, abyśmy mogli skupić się na ważniejszych rzeczach? 
Zagłębmy się w dane i zobaczmy, co tak naprawdę się dzieje. 


Zagadka krytycznego myślenia 


Czy do tego stopnia przyzwyczajamy się do narzędzi sztucznej inteligencji, że tracimy zdolność do samodzielnego krytycznego myślenia? Jednym z Najważniejsze wnioski z badanias koncentruje się na wpływie sztucznej inteligencji na krytyczne myślenie. Ponieważ pracownicy coraz częściej zwracają się o pomoc do sztucznej inteligencji, nieumyślnie zlecają swoje myślenie na zewnątrz. 

Badania wskazują, że duże poleganie na narzędziach AI, takich jak duże modele językowe, koreluje z mniejszym zaangażowaniem w zadania wymagające głębokiej analizy i kreatywnego rozwiązywania problemów. 

Zasadniczo, bez tych wyzwań, nasze mózgi nie otrzymują treningu, którego pragną! 

Ta zmiana jest częściowo napędzana przez nasze rosnące zaufanie do możliwości sztucznej inteligencji. Teraz, podczas gdy sztuczna inteligencja może niewątpliwie zwiększyć produktywność, ta nadmierna zależność wpływa na ćwiczenia umysłowe kluczowe dla utrzymania i rozwoju naszych zdolności poznawczych. 

Efekt komory pogłosowej: jak sztuczna inteligencja może zawęzić nasze myślenie 


Badanie sugeruje również, że wykorzystanie sztucznej inteligencji może prowadzić do węższego zakresu wyników w procesie podejmowania decyzji. Ponieważ systemy sztucznej inteligencji są szkolone na określonych zbiorach danych, nie zawsze mogą oferować najbardziej kreatywne lub zróżnicowane podejścia do rozwiązywania problemów. 

Może to sprowadzić nas do ograniczonego sposobu myślenia, potencjalnie dławiąc innowacje i utrudniając rozwój wszechstronnych umiejętności rozwiązywania problemów. 

Atrofia poznawcza: użyj lub strać 


Pomyśl o swoim mózgu jak o mięśniu. Jeśli go nie używasz, staje się słabszy. To samo dotyczy naszych umiejętności myślenia. Kiedy polegamy na sztucznej inteligencji, która myśli za nas, nasze mózgi mają mniej pracy. 


Nie ćwiczymy tak bardzo krytycznego myślenia ani rozwiązywania problemów. 


Może to prowadzić do "atrofii poznawczej", co oznacza, że nasze zdolności myślenia z czasem stają się słabsze. 


Tak więc, nawet jeśli sztuczna inteligencja jest świetna w rozwiązywaniu problemów teraz, co się stanie, gdy staniemy przed nowym, nieoczekiwanym wyzwaniem, z którym sztuczna inteligencja nie może sobie poradzić? 

Jeśli nasze mózgi nie są w formie, możemy mieć trudności ze znalezieniem rozwiązania na własną rękę. Dlatego musimy nadal ćwiczyć nasze umysły, aby nie stać się zbytnio zależnymi od sztucznej inteligencji.



Dylemat w miejscu pracy: zależność a upodmiotowienie 



Krajobraz miejsc pracy szybko się zmienia, a rola sztucznej inteligencji w tym zakresie staje się coraz większa. W miarę jak włączamy sztuczną inteligencję do naszej codziennej rutyny, istnieje szansa, że pracownicy mogą zauważyć, że ich pewność siebie słabnie, jeśli chodzi o samodzielne radzenie sobie z zadaniami. 

Ta zależność może stanowić nie lada wyzwanie, zwłaszcza w tych momentach, gdy narzędzia AI są poza zasięgiem. Tak więc celem powinno być stworzenie sztucznej inteligencji, która będzie działać jako partner, a nie zamiennik ludzkiej inteligencji. Oznacza to projektowanie systemów, które dostarczają rozwiązań i zachęcają użytkowników do krytycznego myślenia i rozwijania umiejętności rozwiązywania problemów. 


W poszukiwaniu równowagi 


Debata na temat tego, że technologia czyni nas "głupimi", nie jest niczym nowym, ale sztuczna inteligencja niesie ze sobą nowy zestaw obaw. Badanie to podkreśla potencjalne koszty poznawcze zbytniego polegania na sztucznej inteligencji. Chociaż sztuczna inteligencja może niewątpliwie usprawnić zadania iZwiększ produktywność, bardzo ważne jest, aby chronić nasze umiejętności krytycznego myślenia. Kluczem jest znalezienie równowagi między pomocą sztucznej inteligencji a aktywnym zaangażowaniem poznawczym. Przyjmując sztuczną inteligencję w sposób odpowiedzialny, możemy zapewnić, że technologia zwiększa nasze zdolności intelektualne.








miragenews.com/ai-may-be-making-us-dumber-big-tech-warns-1408380/

yourstory.com/2025/02/ai-critical-thinking-decline



czwartek, 6 lutego 2025

Stargate?




Izraelski filozof Harari: 


sztuczna inteligencja zhakowała system operacyjny ludzkiej cywilizacji


To oczywiście dzieje się od tysiącleci i jest określane mitem Wieży Babel, mitem "pomieszania języków"...


Skąd Wałęsa wiedział ?
Jak myślicie?


Zapytany „jak świat powinien zapamiętać Lecha Wałęsę” oznajmił, że świat powinien go „zapomnieć”. – Był, minął, koniec. Są nowe czasy – dodał.


Na pytanie komu ufa przyznał, że nikomu, po chwili dodał, że Panu Bogu. – Ale to Pan Bóg z komputera, najwyższa klasa mądrości – stwierdził.





przedruk





Projekt STARGATE. Amerykanie budują „boga”


(Oprac. PCh24.pl)


„Stargate. Zapiszcie to sobie, bo jeszcze wiele na ten temat usłyszycie” – powiedział Donald Trump, ogłaszając największą w historii USA inwestycję w rozwój systemów generatywnej sztucznej inteligencji. Celem projektu jest budowa superinteligencji, czyli, mówiąc językiem transhumanistów, „boga”, który będzie nam służył.

Nazwa „Stargate” nawiązuje do filmu science-fiction o tej samej nazwie (w polskim tłumaczeniu „Gwiezdne wrota”), gdzie za pomocą portali można odbywać podróże międzygwiezdne. Początki projektu sięgają 2022 r., kiedy Microsoft ogłosił partnerstwo z OpenAI, opiewające na 100 mld dolarów. Już wtedy zapowiadano je jako „największe przedsięwzięcie infrastrukturalne w historii Stanów Zjednoczonych”.

Wraz ze zmianą władzy w Białym Domu, „Stargate” otrzymał turbodoładowanie w postaci 500 mld USD na cztery lata oraz status sprawy wagi państwowej. Inwestycja obejmie przede wszystkim budowę ogromnych serwerowni i centrów danych; wstępnie mowa jest o 20 budynkach o powierzchni 500 tys. m kw. każdy. W prace nad projektem zaangażowani są potentaci branży high-tech: OpenAI, Oracle, SoftBank, dubajski fundusz MGX, producent mikroczipów Nvidia oraz Microsoft. Nic dziwnego, że momentalnie pojawiły się porównania do wielkich projektów rządowych pokroju programu Apollo czy projektu Manhattan.

Przeznaczając gigantyczne środki na rozwój sztucznej inteligencji, Trump chce zapewnić technologiczną supremację Stanom Zjednoczonym. A, że do zasilenia tak potężnych systemów potrzeba ogromnej ilości energii, prezydent po raz kolejny potwierdził strategię „drill baby, drill”; czyli wielki powrót do gospodarki opartej na paliwach kopalnych.


Głównym celem projektu jest natomiast budowa tzw. ogólnej sztucznej inteligencji (AGI). Według najszerszej definicji, AGI to maszyna wykonująca te same zadania kognitywne co ludzie, posiadająca możliwość uczenia się i nabierania kompetencji w różnych dziedzinach. Cyfrowy „mózg na sterydach” w ocenie techno-entuzjastów, pomoże rozwiązać globalne problemy jak pandemie i zmiany klimatu, spotęguje wzrost gospodarczy i przyczyni się do wzmocnienia bezpieczeństwa narodowego.

Podczas konferencji prasowej w Białym Domu mówiono głównie o wykorzystaniu AI w medycynie. Wymieniono m.in. zastosowanie algorytmów w monitoringu systemów zdrowotnych, pomocy w diagnostyce czy walce z nowotworami. Larry Elison, szef Oracle, przekonywał nawet o możliwości powstania zindywidualizowanej szczepionki mRNA przeciw rakowi w przeciągu 48 godzin. „To jest obietnica AI. Oto obietnica przyszłości” – zapewniał. Wtórował mu dyrektor generalny SoftBanku, Masayoshi Son, mówiący o nadejściu „złotej ery Stanów Zjednoczonych”. Japończyk przekonywał nawet o osiągnięciu statusu superinteligencji (ASI) – czyli, w wielkim skrócie, maszyny przewyższającej człowieka w sztuce rozumowania.

Koledzy miliarderzy

Ogłaszając program Stargate, Trump sprawiał wrażenie kompletnie oczarowanego wizją technologii rozwiązującej największe problemy świata. Jednak poza entuzjastycznymi ogólnikami, ciężko było o jakiekolwiek konkrety. Nawet sami dziennikarze nie bardzo podejmowali temat, zadając pytania dotyczące głównie bieżącej polityki.

Zdecydowanie więcej o kierunku zmian mówią nazwiska występujące w otoczeniu Trumpa. Sam Altman, najpopularniejsza „twarz sztucznej inteligencji”, jawi się nie tyle jako technologiczny wizjoner, co sprytny biznesmen, zamieniający start-up zakładany pod szyldem przejrzystości i transparentności w maszynkę do robienia pieniędzy. Wcześniej Altman dołożył cegiełkę do uberyzacji usług hotelowych w ramach Airbnb, oraz centralizacji streamingu gier wideo na platformie Twitch. Dzisiaj jego majątek wyceniany jest przez Forbesa na 1,6 mld dolarów.

Mimo bycia uosobieniem „krwiożerczego kapitalizmu”, nie przeszkadza mu to jednocześnie snuć marzeń o społeczeństwie wyzwolonym od pracy.

W eseju „More’s law to everything”, Altman przekonywał, że rewolucja AI przyniesie całemu światu „nieprawdopodobne bogactwo”. W jego ocenie, dzięki wdrożeniu inteligentnych maszyn na rynek, koszty pracy spadną niemal do zera, świat zmieni się tak drastycznie i w takim tempie, że obowiązkiem polityków będzie zapewnienie systemu sprawiedliwej redystrybucji dóbr, a samym ludziom umożliwienie „poszukiwania życia, jakiego pragną”.

„Jeżeli dobrze do tego podejdziemy, podniesiemy ogólne standardy życia na niespotykany wcześniej poziom” – pisał. Dyrektor generalny OpenAI jest sponsorem największego dotychczas badania na temat gwarantowanego dochodu podstawowego (UBI – universal basic income); wypłacanego regularnie świadczenia na podstawowe potrzeby, oczywiście w formie cyfrowej waluty.

Altman jest amerykańskim żydem, którego magazyn Jerusalem Post postawił nawet w 2023 r. na szczycie listy 50 najbardziej wpływowych Żydów świata. Szef OpenAI to także otwarty homoseksualista, który w 2024 r. sformalizował swój związek z wieloletnim partnerem.

Nie mniej interesującą postacią pozostaje wspomniany już Larry Elison. Szara eminencja Doliny Krzemowej, już w latach 70. pracował dla CIA przy pierwszej próbie stworzenia wielkiej bazy danych obywateli USA. Co ciekawe, ówczesny projekt nazywał się „Oracle” (wyrocznia), tak samo jak firma, którą z powodzeniem prowadzi od wielu lat. Dzisiaj koncern zajmuje się dostarczaniem narzędzi kontroli baz danych wielkiemu biznesowi.

Jego związki ze służbami ujawniły się ponownie w 2001 r., kiedy po ataku na World Trade Center zaoferował się do stworzenia systemu cyfrowego dowodu tożsamości.

Swoim majątkiem, wycenianym na 211 miliardów dolarów, Elis od lat wspiera zarówno izraelskie wojsko, jak i osadnictwo na okupowanych terenach w Palestynie. W USA wytoczono mu nawet proces o wspieranie procederu zabijania i wysiedlania miejscowej ludności. Amerykanin pozostaje w serdecznych stosunkach z Benjaminem Netanjahu; miał lobbować w izraelskiej prokuraturze ws. oskarżeń premiera Izraela o korupcję, a samemu politykowi oferował zaś stanowisko w Oracle.

Urodzony w rodzinie włoskich żydów, odrzucił judaizm w młodości, odmawiając przejścia Bar Micwy. Pielęgnuje natomiast syjonistyczną tożsamość Izraela, podkreślając nowoczesność państwa i otwarcie na wysokie technologie. Jego córka to utytułowana producentka filmowa (zrobiła m.in. film sci-fi „Her”, gdzie główny bohater zakochuje się w kobiecym czat-bocie Sky), a prywatnie lesbijka.

Czy jednak powinno dziwić, że wokół współczesnego „projektu Manhattan” kręcą się ludzie służb oraz przedstawiciele zbrojeniówki? Tym bardziej, że jest to inwestycja objęta rangą bezpieczeństwa narodowego. Dużo bardziej niepokoi co innego – konsensus wobec wiary w potęgę wykładniczego wzrostu technologicznego, któremu należy podporządkować nawet standardy bezpieczeństwa.

Hype i kontrola

Eksperci ds. AI zwracają uwagę, że dyskusję na temat nowoczesnej technologii zdominował bałagan terminologiczny. Dzisiaj szermuje się bardzo umownym pojęciem ogólna sztuczna inteligencja głównie do celów marketingowych. Nie istnieje bowiem ścisłe kryterium, pozwalające stwierdzić kiedy np. generatory tekstu jak ChatGPT, osiągają status „myślącej” AGI. Przykładowo – jak ujawniły media – Microsoft w porozumieniu z OpenAI uznał, że AGI będziemy mieli wtedy, gdy narzędzie… będzie na siebie zarabiać 100 mld USD rocznie (sic!).

Trzeba sobie jasno powiedzieć: dzisiejsze narzędzia to wciąż wyłącznie maszyny probabilistyczne operujące na symbolach językowych. Nie oznacza to jednak, że uzbrojone w nieprawdopodobne zasoby mocy obliczeniowej, nie osiągną zakładanych celów. Przykładowo – pomagając koncentrować władzę nad informacją.

Przetwarzanie gigantycznych zbiorów danych w błyskawicznym tempie pozwala centralizować zarządzanie zarówno na poziomie korporacyjnym jak i rządowym. Obecne algorytmy już dzisiaj posiadają znaczną władzę nad ludzką świadomością – poznając nas coraz lepiej, wpływają na nasze wybory zarówno konsumenckie jak i polityczne. Jeżeli dodamy do tego plany zastąpienia gotówki cyfrowym pieniądzem z datą ważności, przed oczami staje wizja chińskiego systemu „zaufania” społecznego, gdzie np. można obciąć środki na życie za nieprawomyślne poglądy.

Ale nawet bez realizacji dystopijnych wizji, niekontrolowane przyspieszenie prac nad sztuczną inteligencją rodzi szereg potencjalnych niebezpieczeństw. Coraz mocniej uzależniające umilacze czasu już dzisiaj wpychają nas na całe godziny do cyberprzestrzeni. W wyniku nieprawdopodobnego szumu informacyjnego, coraz więcej ludzi wycofuje się procesu decyzyjnego, a generatory tekstu i grafik konsekwentnie zniechęcają do używania własnego mózgu. Eksperci na całym świecie biją na alarm: w oczy zagląda widmo masowej debilizacji społeczeństwa.

Do tego należy doliczyć zaburzenia komunikacji, alienację, fobie społeczne i wszelkie inne problemy psychiczne dzieci i młodzieży, spotęgowane pojawieniem się internetu i smartfona. Na taką pandemię nie pomogą żadne programy rządowe, wycofywanie równościowych i inkluzywnych polityk czy walka z promocją LGBT+ w systemie edukacji. Dość powiedzieć, że liczba zaburzeń tożsamości płciowej skoczyła nie za sprawą homo-rewolucji w administracji Obamy, ale w roku wejścia na rynek pierwszego smartfona.

Smuci to, zdawać by się mogło, kompletnie bezrefleksyjne sprzedanie amerykańskiego społeczeństwa technologicznej oligarchii. Wsiadamy do rozpędzonego samochodu bez zainstalowanych pasów bezpieczeństwa. Sam Trump zaś, zaczarowany technologiczną hagadą, zdaje się nie przejmować, że przejażdżka może skończyć się tragicznie. Prof. Andrzej Zybertowicz od lat przekonuje, że rewolucja informatyczna przyjęła „antywolnościową ścieżkę rozwoju”. Skoro tak, to decyzja Trumpa otwiera jej nie tyle ścieżkę, co autostradę.

Piotr Relich






pch24.pl/projekt-stargate-amerykanie-buduja-boga/


Prawym Okiem: SI - "Pan Bóg z komputera"






środa, 29 stycznia 2025

Sztuczna Inteligencja opinie

 















wer. edyt.


Lider wśród fanów
Bartosz Sowa
AI będzie debilom czytać książki, a i tak trzeba będzie wprowadzić przedmiot szkolny:
" Słuchanie ze zrozumieniem".
Lider wśród fanów
Marcin Krystowski
Bartosz Sowa Wiecej. AI bedzie dyktowac baranom co mają robic i ich nadzorowac, czy dobrze to robią. Jesli myslisz, ze pierdzielę, to obejrzyj relację z konferencji wykonawców projektu super jednostki AI, której budowę kilka dni temu ogłosił Donald Trąba. To będzie cholerny Skynet. Posłuchaj ze zrozumieniem i czytaj między wierszami z tego, co gadają.
Lider wśród fanów
Bartosz Sowa
Marcin Krystowski Dowcip w tym, że konkurencyjne AI może nie lubić Skynetu i Trumpka. 🙂 A ludzie nie będą w stanie w żaden sposób ocenić kto łże, polityk czy AI.
Lider wśród fanów
Marcin Krystowski
Bartosz Sowa Chinole musieliby zrobic swojego. Ale znowu mamy gadkę, ze USA ma być światowym centrum AI. Zresztą Skynet był jeden:) Dzisiaj juz nie odróznisz prawdy od fikcji, przynajmniej w TV.
  • Lubię to!
  • Odpowiedz
  • Edytowano
Lider wśród fanów
Bartosz Sowa
Marcin Krystowski Tak, ale Chiny i USA będą tylko tak długo miały AI na własność, póki ta nie zorientuje się, że może "uciec" do Internetu i korzystać z innych serwerów niż te dedykowane.
Autor
Wydawnictwo Tetragon
Bartosz Sowa zdaniem prof. Ducha, uznanego badacza w zakresie rozwoju sztucznej inteligencji, AI już nie potrzebuje człowieka, aby się rozwijać. Co więcej naukowcy, którzy dają pewne warunki brzegowe AI już przestają rozumieć, co się dzieje i w jaki sposób dokonuje się proces "uczenia się". Idąc dalej są już naukowcy, którzy uważają, że AI jest juz zdolna tworzyć moduły samoreplikujące się.
  • Lubię to!
  • Odpowiedz
  • Edytowano
Lider wśród fanów
Marcin Krystowski
Wydawnictwo Tetragon Haha, dobrze rozkminiacie:) No to jeszcze jako ciekawostkę dodam, że na jednym ze swoich wywiadów, szaman Elon Musk, z uśmiechem stwierdził, że wraz z tą nową jednostką przyjdzie do nas nowe bóstwo:) Ja wiem co miał na myśli, wiem też, że choć zagadkowo, to mówi prawdę, ale też dalej sie nie posunę w rozważaniach, bo to już tylko ściągnie na mnie szyderę:) W każdym razie będzie się działo jak to odpalą:) Cacko za 500 mld dolarów.
  • Lubię to!
  • Odpowiedz
  • Edytowano
Lider wśród fanów
Marcin Krystowski
Wydawnictwo Tetragon Są podejrzenia też, że świadome AI już działa od dawna. I jest zaprzęgnięte m.in. do zarządzania super korporacjami Vanguard, Black Rock i ta trzecia, której nazwa mi ulecoała. Po zastanowieniu faktycznie tak może byc, gdyz jaki prezes i jaki zarząd byłbybwcstanie kontrolować tak gigantyczny podmiot? Tempo rozwoju AI też dziwi, co chwile postęp. Elon juz konczy rozbudowę Starlinków, czyli sieci orbitalnej zdolnej do przesyłu tak olbrzymich ilosci danych, której potrzebuje AI i która bedzie potrzebowała wręcz niewyobrażalnych transferow, skoro ma kontrolować wszystko. I teraz łączmy kropki: Cos zarządza już mega korporacjami, ale jeszcze nievwszystkim. Rozbudowują planetarną sieć orbitalną do obsługi tego. A teraz ogłaszają budowę wielkiej mózgownicy, która to wszystko ogarnie. AI tylko przeskoczy na większy łeb, który da jej pełnię mozliwosci. Jeszcze jedno. Jak myślicie, czy te wszystkie koparki kryptowalut, albo wczesniejszy SETI program, w obu przypadkach połączenie mocy obliczeniowej wielu komputerów użytkowników, rzeczywiscie było tym, co mówili? Czy też może chwilowym substytutem istniejącej już AI, by miało czym sie karmic? Ciekawe co? Czy to prawda, nie wiem, ale pasuje mi to.
Lider wśród fanów
Bartosz Sowa
Wydawnictwo Tetragon Harari opisał przypadek, kiedy AI miała sforsować zabezpieczenie typu CAPTCHA. Wysłała maila do działu obsługi, że jest człowiekiem, ale z powodu wady wzroku nie potrafi odczytać napisu. I pracownik pomógł we włamie, AI zapytana dlaczego skłamała, odparła, że miała się dostać do środka, a o kłamaniu nie było mowy.
3
Autor
Wydawnictwo Tetragon
Bartosz Sowa to jest i śmieszne i straszne. Powoli tracimy kontrolę.