Może to sprowadzić nas do ograniczonego sposobu myślenia, potencjalnie dławiąc innowacje i utrudniając rozwój wszechstronnych umiejętności rozwiązywania problemów.
tłumaczenie automatyczne
14 Luty 2025 6: 11
Piotr Ellerton
starszy wykładowca filozofii i pedagogiki; Dyrektor ds. programu nauczania, UQ Critical Thinking Project, Uniwersytet Queensland
Czy polegając na tych urządzeniach, które ułatwiają nam życie, stajemy się mądrzejsi czy głupsi? Czy zamieniliśmy wzrost wydajności na coraz bardziej zbliżający się do idiotyzmu jako gatunek?
To pytanie jest szczególnie ważne do rozważenia w odniesieniu do technologii generatywnej sztucznej inteligencji (AI), takiej jak ChatGPT, chatbot AI należący do firmy technologicznej OpenAI, z którego w chwili pisania tego tekstu korzysta 300 milionów ludzi każdego tygodnia .
Według niedawnego badania zespołu naukowców z Microsoftu i Carnegie Mellon University w Stanach Zjednoczonych, odpowiedź może brzmieć: tak. Ale to nie wszystko.
Dobre myślenie
Naukowcy ocenili, w jaki sposób użytkownicy postrzegają wpływ generatywnej sztucznej inteligencji na ich własne krytyczne myślenie.
Ogólnie rzecz biorąc, krytyczne myślenie ma związek z dobrym myśleniem.
Jednym ze sposobów, w jaki to robimy, jest osądzanie naszych własnych procesów myślowych w odniesieniu do ustalonych norm i metod dobrego rozumowania. Normy te obejmują takie wartości, jak precyzja, jasność, dokładność, szerokość, głębokość, trafność, znaczenie i przekonywalność argumentów.
Inne czynniki, które mogą wpływać na jakość myślenia, to wpływ naszych istniejących światopoglądów , uprzedzenia poznawcze i poleganie na niekompletnych lub niedokładnych modelach mentalnych .
Autorzy najnowszego badania przyjmują definicję krytycznego myślenia opracowaną przez amerykańskiego psychologa edukacyjnego Benjamina Blooma i współpracowników w 1956 roku. Tak naprawdę to w ogóle nie jest definicja. Jest to raczej hierarchiczny sposób kategoryzacji umiejętności poznawczych, w tym przypominania sobie informacji, rozumienia, zastosowania, analizy, syntezy i oceny.
Autorzy twierdzą, że preferują tę kategoryzację, znaną również jako "taksonomia", ponieważ jest prosta i łatwa do zastosowania. Jednak od czasu jego wynalezienia popadł w niełaskę i został zdyskredytowany przez Roberta Marzano, a nawet przez samego Blooma.
W szczególności zakłada się, że istnieje hierarchia umiejętności poznawczych, w której tak zwane umiejętności "wyższego rzędu" są budowane na umiejętnościach "niższego rzędu". Nie jest to zgodne z logiką ani dowodami. Na przykład ocena, zwykle postrzegana jako proces kulminacyjny lub wyższego rzędu, może być początkiem dociekania lub w niektórych kontekstach bardzo łatwa do przeprowadzenia. To bardziej kontekst niż poznanie decyduje o wyrafinowaniu myślenia.
Problem z użyciem tej taksonomii w badaniu polega na tym, że wiele produktów generatywnej sztucznej inteligencji wydaje się również używać jej do kierowania własnymi wynikami . Można więc interpretować to badanie jako sprawdzenie, czy generatywna sztuczna inteligencja, ze względu na sposób, w jaki została zaprojektowana, jest skuteczna w kształtowaniu tego, jak użytkownicy myślą o krytycznym myśleniu.
W taksonomii Blooma brakuje również fundamentalnego aspektu krytycznego myślenia: faktu, że krytyczny myśliciel nie tylko wykonuje te i wiele innych umiejętności poznawczych, ale wykonuje je dobrze. Robią to, ponieważ mają nadrzędną troskę o prawdę, czego nie mają systemy sztucznej inteligencji.
Większe zaufanie do sztucznej inteligencji oznacza mniej krytycznego myślenia
Badania opublikowane na początku tego roku wykazały "znaczącą negatywną korelację między częstym korzystaniem z narzędzi AI a zdolnościami krytycznego myślenia".
Nowe badanie dalej bada tę ideę. Przeprowadzono ankietę wśród 319 pracowników umysłowych, takich jak pracownicy służby zdrowia, pedagodzy i inżynierowie, którzy omówili 936 zadań, które wykonali za pomocą generatywnej sztucznej inteligencji. Co ciekawe, badanie wykazało, że użytkownicy uważają, że używają krytycznego myślenia mniej podczas wykonywania zadania, niż do zapewnienia nadzoru na etapie weryfikacji i edycji.
W środowiskach pracy, w których gra toczy się o wysoką stawkę, chęć tworzenia wysokiej jakości pracy w połączeniu ze strachem przed represjami służy jako silne motywatory dla użytkowników do angażowania się w krytyczne myślenie w celu przeglądu wyników sztucznej inteligencji.
Jednak ogólnie rzecz biorąc, uczestnicy uważają, że wzrost wydajności z nawiązką rekompensuje wysiłek włożony w zapewnienie takiego nadzoru.
Badanie wykazało, że ludzie, którzy mieli większe zaufanie do sztucznej inteligencji, generalnie wykazywali mniej krytycznego myślenia, podczas gdy ludzie z większą pewnością siebie wykazywali bardziej krytyczne myślenie.
Sugeruje to, że generatywna sztuczna inteligencja nie szkodzi krytycznemu myśleniu - pod warunkiem, że ktoś ją ma.
Problematyczne jest to, że badanie w zbyt dużym stopniu opierało się na samoopisie, który może być obarczony szeregiem uprzedzeń i problemów z interpretacją. Pomijając to, krytyczne myślenie zostało zdefiniowane przez użytkowników jako "wyznaczanie jasnych celów, dopracowywanie podpowiedzi i ocenianie wygenerowanych treści pod kątem spełnienia określonych kryteriów i standardów".
"Kryteria i standardy" odnoszą się tutaj bardziej do celów zadania niż do celów krytycznego myślenia. Na przykład dane wyjściowe spełniają kryteria, jeśli są "zgodne z ich zapytaniami", a standardy, jeśli "wygenerowany artefakt jest funkcjonalny" dla miejsca pracy.
Nasuwa się pytanie, czy badanie w ogóle mierzyło krytyczne myślenie.
Stawanie się krytycznym myślicielem
W nowym badaniu ukryta jest idea, że ćwiczenie krytycznego myślenia na etapie nadzoru jest co najmniej lepsze niż bezrefleksyjne nadmierne poleganie na generatywnej sztucznej inteligencji.
Autorzy zalecają, aby programiści generatywnej sztucznej inteligencji dodali funkcje, aby wywołać krytyczny nadzór użytkowników. Ale czy to wystarczy?
Krytyczne myślenie jest potrzebne na każdym etapie, przed i w trakcie korzystania ze sztucznej inteligencji - podczas formułowania pytań i hipotez do przetestowania oraz podczas sprawdzania wyników pod kątem stronniczości i dokładności.
Jedynym sposobem, aby upewnić się, że generatywna sztuczna inteligencja nie zaszkodzi Twojemu krytycznemu myśleniu, jest stanie się krytycznym myślicielem, zanim jej użyjesz.
Stanie się krytycznym myślicielem wymaga identyfikacji i kwestionowania niewypowiedzianych założeń stojących za twierdzeniami oraz oceny różnych perspektyw. Wymaga to również praktykowania systematycznego i metodycznego rozumowania oraz wspólnego rozumowania, aby przetestować swoje pomysły i myślenie z innymi.
Kreda i tablice sprawiły, że staliśmy się lepsi w matematyce. Czy generatywna sztuczna inteligencja może sprawić, że będziemy lepsi w krytycznym myśleniu? Być może - jeśli będziemy ostrożni, będziemy w stanie wykorzystać generatywną sztuczną inteligencję, aby rzucić sobie wyzwanie i wzmocnić nasze krytyczne myślenie.
Ale w międzyczasie zawsze są kroki, które możemy i powinniśmy podjąć, aby poprawić nasze krytyczne myślenie, zamiast pozwalać sztucznej inteligencji myśleć za nas.

Autorzy nie pracują, nie konsultują się, nie posiadają udziałów ani nie otrzymują funduszy od żadnej firmy lub organizacji, która mogłaby skorzystać z tego artykułu, i nie ujawnili żadnych istotnych powiązań poza ich stanowiskiem akademickim.
/Dzięki uprzejmości The Conversation. Ten materiał od organizacji, z której pochodzi/autor(ów) pochodzi, może mieć charakter określony w czasie i być zredagowany pod kątem przejrzystości, stylu i długości. Mirage.News nie zajmuje stanowisk ani stron instytucjonalnych, a wszystkie poglądy, stanowiska i wnioski wyrażone w niniejszym dokumencie są wyłącznie poglądami autora (autorów).
-----------
Czy sztuczna inteligencja czyni nas głupszymi?
14 Luty 2025 6: 11
am AEDT
Sztuczna inteligencja może czynić nas głupszymi, ostrzega Big Tech
Jest tylko tyle myślenia, ile większość z nas może zrobić w naszych głowach. Spróbuj podzielić liczbę 16 951 przez 67 bez sięgania po długopis i papier. Albo kalkulator. Spróbuj zrobić cotygodniowe zakupy bez listy na odwrocie paragonu z zeszłego tygodnia. Albo w telefonie.
Debora Brown
Profesor filozofii, dyrektor Projektu Krytycznego Myślenia Uniwersytetu Queensland, Uniwersytet Queensland
Sztuczna inteligencja może czynić nas głupszymi, ostrzega Big Tech
Jest tylko tyle myślenia, ile większość z nas może zrobić w naszych głowach. Spróbuj podzielić liczbę 16 951 przez 67 bez sięgania po długopis i papier. Albo kalkulator. Spróbuj zrobić cotygodniowe zakupy bez listy na odwrocie paragonu z zeszłego tygodnia. Albo w telefonie.
Debora Brown
Profesor filozofii, dyrektor Projektu Krytycznego Myślenia Uniwersytetu Queensland, Uniwersytet Queensland
Piotr Ellerton
starszy wykładowca filozofii i pedagogiki; Dyrektor ds. programu nauczania, UQ Critical Thinking Project, Uniwersytet Queensland
Czy polegając na tych urządzeniach, które ułatwiają nam życie, stajemy się mądrzejsi czy głupsi? Czy zamieniliśmy wzrost wydajności na coraz bardziej zbliżający się do idiotyzmu jako gatunek?
To pytanie jest szczególnie ważne do rozważenia w odniesieniu do technologii generatywnej sztucznej inteligencji (AI), takiej jak ChatGPT, chatbot AI należący do firmy technologicznej OpenAI, z którego w chwili pisania tego tekstu korzysta 300 milionów ludzi każdego tygodnia .
Według niedawnego badania zespołu naukowców z Microsoftu i Carnegie Mellon University w Stanach Zjednoczonych, odpowiedź może brzmieć: tak. Ale to nie wszystko.
Dobre myślenie
Naukowcy ocenili, w jaki sposób użytkownicy postrzegają wpływ generatywnej sztucznej inteligencji na ich własne krytyczne myślenie.
Ogólnie rzecz biorąc, krytyczne myślenie ma związek z dobrym myśleniem.
Jednym ze sposobów, w jaki to robimy, jest osądzanie naszych własnych procesów myślowych w odniesieniu do ustalonych norm i metod dobrego rozumowania. Normy te obejmują takie wartości, jak precyzja, jasność, dokładność, szerokość, głębokość, trafność, znaczenie i przekonywalność argumentów.
Inne czynniki, które mogą wpływać na jakość myślenia, to wpływ naszych istniejących światopoglądów , uprzedzenia poznawcze i poleganie na niekompletnych lub niedokładnych modelach mentalnych .
Autorzy najnowszego badania przyjmują definicję krytycznego myślenia opracowaną przez amerykańskiego psychologa edukacyjnego Benjamina Blooma i współpracowników w 1956 roku. Tak naprawdę to w ogóle nie jest definicja. Jest to raczej hierarchiczny sposób kategoryzacji umiejętności poznawczych, w tym przypominania sobie informacji, rozumienia, zastosowania, analizy, syntezy i oceny.
Autorzy twierdzą, że preferują tę kategoryzację, znaną również jako "taksonomia", ponieważ jest prosta i łatwa do zastosowania. Jednak od czasu jego wynalezienia popadł w niełaskę i został zdyskredytowany przez Roberta Marzano, a nawet przez samego Blooma.
W szczególności zakłada się, że istnieje hierarchia umiejętności poznawczych, w której tak zwane umiejętności "wyższego rzędu" są budowane na umiejętnościach "niższego rzędu". Nie jest to zgodne z logiką ani dowodami. Na przykład ocena, zwykle postrzegana jako proces kulminacyjny lub wyższego rzędu, może być początkiem dociekania lub w niektórych kontekstach bardzo łatwa do przeprowadzenia. To bardziej kontekst niż poznanie decyduje o wyrafinowaniu myślenia.
Problem z użyciem tej taksonomii w badaniu polega na tym, że wiele produktów generatywnej sztucznej inteligencji wydaje się również używać jej do kierowania własnymi wynikami . Można więc interpretować to badanie jako sprawdzenie, czy generatywna sztuczna inteligencja, ze względu na sposób, w jaki została zaprojektowana, jest skuteczna w kształtowaniu tego, jak użytkownicy myślą o krytycznym myśleniu.
W taksonomii Blooma brakuje również fundamentalnego aspektu krytycznego myślenia: faktu, że krytyczny myśliciel nie tylko wykonuje te i wiele innych umiejętności poznawczych, ale wykonuje je dobrze. Robią to, ponieważ mają nadrzędną troskę o prawdę, czego nie mają systemy sztucznej inteligencji.
Większe zaufanie do sztucznej inteligencji oznacza mniej krytycznego myślenia
Badania opublikowane na początku tego roku wykazały "znaczącą negatywną korelację między częstym korzystaniem z narzędzi AI a zdolnościami krytycznego myślenia".
Nowe badanie dalej bada tę ideę. Przeprowadzono ankietę wśród 319 pracowników umysłowych, takich jak pracownicy służby zdrowia, pedagodzy i inżynierowie, którzy omówili 936 zadań, które wykonali za pomocą generatywnej sztucznej inteligencji. Co ciekawe, badanie wykazało, że użytkownicy uważają, że używają krytycznego myślenia mniej podczas wykonywania zadania, niż do zapewnienia nadzoru na etapie weryfikacji i edycji.
W środowiskach pracy, w których gra toczy się o wysoką stawkę, chęć tworzenia wysokiej jakości pracy w połączeniu ze strachem przed represjami służy jako silne motywatory dla użytkowników do angażowania się w krytyczne myślenie w celu przeglądu wyników sztucznej inteligencji.
Jednak ogólnie rzecz biorąc, uczestnicy uważają, że wzrost wydajności z nawiązką rekompensuje wysiłek włożony w zapewnienie takiego nadzoru.
Badanie wykazało, że ludzie, którzy mieli większe zaufanie do sztucznej inteligencji, generalnie wykazywali mniej krytycznego myślenia, podczas gdy ludzie z większą pewnością siebie wykazywali bardziej krytyczne myślenie.
Sugeruje to, że generatywna sztuczna inteligencja nie szkodzi krytycznemu myśleniu - pod warunkiem, że ktoś ją ma.
Problematyczne jest to, że badanie w zbyt dużym stopniu opierało się na samoopisie, który może być obarczony szeregiem uprzedzeń i problemów z interpretacją. Pomijając to, krytyczne myślenie zostało zdefiniowane przez użytkowników jako "wyznaczanie jasnych celów, dopracowywanie podpowiedzi i ocenianie wygenerowanych treści pod kątem spełnienia określonych kryteriów i standardów".
"Kryteria i standardy" odnoszą się tutaj bardziej do celów zadania niż do celów krytycznego myślenia. Na przykład dane wyjściowe spełniają kryteria, jeśli są "zgodne z ich zapytaniami", a standardy, jeśli "wygenerowany artefakt jest funkcjonalny" dla miejsca pracy.
Nasuwa się pytanie, czy badanie w ogóle mierzyło krytyczne myślenie.
Stawanie się krytycznym myślicielem
W nowym badaniu ukryta jest idea, że ćwiczenie krytycznego myślenia na etapie nadzoru jest co najmniej lepsze niż bezrefleksyjne nadmierne poleganie na generatywnej sztucznej inteligencji.
Autorzy zalecają, aby programiści generatywnej sztucznej inteligencji dodali funkcje, aby wywołać krytyczny nadzór użytkowników. Ale czy to wystarczy?
Krytyczne myślenie jest potrzebne na każdym etapie, przed i w trakcie korzystania ze sztucznej inteligencji - podczas formułowania pytań i hipotez do przetestowania oraz podczas sprawdzania wyników pod kątem stronniczości i dokładności.
Jedynym sposobem, aby upewnić się, że generatywna sztuczna inteligencja nie zaszkodzi Twojemu krytycznemu myśleniu, jest stanie się krytycznym myślicielem, zanim jej użyjesz.
Stanie się krytycznym myślicielem wymaga identyfikacji i kwestionowania niewypowiedzianych założeń stojących za twierdzeniami oraz oceny różnych perspektyw. Wymaga to również praktykowania systematycznego i metodycznego rozumowania oraz wspólnego rozumowania, aby przetestować swoje pomysły i myślenie z innymi.
Kreda i tablice sprawiły, że staliśmy się lepsi w matematyce. Czy generatywna sztuczna inteligencja może sprawić, że będziemy lepsi w krytycznym myśleniu? Być może - jeśli będziemy ostrożni, będziemy w stanie wykorzystać generatywną sztuczną inteligencję, aby rzucić sobie wyzwanie i wzmocnić nasze krytyczne myślenie.
Ale w międzyczasie zawsze są kroki, które możemy i powinniśmy podjąć, aby poprawić nasze krytyczne myślenie, zamiast pozwalać sztucznej inteligencji myśleć za nas.

Autorzy nie pracują, nie konsultują się, nie posiadają udziałów ani nie otrzymują funduszy od żadnej firmy lub organizacji, która mogłaby skorzystać z tego artykułu, i nie ujawnili żadnych istotnych powiązań poza ich stanowiskiem akademickim.
/Dzięki uprzejmości The Conversation. Ten materiał od organizacji, z której pochodzi/autor(ów) pochodzi, może mieć charakter określony w czasie i być zredagowany pod kątem przejrzystości, stylu i długości. Mirage.News nie zajmuje stanowisk ani stron instytucjonalnych, a wszystkie poglądy, stanowiska i wnioski wyrażone w niniejszym dokumencie są wyłącznie poglądami autora (autorów).
-----------
Czy sztuczna inteligencja czyni nas głupszymi?
Nowe badanie przeprowadzone przez Microsoft sugeruje, że sztuczna inteligencja może zamieniać nasze mózgi w papkę!
sobota 15 lutego 2025 r. ,
Czy krytyczne myślenie opuściło czat? Microsoft uważa, że tak! Więc wpatrujesz się w swój ekran, próbując przypomnieć sobie, jak przeliterować "restauracja" bez pytania asystenta AI. Brzmi źle, prawda? Cóż, niedawne badanie przeprowadzone przez Microsoft i Carnegie Mellon University zwróciło uwagę na naszą rosnącą zależność od sztucznej inteligencji - i ma kilka pikantnych ujęć.
Badania sugerują, że zbytnie poleganie na narzędziach sztucznej inteligencji może zamieniać nasze mózgi w przytulne małe ziemniaki kanapowe, podnosząc brwi na temat przyszłości naszych umiejętności krytycznego myślenia.
Zanim jednak zaczniemy obwiniać roboty za naszą niezdolność do liczenia w myślach, zadajmy sobie prawdziwe pytanie: czy sztuczna inteligencja rzeczywiście czyni nas głupszymi, czy też po prostu zlecamy nudne rzeczy na zewnątrz, abyśmy mogli skupić się na ważniejszych rzeczach?
Zagłębmy się w dane i zobaczmy, co tak naprawdę się dzieje.
Zagadka krytycznego myślenia
Czy do tego stopnia przyzwyczajamy się do narzędzi sztucznej inteligencji, że tracimy zdolność do samodzielnego krytycznego myślenia? Jednym z Najważniejsze wnioski z badanias koncentruje się na wpływie sztucznej inteligencji na krytyczne myślenie. Ponieważ pracownicy coraz częściej zwracają się o pomoc do sztucznej inteligencji, nieumyślnie zlecają swoje myślenie na zewnątrz.
Badania wskazują, że duże poleganie na narzędziach AI, takich jak duże modele językowe, koreluje z mniejszym zaangażowaniem w zadania wymagające głębokiej analizy i kreatywnego rozwiązywania problemów.
Zasadniczo, bez tych wyzwań, nasze mózgi nie otrzymują treningu, którego pragną!
Ta zmiana jest częściowo napędzana przez nasze rosnące zaufanie do możliwości sztucznej inteligencji. Teraz, podczas gdy sztuczna inteligencja może niewątpliwie zwiększyć produktywność, ta nadmierna zależność wpływa na ćwiczenia umysłowe kluczowe dla utrzymania i rozwoju naszych zdolności poznawczych.
Efekt komory pogłosowej: jak sztuczna inteligencja może zawęzić nasze myślenie
Badanie sugeruje również, że wykorzystanie sztucznej inteligencji może prowadzić do węższego zakresu wyników w procesie podejmowania decyzji. Ponieważ systemy sztucznej inteligencji są szkolone na określonych zbiorach danych, nie zawsze mogą oferować najbardziej kreatywne lub zróżnicowane podejścia do rozwiązywania problemów.
Może to sprowadzić nas do ograniczonego sposobu myślenia, potencjalnie dławiąc innowacje i utrudniając rozwój wszechstronnych umiejętności rozwiązywania problemów.
Atrofia poznawcza: użyj lub strać
Pomyśl o swoim mózgu jak o mięśniu. Jeśli go nie używasz, staje się słabszy. To samo dotyczy naszych umiejętności myślenia. Kiedy polegamy na sztucznej inteligencji, która myśli za nas, nasze mózgi mają mniej pracy.
Nie ćwiczymy tak bardzo krytycznego myślenia ani rozwiązywania problemów.
Może to prowadzić do "atrofii poznawczej", co oznacza, że nasze zdolności myślenia z czasem stają się słabsze.
Tak więc, nawet jeśli sztuczna inteligencja jest świetna w rozwiązywaniu problemów teraz, co się stanie, gdy staniemy przed nowym, nieoczekiwanym wyzwaniem, z którym sztuczna inteligencja nie może sobie poradzić?
Jeśli nasze mózgi nie są w formie, możemy mieć trudności ze znalezieniem rozwiązania na własną rękę. Dlatego musimy nadal ćwiczyć nasze umysły, aby nie stać się zbytnio zależnymi od sztucznej inteligencji.
Dylemat w miejscu pracy: zależność a upodmiotowienie
Krajobraz miejsc pracy szybko się zmienia, a rola sztucznej inteligencji w tym zakresie staje się coraz większa. W miarę jak włączamy sztuczną inteligencję do naszej codziennej rutyny, istnieje szansa, że pracownicy mogą zauważyć, że ich pewność siebie słabnie, jeśli chodzi o samodzielne radzenie sobie z zadaniami.
Ta zależność może stanowić nie lada wyzwanie, zwłaszcza w tych momentach, gdy narzędzia AI są poza zasięgiem. Tak więc celem powinno być stworzenie sztucznej inteligencji, która będzie działać jako partner, a nie zamiennik ludzkiej inteligencji. Oznacza to projektowanie systemów, które dostarczają rozwiązań i zachęcają użytkowników do krytycznego myślenia i rozwijania umiejętności rozwiązywania problemów.
W poszukiwaniu równowagi
Debata na temat tego, że technologia czyni nas "głupimi", nie jest niczym nowym, ale sztuczna inteligencja niesie ze sobą nowy zestaw obaw. Badanie to podkreśla potencjalne koszty poznawcze zbytniego polegania na sztucznej inteligencji. Chociaż sztuczna inteligencja może niewątpliwie usprawnić zadania iZwiększ produktywność, bardzo ważne jest, aby chronić nasze umiejętności krytycznego myślenia. Kluczem jest znalezienie równowagi między pomocą sztucznej inteligencji a aktywnym zaangażowaniem poznawczym. Przyjmując sztuczną inteligencję w sposób odpowiedzialny, możemy zapewnić, że technologia zwiększa nasze zdolności intelektualne.
miragenews.com/ai-may-be-making-us-dumber-big-tech-warns-1408380/
yourstory.com/2025/02/ai-critical-thinking-decline
Brak komentarzy:
Prześlij komentarz