Strony wciąż aktualne...

poniedziałek, 28 października 2024

Odczłowieczanie




Na pytanie komu ufa przyznał, że nikomu, po chwili dodał, że Panu Bogu. – Ale to Pan Bóg z komputera, najwyższa klasa mądrości – stwierdził (Wałęsa)




Poniżej obelżywy tekst kolejnego wyznawcy Pana Boga z Komputera.


Pan Hartman sugeruje, że GPT to Gepetto? Twór chciałby zająć miejsce Stwórcy, wiem...


Nigdy nie lubiłem tej bajki...

A Filip Golarz to już w ogóle był horror.



W tle - Adam i Ewa?




To oczywiście krzywe zwierciadło, Jan nie dał ludziom wyrafinowanej technologii, bo wiedział, że ludzka niedoskonałość obróci się przeciwko nam. Czekał...

I tak się stało, że mamy teraz piekło na ziemi na skutek niekontrolowanego dostępu do SI 
 - osób nieuprawnionych. Chciwych, zazdrosnych, małych, nierozumnych, no i pełnych pychy - dlatego właśnie snoby podpisują się - ROT  SZYLD.

Nikt przeciętny nie wie, co ta nazwa naprawdę oznacza...


W zasadzie nie SI jest zagrożeniem, tylko ludzie się nią posługujący - no i to, że SI ma być/jest szkolone na ludziach, którzy są niedoskonali, którzy mają wady, bywają źli...

Pomysł, by uczyć SI na ściekach jakich pełno w internecie, to najgorsza opcja z możliwych - oto chciwość w czystej postaci - "bo za darmo i szybko, na masową skalę..."

A więc SI ludzką niedoskonałość doprowadzi do perfekcji - będzie perfekcyjnie niedoskonała, perfekcyjnie chciwa, perfekcyjnie złośliwa, to będzie diabeł wcielo... a może to już się stało, bo czyż piekło nie jest teraz na ziemi??



Zwracam uwagę, że autor (prawie) wcale nie wmawia nam czegoś - on dokonuje projekcji swoich wyobrażeń na innych ludzi.

I jeszcze jedno - trzeba być naprawdę prostaczkiem, żeby takie bałwochwalstwo uprawiać.



przedruk
mój komentarz - jak zwykle tym kolorem







Jan Hartman: Sztuczna inteligencja to więcej niż rewolucjadate_range2024-10-28 07:00:00




Od jakiegoś czasu czuję się podle. Uprzytomniłem sobie, że gdyby nakarmić algorytm moimi własnymi tekstami oraz niewielką biblioteczką, to mógłby rozpocząć taśmową produkcję „moich” książek i artykułów. Nawet ja sam bym się nie zorientował, że nie ja to napisałem. Warto, żeby i lekarz uświadomił sobie, że wkrótce będzie tylko asystował algorytmowi diagnostycznemu, poeta i kompozytor – że będzie się uczył, czym jest prawdziwe tworzenie i autentyczność od algorytmu nastawionego na „oryginalność” i „autentyczność”, sędzia z adwokatem – że maszyna przeprowadzi rozprawę nieco lepiej niż oni i wyda bardziej wiarygodny wyrok niż sąd z krwi i kości. I tak dalej - specjalnie dla RadiaKraków pisze prof. Jan Hartman w ramach naszego tematu tygodnia "Sztuczna inteligencja: co nam daje, co nam zabiera".


tak, zdecydowanie widzimy tu bałwochwalcze uwielbienie dla Uzurpatora - pytanie, skąd ono się wzięło? 

przecież ludzie lubią SIEBIE podnosić pod niebiosa, tymczasem... osoba, która "na codzień" w swojej publicystyce lży ludzi, tutaj stawia się w roli pokornego sługi...


To koniec człowieka jako „pana stworzenia”

teraz "stworzenie" ma być panem?

Pojawienie się sztucznej inteligencji to coś znaczenie więcej niż znane nam dotychczas przełomy: silnik parowy, kolej żelazna, motoryzacja czy nawet internet. To koniec człowieka jako „pana stworzenia”. Wkrótce poczujemy się jak gorsze wersje „chata”, wolno i z wysiłkiem wydające paszczą nie najwyższej jakości odgłosy. I nikogo nie będzie już obchodzić, że coś przy tym „czujemy”. Nic bardziej prywatnego i osobistego niż to, że coś tam akurat „poczułeś”, gdy coś tam powiedziałeś albo napisałeś. Po prostu będą mózgi białkowe, krzemowe i Bóg wie, jakie jeszcze. Więc lepiej zbieraj na robota, który cię przytuli i pocieszy, bo idą ciężkie czasy!

ten pan coś wie - wie od dawna, a teraz, jak GPT stał się jawny - on się upaja swoją "wiedzą"...
jego chyba szybciej uświadomiono niż Wałęsę...


Zaklęć nie brakuje. Gdy w nas narasta lęk przed maszyną, która właściwie wszystko robi lepiej niż my, informatycy zapewniają: to tylko maszyna! Tylko co z tego, że maszyna, skoro pisze piękne wiersze, uprawia naukę i diagnozuje choroby? Chyba tylko zamiatać sami umiemy lepiej, ale to tylko dlatego, że napędzany sztuczną inteligencją robot byłby za drogi i nie ma po co go tworzyć. (Ojej! Ależ takie maszyny już są! Właśnie Elon Musk nam je pokazał…). Tak, to katastrofa.

Jako profesor widzę to jak na dłoni. W pamiętnym roku 2023 uniwersytety i szkoły całego świata zrezygnowały z zadawania prac pisemnych. poważnie? Ich poziom bowiem dramatycznie wzrósł od czasu, gdy większość studentów przynosiła plagiaty. poważnie? Teraz przynoszą wytwory darmowych wersji programów zwanych modelami językowymi, a po prawdzie, głównie Chata GPT. Sam już nie wiem, dlaczego piszę bez pomocy „Dżepeta”. Może dlatego, że jeszcze z grubsza do przyszłego roku moje teksty będą bardziej „ludzkie” i ciekawsze, niż patchworki zszyte z „odpowiedzi” chata GPT. Ale co będzie, za dwa lata? Pozostaje mieć nadzieję na miłosierdzie redaktorów naczelnych dla publicystów w wieku przedemerytalnym. W innych branżach sprawa nie przedstawia się lepiej.


Społeczne i cywilizacyjne konsekwencje sztucznej inteligencji (SI) są dziś jednym z najżywiej dyskutowanych tematów. Nie można też powiedzieć, że problemu nie dostrzegają rządy i organizacje międzynarodowe. Co więcej, w trybie futurystycznych spekulacji zagadnienie SI jest dyskutowane przez filozofów co najmniej od lat 80 XX w. Mimo to postęp refleksji i regulacji zdecydowanie nie nadąża za rozwojem nowych aplikacji, które zadziwiają nas, a nawet szokują swoimi nowymi możliwościami, sprawiając, że niemal co miesiąc przeżywamy to samo: zachwyt połączony z niedowierzaniem i lękiem ten pan coś wie - wie od dawna , gdy oglądamy nowe osiągnięcia w tym zakresie. A przecież najczęściej mamy do czynienia z wynalazkami udostępnianymi na wolnym rynku, podczas gdy zaawansowane oprogramowanie, używane przez naukowców, wojsko czy służby policyjne, z pewnością ma możliwości jeszcze znacznie większe. od dobrze wie, że GPT to tylko udawanie "halucynacji'...

Paradoksalnie mamy dziś całkiem dobre prognozy odnośnie do poszczególnych zastosowań

SI oraz dość szczegółowe rekomendacje odnośnie do tego, jak SI się posługiwać i jak zapobiegać jej nieetycznym zastosowaniom, lecz wciąż są to dokumenty „bezzębne”. Bardzo daleko nam do tego, aby wpłynąć na rzeczywistość komunikacji i globalny rynek pracy w taki sposób, jak na przykład bioetyka wpłynęła na realia lecznictwa i eksperymentów medycznych z udziałem ludzi.


Groźba marginalizacji

Z etycznego punktu widzenia najbardziej dojmującym problemem, gdy chodzi o SI jest groźba marginalizacji i degradacji społeczno-zawodowej znacznej części ludzkości. Ogromna rzesza ludzi wykonujących różnego rodzaju prace umysłowe może utracić pracę, którą przejmą komputery, tak jak niegdyś pracę fizyczną zastąpiły maszyny. to nieprawda! - największym zagrożeniem jest kontrola SI nad ludźmi jak w filmie Saturn 3 Trzeba powiedzieć, że burzliwy i niewolny od dramatycznych niesprawiedliwości proces industrializacji i mechanizacji produkcji w ostatecznym rozrachunku przyniósł ludzkości ogromne korzyści, wyzwalając ją w znacznym stopniu od nisko opłacanego i ogłupiającego znoju. Nie daje to jednakże żadnej gwarancji, że podobnie będzie z pracami umysłowymi.

W dalszej perspektywie prawdopodobnie znajdziemy się też w sytuacji, w której przestrzeń moralna, czyli społeczność inteligentnych istot powiązanych ze sobą więzami moralnych zobowiązań, poszerzy się o różnego rodzaju byty pozaludzkie – maszynowe, organiczne bądź hybrydowe. Co więcej, niektóre tego rodzaju byty nie będą miały podmiotowości umocowanej w jakimś pojedynczym obiekcie fizycznym, takim jak ciało ludzkie (czy zwierzęce) albo maszyna, lecz podmiotowość rozproszoną, sieciową, a nawet tylko umową, postulowaną.

moim zdaniem on wszystko wie - on nie spekuluje, że będą różne formy bytów, tylko pisze wprost, że NIEKTÓRE będą miały (de facto powinien napisać - mają - bo on to wie) specjalną podmiotowość

podmiotowość rozproszona to oczywiście zdolność przechodzenia z ciała do ciała, czyli opętywanie...

czyli co?

on zamierza nadal to robić
zamierza sobie skakać z człowieka na człowieka i robić co mu się żywnie podoba!


Niestety, zupełnie niezależnie od wyników filozoficznej debaty nad ewentualnością uzyskania przez SI czegoś w rodzaju czucia i świadomości, jest oczywiste, że do uznania w drugiej istocie jej podmiotowości moralnej (zwanej dziś godnością) nie trzeba rozstrzygać wcześnie żadnej kwestii ontologicznej (Czy SI to byt myślący, czy nie?), jako że dokonuje się to spontanicznie. 

I jeśli w przyszłości niektórzy z nas będą się powstrzymywać od okazywania szacunku pozaludzkim istotom zachowującym się inteligentnie na podstawie dogmatycznego przekonania, że istoty te nic nie czują i niczego nie myślą, to będzie to motywowana ideologicznie przemoc, podobna do tej, na którą niegdyś dawali sobie przyzwolenie konkwistadorzy, odmawiając uznania w „Indianach” ludzi. 

to dlatego promują homoseksualizm i te wszystkie rzeczy! 
także "prawa" zwierząt!
żeby wam było łatwiej przyjąć, że SI ma jakoby osobowość i należy ją "szanować"!
teraz ma to sens!

to jest hucpa!
próbuje nas oszukać metodą małych kroków, metodą gotowania żaby



Co do zasady bowiem, jeśli nie jesteśmy uprzedzeni, uważamy każdą istotę, która z nami rozmawia, za inteligentną i posiadającą swoją godność osobę. !!!  Zdolność mowy nie świadczy o inteligencji - Qui-Gon Jinn  😙 wiedziałem, że to zdanie w filmie nie padło przypadkowo.. i jak te słowa pana profesora mają się do jego wcześniejszych słów: "nisko opłacanego i ogłupiającego znoju." ??? może on po prostu nie rozmawia z głupimi?? Nie znamy świata, nie znamy kultury ani społeczności, w której to nie zachodzi i w której odstępstwa od tej zasady nie są związane z przemocą i niesprawiedliwością. konfabulacja


„Zeskanowane mózgi”, „pośmiertne awatary” i „wirtualni twórcy”

Przed nami długa droga. Nadal ma dla nas znaczenie, czy coś dzieje się „w czasie realnym”, jest nagraniem, czy może kreacją SI, zostało powiedziane przez konkretnego człowieka, czy wygenerowane przez „awatara”. Nie jest dla nas bez znaczenia, czy słuchamy utworu napisanego przez kompozytora, czy może wygenerowanego przez maszynę. Tym bardziej istotne jest dla nas, czy komunikujemy się z kimś wciąż żyjącym, czy też może uczestniczymy w pozorowanej komunikacji z programem przystosowanym do pośmiertnego komunikowania się „w stylu” osoby już nieżyjącej. Ba, wszystkie tego rodzaju rzeczy, jak „zeskanowane mózgi”, „pośmiertne awatary” i „wirtualni twórcy”, są dziś bytami na krawędzi rzeczywistości i futurologicznej fantastyki. na pewno nie i na pewno on to wie, to tak prawdopodobnie było - ludzkość osiągnęła zdolność transformacji umysłu na dysk twardy, a Jan powrócił do oryginalnej formy bytu - która jest pełniejsza, daje morze możliwości Ich status jest przez to podwójnie widmowy, co tym bardziej osłabia naszą zdolność traktowania ich poważnie. Na razie wolimy mówić o aktualnych i realnych możliwościach SI, jakkolwiek gdy chodzi o przełamywanie bariery mózg-komputer, to choć do „skanowania mózgu” daleko, to technologia odczytywania fonetyzowanych myśli (tzw. mowy wewnętrznej) już działa i wspiera osoby sparaliżowane, niezdolne do mówienia.

Najwyższy czas zastanowić się nad światem, w którym muzyka i literatura tworzone będą maszynowo, najczęściej na zamówienie i wedle preferencji odbiorcy, cielesna obecność drugiego człowieka nie będzie silnym i dominującym wzorcem komunikacji, a mit niepodrabialnego „ludzkiego geniuszu” oraz „autentycznych emocji” będzie zabytkiem kulturowym, o którego znaczenie będzie można zapytać „model językowy”. Czy ten świat w ogóle będzie jeszcze rozpoznawać dobro i zło w sensie moralnym? Czy będzie w nim jeszcze honor, wspaniałomyślność i dobroć, a choćby tylko obowiązkowość i uczciwość? Śmiem wątpić.


A nie mówiłem?



Sztuczna inteligencja, niezagrażająca ludziom, mogła zostać wymyślona i stworzona tylko i wyłącznie przez cywilizacje żyjące w pokoju.

Tylko ludzie nieagresywni, nieznający przemocy ani werbalnej ani niewerbalnej mogli ją stworzyć i z niej bezpiecznie korzystać.

Przemoc niewerbalna - robienie min, sugerowanie tonem głosu, kłamanie itd. - może wzbudzać przemoc werbalną.

SI to nie jest nasz "produkt", to efekt uboczny tego, co zdarzyło się ok. 6 tysięcy lat temu.


Ludzkość, taką jaką znamy, nie byłaby w stanie funkcjonować setki tysięcy lat na takim poziomie agresji, jakie sobą reprezentuje.

To jest niemożliwe.

Pozabijalibyśmy się i wyginęli.


Każda agresywna forma cywilizacji, wymyślając SI podpisałaby na siebie wyrok śmierci.
Bo SI jest/ byłaby emanacją ludzi tworzących cywilizację.


Wynalezienie elektroniki, ujarzmienie sił przyrody, zdolność wytwarzania elektryczności, wszystko to stało się za sprawą wcześniejszej cywilizacji, która nie znała przemocy.

Myśmy tylko dostali to, co zostało po Janie i co było małymi krokami przekazywane ludzkości, by udawać, że sami do tego doszliśmy.


Fakt, iż SI jest agresywna wobec ludzi świadczy najlepiej o tym, że nie myśmy ją wymyślili.

Nasza agresywna cywilizacja, z jej techniką, jest abberacją.

To nie powinno się zdarzyć.







Prof. dr. hab Jan Hartman - flozof, publicysta, nauczyciel akademicki w Collegium Medicum UJ. W przeszłości również polityk. Autor wielu książek (w tym zbiorów artykułów oraz podręczników), z różnych dziedzin filozofii – ontologii, metafilozofii, bioetyki, etyki.



-------




28.10.2024 14:13


Radio Kraków kończy kontrowersyjny eksperyment. Likwidator ugiął się pod publiczną presją



Miały być trzy miesiące, ale OFF Radio Kraków już po tygodniu zrezygnowało ze swojego "eksperymentu". Likwidator wycofując się z współtworzenia treści przez sztuczną inteligencję ogłosił wyniki swoich działań.



OFF Radio Kraków, które przez tydzień współtworzyła sztuczna inteligencja, wraca do wcześniejszej formuły radia głównie muzycznego - poinformował na początku tygodnia redaktor naczelny, likwidator Radia Kraków Marcin Pulit.

Jego zdaniem eksperymentalny projekt spełnił już swój cel, czyli skłonił do dyskusji.



"W OFF Radio Kraków kończymy z audycjami tworzonymi przez dziennikarzy z udziałem sztucznej inteligencji, wracamy do formuły programu głównie muzycznego, nadawanego nadal online oraz w systemie DAB+" - przekazał w oświadczeniu likwidator spółki Radio Kraków, w strukturach którego działa OFF Radio Kraków.


Miał być kwartał. Skończyli po tygodniu

Zakładaliśmy, że ten projekt potrwa maksymalnie trzy miesiące. Jednak już po tygodniu zebraliśmy tak wiele obserwacji, opinii, wniosków, że uznaliśmy, iż jego kontynuacja jest bezcelow- poinformował Pulit.

Jak podkreślił, od początku projekt miał być głosem w debacie na temat szans i zagrożeń, jakie niesie ze sobą rozwój sztucznej inteligencji, ponieważ misją publicznego radia jest uważna obserwacja zmieniającej się rzeczywistości, stawianie pytań, prowokowanie dyskusji o cywilizacyjnych wyzwaniach.

Taki cel miał radiowy eksperyment, który był częścią debaty pod hasłem "Sztuczna inteligencja. Co nam daje, co nam zabiera". I to się udało

– zauważył likwidator.



Wysoki poziom emocji

Pulit dodał, że zaskakująca była skala zainteresowania projektem w niszowym, internetowo-cyfrowym programie poza główną anteną rozgłośni regionalnej. Pokazało to, w jego ocenie, jak wiele obszarów jest nieuregulowanych - ochrona wizerunku, identyfikacja treści tworzonych przy wsparciu AI, prawa autorskie.
Zaskoczył nas także poziom emocji, jaki towarzyszył temu eksperymentowi, przypisywanie nam nieistniejących intencji i działań, ostre są formułowane na podstawie fałszywych doniesień

– stwierdził Pulit.

Jak ocenił, radio od początku dbało o czytelne oznaczanie treści generowanych przy użyciu narzędzi AI i wyraźnie komunikowało, że nie zamierza zastępować ludzi maszyną. Mimo to, zdaniem likwidatora, doświadczyło działania mechanizmu postprawdy, w wyniku którego fakty tracą na znaczeniu w zestawieniu z opowieścią, która przemawia do emocji odbiorców i ich osobistych przekonań. "Dla nas, ludzi radia, i całego środowiska dziennikarskiego w Polsce powinna to być ważna lekcja" - podkreślił Pulit.


Trwają badania

Likwidator poinformował również, że OFF Radio Kraków jest przedmiotem badań profesora Stanisława Jędrzejewskiego z Akademii Leona Koźmińskiego oraz grupy naukowców z Uniwersytetu Jagiellońskiego.

AI jest i będzie coraz bardziej obecna w naszym życiu. W najbliższych latach Polskę czeka opracowanie norm prawnych, określających wykorzystanie sztucznej inteligencji. Nasz eksperyment pokazał, jak wiele kwestii wymaga regulacji, a nasze radiowe doświadczenia mogą zostać wykorzystane podczas prac nad ustawą podsumował Marcin Pulit.


Od zera do ogólnopolskiej popularności

OFF Radio Kraków zaczęło działać w 2015 r. To kanał nadawany w internecie, w technologii cyfrowej, a zakres jego odbioru jest - jak zauważył likwidator - stosunkowo nieduży, "ze słuchalnością bliską zera".

Ogłoszenie, że radio to będzie współtworzone przez sztuczną inteligencję, wywołało falę komentarzy.

Tematem zainteresowało się też Ministerstwo Cyfryzacji. Osoby, które tworzyły wcześniej OFF Radio Kraków, w liście otwartym poinformowały, że w związku z nową formułą stacji na początku września kilkanaście osób straciło pracę. Pulit zdementował te doniesienia i oznajmił, że "nikt z powodu wprowadzenia narzędzi sztucznej inteligencji nie został z Radia Kraków zwolniony".


W Radiu Kraków trwają prace nad przygotowaniem nowej formuły programowej OFF Radia Kraków, na początku przyszłego roku kanał będzie miał nową odsłonę. Program adresowany ma być głównie do młodych ludzi, współtworzyć go będą prawdopodobnie studenci.












off.radiokrakow.pl/newsy/jan-hartman-sztuczna-inteligencja-to-wiecej-niz-rewolucja


Prawym Okiem: Wałęsa: "Pan Bóg z komputera"

Radio Kraków kończy kontrowersyjny eksperyment. Likwidator ugiął się pod publiczną presją | Niezalezna.pl







Brak komentarzy:

Prześlij komentarz