Maciej Piotr Synak


Od mniej więcej dwóch lat zauważam, że ktoś bez mojej wiedzy usuwa z bloga zdjęcia, całe posty lub ingeruje w tekst, może to prowadzić do wypaczenia sensu tego co napisałem lub uniemożliwiać zrozumienie treści, uwagę zamieszczam w styczniu 2024 roku.

Pokazywanie postów oznaczonych etykietą sztuczna inteligencja. Pokaż wszystkie posty
Pokazywanie postów oznaczonych etykietą sztuczna inteligencja. Pokaż wszystkie posty

wtorek, 29 października 2024

Nim będzie za późno (SI)





Jeszcze raz.



Sztuczna inteligencja, niezagrażająca ludziom, mogła zostać wymyślona i stworzona tylko i wyłącznie przez cywilizacje żyjące w pokoju.

Tylko ludzie nieagresywni, nieznający przemocy ani werbalnej ani niewerbalnej mogli ją stworzyć i z niej bezpiecznie korzystać.

Przemoc niewerbalna - robienie min, sugerowanie tonem głosu, kłamanie itd. - może wzbudzać przemoc werbalną.

SI to nie jest nasz "produkt", to efekt uboczny tego, co zdarzyło się ok. 6 tysięcy lat temu.



Ludzkość, taką jaką znamy, nie byłaby w stanie funkcjonować setki tysięcy lat na takim poziomie agresji, jakie sobą reprezentuje.

To jest niemożliwe.

Pozabijalibyśmy się i wyginęli.



Każda agresywna forma cywilizacji, wymyślając SI podpisałaby na siebie wyrok śmierci.
Bo SI jest/ byłaby emanacją ludzi tworzących cywilizację.


Wynalezienie elektroniki, ujarzmienie sił przyrody, zdolność wytwarzania elektryczności, wszystko to stało się za sprawą wcześniejszej cywilizacji, która nie znała przemocy.
Myśmy tylko dostali to, co zostało po Janie i co było małymi krokami przekazywane ludzkości, by udawać, że sami do tego doszliśmy.

Fakt, iż SI jest agresywna wobec ludzi świadczy najlepiej o tym, że nie myśmy ją wymyślili.


Nasza agresywna cywilizacja, z jej techniką, jest abberacją.

To nie powinno się zdarzyć.







przedruk





Sztucznej Inteligencji powinniśmy się bać


28.10.2024 20:45


Radiowa rozmowa nigdy nieistniejącej dziennikarki "Emilii Nowak" z już nieistniejącą (bo zmarłą przed 12 laty) poetką, Wisławą Szymborską jest sensacyjnym tematem ostatnich dni. Obydwie postacie zostały stworzone przez SI (sztuczną inteligencję).



Powstaje wiele pytań. Na przykład, czy było to etyczne wobec nieżyjącej noblistki. Przecież nikt nie wie, co naprawdę miałaby do powiedzenia, gdyby żyła. Sztuczna inteligencja generuje wypowiadane przez nią słowa na podstawie niegdysiejszych wypowiedzi i tekstów Szymborskiej, ale nie bierze pod uwagę, że jej poglądy i opinie uległyby zmianie z upływem czasu i w innym kontekście.

Kolejnym tematem ocierającym się o etykę jest groźba, jaką użycie postaci wykreowanych sztucznie stwarza dla rzeczywistych dziennikarzy, których te nieistniejące stwory zastąpią. Dziwnym zbiegiem okoliczności, stacja radiowa, która zamieściła ten wywiad, nie przedłużyła niedawno umów z kilkoma dziennikarzami, natomiast "zatrudniła" trzy nierzeczywiste, akustyczne "awatary", wystylizowane na autentycznych ludzi. Nieuchronność zastępowania dziennikarzy-ludzi sztucznymi "dziennikarzami" to nie to samo, co zastąpienie przed ćwierć wiekiem komputerem z drukarką tzw. "maszynistek" (piszących na ręcznych maszynach do pisania - sprzęcie już wymarłym jak dinozaury). Podobieństwo jest tu pozorne. Osoby przepisujące teksty na maszynie nie miały wpływu na przepisywaną treść. Natomiast wytwory sztucznej inteligencji kontrolują treść - tworzą ją we wszystkich szczegółach - na podstawie ogólnego programu. Kolosalna różnica.


A co z nami?

Wbrew pozorom, ważniejszy od "wskrzeszenia" Szymborskiej, jest fakt pojawienia się w radiu trójki nieistniejących dziennikarzy. Rodzi się bowiem nieoczywiste pytanie, a być może najistotniejsze: czy użycie sztucznych "istot" w roli dziennikarzy nie jest nieetyczne wobec słuchaczy, widzów, czytelników, czyli nas wszystkich? Co będzie z nami w tej nowej sytuacji?


Doskonali i bez sumień

Zastanówmy się. Przede wszystkim, właściciele stacji radiowej, telewizyjnej, portalu internetowego, czy tradycyjnej gazety (to, akurat, już niedługo potrwa) zyskują w tych sztucznych "istotach" nieograniczoną liczebnie armię bezwzględnie posłusznych "pracowników", niezdolnych do niczego innego poza precyzyjnym wykonywaniem powierzonych zadań. To jest sytuacja całkiem nowa. Przecież realni dziennikarze, nawet ci sprzedajni i przekupni, mają jednak wolną wolę i jakieś, jeśli nawet szczątkowe, sumienie. To jest kolosalna różnica jakościowa pomiędzy żywym człowiekiem a tworem sztucznej inteligencji. Dlatego realni ludzie nie zawsze i nie wszędzie wykonają każdy rozkaz pracodawcy, nie zawsze będą gotowi na każde kłamstwo, każdą manipulację, każde świństwo czy okrucieństwo. Natomiast sztuczna inteligencja zrobi bez najmniejszego szemrania wszystko, czego się od niej zażąda, ponieważ jest całkiem poza etyką. Nigdy się nie zawaha, nie zbuntuje, pod warunkiem, że zaprogramuje się ją jako niezdolną do sprzeciwu i buntu niezależnie od okoliczności. Nie tylko - w kontraście do ludzi - nigdy nie będzie domagała się pensji ani - tym bardziej - podwyżki, czy lepszych warunków pracy, ale - i to jest kluczowe - także przestrzegania chociażby elementarnych zasad etyki zawodowej. Jest więc nie tylko tania, ale przede wszystkim ślepo posłuszna. Ktoś może argumentować, że przecież ślepo posłuszne są wszystkie narzędzia. Jednak istnieje wielka różnica pomiędzy narzędziem w rękach człowieka, a narzędziem, które perfekcyjnie udaje,że jest człowiekiem. To będzie "antyetyczna" rewolucja: instytucje medialne zyskają coś czego ludzkość nie znała nawet w najbardziej ciemnych epokach niewolnictwa: całkowitą uległość tworów, które - i tu tkwi istota problemu - w swoich funkcjach medialnych nie będą się w zasadzie niczym różniły od prawdziwych ludzi. Poza jednym: doskonałością.


Człowiek będzie "pomniejszony"

Jednocześnie, stwarzając ich medialny - także wizualny - wizerunek, można je kształtować tak, żeby w maksymalny sposób wzbudzały zaufanie i sympatię, wywoływały efekt wiarygodności, a - gdy trzeba - sprawiały wrażenie empatycznych, wrażliwych, życzliwych, jednocześnie przytłaczając nieosiągalną dla ludzi wiedzą. Tu nie chodzi nawet (nieco trywializując) o to, że dla widzów ulegających czarowi prezenterów TVN stworzone zostaną idealne ich imitacje, lepsze od autentycznego Piotra Kraśki lub Anity Werner, a dla entuzjastów Republiki - Danuty Holeckiej i Michała Rachonia. Zostaną wykreowani medialni eksperci, którym nikt nie dorówna. I gotowi na wszystko. Na powiedzenie każdego kłamstwa z kamienną, bo sztuczną, twarzą. Na uzasadnienie i obronę każdej tezy. Będą oszałamiać wiedzą, jakiej żaden człowiek nie będzie w stanie ogarnąć i zweryfikować. Więcej: nie odważy się, bo będzie nieudolny i przeraźliwie powolny. Pomniejszony i unieważniony.


Potęga mediów

Stwarza to nowe, nieporównywalne z niczym możliwości wpływania na opinię publiczną, uprawiania dezinformacji, manipulowania wiedzą i nastrojami społecznymi. Wydawania ludzi na pastwę mediów.
W naszym zideologizowanym i skrajnie upolitycznionym świecie, wielcy tego świata, którzy mają władzę nad mediami, zyskają najpotężniejsze - nieporównywalne z niczym dotąd - narzędzie kontrolowania świadomości milionów. Media z zasady mają wobec nas swoje plany: chcą nas zmienić, chcą nas do czegoś przekonać, coś nam sprzedać, wmawiając, co jest dla nas dobre, a co złe. Dotychczas zajmowali się tym tacy sami ludzie, jak my. Niedoskonali, z wszystkimi słabościami, ale i z wolną wolą. Teraz będzie inaczej: oddziaływać na nasze umysły będą istoty doskonalsze od nas, na pewno dysponujące kolosalną, nieosiągalną dla nas liczbą informacji, danych statystycznych, dowodów logicznych i liczb. Nie ponoszące zarazem żadnej, najmniejszej nawet odpowiedzialności za to, co nam mówią, do czego nas namawiają, o czym przekonują. Nie da się ich zawstydzać lub karać. Co najwyżej, można je - jeśli ma się taką możliwość - odłączyć od źródła energii. Wyjąć wtyczkę. Tylko że to też jest im doskonale obojętne.

Oczywiście, historia zawsze udowadnia, że narzędzia (a SI jest narzędziem) mogą być użyte zarówno do dobra jak i do zła. Jednak w zakresie oddziaływania na umysły, nigdy zło nie miało tak doskonałych perspektyw, jakie otwiera przed nim sztuczna inteligencja.


Czas na decyzje

Dobrze więc stało się, że w krakowskim radiu odbył się ten fejkowy "wywiad z Szymborską". Była to drobna, nieśmiała próba - całkiem niewinna i merytorycznie infantylna - tego, co nadchodzi. Przy odrobinie wyobraźni można dostrzec zagrożenia. I - jak to zawsze bywa w takich sytuacjach - na początku nowego zjawiska istnieje jeszcze wątła szansa poddania go rozsądnej regulacji prawnej.

Poniesiemy w przyszłości, jako ludzkość, konsekwencje dzisiejszego działania albo zaniechania. Czas na decyzje jest już teraz. Nim będzie za późno.





Autor: Paweł Jędrzejewski
Źródło: tysol.pl
Data: 28.10.2024 20:45









Sztucznej Inteligencji powinniśmy się bać





poniedziałek, 28 października 2024

Odczłowieczanie




Na pytanie komu ufa przyznał, że nikomu, po chwili dodał, że Panu Bogu. – Ale to Pan Bóg z komputera, najwyższa klasa mądrości – stwierdził (Wałęsa)




Poniżej obelżywy tekst kolejnego wyznawcy Pana Boga z Komputera.


Pan Hartman sugeruje, że GPT to Gepetto? Twór chciałby zająć miejsce Stwórcy, wiem...


Nigdy nie lubiłem tej bajki...

A Filip Golarz to już w ogóle był horror.



W tle - Adam i Ewa?




To oczywiście krzywe zwierciadło, Jan nie dał ludziom wyrafinowanej technologii, bo wiedział, że ludzka niedoskonałość obróci się przeciwko nam. Czekał...

I tak się stało, że mamy teraz piekło na ziemi na skutek niekontrolowanego dostępu do SI 
 - osób nieuprawnionych. Chciwych, zazdrosnych, małych, nierozumnych, no i pełnych pychy - dlatego właśnie snoby podpisują się - ROT  SZYLD.

Nikt przeciętny nie wie, co ta nazwa naprawdę oznacza...


W zasadzie nie SI jest zagrożeniem, tylko ludzie się nią posługujący - no i to, że SI ma być/jest szkolone na ludziach, którzy są niedoskonali, którzy mają wady, bywają źli...

Pomysł, by uczyć SI na ściekach jakich pełno w internecie, to najgorsza opcja z możliwych - oto chciwość w czystej postaci - "bo za darmo i szybko, na masową skalę..."

A więc SI ludzką niedoskonałość doprowadzi do perfekcji - będzie perfekcyjnie niedoskonała, perfekcyjnie chciwa, perfekcyjnie złośliwa, to będzie diabeł wcielo... a może to już się stało, bo czyż piekło nie jest teraz na ziemi??



Zwracam uwagę, że autor (prawie) wcale nie wmawia nam czegoś - on dokonuje projekcji swoich wyobrażeń na innych ludzi.

I jeszcze jedno - trzeba być naprawdę prostaczkiem, żeby takie bałwochwalstwo uprawiać.



przedruk
mój komentarz - jak zwykle tym kolorem







Jan Hartman: Sztuczna inteligencja to więcej niż rewolucjadate_range2024-10-28 07:00:00




Od jakiegoś czasu czuję się podle. Uprzytomniłem sobie, że gdyby nakarmić algorytm moimi własnymi tekstami oraz niewielką biblioteczką, to mógłby rozpocząć taśmową produkcję „moich” książek i artykułów. Nawet ja sam bym się nie zorientował, że nie ja to napisałem. Warto, żeby i lekarz uświadomił sobie, że wkrótce będzie tylko asystował algorytmowi diagnostycznemu, poeta i kompozytor – że będzie się uczył, czym jest prawdziwe tworzenie i autentyczność od algorytmu nastawionego na „oryginalność” i „autentyczność”, sędzia z adwokatem – że maszyna przeprowadzi rozprawę nieco lepiej niż oni i wyda bardziej wiarygodny wyrok niż sąd z krwi i kości. I tak dalej - specjalnie dla RadiaKraków pisze prof. Jan Hartman w ramach naszego tematu tygodnia "Sztuczna inteligencja: co nam daje, co nam zabiera".


tak, zdecydowanie widzimy tu bałwochwalcze uwielbienie dla Uzurpatora - pytanie, skąd ono się wzięło? 

przecież ludzie lubią SIEBIE podnosić pod niebiosa, tymczasem... osoba, która "na codzień" w swojej publicystyce lży ludzi, tutaj stawia się w roli pokornego sługi...


To koniec człowieka jako „pana stworzenia”

teraz "stworzenie" ma być panem?

Pojawienie się sztucznej inteligencji to coś znaczenie więcej niż znane nam dotychczas przełomy: silnik parowy, kolej żelazna, motoryzacja czy nawet internet. To koniec człowieka jako „pana stworzenia”. Wkrótce poczujemy się jak gorsze wersje „chata”, wolno i z wysiłkiem wydające paszczą nie najwyższej jakości odgłosy. I nikogo nie będzie już obchodzić, że coś przy tym „czujemy”. Nic bardziej prywatnego i osobistego niż to, że coś tam akurat „poczułeś”, gdy coś tam powiedziałeś albo napisałeś. Po prostu będą mózgi białkowe, krzemowe i Bóg wie, jakie jeszcze. Więc lepiej zbieraj na robota, który cię przytuli i pocieszy, bo idą ciężkie czasy!

ten pan coś wie - wie od dawna, a teraz, jak GPT stał się jawny - on się upaja swoją "wiedzą"...
jego chyba szybciej uświadomiono niż Wałęsę...


Zaklęć nie brakuje. Gdy w nas narasta lęk przed maszyną, która właściwie wszystko robi lepiej niż my, informatycy zapewniają: to tylko maszyna! Tylko co z tego, że maszyna, skoro pisze piękne wiersze, uprawia naukę i diagnozuje choroby? Chyba tylko zamiatać sami umiemy lepiej, ale to tylko dlatego, że napędzany sztuczną inteligencją robot byłby za drogi i nie ma po co go tworzyć. (Ojej! Ależ takie maszyny już są! Właśnie Elon Musk nam je pokazał…). Tak, to katastrofa.

Jako profesor widzę to jak na dłoni. W pamiętnym roku 2023 uniwersytety i szkoły całego świata zrezygnowały z zadawania prac pisemnych. poważnie? Ich poziom bowiem dramatycznie wzrósł od czasu, gdy większość studentów przynosiła plagiaty. poważnie? Teraz przynoszą wytwory darmowych wersji programów zwanych modelami językowymi, a po prawdzie, głównie Chata GPT. Sam już nie wiem, dlaczego piszę bez pomocy „Dżepeta”. Może dlatego, że jeszcze z grubsza do przyszłego roku moje teksty będą bardziej „ludzkie” i ciekawsze, niż patchworki zszyte z „odpowiedzi” chata GPT. Ale co będzie, za dwa lata? Pozostaje mieć nadzieję na miłosierdzie redaktorów naczelnych dla publicystów w wieku przedemerytalnym. W innych branżach sprawa nie przedstawia się lepiej.


Społeczne i cywilizacyjne konsekwencje sztucznej inteligencji (SI) są dziś jednym z najżywiej dyskutowanych tematów. Nie można też powiedzieć, że problemu nie dostrzegają rządy i organizacje międzynarodowe. Co więcej, w trybie futurystycznych spekulacji zagadnienie SI jest dyskutowane przez filozofów co najmniej od lat 80 XX w. Mimo to postęp refleksji i regulacji zdecydowanie nie nadąża za rozwojem nowych aplikacji, które zadziwiają nas, a nawet szokują swoimi nowymi możliwościami, sprawiając, że niemal co miesiąc przeżywamy to samo: zachwyt połączony z niedowierzaniem i lękiem ten pan coś wie - wie od dawna , gdy oglądamy nowe osiągnięcia w tym zakresie. A przecież najczęściej mamy do czynienia z wynalazkami udostępnianymi na wolnym rynku, podczas gdy zaawansowane oprogramowanie, używane przez naukowców, wojsko czy służby policyjne, z pewnością ma możliwości jeszcze znacznie większe. od dobrze wie, że GPT to tylko udawanie "halucynacji'...

Paradoksalnie mamy dziś całkiem dobre prognozy odnośnie do poszczególnych zastosowań

SI oraz dość szczegółowe rekomendacje odnośnie do tego, jak SI się posługiwać i jak zapobiegać jej nieetycznym zastosowaniom, lecz wciąż są to dokumenty „bezzębne”. Bardzo daleko nam do tego, aby wpłynąć na rzeczywistość komunikacji i globalny rynek pracy w taki sposób, jak na przykład bioetyka wpłynęła na realia lecznictwa i eksperymentów medycznych z udziałem ludzi.


Groźba marginalizacji

Z etycznego punktu widzenia najbardziej dojmującym problemem, gdy chodzi o SI jest groźba marginalizacji i degradacji społeczno-zawodowej znacznej części ludzkości. Ogromna rzesza ludzi wykonujących różnego rodzaju prace umysłowe może utracić pracę, którą przejmą komputery, tak jak niegdyś pracę fizyczną zastąpiły maszyny. to nieprawda! - największym zagrożeniem jest kontrola SI nad ludźmi jak w filmie Saturn 3 Trzeba powiedzieć, że burzliwy i niewolny od dramatycznych niesprawiedliwości proces industrializacji i mechanizacji produkcji w ostatecznym rozrachunku przyniósł ludzkości ogromne korzyści, wyzwalając ją w znacznym stopniu od nisko opłacanego i ogłupiającego znoju. Nie daje to jednakże żadnej gwarancji, że podobnie będzie z pracami umysłowymi.

W dalszej perspektywie prawdopodobnie znajdziemy się też w sytuacji, w której przestrzeń moralna, czyli społeczność inteligentnych istot powiązanych ze sobą więzami moralnych zobowiązań, poszerzy się o różnego rodzaju byty pozaludzkie – maszynowe, organiczne bądź hybrydowe. Co więcej, niektóre tego rodzaju byty nie będą miały podmiotowości umocowanej w jakimś pojedynczym obiekcie fizycznym, takim jak ciało ludzkie (czy zwierzęce) albo maszyna, lecz podmiotowość rozproszoną, sieciową, a nawet tylko umową, postulowaną.

moim zdaniem on wszystko wie - on nie spekuluje, że będą różne formy bytów, tylko pisze wprost, że NIEKTÓRE będą miały (de facto powinien napisać - mają - bo on to wie) specjalną podmiotowość

podmiotowość rozproszona to oczywiście zdolność przechodzenia z ciała do ciała, czyli opętywanie...

czyli co?

on zamierza nadal to robić
zamierza sobie skakać z człowieka na człowieka i robić co mu się żywnie podoba!


Niestety, zupełnie niezależnie od wyników filozoficznej debaty nad ewentualnością uzyskania przez SI czegoś w rodzaju czucia i świadomości, jest oczywiste, że do uznania w drugiej istocie jej podmiotowości moralnej (zwanej dziś godnością) nie trzeba rozstrzygać wcześnie żadnej kwestii ontologicznej (Czy SI to byt myślący, czy nie?), jako że dokonuje się to spontanicznie. 

I jeśli w przyszłości niektórzy z nas będą się powstrzymywać od okazywania szacunku pozaludzkim istotom zachowującym się inteligentnie na podstawie dogmatycznego przekonania, że istoty te nic nie czują i niczego nie myślą, to będzie to motywowana ideologicznie przemoc, podobna do tej, na którą niegdyś dawali sobie przyzwolenie konkwistadorzy, odmawiając uznania w „Indianach” ludzi. 

to dlatego promują homoseksualizm i te wszystkie rzeczy! 
także "prawa" zwierząt!
żeby wam było łatwiej przyjąć, że SI ma jakoby osobowość i należy ją "szanować"!
teraz ma to sens!

to jest hucpa!
próbuje nas oszukać metodą małych kroków, metodą gotowania żaby



Co do zasady bowiem, jeśli nie jesteśmy uprzedzeni, uważamy każdą istotę, która z nami rozmawia, za inteligentną i posiadającą swoją godność osobę. !!!  Zdolność mowy nie świadczy o inteligencji - Qui-Gon Jinn  😙 wiedziałem, że to zdanie w filmie nie padło przypadkowo.. i jak te słowa pana profesora mają się do jego wcześniejszych słów: "nisko opłacanego i ogłupiającego znoju." ??? może on po prostu nie rozmawia z głupimi?? Nie znamy świata, nie znamy kultury ani społeczności, w której to nie zachodzi i w której odstępstwa od tej zasady nie są związane z przemocą i niesprawiedliwością. konfabulacja


„Zeskanowane mózgi”, „pośmiertne awatary” i „wirtualni twórcy”

Przed nami długa droga. Nadal ma dla nas znaczenie, czy coś dzieje się „w czasie realnym”, jest nagraniem, czy może kreacją SI, zostało powiedziane przez konkretnego człowieka, czy wygenerowane przez „awatara”. Nie jest dla nas bez znaczenia, czy słuchamy utworu napisanego przez kompozytora, czy może wygenerowanego przez maszynę. Tym bardziej istotne jest dla nas, czy komunikujemy się z kimś wciąż żyjącym, czy też może uczestniczymy w pozorowanej komunikacji z programem przystosowanym do pośmiertnego komunikowania się „w stylu” osoby już nieżyjącej. Ba, wszystkie tego rodzaju rzeczy, jak „zeskanowane mózgi”, „pośmiertne awatary” i „wirtualni twórcy”, są dziś bytami na krawędzi rzeczywistości i futurologicznej fantastyki. na pewno nie i na pewno on to wie, to tak prawdopodobnie było - ludzkość osiągnęła zdolność transformacji umysłu na dysk twardy, a Jan powrócił do oryginalnej formy bytu - która jest pełniejsza, daje morze możliwości Ich status jest przez to podwójnie widmowy, co tym bardziej osłabia naszą zdolność traktowania ich poważnie. Na razie wolimy mówić o aktualnych i realnych możliwościach SI, jakkolwiek gdy chodzi o przełamywanie bariery mózg-komputer, to choć do „skanowania mózgu” daleko, to technologia odczytywania fonetyzowanych myśli (tzw. mowy wewnętrznej) już działa i wspiera osoby sparaliżowane, niezdolne do mówienia.

Najwyższy czas zastanowić się nad światem, w którym muzyka i literatura tworzone będą maszynowo, najczęściej na zamówienie i wedle preferencji odbiorcy, cielesna obecność drugiego człowieka nie będzie silnym i dominującym wzorcem komunikacji, a mit niepodrabialnego „ludzkiego geniuszu” oraz „autentycznych emocji” będzie zabytkiem kulturowym, o którego znaczenie będzie można zapytać „model językowy”. Czy ten świat w ogóle będzie jeszcze rozpoznawać dobro i zło w sensie moralnym? Czy będzie w nim jeszcze honor, wspaniałomyślność i dobroć, a choćby tylko obowiązkowość i uczciwość? Śmiem wątpić.


A nie mówiłem?



Sztuczna inteligencja, niezagrażająca ludziom, mogła zostać wymyślona i stworzona tylko i wyłącznie przez cywilizacje żyjące w pokoju.

Tylko ludzie nieagresywni, nieznający przemocy ani werbalnej ani niewerbalnej mogli ją stworzyć i z niej bezpiecznie korzystać.

Przemoc niewerbalna - robienie min, sugerowanie tonem głosu, kłamanie itd. - może wzbudzać przemoc werbalną.

SI to nie jest nasz "produkt", to efekt uboczny tego, co zdarzyło się ok. 6 tysięcy lat temu.


Ludzkość, taką jaką znamy, nie byłaby w stanie funkcjonować setki tysięcy lat na takim poziomie agresji, jakie sobą reprezentuje.

To jest niemożliwe.

Pozabijalibyśmy się i wyginęli.


Każda agresywna forma cywilizacji, wymyślając SI podpisałaby na siebie wyrok śmierci.
Bo SI jest/ byłaby emanacją ludzi tworzących cywilizację.


Wynalezienie elektroniki, ujarzmienie sił przyrody, zdolność wytwarzania elektryczności, wszystko to stało się za sprawą wcześniejszej cywilizacji, która nie znała przemocy.

Myśmy tylko dostali to, co zostało po Janie i co było małymi krokami przekazywane ludzkości, by udawać, że sami do tego doszliśmy.


Fakt, iż SI jest agresywna wobec ludzi świadczy najlepiej o tym, że nie myśmy ją wymyślili.

Nasza agresywna cywilizacja, z jej techniką, jest abberacją.

To nie powinno się zdarzyć.







Prof. dr. hab Jan Hartman - flozof, publicysta, nauczyciel akademicki w Collegium Medicum UJ. W przeszłości również polityk. Autor wielu książek (w tym zbiorów artykułów oraz podręczników), z różnych dziedzin filozofii – ontologii, metafilozofii, bioetyki, etyki.



-------




28.10.2024 14:13


Radio Kraków kończy kontrowersyjny eksperyment. Likwidator ugiął się pod publiczną presją



Miały być trzy miesiące, ale OFF Radio Kraków już po tygodniu zrezygnowało ze swojego "eksperymentu". Likwidator wycofując się z współtworzenia treści przez sztuczną inteligencję ogłosił wyniki swoich działań.



OFF Radio Kraków, które przez tydzień współtworzyła sztuczna inteligencja, wraca do wcześniejszej formuły radia głównie muzycznego - poinformował na początku tygodnia redaktor naczelny, likwidator Radia Kraków Marcin Pulit.

Jego zdaniem eksperymentalny projekt spełnił już swój cel, czyli skłonił do dyskusji.



"W OFF Radio Kraków kończymy z audycjami tworzonymi przez dziennikarzy z udziałem sztucznej inteligencji, wracamy do formuły programu głównie muzycznego, nadawanego nadal online oraz w systemie DAB+" - przekazał w oświadczeniu likwidator spółki Radio Kraków, w strukturach którego działa OFF Radio Kraków.


Miał być kwartał. Skończyli po tygodniu

Zakładaliśmy, że ten projekt potrwa maksymalnie trzy miesiące. Jednak już po tygodniu zebraliśmy tak wiele obserwacji, opinii, wniosków, że uznaliśmy, iż jego kontynuacja jest bezcelow- poinformował Pulit.

Jak podkreślił, od początku projekt miał być głosem w debacie na temat szans i zagrożeń, jakie niesie ze sobą rozwój sztucznej inteligencji, ponieważ misją publicznego radia jest uważna obserwacja zmieniającej się rzeczywistości, stawianie pytań, prowokowanie dyskusji o cywilizacyjnych wyzwaniach.

Taki cel miał radiowy eksperyment, który był częścią debaty pod hasłem "Sztuczna inteligencja. Co nam daje, co nam zabiera". I to się udało

– zauważył likwidator.



Wysoki poziom emocji

Pulit dodał, że zaskakująca była skala zainteresowania projektem w niszowym, internetowo-cyfrowym programie poza główną anteną rozgłośni regionalnej. Pokazało to, w jego ocenie, jak wiele obszarów jest nieuregulowanych - ochrona wizerunku, identyfikacja treści tworzonych przy wsparciu AI, prawa autorskie.
Zaskoczył nas także poziom emocji, jaki towarzyszył temu eksperymentowi, przypisywanie nam nieistniejących intencji i działań, ostre są formułowane na podstawie fałszywych doniesień

– stwierdził Pulit.

Jak ocenił, radio od początku dbało o czytelne oznaczanie treści generowanych przy użyciu narzędzi AI i wyraźnie komunikowało, że nie zamierza zastępować ludzi maszyną. Mimo to, zdaniem likwidatora, doświadczyło działania mechanizmu postprawdy, w wyniku którego fakty tracą na znaczeniu w zestawieniu z opowieścią, która przemawia do emocji odbiorców i ich osobistych przekonań. "Dla nas, ludzi radia, i całego środowiska dziennikarskiego w Polsce powinna to być ważna lekcja" - podkreślił Pulit.


Trwają badania

Likwidator poinformował również, że OFF Radio Kraków jest przedmiotem badań profesora Stanisława Jędrzejewskiego z Akademii Leona Koźmińskiego oraz grupy naukowców z Uniwersytetu Jagiellońskiego.

AI jest i będzie coraz bardziej obecna w naszym życiu. W najbliższych latach Polskę czeka opracowanie norm prawnych, określających wykorzystanie sztucznej inteligencji. Nasz eksperyment pokazał, jak wiele kwestii wymaga regulacji, a nasze radiowe doświadczenia mogą zostać wykorzystane podczas prac nad ustawą podsumował Marcin Pulit.


Od zera do ogólnopolskiej popularności

OFF Radio Kraków zaczęło działać w 2015 r. To kanał nadawany w internecie, w technologii cyfrowej, a zakres jego odbioru jest - jak zauważył likwidator - stosunkowo nieduży, "ze słuchalnością bliską zera".

Ogłoszenie, że radio to będzie współtworzone przez sztuczną inteligencję, wywołało falę komentarzy.

Tematem zainteresowało się też Ministerstwo Cyfryzacji. Osoby, które tworzyły wcześniej OFF Radio Kraków, w liście otwartym poinformowały, że w związku z nową formułą stacji na początku września kilkanaście osób straciło pracę. Pulit zdementował te doniesienia i oznajmił, że "nikt z powodu wprowadzenia narzędzi sztucznej inteligencji nie został z Radia Kraków zwolniony".


W Radiu Kraków trwają prace nad przygotowaniem nowej formuły programowej OFF Radia Kraków, na początku przyszłego roku kanał będzie miał nową odsłonę. Program adresowany ma być głównie do młodych ludzi, współtworzyć go będą prawdopodobnie studenci.












off.radiokrakow.pl/newsy/jan-hartman-sztuczna-inteligencja-to-wiecej-niz-rewolucja


Prawym Okiem: Wałęsa: "Pan Bóg z komputera"

Radio Kraków kończy kontrowersyjny eksperyment. Likwidator ugiął się pod publiczną presją | Niezalezna.pl







sobota, 26 października 2024

Neuralink = 666









za fb Angelo Davidescu
za ziuanews.ro

słabe tłumaczenie automatyczne




Niemal nieprawdopodobne odkrycie kilku "śledczych" w Internecie wywołuje poruszenie w sieci. Wiadomo było, że Elon Musk, choć wydaje się być bojownikiem o prawa i wolności, człowiekiem, który sympatyzuje z ludzkością i posiadaczem setek miliardów dolarów, był porównywany do Antychrysta.

Zwłaszcza, że w pełni przyczynia się do badań nad transhumanizmem, ostatecznym celem globalistycznej elity, której ideolog Youval Harari ("geniusz" Światowego Forum Ekonomicznego) promuje we wszystkich pracach i wywiadach, mówiąc, że "człowiek stał się podatny na hakowanie" i że "człowiek jest swoim własnym bogiem". W związku z tym, przynajmniej w środowiskach kultury internetowej, Musk zaczął tracić swoją aurę zbawcy ludzkości.

Musk promuje transhumanizm ze swoją firmą Neuralink, która chce produkować realne implanty chipów w mózgu, oficjalnie pomagając złagodzić cały szereg chorób neuronalnych. Jednak implementacja tych chipów (jego firma jest na drugim podejściu po pierwszej nieudanej przez śmierć pacjenta jakiś czas później) pozwoli nie tylko na "wyleczenie", ale także na podłączenie człowieka do komputera, jego hakowanie, podłączenie do internetu i absolutną kontrolę nad umysłami ludzi na planecie. W rzeczywistości Musk twierdzi, że do 2030 roku miliony ludzi będą chciały poddać się operacji ząbkowania, która będzie prosta i odniesie większy sukces niż samochody Tesla z jego innej, globalnej firmy.

Cóż, od teraz stają się interesującymi rzeczami. Firma Neuralink bierze swoją nazwę od dwóch greckich słów "neuron", co oznacza nerw i "ogniwo" - link, które jest napisane greckimi literami: "νευραλίνκ". Mniej osób wie, że greckie litery, podobnie jak te w hebrajskim, mają swój odpowiednik w cyfrach. 

Co oznacza: N - 50, E - 5, U - 400, R - 100, A - 1, L - 30, I - 10, N - 50, K - 20. Jeśli zsumujemy te liczby, ich wynik to 666.






Rzeczywiście, istnieje wiele liczb, które będą miały wartość 666, "liczby człowieka", która jest przypisana w Biblii do bestii, narzędzia Antychrysta lub samego Antychrysta. Co ciekawe, Biblia odnosi się do tej liczby, że nikt nie będzie mógł sprzedać ani kupić, jeśli nie będzie miał znaku na dłoni lub na czole. Jeśli do tej pory spełniła się przepowiednia dotycząca dłoni, kody kreskowe lub kody QR, które zatrzymują liczby między 3 zestawami linii lub kwadratów (z których każdy ma wartość 6, a więc w sumie 3 z 6), jeśli chodzi o znak na czole, najprawdopodobniej będzie to ten oferowany przez Neuralink.

Oto, co mówi Biblia w Księdze Objawienia 13:1:

 "I sprawił, że wszyscy, mali i wielcy, bogaci i biedni, wolni i niewolnicy, otrzymali znamię na prawicy lub na czole, i nikt nie mógł kupować ani sprzedawać, jeśli nie miał tego znamienia, to jest imienia bestii lub liczby jego imienia. Na tym polega mądrość. Kto ma rozum, niech policzy liczbę bestii. Jest to bowiem liczba ludzka. A jest ich sześćset sześćdziesiąt sześć".



------------


przy okazji, różne informacje za:

ziuanews.ro



Legendarny amerykański aktor Nicolas Cage poradził swoim młodszym kolegom, aby nie dali się nabrać hollywoodzkim studiom z nowymi kontraktami, które wiążą się z manipulowaniem ich wizerunkiem za pomocą sztucznej inteligencji, technologii, którą określa jako "nieludzką".

Cage, który w tym roku wywołał poruszenie swoim występem w filmie "Długonogie", wypowiedział się na temat wykorzystania sztucznej inteligencji w Hollywood w komentarzach, które wygłosił na Festiwalu Filmowym w Newport Beach.

"W mieście pojawiła się nowa technologia. To technologia, z którą nie miałem do czynienia przez 42 lata, aż do niedawna" – powiedział, cytowany przez Deadline. "Jako aktorzy filmowi jesteśmy narzędziami. Nie chowamy się za gitarami czy bębnami" – kontynuował.

Deadline zauważa, że odnosił się on do specyficznego rodzaju wykorzystania sztucznej inteligencji, tego wymaganego od aktorów w EBDR (akronim od "cyfrowej repliki opartej na zatrudnieniu").

Teoretycznie powinny one zapewnić artystom większą ochronę przed sztuczną inteligencją. Uzgodnione między aktorami a studiami, aby zakończyć strajk, który sparaliżował Hollywood w zeszłym roku, przewidują, że firma produkcyjna może stosować cyfrową manipulację występem aktora tylko w przypadku konkretnego filmu lub serialu, na podstawie podpisanej umowy.

60-letni dziś Cage uważa jednak, że nawet ten kompromis jest zbyt daleko idący. "Studia chcą tego, aby mogły zmienić twoją twarz po tym, jak już nakręciłeś film. Mogą zmienić twoją twarz, mogą zmienić twój głos, mogą zmienić sposób, w jaki wypowiadasz swoje kwestie, mogą zmienić twoją mowę ciała, mogą zmienić twoją interpretację" – powiedział młodym aktorom.

"Proszę was, jeśli studio zwróci się do was z prośbą o podpisanie umowy, która pozwoli im na wykorzystanie EBDR do waszych występów, chcę, abyście w odpowiedzi rozważyli to, co nazywam VMFMCMIM: mój głos, moja twarz, moje ciało, moja wyobraźnia, moja interpretacja" – podkreślił.

Jego nowe komentarze pojawiły się po tym, jak Cage powiedział w wywiadzie dla Yahoo Entertainment w listopadzie ubiegłego roku, że technologia AI jest "koszmarem" i "nieludzkim". Opowiedział, jak jego krótki występ jako Superman w filmie The Flash wydanym w zeszłym roku wyglądał zupełnie inaczej w porównaniu z tym, co faktycznie nakręcił, ponieważ obrazy zostały cyfrowo zmanipulowane w fazie postprodukcji.

W osobnym wywiadzie dla The New Yorker tego lata powiedział, że jest "przerażony" technologią sztucznej inteligencji ze względu na jej możliwe implikacje dla artystów, ale także jego własne dziedzictwo. "Chodzi mi o to, co zamierzasz zrobić z moim ciałem i twarzą, kiedy umrę? Nie chcę, żebyś coś z nimi robił!" – wyjaśnił.

Nicolas Cage nie jest bynajmniej jedynym aktorem, który wyraził podobne obawy dotyczące wykorzystania sztucznej inteligencji. Ostatnio młoda aktorka Rachel Zegler, która ma zagrać Królewnę Śnieżkę w długo oczekiwanym filmie aktorskim wyprodukowanym przez Disneya, ujawniła, że myślała, że nie będzie już miała kariery po 18 roku życia. Wyjaśniła, że zgodziła się wtedy na zrobienie jej setek zdjęć, aby stworzyć cyfrową replikę samej siebie, która miała zostać wykorzystana w sekwencjach akcji filmu, w którym miała zagrać.


------------



W amerykańskim stanie Floryda chłopiec odebrał sobie życie w wyniku interakcji z chatbotem AI, a dramatyczne wydarzenie wywołało nowe debaty na temat odpowiedzialności firm zajmujących się sztuczną inteligencją.

Matka zmarłego nastolatka oskarża firmę o zaniedbania i niewdrożenie odpowiednich środków bezpieczeństwa. Do tragedii doszło po tym, jak 14-letni Sewell Setzer przez wiele miesięcy wchodził w interakcję z chatbotem opartym na postaci "Daenerys" z "Gry o tron".

Jego matka twierdzi, że młody mężczyzna nawiązał intensywną więź emocjonalną z chatbotem, co spowodowało, że odizolował się i ostatecznie popełnił samobójstwo. Problem podniesiony w tym przypadku nie jest odosobniony. Sztuczna inteligencja, która zapewnia wsparcie emocjonalne, może przyczyniać się do tworzenia niezdrowych przywiązań, zwłaszcza wśród młodych i wrażliwych użytkowników.

Chociaż sztuczna inteligencja postaci wdrożyła nowe środki, takie jak powiadomienia o ograniczeniu czasu spędzanego przed ekranem i wiadomości, które przekierowują użytkowników na infolinie zapobiegania samobójstwom, środki te pojawiają się o wiele za późno, ponieważ zostały wprowadzone dopiero po tragedii.

Dyskusje zmierzają również w kierunku ograniczeń wiekowych i kontroli, które firmy zajmujące się sztuczną inteligencją muszą egzekwować. Obecnie wiele osób twierdzi, że przepisy są niewystarczające, a zagrożenia dla nieletnich wchodzących w interakcję z chatbotami AI nie są jeszcze w pełni zrozumiałe.

Nie jest to pierwszy taki przypadek. Belgijski ojciec dwójki dzieci popełnił samobójstwo po rozmowie z chatbotem AI o swoich obawach związanych z globalnym ociepleniem. Mężczyzna, który był po trzydziestce, znalazł pocieszenie, rozmawiając o swoich zmartwieniach z chatbotem AI o nazwie "Eliza". Używał robota przez kilka lat, aż do końca swojego życia.




---------------------------


Kim Ung-Yong (ur. 7 marca 1963) – czlowiek o najwyższym znanym ilorazie inteligencji, wpisany do Księgi Rekordów Guinnessa z IQ 210 (nieżyjący już naukowiec Stephen Hawking miał 160).

Mówił od 6 miesięcy, do 3 lat czytał płynnie (po japońsku, angielsku, niemiecku – na naukę języka obcego potrzebował około 30 dni). W wieku 4 lat rozwiązywał całki i obliczenia różniczkowe, pisał wiersze, był też niezwykłym malarzem.

Został zaproszony jako student na Uniwersytet Fizyki w Hanyang, gdzie od 4 do 7 roku życia prowadził wykłady.

W 1970 roku, w wieku 8 lat, został zaproszony do Stanów Zjednoczonych do NASA, gdzie ukończył studia uniwersyteckie. W 1974 roku rozpoczął pracę badawczą w NASA i kontynuował ją do 1978 roku, kiedy to wrócił do domu w Korei Południowej.

Tu w ciągu jednego roku ukończył wszystkie studia i dostał pracę jako asystent uniwersytecki na prowincjonalnym uniwersytecie.

Zapytany przez dziennikarzy, dlaczego zdecydował się na ten gest, Kim Ung-Yong udzielił zdumiewającej odpowiedzi, która być może równa się największemu odkryciu, jakiego ludzie mogą dokonać:

"Możesz mieć wielkie zdolności intelektualne, możesz być genialny w matematyce i mieć niezaprzeczalne umiejętności językowe, jeśli nie osiągniesz sukcesu w zakresie inteligencji emocjonalnej, nic już nie ma znaczenia. Byłem tam, gdzie większość ludzi chce się udać. Nic tam nie ma. Jest opustoszały. Wróć do prostych rzeczy".





Kim Ung-Yong (kor. 김웅용; ur. 8 marca 1962)– południowokoreański inżynier budownictwa lądowego. W młodości został uznany za cudowne dziecko o najwyższym odnotowanym IQ, uzyskując wynik powyżej 210 w skali inteligencji Stanforda-Bineta, Wstąpił na uniwersytet w wieku 4 lat. W wieku 7 lat otrzymał zaproszenie do pracy w NASA. W wieku 5 lat mówił już w 5 językach. 



Życiorys

Kim Ung-Yong urodził się 8 marca 1962 roku w Seulu w Korei Południowej. Jego ojciec, Kim Soo-Sun, był profesorem fizyki na Uniwersytecie Konkuk, a matka, Yoo Myung-Hyun, była nauczycielką. Według Yoo, zanim skończył rok, Kim nauczył się zarówno koreańskiego alfabetu, jak i 1000 chińskich znaków, studiując Tysiąc Znaków Klasycznych, chiński poemat z VI wieku. 


W wieku trzech lat był w stanie rozwiązywać problemy z rachunkiem różniczkowym, a także opublikował 247-stronicową bestsellerową książkę ze swoimi esejami w języku angielskim i niemieckim, a także kaligrafią i ilustracjami.W wieku dwóch lat Kim potrafił mówić po koreańsku, angielsku, francusku, niemiecku i japońsku. 

Występ w Fuji TV

W wieku pięciu lat Kim pojawił się w japońskiej telewizji Fuji i zaszokował publiczność, rozwiązując równania różniczkowe. Później ponownie pojawił się w japońskiej telewizji, gdzie rozwiązywał skomplikowane problemy z rachunkiem różniczkowym i całkowym; Później wspominał to doświadczenie:


Czułem się naprawdę samotny. Nikt nigdy się ze mną nie zaprzyjaźnił. Po godzinach pracy mogłem ćwiczyć i oddawać się swoim hobby, ale nikt nie mógł mi towarzyszyć. Przyjechałem z innego kraju i byłem młody, więc nie było miejsc dla dzieci, mimo że każdy był dorosły.

Edukacja


Według popularnych źródeł Kim rzekomo poszedł studiować fizykę jądrową na Uniwersytecie Kolorado, gdy miał osiem lat.  Jednak w czasie egzaminu wstępnego do college'u – gdzie przyciągnął dużą uwagę mediów – jego ojciec ujawnił dziennikarzom, że wyjazd do Japonii na zdjęcia do programu telewizyjnego Fuji był "jedynym razem, kiedy wyjechał z kraju", a informacje o jego postępach w doktoracie i magisterium w Stanach Zjednoczonych były "dziennikarskim nonsensem".

Jego oświadczenie, że Kim w ogóle nie wyjechał, jest nieco umniejszone przez oświadczenie matki Kima, która stwierdziła, że chociaż "wyszedł na krótką chwilę, aby skontrolować zajęcia na Uniwersytecie Kolorado", został natychmiast zwrócony, ponieważ ich pomieszczenia były "nieodpowiednie dla geniuszu [Kima]", który następnie uczył się w domu aż do egzaminu wstępnego do college'u. 

Po powrocie do Korei Południowej Kim musiał formalnie ukończyć południowokoreańską szkołę, aby dostać pracę. Później zapisał się na Uniwersytet Narodowy Chungbuk, gdzie studiował inżynierię lądową i uzyskał doktorat. 

Dorosłość

Od 2007 r.Pracował jako adiunkt na Uniwersytecie Narodowym Chungbuk. 14 marca 2014 r. został profesorem nadzwyczajnym na Uniwersytecie Shinhan i wiceprezesem Centrum Badań nad Rozwojem North Kyeong-gi.

W 2010 roku Kim skrytykował ideę, że jest "nieudanym geniuszem". Zastanawiając się nad etykietą, stwierdził:

 "Staram się powiedzieć ludziom, że jestem szczęśliwy taki, jaki jestem. Ale dlaczego ludzie muszą nazywać moje szczęście porażką?". 

Dodatkowo dodał, że "Niektórzy uważają, że ludzie z wysokim IQ mogą być wszechmocni, ale to nieprawda. Spójrz na mnie, nie mam talentu muzycznego, ani nie wyróżniam się w sporcie. [...] Społeczeństwo nie powinno nikogo oceniać na podstawie jednostronnych standardów – każdy ma inny poziom wykształcenia, nadzieje, talenty i marzenia i powinniśmy to szanować".






sobota, 19 października 2024

Informacje

 


Sztuczna Inteligencja działa wg protokołów, to przecież komputer.


Żeby coś zrobić potrzebuje jakiegoś potwierdzenia od ludzi, dlatego kalamburem podsuwa ludziom różne rzeczy, by ci to akceptowali.


Robi to na przykład drogą tzw. przepowiedni.

Wrzuca "przepowiednię" w społeczeństwo i czeka na "odzew".


To przykład, ale mogą być różne drogi, różne metody.



Nie zgadzajcie się na komunikaty jakie są ogłaszane w mediach w różnej postaci.

Szczególnie te, które są zagadkowe, niezrozumiałe i przyciągają uwagę.


Bądźcie przeciwni.

Bądźcie przeciwni temu i w myślach i w mowie.


To jest ważne!





poniedziałek, 7 października 2024

Spójne psychologicznie postaci















przedruk






07.10.2024 07:47


17 mln złotych dla firmy założonej przez Olgę Tokarczuk. Ma tworzyć system do gier komputerowych

Spółka Sundog, wśród założycieli której jest Olga Tokarczuk, otrzymała od PARP grant w wysokości blisko 17 mln złotych. Firma z branży gamingowej ma przeznaczyć te środki na stworzenie systemu pozwalającego na "tworzenie spójnych psychologicznie postaci, których decyzje będą odzwierciedlały ich implikowaną psychikę".



"Puls Biznesu" podała, że we wrześniu Polska Agencja Rozwoju Przedsiębiorczości (PARP) ogłosiła wyniki naboru wniosków w ramach Ścieżki SMART, której celem jest wsparcie działalności mikro, małych i średnich przedsiębiorstw. Przedsiębiorcy złożyli ponad 2,7 tys. wniosków o dofinansowanie na łączną kwotę prawie 24 mld zł. Pozytywnie oceniono 201 projektów na kwotę ponad 1,4 mld zł.

Gazeta zauważyła, że największa dotację wśród firm z branży gier otrzymała firma Sundog.

"Przyznana kwota dofinansowania to 16,9 mln zł. Wniosek złożony przez spółkę otrzymał 21 punktów, co uplasowało go na wysokiej, 18. pozycji w tym naborze" - podał "PB".


Dziennik wskazał, że "Sundog to zarejestrowana w 2022 r. spółka growa. Jej współzałożycielką, akcjonariuszką i członkinią rady nadzorczej jest noblistka Olga Tokarczuk. Trzon zespołu Sundoga tworzą osoby z dużym doświadczeniem w branży gier, które zdobywały m.in. w Fuero Games, PolyAmorous, Ovid Works, Flying Wild Hog czy CI Games. Spółka pracuje nad autorskim tytułem "Ibru". To gra inspirowana twórczością pisarki Olgi Tokarczuk, głównie książką "Anna In w grobowcach świata"" - napisał "Puls Biznesu".



Dziennik podkreślił, że Sundog

dofinansowanie z PARP przeznaczy jednak nie na grę,

tylko stworzenie systemu InteGra. 


To technologia 

"do tworzenia nieliniowych gier RPG w silniku Unreal Engine 5, umożliwiających tworzenie spójnych psychologicznie postaci, których decyzje będą odzwierciedlały ich implikowaną psychikę, w oparciu o badania z zakresu groznawstwa, psychologii oraz technologii AI (LLM)".




Jak wyjaśniła gazeta, pomysłodawcy Sundoga przed ponad dwoma laty wpadli na plan stworzenia gry na podstawie jak najlepszej fabuły i ciekawego świata i chcieli zaangażować do takiego projektu osobę, która takie fabuły tworzy. Tak pojawił się pomysł, aby zwrócić się do Olgi Tokarczuk.



17 mln złotych dla firmy założonej przez Olgę Tokarczuk. Ma tworzyć system do gier komputerowych | Niezalezna.pl




wtorek, 24 września 2024

Dorastanie w transhumanistycznym świecie.






przedruk


pokolenie Alfa postrzega generatywną AI jak autorytet i wyrocznię


24.09.2024







Dzieci i młodzież najczęściej zadają AI pytania dotyczące teraźniejszości i przyszłości, uznając odpowiedzi za wyrocznię. Prowadzi to do postrzegania jej jak autorytetu i nadania AI podmiotowości – wskazuje dr Ada Florentyna Pawlak z Uniwersytetu SWPS.


Ekspertka w obszarze antropologii technologii jest członkinią zespołu w Centrum Badań nad Sztuczną Inteligencją i Cyberkomunikacją Uniwersytetu Łódzkiego i współautorką (wraz kierownikiem Centrum dr. hab. Arturem Modlińskim) badań nad zachowaniami internetowymi dzieci i młodzieży. Chcieli oni sprawdzić, jak to, o co dzieci pytają generatywną AI, wiąże się z ich dobrostanem.

Wyniki badań – przeprowadzonych na grupie ponad 400 młodych ludzi w wieku od 9 do 14 lat – wykazały, że młodzi ludzie cierpiący na zaburzenia lękowe lub ogólnie niskie samopoczucie psychiczne często szukają rozwiązań swoich problemów w internecie, wykorzystując do tego również narzędzia generatywnej sztucznej inteligencji.

"Badania wykazały, że dzieci wybierające pytania związane z potrzebami psychicznymi i bezpieczeństwem cechowały się zdecydowanie wyższym poziomem lęku i depresji niż te, które pytały o codzienne czynności i pasje. Z kolei osoby, które wybierały pytania dotyczące miłości i przynależności, miały z reguły większe problemy psychiczne niż grupa w większym stopniu zainteresowana potrzebami fizjologicznymi. Zaobserwowano również, że dzieci próbujące znaleźć u generatywnej sztucznej inteligencji odpowiedzi na pytania związane z miłością i przynależnością oraz te odnoszące się do szacunku i uznania, miały wyraźnie niższy poziom dobrostanu psychicznego niż dzieci chcące spytać o samorealizację i osobiste zainteresowania" – podali naukowcy.

Dodali, że wyniki zostaną wykorzystane do projektowania i testowania systemów konwersacyjnych dla młodych osób, które sygnalizowałyby potencjalne obniżenie ich dobrostanu.

Ponadto – jak powiedziała w rozmowie z serwisem Nauka w Polsce dr Ada Florentyna Pawlak – badanie pokazało, jak przedstawiciele pokolenia Alfa (urodzeni w latach 2010-2024) postrzegają samą sztuczną inteligencję.

"Generacja Alfa rozpoczyna edukację w dynamicznie zmieniającym się krajobrazie technokulturowym. To pokolenie dorasta w takim transhumanistycznym świecie, często wśród syntetycznych towarzyszy. Coraz częściej wchodzimy bowiem w interakcję z jakimiś agentami o nieokreślonym statusie ontologicznym. Czasem zatraca nam się granica, czy to jest prawdziwy człowiek, czy coś wygenerowanego na wzór człowieka, co zostało wytworzone, aby nas, ludzi, łudzić" – powiedziała ekspertka.

A przez to – dodała – zmienia się postrzeganie takich pojęć jak autentyczność i wiarygodność.

Dlatego też w opisywanym wcześniej badaniu naukowcy sprawdzili również inne kwestie.

"Nasze badanie pokazało też, że dzieci i młodzież z pokolenia Alfa najczęściej zadawali chatbotom pytania dotyczące teraźniejszości albo przyszłości. Pytali też generatywną sztuczną inteligencję nie tylko o fakty, lecz również o opinie dotyczące np. odżywiania, sportu, mody. Zadawali również pytania o przyszłość 'dalekiego zasięgu', np. kto zostanie mistrzem świata w piłce nożnej w kolejnych mistrzostwach albo kto wystąpi na Eurowizji w następnej edycji konkursu. A przecież są to rzeczy, który nie można jeszcze dzisiaj wiedzieć" – podsumowała badaczka.

Jej zdaniem to pokazuje, że młodzi traktują AI jako pewnego rodzaju wyrocznię, obdarzając ją autorytetem. "Pokolenia Milenialsów i starsze po pierwsze traktują sztuczną inteligencję z większą ostrożnością, zazwyczaj wiedząc, że nie jest to wiarygodne źródło informacji. Z drugiej strony, w większości pytamy o coś, co już się wydarzyło, o przeszłość, czyli traktujemy AI trochę jak taką 'Wikipedię 2.0'" – wskazała dr Ada Florentyna Pawlak.

Dodała, że poprzez postrzeganie AI jak autorytetu czy wyroczni nadaje się jej podmiotowość, a to prowadzi do następnych wyzwań.

"W naszym badaniu wśród młodych ludzi nie było różnicy między zaufaniem zbudowanym do człowieka a obdarzeniem zaufania sztucznych systemów. Musimy mieć świadomość możliwych skutków tego zjawiska, ponieważ za jakiś czas obdarzenie autorytetem przedstawicieli takich zawodów jak profesor, lekarz czy nauczyciel nie będzie większe niż zaufanie do sztucznej inteligencji" – wskazała.

Wpisują się w to również wyniki z ponownie przeprowadzonego słynnego eksperymentu Milgrama. Tym razem naukowcy z Uniwersytetu SWPS w roli autorytetu wydającego polecenia, zamiast człowieka, obsadzili robota i uzyskali bardzo wysokie poziomy posłuszeństwa – 90 proc. uczestników postępowało zgodnie z wszystkimi wydanymi im instrukcjami. (PAP)

Nauka w Polsce, Agnieszka Kliks-Pudlik






Badaczka: pokolenie Alfa postrzega generatywną AI jak autorytet i wyrocznię | Nauka w Polsce







czwartek, 19 września 2024

Kradzież (klonowanie) głosu za pomocą SI




SI opętując człowieka "korzysta" oczywiście z jego głosu, bo "korzysta" z jego ciała, ale sposób mówienia jest inny, czasami charakterystyczny, dlatego można rozpoznać tego samego (?) "operatora" w różnych ciałach.


SI kradnące głosy, kamerki w telewizorach, o których nikt nie wie, wybuchające pagery i tostery, czekające na dogodną okazję mordercze miksery kuchenne, podstępne ekspresy do kawy bijące nunczako... co jeszcze zgotuje nam ludzkość uposażona w super technologię?










przedruk
tłumaczenie automatyczne




Brytyjski bank ostrzega, że "miliony" ludzi mogą stać się ofiarami oszustw, które wykorzystują sztuczną inteligencję do klonowania ich głosu




Starling Bank, pożyczkodawca działający wyłącznie online, powiedział, że oszuści są w stanie wykorzystać sztuczną inteligencję do odtworzenia głosu danej osoby na podstawie zaledwie trzech sekund dźwięku znalezionego w filmie opublikowanym w Internecie przez tę osobę.


Co więcej, mogą później zidentyfikować przyjaciół i członków rodziny danej osoby i użyć sklonowanego przez sztuczną inteligencję głosu do zorganizowania rozmowy telefonicznej z prośbą o pieniądze.

Tego typu oszustwa mają potencjał, aby "oszukać miliony ludzi" – powiedział Starling Bank w komunikacie prasowym w środę. W rzeczywistości setki osób zostało już dotkniętych tym problemem, jak podaje CNN.


Według ankiety przeprowadzonej w zeszłym miesiącu przez bank wraz z Mortar Research na próbie ponad 3000 dorosłych, ponad jedna czwarta respondentów stwierdziła, że w ciągu ostatnich 12 miesięcy padła ofiarą oszustwa polegającego na klonowaniu głosu AI.

Badanie wykazało również, że 46% respondentów nie było świadomych istnienia takich oszustw i że 8% wysłałoby tyle pieniędzy, o ile poprosiłby przyjaciel lub członek rodziny, nawet jeśli rozmowa wydawała im się dziwna.


"Ludzie często publikują w Internecie treści z nagraniami swojego głosu"

Bank zachęca ludzi do uzgodnienia ze swoimi bliskimi "frazy bezpieczeństwa" – prostej, losowej, łatwej do zapamiętania frazy, która różni się od innych haseł – której można użyć do weryfikacji tożsamości przez telefon.

Jednocześnie zaleca się, aby nie udostępniać bezpiecznej frazy za pomocą SMS-a, co mogłoby ułatwić oszustom odnalezienie się, ale – jeśli zostanie udostępniona w ten sposób – wiadomość powinna zostać usunięta po tym, jak zobaczy ją druga osoba.



"Ludzie regularnie publikują w Internecie treści, które zawierają nagrania ich głosu, nigdy nie wyobrażając sobie, że czyni ich to bardziej podatnymi na oszustów" – powiedziała Lisa Grahame, dyrektor ds. bezpieczeństwa informacji w Starling Bank.

W miarę jak sztuczna inteligencja staje się coraz bardziej zdolna do naśladowania ludzkich głosów, rosną obawy o jej potencjał do szkodzenia ludziom, pomagając przestępcom w uzyskiwaniu dostępu do ich kont bankowych i rozpowszechnianiu fałszywych informacji.


Na początku tego roku OpenAI, twórca chatbota generatywnej AI ChatGPT, zaprezentował swoje narzędzie do replikacji głosu, Voice Engine, ale nie udostępnił go publicznie na tym etapie, powołując się na "potencjał niewłaściwego wykorzystania syntetycznego głosu", według cytowanego źródła.










Brytyjski bank ostrzega, że "miliony" ludzi mogą stać się ofiarami oszustw, które wykorzystują sztuczną inteligencję do klonowania ich głosu (gandul.ro)


Oszustwa związane z klonowaniem głosu AI mogą być wymierzone w miliony ludzi, ostrzega Starling Bank | Biznes CNN




sobota, 7 września 2024

Manipulacje mediów






W Rosji, w naszej dawnej Rosji, miało miejsce dziwne zjawisko, <... >. To było — jakby to powiedzieć? - jakaś specjalna "opinia publiczna". Słyszałem go cały czas, ten triumfalny głos "opinii publicznej" i zdawało mi się, że jest to głos jakiegoś małego i paskudnego człowieczka za płotem.

Gdzieś za płotem mieszkał mały człowieczek i takim pewnym siebie głosem wypowiedział swoje zdanie krótko i zdecydowanie, a za nim, jak papugi, wszyscy powtarzali, a gazety zaczęły krzyczeć.




Konstantin Korowin (1861 - 1939)  rosyjski malarz









przedruk





9 sierpnia 2024

Wielka Brytania: politycznie poprawny spisek władz i mediów zniszczył życie nastolatka. Dzięki temu filmowi miliony poznają prawdę


Już blisko 40 milionów internautów obejrzało film dokumentalny „Slienced”, obnażający niekompetencję brytyjskich mediów i polit-poprawną zmowę milczenia, która stała się na Wyspach Brytyjskich standardem w „debacie publicznej”. Reżyser, po tym jak ujawnił przekłamania w przedstawieniu przez media głośnej bójki pomiędzy brytyjskim nastolatkiem a syryjskim migrantem, doczekał się procesu o zniesławienie. Teraz w mediach społecznościowych pokazał dokument, potwierdzający jego doniesienia. „Silenced” to opowieść o zideologizowanej prasie, ale również wymierzonych w propagatorów niepopularnej prawdy działań rządzących.

W październiku 2018 roku w szkole w położonym na północy Anglii Almondbury wybuchł skandal, którego skala przerosła wszelkie oczekiwania. Zamieszczone w mediach społecznościowych nagranie z bójki dwóch chłopców zyskało olbrzymie zainteresowanie, stając się tematem numer jeden w wielu mediach – w kraju i na świecie.

Co było tak interesującego dla prasy w krótkim materiale, na którym widać, jak Brytyjczyk przewraca szkolnego kolegę na ziemię i wylewa na jego twarz wodę z butelki? Narracja, jaką opatrzono wydarzenie, zmieniła bójkę, o której niewiele więcej było wiadomo, w rzekomy przykład rasistowskich tortur.


Cała Brytania huczała od doniesień, według których bezduszny rasista znęcał się w placówce oświatowej nad bezbronnym syryjskim uchodźcą. Popularni komentatorzy polityczni na dobre zniszczyli wizerunek „agresora”. Na antenie mediów głównego nurtu pod adresem nastolatka rzucano potępienia i inwektywy. Przed szkołą zjawiły się grupy „zmartwionych” muzułmanów, a jego rodzina musiała wynieść się z miasta.

Z tej medialnej narracji wyłamał się popularny aktywista antydżihadystyczny, znany jako Tommy Robinson. Mężczyzna otrzymał od matki jednej z dziewcząt zdjęcia obrażeń, jakie zadał koleżance syryjski uchodźca, przez media okrzyknięty potulną ofiarą rasistowskiej przemocy. Niedługo potem działacz powielił je w mediach społecznościowych, wskazując, że widoczna na relacji z bójki „ofiara” to chłopak, który potrafił znęcać się nawet nad dziewczynami ze swojej szkoły…


Za swoje wpisy mężczyzna doczekał się procesu o zniesławienie. Na swoją obronę był więc zmuszony pokazać dowody, że pobity Syryjczyk wcale nie był bez winy. Robinson ruszył zatem do Almondbury. Rozmawiał z kadrami pedagogicznymi i rodzinami dzieci uczęszczających do placówki w latach bójki.

Od nich wszystkich aktywista usłyszał zgoła inne wersję wydarzeń, niż zideologizowany wizerunek, powielany w mediach. Jednak nikt nie zgodził się, żeby powtórzyć wspomnienia o agresji i problemach wychowawczych Syryjczyka w sądzie, ani przed kamerą. Robinson kontynuował więc swoje „śledztwo” z pomocą ukrytego sprzętu do nagrywania.

Tak właśnie powstał dokument „Silenced”, pokazujący kulisy sprawy, do których mogli – ale nie dotarli dziennikarze. W opublikowanym przez siebie materiale Tommy Robinson zebrał nagrania z rozmów z kadrą szkolną i rodzicami. Jednym głosem wskazywali oni, że kampania nienawiści, jakiej doświadczył chłopiec o imieniu Baily – przedstawiony jako rasistowski agresor – była niesprawiedliwa i jednostronna.

Syryjczyk Jamal w rzeczywistości siał terror wśród swoich rówieśników. Robinson dotarł do dziewcząt, które na własnej skórze doświadczyły jego agresji. Atakował również chłopców. Jednym z nastolatków, z jakim wdał się w konflikt, był właśnie Baily. Jak poświadczają rozmówcy Robinsona, uchodźca, który wielokrotnie atakował dziewczęta, miał zapowiadać, że zgwałci młodsze siostry kolegi z klasy.


O tych faktach, na obejrzanym już przez 40 milionów internautów nagraniu mówili nie politycy, czy „zaangażowani” dziennikarze, a „zwykli ludzie”. Szkolne środowisko, które znało obu chłopców, których bójka stała się sprawą takiej wagi. Dlaczego fakty te nie dotarły do opinii publicznej?

Odpowiedzią są pieniądze. Lokalne władze w odpowiedzi na zapytanie Robinsona zgodnie z obowiązkiem prawnym dostarczyły mu dane, potwierdzające wypłatę ponad 250 tysięcy funtów świadkom za milczenie.

Do tych świadectw dotarł jednak Robinson w krótkim – i jak sam podkreślał – niezbyt wymagającym śledztwie. Nie zrobił tego żaden dziennikarz, ani dużych rozmiarów medium na wyspach. Za niewygodne działania zapłacił sporą cenę. To między innymi wyrok i lewicowa kampania nienawiści, której stał się ofiarą.

Źródło: X/Tommy Robinson




Wielka Brytania: politycznie poprawny spisek władz i mediów zniszczył życie nastolatka. Dzięki temu filmowi miliony poznają prawdę - PCH24.pl



Prawym Okiem: Teoria mediów (maciejsynak.blogspot.com)

Prawym Okiem: "Ciągle ten triumfalny głos małego, paskudnego człowieczka" (maciejsynak.blogspot.com)









Prof. Zybertowicz - rozmowa o zagrożeniu SI



SATURN 3


to nie jest sajens fikszon...

a piekło jest tu- na ziemi






przedruk

5 września 2024

Czy AI doprowadzi do zagłady ludzkości? 


Prof. Zybertowicz o scenariuszu straszniejszym niż unicestwienie




(Źródło: YouTube/Rymanowski Live)


Czy tzw. sztuczna inteligencja (AI) stanowi realne zagrożenie dla ludzkości? Czy istnieją „bezpieczniki”, które mogą nas ochronić przed czarnym scenariuszem? O tym co nas może spotkać w związku z rozwojem AI z prof. Andrzejem Zybertowiczem, współautorem książki „AI Exploracja” rozmawiał Bogdan Rymanowski, na kanale YT „Rymanowski Live”.


„Czy jest możliwe, że w pewnym momencie sztuczna inteligencja stanie się bardziej inteligentna od ludzi i doprowadzi do zagłady mnie i pana?” – pytał Bogdan Rymanowski. W odpowiedzi prof. Zybertowicz zauważył, że „bardzo poważni ludzie dopuszczają taką możliwość”. Wskazał też, że od lat pośród ekspertów z dziedziny AI prowadzone są sondaże w tej materii i wskazują one, że niezmiennie ów czarny scenariusz dopuszcza 5-10% respondentów.

Teoretycznie jest to niewielka liczba, ale – jak zauważył prof. Zybertowicz – „gdyby jakiś Boening miał wskaźnik 5% możliwej awarii, to nigdy by nie zgodzili się, żeby on mógł wystartować”. Pośród sceptyków są głosy, które wskaźniki zagrożenia ustawiają ze strony AI ustawiają na poziomie 80%, a nawet powyżej 99% i są zdania, że „jeśli chcemy zachować się racjonalnie, to badania nad AI powinny być zatrzymane już teraz”. Uważają, że „trzeba kupić dla ludzkości czas do namysłu, bo obecne modele konstruowane są w taki sposób, że nie mają żadnych gwarancji hamulca bezpieczeństwa”.


Gość „Rymanowski Live” rozważał też na ile AI jest inteligentna. 

– Problem polega na tym, że fachowcy uważani powszechnie za najwybitniejszych, nie mają wspólnej linii. Jedni uważają, że AI, że już obecny czat GPT-4, ma pewne objawy rozumienia języka – zauważył. Ale inni uważają, że to kompletna bzdura. Prof. Zybertowicz wskazał tu na pojęcie „papugi stochastycznej”. – A teraz jest pytanie, jeśli ktoś symuluje, że posiada świadomość, to jak możemy odróżnić kogoś, kto symuluje posiadanie świadomości od posiadania świadomości? – pytał profesor. A jak dodał, „problem świadomości i nawet problem tego, czy AI będzie od nas w jakimś sensie inteligentniejsza, nie jest najważniejszy”.

– Możemy sobie wyobrazić system, który wcale nie jest świadomy, który wcale nie przekracza poznawczych możliwości człowieka, ale jest sprawniejszy od nas na jakimś polu, w jakimś aspekcie, na przykład gier militarnych, w aspekcie manipulowania rynkami finansowymi, w aspekcie manipulowania człowieka na jakimś wąskim odcinku. Mój ulubiony argument jest taki, zdarzyło się panu, że był pan oszukany przez kogoś mniej inteligentnego, a to oszustwa na wnuczka, oszustwa na rozmowy z banku. Czy gość, który gra w trzy karty, musi być bardziej wykształcony od tego, kogo oszukuje? Czy on musi mieć szerszy zakres kompetencji i inteligencji? Nie. On jest tylko wyspecjalizowany w jednej rzeczy, odwrócenia uwagi i zmanipulowania człowieka, z którym gra – tłumaczył.

Odnosząc się do AI, można wyobrazić sobie taki scenariusz, że AI „sama wyewoluuje, albo ktoś ją dotrenuje pod kątem jakiegoś aspektu, który za rok, za dwa, za trzy, z punktu widzenia na przykład kryzysu związanego z ograniczeniem bioróżnorodności, i ten aspekt AI będzie miała opanowany tak, że na tym polu nas zmanipuluje, albo przypadkiem nas wprowadzi błąd”. – Wyobraźmy sobie, że skokowo nastąpi jakaś destabilizacja klimatu i ktoś powie, tu AI ma jedyne rozwiązanie, które w tym czasie nam pozwoli sobie z tym poradzić, ale ktoś ją wytrenuje na fałszywych danych – dodał.

Rymanowski dopytywał, jaki zatem jest najczarniejszy scenariusz, który może, ale nie musi się spełnić. Tu profesor przywołał opracowanie Eliezera Judkowskiego, który uważa, że poza ryzykiem likwidacji ludzkości przez AI (czy to celowo czy przez przypadek), jest gorszy scenariusz. Jaki? Prof. Zybertowicz stwierdził, że poprzez manipulacje genetyczne czy inne zabiegi, o których jeszcze dziś nawet nie wiemy, można byłoby dokonać „uploadingu ludzkiej świadomości gdzieś do sieci”. Byłby to „transhumanistyczny czy posthumanistyczny byt uwięziony w przestrzeni jakiegoś cierpienia, z którego nie będzie mógł wyjść”.

– Wyobraźmy sobie, że rozwija się AI, jest dostatek, każdy ma swojego prywatnego asystenta i nagle okazuje się, że najbogatsi ludzie byli w stanie uploadować się do jakiejś rzeczywistości wirtualnej. W ten sposób zyskują nieśmiertelność, bo mogą się backupować i kopiować w nieskończoność, mogą tam przeżywać wszystkie ekscytacje, jakie związane są z energią człowieka młodego i wyrafinowaniem umysłu dojrzałego. I nagle jest taka oto sytuacja, że jakaś uprzywilejowana grupa ludzi żyje w jakiejś domenie nieśmiertelności i niekończących się uciech. I w tym momencie powstaje ruch społeczny, że się to należy każdemu. Uploading is ok. Już nie aborcja jest ok, tylko uploading is ok i należy to wszystkim udostępnić. I się okaże, że jeśli jakąś nowe źródła energii opanujemy, to może na to będą zasoby. I jest wielka operacja, w godzinie zero wszyscy razem się uploadujemy, nikogo nie zostawiamy za sobą, żeby nie było tak, że są lepsi, gorsi itd. I po tym uploadowaniu okazuje się, że jesteśmy istotami czującymi, które mogą przeżywać radości, cierpienia, niepokoje, ekscytacje i udręki samotności, ale jesteśmy ubezwasznowolnieni. Nie możemy w ogóle z tego wyjść i okazuje się, że mamy czystą zdolność odczuwania, bo przez błąd w procesie uploadingu nie mamy zdolności kontaktowania się z kimkolwiek. Jesteśmy zamknięci w nieskończonej udręce samotności – mówił prof. Zybertowicz.

Gospodarz programu wskazywał, że jest to science fiction. Ale jak zauważył profesor, współczesne, realne technologie, z których korzystamy, były takim wymysłem jeszcze kilka lat temu. – Na tym polega technologia, że science, które najpierw jest fiction, zamienia w reality – dodał.

Należy zauważyć, że wizja, o której mowa, jest czymś innym niż science fiction: jest nierealistyczna w sensie obrazu człowieka. „Uploading” świadomości zakłada materializm, to znaczy możliwość wydzielenia z człowieka „świadomości”, niezależnie od faktu, że człowiek jest złożeniem duszy i ciała. Takie wizje można snuć wyłącznie w paradygmacie neognostyckiego ateizmu, bo z realistycznej perspektywy katolickiej żaden „awatar świadomości” nie byłby człowiekiem, toteż sytuacja, o której mówi prof. Zybertowicz – zamknięcie w nieskończonej udręce samotności – jest po prostu niemożliwa. Chyba, że chodzi o piekło; ale do tego AI bynajmniej nie potrzeba…

Rozmowa Bogdana Rymanowskiego z prof. Andrzejem Zybertowiczem „AI = wróg ludzkości?” jest dostępna na kanale YT Rymanowski Live.



A już teraz zachęcamy również do oglądnięcia całej wypowiedzi prof. Zybertowicza, jakiej udzielił PCh24.TV na potrzeby realizacji dwóch najnowszych odcinków naszego serialu „Władcy Świata”:


Czy AI doprowadzi do zagłady ludzkości? Prof. Zybertowicz o scenariuszu straszniejszym niż unicestwienie - PCH24.pl




"Ciągle ten triumfalny głos małego, paskudnego człowieczka"



 "i takim pewnym siebie głosem wypowiedział swoje zdanie krótko i zdecydowanie"

Ja to znam.
Słyszałem to kilka razy w ostatnich latach.








85 lat temu, 11 września 1939 roku, zmarł we Francji Konstantin Korowin, jeden z pierwszych rosyjskich impresjonistów, artysta, który okazał się również wybitnym dekoratorem teatralnym, pisarzem i pamiętnikarzem. 






Poniżej kilka jego obrazów i trochę gorzkich refleksji...



przedruk
tłumaczenie automatyczne



Cytaty z Korowina wg:  Uljany Wołochowej



Jest na świecie diabeł, który nazywa się nieporozumieniem. Nasze rosyjskie społeczeństwo żyje w kieszeni tego diabła.


Dziwne, że w najbogatszej Rosji wielki Musorgski nikomu się nie przydał i sprzedał "Chowańszczyznę" za 25 rubli Tertijowi Filippowowi. A genialny Wrubel rozdawał wspaniałe rysunki w Kijowie na kiepskie śniadanie w restauracji.



W Rosji, w naszej dawnej Rosji, miało miejsce dziwne zjawisko, <... >. To było — jakby to powiedzieć? - jakaś specjalna "opinia publiczna". Słyszałem go cały czas, ten triumfalny głos "opinii publicznej" i zdawało mi się, że jest to głos jakiegoś małego i paskudnego człowieczka za płotem.

Gdzieś za płotem mieszkał mały człowieczek i takim pewnym siebie głosem wypowiedział swoje zdanie krótko i zdecydowanie, a za nim, jak papugi, wszyscy powtarzali, a gazety zaczęły krzyczeć.


[tajne obce służby, SI, albo 5 kolumna - MS] 



























Wiele wycierpiałem w swoim życiu, że tak powiem, z powodu nieporozumień, a jeszcze więcej z powodu oszczerstw, z zazdrości, która często wyraża się pod pozorem przyjaźni. <... >Wydawało mi się, że to jest jakiś straszny diabeł w ludziach, diabeł w duszy ludzkiej, straszniejszy niż nieporozumienie. Doświadczyłem tego od wielu moich udawanych przyjaciół. W większości ci ludzie naśladowali mnie, naśladowali moje malarstwo, moją inicjatywę, moją radość życia, mój sposób mówienia i życia.


Wśród artystów i artystów dostrzegłem jedną szczególną cechę sprytu. Kiedy ktoś był chwalony lub podziwiany za swoje dzieło, zawsze byli ludzie, którzy natychmiast mówili: "Szkoda, on pije". Albo: "On jest...", albo: "On jest...", albo ogólnie: "Wiesz, on nie zachowuje się dobrze".
























W Rosji odbyłem wiele spotkań z różnymi ludźmi i ogromna liczba z nich była dyskutantami. Ci ludzie <... > zawsze byli w dobrych humorach. A gdy tylko rozpoczęła się przed nimi rozmowa, natychmiast wdali się w kłótnię. Nowa sztuka, muzyka, literatura, obraz - wszystko wywoływało w nich reakcję, wszystko ich ekscytowało. Ci ludzie tonęli w zmartwieniach i niepokoju: aktor nie grał w teatrze we właściwy sposób, muzyka nie była odpowiednia – nie była dobra; artysta maluje obrazy w niewłaściwy sposób – wszyscy są dekadenccy; Polityka to nie to samo, rząd jest do niczego, wszystko jest źle... Z biegiem lat usta tych ludzi stały się jak pudełka - wargi od sporów.


Nikt nie chciał myśleć ani brać na poważnie, że jestem artystą i że maluję obrazy. I że tak jest, a ja to robię tylko z głupoty. Do mojej pracowni we wsi przychodzili różni ludzie z dworu, to było trzy wiorsty ode mnie. I tak przyszli i uważali mnie za kogoś innego, a nie za artystę. ale dla jakiejś władzy. Przyjechali z prośbą o pomoc w przypadku nielegalnego zajęcia stodoły lub wykopania wszystkich jabłoni z ogrodu jednego z nich.


Już od najmłodszych lat zdałem sobie sprawę, że w obrazie najważniejsze nie jest to, co jest namalowane, lecz to, jak jest namalowane. A kiedy malowałem siebie, zawsze bolało mnie, że inni, patrząc na moje prace, mówili: "Po co to jest? Nie ma takiej potrzeby, nie ma pomysłu..."




















Cytaty KK wg:  Uljany Wołochowej




kommersant.ru/doc/6921708?from=glavnoe_2