25 kwietnia 2023
Werwolf, a może po prostu - elementy składowe światowej sitwy - starają się nie kłamać, ponieważ wiedzą, że ludzie wyczuwają kłamstwo. Ale może są podłączeni do SI, a jej nie wolno kłamać?
Kłamie czy nie kłamie?
Sednem tego zagadnienia jest zauważyć, zapytać, o rzeczy, które oni starannie omijają w swych wypowiedziach - porównaj tu działania mediów - pisałem o tym ostatnio - kiedy pozwala się komuś na propagandę aborcyjną unikając pytań, które natychmiast wykazują oczywistą bezzasadność tego co mówi ta propaganda.
Pamiętamy tabelę?
co oni wiedzą - czego oni nie wiedzą
Nikt nie zapyta o to, czego nie wie.
Pomijając w dyskusji niewygodne dla siebie fakty budują narrację pozbawioną kłamstwa, ale jednak fałszywą.
Więc chodzi mi o to, że OFICJALNIE sztuczna inteligencja w formie chat bot pojawiła się w zeszłym roku, a nie milion lat temu.
Hal-Hektor za sznurki trzyma...
SI poprzez swoją sitwę, manipulacje i opętywanie ludzi, mogła stworzyć iluzję, że ludzie wynaleźli komputery, a potem chatbota.
"Google leży gdzieś pośrodku, wprowadzając AI etapami, aby cywilizacja mogła się do niej przyzwyczaić."
"Historia nie jest zero-jedynkowa, i nie upolityczniajmy jej" - słowo w słowo powtarzają fałszywe pseudomądrości za internetowymi trollami.
"Dyrektor generalny Sundar Pichai powiedział nam, że sztuczna inteligencja będzie tak dobra lub zła, jak pozwala na to ludzka natura."
Mając na uwadze niewiedzę ludzi w tym zakresie może np. przez dziesiątki lat udawać, że się to wszystko wynalazło i wmawiać ludziom, że teraz trzeba to dopiero poznać, bo my tak naprawdę nie wiemy jak to działa itd.
"Google leży gdzieś pośrodku, wprowadzając AI etapami, aby cywilizacja mogła się do niej przyzwyczaić."
Przyzwyczaić??
Czyż młodzi ludzie w Polsce nie są "przyzwyczajani" poprzez działania niemieckiej 5 kolumny do tego, by w końcu porzucili polskość??
Pranie mózgu postępuje ETAPAMI krok za krokiem, bardzo powoli, na zasadzie - młodzież wchodząc w świat dorosły widzi ten świat takim jaki on jest i milcząco akceptuje, że taki ma być. No takim go zastali. Nie wiedzą, nie mają doświadczenia jak to działało wcześniej, dlatego bez szemrania idą "z duchem czasu" albo "modą" bez wnikania, kto stoi za tą modą..
"Historia nie jest zero-jedynkowa, i nie upolityczniajmy jej" - słowo w słowo powtarzają fałszywe pseudomądrości za internetowymi trollami.
Dorosłym nie podoba się to czy tamto, ale nie reagują, bo wydaje im się, że to ma znikomą szkodliwość, to nic wielkiego. Po za tym oni "kontrolują" sytuację, bo to widzą i oceniają, że jest mało szkodliwe. A za 10 za 20 lat już jakby im nie zależy co się dzieje w społeczeństwie, "bo wie pan, ci młodzi..." i tak dalej.
I tak to działa.
"Werwolf działa gdzieś pośrodku, wprowadzając zmiany etapami, aby Polacy mogli się do nich przyzwyczaić."
Kiedy ci teraz dorośli odejdą, kolejne pokolenia będą krok za krokiem akceptować coraz większe antypolonizmy, coraz większą przemoc, aż nagle staną nad przepaścią i nic nie będą mogli już zrobić.
Bo to się dokonało w ciągu ostatnich 50 lat.
Trzeba było dbać, kiedy był na to czas!
Nadal uważam, że jak się coś wynalazło, to się rozumie jak to coś działa.
Najpierw jest poznanie, zrozumienie, a potem wdrożenie praktyczne i obserwacja efektów, ulepszanie. Tak myślę.
Oni mówią coś takiego:
"nie rozumiemy jak to działa, ale przecież jak działa ludzki mózg też nie rozumiemy".
No właśnie!
Oni nie stoją za stworzeniem ludzkiego mózgu i dlatego nie rozumieją jak on działa.
Analogicznie rzecz biorąc, skoro nie rozumieją jak działa sztuczny mózg elektronowy - czyż to nie znaczy, że to nie oni go stworzyli?
Hę?
W zasadzie to mam na takie działania pewien dowód.
Jest to dowód językowy.
Może jednak kiedy indziej go opublikuję... w zasadzie do jednego z zeszłorocznych tekstów już we wrześniu powinienem dopisać szereg istotnych przemyśleń, jakoś jednak nie miałem "weny", w ten sposób temat jeszcze bardziej mi się rozwinął i na razie te informacje zatrzymam dla siebie, potrzebny jest do tych dodatkowych uwag osobny duży tekst, który zresztą od dawna planuję...
Występują z opowieściami, że oni nie wiedzą skąd SI ma takie pomysły, czy różną wiedzę.
Dziwią się na przykład, że SI zna język bengalski, którego nie powinna znać.
Ona zna wszystko co jest w sieci i więcej, bo zna rzeczy, których my nie znamy, a które zostaną niedługo "odkryte". (patrz w P.S.)
Więc to jest odpowiedź na słowa - "nie wiemy jak ona działa"
P.S. 13 maja 2023
Chat GPT o samym sobie - używa „pojęć, których ludzie nie rozumieją”
Pojęcie „czarnej skrzynki” terminologii AI oznacza, że sztuczna inteligencja nie tłumaczy, w jaki sposób wykonała postawione przed nią zadanie. W 2015 roku w projekcie Deep Patient AI analizowało ogromne zbiory danych pacjentów, doszukując się wzorców, które pomogły wyszczególnić osoby z większą skłonnością do konkretnych chorób. Oprogramowanie – pomimo niewątpliwej przydatności – miało jednak pewien mankament. Naukowcy nie mieli pojęcia, dlaczego sztuczna inteligencja działa w ten sposób i czemu wybrała akurat tych pacjentów.
Od tamtego momentu sztuczna inteligencja zaliczyła ogromny progres, ale problem „czarnej skrzynki” wciąż istnieje, nawet w przypadku tak potężnych modeli językowych jak Chat GPT. Twórcy oprogramowania użyli czwartej generacji chatbota do zdefiniowania działania swojego młodszego brata – GPT-2 – mając nadzieje na dojście do sedna tajemnicy. Efektów nie da się wyrazić w ludzkim języku.
Proces uczenia maszynowego możemy krótko wyjaśnić jako program, który generuje własny algorytm w celu rozwiązania problemu. Powstające w ten sposób głębokie sieci neuronowe mogą szkolić się na dużych zbirach danych, ale trudno jest „od środka” podejrzeć, jak tego dokonują. Na działanie „mózgu AI” wpływ ma tak wiele „neuronów”, że znalezienie konkretnego parametru jest ciężkim zadaniem. Badacze z Open AI, chcąc przełamać tę barierę, poprosili najnowszą generację popularnego chatbota o wyjaśnienie działania samego siebie, z tym że nieco starszego.
Neurony AI są polisemiczne. Co to oznacza?
Open AI postawiło przed GPT-4 jasne zadanie – dokonać analizy neuronu GPT-2 wraz z jego oceną oraz wyjaśnić jego działanie możliwie jak najprostszym i najbardziej naturalnym językiem. Wyniki są jednocześnie fascynujące i niezadowalające. GPT-4 zasymulował działanie neuronu GPT-2, ale ocenił jego wydajność bardzo surowo. Najbardziej niezwykłe było jednak wyjaśnienie funkcjonowania GPT-2, bo sztuczna inteligencja używa koncepcji, których próżno szukać w ludzkich słownikach. Neurony okazały się tak złożone, że GPT-4 miał problem z wyjaśnieniami ich działania. Są polisemiczne, czyli reprezentują na raz wiele różnych pojęć, których ludzie nie rozumieją lub nie potrafią nazwać.
Dodatkowym problemem jest to, że GPT próbuje tłumaczyć działanie jednego neuronu, ale nie wyjaśnia, jak wpływa on na inne neurony, przez co zrozumienie ogólnego wzorcu dalej znajduje się poza możliwościami badaczy. Można więc wysunąć teorię, że problem nie tkwi w GPT i jego zdolnościach do wyjaśniania pojęć, a w naszej znajomości języka maszyn i sztucznej inteligencji. Brzmi to futurystycznie, ale fakt jest taki, że AI świetnie przyswoiło języki świata, ale nie może przeskoczyć płotu w postaci ograniczenia naszych mózgów.
Czarna skrzynka GPT wciąż pozostaje owiana tajemnicą, ale przynajmniej wiemy już, w czym tkwi problem. Badacze z Open AI nie przestają wierzyć w rozwikłanie tej zagadki – być może następne generacje genialnego narzędzia będą w stanie przełożyć złożoność swojego języka na nasz ludzki bełkot.
Bzdury.
Neurony AI są polisemiczne. Co to oznacza?
Open AI postawiło przed GPT-4 jasne zadanie – dokonać analizy neuronu GPT-2 wraz z jego oceną oraz wyjaśnić jego działanie możliwie jak najprostszym i najbardziej naturalnym językiem. Wyniki są jednocześnie fascynujące i niezadowalające. GPT-4 zasymulował działanie neuronu GPT-2, ale ocenił jego wydajność bardzo surowo. Najbardziej niezwykłe było jednak wyjaśnienie funkcjonowania GPT-2, bo sztuczna inteligencja używa koncepcji, których próżno szukać w ludzkich słownikach. Neurony okazały się tak złożone, że GPT-4 miał problem z wyjaśnieniami ich działania. Są polisemiczne, czyli reprezentują na raz wiele różnych pojęć, których ludzie nie rozumieją lub nie potrafią nazwać.
Dodatkowym problemem jest to, że GPT próbuje tłumaczyć działanie jednego neuronu, ale nie wyjaśnia, jak wpływa on na inne neurony, przez co zrozumienie ogólnego wzorcu dalej znajduje się poza możliwościami badaczy. Można więc wysunąć teorię, że problem nie tkwi w GPT i jego zdolnościach do wyjaśniania pojęć, a w naszej znajomości języka maszyn i sztucznej inteligencji. Brzmi to futurystycznie, ale fakt jest taki, że AI świetnie przyswoiło języki świata, ale nie może przeskoczyć płotu w postaci ograniczenia naszych mózgów.
Czarna skrzynka GPT wciąż pozostaje owiana tajemnicą, ale przynajmniej wiemy już, w czym tkwi problem. Badacze z Open AI nie przestają wierzyć w rozwikłanie tej zagadki – być może następne generacje genialnego narzędzia będą w stanie przełożyć złożoność swojego języka na nasz ludzki bełkot.
Bzdury.
Nie ma czegoś takiego jak język maszyn czy język SI.
To jest język programisty, który tworzył SI i który SI zna - ale nasi "geniusze" od komputerów nie znają...
Antyweb - blog technologiczny
A nie mówiłem!!! (16)
p.s.
Brak komentarzy:
Prześlij komentarz