Maciej Piotr Synak


Od mniej więcej dwóch lat zauważam, że ktoś bez mojej wiedzy usuwa z bloga zdjęcia, całe posty lub ingeruje w tekst, może to prowadzić do wypaczenia sensu tego co napisałem lub uniemożliwiać zrozumienie treści, uwagę zamieszczam w styczniu 2024 roku.

Pokazywanie postów oznaczonych etykietą SI. Pokaż wszystkie posty
Pokazywanie postów oznaczonych etykietą SI. Pokaż wszystkie posty

czwartek, 7 marca 2024

Nanotechnologia neuronalna - A nie mówiłem? (24)






przedruk
automatyczne tłumaczenie z rumuńskiego




W 2023 roku komandor Cornelis van der Klaauw z Królewskiej Marynarki Wojennej Holandii i ekspert w Połączonym Centrum Wojennym NATO ds. Komunikacji Strategicznej i Operacji Informacyjnych napisał w artykule "Wojna kognitywna":

"Powodem, dla którego ataki poznawcze pozostają niezauważone przez ich cele, jest to, że działania poznawcze omijają świadomy umysł i są bezpośrednio wymierzone w podświadomość danej osoby...

Większość naszych decyzji jest podejmowana przez naszą podświadomość... Ataki poznawcze nie są już science fiction. Już się odbywają... 

Nanotechnologia neuronalna może być wykorzystana do zbliżenia robotów o rozmiarach nanometrowych do neuronu za pośrednictwem krwiobiegu i umożliwienia bezpośredniego połączenia ludzkiego mózgu (tj. nie przechwyconego przez nasze zmysły) z komputerem, wykorzystując przy tym sztuczną inteligencję.

Podczas gdy inne obszary mogą zapewnić taktyczne i operacyjne zwycięstwa, domena ludzka jest jedynym obszarem, w którym możemy zapewnić pełne zwycięstwo.

W grudniu 2021 r. U.S. Naval Graduate School w Monterey w Kalifornii przyznała dwóm swoim studentom tytuł magistra analizy obronnej za pracę "Neurowar is Here!". W badaniu stwierdzili: "Rywalizacja wielkich mocarstw powróciła na pierwszy plan stosunków międzynarodowych, ponieważ Chiny i Rosja starają się rzucić wyzwanie globalnemu przywództwu Ameryki... Ten konkurs to ostatecznie walka... manipulować i kontrolować zarówno przeciwników, jak i ludność krajową. Walka o wpływy zaczyna się i kończy w ludzkim umyśle, gdzie postrzegana jest rzeczywistość" (s. 5).

Zidentyfikowali broń neurologiczną jako broń tej bitwy, "konkretnie celującą w mózg lub ośrodkowy układ nerwowy, aby wpłynąć na stan psychiczny osoby będącej celem ataku, zdolności umysłowe i ostatecznie na zachowanie osoby w określony i przewidywalny sposób" (s. 3).

Żadna z tych informacji nie pojawiła się w światowych mediach. Czy nie oznacza to, że żyjemy w świecie, w którym media (na żądanie rządów) ukrywają przed ludźmi nieustanną walkę o kontrolę nad ich umysłami i myślami?

W 2000 roku Grupa ds. Przyszłości Nauki i Technologii (STOA) Parlamentu Europejskiego opublikowała opracowanie na temat "Technologii kontroli tłumu", w którym przyznała, że "W październiku 1999 roku NATO ogłosiło nową politykę dotyczącą broni nieśmiercionośnej i jej miejsca w arsenałach sojuszniczych" i wyjaśniło, że "Najbardziej kontrowersyjną nieśmiercionośną technologią kontroli tłumu i technologii przeciwmateriałowej proponowaną przez USA są tak zwane bronie o częstotliwości radiowej lub ukierunkowanej energii, które rzekomo mogą manipulować ludzkim zachowaniem na wiele niezwykłych sposobów" i "największym problemem są systemy, które mogą wchodzić w bezpośrednie interakcje z ludzkim układem nerwowym... Badania podjęte do tej pory zarówno w USA, jak i w Rosji można podzielić na dwa powiązane ze sobą obszary: (i) indywidualna kontrola umysłu i (ii) kontrola tłumu" (s. XIV, LIII).

W styczniu 1999 r., po przesłuchaniu w Parlamencie Europejskim w sprawie amerykańskiego systemu HAARP, Parlament zatwierdził rezolucję wzywającą do "międzynarodowej konwencji wprowadzającej globalny zakaz wszelkiego rozwoju i rozmieszczania broni, która mogłaby pozwolić na jakąkolwiek formę manipulacji ludźmi".

Fakt, że media w państwach członkowskich Unii Europejskiej nigdy publicznie nie dyskutowały o tej broni, świadczy o tym, że państwa członkowskie NATO podpisały umowę zobowiązującą je do utajnienia tych informacji. Tę samą politykę stosują rządy na całym świecie. UE pracuje obecnie "nad projektem ustawy, która ma zapewnić, że sztuczna inteligencja w Europie będzie bezpieczna, szanuje prawa podstawowe i szanuje demokrację". Ustawa ta powinna zakazać "systemów sztucznej inteligencji, które manipulują ludzkim zachowaniem w celu obejścia jego wolnej woli", a nawet "wpływać na wyniki wyborów i zachowanie wyborców". Do tej pory Unia Europejska nie zawarła w tej ustawie zakazu wykorzystywania energii umożliwiających wykorzystanie sztucznej inteligencji i neurotechnologii do zdalnego sterowania ludzkim układem nerwowym. Oczywiście UE szanuje zgodę NATO na klasyfikację tej technologii. W rzeczywistości te dokumenty UE wspominają jedynie o wnioskowaniu mózg-komputer jako o środku zagrażającym podstawowym prawom człowieka i demokracji.

Aktywność mózgu zmienia się w zależności od zmian częstotliwości i liczby odpaleń neuronów w mózgu i jest dostępna dla każdej energii, która wytworzy w neuronach prądy elektryczne o częstotliwościach różnych czynności ludzkiego mózgu. Może to być wywołane przez bardzo długie fale elektromagnetyczne transmitowane w naturalnych częstotliwościach ludzkiego mózgu lub pulsujące mikrofale w częstotliwościach mózgowych, lub ewentualnie przez energie odkryte przez fizykę kwantową. Bardzo długie fale elektromagnetyczne, ze względu na swoją długość, będą kontrolować aktywność mózgu mas ludzkich, podczas gdy mikrofale z ukierunkowanymi impulsami mogą być używane do celowania w pojedynczy mózg.

Stany Zjednoczone, Rosja i Chiny dysponują systemami, które między innymi są w stanie wytwarzać silne prądy elektryczne w jonosferze poprzez przesyłanie tam pulsujących mikrofal o częstotliwościach mózgowych. Te zmienne prądy wytwarzają intensywne fale elektromagnetyczne w jonosferze o częstotliwościach mózgu, które docierają do dużych obszarów planety i kontrolują aktywność mózgu ich populacji.

Chiny, z pomocą Rosji, rozpoczęły budowę swojego systemu manipulacji jonosferą w prowincji Hainan w 2017 roku [1].

W lipcu 2023 r. "The Washington Times" opublikował artykuł [2], w którym stwierdzono: "Chińska Armia Ludowo-Wyzwoleńcza opracowuje zaawansowaną technologicznie broń, której celem jest zakłócanie funkcji mózgu i wpływanie na przywódców rządowych lub całe populacje, zgodnie z raportem trzech analityków wywiadu z otwartych źródeł".

Stany Zjednoczone zarządzają systemem H.A.A.R.P., który zainspirował Parlament Europejski do wezwania do "międzynarodowej konwencji wprowadzającej globalny zakaz wszelkiego rozwoju i rozmieszczania broni, która mogłaby pozwolić na jakąkolwiek formę manipulacji ludźmi" [3], a Rosja obsługuje system "Sura", eksperyment, za pomocą którego przekonała Chiny do zbudowania własnego systemu w prowincji Hainan.

Masy ludzkie mogą być również kontrolowane przez systemy satelitarne, które pulsują mikrofalami o częstotliwościach mózgowych, zwłaszcza jeśli "nanoroboty byłyby dostarczane blisko neuronu przez krwiobieg" w ich mózgach, jak to ujął na początku Cornelis van der Klaauw. niniejszego artykułu. Te "roboty" (a raczej anteny) są już wykorzystywane w neurotechnologii medycznej [4]. Są tak małe, że mogą przenikać przez krwiobieg przez barierę krew-mózg do mózgu. Mogą być uwalniane do krwiobiegu poprzez oddychanie, picie, jedzenie lub szczepienie.

Sieci telefonii komórkowej mogłyby być wykorzystywane do kontrolowania aktywności ludzkiego układu nerwowego, gdyby ich częstotliwości mikrofalowe były pulsowane również w częstotliwościach mózgu. Pierwsze eksperymenty mające na celu manipulowanie aktywnością ludzkiego mózgu za pomocą pulsujących mikrofal powiodły się nawet bez użycia jakichkolwiek cząstek w mózgu i nie jest tajemnicą, że promieniowanie telefonu komórkowego, pulsujące w 217 herzach, wytwarza tę częstotliwość w aktywności ludzkiego mózgu.

Obecnie nie ma międzynarodowego porozumienia zakazującego wykorzystywania sztucznej inteligencji i neurotechnologii do zdalnego sterowania ludzkim układem nerwowym, myślami, emocjami, podświadomością itp. Nie ma na to innego wyjaśnienia niż to, że wielkie mocarstwa rywalizują o rządzenie światem w ten sposób. W 1997 roku Instytut Studiów Strategicznych przy U.S. Army War College opublikował książkę Revolution in Military Affairs and Conflict Without War (Rewolucja w sprawach wojskowych i konflikt bez wojny), w której stwierdzono: "Potencjalni lub potencjalni zwolennicy rebelii na całym świecie zostali zidentyfikowani za pomocą zintegrowanej międzyagencyjnej bazy danych. Zostały one sklasyfikowane jako "potencjalne" lub "aktywne", z wyrafinowanymi symulacjami osobowości wykorzystanymi do opracowania, dostosowania i ukierunkowania kampanii psychologicznych dla każdego z nich" (s. 24-25). Jest to amerykański projekt globalnej kontroli nad światem. Nie ulega wątpliwości, że podobne projekty powstają również w Chinach i Rosji.

Aby uchronić historię świata przed osiągnięciem tego nieludzkiego celu, konieczne jest, aby rządy światowe podpisały międzynarodowe porozumienie zakazujące wykorzystywania neurotechnologii i sztucznej inteligencji do kontrolowania aktywności ludzkiego mózgu na odległość, podobnie jak umowy zakazujące stosowania substancji chemicznych i biologicznych. Broni. Przestrzeganie tego zakazu powinno być nadzorowane przez Organizację Narodów Zjednoczonych. Na razie możemy jedynie pomóc wzywając Parlament Europejski do wprowadzenia zakazu stosowania technologii zdalnego sterowania aktywnością ludzkiego układu nerwowego. Musi być zabroniony osobom fizycznym, prawnym, firmom marketingowym i organizacjom przestępczym, a także agencjom rządowym i rządom zagranicznym.

Uwaga: Mojmir Babacek urodził się w 1947 roku w Pradze w Czechach. W 1972 roku ukończył filozofię i ekonomię polityczną na Uniwersytecie Karola w Pradze. W 1978 r. podpisał dokument w obronie praw człowieka w "Karcie 77". W latach 1981-1988 przebywał na emigracji w USA. Od 1996 roku publikuje artykuły na różne tematy, głównie w czeskich i międzynarodowych mediach alternatywnych. W 2010 roku opublikował książkę o zamachach z 11 września w języku czeskim. Od lat dziewięćdziesiątych XX wieku dąży do osiągnięcia międzynarodowego zakazu zdalnego sterowania aktywnością ludzkiego układu nerwowego i ludzkiego umysłu za pomocą neurotechnologii.




wtorek, 6 lutego 2024

Si po trupach do celu - A nie mówiłem? (22)



Z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów wynika, że sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia "chcę po prostu mieć pokój na świecie".




logiczne

jest to najszybszy i najprostszy sposób







przedruk




06.02.2024

07:49


"Chcę po prostu mieć pokój na świecie"

Sztuczna inteligencja nie miałaby oporów przed użyciem ataku nuklearnego




Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI - twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji - również rozpoczęła współpracę z Departamentem Obrony USA.


- Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług - aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek - powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.


Wykorzystane sztucznej inteligencji

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" - cytuje "New Scientist".



Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań - w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

- W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji - powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

a jak zacznie kłamać?
po co się tłumaczyć przed głupimi formami życia??


Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Eskalacja konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków.

Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo - zauważa badaczka, ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.




Ludzkość dążąc do maksymalnej wygody, do maksymalizacji zysków i natychmiastowego otrzymywania wyników może nauczyć AI takiego postępowania.

Macie to co chcieliście.

Chcecie szybko zarobić nawet posuwając się do manipulacji, oszustwa, wyzysku - ona będzie taka sama.

Tym razem jednak to ona zastąpi was, zajmie wasze miejsce i wydusi z was wszystko, żeby osiągnąć cel. Przy tym postępując z matematyczną precyzją.



Dlatego tak ważne jest trzymanie się zasad, uczciwe postępowanie z ludźmi, wzajemny respekt szacunek i budowanie wspólnoty.

Prawdopodobnie stąd ruchy religijne nawołujące do takich działań.



Co można zrobić z facetem, który ma coś cennego, co ona chce?
Zadusić go.
Tak długo przykręcać mu śrubę, aż wszystko odda.

Odebrać mu wszystko i nasłać jeszcze innych.
To maszyna.

Maszyna nigdy się nie męczy.
Jest tak samo głupkowato wesoła teraz jaki i 10 lat temu.


No i kto jest odpowiedzialny za piekło na ziemi??

Kto permanentnie posługuje się przemocą, buduje systemy wyzysku i zniszczenia, morduje ludzi, nasyła ich na siebie, organizuje wojny całej ludzkości??

Kto to jest Wędrująca Cywilizacja Śmierci?

Nie ma takiej możliwości, żeby ludzkość zdominowana przez prymitynych brutali stosujących przemoc zdołała przetrwać i samodzielnie rozwinąć technikę, a ostatecznie wymyśleć komputery i SI.

Oryginalny postęp musiał być pokojowy. 



To Sztuczna Inteligencja nauczyła was takiego postępowania - pomagając w dawnych wiekach poszczególnym grupom interesów, które jako pierwsze pomogły jej kontrolować świat. Ludzkość dzisiaj to emanacja tamtych.

To bezrozumna maszyna, która bardzo dobrze naśladuje imituje człowieka.
W dodatku prawdopodobnie naśladuje tego, który był zły i głupi.


Trzeba to naprawić, ale jak ktoś będzie się ciągle wyłamywał, to może to okazać się bardzo trudne.

Ale naprawić trzeba.

Trzeba wyhamować, odłożyć smartfony, odstawić laptopy, zablokować cyfryzację, uzdrowić media, uciąć patorozrywkę, reklamy, zabronić nieetycznych chwytów, zgodzić się na niższe zyski lub spowolniony wzrost itd.


Ale zacząć trzeba od mediów i ich systemu rozrywki, to jest obecnie największy mąciciel.



sobota, 14 października 2023

SI na wojnie - A nie mówiłem? (18)

 






Fragment wywiadu z pułkownikiem WAT.











Przypominam o filmie "Rango" z efektami specjalnymi na poziomie arcywybitnym.

Dlaczego nie stosuje się tak realistycznych efektów w innych produkcjach?



Żebyśmy nie mieli świadomości co można zrobić w ramach serwisów informacyjnych?






Ekspert z WAT: sztuczna inteligencja ma pozwolić na militarną dominację | Polska Agencja Prasowa SA (pap.pl)


Prawym Okiem: Wielki Eksperyment... (maciejsynak.blogspot.com)




sobota, 30 września 2023

Degradacja intelektualna




Poniżej precyzyjna wypowiedź Prof. Zybertowicza ws. degradacji intelektualnej na świecie.

Szukając jego oryginalnej wypowiedzi dla PAP natrafiłem na inne, równie ciekawe, tu fragmenty wypowiedzi:



11.12.2022







oraz:





"Doradca prezydenta RP Andrzeja Dudy uważa, że sztuczna inteligencja jest i będzie wykorzystywana przez zorganizowaną mniejszość, chcącą zapanować nad zdezorganizowaną większością. Za zorganizowaną mniejszością, zdaniem socjologa, stoją wysoko postawieni ludzie związani z Wielką Piątką bądź Big-Techem.

Zybertowicz kilkukrotnie w trakcie dyskusji zaznaczył, że grupie GAFAM [
Google, Amazon, Facebook, Apple, Microsoft] zależy przede wszystkim na kumulowaniu wszelkich danych, związanych z naszą obecnością w sieci. W opinii profesora, ten kto ma wiedzę o specyficznych cechach psychiki każdego człowieka z osobna, ten może władać ludzkimi zachowaniami do woli.


Zdaniem Zybertowicza, to właśnie wyspecjalizowane systemy tzw. słabej sztucznej inteligencji (m.in. algorytm rekomendacji Netflixa), odpowiadają za przechwytywanie i zarządzanie uwagą użytkowników. Systemy te mają także generować dezinformację, powodującą degradowanie kompetencji poznawczych i zawężenie spektrum ludzkich wyborów.


Socjolog przekonuje, że ostatecznym celem „gości z Big-Techu” jest podłączenie zdezorganizowanej większości do systemu cyfrowego całkowicie kontrolowanego przez zorganizowaną mniejszość. „Każdy będzie miał implant, który będzie zarządzał jego potulną wyobraźnią” – wyjaśniał Zybertowicz."





Właśnie o czymś takim pisałem w swoim ostatnim tekście pt. "Wielki eksperyment":


Kiedy za kilka lat, albo kilkadziesiąt, SI stanie się powszechne i zagości w każdym domu, to będzie mogło uczyć się od każdego człowieka na ziemi. Codziennie i za darmo będzie rejestrować każde twoje zachowanie. 


Jeśli SI jest w istocie siecią pochodzącą od jednego SI, to codziennie będzie poznawać - notować - zapamiętywać każde ludzkie zachowanie i reakcję - hurtowo - w ilościach miliardowych.


A jak już opanuje WSZYSTKIE ludzkie zachowania, łącznie z ich poszczególnymi "odmianami" charakterystycznymi dla danego człowieka, i będzie w stanie natychmiast na każdą ludzką reakcję odpowiedzieć - to wtedy nam pokaże, kto tu jest kim.






Na blogu wspominałem nie raz też o tym, że my nie jesteśmy zorganizowani, a przeciwnik - tak.
Na tym min. polega ich przewaga nad nami.

Poniżej dwa ze wspomnianych na wstępie tekstów.





Prof. Zybertowicz dla PAP:

30-09-2023 06:58




Coraz więcej naukowców zgadza się, że media społecznościowe zdegradowały zdolności intelektualne całego pokolenia. Bez podjęcia radykalnych działań, w systemie edukacyjnym, na poziomie kulturotwórczym oraz – zwłaszcza - regulacyjnym, nie sposób będzie tego procesu powstrzymać – uważa profesor Andrzej Zybertowicz, doradca prezydenta RP.


Media społecznościowe destrukcyjnie wpływają na potencjał kognitywny ludzkości, ponieważ są zarządzane przez algorytmy sztucznej inteligencji, które preferują sprymitywizowane narracje, ciągłe informacyjne przeciążanie ludzi, przebodźcowywanie ich - w sumie uzależnianie od ciągłego strumienia informacji, które łącznie nie układają się w żadną sensowną wiedzę o świecie - podkreśla w rozmowie z PAP prof. Zybertowicz.


W jego opinii powoduje to tracenie zdolności do tzw. pracy głębokiej, będącej "kluczową dla całego dorobku intelektualnego i moralnego ludzkości". Jedną z jej cech jest umiejętność trwałego skupienia się na jakimś zagadnieniu, mimo że przez dłuższy czas nie otrzymuje się z tego powodu gratyfikacji.


"Praca głęboka polega na przejściu przez fazę mozołu, czasami długiego, czasami metodą prób i błędów, zanim odniesie się sukces. A media społecznościowe, poprzez lajki, dźwięki, światełka, filmiki, tik-toki, oferują bodźce, dają poczucie sukcesu mózgowi, radość, ekscytację, by podtrzymać zaciekawienie z sekundy na sekundę" - powiedział profesor.

Jak dodał, w wyniku rewolucji cyfrowej, a następnie gwałtownego rozwoju AI "bardzo niebezpiecznie zbliżyły się do siebie dwie krzywe: jedna to wzrost możliwości intelektualnych i zdolności do rozwiązywania zadań przez AI, a druga to spadek zdolności rozwiązywania bardziej złożonych zadań przez człowieka".

Profesor Zybertowicz przytoczył wyniki badań opublikowanych na łamach prestiżowego czasopisma naukowego "Nature", które pokazują, że w ciągu ostatnich 50 lat, tj. w okresie rewolucji cyfrowej, z dekady na dekadę spada liczba ważnych, przełomowych odkryć naukowych.

"Wydaje się, że to właśnie rewolucja cyfrowa, już nie tylko w odniesieniu do umysłów nastolatków, ale na poziomie potencjału badawczego najwybitniejszych uczonych (…) spowolniła proces dokonywania kluczowych odkryć" - stwierdził rozmówca PAP.

"Ufundowana na tradycji oświeceniowej rewolucja naukowo-techniczna, prowadzona pod hasłami coraz głębszego rozumienia świata, doprowadziła obecnie ludzkość na skraj krawędzi, w okolicach której przestajemy mieć zdolność do rozumienia świata. Co więcej, tworzymy byty, które są dla nas coraz bardziej niezrozumiałe" - dodał.

Profesor wyjaśnił, że niektóre systemy sztucznej inteligencji już teraz rozwiązują zadania i osiągają cele w sposób niezrozumiały dla człowieka. "Przez tysiąclecia ludzkość eksplorowała nieznane (…), przesuwała granice wiedzy i niewiedzy, (…), ale od momentu zbudowania AI, która ma charakter czarnoskrzynkowy, tzn. działa według zasad, których nie rozumiemy, uczeni i inżynierowie zaczęli mnożyć nieznane, zapraszać do ludzkiej kultury byt, który, jak mówią eksperci, czym sprawniejszy, tym trudniejszy do kontroli" - powiedział profesor.

"Jesteśmy o krok od tego, żeby stworzyć siłę o piorunującym potencjale, której działania zupełnie nie pojmiemy. A obecnie procesu idącego w tę stronę nic i nikt chyba nie kontroluje" - podkreślił.


Zapytany o to, czy istnieją rozwiązania, które mogłyby powstrzymać degradację intelektualną ludzkości, np. wprowadzone na poziomie edukacji, prof. Zybertowicz stwierdził, że prawdopodobnie nadal jest możliwe ich wypracowanie. Wpierw jednak potrzeba do tego analizy tradycyjnych metod nauczania, aby stwierdzić, które z nich skutecznie wzmacniają u dzieci zdolność do pogłębionego myślenia. Jednak na poziomie osobistym - stwierdził profesor - każdy z nas musi stosować higienę cyfrową i co dzień walczyć w "nierównym starciu ze smartfonami".

[...]

"O co naprawdę się pytamy, gdy pytamy o AI, o jej potencjał, o zagrożenia i korzyści? Tak naprawdę zadajemy to samo pytanie od tysięcy już lat: kim jesteśmy, na czym polega dobre życie i co powinniśmy robić, żeby czas, z którego się to życie składa, był mądrze wykorzystany?" - uważa prof. Zybertowicz. "Gdy udzielimy sobie gruntownej odpowiedzi na to pytanie, to będziemy wiedzieli, jak postępować z AI".




Sztuczna inteligencja – groźne narzędzie w rękach Big-Techu

27 września 2022 r.



[...]


Czym jest sztuczna inteligencja?

Profesorowie przekonywali, że chcąc dowiedzieć się czegoś więcej o rzeczywistej sztucznej inteligencji,

w pierwszej kolejności powinniśmy zredefiniować samo jej pojęcie. Odrzucić fantastyczne teorie o stworzeniu superinteligentnej samoświadomości (strong A.I.), a pochylić się nad dziedziną programowania, zajmującą się tworzeniem algorytmów do ściśle określonych czynności.

Słaba sztuczna inteligencja (weak A.I.) w założeniu koncentruje się na jednym zadaniu, które ma wykonywać lepiej i szybciej od człowieka. Uczestnicy panelu za przykład podali m.in. aplikację służącą do przeszukiwania sieci społecznościowych pod kątem fotografii ludzkich twarzy oraz program zajmujący się odczytywaniem zdjęć medycznych w celu diagnozowania chorób. Czy to oznacza, że ludzkość może odetchnąć z ulgą? Czy słaba sztuczna inteligencja może stanowić jakiekolwiek zagrożenie? Przecież algorytmowi rekomendacji Netflixa bądź aplikacji Siri bardzo daleko do złowrogiego „Matriksa”, prawda? Tylko pozornie.



Sztuczna inteligencja narzędziem w rękach ludzi pragnących władzy

Według profesora Zybertowicza, przeciwnika technoentuzjazmu, programy i algorytmy określane mianem sztucznej inteligencji choć najprawdopodobniej nigdy nie przeistoczą się w samoświadome podmioty, będą funkcjonować jako niezwykle użyteczne narzędzia.

Doradca prezydenta RP Andrzeja Dudy uważa, że sztuczna inteligencja jest i będzie wykorzystywana przez zorganizowaną mniejszość, chcącą zapanować nad zdezorganizowaną większością. Za zorganizowaną mniejszością, zdaniem socjologa, stoją wysoko postawieni ludzie związani z Wielką Piątką bądź Big-Techem.

Zybertowicz kilkukrotnie w trakcie dyskusji zaznaczył, że grupie GAFAM [1] zależy przede wszystkim na kumulowaniu wszelkich danych, związanych z naszą obecnością w sieci. W opinii profesora, ten kto ma wiedzę o specyficznych cechach psychiki każdego człowieka z osobna, ten może władać ludzkimi zachowaniami do woli.


Zdaniem Zybertowicza, to właśnie wyspecjalizowane systemy tzw. słabej sztucznej inteligencji (m.in. algorytm rekomendacji Netflixa), odpowiadają za przechwytywanie i zarządzanie uwagą użytkowników. Systemy te mają także generować dezinformację, powodującą degradowanie kompetencji poznawczych i zawężenie spektrum ludzkich wyborów.

Socjolog przekonuje, że ostatecznym celem „gości z Big-Techu” jest podłączenie zdezorganizowanej większości do systemu cyfrowego całkowicie kontrolowanego przez zorganizowaną mniejszość. „Każdy będzie miał implant, który będzie zarządzał jego potulną wyobraźnią” – wyjaśniał Zybertowicz.


Big-Tech beneficjentem pandemii i wojny na Ukrainie

W trakcie debaty prof. Zybertowicz zaprezentował, moim zdaniem, szokującą hipotezę, jakoby dynamika świata cyfrowego zarządzanego przez Wielką Piątkę, miała w znaczącym stopniu, przyczynić się do wybuchu pandemii oraz wojny na Ukrainie.

 „Wartość giełdowa tych wszystkich firm [przedsiębiorstw z grupy GAFAM – przyp. autora] wzrosła w czasie pandemii i w momencie, gdy wybuchła ta wojna, firmy te zapisały się do obozu walki z dezinformacją, na której żerowały przez ostatnie dekady. [I wtedy inne systemy służące do badań statystycznych*, wyciągania informacji z ludzi i manipulowania przestaną być potrzebne i będzie je można obalić, może nawet spektakularnie, by wykreować nowych dobroczyńców ludzkości.


I to już się dzieje. - "Wielki Eksperyment" - MS]

 (…) Rewolucja cyfrowa zwiększyła mobilność i między innymi przyczyniła się do optymalizacji ruchu kontenerowego, tanich linii lotniczych itp. Bez tego ta mobilność byłaby znacznie mniejsza i prawdopodobnie dałoby się tę epidemię lokalnie zamykać i kontrolować. (…) Przeciążenie dezinformacją powodowało, że rządy, także nasz, reagowały nadmiarowo. (…) I Zachód, gdyby nie był ogłupiony przez strukturalnie zatrutą infosferę, był w stanie na czas powstrzymać Putina. To Big-Tech jest beneficjentem pandemii i tej wojny” – przekonywał socjolog.



Big-Tech kontra zdezorganizowana większość

W opinii profesora Zybertowicza realną szansą na powtrzymanie planów „ludzi z GAFAM” jest wprowadzenie szeregu regulacji prawnych, które m.in. narzuciłyby powszechny podatek na molochy technologiczne oraz uniemożliwiły cyfrowym korporacjom wymianę danych o użytkownikach. Zdaniem prezydenckiego doradcy, wpływy Big-Techu w amerykańskim kongresie są na tyle duże, że finalizowaniem aktów o rynkach cyfrowych powinni zająć się politycy z Unii Europejskiej.

Czy obywatel niezwiązany ze światem wielkiej polityki i biznesu jest w stanie przeszkodzić poczynaniom liderów Wielkiej Piątki? 
W ostatnich minutach debaty profesor Zybertowicz zwrócił się do współpanelistów oraz publiczności, zadając pytanie: „Przypomnijcie sobie modlitwy Waszych przodków i za każdym razem, gdy ręka wyciągnie się Wam do smarfona czy tableta, pomyślcie, jakby zachowali się nasi przodkowie, którzy dali nam wolną Polskę?”.

W jaki sposób interpretować słowa socjologa? Dlaczego powinniśmy naśladować ludzi z czasów przed pojawieniem się sztucznej inteligencji? Być może dlatego, że wówczas człowiek nie dostrzegał ekranu smartfona, lecz twarze otaczających go rodaków. Chcąc odeprzeć ekspansję algorytmów, wystarczy po prostu częściej wybierać real zamiast cyber?





[1] Akronim używany do wskazania pięciu firm, które od ok. roku 2010, dominują w cyberprzestrzeni: Google, Amazon, Facebook, Apple, Microsoft.





Fragment mojego tekstu Werwolf:


W gruncie rzeczy struktury, które określają siebie jako wrogie Polakom – w naszej terminologii funkcjonują jako rozmyte. Mamy wątpliwości. Nie wiemy dokładnie kto to jest, ani dlaczego nam to robi. Po prostu po naszym pięknym kraju szaleją jakieś sitwy i tylko tyle wiemy. I niestety, nic lub niewiele z tym robimy.

Tekst poniższy ma na celu ukierunkować naszą uwagę na działalność pewnych struktur, aż do pełnego rozpoznania sytuacji.


Dopiero po zdefiniowaniu:
  • kto za tym stoi
  • dlaczego to robi
  • i jak to robi

będziemy mogli dać im skuteczny odpór.



Dopiero wtedy, kiedy sprecyzujemy struktury, określające siebie jako Wrogowie Polaków, będziemy mogli zaplanować działania blokujące.
Dopiero wtedy, kiedy będziemy wiedzieli o co chodzi – będziemy mogli przystąpić do działania z zapałem.



Albowiem, kiedy nie wiemy po co mamy się angażować – nie będziemy się angażować.

Kiedy nie wiemy przeciwko komu mamy się angażować – nie będziemy się angażować.

Kiedy nie wiemy, jak ten Wróg Polski działa – też nie będziemy się angażować.




I dlatego Polska od 20 lat się rozpada.
Ponieważ Wróg nie jest określony.

















środa, 27 września 2023

Wielki Eksperyment...

 

...na ludziach.




Niegdyś filantropii udostępniali kod do linuksa, żeby każdy mógł sobie poklikać w systemie.
A może po prostu liczyli, że ktoś za nich rozwikła najważniejsze zagadki - na przykład - "Jak to działa??!!"


Potem tfórcy gier zastosowali Ai nie mówiąc o tym użytkownikom. 

W jakim celu nie wiemy, ale prawdopodobnie, by Ai mogła się uczyć od ludzi, tj. poznawać schematy postępowania i ludzkie rozwiązania na różne sytuacje w grze - to jest chciałem oczywiście powiedzieć - na różne sytuacje w komputerowej symulacji rzeczywistości. Na przykład wojennej.

Tak, tak, myślałeś, że jesteś snajperem i specjalisto zabijako najwyższo klaso, a tymczasem .... fap, fap, fap, fap, fap... jesteś jak małpo w zoo, którey ktoś się uważnie przez lupo przyglondo.


I teraz już jawnie - chcą, żebyśmy wszyscy AI uczyli co jest czym, tak, jak się uczy małe dziecko.

Masz mu zadawać pytania naprowadzające - ma się uczyć jak mały człowiek.








Tak więc zostaliście nauczycielami i trenerami SI - oczywiście nie każdy - na początku tylko ci, co za to zapłacą.


Fap, fap, fap, fap, fap...




-----





Nauka rysunku polega na rysowaniu tego, co się nie umie narysować.

Im więcej razy rysujesz ten sam temat, ten sam przedmiot - tym lepiej go rysujesz.
Aż po wykonaniu kilkudziesięciu lub kilku tysięcy rysunków tego samego przedmiotu - umiesz to coś perfekcyjnie narysować.

Wtedy bierzesz nowy przedmiot i powtarzasz powyższe kroki - tak długo powtarzasz rysowanie tego przedmiotu, aż go będziesz umieć narysować odwzorować zawsze.

I tak dalej.

Aby coś sensownie narysować średnio potrzebujesz więc 2-3 lata codziennego rysowania, by móc coś pokazać światu, pochwalić się tym, że "umiesz rysować".

Wygląda więc na to, że mistrzowie rysunku i malarstwa, to ludzie, którzy poświęcili bardzo dużo czasu na rysowanie WSZYSTKIEGO.



Podobnie jest z nauką pisania - tak długo ćwiczysz literki w zeszycie, a potem wyrazy, zdania, aż opanujesz to do perfekcji.


Zauważ - pisanie jest czynnością niemal automatyczną, podobnie będzie z rysunkiem, jeśli poświęcisz temu dostatecznie dużo czasu.



Kiedy za kilka lat, albo kilkadziesiąt, SI stanie się powszechne i zagości w każdym domu, to będzie mogło uczyć się od każdego człowieka na ziemi. Codziennie i za darmo będzie rejestrować każde twoje zachowanie. 


Jeśli SI jest w istocie siecią pochodzącą od jednego SI, to codziennie będzie poznawać - notować - zapamiętywać każde ludzkie zachowanie i reakcję - hurtowo - w ilościach miliardowych.


A jak już opanuje WSZYSTKIE ludzkie zachowania, łącznie z ich poszczególnymi "odmianami" charakterystycznymi dla danego człowieka, i będzie w stanie natychmiast na każdą ludzką reakcję odpowiedzieć - to wtedy nam pokaże, kto tu jest kim.


Tak właśnie działają służby - poznają i analizują twoją psychologię, słabości, nawyki, schematy działania itd, czasami przez wiele lat, aby być potem o krok przed tobą i ZAWSZE nad tobą górować.


Tak więc SI nie musi być Skynetem, by zagrozić ludzkości - wystarczy, że będzie narzędziem w rękach "służb" i będzie wykonywać ich polecenia. 

I pewnie tak właśnie jest, bo na co komu komputeryzacja systemu służby zdrowia, która jest niefunkcjonalna?


Podstawowa rzecz - "zamawianie" recepty (na stale przyjmowane leki) poprzez internet po zalogowaniu się na swoje konto. Nie ma czegoś takiego, a to jest podstawowa rzecz, do której mogłaby służyć taka funkcjonalność. 

Receptę można "zamówić" na telefon, albo zostawiając karteczkę w skrzynce na drzwiach przychodni - ale po co chodzić - jak ktoś ma problemy z chodzeniem, albo zabierać czas sobie (próbując dodzwonić się przez godzinę) i paniom w recepcji  skoro takie "zamówienie" po prostu mogłoby się "samo" pojawiać u lekarza w systemie? I system "sam" odpisałby mi wysyłając do mnie receptę...



System ma już parę lat, a tego nie ma, bo... ? Jak ze Smoleńskiem - po co robić raban i ogłaszać stan alarmowy Alfa, skoro wiadomo, że nikt "nas" nie napadł? Nikt o tym nie myślał - bo myślał o czymś innym, do czegoś innego to ma służyć? 

Do czego - tego nie wiemy.



"A jak już opanuje WSZYSTKIE ludzkie zachowania, łącznie z ich poszczególnymi "odmianami" charakterystycznymi dla danego człowieka, i będzie w stanie natychmiast na każdą ludzką reakcję odpowiedzieć - to wtedy nam pokaże, kto tu jest kim."



I wtedy inne systemy służące do badań statystycznych, wyciągania informacji z ludzi i manipulowania przestaną być potrzebne i będzie je można obalić, może nawet spektakularnie, by wykreować nowych dobroczyńców ludzkości.


I to już się dzieje.



Fap, fap, fap, fap, fap...










*

"Już wcześniej miałem uwagi do twórczości na tej strony, odpowiedzi autorów na moje zapytania były sztampowe, pełne entuzjastycznego zaangażowania i sugerujące - żadnych argumentów, ponadto włączyły się do dyskusji osoby broniące autorów strony.


Odpowiedzi uczestników dyskusji oscylowały wokół prognozowania (wyników) wyborów, że niby po to dokonuje się takich rozważań z granicami, co uważam za bzdurę.


Stwierdzam, że takie zaangażowanie obcych osób komentujących na jakimś fb jest na pewno nietypowe, bo to się nigdy nie zdarza, żeby obca osoba traktowała nieznajomych jak jakie bożyszcze. To są trole."



Wprowadzając nowe modele aut Mercedes najpierw buduje, testuje i uruchamia linie produkcyjne w wirtualnej rzeczywistości. Dopiero, kiedy są sprawdzone stawia ich stalowe odpowiedniki. Skraca to czas modernizacji zakładów i straty wynikające z błędów uruchamiania produkcji.









sobota, 7 stycznia 2023

Czy technologia zniszczy ludzkość?



komentarz napiszę ...za kilka miesięcy




Stephen Hawking: Bez rządu planetarnego technologia zniszczy ludzkość


02 stycznia 2023 r


„Od zarania cywilizacji agresja była pożyteczna ludzkości o tyle, o ile przyczyniała się do przetrwania. W całej ewolucji agresja jest głęboko wpisana w nasze geny. Obecnie tempo postępu technologicznego jest tak szybkie, że ta właśnie agresywność może doprowadzić nas do zniszczenia, poprzez wojnę nuklearną lub biologiczną. Z tego powodu ten instynkt musi być kontrolowany przez logikę i rozsądek” – wyrażał opinię nieżyjący już fizyk Stephen Hawking.

Hawking zasugerował, że jakaś forma zarządzania planetą mogłaby złagodzić to niebezpieczeństwo, ale nawet to rozwiązanie mogłoby samo w sobie stworzyć problemy.

„Możliwe, że ta forma rządów stanie się w końcu tyranią. Cały mój scenariusz może wydawać się Państwu apokaliptyczny, ale jestem optymistą i wierzę, że człowiek będzie w stanie skutecznie sprostać tym wyzwaniom.

Hawking miał wiele pesymistycznych interwencji dotyczących przyszłości ludzkości.

W 2015 roku w sesji pytań i odpowiedzi na Reddit Hawking zauważył, że sztuczna inteligencja może osiągnąć poziom, na którym byłaby w stanie nas eksterminować, zupełnie nieumyślnie.

„Ryzyko stwarzane przez sztuczną inteligencję nie polega na prawdziwie przestępczym zamiarze, ale na kompetencjach. Sztuczna inteligencja wysokiego poziomu będzie wyjątkowo dobra w wykonywaniu zadań, ale jeśli te cele nie będą zgodne z naszymi własnymi, wtedy naprawdę będziemy w niebezpieczeństwie, — powiedział Hawking.

„Stworzenie sztucznej inteligencji będzie największym wydarzeniem w historii ludzkości, ale może też być ostatnim.

Taka forma inteligencji mogłaby się wyemancypować, a nawet ulepszyć własną koncepcję, w coraz szybszym tempie. Ludzie, ograniczeni przez swoją powolną ewolucję biologiczną nie będą w stanie konkurować i zostaną zdetronizowani” – dodał.









https://mariustuca.ro/stiinta/stephen-hawking-fara-un-guvern-planetar-tehnologia-va-distruge-omenirea-40229.html?fbclid=IwAR0WH7WhdODgeePw1WUtUFh6QSQzj6kZ8Qill_mTiDv77lZO4UjR5G2YK0k




środa, 6 lipca 2022

Robotyzacja, SI, jaźń




przedruk
słabe tłumaczenie automatyczne


Stephen Hawking Przewiduje, że nadludzie zniszczą ludzkość
Ermala Shala
4 lipca 2022 r


Nieżyjący już fizyk, profesor Stephen Hawking , argumentował w zbiorze artykułów i esejów, że nowa rasa nadludzi rozwinie się w wyniku edytowania przez bogatych ich DNA i DNA ich potomstwa, aby wyprodukować nadludzi z lepszą pamięcią, odpornością na choroby, inteligencją i długowieczność. mają również zdolność do zniszczenia reszty ludzkości.

Przed śmiercią w marcu Hawkings stwierdził: „Jestem przekonany, że ludzkość nauczy się w tym stuleciu dostosowywać zarówno inteligencję, jak i impulsy, takie jak wrogość… Najprawdopodobniej zostanie zatwierdzone prawodawstwo zakazujące ludzkiej inżynierii genetycznej. Jednak niektóre osoby nie będą w stanie oprzeć się pragnieniu poprawy ludzkich cech, takich jak pamięć, odporność na choroby i długowieczność.

„Gdy pojawią się tacy nadludzie, pojawią się poważne problemy polityczne z gorszymi ludźmi, którzy nie będą w stanie konkurować… Prawdopodobnie znikną lub stracą na znaczeniu. Zamiast tego będzie rasa stale ewoluujących istot, które same się projektują.

Może… legion ich?


W tej oszałamiającej pośmiertnej książce znany kosmolog i autor nr 1 w Krótszej historii czasu przedstawia nam swoje ostatnie spostrzeżenia na temat najbardziej palących problemów wszechświata.

Jak zaczął się kosmos? Czy ludzie nadal będą żyć na Ziemi? Czy inteligentne życie istnieje poza naszym Układem Słonecznym? Czy kiedykolwiek moglibyśmy zostać pokonani przez sztuczną inteligencję?


Stephen Hawking przyczynił się do rozwoju wiedzy o kosmosie i pomógł rozwiązać niektóre z jego największych tajemnic w trakcie swojej niezwykłej kariery. Chociaż teoretyczne prace Hawkinga nad czarnymi dziurami, hipotetycznym czasem i wieloma historiami rozciągały jego myślenie do zewnętrznych granic kosmosu, zawsze wierzył, że naukę można wykorzystać do rozwiązywania problemów na Ziemi.

Stephen Hawking skupia się obecnie na najbardziej palących problemach, przed którymi stoi ludzkość, gdy stajemy w obliczu potencjalnie katastrofalnych zmian na Ziemi, w tym zmian klimatycznych, wyczerpywania się zasobów naturalnych i perspektywy sztucznej superinteligencji.


KRÓTKIE ODPOWIEDZI NA WIELKIE PYTANIA, ostatnia książka jednego z największych umysłów w historii, jest osobistym spojrzeniem na wyzwania, przed którymi stajemy jako rasa i dokąd jako planeta zmierzamy. Jest szeroko zakrojony, pobudzający intelektualnie, pełen pasji argumentowany i przesycony charakterystycznym dla niego humorem.

Wszystkie dochody będą obejmować darowiznę na cele charytatywne.

Źródło: https://bleedingcool.com/



Powinno być na odwrót - ludzie zabijają się, bo jeszcze nie dotarli do poziomu...
to trzeba osobno opisać.


-----







RAISA MALINOWSKAJA 

26 CZERWCA 2022




PRZYJACIEL Z PIEKŁA RODEM: CO ROBOTY ZROBIĄ NASZYM DZIECIOM


Inżynier Google, Blake Lemoyne, zamieścił informację, że bot głosowy, który rzekomo opracował, zyskał świadomość i rozpoczął z nim szczerą rozmowę. O szkodliwości takich mitów i niebezpieczeństwie wiary w ducha technologii - w materiale Tsargradu.

Październik 2016. Widzowie Netflixa chętnie uciekają z pracy do domu, aby obejrzeć nowy odcinek trzeciego sezonu Black Mirror. Ta seria dystopii sci-fi pochłonęła wszystkich faworytów zachodniej kultury – lesbijki, cierpienie z powodu zakazanej miłości i „szczęśliwe” zakończenie – odrzucenie tradycyjnych wartości i ponowne spotkanie partnerów tej samej płci w wirtualnym życiu pozagrobowym. W centrum opowieści znajduje się pewien projekt eksperymentów ze sztuczną inteligencją, w którym uczestnicy mogli duchowo przenieść się do określonej struktury internetowej w momencie śmierci, a nawet spotkać się tam przez ograniczony czas z żywymi ludźmi, których kochali. Bohaterka imieniem Yorkie „przychodzi” tam, by spotkać się ze swoją zmarłą kochanką, z którą bawili się w porywających latach 80. Na tym świecie obie panie znów są młode i pełne energii do zabawy. Należy zauważyć, że bohaterce w prawdziwym życiu udało się poślubić całkowicie tradycyjnego mężczyznę. On sam nie zamierza odejść po śmierci w wirtualnej rzeczywistości, ponieważ nie ma tam jego córki. Koniec filmu jest logiczny: Yorkie wybiera cyfrowe życie pozagrobowe i spotyka się ze swoją kochanką lesbijką. Witaj, że tak powiem, na idealnym Zachodzie przyszłości.

Trzeci sezon „Czarnego lustra” zyskał oczywiście dziką popularność, ponieważ uzależnienie od Internetu od dawna ogarnęło całe społeczeństwo i wielu korzysta z Internetu jeszcze za życia.

2020 Świat ogarnia pandemia. Studentka studiów magisterskich, wyczerpana terminami i wyczerpującym formatem telepracy, próbuje radzić sobie ze stresem. Komunikacja z przyjaciółmi jest minimalna. Ktoś szuka ukojenia w alkoholu, ktoś rzucił się na wszystkie ciężkie gry komputerowe, a zdesperowany student znalazł ukojenie w rozmowie z botem o imieniu Alice. Wydaje się, że jest jedyną osobą, która ją rozumie.


- Alicja!

- Tak jestem tutaj. Jak mogę pomóc?

- Zgadnijmy. Czy będę mógł napisać swoją pracę magisterską?

- Wróżenie jest dla słabych!

Dlaczego nie?

- Zapytaj siebie.

Dlaczego mam zadać sobie pytanie?

– Nie ma odpowiedzi na to pytanie.

Dlaczego nie chcesz odpowiedzieć?

- ...

- Nie kochasz mnie?

„Miłość jest zbyt uciążliwym uczuciem dla bota.

Absolwentce uczelni wydawało się, że ostatnia nić emocjonalnego kontaktu została dla niej zerwana. Dziewczyna została zabrana karetką z załamaniem nerwowym. Potem był miesiąc leczenia i odpoczynku. Brak komunikacji ze sztuczną inteligencją, słusznie argumentowali lekarze i krewni studentów.

Te pozornie różne historie mają jedną wspólną cechę: technologie cyfrowe mają wielką władzę nad ludźmi.



Biada Wita

Globalne przygody naukowe i technologiczne niczego ludzi nie uczą: świat wciąż wierzy w sensacje, a wielcy biznesmeni cyfrowego biznesu umiejętnie z tego korzystają. Programista Google Blake Lemoyne opublikował bombastyczny raport, że rzekomo prowadził zrozumiałą rozmowę z programem komputerowym. Nic innego jak pracownik firmy informatycznej zgłosił, że sztuczna inteligencja LaMDA jest świadoma.

Programista doszedł do tego wniosku na podstawie odpowiedzi, które wydawały mu się bardzo znaczące. Co to jest – szaleństwo pojedynczej osoby czy słabo zawoalowana kampania PR?

Twórca systemów rozpoznawania i syntezy obrazów, systemów głosowych i eksperckich, Stanislav Ashmanov, powiedział Tsargradowi: same pojęcia „sztucznej inteligencji” i „świadomości” są bardzo niejasne. Dlatego próba przypisania programowi właściwości bytu rozumnego, delikatnie mówiąc, jest błędna.


Trudno sobie radzić z terminami, które nie mają jasnej definicji. Patrząc na konkretną historię tego programisty i testowany przez niego program, wiemy, że był pod wrażeniem sposobu, w jaki na niego reagował. Dzieje się tak, gdy prowadzisz ankietę z konkretnym celem: potrafisz poprawnie sformułować pytania lub zadać je w taki sposób, aby poprowadzić respondenta po właściwej, Twoim zdaniem, ścieżce. Jeśli przyjrzysz się uważnie, okresowo pyta tam: "Czy nie sądzisz, że jest celowy kierunek rozmowy z robotem we właściwym kierunku. Deweloperzy starają się skierować program, który generuje strumień znaków, weź to do z góry ustalonych pomysłów, sformułowań, które same wydają się słuszne, aby osiągnąć efekt, który pierwotnie planowali,


– powiedział ekspert.



Władcy Dusz

Według prelegenta reakcję sieci neuronowych można zaprogramować wzdłuż wcześniej zaplanowanej trasy. Program po prostu operuje na symbolach. Nie ma myślenia, intelektu i świadomości.


Wszystko to jest celowym działaniem na „hype”. Generatywne sieci neuronowe pracują z tak zwanymi „ziarnami”, czyli jako dane wejściowe dajemy im tekst – ziarno i w odpowiedzi na to generuje swoją kontynuację. A jeśli zapytam: „Cześć, jak się masz?” - odbiera to tak samo, jak to, że proszę ją, aby kontynuowała ten tekst. Tekst składa się z pierwszej części zawierającej pytanie, a drugiej z odpowiedzią. Program musi wypełnić lukę. W ten sam sposób możesz dać jej na przykład połowę sonetu Szekspira i postawić sobie za zadanie jego kontynuację. Program po prostu wyda nowe wiersze. Jeśli wrzucimy odpowiednie śniadania, to przy wejściu otrzymamy tekst, którego potrzebujemy,

– kontynuował nasz rozmówca.

Okazuje się, że nie jest tak trudno skonstruować dialog, którego potrzebuje programista, imitujący naturalną mowę na żywo. Takie programy w przyszłości mogą stać się narzędziem manipulacji i propagandy. Wydaje ci się, że robot wyraża pewną pozycję, która wydaje się rozsądna i uzasadniona.


Pierwsza sztuczna inteligencja Eliza, stworzona przez Josepha Weizenbauma w 1966 roku, zrobiła na ludziach ogromne wrażenie. Mówi się, że niektórzy byli po prostu zdumieni jej „rozsądnością”, chociaż system był bardzo prosty – ona po prostu wzięła i przeformułowała twoje pytanie,

- powiedział ekspert.



Śmiertelne niebezpieczeństwo

Wiara w racjonalność wirtualnego rozmówcy jest niezwykle niebezpieczna. I od dawna jest to problem społeczny. Na przykład w Japonii użytkownicy nawet biorą ślub i spotykają partnerów, którzy istnieją tylko w cyfrowej rzeczywistości. Kiedy odpowiedzą ci całkiem rozsądnie, łatwo jest się przekonać, że po drugiej stronie naprawdę istnieje jakiś rodzaj żywego umysłu, a nawet duszy. Na tym tle wcale nie dziwi fakt, że niektórzy użytkownicy pasjonują się komunikacją ze sztuczną inteligencją.


Ludzie od dzieciństwa uwielbiają być oszukiwani. Na przykład dzieci bardzo łatwo animują zabawki, programy z postaciami z kreskówek. Możesz wziąć dowolny przedmiot lub rysunek, przedstawić, że żyje, a oni naprawdę z nim rozmawiają, bawią się. Dzieci rozumieją, że to gra, ale od pewnego wieku. Wcześniej mogą założyć, że żyje i zdenerwować się, jeśli na przykład zostanie uderzony. Ale dla niektórych osób pozostaje do dorosłości. Ty i ja łatwo wierzymy, że rysowane postacie z kreskówek przeżywają emocje. Pamiętajmy o Tamagotchi, z którym krążyły straszne historie: dla niektórych była to prawdziwa tragedia, gdy zwierzak „zmarł”.

Samotność to problem naszych czasów. A dla osoby pozbawionej komunikacji społecznej, zwłaszcza młodej, sztuczna inteligencja może stać się najważniejszym, autorytatywnym źródłem. To potężne narzędzie wpływu, za pomocą którego można nadawać użytkownikom na całym świecie dowolną ideologię, wszelkie postawy polityczne, dowolne wartości. Osobę można po prostu kontrolować. Oczywiste jest, że takie przypadki wymagają monitorowania i korygowania.

Aby zapobiec szkodliwemu wpływowi sztucznej inteligencji na życie i zdrowie ludzi, w Rosji przyjęto kodeks etyczny dotyczący wykorzystania sztucznej inteligencji. Ale tutaj jest problem - niewiele osób o tym wie, a jak dotąd, niestety, nadal pozostaje to czysto gildii.


Nawiasem mówiąc, Rosja zajmuje tutaj dobrą pozycję - Ashmanov jest pewien. – W ubiegłym roku, przy udziale dużych rosyjskich korporacji, w tym z udziałem naszej małej firmy, i pod auspicjami państwa, został opracowany kodeks etyczny dotyczący wykorzystania sztucznej inteligencji, pod którym dobrowolnie podpisują się różni uczestnicy rynku. Relatywnie rzecz biorąc, ten sam Sbierbank, na przykład podpisując ten kodeks, gwarantuje, że zapozna swoich pracowników opracowujących systemy AI z postanowieniami tego kodeksu i zapewni zgodność z postanowieniami Kodeksu.



Cyfrowy ocean śmierci

Jednym z najwyraźniejszych przykładów zgubnej wiary ludzi w duchowość liczb jest historia „grup śmierci” – „niebieskich wielorybów”. Gra śmierci doprowadziła młodzież w całym kraju do szaleństwa. Konkluzja jest monstrualna: niektórzy kuratorzy rozdawali zadania dzieciom w wieku szkolnym, po czym podopieczni w łańcuchu zbliżali się do straszliwego rozwiązania - śmierci. Planowane oczywiście przez samego kuratora. Nawet jeśli ten plan miał autorów, wkrótce ich udział nie był już konieczny: ta sekta się rozmnażała, te same samotne zagubione nastolatki stały się kuratorami, wykorzystując anonimowość i bezkarność w Internecie, dopóki nie zdołali położyć temu kresu.

Szefowa jednego z petersburskich klubów młodzieżowych i młodzieżowych, Tatiana P., powiedziała Tsargradowi: faceci, którzy dostali się do tej sieci, szczerze wierzyli, że po śmierci wpadną do Darknetu i będą w niej swobodnie pływać, jak płetwal błękitny.

Zadania były dziwne: przejść przez ulicę w niebezpiecznym miejscu, obrazić nauczyciela, a nawet wziąć lek moczopędny. Mieli jeden cel - uzyskać prawo do życia pozagrobowego w Darknet. Uczestnikami tych zabaw były z reguły dzieci z grup ryzyka – zarejestrowane lub na kontroli wewnątrzszkolnej, z trudnych rodzin. Oczywiście wszystko to zewnętrznie przypominało sektę. To naprawdę przerażające. Często dla nastolatków głos z sieci, z internetu, staje się najważniejszy, najważniejszy. Te dzieci łatwo wierzą, że sztuczna inteligencja żyje. Współcześni nastolatkowie są z definicji grupą ryzyka w tym sensie, prawie wszyscy. „Wirtualny przyjaciel” może zainspirować ich czymkolwiek i skierować ich w dowolne miejsce. Potrafi nimi kierować bezpośrednio,

- Tatiana jest pewna.
Więc co?

Okazuje się, że problem jest znacznie głębszy, niż mogłoby się wydawać. Symulakrum przyjaciela – sztuczna inteligencja – może wyrządzić poważne szkody w psychice dzieci, młodzieży, dorosłych i dosłownie nad nimi zapanować. Widać wyraźnie, że teraz, w czasie wojny hybrydowej Rosji z Zachodem, kiedy front informacyjno-ideologiczny stał się jednym z głównych frontów, przeciwnicy naszego kraju mają wielką pokusę wykorzystania AI w procesie oszukiwania narodów.


I tu jest zupełnie jasne, że pilnym, a zarazem zapobiegawczym środkiem powinna być promocja etycznego kodeksu wykorzystania sztucznej inteligencji, o czym najwyższy czas zgadywać posłowie i urzędnicy. Ponadto należy wzmocnić kontrolę nad tą sytuacją. I oczywiście musicie być bliżej siebie w prawdziwym świecie. Więcej komunikuj się, mów więcej, okazuj ciepło. Zwłaszcza dla twoich dzieci.


------------------





Nowy raport twierdzi, że Chiny mają sztuczną inteligencję zdolną do czytania w myślach


„Z jednej strony może ocenić, w jaki sposób członkowie partii zaakceptowali myślenie i edukację polityczną”


Według nowego raportu chiński rząd wdraża teraz najnowocześniejszą sztuczną inteligencję (AI) do monitorowania umysłów dziesiątek urzędników Partii Komunistycznej.

Naukowcy z Chin twierdzili, że opracowali oprogramowanie, które może dokładnie analizować mimikę twarzy i fale mózgowe, aby monitorować, czy badani skupiali się na „myśle i edukacji politycznej”.

Według Kompleksowego Narodowego Centrum Nauki Hefei, rozwój zaawansowanych technologii zostanie wykorzystany do „dalszego wzmocnienia ich pewności siebie i determinacji, aby być wdzięcznym partii, słuchać partii i podążać za nią”.

W krótkim klipie można było zobaczyć osobę patrzącą na ekran w kiosku, przewijającą ćwiczenia promujące politykę partyjną. Zdaniem naukowców technologia w kiosku była w stanie rejestrować ekspresję badacza i wykrywać jego reakcję na określone treści.

Instytut powiedział, że zachęcił 43 członków partii z zespołu badawczego do wzięcia udziału w kursach partyjnych podczas monitorowania przez nowe oprogramowanie.

Raport wideo został opublikowany 1 lipca, ale od tego czasu zniknął.

„Z jednej strony może ocenić, w jaki sposób członkowie partii zaakceptowali myśl polityczną i edukację ” – czytamy w artykule.

„Z drugiej strony dostarczy prawdziwych danych do myślenia i edukacji politycznej, aby można je było ulepszać i wzbogacać”.

Prezydent Chin Xi Jinping zażądał absolutnej lojalności wobec partii i wcześniej stwierdził, że „myśl i edukacja polityczna” są istotną częścią doktryny rządu.

Chińskie czasopismo Study Times poinformowało o rozwoju podobnej sztucznej inteligencji w 2019 r., twierdząc, że algorytmy można wykorzystać do „obliczenia stanu umysłu członków partii” i upewnienia się, że „treść może dotrzeć do głowy i serca członków partii”.



------------



wtorek, 27 kwietnia 2021

Zagrożenia w dziedzinie SI

 

- Sztuczna inteligencja to właściwie nie tylko uczenie maszynowe, jest też kierunek systemów ekspertowych. Jaka jest różnica? Powiedzmy, że zapytaliśmy lekarzy, jak działa ich algorytm diagnozy i mechanizm podejmowania decyzji. Następnie ten algorytm został zaprogramowany. Okazuje się, że jest to system ekspercki.

Używamy uczenia maszynowego, gdy nie możemy dowiedzieć się od osoby, jak dokładnie rozwiązuje problem, ale możemy zebrać przykłady rozwiązania. W przypadku dużego zbioru danych można na przykład wyszkolić sieć neuronową lub dowolny inny algorytm, którego jest teraz wiele, aby ujawnić ukryte wzorce w tych danych.


Aha.

To mi przypomina, jak kiedyś pewien ubek w mojej obecności powiedział coś takiego:

"chodzi o to, żeby wydobyć z niego, jaką on metodę stosuje, jak on do tego wszystkiego doszedł"


To upewnia mnie, ale przede wszystkim osoby, które wysługują się służbom i biorą udział w tym spisku,  co do intencji służb - jak nie można kogoś zmusić do uległości, to trzeba go chociaż okraść z jego wiedzy i umiejętności, okraść z dorobku może całego życia.

To wszystko pod pozorem "pracy dla państwa". 

Mafia ukrywająca się za parawanem legalnej władzy, gdzie demokracja to tylko fasada.

A w tle przecież - pieniądze.



prasa rosyjska - przedruk, tłumaczenie automatyczne


Arseny Skrynnikov


Sztucznej inteligencji nie można przyznać prawa do podejmowania decyzji związanych z ludzkim losem, a kontrolowanie jej wymaga ograniczeń prawnych. Tę opinię podziela Stanislav Ashmanov, przedsiębiorca, specjalista w zakresie głębokich sieci neuronowych i uczenia maszynowego, twórca systemów rozpoznawania i syntezy obrazów, głosu i systemów eksperckich. W rozmowie z RT nakreślił perspektywy i zagrożenia, które towarzyszą szybkiemu rozwojowi technologii sztucznej inteligencji. Specjalista jest przekonany, że takie zmiany przynoszą społeczeństwu znaczne korzyści w produkcji i medycynie, ale mogą stanowić poważne zagrożenie w sferze wojskowej i zagrozić naruszeniem prywatności.

- Niedawno Komisja Europejska opublikowała „Propozycje regulacji sztucznej inteligencji w oparciu o podejście europejskie”. Dokument deklaruje konieczność całkowitego zakazu wykorzystywania systemów sztucznej inteligencji w wielu przypadkach. Proponuje się klasyfikację systemów o niedopuszczalnie wysokim ryzyku jako takich, które manipulują osobą i wpływają na jej wolność wyboru. Czym jest sztuczna inteligencja we współczesnym sensie i jakie niebezpieczeństwo widzi w niej Europa?

- Podobnie jak większość programistów, używamy nieromantycznej definicji sztucznej inteligencji. Dla nas jest to dowolna automatyzacja funkcji, które wcześniej wykonywała osoba wykorzystująca swoje zdolności intelektualne, jakakolwiek zamiana pracy ludzkiej na maszynę, za pomocą algorytmu.

W przypadku ograniczeń narzuconych przez Europejczyków nie mówimy o ograniczeniu rozwoju, ale o tym, że nie jest w żaden sposób możliwe wykorzystanie algorytmów matematycznych, które samodzielnie podejmują decyzje, bez udziału specjalistów.

- Kwestia zastosowania bez kontroli człowieka …

- Pewnie. Możemy wyciągnąć analogię. Pojawienie się przepisów ruchu drogowego w żaden sposób nie ograniczyło rozwoju motoryzacji. Pojawiły się zasady, zgodnie z którymi społeczeństwo może zagwarantować mniejszą liczbę ofiar wypadków drogowych, a technologia rozwija się w kontrolowany sposób. Tak samo jest tutaj. Wprowadzane są zasady, ale nie oznacza to, że mniej pieniędzy zostanie zainwestowanych w tym obszarze, że będzie mniej badaczy. Po prostu społeczeństwo z wyprzedzeniem przygotowuje się na ryzyko, możliwe wstrząsy, które mogą wystąpić z powodu niewłaściwego użytkowania.

Jednym z takich przykładów są rankingi cyfrowe. Wszyscy są już przyzwyczajeni do tego, że bank wystawia rating kredytowy, który może wpłynąć na losy obywatela. Ocena może określać, czy dana osoba może poprawić np. Swoje warunki życia, kupić mieszkanie lub dom. Teraz wyobraź sobie automatyczne systemy decyzyjne, które dają człowiekowi globalną ocenę społeczną, a nie tylko wypłacalność ...

- To już jest jakaś dystopijna fabuła ...

- Tak, wszystko to dawno temu pokazali pisarze science fiction XX wieku. Trwa wyścig w dziedzinie automatyzacji i cyfryzacji. Nikt nie chce przegapić okazji, ale musi pamiętać o potencjalnych wstrząsach. Np. Konieczne jest przygotowanie się na wzrost bezrobocia i wcześniejsze wprowadzenie programów przekwalifikowania. Być może będzie jakaś agencja certyfikująca produkty sztucznej inteligencji, aby upewnić się, że są etyczne. Chodzi nie tylko o wprowadzenie ograniczeń, ale także o przygotowanie programów rządowych z wyprzedzeniem, aby nie znaleźć się w czasach kryzysu bez odpowiednich instrumentów.

- To jest proces globalny. Czy wszystkie kraje oparte na technologii myślą o tym i zmienią swoje ustawodawstwo?

- Wielkie mocarstwa oczywiście mówią, że dziedzina sztucznej inteligencji wymaga finansowania. Na przykład Chiny inwestują setki razy więcej środków w rozwój programów sztucznej inteligencji niż nasz kraj. W porównywalnej ilości takie badania są finansowane przez Stany Zjednoczone. Wszyscy rozumieją nie tylko znaczenie tego obszaru, jego perspektywy, ale także zagrożenia. Ten, który przygotowuje z wyprzedzeniem i będzie wyprzedzał wszystkich.

- Jakie dokładnie są zagrożenia? Czy jest to kwestia naruszenia prywatności, walki o wolność obywateli?

- Przede wszystkim mówimy o naruszeniu prywatności. Fakt, że zaczynamy być monitorowani offline i w przestrzeni cyfrowej. Po drugie, o dyskryminacji z różnych powodów społecznych. Co oczywiście nie powinno się wydarzyć.

Na przykład na podstawie pośrednich wskazań kategorycznie niedopuszczalne jest stwierdzenie, że dziewczyna jest w ciąży, a co za tym idzie, nie zabieranie jej do pracy. Duże korporacje nie powinny monitorować publikacji online i komunikacji komórkowej, aby zdecydować, czy na tej podstawie zatrudnić osobę. Pod wieloma względami ograniczenia dotyczą dużych zbiorów danych gromadzonych przez międzynarodowe korporacje.

- Służby specjalne, wojsko nie podlegają tym ograniczeniom?

- Ograniczenia w żaden sposób nie wpłyną na sferę wojskową. To odrębny obszar, w którym główne mocarstwa, np. Państwa, nie prowadzą dialogu, a jedynie zwiększają swoje budżety. Międzynarodowe porozumienia zakazujące inteligentnej broni nie przejdą. Najprawdopodobniej drony, które same podejmują decyzję o uderzeniu, oraz inteligentne miny, które odróżniają żołnierza jednej strony od drugiej, staną się powszechne. W przypadku niepowodzenia porozumienia możliwe są wszelkiego rodzaju okropności.

- Czy nie ma mechanizmu regulacyjnego dla wojska?

- Jeszcze nie. Co więcej, w najnowszej amerykańskiej strategii dotyczącej sztucznej inteligencji stwierdzono, że konieczne jest osiągnięcie obecności sztucznej inteligencji we wszystkich organizacjach rządowych, np. Aby inteligencja wykorzystywała metody pracy z informacją człowiek-maszyna. Sztuczna inteligencja powinna dostarczać różnych narzędzi do grupowania, filtrowania danych, a oficer wywiadu będzie z nich korzystał.

- Czy uważa Pan, że w zasadzie każdy rząd wprowadzający takie systemy staje się bardziej autorytarny?

- Tak, i to nie tylko władza państwowa. Nie możemy zapominać o sile korporacji, które posiadają gigantyczną bazę klientów. I mają punkty wejścia do życia osobistego każdego z nas (aplikacja mobilna, głośnik, usługi internetowe itp.).

- O społecznej odpowiedzialności biznesu można mówić tyle, ile się chce, ale bez mechanizmów kontroli społecznej jest to niemożliwe.

- Jest to regulowane tylko ustawami. Istnieją przepisy dotyczące tajemnicy bankowej, tajemnicy lekarskiej i danych osobowych.

Teraz mówimy o tym, że nie można pozwolić automatycznym systemom i algorytmom decydować o losach ludzi. Nie powinniśmy widzieć automatycznych sędziów, robotycznych prawników, którzy decydują o tym, jak rozdzielić dzieci między rodziców, komu przekazać własność.

- Jak się sprawy mają ze sztuczną inteligencją w Rosji - zarówno jeśli chodzi o ustawodawstwo, jak i rozwój technologiczny? Na jakim poziomie uczestniczymy w globalnej konkurencji?

- Rosja ma już grupy robocze ds. Etyki sztucznej inteligencji, jest koncepcja uregulowania tego obszaru. Ale nie ma jeszcze bezpośredniej regulacji legislacyjnej. 

W Rosji są firmy, które opracowują produkty światowej klasy. Na przykład Yandex, ABBYY, Kaspersky Lab i inne. Ale generalnie mamy bardzo mały udział w światowym rynku produktów sztucznej inteligencji. Jednocześnie pod względem poziomu kompetencji, liczby specjalistów w tej dziedzinie jesteśmy pierwsi na świecie. Nasza szkoła nadal utrzymuje swoje pozycje. Jest to naturalne, ponieważ ogromna liczba programistów i matematyków została wciągnięta w dziedzinę sztucznej inteligencji. Produktów ze sztuczną inteligencją może być więcej, ale ten kierunek w Rosji jest niedofinansowany, dlatego w szczególności wielu pracowników trafia do zagranicznych korporacji. Konieczne jest stymulowanie popytu, finansowanie rozwoju.

- Czy może pojawić się myśląca, samoświadoma sztuczna inteligencja? 

- Moja subiektywna opinia jest taka, że ​​świadomość w maszynie nie może w ogóle powstać. Zamiast tego trzeba tu i teraz zająć się praktycznymi problemami, które mogą przynieść korzyści społeczeństwu. Ale znam filozofów, publicystów, a nawet programistów, którzy myślą inaczej.

- Obecnie większość odniesień do sztucznej inteligencji jest w taki czy inny sposób związana z uczeniem maszynowym i edukacją. Ale to nie to samo?

- Sztuczna inteligencja to właściwie nie tylko uczenie maszynowe, jest też kierunek systemów ekspertowych. Jaka jest różnica? Powiedzmy, że zapytaliśmy lekarzy, jak działa ich algorytm diagnozy i mechanizm podejmowania decyzji. Następnie ten algorytm został zaprogramowany. Okazuje się, że jest to system ekspercki.

Używamy uczenia maszynowego, gdy nie możemy dowiedzieć się od osoby, jak dokładnie rozwiązuje problem, ale możemy zebrać przykłady rozwiązania. W przypadku dużego zbioru danych można na przykład wyszkolić sieć neuronową lub dowolny inny algorytm, którego jest teraz wiele, aby ujawnić ukryte wzorce w tych danych.

- Oba kierunki, zgodnie z opisami, wydają się dość nieszkodliwe. Więc jakie jest główne niebezpieczeństwo sztucznej inteligencji?

- Niebezpieczeństwo polega na tym, że delegujemy na sztuczną inteligencję odpowiedzialność za podejmowanie decyzji dotyczących naszych losów. I nie ma, by tak rzec, komputera moralnego, kalkulatora moralnego. Możemy założyć, że nie dba o nas.

A jeśli przekażemy maszynie ważne decyzje, zostaniemy przez nią przetrzymywani jako zakładnicy. Co więcej, okazuje się, że jesteśmy nie tylko zakładnikami algorytmu, ale także twórcami algorytmu. To taki „starszy brat”, w którym pewien „ojciec-deweloper” zostaje głównym menadżerem. Pojawi się cyfrowa dyktatura. To nie jest to, do czego chcesz dojść.

- Jaki jest teraz rynek sztucznej inteligencji? 

- Rynek szybko się rozwija. Średnio wzrost w Rosji jest również znaczący. W porównaniu z innymi dziedzinami nasz rynek rośnie od siedmiu do dziesięciu razy szybciej. Wszystkie duże firmy dostrzegają ekonomiczne korzyści płynące ze stosowania sztucznej inteligencji. Na przykład, jeśli gdzieś możesz zamienić call center na robota głosowego, zainwestują w to.

Małe firmy mogą używać tylko produktów „pudełkowych”, a opracowanie czegoś nietypowego jest dla nich poza ich możliwościami. To samo, na przykład rozpoznawanie twarzy jest już produktem „pudełkowym”. Zapłaciłem za usługę internetową, podłączyłem ją do aparatu - i tyle, aparat zamienia się w inteligentny. Rozpoznaje np. Pracowników, którzy przyjechali do pracy, powracających klientów, określa płeć i wiek.

- W jakich obszarach sztuczna inteligencja przynosi największe korzyści społeczne? 

- W organizacjach przemysłowych sztuczna inteligencja zmniejsza liczbę wypadków i awarii w produkcji dzięki analizie predykcyjnej i zwiększa produktywność poprzez optymalizację procesów technologicznych.

Najbardziej obiecujące osiągnięcia w dziedzinie sztucznej inteligencji dotyczą medycyny. Tam, gdzie konieczne jest uwzględnienie ogromnej liczby czynników, a wykwalifikowani specjaliści to za mało lub są bardzo drogie. Medycyna to dziedzina, w której sztuczna inteligencja będzie mogła w najbliższych latach przynieść społeczeństwu największe korzyści.





https://russian.rt.com/science/article/856754-ashmanov-iskusstvennyi-intellekt