Maciej Piotr Synak


Od mniej więcej dwóch lat zauważam, że ktoś bez mojej wiedzy usuwa z bloga zdjęcia, całe posty lub ingeruje w tekst, może to prowadzić do wypaczenia sensu tego co napisałem lub uniemożliwiać zrozumienie treści, uwagę zamieszczam w styczniu 2024 roku.

wtorek, 27 kwietnia 2021

Zagrożenia w dziedzinie SI

 

- Sztuczna inteligencja to właściwie nie tylko uczenie maszynowe, jest też kierunek systemów ekspertowych. Jaka jest różnica? Powiedzmy, że zapytaliśmy lekarzy, jak działa ich algorytm diagnozy i mechanizm podejmowania decyzji. Następnie ten algorytm został zaprogramowany. Okazuje się, że jest to system ekspercki.

Używamy uczenia maszynowego, gdy nie możemy dowiedzieć się od osoby, jak dokładnie rozwiązuje problem, ale możemy zebrać przykłady rozwiązania. W przypadku dużego zbioru danych można na przykład wyszkolić sieć neuronową lub dowolny inny algorytm, którego jest teraz wiele, aby ujawnić ukryte wzorce w tych danych.


Aha.

To mi przypomina, jak kiedyś pewien ubek w mojej obecności powiedział coś takiego:

"chodzi o to, żeby wydobyć z niego, jaką on metodę stosuje, jak on do tego wszystkiego doszedł"


To upewnia mnie, ale przede wszystkim osoby, które wysługują się służbom i biorą udział w tym spisku,  co do intencji służb - jak nie można kogoś zmusić do uległości, to trzeba go chociaż okraść z jego wiedzy i umiejętności, okraść z dorobku może całego życia.

To wszystko pod pozorem "pracy dla państwa". 

Mafia ukrywająca się za parawanem legalnej władzy, gdzie demokracja to tylko fasada.

A w tle przecież - pieniądze.



prasa rosyjska - przedruk, tłumaczenie automatyczne


Arseny Skrynnikov


Sztucznej inteligencji nie można przyznać prawa do podejmowania decyzji związanych z ludzkim losem, a kontrolowanie jej wymaga ograniczeń prawnych. Tę opinię podziela Stanislav Ashmanov, przedsiębiorca, specjalista w zakresie głębokich sieci neuronowych i uczenia maszynowego, twórca systemów rozpoznawania i syntezy obrazów, głosu i systemów eksperckich. W rozmowie z RT nakreślił perspektywy i zagrożenia, które towarzyszą szybkiemu rozwojowi technologii sztucznej inteligencji. Specjalista jest przekonany, że takie zmiany przynoszą społeczeństwu znaczne korzyści w produkcji i medycynie, ale mogą stanowić poważne zagrożenie w sferze wojskowej i zagrozić naruszeniem prywatności.

- Niedawno Komisja Europejska opublikowała „Propozycje regulacji sztucznej inteligencji w oparciu o podejście europejskie”. Dokument deklaruje konieczność całkowitego zakazu wykorzystywania systemów sztucznej inteligencji w wielu przypadkach. Proponuje się klasyfikację systemów o niedopuszczalnie wysokim ryzyku jako takich, które manipulują osobą i wpływają na jej wolność wyboru. Czym jest sztuczna inteligencja we współczesnym sensie i jakie niebezpieczeństwo widzi w niej Europa?

- Podobnie jak większość programistów, używamy nieromantycznej definicji sztucznej inteligencji. Dla nas jest to dowolna automatyzacja funkcji, które wcześniej wykonywała osoba wykorzystująca swoje zdolności intelektualne, jakakolwiek zamiana pracy ludzkiej na maszynę, za pomocą algorytmu.

W przypadku ograniczeń narzuconych przez Europejczyków nie mówimy o ograniczeniu rozwoju, ale o tym, że nie jest w żaden sposób możliwe wykorzystanie algorytmów matematycznych, które samodzielnie podejmują decyzje, bez udziału specjalistów.

- Kwestia zastosowania bez kontroli człowieka …

- Pewnie. Możemy wyciągnąć analogię. Pojawienie się przepisów ruchu drogowego w żaden sposób nie ograniczyło rozwoju motoryzacji. Pojawiły się zasady, zgodnie z którymi społeczeństwo może zagwarantować mniejszą liczbę ofiar wypadków drogowych, a technologia rozwija się w kontrolowany sposób. Tak samo jest tutaj. Wprowadzane są zasady, ale nie oznacza to, że mniej pieniędzy zostanie zainwestowanych w tym obszarze, że będzie mniej badaczy. Po prostu społeczeństwo z wyprzedzeniem przygotowuje się na ryzyko, możliwe wstrząsy, które mogą wystąpić z powodu niewłaściwego użytkowania.

Jednym z takich przykładów są rankingi cyfrowe. Wszyscy są już przyzwyczajeni do tego, że bank wystawia rating kredytowy, który może wpłynąć na losy obywatela. Ocena może określać, czy dana osoba może poprawić np. Swoje warunki życia, kupić mieszkanie lub dom. Teraz wyobraź sobie automatyczne systemy decyzyjne, które dają człowiekowi globalną ocenę społeczną, a nie tylko wypłacalność ...

- To już jest jakaś dystopijna fabuła ...

- Tak, wszystko to dawno temu pokazali pisarze science fiction XX wieku. Trwa wyścig w dziedzinie automatyzacji i cyfryzacji. Nikt nie chce przegapić okazji, ale musi pamiętać o potencjalnych wstrząsach. Np. Konieczne jest przygotowanie się na wzrost bezrobocia i wcześniejsze wprowadzenie programów przekwalifikowania. Być może będzie jakaś agencja certyfikująca produkty sztucznej inteligencji, aby upewnić się, że są etyczne. Chodzi nie tylko o wprowadzenie ograniczeń, ale także o przygotowanie programów rządowych z wyprzedzeniem, aby nie znaleźć się w czasach kryzysu bez odpowiednich instrumentów.

- To jest proces globalny. Czy wszystkie kraje oparte na technologii myślą o tym i zmienią swoje ustawodawstwo?

- Wielkie mocarstwa oczywiście mówią, że dziedzina sztucznej inteligencji wymaga finansowania. Na przykład Chiny inwestują setki razy więcej środków w rozwój programów sztucznej inteligencji niż nasz kraj. W porównywalnej ilości takie badania są finansowane przez Stany Zjednoczone. Wszyscy rozumieją nie tylko znaczenie tego obszaru, jego perspektywy, ale także zagrożenia. Ten, który przygotowuje z wyprzedzeniem i będzie wyprzedzał wszystkich.

- Jakie dokładnie są zagrożenia? Czy jest to kwestia naruszenia prywatności, walki o wolność obywateli?

- Przede wszystkim mówimy o naruszeniu prywatności. Fakt, że zaczynamy być monitorowani offline i w przestrzeni cyfrowej. Po drugie, o dyskryminacji z różnych powodów społecznych. Co oczywiście nie powinno się wydarzyć.

Na przykład na podstawie pośrednich wskazań kategorycznie niedopuszczalne jest stwierdzenie, że dziewczyna jest w ciąży, a co za tym idzie, nie zabieranie jej do pracy. Duże korporacje nie powinny monitorować publikacji online i komunikacji komórkowej, aby zdecydować, czy na tej podstawie zatrudnić osobę. Pod wieloma względami ograniczenia dotyczą dużych zbiorów danych gromadzonych przez międzynarodowe korporacje.

- Służby specjalne, wojsko nie podlegają tym ograniczeniom?

- Ograniczenia w żaden sposób nie wpłyną na sferę wojskową. To odrębny obszar, w którym główne mocarstwa, np. Państwa, nie prowadzą dialogu, a jedynie zwiększają swoje budżety. Międzynarodowe porozumienia zakazujące inteligentnej broni nie przejdą. Najprawdopodobniej drony, które same podejmują decyzję o uderzeniu, oraz inteligentne miny, które odróżniają żołnierza jednej strony od drugiej, staną się powszechne. W przypadku niepowodzenia porozumienia możliwe są wszelkiego rodzaju okropności.

- Czy nie ma mechanizmu regulacyjnego dla wojska?

- Jeszcze nie. Co więcej, w najnowszej amerykańskiej strategii dotyczącej sztucznej inteligencji stwierdzono, że konieczne jest osiągnięcie obecności sztucznej inteligencji we wszystkich organizacjach rządowych, np. Aby inteligencja wykorzystywała metody pracy z informacją człowiek-maszyna. Sztuczna inteligencja powinna dostarczać różnych narzędzi do grupowania, filtrowania danych, a oficer wywiadu będzie z nich korzystał.

- Czy uważa Pan, że w zasadzie każdy rząd wprowadzający takie systemy staje się bardziej autorytarny?

- Tak, i to nie tylko władza państwowa. Nie możemy zapominać o sile korporacji, które posiadają gigantyczną bazę klientów. I mają punkty wejścia do życia osobistego każdego z nas (aplikacja mobilna, głośnik, usługi internetowe itp.).

- O społecznej odpowiedzialności biznesu można mówić tyle, ile się chce, ale bez mechanizmów kontroli społecznej jest to niemożliwe.

- Jest to regulowane tylko ustawami. Istnieją przepisy dotyczące tajemnicy bankowej, tajemnicy lekarskiej i danych osobowych.

Teraz mówimy o tym, że nie można pozwolić automatycznym systemom i algorytmom decydować o losach ludzi. Nie powinniśmy widzieć automatycznych sędziów, robotycznych prawników, którzy decydują o tym, jak rozdzielić dzieci między rodziców, komu przekazać własność.

- Jak się sprawy mają ze sztuczną inteligencją w Rosji - zarówno jeśli chodzi o ustawodawstwo, jak i rozwój technologiczny? Na jakim poziomie uczestniczymy w globalnej konkurencji?

- Rosja ma już grupy robocze ds. Etyki sztucznej inteligencji, jest koncepcja uregulowania tego obszaru. Ale nie ma jeszcze bezpośredniej regulacji legislacyjnej. 

W Rosji są firmy, które opracowują produkty światowej klasy. Na przykład Yandex, ABBYY, Kaspersky Lab i inne. Ale generalnie mamy bardzo mały udział w światowym rynku produktów sztucznej inteligencji. Jednocześnie pod względem poziomu kompetencji, liczby specjalistów w tej dziedzinie jesteśmy pierwsi na świecie. Nasza szkoła nadal utrzymuje swoje pozycje. Jest to naturalne, ponieważ ogromna liczba programistów i matematyków została wciągnięta w dziedzinę sztucznej inteligencji. Produktów ze sztuczną inteligencją może być więcej, ale ten kierunek w Rosji jest niedofinansowany, dlatego w szczególności wielu pracowników trafia do zagranicznych korporacji. Konieczne jest stymulowanie popytu, finansowanie rozwoju.

- Czy może pojawić się myśląca, samoświadoma sztuczna inteligencja? 

- Moja subiektywna opinia jest taka, że ​​świadomość w maszynie nie może w ogóle powstać. Zamiast tego trzeba tu i teraz zająć się praktycznymi problemami, które mogą przynieść korzyści społeczeństwu. Ale znam filozofów, publicystów, a nawet programistów, którzy myślą inaczej.

- Obecnie większość odniesień do sztucznej inteligencji jest w taki czy inny sposób związana z uczeniem maszynowym i edukacją. Ale to nie to samo?

- Sztuczna inteligencja to właściwie nie tylko uczenie maszynowe, jest też kierunek systemów ekspertowych. Jaka jest różnica? Powiedzmy, że zapytaliśmy lekarzy, jak działa ich algorytm diagnozy i mechanizm podejmowania decyzji. Następnie ten algorytm został zaprogramowany. Okazuje się, że jest to system ekspercki.

Używamy uczenia maszynowego, gdy nie możemy dowiedzieć się od osoby, jak dokładnie rozwiązuje problem, ale możemy zebrać przykłady rozwiązania. W przypadku dużego zbioru danych można na przykład wyszkolić sieć neuronową lub dowolny inny algorytm, którego jest teraz wiele, aby ujawnić ukryte wzorce w tych danych.

- Oba kierunki, zgodnie z opisami, wydają się dość nieszkodliwe. Więc jakie jest główne niebezpieczeństwo sztucznej inteligencji?

- Niebezpieczeństwo polega na tym, że delegujemy na sztuczną inteligencję odpowiedzialność za podejmowanie decyzji dotyczących naszych losów. I nie ma, by tak rzec, komputera moralnego, kalkulatora moralnego. Możemy założyć, że nie dba o nas.

A jeśli przekażemy maszynie ważne decyzje, zostaniemy przez nią przetrzymywani jako zakładnicy. Co więcej, okazuje się, że jesteśmy nie tylko zakładnikami algorytmu, ale także twórcami algorytmu. To taki „starszy brat”, w którym pewien „ojciec-deweloper” zostaje głównym menadżerem. Pojawi się cyfrowa dyktatura. To nie jest to, do czego chcesz dojść.

- Jaki jest teraz rynek sztucznej inteligencji? 

- Rynek szybko się rozwija. Średnio wzrost w Rosji jest również znaczący. W porównaniu z innymi dziedzinami nasz rynek rośnie od siedmiu do dziesięciu razy szybciej. Wszystkie duże firmy dostrzegają ekonomiczne korzyści płynące ze stosowania sztucznej inteligencji. Na przykład, jeśli gdzieś możesz zamienić call center na robota głosowego, zainwestują w to.

Małe firmy mogą używać tylko produktów „pudełkowych”, a opracowanie czegoś nietypowego jest dla nich poza ich możliwościami. To samo, na przykład rozpoznawanie twarzy jest już produktem „pudełkowym”. Zapłaciłem za usługę internetową, podłączyłem ją do aparatu - i tyle, aparat zamienia się w inteligentny. Rozpoznaje np. Pracowników, którzy przyjechali do pracy, powracających klientów, określa płeć i wiek.

- W jakich obszarach sztuczna inteligencja przynosi największe korzyści społeczne? 

- W organizacjach przemysłowych sztuczna inteligencja zmniejsza liczbę wypadków i awarii w produkcji dzięki analizie predykcyjnej i zwiększa produktywność poprzez optymalizację procesów technologicznych.

Najbardziej obiecujące osiągnięcia w dziedzinie sztucznej inteligencji dotyczą medycyny. Tam, gdzie konieczne jest uwzględnienie ogromnej liczby czynników, a wykwalifikowani specjaliści to za mało lub są bardzo drogie. Medycyna to dziedzina, w której sztuczna inteligencja będzie mogła w najbliższych latach przynieść społeczeństwu największe korzyści.





https://russian.rt.com/science/article/856754-ashmanov-iskusstvennyi-intellekt








Brak komentarzy:

Prześlij komentarz