Maciej Piotr Synak


Od mniej więcej dwóch lat zauważam, że ktoś bez mojej wiedzy usuwa z bloga zdjęcia, całe posty lub ingeruje w tekst, może to prowadzić do wypaczenia sensu tego co napisałem lub uniemożliwiać zrozumienie treści, uwagę zamieszczam w styczniu 2024 roku.

czwartek, 19 września 2024

Kradzież (klonowanie) głosu za pomocą SI




SI opętując człowieka "korzysta" oczywiście z jego głosu, bo "korzysta" z jego ciała, ale sposób mówienia jest inny, czasami charakterystyczny, dlatego można rozpoznać tego samego (?) "operatora" w różnych ciałach.


SI kradnące głosy, kamerki w telewizorach, o których nikt nie wie, wybuchające pagery i tostery, czekające na dogodną okazję mordercze miksery kuchenne, podstępne ekspresy do kawy bijące nunczako... co jeszcze zgotuje nam ludzkość uposażona w super technologię?










przedruk
tłumaczenie automatyczne




Brytyjski bank ostrzega, że "miliony" ludzi mogą stać się ofiarami oszustw, które wykorzystują sztuczną inteligencję do klonowania ich głosu




Starling Bank, pożyczkodawca działający wyłącznie online, powiedział, że oszuści są w stanie wykorzystać sztuczną inteligencję do odtworzenia głosu danej osoby na podstawie zaledwie trzech sekund dźwięku znalezionego w filmie opublikowanym w Internecie przez tę osobę.


Co więcej, mogą później zidentyfikować przyjaciół i członków rodziny danej osoby i użyć sklonowanego przez sztuczną inteligencję głosu do zorganizowania rozmowy telefonicznej z prośbą o pieniądze.

Tego typu oszustwa mają potencjał, aby "oszukać miliony ludzi" – powiedział Starling Bank w komunikacie prasowym w środę. W rzeczywistości setki osób zostało już dotkniętych tym problemem, jak podaje CNN.


Według ankiety przeprowadzonej w zeszłym miesiącu przez bank wraz z Mortar Research na próbie ponad 3000 dorosłych, ponad jedna czwarta respondentów stwierdziła, że w ciągu ostatnich 12 miesięcy padła ofiarą oszustwa polegającego na klonowaniu głosu AI.

Badanie wykazało również, że 46% respondentów nie było świadomych istnienia takich oszustw i że 8% wysłałoby tyle pieniędzy, o ile poprosiłby przyjaciel lub członek rodziny, nawet jeśli rozmowa wydawała im się dziwna.


"Ludzie często publikują w Internecie treści z nagraniami swojego głosu"

Bank zachęca ludzi do uzgodnienia ze swoimi bliskimi "frazy bezpieczeństwa" – prostej, losowej, łatwej do zapamiętania frazy, która różni się od innych haseł – której można użyć do weryfikacji tożsamości przez telefon.

Jednocześnie zaleca się, aby nie udostępniać bezpiecznej frazy za pomocą SMS-a, co mogłoby ułatwić oszustom odnalezienie się, ale – jeśli zostanie udostępniona w ten sposób – wiadomość powinna zostać usunięta po tym, jak zobaczy ją druga osoba.



"Ludzie regularnie publikują w Internecie treści, które zawierają nagrania ich głosu, nigdy nie wyobrażając sobie, że czyni ich to bardziej podatnymi na oszustów" – powiedziała Lisa Grahame, dyrektor ds. bezpieczeństwa informacji w Starling Bank.

W miarę jak sztuczna inteligencja staje się coraz bardziej zdolna do naśladowania ludzkich głosów, rosną obawy o jej potencjał do szkodzenia ludziom, pomagając przestępcom w uzyskiwaniu dostępu do ich kont bankowych i rozpowszechnianiu fałszywych informacji.


Na początku tego roku OpenAI, twórca chatbota generatywnej AI ChatGPT, zaprezentował swoje narzędzie do replikacji głosu, Voice Engine, ale nie udostępnił go publicznie na tym etapie, powołując się na "potencjał niewłaściwego wykorzystania syntetycznego głosu", według cytowanego źródła.










Brytyjski bank ostrzega, że "miliony" ludzi mogą stać się ofiarami oszustw, które wykorzystują sztuczną inteligencję do klonowania ich głosu (gandul.ro)


Oszustwa związane z klonowaniem głosu AI mogą być wymierzone w miliony ludzi, ostrzega Starling Bank | Biznes CNN




Brak komentarzy:

Prześlij komentarz