Brytyjska „metoda na wnuczka” szalenie niebezpieczna. Oszuści zaprzęgli technologię

Do szkolenia AI oszustom może posłużyć choćby film, który nieświadoma niczego ofiara opublikowała w

Do szkolenia AI oszustom może posłużyć choćby film, który nieświadoma niczego ofiara opublikowała w mediach społecznościowych

Foto: Adobe stock

Michał Duszczyk

Starling Bank alarmuje, że systemy AI klonujące głos w rękach przestępców to recepta na ogromne problemy. Wskazuje, że technologie są na tyle zaawansowane, iż przestępcom wystarczy zaledwie niewielka próbka głosy, nawet 3-sekundowa, by na tej podstawie „skonstruować” bota wypowiadającego taką samą barwą i intonacją dowolną kwestię.

Jak można sklonować głos i użyć do przestępstwa

Pożyczkodawca działający wyłącznie online ostrzega, że do szkolenia AI oszustom może posłużyć choćby film, który nieświadoma niczego ofiara opublikowała w mediach społecznościowych. Spreparowane na tej podstawie nagranie może zostać użyte choćby do wyciągnięcia pieniędzy od znajomych, czy członków rodziny ofiary. Podszywając się pod daną osobę oszuści mogą bowiem np. w rozmowie telefonicznej prosić o pilne wsparcie finansowe i przelew na wskazany numer konta. Starling Bank przekonuje, iż na tego typu triki złapać może się wielu z nas. „Miliony osób może paść ofiarą oszustów” – podała instytucja w specjalnie wydanym komunikacie.

Zresztą już teraz ta nowatorska metoda jest już coraz szerzej wykorzystywana. Z badań Mortar Research wynika, iż tylko w zeszłym miesiącu ofiarą takiego niecodziennego procederu klonowania głosu na Wyspach ofiarą padło ponad 3 tys. osób. Z takimi próbami ataku z wykorzystaniem AI zetknąć się miał w ciągu ostatniego roku co czwarty z badanych. Jednocześnie blisko połowa ankietowanych nie była świadoma, że istnieje taki model tzw. scamu.

Wyłudzanie danych, czy pieniędzy przez przestępców podszywających się pod inną osobę, w tym bliskich, nie jest niczym nowym. Zaprzęgnięcie do tego sztucznej inteligencji to już jednak wyższy poziom wyrafinowania niż tzw. metoda na wnuczka. Specjaliści ze Starling Bank twierdzą, iż łatwo paść ofiarą „kradzieży” głosu, bo sami często umieszczamy materiały audio i wideo w sieci.

Oszuści kradną głos i pieniądze

Jak zatem bronić się przed tak zaawansowany „scamem”? Eksperci wskazują, że nie należy zbyt wiele publikować na swój temat online, a co więcej radzą, by ustalić tzw. bezpieczną frazę w kontaktach ze znajomymi i bliskimi. Chodzi o rodzaj hasła, czy zwrotu, które łatwo zapamiętać, a może posłużyć do identyfikacji z kim faktycznie mamy do czynienia podczas rozmowy telefonicznej. Przy tym owa „bezpieczna fraza” nie powinna być przekazywana we wiadomościach tekstowych, bowiem ona również mogłaby wpaść w niepowołane ręce.

Narzędzi do klonowania głosu w internecie nie brakuje. Jednym z najbardziej zaawansowanych i popularnych jest system stworzony przez ElevenLabs. Start-up stworzony przez Piotra Dąbkowskiego i Matiego Staniszewskiego, opracował model AI, który stał się światowym hitem – potrafi generować szereg realistycznych głosów na podstawie tekstu lub istniejącej już mowy. Można go używać np. do dubbingu, ale również deepfake’ów. System jest już w stanie generować płynną mowę w ok. 30 językach.

Na początku br. OpenAI również zaprezentował narzędzie do replikacji głosu. Technologia, za którą stoją twórcy ChatGPT, nie została jednak udostępniona publicznie. OpenAI podało, iż projekt Voice Engine niesie bowiem ze sobą potencjalne ryzyko niewłaściwego zastosowania.

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *