„Klonowanie głosu” przy użyciu AI nowym sposobem na wyłudzanie pieniędzy

Fałszowanie głosu dzięki sztucznej inteligencji (AI) to nowy sposób oszustów na wyłudzenie pieniędzy. Pierwsze przypadki miały miejsce w Niemczech i w stanie Arizona w USA. Oszuści dzwonią do bliskich używając głosu do złudzenia przypominającego syna lub córkę – głos prawdopodobnie został wygenerowany przy użyciu sztucznej inteligencji. Policjanci ostrzegają, że podobnych przypadków będzie coraz więcej, bo wyłudzacze mają coraz łatwiejszy dostęp do AI. Zdjęcie

"Klonowanie głosu" przy użyciu AI nowym sposobem oszustów na wyłudzanie pieniędzy /123RF/PICSEL

„Klonowanie głosu” przy użyciu AI nowym sposobem oszustów na wyłudzanie pieniędzy /123RF/PICSEL

Reklama

„Mamo, to ja. Miałem wypadek i zabiłem kobietę. Przekażę cię policjantowi” – takie słowa miała usłyszeć w słuchawce telefonu Corinna Busch, matka z Neuss (miasto w zachodnich Niemczech). Głos do złudzenia przypominał jej syna, a po przekazaniu słuchawki domniemanemu policjantowi, ten miał zażądać pieniędzy w zamian, że jej dziecko nie trafi do więzienia – donosi tagesschau.de, portal publicznego nadawcy ARD.

 

Sztuczna inteligencja (AI) pozwala stworzyć głos łudząco podobny do naturalnego. Podobnych przypadków jest coraz więcej, a jeszcze kilka lat temu technologia nie była tak łatwo dostępna, jak teraz. W 2023 roku oszuści mają ją na wyciągnięcie ręki i mogą używać jej do nowych oszustw – informuje niemiecka policja. W Niemczech przypadków jest już tak wiele, że służby nie nadążają z przyjmowaniem podobnych zgłoszeń i wyjaśnianiem spraw

Nie tylko nasi zachodni sąsiedzi zmagają się z problemem. Głośno było także o innym przypadku ze Stanów Zjednoczonych

„Klonowanie głosu” w rękach oszustów. W Niemczech seria wyłudzeń

– Głos bez wątpienia brzmiał, jak głos mojego dziecka – opowiedziała portalowi Busch. Mąż kobiety nie uwierzył oszustom i postanowił zadzwonić do syna. Jak się okazało ten nie uczestniczył w żadnym wypadku, a w tym czasie przebywał w domu.

Głos był tak łudząco podobny, że małżeństwo podejrzewa, że ktoś użył sztucznej inteligencji do sklonowania głosu ich syna

O sprawie zrobiło się głośno w całych Niemczech, do tego stopnia, że temat postanowił podjąć program śledczy SWR „Vollbild”. Śledztwo dziennikarskie dowiodło, że oszuści w większości przypadków wykorzystują tego samego programu do podrabiania głosu, a w tym samym czasie, co próbowano oszukać rodzinę Busch, w całych Niemczech wykonano kilkadziesiąt podobnych telefonów w celu wyłudzenia pieniędzy.

 

Głos w sprawie zabrało Federalne Ministerstwo Spraw Wewnętrznych. – Każdego dnia stoimy przed różnorodnymi i złożonymi wyzwaniami związanymi z gwałtownym rozwojem technologicznym – stwierdzili urzędnicy. Ze statystyk wynika, że tylko w 2022 roku w samej Nadrenii Północnej-Westfalii doszło do ponad 8 tys. prób wyłudzenia pieniędzy m.in. metodą „na wnuczka” – doskonale znaną również w naszym kraju. Liczba połączeń telefonicznych z wykorzystaniem sztucznie stworzonego głosu obecnie nie jest rejestrowana – poinformował Federalny Urząd Policji Kryminalnej.  

Nie tylko w Niemczech muszą mierzyć się z nowym sposobem oszustów na wyłudzanie pieniędzy. W ostatnim czasie do podobnego przypadku doszło także w USA. 

Porwanie z głosem dziecka w tle. Chcą pieniędzy, nie mają żadnych granic

W kwietniu w USA służby odnotowały pierwszy przypadek oszustwa telefonicznego, w którym użyto AI w celu wyłudzenia pieniędzy. Sprawa wyjątkowo oburzyła społeczność, bo w Arizonie zażądano milionowego okupu od rzekomo porwanej małej dziewczynki. Wystraszona matka nie wiedziała, co zrobić. 

– W tle było wyraźnie słychać głos mojej córki – opisywała zdarzenie kobieta. Oszust miał zgodzić się na o wiele niższą kwotę. Kobieta ostatecznie o mało co nie wpłaciła 50 tys. dolarów na konto złodzieja. Dopiero w ostatniej chwili  okazało się, że cała sytuacja została wymyślona, a dziewczynka jest cała i bezpieczna

Apelujemy o ostrożność i rozwagę podczas rozmów telefonicznych. Oszuści wykorzystują pośpiech i strach, ale w takich chwilach należy wykazać się opanowaniem i upewnić się, czy nasi bliscy nie są bezpieczni. Najlepiej do nich zadzwonić, zanim wyśle się jakiekolwiek pieniądze.

Policja w Arizonie

Kobieta z Arizony przestrzega, że głos brzmiał praktycznie identycznie, jak jej córki. 

Oszustwa przy użyciu AI. Wystarczy 3-sekudnowa próbka głosu z nagrania zamieszczonego w social-mediach

Służby krajów, które zmagają się z nową falą oszustw przy użyciu sztucznej inteligencji, ostrzegają, że podobnych przypadków może być coraz więcej – metoda ma być skuteczna, a ludzie będący w wielkich emocjach, bojący się utraty swoich bliskich, nie wiedzą co robią i wysyłają pieniądze oszustom. 

W jaki sposób oszuści generują głos? Wystarczy 3-sekudnowy filmik zamieszczony w mediach społecznościowych – np. wrzucony fragment śpiewanej piosenki czy innego nagrania, które nastolatek zamieścił przeszłości w sieci (w Facebook-u, na Instagramie czy Tik-Toku). 

Zespół redakcyjny był w stanie sklonować mój głos. Przeżyłam szok, kiedy skonfrontowano mnie z rezultatem eksperymentu. Bardzo trudno było mi zdać sobie sprawę, że to nie byłam naprawdę ja.

Autorka podcastów Ariany Baborie, której głos sklonowali redaktorzy niemieckiego programu śledczego SWR "Vollbild

AI jest w stanie w ciągu kilku sekund dostosować się do rozmowy i wygenerować wypowiedź w taki sposób, żeby zdenerwowany rozmówca nie wyłapał najmniejszych niuansów. 

Śledczy zaniepokojeni rozwojem sztucznej inteligencji. AI klonuje głosy z 95-procentową dokładnością

Rozwój technologiczny niepokoi niemieckich śledczych. Uważają oni, że w ciągu ostatnich dwóch lat technologia, która do tej pory zupełnie nie była dostępna dla zwykłych oszustów, teraz staje się najpopularniejszym rozwiązaniem w celu wyłudzenia pieniędzy. Już teraz istnieją prawie całkowicie darmowe strony internetowe, które pozwalają klonować głos z dużą dokładnością. 

Firma technologiczna McAfee postanowiła przeprowadzić ankietę internetową, w której wzięło udział 7 tys. osób. Okazało się, że już 22 proc. badanych Niemców doświadczyło próby wyłudzenia pieniędzy z użyciem sztucznej inteligencji. Na całym świecie odsetek ten wynosi 25 proc.

Z badania firmy wynika także, że AI potrafi generować głos z 95 proc. dokładnością

Na razie nie pojawiły się informacje, żeby metoda wyłudzania pieniędzy z użyciem klonowania głosu dotarła do Polski, ale podobnie jak z innymi sztuczkami, prawdopodobnie i ta wkrótce może dotrzeć do naszego kraju, dlatego już teraz warto zdawać sobie sprawę z zagrożenia i być na nie przygotowanym.

Wideo Odtwarzacz wideo wymaga uruchomienia obsługi JavaScript w przeglądarce. Gwiazdowski mówi Interii. Odc. 44: Co z tą demokracją jest nie tak? INTERIA.PL

 

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *