Fałszowanie głosu dzięki sztucznej inteligencji (AI) to nowy sposób oszustów na wyłudzenie pieniędzy. Pierwsze przypadki miały miejsce w Niemczech i w stanie Arizona w USA. Oszuści dzwonią do bliskich używając głosu do złudzenia przypominającego syna lub córkę – głos prawdopodobnie został wygenerowany przy użyciu sztucznej inteligencji. Policjanci ostrzegają, że podobnych przypadków będzie coraz więcej, bo wyłudzacze mają coraz łatwiejszy dostęp do AI.
/123RF/PICSEL
Reklama
„Mamo, to ja. Miałem wypadek i zabiłem kobietę. Przekażę cię policjantowi” – takie słowa miała usłyszeć w słuchawce telefonu Corinna Busch, matka z Neuss (miasto w zachodnich Niemczech). Głos do złudzenia przypominał jej syna, a po przekazaniu słuchawki domniemanemu policjantowi, ten miał zażądać pieniędzy w zamian, że jej dziecko nie trafi do więzienia – donosi tagesschau.de, portal publicznego nadawcy ARD.
Sztuczna inteligencja (AI) pozwala stworzyć głos łudząco podobny do naturalnego. Podobnych przypadków jest coraz więcej, a jeszcze kilka lat temu technologia nie była tak łatwo dostępna, jak teraz. W 2023 roku oszuści mają ją na wyciągnięcie ręki i mogą używać jej do nowych oszustw – informuje niemiecka policja. W Niemczech przypadków jest już tak wiele, że służby nie nadążają z przyjmowaniem podobnych zgłoszeń i wyjaśnianiem spraw.
Nie tylko nasi zachodni sąsiedzi zmagają się z problemem. Głośno było także o innym przypadku ze Stanów Zjednoczonych.
„Klonowanie głosu” w rękach oszustów. W Niemczech seria wyłudzeń
– Głos bez wątpienia brzmiał, jak głos mojego dziecka – opowiedziała portalowi Busch. Mąż kobiety nie uwierzył oszustom i postanowił zadzwonić do syna. Jak się okazało ten nie uczestniczył w żadnym wypadku, a w tym czasie przebywał w domu.
Głos był tak łudząco podobny, że małżeństwo podejrzewa, że ktoś użył sztucznej inteligencji do sklonowania głosu ich syna.
O sprawie zrobiło się głośno w całych Niemczech, do tego stopnia, że temat postanowił podjąć program śledczy SWR „Vollbild”. Śledztwo dziennikarskie dowiodło, że oszuści w większości przypadków wykorzystują tego samego programu do podrabiania głosu, a w tym samym czasie, co próbowano oszukać rodzinę Busch, w całych Niemczech wykonano kilkadziesiąt podobnych telefonów w celu wyłudzenia pieniędzy.
Głos w sprawie zabrało Federalne Ministerstwo Spraw Wewnętrznych. – Każdego dnia stoimy przed różnorodnymi i złożonymi wyzwaniami związanymi z gwałtownym rozwojem technologicznym – stwierdzili urzędnicy. Ze statystyk wynika, że tylko w 2022 roku w samej Nadrenii Północnej-Westfalii doszło do ponad 8 tys. prób wyłudzenia pieniędzy m.in. metodą „na wnuczka” – doskonale znaną również w naszym kraju. Liczba połączeń telefonicznych z wykorzystaniem sztucznie stworzonego głosu obecnie nie jest rejestrowana – poinformował Federalny Urząd Policji Kryminalnej.
Nie tylko w Niemczech muszą mierzyć się z nowym sposobem oszustów na wyłudzanie pieniędzy. W ostatnim czasie do podobnego przypadku doszło także w USA.
Porwanie z głosem dziecka w tle. Chcą pieniędzy, nie mają żadnych granic
W kwietniu w USA służby odnotowały pierwszy przypadek oszustwa telefonicznego, w którym użyto AI w celu wyłudzenia pieniędzy. Sprawa wyjątkowo oburzyła społeczność, bo w Arizonie zażądano milionowego okupu od rzekomo porwanej małej dziewczynki. Wystraszona matka nie wiedziała, co zrobić.
– W tle było wyraźnie słychać głos mojej córki – opisywała zdarzenie kobieta. Oszust miał zgodzić się na o wiele niższą kwotę. Kobieta ostatecznie o mało co nie wpłaciła 50 tys. dolarów na konto złodzieja. Dopiero w ostatniej chwili okazało się, że cała sytuacja została wymyślona, a dziewczynka jest cała i bezpieczna.
Policja w Arizonie
Kobieta z Arizony przestrzega, że głos brzmiał praktycznie identycznie, jak jej córki.
Oszustwa przy użyciu AI. Wystarczy 3-sekudnowa próbka głosu z nagrania zamieszczonego w social-mediach
Służby krajów, które zmagają się z nową falą oszustw przy użyciu sztucznej inteligencji, ostrzegają, że podobnych przypadków może być coraz więcej – metoda ma być skuteczna, a ludzie będący w wielkich emocjach, bojący się utraty swoich bliskich, nie wiedzą co robią i wysyłają pieniądze oszustom.
W jaki sposób oszuści generują głos? Wystarczy 3-sekudnowy filmik zamieszczony w mediach społecznościowych – np. wrzucony fragment śpiewanej piosenki czy innego nagrania, które nastolatek zamieścił przeszłości w sieci (w Facebook-u, na Instagramie czy Tik-Toku).
Autorka podcastów Ariany Baborie, której głos sklonowali redaktorzy niemieckiego programu śledczego SWR "Vollbild
AI jest w stanie w ciągu kilku sekund dostosować się do rozmowy i wygenerować wypowiedź w taki sposób, żeby zdenerwowany rozmówca nie wyłapał najmniejszych niuansów.
Śledczy zaniepokojeni rozwojem sztucznej inteligencji. AI klonuje głosy z 95-procentową dokładnością
Rozwój technologiczny niepokoi niemieckich śledczych. Uważają oni, że w ciągu ostatnich dwóch lat technologia, która do tej pory zupełnie nie była dostępna dla zwykłych oszustów, teraz staje się najpopularniejszym rozwiązaniem w celu wyłudzenia pieniędzy. Już teraz istnieją prawie całkowicie darmowe strony internetowe, które pozwalają klonować głos z dużą dokładnością.
Firma technologiczna McAfee postanowiła przeprowadzić ankietę internetową, w której wzięło udział 7 tys. osób. Okazało się, że już 22 proc. badanych Niemców doświadczyło próby wyłudzenia pieniędzy z użyciem sztucznej inteligencji. Na całym świecie odsetek ten wynosi 25 proc.
Z badania firmy wynika także, że AI potrafi generować głos z 95 proc. dokładnością.
Na razie nie pojawiły się informacje, żeby metoda wyłudzania pieniędzy z użyciem klonowania głosu dotarła do Polski, ale podobnie jak z innymi sztuczkami, prawdopodobnie i ta wkrótce może dotrzeć do naszego kraju, dlatego już teraz warto zdawać sobie sprawę z zagrożenia i być na nie przygotowanym.
Odtwarzacz wideo wymaga uruchomienia obsługi JavaScript w przeglądarce. INTERIA.PL