Czym jest oszustwo typu deepfake? Cyberprzestępcy wykorzystują wizerunki znanych osób

Andrzej Duda Andrzej Duda, Robert Lewandowski i inne znane osobistości pojawiali się w filmach rozpowszechnianych w internecie i namawiali do inwestycji finansowych, które rzekomo miały być „wyjątkowo korzystne„. Na tym właśnie polega technologia deepfake.

Wizerunki i głosy tych znanych osobistości zostały wykorzystane w fałszywych nagraniach, w których manipulacja technologiczna sprawiała, że wydawały się one autentyczne. Od początku maja pojawiło się wiele nowych oszustw wykorzystujących technologię deepfake, które z każdym dniem stają się coraz bardziej przekonujące.

Czym jest oszustwo deepfake?

O oszustwach opartych na technologii deepfake ponownie zaczęto głośno mówić w marcu 2024 roku. Na platformie społecznościowej Facebook pojawiły się nagrania wideo, w których wykorzystano wizerunek prezesa InPostu do promowania nieuczciwych inwestycji. Pomimo szybkiej reakcji Rafała Brzoski i zgłoszenia sprawy administratorom Meta, serwis nie reagował na protesty biznesmena przez wiele dni.

W filmach udostępnionych na Facebooku oszuści wykorzystali technikę lip-sync, manipulując nie tylko treścią mówioną głosem osoby na nagraniu, lecz także synchronizując ruchy ust z wypowiadanymi słowami.

– Obecnie technologie pozwalają przestępcom na łatwe manipulacje materiałami audiowizualnymi. W przypadku technologii typu „text-to-speech” wystarczy zaledwie kilka sekund nagranego głosu, aby stworzyć nowy dźwiękowy podkład, który można zsynchronizować z materiałem wideo, na przykład z dowolnym przemówieniem czy wystąpieniem politycznym. Natomiast dla technologii „speech-to-speech”, która uwzględnia intonację i emocje zawarte w głosie, potrzebny jest dłuższy fragment oryginalnego materiału, około minuty – wyjaśnia Ewelina Bartuzi-Trokielewicz, kierująca Zespołem Analizy Deepfake w NASK.

Od początku maja na platformach społecznościowych pojawiło się wiele nowych oszustw typu deepfake. Przestępcy bezprawnie wykorzystali w nich wizerunki i podrobili głosy, między innymi prezydenta Andrzeja Dudy, minister zdrowia Izabeli Leszczyny, piłkarza Roberta Lewandowskiego, influencera Kamila Labuddy (Buddy) oraz biznesmena Rafała Brzoski, prezesa InPostu. Na kradzież wizerunku (a także głosu) narażeni są wszyscy ci, którzy są znani i cieszą się autorytetem w pewnych grupach społecznych, takich jak politycy, biznesmeni czy celebryci.

Trudno dziś wierzyć własnym oczom

Często takie fałszywe materiały są prezentowane w formie szablonu przekazu telewizyjnego, najczęściej w ramach programów informacyjnych, co ma dodatkowo podkreślić rangę przekazywanych treści i zwiększyć ich wiarygodność. Ludzie często ufają informacjom, które widzą w telewizji. Wykorzystanie takiego zabiegu pokazuje, jak technologia deepfake może być używana do tworzenia złożonych, przekonujących, chociaż fałszywych narracji, które na pierwszy rzut oka wydają się autentyczne.

– Łatwość, z jaką można tworzyć fałszywe materiały audiowizualne, zwiększa ryzyko manipulacji i dezinformacji. Dlatego ważne jest zwiększenie świadomości społecznej na temat rozwoju i możliwości technologii generowania treści syntetycznych. Użytkownicy mediów społecznościowych powinni być ostrożni wobec treści wideo, które wydają się niezweryfikowane lub podejrzane, szczególnie jeśli mają potencjał wpływania na publiczne postrzeganie znaczących postaci i instytucji – przestrzega ekspertka NASK.


Источник

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *