Deepfake’i stały się potężnym orężem w rękach grup przestępczych oraz służb wywiadowczych innych państw. O tym, w jaki sposób oszuści, posługując się AI, przenikają do firm, jakie szkody powodują oraz czy istnieją metody, aby się przed tym zabezpieczyć, rozmawiamy z dr Pragiem Sharmą, ekspertem w zakresie sztucznej inteligencji w globalnym banku Citi oraz współautorem raportu dotyczącego deepfake’ów.

Zaledwie dwa lata temu wyłudzenia finansowe z użyciem inteligencji sztucznej stanowiły zjawisko marginalne. Obecnie jest to zagadnienie coraz bardziej palące. Wśród nich szczególnie wyróżniają się oszustwa wykorzystujące różne elementy deepfake’u – generowane przez AI nagrania wideo, dźwiękowe lub zdjęcia.
Zgodnie z danymi pochodzącymi z publikowanego w listopadzie raportu Citi Institute, jednostki badawczej globalnego banku Citi, ich udział w całkowitej liczbie oszustw wzrósł bowiem z 0,1% w 2022 r. do blisko 5% w 2024 r. I przypuszczalnie wkrótce będzie jeszcze wyższy, ponieważ liczba deepfake’ów podwaja się co sześć miesięcy. Ocenia się jednocześnie, że globalny koszt cyberprzestępczości osiągnie w 2025 roku oszałamiającą kwotę 10,5 biliona dolarów w porównaniu do 3 bilionów dolarów dekadę wcześniej.
Warto nadmienić, że jest to istotny problem również dla przedsiębiorstw. W sektorze kredytów konsumenckich deepfake’i odpowiadają już za niemal 12% wszystkich prób oszustw, natomiast w branży nieruchomości za około 8% – czytamy w raporcie Citi Institute.


Materiały prasowe
Przeszkody dla oszustów praktycznie zaniknęły
– Jednym z zasadniczych czynników tak gwałtownego wzrostu tego typu przestępstw jest rozwój możliwości technologii. Aczkolwiek sama technologia nie jest wystarczająca. Kluczowa jest jej powszechna dostępność. Mam na myśli zwłaszcza dostępność modeli open-source. Jedynym elementem, który powstrzymuje obecnie kogokolwiek przed wykorzystaniem tej technologii zarówno w dobrych, jak i nieuczciwych celach, jest brak umiejętności, jak uruchamiać oraz trenować modele językowe, bądź brak dostępu do niezbędnego sprzętu – oznajmia Bankier.pl Prag Sharma, dyrektor Future of Finance, think tanku funkcjonującego w ramach grupy Citi.
– Zanim pojawiły się duże modele językowe (LLM), oszustwa wykorzystujące tekst wymagały znacznego nakładu pracy manualnej i były prymitywne. LLM umożliwiły generowanie tekstu, który brzmi bardzo realistycznie. AI od początku niesie potencjał związany z hiperpersonalizacją – dostosowaniem usług do potrzeb określonej grupy albo nawet konkretnej osoby. I identycznie dzieje się w przypadku oszustów oraz generowanych przez nich deepfake’ów – spostrzega ekspert.
Ekspert Citi zaznacza, iż rewolucja dotyczy w szczególności tzw. multimodalności w komunikacji. – Przestępcy znakomicie łączą tekst, dźwięk i obraz w spójną i coraz bardziej prawdopodobną całość. Narzędzia nie są już wyłączną domeną hakerów. Bariera wejścia dla przestępców praktycznie zniknęła – stwierdza Sharma.
W raporcie Citi przytoczony jest opisywany już w mediach przypadek z 2024 roku dotyczący brytyjskiej korporacji z oddziałem w Hongkongu. Pracownik tego biura otrzymał zaproszenie na wideokonferencję z dyrektorem finansowym oraz pozostałymi członkami zarządu. Temat: poufna transakcja i natychmiastowy przelew środków. Pracownik widział oblicza swoich przełożonych, słyszał ich głosy. Wykonał polecenie, przekazując 200 milionów dolarów hongkońskich (około 25 milionów USD) na wskazane rachunki. Pułapka? Na tym spotkaniu on był jedyną prawdziwą osobą. Wszyscy pozostali „uczestnicy” byli deepfake’ami generowanymi w czasie rzeczywistym.
– Jesteśmy w punkcie, w którym technologia rozwija się tak dynamicznie, że większość z nas nawet nie jest w stanie pojąć jej potencjału – komentuje Sharma. – Jeżeli ktoś dzwoni z pewną ofertą, odpowiemy „nie, dziękuję”, ponieważ nauczyliśmy się ignorować podejrzane rozmowy telefoniczne. Lecz jeśli będzie to wideo oraz dźwięk połączone jako deepfake, będziemy o wiele bardziej skłonni dać temu wiarę.
Szczególnie niepokojącym trendem, na który zwraca uwagę Sharma i raport Citi, jest infiltracja miejsc pracy za sprawą AI. Nie chodzi jedynie o pieniądze z wynagrodzenia – lecz o dostęp do systemów firmowych, sekretów handlowych i własności intelektualnej.
Kiedyś wirus, dziś sztuczna inteligencja
Jedna z amerykańskich firm technologicznych w rozmowie z autorami raportu Citi przyznała, że aż połowa otrzymywanych przez nią ostatnio CV jest nieprawdziwa. Prognozy są pesymistyczne – szacuje się, iż do 2028 roku co czwarty profil kandydata do pracy na świecie może być całkowicie lub częściowo wygenerowany.
Motywacją bywa nie tylko zwykła chęć uzyskania etatu, na który oszust nie miałby szans w normalnych okolicznościach, bądź zatrudnienia się na kilku etatach jednocześnie, lecz także zorganizowana przestępczość czy działalność na szczeblu państwowym.
– Infiltracja danej organizacji, jej systemów z udziałem człowieka daje znacznie większe możliwości dalszego działania niż na przykład przedostanie się do systemów firmy za pomocą trojana (rodzaj wirusa komputerowego – red.) – zauważa ekspert.
Raport wskazuje na konkretnego aktora: Koreę Północną. Szacuje się, że w ciągu minionego roku północnokoreańscy pracownicy IT, posługując się fałszywymi tożsamościami i technologią deepfake, przeniknęli do ponad 320 firm na Zachodzie.
– To nie są indywidualne działania dla szybkiego zarobku. To zorganizowane, strategiczne operacje. Państwo zapewnia zasoby oraz narzędzia, wybiera kierunek ataku – mówi Sharma.
Przestępcy celują w posady zdalne, używają AI do generowania CV i profili w mediach społecznościowych, a podczas rozmów kwalifikacyjnych wykorzystują klonowanie głosu oraz wideo, aby podszyć się pod nieistniejących kandydatów. Po zatrudnieniu zyskują zaś legalny dostęp do infrastruktury firmy.
Zero trust i AI kontra AI
Jakie mogą być strategie obrony przed deepfake’ami? Raport Citi oraz nasz rozmówca wskazują m.in. na model tzw. zerowego zaufania (ang. Zero Trust) w komunikacji. – Zero trust oznacza, że domyślnie nie uwierzymy i nie powiemy nikomu: „dziękuję, że Pan dzwoni, proszę, tu są wszystkie dane”. Przeciwnie, potrzebujemy dodatkowej weryfikacji – objaśnia Sharma.
Każda interakcja może być weryfikowana w czasie rzeczywistym.
– Musimy poszukiwać sygnałów ostrzegawczych w biometrii behawioralnej. Sposób, w jaki użytkownik pisze na klawiaturze czy wchodzi w interakcję z naszym systemem, tworzy unikalny wzorzec. Jeśli wykryjemy odstępstwo, system powinien samoczynnie wymusić dodatkową weryfikację. To niektóre z mechanizmów, które już funkcjonują, a teraz musimy je skutecznie rozszerzyć na obszar generatywnej AI – tłumaczy Sharma.
– Obecnie podrobiony głos brzmi tak realistycznie, że jego odróżnienie „na słuch” staje się praktycznie niemożliwe – dodaje ekspert Citi. Syntetyczne głosy potrafią już imitować emocje, takie jak radość, gniew czy empatię, co tym bardziej czyni je niezwykle trudnymi do odróżnienia od ludzkich. Jakie rozwiązanie stosują banki? Np. sztuczną inteligencję, która działa w obrębie infrastruktury call center, i w czasie rzeczywistym analizuje strumień audio, by wyłapać ewentualne syntetyczne artefakty pozostawione przez AI przestępców, nie wpływając w żaden sposób na trwającą rozmowę.
– Wkraczamy w epokę rozwiązań, które wykorzystują samą sztuczną inteligencję do walki z fałszerstwami stworzonymi za pomocą AI. Wśród takich rozwiązań jest np. analiza nienaturalnych ruchów albo badanie mikro-zmian odcienia skóry, które różnią się w wideo prawdziwym i wygenerowanym. To innowacyjne metody, ale należy pamiętać, że to nieustanny wyścig zbrojeń – gdy organizacje wdrażają zabezpieczenie, druga strona już szuka sposobów na jego obejście – dodaje ekspert.
Przestępcy coraz częściej będą stosować tzw. agentów AI i branża finansowa już się na to przygotowuje. „Oszuści mogą wykorzystywać agentów na dużą skalę, aby podszywać się pod kadrę kierowniczą, manipulować pracownikami bądź wprowadzać w błąd klientów. Podnosi to poprzeczkę. Instytucje finansowe muszą wyjść poza weryfikację użytkowników i zająć się również weryfikacją tożsamości, intencji i pochodzenia agentów AI” – czytamy w raporcie Citi Institute.
Deepfejki będą jak e-maile ze spamem?
Na tego typu zabezpieczenia mogą sobie pozwolić korporacje. A co ze społeczeństwem, równie mocno zagrożonym oszustwami z wykorzystaniem sztucznej inteligencji? Prag Sharma jest optymistą. – Ludzie radzą sobie coraz lepiej z rozpoznawaniem, co jest deepfejkiem, a co nie. Dowiadują się, jakie są ograniczenia tej technologii, na co zwracać uwagę – mówi.
– Sądzę, że będzie tak jak z oszustwami e-mailowymi. Niewiele osób się dziś nabiera na historie o księciu z egzotycznego kraju. Tego typu maile pojawiły się 20 lat temu i krążą do dzisiaj, ale większość od razu trafia do spamu – zauważa ekspert.
Jego zdaniem w walce z deepfejkami i ogólnie wszelkiego rodzaju dezinformacją może paradoksalnie pomóc tzw. AI slop, czyli niskiej jakości treści tworzone dzięki AI (np. pozbawione sensu obrazki czy wideo), które coraz większą falą zalewają media społecznościowe, pomagając identyfikować oszustwa generowane przy pomocy AI. – Gdy będzie tego za dużo, sprawi to, że jako społeczeństwo zaczniemy zwracać coraz większą uwagę na to, jakie treści są prawdziwe, a jakie nie. Będziemy domagać się dowodów, że to co oglądamy, jest prawdą – podsumowuje Prag Sharma.
