Szczególnie dotknięta procederem deepfake była znana aktorka Scarlett Johansson. Teraz ostro walczy z tym procederem
Michał Duszczyk
Trwa globalna debata nad sposobem oznakowywania materiałów, które powstały z wykorzystaniem sztucznej inteligencji. Miałoby to zapobiec plagiatom, oszustwom, czy też mniej lub bardziej świadomemu wprowadzaniu użytkowników takich treści w błąd.
Jak pokonać dezinformację i oszustwa w sieci
OpenAI znalazło sposób na rozwiązanie tego problemu – opracowało specjalny znak wodny (choć nie chodzi o znak wizualny), który miałby wyróżniać treści stworzone przez chatbota. Jednocześnie firma, która stoi za ChatGPT, przeprowadziła badania wśród użytkowników tego narzędzia. Spytała, jak taki wyraźny sposób sygnowania tekstów generowanych przez AI wpłynie na ich zainteresowanie korzystaniem z bota. Niespodziewanie okazało się, że internauci zupełnie nie są zainteresowani wdrożeniem takiej funkcjonalności. Spora część z nich stwierdziła wręcz, że przestaną używać tej technologii, jeśli pojawi się znak świadczący o tym, że materiał został stworzony przez sztuczną inteligencję. Tak stwierdziło prawie 30 proc. ankietowanych.
Powód niechęci jest oczywisty – boją się, że wyjdzie na jaw, że w swojej pracy (dotyczy to głównie uczniów) sięgają po wsparcie AI. Ryzyko przyłapania na posiłkowaniu się ChatGPT to wciąż dla wielu użytkowników tego narzędzia powód do obaw. OpenAI zdecydowało zatem, by koncept znaku wodnego na razie zamrozić. Jak pisze „New York Times” („NYT”), gotowy projekt w szufladzie leży już od roku. „Firma na szali położyła argumenty mówiące o tym, że wdrożenie znaków wodnych to odpowiedzialne posunięcie, a także obawy, iż to rozwiązanie zaszkodzi wynikowi finansowemu” – wskazuje „NYT”. Przeważyła druga opcja.
W oczekiwaniu na znak wodny AI
Sposób sygnowania treści generowanych przez bota, opracowany przez OpenAI, jest dość wyjątkowy. Nie chodzi bowiem o typowy wizualny znak wodny. W dużym uproszczeniu polega ona na takim dostosowywaniu sposobu generowania odpowiedzi na zapytania użytkownika, który tworzy wykrywalny wzór. Taki system byłby bez wątpienia dobrodziejstwem dla nauczycieli zmagających się z pracami, które są pisane nie przez uczniów, ale boty. Tym bardziej, że jak wskazuje serwis TechCrunch, ta metoda jest skuteczna w 99,9 proc. Twórcy ChatGPT na blogu zastrzegają jednak, że pomysł takiego kryptograficznego znakowania treści wcale nie został zarzucony, ale po prostu jest „na wczesnym etapie eksploracji osadzania metadanych”.