Główne firmy internetowe, jak Google, Meta, Microsoft i TikTok, opublikowały we wtorek raporty, w których szczegółowo opisały, jak radziły sobie ze zwalczaniem dezinformacji, zwłaszcza w czasie czerwcowych wyborów do Parlamentu Europejskiego.
Do składania regularnych raportów Komisji Europejskiej zobowiązuje platformy unijny kodeks postępowania w zakresie dezinformacji. Dobrowolne porozumienie między KE a branżą internetową podpisane zostało w czerwcu 2022 r. i nakłada na serwisy m.in. obowiązek usuwania lub blokowania nieprawdziwych treści, kasowania lub zawieszania fałszywych kont i botów rozprzestrzeniających dezinformację, oznaczania materiałów sponsorowanych, zwłaszcza reklam politycznych, oraz blokowania możliwości zarabiania na rozpowszechnianiu dezinformacji.
Sygnatariuszy kodeksu jest 44 i należą do nich największe platformy internetowe, firmy technologiczne oraz mniejsi gracze, jak firmy zajmujące się reklamą internetową i fact-checkingiem. Opublikowane we wtorek raporty to czwarte sprawozdania złożone KE, w których platformy szczegółowo opisały jak walczyły z dezinformacją. Skupiono się zwłaszcza na newralgicznym okresie wyborów do Parlamentu Europejskiego, które odbyły się w dniach 6-9 czerwca br.
Z raportu TikToka wynika na przykład, że firma uruchomiła w aplikacji 27 centrów wyborczych w 24 językach, gdzie publikowane były rzetelne doniesienia o wyborach. Jak poinformował TikTok, strony te zostały odwiedzone przez 7,5 mln użytkowników w ciągu czterech tygodni poprzedzających głosowanie. W tym okresie też platforma usunęła 43 tys. treści naruszających politykę firmy dotyczącą dezinformacji oraz ponad 2,5 tys. fake newsów dotyczących samych wyborów. "96 proc. tych treści zostało usuniętych, zanim zostały nam zgłoszone, 80 proc. z nich nie zdążyło jeszcze trafić do odbiorców" – napisał TikTok.
Firmy poinformowały także, jakie podjęły środki, aby zabezpieczyć swoje serwisy przed rozpowszechnianiem za ich pośrednictwem dezinformacji wygenerowanej przez sztuczną inteligencję (AI). I tak np. Meta, czyli firma matka m.in. Facebooka i Instagrama zwróciła uwagę, że specjalnie oznaczała treści tworzone przez AI; w czasie wyborów do PE oznaczonych zostało ponad 5 mln tego typu treści publikowanych na obu platformach, ponad 4 mln zostały usunięte.
Wiceprzewodnicząca UE Viera Jourova, która jeszcze przez wyborami do PE mówiła PAP, że okres wyborczy będzie testem tego, czy UE radzi sobie z dezinformacją, we wtorek przypomniała, że chociaż kodeks wciąż jeszcze ma charakter dobrowolny, to niebawem podlegać będzie unijnym regulacjom cyfrowym. "Oczekuję, że sygnatariusze kodeksu szybko przekształcą go w kodeks postępowania na mocy ustawy o usługach cyfrowych” – skomentowała komisarka. Oznaczałoby to wówczas, że np. X (dawny Twitter), który w ubiegłym roku wycofał się z kodeksu, byłby prawnie zobowiązany do jego przestrzegania.
Kolejny zestaw sprawozdań platform na temat walki z dezinformacją spodziewany jest wiosną 2025 r.
Z Brukseli Jowita Kiwnik Pargana (PAP)
jowi/ kar/