TikTok stanowi potencjalne niebezpieczeństwo dla dzieci i młodzieży – alarmują eksperci po aktach samobójczych trzech nastolatków z Pomorza, którzy wcześniej raportowali w aplikacji treści pełne rezygnacji. Platforma odpiera oskarżenia, zaznaczając, że likwiduje takie materiały i nie zaistniał żaden nowy trend.

TikTok zagrożeniem dla młodzieży
Samobójstwa trzech nastolatków z woj. pomorskiego ponownie roznieciły dyskusję o wpływie mediów społecznościowych na kondycję psychiczną dzieci i młodzieży. Nastolatkowie ponieśli śmierć pod kołami pociągu. Jak wynika z doniesień medialnych, wcześniej zamieszczali w serwisie TikTok treści o charakterze rezygnacyjnym. Sprawa zbiegła się w czasie z komunikatem zamieszczonym w aplikacji KidsAlert, dotyczącym wzrastającej liczby niepokojących treści ukazujących się na platformie.
KidsAlert zawiadomił o nasileniu się publikacji określanych przez młodych odbiorców jako „moja data”, zawierających krótkie pożegnania, zapowiedzi odejścia lub symboliczne wskazywanie daty śmierci (PAP informowała o tym w depeszy 10 grudnia br.)
Według twórców alertu zjawisko przybrało na sile w październiku i listopadzie, a niektóre materiały osiągały oglądalność przekraczającą milion odsłon. Organizacja zaalarmowała, że algorytm platformy może potęgować styczność nastolatków z analogicznymi treściami, jeśli użytkownik natknie się na nie w trudnej chwili psychicznej. Zaznaczono, że choć publikacje te nie muszą stanowić bezpośredniego powodu tragedii, mogą pośrednio oddziaływać na psychikę młodych osób.
TiKTok odpowiada
Do zarzutów ustosunkowało się biuro prasowe TikToka, które w odpowiedzi dla PAP kategorycznie zanegowało sugestie o istnieniu niebezpiecznego trendu oraz o winie algorytmu za propagowanie treści rezygnacyjnych. Platforma oświadczyła, że nie dopuszcza treści przedstawiających, zapowiadających lub promujących samobójstwo czy samookaleczenia, a każdy taki materiał jest usuwany bezzwłocznie po wykryciu. Jak podano, przeszło 99 proc. treści łamiących reguły społeczności jest usuwanych proaktywnie, zanim jeszcze zostaną zgłoszone przez użytkowników, a możliwość wyszukiwania konkretnych fraz jest blokowana.
TikTok podważył także wnioski zawarte w alercie KidsAlert, oceniając je jako spekulacyjne i niepoparte faktami. W opinii platformy autorzy alertu nie wystąpili o dostęp do narzędzi analitycznych udostępnianych niezależnym badaczom, ani nie przedstawili metodologii analizy trendów. TikTok wskazał również, że Instytut Monitorowania Mediów nie sporządził raportu, który potwierdzałby relację pomiędzy wzrostem zainteresowania takimi treściami a działaniem algorytmu rekomendacji. Zdaniem platformy opis mechanizmu rekomendacji zawarty w alercie wprowadza w błąd, a doświadczenie nastolatków w aplikacji jest bardziej ograniczone niż w przypadku kont dorosłych użytkowników – zarówno pod względem funkcji, jak i rodzaju prezentowanych treści.
Platforma oznajmiła także, że po otrzymaniu sygnałów skontrolowała treści oznaczone wskazanymi hasztagami, kasując wszelkie materiały naruszające zasady, oraz prewencyjnie zmodyfikowała mechanizmy wyszukiwania, aby zminimalizować potencjalny wzrost zainteresowania wynikający z rozgłosu medialnego. Przy wyszukiwaniu haseł związanych z samobójstwem użytkownicy mają być przekierowywani do lokalnych linii pomocowych i sprawdzonych źródeł wsparcia.
TikTok odniósł się również do listu otwartego twórców aplikacji KidsAlert, odrzucając zawarte w nim zarzuty o wywieranie nacisku na instytucje lub próby tuszowania poruszanych kwestii. Platforma zaakcentowała, że pozostaje otwarta na kooperację z organizacjami pozarządowymi i przypomniała, iż już rok temu zaproponowała twórcom KidsAlert dołączenie do programu Community Partner Channel, dającego bezpośredni kontakt z zespołami bezpieczeństwa.
Centralne Biuro Zwalczania Cyberprzestępczości zabiera głos
W kwestii domniemanego „trendu” wypowiedziało się również Centralne Biuro Zwalczania Cyberprzestępczości. W odpowiedzi na pytania PAP rzecznik CBZC kom. Marcin Zagórski podkreślił, że rolą Biura nie jest ocenianie, czy dane zjawisko jest trendem. Jak zaznaczył, CBZC monitoruje sieć przez całą dobę i reaguje na każdy przypadek zagrożenia życia lub zdrowia, zarówno na podstawie własnych ustaleń, jak i informacji przekazywanych przez współpracujące instytucje, m.in. Fundację Dajemy Dzieciom Siłę oraz Biuro Rzecznika Praw Dziecka.
Rzecznik zaprzeczył również przekazom medialnym, jakoby funkcjonariusz CBZC miał stwierdzić, że zjawisko „moja data” nie istniało. Wyjaśnił, że w wypowiedzi post. Michała Pietraszko nie pojawiła się ani potwierdzająca, ani negująca ocena istnienia jakiegokolwiek trendu, a odnosiła się ona jedynie do ogólnych zagrożeń i działań podejmowanych przez policjantów. CBZC podkreśliło także, że nie prowadzi dochodzenia w sprawach dotyczących samobójstw nastolatków z Pomorza i nie zna okoliczności tych zdarzeń.
Ekspert: Platformy powinny ponosić odpowiedzialność
Z kolei w opinii prof. Mariusza Jędrzejki, badacza tzw. nowych mediów i ich wpływu na psychikę i bezpieczeństwo dzieci, brak formalnej definicji trendu w mediach społecznościowych nie powinien zwalniać platform od odpowiedzialności.
Jak ocenił, wszelkie powtarzające się schematy publikacji w mediach społecznościowych, zwłaszcza dotyczące zagrożenia życia i zdrowia, powinny być nadzorowane i automatycznie wyłapywane przez systemy platform.
Stowarzyszenie o ostrzeżeniach prewencyjnych KidsAlert
Do sprawy ustosunkowało się również Stowarzyszenie Pravda, zajmujące się fact-checkingiem i edukacją medialną. Organizacja potwierdziła obecność na TikToku treści określanych jako „moja data”, wskazując, że choć nie można mówić o powszechnym trendzie ani łączyć ich bezpośrednio z tragicznymi zdarzeniami, to ich występowanie i sposób rozpowszechniania uzasadniały ostrzeżenia prewencyjne KidsAlert. Pravda podkreśliła, że zawężanie debaty wyłącznie do pytania o istnienie trendu upraszcza problem i odwraca uwagę od realnego wpływu treści na wrażliwych odbiorców.
Stowarzyszenie zaznaczyło również, że brak przesłanek na bezpośredni związek publikacji z konkretnymi tragediami nie obala faktu istnienia takich materiałów, z których część uzyskiwała wysokie zasięgi. Zdaniem Pravdy algorytmy rekomendacyjne mogą powiększać ekspozycję na treści o podobnym, emocjonalnie obciążającym charakterze, co stanowi czynnik ryzyka dla młodych użytkowników w kryzysie. Organizacja zwróciła także uwagę na ograniczony dostęp badaczy do pełnych danych platformy i rolę organizacji społecznych jako elementu systemu wczesnego ostrzegania.
Kontekst międzynarodowy
Sprawa wpisuje się w szerszy kontekst globalny. W Australii w bieżącym miesiącu wszedł w życie zakaz korzystania z platform społecznościowych przez osoby poniżej 16. roku życia, a podobne rozwiązania zapowiada Malezja. Również Parlament Europejski wyraził obawy związane z wpływem mediów społecznościowych na zdrowie psychiczne nieletnich, postulując ograniczenia wiekowe lub obowiązkową zgodę rodziców.
Jak podkreśliła medioznawczyni z UMCS dr Ilona Dąbrowska, aktualne w Polsce prawo nie zapewnia skutecznej ochrony dzieci przed zagrożeniami w sieci. Jej zdaniem regulacje nie stanowią naruszenia wolności młodych użytkowników, lecz formę zabezpieczenia przed treściami, z którymi nie są w stanie samodzielnie sobie poradzić. Wskazała, że wzrastająca ilość samobójstw wśród młodych osób może być pośrednim wynikiem niekontrolowanego dostępu do treści w internecie.
Według danych Komendy Głównej Policji w 2024 r. samobójstwo popełniło w Polsce 127 dzieci w wieku od 7 do 18 lat. Z kolei badania Fundacji Dbam o Mój Zasięg i Banku Gospodarstwa Krajowego wskazują, że treści związane z samookaleczeniem lub samobójstwem pojawiają się w mediach społecznościowych u 40 proc. uczniów siódmych klas szkół podstawowych i 50 proc. uczniów szkół ponadpodstawowych.
Dyskusja o odpowiedzialności platform cyfrowych toczy się także na poziomie UE i USA. Komisja Europejska niedawno nałożyła pierwszą karę na platformę X za naruszenia Aktu o usługach cyfrowych, jednocześnie kończąc jedno z postępowań wobec TikToka w zakresie transparentności reklam. W Stanach Zjednoczonych TikTok zawarł umowę o sprzedaży części swoich aktywów amerykańskim inwestorom, co – zgodnie z zapowiedziami – ma zwiększyć nadzór nad algorytmem i bezpieczeństwem danych.
Kwestia treści rezygnacyjnych wśród młodzieży pozostaje otwarta, a eksperci i organizacje społeczne podkreślają potrzebę systemowych rozwiązań oraz większej odpowiedzialności platform za bezpieczeństwo najmłodszych użytkowników internetu.
Mira Suchodolska (PAP)
mir/ mark/ mhr/
