Polacy domagają się przejrzystych reguł. 96% pragnie etykietowania treści AI w mediach.

Ponad 92% Polaków zdaje sobie sprawę z wykorzystywania inteligencji sztucznej przez redaktorów, lecz aż 66% żywi obawy dotyczące manipulacji przy użyciu materiałów generowanych przez algorytmy i ich wpływu na postawy społeczne – to konkluzje z ekspertyzy zrealizowanej na zamówienie KRRiT pt. „Inteligencja sztuczna w mediach”.

Polacy żądają jasnych zasad. 96 proc. chce oznaczania materiałów AI w mediach

fot. DedMityay / / Shutterstock

Główne spostrzeżenia z badania przedstawiła przewodnicząca Krajowej Rady Radiofonii i Telewizji, dr Agnieszka Glapiak, w trakcie konferencji „AI – media w epoce algorytmów”.

„Sztuczna inteligencja przekształciła się z futurystycznej obietnicy w instrument, który coraz powszechniej wspiera dziennikarzy, redaktorów czy twórców treści cyfrowych w ich rutynowej pracy. Z jednej strony AI wywołuje zaciekawienie i nadzieje, z drugiej – obawy i niepewność. W celu poznania opinii Polaków w tym aspekcie, KRRiT powierzyła Ogólnopolskiej Grupie Badawczej przeprowadzenie badania dotyczącego percepcji AI w mediach. Rezultaty stanowią istotny punkt wyjścia do dalszych rozważań nad rolą technologii i jej oddziaływaniem na jakość przekazu” – oznajmiono w przekazanym PAP komunikacie prasowym.

Ankietowani pragną oznaczania materiałów AI

Jak zauważono, przytłaczająca większość respondentów (niemal 96%) oczekuje, aby artykuły generowane z użyciem AI były klarownie sygnalizowane.

„Pomimo rezerwowego nastawienia do sztucznej inteligencji, odbiorcy dostrzegają liczne korzyści płynące z AI. Najczęściej wymieniane to: automatyczne przekłady treści na inne języki, redukcja czasu w tworzeniu i pozyskiwaniu informacji oraz poprawa aspektów wizualnych (np. tworzyw graficznych). Ponad połowa ankietowanych (51% respondentów) uważa, że zastosowanie AI jako środka wspomagającego proces tłumaczenia obcojęzycznych tekstów poszerza dostęp do wiedzy i informacji” – zaakcentowano.

"Omamy AI"

Największe obawy, jak wskazano, dotyczą wiarygodności komunikatu. Respondenci uwypuklają niebezpieczeństwo wpływania na opinię publiczną oraz nasilenie zagrożenia dezinformacją.

„Wątpliwości wzbudzają także tzw. »omamy AI«, czyli sytuacje, w których algorytmy generują błędne wiadomości jako fakty. Ponad 44% uznaje takie okoliczności za ryzyko” – zaznaczono w komunikacie.

„Wyniki ekspertyzy zlecanej przez KRRiT dobitnie demonstrują, że odbiorcy nie są skłonni zaakceptować zastąpienia prezenterów w mediach masowego przekazu (telewizji, radiu i internecie) przez sztuczną inteligencję. Ponad 95% ankietowanych oponuje przeciwko użyciu AI w tej roli. 76% ankietowanych zdecydowanie nie dopuszcza wykreowanych przez AI prezenterów w telewizji, a przeszło 73% wyraziło sprzeciw w odniesieniu do radia” – dodano.

Ekstremalny sprzeciw, jak zauważono, wywołuje natomiast wykorzystywanie wizerunku osób zmarłych w audycjach publicystycznych. Ponad 93% respondentów odrzuca takie rozwiązania, jedynie 2,6% wyraża aprobatę, a 4% nie ma zdania w tej sprawie. Częściową akceptację odnotowano jedynie w kontekście treści edukacyjnych i artystycznych – zgodę wyraziło odpowiednio 35% i 25% uczestników badania.

Konkluzje i zalecenia

„Rezultaty badania umożliwiają wyciągnięcie następujących wniosków i zaleceń dotyczących wykorzystywania AI w mediach: jednoznaczne oznaczanie treści generowanych przez AI – tego oczekuje blisko 96% ankietowanych (zalecane jest stosowanie ujednoliconych komunikatów i etykiet) oraz zaakcentowanie roli człowieka jako ostatecznego weryfikatora jakości (preferuje to blisko 60% ankietowanych). Dodatkowo także stopniowe wprowadzanie AI w funkcjach wspomagających, takich jak tłumaczenia i wizualizacja danych, z poszanowaniem kreatywności (51% badanych widzi korzyści w tym zakresie) oraz edukacja odbiorców w obszarze rozpoznawania nieprawdziwych treści – zwłaszcza w kontekście obaw przed manipulacją i dezinformacją (niemal 67% respondentów obawia się potencjału wpływania na opinię publiczną za pośrednictwem AI)” – dodano w komunikacie.

Badanie, na zlecenie KRRiT, zrealizowała Ogólnopolska Grupa Badawcza (OGB) w dniach 23-27 października 2025 r. metodą CATI. Przebadano reprezentatywną próbę N=1000 pełnoletnich mieszkańców Polski. Próbę dobrano w sposób kwotowo-losowy, w oparciu o kryteria: płeć, wiek, wykształcenie oraz miejsce zamieszkania (dane wg GUS). Analiza objęła zagadnienia świadomości i nastawienia wobec AI, zalet i zagrożeń, upodobań dotyczących treści i prezenterów, wykorzystywania wizerunku osób zmarłych oraz poziomu zaufania do technologii. (PAP)

akn/ miś/

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *