Sztuczna inteligencja pomoże eliminować „nieuprzejmych”

Farmy trolli czy fałszywe profile, z których płynie fala hejtu, również w kierunku przedsiębiorstw, to już internetowa codzienność. Jednak zaskakująco dużo nienawistnych komentarzy płynie z klawiatur zwykłych ludzi, którzy w sieci wyładowują swoje frustracje. Brak moderacji sprawia, że niektóre dyskusje wymykają się spod kontroli. Aż 37 proc. polskich internautów doświadczyło hejtu w sieci. Okazuje się, że w ochronie przed tym zjawiskiem może pomóc sztuczna inteligencja.

Sztuczna inteligencja pomoże eliminować „nieuprzejmych”

fot. New Africa / / Shutterstock

Blisko 90 proc. Europejczyków to użytkownicy internetu – wynika z opracowania Digital 2023: Global Overview Report. W Polsce z sieci korzysta prawie 36 mln osób, co stanowi ponad 88 proc. całej populacji. Z badania przeprowadzonego przez IRCenter wynika, że bezpośredniego hejtu w polskim internecie doświadczyło 37 proc. wszystkich badanych. Z kolei w raporcie CBS co drugi badany (50 proc.) twierdził, że w polskim społeczeństwie istnieje przyzwolenie na obrażanie innych.

Hejt niszczy wizerunek firmy

Specjaliści zajmujący się marketingiem zaznaczają, że wpływ hejtu na postrzeganie marki jest olbrzymi. Obraźliwe, negatywne komentarze na forach, w recenzjach czy opiniach, mogą szybko rozszerzyć się na ataki personalne wobec pracowników firmy, a skończyć na akcjach zniechęcających do zakupu usług lub produktów aż do całkowicie powszechnego bojkotu przedsiębiorstwa.

To bezpośrednio wpływa na postrzeganie marki przez partnerów biznesowych i klientów jako kontrowersyjną lub niegodną zaufania. Może to mieć szczególne znaczenie w przypadku spółek giełdowych. Atak hejterski może nie tylko obniżyć przychody, ale także przyczynić się do spadku cen akcji i wartości rynkowej firmy. Natomiast wdrożenie rozwiązań naprawczych w celu zarządzania kryzysem to dodatkowe straty finansowe i długotrwały proces odbudowy wizerunku marki, który często w pełni nie jest już możliwy.

AI wyklucza nienawistne komentarze

Okazuje się, że również w tej dziedzinie pomocna może być sztuczna inteligencja. Twórcy TrollWall AI, słowackiej aplikacji służącej do filtrowania nienawistnych komentarzy w mediach społecznościowych, przeanalizowali ponad 400 stron i profili na Facebooku. Badanie objęło aż 7,5 mln komentarzy. W rezultacie zaobserwowano, iż średni odsetek wpisów pełnych nienawiści wynosi aż 13 proc. Bywa ich znacznie więcej na niektórych stronach dotyczących polityki, sportu czy kultury.

Przy okazji badania okazało się również, że aktywna moderacja prowadzona przy użyciu sztucznej inteligencji, ma wpływ na poziom dyskusji. Narzędzia AI mogą „odfiltrowywać” nienawistne wpisy, co może obniżyć poziomu hejtu z 13 do zaledwie 2 proc.

– Definiujemy hejt na podstawie międzynarodowych definicji mowy nienawiści – tłumaczy Tomáš Halász, specjalista w dziedzinie moderowania dyskusji internetowych przy zastosowaniu sztucznej inteligencji i twórca aplikacji TrollWall AI – Chodzi o wrogie wypowiedzi wobec osoby lub grupy osób w związku z ich tożsamością, rasą, cechami charakterystycznymi, wyznaniem czy orientacją seksualną. Do tego często dochodzi wulgarny język.

Toksyczne wpisy stają się niewidoczne

TrollWall AI to aplikacja oparta o sztuczną inteligencję, która ukrywa toksyczne komentarze w mediach społecznościowych przez 24 godziny na dobę, 7 dni w tygodniu. Narzędzie zdobyło wcześniej olbrzymią popularność za naszą południową granicą. W Czechach i Słowacji korzystają z niej nawet głowy państw – Peter Pavel i Zuzana Čaputová. Dlatego startup otrzymał niedawno nominację w prestiżowym europejskim konkursie Innovation in Politics Awards 2024.

– Sztuczna inteligencja automatycznie ukrywa wulgarne, agresywne i pełne nienawiści komentarze oraz groźby – tłumaczy Tomáš Halász. – Toksyczne wpisy nie są usuwane, ale pozostają widoczne jedynie dla ich autorów, czasem też dla ich znajomych. Dla pozostałych są jednak niedostępne, co podnosi poziom dyskusji. Administrator widzi wpisy, może sprawdzić decyzje sztucznej inteligencji i kiedy uzna to za stosowne, może przywrócić kontrowersyjne posty. To wszystko sprawia, że moderatorzy mogą skupić się na budowaniu pozytywnych relacji z lojalnymi fanami, zamiast frustrować się zachowaniem hejterów.

Aplikacja nie oddziałuje też negatywnie na zasięgi i widoczność brandu w mediach społecznościowych, ponieważ płynnie działa w czasie rzeczywistym. Nie ma wpływa przy tym na algorytmiczną dystrybucję treści na poszczególnych platformach w social mediach.

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *