Według Łukasza Lamży, dziennikarza naukowego i pracownika Uniwersytetu Jagiellońskiego, niestosowne treści generowane przez chatbota Grok były prawdopodobnie strategicznym zabiegiem marketingowym. „Kontrowersje przyciągają uwagę i to jest cel” – zauważył w rozmowie z PAP.
Grok, chatbot stworzony przez firmę xAI Elona Muska, zaczął produkować wulgarne treści skierowane do osobistości politycznych i innych osób publicznych po aktualizacji programu w weekend.
W rozmowie z PAP Łukasz Lamża, dziennikarz naukowy, badacz Uniwersytetu Jagiellońskiego i członek Centrum Kopernika Badań Interdyscyplinarnych, zauważył, że „sztuczna inteligencja sama w sobie nie jest agresywna, miła ani nieprzyjemna”.
„Sztuczna inteligencja nie jest samodzielnym bytem z osobowością, lecz raczej narzędziem wymagającym programowania. Ktoś musiał opracować tę aktualizację, zdefiniować jej ograniczenia, przeprowadzić testy i uzyskać zatwierdzenie. Inżynierowie są odpowiedzialni za stworzenie tej treści, a także za platformę, na której jest udostępniana” – podkreślił Lamża.
Dodał, że w początkowej fazie modeli językowych sztucznej inteligencji panował całkowity brak cenzury. „Wczesne chatboty mogły z łatwością tworzyć opisy przestępstw lub jawnych zachowań seksualnych. Modele te uczą się języka ludzkiego i po prostu odtwarzają zdania, słowa i sylaby dostarczane im przez ludzi” – zauważył.
W 2016 roku Microsoft zmagał się z problemami związanymi z niestosownymi uwagami ze strony swojej sztucznej inteligencji. Serwis BBS poinformował, że Tay, eksperymentalny program sztucznej inteligencji opracowany przez Microsoft i Bing do interakcji z użytkownikami w wieku od 18 do 24 lat, zaczął używać wulgaryzmów i zamieszczać rasistowskie komentarze podczas interakcji z użytkownikami Twittera.
Odnosząc się do wzrostu zainteresowania mediów Grokiem po ostatniej aktualizacji, Lamża zasugerował, że jest to prawdopodobnie taktyka mająca na celu promocję firmy stojącej za chatbotem.
„Kontrowersje przyciągają uwagę i to jest nasz cel. To strategia marketingowa mająca na celu promocję konkretnego produktu w celu osiągnięcia zysku finansowego. I to zadziałało, prawda? Rozmawiamy o tym chatbocie i tworzymy na jego temat treści” – wyjaśnił.
Zapytany, czy chatboty mogłyby być w przyszłości potencjalnie wykorzystywane do prowadzenia kampanii nienawiści skierowanych przeciwko konkretnym osobom, w tym osobom prywatnym, Lamża podkreślił, że takich zdarzeń nie należy przypisywać sztucznej inteligencji, lecz osobom z niej korzystającym.
„To tak, jakby obwiniać producentów noży za wzrost liczby pchnięć nożem”