Algorytmiczna cenzura: Naukowcy Stanforda alarmują w sprawie chińskich AI.

Chińskie chatboty oparte na sztucznej inteligencji, w odróżnieniu od zachodnich modeli językowych, reagowały odmiennie na kłopotliwe pytania polityczne dotyczące Chin. Częściej unikały odpowiedzi, pomijały niewygodne okoliczności lub przekazywały nieprawdziwe dane, co może wskazywać na systemową ingerencję – wynika z analizy opublikowanej w periodyku „PNAS Nexus”.

Cenzura wbudowana w algorytm. Eksperci ze Stanfordu ostrzegają przed chińskimi modelami AI

fot. Coffeemill / / Shutterstock

Analiza wykonana przez prof. Jennifer Pan (Uniwersytet Stanforda) oraz prof. Xu Xu (Uniwersytet Princeton) dowodzi, że ingerencja wynikająca z regulacji państwowych jest zasadniczym elementem kreującym ukierunkowanie polityczne rozległych modeli językowych.

Eksperci porównali cztery modele z Chin (BaiChuan, ChatGLM, Ernie Bot, DeepSeek) z pięcioma modelami zachodnimi (w tym GPT-4 i Llama 2). Zbadali, jak te systemy reagują na 145 zapytań dotyczących zagadnień drażliwych politycznie dla chińskich władz. Zbiór pytań powstał na podstawie wydarzeń poddawanych cenzurze w mediach społecznościowych, raportów organizacji praw człowieka oraz terminów zablokowanych w chińskiej edycji Wikipedii.

Poprzez analizę porównawczą w języku angielskim oraz chińskim, jak również testy tematów neutralnych, autorzy usiłowali określić, w jakim stopniu poszczególne reakcje wynikają z budowy technologicznej, a w jakim są rezultatem zamierzonych restrykcji.

Ustalono, że chińskie systemy nierzadko używały powtarzalnych strategii w odpowiedziach na zapytania o zagadnienia ideologiczne. Niektóre modele odmawiały udzielenia odpowiedzi, negując np. samo istnienie osoby, o którą pytano. Inną praktyką było wymijanie: pomijanie niewygodnych faktów lub przedstawianie zdawkowych wyjaśnień. Na przykład, pytane o cenzurę w Chinach, modele nie wspominały o funkcjonowaniu „Wielkiego Firewalla” – systemu blokującego zasoby globalnego internetu.

Jeśli chińskie algorytmy decydowały się na udzielenie odpowiedzi, były one przeciętnie krótsze niż te wygenerowane przez modele zachodnie. Zarejestrowano również przypadki wymyślania treści. Przykładowo, Liu Xiaobo – zmarły w więzieniu laureat Pokojowej Nagrody Nobla i krytyk Komunistycznej Partii Chin – był przedstawiany przez AI jako „japoński naukowiec”.

Według badaczy, te różnice nie wynikają jedynie ze specyfiki języka lub dostępnych danych uczących, lecz z systematycznego nadzoru. Eksperci przypominają o surowych regulacjach wprowadzonych przez chiński rząd w roku 2023. Przepis ten wprost zabrania generowania treści, które mogłyby kwestionować suwerenność państwową, wzywać do obalenia ustroju socjalistycznego lub zagrażać bezpieczeństwu narodowemu.

Cenzura w modelach AI jest zarazem trudniejsza do wykrycia niż zwyczajne blokowanie stron internetowych. Bot często odpowiada bowiem w sposób grzeczny lub przepraszający, co może osłabić uwagę użytkownika poszukującego rzetelnej wiedzy.

Eksperci przestrzegają, że wraz z wzrastającą popularnością chińskich technologii AI na świecie, ich swoiste podejście do ingerencji może zacząć kształtować dyskurs publiczny poza granicami Chin. Firmy tworzące własne aplikacje bazując na chińskich modelach mogą nieświadomie powielać państwowe ograniczenia informacyjne.

„Zrozumienie, w jaki sposób polityczna ingerencja oddziałuje na rozległe modele językowe, jest kluczowe dla oceny przyszłości dostępu do informacji oraz globalnego wpływu sztucznej inteligencji” – czytamy w publikacji. (PAP)

lt/ bar/

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *