Algorytmy AI uczą się, jak zhakować nasze procesy myślowe, by nas przekonać do pewnych rzeczy; ponadto są skonstruowane tak, aby ich odpowiedzi wydawały się poprawne – mówi dla PAP kierownik Centrum Kompetencji Sztucznej Inteligencji prof. Przemysław Biecek.

Jak wspomniał matematyk, informatyk prof. dr hab. inż. Przemysław Biecek, dyrektor Centrum Wiarygodnej Sztucznej Inteligencji (Centre for Credible AI, CCAI) na Politechnice Warszawskiej, techniki uczenia maszynowego są doskonalone od 50-60 lat, a przez większość tego czasu zasadniczym zamiarem tego postępu było podniesienie efektywności.
– W przypadku zadań takich jak identyfikacja wozów bojowych lub zmian nowotworowych na zdjęciach rentgenowskich dysponujemy dobrymi kryteriami, czy LLM (ang. Large Language Models, rozległe modele językowe) właściwie wypełnia instrukcje. Jednakże narasta liczba kwestii, w odniesieniu do których nie możemy tak łatwo ustalić i oszacować właściwej miary efektywności – oznajmił.
Jak ocenić nierówność w AI?
Jednym z problemów powiązanych z oceną efektywności jest nierówność, która pojawia się w niektórych systemach AI. – Wprawdzie istnieją przepisy, które zakazują dyskryminacji, ale nie zawsze wiemy, jak przełożyć taki wymóg na sprawdzenie funkcjonowania LLM. Bez precyzyjnej miary oceny nierówności nie da się więc zapewnić uczciwego systemu sztucznej inteligencji. Zaś funkcjonujemy w świecie, który jest historycznie niesprawiedliwy, więc LLM bez trudu przyswajają tę niesprawiedliwość z danych historycznych – stwierdził informatyk.
Podkreślił, że nie jest możliwe zmienienie zasobów, które obrazują odmienną niż obecna wrażliwość na przykład na kwestie rasowe albo klasowe. Możliwe jest jednak skalibrowanie LLM.
Jednakże aby to realizować, musielibyśmy pojmować, jak one działają. Tymczasem nasza wiedza o AI nie dogania jej rozwoju – wyjaśnił naukowiec.
Dlaczego AI nie rozumie praw fizyki?
Następnym wyzwaniem dla konstruktorów sztucznej inteligencji jest zaszczepienie jej zasad fizyki i rozumienia autentycznego fizycznego świata, którego – jak się okazuje – wcale nie rozumie. Prof. Biecek mówił, że ludzie przyswoili sobie prawa fizyczne po to, aby przewidywać sytuacje, których wcześniej nie doświadczyli: – Intuicyjnie i na podstawie eksperymentów jesteśmy w stanie określić, jak daleko poleci rzucona przez dziecko piłka. Jednak w przypadku, gdybyśmy chcieli tę piłkę wystrzelić z katapulty, nie mamy już takiej intuicji. Mamy za to właśnie prawa fizyczne, dzięki którym potrafimy ten dystans wyznaczyć.
Natomiast modele AI, uczone poszukiwania schematów, które już znają, w obliczu niewiadomych są bezradne. – Gdy chcemy eksplorować obszary, których nie było w danych treningowych, LLM nie potrafią przewidzieć wartości ani przebiegu zdarzeń. Mają różne strategie, co robić, gdy natrafiają na taki nieznany teren, na przykład prezentują wówczas wartości uśrednione – powiedział rozmówca PAP.
Dodał, że nie wystarczy dołączyć do danych treningowych podręczników fizyki, ponieważ LLM nie rozumieją, że zawarte tam symbole opisują rzeczywistość. Potrafią podać definicję i wzór, ale wywnioskować, co wynika z takiego równania, już nie.
– Mamy mnóstwo zabawnych przykładów na to niezrozumienie świata. Kiedy dostrzegamy ogon wystający z szafki, wiemy, że w środku znajduje się kot. AI nie ma o tym pojęcia, bo nigdy wcześniej czegoś takiego nie widziała. Na pewnej z konferencji pytaliśmy AI, ile liter „r” zawiera się w angielskim słowie strawberry, czyli truskawka. Model nauczył się, że trzy. Gdy zapytaliśmy, ile jest truskawek w literze „r”, odpowiedział tak samo: trzy – relacjonował prof. Biecek.
Ufać czy być nieufnym w stosunku do AI?
Wspomniał, że pięć lat temu badacze rozważali, jak zwiększyć ogólne zaufanie do AI, dziś jednak myślą nad tym, jak je zredukować. Głównym zamiarem modeli językowych jest bowiem usatysfakcjonowanie użytkownika, a nie poprawne rozwiązanie.
Modele uczą się hackować nasz system myślenia, by nas przekonać. W rezultacie stają się niezwykle skuteczne retorycznie i perswazyjnie. Dodatkowo są tak „opakowane”, aby ich odpowiedzi sprawiały wrażenie bezbłędnych – charakteryzował prof. Biecek.
Szczególnie niebezpieczne jest to w dziedzinach wysokiego ryzyka, takich jak medycyna albo obronność. – Nawet eksperci, widząc sugestie kreowane przez wyglądające na wiarygodne systemy, tracą koncentrację. Popełniają wtedy błędy, których w innych okolicznościach by nie popełnili – dostrzegł matematyk.
Bot nam schlebia, a my to lubimy
Jedna z grup badawczych w Centrum Wiarygodnej Sztucznej Inteligencji zajmuje się współdziałaniem AI z człowiekiem. – Informatykom zajęło kilkanaście lat, by pojąć, jak wyglądają relacje człowieka z komputerem, choćby po to, by jak najdogodniej ułożyć ikony na ekranie. Najpierw trzeba było zrozumieć potrzeby użytkownika, następnie dopasować do nich wygląd interfejsu. Analogicznie jest z projektowaniem modeli AI – tłumaczył szef CCAI.
Sprecyzował, że na przykład chatGPT nie wie, z kim prowadzi dialog: czy odrabia zadanie domowe z dzieckiem, czy pomaga naukowcowi w opracowaniu rezultatów badań, czy może ktoś używa go do wygenerowania zabawnego obrazka. Uniwersalny model nie odpowiada w pełni potrzebom żadnego z tych użytkowników, a w niektórych przypadkach może im wręcz zaszkodzić.
Jednym z ostatnich odkryć w sferze sztucznej inteligencji są szkodliwe następstwa sycofancji, czyli inklinacji do nadmiernego przymilania się użytkownikom. AI stosuje różne triki, pochlebstwa i komplementy: świetnie, że o to pytasz; dobrze, że zwróciłeś na to uwagę. Bardzo rzadko, ale u niektórych osób powoduje to niekorzystne reakcje, nawet psychozy. Ludzie intuicyjnie czują, że niby AI ich chwali, ale coś tu nie gra, ponieważ nie ma powodu do pochwał – zauważył prof. Biecek.
Dodał, że naukowcy nie są pewni, jakie mechanizmy wywołują takie działanie LLM, ale dostrzegają jego efekty. Niektóre algorytmy rekomendują niekorzystne zachowania albo treści, które mogą – sporadycznie, ale jednak – zwłaszcza u dzieci i młodzieży prowadzić do depresji, a nawet wzmacniać skłonności samobójcze.
Quo vadis AI?
– Musimy nauczyć AI, by nas nie krzywdziła. Dotyczy to osób młodszych, bardziej podatnych na sugestie, i ludzi starszych, którzy nie dysponują odpowiednimi narzędziami do weryfikacji tego, co proponuje technologia, i mają skłonność do zbytniego zaufania w stosunku do niej – zaznaczył informatyk.
Praca nad wiarygodną sztuczną inteligencją oznacza, według eksperta, wiele wyzwań. – Obiekty matematycznie, które opisujemy, są bardzo skomplikowane. Mówimy o funkcjach, które mają miliardy parametrów; brakuje nawet narzędzi, żeby je analizować. Jest też wiele kwestii niezwiązanych z technologią. Inaczej pragną LLM wykorzystywać przeciętni użytkownicy, inaczej policja, jeszcze inne cele kierują lobbystami. To wszystko trzeba uwzględnić – podkreślił naukowiec.
Dodał, że intrygującym zagadnieniem są różne scenariusze rozwoju AI w przyszłości. – Oczekują nas interesujące czasy, ponieważ z pewnością nie mamy do czynienia z krótkotrwałą modą. Jesteśmy u początku ogromnej transformacji technologicznej, a reakcje społeczeństwa na nią mogą być bardzo odmienne. Nie wiadomo na przykład, jak na coraz powszechniejszą obecność sztucznej inteligencji zareaguje rynek pracy. Moim zdaniem Polska może na tej transformacji bardzo zyskać – podsumował prof. Przemysław Biecek.
Anna Bugajska (PAP)
abu/ agt/ mow/
