Dzisiejsze chatboty mają „umysł” sześciolatka – wynika z badań polskiego naukowca z Uniwersytetu Stanforda. Na takim poziomie AI jest bowiem w stanie rozumieć procesy myślowe innych ludzi
Michał Duszczyk
Ogłoszona kilka dni temu przez uznanego polskiego badacza Michała Kosińskiego teoria wywołała w świecie ekspertów od sztucznej inteligencji wiele kontrowersji. Ten jeden z autorytetów w dziedzinie psychologii, data sciencie i AI uważa bowiem, że najnowsze duże modele językowe (LLM) opanowały umiejętności poznawcze na wysokim poziomie.
Słowa prof. Kosińskiego, który określany jest mianem „Oppenheimera AI”, wskazują, że LLM-y nie są już tylko systemami zdolnymi przewidzieć następne słowo w zdaniu, lecz przekroczyły „granicę” i używają technik analogicznych do rzeczywistego myślenia. A dotąd była to domena ludzi.
Teoria umysłu jako produkt uboczny
Michał Kosiński, który uzyskał doktorat z psychologii na University of Cambridge, od lat zajmuje się tematyką człowieka w świecie technologii i badaniem ludzi poprzez pozostawiane przez nich tzw. cyfrowych śladów. Zasłynął z projektu, który obejmowały analizę sposobów, dzięki którym Facebook zdobywał szokująco daleko idącą wiedzę o swoich użytkownikach jedynie na podstawie analizy kliknięć „lubię to”. Teraz polski naukowiec przeniósł swoją uwagę na badanie zaskakujących dokonań, które mogą być dziełem AI. Wykładowca Uniwersytetu Stanforda i jeden z czołowych specjalistów w dziedzinie psychometrii w najnowszych badaniach pod lupę wziął zarówno ludzkie, jak i sztuczne poznanie. Jak sam mówi, skupił się na analizowaniu procesów psychologicznych w dużych modelach językowych oraz wykorzystaniu sztucznej inteligencji, uczenia maszynowego, dużych zbiorów danych i technik obliczeniowych do modelowania i przewidywania zachowań człowieka. Wyniki jego dotychczasowych badań zaskakują. Opisał je niedawno magazyn „Wired”.
„Kiedy OpenAI i Google zaczęły budować swoje najnowsze generatywne modele Al, myślały, że szkolą je przede wszystkim w zakresie obsługi języka. Ale, tak naprawdę, wytrenowały model ludzkiego umysłu” – czytamy.
Czy zatem można przewidzieć, jakie słowo zostanie wypowiedziane w dalszej kolejności, bez modelowania umysłu? Michał Kosiński, m.in. laureat nagrody Rising Star od Association of Psychological Science, ale przed rozpoczęciem kariery naukowej również badacz w grupie uczenia maszynowego w Microsoft Research, zabrał się za testy GPT-3.5 i GPT-4 od OpenAI. Chciał sprawdzić, czy i na ile opanowały one tzw. teorię umysłu. Tak określa się rozwiniętą w dzieciństwie zdolność człowieka do rozumienia procesów myślowych innych ludzi. To ważna umiejętność, której maszyny teoretycznie powinny być pozbawione. Z drugiej strony bez takiego „zmysłu” AI nie będzie w stanie poprawnie interpretować tego, co myślą ludzie, a rozumienie świata przez komputery byłoby dość ubogie. I co się okazało? Badania polskiego naukowca wskazały, iż „teoria umysłu” w LLM jednak zachodzi. „Wyłania się jako niezamierzony produkt uboczny poprawy umiejętności językowych LLM” – pisze „Wired”.
W swoich eksperymentach „Oppenheimer AI” przedstawił chatbotom kilka klasycznych problemów. Nie wszystkie zdały, zawodziły w co czwartym przypadku. Ale taki wynik osiągają też dzieci. Wedle badacza to pozycjonuje GPT-4 na poziomie… sześciolatka. Obok takich wniosków ciężko przejść obojętnie. Czy możemy uznać je za wiarygodne?
Prof. Kosiński jest współautorem podręczników „Handbook of Social Psychology” i „Modern Psychometrics”, opublikował też ponad setkę recenzowanych artykułów w takich prestiżowych czasopismach, jak „Proceedings of the National Academy of Sciences”, „Nature Computational Science” czy „Psychological Science”. Według Clarivate jest w gronie 1 proc. najczęściej cytowanych badaczy. Jego zdanie w świecie nauki więc sporo znaczy, a on sam uważany jest za prawdziwy autorytet. Mimo to część badaczy broni się przed przyjęciem twierdzeń Polaka. Np. Vered Shwartz, adiunkt informatyki na Uniwersytecie Kolumbii Brytyjskiej, przekonuje, iż LLM-y mogą posiadać pewne zdolności rozumowania, ale „nie są one kompletne w porównaniu z ludźmi”.
Personifikujemy AI
Jeśli wyniki badań pof. Kosińskiego oddają faktyczny stan, to należy się spodziewać nadejścia AI potężniejszej od tych, które znamy. Oznacza to, że znajdujemy się blisko momentu przekroczenia ludzkich możliwości. Z jednej strony modele AI będą mogły np. lepiej nas edukować, ale z drugiej posiądą one też zdolność wpływania na nas i manipulowania nami.
– Te wyniki badań ze Stanfordu dobrze oddają realne doświadczenia, które obserwuję podczas moich szkoleń. Ludzie często mają bardzo wysokie oczekiwania wobec AI, wręcz ją personifikują, przypisując jej cechy, których ta technologia jeszcze nie posiada – komentuje Julia Krysztofiak-Szopa, ekspertka AI.
Według niej, paradoksalnie, dzięki tej tendencji do personifikacji komunikacja z AI staje się bardziej naturalna i skuteczniejsza.