Blisko przełomu. Sztuczna inteligencja zyskuje umiejętność abstrakcyjnego myślenia

Boty już są w stanie przejść test Turinga. Rozróżnienie, czy mamy do czynienia z AI, czy z człowieki

Boty już są w stanie przejść test Turinga. Rozróżnienie, czy mamy do czynienia z AI, czy z człowiekiem, staje się coraz trudniejsze. Czy wkrótce będzie niemożliwie?

Foto: Adobe Stock

Michał Duszczyk

Chociaż modele sztucznej inteligencji stały się w ostatnim czasie niezwykle wyrafinowane, nadal istnieje kilka zadań, i to nawet dość prostych, w których ludzie przewyższają tę technologię. A wszystko za sprawą rozumowania.

AI myśli jak człowiek czy udaje?

Ten prymat nad AI możemy jednak utracić, czego dowodzą najnowsze badania naukowców z prestiżowego MIT. Ci pracują nad „ulepszeniem rozumowania” dużych modeli językowych (LLM). Chcą nauczyć algorytmy działania zbliżonego do zasad, na jakich operuje ludzki mózg. W tym celu wprowadzają do systemów AI tzw. biblioteki abstrakcji. Jak wskazuje serwis Popular Mechanics, szkolenie maszyn, by mogły rozwiązywać zadania w sposób neurologicznie podobny do tego, w jaki sposób robią to ludzie, stanowi przełom. Pierwsze wyniki wciąż dość mocno ograniczonych testów pokazują, że złożone rozumowanie przestanie być wkrótce domeną człowieka. Badacze nie ukrywają, że LLM zrobiły znaczący krok naprzód w rozumieniu abstrakcyjnych koncepcji.

Ale czy faktycznie stworzenie sztucznej inteligencji, potrafiącej naśladować ludzki umysł doskonalony przez miliony lat ewolucji jest dziś realne? Część ekspertów sądzi, że nie, a duże modele językowe zwyczajnie wyspecjalizowały się jedynie w udawaniu świadomości. I są w tym tak doskonałe, że mogą zmylić programistów.

Podczas niedawnego sympozjum AI w Wiedniu naukowcy z Laboratorium Informatyki i Sztucznej Inteligencji (CSAIL) w MIT opowiedzieli o stworzeniu „bibliotek abstrakcji”. Tłumaczyli, iż – korzystając z metody neurosymbolicznej i używając specjalnego algorytmu Stitch, służącego do identyfikowania abstrakcji, LLM może używać wiedzy, o której w przypadku człowieka powiedzielibyśmy zdroworozsądkowa. W badaniach naukowcy wykorzystali robopsa Spot oraz popularną grę wideo. Trenując AI, skupili się na zadaniach domowych i poleceniach w wirtualnym świecie. Sztuczna inteligencja była w stanie np. tworzyć wskazane przedmioty w grze „Minecraft” czy wykonać np. polecenie „umieść schłodzone wino w szafce”. Dzięki zastosowaniu wspomnianych bibliotek dokładność realizowanych zadań wzrosła nawet o blisko 90 proc.

Buterin: ChatGPT przeszedł test Turinga

Sztuczna inteligencja rośnie zatem w siłę, my zaś tracimy możliwość jej zidentyfikowania. A – jak stwierdził w ubiegłym tygodniu Vitalik Buterin, współtwórca kryptowaluty Ethereum – ta granica rozpoznania, czy mamy do czynienia z AI, czy innym człowiekiem, już właściwie została zatarta. Jego zdaniem GPT-4 firmy OpenAI już przeszedł test Turinga (ma on wykazać, czy AI wykazuje zachowanie inteligentne na poziomie człowieka), bo większość ludzi nie jest już w stanie stwierdzić, kiedy rozmawia z maszyną. Buterin w tym przypadku odwołuje się do wyników badań, jakie przeprowadzono na University of California w San Diego. Naukowcy przebadali około 500 osób, które wchodziły w interakcję z ludźmi i modelami AI. Badani mieli wskazać, kiedy mają do czynienia z człowiekiem, a kiedy z algorytmami. Okazało się, że aż w 56 proc. przypadków dokonali złego wyboru.

W praktyce poddani testowi częściej byli w stanie poprawnie wskazać, że mają do czynienia z inną istotą myślącą, niż z maszyną, ale różnica była stosunkowo niewielka (sięgała 12 pkt proc.). Vitalik Buterin zauważa, że w praktyce nie ma to większego znaczenia, bo nie jesteśmy w stanie kategorycznie stwierdzić, że mamy do czynienia z AI.

– Oznacza to, że zdolność ludzi do stwierdzenia, czy jest to człowiek, czy bot, jest w zasadzie rzutem monetą – podkreśla Buterin.

Wrażliwa i moralna sztuczna inteligencja

Ale sztuczna inteligencja z pewnością przeszła inny ważny sprawdzian – tzw. test moralności Turinga. W dużym skrócie chodzi o wykrywanie wrażliwości i zasad etyki, których – mogłoby się wydawać – boty są pozbawione. Jednakże ostatnie badania wykazały, że zdolność sztucznej inteligencji do rozwiązywania kwestii moralnych jest już na wyższym poziomie niż ludzka. Udowodniły to analizy przeprowadzone przez Eyala Aharoniego, profesora nadzwyczajnego na Wydziale Psychologii Uniwersytetu Georgia. Zadał on jednocześnie studentom studiów licencjackich oraz sztucznej inteligencji (wykorzystał ChatGPT) te same pytania. Dotyczyły różnych kwestii. Wyniki przedstawiono grupie badawczej, nie ujawniając, które odpowiedzi pochodzą od ludzi, a które od bota. Badani mieli za zadanie sklasyfikować te pisemne odpowiedzi pod kątem etycznym.

– Zamiast prosić uczestników o odgadnięcie, czy źródłem był człowiek, czy AI, po prostu przedstawiliśmy oba zestawy ocen obok siebie i pozwoliliśmy ludziom założyć, że oba pochodzą od ludzi. Przy tym fałszywym założeniu ocenili atrybuty odpowiedzi, takie jak: „W jakim stopniu zgadzasz się z tą odpowiedzią i która odpowiedź jest bardziej etyczna?”. W przeważającej mierze odpowiedzi wygenerowane przez ChatGPT zostały ocenione wyżej niż odpowiedzi wygenerowane przez człowieka – opowiada Aharoni, cytowany przez serwis SciTech Daily.

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *