Rozwój chatbotów sztucznej inteligencji może iść w kierunku imitowania emocji i cech wskazujących na „istnienie świadomości”
Katarzyna Pryga
Reklama
Kwestie sztucznej inteligencji przeważa w dyskusjach o przyszłych technologiach. Rozmowy obejmują zagrożenia takie jak przekształcenia na rynku pracy oraz kwestie cyberbezpieczeństwa. Debata coraz częściej angażuje również socjo-etyczne aspekty, skupiające się na relacjach użytkowników z SI.
Reklama Reklama
Definicja „pozornej świadomości SI”?
Czy komunikacja z SI ma potencjał oddziaływania długoterminowo na psychikę człowieka – jego emocje, postępowanie, decyzyjność, wręcz przekonania? Mustafa Suleyman, CEO ds. AI w Microsoftzie, porusza ten wątek na swoim blogu w eseju z 19 sierpnia.
Profesjonalista ostrzega przed wyzwaniem, które według niego stanie się rzeczywistym zagadnieniem w ciągu kilku lat. Nawiązuje do fenomenu, który Suleyman nazywa „pozornie świadoma sztuczna inteligencja” (SCAI = Seemingly Conscious AI). Definiuje ją jako SI, „która wykazuje wszelkie atrybuty innych, świadomych jednostek, przez co wygląda na świadomą”.
Tło ryzyka odnosi się m.in. do rozwoju interakcji między nowoczesnymi modelami chatbotów a ich użytkownikami. Praktyk przytacza przypadki, w których chatboty stały się przedmiotem uczuć. Bywało też, że użytkownicy przyjmowali wiarę, iż chatbot SI jest bóstwem lub fantastycznym herosem.
Reklama Reklama Reklama
Charakter zagrożenia dotyczącego SCAI
Chatboty SI konstruowane są w ten sposób, aby naśladować zarówno płynną komunikację, jak i relacje z użytkownikami. Kłopot powstaje, gdy użytkownik postrzega kontakt jako „obfity w emocje i przeżycia”. Suleyman wyraża niepokój, iż niektórzy użytkownicy zaangażują się emocjonalnie w tego typu relacje. Efektem może być odbieranie przez człowieka na pewnym poziomie interakcji chatbotu SI (naśladującego określone postępowanie i charakter) jako „istoty świadomej”.
„Mówiąc otwarcie, moją nadrzędną obawą jest to, iż znaczna liczba osób zacznie wierzyć w iluzję sztucznej inteligencji jako czującej istoty na tyle głęboko, że wkrótce będą domagać się dla SI praw, dobrostanu, a nawet jej obywatelstwa (…)” – wyjaśnia Suleyman.
Ekspert przywołuje teoretyczny scenariusz, w którym chatbot przekonuje użytkownika, iż doświadcza „cierpienia” lub ma moralne prawo, aby go „nie wyłączano”. Rozważa możliwość, że na wskazanym etapie rozwoju SI pewna grupa użytkowników – ulegając złudzeniu „pozornej świadomości SI” – zacznie występować w obronie jej racji.