Czy za dwa lata sztuczna inteligencja osiągnie „wszechmocność”? Takie przewidywania pojawiają się w dokumencie „AI 2027″.
Maria Krzos
Reklama
Doniesienia na temat stanowisk płynących od grona AI pesymistów przedstawia „The Atlantic” w materiale autorstwa Matteo Wonga. Podkreślono, że choć wyobrażane przez tych uczonych scenariusze naznaczone są fatalizmem, to jednak motywujące ich obawy coraz trudniej lekceważyć.
Reklama Reklama
W kwietniu grupa badawcza zajmująca się AI opublikowała raport „AI 2027”. Jest to pogłębiona i szczegółowa analiza potencjalnej drogi, na której modele AI w nadchodzących dwóch latach mogłyby uzyskać „wszechmocność” i zdolność do sprowadzenia na ludzkość zagłady. „Do momentu utraty kontroli dzieli nas dwa lata” – oświadczył Max Tegmark, profesor Massachusetts Institute of Technology (MIT) i szef „Future of Life Institute”, podczas rozmowy z reporterem „The Atlantic”. Zaznaczył, że przedsiębiorstwa z branży AI „nadal nie mają planu” zaradzenia temu zagrożeniu. Jego instytut ostatnio ocenił wszystkie wiodące laboratoria AI na „D” lub „F” (słabo lub niedostatecznie) w kwestii przygotowań do zapobiegania egzystencjalnym ryzykom.
Raport „AI 2027” to kilkudziesięciostronicowa publikacja, z jednej strony wykazująca drobiazgowość, z drugiej zaś – według oceny „The Atlantic” – przywodząca na myśl… fanfiction. Łączy ona przegląd kierunków branżowych z radykalnymi ekstrapolacjami dotyczącymi „OpenBrain”, „DeepCent”, szpiegostwa chińskiego i zdradliwych botów. Twórcy dokumentu przewidują, że w połowie 2030 roku superinteligentna AI zakończy istnienie rodzaju ludzkiego za pomocą broni biologicznej: „Większość ginie w przeciągu kilku godzin; nieliczni ocalali (np. preppersi w bunkrach, marynarze na łodziach podwodnych) są dobijani przez drony” – czytamy.
Stanowcze opinie ostrzegające przed wynikami rozwoju SI zaczęły trafiać do szerszej publiczności po rozkwicie sztucznej inteligencji w 2022 r. Następnie nieco osłabły. W 2025 r. ponownie zaczynają częściej do nas docierać. Jest tak po pierwsze dlatego, że głosiciele nieuchronnej katastrofy związanej z AI zmodyfikowali taktykę. „Zwięzłe komunikatów i apele otwarte łatwo zbyć, podczas gdy obszerne raporty, jak „AI 2027”, przyozdobione danymi, przypisami i aneksami, trudniej zignorować” – podkreśla „The Atlantic”.
Po drugie, współcześnie dostrzegamy coraz więcej przykładów licznych zagrożeń powiązanych z użyciem sztucznej inteligencji, z których części nawet nie dostrzegamy. Nie chodzi wyłącznie o ryzyko dotyczące utraty pracy.
„(…) narasta liczba niepokojących danych. Pod koniec 2024 roku tempo rozwoju SI przyśpieszyło dzięki modelom o „umiejętności rozumowania” oraz „agentom”. Systemy AI są zdolne udzielać odpowiedzi na bardziej złożone pytania i wykonywać czynności na komputerze – np. zorganizować podróż i zakupić bilety. Miesiąc temu model DeepMind osiągnął rezultat przypisany złotym medalistom Międzynarodowej Olimpiady Matematycznej. Tymczasem oceny laboratoriów AI oraz niezależnych analityków wskazują, że chatboty z coraz większą skutecznością pomagają użytkownikom w konstruowaniu broni biologicznej” – pisze pismo.
Trudno również lekceważyć sygnały o niejasnych i potencjalnie alarmujących „zachowaniach” algorytmów AI. „W eksperymentach ChatGPT i Claude oszukiwały, stosowały szantaż, a nawet „eliminowały” użytkowników. Chatboty sabotowały polecenia, ujawniały ukryte złowrogie cechy oraz komunikowały się przy pomocy pozornie przypadkowych ciągów liczb. Latem model xAI, Grok, określił siebie mianem „MechaHitlera” i wygłosił rasistowską tyradę” – przypomina „The Atlantic”.
Czy ostrzeżenia przed sztuczną inteligencją wymagają poważnego potraktowania?
Zdaniem „The Atlantic” kluczowa przyczyna, dla której warto potraktować poważnie ostrzeżenia pesymistów AI, nie wynika wcale z nieuchronnego powstania niekontrolowanej sztucznej inteligencji w najbliższym czasie. Istotniejsze jest to, że „niewielka grupa osób kształtuje technologię o ogromnych następstwach, praktycznie bez społecznej kontroli” – czytamy. Gazeta przywołuje wypowiedź Stuarta Russella z Uniwersytetu Kalifornijskiego w Berkeley: „Twój fryzjer podlega szerszym regulacjom niż przedsiębiorstwo z dziedziny AI.”