Sztuczna inteligencja może stanowić poważne zagrożenie dla ludzkości. Ta prognoza przewyższa wszystkie wcześniejsze
Michał Duszczyk
Reklama
Wizja przyszłości, którą w rozmowie dla „The Times” przedstawił Nate Soares, były inżynier Google i Microsoft, a obecnie lider Machine Intelligence Research Institute (MIRI), budzi grozę. Jego zdaniem ludzkość zmierza ku egzystencjalnej katastrofie, napędzanej przez sztuczną inteligencję, a szanse na pomyślny rezultat tej drogi są minimalne. Ekspert ocenił je na zaledwie 5 proc. I to w najbardziej optymistycznym scenariuszu.
Reklama Reklama
Czym jest „P(doom)”?
Soares, prowadzący jedno z najstarszych instytutów badawczych poświęconych bezpieczeństwu AI, posługuje się sugestywną metaforą. Rozwój superinteligencji przypomina mu pojazd pędzący w stronę przepaści. Różnica polega na tym, że w znanym nam pojeździe wiemy, gdzie znajduje się hamulec. W przypadku sztucznej inteligencji – wciąż go poszukujemy, a prędkość wzrasta. W dziedzinie AI postęp jest widoczny z miesiąca na miesiąc. Prognoza szefa MIRI wskazuje na zagładę. Prawdopodobieństwo to miałoby wynosić 95 proc. To jedno z najbardziej ekstremalnych stanowisk w branży. Równocześnie jest to głos, którego trudno zlekceważyć, biorąc pod uwagę doświadczenie Soaresa w technologicznych gigantach, gdzie miał bezpośredni dostęp do tempa prac nad AI.
Skrajny pesymizm nie jest jednak w tej dziedzinie aż tak powszechny. Ekstremalna ocena dokonana przez Nate’a Soaresa ma jednak liczne grono zwolenników. W tym gronie często odwołuje się do pojęcia „P(doom)”. To wskaźnik prawdopodobieństwa katastrofy egzystencjalnej spowodowanej przez wymykającą się spod kontroli sztuczną inteligencję.
Jak AI może zniszczyć ludzkość?
W branży uśrednione wyniki ankiet „P(doom)” wśród badaczy AI wskazują na 14,4 proc. A mediana wynosi 5 proc. Warto przytoczyć badanie z 2024 r., w którym wzię