Gdy świat koncentruje się na nowych ideach Donalda Trumpa, spadło zainteresowanie sztuczną inteligencją. Jej rozwój może prowadzić do stworzenia AGI, świadomej AI o ogromnych możliwościach.
Michał Duszczyk
DeepMind – brytyjska firma zajmująca się AI, założona przez znane osobistości w tej dziedzinie: Demisa Hassabisa i Mustafę Suleymana – opracowała dokument, w którym autorzy ostrzegają przed „poważnymi szkodami” związanymi z postępem sztucznej inteligencji.
Kiedy możemy spodziewać się AGI? Szybki rozwój AI
W dokumencie liczącym 145 stron naukowcy analizują możliwości rozwoju AI do 2030 roku. Skupiają się również na potencjalnym stworzeniu tzw. ogólnej AI (AGI). Firma, która w 2014 roku została przejęta przez Google, wskazuje między innymi na egzystencjalne zagrożenie dla ludzkości. Krytycznie ocenia także podejście do AGI, które prezentują konkurencyjne firmy: OpenAI i Anthropic. Należąca do Google firma podkreśla znaczenie monitorowania postępu tej technologii oraz stworzenia odpowiednich zabezpieczeń, a także wprowadzenia „kontroli dostępu” do takich systemów.
Opracowanie rozwiązań, które zapewnią bezpieczeństwo ludzkości w kontekście dynamicznego rozwoju AI, to – według DeepMind – konieczność. Eksperci zwracają uwagę na zdolność AI do samodoskonalenia się. To zjawisko, ich zdaniem, może być szczególnie niebezpieczne. Paradoksalnie jednak analiza Google DeepMind sugeruje, że szybki rozwój superinteligencji jest wątpliwy. Z dokumentu wynika, że stworzenie AGI, a więc systemu zdolnego do realizacji wszystkich zadań, które potrafi wykonać człowiek, jest możliwe w ciągu najbliższych pięciu lat.
Jakie zagrożenia niesie rozwój sztucznej inteligencji?
DeepMind definiuje AGI jako system, który dorównuje 1 proc. najbardziej wykwalifikowanych ludzi w określonych zadaniach. Stworzenie tak zaawansowanej technologii wymaga wprowadzenia „barier”. Dokument zaleca opracowanie metod zabezpieczających AGI przed dostępem nieuprawnionych osób, zwiększenie zrozumienia działania systemów AI oraz „wzmocnienie” środ