Przed tym „egzystencjalnym zagrożeniem” ostrzega spółka Google. To AGI

Kiedy świat żyje kolejnymi pomysłami Donalda Trumpa, osłabło zainteresowanie sztuczną inteligencją.

Gdy świat koncentruje się na nowych ideach Donalda Trumpa, spadło zainteresowanie sztuczną inteligencją. Jej rozwój może prowadzić do stworzenia AGI, świadomej AI o ogromnych możliwościach.

Foto: Bloomberg

Michał Duszczyk

DeepMind – brytyjska firma zajmująca się AI, założona przez znane osobistości w tej dziedzinie: Demisa Hassabisa i Mustafę Suleymana – opracowała dokument, w którym autorzy ostrzegają przed „poważnymi szkodami” związanymi z postępem sztucznej inteligencji.

Kiedy możemy spodziewać się AGI? Szybki rozwój AI

W dokumencie liczącym 145 stron naukowcy analizują możliwości rozwoju AI do 2030 roku. Skupiają się również na potencjalnym stworzeniu tzw. ogólnej AI (AGI). Firma, która w 2014 roku została przejęta przez Google, wskazuje między innymi na egzystencjalne zagrożenie dla ludzkości. Krytycznie ocenia także podejście do AGI, które prezentują konkurencyjne firmy: OpenAI i Anthropic. Należąca do Google firma podkreśla znaczenie monitorowania postępu tej technologii oraz stworzenia odpowiednich zabezpieczeń, a także wprowadzenia „kontroli dostępu” do takich systemów.

Opracowanie rozwiązań, które zapewnią bezpieczeństwo ludzkości w kontekście dynamicznego rozwoju AI, to – według DeepMind – konieczność. Eksperci zwracają uwagę na zdolność AI do samodoskonalenia się. To zjawisko, ich zdaniem, może być szczególnie niebezpieczne. Paradoksalnie jednak analiza Google DeepMind sugeruje, że szybki rozwój superinteligencji jest wątpliwy. Z dokumentu wynika, że stworzenie AGI, a więc systemu zdolnego do realizacji wszystkich zadań, które potrafi wykonać człowiek, jest możliwe w ciągu najbliższych pięciu lat.

Jakie zagrożenia niesie rozwój sztucznej inteligencji?

DeepMind definiuje AGI jako system, który dorównuje 1 proc. najbardziej wykwalifikowanych ludzi w określonych zadaniach. Stworzenie tak zaawansowanej technologii wymaga wprowadzenia „barier”. Dokument zaleca opracowanie metod zabezpieczających AGI przed dostępem nieuprawnionych osób, zwiększenie zrozumienia działania systemów AI oraz „wzmocnienie” środ

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *