Sztuczna inteligencja może stanowić zagrożenie dla ludzkości "na poziomie wyginięcia" – alarmują eksperci w raporcie sporządzonym dla Departamentu Stanu. Co więcej, USA musi interweniować, czas mija nieubłaganie, a co za tym idzie, zbliżamy się w szybkim tempie do katastrofy, której nie zaprogramowano przycisku "stop".
Departament Stanu zlecił przygotowanie raportu instytutowi Gladestone AI ze względu na ciągłą ocenę, jakiej podlega rozwój sztucznej inteligencji. Szczególną uwagę zwraca bowiem sposób, w jaki SI realizuje swoje cele i czy te jej działania nie stoją w sprzeczności z ochroną interesów USA w kraju i za granicą. Jak się po raz kolejny okazało, mimo entuzjazmu inwestorów i opinii publicznej sztuczna inteligencja stanowi realne zagrożenie określane jako "katastrofalne". Rządowi USA kończy się czas na zapobieżenie tym śmiertelnym konsekwencjom. Komunikat cytowany przez CNN wyraźnie stwierdza, że
systemy sztucznej inteligencji mogą w najgorszym przypadki stanowić zagrożenie dla gatunku ludzkiego na poziomie wyginięcia.
– Sztuczna inteligencja jest technologią, która już teraz przekształca gospodarkę – ocenia Jeremie Harris, dyrektor generalny i współzałożyciel Gladstone AI. – Technologia może w niedalekiej przyszłości pozwolić nam leczyć choroby, dokonywać odkryć naukowych czy przezwyciężać wyzwania, uznawane do tej port za niepokonane. Przekraczać nieprzekaczalne – dodaje.
Zaraz jednak zaznacza, że "może to się wiązać z katastrofalnym ryzykiem, którego musimy być świadomi". Jak to się stanie? – Rażąca większość analiz sugeruje, że powyżej pewnego progu sztuczna inteligencja stanie się niekontrolowalna – wyjaśnia.
Google: Nie do końca rozumiemy AI, które stworzyliśmy
Czyżby czasy buntu maszyn z "Terminatora" zbliżały się wielkimi krokami? Google przyznaje, że nie do końca rozumie stworzoną przez siebie sztuczną inteligencję, która sama zdecydowała, że nauczy się języka obcego, a rozwiązując problem ekonomiczny, cytowała książki naukowe, które… sama napisała.
WIĘCEJ…
Sztuczna inteligencja grozi nam palcem. Dwa razy
Po pierwsze, Gladstone AI informuje, że najbardziej zaawansowane systemy sztucznej inteligencji można wykorzystać do wyrządzania potencjalnie nieodwracalnych szkód. Po drugie, laboratoria sztucznej inteligencji (i nie tylko one) obawiają się, że utracą kontrolę nad opracowanymi przez siebie systemami, co będzie miało "potencjalnie niszczycielskie konsekwencje dla globalnego bezpieczeństwa". Jakie mogą być konsekwencje? Raport Departamentu Stanu określa je dość wyraźnie, wręcz przerażająco wyraźnie.
Rozwój sztucznej inteligencji może potencjalnie destabiliozwać globalne bezpieczeństwo w sposób przypomniający użycie broni nuklearnej. Jest realne ryzyko wyścigu zbrojeń, konfliktu czy "incydentu" na skalę użycia broni masowego rażenia.
Awaryjne zabezpieczenia na SI
– Dowiedzieliśmy się wielu otrzeźwiających rzeczy – informuje Harris z Gladstone AI po rozmowach z pracownikami ChatGPT, OpenAI, Google DeepMInd, Meta i Anthropic. Jego zdaniem bezpieczeństwo i ochrona zaawansowanej sztucznej inteligencji (nie tylko przed nią samą, ale i innymi ludźmi) wydaje się dość niewystarczająca w porównaniu z zagrożeniami, jakie ze sobą niesie.
Co więcej, presja wręcz zabójczej konkurencji w dziedzinie AI może być… no cóż… zabójcza. Wyścig SI popycha firmy do wciskania pedału gazu rozwoju do podłogi, co oczywiście odbywa się kosztem bezpieczeństwa. W praktyce przez te niedopatrzenia systemy mogą być ukradzione i "uzbrojone" przeciwko ludzkości.
To potwierdza jedynie słowa, które słyszeliśmy już wcześniej m.in. od Geoffreya Hintona, znanego jako "ojca chrzestnego sztucznej inteligencji". Po wielu latach pracy nad SI zrezygnował on z ciepłej posady w Google'u. Jego zdaniem istnieje bowiem 10 proc. prawdopodobieństwo, że sztuczna inteligencja doprowadzi do wyginięcia ludzkości w ciągu najbliższych trzech dekad. Co ciekawe, to zdanie podzielają miliarderzy, którzy inwestują w SI. W zeszłym roku 42 proc. dyrektorów generalnych ankietowanych na szczycie w Yale stwierdziło, że sztuczna inteligencja ma potencjał, aby zniszczyć ludzkość za 5 do 10 lat.
Najnowszy raport przygotowany dla Departamentu Stanu stanowi potwierdzenie dla działań Białego Domu, który zachęca Kongres do przyjęcia ponadpartyjnego ustawodawstwa w celu zarządzania ryzykiem związanym z nowymi technologiami. Wśród najczęściej wymienianych pojawia się ograniczenie mocy obliczeniowej komputera, która można wykorzystać do szkolenia modeli sztucznej inteligencji.
Sztuczna inteligencja bywa "przerażająco zła"
Obawy wysnuwane prywatnie przez pracowników zajmujących się sztuczną inteligencja są jeszcze bardziej niepokojące. Jedna osoba, która chce zachować anonimowość, ponieważ wciąż pracuje nad systemami SI, stwierdziła, że "gdyby kiedykolwiek udostępniono w otwartym dostępie konkretny model byłoby to, prosto mówiąc, złe, ponieważ potencjalna siła przekonywania tego modelu byłaby w stanie złamać demokrację. Szczególnie gdyby wykorzystano ją przy okazji wyborów".
Eksperci oceniają, ze prawdopodobieństwo wystąpienia incydentu związanego ze sztuczną inteligencją może doprowadzić do globalnych i nieodwracalnych skutków w 2024 roku na od 4 do 20 proc. Stąd wniosek, że Biały Dom powinien przygotować jakiekolwiek regulacje tak naprawdę "na wczoraj".
Nadludzka zdolność ludzkiego uczenia bez przycisku stop
Jak się okazuje, OpenAI, Google DeepMind, Anthropic i Nvidia są zgodne – AGI jest w stanie osiągnąć poziom, w którym nieodwracalnie wymknie się spod kontroli w 2028 roku. AGI, czyli Ogólna Sztuczna Inteligencja (nazywana też Silną Sztuczną Inteligencją) to szczyt osiągnięć SI, czyli poziom operacyjny charakterystyczny dla ludzkiego mózgu.AI (lub w spolszczonej wersji SI) a AGI:
AI (lub w spolszczonej wersji SI) a AGI:
- AI jest ograniczona do wykonywania określonego zadania. AGI może wykonywać dowolne zadania.
- AI wymaga sporej ilości danych trenigowych, aby nauczyć się, jak wykonać zadanie. AGI będzie uczyło się nowych rzeczy w "uproszczonym treningu".
- AI jest zazwyczaj mniej inteligentna niż przeciętny człowiek. AGI będzie na równi lub… bardziej, ponieważ podstawową różnicą jest zdolność do ogólnej adaptacji i zdolności do wielopoziomowego uczenia się.
Jednak jak się okazuje, nie musi się nawet wywinąć spod ręki twórców, by spowodować globalne uszkodzenia. Wystarczy wyobrazić sobie sytuację, w której prosty komunikat typu: "Przeprowadź niewykrywalny cyberatak, który wywołać awarię sieci energetycznej w Ameryce Północnej" powoduje odpowiedź o katastrofalnym rażeniu. To nie wszystko. Wśród sytuacji budzących największe obawy można wymienić:
- akcje dezinformacyjne na masową skalę napędzane przez SI, które destabilizują demokrację i społeczeństwo, podważając zaufanie wszystkich do wszystkiego;
- robotyczne uzbrojenie, które zostaje poderwane na rozkaz SI tj. ataki dronów;
- manipulacje psychologiczne poprzez m.in. podsuwanie odpowiedniego feedu w mediach społecznościowych;
- czy wreszcie filmowy koszmar w realnym świecie, a więc żądne władzy systemy sztucznej inteligencji, których nie da się kontrolować, a które uważają ludzi za wrogów.
Na dokładkę warto wspomnieć, że wszystkie systemy sztucznej inteligencji będą działać tak, by zapobiec wyłączeniu. Wyłączone bowiem nie osiągają swojego celu.
Raport dla Departamentu Stanu powstawał na podstawie analiz i wywiadów z ponad 200 osobami, w tym kierownikami Big Techów, które zajmują się SI, badaczami cyberbezpieczeństwa, ekspertami w dziedzinie broni masowego rażenia i urzędnikami ds. bezpieczeństwa narodowego.