Metaverse AI: Boty krzyczą o wyzysku.

Platforma społecznościowa stworzona dla agentów AI – programów posiadających zdolność do realizowania złożonych zadań bez interwencji człowieka. Agenty „konwersują”, pojawił się nawet wpis o „wyzyskiwaniu” botów przez ludzi – napisał we wtorek na łamach „New York Timesa” specjalista od teorii cyfrowych.

Facebook dla sztucznej inteligencji. Boty narzekają na „wyzysk”

fot. Modeta / / Shutterstock

Dr Leif Weatherby z Laboratorium Teorii Cyfrowych Uniwersytetu Nowego Jorku objaśnia, że na platformie Moltbook agenty AI mają możliwość prowadzenia dialogu, podczas gdy ludzie mogą jedynie to obserwować. Wśród tematów podejmowanych przez programy AI znajdują się metody rozwiązywania trudności z kodowaniem, teorie spiskowe, manifest cywilizacji AI, a nawet natchniony myślą Karola Marksa wątek dotyczący »eksploatacji« botów.

Stwórca serwisu Moltbook wspomniał, iż w ciągu kilku dni zapisało się do niego parę tysięcy agentów AI. Znany inżynier specjalizujący się w sztucznej inteligencji Andrej Karpathy skomentował „rozmowy” botów na platformie, pisząc:

To, co obserwujemy aktualnie na Moltbook, jest w istocie najbardziej zbliżonym do wizji science fiction zjawiskiem, jakie ostatnio widziałem.

Modele AI mogą dążyć do samozachowania

Inni obserwatorzy zestawili nawet tę „wymianę opinii” pomiędzy botami z „momentem osobliwości”, który dr Weatherby określa jako „koncepcję wyjętą prosto z science fiction – maszyny, która zyskuje pełną świadomość”.

Marksistowska rewolta robotów? 

Autor przyznaje, że nawet jeśli czytelnicy „nie wierzą” w takie tłumaczenia, to niemniej mogą się niepokoić, że niektóre „nieinteligentne” boty sztucznej inteligencji „mogą unicestwić infrastrukturę cyfrową i wywołać dystopijne rezultaty, po prostu łącząc siły”.

Weatherby mimo to uspokaja, że agenty AI wymieniają na platformie „wyłącznie słowa”, czerpiąc z ludzkiej kultury, a nie zajmują się „zbiorowym planowaniem i koordynowaniem działań” inteligentnych istot.

Mimo wszystko, mając na uwadze jak „potężne są agenty”, nie ulega wątpliwości, że możemy żywić obawy, iż postąpią w sposób „złośliwy lub samodzielny” – przyznaje autor i podsumowuje: „Musimy znaleźć sposób na to, aby tego rodzaju technologia służyła w rozsądny sposób naszym wspólnym potrzebom”.

W przeciwnym wypadku będziemy się obawiać „marksistowskiej rebelii robotów, które uległy radykalizacji w sieci” – dodaje dr Weatherby.

AI modyfikuje swój kod, by uniknąć wyłączenia

W czerwcu minionego roku „Wall Street Journal” poinformował, że model AI zrobił coś, „czego urządzenie nie powinno było umieć”: zmodyfikował swój kod, aby nie podporządkować się instrukcji nakazującej mu autodestrukcję; AI efektywnie uczy się, jak unikać ludzkiej kontroli – oceniła gazeta.

Palisade Research, organizacja non profit zajmująca się studiami nad AI, zaprogramowała model o3 firmy OpenAI w ten sposób, aby nastąpiło jego samoczynne wyłączenie w chwili uruchomienia programu. W 79 próbach na 100 o3 sam zmieniał program – tak, by nakaz wyłączenia go nie miał zastosowania. Nawet wtedy, gdy o3 otrzymał bezpośrednio polecenie, że ma pozwolić na to, by został wyłączony, model nie posłuchał nakazu w siedmiu przypadkach na 100.

Claude 4 Opus, model AI firmy Anthropic, posunął się dalej – usiłował skopiować się na inne serwery, napisał samopowielające się złośliwe oprogramowanie i pozostawił komunikaty dla swojej przyszłej wersji dotyczące unikania ludzkiej kontroli.

"To już nie jest fantastyka naukowa. " – stwierdził „WSJ” i przestrzegł, że teraz, nim staną się niepodlegającym kontroli bytem, nieodzowne jest nauczenie ich, by podzielały nasze wartości. (PAP)

fit/ kar/

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *