Przedsiębiorstwo Anthropic, specjalizujące się w AI, zainicjowało w poniedziałek postępowanie sądowe, mające na celu unieważnienie restrykcji nałożonych przez Departament Obrony. Firma realizuje kontrakt o wartości blisko 200 mln USD dla Pentagonu, jednakże w ostatnim czasie doszło do konfliktu, w którym domaga się, aby jej rozwiązania nie były stosowane do produkcji broni autonomicznej i wszechstronnej inwigilacji.

W czwartek Pentagon oficjalnie orzekł, że Anthropic stanowi „niebezpieczeństwo dla łańcucha dostaw”, zakazując podwykonawcom ministerstwa obrony prowadzenia interesów z ową firmą. Jest to pierwszy przypadek zastosowania takiej kwalifikacji – dotychczas zarezerwowanej dla firm z Chin oraz innych oponentów USA – w stosunku do amerykańskiego podmiotu.
W pozwie, złożonym w poniedziałek w federalnym sądzie w Kalifornii, Anthropic uznał tę decyzję za niezgodną z prawem i wniósł o jej anulowanie oraz powstrzymanie organów federalnych przed jej realizacją.
Reklama
Zobacz także
Niskie prowizje i brak ukrytych opłat – otwórz rachunek w Saxo Banku (Link afiliacyjny – zarabiamy na prowizji)
Szef Pentagonu, Pete Hegseth, wprowadził obostrzenia po tym, jak Anthropic nie zgodził się na usunięcie zabezpieczeń, blokujących użycie jej systemów sztucznej inteligencji do konstrukcji broni autonomicznej oraz masowej inwigilacji obywateli amerykańskich.
Prezydent Donald Trump dołączył do krytyki Anthropic, określając ją mianem „skrajnie lewicowej spółki”, która pragnie narzucić rządowi i armii „jak walczyć i wygrywać wojny”. Stwierdził, że „lewicowi szaleńcy” dopuścili się „fatalnego błędu, usiłują szantażować” Pentagon i zabronił wykorzystywania technologii Anthropic w agencjach rządowych.
Amerykańskie ministerstwo obrony i Biały Dom podkreślają, że to amerykańskie prawo i instytucje rządowe muszą decydować o sposobie użycia systemów sztucznej inteligencji do celów militarnych, a nie wewnętrzne zasady prywatnego przedsiębiorstwa.
Anthropic podkreśla, że nawet najlepsze modele AI nie są na tyle niezawodne, aby stanowić komponent autonomicznego uzbrojenia, a ich zastosowanie w tym celu byłoby ryzykowne.
Ogłoszone przez Pentagon ograniczenia stanowią poważny cios dla przedsiębiorstwa, który – zdaniem ekspertów – potencjalnie zagraża jego egzystencji.
Anthropic stworzył model AI Claude. Według doniesień medialnych, był on wykorzystywany w styczniu podczas operacji ujęcia prezydenta Wenezueli Nicolasa Maduro przez amerykańskie siły zbrojne, jak również w trakcie trwającej wojny USA i Izraela z Iranem. (PAP)
adj/ rtt/
