AI Act, czyli unijny akt o sztucznej inteligencji odnosi się w swoim zasięgu tylko do poszczególnych, krytycznych obszarów związanych z funkcjonowaniem SI. Ma regulować kwestie takie jak m.in. sprawa deepfake’ów, biometrii czy social scoringu. Ostatnim przykładem takiego rozwiązania jest Sora od OpenAI – narzędzie do tworzenia filmów. Prawdopodobnie unijne prawo nie będzie jednak inspiracją dla prawodawców w USA czy Azji.
Na początku lutego Rada UE – po trzech latach prac – przyjęła finalną wersję aktu o sztucznej inteligencji. Teraz zajmą się nią komisje parlamentarne, a głosowanie na forum Parlamentu Europejskiego spodziewane jest na początku kwietnia. Rozporządzenie ma wejść w życie 20 dni po jego opublikowaniu, a poszczególne przepisy zaczną obowiązywać w państwach członkowskich po okresie od sześciu miesięcy do trzech lat. W tym czasie zarówno kraje, jak i firmy i instytucje będą musiały dostosować się do nowych regulacji.
– Tego typu decyzje są argumentowane bardzo często aspektem czysto politycznym. Przykładem jest to, co się wydarzyło z przyjmowaniem RODO. Parlament opowiedział się za tym po aferze związanej ze Snowdenem. Teraz motywatorem dla parlamentu jest to, co robi głównie spółka OpenAI i najwięksi na świecie gracze technologiczni, jak Nvidia, Google czy Microsoft. Wypluwają oni coraz to nowsze produkty AI-owe, tworząc nowe, silniejsze modele językowe – mówi w wywiadzie dla agencji Newseria Innowacje dr Maciej Kawecki, prezes Instytutu Lema, dyrektor Centrum Innowacji Uniwersytetu WSB Merito w Warszawie.
W połowie lutego Open AI zaprezentowało generator klipów wideo Sora, oparty na sztucznej inteligencji. Narzędzie potrafi tworzyć minutowe filmy, zamieniając na nie tekst promptu. Klipy charakteryzują się wysoką szczegółowością scen, złożonością ruchu kamer i postaciami zbudowanymi z uwzględnieniem warstwy emocjonalnej. Co istotne z punktu widzenia regulacji AI Act, Sora może też wygenerować wideo na podstawie nieruchomego obrazu lub modyfikować istniejące filmy. W ślad za uruchomieniem narzędzia Sora Worldcoin, kryptowaluta opracowana przez właściciela OpenAI, Sama Altmana, zanotowała dynamiczny wzrost kursu: o prawie 200 proc. w ciągu niespełna tygodnia.
Już dzisiaj SI wiąże się z szeregiem wyzwań, związanych m.in. z ochroną prywatności, prawami autorskimi, kwestiami etycznymi czy rynkiem pracy. Jak wyjaśniają eksperci Towarzystwa Ekonomistów Polskich, unijny AI Act stanowi odpowiedź na konieczność ukierunkowania jej odpowiedzialnego i bezpiecznego rozwoju. Systemy sztucznej inteligencji mają być klasyfikowane w ramach czterech grup, w zależności od poziomu ryzyka, jaki stwarzają w szczególności dla zdrowia, bezpieczeństwa i naruszenia praw podstawowych. Przykładowo przewidziany jest zakaz systemów nieakceptowalnego ryzyka – ich wprowadzania do obrotu, oddawania do użytku lub wykorzystywania. Zaliczono do nich takie systemy, które wykorzystują techniki podprogowe, manipulacyjne lub zwodnicze i przez to istotnie zniekształcają zachowanie danej osoby. AI Act ustanawia także publicznoprawny system nadzoru nad niektórymi systemami.
– Trzeba pamiętać, że AI Act jest tak zwaną regulacją wyspową, a więc taką, która nie reguluje domyślnie całego procesu tworzenia i wykorzystywania sztucznej inteligencji, ale tylko obszary wyspowe, czyli tam, gdzie AI znajdzie zastosowanie na przykład w social scoringu, w wykorzystywaniu danych biometrycznych, deepfake’ów, czyli wykorzystywania modeli językowych do tworzenia ruchomych obrazów, które mogą wprowadzać w błąd czy dezinformować. Te obszary wyspowo będą regulowane poprzez na przykład obowiązek poinformowania o tym, że coś jest deepfakiem, albo poprzez odebranie zgody na wykorzystanie naszych danych w celach social scoringu – mówi dr Maciej Kawecki.
Ta fragmentaryczność odróżnia tę regulację od innych, np. w zakresie ochrony danych osobowych RODO. UE wyszła z założenia, że regulowanie całego obszaru AI nie jest możliwe.
– Jestem zwolennikiem regulacji w ogóle, ale z pełną świadomością tego, co robimy, czyli ze świadomością tego, że regulujemy obszar, którego nie mamy, dlatego że dzisiaj Unia Europejska nie jest miejscem tworzenia silnych modeli językowych, to raczej Azja i Stany Zjednoczone. Teraz konsekwencją tego jest to, że stajemy się jako Unia Europejska trochę słodkim skansenem w pewnym sensie, czyli kontynentem, który stawia oczywiście na wartości, to jest nam bliskie, ale musimy też mieć pełną świadomość odpowiedzialności z tego wynikających, że stajemy się w pewnym sensie wtórni względem wpływu sztucznej inteligencji na gospodarkę, który bez wątpienia na kontynentach takich jak Ameryka Północna i Azja będzie ogromny – podkreśla prezes Instytutu Lema.
W jego ocenie, choć o regulowaniu kwestii sztucznej inteligencji mówi się również w Azji i Stanach Zjednoczonych, to europejskie wysiłki raczej nie staną się inspiracją dla tamtejszych prawodawców.
– Prezydent Stanów Zjednoczonych jakiś czas temu przyjął dekret, który nie ma mocy prawnej, a dotyczy on obszarów bardzo nam dalekich z perspektywy europejskiej. Wypowiada się na przykład na temat wykorzystywania sztucznej inteligencji w obrocie nieruchomościami. My jesteśmy dzisiaj na tak zwanym pierwszym etapie rozwoju SI, czyli etapie produktowym. Drugim będzie pewnie włączenie się w rozwój sztucznej inteligencji gospodarek państw, które dostrzegą, że sztuczna inteligencja będzie gwarantem zapewnienia jej pozycji geopolitycznej, wpływów, rozwiązywania problemów o charakterze społecznym, w tym związanych ze służbą zdrowia, zmianami klimatycznymi i dopasowaniem usług do potrzeb obywateli. Wtedy nastąpi proces dzielenia się gospodarek danymi o obywatelach – przewiduje naukowiec. – Nie wydaje mi się, żeby drogą, którą wybrała Unia Europejska, podążały też Stany Zjednoczone czy Azja.
Według Goldman Sachs Research generatywna sztuczna inteligencja może podnieść światowy PKB o 7 proc. (o 7 bln dol.) w 10-letniej perspektywie.