Dwie trzecie rodzimych firm wdrożyło polityki korzystania z narzędzi sztucznej inteligencji (AI), w tym m.in. chatbotów, a kolejne 30 proc. już zastanawia się nad przyjęciem tego typu zasad – pisze we wtorek "Rzeczpospolita".
Rodzimi przedsiębiorcy nie bagatelizują kwestii dotyczących cyberbezpieczeństwa przy implementacji narzędzi AI – wynika z badań EY, które opublikowała "Rz". Ponad połowa z nich (55 proc.) rozważa ten aspekt, a kolejne 37 proc. też bierze go pod uwagę, choć już w ograniczonym zakresie. Tylko 3 proc. respondentów zupełnie ignoruje ten temat – podano.
Dodano, że dwie trzecie ankietowanych wdrożyło procedury dotyczące stosowania sztucznej inteligencji (przynajmniej dla ogólnodostępnych systemów AI). W tym najwięcej respondentów (40 proc.) ustanowiło własną politykę korzystania zarówno z wewnętrznych, jak i ogólnodostępnych narzędzi AI (np. chatbotów), a 26 proc. wzięło pod kontrolę używanie wyłącznie zewnętrznych systemów. Co istotne, kolejne 30 proc. firm rozważa wprowadzenie odpowiednich procedur dotyczących używania systemów AI – poinformowano.
ReklamaZobacz takżePolecamy: Konto Firmowe Godne Polecenia, za 0 zł za otwarcie i prowadzenie. Bez warunków, bezterminowo, z bonusami do 2400 zł
Jak podkreśla gazeta, powołując się na eksperta, firmy z uwagą obserwują również opracowywany w UE tzw. AI Act. Przyjęte niedawno przez PE przepisy mają szansę stać się pierwszym na świecie prawem, które będzie regulować stosowanie sztucznej inteligencji. "Ustawa ma zapewniać, że systemy AI chronią prawa podstawowe, jak: demokracja, praworządność i zrównoważony rozwój środowiska, jednocześnie stymulując innowacje. Co istotne, nieprzestrzeganie zasad może prowadzić do nałożenia kar w wysokości nawet 35 mln euro lub 7 proc. globalnego obrotu" – czytamy w "Rz".
Zakazano m.in. stosowania systemów kategoryzacji biometrycznej (wykorzystujących tzw. cechy wrażliwe, np. przekonania polityczne, religijne, rasę), pobierania wizerunków twarzy z internetu lub z nagrań z kamer w celu tworzenia baz danych rozpoznawania twarzy, a także tworzenia technologii do rozpoznawana emocji w miejscu pracy i instytucjach edukacyjnych czy systemów AI zdolnych do manipulowania zachowaniem i odczytywania słabości ludzi.
del/ amac/