Polskie firmy poważnie podchodzą do sztucznej inteligencji. Większość już wdrożyło polityki korzystania z AI

Dwie trzecie rodzimych firm wdrożyło polityki korzystania z narzędzi sztucznej inteligencji (AI), w tym m.in. chatbotów, a kolejne 30 proc. już zastanawia się nad przyjęciem tego typu zasad – pisze we wtorek "Rzeczpospolita".

Polskie firmy poważnie podchodzą do sztucznej inteligencji. Większość już wdrożyło polityki korzystania z AI

fot. cybermagician / / Shutterstock

Rodzimi przedsiębiorcy nie bagatelizują kwestii dotyczących cyberbezpieczeństwa przy implementacji narzędzi AI – wynika z badań EY, które opublikowała "Rz". Ponad połowa z nich (55 proc.) rozważa ten aspekt, a kolejne 37 proc. też bierze go pod uwagę, choć już w ograniczonym zakresie. Tylko 3 proc. respondentów zupełnie ignoruje ten temat – podano.

Dodano, że dwie trzecie ankietowanych wdrożyło procedury dotyczące stosowania sztucznej inteligencji (przynajmniej dla ogólnodostępnych systemów AI). W tym najwięcej respondentów (40 proc.) ustanowiło własną politykę korzystania zarówno z wewnętrznych, jak i ogólnodostępnych narzędzi AI (np. chatbotów), a 26 proc. wzięło pod kontrolę używanie wyłącznie zewnętrznych systemów. Co istotne, kolejne 30 proc. firm rozważa wprowadzenie odpowiednich procedur dotyczących używania systemów AI – poinformowano.

ReklamaZobacz takżePolecamy: Konto Firmowe Godne Polecenia, za 0 zł za otwarcie i prowadzenie. Bez warunków, bezterminowo, z bonusami do 2400 zł

Jak podkreśla gazeta, powołując się na eksperta, firmy z uwagą obserwują również opracowywany w UE tzw. AI Act. Przyjęte niedawno przez PE przepisy mają szansę stać się pierwszym na świecie prawem, które będzie regulować stosowanie sztucznej inteligencji. "Ustawa ma zapewniać, że systemy AI chronią prawa podstawowe, jak: demokracja, praworządność i zrównoważony rozwój środowiska, jednocześnie stymulując innowacje. Co istotne, nieprzestrzeganie zasad może prowadzić do nałożenia kar w wysokości nawet 35 mln euro lub 7 proc. globalnego obrotu" – czytamy w "Rz".

Zakazano m.in. stosowania systemów kategoryzacji biometrycznej (wykorzystujących tzw. cechy wrażliwe, np. przekonania polityczne, religijne, rasę), pobierania wizerunków twarzy z internetu lub z nagrań z kamer w celu tworzenia baz danych rozpoznawania twarzy, a także tworzenia technologii do rozpoznawana emocji w miejscu pracy i instytucjach edukacyjnych czy systemów AI zdolnych do manipulowania zachowaniem i odczytywania słabości ludzi.

del/ amac/

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *