Co czwarte zapytanie wprowadzone przez pracowników do narzędzi generatywnej sztucznej inteligencji zawiera dane, które powinny być chronione – informuje "Rzeczpospolita" w poniedziałkowym wydaniu.
"Liczba firm korzystających z chatbotów dynamicznie rośnie, zdecydowanie szybciej niż świadomość pracowników o potencjalnych zagrożeniach związanych z wykorzystaniem takich narzędzi" – informuje "Rz". Według badań Cyberhaven Labs ilość danych wprowadzonych przez pracowników firm do narzędzi generatywnej sztucznej inteligencji od marca 2023 r. w ciągu roku wzrosła o prawie o 600 procent.
"Problem w tym, że pracownicy często używają sztucznej inteligencji z prywatnych kont, co może być zagrożeniem dla firm i instytucji" – wskazuje dziennik. Eksperci szacują, że ok 25 proc. informacji wprowadzanych do aplikacji są danymi wrażliwymi, które wypływają poza struktury firmy.
Analitycy Check Point, firmy z branży cyberochrony twierdzą, że w kwestii ochrony danych wrażliwych nie można ufać dużym modelom językowym (LLM)i sugerują podejście Zero Trust AI – zero zaufania do sztucznej inteligencji.
Rzeczpospolita podkreśla także, iż "44 procent menadżerów firm obawia się o bezpieczeństwo i prywatność przy wykorzystaniu AI w biznesie".(PAP)
mr/ lm/