Sztuczna inteligencja i hakerzy przeciwko bezpieczeństwu przedsiębiorców

Sztuczna inteligencja i hakerzy przeciwko bezpieczeństwu przedsiębiorców

Foto: Adobe Stock

Magdalena Auzbiter

Eksperci z branży sztucznej inteligencji oraz bezpieczeństwa IT wskazują, że w 2024 roku najbardziej narażone na ataki będą instytucje samorządzowe oraz średnie firmy. To one mają posiadać najsłabsze zabezpieczenia. Z drugiej strony zagrożeni mogą poczuć się sami twórcy systemów AI. Zaskakującym zachowaniem może być fakt, że hakerzy wykorzystają AI do swoich niecnych celów, to same firmy tworzące systemy sztucznej inteligencji zostaną ofiarami ich ataków. 

Jak wskazuje raport specjalistów z Trend Micro atak hakerski dla wtajemniczonych to już dziś około 100 dolarów, a okup, który przestępca może wymusić na przedsiębiorcy znacząco przewyższa tę kwotę. Wszystko to poprzez kradzież danych o „odpowiedniej” wartości czy np. zakłócanie działania aplikacji, która generuje przychodzy przedsiębiorstwa. 

Analitycy sądzą, iż hakerzy w br. skupią się nie tylko na lokalnych instytucjach, ale też na małych i średnich przedsiębiorstwach. – Te wciąż nie są wystarczająco przygotowane do walki z zagrożeniami – przekonuje Mateusz Ossowski, CEE Channel Manager w firmie Barracuda Networks. – Cyberprzestępcy zmienili sposób działania i nie żądają okupu za odszyfrowanie danych, a za nieupublicznianie skradzionych informacji. Nie są to tylko czcze pogróżki, co widać choćby na przykładzie niedawnego ataku na ALAB Laboratoria – komentuje Ossowski. 

To jednak może być dobry rok dla wszystkich firm, które zajmują się zagadnieniami cyberbezpieczeństwa — ich usługi będą bardzo pożądane, zarówno z perspektywy wzrostu potencjalnego zagrożenia ataków, ale także wzrostu świadomości przedsiębiorców w zakresie cyberbezpieczeństwa. Coraz więcej firm funkcjonuje już przede wszystkim „w internecie”, a nie jedynie fizycznie w lokalu, to także sprawi, że przedsiębiorcy będą musieli nauczyć się bezpiecznego działania na tym rynku. 

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *