Dane generowane przez chatboty AI mogą zostać przechwycone przez cyberprzestępców, zagraniczne agencje lub marketerów, co potencjalnie zaszkodzi użytkownikom — ostrzeżenie to pochodzi od specjalisty ds. cyberbezpieczeństwa Mateusza Chroboka w wywiadzie dla PAP. Radził on o tym, jak ważne jest zachowanie higieny cyfrowej i sceptyczne podejście do generowanych treści.
Mateusz Chrobok, specjalista ds. cyberbezpieczeństwa i sztucznej inteligencji, który prowadzi platformę edukacyjną i kanał na YouTube obserwujący 157 tys. osób, podkreślił, że firmy tworzące chatboty oparte na sztucznej inteligencji często zbierają dane użytkowników z Internetu, w tym z mediów społecznościowych, a także z informacji podawanych przez użytkowników podczas interakcji z chatbotami.
„Informacje te służą zazwyczaj do tworzenia profili poszczególnych osób, co pozwala na lepsze dostosowanie odpowiedzi chatbota do naszych preferencji” – wyjaśnia.
Ekspert podkreślił, że z podpowiedzi lub zapytań, które użytkownicy przesyłają do chatbotów, firmy mogą uzyskać informacje na temat używanego języka, cech fizycznych — szczególnie gdy dołączone są zdjęcia — opinii, okoliczności osobistych, problemów i nie tylko. Ponadto niektóre firmy żądają dostępu do danych z urządzenia użytkownika, takich jak kontakty i lokalizacja. „Na przykład chińska firma DeepSeek monitorowała również nasze wzorce pisania, co może ujawnić istotne dane osobowe, takie jak wiek lub nawet oznaki zmęczenia” — zauważył Chrobok.
Zobacz takżeJak sztuczna inteligencja wpłynie na zawód księgowego
„Czasami możemy mieć ochotę oddać nasze dane za darmowy dostęp do chatbota lub ulepszoną funkcjonalność. W rezultacie narażamy naszą prywatność na pewne korzyści” – zauważył. Podkreślił, że angażowanie się w chatboty niesie ze sobą ryzyko ujawnienia poufnych informacji. Chrobok przypomniał incydent sprzed dwóch lat, kiedy OpenAI omyłkowo ujawniło indeksy użytkowników ChatGPT, umożliwiając użytkownikom nieumyślny dostęp do historii czatów innej osoby po zalogowaniu się na ich konta. „Chociaż dotyczyło to 1,2 procent użytkowników, przekłada się to na miliony osób” – podkreślił.
Innym problemem bezpieczeństwa związanym z chatbotami jest atak Account Takeover (ATO), o którym wspomina ekspert. Jeśli cyberprzestępca skutecznie przejmie konto, może uzyskać dostęp do poufnych danych z historii czatów użytkownika, w tym imienia, nazwiska, numeru telefonu i danych karty kredytowej, jeśli użytkownicy udostępnili je w rozmowach lub dokumentach. „Badania wskazują, że modele przechowują takie informacje, a po przeszkoleniu ich nie można ich łatwo usunąć. Istnieją również metody wyodrębniania tych danych z chatbota” – ostrzegał.
On