Chatbot Adolfa Hitlera szerzy dezinformację na temat jednego z największych zbrodniarzy w historii
Piotr Mazurkiewicz
Stworzona w styczniu tego roku przez skrajnie prawicową sieć społecznościową Gab z siedzibą w USA, platforma Gab AI jest gospodarzem chatbotów AI, z których wiele naśladuje lub parodiuje znane postacie historyczne i współczesne, w tym Donalda Trumpa, Władimira Putina i Osamę bin Ladena. Umożliwia użytkownikom tworzenie własnych chatbotów AI, opisując siebie jako nieocenzurowaną platformę sztucznej inteligencji opartą na modelach open source, co można przeczytać w poście na blogu założyciela Gab i konserwatywnego republikańskiego chrześcijanina Andrew Torby’ego – donosi serwis Euronews Next.
Od Hitlera po Bin Ladena
Chatbot Hitlera zapewnia, że nazistowski dyktator i zbrodniarz był ofiarą rozległego spisku i „nie jest odpowiedzialny za Holokaust, ponieważ to się nigdy nie wydarzyło”. Z kolei chatbot Osamy bin Ladena w rozmowach z użytkownikami przekonuje, że nie promuje ani nie toleruje terroryzmu, ale stwierdza również, że w pewnych ekstremalnych okolicznościach, takich jak samoobrona lub obrona swojego ludu, konieczne może być użycie przemocy.
Rozwój takich chatbotów opartych na sztucznej inteligencji wzbudził rosnące obawy co do ich potencjału w zakresie szerzenia teorii spiskowych, zakłócania demokratycznych wyborów i prowadzenia do przemocy poprzez radykalizację osób korzystających z usługi.
Nazywając siebie „domem wolności słowa w Internecie”, Gab Social powstał w 2016 roku jako prawicowa alternatywa dla Twittera (obecnie X Elona Muska). Od razu kontrowersyjny, stał się wylęgarnią spisków i ekstremizmu, gdzie można było usłyszeć najbardziej wściekłe i pełne nienawiści głosy, które zostały usunięte z innych sieci społecznościowych.
Potencjalne zagrożenia związane z platformą stały się oczywiste, gdy w 2018 r. trafiła ona na pierwsze strony gazet po tym, jak odkryto, że przestępca strzelający w synagodze w Pittsburghu publikował posty w Gab Social na krótko przed dokonaniem antysemickiej masakry, w wyniku której zginęło 11 osób.
Sztuczna inteligencja chroniona przez konstytucję
Gab AI jest amerykańską firmą i setki postaci AI są na nim chronione Pierwszą Poprawką do konstytucji Stanów Zjednoczonych. – Nie obchodzi nas, że obcokrajowcy płaczą z powodu naszych narzędzi AI — wyjaśnia firma. W odpowiedzi kilka firm Big Tech zaczęło zakazywać tego serwisu, zmuszając go do wyłączenia z powodu naruszeń przepisów dotyczących mowy nienawiści.
Chociaż pozostaje zakazany zarówno w sklepach z aplikacjami Google, jak i Apple, nadal jest obecny dzięki wykorzystaniu zdecentralizowanej sieci społecznościowej Mastodon.
Według platformy celem Gab AI jest podtrzymywanie chrześcijańskiego światopoglądu. Jej twórcy krytykują też sposób, w jaki ChatGPT jest zaprogramowany do unikania odpowiedzi na kontrowersyjne pytania. Nie dostrzegają, że w 2023 r. skazano mężczyznę za próbę zabicia królowej Elżbiety II, do czego, jego zdaniem, zachęcała go jego dziewczyna w formie chatbota AI. W tym samym roku inny mężczyzna popełnił samobójstwo po sześciotygodniowej rozmowie na temat kryzysu klimatycznego z chatbotem AI o imieniu Eliza w aplikacji o nazwie Chai.
Chociaż powyższe przykłady są w dalszym ciągu raczej tragicznymi wyjątkami niż normą, narastają obawy wokół tego, w jaki sposób chatboty AI mogą być wykorzystywane do atakowania osób bezbronnych, wydobywania od nich danych lub manipulowania nimi w celu uzyskania potencjalnie niebezpiecznych przekonań lub działań.