Popularna amerykańska sieć drogerii wpadłą w tarapaty ze względu na swoją rasistowską i seksistowską AI
Michał Duszczyk
Gdy Unia Europejska opracowuje przepisy (AI Act), mające zakazać stosowania systemów rozpoznawania twarzy wspieranych przez sztuczną inteligencję, klasyfikujących i oceniających ludzi, w Ameryce technologie te pokazują swoją mroczną stronę.
Sztuczna inteligencja miała zatrzymać plagę kradzieży
Do potężnego skandalu doszło w popularnej sieci amerykańskich drogerii Rite Aid. Ta sięgnęła bowiem po narzędzie AI, by typować wśród klientów potencjalnych złodziei. Nowatorski system oparty o kamery i technologię rozpoznawania twarzy miał pomóc firmie zatamować plagę sklepowych kradzieży. Jak się okazało w praktyce wprowadzał w błąd, kierując się uprzedzeniami. Sterująca systemem sztuczna inteligencja jako zagrożenie wskazywała m.in. osoby o innych kolorach skóry niż biała. W taki sposób oznaczała więc np. czarnoskórych, ale również jako złodziei typowała kobiety.
Rite Aid, stosując tę technologię, popadł w tarapaty. Sprawą zajęła się bowiem FTC (Federalna Komisja Handlu). Ta orzekła, że sieć wdrożyła technologię „bez rozsądnych zabezpieczeń” i zakazała stosowanie systemu rozpoznawania twarzy. Ten ma obowiązywać firmę przez pięć lat.
System AI używany był przez Rite Aid w setkach sklepów. FTC orzekło, iż „nierozważne korzystanie z systemów monitorowania twarzy narażało klientów na upokorzenie i inne krzywdy”. Samuel Levine, dyrektor Biura Ochrony Konsumentów FTC zapewnił w specjalnie wydanym oświadczeniu, że komisja będzie teraz wyjątkowo czujna i zamierza chronić konsumentów przed „nieuczciwym nadzorem biometrycznym”.
Upokorzeni przez AI
Rite Aid wdrożyło tę technologię w 2012 i stosowała przez blisko dekadę. W tym czasie wielu klientów, wytypowanych przez algorytmy jako zagrożenie, było błędnie oskarżanych przez pracowników ochrony o kradzieże. Ochroniarze i sprzedawcy Rite Aid, działając na podstawie fałszywych alarmów, śledzili konsumentów po sklepie, przeszukiwali ich, a nawet nakazywali opuszczenie placówek, czy wzywali policję, czasami w obecności przyjaciół lub rodziny.
Liczne były skargi od poszkodowanych, którzy zgłaszali, że byli nękani, publicznie zawstydzani lub ponieśli inne krzywdy, sprawiły, iż sprawą zajęła się FTC. Dochodzenie wykazało nie tylko brak systemów nadzoru nad systemami AI, ale też, że sieć nie informowała konsumentów o stosowaniu takiej technologii. Pracownikom wręcz odradzano ujawnianie takich informacji. W sumie miało dojść do tysięcy tego typu fałszywych oskarżeń klientów.