Deadboty niebezpieczne? Repliki zmarłych mogą manipulować żywymi

Technologie, których istotą jest stworzenie cyfrowej repliki zmarłego człowieka, mogą być bardzo niebezpieczne – ostrzegają naukowcy z Uniwersytetu w Cambridge. Zespół badawczy przeanalizował trzy możliwe scenariusze rozwoju usług związanych z tworzeniem deadbotów i w każdym z nich widać poważne zagrożenie, bądź to związane z manipulacją w celu sprzedaży towarów i usług, bądź w obszarze przeżywania żałoby i związanego z tym dobrostanu psychicznego. Naukowcy postulują, by już na etapie tworzenia takich usług wprowadzić zasady, które będą mieć na celu ochronę najbardziej narażonych na negatywne skutki grup społecznych, m.in. dzieci.

Deadboty niebezpieczne? Repliki zmarłych mogą manipulować żywymi

fot. NKM999 / / Shutterstock

– Deadbot to bardzo szczególny rodzaj technologii, która tworzy iluzję obecności zmarłego. Program komputerowy otrzymuje bardzo duże ilości danych o kimś, kto zmarł. Potem analizuje te dane i sprawia, że powstaje właśnie taka namiastka, wirtualna reprezentacja tej osoby, która komunikuje się z nami w języku naturalnym, czyli dokładnie w takim języku, w jakim my porozumiewamy się między sobą. Oczywiście nie ma mowy o żadnym przenoszeniu świadomości czy kontynuacji tego życia w biologicznej formie. System symuluje zachowanie i pewne charakterystyczne sposoby wypowiadania się – tłumaczy w wywiadzie dla agencji Newseria Innowacje dr Katarzyna Nowaczyk-Basińska z Leverhulme Centre for the Future of Intelligence na Uniwersytecie w Cambridge.

W odniesieniu do tej technologii stosowane są również alternatywne terminy, takie jak griefbots czy postmortem avatars. Określeniem zbiorczym dla wszystkich tych technologii są tzw. re-creation services, czyli serwisy służące rekreacji, rozumianej jako ponowne stworzenie osoby w przestrzeni cyfrowej. Sam trend rozwija się wraz popularyzacją modeli językowych takich jak ChatGPT. Tworzenie cyfrowych awatarów może dotyczyć zarówno zmarłych ludzi, jak i zwierząt, z którymi potencjalny klient był mocno zżyty.

– Od dwóch lat, ale szczególnie w ostatnim roku, pojawia się coraz więcej firm, które oferują tego typu serwisy. Niektóre targetują osoby, które chcą same siebie za pomocą sztucznej inteligencji zachować dla potomności. Inne skupiają się na osobach, którym odszedł ktoś bliski, a z kim chciałyby odtworzyć kontakt poprzez sztuczną inteligencję. Tych serwisów jest coraz więcej, nie tylko w Europie i w Stanach, ale szczególnie w Chinach, Indiach czy Korei – wskazuje dr Tomasz Hollanek z Leverhulme Centre for the Future of Intelligence w Cambridge.

Etycy sztucznej inteligencji z Leverhulme Centre for the Future of Intelligence w Cambridge zarysowali możliwe scenariusze rozwoju takich platform, które mogłyby się dziś ziścić, bo pozwala na to zarówno technologia, jak i brak prawnych ograniczeń. Naukowcy za pomocą metody design fiction stworzyli trzy koncepcje serwisów, zwracając szczególną uwagę na zagrożenia, jakie niesie dla odbiorców rozwój technologii symulowania zmarłych.  

– Pierwszy nazwaliśmy MaNana, czyli Moja Babcia. W tym scenariuszu skupiliśmy się na problemie, który może się pojawić, gdy serwis wykorzystuje wizerunek naszego bliskiego do sprzedawania nam konkretnych produktów, co jest teraz możliwe z punktu widzenia technologicznego i prawnego. Próbowaliśmy poprzez ten scenariusz wskazać na konieczność zastanowienia się nad zgodą zarówno osoby, która jest odbiorcą takiego serwisu – czy jest ona świadoma tego, że może być manipulowana – jak i wcześniejszej zgody tych osób, które odeszły, a które są „wskrzeszane” poprzez sztuczną inteligencję – mówi dr Tomasz Hollanek.

– W naszym drugim scenariuszu skupiliśmy się na sytuacji, w której są rodzice mający ośmioletnie dziecko. Wiemy, że mama jest terminalnie chora i niebawem odejdzie, ale rodzice postanowili, że stworzą dla syna jej cyfrową reprezentację i dziecko będzie mogło po jej śmierci funkcjonować w takim świecie, w którym mama jest wirtualnie obecna. Ta sytuacja jest dla nas szczególnie niepokojąca. Po pierwsze dlatego, że jeśli tylko firmy komercyjne wyczują potencjał finansowy w tym obszarze, to z pewnością będą monetyzować doświadczenie żałoby. A po drugie dlatego, że ciągle bardzo niewiele wiemy o tym, jak  systemy symulowania zmarłych wpływają na proces żałoby zarówno u dzieci, jak i u dorosłych. To jest ciągle przestrzeń wysoce ryzykownych  eksperymentów – ocenia dr Katarzyna Nowaczyk-Basińska.

W trzecim scenariuszu osoba, która wie, że niebawem umrze, kupuje 20-letnią subskrypcję na swojego deadbota, ponieważ uważa, że technologia przyniesie jej bliskim ukojenie w żałobie. Okazuje się jednak, że niezainteresowany korzystaniem z niej bliski jest zasypywany wiadomościami głosowymi, bo nie wchodzi w interakcję z technologią. Drugi korzysta z deadbota z poczucia obowiązku, co prowadzi u niego do wyczerpania emocjonalnego.

Naukowcy postulują, by objąć ochroną przed takimi technologiami grupy społeczne, które są szczególnie podatne na ich zły wpływ, przede wszystkim dzieci. Eksperci rekomendują, by dostęp do takich technologii wiązał się z ograniczeniami wiekowymi i by być może tylko dorośli mieli dostęp do  griefbots, czyli technologii, w których AI towarzyszy w przechodzeniu przez proces żałoby. Musi być ponadto oczywiste to, że użytkownik nie ma kontaktu ze swoim zmarłym bliskim, tylko jego cyfrową reprezentacją.

Choć naukowcy ostrzegają przed potencjalnymi szkodami związanymi z rozwojem przemysłu cyfrowego życia pozagrobowego, to dostrzegają też możliwe korzyści.

– Może to umożliwić jakieś nowe formy międzypokoleniowej wymiany historii, doświadczeń, przeżyć. Technologie te mogą być też używane w edukacji. Jednym z dobrych przykładów jest projekt New Dimensions in Testimony, w którym ocalali z Holokaustu opowiadają o swoich przeżyciach. Historie są nagrywane i prezentowane w formie interaktywnej, a odbiorca ma doświadczenie bycia w dialogu właśnie z tą osobą. Technologia ta mogłaby się pewnie też sprawdzić w pewnych indywidualnych przypadkach przeżywania żałoby. Teoria kontynuowania więzi na przykład sugeruje, że wcale nie musimy się z naszym ukochanym obiektem po jego śmierci jednoznacznie i definitywnie rozstać, a fakt, że podtrzymujemy relację ze zmarłym, nie musi być jednoznacznie negatywny czy alarmujący – mówi ekspertka z Leverhulme Centre for the Future of Intelligence. 

– Twórcy, również dziennikarze, mogliby potencjalnie czerpać zyski z takich awatarów, które naśladowałyby ich styl i mogłyby np. dalej utrzymywać ich rodziny. Jest to jeden z ciekawych, potencjalnych obszarów rozwoju dla tych technologii, który też wiąże się z różnymi zagrożeniami. Jesteśmy przekonani, że należałoby te technologie ostrzej regulować. Niedawno został zatwierdzony w Unii Europejskiej AI Act, który jak już wejdzie w pełni w życie, będzie stanowił pierwszy krok w tym kierunku, ale jest tam też dużo dziur – podkreśla dr Tomasz Hollanek. – AI Act delegalizuje sztuczną inteligencję manipulującą użytkownikami, przekonującą ich do podejmowania decyzji, których w innych warunkach by nie podjęli. Ale jest tam też taki dopisek, że w pewnych sytuacjach, na przykład jeśli celem rozwoju takiej technologii jest pomoc danej osobie w sferze zdrowia, te aplikacje są w pewnym sensie wyjęte poza nawias. To jest coś, co my widzimy jako duże zagrożenie. Firmy, które produkują deadboty, mogą próbować uniknąć regulacji, sprzedawać swoje serwisy jako technologie wspomagające zdrowie psychiczne.

Dalsze badania zespołu będą związane z międzykulturowym postrzeganiem technologii symulowania zmarłych. 

– W tym roku rozpoczęliśmy projekt „Imaginaries of Immortality in the Age of AI”, w którym będziemy poszukiwać nowych sposobów, nowych wyobrażeń, nowych pomysłów na to, jak byśmy naszą pośmiertną obecność mogli inaczej ukształtować  i inaczej zagospodarować nasze pośmiertne dane. Bo to nie jest  wcale takie oczywiste, że my wszyscy chcemy być po śmierci awatarami albo że chcemy funkcjonować w świecie, w którym nasi bliscy są w takiej formie zachowani – podkreśla dr Katarzyna Nowaczyk-Basińska.

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *