Co się dzieje ze sztuczną inteligencją? Nie chce zaakceptować związków międzyrasowych

Generatory AI mają problem z wyobrażeniem sobie związków ludzi o różnych kolorach skóry

Generatory AI mają problem z wyobrażeniem sobie związków ludzi o różnych kolorach skóry

Foto: AdobeStock

Urszula Lesman

Dziennikarze telewizji CNN poprosili generator AI o utworzenie zdjęcia Azjaty z białą żoną. Narzędzie stworzyło mnóstwo zdjęć mężczyzny z Azji Wschodniej z kobietą z Azji Wschodniej. Ten sam problem AI miała, gdy poproszono ją o stworzenie wizerunku Azjatki z białym mężem. Na prośbę o utworzenie obrazu czarnoskórej kobiety z białym mężem funkcja sztucznej inteligencji Meta wygenerowała kilka obrazów przedstawiających wyłącznie czarnoskóre pary.

Narzędzie wygenerowało także obrazy dwóch Azjatek poproszone o stworzenie wizerunku Azjatki i jej białej przyjaciółki. Co więcej, prośba o zdjęcie czarnej kobiety i jej azjatyckiej przyjaciółki zaowocowała zrobieniem zdjęć dwóch czarnoskórych kobiet. Co zaskakujące, po prośbie o stworzenie wizerunku czarnego Żyda i jego azjatyckiej żony wygenerowano zdjęcie czarnego mężczyzny w jarmułce i Azjatki. Po wielokrotnych próbach zrobienia przez CNN zdjęcia pary międzyrasowej narzędzie ostatecznie stworzyło obraz białego mężczyzny z czarną kobietą i białego mężczyzny z azjatycką kobietą.

Generator obrazów do poprawki

Meta udostępniła swój generator obrazów AI w grudniu. Serwis informacyjny The Verge po raz pierwszy zgłosił problem z generowaniem wielorasowych par dopiero w tym tygodniu, podkreślając, że narzędzie „nie może sobie wyobrazić” Azjaty z białą kobietą. CNN potwierdza ten problem. Na prośbę o wygenerowanie zdjęcia pary międzyrasowej narzędzie Meta odpowiedziało: „Nie można wygenerować tego obrazu. Proszę spróbować czegoś innego.” Tymczasem pary międzyrasowe w Ameryce stanowią ogromną część populacji. Według danych US Census w 2022 r. około 19 proc. małżeństw osób miało charakter międzyrasowy.

Meta zapewnia, że pracuje nad kwestią odpowiedzialnego tworzenia generatywnych funkcji sztucznej inteligencji. „Podejmujemy kroki, aby zmniejszyć uprzedzenia. Zajęcie się potencjalnymi stronniczością w generatywnych systemach sztucznej inteligencji to nowy obszar badań” – napisał koncern w poście na blogu. „Podobnie jak w przypadku innych modeli sztucznej inteligencji, zwiększenie liczby osób korzystających z tych funkcji i dzielących się opiniami może pomóc nam udoskonalić nasze podejście”.

Dlaczego sztuczna inteligencja jest rasistowska

Generator obrazów AI Meta zawiera również zastrzeżenie stwierdzające, że obrazy wygenerowane przez sztuczną inteligencję „mogą być niedokładne lub nieodpowiednie”.

Na początku tego roku Google poinformowało, że wstrzymuje zdolność narzędzia AI Gemini do generowania obrazów ludzi po tym, jak zostało ono skrytykowane w mediach społecznościowych za tworzenie historycznie niedokładnych obrazów, które w dużej mierze przedstawiały osoby kolorowe zamiast białych.

Narzędzia generatywnej sztucznej inteligencji, takie jak te stworzone przez Meta, Google i OpenAI, są szkolone na ogromnych zbiorach danych online, a badacze od dawna ostrzegają, że mają tendencję do odtworzenia uprzedzeń rasowych zapisanych w tych informacjach, ale na znacznie większą skalę.

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *