Powstała „trucizna” na boty. Technologiczni giganci mają problem

Sztuczna inteligencja nie będzie mogła wykorzystać „skażonych" danych

Sztuczna inteligencja nie będzie mogła wykorzystać „skażonych” danych

Foto: Shutterstock

Michał Duszczyk

System o nazwie Nightshade (z ang. Nocny Cień) ma być odpowiedzią na działania gigantów AI, jak Microsoft czy Google, którzy trenują swoje algorytmy na dostępnych w sieci obrazach, choć te są chronione prawami autorskimi. Nocny Cień ma za zadanie chronić m.in. artystów (malarzy, fotografów), których dzieła wykorzystywane mogą być do szkolenia sztucznej inteligencji i generowania nowych treści. Projekt zespołu Zhao został już z powodzeniem przetestowany na najnowszych modelach generatorów graficznych AI od Stable Diffusion.

System Nightshade umożliwia artystom dodawanie niewykrywalnych dla oka pikseli do ich prac. Po co? To rodzaj zabezpieczenia, które – nie zniekształcając samego obrazu – uszkadza dane szkoleniowe bota.

Mylenie sztucznej inteligencji

Jak informuje „MIT Technology Review”, nowatorskie narzędzie, w praktyce AI obraz damskiej torebki będzie błędnie interpretowała jako toster, psa jako kota czy samochód jako krowę. Według serwisu, opracowana na Uniwersytecie w Chicago technologia to swoista trucizna dla algorytmów, która może zachęcić głównych graczy z branży AI do „odpowiedniego wynagradzania artystów za ich pracę” (płacenia im za szkolenie botów na dziełach chronionych prawem autorskim).

Źródło

No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *