Powstała „trucizna” na boty. Technologiczni giganci mają problem

Sztuczna inteligencja nie będzie mogła wykorzystać „skażonych" danych

Sztuczna inteligencja nie będzie mogła wykorzystać „skażonych” danych

Foto: Shutterstock

Michał Duszczyk

System o nazwie Nightshade (z ang. Nocny Cień) ma być odpowiedzią na działania gigantów AI, jak Microsoft czy Google, którzy trenują swoje algorytmy na dostępnych w sieci obrazach, choć te są chronione prawami autorskimi. Nocny Cień ma za zadanie chronić m.in. artystów (malarzy, fotografów), których dzieła wykorzystywane mogą być do szkolenia sztucznej inteligencji i generowania nowych treści. Projekt zespołu Zhao został już z powodzeniem przetestowany na najnowszych modelach generatorów graficznych AI od Stable Diffusion.

System Nightshade umożliwia artystom dodawanie niewykrywalnych dla oka pikseli do ich prac. Po co? To rodzaj zabezpieczenia, które – nie zniekształcając samego obrazu – uszkadza dane szkoleniowe bota.

Mylenie sztucznej inteligencji

Jak informuje „MIT Technology Review”, nowatorskie narzędzie, w praktyce AI obraz damskiej torebki będzie błędnie interpretowała jako toster, psa jako kota czy samochód jako krowę. Według serwisu, opracowana na Uniwersytecie w Chicago technologia to swoista trucizna dla algorytmów, która może zachęcić głównych graczy z branży AI do „odpowiedniego wynagradzania artystów za ich pracę” (płacenia im za szkolenie botów na dziełach chronionych prawem autorskim).

Źródło

No votes yet.
Please wait…
No votes yet.
Please wait...

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *