Treniranje umjetne inteligencije i dalje je u nekoj vrsti sive zone te su neki algoritmi trenirani na sadržaju koji je zaštićen autorskim pravima. Brojni umjetnici i glazbenici pozivaju na hitnu regulativu kako bi se takvoj praksi stalo na kraj jer ne žele da se njihova djela iskorištavaju za treniranje AI u platformama poput DALL-E, Stable Diffusiona i Midjourneyja. Protiv takvih kompanija koje razvijaju AI platforme za pretvaranje tekstualnih upita u slike već je podignuto više tužbi zbog korištenja podataka zaštićenog autorskim pravima te će biti zanimljivo vidjeti njihov ishod.
Profesor sa sveučilišta u Chicagu Ben Zhao pronašao je potencijalno rješenje za ovaj problem. U suradnji s kolegama napravio je poseban alat nazvan Nightshade koji, kako su to komentirali mediji, može “otrovati” podatke za treniranje AI. Nightshade bi čak mogao i uništiti buduće modele spomenutih AI platformi za stvaranje slika na temelju tekstualnog upita, objasnili su na The Vergeu. Naime ovaj alat mijenja digitalne slike, odnosno piksle unutar njih tako da ta promjena nije vidljiva ljudskom oku, dok one izgledaju drukčije AI modelima - npr. nekakvu običnu sliku oni mogu prepoznati kao kubističku apstrakciju tako da ne mogu imitirati originalnu sliku.
Zato bi AI model na određeni tekstualni upit mogao dati potpunu drukčiju sliku u odnosu na želje korisnika. U jednom slučaju, AI generativni modeli na koje je primijenjen ovaj alat prikazali su slike mačaka, iako je tekstualni upit bio vezan uz - psa. Umjeren broj takvih napada korištenjem Nightshadea, smatra Zhao, može destabilizirati opće značajke u generativnom modelu pretvaranja tekstualnog upisa u sliku, tako da AI platforme više ne bi mogle stvarati smislene slike bazirane na željama korisnika.
Zhao i ekipa koja je stvorila Nightshade kažu kako bi kreatori sadržaja trebali koristiti ovu “otrovnu pilulu” kao posljednju liniju obrane protiv onih koji bez dozvole koriste njihov sadržaj za treniranje AI. Također, vjeruje kako će i kompanije koje treniraju svoje modele na sadržaju zaštićenom autorskim pravima promijeniti svoje navike te da takav sadržaj više neće iskorištavati za svoje AI modele.
Izvor: The Verge