Umjetna inteligencija otvorila nam je cijeli novi svijet mogućnosti izražavanja. S jedne strane omogućila je da se neki repetitivni poslovi prebace na računala, a s druge pokazala nam što je sve sposobna. No, danas dostupni chatbotovi i alati s umjetnom inteligencijom, pokazali su i cijeli niz problema o kojima moramo razmišljati. Jedan od njih je manipulacija fotografijama.
Stoga je tim s Massachusetts Institute of Technology pomno proučio najpoznatije alate za manipulaciju fotografijama pomoću umjetne inteligencije, DALL-E i Midjourney, ne bi li pronašli način kako zaštititi cijele ili barem dijelove fotografija od manipulacije umjetnom ineligencijom.
Otkrili su da je stavljanje vodenog žiga na fotografije jedan od načina koji bi mogao pomoći u sprječavanju zlouporabe, ali da nije savršen. Zato su razvili vlastitu tehniku i nazvali ju "PhotoGuard".
Radi se o tehnici perturbacije, odnosno uvođenju malih promjena u vrijednostima piksela koje su nevidljive ljudskom oku, ali koje je moguće otkriti računalnim modelima i koje učinkovito ometaju sposobnost AI modela da manipuliraju slikom.
PhotoGuard, kako pojašnjavaju s MIT-a, koristi dvije različite metode za generiranje tih "smetnji". Jednostavniji napad "kodera" cilja na latentnu reprezentaciju slike u AI modelu, uzrokujući da model percipira sliku kao nasumični entitet. Sofisticiranija "difuzija" definira ciljnu sliku i optimizira poremećaje kako bi konačna slika što je moguće sličnija meti.
Razmotrite mogućnost lažnog širenja lažnih katastrofalnih događaja, poput eksplozije na značajnoj znamenitosti. Ova obmana može manipulirati tržišnim trendovima i javnim raspoloženjem, ali rizici nisu ograničeni na javnu sferu. Osobne slike mogu se neprikladno mijenjati i koristiti za ucjenu, što rezultira značajnim financijskim implikacijama kada se izvrši u velikoj mjeri, pojašnjava Hadi Salman, student diplomskog studija elektrotehnike i računarstva (EECS), podružnica MIT CSAIL-a i glavni autor rada o PhotoGuardu. U ekstremnijim scenarijima, ovi bi modeli mogli simulirati glasove i slike za insceniranje lažnih zločina, nanošenje psihološke štete i financijskog gubitka. Čak i kada se obmana na kraju otkrije, šteta - bilo reputacijska, emocionalna ili financijska - često se već dogodila. To je stvarnost za žrtve na svim razinama, od pojedinaca koji su maltretirani u školi do manipulacije u cijelom društvu.
No, kako bi PhotoGuard bio učinkovit, trebao bi biti ugrađen u AI modele.
Nadležni bi trebali razmotriti uvođenje propisa koji bi nalagali tvrtkama da zaštite korisničke podatke od takvih manipulacija. Razvojni programeri AI modela mogli bi dizajnirati API-je koji automatski dodaju smetnje slikama korisnika, pružajući dodatni sloj zaštite od neovlaštenog uređivanja, pojašnjava Salman te dodaje da, iako je PhotoGuard dobro rješenje, nije svemoguć.
Zaključuje kako bi najbolje rješenje bilo zajednički pristup problemu, koji bi obuhvatio i programere modela i društvene medije i kreatore politika, kako bi se problemu manipulacije fotografijama pomoću umjetne inteligencije pristupilo sa svih strana.
Dok koračamo u ovu novu eru generativnih modela, težimo potencijalu i zaštiti u jednakoj mjeri, rekao je u objavi za medije Salaman.