Kome više vjerovati? Umjetna inteligencija stvarne ratne fotografije prikazuje kao lažne

Iako su dostupni različiti AI alati za prepoznavanje lažnih fotografija, pokazalo se kako nisu uvijek učinkoviti.

Hrvoje Jurman Hrvoje Jurman | 16.10.2023. / 10:49

Činjenica i laž
Činjenica i laž (Foto: Getty Images)

Uz deepfake, brojne lažne vijesti i sve više sadržaja koji generira umjetna inteligencija, danas je jako teško, ponekad i gotovo nemoguće razaznati što je istina, a što laž. Postoje načini i alati na koji se barem pokušava stati na kraj lažnim vijestima, videozapisima i fotografijama, no pokazalo se kako su i oni nesavršeni te ponekad mogu izazvati više problema, nego što ih mogu riješiti.

Slika nije dostupna Znate li koje su teme najpodložnije širenju dezinformacija?

To možemo vidjeti i na posljednjem primjeru rata između Hamasa i Izraela. Od kada je krenulo krvoproliće, mrežom se šire različiti videozapisi, fotografije i različite vrste sadržaja, a među inim šire se i brojne lažne vijesti. Kao jednu od lažnih fotografija jedan je popularni AI alat označio fotografiju ubijene izraelske bebe u napadu Hamasa koja je objavljena na službenom izraelskom profilu na društvenoj mreži X. Taj je sustav označio kako je riječ o fotografiji koju je generirala umjetna inteligencija, no pokazalo se kako je to stvarna fotografija.

Do toga je zaključka došao profesor s Berkeleyja i jedan od vodećih svjetskih stručnjaka za digitalnu manipulaciju na fotografijama Hany Farid. On je proučio spomenutu fotografiju te naglasio kako nije pronašao niti jedan znak ili dokaz kako je riječ o lažnoj fotografiji, odnosno da ju je stvorila umjetna inteligencija.

Farid kaže kako je jedan od najlakših načina na koji se može otkriti je li fotografija nastala korištenjem alata baziranih na umjetnoj inteligenciji jest po načinu na koji se na njoj prikazuju linije. Naime, generatori AI fotografija imaju problema sa stvaranjem visoko strukturiranih oblika i ravnih linija, a još jedan način na koji se lažna fotografija može prepoznati jest po sjenama jer umjetna inteligencija ponekad ima problema sa stvaranjem realističnih sjena.

Slika nije dostupna Studija pokazala zašto su danas mnogi postali “stručnjaci” na društvenim mrežama za brojne aktualne teme

Spomenuta fotografija, prema Fariedu, prolazi oba ta testa i očito je riječ o stvarnoj fotografiji, a ne onoj za koju je zaslužna umjetna inteligencija. Iako je riječ samo o jednoj fotografiji, takvih slučajeva zasigurno ima više, no na tom primjeru najbolje se može vidjeti koliko je teško ne samo prepoznati je li nešto stvarno ili nije, nego koliko je teško vjerovati različitim alatima koji bi nam trebali pomoći u prepoznavanju stvarnog sadržaja.

To je drugi nivo dezinformacija, naglasio je Farid i upozorio kako bi trebali biti skeptični prema rezultatima sličnih AI alata jer se pokazalo kako i oni mogu pogriješiti te je pitanje kome se onda u današnje vrijeme više može vjerovati.

Izvor: PC Mag

 

Još brže do najnovijih tech inovacija. Preuzmi DNEVNIK.hr aplikaciju

Vezane vijesti

Još vijesti