Nakon akcijskih figurica pojavio se novi AI trend koji ima i svoju tamnu stranu

Iako je tako nešto zabavno, postoje opasnosti kojih korisnici nisu svjesni i ne razmišljaju o njima.

Hrvoje Jurman Hrvoje Jurman | 23.04.2025. / 12:32

Privatnost (Foto: Getty Images)

Vjerojatno ste na društvenim mrežama proteklih nekoliko tjedana zamijetili dva prilično popularna trenda nastala zahvaljujući ChatGPT-u. Prvo su internetski prostor preplavile fotografije napravljene u stilu Studija Ghibli, a nakon toga je ovaj AI alat ljude pretvorio u akcijske figurice. Sada se na mreži pojavio novi trend, a slično kao i spomenuta dva trenda, nosi potencijalne opasnosti za privatnost kojih korisnici nisu svjesni, odnosno ne razmišljaju o njima.

Meta Meta vidi sve: Evo kako onemogućiti Facebooku i Instagramu da prati svaki vaš pokret

Ovaj se alat tako sve više koristi za pogađanje lokacija baziranih na fotografijama. OpenAI je nedavno predstavio nove modele o3 i o4 koji mogu razmišljati na temelju učitanih fotografija, odnosno mogu ih rotirati, zumirati i slično, uključujući i one slike loše kvalitete. Zahvaljujući tim mogućnostima, ovaj alat sada može prepoznati mjesta na kojima su uslikane učitane fotografije i u tome je prilično dobar.

Korisnici učitavaju različite fotografije - od selfija pa do menija u restoranima, sve kako bi testirali koliko je umjetna inteligencija dobra u prepoznavanju lokacije. Iako su rezultati često impresivni, na Tech Spotu kažu kako oni nisu uvijek točni te i AI ponekad pogriješi oko lokacije na kojoj je fotografija snimljena.

Opasnost za privatnost

Dok je takva igra pogađanja s umjetnom inteligencijom zanimljiva i zabavna, stručnjaci upozoravaju na njenu potencijalnu tamnu stranu. Naime, svaka fotografija koju snimite i objavite na društvenim mrežama, pogotovo ako je javna tj. dostupna svima, drugima može poslužiti za pronalaženje vaše lokacije. Ako objavite selfie s neke lokacije na Instagramu, svi koji imaju pristup vašem profilu moći će tu sliku učitati u ChatGPT i saznati gdje se nalazite.

Na novinarski upit o potencijalnim problemima sa sigurnosti i privatnosti, iz ove tvrtke kažu da njihovi modeli odbijaju upite za neke osjetljive ili privatne informacije, kao i za prepoznavanje osoba na slikama. Kao jednu od korisnih situacija u kojima se prepoznavanje mjesta može iskoristiti iz OpenAI-a su izdvojili nekakve nesreće kada je potrebno hitnim službama objasniti gdje se nesreća dogodila, odnosno točno na koje je mjesto potrebno doći.

Špijuniranje, ilustracija Za neke je ovo normalno ponašanje u vezama, a stručnjaci upozoravaju: To je zlostavljanje koje se prikazuje kao ljubav

Kako smo već pisali, stručnjaci za sigurnost korisnicima savjetuju da ne učitavaju vlastite ili tuđe fotografije u ChatGPT kako bi dobili slike u stilu Studija Ghibli ili akcijskih figurica jer se time omogućuje OpenAI-u besplatno prikupljanje vaših podataka i fotografija koji se onda koriste za treniranje AI-a. No niti to nije najveća opasnost jer postavlja se pitanje što ako se jednom u budućnosti te fotografije iskoriste za biometrijsko prepoznavanje i identificiranje korisnika.

Zato, koliko god su slike akcijskih figura, kao i pogađanje lokacije zanimljivi, stručnjaci savjetuju da bi takvu vrstu zabave za svaki slučaj ipak trebali preskočiti.

Izvor: Tech Spot 

Vezane vijesti

Još vijesti