Vjerojatno ste na društvenim mrežama proteklih nekoliko tjedana zamijetili dva prilično popularna trenda nastala zahvaljujući ChatGPT-u. Prvo su internetski prostor preplavile fotografije napravljene u stilu Studija Ghibli, a nakon toga je ovaj AI alat ljude pretvorio u akcijske figurice. Sada se na mreži pojavio novi trend, a slično kao i spomenuta dva trenda, nosi potencijalne opasnosti za privatnost kojih korisnici nisu svjesni, odnosno ne razmišljaju o njima.
Ovaj se alat tako sve više koristi za pogađanje lokacija baziranih na fotografijama. OpenAI je nedavno predstavio nove modele o3 i o4 koji mogu razmišljati na temelju učitanih fotografija, odnosno mogu ih rotirati, zumirati i slično, uključujući i one slike loše kvalitete. Zahvaljujući tim mogućnostima, ovaj alat sada može prepoznati mjesta na kojima su uslikane učitane fotografije i u tome je prilično dobar.
Korisnici učitavaju različite fotografije - od selfija pa do menija u restoranima, sve kako bi testirali koliko je umjetna inteligencija dobra u prepoznavanju lokacije. Iako su rezultati često impresivni, na Tech Spotu kažu kako oni nisu uvijek točni te i AI ponekad pogriješi oko lokacije na kojoj je fotografija snimljena.
Opasnost za privatnost
Dok je takva igra pogađanja s umjetnom inteligencijom zanimljiva i zabavna, stručnjaci upozoravaju na njenu potencijalnu tamnu stranu. Naime, svaka fotografija koju snimite i objavite na društvenim mrežama, pogotovo ako je javna tj. dostupna svima, drugima može poslužiti za pronalaženje vaše lokacije. Ako objavite selfie s neke lokacije na Instagramu, svi koji imaju pristup vašem profilu moći će tu sliku učitati u ChatGPT i saznati gdje se nalazite.
Na novinarski upit o potencijalnim problemima sa sigurnosti i privatnosti, iz ove tvrtke kažu da njihovi modeli odbijaju upite za neke osjetljive ili privatne informacije, kao i za prepoznavanje osoba na slikama. Kao jednu od korisnih situacija u kojima se prepoznavanje mjesta može iskoristiti iz OpenAI-a su izdvojili nekakve nesreće kada je potrebno hitnim službama objasniti gdje se nesreća dogodila, odnosno točno na koje je mjesto potrebno doći.
Kako smo već pisali, stručnjaci za sigurnost korisnicima savjetuju da ne učitavaju vlastite ili tuđe fotografije u ChatGPT kako bi dobili slike u stilu Studija Ghibli ili akcijskih figurica jer se time omogućuje OpenAI-u besplatno prikupljanje vaših podataka i fotografija koji se onda koriste za treniranje AI-a. No niti to nije najveća opasnost jer postavlja se pitanje što ako se jednom u budućnosti te fotografije iskoriste za biometrijsko prepoznavanje i identificiranje korisnika.
Zato, koliko god su slike akcijskih figura, kao i pogađanje lokacije zanimljivi, stručnjaci savjetuju da bi takvu vrstu zabave za svaki slučaj ipak trebali preskočiti.
Izvor: Tech Spot