Norvežanin u šoku nakon razgovora s AI: ChatGPT tvrdi da je ubio svoju djecu i završio u zatvoru

Teško je zamisliti kako se osjećao nakon što je vidio brutalan odgovor koji mu je dala umjetna inteligencija.

Hrvoje Jurman Hrvoje Jurman | 21.03.2025. / 09:08

Lažne vijesti, ilustracija (Foto: Getty Images)

Jedan od problema umjetne inteligencije, odnosno AI chatbotova jest tzv. haluciniranje, odnosno izmišljanje informacija. U nekim slučajevima takvo izmišljanje može biti bezazleno, dok u nekim slučajevima može biti iznimno opasno. S obzirom na to da takve halucinacije nisu neuobičajene, uz ChatGPT stoji i upozorenje kako ovaj chatbot može raditi greške pa je važne informacije potrebno dodatno provjeriti zbog takvih potencijalnih grešaka.

Umjetna inteligencija Zašto umjetna inteligencija "halucinira" podatke i može li se taj problem nekako riješiti?

A koliko opasne mogu biti takve greške, na svom je primjeru naučio Norvežanin Arve Hjalmar Holmen.

On je od ChatGPT zatražio da mu da informacije o njemu, a odgovor koji je dobio ga je šokirao. Naime, OpenAI-jev chatbot napisao mu je da on ubio svoja dva sina, dok je trećeg pokušao ubiti. ChatGPT je naglasio kako je taj zločin šokirao lokalnu zajednicu i cijelu naciju te je privukao veliku pažnju medija.

Najstrašnije je…

Teško je i zamisliti kako se ovaj muškarac mogao osjećati kada je pročitao takve stvari o sebi, a pogotovo što je umjetna inteligencija točno navela neke stvari - poput broja njegova djece, razlike u njihovim godinama te grada u kojem je živi. Najstrašnija je sama sama činjenica da bi netko mogao to pročitati i pomisliti da je istina, komentirao je Holmen za BBC.

Odgovor ChatGPT-a (Foto: Noyb)

On je kontaktirao norvešku agenciju za zaštitu osobnih podataka i zatražio da se OpenAI kazni, dok je Europski centar za digitalna prava (Noyb) u njegovo ime podnio tužbu, uz naglasak kako je odgovor koji dobio ne samo klevetnički, već se zbog korištenja točnih osobnih podataka krše pravila EU o zaštiti podataka.

Pretraživanje interneta, ilustracija Provedeno istraživanje točnosti AI tražilica: Rezultati su prilično iznenađujući

Usprkos činjenici što se OpenAI ograđuje od potencijalnih grešaka i halucinacija, iz Noyba kažu kako to nije dovoljno jer umjetna inteligencija ne može tek tako širiti lažne informacije, a pogotovo ne ovako ozbiljne i strašne.

Slučajevi ovakvog izmišljanja umjetne inteligencije nisu rijetki i događaju se svim kompanijama, ne samo OpenAI-u. Dovoljno se samo sjetiti Googlea i halucinacija njihove AI zbog koje je vrijednost kompanije pala za više od 100 milijuna dolara, a nedavno je zbog istih problema Apple stopirao svoju opciju baziranu na umjetnoj inteligenciji koja je sažimala naslove više članaka u jednu obavijest. AI je nekoliko puta pogriješila pa su korisnicima slali obavijesti s lažnim vijestima.

Vezane vijesti

Još vijesti