Jedan od problema umjetne inteligencije, odnosno AI chatbotova jest tzv. haluciniranje, odnosno izmišljanje informacija. U nekim slučajevima takvo izmišljanje može biti bezazleno, dok u nekim slučajevima može biti iznimno opasno. S obzirom na to da takve halucinacije nisu neuobičajene, uz ChatGPT stoji i upozorenje kako ovaj chatbot može raditi greške pa je važne informacije potrebno dodatno provjeriti zbog takvih potencijalnih grešaka.
A koliko opasne mogu biti takve greške, na svom je primjeru naučio Norvežanin Arve Hjalmar Holmen.
On je od ChatGPT zatražio da mu da informacije o njemu, a odgovor koji je dobio ga je šokirao. Naime, OpenAI-jev chatbot napisao mu je da on ubio svoja dva sina, dok je trećeg pokušao ubiti. ChatGPT je naglasio kako je taj zločin šokirao lokalnu zajednicu i cijelu naciju te je privukao veliku pažnju medija.
Najstrašnije je…
Teško je i zamisliti kako se ovaj muškarac mogao osjećati kada je pročitao takve stvari o sebi, a pogotovo što je umjetna inteligencija točno navela neke stvari - poput broja njegova djece, razlike u njihovim godinama te grada u kojem je živi. Najstrašnija je sama sama činjenica da bi netko mogao to pročitati i pomisliti da je istina, komentirao je Holmen za BBC.
On je kontaktirao norvešku agenciju za zaštitu osobnih podataka i zatražio da se OpenAI kazni, dok je Europski centar za digitalna prava (Noyb) u njegovo ime podnio tužbu, uz naglasak kako je odgovor koji dobio ne samo klevetnički, već se zbog korištenja točnih osobnih podataka krše pravila EU o zaštiti podataka.
Usprkos činjenici što se OpenAI ograđuje od potencijalnih grešaka i halucinacija, iz Noyba kažu kako to nije dovoljno jer umjetna inteligencija ne može tek tako širiti lažne informacije, a pogotovo ne ovako ozbiljne i strašne.
Slučajevi ovakvog izmišljanja umjetne inteligencije nisu rijetki i događaju se svim kompanijama, ne samo OpenAI-u. Dovoljno se samo sjetiti Googlea i halucinacija njihove AI zbog koje je vrijednost kompanije pala za više od 100 milijuna dolara, a nedavno je zbog istih problema Apple stopirao svoju opciju baziranu na umjetnoj inteligenciji koja je sažimala naslove više članaka u jednu obavijest. AI je nekoliko puta pogriješila pa su korisnicima slali obavijesti s lažnim vijestima.