Radna skupina nadzornog tijela Europske unije za privatnost rekla je da nedavni napori OpenAI-ja u ublažavanju rizika od proizvodnje činjenično lažnih rezultata njihovog naširoko popularnog chatbota ChatGPT-a, nisu bili dovoljni da osiguraju usklađenost s pravilima EU-a o podacima.
Pitanje "haluciniranja" podataka od strane umjetne inteligencije je složena stvar, o čemu smo pisali već ranije.
"Iako su mjere, poduzete radi usklađivanja s načelom transparentnosti, korisne za izbjegavanje pogrešnog tumačenja rezultata ChatGPT-a, one nisu dovoljne za usklađivanje s načelom točnosti podataka", ističe se u izvješću navedene radne skupine, objavljenom u petak na njihovoj web stranici, prenosi Reuters.
Zajedničke istrage koje provode nacionalna nadzorna tijela EU-a za zaštitu privatnosti još su u tijeku, navodi se u izvješću, dodajući da stoga još nije moguće dati potpuni opis rezultata.