Otkako su na scenu stupili generatori teksta pogonjeni umjetnom inteligencijom, kao što je ChatGPT, Bing AI ili pak Googleov Bard, čini se kako se sve vrti oko umjetne inteligencije. Korisnici testiraju njihove mogućnost, a neki ih i aktivno koriste u svom svakodnevnom radu.
No, istraživanje sa Sveučiliša u Zürichu, otkrilo je kako su ti generatori teksta uvjerljiviji u pisanju kraćih tekstualnih formi od samih ljudi.
Istraživači su proveli eksperiment kako bi utvrdili mogu li ljudi uočiti razliku između sadržaja koji su napisali ljudi i onoga što je proizveo ChatGPT. Iako su u istraživanju koristili ChatGPT 3 (koji nije toliko napredan kao verzija 4), rezultati su ih iznenadili.
Sudionici istraživanja su imali točnost od svega 52 posto, što znači da im je bilo teško prepoznati koji je tekst napisao čovjek, a koji umjetna inteligencija. Osim toga, istraživači su od sudionika tražili da usporede vjerodostojnost tvitova koje je generirao ChatGPT-3 s onima koje su napisali ljudi. Sudionici istraživanja su češće prepoznavali AI tvitove s točnim informacijama, nego one koje su napisali ljudi. Ali su i mislili da su dezinformacijski tvitovi koje je generirao AI točniji od onih koje su stvarali ljudi. Istraživači su zaključili kako je AI bolji i u informiranju, ali i u obmanjivanju ljudi od njih samih.
Ova studija pokazuje da smo osjetljivi na dezinformacije koje generiraju AI generatori teksta poput GPT-3. Prepoznavanje rizika povezanih s dezinformacijama koje stvara umjetna inteligencija ključno je za očuvanje javnog zdravlja i održavanje snažnog i pouzdanog informacijskog ekosustava u digitalnom dobu, zaključio je na kraju Nikola Biller-Andorno, ravnatelj Instituta za biomedicinsku etiku i povijest medicine (IBME) Sveučilišta u Zürichu koji je sudjelovalo u istraživanju.