Dok s jedne strane slušamo kako bi nas umjetna inteligencija mogla dovesti do većeg prosperiteta i blagostanja te nam olakšati živote tako što će preuzeti dio poslova koje danas rade ljudi, s druge strane pojavljuju se i upozorenja kako bi AI mogao dovesti do - uništenja čovječanstva. Brojni stručnjaci već neko vrijeme upozoravaju na takve moguće posljedice, a ovaj je tjedan objavljeno novo takvo upozorenje, odnosno izjava objavljena na stranicama Centra za sigurnost AI-a.
Posebno su zanimljiva imena koja su podržavala ovu izjavu, a riječ je o nekim od ljudi koji su najviše upućeni u tu tematiku. Naime, tu izjavu, u kojoj se naglašava kako bi globalni prioritet, pored izbjegavanja rizika od novih pandemija i nuklearnog rata, trebao biti i izbjegavanje rizika od uništenja koje bi umjetna inteligencija mogla učiniti, potpisali su i Sam Altman, prvi čovjek OpenAI-a, Demis Hassabis, izvršni direktor Googleova DeepMinda, kao i Geoffrey Hinton, poznat kao "kum umjetne inteligencije", koji je i ranije upozoravao na opasnost koju predstavlja nekontrolirani razvoj AI-a.
Kao potencijalne katastrofične scenarije za naš planet Centar za sigurnost umjetne inteligencije izdvojio je mogućnost da se AI iskoristi kao oružje (npr. AI koji bi mogao izraditi kemijsko oružje), destabilizacija društva i utjecaj na donositelje odluka širenjem lažnih vijesti i dezinformacija, zatim gomilanje moći u rukama malog broja ljudi (što državni režimi mogu iskoristiti za praćenje, cenzuru itd.), kao i situaciju u kojoj bi ljudi mogli postati ovisni o toj tehnologiji.
Direktor Centra za sigurnost AI-a Dan Hendricks smatra kako se na te probleme i izazove treba reagirati što prije kako bi se izbjegli potencijalno veliki rizici u budućnosti. Kao jedno od rješenja sve se više spominje regulativa, odnosno donošenje zakona i pravila kojima bi se spriječilo da razvoj te tehnologije krene u negativnom smjeru. Za to se zalažu i neki od vodećih ljudi industrije, poput spomenutog Altmana, ali i šefa Googlea Sundara Pichaija.
No, naravno, ne slažu se svi s razmišljanjima osoba koje su potpisale i podržale tu izjavu te smatraju kako se s takvim upozorenjima pretjeruje. Kako je za BBC objasnio znanstvenik Arvind Narayanan s Princetona, današnji AI nije niti blizu sposoban u ostvarivanju spomenutih rizika. Smatra kako takva upozorenja mogu samo odvratiti pažnju s kratkoročnih problema vezanih za umjetnu inteligenciju i njezin razvoj. Slično razmišlja i Yann LeCun iz Mete, koji apokaliptična upozorenja smatra prenapuhanima.