Dok korisnici s oduševljenjem govore o mogućnostima umjetne inteligencije, oni koji znaju kako ona radi u pozadini, sve češće upozoravaju na potencijalne probleme i opasnosti. Posljednji u nizu je bivši izvršni direktor Googlea, Eric Schmidt koji je sad u ulozi predsjednika američke Nacionalne sigurnosne komisije za umjetnu inteligenciju.
Gostujući na A+ summitu ovaj tjedan, Schmidt je umjetnu inteligenciju usporedio s atomskim bombama koje su 1945. godine bačene na Japan. Istaknuo je kako je nakon tog događaja bilo potrebno 18 godina da se uvedu određena ograničenja u razvoj i korištenje nuklearnog oružja.
Mi danas nemamo toliko vremena, istaknuo je Schmidt.
Podsjetio je da se po prvi put dogodilo da su oni koji rade na razvoju neke nove tehnologije pozvali na njenu regulaciju. No, problem je postići zajednički dogovor kojim će svi biti zadovoljni i koji će biti primjenjiv u cijelom svijetu.
Već sama činjenica da puno pametnih ljudi, ulaže velik novac, u to, znači da ćemo biti dobro. Za sad.
Kao glavni problem istaknuo je što tvrtke koje razvijaju umjetnu inteligenciju u te sustave ugrađuju ograničenja koja bi trebala spriječiti da "strojevi naude ljudima". Ali, dodaje Schmidt, to nije dovoljno da pod kontrolom drži mogućnosti umjetne inteligencije. Uvjeren je da bi to moglo dovesti do umjetne inteligencije koja će ugroziti opstanak čovječanstva u roku od pet do deset godina.
Dodao je kako opasnost leži u trenutku u kojem će računalo početi donositi samostalne odluke. Problem će biti kad, recimo, takav sustav otkrije pristup oružju, a mi ne možemo biti sigurni da će nam takav sustav reći istinu. Prije dvije godine, takav je scenarij bio udaljen 20 godina. Danas, neki stručnjaci smatraju da je udaljen tek dvije do četiri godine, istaknuo je Schmidt.