Znanstvena fantastika često prikazuje umjetnu inteligenciju kao prijetnju čovječanstvu, sa scenarijima poput HAL-9000 (2001: Odisjea u svemiru) i Skyneta (Terminator franšiza) koji naglašavaju strah od strojeva koji će se okrenuti protiv svojih tvoraca. Danas, s porastom sofisticiranih velikih jezičnih modela (LLM-ova) kao što je Chat GPT, te su brige postale relevantnije.
Međutim, nova studija koju su vodili računalni znanstvenici Iryna Gurevych s Tehničkog sveučilišta u Darmstadtu u Njemačkoj i Harish Tayyar Madabushi sa Sveučilišta u Bathu u Velikoj Britaniji, donosi umirujuće vijesti. Studija zaključuje da ti LLM modeli nisu sposobni otuđiti se, budući da su previše ograničeni svojim programiranjem da razviju nove sposobnosti bez čovjekovih instrukcija.
Neopravdani strah i nedostatak istinske inteligencije
Strah je bio da će, kako modeli postaju sve veći i veći, moći riješiti nove probleme koje trenutno ne možemo predvidjeti, što predstavlja prijetnju da bi ti veći modeli mogli steći opasne sposobnosti, uključujući razmišljanje i planiranje. Naša studija pokazuje da strah da će se LLM model oteti kontroli i učiniti nešto potpuno neočekivano, inovativno i potencijalno opasno nije valjan, objašnjava Tayyar Madabushi.
Unatoč značajnom napretku u LLM tehnologiji, koji sada može sudjelovati u koherentnim tekstualnim razgovorima oponašajući ljudsku interakciju, još uvijek joj nedostaje istinska inteligencija. LLM modeli mogu uvjerljivo prenijeti netočne informacije, ali to je zbog ograničenja u obradi, a ne autonomnog zaključivanja.
Kontrola procesa učenja
Znanstvenici su nedavno istražili ideju o "nastajućim sposobnostima" u LLM modelima, odnosno vještinama koje bi se mogle razviti neovisno o njihovom programiranju. Međutim, eksperimenti studije s četiri različita LLM-a nisu pronašli dokaze o takvom autonomnom ponašanju. Prikazane sposobnosti objašnjene su sposobnošću modela za praćenje uputa, pamćenje i lingvističkim sposobnostima, bez znakova neovisnih ili nepredviđenih radnji.
Naši rezultati ne znače da umjetna inteligencija uopće nije prijetnja... Ipak možemo vrlo dobro kontrolirati proces učenja LLM-a. Buduća bi se istraživanja stoga trebala usredotočiti na druge rizike koje predstavljaju modeli, kao što je njihov potencijal koristiti za stvaranje lažnih vijesti, pojašnjava Gurevych.
Istraživanje je objavljeno u zborniku radova 62. godišnje skupštine međunarodne Udruge za računalnu lingvistiku (ACL).
Izvor: Science Alert