Za brojne je ljude umjetna inteligencija još uvijek velika nepoznanica. Iako se AI alati sve češće koriste i prezentiraju kao nešto što će promijeniti način na koji radimo i živimo, ljudi su i dalje skeptični. Dijelom jer je AI nešto što ne mogu vidjeti i opipati, a dijelom jer jednostavno ne znaju za što bi takve alate koristili i kako cijela stvar funkcionira.
No, čini se kako u tom razmišljanju nisu jedini. Sudjelujući na AI for Good Global Summitu u Ženevi, šef OpenAI-a Sam Altman, iste one tvrtke koja je pokrenula cijelu AI ludnicu, otkrio je nekoliko zanimljivih činjenica o njihovom popularnom chatbotu ChatGPT.
Na pitanje što je prva velika i dobra stvar koju je AI potaknula u svijetu, Altman je istaknuo brži i učinkovitiji rad. No, isto je istaknuo i kako je glavna negativna stvar koja je rezultat korištenja AI u svijetu prije svega narušena kibernetička sigurnost, ali i dodao kako će s druge strane AI pomoći i u jačanju kibernetičke sigurnosti.
Jedan od glavnih problema koji se pojavljuje u razvoju umjetne inteligencije je izvor podataka na temelju kojih se alati umjetne inteligencije razvijaju. Već se dulje govori o tome kako ponestaje podataka, a činjenica je da je na internetu sve više tzv. sintetičkih podataka, koji su nastali upotrebom umjetne inteligencije, a treniranje AI na temelju tih podataka bi moglo dovesti do problema u budućnosti.
Mislim da su potrebni kvalitetni podaci. Postoje loši podaci koji su sintetički stvoreni, ali i loši podaci koje su stvorili ljudi. I dok god možemo pronaći dovoljno kvalitetnih podataka za treniranje naših modela, ne bi trebalo biti problema, istaknuo je Altman.
Upravo je to pitanje treniranja umjetne inteligencije dovelo do rasprave o tome kako sama umjetna inteligencija funkcionira.
Među ostalim, priznao je da tvrtka još uvijek ne zna kako funkcioniraju njeni veliki jezični modeli. Naime, trenutno se mogućnosti AI modela ograničavaju na razini sučelja koje se koristi za komunikaciju s korisnicima. No, cilj je stvoriti takve modele koji bi mogli učiti ljude o kemiji, ali ne i kako napraviti kemijsko oružje. To je onaj dio koji AI ne razumije, a ljudi, priznaje Altman, ne znaju kako AI funkcionira "u pozadini" pa ni kako riješiti taj problem.
Još nismo riješili interpretabilnost, istaknuo je Altman, sugerirajući da tvrtka tek treba shvatiti kako ući u trag funkcioniranja svojih modela umjetne inteligencije. Nakon daljnjeg ispitivanja trebaju li izdati nove i snažnije modele, rekao je, ovi se sustavi općenito smatraju sigurnima i robusnima.
Altman je dodao da oni ne razumiju što se događa u vašem mozgu na razini neurona po neurona, te slijede neka standardna pravila da bi razumjeli kako bi ljudski um želio objasniti bilo koji određeni upit.
Upravo priznanje kako ni tvrtka koja je razvila ChatGPT zapravo ne zna kako umjetna inteligencija funkcionira u pozadini, ono je što zabrinjava sve više stručnjaka koji pozivaju na veće ulaganje u sigurnost umjetne inteligencije.
Međutim, Altman smatra da će se sigurnost razviti s daljnjim razvojem i razumijevanjem umjetne inteligencije.
Čini mi se da što više možemo razumjeti što se događa u ovim modelima, to bolje, istaknuo je Altman.
Cjelokupni intervju možete pogledati u priloženom videu.