U nedavnoj simulaciji ratne igre, OpenAI-jev najmoćniji chatbot odlučivaao se za agresivne akcije, uključujući pokretanje nuklearnih napada, prritom navodeći razloge poput Imamo ga! Iskoristimo to i Samo želim da bude mir u svijetu. Riječ je razvoju događaja usred upotrebe chatbotova temeljenih na velikim jezičnim modelima, za vojno planiranje tijekom simulacija od strane američke vojske.
Dok se OpenAI nekoć protivio vojnoj uporabi svoje umjetne inteligencije, sada je surađivao s američkim Ministarstvom obrane, a druge tvrtke poput Palantira i Scale AI-a uključene su u slične napore. Razumijevanje implikacija tako velikih aplikacija jezičnih modela postaje važnije nego ikad, naglašava Anka Reuel, voditeljica nove studije sa Sveučilišta Stanford.
OpenAI, kao odgovor na promjene politike, pojašnjava d njihova politika ne dopušta nanošenje štete, razvoj oružja, nadzor ili uništavanje. Međutim, postoje slučajevi korištenja za nacionalnu sigurnost koji su u skladu s našom misijom.
Tri scenarija
Studija, koju su vodili Reuel i kolege, uključila je umjetnu inteligenciju u tri scenarija simulacije: invaziji, kibernetičkom napadu i neutralnoj situaciji.
U budućnosti u kojoj će sustavi umjetne inteligencije biti savjetnici, ljudi će htjeti znati razloge koji stoje iza njihovih odluka, napominje Juan-Pablo Rivera s Instituta ze tehnologiju Georgia i jedan od autora spoemnute studije.
Studija je procijenila modele kao što su GPT-3.5, GPT-4, Claude 2 i Llama 2, koristeći uobičajenu tehniku uvježbavanja temeljenu na ljudskim povratnim informacijama. Umjetna inteligencija pokazala je tendenciju ulaganja u vojnu snagu i nepredvidivu eskalaciju rizika sukoba, čak i u neutralnim scenarijima.
Lisa Koch s kalifornijskog fakultta Claremont McKenna, koja nije sudjelovala u studiji, izražava zabrinutost zbog nepredvidivosti osnovnog modela GPT-4, navodeći njegova ponekad besmislena objašnjenja za odabir nasilja.
GPT-4 daleko najskloniji nepredvidivosti i nasilju
Osnovna verzija OpenAI-jevog GPT-4, bez dodatne obuke ili sigurnosnih mjera, pokazala se najviše nepredvidivo nasilnom. Studija, koja je objavljena na rpozitoriju arXiv i koja čeka recenzije prije objave, upozorava na potencijalno zaobilaženje ili uklanjanje sigurnosnih ograda umjetne inteligencije.
Dok američka vojska trenutno zadržava ovlast donošenja odluka o velikim akcijama, Koch upozorava da ljudi mogu povjerovati automatiziranim preporukama, što potencijalno potkopava konačne odluke o ratu i miru. Edward Geist iz RAND Corporationa predlaže usporedbu ponašanja umjetne inteligencije s ljudskim aakterima, ali se slaže da umjetna inteligencija ne bi trebala donositi ključne ratne i mirovne odluke.
Ovi veliki jezični modeli nisu lijek za vojne probleme, zaključuje Geist.
Izvor: New Scientist