Porast alata generativne umjetne inteligencije (AI) poput ChatGPT-ja pomaže računalnim kriminalcima u stvaranju uvjerljivijih prevara, upozorili su stručnjaci za kibernetičku sigurnost.
Dok popularni chatbot ChatGPT obilježava prvu godišnjicu od svog pokretanja, brojni stručnjaci su rekli da se tehnologijom koriste zlonamjerni akteri na internetu.
Stručnjaci su upozorili na to da alati generativne umjetne inteligencije za stvaranje teksta i slika kriminalcima olakšavaju stvaranje uvjerljivih prevara, no i da se AI koristi za jačanje kibernetičke obrane jer pomaže identificirati prijetnje pri njihovom pojavljivanju.
Prijetnja sofisticiranijih kibernetičkih napada korištenjem AI-a naglašena je kao ključni budući rizik na događaju AI Safety Summit u Velikoj Britaniji početkom prošlog mjeseca, a svjetski vođe su pristali surađivati u tom području.
Britanski Nacionalni centar za kibernetsku sigurnost (NSC) je također naglasio korištenje AI-ja radi stvaranja i širenja dezinformacija kao ključnu prijetnju u narednim godinama, a naročito u vrijeme oko izbora.
James McQuiggan iz tvrtke za kibernetičku sigurnost KnowBe4 je rekao da se učinak generativne umjetne inteligencije i velikih jezičnih modela (LLM) već osjeća.
ChatGPT je radikalno izmijenio krajolik prijetnji, prikupljanje informacija iz otvorenih izvora te kibernetičku sigurnost uopće, rekao je za novinsku agenciju PA Media.
Računalni kriminalci koriste LLM-ove kako bi generirali dobro napisane dokumente s ispravnom gramatikom, bez pravopisnih pogrešaka kako bi poboljšali svoje napade i zaobišli jedno od najvećih upozorenja u programima za podizanje svijesti o sigurnosti - ideju da loša gramatika i pravopisne pogreške upućuju na socijalni inženjering ili phishing napade.
Ne čudi da je došlo do povećanja sofisticiranosti i obujma phishing napada različitih stilova, što stvara izazove za poduzeća i potrošače.
Budući da generativni AI olakšava stvaranje uvjerljivih slika profila, besprijekornih tekstova ili čak zloćudnog softvera, "AI i LLM-ovi poput ChatGPT-ja se sve više koriste za masovno stvaranje uvjerljivijih poruka za phishing".
Iduća generacija modela generativne umjetne inteligencije očekuje se početkom 2024., a stručnjaci predviđaju da će biti znatno sposobnija od modela trenutne generacije.