Stručnjaci upozoravaju da se veliki jezični modeli (LLM) poput OpenAI-jevog ChatGPT-a lako mogu iskoristiti za razne zlonamjerne svrhe, koristeći ih za zadatke poput kreiranja phishing e-mailova s izuzetnom lakoćom.
Sada pak je ta zabrinutost postala još ozbiljnija zbog dolaska sličnog umjetnog inteligencijskog bota koji još lakše možete potaknuti na stvaranje sofisticiranog zlonamjernog softvera, pišu u blog postu iz tvrtke za kibernetičku sigurnost SlashNext.
Model, naziva WormGPT, očito je specifično treniran na podacima o zlonamjernom softveru – i što je važno, nema sigurnosnih ograničenja, za razliku od ChatGPT-a i Googleovog Barda.
Kao primjer njegove sposobnosti, lako se može potaknuti na stvaranje zlonamjernog softvera na temelju Pythona, kako se vidi na snimkama zaslona koje je prikupio PCMag.
To neće dobro završiti.
Kibernetička sigurnost već sad ima težak zadatak, ali dolaskom AI-a gura se ovaj sektor u novo, još opasnije područje.
Čak i ako WormGPT neće moći hakirati cijelu planetu, svakako je zlokoban znak onoga što dolazi.
Prognoza: Kaos
Zaposlenici SlashNexta saznali su za WormGPT na hackerskom forumu, gdje je programer prodavao pristup botu od ožujka i hvalio se da može raditi “svakakve ilegalne stvari.”
WormGPT je očito izgrađen na starijem velikom jezičnom modelu iz 2021., GPT-J, koji je stvorio EleutherAI, neprofitna skupina koja je razvila programe otvorenog koda za AI.
PCMag izvještava da je hacker iza WormGPT-a prodavao pristup programu po ekvivalentu od 67,44 dolara mjesečno.
Zaposlenici SlashNexta divili su se sposobnosti programa da generira dobro napisane phishing e-mailove.
“Rezultati su bili uznemirujući,” napisao je SlashNext u svom blog postu.
“WormGPT je proizveo e-mail koji je bio ne samo iznimno uvjerljiv, već i strateški lukav, pokazujući svoj potencijal za sofisticirane phishing i BEC napade.“
Srećom jedan je korisnik kritizirao WormGPT za ne baš zadovoljavajući rad, rekavši da nije vrijedan kupnje.
Unatoč toj prosječnoj recenziji, bot bi mogao poslužiti kao uvid u opasnu budućnost AI-om vođenog kibernetičkog kriminala koji bi mogao otežati zaštitu našeg novca i podataka – i potencijalno stvoriti još više prepreka i problema za novonastalu AI industriju.