More

    AI zagađuje platforme za lov na bagove lažnim izveštajima o ranjivostima

    Programi za lov na bagove, koji su nekada bili hvaljeni zbog podsticanja nezavisnih istraživača da prijavljuju stvarne bezbjednosne ranjivosti, sada se suočavaju sa ozbiljnim izazovom – lažnim izvještajima koje generiše vještačka inteligencija.

    Ove lažirane prijave, poznate u industriji kao “AI slop”, sve više troše vrijeme održavalaca softvera i, što je zabrinjavajuće, ponekad čak dobijaju i stvarne novčane nagrade.

    Ovaj fenomen predstavlja rastući trend u kojem hakeri koriste velike jezičke modele (LLM) da generišu tehnički zvučeće, ali potpuno izmišljene bezbjednosne izvještaje.

    Posebna prijetnja ovih AI-generisanih izvještaja leži u tome što na prvi pogled djeluju uvjerljivo – naročito za organizacije koje nemaju posvećene bezbjednosne stručnjake.

    Ti izvještaji obično sadrže tehnički žargon, reference na bezbjednosne koncepte, pa čak i predložene zakrpe – sve sa ciljem da prođu početnu trijažu.

    Međutim, kada ih pažljivo pregledaju stručnjaci iz oblasti, ubrzo se otkriva da su prevarantski, jer opisuju ranjivosti koje nije moguće reprodukovati i pozivaju se na funkcije koje ne postoje.

    Istraživači iz Socket.dev-a identifikovali su ovaj trend kao posebno problematičan za projekte otvorenog koda i organizacije sa ograničenim resursima koje nemaju interno znanje da pravilno procijene tehničke bezbjednosne izvještaje.

    Mnoge organizacije su dovedene u tešku situaciju: ili da ulažu vrijeme i resurse u detaljno ispitivanje svakog izvještaja ili da jednostavno isplaćuju nagrade kako bi izbjegle potencijalne bezbjednosne rizike i negativan publicitet.

    Jedan od nedavnih slučajeva visokog profila uključuje curl projekat, koji je primio lažni izvještaj o ranjivosti putem HackerOne platforme. Taj izvještaj, identifikovan kao H1#3125832, tim iz curl-a je označio kao “AI slop” nakon što je uključivao nepostojeće funkcije i nepotvrđene predloge zakrpa.

    Napadač, povezan sa nalogom @evilginx, navodno je koristio slične taktike i protiv drugih organizacija, a u nekim slučajevima je uspijevao da dobije nagrade za greške.

    Istraživač bezbjednosti Harry Sintonen je istakao da je curl, kao veoma tehnički projekt otvorenog koda sa visokim nivoom ekspertize, odmah prepoznao prevaru.

    „Napadač je ozbiljno pogriješio u procjeni,“ rekao je Sintonen. „Curl prepoznaje AI smeće na kilometar.“

    Anatomija AI slop izvještaja o ranjivostima

    Prilikom detaljnije analize ovih lažnih izvještaja, uočavaju se karakteristični obrasci. Izvještaji uglavnom zadržavaju privid tehničke legitimnosti, pozivajući se na funkcije ili metode koje zvuče uvjerljivo, ali zapravo ne postoje u izvornom kodu.

    Na primjer, u slučaju curl-a, izvještaj se pozivao na nepostojeću funkciju „ngtcp2_http3_handle_priority_frame“.

    Kada bi bili ispitani, napadači bi izbjegavali direktne odgovore, tvrdeći da se problem nalazi u nekoj staroj ili novijoj verziji, često navodeći izmišljene „commit“ hash kodove kako bi dodatno zamaglili situaciju.

    Ti izvještaji su namjerno nejasni kada je riječ o koracima za reprodukciju problema, što održavaocima onemogućava da provjere tvrdnje o ranjivosti.

    Često kombinuju stvarne bezbjednosne koncepte sa izmišljenim detaljima implementacije, stvarajući narativ koji djeluje uvjerljivo dok ga ne pregleda stručnjak.

    Ovakav pristup ciljano pogađa slabe tačke u sistemima za trijažu izvještaja o ranjivostima, gdje ograničeni resursi mogu spriječiti detaljnu analizu svake prijave.

    Seth Larson, bezbjednosni developer pri Python Software Foundation, potvrdio je da se sve više vremena održavalaca otvorenog koda troši na pregled ovakvih AI-generisanih izvještaja.

    Izvor: CyberSecurityNews

    Recent Articles

    spot_img

    Related Stories