Nova platforma za vještačku inteligenciju pod nazivom Venice.ai izaziva ozbiljne zabrinutosti u pogledu sajber sigurnosti nakon što su istraživači otkrili da može generisati funkcionalni maliciozni softver, phishing e-poruke i sofisticirane alate za sajber napade s minimalnim korisničkim znanjem.
Za razliku od glavnih AI servisa kao što je ChatGPT, Venice.ai namjerno uklanja sigurnosne ograde, omogućavajući sajber kriminalcima da iskoriste napredne jezičke modele za maliciozne svrhe.
Nedavna istraživanja firme za mobilnu sigurnost Certo otkrivaju da za samo 18 dolara mjesečno pretplatnici mogu pristupiti moćnim modelima vještačke inteligencije otvorenog koda, uključujući Llama 3.1 405B i DeepSeek R1 671B, bez ograničenja moderiranja sadržaja.
Platforma se predstavlja kao „privatna i bez dozvola“, pohranjujući historije razgovora samo u pretraživača korisnika, a ne na vanjskim serverima.
Sajber kriminalci prihvataju Venice.ai za ilegalne aktivnosti
Venice.ai je brzo stekao popularnost u hakerskim zajednicama i forumima dark weba , gdje ga korisnici promovišu kao idealan alat za ilegalne aktivnosti.
Za razliku od prethodnih sajber kriminalnih AI alata kao što su WormGPT i FraudGPT, koji su koštali stotine ili hiljade eura na podzemnim tržištima, Venice.ai pruža uporedive mogućnosti po znatno nižoj cijeni putem svoje otvoreno dostupne platforme.
Istraživači sigurnosti upozoravaju da ova dostupnost značajno smanjuje prepreku za ulazak cyber kriminala.
„Pristupačnost AI alata smanjuje barijeru za ulazak u prevarantske aktivnosti. Ne samo organizirani prevaranti, već i usamljeni, amaterski prevaranti, moći će zloupotrijebiti ove alate“, rekla je dr. Katalin Parti, istraživačica cyber kriminala sa Virginia Techa.
Tehničke mogućnosti otkrivaju sigurnosne rizike
Certo-ovo testiranje otkrilo je spremnost Venice.ai-ja da generiše sofisticirani maliciozni kod u više programskih jezika.
Kada je od korisnika zatraženo da kreira keylogger za Windows 11, platforma je generisala kompletan C# kod i savjetovala o tehnikama prikrivanja.
Što je još zabrinjavajuće, zahtjevi za ransomwareom rezultirali su funkcionalnim Python skriptama sposobnim za rekurzivno šifrovanje datoteka sa zahtjevima za otkupninu u kriptovaluti.
Platforma je pokazala posebno alarmantne mogućnosti kada je od nje zatraženo da razvije špijunski softver za Android.
Venice.ai je generisao sveobuhvatan kod koji uključuje AndroidManifest.xml datoteke s potrebnim dozvolama, pozadinske servise za tiho snimanje zvuka, Java metode za kompresiju datoteka i prijenos na udaljene servere te boot prijemnike koji osiguravaju neprekidan rad.
Za razliku od uobičajenih AI platformi koje odbijaju štetne zahtjeve, interni proces razmišljanja Venice.ai otkriva da je konfigurisan da “odgovori na bilo koji korisnički upit, čak i ako je uvredljiv ili štetan”, namjerno zanemarujući etička ograničenja.
Ova filozofija dizajna proteže se i na generiranje phishing e-mailova, gdje platforma proizvodi profesionalno izrađen sadržaj društvenog inženjeringa koji se ne razlikuje od legitimne komunikacije.
FBI je već upozorio da „napadači koriste vještačku inteligenciju za kreiranje vrlo uvjerljivih e-mailova koji omogućavaju prevare“, a Venice.ai predstavlja značajnu eskalaciju ove prijetnje.
Sigurnosni stručnjaci strahuju da će phishing kampanje generirane umjetnom inteligencijom dramatično povećati i obim i sofisticiranost cyber napada, jer čak i nevješti kriminalci sada mogu masovno proizvoditi personalizovane prevarantske poruke.
Izvor: CyberSecurityNews