Googleov AI “Big Sleep” zaustavlja iskorištavanje kritične ranjivosti SQLite-a prije nego što hakeri djeluju

Google je u utorak otkrio da je njegov okvir za otkrivanje ranjivosti potpomognut velikim jezičkim modelima (LLM) otkrio sigurnosni propust u SQLite bazi podataka otvorenog koda prije nego što je mogao biti iskorišćen u praksi.

Ranjivost, praćena kao CVE-2025-6965 (CVSS ocjena: 7.2), je greška u oštećenju memorije koja utiče na sve verzije prije verzije 3.50.2. Otkrio ju je Big Sleep , agent vještačke inteligencije (AI) koji je Google pokrenuo prošle godine kao dio saradnje između DeepMind-a i Google Project Zero-a.

“Napadač koji može ubrizgati proizvoljne SQL izraze u aplikaciju mogao bi uzrokovati prekoračenje cijelog broja što rezultuje čitanjem s kraja niza”, rekli su održavatelji SQLite projekta u savjetodavnom upozorenju.
Tehnološki gigant je opisao CVE-2025-6965 kao kritičan sigurnosni problem koji je “poznat samo prijetnjama i koji je bio u opasnosti da bude iskorišćen”. Google nije otkrio ko su bili prijetnje.

„Kombinacijom obavještajnih podataka o prijetnjama i Big Sleep tehnologije, Google je uspio predvidjeti da će ranjivost uskoro biti iskorištena i uspjeli smo je unaprijed isključiti“, rekao je Kent Walker, predsjednik globalnih poslova u Googleu i Alphabetu .

“Vjerujemo da je ovo prvi put da je agent vještačke inteligencije korišten za direktno sprječavanje napora da se iskoristi ranjivost u praksi.”

U oktobru 2024. godine, Big Sleep je bio odgovoran za otkriće još jedne greške u SQLite-u, ranjivosti koja se odnosila na nedovoljno punjenje međuspremnika steka, a koja je mogla biti iskorištena da dovede do pada sistema ili proizvoljnog izvršavanja koda.

Istovremeno s razvojem, Google je takođe objavio bijelu knjigu o izgradnji sigurnih AI agenata tako da imaju dobro definisane ljudske kontrolere, njihove mogućnosti su pažljivo ograničene kako bi se izbjegle potencijalne lažne akcije i otkrivanje osjetljivih podataka, te da su njihove akcije vidljive i transparentne.

„Tradicionalni pristupi sigurnosti sistema (kao što su ograničenja akcija agenata implementirana putem klasičnog softvera) nemaju kontekstualnu svijest potrebnu za svestrane agente i mogu previše ograničiti korisnost“, rekli su Santiago (Sal) Díaz, Christoph Kern i Kara Olive iz Googlea .

“S druge strane, sigurnost zasnovana isključivo na rasuđivanju (oslanjanje isključivo na prosudbu modela vještačke inteligencije) nije dovoljna jer trenutni LLM-ovi ostaju podložni manipulacijama poput brzog ubrizgavanja i još uvijek ne mogu ponuditi dovoljno robusne garancije.”

Kako bi ublažila ključne rizike povezane sa sigurnošću agenata, kompanija je saopštila da je usvojila hibridni pristup dubinske odbrane koji kombinuje snage tradicionalnih, determinističkih kontrola i dinamičkih, na logičkom zaključivanju zasnovanih odbrana.
Ideja je stvoriti robusne granice oko operativnog okruženja agenta kako bi se značajno ublažio rizik od štetnih ishoda, posebno malicioznih radnji izvršenih kao rezultat brzog ubrizgavanja.

„Ovaj pristup dubinske odbrane oslanja se na prisilno uspostavljene granice oko operativnog okruženja AI agenta kako bi se spriječili potencijalno najgori scenariji, djelujući kao zaštitne ograde čak i ako interni proces razmišljanja agenta postane kompromitovan ili neusklađen sofisticiranim napadima ili neočekivanim ulazima“, rekao je Google.

“Ovaj višeslojni pristup prepoznaje da ni sistemi zasnovani isključivo na pravilima ni prosuđivanje zasnovano isključivo na vještačkoj inteligenciji nisu dovoljni sami po sebi.”

Izvor:The Hacker News

Recent Articles

spot_img

Related Stories