More

    Maliciozni softver i mašinsko učenje: Spoj napravljen u paklu

    Već dugi niz godina razvijamo sisteme kibernetičke bezbjednosti zasnovane na mašinskom učenju i počeli smo da razvijamo automatizaciju za analizu u našim laboratorijama 2005. godine. Ovi rani projekti automatizacije od tada su evoluirali u potpune okvire za mašinsko učenje. Od tada smo čekali da naši neprijatelji povuku isti potez, a nakon 18 godina čekanju je kraj, stigao je maliciozni softver sa umjetnom inteligencijom.

    Defenderi su već neko vrijeme bili u mogućnosti da automatizuju svoj rad, omogućavajući odlično vrijeme otkrivanja, analize i reakcije, bez ruku pri brzini mašine. Ovo je u suprotnosti sa napadačima koji su morali da izgrade i implementiraju svoje napade ručno, što znači da kada budu blokirani, moraju ručno da promene stvari, mnogo sporijom ljudskom brzinom.

    Automatske kampanje malicioznog softvera drastično će promijeniti brzinu reakcije malicioznih grupa

    Tehnologija za pokretanje kampanja malicioznog softvera i automatsko zaobilaženje nove odbrane je definitivno izvodljiva u današnje vrijeme, ali do sada nismo vidjeli ništa slično. Međutim, kada se to dogodi, to će biti primjetno jer bi to jasno signalizovalo da se brzina reakcije naših neprijatelja promijenila sa ljudske na brzinu mašine.

    Deepfakes su vjerovatno prva stvar koja Vam padne na pamet kada se raspravlja o kriminalnoj ili malicioznoj upotrebi AI. Danas je lako stvoriti realistične slike lažnih ljudi, a vidimo da se često koriste u ljubavnim prevarama i drugim slučajevima prevara. Međutim, deepfakes od stvarnih ljudi su nešto sasvim drugo, i dok je zloupotreba deepfake slika, glasova i video zapisa za sada relativno mala, nema sumnje da će se ovo pogoršati.

    Modeli velikih jezika (LLM) kao što su GPT, LAMDA i LLaMA ne samo da mogu kreirati sadržaj na ljudskim jezicima, već i na svim programskim jezicima. Upravo smo vidjeli prvi primjer samoreplikujućeg dijela koda koji može koristiti velike jezičke modele da stvori beskrajne varijacije samog sebe.

    Kako znamo za ovo? Zato što nam ga je autor malicioznog softvera, SPTH, poslao poštom.

    Ovaj pojedinac je ono što bismo nazvali hobistom virusa stare škole, i čini se da voli pisati viruse koji otvaraju nove terene. SPTH je takođe napravio dugu listu malvera tokom godina, kao što je prvi malver koji inficira DNK, “Mycoplasma Mycoides SPTH-syn1.0”. Međutim, treba naglasiti da SPTH to čini samo zato što može, ali izgleda da nije zainteresovan za korištenje malicioznog softvera za nanošenje štete ili krađu novca.

    SPTH-ov samoreplikujući kod se zove LLMorpher. SPTH je nedavno napisao: „Ovdje idemo dalje i pokazujemo kako kodirati samoreplikujući kod u potpunosti na prirodnom jeziku. Umjesto konkretnih instrukcija koda, naš virus se sastoji od liste dobro definisanih rečenica koje su napisane na engleskom. Zatim koristimo OpenAI GPT, jedan od najmoćnijih sistema umjetne inteligencije koji su javno dostupni. GPT može kreirati različite kodove sa istim ponašanjem, što je novi oblik metamorfizma.”

    Ovaj dio koda može zaraziti programe napisane na jeziku Python. Kada se izvrši, traži na računaru .py datoteke i kopira svoje funkcije u njih. Međutim, funkcije se ne kopiraju direktno, funkcionalnost je opisana na engleskom GPT-u, koji zatim kreira stvarni kod koji se kopira. Ovo rezultira zaraženom Python datotekom, koja će nastaviti replikovati maliciozni softver u nove datoteke, a funkcije se svaki put reprogramiraju od strane GPT-a, nešto što nikada ranije nije urađeno.

    Jednostavno pisanje malicioznog softvera nije protivzakonito, ali upotreba za zarazu sistema ljudi ili za nanošenje štete jeste. Dakle, iako se čini da SPTH nije uradio ništa slično, ovo je i dalje veoma problematično jer treće strane mogu zloupotrebiti SPTH-ovo istraživanje, LLMorpher se lako može preuzeti sa Github-a.

    Kako možemo blokirati maliciozni softver kao što je LLMorpher ili nove vrste zasnovane na njemu?

    LLMorpher ne može raditi bez GPT-a. Nema kopiju, jer GPT nije dostupan za preuzimanje. To znači da OpenAI (kreator GPT-a) može jednostavno blokirati svakoga ko koristi GPT u maliciozne svrhe. Neki slični modeli se mogu preuzeti (LLaMA, na primjer), tako da ćemo vjerovatno vidjeti one koji su ugrađeni u malver.

    Otkrivanje malicioznog ponašanja najbolja je opklada protiv malicioznog softvera koji koristi velike jezičke modele, a to najbolje rade sigurnosni proizvodi, koji takođe koriste mašinsko učenje!

    Jedina stvar koja može da zaustavi lošu vještačku inteligenciju je dobra vještačka inteligencija.

    Izvor: Help Net Security

    Recent Articles

    spot_img

    Related Stories