Cyber okruženje doživljava radikalne promjene uslijed pojave generativne AI. Napadači sada koriste velike jezičke modele (LLM-ove) kako bi oponašali pouzdane osobe i automatizovali socijalno inženjerstvo na velikim razmjerama.
U nastavku je pregled trenutnog stanja ovih napada, šta ih pokreće i kako ih spriječiti, a ne samo otkriti.
Najuticajnija osoba na pozivu možda nije stvarna
Najnoviji izvještaji o prijetnjama ukazuju na sve veću sofisticiranost i učestalost napada vođenih AI-jem:
- Naglo povećanje glasovnog phishing: Prema CrowdStrike Global Threat Report 2025, zabilježen je porast od 442% u glasovnim phishing (vishing) napadima između prve i druge polovine 2024. godine, potaknut AI-generisanim phishing i lažnim predstavljanjem.
- Dominacija socijalnog inženjeringa: Verizon Data Breach Investigations Report 2025 navodi da socijalni inženjering ostaje vodeći uzrok bezbjednosnih incidenata, pri čemu su phishing i lažno predstavljanje glavni faktori.
- Operacije sa deepfake identitetima iz Sjeverne Koreje: Identifikovani su napadači koji koriste deepfake tehnologiju kako bi kreirali sintetičke identitete za online intervjue i tako pokušali da dobiju posao na daljinu i infiltriraju se u organizacije.
U ovoj novoj eri, povjerenje se ne može podrazumijevati niti samo detektovati — ono mora biti dokazivo, u realnom vremenu.
Zašto ovaj problem sve više raste
Tri faktora se spajaju i čine AI lažno predstavljanje ozbiljnom prijetnjom:
- AI čini obmanu jeftinom i skalabilnom: Sa otvorenim alatima za glas i video, napadači mogu oponašati bilo koga uz samo nekoliko minuta referentnog materijala.
- Virtualna saradnja otkriva praznine u povjerenju: Platforme poput Zoom-a, Teams-a i Slack-a pretpostavljaju da je osoba iza ekrana zaista ona za koju se predstavlja. Napadači iskorištavaju tu pretpostavku.
- Odbrana se oslanja na vjerovatnoću, a ne na dokaz: Detekcioni alati pokušavaju da „pogode“ da li je neko stvaran pomoću analiza lica i ponašanja – što nije dovoljno u rizičnim okruženjima.
A čak ni alati za krajnje tačke niti obuka korisnika ne mogu dati odgovor u realnom vremenu na ključno pitanje:
„Mogu li vjerovati osobi s kojom trenutno razgovaram?“
AI detekcija nije dovoljna
Tradicionalna odbrana se oslanja na detekciju: obuka korisnika da primijete sumnjivo ponašanje ili analiza sadržaja putem AI-ja.
Ali deepfake postaju predobri, prebrzo. Ne možete se boriti protiv AI obmane alatima koji rade na osnovu vjerovatnoće.
Prava prevencija zahtijeva drugačiji temelj – temelj koji se zasniva na dokazivom povjerenju, a ne na pretpostavci.
To podrazumijeva:
- Verifikaciju identiteta: Samo verifikovani i ovlašteni korisnici mogu pristupiti osjetljivim sastancima ili chatovima, na osnovu kriptografskih kredencijala, a ne lozinki ili kodova.
- Provjere integriteta uređaja: Ako je uređaj korisnika kompromitovan, jailbreakovan ili neusklađen sa sigurnosnim politikama, postaje tačka ulaza za napadače — čak i ako je identitet korisnika validan. Takvi uređaji moraju biti blokirani dok se ne riješe problemi.
- Vidljivi indikatori povjerenja: Svi učesnici moraju vidjeti dokaz da je osoba s druge strane zaista ona za koju se predstavlja i da koristi siguran uređaj. Time se uklanja pritisak sa krajnjih korisnika da sami procjenjuju rizik.
Prevencija znači: učiniti lažno predstavljanje ne samo teškim, već nemogućim
Samo tako možete spriječiti deepfake napade prije nego što se uključe u visoko-rizične razgovore poput:
- sastanaka upravnog odbora
- finansijskih transakcija
- komunikacije sa dobavljačima
Pristup zasnovan na detekciji | Pristup zasnovan na prevenciji |
---|---|
Oznaka anomalija nakon što se dese | Blokiranje neovlaštenih korisnika prije pristupa |
Oslanjanje na heuristiku i nagađanja | Korištenje kriptografskog dokaza identiteta |
Potreba za procjenom od strane korisnika | Vidljivi i potvrđeni indikatori povjerenja |
Uklonite Deepfake prijetnje iz svojih poziva
RealityCheck kompanije Beyond Identity razvijen je kako bi zatvorio prazninu povjerenja u alatima za saradnju.
Omogućava svakom učesniku vidljivu, potvrđenu identifikacijsku oznaku baziranu na kriptografskoj autentifikaciji uređaja i kontinuiranim sigurnosnim provjerama.
Dostupan za Zoom i Microsoft Teams (video i chat), RealityCheck:
- Potvrđuje da je svaki učesnik stvaran i ovlašten
- Validira usklađenost uređaja u realnom vremenu, čak i kod neupravljanih uređaja
- Prikazuje vizuelnu značku verifikacije kako bi svi mogli vidjeti ko je zaista na pozivu
Zaključak:
U eri AI prevare, povjerenje se više ne smije pretpostavljati – mora se dokazati. Tehnologije kao što je RealityCheck omogućavaju upravo to – štiteći kritične razgovore od lažnih učesnika i AI manipulacija.
Izvor:The Hacker News