More

    FBI upozorava na zloupotrebu GenAI-a

    Federalni istražni biro (FBI) izdao je oštro upozorenje o upotrebe GenAI (Generative AI) od strane kriminalaca za vršenje prevare velikih razmjera s neuobičajenim kredibilitetom.

    Ovaj alarmantni trend označava značajan pomak u pejzažu sajber kriminala, jer se AI alati iskorištavaju za stvaranje vrlo uvjerljivih prevara koje je sve teže otkriti.

    GenAI (Generative AI) je postao moćno oružje u arsenalu sajber kriminalaca, omogućavajući im da izrađuju sofisticirane napade socijalnog inženjeringa uz minimalan napor.

    Ovi AI alati mogu sintetizirati potpuno novi sadržaj zasnovan na ulaznim podacima, efikasno eliminišući ljudske greške koje bi inače mogle poslužiti kao crvena zastava za potencijalne žrtve.

    Analitičari za provođenje zakona primijetili su da kako AI tehnologija nastavlja da napreduje, granica između pravog i lažnog sadržaja postaje sve nejasnija.

    Tehnička analiza

    Prevare zasnovane na tekstu

    Kriminalci koriste tekst generisan vještačkom inteligencijom kako bi stvorili uvjerljiv sadržaj za društveni inženjering, krađu identiteta i razne šeme financijskih prevara. Ovo uključuje:

    • Generisanje brojnih fiktivnih profila na društvenim mrežama
    • Kreiranje uvjerljivih poruka kako bi dosegli širu publiku
    • Poboljšanje jezičnih prevoda za ciljanje žrtava kroz jezičke barijere
    • Kreiranje sadržaja za lažne investicione web stranice
    • Implementacija chatbotova sa umjetnom inteligencijom na zlonamjernim stranicama

    Visualna iluzija

    Slike generisane vještačkom inteligencijom koriste se za jačanje kredibiliteta lažnih šema. Kriminalci stvaraju:-

    • Realne fotografije profila za lažne naloge na društvenim mrežama
    • Lažni identifikacioni dokumenti
    • Uvjerljive slike za privatnu komunikaciju
    • Lažna priznanja slavnih za krivotvorene proizvode
    • Manipulisane slike kako bi se privukle donacije za nepostojeće dobrotvorne organizacije

    Audio i video manipulacija

    FBI upozorava da se AI također koristi za kloniranje glasova i stvaranje dubokih lažnih videa, dodatno poboljšavajući sofisticiranost ovih napada.

    Kloniranje glasa

    Kriminalci koriste zvuk generisan vještačkom inteligencijom da se imitiraju kao javne ličnosti ili lični odnosi, često za:

    • Simulirajte svoje voljene u kriznim situacijama tražeći hitnu finansijsku pomoć
    • Steknite neovlašteni pristup bankovnim računima putem lažnog predstavljanja

    Video manipulacija

    Videozapisi genersiani vještačkom inteligencijom se koriste za:

    • Vodite lažne video razgovore sa navodnim rukovodiocima ili autoritetima
    • Kreirajte promotivne materijale za lažne investicijske sheme

    Za borbu protiv ovih prijetnji poboljšanih vještačkom inteligencijom, FBI preporučuje nekoliko zaštitnih strategija:

    1. Uspostavite tajne fraze za verifikaciju sa članovima porodice
    2. Budite oprezni za suptilne nesavršenosti u sadržaju generisanom vještačkom inteligencijom
    3. Obratite veliku pažnju na ton i izbor riječi u komunikaciji
    4. Ograničite ličnu sliku i glasovni sadržaj na mreži
    5. Nezavisno provjerite identitet pozivaoca koji tvrde da predstavljaju organizacije
    6. Nikada ne dijelite osjetljive informacije s nepoznatim osobama na mreži ili preko telefona
    7. Izbjegavajte slanje novca ili imovine nepoznatim osobama

    FBI je upozorio i snažno pozvao javnost da ostane na oprezu i usvoji proaktivne mjere kako bi se zaštitila od ovih evoluirajućih sajber prijetnji.

    Izvor: CyberSecurityNews

    Recent Articles

    spot_img

    Related Stories