U današnjem digitalnom dobu, generativna umjetna inteligencija (AI) donosi sa sobom značajne promjene, ali i niz skrivenih rizika koji mogu ugroziti osjetljive podatke. Organizacije sve više koriste alate temeljene na AI, ne samo one odobrene i nadzirane od strane IT odjela, već i “sjenovitu AI” – aplikacije i usluge koje zaposleni koriste bez službenog odobrenja ili nadzora. Ovaj rastući trend postavlja značajan sigurnosni izazov, budući da se na taj način mogu otkriti povjerljivi podaci kompanije.
Eksperti upozoravaju da bi kompanije trebale poduzeti proaktivne korake kako bi osigurale sigurno korištenje AI i postigle ravnotežu između inovacija i potencijalnih rizika po privatnost. Ključno je da se uspostave jasne politike i smjernice za korištenje AI alata kako bi se spriječila neovlaštena upotreba i curenje osjetljivih informacija. Zaposlene treba edukovati o rizicima povezanim s generativnom AI, naglašavajući važnost zaštite korporativnih podataka.
Među najvažnijim prijetnjama je mogućnost da se osjetljivi podaci kompanije, kao što su interne datoteke, financijske informacije ili podaci o klijentima, nesvjesno unesu u javno dostupne AI modele. Kada se takvi podaci unesu, oni postaju dio trening seta modela i mogu biti dostupni drugima kroz naknadne upite. Ovo može dovesti do povrede zakona o zaštiti podataka i narušavanja ugleda kompanije.
Kako bi se ublažili ovi rizici, preporučuje se implementacija alata za otkrivanje i sprječavanje gubitka podataka (DLP) koji mogu nadzirati i blokirati prijenos osjetljivih informacija putem AI platformi. Također je važno redovno revidirati i ažurirati politike korištenja tehnologije kako bi se osiguralo da su usklađene s razvojem AI i novim sigurnosnim prijetnjama. Kroz kombinaciju tehničkih mjera, edukacije zaposlenih i strogih internih politika, kompanije mogu bolje upravljati rizikom sjenovite AI i osigurati sigurnost svojih podataka u eri generativne inteligencije.