GenAI is een table stakes-tool geworden voor werknemers, vanwege de productiviteitswinst en innovatieve mogelijkheden die het biedt. Ontwikkelaars gebruiken het om code te schrijven, financiële teams gebruiken het om rapporten te analyseren en verkoopteams maken e-mails en activa voor klanten. Toch zijn dit precies de mogelijkheden die serieuze beveiligingsrisico’s met zich meebrengen.
Registreer u voor onze komende webinar om te leren hoe u GenAI-datalekken kunt voorkomen
Wanneer werknemers gegevens invoeren in GenAI-tools zoals ChatGPT, maken ze vaak geen onderscheid tussen gevoelige en niet-gevoelige gegevens. Onderzoek door LayerX geeft aan dat één op de drie werknemers die GenAI-tools gebruiken, ook gevoelige informatie deelt. Dit kan broncode, interne financiële cijfers, bedrijfsplannen, IP, PII, klantgegevens en meer omvatten.
Beveiligingsteams proberen dit risico op gegevensonderschepping al aan te pakken sinds ChatGPT in november 2022 op tumultueuze wijze in ons leven kwam. Tot nu toe was de gebruikelijke aanpak echter om ‘alles toe te staan’ of ‘alles te blokkeren’, dat wil zeggen het gebruik van GenAI toestaan zonder enige beveiligingsmaatregelen, of het gebruik helemaal te blokkeren.
Deze aanpak is zeer ineffectief omdat het ofwel de poorten opent voor risico’s zonder enige poging om bedrijfsgegevens te beveiligen, of veiligheid boven bedrijfsvoordelen stelt, waardoor bedrijven de productiviteitswinst mislopen. Op de lange termijn kan dit leiden tot Shadow GenAI, of — nog erger — tot het verlies van het concurrentievoordeel van het bedrijf op de markt.
Kunnen organisaties zich beschermen tegen datalekken en toch profiteren van de voordelen van GenAI?
Het antwoord heeft, zoals altijd, te maken met kennis en hulpmiddelen.
De eerste stap is het begrijpen en in kaart brengen van welke van uw gegevens bescherming nodig hebben. Niet alle gegevens moeten worden gedeeld, zeker niet bedrijfsplannen en broncode. Maar openbaar beschikbare informatie op uw website kan veilig worden ingevoerd in ChatGPT.
De tweede stap is het bepalen van het niveau van beperking dat u wilt toepassen op werknemers wanneer zij proberen dergelijke gevoelige gegevens te plakken. Dit kan volledige blokkering inhouden of hen gewoon van tevoren waarschuwen. Waarschuwingen zijn nuttig omdat ze werknemers helpen trainen in het belang van datarisico’s en autonomie aanmoedigen, zodat werknemers zelf een beslissing kunnen nemen op basis van een balans tussen het type gegevens dat ze invoeren en hun behoefte.
Nu is het tijd voor de techniek. Een GenAI DLP-tool kan deze beleidsregels afdwingen: werknemersacties in GenAI-applicaties gedetailleerd analyseren en blokkeren of waarschuwen wanneer werknemers proberen gevoelige gegevens erin te plakken. Een dergelijke oplossing kan ook GenAI-extensies uitschakelen en verschillende beleidsregels toepassen voor verschillende gebruikers.
In een nieuwe webinar door LayerX-experts duiken ze in GenAI-datarisico’s en bieden ze best practices en praktische stappen voor het beveiligen van de onderneming. CISO’s, beveiligingsprofessionals, compliance-kantoren – Registreer hier.