Witold Kepinski - 05 september 2024

Grip houden op bedrijfsgegevens met GenAI

AI is niet nieuw. Veel bedrijven benutten de kracht van machine learning, analytics en automation al jaren om uit steeds grotere hoeveelheden data waardevolle informatie te halen. Zeker nu de hoeveelheid data binnen en buiten organisaties exponentieel groeit, is het een uitdaging om deze behapbaar te houden. AI helpt bij databeheer en security prioriteiten te stellen. Zo geven virusscanners en SIEM-oplossingen signalen wanneer er echt aandacht en maatregelen nodig zijn. Bovendien is het mogelijk deze acties automatisch – en proactief – uit te laten voeren. Dit schrijft Ramprakash Ramamoorthy, director of AI-research bij ManageEngine, aanbieder van IT-beheersoftware.

Grip houden op bedrijfsgegevens met GenAI image

De opkomst van generatieve AI

Het gebruik van generatieve AI of GenAI is in opkomst. Onderzoek van Capgemini toont aan dat maar liefst 64% van de Nederlandse bedrijven het potentieel van GenAI verkent en 31 procent integreert het al op verschillende manieren, vergeleken met 4% vorig jaar.

GenAI pakt op meerdere vlakken positief uit voor bedrijven omdat het werk slimmer voor elkaar krijgt en repetitieve taken automatiseert. Dit draagt op vele vlakken bij aan de productiviteit van medewerkers. Volgens een Capgemini rapport is de productiviteit in belangrijke gebieden als coding assistance en documentatie met bijna 10% gestegen bij medewerkers van bedrijven die gebruik maken van GenAI. Naast snelheid en productiviteit heeft GenAI ook impact op de kwaliteit van de ontwikkelde software die het ondersteunt. Door tijdens het proces suggesties ter optimalisatie te voorzien, wordt het systeem continu geüpdatet waardoor de output steeds nauwkeuriger én veiliger wordt.

“Data dat door GenAI gegenereerd wordt, wordt soms gebruikt om andere AI-modellen te trainen. Het risico daarbij is dat deze data mogelijk niet helemaal correct is, dat heet data poisoning,” legt Ramprakash Ramamoorthy, director of AI-research bij ManageEngine, uit, “wanneer een AI-model vervuild is, kunnen er fouten sluipen in de output. Dat moet je dus absoluut vermijden.”

GenAI is een subcategorie van AI die is gericht op het creëren van nieuwe content, zoals tekst, afbeeldingen of code en gebruikt grote externe datasets. Je moet erg voorzichtig zijn bij zowel de kwaliteit van de output als de sensitiviteit van de data input. Momenteel zorgt het gebruik van populaire third-party GenAI tools zoals ChatGPT, Dall-E, Midjourney en GitHub Copilot voor uitdagingen op het gebied van data security voor vele organisaties. Werknemers zouden moeten worden voorgelicht over de risico’s van het plaatsen van sensitieve data in deze LLM modellen met hun persoonlijke accounts.

Drie belangrijke aandachtspunten bij gebruik van GenAI

Bedrijfsdata invoeren in een GenAI-tool kent nog steeds verschillende risico's. De drie belangrijkste aandachtspunten zijn datalekken en privacy, compliance en regelgeving, en verlies van grip op data. Bijvoorbeeld dat het model waarin de bedrijfsdata gedeeld wordt, als basis dient om output te genereren. Deze gegevens worden bovendien ook gebruikt voor de output van andere gebruikers en organisaties.

Het gebruik van externe AI-tools kan leiden tot een datalek of ongeautoriseerde toegang, wat in beide situaties een risico vormt voor de privacy van je klanten en het beschermen van vertrouwelijke bedrijfsdata kan bemoeilijken. De Algemene Verordening Gegevensbescherming (AVG) en de AI Act werken hand-in-hand om organisaties te verplichten om zorgvuldig na te denken over hoe ze (persoons)gegevens verzamelen, verwerken en beschermen bij het ontwikkelen en inzetten van GenAI-systemen. Dit heeft geleid tot strengere controles, verbeterde databeveiliging en grotere nadruk op transparantie en verantwoording.

De vraag is echter in hoeverre de wet- en regelgeving wordt nageleefd. Daarnaast moeten bedrijven er rekening mee houden dat hackers ook GenAI-tools gebruiken en een bedreiging vormen in de vorm van phishing, deepfakes, malware en brute-force aanvallen. Met behulp van AI kun je deze aanvallen sneller en eenvoudiger leren herkennen om je netwerk veiliger te maken.

Behoefte aan een aangepast beleid

Trainingen en opleidingen dragen bij om een groter bewustzijn en verhoogde kennis rond het gebruik van GenAI te genereren. Data governance zorgt ervoor dat gegevens op de juiste manier worden behandeld, bijvoorbeeld door middel van persoons- en bedrijfsgegevens anoniem te maken of te verbergen. Bedrijven kunnen daarvoor gebruik maken van software die de toegang van bepaalde domeinen en gegevens bewaakt of het Zero Trust principe toepassen.

“ManageEngine heeft verschillende tools ontwikkeld die bedrijven helpen hun netwerk beter te beveiligen, daarmee beantwoordt het aan de stijgende vraag naar access management tools en endpoint en security management programma’s,” observeert Ramprakash. “Wanneer een bedrijf actief stappen neemt, verkleint het risico op een datalek en versterkt het zijn grip op eigen data.”

De risico's van GenAI onderstrepen het belang van een duidelijk gegevensbeleid, zorgvuldige keuzes en de implementatie van aanvullende beveiligingsmaatregelen. Het is belangrijk dat een organisatie voldoet aan alle wet- en regelgeving rondom GenAI. Er ligt echter ook een grote verantwoordelijkheid bij de medewerkers zelf als het gaat om het ethisch gebruik van bedrijfsgegevens.

DIC Awards BW tm 21-10-2024 Dutch IT Security Day BW tm 15-10-2024
Gartner BN en BW tm 03-11-2024