AI levert voor securityprofessionals kansen en uitdagingen op
De voortdurende ontwikkelingen in AI werken twee kanten op voor security-teams waarbij senior cybersecurity-professionals zich enerzijds voorbereiden op een vloedgolf aan nieuwe AI-gebaseerde cyber-bedreigingen, terwijl aan de andere kant AI ook op grote schaal wordt gebruikt om de beveiliging te versterken.
Dit blijkt uit het Identity Security Threat Landscape Report 2023 van CyberArk. Volgens het onderzoek wil vrijwel ieder Nederlands cybersecurity-team (99 procent) kunstmatige intelligentie (AI) grootschalig inzetten, waarbij velen AI al gebruiken voor risicoanalyse van kleinere bedreigingen. Andere landen scoren vergelijkbare percentages, behalve het Verenigd Koninkrijk; daar zijn specialisten met 88 procent wat terughoudender met de inzet van AI voor security-doeleinden. Generatieve AI (GenAI) wordt met name al gebruikt om sneller ongebruikelijke elementen in gedrag te identificeren en de cyber-weerbaarheid te verbeteren, waardoor teams meer tijd hebben om zich bij te scholen op het gebied van veranderende bedreigingen of om beveiliging te ontwikkelen om steeds innovatievere cyberaanvallen te bestrijden.
“Menselijk talent blijft van cruciaal belang voor het bestrijden van opkomende bedreigingen, maar we hebben een tekort aan specialisten. Volgens de ISC Cybersecurity Workforce Study loopt dat zelfs op naar 3,4 miljoen mensen. AI moeten we inzetten om de gaten te dichten die ontstaan door dit tekort”, aldus David Higgins, senior director, Field Technology Office bij CyberArk.
Nieuwe kwetsbaarheden en dreigingen
De steeds populairdere GenAI-tools zorgen echter ook voor een hele nieuwe lading aan kwetsbaarheden in de beveiliging en baren beveiligingsprofessionals zorgen. Uit onderzoek van CyberArk blijkt dat 98 procent verwacht dat AI-bedreigingen hun organisatie het komende jaar negatief zullen beïnvloeden. Dit percentage ligt wat hoger dan het internationale en Europese gemiddelde (beide 93 procent). Landen die zich minder zorgen maken zijn Italië (85 procent), het VK en Brazilië (allebei 87 procent).
De grootste zorg voor de Nederlandse respondenten is de stijgende impact van kwalijke code die door AI-tools wordt geschreven, op de voet gevolgd door chatbot-beveiliging. In veel andere landen staat die laatste bovenaan, vooral vanwege de mogelijkheden voor aanvallers om zich voor te doen als werknemers en zo makkelijker phishing-, malware- en ransomware-campagnes uit te voeren.
Aanvallers gebruiken GenAI al om legitiem ogende e-mails te maken voor phishing-campagnes of malware te genereren die gezichtsherkenningsverificatie of detectie omzeilt. Dergelijke technieken werden vorig jaar al onthuld in CyberArk-onderzoek, waaruit bleek dat aanvallers ChatGPT konden gebruiken om schadelijke code te genereren en polymorfe malware te maken die zeer moeilijk op te merken is door de meeste anti-malwareproducten.
'Ga uiterst voorzichtig om met AI'
“Cybersecurity-teams moeten uiterst voorzichtig omgaan met AI. De onbetwistbare voordelen ervan afwegen tegen de aanzienlijke risico's die het met zich meebrengt, is geen eenvoudige taak”, zegt Higgins. “Het gebruik van AI creëert een explosie van machine-identiteiten die kwaadwillende spelers kunnen uitbuiten om toegang te krijgen tot vertrouwelijke gegevens en controles.”
Higgins: “Het opstellen van AI-specifieke bedrijfsrichtlijnen, het publiceren van gebruiksbeleid en het bijwerken van cybersecurity-trainingen voor werknemers zijn een must. Zorgvuldigheid is geboden voordat AI-tools worden geïntroduceerd, want dat is de meest effectieve manier om risico's te beperken en kwetsbaarheden te verminderen. Zonder de juiste identiteitsbeveiligingscontroles en malware-agnostische verdedigingsmechanismen wordt het al snel moeilijk om innovatieve bedreigingen in grote volumes in te dammen die referenties kunnen compromitteren op weg naar toegang tot gevoelige bedrijfsgegevens en -middelen.”