Wat we kunnen verwachten van AI en cybersecurity in 2025
In 2025 zal de markt nog steeds zijn ogen gericht hebben op de voordelen van AI. Ongecontroleerde inzet van AI brengt echter risico’s met zich mee die een grote impact kunnen hebben op de cybersecurity van een organisatie. Organisaties doen er goed aan zich zorgvuldig voor te bereiden op dreigingen die specifiek gericht zijn op mensen – aanvallen als social engineering en ransomware zullen dominant blijven.
Wat we kunnen verwachten van AI in 2025
Het aantal organisaties dat AI gebruikt, zowel voor cybersecurity als voor andere toepassingen, zal verder toenemen. Dit gaat gepaard met risico’s, zoals ‘shadow AI’. Hierbij worden AI-tools gebruikt zonder formele goedkeuring of toezicht van de IT-afdeling. Medewerkers kunnen onbewust gevoelige informatie lekken door deze informatie te gebruiken bij het trainen van een chatbot. Hierdoor kan deze informatie in geval van een cyberaanval eenvoudig worden gestolen, zelfs als deze normaal goed versleuteld zou zijn.
Bedrijven moeten daarom meer aandacht besteden aan het beheren van de informatie die medewerkers invoeren in AI-tools en uitleggen hoe AI veilig kan worden gebruikt met gevoelige data. Iedereen binnen de organisatie moet zich houden aan het AI-beleid, en eventuele wijzigingen moeten duidelijk worden gecommuniceerd. Door dit beleid te handhaven en te toetsen, kunnen bedrijven veilig gebruikmaken van AI en risico’s beperken.
‘Human-related’ cyberdreigingen in 2025
In 2025 blijven ransomware en social engineering de grootste dreigingen, omdat deze aanvalstechnieken effectief blijven. Organisaties moeten maatregelen zoals multi-factor authenticatie en toegangsbeheer blijven toepassen. Het stimuleren van een cultuur waarin medewerkers openlijk mogelijke dreigingen bespreken, zoals verdachte phishingmails, is ook belangrijk.
Regelmatige updates van securityprotocollen en gesimuleerde aanvallen zijn essentieel om goed voorbereid te blijven. Hiermee leren medewerkers op de juiste manier te reageren op dreigingen.
Daarnaast kunnen organisaties cyberdreigingen beperken door verdachte gebruikers te blokkeren op basis van geolocatie. Authenticatiepogingen vanuit hostingservers moeten worden geblokkeerd en VPN- en firewall-logs gedeeld met de security operations-provider, zodat het gebruik van VPN niet wordt gehinderd.
De impact van AI op human risk management
Cybercriminelen gebruiken steeds vaker geavanceerde AI-tools om hun aanvallen eenvoudig en op grote schaal te kunnen verfijnen. Phishing- en social engineeringaanvallen worden bijvoorbeeld steeds overtuigender door (vaak al eerder gestolen) persoonlijke informatie te gebruiken en de aanval specifiek te richten op bepaalde personen.
Naast de eerder genoemde maatregelen zoals een proactieve securitycultuur en het up-to-date houden van security protocollen is voortdurende monitoring op dreigingen cruciaal om tijdig te kunnen reageren op een aanval en de impact ervan te beperken. Helaas moeten ook de beste cybersecurityprofessionals wel eens pauze nemen, waardoor systemen kwetsbaar worden voor geavanceerde, AI-gedreven aanvallen. Organisaties zouden daarom managed detection and response (MDR) kunnen overwegen. Hiermee worden organisaties 24/7 gemonitord op dreigingen en wordt hun cybersecurity aanzienlijk versterkt.
Conclusie
Cybercriminelen blijven hun aanvalstechnieken verbeteren en zullen in 2025 vaker gebruikmaken van AI. De cybersecuritysector moet op hetzelfde tempo innoveren en organisaties ondersteunen bij het implementeren van de juiste maatregelen. Er zijn nu al stappen die organisaties kunnen nemen om goed voorbereid het nieuwe jaar in te gaan.
Door: Dan Schiappa (foto), Chief Product and Services Officer bij Arctic Wolf