Wouter Hoeffnagel - 19 maart 2025

Gartner: AI-agents helpen cybercriminelen gebruikersaccounts sneller over te nemen

Cybercriminelen gaan AI-agents inzetten om gebruikersaccounts sneller te kunnen overnemen, voorspelt Gartner. De marktonderzoeker verwacht dat dankzij AI-agents cybercriminelen accounts 50% sneller kunnen overnemen dan nu.

Gartner: AI-agents helpen cybercriminelen gebruikersaccounts sneller over te nemen image

"Account takeover (ATO) blijft een aanhoudende aanvalsvector omdat zwakke authenticatiegegevens, zoals wachtwoorden, op verschillende manieren worden verzameld, waaronder datalekken, phishing, social engineering en malware," meldt Jeremy D'Hoinne, VP Analyst bij Gartner. "Aanvallers gebruiken vervolgens bots om een storm van inlogpogingen over verschillende diensten te automatiseren, in de hoop dat de inloggegevens op meerdere platforms zijn hergebruikt."

Interactie met AI-agents identificeren

AI-agents gaan meer stappen in ATO automatiseren, van social engineering op basis van deepfake-stemmen tot volledige automatisering van misbruik van gebruikersreferenties. Leveranciers spelen naar verwachting hierop in met de introductie van producten voor web-, app-, API- en spraakkanalen die interacties met AI-agents detecteren en classificeren.

"Gezien deze evoluerende bedreiging moeten veiligheidsleiders de overstap naar passwordloze, phishing-resistente MFA versnellen", legt Akif Khan, VP Analyst bij Gartner, uit. "Voor gebruikerssituaties waarin gebruikers een keuze hebben uit verschillende authenticatiemethoden, moeten gebruikers worden opgevoed en gemotiveerd om over te stappen van wachtwoorden naar multidevice passkeys waar dat nodig is."

Technologie-gestuurde social engineering

Ook technologie-gestuurde social engineering gaat een aanzienlijke bedreiging vormen voor de cyberveiligheid van bedrijven. Gartner voorspelt dat tegen 2028 40% van de social engineering-aanvallen zowel op bestuurders als op de bredere werkkrachten is gericht. Aanvallers combineren daarbij social engineering-tactieken met namaakrealiteitstechnieken, zoals deepfake-audio en -video, om werknemers tijdens telefoongesprekken te misleiden.

Hoewel vooralsnog slechts een paar opvallende incidenten zijn gemeld, laten deze incidenten zien hoe geloofwaardig deze dreiging kan zijn. Ook leidde de aanvallen tot aanzienlijke financiële verliezen voor getroffen organisaties.

Procedures en workflows aanpassen

"Organisaties moeten op de hoogte blijven van de markt en procedures en workflows aanpassen om beter weerstand te kunnen bieden tegen aanvallen die gebruikmaken van namaakrealiteitstechnieken," zei Manuel Acosta, Sr. Director Analyst bij Gartner. "Het opleiden van werknemers over het veranderende bedreigingslandschap met behulp van trainingen specifiek gericht op social engineering met deepfakes is een cruciale stap."

Gartner-klanten kunnen meer leren in 'Predicts 2025: Navigating Imminent AI Turbulence for Cybersecurity'. Leer hoe je cybersecurity AI-assistenten kunt evalueren in 'How to Evaluate Cybersecurity AI Assistants'.

Simac, Security Event - Fortinet 17/03 t/m 24/03 BN + BW Trend Micro World Tour 2025
Simac, Security Event - Fortinet 17/03 t/m 24/03 BN + BW