'Organisaties moeten beveiligingsmaatregelen nemen tegen deepfake-oplichting'
Cybercriminelen maken steeds vaker gebruik van kunstmatige intelligentie om mensen op te lichten, onder andere door het inzetten van deepfakes. Deze technologie, waarmee stemmen of gezichten overtuigend kunnen worden nagebootst, stelt criminelen in staat om vertrouwen te winnen en gevoelige acties uit te lokken. Recente incidenten benadrukken het belang voor organisaties om hun beveiligingsprocedures kritisch te evalueren.

Een recent voorbeeld is de deepfake-aanval op Italiaanse topondernemers. Bestuurders van bedrijven als Armani en Prada werden benaderd door iemand die zich voordeed als de Italiaanse minister van Defensie, Guido Crosetto. Tijdens het gesprek, waarin criminelen een levensechte AI-gegenereerde imitatie van Crosetto gebruikten, werd gevraagd om losgeld te betalen voor de vrijlating van gegijzelde Italiaanse journalisten. Eén van de slachtoffers is oliemagnaat Massimo Moratti, die bijna een miljoen euro zou hebben betaald aan de criminelen.
Technologische oplossingen
Om dergelijke risico's te beperken kunnen organisaties technologische maatregelen nemen. Oproepfilters kunnen helpen om spambellers te identificeren en te blokkeren, terwijl het zichtbaar maken van beller-ID's op telefoons een extra controlepunt biedt.
Procesmatige afspraken
Technische oplossingen alleen zijn echter niet voldoende. Organisaties moeten ook duidelijke procesafspraken op papier zetten. Bij transacties boven een bepaalde drempelwaarde is het bijvoorbeeld verstandig om aanvullende verificaties toe te passen, zoals het gebruik van een veilig codewoord, een eenmalig wachtwoord of andere vormen van tweefactorauthenticatie.
Menselijke maatregelen
Het menselijke element blijft cruciaal in het voorkomen van fraude. Medewerkers die twijfels hebben over een verzoek kunnen persoonlijke controlevragen stellen die niet publiekelijk bekend zijn, zoals details die alleen de echte persoon zou kennen. Daarnaast kunnen zij de betreffende persoon terugbellen op een officieel bekend nummer, een e-mail naar een vertrouwd adres sturen of, indien mogelijk, persoonlijk contact zoeken.
De snelle opkomst van AI-gestuurde fraude onderstreept het belang van een verhoogd beveiligingsbewustzijn binnen organisaties. Deepfakes worden steeds realistischer en daardoor lastiger te onderscheiden van authentieke beelden. Daarom is het cruciaal dat medewerkers een kritische houding leren aannemen en niet blindelings vertrouwen op de ogenschijnlijke echtheid van een verzoek.
Door: Martin Krämer, Security Awareness Advocate bij KnowBe4