Nieuw EU-plan moet aanpak online kindermisbruik ondersteunen
Er is een nieuw wettelijk kader in de maak om grote internetplatformen beelden van seksueel kindermisbruik te laten identificeren en verwijderen. Dat plan zou geen impact hebben op end-to-end encryptie.
Het plan is een opvolger van een omstreden wetsvoorstel rond CSAM (child sexual abuse material, beelden van seksueel kindermisbruik). Aanvankelijk zou dat plan techbedrijven verplichten om alle content van gebruikers te scannen, wat een zware schending van de privacy zou zijn.
Het nieuwe plan zou volgens Reuters diezelfde spelers verplichten om beelden te identificeren en verwijderen, maar zonder dat encryptie wordt omzeild. Details zijn er nog niet; die worden komend jaar met de lidstaten afgetoetst, om vervolgens tot een finale wettekst te komen.
Beelden en grooming detecteren
De wet zou van toepassing zijn om zowel berichtendiensten (zoals WhatsApp of Signal), als internetproviders en app stores, waarbij ze zowel bekende beelden als nieuwe beelden van misbruik moeten detecteren en verwijderen. Ook grooming, online kinderlokking, moet worden gedetecteerd. Hoe dat zal gebeuren zonder de inhoud van een chatgesprek te monitoren is onduidelijk.
Reuters schrijft dat er ook beperkingen komen, bedoeld om te voorkomen dat de wet wordt gebruikt voor massasurveillance. Zo zijn er beperkingen rond de omstandigheden waarbij autoriteiten mogen zoeken naar zulk materiaal. Dat zal bijvoorbeeld enkel kunnen als er redelijke vermoedens zijn van misbruik. Ook kunnen bedrijven zelf de technologie kiezen waarmee ze die misdrijven opsporen, zo lang die technologie een audit kan ondergaan.
In samenwerking met Data News