Hoe het reguleren van AI ondernemingen zal beïnvloeden
De razendsnelle ontwikkelingen op het gebied van kunstmatige intelligentie (AI)-technologieën zijn al moeilijk genoeg bij te houden. Maar leidinggevenden moeten ook de reikwijdte en mogelijke beperkingen van aankomende EU- en andere regelgevingsvoorstellen goed begrijpen wanneer ze deze potentieel baanbrekende tools implementeren, zo schrijft Arjo de Bruin van Nasuni in deze blog.
Nieuwe regels, met name de AI-wet van de EU (die in 2026 geratificeerd moet zijn), zijn van cruciaal belang voor bedrijven in Duitsland/Nederland. Juridische en beveiligingsafdelingen moeten ervoor zorgen dat hun organisaties zich aanpassen aan deze veranderende richtlijnen, terwijl bestuurders serieus moeten nadenken over deze nieuwe kaders en de mogelijke gevolgen ervan.
We gaan hier in op de implicaties van deze voorstellen—zowel voor de AI-industrie als voor technologieleiders op het gebied van bedrijfstechnologie die deze tools evalueren.
Overeenkomsten in aanpak AI
De executive order van de VS, de Britse Bletchley-verklaring en de AI-wet van de EU verschillen van elkaar, maar in essentie proberen ze allemaal de risico's van deze snel ontwikkelende technologie die AI heet en haar mogelijkheden aan te pakken. De overeenkomsten tussen de drie interventies kunnen op vier manieren worden ingedeeld:
- Potentieel risico. In alle drie de verklaringen worden bias in outputs, nieuwe kwetsbaarheden in de beveiliging en onbedoelde gevolgen genoemd als uitdagingen die toezicht door bedrijven vereisen. Alle drie geven prioriteit aan risicobeperking, maar benaderen de regelgeving op verschillende manieren.
- Coördinatie. Alle drie de voorstellen benadrukken de noodzaak aan coördinatie tussen overheden en de particuliere sector. Wat nog ontbreekt is het bepalen welke bedrijven dit gesprek vorm gaan geven.
- Veilige innovatie. Alle kaders beweren dat ze een evenwicht willen vinden tussen veiligheid en ethiek en tegelijkertijd innovatie willen ondersteunen. Ik ben er echter niet zeker van of deze beweringen waar zijn, hoewel de executive order van de VS lijkt te wijzen op de risico’s van het bevoordelen van techgiganten. Alle drie vermijden ze over het algemeen harde grenzen aan de AI-ontwikkeling zelf.
- Transparantie. Hoewel deze verklaringen over het algemeen gericht zijn op toepassingen met een hoog risico, accepteren ze alle drie dat AI-systemen met een lager risico ook transparant moeten zijn.
Weerspiegeling van verleden
De voorgestelde regelgevingskaders weerspiegelen wat we in het verleden hebben gezien van de drie VS, het VK en de EU: wat betreft focus, reikwijdte, controles en centrale regelgeving:
- Focus op regelgeving. De executive order van de Amerikaanse overheid is gericht op veiligheid, terwijl de AI-wet van de EU prioriteit geeft aan de rechten van burgers. De motivatie van de Bletchley Park-verklaring is moeilijker te achterhalen.
- Toepassingsgebied van de regelgeving. De voorgestelde AI-wet van de EU lijkt het meest gedetailleerd en implementeert regels in alle lidstaten, terwijl de andere kaders in dit stadium de voorkeur geven aan bredere beginselen.
- Controles en beperkingen. De AI-wet van de EU kan proberen om bepaalde toepassingen volledig te verbieden, terwijl de andere documenten meer gericht lijken te zijn op een risicogebaseerde aanpak.
- Centrale regelgeving. De verklaring van het Verenigd Koninkrijk en de AI-wet van de EU pleiten beide voor de oprichting van centrale regelgevers, in tegenstelling tot de executive order van de VS.
Deze kaders zullen ongetwijfeld veranderen, maar we beginnen nu een algemene richting te zien en te begrijpen hoe AI-governance op mondiaal niveau zou kunnen werken.
Internationale normen, certificering
Zijn er gebieden die nog moeten worden aangepakt? Ik zelf zou graag internationale normen of een certificeringsproces willen zien. Nieuwe AI-tools en hun basismodellen zouden moeten voldoen aan elementaire en betrouwbare internationale normen, zoals het nieuwe certificeringsprogramma van de Institute of Electrical and Electronics Engineers (IEEE) Standard Association, dat betrekking heeft op de ethiek van autonome systemen.
Werkbare standaarden zijn essentieel voor bedrijven om nieuwe technologieën en systemen in te voeren; het beheersen van de risico's die gepaard gaan met de inzet van AI zou bedrijven de zekerheid geven dat nieuwe tools betrouwbaar, veilig en bedrijfsklaar zijn.
Toch is er meer nodig dan alleen brede regionale normen. De AI-sector heeft ook een vangrails nodig. Ik hoop dat we een sterkere samenwerking tussen overheden zullen zien naarmate elk van de nieuwe kaders wordt vertaald in gemeenschappelijke, gedeelde regelgeving die een betrouwbare AI-ontwikkeling bevordert. We moeten er ook voor zorgen dat deze controles niet nadelig worden voor de landen, opkomende lokale AI-sectoren en bedrijven die zich wel aan de regels houden — in tegenstelling tot degenen die dat niet doen.
Geen gelijk speelveld
Het andere risico dat ondernemingen lopen als gevolg van de regelgeving, is dat we er niet in slagen een gelijk speelveld te creëren voor de ontwikkeling van AI. Het stellen van grenzen kan onbedoeld leiden tot AI-monopolies, omdat het cumulatieve effect van wetgeving en richtlijnen kleinere aanbieders buitensporige beperkingen kan opleggen. Met te veel regelgeving zouden alleen de grotere aanbieders realistisch gezien in staat kunnen zijn om aan de wettelijke vereisten te voldoen.
Hoewel bedrijven meestal de voorkeur geven aan gevestigde leveranciers, kunnen goede vangrails en gemeenschappelijke standaarden kleinere spelers echte kansen bieden met innovatieve nieuwe producten. En met AI is het van fundamenteel belang dat zowel burgers als bedrijven en belanghebbenden de door machines gegenereerde resultaten kunnen vertrouwen. Een praktisch regelgevend kader – zonder dominant of prescriptief te zijn – zal helpen om dat begrip op te bouwen.
Innovatie, vertrouwen, concurrentie
We hebben een omgeving nodig die zorgt voor innovatie, vertrouwen en concurrentie om een breed scala aan bedrijfsklare AI-tools te produceren. De uitdaging is om de juiste balans te vinden tussen toezicht en garanties voor aanbieders, belanghebbenden en burgers — zonder innovatie in de kiem te smoren.
Wanneer AI-diensten gemeengoed worden in ons leven, zullen regelgevende instanties op het gebied van AI heel wat werk voor de boeg hebben, vooral omdat de behoeften van bedrijven ondergeschikt zullen zijn aan het zorgen dat deze technologie het vertrouwen van mensen wint en in overeenstemming is met democratische waarden. Maar ik verwacht dat deze opkomende kaders innovatie zullen ondersteunen, concurrentie zullen bevorderen en standaarden zullen valideren, wat zal bijdragen aan een wijdverspreide adoptie door bedrijven van potentieel baanbrekende AI-tools.
Arjo de Bruin is solutions architect Benelux & Nordics bij Nasuni.