Skip to content
Dirk Jan Koekkoek2-mrt-2026 16:03:0715 min read

Regelgeving rond AI en modelbeheer: van EU AI Act tot DORA

De wereld van kunstmatige intelligentie en modelbeheer staat voor een ongekende regulatoire transformatie. Met de introductie van de EU AI Act en andere belangrijke wetgevingen zoals DORA, krijgen organisaties te maken met een volledig nieuwe juridische realiteit waarin AI-systemen niet langer in een grijs gebied opereren, maar onder strikte toezicht en governance vallen.

Stel je voor: je organisatie heeft jarenlang AI-modellen ingezet voor kredietbeoordeling, fraudedetectie of risicomanagement. Plotseling moet je aantonen dat deze systemen niet alleen effectief zijn, maar ook voldoen aan complexe Europese regelgeving. Dit is geen theoretisch scenario meer – dit is de praktijk van vandaag.

Wij begrijpen als geen ander hoe overweldigend deze nieuwe realiteit kan aanvoelen. Als specialist in finance, risk en data hebben wij organisaties door vergelijkbare regulatoire verschuivingen heen geloodst. De AI Act EU is geen uitzondering: het vraagt om een gestructureerde, praktische aanpak die jouw organisatie beschermt én voorbereid op de toekomst.

 

Wat is de EU AI Act en waarom is het zo belangrijk?

De EU AI Act is de eerste uitgebreide wetgeving ter wereld die kunstmatige intelligentie reguleert. Deze verordening, die geleidelijk wordt ingevoerd tussen 2024 en 2027, stelt duidelijke regels voor het ontwikkelen, implementeren en gebruiken van AI-systemen binnen de Europese Unie.

Wat maakt deze wetgeving zo bijzonder? Het gaat verder dan alleen technische specificaties. De EU AI Act Nederlands geïmplementeerd betekent dat organisaties hun complete AI-governance moeten herdenken – van ontwikkeling tot deployment, van risicobeoordeling tot documentatie.

"De EU AI Act is niet alleen wetgeving, het is een fundamentele verschuiving naar verantwoorde AI die vertrouwen en transparantie centraal stelt."

 

De verordening hanteert een risicogebaseerde benadering waarbij AI-systemen worden ingedeeld in verschillende categorieën: van minimaal risico tot onaanvaardbaar risico. Voor elk risiconiveau gelden specifieke verplichtingen en waarborgen. Dit betekent dat jouw organisatie moet bepalen in welke categorie elk AI-systeem valt en vervolgens de juiste maatregelen moet implementeren.

Denk aan een bank die AI gebruikt voor hypotheekaanvragen. Dit systeem valt onder "hoog risico" omdat het directe impact heeft op fundamentele rechten van burgers. Dezelfde bank gebruikt misschien ook AI voor interne procesoptimalisatie – dit valt onder een lagere risicoclassificatie. Beide systemen vragen om verschillende compliance-aanpakken.

 

De vier risicocategorieën van de AI Act

De AI Act EU onderscheidt vier hoofdcategorieën die elk hun eigen verplichtingen met zich meebrengen:

Onaanvaardbaar risico: AI-systemen die verboden zijn omdat ze fundamentele rechten schenden. Denk aan social scoring systemen of manipulatieve AI die kwetsbare groepen beïnvloedt.

Hoog risico: AI-systemen die gebruikt worden in kritieke sectoren zoals financiële dienstverlening, gezondheidszorg of rechtspraak. Deze systemen moeten voldoen aan strenge conformiteitseisen, waaronder grondige risicobeoordeling, transparantie en menselijk toezicht.

Beperkt risico: AI-systemen die interactie hebben met mensen, zoals chatbots. Hier geldt hoofdzakelijk een transparantieverplichting – gebruikers moeten weten dat ze met AI interacteren.

Minimaal risico: De meeste AI-toepassingen vallen in deze categorie en hebben vooralsnog geen specifieke verplichtingen onder de AI Act.

💡 Kernpunt: Organisaties moeten elk AI-systeem classificeren volgens deze risicocategorieën. Een verkeerde classificatie kan leiden tot compliance-problemen of gemiste kansen voor innovatie.

 

DORA: Digital Operational Resilience Act in combinatie met AI-regelgeving

Terwijl de EU AI Act zich richt op AI-systemen, introduceert DORA (Digital Operational Resilience Act) specifieke eisen voor digitale weerbaarheid in de financiële sector. Deze twee regelgevingen overlappen elkaar op cruciale punten, vooral als het gaat om AI-modellen die gebruikt worden voor kritieke financiële processen.

DORA verplicht financiële instellingen om robuuste risicomanagement frameworks te implementeren voor alle digitale systemen – inclusief AI-modellen. Dit betekent dat organisaties niet alleen moeten voldoen aan de AI Act voor hun kunstmatige intelligentie, maar ook aan DORA-vereisten voor operationele veerkracht.

Wat betekent dit in de praktijk? Een bank die AI gebruikt voor kredietrisicobeoordeling moet ervoor zorgen dat dit systeem niet alleen voldoet aan de transparantie- en bias-eisen van de AI Act, maar ook aan de continuïteit- en herstelcapaciteiten die DORA voorschrijft.

Deze overlap creëert complexiteit, maar biedt ook kansen voor geïntegreerde governance. Organisaties die slim omgaan met deze dubbele regelgeving kunnen sterke, toekomstbestendige AI-infrastructuren bouwen die voldoen aan beide frameworks.

 

Praktische uitdagingen van gecombineerde compliance

De combinatie van AI Act en DORA compliance brengt specifieke uitdagingen met zich mee. Ten eerste moet documentatie dubbel functioneren: AI-systemen moeten gedocumenteerd worden volgens AI Act-vereisten (zoals bias-testing en transparantie), maar ook volgens DORA-standaarden (zoals incident response en herstelplannen).

Ten tweede vereisen beide regelgevingen verschillende soorten tests en validaties. De AI Act focust op eerlijkheid, transparantie en nauwkeurigheid van AI-modellen. DORA daarentegen benadrukt stress-testing, cyberweerbaarheid en operationele continuïteit. Een effectieve compliance-strategie integreert deze verschillende testmethodologieën.

Ten derde moeten governance-structuren beide kaders ondersteunen. Dit betekent dat risicocommissies, auditfuncties en rapportageprocessen moeten worden aangepast om zowel AI-specifieke risico's als digitale operationele risico's te monitoren en beheren.

 

Modelbeheer onder de nieuwe regelgeving: best practices en implementatie

Effectief modelbeheer onder de nieuwe regelgeving vraagt om een gestructureerde aanpak die verder gaat dan traditioneel model risk management. De EU AI Act introduceert specifieke eisen voor AI-model lifecycle management die organisaties dwingen hun processen fundamenteel te heroverwegen.

Een robuust AI-modelbeheersysteem begint bij ontwikkeling en loopt door tot decommissionering. Elke fase in deze lifecycle heeft nu specifieke compliance-vereisten die moeten worden geïntegreerd in bestaande governance-processen.

Wat betekent dit concreet? Tijdens de ontwikkelingsfase moeten organisaties uitgebreide documentatie bijhouden over dataselectie, algoritme-keuzes en bias-mitigatie. In de implementatiefase zijn er eisen voor menselijk toezicht, gebruikerstraining en performance monitoring. En tijdens operationele gebruik moeten incidenten worden geregistreerd, prestaties worden gemonitord en regelmatige herbeoordelingen worden uitgevoerd.

"Modern modelbeheer is niet alleen een technische aangelegenheid – het is een strategische competentie die organisaties onderscheidt in een gereguleerde markt."

 

De vijf pijlers van AI Act-compliant modelbeheer

Risicogebaseerde governance: Elke AI-model moet worden geclassificeerd volgens AI Act-risicocategorieën. Dit bepaalt welke governance-processen, documentatie-eisen en validatieprocedures van toepassing zijn. Hoog-risico modellen vereisen uitgebreide conformiteitsbeoordelingen, terwijl laag-risico modellen met eenvoudigere processen kunnen volstaan.

Transparantie en explainability: Organisaties moeten kunnen uitleggen hoe hun AI-modellen tot beslissingen komen, vooral bij hoog-risico toepassingen. Dit gaat verder dan technische documentatie – het vereist begrijpelijke uitleg voor alle stakeholders, van eindgebruikers tot toezichthouders.

Bias-detectie en -mitigatie: Systematische processen voor het identificeren en aanpakken van vooringenomenheid in AI-modellen zijn niet langer optioneel. Organisaties moeten aantonen dat hun modellen eerlijk zijn en niet discrimineren tegen beschermde groepen.

Menselijk toezicht en controle: Hoog-risico AI-systemen mogen niet volledig autonoom opereren. Er moet altijd significante menselijke controle en oversight zijn, met duidelijke escalatieprocedures voor problematische situaties.

Continue monitoring en validatie: AI-modellen moeten continu worden gemonitord op prestaties, bias en onbedoelde effecten. Regelmatige hervalidatie zorgt ervoor dat modellen actueel en compliant blijven gedurende hun hele levenscyclus.

 

Implementatiestrategie: van theorie naar praktijk

Het implementeren van AI Act-compliance vraagt om een doordachte, gefaseerde aanpak die rekening houdt met de specifieke context en behoeften van jouw organisatie. Wij hebben organisaties door vergelijkbare regulatoire transities heen begeleid en weten dat succesvolle implementatie draait om drie kernprincipes: prioritering, integratie en adaptiviteit.

Begin met een grondige inventarisatie van alle AI-systemen binnen jouw organisatie. Dit klinkt eenvoudig, maar in de praktijk blijkt dat veel organisaties onvoldoende zicht hebben op hun complete AI-landschap. AI-functionaliteiten zijn vaak ingebouwd in bredere softwareoplossingen of ontwikkeld door verschillende afdelingen zonder centrale coordinatie.

Daarom starten wij altijd met een AI-discovery proces dat niet alleen technische systemen in kaart brengt, maar ook de business context, gebruikersgroepen en potentiële impact analyseert. Deze holistische benadering zorgt ervoor dat je implementatiestrategie gebaseerd is op complete informatie in plaats van aannames.

 

Fasering van AI Act implementatie

Fase 1: Assessment en prioritering (maanden 1-3)
Identificeer alle AI-systemen, classificeer ze volgens risicocategorieën en bepaal compliance-gaps. Focus eerst op hoog-risico systemen die al operationeel zijn – deze hebben prioriteit omdat non-compliance hier de grootste juridische en reputatierisico's met zich meebrengt.

Fase 2: Quick wins en kritieke fixes (maanden 4-6)
Implementeer snel uitvoerbare maatregelen zoals documentatie-updates, gebruikerstraining en transparantie-verbeteringen. Pak tegelijkertijd kritieke compliance-issues aan bij hoog-risico systemen om acute risico's te mitigeren.

Fase 3: Structurele governance (maanden 7-12)
Bouw robuuste, duurzame governance-processen die AI Act-compliance integreren in reguliere bedrijfsvoering. Dit omvat het aanpassen van ontwikkelprocessen, implementeren van monitoring-systemen en trainen van personeel.

Fase 4: Optimalisatie en uitbreiding (maand 13+)
Verfijn processen op basis van ervaring, breid compliance uit naar medium-risico systemen en bereid je voor op toekomstige regelgevingsontwikkelingen.

💡 Kernpunt: Successvolle AI Act-implementatie is een marathon, geen sprint. Organisaties die proberen alles tegelijk aan te pakken, raken overweldigd en maken kostbare fouten.

 

Governance en organisatorische aanpassingen

De AI Act EU vereist niet alleen technische aanpassingen, maar ook fundamentele veranderingen in organisatorische structuren en governance-processen. Traditionele IT-governance volstaat niet voor AI-systemen vanwege hun unieke karakteristieken zoals leergedrag, onvoorspelbaarheid en potentiële bias.

Effectieve AI-governance begint bij duidelijke rollen en verantwoordelijkheden. Wie is er verantwoordelijk voor AI-compliance? Wie neemt beslissingen over AI-model deployment? Wie monitort AI-prestaties en handelt incidenten af? Deze vragen moeten beantwoord worden voordat technische implementatie begint.

Wij adviseren organisaties om een AI Governance Committee op te richten dat rapporteert aan het hoogste bestuursniveau. Dit comité heeft de strategische verantwoordelijkheid voor AI-beleid, compliance-monitoring en risicomanagement. Operationeel wordt dit ondersteund door AI-specialisten binnen verschillende business units die dagelijkse monitoring en hands-on management uitvoeren.

 

Nieuwe rollen in AI-gedreven organisaties

De AI Act introduceert impliciet nieuwe organisatorische rollen die cruciaal zijn voor compliance en effectief modelbeheer:

AI Ethics Officer: Verantwoordelijk voor het waarborgen dat AI-systemen voldoen aan ethische standaarden en maatschappelijke verwachtingen. Deze rol overstijgt technische compliance en focust op de bredere impact van AI op stakeholders.

Model Risk Manager: Specialiseert zich in AI-specifieke risico's zoals bias, concept drift en adversariële aanvallen. Werkt nauw samen met traditionele risk management om geïntegreerde risicobeoordelingen uit te voeren.

AI Compliance Officer: Houdt toezicht op naleving van AI-regelgeving, coördineert met juridische teams en fungeert als liaison met toezichthouders. Zorgt ervoor dat compliance-processen up-to-date blijven met evoluerende regelgeving.

Explainable AI Specialist: Ontwikkelt en implementeert methoden om AI-beslissingen transparant en begrijpelijk te maken voor verschillende audiences. Cruciaal voor compliance met transparantie-eisen van de AI Act.

Deze rollen hoeven niet altijd fulltime posities te zijn, maar de verantwoordelijkheden moeten wel duidelijk belegd zijn. Kleinere organisaties kunnen deze functies combineren of uitbesteden aan gespecialiseerde partners.

 

Monitoring, auditing en rapportage onder nieuwe regelgeving

Continue monitoring van AI-systemen is een kernvereiste van de EU AI Act, maar gaat verder dan traditionele IT-monitoring. AI-systemen kunnen hun gedrag veranderen door learning algorithms, externe data-shifts of adversariële input. Dit vraagt om geavanceerde monitoring-strategieën die deze dynamiek kunnen detecteren en beheren.

Effectieve AI-monitoring combineert technische metriek met business impact-indicatoren. Technische monitoring focust op model accuracy, prediction stability en computational performance. Business impact-monitoring kijkt naar klantervaring, operationele efficiency en compliance-indicatoren.

Wat maakt AI-monitoring complex? Traditionele software vertoont voorspelbaar gedrag – als de input hetzelfde is, is de output identiek. AI-systemen kunnen echter verschillende outputs produceren voor identieke inputs, afhankelijk van hun training en learning state. Dit betekent dat monitoring-systemen moeten kunnen omgaan met inherente variabiliteit terwijl ze problematische afwijkingen detecteren.

 

Multi-dimensionale auditing voor AI-systemen

AI Act-compliance vereist auditing op meerdere dimensies die elk hun eigen methodologie en expertise vragen:

Technische audits focussen op model architectuur, data kwaliteit en algorithmic performance. Deze audits evalueren of AI-systemen technisch correct functioneren en voldoen aan specificaties.

Bias en fairness audits onderzoeken of AI-systemen eerlijk behandelen van verschillende groepen en individuen. Dit omvat statistische analyse van model outcomes en sociological impact assessment.

Transparantie audits beoordelen of AI-systemen voldoen aan explainability-eisen. Kunnen gebruikers en toezichthouders begrijpen waarom bepaalde beslissingen genomen worden?

Compliance audits verificeren of alle AI Act-vereisten nageleefd worden, van documentatie-volledigheid tot governance-processen. Deze audits hebben een juridische focus en bereiden organisaties voor op toezichthouder-inspecties.

Operationele audits evalueren hoe AI-systemen geïntegreerd zijn in business processen en of human oversight effectief functioneert.

"Auditing van AI-systemen is niet alleen een compliance-eis, het is een strategisch instrument voor continue verbetering en risicomitigatie."

 

Sancties, boetes en compliance-risico's: wat staat er op het spel?

De EU AI Act hanteert een stevig sanctieregime dat vergelijkbaar is met de GDPR. Organisaties die niet voldoen aan de regelgeving, kunnen boetes krijgen tot 35 miljoen euro of 7% van de wereldwijde jaarlijkse omzet – afhankelijk van wat hoger is. Deze bedragen maken duidelijk dat AI-compliance geen optionele aangelegenheid is.

Maar het gaat verder dan alleen financiële sancties. Non-compliance kan leiden tot operationele beperkingen, zoals verboden op het gebruik van bepaalde AI-systemen of verplichte aanpassingen die business continuïteit verstoren. Voor organisaties in gereguleerde sectoren kunnen AI Act-overtredingen ook gevolgen hebben voor hun operationele licenties.

Wat vele organisaties onderschatten, is het reputatierisico van AI-gerelateerde incidenten. In een tijd waarin AI steeds meer maatschappelijke aandacht krijgt, kunnen compliance-problemen leiden tot significant vertrouwensverlies bij klanten, partners en stakeholders. Dit makes het business case voor proactieve compliance nog sterker.

 

Risicomitigatie door proactieve compliance

Wij geloven dat de beste risicomitigatie-strategie proactiviteit is. Organisaties die wachten tot de laatste moment om compliance aan te pakken, lopen niet alleen juridische risico's maar missen ook concurrentievoordelen van goed geïmplementeerde AI-governance.

Proactieve compliance betekent dat je AI-systemen niet alleen voldoen aan minimale wettelijke eisen, maar ook aan emerging best practices en stakeholder-verwachtingen. Dit creëert buffer voor toekomstige regelgevingsontwikkelingen en positioneert jouw organisatie als responsible AI leader.

Praktisch betekent dit investeren in robuuste documentation practices, implementing cutting-edge bias detection tools, en training teams in AI ethics en transparency. Deze investeringen betalen zich terug door verminderde compliance-risico's, verbeterde stakeholder-relaties en competitive differentiation.

💡 Kernpunt: Compliance-kosten lijken hoog, maar de kosten van non-compliance – financieel, operationeel en reputationeel – zijn exponentieel hoger.

 

Toekomstperspectief: wat komt er nog aan?

De EU AI Act is pas het begin van een wereldwijde golf van AI-regelgeving. Verschillende jurisdicties werken aan hun eigen frameworks, en internationale coordinatie tussen toezichthouders neemt toe. Voor organisaties met internationale activiteiten betekent dit navigeren door een increasingly complex regulatory landscape.

Tegelijkertijd evolueert AI-technologie sneller dan regelgeving kan volgen. Generative AI, foundation models en autonomous systems introduceren nieuwe capabilities en risico's die huidige regelgeving mogelijk niet volledig dekken. Dit betekent dat organisaties moeten anticiperen op toekomstige regulatory developments terwijl ze compliance behouden met current requirements.

Wij verwachten dat de komende jaren gekenmerkt zullen worden door regulatory refinement en technological advancement die elkaar voortdurend beïnvloeden. Succesvolle organisaties zijn degenen die adaptive compliance-strategieën ontwikkelen die kunnen meebewegen met both regulatory changes en technological innovations.

 

Strategische voorbereiding op de toekomst

Hoe bereid je jouw organisatie voor op een onzekere maar onvermijdelijk gereguleerde AI-toekomst? Begin met het bouwen van adaptive capabilities in plaats van rigid compliance-processen. Investeer in teams die both technical expertise en regulatory knowledge combineren. Ontwikkel partnerships met technology providers, legal experts en industry peers die collective intelligence kunnen bieden.

Belangrijker nog: zie AI-regelgeving niet als beperking maar als enabler voor sustainable innovation. Organisaties die excellence in AI-governance bereiken, kunnen sneller innoveren omdat ze vertrouwen hebben in hun compliance-processen. Ze kunnen AI-systemen deployen met confidence, knowing dat ze responsible en regulatory-sound zijn.

De toekomst behoort toe aan organisaties die AI-compliance transformeren van cost center naar competitive advantage. Dit vraagt om strategische visie, operational excellence en continuous learning – precies de competenties die Firm C helpt ontwikkelen bij haar klanten.

 

Conclusie: van compliance naar competitive advantage

De introductie van de EU AI Act en gerelateerde regelgeving zoals DORA markeert een watershed moment voor organisaties die AI gebruiken. Deze regelgeving is niet alleen een juridische verplichting – het is een kans om AI-governance te transformeren van een afterthought naar een strategic differentiator.

Organisaties die proactief investeren in robuuste AI-compliance bouwen niet alleen juridische bescherming op, maar creëren ook operational excellence, stakeholder trust en innovation capacity. Ze ontwikkelen capabilities die hen onderscheiden in een markt waar AI steeds centraler staat in business value creation.

De journey naar AI Act-compliance is complex, maar niet overweldigend als je de juiste expertise en strategic approach hanteert. Het vereist combining technical innovation met regulatory rigor, operational efficiency met ethical responsibility, en short-term compliance met long-term strategic positioning.

Wij hebben organisaties door vergelijkbare transformaties begeleid en begrijpen zowel de uitdagingen als de kansen die voor je liggen. Of je nu aan het begin staat van je AI-compliance journey of al progress hebt geboekt maar optimalisatie zoekt – de time to act is now. De regelgeving wordt steeds gedetailleerder, enforcement steeds strenger, en competitive advantages van early movers steeds duidelijker.

De vraag is niet of jouw organisatie zal moeten voldoen aan AI-regelgeving, maar hoe je dit gaat doen op een manier die waarde creëert in plaats van alleen kosten. Dat is waar echte expertise en strategic partnership het verschil maken.

 

Veelgestelde vragen:

Wat is de EU AI Act en waarom is deze belangrijk voor Nederlandse bedrijven?

De EU AI Act is nieuwe Europese wetgeving die regels stelt aan het gebruik van kunstmatige intelligentie. Voor Nederlandse bedrijven in de financiële sector betekent dit dat zij moeten voldoen aan strenge eisen voor AI-systemen, vooral bij risicovolle toepassingen zoals kredietbeoordeling en fraudedetectie.

Hoe helpt Firm C bedrijven met compliance rond AI-regelgeving?

Firm C combineert expertise in risk management, data science en regelgeving om bedrijven te ondersteunen bij AI-compliance. Door hun ervaring met regulatoire frameworks en data management kunnen zij organisaties helpen bij het implementeren van governance structuren voor verantwoord AI-gebruik.

Wat is DORA en hoe verhoudt dit zich tot AI-regelgeving?

DORA (Digital Operational Resilience Act) richt zich op digitale weerbaarheid in de financiële sector. Deze regelgeving overlapt met AI-regelgeving doordat beide governance, risicobeheer en operationele controles vereisen voor digitale systemen en processen.

Welke sectoren hebben de meeste baat bij ondersteuning rond AI-regelgeving?

Bancaire instellingen, verzekeraars en pensioenorganisaties staan vooraan in AI-compliance uitdagingen. Deze sectoren gebruiken veel AI voor besluitvorming en hebben strikte regulatoire verplichtingen, wat maatwerk implementatie van compliance frameworks vereist.

Hoe implementeert Firm C praktische AI governance oplossingen?

Firm C hanteert een pragmatische aanpak waarbij zij niet alleen strategisch advies geven, maar ook de volledige implementatie begeleiden. Van het ontwikkelen van data governance frameworks tot het opzetten van controlesystemen voor AI-modellen - altijd met focus op praktische, werkbare oplossingen.

Wat zijn de grootste risico's bij het niet naleven van AI-regelgeving?

Niet-naleving kan leiden tot hoge boetes, reputatieschade en operationele problemen. Vooral in de financiële sector kunnen organisaties hun vergunning verliezen. Firm C helpt deze risico's te identificeren en te mitigeren door robuuste compliance frameworks te implementeren.

GERELATEERDE ARTIKELEN