
In de AI-verordening staan de regels voor het verantwoord ontwikkelen en gebruiken van AI door bedrijven, overheden en andere organisaties.
De verordening gaat gefaseerd in en zal op 2 augustus 2027 volledig van kracht zijn. Sinds 2 februari 2025 is een aantal AI-systemen al verboden en moeten organisaties die AI-systemen ontwikkelen of gebruiken, zorgen dat hun werknemers AI-geletterdheid zijn. Weer andere AI-systemen moeten vanaf 2 augustus 2026 aan extra vereisten voldoen.
AI-systemen moeten veilig werken
De AI-verordening is er om ervoor te zorgen dat iedereen in Europa erop kan vertrouwen dat AI-systemen veilig werken en dat grondrechten beschermd zijn. Bestaande wetten zoals de Algemene verordening gegevensbescherming (AVG) bieden al bescherming, bijvoorbeeld als AI-systemen worden gebruikt om persoonsgegevens te verwerken. Dit is echter onvoldoende om alle risico’s aan te pakken die bij AI komen kijken. Onverantwoord gebruik van AI kan bijvoorbeeld leiden tot discriminatie, beperkingen van onze vrijheden en misleiding en uitbuiting van mensen. De AI-verordening helpt ervoor te zorgen dat ontwikkelaars van AI-systemen risico’s aanpakken en dat daar toezicht op is.
Hoe hoger het risico, hoe strenger de regels
De AI-verordening deelt AI-systemen in aan de hand van risicogroepen. Hoe hoger het risico voor burgers en de samenleving als geheel, hoe strenger de regels. Belangrijke punten die de wet bijvoorbeeld regelt zijn dat:
- toepassingen die een onaanvaardbaar risico met zich meebrengen worden verboden;
- toepassingen die een hoog risico vormen aan strengere regels worden gebonden. Voorbeelden zijn AI-systemen die bedoeld zijn voor werving- en selectie of voor rechtshandhaving.
- er toezichthouders worden aangewezen die het naleven van de verordening kunnen handhaven, organisaties kunnen verplichten een product uit de handel te nemen en boetes kunnen opleggen.
Overzicht AI-verordening

Februari 2025
- AI-toepassingen met een onaanvaardbaar risico worden verboden.
- Organisaties moeten zorgen voor een toereikend niveau van AI-geletterdheid bij werknemers en andere personen die namens hen AI-systemen gebruiken.
Augustus 2025
- Toezichthouders op naleving van de AI-verordening in Nederland moeten bekend zijn. Aangewezen toezichthouders krijgen de bevoegdheid om maatregelen te nemen en boetes op te leggen.
- De regels voor aanbieders van zogenoemde AI-modellen voor algemene doeleinden gaan in. Deze modellen staan ook wel bekend als ‘general purpose AI’.
Augustus 2026
- Start van het toezicht op de verplichtingen voor AI met een hoog risico (omschreven in Bijlage III van de verordening).
- Start van het toezicht op transparantieverplichtingen voor bepaalde AI-systemen. Mensen moeten weten dat zij te maken hebben met een AI-systeem of door AI gegenereerde content.
- De Nederlandse ‘regulatory sandbox’ is gestart om advies te geven aan aanbieders van AI-systemen bij complexe vragen over de regels uit de AI-verordening.
Augustus 2027
- Start toezicht op AI met een hoog risico in bestaande gereguleerde producten (bijlage I AI-verordening).
- De AI-verordening is volledig van kracht.
Augustus 2030
Einde van de verlengde overgangsperiode voor bestaande AI bij overheidsorganisaties.
Systemen met onaanvaardbaar risico verboden
Systemen die een onaanvaardbaar risico met zich meebrengen zijn per 2 februari 2025 verboden. Een organisatie mag deze systemen dus niet langer aanbieden of gebruiken. Hieronder vallen bijvoorbeeld systemen en toepassingen die de vrije keuze van mensen te veel beperken, manipuleren of discrimineren. Denk aan systemen die worden gebruikt in of voor:
- ‘social scoring’ op basis van van bepaald sociaal gedrag of persoonlijke kenmerken;
- ‘predictive policing’ om strafbare feiten bij mensen te beoordelen of te voorspellen;
- het creëren of (via scraping) uitbreiden van databanken voor gezichtsherkenning;
- manipuleren of misleiden van mensen;
- emotieherkenning in de werkomgeving en het onderwijs;
- biometrische identificatie op afstand voor rechtshandhaving. Hier zijn wel enkele uitzonderingen van toepassing;
- biometrische categorisering, waarbij mensen op basis van biometrische gegevens, zoals vingerafdrukken of gezichtsafbeeldingen. in bepaalde gevoelige categorieën worden ingedeeld.
AI-geletterdheid
Organisaties die AI-systemen ontwikkelen of gebruiken, moeten sinds 2 februari 2025 zorgen dat hun werknemers ‘AI-geletterd’ zijn. Dit betekent dat zij ervoor moeten zorgen dat werknemers voldoende weten en kunnen om AI op een verantwoorde manier in te zetten.
Organisaties die AI-systemen ontwikkelen of gebruiken, zijn verplicht om maatregelen te nemen om AI-geletterdheid bij hun medewerkers te bevorderen. Welke maatregelen dat precies zijn, staat niet in de wet.
De AP adviseert organisaties om van AI-geletterdheid een prioriteit te maken en dit strategisch aan te pakken, bijvoorbeeld met behulp van een meerjarig actieplan voor het opbouwen van een volwassen niveau van AI-geletterdheid. Het document Aan de slag met AI-geletterdheid van de AP helpt hierbij.

Bron en meer informatie: Autoriteit Persoonsgegevens