De AI Act: wat verandert wanneer?

De Europese AI Act is geen toekomstmuziek meer, maar realiteit. Sinds augustus 2024 is deze wet officieel van kracht en inmiddels zijn de eerste verplichtingen zichtbaar in de praktijk. In de komende jaren volgen stap voor stap nieuwe regels voor organisaties die kunstmatige intelligentie ontwikkelen, inkopen of gebruiken. De AI Act is de eerste uitgebreide wet ter wereld die kaders stelt voor veilig, transparant en verantwoord gebruik van AI. En dat raakt niet alleen techbedrijven of overheden, maar ook organisaties die AI inzetten in marketing, HR, zorg, financiën of onderwijs. In dit blog lees je op een toegankelijke manier wat er wanneer verandert, welke verplichtingen op komst zijn, en wat je als organisatie nú al kunt doen om voorbereid te zijn.
Waarom een AI Act?
De Europese Unie wil met de AI Act een duidelijke balans vinden tussen innovatie en bescherming. AI biedt enorme kansen, maar brengt ook risico’s met zich mee: van onbewuste discriminatie tot gebrek aan transparantie of manipulatie van gebruikers.
De kern van de wet:
- AI mag, zolang het veilig, uitlegbaar en eerlijk is.
- Hoe groter het risico van een systeem, hoe strenger de regels.
Sinds de invoering zien we dat organisaties steeds vaker hun AI-processen herzien, risico’s in kaart brengen en intern beleid opstellen. Steeds meer bedrijven erkennen dat niet alleen juridische naleving telt, maar ook het niveau van AI-geletterdheid binnen hun teams. AI-geletterdheid – weten wat AI is, wat het kan en wat de risico’s zijn – is een essentiële basis geworden om de AI Act goed toe te passen. Zonder die kennis is verantwoord gebruik moeilijk te waarborgen.
De tijdlijn: wat verandert wanneer?
De verplichtingen van de AI Act worden gefaseerd ingevoerd, zodat organisaties zich kunnen aanpassen. Hieronder de belangrijkste data:
- 1 augustus 2024 – De AI Act treedt in werking
De wet is officieel van kracht, maar nog niet alles geldt meteen. Er is bewust gekozen voor een gefaseerde invoering. - 2 februari 2025 – Verboden AI-systemen uit de roulatie
Vanaf deze datum mogen AI-systemen met een onacceptabel risico niet meer worden ingezet. Gebruik je AI in producten, klantinteracties of interne processen? Controleer dan of deze toepassingen niet onder deze verboden vallen. Denk aan:
- AI die mensen manipuleert (bijvoorbeeld via gedragsbeïnvloeding)
- Sociale scores die gedrag of persoonlijkheid beoordelen
- AI-toepassingen die kwetsbare groepen misleiden
- 2 augustus 2025 – Regels voor Generative AI en GPAI-modellen
Een belangrijke mijlpaal voor organisaties die werken met generatieve AI (zoals ChatGPT, Midjourney of Claude). Er komen verplichtingen voor:
- Transparantie over trainingsdata
- Auteursrechtenbescherming (geen ongeoorloofd gebruik van beschermd materiaal)
- Watermarking: AI-gegenereerde content moet herkenbaar zijn
- Risicobeoordeling van generieke AI-systemen (GPAI)
Voor marketeers en communicatieafdelingen betekent dit: duidelijk aangeven wanneer content AI-gegenereerd is, en bewust omgaan met data en auteursrecht.
- 2 augustus 2026 – High-risk AI systemen
AI-systemen met een hoog risico krijgen strengere eisen. Dit geldt voor toepassingen in bijvoorbeeld HR, onderwijs, gezondheidszorg, rechtspraak en kredietverlening. Bedrijven moeten:
- Gedetailleerde documentatie opstellen
- Een risicobeoordeling uitvoeren
- Zorgen voor menselijk toezicht
- Beoordelen of data representatief en eerlijk is
- 2 augustus 2027 – Overgangsperiode eindigt
AI-systemen die vóór augustus 2025 al in gebruik waren, moeten vanaf deze datum volledig voldoen aan de AI Act. Tot die tijd geldt een overgangsperiode

Wat betekent dit voor bedrijven?
De AI Act is niet alleen relevant voor grote techspelers. Ook mkb’s, adviesbureaus, gemeenten, zorginstellingen en onderwijsorganisaties krijgen ermee te maken.
De drie grootste veranderingen voor bedrijven:
- Transparantie als nieuwe standaard
Bedrijven moeten kunnen uitleggen hoe hun AI werkt, welke data wordt gebruikt, en wie verantwoordelijk is.
- Human-in-the-loop
Volledig geautomatiseerde beslissingen zonder menselijke controle worden beperkt. Organisaties moeten zorgen dat medewerkers kunnen ingrijpen of beoordelen wanneer een AI-systeem beslissingen neemt met impact op mensen.
- AI-beleid als onderdeel van compliance
Net als bij de AVG is een duidelijk AI-beleid straks onmisbaar. Denk aan richtlijnen voor verantwoord gebruik, training van medewerkers, en periodieke evaluaties.Wil je weten hoe jouw organisatie AI-beleid kan opstellen of verbeteren? Neem dan vooral contact op met ons.
Wat kun je nú doen?
Wachten tot 2027 is geen optie. De eerste verplichtingen zijn er al. Een aantal praktische stappen om nú te zetten:
- Inventariseer je AI-toepassingen
Breng in kaart waar AI in je organisatie wordt gebruikt (bijv. marketing, HR, automatisering). - Beoordeel het risico
Bepaal of toepassingen in een verboden, hoog- of laagrisicocategorie vallen. - Documenteer processen
Leg vast welke data wordt gebruikt, hoe beslissingen tot stand komen, en wie toezicht houdt. - Train medewerkers
Zorg dat teams weten wat er verandert en welke regels gaan gelden. - Volg updates
Houd publicaties van de Europese Commissie en nationale toezichthouders in de gaten (zoals de Autoriteit Persoonsgegevens in Nederland). - Voer periodieke audits uit
Controleer jaarlijks of je toepassingen voldoen aan de nieuwe vereisten.
Wat brengt de toekomst?
De AI Act is een levend kader: de komende jaren volgen aanvullende richtlijnen, standaarden en nationale wetten. Italië heeft bijvoorbeeld al aangekondigd een nationale AI-wet bovenop de EU-regelgeving te introduceren. Daarnaast komen er technische normen voor risicobeoordeling, veiligheid en transparantie (via CEN/CENELEC), en zullen rechterlijke uitspraken helpen om grijze gebieden op te helderen. Bedrijven die nu investeren in verantwoord en uitlegbaar AI-gebruik, creëren niet alleen juridische zekerheid, maar ook vertrouwen bij klanten en partners.
Conclusie
De AI Act is een mijlpaal voor verantwoord AI-gebruik in Europa. Waar AI lange tijd een vrij speelveld was, worden de regels nu duidelijker. Bedrijven die vandaag beginnen met voorbereiden, door transparantie te borgen, risico’s te evalueren en medewerkers te trainen, staan straks sterker. Gebruik de komende maanden om je AI-landschap in kaart te brengen, processen te documenteren en een beleid op te zetten. Zo maak je van naleving geen last, maar een strategisch voordeel.
AVK helpt organisaties bij het inzetten van AI tools zoals ChatGPT of Copilot binnen jouw organisatie en maakt medewerkers AI-geletterd. Samen zorgen we dat jij en jouw organisatie Digitaal Vitaal én compliant blijven.
Boris Kuipers
AVK AI Expert
















Volg ons