Gratis eBook: Waarom organisaties een AI-beleid nodig hebben.

AVK AI Trainer Marieke van der Pol schreef het handige en praktische eBook: “Waarom organisaties een AI-beleid nodig hebben”. Deze kun je nu gratis downloaden op onze site. Hierbij alvast een voorproefje van de inhoud van het gratis eBook met een praktische checklist om zelf een AI-beleid te kunnen opstellen.
Inleiding eBook: Waarom organisaties een AI-beleid nodig hebben.
“Mag ik ChatGPT gebruiken voor het samenvatten van patiëntendossiers?” De vraag komt van een zorgcoördinator, ergens halverwege een AI-training. Voor ik kan antwoorden, voegt ze eraan toe: “Want mijn collega zegt dat het niet mag, maar ik heb het vorige week nog zien gebeuren in een teamoverleg.” Ik stel de wedervraag: “Wat zegt jullie AI-beleid daarover?” Stilte. Dan: “We hebben wel iets, geloof ik. Maar ik weet niet waar dat staat.”
Dergelijke gesprekken voer ik wekelijks, in variaties. Een docent die niet weet of hij AI-gegenereerde illustraties mag gebruiken in lesmateriaal. Een HR-adviseur die twijfelt over een tool die cv’s screent. Medewerkers die wél weten dat er ergens beleid is, maar niet weten hoe ze dat moeten vinden, laat staan toepassen op hun concrete werksituatie. Wat opvalt: lang niet alle organisaties hebben AI-beleid. En als er wel beleid is, betekent dat nog niet dat iedereen daarvan af weet en zich daaraan houdt. Beleid dat in een la ligt, geschreven in juridisch jargon, onvindbaar op een intranetpagina die niemand bezoekt. Beleid dat antwoord geeft op vragen die niemand stelt, terwijl de echte vragen onbeantwoord blijven. En ondertussen? Gebruiken medewerkers AI. Dagelijks. Ze improviseren, nemen hun eigen beslissingen, of doen maar wat hun collega doet. Niet omdat ze onverantwoordelijk zijn, maar omdat ze geen bruikbaar kompas hebben.
AI-beleid als kompas: van beperking naar ondersteuning
Effectief AI-beleid begint met een andere mindset. Niet “wat moeten we verbieden om risico’s te vermijden?”, maar “hoe kunnen we AI veilig en effectief inzetten zodat onze medewerkers beter kunnen werken?” En niet minder belangrijk: hoe past AI-gebruik binnen de visie en identiteit van onze organisatie? Dit onderscheid klinkt subtiel, maar heeft grote gevolgen voor hoe beleid wordt ontvangen en toegepast. Beleid dat enkel vertelt wat niet mag, creëert weerstand. Het positioneert AI als bedreiging die moet worden ingeperkt. Medewerkers voelen zich niet gesteund maar beperkt, en de neiging om creatieve omwegen te zoeken neemt toe. Beleid dat daarentegen duidelijk maakt hoe AI wel kan worden ingezet, werkt als kompas. Het biedt medewerkers houvast bij concrete situaties. Welke tools zijn goedgekeurd en waarom? In welke contexten kan AI een nuttige ondersteunende rol spelen? Wanneer is menselijke expertise essentieel en kan AI hooguit assisteren? En misschien wel het belangrijkste: waar kunnen medewerkers terecht met vragen die niet expliciet in het beleid staan? Want laten we eerlijk zijn: geen enkel beleid kan álle situaties voorzien. AI-technologie ontwikkelt zich te snel, en de toepassingen zijn te divers. Een werkbaar AI-beleid erkent die beperking en biedt alternatieven. Het benoemt contactpersonen of afdelingen waar medewerkers hun vragen kwijt kunnen. Is dat de IT-afdeling? HR? Een speciaal aangestelde AI-coördinator? Zonder die helderheid blijven medewerkers gissen, en ontstaat opnieuw de onduidelijkheid die we juist proberen te voorkomen.
Een ander cruciaal element is verantwoordelijkheid. AI-systemen maken fouten, genereren onjuiste informatie, of reproduceren onbedoelde vooroordelen. Wanneer een AI-tool verkeerde output geeft die wordt overgenomen in een rapport, een advies, of een besluit: wie is daar dan verantwoordelijk voor? De medewerker die de tool gebruikte? De leidinggevende die toestemming gaf? De organisatie die de tool beschikbaar stelde? Deze vragen moeten beantwoord zijn vóórdat er iets misgaat. Een helder AI-beleid legt vast waar de verantwoordelijkheden liggen. Het maakt bijvoorbeeld duidelijk dat AI-output altijd moet worden gecontroleerd door een professional voordat deze wordt gebruikt in besluitvorming. Of dat bepaalde typen beslissingen, bijvoorbeeld in HR-trajecten of bij diagnostiek in de zorg, nooit volledig aan AI mogen worden overgelaten. Die grenzen trekken beschermt zowel de organisatie als de individuele medewerker.
En dan is er nog de wettelijke kant. De Europese AI-act verplicht organisaties om te beoordelen of hun AI-toepassingen vallen onder hoogrisico-categorieën of zelfs verboden praktijken. HR-systemen die sollicitanten screenen vallen bijvoorbeeld vaak onder hoogrisico. Zelfs wanneer een toepassing uiteindelijk niet als hoogrisico wordt geclassificeerd, moet de organisatie kunnen aantonen hoe die beoordeling tot stand is gekomen. Zonder gedocumenteerd beleid wordt dat een lastige exercitie achteraf.
Nieuwsgierig geworden naar de rest?
Laat je gegevens achter en ontvang een mail met daarin de link om het eBook gratis te downloaden.
Gerelateerde trainingen



















Volg ons