Schaduw-AI bestaat al in jouw organisatie – en dat is een kans!

Als leidinggevende in overheid, zorg, onderwijs of een enterprise-omgeving heb je waarschijnlijk al “AI-beleid” en de actualisering daarvan op de agenda staan. Maar eerlijk is eerlijk: de praktijk gaat vaak snel. Sneller dan je beleid effectief is. Medewerkers ontdekken handige prompts, testen tools, laten een samenvatting maken, schrijven sneller een mail of delen gewoon vertrouwelijke of zelfs gevoelige data met openbare AI-tools. Niet omdat ze roekeloos zijn, maar omdat de werkdruk hoog is en de belofte van AI heel tastbaar voelt.
TNO (Nederlandse Organisatie voor Toegepast Wetenschappelijk Onderzoek) zag die versnelling ook: het aantal gevonden generatieve AI-toepassingen bij Nederlandse overheidsorganisaties steeg van 8 (juni 2024) naar 81 (juni 2025). En het gebruik is breed: van gemeenten tot ministeries, met veel “assistenten” en chatbots die tekst- en informatieprocessen ondersteunen.
De vraag is dus niet óf AI je organisatie binnenkomt. De vraag is: maak jij het zichtbaar en veilig, of laat je het ondergronds gaan?
Schaduw-AI is een signaal, geen incident
Schaduw-AI (ongeautoriseerd of onzichtbaar AI-gebruik) voelt als risico. En ja, dat is het ook! Maar het is daarnaast óók een signaal:
- Er is een behoefte aan productiviteit en minder administratieve last;
- Mensen willen betere kwaliteit (helderder schrijven, sneller samenvatten);
- Teams zoeken richting: wat mag wel, wat niet, en hoe doe je het goed?
TNO beschrijft zelfs dat organisaties bewust een alternatief bieden voor openbare chatbots, juist om schaduwgebruik te voorkomen. En die gedachte is ijzersterk: als je alleen verbiedt, verplaatst het gedrag zich. Of zoals een respondent het kernachtig zegt: je kunt het afsluiten, maar “het water vindt wel een weg”. Digitale vitaliteit betekent: je medewerkers helpen om slim te werken én tegelijk veilig en verantwoord te blijven. En dat vraagt leiderschap.
Waarom dit juist nú relevant is
TNO laat zien dat GenAI vooral landt waar veel tekst en gegevens verwerkt worden. De grootste groepen toepassingen zitten in generieke processen en bedrijfsvoering (vaak interne chatbots) en in maatwerk/dienstverlening (bijvoorbeeld chatbots richting burgers). Dat herken je meteen in compliance-omgevingen: veel documentstromen, veel klantcontact, veel regels. Tegelijk waarschuwt TNO voor een valkuil: door druk en hoge verwachtingen kan een “technologie push” ontstaan AI inzetten omdat het moet, in plaats van omdat het een goed probleem oplost. De kans voor jou als leidinggevende: jij kunt AI van hype naar houvast brengen.
De AVK-bril: 3 pijlers voor digitaal vitaal werken met AI
Bij AVK Training & Coaching helpen we werkend Nederland digitaal vitaal te maken. In de praktijk zie je dat AI pas echt waarde toevoegt als drie pijlers samen optrekken:
Pijler 1: Digitale vaardigheden (AI én de dagelijkse tools)
AI-geletterdheid is geen “nice to have”. TNO noemt beperkte AI-geletterdheid als knelpunt: weinig kennis en ervaring kan innovatie en verantwoord gebruik remmen. En het gaat breder dan AI alleen: als Microsoft Teams, Microsoft 365, samenwerken in documenten en slim zoeken niet op orde zijn, wordt AI al snel een pleister op een rommelig proces. Wat jij wilt: vaardigheden die direct helpen in het werk (schrijven, samenvatten, analyseren, overleggen) én het vermogen om output kritisch te beoordelen.
Pijler 2: Compliance (security, privacy, archivering, AI-regelgeving)
TNO benoemt expliciet risico’s op fouten/misbruik en “hallucinaties”, plus vragen rond wet- en regelgeving. Daarnaast zijn impacttoetsen zoals DPIA en FRIA belangrijke instrumenten om privacy, grondrechten, data en ethiek mee te nemen. Hier hoort ook bij: informatiehuishouding en archivering. TNO noemt zelfs een categorie toepassingen rondom kennisverwerking, archivering en anonimiseren. Kortom: compliance is niet het slot op de deur, maar het fundament waarop je veilig kunt versnellen.
Pijler 3: Leiderschap en (digitaal) samenwerken
TNO noemt succesfactoren die je één-op-één herkent in volwassen digitale adoptie: leiderschap, formalisatie van verantwoordelijkheden, en stapsgewijs aandacht voor privacy, security en ethische aspecten én expliciet: bewust omgaan met mogelijk schaduwgebruik. Dit is jouw speelveld: je maakt het veilig om te experimenteren, maar niet vrijblijvend.
5 werkbare spelregels voor leidinggevenden (zonder “AI-politiestaat”)
Je hoeft niet morgen een perfect beleidsdocument van 40 pagina’s te hebben. Begin met afspraken die je morgen al kunt uitleggen.
1. Maak een simpele datagrens voor niet geselecteerde tools: “wat nooit in een prompt mag”
Voor compliance-organisaties is dit dé privacy-blunder in wording. Spreek af:
- Geen herleidbare persoonsgegevens
- Geen vertrouwelijke casusdetails
- Geen interne documenten die niet publiek gedeeld mogen worden
Koppel dit aan voorbeelden uit jullie praktijk. Mensen leren sneller van concrete situaties dan van abstracte regels.
2. Bied een veilig en goed alternatief (anders verlies je snel controle)
TNO observeert dat organisaties een goedgekeurde / interne chatbot aanbieden om schaduwgebruik te voorkomen. Die logica geldt overal: als jij geen veilige route biedt, zoeken teams zelf een route. Zorg dus voor een goedgekeurde set tools/accounts en maak die route sneller dan “stiekem”.
3. “Jij blijft eindverantwoordelijk”: output-check is verplicht
TNO noemt het risico op foute uitkomsten/hallucinaties en stelt de vraag: is het “goed genoeg” voor iets dat automatisch gaat? Maak het heel praktisch:
- AI mag schrijven, jij mag publiceren.
- AI mag samenvatten, jij checkt bron en nuance.
- AI mag een voorstel doen, jij neemt de beslissing.
En achter elke bullet kan je zetten “en jij neemt zelf verantwoordelijkheid”
4. Bouw een escalatieroute en leer van incidenten
In het rapport wordt een voorbeeld genoemd waarin een escalatieroute is ingebouwd (bij herhaald fout antwoord volgt contact met medewerker). Vertaal dat naar jouw organisatie: waar meld je twijfel, fouten of datalek-risico’s? Niet om te straffen, maar om het systeem beter te maken. Wat dat betreft is Gemeente Eindhoven een goed voorbeeld. Daar werd openbare AI gebruikt met persoonsgegevens en toen dat ontdekt werd, werd niet onder het kleed geschoven, maar gemeld en doorgepakt. Een volwassen aanpak.
5. Meet en stuur op adoptie en risico’s (zonder micromanagement)
Hier kun je modern werken slim inzetten. Denk aan:
- Microsoft Purview om meer grip te krijgen op datastromen, beleid en (waar beschikbaar) AI-gerelateerde inzichten, zoals met het AI DPSM dashboard.
- Microsoft Viva om adoptie en werkafspraken rondom samenwerken en focus te versterken.
Gebruik dit niet om mensen “te vangen”, maar om patronen te zien: waar ontstaat schaduwgebruik, waar ontbreekt training, waar is het proces te stroperig?
Schaduw-AI herkennen: 7 signalen die je serieus moet nemen
Zie je dit? Dan is het tijd om te begeleiden in plaats van te verbieden:
- Teams delen prompts en antwoorden in privé-appgroepen.
- “Even snel” teksten laten herschrijven met een publieke tool.
- Samenvattingen van vergaderingen zonder duidelijke opslag/archivering.
- Onzekerheid: “Mag dit eigenlijk wel?” zonder antwoord.
- Een wildgroei aan pilots zonder eigenaar of einddoel.
- Discussie over AI gaat alleen over tooling, niet over processen of waarden (technologie push).
- Kwaliteit van output varieert sterk—vaak door datakwaliteit en informatiehuishouding.
Van verbieden naar begeleiden: jouw volgende stap
Als leidinggevende hoef je niet alles zelf te weten. Je moet vooral zorgen dat het samen klopt: vaardigheden, compliance en samenwerking/leiderschap.
Mijn advies (vooruitkijkend en haalbaar):
- Start met een heldere “AI in het werk”-basisafspraak (datagrens + verantwoord gebruik).
- Regel een veilig alternatief en communiceer het zo dat het aantrekkelijk is.
- Investeer in AI-vaardigheden voor elke rol (van medewerker tot MT), inclusief kritisch beoordelen.
- Borg compliance stapsgewijs met impacttoetsen waar nodig (DPIA/FRIA), zonder innovatie te smoren.
- Maak het zichtbaar met een scan en stuur bij op gedrag en processen.
Wil je dit in jouw organisatie goed neerzetten?
Bij AVK helpen we organisaties die veel met compliance te maken hebben (overheid, zorg, onderwijs, enterprise) om digitaal vitaal te werken met AI, zodat je wél versnelt, zonder privacy- of security-blunders.
- Keynote: Van schaduw-AI naar digitaal vitaal werken (inspirerend, richtinggevend, met praktische spelregels voor leidinggevenden).
- Digitale Vitaliteitscan: snel inzicht in waar je staat op digitale vaardigheden (AI & Microsoft 365), compliance (security/privacy/archivering/AI-regels) en leiderschap & samenwerking—met een concrete routekaart naar volwassen gebruik.
Neem gerust contact met ons op, wij helpen je graag verder!
Bouke van Kleef
AVK Innovatiecoach
Gerelateerde trainingen







Volg ons