Waarom organisaties AI tools zoals Copilot niet moeten verbieden

Gepubliceerd op: 6 februari 2025Geschreven door:
Waarom organisaties AI tools zoals Copilot niet zouden moeten verbieden

Als kantoormedewerker heb je misschien gehoord dat je bepaalde AI-tools niet mag gebruiken vanwege bepaalde risico’s. Wellicht is ChatGPT al geblokkeerd op je werk en misschien zelfs Microsoft Copilot ook? Maar is dit wel de juiste aanpak? Waarom zouden organisaties het gebruik van AI tools juist niet moeten verbieden? Recent onderzoek en nieuwe wetgeving suggereert namelijk dat het beter is om je medewerkers “AI geletterd” te maken.

Waarom het verbieden van AI tools zoals Copilot niet werkt

Stel je voor: je organisatie blokkeert Copilot of ChatGPT. Maar wat gebeurt er dan? Je collega’s kunnen nog steeds:

  • Andere AI-tools gebruiken zoals Gemini, Claud, of erger nog: DeepSeek
  • Browser plugins met AI-functionaliteit gebruiken
  • Content kopiëren via hun telefoon naar AI-tools
  • Of zelfs in WhatsApp chatten met diverse AI tools zoals ChatGPT en Copilot

Het blokkeren van één of enkele tools lost dus weinig op. Sterker nog, het kan leiden tot “shadow-AI gebruik”: medewerkers die op eigen houtje en mogelijk onveilig AI-tools gaan gebruiken.

Wat zegt het DPIA onderzoek van Surf en SLM Rijk?

Recent is een uitgebreid DPIA onderzoek gedaan naar de risico’s van Microsoft 365 Copilot door Surf en SLM Rijk (de strategisch leveranciersmanager van de Nederlandse overheid voor Microsoft, Google en AWS). Hieruit blijkt dat veel risico’s niet alleen met de AI-technologie zelf te maken hebben, maar ook met:

  • Hoe de rechtenstructuur is opgebouwd in Teams en SharePoint bij jouw organisatie
  • Hoe “volwassen” een omgeving is ingericht met bijvoorbeeld dataclassificatie en aanvullende maatregelen om Copilot geen toegang te geven tot gevoelige (persoons)gegevens
  • Hoe Microsoft omgaat met gegevens (prompts) en de transparantie daarover. In de uitingen van Microsoft wordt beloofd dat de prompts niet buiten je eigen Microsoft tenant worden opgeslagen, maar blijkbaar is het niet naar tevredenheid van Surf en SLM Rijk aangetoond dat deze ook echt niet worden opgeslagen bij bijvoorbeeld de diagnostische gegevens

Verder is het zeer opvallend dat het feit dat AI onwaarheden kan genereren in het rapport als “hoog risico” is aangemerkt. Wat in mijn ogen een vreemd “hoog risico” is, aangezien mensen daar bij elke prompt op worden gewezen door de meeste tools. Tevens druist het in tegen de AI act, maar daar hieronder meer over. Veel van de genoemde risico’s zijn in mijn ogen echter beheersbaar met goede Microsoft 365 architectuur, afspraken en, natuurlijk, training.

Organisaties zijn verplicht om medewerkers te trainen in AI gebruik volgens de AI Act

De nieuwe Europese AI wetgeving, de AI Act, verplicht organisaties om medewerkers te trainen in het verantwoord gebruik van AI. Medewerkers die AI gebruiken in hun werk moeten vanaf februari 2025 “AI geletterd” zijn. Wanneer een organisatie voldoet aan deze eis, is één van de “hoog risico’s” uit het DPIA onderzoek, in mijn ogen, verkleind tot een acceptabel risico.

In de AI act staat ook de transparantieverplichting voor de grote taalmodellen zoals ChatGPT en Copilot. Deze verplichting is van kracht vanaf augustus 2025. Het is een beetje vreemd en niet echt in lijn met de AI Act dat deze transparantie nu al als “hoog risico” wordt aangeduid in de DPIA, terwijl de transparantie van de AI Act pas gegeven hoeft te worden vanaf augustus 2025.

Wat kunnen organisaties beter doen in plaats van het verbieden van AI tools?

In plaats van het verbieden van AI tools kunnen organisaties beter inzetten op:

  1. Training in verantwoord AI-gebruik, AI geletterdheid
  2. Duidelijke richtlijnen over waar AI wel/niet voor gebruikt mag worden
  3. De dialoog met elkaar aan gaan over de kansen en risico’s
  4. Goede ondersteuning bij vragen over AI-gebruik
  5. In pilots ervaren welke aanvullende maatregelen nog genomen moeten worden
  6. In kaart brengen van quick-wins bij AI gebruik, van slimme prompts tot Agents die processen kunnen ondersteunen

En nog ter afsluiting de open deuren als het gaat over verantwoord AI gebruik

  • Deel nooit persoonlijke gegevens of vertrouwelijke informatie met AI-tools
  • Controleer altijd de output van AI-tools
  • Gebruik AI als hulpmiddel, niet als vervanging van je eigen oordeel
  • Vraag bij twijfel advies aan je privacy officer of security specialist
  • Meld het als je denkt dat er iets mis is gegaan

Conclusie

Het simpelweg verbieden van AI-tools is geen effectieve strategie. Het is beter om te leren hoe je deze technologie verantwoord kunt inzetten. Dit vraagt om training en bewustwording, niet om blokkades.
Heb je vragen over het gebruik van AI-tools in jouw werk? Bespreek ze met je leidinggevende of privacy officer. Zij kunnen je helpen om AI op een veilige en nuttige manier in te zetten.

Wij denken uiteraard graag met je mee. Van het opstellen van een AI beleid, wegwijs maken in de AI Act tot het slimmer werken met AI tools en Copilot.
Neem voor meer informatie contact met ons op. Wij helpen je graag verder!