Copilot gebruiken en voldoen aan de AI Act? Dit moet je weten!

Gepubliceerd op: 31 oktober 2024Geschreven door:
Copilot gebruiken én voldoen aan de AI Act? Dit moet je weten!

De invoering van de AI Act in Europa zorgt ervoor dat de inzet van AI technologieën door organisaties nu (terecht) onderworpen zijn aan duidelijke regelgeving. Dit heeft gevolgen voor organisaties die met AI werken, zoals de implementatie van Microsoft 365 Copilot in dagelijkse tools zoals Outlook, Word en Teams. Maar wat betekent deze wetgeving nu precies en wat moet je weten van de AI Act voor jouw organisatie?

Wat is de AI Act?

De AI Act is een nieuwe Europese verordening, net als de AVG, die regels stelt aan het gebruik van AI-systemen binnen Europa. Deze regels zijn ontworpen om de veiligheid van AI-gebruik te waarborgen én de privacy van personen te beschermen. De AI Act legt daarbij een sterke nadruk op het feit dat je als organisatie een ‘gebruiksverantwoordelijke’ wordt wanneer je AI inzet. Dit betekent dat je verplicht bent om zorg te dragen voor de juiste verwerking van gegevens en te voldoen aan strikte privacyregels. Zoals het uitvoeren van een Data Protection Impact Assessment (DPIA) wanneer persoonsgegevens verwerkt worden samen met een AI systeem. Lees meer over dit onderwerp in ons blog over AI, persoonsgegevens en DPIA.

Veel voorkomende risico’s bij het gebruik van Microsoft Copilot

Hoewel tools zoals Copilot het werken met AI toegankelijker maken, komt dit ook met verantwoordelijkheden. “With great power comes great responsebility”. Veel voorkomende risico’s die ik tegenkom in Copilot DPIA’s en risico analyses zijn:

  • Verkeerde prompts gebruiken waarbij de AI gevraagd wordt iets te doen wat niet is toegestaan of onder de categorie hoog risico valt
  • Rechten zijn niet juist ingesteld waardoor mensen toegang hebben tot teveel (gevoelige persoons-) gegevens

Over het ‘te veel rechten’-risico is al vaker geschreven, ook door ons (digitale hygiëne is enorm belangrijk). Verkeerde prompts gebruiken is eigenlijk ook best een groot risico. Door verkeerd/fout te prompten kan het zijn dat je het AI-systeem zodanig inzet dat dit als hoog risico moet worden beschouwd. Een voorbeeld hiervan is de prompt:

“Analyseer en screen deze 100 CV’s en selecteer de 5 beste kandidaten voor me”

Dit lijkt een handige taak, maar door deze opdracht zou Copilot betrokken raken bij gevoelige beslissingen zonder menselijke tussenkomst, wat een schending van zowel de AVG als de AI Act kan zijn. Nog riskanter zijn verboden prompts, zoals:

“Analyseer onze helpdesk chats en beoordeel onze helpdeskmedewerkers op vriendelijkheid en inlevingsvermogen” 

Dit raakt direct aan privacy en mag absoluut niet door een AI zonder menselijke supervisie worden uitgevoerd.

Hoe kun je Copilot verantwoord inzetten en voldoen aan de AI Act?

Om te voorkomen dat je organisatie onbedoeld in overtreding is met de AI Act en/of de AVG, is het belangrijk om bewust om te gaan met AI-toepassingen zoals Copilot. AVK kan je helpen je met een goede AI bewustwording, ook wel “AI geletterdheid” genoemd. Dit helpt je meer compliant te worden met de AI Act. Door onze AI Act Training en de AI Act e-learning videoreeks krijg je inzicht in wat de wetgeving inhoudt, hoe je AI correct gebruikt en hoe je een DPIA kunt uitvoeren.

Ben je benieuwd naar hoe jouw organisatie digitaal vitaal kan blijven, terwijl je veilig en verantwoord met AI werkt? Bekijk dan onze AI trainingen en leer hoe je slimmer met AI en Copilot kunt werken binnen de wettelijke kaders.

Wil je meer weten over de AI Act of onze trainingen? Neem gerust contact op en ontdek hoe wij jou kunnen ondersteunen bij de verantwoorde inzet van AI!

Bouke van Kleef
AVK Innovatiecoach en AI Expert