Bias in AI: Waarom menselijke interventie belangrijk blijft!
In dit digitale tijdperk waarin kunstmatige intelligentie (AI) een steeds grotere rol speelt, is het essentieel om bewust te zijn van de potentiële valkuilen die AI met zich mee kan brengen. Algoritmische vooringenomenheid is één van die valkuilen. Een ander woord voor vooringenomenheid is bias, ofwel een vooroordeel tegenover iets of iemand.
Vooroordelen zijn erg nuttig. We hebben ze nodig om de wereld te kunnen bevatten. Doordat we bepaalde vooroordelen hebben, hoeven we niet steeds opnieuw alle informatie te verwerken die we binnen krijgen. Stel je voor dat je elke bloem die je ziet beter wil bekijken en ruiken, dat zou doodvermoeiend zijn. Gelukkig hebben we al een bepaald beeld bij hoe een bloem ruikt, dus dit hoeven we niet elke keer opnieuw te ontdekken.
Bias, oftewel vooroordelen in AI
Om in dit blog duidelijk te maken wat ik bedoel met vooroordelen in AI heb ik de AI tool Midjourney wat afbeeldingen laten genereren. Een bekende vooringenomenheid is een stereotype. Als je denkt aan een verpleegkundige, welk beeld komt er dan in je op? Volgens Midjourney ziet een verpleegkundige er als volgt uit:
En hier zie je meteen waar het mis gaat… We zien vier keer een jonge, blanke vrouw in een getailleerd uniform met een kapje op haar hoofd. Buiten het feit dat er alleen blanke vrouwen getoond worden, is de kleding ook behoorlijk stereotyperend. Het kapje valt onder de noemer ‘historische vooringenomenheid’. Mede daardoor lijkt het hier meer op een carnavalskostuum dan op een uniform wat hedendaagse verplegers aan hebben.
De belangrijkste reden voor deze algoritmische vooringenomenheid is de menselijke vooringenomenheid in de gegevens. Dat wil zeggen, dat de informatie die AI gebruikt om output te genereren, afkomstig is van mensen. Deze menselijke tendens om te discrimineren op basis van etniciteit, geslacht of andere factoren, wordt dus uitvergroot door AI.
Het westerse stereotype van een dokter wordt door de AI van Midjourney ook meteen bevestigd:
Juist, een witte man, vaak op leeftijd. Opvallend is wel dat de kleding bij de heren veel realistischer is dan bij de dames. Geen carnavaleske stoeipakjes voor de heren doktoren. Simpelweg omdat AI daar geen voorbeelden van heeft geleerd. Dit specifieke vooroordeel zien we ook terug in het echte leven. Want op de afdeling feestkleding hangen immers wel sexy zusterpakjes, maar geen sexy dokterpakjes. AI kan in beginsel alleen leren van wat het ‘gevoerd’ wordt door de mens en deze stereotypering zit ingebakken in onze samenleving.
AI houdt de mens een spiegel voor
Algoritmische vooringenomenheid is vaak niet het resultaat van opzettelijke keuzes, maar eerder een spiegelbeeld van de gegevens waarmee AI is getraind. Er zijn verschillende manieren waarop deze bias ontstaat:
- Verzamelde gegevens: Als de dataset waarop een AI-model is getraind niet representatief is voor de werkelijke bevolking of historische vooroordelen bevat, zal de AI deze waarschijnlijk repliceren.
- Ontwerp van het algoritme: De keuzes die ontwikkelaars maken bij het programmeren van AI kunnen onbewust vooroordelen introduceren door overwicht te geven aan bepaalde variabelen ten opzichte van anderen.
- Feedback loops: Wanneer AI-systemen voortdurend leren van hun eigen output, kunnen ze bestaande vooroordelen versterken zonder menselijk toezicht.
Conclusie
Terwijl AI blijft evolueren en steeds meer wordt geïntegreerd in onze professionele en persoonlijke levens, is het van cruciaal belang om actief strategieën te implementeren die algoritmische vooringenomenheid minimaliseren. De rol van menselijke tussenkomst blijft dus cruciaal.
Wilt je meer weten over hoe je AI op een verantwoordelijke manier kunt inzetten binnen jouw organisatie of wil je toegang tot een uitgebreide bibliotheek met prompts? Neem dan contact met ons op. Wij helpen je graag verder!
Melissa Pruijn
AVK Trainer/Coach en AI expert
Volg ons