Bias in AI
Wat is Bias in AI?
Bias in AI ontstaat wanneer een model systematisch bepaalde groepen, uitkomsten of perspectieven bevoordeelt of benadeelt. Het model is niet ‘bevooroordeeld’ zoals een mens, maar het reproduceert patronen uit de data waarop het getraind is. Als die data scheef is, is het model scheef.
Voorbeelden: een recruitmentsysteem dat mannelijke kandidaten bevoordeelt omdat de trainingsdata voornamelijk uit mannelijke succesvolle plaatsingen bestond. Een kredietbeoordelingsmodel dat bepaalde postcodes benadeelt. Een gezichtsherkenningssysteem dat minder goed werkt bij mensen met een donkere huidskleur.
Bias kan op meerdere punten ontstaan: in de trainingsdata (niet representatief), in het modelontwerp (bepaalde patronen worden versterkt), in de toepassing (het model wordt gebruikt voor iets waarvoor het niet bedoeld is) of in de evaluatie (je meet niet of het eerlijk werkt).
De oplossing begint met bewustzijn. Test je model op eerlijkheid, gebruik diverse en gebalanceerde trainingsdata, en bouw controles in die structurele scheefheid detecteren.
Voorbeeld uit de praktijk
Een woningcorporatie gebruikt AI om onderhoudsprioriteiten te bepalen. Na analyse blijkt dat het model systematisch meldingen uit bepaalde wijken lager prioriteert, omdat de trainingsdata een historische achterstand in die wijken weerspiegelde. Na herbalancering van de data werkt het systeem eerlijk.
Wat betekent dit voor jouw organisatie?
Agentech test elke AI-oplossing op eerlijkheid en representativiteit. Wij bouwen niet alleen slimme systemen maar ook eerlijke systemen die je als organisatie met vertrouwen kunt inzetten.
