The Inclusion Studio / Insights  / We projecteren onze idealen op AI – maar krijgen onze vooroordelen terug

We projecteren onze idealen op AI – maar krijgen onze vooroordelen terug

AI voelt als de belofte van objectiviteit. Alsof we eindelijk een systeem hebben gebouwd dat vrij is van vooroordelen – rationeel, eerlijk, transparant. Maar dat is een illusie.
Neem het onderzoek dat deze week verscheen op MT/Sprout: ChatGPT adviseert een mannelijke sollicitant om 400.000 dollar te vragen voor een baan als medisch specialist. Zijn vrouwelijke tegenhanger? 280.000. Zelfde cv. Zelfde functie.
Onderzoekers van drie Duitse universiteiten tonen aan dat populaire AI-modellen structureel lagere loonadviezen geven aan vrouwen, mensen van kleur, en vluchtelingen – ongeacht ervaring of opleiding. (Bron: Wilke Wittebrood, MT/Sprout, 28 juli 2025)
Dit is de crux:
AI is niet wie we wíllen zijn – objectief, eerlijk, inclusief –
AI is een kopie van wie we nu al zijn. En dus ook van onze ongelijkheden.
De fundamentele fout die veel organisaties maken, is dat ze AI behandelen als een neutrale adviseur. Maar AI leert niet van principes – het leert van patronen. En onze data bevatten nu eenmaal decennia aan uitsluiting, stereotypen en bias.
Zolang we die bias automatiseren, versterken we hem. Wat vroeger een blinde vlek van één beoordelaar was, wordt nu embedded in schaalbare software. En erger: het krijgt een schijn van objectiviteit. Wat “de computer zegt”, voelt als waarheid – zelfs als het onrechtvaardig is.
In mijn werk zie ik hoe vaak organisaties hun moreel kompas uitbesteden aan techniek. Maar eerlijkheid is geen spreadsheet. En rechtvaardigheid is geen algoritme. Het vraagt menselijke keuzes – normatief, ongemakkelijk soms – maar wel bewust.
De conclusie is ongemakkelijk simpel: We moeten stoppen met doen alsof technologie neutraal is. AI leert van ons. Dus laten we zorgen dat we iets goeds aanleren.
FYI – eerdere pogingen om samenwerkingen aan te gaan of funding te krijgen voor goede duiding en sturing is met regelmaal afgewezen. Ook hier leiden mooie woorden niet tot goede daden.