top of page

Mythe #3: "Algoritmes zijn objectief"

Als mens zitten we vol vooroordelen. Hoewel we soms denken dat in staat zijn een objectief oordeel te vellen, spelen er vaak onbewuste krachten mee die onze beslissingen mee vormgeven. Beschouw ze als een bril waarmee we naar de wereld kijken. Ieder van ons heeft zo'n bril op, een bril die gevormd is door opvoeding, door wat we leren en door alledaagse ervaringen en herinneringen. In ons dagelijkse leven lijkt dat niet zo problematisch. Welk broodje ik 's middags ga eten, en of dat die beslissing dan gekleurd is door onbewuste aannames of niet, lijkt geen zorg die groot genoeg is om er een blogpost over te schrijven. Maar van sommige mensen verwachten we wél objectieve oordelen. Denk aan rechters, leerkrachten die je examen beoordelen, of bedrijfsleiders die beslissen of je geschikt bent voor de job of niet. Helaas toont onderzoek aan dat in vele van deze gevallen van objectieve – en dus totaal neutrale – oordelen weinig sprake is. Kunnen we dit verhelpen?


Wel, volgens sommigen kunnen algoritmes en artificiële intelligentie hier een grote rol in spelen. Een algoritme is immers niet meer dan een verzameling regels die een bepaalde 'input' omzet in een 'output', of anders gezegd: het is een stappenplan dat gemaakt is om een bepaald doel te bereiken. Zo'n algoritme heeft geen intenties of onbewuste mechanismen aan het werk, zoals wij mensen dat wel hebben, zou je denken. Het is slechts een stappenplan dat je loslaat op de input die je het geeft. Precies om deze redenen grijpen mensen, bedrijven en instituties steeds meer naar artificiële intelligentie om tot 'objectievere' oordelen te komen. Amazon gebruikte al algoritmes om hun werknemers te beoordelen op hun prestaties en CV's te screenen, en ook in rechtszaken krijgt artificiële intelligentie een steeds belangrijkere rol.


Dit alles roept – zoals steeds – een aantal belangrijke, filosofische vragen op: kan technologie neutraal zijn? Wat is 'objectiviteit'? Maar ook een grote praktische vraag komt bovendrijven: (in hoeverre) moeten we onze menselijke oordelen en beslissingen delegeren aan artificiële intelligentie-systemen?


Is een algoritme objectiever dan ik?


Om op deze vragen te antwoorden, moeten we eerst begrijpen hoe vooroordelen bij mensen precies werken. Een filosofische vraag die in de geschiedenis regelmatig terugkeert is in hoeverre dergelijke vooroordelen 'aangeboren' zijn of verworven doorheen onze opvoeding. Een invloedrijke groep filosofen uit de zeventiende eeuw, zogenaamde 'empiristen', waren ervan overtuigd dat we geboren worden met een 'schone lei' of in het Latijn: 'tabula rasa'. Toch toont hedendaags psychologisch onderzoek mensen doorheen verschillende culturen bepaalde vooroordelen gemeenschappelijk hebben. Zo blijkt uit onderzoek dat we geneigd zijn meer oog te hebben voor argumenten die onze eigen overtuigingen onderbouwen. Dit heet het 'bevestigingsvooroordeel' (confirmation bias). Verder blijkt dat de volgorde van informatie de we te zien krijgen, sterk bepaalt hoe we met die informatie omgaan. Dit heet dan het 'verankeringseffect' (anchoring effect). Als je hier nog bijneemt dat onze emoties diepgaand ons denken en onze verhouding tot de wereld vormgeven, dan wordt al snel duidelijk dat we als mens allesbehalve zuiver rationele en 'objectieve' wezens zijn.


Hoe zit dat nu met artificiële intelligentie? Op het eerste zich zou je denken dat algoritmes niet meteen vooroordelen in zich kunnen dragen. Een reeks binaire code die bepaalde data verwerkt kan je immers niet verwijten afgeleid zijn door emoties of een 'verankeringseffect'. Door de abstractie waarmee een algoritme met data omgaat, lijkt het te ontsnappen aan de onbewuste krachten die ons denken als mens sturen. Maar deze redenering vergeet dat ook algoritmen zelf gebouwd worden door mensen. En dat niet alleen, ook de data waarmee algoritmen werken (de input die ze krijgen) worden verzameld door mensen. In beide gevallen kunnen de bouwers van een algoritme hun (onbewuste) vooroordelen inbouwen in het algoritme. Met andere woorden, als de input als bevooroordeeld is, dan zal de output van het algoritme dat ook zijn.


Een probleem met reële gevolgen


Laten we er een voorbeeld bij nemen. In 2014 geleden besloot Amazon, een Amerikaans e-commercebedrijf, om algoritmes te gebruiken om CV's te screenen. De toevloed van sollicitaties was immers zodanig groot dat managers onmogelijk alle CV's konden bekijken en beoordelen. Met een algoritme gaat dat natuurlijk veel sneller. Grote verbijstering ontstond wanneer bleek dat het algoritme zelf seksistisch bleek te zijn. Uit de resultaten van het algoritme bleek dat opvallend meer vrouwen geweigerd werden dan mannen. Wat is hier precies misgegaan? Het probleem zat hem in hoe het algoritme 'getraind' was en in de data waarmee het aan de slag moest.


Als bouwer van een CV-screening algoritme zou je denken: goed, ik geef het algoritme een hele boel CV's van voormalige sollicitanten en toon het dan welke van deze sollicitanten goed hebben gepresteerd als werknemer binnen het bedrijf en welke profielen de hoogste promoties hebben gekregen. Het probleem hiermee is dat het algoritme de context van deze 'input' niet in rekening kan nemen. We weten immers dat vele vrouwen in de afgelopen decennia disproportioneel gediscrimineerd werden op de werkvloer in vergelijking met mannen. Hierdoor zie je dat minder vrouwen promotie kregen binnen het bedrijf dan mannen. Het algoritme stelt hier geen kritische vragen bij – het leest de data en concludeert: CV's van vrouwen bleken minder succesvol in het verleden, dus deze sollicitanten maken minder kans om een goede prestatie als werknemer. Het gevolg: vrouwen worden er al snel uitgefilterd. Hier zit je met een zogenaamde "AI bias": een vooroordeel ingebouwd in het algoritme.


Wat nu gedaan?


Wat moeten we hier nu mee? Is er een zinvolle weg uit dit soort schadelijke praktijken? Wel, soms is het vrij eenvoudig om zo'n vooroordelen te detecteren in een algoritme. Uit de casus van Amazon bleek vrij 'snel' – hoewel zoiets nooit snel genoeg kan blijken – dat er iets misgelopen was in de training van het algoritme. Dan kunnen ontwikkelaars hieraan beginnen sleutelen. Maar discriminatie door algoritmes is niet altijd even zichtbaar zoals in het geval van Amazon. De sterkte, en tegelijk de zwakte, van artificiële intelligentie is net dat het zodanig goed zelf dingen begint te 'leren' dat we als gebruiker en als bouwer steeds minder vat krijgen op de regels die het algoritme zelf toepast op de data. Met andere woorden, we weten niet altijd waarom een algoritme beslist wat het heeft beslist. Dit probleem noemt men het 'gebrek aan transparantie'.


Het verlangen naar meer transparantie bij AI krijgt veel aandacht in recente politieke en wetenschappelijke debatten. Zo lanceerde het Verenigd Koninkrijk deze maand een "Algorithmic Transparency Standard" voor algoritmes die gebruikt worden door de publieke sector. Verder zien we steeds meer inspanning om te bouwen aan hybride vormen van AI: slimme systemen die gebouwd zijn voor een goede samenwerking tussen mens en machine. Maar daarmee zijn nog niet alle zorgen verdwenen en komen weer enkele filosofische vragen in het spel. Als een algoritme racistisch of seksistisch is, wie draagt daar dan de verantwoordelijkheid voor? Kunnen we überhaupt aan vooroordelen in ons denken en in dat van machines ontsnappen? Is een zuivere 'objectiviteit' wel mogelijk, of zelfs wenselijk?


Daarmee zijn we weeral een maandje zoet...




bottom of page