AI: wanneer een algoritme vooroordelen bevat
Boosheid, verdriet en vreugde: kunstmatige intelligentie (AI) kan vandaag al gevoelens herkennen. Tot nu toe is dit voornamelijk gebruikt in reclame en marketing. Met camera’s wordt bijvoorbeeld onderzocht hoe potentiële klanten omgaan met bepaalde producten in de supermarkt of op beurzen. Sommige bedrijven gebruiken kunstmatige intelligentie al in sollicitatiegesprekken, Meer informatie over sollicitanten die algoritmen gebruiken.
Onderzoekers werken eraan deze technieken te verbeteren en zo meer toepassingsgebieden te ontsluiten. In de toekomst zouden wetshandhavings- en veiligheidsinstanties bijvoorbeeld kunnen vertrouwen op kunstmatige intelligentie, Bijvoorbeeld bij polygrafen of bij grensovergangen.
AI racistisch
Er is echter een addertje onder het gras: in tegenstelling tot wat vaak wordt aangenomen, is AI niet onpartijdig en objectief. Zelfs als algoritmen leren, zijn ze gebaseerd op de ideeën van mensen en nemen ze dus hun vooroordelen over. Een voorbeeld hiervan is de theorie van de basisemoties van psycholoog Paul Ekman, waarop vaak datasets van algoritmen zijn gebaseerd. Tegenwoordig is deze theorie echter controversieel omdat ze geen rekening houdt met culturele en individuele verschillen.
Studies tonen bijvoorbeeld aan dat AI racistische uitspraken doet: in een onderzoek onder Amerikaanse basketballers werden zwarte spelers vaker van negatieve gevoelens beschuldigd dan hun blanke collega’s. Andere voorbeelden laten een seksevooroordeel zien in algoritmen. Bijvoorbeeld in het Amazon-aanvraagproces Vrouwen werden meer gescreend dan mannelijke kandidaten. In een onderzoek onder leden van het Amerikaanse Congres beoordeelde een computerprogramma vrouwen als de vriendelijkste en vriendelijkste.
“Analist. Schepper. Zombiefanaat. Fervente reisjunkie. Popcultuurexpert. Alcoholfan.”