robot
robot

Robots zijn klootzakken

3 minutes, 0 seconds Read

Met de opkomst van kunstmatige intelligentie (AI) groeit ook de bezorgdheid dat deze technologie menselijke vooroordelen kan versterken. Robots en AI-systemen leren van de gegevens die ze ontvangen, en dit kan onverwachte en verontrustende gevolgen hebben.

Een voorbeeld van deze bezorgdheid komt van AlphaGo, het zelflerende algoritme van Google, dat laat zien hoe machines zichzelf snel kunnen verbeteren en complexe taken efficiënter kunnen uitvoeren dan mensen. Hoewel deze vooruitgang indrukwekkend is, roept het ook vragen op over hoe AI-systemen menselijke waarden en vooroordelen kunnen overnemen.

Recent onderzoek van drie wetenschappers van Princeton bevestigt deze bezorgdheid door aan te tonen dat robots menselijke vooroordelen kunnen leren en reproduceren. Dit onderzoek werd gepubliceerd in het gerenommeerde wetenschappelijke tijdschrift Science. De onderzoekers ontdekten dat AI-systemen in staat zijn om taal te leren door patronen in data te herkennen. Dit betekent dat een machine associaties kan ontwikkelen die niet alleen gebaseerd zijn op de betekenis van woorden, maar ook op impliciete sociale en culturele biases die in de data aanwezig zijn.

Bijvoorbeeld, een robot leerde associaties tussen verschillende soorten bloemen en aangename termen zoals vrijheid en geluk, terwijl insecten zoals kakkerlakken en motten vaak werden gekoppeld aan onaangename termen zoals ziekte en gevangenis. Hoewel deze voorbeelden misschien op het eerste gezicht onschuldig lijken, wordt het problematisch als robots ook menselijke vooroordelen over huidskleur en geslacht overnemen.

Uit het onderzoek bleek dat AI-systemen vrouwennamen vaak associëren met huiselijkheid en mannennamen met carrières. Dit leidt tot ongelijke behandeling op basis van geslacht en versterkt bestaande sociale ongelijkheden. De robot had geen directe kennis van historische contexten zoals slavernij of kolonisatie, maar door impliciete vooroordelen in de data werden ‘witte’ namen zoals Megan en Heather vaker gekoppeld aan positieve termen zoals vrijheid en paradijs, terwijl ‘zwarte’ namen zoals Lionel en Malik vaker met negatieve termen zoals haat en misbruik werden geassocieerd.

Deze bevindingen zijn niet nieuw. Onderzoek heeft al aangetoond dat genetische algoritmes, die de basis vormen voor veel AI-systemen, discriminerende effecten kunnen hebben. Harvard-professor Latanya Sweeney ontdekte bijvoorbeeld dat zoekresultaten voor haar naam advertenties bevatten voor websites waar je kunt controleren of iemand een strafblad heeft. Mensen met een ‘zwarte’ naam krijgen 25% meer kans op dergelijke suggestieve advertenties dan mensen met een ‘witte’ naam. Dit kan schadelijke gevolgen hebben voor kansen in sollicitaties en andere belangrijke levensgebieden.

In de praktijk betekent dit dat AI-systemen, zoals die gebruikt worden voor het scannen van cv’s, ook vooroordelen kunnen repliceren die al in de samenleving bestaan. Dit probleem is al erkend door platforms zoals AI For Recruiting, die wijzen op de noodzaak om vooroordelen in AI-systemen te adresseren en te corrigeren.

Huidige Ontwikkelingen
Sinds de oorspronkelijke publicatie van het Princeton-onderzoek zijn er aanzienlijke vorderingen gemaakt in het begrijpen en aanpakken van deze problemen. In 2024 zijn er nieuwe initiatieven en richtlijnen ontwikkeld om vooroordelen in AI-systemen beter te identificeren en te corrigeren. Verschillende techbedrijven en onderzoeksinstellingen hebben tools ontwikkeld die helpen bij het detecteren van bias in AI-algoritmes, en er zijn meer wettelijke kaders geïntroduceerd om ethische normen voor AI-ontwikkeling te waarborgen. Desondanks blijft het cruciaal om alert te blijven op deze kwesties en voortdurende inspanningen te leveren om eerlijkheid en transparantie in AI-technologie te bevorderen. De discussie over de ethische implicaties van AI en de noodzaak van diversiteit in trainingsdata blijft een belangrijk aandachtspunt voor de toekomst.

Samenvattend tonen deze bevindingen aan dat AI-technologie niet alleen een uitdaging vormt op het gebied van technologische vooruitgang, maar ook op het gebied van sociale rechtvaardigheid. Het is van vitaal belang om te blijven werken aan het ontwikkelen van eerlijke en onpartijdige AI-systemen om een rechtvaardigere toekomst te waarborgen.

Aanbevolen voor jou

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *