Is ze niet aan het tikken, dan reist ze rond in de wondere wereld van entertainment of op een toffe plek in de echte wereld. Mario is de man van haar leven, Belle is haar beste vriendin en haar laptop is nooit ver weg.
Kunstmatige intelligentie is het buzzwoord van 2023, al is buzzwoord misschien niet helemaal juist. AI is namelijk niet zomaar een trend. Het is iets dat nu volop out in the open is en niet meer weggaat. De manier waarop we ermee omgaan, die zou wel eens kunnen veranderen (en als we het verkeerd aanpakken, de manier waarop het met ons omgaat). Een van de grote nadelen aan AI is dat het soms neutraal lijkt te zijn, maar dat totaal niet is.
Dat bewees Amazon ooit al met recruitmentsoftware die op basis van AI profielen koos om op gesprek te vragen. Daar werden op een gegeven moment alleen nog mannen uitgenodigd. AI krijgt soms dus wel degelijk voorkeuren aangeleerd, ook al zijn we ons daar als mens niet altijd van bewust. Dat zie je nu ook weer, want wat blijkt: AI-gezichten zijn vaak nog ‘echter’ dan die van mensen, maar alleen bij witte mensen is dat het geval.
Antispieksoftware
Dat werkt vaak twee kanten op. Zo kan bijvoorbeeld AI in camera’s zwarte mensen minder goed herkennen. Dat is mooi als je bij een proefwerk bij iemand anders wil kijken omdat je je antwoord even wil vergelijken (de antispieksoftware van de Vrije Universiteit liep tegen deze situatie aan), maar als het betekent dat jij als voetganger een grotere kans maakt om doodgereden te worden door een zelfrijdende auto, dan is het een heel ander verhaal. En we willen dat iedereen als gelijke wordt behandeld.
AI is daar op dit moment eigenlijk onvoldoende toe in staat. Een zwart persoon wordt vaak niet eens als persoon gezien, maar als een paal. Nu wil een auto daar ook niet tegenaan rijden, maar als een persoon eenmaal als paal of boom is geïdentificeerd, dan snapt de auto niet dat het wel een mens is en diegene wil oversteken. Immers steekt een paal of boom niet over.
Zelfrijdende auto’s
Een onderzoek toont aan dat zelfrijdende auto’s niet goed kunnen anticiperen op voetgangers met een niet-witte huidskleur. Maar dit soort auto’s zijn nu wel op de weg te vinden. Hetzelfde geldt voor iets veel gangbaarders zoals je iPhone. Siri begrijpt witte mensen sneller en beter dan zwarte mensen. Ook zien we het bij telefoons die suggesties doet van wie er op de foto staat: de kennis over de zwarte huid geeft daarbij vaker problemen. Of eigenlijk: het gebrek eraan.
Enerzijds komt dat door camera’s van telefoons die sowieso de kleur zwart vaak moeilijk kunnen weergeven, en het is ook zo dat je met een zwarte huid -zeker als de kwaliteit en de belichting niet goed zijn- sneller minder goed zichtbaar bent. Dat zou echter niet jouw probleem moeten zijn: daar zou technologie beter op moeten anticiperen. Mensen komen nu eenmaal in verschillende kleuren.
Verkeerd veroordeeld
Nu is het bij foto’s vaak vooral ongemakkelijk, het kan desastreuze gedaanten aannemen als het gaat om software die bijvoorbeeld beoordeeld of je krediet mag aanvragen. Dit wordt door banken al gebruikt. De politie in de VS gebruikt systemen met gezichtsherkenning om verdachten op te sporen en daarbij worden vaak verkeerde mensen opgepakt, en laten dat nu ook vaker zwarte personen zijn.
Voor zwarte vrouwen is het vaak nog vervelender: zij worden vaker als man gezien, omdat de AI geen diverse data heeft gekregen om van te leren. Klinkt als iets dat je makkelijk kunt oplossen: meer diverse data voeden. Maar: dan moet die er wel zijn. AI maakt vaak gebruik van duizenden, miljoenen records.
AI en discriminatie
Als daar echter vooral bepaalde mensen op te zien zijn omdat daar nu eenmaal vaker data van is, dan gaat dat niet lukken. Soms zit het ook in subtiele dingen: taalgebruik bijvoorbeeld. De reden dat die eerdergenoemde recruitmentbot van Amazon zo over de schreef ging, was omdat het nu eenmaal vaker woorden voorbij zag komen die mannen meer bezigen.
Je ziet het ook duidelijk op een kaart van Internet Health Report 2022. Mensen uit Afrika worden zelden in een dataset gebruikt: geen wonder dus dat AI veel minder goed ontwikkeld is op het gebied van zwarte mensen. En minder goed is in sommige gevallen een understatement: Facebook zag foto’s van zwarte mensen een tijdje als een primaat. Het kan echt niet en het is precies waardoor sommige mensen zeggen: het is nog te vroeg voor AI. Het is als een baby die leert lopen. Je kunt die handjes nog lang niet loslaten, maar dat lijken we wel massaal te doen.
Nodig: goede datasets
Bovendien, en dat zie je ook op de kaart met waar datasets vandaan komen: er komt ontzettend veel data uit Amerika, een land dat ook helemaal niet zo heel erg lijkt op het onze, met hun anti-abortuswet, pro-pistolenwet, Christelijkheid en drugsproblematiek. Het is dus niet ‘alleen maar een kleurtje’, het is een hele achterliggende gedachte en cultuur: eentje die nu te veel in AI verweven is (die van Amerika) en veel te weinig (Afrika).
En nu blijkt uit Australisch onderzoek ook nog dat realistische AI-gezichten vaak levensecht lijken bij witte mensen, maar bij zwarte mensen niet. Je kunt dus makkelijker gecatfisht worden met afbeeldingen van een wit persoon. Hierdoor krijgen witte personen meer authoriteit (ja, ook als dat nep is) en dat heeft nadelige gevolgen voor de zwarte gemeenschap, en dus voor de algehele maatschappij.
Zo geldt dat eigenlijk voor heel veel AI-initiatieven: het kan haast niet zo zijn dat deze met een goede dataset zijn getraind, waardoor de ouderwetse maatschappelijke verdeling in stand blijft. Zo’n nieuwe wereld is het dan dus ook alweer niet met de komst van kunstmatige intelligentie. Maar, terug naar de tekentafel is al te laat: dit zal anders moeten worden opgelost.
Verder lezen over Kunstmatige Intelligentie
Technology22.11.2024
Deze AI-functies van Booking.com maken het plannen van je volgende reis slimmer & eenvoudiger
Technology20.11.2024
ClimateGPT: De volgende stap in klimaatonderzoek?
Cybercrime20.11.2024
Wortell opent nieuw next-gen Cyber Defense Center
Mobile20.11.2024
Je Pokémon Go-data wordt nu gebruikt om AI te trainen
Online19.11.2024
Je kunt straks een andere taal spreken in Microsoft Teams
Online19.11.2024
Komt er een moment waarop AI niet meer kan verbeteren?
Online13.11.2024
Dit gebeurt er als je 24 uur alleen bent met AI-chatbots
Tech in Asia13.11.2024