De oorlog tussen Rusland en Oekraïne is inmiddels al anderhalve maand bezig. Er vallen nog steeds veel doden en hulpdiensten hebben hun handen vol aan het identificeren van deze mensen. Dit belangrijke, moeilijke werk wordt echter niet alleen door mensen gedaan: kunstmatige intelligentie helpt daarbij.
Het is één van de moeilijkste taken in tijden van oorlog: mensen die het niet hebben gehaald identificeren om te zorgen dat de nabestaanden kunnen worden ingelicht. Er is een bedrijf dat gezichtsherkenningssoftware maakt en wordt ingezet om hierbij te helpen: Clearview AI. Deze kunstmatige intelligentie heeft al honderden doden helpen identificeren.
Hoe goed het ook is dat dit gebeurd, wordt er wel een bedrijf gebruikt dat bepaald niet goed staat aangeschreven. Clearview AI kwam in opspraak omdat het miljarden foto’s van social media heeft gehaald om een zoekmachine voor gezichten te maken. De kans is groot dat ook jouw gezicht al in deze database staat.
Zelfs al heb je helemaal geen social media: de kans is groot dat je er toch op staat, dankzij bijvoorbeeld een vriend(in) die een keer een groepsfoto plaatste. Het is niet voor niets dat YouTube, Google, Facebook en Twitter al het bevel hebben gegeven dat Clearview AI hiermee onmiddellijk moet stoppen. Iets waar het geen gehoor aan geeft. Het heeft ook al meerdere boetes gekregen.
Tegelijkertijd wordt de software ook flink gebruikt door overheden, schrijft de BBC. Zo zou er in de Verenigde Staten veelvuldig een beroep worden gedaan op de software en hebben 3.200 overheidsinstanties de technologie ofwel uitgeprobeerd ofwel gekocht. Kortom, de kans dat het ermee ophoudt is erg klein. Toch roept het, ook in tijden van oorlog, vragen op.
Het kan immers ook worden gebruikt om de levenden te identificeren, waarmee het tegelijkertijd een gevaar kan vormen voor Oekraïense burgers, wanneer deze software bijvoorbeeld door de Russen wordt ingezet om bepaalde mensen op te sporen. Dat wordt overigens ook gedaan door Oekraïne zelf: bij checkpoints worden vijandelijke verdachten opgespoord met Clearview.
Gevaarlijke praktijken dus, want de technologie is uiteraard niet foutloos: het zou dus kunnen gebeuren dat iemand onterecht als dood wordt vastgelegd, wat uiteraard voor zowel die persoon als zijn naasten, maar ook de nabestaanden van de daadwerkelijke dode, enorm problematisch is. Of iemand wordt bij een checkpoint onterecht geïdentificeerd als de vijand, met alle desastreuze gevolgen van dien.
Zeker in tijden van oorlog kan zo’n misidentificatie juist leiden tot de dood, waardoor niet alleen het gebruik van Clearview door de reputatie van het bedrijf zelf problematisch is, maar ook hoe het wordt ingezet.
Echter gaat het op dit moment in Oekraïne niet per se over de reputatie van het bedrijf of de ethische kwesties eromheen. Het gaat er voornamelijk om dat de vele doden die er helaas vallen naar huis kunnen, zodat de nabestaanden de kans krijgen om afscheid te nemen.
Bovendien is Clearview zeker niet de enige kunstmatige intelligentie die met dit doel wordt gebruikt in de oorlog: Rusland maakt gebruik van een soortgelijk platform (FindClone) om te zorgen dat hun dode soldaten een laatste rustplaats kunnen krijgen. Zolang de technologie daarvoor wordt gebruikt, is kunstmatige intelligentie zeker iets moois, maar één ding is zeker: er moet nog veelvuldig worden gesproken over het gebruik van AI in tijden van oorlog, net zoals we normaal gezien ook in het algemeen spreken over AI.