Oooooh boy. Ik had voor deze week nog nooit van Deepfake gehoord, maar ik weet vrij zeker dat het in de komende dagen en weken een groot ding gaat worden. Deepfakes (NIET VEILIG) is de naam van een subforum op Reddit waar je op dit moment vooral porno kunt zien. Is dat zo spannend dan? Nee, an sich niet.
Misschien helpt het als ik er bij vertel dat je korte filmpjes kunt zien waarin Scarlet Johansson, Gal Gadot, Katy Perry, Taylor Swift, Megan Fox, Daisey Ridley, Sophie Turner en nog vele andere bekende actrices er ongenadig van langs krijgen en dat je nauwelijks tot niet kunt zien dat ze het niet echt zijn.
Maar het gaat niet om de porno die opeens overal zal opduiken. OK, voorlopig zal het gaan over de porno die overal gaat opduiken. Maar we moeten ons realiseren dat het nu voor elke amateur mogelijk is om het gezicht van iemand te vervangen in een video zonder al te veel moeite.
Daar zit namelijk het bizarre van dit verhaal: de gebruiker deepfakes heeft zelf uitgevogeld hoe hij met gebruikmaking van neurale netwerken (zoals Google dat ook doet) een AI kan leren hoe iemand er uit ziet, door er simpelweg een berg foto- en videomateriaal in te gooien. Als de AI dan voldoende getraind is kan ‘ie in een andere video het gezicht vervangen door wat er is ingegooid.
Als die man (gokken we) dat voor zichzelf had gehouden was het nog tot daar aan toe geweest, maar hij heeft dus nu een stuk software publiek beschikbaar gemaakt dat het relatief simpel maakt voor mensen die niet kunnen programmeren om dit ook te doen. Daarom zit r/deepfakes ineens tjokkievol met bekende-mensen-porno. Maar dat is slechts stap één.
Het GIFje hierboven laat zien hoe geavanceerd het programma nu al is: in de bovenste versie zie je de met veel tijd, geld en moeite gemaakte CGI-versie van Carrie Fischer uit 1979 die er niet zo heel geweldig uitziet, en daaronder een versie op basis van Deepfakes. Het ziet er gek genoeg minder nep uit, al is de software op dit moment nog niet goed genoeg om in HD-kwaliteit video te genereren. Nog.
Hieronder zie je een testvideo waarin het begin van een porno-video te zien is. Daisy Ridley (om maar in de Star Wars sfeer te blijven) heeft deze video nooit gemaakt, maar met een beetje meer moeite zul je het verschil nooit zien. Met dat idee in gedachten kun je je wel voorstellen wat er binnenkort gaat gebeuren: er komt eerst een treinlading aan neppe porno met alle bekende vrouwen ter wereld, daarna komen de grapjes en vervolgens gaat het gebruikt worden om video’s te maken met onbekende mensen.
Als je genoeg foto’s van iemand hebt (en dat is met veel jongere mensen vaak niet zo lastig te regelen) kun je dit dus ook met een collega doen. Of een klasgenootje. Familie. Iemand die je creept op Instagram. Los van hoe fucked up dat al niet allemaal is, gaat het over niet al te lang mogelijk zijn om video’s te maken van mensen die nauwelijks van echt te onderscheiden zijn en daarmee of hun reputatie te verzieken of ze – in het ergste geval – te chanteren er mee.
We wisten natuurlijk al dat video-manipulatie prima mogelijk is en zelfs marktpartijen als Adobe hebben het er al een tijdje over dat ze dit gaan uitbrengen, maar dat een random dude op internet ineens de mogelijkheid om dit te doen gratis aan het verspreiden is gooit het hele proces in een stroomversnelling.
Waar gaat dat eindigen? Geen idee. Het zou zomaar kunnen dat de software dusdanig veel gebruikt gaat worden dat zelfs een échte opname van een ster of wie dan ook niks meer waard is omdat ‘ie als “gegenereerd” kan worden weggezet. Maar voordat het zover is gaan er nog een hoop mensen dingen zien waar ze echt niet om gevraagd hebben, omdat anderen er om gevraagd hebben.
Brr.
[Afbeeldingen © vchalup – Adobe Stock]