Altijd al willen weten hoe Mona Lisa er in het echt uit heeft gezien en hoe ze bewoog? Onderzoekers van het AI Center van Samsung in Moskou hebben een nieuwe methode ontwikkeld om statische gezichten tot leven te brengen. Ook als deze geschilderd zijn. Het is nog niet perfect, maar wel fascinerend. De onderzoekers zeggen dat recente studies hebben aangetoond hoe zeer realistische afbeeldingen en bewegende beelden van een mensenhoofd kunnen worden verkregen door machine learning.
Steeds vaker wordt AI toegepast op het genereren van gezichten. We zagen al eerder dat er zelfs een website is die, op basis van AI, zelf levensechte gezichten creëert. In het artikel van de in Moskou gevestigde onderzoekers van Samsung lezen we dat het nu zelfs mogelijk is om met een enkel beeld van het gezicht een video te maken. En in die video zien we de persoon praten, zoals nu ook is gedaan met Mona Lisa.
Hoe dit kan? Een enorme hoeveelheid gegevens is nodig en wordt geladen in een database, deze deelt een gezicht op in vlakken. Hoe meer gegevens er zijn, hoe beter. Maar slechts met één beeld kan de machine al een bewegend beeld maken. Het laat Mona Lisa bewegen en spreken als een echt persoon. De database bevat inmiddels zoveel informatie over gezichten dat het steeds sneller wordt. In het geval van Mona Lisa weten we niet zeker of het lijkt op de ‘echte’ persoon, maar de onderzoekers hebben het ook geprobeerd met bijvoorbeeld Marilyn Monroe en die resultaten zijn behoorlijk waarheidsgetrouw.
Bekijk hieronder de video om te zien hoe schilderijen tot leven worden gebracht. Omdat we altijd maar één expressie zien van een persoon op een schilderij, is het heel bijzonder om eens de andere kanten van bijvoorbeeld Mona Lisa te zien.