Sådan spotter du deepfakes
Nixon-deepfake-videoen er baseret på kunstig intelligens og såkaldt deep learning-teknologi. Kort fortalt betyder det, at en computer har terpet en skuespillers ansigtstræk og mimik til hudløshed - for herefter producere og plastre en ny mund over Nixons ansigt.
Og i samarbejde med en taleskuespiller frembragte MIT-holdet syntetisk tale, der passede til Nixons nye, manipulerede mundbevægelser.
"For os handler det om at vise, hvad den her teknologi er i stand til, så vi kan begynde at tale om, hvad vi gør, når vi på et tidspunkt står dagen før et valg og ser en video af en politiker, der tilsyneladende siger noget dybt racistisk. Vi er allerede opmærksomme på, at billeder kan være behandlet i Photoshop. Nu er tiden inde til, at vi også er kritiske over for levende billeder," siger Magnus Bjerg.
Han mener også, at deepfakes i dag er så gode, at de kan være vanskelige at spotte.
Men hvis du er i tvivl, om en video er deepfake, kan du rette din opmærksomhed mod ansigtets kant. Ser konturerne naturlige ud? Er hudtonen ensartet? Hvordan opfører skyggerne ved kraven sig? Har personen et unaturligt, dødt blik i øjnene? Er tænderne underlige eller pixelerede?
Det falske ansigt folder sig ud
Teknologien, der indtil nu har tilvejebragt indhold, som primært spænder fra det pornografiske til det politiske, kan også bruges til andre formål, pointerer Magnus Bjerg:
"Deepfake-teknologien kan spare filmindustrien for en masse penge. Der er lavet film, hvor James Dean (død i 1955, red.) har en rolle. Og i dokumentarfilm kan man bruge teknologien til fx at anonymisere personer, som det er gjort med de medvirkende bøsser og lesbiske i den ukrainske dokumentar 'Welcome to Chechnya'."
Deepfakes blev for alvor kendt i den bredere offentlighed i 2017, da en bruger på websitet Reddit begyndte at uploade videoer af pornografisk karakter. Kort efter kunne brugerne finde videoer, hvor ansigterne af berømte popsangerinder som Taylor Swift og Katy Perry var manipuleret ind i pornofilmene.
Google og Facebook har postet tocifrede millionbeløb i at fange og fjerne de falske videoer, før de kan nå at gøre skade.
Og af samme årsag er Magnus Bjerg og resten af MIT-holdet tilbageholdende med at forklare i detaljer, hvordan de har båret sig ad. I samme ombæring siger han:
"Vi er ret imponerede - og chokerede - over, hvor god deepfake-videoen blev. Det er dog betryggende, at det trods alt tog os tre måneder at producere, så vi har lidt tid at løbe på, selvom det hele tiden bliver hurtigere, billigere og bedre at lave."