Deepfake: Nixon erklærer sin sorg over mislykket månelanding

Forud for månelandingen den 20. juli 1969 havde præsident Nixon to taler parat - en til at fejre Apollo 11's succes, og en anden til at sørge over deres fejlslagne forsøg. Præsidenten skulle heldigvis kun bruge den opløftende variant, men 50 år efter giver han endelig fiaskotalen - eller en kunstig intelligens gjorde på hans vegne. Filmen med den falske tale har netop vundet en Emmy.

Forud for månelandingen den 20. juli 1969 havde præsident Nixon to taler parat - en til at fejre Apollo 11's succes, og en anden til at sørge over deres fejlslagne forsøg. Præsidenten skulle heldigvis kun bruge den opløftende variant, men 50 år efter giver han endelig fiaskotalen - eller en kunstig intelligens gjorde på hans vegne. Filmen med den falske tale har netop vundet en Emmy.

MIT

"Hvis man ikke ved det, accepterer man virkelig meget – fuldstændig ukritisk."

Ordene kommer fra Magnus Bjerg, der har været konceptudvikler på deepfake-filmen 'In Event of Moon Disaster', som er produceret af Massachusetts Institute of Technology, MIT og netop har vundet en Emmy for dokumentar-film i kategorien 'Outstanding Interactive Media'.

Holdet bag videoen ønsker at vise, 'hvordan nye teknologier kan bøje, omdirigere og tilsløre sandheden omkring os' og 'udforske indflydelsen af gennemgribende misinformation og deepfake-teknologier i vores samfund'.

I den historiske tale forklarer USA's forhenværende præsident Richard Nixon, hvordan månelandingen ikke gik som planlagt. Men billederne og lyden er syntetiske. De er resultatet af, hvad kunstig intelligens er i stand til. Og talen er derfor uægte.

Spørgsmålet er: Er du i stand til at se det?

Sådan spotter du deepfakes

Nixon-deepfake-videoen er baseret på kunstig intelligens og såkaldt deep learning-teknologi. Kort fortalt betyder det, at en computer har terpet en skuespillers ansigtstræk og mimik til hudløshed - for herefter producere og plastre en ny mund over Nixons ansigt.

Og i samarbejde med en taleskuespiller frembragte MIT-holdet syntetisk tale, der passede til Nixons nye, manipulerede mundbevægelser.

"For os handler det om at vise, hvad den her teknologi er i stand til, så vi kan begynde at tale om, hvad vi gør, når vi på et tidspunkt står dagen før et valg og ser en video af en politiker, der tilsyneladende siger noget dybt racistisk. Vi er allerede opmærksomme på, at billeder kan være behandlet i Photoshop. Nu er tiden inde til, at vi også er kritiske over for levende billeder," siger Magnus Bjerg.

Han mener også, at deepfakes i dag er så gode, at de kan være vanskelige at spotte.

Men hvis du er i tvivl, om en video er deepfake, kan du rette din opmærksomhed mod ansigtets kant. Ser konturerne naturlige ud? Er hudtonen ensartet? Hvordan opfører skyggerne ved kraven sig? Har personen et unaturligt, dødt blik i øjnene? Er tænderne underlige eller pixelerede?

© MIT

Djævlen ligger i detaljen

Det hollandske firma Sensity har konstrueret en algoritme, der kontrollerer deepfake-indhold. Algoritmen er blevet fodret med flere tusind timers sande og falske videoer, hvorefter den er sat til at finde forskellene. Algoritmen gennemgår hver enkelt pixel i hvert eneste billede – ofte flere tusind pr. video – for at finde uoverensstemmelser.

Ifølge Henry Ajder, chef for trusselsinformation hos Sensity, må de dykke ned i de mindste detaljer, før de kan afsløre deepfakes.

"Mange deepfakes kan ikke fanges af det menneskelige øje, og fejlene ligger derfor typisk på pixelniveau. Vores algoritme er blandt andet trænet til at finde pixels, der ikke hører hjemme: små klumper af pixels, der enten er for mørke eller lyse (i forhold til omgivelserne, red.)," fortæller Henry Ajder.

I december 2018 opsporede Sensity over 14.000 online-videoer, der blev klassificeret som deepfakes.

Ifølge Magnus Bjerg har Sensity også kigget 'In Event of Moon Disaster' efter i sømmene. Og firmaets grundige algoritme kunne konstatere, at videoen var en deepfake.

Det falske ansigt folder sig ud

Teknologien, der indtil nu har tilvejebragt indhold, som primært spænder fra det pornografiske til det politiske, kan også bruges til andre formål, pointerer Magnus Bjerg:

"Deepfake-teknologien kan spare filmindustrien for en masse penge. Der er lavet film, hvor James Dean (død i 1955, red.) har en rolle. Og i dokumentarfilm kan man bruge teknologien til fx at anonymisere personer, som det er gjort med de medvirkende bøsser og lesbiske i den ukrainske dokumentar 'Welcome to Chechnya'."

Deepfakes blev for alvor kendt i den bredere offentlighed i 2017, da en bruger på websitet Reddit begyndte at uploade videoer af pornografisk karakter. Kort efter kunne brugerne finde videoer, hvor ansigterne af berømte popsangerinder som Taylor Swift og Katy Perry var manipuleret ind i pornofilmene.

Google og Facebook har postet tocifrede millionbeløb i at fange og fjerne de falske videoer, før de kan nå at gøre skade.

Og af samme årsag er Magnus Bjerg og resten af MIT-holdet tilbageholdende med at forklare i detaljer, hvordan de har båret sig ad. I samme ombæring siger han:

"Vi er ret imponerede - og chokerede - over, hvor god deepfake-videoen blev. Det er dog betryggende, at det trods alt tog os tre måneder at producere, så vi har lidt tid at løbe på, selvom det hele tiden bliver hurtigere, billigere og bedre at lave."