Buzzfeed

Virtuel ordensmagt skal bekæmpe falske videoer

Kunstig intelligens manipulerer ansigter og stemmer i såkaldte deepfakes – falske videoer, som udvisker grænsen mellem fakta og fiktion. Firmaer verden over er gået til kamp mod deepfakes vha. virtuelle detektiver, som kan opspore de manipulerede videoer ved at vende teknologien imod sig selv. Men nu har forskere fundet en effektiv metode til at slå tilbage med.

“Donald Trump er en kæmpe kraftidiot,” siger USA’s tidligere præsident Barack Obama i en video fra 2018. Obama har dog aldrig selv ytret de ord. Stemmen i videoen bliver imiteret af den amerikanske komiker Jordan Peele, mens ansigt og mimik bliver skabt af en kunstig intelligens.

Videoen blev lavet for at illustrere, hvor let det er at narre seerne med såkaldte deepfakes – levende billeder og lyd skabt til at manipulere brugerne med misinformation.

VIDEO: Se Barack Obama blive udsat for deepfake her

I 2018 lavede det amerikanske nyhedssite BuzzFeed en deepfake-video af Barack Obama i samarbejde med komikeren Jordan Peele, der imiterer den tidligere præsidents stemme. Videoen blev lavet med det formål at vise folk, hvor let det er at manipulere med nutidens teknologi.

I dag er deepfakes mere udbredte end nogensinde før, og teknologien er blevet så god, at det efterhånden er umuligt at udpege de falske videoer med det blotte øje. Nu forsøger techvirksomheder at komme deepfakes til livs ved at bruge deres egne algoritmer som våben.

Techfirmaer vil deepfakes til livs

Deepfakes er baseret på kunstig intelligens, som skaber en digital kopi af en person – fx Barack Obama – ved hjælp af et stor mængde billeder, videoer og lyd af personen.

Som en slags digital dukkefører kan bagmændene bag deepfakes få ofrene i videoerne til at sige og gøre hvad som helst. I dag er manipulationen blevet så god, at det næsten er umuligt at skelne falsk fra sandt.

Det er dog ikke kun politikere, der får ørerne i deepfake-maskinen.

I 2019 lykkedes det kriminelle at snyde et britisk energiselskab for over 1,6 mio. kr. vha. en deepfake, som succesfuldt efterlignede direktørens stemme.

Året efter spredte klimaaktivistgruppen Extinction Rebellion en deepfake af den belgiske premierminister, hvor hun kædede klimakrisen sammen med covid-19.

Barack Obama har været et populært mål for mange deepfakes – ikke mindst en fra instruktør og komiker Jordan Peele, som er gået verden rundt, fordi den er godt lavet. Teknologien bag de forfalskede videoer udvikler sig hele tiden, og derfor bliver det også sværere at spotte dem. Videoen med Obama kan bruges som lærebog til at fange deepfakes ved at kaste opmærksomheden på særligt tre forskellige ansigtstræk.

©

Sådan spotter du en deepfake

Videoen med den falske Barack Obama kan bruges som lærebog til at fange deepfakes ved at fokusere på særligt tre forskellige ansigtstræk.

Øjnene bør blinke

En deepfake er sat sammen af en masse billeder og videoer, som computeren forsøger at sammensætte til en troværdig helhed. Nogle gange kan der opstå små afvigelser i øjenbevægelserne, som virker unaturlige for seeren – fx at øjnene pludselig kigger væk fra kameraet, eller at personen i videoen aldrig blinker. I Obama-videoen er de fejl rettet.

Tindinger må ikke være pixelerede

Netop fordi deepfakes typisk er konstrueret ved at udskifte ansigterne, kan små uregelmæssigheder i kanten af ansigtet afsløre fupnummeret. Ved Obamas venstre tinding er det muligt at se, hvordan håret nogle gange bevæger sig en smule, nærmest i hop, selvom Obama ikke selv bevæger sig.

Munden bør holder pauser

Hvis munden er i konstant bevægelse, sniger afslørende fejl sig også lettere ind i videoen, idet mundbevægelserne ikke kan følge 100 pct. med ordene og derfor virker synkroniserede. Mange deepfakes har også svært ved at gengive tænderne troværdigt. I Obama-videoen ser det nogle gange ud, som om tænderne i undermunden smelter sammen med underlæben.

Står det til nogle af verdens største techvirksomheder, vil deepfakes dog snart høre fortiden til.

Google og Facebook har postet tocifrede millionbeløb i at fange og fjerne de falske videoer, før de kan nå at gøre skade.

Og det hollandske firma Deeptrace har allerede haft stor succes med at eliminere falske videoer ved at forfølge en helt simpel idé: Teknologien bag deepfakes skal vendes mod sig selv.

Algoritme leger politibetjent

Deepfakes er en kunstig intelligens, som er baseret på to algoritmer forbundet i et såkaldt generative adversarial network (GAN) og i konstant kamp mod hinanden.

Den ene er den kreative algoritme. Den bliver fodret med og analyserer store mængder data af den person, der skal efterlignes, for at lave den bedste deepfake. Algoritmen analyserer ansigtstræk, hår, skygger osv. i forskellige vinkler og laver til sidst et bud på en deepfake.

Algoritme nummer to kontrollerer arbejdet og fungerer som politibetjent. Algoritmen analyserer detaljer som fejlplacerede pixels, hvordan selve ansigtet bevæger sig i forhold til hovedet og lignende. Finder kontrol-algoritmen fejl, rapporterer den det tilbage til en kreativ algoritme, som bliver sat til at rette fejlene og lave et nyt, forbedret bud.

Den kreative algoritme skal altså til eksamen hos den kontrollerende algoritme, og først når den kontrollerende algoritme ikke længere vurderer videoen som falsk, er deepfaken skabt.

Kreativ algoritme æder sig igennem data

En kreativ algoritme bliver fodret med store mængder video-, lyd- og billeddata af en person. Jo mere billedmateriale, jo flere vinkler, og jo bedre opløsning der findes af personen, jo bedre bliver algoritmen i stand til at løse opgaven.

Lasse Alexander Lund-Andersen/Shutterstock

Et bud på en deepfake bliver skabt

Algoritmen smelter lyd og mundbevægelser fra et andet talende ansigt sammen med originalen. Ud fra den store mængde visuelle data skaber algoritmen de mest naturlige ansigtstræk i form af fx hår, skygger og øjne. Resultatet bliver derefter sendt videre til godkendelse hos den kontrollerende algoritme.

Lasse Alexander Lund-Andersen/Shutterstock

Kontrollerende algoritme er politibetjent

Den kontrollerende algoritme vurderer arbejdet ved at gå detaljeret igennem alt det, der kan være problematisk. Den er kodet til at tjekke, om personen blinker, om munden bevæger sig naturligt, om de små pixels ser naturlige ud, og lignende.

Lasse Alexander Lund-Andersen

Processen bliver gentaget

Den kreative algoritme får feedback, der oplister fejl i deepfaken – fx pixels, der hakker lidt i kanten af et ansigt. Algoritmen går herefter i gang med at udglatte den del af ansigtet og arbejder sig igennem de forskellige fejl. Til sidst sender den en ny udgave til den kontrollerende algoritme. Processen fortsætter, indtil den kontrollerende algoritme er tilfreds.

Lasse Alexander Lund-Andersen

Djævlen ligger i detaljen

Deepfakes blev for alvor kendt i den bredere offentlighed i 2017, da en bruger på websitet Reddit begyndte at uploade videoer af primært pornografisk indhold. Kort efter kunne brugerne finde videoer, hvor ansigterne af berømte popsangerinder som Taylor Swift og Katy Perry var manipuleret ind i pornofilmene.

Siden har tusindvis af deepfake-videoer fundet vej til nettet med indhold, som spænder fra det pornografiske til det politiske. Og nu har forskere og virksomheder sat sig for at finde en måde at afsløre disse videoer på, inden de når at sprede sig.

En af de virksomheder er det hollandske firma Deeptrace. Firmaet har konstrueret en algoritme, der skal kontrollere indhold. Algoritmen er blevet fodret med flere tusind timers sande og falske videoer, hvorefter den er sat til at finde forskellene.

Ifølge Henry Ajder, chef for trusselsinformation hos Deeptrace, må de dykke ned i de mindste detaljer, før de kan afsløre deepfakes.

“Mange deepfakes kan ikke fanges af det menneskelige øje, og fejlene ligger derfor typisk på pixelniveau. Vores algoritme er blandt andet trænet til at finde pixels, der ikke hører hjemme: små klumper af pixels, der enten er for mørke eller lyse [i forhold til omgivelserne, red.],” fortæller Henry Ajder.

En deepfake bliver skabt ved at kombinere adskillige billeder og videoer, og her kan der netop snige sig forkerte pixels ind. Derfor gennemgår algoritmen hver enkelt pixel i hvert eneste billede – ofte flere tusind pr. video – for at finde uoverensstemmelser. Og det har algoritmen i den grad fundet.

I december 2018 opsporede Deeptrace over 14.000 videoer online, som de klassificerede som deepfakes. For at finde dem skal de konstant forbedre sig selv – for det gør deepfakevideoerne:

“Bagmændene bliver hele tiden bedre til at konstruere deepfakes, så vi skal hele tiden gøre vores algoritme bedre til at finde dem,” siger Henry Ajder.

Mimik kan være akilleshælen

Hvor Deeptrace fokuserer på at finde fejl i selve kvaliteten af deepfaken – dårlig opløsning, malplacerede pixels og så videre – har forskeren Shruti Agarwal ved Californiens Universitet i Berkeley valgt en anden tilgang.

Hun bemærkede, at Barack Obama bevægede hovedet lidt op til højre eller venstre, hver gang han sagde “hej allesammen”. Det inspirerede hende til at undersøge, om deepfakes var i stand til at efterligne, hvordan en person taler, og hvordan ansigtet bevæger sig i forhold til det, der bliver sagt.

I 2019 blev Facebook-stifter Mark Zuckerberg selv udsat for digital manipulation, da en deepfake med ham selv i hovedrollen florerede på Facebook. I klippet sidder Zuckerberg og indrømmer, at han har total kontrol over millioner af menneskers liv og fremtid. Facebook har tidligere haft en politik om ikke at fjerne videoer fra deres platform – heller ikke selvom det drejede sig om deepfakes. Men nu har piben fået en anden lyd. I en pressemeddelelse fra januar 2020 skriver Facebook, at man nu vil fjerne indhold, der bevidst er tilvirket eller manipuleret for at vildlede brugerne.

Derfor satte hun et analyseprogram til at kortlægge kendetegnene bag mimikken hos fem politikere, og det har muligvis afsløret deepfakes største akilleshæl. Deepfakes sætter blot en persons ansigtstræk ind oven på en anden person uden at tage højde for mimikken.

Agarwals algoritme kunne spotte 94 procent af de deepfake-videoer, hun kørte igennem programmet. Løsningen kræver dog en del billeder af personens mimik, så algoritmen fungerer bedst ved berømtheder, som der i forvejen findes mange billeder af.

Jagten er i gang

Teknologien bag deepfakes har udviklet sig til et punkt, hvor avancerede algoritmer skal tages i brug for at fange dem. Og i takt med at teknologien hele tiden forbedres, bliver det sværere at opdage en deepfake, før det er for sent.

Derfor har både Google, Facebook og Twitter lanceret projekter, som skal opdage og fjerne de falske videoer, inden de overhovedet når at sprede deres misinformationer på nettet.

Facebook har brugt millioner af dollars på at finansiere akademiske institutioner, der har billed- og videoanalyser på programmet og samtidig forsker i, hvordan deepfake-videoer kan udryddes.

Google har optaget interviews med hundredvis af skuespillere, som de derefter har konstrueret 3000 deepfakes ud fra. Materialet er nu lagt ud på internettet, hvor forskere og IT-specialister kan bruge dem til at træne deres algoritme i at opdage deepfakes.

Forskere snyder det virtuelle politi for første gang

De algoritmer, der bruges til at afgøre om en video er en deepfake, er for første gang blevet snydt af videnskaben.

Forskerne afslørede, at detektorerne i den algoritme, der afgør, om videoen er falsk eller ej, kan snydes ved at indsætte et modsatrettet billede i hvert video-frame (billede).

Når algoritmen har bedømt, at en video er falsk ud fra nogle bestemte parametre, indsættes de modsatrettede billeder og retter op på de fejl, der fik algoritmen til at kategorisere en video som værende falsk.
Metoden bruger derfor algoritmens egen logik imod sig selv, og det får systemet til at lave fejl.

Forskerne bag manipulationen vil bruge deres nye viden til at forbedre det virtuelle politi.

Hvis vi skal kunne adskille fakta fra fiktion i fremtiden, er det på høje tid, at der bliver gjort noget ved de falske videoer. Som den “falske” Obama siger det i deepfake-videoen fra 2018:

“Det lyder måske simpelt nok, men måden, vi agerer på i fremtiden i den her æra af information, bliver forskellen på, om vi overlever, eller om vi bliver en eller anden forskruet dystopi.”