Robot

Facebooks nyeste AI-robot kan producere videoer ud fra dine tekster

AI-revolutionen til de kreative fortsætter med Facebook-opfindelse, der skal producere videoer fra ord og tekster, som du taster ind i programmet.

AI-revolutionen til de kreative fortsætter med Facebook-opfindelse, der skal producere videoer fra ord og tekster, som du taster ind i programmet.

Shutterstock

Knap nok har tech-industrien introduceret kunstig intelligens som Craiyon og Dall-E-2 til at bygge billeder ud fra tekst, før næste AI-opfindelse til kreative sjæle er på vej.

Facebooks moderselskab Meta har således for nyligt lanceret servicen Make-a-Video, der ved hjælp af dine ord- og tekst-input kan bygge små videoer med levende billeder. Her kan du for eksempel se en teddybjørn, der maler et selvportræt.

Lignende løsninger er på vej fra flere it-selskaber, hvilket inden for få år giver både professionelle producenter og helt almindelige mennesker mulighed for at få avanceret AI mellem hænderne.

Op mod 30 billeder i sekundet

Videoer konstrueret af ord med AI i motorrummet bygger på samme principper som at skabe et stillestående billede ud af tekst ved hjælp af to neurale netværk.

Det ene neurale netværk opfinder billeder ud fra dine ord. Det andet AI-netværk kontrollerer løbende de opfundne billeder mod et stort billedarkiv og en score for nøjagtighed, som systemet hele tiden prøver at overgå for at forbedre dine endelige billeder.

I Web-videoer med typisk 24 til 30 billeder i sekundet skal AI-systemet også håndtere bevægelser i motivet med pixelperfekt præcision.

”Make-A-Video løser problemet ved at tilføje et lag af indlæring, der gør systemet i stand til at forstå bevægelser i den fysiske verden og anvende det på traditionel tekst-til-billedgenerering,” forklarer Meta-direktør Mark Zuckerberg i et Facebook-opslag.

Genkender fysiske love

For at forstå bevægelser i levende billeder har Metas AI til videoproduktion indbygget fysiske love som blandt andet tyngdekraft til at styre interaktionen mellem personer og genstande i videoerne.

Samtidig bliver den kunstige intelligens trænet i at optimere bevægelserne realistisk, når objekterne i videoer interagerer med hinanden og blandt andet danner skygger.

Eksempelvis har Meta i en video med en kunstmaler i gang med at male et billede trænet AI’en til en forståelse for, at en pensel på et lærred efterlader nye streger og farver på lærredet.

Meta har dog indtil videre kun offentliggjort den slags præ-fabrikerede AI-videoer på fem sekunder for at demonstrere teknologien, men du kan tilmelde dig tjenesten for at blive en af de første AI-producenter, når den er klar til til maninstream-brug.

Google også på vej

Flere videotjenester bryster sig allerede af at have AI som medproducent, men udvalget er noget mere simpelt end Metas visioner med indhold, hvor kun fantasien sætter grænser.

Synthesia-tjenesten kan du eksempelvis taste tekst ind på et website, hvorefter computerskabte avatarer udtaler dine ord som en nyhedsoplæser.

Eller du kan på InVideo-servicen kreere mere kunstnerisk indhold ud fra eksisterende video-skabeloner, hvor der trods alt er begrænsninger på antallet af skabeloner.

Også Google barsler med en tekst-til-video-tjeneste ved navn Phenaki opkaldt efter det første animationsværktøj, der med motiver tegnet på en roterende papskive giver illusionen af bevægelse.

Googles AI-animationer er i lighed med Metas videoer ikke åbnet for offentligheden endnu.

Sideløbende arbejder Google på værktøjer til at forhindre spredningen af falske nyheder – ikke mindst når alle og enhver kan producere troværdige videoer med Hitler som børnehavepædagog eller andet kontroversielt indhold.