Arbeider

Slik deepfaket vi Abid Raja

Abid Raja i NewsLab sitt studio, når vi skal deepfake ham for Medietilsynet.

Utfordring

Medietilsynet jobber for å øke nordmenns digitale kompetanse og nettvett. Som en del av sin kampanje «Stopp. Tenk. Sjekk.» ønsket de derfor å informere om deepfake-videoer.

En deepfake er en kunstig produsert video eller lydopptak hvor en bytter ut personers stemmer og ansikt ved hjelp av kunstig intelligens. Nærmere bestemt brukes en gren av KI som kalles dyp læring. Derav navnet deepfake: en forfalskning laget gjennom dyp læring.

I stedet for å ha en ekspert som formanet om problematikken rundt dette, ønsket Medietilsynet å vise det frem i praksis – gjerne med en kjent nordmann som kunne bli deepfaket.

NewsLab tok utfordringen på strak arm. Selv om vi både hadde skrevet om og laget videoinnhold om deepfakes tidligere, og lenge har brukt ulike former for kunstig intelligens aktivt i vår arbeidshverdag, hadde vi aldri laget en deepfake fra bunnen før.*

Oppdraget gikk til VFX-vidunderet Sindre Nakken, som satte i gang med å utforske forskjellige løsninger. Medietilsynet kontaktet Abid Raja og fikk ham med på prosjektet, mens FFI-forsker Eskil Sivertsen ble engasjert som den som poserer som politikeren.

Løsning

For oss var det viktigste å levere et troverdig produkt, som også var uten risiko for at våre opptak skulle bli misbrukt av tredjepart.

Det har etter hvert dukket opp mange tredjepartstjenester som leverer deepfakes. Vi vurderte innledningsvis å bruke selskapet Synthesia, som kun krever at man leverer materiale til dem – altså må en ikke selv ha noen tekniske forkunnskaper. Synthesia har også et juridisk rammeverk for å unngå misbruk. De var dog dyre, og hadde svært begrensede muligheter for hva slags videoer som kunne lages.

Derfor falt vi ned på at den beste og tryggeste løsningen var å gjøre det selv. Vi gikk derfor for en åpen kildekodeløsning ved navn DeepFaceLab.

DeepFaceLab er gratis, og åpent for alle, men krever en del mer manuelt arbeid og forkunnskaper.

Koden inneholder flere læringsmodeller som sammen er trent til å kjenne igjen og tegne ut ansikter. Koden er dog «dum» i den forstand at selv om den vet hvordan et ansikt skal se ut, må den likevel trenes opp spesifikt på ansiktene man vil deepfake for å få et godt resultat. Vi måtte derfor trene den opp fra bunn av med vårt eget datasett.

Datasettet i dette tilfellet, bestod av opptak vi gjorde selv av Abid og Eskil. Årsaken til at vi filmet råmaterialet selv, er at man da har større kontroll over kvaliteten på treningsmaterialet og dermed kan få bedre resultater med mindre trening av modellen.

– Vi sparte tid på dette, blant annet fordi vi kunne optimalisere materialet for å passe til akkurat denne deepfaken, sier Sindre Nakken som var VFX-artist på prosjektet.

Abid Raja og Eskil Sivertsen behind the scenes i studio.

Men, og det er her det blir skummelt for offentlige personer, det er også fullt mulig å trene datasettet opp på bilder man finner på nettet. Det krever bare flere bilder og mer trening, da kvaliteten er varierende, og tar lengre tid.

Denne typen deepfake – uavhengig om man trener modellen på offentlige bilder, eller egne bilder – består av to «lag»:

Det første laget er en video som fungerer som underlag – i vårt eksempel Eskil Sivertsen som fremførte sitt manus.

Oppå denne, legger man en digital maske som modellen lager ved å se på en stor mengde bilder av personen som skal deepfakes – i vårt tilfelle Abid Raja. Vi brukte 4375 bilder av Abid for å lage modellen.

Etter å ha skaffet underlaget som koden skal trene på, satte vi i gang den første modellen med å kjenne igjen Abid og Eskils ansikter. Vi ga den litt ekstra drahjelp ved å gå inn og manuelt tegne opp hva som utgjør hodet på enkelte bilder for å øke kvaliteten, men også for at modellen – som i utgangspunktet kun kjenner igjen ansikter – skulle skjønne at vi også ville ha resten av Abids hode.

Etter å ha lært seg hvordan et ansikt, og resten av hodet til Abid og Eskil, ser ut, satte vi i gang neste modell på å øve på å «tegne» Abid. Sindre forklarer:

– For å få et godt resultat må den stå og holde på med dette i flere dager på en nokså kraftig forbruker-PC. Til slutt – etter at modellen har lært seg å tegne Abid – kan man hente ut en video der Abid etterlikner ansiktsuttrykket på underlagsvideoen. Når modellen først har lært seg å tegne masken – kan man bruke denne på flere underlagsvideoer.

Ansiktet er nå klart. I vårt tilfelle skulle vi også fake kroppen til Abid – dette ble gjort mer manuelt med såkalt compositing, altså kombinasjon av bilder, i After Effects. Her ble også siste finpuss gjort.

I og med at dette skulle være en informasjonskampanje om deepfake-videoer, var det viktig å avsløre «løgnen» på en tydelig måte.

Dette gjorde vi med å vise frem sammensetningen av deepfaken i de endelige videoene, samt at vi fikk Abid til å gå inn i studio sammen med Eskil.

Videoene er en del av Medietilsynets kampanje «Stopp. Tenk. Sjekk.»

Les mer om kampanjen hos Medietilsynet

*Dette prosjektet ble igangsatt høsten 2022. Vi har i mellomtiden gjort flere deepfake-stunt også for andre kunder.