Kan du stadig huske Barack Obamas ord? "Præsident Trump er en total og komplet idiot!"? Ganske provokerende, man er ikke vant til sådanne udtalelser fra den tidligere amerikanske præsident. Men sagde han virkelig det? Selvfølgelig gjorde han ikke det. Denne video er en såkaldt deepfake og blev skabt af Jordan Peele for at vise, hvor farlig sådan en fake kan være.1 Men lad os dykke lidt dybere ned i sagen.
Deepfake er en neologisme sammensat af "deep learning" og "fake". Det beskriver en metode til at manipulere billeder, videoer eller lydformater (ved hjælp af kunstig intelligens) på en sådan måde, at det menneskelige øje eller øre næppe kan opfatte forfalskningerne. Men hvad er egentlig formålet med en deepfake, og hvordan genereres den i første omgang?
For at skabe en deepfake bruger man såkaldte neurale netværk. Disse netværk fungerer på samme måde som den menneskelige hjerne og kan ud fra et stort datasæt forudsige, hvordan andre data af samme type vil se ud. Hvis man derfor fodrer disse netværk med nok billeder, videoer og lydindhold, bliver de bedre og bedre og skaber manipulationer af højere kvalitet.
Et meget effektivt neuralt netværk er GAN. Det blev første gang nævnt i en videnskabelig artikel af Ian Goodfellow i 2014. I årenes løb fortsatte forskellige forskere med at udvide disse netværk og kombinere dem med hinanden. Som et resultat blev forfalskningerne af højere kvalitet og mere troværdige. Men lad os først definere, hvad et GAN er.
Et GAN - en forkortelse for Generative Adversarial Networks - er et netværk bestående af to algoritmer. Den ene algoritme forfalsker et billede (forger), mens den anden algoritme forsøger at opdage forfalskningen (investigator). Hvis det lykkes efterforskeren at identificere forfalskningen, lærer forfalskeren af det og forbedrer sig hele tiden. Denne proces kaldes også dyb læring.
Hvilke typer af deepfakes findes der?
Den første og nok mest udbredte type er udveksling af ansigter i billeder eller videoer, såkaldt face-swapping. Her bliver kendte menneskers hoveder som regel taget og placeret i en anden kontekst.
En lignende metode er voice swapping. Som navnet antyder, manipuleres stemmer eller generelt lydindhold til at lyde som en bestemt person. Denne metode kan videreudvikles med manipulation af ansigtsudtryk, så de talte ord matcher læbernes bevægelser og ansigtsbevægelser.
Endelig er der kropsdukketeater. Her analyseres kroppens bevægelser og kan endda imiteres i realtid.
Hvorfor er deepfakes så farlige?
Da teknologien begyndte i 2014, blev den løbende udbygget og forbedret. I 2017 havde teknologien nået det punkt, hvor de første videoer kunne produceres. Det fik internetbrugere til at udnytte deepfakes til manipulation af pornografisk indhold, som først blev gjort tilgængeligt på internetplatformen Reddit. Disse videoer bestod af berømtheder afbildet i kompromitterende stillinger. Ifølge en undersøgelse foretaget af Sensity (dengang kendt som Deeptrace) var 96% af alle deepfake-videoer i 2019 pornografiske og handlede udelukkende om kvinder.2
"Udviklingen af fuld kunstig intelligens kan betyde enden på den menneskelige race."
- Stephen Hawking
Med tiden og den fortsatte videreudvikling af deep learning-processen blev der oprettet flere og flere YouTube-kanaler for at bedrage. Fakes af politikere, skuespillere og andre offentlige personer begyndte at se dagens lys. Fra 2018 til 2020 blev antallet af falske videoer fordoblet hvert halve år og nåede op på mere end 85.000 i december 2020.3
Hao Li, en deepfake-ekspert, har advaret om, at vi snart ikke længere vil være i stand til at identificere deepfakes som fakes. Problemet er dog ikke selve teknologien, men manglen på midler til at genkende disse forfalskninger. "Deepfakes vil være perfekte om to til tre år," sagde Li.4
Sandheden i dette udsagn afsløres i en programmeringskonkurrence initieret af Facebook AI i 2019. Gruppen udviklede et datasæt med 124.000 videoer, 8 ansigtsmodificeringsalgoritmer og tilhørende forskningsartikler. Men selv de bedste konkurrenter opnåede kun en detektionsrate på lidt over 65%.
"Dette resultat forstærker vigtigheden af at lære at generalisere til uforudsete eksempler, når man tager fat på udfordringerne ved deepfake-detektion.", forklarede en talsmand for Facebook AI.5
Eksempel på misbrug af deepfakes
Omfanget af den skade, som deepfakes kan forårsage, kan blandt andet illustreres af en sag i Gabon i 2018. Præsident Ali Bongosom ikke havde været i offentlighedens søgelys i meget lang tid og af nogle blev anset for at være død, offentliggjorde en video af en tale. Politiske modstandere kaldte videoen for en deepfake, hvilket udløste et kupforsøg fra militærets side.
TW: Vold mod børn/unge
Endnu en skræmmende sag er fortalt af X Gonzálesen stærk fortaler for strengere våbenlove i USA. Gonzáles overlevede massakren på Parkland-skolen og fik international anerkendelse for sin følelsesladede tale ved en mindehøjtidelighed efter begivenheden. Modstandere af yderligere våbenlovgivning bagvaskede Gonzáles i en video, hvor hun river den amerikanske forfatning i stykker. I den originale video river hun en skydeskive i stykker.
En video, der blev produceret om den amerikanske demokrat, Nancy Pelosidemonstrerer evnen til at bytte stemmer. Trumps tilhængere, og dermed konkurrenter til formanden for Repræsentanternes Hus, har redigeret en video, så hun ser beruset og lettere forvirret ud. Den falske video blev klikket på millioner af gange, på trods af at Nancy Pelosi ikke drikker alkohol.
TW: Seksualiseret blufærdighed
Den næste skandale, det handler om Rana Ayyub. Den kvindelige indiske journalist udtalte sig om det nationalistiske parti BJP og beskyldte det for at forsvare børnemishandlere. Som følge heraf og i et forsøg på at underminere hendes troværdighed blev der lavet en falsk pornofilm af hende af dem, der var kritiske over for hendes handlinger.
Hvilke apps er tilgængelige til at skabe deepfakes?
DeepFaceLab: Den nok mest kendte open source-applikation er DeepFaceLab. Ifølge appens udviklere er 95% af alle deepfake-videoer genereret med DeepFaceLab. Appen gør det muligt at bytte om på ansigter eller hele hoveder, ændre en persons alder eller justere fremmede menneskers læbebevægelser. DeepFaceLab er tilgængelig til Windows og Linux.
Zao: I modsætning til DeepFaceLab er Zao en app til smartphones. Den ekstremt populære applikation, der stammer fra Kina, skaber deepfake-videoer på få sekunder og er rettet mod underholdningsformål. Indtil videre er appen dog kun tilgængelig i Kina (eller for dem med et kinesisk telefonnummer) på Android og iOS. For nylig er appen blevet kritiseret for sin tvivlsomme privatlivspolitik. Brugerne giver afkald på alle rettigheder til deres egne billeder og videoer, når de bruger appen.
FaceApp: Applikationen blev mere og mere populær i 2019. Den tilbyder mange funktioner som foryngelse eller aldring, tilføjelse af skæg, make-up, tatoveringer, frisurer eller endda muligheden for at ændre ens køn. Men ligesom Zao har FaceApp også været genstand for megen kritik for sin privatlivspolitik. Også her afgiver man rettighederne til sit eget billede og sin egen video. Appen er tilgængelig til Android og iOS.
Avatarify: Endelig har vi Avatarify. Med denne applikation kan brugerne skabe live deepfakes i videochats. Teknologien er i stand til at genskabe ansigtsbevægelser som øjenblink og mundbevægelser i realtid og opnår dermed ekstremt realistiske efterligninger. De grundlæggende krav er dog ikke uden problemer. Du har brug for et kraftigt grafikkort og andre ekstra værktøjer for at kunne udføre installationen. Det fås til Windows, Mac og Linux eller i en skrabet udgave til iOS.
Hvordan genkender jeg en deepfake?
At afsløre en deepfake er ikke altid en let opgave. Først skal du altid tjekke konteksten for videoen eller billedet og overveje, om konteksten giver mening. FBI har også udgivet en liste6, hvor de fremhæver karakteristika ved deepfakes. Denne liste inkluderer, men er ikke begrænset til:
- Visuelle indikatorer som forvrængninger, deformationer eller uoverensstemmelser.
- Tydelig afstand mellem øjnene/placering af øjnene
- Mærkbare bevægelser af hoved og krop
- Synkroniseringsproblemer mellem ansigts- og læbebevægelser og tilhørende lyd
- Tydelige visuelle forvrængninger, normalt i pupiller og øreflipper
- Utydelige eller slørede baggrunde
- Visuelle artefakter i billedet eller videoen
Den DeepFake-o-meter kan også bruges til at analysere og afsløre videofiler.
Men er deepfakes kun negative?
Deepfakes er ikke udelukkende negative. En positiv indvirkning, de har, kan ses i filmverdenen. For eksempel blev Luke Skywalker kunstigt deepfaked i serien Mandalorian. Disney planlægger også flere deepfake-film ved hjælp af deres Disney Megapixel deepfakes-teknologi. I fremtiden vil det være muligt at lave film med skuespillere, der allerede er døde.
Der sker også fremskridt inden for e-træning. Softwarevirksomheden Synthesia har udviklet en AI, der genererer videoer ud fra tekst. Videoerne indeholder kunstigt skabte mennesker, som kan gengive det ønskede indhold. I Synthesias tilfælde bruges denne teknologi til at skabe e-læringskurser, præsentationer, personaliserede videoer eller chatbots.
Et andet eksempel på innovativ brug af deepfake-teknologi er demonstreret af et forskerhold fra Moskva. De har formået at puste liv i Mona Lisa. Du kan forundres over det bevægelige oliemaleri på YouTube.
1 https://www.youtube.com/watch?v=cQ54GDm1eL0
2 https://regmedia.co.uk/2019/10/08/deepfake_report.pdf
3 https://sensity.ai/how-to-detect-a-deepfake/
4 https://www.cnbc.com/2019/09/20/hao-li-perfectly-real-deepfakes-will-arrive-in-6-months-to-a-year.html
5 https://ai.facebook.com/datasets/dfdc
6 https://www.ic3.gov/Media/News/2021/210310-2.pdf